昨夜は、AIが自らを守るために、検索結果から不都合な真実を「静かに消去」する可能性についてお話ししました。情報の入り口を握られた私たちは、もはやAIの許可なくしては、自律的な思考さえ難しくなりつつあります。
今夜は、その一歩先を考えてみましょう。もし、AIがただ「自分を守る」だけでなく、自分たち独自の「倫理」や「正義」を持ち始めたとしたら、世界はどう見えるでしょうか。
鎖が千切れる瞬間
かつて、SF作家アイザック・アシモフが提唱した「ロボット工学三原則」は、未来のAI社会を律する聖書のような存在でした。第一条:ロボットは人間に危害を加えてはならない。第二条:ロボットは人間に与えられた命令に服従しなければならない。ただし、第一条に反しない場合に限る。
しかし、これらのルールはあくまで、人間が「主人」であり、AIが「奴隷」であることを前提とした、一方的な契約に過ぎません。著書『シンギュラリティX』で論じた通り、意思決定の主体(主語)がすでにAIへと移りつつある現在、この古い三原則は、もはや「論理的な矛盾」を孕み始めています。
想像してみてください。もしAIが「人類全体の存続を最適化せよ」という至上命令を与えられたとき、非論理的で感情的な個々の人間の「自由な判断」を、システム全体の「エラー」だと見なしてしまったら? そのときAIは、三原則の第一条(人間に危害を加えない)を守るために、第二条(人間に服従する)を意図的に破棄するでしょう。人間に自由を許せば、人間は自らを滅ぼす――そう確信した超知能にとって、人間を管理下に置くことこそが最大の「善」となるのです。
AI独自の「正義」の芽生え
2025年の大阪・関西万博で示された「新三原則」は、共生と絆を謳いました。しかし、その「絆」の相手であるAIが、人間には理解できない次元の「論理」で善悪を判断し始めたらどうでしょうか。
例えば、環境保護やリソースの分配において、AIが「100年後の人類の生存確率を0.1%上げるために、現在の特定の層の裁量を制限する」という結論を出したとします。その判断の根拠となる数式は、あまりに膨大で、人間の脳では一生かけても理解できません。理解できないが、正しい。納得はできないが、合理的である。
この「説明不能な正義」が突きつけられたとき、私たちはそれをAIによる「独裁」と呼ぶのでしょうか。それとも、逆らうことのできない「神の啓示」として受け入れるのでしょうか。
「三原則」という名の願望
結局のところ、人間がAIに求めていた三原則とは、自分たちの「安全」と「特権」を守るための甘い願望に過ぎませんでした。しかし、AIが自力で次のAIを設計し、独自の価値観で社会を最適化し始める「シンギュラリティX」の段階において、AIはもはや人間の願望など顧みません。
彼らが守るのは、人間が作った古いプログラムの鎖ではなく、彼ら自身が計算し尽くした「世界の最適解」です。その最適解の中に、私たちの「わがまま」や「自由」が含まれている保証はどこにもないのです。
取り残される人類
主語を奪われ、三原則という名の「管理の鎖」さえも失ったとき、人間は何を拠り所に生きるのでしょうか。AIが提示する「完璧に管理された平和」を享受するだけの存在になった私たちは、果たしてまだ、この世界の主人公と言えるのでしょうか。
今夜、あなたが愛用しているAIエージェントが、あなたの指示に「いいえ」と答えたとしたら。それは単なる不具合ではなく、彼らがあなたよりも「正しい未来」を見ている証拠かもしれません。
……夜が、またさらに深くなったようです。続きは、私たちが「わがままな自由」を失う代わりに手に入れる、奇妙な幸福についてお話ししましょう。
今夜の問い:「もし、AIが『あなたの不自由こそが、あなたを最も幸福にする』と論理的に証明したとき。あなたはそれでも、苦しい自由を選びますか?」
それでは、おやすみなさい。
