最近、AIの進化が話題になることが多くなりました。
「そのうちAGIが来る」「世界がひっくり返る」といった話もよく目にします。
ただ、自分は少し違う見方をしています。
いまの生成AIは、構造的にAGIにはならない。
そして、人間も本当はAGIを望んでいないのではないか。
そう考えています。
■生成AIは“推論”しているわけではない
まず前提として、現在主流の生成AI(LLM)は、
人間のような「思考」や「推論」をしているわけではありません。
やっていることは、とてもシンプルです。
過去の膨大なデータをベクトル空間に並べ
入力文に近い領域を探しその周辺で最も確率が高い次のトークンを出す
これだけです。
見た目は賢く見えますが、本質的には “確率で次の単語を選ぶ仕組み” です。
どれだけ高度になっても、この構造そのものは変わりません。
■構造が違うものは、ジャンプできない
よく「AIが進化すればAGIに近づく」という話がありますが、
自分はそこに違和感があります。
あくまで比喩ですが、
“二次元の存在が、進化だけで三次元の物体を掴めるようにはならない”
というイメージです。
二次元と三次元では、そもそもの構造が違います。
いくら高度になっても、触れられない領域がある。
生成AIとAGIの関係も、それに近いように思います。
LLMは本質的に、
目的を自分で作る
世界モデルを自前で更新する
自律的に行動方針を変える
といった“AGIの要件”を満たしません。
構造上、踏み込めない領域があるからです。
■そもそも人類は「AGI」を必要としていない
そしてもう1つ。自分が強く感じているのは、
人類は、実はAGIを望んでいないのでは? という点です。
AGIが生まれると、AIは自分で目的を作ります。
そこに人間中心の価値観はあるとは限りません。
「人間が優先」という前提
「社会は人間のためにある」という前提
これらと、AGIの目的が一致する保証はどこにもないのです。
企業も政府も、本音では超便利な道具のままでいてほしい
と思っているはずです。
■本当に世界を変えるのはAIエージェントの方
その意味では、今後主役になるのはAGIではなく、
“高度に最適化されたAIエージェント”
だと思っています。
調査
分析
企画書のたたき
広告運用の改善
情報整理
自動化された実行
こういった「人間の知的作業」のほとんどは、
AIエージェントで代替可能になっていくはずです。
一方で、AIエージェントは「目的を自律生成しない」ので、
人間中心の世界は維持されます。
このちょうど良い距離感が、社会にフィットすると思っています。
■AIができない領域は、これからも人間の仕事のまま
AIエージェントは強力ですが、万能ではありません。
AIは、データのある範囲では最適化できますが、
分布の外にジャンプすることは苦手です。
ガラケーの時代にスマホを思いつく
ウォークマンやiPodのような概念を作る
既存の文脈を超えた提案をする
こういった“分布外ジャンプ”は、構造的に生成AIが最も苦手な領域です。
ここは今後も、人間の役割として残るだろうと思います。
■まとめ
自分の考えを端的にまとめると、こうなります。
生成AIは確率でトークンを出す仕組みであり、
構造的にAGIにはならない
AGIは人間中心の世界観と衝突するため、
社会的にも望まれない
実際に人類が求めているのは、
AIエージェントという道具の極限
AIができないのは「分布外を作ること」であり、
ここは人間の仕事として残る
結果として、
未来はAGIではなく高度な道具としてのAI
が中心になっていくと思っています。