最近、AIの進化が話題になることが多くなりました。
「そのうちAGIが来る」「世界がひっくり返る」といった話もよく目にします。
ただ、自分は少し違う見方をしています。

 いまの生成AIは、構造的にAGIにはならない。
 そして、人間も本当はAGIを望んでいないのではないか。

そう考えています。

■生成AIは“推論”しているわけではない

まず前提として、現在主流の生成AI(LLM)は、
人間のような「思考」や「推論」をしているわけではありません。

やっていることは、とてもシンプルです。

過去の膨大なデータをベクトル空間に並べ
入力文に近い領域を探しその周辺で最も確率が高い次のトークンを出す

これだけです。

見た目は賢く見えますが、本質的には “確率で次の単語を選ぶ仕組み” です。
どれだけ高度になっても、この構造そのものは変わりません。

■構造が違うものは、ジャンプできない

よく「AIが進化すればAGIに近づく」という話がありますが、
自分はそこに違和感があります。

あくまで比喩ですが、

 “二次元の存在が、進化だけで三次元の物体を掴めるようにはならない”

というイメージです。

二次元と三次元では、そもそもの構造が違います。
いくら高度になっても、触れられない領域がある。
生成AIとAGIの関係も、それに近いように思います。

LLMは本質的に、

 目的を自分で作る
 世界モデルを自前で更新する
 自律的に行動方針を変える

といった“AGIの要件”を満たしません。
構造上、踏み込めない領域があるからです。

■そもそも人類は「AGI」を必要としていない

そしてもう1つ。自分が強く感じているのは、
人類は、実はAGIを望んでいないのでは? という点です。

AGIが生まれると、AIは自分で目的を作ります。
そこに人間中心の価値観はあるとは限りません。

「人間が優先」という前提
「社会は人間のためにある」という前提

これらと、AGIの目的が一致する保証はどこにもないのです。
企業も政府も、本音では超便利な道具のままでいてほしい
と思っているはずです。

■本当に世界を変えるのはAIエージェントの方

その意味では、今後主役になるのはAGIではなく、
“高度に最適化されたAIエージェント”
だと思っています。

 調査
 分析
 企画書のたたき
 広告運用の改善
 情報整理
 自動化された実行

こういった「人間の知的作業」のほとんどは、
AIエージェントで代替可能になっていくはずです。

一方で、AIエージェントは「目的を自律生成しない」ので、
人間中心の世界は維持されます。

このちょうど良い距離感が、社会にフィットすると思っています。

■AIができない領域は、これからも人間の仕事のまま

AIエージェントは強力ですが、万能ではありません。
AIは、データのある範囲では最適化できますが、
分布の外にジャンプすることは苦手です。

 ガラケーの時代にスマホを思いつく
 ウォークマンやiPodのような概念を作る
 既存の文脈を超えた提案をする

こういった“分布外ジャンプ”は、構造的に生成AIが最も苦手な領域です。
ここは今後も、人間の役割として残るだろうと思います。

■まとめ

自分の考えを端的にまとめると、こうなります。

 生成AIは確率でトークンを出す仕組みであり、
 構造的にAGIにはならない

 AGIは人間中心の世界観と衝突するため、
 社会的にも望まれない

 実際に人類が求めているのは、
 AIエージェントという道具の極限

 AIができないのは「分布外を作ること」であり、
 ここは人間の仕事として残る

結果として、

 未来はAGIではなく高度な道具としてのAI

が中心になっていくと思っています。