AIはなぜ、自律的に動けないのか。
技術的な話をしても面白くないので、
私が実感した話をします。
AIに販売システムを丸ごと任せようとしたことがあります。
情報収集から、
判断から、
フィードバックを取得して修正するところまで。
もちろん、配信も。
結果は、途中で止まりました。
広告や記事の投稿を、私がコピペしてやる前提のシステムに
なってしまったからです。
私が普段、そのコピペを消すためのシステムを
作っている人間なのに、それをやらせる前提のシステムなら、
いらない。そう判断して、やめました。
では、なぜそうなるのか。
一言で言えば、AIは「意味」を理解していないからです。
「座る」という言葉を知っているAIは、
「座る」に関連するテキストを大量に学習しています。
でも、重力も、筋肉の弛緩も、視点の変化も、
その言葉に紐づく身体的な経験を持っていない。
だから、「広告を出して反応が悪かった」という事実を渡されても、
なぜ悪かったのかを、世界の仕組みから推論することができない。
似たパターンから答えを引っ張ってくるだけです。
これをAI研究の世界では「ワールドモデルの欠如」と呼びます。
世界がどう動くかの内部表現を持っていない、ということです。
フランスの哲学者ドレイファスが、1970年代から言い続けてきたことと、
構造的に同じ問題です。
言語だけで訓練されたシステムは、記号と記号の関係しか学べない。
身体を持つ存在が経験を通じて得る「意味の理解」には、
たどり着けない、と。
これが解決されない限り、
「結果を見て、判断して、修正する」という自律的なループは、
AIには回せません。
では、解決策はあるのか。
研究の方向性としては存在します。
ゲーム環境の中でAIに行動させて、
言語と結果を紐づけようという試みも、実際に行われています。
ただ、実用レベルで出てくるまでの時間軸は、
楽観的な予測でも数年、慎重に見れば10年以上、
という研究者もいます。
今のAIは、賢くて、速くて、有能な作業員です。
ただし、意味はわかっていない。
そのことを理解した上で使うのと、
理解せずに使うのとでは、
引き出せる価値が、まるで違ってきます。