●人間がAIを「賢い」と思うのはなぜか
―― (第2話で論じていただいた)アウシュヴィッツの例は非常に極端というか、重たく悲劇的な例でしたが、そうではないものも、もしかすると、(AIの解釈の中に)少しずつ「ちょっと違うところ」が入ってきてしまうかもしれない。人間の場合は、(各々の)生活知の中で、「これはちょっと違うんじゃないの」と判断できるものが、(AIでは)そのままの形で出てしまうかもしれません。
西垣 そうですね。
―― そういう性格があるAIであるにもかかわらず、なぜ人間は、AIの回答を見て「やっぱり賢いな」と思ってしまうのか。この点についてはいかがですか。
西垣 今おっしゃったことはとても大事なポイントだと思います。AIはもともと「論理的に正しい」ことでアピールしたものでした。
ChatGPTのようなAIは少し変わっていて、耳や目に快いといいますか、人間に一歩近づき分かりやすく話してくれるというのが特長になっています。
ですが、もともとは、コンピュータは間違えないという考えからAIは始まりました。人間には欲望もあるし、嘘もついたりする。それに対して、コンピュータは正確な言説を作り出すということが、AIの研究を導いたモチベーションでした。
これは、20世紀の初めにバートランド・ラッセルとホワイトヘッドが書いた『プリンキピア・マテマティカ(数学原論)』という哲学書にも現れています。要するに論理主義にもとづく哲学ですね。「世界を論理的に記述し、演繹的に言説を組み合わせることで正確な答えが出てくる」というもので、それが間違いない真実なのだと。
実は、こうした論理主義という考え方と、コンピュータの間には、非常に深い関係があります。
チューリングやフォン・ノイマンといった、20世紀の半ばにコンピュータを作っていった人たちの頭の中には、そういった論理主義があります。世界は論理的に秩序だって存在している。それを正確に記述する。こういった分析を速く自動的におこなう機械としてコンピュータは誕生しました。
これがコンピュータの基本イメージです。ですから、「コンピュータからの出力は間違いなく合っている」という考えが出てくることになります。
これは大事な点だと思います。というのも、今言ったようなことは、コンピュータの原理をちゃんと学んだ人たちの間ではよく知られたことなのですが、ただ道具としてコンピュータを使っている人たちは分かっているとは思えません。
―― そうですね。
西垣 『数学原論(プリンキピア・マテマティカ)』のような難しい話は、「何を言っているんだ」ということになる。コンピュータとは、データをパパッと処理してくれるものくらいにしか思っていない。そうなると、ChatGPTでとんでもない社会的混乱が起こりかねません。
●「論理」や「知識」ではなく、いかに「統計」で答えを導き出すのか
―― これも先生が『超デジタル世界 DX、メタバースのゆくえ』でお書きになっていることですが、1950年代の第1次AIブームというのが、まさに今おっしゃった、「論理に基づくAI」であると。第2次、1980年代の時は、「知識を集めて正しい答えを導き出そう」としました。2010年代半ばからの第3次AIブームは、先ほどおっしゃったように「統計」。
西垣 「統計」処理がキーワードです。
―― だからその前の「論理」や「知識」とは、フェーズが全く違ってきているということですね。
西垣 はい、キーワードが変わってきたと思います。これも大事な点です。最初は「論理」でしたが、「論理」だけで処理できる世界はわりと少ないのです。パズルなどはできますが、それだけだとあまり役に立ちません。
―― はい。
西垣 論理的な計算はできますよ。でもそれより進んで、例えば医療の診断や裁判の法的な助言という段階になると、「論理計算」だけではダメで、やはり医学知識や法的な知識が必要になります。そういう「知識」をAIに入れておいて、例えば診断のとき、喉が痛い、おなかが痛いという症状を入力すると、「この人はしかじかの病気である」といったことを演繹していく。これが第2次AIブームでした。
この頃、私はスタンフォード大学にいたのですが、そのメッカでしたね。そのうち医者も弁護士もいらなくなるといわれていましたが、とんでもない話ですよね。
というのも、医学的なデータや法的な判例にも、0か1かではない曖昧な部分、解釈の余地は多分にあるわけです。それを踏まえて総合的に判断していくのが人間のおこなう診断や、法的な決断ですから、結局、第2次AIブームは失敗に終わりました。
ところが、第3次(AIブーム)は少し違います。つまり、パターン認識というのは、0か1ではありません。例えば、私の写真をずらっと並べておいて、AIがどれも私の顔...