テンミニッツTV|有識者による1話10分のオンライン講義
ログイン 会員登録 テンミニッツTVとは
テンミニッツTVは、有識者の生の声を10分間で伝える新しい教養動画メディアです。
すでにご登録済みの方は
Facebookでシェア Xでポスト このエントリーをはてなブックマークに追加

ハルシネーション…ときどき嘘をつく隣人との付き合い方

生成AI・大規模言語モデルのしくみ(6)大規模言語モデルの4つの能力

岡野原大輔
株式会社Preferred Networks 共同創業者、代表取締役 最高研究責任者
概要・テキスト
言語モデルが大規模化することで、開発者も予想していなかったような能力を発揮している生成AI。今回は、生成AIが「学習のしかた」を学習することで身につけたさまざまな能力を紹介する。また、誤情報を出力してしまう「ハルシネーション(幻覚)」を含めた、生成AIとの付き合い方も考える。(全6話中第6話)
※インタビュアー:川上達史(テンミニッツTV編集長)
時間:15:36
収録日:2024/04/16
追加日:2024/08/13
≪全文≫

●言語モデルの能力〈1〉少ないデータ数で学習できる


―― それをやったために、いろいろな能力が生み出されてきているということになるわけですね。

岡野原 そうですね。この(スライドにある)「創発」というのは、「いろいろな種類の能力が突然できる」という話なのですけれど、もう少し違う種類も含めて、4つ紹介させていただきます。

 1つ目は、大規模言語モデルの何がすごいかというと「少ないデータで学習ができる」ことです。これは、先ほど(第2話で)説明した機械学習のグランドチャレンジだったことの1つで、普通は、機械学習はたくさんデータを見せないと学習してくれません。犬猫を分類したいという場合でも、1000回くらい犬と猫を見せないと学習してくれないのです。

 人間だと、1回見たら、(あるいは)写真を見せたら、新しい動物でも(それが何のことか)いえますけれど、今のAIは残念ながらいえなかったのです。

 ところが、大規模言語モデルの場合ですと、少ない枚数、例えば5回だとか10回だけ例を見せてあげると、実際にその問題の例に合わせてその場で学習して、それが解けるようになります。

 なので、よく大規模言語モデルを利用する場合は、最初にこういう場合はこうしてくださいという例を5つくらい見せる場合があるのですけれど、それで内部で実際に性能がグッと上がっているということが分かっています。

 この上がる能力ですが、大規模言語モデル以外では1000回くらいデータを見せないといけなかったものと、10回しか見せていない大規模言語モデルが、だいたい同じくらいの性能で達成できています。

―― これはまた基本的な質問になってしまうのですけれど、1回、「べき乗則」でたくさんのデータを読み込ませたものだと、新しいデータがすぐ読めるようになるということですか。

岡野原 そうです。

―― そういう形ですね。なるほど。1回そういうものができてしまったら、そこから先はすごく速いのですね。

岡野原 そうです。

―― どこかの境界線を超えたらすごく速いということになるわけですね。

岡野原 少したとえが正確ではないのですけれど、ある意味、大規模言語モデルは、ものすごくいろいろな練習をしているスーパーアスリートみたいなものです。運動...
テキスト全文を読む
(1カ月無料で登録)
会員登録すると資料をご覧いただくことができます。