●自己注意機構とMLPブロックで構成される“Transformer”モデル
―― 次にTransformerというところですね。
岡野原 そうですね。このTransformerが、今(第5話で)説明した「注意機構」と、もう1つ、記憶の主翼を担っている「MLPブロック」と呼ばれるモデルで構成されています。ちなみにこのTransformerがある種、今の大規模言語モデルを成功させた主要因の1つだといわれています。
このTransformerも、「注意」のしくみを元にすると簡単な話で、中身は2つからなっています。
1つは説明した「注意」、どこから情報を持ってくるのかという部分です。では「注意」でどこから情報を持ってきますかというと、前のときの、どこかの自分の処理の途中結果を取ってくるのです。これがたくさんあって、自分の処理の途中結果を集めてくる。例えば、「彼」というところにあるブロックの周りから、この「彼」というところに情報を集めてくる。(つまり)「彼」に関する情報を集めてくるのです。
次に、「彼」に溜まっている情報と別の場所の単語を「この情報、自分がほしいから取ってください」というように、「自己注意機構」でどんどん情報を行き来させる。これが1つです。
もう1つ、この(スライドの)右側の「MLPブロック」というのは何を実現しているかというと、長期記憶です。今見ている文章ではない、過去に読んだ文章でも、たくさん役に立つ情報はもちろんあるわけです。例えば、「病院というのはこういう機能を持っていますよ」だとか、「こういう人が行きやすいですね」だとか、そういう情報がものすごく大量に詰まっているのです。
Transformerは、この2つが、たくさん組み合わさってできているモデルになっている。次の単語を予測するために、「自己注意機構」で周りからどんどん必要な情報を集めてくる。さらには、今の文章ではない、昔読んだ文章からもどんどん情報を持ってこなければいけないということで、「MLPブロック」からも情報を集める。これが100層とか、何回も処理されて、ここまでやってようやく1つの単語を予測するというモデルになっています。
―― なるほど。今のお話を聞いていると、たしかに「理解」というものにだいぶ近くなっている気がしますね。
岡野原 そうですね。なので、1個1個がやっていること自体は、ものすごく単純な...