テンミニッツTV|有識者による1話10分のオンライン講義
ログイン 会員登録 テンミニッツTVとは
テンミニッツTVは、有識者の生の声を10分間で伝える新しい教養動画メディアです。
すでにご登録済みの方は
このエントリーをはてなブックマークに追加

大規模言語モデルのインパクト…ChatGPTの発展

Microsoft Copilot~AIで仕事はどう変わるか(2)生成AIの現在地

渡辺宣彦
日本マイクロソフト株式会社 執行役員常務 エンタープライズ事業本部長
情報・テキスト
日進月歩の開発が進む生成AIは、人間と同等の知性を獲得しつつある。その開発は、人間のより広範な活動にAIを活用するという目的に根ざしている。大規模言語モデル(Large Language Model)という言語モデルによって、私たちの日常生活や仕事において欠かせないパートナーになろうとしている生成AI。その現在地を解説する。(全7話中第2話)
※インタビュアー:川上達史(テンミニッツTV編集長)
時間:07:04
収録日:2023/08/01
追加日:2023/10/04
キーワード:
≪全文≫

●“Large Language Model”でより広範なAI活用へ


渡辺 生成AIというのは非常にインパクトのあるもので、ここで1つキーワードとして申し上げておきたいのが、その土台になっている大規模言語モデル=“Large Language Model”というものです 。これを実現して、ChatGPTのような形でユーザーに提供することを通じて、特定のタスクに特化していた先ほどの囲碁のケースなどではなくて、もっと幅広い目的のためにこれを使いこなすことができるようになったというのが、この生成AIの非常に大きな新しさであるということになろうかと思います。

 その生成AIについて、われわれマイクロソフトがパートナーシップを組んで一緒に仕事をしている企業、あるいは組織は、OpenAIという団体です。この会社がChatGPTというものを提供しているという関係になっています。

 このOpenAIについて、「組織」という言い方をしましたが、本来この組織は非営利団体としてつくられたもので、メディアなどでいろいろ出ていますので、ご覧になっている方もあるかと思いますけれども、イーロン・マスクが実はこれに絡んでいます。あと、今CEOになっているサム・アルトマンが一緒に2015年に立ち上げた組織ですので、もう8年くらいの歴史があるのです。

 それで、今のChatGPTにつながるAIは2018年にGPT1という形でリリースされています。その当時GPT1が処理していたパラメータ数は1億2000万個くらいで、学習したデータ量が4.5GBだそうです。 多いのか、少ないのかちょっとわからないですけれど、その後のことを申し上げると、当時はまだ少なかったのだなというふうに感じていただけるかと思うのです。

 翌年の2019年には早速GPT2というものを発表していて、構造は同じようなものなのですけれども、パラメータ数は15億個に増えています。大量のウェブページを学習して、40GBのテキストデータを学習したそうです。

 その後、2020年に、まさに今使われているGPT3というものを発表しているのですけれども、パラメータ数は1750億個に増えました。倍増どころではないですね。爆増したという感じになるかもしれません。それで570GBのテキストを学習したということです。 この段階から、人間がつくったものとほぼ区別がつかない、遜色のない文章を生成することができるようになっていたということなので、2020年くらいは、ある意味で境目です。

―― 境目。

渡辺 ちょうどわれわれがコロナで苦しんでいる頃だと思うのですけれども、境目になってきているのかなと思います。

 そして今、ブーム、あるいはバズワード化しているようなことになっているのかと思うのですが、これにつながるChatGPTというものをOpenAIがリリースしたのは、昨年(2022年)の11月30日です。なので、そこから3カ月間で1億ユーザーを獲得したということになると思います。チャットという形で提供したということが非常に大きなポイントと思っていまして、使いやすいインターフェースで、対話型で生成AIを使えるようになってきました。

 今の最新情報ですが、今年(2023年)の3月に、GPT4というものを発表していますので、そのAIのモデルというのはもっと高度化してきているのですけれども、詳細を公表しておりません。 サム・アルトマンは、AIの活用にはまだ懸念があるという趣旨のことをよく言っているので、そのあたりが解消されるのを待って詳細を公表したり、多くの方にそれが提供されるような形に物事を進めていくような姿勢なのだと考えています。

 GPTという言葉についてご質問をいただくこともあるので、少しお話しすると、GPTは“Generative Pre-trained Transformer”という言葉の略です。

 Transformerというのは、2017年に発表されたディープラーニングのモデルです。 前回(第1話)、ディープラーニングの話が出ましたね。

―― はい。

渡辺 なので、その2017年にすでに発表されていたモデルをどんどん高度化して、今提供できている“Large Language Model”に高度化したものが今のGPTであるという流れだとご理解いただければと思います。

―― はい。


●マイクロソフトとOpenAIの共通意識


渡辺 マイクロソフトとの関係ですが、今ここに映っているのはそのOpenAIのサム・アルトマン(写真左)と、弊社のCEOのサティア・ナデラ(写真右)ですけれども、2019年からですので、まあまあ長いです。4、5年にわたるパートナーシップを組んでおりまして、これもメディアに出ておりますけれども、まあまあ大きな額をOpenAIに対して投資しています。

 マイクロソフトが目指していることは、「地球上のすべての人と組織がより多くのことを達成できるようにする」ということです。その1つとして、今欠くことのできないコンポーネントがOpenAIだというふうに思っていて、彼らはAGI(汎用人工知...
テキスト全文を読む
(1カ月無料で登録)
会員登録すると資料をご覧いただくことができます。