NEWS TOPICS

会員向け情報はこちら

SQオンライン

ChatGPTって何?~AI日本最先端の東大松尾研究室に聞いてみた~ 2/5

2023/09/26

2. ChatGPTは「チャットができる」は誤解?

■なぜChatGPTがこんなにも注目されるのでしょうか? AI=ChatGPTというような感覚にもなっていますが、AIとChatGPTの違いも含めて教えてください。

AIはそもそも広い概念です。すごく広い意味でとらえれば、洗濯機に洗濯物を入れると、洗濯機がその重さに応じた水量で洗うというのも知的な振る舞いですので、低レベルなAIと言えます。
ChatGPTとは、AIの中の、機械学習の中の、ディープランニングの中の、生成AIの中の、言語生成AIの中の、さらに対話の生成AIの中の、米OpenAI(オープンAI)社が提供する一つのサービスラインということです。
当然ChatGPT以外にも言語生成AIのサービスはありますが、ChatGPTがあまりにも一気に広がって、利用者が圧倒的に多いことから、デファクトになりつつある動きは感じます。今後、他サービスを含め、どのような方向に進んでいくのかは注視してく必要があると思います。

おそらく、知性を感じるかどうかは、言語によるコミュニケーションの有無が大きな要素になると思います。そう考えると、会話ができる人工知能を目にしたので、これこそがAIだ!と呼びたくなる気持ちは理解できます。

■改めて、ChatGPTは何ができるのでしょうか?

ChatGPTは「チャットができる」と思われがちですが、そうではなくて情報の変換や演算ができるということになります。人間も過去の様々な経験から学習をして情報を受け取ったら情報を返しています。PC(機械)も、あらゆる業務システムや、プログラミングは、人間が「こう動け!」という設計をして、何らかの情報を受け取って情報を返しているというものです。

■では、ChatGPTと人間は同じなのでしょうか?

人間、機械、そしてChatGPTの得意なことと、不得意なことを見ていきましょう。
ChatGPTなどの大規模言語モデル(LLM)というのは、大量のデータから事前学習をしています。これは人間と同じような学習の仕方をしています。

人間の場合、データ形式など問わず何でも受け取れます。そして何でも出力できます。これは非常に高い汎用知能と言えます。一方、一人の人間が扱えるデータ量には限界があります。では、人間の数を増やせばいいじゃないかということで人間の数=国力ということも起こるわけですが、やはり人間は全員が「同じ」ではないため、ばらつきも大きいです。かといって、人間に規格はないです。(人間規格などは別の意味で問題がありますね。)
しかし、やはり大量に情報を扱う道具は欲しいわけです。そうすると自動化ツール、こういったものが入ってきました。

定型のインプット(入力)を大量に受け取って、定型のアウトプット(出力)をする。電卓などもそうですよね。ディープラーニングも、定型のインプット、例えば「画像データに何が写っているかを書き出す」などという特定のタスクは大量にできます。ただ、非定型の入出力への対応が難しいわけです。

しかし、ChatGPTは、何が入力されてもOK、何でも出力OKという点が、人間がやっていることと同じなのです。大量のデータから事前学習をしていくがゆえに、どのような形のデータが来ても対応でき、どのような指示を受けて対応(出力)できる。
では人間と何が違うのかというと、この大量のデータを扱っているのが人間ではなくて半導体、機械だということです。機械はコピーできる、つまりスケールするわけです。人間はコピーできません。

■人間は、忘れてしまうということもありますが、AIはどうなのでしょうか?

そういえば、ChatGPTが急速に使われるようになってから、以前はよくできてことができなくなってしまいChatGPTの頭悪くなったという声があります。これは、ChatGPTの頭が悪くなったのではないのです。

新しい情報が大量に入ってきたため再度追加で学習させると、追加前はよくできていたことができにくくなる場合があります。情報量が増えて重みが薄まったというのもありますし、あとは情報を与えないまま数学の難問を解かせるような使い方をしているケースがあることも原因かと思います。

■世界中の人々がChatGPTを利用し出したことで非定型のデータが日々大量に入力されている。だからと言って使えば使うほど精度が上がるという単純な話ではないのですね。

そうですね。使えば使うほど精度はあがりますが、実はリアルタイムでChatGPTが賢くなっているわけではなく、蓄積されたデータを学習させることはエンジニアが頑張ってバッチで処理を行っています。
学習フェーズと推論フェーズに分かれているのですが、大量の文章を与えて先を予測させるというのは学習フェーズです。先ほど話題に出たAIが変なことを言わないようにするという部分での強化学習はRLHF(Reinforcement Learning from Human Feedback)と言いますが、要はヒューマンフィードバックを元に強化学習する、つまり人間が推論を学習させる推論フェーズとなっています。

■ハードウェアの性能に依存する部分も大きいのでしょうか?

ハードウェアの性能にも依存するという点はその通りです。ただ、そこに関しては、ハードウェアに投資されており性能が日進月歩で向上しているので必要以上に懸念しなくてもよいと思います。また、ハードウェアのような計算資源は蓄積性があります。会計上、減価償却はしますが、減価償却されたらそのものが消えてなくなるものではなく、引き続き使用できます。もしかすると、電力供給の面の方がボトルネックになる可能性はあります。どうしても電力を大量に必要とするのでこの点は様々な側面から今後の課題となる可能性はあります。

つづきはこちら
3.「そもそも使っていいの?」リスクを正しく理解しよう



上田 雄登
東京大学工学系研究科技術経営学専攻 松尾研究室 学術専門職員
株式会社松尾研究所 経営戦略本部 経営企画 マネージャー

東京大学工学部卒業後、2016年同大学工学系研究科技術経営戦略学専攻修了(松尾研究室)。
その後は、コンサルティングやPE投資を行う株式会社YCP Japan(現 株式会社YCP Solidiance)へ新卒第1号として入社、複数の投資検討、全社戦略策定業務といった経営コンサル業務に加え、AIコンサル業務や投資先の外食事業におけるマネジメント業務にも従事。
2021年4月から松尾研究室の学術専門職員、株式会社松尾研究所の経営企画を担当。新規技術の社会実装についての戦略策定や社内事業の改善に従事。