Interlude 1 −− ChatGPTが生まれた日

 Interlude 1 −− ChatGPTが生まれた日 


今年もよろしくお願いします。

今回は、順番から言うと、TransformerとBERTを扱うはずだったのですが、予定を変更しています。正月を挟んで少し間が空いたのでが、幕間 − Interlude として、少し寄り道をして二つのエピソードを紹介しようと思います。

今回は、Interlude 1 として、ChatGPTの登場を、次回は、Interlude 2 として、その一年後の OpenAIの大分裂を取り上げます。

今回のシリーズの問題意識は、どのような技術の発展が、機械に意味を理解させることを可能にしたのかを追いかけてみようというものです。その中核はembeddingです。

ただ、技術だけを狭く追いかけていては、うまく捉えられない飛躍もあります。雑な言い方ですが、技術的には見れば、Google ニューラル機械翻訳とTransgormerとBERTには技術的な連続性があります。BERTとGPTの末尾の'T'はTransformerの先頭の'T'です。

当時の僕は、ラベルも何もないWebから集めた膨大な文字列を、TransformerやBERTが、バリバリと食べてembeddingを生成し続けることに驚嘆していました。(繰り返しますが、それが今回のシリーズの主題です)もちろん、ChatGPTの示す意味理解能力が、そうした技術に裏打ちされているのは確かなのですが。

ただ、ChatGPTを見た時の驚きは、それとは違う性格のものでした。確かに、そのアプローチは、意味の分散表現論の主流に位置付けられるものではないように思えます。

ChatGPTが生まれた日は、2022年11月30日 

ChatGPTが、おおやけに姿を現したのは、2022年の11月30日のOpenAIの次のblog記事によってでした。https://openai.com/blog/chatgpt/

2022年の12月26日、僕は「なぜ?で考える ChatGPT の不思議」というタイトルのセミナーを開きました。https://www.marulabo.net/docs/chatgpt/


「ChatGPT 試してみましたか? 

なかなか驚きです。今までのAI技術と一味違います。
いろいろ不思議なことに気がつきます。

第一。なぜ、こんなになめらかに賢く、人間と対話できるのでしょうか?
第二。なぜ、こんなにも賢く見えるのに、平気で間違ったことを言うのでしょう?

今回のセミナーは、主要にこの二つの「なぜ?」に答えようとしたものです。」

セミナーの講演資料は、次のURLからアクセスできます。
https://drive.google.com/file/d/1WMVWg1Q3d7Koro-9PGJtgeKj82MNAK7E/view

対話するAI 

blogを読んで、わかったことが幾つかあります。

最初に確認したいのは、、ChatGPTは、発表当初から単なる情報検索ツールとしてではなく、文脈を理解し、時には不正確な前提に異議を唱える「対話パートナー」として設計されていました。blogは、こう述べています。

「我々は、会話形式で対話するChatGPTと呼ばれるモデルを訓練した。対話形式により、ChatGPTはフォローアの質問に答えたり、自分の間違いを認めたり、間違った前提に挑戦したり、不適切な要求を拒否したりすることが可能である。」

当時研究の中心だった翻訳モデルには、対話はありません。情報の流れは、一方向で、翻訳されたドキュメントを人間が読むだけです。人間の言語能力の発露の最大の舞台は、対話による双方向のコミュニケーションです。機械が対話の能力を持つということは、非常に重要なことだと思います。

人間のフィードバックからの強化学習

ChatGPTの驚くべき対話能力は、「人間のフィードバックからの強化学習(RLHF)」というユニークな訓練方法によるものです。これは、単にデータを読み込ませるのではなく、人間とAIが協働してモデルを洗練させていくプロセスです。彼を教育していたのは、人間だったんです。

人間のフィードバックからの強化学習のシステムの詳細は、長くなるのでここでは省きます。先の講演資料の「ChatGPTの教育環境」をご覧ください。

ここには、AI技術の基本的な問題が現れています。それは、AIにおける機械と人間の関係です。初めて多くの人の前に登場したAIと言えるChatGPTが、人間のフィードバックによって学習を深化させていたことは、何か意味を持つことかもしれません。それについては、また別のシリーズでの展開が必要です。

欠点を率直に認める

OpenAIのblogで印象的だったのは、開発元が自ら次のような「重大な欠点」を率直に認めていたことです。OpenAIは、ChatGPTの発表と同時に、その限界を驚くほど率直にリストアップしました。

  • もっともらしいが、不正確または無意味な回答を生成することがある。
  • ある聞き方では答えを知らないと主張するのに、少し表現を変えて同じ質問をすると正しく答えられることがある。
  • 冗長で、「OpenAIによって訓練された言語モデルです」といった特定のフレーズを使いすぎる傾向がある。
  • ユーザーの曖昧な質問に対して、意図を推測して答えてしまい、確認の質問をしないことがある。

この「率直さ」は、次の「反復的デプロイ」という開発手法と関係していますので、「計画された率直さ」と呼ばれることがあります。

「反復的デプロイ」という開発手法 

ChatGPTの初期リリースは、完成品ではなく「リサーチプレビュー」と明確に位置づけられていました。そして、その利用は 無料 でした。彼らの狙いは、世界中のユーザーに無料で使ってもらうことで、研究室内では決して得られない、大規模で多様なフィードバックを収集することでした。これは「反復的なデプロイメント(iterative deployment)」という開発思想に基づいています。それは、ユーザーを開発プロセスに巻き込む、フィードバック中心のアプローチです。

強力だが不完全なツールを世に問うことは、モデルの欠陥が露呈するというリスクを伴います。しかしOpenAIは、そのリスクを負うことと引き換えに、AIの安全性と能力を向上させるための、現実世界における膨大なデータという計り知れない価値を得ることを選びました。

この選択は、次の Linterlude 2 でみる、ChatGPT発表からちょうど一年後に勃発するOpenAIの大分裂の小さな火種の一つになります。(火種はたくさんあったのです。)

3年前の昔話

たった3年前の話なのに、もう随分前の昔話のような気がします。今更、そんな話を聞いてもなと感じた人も多いと思います。それだけこの世界の変化が早いということなのでしょう。

ただ、3年前のChatGPTの登場時に、僕らが受けた新鮮な驚きは、このシステムの本当の新しさとその射程を僕らが受け止めていたからかもしれません。

このblogの音声概要 

音声概要を作ってみました。こちらもご利用ください。リンクをクリックすると音声は再生できます。
https://www.marulabo.net/wp-content/uploads/2026/01/ChatGPT-blog.mp3

−−−−−−−−---−−−−−−--−−-

このblog ページのURL
https://maruyama097.blogspot.com/2026/01/interlude-1-chatgpt.html

このシリーズのblogのIndex ページ 
https://maruyama097.blogspot.com/2025/12/embedding-blog.html

コメント

このブログの人気の投稿

初めにことばありき

密度行列とは何か?

ER=EPR