AlphaGoは「超絶強い」のに、なぜ、AlphaCodeは「平凡」でしかないのか?
【 AlphaGoは「超絶強い」のに、なぜ、AlphaCodeは「平凡」でしかないのか? 】
「ChatGPT成立の背景」の2回目です。
ここでは、前回取り上げた大規模言語モデルでの規模拡大の行き詰まりの問題とともに、大規模言語モデルは数学的・論理的推論がとても苦手であるという認識が生まれたことを取り上げます。
ChatGPTのプロトタイプの論文が出たのは2022年の4月ですが、それに先立つ2022年の2月に、GoogleのDeepMindとOpenAIが、ほぼ同時に、大規模なAIシステムに数学的・論理的課題を解かせたと言う論文を発表します。
DeepMindがターゲットとしたのは、多くのプログラマーが参加する「プログラム・コンテスト」で、その課題を解くコードをAIに生成させるプロジェクトを、AlphaCodeとして立ち上げていました。
OpenAIがターゲットとしたのは、優秀な高校生が集まる「数学オリンピック」で、その問題の証明を与える Theorem Proverというシステムを構築していました。
二つの論文は、表面的には、難しい課題に取り組んで一定の成果を上げたという発表のようにも見えるのですが、よく読めば、この二つのプロジェクトは、失敗に終わったことがわかります。
DeepMindのAlphaGoについて、Scott Aaronsonは次のように語ります。
「AlphaCodeは課題ごとに100万個の候補プログラムを生成し、提供されたサンプルデータでは動作しないことを確認して大半を破棄し、それでも残った数千個の候補から巧妙なトリックを使って選択しなければならない。」
「ただ、それは、コンテスト問題の3分の1程度しか解けず、これらの問題では平凡な人間のプログラマーと同じようなものである。」
DeepMindはAlphaCodeを「平均して上位54.3%のランキングを達成した」と述べたのですが(「上位」というのは50%以上だと思うのですが)、彼は、AlphaGoを「平凡な英語を話す犬」と評しました。
OpenAIのTheorem Proverについては、論文自身が次のような評価を行なっています。
「現在のその主要な限界は、(我々が提案した検索手順のもとでは)二つあるいは三つ以上の自明ではない数学的推論をつなげていくことの無能力さにあると信じている。このことが、(例外的にではなく)整合的に数学オリンピックの問題に挑戦することを妨げている。」
「しかし、こうした推論ステップを必要とする証明の多くは、現在のコンピュータの能力の地平を超えたところにある。」
「我々が、たとえ挑戦的な数学オリンピックの選択された問題を解いたとしても、我々のモデルは、いまだこれらの競技の最も優秀な学生たちと競争するにははるかに遠い場所にいるのである。」
「ChatGPT成立の背景-- 現在のAIは数学が苦手である」 を公開しました。
https://youtu.be/X8Rz2T5hScA?list=PLQIrJ0f9gMcOX9oSKXRR87BgMkql5dvrx
資料pdf
https://drive.google.com/file/d/1Vwgv5UU6Dn18RCxqYVrr90gC60WdZJpI/view?usp=sharing
blog:「AlphaGoは「超絶強い」のに、なぜ、AlphaCodeは「平凡」でしかないのか? 」https://maruyama097.blogspot.com/2023/01/alphagoalphacode.html
まとめページ
https://www.marulabo.net/docs/chatgpt/
1/14セミナー「なぜ?で考える ChatGPT の不思議」の申し込みページはこちらです。https://chatgpt.peatix.com/
コメント
コメントを投稿