AlphaGoは「超絶強い」のに、なぜ、AlphaCodeは「平凡」でしかないのか?

【 AlphaGoは「超絶強い」のに、なぜ、AlphaCodeは「平凡」でしかないのか? 】

「ChatGPT成立の背景」の2回目です。

ここでは、前回取り上げた大規模言語モデルでの規模拡大の行き詰まりの問題とともに、大規模言語モデルは数学的・論理的推論がとても苦手であるという認識が生まれたことを取り上げます。

ChatGPTのプロトタイプの論文が出たのは2022年の4月ですが、それに先立つ2022年の2月に、GoogleのDeepMindとOpenAIが、ほぼ同時に、大規模なAIシステムに数学的・論理的課題を解かせたと言う論文を発表します。

DeepMindがターゲットとしたのは、多くのプログラマーが参加する「プログラム・コンテスト」で、その課題を解くコードをAIに生成させるプロジェクトを、AlphaCodeとして立ち上げていました。

OpenAIがターゲットとしたのは、優秀な高校生が集まる「数学オリンピック」で、その問題の証明を与える Theorem Proverというシステムを構築していました。

二つの論文は、表面的には、難しい課題に取り組んで一定の成果を上げたという発表のようにも見えるのですが、よく読めば、この二つのプロジェクトは、失敗に終わったことがわかります。

DeepMindのAlphaGoについて、Scott Aaronsonは次のように語ります。

「AlphaCodeは課題ごとに100万個の候補プログラムを生成し、提供されたサンプルデータでは動作しないことを確認して大半を破棄し、それでも残った数千個の候補から巧妙なトリックを使って選択しなければならない。」

「ただ、それは、コンテスト問題の3分の1程度しか解けず、これらの問題では平凡な人間のプログラマーと同じようなものである。」

DeepMindはAlphaCodeを「平均して上位54.3%のランキングを達成した」と述べたのですが(「上位」というのは50%以上だと思うのですが)、彼は、AlphaGoを「平凡な英語を話す犬」と評しました。

OpenAIのTheorem Proverについては、論文自身が次のような評価を行なっています。

「現在のその主要な限界は、(我々が提案した検索手順のもとでは)二つあるいは三つ以上の自明ではない数学的推論をつなげていくことの無能力さにあると信じている。このことが、(例外的にではなく)整合的に数学オリンピックの問題に挑戦することを妨げている。」

「しかし、こうした推論ステップを必要とする証明の多くは、現在のコンピュータの能力の地平を超えたところにある。」

「我々が、たとえ挑戦的な数学オリンピックの選択された問題を解いたとしても、我々のモデルは、いまだこれらの競技の最も優秀な学生たちと競争するにははるかに遠い場所にいるのである。」

この二つの例では、AIは、数学的・論理的問題を解くことに、事実上、失敗したのです。

それではなぜ、AlphaCodeは「平凡」な力しか示せなかったのに対して、AlphaGoは人間を遥かに超える「超絶強い」力を示すことができたのでしょう?

それには理由があります。

1.  ゲームの場合には、機械と機械を戦わせて、効率的に多様なゲームの局面をカバーする訓練用のデータを大量に生成でき、それを継続的に機械の訓練に利用できるのに対して、数学的証明の場合には、そうした手法は利用できません。OpenAIの論文は、そのことを指摘しています。証明の訓練に利用できる多種・多様な定理を機械的に生成すること自体が困難なのです。

2. ゲームの場合には、探索すべき空間が人間の能力では「手におえない」ほど広いのは事実なのですが、それは基本的には「有限」です。数学的証明の場合には、探索すべき空間は、実際に「無限」です。そうした難しさに、OpenAIの論文は気づいているように見えます。
補足すれば、ゲーデルの不完全性定理に反して、証明論的に「自然数論の無矛盾性」を証明したGentzenの方法は、cutのない証明のパターンを全て数え上げるものです。そこに出てくるのは、「イプシロン・ゼロ」という、巨大なしかし「可算」な「無限」です。

--------------------------------

「ChatGPT成立の背景 -- 現在のAIは数学が苦手である」 を公開しました。

https://youtu.be/X8Rz2T5hScA?list=PLQIrJ0f9gMcOX9oSKXRR87BgMkql5dvrx

資料pdf

https://drive.google.com/file/d/1Vwgv5UU6Dn18RCxqYVrr90gC60WdZJpI/view?usp=sharing

blog:「AlphaGoは「超絶強い」のに、なぜ、AlphaCodeは「平凡」でしかないのか? 」https://maruyama097.blogspot.com/2023/01/alphagoalphacode.html

まとめページ
https://www.marulabo.net/docs/chatgpt/

1/14セミナー「なぜ?で考える ChatGPT の不思議」の申し込みページはこちらです。https://chatgpt.peatix.com/




コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について