実は、ディープラーニングは数学が理解できないのだ


少なくないIT技術者が、人工知能技術の進化は、「ルール中心」から「データ中心」への進化だと思い込んでいる。確かに、「データ中心」のディープラーニング技術が人工知能技術にもたらしたものは、巨大なものだった。それを否定するつもりも、その必要もないもない。

ただ、この何年かの変化だけをみて、人工知能への基本的なアプローチが、「データ中心」のディープラーニング技術で確定し、人工知能技術の未来が、「データ中心」のディープラーニング技術の未来と共にあると考えるなら、それは間違いだ。

明らかに、ディープラーニングには、苦手な領域があるのである。僕は、その一つは、言語の意味理解の能力だと思っているのだが、それについては別の機会に触れる。もっとわかりやすいのは、ディープラーニングの手法で構成された「知能」は、数学を理解することも、数学を学習することもできないということだ。

「人を批判するのはやさしい。
 そんなら、自分のアイデアでなんか作って見せてよ。」

もっとも、ディープラーニングは数学ができないという僕が、すらすらと数学の問題を解き、新しい数学の定理を発見する「機械」を作って、皆に見せられるのかというと、そうではないのだ。

「やーい、やーい。
 やっぱりできないんじゃないか!」

そうなのだ。でも、子供の喧嘩じゃないのだから、もう少し冷静に議論しようと思う。
今はまだできていないと問題の難しさを認めることは、なんでもできますというよりは、ましなことだ。

大事なことは、「データ中心」と対比されて、エキスパート・システム程度のイメージで「ルール中心」と一把一からげにされてる、論理的・数学的推論を機械に実行させようというもう一つの人工知能技術に、着実で大きな進化があるということである。(RPAの中で、ディープラーニングを「補完」する技術として「ルール・エンジン」が復活しているのだが、僕が、いいたいのはそのことではない。)

コンピュータが存在しなかった、今から90年近く前の1930年代、当時まだ若者だったゲーデルやチューリングが発見したことは、「証明可能性」と「計算可能性」が同一の概念だということであった。もう一つの人工知能技術の源流が、そこにある。

ただ、それは数学的・原理的な同一性で、実際のコンピュータに数学の証明をさせるには、いろんな回り道が必要だった。また、その探求は、現在も続いている。

絵を描いてみた。

一番上に、数学の世界で数学の基礎に関しておきた主要な発見をあげた。時間軸の下には、そうした発見に触発され、計算機科学に近いところに影響を与えた動きを書いた。その下には、そうした新しい知見によって設計された「言語」をあげた。

重要なことは、数学の世界も新しい発見によって変化を続け、それが、時差はあるが、計算機科学にも深い影響を与えていることである。ただ、それは一般的な影響ではない。基本的には、「型の理論」の進化が、数学の進化と「もう一つの人工知能技術」の進化をを結ぶものだということである。

別ポストで、これらを説明したいと思う。




コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について