言語モデルの成功と失敗 --「意味の分散表現」

【 言語モデルの成功と失敗 --「意味の分散表現」】

今回のセミナーのタイトルを、「AIは意味をどのように扱っているのか?」にしました。ただ、注意してもらいたいことがあります。それは、ここでいう「AI」のコンセプトは狭いものだということです。

ここでの「AI」は、基本的には、Googleニューラル機械翻訳に始まり、BERT、GPT-3、ChatGPTへと続く、現在の「大規模言語モデル」のことを指しています。

正確に言えば、今回のセミナーのテーマは、「大規模言語モデルは、意味をどのように扱っているのか? 」というものです。

では、なぜ、意味の理解に大規模言語モデルは、重要なのでしょうか?それに答えるのは比較的容易です。

人間は、自然言語を扱う理論をいろいろ作ってきたのですが、それに基づいて実際のコンピュータ上で、意味を含んだ自然言語を扱うシステムを実装することには、なかなか成功しませんでした。

大規模言語モデルが重要なのは、それがコンピュータ上で自然言語の意味を扱うことに成功した、事実上最初の、そして現状では唯一の実装されたモデルだからです。

大規模言語モデルの出発点となったのは、「語の意味の多次元ベクトルによる表現」でした。

今回のセミナーの、第二部「意味の分散表現の登場」、第三部「大規模言語モデルの成立」という構成は、今回のセミナーの主要な目的が、大規模言語モデルの成功を跡づけようとしていることを示しています。

ただ、この第一部「意味理解への様々なアプローチ」では、大規模言語モデル以外の、意味理解のアプローチを紹介しようと思います。

様々なアプローチがあるといっても、対象となる人間の言語活動は共通です。ここでは、文と文の意味の基本的な特徴について述べてみたいと思います。それは、次の二つです。

 ● 文と意味の「構成性(compositionality)」
 ● 意味の「同一性」 / 意味の共通表現の存在

文と意味の「構成性(compositionality)とは、
・文は文法に従って語から構成されること。
・文の意味は、語の意味に依存して構成されること。
・文の意味は、文の文法的構成に依存すること。
をさします。

意味の「同一性」 / 意味の共通表現の存在 とは、
・言語が異なっていても、「同じ」意味を持つ語が存在する。
・言語が異なっていても、「同じ」意味を持つ文が存在する。
をさします。

機械翻訳技術から派生した大規模言語モデルの成功は、後者の「意味の共通表現」が存在し、それを機械が発見する能力を持つことによるものだと、僕は考えています。

今回のセッションは、前者の文と意味の構成性 Compositionality から言語モデルの問題を整理することができるという話をしています。

この観点から、最初にわかることは、ボイス・アシスタントのIntentモデルも、Google KnowledgeグラフのEntityモデルも、言語の文法性を考慮に入れていないということです。これでは言語モデルとしてうまくいきません。

謎なのは、成功を収めた機械翻訳モデルも、文法性を考慮してはいないということです。この奇妙な現象は、そのアプローチを通じて、機械が暗黙のうちに文法性を理解できているということで説明できると思います。これについては、LSTM等のRNNが持つ能力の問題として、あとのセッションで説明したいと思います。

構成性を考慮した言語モデルとして、IBM Watson, CCG ( Combinatory Categorial Grammar )、DisCoCat の三つを紹介しています。

前二者が躓いたのは、語の表現に「語彙項目」を置いたことにあると僕は考えています。平たくいうと語の意味は辞書を引いて調べるということなのですが、両者共に網羅的な辞書を作ることができていません。

「語の意味の分散表現」の利点は、そのプロセスを通じて、語の意味の辞書を、事実上作り上げることができているということです。

こうした比較は、大規模言語モデルと同じ強みをDisCoCat モデルが持っていることを示しています。

個人的には、IBM Watsonの問題意識は優れたものだったと考えています。今回のセッションの資料として、古いものですがWatsonについての資料を追加しました。

--------------------------------

「文と意味の構成性 Compositionality から問題を整理する 」 を公開しました。
https://youtu.be/Jh0hGq4kuH0?list=PLQIrJ0f9gMcMl-rOnfK6S5EPXazITzFeK

資料pdf
https://drive.google.com/file/d/1XkdKvUSBgsj1cMNalGF8_Tye_XybCxcx/view?usp=sharing

blog:「言語モデルの成功と失敗」
https://maruyama097.blogspot.com/2023/01/blog-post_20.html

まとめページ
https://www.marulabo.net/docs/meaning/

セミナー申し込みページ
https://chatgpt2.peatix.com/




コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について