Bradleyの理論の発展を追う (1)
【 Bradleyの理論の発展を追う (1)−− DisCoCatモデルからの離脱 】
今回と次回のセッションでは、現在のLLMと意味の理論モデル中心人物一人であるのTai-Danae Bradley の理論の発展を追ってみようと思います。
今回と次回のセッションで、彼女の次の4つの論文を取り上げます。。
1, 2018年 What is Applied Category Theory?
「応用カテゴリー論とは何か?」
「応用カテゴリー論とは何か?」
2. 2020年 Language Modeling with Reduced Densities
「Reduced Densityでの言語モデル」
「Reduced Densityでの言語モデル」
3. 2021年 An enriched category theory of language: from syntax to semantics
「言語のenrichedカテゴリー論:構文論から意味論へ」
「言語のenrichedカテゴリー論:構文論から意味論へ」
4. 2025年 The Magnitude of Categories of Texts Enriched by Language Models
「言語モデルでenrich化されたテキストのカテゴリーのマグニチュード」
「言語モデルでenrich化されたテキストのカテゴリーのマグニチュード」
ただ、LLMと意味の理論モデルの構築で、彼女が依拠した理論的枠組みは、これら4つの論文で、それぞれ異なっています。
1, 2018年 What is Applied Category Theory?
DiscoCat モデル
2. 2020年 Language Modeling with Reduced Densities
Reduced Density モデル
3. 2021年 An enriched category theory of language: from syntax to semantics
Enriched category モデル
4. 2025年 The Magnitude of Categories of Texts Enriched by Language Models
Magnitude モデル
【 DisCoCatモデルからの離脱】
研究は発展するものですので、論文ごとに依拠する理論的枠組みが変わるのは、不思議なことではありません。ただ、彼女の研究の発展を振り返ったとき、重要なことは、1番目の論文と2番目の論文の間に、LLMと意味についてのアプローチに大きな変化があることです。
彼女は一番目の論文で依拠したDisCoCatモデルを離れ、その批判の上に彼女独自のLLMと意味の理論モデルの構築を開始します。
今回のセッションは、Tai-Danae BradleyのDisCoCatからの離脱について、主要に述べてみようと思います。
【 今回のセッションの構成 】
今回のセッシヨンは、次のような三部構成になっています。
第一部。Bradleyの研究が生まれた時代背景を、「意味の分散表現論の系譜 – 大規模言語モデルへ」という流れの中で考えます。
第二部。BradleyのDisCoCatモデルについての2018年の論文”What is Applied Category Theory?” の内容を少し詳しく紹介します。
第三部。Bradleyの2020年の論文 “Language Modeling with Reduced Densities” を紹介します。
【 Bradleyの研究の時代背景 】
まず、Bradleyが研究を始めた時代を振り返っておきましょう。
21世紀の初めに、Bengioらによって始められた「意味の分散表現論」は、10数年の時間をかけて「大規模言語モデル」に発展しました。
その流れを、年表「意味の分散表現論の系譜 – 大規模言語モデルへ」にまとめておきました。
BradleyのDisCoCatモデルからの離脱が、大規模言語モデルの成立期に起きていることがわかると思います。
それは偶然ではありません。後で見るように、Bradley自身が語っているように、彼女は、大規模言語モデルの成功に強い印象を受けます。同時に、その成功がDisCoCatモデルに依拠したものでないことにも気づきます。
何が、大規模言語モデルの成功を支えているのか? 彼女の理論的な関心のフォーカスは、そこに向けられていきます。
この年表を見て面白いことが、もう一つあります。
それは、 AI研究の側での「意味の分散表現論」に大きな影響を与えた「Word2Vec」 論文(今読むと、とてもプリミティブなものですが)が発表される3年近く前に、Coeckeらの「意味の分散表現論」 DisCoCat論文が、ほとんど完成した形で登場していることです。ある意味、驚くべきことです。
年表「意味の分散表現論の系譜 – 大規模言語モデルへ」の説明は今回のセッションでは割愛しています。詳細は、次の資料をご利用ください。
「意味の分散表現論の系譜 – 大規模言語モデルへ」のpdf資料
https://drive.google.com/file/d/1OOE7uXBScMi2eoWNKUTZLC4xwXu_nIGZ/view?usp=sharing
https://drive.google.com/file/d/1OOE7uXBScMi2eoWNKUTZLC4xwXu_nIGZ/view?usp=sharing
YouTube 「意味の分散表現論の系譜 – 大規模言語モデルへ」 再生リスト Geneology of LLM
【 2018年の論文の概要】
ここでは、DisCoCatモデルに基づくBradleyの2018年の論文 ”What is Applied Category Theory?” の概要を紹介しています。
DisCoCatモデルについては、別のセッションでも触れたので、今回は簡単に済まそうと考えていました。
ただ、意味の理論にカテゴリー論を利用しようとした最初の試みであり、Bradleyらの理論と並んで、現在のLLMと意味の理論で有力な理論であるCoeckeらのQNLPの基礎理論でもあるDisCoCatを丁寧に述べた方がいいと考え直しました。
先のセッションでは、リンクを参照してくださいと述べていた内容を、改めて説明することにしました。
【 2020年の論文の概要 】
この論文 ” Language Modeling with Reduced Densities” の直接のテーマは、タイトルにあるように、意味の表現を有限次元のベクトルから密度行列に変更しようというものです。現在の大規模言語モデルはもちろんのこと、それにはるかに先行したDisCoCatも、意味の表現には有限次元のベクトルを利用しています。
両者は、意味を空間上の一点として表現しているのです。その問題に切り込みたかったのだと思います。
ただ、今回のセッションの焦点はそこではありません。大規模言語モデル の成功に対するBradleyの次のような鋭い観察は注目すべきものです。
「この研究は、今日の最先端の統計的言語モデルが、その性能において印象的であるだけでなく、より本質的に重要なことは、それが構造化されていないテキストデータの相関関係から完全に構築されているという観察から生まれたものです。」
彼女の関心は、現在の「大規模言語モデル」の「印象的」な成功に向けられています。彼女はそれがDisCoCatモデルとは少し異なる言語モデルであることも知っています。その上で、その背後にあるものを探り出そうとしているのです。
僕にとって印象的だったのは、彼女が次々と問題を立てることでした。答えの前には、もちろん、問題があります。ただ、答えを見つける条件が成熟するというのは、正しく問題をたてることができるということです。
・ 自然言語における表現の意味をとらえる数学的構造は何か?
・ この構造は、テキスト・コーパスを用いてどの程度まで十分に検出できるのか?
・ 抽象的な概念とその相互関係を自然に掘りだす方法はあるのか?
・ 論理と命題の連関はどのようにして生まれるのか?
こうして、彼女は、次の二つが基本的な問題だとします。
・どのような数学的構造が、構造化されていないテキストデータには存在するのか?
・どのようにして、テキストの情報は、カテゴリー構造を維持したまま保存され、モデル化することができるのか。
こうした問題意識は、彼女の印象的なDisCoCat批判を可能とし、また、この論文以降もずっと維持されることになります。
−−−−−−----−−−−--−−−−-−−
セミナー申し込みページ
blog 「Bradleyの理論の発展を追う (1)」
https://maruyama097.blogspot.com/2025/08/bradley-1.html
スライド「Bradleyの理論の発展を追う (1)」のpdf ファイル
https://drive.google.com/file/d/1VoeUSJgJbBfjkr9ibElYU-u3VuiIf3tM/view?usp=sharing
https://drive.google.com/file/d/1VoeUSJgJbBfjkr9ibElYU-u3VuiIf3tM/view?usp=sharing
ショートムービー「Bradleyの理論の発展を追う (1)」
https://youtu.be/nY8v9v4wmnI?list=PLQIrJ0f9gMcOZLKdK6IfNYLNClKCYoYWb
コメント
コメントを投稿