copresheaf [0,1]^𝐿 とYoneda Lemma
【 言語理論へのenrich化されたカテゴリー理論導入の意味 】
週末のセミナーに向けて、そろそろまとめを始めようと思います。
大規模言語モデル(LLM)の成功が、数学的言語理論にどのような刺激を与えたかを、いくつか振り返ってみようと思います。それは「不思議」なことを発見した驚きに近い感覚だと思います。
● LLMは、一見すると何の構造も持たないように見える自然言語のデータから、何かを学習する。その学習では、自然言語が文法構造を持つことは前提されていない。LLMは大量のデータから文法構造も学習できるように見える。
● LLMが学習する「何か」の中には、意味の理解が含まれているように見える。ただ、その「意味」はどのように表現され、「意味の理解」はどう行われているのだろうか?
● LLMは、表現の「連続」が可能である。それは、いくらでも長いコンテンツを生成できるように見える。こうした能力はLLMの母胎である「翻訳モデル」には無い能力だ。
● LLMの「意味の分散表現」は、LLMのメカニズムやこうしたLLMの能力とどのように関係しているのだろうか?
● ...
まだまだ不思議なことはあるように思います。
昨年末に開催した、セミナーの第一部で紹介した、Tai−Danae らのカテゴリー論を枠組みとした理論 −− 言語をpreorderのカテゴリーとして捉える + copresheaf 意味論 + Yoneda embeddingによる言語と意味の対応づけ −− は、斬新なアプローチでこうした疑問の一部に答えるものでした。
ただ、これらはいわば「代数的」な性格のものでした。そこには、言語現象の重要な特質と思われる「確率論」的な性格が欠けていました。
今回のセミナー第二部で紹介するDai−Tanae らの新しい理論は、enriched category 論を使って、言語の数学的構造の理論を、代数と確率論の両者が交わるところで構成しようとしたものです。
まず、言語のカテゴリーLをpreorderから、射が[0,1]に値を取るものに変えることから始めます。(これを、「Lを[0,1]j上にenrich化する」と言います。)
今回のセッションの内容は、主要に、第一部の理論の骨組みが、enrich化可能であることを示そうとしたものです。次のように。
● Cを[0,1]上でenrich化されたカテゴリーとする。この時、copresheaf 𝐶 ̂≔[0,1]^𝐶も [0,1]上でenrich化されたカテゴリーとなる。(copresheafもenrich化可能である。)
● Cを[0,1]-category とする。この時、Cのすべてのオブジェクト x について、関数
ℎ^𝑥≔𝐶(𝑥,−)は、[0,1]-functor となる。(第一部でよく利用された𝐶(𝑥,−) の概念も、enrich化できる。)
● [0,1]-category Cのすべてのオブジェクトxと、すべての[0,1]-copresheaf 𝑓:𝐶→[0,1]について、次が成り立つ。𝐶 ̂(ℎ^𝑥,𝑓)=𝑓(𝑥) 。(enrich化されたYoneda lemma )
--------------------------------
ショートムービー「 copresheaf [0,1]^𝐿 とYoneda Lemma」を公開しました。
https://youtu.be/Cc_Gz7vV-KQ?list=PLQIrJ0f9gMcPmrJ3B0LEXJ_SHPP-ak_hw
「 copresheaf [0,1]^𝐿 とYoneda Lemma」のpdf資料https://drive.google.com/file/d/1DiyWSocew67_oIwlmCNzziVZ1INgcvgM/view?usp=sharing
blog 「 言語理論へのenrich化されたカテゴリー理論導入の意味」
https://maruyama097.blogspot.com/2024/01/copresheaf-01-yoneda-lemma.html
「大規模言語モデルの数学的構造 II」まとめページ
https://www.marulabo.net/docs/llm-math2/
https://www.marulabo.net/docs/llm-math2/
ショートムービーの再生リスト
https://www.youtube.com/playlist?list=PLQIrJ0f9gMcPmrJ3B0LEXJ_SHPP-ak_hw
https://www.youtube.com/playlist?list=PLQIrJ0f9gMcPmrJ3B0LEXJ_SHPP-ak_hw
コメント
コメントを投稿