copresheaf [0,1]^𝐿 とYoneda Lemma

【 言語理論へのenrich化されたカテゴリー理論導入の意味 】

週末のセミナーに向けて、そろそろまとめを始めようと思います。

大規模言語モデル(LLM)の成功が、数学的言語理論にどのような刺激を与えたかを、いくつか振り返ってみようと思います。それは「不思議」なことを発見した驚きに近い感覚だと思います。

 ● LLMは、一見すると何の構造も持たないように見える自然言語のデータから、何かを学習する。その学習では、自然言語が文法構造を持つことは前提されていない。LLMは大量のデータから文法構造も学習できるように見える。

 ● LLMが学習する「何か」の中には、意味の理解が含まれているように見える。ただ、その「意味」はどのように表現され、「意味の理解」はどう行われているのだろうか? 

 ● LLMは、表現の「連続」が可能である。それは、いくらでも長いコンテンツを生成できるように見える。こうした能力はLLMの母胎である「翻訳モデル」には無い能力だ。

 ● LLMの「意味の分散表現」は、LLMのメカニズムやこうしたLLMの能力とどのように関係しているのだろうか?

 ● ...

まだまだ不思議なことはあるように思います。

昨年末に開催した、セミナーの第一部で紹介した、Tai−Danae らのカテゴリー論を枠組みとした理論 −− 言語をpreorderのカテゴリーとして捉える + copresheaf 意味論 + Yoneda embeddingによる言語と意味の対応づけ −− は、斬新なアプローチでこうした疑問の一部に答えるものでした。

ただ、これらはいわば「代数的」な性格のものでした。そこには、言語現象の重要な特質と思われる「確率論」的な性格が欠けていました。

今回のセミナー第二部で紹介するDai−Tanae らの新しい理論は、enriched category 論を使って、言語の数学的構造の理論を、代数と確率論の両者が交わるところで構成しようとしたものです。

まず、言語のカテゴリーLをpreorderから、射が[0,1]に値を取るものに変えることから始めます。(これを、「Lを[0,1]j上にenrich化する」と言います。)

今回のセッションの内容は、主要に、第一部の理論の骨組みが、enrich化可能であることを示そうとしたものです。次のように。

 ● Cを[0,1]上でenrich化されたカテゴリーとする。この時、copresheaf 𝐶 ̂≔[0,1]^𝐶も [0,1]上でenrich化されたカテゴリーとなる。(copresheafもenrich化可能である。)

 ● Cを[0,1]-category とする。この時、Cのすべてのオブジェクト x について、関数
ℎ^𝑥≔𝐶(𝑥,−)は、[0,1]-functor となる。(第一部でよく利用された𝐶(𝑥,−) の概念も、enrich化できる。)

 ● [0,1]-category Cのすべてのオブジェクトxと、すべての[0,1]-copresheaf 𝑓:𝐶→[0,1]について、次が成り立つ。 𝐶 ̂(ℎ^𝑥,𝑓)=𝑓(𝑥) 。(enrich化されたYoneda lemma )


--------------------------------

セミナーへのお申し込みはこちら:https://llm-math2.peatix.com/

ショートムービー「 copresheaf [0,1]^𝐿  とYoneda Lemma 」を公開しました。
https://youtu.be/Cc_Gz7vV-KQ?list=PLQIrJ0f9gMcPmrJ3B0LEXJ_SHPP-ak_hw

「 copresheaf [0,1]^𝐿  とYoneda Lemma 」のpdf資料https://drive.google.com/file/d/1DiyWSocew67_oIwlmCNzziVZ1INgcvgM/view?usp=sharing

blog 「 言語理論へのenrich化されたカテゴリー理論導入の意味 」
https://maruyama097.blogspot.com/2024/01/copresheaf-01-yoneda-lemma.html

「大規模言語モデルの数学的構造 II」まとめページ
https://www.marulabo.net/docs/llm-math2/

ショートムービーの再生リスト
https://www.youtube.com/playlist?list=PLQIrJ0f9gMcPmrJ3B0LEXJ_SHPP-ak_hw

コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について