相対エントロピーとベイズ推論

【  Jaynesは、どのように Bayes に接近したのか 】

今回のセッションでは、JaynesがどのようにBayesに接近したのかを考えます。

前回紹介したJanesの 「MAXENT – 最大エントロピー原理」は、ある系に対する現在の認識の状態を最もよく表現する確率分布は、もっともエントロピー の大きいもの、すなわち、もっともその系の情報が少ない確率分布だと考えようと言うことを表しています。

ある系に対する認識が発展するのなら、その認識の発展は、現在の系が含んでいる最少の情報(それは最大のエントロピーを持ちます)からも得られるはずだと言うことです。それは、私たちの「推論」の原理としても理解できます。

「推論」は「認識の発展」に他なりません。

【 確率分布が先か、情報が先か? 】

ある確率分布 $p_i$が与えられた時、そのエントロピー S は、ある意味自動的に与えられます。ただ、どんな確率分布についても、アプリオリに一つのエントロピーが先の公式で天下り的に定まるということに、すこし違和感を持つ人がいるかもしれません。

そもそも、確率分布がアプリオリに与えられるものかは、自明ではありません。

そういう人には、次の「相対的なエントロピー」という考え方の方が、納得が行きやすいと思います。「エントロピー」は、絶対的な確定したものではなく、事前に知っていたこととの関係で決まる、相対的なものだと考えるのです。

事前に知っていた確率分布をpとし、実際に、観測して得られた新しい確率分布 qとします。
この時、次の式で確率分布pに対する確率分布qの「相対エントロピー」 $H_rel (q,p)$を定義します。$$H_{rel}=\sum_x q(x) \log \frac { p(x) }{ q(x) }$$
確率分布pに対する確率分布qの「相対エントロピー」を $𝐻(𝑞(𝑥)||𝑝(𝑥))$ と表すことがあります。

確率分布pに対する確率分布qの相対エントロピー$H(q||p)$で、
  p を、「事前確率」 = ‘Prior’
  q を、「事後確率」 = ‘Posterior’
と呼びます。

こうした考え方は、Bayesianのものです。

「相対エントロピー」というのは、アプリオリな「シャノンのエントロピー」を、Bayesianの考え方で、相対化したエントロピーと考えることができます。

エントロピー=情報量のこのBayesian的な解釈は、人間の認識で得られる情報量の解釈には、とても向いています。Prior の pという仮説的な確率の認識は、Posterior のqという確率の認識に「発展」したと考ることができるからです。

直観的に言えば、相対エントロピー $H(q||p)$ は、あるシステムが確率分布 p に従っているという仮説的認識から出発して(これが ‘Prior’ です)、 その後、そのシステムの「正しい」あるいは「実際」は、確率分布 qに従っていることを学んだ(これが‘Posterior’)時に、得られる情報量です。

【 「認識の発展」=「推論」=「学習」 】

認識のある段階で、我々はあるシステムの p0で与えられると考えていた確率分布が、本当は確率分布p1に従うことを発見したとします。この発見によって得られる情報量は、相対エントロピー H(p1||p0) によって与えられます。

認識の次の段階で、あるシステムの p1で与えられると考えていた確率分布が、本当は確率分布p2に従うことを発見するかもしれません。この発見によって得られる情報量は、相対エントロピー H(p2||p1) によって与えられます。

認識のその次の段階で、あるシステムの p2で与えられると考えていた確率分布が、本当は確率分布p3に従うことを発見するかもしれません。この発見によって得られる情報量は、相対エントロピー H(p3||p2) によって与えられます。

このような相対エントロピーの連鎖を、「認識の発展」のモデルと考えることができます。それはまた、新しい「推論」のルールを次々に発見してゆく「推論の発展」のモデルと考えることができます。

興味深いことは、この見方を少し変えるだけで、相対エントロピーを用いて、我々がおこなう「学習」のモデルを構成することができます。これについては、スライドを参照ください。
ちなみに現在の人工知能技術は、大規模言語モデルを含めて、機械の学習について、こうした「学習モデル」を採用しています。

Jaynesは、相対エントロピーのこうした認識論的解釈を通じて、Bayse の議論に接近したのだと僕は考えています。


-------------------------------------

「創発について考える」セミナー申し込みページ
https://emergence-in-ai.peatix.com/

ショートムービー「 相対エントロピーとベイズ推論 」を公開しました。

https://youtu.be/tj1j61k1eF4?list=PLQIrJ0f9gMcM1CSCpFfUuf25kD7b1JMM2

資料 pdf「 相対エントロピーとベイズ推論 」

https://drive.google.com/file/d/12YP_j8zpb1WAu9nH1GSEUeQM0TI7dJke/view?usp=sharing

blog:「 Jaynesは、どのように Bayes に接近したのか 」 
https://maruyama097.blogspot.com/2023/07/blog-post_25.html

セミナー「創発について考える」まとめページ
https://www.marulabo.net/docs/emergence/

セミナー「創発について考える」に向けたショートムービー再生リスト
https://www.youtube.com/playlist?list=PLQIrJ0f9gMcM1CSCpFfUuf25kD7b1JMM2


コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について