Bayesian inferenceと相対エントロピー 1
【 「Bayesian inferenceと相対エントロピー 1」を公開しました 】
11/26 マルゼミ「認識について考える 2 -- 認識の認識 –」の第二部「認識の発展のモデル」のショートムービーです。ご利用ください。
https://youtu.be/OiSjknU_aHc?list=PLQIrJ0f9gMcPmqWCIYjND28DLB9SwQ_eX
スライドは、https://drive.google.com/file/d/1SkdpVjU2CqGB85xDYzrJTSQOVD9sWQCQ/view?usp=sharing からアクセスできます。
【「相対エントロピー」とは何か? 】
ある確率分布 p(x)が与えられた時、そのエントロピー Sは、シャノンの定義で与えられます。
ただ、どんな確率分布についても、アプリオリに一つのエントロピーが先の公式で天下り的に定まるということに、すこし違和感を持つ人がいるかもしれそもそも、確率分布がアプリオリに与えられるものかは、自明ではありません。
そういう人には、次の「相対的なエントロピー」という考え方の方が、納得が行きやすいと思います。
「エントロピー」は、絶対的な確定したものではなく、事前に知っていたこととの関係で決まる、相対的なものだと考えるのです。
事前に知っていた確率分布をpとし、実際に、観測して得られた新しい確率分布 qとします。
この時、確率分布pに対する確率分布qの「相対エントロピー」 H_rel (q,p)を定義します。
こうした考え方は、Bayesianのものです。
「相対エントロピー」というのは、アプリオリな「シャノンのエントロピー」を、Bayesianの考え方で、相対化したエントロピーと考えることができます。
エントロピー=情報量のこのBayesian的な解釈は、人間の認識で得られる情報量の解釈には、とても向いています。
Prior の pという仮説的な確率の認識は、Posterior のqという確率の認識に「発展」したと考ることができるからです。
コメント
コメントを投稿