Bayesian inferenceと相対エントロピー 1

【 「Bayesian inferenceと相対エントロピー 1」を公開しました 】

11/26 マルゼミ「認識について考える 2 -- 認識の認識 –」の第二部「認識の発展のモデル」のショートムービーです。ご利用ください。

https://youtu.be/OiSjknU_aHc?list=PLQIrJ0f9gMcPmqWCIYjND28DLB9SwQ_eX

スライドは、https://drive.google.com/file/d/1SkdpVjU2CqGB85xDYzrJTSQOVD9sWQCQ/view?usp=sharing からアクセスできます。

【「相対エントロピー」とは何か? 】

ある確率分布 p(x)が与えられた時、そのエントロピー Sは、シャノンの定義で与えられます。

ただ、どんな確率分布についても、アプリオリに一つのエントロピーが先の公式で天下り的に定まるということに、すこし違和感を持つ人がいるかもしれそもそも、確率分布がアプリオリに与えられるものかは、自明ではありません。

そういう人には、次の「相対的なエントロピー」という考え方の方が、納得が行きやすいと思います。

「エントロピー」は、絶対的な確定したものではなく、事前に知っていたこととの関係で決まる、相対的なものだと考えるのです。

事前に知っていた確率分布をpとし、実際に、観測して得られた新しい確率分布 qとします。

この時、確率分布pに対する確率分布qの「相対エントロピー」 H_rel (q,p)を定義します。

こうした考え方は、Bayesianのものです。

「相対エントロピー」というのは、アプリオリな「シャノンのエントロピー」を、Bayesianの考え方で、相対化したエントロピーと考えることができます。

エントロピー=情報量のこのBayesian的な解釈は、人間の認識で得られる情報量の解釈には、とても向いています。

Prior の pという仮説的な確率の認識は、Posterior のqという確率の認識に「発展」したと考ることができるからです。

11/26 マルゼミのもっと詳しい情報は、こちらです。https://www.marulabo.net/docs/philosophy02/

======================
11/26 マルゼミへのお申し込みは、次のページからお願いします。https://philosophy02.peatix.com
======================

コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について