確率のBayesian解釈と「相対エントロピー」

  【 確率のBayesian解釈と「相対エントロピー」】

これまで、確率分布が与えられば、エントロピーが与えられるという話をしてきました。これは、素晴らしいことです。

確率分布は至るところにありますので、我々は、至るところにエントロピーを発見することになります。素晴らしい!

今回は、我々の認識の世界やディープ・ラーニングの世界にも、エントロピーが存在するという話をしようと思っています。 

ただ、少し違う問題を考えてみましょう。それは、アプリオリに(数学的に)正しい確率分布が与えられる数学的なモデルの世界を離れた時、確率分布が我々にどのように与えられるのかという問題です。

数学的モデルを離れた場合、そもそも、確定した確率分布が、我々にに与えられるものかは、自明ではありません。確率分布が確定しないのなら、 我々はエントロピーを知ることはできません。

答えのない問題に入り込んだようにも見えますが、こういう時には、「相対的なエントロピー」という考え方が役に立ちます。我々が与えられるエントロピーは、絶対的な確定したものではなく、事前に知っていたこととの関係で決まる、相対的なものだと考えるのです。

事前に何らかの形で知っていた確率分布をp(x) とします。多分、それは正確な知識ではないかもしれないので「仮説」といってもいいものです。それに対して、実際に、観測して得られた新しい確率分布を q(x)とします。

pに対するqの「相対エントロピー」 H(q || p)を、次の式で定義します。

   H( q || p ) = Σ q(x) log ( q(x)/p(x) )

H( q || p ) = 0 となるのは、p=q の場合だけだというのはわかると思います。

こうしたアプローチは、Baysian的なものです。「相対エントロピー」というのは、アプリオリな「シャノンのエントロピー」を、Baysianの考え方で、相対化したエントロピーと考えることができるのです。

エントロピー=情報量のこの相対的な解釈は、人間の認識で得られる情報量の解釈には、とても向いています。認識や学習のモデルを、この情報量を使って解釈できるのです。

例えば、先の相対エントロピーがゼロになる H( q || p ) = 0 の解釈では、仮説pと実験結果qが一致した場合には、実験で得られた情報量は0 だと考えればいいのです。

続きは、YouTube で!

5/26 マルゼミ「情報とエントロピー 2」のショート・ムービー第五弾「ディープ・ラーニングとエントロピー 1 --- 相対エントロピーとその解釈」を公開しました。
https://youtu.be/3214xyWSLzo?list=PLQIrJ0f9gMcM2_4wbtngkEvZEYfuv5HY2

pdf版の資料は、次のページからアクセスできます。https://www.marulabo.net/docs/info-entropy2/

6/26マルゼミ「情報とエントロピー2」のお申し込みは、次のページから現在受付中です。https://info-entropy2.peatix.com/

コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について