確率のBayesian解釈と「相対エントロピー」
【 確率のBayesian解釈と「相対エントロピー」】
これまで、確率分布が与えられば、エントロピーが与えられるという話をしてきました。これは、素晴らしいことです。
確率分布は至るところにありますので、我々は、至るところにエントロピーを発見することになります。素晴らしい!
今回は、我々の認識の世界やディープ・ラーニングの世界にも、エントロピーが存在するという話をしようと思っています。
ただ、少し違う問題を考えてみましょう。それは、アプリオリに(数学的に)正しい確率分布が与えられる数学的なモデルの世界を離れた時、確率分布が我々にどのように与えられるのかという問題です。
数学的モデルを離れた場合、そもそも、確定した確率分布が、我々にに与えられるものかは、自明ではありません。確率分布が確定しないのなら、我々はエントロピーを知ることはできません。
答えのない問題に入り込んだようにも見えますが、こういう時には、「相対的なエントロピー」という考え方が役に立ちます。我々が与えられるエントロピーは、絶対的な確定したものではなく、事前に知っていたこととの関係で決まる、相対的なものだと考えるのです。
事前に何らかの形で知っていた確率分布をp(x) とします。多分、それは正確な知識ではないかもしれないので「仮説」といってもいいものです。それに対して、実際に、観測して得られた新しい確率分布を q(x)とします。
pに対するqの「相対エントロピー」 H(q || p)を、次の式で定義します。
H( q || p ) = Σ q(x) log ( q(x)/p(x) )
H( q || p ) = 0 となるのは、p=q の場合だけだというのはわかると思います。
こうしたアプローチは、Baysian的なものです。「相対エントロピー」というのは、アプリオリな「シャノンのエントロピー」を、Baysianの考え方で、相対化したエントロピーと考えることができるのです。
エントロピー=情報量のこの相対的な解釈は、人間の認識で得られる情報量の解釈には、とても向いています。認識や学習のモデルを、この情報量を使って解釈できるのです。
例えば、先の相対エントロピーがゼロになる H( q || p ) = 0 の解釈では、仮説pと実験結果qが一致した場合には、実験で得られた情報量は0 だと考えればいいのです。
続きは、YouTube で!
5/26 マルゼミ「情報とエントロピー 2」のショート・ムービー第五弾「ディープ・ラーニングとエントロピー 1 --- 相対エントロピーとその解釈」を公開しました。
https://youtu.be/3214xyWSLzo?list=PLQIrJ0f9gMcM2_4wbtngkEvZEYfuv5HY2
https://youtu.be/3214xyWSLzo?list=PLQIrJ0f9gMcM2_4wbtngkEvZEYfuv5HY2
pdf版の資料は、次のページからアクセスできます。https://www.marulabo.net/docs/info-entropy2/
6/26マルゼミ「情報とエントロピー2」のお申し込みは、次のページから現在受付中です。https://info-entropy2.peatix.com/
コメント
コメントを投稿