prior と posterior で認識の発展を記述する

【 prior と posterior で認識の発展を記述する 】

11/26 マルゼミ「認識について2 -- 認識の認識 –」の第二部「認識の発展のモデル」の資料です。ご利用ください。

ページの構成変えました。下のリンクに飛べば、pdfのviewerに着地しますので、そのままでスライドの資料が読めます。viewerのタイトルをクリックすれば、YouTube 動画をみることができます。お試しください。

https://www.marulabo.net/docs/philosophy02/#Prior%E3%81%A8Posterior%E3%81%A7%E3%80%8C%E8%AA%8D%E8%AD%98%E3%81%AE%E7%99%BA%E5%B1%95%E3%80%8D%E3%82%92%E8%A8%98%E8%BF%B0%E3%81%99%E3%82%8B

本投稿のもっと詳しい情報は、こちらです。https://www.marulabo.net/docs/philosophy02/

======================
11/26 マルゼミへのお申し込みは、次のページからお願いします。https://philosophy02.peatix.com
======================

【 相対エントロピーの直観的意味 】

直観的に言えば、相対エントロピー H(q||p) は、あるシステムが確率分布 p に従っているという仮説的認識から出発して(これが ‘Prior’ です)、 その後、そのシステムの「正しい」あるいは「実際」は、確率分布 qに従っていることを学んだ(これが‘Posterior’)時に、得られる情報量です。

【 コイン・トスを例に相対エントロピーを計算する 】

 Case 1:例えば、コイントスに使われるコインが、かたよりがなく公正なものだという仮定から出発して、実際に、コインの表がでたとすれば、その相対エントロピーは、log 2 となって、我々は1bitの情報を得たことになります。

Case 2:しかし、コインは常に表が出るという仮説から出発すれば、表が出たとしても、我々の得る情報、すなわち相対エントロピーはゼロになります。

【 PriorとPosteriorで「認識の発展」を記述する 】

認識のある段階で、我々はあるシステムの p0で与えられると考えていた確率分布が、本当は確率分布p1に従うことを発見したとします。この発見によって得られる情報量は、相対エントロピー H(p1||p0) によって与えられます。

認識の次の段階で、あるシステムの p2で与えられると考えていた確率分布が、本当は確率分布p3に従うことを発見するかもしれません。この発見によって得られる情報量は、相対エントロピー H(p3||p2) によって与えられます。




コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について