prior と posterior で認識の発展を記述する
【 prior と posterior で認識の発展を記述する 】
11/26 マルゼミ「認識について2 -- 認識の認識 –」の第二部「認識の発展のモデル」の資料です。ご利用ください。
ページの構成変えました。下のリンクに飛べば、pdfのviewerに着地しますので、そのままでスライドの資料が読めます。viewerのタイトルをクリックすれば、YouTube 動画をみることができます。お試しください。
======================
直観的に言えば、相対エントロピー H(q||p) は、あるシステムが確率分布 p に従っているという仮説的認識から出発して(これが ‘Prior’ です)、 その後、そのシステムの「正しい」あるいは「実際」は、確率分布 qに従っていることを学んだ(これが‘Posterior’)時に、得られる情報量です。
【 コイン・トスを例に相対エントロピーを計算する 】
Case 1:例えば、コイントスに使われるコインが、かたよりがなく公正なものだという仮定から出発して、実際に、コインの表がでたとすれば、その相対エントロピーは、log 2 となって、我々は1bitの情報を得たことになります。
Case 2:しかし、コインは常に表が出るという仮説から出発すれば、表が出たとしても、我々の得る情報、すなわち相対エントロピーはゼロになります。
【 PriorとPosteriorで「認識の発展」を記述する 】
認識のある段階で、我々はあるシステムの p0で与えられると考えていた確率分布が、本当は確率分布p1に従うことを発見したとします。この発見によって得られる情報量は、相対エントロピー H(p1||p0) によって与えられます。
認識の次の段階で、あるシステムの p2で与えられると考えていた確率分布が、本当は確率分布p3に従うことを発見するかもしれません。この発見によって得られる情報量は、相対エントロピー H(p3||p2) によって与えられます。
コメント
コメントを投稿