「サプライズ」としての情報量
【「サプライズ」としての情報量 】
シャノンは、情報が生成されるプロセスについて考えます。
それが生起する確率が、$p_1, p_2, \dots , p_n$であることはわかっていても、我々が知っていることのすべては、どれかのイベントが起きるだろうと言うことのみであるという状況を考えます。
情報が生まれるというのは、あるイベントが選び出されたということで、そこにはある「選択」が働いたということです。ただ、ある情報の背後にどれほどの「選択」が含まれているのか、一般には我々は知ることはできません。
ひるがえって、その情報について、我々はいかに不確かなのかを測定する尺度を見つけ出すことはできないだろうかと、彼は考えます。こうして彼は、「不確かさの尺度」として、情報量=エントロピーを考えます。
こうした「不確かさの尺度」が満たすべき条件について、彼は考えを進めていきます。彼は、エントロピーが満たすべき三つの条件を見出すのですが、その中で最も重要なのは、「選択」の「連鎖」が、この量を決めるという考えです。
ショートムービー:
https://youtu.be/Znv1Ydmp7Q0?list=PLQIrJ0f9gMcO_b7tZmh80ZE1T4QqAqL-A
ショートムービーのpdf:
https://drive.google.com/file/d/1P2tidK-M_e9DoMi4ZtprPxlwten7cNOQ/view?usp=sharing
5/28 マルゼミ「エントロピー論の現在」のまとめページを作りました。ほぼ毎日更新されると思います。ご利用ください。https://www.marulabo.net/docs/info-entropy5/
5/28 マルゼミの申し込みページも作成しました。
https://entropy-theory.peatix.com/
お申し込みお待ちしています。
コメント
コメントを投稿