bit はエントロピーの単位である

【 bit はエントロピーの単位である 】

引き続き、シャノンのエントロピーの性質を考えます。

ここでは、まず、シャノンのエントロピーH(X)が最大の値をとるのは、どういう場合であるのかを考えます。

H(X)が最大になるのは、どの xi  が選択されるか確実には分からない場合、すなわち、p1 = p2 = p3 = ...  = Pn の場合です。全ての事象が同じ確率を持つ時に、エントロピーは最大になります。

p1 + p2 + p3 + ... + pn = 1 ですので、p1 = p2 = p3 = ...  = Pn = 1/n の場合、エントロピーは最大になります。この時、エントロピーの最大値は、log_2 nとなります。

例えば、X = { 0,1 } の時、H(X)の最大エントロピーは、H(1/2, 1/2) = log_2⁡ 2 =1  となります。これをエントロピーの単位として bit と呼びます。bit は、二つの状態を持つものの最大エントロピーなのです。

一般に 2^nの状態を持つものの最大エントロピーは log_2⁡  2^n  = n log_2 2 =  n bit

これは、我々のbit についての直観と一致しています。bitは、エントロピーの単位なのです。

ショートムービー:
https://youtu.be/GF3NDmChSzU?list=PLQIrJ0f9gMcO_b7tZmh80ZE1T4QqAqL-A

ショートムービーのpdf:
https://drive.google.com/file/d/1P2tidK-M_e9DoMi4ZtprPxlwten7cNOQ/view?usp=sharing

5/28 マルゼミ「エントロピー論の現在」のまとめページを作りました。ほぼ毎日更新されると思います。ご利用ください。https://www.marulabo.net/docs/info-entropy5/

5/28 マルゼミの申し込みページも作成しました。
https://entropy-theory.peatix.com/
お申し込みお待ちしています。 


コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について