投稿

ランダムの力 -- 量子論のインパクト --

【「ランダムの力 -- 量子論のインパクト」を公開しました】 私たちのこころには、「秩序」「シンメトリー」を持つものを「美しい」と感ずる傾向があります。 こうした傾向は、芸術だけに見られるものでなく、物理学も、ある意味で「対称性」を追求します。 しかし、少なくとも、自然認識に関して言えば、20世紀の物理学は大きな転換に遭遇することになります。 それは、量子論が、自然の原理には、「ランダムさ」が深く組み込まれていることを発見したからです。 アインシュタインが「神はサイコロを振らない」といって、量子論を不完全な理論と見做したことはよく知られています。 ここでは、物理学者たちが、量子論の非決定論的性質、自然の「ランダムさ」を、どのように理解しようとしたかを見てみたいと思います。 興味深いのは、多くの物理学者が、人間の「認識」の能力との関係で、これらの問題を捉えようとしたことだと思います。 ウィグナーは、波動関数の崩壊は、意識との相互作用によるものだと提案します。 ダイソンは、「こころ」は選択をする能力によって特徴づけられるのだが、それは、ある程度は、全ての電子にも内在する性質であると論じます。 ボームは、物質と意識の双方に適用可能な秩序があると論じます。それによって、両者のあいだの関係が説明できるだろうと示唆します。 こころと物質は、より基本的な内的な秩序からの、外的な秩序への二つの反映だと考えます。 ペンローズは、「脳のどこか深いところで、一つの量子の変化を感じることのできる細胞が見つかるかもしれないと考えることができる。もしも、そうだということが証明されれば、量子力学は脳の活動に深く関わっていることになる。波動関数の崩壊は、人間の脳の非計算可能的なプロセスの、唯一の可能な物理的基礎となる。」と考えます。 コンウェーとコッヘンは、「量子の振る舞いの観測は、その量子の過去の振る舞いでは決定されない オープンな結果を返す。このことは、量子が「自由意志」を持つと解釈できる」と。 はてさて、どうゆうことになるのやら。 ショートムービーお楽しみください。 https://youtu.be/GC-10IQ9zuc?list=PLQIrJ0f9gMcOWKDmKxI3aJ6UYf6gaPa2K スライドのpdfは、次からアクセスできます。 https://drive.google.c

Randomness と Symmetry

【「Randomness と Symmetry」を公開しました 】 9/30 マルゼミ「計算科学とエントロピー」 https://info-entropy4.peatix.com/ にむけたショートムービー「Randomness と Symmetry」を公開しました。ご利用ください。 https://youtu.be/C3zeYLTDQDs?list=PLQIrJ0f9gMcOWKDmKxI3aJ6UYf6gaPa2K スライドのpdfは、こちらからアクセスできます。 https://drive.google.com/file/d/1ptC4hf9FVN9U998zE134yQIsofePphow/view?usp=sharing 「ランダムさ」の反対は、「秩序を持っていること」だと思います。 熱力学の第二法則「エントロピーの増大則」は、秩序を持っているものが、基本的には、時間の経過とともに「秩序・構造」を失い、最終的には「無秩序」で「ランダム」な状態になるという法則です。 「秩序を持っていること」の代表的なものが「対称性を持つこと」です。 鉱物の結晶は、対称性を持ちます。また、ほとんどの生き物は、正面から見て左右対象のからだを持っています。(コロナ・ウィルスでさえ、そうです。)あるルールに従って生成されるパターンも「対称性を持つ」と言うことがあります。 ここでは、「ランダムさ」の反対概念として、「対称性」という言葉を使っています。 自然に存在するもの(物質・生物)だけでなく、人間が作り出す多くのものも「対称性」を持っています。それは、我々が、「対称的なもの」に「美しさ」を感じるからだと考えられています。 「科学」も「数学」もまた、人間が作り出したものですが、今回は、詳しくは触れませんが、そこでも「対称性」の追求が、大きなドライビング・フォースになっています。 我々の目に止まるもの、我々の関心を引きつけるものの「中核」が、「美しく完璧な」対称性であるならば、その反対の極である「ランダムなもの」に関心を集中し、その特徴づけを目指すのは、難しいのです。 「ランダムなもの」は「美しく」ないし、「完璧なランダムさ」は形容矛盾で存在しません。 それにも関わらず、我々は「ランダムなものの」の「深淵」に取り囲まれています。

「すべての計算可能な関数は プログラムで表現できる」を公開しました

【「すべての計算可能な関数は プログラムで表現できる」を公開しました 】 9/30 マルゼミ「計算科学とエントロピー」 https://info-entropy4.peatix.com/ にむけたショートムービー「ランダムさの不思議」を公開しました。ご利用ください。 https://youtu.be/UplIfbz0Qsk?list=PLQIrJ0f9gMcOWKDmKxI3aJ6UYf6gaPa2K スライドのpdfは、こちらからアクセスできます。 https://drive.google.com/file/d/1WoI4t4KPvUU39APaTjVddr5S9BPleeCO/view?usp=sharing ここでは、関数とプログラムの関係を、コロモゴロフの複雑性の定義から、考えようと思います。 コロモゴロフの複雑性は、「yを出力するプログラムpの最小の長さ」として、次のように定義されました。   𝐾_𝜑 (𝑦)=min⁡{ |𝑝|  :𝜑(𝑝)=𝑦 } この定義の中に出てくる関数の型を確認しておきましょう。 プログラムのクラスを𝒫とし、プログラムの出力のクラスを𝒪としましょう。  𝜑 : 𝒫 ⟶ 𝒪      /* 𝜑(𝑝)=𝑦 */     /* 𝜑は、プログラム p : 𝒫を出力 y : 𝒪に変える関数 */   𝐾_𝜑  : 𝒪 ⟶ ℕ         /* 𝐾_𝜑 (𝑦)=min⁡{ |𝑝|  :𝜑(𝑝)=𝑦 } */    /* 𝐾_𝜑は、出力 y : 𝒪を自然数 ℕに変える関数 */ ここで、すこし天下り的ですが、「すべての計算可能な関数は、 プログラムで表現できる」と考えることにしましょう。 計算可能な関数の値は、関数に対応するあるプログラムがあって、そのプログラムを実行して得られる出力に等しいということです。 こうした主張を、「チャーチ=チューリングの提言」と言います。 「チャーチ=チューリングの提言」は、基本的には、関数とプログラムは同じものであることを主張しているのですが、関数とプログラムでは、言葉の使い方が異なります。   関数の「引数」を、プログラムでは「入力」と言います。   関数の「値」を、プログラムでは「出力」と言います。 まあ、でもこの言い換えは、自然なものです

ランダムさの不思議さ

イメージ
【「ランダムさの不思議」公開しました 】 9/30 マルゼミ「計算科学とエントロピー」 https://info-entropy4.peatix.com/ にむけたショートムービー「ランダムさの不思議」を公開しました。ご利用ください。 https://youtu.be/3V-AeDtR8Zs?list=PLQIrJ0f9gMcOWKDmKxI3aJ6UYf6gaPa2K スライドのpdfは、こちらからアクセスできます。 https://drive.google.com/file/d/1FzXttmm_FMEpqiSKf6XIHb7CeKObVo1Q/view?usp=sharing 「ランダムさ」に対して、我々はある種の直観を持っているように見えます。ただ、そうした直観が、必ずしも正確なものでないことを、次のような例で話そうと思います。  ・ランダムな0と1の並び  ・ランダムな文字列 「ランダムさ」というのは、実は、定義するのが難しい、不思議な性質を持っています。 ランダムな 0と1の並びを作ろうと思ったら、コインを投げて、表が出たら0、裏が出たら1とすればいいですね。そうして作られた並びは、きっとランダムなものに見えるでしょう。 ところで、もしも、0が30個並んでいる並びを見せられたら、それはランダムなものには見えないでしょう。 なぜでしょう?  「コインを投げて、30回連続して表が出ることは、確率的にあり得ないから」 ただ、確率的には、コイントスで得られる30桁の0,1の 並びは、全て同じ確率 \( (1/2)^{30} \) を持っています。みなに「ランダム認定」されるだろう 0,1の30桁の並びと、0が30個並ぶ並びとは、同じ確率で出現します。 確率だけでは、ランダムなものとそうでないものを区別することはできません。 ランダムな文字列を得るために、猿にタイプライターを叩かせましょう。 猿が打ち出す文字列は、ランダムと言えるでしょうか? アルファベット(小文字)は、‘a’から‘z’まで26文字です。 もしも猿が26キーのタイプライターを6回適当に叩いたとすると、この時、猿がうちだすことが可能な文字列の総数は、26の6乗で、308,915,776になります。9桁の数字で3億ちょっとです。 この中には、”monkey”という文字列が含まれています。“monke

コロモゴロフの複雑性を公開しました。

イメージ
 【「コロモゴロフの複雑性」を公開しました。】 9/30 マルゼミ「計算科学とエントロピー」 https://info-entropy4.peatix.com/ にむけたショートムービー「コロモゴロフの複雑性」を公開しました。ご利用ください。 https://youtu.be/X4jACH86kds?list=PLQIrJ0f9gMcOWKDmKxI3aJ6UYf6gaPa2K スライドのpdfは、こちらからアクセスできます。 https://drive.google.com/file/d/11KvGD40-SrPJA4wc-oaDDRvdvdTCzUk5/view?usp=sharing ある出力Xを与えるプログラムの長さの最小値を、Xの「コロモロゴフの複雑性」と言います。「アルゴリズム論的情報理論」の出発点は、この「コロモロゴフの複雑性」です。 なぜ、「プログラムの長さの最小値」かといえば、同じ結果を返すいくらでも冗長なプログラムはかけるのですから、出力の「複雑さ」をプログラムの「大きさ」に一意に対応づけようとするのなら、その結果を返す「最も短いプログラム」の大きさを考えるのがいいことになるからです。 コロモゴロフの複雑性を、もう少しきちんと定式化するために、プログラムとその出力の関係をどう表現すればいいかを考えて見ましょう。そこには、プログラムの「実行」という考えが必要です。 プログラム pの出力が yだとします。このことは、ある実行環境のもとでプログラム pを「実行」すれば、出力 y が得られるということです。このことを、次のように表しましょう。 $$ 𝜑(𝑝)=𝑦 $$ 𝜑は、「ある実行環境でのプログラムの実行」を表しています。 この時、ある実行環境𝜑のもとでのプログラム p の実行の出力 yのコロモゴロフの複雑性𝐾_𝜑 (𝑦)は、次のように定義できます。 $$ 𝐾_𝜑 (𝑦)=min⁡ \{ |𝑝| : 𝜑(𝑝)=𝑦 \} $$ここで、minは最小値、|p|は、プログラム p の長さを表しています。 少し、形式的に関数の型を整理しましょう。 プログラム pを、0と1の有限のビット列 {0,1}*とし、 プログラムの出力のクラスをOで表すと、 $$𝜑 : {0,1}^*⟶ O$$ $$𝐾_𝜑 : O ⟶ ℕ$$です。

9/30 マルゼミ「計算科学とエントロピー」のお誘い

イメージ
【 9/30 マルゼミ「計算科学とエントロピー」のお誘い】 これまで、丸山のセミナーでは、エントロピーについて、主要に、ボルツマン・ギブスらの統計力学的アプローチと、シャノンの情報理論的アプローチの二つを見てきました。 今回のマルゼミ「計算科学とエントロピー」では、それら二つとは異なるエントロピーへのアプローチを取り上げます。「アルゴリズム論的情報理論 ("Algorithmic information theory")」といわれるものです。 「アルゴリズム論的情報理論」は、計算科学でのチューリングらの計算可能性の理論と、シャノンの情報理論とを結びつけようという試みです。 熱力学的エントロピーは、分子の運動の「乱雑さ」の尺度と考えられます。同じ「水」でも、水の分子が結晶上に規則的に並ぶ「氷」のエントロピーは低く、水の分子が自由に空中を飛び回る「水蒸気」のエントロピーは高くなります。 ビットの列で与えられる情報でも同じです。100個の"0"が連なるビット列は、規則的なのでエントロピーは低く、「ランダム」に、"0"と"1"が並ぶビット列は、エントロピーが高いと考えることができます。 ただ、この例え話は、実は、我々が何が「規則的」で何が「ランダム」かを判断できることを、暗黙のうちに仮定しています。「ランダムさ」でエントロピー を説明するのなら、「ランダムさ」とは何かを、きちんと説明できなければいけません。 あるビット列Xとビット列Yが与えられた時、次のように考えることにしましょう。 Xを出力するコンピュータ・プログラムの集まりをPX、Yを出力するコンピュータ・プログラムの集まりをPYとしましょう。(X,Yを出力するプログラムは一つとは限りません) ここで、「プログラムの長さ」を考えます。Xを出力するコンピュータ・プログラムの集まりPXに属する全てのプログラムについて、その「長さ」を考え、その中で一番短いものの長さをx とします。同様に、Yを出力するプログラムで一番短いものの長さをy とします。 この時、プログラムの長さ x, y を比較して、x < y なら、ビット列Yはビット列Xより「複雑」だと考えます。要するに、あるビット列を出力する最小のプログラムの長さが大きければ大きいほど、その

チャイティンのΩとバエズのエントロピー

【「チャイティンのΩとバエズのエントロピー」を公開しました】 https://youtu.be/ZjMfjlBxO5o?list=PLQIrJ0f9gMcPPgVvBB4BWA7-RuBmWLqqz スライドのpdfはこちらです。 https://drive.google.com/file/d/1E545s0CYATo5NlFHlgMr-87SRfpIjwng/view?usp=sharing 今回から、バエズのエントロピーの話を始めようと思います。といっても、今回は、バエズのエントロピーの式が、先日話したチャイティンが定義した不思議な数Ωの定義によく似ているという話で終わります。 以前、「チャイティンとゲーデル」という小咄をことが書いたあります。冗談が好きな人は、こちらを参照ください。 https://maruyama097.blogspot.com/2017/01/blog-post_25.html 今回は、シャノンのエントロピーとコルモゴロフの複雑性について、いくつか基本的なことを確認したいと思います。 シャノンの理論は、 複数のオブジェクトの集まりをどのようにエンコードし、そうしたオブジェクトのシークエンスを如何に効率的に送るかについて考えます。それに対して、コルモゴロフの複雑性は、一つのオブジェクトを、最も効率的にエンコードすることを考えます。 ただ、「情報圧縮」という点では、二つの理論は共通の関心があります。 シャノンの理論では、例えば、アルファベットの集まりXがある確率分布に従う時、そのエントロピーH(X)を用いて、N文字のメッセージを。NH(X)ビットに情報圧縮できることを示せます。 コルモゴロフの複雑性理論では、次のような形で情報圧縮に関心を持ちます。 「Berryのパラドックス」というのがあります。  「30文字以下では定義されない最小の自然数B」 これはある意味、Bの定義ですが、Bは日本語では21文字で定義されています。 こうした「定義」「名前づけ」「記述」の曖昧さを避けるために、あるオブジェクトの「記述」はそれを出力するプログラムで与えられると考えます。コルモゴロフの複雑性𝐶_𝑈 (𝑥)は、万能チューリングマシンUにプログラムpが与えられた時、xを出力するプログラムpのうち、最小のプログラムの長さ(|p|)です。その時、pは、オブジェク