投稿

あとのまつり

【 あとのまつり】 先日「エントロピー論の現在」というセミナーを終えたばかりなのですが、いくつかのトピックを積み残してしまいました。 このセミナーは、"Entropy as a Functor" という新しいエントロピー論を展開したBaezの仕事の紹介で終わっているのですが、実は、ここからさまざまな動きが生まれてきます。本当は、「エントロピー論の現在」で注目すべきなのは、そうした動きなのですが ... 「あとのまつり」ですが、「エントロピー論の現在・補遺」として、エントロピー論へのカテゴリー論の応用を中心に、いくつかのトピックの紹介を、すこしのあいだ続けたいと思っています。 【 エントロピー概念の一般化 】 Boltzmann-Gibbs-Shannonらが作り上げたエントロピー概念は、驚くべき生命力を持っています。ただ、それをより一般化しようという試みも存在します。もっとも、そうした一般化によって、17世紀に始まった古典力学が、20世紀には量子論・相対論に置き換わったようなパラダイムの転換が、エントロピー論の世界で起きた訳ではありません。 エントロピー論がこれまで経験した認識の最大の飛躍は、熱力学的エントロピーと情報論的エントロピーの「同一性」の認識です。それは、エントロピー概念の拡大・一般化というよりはむしろ、エントロピーの「遍在」の認識なのですが、極めて重要な意味を持っています。それは、エントロピー論ばかりではなく、新しい自然認識の基礎となっていくと思います。 エントロピー概念の一般化としては、Tsallis エントロピーやRényiエントロピーというものがあります。今回は、Tsallis エントロピーを紹介します。見かけは随分Shannonエントロピーとは異なっています。 意外なことに、Tsallis エントロピーは、Shannonエントロピーを導出した全く同一の「カテゴリー・マシン」で(パラメータをすこし変えるだけで)、導出できるのです。 YouTubeはこちら https://youtu.be/NQHt0UkzyiY?list=PLQIrJ0f9gMcPcLv9Xw1F4OnNfO1d9lxxh スライドのpdf版は、こちらからアクセスできます。 https://drive.google.com/file/d/1ZwwP5VXOJuZ

「String Diagram を学ぶ」の講演ビデオ公開しました

イメージ
【「String Diagram を学ぶ」の講演ビデオ公開しました 】 MaruLaboでは、以前に行ったセミナーの講演ビデオを公開しています。 今回は、2月26日に開催した マルゼミ「String Diagramを学ぶ -- カテゴリー論入門 (1)」の講演ビデオの公開です。 このセミナーは、基本的には、Bob CoeckeとAleks Kissingerの "Picturing quantum processes -- a first course in quantum theory and diagrammatic reasoning"の第一章から第四章までの内容を紹介したものです。(同書の日本語訳のタイトルは、「圏論的量子力学入門」になっています。) カテゴリー論に興味がある方は、「量子過程を図解する」という本書のアプローチは、とても刺激的なものだと思います。そこでは、カテゴリー論の特徴を「プロセス」に注目して「図形を使って考える (diagrammatic reasoning)」ものとして捉えています。その中心的なツールが「String Diagram」です。 この本にこめたBob Coeckeらのメッセージは、カテゴリー論はけっして一般に思われているように難解なものではなく、量子論への応用にしても、String Diagram の図形的直観に依拠してその基本的な部分は理解できるというものだと、僕は考えています。 今回公開したコンテンツは、次のものです。カテゴリー論に興味のある方、是非、ご利用ください。 講演資料: 「String Diagramを学ぶ -- カテゴリー論入門 (1)」 https://drive.google.com/file/d/1lTcbilWdpdJZUHeyV-DnPHS8XKA18R7O/view?usp=sharing 講演ビデオ再生リスト: https://www.youtube.com/playlist?list=PLQIrJ0f9gMcMaLQW9zspppyP1RECc4Hqv この再生リスト「String Diagram を学ぶ」は、次の四つのビデオから構成されています。 ●  第1部 「String Diagramの基本」 https://youtu.be/6dqg5YAEMdw?list=PL

エントロピーには、興味がない?

【 エントロピーには、興味がない? 】 5/27 マルゼミ「エントロピー論の現在」は、明日 19:00 開催です。 ふるってお申し込みください。お申し込みは、次のサイトからお願いします。https://entropy-theory.peatix.com/ セミナーの解説資料をまとめたページはこちらです。 https://www.marulabo.net/docs/info-entropy5/ このセミナーに関するblogの記事(基本的にはFacebookへの投稿と同じものです)も、このページから読めるようにしました。YouTubeへの投稿とは、少し違った切り口になっていると思います。こちらのほうが読みやすいかも。どうぞ、ご利用ください。 「エントロピー論の現在というけど、エントロピーに現代的な意味なんかあるの?」 という声が聞こえてきそうです。 確かに、現代は、蒸気機関の時代でも、電信・電話の時代でもありません。ただ、セミナーのお誘いには、次のように書きました。 「しかし、その見かけ上の抽象性にもかかわらず、エントロピーについての認識は、振り返ってみれば、つねにその時代の現実的で技術的な課題と深く結びついていたことには、特別の注意が必要です。」 いくつか例をあげましょう。  ● 4月に「量子情報と通信技術」というセミナーをしたのですが、現在の光通信技術の理論的基礎を作ったのが、「MaxEnt 最大エントロピー原理」を提唱し、「 Bayesian推論 」の理論を発展させた E.T.Jaynes であることは、IT技術者にはあまり知られていません。もちろん、光通信の基礎づけではMaxEnt が導きの糸になりました。いつか「光通信の基礎とエントロピー」というセミナーやりたいと思っています。  ● 物理の世界では、「量子論」と「相対論」の統一という大きな課題があるのですが、そこで注目されているのが、「エンタングルメントのエントロピー」です。この分野では、日本の物理学者が、先駆的な研究をしています。この話も、是非、セミナーでやってみたいと思っています。  ● 「量子通信」や「エンタングルメントのエントロピー」に興味がなくとも、エントロピーの問題は、現代の我々の日常生活のいろんなところに顔を出しています。「環境問題」や「生物多様性」の問題は、まさに、そうした問題です。今回のセミ

簡潔なのにはワケがある

【 簡潔なのにはワケがある 】 今回のセミナーでは、シャノン・エントロピーの式が、どのような「条件」が与えられれば導出できるのかを見てきたのですが、バエズの定式化が一番簡潔なように思います。 改めて、もう一度見ておきましょう。  1.  𝐹( 𝑓∘𝑔 ) = 𝐹(𝑓) + 𝐹(𝑔)  2.  𝐹(𝜆𝑓 + (1−𝜆)𝑔) = 𝜆𝐹(𝑓) + (1−𝜆)𝐹(𝑔)  3.  𝐹は、連続的である どれも、わりと自然な形をしています。 これと比べると、シャノンの証明に出てくる A(s^m) = mA(s)という関数等式は見慣れないものでしたし、Faddeev-Leinsterらのchainルールは、たくさんの変数と総和記号をふくんだ複雑な式でした。 この三つの条件だけで、あの奇妙な形のシャノン・エントロピーの式が導かれるというのは、にわかには信じられない気がします。 バエズのこの仕事の最大のポイントは、「エントロピーは、Functor に他ならない」と喝破したことにあります。 「どこにも、そんなこと書いてないじゃないか」と思われたかもしれません。実は、条件1. の 𝐹( 𝑓∘𝑔 ) = 𝐹(𝑓) + 𝐹(𝑔) がFはFunctor であることを主張しています。 カテゴリー論の教科書には、Functor Fの要件として 𝐹( 𝑓 ∘ 𝑔 ) = 𝐹(𝑓) ∘ 𝐹(𝑔) というのがあると思いますが、条件1.は、この要件の射の合成を表す右辺の '∘'が'+'に代わったものです。なぜなら、Functor F のdomainとなるカテゴリーでは、射の合成は和で定義されているからです。 ですので、バエズの三つの「条件」は、次のように言い換えることができます。  1'.  Fは、Functor である  2'   Fは、線形(convex linear)なFunctorである  3'   Fは、連続的なFunctorである バエズの定義が簡潔なのには、訳がありました。それは、カテゴリー論を利用しているからです。それにしても、この条件だけから、シャノン・エントロピーの定義が導けるというのは驚きです。 Leinster は、エントロピー論にとってのカテゴリー論の威力と魅力

バエズが証明したこと

【 バエズが証明したこと 】 シャノン・エントロピー上で定義された「情報の損失」Loss を、バエズが一般化した関数Fは、次のような条件を満たすものとされました。  1.  𝐹( 𝑓∘𝑔 ) = 𝐹(𝑓) + 𝐹(𝑔)  2.  𝐹(𝜆𝑓 + (1−𝜆)𝑔) = 𝜆𝐹(𝑓) + (1−𝜆)𝐹(𝑔)  3.  𝐹は、連続的である 彼は、次のことを示しました。 三つの条件を𝐹が満たすとき、全ての測度を保存する関数 𝑓 : (𝑋,𝑝) → (𝑌,𝑞)  に対して、次の式を満たす定数 𝑐≥ 0 が存在することを示すことができる。   𝐹(𝑓) = 𝑐𝐿𝑜𝑠𝑠(𝑓) = 𝑐(𝑆(𝑝) − 𝑆(𝑞)) ここに、S はシャノン・エントロピーである。 この定理から、彼は、シャノン・エントロピーの式を導きます。 Shannon、Faddeev - Leinster 、Baez のシャノン・エントロピーの根拠の探求は、それぞれ、とても興味深いものです。ただ、バエズのそれは、以前のそれらと比べると、出色のものです。 次回は、バエズのエントロピー論の意義を述べてみたいと思います。 ショートムービー: https://youtu.be/62miMZC6cm4?list=PLQIrJ0f9gMcO_b7tZmh80ZE1T4QqAqL-A ショートムービーのpdf: https://drive.google.com/file/d/1X5Z_80lPnsGKzxKMQVyfhGuQtABfoJd9/view?usp=sharing 5/28 マルゼミ「エントロピー論の現在」のまとめページを作りました。ほぼ毎日更新されると思います。ご利用ください。 https://www.marulabo.net/docs/info-entropy5/ 5/28 マルゼミの申し込みページを作成しました。 https://entropy-theory.peatix.com/ お申し込みお待ちしています。 

これまでと、これからと

【 これまでと、これからと 】 そろそろ、セミナーのコンテンツの終わりに近づいているのですが、あらためて、この間見てきたことを振り返ろうと思います。 このセミナーの基本的な関心は、シャノン・エントロピーの不思議な形が、どうやって導かれたのかということにあります。 これまでを、振り返ってみましょう。 シャノンは、「三つの条件」から、シャノン・エントロピーの式を導びきました。本セミナーの第二部で、それを見てきました。 Faddeev と Leinster は、「連続でchainルールに従う」という条件から、シャノン・エントロピーの式を導きました。本セミナーの第三部は、その導出に導出にあてられています。 これから、予定していることは、21世紀のエントロピー論を大きく変えたバエズのエントロピー論の紹介です。 バエズは、情報プロセスでの「情報の損失」という特徴から、シャノン・エントロピーの式を導びこうとしています。セミナーの第四部では、バエズが考えたこと紹介します。 今回のセッションでは、まず、「情報の損失」がどういう性質を持つのか見ていこうと思います。 ショートムービー: https://youtu.be/FzloIjQ7uco?list=PLQIrJ0f9gMcO_b7tZmh80ZE1T4QqAqL-A ショートムービーのpdf: https://drive.google.com/file/d/1WW3kUbJX_KuYN3zoo91xEuUVQgye96a0/view?usp=sharing 5/28 マルゼミ「エントロピー論の現在」のまとめページを作りました。ほぼ毎日更新されると思います。ご利用ください。 https://www.marulabo.net/docs/info-entropy5/ 5/28 マルゼミの申し込みページを作成しました。 https://entropy-theory.peatix.com/ お申し込みお待ちしています。 

coarse-graining (粗視化)と「情報の損失」

【 coarse-graining (粗視化)と「情報の損失」】 セミナーの準備を始めるまで、エントロピーのchain ルールを定式化したFaddeevを、ゲージ場のFaddeev–Popov ghostsのFaddeev だと勘違いしていた。エントロピーのFaddeevはDmitrii Faddeevで、ghostの方はLudvig Faddeevだった。 John Baezググり始めた頃、どうやっても彼の情報に辿り着かなかった。Googleが、勝手にそれは Joan Baezのことでしょうと検索の対象を変えてしまう。今は、検索がパーソナライズされてそんなことは無くなったが。Googleは僕の「好み」を知っているのだ。 僕の検索人生で一番難儀したのは、Facebookの「いいね」をカウントするシステムを調べていた時だ。そのシステムの名前がpumaであるという情報はなんとか手に入れたのだが、pumaでいくらググっても、かえってくるのはスポーツシューズの情報ばかり。 ただ、DmitriiだろうがLudvigだろうがFaddeevはFaddeevだし、JohnだろうがJoanだろうがBaezはBaezに違いはないと考えることもできる。 自分の無知や検索システムの無能さにやけになって、居直っているようにも思えるが、それだけではない。違いを捨象して同じものを見出すのは、認識にとって大事な機能だ。 それを助けているものの一つは、言語の機能である。「いいね」のシステムとスポーツシューズに共通するものはほとんどないのだが、ただ、同じ「名前」を持つことはありうるのだ。 もしも、こうした認識や言語の能力が、我々に与えられていなければ、我々は、無限の差異に圧倒されて、立ちすくむしかなくなるだろう。 大雑把に物事を捉えること、あるいは異なるものを抽象化して同一性を見出すこと、厳密にはこの二つは別のものだが、大雑把に言えば(おいおい)同じものだ。そうした大雑把な把握を、coarse graining(粗視化)という。そこで我々がおこなっていることは、元々の情報をバッサリと捨てることである。 ボルツマンは、ミクロな無数の分子の位置や運動量の情報全てから出発する。ただ、そうした相空間で部分的な平衡状態が生まれれば coarse graining を繰り返す。そこでは、個々の分子が持っていた情報