複雑性と重力 3
ブラウンとサスキンドの論文「複雑性理論の第二法則」を紹介しているのだが、それは、もちろん、ITの世界でも関心が高まりつつある「量子コンピュータ」に関連しているのだが、どこかずっと遠くをみていることが面白い。 「ブラックホールは、宇宙で一番高速なコンピュータである。ただ、このコンピュータは、何の役にも立っていない。」 もちろん、ブラックホールの内部にあるのは量子コンピュータだ。何の役にも立っていないというけど、それは、自身の量子状態を、カオスなスクランブルの時期を経て更新する。でもそれは、「計算過程」であると同時に、自然の「物理過程」そのものだ。ニュートンの木から落ちるリンゴだって、自分の運動を「計算」しているのかもしれない。 この論文が面白いのは、次のような問題提起をしていることだ。 ブラックホールの量子コンピュータは、その複雑性がマックスに達すると、お腹がいっぱいになって、もはや計算することができなくなる(かれらは、それをブラックホールの周りにはファイアーウォールができていて、なにものも侵入できないという「AMPSパラドックス」と結びつけて論じている。)それは、エントロピーが最大の状態になると、熱機関に「仕事」をさせることができなくなるのと同じだ。 ところが、そこに、qubitが一個落ち込むと、光速の衝撃波とともにスクランブルが始まるのだが、それでブラックホールの複雑性Cが大きく変わるわけではない。ただ、その複雑性の取りうる可能な最大値がCmaxが大きく変わるという。 K個のqubitからなるシステムの複雑性の最大値は2のK乗だ。一個のqubitが増えると、それは2の(K+1)乗になる。複雑性の最大値は、ちょうど二倍になる。 彼らは、システムが取りうる可能な複雑性の最大値と、そのシステムの現在の複雑性の差を、uncomplexity (先に「非複雑性」と訳した)と呼ぶ。熱力学でいう「ネガ・エントロピー」と同じようなものだ。uncomplexityがあると、我々は、そのシステムに「仕事」をさせることができる! もちろん、その仕事は「計算する仕事」である! uncomplexityは、量子コンピュータの「計算資源」なのである。 「伝統的な熱力学の理論は、断熱圧縮・熱機関・冷却機械・マックスウェルの悪魔等々の一連の思考実験を通じて発展して...