どんな確率分布にも対応する分配関数が存在する

【 どんな確率分布にも対応する分配関数が存在する】

ディープ・ラーニングの「学習」では、様々な「メタ・パラメーター」が登場します。このパラメーターの設定で、学習の精度やスピードが、大きく変わります。こうしたメタ・パラメーターの一つに「温度」が登場することがあります。

 「ディープ・ラーニングに温度が関係するの?」 そうなんです。
 「長い計算で CPU/GPUをぶん回すと、マシンが熱くなるからだ。」

残念。それもそうですが、ここで言いたいことは、それではありません。

前回見た「相対エントロピーのBayesian的解釈」で述べたように、ディープ・ラーニングが繰り返し行っている計算は、与えられた目標の確率分布q にたいして、バック・プロパゲーションで確率分布 p(t) を少しずつ変化させて、p(t)に対するqの相対エントロピーを、ゼロに近づけようとしていることに他ならないのです。

非常に大雑把にいうと、ディープ・ラーニングがやっていることは、ある二つの確率分布を近づけようという計算を繰り返し繰り返し行っているだけなのです。

これまで、エネルギーとエントロピーの関係から、分配関数を導出したのですが、重要なことが一つあります。それは、いったんこうして確立された確率分布と分配関数の関係は、こうした導出がかつて持っていた元々の具体的な意味を超えて、一般的にも成り立つということです。

確率分布が与えられれば、それが何の確率分布だろうと、そこにエントロピーを見出すことができるように、我々は、与えられた確率分布を、それがどんなものであろうと、分配関数で定義できます。

ディープ・ラーニングでも同じです。ディープ・ラーニングが対象とする確率分布も、分配関数を使って再定義できるのです。

ただし、この再定義の際、元々の分配関数の定義で用いられていた「エネルギー」や「逆温度 β」には、別の解釈が与えられることになります。

続きは、YouTubeで!

5/26 マルゼミ「情報とエントロピー 2」のショート・ムービー第六弾「ディープ・ラーニングとエントロピー 2 --- ディープ・ラーニングと分配関数Zの利用」を公開しました。https://youtu.be/ZxZv_hvp688?list=PLQIrJ0f9gMcM2_4wbtngkEvZEYfuv5HY2

pdf版の資料は、次のページからアクセスできます。https://www.marulabo.net/docs/info-entropy2/

6/26マルゼミ「情報とエントロピー2」のお申し込みは、次のページから現在受付中です。https://info-entropy2.peatix.com/


コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について