表記を見直す -- ちょっと数学する
【 表記を見直す -- ちょっと数学する 】
このセッションでは、二つの点でこれまでの表記を見直します。
⚫️ ニューラル・ネットワーク表記の見直し。
⚫️ ニューロンの状態を表す次の式の見直し。 Y = W・X^T + b^T
これらの見直しは、Googleのフレームワーク TensorFlowの表記に準じたものです。
ニューラル・ネットワークのフレームワークには、TensorFlowやPyTorchやKeras等があるのですが、基本的な考え方は、皆同じです。
【 ニューラル・ネットワーク表記の見直しについて 】
これまで取り上げたニューラル・ネットワークは、「一つのニューロンに一つの入力を与える」「一つのニューロンに複数の入力を与える」「複数のニューロンからなる一つの層に複数の入力をあたえる」という、いずれも単純なものでした。
このセッションでは、入力層の後ろに二つの層があるニューラル・ネットワークを取り上げます。
ただ、各層のニューロンの数が増えると、一つのニューロンを丸で、ニューロンとニューロンの接続を線で表すこれまでのネットワークの表記では、複雑になりすぎることを具体的な例で示します。
ただ、どのような表記が複雑なネットワークの構造を簡潔に表現するかについては、次回のセッションで触れたいと思います。
【 ニューロンの状態を表す式の見直しについて 】
これまでは、ニューロンの状態を、式 Y = W・X^T + b^T で表現してきた。X^Tは、XのT嬢ではなく、XをTranspose(転置)するという意味です。
ここで、 𝑋も bも行ベクトルなので、X^Tもb^Tも列ベクトルになります。この表記では、ニューロンの状態 Yは、列ベクトル表されています。
ここでの見直しの中心は、ニューロンの状態Yも、入力X, バイアス bと同様に、行ベクトルで表すことです。
結論を先に言えば、
列ベクトル表示 Y = W・X^T + b^T は、
行ベクトル表示 Y' = X・W' + b
に変換できます。このセッションでは、そのことを見ていきます。
-------------------------------------------------------
https://youtu.be/OgPRBjPxuY8?list=PLQIrJ0f9gMcN8dalyOH9sjVK6CQkd7NJw
資料 pdf「表記を見直す -- ちょっと数学する」
コメント
コメントを投稿