「ニューラル・ネットワークの基礎」公開しました
【「ニューラル・ネットワークの基礎」公開しました 】
セミナーは、「生物のニューラル・ネットワーク」と「コンピュータ上のニューラル・ネットワークのモデル」という二つのコンテンツから構成されています。
現代のディープラーニング技術は、生物のニューラル・ネットワークをコンピューター上でモデル化しようとした試みがその発端です。両者の研究は、現在では離れているのですが、両者は「人間の知能」の解明という大きな目標を共有しています。
前半の「生物のニューラル・ネットワーク」では、自然が作り上げた最も複雑で精緻なシステムの一つである動物の神経系について概説しています。
もっとも、ここで具体的に紹介されているのは、「一つのニューロン」がどう刺激に反応するのかという単純なケースだけです。ただ、そこには、ニューロンの発火の働きと「シナプス可塑性」の簡単な説明が含まれています。
重要なことは、これらは、後半の「コンピュータ上のニューラル・ネットワークのモデル」に、そのまま引き継がれていくということです。
後半の展開は、基本的には、単純なニューラル・ネットワークからより複雑なニューラル・ネットワークに段階的に進んで、ニューラル・ネットワークの状態を数式で表していきます。
ただ、僕には、一つの意図がありました。それは、このより複雑なネットワークの表現への変化が、より複雑な数学的表現への変化に対応していることを意識してもらいたいと考えていました。具体的には、
実数と実数の積 ==> ベクトルとベクトルの積 ==> ベクトルと行列の積
ポイントは、スカラー、ベクトル、行列と登場する数学的量は変わるのですが、表現される式の形は同じものになるということです。これらの見かけは異なる数学的量の間に、共通の「積」の概念が定義できれば、逆に、見かけは異なるさまざまなネットワークを「一つの式」で表現できるのです。
そこが理解できれば、多数の層からなる複雑なFull ConnectのDNN(Deep Neural Network)も、単純な式の組み合わせで表現できることになります。
今回の「ニューラル・ネットワークの基礎」で、僕が強調したかったことのひとつは、ベクトルと行列の演算のような基本的な数学の理解が重要だということです。
もっとも、それは、線形代数を勉強してからニューラル・ネットワークを学べというものではないのです。ニューラル・ネットワークをいろいろいじっていると、そういうことの大事さに気がつくことがあるだろうということです。むしろ、ニューラル・ネットワークの基礎を通じて、ベクトルや行列の理解が深まることがあるのではと思います。
まあ、うまくいったかはわかりませんが。
「ニューラル・ネットワークの基礎」ビデオ再生リスト
https://www.youtube.com/playlist?list=PLQIrJ0f9gMcN8dalyOH9sjVK6CQkd7NJw
https://www.youtube.com/playlist?list=PLQIrJ0f9gMcN8dalyOH9sjVK6CQkd7NJw
-----------------------------------
個々のセクションにこちらから個別にアクセスできます。こちらもご利用ください、
コメント
コメントを投稿