”Quantum machine learning" (2017年9月のNature論文)

先に、「Seth Lloydらの”Quantum machine learning" (2017年9月のNatureの論文)が良いまとめになっている。この論文は、有料だが、arXivで無料で読める。https://goo.gl/4Ngk1A 」と書いたのだが、どうも間違いだった。Nature誌の論文、手に入れていて気がついた。(ごめんなさい)
確かに、全く同名の、同じ著者による、近い時期に発表された論文なのだが、この二つは、別のものだ。(Natureに採録されるのに、pre-printとはいえ、同じ論文の投稿はまずいのかも。学会誌なら平気だと思うけど。)
ただ、Nature誌の論文の方が、面白いかも。(格調が高いと言うか、包括的と言うか、わかりやすいというか。)こんな書き出しで始まる。
------
我々がコンピュータを持つずっと以前から、人間はデータの中にパターンを見い出すために努力してきた。 プトレマイオスは、惑星の逆行運動を説明するために複雑な周転円をつかって、星々の運動の観測記録を宇宙の地球中心のモデルに適合させた。16世紀には、ケプラーが、コペルニクスとティコ・ブラーエのデータを分析して、太陽を楕円の焦点の一つとする、それ以前には隠されていた楕円軌道を明らかにする。
このようなパターンを明らかにするための天文データの分析は、線形方程式の解法(ニュートン - ガウス)、勾配降下法(ニュートン)・多項式補間(ラグランジェ)・最小二乗法(ラプラス)を通じた最適値の学習といった数学的テクニックを生み出した。
------
こうした歴史的視点は、重要だと思う。
新しい数学的な手法の開発なしには、データから特徴的なパターンを抽出することは難しかったと言うこと。
ガリレオ、ケプラーからニュートンに至る、いわゆる「科学革命」の時代は、文字通り科学の大変革期だった。科学革命の完成者としてのニュートンは、物理学だけではなく、数学にも革命をもたらした。(ライプニッツとの微積分学の「発見」をめぐる論争は、副次的だとおもう。)
「ビッグ・データ」と言うのは、データについての「量的な規定」に過ぎない。抽出されるべきfeature と言うのは、データの「質的な規定」だ。「データ・サイエンス」と言うけど、データは、いつも変わらず「データ」として観察者の目の前にあるわけではない。「サイエンス」自体のフレームの変革なしには、見つからない featureが存在するのだと思う。
Nature論文の前文のそれ以降は、機械学習の歴史のまとめだ。次に見るように、それ自体は、普通の記述だ。
彼らは、「Shorのアルゴリズムによる素因数分解」に代わる量子コンピュータの「キラー・アプリ」として、「量子ディープラーニング」を位置付けようとしている。
こうした彼らの論文の主要な論点については、また、あとで紹介しよう。
------
19世紀と20世紀初頭には、データに含まれるパターンを明らかにするデータ解析の、広い範囲の数学的手法が生み出される。
20世紀半ばのデジタルコンピュータの構築は、データ分析技術の自動化を可能にした。過去半世紀にわたって、コンピュータパワーの急速な進展により、回帰や主成分分析などの線形代数データ分析手法の実装が可能になり、さらには、サポート・ベクター・マシンなどのより複雑な学習方法が生まれた。
同じ頃、デジタル・コンピュータの開発と急速な進歩により、新しい機械学習方法が生まれる。パーセプトロンなどの人工ニ​​ューラル・ネットワークは、コンピュータがそれらを実現するとすぐに、1950年代に導入された。
1960年代から1990年代にかけてニューラル・ネットワーク(ホップフィールド・ネットワークやボルツマン・マシンなど)やバックプロパゲーションなどに基づいたトレーニング方法によるディープラーニングが導入され、実装された。
------

コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

人間は、善と悪との重ね合わせというモデルの失敗について