投稿

EPRパラドックス

イメージ
「神はサイコロを振らない」  アインシュタインが、量子論に懐疑的だったことは、よく知られていると思う。もっとも、彼がこうしたアプリオリな哲学的立場から量子論を批判したと思うのは、正しくないと思う。今日紹介する論文でも、彼は、明確に次のように述べている。 「物理的実在の基本原理を、アプリオリな哲学的思索によっては決定することはできない。それは、実験と観測の結果に訴えることで見出されなければならない。」 "Can Quantum-Mechanical Description of Physical Reality Be Considered Complete ?" 「物理的な実在の量子力学の記述は、完全なものと考えることができるか?」 https://goo.gl/qAWacP 量子論の否定は、現在の我々の目から見れば、明らかに、アインシュタインの「誤り」と言っていいものだが、彼が量子論の中に見つけた「矛盾」は、当時の物理学者の誰も気がつかなかった深いものだった。 1935年に、アインシュタインとポドルスキーとローゼンは、概略、次のような思考実験を論文として発表する。(前述の論文。三人の著者の頭文字をとって、EPR論文と呼ばれることがある。) ある系 I と、ある系 II とが、時刻 t=0 から t=T の間に相互作用するとする。ただし、t > T 以降は、二つの系には相互作用がないとする。量子力学に従えば、シュレディンガーの波動方程式 Ψ で、結合された系 I + II の状態を、全ての時間に渡って計算できることになる。単純な例として、二つの系を二つの粒子 x1とx2 だと考えてみよう。その時、Ψ(x1 , x2) で、二つの粒子からなる系の状態を計算できる。 今、系 I の粒子 x1の運動量を観測して運動量 p を得たとする。量子力学によれば、粒子の粒子の運動量の値は、観測によって粒子の状態を記述する波動方程式が収縮することによって初めて確定する。ところが、この収縮したΨをよく見ると、系 II の粒子x2の運動量が -pで与えられることが、計算でわかる。実際に系 II で、粒子 x2 の運動量を観測しても、計算どうりに、-p を得るだろう。 同様に、系 I の粒子 x1の位置を観測して位置 q を得

残雪、ミズバショウ

イメージ
もちろん、街からは消えているが、車で少し走ると、雪が残っている。雪のはじっこに、フキノトウが顔を出している。 でも、稚内のこの季節、一番元気がいいのは、ミズバショウだ。いたるところに群生して、白い花を咲かせている。

MaruLabo Inc. 設立

イメージ
今日、学生のMaruLaboの活動を支援する一般社団法人 MaruLabo Inc. の書類が法務局で受理されました。 僕と  Jun Yamada さんが理事に、監事に  井上 準二  さんが就任します。設立時社員は、MaruLabo管理者の  古川新  君です。 四人だけの小さな出発です。 Mistletoeの  孫 泰蔵 (Taizo Son)  さんが、MaruLabo Inc. にオフィスを提供してくれました。また、Mistletoeの  藤村 聡 (Satoshi Fujimura)  さんに、設立事務に全面的に協力していただきました。 一般社団法人MaruLabo の目的は、次のようになっています。 --------------------------------------------- 当法人は、学生・IT技術者の中で広く新しいAI技術の普及を推進し、特に学生によるAIの研究と開発を支援し、学生の所属組織と進路選択に関わらずAI時代のイノベーションの担い手となる個人を育成することを目的とする。 その目的に資するため、次の事業を行う。 1. 学生に対して、ディープラーニング技術の開発・学習環境を無償で提供する。 2. 学生の所属組織を超えたバーチャルな研究室として “MaruLabo”を運営する。 3. 学生・IT技術者向けのセミナー/コンテスト等のAI技術の啓蒙・普及活動。 4. MaruLabo所属の学生とIT技術者、研究者、企業との交流活動。 前各号に附帯又は関連する事業 --------------------------------------------- MaruLabo登記簿謄本  https://goo.gl/ae2unW

大阪での6時間集中講義

イメージ
大阪でのイベント、乗った新幹線は新大阪が終点だった。いくら寝ていても大丈夫。主催者が機転をきかせてくれて、待ち合わせ場所を、僕には難易度の高い大阪駅改札口から、新大阪駅改札口に変更してくれて、なんなく待ち合わせに成功。タクシーで会場に移動。 ハプニングは、「梅田は、大阪に住んでいても難しい」と言っていたタクシーの運転手さんが、行き先を間違えて、関西大学ではなく大阪工業大学の梅田サテライトに連れて行かれたことぐらい。それも、すぐ近くだったので問題なし。 セミナー開始の1時間以上前に、新しいキレイな広い会場に着く。案ずるより生むが易し。 名物だという551蓬莱の豚饅を差し入れられる。美味しかった。 セミナーは盛況だった。100名定員で締め切った後も問い合わせが多かったらしく、増席して130名で開催。東京より多い。 セミナーが終わった後、同じ建物内で開催中だった、NASA主催の"Space Apps Challenge Osaka 2017"  https://goo.gl/BHHDP5  を覗きに行く。知っている人に見つかって、挨拶させられる。 東京でのマルレク、MaruLaboの活動を、大阪でも知っている人が多く、嬉しかった。

次回マルレクは、5月31日 KDDIさんで開催です

イメージ
次の要領で次回のマルレクを開催します。  日 時:5月31日 19:00-21:00  場 所:KDDI本社会議室(飯田橋)  定 員:150名  参加費:1,000円(個人協賛会員は無料です)  申 込:個人協賛会員 5月17日 12:00から      一般     5月24日 12:00から  講 師:丸山不二夫  テーマ:「ニューラル・コンピュータとは何か?」  概 要: 現在のニューラル・ネットワークのモデルは、基本的には、次の三種類です。  ・DNN (Deep Neural Network: Full Connect Perceptron )  ・CNN (Convolutional Neural Network )  ・RNN (Recurrent Neural Network ) ここにきて、第四のモデルとしての「ニューラル・コンピュータ」に注目が集まっています。 それは、画像認識が得意なCNNや、自然言語処理のようなSequence to Sequenceの処理が得意なRNNのように、特定の課題にフォーカスしたモデルではなく、むしろ、外部メモリーを活用する現在のコンピュータのアーキテクチャーそのものを、ディープ・ラーニング技術の知見を生かして拡張しようとする意欲的なものです。 興味深いのは、そのアーキテクチャーが挑戦している課題は、上記の三つのモデルでは解くのが難しかった、ヒューリスティックな、あるいは、論理的な「推論」を機械に実行させることです。 講演では、GoogleのDeepMind チームがNatureに公開した論文の解説を行います。 次の資料を参照ください。 「可微分ニューラルコンピュータとは何か(1) 概論」 http://maruyama097.blogspot.com/2017/03/blog-post_17.html 「可微分ニューラルコンピュータとは何か(2) システム概観」 http://maruyama097.blogspot.com/2017/03/blog-post_18.html

Google翻訳のアーキテクチャー(4) Wordpiece

Segmentation Approaches Neural Machine Translation models often operate with fixed word vocabularies even though translation is fundamentally an open vocabulary problem (names, numbers, dates etc.). There are two broad categories of approaches to address the translation of out-of-vocabulary (OOV) words. One approach is to simply copy rare words from source to target (as most rare words are names or numbers where the correct translation is just a copy), either based on the attention model [37], using an external alignment model [31], or even using a more complicated special purpose pointing network [18]. Another broad category of approaches is to use sub-word units, e.g., chararacters [10], mixed word/characters [28], or more intelligent sub-words ニューラルマシン翻訳モデルでは、名前、数字、日付といった、基本的には辞書にないオープンな語彙の翻訳であっても、固定した語のボキャブラリで動作することがよくある。 語彙外(OOV : Out Of Vocaburary )単語の翻訳に対処するアプローチには、大きく2つのカテゴリーがある。  1つのアプローチは、珍しい単語を、ソースからターゲットへの単純にコピーすることである。(珍しい単語の大部分は、名前や番号で、それらに対しては、コピーが正しい翻訳になる。)あるいは

Quantizable Model and Quantized Inference

One of the main challenges in deploying our Neural Machine Translation model to our interactive production translation service is that it is computationally intensive at inference, making low latency translation difficult, and high volume deployment computationally expensive. Quantized inference using reduced precision arithmetic is one technique that can significantly reduce the cost of inference for these models, often providing efficiency improvements on the same computational devices. For example, in [43], it is demonstrated that a convolutional neural network model can be sped up by a factor of 4-6 with minimal loss on classification accuracy on the ILSVRC-12 benchmark. In [27], it is demonstrated that neural network model weights can be quantized to only three states, -1, 0, and +1 インタラクティブな製品版の翻訳サービスにニューラル機械翻訳モデルを導入する際の主な課題の1つは、推論時に、計算が集中して、低遅延の翻訳が難しく、高価な計算装置を大量に配置することが必要になることである。 精度の低い算術演算を使用した量子化された推論は、これらのモデルの推論のコストを大幅に削減することができ、同じ計算装置で効率を改善する1つの手法である。 例えば[43]では、ILSVRC-12