投稿

マルレク・ネット「人工知能の歴史を振り返る」配信開始

イメージ
7月31日、富士通さんで行われたマルレク「人工知能の歴史を振り返る」のネット配信が始まりました。ご利用ください。 https://crash.academy/class/139/ 有料です。1,000円です。今回から、マルレク本体と同じ値付けになっています。ご了承ください。 10個のコースに分割されていますので、見やすいと思います。とても長い、当日の講演資料は、以下から、ダウンロードできます。  https://goo.gl/JBxu8o    ---------------------------------    マルレク・ネット ビデオ・コンテンツ     ---------------------------------  「人工知能の歴史を振り返る」      https://crash.academy/class/139/  「ニューラル・コンピューターとは何か?」      https://crash.academy/class/101/  「Google ニューラル機械翻訳」      https://crash.academy/class/76/  「RNNとLSTMの基礎」      https://crash.academy/class/66/

Googleの逆襲

イメージ
9月1日から一般公開が始まった、ベルリンで行われているIFA(国際コンシューマー・エレクトロニクス展)で、ボイス・インターフェース系が熱いようだ。 1月のCESでは、echo / Alexa が隠れた主役と言っていい大人気だったのだが、9月のIFAでは、Googleが大逆襲。多くのメーカーが、Google Assistant 搭載の「Smart Speaker」を出品したようだ。 SONYやPanasonicも、Google陣営に。あと、スピーカーのJBLや、バッテリーのAnkerも、Google Assistant だって。 https://goo.gl/mwzexD やっぱり、ジェフ・ベソスが予告してたように、「戦争」が、始まるんだね。 http://goo.gl/rR5BqP 戦争は嫌いだけど、あっちの戦争より、こっちの戦争の方が、マシかも。

文の複雑さについて

アルファベット(小文字)は、'a'から'z'まで26文字である。"monkey"は6文字だ。 もしも猿が26キーのタイプライターを6回適当に叩いたとする。この時、猿がうちだすことが可能な文字列の総数は、26の6乗で、308,915,776になる。9桁の数字で3億ちょっとである。 宝くじの番号は、75組 159149番(これが今年の5億円のあたりの番号)のように8桁なので、タイプライター猿が、"monkey"と打ち出すのは、サマージャンボで5億円当てるより、30倍ほど難しいことがわかる。 それでも、誰かには5億円が当たるように、もしも、猿のタイプライターが3億匹いれば、そのうちの一匹は、"monkey"と打ち出す可能性は高いのだ。 ところで、英語の単語は、何個あるのだろう? 先に、"monkey"の例で、6文字のアルファベットの数は、約3億 3 x 10^9 個あることがわかったので、12文字のアルファベットの並びの数は、約9 x 10^18、だいたい10の19乗ほどあることがわかる。随分大きな数だが、その全てが、意味のある単語にはなっていない。というか大部分が、猿タイプライターが打ち出すような無意味な文字の並びである。 (興味がある人は、「一番長い英単語は?」でググって見てほしい。) ただ、「単語」ではなく「文章」を打ち出そうとすると、もっともっと大きな数が登場することになる。 無意味な綴りを乱発する猿のタイプライターは、クビにして、必ず意味のある単語を打ち出すが、単語の順序はデタラメであるタイプライター・フジオを雇うことにしよう。英語ではなく日本語で考えよう。文章を作るという点で、フジオは猿よりマシだろうか? 日本語の単語の数を10万としよう。 現実には、日本語の語彙の数は、もっと多い。 日本語の辞書の収録語彙数をあげておく。    『日本国語大辞典』(小学館)  50万語  『広辞苑』(第六版、岩波書店) 約24万語  『岩波国語辞典』(第七版)   6万5000語 日本語で、10個の語からなる語の並びがどれくらいあるか数えてみよう。 10語文というのは、そんなに長い文章ではない。 古池1 や2

NTTグループの音声処理技術

Echo / Alexa の日本上陸直前なのだが、迎え撃つ日本勢の中で、僕はNTTグループの音声ソリューションの取り組みに注目している。 https://goo.gl/XAHuWs  日本語でなら、speech2textもtext2speechも、日本製のプロダクトの方が、クオリティーが高いと思っているので。 事実、NTTグループは、2015年の国際音声認識コンテストで、いい成績をおさめている。「公共エリア雑音下でのモバイル音声認識の国際技術評価で、世界1位の精度を達成」NTT持ち株会社ニュースリリース  https://goo.gl/7FQxD9  (2016年の結果はこちら。 https://goo.gl/PE7GPb  三菱や日立の研究者も頑張っている。) NTT傘下のdocomoも、NTT研究所の技術をベースに、AI向けのAPIを、多数公開している。GoogleやMicrosoftのRecognition APIと比べて、音声系が多いのが一つの特徴かもしれない。これは、面白いことだ。音声認識APIのSDKは、 https://goo.gl/iZuFq J  から、無料で簡単に入手できる。 これは、とてもいいことだと思う。スマホ(AndroidでもiOSでも)の開発者は、音声入出力を用いたアプリを簡単に作ることができるのだから。日本の開発者の活躍に期待したい。 音声認識の技術は、昔から、日本は進んでいたと思う。Googleの音声検索が登場した時、僕のまわりの人は、「技術では先行していたのに。」「技術で勝って、サービス化で負けた」と大いに悔しがっていた。(もっとも、検索技術については、全く負けていたのだが。) ただ、echo / alexa と「戦う」ためには(ジェフ・ベソスは、「戦争が迫っている」と言っているのだから。 http://goo.gl/rR5BqP  )、少し気になることもある。 一つは、提供されているサービスの粒度が、高機能だとしても、少し細かい。echo / alexa のプログラミングでは、speech2textもtext2speechのAPIも意識する必要はない。それは、ボイス・アシスタント・システムの「開発のしやすさ」に大きく影響する。開発は、簡単な方がいいのだ。 それは、どのサービスが音声サービスの中核な

朽ち果てるものとサルのタイプライタ

イメージ
アマゾンの密林に新車のBMWを置き、500年もすれば、鉄の塊になる。さらに500年放置すれば、鉄サビの山ができるだろう。鉄の形は、時間とともに変わるのだが、いくら待っても、それが元の新車のBMWに戻ることはない。 逆の考え方もある。 チンパンジーにタイプライターを叩かせる。ずっとやっていれば、"monkey"という単語を打ち出す可能性はある。もっともっとやり続ければ、シェクスピアの作品を打ち出す可能性だってあるはずだ。 写真は、「人々から置き去りにされ、さび付き朽ち果てた戦車や戦闘機などの写真集」から。こういうの好きな人がいるようだ。 http://gigazine.net/news/20110526_remains_of_war/ 「猿のタイピスト」については、日本語wikiの「無限の猿定理」 https://goo.gl/3iM9V9  が、素晴らしいまとめになっている。是非、読んでほしい。僕は、ボルヘスの「完全な図書館」の話をしようと思っていたのだが、完全に負けた。特に、古代ギリシャの原子論に対する批判として、この議論が、すでにあったことは知らなかった。 どっちの見方が正しいのか? 実は、この矛盾する見方が、交わるところこそ、熱力学的なエントロピーと情報論的なエントロピーが交わるところになる。 9/28 マルレク「IT技術者のための情報理論入門 -- エントロピーと複雑さについて」 https://goo.gl/DceUbG こんなのもやります。 9/12 「アマゾン“Echo & Alexa”上陸直前! Aiボイス・アシスタント3時間集中講座」 https://goo.gl/UedvRf

スマホ買い換える

スマホ買い換える。 くじ引き大会の一等賞の商品で、ただでゲットしたものだが。バッテリーが膨張して、液晶パネルが浮き上がっていた。最近は、電池が三時間も持たなくなっていて、このところ、いつも充電用のバッテリーを持ち歩くことに。 それは普通かもしれないが、全日出歩く時には、電池切れが二度は起きるので、バッテリーも二個必要だった。その上、NEXUS だったので、お財布・スイカが使えず、スイカ用に古いスマホも持ち歩いていた。(スイカに使うだけなら、スマホに電源入れてなくてもいいことに、最近気づいた。) 本当は、新しいNEXUSがでるまで、これで我慢しようと思っていたのだが、心変わりをした。きっかけは「電子タバコ」。 タバコを吸おうと思ったら、充電切れで吸えないじゃないか。その時、スマホが電池切れでシャットダウンを始めた。僕は、迷わず、一個残っていたバッテリーを、電子タバコの充電に使った。貧すれば鈍する。こういう時に、本性が現れる。 タバコ用に、三個目のバッテリーが必要? もういやだ。 バッテリーが一日は持つ、スイカ付きのスマホにしよう。外で吸うタバコは、充電のいらない普通のものにしよう。 これで、だいぶ、身軽になれるはず。

9/12 角川さんで、Botのセミナーやります

イメージ
9/28マルレクの前に、もう一つセミナーの企画があります。角川さんの主催で、僕が話します。 お申し込みは、次のサイトから。 http://lab-kadokawa31.peatix.com/ --------- テーマ --------- 「アマゾン“Echo & Alexa”上陸直前!!   AIボイス・アシスタント3時間集中講座 -- 機械と人間のインターフェースの一大変化に備えよ --」 --------- 講演概要 --------- アメリカで大ヒットした Amazon(アマゾン)の Echo & Alexa の日本上陸を前に、日本市場でも、ボイス・アシスタンスをめぐる競争が本格化(日本国内では LINE がスマートスピーカー “WAVE” の正式販売を今秋開始予定など)しようとしています。 本講座では、IT技術者が Echo & Alexa, Google Assistant, Apple Siri といった AIボイス・アシスタント技術の登場をどのように捉えればいいのか、また、今後それらをどのように活用すべきかを実践的に考えることを目的としています。 まず、最初に確認すべきことは、機械と人間のインタフェースが、音声の利活用によって大きく変わろうとしていることです。この流れは、避けられないものです。それは、プログラミングのスタイルを大きく変えていくでしょう。音声インタフェースの利用は、IT技術者にとって必須のスキルの一つになっていくと考えられます。 AIボイス・アシスタントのシステムを支える、Speech2Text, Text2Speech という基礎技術は、現在の人工知能技術の中核であるディープラーニング技術によって大きく精度が向上しました。その意味では、AIボイス・アシスタンスシステムは、コンシューマーに最も近いところで展開されている、ディープラーニング技術の応用の一つだと考えることもできます。 ただ、現在のAIボイス・アシスタントシステムには、大きな課題があることも忘れてはなりません。それは。現在の技術で確実にできることが、音声を文字列に変換するところまでであるからです。こうした制限のもとで、本セミナーでは、AIボイス・アシスタントシステ