9/12 角川さんで、Botのセミナーやります




9/28マルレクの前に、もう一つセミナーの企画があります。角川さんの主催で、僕が話します。
お申し込みは、次のサイトから。
http://lab-kadokawa31.peatix.com/
---------
テーマ
---------
「アマゾン“Echo & Alexa”上陸直前!! 
AIボイス・アシスタント3時間集中講座
-- 機械と人間のインターフェースの一大変化に備えよ --」
---------
講演概要
---------
アメリカで大ヒットした Amazon(アマゾン)の Echo & Alexa の日本上陸を前に、日本市場でも、ボイス・アシスタンスをめぐる競争が本格化(日本国内では LINE がスマートスピーカー “WAVE” の正式販売を今秋開始予定など)しようとしています。
本講座では、IT技術者が Echo & Alexa, Google Assistant, Apple Siri といった AIボイス・アシスタント技術の登場をどのように捉えればいいのか、また、今後それらをどのように活用すべきかを実践的に考えることを目的としています。
まず、最初に確認すべきことは、機械と人間のインタフェースが、音声の利活用によって大きく変わろうとしていることです。この流れは、避けられないものです。それは、プログラミングのスタイルを大きく変えていくでしょう。音声インタフェースの利用は、IT技術者にとって必須のスキルの一つになっていくと考えられます。
AIボイス・アシスタントのシステムを支える、Speech2Text, Text2Speech という基礎技術は、現在の人工知能技術の中核であるディープラーニング技術によって大きく精度が向上しました。その意味では、AIボイス・アシスタンスシステムは、コンシューマーに最も近いところで展開されている、ディープラーニング技術の応用の一つだと考えることもできます。
ただ、現在のAIボイス・アシスタントシステムには、大きな課題があることも忘れてはなりません。それは。現在の技術で確実にできることが、音声を文字列に変換するところまでであるからです。こうした制限のもとで、本セミナーでは、AIボイス・アシスタントシステムの基本的な機能を3つのタイプに分けることを提案します。
さまざまな制約のもとでも、音声インタフェース時代のユーザー・エクスペリエンスの向上を考えることは重要なことです。講座の最後には、この問題を取り上げようと思います。
<講座アジェンダ>
1. AIボイス・アシスタントシステムの現状と課題
2. AIボイス・アシスタントシステムのプログラミング
3. 音声インターフェース時代のユーザー・エクスペリエンスを考える

コメント

このブログの人気の投稿

マルレク・ネット「エントロピーと情報理論」公開しました。

初めにことばありき

宇宙の終わりと黒色矮星