2017年は、日本のスマートスピーカー元年となった(表3-3-24)。
2017年10月にGoogleの「GoogleHome」、LINEの「ClovaWAVE」、11月にAmazonの「AmazonEcho」が相次いで発売された。
米国では、AmazonEchoが2014年、GoogleHomeが2016年に発売されていたが、2017年は日本市場での本格展開が開始されたことになる。
それぞれ音声認識エージェントを搭載しており、音声入力によって音楽を流したり、検索ができたり、対応するスマート家電のコントロールができたりする。ソニーやオンキヨーなどの国内メーカーもスマートスピーカーを発売したが、それらはGoogleの音声認識エージェント「Googleアシスタント」を活用する。
Microsoftは、ハードウェアとしてスマートスピーカーは持たないが、音声認識エージェント「Cortana」を提供している。
Appleは「HomePod」を2018年2月に発売した(日本での発売時期は未定)。
■表3-3-2-24代表的な音声認識エージェント
スマートスピーカー業界で最も強力なポジションを築くのは、Amazonである。
特徴は、エコシステムの構築のためSDKを公開し、サードパーティのハードウェアメーカーヘサービスを開放している点である。
アプリに相当する「スキル」の数は、グローバルでは2017年11月末で約2万4,000に達する。
日本国内で、AmazonEchoが発売された時の国内のスキル数は265だったが、2018年1月17日の時点では450を突破したと発表されている。
スキルの種類や提供企業は多彩であり、メディア、エンターテインメント、交通(航空、鉄道、バスなど)、旅行サービス、食品デリバリー、銀行、保険会社などがある。
2017年8月に、AlexaとMicrosoftCortanaの連携が発表され、2018年8月にプレビュー版が公開となり、オフィス分野との連携も進むと考えられる。
音声認識は、自動車でも活用が進む。運転中に、モニターに視線をそらしたり手で入力を行うことなく、安全に情報を得たり音楽をかけたりできるため、音声との親和性が高い。
自動車メーカーは、ドライバーと車がコミュニケーションするスマートカーの開発を進めており、トヨタ自動車、日産自動車らが相次いでAlexaの導入を進める。
2018年2月現在、すでに日産のEVリーフの充電状況やバッテリ状態、エアコン、充電の操作を行うスキルが提供されている。
これらのスマートスピーカーの役割は、音声による「対話」より、音声を使った「操作」が主体となる。
現時点では、人の会話を理解し、対話が行えるほどの自然言語処理能力はないが、アプリや家電の操作、ニュースや天気の確認、銀行口座残高の確認など、エージェントヘの指示を理解する能力は一定のレベルに達している。
スマートスピーカーの登場によって、機械とのインターフェースが「声」になる傾向は加速すると予想され、これはAIの利用シーンを大きく拡大する可能性がある。
コンシューマ一向けのスマートスピーカーからスタートしたが、将来的にはオフィス内や接客用途など商用での幅広い展開や、「操作」だけではなく「会話」を行える技術の高度化が予想される。