ニュアンス 感情認識AIで進化する次世代マルチモーダル・インターフェース CES2019
有料会員限定記事
2019/3/25(月)
数年前からCES全体で話題になっている「音声アシスタント」は、スマートホームやIoT家電に次々と採用され、声で操作することが当たり前になりはじめている。AmazonのAlexaをはじめ、Googleアシスタント、AppleのSiri、MicrosoftのCortanaらは自動車でも採用されているが、独自システムを開発する動きも加速している。AIベースの音声認識技術を開発するニュアンス・コミュニケーションズ・インク(以下ニュアンス)は、コネクテッドカー・プラットフォーム「Dragon Drive」をベースに、コックピットやナビゲーションを音声でコントロールするシステムを開発している。昨年のCESでは、音声と視線入力を組み合わせた独自のマルチモーダル・インターフェースを発表したが、今年はそれをさらに進化させ、より高度な操作が可能な次世代のモビリティ・アシスタントへと発展させている。
(ITジャーナリスト / 野々下 裕子)
※この記事は一週間限定で無料会員様にも公開しています。
デモは展示ブースに設置された2台のデモカーを使い、車体の外側に設置された220度のワイドスクリーンに投影された映像を動かしながら行われた。ダッシュボードの上に設置されたカメラでドライバーが見ているものを検知し、「あの建物は何?」と尋ねると音声とディスプレイ表示でPOI(Point of Interest)情報を伝えてくれるのは去年と同じだが、今年はディスプレイ表示を変えている。パートナー企業であるフランスのサンゴバン・セキュリット社が開発したAR(Augmented Reality/拡張現実)対応のフロントガラスにプロジェクターで情報を投影し、運転を妨げないようメニュー表示画面が透けて見えるようにした。メニュー表示を大きくし、視線入力で選択すると色を変えるなどわかりやすくし、音声操作もしやすくなった。
カメラはキャリブレーション無しで視線入力が利用でき、頭の向きが検出できるのを応用して、窓やミラー、スライドドアなどのコントロールができるようにした。たとえば、後ろのドアの方に向いて「ドアを開けて」や、「窓を半分だけ開けて」というような操作ができる。視線入力はじっと見つめ続けなくても、ある程度視点を止めるだけで検知されているようで、音声だけでの指示も可能だ。音声認識は走行ノイズが大きい場合の認識率や複数で乗った時の反応が気になるところだが、チューニングで対応できるという。今回のデモは英語だったが、日本語も含めた言語の対応はそれほど難しくないだろう。
※このコンテンツはLIGAREオンライン法人プレミアム会員限定公開です。会員の場合はログインしてください。
無料会員および有効期限切れの場合は以下のページから法人プレミアム会員にお申し込みください。
無料会員および有効期限切れの場合は以下のページから法人プレミアム会員にお申し込みください。