エモーションAI、それは人間の気持ちや感情を理解するAI

AIはすでに、私たちの身の回りにある製品をよりパーソナルな存在に変え、日常的な作業を簡単に行えるようにしたり、生産性を向上する上で役立っています。「感情情報処理」ともいわれるエモーションAIは、デバイスが人間の気分を理解できるようにすることによって、上記のようなメリットをさらに発展させる存在です。たとえば、インテリジェントな冷蔵庫が、ユーザーの会話の内容やドアの閉め方を分析して、ユーザーの気分を理解し、その気持ちにふさわしい食品を提案できるようになるかもしれません。自動車であれば、運転時のドライバーの振る舞いによって、イライラしているかどうかまでわかるようになる可能性もあるでしょう。

人間は、顔の表情や身ぶり、声色など、言葉以外の手がかりを使って、幅広い感情を伝達します。エモーションAIも、話の内容を自然言語処理によって理解するだけでなく、コンピュータの画像解析や音声分析を利用してユーザーの気分や感情を検知するのです。たとえば、VoCことボイス・オブ・カスタマー、つまり、お客様からの意見を聞くプログラムがエモーションAIのテクノロジーを活用すれば、詳細な感情分析を行えるようになります。その結果、デバイスは人間と心が通う存在になるのです。

・会話サービス

グーグル、アマゾン、アップル、フェイスブック、マイクロソフト、バイドゥ、テンセントなどの大手デジタル企業は、各社のプラットフォームとエコシステムを強化する上で、AIテクノロジーに投資してきました。それでも、アップルのシリ、マイクロソフトのコルタナ、グーグルのグーグル・アシスタントなどの音声アシスタント機能の能力は、依然として「レベル1」といったところでしょう。しかし、今後12年の間に、この市場は新しいレベルに達する見込みです。

米国においてネット上の成人を対象とした2017年のガートナーによる調査では、スマートフォンユーザーの約40%が、日常的に音声アシスタント機能を利用しています。言葉による命令と質問の処理を行うそれらのアシスタントは、今後、より賢くなって洗練されたものになるだけでなく、ユーザーの気分やその要因も理解できるようになっていくことでしょう。

現在、市場にあるスマートフォンアプリや情報家電で、ユーザーの感情を把握できるものは、ほんの一握りに過ぎませんが、エモシェイプのネット対応ホームハブ、ビヨンド・バーバルの音声認識アプリ、ハッブルのネット対応ホーム向け個人用仮想アシスタントなど、さらなる試作品や商品も登場してきました。IBM、グーグル、マイクロソフトなどの大手テクノロジベンダーに加え、意欲的なスタートアップも、この新興分野に投資を行なっています。

現段階で、このようなシステムの大きなの弱点の1つは、ユーザーの感情分析に利用される情報が不十分であることです。顔の表情や声の抑揚、行動パターンを分析して感情の背景にある要因まで理解できるようになれば、これらのデバイスのユーザー体験は大幅に強化されていくでしょう。

・ウェアラブルとコネクテッドカー

エモーションAIの発展の次の段階では、より多くの分野にメリットがもたらされます。このような分野に含まれるのは、教育ソフトウェア、ビデオゲーム、医療診断ソフトウェア、運動能力と健康状態の測定システム、自律走行車などです。これらすべての分野で開発プロジェクトが進行中ですが、2018年には、多くの製品が現実のものになると共に、新しいプロジェクトの数も増えるものと考えられます。

スマートフォンと情報家電以外では、ウェアラブルデバイスやネット対応の自動車が、カメラやマイク、各種センサーを利用して、ユーザーの感情データを収集、分析、処理するようになるはずです。そして、これらのデバイスは、得られた行動データを活用して、場面ごとのユーザーニーズをより的確に把握したり、それに応えられるようになります。

アフェクティバ、アイリス、オーディアリングなどのテクノロジーベンダーは、自動車業界のOEM企業と連携し、車内向けの新しいユーザー体験を作り上げようとしています。こうした技術を実装した自動車は、ドライバーの様子をモニタリングすることによって、必要に応じたアシスタント機能の提供や、安全な運転状態のチェック、乗車体験の充実などに貢献するのです。

また、より専門化されたデバイス向けの応用も考えられます。たとえば、医療用リストバンドは、発作の発生を数分前に予測でき、早期の対策が容易に行えるようになるでしょう。あるいは、診断やセラピーに特化したアプリによって、うつなどの症状を認識したり、自閉症の子どもを支援できる可能性があります。

もう1つの重要な分野は、人間に似た特性を備えたAIシステムの開発です。たとえば、さまざまな感情や個人に順応して支援できる、PARことパーソナルアシスタントロボットが、これに含まれます。PARは、特定の人物との対話を重ねることで、「パーソナリティ」を身につけ、より適切にユーザーのニーズを満たせるようになります。実際に、IBMなどのベンダーや、エモシェイプなどのスタートアップは、このような人間に似た特性をロボットシステムに加える技術を開発中です。

・VoCが企業の顧客理解を支援

ロボティクスや個人向けデバイスの能力向上以外に、エモーションAIは、VoCプログラムなどを通じて、顧客体験をより良いものとする取り組みにも応用できます。一部のベンダーは、SNSのプラットフォームやユーザーフォーラム上の数十億ものデータを利用した感情分析情報をすでに提供し始めました。ポジティブな感情とネガティブな感情の区別に処理が限定されるプログラムもあれば、微妙な感情の状態までを分類できる、より高度なプログラムもありますが、今のところは、データ全体を一括して分析するに留まり、特定の対象に絞った分析はサポートされていません。

私たちは、エモーションAIによるVoCプログラムの機能拡張に関しては、依然として初期段階にあります。したがって、この分野のテクノロジープロバイダは、顧客に対して、まずコンサルティングを行うスタンスでのアプローチが必要です。ほとんどのクライアント企業がエモーションAIの概念に馴染んでいないため、導入を促す前に啓蒙することが求められます。現時点では、エモーションAIのユースケースは単発的な案件がわずかに見られるだけですが、最終的には、事実上、私たちの日常生活のすべての面を変革するツールの提供が期待できるでしょう。

アネット・ジマーマンは、リサーチ/アドバイザリ企業であるガートナーのリサーチ担当副社長です。

この記事はVentureBeat向けにAnnette ZimmermannおよびGartnerが執筆し、NewsCredパブリッシャーネットワークを通じてライセンスされたものです。ライセンスに関するお問い合わせはlegal@newscred.comにお願い致します。