スタートアップ企業の展示会「TECHDAY LONDON」に出展したEmpath(エンパス)は、声で感情解析を行う人工知能(AI)のプログラムで注目を集めている。国際的な展示会で行われるプレゼンテーションでこれまでに6回、優勝している。最高戦略責任者(CSO)の山崎はずむ氏(32)に聞いた。
-音声感情解析の仕組みは。
何語であるかにかかわりなく、声の速度、ピッチ、パワー、音量といった物理的な特徴を基にAIが感情を解析し、可視化する。「平常」「喜び」「怒り」「悲しみ」の四つの感情で喜怒哀楽が表示され、気分の浮き沈みもリアルタイムで把握できる。
-利用者は。
開発者向けに提供している「WEB Empath API」は約50カ国1000社の企業、開発者に使ってもらっている。いろいろな人たちに、これを組み込んでモノを作ってもらったりしている。
-解析の精度は。
使われれば使われるほど(サンプルとなる)音声データは増え、精度は上がっている。正答率は2年ほど前、7割を切るぐらいだったが、現在は8割近い。
-どのように活用されているか。
一つはコールセンター向けの支援システム。オペレーターの意欲や心理的負担を解析する。コールセンターの離職率は非常に高い。オペレーターの気分が落ち込んでいる時に管理者がサポートを行うなど、心理的負担を減らすためのツールとなる。
一方、コールセンター支援の過程で、どのタイミングでお客様を「押せ」ば、商談成約につながるかの相関関係もデータから見えてきた。購買とお客様の感情はかなり結びついている。例えば、「これを買おうかなあ、どうしようか」と購入を悩んでいる人の声には「悲しみ」が出やすく、そのタイミングでプッシュすれば商談成功率が上がりやすい。システムを導入したコールセンターの売り上げは最大で20%伸びた。
新着
会員限定