対話状況に応じた自発的コミュニケーション機構の研究
【研究分野】知覚情報処理・知能ロボティクス
【研究キーワード】
ロポット / 音声認識 / 感情発話 / 笑い声 / 音声対話 / 単語共起情報 / 動画像認識 / 人物姿勢認識 / ロボット
【研究成果の概要】
本研究では,現実の多様な対話状況に対応するために,能動的にインタラクションを行うコミュニケーション機構の検討を行った.従来の対話システム研究は,情報端末のインタフェースとして特定のタスクを効率よくこなすことを目的としていたが,対話を自発的に開始・継続する対話システムへと発展させるためにこのシステム機構の研究を行う.
そのために,動画像・音声による人物認識と対話内容認識を目指す(i)対話状況把握の研究,対話システムがどのように対話を開始し,継続,終了すべきかをモデリングする(ii)自発的コミュニケーション制御モデルの研究,そして,どのようにシステムの意図を表出するかという(iii)音声生成と動作表現の技術の大きく3種類の技術の検討を行った.
(i)として,ステレオカメラによる人物姿勢推定の研究を行った.従来用いられなかった奥行き情報,人物の形状とテクスチャ情報などを同時に用いることにより,高精度な人物姿勢推定を実現した.また,対話時に話者の意図を推定する技術の研究を行った.文末特徴や単語N-gramを用いることにより,従来法より精度の高い意図推定が可能となった.
(ii)として,ロボットが人に話しかける際の話しかけ判断モデル,継続モデル,終了モデルを検討した.音声・画像情報から,システムが対話相手の心的状況を推定し,対話の開始・継続・終了を行う技術を実現した.
(iii)として,音声の生理的表現の一つである「笑い」を音声合成により生成する技術を検討した.人間の笑い声の音響分析に基づき,話し声から「笑い声」,「喋り笑い」の合成を実現した.
【研究代表者】