動作の関節点群表現による人間-機械間エモーショナルコミュニケーションの実現
【研究分野】感性情報学・ソフトコンピューティング
【研究キーワード】
感情 / 歩行 / バイオロジカルモーション / 動作 / マンマシンインタラクション / パターン認識
【研究成果の概要】
本研究では、人間とロボットやエージェントなどの機械とのインタラクションを質的に向上させるため、相互に感情をコミュニケーションすることを目指した。従来から取り組まれているような、顔の表情や声の調子によって感情を扱う研究とは異なるアプローチとして、身体の動作に含まれる感情情報に焦点を当てた。具体的には、(1)ロボットやエージェントに人間の感情を推定させる、(2)ロボットやエージェントに感情を表現させる、ことを目的とした。本研究の成果をあげる。
1.感情動作画像データベースの構築:モーションキャプチャ装置を用いて、感情が表現される動画像データベースを構築した。演技者の関節にセンサを取り付け、歩行しながら感情を表現してもらった。取得した感情は喜び・恐れ・悲しみ・嫌悪・怒りの5種類であり、演技者として30名分のデータを取得した。
2.心理実験によるモーションの評価:上記のデータを光点群どして被験者に示し,感情を知覚できるかを調べた.実験の結果,人間が感情を知覚できる割合は40%であった。
3.計算機による感情推定システムの構築:計算機を用いて、1.で作成したデータから演技者の感情を推定するシステムを構築している。特徴量として,歩行のピッチ、ストライド,各関節の速度,加速度、躍度の最大値,最小値を使用した。これらの特徴量に関して、マハラノビス距離を用いて判別した結果、40%の正解率を得た。人間による正解率と同程度の値であり、システムの有効性は示せたが、特徴量の取り方の改善などによって正解率の向上が期待できる。
【研究代表者】