本学のHP http://www.naist.jp/event/1300_j.html でも告知の通り,情報科学研究科では「最先端情報・ロボット技術で平城京を深く知ろう!」と題して,10月2日(土)~10月15日(金)の間,平城京なりきり体験館「体験工房」で各研究室が研究成果を使った出展を行っています.

私たちロボティクス講座は何を出展するかというと,アンドロイドロボットアクトロイドSIT」を使った平城京の受付案内です.皆さんの声や顔を認識して,多彩なコミュニケーションが行えるデモになっています.これまでにもロボティクス講座では,8年間にわたって人とロボットコミュニケーションを研究する「ヒューマンロボットインタラクション(HRI)」の分野において研究を行ってきました.次の2つがこれまでの代表的な成果です.

そして,今回の研究成果としてお披露目するアクトロイドSITのデモでは,

という点に重きがあります.今までのロボットは真正面に位置する人と一対一でコミュニケーションをすることを前提としていました.ですが本来,日常環境ではそんな前提を置くことは非常に困難です.僕たちはこの問題の解決をモチベーションとして,話者の位置や人数に応じてジェスチャ,コミュニケーションに変化を持たせることでこの問題の一つの解決策としました.簡単なデモ内容は会場で張り出すために僕が作成したポスターが一番手っ取り早く理解できると思います.

Robotics lab. poster for Heijo-kyo 1300th festival

動画では国際学会発表用に作成した英語版しかありませんが,一応紹介しておきますね.時系列的に説明するため,まずは最初に始めた一対一コミュニケーションの話から紹介します.

人型ロボットの自然なボディジェスチャ表現をリアルタイムに計算可能な動作生成技術を開発し,ここではそれを人とロボットとのスムーズな対話実現に応用しています.

動画中では効果をわかりやすく説明するために,人間が過度な対話割り込みを発生させていますが,割り込み発生時に次のインタラクションへ滑らかに動作遷移を行えている様子 が見て取れるでしょうか?こういった予期せぬ割り込みは人間同士の普段の会話でも頻繁に発生する問題であり,解決すべき問題の一つでした.

次に,このシステムを発展させ,今回の多人数環境を考慮したコミュニケーションが可能となった平城遷都祭デモの紹介です.カメラ画像中のマイク位置と顔位置から話者を推定し,話者位置に適したコミュニケーションをとることができます.また,話者人数も把握できるため,「7人もお集まりいただき,ありがとうございます!」といったアクションをとらせることも可能です.開催期間中にも随時対話ルールを拡充して機能のアップデートを続けています.

皆さん,デモ開催期間中にぜひ一度なりきり体験館まで足を運んでいただき,アクトロイドコミュニケーションしてみてください!! 体験館では僕たちロボティクス講座以外にも4研究室が研究成果を出展しています.

  • 音声案内システム「たけまるくん」【音情報処理学講座】
  • 平城京ウォークスルー【像情報処理学講座】
  • フライスルーMR平城京【視覚情報メディア講座】
  • 金魚すくいロボット【知能情報処理学講座】

ちなみに先日TV取材を受けて,10月14日7時15分ごろから朝日放送おはよう朝日です」のジャルジャルクエストのコーナーで放送予定です.遠方の皆さんはこの放送で雰囲気を楽しむこともできるかもしれません(僕らの研究室デモがカットされる可能性も無きにしも非ずですが笑).