JP2002264053A - ロボット視聴覚システム - Google Patents

ロボット視聴覚システム

Info

Publication number
JP2002264053A
JP2002264053A JP2001067849A JP2001067849A JP2002264053A JP 2002264053 A JP2002264053 A JP 2002264053A JP 2001067849 A JP2001067849 A JP 2001067849A JP 2001067849 A JP2001067849 A JP 2001067849A JP 2002264053 A JP2002264053 A JP 2002264053A
Authority
JP
Japan
Prior art keywords
stream
visual
module
robot
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001067849A
Other languages
English (en)
Other versions
JP3843743B2 (ja
Inventor
Kazuhiro Nakadai
一博 中臺
Kenichi Hidai
健一 日台
Hiroshi Okuno
博 奥乃
Hiroaki Kitano
宏明 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP2001067849A priority Critical patent/JP3843743B2/ja
Priority to EP02702847A priority patent/EP1375084A4/en
Priority to PCT/JP2002/002204 priority patent/WO2002072317A1/ja
Priority to US10/468,396 priority patent/US6967455B2/en
Publication of JP2002264053A publication Critical patent/JP2002264053A/ja
Application granted granted Critical
Publication of JP3843743B2 publication Critical patent/JP3843743B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 【課題】 対象に対する視覚及び聴覚の追跡を行なっ
て、視覚及び聴覚の双方を使用してロボットの視聴覚サ
ーボを行なうようにした、ロボット視聴覚システムを提
供する。 【解決手段】 聴覚モジュール20がマイクの音響信号
からピッチ抽出,音源の分離及び定位により話者の音源
を同定して聴覚イベント28を抽出し、視覚モジュール
30がカメラの画像から話者の顔識別と定位により視覚
イベント39を抽出し、モータ制御モジュール40が駆
動モータの回転位置からモータイベント49を抽出し、
アソシエーションモジュール60が聴覚イベント,視覚
イベント及びモータイベントから聴覚ストリーム65及
び視覚ストリーム66を生成し、これらを関連付けてア
ソシエーションストリーム67を生成して、アテンショ
ン制御モジュール64が、アソシエーションストリーム
に基づいてアテンション制御を行なって、ロボットの視
聴覚サーボを行なう。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はロボット、特に人型
または動物型ロボットにおける視聴覚システムに関する
ものである。
【0002】
【従来の技術】近年、このような人型または動物型ロボ
ットにおいては、視覚,聴覚の能動知覚が注目されてき
ている。能動知覚とは、ロボット視覚やロボット聴覚等
の知覚を担当する知覚装置を、知覚すべき対象に追従す
るように、これらの知覚装置を支持する例えば頭部を駆
動機構により姿勢制御するものである。
【0003】ここで、能動視覚に関しては、少なくとも
知覚装置であるカメラが、駆動機構による姿勢制御によ
ってその光軸方向が対象に向かって保持され、対象に対
して自動的にフォーカシングやズームイン,ズームアウ
ト等が行なわれることにより対象がカメラによって撮像
されるようになっており、種々の研究が行なわれてい
る。
【0004】これに対して、能動聴覚に関しては、少な
くとも知覚装置であるマイクが駆動機構による姿勢制御
によって、その指向性が対象に向かって保持され、対象
からの音がマイクによって集音される。このような能動
聴覚は、例えば本出願人による特願2000−2267
7号(ロボット聴覚システム)に開示されており、視覚
情報を参照して音源の方向付けを行なうようにしてい
る。
【0005】
【発明が解決しようとする課題】ところで、これらの能
動視覚及び能動聴覚は、ロボットの向き(水平方向)を
変更するためのモータ制御モジュールと密接に関連があ
り、特定の対象に対して能動視覚及び能動聴覚を働かせ
るためには、ロボットを特定の対象に向ける、即ちアテ
ンション制御を行なう必要がある。しかしながら、従
来、所謂視覚サーボまたは聴覚サーボによるモータモジ
ュールの駆動モータのアテンション制御は行なわれてい
るが、視覚及び聴覚の双方を使用してロボットを正確に
制御する、視聴覚サーボは行なわれていない。
【0006】この発明は、以上の点にかんがみて、対象
に対する視覚及び聴覚の追跡を行なって、視覚及び聴覚
の双方を使用してロボットの視聴覚サーボを行なうよう
にした、ロボット視聴覚システムを提供することを目的
としている。
【0007】
【課題を解決するための手段】前記目的は、この発明に
よれば、外部の音を集音する少なくとも一対のマイクを
含む聴覚モジュールと、ロボットの前方を撮像するカメ
ラを含む視覚モジュールと、ロボットを水平方向に回動
させる駆動モータを含むモータ制御モジュールと、聴覚
モジュール,視覚モジュール及びモータ制御モジュール
からのイベントを統合してストリームを生成するアソシ
エーションモジュールと、アソシエーションモジュール
により生成されたストリームに基づいてアテンション制
御を行なうアテンション制御モジュールと、を備えてい
るロボット視聴覚システムであって、聴覚モジュール
が、マイクからの音響信号に基づいて、ピッチ抽出,音
源の分離及び定位から、少なくとも一人の話者の音源を
同定してその聴覚イベントを抽出し、視覚モジュール
が、カメラにより撮像された画像に基づいて、各話者の
顔識別と定位からその視覚イベントを抽出し、モータ制
御モジュールが、駆動モータの回転位置に基づいて、モ
ータイベントを抽出することにより、アソシエーション
モジュールが、聴覚イベント,視覚イベント及びモータ
イベントから、聴覚ストリーム及び視覚ストリームと、
これらを関連付けたアソシエーションストリームを生成
して、アテンション制御モジュールが、アソシエーショ
ンストリームに基づいてモータ制御モジュールの駆動モ
ータ制御のプランニングのためのアテンション制御を行
なって、ロボットの視聴覚サーボを行なうことを特徴と
するロボット視聴覚システムにより、達成される。
【0008】また、前記目的は、この発明によれば、外
部の音を集音する少なくとも一対のマイクを含む聴覚モ
ジュールと、ロボットの前方を撮像するカメラを含む視
覚モジュールと、ロボットを水平方向に回動させる駆動
モータを含むモータ制御モジュールと、聴覚モジュー
ル,視覚モジュール及びモータ制御モジュールからのイ
ベントを統合してストリームを生成するアソシエーショ
ンモジュールと、アソシエーションモジュールにより生
成されたストリームに基づいてアテンション制御を行な
うアテンション制御モジュールと、を備えている人型ま
たは動物型のロボットの視聴覚システムであって、聴覚
モジュールが、マイクからの音響信号に基づいて、ピッ
チ抽出,音源の分離及び定位から少なくとも一人の話者
の音源を同定してその聴覚イベントを抽出し、視覚モジ
ュールが、カメラにより撮像された画像に基づいて、各
話者の顔識別と定位からその視覚イベントを抽出し、モ
ータ制御モジュールが、駆動モータの回転位置に基づい
て、モータイベントを抽出することにより、アソシエー
ションモジュールが、聴覚イベント,視覚イベント及び
モータイベントから、聴覚ストリーム及び視覚ストリー
ムと、これらを関連付けたアソシエーションストリーム
を生成して、アテンション制御モジュールが、アソシエ
ーションストリームに基づいてモータ制御モジュールの
駆動モータ制御のプランニングのためのアテンション制
御を行なって、ロボットの視聴覚サーボを行なうことを
特徴とするロボット視聴覚システムにより、達成され
る。
【0009】本発明によるロボット視聴覚システムは、
好ましくは、前記アテンション制御モジュールが、アテ
ンション制御を行なう際に、アソシエーションストリー
ム,聴覚ストリーム及び視覚ストリームの順に優先させ
る。
【0010】本発明によるロボット視聴覚システムは、
好ましくは、前記アテンション制御モジュールが、複数
の聴覚ストリーム又は視覚ストリームが存在するとき、
状況に応じて一つの聴覚ストリームまたは視覚ストリー
ムを選択し、必要に応じてアソシエーションストリーム
を生成し、これらの聴覚ストリーム,視覚ストリームま
たはアソシエーションストリームに基づいてアテンショ
ン制御を行なう。
【0011】前記構成によれば、聴覚モジュールが、マ
イクが集音した外部の対象からの音から調波構造を利用
してピッチ抽出を行なうことにより音源毎の方向を得
て、個々の話者の音源を同定し、その聴覚イベントを抽
出する。また、視覚モジュールが、カメラにより撮像さ
れた画像から、パターン認識による各話者の顔識別と定
位から個々の話者の視覚イベントを抽出する。さらに、
モータ制御モジュールが、ロボットを水平方向に回動さ
せる駆動モータの回転位置に基づいて、ロボットの方向
を検出することによってモータイベントを抽出する。な
お、前記イベントとは、各時点において検出される音ま
たは顔が検出され、ピッチ及び方向等の特徴が抽出さ
れ、話者同定や顔識別等が行なわれること、あるいは駆
動モータが回転される状態を示しており、ストリームと
は、時間的に連続するイベントを示している。
【0012】ここで、アソシエーションモジュールは、
このようにしてそれぞれ抽出された聴覚イベント,視覚
イベント及びモータイベントに基づいて、各話者の聴覚
ストリーム及び視覚ストリームを生成し、さらにこれら
のストリームを関連付けてアソシエーションストリーム
を生成して、前記アテンション制御モジュールが、アソ
シエーションストリームに基づいてアテンション制御を
行なうことにより、モータ制御モジュールの駆動モータ
制御のプランニングを行なう。アテンションとは、ロボ
ットが対象である話者を、聴覚的及び/又は視覚的に
「注目」することであり、アンテンション制御とは、モ
ータ制御モジュールによりその向きを変えることによ
り、ロボットが前記話者に注目するようにすることであ
る。そして、アテンション制御モジュールは、このプラ
ンニングに基づいて、モータ制御モジュールの駆動モー
タを制御することにより、視聴覚サーボによってロボッ
トの方向を対象である話者に向ける。これにより、ロボ
ットが対象である話者に対して正対することにより、聴
覚モジュールが当該話者の声を感度の高い正面方向にて
マイクにより正確に集音,定位することができる共に、
視覚モジュールが当該話者の画像をカメラにより良好に
撮像することができるようになる。
【0013】ここで、前記アテンション制御モジュール
が、アソシエーションストリームに基づいてアテンショ
ン制御を行なうことにより、聴覚情報及び視覚情報の双
方を使用して、ロボットの視聴覚サーボを行なうことに
より、同一物体からの音声と顔(画像)が同一人に由来
していることに基づいて、アテンション制御を行なうこ
とができるので、何れかの情報、即ち聴覚情報又は視覚
情報の何れかによる聴覚サーボ又は視覚サーボの場合と
比較して、より正確にロボットのサーボを行うことがで
きる。
【0014】従って、このような聴覚モジュール,視覚
モジュール及びモータ制御モジュールと、アソシエーシ
ョンモジュール及びアテンション制御モジュールとの連
携によって、ロボットの視聴覚サーボを行なうことによ
り、ロボットの聴覚及び視覚がそれぞれ有する曖昧性が
互いに補完されることになり、所謂ロバスト性が向上
し、複数の話者であっても、各話者をそれぞれ知覚する
ことができる。
【0015】
【発明の実施の形態】以下、図面に示した実施形態に基
づいて、この発明を詳細に説明する。図1乃至図4はこ
の発明によるロボット視聴覚システムの一実施形態を備
えた実験用の人型ロボットの全体構成を示している。図
1において、人型ロボット10は、4DOF(自由度)
のロボットとして構成されており、ベース11と、ベー
ス11上にて一軸(垂直軸)周りに回動可能に支持され
た胴体部12と、胴体部12上にて、三軸方向(垂直
軸,左右方向の水平軸及び前後方向の水平軸)の周りに
揺動可能に支持された頭部13と、を含んでいる。
【0016】前記ベース11は固定配置されていてもよ
く、脚部として動作可能としてもよい。また、ベース1
1は移動可能な台車等の上に載置されていてもよい。前
記胴体部12は、ベース11に対して垂直軸の周りに、
図1にて矢印Aで示すように回動可能に支持されてお
り、図示しない駆動手段によって回転駆動されると共
に、図示の場合、防音性の外装によって覆われている。
【0017】前記頭部13は胴体部12に対して連結部
材13aを介して支持されており、この連結部材13a
に対して前後方向の水平軸の周りに、図1にて矢印Bで
示すように揺動可能に、また左右方向の水平軸の周り
に、図2にて矢印Cで示すように揺動可能に支持されて
いると共に、前記連結部材13aが、胴体部12に対し
てさらに前後方向の水平軸の周りに、図1にて矢印Dで
示すように揺動可能に支持されており、それぞれ図示し
ない駆動手段によって、各矢印A,B,C,D方向に回
転駆動される。
【0018】ここで、前記頭部13は、図3に示すよう
に全体が防音性の外装14により覆われていると共に、
前側にロボット視覚を担当する視覚装置としてのカメラ
15を、また両側にロボット聴覚を担当する聴覚装置と
しての一対のマイク16(16a,16b)を備えてい
る。
【0019】前記外装14は、例えばウレタン樹脂等の
吸音性の合成樹脂から構成されており、頭部13の内部
をほぼ完全に密閉することにより、頭部13の内部の遮
音を行なうように構成されている。尚、胴体部12の外
装も、同様にして吸音性の合成樹脂から構成されてい
る。前記カメラ15は公知の構成であって、例えば所謂
パン,チルト,ズームの3DOF(自由度)を有する市
販のカメラが適用され得る。
【0020】前記マイク16は、それぞれ頭部13の側
面において、前方に向かって指向性を有するように取り
付けられている。ここで、マイク16の左右の各マイク
16a,16bは、それぞれ図1及び図2に示すよう
に、外装14の両側にて前方に向いた段部14a,14
bにて、内側に取り付けられ、段部14a,14bに設
けられた貫通穴を通して、前方の音を集音すると共に、
外装14の内部の音を拾わないように適宜の手段により
遮音されている。これにより、マイク16a,16b
は、所謂バイノーラルマイクとして構成されている。な
お、マイク16a,16bの取付位置の近傍において、
外装14は人間の外耳形状に形成されていてもよい。
【0021】図4は、前記マイク16及びカメラ15を
含むロボット視聴覚システムの電気的構成を示してい
る。図4において、視聴覚システム17は、パーティ受
付及びコンパニオン用ロボットとしての構成であり、聴
覚モジュール20,視覚モジュール30,モータ制御モ
ジュール40,対話モジュール50,アソシエーション
モジュール60及びアテンション制御モジュール64
と、から構成されている。以下、図4の各部を拡大して
示す図5〜図9をも参照しつつさらに説明する。説明の
便宜上、聴覚モジュール20をブロック1として図5に
拡大して示し、視覚モジュール30をブロック2として
図6に拡大して示し、モータ制御モジュール40をブロ
ック3として図7に拡大して示し、対話モジュール50
をブロック4として図8に拡大して示し、さらに、アソ
シエーションモジュール60及びアテンション制御モジ
ュール64をブロック5として図9に拡大して示す。こ
こで、アソシエーションモジュール60(ブロック5、
図9)はサーバから構成されていると共に、他のモジュ
ール、即ち聴覚モジュール20(ブロック1、図5),
視覚モジュール30(ブロック2、図6),モータ制御
モジュール40(ブロック3、図7),対話モジュール
50(ブロック4、図8)は、それぞれクライアントか
ら構成されており、互いに非同期で動作する。
【0022】なお、前記サーバ及び各クライアントは、
例えばパーソナルコンピュータにより構成されており、
例えば100Base−T等のネットワーク70を介し
て、例えばTCP/IPプロトコルにより、相互にLA
N接続されている。また、各モジュール20,30,4
0,50,60は、それぞれ階層的に分散して、具体的
には下位から順次にデバイス層,プロセス層,特徴層,
イベント層から構成されている。
【0023】図5に示すように、前記聴覚モジュール2
0は、デバイス層としてのマイク16と、プロセス層と
してのピーク抽出部21,音源定位部22,音源分離部
23と、特徴層(データ)としてのピッチ24,水平方
向25と、イベント層としての聴覚イベント生成部26
及びビューア27と、から構成されている。
【0024】これにより、聴覚モジュール20は、マイ
ク16からの音響信号に基づいて、ピーク抽出部21に
より左右のチャンネル毎に一連のピークを抽出して、左
右のチャンネルで同じか類似のピークをペアとする。こ
こで、ピーク抽出は、パワーがしきい値以上で且つ極大
値であって、例えば90Hz乃至3kHzの間の周波数
であるという条件のデータのみを透過させる帯域フィル
タを使用することにより行なわれる。このしきい値は、
周囲の暗騒音を計測して自動的に決定される。
【0025】そして、聴覚モジュール20は、各ピーク
が調波構造を有していることを利用して、左右のチャン
ネル間でより正確なピークのペアを見つけ、左右のチャ
ンネルのピークの各ペアについて、音源分離部23によ
り、逆FFT(高速フーリエ変換)を適用して、各音源
からの混合音から調波構造を有する音を分離する。これ
により、聴覚モジュール20は、分離した各音について
音源定位部22により左右のチャンネルから同じ周波数
の音響信号を選択して、例えば5度毎にIPD(両耳間
位相差)及びIID(両耳間強度差)を求める。
【0026】そして、聴覚モジュール20の音源定位部
22は、所謂聴覚エピポーラ幾何を利用して、ロボット
10の正面を0度として±90度の範囲で、仮説推論に
よるIPD Phの仮説を生成して、
【数1】 により分離した音と各仮説間の距離d(θ)を計算す
る。ここで、nf <1.5kHzは、周波数が1.5k
Hz以下である倍音である。これは、左右のマイク15
のベースラインからIPDが1.2乃至1.5kHz以
下の周波数に対して有効であるので、今回の実験では
1.5kHz以下としたものである。
【0027】IIDについては、IPDと同様に、分離
した音の各倍音の左右チャンネル間のパワー差から求め
られる。ただし、IIDについては仮説推論ではなく、
【数2】 による判別関数を用いて、音源が左右何れかを判定する
ものとする。即ち、周波数fの各倍音のIIDをI
s (f)としたとき、音源は、Iが正であればロボット
の左方向に、Iが負であれば右方向に、そしてほぼ0で
あれば正面方向に存在することになる。ここで、IID
の仮説生成には、ロボット10の頭部形状を考慮した膨
大な計算が必要となることから、リアルタイム処理を考
慮して、IPDと同様の仮説推論は行なわない。
【0028】そして、聴覚モジュール20の音源定位部
22は、前記距離d(θ)から確立密度関数
【数3】 を利用して、IPDの確信度BFIPD (θ)を計算す
る。ここで、m,sは、それぞれd(θ)の平均と分散
であり、nはdの個数である。また、IIDの確信度B
IID (θ)は、30度<θ≦90度で、前記Iが+の
とき0.35、−のとき0.65、−30度<θ≦30
度で、前記Iが+のとき0.5、−のとき0.5、−9
0度<θ≦−30度で、前記Iが+のとき0.65、−
のとき0.35となる。
【0029】そして、このようにして得られたIPDの
確信度BFIPD (θ)及びIIDの確信度BF
IID (θ)を、
【数4】 で示されるDempster−Shafer理論により
統合して、確信度BFIP D+IID (θ)を生成する。これ
により、聴覚モジュール20は、聴覚イベント生成部2
6により、音源方向として尤度の高い順に上位20個の
確信度BFIPD+IID (θ)と方向(θ)のリストと、ピ
ッチにより、聴覚イベント28を生成する。
【0030】このようにして、聴覚モジュール20は、
マイク16からの音響信号に基づいて、ピッチ抽出,音
源の分離及び定位から、少なくとも一人の話者の音源を
同定してその聴覚イベントを抽出し、ネットワーク70
を介してアソシエーションモジュール60に対して送信
するようになっている。尚、聴覚モジュール20におけ
る上述した処理は、40m秒毎に行なわれる。
【0031】ビューア27は、このようにして生成され
た聴覚イベント28をクライアントの画面上に表示する
ものであり、具体的には図11(A)に示すように、左
側のウインドウ27aに、聴覚イベント28のパワース
ペクトルと抽出したピークを、右側のウインドウ27b
に、縦軸を相対的な方位角,横軸をピッチ(周波数)と
する聴覚イベント28のグラフを表示する。ここで、聴
覚イベントは、音源定位の確信度を円の直径とする円に
より表現されている。
【0032】図6に示すように、前記視覚モジュール3
0は、デバイス層としてのカメラ15と、プロセス層と
しての顔発見部31,顔識別部32,顔定位部33と、
特徴層(データ)としての顔ID34,顔方向35と、
イベント層としての視覚イベント生成部36及びビュー
ア37と、から構成されている。
【0033】これにより、視覚モジュール30は、カメ
ラからの画像信号に基づいて、顔発見部31により例え
ば肌色抽出により各話者の顔を検出し、顔識別部32に
て前もって登録されている顔データベース38により検
索して、一致した顔があった場合、その顔ID34を決
定して当該顔を識別すると共に、顔定位部33により当
該顔方向35を決定(定位)する。なお、顔識別部32
による顔データベース38の検索の結果、一致した顔が
なかった場合には、顔学習部38aが、顔発見部31が
検出した顔を顔データベース38に登録する。
【0034】ここで、視覚モジュール30は、顔発見部
31が画像信号から複数の顔を見つけた場合、各顔につ
いて前記処理、即ち識別及び定位そして追跡を行なう。
その際、顔発見部31により検出された顔の大きさ,方
向及び明るさがしばしば変化するので、顔発見部31
は、顔領域検出を行なって、肌色抽出と相関演算に基づ
くパターンマッチングの組合せによって、200m秒以
内に複数の顔を正確に検出できるようになっている。
【0035】また、顔識別部32は、顔発見部31によ
り検出された各顔領域画像を、判別空間に射影し、顔デ
ータベース38に前もって登録された顔データとの距離
dを計算する。この距離dは、登録顔数(L)に依存す
るので、
【数5】 により、パラメータの依存しない確信度Pvに変換され
る。ここで、判別空間の基底となる判別行列は、公知の
オンラインLDAにより、通常のLDAと比較して少な
い計算により更新され得るので、リアルタイムに顔デー
タを登録することが可能である。
【0036】顔定位部33は、二次元の画像平面におけ
る顔位置を三次元空間に変換し、顔が画像平面にて
(x,y)に位置する幅と高さがそれぞれX及びYであ
るw×wピクセルであるとすると、三次元空間における
顔位置は、以下の各式で与えられる方位角θ,高さφ及
び距離rのセットとして得られる。
【数6】
【数7】
【数8】 ここで、C1 及びC2 は、探索画像サイズ(X,Y)と
カメラの画角そして実際の顔の大きさにより定義される
定数である。
【0037】そして、視覚モジュール30は、各顔毎
に、顔ID(名前)34及び顔方向35から、視覚イベ
ント生成部36により視覚イベント39を生成する。詳
細には、視覚イベント39は、各顔毎に、上位5つの確
信度付きの顔ID(名前)34と位置(距離r,水平角
度θ及び垂直角度φ)から構成されている。
【0038】なお、ビューア37は、視覚イベントをク
ライアントの画面上に表示するものであり、具体的には
図11(B)に示すように、カメラ15による画像37
aと、顔識別の確信度付きで抽出した顔の顔IDと定位
の結果である位置のリスト37bを表示する。ここで、
カメラ15による画像には、発見し同定された顔が長方
形の枠37cで囲まれて表示されている。複数の顔が発
見された場合には、各顔について、それぞれ同定を示す
長方形の枠37cと、定位の結果としてのリスト37b
が表示される。
【0039】図7に示すように、前記モータ制御モジュ
ール40は、デバイス層としてのモータ41及びポテン
ショメータ42と、プロセス層としてのPWM制御回路
43,AD変換回路44及びモータ制御部45と、特徴
層としてのロボット方向46と、イベント層としてのモ
ータイベント生成部47と、ビューア48と、から構成
されている。
【0040】これにより、モータ制御モジュール40
は、アテンション制御モジュール64(後述)からの指
令に基づいてモータ制御部45によりPWM制御回路4
3を介してモータ41を駆動制御すると共に、モータ4
1の回転位置をポテンショメータ42により検出して、
AD変換回路44を介してモータ制御部45によりロボ
ット方向46を抽出し、モータイベント生成部47によ
りモータ方向情報から成るモータイベント49を生成す
る。
【0041】ビューア48は、モータイベントをクライ
アントの画面上に三次元的に表示するものであって、具
体的には図12(A)に示すように、モータイベント4
9によるロボット10の向きと動作速度を、例えばOp
enGLにより実装されている三次元ビューアを利用し
てリアルタイムに三次元表示するようになっている。
【0042】図8に示すように、前記対話モジュール5
0は、デバイス層としてのスピーカ51及びマイク16
と、プロセス層としての音声合成回路52,対話制御回
路53及び自声抑制回路54,音声認識回路55と、か
ら構成されている。
【0043】これにより、対話モジュール50は、後述
するアソシエーションモジュール60により対話制御回
路53を制御し、音声合成回路52によりスピーカ51
を駆動することによって、対象とする話者に対して所定
の音声を発すると共に、マイク16からの音響信号から
自声抑制回路54によりスピーカ51からの音を除去し
た後、音声認識回路55により対象とする話者の音声を
認識する。なお、前記対話モジュール50は、階層とし
ての特徴層及びイベント層を備えていない。
【0044】ここで、対話制御回路53は、例えばパー
ティ受付ロボットの場合には、現在のアテンションを継
続することが最優先となるが、パーティロボットの場合
には、最も最近に関連付けられたストリームに対して、
アテンション制御される。
【0045】図9に示すように、前記アソシエーション
モジュール60は、上述した聴覚モジュール20,視覚
モジュール30,モータ制御モジュール40,対話モジ
ュール50に対して、階層的に上位に位置付けられてお
り、各モジュール20,30,40,50のイベント層
の上位であるストリーム層を構成している。具体的に
は、前記アソシエーションモジュール60は、聴覚モジ
ュール20,視覚モジュール30及びモータ制御モジュ
ール40からの非同期イベント61a即ち聴覚イベント
28,視覚イベント39及びモータイベント49を同期
させて同期イベント61bにする同期回路62と、これ
らの同期イベント61bを相互に関連付けて、聴覚スト
リーム65,視覚ストリーム66及びアソシエーション
ストリーム67を生成するストリーム生成部63と、さ
らにアテンション制御モジュール64と、ビューア68
を備えている。
【0046】前記同期回路62は、聴覚モジュール20
からの聴覚イベント28,視覚モジュール30からの視
覚イベント38及びモータ制御モジュール40からのモ
ータイベント49を同期させて、同期聴覚イベント,同
期視覚イベント及び同期モータイベントを生成する。そ
の際、聴覚イベント28及び視覚イベント38は、同期
モータイベントによって、その座標系が絶対座標系に変
換されることになる。
【0047】ここで、各イベントの実際に観測されてか
らネットワーク70を介してアソシエーションモジュー
ル60に到着するまでの遅延時間は、例えば聴覚イベン
ト28では40m秒、視覚イベント39では200m
秒、モータイベント49では100mであり、ネットワ
ーク70における遅延が10乃至200m秒であり、さ
らに到着周期も異なることによるものである。従って、
各イベントの同期を取るために、聴覚モジュール20,
視覚モジュール30及びモータ制御モジュール40から
の聴覚イベント28,視覚イベント39及びモータイベ
ント49は、それぞれ実際の観測時間を示すタイムスタ
ンプ情報を備えており、図示しない短期記憶回路にて、
例えば2秒間の間だけ一旦記憶される。
【0048】そして、同期回路62は、短期記憶回路に
記憶された各イベントを、上述した遅延時間を考慮し
て、実際の観測時間と比較して500m秒の遅延時間を
備えるように、同期プロセスにより取り出す。これによ
り、同期回路62の応答時間は500m秒となる。ま
た、このような同期プロセスは例えば100m秒周期で
動作するようになっている。尚、各イベントは、それぞ
れ互いに非同期でアソシエーションモジュール60に到
着するので、同期を取るための観測時刻と同時刻のイベ
ントが存在するとは限らない。従って、同期プロセス
は、同期を取るための観測時刻前後に発生したイベント
に対して、線形補間による補間を行なうようになってい
る。
【0049】また、ストリーム生成部63は、以下の点
に基づいて、ストリーム65,66,67の生成を行な
う。 1. 聴覚イベント28は、同等または倍音関係にある
ピッチを備え、方向が±10度以内で最も近い聴覚スト
リーム65に接続される。なお、±10度以内の値は、
聴覚エピポーラ幾何の精度を考慮して選定されたもので
あ。 2. 視覚イベント39は、共通の顔ID34を有し且
つ40cmの範囲内で最も近い視覚ストリーム66に接
続される。なお、40cmの範囲内の値は、秒速4m以
上で人間が移動することがないということを前提として
選定されたものである。 3. すべてのストリームに対して探索を行なった結
果、接続可能なストリーム65,66が存在しないイベ
ントがある場合には、当該イベント28,39は、新た
なストリーム65,66を構成することになる。 4. 既に存在しているストリーム65,66は、これ
らに接続されるイベント28,39がない場合には、最
大で500m秒間は存続するが、その後もイベントが接
続されない状態が継続すると、消滅する。 5. 聴覚ストリーム65と視覚ストリーム66が±1
0度以内に近接する状態が1秒間のうち500m秒以上
継続する場合、これの聴覚ストリーム65と視覚ストリ
ーム66は、同一話者に由来するものであるとみなさ
れ、互いに関係付けられて、アソシエーションストリー
ム67が生成される。 6. アソシエーションストリーム67は、聴覚イベン
ト28または視覚イベント39が3秒間以上接続されな
い場合には、関係付けが解除され、既存の聴覚ストリー
ム65または視覚ストリーム66のみが存続する。 7. アソシエーションストリーム67は、聴覚ストリ
ーム65及び視覚ストリーム66の方向差が3秒間、±
30度以上になった場合には、関係付けが解除され、個
々の聴覚ストリーム65及び視覚ストリーム66に戻
る。
【0050】これにより、ストリーム生成部63は、同
期回路62からの同期聴覚イベント及び同期視覚イベン
トに基づいて、これらの時間的つながりを考慮してイベ
ントを接続することにより、聴覚ストリーム65及び視
覚ストリーム66を生成すると共に、相互の結び付きの
強い聴覚ストリーム65及び視覚ストリーム66を関係
付けて、アソシエーションストリーム67を生成するよ
うになっており、逆にアソシエーションストリーム67
を構成する聴覚ストリーム65及び視覚ストリーム66
の結び付きが弱くなれば、関係付けを解除するようにな
っている。
【0051】また、アテンション制御モジュール64
は、モータ制御モジュール40の駆動モータ制御のプラ
ンニングのためのアテンション制御を行なうものであ
り、その際アソシエーションストリーム67,聴覚スト
リーム65そして視覚ストリーム66の順に優先的に参
照して、アテンション制御を行なう。そして、アテンシ
ョン制御モジュール64は、聴覚ストリーム65及び視
覚ストリーム66の状態とアソシエーションストリーム
67の存否に基づいて、ロボット10の動作プランニン
グを行ない、駆動モータ41の動作の必要があれば、モ
ータ制御モジュール40に対して動作指令としてのモー
タイベントをネットワーク70を介して送信する。
【0052】ここで、アテンション制御モジュール64
におけるアテンション制御は、連続性とトリガに基づい
ており、連続性により同じ状態を保持しようとし、トリ
ガにより最も興味のある対象を追跡しようとする。 従って、アテンション制御は、1. アソシエーション
ストリームの存在は、ロボット10に対して正対して話
している人が現在も存在している、あるいは近い過去に
存在していたことを示しているので、このようなロボッ
ト10に対して話している人に対して、高い優先度でア
テンションを向けて、トラッキングを行なう必要があ
る。 2. マイク16は無指向性であるので、カメラの視野
角のような検出範囲が存在せず、広範囲の聴覚ストリー
ムを得ることができるので、視覚ストリームより聴覚ス
トリームの優先度を高くすべきである。という二つの点
を考慮して、以下の原則に従ってアテンションを向ける
ストリームを選択して、トラッキングを行なう。 1. アソシエーションストリームのトラッキングを最
優先する。 2. アソシエーションストリームが存在しない場合、
聴覚ストリームのトラッキングを優先する。 3. アソシエーションストリーム及び聴覚ストリーム
が存在しない場合、視覚ストリームのトラッキングを優
先する。 4. 複数の同じ種類のストリームが存在する場合、最
も古いストリームのトラッキングを優先する。 このようにして、アテンション制御モジュール64は、
聴覚情報及び視覚情報に基づいて生成されたアソシエー
ションストリームによりアテンション制御を行なって、
ロボットの視聴覚サーボによりモータ制御モジュール4
0の駆動モータ41の制御のプランニングを行ない、こ
のプランニングに基づいてモータコマンド66を生成
し、ネットワーク70を介してモータ制御モジュール4
0に伝送する。これにより、モータ制御モジュール40
では、このモータコマンド66に基づいてモータ制御部
45がPWM制御を行なって、駆動モータ41を回転駆
動させて、ロボット10を所定方向に向けるようになっ
ている。
【0053】ビューア68は、このようにして生成され
た各ストリームをサーバの画面上に表示するものであ
り、具体的には図12(B)に示すように、レーダチャ
ート68a及びストリームチャート68bにより表示す
る。ここで、レーダチャート68aは、その瞬間におけ
るストリームの状態、より詳細には広く明るい扇形で示
されるカメラの視野角68a1と、狭く暗い扇形で示さ
れる音源方向68a2を示す。また、ストリームチャー
ト68bは、太線により示されるアソシエーションスト
リーム68b1と、細線により示される聴覚ストリーム
または視覚ストリーム68b2を示している。
【0054】本発明実施形態による人型ロボット10は
以上のように構成されており、パーティ受付ロボットと
して対象とする話者に対して、図10を参照して、以下
のように動作する。先ず、図10(A)に示すように、
ロボット10は、パーティ会場の入口前に配置されてい
る。そして、図10(B)に示すように、パーティ参加
者Pがロボット10に接近してくるが、ロボット10
は、まだ当該参加者Pを認識していない。ここで、参加
者Pがロボット10に対して例えば「こんにちは」と話
し掛けると、ロボット10は、マイク16が当該参加者
Pの音声を拾って、聴覚モジュール20が音源方向を伴
う聴覚イベント28を生成して、ネットワーク70を介
してアソシエーションモジュール60に伝送する。
【0055】これにより、アソシエーションモジュール
60は、この聴覚イベント28に基づいて聴覚ストリー
ム29を生成する。このとき、視覚モジュール30は参
加者Pがカメラ15の視野内に入っていないので、視覚
イベント39を生成しない。従って、アソシエーション
モジュール60は、聴覚イベント28のみに基づいて聴
覚ストリーム29を生成し、アテンション制御モジュー
ル64は、この聴覚ストリーム29をトリガーとして、
ロボット10を参加者Pの方向に向けるようなアテンシ
ョン制御を行なう。
【0056】このようにして、図10(C)に示すよう
に、ロボット10が参加者Pの方向を向き、所謂声によ
るトラッキングが行なわれる。そして、視覚モジュール
30がカメラ15による参加者Pの顔の画像を取り込ん
で、視覚イベント39を生成して、当該参加者Pの顔を
顔データベース38により検索し、顔識別を行なうと共
に、その結果である顔ID34及び画像をネットワーク
70を介してアソシエーションモジュール60に伝送す
る。なお、当該参加者Pの顔が顔データベース38に登
録されていない場合には、視覚モジュール30は、その
旨をネットワーク70を介してアソシエーションモジュ
ールに伝送する。
【0057】このとき、ロボット10は、聴覚イベント
28及び視覚イベント39によりアソシエーションスト
リーム65を生成しており、このアソシエーションスト
リーム65により視聴覚サーボを行なうことにより、ア
テンション制御モジュール64は、そのアテンション制
御を変更しないので、ロボット10は、参加者Pの方向
を向き続ける。従って、参加者Pが移動したとしても、
ロボット10は、アソシエーションストリーム65によ
りモータ制御モジュール40を制御することにより参加
者Pを追跡して、視覚モジュール30のカメラ15が参
加者Pを継続して撮像し得るようになっている。
【0058】そして、アソシエーションモジュール60
は、聴覚モジュール20の音声認識回路55に入力を与
えて、音声認識回路55はその音声認識結果を対話制御
回路53に与える。これにより、対話制御回路53は、
音声合成を行なってスピーカ51から発声する。このと
き、音声認識回路55がマイク16からの音響信号から
スピーカ51からの音を自声抑制回路54により低減す
ることにより、ロボット10は自身の発声を無視して相
手の声をより正確に認識することができる。
【0059】ここで、音声合成による発声は、参加者P
の顔が前記顔データベース38に登録されているか否か
で異なる。参加者Pの顔が顔データベース38に登録さ
れている場合には、アソシエーションモジュール60
は、視覚モジュール30からの顔ID34に基づいて、
対話モジュール50を制御して、音声合成により「こん
にちは。XXXさんですか?」と参加者Pに対して質問
する。これに対して、参加者Pが「はい。」と答える
と、対話モジュール50がマイク16からの音響信号に
基づいて、音声認識回路55により「はい」を認識し
て、対話制御回路53により音声合成を行ない、スピー
カ51から「ようこそXXXさん、どうぞ部屋にお入り
下さい。」と発声する。
【0060】また、参加者Pの顔が顔データベース38
に登録されていない場合には、アソシエーションモジュ
ール60は、対話モジュール50を制御して、音声合成
により「こんにちは。あなたのお名前を教えていただけ
ますか?」と参加者Pに対して質問する。これに対し
て、参加者Pが「XXXです。」と自分の名前を答える
と、対話モジュール50がマイク16からの音響信号に
基づいて、音声認識回路55により「XXX」を認識し
て、対話制御回路53により音声合成を行ない、スピー
カ51から「ようこそXXXさん、どうぞ部屋にお入り
下さい。」と発声する。このようにして、ロボット10
は、参加者Pの認識を行なって、図10(D)に示すよ
うに、パーティ会場への入場を誘導すると共に、視覚モ
ジュール30にて、当該参加者Pの顔の画像と名前「X
XX」を顔データベース38に登録させる。
【0061】また、人型ロボット10は、コンパニオン
用ロボットとして、図13及び図14を参照して、以下
のように動作する。先ず、人型ロボット10は、特に明
確なシナリオを有しているのではなく、例えば図13に
示すシナリオをベンチマークとして使用して、本システ
ムの評価を行なった。なお、図14(A)はロボット方
向,図14(B)は視覚ストリームによるトラッキン
グ,図14(C)は聴覚ストリームによるトラッキング
を示している。このシナリオでは、二人の話者A,Bが
約40秒間に亘って種々のアクションを行なう。前記シ
ナリオは、具体的には以下の通りである。 時刻t1:A氏がロボット10の視野内に入る。視覚モ
ジュール30がA氏の顔を検出して視覚イベントを生成
し、アソシエーションモジュール60により視覚ストリ
ームが生成される。 時刻t2:A氏がロボット10に対して話し始める。聴
覚モジュール20がA氏の声を検出して聴覚イベントを
生成し、アソシエーションモジュール60により聴覚ス
トリーム65が生成され、さらにアソシエーションスト
リーム67が生成される。これにより、ロボットの視聴
覚サーボが行なわれる。 時刻t3:B氏がロボット10の視野外で話し始める。
聴覚モジュール20が(見えない)B氏の声を検出し
て、聴覚イベントを生成し、アソシエーションモジュー
ル60により聴覚ストリームが生成される。 時刻t4:A氏が移動して、物陰に隠れる。これによ
り、視覚モジュール30がA氏の視覚イベントを生成し
なくなり、A氏の視覚ストリームが途切れるが、アソシ
エーションストリームは所定時間の間存続する。 時刻t5:A氏が再び物陰から現われる。これにより、
視覚モジュール30がA氏の視覚イベントを再び生成
し、アソシエーションモジュール60により、再びアソ
シエーションストリーム67が生成される。その後、A
氏は話を止めて、再び物陰に隠れる。視覚モジュール3
0がA氏の視覚イベントを生成しなくなり、A氏の視覚
ストリームが途切れるので、所定時間後にアソシエーシ
ョンが解除され、アソシエーションストリーム67が消
滅する。 時刻t7:聴覚ストリームをトリガーとして、ロボット
10が話をしているB氏の方を向く。 時刻t8:ロボット10がB氏を視野内に捉える。視覚
モジュール30がB氏の視覚イベントを生成し、アソシ
エーションモジュール60によりB氏の視覚ストリーム
が生成され、さらにB氏のアソシエーションストリーム
67が生成される。 時刻t9:A氏が話をしながら、ロボット10の視野内
に入ってくる。聴覚モジュール20及び視覚モジュール
30がA氏の聴覚イベント及び視覚イベントを生成し、
アソシエーションモジュール60がA氏の聴覚ストリー
ム及び視覚ストリームが生成される。 時刻t10:B氏が話を止める。聴覚モジュール20が
B氏の聴覚イベントを生成しなくなり、アソシエーショ
ンモジュール60がB氏のアソシエーションを解除して
B氏の聴覚ストリームは消滅し、視覚ストリームのみが
残る。そして、ロボット10がアテンションをA氏に向
けると共に、同様にしてA氏のアソシエーションストリ
ーム67が生成される。
【0062】このようにして、上述したシナリオにおい
ては、本発明によるロボット視聴覚システムにおいて
は、以下のような特徴を有することが分かる。 1. 時刻t1及びt6にて、新しいアソシエーション
ストリームが生成されると、アテンション制御モジュー
ル64におけるアテンションが新しいアソシエーション
に向けられる。 2. 時刻t4,t5にて、A氏が見えなくなることに
より、アソシエーションストリームの視覚ストリームが
欠落したときであっても、アソシエーションが存続して
いることにより、聴覚ストリームによるA氏のトラッキ
ングが継続され得る。 3. 時刻t6,t11にて、アソシエーションストリ
ームが消滅することにより、アソシエーションストリー
ムの次に優先度の高い聴覚ストリームによりアテンショ
ン制御が行なわれ、話者のトラッキングが行なわれ、図
13に示すように、ロボット10がトラッキングの対象
である話者に正対して、当該話者からの音声をマイク1
5の正面方向により確実に検出することができるように
なっている。 4. 時刻t9以降、二人の話者A氏及びB氏は、同時
にカメラ15の視野内に収まる程度(方向差約20度)
に接近しているが、この場合でも、二人の聴覚ストリー
ム,視覚ストリーム及びアソシエーションストリーム
は、それぞれ明確に別個に生成され、各話者のトラッキ
ングが確実に行なわれる。
【0063】このようにして、人型ロボット10は、聴
覚イベント28及び視覚イベント39が生成される場合
には、これらを互いに関連付けて、アソシエーションス
トリーム67を生成して、このアソシエーションストリ
ーム67に基づいてアテンション制御を行なうことによ
り、ロボットの視聴覚サーボを行なうことになる。従っ
て、従来の聴覚サーボまたは視覚サーボの場合と比較し
て、聴覚及び視覚の双方を使用することによって、話者
をより正確に追跡することが可能になる。また、途中で
話者が物陰に隠れたり視野外に移動して見えなくなっ
て、図14(B)(視覚イベントの第一候補のみを示
す)に示すように視覚ストリームによるトラッキングが
途切れた場合には、図14(C)に示すように、聴覚ス
トリームによるアソシエーションストリーム67によっ
て、当該話者を確実にトラッキングすることかできるの
で、常に複数の話者を聴覚及び視覚により認識している
と共に、複数の話者のうちの一人の話者を追跡したり、
あるいは途中で他の話者に切り換えて追跡することがで
きる。
【0064】なお、図14(B)において、時刻t4及
びt5の間では視覚ストリームが途切れ、また時刻t6
からt7までの間は話者がロボット10の視野外に居る
ことから、視覚ストリームに基づいて、話者のトラッキ
ングを行なうことはできないが、図14(C)に示す聴
覚ストリームを参照することによって、話者のトラッキ
ングを確実に行なうことができる。また、図14(C)
において、時刻t3が23秒付近まで、そして34秒付
近から時刻t10の間は、正しくA氏及びB氏の二本の
聴覚ストリームが分離されているが、時刻t8及びt6
の周辺では、誤った聴覚ストリームが生成されている。
また、時刻t5から17秒付近までの間は、A氏の移動
及びロボット11の水平回転が同時に行なわれているた
め、話者の移動及びモータノイズそしてそのエコーによ
り音源からの音響信号の品質が低下しており、二人の話
者の定位はあまり正確ではない。このような場合でも、
図14(B)に示す視覚ストリームを参照することによ
り、話者のトラッキングを確実に行なうことができる。
このようにして、聴覚ストリーム及び視覚ストリームが
互いに関連付けられてアソシエーションストリームが生
成される場合には、聴覚及び視覚の双方を使用して、ロ
ボットの視聴覚サーボを行なうことによって、聴覚スト
リーム及び視覚ストリームがそれぞれ有する曖昧性が互
いに補完されることにより、所謂ロバスト性が向上し、
複数の話者であっても、各話者をそれぞれ確実に知覚し
て、トラッキングを行なうことができる。
【0065】また、コンパニオン用ロボットとしての人
型ロボット10は、パーティ受付ロボットと顔データベ
ース38を共用し、あるいはパーティ受付ロボットの顔
データベース38が転送または複写されるようにしても
よい。この場合、コンパニオン用ロボットとしての人型
ロボット10は、パーティ参加者全員を常に顔識別によ
って認識することができる。
【0066】このようにして、本発明実施形態による人
型ロボット10によれば、聴覚モジュール20及び視覚
モジュール30からの聴覚イベント及び視覚イベントに
基づいて、アソシエーションモジュール60が聴覚スト
リーム,視覚ストリームそしてアソシエーションストリ
ームを生成することによって、複数の対象である話者を
視聴覚により認識しているので、聴覚または視覚のいず
れか一方のみによるサーボの場合と比較して、より正確
に話者の追跡を行なうことができると共に、何れかのイ
ベントが欠落したり明確に認識できなくなった場合に
は、例えば話者が移動して「見えなく」なった場合でも
聴覚により、また話者が話をせず「聞こえなく」なった
場合でも視覚により、リアルタイムに複数の話者を聴覚
的及び/又は視覚的にトラッキングすることができる。
【0067】上述した実施形態において、人型ロボット
10は、4DOF(自由度)を有するように構成されて
いるが、これに限らず任意の動作を行なうように構成さ
れたロボットに本発明によるロボット聴覚システムを組
み込むことも可能である。また、上述した実施形態にお
いては、本発明によるロボット視聴覚システムを人型ロ
ボット10に組み込んだ場合について説明したが、これ
に限らず、犬型等の各種動物型ロボットや、その他の形
式のロボットに組み込むことも可能であることは明らか
である。
【0068】
【発明の効果】以上述べたように、この発明によれば、
聴覚モジュール,視覚モジュール及びモータ制御モジュ
ールと、アソシエーションモジュール及びアテンション
制御モジュールとの連携によって、聴覚及び視覚の双方
を使用して、ロボットの視聴覚サーボを行なうことによ
り、ロボットの聴覚及び視覚がそれぞれ有する曖昧性が
互いに補完されることになり、所謂ロバスト性が向上
し、複数の話者であっても各話者をそれぞれ知覚するこ
とができる。また、例えば聴覚イベントまたは視覚イベ
ントの何れか一方が欠落したときであっても、視覚イベ
ントまたは聴覚イベントのみに基づいて、対象である話
者をアソシエーションモジュールが知覚することができ
るので、リアルタイムにモータ制御モジュールの制御を
行なうことができる。さらに、聴覚ストリーム及び視覚
ストリームのうち、状況に応じて、双方または一方のみ
を利用して、話者のトラッキングを行なうことにより、
常により一層正確な話者のトラッキングを行なうことが
できると共に、同時に複数の聴覚ストリーム及び視覚ス
トリームが存在していても、これらの聴覚ストリーム及
び視覚ストリームに基づいて、そのときの状況に応じ
て、これらの聴覚ストリーム及び視覚ストリームの何れ
かを適宜に利用することにより、各話者のトラッキング
をより確実に行なうことができる。これにより、本発明
によれば、対象に対する視覚及び聴覚の追跡を行なっ
て、視覚及び聴覚の双方を使用してロボットの視聴覚サ
ーボを行なうようにした、極めて優れたロボット視聴覚
システムが提供される。
【図面の簡単な説明】
【図1】この発明によるロボット聴覚装置の第一の実施
形態を組み込んだ人型ロボットの外観を示す正面図であ
る。
【図2】図1の人型ロボットの側面図である。
【図3】図1の人型ロボットにおける頭部の構成を示す
概略拡大図である。
【図4】図1の人型ロボットにおけるロボット視聴覚シ
ステムの電気的構成を示すブロック図である。
【図5】図4におけるブロック1の聴覚モジュールを拡
大して示す電気的構成のブロック図である。
【図6】図4におけるブロック2の視覚モジュールを拡
大して示す電気的構成のブロック図である。
【図7】図4におけるブロック3のモータ制御モジュー
ルを拡大して示す電気的構成のブロック図である。
【図8】図4におけるブロック4の対話モジュールを拡
大して示す電気的構成のブロック図である。
【図9】図4におけるブロック5のアソシエーションモ
ジュールを拡大して示す電気的構成のブロック図であ
る。
【図10】図4のロボット視聴覚システムにおけるパー
ティ受付ロボットとしての動作例を示す図である。
【図11】図4のロボット視聴覚システムにおける
(A)聴覚モジュール,(B)視覚モジュールのビュー
アの画面例を示す図である。
【図12】図4のロボット視聴覚システムにおける
(A)モータ制御モジュール,(B)アソシエーション
モジュールのビューアの画面例を示す図である。
【図13】図4のロボット視聴覚システムにおけるコン
パニオン用ロボットとしての動作例を示す各時刻におけ
る(A)レーダチャート,(B)ストリームチャート及
び(C)カメラ画像を示す図である。
【図14】図13の動作例における(A)ロボット方
向,(B)視覚ストリーム及び(C)聴覚ストリームを
示すグラフである。
【符号の説明】
10 人型ロボット 11 ベース 12 胴体部 13 頭部 13a 連結部材 14 外装 15 カメラ(ロボット視覚) 16,16a,16b マイク(ロボット聴覚) 17 ロボット視聴覚システム 20 聴覚モジュール 30 視覚モジュール 40 モータ制御モジュール 50 対話モジュール 60 アソシエーションモジュール 64 アテンション制御モジュール 70 ネットワーク
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150B 5L096 G10L 11/04 H04N 7/18 Z 13/00 G10L 3/00 C 15/28 Q 17/00 511 15/00 545F 15/22 551H 15/20 571T 21/02 3/02 301C 15/02 9/00 301A H04N 7/18 Fターム(参考) 3C007 AS34 AS36 CS08 JS03 KS04 KS08 KS18 KS20 KS39 KT01 KT11 KT15 LT08 NS01 WA02 WA03 WB19 WC07 WC16 5B057 AA05 BA02 CA12 CA16 DA06 DB02 5C054 AA01 CA04 CA08 CC05 CD03 CG06 EF06 FC12 FF07 HA04 5D015 AA03 CC13 DD02 EE04 KK01 KK04 LL06 5D045 AB11 5L096 BA05 CA02 FA69 HA09

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 外部の音を集音する少なくとも一対のマ
    イクを含む聴覚モジュールと、 ロボットの前方を撮像するカメラを含む視覚モジュール
    と、 ロボットを水平方向に回動させる駆動モータを含むモー
    タ制御モジュールと、 前記聴覚モジュール,視覚モジュール及びモータ制御モ
    ジュールからのイベントを統合してストリームを生成す
    るアソシエーションモジュールと、 アソシエーションモジュールにより生成されたストリー
    ムに基づいてアテンション制御を行なうアテンション制
    御モジュールと、を備えているロボット視聴覚システム
    であって、 前記聴覚モジュールが、マイクからの音響信号に基づい
    て、ピッチ抽出,音源の分離及び定位から、少なくとも
    一人の話者の音源を同定してその聴覚イベントを抽出
    し、 前記視覚モジュールが、カメラにより撮像された画像に
    基づいて、各話者の顔識別と定位からその視覚イベント
    を抽出し、 前記モータ制御モジュールが、駆動モータの回転位置に
    基づいて、モータイベントを抽出することにより、 前記アソシエーションモジュールが、聴覚イベント,視
    覚イベント及びモータイベントから、聴覚ストリーム及
    び視覚ストリームと、これらを関連付けたアソシエーシ
    ョンストリームを生成して、 前記アテンション制御モジュールが、アソシエーション
    ストリームに基づいてモータ制御モジュールの駆動モー
    タ制御のプランニングのためのアテンション制御を行な
    って、ロボットの視聴覚サーボを行なうことを特徴とす
    る、ロボット視聴覚システム。
  2. 【請求項2】 外部の音を集音する少なくとも一対のマ
    イクを含む聴覚モジュールと、 ロボットの前方を撮像するカメラを含む視覚モジュール
    と、 ロボットを水平方向に回動させる駆動モータを含むモー
    タ制御モジュールと、 前記聴覚モジュール,視覚モジュール及びモータ制御モ
    ジュールからのイベントを統合してストリームを生成す
    るアソシエーションモジュールと、 アソシエーションモジュールにより生成されたストリー
    ムに基づいてアテンション制御を行なうアテンション制
    御モジュールと、を備えている人型または動物型のロボ
    ットの視聴覚システムであって、 前記聴覚モジュールが、マイクからの音響信号に基づい
    て、ピッチ抽出,音源の分離及び定位から、少なくとも
    一人の話者の音源を同定してその聴覚イベントを抽出
    し、 前記視覚モジュールが、カメラにより撮像された画像に
    基づいて、各話者の顔識別と定位からその視覚イベント
    を抽出し、 前記モータ制御モジュールが、駆動モータの回転位置に
    基づいてモータイベントを抽出することにより、 前記アソシエーションモジュールが、聴覚イベント,視
    覚イベント及びモータイベントから、聴覚ストリーム及
    び視覚ストリームと、これらを関連付けたアソシエーシ
    ョンストリームを生成して、 前記アテンション制御モジュールが、アソシエーション
    ストリームに基づいてモータ制御モジュールの駆動モー
    タ制御のプランニングのためのアテンション制御を行な
    って、ロボットの視聴覚サーボを行なうことを特徴とす
    る、ロボット視聴覚システム。
  3. 【請求項3】 前記アテンション制御モジュールが、ア
    テンション制御を行なう際に、アソシエーションストリ
    ーム,聴覚ストリーム及び視覚ストリームの順に優先さ
    せることを特徴とする、請求項1又は2に記載のロボッ
    ト視聴覚システム。
  4. 【請求項4】 前記アテンション制御モジュールが、複
    数の聴覚ストリーム又は視覚ストリームが存在すると
    き、状況に応じて一つの聴覚ストリームまたは視覚スト
    リームを選択し、必要に応じてアソシエーションストリ
    ームを生成し、これらの聴覚ストリーム,視覚ストリー
    ム又はアソシエーションストリームに基づいてアテンシ
    ョン制御を行なうことを特徴とする、請求項1から3の
    何れかに記載のロボット視聴覚システム。
JP2001067849A 2001-03-09 2001-03-09 ロボット視聴覚システム Expired - Fee Related JP3843743B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2001067849A JP3843743B2 (ja) 2001-03-09 2001-03-09 ロボット視聴覚システム
EP02702847A EP1375084A4 (en) 2001-03-09 2002-03-08 AUDIOVISUAL ROBOT SYSTEM
PCT/JP2002/002204 WO2002072317A1 (fr) 2001-03-09 2002-03-08 Systeme de robot audiovisuel
US10/468,396 US6967455B2 (en) 2001-03-09 2002-03-08 Robot audiovisual system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001067849A JP3843743B2 (ja) 2001-03-09 2001-03-09 ロボット視聴覚システム

Publications (2)

Publication Number Publication Date
JP2002264053A true JP2002264053A (ja) 2002-09-18
JP3843743B2 JP3843743B2 (ja) 2006-11-08

Family

ID=18926124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001067849A Expired - Fee Related JP3843743B2 (ja) 2001-03-09 2001-03-09 ロボット視聴覚システム

Country Status (1)

Country Link
JP (1) JP3843743B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002264058A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2004283927A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
EP1494210A1 (en) * 2003-07-03 2005-01-05 Sony Corporation Speech communication system and method, and robot apparatus
JP2005309366A (ja) * 2004-03-25 2005-11-04 Nec Corp 信号処理方法および信号処理装置
KR100846448B1 (ko) 2006-12-07 2008-07-16 한국전자통신연구원 로봇의 화상/음성 채팅 방법 및 장치
US8185395B2 (en) 2004-09-14 2012-05-22 Honda Motor Co., Ltd. Information transmission device
JPWO2016132729A1 (ja) * 2015-02-17 2017-11-30 日本電気株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP2018519552A (ja) * 2015-06-30 2018-07-19 ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド ロボット自身音源を解消するシステム
JP2018205470A (ja) * 2017-06-01 2018-12-27 株式会社InfoDeliver 対話装置、対話システム、対話方法及び対話プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148184A (ja) * 1998-11-06 2000-05-26 Sanyo Electric Co Ltd 音声認識装置
JP2001175869A (ja) * 1999-12-07 2001-06-29 Samsung Electronics Co Ltd 話し手位置検出装置及びその方法
JP2001188779A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2001212780A (ja) * 2000-01-31 2001-08-07 Sony Corp 行動制御装置および行動制御方法、並びに記録媒体
JP2002264058A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148184A (ja) * 1998-11-06 2000-05-26 Sanyo Electric Co Ltd 音声認識装置
JP2001175869A (ja) * 1999-12-07 2001-06-29 Samsung Electronics Co Ltd 話し手位置検出装置及びその方法
JP2001188779A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2001212780A (ja) * 2000-01-31 2001-08-07 Sony Corp 行動制御装置および行動制御方法、並びに記録媒体
JP2002264058A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002264058A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2004283927A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
KR101057705B1 (ko) * 2003-07-03 2011-08-18 소니 주식회사 음성 대화 장치 및 방법 및 로봇 장치
EP1494210A1 (en) * 2003-07-03 2005-01-05 Sony Corporation Speech communication system and method, and robot apparatus
CN1312576C (zh) * 2003-07-03 2007-04-25 索尼株式会社 语音通信系统和方法、及机器人装置
US8538750B2 (en) 2003-07-03 2013-09-17 Sony Corporation Speech communication system and method, and robot apparatus
US8321221B2 (en) 2003-07-03 2012-11-27 Sony Corporation Speech communication system and method, and robot apparatus
JP2005309366A (ja) * 2004-03-25 2005-11-04 Nec Corp 信号処理方法および信号処理装置
JP4655572B2 (ja) * 2004-03-25 2011-03-23 日本電気株式会社 信号処理方法および信号処理装置、ならびに、ロボット
US8185395B2 (en) 2004-09-14 2012-05-22 Honda Motor Co., Ltd. Information transmission device
KR100846448B1 (ko) 2006-12-07 2008-07-16 한국전자통신연구원 로봇의 화상/음성 채팅 방법 및 장치
JPWO2016132729A1 (ja) * 2015-02-17 2017-11-30 日本電気株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP2018519552A (ja) * 2015-06-30 2018-07-19 ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド ロボット自身音源を解消するシステム
JP2018205470A (ja) * 2017-06-01 2018-12-27 株式会社InfoDeliver 対話装置、対話システム、対話方法及び対話プログラム

Also Published As

Publication number Publication date
JP3843743B2 (ja) 2006-11-08

Similar Documents

Publication Publication Date Title
WO2002072317A1 (fr) Systeme de robot audiovisuel
Nakadai et al. Real-time auditory and visual multiple-object tracking for humanoids
JP3627058B2 (ja) ロボット視聴覚システム
Okuno et al. Human-robot interaction through real-time auditory and visual multiple-talker tracking
US20090030552A1 (en) Robotics visual and auditory system
Nakadai et al. Active audition for humanoid
Okuno et al. Social interaction of humanoid robot based on audio-visual tracking
US6005610A (en) Audio-visual object localization and tracking system and method therefor
Aarabi et al. Robust sound localization using multi-source audiovisual information fusion
US10726861B2 (en) Semi-private communication in open environments
Zhou et al. Target detection and tracking with heterogeneous sensors
JP3632099B2 (ja) ロボット視聴覚システム
JP3843743B2 (ja) ロボット視聴覚システム
JP3843740B2 (ja) ロボット視聴覚システム
JP3843741B2 (ja) ロボット視聴覚システム
JP3843742B2 (ja) ロボット視聴覚システム
Kim et al. Auditory and visual integration based localization and tracking of humans in daily-life environments
Okuno et al. Human–robot non-verbal interaction empowered by real-time auditory and visual multiple-talker tracking
Korchagin et al. Just-in-time multimodal association and fusion from home entertainment
Okuno et al. Realizing audio-visually triggered ELIZA-like non-verbal behaviors
CN110730378A (zh) 一种信息处理方法及系统
Bayram et al. Audio-visual multi-person tracking for active robot perception
Okuno et al. Realizing personality in audio-visually triggered non-verbal behaviors
Kim et al. Human tracking system integrating sound and face localization using an expectation-maximization algorithm in real environments
Nakadai et al. Humanoid active audition system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20060509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060807

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090825

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120825

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130825

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees