JP2004198656A - ロボット視聴覚システム - Google Patents

ロボット視聴覚システム Download PDF

Info

Publication number
JP2004198656A
JP2004198656A JP2002365764A JP2002365764A JP2004198656A JP 2004198656 A JP2004198656 A JP 2004198656A JP 2002365764 A JP2002365764 A JP 2002365764A JP 2002365764 A JP2002365764 A JP 2002365764A JP 2004198656 A JP2004198656 A JP 2004198656A
Authority
JP
Japan
Prior art keywords
module
speaker
event
face
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002365764A
Other languages
English (en)
Other versions
JP3632099B2 (ja
Inventor
Kazuhiro Nakadai
一博 中臺
Hiroshi Okuno
博 奥乃
Hiroaki Kitano
宏明 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2002365764A priority Critical patent/JP3632099B2/ja
Priority to US10/539,047 priority patent/US20090030552A1/en
Priority to TW092103187A priority patent/TWI222622B/zh
Publication of JP2004198656A publication Critical patent/JP2004198656A/ja
Application granted granted Critical
Publication of JP3632099B2 publication Critical patent/JP3632099B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Manipulator (AREA)
  • Stereophonic Arrangements (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】各音源からの分離された音についての認識を行なうようにしたロボット視聴覚システムを提供する。
【解決手段】聴覚モジュール20,顔モジュール30,ステレオモジュール37,モータ制御モジュール40と、これらの各モジュールを制御するアソシエーションモジュール50とを備え、聴覚モジュールが、複数の音響モデルにより音声認識を行ない、各音響モデルによる音声認識結果をセレクタにより統合して、これらの音声認識結果のうち最も信頼性の高い音声認識結果を判断するように構成されている。
【選択図】 図4

Description

【0001】
【発明の属する技術分野】
本発明はロボット、特に人型または動物型ロボットにおける視聴覚システムに関するものである。
【0002】
【従来の技術】
近年、このような人型または動物型ロボットにおいては、AIの研究目的の対象にとどまらず、所謂「人間のパートナー」としての将来的な利用が考えられている。そして、ロボットが人間との知的なソーシャルインタラクションを行なうために、視聴覚等の知覚がロボットには必要である。そして、ロボットが人間とのソーシャルインタラクションを実現するためには、知覚のうち、視聴覚、特に聴覚が重要な機能であることは明らかである。従って、視覚,聴覚に関して、所謂能動知覚が注目されてきている。
【0003】
ここで、能動知覚とは、ロボット視覚やロボット聴覚等の知覚を担当する知覚装置を知覚すべき目標に追従する働きをを言い、例えば、これらの知覚装置を支持する頭部を駆動機構により目標に追従するように姿勢制御するものである。
【0004】
ロボットにおける能動視覚においては、少なくとも知覚装置であるカメラが、駆動機構による姿勢制御によって、その光軸方向を目標に向かって保持され、更に目標に対して自動的にフォーカシングやズームイン,ズームアウト等を行う。これにより、目標が移動してもカメラによって撮像される。このような能動視覚の研究が従来、様々に行なわれている。
【0005】
これに対して、ロボットにおける能動聴覚においては、少なくとも知覚装置であるマイクが、駆動機構による姿勢制御によってその指向性を目標に向かって保持され、目標からの音がマイクによって集音される。このとき、能動聴覚の不利な点として、駆動機構が作用している間はマイクが駆動機構の作動音を拾ってしまうために目標からの音に比較的大きなノイズが混入してしまい、目標からの音を認識できなくなってしまうことがある。このような能動聴覚の不利な点を排除するために、例えば視覚情報を参照して音源の方向付けを行なうことにより、目標からの音を正確に認識する方法が採用されている。
【0006】
ところで、このような能動聴覚においては、マイクで集音した音に基づいて、(A)音源の定位,(B)各音源から発せられた音毎の分離,(C)そして各音源からの音の認識を行なう必要がある。このうち、(A)音源定位及び(B)音源分離については、能動聴覚における実時間・実環境での音源定位・追跡・分離に関する種々の研究が行なわれている(特許文献1参照)。
【0007】
【特許文献1】
国際公開第01/95314号パンフレット
【0008】
ここで、例えば、特許文献1に示すように、HRTF(頭部伝達関数)から求められる両耳間位相差(IPD),両耳間強度差(IID)を利用して音源定位を行なうことが知られている。また、特許文献1では、例えば所謂方向通過型フィルタ、即ちディレクションパスフィルタを用いて、特定の方向のIPDと同じIPDを有するサブバンドを選択することにより、各音源からの音を分離する方法が知られている。
【0009】
これに対して、音源分離により分離された各音源からの音の認識については、例えばマルチコンディショニングやミッシングデータ等のノイズに対してロバストな音声認識へのアプローチは種々の研究が行なわれている(例えば非特許文献1,2参照)。
【0010】
【非特許文献1】
J.ベーカー等著,クリーンスピーチモデルに基づくロバスト“ユーロスピーチ2001−第7回ヨーロッパ会議予稿集”,2001年,第1巻,p213−216(J.Baker, M.Cooke, and P.Green, Robust as based on cleanspeechmodels: An evaluation of missing data techniques for connected digit recognition in noise. "7th European conference on Speech Commnication Technology", Volume 1, p. 213-216)
【非特許文献2】
P.レネベイ等著,ロバストスピーチ認識 "ユーロスピーチ2001−第7回ヨーロッパ会議予稿集”,2001年,第12巻,pp.1107−1110 (Philippe Renevey, Rolf Vetter, and Jens Kraus. Robust speech recognition using missing feature theory and vector quantization. "7th European Conference on Speech Communication Technology", Volume 12, pp. 1107-1110)
【0011】
【発明が解決しようとする課題】
しかしながら、これらの研究(例えば非特許文献1,2)においては、S/N比が小さい場合には、有効な音声認識を行なうことができない。また、実時間・実環境での音声認識についての研究は行なわれていない。
【0012】
この発明は、以上の点に鑑みて、各音源からの分離された音についての認識を行なうようにしたロボット視聴覚システムを提供することを目的としている。
【0013】
【課題を解決するための手段】
上記目的を達成するために、本発明のロボット視聴覚システムの第1の構成は、各話者が発した単語とその方向とを組み合わせて成る複数の音響モデルと、これらの音響モデルを使用して、音源分離された音響信号に対して音声認識プロセスを実行する音声認識エンジンと、この音声認識プロセスによって音響モデル別に得られた複数の音声認識プロセス結果を統合し、何れかの音声認識プロセス結果を選択するセレクタと、を備えて、各話者が同時に発話した単語を各々認識することを特徴としている。
【0014】
前記セレクタは、多数決により前記音声認識プロセス結果を選択するように構成され、前記セレクタにて選択された音声認識プロセス結果を外部に出力する対話部を備えていてもよい。
【0015】
このような第1の構成によれば、音源定位・音源分離された音響信号に基づいて、複数の音響モデルを使用することによって、それぞれ音声認識プロセスを行なう。そして、各音響モデルによる音声認識プロセス結果をセレクタにより統合して、最も信頼性の高い音声認識結果を判断する。
【0016】
また、上記目的を達成するために、本発明のロボット視聴覚システムの第2の構成は、外部の音を集音する少なくとも一対のマイクを備えており、このマイクからの音響信号に基づいて、ピッチ抽出,調波構造に基づいたグルーピングによる音源の分離及び定位によって少なくとも一人の話者の方向を決定し、その聴覚イベントを抽出する聴覚モジュールと、ロボットの前方を撮像するカメラを備えており、このカメラにより撮像された画像に基づいて各話者の顔識別と定位とから各話者を同定してその顔イベントを抽出する顔モジュールと、ロボットを水平方向に回動させる駆動モータを備えこの駆動モータの回転位置に基づいてモータイベントを抽出するモータ制御モジュールと、上記聴覚イベント,顔イベント及びモータイベントから、聴覚イベントの音源定位及び顔イベントの顔定位の方向情報に基づいて各話者の方向を決定し、この決定に対してカルマンフィルタを用いて上記イベントを時間方向に接続することにより聴覚ストリーム及び顔ストリームを生成し、さらにこれらを関連付けてアソシエーションストリームを生成するアソシエーションモジュールと、これらのストリームに基づいてアテンション制御と、それに伴う行動のプランニング結果に基づいてモータの駆動制御を行うアテンション制御モジュールと、を備え、上記聴覚モジュールが、上記アソシエーションモジュールからの正確な音源方向情報に基づいて、正面方向で最小となり且つ左右に角度が大きくなるにつれて大きくなるパスレンジを有するアクティブ方向通過型フィルタにより、所定幅の範囲内の両耳間位相差(IPD)または両耳間強度差(IID)をもったサブバンドを集めて、音源の波形を再構築することにより音源分離を行なうと共に、複数の音響モデルを使用して音源分離された音響信号の音声認識を行ない、各音響モデルによる音声認識結果をセレクタにより統合して、これらの音声認識結果のうち最も信頼性の高い音声認識結果を判断するように構成されている。
【0017】
このような第2の構成によれば、聴覚モジュールがマイクが集音した外部の対象からの音から、調波構造を利用してピッチ抽出を行なうことにより音源毎の方向を得て個々の話者を同定し、その聴覚イベントを抽出する。
【0018】
また、顔モジュールが、カメラにより撮像された画像から、パターン認識による各話者の顔識別と定位から、個々の話者の顔イベントを抽出する。
【0019】
さらに、モータ制御モジュールが、ロボットを水平方向に回動させる駆動モータの回転位置に基づいて、ロボットの方向を検出することによって、モータイベントを抽出する。
【0020】
なお、上記イベントとは、各時点において検出される音または顔が在ること、あるいは駆動モータが回転される状態を示しており、ストリームとは、エラー訂正処理を行ないながら例えばカルマンフィルタ等により時間的に連続するように接続したイベントを示している。
【0021】
ここで、アソシエーションモジュールは、このようにしてそれぞれ抽出された聴覚イベント,顔イベント及びモータイベントに基づいて、各話者の聴覚ストリーム及び顔ストリームを生成し、さらにこれらのストリームを関連付けてアソシエーションストリームを生成して、アテンション制御モジュールがこれらのストリームに基づいてアテンション制御を行なうことにより、モータ制御モジュールの駆動モータ制御のプランニングを行なう。なお、アソシエーションストリームとは、聴覚ストリーム及び顔ストリームを包含する概念である。
【0022】
なお、アテンションとは、ロボットが対象である話者を聴覚的及び/または視覚的に「注目」することであり、アンテンション制御とは、モータ制御モジュールによりその向きを変えることによってロボットが上記話者に注目するようにすることである。
【0023】
そして、アテンション制御モジュールは、このプランニングに基づいて、モータ制御モジュールの駆動モータを制御することにより、ロボットの方向を対象である話者に向ける。これにより、ロボットが対象である話者に対して正対することにより、聴覚モジュールが当該話者の声を感度の高い正面方向にてマイクで正確に集音,定位することができると共に、顔モジュールが当該話者の画像をカメラにより良好に撮像することができるようになる。
【0024】
従って、このような聴覚モジュール,顔モジュール及びモータ制御モジュールと、アソシエーションモジュール及びアテンション制御モジュールとの連携によって、ロボットの聴覚及び視覚がそれぞれ有する曖昧性が互いに補完されることになり、所謂ロバスト性が向上し、複数の話者であっても、各話者をそれぞれ知覚することができる。
【0025】
また、例えば聴覚イベントまたは顔イベントの何れか一方が欠落したときであっても、顔イベントまたは聴覚イベントのみに基づいて、対象である話者をアソシエーションモジュールが知覚することができるので、リアルタイムにモータ制御モジュールの制御を行なうことができる。
【0026】
さらに、上記聴覚モジュールが、上述したように音源定位・音源分離された音響信号に基づいて、複数の音響モデルを使用することによってそれぞれ音声認識を行なう。そして、各音響モデルによる音声認識結果をセレクタにより統合して、最も信頼性の高い音声認識結果を判断する。
【0027】
これにより、従来の音声認識と比較して複数の音響モデルを使用することによって、実時間・実環境での正確な音声認識を行なうことが可能になると共に、各音響モデルによる音声認識結果をセレクタにより統合して、最も信頼性の高い音声認識結果を判断して、より一層正確な音声認識を行なうことができる。
【0028】
また、上記目的を達成するために、本発明のロボット視聴覚システムの第3の構成は、外部の音を集音する少なくとも一対のマイクを備えており、このマイクからの音響信号に基づいてピッチ抽出,調波構造に基づいたグルーピングによる音源の分離及び定位によって少なくとも一人の話者の方向を決定しその聴覚イベントを抽出する聴覚モジュールと、ロボットの前方を撮像するカメラを備えこのカメラで撮像された画像に基づいて各話者の顔識別と定位とから各話者を同定してその顔イベントを抽出する顔モジュールと、ステレオカメラにより撮像された画像から抽出された視差に基づいて縦に長い物体を抽出定位してステレオイベントを抽出するステレオモジュールと、ロボットを水平方向に回動させる駆動モータを備えこの駆動モータの回転位置に基づいてモータイベントを抽出するモータ制御モジュールと、前記聴覚イベント,顔イベント,ステレオイベント及びモータイベントから聴覚イベントの音源定位及び顔イベントの顔定位の方向情報に基づいて各話者の方向を決定しこの決定に対してカルマンフィルタを用いて前記イベントを時間方向に接続することにより聴覚ストリーム,顔ストリーム及びステレオ視覚ストリームを生成しさらにこれらを関連付けてアソシエーションストリームを生成するアソシエーションモジュールと、これらのストリームに基づいてアテンション制御と、それに伴う行動のプランニング結果に基づいてモータの駆動制御を行うアテンション制御モジュールと、を備え、上記聴覚モジュールが、上記アソシエーションモジュールからの正確な音源方向情報に基づいて、正面方向で最小となり且つ左右に角度が大きくなるにつれて大きくなるパスレンジを有するアクティブ方向通過型フィルタにより、所定幅の範囲内の両耳間位相差(IPD)または両耳間強度差(IID)をもったサブバンドを集めて、音源の波形を再構築することにより音源分離を行なうと共に、音声認識の際に、複数の音響モデルを使用して音源分離された音響信号の音声認識を行ない、各音響モデルによる音声認識結果をセレクタにより統合して、これらの音声認識結果のうち最も信頼性の高い音声認識結果を判断するように構成されている。
【0029】
このような第3の構成によれば、聴覚モジュールは、マイクが集音した外部の目標からの音から調波構造を利用してピッチ抽出を行なうことにより音源毎の方向を得て、個々の話者の方向を決定してその聴覚イベントを抽出する。
【0030】
また、顔モジュールは、カメラにより撮像された画像からパターン認識による各話者の顔識別と定位から各話者を同定して、個々の話者の顔イベントを抽出する。さらに、ステレオモジュールは、ステレオカメラにより撮像された画像から抽出された視差に基づいて縦に長い物体を抽出定位してステレオイベントを抽出する。
【0031】
さらに、モータ制御モジュールは、ロボットを水平方向に回動させる駆動モータの回転位置に基づいて、ロボットの方向を検出することによってモータイベントを抽出する。
【0032】
なお、上記イベントとは、各時点において検出される音,顔及び縦に長い物体が在ること、あるいは駆動モータが回転される状態を示しており、ストリームとは、エラー訂正処理を行ないながら例えばカルマンフィルタ等により時間的に連続するように接続したイベントを示している。
【0033】
ここで、アソシエーションモジュールは、このようにしてそれぞれ抽出された聴覚イベント,顔イベント,ステレオイベント及びモータイベントに基づいて、聴覚イベントの音源定位及び顔イベントの顔定位の方向情報によって各話者の方向を決定することにより、各話者の聴覚ストリーム,顔ストリーム及びステレオ視覚ストリームを生成し、さらにこれらのストリームを関連付けてアソシエーションストリームを生成する。なお、アソシエーションストリームとは、聴覚ストリーム,顔ストリーム及びステレオ視覚ストリームを包含する概念である。この際、アソシエーションモジュールは、聴覚イベントの音源定位及び顔イベントの顔定位、即ち聴覚及び視覚の方向情報に基づいて各話者の方向を決定し、決定された各話者の方向を参考にして、アソシエーションストリームを生成する。
【0034】
そして、アテンション制御モジュールが、これらのストリームに基づいてアテンション制御と、それに伴う行動のプランニング結果に基づいて、モータの駆動制御を行なう。そして、アテンション制御モジュールは、このプランニングに基づいてモータ制御モジュールの駆動モータを制御してロボットの方向を目標である話者に向ける。これにより、ロボットが目標である話者に対して正対することによって聴覚モジュールが当該話者の声を感度の高い正面方向にてマイクにより正確に集音,定位することができる共に、顔モジュールが当該話者の画像をカメラにより良好に撮像することができるようになる。
【0035】
従って、このような聴覚モジュール,顔モジュール,ステレオモジュール及びモータ制御モジュールと、アソシエーションモジュール及びアテンション制御モジュールとの連携によって、聴覚ストリームの音源定位及び顔ストリームの話者定位という方向情報に基づいて各話者の方向を決定することにより、ロボットの聴覚及び視覚がそれぞれ有する曖昧性が互いに補完されることになり、所謂ロバスト性が向上し、複数の話者であっても各話者をそれぞれ確実に知覚することができる。
【0036】
また、例えば聴覚ストリーム,顔ストリーム及びステレオ視覚ストリームの何れかが欠落したときであっても、残りのストリームに基づいて目標である話者をアテンション制御モジュールが追跡することができるので、正確に目標の方向を把握して、モータ制御モジュールの制御を行なうことができる。
【0037】
ここで、聴覚モジュールが、アソシエーションモジュールからのアソシエーションストリームを参照することにより、顔モジュールからの顔ストリームやステレオモジュールからのステレオ視覚ストリームをも考慮して音源定位を行なうことによって、より一層正確な音源定位を行なうことができる。
【0038】
そして、上記聴覚モジュールは、アソシエーションモジュールからの正確な音源方向情報に基づいて、聴覚特性に従って正面方向で最小となり且つ左右に角度が大きくなるにつれて大きくなるパスレンジを有するアクティブ方向通過型フィルタにより、所定幅の範囲内の両耳間位相差(IPD)または両耳間強度差(IID)をもったサブバンドを集めて、音源の波形を再構築して音源分離を行なうので、上述した聴覚特性に応じてパスレンジ即ち感度を調整することにより、方向による感度の違いを考慮して、より正確に音源分離を行なうことができる。さらに、上記聴覚モジュールは、上述したように聴覚モジュールによって音源定位・音源分離された音響信号に基づいて、複数の音響モデルを使用することによってそれぞれ音声認識を行なう。そして、各音響モデルによる音声認識結果をセレクタにより統合して、最も信頼性の高い音声認識結果を判断して、この音声認識結果を対応する話者と関連付けて出力する。
【0039】
これにより、従来の音声認識と比較して、複数の音響モデルを使用することによって、実時間・実環境での正確な音声認識を行なうことが可能になると共に、各音響モデルによる音声認識結果をセレクタにより統合して、最も信頼性の高い音声認識結果を判断することにより、より一層正確な音声認識を行なうことができる。
【0040】
なお、第2の構成と第3の構成においては、聴覚モジュールによる音声認識ができなかったときに、前記アテンション制御モジュールが、当該音響信号の音源の方向に前記マイク及び前記カメラを向けて、前記マイクから再び音声を集音させ、この音に対して聴覚モジュールにより音源定位・分離された音響信号に基づいて、再度聴覚モジュールによる音声認識を行なうように構成されている。
【0041】
さらに、前記聴覚モジュールは、音声認識を行なう際に顔モジュールによる顔イベントを参照するのが望ましい。また、前記聴覚モジュールにて判断された音声認識結果を外部に出力する対話部が備えられていてもよい。さらに、前記アクティブ方向通過型フィルタのパスレンジが周波数毎に制御可能であることが望ましい。
【0042】
上記聴覚モジュールによる音声認識ができなかったとき、アテンション制御モジュールが、当該音響信号の音源の方向(当該話者)にマイク及びカメラを向けて、再度マイクから音声を集音させ、聴覚モジュールにより音源定位・分離された音響信号に基づいて、再度聴覚モジュールによる音声認識を行なう場合には、ロボットの聴覚モジュールのマイク及び顔モジュールのカメラが当該話者と正対することによって、確実な音声認識を行なうことが可能になる。
【0043】
上記聴覚モジュールは、音声認識を行なう際に、アソシエーションモジュールからのアソシエーションストリームを参照することにより、顔モジュールからの顔ストリームをも考慮する。即ち、聴覚モジュールは、顔モジュールにより定位された顔イベントに関して、聴覚モジュールにより定位・分離された音源(話者)からの音響信号に基づいて音声認識を行なうことにより、より一層正確な音声認識を行なうことができる。
【0044】
上記アクティブ方向通過型フィルタのパスレンジが周波数毎に制御可能であると、さらに集音した音からの分離の精度が上がり、これにより音声認識もさらに向上する。
【0045】
【発明の実施の形態】
以下、図面に示した実施形態に基づいて、この発明を詳細に説明する。
図1及び図2は、それぞれこの発明によるロボット視聴覚システムの一実施形態を備えた実験用の上半身のみの人型ロボットの全体構成例を示している。図1において、人型ロボット10は、4DOF(自由度)のロボットとして構成されており、ベース11と、ベース11上にて一軸(垂直軸)周りに回動可能に支持された胴体部12と、胴体部12上にて三軸方向(垂直軸,左右方向の水平軸及び前後方向の水平軸)の周りに揺動可能に支持された頭部13とを含んでいる。
【0046】
上記ベース11は固定配置されていてもよく、脚部として動作可能としてもよい。また、ベース11は、移動可能な台車等の上に載置されていてもよい。胴体部12は、ベース11に対して垂直軸の周りに、図1にて矢印Aで示すように回動可能に支持されており、図示しない駆動手段によって回転駆動されると共に、図示の場合、防音性の外装によって覆われている。
【0047】
頭部13は胴体部12に対して連結部材13aを介して支持されており、この連結部材13aに対して前後方向の水平軸の周りに、図1にて矢印Bで示すように揺動可能に、また左右方向の水平軸の周りに、図2にて矢印Cで示すように揺動可能に支持されていると共に、上記連結部材13aが、胴体部12に対してさらに前後方向の水平軸の周りに、図1にて矢印Dで示すように揺動可能に支持されており、それぞれ図示しない駆動手段によって、各矢印A,B,C,D方向に回転駆動される。ここで、頭部13は、図3に示すように全体が防音性の外装14により覆われ、前側にロボット視覚を担当する視覚装置としてのカメラ15、両側にロボット聴覚を担当する聴覚装置としての一対のマイク16(16a,16b)を備えている。なお、マイク16は、頭部13の両側に限定されることなく、頭部13の他の位置あるいは胴体部12等に設けられていてもよい。
【0048】
上記外装14は、例えばウレタン樹脂等の吸音性の合成樹脂から構成されており、頭部13の内部がほぼ完全に密閉されて、頭部13の内部の遮音が行われるように構成されている。なお、胴体部12の外装も、頭部13の外装14と同様に、吸音性の合成樹脂から構成されている。
【0049】
上記カメラ15は公知の構成であって、例えば所謂パン,チルト,ズームの3DOF(自由度)を有する市販のカメラにより構成されている。尚、カメラ15は、同期をとってステレオ画像を送ることができるように設計されている。
【0050】
上記マイク16は、それぞれ頭部13の側面において前方に向かって指向性を有するように取り付けられている。マイク16の左右の各マイク16a,16bは、それぞれ図1及び図2に示すように、頭部13の外装14の両側に配置された段部14a,14bの内側に取り付けられている。そして、各マイク16a,16bは、段部14a,14bに設けられた貫通穴を通して、前方の音を集音すると共に、外装14の内部の音を拾わないように、適宜の手段により遮音されている。なお、段部14a,14bに設けられた貫通穴は、段部14a,14bの内側から頭部前方に向けて貫通するように、各段部14a,14bに形成されている。これにより、各マイク16a,16bは、所謂バイノーラルマイクとして構成されている。なお、マイク16a,16bの取付位置に近接する外装14は人間の外耳形状に形成されていてもよい。ここで、マイク16は、外装14の内側に配置された一対の内部マイクを含んでいてもよく、この内部マイクにより集音された内部音に基づいて、ロボット10の内部に発生するノイズをキャンセルすることができる。
【0051】
図4は、上記カメラ15及びマイク16を含むロボット視聴覚の電気的構成例を示している。図4において、ロボット視聴覚システム17は、聴覚モジュール20,顔モジュール30,ステレオモジュール37,モータ制御モジュール40及びアソシエーションモジュール50から構成されている。
【0052】
ここで、アソシエーションモジュール50はクライアントからの依頼に応じて処理を実行するサーバとして構成されており、このサーバに対するクライアントが、他のモジュール、即ち聴覚モジュール20,顔モジュール30,ステレオモジュール37,モータ制御モジュール40であり、これらのサーバとクライアントとは、互いに非同期で動作する。なお、上記サーバと各クライアントとは、各々、パーソナルコンピュータにより構成されており、更にこれらの各パーソナルコンピュータは、例えばTCP/IPプロトコルの通信環境の下で、相互にLAN(Local Area Network)として構成されている。この場合、好ましくは、データ量の大きいイベントやストリームの通信のためには、ギガビット(Giga bit)のデータ交換が可能な高速ネットワークをロボット視聴覚システム17に適用するのが好ましく、また時刻の同期等の制御用通信のためには中速ネットワークをロボット視聴覚システム17に適用するのが好ましい。このように大きなデータが高速に各パーソナルコンピュータ間を伝送することで、ロボット全体のリアルタイム性及びスケーラビリティを向上させることができる。
【0053】
また、各モジュール20,30,37,40,50は、それぞれ階層的に分散して構成されており、具体的には下位から順次にデバイス層,プロセス層,特徴層,イベント層から構成されている。
【0054】
上記聴覚モジュール20は、デバイス層としてのマイク16と、プロセス層としてのピーク抽出部21,音源定位部22,音源分離部23及びアクティブ方向通過型フィルタ23aと、特徴層(データ)としてのピッチ24,音源水平方向25と、イベント層としての聴覚イベント生成部26と、さらにプロセス層としての音声認識部27及び会話部28と、から構成されている。
【0055】
ここで、聴覚モジュール20は、図5に示すように作用する。即ち、図5において、聴覚モジュール20は、例えば48kHz,16ビットでサンプリングされたマイク16からの音響信号を、符号X1で示すようにFFT(高速フーリエ変換)により周波数解析して、符号X2で示すように左右のチャンネル毎にスペクトルを生成する。そして、聴覚モジュール20は、ピーク抽出部21により左右のチャンネル毎に一連のピークを抽出して、左右のチャンネルで同じか類似のピークをペアとする。
【0056】
ここで、ピーク抽出は、(α)パワーがしきい値以上で且つ(β)ローカルピークであって、(γ)低周波ノイズとパワーの小さい高周波帯域をカットするため例えば90Hz乃至3kHzの間の周波数であるという、3つの条件(α〜γ)を満たすデータのみを透過させる帯域フィルタを使用して行なわれる。このしきい値は、周囲の暗騒音を計測して、さらに感度パラメータ、例えば10dBを加えた値として定義される。
【0057】
そして、聴覚モジュール20は、各ピークが調波構造を有していることを利用して音源分離を行う。具体的には、音源分離部23は、周波数の低い方から順に調波構造を有するローカルピークを抽出して、この抽出されたピークの集合を一つの音とみなす。このようにして、音源毎の音響信号が混合音からそれぞれ分離される。音源分離の際、聴覚モジュール20の音源定位部22は、符号X3で示すように、音源分離部23にて分離された各音源毎の音響信号に対して、左右のチャンネルから同じ周波数の音響信号を選択して、IPD(相互位相差)及びIID(相互強度差)を計算する。なお、この計算は、例えば5度毎に行われる。そして、音源定位部22は、計算結果をアクティブ方向通過型フィルタ23aに出力する。
【0058】
これに対して、アクティブ方向通過型フィルタ23aは、アソシエーションモジュール50にて算出されたアソシエーションストリーム59の方向θに基づいて、符号X4で示すように、IPDの理論値IPD(=Δφ′(θ))を生成すると共に、IIDの理論値IID(=Δρ′(θ))を計算する。なお、方向θは、顔定位(顔イベント39)とステレオ視覚(ステレオ視覚イベント39a)と音源定位(聴覚イベント29)とに基づいて、アソシエーションモジュール50におけるリアルタイムトラッキング(符号X3′)による算出結果である。
【0059】
ここで、理論値IPDと理論値IIDの各計算は、以下に説明する聴覚エピポーラ幾何を利用して行われ、具体的にはロボット10の正面を0度と設定し、±90度の範囲で理論値IPD及び理論値IIDが計算される。ここで、上記聴覚エピポーラ幾何は、HRTFを使用せずに音源の方向情報を得るために必要である。ステレオ視覚研究においては、エピポーラ幾何が最も一般的な定位法の一つであり、聴覚エピポーラ幾何は視覚におけるエピポーラ幾何の聴覚への応用である。そして、聴覚エピポーラ幾何が幾何学的関係を利用して方向情報を得るので、HRTFを不要にすることができるのである。
【0060】
上記聴覚エピポーラ幾何においては、音源が無限遠にあると仮定し、Δφ,θ,f,vをそれぞれIPD,音源方向,周波数,音速とし、rをロボット頭部を球形とみなした場合の半径とすると、以下の式(1)
【数1】
Figure 2004198656
により表わされる。
【0061】
他方、FFT(高速フーリエ変換)により得られた一対のスペクトルに基づいて、各サブバンドのIPDΔψ′及びIIDΔρ′を、以下の式(2),(3)により計算する。
【数2】
Figure 2004198656
【数3】
Figure 2004198656
ここで、Spl ,Spr は、それぞれある時刻に左右のマイク16a,16bから得られたスペクトルである。
【0062】
さらに、アクティブ方向通過型フィルタ23aは、符号X7で示す通過帯域関数に従って、前記ストリーム方向θS から、θS に対応するアクティブ方向通過型フィルタ23aの通過帯域δ(θS )を選択する。ここで、通過帯域関数は、図5のX7に示すように、ロボットの正面方向(θ=0度)で感度が最大となり、側方で感度が低下することから、θ=0度で最小値をとり、側方でより大きくなるような関数である。これは、正面方向で定位の感度が最大になり、左右に角度が大きくなるにつれて感度が低下するという聴覚特性を再現するためのものである。なお、正面方向で定位の感度が最大になることは、哺乳類の目の構造に見られる中心窩にならって聴覚中心窩と呼ぶ。この聴覚中心窩に関して、人間の場合には、正面の定位の感度が±2度程度であり、左右90度付近にて±8度程度とされている。
【0063】
そして、アクティブ方向通過型フィルタ23aは、選択した通過帯域δ(θS )を使用して、θL からθH の範囲にある音響信号を抽出する。尚、θL =θS −δ(θS ),θH =θS +δ(θS )と定義する。
【0064】
また、アクティブ方向通過型フィルタ23aは、符号X5で示すように、ストリーム方向θS を頭部伝達関数(HRTF)に利用して、θL 及びθH におけるIPD及びIIDの理論値IPD(=ΔφH (θS ))とIID(=ΔρH (θS ))とを、即ち抽出すべき音源の方向を推定する。そして、アクティブ方向通過型フィルタ23aは、音源方向θに対して聴覚エピポーラ幾何に基づいて各サブバンド毎に計算されたIPD(=ΔφE (θ))及びIID(=ΔρE (θ))と、HRTFに基づいて得られたIPD(=ΔφH (θ))及びIID(=ΔρH (θ))とに基づいて、符号X6で示すように、前述した通過帯域δ(θ)により決定される角度θL からθH の角度範囲で、抽出されたIPD(=ΔφE )及びIID(=ΔρE )が以下の条件を満たすようなサブバンドを集める。
【0065】
ここで、周波数 fthは、フィルタリングの判断基準としてIPDまたはIIDを採用する閾値であって、IPDによる定位が有効である周波数の上限を示す。なお、周波数 fthは、ロボット10のマイク間距離に依存し、本実施形態においては例えば1500Hz程度である。
【0066】
即ち、
【数4】
Figure 2004198656
【0067】
これは、所定周波数 fth未満の周波数で、HRTFによるIPDの通過帯域δ(θ)の範囲内にIPD(=Δφ′)が在る場合、そして所定周波数 fth以上の周波数でHRTFによるIIDの通過帯域δ(θ)の範囲内にIID(=Δρ′)が在る場合に、サブバンドを集めることを意味している。ここで、一般に低周波数帯域ではIPDが大きく影響し、高周波数帯域ではIIDが大きく影響し、その閾値である周波数 fthはマイク間距離に依存する。
【0068】
そして、アクティブ方向通過型フィルタ23aは、このようにして集めたサブバンドから音響信号を再合成して、波形を構築することにより、符号X8で示すように、パス−サブバンド方向を生成し、符号X9で示すように、各サブバンド毎にフィルタリングを行なって、符号X10で示す逆周波数変換IFFT(逆フーリエ変換)により、符号X11で示すように、該当範囲にある各音源からの分離音(音響信号)を抽出する。
【0069】
上記音声認識部27は、図5に示すように、自声抑制部27aと自動認識部27bとから構成されている。自声抑制部27aは、聴覚モジュール20にて音源定位・音源分離された各音響信号から、後述する対話部28のスピーカ28cから発せられた音声を除去して外部からの音響信号のみを取り出すものである。自動認識部27bは、図6に示すように、音声認識エンジン27cと音響モデル27dとセレクタ27eとから構成されており、この音声認識エンジン27cとしては、例えば京都大学で開発された「Jurian」という音声認識エンジンを利用することができ、これにより各話者が発話した単語を認識することができるようになっている。
【0070】
図6において、自動認識部27bは、例として男性2人(話者A,C)と女性1人(話者B)の三人の話者の認識を行なうように構成されている。このために自動認識部27bには、各話者の各方向毎にそれぞれ音響モデル27dが備えられている。図6の場合には、音響モデル27dは、3人の各話者A,B,Cに関してそれぞれ各話者が発した音声とその方向とを組み合わせて成り、複数種類、この場合9種類の音響モデル27dが備えられている。
【0071】
音声認識エンジン27cは、並列に9つの音声認識プロセスを実行し、その際に上記9つの音響モデル27dが用いられる。具体的には、音声認識エンジン27cは、それぞれ互いに並列的に入力された音響信号に対して、上記9つの音響モデル27dを用いて音声認識プロセスを実行する。そして、これらの音声認識結果がセレクタ27eに出力される。
【0072】
上記セレクタ27eは、各音響モデル27dからのすべての音声認識プロセス結果を統合して、例えば多数決により最も信頼性が高い音声認識プロセス結果を判断して、その音声認識結果を出力する。
【0073】
ここで、特定話者の音響モデル27dに対する単語認識率を具体的な実験により説明する。
先ず、3m×3mの部屋内において、3つのスピーカをロボット10から1mの位置に且つロボットから0度及び±60度の方向に置く。次に、音響モデル用の音声データとして、男性2名,女性1名が各々発話した、色,数字,食べ物のような150語の単語の音声をスピーカから出力して、ロボット10のマイク16a,16bで集音する。なお、各単語の集音に当たり、一つのスピーカのみからの音声、二つのスピーカから同時に出力される音声、そして三つのスピーカから同時出力される音声、として、各単語に対して3つのパターンを録音する。そして、録音した音声信号に対して前述したアクティブ方向通過型フィルタ23aによって音声分離して各音声データを抽出し、話者及び方向毎に整理して、音響モデルのトレーニングセットを作成する。
【0074】
そして、各音響モデル27dには、トライフォンを使用して、各トレーニングセット毎に、HTK(Hidden Marcov Model)ツールキット27fを使用して、各話者の各方向毎に計9種類の音声認識用の音声データを作成した。
【0075】
このようにして得られた音響モデル用音声データを使用して、特定話者の音響モデル27dに対する単語認識率を実験により調べたところ、図7に示す結果が得られた。図7は、横軸に方向を,縦軸に単語認識率を示すグラフであり、符号Pは本人(話者A)の音声,符号Qは他者(話者B,C)の音声の場合を示す。話者Aの音響モデルでは、話者Aがロボット10の正面に位置している場合(図7(A))には、正面(0度)にて80%以上の単語認識率となり、また話者Aが右方60度または左方−60度に位置する場合、それぞれ図7(B)又は図7(C)に示すように、話者よりも方向の違いによる認識率の低下が少なく、特に話者も方向もあっている場合には、80%以上の単語認識率となることが分かった。
【0076】
この結果を考慮して、音声認識の際に、音源方向が既知であることを利用して、セレクタ27eは、以下の式(5)により与えられるコスト関数V(pe)を統合のために使用する。
【数5】
Figure 2004198656
【0077】
ここで、r(p,d),Res(p,d)をそれぞれ話者pと方向dの音響モデルを使用した場合の単語認識率と入力音声に対する認識結果と定義し、de をリアルタイムトラッキングによる音源方向とし、さらにpe を評価対象の話者とする。
【0078】
上記Pv (pe ,de )は顔認識モジュールで生成される確率であり、顔認識ができない場合には常に1.0とする。そして、セレクタ27eは最も大きいコスト関数V(pe )を有する話者pe と認識結果Res(p,d)を出力する。その際、セレクタ27eは、顔モジュール30からの顔認識による顔イベント39を参照することにより、話者を特定することができるので、音声認識のロバスト性を向上させることができる。
【0079】
なお、コスト関数V(pe )の最大値が1.0以下または二番目に大きい値と近い場合には、音声認識が失敗または一つの候補に絞りきれなかったことにより音声認識ができないと判断して、その旨を後述する対話部28に出力する。上記対話部28は、対話制御部28aと音声合成部28bとスピーカ28cとから構成されている。上記対話制御部28aは、後述するアソシエーションモジュール60により制御されることにより、音声認識部27からの音声認識結果、即ち話者pe と認識結果Res(p,d)とに基づいて、対象とする話者に対する音声データを生成し、音声合成部28bに出力する。上記音声合成部28bは、対話制御部28aからの音声データに基づいてスピーカ28cを駆動して、音声データに対応する音声を発する。
【0080】
これにより、対話部28は音声認識部27からの音声認識結果に基づいて、例えば話者Aが好きな数字として「1」と言った場合に、ロボット10が当該話者Aに正対した状態で、当該話者Aに対して「Aさんは「1」と言いました」というように音声を発することになる。
【0081】
なお、対話部28は、音声認識部27から音声認識ができなかった旨が出力された場合には、ロボット10が当該話者Aに正対した状態で、当該話者Aに対して、「あなたは「2ですか?4ですか?」と質問して、再度話者Aの回答について音声認識を行なうようになっている。この場合、話者Aに対してロボット10が正対していることから、音声認識の精度がより一層向上することになる。
【0082】
このようにして、聴覚モジュール20は、マイク16からの音響信号に基づいて、ピッチ抽出,音源の分離及び定位から少なくとも一人の話者を特定(話者同定)してその聴覚イベントを抽出し、ネットワークを介してアソシエーションモジュール50に対して送信すると共に、各話者の音声認識を行なって対話部28により音声認識結果を話者に対して音声により確認するようになっている。
【0083】
ここで、実際には、音源方向θs が時間tの関数であることから、特定音源を抽出し続けるためには時間方向の連続性を考慮する必要があるが、上述したように、リアルタイムトラッキングからのストリーム方向θs により、音源方向を得るようにしている。
【0084】
これによって、リアルタイムトラッキングにて、すべてのイベントをストリームという時間的流れを考慮した表現で表わしているので、同時に複数の音源が存在したり、音源やロボット自身が移動する場合でも、一つのストリームに注目することによって特定音源からの方向情報を連続的に得ることができる。さらに、ストリームは視聴覚のイベントを統合するためにも使用しているので、顔イベントを参照して聴覚イベントにより音源定位を行なうことにより、音源定位の精度が向上することになる。
【0085】
上記顔モジュール30は、デバイス層としてのカメラ15と、プロセス層としての顔発見部31,顔識別部32,顔定位部33と、特徴層(データ)としての顔ID34,顔方向35と、イベント層としての顔イベント生成部36と、から構成されている。
【0086】
これにより、顔モジュール30は、カメラ15からの画像信号に基づいて、顔発見部31により例えば肌色抽出により各話者の顔を検出し、顔識別部32にて前もって登録されている顔データベース38により検索して、一致した顔があった場合、その顔ID34を決定して当該顔を識別すると共に、顔定位部33により当該顔方向35を決定(定位)する。
【0087】
ここで、顔モジュール30は、顔発見部31が画像信号から複数の顔を見つけた場合、各顔について上記処理、即ち識別及び定位そして追跡を行なう。その際、顔発見部31により検出された顔の大きさ,方向及び明るさがしばしば変化するので、顔発見部31は顔領域検出を行なって、肌色抽出と相関演算に基づくパターンマッチングの組合せによって200m秒以内に複数の顔を正確に検出できるようになっている。
【0088】
顔定位部33は、二次元の画像平面における顔位置を三次元空間に変換し、三次元空間における顔位置を、方位角θ,高さφ及び距離rのセットとして得る。そして、顔モジュール30は、各顔毎に、顔ID(名前)34及び顔方向35から、顔イベント生成部36により顔イベント39を生成して、ネットワークを介してアソシエーションモジュール50に対して送信するようになっている。
【0089】
上記顔ステレオモジュール37は、デバイス層としてのカメラ15と、プロセス層としての視差画像生成部37a,目標抽出部37bと、特徴層(データ)としての目標方向37cと、イベント層としてのステレオイベント生成部37dとから構成されている。これにより、ステレオモジュール37は、カメラ15からの画像信号に基づいて視差画像生成部37aによって双方のカメラ15の画像信号から視差画像を生成する。次いで、目標抽出部37bが、視差画像を領域分割し、その結果、縦に長い物体が発見されれば、目標抽出部37bはそれを人物候補として抽出し、その目標方向37cを決定(定位)する。ステレオイベント生成部37dは、目標方向37cに基づいてステレオイベント39aを生成し、ネットワークを介してアソシエーションモジュール50に対して送信するようになっている。
【0090】
上記モータ制御モジュール40は、デバイス層としてのモータ41及びポテンショメータ42と、プロセス層としてのPWM制御回路43,AD変換回路44及びモータ制御部45と、データである特徴層としてのロボット方向46と、イベント層としてのモータイベント生成部47とから構成されている。これにより、モータ制御モジュール40においては、モータ制御部45がアテンション制御モジュール57(後述)からの指令に基づいてPWM制御回路43を介してモータ41を駆動制御する。また、モータ41の回転位置をポテンショメータ42により検出する。この検出結果は、AD変換回路44を介してモータ制御部45に送られる。そして、モータ制御部45は、AD変換回路44から受け取った信号からロボット方向46を抽出する。モータイベント生成部47は、ロボット方向46に基づいて、モータ方向情報から成るモータイベント48を生成して、ネットワークを介してアソシエーションモジュール50に対して送信するようになっている。
【0091】
上記アソシエーションモジュール50は、上述した聴覚モジュール20,顔モジュール30,ステレオモジュール37,モータ制御モジュール40に対して、階層的に上位に位置付けられており、各モジュール20,30,37,40のイベント層の上位であるストリーム層を構成している。具体的には、アソシエーションモジュール50は、聴覚モジュール20,顔モジュール30,ステレオモジュール37及びモータ制御モジュール40からの非同期イベント51、即ち聴覚イベント29,顔イベント39,ステレオイベント39a及びモータイベント48を同期させて聴覚ストリーム53,顔ストリーム54,ステレオ視覚ストリーム55を生成する絶対座標変換部52と、各ストリーム53,54,55を関連付けてアソシエーションストリーム59を生成し、あるいはこれらストリーム53,54,55の関連付けを解除する関連付け部56と、さらにアテンション制御モジュール57と、ビューア58とを備えている。
【0092】
上記絶対座標変換部52は、聴覚モジュール20からの聴覚イベント29,顔モジュール30からの顔イベント39,ステレオモジュール37からのステレオイベント39aに、モータ制御モジュール40からのモータイベント48を同期させると共に、聴覚イベント29,顔イベント39及びステレオイベント39aに関して、同期させたモータイベントによって、その座標系を絶対座標系に変換することにより、聴覚ストリーム53,顔ストリーム54及びステレオ視覚ストリーム55を生成する。その際、上記絶対座標変換部52は、同一話者の聴覚ストリーム,顔ストリーム及びステレオ視覚ストリームに接続することによって、聴覚ストリーム53,顔ストリーム54及びステレオ視覚ストリーム55を生成する。
【0093】
また、関連付け部56は、聴覚ストリーム53,顔ストリーム54,ステレオ視覚ストリーム55に基づいて、これらのストリーム53,54,55の時間的つながりを考慮してストリームを関連付け、あるいは関連付けを解除して、アソシエーションストリーム59を生成すると共に、逆にアソシエーションストリーム59を構成する聴覚ストリーム53,顔ストリーム54及びステレオ視覚ストリーム55の結び付きが弱くなれば、関係付けを解除するようになっている。これにより、目標となる話者が移動している場合であっても、当該話者の移動を予測して、その移動範囲となる角度範囲内であれば、上述したストリーム53,54,55の生成を行なうことによって、当該話者の移動を予測して追跡できることになる。
【0094】
また、アテンション制御モジュール57は、モータ制御モジュール40の駆動モータ制御のプランニングのためのアテンション制御を行なうものであり、その際アソシエーションストリーム59,聴覚ストリーム53,顔ストリーム54そしてステレオ視覚ストリーム55の順に優先的に参照して、アテンション制御を行なう。そして、アテンション制御モジュール57は、聴覚ストリーム53,顔ストリーム54及びステレオ視覚ストリーム55の状態とアソシエーションストリーム59の存否に基づいて、ロボット10の動作プランニングを行ない、駆動モータ41の動作の必要があれば、モータ制御モジュール40に対して動作指令としてのモータイベントをネットワークを介して送信する。ここで、アテンション制御モジュール57におけるアテンション制御は、連続性とトリガに基づいており、連続性により同じ状態を保持しようとし、トリガにより最も興味のある対象を追跡しようとして、アテンションを向けるべきストリームを選択して、トラッキングを行なう。
【0095】
このようにして、アテンション制御モジュール57は、アテンション制御を行なって、モータ制御モジュール40の駆動モータ41の制御のプランニングを行ない、このプランニングに基づいて、モータコマンド64aを生成し、ネットワーク70を介してモータ制御モジュール40に伝送する。これにより、モータ制御モジュール40では、このモータコマンド64aに基づいて、モータ制御部45がPWM制御を行なって、駆動モータ41を回転駆動させて、ロボット10を所定方向に向けるようになっている。
【0096】
ビューア58は、このようにして生成された各ストリーム53,54,55,57をサーバの画面上に表示するものであり、具体的にはレーダチャート58a及びストリームチャート58bにより表示する。レーダチャート58aは、その瞬間におけるストリームの状態、より詳細にはカメラの視野角と音源方向を示し、ストリームチャート58bは、アソシエーションストリーム(太線図示)と聴覚ストリーム,顔ストリーム及びステレオ視覚ストリーム(細線図示)を示している。
【0097】
本発明実施形態による人型ロボット10は以上のように構成されており、以下のように動作する。
まず、ロボット10の前方1mの距離で、斜め左(θ=+60度),正面(θ=0度)そして斜め右(θ=−60度)の方向に、それぞれ話者が並んでおり、ロボット10が対話部28により、三人の話者に質問して、各話者が同時に質問に対する回答を行なう。
【0098】
これにより、ロボット10はマイク16が当該話者の音声を拾って、聴覚モジュール20が音源方向を伴う聴覚イベント29を生成して、ネットワークを介してアソシエーションモジュール50に伝送する。これにより、アソシエーションモジュール50は、この聴覚イベント29に基づいて、聴覚ストリーム53を生成する。
【0099】
また、顔モジュール30は、カメラ15による話者の顔の画像を取り込んで、顔イベント39を生成して、当該話者の顔を顔データベース38により検索し、顔識別を行なうと共に、その結果である顔ID24及び画像をネットワーク70を介してアソシエーションモジュール50に伝送する。なお、当該話者の顔が顔データベース38に登録されていない場合には、顔モジュール30は、その旨をネットワークを介してアソシエーションモジュール50に伝送する。
【0100】
従って、アソシエーションモジュール50は、これらの聴覚イベント29,顔イベント39,ステレオイベント39aに基づいて、アソシエーションストリーム59を生成する。
【0101】
ここで、聴覚モジュール20は、アクティブ方向通過型フィルタ23aにより、聴覚エピポーラ幾何によるIPDを利用して、各音源(話者X,Y,Z)の定位及び分離を行なって、分離音(音響信号)を取り出す。そして、聴覚モジュール20は、その音声認識部27により音声認識エンジン27cを使用して、各話者X,Y,Zの音声を認識してその結果を対話部28に出力する。これにより、対話部28は、音声認識部27により音声認識された前記回答を、それぞれの話者に対してロボット10が正対した状態で発話する。なお、音声認識部27が正しく音声認識できなかった場合には、ロボット10が当該話者に正対した状態で再度質問を繰り返し、その回答に基づいて再度音声認識を行なう。
【0102】
このようにして、本発明実施形態による人型ロボット10によれば、聴覚モジュール20により音源定位・音源分離された分離音(音響信号)に基づいて、音声認識部27が、各話者及び方向に対応する音響モデルを使用して音声認識を行なうことにより同時に発話する複数の話者の音声を音声認識することができる。
【0103】
以下に、音声認識部27の動作を実験により評価する。
これらの実験においては、図8に示すように、ロボット10の前方1mの距離で、斜め左(θ=+60度),正面(θ=0度)そして斜め右(θ=−60度)の方向に、それぞれ話者X,Y,Zが並んでいる。なお、実験では、話者として人間の代わりにそれぞれスピーカを置くと共に、その前面に話者の写真を配置している。ここで、スピーカは、音響モデルを作成したときと同じスピーカを使用しており、スピーカから発せられた音声を写真の話者の音声とみなしている。
【0104】
そして、以下のシナリオに基づいて音声認識の実験を行なう。
1.ロボット10が三人の話者X,Y,Zに質問する。
2.三人の話者X,Y,Zが同時に質問に対する回答を行なう。
3.ロボット10が三人の話者X,Y,Zの混合音声に基づいて、音源定位・音源分離を行ない、さらに各分離音について音声認識を行なう。
4.ロボット10が、順次に各話者X,Y,Zに正対した状態で当該話者の回答を答える。
5.ロボット10は、音声認識が正しくできなかったと判断したとき、当該話者に正対して再度質問を繰り返し、その回答に基づいて再度音声認識を行なう。
【0105】
上記シナリオによる実験結果の第一の例を図9に示す。
1.ロボット10が「好きな数字は何ですか?」と質問する。(図9(a)参照)
2.各話者X,Y,Zとしてのスピーカから、同時に1から10までの数字のうちから、任意の数字を読み上げた音声を流す。例えば図9(b)に示すように、話者Xは「2」,話者Yは「1」そして話者Zは「3」と言う。
3.ロボット10は、聴覚モジュール20にて、そのマイク16で集音した音響信号に基づいて、アクティブ方向通過型フィルタ23aにより音源定位・音源分離を行なって、分離音を抽出する。そして、各話者X,Y,Zに対応する分離音に基づいて、各話者別に音声認識部27が9つの音響モデルを使用して、同時に音声認識プロセスを実行し、その音声認識を行なう。
4.その際、音声認識部27のセレクタ27eが、正面が話者Yであると仮定して音声認識の評価を行ない(図9(c))、続いて正面が話者Xであると仮定して音声認識の評価を行ない(図9(d))、最後に正面が話者Zであると仮定して音声認識の評価を行なう(図9(e))。
5.そして、セレクタ27eが、音声認識結果を統合して、図9(f)に示すように、ロボット正面(θ=0度)に関して、最も適合の良い話者名(Y)と音声認識結果(「1」)を決定し対話部28に出力する。これにより、図9(g)に示すように、ロボット10が話者Yに正対した状態にて、「Yさんは「1」です。」と答える。
6.続いて、斜め左(θ=+60度)の方向に関して、上記と同様の処理を行って、図9(h)に示すように、ロボット10が話者Xに正対した状態にて、「Xさんは「2」です。」と答える。更に、斜め右(θ=−60度)の方向に対しても同様の処理を行って、図9(i)に示すように、ロボット10が話者Zに正対した状態にて、「Zさんは「3」です。」と答える。
【0106】
この場合、ロボット10は、各話者X,Y,Zの回答をすべて正しく音声認識することができた。従って、同時発話の場合であっても、ロボット10のマイク16を使用したロボット視聴覚システム17における音源定位・音源分離・音声認識の有効性が示された。
【0107】
なお、図9(j)に示すように、ロボット10が各話者に正対せずに、「Yさんは「1」です。Xさんは「2」です。Zさんは「3」です。合計「6」です。」というように、各話者X,Y,Zの答えた数字の合計も答えるようにしてもよい。
【0108】
図10は、上述したシナリオによる実験結果の第二の例を示している。
1.図9に示した第一の例と同様にして、ロボット10が「好きな数字は何ですか?」と質問し(図10(a)参照)、各話者X,Y,Zとしてのスピーカから、図10(b)に示すように、話者Xは「2」,話者Yは「1」そして話者Zは「3」という音声が流れる。
2.ロボット10は、同様にして、聴覚モジュール20にて、そのマイク16で集音した音響信号に基づいて、アクティブ方向通過型フィルタ23aにより音源定位・音源分離を行なって分離音を抽出し、各話者X,Y,Zに対応する分離音に基づいて、各話者別に音声認識部27が9つの音響モデルを使用して、同時に音声認識プロセスを実行し、その音声認識を行なう。その際、音声認識部27のセレクタ27eは、図10(c)に示すように、正面の話者Yについては、正しく音声認識の評価を行なうことができる。
3.これに対して、+60度に位置する話者Xについて、セレクタ27eは、図10(d)に示すように、「2」であるか「4」であるか決定することができない。
4.従って、ロボット10は、図10(e)に示すように、+60度に位置する話者Xに正対して、「2ですか? 4ですか?」と質問する。
5.これに対して、図10(f)に示すように、話者Xであるスピーカから「2」という回答が流れる。この場合、話者Xは、ロボット10の正面に位置していることから、聴覚モジュール20が話者Xの回答について正しく音源定位・音源分離し、音声認識部27が正しく音声認識して、話者名Xと音声認識結果「2」を対話部28に出力する。これにより、ロボット10は、図10(g)に示すように、話者Xに対して「Xさんは「2」です。」と答える。
6.続いて、話者Zについても同様の処理を行なって、その音声認識結果を話者Zに対して答える。即ち、図10(h)に示すように、ロボット10が話者Zに正対した状態にて、「Zさんは「3」です。」と答える。
【0109】
このようにして、ロボット10は、再質問により、各話者X,Y,Zの回答をすべて正しく音声認識することができた。従って、側方での聴覚中心窩の影響による分離精度の低下による音声認識の曖昧さを、ロボット10が側方の話者に対して正対して再質問することにより解消して、音源分離精度を向上させ、音声認識精度を向上させることができることが示された。
【0110】
なお、図10(i)に示すように、ロボット10が各話者の音声認識を正しく行なった後、「Yさんは「1」です。Xさんは「2」です。Zさんは「3」です。合計「6」です。」というように、各話者X,Y,Zの答えた数字の合計も答えるようにしてもよい。
【0111】
図11は、上述したシナリオによる実験結果の第三の例を示している。
1.この場合も図9に示した第一の例と同様にして、ロボット10が「好きな数字は何ですか?」と質問し(図10(a)参照)、各話者X,Y,Zとしてのスピーカから、図10(b)に示すように、話者Xは「8」,話者Yは「7」そして話者Zは「9」という音声が流れる。
2.ロボット10は、同様にして、聴覚モジュール20にて、そのマイク16で集音した音響信号に基づいて、リアルタイムトラッキング(X3′参照)によるストリーム方向θ、そして各話者の顔イベントを参照して、アクティブ方向通過型フィルタ23aにより音源定位・音源分離を行なって分離音を抽出し、各話者X,Y,Zに対応する分離音に基づいて、各話者毎に音声認識部27が9つの音響モデルを使用して、同時に音声認識プロセスを実行し、その音声認識を行なう。
その際、音声認識部27のセレクタ27eは、正面の話者Yについては、顔イベントに基づいて話者Yである確率が高いことから、各音響モデルによる音声認識結果の統合の際に、図10(c)に示すようにこれを考慮する。これにより、より正確な音声認識を行なうことができる。従って、ロボット10は、図11(d)に示すように、話者Xに対して「Xさんは「7」です。」と答える。
3.これに対して、+60度に位置する話者Xについて、ロボット10が向きを変えて正対すると、このときの正面の話者Xについて、顔イベントに基づいて話者Xである確率が高いので、同様にして、セレクタ27eは、図11(e)に示すようにこれを考慮する。従って、ロボット10は、図11(f)に示すように、話者Xに対して「Yさんは「8」です。」と答える。
4.続いて、セレクタ27eは、図11(g)に示すように、話者Zについても同様の処理を行なって、その音声認識結果を話者Zに対して答える。即ち、図11(h)に示すように、ロボット10が話者Zに正対した状態にて「Zさんは「9」です。」と答える。
【0112】
このようにして、ロボット10は、各話者毎に正対して、その顔イベントを参照しながら話者の顔認識に基づいて、各話者X,Y,Zの回答をすべて正しく音声認識することができた。これにより、顔認識により話者が誰であるかを特定することができるので、より精度の高い音声認識を行なうことができることが示された。特に、特定の環境での利用を前提とするような場合、顔認識によってほぼ100%に近い顔認識精度が得られると、顔認識情報を信頼性の高い情報として利用することができることになり、音声認識部27の音声認識エンジン27cで使用される音響モデル27dの数を削減することができるので、より高速で且つ高精度の音声認識が可能になる。
【0113】
図12は、上述したシナリオによる実験結果の第四の例を示している。
1.ロボット10が「好きなフルーツは何ですか?」と質問し(図12(a)参照)、各話者X,Y,Zとしてのスピーカから、例えば図12(b)に示すように、話者Xは「梨」,話者Yは「スイカ」そして話者Zは「メロン」と言う。
2.ロボット10は、聴覚モジュール20にて、そのマイク16で集音した音響信号に基づいて、アクティブ方向通過型フィルタ23aにより音源定位・音源分離を行なって分離音を抽出する。そして、各話者X,Y,Zに対応する分離音に基づいて、各話者毎に音声認識部27が9つの音響モデルを使用して、同時に音声認識プロセスを実行し、その音声認識を行なう。
3.その際、音声認識部27のセレクタ27eが、正面が話者Yであると仮定して音声認識の評価を行ない(図12(c))、続いて正面が話者Xであると仮定して音声認識の評価を行ない(図12(d))、最後に正面が話者Zであると仮定して音声認識の評価を行なう(図12(e))。
4.そして、セレクタ27eが、音声認識結果を統合して、図12(f)に示すように、ロボット正面(θ=0度)方向に関して最も適合の良い話者名(Y)と音声認識結果(「スイカ」)を決定し対話部28に出力する。これにより、図9(g)に示すように、ロボット10が話者Yに正対した状態にて、「Yさんは「スイカ」です。」と答える。
5.続いて、各話者X,Zについても同様の処理を行なって、その音声認識結果を各話者X,Zに対して答える。即ち、図12(h)に示すように、ロボット10が話者Xに正対した状態にて、「Xさんは「梨」です。」と答え、さらに図12(i)に示すように、ロボット10が話者Zに正対した状態にて「Zさんは「メロン」です。」と答える。
【0114】
この場合、ロボット10は、各話者X,Y,Zの回答をすべて正しく音声認識することができた。従って、音声認識エンジン27cに登録された単語は数字に限ることなく、前もって登録された単語であれば、音声認識可能であることが分かる。ここで、実験に使用した音声認識エンジン27cでは、約150語の単語が登録されている。なお、単語の音節数が多くなると、音声認識率はやや低くなる。
【0115】
上述した実施形態においては、ロボット10は、その上半身が4DOF(自由度)を有するように構成されているが、これに限らず、任意の動作を行なうように構成されたロボットに本発明によるロボット視聴覚システムを組み込むことも可能である。
【0116】
また、上述した実施形態においては、本発明によるロボット視聴覚システムを人型ロボット10に組み込んだ場合について説明したが、これに限らず、犬型等の各種動物型ロボットや、その他の形式のロボットに組み込むことも可能であることは明らかである。
【0117】
また、上記説明では、図4に示すようにロボット視聴覚システム17がステレオモジュール37を備える構成例を説明したが、本発明の実施形態に係るロボット視聴覚システムは、ステレオモジュール37を備えずに構成することもできる。この場合、アソシエーションモジュール50は、聴覚イベント29,顔イベント39及びモータイベント48に基づいて、各話者の聴覚ストリーム53及び顔ストリーム54を生成し、さらにこれらの聴覚ストリーム53及び顔ストリーム54を関連付けてアソシエーションストリーム59を生成するように構成され、アテンション制御モジュール50においては、これらのストリームに基づいてアテンション制御が行われるように構成される。
【0118】
さらに、上記説明においては、アクティブ方向通過型フィルタ23aは、方向毎に通過帯域幅(パスレンジ)を制御しており、処理する音の周波数によらず通過帯域幅を一定としていた。
ここで、通過帯域δを導出するために、100Hz,200Hz,500Hz,1000Hz,2000Hz,100Hzの調波構造音(ハーモニクス)の5つの純音と1つのハーモニクスとを用いて、1音源に対する音源抽出率を調べる実験を行った。なお、音源をロボット正面である0度からロボットの左位置或いは右位置である90度の範囲で10度毎に位置を移動させた。図13〜図15は音源を0度から90度の範囲の各位置に設置した場合の音源抽出率を示すグラフであり、この実験結果が示すように、周波数に応じて通過帯域幅を制御することにより、特定の周波数の音の抽出率を向上させることができ、分離精度を向上できる。よって、音声認識率も向上する。従って、上記説明したロボット視聴覚システム17においては、アクティブ方向通過型フィルタ23aのパスレンジが、周波数毎に制御可能に構成されるのが望ましい。
【0119】
【発明の効果】
以上述べたように、この発明によれば、従来の音声認識と比較して、複数の音響モデルを使用することによって、実時間・実環境での正確な音声認識を行なうことが可能である。また、各音響モデルによる音声認識結果をセレクタにより統合して、最も信頼性の高い音声認識結果を判断することにより、従来の音声認識に比べて、より一層正確な音声認識を行なうことができる。
【図面の簡単な説明】
【図1】この発明によるロボット聴覚装置の第一の実施形態を組み込んだ人型ロボットの外観を示す正面図である。
【図2】図1の人型ロボットの側面図である。
【図3】図1の人型ロボットにおける頭部の構成を示す概略拡大図である。
【図4】図1の人型ロボットにおけるロボット視聴覚システムの電気的構成例を示すブロック図である。
【図5】図4に示すロボット視聴覚システムにおける聴覚モジュールの作用を示す図である。
【図6】図4のロボット視聴覚システムにおける聴覚モジュールの音声認識部で使用される音声認識エンジンの構成例を示す概略斜視図である。
【図7】図6の音声認識エンジンによる正面及び左右±60度の方向の話者による音声の認識率を示すグラフであり、(A)は正面の話者、(B)は斜め左+60度の話者そして(C)は斜め右−60度の話者の場合を示している。
【図8】図4に示すロボット視聴覚システムにおける音声認識実験を示す概略斜視図である。
【図9】図4のロボット視聴覚システムの音声認識実験の第一の例の結果を順次に示す図である。
【図10】図4のロボット視聴覚システムの音声認識実験の第二の例の結果を順次に示す図である。
【図11】図4のロボット視聴覚システムの音声認識実験の第三の例の結果を順次に示す図である。
【図12】図4のロボット視聴覚システムの音声認識実験の第四の例の結果を順次に示す図である。
【図13】本発明の実施形態に係るアクティブ方向通過型フィルタの通過帯域幅を制御した場合の抽出率を示す図であり、(a)は0度、(b)は10度、(c)は20度、(d)は30度の方向に音源がある場合である。
【図14】本発明の実施形態に係るアクティブ方向通過型フィルタの通過帯域幅を制御した場合の抽出率を示す図であり、(a)は40度、(b)は50度、(c)は60度の方向に音源がある場合である。
【図15】本発明の実施形態に係るアクティブ方向通過型フィルタの通過帯域幅を制御した場合の抽出率を示す図であり、(a)は70度、(b)は80度、(c)は90度の方向に音源がある場合である。
【符号の説明】
10 人型ロボット
11 ベース
12 胴体部
13 頭部
14 外装
15 カメラ(ロボット視覚)
16,16a,16b マイク(ロボット聴覚)
17 ロボット視聴覚システム
20 聴覚モジュール
21 ピーク抽出部
22 音源定位部
23 音源分離部
23a アクティブ方向通過型フィルタ
26 聴覚イベント生成部
27 音声認識部
27a 自声抑制部
27b 自動認識部
27c 音声認識エンジン
27d 音響モデル
27e セレクタ
28 対話部
30 顔モジュール
37 ステレオモジュール
40 モータ制御モジュール
50 アソシエーションモジュール
57 アテンション制御モジュール

Claims (9)

  1. 各話者が発した単語とその方向とを組み合わせて成る複数の音響モデルと、これらの音響モデルを使用して、音源分離された音響信号に対して音声認識プロセスを実行する音声認識エンジンと、前記音声認識プロセスによって前記音響モデル別に得られた複数の音声認識プロセス結果を統合し、何れかの音声認識プロセス結果を選択するセレクタと、を備え、
    各話者が同時に発話した単語を各々認識することを特徴とする、ロボット視聴覚システム。
  2. 前記セレクタが、多数決により前記音声認識プロセス結果を選択するように構成されていることを特徴とする、請求項1に記載のロボット視聴覚システム。
  3. 前記セレクタにて選択された音声認識プロセス結果を外部に出力する対話部を備えていることを特徴とする、請求項1又は2に記載のロボット視聴覚システム。
  4. 外部の音を集音する少なくとも一対のマイクを備えており、このマイクからの音響信号に基づいて、ピッチ抽出,調波構造に基づいたグルーピングによる音源の分離及び定位によって少なくとも一人の話者の方向を決定し、その聴覚イベントを抽出する聴覚モジュールと、
    ロボットの前方を撮像するカメラを備えており、このカメラにより撮像された画像に基づいて各話者の顔識別と定位とから、各話者を同定してその顔イベントを抽出する顔モジュールと、
    ロボットを水平方向に回動させる駆動モータを備えこの駆動モータの回転位置に基づいてモータイベントを抽出するモータ制御モジュールと、
    上記聴覚イベント,顔イベント及びモータイベントから、聴覚イベントの音源定位及び顔イベントの顔定位の方向情報に基づいて各話者の方向を決定し、この決定に対してカルマンフィルタを用いて上記イベントを時間方向に接続することにより聴覚ストリーム及び顔ストリームを生成し、さらにこれらを関連付けてアソシエーションストリームを生成するアソシエーションモジュールと、
    これらのストリームに基づいてアテンション制御と、それに伴う行動のプランニング結果に基づいて、モータの駆動制御を行うアテンション制御モジュールと、を備え、
    上記聴覚モジュールが、
    上記アソシエーションモジュールからの正確な音源方向情報に基づいて、正面方向で最小となり且つ左右に角度が大きくなるにつれて大きくなるパスレンジを有するアクティブ方向通過型フィルタにより、所定幅の範囲内の両耳間位相差(IPD)または両耳間強度差(IID)をもったサブバンドを集めて、音源の波形を再構築することにより、音源分離を行なうと共に、
    複数の音響モデルを使用して音源分離された音響信号の音声認識を行ない、各音響モデルによる音声認識結果をセレクタにより統合して、これらの音声認識結果のうち最も信頼性の高い音声認識結果を判断するように構成されていることを特徴とする、ロボット視聴覚システム。
  5. 外部の音を集音する少なくとも一対のマイクを備えており、このマイクからの音響信号に基づいて、ピッチ抽出,調波構造に基づいたグルーピングによる音源の分離及び定位によって少なくとも一人の話者の方向を決定し、その聴覚イベントを抽出する聴覚モジュールと、
    ロボットの前方を撮像するカメラを備えており、このカメラにより撮像された画像に基づいて各話者の顔識別と定位とから、各話者を同定してその顔イベントを抽出する顔モジュールと、
    ステレオカメラにより撮像された画像から抽出された視差に基づいて縦に長い物体を抽出定位して、ステレオイベントを抽出するステレオモジュールと、
    ロボットを水平方向に回動させる駆動モータを備えこの駆動モータの回転位置に基づいてモータイベントを抽出するモータ制御モジュールと、
    上記聴覚イベント,顔イベント,ステレオイベント及びモータイベントから、聴覚イベントの音源定位及び顔イベントの顔定位の方向情報に基づいて各話者の方向を決定し、この決定に対してカルマンフィルタを用いて上記イベントを時間方向に接続することにより聴覚ストリーム,顔ストリーム及びステレオ視覚ストリームを生成し、さらにこれらを関連付けてアソシエーションストリームを生成するアソシエーションモジュールと、
    これらのストリームに基づいてアテンション制御と、それに伴う行動のプランニング結果に基づいて、モータの駆動制御を行うアテンション制御モジュールと、を備え、
    上記聴覚モジュールが、
    上記アソシエーションモジュールからの正確な音源方向情報に基づいて、正面方向で最小となり且つ左右に角度が大きくなるにつれて大きくなるパスレンジを有するアクティブ方向通過型フィルタにより、所定幅の範囲内の両耳間位相差(IPD)または両耳間強度差(IID)をもったサブバンドを集めて、音源の波形を再構築することにより音源分離を行なうと共に、
    複数の音響モデルを使用して音源分離された音響信号の音声認識を行ない、各音響モデルによる音声認識結果をセレクタにより統合して、これらの音声認識結果のうち最も信頼性の高い音声認識結果を判断するように構成されていることを特徴とする、ロボット視聴覚システム。
  6. 前記聴覚モジュールによる音声認識ができなかったときに、前記アテンション制御モジュールが、当該音響信号の音源の方向に前記マイク及び前記カメラを向けて前記マイクから再び音声を集音させ、この音に対して前記聴覚モジュールにより音源定位・分離された音響信号に基づいて再度聴覚モジュールによる音声認識を行なうように構成されていることを特徴とする、請求項4又は5に記載のロボット視聴覚システム。
  7. 前記聴覚モジュールが、音声認識を行なう際に、顔モジュールによる顔イベント又は/及びステレオモジュールによるステレオイベントを参照することを特徴とする、請求項5又は6に記載のロボット視聴覚システム。
  8. 前記聴覚モジュールにて判断された音声認識結果を外部に出力する対話部を備えていることを特徴とする、請求項4〜7の何れかに記載のロボット視聴覚システム。
  9. 前記アクティブ方向通過型フィルタのパスレンジが、周波数毎に制御可能であることを特徴とする、請求項4〜8の何れかに記載のロボット視聴覚システム。
JP2002365764A 2002-12-17 2002-12-17 ロボット視聴覚システム Expired - Lifetime JP3632099B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002365764A JP3632099B2 (ja) 2002-12-17 2002-12-17 ロボット視聴覚システム
US10/539,047 US20090030552A1 (en) 2002-12-17 2003-02-12 Robotics visual and auditory system
TW092103187A TWI222622B (en) 2002-12-17 2003-02-17 Robotic vision-audition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002365764A JP3632099B2 (ja) 2002-12-17 2002-12-17 ロボット視聴覚システム

Publications (2)

Publication Number Publication Date
JP2004198656A true JP2004198656A (ja) 2004-07-15
JP3632099B2 JP3632099B2 (ja) 2005-03-23

Family

ID=32763223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002365764A Expired - Lifetime JP3632099B2 (ja) 2002-12-17 2002-12-17 ロボット視聴覚システム

Country Status (2)

Country Link
JP (1) JP3632099B2 (ja)
TW (1) TWI222622B (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264328A (ja) * 2006-03-28 2007-10-11 Matsushita Electric Works Ltd 浴室装置及びそれに用いる音声操作装置
WO2007129731A1 (ja) * 2006-05-10 2007-11-15 Honda Motor Co., Ltd. 音源追跡システム、方法、およびロボット
JP2009020352A (ja) * 2007-07-12 2009-01-29 Yamaha Corp 音声処理装置およびプログラム
JP2011015357A (ja) * 2009-07-06 2011-01-20 Canon Inc 情報処理装置及び情報処理方法
JP2011527030A (ja) * 2008-07-02 2011-10-20 グーグル・インコーポレーテッド 並列認識タスクを用いた音声認識
JP2012088390A (ja) * 2010-10-15 2012-05-10 Honda Motor Co Ltd 音声認識装置及び音声認識方法
JP2013536090A (ja) * 2010-07-02 2013-09-19 アルデバラン ロボティクス ヒューマノイドゲーム実行ロボット、ならびに前記ロボットを使用するための方法およびシステム
KR101394168B1 (ko) 2013-02-20 2014-05-15 경희대학교 산학협력단 청각 장애인을 위한 얼굴 정보 제공 시스템 및 얼굴 정보 제공 서비스 방법
CN108664889A (zh) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 对象物检测装置、对象物检测方法以及记录介质
CN108831474A (zh) * 2018-05-04 2018-11-16 广东美的制冷设备有限公司 语音识别设备及其语音信号捕获方法、装置和存储介质
CN110164446A (zh) * 2018-06-28 2019-08-23 腾讯科技(深圳)有限公司 语音信号识别方法和装置、计算机设备和电子设备
US10464215B2 (en) 2016-10-04 2019-11-05 Toyota Jidosha Kabushiki Kaisha Voice interaction device and control method therefor
US10464214B2 (en) 2016-10-04 2019-11-05 Toyota Jidosha Kabushiki Kaisha Voice interaction device and control method therefor
CN114683260A (zh) * 2020-12-29 2022-07-01 大连理工江苏研究院有限公司 一种视听交互智能机器人及控制系统

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108198569B (zh) * 2017-12-28 2021-07-16 北京搜狗科技发展有限公司 一种音频处理方法、装置、设备及可读存储介质
CN110509292A (zh) * 2019-09-05 2019-11-29 南京法法法信息科技有限公司 一种公共场所用移动式普法机器人
CN115662437B (zh) * 2022-12-28 2023-04-18 广东保伦电子股份有限公司 一种多话筒同时使用场景下的语音转写方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264328A (ja) * 2006-03-28 2007-10-11 Matsushita Electric Works Ltd 浴室装置及びそれに用いる音声操作装置
WO2007129731A1 (ja) * 2006-05-10 2007-11-15 Honda Motor Co., Ltd. 音源追跡システム、方法、およびロボット
US8155331B2 (en) 2006-05-10 2012-04-10 Honda Motor Co., Ltd. Sound source tracking system, method and robot
JP5170440B2 (ja) * 2006-05-10 2013-03-27 本田技研工業株式会社 音源追跡システム、方法、およびロボット
JP2009020352A (ja) * 2007-07-12 2009-01-29 Yamaha Corp 音声処理装置およびプログラム
JP2011527030A (ja) * 2008-07-02 2011-10-20 グーグル・インコーポレーテッド 並列認識タスクを用いた音声認識
JP2013238885A (ja) * 2008-07-02 2013-11-28 Google Inc 並列認識タスクを用いた音声認識
JP2017076139A (ja) * 2008-07-02 2017-04-20 グーグル インコーポレイテッド 並列認識タスクを用いた音声認識
JP2011015357A (ja) * 2009-07-06 2011-01-20 Canon Inc 情報処理装置及び情報処理方法
US9950421B2 (en) 2010-07-02 2018-04-24 Softbank Robotics Europe Humanoid game-playing robot, method and system for using said robot
JP2013536090A (ja) * 2010-07-02 2013-09-19 アルデバラン ロボティクス ヒューマノイドゲーム実行ロボット、ならびに前記ロボットを使用するための方法およびシステム
JP2012088390A (ja) * 2010-10-15 2012-05-10 Honda Motor Co Ltd 音声認識装置及び音声認識方法
KR101394168B1 (ko) 2013-02-20 2014-05-15 경희대학교 산학협력단 청각 장애인을 위한 얼굴 정보 제공 시스템 및 얼굴 정보 제공 서비스 방법
US10464215B2 (en) 2016-10-04 2019-11-05 Toyota Jidosha Kabushiki Kaisha Voice interaction device and control method therefor
US10464214B2 (en) 2016-10-04 2019-11-05 Toyota Jidosha Kabushiki Kaisha Voice interaction device and control method therefor
CN108664889A (zh) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 对象物检测装置、对象物检测方法以及记录介质
US10713513B2 (en) 2017-03-28 2020-07-14 Casio Computer Co., Ltd. Object detection device, object detection method, and recording medium
CN108831474A (zh) * 2018-05-04 2018-11-16 广东美的制冷设备有限公司 语音识别设备及其语音信号捕获方法、装置和存储介质
CN110164446A (zh) * 2018-06-28 2019-08-23 腾讯科技(深圳)有限公司 语音信号识别方法和装置、计算机设备和电子设备
CN110164446B (zh) * 2018-06-28 2023-06-30 腾讯科技(深圳)有限公司 语音信号识别方法和装置、计算机设备和电子设备
CN114683260A (zh) * 2020-12-29 2022-07-01 大连理工江苏研究院有限公司 一种视听交互智能机器人及控制系统

Also Published As

Publication number Publication date
JP3632099B2 (ja) 2005-03-23
TW200411627A (en) 2004-07-01
TWI222622B (en) 2004-10-21

Similar Documents

Publication Publication Date Title
US20220159403A1 (en) System and method for assisting selective hearing
US20090030552A1 (en) Robotics visual and auditory system
JP3632099B2 (ja) ロボット視聴覚システム
US6967455B2 (en) Robot audiovisual system
Nakadai et al. Real-time auditory and visual multiple-object tracking for humanoids
JP3627058B2 (ja) ロボット視聴覚システム
JP6464449B2 (ja) 音源分離装置、及び音源分離方法
Okuno et al. Human-robot interaction through real-time auditory and visual multiple-talker tracking
Nakadai et al. Active audition for humanoid
JP3780516B2 (ja) ロボット聴覚装置及びロボット聴覚システム
Okuno et al. Social interaction of humanoid robot based on audio-visual tracking
Nakadai et al. Improvement of recognition of simultaneous speech signals using av integration and scattering theory for humanoid robots
CN111833899B (zh) 一种基于多音区的语音检测方法、相关装置及存储介质
US20120120218A1 (en) Semi-private communication in open environments
Nakadai et al. Real-time speaker localization and speech separation by audio-visual integration
US20230164509A1 (en) System and method for headphone equalization and room adjustment for binaural playback in augmented reality
JP3843740B2 (ja) ロボット視聴覚システム
JP3843743B2 (ja) ロボット視聴覚システム
JP3843741B2 (ja) ロボット視聴覚システム
Okuno et al. Robot audition: Missing feature theory approach and active audition
JP3843742B2 (ja) ロボット視聴覚システム
Okuno et al. Human–robot non-verbal interaction empowered by real-time auditory and visual multiple-talker tracking
Okuno et al. Realizing audio-visually triggered ELIZA-like non-verbal behaviors
CN110730378A (zh) 一种信息处理方法及系统
Okuno et al. Realizing personality in audio-visually triggered non-verbal behaviors

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041203

R150 Certificate of patent or registration of utility model

Ref document number: 3632099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term