JP2003271196A - ロボット装置及びその制御方法 - Google Patents

ロボット装置及びその制御方法

Info

Publication number
JP2003271196A
JP2003271196A JP2002074905A JP2002074905A JP2003271196A JP 2003271196 A JP2003271196 A JP 2003271196A JP 2002074905 A JP2002074905 A JP 2002074905A JP 2002074905 A JP2002074905 A JP 2002074905A JP 2003271196 A JP2003271196 A JP 2003271196A
Authority
JP
Japan
Prior art keywords
microphone
sound source
audio signal
microphone group
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002074905A
Other languages
English (en)
Other versions
JP4210897B2 (ja
Inventor
Takashi Toyoda
崇 豊田
Seiichi Aoyanagi
誠一 青柳
Toshimitsu Tsuboi
利充 坪井
Kazuhiro Yamaguchi
一博 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002074905A priority Critical patent/JP4210897B2/ja
Publication of JP2003271196A publication Critical patent/JP2003271196A/ja
Application granted granted Critical
Publication of JP4210897B2 publication Critical patent/JP4210897B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】本発明は、ロボット装置に関し、音声の取得を
一段と高品質に行うことを提案する。 【解決手段】互いに近接して配置された第1のマイク群
72、73、74、75と、互いに近接しないように配
置された第2のマイク群70、71と、各マイクから入
力される音声信号に対して所定の音声認識処理を施す音
声認識手段60とを設けることにより、音源方向を一段
と正確に検出し得ると共にS/N比を向上させることが
でき、従って音声の取得を一段と高品質に行い得るロボ
ット装置を実現できる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えば2足歩行型のロボットに適用
して好適なものである。
【0002】
【従来の技術】近年、人間の外観形状を模ったヒューマ
ノイドタイプのロボットや、一般家庭でペットとして飼
育される犬や猫の外観形状を模った4脚歩行型のペット
ロボット等の各種エンターテインメントロボットが開発
され、商品化されている。
【0003】そしてこれらのエンターテインメントロボ
ットとしては、ユーザからの指令や周囲の状況などに応
じて自律的に行動し得るようになされたものや、ユーザ
操作に応動してその操作に予め対応付けられた1つの動
作を発現するようになされたものなど、種々のものが存
在している。
【0004】
【発明が解決しようとする課題】ところでエンターテイ
ンメントロボットにおいては、頭部の所定位置にマイク
が取り付けられ、当該マイクによって音源から発せられ
る音声を集音するようになされたものが開発されている
が、よりエンターテインメント性を向上させるために
は、当該音源の方向を検出することが必要となる。
【0005】この音源方向を検出する方法としては、種
々の方法が提案及び開発されているが、エンターテイン
メントロボットは多様な動作を行うことから、音源方向
検出方法としていずれか1つの方法を採用しても、多様
な動作に対応して確実に音源方向を検出することは難し
いと考えられる。
【0006】すなわち、マイクは障害物のない自由空間
に複数個配置することが望ましいが、エンターテインメ
ントロボットに音源方向検出機能を搭載する場合には、
当該エンターテインメントロボットの筐体によってマイ
クの配置位置に制限を受ける。特に当該エンターテイン
メントロボットでは、そのデザインが優先され、マイク
を障害物のない自由空間に配置することが困難である。
【0007】例えばエンターテインメントロボットにお
いては、「耳」の位置にマイクを配置することが望まし
いが、当該位置は自由空間でなく、頭部の筐体の回折の
影響を強く受けることになり、これでは音源方向を正し
く検出し得ない問題がある。
【0008】ところで、音源方向検出方法としては、音
源から発せられる音声を複数のマイクによって集音し、
音声が当該各マイクに到達した時間の時間差を検出する
ことにより音源方向を検出する方法が採用されている。
【0009】この場合、各マイク間の距離は、各マイク
における音声の到達時間差を基に音源方向を検出するこ
ととの関係上、音源から発せられる音声信号の周波数成
分の1周期に相当する1波長の1/2以下の長さである
ことが必要とされる。従って、かかる音源方向検出方法
では、マイク間距離が小さい場合には、当該マイク間距
離が大きい場合に比して、より高い周波数成分の音声信
号を取得することができる。
【0010】しかしながら、かかる音源方向検出方法で
は、マイク間距離が小さくなると、入力される音声信号
の信号レベルの差も小さくなるため、信号対雑音比(S
/N比)が劣化するという問題が生じる。
【0011】本発明は以上の点を考慮してなされたもの
で、音声の取得を一段と高品質に行い得るロボット装置
及びその制御方法を提案しようとするものである。
【0012】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、ロボット装置において、互いに近
接して配置された第1のマイク群と、互いに近接しない
ように配置された第2のマイク群と、各マイクから入力
される音声信号に対して所定の音声認識処理を施す音声
認識手段とを設けるようにした。この結果、音源方向を
一段と正確に検出し得ると共にS/N比を向上させるこ
とができる。
【0013】また本発明においては、ロボット装置の制
御方法において、互いに近接して配置された第1のマイ
ク群と、互いに近接しないように配置された第2のマイ
ク群とからそれぞれ入力される音声信号に対して所定の
音声認識処理を施すようにした。この結果、音源方向を
一段と正確に検出し得ると共にS/N比を向上させるこ
とができる。
【0014】
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
【0015】(1)本実施の形態によるロボットの構成 (1−1)ロボットの構成 図1及び図2において、1は全体として本実施の形態に
よる2足歩行型のロボットを示し、胴体部ユニット2の
上部に頭部ユニット3が配設されると共に、当該胴体部
ユニット2の上部左右にそれぞれ同じ構成の腕部ユニッ
ト4A、4Bがそれぞれ配設され、かつ胴体部ユニット
2の下部左右にそれぞれ同じ構成の脚部ユニット5A、
5Bがそれぞれ所定位置に取り付けられることにより構
成されている。
【0016】胴体部ユニット2においては、体幹上部を
形成するフレーム10及び体幹下部を形成する腰ベース
11が腰関節機構12を介して連結することにより構成
されており、体幹下部の腰ベース11に固定された腰関
節機構12の各アクチュエータA1、A2をそれぞれ駆動
することによって、体幹上部を図3に示す直交するロー
ル軸13及びピッチ軸14の回りにそれぞれ独立に回転
させることができるようになされている。
【0017】また頭部ユニット3は、フレーム10の上
端に固定された肩ベース15の上面中央部に首関節機構
16を介して取り付けられており、当該首関節機構16
の各アクチュエータA3、A4をそれぞれ駆動することに
よって、図3に示す直交するピッチ軸17及びヨー軸1
8の回りにそれぞれ独立に回転させることができるよう
になされている。
【0018】さらに各腕部ユニット4A、4Bは、それ
ぞれ肩関節機構19を介して肩ベース15の左右に取り
付けられており、対応する肩関節機構19の各アクチュ
エータA5、A6をそれぞれ駆動することによって図3に
示す直交するピッチ軸20及びロール軸21の回りにそ
れぞれ独立に回転させることができるようになされてい
る。
【0019】この場合、各腕部ユニット4A、4Bは、
それぞれ上腕部を形成するアクチュエータA7の出力軸
に肘関節機構22を介して前腕部を形成するアクチュエ
ータA8が連結され、当該前腕部の先端に手部23が取
り付けられることにより構成されている。
【0020】そして各腕部ユニット4A、4Bでは、ア
クチュエータA7を駆動することによって前腕部を図3
に示すヨー軸24の回りに回転させ、アクチュエータA
8を駆動することによって前腕部を図3に示すピッチ軸
25の回りにそれぞれ回転させることができるようにな
されている。
【0021】これに対して各脚部ユニット5A、5Bに
おいては、それぞれ股関節機構26を介して体幹下部の
腰ベース11にそれぞれ取り付けられており、それぞれ
対応する股関節機構26の各アクチュエータをA9〜A
11それぞれ駆動することによって、図3に示す互いに
直交するヨー軸27、ロール軸28及びピッチ軸29の
回りにそれぞれ独立に回転させることができるようにな
されている。
【0022】この場合各脚部ユニット5A、5Bは、そ
れぞれ大腿部を形成するフレーム30の下端に膝関節機
構31を介して下腿部を形成するフレーム32が連結さ
れると共に、当該フレーム32の下端に足首関節機構3
3を介して足部34が連結されることにより構成されて
いる。
【0023】これにより各脚部ユニット5A、5Bにお
いては、膝関節機構31を形成するアクチュエータA1
2を駆動することによって、下腿部を図3に示すピッチ
軸35の回りに回転させることができ、また足首関節機
構33のアクチュエータA13、A14をそれぞれ駆動
することによって、足部34を図3に示す直交するピッ
チ軸36及びロール軸37の回りにそれぞれ独立に回転
させることができるようになされている
【0024】一方、胴体部ユニット2の体幹下部を形成
する腰ベース11の背面側には、図4に示すように、当
該ロボット1全体の動作制御を司るメイン制御部40
と、電源回路及び通信回路などの周辺回路41と、バッ
テリ45(図5)となどがボックスに収納されてなる制
御ユニット42が配設されている。
【0025】そしてこの制御ユニット42は、各構成ユ
ニット(胴体部ユニット2、頭部ユニット3、各腕部ユ
ニット4A、4B及び各脚部ユニット5A、5B)内に
それぞれ配設された各サブ制御部43A〜43Dと接続
されており、これらサブ制御部43A〜43Dに対して
必要な電源電圧を供給したり、これらサブ制御部43A
〜43Dと通信を行なったりすることができるようにな
されている。
【0026】また各サブ制御部43A〜43Dは、それ
ぞれ対応する構成ユニット内の各アクチュエータA1〜
A14と接続されており、当該構成ユニット内の各アクチ
ュエータA1〜A14をメイン制御部40から与えられる
各種制御コマンドに基づいて指定された状態に駆動し得
るようになされている。
【0027】さらに頭部ユニット3には、図5に示すよ
うに、このロボット1の「目」として機能するCCD
(Charge Coupled Device )カメラ50、「耳」とし
て機能するマイク部51及びタッチセンサ52などから
なる外部センサ部53と、「口」として機能するスピー
カ54となどがそれぞれ所定位置に配設され、制御ユニ
ット42内には、バッテリセンサ55及び加速度センサ
56などからなる内部センサ部57が配設されている。
【0028】そして外部センサ部53のCCDカメラ5
0は、周囲の状況を撮像し、得られた画像信号S1Aを
メイン制御部に送出する一方、マイク部51は、ユーザ
から音声入力として与えられる「歩け」、「伏せ」又は
「ボールを追いかけろ」等の各種命令音声を集音し、か
くして得られた音声信号S1Bをメイン制御部40に送
出するようになされている。
【0029】またタッチセンサ52は、図1及び図2に
おいて明らかなように頭部ユニット3の上部に設けられ
ており、ユーザからの「撫でる」や「叩く」といった物
理的な働きかけにより受けた圧力を検出し、検出結果を
圧力検出信号S1Cとしてメイン制御部40に送出す
る。
【0030】さらに内部センサ部57のバッテリセンサ
55は、バッテリ45のエネルギ残量を所定周期で検出
し、検出結果をバッテリ残量検出信号S2Aとしてメイ
ン制御部40に送出する一方、加速度センサ56は、3
軸方向(x軸、y軸及びz軸)の加速度を所定周期で検
出し、検出結果を加速度検出信号S2Bとしてメイン制
御部40に送出する。
【0031】メイン制御部部40は、外部センサ部53
のCCDカメラ50、マイク部51及びタッチセンサ5
2等からそれぞれ供給される画像信号S1A、音声信号
S1B及び圧力検出信号S1C等(以下、これらをまと
めて外部センサ信号S1と呼ぶ)と、内部センサ部57
のバッテリセンサ55及び加速度センサ等からそれぞれ
供給されるバッテリ残量検出信号S2A及び加速度検出
信号S2B等(以下、これらをまとめて内部センサ信号
S2と呼ぶ)に基づいて、ロボット1の周囲及び内部の
状況や、ユーザからの指令、ユーザからの働きかけの有
無などを判断する。
【0032】そしてメイン制御部40は、この判断結果
と、予め内部メモリ40Aに格納されている制御プログ
ラムと、そのとき装填されている外部メモリ58に格納
されている各種制御パラメータとに基づいて続く行動を
決定し、決定結果に基づく制御コマンダを対応するサブ
制御部43A〜43Dに送出する。この結果、この制御
コマンダに基づき、そのサブ制御部43A〜43Dの制
御のもとに、対応するアクチュエータA1〜A14が駆動
され、かくして頭部ユニット3を上下左右に揺動させた
り、腕部ユニット4A、4Bを上にあげたり、歩行する
などの行動がロボットにより発現されることとなる。
【0033】またこの際メイン制御部40は、必要に応
じて所定の音声信号S3をスピーカ54に与えることに
より当該音声信号S3に基づく音声を外部に出力させた
り、外見上の「目」として機能する頭部ユニット3の所
定位置に設けられたLEDに駆動信号を出力することに
よりこれを点滅させる。
【0034】このようにしてこのロボット1において
は、周囲及び内部の状況や、ユーザからの指令及び働き
かけの有無などに基づいて自律的に行動することができ
るようになされている。
【0035】(1−2)メイン制御部の処理 ここでこのようなロボット1の行動生成に関するメイン
制御部40の処理について説明する。
【0036】図6に示すように、ロボット1の行動生成
に関するメイン制御部40の処理内容を機能的に分類す
ると、外部及び内部の状態を認識する状態認識部60
と、状態認識部60の認識結果等に基づいて感情及び本
能の状態を決定する感情・本能モデル61と、状態認識
部60の認識結果及び感情・本能モデル61において決
定された感情・本能の状態に基づいて次の行動を決定す
る行動決定部62と、行動決定部62の決定結果に基づ
いて実際にロボット1に行動を発現させる行動生成部6
3とに分けることができる。以下、これら状態認識部6
0、感情・本能モデル部61、行動決定部62及び行動
生成部63について説明する。
【0037】(1−2−1)状態認識部60の処理 状態認識部60は、外部センサ部53から与えられる外
部センサ信号S1及び内部センサ部57から与えられる
内部センサ信号S2に基づいて特定の状態を認識し、認
識結果を状態認識情報D1として感情・本能モデル61
及び行動決定部62に通知する。
【0038】具体的に情報認識部60は、外部センサ部
53のCCDカメラ50から与えられる画像信号S1A
を常時監視し、当該画像信号S1Aに基づく画像内に例
えば「赤い丸いもの」や「進行方向に位置する物体」を
検出したときには「ボールがある」、「障害物がある」
と認識して、当該認識結果を感情・本能モデル61及び
行動決定部62に通知する。
【0039】また状態認識部60は、マイク部51から
与えられる音声信号S1Bを常時監視し、HMM(Hidd
en Markov Model )法などの音声認識手法により「歩
け」、「伏せ」、「ボールを追いかけろ」等の各種音声
を認識したときには、これを感情・本能モデル61及び
行動決定部62に通知する。
【0040】さらに状態認識部60は、タッチセンサ5
2から与えられる圧力検出信号S1Cを常時監視し、当
該圧力検出信号S1Cに基づいて所定の閾値以上のかつ
短時間(例えば2秒未満)の圧力を検出したときには
「叩かれた(叱られた)」と認識し、所定の閾値未満の
かつ長時間(例えば2秒以上)の圧力を検出したときに
は「撫でられた(誉められた)」と認識し、認識結果を
感情・本能モデル部61及び行動決定部62に通知す
る。
【0041】さらに状態認識部60は、内部センサ部5
7の加速度センサ56から与えられる加速度検出信号S
2Bを常時監視し、当該加速度検出信号S2Bに基づい
て転倒等を検出したときには、これを感情・本能モデル
部61及び行動決定部62に通知する。
【0042】(1−2−2)感情・本能モデル部61の
処理 感情・本能モデル部61は、「喜び」、「悲しみ」、
「驚き」、「恐怖」、「嫌悪」及び怒り」の合計6つの
情動について、これら情動ごとの強さを表すパラメータ
を保持している。そして感情・本能モデル部61は、こ
れら各情動のパラメータ値を、それぞれ状態認識部60
から状態認識情報D1として与えられる「誉められ
た」、「叱られた」などの特定の認識結果に基づいて順
次変更する。
【0043】具体的に感情・本能モデル部61は、状態
認識情報D1に基づき得られる認識結果及び行動決定部
62から行動決定情報D2として通知されるロボット1
の直前の出力行動がその情動に対して作用する度合い
(予め設定されている)と、他の情動から受ける抑制及
び刺激の度合いと、経過時間となどに基づいて所定の演
算式により算出されるその情動の変化量をΔE〔t〕、
現在のその情動のパラメータ値をE〔t〕、認識結果等
に応じてその情動を変化させる割合を表す係数をk
して、所定周期で次式
【0044】
【数1】
【0045】を用いて次の周期におけるその情動のパラ
メータ値E〔t+1〕を算出する。
【0046】そして感情・本能モデル部61は、この演
算結果を現在のその情動のパラメータ値E〔t〕と置き
換えるようにしてその情動のパラメータ値を更新する。
なお各認識結果や各出力行動に対してどの情動のパラメ
ータ値を更新するかは予め定められており、例えば「叩
かれた」といった認識結果が与えられた場合には「怒
り」の情動のパラメータ値が上がり、「撫でられた」と
いった認識結果が与えられた場合には、「喜び」の情動
のパラメータ値が上がる。
【0047】これと同様にして、感情・本能モデル部6
1は、「愛情欲」、「探索欲」、「運動欲」、「充電
欲」及び「睡眠欲」の互いに独立した5つの欲求につい
て、これら欲求ごとにその欲求の強さを表すパラメータ
を保持している。そして感情・本能モデル部61は、こ
れら各欲求のパラメータ値を、それぞれ状態認識部60
からの認識結果や経過時間等に基づいて順次更新する。
【0048】体的には感情・本能モデル部61は、「愛
情欲」、「探索欲」及び「運動欲」については、ロボッ
ト1の出力行動、経過時間及び認識結果などに基づいて
所定の演算式により算出されるその欲求の変化量をΔI
〔k〕、現在のその欲求のパラメータ値をI〔k〕、そ
の欲求の感度を表す係数をkiとして、所定周期で次式
【0049】
【数2】
【0050】を用いて次の周期におけるその欲求のパラ
メータ値I〔k+1〕を算出し、この演算結果を現在の
その欲求のパラメータ値I〔k〕と置き換えるようにし
てその欲求のパラメータ値を更新する。この場合、出力
行動や認識結果等に対してどの欲求のパラメータ値を変
化させるかは予め定められており、例えば行動決定部6
1から何らかの行動を行ったとの通知があったときは
「運動欲」のパラメータ値が下がることとなる。
【0051】また感情・本能モデル部61は、「食欲」
については、状態認識部60を介して与えられるバッテ
リ残量検出信号S2Aに基づいて、バッテリ残量をBL
として所定周期で次式
【0052】
【数3】
【0053】により「食欲」のパラメータ値I〔k+
1〕を算出し、この演算結果を現在の食欲のパラメータ
値I〔k〕を置き換えるようにして当該「食欲」のパラ
メータ値を更新する。
【0054】なお本実施の形態においては、各情動及び
各欲求のパラメータ値がそれぞれ0から100 までの範囲
で変動するように規制されており、また係数ke 、k
iの値も各情動及び各欲求ごとにそれぞれ個別に設定さ
れている。
【0055】因みに、上述のように各認識結果や各出力
行動に対してどの情動又は欲求のパラメータ値をどの程
度増減させるかは予め設定されているが、これもその後
のユーザからの働きかけや、自己の行動結果等に応じて
順次変更される。
【0056】実際上、感情・本能モデル部61は、例え
ば状態認識部60から当該ロボット1が好きな色やボー
ル等のアイテム等を見ているとの状態認識情報D1が与
えられると、初期時には「喜び」の情動のパラメータ値
を増加させるように更新するが、このときに「叩かれ
た」という状態認識情報D1が与えられた場合には、
「喜び」の係数Keを下げると共に、「怒り」の係数K
eを上げるようにこれらの係数値を更新する。
【0057】この結果、ロボット1が好きな色やアイテ
ム等を見ているときに「叩く」という働きかけが何度も
行われると、その色やアイテム等に対する「喜び」の係
数Ke が徐々に小さくなると共に、「怒り」の係数K
eが徐々に大きくなり、やがてその色やアイテム等を見
ると「怒り」のパラメータ値が大きくなるように更新さ
れることにより、後述のようにロボット1が怒ったよう
な行動を発現するようになる。
【0058】また感情・本能モデル部61は、状態認識
部60から『大きなボールがある』ということを意味す
る「ボール(大)」という状態認識情報D1が与えられ
た後、行動決定部62から『ボールをキックする』とい
うことを意味する「キック」という行動決定情報D2が
与えられ、さらにこの後状態認識部60から『小さなボ
ールがある』ということを意味する「ボール(小)」と
いう状態認識情報D1が与えられた場合には、『ボール
を蹴るのに成功した』と判断し、その事象と関連する
『ボール』というアイテムに対する「喜び」の係数Ke
と、「運動欲」の係数Kiとをそれぞれ上げるようにこ
れらの係数値を更新する。
【0059】この結果、ロボット1がボールを蹴る動作
を何度も成功すると、『ボール』に対する「喜び」の係
数Keと「運動欲」の係数Kiとがそれぞれ徐々に大き
くなり、やがてボールを見ると「喜び」及び「運動欲」
のパラメータ値が徐々に大きくなるように更新されるこ
とにより、後述のようにロボット1がボールを見ると喜
んだ行動を発現したり、ボール遊びをよくするようにな
る。
【0060】これとは逆に、感情・本能モデル部61
は、状態認識部60から「ボール(大)」という状態認
識部D1が与えられた後、行動決定部62から「キッ
ク」という行動決定情報D2が与えられ、さらにこの後
状態認識部60から「ボール(大)」という状態認識情
報D1が与えられた場合には、『ボールを蹴るのに失敗
した』と判断し、『ボール』に対する「喜び」の係数K
eと、「運動欲」の係数Kiとをそれぞれ下げるように
これらの係数値を更新する。
【0061】この結果、ロボット1がボールを蹴る動作
を何度も失敗すると、『ボール』に対する「喜び」の係
数keと「運動欲」の係数Kiとがそれぞれ徐々に小さ
くなり、やがてボールを見ると「喜び」及び「運動欲」
のパラメータ値が小さくなるように更新されることによ
り、後述のようにロボット1がボールを見ても無反応と
なったり、ボール遊びをあまりしないようになる。
【0062】このようにして、このロボット1において
は、ユーザからの働きかけや、自己の行動結果等に応じ
て性格を変化させ得るようになされている。
【0063】(1−2−3)行動決定部62の処理 一方、行動決定部62は、状態認識部60から状態認識
情報D1が与えられたときや、現在の行動に移ってから
一定時間経過したとき、感情・本能モデル部61におけ
るいずれかの情動又は本能のパラメータ値が閾値を超え
たときなどに、内部メモリ40Aに格納されている制御
プログラム及び外部メモリ58に格納されている制御パ
ラメータに基づいて次の行動を決定する。
【0064】具体的に行動決定部62は、次の行動を決
定する手法として、図7に示すように、状態をノードN
ODE0〜NODEnとして表現し、1つのノードNO
DE0〜NODEnから次のどのノードNODE0〜NO
DEnに遷移するかを、自ノードNODE0〜NODE
nにおいて完結し又は各ノードNODE0〜NODEn
間を接続するアークARC0〜ARCnに対してそれぞ
れ設定された遷移確率P0〜Pnに基づいて確率的に決
定する確率オートマトンと呼ばれるアルゴリズムを用い
る。
【0065】この場合この確率オートマトンにおける各
ノードNODE0〜NODEn間の接続関係や、各アー
クARC0〜ARCnに対する遷移確率P0〜Pn及び各
アークARC0〜ARCnにそれぞれ対応付けられた動
作が制御パラメータ(行動モデル)として外部メモリ5
8に格納されている。
【0066】そして行動決定部62は、例えば状態認識
部60から状態認識情報D1が与えられたときや、現在
のノード(NODE0)に移ってから一定時間が経過し
たとき、感情・本能モデル部61におけるいずれかの情
動又は本能のパラメータ値が閾値を超えたときなどに、
かかる確率オートマトンにおける次の遷移先のノード
(NODE0〜NODEn)を各アークARC0〜ARC
nに対する遷移確率P0〜Pnに基づいて確率的に決定
し、このとき決定したノード(NODE0〜NODE
n)と元のノード(NODE0)をと接続するアーク
(ARC0〜ARCn)に対応付けられた行動を次に発
現すべき行動として、行動決定情報D2として行動生成
部に通知する。
【0067】(1−2−4)行動生成部63の処理 行動生成部63においては、行動決定部62から行動決
定情報D2が与えられると、当該行動決定情報D2に基
づく行動をロボットに発現させるための制御コマンドC
OMを対応するサブ制御部43A〜43Dにそれぞれ出
力する。
【0068】具体的に、行動生成部63は、「歩く」、
「座る」、「ダンスする」等の各動作にそれぞれ対応さ
せて、その動作をロボット1に発現させるためにどのア
クチュエータA1〜A14(図1及び図2)の出力軸をど
のタイミングでどのくらいの角度だけ回転駆動させるか
といった、動作ごとの各アクチュエータA1〜A14の時
系列的な制御内容を規定したファイル(以下、これをモ
ーションファイルと呼ぶ)を外部メモリ58内に有して
いる。
【0069】そして行動生成部63は、行動決定部62
から行動決定情報D2が与えられるごとに、対応するモ
ーションファイルを順次再生して当該モーションファイ
ルに格納された制御パラメータに基づく制御コマンドC
OMを生成し、当該制御コマンドCOMを対応するサブ
制御部43A〜43Dに送出する。
【0070】この結果この制御コマンドCOMに基づい
て、対応するサブ制御部43A〜43Dによって対応す
るアクチュエータA1〜A14が順次駆動され、かくして
ロボット1がかかる動作を発言することとなる。
【0071】また行動生成部63は、各種音のWAVE
ファイルである複数の音声ファイルと、上述した外見上
の「目」として機能するLEDの駆動データが格納され
た複数のLED駆動ファイルを外部メモリ58内に有し
ており、かかるモーションファイルの再生時等にそのモ
ーションファイルと対応付けられた音声ファイル及び又
はLED駆動ファイルを同時に再生することにより、ロ
ボット1に動作と合わせてスピーカ54(図5)から音
声を出力させたり、当該LEDを点滅駆動させる。
【0072】このようにしてメイン制御部40において
は、外部及び内部の状況や、ユーザからの指令及び働き
かけの有無等に応じてロボット1を自律的に行動させ得
るようになされている。
【0073】(2)音源方向検出処理 ところでこのロボット1の頭部ユニット3には、図8
(A)〜(C)に示すように、その前面上部に正面マイ
ク70、後面上部に後部マイク71が配置されると共
に、右面に右マイク72及び73が近接して配置される
ことにより右マイク群が形成され、左面に左マイク74
及び75が近接して配置されることにより左マイク群が
形成されている。
【0074】また図9に示すように、各マイク70〜7
5にはぞれぞれアナログディジタル(A/D)変換回路
80〜85が接続されることによりマイク部51が構成
され、当該各A/D変換回路80〜85は、各マイク7
0〜75によって集音された音声信号をディジタル信号
にそれぞれ変換した後、これらを音声信号S1Bとして
メイン制御部40に送出するようになされている。
【0075】メイン制御部40の状態認識部60は、こ
の音声信号S1Bに基づいて、音声を発している音源の
左右方向、すなわち音源がロボット1を基準として左右
いずれの方向に位置しているかを判断すると共に、音源
の前後方向、すなわち音源がロボット1を基準として前
後いずれの方向に位置しているかを判断することによ
り、当該音源の方向を検出し、その検出結果を感情・本
能モデル部61及び行動決定部62に通知する。以下、
この音源方向検出処理における左右方向検出処理及び前
後方向検出処理について具体的に説明する。
【0076】(2−1)左右方向検出処理 ここで、正面マイク70、後部マイク71、右マイク7
2及び73からなる右マイク群並びに左マイク74及び
75からなる左マイク群の間の各マイク間距離は、音声
信号の高周波成分に着目すると、音声信号の高周波成分
の1周期に相当する1波長の1/2を超える距離になっ
てしまい、また音声信号の高周波成分は、頭部ユニット
3の回折の影響を強く受け、音源方向を正確に検出こと
が困難である。
【0077】従って、この場合、状態認識部60は、マ
イク間距離が1波長の1/2以下であって、かつ頭部回
折の影響が比較的少ない低域の周波数帯域成分を抽出す
ることにより音源方向の検出を行う。
【0078】すなわち状態認識部60は、図10に示す
ように、左マイク群のうちの例えば左マイク74から入
力された入力信号Li(t)をローパスフィルタ(LP
F)90に供給し、当該入力信号Li(t)に対して、
次式
【0079】
【数4】
【0080】によって表される伝達関数H(z)を乗算
することにより、低周波数帯域成分が抽出された入力信
号Ll(t)を得る。
【0081】同様にして状態認識部60は、右マイク群
のうちの右マイク72から入力された入力信号Ri
(t)に対して、上述の(4)式によって表される伝達
関数H(z)を乗算することにより、低周波数帯域成分
が抽出された入力信号Rl(t)を得る。
【0082】次いで状態認識部60は、音声が左マイク
74に到達した時間を基準とした場合の音声到達時間差
tに対する、入力信号Ll(t)及び入力信号Rl
(t)の相互相関値L(t)を、次式
【0083】
【数5】
【0084】によって算出すると共に、右マイク72へ
の到達時間を基準とした音声到達時間差tに対する、入
力信号Ll(t)及び入力信号Rl(t)の相互相関値
R(t)を、次式
【0085】
【数6】
【0086】によって算出する。
【0087】かくして得られた音声到達時間差t(0〜
TLL)に対する相互相関値L(t)の関係を図11
(A)に示すと共に、音声到達時間差t(0〜TLR)
に対する相互相関値R(t)の関係を図11(B)に示
す。ここでTLL及びTLRは、初期値として10が予
め設定されており、音声到達時間差t(0)〜t(TL
L)までの範囲を、相互相関値L(t)における音源方
向の仮説時間範囲と呼び、音声到達時間差t(0)〜t
(TLR)までの範囲を、相互相関値R(t)における
音源方向の仮説時間範囲と呼ぶ。
【0088】ところで各マイク70〜75から得られる
音声信号は、頭部の筐体の回折の影響を強く受け、音源
を基準として頭部の反対側に位置するマイクでは、信号
レベルが減衰した音声信号が得られることになる。特
に、音声信号のうち例えば1〔kHz〕以上の高域の周
波数帯域成分は、低域の周波数帯域成分と比較して信号
レベルの減衰の度合いが大きく、当該信号レベルの減衰
の度合いは、マイク間距離に比例して大きくなることが
わかっている。
【0089】このため状態認識部60は、音声信号のう
ち高域の周波数帯域成分に着目して、各マイク間におけ
る高域の周波数帯域成分の信号レベル比に基づいて音源
方向の検出を行うようになされている。
【0090】すなわち、状態認識部60は、図12に示
すように、左マイク群のうちの例えば左マイク74から
入力された入力信号Li(t)をハイパスフィルタ(H
PF)91に供給し、当該入力信号Li(t)に対し
て、次式
【0091】
【数7】
【0092】によって表される伝達関数H(z)を乗算
することにより、高周波数帯域成分が抽出された入力信
号LH(t)を得る。
【0093】同様にして状態認識部60は、右マイク群
のうちの右マイク72から入力された入力信号Ri
(t)に対して、上述の(7)式によって表される伝達
関数H(z)を乗算することにより、高周波数帯域成分
が抽出された入力信号RH(t)を得る。
【0094】そして状態認識部60は、高周波数帯域成
分が抽出された入力信号LH(t)の振幅の平均値であ
る高域平均振幅YLHを、次式
【0095】
【数8】
【0096】によって算出すると共に、高周波数帯域成
分が抽出された入力信号RH(t)の高域平均振幅YR
Hを、上述の(8)式によって算出する。
【0097】次いで状態認識部60は、高域平均振幅Y
LH及びYRHの比である高域振幅比RH_lrを、次
【0098】
【数9】
【0099】によって算出することにより、高域の音声
信号の信号レベル比を求める。
【0100】そして状態認識部60は、高域振幅比RH
_lrが2.0よりも大きいと判断した場合にはTLL
に0を設定することにより、仮説時間範囲を、図11
(B)に示す音声到達時間差t(0)〜t(10)の範
囲に狭め、高域振幅比RH_lrが1.3よりも大きく
かつ2.0よりも小さいと判断した場合にはTLLに2
を設定することにより、仮説時間範囲を、図11(A)
に示す音声到達時間差t(0)〜t(2)の範囲と図1
1(B)に示す音声到達時間差t(0)〜t(10)の
範囲に狭める。
【0101】また状態認識部60は、高域振幅比RH_
lrが0.5よりも小さいと判断した場合にはTLRに
0を設定することにより、仮説時間範囲を、図11
(A)に示す音声到達時間差t(0)〜t(10)の範
囲に狭め、高域振幅比RH_lrが0.75よりも小さ
くかつつ0.5よりも大きいと判断した場合にはTLR
に2を設定することにより、仮説時間範囲を、図11
(A)に示す音声到達時間差t(0)〜t(10)の範
囲と11(B)に示す音声到達時間差t(0)〜t
(2)の範囲に狭める。
【0102】そして状態認識部60は、当該得られた仮
説時間範囲の中から相互相関値が最大となる音声到達時
間差tを探索し、予め用意されているテーブルに基づい
て当該探索された音声到達時間差tに対応する音源の左
右方向の角度を得る。
【0103】(2−2)前後方向検出処理 この場合、状態認識部60は、正面マイク70から入力
された入力信号Fi(t)に対して、上述の(4)式に
よって表される伝達関数H(z)を乗算することによ
り、低周波数帯域成分が抽出された入力信号Fl(t)
を得る。
【0104】同様にして状態認識部60は、後部マイク
71から入力された入力信号Bi(t)に対して、上述
の(4)式によって表される伝達関数H(z)を乗算す
ることにより、低周波数帯域成分が抽出された入力信号
Bl(t)を得る。
【0105】次いで状態認識部60は、音声が正面マイ
ク70に到達した時間を基準とした場合の音声到達時間
差tに対する、入力信号Fl(t)及び入力信号Bl
(t)の相互相関値F(t)を、上述の(5)式と同様
の演算式によって算出すると共に、後部マイク71への
到達時間を基準とした音声到達時間差tに対する、入力
信号Fl(t)及び入力信号Bl(t)の相互相関値B
(t)を、上述の(6)式と同様の演算式によって算出
する。
【0106】かくして得られた音声到達時間差t(0〜
TLF)に対する相互相関値F(t)の関係を図13
(A)に示すと共に、音声到達時間差t(0〜TLB)
に対する相互相関値B(t)の関係を図13(B)に示
す。ここでTLF及びTLBは、初期値として10が予
め設定されており、音声到達時間差t(0)〜t(TL
F)までの範囲を、相互相関値F(t)における音源方
向の仮説時間範囲と呼び、音声到達時間差t(0)〜t
(TLB)までの範囲を、相互相関値B(t)における
音源方向の仮説時間範囲と呼ぶ。
【0107】ところで、右マイク群を形成する右マイク
72及び73と、左マイク群を形成する左マイク74及
び75は、それぞれ近接しマイク間距離が小さいため、
マイク間距離が大きい場合に比して、より広い周波数帯
域の音声信号を用いて音源方向の検出を行うことができ
る。
【0108】この場合、状態認識部60は、右マイク群
を形成する右マイク72及び73と左マイク群を形成す
る左マイク74及び75とを用いて指向性マイクを形成
することにより音源方向を検出するようになされてい
る。
【0109】すなわち、状態認識部60は、図14に示
すような機能ブロックからなる指向性マイクを形成し、
右マイク群のうち前方に位置する右マイク72から入力
された入力信号を遅延回路100に供給すると共に、右
マイク群のうち後方に位置する右マイク73から入力さ
れた入力信号を遅延回路101に供給する。
【0110】遅延回路100は、供給される入力信号を
遅延させることなく後段の加算回路102に送出し、遅
延回路101は、供給される入力信号を、右マイク72
と右マイク73との間の距離に相当する時間だけ遅延さ
せた後、後段の加算回路102に送出する。
【0111】加算回路102は、遅延回路100及び1
0lから供給される入力信号を加算することにより、ロ
ボット1を基準として後方から発せられる音声を打ち消
し、その結果得られた入力信号をLPF103に送出す
る。
【0112】LPF103は、供給される入力信号に対
して、次式
【0113】
【数10】
【0114】によって表される伝達関数を乗算すること
により、当該入力信号の周波数特性を補正する。
【0115】平均振幅算出回路104は、当該周波数特
性が補正された入力信号に対して、次式
【0116】
【数11】
【0117】によって表される演算式を用いて、前方指
向性振幅Afを算出する。
【0118】また、状態認識部60は、右マイク群のう
ち前方に位置する右マイク72から入力された入力信号
を遅延回路110に供給すると共に、右マイク群のうち
後方に位置する右マイク73から入力された入力信号を
遅延回路111に供給する。
【0119】遅延回路110は、供給される入力信号
を、右マイク72と右マイク73との間の距離に相当す
る時間だけ遅延させた後、後段の加算回路112に送出
し、遅延回路111は、供給される入力信号を遅延させ
ることなく後段の加算回路112に送出する。
【0120】加算回路112は、遅延回路110及び1
11から供給される入力信号を加算することにより、ロ
ボット1を基準として前方から発せられる音声を打ち消
し、当該加算された入力信号をLPF113及び平均振
幅算出回路114に順次送出して後方指向性振幅Abを
算出する。
【0121】振幅比算出回路115は、前方指向性振幅
Af及び後方指向性振幅Abを基に前後振幅比Rfb
を、次式
【0122】
【数12】
【0123】によって算出する。
【0124】そして状態認識部60は、前後振幅比Rf
bが2.0よりも大きいと判断した場合にはTLBに0
を設定することにより、仮説時間範囲を、図13(A)
に示す音声到達時間差t(0)〜t(10)の範囲に狭
め、前後振幅比Rfbが1.3よりも大きくかつ2.0
よりも小さいと判断した場合にはTLBに2を設定する
ことにより、仮説時間範囲を、図11(A)に示す音声
到達時間差t(0)〜t(10)の範囲と図11(B)
に示す音声到達時間差t(0)〜t(2)の範囲に狭め
る。
【0125】また状態認識部60は、前後振幅比Rfb
が0.5よりも小さいと判断した場合にはTLFに0を
設定することにより、仮説時間範囲を、図11(B)に
示す音声到達時間差t(0)〜t(10)の範囲に狭
め、前後振幅比Rfbが0.75よりも小さくかつ0.
5よりも大きいと判断した場合にはTLFに2を設定す
ることにより、仮説時間範囲を、図11(A)に示す音
声到達時間差t(0)〜t(2)の範囲と図11(B)
に示す音声到達時間差t(0)〜t(10)の範囲に狭
める。
【0126】そして状態認識部60は、当該得られた仮
説時間範囲の中から相互相関値が最大となる音声到達時
間差tを探索し、予め用意されているテーブルに基づい
て当該探索された音声到達時間差tに対応する音源の前
後方向の角度を得る。
【0127】なお状態認識部60は、当該得られた仮説
時間範囲の中から相互相関値が最大となる音声到達時間
差tを検出できないと判断した場合には、前後振幅比R
fbを基に音源の前後方向の角度を直接得ることにす
る。
【0128】すなわち状態認識部60は、前後振幅比R
fbが2.0よりも大きいと判断した場合には、音源の
前後方向の角度を0〔°〕に設定し、前後振幅比Rfb
が1.0よりも大きくかつ2.0よりも小さいと判断し
た場合には、音源の前後方向の角度を30〔°〕に設定
する。
【0129】また状態認識部60は、前後振幅比Rfb
が0.5よりも小さいと判断した場合には、音源の前後
方向の角度を180〔°〕に設定し、前後振幅比Rfb
が0.75よりも小さくかつ0.5よりも大きいと判断
した場合には、音源の前後方向の角度を135〔°〕に
設定し、前後振幅比Rfbが1.0よりも小さくかつ
0.75よりも大きいと判断した場合には、音源の前後
方向の角度を90〔°〕に設定する。
【0130】このようにして状態認識部60は、ロボッ
ト1を基準として左右方向に着目した場合に検出された
音源の左右方向の角度と、前後方向に着目した場合に検
出さされた音源の前後方向の角度とを基に、音源方向の
角度を検出するようになされている。
【0131】(3)指向性マイク生成処理 ところで、状態認識部60は、CCDカメラ50から得
られる画像信号S1Aを解析することにより音源の位置
を特定し、当該特定された音源の方向に対する指向性マ
イクを生成し得るようになされている。
【0132】すなわち、状態認識部60は、始めにCC
Dカメラ50から得られる画像信号S1Aを解析するこ
とにより例えば対話相手の位置を特定する。そして状態
認識部60は、特定された対話相手が当該ロボット1を
基準として正面に位置すると判断した場合には、右マイ
ク群のうち前方に位置する右マイク72から入力される
音声信号と、後方に位置する右マイク73から入力され
る音声信号を所定時間遅延させた音声信号とを加算する
ことにより、ロボット1の後方から発せられる音声信号
を打ち消す。
【0133】同様に状態認識部60は、左マイク群のう
ち前方に位置する左マイク74から入力される音声信号
と、後方に位置する左マイク75から入力される音声信
号を所定時間遅延させた音声信号とを加算することによ
り、ロボット1の後方から発せられる音声信号を打ち消
す。
【0134】このように状態認識部60は、特定された
音源の方向に対する指向性マイクを生成し得、S/N比
を向上させることができる。
【0135】(4)本実施の形態の動作及び効果 以上の構成において、このロボット1の頭部ユニット3
には、その前面上部に正面マイク70、後面上部に後部
マイク71が配置されると共に、右面に右マイク72及
び73が近接して配置され、左面に左マイク74及び7
5が近接して配置されている。
【0136】状態認識部60は、右マイク72及び左マ
イク74から入力される音声信号の低域の周波数成分に
着目し、音声の各マイクへの到達時間差を検出すること
により、音源の左右方向を仮説する。この場合、音源方
向の仮説に利用し得る周波数帯域が制限されるが、マイ
ク間距離が大きいためS/N比の劣化を回避することが
できる。
【0137】次いで状態認識部60は、右マイク72及
び左マイク74から入力される音声信号の高域の周波数
成分に着目し、その信号レベル比を算出することによ
り、音源の左右方向を仮説する。この場合、マイク間距
離が大きいため信号レベルの減衰も大きく、これにより
明らかに音源が存在しない方向を排除することができ
る。
【0138】そして状態認識部60は、音声信号の低域
の周波数成分に着目した場合に得られた音源の左右方向
の仮説と、音声信号の高域の周波数成分に着目した場合
に得られた音源の左右方向の仮説とに基づいて、音源の
左右方向の角度を正しく検出し得る。
【0139】また、状態認識部60は、右マイク72及
び左マイク74から入力される音声信号の低域の周波数
成分に着目し、音声の各マイクへの到達時間差を検出す
ることにより、マイク間距離を1/2波長以下にしつつ
かつ頭部回折の影響を回避しながら音源の前後方向を仮
説する。この場合、音源方向の仮説に利用し得る周波数
帯域が制限されるが、マイク間距離が大きいためS/N
比の劣化を回避することができる。
【0140】次いで状態認識部60は、右マイク群を形
成する右マイク72及び73と左マイク群を形成する左
マイク74及び75とによって指向性マイクを形成する
ことにより、より広い周波数帯域の音声信号を用いて音
源の前後方向を仮説する。この場合、頭部回折の影響を
回避することができる。
【0141】そして状態認識部60は、音声信号の低域
の周波数成分に着目した場合に得られた音源の前後方向
の仮説と、音声信号の広い周波数成分に着目した場合に
得られた音源の前後方向の仮説とに基づいて、音源の前
後方向の角度を正確に検出し得る。
【0142】このように状態認識部60は、音源の左右
方向の角度を正確に検出し得ると共に、音源の前後方向
の角度を正確に検出し得、従って音源方向検出処理の信
頼性を一段と向上することができる。
【0143】また状態認識部60は、CCDカメラ50
から得られる画像信号S1Aを基に音源の位置を特定
し、当該特定された音源方向の指向性マイクを生成する
ことにより、S/N比を向上させることができる。
【0144】以上の構成によれば、ロボット1の頭部ユ
ニット3の前面上部に正面マイク70を配置すると共に
後面上部に後部マイク71を配置し、さらに右面に右マ
イク72及び73を近接して配置すると共に、左面に左
マイク74及び75を近接して配置し、各マイク70〜
75から得られる音声信号に基づいて音源の方向を検出
することにより、複数の音源方向検出方法を用いて音源
方向を検出し得、従って音源方向を一段と正確に検出し
得る。
【0145】(5)他の実施の形態 なお上述の実施の形態においては、本発明を図1及び図
2のように構成された2足歩行型のロボット1に適用す
るようにした場合について述べたが、本発明はこれに限
らず、例えば4足歩行型のペットロボットや、この他種
々のロボット装置に広く適用することができる。
【0146】また上述の実施の形態においては、第1の
マイク群として、頭部ユニット3の右面に近接して配置
された右マイク72及び73からなる右マイク群と、左
面に近接して配置された左マイク74及び75からなる
左マイク群とを適用する場合について述べたが、本発明
はこれに限らず、互いに近接して配置された他の種々の
第1のマイク群を適用するようにしても良い。
【0147】また上述の実施の形態においては、第2の
マイク群として、頭部ユニット3の前面上部に配置され
た正面マイク70と、後面上部に配置された後部マイク
71とを適用する場合について述べたが、本発明はこれ
に限らず、互いに近接しないように配置された他の種々
の第2のマイク群を適用するようにしても良い。
【0148】さらに上述の実施の形態においては、音声
認識手段として状態認識部60を適用した場合について
述べたが、本発明はこれに限らず、各マイクから入力さ
れる音声信号に対して所定の音声認識処理を施す他の種
々の音声認識手段を適用するようにしても良い。
【0149】
【発明の効果】上述のように本発明によれば、ロボット
装置において、互いに近接して配置された第1のマイク
群と、互いに近接しないように配置された第2のマイク
群と、各マイクから入力される音声信号に対して所定の
音声認識処理を施す音声認識手段とを設けることによ
り、音源方向を一段と正確に検出し得ると共にS/N比
を向上させることができ、従って音声の取得を一段と高
品質に行い得るロボット装置を実現できる。
【0150】また本発明においては、ロボット装置の制
御方法において、互いに近接して配置された第1のマイ
ク群と、互いに近接しないように配置された第2のマイ
ク群とからそれぞれ入力される音声信号に対して所定の
音声認識処理を施すことにより、音源方向を一段と正確
に検出し得ると共にS/N比を向上させることができ、
従って音声の取得を一段と高品質に行い得るロボット装
置の制御方法を実現できる。
【図面の簡単な説明】
【図1】本実施の形態によるロボットの外部構成を示す
斜視図である。
【図2】ロボットの外部構成を示す斜視図である。
【図3】ロボットの外部構成の説明に供する略線図であ
る。
【図4】ロボットの内部構成の説明に供するブロック図
である。
【図5】ロボットの内部構成の説明に供するブロック図
である。
【図6】メイン制御部の処理内容の説明に供するブロッ
ク図である。
【図7】確率オートマトンの説明に供する概念図であ
る。
【図8】頭部ユニットの外観構成の説明に供する略線図
である。
【図9】マイク部の構成の説明に供する略線図である。
【図10】LPFの説明に供する略線図である。
【図11】時間差tに対する相互相関値の説明に供する
略線図である。
【図12】HPFの説明に供する略線図である。
【図13】時間差tに対する相互相関値の説明に供する
略線図である。
【図14】指向性マイクの構成の説明に供する略線図で
ある。
【符号の説明】
1……ロボット、2……胴体部ユニット、3……頭部ユ
ニット、4A、4B……腕部ユニット、5A、5B……
脚部ユニット、40……メイン制御部、50……CC
D、51……マイク部、52……タッチセンサ、54…
…スピーカ、55……バッテリセンサ、56……加速度
センサ、58……外部メモリ、60……状態認識部、7
0……正面マイク、71……後部マイク、72、73…
…右マイク、74、75……左マイク。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 21/02 G10L 3/00 551H (72)発明者 坪井 利充 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 山口 一博 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 3C007 AS36 CS08 HS09 HS27 KS00 KS23 KS31 KS39 KT01 KX02 LT06 MT14 WA03 WA13 5D015 DD02 KK01 LL07

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】互いに近接して配置された第1のマイク群
    と、 互いに近接しないように配置された第2のマイク群と、 上記各マイクから入力される音声信号に対して所定の音
    声認識処理を施す音声認識手段とを具えることを特徴と
    するロボット装置。
  2. 【請求項2】上記音声認識手段は、 上記各マイクから入力される音声信号に基づいて音源方
    向を検出する音源方向検出手段を具えることを特徴とす
    る請求項1に記載のロボット装置。
  3. 【請求項3】上記音源方向検出手段は、 上記第2のマイク群から入力される音声信号の低域の周
    波数成分を抽出し、当該抽出された音声信号が上記第2
    のマイク群を構成する各マイクに到達する時間の時間差
    を検出すると共に、上記第2のマイク群から入力される
    音声信号の高域の周波数成分を抽出し、当該抽出された
    音声信号の信号レベル比を算出することにより、音源の
    左右方向を検出する左右方向検出手段と、 上記第2のマイク群から入力される音声信号の低域の周
    波数成分を抽出し、当該抽出された音声信号が上記第2
    のマイク群を構成する各マイクに到達する時間の時間差
    を検出すると共に、上記第1のマイク群から入力される
    音声信号に対して所定の信号処理を施し、指向性マイク
    を形成することにより、音源の前後方向を検出する前後
    方向検出手段とを具えることを特徴とする請求項2に記
    載のロボット装置。
  4. 【請求項4】周囲の状況を撮像する撮像手段を具え、 上記音声認識手段は、 上記撮像手段から得られる画像信号を基に音源の位置を
    特定する位置特定手段と、 上記第1のマイク群から入力される音声信号に対して所
    定の信号処理を施すことにより、上記特定された音源の
    方向に対する指向性マイクを形成する指向性マイク形成
    手段とを具えることを特徴とする請求項1に記載のロボ
    ット装置。
  5. 【請求項5】互いに近接して配置された第1のマイク群
    と、互いに近接しないように配置された第2のマイク群
    とからそれぞれ入力される音声信号に対して所定の音声
    認識処理を施す第1のステップを具えることを特徴とす
    るロボット装置の制御方法。
  6. 【請求項6】上記第1のステップでは、 上記各マイクから入力される音声信号に基づいて音源方
    向を検出することを特徴とする請求項5に記載のロボッ
    ト装置の制御方法。
  7. 【請求項7】上記第1のステップでは、 上記第2のマイク群から入力される音声信号の低域の周
    波数成分を抽出し、当該抽出された音声信号が上記第2
    のマイク群を構成する各マイクに到達する時間の時間差
    を検出すると共に、上記第2のマイク群から入力される
    音声信号の高域の周波数成分を抽出し、当該抽出された
    音声信号の信号レベル比を算出することにより、音源の
    左右方向を検出し、 上記第2のマイク群から入力される音声信号の低域の周
    波数成分を抽出し、当該抽出された音声信号が上記第2
    のマイク群を構成する各マイクに到達する時間の時間差
    を検出すると共に、上記第1のマイク群から入力される
    音声信号に対して所定の信号処理を施し、指向性マイク
    を形成することにより、音源の前後方向を検出すること
    を特徴とする請求項6に記載のロボット装置の制御方
    法。
  8. 【請求項8】上記第1のステップでは、 周囲の状況を撮像する撮像手段から得られる画像信号を
    基に音源の位置を特定し、 上記第1のマイク群から入力される音声信号に対して所
    定の信号処理を施すことにより、上記特定された音源の
    方向に対する指向性マイクを形成することを特徴とする
    請求項5に記載のロボット装置の制御方法。
JP2002074905A 2002-03-18 2002-03-18 音源方向判断装置及び音源方向判断方法 Expired - Fee Related JP4210897B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002074905A JP4210897B2 (ja) 2002-03-18 2002-03-18 音源方向判断装置及び音源方向判断方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002074905A JP4210897B2 (ja) 2002-03-18 2002-03-18 音源方向判断装置及び音源方向判断方法

Publications (2)

Publication Number Publication Date
JP2003271196A true JP2003271196A (ja) 2003-09-25
JP4210897B2 JP4210897B2 (ja) 2009-01-21

Family

ID=29204180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002074905A Expired - Fee Related JP4210897B2 (ja) 2002-03-18 2002-03-18 音源方向判断装置及び音源方向判断方法

Country Status (1)

Country Link
JP (1) JP4210897B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250397A (ja) * 2004-03-08 2005-09-15 Nec Corp ロボット
KR100943224B1 (ko) 2007-10-16 2010-02-18 한국전자통신연구원 음원 추적이 가능한 지능형 로봇 및 방법
US9103903B2 (en) 2011-04-15 2015-08-11 Toyota Jidosha Kabushiki Kaisha Approaching vehicle detecting system and approaching vehicle detecting method
KR20150113701A (ko) * 2014-03-31 2015-10-08 삼성전자주식회사 음성 인식 시스템 및 방법
CN105810195A (zh) * 2016-05-13 2016-07-27 南靖万利达科技有限公司 一种智能机器人的多角度定位系统
CN114255749A (zh) * 2021-04-06 2022-03-29 北京安声科技有限公司 扫地机器人
KR20220151517A (ko) * 2021-05-06 2022-11-15 베어 로보틱스, 인크. 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61105198A (ja) * 1984-10-29 1986-05-23 Kiyoaki Kakegawa 垂直方向の方向情報を再生音の音色特性として有する音声信号、およびこの検出方法
JPS63262577A (ja) * 1987-04-20 1988-10-28 Sony Corp マイクロホン装置
JPH0750896A (ja) * 1991-07-17 1995-02-21 At & T Corp 差動型マイクロフォンに所望の周波数応答を与える方法とその装置
JPH09251299A (ja) * 1996-03-15 1997-09-22 Toshiba Corp マイクロホンアレイ入力型音声認識装置及び方法
JPH10332807A (ja) * 1997-06-05 1998-12-18 Fujitsu Ltd 音源方向検出装置
JPH11219193A (ja) * 1998-02-03 1999-08-10 Fujitsu Ten Ltd 車載用音声認識装置
JP2000148184A (ja) * 1998-11-06 2000-05-26 Sanyo Electric Co Ltd 音声認識装置
JP2001215989A (ja) * 2000-01-31 2001-08-10 Japan Science & Technology Corp ロボット聴覚システム
WO2001095314A1 (fr) * 2000-06-09 2001-12-13 Japan Science And Technology Corporation Dispositif et systeme acoustiques robotises
JP2001356157A (ja) * 2000-06-14 2001-12-26 Sony Corp 相関性演算処理装置及び音源方向判定演算処理装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61105198A (ja) * 1984-10-29 1986-05-23 Kiyoaki Kakegawa 垂直方向の方向情報を再生音の音色特性として有する音声信号、およびこの検出方法
JPS63262577A (ja) * 1987-04-20 1988-10-28 Sony Corp マイクロホン装置
JPH0750896A (ja) * 1991-07-17 1995-02-21 At & T Corp 差動型マイクロフォンに所望の周波数応答を与える方法とその装置
JPH09251299A (ja) * 1996-03-15 1997-09-22 Toshiba Corp マイクロホンアレイ入力型音声認識装置及び方法
JPH10332807A (ja) * 1997-06-05 1998-12-18 Fujitsu Ltd 音源方向検出装置
JPH11219193A (ja) * 1998-02-03 1999-08-10 Fujitsu Ten Ltd 車載用音声認識装置
JP2000148184A (ja) * 1998-11-06 2000-05-26 Sanyo Electric Co Ltd 音声認識装置
JP2001215989A (ja) * 2000-01-31 2001-08-10 Japan Science & Technology Corp ロボット聴覚システム
WO2001095314A1 (fr) * 2000-06-09 2001-12-13 Japan Science And Technology Corporation Dispositif et systeme acoustiques robotises
JP2001356157A (ja) * 2000-06-14 2001-12-26 Sony Corp 相関性演算処理装置及び音源方向判定演算処理装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250397A (ja) * 2004-03-08 2005-09-15 Nec Corp ロボット
KR100943224B1 (ko) 2007-10-16 2010-02-18 한국전자통신연구원 음원 추적이 가능한 지능형 로봇 및 방법
US9103903B2 (en) 2011-04-15 2015-08-11 Toyota Jidosha Kabushiki Kaisha Approaching vehicle detecting system and approaching vehicle detecting method
KR20150113701A (ko) * 2014-03-31 2015-10-08 삼성전자주식회사 음성 인식 시스템 및 방법
KR102146462B1 (ko) 2014-03-31 2020-08-20 삼성전자주식회사 음성 인식 시스템 및 방법
CN105810195A (zh) * 2016-05-13 2016-07-27 南靖万利达科技有限公司 一种智能机器人的多角度定位系统
CN105810195B (zh) * 2016-05-13 2023-03-10 漳州万利达科技有限公司 一种智能机器人的多角度定位系统
CN114255749A (zh) * 2021-04-06 2022-03-29 北京安声科技有限公司 扫地机器人
KR20220151517A (ko) * 2021-05-06 2022-11-15 베어 로보틱스, 인크. 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR102506113B1 (ko) 2021-05-06 2023-03-03 베어 로보틱스, 인크. 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Also Published As

Publication number Publication date
JP4210897B2 (ja) 2009-01-21

Similar Documents

Publication Publication Date Title
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP4131392B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
US6337552B1 (en) Robot apparatus
US8315454B2 (en) Robot apparatus and method of controlling the behavior thereof
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP2004299033A (ja) ロボット装置、情報処理方法、およびプログラム
JP2003266351A (ja) ロボット装置及びロボット装置の動作制御方法
JP4179230B2 (ja) ロボット装置及びその動作制御方法
JP2024023193A (ja) 情報処理装置及び情報処理方法
JP4210897B2 (ja) 音源方向判断装置及び音源方向判断方法
KR102171428B1 (ko) 음악과 춤의 상관관계를 학습하여 춤을 추는 로봇
JP2006088276A (ja) 動作生成システム
JP2003191187A (ja) ロボット装置及びその制御方法
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2004283927A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4198676B2 (ja) ロボット装置、ロボット装置の移動追従方法、および、プログラム
JP2003255990A (ja) 対話処理装置及び方法並びにロボット装置
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2004304714A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2003266353A (ja) ロボット装置及びその制御方法
JP2002323900A (ja) ロボット装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees