JP2002323900A - ロボット装置、プログラム及び記録媒体 - Google Patents
ロボット装置、プログラム及び記録媒体Info
- Publication number
- JP2002323900A JP2002323900A JP2001126473A JP2001126473A JP2002323900A JP 2002323900 A JP2002323900 A JP 2002323900A JP 2001126473 A JP2001126473 A JP 2001126473A JP 2001126473 A JP2001126473 A JP 2001126473A JP 2002323900 A JP2002323900 A JP 2002323900A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- noise
- motor
- sound
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
雑音による影響を抑えて音声認識の精度を高める。 【解決手段】 ロボットの頭部ユニット3に設けられた
マイクロホン9からの音データに基づき音声認識を行う
際に、ロボットに設けられたモータ等の回転速度や回転
角度、及びマイクロホン9の位置Aとモータ位置Bとの
距離を用いて、そのモータが回転時に発生する雑音を高
精度に推定し、マイクロホン9で観測される雑音データ
に関する雑音モデルを高精度にモデル化することで、雑
音処理、すなわち雑音の除去や、音響モデルや言語モデ
ルの適応等を高精度に行う。
Description
するロボット装置、プログラム及び記録媒体に関し、特
に、ロボットが動作時に自ら雑音を発生する環境下にお
いても認識精度の高い音声認識が行えるようなロボット
装置、プログラム及び記録媒体に関する。
者、飼い主)からの指令や周囲の環境に応じて動作する
ロボット装置が知られている。このロボット装置は、マ
イクロホン、カメラ、圧力センサからの入力信号等に応
じて、頭部、脚部等に設けられたモータ等のアクチュエ
ータを駆動することで、頭部や脚部を駆動し、様々な姿
勢制御や、動作を行うものである。
て、入力音声に対応する単語系列を決定する音声認識の
技術も知られている。
等を組み合わせて、音声認識の結果をロボットの動作の
制御に反映させるシステムも実現されている。このよう
なシステム一例としては、荷物の仕分けにおいて、音声
認識を利用して荷物の振り分け先を変更するシステムが
ある。また、産業用ロボットの他、擬似ペットとして
の、エンタテインメント用のロボットにおいても、音声
認識結果に基づいて、各種の行動を起こすものが知られ
ている。
能部をロボットに搭載した場合に、ロボットが自ら発生
する雑音が音声認識の認識性能を劣化させる、という問
題が発生する。特に、ロボットが頭部や脚部等を動かす
際に発生するモータやギアの動作音は、ロボットのマイ
ク等の集音手段までの距離が近いと非常に大きな雑音と
なるため、これが入力音声信号に重畳されると、音声認
識率を大幅に低下させることになる。
ものであり、モータやギアの動作音による雑音の影響を
低減して音声認識率の低下を防止できるようなロボット
装置、プログラム及び記録媒体を提供することを目的す
る。
めに、本発明に係るロボット装置は、連結部を介して連
結された各部を動かすための駆動手段と、周囲の音信号
を集音する集音手段と、上記集音手段からの音声信号を
認識する音声認識手段とを有し、上記音声認識手段は、
上記駆動手段の動作により発生する雑音に基づいて雑音
処理を行うことを特徴とする。
動作速度、動作状態、及び該駆動手段と上記集音手段と
の距離に基づいて行うことが挙げられる。また、上記駆
動手段はモータ、ギアを有し、上記雑音処理は、これら
のモータやギアの回転速度、回転角度、及び各モータや
ギアと上記集音手段との距離に基づいて行うことが挙げ
られる。
課題を解決するために、連結部を介して連結された各部
を動かすための駆動手段と、周囲の音信号を集音する集
音手段と、上記集音手段からの音声信号を認識する音声
認識手段とを有するロボット装置における音声認識処理
のプログラムであって、上記音声認識処理は、上記駆動
手段の動作により発生する雑音に基づいて雑音処理を行
うことを特徴とする。
課題を解決するために、連結部を介して連結された各部
を動かすための駆動手段と、周囲の音信号を集音する集
音手段と、上記集音手段からの音声信号を認識する音声
認識手段とを有するロボット装置における音声認識処理
のプログラムが記録される記録媒体であって、上記音声
認識処理は、上記駆動手段の動作により発生する雑音に
基づいて雑音処理を行うことを特徴とする。
の実施の形態について、図面を参照しながら詳細に説明
する。この実施の形態は、本発明を、脚部或いは腕部等
の動作部を有するロボット装置に適用したものである。
ロボット装置としては、例えば、図1に示すような4足
歩行の動物型ロボット装置や、二足歩行の人間型ロボッ
ト装置等が挙げられる。
ット装置の外観構成を示す斜視図である。この図1に示
す具体例のロボット装置は、例えば「犬」を模した形状
のいわゆるペットロボットとされ、胴体部ユニット2に
は、その前部に頭部ユニット3が取り付けられ、また、
胴体部ユニット2の前後左右には、それぞれ大腿部ユニ
ット4A〜4D、及び脛部ユニット5A〜5Dからなる
脚部ユニット6A〜6Dが取り付けられている。さら
に、胴体部ユニット2の後端部には、尻尾部ユニット1
5が取り付けられている。
腿部ユニット4A〜4D及び尻尾部ユニット15との各
連結部分、各大腿部ユニット4A〜4Dと、それぞれ対
応する脛部ユニット5A〜5Dとの各連結部分等には、
図2に示すように、アクチュエータとしてのモータ(例
えばサーボモータ)71〜7Nが取り付けられており、
これらの対応するモータ71〜7Nを駆動することによ
って、頭部ユニット3及び尻尾部ユニット15を、x
軸、y軸、z軸の3軸それぞれを中心とする方向に自在
に回転させ、大腿部ユニット4A〜4Dを、x軸、y軸
の2軸それぞれを中心とする方向に自在に回転させ、か
つ脛部ユニット5A〜5Dを、y軸の1軸を中心とする
方向に自在に回転させ得るようになっており、これによ
り、ロボットは、各種の行動を行うことができるように
なっている。
ーナ)を含む外部の状況の画像を撮像するためのCCD
(Charge Coupled Device)カメラ8と、使用者の音声
を含む外部音を集音するためのマイクロホン(マイク)
9と、使用者からの「撫でる」や「叩く」といった物理
的な働きかけにより受けた圧力を検出するためのタッチ
センサあるいは圧力センサ10とがそれぞれ所定位置に
取り付けられており、また、胴体部ユニット2内には、
制御部11が内蔵されている。この他、前方に位置する
物体までの距離を測定するための距離センサや、鳴き声
等の音声を出力するためのスピーカや、ロボット装置1
の「目」に相当するLED(Light Emitting Diode)
(いずれも図示せず)等が必要に応じてそれぞれ所定位
置に配置されている。
像信号や、マイクロホン9により集音された周囲の音信
号、圧力センサ10により検出された使用者からの上記
物理的な働きかけに応じた圧力検出信号は、それぞれ画
像データ、音データ、圧力検出データとして、制御部1
1に送られる。
部分に対応するモータ71〜7Nについては、それぞれ
に対応させてモータの回転軸の回転角度測定器121〜
12 N及びモータの回転軸の回転速度測定器131〜1
3Nが設けられており、対応するモータの回転軸の回転
角度、回転速度が検出される。検出された回転角度、回
転速度の検出データは、制御部11に送られる。
と、マイクロホン9からの音データと、圧力センサ10
からの圧力検出データと、各モータ71〜7Nの回転角
度測定器121〜12Nからの回転角度検出データ及び
回転速度測定器131〜13 Nからの回転速度検出デー
タとに基づいて、周囲の状況や、自分の姿勢等を判断す
ると共に、予めインストールされている制御プログラム
に基づいて、続く行動を決定し、その決定結果に基づい
て、必要なモータ71〜7Nを駆動させるようにしてい
る。
や、尻尾部ユニット15、各脚部ユニット6A〜6Dを
動かして所望の状態にし、自律的に行動する。
を示している。
ng Unit)20、プログラムメモリ21、RAM(Rando
m Access Memory)22、不揮発性メモリ23、インタ
ーフェース回路(I/F)24、及びモータドライバ2
5が、バス26を介して接続されている。
憶されている制御プログラムを実行することにより、ロ
ボットの行動を制御する。プログラムメモリ21は、例
えばEEPROM(Electrically Erasable Read Only
Memory)等で構成され、CPU20が実行する制御プロ
グラムや必要なデータを記憶している。RAM22は、
CPU20の動作上必要なデータ等を一時的に記憶す
る。不揮発性メモリ23は、後述するような行動モデ
ル、音響モデル、言語モデル等のような、電源がオフ状
態とされた後も保持する必要のあるデータを記憶する。
インターフェース回路(I/F)24は、カメラ8、マ
イクロホン9、圧力センサ10、モータの回転角度測定
器121〜12N及び回転速度測定器131〜13Nか
らそれぞれ供給されるデータを受信し、CPU20に供
給する。
グラムメモリ21に記憶された制御プログラムが実行さ
れることにより、ロボットの行動を制御する。
例を示している。センサ入力処理部30は、外部から与
えられる刺激や、外部の状態を、マイクロホン9や、カ
メラ8、圧力センサ10等からの出力に基づいて認識
し、行動決定部31に供給するものである。行動決定部
31は、行動モデル記憶部32を内蔵しており、この記
憶内容や、センサ入力処理部30の出力、時間の経過等
に基づいて、その後にロボットが行う行動を決定し、そ
の情報(以下、行動情報という。)を、姿勢遷移部33
に供給する。
給される行動情報に対応する行動をロボットに行わせる
ためのモータ71〜7Nの回転角度や回転速度等の制御
データを演算し、モータ制御部34に出力する。
センサ入力処理部30において、カメラ8から供給され
る画像データや、マイクロホン9から供給される音声デ
ータ、圧力センサ10から出力される圧力検出データ等
に基づいて、特定の外部状態や、使用者からの働きか
け、使用者からの指示等が認識され、その認識結果が行
動決定部31に出力される。
ラ8が出力する画像データに基づいて画像認識を行い、
例えば、「ボールがある」とか、「壁がある」といった
ことを認識して、その認識結果を行動決定部31に供給
する。また、センサ入力処理部30は、マイクロホン9
が出力する音声データに基づいて音声認識を行い、例え
ば、「ボールを蹴れ」とか、「止まれ」といった使用者
の声を認識し、その音声認識結果を行動決定部31に供
給する。さらに、センサ入力処理部30は、圧力センサ
10からの圧力検出データを処理し、例えば、所定の閾
値以上で、かつ短時間の圧力を検出したときには「叩か
れた」と認識し、また、所定の閾値未満で、かつ長時間
の圧力を検出したときには「撫でられた」と認識して、
その認識結果を行動決定部31に供給する。
する行動モデルを行動モデル記憶部32として有してい
る。この行動モデルとは、例えば図5に示すような確率
オートマトンで構成される。この図5に示す確率オート
マトンでは、行動は、ノード(状態)N1 〜Nm で表
現され、行動の遷移は、ある行動に対応するノードN a
から、他の行動(同一の行動である場合もある)に対
応するノードNb への遷移を表すアークAabで表現
される。各ノード間の遷移を表すアークAabには、対
応する遷移確率Pabが設定されており、また、各ノー
ドNi (i=1,2,・・・,a,b,・・・,m)
には、そのノードに対応する行動が生起する生起確率P
i が設定されている。そして、行動モデルでは、ある
行動の次に、どのような行動をとるかは、アークに設定
されている遷移確率と、ノードに設定されている行動の
生起確率とから決定される。
行動モデルの、現在の行動(以下、現在行動という。)
に対応するノードからどのノードに遷移するかを、現在
行動に対応するノードから延びるアークに設定されてい
る遷移確率、及びそのアークによって示される遷移先の
ノードに設定されている行動の生起確率、センサ入力処
理部30が出力する外部の認識結果、及び時間の経過に
基づいて決定し、遷移後のノードに対応する行動(以
下、遷移行動という。)を表す行動情報を、姿勢遷移部
33に供給する。また、行動決定部31は、モータ71
〜7Nの回転角度測定器121〜12N及び回転速度測
定器131〜13Nから供給されるデータに基づき、現
在のロボットの姿勢を認識し、その姿勢から、自然な形
で遷移行動を起こすことができるような行動情報を、姿
勢遷移部33に出力するものである。
給される行動情報に基づいて、現在の姿勢から次の姿勢
に遷移するための姿勢遷移情報を生成し、モータ制御部
34に出力する。すなわち、姿勢遷移部33は、行動決
定部31を介して、モータ7 1〜7Nの回転角度測定器
121〜12N及び回転速度測定器131〜13Nから
供給されるデータに基づいて現在の姿勢を認識し、行動
決定部31からの行動情報に対応する行動(遷移行動)
を、ロボットにとらせるためのモータ71〜7 Nの回転
角度や回転速度を計算し、姿勢遷移情報として、モータ
制御部34に出力する。
の姿勢遷移情報に基づいて、モータ71〜7Nを駆動す
るための駆動信号を生成し、モータ71〜7Nに供給す
る。これにより、モータ71〜7Nは回転駆動され、ロ
ボットは遷移行動を行う。
部30の内、上記図1のマイクロホン9からの音データ
SDを用いて音声認識を行う部分(以下、音声認識装置
という。)の機能的構成例を示している。
検出部40、雑音処理部41、音響分析部42、認識部
43、音響モデル44及び言語モデル45を有し、さら
に、雑音モデル46を有して構成されている。先ず、上
記マイクロホン9から入力された音データSDは、音声
区間検出部40に送られ、音声部分のデータが抽出され
る。これは、例えば、入力音データSDのパワーが閾値
以上になれば音声部分、閾値以下であれば無音声部分と
して判別され、音声部分を含むデータを音声データとし
て抽出する。そして、音声区間検出部40で抽出された
音声区間情報が、上記マイクロホン9から入力される音
データSDと共に、雑音処理部41に供給される。
処理を施す。雑音処理としては、例えば、ローパスフィ
ルタのような低周波数の雑音成分を除去する処理や、ス
ペクトラルサブトラクションと称される雑音除去処理が
行われる。スペクトラルサブトラクションとは、予め雑
音のスペクトルの推定値を求め、これを雑音モデル46
として記憶し、この雑音モデル46に記憶された雑音の
推定スペクトルを、マイクロホン9から入力される音デ
ータを分析して得られるスペクトルから引き去ることに
よって行われる雑音処理方法である。スペクトラルサブ
トラクションにローパスフィルタが用いられる場合に
は、フィルタのパラメータが雑音モデル46として記憶
される。そして、マイクロホン9から入力された音デー
タSDは、雑音処理部41で雑音処理を施された後、音
響分析部42に送られる。
の抽出が微小時間間隔で行われる。例えば、信号のエネ
ルギ、零交差数、ピッチ、周波数特性、及びこれらの変
化量等が抽出される。周波数分析には、線形予測分析
(LPC)、高速フーリエ変換(FFT)、バンドパス
フィルタ(BPF)等が用いられる。そして、この特徴
量系列が認識部43に送られる。
デル45とを用いて、音響分析部42から送られてくる
特徴量系列に対応する単語系列の決定が行われ、その認
識結果が出力される。認識手法としては、例えばHMM
(Hidden Markov Model:隠れマルコフモデル)等が用い
られる。
関数を持つ状態遷移モデルのことで、状態を遷移しなが
ら特徴量系列を出力する確率値を累積していくことによ
って尤度を決定し、その値がスコアとして使われる。H
MMの遷移確率・出力確率密度関数等は、学習用のデー
タを用いて、予め学習過程において決定がなされる。
ズ、文等、種々のレベルでモデル化することが可能であ
る。例えば、日本語の仮名、「あ」、「い」、「う」、
「え」、「お」、「か」、「き」、・・・、「ん」を単
位とする音響モデルを用いる場合、これを組み合わせる
ことで、「はい」、「いいえ」、「おはよう」、「いま
なんじですか」等、種々の言葉を構成することが可能に
なる。そして、それらの言葉に対して、入力される特徴
量系列との類似度を表すスコアの計算を行うことが可能
となる。ここで、音響モデルを接続するための情報とし
て、言語モデル45が使用される。言語モデルには、大
きく分けて、辞書と文法との2つがある。辞書とは、認
識対象となる各単語を構成するために、音響モデルをど
のように接続するかを与えるものである。文法とは、単
語と単語をどのように接続するかを与えるものである。
で」という文を扱いたい場合、先ず、「0(ゼロ)」、
「1(いち)」、・・・、「24(にじゅうよん)」と
いう数字と、「時(じ)」「から」、「まで」という語
に関して、それぞれ読み仮名を含めて辞書として持つこ
とで、仮名を単位とする音響モデルの接続関係を与え
る。次に、「(数字)」+「時」+「から」+「(数
字)」+「時」+「まで」というルールを文法として持
つことで、単語の接続関係を与える。これらの辞書と文
法とを組み合わせることによって、「1時から2時ま
で」や「2時から5時まで」等、それぞれの文と入力さ
れる特徴量系列との類似度が計算できることになり、そ
の中で最もスコアの高いものを認識結果として出力する
ことが可能になるわけである。具体的には、接続された
単語列に対応するHMMを構成し、特徴量系列に従っ
て、HMMの状態遷移確率と出力確率密度関数を累積し
ていくことで、その累積値であるスコアが認識部43で
計算される。そして、そのスコアが最も高くなる単語系
列が、音声認識結果として認識部43より出力される。
認識部43による音声認識結果は、センサ入力処理部3
0の出力として、上記図4の行動決定部31に送られ
る。
コアの計算は、音響モデル44によって与えられる音響
的なスコアと、言語モデル45によって与えられる言語
的なスコアとを総合評価することで行われる場合もあ
る。言語的なスコアとは、例えば、バイグラム等の単語
と単語の遷移確率に基づいて与えられるスコアである。
上述したような音データから雑音を除去する方法以外
に、例えば、音響モデル44を雑音に適応させる方法等
も用いられる。この音響モデルを雑音に適応させる方法
としては、PMC(parallel model combination)等が
ある。これは、静かな環境で発声した音声信号から学習
した音響モデル44と、雑音信号をモデル化した雑音モ
デル46とを結合することで、雑音に強い新たな音響モ
デルを合成する手法である。この場合、雑音処理部41
は、観測される雑音信号によって雑音モデル46を更新
し、さらに、その更新した雑音モデル46と音響モデル
44とを結合することで音響モデルの適応を行う。さら
にまた、雑音処理としては、言語モデル45を雑音に適
応させる方法も用いられる。言語モデルの適応として
は、辞書に含まれる音響モデルの接続関係(以下、発音
情報という。)を、雑音を考慮したものに適応する方法
や、雑音の大きな時には語彙数を減らしたり文法の複雑
さを簡単なものにする等して、受け付ける単語系列に制
限をかける方法等がある。
音信号を推定する精度、あるいは雑音をモデル化する精
度が、その雑音対策手法の性能を大きく左右する。
声が含まれない部分、例えば、入力音声信号の直前の無
音声部分等を用いて、雑音信号の周波数特性を推定する
方法等が広く行われている。しかしながら、この方法で
は、実際に音声部分に重畳されている雑音信号の周波数
特性や音の大きさが、推定値とずれることにで、推定誤
差が発生するという問題がある。
ボットが頭部、脚部等を動かす際に発生するモータの回
転音や、ギアの回転音について考える。例えば、図7に
示される姿勢から図8に示される姿勢に、すなわち、脚
部6Bをxz平面上で図7の状態から図8の状態に変化
させる場合、大腿部ユニット4Bは位置Bのy軸を中心
として回転させ、脛部ユニット5Bも位置Cのy軸を中
心として回転させることになる。このとき発生する雑音
は、それぞれのユニットを回転させる角度、回転させる
速度に応じて、その雑音特性が異なったものとなる。こ
れは、大腿部ユニット4B及び脛部ユニット5Bを回転
させる際の、モータの回転速度や回転角に応じて雑音の
特性が変化することに加えて、マイクロホン9とモータ
の位置関係が変化することに起因する。雑音特性が変化
するとは、具体的には、周波数特性が変化したり、雑音
の大きさ(パワー)が変化することである。
11から送られるモータの駆動信号に基づいて行われ
る。すなわち、制御部で決定される遷移行動がモータの
回転速度を決定することになるので、自ら行う動作に関
しては、その動作と対応するモータの回転速度を予め推
定しておくことが可能となる。あるいはまた、モータに
取り付けられた回転角度測定器121〜12Nと回転速
度測定器131〜13Nにおいて、リアルタイムにモー
タの回転角度や回転速度を計測することも可能である。
その結果、大腿部ユニット4B及び脛部ユニット5Bの
回転角度に基づいて、雑音発生源であるモータとマイク
ロホン9との距離を計算することも可能となる。例え
ば、図7、図8の例において、マイクロホン位置をA、
大腿部ユニット4Bに取り付けられたモータの位置を
B、脛部ユニットに取り付けられたモータの位置をCと
すると、頭部を動かさない場合、マイクロホン位置Aと
モータ位置Bとの距離ABは、図7、図8で一定であ
り、これは頭部ユニット3におけるマイクロホン9の設
定位置A、頭部ユニット3と胴体部ユニット2の接続位
置、及び、胴体部ユニット2における大腿部4Bに取り
付けられたモータの設定位置Bから、一意に決定され
る。マイクロホン位置Aとモータ位置Cとの距離AC
は、図7,図8で異なるが、この距離ACも、距離A
B、距離BC、及びABとBCとのなす角度Qの3つの
値から、 AC=(AB2+BC2−2AB×BC×cosQ)
1/2 を計算することで求めることができる。
として説明したが、xyz空間で行う全ての動作に関し
ても、同様に、全てのモータ71〜7Nの回転速度、及
び各モータとマイクロホンとの距離を求めることが可能
である。
びモータ71〜7Nとマイクロホン9との距離を用いる
ことで、雑音の推定精度を向上させる方法を考える。
の回転速度から、モータの回転音の周波数特性を推定す
ることが可能である。具体的な推定方法としては、各モ
ータが発生する回転音に関して、様々な回転速度に応じ
て発生する回転音を、マイクロホンからの距離を一定に
した状態で実際に集音し、その集音された音データを、
雑音データとして、図9に示すように記憶しておく。こ
の図9の例では、モータ71〜7Nの回転速度を、0〜
a、a〜b、b〜c、c〜dに区分し、それぞれの回転
速度範囲における雑音データをテーブルとして記憶して
いる。そして、音声認識時に用いる雑音モデルとして
は、実際にモータを駆動する際の各モータの回転速度に
基づいて、対応する回転速度範囲の雑音データをモータ
毎に選択し、さらに、マイクロホンとモータの距離に基
づいて、各雑音データの大きさ(ゲイン)を調整した
後、それぞれを足し合わせることで、これを雑音信号の
推定値とする。そして、この推定雑音信号から、雑音モ
デル46の更新を行い、これを用いて雑音処理を施す。
音信号だけでなく、各モータの回転速度及びモータとマ
イクロホンとの距離に応じて、雑音データを記憶してお
く方法も考えられる。また、モータの回転角度に応じ
て、雑音データを記憶しておくことも挙げられる。
ける、脚部を駆動して歩行する、尻尾を振る、頭部を傾
けると同時に右前脚部を持ち上げる等、様々な遷移行動
で行われるモータ駆動の雑音データを、それぞれの動作
に応じて、予め集音し、記憶しておくことで、各動作に
応じた雑音モデルの推定精度を向上させることも可能で
ある。
回転音に関して説明を行ったが、頭部、脚部を駆動する
際に、モータとギアを組み合わせて駆動を行うロボット
の場合、ギアの回転時にも雑音が発生する。この雑音に
関しても、本実施の形態で説明したような、モータの場
合と同様に、ギアの回転速度、ギアの回転角度、マイク
ロホンとギアの距離に基づいて、そのギアが発生する雑
音を高精度に推定し、対応する雑音モデルを高精度に求
めることが可能である。
おいては、本発明を「犬」等の動物を模した形状で四足
歩行タイプのいわゆるペット型ロボットに適用した例に
ついて説明したが、本発明はこれに限定されず、例え
ば、人間型等の二足歩行タイプのロボットにも適用可能
である。
装置について説明する。図10及び図11には、人間型
ロボット装置200の前方及び後方の各々から眺望した
外観を示している。さらに、図12には、この人間型ロ
ボット装置200が具備する関節自由度構成を模式的に
示している。
200は、2本の腕部と頭部201を含む上肢と、移動
動作を実現する2本の脚部からなる下肢と、上肢と下肢
とを連結する体幹部とで構成される。
ー軸202と、首関節ピッチ軸203と、首関節ロール
軸204という3自由度を有している。
と、肩関節ロール軸209と、上腕ヨー軸210と、肘
関節ピッチ軸211と、前腕ヨー軸212と、手首関節
ピッチ軸213と、手首関節ロール輪214と、手部2
15とで構成される。手部215は、実際には、複数本
の指を含む多関節・多自由度構造体である。ただし、手
部215の動作は人間型ロボット装置200の姿勢制御
や歩行制御に対する寄与や影響が少ないので、本明細書
ではゼロ自由度と仮定する。したがって、各腕部は7自
由度を有するとする。
体幹ロール軸206と、体幹ヨー軸207という3自由
度を有する。
節ヨー軸216と、股関節ピッチ軸217と、股関節ロ
ール軸218と、膝関節ピッチ軸219と、足首関節ピ
ッチ軸220と、足首関節ロール軸221と、足部22
2とで構成される。本明細書中では、股関節ピッチ軸2
17と股関節ロール軸218の交点は、人間型ロボット
装置200の股関節位置を定義する。人体の足部222
は実際には多関節・多自由度の足底を含んだ構造体であ
るが、人間型ロボット装置200の足底はゼロ自由度と
する。したがって、各脚部は6自由度で構成される。
00全体としては、合計で3+7×2+3+6×2=3
2自由度を有することになる。但し、エンターテインメ
ント向けの人間型ロボット装置200が必ずしも32自
由度に限定される訳ではない。
が持つ各自由度は、実際にはアクチュエータを用いて実
装される。外観上で余分な膨らみを排してヒトの自然体
形状に近似させること、2足歩行という不安定構造体に
対して姿勢制御を行うことなどの要請から、アクチュエ
ータは小型且つ軽量であることが好ましい。
制御システム構成を模式的に示している。同図に示すよ
うに、人間型ロボット装置200は、ヒトの四肢を表現
した各機構ユニット230,240,250R/L,2
60R/Lと、各機構ユニット間の協調動作を実現する
ための適応制御を行う制御ユニット280とで構成され
る(但し、R及びLの各々は、右及び左の各々を示す接
尾辞である。以下同様)。
制御ユニット280によって統括的に制御される。制御
ユニット280は、CPU(Central Processing Uni
t)やメモリ等の主要回路コンポーネント(図示しな
い)で構成される主制御部281と、電源回路や人間型
ロボット装置200の各構成要素とのデータやコマンド
の授受を行うインターフェース(いずれも図示しない)
などを含んだ周辺回路282とで構成される。
限定されない。図13では体幹部ユニット240に搭載
されているが、頭部ユニット230に搭載してもよい。
或いは、人間型ロボット装置200外に制御ユニット2
80を配備して、人間型ロボット装置200の機体とは
有線若しくは無線で交信するようにしてもよい。
内の各関節自由度は、それぞれに対応する図13のアク
チュエータによって実現される。すなわち、頭部ユニッ
ト230には、首関節ヨー軸202、首関節ピッチ軸2
03、首関節ロール軸204の各々を表現する首関節ヨ
ー軸アクチュエータA2、首関節ピッチ軸アクチュエー
タA3、首関節ロール軸アクチュエータA4が配設され
ている。
ッチ軸205、体幹ロール軸206、体幹ヨー軸207
の各々を表現する体幹ピッチ軸アクチュエータA5、体
幹ロール軸アクチュエータA6、体幹ヨー軸アクチュエ
ータA7が配設されている。
ユニット251R/Lと、肘関節ユニット252R/L
と、前腕ユニット253R/Lに細分化されるが、肩関
節ピッチ軸208、肩関節ロール軸209、上腕ヨー軸
210、肘関節ピッチ軸211、前腕ヨー軸212、手
首関節ピッチ軸213、手首関節ロール軸214の各々
表現する肩関節ピッチ軸アクチュエータA8、肩関節ロ
ール軸アクチュエータA9、上腕ヨー軸アクチュエータ
A10、肘関節ピッチ軸アクチュエータA11、前腕ヨ
ー軸アクチュエータA12、手首関節ピッチ軸アクチュ
エータA13、手首関節ロール軸アクチュエータA14
が配備されている。
部ユニット261R/Lと、膝関節ユニット262R/
Lと、足首ユニット263R/Lに細分化されるが、股
関節ヨー軸216、股関節ピッチ軸217、股関節ロー
ル軸218、膝関節ピッチ軸219、足首関節ピッチ軸
220、足首関節ロール軸221の各々を表現する股関
節ヨー軸アクチュエータA16、股関節ピッチ軸アクチ
ュエータA17、股関節ロール軸アクチュエータ
A18、膝関節ピッチ軸アクチュエータA19、足首関
節ピッチ軸アクチュエータA20、足首関節ロール軸ア
クチュエータA21が配備されている。
0、腕部ユニット250、各脚部ユニット260などの
各機構ユニット毎に、アクチュエータ駆動制御部の副制
御部2235,245,255,265が配備されてい
る。さらに、各脚部260R,Lの足底が着床したか否
かを検出する接地確認センサ291及び292を装着す
るとともに、体幹部ユニット240内には、姿勢を計測
する姿勢センサ293を装備している。
ば足底に設置された近接センサ又はマイクロ・スイッチ
などで構成される。また、姿勢センサ293は、例え
ば、加速度センサとジャイロ・センサの組み合わせによ
って構成される。
よって、歩行・走行などの動作期間中において、左右の
各脚部が現在立脚又は遊脚いずれの状態であるかを判別
ずることができる。また、姿勢センサ293の出力によ
り、体幹部分の傾きや姿勢を検出することができる。
各センサ291〜293の出力に応答して制御目標をダ
イナミックに補正することができる。より具体的には、
副制御部235,245,255,265の各々に対し
て適応的な制御を行い、人間型ロボット装置200の上
肢、体幹、及び下肢が協調して駆動する全身運動パター
ンを実現することができる。
身運動は、足部運動、ZMP(ZeroMoment Point)軌
道、体幹運動、上肢運動、腰部高さなどを設定するとと
もに、これらの設定内容に従った動作を指示するコマン
ドを各副制御部235,245,255,265に転送
する。そして、各々の副制御部235,245,・・・
等では、主制御部281からの受信コマンドを解釈し
て、各アクチュエータA 2,A3・・・等に対して駆動
制御信号を出力する。ここで言う「ZMP」とは、歩行
中の床反力によるモーメントがゼロとなる床面上の点の
ことであり、また、「ZMP軌道」とは、例えば人間型
ロボット装置200の歩行動作期間中にZMPが動く軌
跡を意味する。
る加速度によって、歩行系から路面には重力と慣性力、
並びにこれらのモーメントが作用する。いわゆる「ダラ
ンベールの原理」によると、それらは路面から歩行系へ
の反作用としての床反力、床反力モーメントとバランス
する。力学的推論の帰結として、足底接地点と路面の形
成する支持多角形の辺上或いはその内側にピッチ及びロ
ール軸モーメントがゼロとなる点、すなわち「ZMP
(Zero Moment Point)」が存在する。
の転倒防止に関する提案の多くは、このZMPを歩行の
安定度判別の規範として用いたものである。ZMP規範
に基づく2足歩行パターン生成は、足底着地点を予め設
定することができ、路面形状に応じた足先の運動学的拘
束条件を考慮し易いなどの利点がある。また、ZMPを
安定度判別規範とすることは、力ではなく軌道を運動制
御上の目標値として扱うことを意味するので、技術的に
実現可能性が高まる。なお、ZMPの概念並びにZMP
を歩行ロボットの安定度判別規範に適用する点について
は、Miomir Vukobratovic著“LEGGED LOCOMOTION ROBOT
S”(加藤一郎外著『歩行ロボットと人工の足』(日刊
工業新聞社))に記載されている。
のような2足歩行のロボットの方が、重心位置が高く、
且つ、歩行時のZMP安定領域が狭い。したがって、こ
のような路面状態の変化に伴う姿勢変動の問題は、2足
歩行ロボットにおいてとりわけ重要となる。
は、各々の副制御部235,245,・・・等が、主制
御部281からの受信コマンドを解釈して、各アクチュ
エータA2,A3,・・・に対して駆動制御信号を出力
し、各ユニットの駆動を制御している。これにより、人
間型ロボット装置200は、安定した姿勢で歩行するこ
とが可能とされている。
いても、頭部等にマイクロホン等の集音手段を設け、上
述したような音声認識を行わせることができ、この音声
認識における雑音処理を、モータ等の各アクチュエータ
A2,A3,・・・やギア等の回転速度、回転角度、及
びマイクロホンとの距離に応じて雑音処理を行わせるこ
とができる。
ための雑音処理として、モータやギアの回転角度や回転
速度、及びマイクロホンとの距離を利用することで、そ
のモータやギアが回転時に発生する雑音を高精度に推定
し、マイクロホンで観測される雑音データに関する雑音
モデルを高精度にモデル化することで、雑音処理、すな
わち雑音の除去や、音響モデルや言語モデルの適応等を
高精度に行うことが可能となる。その結果、これらの雑
音が、マイクロホンで観測される入力音声信号に重畳さ
れた場合でも、その認識性能の低下を防ぐことが可能と
なる。
態に限定されるものではなく、本発明の要旨を逸脱しな
い範囲で、種々の変更が可能であることは勿論である。
部を動かすための駆動手段と、周囲の音信号を集音する
集音手段と、上記集音手段からの音声信号を認識する音
声認識手段とを有し、上記音声認識手段は、上記駆動手
段の動作により発生する雑音に基づいて雑音処理を行う
ことにより、雑音の影響を抑制し、音声認識精度を高め
ることができる。
のための雑音処理として、モータやギアの回転角度や回
転速度、及びマイクロホンとの距離を利用することで、
そのモータやギアが回転時に発生する雑音を高精度に推
定し、マイクロホンで観測される雑音データに関する雑
音モデルを高精度にモデル化することで、雑音処理、す
なわち雑音の除去や、音響モデルや言語モデルの適応等
を高精度に行うことが可能となる。その結果、これらの
雑音が、マイクロホンで観測される入力音声信号に重畳
された場合でも、その認識性能の低下を防ぐことが可能
となる。
構成を示す斜視図である。
ロック図である。
すブロック図である。
ブロック図である。
ンの一例を示す図である。
る。
す図である。
す図である。
説明するための図である。
を示す斜視図である。
を示す斜視図である。
示す図である。
る。
クロホン、 11 制御部、 121〜12N 回転角
度検出器、 131〜13N 回転速度検出器、 40
音声区間検出部、 41 雑音処理部、 42 音響
分析部、 43認識部、 44 音響モデル、 45
言語モデル、 46 雑音モデル
Claims (11)
- 【請求項1】 連結部を介して連結された各部を動かす
ための駆動手段と、 周囲の音信号を集音する集音手段と、 上記集音手段からの音声信号を認識する音声認識手段と
を有し、 上記音声認識手段は、上記駆動手段の動作により発生す
る雑音に基づいて雑音処理を行うことを特徴とするロボ
ット装置。 - 【請求項2】 上記雑音処理は、上記駆動手段の動作速
度、動作状態、及び該駆動手段と上記集音手段との距離
に基づいて行うことを特徴とする請求項1記載のロボッ
ト装置。 - 【請求項3】 上記駆動手段はモータ、ギアを有し、上
記雑音処理は、これらのモータやギアの回転速度、回転
角度、及び各モータやギアと上記集音手段との距離に基
づいて行うことを特徴とする請求項1記載のロボット装
置。 - 【請求項4】 上記雑音処理には、雑音推定処理が含ま
れることを特徴とする請求項1記載のロボット装置。 - 【請求項5】 上記雑音処理とは、上記集音手段を介し
て入力される音信号から雑音を除去する処理であること
を特徴とする請求項1記載のロボット装置。 - 【請求項6】 上記雑音処理とは、上記音声認識手段に
おける音響モデルに雑音を適応させる処理であることを
特徴とする請求項1記載のロボット装置。 - 【請求項7】 上記雑音処理とは、上記音声認識手段に
おける言語モデルに雑音を適応させる処理であることを
特徴とする請求項1記載のロボット装置。 - 【請求項8】 連結部を介して連結された各部を動かす
ための駆動手段と、周囲の音信号を集音する集音手段
と、上記集音手段からの音声信号を認識する音声認識手
段とを有するロボット装置における音声認識処理のプロ
グラムであって、 上記音声認識処理は、上記駆動手段の動作により発生す
る雑音に基づいて雑音処理を行うことを特徴とするプロ
グラム。 - 【請求項9】 上記雑音処理は、上記駆動手段の動作速
度、動作状態、及び該駆動手段と上記集音手段との距離
に基づいて行うことを特徴とする請求項8記載のプログ
ラム。 - 【請求項10】 連結部を介して連結された各部を動か
すための駆動手段と、周囲の音信号を集音する集音手段
と、上記集音手段からの音声信号を認識する音声認識手
段とを有するロボット装置における音声認識処理のプロ
グラムが記録される記録媒体であって、 上記音声認識処理は、上記駆動手段の動作により発生す
る雑音に基づいて雑音処理を行うことを特徴とする記録
媒体。 - 【請求項11】 上記雑音処理は、上記駆動手段の動作
速度、動作状態、及び該駆動手段と上記集音手段との距
離に基づいて行うことを特徴とする請求項10記載の記
録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001126473A JP2002323900A (ja) | 2001-04-24 | 2001-04-24 | ロボット装置、プログラム及び記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001126473A JP2002323900A (ja) | 2001-04-24 | 2001-04-24 | ロボット装置、プログラム及び記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002323900A true JP2002323900A (ja) | 2002-11-08 |
Family
ID=18975506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001126473A Pending JP2002323900A (ja) | 2001-04-24 | 2001-04-24 | ロボット装置、プログラム及び記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002323900A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005335001A (ja) * | 2004-05-26 | 2005-12-08 | Sony Corp | ロボット制御装置および方法、記録媒体、並びにプログラム |
JP2006279757A (ja) * | 2005-03-30 | 2006-10-12 | Casio Comput Co Ltd | 撮像装置、音声記録方法及びプログラム |
JP2008122927A (ja) * | 2006-09-13 | 2008-05-29 | Honda Motor Co Ltd | モータ雑音下におけるロボット用音声認識方法 |
JP2012088390A (ja) * | 2010-10-15 | 2012-05-10 | Honda Motor Co Ltd | 音声認識装置及び音声認識方法 |
US20180093625A1 (en) | 2016-09-30 | 2018-04-05 | Honda Motor Co., Ltd. | Mobile unit control device and mobile unit |
WO2019087567A1 (ja) * | 2017-10-31 | 2019-05-09 | ソニー株式会社 | ロボット装置 |
JP2020198485A (ja) * | 2019-05-31 | 2020-12-10 | コニカミノルタ株式会社 | 情報処理装置、周囲装置制御方法、およびコンピュータプログラム |
US11216655B2 (en) | 2019-01-10 | 2022-01-04 | Samsung Electronics Co., Ltd. | Electronic device and controlling method thereof |
CN114913845A (zh) * | 2021-02-09 | 2022-08-16 | 北京小米移动软件有限公司 | 语音识别方法、语音识别模型的训练方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06214592A (ja) * | 1993-01-18 | 1994-08-05 | Nippon Telegr & Teleph Corp <Ntt> | 耐雑音音韻モデルの作成方式 |
JPH07312715A (ja) * | 1994-05-17 | 1995-11-28 | Sanyo Electric Co Ltd | カメラ一体型記録装置に於けるモータ騒音を低減する方法及び回路 |
JPH09212192A (ja) * | 1996-02-07 | 1997-08-15 | Ricoh Co Ltd | 音声認識装置 |
JPH11205891A (ja) * | 1998-01-09 | 1999-07-30 | Victor Co Of Japan Ltd | 雑音低減回路及びビデオカメラ装置 |
JP2001215990A (ja) * | 2000-01-31 | 2001-08-10 | Japan Science & Technology Corp | ロボット聴覚装置 |
-
2001
- 2001-04-24 JP JP2001126473A patent/JP2002323900A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06214592A (ja) * | 1993-01-18 | 1994-08-05 | Nippon Telegr & Teleph Corp <Ntt> | 耐雑音音韻モデルの作成方式 |
JPH07312715A (ja) * | 1994-05-17 | 1995-11-28 | Sanyo Electric Co Ltd | カメラ一体型記録装置に於けるモータ騒音を低減する方法及び回路 |
JPH09212192A (ja) * | 1996-02-07 | 1997-08-15 | Ricoh Co Ltd | 音声認識装置 |
JPH11205891A (ja) * | 1998-01-09 | 1999-07-30 | Victor Co Of Japan Ltd | 雑音低減回路及びビデオカメラ装置 |
JP2001215990A (ja) * | 2000-01-31 | 2001-08-10 | Japan Science & Technology Corp | ロボット聴覚装置 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005335001A (ja) * | 2004-05-26 | 2005-12-08 | Sony Corp | ロボット制御装置および方法、記録媒体、並びにプログラム |
JP2006279757A (ja) * | 2005-03-30 | 2006-10-12 | Casio Comput Co Ltd | 撮像装置、音声記録方法及びプログラム |
JP4639902B2 (ja) * | 2005-03-30 | 2011-02-23 | カシオ計算機株式会社 | 撮像装置、音声記録方法及びプログラム |
JP2008122927A (ja) * | 2006-09-13 | 2008-05-29 | Honda Motor Co Ltd | モータ雑音下におけるロボット用音声認識方法 |
JP2012088390A (ja) * | 2010-10-15 | 2012-05-10 | Honda Motor Co Ltd | 音声認識装置及び音声認識方法 |
JP2018052425A (ja) * | 2016-09-30 | 2018-04-05 | 本田技研工業株式会社 | 移動体制御装置、及び移動体 |
US20180093625A1 (en) | 2016-09-30 | 2018-04-05 | Honda Motor Co., Ltd. | Mobile unit control device and mobile unit |
CN107878465A (zh) * | 2016-09-30 | 2018-04-06 | 本田技研工业株式会社 | 移动体控制装置和移动体 |
US10569727B2 (en) | 2016-09-30 | 2020-02-25 | Honda Motor Co., Ltd. | Mobile unit control device and mobile unit |
WO2019087567A1 (ja) * | 2017-10-31 | 2019-05-09 | ソニー株式会社 | ロボット装置 |
JPWO2019087567A1 (ja) * | 2017-10-31 | 2020-11-26 | ソニー株式会社 | ロボット装置 |
JP7184047B2 (ja) | 2017-10-31 | 2022-12-06 | ソニーグループ株式会社 | ロボット装置 |
US11216655B2 (en) | 2019-01-10 | 2022-01-04 | Samsung Electronics Co., Ltd. | Electronic device and controlling method thereof |
JP2020198485A (ja) * | 2019-05-31 | 2020-12-10 | コニカミノルタ株式会社 | 情報処理装置、周囲装置制御方法、およびコンピュータプログラム |
CN114913845A (zh) * | 2021-02-09 | 2022-08-16 | 北京小米移动软件有限公司 | 语音识别方法、语音识别模型的训练方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6509707B2 (en) | Information processing device, information processing method and storage medium | |
US7885727B2 (en) | Robot apparatus, information processing method and program | |
JP3714268B2 (ja) | ロボット装置 | |
JP2001157976A (ja) | ロボット制御装置およびロボット制御方法、並びに記録媒体 | |
US6980956B1 (en) | Machine apparatus and its driving method, and recorded medium | |
JP3945279B2 (ja) | 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置 | |
JP4086024B2 (ja) | ロボット装置及びその行動制御方法 | |
JP4239635B2 (ja) | ロボット装置、その動作制御方法、及びプログラム | |
JP2001277163A (ja) | ロボットの制御装置及び制御方法 | |
JP2005022065A (ja) | 音声対話装置及び方法並びにロボット装置 | |
JP4179230B2 (ja) | ロボット装置及びその動作制御方法 | |
JP2002323900A (ja) | ロボット装置、プログラム及び記録媒体 | |
JP2001154685A (ja) | 音声認識装置および音声認識方法、並びに記録媒体 | |
JP2002116792A (ja) | ロボット制御装置およびロボット制御方法、並びに記録媒体 | |
JP4600736B2 (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP4433273B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
JP2004283927A (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP4587009B2 (ja) | ロボット制御装置およびロボット制御方法、並びに記録媒体 | |
JP4706893B2 (ja) | 音声認識装置および方法、並びに、プログラムおよび記録媒体 | |
JP2003255990A (ja) | 対話処理装置及び方法並びにロボット装置 | |
JP2003271958A (ja) | 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置 | |
JP2003044080A (ja) | ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体 | |
JP2005335001A (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP2004286805A (ja) | 話者識別装置および話者識別方法、並びにプログラム | |
JP2001154692A (ja) | ロボット制御装置およびロボット制御方法、並びに記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080303 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110426 |