JP2002323900A - ロボット装置、プログラム及び記録媒体 - Google Patents

ロボット装置、プログラム及び記録媒体

Info

Publication number
JP2002323900A
JP2002323900A JP2001126473A JP2001126473A JP2002323900A JP 2002323900 A JP2002323900 A JP 2002323900A JP 2001126473 A JP2001126473 A JP 2001126473A JP 2001126473 A JP2001126473 A JP 2001126473A JP 2002323900 A JP2002323900 A JP 2002323900A
Authority
JP
Japan
Prior art keywords
unit
noise
motor
sound
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001126473A
Other languages
English (en)
Inventor
Katsuki Minamino
活樹 南野
Kenta Kawamoto
献太 河本
Kotaro Sabe
浩太郎 佐部
Atsuo Hiroe
厚夫 廣江
Takeshi Ohashi
武史 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001126473A priority Critical patent/JP2002323900A/ja
Publication of JP2002323900A publication Critical patent/JP2002323900A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 ロボットのモータやギアの回転時に発生する
雑音による影響を抑えて音声認識の精度を高める。 【解決手段】 ロボットの頭部ユニット3に設けられた
マイクロホン9からの音データに基づき音声認識を行う
際に、ロボットに設けられたモータ等の回転速度や回転
角度、及びマイクロホン9の位置Aとモータ位置Bとの
距離を用いて、そのモータが回転時に発生する雑音を高
精度に推定し、マイクロホン9で観測される雑音データ
に関する雑音モデルを高精度にモデル化することで、雑
音処理、すなわち雑音の除去や、音響モデルや言語モデ
ルの適応等を高精度に行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識機能を有
するロボット装置、プログラム及び記録媒体に関し、特
に、ロボットが動作時に自ら雑音を発生する環境下にお
いても認識精度の高い音声認識が行えるようなロボット
装置、プログラム及び記録媒体に関する。
【0002】
【従来の技術】ユーザ(使用者)あるいはオーナ(所有
者、飼い主)からの指令や周囲の環境に応じて動作する
ロボット装置が知られている。このロボット装置は、マ
イクロホン、カメラ、圧力センサからの入力信号等に応
じて、頭部、脚部等に設けられたモータ等のアクチュエ
ータを駆動することで、頭部や脚部を駆動し、様々な姿
勢制御や、動作を行うものである。
【0003】また、音響モデル、言語モデル等に基づい
て、入力音声に対応する単語系列を決定する音声認識の
技術も知られている。
【0004】これらの音声認識技術やロボット制御技術
等を組み合わせて、音声認識の結果をロボットの動作の
制御に反映させるシステムも実現されている。このよう
なシステム一例としては、荷物の仕分けにおいて、音声
認識を利用して荷物の振り分け先を変更するシステムが
ある。また、産業用ロボットの他、擬似ペットとして
の、エンタテインメント用のロボットにおいても、音声
認識結果に基づいて、各種の行動を起こすものが知られ
ている。
【0005】
【発明が解決しようとする課題】ところで、音声認識機
能部をロボットに搭載した場合に、ロボットが自ら発生
する雑音が音声認識の認識性能を劣化させる、という問
題が発生する。特に、ロボットが頭部や脚部等を動かす
際に発生するモータやギアの動作音は、ロボットのマイ
ク等の集音手段までの距離が近いと非常に大きな雑音と
なるため、これが入力音声信号に重畳されると、音声認
識率を大幅に低下させることになる。
【0006】本発明は、上述の実情に鑑みて提案された
ものであり、モータやギアの動作音による雑音の影響を
低減して音声認識率の低下を防止できるようなロボット
装置、プログラム及び記録媒体を提供することを目的す
る。
【0007】
【課題を解決するための手段】上述の課題を解決するた
めに、本発明に係るロボット装置は、連結部を介して連
結された各部を動かすための駆動手段と、周囲の音信号
を集音する集音手段と、上記集音手段からの音声信号を
認識する音声認識手段とを有し、上記音声認識手段は、
上記駆動手段の動作により発生する雑音に基づいて雑音
処理を行うことを特徴とする。
【0008】ここで、上記雑音処理は、上記駆動手段の
動作速度、動作状態、及び該駆動手段と上記集音手段と
の距離に基づいて行うことが挙げられる。また、上記駆
動手段はモータ、ギアを有し、上記雑音処理は、これら
のモータやギアの回転速度、回転角度、及び各モータや
ギアと上記集音手段との距離に基づいて行うことが挙げ
られる。
【0009】また、本発明に係るプログラムは、上述の
課題を解決するために、連結部を介して連結された各部
を動かすための駆動手段と、周囲の音信号を集音する集
音手段と、上記集音手段からの音声信号を認識する音声
認識手段とを有するロボット装置における音声認識処理
のプログラムであって、上記音声認識処理は、上記駆動
手段の動作により発生する雑音に基づいて雑音処理を行
うことを特徴とする。
【0010】さらに、本発明に係る記録媒体は、上述の
課題を解決するために、連結部を介して連結された各部
を動かすための駆動手段と、周囲の音信号を集音する集
音手段と、上記集音手段からの音声信号を認識する音声
認識手段とを有するロボット装置における音声認識処理
のプログラムが記録される記録媒体であって、上記音声
認識処理は、上記駆動手段の動作により発生する雑音に
基づいて雑音処理を行うことを特徴とする。
【0011】
【発明の実施の形態】以下、本発明に係るロボット装置
の実施の形態について、図面を参照しながら詳細に説明
する。この実施の形態は、本発明を、脚部或いは腕部等
の動作部を有するロボット装置に適用したものである。
ロボット装置としては、例えば、図1に示すような4足
歩行の動物型ロボット装置や、二足歩行の人間型ロボッ
ト装置等が挙げられる。
【0012】図1は、本発明の実施の形態としてのロボ
ット装置の外観構成を示す斜視図である。この図1に示
す具体例のロボット装置は、例えば「犬」を模した形状
のいわゆるペットロボットとされ、胴体部ユニット2に
は、その前部に頭部ユニット3が取り付けられ、また、
胴体部ユニット2の前後左右には、それぞれ大腿部ユニ
ット4A〜4D、及び脛部ユニット5A〜5Dからなる
脚部ユニット6A〜6Dが取り付けられている。さら
に、胴体部ユニット2の後端部には、尻尾部ユニット1
5が取り付けられている。
【0013】胴体部ユニット2と、頭部ユニット3、大
腿部ユニット4A〜4D及び尻尾部ユニット15との各
連結部分、各大腿部ユニット4A〜4Dと、それぞれ対
応する脛部ユニット5A〜5Dとの各連結部分等には、
図2に示すように、アクチュエータとしてのモータ(例
えばサーボモータ)7〜7が取り付けられており、
これらの対応するモータ7〜7を駆動することによ
って、頭部ユニット3及び尻尾部ユニット15を、x
軸、y軸、z軸の3軸それぞれを中心とする方向に自在
に回転させ、大腿部ユニット4A〜4Dを、x軸、y軸
の2軸それぞれを中心とする方向に自在に回転させ、か
つ脛部ユニット5A〜5Dを、y軸の1軸を中心とする
方向に自在に回転させ得るようになっており、これによ
り、ロボットは、各種の行動を行うことができるように
なっている。
【0014】頭部ユニット3には、使用者(ユーザ、オ
ーナ)を含む外部の状況の画像を撮像するためのCCD
(Charge Coupled Device)カメラ8と、使用者の音声
を含む外部音を集音するためのマイクロホン(マイク)
9と、使用者からの「撫でる」や「叩く」といった物理
的な働きかけにより受けた圧力を検出するためのタッチ
センサあるいは圧力センサ10とがそれぞれ所定位置に
取り付けられており、また、胴体部ユニット2内には、
制御部11が内蔵されている。この他、前方に位置する
物体までの距離を測定するための距離センサや、鳴き声
等の音声を出力するためのスピーカや、ロボット装置1
の「目」に相当するLED(Light Emitting Diode)
(いずれも図示せず)等が必要に応じてそれぞれ所定位
置に配置されている。
【0015】カメラ8により撮像された周囲の状況の画
像信号や、マイクロホン9により集音された周囲の音信
号、圧力センサ10により検出された使用者からの上記
物理的な働きかけに応じた圧力検出信号は、それぞれ画
像データ、音データ、圧力検出データとして、制御部1
1に送られる。
【0016】ロボットの各関節機構等となる上記各連結
部分に対応するモータ7〜7については、それぞれ
に対応させてモータの回転軸の回転角度測定器12
12 及びモータの回転軸の回転速度測定器13〜1
が設けられており、対応するモータの回転軸の回転
角度、回転速度が検出される。検出された回転角度、回
転速度の検出データは、制御部11に送られる。
【0017】制御部11は、カメラ8からの画像データ
と、マイクロホン9からの音データと、圧力センサ10
からの圧力検出データと、各モータ7〜7の回転角
度測定器12〜12からの回転角度検出データ及び
回転速度測定器13〜13 からの回転速度検出デー
タとに基づいて、周囲の状況や、自分の姿勢等を判断す
ると共に、予めインストールされている制御プログラム
に基づいて、続く行動を決定し、その決定結果に基づい
て、必要なモータ7〜7を駆動させるようにしてい
る。
【0018】これにより、ロボットは、頭部ユニット3
や、尻尾部ユニット15、各脚部ユニット6A〜6Dを
動かして所望の状態にし、自律的に行動する。
【0019】次に、図3は、図2の制御部11の構成例
を示している。
【0020】制御部11は、CPU(Central Processi
ng Unit)20、プログラムメモリ21、RAM(Rando
m Access Memory)22、不揮発性メモリ23、インタ
ーフェース回路(I/F)24、及びモータドライバ2
5が、バス26を介して接続されている。
【0021】CPU20は、プログラムメモリ21に記
憶されている制御プログラムを実行することにより、ロ
ボットの行動を制御する。プログラムメモリ21は、例
えばEEPROM(Electrically Erasable Read Only
Memory)等で構成され、CPU20が実行する制御プロ
グラムや必要なデータを記憶している。RAM22は、
CPU20の動作上必要なデータ等を一時的に記憶す
る。不揮発性メモリ23は、後述するような行動モデ
ル、音響モデル、言語モデル等のような、電源がオフ状
態とされた後も保持する必要のあるデータを記憶する。
インターフェース回路(I/F)24は、カメラ8、マ
イクロホン9、圧力センサ10、モータの回転角度測定
器12〜12及び回転速度測定器13〜13
らそれぞれ供給されるデータを受信し、CPU20に供
給する。
【0022】制御部11は、CPU20において、プロ
グラムメモリ21に記憶された制御プログラムが実行さ
れることにより、ロボットの行動を制御する。
【0023】次に、図4は、制御部11の機能的な構成
例を示している。センサ入力処理部30は、外部から与
えられる刺激や、外部の状態を、マイクロホン9や、カ
メラ8、圧力センサ10等からの出力に基づいて認識
し、行動決定部31に供給するものである。行動決定部
31は、行動モデル記憶部32を内蔵しており、この記
憶内容や、センサ入力処理部30の出力、時間の経過等
に基づいて、その後にロボットが行う行動を決定し、そ
の情報(以下、行動情報という。)を、姿勢遷移部33
に供給する。
【0024】姿勢制御部33は、行動決定部31から供
給される行動情報に対応する行動をロボットに行わせる
ためのモータ7〜7の回転角度や回転速度等の制御
データを演算し、モータ制御部34に出力する。
【0025】以上のように構成される制御部11では、
センサ入力処理部30において、カメラ8から供給され
る画像データや、マイクロホン9から供給される音声デ
ータ、圧力センサ10から出力される圧力検出データ等
に基づいて、特定の外部状態や、使用者からの働きか
け、使用者からの指示等が認識され、その認識結果が行
動決定部31に出力される。
【0026】すなわち、センサ入力処理部30は、カメ
ラ8が出力する画像データに基づいて画像認識を行い、
例えば、「ボールがある」とか、「壁がある」といった
ことを認識して、その認識結果を行動決定部31に供給
する。また、センサ入力処理部30は、マイクロホン9
が出力する音声データに基づいて音声認識を行い、例え
ば、「ボールを蹴れ」とか、「止まれ」といった使用者
の声を認識し、その音声認識結果を行動決定部31に供
給する。さらに、センサ入力処理部30は、圧力センサ
10からの圧力検出データを処理し、例えば、所定の閾
値以上で、かつ短時間の圧力を検出したときには「叩か
れた」と認識し、また、所定の閾値未満で、かつ長時間
の圧力を検出したときには「撫でられた」と認識して、
その認識結果を行動決定部31に供給する。
【0027】行動決定部31は、ロボットの行動を規定
する行動モデルを行動モデル記憶部32として有してい
る。この行動モデルとは、例えば図5に示すような確率
オートマトンで構成される。この図5に示す確率オート
マトンでは、行動は、ノード(状態)N 〜N で表
現され、行動の遷移は、ある行動に対応するノードN
から、他の行動(同一の行動である場合もある)に対
応するノードN への遷移を表すアークAabで表現
される。各ノード間の遷移を表すアークAabには、対
応する遷移確率Pabが設定されており、また、各ノー
ドN (i=1,2,・・・,a,b,・・・,m)
には、そのノードに対応する行動が生起する生起確率P
が設定されている。そして、行動モデルでは、ある
行動の次に、どのような行動をとるかは、アークに設定
されている遷移確率と、ノードに設定されている行動の
生起確率とから決定される。
【0028】図4の行動決定部31は、上述したような
行動モデルの、現在の行動(以下、現在行動という。)
に対応するノードからどのノードに遷移するかを、現在
行動に対応するノードから延びるアークに設定されてい
る遷移確率、及びそのアークによって示される遷移先の
ノードに設定されている行動の生起確率、センサ入力処
理部30が出力する外部の認識結果、及び時間の経過に
基づいて決定し、遷移後のノードに対応する行動(以
下、遷移行動という。)を表す行動情報を、姿勢遷移部
33に供給する。また、行動決定部31は、モータ7
〜7の回転角度測定器12〜12及び回転速度測
定器13〜13から供給されるデータに基づき、現
在のロボットの姿勢を認識し、その姿勢から、自然な形
で遷移行動を起こすことができるような行動情報を、姿
勢遷移部33に出力するものである。
【0029】姿勢遷移部33は、行動決定部31から供
給される行動情報に基づいて、現在の姿勢から次の姿勢
に遷移するための姿勢遷移情報を生成し、モータ制御部
34に出力する。すなわち、姿勢遷移部33は、行動決
定部31を介して、モータ7 〜7の回転角度測定器
12〜12及び回転速度測定器13〜13から
供給されるデータに基づいて現在の姿勢を認識し、行動
決定部31からの行動情報に対応する行動(遷移行動)
を、ロボットにとらせるためのモータ7〜7 の回転
角度や回転速度を計算し、姿勢遷移情報として、モータ
制御部34に出力する。
【0030】モータ制御部34は、姿勢遷移部33から
の姿勢遷移情報に基づいて、モータ7〜7を駆動す
るための駆動信号を生成し、モータ7〜7に供給す
る。これにより、モータ7〜7は回転駆動され、ロ
ボットは遷移行動を行う。
【0031】次に、図6は、上記図4のセンサ入力処理
部30の内、上記図1のマイクロホン9からの音データ
SDを用いて音声認識を行う部分(以下、音声認識装置
という。)の機能的構成例を示している。
【0032】この図6に示す音声認識装置は、音声区間
検出部40、雑音処理部41、音響分析部42、認識部
43、音響モデル44及び言語モデル45を有し、さら
に、雑音モデル46を有して構成されている。先ず、上
記マイクロホン9から入力された音データSDは、音声
区間検出部40に送られ、音声部分のデータが抽出され
る。これは、例えば、入力音データSDのパワーが閾値
以上になれば音声部分、閾値以下であれば無音声部分と
して判別され、音声部分を含むデータを音声データとし
て抽出する。そして、音声区間検出部40で抽出された
音声区間情報が、上記マイクロホン9から入力される音
データSDと共に、雑音処理部41に供給される。
【0033】雑音処理部41は、音データに対して雑音
処理を施す。雑音処理としては、例えば、ローパスフィ
ルタのような低周波数の雑音成分を除去する処理や、ス
ペクトラルサブトラクションと称される雑音除去処理が
行われる。スペクトラルサブトラクションとは、予め雑
音のスペクトルの推定値を求め、これを雑音モデル46
として記憶し、この雑音モデル46に記憶された雑音の
推定スペクトルを、マイクロホン9から入力される音デ
ータを分析して得られるスペクトルから引き去ることに
よって行われる雑音処理方法である。スペクトラルサブ
トラクションにローパスフィルタが用いられる場合に
は、フィルタのパラメータが雑音モデル46として記憶
される。そして、マイクロホン9から入力された音デー
タSDは、雑音処理部41で雑音処理を施された後、音
響分析部42に送られる。
【0034】音響分析部42では、認識に必要な特徴量
の抽出が微小時間間隔で行われる。例えば、信号のエネ
ルギ、零交差数、ピッチ、周波数特性、及びこれらの変
化量等が抽出される。周波数分析には、線形予測分析
(LPC)、高速フーリエ変換(FFT)、バンドパス
フィルタ(BPF)等が用いられる。そして、この特徴
量系列が認識部43に送られる。
【0035】認識部43では、音響モデル44と言語モ
デル45とを用いて、音響分析部42から送られてくる
特徴量系列に対応する単語系列の決定が行われ、その認
識結果が出力される。認識手法としては、例えばHMM
(Hidden Markov Model:隠れマルコフモデル)等が用い
られる。
【0036】HMMとは、状態遷移確率と出力確率密度
関数を持つ状態遷移モデルのことで、状態を遷移しなが
ら特徴量系列を出力する確率値を累積していくことによ
って尤度を決定し、その値がスコアとして使われる。H
MMの遷移確率・出力確率密度関数等は、学習用のデー
タを用いて、予め学習過程において決定がなされる。
【0037】音響モデルは、音素、音節、単語、フレー
ズ、文等、種々のレベルでモデル化することが可能であ
る。例えば、日本語の仮名、「あ」、「い」、「う」、
「え」、「お」、「か」、「き」、・・・、「ん」を単
位とする音響モデルを用いる場合、これを組み合わせる
ことで、「はい」、「いいえ」、「おはよう」、「いま
なんじですか」等、種々の言葉を構成することが可能に
なる。そして、それらの言葉に対して、入力される特徴
量系列との類似度を表すスコアの計算を行うことが可能
となる。ここで、音響モデルを接続するための情報とし
て、言語モデル45が使用される。言語モデルには、大
きく分けて、辞書と文法との2つがある。辞書とは、認
識対象となる各単語を構成するために、音響モデルをど
のように接続するかを与えるものである。文法とは、単
語と単語をどのように接続するかを与えるものである。
【0038】例えば、「(数字)時から(数字)時ま
で」という文を扱いたい場合、先ず、「0(ゼロ)」、
「1(いち)」、・・・、「24(にじゅうよん)」と
いう数字と、「時(じ)」「から」、「まで」という語
に関して、それぞれ読み仮名を含めて辞書として持つこ
とで、仮名を単位とする音響モデルの接続関係を与え
る。次に、「(数字)」+「時」+「から」+「(数
字)」+「時」+「まで」というルールを文法として持
つことで、単語の接続関係を与える。これらの辞書と文
法とを組み合わせることによって、「1時から2時ま
で」や「2時から5時まで」等、それぞれの文と入力さ
れる特徴量系列との類似度が計算できることになり、そ
の中で最もスコアの高いものを認識結果として出力する
ことが可能になるわけである。具体的には、接続された
単語列に対応するHMMを構成し、特徴量系列に従っ
て、HMMの状態遷移確率と出力確率密度関数を累積し
ていくことで、その累積値であるスコアが認識部43で
計算される。そして、そのスコアが最も高くなる単語系
列が、音声認識結果として認識部43より出力される。
認識部43による音声認識結果は、センサ入力処理部3
0の出力として、上記図4の行動決定部31に送られ
る。
【0039】ここで、上述した音声認識処理におけるス
コアの計算は、音響モデル44によって与えられる音響
的なスコアと、言語モデル45によって与えられる言語
的なスコアとを総合評価することで行われる場合もあ
る。言語的なスコアとは、例えば、バイグラム等の単語
と単語の遷移確率に基づいて与えられるスコアである。
【0040】雑音処理部41で行う雑音処理としては、
上述したような音データから雑音を除去する方法以外
に、例えば、音響モデル44を雑音に適応させる方法等
も用いられる。この音響モデルを雑音に適応させる方法
としては、PMC(parallel model combination)等が
ある。これは、静かな環境で発声した音声信号から学習
した音響モデル44と、雑音信号をモデル化した雑音モ
デル46とを結合することで、雑音に強い新たな音響モ
デルを合成する手法である。この場合、雑音処理部41
は、観測される雑音信号によって雑音モデル46を更新
し、さらに、その更新した雑音モデル46と音響モデル
44とを結合することで音響モデルの適応を行う。さら
にまた、雑音処理としては、言語モデル45を雑音に適
応させる方法も用いられる。言語モデルの適応として
は、辞書に含まれる音響モデルの接続関係(以下、発音
情報という。)を、雑音を考慮したものに適応する方法
や、雑音の大きな時には語彙数を減らしたり文法の複雑
さを簡単なものにする等して、受け付ける単語系列に制
限をかける方法等がある。
【0041】雑音処理部41で行われる雑音処理は、雑
音信号を推定する精度、あるいは雑音をモデル化する精
度が、その雑音対策手法の性能を大きく左右する。
【0042】雑音の推定方法としては、入力信号中の音
声が含まれない部分、例えば、入力音声信号の直前の無
音声部分等を用いて、雑音信号の周波数特性を推定する
方法等が広く行われている。しかしながら、この方法で
は、実際に音声部分に重畳されている雑音信号の周波数
特性や音の大きさが、推定値とずれることにで、推定誤
差が発生するという問題がある。
【0043】次に、ロボットが発生する雑音、特に、ロ
ボットが頭部、脚部等を動かす際に発生するモータの回
転音や、ギアの回転音について考える。例えば、図7に
示される姿勢から図8に示される姿勢に、すなわち、脚
部6Bをxz平面上で図7の状態から図8の状態に変化
させる場合、大腿部ユニット4Bは位置Bのy軸を中心
として回転させ、脛部ユニット5Bも位置Cのy軸を中
心として回転させることになる。このとき発生する雑音
は、それぞれのユニットを回転させる角度、回転させる
速度に応じて、その雑音特性が異なったものとなる。こ
れは、大腿部ユニット4B及び脛部ユニット5Bを回転
させる際の、モータの回転速度や回転角に応じて雑音の
特性が変化することに加えて、マイクロホン9とモータ
の位置関係が変化することに起因する。雑音特性が変化
するとは、具体的には、周波数特性が変化したり、雑音
の大きさ(パワー)が変化することである。
【0044】ところで、ロボットの行う動作は、制御部
11から送られるモータの駆動信号に基づいて行われ
る。すなわち、制御部で決定される遷移行動がモータの
回転速度を決定することになるので、自ら行う動作に関
しては、その動作と対応するモータの回転速度を予め推
定しておくことが可能となる。あるいはまた、モータに
取り付けられた回転角度測定器12〜12と回転速
度測定器13〜13において、リアルタイムにモー
タの回転角度や回転速度を計測することも可能である。
その結果、大腿部ユニット4B及び脛部ユニット5Bの
回転角度に基づいて、雑音発生源であるモータとマイク
ロホン9との距離を計算することも可能となる。例え
ば、図7、図8の例において、マイクロホン位置をA、
大腿部ユニット4Bに取り付けられたモータの位置を
B、脛部ユニットに取り付けられたモータの位置をCと
すると、頭部を動かさない場合、マイクロホン位置Aと
モータ位置Bとの距離ABは、図7、図8で一定であ
り、これは頭部ユニット3におけるマイクロホン9の設
定位置A、頭部ユニット3と胴体部ユニット2の接続位
置、及び、胴体部ユニット2における大腿部4Bに取り
付けられたモータの設定位置Bから、一意に決定され
る。マイクロホン位置Aとモータ位置Cとの距離AC
は、図7,図8で異なるが、この距離ACも、距離A
B、距離BC、及びABとBCとのなす角度Qの3つの
値から、 AC=(AB+BC−2AB×BC×cosQ)
1/2 を計算することで求めることができる。
【0045】この例では、xz平面での簡単な動作を例
として説明したが、xyz空間で行う全ての動作に関し
ても、同様に、全てのモータ7〜7の回転速度、及
び各モータとマイクロホンとの距離を求めることが可能
である。
【0046】そこで、モータ7〜7の回転速度、及
びモータ7〜7とマイクロホン9との距離を用いる
ことで、雑音の推定精度を向上させる方法を考える。
【0047】例えば、モータの回転速度が分かれば、そ
の回転速度から、モータの回転音の周波数特性を推定す
ることが可能である。具体的な推定方法としては、各モ
ータが発生する回転音に関して、様々な回転速度に応じ
て発生する回転音を、マイクロホンからの距離を一定に
した状態で実際に集音し、その集音された音データを、
雑音データとして、図9に示すように記憶しておく。こ
の図9の例では、モータ7〜7の回転速度を、0〜
a、a〜b、b〜c、c〜dに区分し、それぞれの回転
速度範囲における雑音データをテーブルとして記憶して
いる。そして、音声認識時に用いる雑音モデルとして
は、実際にモータを駆動する際の各モータの回転速度に
基づいて、対応する回転速度範囲の雑音データをモータ
毎に選択し、さらに、マイクロホンとモータの距離に基
づいて、各雑音データの大きさ(ゲイン)を調整した
後、それぞれを足し合わせることで、これを雑音信号の
推定値とする。そして、この推定雑音信号から、雑音モ
デル46の更新を行い、これを用いて雑音処理を施す。
【0048】あるいは、各モータの回転速度に応じた雑
音信号だけでなく、各モータの回転速度及びモータとマ
イクロホンとの距離に応じて、雑音データを記憶してお
く方法も考えられる。また、モータの回転角度に応じ
て、雑音データを記憶しておくことも挙げられる。
【0049】さらにまた、頭部を回転させる、頭部を傾
ける、脚部を駆動して歩行する、尻尾を振る、頭部を傾
けると同時に右前脚部を持ち上げる等、様々な遷移行動
で行われるモータ駆動の雑音データを、それぞれの動作
に応じて、予め集音し、記憶しておくことで、各動作に
応じた雑音モデルの推定精度を向上させることも可能で
ある。
【0050】なお、本実施の形態では、モータの発する
回転音に関して説明を行ったが、頭部、脚部を駆動する
際に、モータとギアを組み合わせて駆動を行うロボット
の場合、ギアの回転時にも雑音が発生する。この雑音に
関しても、本実施の形態で説明したような、モータの場
合と同様に、ギアの回転速度、ギアの回転角度、マイク
ロホンとギアの距離に基づいて、そのギアが発生する雑
音を高精度に推定し、対応する雑音モデルを高精度に求
めることが可能である。
【0051】ところで、上述した本発明の実施の形態に
おいては、本発明を「犬」等の動物を模した形状で四足
歩行タイプのいわゆるペット型ロボットに適用した例に
ついて説明したが、本発明はこれに限定されず、例え
ば、人間型等の二足歩行タイプのロボットにも適用可能
である。
【0052】以下、本発明を適用可能な人間型ロボット
装置について説明する。図10及び図11には、人間型
ロボット装置200の前方及び後方の各々から眺望した
外観を示している。さらに、図12には、この人間型ロ
ボット装置200が具備する関節自由度構成を模式的に
示している。
【0053】図12に示すように、人間型ロボット装置
200は、2本の腕部と頭部201を含む上肢と、移動
動作を実現する2本の脚部からなる下肢と、上肢と下肢
とを連結する体幹部とで構成される。
【0054】頭部201を支持する首関節は、首関節ヨ
ー軸202と、首関節ピッチ軸203と、首関節ロール
軸204という3自由度を有している。
【0055】また、各関節は、肩関節ピッチ軸208
と、肩関節ロール軸209と、上腕ヨー軸210と、肘
関節ピッチ軸211と、前腕ヨー軸212と、手首関節
ピッチ軸213と、手首関節ロール輪214と、手部2
15とで構成される。手部215は、実際には、複数本
の指を含む多関節・多自由度構造体である。ただし、手
部215の動作は人間型ロボット装置200の姿勢制御
や歩行制御に対する寄与や影響が少ないので、本明細書
ではゼロ自由度と仮定する。したがって、各腕部は7自
由度を有するとする。
【0056】また、体幹部は、体幹ピッチ軸205と、
体幹ロール軸206と、体幹ヨー軸207という3自由
度を有する。
【0057】また、下肢を構成する各々の脚部は、股関
節ヨー軸216と、股関節ピッチ軸217と、股関節ロ
ール軸218と、膝関節ピッチ軸219と、足首関節ピ
ッチ軸220と、足首関節ロール軸221と、足部22
2とで構成される。本明細書中では、股関節ピッチ軸2
17と股関節ロール軸218の交点は、人間型ロボット
装置200の股関節位置を定義する。人体の足部222
は実際には多関節・多自由度の足底を含んだ構造体であ
るが、人間型ロボット装置200の足底はゼロ自由度と
する。したがって、各脚部は6自由度で構成される。
【0058】以上を総括すれば、人間型ロボット装置2
00全体としては、合計で3+7×2+3+6×2=3
2自由度を有することになる。但し、エンターテインメ
ント向けの人間型ロボット装置200が必ずしも32自
由度に限定される訳ではない。
【0059】上述したような人間型ロボット装置200
が持つ各自由度は、実際にはアクチュエータを用いて実
装される。外観上で余分な膨らみを排してヒトの自然体
形状に近似させること、2足歩行という不安定構造体に
対して姿勢制御を行うことなどの要請から、アクチュエ
ータは小型且つ軽量であることが好ましい。
【0060】図13には、人間型ロボット装置200の
制御システム構成を模式的に示している。同図に示すよ
うに、人間型ロボット装置200は、ヒトの四肢を表現
した各機構ユニット230,240,250R/L,2
60R/Lと、各機構ユニット間の協調動作を実現する
ための適応制御を行う制御ユニット280とで構成され
る(但し、R及びLの各々は、右及び左の各々を示す接
尾辞である。以下同様)。
【0061】人間型ロボット装置200全体の動作は、
制御ユニット280によって統括的に制御される。制御
ユニット280は、CPU(Central Processing Uni
t)やメモリ等の主要回路コンポーネント(図示しな
い)で構成される主制御部281と、電源回路や人間型
ロボット装置200の各構成要素とのデータやコマンド
の授受を行うインターフェース(いずれも図示しない)
などを含んだ周辺回路282とで構成される。
【0062】この制御ユニット280の設置場所は特に
限定されない。図13では体幹部ユニット240に搭載
されているが、頭部ユニット230に搭載してもよい。
或いは、人間型ロボット装置200外に制御ユニット2
80を配備して、人間型ロボット装置200の機体とは
有線若しくは無線で交信するようにしてもよい。
【0063】図12に示した人間型ロボット装置200
内の各関節自由度は、それぞれに対応する図13のアク
チュエータによって実現される。すなわち、頭部ユニッ
ト230には、首関節ヨー軸202、首関節ピッチ軸2
03、首関節ロール軸204の各々を表現する首関節ヨ
ー軸アクチュエータA、首関節ピッチ軸アクチュエー
タA、首関節ロール軸アクチュエータAが配設され
ている。
【0064】また、体幹部ユニット240には、体幹ピ
ッチ軸205、体幹ロール軸206、体幹ヨー軸207
の各々を表現する体幹ピッチ軸アクチュエータA、体
幹ロール軸アクチュエータA、体幹ヨー軸アクチュエ
ータAが配設されている。
【0065】また、腕部ユニット250R/Lは、上腕
ユニット251R/Lと、肘関節ユニット252R/L
と、前腕ユニット253R/Lに細分化されるが、肩関
節ピッチ軸208、肩関節ロール軸209、上腕ヨー軸
210、肘関節ピッチ軸211、前腕ヨー軸212、手
首関節ピッチ軸213、手首関節ロール軸214の各々
表現する肩関節ピッチ軸アクチュエータA、肩関節ロ
ール軸アクチュエータA、上腕ヨー軸アクチュエータ
10、肘関節ピッチ軸アクチュエータA11、前腕ヨ
ー軸アクチュエータA12、手首関節ピッチ軸アクチュ
エータA13、手首関節ロール軸アクチュエータA14
が配備されている。
【0066】また、脚部ユニット260R/Lは、大腿
部ユニット261R/Lと、膝関節ユニット262R/
Lと、足首ユニット263R/Lに細分化されるが、股
関節ヨー軸216、股関節ピッチ軸217、股関節ロー
ル軸218、膝関節ピッチ軸219、足首関節ピッチ軸
220、足首関節ロール軸221の各々を表現する股関
節ヨー軸アクチュエータA16、股関節ピッチ軸アクチ
ュエータA17、股関節ロール軸アクチュエータ
18、膝関節ピッチ軸アクチュエータA19、足首関
節ピッチ軸アクチュエータA20、足首関節ロール軸ア
クチュエータA21が配備されている。
【0067】頭部ユニット230、体幹部ユニット24
0、腕部ユニット250、各脚部ユニット260などの
各機構ユニット毎に、アクチュエータ駆動制御部の副制
御部2235,245,255,265が配備されてい
る。さらに、各脚部260R,Lの足底が着床したか否
かを検出する接地確認センサ291及び292を装着す
るとともに、体幹部ユニット240内には、姿勢を計測
する姿勢センサ293を装備している。
【0068】接地確認センサ291及び292は、例え
ば足底に設置された近接センサ又はマイクロ・スイッチ
などで構成される。また、姿勢センサ293は、例え
ば、加速度センサとジャイロ・センサの組み合わせによ
って構成される。
【0069】接地確認センサ291及び292の出力に
よって、歩行・走行などの動作期間中において、左右の
各脚部が現在立脚又は遊脚いずれの状態であるかを判別
ずることができる。また、姿勢センサ293の出力によ
り、体幹部分の傾きや姿勢を検出することができる。
【0070】制御ユニット280の主制御部281は、
各センサ291〜293の出力に応答して制御目標をダ
イナミックに補正することができる。より具体的には、
副制御部235,245,255,265の各々に対し
て適応的な制御を行い、人間型ロボット装置200の上
肢、体幹、及び下肢が協調して駆動する全身運動パター
ンを実現することができる。
【0071】人間型ロボット装置200の機体上での全
身運動は、足部運動、ZMP(ZeroMoment Point)軌
道、体幹運動、上肢運動、腰部高さなどを設定するとと
もに、これらの設定内容に従った動作を指示するコマン
ドを各副制御部235,245,255,265に転送
する。そして、各々の副制御部235,245,・・・
等では、主制御部281からの受信コマンドを解釈し
て、各アクチュエータA ,A・・・等に対して駆動
制御信号を出力する。ここで言う「ZMP」とは、歩行
中の床反力によるモーメントがゼロとなる床面上の点の
ことであり、また、「ZMP軌道」とは、例えば人間型
ロボット装置200の歩行動作期間中にZMPが動く軌
跡を意味する。
【0072】歩行時には、重力と歩行運動に伴って生じ
る加速度によって、歩行系から路面には重力と慣性力、
並びにこれらのモーメントが作用する。いわゆる「ダラ
ンベールの原理」によると、それらは路面から歩行系へ
の反作用としての床反力、床反力モーメントとバランス
する。力学的推論の帰結として、足底接地点と路面の形
成する支持多角形の辺上或いはその内側にピッチ及びロ
ール軸モーメントがゼロとなる点、すなわち「ZMP
(Zero Moment Point)」が存在する。
【0073】脚式移動ロボットの姿勢安定制御や歩行時
の転倒防止に関する提案の多くは、このZMPを歩行の
安定度判別の規範として用いたものである。ZMP規範
に基づく2足歩行パターン生成は、足底着地点を予め設
定することができ、路面形状に応じた足先の運動学的拘
束条件を考慮し易いなどの利点がある。また、ZMPを
安定度判別規範とすることは、力ではなく軌道を運動制
御上の目標値として扱うことを意味するので、技術的に
実現可能性が高まる。なお、ZMPの概念並びにZMP
を歩行ロボットの安定度判別規範に適用する点について
は、Miomir Vukobratovic著“LEGGED LOCOMOTION ROBOT
S”(加藤一郎外著『歩行ロボットと人工の足』(日刊
工業新聞社))に記載されている。
【0074】一般には、4足歩行よりもヒューマノイド
のような2足歩行のロボットの方が、重心位置が高く、
且つ、歩行時のZMP安定領域が狭い。したがって、こ
のような路面状態の変化に伴う姿勢変動の問題は、2足
歩行ロボットにおいてとりわけ重要となる。
【0075】以上のように、人間型ロボット装置200
は、各々の副制御部235,245,・・・等が、主制
御部281からの受信コマンドを解釈して、各アクチュ
エータA,A,・・・に対して駆動制御信号を出力
し、各ユニットの駆動を制御している。これにより、人
間型ロボット装置200は、安定した姿勢で歩行するこ
とが可能とされている。
【0076】このような人間型ロボット装置200につ
いても、頭部等にマイクロホン等の集音手段を設け、上
述したような音声認識を行わせることができ、この音声
認識における雑音処理を、モータ等の各アクチュエータ
,A,・・・やギア等の回転速度、回転角度、及
びマイクロホンとの距離に応じて雑音処理を行わせるこ
とができる。
【0077】すなわち、ロボットに搭載した音声認識の
ための雑音処理として、モータやギアの回転角度や回転
速度、及びマイクロホンとの距離を利用することで、そ
のモータやギアが回転時に発生する雑音を高精度に推定
し、マイクロホンで観測される雑音データに関する雑音
モデルを高精度にモデル化することで、雑音処理、すな
わち雑音の除去や、音響モデルや言語モデルの適応等を
高精度に行うことが可能となる。その結果、これらの雑
音が、マイクロホンで観測される入力音声信号に重畳さ
れた場合でも、その認識性能の低下を防ぐことが可能と
なる。
【0078】なお、本発明は上述した本発明の実施の形
態に限定されるものではなく、本発明の要旨を逸脱しな
い範囲で、種々の変更が可能であることは勿論である。
【0079】
【発明の効果】本発明は、連結部を介して連結された各
部を動かすための駆動手段と、周囲の音信号を集音する
集音手段と、上記集音手段からの音声信号を認識する音
声認識手段とを有し、上記音声認識手段は、上記駆動手
段の動作により発生する雑音に基づいて雑音処理を行う
ことにより、雑音の影響を抑制し、音声認識精度を高め
ることができる。
【0080】具体的には、ロボットに搭載した音声認識
のための雑音処理として、モータやギアの回転角度や回
転速度、及びマイクロホンとの距離を利用することで、
そのモータやギアが回転時に発生する雑音を高精度に推
定し、マイクロホンで観測される雑音データに関する雑
音モデルを高精度にモデル化することで、雑音処理、す
なわち雑音の除去や、音響モデルや言語モデルの適応等
を高精度に行うことが可能となる。その結果、これらの
雑音が、マイクロホンで観測される入力音声信号に重畳
された場合でも、その認識性能の低下を防ぐことが可能
となる。
【図面の簡単な説明】
【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
【図2】上述のロボット装置の内部構成の一例を示すブ
ロック図である。
【図3】図2のロボット装置の制御部の構成の一例を示
すブロック図である。
【図4】図3の制御部の機能的な構成を説明するための
ブロック図である。
【図5】ロボットの行動モデルとしての確率オートマト
ンの一例を示す図である。
【図6】音声認識装置の概略構成を示すブロック図であ
る。
【図7】ロボットの動作を説明するための一の姿勢を示
す図である。
【図8】ロボットの動作を説明するための他の姿勢を示
す図である。
【図9】本発明の実施の形態に用いられる雑音モデルを
説明するための図である。
【図10】前方から眺望した人間型ロボット装置の構成
を示す斜視図である。
【図11】後方から眺望した人間型ロボット装置の構成
を示す斜視図である。
【図12】人間型ロボット装置の各動作部の連結状態を
示す図である。
【図13】人間型ロボット装置の駆動系を示す図であ
る。
【符号の説明】
1 ロボット装置、 7〜7 モータ、 9 マイ
クロホン、 11 制御部、 12〜12 回転角
度検出器、 13〜13 回転速度検出器、 40
音声区間検出部、 41 雑音処理部、 42 音響
分析部、 43認識部、 44 音響モデル、 45
言語モデル、 46 雑音モデル
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B25J 13/08 G10L 3/02 301D G10L 15/00 3/00 531P 21/02 551H (72)発明者 佐部 浩太郎 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 廣江 厚夫 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大橋 武史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 AA05 CA01 CA02 DA05 DK01 EF30 3C007 AS00 AS36 BS27 CS08 KS36 KS39 KS40 KT04 KT11 KV06 KV18 WA03 WA04 WA13 WA14 WB02 WB07 WB19 WB22 5D015 EE05 GG05 HH00 KK01

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 連結部を介して連結された各部を動かす
    ための駆動手段と、 周囲の音信号を集音する集音手段と、 上記集音手段からの音声信号を認識する音声認識手段と
    を有し、 上記音声認識手段は、上記駆動手段の動作により発生す
    る雑音に基づいて雑音処理を行うことを特徴とするロボ
    ット装置。
  2. 【請求項2】 上記雑音処理は、上記駆動手段の動作速
    度、動作状態、及び該駆動手段と上記集音手段との距離
    に基づいて行うことを特徴とする請求項1記載のロボッ
    ト装置。
  3. 【請求項3】 上記駆動手段はモータ、ギアを有し、上
    記雑音処理は、これらのモータやギアの回転速度、回転
    角度、及び各モータやギアと上記集音手段との距離に基
    づいて行うことを特徴とする請求項1記載のロボット装
    置。
  4. 【請求項4】 上記雑音処理には、雑音推定処理が含ま
    れることを特徴とする請求項1記載のロボット装置。
  5. 【請求項5】 上記雑音処理とは、上記集音手段を介し
    て入力される音信号から雑音を除去する処理であること
    を特徴とする請求項1記載のロボット装置。
  6. 【請求項6】 上記雑音処理とは、上記音声認識手段に
    おける音響モデルに雑音を適応させる処理であることを
    特徴とする請求項1記載のロボット装置。
  7. 【請求項7】 上記雑音処理とは、上記音声認識手段に
    おける言語モデルに雑音を適応させる処理であることを
    特徴とする請求項1記載のロボット装置。
  8. 【請求項8】 連結部を介して連結された各部を動かす
    ための駆動手段と、周囲の音信号を集音する集音手段
    と、上記集音手段からの音声信号を認識する音声認識手
    段とを有するロボット装置における音声認識処理のプロ
    グラムであって、 上記音声認識処理は、上記駆動手段の動作により発生す
    る雑音に基づいて雑音処理を行うことを特徴とするプロ
    グラム。
  9. 【請求項9】 上記雑音処理は、上記駆動手段の動作速
    度、動作状態、及び該駆動手段と上記集音手段との距離
    に基づいて行うことを特徴とする請求項8記載のプログ
    ラム。
  10. 【請求項10】 連結部を介して連結された各部を動か
    すための駆動手段と、周囲の音信号を集音する集音手段
    と、上記集音手段からの音声信号を認識する音声認識手
    段とを有するロボット装置における音声認識処理のプロ
    グラムが記録される記録媒体であって、 上記音声認識処理は、上記駆動手段の動作により発生す
    る雑音に基づいて雑音処理を行うことを特徴とする記録
    媒体。
  11. 【請求項11】 上記雑音処理は、上記駆動手段の動作
    速度、動作状態、及び該駆動手段と上記集音手段との距
    離に基づいて行うことを特徴とする請求項10記載の記
    録媒体。
JP2001126473A 2001-04-24 2001-04-24 ロボット装置、プログラム及び記録媒体 Pending JP2002323900A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001126473A JP2002323900A (ja) 2001-04-24 2001-04-24 ロボット装置、プログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001126473A JP2002323900A (ja) 2001-04-24 2001-04-24 ロボット装置、プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
JP2002323900A true JP2002323900A (ja) 2002-11-08

Family

ID=18975506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001126473A Pending JP2002323900A (ja) 2001-04-24 2001-04-24 ロボット装置、プログラム及び記録媒体

Country Status (1)

Country Link
JP (1) JP2002323900A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005335001A (ja) * 2004-05-26 2005-12-08 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP2006279757A (ja) * 2005-03-30 2006-10-12 Casio Comput Co Ltd 撮像装置、音声記録方法及びプログラム
JP2008122927A (ja) * 2006-09-13 2008-05-29 Honda Motor Co Ltd モータ雑音下におけるロボット用音声認識方法
JP2012088390A (ja) * 2010-10-15 2012-05-10 Honda Motor Co Ltd 音声認識装置及び音声認識方法
US20180093625A1 (en) 2016-09-30 2018-04-05 Honda Motor Co., Ltd. Mobile unit control device and mobile unit
WO2019087567A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 ロボット装置
JP2020198485A (ja) * 2019-05-31 2020-12-10 コニカミノルタ株式会社 情報処理装置、周囲装置制御方法、およびコンピュータプログラム
US11216655B2 (en) 2019-01-10 2022-01-04 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
CN114913845A (zh) * 2021-02-09 2022-08-16 北京小米移动软件有限公司 语音识别方法、语音识别模型的训练方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214592A (ja) * 1993-01-18 1994-08-05 Nippon Telegr & Teleph Corp <Ntt> 耐雑音音韻モデルの作成方式
JPH07312715A (ja) * 1994-05-17 1995-11-28 Sanyo Electric Co Ltd カメラ一体型記録装置に於けるモータ騒音を低減する方法及び回路
JPH09212192A (ja) * 1996-02-07 1997-08-15 Ricoh Co Ltd 音声認識装置
JPH11205891A (ja) * 1998-01-09 1999-07-30 Victor Co Of Japan Ltd 雑音低減回路及びビデオカメラ装置
JP2001215990A (ja) * 2000-01-31 2001-08-10 Japan Science & Technology Corp ロボット聴覚装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214592A (ja) * 1993-01-18 1994-08-05 Nippon Telegr & Teleph Corp <Ntt> 耐雑音音韻モデルの作成方式
JPH07312715A (ja) * 1994-05-17 1995-11-28 Sanyo Electric Co Ltd カメラ一体型記録装置に於けるモータ騒音を低減する方法及び回路
JPH09212192A (ja) * 1996-02-07 1997-08-15 Ricoh Co Ltd 音声認識装置
JPH11205891A (ja) * 1998-01-09 1999-07-30 Victor Co Of Japan Ltd 雑音低減回路及びビデオカメラ装置
JP2001215990A (ja) * 2000-01-31 2001-08-10 Japan Science & Technology Corp ロボット聴覚装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005335001A (ja) * 2004-05-26 2005-12-08 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP2006279757A (ja) * 2005-03-30 2006-10-12 Casio Comput Co Ltd 撮像装置、音声記録方法及びプログラム
JP4639902B2 (ja) * 2005-03-30 2011-02-23 カシオ計算機株式会社 撮像装置、音声記録方法及びプログラム
JP2008122927A (ja) * 2006-09-13 2008-05-29 Honda Motor Co Ltd モータ雑音下におけるロボット用音声認識方法
JP2012088390A (ja) * 2010-10-15 2012-05-10 Honda Motor Co Ltd 音声認識装置及び音声認識方法
JP2018052425A (ja) * 2016-09-30 2018-04-05 本田技研工業株式会社 移動体制御装置、及び移動体
US20180093625A1 (en) 2016-09-30 2018-04-05 Honda Motor Co., Ltd. Mobile unit control device and mobile unit
CN107878465A (zh) * 2016-09-30 2018-04-06 本田技研工业株式会社 移动体控制装置和移动体
US10569727B2 (en) 2016-09-30 2020-02-25 Honda Motor Co., Ltd. Mobile unit control device and mobile unit
WO2019087567A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 ロボット装置
JPWO2019087567A1 (ja) * 2017-10-31 2020-11-26 ソニー株式会社 ロボット装置
JP7184047B2 (ja) 2017-10-31 2022-12-06 ソニーグループ株式会社 ロボット装置
US11216655B2 (en) 2019-01-10 2022-01-04 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
JP2020198485A (ja) * 2019-05-31 2020-12-10 コニカミノルタ株式会社 情報処理装置、周囲装置制御方法、およびコンピュータプログラム
CN114913845A (zh) * 2021-02-09 2022-08-16 北京小米移动软件有限公司 语音识别方法、语音识别模型的训练方法和装置

Similar Documents

Publication Publication Date Title
US6509707B2 (en) Information processing device, information processing method and storage medium
US7885727B2 (en) Robot apparatus, information processing method and program
JP3714268B2 (ja) ロボット装置
JP2001157976A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
US6980956B1 (en) Machine apparatus and its driving method, and recorded medium
JP3945279B2 (ja) 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP4086024B2 (ja) ロボット装置及びその行動制御方法
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP2001277163A (ja) ロボットの制御装置及び制御方法
JP2005022065A (ja) 音声対話装置及び方法並びにロボット装置
JP4179230B2 (ja) ロボット装置及びその動作制御方法
JP2002323900A (ja) ロボット装置、プログラム及び記録媒体
JP2001154685A (ja) 音声認識装置および音声認識方法、並びに記録媒体
JP2002116792A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
JP2004283927A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4587009B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP4706893B2 (ja) 音声認識装置および方法、並びに、プログラムおよび記録媒体
JP2003255990A (ja) 対話処理装置及び方法並びにロボット装置
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2003044080A (ja) ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体
JP2005335001A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2004286805A (ja) 話者識別装置および話者識別方法、並びにプログラム
JP2001154692A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110426