JP5617083B2 - コマンド認識装置、コマンド認識方法、及びコマンド認識ロボット - Google Patents
コマンド認識装置、コマンド認識方法、及びコマンド認識ロボット Download PDFInfo
- Publication number
- JP5617083B2 JP5617083B2 JP2010197020A JP2010197020A JP5617083B2 JP 5617083 B2 JP5617083 B2 JP 5617083B2 JP 2010197020 A JP2010197020 A JP 2010197020A JP 2010197020 A JP2010197020 A JP 2010197020A JP 5617083 B2 JP5617083 B2 JP 5617083B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- command
- image
- certainty
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 38
- 238000004364 calculation method Methods 0.000 claims description 162
- 238000010191 image analysis Methods 0.000 claims description 38
- 230000008569 process Effects 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 description 71
- 230000009471 action Effects 0.000 description 46
- 230000006399 behavior Effects 0.000 description 41
- 238000011156 evaluation Methods 0.000 description 39
- 230000000007 visual effect Effects 0.000 description 24
- 238000004458 analytical method Methods 0.000 description 14
- 238000012795 verification Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000003542 behavioural effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 241001672694 Citrus reticulata Species 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000000692 Student's t-test Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012353 t test Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/083—Recognition networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Toys (AREA)
- Manipulator (AREA)
Description
例えば、非特許文献1及び2に記載の発明は、ユーザの視線や体の向きがロボットに向けられていることを検出した場合に、発話がロボットに対するコマンドであるものとみなして処理する。
(3)また、本発明の他の態様として、上記コマンド認識装置において、前記画像情報から各物体の特徴量を求める画像分析部を備え、前記特徴量の1つの物体が前記第1の物体である確からしさを示す画像確信度と、前記特徴量の他の1つの物体が前記第2の物体である確からしさを示す画像確信度とを算出する画像確信度算出部を備え、前記画像確信度をさらに用いて、前記単語列情報のコマンドを実行するか否かを判断するようにしてもよい。
(5)また、本発明の他の態様として、上記コマンド認識装置において、前記発話理解部は、過去にコマンドを実行すると判断された単語列情報に基づいて前記単語列情報を定めるようにしてもよい。
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図1は、本発明の実施形態に係るコマンド認識ロボット1のブロック図である。コマンド認識ロボット1は、コマンド認識部2、収音部3、音声分析部4、音声認識部5、撮影部6、画像分析部7、動作制御部8、駆動電力モデル記憶部9及び動作機構部10を含んで構成される。また、コマンド認識部2が、本発明の実施形態に係るコマンド認識装置である。
コマンド認識部2は、発話理解部21、音声確信度算出部221、語句確信度算出部22、コマンド評価値算出部224、動作制御指示部225、音素音響モデル記憶部23、音素ネットワーク記憶部24及びコマンド辞書記憶部25を含んで構成される。語句確信度算出部22は、画像確信度算出部222及び動作確信度算出部223を含んで構成される。なお、語句確信度算出部22は、画像確信度算出部222又は動作確信度算出部223のうち何れか一方を含んで構成してもよい。
音声分析部4は、収音部3から入力された音声信号をディジタル音声信号に変換し、公知の方法によりフレームごとに騒音抑圧(noise supression)及び音声検出(speech detection)を行う。音声検出には、例えば、混合ガウスモデルに基づく始終端検出法(GMM−based end−point detection method)を用いるが、他の方法を用いてもよい。音声分析部4は、音声として検出された区間の音声信号から音声特徴量を算出し、音声認識部5に出力する。音声特徴量は、例えばメル尺度ケプストラム(mel−scale cepstrum)及びそれらのフレーム間の差分であるデルタケプストラム(delta cepstrum)からなる24次元の特徴量ベクトルである。
音声認識部5は、音声分析部4から入力された音声特徴量に基づき、既知の音声認識方法によりユーザの発話内容を示す発話(speech)情報sを生成する。発話情報sは、1個以上の単語を含んで構成される単語列を示す情報である。音声認識部5は、この発話情報sを発話理解部21及び音声確信度算出部221に出力する。
ここで、画像分析部7は、当該ディジタル画像信号から物体oの輪郭を抽出する。輪郭を抽出するために、例えば、画像分析部7は、次の処理(a)-(d)を実行する。(a) 画像分析部7は、水平方向及び垂直方向に各々隣接する所定の個数の画素間で画素値を平滑化する。(b) 画像分析部7は、平滑化した画素値について水平方向及び垂直方向に各々隣接する画素間における差分値を算出する。(c) 画像分析部7は、算出した差分値のうち、所定の閾値よりも大きい部分を抽出する。(d) 画像分析部7は、その部分のうち各々閉じた領域を形成する部分を物体の輪郭と定める。画像分析部7が輪郭を抽出できない場合には、物体が存在しないと判断する。
画像分析部7は、各物体oの画像特徴量of、位置情報op及び動作軌跡情報ξを発話理解部21に出力する。
ここで、2以上の物体oが検知された場合には、発話理解部21は、どの物体がランドマーク(landmark)かという情報l’(以下、ランドマーク情報l’と呼ぶ。)を決定もしくは選択する。ランドマークとは、動作の基準点となる物体である。
発話理解部21は、トラジェクタの位置情報ot’,pとランドマークの位置情報ol’,p(決定もしくは選択された場合)と後述するコマンド辞書情報に基づき尤度を最大にする動作軌跡情報ξ’を定める。動作軌道とは、ある動作におけるトラジェクタの座標値の時系列データである。トラジェクタ情報t’と動作軌道ξ’の組a’=(t’,ξ’)を行動(action)情報とする。発話理解部21は、そのトラジェクタ情報t’と動作軌道ξ’に基づいて行動情報a’を構成し、その行動情報a’を動作確信度算出部223に出力する。
なお、ロボットコマンドの文法、発話理解部21の機能及び構成については、後述する。
音声確信度算出部221は、条件付尤度P(s|z’;A)を既知の方法により算出することができる。条件付尤度P(s|z’;A)は音声認識を行う過程で算出されるため、音声確信度算出部221は条件付尤度P(s|z’;A)を算出せずに、音声認識部5において算出された条件付尤度P(s|z’;A)を入力されるようにしてもよい。
また、音声認識部5において条件付尤度P(s|y;A)を算出する場合には、音声確信度評価部221は条件付尤度P(s|y;A)を音声認識部5から入力してもよい。この場合、音声確信度評価部221は、条件付尤度P(s|y;A)を算出しなくともよい。
そして、画像確信度算出部222は、画像確信度CIを、例えば次式(3)を用いて算出する。
画像確信度算出部222は、算出した画像確信度CIをコマンド評価値算出部224に出力する。
動作確信度算出部223は、算出した動作確信度CMをコマンド評価値算出部224に出力する。
コマンド評価値算出部224は、算出したコマンド評価値を動作制御指示部225に出力する。なお、語句確信度算出部22が、画像確信度算出部222又は動作確信度算出部223のうち一方しか備えない場合には、コマンド評価値算出部224は、重み付け加算値を、音声確信度CS及び、画像確信度CIもしくは動作確信度CMのうち一方を重み付け加算することにより算出してもよい。
動作制御部8からその部品に電力が供給され、その部品が動作することにより、動作機構部10はロボットコマンドと認識されたユーザによる発話に応じた動作を実行する。一方、動作制御指示部225から動作制御部8に動作指示信号が入力されないときは、動作制御部8から動作機構部10を構成する部品へ電力を供給されず、動作機構部10は、ユーザの発話に基づいた動作を実行しないことになる。
本実施形態において、ロボットコマンドの文法によれば、発話情報sは、概念構造情報の候補zにより表される。以下、概念構造情報の候補zの例について説明する。概念構造情報の候補zは、動作を示す語句情報wMとトラジェクタを表す語句情報wTとを含み、z=[(動作:wM),(トラジェクタ:wT)]と表される。または、概念構造情報の候補zには、動作を示す語句情報wMとトラジェクタを表す語句情報wTとに加え、ランドマークを示す語句情報wLを含み、z=[(動作:wM),(トラジェクタ:wT), (ランドマーク:wL)]と表されるものもある。例えば、「みかんをはこにのせて」(Place the orange on the box.)という発話に対しては、概念構造情報zはz=[(動作:「のせて(place-on)」),(トラジェクタ:「みかん(orange)」), (ランドマーク:「はこ(box)」)]である。図7は、この概念構造情報が表すシーンの一例である。ここで、図7は、3個の物体、即ち「みかん」311、「カメラ」312及び「はこ」313である。そのうち、「みかん」311が操作の対象となるトラジェクタであり、「はこ」313が動作の参照点となるランドマークである。また、矢印で示すトラジェクタの位置の変化が動作である。
第2パラメータセット部28は、物体情報及び行動コンテクスト(behavioral context)情報qごとに、パラメータHを記憶する。行動コンテクスト情報とは、ロボットが動作をとる際の、周囲のユーザ及び物体の状況を特徴づける情報の一種の要素である。例えば、行動コンテクスト情報qは過去に決定もしくは選択されたトラジェクタ情報t’、及びランドマーク情報l’を含む。その場合、パラメータHは、指示対象としての物体の適切さを示す尺度を示す。
前述のように、行動コンテクスト信念関数BHは、物体が操作対象として適切か否かを示す尺度である。本実施態様では、過去にRD音声と判断された発話情報sについてのトラジェクタ情報t’及びランドマーク情報l’を行動コンテクスト情報qとして用いる。つまり、行動コンテクスト情報qは、後述するコマンド候補選択部216から入力されたランドマーク情報l’及び行動情報a’に含まれるトラジェクタ情報t’である。そのため、本実施態様によれば、どの物体がトラジェクタか否か、あるいは、どの物体がランドマークか否かという判断が安定し、発話による動作を精度よく認識でき、この結果コマンドを正しく認識できる。
発話情報sについて可能性がある他の概念構造情報の候補z及びランドマーク情報の候補lについても、音声信念算出部211、視覚信念算出部212、動作信念算出部213、動作オブジェクト関係信念算出部214及び行動コンテクスト信念算出部215は、各々の関数BS、BI、BM、BR及びBHを算出し、コマンド候補選択部216は、共有信念関数Ψを算出する。そして、コマンド候補選択部216は、算出された共有信念関数Ψから最大値を探索し、その最大値をとる概念構造情報の候補z及びランドマーク情報の候補lを選択もしくは決定する。各々、選択した概念構造情報をz’、ランドマーク情報をl’と表す。なお、発話理解部21への入力によっては、ランドマークlを示す語句情報w’Lを含まない概念構造情報z’が選択されるときには、コマンド候補選択部216はランドマークl’を選択しなくともよい。
また、コマンド候補選択部216は、算出された共有信念関数Ψの中で最大値をとる行動情報a’を選択もしくは決定する。選択した行動情報a’は、例えば次式(11)で示されるものである。
そこで、本実施形態は、音声確信度及び画像確信度もしくは動作確信度を概念構造やそれを構成する語句の尤度に基づいて算出している。この結果、ユーザによる発話情報sがロボットコマンドの文法に則っていない場合や、コマンド辞書に登録された語句以外の発話があった場合でも、ロボットコマンドである可能性が完全に排除されることにはならない。従って、このような場合でも、本実施形態はユーザが意図したロボットの動作制御を実行することができる。
以下、図4を参照しながら本発明の第2の実施形態について説明する。図4は、本実施形態に係るコマンド認識ロボット31のブロック図である。また、コマンド認識部32が、本発明の実施形態に係るコマンド認識装置である。本実施形態のコマンド認識ロボット31及びコマンド認識部32は、図1に示す第1の実施形態に係るコマンド認識ロボット1及びコマンド認識部2の構成に加え、注意判断部11を有している。その他の部分の構成及び機能は、特に言及しない限り、第1の実施形態に係るコマンド認識ロボット1及びコマンド認識部2と共通する。
注意判断部11は、音声分析部4から入力された音声信号及び撮影部6から入力した画像信号に基づいて、公知の方法により画像に写っているユーザがコマンド認識ロボット31に対し注意を向けているか否かを判定する。例えば、注意判断部11は、ユーザの顔の方向α1を逐次に検出し、基準となる方向(例えば撮影部6の光軸方向)との角度差Δαが、予め定められた閾値βよりも小さい状態が継続する時間の音声と判定された区間に対する比率が一定の比率Tも大きい場合、ユーザがコマンド認識ロボット31に注意を向けていると判断する。ここで、閾値βは、例えば5°である。比率Tは、例えば50%である。角度差Δαが、閾値βと同一もしくはそれ以上の場合、又は角度差Δαが、閾値βよりも小さい状態が継続する時間の音声と判定された区間に対する比率が、所定の比率Tと同一もしくはそれよりも短い場合、注意判断部11は、ユーザがコマンド認識ロボット31に注意を向けていないと判断する。
(ステップS101)注意判断部11は、音声分析部4から入力された音声信号及び撮影部6から入力された画像信号に基づいて、画像に写されたユーザがロボットに対し注意を向けているか否かを判定する。例えば、注意判断部11は、ユーザの顔の方向α1を逐次に検出し、基準となる方向(例えば撮影部6の光軸方向)との角度差Δαが、予め定められた閾値βよりも小さい状態が継続する時間の音声と判断された区間に対する比率が、所定の比率Tよりも大きい場合、このユーザがコマンド認識ロボット31に注意を向けていると判断する。角度差Δαが、閾値βと同一もしくはそれ以上の場合、又は角度差Δαが、閾値βよりも小さい状態が継続する時間の音声と判定された区間に対する比率が、所定の比率Tと同一もしくはそれよりも短い場合、注意判断部11は、このユーザがコマンド認識ロボット31に注意を向けていないと判断する。
注意判断部11は、ユーザがコマンド認識ロボット31に注意を向けていないと判断したとき(ステップS102 N)、終了する。
(ステップS103)音声分析部4は、収音部3から入力された音声信号をディジタル音声信号に変換し、既知の方法によりフレームごとに騒音抑圧及び音声検出を行う。音声として検出された区間の音声信号から音声特徴量を算出し、音声認識部5に出力する。また、音声分析部4は、音声と判定された区間の音声信号を注意判断部11に出力する。
(ステップS104) 音声認識部5は、音声分析部4から入力された音声特徴量に基づき、既知の音声認識方法により発話情報sを生成し、発話理解部21及び音声確信度算出部221に出力する。
発話理解部21は、概念構造情報z’を音声確信度算出部221に出力する。発話理解部21は、概念構造情報z’に含まれるトラジェクタを示す語句の情報w’Tならびにランドマークを示す語句の情報w’L、トラジェクタ情報t’、ランドマーク情報l’、トラジェクタの画像特徴量ot’,f及びランドマークの画像特徴量ol’,fを画像確信度算出部222に出力する。発話理解部21は、概念構造情報z’に含まれる動作を示す語句の情報w’M、行動情報a’、ランドマーク情報l’、トラジェクタの位置情報ot’,p及びランドマークの位置情報ol’,pを動作確信度算出部223に出力する。発話理解部21は、行動情報a’及びトラジェクタの位置情報ot’,pを動作制御部8に出力する。例えば、決定された物体が1個のみの場合のように、ランドマーク情報l’が決定されない場合には、発話理解部21は、ランドマーク情報l’、ランドマークの特徴量ol’,f及びランドマークの位置情報ol’,pを出力しない。
なお、本ステップにおける詳細な処理については、後述する。
音声確信度算出部221は、発話情報sに対する条件付尤度のうち、音素ネットワーク記憶部24に記憶された音素ネットワーク情報Gpにより許容される音素列yの発話情報sに対する条件付尤度P(s|y;A)のうち最大となる条件付尤度maxy∈L(Gp)P(s|y;A)を算出する。音声確信度算出部221は、これらの条件付尤度と発話情報sの分析対象となったフレーム長n(s)を用いて、音声確信度CSを、例えば式(1)により算出し、コマンド評価値算出部224に出力する。
(ステップS111)動作制御指示部225は、コマンド評価値算出部224から入力されたコマンド評価値が、閾値δよりも大きいとき(ステップS111 N)、動作制御部8及び発話理解部21のコマンド候補選択部216に動作指示信号を出力する。動作制御指示部225は、コマンド評価値がδと等しいか、又はδより小さいとき(ステップS111 Y)、処理を終了する。
(ステップS106−1)音声信念算出部211は、音声認識部5から入力された発話情報sに対する、概念構造情報の候補zの条件付尤度P(s|z;L)をコマンド辞書記憶部25から読み出したコマンド辞書情報Lに基づいて算出する。また、音声信念算出部211は、概念構造情報の候補zに対応する尤度P(z;Gr)をコマンド文法記憶部26から読み出す。音声信念算出部211は、算出した条件付尤度を用いて例えば式(7)に基づき、音声信念関数(Speech Belief)Bsを算出する。音声信念算出部211は、音声信念関数Bsをコマンド候補選択部216に出力する。また、音声信念算出部211は、概念構造情報の候補zに含まれるトラジェクタを表す語句情報wT及びランドマークを表す語句情報wL(概念構造情報の候補zに含まれる場合)を抽出して、抽出した語句情報wLを視覚信念算出部212に出力し、動作を表す語句情報wMを動作信念算出部213及び動作オブジェクト関係信念算出部214に出力する。
(ステップS106−7)コマンド候補選択部216は、算出した共有信念関数Ψが最大値にであるか否か判断し、最大値ではない場合には(ステップS106−7 N)、ステップS106−8に進む。算出した共有信念関数Ψが最大値である場合には(ステップS106−7 Y),ステップS106−9に進む。
(ステップS106−8)コマンド候補選択部216は、別の概念構造情報z及びランドマーク情報lに変更し、ステップS106−1に戻る。
コマンド候補選択部216は、概念構造情報z’を音声確信度算出部221に出力する。コマンド候補選択部216は、トラジェクタ情報t’、ランドマーク情報l’、概念構造z’に含まれるトラジェクタを示す語句情報w’T、ランドマークを示す語句情報w’L、トラジェクタの画像特徴量ot’,f及びランドマークの画像特徴量ol’,fを選択して画像確信度算出部222に出力する。コマンド候補選択部216は、行動情報a’、ランドマーク情報l’ 、トラジェクタの位置情報ot’,p、ランドマークの位置情報ol’,p及び動作を示す語句情報w’Mを動作確信度算出部223に出力する。
なお、概念構造情報z’にランドマークを示す語句情報w’Lが含まれない場合には、コマンド候補選択部216は、ランドマーク情報l’、画像特徴量ol’,f及び位置情報ol’,pを出力しなくてもよい。
また、語句確信度算出部22は、画像確信度算出部222又は動作確信度算出部223のうち何れか一方を含み、他方を含まない場合には、他方が実行するステップを実行せず、ステップS110においてコマンド評価値CMSを音声確信度CS及びその一方が実行するステップによる確信度に基づいて算出してよい。
ここでは、全4セッションの実験を4組の被験者により行った。各セッションは50分である。実験環境において、ロボットの動作機構部10は周囲騒音を生じる。また、被験者は、実験中に全850個の発話を行い、実験後、各発話がRD音声又はOOD音声かを実験者が手動で分別した。
図11は、本実施形態に係るコマンド認識ロボット31による再現率、精度、及びF値を、次の各条件について示す。(1)「注意」とは、人間の注意のみを用いた場合である。(2)「注意・音声」とは、人間の注意及び音声確信度を用いた場合である。(3)「注意・音声・画像」とは、人間の注意、音声確信度及び画像確信度を用いた場合である。(4)「注意・音声・動作」とは、人間の注意、音声確信度及び動作確信度を用いた場合である。(5)「注意・MSC」とは、人間の注意及びMSCを用いた場合である。
なお、実環境において周囲雑音は常に存在し、音声認識の信頼性を低下させる。しかし、本実施形態のように音声の他、他の情報、即ち画像又は動作を併用することによりRD音声を検出する性能を向上させることができる。特に、音声確信度、画像確信度及び動作確信度に基づくMSCを用いることにより有効性が示される。
また、上述した実施形態におけるコマンド認識ロボット及びコマンド認識部の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。コマンド認識ロボット及びコマンド認識部の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
2…コマンド認識部
3…収音部
4…音声分析部
5…音声認識部
6…撮影部
7…画像分析部
8…動作制御部
9…駆動電力モデル記憶部
10…動作機構部
21…発話理解部
211…音声信念算出部
212…視覚信念算出部
213…動作信念算出部
214…動作オブジェクト関係信念算出部
215…行動コンテクスト信念算出部
216…コマンド候補選択部
22…語句確信度算出部
221…音声確信度算出部
222…画像確信度算出部
223…動作確信度算出部
224…コマンド評価値算出部
225…動作制御指示部
23…音素音響モデル記憶部
24…音素ネットワーク記憶部
25…コマンド辞書記憶部
26…コマンド文法記憶部
27…第1パラメータセット記憶部
28…第2パラメータセット記憶部
Claims (7)
- 第1の物体の動作を示す語句及び前記第1の物体の動作の基準となる第2の物体の位置情報ごとの、前記第1の物体の動作軌道情報に対する確率モデル情報を記憶する記憶部と、
発話情報から前記第1の物体を示す語句、前記第1の物体の動作の基準となる第2の物体の語句及び前記第1の物体の動作を示す語句を示す単語列情報を決定又は選択し、
画像情報から算出された前記第1の物体の位置情報ならびに前記第2の物体の位置情報、前記第1の物体の動作を示す語句及び前記記憶部に記憶された確率モデル情報に基づいて前記第1の物体の動作軌跡情報を定める発話理解部と、
前記発話情報と前記単語列情報に基づいて音声確信度を算出する音声確信度算出部と、
前記動作軌跡情報が前記第1の物体の動作を示す語句が示す動作である確からしさを示す動作確信度を算出する動作確信度算出部とを備え、
前記音声確信度及び前記動作確信度に基づいて、前記単語列情報のコマンドを実行するか否かを判断する、
ことを特徴とするコマンド認識装置。 - 前記発話理解部は、前記第1の物体の位置情報、前記第2の物体の位置情報ならびに前記第1の物体の前記第1の物体の動作を示す語句に基づいて、前記動作軌跡情報の候補に対する条件付尤度を算出し、算出した条件付尤度を用いて前記動作軌跡情報を定めることを特徴とする請求項1に記載のコマンド認識装置。
- 前記画像情報から各物体の特徴量を求める画像分析部を備え、
前記特徴量の1つの物体が前記第1の物体である確からしさを示す画像確信度と、前記特徴量の他の1つの物体が前記第2の物体である確からしさを示す画像確信度とを算出する画像確信度算出部を備え、
前記画像確信度をさらに用いて、前記単語列情報のコマンドを実行するか否かを判断する、
ことを特徴とする請求項1又は請求項2に記載のコマンド認識装置。 - 撮影した画像に基づき発話者がロボットへ注意を向けているか否かを判断し、
前記発話者が前記ロボットへ注意を向けていると判断したとき、前記単語列情報のコマンドを実行させる注意判断部を備える
ことを特徴とする請求項1から請求項3のいずれかに記載のコマンド認識装置。 - 前記発話理解部は、過去にコマンドを実行すると判断された単語列情報に基づいて前記単語列情報を定める
ことを特徴とする請求項1から請求項4のいずれかに記載のコマンド認識装置。 - コマンド認識装置におけるコマンド認識方法において、前記コマンド認識装置は、第1の物体の動作を示す語句及び前記第1の物体の動作の基準となる第2の物体の位置情報ごとの、前記第1の物体の動作軌道情報に対する確率モデル情報を記憶する記憶部を備え、
発話情報から前記第1の物体を示す語句、前記第1の物体の動作の基準となる第2の物体の語句及び前記第1の物体の動作を示す語句を示す単語列情報を決定又は選択する第1の過程と、
前記コマンド認識装置が、画像情報から算出された前記第1の物体の位置情報ならびに前記第2の物体の位置情報、前記第1の物体の動作を示す語句及び前記記憶部に記憶された確率モデル情報に基づいて前記第1の物体の動作軌跡情報を定める第2の過程と、
前記コマンド認識装置が、前記発話情報と前記単語列情報に基づいて音声確信度を算出する第3の過程と、
前記コマンド認識装置が、前記動作軌跡情報が前記第1の物体の動作を示す語句が示す動作である確からしさを示す動作確信度を算出する第4の過程と、
前記コマンド認識装置が、前記音声確信度及び前記動作確信度に基づいて、前記単語列情報のコマンドを実行するか否かを判断する第5の過程と、
を有することを特徴とするコマンド認識方法。 - 第1の物体の動作を示す語句及び前記第1の物体の動作の基準となる第2の物体の位置情報ごとの、前記第1の物体の動作軌道情報に対する確率モデル情報を記憶する記憶部と、
発話情報から前記第1の物体を示す語句、前記第1の物体の動作の基準となる第2の物体の語句及び前記第1の物体の動作を示す語句を示す単語列情報を決定又は選択し、
画像情報から算出された前記第1の物体の位置情報ならびに前記第2の物体の位置情報、前記第1の物体の動作を示す語句及び前記記憶部に記憶された確率モデル情報に基づいて前記第1の物体の動作軌跡情報を定める発話理解部と、
前記発話情報と前記単語列情報に基づいて音声確信度を算出する音声確信度算出部と、
前記動作軌跡情報が前記第1の物体の動作を示す語句が示す動作である確からしさを示す動作確信度を算出する動作確信度算出部とを備え、
前記音声確信度及び前記動作確信度に基づいて、前記単語列情報のコマンドを実行するか否かを判断する動作機構部と、
を備えることを特徴とするコマンド認識ロボット。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US23956809P | 2009-09-03 | 2009-09-03 | |
US61/239,568 | 2009-09-03 | ||
US26627209P | 2009-12-03 | 2009-12-03 | |
US61/266,272 | 2009-12-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011053690A JP2011053690A (ja) | 2011-03-17 |
JP5617083B2 true JP5617083B2 (ja) | 2014-11-05 |
Family
ID=43942675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010197020A Expired - Fee Related JP5617083B2 (ja) | 2009-09-03 | 2010-09-02 | コマンド認識装置、コマンド認識方法、及びコマンド認識ロボット |
Country Status (2)
Country | Link |
---|---|
US (1) | US8532989B2 (ja) |
JP (1) | JP5617083B2 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8676581B2 (en) * | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
US8452451B1 (en) | 2011-05-06 | 2013-05-28 | Google Inc. | Methods and systems for robotic command language |
US8914288B2 (en) * | 2011-09-01 | 2014-12-16 | At&T Intellectual Property I, L.P. | System and method for advanced turn-taking for interactive spoken dialog systems |
JP5828552B2 (ja) * | 2011-12-22 | 2015-12-09 | 本田技研工業株式会社 | 物体分類装置、物体分類方法、物体認識装置及び物体認識方法 |
JP5901753B2 (ja) * | 2012-05-18 | 2016-04-13 | 株式会社日立製作所 | 自律移動装置、制御装置および自律移動方法 |
JP2013242763A (ja) * | 2012-05-22 | 2013-12-05 | Clarion Co Ltd | 対話装置、対話システム、および対話制御方法 |
US8571851B1 (en) * | 2012-12-31 | 2013-10-29 | Google Inc. | Semantic interpretation using user gaze order |
WO2014125736A1 (ja) * | 2013-02-14 | 2014-08-21 | ソニー株式会社 | 音声認識装置、および音声認識方法、並びにプログラム |
US20140256212A1 (en) * | 2013-03-11 | 2014-09-11 | Avi Agarwal | Music of movement: the manipulation of mechanical objects through sound |
KR101598948B1 (ko) * | 2014-07-28 | 2016-03-02 | 현대자동차주식회사 | 음성 인식 장치, 이를 포함하는 차량 및 음성 인식 방법 |
JP6634635B2 (ja) * | 2015-11-18 | 2020-01-22 | 本田技研工業株式会社 | 識別装置、ロボットおよび識別方法 |
US11049045B2 (en) * | 2015-11-18 | 2021-06-29 | Honda Motor Co., Ltd. | Classification apparatus, robot, and classification method |
US10515623B1 (en) * | 2016-12-23 | 2019-12-24 | Amazon Technologies, Inc. | Non-speech input to speech processing system |
US10562181B2 (en) * | 2017-07-03 | 2020-02-18 | X Development Llc | Determining and utilizing corrections to robot actions |
DE102018207513A1 (de) * | 2018-05-15 | 2019-11-21 | Siemens Aktiengesellschaft | Verfahren zum rechnergestützten Lernen eines Roboters über einen Sprachdialog |
US11288509B2 (en) * | 2019-11-12 | 2022-03-29 | Toyota Research Institute, Inc. | Fall detection and assistance |
KR20210133600A (ko) * | 2020-04-29 | 2021-11-08 | 현대자동차주식회사 | 차량 음성 인식 방법 및 장치 |
CN114420101B (zh) * | 2022-03-31 | 2022-05-27 | 成都启英泰伦科技有限公司 | 一种未知语言端侧命令词小数据学习识别方法 |
CN114863938A (zh) * | 2022-05-24 | 2022-08-05 | 西南石油大学 | 一种基于注意力残差和特征融合的鸟语识别方法和系统 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4820059A (en) * | 1985-10-30 | 1989-04-11 | Central Institute For The Deaf | Speech processing apparatus and methods |
DE69232407T2 (de) * | 1991-11-18 | 2002-09-12 | Toshiba Kawasaki Kk | Sprach-Dialog-System zur Erleichterung von Rechner-Mensch-Wechselwirkung |
JP3168682B2 (ja) * | 1992-04-27 | 2001-05-21 | ソニー株式会社 | 数値制御装置 |
US5675706A (en) * | 1995-03-31 | 1997-10-07 | Lucent Technologies Inc. | Vocabulary independent discriminative utterance verification for non-keyword rejection in subword based speech recognition |
JP3284832B2 (ja) * | 1995-06-22 | 2002-05-20 | セイコーエプソン株式会社 | 音声認識対話処理方法および音声認識対話装置 |
US5799279A (en) * | 1995-11-13 | 1998-08-25 | Dragon Systems, Inc. | Continuous speech recognition of text and commands |
JP3710205B2 (ja) * | 1996-06-05 | 2005-10-26 | 沖電気工業株式会社 | 音声認識装置 |
JPH1124694A (ja) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | 命令認識装置 |
US6931384B1 (en) * | 1999-06-04 | 2005-08-16 | Microsoft Corporation | System and method providing utility-based decision making about clarification dialog given communicative uncertainty |
US7369130B2 (en) * | 1999-10-29 | 2008-05-06 | Hitachi Kokusai Electric Inc. | Method and apparatus for editing image data, and computer program product of editing image data |
JP2001154693A (ja) * | 1999-11-30 | 2001-06-08 | Sony Corp | ロボット制御装置およびロボット制御方法、並びに記録媒体 |
JP2002311988A (ja) * | 2001-04-11 | 2002-10-25 | Sony Corp | プログラム、記録媒体、情報処理方法、および情報処理装置 |
US6792408B2 (en) * | 2001-06-12 | 2004-09-14 | Dell Products L.P. | Interactive command recognition enhancement system and method |
JP2003131683A (ja) * | 2001-10-22 | 2003-05-09 | Sony Corp | 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体 |
TWI224771B (en) * | 2003-04-10 | 2004-12-01 | Delta Electronics Inc | Speech recognition device and method using di-phone model to realize the mixed-multi-lingual global phoneme |
US20040243416A1 (en) * | 2003-06-02 | 2004-12-02 | Gardos Thomas R. | Speech recognition |
JP4048492B2 (ja) * | 2003-07-03 | 2008-02-20 | ソニー株式会社 | 音声対話装置及び方法並びにロボット装置 |
KR100754384B1 (ko) * | 2003-10-13 | 2007-08-31 | 삼성전자주식회사 | 잡음에 강인한 화자위치 추정방법 및 장치와 이를 이용한카메라 제어시스템 |
US8427538B2 (en) * | 2004-04-30 | 2013-04-23 | Oncam Grandeye | Multiple view and multiple object processing in wide-angle video camera |
JP2006030447A (ja) * | 2004-07-14 | 2006-02-02 | Honda Motor Co Ltd | 音声認識システムと該音声認識システムを備える移動体及び車両 |
JP4282590B2 (ja) * | 2004-11-29 | 2009-06-24 | 株式会社東芝 | 音声移動制御装置および音声移動制御方法 |
JP4628803B2 (ja) * | 2005-01-25 | 2011-02-09 | 本田技研工業株式会社 | 音声認識型機器制御装置 |
JP2006293442A (ja) * | 2005-04-05 | 2006-10-26 | Sony Corp | 情報処理装置および方法、並びにプログラム |
EP2544065B1 (en) * | 2005-12-02 | 2017-02-08 | iRobot Corporation | Robot system |
JP2007199552A (ja) * | 2006-01-30 | 2007-08-09 | Toyota Motor Corp | 音声認識装置と音声認識方法 |
WO2008067562A2 (en) * | 2006-11-30 | 2008-06-05 | Rao Ashwin P | Multimodal speech recognition system |
US20080154576A1 (en) * | 2006-12-21 | 2008-06-26 | Jianchao Wu | Processing of reduced-set user input text with selected one of multiple vocabularies and resolution modalities |
US8219406B2 (en) * | 2007-03-15 | 2012-07-10 | Microsoft Corporation | Speech-centric multimodal user interface design in mobile technology |
JP4412504B2 (ja) * | 2007-04-17 | 2010-02-10 | 本田技研工業株式会社 | 音声認識装置、音声認識方法、及び音声認識用プログラム |
US8139818B2 (en) * | 2007-06-28 | 2012-03-20 | Toshiba Tec Kabushiki Kaisha | Trajectory processing apparatus and method |
WO2009102885A1 (en) * | 2008-02-12 | 2009-08-20 | Phone Through, Inc. | Systems and methods for enabling interactivity among a plurality of devices |
US8126642B2 (en) * | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
-
2010
- 2010-09-02 US US12/874,779 patent/US8532989B2/en active Active
- 2010-09-02 JP JP2010197020A patent/JP5617083B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US8532989B2 (en) | 2013-09-10 |
JP2011053690A (ja) | 2011-03-17 |
US20110112839A1 (en) | 2011-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5617083B2 (ja) | コマンド認識装置、コマンド認識方法、及びコマンド認識ロボット | |
US20150325240A1 (en) | Method and system for speech input | |
JP2005003926A (ja) | 情報処理装置および方法、並びにプログラム | |
Luettin | Visual speech and speaker recognition | |
EP3425628A1 (en) | Voice recognition method, recording medium, voice recognition device, and robot | |
Weiner et al. | Integration of language identification into a recognition system for spoken conversations containing code-switches | |
US9542931B2 (en) | Leveraging interaction context to improve recognition confidence scores | |
WO2001052239A1 (en) | System and method for utterance verification of chinese long and short keywords | |
JP2010282199A (ja) | 語彙獲得装置、マルチ対話行動システム及び語彙獲得プログラム | |
EP1557823A2 (en) | Method of setting posterior probability parameters for a switching state space model and method of speech recognition | |
Këpuska et al. | A novel wake-up-word speech recognition system, wake-up-word recognition task, technology and evaluation | |
Lee et al. | Mispronunciation detection without nonnative training data | |
JP2017003622A (ja) | 声質変換方法および声質変換装置 | |
Heinrich et al. | Towards robust speech recognition for human-robot interaction | |
Hrúz et al. | Automatic fingersign-to-speech translation system | |
CN116090474A (zh) | 对话情绪分析方法、装置和计算机可读存储介质 | |
US11798578B2 (en) | Paralinguistic information estimation apparatus, paralinguistic information estimation method, and program | |
Vakhshiteh et al. | Lip-reading via deep neural networks using hybrid visual features | |
McDermott et al. | Minimum classification error training of landmark models for real-time continuous speech recognition | |
JP5300000B2 (ja) | 調音特徴抽出装置、調音特徴抽出方法、及び調音特徴抽出プログラム | |
JP7511374B2 (ja) | 発話区間検知装置、音声認識装置、発話区間検知システム、発話区間検知方法及び発話区間検知プログラム | |
US11250853B2 (en) | Sarcasm-sensitive spoken dialog system | |
Zuo et al. | Detecting robot-directed speech by situated understanding in physical interaction | |
Holzapfel et al. | A robot learns to know people—first contacts of a robot | |
JP5476760B2 (ja) | コマンド認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140729 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5617083 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |