JPWO2004052597A1 - ロボット制御装置、ロボット制御方法、及びロボット制御プログラム - Google Patents
ロボット制御装置、ロボット制御方法、及びロボット制御プログラム Download PDFInfo
- Publication number
- JPWO2004052597A1 JPWO2004052597A1 JP2004558405A JP2004558405A JPWO2004052597A1 JP WO2004052597 A1 JPWO2004052597 A1 JP WO2004052597A1 JP 2004558405 A JP2004558405 A JP 2004558405A JP 2004558405 A JP2004558405 A JP 2004558405A JP WO2004052597 A1 JPWO2004052597 A1 JP WO2004052597A1
- Authority
- JP
- Japan
- Prior art keywords
- area
- robot
- instruction
- unit
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 56
- 230000009471 action Effects 0.000 claims description 86
- 230000004044 response Effects 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 18
- 230000005540 biological transmission Effects 0.000 claims description 11
- 230000001133 acceleration Effects 0.000 claims description 6
- 230000037230 mobility Effects 0.000 description 16
- 210000001503 joint Anatomy 0.000 description 14
- 210000002414 leg Anatomy 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 210000003128 head Anatomy 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000005484 gravity Effects 0.000 description 6
- 210000004394 hip joint Anatomy 0.000 description 6
- 230000004807 localization Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 210000000323 shoulder joint Anatomy 0.000 description 5
- 230000009118 appropriate response Effects 0.000 description 4
- 210000000544 articulatio talocruralis Anatomy 0.000 description 4
- 210000002310 elbow joint Anatomy 0.000 description 4
- 210000002683 foot Anatomy 0.000 description 4
- 210000000629 knee joint Anatomy 0.000 description 4
- 210000003857 wrist joint Anatomy 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000001699 lower leg Anatomy 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
Description
しかし、指示された通りにロボットが移動しようとしても、実際には、移動が困難な場合も多くある。例えば、指示者は人であるから、指示しようと考えたことと、実際に発話して指示した内容とが錯誤により一致しない場合もある。このような場合には、指示した場所に障害物等があると、障害物によりロボットの移動が妨げられる。また、指示者が考えたとおりに発話したとしても、ロボットが移動できる能力を超えた段差がある場合もある。このような場合にも同様に、ロボットは段差に妨害されて移動できないことになる。
また、人が通常指示を行うときには、細かく物を特定するとは限らず、「それ(that)」とか、「こっち(this)」などと指示語により指示することもある。このような場合に、ロボットが的確に指示を認識できなければ誤動作の原因となり、仮に指示を認識できたとしても、前記したような指示者による指示の錯誤や、不適切な指示によりロボットが移動に失敗したり、障害物に衝突してしまう等、適切な移動ができないこともある。また、指示者から頻繁に「左に〜m、前に〜m移動しろ」というような細かな移動指示が無いとロボットが正確に移動できないのでは、指示者の負荷が大きく、人とロボットの共同作業には不向きである。
このようなロボットの移動に関連する技術としては次のようなものがある。
例えば、特開平5−11843号公報には、移動時の回避行動を短時間かつ簡単なアルゴリズムで実現することを目的とする軌道作成方法が開示されている。この軌道作成方法によれば、ロボットの予定軌道が線分で表現される障害物範囲と交差する場合はその軌道を避け、最短距離で障害物を回避する軌道を再計算して、障害物を回避しながらロボットが移動する。
しかし、この方法では、障害物を回避する軌道を再計算する際に、ロボットが障害物のきわを通るように計算しており、ロボットの動作等に応じたマージンが考慮されていない。そのため、予定軌道通りロボットが移動すると、ロボットの動作によっては障害物と干渉する可能性があった。
また、特開平6−63883号公報には、ロボットが移動すべき領域の外に移動してしまうことを防止するロボット制御装置が開示されている。具体的には、移動領域の境界部分に予め埋設されたデータデポをロボット制御装置が読み取ることによって移動許可領域外へのロボットの移動を防止している。しかし、このロボット制御装置では、予めデータデポを移動領域の境界部分に埋設しておく必要があり、データデポが埋設されていない場所ではロボットが移動すべきでない領域へ移動してしまう可能性があった。
さらに、特開2001−188551号公報には、指示者による指示語に応じて応答するロボットの情報処理装置が開示されている。
しかし、このロボットの情報処理装置では、適切な指示語を選択するにとどまり、その指示語により示された場所に到達可能かどうかまでは判断していない。従って、ロボットが指示された場所に移動すると、ロボットが障害物にぶつかる可能性もある。
本発明は、前記した点に鑑みてなされたものである。
このような構成を有するロボット制御装置によれば、ロボットが特定位置への移動が必要な指示が与えられた場合に、判断部が移動の必要性を判断し、移動容易度判断部が自己位置推定部で推定した現在位置と、地図データとに基づいてその特定位置への移動容易度を判断し、行動決定部が、移動容易度に応じて行動を決定する。従って、移動容易度が低い(困難な)場合に、指示者に問い合わせたり、移動を止めたり、特定位置まで近づいて止まったりすることで、安全に移動することができる。なお、移動が必要な指示とは、「Aさんのところへ行ってください」のように特定位置へ移動する指示をする場合はもちろん、「机から資料を取ってきてください」のように移動指示そのものではないが移動が必要な指示も含む意味である。なお、特定位置への移動が必要か否かの判断にあたり、必要に応じ、前記自己位置推定部で推定したロボットの現在位置を参照するよう構成してもよい。
前記ロボット制御装置において、前記移動容易度判断部は、前記特定位置への移動ルートの周囲にある障害物の位置を前記地図データベースから読み出し、前記障害物からの距離に基づいて少なくとも2つ以上の領域を設定し、前記行動決定部は、前記特定位置が含まれる領域及び前記ロボットが存在する領域に応じて行動を決定するよう構成してもよい。
このように、障害物の距離に基づいて少なくとも2つ以上の領域に分けることで、ロボットは移動容易度を判断でき、特定位置が含まれる領域及びロボットが存在する領域に応じて行動を決定するようにすることで、移動容易度に応じた適切な対応を取ることができる。
また、前記移動容易度判断部は、前記自己位置推定部で推定した前記ロボットの現在位置及び前記地図データから、前記特定位置への移動ルートの周囲にある障害物を認識する障害物認識部と、前記障害物認識部が認識した障害物の位置に基づき、前記ロボットが存在すれば前記障害物に干渉する可能性がある領域を警戒領域として設定する警戒領域設定部と、前記警戒領域から所定距離離れるまでの領域をマージン領域として設定するマージン領域設定部と、前記障害物から前記マージン領域よりも離れた領域を安全領域として設定する安全領域設定部とを有し、前記特定位置が含まれる領域、及び前記ロボットが存在する領域が、それぞれ前記警戒領域、マージン領域、安全領域のいずれに該当するかに基づき、前記特定位置への移動容易度を判断するよう構成してもよい。
このように障害物からの距離に応じて移動容易度を警戒領域、マージン領域、安全領域の3段階にわけることで、指示者が移動指示した特定位置の状況に応じた対応を取ることが可能となる。例えば、前記移動容易度判断部で、前記特定位置への移動が困難であると判断した場合に、行動決定部が指示者に対し指示の確認をするよう判断したり、移動容易度判断部が前記特定位置への移動が容易であると判断した場合に、行動決定部がその特定位置へ移動するよう判断したりして、安全かつスムーズな対応が可能になる。つまり、移動容易度判断部で、特定位置への移動が困難であると判断した場合には、指示者の指示が間違いであることが多いので、指示者に対し指示の確認をする。一方、移動容易度判断部で、特定位置への移動が容易と判断された場合には、移動しても、ロボットが何かに干渉する可能性は無く、指示者の指示も間違いではないと考えられるので、このように指示者の指示通り移動する。このようにして、指示者との適切なコミュニケーションを可能にしつつ、スムーズな移動動作を可能にすることができる。
また、前記警戒領域設定部は、障害物の表面の代表点間を直径とする円の位置を求め、この円の位置を利用して前記警戒領域を設定するよう構成してもよい。
一般に、人工物は、直角の角を有している物が多いので、このように障害物の表面の代表点間を直径とする円の位置から警戒領域を設定することで、移動容易度をより適切に判断することができる。
さらに、前記行動決定部は、前記特定位置が含まれる領域、及び前記ロボットが存在する領域に応じて、移動、移動拒否の応答、指示の再確認、停止、減速、加速の少なくともいずれか1つの行動を決定するよう構成してもよい。
このようなロボット制御装置によれば、移動、移動拒否の応答、指示の再確認、停止、減速、加速から適切な行動が選択される。なお、移動しつつ減速のように、2つの行動を選択しても構わない。
また、前記音声認識部は、指示語により指示領域を絞り込む指示範囲特定部を有し、前記行動決定部は、前記指示範囲特定部により絞り込まれた前記指示領域と、前記画像認識部で認識した指示領域との論理積の領域を特定位置と認識するよう構成してもよい。
このようなロボット制御装置によれば、指示者が、「そこ」「これ」「あっち」(there,this,that way)等の指示語により移動指示をした場合にも、その指示語により示される指示領域を絞り込むことで、容易かつ正確に特定位置を認識することができる。この際、指示語で絞り込まれた指示領域と画像認識部で認識した指示領域との論理積の領域から特定位置を認識することで、より正確な位置を認識することができる。また、音声による指示と、ジェスチャによる指示に矛盾があった場合に、論理積の結果残る領域がなくなることから、矛盾に気づくことができる。
また、前記ロボット制御装置において、前記行動制御部に行動予定を出力させる行動予定伝達部をさらに有するものであってもよい。
このように、行動予定伝達部によりロボットにこれからの行動予定を画面や音声などにより出力させることで、指示者などの周囲の者に行動予定を知らせることができ、その結果、ロボットに指示が正しく伝わっているか確認できるとともに、周囲の者がロボットの動きを予測できる。
また、本発明の他の例示的側面として、ロボットの制御方法を提供する。
すなわち、本発明によるロボット制御方法は、マイクと、撮像装置と、自己位置検出装置とを有するロボットを制御するロボット制御方法であって、前記マイクにより集音した音に基づいて指示者の指示内容を認識し、前記撮像装置により撮像した画像に基づいて指示者の指示内容を認識し、前記自己位置検出装置からの出力に基づいて前記ロボットの現在位置を推定し、前記音で認識した指示内容と、前記画像から認識した指示内容から、特定位置への移動が必要な指示か否かを判断する指示内容識別ステップと、前記指示内容識別ステップにおいて、特定位置への移動が必要な指示と判断された場合に、前記自己位置検出装置からの出力に基づき推定した現在位置と、地図データベースとして備えられた地図データとに基づいて前記特定位置への移動容易度を判断する移動容易度判断ステップと、記移動容易度判断ステップが判断した移動容易度に応じて行動を決定する行動決定ステップと、前記行動決定ステップの決定に応じた行動を実行する行動制御ステップとを有する。
このようなロボット制御方法によれば、指示者が音声により指示した移動指示と、ジェスチャなどにより指示した移動指示の双方を考慮して移動先として指示された特定位置が認識され、さらに、その特定位置への移動の容易度が、地図データ上の障害物との関係で判断される。そして、特定位置がどの領域であるかによってロボットの行動が決定されるので、指示者の移動指示に対し、状況に応じた適切な対応をとることが可能となる。なお、前記指示内容識別ステップにおける特定位置への移動が必要か否かの判断にあたり、必要に応じ、前記推定したロボットの現在位置を参照するよう構成してもよい。
前記ロボット制御方法において、前記移動容易度判断ステップは、前記特定位置への移動ルートの周囲にある障害物の位置を前記地図データベースから読み出し、前記障害物からの距離に応じて所定数の領域を設定し、前記行動決定ステップは、前記特定位置が含まれる領域及び前記ロボットが存在する領域に応じて行動を決定してもよい。
このように、障害物の距離に応じて所定数の領域に分けることで、ロボットは移動容易度を判断でき、特定位置が含まれる領域及びロボットが存在する領域に応じて行動を決定するようにすることで、移動容易度に応じた適切な対応を取ることができる。
また、前記ロボット制御方法において、前記移動容易度判断ステップは、前記自己位置検出装置からの出力に基づいて推定した前記ロボットの現在位置及び前記地図データから、前記特定位置への移動ルートの周囲にある障害物を認識する障害物認識ステップと、前記障害物認識ステップで認識した障害物の位置に基づき、前記ロボットが存在すれば前記障害物に干渉する可能性がある領域を警戒領域として設定する警戒領域設定ステップと、前記警戒領域から所定距離離れるまでの領域をマージン領域として設定するマージン領域設定ステップと、前記障害物から前記マージン領域よりも離れた領域を安全領域として設定する安全領域設定ステップとを有し、前記特定位置が含まれる領域、及び前記ロボットが存在する領域が、それぞれ前記警戒領域、マージン領域、安全領域のいずれに該当するかに基づき、前記特定位置への移動容易度を判断するのが好ましい。
このように障害物からの距離に応じて移動容易度を警戒領域、マージン領域、安全領域の3段階にわけることで、指示者が移動指示した特定位置の状況に応じた対応を取ることが可能となる。
さらに、前記警戒領域設定ステップは、障害物の表面の代表点間を直径とする円の位置を求め、この円の位置を利用して前記警戒領域を設定するのが好ましい。
一般に、人工物は、直角の角を有している物が多いので、このように障害物の表面の代表点間を直径とする円の位置から警戒領域を設定することで、移動容易度をより適切に判断することができる。
また、前記行動決定ステップは、前記特定位置が含まれる領域、及び前記ロボットが存在する領域に応じて、移動、移動拒否の応答、指示の再確認、停止、減速、加速の少なくともいずれか1つの行動を決定するのが好ましい。
このようなロボット制御方法によれば、移動、移動拒否の応答、指示の再確認、停止、減速、加速から適切な行動が選択される。なお、移動しつつ減速のように、2つの行動を選択しても構わない。
また、前記指示内容認識ステップは、前記音に含まれる指示語により指示領域を絞り込む指示範囲特定ステップと、前記画像から指示領域を絞り込む画像認識ステップとを有し、前記行動決定ステップは、前記指示範囲特定ステップにより絞り込まれた指示領域と、前記画像認識ステップで認識した指示領域との論理積の領域から特定位置を認識するのが好ましい。
このようなロボット制御方法によれば、指示者が、「そこ」「これ」「あっち」(there,this,that way)等の指示語により移動指示をした場合にも、その指示語により示される領域を絞り込むことで、容易かつ正確に特定位置を認識することができる。この際、指示語で絞り込まれた指示領域と画像認識ステップで認識した指示領域との論理積の領域から特定位置を認識することで、より正確な位置を認識することができる。また、音声による指示と、ジェスチャによる指示に矛盾があった場合に、論理積の結果残る領域がなくなることから、矛盾に気づくことができる。
さらに、前記ロボット制御方法において、前記行動決定ステップにより決定された行動予定を出力する行動予定伝達ステップをさらに有することもできる。行動決定ステップにより決定された行動予定を、行動予定伝達ステップで、画像や音声により出力させることで、指示者などの周囲の者に行動予定を知らせることができ、その結果、ロボットに指示が正しく伝わっているか確認できるとともに、周囲の者がロボットの動きを予測できる。
また、本発明のさらに別の例示的側面として、ロボットを制御するプログラムを提供する。
すなわち、本発明のロボット制御プログラムは、マイクと、撮像装置と、自己位置検出装置と、少なくとも障害物の位置が登録された地図データを保持した地図データベースとを有するロボットを制御するため、前記ロボットに搭載されたコンピュータを、前記マイクにより集音した音に基づいて指示者の指示内容を認識する音声認識手段と、前記撮像装置により撮像した画像に基づいて指示者の指示内容を認識する画像認識手段と、前記自己位置検出装置からの出力に基づいて前記ロボットの現在位置を推定する自己位置推定手段と、前記音声認識手段及び前記画像認識手段の認識結果に基づき、特定位置への移動が必要か否かを判断する判断手段と、前記判断手段で、特定位置への移動が必要であると判断された場合、前記自前記自己位置推定手段で推定した現在位置と、前記地図データとに基づいて前記特定位置への移動容易度を判断する移動容易度判断手段と、前記移動容易度判断手段が判断した移動容易度に応じて行動を決定する行動決定手段として機能させることを特徴とする。
また、前記ロボット制御装置の構成を記載する際に言及した各機能部分を、前記コンピュータに機能させるように構成したロボット制御プログラムとすることもできる。あるいは、前記ロボット制御方法のステップをその構成要素とし、そのロボットに搭載されたコンピュータに実行させることを特徴とするロボット制御プログラムとしてもよい。
このようなロボット制御プログラムは、ロボットが有する制御用コンピュータに導入することで、前記ロボット制御装置と同様の動作を実現させる。このように、コンピュータプログラムとして構成することで、他の制御方法により駆動されていたロボットに、これらのコンピュータプログラムを導入して、容易に本発明の優れた効果を有するロボットにすることができる。また、このようにコンピュータプログラムとして構成されたロボット制御プログラムは、コンピュータ可読媒体(例えば、磁気記録媒体、光学式記録媒体等)に格納して、あるいは通信(伝送)媒体を介して、容易に流通が可能であり、また容易にアップグレードが可能となる。
第2図は、ロボットを動作させるための内部構造を示した斜視図である。
第3図は、ロボットの構成図である。
第4図は、制御ユニットの内部構成を示す機能ブロック図である。
第5図は、指示語による指示範囲の絞り込みを説明する図である。
第6図は、指示語による指示範囲の絞り込みを説明する他の図である。
第7図は、領域を設定する方法を説明する図であり、(a)、(b)は障害物の位置を認識する方法、(c)は、警戒領域の設定方法、(d)は、マージン領域と安全領域の設定方法を示す。
第8図は、ロボットの周囲に、警戒領域、マージン領域、安全領域を設定した一例を示す図である。
第9図は、指示を認識するまでの処理を示すフローチャートである。
第10図は、認識した指示に対する応答処理を示すフローチャートである。
第1図は、本実施形態のロボット制御装置が適用される人間型のロボットRの外観図である。第1図に示すように、ロボットRは、人間と同じように2本の脚部R1により起立、歩行し、上体R2、腕部R3、頭部R4を有し、自律して歩行するロボットである。そして、ロボットRは、これらの脚部R1、上体R2、腕部R3、頭部R4の動作を制御する制御装置搭載部R5を背負う形で背中に備えている。頭部R4には、後記するCCDカメラ43、マイク44、スピーカ45等が備えられている(第3図参照)。
第2図は、ロボットRを動作させるための主な内部構造を示した斜視図である。
なお、第2図においては、説明の便宜のためにすべての関節はそれを駆動する電動モータにより示してある。
第2図に示すように、ロボットRは、左右の脚部R1にそれぞれ6個の関節11R(L)〜16R(L)を備えている。左右12個の関節は、股部に設けられた脚回旋用(Z軸まわり)の股関節11R,11L(右側をR、左側をLとする。以下同じ。)、股部のピッチ軸(Y軸)まわりの股関節12R,12L、股部のロール軸(X軸)まわりの股関節13R,13L、膝部のピッチ軸(Y軸)まわりの膝関節14R,14L、足首のピッチ軸(Y軸)まわりの足関節15R,15L、足首のロール軸(X軸)まわりの足関節16R,16Lから構成されている。そして、脚部R1の下には足部17R,17Lが取り付けられている。
すなわち、脚部R1は、股関節11R(L),12R(L),13R(L)、膝関節14R(L)、足関節15R(L),16R(L)を備える。股関節11〜13R(L)と膝関節14R(L)は大腿リンク51R、51Lで、膝関節14R(L)と足関節15〜16R(L)は下腿リンク52R,52Lで連結されている。
脚部R1は、股関節11R(L)〜13R(L)を介して上体R2に連結される。第2図では、脚部R1と上体R2との連結部を上体リンク53として簡略化して示す。上体R2には腕部R3及び頭部R4が連結されると共に、上体R2を回旋させるための重力軸(Z軸)まわりの関節21も設けられている。
腕部R3は、肩部のピッチ軸(Y軸)まわりの肩関節31R,31L、肩部のロール軸(X軸)まわりの肩関節32R,32L、腕部R3を回旋させるための重力軸(Z軸)まわりの肩関節33R,33L、肘部のピッチ軸(Y軸)まわりの肘関節34R,34L、手首を回旋させるための重力軸(Z軸)まわりの腕関節35R,35L、手首のピッチ軸(Y軸)まわりの手首関節36R,36L、および同ロール軸(X軸)まわりの関節37R,37Lから構成される。手首の先にはハンド38R,38Lが取り付けられている。
すなわち、腕部R3は、肩関節31R(L),32R(L),33R(L)、肘関節34R(L)、腕関節35R(L)、手首関節36R(L)を備えている。肩関節31〜33R(L)と肘関節34R(L)は、上腕リンク54R(L)で、肘関節34R(L)と手首関節36R(L)は下腕リンク55R(L)で連結されている。
そして、頭部R4は、頭部R4のチルト角を変更する首関節41と、パンを変更する首関節42とを有している。
このような構成により、脚部R1は左右の足について合計12の自由度を与えられ、歩行中にこれらの6*2=12個の関節を適宜な角度で駆動することで、足全体に所望の動きを与えることができ、任意に3次元空間を歩行させることができる(この明細書で「*」は乗算を示す)。また、腕部R3も左右の腕についてそれぞれ7つの自由度を与えられ、これらの関節を適宜な角度で駆動することで所望の作業を行わせることができる。
尚、第2図に示す如く、足関節の下方の足部17R(L)には公知の6軸力センサ61が設けられ、ロボットに作用する外力のうち、床面からロボットに作用する床反力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzとを検出する。
さらに、手首関節とハンド38R(L)の間には同種の6軸力センサ62が設けられ、ロボットに作用するそれ以外の外力、特に作業対象物から受ける前記した対象物反力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzとを検出する。
また、上体R2には傾斜センサ63が設置され、重力軸に対する傾きとその角速度を検出する。また各関節の電動モータは、その出力を減速・増力する減速機(図示せず)を介して前記した大腿リンク51R(L)、下腿リンク52R(L)などを相対変位させると共に、その回転量はロータリエンコーダ(図示せず)によって検出される。
制御装置搭載部R5には、制御ユニット100などが収納され、制御ユニット100には、前記した各センサ61〜63などの出力(図示の便宜のためロボットRの右側についてのみ図示)が送られる。また、各電動モータは制御ユニット100からの駆動指示信号により駆動される。なお、制御ユニット100は、本発明のロボット制御装置に相当する。
次に、第3図を参照しながらロボットRの構成を説明する。第3図は、ロボットRのブロック図を示す。第3図に示すように、ロボットRは、制御装置搭載部R5に収納された制御ユニット100が制御の中心をなす。制御ユニット100は、各部に配置されたセンサから信号が入力され、入力された検出値に基づいてロボットRの行動を決定した上で、各関節などの駆動制御値を算出し、各関節などを動作させる。
制御ユニット100は、中央制御装置(CPU)100A、記憶装置100B、入出力インタフェース(I/F)100Cを有するコンピュータであり、記憶装置100Bに格納されたプログラムに沿って入力された情報を処理することにより、後記する各機能を実行する。
脚部R1には、前記した各関節11R(L)〜15R(L)と、6軸力センサ61が備えられ、6軸力センサ61の検出信号は、制御ユニット100に入力され、各関節11R(L)〜15R(L)は、制御ユニット100により駆動される。
上体R2には、前記した関節21、傾斜センサ63に加え、バッテリ25が備えられている。バッテリ25の電力は、制御ユニット100を介して各関節に供給されている。また、傾斜センサ63の検出信号は、制御ユニット100に入力され、関節21は、制御ユニット100により駆動される。
腕部R3には、前記した関節31R(L)〜37R(L)、ハンド38R(L)、6軸力センサ62が備えられている。6軸力センサ62の検出信号は、制御ユニット100に入力され、関節31R(L)〜37R(L)、ハンド38R(L)は、制御ユニット100により駆動される。
頭部R4には、前記した首関節41,42に加え、センサとしてのCCD(Charge−Coupled Device)カメラ43、マイク44、GPS(Global Positioning System)受信器46、ジャイロセンサ47、地磁気センサ48と、発話のためのスピーカ45とが備えられている。
CCDカメラ43は、発明の開示に記載の「撮像装置」に相当し、GPS受信器46、ジャイロセンサ47、地磁気センサ48は、「自己位置検出装置」に相当する。なお、自己位置検出装置としては、これらに限定されず、また、これらのすべてを備える必要は無い。例えばジャイロセンサ47だけでも良いし、逆に他の装置をさらに備えてもよい。
これらのCCDカメラ43、マイク44、GPS受信器46、ジャイロセンサ47、地磁気センサ48からの検出信号は、制御ユニット100に入力され、首関節41,42、スピーカ45は、制御ユニット100により駆動される。
次に、制御ユニット100の内部構成をより詳細に説明する。第4図は、制御ユニット100の内部構成を示す機能ブロック図である。なお、制御ユニット100内に図示する各構成部の機能は、第3図の記憶装置100Bに格納されたプログラム及びデータに基づいてCPU100Aが演算処理を行うことで実現される。また、第4図においては、各センサ61〜63は省略する。
第4図に示すように、制御ユニット100は、主として画像認識部120、音声認識部130、自己位置推定部140、地図データベース150と、これらの情報に基づき行動を決定する主制御部110、ならびに主制御部110の決定に従い行動を制御する行動制御部160とを備えている。
なお、画像認識部120は発明の開示に記載の「画像認識手段」に相当し、音声認識部130は、「音声識別手段」に相当する。
画像認識部120は、2台のCCDカメラ43,43が撮像した撮像画像が画像入力部127を介して入力され、撮像画像から指示者の指示等を認識する。
CCDカメラ(撮像装置)43,43は、視差の情報を得るために右カメラ及び左カメラの2つからなり、それぞれで撮像された画像が、画像入力部127に入力される。CCDカメラ43,43は、ロボットの左右の目に相当するものであり、互いに所定の間隔をあけて、同じ方向を向いて(光軸が平行になるように)ロボットRの頭部R4に設置されている。
画像入力部127は、フレームグラバにより画像をディジタル化して取り込む部分である。
画像認識部120は、指示者の指示を正しく認識するため、距離認識部121、移動物体認識部122、ジェスチャ認識部123、姿勢認識部124、顔領域認識部125、指示領域認識部126を有している。
距離認識部121は、2つのCCDカメラ43,43から取り込んだ同時刻の撮像画像の視差を、CCDカメラ43,43から撮像対象までの距離情報(より正確には、CCDカメラ43,43の焦点位置から撮像対象までの距離の情報)として反映させ、距離画像を生成する。
視差は、一方のCCDカメラ43を基準カメラ(例えば右カメラ)として、この右カメラで撮像された画像と、同時刻に左カメラで撮像された画像とで、特定の大きさのブロック(例えば16×16画素)でブロックマッチングを行うことで計算される。そして、その視差の大きさ(視差量)を基準撮像画像の各画素に対応付けた距離画像が生成される。
なお、視差をZとしたとき、この視差Zに対応するCCDカメラ43から物体までの距離Dは、CCDカメラ43の焦点距離をf、右カメラと左カメラとの距離をBとすると、次の(1)式で求めることができる。
D=B×f/Z …(1)
なお、CCDカメラ43,43は2台に限らず、3台以上のカメラを用いて視認距離を算出することとしてもよい。例えば、3行3列に配置した9台のカメラで、中央に配置したカメラを基準カメラとして、他のカメラとの視差に基づいて、撮像対象までの距離をより正確に測定することもできる。
移動物体認識部122は、画像入力部127から入力された撮像画像中において、指示者や動物、自動車など、移動する物体を認識する部分であり、例えば連続または任意の間隔の2フレーム間の差分からオプティカルフローを得て、撮像画像中の動いている物体を抽出する。
ジェスチャ認識部123は、指示者が発話による指示とともに行うジェスチャを撮像画像から認識する機能を有する。例えば、出願人が出願した特許出願である特願2002−077673(特開2003−039365号公報)に開示されているように、移動対象を認識するイメージセンサ(CCDカメラ)と、イメージセンサで捕捉されたイメージから人間を認識する人間識別部と、人間の手を認識する手認識部と、手認識部により識別された手の動きを予め記憶されている手の特徴的な動きと比較しジェスチャを認識する比較部などを備えて構成するとよい。
姿勢認識部124は、指示者が指示をしたときの姿勢を認識する機能を有する。例えば、出願人が出願した特許出願である特願2002−234066に開示されているように、撮像画像から人間の候補である物体の輪郭を抽出する輪郭抽出手段と、撮像画像中における前記輪郭内の各画素ごとの距離情報から前記人間の候補である物体までの距離計算を行う距離計算手段と、前記輪郭とこの輪郭の物体までの距離に基づいて人間の手の候補を探索する探索手段と、前記手の候補と前記輪郭との相対的位置に対応する指示を判定して、この判定結果を姿勢認識結果とする姿勢判定手段とを備えて構成するとよい。
顔領域認識部125は、撮像画像の中から指示者の顔の領域を検出する機能を有する。例えば、出願人が出願した特許出願である特願2001−013818(特開2002−216129号公報)に開示されているように、CCDカメラ43で撮像されたカラー画像から肌色領域を抽出する抽出手段と、前記カラー画像の奥行き情報を有する距離画像を用い、顔領域の輪郭を与える輪郭モデルを生成する輪郭モデル生成手段と、前記輪郭モデルと前記肌色領域との相関を利用して顔領域を特定する顔領域特定手段とを備えて構成するとよい。
指示領域認識部126は、撮像画像を使用して指示者の姿勢又は視線方向を認識することにより指示者が出す指示領域を検出する機能を有する。例えば、出願人が出願した特許出願である特願2002−231899に記載されているように、撮像画像に基づいて、少なくとも距離情報を含む指示者の頭部位置を検出する手段と、撮像画像に基づいて少なくとも距離情報を含む指示者の手の位置を検出する手段と、前記検出された手の位置に基づいて手先の位置及び手の主軸を算出する手段と、前記検出された頭部位置と手先の位置及び手の主軸に基づいて、指示者が指示する方向を検出する手段を備えるように構成するとよい。また、頭部位置に基づいて目の位置を検出する手段を備え、目の位置と、手先の位置及び手の主軸に基づいて人物が指示する方向を検出するように構成してもよい。
一例として、直感的に説明すると、手の主軸から手の方向ベクトルを決定し、この手の方向ベクトルと、目と手先を結ぶベクトルの合成ベクトルから、指示した方向(位置)を決定することができる。
音声認識部130は、予め登録された語彙を参照して、マイク44からの音声信号を認識して、人の命令や意図を認識する機能を有する。音声認識部130は、指示範囲特定部131(指示範囲特定手段)を有し、指示範囲特定部131は、「ここ」「そっち」(here,that way)など、指示語により特定された領域を絞り込む機能を有する。
音声認識部130は、画像認識部120が認識した指示者とロボットRの距離等を参考にして、指示語で示された領域を特定する。この処理の一例を第5図及び第6図を参照しながら説明する。
例えば、第5図は、指示語による指示範囲の絞り込みを説明する図である。
第5図に示すように、指示者MとロボットRが十分に離れている状態で、指示者が「ここ」、「これ」、「こっち」、「こちら」(here,this,this way,this one)などと言った場合には、指示者Mに近い場所や物を特定しようとしているのが通常であるから、指示者Mから近い距離、例えば指示者Mを中心とした半径1mの範囲が絞り込まれた領域a1(斜線部分)となる。
なお、指示範囲特定部131は、「ここ」(here)と言った場合には、場所を認識する用語として認識し、「これ」(this one)と言った場合には、物を認識する用語として認識し、漠然と「こっち」、「こちら」(this)などと言った場合には、「ここ」、「これ」(here,this one)と同義と認識したり、方向を示す用語(this way)として認識したりする。特定位置の決定方法については後述するが、目標物Taの位置が特定位置として決定された場合、ロボットRから目標物Taに向かう矢印vb1や指示者Mから目標物Taに向かう矢印va2が「こっち」、「こちら」(this or this way)で指示された方向と認識できる。また、特に目標物が見あたらない場合には、指示者Mは漠然と自分の周辺を指示しているので、特定位置は指示者Mの位置であり、「こっち」、「こちら」(this or this way)の意味は指示者Mに向かう矢印va3と認識できる。
また、第6図に示すように、指示者MとロボットRが十分に離れている状態で、指示者が「そこ」、「それ」、「そっち」、「そちら」(there,that,that way,that one)などと言った場合には、指示者Mからある程度の距離の場所や物を特定しようとしているのが通常であるから、「ここ」、「これ」、「こっち」、「こちら」(here,this,this way,this one)で指示するのよりも遠い距離、及び相手のいる周辺を指すのが通常である。そこで、例えば指示者Mを中心とした半径1mから3mの円内の領域b1(斜線部分)と、ロボットRを中心とした半径3mの円内の領域b2(斜線部分)とが絞り込まれた領域となる。
なお、指示範囲特定部131は、「そこ」と言った場合には、場所を認識する用語として認識し、「それ」と言った場合には、物を認識する用語として認識し、「そっち」、「そちら」などは、「そこ」、「それ」と同義と認識したり、方向を示す用語として認識したりする。特定位置の決定方法については後述するが、目標物Tb1や目標物Tb2の位置が特定位置として決定された場合、ロボットRから目標物Tb1,目標物Tb1に向かう矢印vb1、矢印vb2、指示者Mから目標物Tb1,目標物Tb1に向かう矢印vb1、矢印vb2が指示された方向と認識できる。また、特に目標物が見つからなかった場合には、漠然とある程度離れた位置を示しており、特定位置は、例えばロボットRの位置と認識してもよい。この場合、「そっち」、「そちら」はロボットRに向かう矢印vb5と認識できる。
日本語等の言語を使用する文化圏には、「ここ」、「これ」、「こっち」、「こちら」(here,this,this way,this one)等及び「そこ」、「それ」、「そっち」、「そちら」(there,that,that way,that one)等に対応する指示語として、後者より更に遠い領域を指すことば「あそこ」、「あれ」、「あっち」、「あちら」(英語におけるfarther down there,over there,etc.を含意する)等があるため、これらの指示語を用いて、上述と同様の方法で第三の領域が設定される。
すなわち、「あそこ」、「あれ」、「あっち」、「あちら」などと言った場合(farther down there,over there等を含意する指示語を使用した場合)には、「そこ」「それ」(there,that one)で指す領域よりも遠い領域を指すのが通常であるから、第6図で示す領域b1,b2よりも外側の領域が絞り込まれた領域となる。例えば、指示者Mを中心とした半径3mの円の外側であって、かつ、ロボットRを中心とした半径3mの円の外側となる。
なお、上述同様、指示範囲特定部131は、使用される指示語により、場所を認識する用語として認識し、物を認識する用語として認識し、あるいは、方向を示す用語として認識したりする。そして、指示者Mから特定位置決定部111が決定した特定位置の方向や、画像認識部120により認識した指示の方向をその指示語により指示された方向と認識する。
なお、前記した指示語により指し示される領域の決め方は、指示者MとロボットRの距離により変わる。例えば、指示者MとロボットRが広い体育館や運動場などにいて、お互いに20mとか100m以上離れているような場合には、「ここ」「それ」(this,that)等で示すのに基準となる距離は当然のことながら長く設定される。指示者MとロボットRの間にある物については、大きく離れていても、「あれ」(over there,etc)とは言わず、「それ」(that)と言うのが通常だからである。また、指示語に対応する領域の絞り込み方は必ずしも第5図、第6図を参照し上述したものに限られず、他の方法により行うことも可能である。例えば、第5図に示すように、「こっち」(this or this way)という指示語を、ロボットRから見て指示者Mの後方に所定角をもって広がる2点鎖線で示した扇形の領域a3として認識することもできる。また、ロボットRと指示者Mが近い場合には、両者から等距離の境界線より指示者Mに近い側を「ここ」「これ」(here,this)で示す領域と設定することもできる(図示せず)。
また、指示者MとロボットRが近い場合には、「ここ」(here)という指示語で絞り込まれる領域と、「そこ」(there)という指示語に絞り込まれる領域とが重なることになる。これは、その重なった領域はどちらの指示語により指示されてもその領域内にある物(方向、場所)を認識できるということである。
マイク44で集音された音は、音声認識部130だけでなく、音源定位部135にも入力される。音源定位部135は、例えばマイク44をステレオマイクとして、2つ以上のマイク間の音圧差、及び音の到達時間差に基づき音源の位置を検知する。また、音の立ち上がり部分から、音声であるか、衝撃音であるかを推定する。音源定位部135で推定した音源の位置及び音声、衝撃音の推定結果は、主制御部110へ出力される。
自己位置推定部140は、前記した各センサ46〜48の信号に基づき自己の位置と向いている方向を推定する機能を有する。自己位置推定部140は、発明の開示に記載の「自己位置推定手段」に相当する。自己位置の推定方法としては、狭い部屋内を移動する場合には、ジャイロセンサ47から算出される移動距離から部屋の地図における自己の位置を推定すればよいし、屋外で移動する場合には、GPS受信器46で検出した緯度、経度の情報と、地磁気センサ48で検出した方角の検出結果をそのまま自己の位置と推定すればよい。また、各センサ46〜48を組み合わせてより高精度に自己位置を推定することもできる。さらに、画像認識部120で認識した物体の情報と、地図データベース150から読み出した地図データを参照し、これらの情報から推定できる自己位置と、各センサ46〜46から推定した自己位置と照合することで、さらに高精度に自己位置を推定することができる。
地図データベース150は、少なくとも障害物の位置が登録された地図データを保持している。障害物としては、部屋の中であれば、机、壁、柱、荷物等であり、屋外であれば、建物、電柱などである。また、ステージ上では、ステージの縁を障害物として登録すると、ステージ内だけでスムーズな移動をするのに都合がよい。なお、地図データベース150は、必ずしもロボットRが常に所持する必要はなく、他の場所に設置された様々な地図データを有するコンピュータから無線通信によって、必要に応じてロボットRに送信される構成としてもよい。
また、画像認識部120において静止物体も認識するようにして、静止物体を障害物として地図データベース150の地図データに逐次更新するようにすると、状況の変化に適宜対応できるので望ましい。
主制御部110は、特定位置決定部111、移動容易度判断部112、行動決定部113、及び判断部114を有する。
なお、移動容易度判断部112は、発明の開示に記載の「移動容易度判断手段」に相当し、行動決定部113は、「行動決定手段」に相当し、判断部114は、「判断手段」に相当する。
特定位置決定部111は、画像認識部120で認識した指示者の指示領域(以下、これを「画像認識指示領域」という)と、音声認識部130で絞り込んだ指示者が指示した領域(以下、これを「音声認識指示領域」)とから、移動の目標地として指示者が特定した特定位置を決定する機能を有する。
特定位置決定部111による特定位置の決定方法は、例えば3つの場合がある。
第1として、画像認識指示領域と音声認識指示領域が合致しない場合、つまり、両方の論理積の領域を計算した結果、どの領域も残らない場合には、特定位置が認識できないという決定をする。
第2として、画像認識指示領域と音声認識指示領域の論理積により絞り込んだ領域に物体がある場合は、その物体の位置を特定位置と決定する。なお、指示が「そのボールを取ってきてください」のように、「物」に関するものであれば、常に絞り込んだ領域から対象となる物体を検索することになる。検索した結果、物体、例えばボールが複数ある場合は、その中で適当な物を選ぶようにしても良いし、どれのことか指示者に問い合わせるようにしてもよい。また、物体が見つからない場合には、特定位置が認識できないという決定をする。
この第2の場合を図示すると、例えば第5図のようになる。第5図に示すように、音声認識指示領域として絞り込まれた領域a1と、画像認識指示領域として特定された領域(ある幅を持った方向や、ある面積を持つ位置の場合もある)Vaの論理積をそれぞれとり、この論理積により絞り込まれた領域a2内にある目標物Taの位置を特定位置とする。
第3として、画像認識指示領域と、音声認識指示領域の論理積により絞り込んだ領域に物体が無い場合に、その絞り込んだ領域の重心位置を概算で求めて特定位置とする方法もある。もちろん、他の幾何学的方法により絞り込んだ領域の一点、例えば、指示者Mに最も近い点等を特定位置と決めても構わない。
この第3の場合を図示すると、例えば第6図のようになる。第6図に示すように、音声認識指示領域として絞り込まれた領域b1,b2と画像認識指示領域として絞り込まれた領域(ある幅を持った方向や、ある面積を持つ位置の場合もある)Vb1,Vb2の論理積をとって領域b2,b3を特定し、この領域b2,b3のそれぞれの重心を特定位置Tb1,Tb2とする。
移動容易度判断部112は、特定位置決定部111で決定された特定位置への移動の容易さを判断する部分である。この機能のため、移動容易度判断部112は、障害物認識部112a、警戒領域設定部112b、マージン領域設定部112c、安全領域設定部112dを有する。これらの各構成については、第7図を参照しながら説明する。
障害物認識部112a(障害物認識手段)は、地図データベース150から読み出したロボットRの現在位置周辺の地図データ上において、障害物の位置を認識する機能を有する。具体的には、第7図(a)に示すようにロボットRを中心として、等角度(例えば360°/128)ごとに放射状に直線を引いたと仮定し、この直線と、障害物の表面の交点を求める。地図データにおいて、障害物の表面(境界)をベクトルとして登録しておけば、容易にこの交点を求めることができる。この交点群により、ロボット周囲における障害物の位置を認識することができる。例えば、図中において、障害物の境界線OB10と、ロボットRからの放射状の直線L10、L11、L12の交点P10,P11,P12を障害物の位置と認識する。
警戒領域設定部112b(警戒領域設定手段)は、障害物認識部112aで求めた交点群から、ロボットが存在すれば、障害物に干渉する可能性がある領域を警戒領域PRとして設定する機能を有する。警戒領域PRを設定するのは、障害物の全表面が必ずしも第7図(a)で示されるような直線(平面)であるとは限らず、凹凸があったり、障害物の「ずれ」などによって地図データが実状を正確に反映していない可能性もあるからである。
具体的には、第7図(b)に示すように、隣り合う交点間を直径とする円を描きこの円の中心と、ロボットRの位置とで直線を引く。例えば、図中において、交点P10と交点P11を結ぶ線分D10を直径とする円C10を描き、交点P11と交点P12を結ぶ線分D11を直径とする円C11を描く。ここで、交点間を直径とする円を描くのは、符号OBで示した想定しうる障害物のように、人工物が一般に直角の角を有する場合が多いため、その直角の物がロボット側に張り出すように存在しうる範囲を求めるためである。
そして、円C10、円C11と同一中心でそれぞれ半径rだけ大きな円C20、C21を描く。この半径rは、ロボットRの大きさなどに基づいて適宜設定される。
詳細は後述するように、警戒領域PRは、およそこの仮想的障害物OBの角AOBから線分D10,D11側に広がる領域に設定される。仮に実存する障害物OBの角が丸みを帯びている場合は、ロボットRが障害物OBに干渉する可能性はより低くなるので、障害物OBは直角の角を有するとして警戒領域PRを決定すれば十分である。
そして、円C10の中心O10とロボットRを結ぶ線分l10、円C11の中心O11とロボットRを結ぶ線分l11を仮想的に描く。さらに、第7図(c)に示すように、線分l10と直交し、かつ円C20と接する線分D10′と直線L10,L11との交点P10′,P11′を求める。同様にして、線分l11と直交し、かつ円C21と接する線分D11′と直線L11,L12との交点p11′,p12′を求める。そして、一つの放射状の直線上、例えば直線L11上において、交点P11′,p11′のように2つある交点のうち、ロボットRに近い側の交点p11′を警戒領域PRの境界線とする。このように近い側の交点を選択するのは、ロボットRの移動時により安全な方を選択したものである。そして、このような交点を繋いでいけば、警戒領域PRの境界(P10′−p11′−p12′を結んだ境界線PR10)が決められ、この境界より障害物側が警戒領域PRとなる。
マージン領域設定部112c(マージン領域設定手段)は、警戒領域PRから所定距離離れるまでの領域をマージン領域MGとして設定する部分である。具体的には、第7図(d)に示すように、警戒領域PRの境界線PR10をロボットR側に所定距離後退させた線PR11を求め、境界線PR10、境界線PR11、線分L10、及び線分L12で囲まれる領域をマージン領域MGとして設定する。マージン領域MGは、ロボットRが存在することはできるが、少し警戒領域PR側へ移動すると、障害物に干渉する可能性がある領域なので、その場所への移動の場合には、それなりの対処をするようにロボットRが判断する指標となる。
なお、後退させる所定距離は、ロボットRの大きさ、形状、機能、移動速度、制動距離などにより適宜設定する。例えば、人型のロボット場合には、肩幅に手の振りの量を考慮して、90cmと設定するなどである。
安全領域設定部112d(安全領域設定手段)は、障害物から、前記したマージン領域MGよりさらに離れた領域を安全領域SFとして設定する部分である。具体的には、第7図(d)に示すように、境界線PR11、線分L10、及び線分L12で囲まれる領域(境界線PR11よりもロボットRに近い領域)を安全領域SFとして設定する。
このようにして、ある範囲について警戒領域PR、マージン領域MG、安全領域SFに分割した例を図示すると、第8図のようになる。第8図では、地図データ上で、境界線PR10よりも障害物側を警戒領域PR、境界線PR10と境界線PR11の間をマージン領域MG、境界線PR11よりロボットRに近い側を安全領域SFとして3つの領域に分割している。なお、この領域の分割は、必ずしもロボットRの周囲全周にわたってする必要は無く、指示者が移動目標地として指示した特定位置の周辺のみについて行えばよい。このように領域分割を必要な範囲(広さ)についてのみ行うことで、計算負荷が軽くなる。もちろん、領域分割を計算する広さは、CPU100Aの演算能力、ロボットRの移動能力、移動環境の広さ、環境内の障害物の数などに応じて適宜設定すると良い。また、警戒領域PRは、第7図(c)で例示したように障害物の外周に基づいて設定されるだけでなく、ロボットRの歩行が困難な床面の凹凸や縁(例えば、ステージの縁)も障害物とみなされ、領域設定される。
警戒領域PR、マージン領域MG及び安全領域SFは固定されずに、移動に応じていずれかの領域が拡大されたり縮小されたりするようにしてもよい。例えば、警戒領域PRに実際に移動して何も支障がなかった場合は、その警戒領域PRに侵入した範囲に限って警戒領域PRからマージン領域MGとして設定できるように地図データベース150を更新したり、移動速度に応じてマージン領域MGなどの大きさを変化させるようにしてもよい。
また、領域設定は第8図に示したような3つの領域に分類して設定するのには限られず、他の数、例えば2つや5つの領域に分類して設定してもよい。また、障害物に接近するに従って移動容易度が連続的に低減し、それに応じてロボットRが徐々に移動速度を弱めるように構成してもよい。逆に、ロボットRが例えばマージン領域MG内から安全領域SF内に移動した場合、移動速度を上げてもよい。
行動決定部113は、移動容易度判断部112が判断した移動容易度に応じて行動を決定する機能を有する。行動決定部113の動作としては、様々なパターンを設定することができるが、例をいくつかあげると次のような場合が考えられる。
なお、以下の1)〜9)の例において、移動容易度が「困難」「要注意」「安全」の場合とは、特定位置周辺を前記した3つの領域に分類した場合で当てはめると、それぞれ警戒領域PR、マージン領域MG、安全領域SFと対応させることができる。すなわち、指示者によってロボットRが警戒領域PRに移動するような指示が与えられた場合、移動容易度が「困難」とされ、マージン領域MGに移動するような指示が与えられた場合、移動容易度が「要注意」とされ、安全領域SFに移動するような指示が与えられた場合、移動容易度が「安全」と判断される。
なお、マージン領域MGを「困難」と対応させてもよい。
1)移動容易度が「困難」であると判断された場合に、指示者に指示の再確認をするという行動を取る。例えば、指示者に対し、「移動が困難なので動きません」、「本当にそこへ移動してもいいですか?」または「もう一度指示してください」、「進路上に障害物を発見しました」などと発話する。
2)移動容易度が「困難」であると判断された場合に、とりあえず指示された特定位置に向かって移動し、安全領域SFからマージン領域MG、警戒領域PRと安全性の低い領域に近付くに従って、段階的に移動速度を低下させるという行動を取る。移動速度を低下させる方法として歩幅を小さくする方法が一例として採りうる。
3)移動容易度が「困難」であると判断された場合に、とりあえず指示された特定位置に近付き、ある距離まで近付いたら、停止して、指示者に確認をするという行動を取る。例えば「ここでいいですか?」、「もっと移動した方がよいですか?」、「進路上に障害物が発見されました」などと発話する。なお、「ある距離まで近付く」代わりに警戒領域PRとマージン領域MGの境界や、指示位置に最も近い安全領域SF又はマージン領域MG内で停止するようにしてもよい。
また、ロボットRの問いかけに対して、所定時間指示者から何も応答が無い場合には、ロボットRが再度問いかけたり、「応答が無いのでこの場所で停止します」と発声したり、元の位置に戻るなどのリセット行動をとるように構成してもよい。
4)移動容易度が「要注意」と判断された場合に、2)または3)で説明したような行動を取る。
5)移動容易度が「困難」と判断された場合に、移動先となる特定位置を「要注意」の領域まで自動修正し、その後、移動する。
6)移動容易度が「要注意」と判断された場合に、移動先となる特定位置を「安全」の領域まで自動修正し、その後、移動する。
7)移動容易度が「困難」または「要注意」と判断された場合に、動作の選択肢を指示者に示して指示を待つ。例えば、「中止・一歩移動・自動修正・続行のうちどれにしましょうか?」などと発話する。
8)移動容易度が「困難」または「要注意」と判断された場合に、確実な運脚方法に変更する。例えば、通常、動歩行により運脚しているロボットであっても、静歩行による運脚方法に変更する。
9)移動容易度が「安全」と判断された場合に、指示された特定位置まで移動する。
また、行動決定部113は、画像認識部120により認識された指示と、音声認識部130により認識された指示を比較して、指示内容が矛盾するような場合、例えば画像認識指示領域と音声認識指示領域がまったく重ならないような場合には、指示者に問い合わせをするなどの行動を決定する。このような場合には、例えば「もう一度指示してください」などと発話することを決定する。
さらに、行動決定部113は、移動指示に対する行動の決定だけではなく、画像認識部120や音声認識部130などから次々と入力される情報に応じて、ロボットRの次の行動を決定する。例えば、指示者が話しかけてきたときに、音源定位部135が音源の位置の情報を出力してくるが、この信号の入力に応じ、ロボットRの向きを音源の向きへ変えるように行動を決定する。
判断部114は、音声認識部130及び画像認識部120の認識結果に基づき、特定位置への移動が必要か否かを判断する部分である。
行動制御部160は、主制御部110で決定された行動に応じて、発話生成部162や移動制御部161に行動の指示を出力する。
移動制御部161は、行動制御部160の指示に応じ、脚部R1、上体R2、腕部R3、頭部R4の各部のアクチュエータ(関節)に駆動信号を出力し、ロボットRを移動させる。行動制御部160の指示に応じたロボットRの歩行制御は、例えば出願人が出願した特開平10−217161号公報に開示された技術を用いて実現される。
発話生成部162は、行動制御部160の指示に応じ、記憶装置100Bに記憶された発話すべき文字列データから発話すべき音声信号を合成してスピーカ45に信号を出力する。
以上のように構成されたロボットR(制御ユニット100)の動作について第9図及び第10図のフローチャートを参照しながら説明する。なお、第9図は、指示を認識するまでの処理を示したフローチャートであり、第10図は、認識した指示に対する応答処理を示したフローチャートである。
まず、第9図を参照して、指示を認識するまでの処理(指示内容識別ステップ)を説明する。
指示者がロボットRに対して音声及びジャスチャにより指示を行うと、音声がマイク44から入力される(ステップS101)。そして、音声認識部130で音声が言葉として認識されるとともに、音源定位部135において、音源(指示者)の位置が認識される(ステップS102)。次に、音声による指示の内容を認識した結果、意味が通じる内容に認識できたかどうかが主制御部110で判断される(ステップS103)。意味が通じない場合には(ステップS103,No)、聞き取り間違いがあるので、主制御部110(行動決定部113)において、指示者に聞き返すことを決定し、行動制御部160、発話生成部162を通じてスピーカ45から指示者に音声で確認の応答をする。例えば、「もう一度言ってください」のように発話する(ステップS104)。
意味が通じる内容に認識できた場合には(ステップS103,Yes)、音源定位部135が認識した音源(指示者)の位置を注視するようにロボットRの向きを変える(ステップS105)。なお、音声認識処理と指示者注視処理は同時に行ってもよい。
そして、指示範囲特定部131により、音声の指示語により指示された範囲を絞り込む(ステップS106、指示範囲特定ステップ)。例えば、指示が「そこのボールを拾ってください」であれば、「そこ」という指示語を抽出して第5図(c)のc1で示したような範囲に指示範囲を絞り込む。
次に、CCDカメラ43で撮像した画像が画像入力部127を介して入力される(ステップS107)。そして、画像認識部120において、距離認識、移動物体の認識、ジェスチャの認識、指示者の姿勢の認識、指示者の顔領域の認識、指示領域の認識などを行い、これらの情報から総合して指示内容と、指示領域、方向または位置を特定する(ステップS108、画像認識ステップ)。
次に、ステップS108において画像による指示が認識できたかどうかを判断し(ステップS109)、指示者がロボットRに近すぎて、指示者の手の動きなどが撮像範囲からはみ出す等の理由で指示を認識できないときは(ステップS109,No)、主制御部110において、例えば「もう少し離れてください」や「もう一度指示してください」と発話することが決定される。この決定に従い、行動制御部160、発話生成部162を介してスピーカ45から発声される(ステップS110)。
次に、画像から指示が認識できた場合には、(ステップS109,Yes)、音声により認識した指示内容と画像により認識した指示内容が一致しているか(矛盾していないか)特定位置決定部111により判断される(ステップS111)。指示内容が一致していない場合には(ステップS111,No)、主制御部110において、「もう一度指示してください」や「音声とジェスチャの指示内容が一致しません」と発話することが決定される。この決定に従い、行動制御部160、発話生成部162を介してスピーカ45から発声される(ステップS112)。指示内容が一致していた場合には(ステップS111,Yes)、第10図の認識した指示に対する応答処理に進む。なお、音声認識処理と画像認識処理は同時に行うように決定してもよいし、画像認識処理を先に行うようにしてもよい。
主制御部110(行動決定部113)は、認識した指示内容が移動指示、又は、移動が必要な指示かどうかを判断し(ステップS201)、移動指示ではなかった場合には(ステップS201,No)、指示に対応した行動を決定する。そして、行動制御部160、移動制御部161、発話制御部162等に行動の指示を出し、ロボットRが動作する(ステップS202)。たとえば、指示者が手を振って「やあ」と言った場合には、指示者の方に向いて手を振り返すなどの動作を行う。
指示者の指示が移動指示であった場合には(ステップS201,Yes)、地図データベース150を参照し、ロボットRと指示位置の周囲の地図データを取得する(ステップS203)。
次に、特定位置決定部111により、画像認識指示領域と、音声認識指示領域の論理積をとり、指示範囲を絞り込む。そして、必要に応じてさらに目標物を検索するなどして(ステップS204)、移動先として指示された特定位置、又は指示領域内の特定物から決まる移動すべき特定位置を決定する(ステップS205)。
次に、特定位置の周辺の領域を移動容易度判断部112により、第7図及び第8図に示したような「警戒領域PR」「マージン領域MG」「安全領域SF」の3つの領域に分類する(ステップS206、障害物認識ステップ、警戒領域設定ステップ、マージン領域設定ステップ、安全領域設定ステップ)。
次に、特定位置が「安全領域SF」かどうかを判断し(ステップS207、移動容易度判断ステップ)、「安全領域SF」ではなかった場合(ステップS207,No)、すなわち「警戒領域PR」または「マージン領域MG」であった場合には、対応する行動を取るように主制御部(行動決定部113)が行動を決定する(ステップS208、行動決定ステップ)。例えば、指示者に対して「移動が困難なので動けません」などと発話するよう決定する。この決定に従い、行動制御部160、発話生成部162を通じてスピーカ45から発声される。
特定位置が「安全領域SF」であった場合には(ステップS207,Yes)、第7図及び第8図に示す作成した領域データを参考にして、主制御部110で移動ルートを計画し(ステップS209、行動決定ステップ)、移動ルートが問題ないかどうか確認する(ステップS210、行動決定ステップ)。たとえば、移動ルートの途中に地図上に無い障害物があったり、段差があったりしないかを確認する。確認の結果、問題があった場合は(ステップS210,No)、対応する行動を取るように主制御部110(行動決定部113)が行動を決定し、ロボットRを制御する。例えば、もう一度移動ルートを計画し直したり、移動できる位置まで移動した後、指示者に対しどうするか問いかけたりする。
移動ルートが問題なかった場合には(ステップS210、Yes)、主制御部110(行動決定部113)は特定位置まで移動するよう、行動制御部160、移動制御部161に指示を出し、移動制御部161により脚部R3などの各部が駆動されてロボットRが移動する。
このように、本実施形態のロボットR(制御ユニット100)によれば、ロボットに特定位置への移動指示を与えた場合に、地図データを利用してその特定位置への移動容易度を判定し、行動を決定する。そのため、ロボットRが指示された通りに移動するのではなく、自分で特定位置の安全性を確認したうえで行動することができる。したがって、ロボットRの安全性が高まる。別の言い方をすれば、移動先の特性(安全領域、マージン領域、警戒領域などの安全性)に応じて移動態様を変えるので、確実に移動することができる。
また、指示者が指示を誤った場合でも、同様にロボットR自身が特定位置への移動容易度を確認するので、障害物と接触することによるロボットRの損傷が防止される。さらに、指示者に確認の問い合わせをするので、指示者との適切なコミュニケーションを図ることができる。
また、指示語により移動指示を出した場合でも、指示語により指示された特定位置を絞り込み、かつジェスチャなどにより指示された特定位置と照合するので、特定位置の認識が正確になるとともに、指示者が指示を間違えたことも認識でき、不要な移動を防止して安全を確保し、また指示者と適切なコミュニケーションをとることもできる。さらに、指示者が細かな指示を出さなくても簡単な指示語を用いて容易にロボットを移動させることができる。
また、移動容易度に応じて周囲の領域を3段階に分けることで、移動容易度に応じた適切な対応をとることができる。すなわち、実施形態で例示したようなマージン領域を設定することで、安全領域を極力大きくして迅速な移動ができるとともに、警戒領域を最小限にすることができる。その上で、マージン領域への移動に際し、慎重に動いたり、途中で確認したりすることで、マージン領域への移動も安全にこなすことができる。
以上、本発明の実施の形態について説明したが、本発明は前記した実施形態には限定されず、適宜変更して実施することが可能である。例えば、ロボットRは、人間型である必要はなく、動物型でも良いし、車輪により移動するタイプでも構わない。
また、制御ユニット100は、行動制御部160に行動の指示をする際に、これからロボットRが行動しようとする予定を発話するように指示する図示しない行動予定伝達部(行動予定伝達手段)を主制御部110に有するように構成することもできる。このようにすれば、ロボットRの行動が行動決定部113で決定されるとともに、行動予定伝達部(行動予定伝達手段)でその行動予定を出力するように決定し、この行動(移動など)と出力(発話など)を行動制御部160に指示する。そして、ロボットRが移動しようとしている目的地が図示しないモニターに映し出され、もしくは発話生成部162を介してスピーカ45により、例えば「前方5m、右3mの地点に移動しようとしています」と発話される。このとき、同時に目的地を指差すようにしてもよい。したがって、指示者又は第三者は、ロボットRが指示通りに移動しようとしているのか否かを確認することができる。指示者の意図しない移動が予定されている場合は、再度指示を出したり、移動の停止を命じたりするものとする。また、このような行動予定の出力は、指示者の問いかけにより行うように構成しても良い。なお、制御ユニット100は、ロボットRの外部に設けたコンピュータが有し、ロボットRから無線通信で得られた情報に基づいて第9図及び第10図の一部又は全部の処理を該コンピュータが実行するようにしてもよい。また、第4図に示した各機能は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。
したがって、さまざまな分野の多様な目的に応じて、高度な行動制御が可能な、自律移動型のロボットを提供することが可能となる。
Claims (16)
- マイクと、撮像装置と、自己位置検出装置とを有するロボットを制御するロボット制御装置であって、
前記マイクにより集音した音に基づいて指示者の指示内容を認識する音声認識部と、
前記撮像装置により撮像した画像に基づいて指示者の指示内容を認識する画像認識部と、
前記自己位置検出装置からの出力に基づいて前記ロボットの現在位置を推定する自己位置推定部と、
少なくとも障害物の位置が登録された地図データを保持した地図データベースと、
前記音声認識部及び前記画像認識部の認識結果に基づき、特定位置への移動が必要か否かを判断する判断部と、
前記判断部で、特定位置への移動が必要であると判断された場合、前記自己位置推定部で推定した現在位置と、前記地図データとに基づいて前記特定位置への移動容易度を判断する移動容易度判断部と、
移動容易度判断部が判断した移動容易度に応じて行動を決定する行動決定部と、
前記行動決定部の決定に応じた行動を実行する行動制御部と、
を有して構成されたことを特徴とするロボット制御装置。 - 前記移動容易度判断部は、前記特定位置への移動ルートの周囲にある障害物の位置を前記地図データベースから読み出し、前記障害物からの距離に基づいて少なくとも2つ以上の領域を設定し、
前記行動決定部は、前記特定位置が含まれる領域及び前記ロボットが存在する領域に応じて行動を決定するよう構成されたことを特徴とする請求の範囲第1項に記載のロボット制御装置。 - 前記移動容易度判断部は、
前記自己位置推定部で推定した前記ロボットの現在位置及び前記地図データから、前記特定位置への移動ルートの周囲にある障害物を認識する障害物認識部と、
前記障害物認識部が認識した障害物の位置に基づき、前記ロボットが存在すれば前記障害物に干渉する可能性がある領域を警戒領域として設定する警戒領域設定部と、
前記警戒領域から所定距離離れるまでの領域をマージン領域として設定するマージン領域設定部と、
前記障害物から前記マージン領域よりも離れた領域を安全領域として設定する安全領域設定部とを有し、
前記特定位置が含まれる領域、及び前記ロボットが存在する領域が、それぞれ前記警戒領域、マージン領域、安全領域のいずれに該当するかに基づき、前記特定位置への移動容易度を判断することを特徴とする請求の範囲第1項に記載のロボット制御装置。 - 前記警戒領域設定部は、障害物の表面の代表点間を直径とする円の位置を求め、この円の位置を利用して前記警戒領域を設定することを特徴とする請求の範囲第3項に記載のロボット制御装置。
- 前記行動決定部は、移動、移動拒否の応答、指示の再確認、停止、減速、加速の少なくともいずれか1つの行動を決定することを特徴とする請求の範囲第1項に記載のロボット制御装置。
- 前記音声認識部は、指示語により指示領域を絞り込む指示範囲特定部を有し、前記行動決定部は、前記指示範囲特定部により絞り込まれた前記指示領域と、前記画像認識部で認識した指示領域との論理積の領域から特定位置を認識するよう構成されたことを特徴とする請求の範囲第1項に記載のロボット制御装置。
- 前記行動制御部に行動予定を出力させる行動予定伝達部をさらに有することを特徴とする請求の範囲第1項に記載のロボット制御装置。
- マイクと、撮像装置と、自己位置検出装置とを有するロボットを制御するロボット制御方法であって、
前記マイクにより集音した音に基づいて指示者の指示内容を認識し、前記撮像装置により撮像した画像に基づいて指示者の指示内容を認識し、前記自己位置検出装置からの出力に基づいて前記ロボットの現在位置を推定し、前記音で認識した指示内容と、前記画像から認識した指示内容から、特定位置への移動が必要な指示か否かを判断する指示内容識別ステップと、
前記指示内容識別ステップにおいて、特定位置への移動が必要な指示と判断された場合に、前記自己位置検出装置からの出力に基づき推定した現在位置と、地図データベースとして備えられ少なくとも障害物の位置が登録された地図データとに基づいて前記特定位置への移動容易度を判断する移動容易度判断ステップと、
前記移動容易度判断ステップが判断した移動容易度に応じて行動を決定する行動決定ステップと、
前記行動決定ステップの決定に応じた行動を実行する行動制御ステップと、を有することを特徴とするロボット制御方法。 - 前記移動容易度判断ステップは、
前記特定位置への移動ルートの周囲にある障害物の位置を前記地図データベースから読み出し、前記障害物からの距離に基づいて少なくとも2つ以上の領域を設定すること、及び、
前記行動決定ステップは、前記特定位置が含まれる領域及び前記ロボットが存在する領域に応じて行動を決定することを特徴とする請求の範囲第8項に記載のロボット制御方法。 - 前記移動容易度判断ステップは、
前記自己位置検出装置に基づいて推定した前記ロボットの現在位置及び前記地図データから、前記特定位置への移動ルートの周囲にある障害物を認識する障害物認識ステップと、
前記障害物認識ステップで認識した障害物の位置に基づき、前記ロボットが存在すれば前記障害物に干渉する可能性がある領域を警戒領域として設定する警戒領域設定ステップと、
前記警戒領域から所定距離離れるまでの領域をマージン領域として設定するマージン領域設定ステップと、
前記障害物から前記マージン領域よりも離れた領域を安全領域として設定する安全領域設定ステップと、
前記特定位置が含まれる領域、及び前記ロボットが存在する領域が、それぞれ前記警戒領域、マージン領域、安全領域のいずれに該当するかに基づき、前記特定位置への移動容易度を判断するステップと、を有することを特徴とする請求の範囲第8項に記載のロボット制御方法。 - 前記警戒領域設定ステップは、障害物の表面の代表点間を直径とする円の位置を求め、この円の位置を利用して前記警戒領域を設定することを特徴とする請求の範囲第10項に記載のロボット制御方法。
- 前記行動決定ステップは、移動、移動拒否の応答、指示の再確認、停止、減速、加速の少なくともいずれか1つの行動を決定することを特徴とする請求の範囲第8項に記載のロボット制御方法。
- 前記指示内容認識ステップは、前記音に含まれる指示語により指示領域を絞り込む指示範囲特定ステップと、前記画像から指示領域を絞り込む画像認識ステップとを有し、前記行動決定ステップは、前記指示範囲特定ステップにより絞り込まれた指示領域と、前記画像認識ステップで認識した指示領域との論理積の領域から特定位置を認識することを特徴とする請求の範囲第8項に記載のロボット制御方法。
- 前記行動制御ステップは、前記行動決定ステップにより決定された行動予定を出力する行動予定伝達ステップを有することを特徴とする請求の範囲第8項に記載のロボット制御方法。
- マイクと、撮像装置と、自己位置検出装置とを有するロボットを制御するため、前記ロボットに搭載されたコンピュータに、請求の範囲第8項から第14項に記載の方法を実行させることを特徴とするロボット制御プログラム。
- マイクと、撮像装置と、自己位置検出装置とを有するロボットを制御するため、前記ロボットに搭載されたコンピュータを、
前記マイクにより集音した音に基づいて指示者の指示内容を認識する音声認識手段と、
前記撮像装置により撮像した画像に基づいて指示者の指示内容を認識する画像認識手段と、
前記自己位置検出装置からの出力に基づいて前記ロボットの現在位置を推定する自己位置推定手段と、
前記音声認識手段及び前記画像認識手段の認識結果、並びに前記自己位置推定部により推定された前記ロボットの現在位置に基づき、特定位置への移動が必要か否かを判断する判断手段と、
前記判断手段で、特定位置への移動が必要であると判断された場合、前記自己位置推定手段で推定した現在位置と、地図データベースとして備えられ少なくとも障害物の位置が登録された地図データとに基づいて前記特定位置への移動容易度を判断する移動容易度判断手段と、
前記移動容易度判断手段が判断した移動容易度に応じて行動を決定する行動決定手段として機能させることを特徴とするロボット制御プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002357488 | 2002-12-10 | ||
JP2002357488 | 2002-12-10 | ||
PCT/JP2003/015484 WO2004052597A1 (ja) | 2002-12-10 | 2003-12-03 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2004052597A1 true JPWO2004052597A1 (ja) | 2006-04-06 |
JP4276624B2 JP4276624B2 (ja) | 2009-06-10 |
Family
ID=32500851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004558405A Expired - Fee Related JP4276624B2 (ja) | 2002-12-10 | 2003-12-03 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US7873448B2 (ja) |
EP (1) | EP1586423B1 (ja) |
JP (1) | JP4276624B2 (ja) |
AT (1) | ATE527086T1 (ja) |
AU (1) | AU2003289142A1 (ja) |
WO (1) | WO2004052597A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017516670A (ja) * | 2014-06-05 | 2017-06-22 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 衝突回避および軌道復帰能力を有する人型ロボット |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7571511B2 (en) | 2002-01-03 | 2009-08-11 | Irobot Corporation | Autonomous floor-cleaning robot |
US6883201B2 (en) | 2002-01-03 | 2005-04-26 | Irobot Corporation | Autonomous floor-cleaning robot |
JP4839838B2 (ja) * | 2003-12-12 | 2011-12-21 | 日本電気株式会社 | 情報処理システム、情報処理方法および情報処理用プログラム |
EP1571584A1 (en) * | 2004-03-03 | 2005-09-07 | Honda Research Institute Europe GmbH | Integrating visual and object information in a pervasive computing environment |
KR101214723B1 (ko) | 2004-06-24 | 2012-12-24 | 아이로보트 코퍼레이션 | 자동 로봇 장치용의 원격 제어 스케줄러 및 방법 |
JP2006015436A (ja) * | 2004-06-30 | 2006-01-19 | Honda Motor Co Ltd | 監視ロボット |
JP4564447B2 (ja) * | 2004-12-14 | 2010-10-20 | 本田技研工業株式会社 | 自律移動ロボット |
WO2008001275A2 (en) * | 2006-06-30 | 2008-01-03 | Philips Intellectual Property & Standards Gmbh | Method of controlling the position of at least part of an autonomously moveable device |
TWI324080B (en) * | 2007-03-23 | 2010-05-01 | Yu Tuan Lee | Remote-controlled motion apparatus with sensing terrestrial magnetism and remote control apparatus therefor |
EP2053538B1 (de) * | 2007-10-25 | 2014-02-26 | Sick Ag | Absicherung eines Überwachungsbereichs und visuelle Unterstützung einer automatisierten Bearbeitung |
KR101402908B1 (ko) * | 2007-12-18 | 2014-06-02 | 주식회사 케이티 | 행위기반 로봇 제어장치 및 그 제어방법 |
JP5213023B2 (ja) * | 2008-01-15 | 2013-06-19 | 本田技研工業株式会社 | ロボット |
WO2010038353A1 (ja) * | 2008-10-01 | 2010-04-08 | 村田機械株式会社 | 自律移動装置 |
KR101055567B1 (ko) * | 2009-09-18 | 2011-08-08 | 성균관대학교산학협력단 | 서비스 로봇을 위한 지능형 사용자 인터페이스 장치 및 제어 방법 |
JP5284923B2 (ja) * | 2009-10-28 | 2013-09-11 | 本田技研工業株式会社 | 脚式移動ロボットの制御装置 |
CN101808047A (zh) * | 2010-02-10 | 2010-08-18 | 深圳先进技术研究院 | 即时通讯伴侣机器人及具有通讯伴侣的即时通讯方法 |
JP5560794B2 (ja) * | 2010-03-16 | 2014-07-30 | ソニー株式会社 | 制御装置、制御方法およびプログラム |
US9807925B2 (en) * | 2010-07-28 | 2017-11-07 | Deere & Company | Robotic mower area coverage system |
US9323250B2 (en) | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
JP2012236244A (ja) * | 2011-05-10 | 2012-12-06 | Sony Corp | ロボット装置、ロボット装置の制御方法、並びにロボット装置制御用プログラム |
US9098611B2 (en) | 2012-11-26 | 2015-08-04 | Intouch Technologies, Inc. | Enhanced video interaction for a user interface of a telepresence network |
KR20130021943A (ko) * | 2011-08-24 | 2013-03-06 | 한국전자통신연구원 | 디지털 마인드 서비스 장치 및 방법 |
DE112011105829T5 (de) * | 2011-11-09 | 2014-08-07 | Hitachi, Ltd. | Autonomes Fahrsystem |
US8942881B2 (en) * | 2012-04-02 | 2015-01-27 | Google Inc. | Gesture-based automotive controls |
WO2013176762A1 (en) * | 2012-05-22 | 2013-11-28 | Intouch Technologies, Inc. | Social behavior rules for a medical telepresence robot |
US9361021B2 (en) | 2012-05-22 | 2016-06-07 | Irobot Corporation | Graphical user interfaces including touchpad driving interfaces for telemedicine devices |
JP5978028B2 (ja) * | 2012-06-28 | 2016-08-24 | 本田技研工業株式会社 | 移動ロボットの制御装置 |
US9044863B2 (en) | 2013-02-06 | 2015-06-02 | Steelcase Inc. | Polarized enhanced confidentiality in mobile camera applications |
JP5668770B2 (ja) * | 2013-03-15 | 2015-02-12 | 株式会社安川電機 | ロボットシステム、及び、ロボットシステムの制御方法 |
JP5835254B2 (ja) * | 2013-03-15 | 2015-12-24 | 株式会社安川電機 | ロボットシステム、及び、ロボットシステムの制御方法 |
WO2014186973A1 (zh) * | 2013-05-24 | 2014-11-27 | Wen Xia | 除尘装置 |
US9430046B2 (en) * | 2014-01-16 | 2016-08-30 | Denso International America, Inc. | Gesture based image capturing system for vehicle |
EP2933069B1 (en) * | 2014-04-17 | 2019-07-03 | Softbank Robotics Europe | Omnidirectional wheeled humanoid robot based on a linear predictive position and velocity controller |
JP6003942B2 (ja) * | 2014-04-24 | 2016-10-05 | トヨタ自動車株式会社 | 動作制限装置及び動作制限方法 |
CN106094811B (zh) * | 2015-04-27 | 2019-03-05 | 华中科技大学 | 一种基于多传感器的助行机器人人机接口的避障控制方法 |
KR20180079428A (ko) | 2015-11-02 | 2018-07-10 | 스타쉽 테크놀로지스 오 | 자동 로컬리제이션을 위한 장치 및 방법 |
WO2017144350A1 (en) * | 2016-02-25 | 2017-08-31 | Nec Europe Ltd. | Method for motion planning for autonomous moving objects |
CN107452381B (zh) * | 2016-05-30 | 2020-12-29 | 中国移动通信有限公司研究院 | 一种多媒体语音识别装置及方法 |
US10723029B2 (en) * | 2016-10-08 | 2020-07-28 | Zhejiang Guozi Robot Technology Co., Ltd. | Safety protection method of dynamic detection for mobile robots |
JP6927727B2 (ja) | 2017-03-29 | 2021-09-01 | 本田技研工業株式会社 | ロボットの制御装置 |
US11221497B2 (en) | 2017-06-05 | 2022-01-11 | Steelcase Inc. | Multiple-polarization cloaking |
US11106124B2 (en) | 2018-02-27 | 2021-08-31 | Steelcase Inc. | Multiple-polarization cloaking for projected and writing surface view screens |
JP2019168479A (ja) * | 2018-03-22 | 2019-10-03 | キヤノン株式会社 | 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 |
CN109227535A (zh) * | 2018-08-15 | 2019-01-18 | 北京云迹科技有限公司 | 语音呼唤机器人 |
WO2020184733A1 (ko) * | 2019-03-08 | 2020-09-17 | 엘지전자 주식회사 | 로봇 |
JP2020189367A (ja) * | 2019-05-22 | 2020-11-26 | セイコーエプソン株式会社 | ロボットシステム |
KR102298000B1 (ko) * | 2019-10-15 | 2021-09-02 | 서울시립대학교 산학협력단 | 모델 기반 디버깅 방법 및 이를 적용한 디버그 교육 시스템 |
KR20210045022A (ko) * | 2019-10-16 | 2021-04-26 | 네이버 주식회사 | 인식된 사람과 연관된 개인 영역에 기반하여 로봇을 제어하는 방법 및 시스템 |
CN111055288B (zh) * | 2020-01-14 | 2021-04-13 | 弗徕威智能机器人科技(上海)有限公司 | 一种随叫随到的机器人控制方法、存储介质及机器人 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61240306A (ja) * | 1985-04-17 | 1986-10-25 | Hitachi Ltd | 自律型移動機械の制御装置 |
JPS63265312A (ja) * | 1987-04-23 | 1988-11-01 | Fujitsu Ltd | 移動経路探索方法 |
JPH0561539A (ja) * | 1991-08-30 | 1993-03-12 | Toshiba Corp | 移動ロボツト制御装置 |
JP2001188555A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2001287180A (ja) * | 2000-04-04 | 2001-10-16 | Sony Corp | ロボット遠隔制御システム、並びに、ソフトウェア配布方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3052882A (en) * | 1958-04-17 | 1962-09-04 | Thompson Ramo Wooldridge Inc | Craft protective system |
US3005194A (en) * | 1958-04-17 | 1961-10-17 | Thompson Ramo Wooldridge Inc | Anti-collision system |
US5400244A (en) * | 1991-06-25 | 1995-03-21 | Kabushiki Kaisha Toshiba | Running control system for mobile robot provided with multiple sensor information integration system |
JPH0511843A (ja) | 1991-07-05 | 1993-01-22 | Fujitsu Ltd | ロボツトの軌道作成方法 |
JPH0663883A (ja) | 1992-08-20 | 1994-03-08 | Tokimec Inc | 移動ロボットの制御装置 |
JP2761454B2 (ja) * | 1993-12-09 | 1998-06-04 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 自律移動機械の誘導方法 |
JP3143063B2 (ja) * | 1996-06-07 | 2001-03-07 | 株式会社日立製作所 | 移動体の走行制御装置 |
JP3672406B2 (ja) | 1997-01-31 | 2005-07-20 | 本田技研工業株式会社 | 脚式移動ロボットの歩容生成装置 |
US5826216A (en) * | 1997-02-07 | 1998-10-20 | Hittite Microwave Corp. | Anticipatory collision sensor system |
JP3211186B2 (ja) * | 1997-12-15 | 2001-09-25 | オムロン株式会社 | ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 |
US6289332B2 (en) * | 1999-02-26 | 2001-09-11 | Freightliner Corporation | Integrated message display system for a vehicle |
KR20010053322A (ko) * | 1999-04-30 | 2001-06-25 | 이데이 노부유끼 | 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체 |
KR20010053481A (ko) * | 1999-05-10 | 2001-06-25 | 이데이 노부유끼 | 로봇 장치 및 그 제어 방법 |
JP2001188551A (ja) | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2001277163A (ja) * | 2000-04-03 | 2001-10-09 | Sony Corp | ロボットの制御装置及び制御方法 |
US6539284B2 (en) * | 2000-07-25 | 2003-03-25 | Axonn Robotics, Llc | Socially interactive autonomous robot |
CN100423911C (zh) * | 2000-10-13 | 2008-10-08 | 索尼公司 | 机器人装置及其行为控制方法 |
JP4597391B2 (ja) | 2001-01-22 | 2010-12-15 | 本田技研工業株式会社 | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 |
CN100445047C (zh) | 2001-02-21 | 2008-12-24 | 索尼公司 | 机器人装置和控制机器人装置操作的方法 |
US6804396B2 (en) | 2001-03-28 | 2004-10-12 | Honda Giken Kogyo Kabushiki Kaisha | Gesture recognition system |
US6584375B2 (en) * | 2001-05-04 | 2003-06-24 | Intellibot, Llc | System for a retail environment |
JP3893912B2 (ja) * | 2001-07-18 | 2007-03-14 | 株式会社日立製作所 | 車両制御装置 |
JP4149213B2 (ja) | 2002-07-12 | 2008-09-10 | 本田技研工業株式会社 | 指示位置検出装置及び自律ロボット |
US6820006B2 (en) * | 2002-07-30 | 2004-11-16 | The Aerospace Corporation | Vehicular trajectory collision conflict prediction method |
JP3996015B2 (ja) | 2002-08-09 | 2007-10-24 | 本田技研工業株式会社 | 姿勢認識装置及び自律ロボット |
-
2003
- 2003-12-03 US US10/538,523 patent/US7873448B2/en not_active Expired - Fee Related
- 2003-12-03 AT AT03777207T patent/ATE527086T1/de not_active IP Right Cessation
- 2003-12-03 WO PCT/JP2003/015484 patent/WO2004052597A1/ja active Application Filing
- 2003-12-03 AU AU2003289142A patent/AU2003289142A1/en not_active Abandoned
- 2003-12-03 EP EP03777207A patent/EP1586423B1/en not_active Expired - Lifetime
- 2003-12-03 JP JP2004558405A patent/JP4276624B2/ja not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61240306A (ja) * | 1985-04-17 | 1986-10-25 | Hitachi Ltd | 自律型移動機械の制御装置 |
JPS63265312A (ja) * | 1987-04-23 | 1988-11-01 | Fujitsu Ltd | 移動経路探索方法 |
JPH0561539A (ja) * | 1991-08-30 | 1993-03-12 | Toshiba Corp | 移動ロボツト制御装置 |
JP2001188555A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2001287180A (ja) * | 2000-04-04 | 2001-10-16 | Sony Corp | ロボット遠隔制御システム、並びに、ソフトウェア配布方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017516670A (ja) * | 2014-06-05 | 2017-06-22 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 衝突回避および軌道復帰能力を有する人型ロボット |
Also Published As
Publication number | Publication date |
---|---|
WO2004052597A1 (ja) | 2004-06-24 |
EP1586423A4 (en) | 2009-12-16 |
ATE527086T1 (de) | 2011-10-15 |
AU2003289142A1 (en) | 2004-06-30 |
JP4276624B2 (ja) | 2009-06-10 |
EP1586423A1 (en) | 2005-10-19 |
US20060173577A1 (en) | 2006-08-03 |
US7873448B2 (en) | 2011-01-18 |
EP1586423B1 (en) | 2011-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4276624B2 (ja) | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム | |
EP2952301B1 (en) | Humanoid robot with collision avoidance and trajectory recovery capabilities | |
US8019474B2 (en) | Legged mobile robot control system | |
JP3945279B2 (ja) | 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置 | |
JP3176701B2 (ja) | 移動体の現在位置認識処理装置 | |
JP5366048B2 (ja) | 情報提供システム | |
US20100198443A1 (en) | Path planning device, path planning method, and moving body | |
US20120155775A1 (en) | Walking robot and simultaneous localization and mapping method thereof | |
JP2004299025A (ja) | 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム | |
US20100222925A1 (en) | Robot control apparatus | |
US20130218395A1 (en) | Autonomous moving apparatus and method for controlling the same | |
JP2007139710A (ja) | 歩行補助ロボット | |
JP5411789B2 (ja) | コミュニケーションロボット | |
WO2004018159A1 (ja) | 環境同定装置及び環境同定方法、並びにロボット装置 | |
JP6150429B2 (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
JP6134895B2 (ja) | ロボット制御システム、ロボット制御プログラムおよび説明ロボット | |
US20220382282A1 (en) | Mobility aid robot navigating method and mobility aid robot using the same | |
US7778731B2 (en) | Legged mobile robot control system | |
WO2020114214A1 (zh) | 导盲方法和装置,存储介质和电子设备 | |
Chaccour et al. | Novel indoor navigation system for visually impaired and blind people | |
JP3768957B2 (ja) | 移動ロボットの経路設定方法 | |
JP2018049438A (ja) | 自律移動装置、自律移動方法及びプログラム | |
JP6142306B2 (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
JP5115886B2 (ja) | 道案内ロボット | |
CN116075695A (zh) | 移动辅助设备和提供移动辅助的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090303 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090306 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4276624 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120313 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130313 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130313 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140313 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |