JP2006187825A - ロボット装置およびその制御方法 - Google Patents
ロボット装置およびその制御方法 Download PDFInfo
- Publication number
- JP2006187825A JP2006187825A JP2005000704A JP2005000704A JP2006187825A JP 2006187825 A JP2006187825 A JP 2006187825A JP 2005000704 A JP2005000704 A JP 2005000704A JP 2005000704 A JP2005000704 A JP 2005000704A JP 2006187825 A JP2006187825 A JP 2006187825A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- arm
- robot apparatus
- face
- moving means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ロボット装置と操作者間の距離が離れている場合に、肢体と移動手段を利用することにより音声の誤認識を回避し、音声認識の機能を向上できるロボット装置および制御方法を提供する。
【解決手段】移動手段を有した基部101と、基部101の上部に設けられた胴部103と、胴部103の側面上部に設けられたアーム104と、表示機能を有した顔部107と、操作者の音声指令を検知する聴覚センサ105と、操作者の体や顔を検知する視覚センサ106とを備えるロボット装置において、聴覚センサ105をアーム端に備える。
【選択図】図1
【解決手段】移動手段を有した基部101と、基部101の上部に設けられた胴部103と、胴部103の側面上部に設けられたアーム104と、表示機能を有した顔部107と、操作者の音声指令を検知する聴覚センサ105と、操作者の体や顔を検知する視覚センサ106とを備えるロボット装置において、聴覚センサ105をアーム端に備える。
【選択図】図1
Description
本発明はロボット装置およびその制御方法に関し、さらに詳しくは、人間と共存しコミュニケーションを図ることができるロボット装置およびその制御方法に関する。
人間とコミュニケーションを図るために音声認識機能を備えた従来のロボット装置の例として、図6に示すように複数のマイクロホンをロボット装置の肢体に配置したものがあった。これは、音声認識時に両腕を広げ、マイクロホンアレイの音響焦点を重ね合わせ、音声認識の精度を向上させるものである(特許文献1参照)。
また、従来の音声認識ロボット装置の制御方法として、図7に示すように予め設定した音源のデータを参照してノイズと認識した場合にはロボット装置の移動手段によりノイズから遠ざかることにより誤認識を回避するものがあった(特許文献2参照)。
また、従来の音声認識ロボット装置の制御方法として、図7に示すように予め設定した音源のデータを参照してノイズと認識した場合にはロボット装置の移動手段によりノイズから遠ざかることにより誤認識を回避するものがあった(特許文献2参照)。
しかしながら、特許文献1の発明では、ロボット装置と操作者との距離が離れている場合には周囲ノイズによる誤認識を回避することができなかった。
また、特許文献2の発明では、移動手段をノイズの回避行動に用いているのみであり、結果的に対象とする音源を選択できても移動手段によりロボット装置を音源に近づけさせる手段を示すものではなかった。
そこで本発明では、肢体と移動手段を利用することにより音声認識の機能を向上できるロボット装置および制御方法を提供することを目的とする。
また、特許文献2の発明では、移動手段をノイズの回避行動に用いているのみであり、結果的に対象とする音源を選択できても移動手段によりロボット装置を音源に近づけさせる手段を示すものではなかった。
そこで本発明では、肢体と移動手段を利用することにより音声認識の機能を向上できるロボット装置および制御方法を提供することを目的とする。
上記問題を解決するため、本発明は、次のようにしたのである。
請求項1に記載の発明は、移動手段を有した基部と、前記基部の上部に設けられた胴部と、前記胴部の側面上部に設けられたアームと、表示機能を有した顔部と、操作者の音声指令を検知する聴覚センサと、前記操作者の体や顔を検知する視覚センサとを備えたロボット装置であって、前記聴覚センサを前記アーム端に備えるものである。
請求項2に記載の発明は、移動手段を有した基部と、前記基部の上部に設けられた胴部と、前記胴部の側面上部に設けられたアームと、表示機能を有した顔部と、操作者の音声指令を検知する聴覚センサと、前記操作者の体や顔を検知する視覚センサとを備え、前記聴覚センサを前記アーム端に備えたロボット装置の制御方法であって、前記視覚センサの情報に基づき前記操作者の体や顔の抽出を行う画像処理ステップと、前記アーム端と前記操作者の顔との距離と第1の所定値とを比較する第1の比較ステップと、前記第1の比較ステップにて前記距離が前記第1の所定値より大きい場合に前記アームあるいは前記移動手段により前記アーム端を前記操作者に近づけ、再度前記画像処理ステップに戻る接近処理ステップと、前記第1の比較ステップにて前記距離が前記第1の所定値以下の場合に前記移動手段と前記アームの動作を停止する停止処理ステップと、前記停止処理ステップ後に前記操作者に音声指令を行うよう促し、音声認識を開始する音声認識処理ステップ
とからなるものである。
請求項3に記載の発明は、前記接近処理ステップは、前記移動手段による移動時間T1と前記アーム端の移動時間T2を推定する移動時間推定ステップと、前記T1 と前記T2の比較を行う第2の比較ステップと、前記第2の比較ステップにてT1>T2の場合、前記操作者と前記ロボット装置の前面との距離が第2の所定値かつ前記ロボット装置が前記操作者に向いているかを判定する第1の判定ステップと、前記第1の判定ステップの条件を満たしていなければ前記移動手段によって前記ロボット装置を移動させ、前記移動時間推定ステップへ戻る移動手段動作ステップと、前記第2の比較ステップにてT1≦T2の場合、前記アーム端が前記ロボット装置正面と操作者とを結ぶ直線上にあり、かつアーム端と操作者の顔との距離が前記第1の所定値 であるかを判定する第2の判定ステップと、前記第2の判定ステップの条件を満たしていなければ前記アーム端を移動させ、前記第1の判定ステップへ進むアーム端移動ステップとからなるものである。
請求項4に記載の発明は、 前記音声認識ステップにより前記操作者による指令を認識できなかった場合には、前記第1の所定値を小さくしてから再度前記接近処理ステップを行うものである。
請求項1に記載の発明は、移動手段を有した基部と、前記基部の上部に設けられた胴部と、前記胴部の側面上部に設けられたアームと、表示機能を有した顔部と、操作者の音声指令を検知する聴覚センサと、前記操作者の体や顔を検知する視覚センサとを備えたロボット装置であって、前記聴覚センサを前記アーム端に備えるものである。
請求項2に記載の発明は、移動手段を有した基部と、前記基部の上部に設けられた胴部と、前記胴部の側面上部に設けられたアームと、表示機能を有した顔部と、操作者の音声指令を検知する聴覚センサと、前記操作者の体や顔を検知する視覚センサとを備え、前記聴覚センサを前記アーム端に備えたロボット装置の制御方法であって、前記視覚センサの情報に基づき前記操作者の体や顔の抽出を行う画像処理ステップと、前記アーム端と前記操作者の顔との距離と第1の所定値とを比較する第1の比較ステップと、前記第1の比較ステップにて前記距離が前記第1の所定値より大きい場合に前記アームあるいは前記移動手段により前記アーム端を前記操作者に近づけ、再度前記画像処理ステップに戻る接近処理ステップと、前記第1の比較ステップにて前記距離が前記第1の所定値以下の場合に前記移動手段と前記アームの動作を停止する停止処理ステップと、前記停止処理ステップ後に前記操作者に音声指令を行うよう促し、音声認識を開始する音声認識処理ステップ
とからなるものである。
請求項3に記載の発明は、前記接近処理ステップは、前記移動手段による移動時間T1と前記アーム端の移動時間T2を推定する移動時間推定ステップと、前記T1 と前記T2の比較を行う第2の比較ステップと、前記第2の比較ステップにてT1>T2の場合、前記操作者と前記ロボット装置の前面との距離が第2の所定値かつ前記ロボット装置が前記操作者に向いているかを判定する第1の判定ステップと、前記第1の判定ステップの条件を満たしていなければ前記移動手段によって前記ロボット装置を移動させ、前記移動時間推定ステップへ戻る移動手段動作ステップと、前記第2の比較ステップにてT1≦T2の場合、前記アーム端が前記ロボット装置正面と操作者とを結ぶ直線上にあり、かつアーム端と操作者の顔との距離が前記第1の所定値 であるかを判定する第2の判定ステップと、前記第2の判定ステップの条件を満たしていなければ前記アーム端を移動させ、前記第1の判定ステップへ進むアーム端移動ステップとからなるものである。
請求項4に記載の発明は、 前記音声認識ステップにより前記操作者による指令を認識できなかった場合には、前記第1の所定値を小さくしてから再度前記接近処理ステップを行うものである。
請求項1に記載の発明によると、移動手段とアームにより聴覚センサを操作者に近づけられるため、音声認識の精度を向上することができる。
請求項2に記載の発明によると、音声認識の精度を向上させつつ、アーム端と操作者との距離が所定値以下にならないため、アーム端と操作者との衝突を回避し安全性を向上することができる。
請求項3に記載の発明によると、ロボット装置正面が操作者に向くように保たれるため、操作者と自然なコミュニケーションを図ることができる。
請求項4に記載の発明によると、一度音声認識に失敗しても、移動手段によりさらに操作者に近づいて音声認識を再開するため、よりいっそう音声認識の精度を向上することができる。
請求項2に記載の発明によると、音声認識の精度を向上させつつ、アーム端と操作者との距離が所定値以下にならないため、アーム端と操作者との衝突を回避し安全性を向上することができる。
請求項3に記載の発明によると、ロボット装置正面が操作者に向くように保たれるため、操作者と自然なコミュニケーションを図ることができる。
請求項4に記載の発明によると、一度音声認識に失敗しても、移動手段によりさらに操作者に近づいて音声認識を再開するため、よりいっそう音声認識の精度を向上することができる。
以下、本発明の実施の形態について図を参照して説明する。
図1は、本発明のロボット装置の一例を示す図である。
図1において、101は本発明のロボット装置の基部であり、102は移動手段、103は胴部、104はアーム、105は聴覚センサ、106は視覚センサ、107は顔部である。
基部101には、車輪などの移動手段102が備えられている。移動手段102としては車輪に限定されず、いわゆる脚体でもよく、また脚数についても限定されるものではない。移動手段102が車輪の場合、図1に示すようないわゆる2輪差動型の他に全方向移動が可能な方式でもよい。全方向移動が可能な方式としては、主車輪の周にフリーローラを備えたものや、キャスタ型のものが公知である。
図1において、101は本発明のロボット装置の基部であり、102は移動手段、103は胴部、104はアーム、105は聴覚センサ、106は視覚センサ、107は顔部である。
基部101には、車輪などの移動手段102が備えられている。移動手段102としては車輪に限定されず、いわゆる脚体でもよく、また脚数についても限定されるものではない。移動手段102が車輪の場合、図1に示すようないわゆる2輪差動型の他に全方向移動が可能な方式でもよい。全方向移動が可能な方式としては、主車輪の周にフリーローラを備えたものや、キャスタ型のものが公知である。
基部101の上部には胴部103が備えられている。本実施例では胴部103は略円筒形となっているが、方形でもよい。ただし、人間に対する親和性、安全性を考慮すれば胴部103はエッジのない丸みのある形状が望ましい。胴部103の側面上部にはアーム104が備えられている。アーム104は1本あれば十分であるが、人間に対する親和性や機能性を考慮すれば双腕である方が望ましい。さらにアーム104は可動範囲が十分に得られるよう、自由度数7程度の多自由度アームであることが望ましい。
アーム104には、操作者の音声指令を検知する聴覚センサ105が備えられている。聴覚センサ105はいわゆるマイクロホンなどでよい。聴覚センサ105は、アーム104の可動域を有効に利用できるよう、その先端部に備えられていることが望ましい。ただし、聴覚センサ105がアーム104の手首よりも先端に取り付けられると配線により手首の可動域が制限されるため、前腕部の先端近傍に取り付けるのが適切である。
また、配線に関する問題を回避するために聴覚センサ105をワイヤレスマイクとしてもよい。胴部103内に搭載されるロボット装置の図示しない制御装置とアーム104端の聴覚センサとは1m程度しか離れていないため、両者は低出力の微弱無線によって十分に通信することができる。
本発明は、上記のような構成としたため、聴覚センサ105の位置を移動手段102とアーム104により様々に変化させることができる。この結果、聴覚センサ105を操作者に十分に近づけることができ、音声認識の精度が向上する。
また、配線に関する問題を回避するために聴覚センサ105をワイヤレスマイクとしてもよい。胴部103内に搭載されるロボット装置の図示しない制御装置とアーム104端の聴覚センサとは1m程度しか離れていないため、両者は低出力の微弱無線によって十分に通信することができる。
本発明は、上記のような構成としたため、聴覚センサ105の位置を移動手段102とアーム104により様々に変化させることができる。この結果、聴覚センサ105を操作者に十分に近づけることができ、音声認識の精度が向上する。
さらに胴部103には、操作者の体や顔を検知する視覚センサ106が備えられている。視覚センサ106は、いわゆるCCDカメラなどが適当である。視覚センサ106により撮影された画像は、ロボット装置の図示しない制御装置にて処理される。
ここで、ロボット装置に対し数m離れた位置から操作者が手招きをする仕草を認識する技術については公知であり、ロボット装置の図示しない制御装置にて操作者のジェスチャーを画像処理により認識し、操作者から一定の距離までロボット装置を移動させることはそうした公知の技術により実現できる。
ここで、ロボット装置に対し数m離れた位置から操作者が手招きをする仕草を認識する技術については公知であり、ロボット装置の図示しない制御装置にて操作者のジェスチャーを画像処理により認識し、操作者から一定の距離までロボット装置を移動させることはそうした公知の技術により実現できる。
また、胴部103には、人間の顔に相当する部分(顔部)107が備えられており、ロボット装置の図示しない制御装置により、ロボット装置の内部情報などに基づいて表示を変化させる。
図2は、本発明のロボット装置の制御方法を示すフローチャートである。
図2において、201は開始ステップ、202は画像処理ステップ、203はアーム端と操作者の顔との距離 l の比較ステップ、204は移動手段102あるいはアーム104を制御し、アーム端を操作者の顔に接近させる接近処理ステップ、205は移動手段102とアーム104の動作を停止する停止処理ステップ、206は音声認識処理ステップ、207は終了ステップである。
図2において、201は開始ステップ、202は画像処理ステップ、203はアーム端と操作者の顔との距離 l の比較ステップ、204は移動手段102あるいはアーム104を制御し、アーム端を操作者の顔に接近させる接近処理ステップ、205は移動手段102とアーム104の動作を停止する停止処理ステップ、206は音声認識処理ステップ、207は終了ステップである。
開始ステップ201の後、画像処理ステップ202にて、公知の画像処理技術により操作者の顔や体を認識し、アーム104を伸ばした場合のアーム端と操作者の顔との距離lを計測する。アーム104を伸ばす方法の詳細については、図3に基づいて後述する。次に、アーム端と操作者の顔との距離 l の比較ステップ203にて、距離lの値に応じ分岐処理を行う。すなわち、距離lが所定の値l1(0以上の実数)よりも大きい場合は、接近処理ステップ204に進み、再度画像処理ステップ202およびアーム端と操作者の顔との距離 l の判定ステップ203を繰り返す。l1の具体的な値は聴覚センサの性能によって左右されるが、10cm程度が好適である。
なお、本発明の変形例として、接近処理ステップ204の後に画像処理ステップ202の後段すなわち判定ステップ203に戻ってもよく、その場合は図示しないエンコーダなどの角度センサを用いて、いわゆるデッドレコニングによりロボット装置を移動させる。ただし、ロボット装置が移動している間に操作者が体の向きを変えること等が考えられるため、画像認識などの処理時間が十分に短いならば逐次的に画像処理を行う方が望ましい。
距離 lがl1以下になった場合は、停止処理ステップ205に進み、移動手段102とアーム104の動作を停止させた後、音声認識処理ステップ205に進む。公知の音声認識処理の後は終了ステップ206に進み、さらに図示しない後段の処理に進む。
後段の処理では、音声認識で得た操作者の指令に基づいて種々の動作を行う。接近処理ステップ204の詳細については、図3に基づいて後述する。なお、公知の技術により、ロボット装置の動作中に音声認識を行いつつロボット装置の動作音をノイズパターンとして取り除くことも考えられるが、周囲ノイズの影響を回避するため、本発明のように操作者と聴覚センサ105とが十分接近した後に音声認識処理を開始する方が望ましい。
後段の処理では、音声認識で得た操作者の指令に基づいて種々の動作を行う。接近処理ステップ204の詳細については、図3に基づいて後述する。なお、公知の技術により、ロボット装置の動作中に音声認識を行いつつロボット装置の動作音をノイズパターンとして取り除くことも考えられるが、周囲ノイズの影響を回避するため、本発明のように操作者と聴覚センサ105とが十分接近した後に音声認識処理を開始する方が望ましい。
操作者に音声指令のタイミングを知らせるには、次のような方法が考えられる。
すなわち、接近処理ステップ204において移動手段102によりロボット装置が操作者に近づいた後、顔部107の色を赤色にしておき、図示しないスピーカにより「画面が緑色になったら話し掛けてください」と発声する。次に、アーム端を操作者に近づけ、アーム端と操作者の顔との距離lがl1に到達したら、顔部107の色を赤から緑に変化させ、停止処理ステップ205の後、音声認識処理ステップ206を開始する。
本発明は、移動手段102とアーム104により聴覚センサ105の位置を調整できるため、聴覚センサ105を操作者に適切な距離に近づけることができ、音声認識の精度を向上することができる。さらにアーム端と操作者の顔との距離がl1以下にならないため、アーム端と操作者の衝突を回避することができ、安全性を向上することができる。
すなわち、接近処理ステップ204において移動手段102によりロボット装置が操作者に近づいた後、顔部107の色を赤色にしておき、図示しないスピーカにより「画面が緑色になったら話し掛けてください」と発声する。次に、アーム端を操作者に近づけ、アーム端と操作者の顔との距離lがl1に到達したら、顔部107の色を赤から緑に変化させ、停止処理ステップ205の後、音声認識処理ステップ206を開始する。
本発明は、移動手段102とアーム104により聴覚センサ105の位置を調整できるため、聴覚センサ105を操作者に適切な距離に近づけることができ、音声認識の精度を向上することができる。さらにアーム端と操作者の顔との距離がl1以下にならないため、アーム端と操作者の衝突を回避することができ、安全性を向上することができる。
図3は、本発明のロボット装置の制御方法のフローチャートのうち、図2における接近処理ステップ204の詳細を示すフローチャートである。図3において、301は開始ステップ、302は移動時間推定ステップ、303は移動手段102による移動時間T1とアーム端の移動時間T2とを比較するステップ、304は操作者とロボット装置との距離が所定の値l2(0以上の実数)で、なおかつロボット装置が操作者に向いているか否かを判定するステップ、305は移動手段による移動ステップ、306はアーム端がロボット装置正面と操作者とを結ぶ直線上にあり、なおかつアーム端と操作者の顔との距離がl1であるかを判定するステップ、307はアーム端の移動ステップを示す。
ここでl2はロボット装置が操作者に対峙してアーム104を伸ばし、アーム端の聴覚センサ105を操作者の顔に向けて差し出すのに好適な距離であり、具体的には70〜80cm程度の値である。
図4は、図3の処理を終了した時点でのロボット装置と操作者の位置関係を示す上面図である。
ここでl2はロボット装置が操作者に対峙してアーム104を伸ばし、アーム端の聴覚センサ105を操作者の顔に向けて差し出すのに好適な距離であり、具体的には70〜80cm程度の値である。
図4は、図3の処理を終了した時点でのロボット装置と操作者の位置関係を示す上面図である。
ここで本発明のロボット装置の制御方法のねらいを以下に述べる。
移動手段とアームを有するロボット装置において、移動手段によりある程度操作者に近づいた後で移動手段を停止し、アーム端を操作者の顔周辺に近づける方法も考えられるが、本発明では、スムーズな動作により操作者との自然なコミュニケーションを図るため、移動手段とアームを同時に動かし、操作者の顔近傍にアーム端を差し出す。また、ロボット装置正面と操作者とを、一定の距離をもって対峙させる姿勢を目標姿勢とする。
他の目的で、ロボット装置正面と操作者を対峙させる必要がなく、アーム端の聴覚センサを操作者に近づけることのみを考えた場合、アーム基部が操作者に最も近くなる姿勢を目標姿勢としてもよい。
移動手段とアームを有するロボット装置において、移動手段によりある程度操作者に近づいた後で移動手段を停止し、アーム端を操作者の顔周辺に近づける方法も考えられるが、本発明では、スムーズな動作により操作者との自然なコミュニケーションを図るため、移動手段とアームを同時に動かし、操作者の顔近傍にアーム端を差し出す。また、ロボット装置正面と操作者とを、一定の距離をもって対峙させる姿勢を目標姿勢とする。
他の目的で、ロボット装置正面と操作者を対峙させる必要がなく、アーム端の聴覚センサを操作者に近づけることのみを考えた場合、アーム基部が操作者に最も近くなる姿勢を目標姿勢としてもよい。
以降で説明する処理の流れは、ロボット装置が操作者から十分に離れており、移動手段102による移動時間T1が、アーム端の移動時間T2よりも大きい場合を想定しているが、逆の場合、すなわち既に移動手段102によりロボット装置が操作者に十分近づいており、アーム端の移動の方が時間がかかる場合でも対応できるものである。
接近処理ステップ204において、開始ステップ301の後、移動時間推定ステップ302にて移動手段102による移動時間T1とアーム端の移動時間T2を推定する。移動手段102による移動時間T1は、移動距離を仮設定した各物理座標軸の速度で除し、最大時間を選択して求める。
この場合、移動手段102の移動距離とは、アーム端の目標位置(ロボット装置の正面と操作者とを結ぶ直線上で、なおかつ操作者から距離l1以上離れた位置)から現在位置までの差である。移動手段102の目標位置はアーム104の届く範囲で任意に設定される。
一方、アーム端の移動時間T2は、画像認識により得た操作者の顔近傍の高さで、操作者からl1だけ離れた位置からアーム104の初期姿勢までの距離を、移動手段102と同様に、仮設定した各物理座標軸の速度で移動距離を除し、最大時間を選択して求める。
接近処理ステップ204において、開始ステップ301の後、移動時間推定ステップ302にて移動手段102による移動時間T1とアーム端の移動時間T2を推定する。移動手段102による移動時間T1は、移動距離を仮設定した各物理座標軸の速度で除し、最大時間を選択して求める。
この場合、移動手段102の移動距離とは、アーム端の目標位置(ロボット装置の正面と操作者とを結ぶ直線上で、なおかつ操作者から距離l1以上離れた位置)から現在位置までの差である。移動手段102の目標位置はアーム104の届く範囲で任意に設定される。
一方、アーム端の移動時間T2は、画像認識により得た操作者の顔近傍の高さで、操作者からl1だけ離れた位置からアーム104の初期姿勢までの距離を、移動手段102と同様に、仮設定した各物理座標軸の速度で移動距離を除し、最大時間を選択して求める。
次に移動手段102による移動時間T1とアーム端の移動時間T2を比較するステップ303に進む。比較ステップ303では画像認識により逐次判定してもよいし、いわゆるデッドレコニングでもよいが、ロボット装置の移動中に操作者の向きが変わることが予想されるため、画像認識により判定した方が望ましい。
移動手段102による移動時間T1がアーム端の移動時間T2よりも大きい場合、操作者とロボット装置との距離がl2で、なおかつロボット装置が操作者に向いているかを判定するステップ304に進み、判定ステップ304で条件を満たしていなければ移動手段102による移動ステップ305に進む。
移動手段102による移動時間T1がアーム端の移動時間T2よりも大きい場合、操作者とロボット装置との距離がl2で、なおかつロボット装置が操作者に向いているかを判定するステップ304に進み、判定ステップ304で条件を満たしていなければ移動手段102による移動ステップ305に進む。
移動ステップ305では、公知の逆運動学計算により移動量からアクチュエータの軸偏位を求め、ロボット装置の図示しない制御装置にてアクチュエータを駆動する。
その後、移動時間推定ステップ302に戻る。移動時間推定ステップ302では前制御周期におけるT1から制御周期分の時間を差し引いて新しいT1を求める。
その後、移動時間推定ステップ302に戻る。移動時間推定ステップ302では前制御周期におけるT1から制御周期分の時間を差し引いて新しいT1を求める。
移動手段102によってロボット装置が操作者に十分近づき、比較ステップ303にて時間T1≦T2となった場合、アーム端がロボット装置正面と操作者間を結ぶ直線上にあり、なおかつアーム端と操作者の顔との距離がl1であるかを判定するステップ306に進む。条件を満たしていなければ、アーム端の移動ステップ307に進む。アーム端の駆動方法は上述の移動手段102のものと基本的には変わらないため、説明を省略する。
アーム端の移動後、判定ステップ304に進み、その結果移動ステップ305、移動時間推定ステップ302を経て再び比較ステップ303に戻ったら、T2から制御周期分の時間を差し引き、新しいT2とする。以上の処理により、ロボット装置とアーム端を同時に目標位置に到達させることができる。
アーム端の移動後、判定ステップ304に進み、その結果移動ステップ305、移動時間推定ステップ302を経て再び比較ステップ303に戻ったら、T2から制御周期分の時間を差し引き、新しいT2とする。以上の処理により、ロボット装置とアーム端を同時に目標位置に到達させることができる。
図5は、本発明のロボット装置の別の制御方法を示すフローチャートであり、図2に示した制御方法を拡張したものである。図5において、図2と異なるのは音声認識処理ステップ206の後段に音声認識ができたかどうかを判定するステップ501と、アーム端と操作者の顔との距離lの比較対象とする値l1に所定の値l3(0以上の実数)を代入するステップ502を加えたことである。ここで、l1>l3であり、具体的にはl3の値は5cm程度が好適である。
例えば、音声認識処理ステップ206にて、操作者からの音声指令に対し予めロボット装置が格納しているコマンドテーブルに該当するものがなく音声認識処理が失敗した場合、内蔵した図示しないスピーカなどにより操作者に再度指示を促すこともできるが、ロボット装置がさらにアーム端を伸ばした方が操作者の負担が少ない。よってアーム端と操作者の顔との距離lの比較対象を当初のl1より小さな値とすることにより、アーム端をさらに伸ばして聴覚センサ105をさらに操作者に近づける。
例えば、音声認識処理ステップ206にて、操作者からの音声指令に対し予めロボット装置が格納しているコマンドテーブルに該当するものがなく音声認識処理が失敗した場合、内蔵した図示しないスピーカなどにより操作者に再度指示を促すこともできるが、ロボット装置がさらにアーム端を伸ばした方が操作者の負担が少ない。よってアーム端と操作者の顔との距離lの比較対象を当初のl1より小さな値とすることにより、アーム端をさらに伸ばして聴覚センサ105をさらに操作者に近づける。
以上述べたように、本発明は、聴覚センサの位置を移動手段とアームにより設定できるため、聴覚センサを操作者に近づけることができ、音声認識の精度を向上することができ、さらにアーム端と操作者との距離が所定値以下にならないため、アーム端と操作者の衝突を回避することができ、安全性を向上することができる。また、ロボット装置正面が操作者に向くように保たれるため、操作者と自然なコミュニケーションを図ることができる。
また、一度音声認識に失敗しても、アームを伸ばしてさらに操作者に近づいて再度音声認識を行うため、よりいっそう音声認識の精度を向上することができる。
また、一度音声認識に失敗しても、アームを伸ばしてさらに操作者に近づいて再度音声認識を行うため、よりいっそう音声認識の精度を向上することができる。
本発明のロボット装置および制御方法は、人間と共存し、コミュニケーションを図ることができるロボットに適用できる。
101 基部
102 移動手段(車輪)
103 胴部
104 アーム
105 聴覚センサ
106 視覚センサ
107 顔部
102 移動手段(車輪)
103 胴部
104 アーム
105 聴覚センサ
106 視覚センサ
107 顔部
Claims (4)
- 移動手段を有した基部と、前記基部の上部に設けられた胴部と、前記胴部の側面上部に設けられたアームと、表示機能を有した顔部と、操作者の音声指令を検知する聴覚センサと、前記操作者の体や顔を検知する視覚センサとを備えたロボット装置であって、
前記聴覚センサを前記アーム端に備えたことを特徴とするロボット装置。 - 移動手段を有した基部と、前記基部の上部に設けられた胴部と、前記胴部の側面上部に設けられたアームと、表示機能を有した顔部と、操作者の音声指令を検知する聴覚センサと、前記操作者の体や顔を検知する視覚センサとを備え、前記聴覚センサを前記アーム端に備えたロボット装置の制御方法であって、
前記視覚センサの情報に基づき前記操作者の体や顔の抽出を行う画像処理ステップと、
前記アーム端と前記操作者の顔との距離と第1の所定値とを比較する第1の比較ステップと、
前記第1の比較ステップにて前記距離が前記第1の所定値より大きい場合に前記アームあるいは前記移動手段により前記アーム端を前記操作者に近づけ、再度前記画像処理ステップに戻る接近処理ステップと、
前記第1の比較ステップにて前記距離が前記第1の所定値以下の場合に前記移動手段と前記アームの動作を停止する停止処理ステップと、
前記停止処理ステップ後に前記操作者に音声指令を行うよう促し、音声認識を開始する音声認識処理ステップ
とからなることを特徴とするロボット装置の制御方法。 - 前記接近処理ステップは、
前記移動手段による移動時間T1と前記アーム端の移動時間T2を推定する移動時間推定ステップと、
前記T1 と前記T2の比較を行う第2の比較ステップと、
前記第2の比較ステップにてT1>T2の場合、前記操作者と前記ロボット装置の前面との距離が第2の所定値かつ前記ロボット装置が前記操作者に向いているかを判定する第1の判定ステップと、
前記第1の判定ステップの条件を満たしていなければ前記移動手段によって前記ロボット装置を移動させ、前記移動時間推定ステップへ戻る移動手段動作ステップと、
前記第2の比較ステップにてT1≦T2の場合、前記アーム端が前記ロボット装置正面と操作者とを結ぶ直線上にあり、かつアーム端と操作者の顔との距離が前記第1の所定値 であるかを判定する第2の判定ステップと、
前記第2の判定ステップの条件を満たしていなければ前記アーム端を移動させ、前記第1の判定ステップへ進むアーム端移動ステップ
とからなることを特徴とする請求項2記載のロボット装置の制御方法。 - 前記音声認識ステップにより前記操作者による指令を認識できなかった場合には、前記第1の所定値を小さくしてから再度前記接近処理ステップを行うことを特徴とする請求項2記載のロボット装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005000704A JP2006187825A (ja) | 2005-01-05 | 2005-01-05 | ロボット装置およびその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005000704A JP2006187825A (ja) | 2005-01-05 | 2005-01-05 | ロボット装置およびその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006187825A true JP2006187825A (ja) | 2006-07-20 |
Family
ID=36795466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005000704A Pending JP2006187825A (ja) | 2005-01-05 | 2005-01-05 | ロボット装置およびその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006187825A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105105850A (zh) * | 2015-08-14 | 2015-12-02 | 刘洋 | 一种用于医疗器械工程的智能辅助机器人 |
KR20170003580A (ko) * | 2014-04-17 | 2017-01-09 | 소프트뱅크 로보틱스 유럽 | 휴머노이드 로봇과 사용자 간 멀티모드 대화를 수행하는 방법, 이러한 방법을 구현하기 위한 컴퓨터 프로그램 프로덕트 및 휴머노이드 로봇 |
JP2017041260A (ja) * | 2010-07-23 | 2017-02-23 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 自然な対話インターフェースを備えたヒューマノイドロボット、同ロボットを制御する方法、および対応プログラム |
JP2018149626A (ja) * | 2017-03-13 | 2018-09-27 | 大日本印刷株式会社 | コミュニケーションロボット、プログラム及びシステム |
JP2018149625A (ja) * | 2017-03-13 | 2018-09-27 | 大日本印刷株式会社 | コミュニケーションロボット、プログラム及びシステム |
JP2019219509A (ja) * | 2018-06-20 | 2019-12-26 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
WO2020129421A1 (ja) * | 2018-12-19 | 2020-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2022201762A1 (ja) * | 2021-03-23 | 2022-09-29 | ソニーグループ株式会社 | 移動体、及び制御装置 |
-
2005
- 2005-01-05 JP JP2005000704A patent/JP2006187825A/ja active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017041260A (ja) * | 2010-07-23 | 2017-02-23 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 自然な対話インターフェースを備えたヒューマノイドロボット、同ロボットを制御する方法、および対応プログラム |
CN110774285A (zh) * | 2014-04-17 | 2020-02-11 | 软银机器人欧洲公司 | 人形机器人和执行人形机器人与用户之间的对话的方法 |
JP2017520782A (ja) * | 2014-04-17 | 2017-07-27 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラムプロダクト及び人間型ロボット |
KR101991163B1 (ko) * | 2014-04-17 | 2019-06-19 | 소프트뱅크 로보틱스 유럽 | 휴머노이드 로봇과 사용자 간 멀티모드 대화를 수행하는 방법, 이러한 방법을 구현하기 위한 컴퓨터 프로그램 프로덕트 및 휴머노이드 로봇 |
JP2019164352A (ja) * | 2014-04-17 | 2019-09-26 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット |
CN106457563A (zh) * | 2014-04-17 | 2017-02-22 | 软银机器人欧洲公司 | 执行人形机器人与用户之间的多模式对话的方法、用于实施所述方法的计算机程序产品和人形机器人 |
US10242666B2 (en) | 2014-04-17 | 2019-03-26 | Softbank Robotics Europe | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method |
KR20170003580A (ko) * | 2014-04-17 | 2017-01-09 | 소프트뱅크 로보틱스 유럽 | 휴머노이드 로봇과 사용자 간 멀티모드 대화를 수행하는 방법, 이러한 방법을 구현하기 위한 컴퓨터 프로그램 프로덕트 및 휴머노이드 로봇 |
WO2017028539A1 (zh) * | 2015-08-14 | 2017-02-23 | 刘洋 | 一种用于医疗器械工程的智能辅助机器人 |
CN105105850A (zh) * | 2015-08-14 | 2015-12-02 | 刘洋 | 一种用于医疗器械工程的智能辅助机器人 |
JP2018149626A (ja) * | 2017-03-13 | 2018-09-27 | 大日本印刷株式会社 | コミュニケーションロボット、プログラム及びシステム |
JP2018149625A (ja) * | 2017-03-13 | 2018-09-27 | 大日本印刷株式会社 | コミュニケーションロボット、プログラム及びシステム |
JP2019219509A (ja) * | 2018-06-20 | 2019-12-26 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
JP7176244B2 (ja) | 2018-06-20 | 2022-11-22 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
WO2020129421A1 (ja) * | 2018-12-19 | 2020-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN113168835A (zh) * | 2018-12-19 | 2021-07-23 | 索尼集团公司 | 信息处理设备、信息处理方法和程序 |
JP7428141B2 (ja) | 2018-12-19 | 2024-02-06 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2022201762A1 (ja) * | 2021-03-23 | 2022-09-29 | ソニーグループ株式会社 | 移動体、及び制御装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4266211B2 (ja) | ロボット装置、ロボット装置の移動方法、および、プログラム | |
JP4849244B2 (ja) | 移動ロボットおよび移動速度推定方法 | |
JP5366048B2 (ja) | 情報提供システム | |
JP2018049143A (ja) | 音声取得システムおよび音声取得方法 | |
JP2011000681A (ja) | コミュニケーションロボット | |
KR20130096539A (ko) | 자율 이동장치 및 그 제어 방법 | |
JP2008087140A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
JP2009222969A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
JP5392028B2 (ja) | 自律移動ロボット | |
JP2008158868A (ja) | 移動体、及びその制御方法 | |
JP2012161851A (ja) | ロボットシステムおよびそれに用いる空間陣形認識装置 | |
JP2008126329A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
JP2007266754A (ja) | 車両用音声入出力装置および音声入出力装置用プログラム | |
JP2007160440A (ja) | 脚式移動ロボットの制御装置 | |
JP2009241166A (ja) | ロボット遠隔操作システム | |
WO2007138503A1 (en) | Method of driving a speech recognition system | |
JP2006187825A (ja) | ロボット装置およびその制御方法 | |
JP2017094409A (ja) | 動作予告装置 | |
WO2019087495A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2015066621A (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
JP2011224737A (ja) | 案内ロボット、案内方法、及び案内制御用プログラム | |
JP4198676B2 (ja) | ロボット装置、ロボット装置の移動追従方法、および、プログラム | |
JP3768957B2 (ja) | 移動ロボットの経路設定方法 | |
JP4271161B2 (ja) | ロボット装置、ロボット装置の旋回方法、及び、プログラム | |
JP2007155986A (ja) | 音声認識装置および音声認識装置を備えたロボット |