JP2009166213A - ロボット、及びロボットの制御方法 - Google Patents

ロボット、及びロボットの制御方法 Download PDF

Info

Publication number
JP2009166213A
JP2009166213A JP2008009668A JP2008009668A JP2009166213A JP 2009166213 A JP2009166213 A JP 2009166213A JP 2008009668 A JP2008009668 A JP 2008009668A JP 2008009668 A JP2008009668 A JP 2008009668A JP 2009166213 A JP2009166213 A JP 2009166213A
Authority
JP
Japan
Prior art keywords
robot
joint
output value
sensor
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008009668A
Other languages
English (en)
Other versions
JP5088150B2 (ja
Inventor
Yasuhiro Ota
康裕 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008009668A priority Critical patent/JP5088150B2/ja
Publication of JP2009166213A publication Critical patent/JP2009166213A/ja
Application granted granted Critical
Publication of JP5088150B2 publication Critical patent/JP5088150B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】自然な動作が可能となるロボット、及びその制御方法を提供すること。
【解決手段】本発明の一態様にかかるロボット100は、胴体部6と、胴体部を所定の軸周りに回転させる車輪2のモータ131bと、胴体部6に取り付けられた頭部1と、頭部1を所定の軸と平行な軸回りに対して回転させる首関節7と、アクチュータ、及び関節を制御する制御部101と、頭部1に対して所定の軸回りにかかる力を検出するためトルクセンサ125aと、を備えている。制御部101が、トルクセンサ125aからの出力値としきい値とを比較して、トルクセンサ125からの出力値がしきい値を越えていた場合に、出力値が低減するように、車輪2のモータ131bを制御する。
【選択図】図3

Description

本発明は、ロボット、及びロボットの制御方法に関し、特に詳しくは、胴体部を有するロボット、及びその制御方法に関する。
近年、人間と共生するロボットが開発されている。たとえば、ヒューマノイド型のロボットが開発されている。このようなロボットでは、胴体部に頭部や腕部が取り付けられている。そして、首関節、肩関節等によって、首部や腕部を駆動する(特許文献1)。多関節を有するロボットでは、各関節は個別に制御されている。
特開2000−296484公報
また、人間とコミュニケーションを取るロボットが開発されている。例えば、ロボットの頭部には、コミュニケーション相手の方向を特定するためのカメラやマイクロフォンが設けられている。そして、カメラが目の代わりとなり、コミュニケーション相手となる人の顔を認識する。そして、認識した顔を目標方向とする。頭部を目標方向に向けるように制御する。すなわち、移動する顔に追従するように首関節が回転する。よって、コミュニケーション相手の方向を向くことができる。そして、スピーカなどによって発話して、人間とのコミュニケーションを図る。
しかしながら、従来のロボットでは、各関節が別個に制御されている。従って、顔をある方向に向ける際に、それに伴って胴体部をその方向に向けようとした場合、それぞれの制御が別個に行われてしまう。よって、人間の動作と比べて不自然な動作になってしまう。また、首関節だけでなく、他の関節でも同様に不自然な動作になってしまうことがある。このように、従来のロボットでは、動作が不自然になってしまうという問題点がある。
本発明は、このような問題を解決するためになされたものであり、自然な動作が可能となるロボット、及びその制御方法を提供することを目的とする。
本発明の第1の態様にかかるロボットは、胴体部と、前記胴体部を所定の軸周りに回転させるアクチュエータと、前記胴体部に取り付けられた先端部と、前記先端部を前記所定の軸と平行な軸回りに対して回転させる関節と、前記アクチュータ、及び関節を制御する制御部と、前記先端部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備え、前記制御部が、前記センサからの出力値としきい値とを比較して、前記センサからの出力値が前記しきい値を越えていた場合に、前記センサからの出力値が低減するように、前記アクチュエータを制御するものである。これにより、先端部と胴体部が連携して制御されるため、自然な動作で駆動することができる。
本発明の第2の態様にかかるロボットは、上記のロボットであって、前記センサからの出力値に応じて、前記アクチュエータの駆動速度を変化させていることを特徴とするものである。これにより、胴体部の動作速度を変化させることができ、動作がより自然になる。
本発明の第3の態様にかかるロボットは、上記のロボットであって、前記制御部が、前記先端部を目標方向に追従させるよう、前記関節を駆動しているものである。これにより、目標方向への追従動作を自然に行うことができる。
本発明の第4の態様にかかるロボットは、上記のロボットであって、前記制御部が、前記先端部に外力が加わった場合に、前記外力を軽減するように、前記アクチュエータを駆動しているものである。これにより、自然な動作で外力による衝撃を吸収することができる。
本発明の第5の態様にかかるロボットの制御方法は、胴体部と、前記胴体部を所定の軸周りに回転させるアクチュエータと、前記胴体部に取り付けられた先端部と、前記先端部を前記所定の軸と平行な軸回りに対して回転させる関節と、前記アクチュータ、及び関節を制御する制御部と、前記先端部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備えたロボットの制御方法であって、前記センサからの出力値としきい値とを比較して、前記センサからの出力値が前記しきい値を越えていた場合に、前記センサからの出力値が低減するように、前記アクチュエータを制御するものである。これにより、先端部と胴体部が連携して制御されるため、自然な動作で駆動することができる。
本発明の第6の態様にかかるロボットの制御方法は、上記の制御方法であって、前記センサからの出力値に応じて、前記アクチュエータの駆動速度を変化させていることを特徴とするものである。これにより、胴体部の動作速度を変化させることができ、動作がより自然になる。
本発明の第7の態様にかかるロボットの制御方法は、上記の制御方法であって、前記先端部を目標方向に追従させるよう、前記関節を駆動しているものである。これにより、目標方向への追従動作を自然に行うことができる。
本発明の第8の態様にかかるロボットの制御方法は、上記の制御方法であって、前記先端部に外力が加わった場合に、前記外力を軽減するように、前記アクチュエータを駆動しているものである。これにより、自然な動作で外力による衝撃を吸収することができる。
本発明によれば、自然な動作が可能となるロボット、及びその制御方法を提供することが可能になる。
本実施の形態にかかるロボットは、胴体部と、胴体部を所定の軸周りに回転させるアクチュエータと、胴体部に取り付けられた先端部と、先端部を所定の軸と平行な軸回りに対して回転させる関節と、アクチュータ、及び関節を制御する制御部と、先端部に対して所定の軸回りにかかる力を検出するためのセンサと、を有している。そして、制御部が、センサからの出力値としきい値とを比較して、センサからの出力値がしきい値を越えていた場合に、センサからの出力値が低減するように、アクチュエータを制御している。
発明の実施の形態1.
本実施の形態にかかる電源供給装置を用いたロボットについて図1を用いて説明する。図1はロボット100の構成を模式的に示す外観図である。本実施の形態では、ロボット100が、自律移動する移動ロボットとして説明する。ロボット100は、頭部1と、車輪2と、筐体3と、腕部4と、胴体部6を備えている。
胴体部6の上には、頭部1が設けられている。頭部1は、首関節を介して胴体部6に連結されている。首関節を駆動すると頭部1の向きが変化する。また、胴体部6の両側には、それぞれ腕部4が設けられている。腕部4は、肩関節を介して胴体部6に連結されている。胴体部6の下には、車輪2が設けられている。車輪2を駆動することにより、ロボット100が移動する。胴体部6は、筐体3を有している。胴体部6には、ロボット100の中心軸となる体軸が含まれている。
そして、筐体3の内部には、車輪2と接続されたモータ、及びモータを駆動するための電源部などが設けられている。このモータがロボット100を駆動するためのアクチュエータとなる。モータを駆動することによって、車輪2が回転して、ロボット100が移動する。また、腕部4には、腕関節4aが設けられている。腕関節4aは、モータと接続されている。モータ等によって腕関節4aを駆動することによって、腕部4の位置、及び姿勢が制御される。さらに、腕部4が駆動することによって、物体の把持などが行なわれる。胴体部、及び頭部1には、人間とコミュニケーションを取るために、カメラ、LED、マイク、スピーカなどが設けられている。
ロボット100は、画像処理によって顔認識を行う。そして、首関節を駆動して、頭部1をコミュニケーション相手の方向に向ける。すなわち、首関節を駆動することによって顔追従を行う。こうすることで、常時、頭部1が人間の顔の方向を向く。この顔追従動作については、後述する。そして、スピーカを用いて、コミュニケーション相手に対して発話する。
次に、ロボット100の制御系について図2を用いて説明する。図2は、ロボット100の制御系を示すブロック図である。ロボット100は、制御部101、入出力部102、駆動部103、電源部104、及び外部記憶部105などを有している。
入出力部102は、周囲の映像を取得するためのCCD(Charge Coupled Device)などからなるカメラ121、周囲の音を集音するための1又は複数の内部マイク122、音声を出力してユーザと対話等を行なうためのスピーカ123、ユーザへの応答や感情等を表現するためのLED124、タッチセンサなどを有するセンサ部125などを備える。また、センサ部125は、レーザレンジファインダ、トルクセンサ、エンコーダなどの各種センサを有している。
また、駆動部103は、モータ131及びモータを駆動するドライバ132などを有し、ユーザの指示などに従って、首関節、車輪2、腕部4の腕関節4aを駆動させる。なお、モータ131の数は関節の数によって決まる。したがって、ロボット100には、複数のモータ131が設けられている。電源部104は、バッテリ141及びその放充電を制御するバッテリ制御部142を有する電源ユニットであり、各部に電源を供給する。そして、バッテリ141からの電源は、制御部101、入出力部102、モータ131、外部記憶部105等に供給される。電源部104は、例えば、筐体3の内部に設けられている。ロボット100に内蔵されたバッテリ141は二次電池であり、例えば、外部のAC電源と接続することによって充電が行なわれる。
バッテリ141としては、例えば、リチウム電池パックを用いることができる。バッテリ制御部142は、バッテリ141からの電源供給を制御するパワーコントロールユニット(PCU)を有している。
外部記憶部105は、着脱可能なHDD、光ディスク、光磁気ディスク等からなり、各種プログラムや制御パラメータなどを記憶し、そのプログラムやデータを必要に応じて制御部101内のメモリ(不図示)等に供給する。
制御部101は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、無線通信用のインターフェースなどを有し、ロボット1の各種動作を制御する。そして、この制御部101は、例えばROMに格納された制御プログラムに従ってロボット100の各部を制御する。制御部101は、ドライバ132に駆動信号を出力して、モータ131の動作を制御する。これにより、ロボット100が所定の位置まで自律的に移動する。あるいは、腕関節4aが駆動して、腕部4が移動する。具体的には、制御部101は、目標位置までの移動経路を生成して、その移動経路に追従するように、モータを制御する。さらに、首関節が駆動して、頭部1が所定の方向を向く。例えば、制御部101は、各軸に対する指令値を算出する。そして、ドライバ132に指令値に応じた駆動信号を出力する。これにより、各軸のモータが指令値に追従するようにフィードバック制御される。
モータ131、及びドライバ132は、2つの車輪2や各関節にそれぞれ設けられている。これにより、2つの車輪2や関節を独立して駆動することができる。例えば、ドライバ132は、モータ131の回転数を制御する。これにより、車輪2を所定の回転数で駆動することができる。よって、ロボット100の目標位置までの移動が可能となる。モータ131はロボット100の内部に取り付けられている。また、これらの各機器は筐体3に収納されている。
次に、顔追従を行うための構成について、図3を用いて説明する。図3は、筐体3内部の構成を模式的に示す斜視図である。図3(a)は、左前側からみた斜視図であり、図3(b)は、左後ろ側から見た斜視図である。
頭部1には、カメラ121が設けられている。カメラ121は、例えば、頭部1の目の位置に設置されている。カメラ121は、例えば、ステレオカメラであり、対象物を異なる方向から同時に撮像する。これにより、ステレオ画像が取得される。カメラ121で取得された画像データは、制御部101に出力される。制御部101は、この画像データに基づいて顔認識を行う。
頭部1は、首関節7を介して胴体部6に接続されている。首関節7は、頭部1をヨー軸(首ヨー軸)回りに回転させる。従って、首関節7を駆動することで、カメラ121の向きが変化する。すなわち、カメラ121の視野の方向が変化する。さらに、首関節7には、センサ部125に含まれるトルクセンサ125aが設けられている。トルクセンサ125aは、例えば、力覚センサであり、首関節7にかかる駆動トルクを検出する。これにより、首関節7の駆動軸にかかるトルクの大きさ、及び方向が検出される。このように、トルクセンサ125aは、頭部1に対してヨー軸回りにかかる力を検出するために設けられている。
胴体部6には、制御部101が設けられている。制御部101は、胴体部6の背面側に設置されている。制御部101は、顔認識モジュールを有しており、カメラ121で取得された画像データに対して顔認識を行う。例えば、外部記憶部105のメモリ等に顔テンプレート画像を予め登録しておく。そして、顔テンプレート画像を用いた画像処理を行って、人間の顔を抽出する。すなわち、カメラ121で取得した画像の中から顔テンプレート画像にマッチングするパターンを抽出する。これにより、取得した画像中の顔の位置を特定することができ、顔を認識することができる。よって、コミュニケーション相手の方向を特定することができる。
さらに、胴体部6の下側には、車輪2が設けられている。車輪2は、車輪ベースに回転可能に保持されている。すなわち、胴体部6の左右両側には、車輪2が取り付けられている。胴体部6には、モータ131を駆動するためのサーボアンプやドライバ等が設置されている。左右の車輪2を回転させることで、ロボット100が移動する。すなわち、左右の車輪2を前方向に回転させることで、ロボット100が前進し、後ろ方向に回転させることでロボット100が後退する。また、左右の車輪2を反対方向に回転させることで、胴体部6がヨー軸回り(腰ヨー軸)に回転する。すなわち、右の車輪2を前方向、左の車輪2を後ろ方向に回転させることで、ロボット100が左旋回する。このように、左右の車輪2を反対方向に同じ回転速度で回転させることで、その場旋回させることが可能になる。また、左右の車輪2を異なる回転速度で反対方向に回転させることで、移動しながら、ロボット100の方向を変えることができる。
さらに、車輪2の前後には、転倒防止用の補助輪8が設けられている。補助輪8は、従動輪であり、車輪2の駆動にしたがって回転する。また、車輪2の駆動にしたがって、補助輪8の方向が変化する。
胴体部6には、腕部4が設けられている。図3に示すように、腕部4は右アーム、及び左アームを有している。腕部4は、肩関節9を介して胴体部に取り付けられている。さらに、腕部4の肘部分や手首部分には、腕関節4aが設けられている。肩関節9及び腕関節4aによって、腕部4が駆動する。例えば、腕部4を駆動することで、対象物体を把持することができる。
頭部1をコミュニケーション相手となる方向に向けるため、制御部101は、首関節7を制御する。すなわち、頭部1を首ヨー軸周りに回転させて、顔追従を行う。カメラ121で取得された画像に対して顔認識を行う。そして、カメラ121が常時、顔を撮像することができるように、首関節7を回転させる。例えば、カメラ121の視野の中心に、顔が存在するように、顔追従を行う。これにより、首関節7が回転して、コミュニケーション相手の方向を向くことができる。
さらに、本実施の形態では、トルクセンサ125aの出力値に基づいて、顔追従を行っている。トルクセンサ125aで、検出したトルクがしきい値を越える場合、車輪2を駆動して、首関節7の駆動トルクを低減する。具体的には、車輪2を駆動して、ロボット100をその場旋回させる。これにより、胴体部6がヨー軸回りに回転する。
トルクセンサ125aは、頭部1(首ヨー軸関節)と胴体部6(腰ヨー軸関節)との間の相互反力を検出する。そして、トルクセンサ125aの出力値がしきい値を越えたら、車輪2を回転させる。これにより、胴体部6がヨー軸回りに回転して、トルクセンサ125aの出力値が低減する。すなわち、首ヨー軸関節にかかる力を打ち消すように車輪2を駆動する。これにより、胴体部6が腰ヨー軸回りに回転して、首関節7にかかる負荷(反力)が軽減する。すなわち、首関節7が回転している方向に、胴体部6がその場で旋回する。よって、ロボット100をスムーズに動作させることができる。自然な動作を実現することができ、ロボット100全体の動きや仕草の見栄えが向上する。
次に、顔追従を行うための制御について図4〜図6を用いて説明する。すなわち、画像処理によって認識された顔の方向に頭部1を向けるための制御について以下に説明する。図4は、顔追従を行う際の頭部1と胴体部6の動作を模式的に示す上面図である。図5は、頭部1と首関節7とを含むロボットヘッドの制御ループを模式的に示すブロック図である。図6は、車輪2と胴体部6とを含むロボットボディの制御ループを模式的に示すブロック図である。なお、図4では、頭部1の向き(正面方向)が実線矢印で示され、顔追従の目標方向が点線矢印で示されている。すなわち、顔追従を行うと、実線矢印が点線矢印に近づくように、フィードバック制御が行われる。
動作開始前では、図4(a)に示すように、ロボット100の顔が正面を向いている。そして、図5に示すように、顔追従のアクションを開始すると、カメラ121で取得した画像に対して画像処理を行う。すなわち、顔認識処理を行い、目標方向を特定する。対象200となる人の顔を認識して、対象200の方向を目標方向とする。これにより、目標方向が特定され、ロボット100が対象200を向くように顔追従制御が行われる。なお、ここでは説明の簡略化のため、ロボット100に対する対象200の位置が一定であるとして説明する。
顔追従アクションを開始すると、制御部101aは、目標方向に頭部1を向けるために、首関節7のモータ131aを駆動する。すなわち、首関節7をヨー軸回りに回転して、頭部1の向きを変える。これにより、図4(b)に示すように、胴体部6に対する頭部1の向きが変化する。図4(b)では、対象200が左斜め前にあるため、首関節7が反時計回りに回転する。頭部1の向きが目標方向に近づく。なお、ここでは、フィードバック制御によって、首関節7を駆動している。すなわち、目標方向と頭部1の現在の方向(向き)との偏差に適当なフィードバックゲインを乗じて、目標トルク値(指令値)を算出する。そして、その目標トルク値になるように、首関節7のモータ131aを駆動する。したがって、頭部1の向きが目標方向からずれているほど、モータ131aの目標トルク値が大きくなる。
そして、モータ131aを駆動した後、再度、カメラ121で画像を取得して、顔認識を行う。これにより、目標方向が修正される。首関節7が回転した分だけ、目標方向からのずれが小さくなっている。もちろん、対象200が移動した場合も対象200の絶対位置が変わるため、目標方向が変化する。そして、頭部1が目標方向を向くように、首関節7を駆動していく。首関節7については、上記のフィードバック制御を繰り返し行っている。すなわち、位置制御によってモータ131aを駆動して、首関節7を回転させている。
次に、胴体部6の制御について、図6を用いて説明する。首関節7のモータ131aが駆動すると、図6に示すように、トルクセンサ125aでモータトルクが検出される。トルクセンサ125aで検出されるトルクは、頭部1と胴体部6との間にかかる反力に相当する。制御部101bがしきい値とモータ131aのトルクを比較する。すなわち、トルクセンサ125aの出力値が、予め設定されているしきい値を越えているか否かを判定する。制御部101bは、トルク(回転負荷)に応じて、負荷(反力)軽減動作を行うか、姿勢維持動作を行うかを判断する。しきい値を越えている場合は、ドライバ132が負荷軽減動作を行う。すなわち、車輪2のモータ131bを駆動して、胴体部6をヨー軸周りに回転させる。これにより、図4(c)に示すように、胴体部6が目標方向に向かって、反時計周りに回転する。すなわち、車輪2の駆動によって、首関節7の回転方向と同じ方向に、胴体部6が回転する。
このように、ロボット100がその場旋回して、胴体部6の体軸アライメントが行われる。したがって、胴体部6に取り付けられた頭部1の向きが目標方向に近づく。すなわち、胴体部6が目標方向に向かってヨー軸回りに回転するため、それにしたがって頭部1も回転する。さらに、上記のように、胴体部6に対して首関節7がヨー軸回りに回転している。よって、しきい値を越えた場合、首関節7の駆動だけでなく、車輪2の駆動で頭部1の向きが変わる。このため、速やかに目標方向を向くことができる。ここでは、トルクセンサ125aからの出力値がしきい値を越えた場合、一定の回転速度で車輪2のモータ131bを回転する。すなわち、予め設定されている回転角度で、車輪2を回転させる。これにより、胴体部6の体軸アライメント(姿勢調整)が行われる。
頭部1の向きが目標方向に近づいたら、首関節7のトルクが低くなる。すなわち、目標方向と頭部1の向きとの偏差が小さくなるため、フィードバック制御での目標トルク値(指令値)が小さくなる。よって、首関節7のトルクが低下して、トルクセンサ125aで検出されたトルクがしきい値よりも小さくなる。したがって、ドライバ132が姿勢維持動作を行う。この場合、車輪2のモータ131bを駆動しないため、胴体部6のヨー軸回りの回転が止まる。したがって、ロボット100は、出力値がしきい値よりも小さくなった時点での腰ヨー軸姿勢を維持する。この場合、首関節7の駆動のみによって、頭部1の向きが目標方向に近づく。そして、上記の処理を繰り返して、頭部1の向きを目標方向に一致させる。そして、頭部1が対象200を向いたら、スピーカなどでコミュニケーションを取る。
このように、トルクセンサ125aで検出されたトルクがしきい値を越えたか否かに応じて、車輪2の制御を切換えている。すなわち、トルクがしきい値を越えた場合は、負荷軽減動作により、車輪2を駆動して、首ヨー軸の駆動トルクを軽減する。首ヨー軸にかかるトルクを打ち消すように、胴体部6が腰ヨー軸回りに回転する。これにより、首関節7にかかる力が軽減される。そして、トルクがしきい値以下となるまで、車輪2を駆動して、胴体部6を腰ヨー軸回りに回転させる。すなわち、トルクがしきい値以下となると、姿勢維持動作によって、そのときの腰ヨー軸姿勢を維持する。なお、しきい値の値を可変としてもよい。例えば、実際の動作を確認して、しきい値を調整してもよい。
このようにすることで、頭部1の向きが変わり始めてから、胴体部6の向きが変化する。すなわち、最初に頭部1の向きが変わって、それに伴って胴体部6の向きが変化する。そして、ある程度胴体部6の向きが変わると、胴体部6の回転が停止する。したがって、人間のように自然な動作で顔追従を行うことができる。よって、ロボット100全体の動きや仕草の見栄えが向上する。さらに、首関節7にかかる負荷を軽減することができる。首関節に過大なトルクがかかることがなくなるため、ロボット100の駆動機構等を損傷するのを防ぐことができる。また、ロボット100全体の動作ステップが削減され、動作の高速化、効率化を図ることができる。
次に、本実施の形態にかかるロボット100の制御方法について図7を用いて説明する。図7は、本実施の形態にかかるロボット100の制御フローを模式的に示す図である。
まず、ロボット100の頭部1及び首関節7を含むロボットヘッドにおける制御について説明する。最初に、人の顔認識を行い、目標方向を特定する(ステップS101)。すなわち、カメラ121で取得した画像に基づいて、画像処理を行い。これにより、ロボット100がコミュニケーションを取る相手の顔を認識することができる。そして、人の顔追従を行う(ステップS102)。すなわち、首関節7を駆動して、頭部1を首ヨー軸回りに回転させる。
そして、ヨー軸関節にかかる反力を検出する(ステップS103)。すなわち、トルクセンサ125aによって、トルクを検出する。すると、ロボット100の胴体部6と車輪2を含むロボットボディにおいて、負荷(反力)軽減制御を行う(ステップS104)。すなわち、トルクセンサ125aからの出力値と、しきい値を比較する。そして、しきい値を越えていた場合は、体軸アライメントを行なう(ステップS105)。すなわち、車輪2を駆動して、胴体部6を腰ヨー軸回りに回転させる。ここでは、しきい値を越えている間、左右の車輪2を一定の回転速度で駆動する。これにより、ロボット100が目標方向に向かって、旋回する。そして、以上の処理を繰り返して、顔追従動作を行う。
このように、ロボットヘッドとロボットボディを同期、連携して制御することによって、ロボット100をスムーズに動作させることができる。すなわち、ヨー軸関節の反力(負荷)に基づいて、車輪2、及び首関節7が連携して動作するため、自然な動きを実現することができる。
なお、首ヨー軸にかかる力の検出は、トルクセンサ125aに限られるものではない。例えば、首関節7のモータ131aに流れる電流を測定することによって、力を検出してもよい。すなわち、首ヨー軸と腰ヨー軸(体軸)との間にかかる反力を直接的、又は間接的に検出できるセンサを用いればよい。
さらに、顔認識処理以外の方法で、目標方向を特定してもよい。例えば、マイクロフォンアレイなどで、音を検出して、その音の発生した方向を目標方向としてもよい。もちろん、これら以外の方法で目標方向を特定してもよい。例えば、外部からの信号によって、目標方向を特定してもよい。目標方向に追従している間に対象200が移動した場合、その目標方向も更新される。そして、更新された目標方向に追従するように、位置制御が行われる。
次に、本実施の形態の変形例について説明する。上記の例では、トルクセンサ125aからの出力値がしきい値を越えた場合、一定の回転速度で車輪2を回転させたが、本変形例では、トルクセンサ125aの出力値に応じて車輪2の回転速度を変化させている。すなわち、トルクセンサ125aからの出力値に基づいて、車輪2の回転速度が変わる。例えば、出力値が大きい場合、胴体部6の体軸アライメントの回転速度を速くして、素早く追従させる。一方、出力値が小さい場合、胴体部6の体軸アライメントの回転速度を遅くして、ゆっくり動かす。このように、反力の大きさに基づいて、腰ヨー軸の回転による反力軽減動作の速度を変化させる
あるいは、出力値の変化速度(一次微分)に応じて、体軸アライメントの回転速度を変えてもよい。例えば、出力値を時間で微分して、出力値の変化速度を求める。そして、出力値の変化速度に応じて、胴体部6の体軸アライメントの回転速度を変化させる。出力値の変化速度が大きい場合、胴体部6の体軸アライメントの回転速度を速くして、素早く追従させる。一方、出力値の変化速度が小さい場合、胴体部6の体軸アライメントの回転速度を遅くして、ゆっくり動かす。
例えば、しきい値を複数設定することによって、体軸アライメントの回転速度を段階的に変化させることができる。すなわち、反力の大きさ、又はその変化速度にしたがって、体軸アライメントの回転速度をステップ的に変化させる。あるいは、トルクセンサ125aの出力値から体軸アライメントの回転速度を求める演算式を予め設定しておいてもよい。トルクセンサ125aからの出力値に基づいて、モータ131bの駆動速度を決定することができる。反力の大きさ、又はその変化速度に応じて、体軸アライメントの速度を変化させる。すなわち、腰ヨー軸の回転による反力軽減動作の速度を、反力の大きさに基づいて変化させる。これにより、ロボット100の姿勢がスムーズに変化するため、より自然な動作が可能になる。
実施の形態2.
本実施の形態にかかるロボット100について図8を用いて説明する。図8は、実施の形態2にかかるロボット100の構成を示す斜視図である。なお、本実施の形態2にかかるロボット100の基本的構成及び制御は、実施の形態1と同様である。このため、重複する構成等については、説明を適宜省略する。以下に実施の形態1との違いについて説明する。
本実施の形態では、腕部4の付け根に肩関節9が設けられている。すなわち、腕部4が、肩関節9を介して胴体部6に連結されている。肩関節9は、ヨー軸(肩ヨー軸)回りに駆動する。すなわち、肩関節9の軸を中心軸として、胴体部6に対して腕部4がヨー軸周りに回転する。これにより、腕部4の方向を変えることができる。さらに、肩関節9には、腕部4にかかる力を検出するためのトルクセンサ125a(図8では図示せず)が設けられている。
本実施の形態では、腕部4に外力が加わった場合に、体軸アライメントによって、反力を軽減している。例えば、腕部4に外力が加わった場合、トルクセンサ125aによって肩ヨー軸にかかる力を検出する。すなわち、トルクセンサ125aによって、肩ヨー軸の腰ヨー軸に対する反力を検出する。そして、トルクセンサ125aの出力値がしきい値を越えた場合、車輪2を動作させて、反力を軽減する。すなわち、反力を軽減する方向に、体軸アライメントを駆動する。
例えば、左アームに後方向の外力が加わった場合、胴体部6を左方向に旋回させる。そして、トルクセンサ125aの出力値がしきい値以下になるまで、車輪2を駆動して、胴体部6を回転させる。すなわち、トルクセンサ125aの出力値がしきい値以下になった時点で、そのときの腰ヨー軸姿勢を維持する。このようにすることで、腕部4に加わった外力を逃がすことができる。したがって、人間や障害物とロボット100が衝突した場合、その衝撃を吸収することができる。すなわち、衝撃力を吸収する方向に、姿勢が変化するため、安全性を向上することができる。また、自然な動作で外力を吸収することができる。
もちろん、実施形態1の変形例と同様に、外力の大きさ、又はその変化速度に応じて、体軸アライメントの回転速度を変えてもよい。さらに、頭部1に対して外力が加わった場合でも、同様に外力を吸収するように制御してもよい。
その他の実施の形態.
なお、実施の形態1、2では、ヨー軸に関する動作について説明したが、ヨー軸以外の軸についても同様に制御することができる。例えば、頭部1や腕部4をピッチ軸回りやロール軸周りに回転させる場合も、同様に反力軽減動作を行うことができる。この場合、例えば、胴体部6にピッチ軸回りやロール軸回りに回転させる腰関節を設ける。そして、トルクセンサ125aの出力値がしきい値を越えたら、腰関節を駆動する。これにより、先頭部1等を胴体部6に接続する首関節の駆動軸に作用する負荷を軽減することができる。
また、頭部1や腕部4以外の部分についても同様に制御することができる。すなわち、ロボット100の基部である胴体部6に関節を介して接続されている先端部に対して同様の制御を適用することができる。
なお、ロボットの態様は上述の態様に限られるものではない。例えば、上記の説明では、車輪型のロボット100について説明したが、これに限るものではない。例えは、関節が設けられた脚部を有する歩行型のロボットであってもよい。そして、ヒューマノイド型ロボットの胴体部に対して首関節を介して接続された頭部を駆動する。これにより、駆動軸に加わっている負荷が低減する。もちろん、実施の形態1、2を適宜組み合わせてもよい。
本発明の実施形態にかかるロボットの構成を模式的に示す図である。 本発明の実施形態にかかるロボットの制御系を概念的に表したブロック図である。 本発明の実施形態にかかるロボットの内部構成を示す斜視図である。 本実施の形態にかかる顔追従動作を模式的に示す上面図である。 顔追従を行う際のロボットヘッドの制御ループを模式的に示すブロック図である。 顔追従を行う際のロボットボディの制御ループを模式的に示すブロック図である。 本発明の実施形態にかかる 本発明の実施の形態2にかかるロボットの全体構成を模式的に示す斜視図である。
符号の説明
1 頭部、2 車輪、3 筐体、4 腕部、6 胴体部、7 首関節、8 補助輪、
9 肩関節、
101 制御部、
102 入出力部、
121 カメラ、122 内部マイク、123 スピーカ、
124 LED、125 センサ部、
103 駆動部
131 モータ、132 ドライバ
104 電源部
141 バッテリ、142 バッテリ制御部、

Claims (8)

  1. 胴体部と、
    前記胴体部を所定の軸周りに回転させるアクチュエータと、
    前記胴体部に取り付けられた先端部と、
    前記先端部を前記所定の軸と平行な軸回りに対して回転させる関節と、
    前記アクチュータ、及び関節を制御する制御部と、
    前記先端部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備え、
    前記制御部が、前記センサからの出力値としきい値とを比較して、
    前記センサからの出力値が前記しきい値を越えていた場合に、前記センサからの出力値が低減するように、前記アクチュエータを制御するロボット。
  2. 前記センサからの出力値に応じて、前記アクチュエータの駆動速度を変化させていることを特徴とする請求項1に記載のロボット。
  3. 前記制御部が、前記先端部を目標方向に追従させるよう、前記関節を駆動している請求項1、又は2に記載のロボット。
  4. 前記制御部が、前記先端部に外力が加わった場合に、前記外力を軽減するように、前記アクチュエータを駆動している請求項1乃至3のいずれか1項に記載のロボット。
  5. 胴体部と、
    前記胴体部を所定の軸周りに回転させるアクチュエータと、
    前記胴体部に取り付けられた先端部と、
    前記先端部を前記所定の軸と平行な軸回りに対して回転させる関節と、
    前記アクチュータ、及び関節を制御する制御部と、
    前記先端部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備えたロボットの制御方法であって、
    前記センサからの出力値としきい値とを比較して、
    前記センサからの出力値が前記しきい値を越えていた場合に、前記センサからの出力値が低減するように、前記アクチュエータを制御するロボットの制御方法。
  6. 前記センサからの出力値に応じて、前記アクチュエータの駆動速度を変化させていることを特徴とする請求項5に記載のロボットの制御方法。
  7. 前記先端部を目標方向に追従させるよう、前記関節を駆動している請求項5、又は6に記載のロボットの制御方法。
  8. 前記先端部に外力が加わった場合に、前記外力を軽減するように、前記アクチュエータを駆動している請求項5乃至7のいずれか1項に記載のロボットの制御方法。
JP2008009668A 2008-01-18 2008-01-18 ロボット、及びロボットの制御方法 Expired - Fee Related JP5088150B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008009668A JP5088150B2 (ja) 2008-01-18 2008-01-18 ロボット、及びロボットの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008009668A JP5088150B2 (ja) 2008-01-18 2008-01-18 ロボット、及びロボットの制御方法

Publications (2)

Publication Number Publication Date
JP2009166213A true JP2009166213A (ja) 2009-07-30
JP5088150B2 JP5088150B2 (ja) 2012-12-05

Family

ID=40967987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008009668A Expired - Fee Related JP5088150B2 (ja) 2008-01-18 2008-01-18 ロボット、及びロボットの制御方法

Country Status (1)

Country Link
JP (1) JP5088150B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101347618B1 (ko) 2013-06-21 2014-01-06 한국기계연구원 이동형 양팔 로봇의 충돌 회피방법
WO2017010547A1 (ja) * 2015-07-15 2017-01-19 ローム株式会社 ロボットおよびロボットシステム
JP2017019088A (ja) * 2015-07-15 2017-01-26 株式会社ファインウェル ロボット
US9705548B2 (en) 2013-10-24 2017-07-11 Rohm Co., Ltd. Wristband-type handset and wristband-type alerting device
US9716782B2 (en) 2010-12-27 2017-07-25 Rohm Co., Ltd. Mobile telephone
US9729971B2 (en) 2012-06-29 2017-08-08 Rohm Co., Ltd. Stereo earphone
US9742887B2 (en) 2013-08-23 2017-08-22 Rohm Co., Ltd. Mobile telephone
JP2018007805A (ja) * 2016-07-13 2018-01-18 株式会社ファインウェル 聴取システムおよび聴取システムに用いられるロボット
US9894430B2 (en) 2010-12-27 2018-02-13 Rohm Co., Ltd. Incoming/outgoing-talk unit and incoming-talk unit
US9980024B2 (en) 2011-02-25 2018-05-22 Rohm Co., Ltd. Hearing system and finger ring for the hearing system
US10013862B2 (en) 2014-08-20 2018-07-03 Rohm Co., Ltd. Watching system, watching detection device, and watching notification device
US10079925B2 (en) 2012-01-20 2018-09-18 Rohm Co., Ltd. Mobile telephone
US10356231B2 (en) 2014-12-18 2019-07-16 Finewell Co., Ltd. Cartilage conduction hearing device using an electromagnetic vibration unit, and electromagnetic vibration unit
US10778824B2 (en) 2016-01-19 2020-09-15 Finewell Co., Ltd. Pen-type handset
US10795321B2 (en) 2015-09-16 2020-10-06 Finewell Co., Ltd. Wrist watch with hearing function
US11526033B2 (en) 2018-09-28 2022-12-13 Finewell Co., Ltd. Hearing device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007139135A1 (ja) * 2006-05-30 2007-12-06 Japan Science And Technology Agency ロボット及び制御装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007139135A1 (ja) * 2006-05-30 2007-12-06 Japan Science And Technology Agency ロボット及び制御装置

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10779075B2 (en) 2010-12-27 2020-09-15 Finewell Co., Ltd. Incoming/outgoing-talk unit and incoming-talk unit
US9716782B2 (en) 2010-12-27 2017-07-25 Rohm Co., Ltd. Mobile telephone
US9894430B2 (en) 2010-12-27 2018-02-13 Rohm Co., Ltd. Incoming/outgoing-talk unit and incoming-talk unit
US9980024B2 (en) 2011-02-25 2018-05-22 Rohm Co., Ltd. Hearing system and finger ring for the hearing system
US10778823B2 (en) 2012-01-20 2020-09-15 Finewell Co., Ltd. Mobile telephone and cartilage-conduction vibration source device
US10158947B2 (en) 2012-01-20 2018-12-18 Rohm Co., Ltd. Mobile telephone utilizing cartilage conduction
US10079925B2 (en) 2012-01-20 2018-09-18 Rohm Co., Ltd. Mobile telephone
US10834506B2 (en) 2012-06-29 2020-11-10 Finewell Co., Ltd. Stereo earphone
US9729971B2 (en) 2012-06-29 2017-08-08 Rohm Co., Ltd. Stereo earphone
US10506343B2 (en) 2012-06-29 2019-12-10 Finewell Co., Ltd. Earphone having vibration conductor which conducts vibration, and stereo earphone including the same
KR101347618B1 (ko) 2013-06-21 2014-01-06 한국기계연구원 이동형 양팔 로봇의 충돌 회피방법
US10237382B2 (en) 2013-08-23 2019-03-19 Finewell Co., Ltd. Mobile telephone
US10075574B2 (en) 2013-08-23 2018-09-11 Rohm Co., Ltd. Mobile telephone
US9742887B2 (en) 2013-08-23 2017-08-22 Rohm Co., Ltd. Mobile telephone
US9705548B2 (en) 2013-10-24 2017-07-11 Rohm Co., Ltd. Wristband-type handset and wristband-type alerting device
US10103766B2 (en) 2013-10-24 2018-10-16 Rohm Co., Ltd. Wristband-type handset and wristband-type alerting device
US10380864B2 (en) 2014-08-20 2019-08-13 Finewell Co., Ltd. Watching system, watching detection device, and watching notification device
US10013862B2 (en) 2014-08-20 2018-07-03 Rohm Co., Ltd. Watching system, watching detection device, and watching notification device
US11601538B2 (en) 2014-12-18 2023-03-07 Finewell Co., Ltd. Headset having right- and left-ear sound output units with through-holes formed therein
US10356231B2 (en) 2014-12-18 2019-07-16 Finewell Co., Ltd. Cartilage conduction hearing device using an electromagnetic vibration unit, and electromagnetic vibration unit
US10848607B2 (en) 2014-12-18 2020-11-24 Finewell Co., Ltd. Cycling hearing device and bicycle system
CN107848125A (zh) * 2015-07-15 2018-03-27 罗姆股份有限公司 机器人和机器人系统
CN107848125B (zh) * 2015-07-15 2021-04-27 株式会社精好 机器人和机器人系统
TWI631983B (zh) * 2015-07-15 2018-08-11 羅姆股份有限公司 機器人及機器人系統
JP2017019088A (ja) * 2015-07-15 2017-01-26 株式会社ファインウェル ロボット
WO2017010547A1 (ja) * 2015-07-15 2017-01-19 ローム株式会社 ロボットおよびロボットシステム
US10967521B2 (en) 2015-07-15 2021-04-06 Finewell Co., Ltd. Robot and robot system
US10795321B2 (en) 2015-09-16 2020-10-06 Finewell Co., Ltd. Wrist watch with hearing function
US10778824B2 (en) 2016-01-19 2020-09-15 Finewell Co., Ltd. Pen-type handset
JP2018007805A (ja) * 2016-07-13 2018-01-18 株式会社ファインウェル 聴取システムおよび聴取システムに用いられるロボット
US11526033B2 (en) 2018-09-28 2022-12-13 Finewell Co., Ltd. Hearing device

Also Published As

Publication number Publication date
JP5088150B2 (ja) 2012-12-05

Similar Documents

Publication Publication Date Title
JP5088150B2 (ja) ロボット、及びロボットの制御方法
CN106573377B (zh) 具有冲突避免和轨迹恢复能力的类人机器人
JP4849244B2 (ja) 移動ロボットおよび移動速度推定方法
US20140005827A1 (en) Apparatus for controlling mobile robot
US6956345B2 (en) Robot apparatus, and load absorbing apparatus and method
JP2008302496A (ja) ロボットアームの制御装置及び制御方法、ロボット、及びロボットアームの制御プログラム
WO2012173901A2 (en) Tracking and following of moving objects by a mobile robot
US6989645B2 (en) Robot apparatus, and load absorbing apparatus and method
JP5755011B2 (ja) ロボット群制御装置および方法
JP5978027B2 (ja) 移動ロボットの制御装置
JP4914703B2 (ja) 脚式移動ロボットの制御装置
JP4271161B2 (ja) ロボット装置、ロボット装置の旋回方法、及び、プログラム
JP2011194539A (ja) ロボット、及びその制御方法
WO2019082779A1 (ja) ロボット用充電ステーション
Nagasaka Sony QRIO
JP4042108B2 (ja) ロボット装置及びその制御方法
JP7309371B2 (ja) ロボット制御システム
CN107199562A (zh) 机器人控制装置和机器人控制方法
JP4198676B2 (ja) ロボット装置、ロボット装置の移動追従方法、および、プログラム
JP2004306247A (ja) ロボット装置及びその制御方法
Brandk-ão et al. Reaching for the unreachable: integration of locomotion and whole-body movements for extended visually guided reaching
WO2021117701A1 (ja) マスタスレーブシステム及び制御方法
JP2003266353A (ja) ロボット装置及びその制御方法
JP2003271196A (ja) ロボット装置及びその制御方法
JP2019080412A (ja) ロボット用充電ステーション

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120827

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5088150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees