JP5088150B2 - Robot and robot control method - Google Patents
Robot and robot control method Download PDFInfo
- Publication number
- JP5088150B2 JP5088150B2 JP2008009668A JP2008009668A JP5088150B2 JP 5088150 B2 JP5088150 B2 JP 5088150B2 JP 2008009668 A JP2008009668 A JP 2008009668A JP 2008009668 A JP2008009668 A JP 2008009668A JP 5088150 B2 JP5088150 B2 JP 5088150B2
- Authority
- JP
- Japan
- Prior art keywords
- head
- actuator
- robot
- body part
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボット、及びロボットの制御方法に関し、特に詳しくは、胴体部を有するロボット、及びその制御方法に関する。 The present invention relates to a robot and a robot control method, and more particularly to a robot having a body part and a control method thereof.
近年、人間と共生するロボットが開発されている。たとえば、ヒューマノイド型のロボットが開発されている。このようなロボットでは、胴体部に頭部や腕部が取り付けられている。そして、首関節、肩関節等によって、首部や腕部を駆動する(特許文献1)。多関節を有するロボットでは、各関節は個別に制御されている。 In recent years, robots that coexist with human beings have been developed. For example, humanoid robots have been developed. In such a robot, the head and arms are attached to the body. And a neck part and an arm part are driven by a neck joint, a shoulder joint, etc. (patent document 1). In a robot having multiple joints, each joint is controlled individually.
また、人間とコミュニケーションを取るロボットが開発されている。例えば、ロボットの頭部には、コミュニケーション相手の方向を特定するためのカメラやマイクロフォンが設けられている。そして、カメラが目の代わりとなり、コミュニケーション相手となる人の顔を認識する。そして、認識した顔を目標方向とする。頭部を目標方向に向けるように制御する。すなわち、移動する顔に追従するように首関節が回転する。よって、コミュニケーション相手の方向を向くことができる。そして、スピーカなどによって発話して、人間とのコミュニケーションを図る。 Robots that communicate with human beings have been developed. For example, a camera or a microphone for specifying the direction of the communication partner is provided on the head of the robot. The camera replaces the eyes and recognizes the face of the person who is the communication partner. The recognized face is set as the target direction. Control the head to point in the target direction. That is, the neck joint rotates so as to follow the moving face. Therefore, it is possible to face the direction of the communication partner. Then, speak with a speaker or the like to communicate with humans.
しかしながら、従来のロボットでは、各関節が別個に制御されている。従って、顔をある方向に向ける際に、それに伴って胴体部をその方向に向けようとした場合、それぞれの制御が別個に行われてしまう。よって、人間の動作と比べて不自然な動作になってしまう。また、首関節だけでなく、他の関節でも同様に不自然な動作になってしまうことがある。このように、従来のロボットでは、動作が不自然になってしまうという問題点がある。 However, in a conventional robot, each joint is controlled separately. Therefore, when the face is turned in a certain direction, if the body part is directed in that direction, each control is performed separately. Therefore, it becomes an unnatural motion compared with a human motion. Further, not only the neck joint but also other joints may be similarly unnatural. Thus, the conventional robot has a problem that the operation becomes unnatural.
本発明は、このような問題を解決するためになされたものであり、自然な動作が可能となるロボット、及びその制御方法を提供することを目的とする。 The present invention has been made to solve such problems, and it is an object of the present invention to provide a robot capable of natural operation and a control method thereof.
本発明の第1の態様にかかるロボットは、胴体部と、前記胴体部を所定の軸周りに回転させるアクチュエータと、前記胴体部に取り付けられた先端部と、前記先端部を前記所定の軸と平行な軸回りに対して回転させる関節と、前記アクチュータ、及び関節を制御する制御部と、前記先端部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備え、前記制御部が、前記センサからの出力値としきい値とを比較して、前記センサからの出力値が前記しきい値を越えていた場合に、前記センサからの出力値が低減するように、前記アクチュエータを制御するものである。これにより、先端部と胴体部が連携して制御されるため、自然な動作で駆動することができる。 A robot according to a first aspect of the present invention includes a body part, an actuator that rotates the body part around a predetermined axis, a tip part attached to the body part, and the tip part as the predetermined axis. A joint that rotates about a parallel axis; the actuator; a control unit that controls the joint; and a sensor that detects a force applied to the tip portion about the predetermined axis, and The control unit compares the output value from the sensor with a threshold value, and when the output value from the sensor exceeds the threshold value, the output value from the sensor is reduced. The actuator is controlled. Thereby, since a front-end | tip part and a trunk | drum are controlled in cooperation, it can drive by natural operation | movement.
本発明の第2の態様にかかるロボットは、上記のロボットであって、前記センサからの出力値に応じて、前記アクチュエータの駆動速度を変化させていることを特徴とするものである。これにより、胴体部の動作速度を変化させることができ、動作がより自然になる。 A robot according to a second aspect of the present invention is the robot described above, wherein the drive speed of the actuator is changed according to an output value from the sensor. Thereby, the operation | movement speed of a trunk | drum can be changed and operation | movement becomes more natural.
本発明の第3の態様にかかるロボットは、上記のロボットであって、前記制御部が、前記先端部を目標方向に追従させるよう、前記関節を駆動しているものである。これにより、目標方向への追従動作を自然に行うことができる。 A robot according to a third aspect of the present invention is the robot described above, wherein the control unit drives the joint so that the tip portion follows the target direction. Thereby, the tracking operation | movement to a target direction can be performed naturally.
本発明の第4の態様にかかるロボットは、上記のロボットであって、前記制御部が、前記先端部に外力が加わった場合に、前記外力を軽減するように、前記アクチュエータを駆動しているものである。これにより、自然な動作で外力による衝撃を吸収することができる。 A robot according to a fourth aspect of the present invention is the robot described above, wherein the control unit drives the actuator so as to reduce the external force when an external force is applied to the tip portion. Is. Thereby, the impact by external force can be absorbed with natural operation | movement.
本発明の第5の態様にかかるロボットの制御方法は、胴体部と、前記胴体部を所定の軸周りに回転させるアクチュエータと、前記胴体部に取り付けられた先端部と、前記先端部を前記所定の軸と平行な軸回りに対して回転させる関節と、前記アクチュータ、及び関節を制御する制御部と、前記先端部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備えたロボットの制御方法であって、前記センサからの出力値としきい値とを比較して、前記センサからの出力値が前記しきい値を越えていた場合に、前記センサからの出力値が低減するように、前記アクチュエータを制御するものである。これにより、先端部と胴体部が連携して制御されるため、自然な動作で駆動することができる。 According to a fifth aspect of the present invention, there is provided a robot control method comprising: a body part; an actuator that rotates the body part around a predetermined axis; a tip part attached to the body part; A joint that rotates about an axis parallel to the axis of the actuator, the actuator, a control unit that controls the joint, and a sensor that detects a force applied to the distal end about the predetermined axis. A method for controlling a robot, comprising: comparing an output value from the sensor with a threshold value; if the output value from the sensor exceeds the threshold value, the output value from the sensor is The actuator is controlled so as to be reduced. Thereby, since a front-end | tip part and a trunk | drum are controlled in cooperation, it can drive by natural operation | movement.
本発明の第6の態様にかかるロボットの制御方法は、上記の制御方法であって、前記センサからの出力値に応じて、前記アクチュエータの駆動速度を変化させていることを特徴とするものである。これにより、胴体部の動作速度を変化させることができ、動作がより自然になる。 A robot control method according to a sixth aspect of the present invention is the control method described above, wherein the drive speed of the actuator is changed according to an output value from the sensor. is there. Thereby, the operation | movement speed of a trunk | drum can be changed and operation | movement becomes more natural.
本発明の第7の態様にかかるロボットの制御方法は、上記の制御方法であって、前記先端部を目標方向に追従させるよう、前記関節を駆動しているものである。これにより、目標方向への追従動作を自然に行うことができる。 A robot control method according to a seventh aspect of the present invention is the control method described above, wherein the joint is driven so that the tip portion follows the target direction. Thereby, the tracking operation | movement to a target direction can be performed naturally.
本発明の第8の態様にかかるロボットの制御方法は、上記の制御方法であって、前記先端部に外力が加わった場合に、前記外力を軽減するように、前記アクチュエータを駆動しているものである。これにより、自然な動作で外力による衝撃を吸収することができる。 A robot control method according to an eighth aspect of the present invention is the control method described above, wherein when the external force is applied to the tip, the actuator is driven so as to reduce the external force. It is. Thereby, the impact by external force can be absorbed with natural operation | movement.
本発明によれば、自然な動作が可能となるロボット、及びその制御方法を提供することが可能になる。 According to the present invention, it is possible to provide a robot capable of natural operation and a control method thereof.
本実施の形態にかかるロボットは、胴体部と、胴体部を所定の軸周りに回転させるアクチュエータと、胴体部に取り付けられた先端部と、先端部を所定の軸と平行な軸回りに対して回転させる関節と、アクチュータ、及び関節を制御する制御部と、先端部に対して所定の軸回りにかかる力を検出するためのセンサと、を有している。そして、制御部が、センサからの出力値としきい値とを比較して、センサからの出力値がしきい値を越えていた場合に、センサからの出力値が低減するように、アクチュエータを制御している。 The robot according to the present embodiment includes a torso, an actuator for rotating the torso around a predetermined axis, a tip attached to the torso, and a tip with respect to an axis parallel to the prescribed axis. A rotation joint, an actuator, a control unit for controlling the joint, and a sensor for detecting a force applied around a predetermined axis with respect to the distal end portion are provided. Then, the control unit compares the output value from the sensor with the threshold value, and controls the actuator so that the output value from the sensor decreases when the output value from the sensor exceeds the threshold value. doing.
発明の実施の形態1.
本実施の形態にかかる電源供給装置を用いたロボットについて図1を用いて説明する。図1はロボット100の構成を模式的に示す外観図である。本実施の形態では、ロボット100が、自律移動する移動ロボットとして説明する。ロボット100は、頭部1と、車輪2と、筐体3と、腕部4と、胴体部6を備えている。
Embodiment 1 of the Invention
A robot using the power supply apparatus according to this embodiment will be described with reference to FIG. FIG. 1 is an external view schematically showing the configuration of the
胴体部6の上には、頭部1が設けられている。頭部1は、首関節を介して胴体部6に連結されている。首関節を駆動すると頭部1の向きが変化する。また、胴体部6の両側には、それぞれ腕部4が設けられている。腕部4は、肩関節を介して胴体部6に連結されている。胴体部6の下には、車輪2が設けられている。車輪2を駆動することにより、ロボット100が移動する。胴体部6は、筐体3を有している。胴体部6には、ロボット100の中心軸となる体軸が含まれている。
A head 1 is provided on the
そして、筐体3の内部には、車輪2と接続されたモータ、及びモータを駆動するための電源部などが設けられている。このモータがロボット100を駆動するためのアクチュエータとなる。モータを駆動することによって、車輪2が回転して、ロボット100が移動する。また、腕部4には、腕関節4aが設けられている。腕関節4aは、モータと接続されている。モータ等によって腕関節4aを駆動することによって、腕部4の位置、及び姿勢が制御される。さらに、腕部4が駆動することによって、物体の把持などが行なわれる。胴体部、及び頭部1には、人間とコミュニケーションを取るために、カメラ、LED、マイク、スピーカなどが設けられている。
The
ロボット100は、画像処理によって顔認識を行う。そして、首関節を駆動して、頭部1をコミュニケーション相手の方向に向ける。すなわち、首関節を駆動することによって顔追従を行う。こうすることで、常時、頭部1が人間の顔の方向を向く。この顔追従動作については、後述する。そして、スピーカを用いて、コミュニケーション相手に対して発話する。
The
次に、ロボット100の制御系について図2を用いて説明する。図2は、ロボット100の制御系を示すブロック図である。ロボット100は、制御部101、入出力部102、駆動部103、電源部104、及び外部記憶部105などを有している。
Next, the control system of the
入出力部102は、周囲の映像を取得するためのCCD(Charge Coupled Device)などからなるカメラ121、周囲の音を集音するための1又は複数の内部マイク122、音声を出力してユーザと対話等を行なうためのスピーカ123、ユーザへの応答や感情等を表現するためのLED124、タッチセンサなどを有するセンサ部125などを備える。また、センサ部125は、レーザレンジファインダ、トルクセンサ、エンコーダなどの各種センサを有している。
The input /
また、駆動部103は、モータ131及びモータを駆動するドライバ132などを有し、ユーザの指示などに従って、首関節、車輪2、腕部4の腕関節4aを駆動させる。なお、モータ131の数は関節の数によって決まる。したがって、ロボット100には、複数のモータ131が設けられている。電源部104は、バッテリ141及びその放充電を制御するバッテリ制御部142を有する電源ユニットであり、各部に電源を供給する。そして、バッテリ141からの電源は、制御部101、入出力部102、モータ131、外部記憶部105等に供給される。電源部104は、例えば、筐体3の内部に設けられている。ロボット100に内蔵されたバッテリ141は二次電池であり、例えば、外部のAC電源と接続することによって充電が行なわれる。
The
バッテリ141としては、例えば、リチウム電池パックを用いることができる。バッテリ制御部142は、バッテリ141からの電源供給を制御するパワーコントロールユニット(PCU)を有している。
As the
外部記憶部105は、着脱可能なHDD、光ディスク、光磁気ディスク等からなり、各種プログラムや制御パラメータなどを記憶し、そのプログラムやデータを必要に応じて制御部101内のメモリ(不図示)等に供給する。
The
制御部101は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、無線通信用のインターフェースなどを有し、ロボット1の各種動作を制御する。そして、この制御部101は、例えばROMに格納された制御プログラムに従ってロボット100の各部を制御する。制御部101は、ドライバ132に駆動信号を出力して、モータ131の動作を制御する。これにより、ロボット100が所定の位置まで自律的に移動する。あるいは、腕関節4aが駆動して、腕部4が移動する。具体的には、制御部101は、目標位置までの移動経路を生成して、その移動経路に追従するように、モータを制御する。さらに、首関節が駆動して、頭部1が所定の方向を向く。例えば、制御部101は、各軸に対する指令値を算出する。そして、ドライバ132に指令値に応じた駆動信号を出力する。これにより、各軸のモータが指令値に追従するようにフィードバック制御される。
The
モータ131、及びドライバ132は、2つの車輪2や各関節にそれぞれ設けられている。これにより、2つの車輪2や関節を独立して駆動することができる。例えば、ドライバ132は、モータ131の回転数を制御する。これにより、車輪2を所定の回転数で駆動することができる。よって、ロボット100の目標位置までの移動が可能となる。モータ131はロボット100の内部に取り付けられている。また、これらの各機器は筐体3に収納されている。
The
次に、顔追従を行うための構成について、図3を用いて説明する。図3は、筐体3内部の構成を模式的に示す斜視図である。図3(a)は、左前側からみた斜視図であり、図3(b)は、左後ろ側から見た斜視図である。
Next, a configuration for performing face tracking will be described with reference to FIG. FIG. 3 is a perspective view schematically showing the configuration inside the
頭部1には、カメラ121が設けられている。カメラ121は、例えば、頭部1の目の位置に設置されている。カメラ121は、例えば、ステレオカメラであり、対象物を異なる方向から同時に撮像する。これにより、ステレオ画像が取得される。カメラ121で取得された画像データは、制御部101に出力される。制御部101は、この画像データに基づいて顔認識を行う。
The head 1 is provided with a
頭部1は、首関節7を介して胴体部6に接続されている。首関節7は、頭部1をヨー軸(首ヨー軸)回りに回転させる。従って、首関節7を駆動することで、カメラ121の向きが変化する。すなわち、カメラ121の視野の方向が変化する。さらに、首関節7には、センサ部125に含まれるトルクセンサ125aが設けられている。トルクセンサ125aは、例えば、力覚センサであり、首関節7にかかる駆動トルクを検出する。これにより、首関節7の駆動軸にかかるトルクの大きさ、及び方向が検出される。このように、トルクセンサ125aは、頭部1に対してヨー軸回りにかかる力を検出するために設けられている。
The head 1 is connected to the
胴体部6には、制御部101が設けられている。制御部101は、胴体部6の背面側に設置されている。制御部101は、顔認識モジュールを有しており、カメラ121で取得された画像データに対して顔認識を行う。例えば、外部記憶部105のメモリ等に顔テンプレート画像を予め登録しておく。そして、顔テンプレート画像を用いた画像処理を行って、人間の顔を抽出する。すなわち、カメラ121で取得した画像の中から顔テンプレート画像にマッチングするパターンを抽出する。これにより、取得した画像中の顔の位置を特定することができ、顔を認識することができる。よって、コミュニケーション相手の方向を特定することができる。
The
さらに、胴体部6の下側には、車輪2が設けられている。車輪2は、車輪ベースに回転可能に保持されている。すなわち、胴体部6の左右両側には、車輪2が取り付けられている。胴体部6には、モータ131を駆動するためのサーボアンプやドライバ等が設置されている。左右の車輪2を回転させることで、ロボット100が移動する。すなわち、左右の車輪2を前方向に回転させることで、ロボット100が前進し、後ろ方向に回転させることでロボット100が後退する。また、左右の車輪2を反対方向に回転させることで、胴体部6がヨー軸回り(腰ヨー軸)に回転する。すなわち、右の車輪2を前方向、左の車輪2を後ろ方向に回転させることで、ロボット100が左旋回する。このように、左右の車輪2を反対方向に同じ回転速度で回転させることで、その場旋回させることが可能になる。また、左右の車輪2を異なる回転速度で反対方向に回転させることで、移動しながら、ロボット100の方向を変えることができる。
Further, a
さらに、車輪2の前後には、転倒防止用の補助輪8が設けられている。補助輪8は、従動輪であり、車輪2の駆動にしたがって回転する。また、車輪2の駆動にしたがって、補助輪8の方向が変化する。
Further, auxiliary wheels 8 for preventing overturning are provided before and after the
胴体部6には、腕部4が設けられている。図3に示すように、腕部4は右アーム、及び左アームを有している。腕部4は、肩関節9を介して胴体部に取り付けられている。さらに、腕部4の肘部分や手首部分には、腕関節4aが設けられている。肩関節9及び腕関節4aによって、腕部4が駆動する。例えば、腕部4を駆動することで、対象物体を把持することができる。
The
頭部1をコミュニケーション相手となる方向に向けるため、制御部101は、首関節7を制御する。すなわち、頭部1を首ヨー軸周りに回転させて、顔追従を行う。カメラ121で取得された画像に対して顔認識を行う。そして、カメラ121が常時、顔を撮像することができるように、首関節7を回転させる。例えば、カメラ121の視野の中心に、顔が存在するように、顔追従を行う。これにより、首関節7が回転して、コミュニケーション相手の方向を向くことができる。
The
さらに、本実施の形態では、トルクセンサ125aの出力値に基づいて、顔追従を行っている。トルクセンサ125aで、検出したトルクがしきい値を越える場合、車輪2を駆動して、首関節7の駆動トルクを低減する。具体的には、車輪2を駆動して、ロボット100をその場旋回させる。これにより、胴体部6がヨー軸回りに回転する。
Furthermore, in the present embodiment, face tracking is performed based on the output value of the
トルクセンサ125aは、頭部1(首ヨー軸関節)と胴体部6(腰ヨー軸関節)との間の相互反力を検出する。そして、トルクセンサ125aの出力値がしきい値を越えたら、車輪2を回転させる。これにより、胴体部6がヨー軸回りに回転して、トルクセンサ125aの出力値が低減する。すなわち、首ヨー軸関節にかかる力を打ち消すように車輪2を駆動する。これにより、胴体部6が腰ヨー軸回りに回転して、首関節7にかかる負荷(反力)が軽減する。すなわち、首関節7が回転している方向に、胴体部6がその場で旋回する。よって、ロボット100をスムーズに動作させることができる。自然な動作を実現することができ、ロボット100全体の動きや仕草の見栄えが向上する。
The
次に、顔追従を行うための制御について図4〜図6を用いて説明する。すなわち、画像処理によって認識された顔の方向に頭部1を向けるための制御について以下に説明する。図4は、顔追従を行う際の頭部1と胴体部6の動作を模式的に示す上面図である。図5は、頭部1と首関節7とを含むロボットヘッドの制御ループを模式的に示すブロック図である。図6は、車輪2と胴体部6とを含むロボットボディの制御ループを模式的に示すブロック図である。なお、図4では、頭部1の向き(正面方向)が実線矢印で示され、顔追従の目標方向が点線矢印で示されている。すなわち、顔追従を行うと、実線矢印が点線矢印に近づくように、フィードバック制御が行われる。
Next, control for performing face tracking will be described with reference to FIGS. That is, control for directing the head 1 in the direction of the face recognized by the image processing will be described below. FIG. 4 is a top view schematically showing the operation of the head 1 and the
動作開始前では、図4(a)に示すように、ロボット100の顔が正面を向いている。そして、図5に示すように、顔追従のアクションを開始すると、カメラ121で取得した画像に対して画像処理を行う。すなわち、顔認識処理を行い、目標方向を特定する。対象200となる人の顔を認識して、対象200の方向を目標方向とする。これにより、目標方向が特定され、ロボット100が対象200を向くように顔追従制御が行われる。なお、ここでは説明の簡略化のため、ロボット100に対する対象200の位置が一定であるとして説明する。
Before the operation is started, as shown in FIG. 4A, the face of the
顔追従アクションを開始すると、制御部101aは、目標方向に頭部1を向けるために、首関節7のモータ131aを駆動する。すなわち、首関節7をヨー軸回りに回転して、頭部1の向きを変える。これにより、図4(b)に示すように、胴体部6に対する頭部1の向きが変化する。図4(b)では、対象200が左斜め前にあるため、首関節7が反時計回りに回転する。頭部1の向きが目標方向に近づく。なお、ここでは、フィードバック制御によって、首関節7を駆動している。すなわち、目標方向と頭部1の現在の方向(向き)との偏差に適当なフィードバックゲインを乗じて、目標トルク値(指令値)を算出する。そして、その目標トルク値になるように、首関節7のモータ131aを駆動する。したがって、頭部1の向きが目標方向からずれているほど、モータ131aの目標トルク値が大きくなる。
When the face following action is started, the
そして、モータ131aを駆動した後、再度、カメラ121で画像を取得して、顔認識を行う。これにより、目標方向が修正される。首関節7が回転した分だけ、目標方向からのずれが小さくなっている。もちろん、対象200が移動した場合も対象200の絶対位置が変わるため、目標方向が変化する。そして、頭部1が目標方向を向くように、首関節7を駆動していく。首関節7については、上記のフィードバック制御を繰り返し行っている。すなわち、位置制御によってモータ131aを駆動して、首関節7を回転させている。
Then, after driving the
次に、胴体部6の制御について、図6を用いて説明する。首関節7のモータ131aが駆動すると、図6に示すように、トルクセンサ125aでモータトルクが検出される。トルクセンサ125aで検出されるトルクは、頭部1と胴体部6との間にかかる反力に相当する。制御部101bがしきい値とモータ131aのトルクを比較する。すなわち、トルクセンサ125aの出力値が、予め設定されているしきい値を越えているか否かを判定する。制御部101bは、トルク(回転負荷)に応じて、負荷(反力)軽減動作を行うか、姿勢維持動作を行うかを判断する。しきい値を越えている場合は、ドライバ132が負荷軽減動作を行う。すなわち、車輪2のモータ131bを駆動して、胴体部6をヨー軸周りに回転させる。これにより、図4(c)に示すように、胴体部6が目標方向に向かって、反時計周りに回転する。すなわち、車輪2の駆動によって、首関節7の回転方向と同じ方向に、胴体部6が回転する。
Next, control of the
このように、ロボット100がその場旋回して、胴体部6の体軸アライメントが行われる。したがって、胴体部6に取り付けられた頭部1の向きが目標方向に近づく。すなわち、胴体部6が目標方向に向かってヨー軸回りに回転するため、それにしたがって頭部1も回転する。さらに、上記のように、胴体部6に対して首関節7がヨー軸回りに回転している。よって、しきい値を越えた場合、首関節7の駆動だけでなく、車輪2の駆動で頭部1の向きが変わる。このため、速やかに目標方向を向くことができる。ここでは、トルクセンサ125aからの出力値がしきい値を越えた場合、一定の回転速度で車輪2のモータ131bを回転する。すなわち、予め設定されている回転角度で、車輪2を回転させる。これにより、胴体部6の体軸アライメント(姿勢調整)が行われる。
In this way, the
頭部1の向きが目標方向に近づいたら、首関節7のトルクが低くなる。すなわち、目標方向と頭部1の向きとの偏差が小さくなるため、フィードバック制御での目標トルク値(指令値)が小さくなる。よって、首関節7のトルクが低下して、トルクセンサ125aで検出されたトルクがしきい値よりも小さくなる。したがって、ドライバ132が姿勢維持動作を行う。この場合、車輪2のモータ131bを駆動しないため、胴体部6のヨー軸回りの回転が止まる。したがって、ロボット100は、出力値がしきい値よりも小さくなった時点での腰ヨー軸姿勢を維持する。この場合、首関節7の駆動のみによって、頭部1の向きが目標方向に近づく。そして、上記の処理を繰り返して、頭部1の向きを目標方向に一致させる。そして、頭部1が対象200を向いたら、スピーカなどでコミュニケーションを取る。
When the direction of the head 1 approaches the target direction, the torque of the neck joint 7 decreases. That is, since the deviation between the target direction and the direction of the head 1 is small, the target torque value (command value) in the feedback control is small. Therefore, the torque of the neck joint 7 decreases, and the torque detected by the
このように、トルクセンサ125aで検出されたトルクがしきい値を越えたか否かに応じて、車輪2の制御を切換えている。すなわち、トルクがしきい値を越えた場合は、負荷軽減動作により、車輪2を駆動して、首ヨー軸の駆動トルクを軽減する。首ヨー軸にかかるトルクを打ち消すように、胴体部6が腰ヨー軸回りに回転する。これにより、首関節7にかかる力が軽減される。そして、トルクがしきい値以下となるまで、車輪2を駆動して、胴体部6を腰ヨー軸回りに回転させる。すなわち、トルクがしきい値以下となると、姿勢維持動作によって、そのときの腰ヨー軸姿勢を維持する。なお、しきい値の値を可変としてもよい。例えば、実際の動作を確認して、しきい値を調整してもよい。
Thus, the control of the
このようにすることで、頭部1の向きが変わり始めてから、胴体部6の向きが変化する。すなわち、最初に頭部1の向きが変わって、それに伴って胴体部6の向きが変化する。そして、ある程度胴体部6の向きが変わると、胴体部6の回転が停止する。したがって、人間のように自然な動作で顔追従を行うことができる。よって、ロボット100全体の動きや仕草の見栄えが向上する。さらに、首関節7にかかる負荷を軽減することができる。首関節に過大なトルクがかかることがなくなるため、ロボット100の駆動機構等を損傷するのを防ぐことができる。また、ロボット100全体の動作ステップが削減され、動作の高速化、効率化を図ることができる。
By doing in this way, after the direction of the head 1 begins to change, the direction of the trunk | drum 6 changes. That is, the direction of the head 1 is changed first, and the direction of the
次に、本実施の形態にかかるロボット100の制御方法について図7を用いて説明する。図7は、本実施の形態にかかるロボット100の制御フローを模式的に示す図である。
Next, a method for controlling the
まず、ロボット100の頭部1及び首関節7を含むロボットヘッドにおける制御について説明する。最初に、人の顔認識を行い、目標方向を特定する(ステップS101)。すなわち、カメラ121で取得した画像に基づいて、画像処理を行い。これにより、ロボット100がコミュニケーションを取る相手の顔を認識することができる。そして、人の顔追従を行う(ステップS102)。すなわち、首関節7を駆動して、頭部1を首ヨー軸回りに回転させる。
First, control in the robot head including the head 1 and the
そして、ヨー軸関節にかかる反力を検出する(ステップS103)。すなわち、トルクセンサ125aによって、トルクを検出する。すると、ロボット100の胴体部6と車輪2を含むロボットボディにおいて、負荷(反力)軽減制御を行う(ステップS104)。すなわち、トルクセンサ125aからの出力値と、しきい値を比較する。そして、しきい値を越えていた場合は、体軸アライメントを行なう(ステップS105)。すなわち、車輪2を駆動して、胴体部6を腰ヨー軸回りに回転させる。ここでは、しきい値を越えている間、左右の車輪2を一定の回転速度で駆動する。これにより、ロボット100が目標方向に向かって、旋回する。そして、以上の処理を繰り返して、顔追従動作を行う。
Then, the reaction force applied to the yaw axis joint is detected (step S103). That is, torque is detected by the
このように、ロボットヘッドとロボットボディを同期、連携して制御することによって、ロボット100をスムーズに動作させることができる。すなわち、ヨー軸関節の反力(負荷)に基づいて、車輪2、及び首関節7が連携して動作するため、自然な動きを実現することができる。
In this way, the
なお、首ヨー軸にかかる力の検出は、トルクセンサ125aに限られるものではない。例えば、首関節7のモータ131aに流れる電流を測定することによって、力を検出してもよい。すなわち、首ヨー軸と腰ヨー軸(体軸)との間にかかる反力を直接的、又は間接的に検出できるセンサを用いればよい。
The detection of the force applied to the neck yaw axis is not limited to the
さらに、顔認識処理以外の方法で、目標方向を特定してもよい。例えば、マイクロフォンアレイなどで、音を検出して、その音の発生した方向を目標方向としてもよい。もちろん、これら以外の方法で目標方向を特定してもよい。例えば、外部からの信号によって、目標方向を特定してもよい。目標方向に追従している間に対象200が移動した場合、その目標方向も更新される。そして、更新された目標方向に追従するように、位置制御が行われる。
Furthermore, the target direction may be specified by a method other than the face recognition process. For example, a sound may be detected by a microphone array or the like, and the direction in which the sound is generated may be set as the target direction. Of course, the target direction may be specified by a method other than these. For example, the target direction may be specified by an external signal. If the
次に、本実施の形態の変形例について説明する。上記の例では、トルクセンサ125aからの出力値がしきい値を越えた場合、一定の回転速度で車輪2を回転させたが、本変形例では、トルクセンサ125aの出力値に応じて車輪2の回転速度を変化させている。すなわち、トルクセンサ125aからの出力値に基づいて、車輪2の回転速度が変わる。例えば、出力値が大きい場合、胴体部6の体軸アライメントの回転速度を速くして、素早く追従させる。一方、出力値が小さい場合、胴体部6の体軸アライメントの回転速度を遅くして、ゆっくり動かす。このように、反力の大きさに基づいて、腰ヨー軸の回転による反力軽減動作の速度を変化させる
Next, a modification of the present embodiment will be described. In the above example, when the output value from the
あるいは、出力値の変化速度(一次微分)に応じて、体軸アライメントの回転速度を変えてもよい。例えば、出力値を時間で微分して、出力値の変化速度を求める。そして、出力値の変化速度に応じて、胴体部6の体軸アライメントの回転速度を変化させる。出力値の変化速度が大きい場合、胴体部6の体軸アライメントの回転速度を速くして、素早く追従させる。一方、出力値の変化速度が小さい場合、胴体部6の体軸アライメントの回転速度を遅くして、ゆっくり動かす。
Alternatively, the rotational speed of the body axis alignment may be changed according to the change rate (first derivative) of the output value. For example, the output value is differentiated with respect to time to determine the change rate of the output value. And the rotational speed of the body axis alignment of the trunk |
例えば、しきい値を複数設定することによって、体軸アライメントの回転速度を段階的に変化させることができる。すなわち、反力の大きさ、又はその変化速度にしたがって、体軸アライメントの回転速度をステップ的に変化させる。あるいは、トルクセンサ125aの出力値から体軸アライメントの回転速度を求める演算式を予め設定しておいてもよい。トルクセンサ125aからの出力値に基づいて、モータ131bの駆動速度を決定することができる。反力の大きさ、又はその変化速度に応じて、体軸アライメントの速度を変化させる。すなわち、腰ヨー軸の回転による反力軽減動作の速度を、反力の大きさに基づいて変化させる。これにより、ロボット100の姿勢がスムーズに変化するため、より自然な動作が可能になる。
For example, by setting a plurality of threshold values, the rotational speed of body axis alignment can be changed stepwise. That is, the rotational speed of the body axis alignment is changed stepwise according to the magnitude of the reaction force or the changing speed thereof. Alternatively, an arithmetic expression for obtaining the rotational speed of the body axis alignment from the output value of the
実施の形態2.
本実施の形態にかかるロボット100について図8を用いて説明する。図8は、実施の形態2にかかるロボット100の構成を示す斜視図である。なお、本実施の形態2にかかるロボット100の基本的構成及び制御は、実施の形態1と同様である。このため、重複する構成等については、説明を適宜省略する。以下に実施の形態1との違いについて説明する。
A
本実施の形態では、腕部4の付け根に肩関節9が設けられている。すなわち、腕部4が、肩関節9を介して胴体部6に連結されている。肩関節9は、ヨー軸(肩ヨー軸)回りに駆動する。すなわち、肩関節9の軸を中心軸として、胴体部6に対して腕部4がヨー軸周りに回転する。これにより、腕部4の方向を変えることができる。さらに、肩関節9には、腕部4にかかる力を検出するためのトルクセンサ125a(図8では図示せず)が設けられている。
In the present embodiment, a
本実施の形態では、腕部4に外力が加わった場合に、体軸アライメントによって、反力を軽減している。例えば、腕部4に外力が加わった場合、トルクセンサ125aによって肩ヨー軸にかかる力を検出する。すなわち、トルクセンサ125aによって、肩ヨー軸の腰ヨー軸に対する反力を検出する。そして、トルクセンサ125aの出力値がしきい値を越えた場合、車輪2を動作させて、反力を軽減する。すなわち、反力を軽減する方向に、体軸アライメントを駆動する。
In the present embodiment, when an external force is applied to the
例えば、左アームに後方向の外力が加わった場合、胴体部6を左方向に旋回させる。そして、トルクセンサ125aの出力値がしきい値以下になるまで、車輪2を駆動して、胴体部6を回転させる。すなわち、トルクセンサ125aの出力値がしきい値以下になった時点で、そのときの腰ヨー軸姿勢を維持する。このようにすることで、腕部4に加わった外力を逃がすことができる。したがって、人間や障害物とロボット100が衝突した場合、その衝撃を吸収することができる。すなわち、衝撃力を吸収する方向に、姿勢が変化するため、安全性を向上することができる。また、自然な動作で外力を吸収することができる。
For example, when a rearward external force is applied to the left arm, the
もちろん、実施形態1の変形例と同様に、外力の大きさ、又はその変化速度に応じて、体軸アライメントの回転速度を変えてもよい。さらに、頭部1に対して外力が加わった場合でも、同様に外力を吸収するように制御してもよい。 Of course, similarly to the modification of the first embodiment, the rotational speed of the body axis alignment may be changed according to the magnitude of the external force or the changing speed thereof. Further, even when an external force is applied to the head 1, control may be performed so as to absorb the external force in the same manner.
その他の実施の形態.
なお、実施の形態1、2では、ヨー軸に関する動作について説明したが、ヨー軸以外の軸についても同様に制御することができる。例えば、頭部1や腕部4をピッチ軸回りやロール軸周りに回転させる場合も、同様に反力軽減動作を行うことができる。この場合、例えば、胴体部6にピッチ軸回りやロール軸回りに回転させる腰関節を設ける。そして、トルクセンサ125aの出力値がしきい値を越えたら、腰関節を駆動する。これにより、先頭部1等を胴体部6に接続する首関節の駆動軸に作用する負荷を軽減することができる。
Other embodiments.
Although the operations related to the yaw axis have been described in the first and second embodiments, the same control can be performed for axes other than the yaw axis. For example, when the head 1 or the
また、頭部1や腕部4以外の部分についても同様に制御することができる。すなわち、ロボット100の基部である胴体部6に関節を介して接続されている先端部に対して同様の制御を適用することができる。
Moreover, it can control similarly about parts other than the head 1 and the
なお、ロボットの態様は上述の態様に限られるものではない。例えば、上記の説明では、車輪型のロボット100について説明したが、これに限るものではない。例えは、関節が設けられた脚部を有する歩行型のロボットであってもよい。そして、ヒューマノイド型ロボットの胴体部に対して首関節を介して接続された頭部を駆動する。これにより、駆動軸に加わっている負荷が低減する。もちろん、実施の形態1、2を適宜組み合わせてもよい。
The aspect of the robot is not limited to the above aspect. For example, in the above description, the
1 頭部、2 車輪、3 筐体、4 腕部、6 胴体部、7 首関節、8 補助輪、
9 肩関節、
101 制御部、
102 入出力部、
121 カメラ、122 内部マイク、123 スピーカ、
124 LED、125 センサ部、
103 駆動部
131 モータ、132 ドライバ
104 電源部
141 バッテリ、142 バッテリ制御部、
1 head, 2 wheels, 3 housing, 4 arms, 6 torso, 7 neck joints, 8 auxiliary wheels,
9 Shoulder joints,
101 control unit,
102 I / O unit,
121 camera, 122 internal microphone, 123 speaker,
124 LED, 125 sensor unit,
103
Claims (8)
前記胴体部を所定の軸周りに回転させる胴体部用アクチュエータと、
前記胴体部に取り付けられ、前記胴体部用アクチュエータの動作により前記胴体部とともに回転する頭部と、
首関節用アクチュエータを有し、前記頭部の顔が所定の方向を向くように、前記頭部を前記胴体部に対して前記所定の軸と平行な軸回りに対して回転させる首関節と、
前記胴体部用アクチュエータ、及び前記首関節用アクチュエータを制御する制御部と、
前記頭部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備え、
前記頭部の顔が所定の方向を向くように前記首関節用アクチュエータを駆動する際に、前記制御部が、前記センサからの出力値としきい値とを比較して、
前記センサからの出力値が前記しきい値を越えていた場合に、前記頭部の回転方向と同じ回転方向で前記胴体部を回転させるように、前記胴体部用アクチュエータ及び前記首関節用アクチュエータを制御することで、前記センサからの出力値を低減させ、
前記センサからの出力値が前記しきい値を下回った場合に、前記胴体部用アクチュエータが胴体部の前記所定の軸周りの姿勢を維持するように制御するロボット。 The torso,
A body part actuator for rotating the body part around a predetermined axis;
A head that is attached to the body part and rotates together with the body part by operation of the body part actuator;
A neck joint that has a neck joint actuator and rotates the head relative to the body portion about an axis parallel to the predetermined axis so that the face of the head faces a predetermined direction;
A control unit for controlling the body part actuator and the neck joint actuator;
A sensor for detecting a force applied to the head around the predetermined axis,
When driving the neck joint actuator so that the face of the head faces a predetermined direction, the control unit compares the output value from the sensor with a threshold value,
When the output value from the sensor exceeds the threshold value, the body part actuator and the neck joint actuator are rotated so that the body part is rotated in the same rotation direction as the head rotation direction. By controlling, the output value from the sensor is reduced,
A robot for controlling the body portion actuator to maintain the posture of the body portion around the predetermined axis when an output value from the sensor falls below the threshold value.
前記胴体部を所定の軸周りに回転させる胴体部用アクチュエータと、
前記胴体部に取り付けられ、前記胴体部用アクチュエータの動作により前記胴体部とともに回転する頭部と、
首関節用アクチュエータを有し、前記頭部の顔が所定の方向を向くように、前記頭部を前記胴体部に対して前記所定の軸と平行な軸回りに対して回転させる首関節と、
前記胴体部用アクチュエータ、及び前記首関節用アクチュエータを制御する制御部と、
前記頭部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備えたロボットの制御方法であって、
前記頭部の顔が所定の方向を向くように前記首関節用アクチュエータを駆動する際に、前記制御部が、前記センサからの出力値としきい値とを比較して、
前記センサからの出力値が前記しきい値を越えていた場合に、前記頭部の回転方向と同じ回転方向で前記胴体部を回転させるように、前記胴体部用アクチュエータ及び前記首関節用アクチュエータを制御することで、前記センサからの出力値を低減させ、
前記センサからの出力値が前記しきい値を下回った場合に、前記胴体部用アクチュエータが胴体部の前記所定の軸周りの姿勢を維持するように制御する、ロボットの制御方法。 The torso,
A body part actuator for rotating the body part around a predetermined axis;
A head that is attached to the body part and rotates together with the body part by operation of the body part actuator;
A neck joint that has a neck joint actuator and rotates the head relative to the body portion about an axis parallel to the predetermined axis so that the face of the head faces a predetermined direction;
A control unit for controlling the body part actuator and the neck joint actuator;
A sensor for detecting a force applied to the head around the predetermined axis, and a robot control method comprising:
When driving the neck joint actuator so that the face of the head faces a predetermined direction, the control unit compares the output value from the sensor with a threshold value,
When the output value from the sensor exceeds the threshold value, the body part actuator and the neck joint actuator are rotated so that the body part is rotated in the same rotation direction as the head rotation direction. By controlling, the output value from the sensor is reduced,
A robot control method, wherein when the output value from the sensor falls below the threshold value, the body part actuator is controlled to maintain the posture of the body part around the predetermined axis.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008009668A JP5088150B2 (en) | 2008-01-18 | 2008-01-18 | Robot and robot control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008009668A JP5088150B2 (en) | 2008-01-18 | 2008-01-18 | Robot and robot control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009166213A JP2009166213A (en) | 2009-07-30 |
JP5088150B2 true JP5088150B2 (en) | 2012-12-05 |
Family
ID=40967987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008009668A Expired - Fee Related JP5088150B2 (en) | 2008-01-18 | 2008-01-18 | Robot and robot control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5088150B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104717590B (en) | 2010-12-27 | 2020-09-15 | 株式会社精好 | Mobile telephone system |
US9313306B2 (en) | 2010-12-27 | 2016-04-12 | Rohm Co., Ltd. | Mobile telephone cartilage conduction unit for making contact with the ear cartilage |
JP5783352B2 (en) | 2011-02-25 | 2015-09-24 | 株式会社ファインウェル | Conversation system, conversation system ring, mobile phone ring, ring-type mobile phone, and voice listening method |
KR101973346B1 (en) | 2012-01-20 | 2019-04-26 | 파인웰 씨오., 엘티디 | Portable telephone having cartilage conduction section |
KR20180061399A (en) | 2012-06-29 | 2018-06-07 | 로무 가부시키가이샤 | Stereo earphone |
KR101347618B1 (en) | 2013-06-21 | 2014-01-06 | 한국기계연구원 | Method of avoiding the collision of dual-arm robot with mobile platform |
WO2015025829A1 (en) | 2013-08-23 | 2015-02-26 | ローム株式会社 | Portable telephone |
WO2015060230A1 (en) | 2013-10-24 | 2015-04-30 | ローム株式会社 | Bracelet-type transmission/reception device and bracelet-type notification device |
JP6551919B2 (en) | 2014-08-20 | 2019-07-31 | 株式会社ファインウェル | Watch system, watch detection device and watch notification device |
KR101973486B1 (en) | 2014-12-18 | 2019-04-29 | 파인웰 씨오., 엘티디 | Cartilage conduction hearing device using an electromagnetic vibration unit, and electromagnetic vibration unit |
JP6783451B2 (en) * | 2016-07-13 | 2020-11-11 | 株式会社ファインウェル | Listening system and robots used in listening system |
WO2017010547A1 (en) * | 2015-07-15 | 2017-01-19 | ローム株式会社 | Robot and robot system |
JP6667172B2 (en) * | 2015-07-15 | 2020-03-18 | 株式会社ファインウェル | robot |
JP6551929B2 (en) | 2015-09-16 | 2019-07-31 | 株式会社ファインウェル | Watch with earpiece function |
US10778824B2 (en) | 2016-01-19 | 2020-09-15 | Finewell Co., Ltd. | Pen-type handset |
JP2020053948A (en) | 2018-09-28 | 2020-04-02 | 株式会社ファインウェル | Hearing device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007139135A1 (en) * | 2006-05-30 | 2007-12-06 | Japan Science And Technology Agency | Robot and controller |
-
2008
- 2008-01-18 JP JP2008009668A patent/JP5088150B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009166213A (en) | 2009-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5088150B2 (en) | Robot and robot control method | |
CN106573377B (en) | Humanoid robot with collision avoidance and trajectory recovery capabilities | |
JP4849244B2 (en) | Mobile robot and moving speed estimation method | |
US20140005827A1 (en) | Apparatus for controlling mobile robot | |
US6956345B2 (en) | Robot apparatus, and load absorbing apparatus and method | |
JP5429462B2 (en) | Communication robot | |
JP4243309B2 (en) | Robot arm control device | |
US6989645B2 (en) | Robot apparatus, and load absorbing apparatus and method | |
JP5755011B2 (en) | Robot group control apparatus and method | |
JP5978027B2 (en) | Mobile robot controller | |
JP4914703B2 (en) | Control device for legged mobile robot | |
JP4271161B2 (en) | Robot device, method of turning robot device, and program | |
WO2019082779A1 (en) | Robot charging station | |
JP2011194539A (en) | Robot and method of controlling the same | |
Nagasaka | Sony QRIO | |
JP4042108B2 (en) | Robot apparatus and control method thereof | |
JP2002361585A (en) | Communication robot | |
JP5157545B2 (en) | Whole body coordination device, robot, and robot control method | |
JP7309371B2 (en) | robot control system | |
JP4198676B2 (en) | Robot device, robot device movement tracking method, and program | |
CN107199562A (en) | Robot Controller And Robot Control Method | |
Brandk-ão et al. | Reaching for the unreachable: integration of locomotion and whole-body movements for extended visually guided reaching | |
WO2021117701A1 (en) | Master/slave system and control method | |
JP2003271196A (en) | Robot system and method for controlling the same | |
JP2003266353A (en) | Robot device and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100609 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120814 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120827 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5088150 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |