JP5088150B2 - Robot and robot control method - Google Patents

Robot and robot control method Download PDF

Info

Publication number
JP5088150B2
JP5088150B2 JP2008009668A JP2008009668A JP5088150B2 JP 5088150 B2 JP5088150 B2 JP 5088150B2 JP 2008009668 A JP2008009668 A JP 2008009668A JP 2008009668 A JP2008009668 A JP 2008009668A JP 5088150 B2 JP5088150 B2 JP 5088150B2
Authority
JP
Japan
Prior art keywords
head
actuator
robot
body part
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008009668A
Other languages
Japanese (ja)
Other versions
JP2009166213A (en
Inventor
康裕 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008009668A priority Critical patent/JP5088150B2/en
Publication of JP2009166213A publication Critical patent/JP2009166213A/en
Application granted granted Critical
Publication of JP5088150B2 publication Critical patent/JP5088150B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット、及びロボットの制御方法に関し、特に詳しくは、胴体部を有するロボット、及びその制御方法に関する。   The present invention relates to a robot and a robot control method, and more particularly to a robot having a body part and a control method thereof.

近年、人間と共生するロボットが開発されている。たとえば、ヒューマノイド型のロボットが開発されている。このようなロボットでは、胴体部に頭部や腕部が取り付けられている。そして、首関節、肩関節等によって、首部や腕部を駆動する(特許文献1)。多関節を有するロボットでは、各関節は個別に制御されている。   In recent years, robots that coexist with human beings have been developed. For example, humanoid robots have been developed. In such a robot, the head and arms are attached to the body. And a neck part and an arm part are driven by a neck joint, a shoulder joint, etc. (patent document 1). In a robot having multiple joints, each joint is controlled individually.

特開2000−296484公報JP 2000-296484 A

また、人間とコミュニケーションを取るロボットが開発されている。例えば、ロボットの頭部には、コミュニケーション相手の方向を特定するためのカメラやマイクロフォンが設けられている。そして、カメラが目の代わりとなり、コミュニケーション相手となる人の顔を認識する。そして、認識した顔を目標方向とする。頭部を目標方向に向けるように制御する。すなわち、移動する顔に追従するように首関節が回転する。よって、コミュニケーション相手の方向を向くことができる。そして、スピーカなどによって発話して、人間とのコミュニケーションを図る。   Robots that communicate with human beings have been developed. For example, a camera or a microphone for specifying the direction of the communication partner is provided on the head of the robot. The camera replaces the eyes and recognizes the face of the person who is the communication partner. The recognized face is set as the target direction. Control the head to point in the target direction. That is, the neck joint rotates so as to follow the moving face. Therefore, it is possible to face the direction of the communication partner. Then, speak with a speaker or the like to communicate with humans.

しかしながら、従来のロボットでは、各関節が別個に制御されている。従って、顔をある方向に向ける際に、それに伴って胴体部をその方向に向けようとした場合、それぞれの制御が別個に行われてしまう。よって、人間の動作と比べて不自然な動作になってしまう。また、首関節だけでなく、他の関節でも同様に不自然な動作になってしまうことがある。このように、従来のロボットでは、動作が不自然になってしまうという問題点がある。   However, in a conventional robot, each joint is controlled separately. Therefore, when the face is turned in a certain direction, if the body part is directed in that direction, each control is performed separately. Therefore, it becomes an unnatural motion compared with a human motion. Further, not only the neck joint but also other joints may be similarly unnatural. Thus, the conventional robot has a problem that the operation becomes unnatural.

本発明は、このような問題を解決するためになされたものであり、自然な動作が可能となるロボット、及びその制御方法を提供することを目的とする。   The present invention has been made to solve such problems, and it is an object of the present invention to provide a robot capable of natural operation and a control method thereof.

本発明の第1の態様にかかるロボットは、胴体部と、前記胴体部を所定の軸周りに回転させるアクチュエータと、前記胴体部に取り付けられた先端部と、前記先端部を前記所定の軸と平行な軸回りに対して回転させる関節と、前記アクチュータ、及び関節を制御する制御部と、前記先端部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備え、前記制御部が、前記センサからの出力値としきい値とを比較して、前記センサからの出力値が前記しきい値を越えていた場合に、前記センサからの出力値が低減するように、前記アクチュエータを制御するものである。これにより、先端部と胴体部が連携して制御されるため、自然な動作で駆動することができる。   A robot according to a first aspect of the present invention includes a body part, an actuator that rotates the body part around a predetermined axis, a tip part attached to the body part, and the tip part as the predetermined axis. A joint that rotates about a parallel axis; the actuator; a control unit that controls the joint; and a sensor that detects a force applied to the tip portion about the predetermined axis, and The control unit compares the output value from the sensor with a threshold value, and when the output value from the sensor exceeds the threshold value, the output value from the sensor is reduced. The actuator is controlled. Thereby, since a front-end | tip part and a trunk | drum are controlled in cooperation, it can drive by natural operation | movement.

本発明の第2の態様にかかるロボットは、上記のロボットであって、前記センサからの出力値に応じて、前記アクチュエータの駆動速度を変化させていることを特徴とするものである。これにより、胴体部の動作速度を変化させることができ、動作がより自然になる。   A robot according to a second aspect of the present invention is the robot described above, wherein the drive speed of the actuator is changed according to an output value from the sensor. Thereby, the operation | movement speed of a trunk | drum can be changed and operation | movement becomes more natural.

本発明の第3の態様にかかるロボットは、上記のロボットであって、前記制御部が、前記先端部を目標方向に追従させるよう、前記関節を駆動しているものである。これにより、目標方向への追従動作を自然に行うことができる。   A robot according to a third aspect of the present invention is the robot described above, wherein the control unit drives the joint so that the tip portion follows the target direction. Thereby, the tracking operation | movement to a target direction can be performed naturally.

本発明の第4の態様にかかるロボットは、上記のロボットであって、前記制御部が、前記先端部に外力が加わった場合に、前記外力を軽減するように、前記アクチュエータを駆動しているものである。これにより、自然な動作で外力による衝撃を吸収することができる。   A robot according to a fourth aspect of the present invention is the robot described above, wherein the control unit drives the actuator so as to reduce the external force when an external force is applied to the tip portion. Is. Thereby, the impact by external force can be absorbed with natural operation | movement.

本発明の第5の態様にかかるロボットの制御方法は、胴体部と、前記胴体部を所定の軸周りに回転させるアクチュエータと、前記胴体部に取り付けられた先端部と、前記先端部を前記所定の軸と平行な軸回りに対して回転させる関節と、前記アクチュータ、及び関節を制御する制御部と、前記先端部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備えたロボットの制御方法であって、前記センサからの出力値としきい値とを比較して、前記センサからの出力値が前記しきい値を越えていた場合に、前記センサからの出力値が低減するように、前記アクチュエータを制御するものである。これにより、先端部と胴体部が連携して制御されるため、自然な動作で駆動することができる。   According to a fifth aspect of the present invention, there is provided a robot control method comprising: a body part; an actuator that rotates the body part around a predetermined axis; a tip part attached to the body part; A joint that rotates about an axis parallel to the axis of the actuator, the actuator, a control unit that controls the joint, and a sensor that detects a force applied to the distal end about the predetermined axis. A method for controlling a robot, comprising: comparing an output value from the sensor with a threshold value; if the output value from the sensor exceeds the threshold value, the output value from the sensor is The actuator is controlled so as to be reduced. Thereby, since a front-end | tip part and a trunk | drum are controlled in cooperation, it can drive by natural operation | movement.

本発明の第6の態様にかかるロボットの制御方法は、上記の制御方法であって、前記センサからの出力値に応じて、前記アクチュエータの駆動速度を変化させていることを特徴とするものである。これにより、胴体部の動作速度を変化させることができ、動作がより自然になる。   A robot control method according to a sixth aspect of the present invention is the control method described above, wherein the drive speed of the actuator is changed according to an output value from the sensor. is there. Thereby, the operation | movement speed of a trunk | drum can be changed and operation | movement becomes more natural.

本発明の第7の態様にかかるロボットの制御方法は、上記の制御方法であって、前記先端部を目標方向に追従させるよう、前記関節を駆動しているものである。これにより、目標方向への追従動作を自然に行うことができる。   A robot control method according to a seventh aspect of the present invention is the control method described above, wherein the joint is driven so that the tip portion follows the target direction. Thereby, the tracking operation | movement to a target direction can be performed naturally.

本発明の第8の態様にかかるロボットの制御方法は、上記の制御方法であって、前記先端部に外力が加わった場合に、前記外力を軽減するように、前記アクチュエータを駆動しているものである。これにより、自然な動作で外力による衝撃を吸収することができる。   A robot control method according to an eighth aspect of the present invention is the control method described above, wherein when the external force is applied to the tip, the actuator is driven so as to reduce the external force. It is. Thereby, the impact by external force can be absorbed with natural operation | movement.

本発明によれば、自然な動作が可能となるロボット、及びその制御方法を提供することが可能になる。   According to the present invention, it is possible to provide a robot capable of natural operation and a control method thereof.

本実施の形態にかかるロボットは、胴体部と、胴体部を所定の軸周りに回転させるアクチュエータと、胴体部に取り付けられた先端部と、先端部を所定の軸と平行な軸回りに対して回転させる関節と、アクチュータ、及び関節を制御する制御部と、先端部に対して所定の軸回りにかかる力を検出するためのセンサと、を有している。そして、制御部が、センサからの出力値としきい値とを比較して、センサからの出力値がしきい値を越えていた場合に、センサからの出力値が低減するように、アクチュエータを制御している。   The robot according to the present embodiment includes a torso, an actuator for rotating the torso around a predetermined axis, a tip attached to the torso, and a tip with respect to an axis parallel to the prescribed axis. A rotation joint, an actuator, a control unit for controlling the joint, and a sensor for detecting a force applied around a predetermined axis with respect to the distal end portion are provided. Then, the control unit compares the output value from the sensor with the threshold value, and controls the actuator so that the output value from the sensor decreases when the output value from the sensor exceeds the threshold value. doing.

発明の実施の形態1.
本実施の形態にかかる電源供給装置を用いたロボットについて図1を用いて説明する。図1はロボット100の構成を模式的に示す外観図である。本実施の形態では、ロボット100が、自律移動する移動ロボットとして説明する。ロボット100は、頭部1と、車輪2と、筐体3と、腕部4と、胴体部6を備えている。
Embodiment 1 of the Invention
A robot using the power supply apparatus according to this embodiment will be described with reference to FIG. FIG. 1 is an external view schematically showing the configuration of the robot 100. In the present embodiment, the robot 100 will be described as a mobile robot that moves autonomously. The robot 100 includes a head 1, a wheel 2, a housing 3, an arm part 4, and a body part 6.

胴体部6の上には、頭部1が設けられている。頭部1は、首関節を介して胴体部6に連結されている。首関節を駆動すると頭部1の向きが変化する。また、胴体部6の両側には、それぞれ腕部4が設けられている。腕部4は、肩関節を介して胴体部6に連結されている。胴体部6の下には、車輪2が設けられている。車輪2を駆動することにより、ロボット100が移動する。胴体部6は、筐体3を有している。胴体部6には、ロボット100の中心軸となる体軸が含まれている。   A head 1 is provided on the body portion 6. The head 1 is connected to the body 6 through a neck joint. When the neck joint is driven, the orientation of the head 1 changes. Moreover, the arm part 4 is provided in the both sides of the trunk | drum 6, respectively. The arm part 4 is connected to the body part 6 via a shoulder joint. Below the body portion 6, wheels 2 are provided. By driving the wheel 2, the robot 100 moves. The body portion 6 has a housing 3. The body portion 6 includes a body axis that is the central axis of the robot 100.

そして、筐体3の内部には、車輪2と接続されたモータ、及びモータを駆動するための電源部などが設けられている。このモータがロボット100を駆動するためのアクチュエータとなる。モータを駆動することによって、車輪2が回転して、ロボット100が移動する。また、腕部4には、腕関節4aが設けられている。腕関節4aは、モータと接続されている。モータ等によって腕関節4aを駆動することによって、腕部4の位置、及び姿勢が制御される。さらに、腕部4が駆動することによって、物体の把持などが行なわれる。胴体部、及び頭部1には、人間とコミュニケーションを取るために、カメラ、LED、マイク、スピーカなどが設けられている。   The housing 3 is provided with a motor connected to the wheel 2 and a power supply unit for driving the motor. This motor serves as an actuator for driving the robot 100. By driving the motor, the wheel 2 rotates and the robot 100 moves. The arm portion 4 is provided with an arm joint 4a. The arm joint 4a is connected to a motor. By driving the arm joint 4a with a motor or the like, the position and posture of the arm portion 4 are controlled. Further, when the arm portion 4 is driven, an object is gripped. The body part and the head 1 are provided with a camera, an LED, a microphone, a speaker, and the like in order to communicate with humans.

ロボット100は、画像処理によって顔認識を行う。そして、首関節を駆動して、頭部1をコミュニケーション相手の方向に向ける。すなわち、首関節を駆動することによって顔追従を行う。こうすることで、常時、頭部1が人間の顔の方向を向く。この顔追従動作については、後述する。そして、スピーカを用いて、コミュニケーション相手に対して発話する。   The robot 100 performs face recognition by image processing. Then, the neck joint is driven to direct the head 1 toward the communication partner. That is, face tracking is performed by driving the neck joint. In this way, the head 1 always faces the human face. This face following operation will be described later. Then, the speaker speaks to the communication partner.

次に、ロボット100の制御系について図2を用いて説明する。図2は、ロボット100の制御系を示すブロック図である。ロボット100は、制御部101、入出力部102、駆動部103、電源部104、及び外部記憶部105などを有している。   Next, the control system of the robot 100 will be described with reference to FIG. FIG. 2 is a block diagram showing a control system of the robot 100. The robot 100 includes a control unit 101, an input / output unit 102, a drive unit 103, a power supply unit 104, an external storage unit 105, and the like.

入出力部102は、周囲の映像を取得するためのCCD(Charge Coupled Device)などからなるカメラ121、周囲の音を集音するための1又は複数の内部マイク122、音声を出力してユーザと対話等を行なうためのスピーカ123、ユーザへの応答や感情等を表現するためのLED124、タッチセンサなどを有するセンサ部125などを備える。また、センサ部125は、レーザレンジファインダ、トルクセンサ、エンコーダなどの各種センサを有している。   The input / output unit 102 includes a camera 121 such as a CCD (Charge Coupled Device) for acquiring surrounding video, one or a plurality of internal microphones 122 for collecting surrounding sounds, and outputs audio to the user. A speaker 123 for performing a conversation, an LED 124 for expressing a response to the user, feelings, and the like, a sensor unit 125 having a touch sensor, and the like are provided. The sensor unit 125 includes various sensors such as a laser range finder, a torque sensor, and an encoder.

また、駆動部103は、モータ131及びモータを駆動するドライバ132などを有し、ユーザの指示などに従って、首関節、車輪2、腕部4の腕関節4aを駆動させる。なお、モータ131の数は関節の数によって決まる。したがって、ロボット100には、複数のモータ131が設けられている。電源部104は、バッテリ141及びその放充電を制御するバッテリ制御部142を有する電源ユニットであり、各部に電源を供給する。そして、バッテリ141からの電源は、制御部101、入出力部102、モータ131、外部記憶部105等に供給される。電源部104は、例えば、筐体3の内部に設けられている。ロボット100に内蔵されたバッテリ141は二次電池であり、例えば、外部のAC電源と接続することによって充電が行なわれる。   The drive unit 103 includes a motor 131 and a driver 132 that drives the motor, and drives the neck joint, the wheel 2, and the arm joint 4 a of the arm unit 4 in accordance with a user instruction. Note that the number of motors 131 is determined by the number of joints. Therefore, the robot 100 is provided with a plurality of motors 131. The power supply unit 104 is a power supply unit that includes a battery 141 and a battery control unit 142 that controls the discharging and charging thereof, and supplies power to each unit. The power from the battery 141 is supplied to the control unit 101, the input / output unit 102, the motor 131, the external storage unit 105, and the like. The power supply unit 104 is provided in the housing 3, for example. The battery 141 built in the robot 100 is a secondary battery, and is charged by being connected to an external AC power source, for example.

バッテリ141としては、例えば、リチウム電池パックを用いることができる。バッテリ制御部142は、バッテリ141からの電源供給を制御するパワーコントロールユニット(PCU)を有している。   As the battery 141, for example, a lithium battery pack can be used. The battery control unit 142 includes a power control unit (PCU) that controls power supply from the battery 141.

外部記憶部105は、着脱可能なHDD、光ディスク、光磁気ディスク等からなり、各種プログラムや制御パラメータなどを記憶し、そのプログラムやデータを必要に応じて制御部101内のメモリ(不図示)等に供給する。   The external storage unit 105 includes a removable HDD, an optical disk, a magneto-optical disk, and the like, stores various programs and control parameters, and stores the programs and data in a memory (not shown) in the control unit 101 as necessary. To supply.

制御部101は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、無線通信用のインターフェースなどを有し、ロボット1の各種動作を制御する。そして、この制御部101は、例えばROMに格納された制御プログラムに従ってロボット100の各部を制御する。制御部101は、ドライバ132に駆動信号を出力して、モータ131の動作を制御する。これにより、ロボット100が所定の位置まで自律的に移動する。あるいは、腕関節4aが駆動して、腕部4が移動する。具体的には、制御部101は、目標位置までの移動経路を生成して、その移動経路に追従するように、モータを制御する。さらに、首関節が駆動して、頭部1が所定の方向を向く。例えば、制御部101は、各軸に対する指令値を算出する。そして、ドライバ132に指令値に応じた駆動信号を出力する。これにより、各軸のモータが指令値に追従するようにフィードバック制御される。   The control unit 101 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a wireless communication interface, and the like, and controls various operations of the robot 1. And this control part 101 controls each part of the robot 100 according to the control program stored, for example in ROM. The control unit 101 outputs a drive signal to the driver 132 to control the operation of the motor 131. Thereby, the robot 100 moves autonomously to a predetermined position. Or the arm joint 4a drives and the arm part 4 moves. Specifically, the control unit 101 generates a movement path to the target position and controls the motor so as to follow the movement path. Further, the neck joint is driven and the head 1 is directed in a predetermined direction. For example, the control unit 101 calculates a command value for each axis. Then, a drive signal corresponding to the command value is output to the driver 132. Thereby, feedback control is performed so that the motor of each axis follows the command value.

モータ131、及びドライバ132は、2つの車輪2や各関節にそれぞれ設けられている。これにより、2つの車輪2や関節を独立して駆動することができる。例えば、ドライバ132は、モータ131の回転数を制御する。これにより、車輪2を所定の回転数で駆動することができる。よって、ロボット100の目標位置までの移動が可能となる。モータ131はロボット100の内部に取り付けられている。また、これらの各機器は筐体3に収納されている。   The motor 131 and the driver 132 are provided at each of the two wheels 2 and each joint. Thereby, the two wheels 2 and the joint can be driven independently. For example, the driver 132 controls the rotation speed of the motor 131. Thereby, the wheel 2 can be driven at a predetermined rotational speed. Therefore, the robot 100 can move to the target position. The motor 131 is attached inside the robot 100. Each of these devices is housed in the housing 3.

次に、顔追従を行うための構成について、図3を用いて説明する。図3は、筐体3内部の構成を模式的に示す斜視図である。図3(a)は、左前側からみた斜視図であり、図3(b)は、左後ろ側から見た斜視図である。   Next, a configuration for performing face tracking will be described with reference to FIG. FIG. 3 is a perspective view schematically showing the configuration inside the housing 3. FIG. 3A is a perspective view seen from the left front side, and FIG. 3B is a perspective view seen from the left rear side.

頭部1には、カメラ121が設けられている。カメラ121は、例えば、頭部1の目の位置に設置されている。カメラ121は、例えば、ステレオカメラであり、対象物を異なる方向から同時に撮像する。これにより、ステレオ画像が取得される。カメラ121で取得された画像データは、制御部101に出力される。制御部101は、この画像データに基づいて顔認識を行う。   The head 1 is provided with a camera 121. For example, the camera 121 is installed at the eye position of the head 1. The camera 121 is a stereo camera, for example, and images a target object simultaneously from different directions. Thereby, a stereo image is acquired. Image data acquired by the camera 121 is output to the control unit 101. The control unit 101 performs face recognition based on the image data.

頭部1は、首関節7を介して胴体部6に接続されている。首関節7は、頭部1をヨー軸(首ヨー軸)回りに回転させる。従って、首関節7を駆動することで、カメラ121の向きが変化する。すなわち、カメラ121の視野の方向が変化する。さらに、首関節7には、センサ部125に含まれるトルクセンサ125aが設けられている。トルクセンサ125aは、例えば、力覚センサであり、首関節7にかかる駆動トルクを検出する。これにより、首関節7の駆動軸にかかるトルクの大きさ、及び方向が検出される。このように、トルクセンサ125aは、頭部1に対してヨー軸回りにかかる力を検出するために設けられている。   The head 1 is connected to the body portion 6 via the neck joint 7. The neck joint 7 rotates the head 1 around the yaw axis (neck yaw axis). Therefore, driving the neck joint 7 changes the orientation of the camera 121. That is, the direction of the field of view of the camera 121 changes. Further, the neck joint 7 is provided with a torque sensor 125 a included in the sensor unit 125. The torque sensor 125a is a force sensor, for example, and detects a driving torque applied to the neck joint 7. Thereby, the magnitude | size and direction of the torque concerning the drive shaft of the neck joint 7 are detected. Thus, the torque sensor 125a is provided for detecting the force applied to the head 1 around the yaw axis.

胴体部6には、制御部101が設けられている。制御部101は、胴体部6の背面側に設置されている。制御部101は、顔認識モジュールを有しており、カメラ121で取得された画像データに対して顔認識を行う。例えば、外部記憶部105のメモリ等に顔テンプレート画像を予め登録しておく。そして、顔テンプレート画像を用いた画像処理を行って、人間の顔を抽出する。すなわち、カメラ121で取得した画像の中から顔テンプレート画像にマッチングするパターンを抽出する。これにより、取得した画像中の顔の位置を特定することができ、顔を認識することができる。よって、コミュニケーション相手の方向を特定することができる。   The body unit 6 is provided with a control unit 101. The control unit 101 is installed on the back side of the body unit 6. The control unit 101 includes a face recognition module, and performs face recognition on image data acquired by the camera 121. For example, a face template image is registered in advance in the memory of the external storage unit 105 or the like. Then, image processing using the face template image is performed to extract a human face. That is, a pattern that matches the face template image is extracted from the images acquired by the camera 121. Thereby, the position of the face in the acquired image can be specified, and the face can be recognized. Therefore, the direction of the communication partner can be specified.

さらに、胴体部6の下側には、車輪2が設けられている。車輪2は、車輪ベースに回転可能に保持されている。すなわち、胴体部6の左右両側には、車輪2が取り付けられている。胴体部6には、モータ131を駆動するためのサーボアンプやドライバ等が設置されている。左右の車輪2を回転させることで、ロボット100が移動する。すなわち、左右の車輪2を前方向に回転させることで、ロボット100が前進し、後ろ方向に回転させることでロボット100が後退する。また、左右の車輪2を反対方向に回転させることで、胴体部6がヨー軸回り(腰ヨー軸)に回転する。すなわち、右の車輪2を前方向、左の車輪2を後ろ方向に回転させることで、ロボット100が左旋回する。このように、左右の車輪2を反対方向に同じ回転速度で回転させることで、その場旋回させることが可能になる。また、左右の車輪2を異なる回転速度で反対方向に回転させることで、移動しながら、ロボット100の方向を変えることができる。   Further, a wheel 2 is provided below the body portion 6. The wheel 2 is rotatably held on the wheel base. That is, the wheels 2 are attached to the left and right sides of the body portion 6. A servo amplifier, a driver, and the like for driving the motor 131 are installed in the body portion 6. The robot 100 moves by rotating the left and right wheels 2. That is, the robot 100 moves forward by rotating the left and right wheels 2 in the forward direction, and the robot 100 moves backward by rotating in the backward direction. Further, by rotating the left and right wheels 2 in opposite directions, the body portion 6 rotates about the yaw axis (waist yaw axis). That is, the robot 100 turns left by rotating the right wheel 2 forward and the left wheel 2 backward. Thus, it becomes possible to turn on the spot by rotating the left and right wheels 2 in opposite directions at the same rotational speed. Further, by rotating the left and right wheels 2 in opposite directions at different rotational speeds, the direction of the robot 100 can be changed while moving.

さらに、車輪2の前後には、転倒防止用の補助輪8が設けられている。補助輪8は、従動輪であり、車輪2の駆動にしたがって回転する。また、車輪2の駆動にしたがって、補助輪8の方向が変化する。   Further, auxiliary wheels 8 for preventing overturning are provided before and after the wheel 2. The auxiliary wheel 8 is a driven wheel and rotates according to the driving of the wheel 2. Further, the direction of the auxiliary wheel 8 changes as the wheel 2 is driven.

胴体部6には、腕部4が設けられている。図3に示すように、腕部4は右アーム、及び左アームを有している。腕部4は、肩関節9を介して胴体部に取り付けられている。さらに、腕部4の肘部分や手首部分には、腕関節4aが設けられている。肩関節9及び腕関節4aによって、腕部4が駆動する。例えば、腕部4を駆動することで、対象物体を把持することができる。   The body portion 6 is provided with an arm portion 4. As shown in FIG. 3, the arm part 4 has a right arm and a left arm. The arm portion 4 is attached to the trunk portion via the shoulder joint 9. Further, an arm joint 4 a is provided at the elbow portion and wrist portion of the arm portion 4. The arm 4 is driven by the shoulder joint 9 and the arm joint 4a. For example, the target object can be gripped by driving the arm 4.

頭部1をコミュニケーション相手となる方向に向けるため、制御部101は、首関節7を制御する。すなわち、頭部1を首ヨー軸周りに回転させて、顔追従を行う。カメラ121で取得された画像に対して顔認識を行う。そして、カメラ121が常時、顔を撮像することができるように、首関節7を回転させる。例えば、カメラ121の視野の中心に、顔が存在するように、顔追従を行う。これにより、首関節7が回転して、コミュニケーション相手の方向を向くことができる。   The control unit 101 controls the neck joint 7 in order to direct the head 1 in a direction to be a communication partner. That is, the head 1 is rotated around the neck yaw axis to perform face tracking. Face recognition is performed on an image acquired by the camera 121. Then, the neck joint 7 is rotated so that the camera 121 can always capture the face. For example, face tracking is performed so that a face exists at the center of the field of view of the camera 121. Thereby, the neck joint 7 can rotate and can face the direction of a communication other party.

さらに、本実施の形態では、トルクセンサ125aの出力値に基づいて、顔追従を行っている。トルクセンサ125aで、検出したトルクがしきい値を越える場合、車輪2を駆動して、首関節7の駆動トルクを低減する。具体的には、車輪2を駆動して、ロボット100をその場旋回させる。これにより、胴体部6がヨー軸回りに回転する。   Furthermore, in the present embodiment, face tracking is performed based on the output value of the torque sensor 125a. When the torque detected by the torque sensor 125a exceeds the threshold value, the wheel 2 is driven to reduce the driving torque of the neck joint 7. Specifically, the wheel 2 is driven to turn the robot 100 on the spot. Thereby, the body part 6 rotates around the yaw axis.

トルクセンサ125aは、頭部1(首ヨー軸関節)と胴体部6(腰ヨー軸関節)との間の相互反力を検出する。そして、トルクセンサ125aの出力値がしきい値を越えたら、車輪2を回転させる。これにより、胴体部6がヨー軸回りに回転して、トルクセンサ125aの出力値が低減する。すなわち、首ヨー軸関節にかかる力を打ち消すように車輪2を駆動する。これにより、胴体部6が腰ヨー軸回りに回転して、首関節7にかかる負荷(反力)が軽減する。すなわち、首関節7が回転している方向に、胴体部6がその場で旋回する。よって、ロボット100をスムーズに動作させることができる。自然な動作を実現することができ、ロボット100全体の動きや仕草の見栄えが向上する。   The torque sensor 125a detects a mutual reaction force between the head 1 (neck yaw axis joint) and the body part 6 (lumbar yaw axis joint). When the output value of the torque sensor 125a exceeds the threshold value, the wheel 2 is rotated. Thereby, the trunk | drum 6 rotates around a yaw axis, and the output value of the torque sensor 125a reduces. That is, the wheel 2 is driven so as to cancel the force applied to the neck yaw axis joint. Thereby, the trunk | drum 6 rotates around a waist yaw axis, and the load (reaction force) concerning the neck joint 7 is reduced. That is, the body part 6 turns on the spot in the direction in which the neck joint 7 is rotating. Therefore, the robot 100 can be operated smoothly. Natural motion can be realized, and the movement of the entire robot 100 and the appearance of the gesture are improved.

次に、顔追従を行うための制御について図4〜図6を用いて説明する。すなわち、画像処理によって認識された顔の方向に頭部1を向けるための制御について以下に説明する。図4は、顔追従を行う際の頭部1と胴体部6の動作を模式的に示す上面図である。図5は、頭部1と首関節7とを含むロボットヘッドの制御ループを模式的に示すブロック図である。図6は、車輪2と胴体部6とを含むロボットボディの制御ループを模式的に示すブロック図である。なお、図4では、頭部1の向き(正面方向)が実線矢印で示され、顔追従の目標方向が点線矢印で示されている。すなわち、顔追従を行うと、実線矢印が点線矢印に近づくように、フィードバック制御が行われる。   Next, control for performing face tracking will be described with reference to FIGS. That is, control for directing the head 1 in the direction of the face recognized by the image processing will be described below. FIG. 4 is a top view schematically showing the operation of the head 1 and the torso 6 when performing face tracking. FIG. 5 is a block diagram schematically showing a control loop of the robot head including the head 1 and the neck joint 7. FIG. 6 is a block diagram schematically showing a control loop of the robot body including the wheel 2 and the body portion 6. In FIG. 4, the direction (front direction) of the head 1 is indicated by a solid arrow, and the target direction of face tracking is indicated by a dotted arrow. That is, when face tracking is performed, feedback control is performed so that the solid line arrow approaches the dotted line arrow.

動作開始前では、図4(a)に示すように、ロボット100の顔が正面を向いている。そして、図5に示すように、顔追従のアクションを開始すると、カメラ121で取得した画像に対して画像処理を行う。すなわち、顔認識処理を行い、目標方向を特定する。対象200となる人の顔を認識して、対象200の方向を目標方向とする。これにより、目標方向が特定され、ロボット100が対象200を向くように顔追従制御が行われる。なお、ここでは説明の簡略化のため、ロボット100に対する対象200の位置が一定であるとして説明する。   Before the operation is started, as shown in FIG. 4A, the face of the robot 100 faces the front. Then, as shown in FIG. 5, when the face tracking action is started, image processing is performed on the image acquired by the camera 121. That is, face recognition processing is performed to specify the target direction. The face of the person who becomes the target 200 is recognized, and the direction of the target 200 is set as the target direction. Thereby, the target direction is specified, and face following control is performed so that the robot 100 faces the target 200. Here, for simplification of description, the description will be made assuming that the position of the target 200 with respect to the robot 100 is constant.

顔追従アクションを開始すると、制御部101aは、目標方向に頭部1を向けるために、首関節7のモータ131aを駆動する。すなわち、首関節7をヨー軸回りに回転して、頭部1の向きを変える。これにより、図4(b)に示すように、胴体部6に対する頭部1の向きが変化する。図4(b)では、対象200が左斜め前にあるため、首関節7が反時計回りに回転する。頭部1の向きが目標方向に近づく。なお、ここでは、フィードバック制御によって、首関節7を駆動している。すなわち、目標方向と頭部1の現在の方向(向き)との偏差に適当なフィードバックゲインを乗じて、目標トルク値(指令値)を算出する。そして、その目標トルク値になるように、首関節7のモータ131aを駆動する。したがって、頭部1の向きが目標方向からずれているほど、モータ131aの目標トルク値が大きくなる。   When the face following action is started, the control unit 101a drives the motor 131a of the neck joint 7 to direct the head 1 in the target direction. That is, the head joint 1 is rotated by rotating the neck joint 7 around the yaw axis. Thereby, as shown in FIG.4 (b), the direction of the head 1 with respect to the trunk | drum 6 changes. In FIG.4 (b), since the object 200 exists in the diagonally left front, the neck joint 7 rotates counterclockwise. The direction of the head 1 approaches the target direction. Here, the neck joint 7 is driven by feedback control. That is, the target torque value (command value) is calculated by multiplying the deviation between the target direction and the current direction (direction) of the head 1 by an appropriate feedback gain. And the motor 131a of the neck joint 7 is driven so that it may become the target torque value. Therefore, the target torque value of the motor 131a increases as the direction of the head 1 deviates from the target direction.

そして、モータ131aを駆動した後、再度、カメラ121で画像を取得して、顔認識を行う。これにより、目標方向が修正される。首関節7が回転した分だけ、目標方向からのずれが小さくなっている。もちろん、対象200が移動した場合も対象200の絶対位置が変わるため、目標方向が変化する。そして、頭部1が目標方向を向くように、首関節7を駆動していく。首関節7については、上記のフィードバック制御を繰り返し行っている。すなわち、位置制御によってモータ131aを駆動して、首関節7を回転させている。   Then, after driving the motor 131a, the camera 121 again acquires an image and performs face recognition. Thereby, the target direction is corrected. The deviation from the target direction is reduced by the amount of rotation of the neck joint 7. Of course, even when the target 200 moves, the target position changes because the absolute position of the target 200 changes. Then, the neck joint 7 is driven so that the head 1 faces the target direction. The neck joint 7 is repeatedly subjected to the above feedback control. That is, the neck 131 is rotated by driving the motor 131a by position control.

次に、胴体部6の制御について、図6を用いて説明する。首関節7のモータ131aが駆動すると、図6に示すように、トルクセンサ125aでモータトルクが検出される。トルクセンサ125aで検出されるトルクは、頭部1と胴体部6との間にかかる反力に相当する。制御部101bがしきい値とモータ131aのトルクを比較する。すなわち、トルクセンサ125aの出力値が、予め設定されているしきい値を越えているか否かを判定する。制御部101bは、トルク(回転負荷)に応じて、負荷(反力)軽減動作を行うか、姿勢維持動作を行うかを判断する。しきい値を越えている場合は、ドライバ132が負荷軽減動作を行う。すなわち、車輪2のモータ131bを駆動して、胴体部6をヨー軸周りに回転させる。これにより、図4(c)に示すように、胴体部6が目標方向に向かって、反時計周りに回転する。すなわち、車輪2の駆動によって、首関節7の回転方向と同じ方向に、胴体部6が回転する。   Next, control of the body part 6 will be described with reference to FIG. When the motor 131a of the neck joint 7 is driven, the motor torque is detected by the torque sensor 125a as shown in FIG. The torque detected by the torque sensor 125 a corresponds to a reaction force applied between the head 1 and the body portion 6. The controller 101b compares the threshold value with the torque of the motor 131a. That is, it is determined whether or not the output value of the torque sensor 125a exceeds a preset threshold value. The control unit 101b determines whether to perform a load (reaction force) reduction operation or an attitude maintenance operation according to the torque (rotational load). If the threshold is exceeded, the driver 132 performs a load reduction operation. That is, the motor 131b of the wheel 2 is driven to rotate the body portion 6 around the yaw axis. Thereby, as shown in FIG.4 (c), the trunk | drum 6 rotates counterclockwise toward a target direction. That is, the body 6 rotates in the same direction as the rotation direction of the neck joint 7 by driving the wheels 2.

このように、ロボット100がその場旋回して、胴体部6の体軸アライメントが行われる。したがって、胴体部6に取り付けられた頭部1の向きが目標方向に近づく。すなわち、胴体部6が目標方向に向かってヨー軸回りに回転するため、それにしたがって頭部1も回転する。さらに、上記のように、胴体部6に対して首関節7がヨー軸回りに回転している。よって、しきい値を越えた場合、首関節7の駆動だけでなく、車輪2の駆動で頭部1の向きが変わる。このため、速やかに目標方向を向くことができる。ここでは、トルクセンサ125aからの出力値がしきい値を越えた場合、一定の回転速度で車輪2のモータ131bを回転する。すなわち、予め設定されている回転角度で、車輪2を回転させる。これにより、胴体部6の体軸アライメント(姿勢調整)が行われる。   In this way, the robot 100 turns on the spot, and the body axis alignment of the body portion 6 is performed. Therefore, the direction of the head 1 attached to the body part 6 approaches the target direction. That is, since the body part 6 rotates around the yaw axis toward the target direction, the head 1 also rotates accordingly. Further, as described above, the neck joint 7 rotates around the yaw axis with respect to the body portion 6. Therefore, when the threshold value is exceeded, the direction of the head 1 is changed not only by driving the neck joint 7 but also by driving the wheel 2. For this reason, the target direction can be promptly turned. Here, when the output value from the torque sensor 125a exceeds the threshold value, the motor 131b of the wheel 2 is rotated at a constant rotational speed. That is, the wheel 2 is rotated at a preset rotation angle. Thereby, body axis alignment (attitude adjustment) of the trunk | drum 6 is performed.

頭部1の向きが目標方向に近づいたら、首関節7のトルクが低くなる。すなわち、目標方向と頭部1の向きとの偏差が小さくなるため、フィードバック制御での目標トルク値(指令値)が小さくなる。よって、首関節7のトルクが低下して、トルクセンサ125aで検出されたトルクがしきい値よりも小さくなる。したがって、ドライバ132が姿勢維持動作を行う。この場合、車輪2のモータ131bを駆動しないため、胴体部6のヨー軸回りの回転が止まる。したがって、ロボット100は、出力値がしきい値よりも小さくなった時点での腰ヨー軸姿勢を維持する。この場合、首関節7の駆動のみによって、頭部1の向きが目標方向に近づく。そして、上記の処理を繰り返して、頭部1の向きを目標方向に一致させる。そして、頭部1が対象200を向いたら、スピーカなどでコミュニケーションを取る。   When the direction of the head 1 approaches the target direction, the torque of the neck joint 7 decreases. That is, since the deviation between the target direction and the direction of the head 1 is small, the target torque value (command value) in the feedback control is small. Therefore, the torque of the neck joint 7 decreases, and the torque detected by the torque sensor 125a becomes smaller than the threshold value. Therefore, the driver 132 performs the posture maintenance operation. In this case, since the motor 131b of the wheel 2 is not driven, the rotation of the body portion 6 around the yaw axis is stopped. Therefore, the robot 100 maintains the hip yaw axis posture at the time when the output value becomes smaller than the threshold value. In this case, the direction of the head 1 approaches the target direction only by driving the neck joint 7. Then, the above process is repeated to make the orientation of the head 1 coincide with the target direction. When the head 1 faces the target 200, communication is performed with a speaker or the like.

このように、トルクセンサ125aで検出されたトルクがしきい値を越えたか否かに応じて、車輪2の制御を切換えている。すなわち、トルクがしきい値を越えた場合は、負荷軽減動作により、車輪2を駆動して、首ヨー軸の駆動トルクを軽減する。首ヨー軸にかかるトルクを打ち消すように、胴体部6が腰ヨー軸回りに回転する。これにより、首関節7にかかる力が軽減される。そして、トルクがしきい値以下となるまで、車輪2を駆動して、胴体部6を腰ヨー軸回りに回転させる。すなわち、トルクがしきい値以下となると、姿勢維持動作によって、そのときの腰ヨー軸姿勢を維持する。なお、しきい値の値を可変としてもよい。例えば、実際の動作を確認して、しきい値を調整してもよい。   Thus, the control of the wheel 2 is switched according to whether or not the torque detected by the torque sensor 125a exceeds the threshold value. That is, when the torque exceeds the threshold value, the wheel 2 is driven by the load reducing operation to reduce the driving torque of the neck yaw axis. The body portion 6 rotates about the waist yaw axis so as to cancel the torque applied to the neck yaw axis. Thereby, the force applied to the neck joint 7 is reduced. Then, the wheel 2 is driven until the torque becomes equal to or less than the threshold value, and the body portion 6 is rotated around the waist yaw axis. That is, when the torque falls below the threshold value, the hip yaw axis posture at that time is maintained by the posture maintenance operation. The threshold value may be variable. For example, the threshold value may be adjusted by checking the actual operation.

このようにすることで、頭部1の向きが変わり始めてから、胴体部6の向きが変化する。すなわち、最初に頭部1の向きが変わって、それに伴って胴体部6の向きが変化する。そして、ある程度胴体部6の向きが変わると、胴体部6の回転が停止する。したがって、人間のように自然な動作で顔追従を行うことができる。よって、ロボット100全体の動きや仕草の見栄えが向上する。さらに、首関節7にかかる負荷を軽減することができる。首関節に過大なトルクがかかることがなくなるため、ロボット100の駆動機構等を損傷するのを防ぐことができる。また、ロボット100全体の動作ステップが削減され、動作の高速化、効率化を図ることができる。   By doing in this way, after the direction of the head 1 begins to change, the direction of the trunk | drum 6 changes. That is, the direction of the head 1 is changed first, and the direction of the body part 6 is changed accordingly. And if the direction of the trunk | drum 6 changes to some extent, rotation of the trunk | drum 6 will stop. Therefore, face tracking can be performed with a natural motion like a human being. Therefore, the movement of the entire robot 100 and the appearance of the gesture are improved. Furthermore, the load on the neck joint 7 can be reduced. Since an excessive torque is not applied to the neck joint, it is possible to prevent the drive mechanism of the robot 100 from being damaged. Further, the operation steps of the entire robot 100 are reduced, and the operation can be speeded up and made efficient.

次に、本実施の形態にかかるロボット100の制御方法について図7を用いて説明する。図7は、本実施の形態にかかるロボット100の制御フローを模式的に示す図である。   Next, a method for controlling the robot 100 according to the present embodiment will be described with reference to FIG. FIG. 7 is a diagram schematically showing a control flow of the robot 100 according to the present embodiment.

まず、ロボット100の頭部1及び首関節7を含むロボットヘッドにおける制御について説明する。最初に、人の顔認識を行い、目標方向を特定する(ステップS101)。すなわち、カメラ121で取得した画像に基づいて、画像処理を行い。これにより、ロボット100がコミュニケーションを取る相手の顔を認識することができる。そして、人の顔追従を行う(ステップS102)。すなわち、首関節7を駆動して、頭部1を首ヨー軸回りに回転させる。   First, control in the robot head including the head 1 and the neck joint 7 of the robot 100 will be described. First, human face recognition is performed to specify a target direction (step S101). That is, image processing is performed based on the image acquired by the camera 121. Thereby, the face of the partner with whom the robot 100 communicates can be recognized. Then, human face tracking is performed (step S102). That is, the neck joint 7 is driven to rotate the head 1 around the neck yaw axis.

そして、ヨー軸関節にかかる反力を検出する(ステップS103)。すなわち、トルクセンサ125aによって、トルクを検出する。すると、ロボット100の胴体部6と車輪2を含むロボットボディにおいて、負荷(反力)軽減制御を行う(ステップS104)。すなわち、トルクセンサ125aからの出力値と、しきい値を比較する。そして、しきい値を越えていた場合は、体軸アライメントを行なう(ステップS105)。すなわち、車輪2を駆動して、胴体部6を腰ヨー軸回りに回転させる。ここでは、しきい値を越えている間、左右の車輪2を一定の回転速度で駆動する。これにより、ロボット100が目標方向に向かって、旋回する。そして、以上の処理を繰り返して、顔追従動作を行う。   Then, the reaction force applied to the yaw axis joint is detected (step S103). That is, torque is detected by the torque sensor 125a. Then, load (reaction force) reduction control is performed in the robot body including the body 6 and the wheels 2 of the robot 100 (step S104). That is, the output value from the torque sensor 125a is compared with the threshold value. If the threshold value is exceeded, body axis alignment is performed (step S105). That is, the wheel 2 is driven to rotate the body portion 6 around the waist yaw axis. Here, while the threshold value is exceeded, the left and right wheels 2 are driven at a constant rotational speed. Thereby, the robot 100 turns in the target direction. Then, the above processing is repeated to perform a face following operation.

このように、ロボットヘッドとロボットボディを同期、連携して制御することによって、ロボット100をスムーズに動作させることができる。すなわち、ヨー軸関節の反力(負荷)に基づいて、車輪2、及び首関節7が連携して動作するため、自然な動きを実現することができる。   In this way, the robot 100 can be operated smoothly by controlling the robot head and the robot body in synchronization with each other. That is, since the wheel 2 and the neck joint 7 operate in cooperation based on the reaction force (load) of the yaw axis joint, a natural movement can be realized.

なお、首ヨー軸にかかる力の検出は、トルクセンサ125aに限られるものではない。例えば、首関節7のモータ131aに流れる電流を測定することによって、力を検出してもよい。すなわち、首ヨー軸と腰ヨー軸(体軸)との間にかかる反力を直接的、又は間接的に検出できるセンサを用いればよい。   The detection of the force applied to the neck yaw axis is not limited to the torque sensor 125a. For example, the force may be detected by measuring a current flowing through the motor 131a of the neck joint 7. That is, a sensor that can directly or indirectly detect a reaction force applied between the neck yaw axis and the waist yaw axis (body axis) may be used.

さらに、顔認識処理以外の方法で、目標方向を特定してもよい。例えば、マイクロフォンアレイなどで、音を検出して、その音の発生した方向を目標方向としてもよい。もちろん、これら以外の方法で目標方向を特定してもよい。例えば、外部からの信号によって、目標方向を特定してもよい。目標方向に追従している間に対象200が移動した場合、その目標方向も更新される。そして、更新された目標方向に追従するように、位置制御が行われる。   Furthermore, the target direction may be specified by a method other than the face recognition process. For example, a sound may be detected by a microphone array or the like, and the direction in which the sound is generated may be set as the target direction. Of course, the target direction may be specified by a method other than these. For example, the target direction may be specified by an external signal. If the target 200 moves while following the target direction, the target direction is also updated. Then, position control is performed so as to follow the updated target direction.

次に、本実施の形態の変形例について説明する。上記の例では、トルクセンサ125aからの出力値がしきい値を越えた場合、一定の回転速度で車輪2を回転させたが、本変形例では、トルクセンサ125aの出力値に応じて車輪2の回転速度を変化させている。すなわち、トルクセンサ125aからの出力値に基づいて、車輪2の回転速度が変わる。例えば、出力値が大きい場合、胴体部6の体軸アライメントの回転速度を速くして、素早く追従させる。一方、出力値が小さい場合、胴体部6の体軸アライメントの回転速度を遅くして、ゆっくり動かす。このように、反力の大きさに基づいて、腰ヨー軸の回転による反力軽減動作の速度を変化させる   Next, a modification of the present embodiment will be described. In the above example, when the output value from the torque sensor 125a exceeds the threshold value, the wheel 2 is rotated at a constant rotational speed. However, in this modification, the wheel 2 is set according to the output value of the torque sensor 125a. The rotation speed is changed. That is, the rotation speed of the wheel 2 changes based on the output value from the torque sensor 125a. For example, when the output value is large, the rotational speed of the body axis alignment of the trunk portion 6 is increased to quickly follow the body axis 6. On the other hand, when the output value is small, the rotational speed of the body axis alignment of the body portion 6 is slowed and moved slowly. Thus, based on the magnitude of the reaction force, the speed of the reaction force reduction operation due to the rotation of the waist yaw axis is changed.

あるいは、出力値の変化速度(一次微分)に応じて、体軸アライメントの回転速度を変えてもよい。例えば、出力値を時間で微分して、出力値の変化速度を求める。そして、出力値の変化速度に応じて、胴体部6の体軸アライメントの回転速度を変化させる。出力値の変化速度が大きい場合、胴体部6の体軸アライメントの回転速度を速くして、素早く追従させる。一方、出力値の変化速度が小さい場合、胴体部6の体軸アライメントの回転速度を遅くして、ゆっくり動かす。   Alternatively, the rotational speed of the body axis alignment may be changed according to the change rate (first derivative) of the output value. For example, the output value is differentiated with respect to time to determine the change rate of the output value. And the rotational speed of the body axis alignment of the trunk | drum 6 is changed according to the change speed of an output value. When the change rate of the output value is large, the rotation speed of the body axis alignment of the body portion 6 is increased to quickly follow the body value. On the other hand, when the change rate of the output value is small, the rotational speed of the body axis alignment of the body portion 6 is slowed and moved slowly.

例えば、しきい値を複数設定することによって、体軸アライメントの回転速度を段階的に変化させることができる。すなわち、反力の大きさ、又はその変化速度にしたがって、体軸アライメントの回転速度をステップ的に変化させる。あるいは、トルクセンサ125aの出力値から体軸アライメントの回転速度を求める演算式を予め設定しておいてもよい。トルクセンサ125aからの出力値に基づいて、モータ131bの駆動速度を決定することができる。反力の大きさ、又はその変化速度に応じて、体軸アライメントの速度を変化させる。すなわち、腰ヨー軸の回転による反力軽減動作の速度を、反力の大きさに基づいて変化させる。これにより、ロボット100の姿勢がスムーズに変化するため、より自然な動作が可能になる。   For example, by setting a plurality of threshold values, the rotational speed of body axis alignment can be changed stepwise. That is, the rotational speed of the body axis alignment is changed stepwise according to the magnitude of the reaction force or the changing speed thereof. Alternatively, an arithmetic expression for obtaining the rotational speed of the body axis alignment from the output value of the torque sensor 125a may be set in advance. The driving speed of the motor 131b can be determined based on the output value from the torque sensor 125a. The body axis alignment speed is changed according to the magnitude of the reaction force or the change speed thereof. That is, the speed of the reaction force reducing operation due to the rotation of the waist yaw axis is changed based on the magnitude of the reaction force. Thereby, since the posture of the robot 100 changes smoothly, a more natural operation becomes possible.

実施の形態2.
本実施の形態にかかるロボット100について図8を用いて説明する。図8は、実施の形態2にかかるロボット100の構成を示す斜視図である。なお、本実施の形態2にかかるロボット100の基本的構成及び制御は、実施の形態1と同様である。このため、重複する構成等については、説明を適宜省略する。以下に実施の形態1との違いについて説明する。
Embodiment 2. FIG.
A robot 100 according to the present embodiment will be described with reference to FIG. FIG. 8 is a perspective view illustrating a configuration of the robot 100 according to the second embodiment. The basic configuration and control of the robot 100 according to the second embodiment are the same as those in the first embodiment. For this reason, the description of overlapping configurations and the like is omitted as appropriate. Hereinafter, differences from the first embodiment will be described.

本実施の形態では、腕部4の付け根に肩関節9が設けられている。すなわち、腕部4が、肩関節9を介して胴体部6に連結されている。肩関節9は、ヨー軸(肩ヨー軸)回りに駆動する。すなわち、肩関節9の軸を中心軸として、胴体部6に対して腕部4がヨー軸周りに回転する。これにより、腕部4の方向を変えることができる。さらに、肩関節9には、腕部4にかかる力を検出するためのトルクセンサ125a(図8では図示せず)が設けられている。   In the present embodiment, a shoulder joint 9 is provided at the base of the arm portion 4. That is, the arm portion 4 is connected to the trunk portion 6 via the shoulder joint 9. The shoulder joint 9 is driven around the yaw axis (shoulder yaw axis). That is, the arm 4 rotates about the yaw axis with respect to the body 6 with the axis of the shoulder joint 9 as the central axis. Thereby, the direction of the arm part 4 can be changed. Further, the shoulder joint 9 is provided with a torque sensor 125a (not shown in FIG. 8) for detecting a force applied to the arm portion 4.

本実施の形態では、腕部4に外力が加わった場合に、体軸アライメントによって、反力を軽減している。例えば、腕部4に外力が加わった場合、トルクセンサ125aによって肩ヨー軸にかかる力を検出する。すなわち、トルクセンサ125aによって、肩ヨー軸の腰ヨー軸に対する反力を検出する。そして、トルクセンサ125aの出力値がしきい値を越えた場合、車輪2を動作させて、反力を軽減する。すなわち、反力を軽減する方向に、体軸アライメントを駆動する。   In the present embodiment, when an external force is applied to the arm portion 4, the reaction force is reduced by body axis alignment. For example, when an external force is applied to the arm 4, the force applied to the shoulder yaw axis is detected by the torque sensor 125a. That is, the reaction force of the shoulder yaw axis with respect to the waist yaw axis is detected by the torque sensor 125a. When the output value of the torque sensor 125a exceeds the threshold value, the wheel 2 is operated to reduce the reaction force. That is, the body axis alignment is driven in a direction to reduce the reaction force.

例えば、左アームに後方向の外力が加わった場合、胴体部6を左方向に旋回させる。そして、トルクセンサ125aの出力値がしきい値以下になるまで、車輪2を駆動して、胴体部6を回転させる。すなわち、トルクセンサ125aの出力値がしきい値以下になった時点で、そのときの腰ヨー軸姿勢を維持する。このようにすることで、腕部4に加わった外力を逃がすことができる。したがって、人間や障害物とロボット100が衝突した場合、その衝撃を吸収することができる。すなわち、衝撃力を吸収する方向に、姿勢が変化するため、安全性を向上することができる。また、自然な動作で外力を吸収することができる。   For example, when a rearward external force is applied to the left arm, the body 6 is turned leftward. And the wheel 2 is driven and the trunk | drum 6 is rotated until the output value of the torque sensor 125a becomes below a threshold value. That is, when the output value of the torque sensor 125a becomes equal to or less than the threshold value, the waist / yaw axis posture at that time is maintained. By doing in this way, the external force applied to the arm part 4 can be released. Therefore, when a human or an obstacle collides with the robot 100, the impact can be absorbed. That is, since the posture changes in the direction of absorbing the impact force, safety can be improved. Moreover, external force can be absorbed by natural operation.

もちろん、実施形態1の変形例と同様に、外力の大きさ、又はその変化速度に応じて、体軸アライメントの回転速度を変えてもよい。さらに、頭部1に対して外力が加わった場合でも、同様に外力を吸収するように制御してもよい。   Of course, similarly to the modification of the first embodiment, the rotational speed of the body axis alignment may be changed according to the magnitude of the external force or the changing speed thereof. Further, even when an external force is applied to the head 1, control may be performed so as to absorb the external force in the same manner.

その他の実施の形態.
なお、実施の形態1、2では、ヨー軸に関する動作について説明したが、ヨー軸以外の軸についても同様に制御することができる。例えば、頭部1や腕部4をピッチ軸回りやロール軸周りに回転させる場合も、同様に反力軽減動作を行うことができる。この場合、例えば、胴体部6にピッチ軸回りやロール軸回りに回転させる腰関節を設ける。そして、トルクセンサ125aの出力値がしきい値を越えたら、腰関節を駆動する。これにより、先頭部1等を胴体部6に接続する首関節の駆動軸に作用する負荷を軽減することができる。
Other embodiments.
Although the operations related to the yaw axis have been described in the first and second embodiments, the same control can be performed for axes other than the yaw axis. For example, when the head 1 or the arm 4 is rotated about the pitch axis or the roll axis, the reaction force reducing operation can be performed in the same manner. In this case, for example, a waist joint that rotates around the pitch axis or the roll axis is provided in the body portion 6. When the output value of the torque sensor 125a exceeds the threshold value, the hip joint is driven. Thereby, the load which acts on the drive shaft of the neck joint which connects the head part 1 etc. to the trunk | drum 6 can be reduced.

また、頭部1や腕部4以外の部分についても同様に制御することができる。すなわち、ロボット100の基部である胴体部6に関節を介して接続されている先端部に対して同様の制御を適用することができる。   Moreover, it can control similarly about parts other than the head 1 and the arm part 4. FIG. That is, the same control can be applied to the distal end portion connected to the body portion 6 which is the base portion of the robot 100 via a joint.

なお、ロボットの態様は上述の態様に限られるものではない。例えば、上記の説明では、車輪型のロボット100について説明したが、これに限るものではない。例えは、関節が設けられた脚部を有する歩行型のロボットであってもよい。そして、ヒューマノイド型ロボットの胴体部に対して首関節を介して接続された頭部を駆動する。これにより、駆動軸に加わっている負荷が低減する。もちろん、実施の形態1、2を適宜組み合わせてもよい。   The aspect of the robot is not limited to the above aspect. For example, in the above description, the wheel type robot 100 has been described. However, the present invention is not limited to this. For example, a walking robot having legs with joints may be used. Then, the head connected to the body of the humanoid robot via the neck joint is driven. Thereby, the load applied to the drive shaft is reduced. Of course, Embodiments 1 and 2 may be combined as appropriate.

本発明の実施形態にかかるロボットの構成を模式的に示す図である。It is a figure which shows typically the structure of the robot concerning embodiment of this invention. 本発明の実施形態にかかるロボットの制御系を概念的に表したブロック図である。1 is a block diagram conceptually showing a control system of a robot according to an embodiment of the present invention. 本発明の実施形態にかかるロボットの内部構成を示す斜視図である。It is a perspective view which shows the internal structure of the robot concerning embodiment of this invention. 本実施の形態にかかる顔追従動作を模式的に示す上面図である。It is a top view which shows typically the face tracking operation | movement concerning this Embodiment. 顔追従を行う際のロボットヘッドの制御ループを模式的に示すブロック図である。It is a block diagram which shows typically the control loop of the robot head at the time of performing a face tracking. 顔追従を行う際のロボットボディの制御ループを模式的に示すブロック図である。It is a block diagram which shows typically the control loop of the robot body at the time of performing a face tracking. 本発明の実施形態にかかるAccording to the embodiment of the present invention 本発明の実施の形態2にかかるロボットの全体構成を模式的に示す斜視図である。It is a perspective view which shows typically the whole structure of the robot concerning Embodiment 2 of this invention.

符号の説明Explanation of symbols

1 頭部、2 車輪、3 筐体、4 腕部、6 胴体部、7 首関節、8 補助輪、
9 肩関節、
101 制御部、
102 入出力部、
121 カメラ、122 内部マイク、123 スピーカ、
124 LED、125 センサ部、
103 駆動部
131 モータ、132 ドライバ
104 電源部
141 バッテリ、142 バッテリ制御部、
1 head, 2 wheels, 3 housing, 4 arms, 6 torso, 7 neck joints, 8 auxiliary wheels,
9 Shoulder joints,
101 control unit,
102 I / O unit,
121 camera, 122 internal microphone, 123 speaker,
124 LED, 125 sensor unit,
103 drive unit 131 motor, 132 driver 104 power supply unit 141 battery, 142 battery control unit,

Claims (8)

胴体部と、
前記胴体部を所定の軸周りに回転させる胴体部用アクチュエータと、
前記胴体部に取り付けられ、前記胴体部用アクチュエータの動作により前記胴体部とともに回転する頭部と、
首関節用アクチュエータを有し、前記頭部の顔が所定の方向を向くように、前記頭部を前記胴体部に対して前記所定の軸と平行な軸回りに対して回転させる首関節と、
前記胴体部用アクチュエータ、及び前記首関節用アクチュエータを制御する制御部と、
前記頭部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備え、
前記頭部の顔が所定の方向を向くように前記首関節用アクチュエータを駆動する際に、前記制御部が、前記センサからの出力値としきい値とを比較して、
前記センサからの出力値が前記しきい値を越えていた場合に、前記頭部の回転方向と同じ回転方向で前記胴体部を回転させるように、前記胴体部用アクチュエータ及び前記首関節用アクチュエータを制御することで、前記センサからの出力値を低減させ、
前記センサからの出力値が前記しきい値を下回った場合に、前記胴体部用アクチュエータが胴体部の前記所定の軸周りの姿勢を維持するように制御するロボット。
The torso,
A body part actuator for rotating the body part around a predetermined axis;
A head that is attached to the body part and rotates together with the body part by operation of the body part actuator;
A neck joint that has a neck joint actuator and rotates the head relative to the body portion about an axis parallel to the predetermined axis so that the face of the head faces a predetermined direction;
A control unit for controlling the body part actuator and the neck joint actuator;
A sensor for detecting a force applied to the head around the predetermined axis,
When driving the neck joint actuator so that the face of the head faces a predetermined direction, the control unit compares the output value from the sensor with a threshold value,
When the output value from the sensor exceeds the threshold value, the body part actuator and the neck joint actuator are rotated so that the body part is rotated in the same rotation direction as the head rotation direction. By controlling, the output value from the sensor is reduced,
A robot for controlling the body portion actuator to maintain the posture of the body portion around the predetermined axis when an output value from the sensor falls below the threshold value.
前記センサからの出力値に応じて、前記胴体部用アクチュエータの駆動速度を変化させていることを特徴とする請求項1に記載のロボット。   The robot according to claim 1, wherein a driving speed of the body part actuator is changed according to an output value from the sensor. 前記制御部が、前記頭部を目標方向に追従させるよう、前記首関節用アクチュエータを駆動している請求項1、又は2に記載のロボット。   The robot according to claim 1 or 2, wherein the control unit drives the neck joint actuator to cause the head to follow a target direction. 前記制御部が、前記頭部に外力が加わった場合に、前記外力を軽減するように、前記胴体部用アクチュエータを駆動している請求項1乃至3のいずれか1項に記載のロボット。   The robot according to any one of claims 1 to 3, wherein the controller drives the torso actuator so as to reduce the external force when an external force is applied to the head. 胴体部と、
前記胴体部を所定の軸周りに回転させる胴体部用アクチュエータと、
前記胴体部に取り付けられ、前記胴体部用アクチュエータの動作により前記胴体部とともに回転する頭部と、
首関節用アクチュエータを有し、前記頭部の顔が所定の方向を向くように、前記頭部を前記胴体部に対して前記所定の軸と平行な軸回りに対して回転させる首関節と、
前記胴体部用アクチュエータ、及び前記首関節用アクチュエータを制御する制御部と、
前記頭部に対して前記所定の軸回りにかかる力を検出するためのセンサと、を備えたロボットの制御方法であって、
前記頭部の顔が所定の方向を向くように前記首関節用アクチュエータを駆動する際に、前記制御部が、前記センサからの出力値としきい値とを比較して、
前記センサからの出力値が前記しきい値を越えていた場合に、前記頭部の回転方向と同じ回転方向で前記胴体部を回転させるように、前記胴体部用アクチュエータ及び前記首関節用アクチュエータを制御することで、前記センサからの出力値を低減させ、
前記センサからの出力値が前記しきい値を下回った場合に、前記胴体部用アクチュエータが胴体部の前記所定の軸周りの姿勢を維持するように制御する、ロボットの制御方法。
The torso,
A body part actuator for rotating the body part around a predetermined axis;
A head that is attached to the body part and rotates together with the body part by operation of the body part actuator;
A neck joint that has a neck joint actuator and rotates the head relative to the body portion about an axis parallel to the predetermined axis so that the face of the head faces a predetermined direction;
A control unit for controlling the body part actuator and the neck joint actuator;
A sensor for detecting a force applied to the head around the predetermined axis, and a robot control method comprising:
When driving the neck joint actuator so that the face of the head faces a predetermined direction, the control unit compares the output value from the sensor with a threshold value,
When the output value from the sensor exceeds the threshold value, the body part actuator and the neck joint actuator are rotated so that the body part is rotated in the same rotation direction as the head rotation direction. By controlling, the output value from the sensor is reduced,
A robot control method, wherein when the output value from the sensor falls below the threshold value, the body part actuator is controlled to maintain the posture of the body part around the predetermined axis.
前記センサからの出力値に応じて、前記胴体部用アクチュエータの駆動速度を変化させていることを特徴とする請求項5に記載のロボットの制御方法。   The robot control method according to claim 5, wherein a driving speed of the body part actuator is changed in accordance with an output value from the sensor. 前記頭部を目標方向に追従させるよう、前記首関節用アクチュエータを駆動している請求項5、又は6に記載のロボットの制御方法。   The robot control method according to claim 5, wherein the neck joint actuator is driven so that the head follows the target direction. 前記頭部に外力が加わった場合に、前記外力を軽減するように、前記胴体部用アクチュエータを駆動している請求項5乃至7のいずれか1項に記載のロボットの制御方法。   The robot control method according to claim 5, wherein when the external force is applied to the head, the body actuator is driven so as to reduce the external force.
JP2008009668A 2008-01-18 2008-01-18 Robot and robot control method Expired - Fee Related JP5088150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008009668A JP5088150B2 (en) 2008-01-18 2008-01-18 Robot and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008009668A JP5088150B2 (en) 2008-01-18 2008-01-18 Robot and robot control method

Publications (2)

Publication Number Publication Date
JP2009166213A JP2009166213A (en) 2009-07-30
JP5088150B2 true JP5088150B2 (en) 2012-12-05

Family

ID=40967987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008009668A Expired - Fee Related JP5088150B2 (en) 2008-01-18 2008-01-18 Robot and robot control method

Country Status (1)

Country Link
JP (1) JP5088150B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104717590B (en) 2010-12-27 2020-09-15 株式会社精好 Mobile telephone system
US9313306B2 (en) 2010-12-27 2016-04-12 Rohm Co., Ltd. Mobile telephone cartilage conduction unit for making contact with the ear cartilage
JP5783352B2 (en) 2011-02-25 2015-09-24 株式会社ファインウェル Conversation system, conversation system ring, mobile phone ring, ring-type mobile phone, and voice listening method
KR101973346B1 (en) 2012-01-20 2019-04-26 파인웰 씨오., 엘티디 Portable telephone having cartilage conduction section
KR20180061399A (en) 2012-06-29 2018-06-07 로무 가부시키가이샤 Stereo earphone
KR101347618B1 (en) 2013-06-21 2014-01-06 한국기계연구원 Method of avoiding the collision of dual-arm robot with mobile platform
WO2015025829A1 (en) 2013-08-23 2015-02-26 ローム株式会社 Portable telephone
WO2015060230A1 (en) 2013-10-24 2015-04-30 ローム株式会社 Bracelet-type transmission/reception device and bracelet-type notification device
JP6551919B2 (en) 2014-08-20 2019-07-31 株式会社ファインウェル Watch system, watch detection device and watch notification device
KR101973486B1 (en) 2014-12-18 2019-04-29 파인웰 씨오., 엘티디 Cartilage conduction hearing device using an electromagnetic vibration unit, and electromagnetic vibration unit
JP6783451B2 (en) * 2016-07-13 2020-11-11 株式会社ファインウェル Listening system and robots used in listening system
WO2017010547A1 (en) * 2015-07-15 2017-01-19 ローム株式会社 Robot and robot system
JP6667172B2 (en) * 2015-07-15 2020-03-18 株式会社ファインウェル robot
JP6551929B2 (en) 2015-09-16 2019-07-31 株式会社ファインウェル Watch with earpiece function
US10778824B2 (en) 2016-01-19 2020-09-15 Finewell Co., Ltd. Pen-type handset
JP2020053948A (en) 2018-09-28 2020-04-02 株式会社ファインウェル Hearing device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007139135A1 (en) * 2006-05-30 2007-12-06 Japan Science And Technology Agency Robot and controller

Also Published As

Publication number Publication date
JP2009166213A (en) 2009-07-30

Similar Documents

Publication Publication Date Title
JP5088150B2 (en) Robot and robot control method
CN106573377B (en) Humanoid robot with collision avoidance and trajectory recovery capabilities
JP4849244B2 (en) Mobile robot and moving speed estimation method
US20140005827A1 (en) Apparatus for controlling mobile robot
US6956345B2 (en) Robot apparatus, and load absorbing apparatus and method
JP5429462B2 (en) Communication robot
JP4243309B2 (en) Robot arm control device
US6989645B2 (en) Robot apparatus, and load absorbing apparatus and method
JP5755011B2 (en) Robot group control apparatus and method
JP5978027B2 (en) Mobile robot controller
JP4914703B2 (en) Control device for legged mobile robot
JP4271161B2 (en) Robot device, method of turning robot device, and program
WO2019082779A1 (en) Robot charging station
JP2011194539A (en) Robot and method of controlling the same
Nagasaka Sony QRIO
JP4042108B2 (en) Robot apparatus and control method thereof
JP2002361585A (en) Communication robot
JP5157545B2 (en) Whole body coordination device, robot, and robot control method
JP7309371B2 (en) robot control system
JP4198676B2 (en) Robot device, robot device movement tracking method, and program
CN107199562A (en) Robot Controller And Robot Control Method
Brandk-ão et al. Reaching for the unreachable: integration of locomotion and whole-body movements for extended visually guided reaching
WO2021117701A1 (en) Master/slave system and control method
JP2003271196A (en) Robot system and method for controlling the same
JP2003266353A (en) Robot device and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120827

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5088150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees