JP2001212785A - Robot device and method for controlling attitude of it - Google Patents

Robot device and method for controlling attitude of it

Info

Publication number
JP2001212785A
JP2001212785A JP2000382878A JP2000382878A JP2001212785A JP 2001212785 A JP2001212785 A JP 2001212785A JP 2000382878 A JP2000382878 A JP 2000382878A JP 2000382878 A JP2000382878 A JP 2000382878A JP 2001212785 A JP2001212785 A JP 2001212785A
Authority
JP
Japan
Prior art keywords
posture
state
robot
leg
attitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000382878A
Other languages
Japanese (ja)
Inventor
Takashi Yamamoto
隆司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000382878A priority Critical patent/JP2001212785A/en
Publication of JP2001212785A publication Critical patent/JP2001212785A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To autonomously restore the attitude from the abnormal attitude state such as a falling state to the normal attitude state. SOLUTION: A CPU 102 recognizes that the attitude state of a device main body is transited to the abnormal attitude state different from the normal attitude state on the basis of acceleration information obtained as the detected output by an acceleration sensor 41, respective drivers 3D to 7D are controlled by playback by using trajectory planning data previously formed and stored in a memory 101 and for restoring the attitude from the falling state, and the restoring operation to the normal attitude state is performed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、転倒状態などの異
常な姿勢状態から通常の姿勢状態に自律的に姿勢復帰す
る機能を有するロボット装置及びその姿勢制御方法に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus having a function of autonomously returning a posture from an abnormal posture state such as a falling state to a normal posture state and a posture control method thereof.

【0002】[0002]

【従来の技術】従来より、タイヤの回転により自走する
タイヤ型ロボットや2足あるいは4足の自律型歩行ロボ
ットなど形式の異なる機構系を備える各種形態のロボッ
ト装置が提案されている。この種のロボット装置は、所
定の自由度を持つアクチュエータ及び所定の物理量を検
出するセンサなどがそれぞれ所定位置に配置された機構
系を備え、マイクロコンピュータを用いた制御部によっ
て、各種センサの出力及び制御プログラムに従って各種
アクチュエータを個別に駆動制御することにより自走し
また所定の動作を行い得るようになされている。また、
この種のロボット装置は、例えば胴体部、脚部及び頭部
などの各構成ユニットがそれぞれ予め定められた相関関
係をもつ状態に結合されることにより所定の形に組み立
てられている。
2. Description of the Related Art Hitherto, various types of robot apparatuses having different types of mechanical systems, such as a tire type robot that runs by rotation of a tire and a biped or quadruped autonomous walking robot, have been proposed. This type of robot apparatus has a mechanism system in which an actuator having a predetermined degree of freedom and a sensor for detecting a predetermined physical quantity are arranged at predetermined positions, respectively, and a control unit using a microcomputer outputs and outputs various sensors. By individually controlling the driving of various actuators according to a control program, the actuator can self-run and perform a predetermined operation. Also,
This type of robot apparatus is assembled in a predetermined shape by connecting respective constituent units such as a body, a leg, and a head in a state having a predetermined correlation.

【0003】2本あるいはそれ以上の複数本の足を有す
る多足歩行ロボットには、例えば猫や犬のような動物の
ような形態をしているものがある。このような形態の多
足歩行ロボットは、例えば4本の足を有しており、各足
は、所定の数の関節部を備えている。この種のロボット
の足の関節に対して制御を行う方法としては、位置情報
や速度情報を教示によって記録し再現する方法や、位置
情報や速度情報を運動モデルを用いて演算により生成実
行する方法がある。
Some multi-legged walking robots having two or more legs are in the form of animals such as cats and dogs. The multi-legged walking robot of such a form has, for example, four legs, and each leg has a predetermined number of joints. Methods for controlling the joints of the feet of this type of robot include a method of recording and reproducing position information and speed information by teaching, and a method of generating and executing position information and speed information by calculation using a motion model. There is.

【0004】従来のロボット装置における制御では、教
示による方法、運動モデルによる方法ともに、設計者の
予想される環境下での動作を前提としているため、これ
ら使用環境が異なる場合においては、装置の姿勢が意図
に反した状況になる場合が発生し、異常な姿勢により装
置の機能や構造に障害を与え、故障する、若しくは、使
用環境に生涯をもたらす可能性があった。
In the control of the conventional robot apparatus, both the method based on the teaching and the method based on the motion model are premised on the operation under the environment expected by the designer. In some cases, the situation may be contrary to the intention, and the abnormal posture may impair the function or structure of the device, cause a failure, or bring a life to the use environment.

【0005】[0005]

【発明が解決しようとする課題】そこで、本発明の目的
は、上述の如き従来のロボット装置の実情に鑑み、転倒
状態などの異常な姿勢状態での使用によるロボット装置
の故障や事故を防止することにある。また、本発明の目
的は、転倒状態などの異常な姿勢状態から通常の姿勢状
態に自律的に姿勢復帰することができるロボット装置及
びその姿勢制御方法を提供することにある。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to prevent the failure or accident of a robot device caused by using the robot device in an abnormal posture such as a fall, in view of the above-mentioned situation of the conventional robot device. It is in. It is another object of the present invention to provide a robot apparatus capable of autonomously returning to a normal posture state from an abnormal posture state such as a falling state, and a posture control method thereof.

【0006】[0006]

【課題を解決するための手段】本発明に係るロボット装
置は、移動手段を備えた装置本体と、上記装置本体の姿
勢を識別し、その識別情報を出力する姿勢識別手段と、
上記姿勢識別手段の識別情報に応じて、上記移動手段を
制御する制御手段とを備えることを特徴とする。
According to the present invention, there is provided a robot apparatus having a moving body, a posture identifying means for identifying the posture of the apparatus body, and outputting the identification information.
Control means for controlling the moving means in accordance with the identification information of the attitude identifying means.

【0007】また、本発明に係るロボット装置の姿勢制
御方法は、移動手段を備えた装置本体の姿勢を識別し、
その識別情報に応じて、上記移動手段を制御することを
特徴とする。
Further, according to the posture control method for a robot device according to the present invention, the posture of the device main body having the moving means is identified,
The moving means is controlled according to the identification information.

【0008】[0008]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しながら詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0009】本発明は、例えば図1に示すような構成の
多足歩行ロボット1に適用される。
The present invention is applied to, for example, a multi-legged walking robot 1 having a configuration as shown in FIG.

【0010】この多足歩行ロボット1は多関節型ロボッ
トであり、4本の足を有する動物の形をしており、多関
節型ロボット1は、本体2、右前足3、左前足4、右後
足5、左後足6、頭部7、胴体部8、尻尾9等を有して
いる。
The multi-legged robot 1 is an articulated robot, which is in the form of an animal having four legs. The articulated robot 1 has a main body 2, a right forefoot 3, a left forefoot 4, a right It has a hind foot 5, a left hind foot 6, a head 7, a body part 8, a tail 9, and the like.

【0011】この多関節型ロボット1は、右前足3、左
前足4、右後足5、左後足6等の関節部10,11,1
2,13には、ブレーキ機構30を備えている。このブ
レーキ機構30の作動を利用して、各右前足3、左前足
4、右後足5、左後足6の内の任意の動作部(脚)の相
対位置関係を、ダイレクトティーチング方式で操作者が
位置教示を行うことができるものである。
The articulated robot 1 has joints 10, 11, 1 such as a right front leg 3, a left front leg 4, a right rear leg 5, a left rear leg 6, and the like.
2 and 13 are provided with a brake mechanism 30. By using the operation of the brake mechanism 30, the relative positional relationship of an arbitrary moving part (leg) of each of the right front foot 3, the left front foot 4, the right rear foot 5, and the left rear foot 6 is operated by a direct teaching method. Can teach the position.

【0012】本体2は、右前足3、左前足4、右後足
5、左後足6用のブラケット20,21,22,23を
備えている。頭部7は、本体2の上の前部に設定されて
おり、胴体部8は頭部7よりは後側に位置されている。
尻尾9は胴体部8から上方に突出している。
The main body 2 is provided with brackets 20, 21, 22, 23 for a right forefoot 3, a left forefoot 4, a right hindfoot 5, and a left hindfoot 6. The head 7 is set at a front part on the main body 2, and the body part 8 is located behind the head 7.
The tail 9 protrudes upward from the body 8.

【0013】本体2に対して設置されている各要素につ
いて順次説明する。
Each component installed on the main body 2 will be described sequentially.

【0014】まず右前足3は、脚3a、脚3b、ブラケ
ット20、関節部10,10a、ブレーキ機構30、サ
ーボモータ3c,3d,3e等を有している。
First, the right forefoot 3 has a leg 3a, a leg 3b, a bracket 20, joints 10, 10a, a brake mechanism 30, servo motors 3c, 3d, 3e and the like.

【0015】脚3aの上端部はブラケット20に連結さ
れており、脚3aは中心軸CL1を中心として矢印R1
方向に回転可能になっている。脚3aと脚3bは、関節
部10により連結されている。サーボモータ3cは本体
2に内蔵されており、サーボモータ3cが作動すると、
ブラケット20が中心軸CL2を中心として矢印R2の
方向に回転することができる。サーボモータ3dが作動
すると、脚3aが中心軸CL1を中心として矢印R1方
向に回転することができる。サーボモータ3eが作動す
ると、脚3bが脚3aに対して中心軸CL3を中心とし
て矢印R3方向に回転することができる。
The upper end of the leg 3a is connected to the bracket 20, and the leg 3a is connected to an arrow R1 about a center axis CL1.
It can rotate in the direction. The leg 3a and the leg 3b are connected by a joint 10. The servo motor 3c is built in the main body 2, and when the servo motor 3c operates,
The bracket 20 can rotate around the central axis CL2 in the direction of arrow R2. When the servomotor 3d operates, the leg 3a can rotate in the direction of the arrow R1 about the central axis CL1. When the servomotor 3e operates, the leg 3b can rotate in the direction of the arrow R3 about the center axis CL3 with respect to the leg 3a.

【0016】左前足4は、脚4a,4b、ブラケット2
1、関節部11,11a、ブレーキ機構30、サーボモ
ータ4c,4d,4eを有している。
The left forefoot 4 is composed of legs 4a, 4b,
1. It has joints 11, 11a, a brake mechanism 30, and servomotors 4c, 4d, 4e.

【0017】脚4aはブラケット21に連結されてお
り、中心軸CL4を中心として矢印R4方向に回転でき
るようになっている。脚4bは、関節部11により脚4
aに対して連結されている。サーボモータ4cは、本体
2に内蔵されており、サーボモータ4cが作動すると、
ブラケット21が中心軸CL5を中心として矢印R5方
向に回転する。サーボモータ4dが作動すると、脚4a
がブラケット21に対して中心軸CL4を中心として矢
印R4方向に回転する。サーボモータ4eが作動する
と、脚4bが中心軸CL6を中心として矢印R6方向に
回転する。
The leg 4a is connected to the bracket 21 so as to be rotatable in the direction of arrow R4 about the center axis CL4. The leg 4 b is connected to the leg 4 by the joint 11.
a. The servo motor 4c is built in the main body 2, and when the servo motor 4c operates,
The bracket 21 rotates around the central axis CL5 in the direction of arrow R5. When the servo motor 4d operates, the legs 4a
Rotates about the center axis CL4 with respect to the bracket 21 in the direction of arrow R4. When the servo motor 4e operates, the leg 4b rotates in the direction of the arrow R6 about the central axis CL6.

【0018】次に、右後足5は、脚5a,5b、ブラケ
ット22、関節部12,12a、ブレーキ機構30、サ
ーボモータ5c,5d,5eを有している。
Next, the right rear foot 5 has legs 5a, 5b, a bracket 22, joints 12, 12a, a brake mechanism 30, and servomotors 5c, 5d, 5e.

【0019】脚5aの上端部はブラケット22に連結さ
れている。サーボモータ5cが作動するとブラケット2
2は中心軸CL7を中心として矢印R7方向に回転する
ことができる。サーボモータ5dが作動すると、脚5a
が中心軸CL8を中心として矢印R8方向に回転するこ
とができる。サーボモータ5eが作動すると、脚5bは
中心軸CL9を中心として矢印R9方向に回転すること
ができる。
The upper end of the leg 5a is connected to the bracket 22. When the servo motor 5c operates, the bracket 2
2 can rotate in the direction of arrow R7 about the center axis CL7. When the servo motor 5d operates, the legs 5a
Can rotate about the central axis CL8 in the direction of the arrow R8. When the servo motor 5e operates, the leg 5b can rotate in the direction of arrow R9 about the center axis CL9.

【0020】左後足6は、脚6a,6b、ブラケット2
3、関節部13,13a、ブレーキ機構30、サーボモ
ータ6c,6d,6eを有している。
The left hind foot 6 includes legs 6a and 6b,
3. It has joints 13, 13a, a brake mechanism 30, and servomotors 6c, 6d, 6e.

【0021】サーボモータ6cが作動すると、ブラケッ
ト23が中心軸CL10を中心として矢印R10方向に
回転できる。サーボモータ6dが作動すると、脚6aが
中心軸CL11を中心として矢印R11方向に回転でき
る。サーボモータ6eが作動すると、脚6bは中心軸C
L12を中心として矢印R12方向に回転することがで
きる。
When the servo motor 6c operates, the bracket 23 can rotate in the direction of arrow R10 about the central axis CL10. When the servo motor 6d operates, the leg 6a can rotate in the direction of the arrow R11 about the central axis CL11. When the servo motor 6e operates, the leg 6b
It can rotate in the direction of arrow R12 about L12.

【0022】このように、各右前足3、左前足4、右後
足5、左後足6は、それぞれ3自由度で構成される脚部
品からなり、複数軸を中心としてサーボモータにより駆
動することができる。
As described above, each of the right forefoot 3, the left forefoot 4, the right hindfoot 5, and the left hindfoot 6 are each composed of leg parts having three degrees of freedom, and are driven by the servomotor around a plurality of axes. be able to.

【0023】頭部7は、サーボモータ7a,7b,7c
を有しており、サーボモータ7aが作動すると、中心軸
CL20を中心として矢印R20方向に揺動できる。サ
ーボモータ7bが作動すると、頭部7は中心軸CL21
を中心として矢印R21方向に揺動する。サーボモータ
7cが作動すると、頭部7は、中心軸CL22を中心と
して矢印R22方向に揺動することができる。すなわ
ち、この頭部7は、3自由度で構成されている。
The head 7 includes servo motors 7a, 7b, 7c
When the servo motor 7a operates, it can swing about the central axis CL20 in the direction of the arrow R20. When the servo motor 7b operates, the head 7 moves to the center axis CL21.
Swinging in the direction of the arrow R21 around the center. When the servomotor 7c operates, the head 7 can swing about the central axis CL22 in the direction of arrow R22. That is, the head 7 has three degrees of freedom.

【0024】胴体部8にはサーボモータ8aを有してお
り、このサーボモータ8aが作動すると、中心軸CL2
3を中心として尻尾9が矢印R23方向に揺動する。
The body 8 has a servo motor 8a. When the servo motor 8a operates, the center axis CL2
The tail 9 swings in the direction of the arrow R23 around the center 3.

【0025】また、この多関節型ロボット1は、図2に
示すように、本体2に3軸(x,y,z)の加速度セン
サ41を内蔵しており、任意の姿勢における本体2への
加速度及び角速度を検出できるようになっている。ま
た、頭部7には、CCDカメラ43とマイクロホン44
が配設されている。さらに、頭部、各脚先、腹部、喉
部、臀部、尻尾に接触センサ45が配設されている。各
センサによる検出出力は、図3に示すように、この多関
節型ロボット1の制御部100に設けられているCPU
(中央処理装置)102にバス103を介して与えられ
るようになっている。
Further, as shown in FIG. 2, the articulated robot 1 has a built-in three-axis (x, y, z) acceleration sensor 41 in the main body 2 so that the main body 2 can move to the main body 2 in an arbitrary posture. The acceleration and the angular velocity can be detected. The head 7 has a CCD camera 43 and a microphone 44.
Are arranged. Further, contact sensors 45 are provided on the head, each leg tip, abdomen, throat, buttocks, and tail. As shown in FIG. 3, a detection output from each sensor is output from a CPU provided in the control unit 100 of the articulated robot 1.
(Central processing unit) 102 via a bus 103.

【0026】ここで、図3は、この多関節型ロボット1
の制御部100と、右前足3、左前足4、右後足5、左
後足6、頭部7、尻尾9の各関節軸駆動用のそれぞれの
サーボモータ及び位置センサの接続関係例を示してい
る。
Here, FIG. 3 shows this articulated robot 1.
FIG. 3 shows an example of a connection relationship between the control unit 100 and the respective servomotors and position sensors for driving the respective joint axes of the right forefoot 3, left forefoot 4, right hindfoot 5, left hindfoot 6, head 7, and tail 9; ing.

【0027】制御部100は、メモリ101とCPU
(中央処理装置)102を有しており、CPU102の
バス103は、上述した右前足3、左前足4、右後足
5、左後足6、頭部7、尻尾9の各要素に接続されてい
る。
The control unit 100 includes a memory 101 and a CPU
(Central processing unit) 102, and the bus 103 of the CPU 102 is connected to the above-described elements of the right forefoot 3, left forefoot 4, right hindfoot 5, left hindfoot 6, head 7, and tail 9 described above. ing.

【0028】右前足3は、サーボモータ3c,3d,3
eと、位置センサ3P1,3P2,3P3を有してい
る。サーボモータ3c,3d,3eはそれぞれドライバ
3Dに接続されているとともに位置センサ3P1,3P
2,3P3もドライバ3Dにそれぞれ接続されている。
各ドライバ3Dはバス103に接続されている。
The right forefoot 3 is a servomotor 3c, 3d, 3
e, and position sensors 3P1, 3P2, 3P3. The servo motors 3c, 3d, 3e are connected to a driver 3D, respectively, and the position sensors 3P1, 3P
2, 3P3 are also connected to the driver 3D, respectively.
Each driver 3D is connected to the bus 103.

【0029】同様にして、左前足4のサーボモータ4
c,4d,4e、位置センサ4P1,4P2,4P3
は、ドライバ4Dに接続されている。右後足5のサーボ
モータ5c,5d,5eと、位置センサ5P1,5P
2,5P3は、ドライバ5Dにそれぞれ接続されてい
る。左後足6のサーボモータ6c,6d,6eと、位置
センサ6P1,6P2,6P3は、ドライバ6Dに接続
されている。
Similarly, the servo motor 4 of the left forefoot 4
c, 4d, 4e, position sensors 4P1, 4P2, 4P3
Are connected to the driver 4D. Servo motors 5c, 5d, 5e of right hind leg 5 and position sensors 5P1, 5P
2, 5P3 are connected to the driver 5D, respectively. The servo motors 6c, 6d, 6e of the left rear foot 6 and the position sensors 6P1, 6P2, 6P3 are connected to a driver 6D.

【0030】頭部7のサーボモータ7a,7b,7c
と、位置センサ7P1,7P2,7P3は、ドライバ7
Dに接続されている。尻尾9のサーボモータ9aと位置
センサ9P1はドライバ9Dに接続されている。
Servo motors 7a, 7b, 7c of head 7
And the position sensors 7P1, 7P2, 7P3
D. The servo motor 9a of the tail 9 and the position sensor 9P1 are connected to a driver 9D.

【0031】右前足3の各位置センサ3P1,3P2,
3P3、左前足4の各位置センサ4P1,4P2,4P
3、右後足5の各位置センサ5P1,5P2,5P3及
び左後足6の各位置センサ6P1,6P2,6P3は、
それぞれの箇所における位置情報を得るものであり、例
えばこれらの位置センサとしては関節角度検出用のポテ
ンショメータなどの回転角センサを用いることができ
る。この回転角センサのような位置センサ3P1〜6P
3により得られる位置情報が、CPU102にフィード
バックされると、CPU102は、そのフィードバック
された位置情報に基づいて、各ドライバに指令を与え
る。これにより対応するドライバは対応するモータに対
してサーボ制御を行い、CPU102から与えられた指
令位置までサーボモータが回転するようになっている。
Each position sensor 3P1, 3P2 of the right forefoot 3
3P3, each position sensor 4P1, 4P2, 4P of the left forefoot 4
3, each position sensor 5P1, 5P2, 5P3 of the right hind leg 5 and each position sensor 6P1, 6P2, 6P3 of the left hind leg 6,
Position information at each location is obtained. For example, as these position sensors, a rotation angle sensor such as a potentiometer for detecting a joint angle can be used. Position sensors 3P1-6P such as this rotation angle sensor
When the position information obtained by 3 is fed back to the CPU 102, the CPU 102 gives a command to each driver based on the fed back position information. As a result, the corresponding driver performs servo control on the corresponding motor, and the servo motor rotates to the command position given by the CPU 102.

【0032】図4〜図7は、図1に示した多足歩行ロボ
ット1をより簡単化して示している。胴体部8には、頭
部7、右前足3、左前足4、右後足5、左後足6を有し
ている。各足3〜6にはそれぞれ関節部10,11,1
2,13,30,30,30,30がそれぞれ設けられ
ている。
FIGS. 4 to 7 show the multi-legged walking robot 1 shown in FIG. 1 in a more simplified manner. The torso portion 8 has a head 7, a right front leg 3, a left front leg 4, a right rear leg 5, and a left rear leg 6. Joints 10, 11, and 1 are provided on each of the feet 3 to 6, respectively.
2, 13, 30, 30, 30, 30 are provided, respectively.

【0033】図4に示す多足歩行ロボット1の姿勢は、
右前足3、左前足4、右後足5、左後足6が真っ直ぐに
なった基本姿勢である。図5は、図4の基本姿勢から左
前足4の関節部11と関節部30に動きを与えた状態を
示している。
The posture of the multi-legged walking robot 1 shown in FIG.
This is a basic posture in which the right forefoot 3, the left forefoot 4, the right hindfoot 5, and the left hindfoot 6 are straightened. FIG. 5 shows a state in which the joints 11 and 30 of the left forefoot 4 have been moved from the basic posture of FIG.

【0034】図4に示す多足歩行ロボット1の右前足
3、左前足4、右後足5、左後足6は、4本とも接地面
300に接地している。図5の状態では左前足4の関節
部11,30に対して動きが与えられているので、左前
足4は前方に突き出したような姿勢になっている。
The right front leg 3, the left front leg 4, the right rear leg 5, and the left rear leg 6 of the multi-legged walking robot 1 shown in FIG. In the state of FIG. 5, since the motion is given to the joints 11 and 30 of the left forefoot 4, the left forefoot 4 is in a posture protruding forward.

【0035】操作者が、このように多足歩行ロボット1
の左前足4の左前肘に当たる関節部11と、左前肩に対
応する関節部30に対して角度を決めようとする場合に
は、次のようにして多足歩行ロボットの動作パターンの
編集を実行する。
When the operator operates the multi-legged walking robot 1
To determine the angle between the joint 11 corresponding to the left front elbow of the left front leg 4 and the joint 30 corresponding to the left front shoulder, edit the motion pattern of the multi-legged walking robot as follows. I do.

【0036】図4と図5に示す多足歩行ロボット1に対
してこのような関節部11,30に対して動きを与える
編集作業においては、図2に示した制御部100の外部
編集指示コンピュータ400のソフトウェア上で、図5
に示す多足歩行ロボット1の重心W0の位置を計算し、
その重心W0の位置から多足歩行ロボット1が転倒しな
いように、他の右前足3、右後足5、左後足6の少なく
とも1つの足の関節部の角度を自動的に設定することが
できるようになっている。この指示は上記外部編集指示
コンピュータ400から上記制御部のCPU102に対
して与えることにより、CPU102は対応する足のサ
ーボモータに対して動作指令を与えることができる。
In the editing operation for giving motion to the joints 11 and 30 to the multi-legged walking robot 1 shown in FIGS. 4 and 5, the external editing instruction computer of the control unit 100 shown in FIG. Figure 400 on 400 software
The position of the center of gravity W0 of the multi-legged walking robot 1 shown in FIG.
It is possible to automatically set the angles of the joints of at least one of the other right forefoot 3, right hindfoot 5, and left hindfoot 6 so that the multi-legged walking robot 1 does not fall from the position of the center of gravity W0. I can do it. By giving this instruction from the external editing instruction computer 400 to the CPU 102 of the control unit, the CPU 102 can give an operation instruction to the servo motor of the corresponding foot.

【0037】この場合に、多足歩行ロボット1の各部の
重量、すなわち胴体部8と本体2の重量、右前足3、左
前足4、右後足5、左後足6、そして頭部7のそれぞれ
の重量などは、あらかじめ外部編集指示コンピュータ4
00のメモリ402にメモリされており、これらの重量
のデータに基づいて、図4に示す多足歩行ロボット1の
重心W0の位置を計算することができる。
In this case, the weight of each part of the multi-legged walking robot 1, that is, the weight of the torso portion 8 and the main body 2, the right front leg 3, the left front leg 4, the right rear leg 5, the left rear leg 6, and the head 7 The weight of each unit is set in advance by the external editing instruction computer 4.
00, and the position of the center of gravity W0 of the multi-legged walking robot 1 shown in FIG. 4 can be calculated based on the weight data.

【0038】次に、図8を参照して、多足歩行ロボット
の動作パターンの編集方法の一例を説明する。
Next, an example of a method for editing a motion pattern of a multi-legged walking robot will be described with reference to FIG.

【0039】まずステップS1において、上記多足歩行
ロボット1のメモリ101には、上記多足歩行ロボット
1の各構成要素の重量や形状などの情報が予めメモリさ
れている。すなわち本体2、胴体部8、頭部7、右前足
3、左前足4、右後足5、左後足6、尻尾9等のそれぞ
れの要素の重量や形状の情報がメモリされている。そし
てメモリ101から外部編集指示コンピュータ400の
メモリ402にその情報が移される。これがステップS
1における重量・形状などの情報入手である。
First, in step S1, information such as the weight and shape of each component of the multi-legged walking robot 1 is stored in the memory 101 of the multi-legged walking robot 1 in advance. That is, information on the weight and shape of each element such as the main body 2, the torso portion 8, the head 7, the right front foot 3, the left front foot 4, the right rear foot 5, the left rear foot 6, the tail 9, and the like is stored in the memory. Then, the information is transferred from the memory 101 to the memory 402 of the external editing instruction computer 400. This is step S
1 to obtain information such as weight and shape.

【0040】次にステップS2において、上記多足歩行
ロボット1に対して姿勢の編集を開始する。すなわち、
図4に示す基本姿勢から、図5に示すように左前足4を
前に突き出させるような姿勢を取らせる。この時に関節
部11と関節部30に対して動きを教示するのである
が、そのままであると、多足歩行ロボット1は図6に示
すように重心が左前足4側に移動してしまうので、左前
方に転倒してしまうことになる。
Next, in step S2, editing of the posture of the multi-legged walking robot 1 is started. That is,
From the basic posture shown in FIG. 4, the posture is made such that the left front leg 4 protrudes forward as shown in FIG. At this time, the movement is taught to the joints 11 and 30. However, if it is left as it is, the center of gravity of the multi-legged walking robot 1 moves to the left front foot 4 side as shown in FIG. You will fall to the left front.

【0041】そこで、このような多足歩行ロボット1の
転倒を防ぐために、図5に示すように左前足4を前方に
折り曲げるように関節部11,30に対して動きを与え
た場合には、ステップS3において、図3に示した制御
部100の外部編集指示コンピュータ400は、多足歩
行ロボット1の重心W0を、図5のように本体2及び胴
体部8に関して後方Tに沿って新しい重心W1の計算を
行いそのデータを新しい計算上の重心の値とする。この
ように重心W0を新しい重心W1に移すためには、図7
に示すように右前足3、右後足5、左後足6の関節部1
0,12,13及び関節部30,30,30に対して動
きを与える。この動きを与えるのは外部編集指示コンピ
ュータ400である。
In order to prevent the multi-legged walking robot 1 from overturning, as shown in FIG. 5, when the left forefoot 4 is moved forward to bend the joints 11 and 30, In step S3, the external editing instruction computer 400 of the control unit 100 shown in FIG. 3 changes the center of gravity W0 of the multi-legged walking robot 1 to a new center of gravity W1 Is calculated, and the data is used as the value of the new calculated center of gravity. In order to shift the center of gravity W0 to the new center of gravity W1 in this manner, FIG.
The joints 1 of the right front foot 3, right rear foot 5, and left rear foot 6 as shown in FIG.
The movement is given to 0, 12, 13 and the joints 30, 30, 30. It is the external editing instruction computer 400 that gives this movement.

【0042】この場合に、多足歩行ロボット1のバラン
スを確実に取るために、各右前足3、右後足5、左後足
6の関節部10,12,13及び関節部30,30,3
0に対して与える動きは、ステップS4,S5のように
するのが好ましい。すなわち、多足歩行ロボット1の新
しい重心W1の接地面300に対する投影点IMが、三
角形状の重心位置適正範囲AR内に位置していることで
ある。この適正範囲ARは、右前足3の接地点CP1
と、右後足5の接地点CP2及び左後足6の接地点CP
3を結んで形成される三角形状の領域である。
In this case, in order to ensure the balance of the multi-legged walking robot 1, the joints 10, 12, 13 and the joints 30, 30, 30, 30, 30, of the right front leg 3, the right rear leg 5, and the left rear leg 6, respectively. 3
It is preferable that the motion given to 0 be as in steps S4 and S5. That is, the projection point IM of the new center of gravity W1 of the multi-legged walking robot 1 onto the ground plane 300 is located within the triangular center-of-gravity position proper range AR. This proper range AR is the ground contact point CP1 of the right forefoot 3
And the ground point CP2 of the right hind foot 5 and the ground point CP of the left hind foot 6
3 is a triangular region formed by connecting the three.

【0043】この適正範囲AR内に常に重心W1の投影
点IMが入っていることにより、多足歩行ロボット1が
転倒しないようにして、各右前足3、右後足5、左後足
6における関節部10,12,13及び関節部30,3
0,30の動きを与えることができ、最も少ない動きで
このような安定した姿勢を選択することができる。
Since the projection point IM of the center of gravity W1 is always within the appropriate range AR, the multi-legged walking robot 1 is prevented from falling down, and the right front leg 3, the right rear leg 5, and the left rear leg 6 are prevented from falling. Joints 10, 12, 13 and joints 30, 3
0, 30 movements can be given, and such a stable posture can be selected with the least movement.

【0044】図5と図7を比較して明らかなように、左
前足4を前に突き出したような姿勢を操作者が多足歩行
ロボット1に対して加えると、自動的に重心がW0から
W1にずれて、多足歩行ロボット1としては全体的に後
側を低くした状態になる。このようにしてステップS3
における重心位置計算を行った後多足歩行ロボット1が
ステップS4において転倒するかどうかを見て、転倒し
そうであれば、外部編集指示コンピュータ400が他の
関節部の動き(角度の表)の計算や変更を行い、再度ス
テップS3において重心位置の計算を行う。
As is clear from the comparison between FIG. 5 and FIG. 7, when the operator applies a posture in which the left forefoot 4 protrudes forward to the multi-legged walking robot 1, the center of gravity is automatically shifted from W0. Shifting to W1, the rear side of the multi-legged walking robot 1 is lowered as a whole. Thus, step S3
After calculating the position of the center of gravity in step S4, it is determined whether or not the multi-legged walking robot 1 falls in step S4, and if so, the external editing instruction computer 400 calculates the movement (table of angles) of other joints. After that, the position of the center of gravity is calculated again in step S3.

【0045】ステップS4において転倒しないことが明
らかであれば、ステップS6に移り外部編集指示コンピ
ュータ400は、多足歩行ロボット1の動作パターンの
編集を終了する。このように編集を終了した場合には、
外部編集指示コンピュータ400は、多足歩行ロボット
1のCPU102に対して動作パターンを正式に入力す
る(ステップS7)。
If it is clear in step S4 that the robot has not fallen, the flow proceeds to step S6, and the external editing instruction computer 400 ends editing of the operation pattern of the multi-legged walking robot 1. When you finish editing in this way,
The external editing instruction computer 400 formally inputs an operation pattern to the CPU 102 of the multi-legged walking robot 1 (step S7).

【0046】また、この多足歩行ロボット1は、本体2
に内蔵された3軸(x,y,z)の加速度センサ41に
より検出される各軸(x,y,z)方向の加速度情報A
ccXt,AccYt,AccZtに基づいて、上記制
御部100により転倒検出を行っており、転倒状態を検
出した場合には通常の姿勢状態への姿勢復帰を行うよう
になっている。
The multi-legged walking robot 1 has a main body 2
Acceleration information A in each axis (x, y, z) direction detected by a three-axis (x, y, z) acceleration sensor 41 built in
The control unit 100 detects a fall based on ccXt, AccYt, and AccZt. When a fall state is detected, the posture is returned to a normal posture state.

【0047】ここで、上記制御部100による転倒判別
のアルゴリズムを図9のフローチャートに示してある。
Here, the algorithm of the fall determination by the control unit 100 is shown in the flowchart of FIG.

【0048】すなわち、上記制御部100は、上記加速
度センサ41により検出される各軸(x,y,z)方向
の加速度情報AccXt,AccYt,AccZtに基
づいて、次のようにして転倒検出を行う。
That is, the control unit 100 detects a fall as follows based on the acceleration information AccXt, AccYt, AccZt in each axis (x, y, z) direction detected by the acceleration sensor 41. .

【0049】先ず、転倒判別処理では、先ず、ステップ
S11において、データバッファの最古の加速度情報A
ccXn,AccYn,AccZnを破棄して、データ
バッファのデータの時間タグを変更する。この多足歩行
ロボット1では、データバッファのバッファ量は各軸5
0である。
First, in the fall determination process, first, in step S11, the oldest acceleration information A in the data buffer is stored.
Discard ccXn, AccYn, AccZn and change the time tag of the data in the data buffer. In this multi-legged walking robot 1, the buffer amount of the data buffer is 5
0.

【0050】 AccXk→AccXk+1 (k=0〜n−1) (式1) AccYk→AccYk+1 (k=0〜n−1) (式2) AccZk→AccZk+1 (k=0〜n−1) (式3)AccXk → AccXk + 1 (k = 0 to n−1) (Equation 1) AccYk → AccYk + 1 (k = 0 to n−1) (Equation 2) AccZk → AccZk + 1 (k = 0 to n−1) (Equation 3) )

【0051】次のステップS12では、上記加速度セン
サ41により測定された各軸(x,y,z)方向の加速
度情報AccXt,AccYt,AccZtをデータバ
ッファに格納する。このデータ更新の割合は、この多足
歩行ロボット1では10msである。
In the next step S12, acceleration information AccXt, AccYt, AccZt in each axis (x, y, z) direction measured by the acceleration sensor 41 is stored in the data buffer. The rate of this data update is 10 ms in the case of this multi-legged walking robot 1.

【0052】 AccXo→AccXt (式4) AccYo→AccYt (式5) AccZo→AccZt (式6)AccXo → AccXt (Equation 4) AccYo → AccYt (Equation 5) AccZo → AccZt (Equation 6)

【0053】次のステップS13では、データバッファ
のデータから各軸(x,y,z)方向の時間平均加速度
AccX,AccY,AccZを計算する。
In the next step S13, time average accelerations AccX, AccY, AccZ in the directions of the axes (x, y, z) are calculated from the data in the data buffer.

【0054】 AccX=ΣAccXk/n (k=0〜n) (式7) AccY=ΣAccYk/n (k=0〜n) (式8) AccZ=ΣAccZk/n (k=0〜n) (式9)AccX = ΣAccXk / n (k = 0-n) (Equation 7) AccY = ΣAccYk / n (k = 0-n) (Equation 8) AccZ = ΣAccZk / n (k = 0-n) (Equation 9) )

【0055】次のステップS14では、平均加速度Ac
cとY−Z平面との偏角θ、平均加速度AccのY−Z
平面への投影成分とZ軸となす角φを求める(図10
(A)及び図10(B)参照)。
In the next step S14, the average acceleration Ac
declination θ between c and YZ plane, YZ of average acceleration Acc
The angle φ between the projection component on the plane and the Z axis is determined (FIG. 10).
(A) and FIG. 10 (B)).

【0056】 Acc=(AccX+AccY+AccZ1/2(式10) θ=asin(AccY/((AccY+AccZ1/2)) (式1 1) φ=asin(AccZ/Acc) (式12)Acc = (AccX 2 + AccY 2 + AccZ 2 ) 1/2 (Equation 10) θ = asin (AccY / ((AccY 2 + AccZ 2 ) 1/2 )) (Equation 11) φ = asin (AccZ / Acc (Equation 12)

【0057】次のステップS15では、平均加速度(ユ
ークリッド距離)Accが許容誤差(ΔAcc)範囲内
にあるか否かの判定を行う。誤差範囲外の場合は、例え
ば持ち上げなどによる外部から大きな力を受けていると
して転倒判別処理から抜ける。
In the next step S15, it is determined whether or not the average acceleration (Euclidean distance) Acc is within an allowable error (ΔAcc) range. If the error is outside the error range, it is determined that a large force is received from the outside due to, for example, lifting, and the process exits from the fall determination process.

【0058】 Acc>1.0+ΔAcc[G]又はAcc<1.0−ΔAcc[G] →処理例外 (式13)Acc> 1.0 + ΔAcc [G] or Acc <1.0−ΔAcc [G] → Processing exception (Equation 13)

【0059】そして、次のステップS16では、平均加
速度AccとY−Z平面との偏角θ、及び、平均加速度
AccのY−Z平面への投影成分とZ軸となす角φと、
現在の姿勢状態でのテンプレートデータである、平均加
速度AccとY−Z平面とのテンプレート偏角θm、及
び、平均加速度AccのY−Z平面への投影成分とZ軸
となすテンプレート角φmと比較し、それぞれの許容誤
差(Δθm,Δφm)範囲内であれば姿勢が正常とし、
範囲外の場合は転倒若しくは異常姿勢と判定する。歩行
時においては、θ=−π/2,φ=任意となる。
In the next step S16, the declination θ between the average acceleration Acc and the YZ plane, the angle φ between the projection component of the average acceleration Acc on the YZ plane and the Z axis, and
A template angle θm between the average acceleration Acc and the YZ plane, which is template data in the current posture state, and a template angle φm between the projection component of the average acceleration Acc on the YZ plane and the Z axis. If the position is within the respective tolerances (Δθm, Δφm), the posture is assumed to be normal,
If it is out of the range, it is determined that the vehicle has fallen or has an abnormal posture. During walking, θ = −π / 2, φ = arbitrary.

【0060】 θ>θm+Δθm or θ<θm−Δθm (式14) φ>φm+Δφm or φ<φm−Δφm (式15)Θ> θm + Δθm or θ <θm−Δθm (Expression 14) φ> φm + Δφm or φ <φm−Δφm (Expression 15)

【0061】ここで、転倒という現象は角速度のサンプ
リング周期に対して非常に低周波な現象であるため、転
倒検出のデータとしてデータバッファを用いてある時間
の平均を取ることで瞬間的なノイズによる誤変別を軽減
することができる。この方法は、データの処理に際し
て、デジタルフィルタなどによるローパス処理に比べて
負荷が小さいという利点がある。
Here, the phenomenon of overturning is a phenomenon of a very low frequency with respect to the sampling period of the angular velocity. Therefore, by taking an average of a certain time by using a data buffer as data of overturning detection, instantaneous noise is generated. Accidental discrimination can be reduced. This method has an advantage that the load on the data processing is smaller than that of the low-pass processing using a digital filter or the like.

【0062】そして、上記転倒判別処理により転倒が検
出された場合(ステップS17)には、転倒復帰ステッ
プS18に移り、次のようにして通常の姿勢へ姿勢遷移
を行う。
If a fall is detected by the above-described fall determination process (step S17), the process proceeds to the fall return step S18, and the posture is changed to a normal posture as follows.

【0063】すなわち、姿勢遷移処理では、先ず、転倒
検出時に算出された平均加速度AccとY−Z平面との
偏角θ、平均加速度AccのY−Z投影成分のZ軸とな
す角φにより、転倒方向の判定を行う。この多足歩行ロ
ボット1では、形状による制約条件より歩行時の転倒で
は図11の(A),(B),(C),(D)に示す4方
向のみにしか転倒しないようになっており、 0<φ<(1/4)π又は−(1/4)π<φ<0 (式16) により、図12(A)に示した前方転倒状態(Head Side
Down)にあるか否か判定し、 (1/4)π<φ<(3/4)π (式17) により、図12(B)に示した右側転倒状態(Right Sid
e Down)にあるか否か判定し、 −(1/4)π>φ>−(3/4)π (式18) により、図12(C)に示した左側転倒状態(Left Side
Down)にあるか否か判定し、さらに、 (3/4)π<φ or φ>−(3/4)π (式19) により、図12(D)に示した後方転倒状態(Tail Side
Down)にあるか否か判定を判定する。
That is, in the posture transition processing, first, the declination θ between the average acceleration Acc and the YZ plane calculated at the time of detecting the fall, and the angle φ between the YZ projection component of the average acceleration Acc and the Z axis are represented by: The fall direction is determined. In the multi-legged walking robot 1, when the robot falls during walking, it falls only in the four directions shown in FIGS. 11A, 11B, 11C, and 11D due to the constraint condition due to the shape. , 0 <φ <(1/4) π or − (1/4) π <φ <0 (Equation 16), the forward falling state (Head Side) shown in FIG.
Down), it is determined whether (1/4) π <φ <(3/4) π (Equation 17), and the right-side overturning state (Right Sid) shown in FIG.
e Down) is determined, and − (1/4) π>φ> − (3/4) π (Equation 18) is used to determine the left side overturning state (Left Side state) shown in FIG.
Down), and (3/4) π <φ or φ> − (3/4) π (Equation 19), the rear falling state (Tail Side) shown in FIG.
Down) is determined.

【0064】そして、予め作成しメモリ101に記憶さ
せてある上記4つの転倒状態(HeadSide Down,Right Si
de Down,Left Side Down,Tail Side Down) からの姿
勢復帰を行うため、軌道計画データを用いたプレイバッ
クによる正常な姿勢への復帰を行う。なお、上記転倒復
帰動作を実行中に転倒状態が変わるような場合が存在す
る。例えば、前面を下にして転倒した前方転倒状態(Hea
d Side Down)が、転倒復帰のための動作を開始した際
に、側面転倒状態に状況が変化した場合、このような場
合においては、現在の実行中の転倒復帰動作を速やかに
終了し、再度検出転倒復帰動作を実行することで転倒状
態からの復帰動作を速やかに実行することができる。
Then, the four falling states (HeadSide Down, Right Si
In order to perform the posture return from de Down, Left Side Down, and Tail Side Down), the posture is returned to the normal posture by the playback using the trajectory planning data. Note that there is a case where the fall state changes during the execution of the fall return operation. For example, if you fall forward (Hea
d Side Down) starts the operation for fall return, and if the situation changes to the side fall state, in such a case, the currently executing fall return operation is immediately terminated, and By executing the detected fall return operation, the return operation from the fall state can be quickly executed.

【0065】ここで、図13には、前方転倒状態(Head
Side Down)から正常な姿勢への復帰動作の経過を模式
的に示してある。
FIG. 13 shows a state in which the vehicle has fallen forward (Head).
The progress of the return operation from Side Down) to the normal posture is schematically shown.

【0066】上記前方転倒状態からの姿勢復帰を行うた
めの軌道計画データは、この多関節型ロボット1の各右
前足3、左前足4、右後足5、左後足6の相対位置関係
を予め上述のダイレクトティーチング方式で操作者が位
置教示を行うことにより生成して上記メモリ101に記
憶させておくことができる。
The trajectory planning data for performing the posture return from the above-mentioned forward fall state is based on the relative positional relationship between the right front foot 3, the left front foot 4, the right rear foot 5, and the left rear foot 6 of the articulated robot 1. It can be generated by the operator teaching the position in advance by the direct teaching method described above and stored in the memory 101.

【0067】ここで、この多関節型ロボット1の説明で
は、本体2に内蔵された3軸(x,y,z)の加速度セ
ンサ41による加速度情報に基づいて、上記制御部10
0により転倒判別を行って、上記4種類の転倒状態(Hea
d Side Down,Right Side Down,Left Side Down,Tail
Side Down) から正常な姿勢状態に復帰する復帰動作を
行うようにしたが、上記制御部100は、上記本体2に
内蔵される角速度センサや角加速度センサ、傾斜センサ
等の検出出力に基づいて転倒判別を行い、正常な姿勢状
態への復帰動作を行うようにしてもよい。また、上記制
御部100は、CCDカメラ43により得られる画像情
報や接触センサ45による検出出力に等に基づいて転倒
判別を行い、正常な姿勢状態への復帰動作を行うように
してもよい。さらに、上記制御部100は、各種センサ
による検出出力を複合的に用いて、転倒判別を行い、正
常な姿勢状態への復帰動作を行うようにすることもでき
る。
Here, in the description of the articulated robot 1, the control unit 10 is controlled based on acceleration information of a three-axis (x, y, z) acceleration sensor 41 built in the main body 2.
0 to determine the fall state, and the four types of fall state (Hea
d Side Down, Right Side Down, Left Side Down, Tail
The control unit 100 performs a return operation to return to a normal posture state from the (Side Down) position. However, the control unit 100 falls over based on detection outputs of an angular velocity sensor, an angular acceleration sensor, an inclination sensor, and the like built in the main body 2. The determination may be performed, and the returning operation to the normal posture state may be performed. Further, the control unit 100 may perform a fall determination based on image information obtained by the CCD camera 43 or a detection output from the contact sensor 45, and perform an operation of returning to a normal posture state. Further, the control unit 100 may perform a fall determination using composite detection outputs from various sensors and perform an operation of returning to a normal posture state.

【0068】4脚型のロボット装置の場合、内部の姿勢
モデルと脚先や本体の各部に設置された接触センサの出
力の比較により異常姿勢を検出することができる。
In the case of a four-legged robot device, an abnormal posture can be detected by comparing the internal posture model with the output of a contact sensor installed on each of the legs and the main body.

【0069】すなわち、例えば、図14に示すような立
ち姿勢では、接触センサ45A,45B,45Cのうち
脚先の接触センサ45A,45Bのみが接触状態を検出
するが、図15に示すような座って手で何かをするよう
な場合においては、後脚先端の接触センサ45Bと尻部
に設置された接触センサ45Cが接触状態を検出する。
したがって、ロボット装置が実行している姿勢とその際
の接触センサ45の理想状態を装置本体内に記憶させて
おき、姿勢実行中の接触センサ45の出力を比較するこ
とで異常姿勢の検出を行うことができる。
That is, for example, in the standing posture as shown in FIG. 14, only the contact sensors 45A and 45B of the legs among the contact sensors 45A, 45B and 45C detect the contact state. When doing something with the hand, the contact sensor 45B at the tip of the rear leg and the contact sensor 45C installed at the buttocks detect the contact state.
Therefore, the posture executed by the robot device and the ideal state of the contact sensor 45 at that time are stored in the device main body, and the abnormal posture is detected by comparing the output of the contact sensor 45 during the posture execution. be able to.

【0070】また、画像入力装置を備えるロボット装置
では、路面を認識し、その位置と装置の現在意図する姿
勢との相関をとることで、異常姿勢として検出すること
ができる。
Further, in a robot apparatus having an image input device, it is possible to detect an abnormal posture by recognizing a road surface and correlating the position with the current intended posture of the device.

【0071】すなわち、上記多関節型ロボット1では、
図16に示すような立ち姿勢を正常な状態とした場合、
CCDカメラ43による撮像出力として、正常な姿勢時
には、図17(A)に示すように床面Fが水平な状態の
画像が得られる得られるのに対し、異常姿勢時には、図
17(B)に示すような床面Fの天地が逆転した画像
や、図17(C)、図17(D)に示すような床面Fが
傾斜した画像が得られるので、上記CCDカメラ43に
よる撮像出力として得られる画像の床面Fの状態を判定
することにより、異常姿勢状態を検出することができ
る。
That is, in the articulated robot 1 described above,
When the standing posture as shown in FIG. 16 is normal,
As an image output by the CCD camera 43, in a normal posture, an image in which the floor F is horizontal can be obtained as shown in FIG. 17A, whereas in an abnormal posture, an image shown in FIG. As shown in FIG. 17 (C) and FIG. 17 (D), an image in which the floor F is inverted and an image in which the floor F is inclined as shown in FIGS. The abnormal posture state can be detected by determining the state of the floor surface F of the image to be obtained.

【0072】上記画像の床面Fの状態を判定するには、
例えば図18に示すように、画像の座標系におけるY方
向のエッジを検出する作業を繰り返し、求められた複数
の検出位置の座標から線分を求めることにより上記床面
Fの横方向のエッジを求め、同様にX方向のエッジを検
出する作業の結果得られる検出位置座標から上記床面F
の縦方向のエッジを求め、さらに、それらを組み合わせ
ることによって傾斜した床面Fの線分を検出すればよ
い。
To determine the state of the floor F in the above image,
For example, as shown in FIG. 18, the operation of detecting the edge in the Y direction in the coordinate system of the image is repeated, and the line segment is obtained from the coordinates of the plurality of detected positions to obtain the horizontal edge of the floor surface F. Similarly, from the detected position coordinates obtained as a result of the operation of detecting the edge in the X direction, the floor surface F
May be determined, and a line segment of the inclined floor F may be detected by combining them.

【0073】さらに、車輪による移動機構を用いたタイ
ヤ型ロボット装置では、使用環境は車輪が路面に接触し
ている状態に限定されるので、次のようにして異常姿勢
検出を行えばよい。
Further, in a tire type robot apparatus using a moving mechanism using wheels, since the operating environment is limited to a state in which the wheels are in contact with the road surface, the abnormal posture may be detected as follows.

【0074】すなわち、例えば、図19に示すように非
駆動軸に取り付けられた回転検出装置RDで観測される
回転状態が回転出力装置ROに要求している回転と異な
ることを検出することで、異常姿勢の検出を行うことが
できる。
That is, for example, as shown in FIG. 19, by detecting that the rotation state observed by the rotation detection device RD attached to the non-drive shaft is different from the rotation required for the rotation output device RO, An abnormal posture can be detected.

【0075】あるいは、図20に示すように床面検出装
置FDを設置することで転倒などの際に異常姿勢として
検出することができる。上記床面検出装置FDとして
は、発光と受光部を持つ非接触型センサやマイクロスイ
ッチなどの接触式のセンサ装置を用いることができる。
Alternatively, by installing a floor detecting device FD as shown in FIG. 20, it is possible to detect an abnormal posture when falling down. As the floor detecting device FD, a contact type sensor device such as a non-contact type sensor having a light emitting and a light receiving portion or a micro switch can be used.

【0076】ここで、転倒復帰動作をプレイバック方式
で行う場合、ロボット装置の形状により転倒状態から復
帰する動作がある特定の状態遷移に限定される。上記多
関節型ロボット1のような4脚型のロボット装置の場
合、上述の4種類の転倒状態(Head Side Down,Right S
ide Down,Left Side Down,Tail Side Down) と、背面
を床につけた背面転倒状態(Back Side Down)と腹面を床
に着けた伏臥状態(Stomach Side Down) を含む6種類の
状態が存在し、転倒状態から復帰は、必ず伏臥状態(Sto
mach Side Down) を経由することになる。また、背面転
倒状態(Back SideDown)の場合には、図21に示すよう
に、伏臥状態(Stomach Side Down) に至る前に、必ず上
記4種類の転倒状態(Head Side Down,Right Side Dow
n,Left Side Down,Tail Side Down) のいずれかの転
倒状態を経由しなければならない。この性質を利用する
ことにより、転倒が検出された場合、転倒の復帰動作を
細かく分けてプレイバックの動作データを作成し、転倒
状態の変化に合わせて再生する方法で、ロボット装置を
制御するようにすれば、予測できない外乱により転倒状
態が変化した場合に、即座に転倒復帰動作を切り換える
ことができる。また、このようにすれば、それぞれの復
帰動作を分割して、復帰動作データを作成することがで
き、動作データの作成が容易になる。
Here, when the fall-back operation is performed by the playback method, the operation of returning from the fall state is limited to a specific state transition depending on the shape of the robot apparatus. In the case of a four-legged robot apparatus such as the articulated robot 1, the four types of falling states (Head Side Down, Right S
There are six types of states, including ide Down, Left Side Down, and Tail Side Down), a back side down state with the back on the floor (Back Side Down), and a prone state with the abdomen on the floor (Stomach Side Down). When returning from a fall state, make sure to
mach Side Down). Also, in the case of the back side down state (Back Side Down), as shown in FIG. 21, before reaching the prone state (Stomach Side Down), the four types of the above-mentioned top down state (Head Side Down, Right Side Down) must be performed.
n, Left Side Down, or Tail Side Down). By utilizing this property, when a fall is detected, the robot operation is controlled in such a manner that playback operation data is created by subdividing the return operation of the fall and playing back in accordance with a change in the fall state. With this configuration, when the fall state changes due to unpredictable disturbance, the fall return operation can be switched immediately. Further, in this way, each return operation can be divided and return operation data can be created, which facilitates creation of operation data.

【0077】なお、このような方法を採用しない場合、
例えば背面転倒状態(Back Side Down)からの復帰動作を
1つの動作として、復帰動作データを作成し、再生する
場合 1.外部からの作業で正常な状態に強制的に姿勢を変更
された場合においても復帰動作を完了するまで次の動作
に遷移することができない。
When such a method is not adopted,
For example, when returning operation data is created and reproduced by setting the returning operation from the back side down state (Back Side Down) as one operation. Even when the posture is forcibly changed to a normal state by an external operation, it is not possible to transition to the next operation until the return operation is completed.

【0078】2.上記復帰動作データが例えば左側転倒
状態(Left Side Down)を経由する状態で作成されていた
場合に、外部要因(例えば床面に突起がある等)でその
他の状態(例えば右側転倒状態(Right Side Down))にな
ってしまうと、復帰動作により復帰することができず、
無駄な作業を行うことになる。
2. For example, when the return operation data is created in a state of passing through a left side down state (Left Side Down), other states (for example, a right side down state (Right Side Down state) may be caused by an external factor (for example, a protrusion on the floor surface). Down)), it is not possible to return by the return operation,
You have to do wasted work.

【0079】3.これらの方法で、仮に転倒状態が変化
した際に、実行中の作業を停止し、動作を再度やり直す
ような取った場合、不連続な動作の発生により、関節部
に大きな負荷がかかってしまう。などの問題を持つこと
になる。
3. In these methods, if the operation being performed is stopped and the operation is restarted when the falling state changes, a large load is applied to the joint due to the occurrence of the discontinuous operation. You will have problems such as.

【0080】[0080]

【発明の効果】以上のように、本発明によれば、移動手
段を備えた装置本体の姿勢を識別して識別情報を出力
し、その識別情報に応じて、移動手段を制御する制御手
段とを備えることにより、例えば、異常な姿勢状態から
正常な姿勢状態に自律的に復帰することができる。
As described above, according to the present invention, the control means for identifying the attitude of the apparatus main body provided with the moving means, outputting the identification information, and controlling the moving means in accordance with the identification information. Is provided, for example, it is possible to autonomously return from an abnormal posture state to a normal posture state.

【0081】したがって、本発明によれば、転倒状態な
どの異常な姿勢状態から通常の姿勢状態に自律的に姿勢
復帰することができるロボット装置及びその姿勢制御方
法を提供することができる。これにより、ロボット装置
が異常な姿勢状態から正常な姿勢状態に自立的に復帰す
る機能を有するので、転倒状態などの異常な姿勢状態で
の使用によるロボット装置の故障や事故を防止すること
ができ、また、使用環境の破壊を防ぐことができ、さら
に、姿勢復帰のための作業等から使用者を解放すること
ができる。
Therefore, according to the present invention, it is possible to provide a robot apparatus capable of autonomously returning from an abnormal posture state such as a falling state to a normal posture state and a posture control method thereof. As a result, since the robot apparatus has a function of autonomously returning from an abnormal posture state to a normal posture state, it is possible to prevent a failure or accident of the robot apparatus due to use in an abnormal posture state such as a falling state. In addition, the use environment can be prevented from being destroyed, and the user can be released from work for returning to the posture.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した多足歩行ロボットの構造を模
式的に示す斜視図である。
FIG. 1 is a perspective view schematically showing a structure of a multi-legged walking robot to which the present invention is applied.

【図2】上記多足歩行ロボットの転倒状態の検出に用い
られる加速度センサ等の各種センサの設置状態を模式的
に示す斜視図である。
FIG. 2 is a perspective view schematically showing an installation state of various sensors such as an acceleration sensor used for detecting a falling state of the multi-legged walking robot.

【図3】上記多足歩行ロボットの制御系の構成を模式的
に示すブロック図である。
FIG. 3 is a block diagram schematically illustrating a configuration of a control system of the multi-legged walking robot.

【図4】上記多足歩行ロボットの基本姿勢を簡略的に示
す斜視図である。
FIG. 4 is a perspective view schematically showing a basic posture of the multi-legged walking robot.

【図5】上記多足歩行ロボットの基本姿勢から左前脚を
上げた状態を簡略的に示す斜視図である。
FIG. 5 is a perspective view schematically showing a state in which a left front leg is raised from a basic posture of the multi-legged walking robot.

【図6】上記多足歩行ロボットの姿勢が崩れた状態を簡
略的に示す斜視図である。
FIG. 6 is a perspective view schematically showing a state in which the posture of the multi-legged walking robot is collapsed.

【図7】上記多足歩行ロボットの姿勢が崩れないような
状態を簡略的に示す斜視図である。
FIG. 7 is a perspective view schematically showing a state in which the posture of the multi-legged walking robot does not collapse.

【図8】上記多足歩行ロボットの行動パターンの編集方
法の一例を示すフローチャートである。
FIG. 8 is a flowchart showing an example of a method of editing a behavior pattern of the multi-legged walking robot.

【図9】上記多足歩行ロボットにおける制御部による転
倒判別のアルゴリズムの一例を示すフローチャートであ
る。
FIG. 9 is a flowchart illustrating an example of an algorithm of fall determination by a control unit in the multi-legged walking robot.

【図10】上記転倒判別処理で求められる平均加速度A
ccとY−Z平面との偏角θ、平均加速度AccのY−
Z平面への投影成分とZ軸となす角φの関係を模式的に
示す図である。
FIG. 10 shows an average acceleration A obtained in the above-mentioned fall determination process.
declination θ between cc and YZ plane, Y- of average acceleration Acc
FIG. 4 is a diagram schematically illustrating a relationship between a projection component on a Z plane and an angle φ formed with a Z axis.

【図11】上記多足歩行ロボットの形状による制約条件
より決まる歩行時の転倒方向と角φの関係を模式的に示
す図である。
FIG. 11 is a diagram schematically showing a relationship between an overturning direction and an angle φ at the time of walking determined by a constraint condition based on the shape of the multi-legged walking robot.

【図12】上記多足歩行ロボットの歩行時の各種転倒状
態を模式的に示す各側面図である。
FIG. 12 is a side view schematically showing various falling states of the multi-legged walking robot during walking.

【図13】上記多足歩行ロボットの転倒状態から正常な
姿勢状態への復帰動作の過程を模式的に示す側面図であ
る。
FIG. 13 is a side view schematically showing a process of a returning operation from a fall state to a normal posture state of the multi-legged walking robot.

【図14】上記多足歩行ロボットの立ち姿勢における接
触センサによる接触検出状態を模式的に示す図である。
FIG. 14 is a diagram schematically showing a contact detection state by a contact sensor in a standing posture of the multi-legged walking robot.

【図15】上記多足歩行ロボットの座った姿勢における
接触センサによる接触検出状態を模式的に示す図であ
る。
FIG. 15 is a diagram schematically showing a contact detection state by a contact sensor in a sitting posture of the multi-legged walking robot.

【図16】上記多足歩行ロボットの立ち姿勢でCCDカ
メラにより画像情報を取り込む状態を模式的に示す図で
ある。
FIG. 16 is a diagram schematically showing a state in which image information is captured by a CCD camera in the standing posture of the multi-legged walking robot.

【図17】正常姿勢及び異常姿勢の状態でCCDカメラ
により取り込まれる各画像情報を模式的に示す図であ
る。
FIG. 17 is a diagram schematically illustrating image information captured by a CCD camera in a normal posture and an abnormal posture.

【図18】上記CCDカメラにより取り込まれる画像情
報に基づく床面の状態を判定方法を説明するための図で
ある。
FIG. 18 is a diagram for explaining a method of determining the state of the floor based on image information captured by the CCD camera.

【図19】異常姿勢検出手段として回転検出装置を備え
たタイヤ型ロボット装置の模式的な斜視図である。
FIG. 19 is a schematic perspective view of a tire type robot apparatus provided with a rotation detecting device as an abnormal posture detecting means.

【図20】異常姿勢検出手段として床面検出装置を備え
たタイヤ型ロボット装置の模式的な斜視図である。
FIG. 20 is a schematic perspective view of a tire-type robot device provided with a floor detecting device as an abnormal posture detecting means.

【図21】背面転倒状態からの復帰動作の状態遷移を模
式的に示す図である。
FIG. 21 is a diagram schematically illustrating a state transition of a return operation from a rear-side fall state.

【符号の説明】[Explanation of symbols]

1 ロボット装置、2 本体、3 右前足、4 左前
足、5 右後足、6 左後足、7 頭部、8 胴体部、
9 尻尾、41 加速度センサ、43 CCDカメラ、
44 マイクロホン、45 接触センサ、100 制御
部、101 メモリ
1 robot device, 2 main body, 3 right front leg, 4 left front leg, 5 right rear leg, 6 left rear leg, 7 head, 8 body,
9 tail, 41 acceleration sensor, 43 CCD camera,
44 microphone, 45 contact sensor, 100 control unit, 101 memory

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 移動手段を備えた装置本体と、 上記装置本体の姿勢を識別し、その識別情報を出力する
姿勢識別手段と、 上記姿勢識別手段の識別情報に応じて、上記移動手段を
制御する制御手段とを備えることを特徴とするロボット
装置。
1. An apparatus main body having a moving means, an attitude identifying means for identifying an attitude of the apparatus main body and outputting the identification information, and controlling the moving means in accordance with the identification information of the attitude identifying means. A robot apparatus comprising:
【請求項2】 上記移動手段が、上記制御手段により制
御される電動モータにより駆動される4本の脚部である
ことを特徴とする請求項1記載のロボット装置。
2. The robot apparatus according to claim 1, wherein said moving means is four legs driven by an electric motor controlled by said control means.
【請求項3】 上記姿勢判別手段は、自律移動可能な通
常の姿勢と自律移動不可能な姿勢とを識別することを特
徴とする請求項1記載のロボット装置。
3. The robot apparatus according to claim 1, wherein the posture discriminating means distinguishes between a normal posture capable of autonomous movement and a posture incapable of autonomous movement.
【請求項4】 上記制御手段は、上記識別結果が上記自
律移動不可能な姿勢であるとき、上記移動手段を制御し
て自律移動可能な通常の姿勢に復帰させることを特徴と
する請求項3記載のロボット装置。
4. The control device according to claim 3, wherein when the identification result indicates the posture in which the autonomous movement is not possible, the control unit controls the moving means to return to the normal posture in which the autonomous movement is possible. The robot device as described.
【請求項5】 移動手段を備えた装置本体の姿勢を識別
し、 その識別情報に応じて、上記移動手段を制御することを
特徴とするロボット装置の姿勢制御方法。
5. A posture control method for a robot device, comprising: identifying a posture of an apparatus main body including a moving unit; and controlling the moving unit according to the identification information.
JP2000382878A 1998-06-09 2000-12-15 Robot device and method for controlling attitude of it Withdrawn JP2001212785A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000382878A JP2001212785A (en) 1998-06-09 2000-12-15 Robot device and method for controlling attitude of it

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP16109198 1998-06-09
JP10-161091 1998-06-09
JP2000382878A JP2001212785A (en) 1998-06-09 2000-12-15 Robot device and method for controlling attitude of it

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP16292399A Division JP3199059B2 (en) 1998-06-09 1999-06-09 Robot apparatus and attitude control method thereof

Publications (1)

Publication Number Publication Date
JP2001212785A true JP2001212785A (en) 2001-08-07

Family

ID=26487344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000382878A Withdrawn JP2001212785A (en) 1998-06-09 2000-12-15 Robot device and method for controlling attitude of it

Country Status (1)

Country Link
JP (1) JP2001212785A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7386364B2 (en) 2002-03-15 2008-06-10 Sony Corporation Operation control device for leg-type mobile robot and operation control method, and robot device
PH12017000075A1 (en) * 2016-05-13 2019-01-21 Universal Entertainment Corp Reception device, gaming machine, and dealer replacement device
CN111246979A (en) * 2018-01-10 2020-06-05 株式会社日立制作所 Moving body
WO2020235821A1 (en) * 2019-05-23 2020-11-26 Samsung Electronics Co., Ltd. Electronic device for providing feedback corresponding to input for housing

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7386364B2 (en) 2002-03-15 2008-06-10 Sony Corporation Operation control device for leg-type mobile robot and operation control method, and robot device
PH12017000075A1 (en) * 2016-05-13 2019-01-21 Universal Entertainment Corp Reception device, gaming machine, and dealer replacement device
CN111246979A (en) * 2018-01-10 2020-06-05 株式会社日立制作所 Moving body
CN111246979B (en) * 2018-01-10 2023-08-22 株式会社日立制作所 moving body
WO2020235821A1 (en) * 2019-05-23 2020-11-26 Samsung Electronics Co., Ltd. Electronic device for providing feedback corresponding to input for housing
CN113490576A (en) * 2019-05-23 2021-10-08 三星电子株式会社 Electronic device for providing feedback corresponding to input to housing
US11445604B2 (en) 2019-05-23 2022-09-13 Samsung Electronics Co., Ltd. Electronic device for providing feedback corresponding to input for housing

Similar Documents

Publication Publication Date Title
KR100529287B1 (en) Robot and method of its attitude control
US8340823B2 (en) Controller of mobile robot
JP5114019B2 (en) Method for controlling the trajectory of an effector
JP4243309B2 (en) Robot arm control device
JP3176701B2 (en) Mobile object current position recognition processor
JP5458769B2 (en) Robot control device
US20050151496A1 (en) Two-leg walking humanoid robot
JP2007015037A (en) Motion editing device of robot, motion editing method, computer program and robot device
JP4810880B2 (en) Robot and its control method
US20200189101A1 (en) Trajectory generation system and trajectory generating method
JP4485887B2 (en) Force sensor abnormality detection device for legged mobile robot
JP2001212785A (en) Robot device and method for controlling attitude of it
JP3199059B2 (en) Robot apparatus and attitude control method thereof
JP2001225289A (en) Robot device and method of controlling its attitude
JP2569579Y2 (en) Legged mobile robot with visual sensor
JP2008093762A (en) Walking robot
WO2008066273A1 (en) Apparatus and method for detecting posture of robot
JP4504769B2 (en) Anomaly detection device for legged mobile robot
CN113892848B (en) Overturning following track planning method, device and system for overturning object
JPH1190866A (en) Editing method for operating pattern for multiped walking body
TWI701122B (en) Multi-axis robot arm system and path planning method thereof
CN111246979B (en) moving body
JPH05285868A (en) Walking control device for leg type moving robot
JP2000254879A (en) Robot path forming method and apparatus and robot control method and apparatus
JP2023117645A (en) robot control system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905