JP2002346957A - Movement trajectory control method for bipedal walking robot - Google Patents

Movement trajectory control method for bipedal walking robot

Info

Publication number
JP2002346957A
JP2002346957A JP2001151562A JP2001151562A JP2002346957A JP 2002346957 A JP2002346957 A JP 2002346957A JP 2001151562 A JP2001151562 A JP 2001151562A JP 2001151562 A JP2001151562 A JP 2001151562A JP 2002346957 A JP2002346957 A JP 2002346957A
Authority
JP
Japan
Prior art keywords
walking
trajectory
pattern
moment
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001151562A
Other languages
Japanese (ja)
Inventor
Atsuo Takanishi
淳夫 高西
Kengyoku Hayashi
憲玉 林
Yoshiharu Kaneshima
義治 金島
Shunpei Ando
俊平 安藤
Motohiro Sato
基広 佐藤
Yusuke Sugawara
雄介 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Original Assignee
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University filed Critical Waseda University
Priority to JP2001151562A priority Critical patent/JP2002346957A/en
Publication of JP2002346957A publication Critical patent/JP2002346957A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a movement trajectory control method for a bipedal walking robot that can generate a pattern in the middle of walking, generate a real-time walking pattern and realize follow-up motion after a human by clarifying a parameter with a small effect on walking in compensatory trajectory generation and remarkably shortening compensatory trajectory generating time. SOLUTION: The movement trajectory control method for a bipedal walking robot computes a moment-compensatory trajectory of each joint for a trunk region and a waist region separately, decides moment-compensatory trajectory computing algorithm considering cooperation between the trunk region and the waist region, and uses it to prepare a walking pattern on a real-time basis in the middle of walking.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術の分野】本発明は、2足歩行型ロボ
ットの動作軌道制御方法、特にロボットの補償軌道生成
において歩行に影響の少ないパラメータを設定し、動作
補償軌道生成時間を大幅に短縮することで歩行中のパタ
ーン生成を可能とし、リアルタイムな歩行パターンを生
成するようにした2足歩行型ロボットの動作軌道制御方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for controlling a motion trajectory of a bipedal walking robot, and in particular, to set a parameter having little effect on walking in generating a compensation trajectory of the robot, thereby greatly shortening a motion compensation trajectory generation time. The present invention relates to a motion trajectory control method for a bipedal walking robot that enables generation of a pattern during walking and generates a real-time walking pattern.

【0002】[0002]

【従来の技術】2足歩行型ロボット、特にヒューマノロ
ボットは、その活動の場所が主として人間の住環境に近
い場所であることから、外部環境を認識しロボット自身
が判断して次の運動を決定していくという非常に柔軟な
適応が要求される。
2. Description of the Related Art A bipedal walking robot, especially a humano robot, is mainly located near a human living environment. A very flexible adaptation of the decision is required.

【0003】近年のこの種のロボット研究、開発によれ
ば、6軸力センサを用いて人間への追従運動という形で
このような外部環境への適用運動が研究されている。こ
れは、6軸力センサからの情報を外部環境情報とし、そ
れに応じて予め作成しておいた単位パターンを順次出力
することでその環境に適応、即ち追従していくようにし
たものである。
According to recent research and development of this type of robot, a motion applied to such an external environment has been studied in the form of a motion following a human using a six-axis force sensor. In this method, information from the six-axis force sensor is used as external environment information, and unit patterns created in advance are sequentially output in accordance with the external environment information, thereby adapting to the environment, that is, following the environment.

【0004】また他の例として、日本語での簡単な会
話、2眼視による対象物の認識と歩行パターン、距離の
測定、2足歩行による移動および触覚を有する両手での
物体の把握や移動を行うことが可能な人間形知能ロボッ
トが開発され、さらに、ロボットの活動の場として芸術
活動に的を絞り、楽譜を目で認識し、両手、両足により
電子オルガンを演奏することができる鍵盤楽器演奏ロボ
ットも開発されている。このロボットは人間との簡単な
会話的やり取り、あるいは人間の歌声の音程認識を行
い、その音程に合わせたオルガンの伴奏まで行うことが
できる。
[0004] As another example, a simple conversation in Japanese, recognition of an object by two eyes and a walking pattern, measurement of distance, grasping and moving of an object with both hands having tactile movement and biped walking. A humanoid intelligent robot capable of performing an electronic organ has been developed.Furthermore, a keyboard instrument capable of focusing on artistic activities as a place for robot activities, recognizing music scores with eyes, and playing an electronic organ with both hands and feet. Performance robots have also been developed. This robot can perform simple conversational exchanges with humans, or recognize the pitch of a human singing voice, and even perform an accompaniment of an organ according to the pitch.

【0005】[0005]

【発明が解決しようとする課題】上述した6軸力センサ
からの情報を外部環境情報として、これに応じて予め作
成しておいた単位パターンを順次出力することによって
その環境に適応、追従させるヒューマノロボットは外部
環境への適応という点では画期的であるものの、予め与
えたパターンでしか運動することができず、多様な運動
の実現には膨大な量の単位パターンが必要となってしま
う。またメモリ容量の制約の問題もあり、補償軌道生成
に要する時間がかかり過ぎるということでも問題があっ
た。
A human being adapted to adapt to and follow the environment by sequentially outputting unit patterns prepared in advance in accordance with the information from the above-described six-axis force sensor as external environment information. Although robots are revolutionary in adapting to the external environment, they can only move in a predetermined pattern, and a huge amount of unit patterns are required to realize various movements . In addition, there is a problem of restriction on the memory capacity, and there is also a problem that it takes too much time to generate a compensation trajectory.

【0006】そこで本発明は、補償軌道生成において歩
行に影響の少ないパラメータを明確にし、補償軌道生成
時間を大幅に短縮でき、これによって歩行中のパターン
生成を可能にし、人への追従運動を実現できる2足歩行
型ロボットの動作軌道制御方法を提供することにある。
Therefore, the present invention clarifies parameters that have little effect on walking in generating a compensated trajectory, and can greatly reduce the time required to generate a compensated trajectory, thereby enabling pattern generation during walking and realizing a motion following a person. An object of the present invention is to provide a motion trajectory control method for a bipedal walking robot that can be performed.

【0007】[0007]

【課題を解決するための手段】本発明によれば、人間型
2足歩行型ロボットにおいて、視覚センサ及び/又は音
声入力センサからの歩行パターン変更情報を認識し、こ
の歩行パターン変更情報に従って歩行パターンをリアル
タイムで変更可能とした2足歩行型ロボットの動作軌道
制御方法が提供される。
According to the present invention, a humanoid bipedal walking robot recognizes walking pattern change information from a visual sensor and / or a voice input sensor, and follows the walking pattern change information in accordance with the walking pattern change information. And a motion trajectory control method for a bipedal walking robot, which is capable of changing in real time.

【0008】また本発明によれば、体各部の協調による
モーメント補償軌道算出アルゴリズムを用い、モーメン
ト補償量を身体の各部に分けて軌道を算出することによ
り、歩行パターンを歩行中にリアルタイムで作成する2
足歩行型ロボットの動作軌道制御方法が提供される。
Further, according to the present invention, a walking pattern is created in real time during walking by calculating a trajectory by dividing a moment compensation amount into each part of the body by using a moment compensation trajectory calculation algorithm by coordination of each body part. 2
A motion trajectory control method for a walking robot is provided.

【0009】本発明によれば、前記モーメント補償軌道
算出アルゴリズムの作成に際して体各部の制御用とパタ
ーン生成用にコンピュータを分けて行う2足歩行型ロボ
ットの動作軌道制御方法が提供される。
According to the present invention, there is provided a motion trajectory control method for a bipedal walking robot, in which a computer is separately used for controlling each body part and generating a pattern when creating the moment compensation trajectory calculation algorithm.

【0010】さらに本発明によれば、ロボット本体部
に、歩行パターン作成に必要な足先軌道の指定に用いる
視覚センサおよび/またはマイク音による音声入力セン
サを設け、前記視覚センサによりステレオ視または単眼
によるジェスチャー認識を行って足先軌道生成のための
歩幅を決定し、前記音声入力センサは予め設定したコマ
ンドにのみ反応し、かつ音声入力単語により予め単語に
関連付けて設定した歩幅を選択するようにした2足歩行
型ロボットの動作軌道制御方法が提供される。
Further, according to the present invention, the robot main body is provided with a visual sensor and / or a voice input sensor based on a microphone sound used for designating a toe trajectory necessary for creating a walking pattern, and stereo vision or monocular is provided by the visual sensor. To determine a stride for generating a toe trajectory, the voice input sensor reacts only to a preset command, and selects a preset stride in association with a word by a voice input word. And a method for controlling the motion trajectory of a bipedal walking robot.

【0011】[0011]

【発明の実施の形態】次に、本発明の好適な実施形態に
ついて図面を参照して説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, a preferred embodiment of the present invention will be described with reference to the drawings.

【0012】まず、本発明に係る腰・体幹協調型モーメ
ント補償軌道算出アルゴリズムを中心にしてその作成方
法を説明する。なお、ここでは全身運動時における2足
ヒューマノイドロボットの安全性(姿勢状態の安全性)
を力学的視点から判定するために、ZMP安定判別規範
を用いる。以下このZMPおよびZMP安定判別規範に
ついて記述する。
First, a description will be given of a method of preparing the waist / trunk cooperative moment compensation trajectory calculation algorithm according to the present invention. Here, the safety of the biped humanoid robot during the whole body movement (safety of the posture state)
Is determined from a mechanical viewpoint using a ZMP stability determination criterion. Hereinafter, the ZMP and the ZMP stability determination standard will be described.

【0013】2足ヒューマノイドロボットが全身運動中
に安定な支持状態を維持するために、必要な条件につい
て考える。2足ヒューマノイドロボットが安定な支持状
態を保てなくなる、つまり転倒するということは、足底
部と路面との接点(3点以上)が形成する支持多角形
(路面と足底接地点が形成する面積最大の凸多角形)の
或る辺または点を通る路面上の直線を軸に回転運動をし
ていると考えられる。即ち支持多角形から見て外向きの
モーメントが作用していると考えられる。逆にいえば、
図1に示す如く、支持多角形A上のすべての辺および点
まわりに外向きのモーメントが発生せず、内向きのモー
メントMのみが発生していれば、2足ヒューマノイドロ
ボットは安定な支持状態を維持できる。Fは各点に作用
する力の合力である。
Consider the conditions necessary for a biped humanoid robot to maintain a stable support state during whole body movement. The fact that the biped humanoid robot cannot maintain a stable support state, that is, falls down, means that the support polygon (the area formed by the road surface and the ground contact point formed by the contact point (3 or more points) between the sole and the road surface) It is considered that the rotational movement is about a straight line on the road surface passing through a certain side or point of the largest convex polygon). That is, it is considered that an outward moment acts as viewed from the supporting polygon. Conversely,
As shown in FIG. 1, if no outward moment is generated around all sides and points on the supporting polygon A and only an inward moment M is generated, the biped humanoid robot is in a stable supporting state. Can be maintained. F is the resultant of the forces acting on each point.

【0014】このときの2足ヒューマノイドロボットの
支持状態を考えると、足底の接地点が浮かないため、す
べての接地点において2足ヒューマノイドロボットから
路面に作用する重力および慣性力による力は路面を押す
向きであり、これらの合力が作用する点Pは足底の支持
多角形A内になければならない。この点P回りの合力に
よるモーメントは明らかにゼロであり、この点をZMP
(ゼロモーメントポイント)称する。つまりZMPとは
路面上において2足ヒューマノイドロボットの各部の重
力および慣性力によるモーメントがゼロになる点であ
る。また、「運動中のあらゆる瞬間において、ZMPが
支持多角形内に存在し、かつ2足ヒューマノイドロボッ
トから路面に作用する力が路面を押す向きであれば、2
足ヒューマノイドロボットは安定して運動を継続でき
る」といえる。これをZMP安定判別規範と称する。
Considering the state of support of the biped humanoid robot at this time, since the grounding points on the sole do not float, the force due to gravity and inertia force acting on the road surface from the biped humanoid robot at all the grounding points will cause the ground surface to fall. In the pushing direction, the point P where these resultant forces act must be within the supporting polygon A of the sole. The moment due to the resultant force around this point P is clearly zero, and this point is
(Zero moment point). In other words, ZMP is a point at which the moment due to gravity and inertial force of each part of the biped humanoid robot becomes zero on the road surface. Also, if at any moment during the movement, the ZMP exists in the supporting polygon and the force acting on the road surface from the biped humanoid robot is in the direction of pushing the road surface, then 2
A foot humanoid robot can continue to exercise stably. " This is referred to as a ZMP stability determination standard.

【0015】モーメント補償軌道算出アルゴリズムで
は、このZMP安定判別規範を2足ヒューマノイドロボ
ットの全身運動時におけるZMP上のピッチ軸およびロ
ール軸方向の歩行パターンの安定判別に用いる。また、
従来と同様に2足ヒューマノイドロボットのヨー軸回り
の運動を安定化するためにZMP上のヨー軸回りのモー
メントも補償する。
In the moment compensation trajectory calculation algorithm, this ZMP stability determination standard is used for the stability determination of the walking pattern in the pitch axis and roll axis directions on the ZMP during the whole body movement of the biped humanoid robot. Also,
As in the conventional case, the moment about the yaw axis on the ZMP is also compensated in order to stabilize the movement of the biped humanoid robot around the yaw axis.

【0016】次に、モーメント補償軌道算出アルゴリズ
ムについて説明する。
Next, the moment compensation trajectory calculation algorithm will be described.

【0017】本アルゴリズムの骨子は以下の5点からな
る。
The outline of the present algorithm consists of the following five points.

【0018】(イ)ヒューマノイドロボットのモデル化 (ロ)上記イのモデルにおけるZMP方程式の導出 (ハ)ヒューマノイドロボット近似モデル化 (ニ)近似モデルにおける被補償モーメントを腰と体幹
に配分 (ホ)上記ハの近似モデルを用いた繰り返し計算による
上記ロを満足するモーメント補償軌道の厳密解の算出 (1)ヒューマノイドロボットのモデル化について 図2はヒューマノイドロボットの各質点の座標系および
これに作用する力のベクトル表示を示す図である。まず
最初に、ヒューマノイドロボット、座標系および路面に
次の条件を設定する。
(A) Modeling of a humanoid robot (b) Derivation of the ZMP equation in the model (a) (c) Approximate modeling of a humanoid robot (d) Distributing the compensated moment in the approximate model to the waist and trunk (e) Calculation of exact solution of moment compensation trajectory that satisfies the above b by iterative calculation using approximation model of c above (1) Modeling of humanoid robot Figure 2 shows the coordinate system of each mass point of the humanoid robot and the force acting on it FIG. 5 is a diagram showing a vector display. First, the following conditions are set for the humanoid robot, the coordinate system, and the road surface.

【0019】(イ)ヒューマノイドロボットは質点の集
合によりなる(図2)。
(A) A humanoid robot is composed of a set of mass points (FIG. 2).

【0020】(ロ)路面は十分に硬く、どんな力やモー
メントが作用しても変位したり動いたりすることはな
い。
(B) The road surface is sufficiently hard and does not move or displace even if any force or moment acts.

【0021】(ハ)X軸(ヒューマノイドロボットの正
面方向に一致)およびY軸を含む平面が路面に一致し、
路面に垂直な軸をZ軸とする直交座標系O(右手系)を
図2の如く設定する。
(C) A plane including the X axis (coincident with the front direction of the humanoid robot) and the Y axis coincides with the road surface,
An orthogonal coordinate system O (right-handed system) having an axis perpendicular to the road surface as the Z axis is set as shown in FIG.

【0022】(ニ)ヒューマノイドロボットの足底と路
面との接地状況は点接地の集合とする。
(D) The contact state between the sole of the humanoid robot and the road surface is a set of point contact points.

【0023】(ホ)歩行系と路面との接地点において、
路面での回転(X,YおよびZ軸回り)に対する摩擦係
数は無視する。
(E) At the contact point between the walking system and the road surface,
The friction coefficient for rotation on the road surface (around the X, Y and Z axes) is ignored.

【0024】(ヘ)ヒューマノイドロボットが歩行する
際の推進力は、接地点における並進(XおよびY軸)方
向の滑りが生じない範囲とする。
(F) The propulsive force of the humanoid robot when walking is within a range in which translational (X and Y axis) sliding does not occur at the contact point.

【0025】(2)ZMP方程式の算出について 以上の仮定と設定のもとに絶対座標系(O−XYZ)に
おいて任意の点Pについてのモーメントの釣合い式を導
出すると、次式を得る。
(2) Calculation of ZMP Equation When a moment balance equation for an arbitrary point P in the absolute coordinate system (O-XYZ) is derived based on the above assumptions and settings, the following equation is obtained.

【0026】[0026]

【数1】 (Equation 1)

【0027】式(2.1)において、点PをZMPとす
ることで、T=0により次式のZMP方程式を得る。
In equation (2.1), by setting the point P as ZMP, the following ZMP equation is obtained from T = 0.

【0028】[0028]

【数2】 (Equation 2)

【0029】さらに、各部の相対運動を考えるために、
図2に示す2足ヒューマノイドロボットの腰部付近に固
定された運動座標系(O′−X′Y′Z′)を設定す
る。この座標系を用いてZMP方程式を表わすと次式を
得る。
Further, in order to consider the relative movement of each part,
A motion coordinate system (O'-X'Y'Z ') fixed near the waist of the biped humanoid robot shown in FIG. 2 is set. When the ZMP equation is expressed using this coordinate system, the following equation is obtained.

【0030】[0030]

【数3】 (Equation 3)

【0031】このZMP方程式を満たすように体幹部お
よび腰部の軌道を算出する。
The trajectories of the trunk and waist are calculated so as to satisfy the ZMP equation.

【0032】(3)ヒューマノイドロボットの近似モデ
ル化について 本アルゴリズムではモーメント補償軌道の近似解の算出
とその厳密モデルへの代入、そしてモーメント誤差をフ
ィードバック、蓄積する繰り返し計算によりモーメント
補償軌道の厳密解を得ている。その近似モデル化のプロ
セスは以下の通りである。
(3) Approximate Modeling of Humanoid Robot In this algorithm, an approximate solution of the moment compensation trajectory is calculated and substituted into the strict model, and the exact solution of the moment compensation trajectory is repeatedly calculated by feeding back and accumulating the moment error. It has gained. The approximate modeling process is as follows.

【0033】(a)外力は近似モデルでは考慮しない。(A) The external force is not considered in the approximate model.

【0034】(b)腰、体幹、上肢、頭部などの下肢以
外の部位は4質点近似モデルとする(図3)。
(B) Parts other than the lower limbs such as the waist, trunk, upper limbs, and head are assumed to be a four-mass point approximate model (FIG. 3).

【0035】(c)線形、非干渉化のために運動座標系
の回転は考慮しない(ただし、体幹ヨー軸に関しては線
形、非干渉化できる範囲でその一部を考慮している)。
(C) The rotation of the motion coordinate system is not taken into account for the purpose of linear and decoupling (however, a part of the trunk yaw axis is considered as long as it can be made linear and decoupling).

【0036】(d)Z軸の運動を共有しないものとして
線形、非干渉化する。
(D) Linear and decoupling are assumed as not sharing the motion of the Z axis.

【0037】まず、外力を近似モデルで考慮しないとす
ると、式(2.3)は次のようになる。
First, if the external force is not considered in the approximation model, the equation (2.3) becomes as follows.

【0038】[0038]

【数4】 (Equation 4)

【0039】上肢質点の近似モデル化は、図3に示すよ
うに、上肢の全質点を肩部に集中し、体幹部が3質点、
腰部が1質点の近似モデルとする。ここで被補償モーメ
ントとなる下肢の運動により発生するモーメントをMと
おき、4質点近似モデル化を行うと式(2.4)は次の
ようになる。
As shown in FIG. 3, the approximate modeling of the upper limb mass is performed by concentrating all masses of the upper limb on the shoulder, and the trunk having three masses.
The waist is an approximate model having one mass point. Here, when the moment generated by the movement of the lower limb, which is the moment to be compensated, is set to M, and the four-mass point approximation model is performed, the equation (2.4) becomes

【0040】[0040]

【数5】 (Equation 5)

【0041】式(2.5)は、運動座標系の回転により
発生する見かけの力の項において互いに干渉している。
したがって、これらの微分方程式を非干渉なものにする
ためには、まずその見かけの力によるモーメントが発生
しないものと仮定、つまり運動座標系が回転していない
ものとすると、式(2.5)は式(2.6)〜(2.
8)のようになる。なお、ヨー軸に関しては運動座標系
の回転が線形、非干渉化に影響しない(既知モーメント
として右辺に移項できる)項があるので、その項に関し
ては近似モデルにおいても計算を行っている。
Equation (2.5) interferes with each other in terms of apparent forces generated by rotation of the motion coordinate system.
Therefore, in order to make these differential equations non-interfering, it is first assumed that no moment is generated by the apparent force, that is, assuming that the motion coordinate system is not rotating, equation (2.5) Are the expressions (2.6) to (2.
It becomes like 8). As for the yaw axis, there is a term in which the rotation of the motion coordinate system is linear and does not affect the decoupling (the term can be transferred to the right side as a known moment), and therefore, the calculation is performed for this term also in the approximate model.

【0042】ピッチ軸;Pitch axis;

【数6】 ロール軸;(Equation 6) Roll axis;

【数7】 ヨー軸;(Equation 7) Yaw axis;

【数8】 (Equation 8)

【0043】式(2.6)〜(2.8)はZ軸方向の運
動を共有し、また下肢と体幹が回転型の関節を介して連
結していることから非線形かつ干渉な系である。そこで
ヒューマノイドロボットは、運動中、腰高さ一定、また
体幹部アーム(体幹中央質点より両肩部質点へと至るア
ーム)は水平面内を回転し、体幹質点はZ軸方向に関し
て運動しないものと仮定し、線形、非干渉化する。
Equations (2.6) to (2.8) share a movement in the Z-axis direction, and since the lower limb and the trunk are connected via a rotary joint, the equations are non-linear and interference. is there. Therefore, the humanoid robot assumes that the waist height is constant during exercise, and that the trunk arm (the arm from the trunk mid-mass point to both shoulder mass points) rotates in the horizontal plane, and that the trunk mass point does not move in the Z-axis direction. Assume, linear, decoupling.

【0044】ヨー軸アクチュエータの回転角度θy 、体
幹部アームのアームベクトルrT′の長さをRとすると
次の3式を得る。
If the rotation angle θ y of the yaw axis actuator and the length of the arm vector r T ′ of the trunk arm are R, the following three equations are obtained.

【0045】ピッチ軸;A pitch axis;

【数9】 ロール軸;(Equation 9) Roll axis;

【数10】 ヨー軸;(Equation 10) Yaw axis;

【数11】 [Equation 11]

【0046】また、式(2.9〜(2.11)におい
て、左辺の既知項を右辺に移動し、式(2.12)〜
(2.14)において右辺を改めて次式−M′=−[M
x′,My′,Mz′]Tと置き直すと、次の3式を得る。
In the equations (2.9 to (2.11)), the known term on the left side is moved to the right side, and the equations (2.12) to (2.12)
In (2.14), the right-hand side is rewritten as -M '=-[M
x ', M y', the repositioning and M z '] T, we obtain the following three equations.

【0047】ピッチ軸;Pitch axis;

【数12】 ロール軸;(Equation 12) Roll axis;

【数13】 ヨー軸;(Equation 13) Yaw axis;

【数14】 [Equation 14]

【0048】(4)腰と体幹の協調に関する関係式の導
入と近似解の算出について モーメント補償軌道xT′,xW′,yT′,yW′の近似
解を求めるために、式(2.12)〜(2.14)を用
いて解析的に近似解を得る。しかし、腰と体幹各々の
x′とy′の計4つの近似が未知であるため、式(2.
12),(2.13)の2式だけでは十分な方程式が存
在していないため、ピッチおよびロール軸に関するモー
メント補償軌道の近似解を特定できない。
(4) Introduction of Relational Expression for Coordination of Waist and Trunk and Calculation of Approximate Solution In order to obtain an approximate solution of the moment compensation trajectories x T ′, x W ′, y T ′ and y W ′, An approximate solution is analytically obtained using (2.12) to (2.14). However, since a total of four approximations of x ′ and y ′ of the waist and the trunk are unknown, Equation (2.
Since sufficient equations do not exist with only the two equations (12) and (2.13), an approximate solution of the moment compensation trajectory with respect to the pitch and the roll axis cannot be specified.

【0049】そこで本アルゴリズムでは、近似モデルに
おける被補償モーメント(つまり式(2.12),
(2.13)の右辺)を腰と体幹にそれぞれ配分するこ
とにより、式(2.15),(2.16)に示すように
未知の4つのモーメント補償近似xT′,xW′,
T′,yW′に対して4つの微分方程式をつくる。これ
により、近似解を一意に特定できるようにする。
Therefore, in the present algorithm, the compensated moment in the approximation model (that is, equation (2.12),
By distributing (right side of (2.13)) to the waist and the trunk, respectively, as shown in equations (2.15) and (2.16), four unknown moment compensation approximations x T ′ and x W ′ are obtained. ,
y T ', y W' make the four differential equations against. Thus, an approximate solution can be uniquely specified.

【0050】ピッチ軸;A pitch axis;

【数15】 ロール軸;(Equation 15) Roll axis;

【数16】 ヨー軸;(Equation 16) Yaw axis;

【数17】 [Equation 17]

【0051】ここで、式(2.15)において、M
yTRUNK′およびMyWAIST′は下肢近似およびZMP近似
から算出できるので既知関数となり、さらに定常歩行で
あるとすれば、ヒューマノイドロボットの各部質点並び
にZMPは運動座標系(O′−X′Y′Z′)に関して
周期的な相対運動をするので、MyTRUNK′およびM
yWAIST′はそれぞれ周期関数となる。したがって、式
(2.15)の左辺も同じく周期関数となる。そこで、
式(2.15)の2つの式の右辺をそれぞれフーリェ級
数に展開し、またxT′,xW′をそれぞれ係数未知のフ
ーリェ級数で表し、式(2.15)の2つの式の左辺に
それぞれ代入して各両辺のフーリェ系数を比較すること
で、xT′,xW′それぞれのフーリェ系数を求める。そ
して、これを逆フーリェ級数展開することでピッチ軸回
りのモーメント補償軌道xT′,xW′の近似解を得るこ
とができる。さらに、ロール軸回りのモーメント補償軌
道yT′,yW′も同様の方法で求める。
Here, in the equation (2.15), M
Since yTRUNK 'and MyWAIST ' can be calculated from the lower limb approximation and the ZMP approximation, they become known functions. Further, assuming steady walking, each participant of the humanoid robot and the ZMP are expressed in the motion coordinate system (O'-X'Y'Z '). ), There is a periodic relative motion, so that MyTRUNK ′ and M
yWAIST 'is a periodic function. Therefore, the left side of Expression (2.15) is also a periodic function. Therefore,
The right-hand sides of the two equations of the formula (2.15) are expanded into Fourier series, respectively, and x T ′ and x W ′ are respectively represented by the Fourier series whose coefficients are unknown, and the left-hand sides of the two equations of the equation (2.15) , And the Fourier coefficients of both sides are compared to obtain the Fourier coefficients of x T ′ and x W ′. Then, by applying an inverse Fourier series expansion to this, an approximate solution of the moment compensation trajectories x T ′ and x W ′ around the pitch axis can be obtained. Further, the moment compensation trajectories y T ′ and y W ′ about the roll axis are obtained in the same manner.

【0052】なお、本歩行制御方式では、ZMP上のヨ
ー軸回りのモーメントに関しては体幹の運動のみで補償
するものとしているので、ヨー軸のモーメント補償軌道
である体幹ヨー軸軌道θyは式(2.14)を用いてフ
ーリェ系数比較法で算出する。ただし、フーリェ系数の
中でオフセットに関する項は不定になる。これは、ピッ
チおよびロール軸軌道における重力項のように初期値を
決定する項が存在しないためである。そこで、オフセッ
ト項に関しては、定常部においてアームの振れ幅が可動
角範囲内に収まるように設定するなどの方法をとる。
[0052] In this walking control method, since respect to the yaw axis moment on the ZMP is assumed that compensates only movements of the trunk, the trunk yaw axis track theta y is moment compensation orbital yaw axis It is calculated by the Fourier coefficient comparison method using the equation (2.14). However, the term relating to the offset in the Fourier coefficient becomes indefinite. This is because there is no term that determines the initial value like the gravity term in the pitch and roll axis orbits. Therefore, with respect to the offset term, a method of setting the swing width of the arm in the steady portion to be within the movable angle range is adopted.

【0053】(5)繰り返し計算によるモーメント補償
軌道の厳密解の算出について 2足ヒューマノイドロボットのモーメント補償軌道の厳
密解を得るには、繰り返し計算手法を用いる。具体的に
は上記のように得られた近似解を厳密モデルの式である
式(2.3)に代入し、その右辺と比較することで、設
定ZMPにおけるモーメント誤差eM=[eMx,eMy
MzTを算出し、これらの誤差の符号を反転したもの
を式(2.15)〜(2.17)の右辺に蓄積し、再び
計算を実行し、モーメント誤差がある許容値eM=[e
Mx,eMy,eMzT以下になるまで繰り返し計算を行う
ことで、厳密解を得る。
(5) Calculation of Exact Solution of Moment Compensation Trajectory by Iterative Calculation In order to obtain an exact solution of the moment compensation trajectory of the biped humanoid robot, an iterative calculation method is used. Specifically, the approximate solution obtained as described above is substituted into the equation (2.3), which is an equation of the strict model, and is compared with the right side thereof, thereby obtaining a moment error e M = [e Mx , e My ,
e Mz ] T is calculated, the sign of the error is inverted and stored in the right side of the equations (2.15) to (2.17), the calculation is executed again, and the allowable value e M with the moment error is obtained. = [E
Mx , e My , e Mz ] An exact solution is obtained by repeatedly performing the calculation until it becomes T or less.

【0054】しかし、このままでは厳密解を得るのに非
常に多くの計算が必要になるため、本アルゴリズムで
は、従来のアルゴリズムと同様にn回目の繰り返し計算
に用いる蓄積したモーメント誤差En=[EMx(n),E
My(n),EMz(n)Tを、収束の規則性を利用し、その極
限値を式(2.18)を用いて推定しながら、繰り返し
計算を行うことで計算時間の短縮を図る。なお、e(n)
は、n回目の繰り返し計算の後に算出されるモーメント
誤差を示す。
However, in this state, an extremely large number of calculations are required to obtain an exact solution. Therefore, in the present algorithm, the accumulated moment error E n = [E Mx (n) , E
My (n) , E Mz (n) ] T is reduced by using the regularity of convergence and reducing the calculation time by performing the repetitive calculation while estimating the limit value using equation (2.18). Aim. Note that e (n)
Indicates a moment error calculated after the n-th repetitive calculation.

【0055】[0055]

【数18】 (Equation 18)

【0056】以上において、定常歩行における解法につ
いて述べたが、一般的な運動に関しても運動開始および
終了の姿勢が同一であれば、運動開始および終了を含む
一連の運動を1つの運動周期とし、その前後の停止姿勢
の期間を十分に長くとることで、まったく同様のアルゴ
リズムによりモーメント補償軌道を算出することができ
る。
In the above, the solution method in the steady walking has been described. However, if the postures at the start and end of the motion are the same for a general motion, a series of motions including the start and the end of the motion are defined as one motion cycle. By setting the period of the front and rear stop postures to be sufficiently long, the moment compensation trajectory can be calculated by exactly the same algorithm.

【0057】以上の2足ヒューマノイドロボットの「方
向転換可能なモーメント補償量配分型の腰・体幹協調型
モーメント補償軌道算出アルゴリズム」をフローチャー
トで表したものを図4に示す。
FIG. 4 is a flowchart showing the above-mentioned "coordinated waist / trunk moment compensation trajectory calculation algorithm of the moment compensation amount distribution type capable of changing directions" of the biped humanoid robot.

【0058】次に歩行パターンの作成について説明す
る。
Next, the creation of a walking pattern will be described.

【0059】2足ヒューマノイドロボットにおいて、全
身運動を実現する際に、2足ヒューマノイドロボットに
対して出力する各関節角度の時系列データ(ここではこ
れを歩行パターンと称する)を上述の腰と体幹の協調に
よるモーメント補償軌道算出アルゴリズムを用いて作成
する手順は以下の5つの工程からなる。
In a biped humanoid robot, when realizing the whole body movement, time series data (herein, referred to as a walking pattern) of each joint angle outputted to the biped humanoid robot is described above. The procedure created using the moment compensation trajectory calculation algorithm based on the coordination of the above includes the following five steps.

【0060】(1)足先軌道(および必要ならば手先軌
道,体幹軌道)の設定 2足ヒューマノイドロボットの足先位置と姿勢(および
手先位置と姿勢)としての時系列における代表的な点を
各座標軸方向についての位置、速度および加速度までの
連続性を考慮して、5次または6次の多項式を用いて補
間し、足先軌道パターンとする。
(1) Setting of Toe Trajectory (and Hand Trajectory, Trunk Trajectory If Necessary) Representative points in the time series as the toe position and posture (and the toe position and posture) of the biped humanoid robot are In consideration of the continuity up to the position, velocity, and acceleration in each coordinate axis direction, interpolation is performed using a fifth-order or sixth-order polynomial to obtain a toe trajectory pattern.

【0061】(2)初期設定下肢軌道の設定 上述の足先軌道を基に、まず腰部の初期設定軌道を指定
する。なお、腰部質点をモーメント補償に用いない場合
を除いて、腰部の座標は後のモーメント補償計算により
変化する。次に腰部および足先軌道を基に、逆運動学計
算により、下肢リンクの軌道を算出する。
(2) Initial setting lower limb trajectory First, an initial setting trajectory of the lower back is specified based on the above-mentioned foot trajectory. It should be noted that the coordinates of the waist are changed by the later moment compensation calculation, except when the waist mass point is not used for the moment compensation. Next, the lower limb link trajectory is calculated by inverse kinematics calculation based on the waist and the toe trajectory.

【0062】(3)設定ZMP軌道の設定 ZMPは足底が形成する安定領域内に設定する。X,Y
座標ともに安定領域のほぼ中央に設定し、最後にローパ
スフィルタに通して全体を滑らかにし、設定ZMP軌道
パターンとする。
(3) Setting of the set ZMP trajectory The ZMP is set in a stable area formed by the sole. X, Y
Both the coordinates are set almost at the center of the stable region, and finally, the whole is smoothed by passing through a low-pass filter to obtain a set ZMP orbit pattern.

【0063】(4)モーメント補償軌道の算出 まず、モーメント補償に関するパラメータを設定した
後、モーメント補償軌道計算を行い、体幹および腰部の
モーメント補償軌道を決定する。また、一般に上肢質点
位置は肩部の軌道に応じて順運動学計算により求める。
手先軌道を指定する場合においては肩部の軌道に応じて
逆運動学計算により上肢リンク軌道を算出する。
(4) Calculation of moment compensation trajectory First, parameters for moment compensation are set, then moment compensation trajectory calculation is performed, and the moment compensation trajectory of the trunk and waist is determined. In general, the upper limb mass position is determined by forward kinematics calculation according to the trajectory of the shoulder.
When specifying the hand trajectory, the upper limb link trajectory is calculated by inverse kinematics calculation according to the trajectory of the shoulder.

【0064】(5)歩行パターンの作成およびファイル
出力 以上のように求めた下肢、上肢、腰部および体幹軌道を
基に、逆運動学計算により、各関節のアクチュエータ角
度を算出する。また全関節分のアクチュエータ角度の時
系列データを持って歩行パターンとし、歩行パターンの
出力をコンマで区切られた値の表であるCSV(コンマ
セパレートバリュウ)形式で行う。
(5) Creation of Walking Pattern and File Output Based on the lower limb, upper limb, waist and trunk trajectory obtained as described above, the actuator angle of each joint is calculated by inverse kinematics calculation. A walking pattern is obtained by taking time series data of actuator angles for all joints, and the output of the walking pattern is performed in a CSV (Comma Separate Value) format which is a table of values separated by commas.

【0065】次に準リアルタイムパターン生成方式につ
いて説明する。
Next, the near real-time pattern generation method will be described.

【0066】この場合の準リアルタイムパターン生成は
基本的にはこれまで行われてきたパターン切り替えと同
様に、一歩行周期ごとに生成されるパターンから任意の
1歩を切り出し、接続することで連続したパターンを作
り出すものである。
In this case, the quasi-real-time pattern generation is basically performed by cutting an arbitrary step from a pattern generated for each walking cycle and connecting the same, similarly to the pattern switching performed so far. It creates a pattern.

【0067】まず、パターンの各状態について検討すれ
ば、腰・体幹協調型モーメント補償軌道算出アルゴリズ
ムに関して説明した方式によるパターンは図5に示すよ
うに大きく3つの状態に分けることができる。
First, considering each state of the pattern, the pattern according to the method described with respect to the waist / trunk cooperative moment compensation trajectory calculation algorithm can be broadly divided into three states as shown in FIG.

【0068】(1)静止状態 歩行開始前および歩行終了後の静止した状態である。歩
行開始前の静止状態から歩行終了後の静止状態までを1
歩行周期として補償軌道は生成される。また、補償軌道
はFFTにより求められるため、この静止相には前後最
低でも1歩分づつをとり、補償軌道を1歩行周期ごとの
周期関数とする必要がある。
(1) Stationary state This is a stationary state before the start of walking and after the end of walking. From the stationary state before the start of walking to the stationary state after the end of walking is 1
A compensation trajectory is generated as a walking cycle. Further, since the compensation trajectory is obtained by the FFT, it is necessary to take at least one step before and after the stationary phase, and make the compensation trajectory a periodic function for each walking cycle.

【0069】(2)定常状態 歩行のうち、後述する過渡状態を除いたすべての歩行は
定常状態である。
(2) Steady State Among the walks, all walks except the transient state described later are in the steady state.

【0070】(3)過渡状態 歩行開始時および歩行終了時の2歩である。これらは静
止状態と定常状態の間にあり、同一の歩幅や歩行の方向
であっても、定常とは異なる歩軌道を描く。
(3) Transient state This is two steps at the start of walking and at the end of walking. These are between the stationary state and the steady state, and draw a different step trajectory from the steady state even with the same step length and walking direction.

【0071】以上のように、一つの歩行周期は5歩未満
の場合はすべてが過渡状態のまま歩行を終了し、5歩以
上の場合は前後の2歩づつを除き、すべての歩行は定常
状態となる。連続した歩行を実現するための単位パター
ンとしては最低でも一歩の定常状態が必要であるため、
本方式では1歩行周期5歩のパターンを基本パターンと
する。
As described above, when one walking cycle is less than 5 steps, the walking is ended in a transient state, and when the number of walking steps is 5 steps or more, all walking is performed in a steady state except for two steps before and after. Becomes As a unit pattern to realize continuous walking requires at least one step of steady state,
In this method, a pattern of five steps in one walking cycle is set as a basic pattern.

【0072】準リアルタイムパターン生成の流れは以下
の手順によっている。その流れを図6に示す。
The flow of quasi-real-time pattern generation follows the following procedure. FIG. 6 shows the flow.

【0073】(1)足先軌道の指定 本方式の基となっている腰体幹協調型モーメント補償軌
道生成アルゴリズムは任意の足先軌道および腰軌道に対
して補償軌道を生成することができるため、本方式では
腰軌道は予め指定しておき、足先軌道(歩幅および方
向)を毎歩ごとに任意に指定する。
(1) Designation of Toe Trajectory The waist trunk cooperative moment compensation trajectory generation algorithm, which is the basis of this method, can generate a compensation trajectory for an arbitrary toe trajectory and waist trajectory. In this method, the waist trajectory is specified in advance, and the foot trajectory (step length and direction) is arbitrarily specified for each step.

【0074】生成する際、体幹部軌道を固定することで
歩軌道の時間軸方向への分岐を最小限にとどめられるこ
とが分かっており、本方式についても同様の方式をとる
こととする。
At the time of generation, it is known that by fixing the trunk trajectory, the trajectory of the gait trajectory in the time axis direction can be minimized, and the same method is used for this method.

【0075】(2)歩行状態の把握 本方式においては、歩行の開始から終了まですべてをリ
アルタイム生成するものとする。そこでまず、現在が静
止状態であるのか、過渡状態であるのか、定常状態であ
るのかを把握する必要がある。その補償としては、歩行
は静止→過渡→定常→過渡→静止と遷移していくことを
利用してフラグにより現在の状態を把握する。
(2) Grasp of Walking State In this method, it is assumed that everything from the start to the end of walking is generated in real time. Therefore, it is first necessary to grasp whether the current state is a stationary state, a transient state, or a steady state. As the compensation, the present state is grasped by the flag using the fact that the walking transitions from stationary to transient to stationary to transient to stationary.

【0076】(3)立脚の把握 本方式においては、定常状態が1歩であるため、定常歩
行中は片足づつのパターンしか生成することができな
い。そこで、立脚の状態に応じて歩行開始時最初に振り
出す足を変更し、左右交互に生成することで対応してい
る。
(3) Grasp of standing position In this method, since the steady state is one step, only one foot pattern can be generated during steady walking. To cope with this, the first foot to be swung at the start of walking is changed according to the state of the standing leg, and the left and right are alternately generated.

【0077】(4)パターンの生成 既に述べた腰体幹協調型モーメント補償軌道算出方式を
用いて全5歩の補償軌道を生成する。
(4) Generation of Pattern A compensated trajectory of all five steps is generated by using the waist trunk-coordinated moment compensated trajectory calculation method described above.

【0078】(5)足先軌道の保存 補償軌道を生成する際には現在のみならず、過去、未来
の足先軌道が必要である。未来については前記(1)の
足先軌道の指定で述べた時間軸方向への広がりが現在の
1歩以内であれば、適当に取ることができるため、歩幅
を0.0(m)として計算している。しかし、過去につ
いては、軌道の繋がりという面から無視することはでき
ないため、過去3歩分の足先軌道を保存、次回の計算に
当てるものとする。
(5) Preservation of Toe Trajectory When a compensated trajectory is generated, not only the present but also past and future toe trajectories are required. For the future, if the spread in the time axis direction described in the above (1) designation of the toe trajectory is within the current one step, it can be appropriately taken, so the step length is calculated as 0.0 (m). are doing. However, since the past cannot be ignored from the viewpoint of the connection of the trajectories, the toe trajectories for the past three steps are stored and used for the next calculation.

【0079】(6)パターンの出力 生成されたパターンのうち、前記(1)の足先軌道の指
定で求めた歩行状態により適切な1歩を指定、単位パタ
ーンとして出力する。
(6) Outputting a pattern Among the generated patterns, an appropriate one step is designated according to the walking state obtained by the designation of the toe trajectory in the above (1), and is output as a unit pattern.

【0080】次に、パターン生成時間の短縮について説
明する。
Next, shortening of the pattern generation time will be described.

【0081】準リアルタイムパターンの生成の基本は、
腰・体幹協調型モーメント補償軌道算出アルゴリズムに
ついて説明したアルゴリズムを用いたパターン生成を毎
歩ごとに行い、それらを連続して出力する。
The basis of generation of the near real time pattern is as follows.
Pattern generation is performed for each step using the algorithm described for the waist / trunk cooperative moment compensation trajectory calculation algorithm, and these are output continuously.

【0082】しかし、現在のパターン生成時間は1パタ
ーン当り約1.8秒を要しており、このままでは1歩当
り2.0秒程度以上の低速な歩行にしか対応することが
できない。そこで、パターン生成において指定するパラ
メータ郡の中からパターン生成時間に関係するものを取
り上げ、それらのパラメータを歩行に最低限必要な程度
にまで抑えることでパターン生成時間を短縮し、1歩
1.0秒程度の歩行にまで対応できるようにする。
However, the current pattern generation time requires about 1.8 seconds per pattern, and can cope only with low-speed walking of about 2.0 seconds or more per step as it is. Therefore, the parameters related to the pattern generation time are taken out of the parameter groups specified in the pattern generation, and the parameters are reduced to the minimum necessary for walking, thereby shortening the pattern generation time and reducing the number of steps by 1.0 step. Be able to cope with walking for about a second.

【0083】しかし、生成時間を短縮するパラメータの
ほとんどは、それを減少させることにより歩行の安定性
に影響を与えることが予測されるため、予め歩行実験を
行うことでそれらのパラメータにより歩行可能な最低限
の値を見つけるものとする。
However, since it is expected that most of the parameters for shortening the generation time will affect the stability of walking by decreasing them, it is possible to walk by these parameters by conducting a walking experiment in advance. Let's find the minimum value.

【0084】(1)全相数の削減について 設定するパラメータのうち、生成時間に関係するものと
してまず考えられるのは、全相数である。これは、前述
した腰・体幹協調型モーメント補償軌道算出アルゴリズ
ムにおいて生成する足先軌道、腰部軌道、補償軌道など
はすべて1歩行周期を全相数とした時系列データとして
扱われるため、すべての計算は全相数に対して行われる
ためである。
(1) Reducing the Number of All Phases Among the parameters to be set, the one that can be considered first as related to the generation time is the number of all phases. This is because the toe trajectory, waist trajectory, compensation trajectory, and the like generated in the above-described waist / trunk cooperative moment compensation trajectory calculation algorithm are all treated as time-series data with one walking cycle as the total number of phases. This is because the calculation is performed for all phases.

【0085】ここで、全相数を減少させる場合、どれほ
ど生成時間が変化するかをシュミレーションを行ってみ
た結果が表1に示される。
Here, when the number of all phases is reduced, the result of a simulation of how much the generation time changes is shown in Table 1.

【0086】[0086]

【表1】 [Table 1]

【0087】このように全相数の削減はほぼ比例して生
成時間の減少につながることが分かる。
Thus, it can be seen that the reduction in the number of all phases leads to a reduction in the generation time almost in proportion.

【0088】しかしながら、全相数の削減は時系列デー
タの減少そのものであるため、1歩行周期における歩
数、時間の短縮を招き、それを回避するためにはデータ
自体を粗くし、補間によってその間をまかなわなければ
ならなくなってしまう。
However, since the reduction of the number of all phases is the reduction of the time-series data itself, the number of steps and time in one walking cycle are reduced, and in order to avoid this, the data itself is coarsened, and the interval between the two is reduced by interpolation. You have to get it.

【0089】ここでは、前述した腰・体幹協調型モーメ
ント補償軌道算出アルゴリズムで述べたように全5歩の
パターンを元とするため、最低でも前後の静止相2歩を
含む7歩分を確保しなければならない。したがって、全
相数に対して確保できる1歩当りの相数は表1のように
なることが分かる。目標である1歩1.0秒の歩行を実
現するためにはパターンデータの転送時間なども考えて
1パターン当り0.5秒程度である必要があるため、こ
こでは仮に全相数を256相とし、1歩当りの相数を現
在の半分である32相とする。
Here, as described in the waist / trunk cooperative moment compensation trajectory calculation algorithm described above, since a pattern of all five steps is used as a basis, at least seven steps including two steps before and after the stationary phase are secured. Must. Therefore, it can be seen that the number of phases per step that can be secured for the total number of phases is as shown in Table 1. In order to achieve the target of walking for 1.0 second per step, it is necessary to set the total number of phases to 256 phases, since it is required to be about 0.5 seconds per pattern in consideration of the transfer time of pattern data. It is assumed that the number of phases per step is 32 phases, which is half the current number.

【0090】ここでは、与えられたパターンファイルを
指定された補間点数により直線補間して各関節に出力す
る方式をとるため、1歩当りの相数が減少するというこ
とは、それだけ6次関数により生成された時系列データ
が粗くなるということを表し、生成されたデータと実機
おいて出力されるデータの相違を生む。これは実機が予
想される軌道とは異なる軌道をとるため、歩行の安定性
に影響を与えることは必至である。
Here, since a method is employed in which a given pattern file is linearly interpolated by the designated number of interpolation points and output to each joint, the fact that the number of phases per step is reduced means that the number of phases per step is reduced by the sixth-order function. This indicates that the generated time-series data is coarse, which causes a difference between the generated data and the data output in the actual machine. Since this takes a trajectory different from the expected trajectory of the actual machine, it is inevitable that it will affect walking stability.

【0091】そこで、この1歩当りの相数が歩行にどれ
ほど影響を与えるかを、予備歩行実験により調査した。
その際のZMP軌道を図7および図8に示す。
Therefore, it was examined by a preliminary walking experiment how much the number of phases per one step affects walking.
The ZMP trajectory at that time is shown in FIGS.

【0092】ZMP軌道を見ると、全歩行周期にわたっ
て振動の様子が異なることが分かるが、それが直ぐに歩
行の不安定性に直結しているとは言いがたい。これはつ
まり、この程度の相数の減少であれば、歩行自体に与え
る影響は少ないものと考えられる。
Looking at the ZMP trajectory, it can be seen that the state of vibration is different over the entire walking cycle, but it cannot be said that this is directly linked to the instability of walking immediately. That is, if the number of phases is reduced to this extent, it is considered that the influence on walking itself is small.

【0093】(2)繰り返し計算数の減少 補償軌道は4質点近似モデルにより生成された近似を厳
密モデルに適用した場合のエラーモーメントが或る許容
値以下に収まるまで繰り返し計算を行うため、この繰り
返し数を減少させることで計算時間を短縮することがで
きる。しかし、繰り返し計算数の減少はエラーモーメン
トを増加させ、やはり実機との誤差を増大させる原因と
なる。そこで、歩行実験によりエラーモーメントの増加
が歩行に与える影響を調査した。
(2) Decrease in the number of repeated calculations The compensation trajectory is calculated repeatedly until the error moment when the approximation generated by the four-mass point approximation model is applied to the strict model falls below a certain allowable value. The calculation time can be reduced by reducing the number. However, a decrease in the number of repetitive calculations increases an error moment, which also causes an error with an actual machine. Therefore, the effect of increasing error moment on walking was investigated by walking experiments.

【0094】ここで、指定するエラーモーメントは許容
値であるため、計算回数が同一であれば、実際に発生し
ているエラーモーメントはその許容値に関係なく同一の
ものとなる。そこで、許容エラーモーメントを適当に指
定し、計算回数を任意にとることで、繰り返し計算数に
よる比較を行った。その際の許容エラーモーメントと計
算回数の対応を表2に示す。また、その時のZMP軌道
を図9および図10に示す。
Since the specified error moment is an allowable value, if the number of calculations is the same, the actually generated error moment is the same regardless of the allowable value. Therefore, the allowable error moment was appropriately specified, and the number of calculations was arbitrarily set, so that the comparison based on the number of repetitive calculations was performed. Table 2 shows the correspondence between the allowable error moment and the number of calculations at that time. 9 and 10 show the ZMP trajectory at that time.

【0095】[0095]

【表2】 [Table 2]

【0096】ZMP近似を見てみると、計算回数が4回
程度まではほとんど変わらない軌道をとっていることが
分かる。これはエラーモーメントの発生するZMP軌道
のエラーよりも、各関節の応答遅れや着地点の衝撃など
の方がはるかに大きいためと考えられる。しかし、計算
回数が3回を下回ると明らかに軌道が変化し、計算回数
が1回では歩行不能に陥ってしまう。そこで、ここで
は、許容エラーモーメントを計算回数が4回以上となる
値として0.5(Nm)に設定する。
Looking at the ZMP approximation, it can be seen that the trajectory is almost unchanged until the number of calculations is about four. This is probably because the response delay of each joint and the impact at the landing point are much larger than the ZMP trajectory error at which the error moment occurs. However, if the number of calculations is less than three, the trajectory clearly changes, and if the number of calculations is one, it becomes impossible to walk. Therefore, here, the allowable error moment is set to 0.5 (Nm) as a value at which the number of calculations is four or more.

【0097】(3)モデルにおける質点数の減少につい
て 前述した(2)の繰り返し計算数の減少について述べた
ように、4質点モデルによって生成された補償軌道は厳
密モデルに適用され、その際のエラーモーメントが或る
許容値以内に収まるまで繰り返し計算される。この際、
厳密モデルにおいては実機を多数の質点によりモデル化
し、与えられた軌道に対して各質点が発生するモーメン
トを計算、設定ZMPに対するエラーモーメントが計算
される。つまり、この厳密モデルにおけるモーメント計
算を減少させることは、補償軌道計算の短縮につなが
る。しかし、厳密モデルにおける質点数の減少はやはり
厳密モデルと実機との誤差を生む原因となりかねない。
(3) Reduction in the number of mass points in the model As described above with respect to the reduction in the number of repetitive calculations in (2), the compensation trajectory generated by the four mass point model is applied to the strict model, It is calculated repeatedly until the moment falls within a certain tolerance. On this occasion,
In the strict model, an actual machine is modeled by a number of mass points, a moment generated by each mass point with respect to a given orbit is calculated, and an error moment with respect to a set ZMP is calculated. In other words, reducing the moment calculation in this exact model leads to shortening of the compensation trajectory calculation. However, a decrease in the number of mass points in the strict model may still cause an error between the strict model and the actual machine.

【0098】現在の質点を図11に示すが、このように
現在の質点は各リンクに対して1つとは限らず、場所に
よっては複数の質点によりモデル化していることが分か
る。そこで、これを各リンク当り1つ程度に減少させる
ことで、厳密モデルにおけるモデル計算時間を短縮す
る。この際、モデルの質点の統合は基準となるリンクに
おいても各質点が発生するモデルができるだけ同一の値
となるように設定する。
FIG. 11 shows the current mass point. As described above, the current mass point is not limited to one for each link, and it can be seen that modeling is performed by a plurality of mass points depending on the location. Therefore, by reducing this to about one for each link, the model calculation time in the strict model is reduced. At this time, the integration of the mass points of the models is set so that the model in which each mass point is generated has the same value as much as possible even in the reference link.

【0099】次に、本発明に係る視覚、音声入力システ
ムについて説明する。
Next, a visual and voice input system according to the present invention will be described.

【0100】本発明の方式においては、ロボット本体部
に、歩行パターン作成に必要な足先軌道の指定に用いる
視覚センサおよび/またはマイク音による音声入力セン
サを設け、前記視覚センサによりステレオ視または単眼
によるジェスチャー認識を行って足先軌道生成のための
歩幅を決定し、前記音声入力センサは予め設定したコマ
ンドにのみ反応し、かつ音声入力単語により予め単語に
関連付けて設定した歩幅を選択するようにしている。し
たがって歩幅情報さえ与えることができれば、任意の入
力デバイスにより入力することができる。ここでは、歩
行パターン作成の際必要となる足先軌道の指定に主に視
覚センサおよびマイクによる音声入力を用いる。以下、
視覚情報入力システムと音声入力システムそれぞれにつ
いてセンサ入力と足先軌道決定の関係について説明す
る。また、これらのシステム構成を図12に示す。
In the method of the present invention, a visual sensor and / or a voice input sensor using a microphone sound is provided in the robot main body for designating a toe trajectory required for creating a walking pattern, and stereo vision or monocular is provided by the visual sensor. To determine a stride for generating a toe trajectory, the voice input sensor responds only to a command set in advance, and selects a stride set in advance in association with a word by a voice input word. ing. Therefore, as long as the stride information can be given, the input can be made with an arbitrary input device. Here, a voice input by a visual sensor and a microphone is mainly used for designating a toe trajectory necessary for creating a walking pattern. Less than,
The relationship between sensor input and toe trajectory determination for each of the visual information input system and the voice input system will be described. FIG. 12 shows the configuration of these systems.

【0101】(1)視覚情報入力システムについて 視覚情報の入力から足先軌道決定までは以下のような流
れとなる。
(1) Visual Information Input System The flow from the input of visual information to the determination of the toe trajectory is as follows.

【0102】(イ)まず、歩行開始前にトラッキングビ
ジョンの初期化および追跡点の指定を行う。追跡点の指
定はパソコンのマウスにより行うことができる。ここで
は被追従者の両手を追跡点とした。
(A) First, before the start of walking, the tracking vision is initialized and the tracking points are specified. The specification of a tracking point can be performed by using a mouse of a personal computer. Here, the follower's hands are set as tracking points.

【0103】(ロ)足先軌道生成のために視覚センサか
ら歩幅を決定する。この場合、前後、左右における追従
を行うため視覚センサによりこれら前後、左右方向を認
識する必要がある。すでに知られているように、前後方
向の認識をするには、ステレオ視を行う必要があり、本
発明に係るヒューマノイドロボットもステレオ視に対応
したシステムを搭載している。しかしながら、ここでは
簡単のためステレオ視は行わず、単眼によるジェスチャ
ー認識により前後、左右方向の追従運動を可能とする。
(B) The step length is determined from the visual sensor to generate the toe trajectory. In this case, it is necessary to recognize the front, rear, left and right directions by a visual sensor in order to follow the front, rear, left and right. As is already known, it is necessary to perform stereo vision in order to recognize the front-back direction, and the humanoid robot according to the present invention also has a system compatible with stereo vision. However, for the sake of simplicity, stereo vision is not performed here, and follow-up movement in the front-back, left-right directions is enabled by gesture recognition by a single eye.

【0104】ジェスチャー認識は、ステレオ視による追
従にも対応できるよう、単眼による疑似的ステレオ視と
することにする。
The gesture recognition is pseudo-stereoscopic viewing by a single eye so as to be able to cope with tracking by stereoscopic viewing.

【0105】これは、1つのカメラ上から2点を追跡
し、これらをそれぞれ左右のカメラにおける追跡点とみ
なし、その2点間の距離の変化に応じて前後方向への移
動量とみなすものである。
In this method, two points are tracked from one camera, and these points are regarded as tracking points of the left and right cameras, respectively, and are regarded as a movement amount in the front-back direction according to a change in the distance between the two points. is there.

【0106】まず、左右追跡点の初期値からの移動量を
計算する。
First, the amount of movement of the left and right tracking points from the initial value is calculated.

【0107】dVR=VR−VR0 dVL=VL−VL0 …… (3.1) そしてそれらの移動量の差にゲインを掛けて前後方向へ
の歩幅量とする。
DV R = V R -V R0 dV L = V L -V L0 (3.1) The difference between the movement amounts is multiplied by a gain to obtain the stride amount in the front-back direction.

【0108】 Ff=Gf(dVR−dVL) …… (3.2) Fs=Gs(dVR−dVL) …… (3.3) また、左右方向では左右追跡点の移動量の平均を取るこ
ととする。
[0108] F f = G f (dV R -dV L) ...... (3.2) F s = G s (dV R -dV L) ...... (3.3) Further, the left and right tracking point in the lateral direction The average of the movement amount is taken.

【0109】ここで、VR0,VL0;追跡点の初期値 VR,VL;追跡点の現在値 dVR,dVL;初期値と現在値の差 Ff;前後方向歩幅 Fs;左右方向歩幅 Gf;前後方向歩幅ゲイン Gs;左右方向歩幅ゲイン とする。[0109] Here, V R0, V L0; initial value V R of the tracking point, V L; current value dV R of the tracking point, dV L; the difference between the initial value and the present value F f; longitudinal direction stride F s; lateral direction stride G f; a lateral direction stride gain; longitudinal direction stride gain G s.

【0110】(ハ)決定された歩幅を用いて足先基およ
びパターンを生成する。パターン生成のタイミングは、
タイマによりマスタ側からの生成許可フラグを常に監視
し、許可が出るのをまって毎歩ごとに行う。
(C) A toe base and a pattern are generated using the determined stride length. The timing of pattern generation is
The timer constantly monitors the generation permission flag from the master side, and when the permission is issued, it is performed every step.

【0111】(2)音声入力システムについて 音声入力はテキストファイルによるグラマーコントロー
ルを使用し、予め設定したコマンド以外には反応しない
ようにする。発生された単語が認識されると、予め単語
に関連付けて設定しておいた歩幅が選択され、パターン
生成が行われる。ここでは一例として、前,後,右,
左,右旋回,左旋回,その場,および停止の8語のみを
登録しているが、グラマーコントロールのテキストファ
イルを編集し、それに対応した歩幅を設定することで、
さまざまな歩行に対応させることが可能である。この実
施例での各単語に対する歩幅を表3に示す。
(2) Voice Input System Voice input uses a grammar control using a text file, and does not respond to any command other than a preset command. When the generated word is recognized, a stride previously set in association with the word is selected, and pattern generation is performed. Here, as an example, before, after, right,
Only 8 words of left, right turn, left turn, spot and stop are registered, but by editing the grammar control text file and setting the stride corresponding to it,
It is possible to correspond to various walks. Table 3 shows the stride for each word in this embodiment.

【0112】[0112]

【表3】 [Table 3]

【0113】なお、この表でNoneとは現在の歩幅を
変更しないことを意味している。
In the table, "None" means that the current stride is not changed.

【0114】なお、以上で用いた数式の記号および表記
についての説明を表4および表5にまとめて示す。
Tables 4 and 5 collectively describe the symbols and notations of the mathematical formulas used above.

【0115】[0115]

【表4】 [Table 4]

【0116】[0116]

【表5】 [Table 5]

【0117】[0117]

【発明の効果】以上説明したように本発明によれば、ロ
ボットの補償軌道生成において歩行に影響の少ないパラ
メータを明確にし、補償軌道生成時間を大幅に短縮する
ことにより、歩行中のパターン設定が可能になり、リア
ルタイムでパターンを設定しつつ人間への追従運動を実
現できた。また、2足ヒューマノイドロボットにおい
て、関節制御用のコンピュータとパターン管理用のコン
ピュータを併設し、かつDP−RAMで接続することに
より、これまでのメモリ容量の制限にとらわれることな
く継続的な歩行を実現でき、さらにパターン管理用コン
ピュータを利用することで通常は制御周期以上に時間の
かかる処理を歩行中に行うことができる。また視覚、音
声等による足先軌道の設定も容易にできるなど種々の効
果がもたらされる。
As described above, according to the present invention, a parameter which has little effect on walking in generation of a compensating trajectory of a robot is clarified, and a time for generating a compensating trajectory is greatly reduced, so that a pattern setting during walking can be performed. It was possible, and it was possible to follow the movement of humans while setting patterns in real time. In addition, in a biped humanoid robot, a computer for joint control and a computer for pattern management are provided side by side and connected by DP-RAM to realize continuous walking without being restricted by the memory capacity limitation. In addition, by using the pattern management computer, it is possible to perform a process that normally takes more time than the control cycle during walking. In addition, various effects are provided, such as easy setting of the toe trajectory by visual or audio.

【図面の簡単な説明】[Brief description of the drawings]

【図1】安定支持状態における支持多角形上に働く合力
およびモーメントを示す図である。
FIG. 1 is a diagram showing a resultant force and a moment acting on a supporting polygon in a stable supporting state.

【図2】ヒューマノイドロボットの各質点の座標系およ
びこれに作用する力のベクトル表示を示す図である。
FIG. 2 is a diagram showing a coordinate system of each mass point of the humanoid robot and a vector display of a force acting on the coordinate system.

【図3】4質点の近似モデルを示す図である。FIG. 3 is a diagram showing an approximate model of four mass points.

【図4】2足ヒューマノイドロボットの「方向転換可能
なモーメント補償量配分型の腰・体幹協調型モーメント
補償軌道算出アルゴリズム」のフローチャートを示す図
である。
FIG. 4 is a diagram illustrating a flowchart of a “moment compensation trajectory calculation algorithm for cooperating waist and trunk with a moment compensation amount distribution type capable of changing directions” of a biped humanoid robot.

【図5】2足ヒューマノイドロボットの下肢部分の歩行
パターンを示す図である。
FIG. 5 is a view showing a walking pattern of a lower limb portion of the biped humanoid robot.

【図6】準リアルタイムパターン生成手順のフローチャ
ートを示す図である。
FIG. 6 is a diagram showing a flowchart of a near real-time pattern generation procedure.

【図7】1歩当りの相数が歩行に与える影響を説明する
ためのY−ZMP軌道を示す図である。
FIG. 7 is a diagram showing a Y-ZMP trajectory for describing an influence of the number of phases per step on walking.

【図8】1歩当りの相数が歩行に与える影響を説明する
ためのX−ZMP軌道を示す図である。
FIG. 8 is a diagram showing an X-ZMP trajectory for explaining an influence of the number of phases per step on walking.

【図9】1歩当りの相数が歩行に与える影響を説明する
ためのY−ZMP軌道を示す図である。
FIG. 9 is a diagram showing a Y-ZMP trajectory for explaining an effect of the number of phases per step on walking.

【図10】1歩当りの相数が歩行に与える影響を説明す
るためのX−ZMP軌道を示す図である。
FIG. 10 is a diagram showing an X-ZMP trajectory for explaining an influence of the number of phases per step on walking.

【図11】2足ヒューマノイドロボットの各質点の重量
配置図を示す図である。
FIG. 11 is a diagram showing a weight arrangement diagram of each mass point of the biped humanoid robot.

【図12】本発明に係るリアルタイムパターン生成のシ
ステム全体の流れを示す図である。
FIG. 12 is a diagram showing a flow of an entire system for real-time pattern generation according to the present invention.

【符号の説明】[Explanation of symbols]

X ロール軸 Y ピッチ軸 Z ヨー軸 O−XYZ X軸およびY軸を含む平面が路面に一致
し、路面に垂直な軸をZ軸として原点が路面に固定され
た絶対座標系 O′−X′Y′Z′ 原点がヒューマノイドロボットの
腰部付近に固定されている運動座標系
X Roll axis Y Pitch axis Z Yaw axis O-XYZ An absolute coordinate system O'-X 'in which a plane including the X axis and the Y axis coincides with the road surface and the origin is fixed to the road surface with the axis perpendicular to the road surface as the Z axis. Y'Z 'Motion coordinate system whose origin is fixed near the waist of the humanoid robot

───────────────────────────────────────────────────── フロントページの続き (72)発明者 安藤 俊平 東京都新宿区大久保三丁目4番1号 早稲 田大学理工学部内 (72)発明者 佐藤 基広 東京都墨田区石原4−20−3 神谷ビル 301号 (72)発明者 菅原 雄介 東京都新宿区大久保三丁目4番1号 早稲 田大学理工学部内 Fターム(参考) 3C007 AS36 CS08 KS39 KT01 LV12 WA03 WA13 WB05 WB07 WB17 WB19  ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Shunpei 3-4-1 Okubo, Shinjuku-ku, Tokyo Waseda University Faculty of Science and Technology (72) Inventor Motohiro Sato Kamiya Building 4-20-3 Ishihara, Sumida-ku, Tokyo No. 301 (72) Inventor Yusuke Sugawara 3-4-1 Okubo, Shinjuku-ku, Tokyo F-term in Waseda University Faculty of Science and Technology (reference) 3C007 AS36 CS08 KS39 KT01 LV12 WA03 WA13 WB05 WB07 WB17 WB19

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】人間型2足歩行型ロボットにおいて、視覚
センサ及び/又は音声入力センサからの歩行パターン変
更情報を認識し、この歩行パターン変更情報に従って歩
行パターンをリアルタイムで変更可能としたことを特徴
とする2足歩行型ロボットの動作軌道制御方法。
In a humanoid bipedal walking robot, walking pattern change information from a visual sensor and / or a voice input sensor is recognized, and a walking pattern can be changed in real time according to the walking pattern change information. A motion trajectory control method for a biped walking robot.
【請求項2】体各部の協調によるモーメント補償軌道算
出アルゴリズムを用い、モーメント補償量を身体の各部
に分けて軌道を算出することにより、歩行パターンを歩
行中にリアルタイムで作成することを特徴とする請求項
1記載の2足歩行型ロボットの動作軌道制御方法。
2. A walking pattern is created in real time during walking by calculating a trajectory by dividing a moment compensation amount into each part of the body by using a moment compensation trajectory calculation algorithm by coordination of body parts. The method of controlling a motion trajectory of a biped walking robot according to claim 1.
【請求項3】前記モーメント補償軌道算出アルゴリズム
の作成に際して体各部の制御用とパターン生成用にコン
ピュータを分けて行うことを特徴とする請求項2記載の
2足歩行型ロボットの動作軌道制御方法。
3. The motion trajectory control method for a bipedal walking robot according to claim 2, wherein a computer for controlling each part of the body and a computer for generating a pattern are separately performed when creating the moment compensation trajectory calculation algorithm.
【請求項4】ロボット本体部に、歩行パターン作成に必
要な足先軌道の指定に用いる視覚センサおよび/または
マイク音による音声入力センサを設け、前記視覚センサ
によりステレオ視または単眼によるジェスチャー認識を
行って足先軌道生成のための歩幅を決定し、前記音声入
力センサは予め設定したコマンドにのみ反応し、かつ音
声入力単語により予め単語に関連付けて設定した歩幅を
選択するようにしたことを特徴とする請求項1乃至3の
いずれか1項記載の2足歩行型ロボットの動作軌道制御
方法。
4. A robot sensor according to claim 1, further comprising a visual sensor used for designating a foot trajectory necessary for creating a walking pattern and / or a voice input sensor using a microphone sound. And determining a stride for toe trajectory generation, wherein the voice input sensor responds only to a preset command, and selects a preset stride in association with a word by a voice input word. The method of controlling a motion trajectory of a bipedal walking robot according to claim 1.
JP2001151562A 2001-05-21 2001-05-21 Movement trajectory control method for bipedal walking robot Pending JP2002346957A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001151562A JP2002346957A (en) 2001-05-21 2001-05-21 Movement trajectory control method for bipedal walking robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001151562A JP2002346957A (en) 2001-05-21 2001-05-21 Movement trajectory control method for bipedal walking robot

Publications (1)

Publication Number Publication Date
JP2002346957A true JP2002346957A (en) 2002-12-04

Family

ID=18996386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001151562A Pending JP2002346957A (en) 2001-05-21 2001-05-21 Movement trajectory control method for bipedal walking robot

Country Status (1)

Country Link
JP (1) JP2002346957A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004033160A1 (en) * 2002-10-10 2004-04-22 Sony Corporation Robot device operation control device and operation control method
WO2005005108A1 (en) * 2003-07-11 2005-01-20 Honda Motor Co., Ltd. Method of estimating joint moment of two-legged walking mobile body
KR100540588B1 (en) * 2002-12-27 2006-01-10 삼성중공업 주식회사 Trajectory generation method and system for real-time response at motion control
US7551978B2 (en) 2004-12-14 2009-06-23 Honda Motor Co., Ltd. System for carrying an item
CN103197671A (en) * 2012-01-04 2013-07-10 中国人民解放军第二炮兵工程学院 Humanoid robot gait planning and synthesizing method
US9221507B2 (en) 2008-06-19 2015-12-29 Samsung Electronics Co., Ltd. Robot and method of controlling walking thereof

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004033160A1 (en) * 2002-10-10 2004-04-22 Sony Corporation Robot device operation control device and operation control method
US7664569B2 (en) 2002-10-10 2010-02-16 Sony Corporation Robot device operation control device and operation control method
KR100540588B1 (en) * 2002-12-27 2006-01-10 삼성중공업 주식회사 Trajectory generation method and system for real-time response at motion control
WO2005005108A1 (en) * 2003-07-11 2005-01-20 Honda Motor Co., Ltd. Method of estimating joint moment of two-legged walking mobile body
US7698020B2 (en) 2003-07-11 2010-04-13 Honda Motor Co., Ltd. Method of estimating joint moment of two-legged walking mobile body
US7551978B2 (en) 2004-12-14 2009-06-23 Honda Motor Co., Ltd. System for carrying an item
US9221507B2 (en) 2008-06-19 2015-12-29 Samsung Electronics Co., Ltd. Robot and method of controlling walking thereof
CN103197671A (en) * 2012-01-04 2013-07-10 中国人民解放军第二炮兵工程学院 Humanoid robot gait planning and synthesizing method

Similar Documents

Publication Publication Date Title
JP5607012B2 (en) Sign language motion generation device and communication robot
JP2020108915A (en) Method and device for adjusting gravity center position of robot, robot and data storage medium
CN114571469B (en) Zero-space real-time obstacle avoidance control method and system for mechanical arm
Wang Three-dimensional kinematic analysis of influence of hand orientation and joint limits on the control of arm postures and movements
US20110128292A1 (en) Dynamics-based motion generation apparatus and method
Mu et al. Synthesis of a complete sagittal gait cycle for a five-link biped robot
JP2013000878A (en) Balance control device for robot, and control method for the same
CN106607910A (en) Robot real-time simulation method
CN114625129B (en) Motion control method and system of position control leg-foot robot
JP2011161524A (en) Bipedal walking robot and method of generating gait data for the same
JP2004030502A (en) Simulation method, simulation apparatus, and simulation program
JP2009190122A (en) Legged robot and method of controlling the same
Huang et al. Design of humanoid complicated dynamic motion based on human motion capture
Gärtner et al. Generation of human-like motion for humanoid robots based on marker-based motion capture data
CN115328186A (en) Task layering optimization-based biped robot cascade control method and device
JP2002346957A (en) Movement trajectory control method for bipedal walking robot
Flavigne et al. Reactive synthesizing of human locomotion combining nonholonomic and holonomic behaviors
KR20100082441A (en) Robot and walking control apparatus and method thereof
JP2012223864A (en) Motion data generation system and motion data generation method
JP2011194539A (en) Robot and method of controlling the same
JP2009195999A (en) Legged robot, its control method, and its control system
Itoh et al. Mechanisms and functions for a humanoid robot to express human-like emotions
JP2010000594A (en) Robot and walking control method for the same
JP2006068871A (en) Leg type robot and its control method, and apparatus and method for forming walking pattern data
Lim et al. Emotion-based biped walking