JP3555945B2 - Motion editing device and motion editing method for robot device, robot device, control method for robot device, and computer program - Google Patents

Motion editing device and motion editing method for robot device, robot device, control method for robot device, and computer program Download PDF

Info

Publication number
JP3555945B2
JP3555945B2 JP2003352954A JP2003352954A JP3555945B2 JP 3555945 B2 JP3555945 B2 JP 3555945B2 JP 2003352954 A JP2003352954 A JP 2003352954A JP 2003352954 A JP2003352954 A JP 2003352954A JP 3555945 B2 JP3555945 B2 JP 3555945B2
Authority
JP
Japan
Prior art keywords
motion
data
motion data
editing
robot device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003352954A
Other languages
Japanese (ja)
Other versions
JP2004148492A (en
Inventor
敦史 宮本
達郎 三上
仁一 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003352954A priority Critical patent/JP3555945B2/en
Publication of JP2004148492A publication Critical patent/JP2004148492A/en
Application granted granted Critical
Publication of JP3555945B2 publication Critical patent/JP3555945B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、ロボットの所定の動作パターンを記述するモーションの作成・編集を支援するためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラムに係り、特に、可動脚によりさまざまな作業を行なうロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラムに関する。   The present invention relates to a motion editing device and a motion editing method for supporting creation and editing of a motion describing a predetermined motion pattern of a robot, and a computer program, and more particularly to a robot device that performs various operations with movable legs. And a motion editing method, a robot device, a control method of a robot device, and a computer program for the same.

さらに詳しくは、本発明は、実機上での実行可能性を考慮しながら動作パターンの編集を支援するロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラムに係り、特に、実機上で動作を確認しながら編集されたモーションを修正するロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラムに関する。   More specifically, the present invention relates to a motion editing device and a motion editing method for a robot device that supports editing of an operation pattern while considering the feasibility on a real machine, a robot device, a control method of the robot device, and a computer The present invention relates to a program, and more particularly, to a motion editing device and a motion editing method for a robot device that corrects an edited motion while confirming an operation on a real machine, a robot device, a control method of the robot device, and a computer program.

電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行う機械装置のことを「ロボット」という。ロボットの語源は、スラブ語の“ROBOTA(奴隷機械)”に由来すると言われている。わが国では、ロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。   A mechanical device that performs a motion resembling a human motion using an electric or magnetic action is called a “robot”. It is said that the robot is derived from the Slavic word "ROBOTA (slave machine)". In Japan, robots began to spread from the late 1960's, but most of them were industrial robots (industrial robots) such as manipulators and transfer robots for the purpose of automation and unmanned production work in factories. Met.

最近では、ヒトやサルなどの2足直立歩行を行なう動物の身体メカニズムや動作を模した脚式移動ロボットに関する研究開発が進展し、実用化への期待も高まってきている。2足直立による脚式移動は、クローラ式や、4足又は6足式などに比し不安定で姿勢制御や歩行制御が難しくなるが、不整地や障害物など作業経路上に凹凸のある歩行面や、階段や梯子の昇降など不連続な歩行面に対応することができるなど、柔軟な移動作業を実現できるという点で優れている。   Recently, research and development on legged mobile robots that imitate the body mechanisms and movements of animals such as humans and monkeys that walk upright on two legs have been progressing, and expectations for their practical use have increased. Leg-based movement with two feet standing upright is more unstable than the crawler type, four-legged or six-legged type, and makes posture control and walking control difficult, but walking with irregularities on the work route such as uneven terrain and obstacles It is excellent in that it can realize flexible moving work, for example, it can respond to discontinuous walking surfaces such as surfaces, stairs and ladders.

また、ヒトの生体メカニズムや動作を再現した脚式移動ロボットのことを、特に、「人間形」、若しくは「人間型」のロボット(humanoid robot)と呼ぶ。人間型ロボットは、例えば、生活支援、すなわち住環境その他の日常生活上のさまざまな場面における人的活動の支援などを行なうことができる。   In addition, a legged mobile robot that reproduces a human biological mechanism or motion is particularly called a “humanoid” or “humanoid” robot. The humanoid robot can perform, for example, life support, that is, support for human activities in various situations in a living environment and other daily lives.

人間の作業空間や居住空間のほとんどは、2足直立歩行という人間が持つ身体メカニズムや行動様式に合わせて形成されおり、車輪その他の駆動装置を移動手段とした現状の機械システムが移動するのには多くの障壁が存在する。したがって、機械システムすなわちロボットがさまざまな人的作業を代行し、さらに人間の住空間に深く浸透していくためには、ロボットの移動可能範囲が人間のそれとほぼ同じであることが好ましい。これが、脚式移動ロボットの実用化が大いに期待されている所以でもある。   Most of the working space and living space of human beings are formed according to the human body mechanism and behavior style of bipedal upright walking, and the current mechanical system using wheels and other driving devices as moving means will move. There are many barriers. Therefore, in order for the mechanical system, that is, the robot, to perform various human tasks and penetrate deep into the human living space, it is preferable that the movable range of the robot is almost the same as that of a human. This is the reason why practical use of the legged mobile robot is greatly expected.

昨今の脚式移動ロボットは高い情報処理能力を備えており、ロボットそのものを一種の計算機システムとして捉えることができる。言い換えれば、ロボット上で実現される動作パターン、あるいは、複数の基本的な動作パターンの組合せによって構成される高度且つ複雑な一連の動作シーケンスすなわちモーションは、コンピュータ・プログラミングと同様の作業によって構築される。   Recent legged mobile robots have high information processing ability, and can be regarded as a kind of computer system. In other words, a motion pattern realized on the robot, or a highly complex series of motion sequences or motions constituted by a combination of a plurality of basic motion patterns is constructed by a task similar to computer programming. .

実機を動作するためのモーション・データが数多く普及されることが、ロボット本体が普及していくためには必須である。したがって、ロボット用のモーション編集を行なうための開発環境の構築が強く望まれている。   It is indispensable that a large number of motion data for operating an actual machine be widely used in order for the robot body to be widely used. Therefore, construction of a development environment for performing motion editing for a robot is strongly desired.

また、今後、産業界のみならず一般家庭や日常生活にもロボットが深く浸透していくことが予想される。とりわけ、エンターティンメント性を追求する製品に関しては、コンピュータやコンピュータ・プログラミングに加え,運動制御に関する高度な知識を持たくとも,振付師やデザイナーが,モーションコンテンツを作成できることが、強く望まれるとともに、一般消費者層がロボットを購入して使用するケースも多いと予想される。このような一般ユーザにとっても、ロボットの動作シーケンスを対話的な処理により比較的容易且つ効率的に作成・編集することを支援するためのツール、すなわちモーション編集システムを提供することが好ましい。   In the future, it is expected that robots will penetrate not only into the industrial world but also into ordinary households and everyday life. In particular, for products that pursue entertainment, it is strongly desired that choreographers and designers can create motion content even if they have advanced knowledge of motion control in addition to computers and computer programming. It is expected that there are many cases where general consumers purchase and use robots. Even for such a general user, it is preferable to provide a tool for supporting creation and editing of the operation sequence of the robot relatively easily and efficiently by interactive processing, that is, a motion editing system.

ロボットは、関節などの複数の制御点で構成されており、したがって、各制御点における位置や速度(関節角やその角速度)を入力していくことにより、機体動作を編集することができる。この点では、コンピュータ・グラフィックスにおけるキャラクタのアニメーション生成に類似する。しかしながら、仮想空間上での動作と実機動作とでは自ずと相違がある。脚式移動ロボットの場合には、単に関節角を駆動させただけでは所望の動作を実行することはできず、転倒することなく脚式作業を継続している必要がある。言い換えれば、実機上での動作を確認し、モーション実行中に機体が姿勢の安定度を維持していることが、所望動作を実現することの前提となる。   The robot is composed of a plurality of control points such as joints. Therefore, the robot operation can be edited by inputting the position and speed (joint angle and its angular speed) at each control point. In this respect, it is analogous to character animation in computer graphics. However, there is naturally a difference between the operation in the virtual space and the operation of the actual device. In the case of a legged mobile robot, a desired operation cannot be performed simply by driving the joint angle, and the legged work must be continued without falling. In other words, it is a prerequisite for realizing the desired operation that the operation on the actual device is confirmed and that the aircraft maintains the posture stability during the execution of the motion.

多くの場合、脚式移動ロボットの姿勢安定制御には、足底接地点と路面の形成する支持多角形の内側にモーメントがゼロとなる点を探索するというZMP安定度判別規範を用いる(例えば、非特許文献1を参照のこと)。2足の脚式移動ロボットの場合、この支持多角形が極めて小さいことから、姿勢安定制御はとりわけ困難とされている。   In many cases, the posture stability control of a legged mobile robot uses a ZMP stability discrimination criterion of searching for a point where the moment becomes zero inside a supporting polygon formed by a sole and a ground contact point (for example, See Non-Patent Document 1). In the case of a two-legged mobile robot, since the supporting polygon is extremely small, the posture stabilization control is particularly difficult.

機体の各制御点における指示値を画面入力してロボットのモーションを組むというモーション編集システムは既に存在するが、しかしながら、編集されたモーションで実機動作させる場合の姿勢安定性をチェックしたり、姿勢が安定化するように所望のモーションを修正したりするようなシステムは未だない。せっかく組まれたモーションでは機体の姿勢安定性を維持できず、モーション自体を実行することができないのでは、実質的にモーションを編集したことにはならない。
ヴコブラトビッチ(Miomir Vukobratovic)著「脚式移動ロボット(LEGGED LOCOMOTION ROBOTS)」(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))
There is already a motion editing system that inputs the indicated values at each control point of the aircraft on the screen and forms the motion of the robot.However, however, the posture stability when operating the actual machine with the edited motion is checked, There is no system that modifies a desired motion so as to be stabilized. In the case of a pre-assembled motion, the attitude stability of the aircraft cannot be maintained, and if the motion itself cannot be executed, the motion is not substantially edited.
"Legged Locomotion Robots" by Miomir Vukobratovic (Ichiro Kato, "Walking Robots and Artificial Feet" (Nikkan Kogyo Shimbun))

本発明の目的は、実機上での実行可能性を考慮しながら動作パターンの編集を支援することができる、優れたロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a motion editing apparatus and a motion editing method for an excellent robot apparatus, which can support the editing of a motion pattern while considering the feasibility on a real machine, a robot apparatus, and control of the robot apparatus. It is to provide a method, as well as a computer program.

本発明のさらなる目的は、実機上で動作を確認しながら編集されたモーションを修正することができる、優れたロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラムを提供することにある。   A further object of the present invention is to provide a motion editing apparatus and a motion editing method for an excellent robot apparatus, which can correct an edited motion while confirming an operation on a real machine, a robot apparatus and a control method of the robot apparatus, And to provide a computer program.

本発明は、上記課題を参酌してなされたものであり、その第1の側面は、複数の関節自由度と外界環境を計測するセンサを備えたロボット装置のためのモーション編集装置又はモーション編集方法であって、
モーション・データを入力するデータ入力部又はステップと、
モーション・データを実機上で再生するデータ再生部又はステップと、
モーション・データを再生中の前記センサからのセンサ情報を取得するセンサ情報取得部又はステップと、
該取得したセンサ情報を基にモーションを評価するモーション評価部又はステップと、
該評価結果を基にモーション・データを修正するモーション修正部又はステップと、
を具備することを特徴とするロボット装置のためのモーション編集装置又はモーション編集方法である。
The present invention has been made in view of the above problems, and a first aspect of the present invention is a motion editing apparatus or a motion editing method for a robot apparatus having a plurality of joint degrees of freedom and sensors for measuring an external environment. And
A data input unit or step for inputting motion data;
A data reproducing unit or step for reproducing motion data on an actual device;
A sensor information acquisition unit or step for acquiring sensor information from the sensor that is reproducing motion data;
A motion evaluation unit or step for evaluating a motion based on the acquired sensor information,
A motion correcting unit or step for correcting motion data based on the evaluation result;
A motion editing device or a motion editing method for a robot device, comprising:

本発明の第1の側面に係るロボット装置のためのモーション編集装置又はモーション編集方法によれば、実ロボットのセンサ情報を通信により取得することにより、実ロボットの応答を考慮したモーションを作成することができる。また、基準環境下で作成されたモーション・データを、例えば住居環境などの異なる環境下で実行したときに、実ロボットが意図した通り動作しているかどうかを判断することができる。   According to the motion editing apparatus or the motion editing method for a robot device according to the first aspect of the present invention, by acquiring sensor information of a real robot through communication, a motion considering a response of the real robot is created. Can be. Further, when the motion data created in the reference environment is executed in a different environment such as a residential environment, it can be determined whether or not the actual robot is operating as intended.

ここで、本発明の第1の側面に係るロボット装置のためのモーション編集装置又はモーション編集方法は、前記モーション評価部又はステップにおいて評価基準を満たすモーション・データに前記センサ情報取得部で取得されたセンサ情報などの参照データを付加した参照データ付きモーション・データとして出力するモーション・データ出力部又はステップをさらに備えていてもよい。   Here, in the motion editing device or the motion editing method for a robot device according to the first aspect of the present invention, the motion information satisfying an evaluation criterion in the motion evaluation unit or the step is acquired by the sensor information acquisition unit. A motion data output unit or step for outputting as motion data with reference data to which reference data such as sensor information is added may be further provided.

ここで言う参照データとは、モーション・データを実際に再生中に得られるべきセンサ情報や動作情報などで構成される。具体的には、各関節についての角度指令値に対するモーション実行時の測定値や、モーション実行時の各センサの測定値とセンサ出力をフィルタリングした後の測定値の組み合わせ、左右の各足底についての編集時の目標ZMP軌道に対するモーション実行時に安定化制御によって修正された後のZMP軌道、床反力センサの編集時の目標値に対するモーション実行時の測定値などが参照データである。   The reference data referred to here includes sensor information and operation information to be obtained during the actual reproduction of the motion data. Specifically, the measured value at the time of executing the motion for the angle command value for each joint, the combination of the measured value of each sensor at the time of executing the motion and the measured value after filtering the sensor output, the left and right soles The reference data includes the ZMP trajectory corrected by the stabilization control at the time of executing the motion with respect to the target ZMP trajectory at the time of editing, the measured value at the time of executing the motion with respect to the target value at the time of editing the floor reaction force sensor, and the like.

モーション・データが記述するロボットの動作自体が同じであっても、外部環境又は作業環境に応じて各センサ出力は相違する。例えば、同じ歩行パターンであっても、坂道のとき、あるいは路面が動いてしまう砂利の上や毛足の長い絨毯の上とでは、センサの出力値は異なる。モーション・データが参照データを埋め込むことにより、特定の作業環境下(あるいはロボットの利用形態)に応じたモーション・データを記述することができる、という利点がある。   Even if the motion of the robot described by the motion data is the same, the output of each sensor differs depending on the external environment or the work environment. For example, even if the walking pattern is the same, the output value of the sensor is different on a slope, on a gravel on which the road surface moves, or on a carpet with long hairs. By embedding the reference data in the motion data, there is an advantage that motion data corresponding to a specific working environment (or a robot use form) can be described.

前記モーション・データ出力部又はステップは、各関節についての角度指令値とモーション実行時の測定値の組み合わせで構成される関節角情報、各センサについてのモーション編集時の目標値とモーション実行時の測定値とセンサ出力をフィルタリングした後の測定値の組み合わせで構成される姿勢情報、左右の各足底についての編集時の目標ZMP軌道とモーション実行時に安定化制御によって修正された後のZMP軌道の組み合わせで構成されるZMP軌道情報、床反力センサの編集時の目標値とモーション実行時の測定値の組み合わせで構成される足底接地情報及び/又は接触情報などを、参照データ付きモーション・データとして出力するようにしてもよい。   The motion data output unit or step includes: joint angle information composed of a combination of an angle command value for each joint and a measurement value at the time of motion execution; a target value at the time of motion editing for each sensor; and a measurement at the time of motion execution. Posture information consisting of a combination of values and sensor values after filtering the sensor output, a combination of the target ZMP trajectory when editing the left and right soles and the ZMP trajectory corrected by the stabilization control when executing the motion Trajectory information and / or contact information composed of a combination of a ZMP trajectory information consisting of a target value at the time of editing the floor reaction force sensor and a measurement value at the time of executing a motion as motion data with reference data. You may make it output.

また、前記モーション評価部又はステップは、実ロボット上で実行したときの追従性を時系列又は周波数領域で評価するようにしてもよい。周波数領域で評価する場合、例えば機械系の固有振動数を取り除くなど、周波数固有の帯域を限定的に取り扱うことができる、という利点がある。   Further, the motion evaluation unit or the step may evaluate the followability when executed on a real robot in a time series or a frequency domain. When the evaluation is performed in the frequency domain, there is an advantage that a frequency-specific band can be limitedly handled, for example, by removing a natural frequency of a mechanical system.

また、前記モーション評価部又はステップは、実ロボットで実行したときのアクチュエータ・トルク値と回転数を時系列で取得し、取得したデータをアクチュエータの特性を示すNT曲線と比較し、アクチュエータの限界トルク又は限界回転数を超えている動作がないかを評価するようにしてもよい。   Further, the motion evaluation unit or the step obtains the actuator torque value and the number of rotations when executed by the real robot in a time series, compares the obtained data with an NT curve indicating the characteristics of the actuator, and determines the limit torque of the actuator. Alternatively, it may be evaluated whether there is an operation exceeding the limit rotation speed.

また、前記モーション評価部又はステップは、モーション編集時に計画した姿勢センサ値やZMP軌道と、実ロボットで実行したときセンサ値やZMP軌道との偏差を算出して、姿勢を評価するようにしてもよい。   Further, the motion evaluation unit or the step may calculate a deviation between a posture sensor value or a ZMP trajectory planned at the time of motion editing and a sensor value or a ZMP trajectory when executed by a real robot, and evaluate the posture. Good.

また、前記モーション評価部又はステップは、モーション編集時の姿勢と実ロボット上でモーションを実行したときの測定値との偏差を計算して、接地及び/又は接触の評価を行なうようにしてもよい。   Further, the motion evaluation unit or the step may calculate a deviation between a posture at the time of editing the motion and a measured value when the motion is executed on the real robot, and may evaluate the contact with the ground and / or the contact. .

また、前記モーション評価部又はステップは、前回以前の評価によって修正されたモーションに対して、測定値の改善度を算出し、補正達成度の評価を行なうようにしてもよい。   Further, the motion evaluation unit or the step may calculate the degree of improvement of the measured value for the motion corrected by the previous evaluation and evaluate the degree of achievement of the correction.

また、前記モーション評価部又はステップは、衝撃によるアクチュエータ・トルクやZMP偏差・加速度の影響を算出し、外部接触による衝撃の評価を行なうようにしてもよい。   Further, the motion evaluation unit or the step may calculate the influence of the actuator torque, the ZMP deviation and the acceleration due to the impact, and evaluate the impact due to the external contact.

また、前記モーション修正部又はステップは、アクチュエータ応答性評価結果に基づいて、アクチュエータへの角度指示値を修正し、及び/又は、アクチュエータの制御パラメータを修正するようにしてもよい。   Further, the motion correction unit or the step may correct an angle instruction value to the actuator and / or correct a control parameter of the actuator based on the actuator responsiveness evaluation result.

また、前記モーション修正部又はステップは、アクチュエータ・トルクの評価結果に基づいて、姿勢安定化処理によりモーション・データを修正するようにしてもよい。   Further, the motion correction unit or the step may correct the motion data by a posture stabilization process based on the evaluation result of the actuator torque.

また、前記モーション修正部又はステップは、接地及び/又は接触の評価結果に基づいて、姿勢安定化処理によりモーション・データを修正するようにしてもよい。   Further, the motion correcting section or the step may correct the motion data by a posture stabilizing process based on the evaluation result of the touchdown and / or the contact.

また、前記モーション修正部又はステップは、外部接触による衝撃の評価結果に基づいて、外部接触を考慮した姿勢安定化処理によりモーション・データを修正するようにしてもよい。   Further, the motion correction unit or the step may correct the motion data by a posture stabilization process in consideration of the external contact, based on the evaluation result of the impact due to the external contact.

また、前記データ再生部又はステップは、モーション・データの任意の範囲のみを取り出して実機上で再生するようにしてもよい。   Further, the data reproducing unit or step may extract only an arbitrary range of the motion data and reproduce the motion data on an actual device.

モーション・データを実機上で再生する際、モーション・データの任意の範囲のみを取り出して実機上で再生することにより、モーション編集作業の効率化を図ることができる。   When the motion data is reproduced on the actual device, only an arbitrary range of the motion data is extracted and reproduced on the actual device, so that the efficiency of the motion editing work can be improved.

この場合、前記データ再生部又はステップは、モーション・データ中の開始時刻を設定し、該開始時刻における動的姿勢を計算し、該開始時刻の動的姿勢を終点とする過渡モーションを生成し、該過渡モーションを用いて実機上でのモーションの再生を行なうとともに、モーション・データ中の停止時刻を設定し、該停止時刻における動的姿勢を計算し、該停止姿勢を始点とする過渡モーションを生成し、該過渡モーションを用いて実機の動作を停止させるようにすればよい。   In this case, the data reproducing unit or the step sets a start time in the motion data, calculates a dynamic posture at the start time, generates a transient motion having the dynamic posture at the start time as an end point, A motion is reproduced on a real machine using the transient motion, a stop time in the motion data is set, a dynamic posture at the stop time is calculated, and a transient motion starting from the stop posture is generated. Then, the operation of the actual machine may be stopped using the transient motion.

モーションは、2以上のポーズの時系列的な組み合わせで構成されるが、加速度を積極的且つ継続的に用いたダイナミックなモーション(継続的動的運動)を実行する場合、そのモーションを途中から実行し、評価を行なうことは不可能である。そこで、本発明では、そのような継続的動的運動を任意の時刻からの再生・停止を可能とすることで、モーションの評価に要する時間を極めて短縮するようにした。   A motion is composed of a chronological combination of two or more poses. When a dynamic motion (continuous dynamic motion) using acceleration positively and continuously is executed, the motion is executed from the middle. However, it is impossible to make an evaluation. Therefore, in the present invention, such continuous dynamic motion can be reproduced and stopped from an arbitrary time, so that the time required for motion evaluation is extremely reduced.

また、本発明の第2の側面は、複数の関節自由度を備えたロボット装置であって、
前記の各関節を含んだ装置動作を記述したモーション・データを入力するデータ入力部と、
モーション・データを実機上で再生する動作制御部と、
モーション・データを再生中の前記センサからのセンサ情報を取得するセンサ情報取得部を備え、
前記データ入力部は、モーション・データの入力時に、モーション・データを実行したときに前記センサ情報取得部から得られるべきセンサ情報又は前記動作制御部から得られるべき動作情報を含んだ参照データを併せて取得し、
前記動作制御部は、参照データに記述されているセンサ情報又は動作情報と、モーション・データを実際に再生中に前記センサ情報取得部から得られるセンサ情報又は前記動作制御部から得られる動作情報とを比較し、該比較結果に基づいてモーション・データの再生を継続可能か否かを判別する、
ことを特徴とするロボット装置である。
According to a second aspect of the present invention, there is provided a robot apparatus having a plurality of degrees of freedom of joints,
A data input unit for inputting motion data describing the device operation including each of the joints,
An operation control unit for reproducing motion data on a real machine,
A sensor information acquisition unit that acquires sensor information from the sensor that is reproducing motion data,
The data input unit, when inputting the motion data, combines the sensor data to be obtained from the sensor information acquisition unit or the reference data including the operation information to be obtained from the operation control unit when executing the motion data. Get
The operation control unit, the sensor information or the operation information described in the reference data, the sensor information obtained from the sensor information acquisition unit during the actual reproduction of the motion data or the operation information obtained from the operation control unit, And determines whether or not the reproduction of the motion data can be continued based on the comparison result.
A robot apparatus characterized in that:

モーション・データが記述するロボットの動作自体が同じであっても、外部環境又は作業環境に応じて各センサ出力は相違する。例えば、同じ歩行パターンであっても、坂道のとき、あるいは路面が動いてしまう砂利の上や毛足の長い絨毯の上とでは、センサの出力値は異なる。モーション・データが参照データを埋め込むことにより、特定の作業環境下(あるいはロボットの利用形態)に応じたモーション・データを記述することができる、という利点がある。   Even if the motion of the robot described by the motion data is the same, the output of each sensor differs depending on the external environment or the work environment. For example, even if the walking pattern is the same, the output value of the sensor is different on a slope, on a gravel on which the road surface moves, or on a carpet with long hairs. By embedding the reference data in the motion data, there is an advantage that motion data corresponding to a specific working environment (or a robot use form) can be described.

本発明の第2の側面に係るロボット装置によれば、モーション・データに含まれている参照データに、標準的な環境以外の異なった路面環境など複数の外部環境におけるさまざまな参照データが含まれている場合、それぞれの参照データとモーション・データ再生時の実測データとの偏差を比較することで、現在の外部環境を推定することができる。また、外部環境を推定した後、外部環境に応じてモーション・データの再生をこのまま継続することが可能か否かを判断することができる。
従来は、モーション・データの実行により機体が不安定となった時点で転倒やその他の異常事態の適応処理を起動するより他なかったが、本発明によれば、不安定になる前にモーション再生を停止させることができるとともに、環境の推定により環境に対し適切なモーションを適応的に再生することができる。
According to the robot apparatus according to the second aspect of the present invention, the reference data included in the motion data includes various reference data in a plurality of external environments such as different road environments other than the standard environment. In this case, the current external environment can be estimated by comparing the deviation between each reference data and the actual measurement data at the time of reproducing the motion data. Further, after estimating the external environment, it is possible to determine whether or not the reproduction of the motion data can be continued as it is according to the external environment.
In the past, when the aircraft became unstable due to the execution of motion data, there was no alternative but to start adaptation processing for falls and other abnormal situations. Can be stopped, and a motion appropriate for the environment can be reproduced adaptively by estimating the environment.

また、本発明の第3の側面は、複数の関節自由度と外界環境を計測するセンサを備えたロボット装置のためのモーション編集処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、
モーション・データを入力するデータ入力ステップと、
モーション・データを実機上で再生するデータ再生ステップと、
モーション・データを再生中の前記センサからのセンサ情報を取得するセンサ情報取得ステップと、
該取得したセンサ情報を基にモーションを評価するモーション評価ステップと、
該評価結果を基にモーション・データを修正するモーション修正ステップと、
を具備することを特徴とするコンピュータ・プログラムである。
According to a third aspect of the present invention, a motion editing process for a robot apparatus having a plurality of joint degrees of freedom and a sensor for measuring an external environment is described in a computer-readable format so as to be executed on a computer system. Computer program,
A data input step for inputting motion data;
A data playback step for playing back the motion data on a real machine;
A sensor information acquisition step of acquiring sensor information from the sensor that is reproducing motion data;
A motion evaluation step of evaluating a motion based on the acquired sensor information;
A motion correction step of correcting motion data based on the evaluation result;
A computer program characterized by comprising:

本発明の第3の側面に係るコンピュータ・プログラムは、コンピュータ・システム上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第3の側面に係るコンピュータ・プログラムをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係る脚式移動ロボットのためのモーション編集装置又はモーション編集方法と同様の作用効果を得ることができる。   A computer program according to a third aspect of the present invention defines a computer program described in a computer-readable format so as to realize a predetermined process on a computer system. In other words, by installing the computer program according to the third aspect of the present invention into a computer system, a cooperative action is exerted on the computer system, and the leg type according to the first aspect of the present invention is provided. The same operation and effect as those of the motion editing device or the motion editing method for the mobile robot can be obtained.

本発明によれば、実機上での実行可能性を考慮しながら動作パターンの編集を支援するロボット装置のための優れたロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to the present invention, a motion editing apparatus and a motion editing method for an excellent robot apparatus for a robot apparatus which supports editing of a motion pattern while considering the feasibility on a real machine, a robot apparatus and a robot apparatus A control method and a computer program can be provided.

また、本発明によれば、実機上で動作を確認しながら編集されたモーションを修正することができる、優れたロボット装置のためのモーション編集装置及びモーション編集方法、ロボット装置及びロボット装置の制御方法、並びにコンピュータ・プログラムを提供することができる。   Further, according to the present invention, a motion editing apparatus and a motion editing method for an excellent robot apparatus, which can correct an edited motion while confirming an operation on a real machine, a robot apparatus and a control method of the robot apparatus , As well as computer programs.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。   Further objects, features, and advantages of the present invention will become apparent from more detailed descriptions based on embodiments of the present invention described below and the accompanying drawings.

以下、図面を参照しながら本発明の実施形態について詳解する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

A.脚式移動ロボットの機械的構成
図1及び図2には、本発明に係るモーション編集システムによるモーション編集の対象となる脚式移動ロボット100の外観構成を示している。この脚式移動ロボット100は、「人間形」又は「人間型」と呼ばれ、図示の通り、脚式移動ロボット100は、胴体部と、頭部と、左右の上肢部と、脚式移動を行う左右2足の下肢部とで構成され、例えば胴体に内蔵されている制御部(図示しない)により機体の動作を統括的にコントロールするようになっている。
A. Mechanical Configuration of Legged Mobile Robot FIGS. 1 and 2 show the external configuration of a legged mobile robot 100 to be subjected to motion editing by the motion editing system according to the present invention. The legged mobile robot 100 is called a “humanoid” or a “humanoid”. As shown, the legged mobile robot 100 performs a torso, a head, left and right upper limbs, and a legged movement. The left and right legs are configured to perform the operation of the fuselage by a control unit (not shown) built in the fuselage, for example.

左右各々の下肢は、大腿部と、膝関節と、脛部と、足首と、足平とで構成され、股関節によって体幹部の略最下端にて連結されている。また、左右各々の上肢は、上腕と、肘関節と、前腕とで構成され、肩関節によって体幹部の上方の左右各側縁にて連結されている。また、頭部は、首関節によって体幹部の略最上端中央に連結されている。   Each of the left and right lower limbs includes a thigh, a knee joint, a shin, an ankle, and a foot, and is connected at a substantially lowermost end of the trunk by a hip joint. Each of the left and right upper limbs is composed of an upper arm, an elbow joint, and a forearm, and is connected at the left and right side edges above the trunk by a shoulder joint. The head is connected to the center of the uppermost end of the trunk by a neck joint.

制御部は、この脚式移動ロボット100を構成する各関節アクチュエータの駆動制御や各センサ(後述)などからの外部入力を処理するコントローラ(主制御部)や、電源回路その他の周辺機器類を搭載した筐体である。制御部は、その他、遠隔操作用の通信インターフェースや通信装置を含んでいてもよい。   The control unit includes a controller (main control unit) that processes drive control of each joint actuator constituting the legged mobile robot 100 and processes an external input from each sensor (described later) and a power supply circuit and other peripheral devices. It is the case which did. The control unit may include a communication interface and a communication device for remote control.

このように構成された脚式移動ロボット100は、制御部による全身協調的な動作制御により、2足歩行を実現することができる。かかる2足歩行は、一般に、以下に示す各動作期間に分割される歩行周期を繰り返すことによって行なわれる。すなわち、   The legged mobile robot 100 configured as described above can realize bipedal walking by controlling the whole body cooperatively by the control unit. Such bipedal walking is generally performed by repeating a walking cycle divided into the following operation periods. That is,

(1)右脚を持ち上げた、左脚による単脚支持期
(2)右足が接地した両脚支持期
(3)左脚を持ち上げた、右脚による単脚支持期
(4)左足が接地した両脚支持期
(1) Right leg lifted, left leg supports single leg (2) Right leg touches both legs support period (3) Left leg lifts, right leg supports single leg period (4) Left leg touches left leg Support period

脚式移動ロボット100における歩行制御は、あらかじめ下肢の目標軌道を計画し、上記の各期間においてさまざまな計画軌道に対して修正を行なうことによって実現される。   The walking control in the legged mobile robot 100 is realized by planning the target trajectory of the lower limb in advance and correcting various planned trajectories in each of the above periods.

歩行動作の軌道修正を始めとして、機体の姿勢安定制御には、一般に、ZMPに対する偏差を小さくするための位置、速度、及び加速度が連続となるように、5次多項式を用いた補間計算により行なう。ZMP(Zero Moment Point)を歩行の安定度判別の規範として用いている。   In general, the attitude stabilization control of the fuselage, including the correction of the trajectory of the walking motion, is performed by interpolation calculation using a fifth-order polynomial so that the position, velocity, and acceleration for reducing the deviation from ZMP are continuous. . ZMP (Zero Moment Point) is used as a criterion for determining walking stability.

ZMPによる安定度判別規範は、歩行系から路面には重力と慣性力、並びにこれらのモーメントが路面から歩行系への反作用としての床反力並びに床反力モーメントとバランスするという「ダランベールの原理」に基づく。力学的推論の帰結として、足底接地点と路面の形成する支持多角形(すなわちZMP安定領域)の内側にピッチ軸及びロール軸モーメントがゼロとなる点、すなわちZMPが存在する。   The stability discrimination standard based on ZMP is based on the principle of “Dallambert” that gravity and inertia force from the walking system to the road surface and these moments balance the floor reaction force and the floor reaction force moment as a reaction from the road surface to the walking system. based on. As a consequence of the mechanical inference, there is a point where the pitch axis and roll axis moments become zero, that is, ZMP, inside the support polygon (that is, the ZMP stable area) formed by the sole and the road surface.

図3には、本発明の実施に供される脚式移動ロボット100の自由度構成を模式的に示している。   FIG. 3 schematically shows a degree of freedom configuration of the legged mobile robot 100 used in the embodiment of the present invention.

同図に示すように、本ロボットは、機体に四肢が取り付けられ、肩関節ピッチ軸、肩関節ロール軸、上腕ヨー軸、肘関節ピッチ軸、前腕ヨー軸、手首ロール軸、手首ピッチ軸という7自由度からなる左右の腕部と、股関節ヨー軸、股関節ロール軸、股関節ピッチ軸、膝ピッチ軸、足首ピッチ軸、足首ロール軸という6自由度からなる左右の脚部で構成されている。   As shown in the figure, the robot has limbs attached to the body, and has a shoulder joint pitch axis, shoulder joint roll axis, upper arm yaw axis, elbow joint pitch axis, forearm yaw axis, wrist roll axis, and wrist pitch axis. It has left and right arms with degrees of freedom, and left and right legs with six degrees of freedom: hip joint yaw axis, hip joint roll axis, hip joint pitch axis, knee pitch axis, ankle pitch axis, and ankle roll axis.

これらの各関節自由度は、実際にはアクチュエータ・モータにより実現される。本実施形態では、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニットに内蔵したタイプの小型ACサーボ・アクチュエータを搭載する。なお、この種のACサーボ・アクチュエータに関しては、例えば本出願人に既に譲渡されている特開2000−299970号公報(特願平11−33386号明細書)に開示されている。   These joint degrees of freedom are actually realized by an actuator / motor. In the present embodiment, a small AC servo actuator of a type directly connected to a gear and of a type in which a servo control system is integrated into a single motor and mounted in a motor unit is mounted. This type of AC servo actuator is disclosed, for example, in Japanese Patent Application Laid-Open No. 2000-299970 (Japanese Patent Application No. 11-33386) which has already been assigned to the present applicant.

機体には、加速度センサA1及びジャイロG1が搭載されている。また、左右の足底四隅には、足底面垂直方向の床反力を検出する1軸ロードセル(F1〜F8)と、床面までの距離を測定する赤外線測距センサ(D1〜D8)がそれぞれ4つ取り付けられている。また、左右の足底中央部には、それぞれ加速度センサ(A2,A3)及びジャイロ(G2,G3)が取り付けられている。   The body is equipped with an acceleration sensor A1 and a gyro G1. At the four corners of the left and right soles, a uniaxial load cell (F1 to F8) for detecting a floor reaction force in a vertical direction of the sole and an infrared distance measuring sensor (D1 to D8) for measuring a distance to the floor are respectively provided. Four are attached. Further, an acceleration sensor (A2, A3) and a gyro (G2, G3) are attached to the center of the left and right soles, respectively.

なお、図面の錯綜を防止するために、図3では省略しているが、頭部ユニットは、胴体に対して、首関節ヨー軸、第1及び第2の首関節ピッチ軸、首関節ロール軸の各軸回りの関節自由度を備えている。また、体幹部には、体幹ロール軸及び体格ピッチ軸の各軸回りの関節自由度を備えている。   Although not shown in FIG. 3 in order to prevent the drawings from being complicated, the head unit is moved relative to the torso with respect to the neck joint yaw axis, the first and second neck joint pitch axes, and the neck joint roll axis. The degree of freedom of the joint around each axis is provided. In addition, the trunk has joint degrees of freedom around each of the trunk roll axis and the physique pitch axis.

B.脚式移動ロボットの制御システム構成
図4には、脚式移動ロボット100の制御システム構成を模式的に示している。同図に示すように、脚式移動ロボット100は、ヒトの四肢を表現した各機構ユニット30、40、50R/L、60R/Lと、各機構ユニット間の協調動作を実現するための適応制御を行なう制御ユニット80とで構成される(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下同様)。
B. Control System Configuration of Legged Mobile Robot FIG. 4 schematically shows a control system configuration of the legged mobile robot 100. As shown in the figure, the legged mobile robot 100 has mechanism units 30, 40, 50R / L and 60R / L representing human limbs and adaptive control for realizing a cooperative operation between the mechanism units. (Where R and L are suffixes indicating right and left, respectively. The same applies hereinafter).

脚式移動ロボット100全体の動作は、制御ユニット80によって統括的に制御される。制御ユニット80は、CPU(Central Processing Unit)やメモリなどの主要回路コンポーネント(図示しない)で構成される主制御部81と、電源回路やロボット100の各構成要素とのデータやコマンドの授受を行なうインターフェース(いずれも図示しない)などを含んだ周辺回路82とで構成される。   The operation of the entire legged mobile robot 100 is totally controlled by the control unit 80. The control unit 80 transmits and receives data and commands to and from a main control unit 81 composed of main circuit components (not shown) such as a CPU (Central Processing Unit) and a memory, and a power supply circuit and each component of the robot 100. A peripheral circuit 82 including an interface (both not shown) is provided.

本発明を実現する上で、この制御ユニット80の設置場所は特に限定されない。図4では体幹部ユニット40に搭載されているが、頭部ユニット30に搭載してもよい。あるいは、脚式移動ロボット100外に制御ユニット80を配備して、脚式移動ロボット100の機体とは有線若しくは無線で交信するようにしてもよい。   In realizing the present invention, the installation location of the control unit 80 is not particularly limited. In FIG. 4, it is mounted on the trunk unit 40, but may be mounted on the head unit 30. Alternatively, the control unit 80 may be provided outside the legged mobile robot 100 to communicate with the body of the legged mobile robot 100 by wire or wirelessly.

図3に示した脚式移動ロボット100内の各関節自由度は、それぞれに対応するアクチュエータ・モータMによって実現される。すなわち、頭部ユニット30には、首関節ヨー軸、第1及び第2の首関節ピッチ軸、首関節ロール軸の各々を表現する首関節ヨー軸アクチュエータM1、首関節ピッチ軸アクチュエータM2A及びM2B、首関節ロール軸アクチュエータM3が配設されている。 Each joint degree of freedom in the legged mobile robot 100 shown in FIG. 3 is realized by the corresponding actuator motor M. That is, the head unit 30 includes a neck joint yaw axis actuator M 1 , a neck joint pitch axis actuator M 2A that expresses each of a neck joint yaw axis, first and second neck joint pitch axes, and a neck joint roll axis. M 2B and a neck joint roll axis actuator M 3 are provided.

また、体幹部ユニット40には、体幹ピッチ軸、体幹ロール軸の各々を表現する体幹ピッチ軸アクチュエータM11、体幹ロール軸アクチュエータM12が配備されている。 Further, the trunk unit 40 is provided with a trunk pitch axis actuator M 11 and a trunk roll axis actuator M 12 that represent each of a trunk pitch axis and a trunk roll axis.

また、腕部ユニット50R/Lは、上腕ユニット51R/Lと、肘関節ユニット52R/Lと、前腕ユニット53R/Lに細分化されるが、肩関節ピッチ軸、肩関節ロール軸、上腕ヨー軸、肘関節ピッチ軸、肘関節ヨー軸、手首ロール軸、手首関節ピッチ軸の各々を表現する肩関節ピッチ軸アクチュエータM4、肩関節ロール軸アクチュエータM5、上腕ヨー軸アクチュエータM6、肘関節ピッチ軸アクチュエータM7、肘関節ヨー軸アクチュエータM8、手首関節ロール軸アクチュエータM9、手首関節ピッチ軸アクチュエータM10がそれぞれ配備されている。 The arm unit 50R / L is subdivided into an upper arm unit 51R / L, an elbow joint unit 52R / L, and a forearm unit 53R / L. The shoulder joint pitch axis, shoulder joint roll axis, and upper arm yaw axis , The shoulder pitch axis actuator M 4 , the shoulder roll axis actuator M 5 , the upper arm yaw axis actuator M 6 , and the elbow joint pitch that represent each of the elbow joint pitch axis, the elbow joint yaw axis, the wrist roll axis, and the wrist joint pitch axis An axis actuator M 7 , an elbow joint yaw axis actuator M 8 , a wrist joint roll axis actuator M 9 , and a wrist joint pitch axis actuator M 10 are provided.

また、脚部ユニット60R/Lは、大腿部ユニット61R/Lと、膝ユニット62R/Lと、脛部ユニット63R/Lに細分化されるが、股関節ヨー軸、股関節ピッチ軸、股関節ロール軸、膝関節ピッチ軸、足首関節ピッチ軸、足首関節ロール軸の各々を表現する股関節ヨー軸アクチュエータM13、股関節ピッチ軸アクチュエータM14、股関節ロール軸アクチュエータM15、膝関節ピッチ軸アクチュエータM16、足首関節ピッチ軸アクチュエータM17、足首関節ロール軸アクチュエータM18が配備されている。 The leg unit 60R / L is subdivided into a thigh unit 61R / L, a knee unit 62R / L, and a shin unit 63R / L. The hip joint yaw axis, the hip joint pitch axis, and the hip joint roll axis , knee joint pitch axis, ankle joint pitch axis, a hip joint yaw axis actuator M 13 representing the respective ankle joint roll axis, a hip joint pitch axis actuator M 14, hip joint roll axis actuator M 15, knee joint pitch axis actuator M 16, ankle A joint pitch axis actuator M 17 and an ankle joint roll axis actuator M 18 are provided.

各関節に用いられるアクチュエータM1、M2、M3…は、より好ましくは、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータ(前述)で構成することができる。 The actuators M 1 , M 2 , M 3 ... Used for the joints are more preferably small-sized AC servo actuators of the type directly connected to a gear and having a single-chip servo control system and mounted in a motor unit (described above). ).

頭部ユニット30、体幹部ユニット40、腕部ユニット50、各脚部ユニット60などの機構ユニット毎に、アクチュエータ駆動制御用の副制御部35、45、55、65が配備されている。   Sub-control units 35, 45, 55, and 65 for actuator drive control are provided for each mechanism unit such as the head unit 30, the trunk unit 40, the arm unit 50, and each leg unit 60.

機体の体幹部40には、加速度センサA1と、ジャイロ・センサなどからなる姿勢センサG1が配設されている。加速度センサA1は、例えばX,Y,Z各軸方向に配置する。機体の腰部に加速度センサA1を配設することによって、質量操作量が大きな部位である腰部を制御目標点として設定して、その位置における姿勢や加速度を直接計測して、ZMPに基づく姿勢安定化制御を行なうことができる。   An acceleration sensor A1 and a posture sensor G1 including a gyro sensor and the like are provided on the trunk 40 of the body. The acceleration sensor A1 is arranged, for example, in each of the X, Y, and Z axis directions. By arranging the acceleration sensor A1 on the waist of the body, the waist, which is a part where the mass operation amount is large, is set as the control target point, and the posture and acceleration at that position are directly measured, and the posture stabilization based on ZMP is performed. Control can be performed.

また、各脚部60R,Lには、床反力センサF1〜F4、F5〜F8と、加速度センサA2及びA3、姿勢センサG2及びG3がそれぞれ配設されている。床反力センサF1〜F8は、例えば足底に圧力センサを装着することにより構成され、床反力の有無により足底が着床したか否かを検出することができる。また、加速度センサA2及びA3は、少なくともX及びYの各軸方向に配置する。左右の足部に加速度センサA2及びA3を配設することにより、ZMP位置に最も近い足部で直接的にZMP釣合い方程式を組み立てることができる。   In addition, floor reaction force sensors F1 to F4, F5 to F8, acceleration sensors A2 and A3, and posture sensors G2 and G3 are disposed on the legs 60R and 60L, respectively. The floor reaction force sensors F1 to F8 are configured by, for example, mounting a pressure sensor on the sole, and can detect whether the sole has landed on the basis of the presence or absence of the floor reaction force. The acceleration sensors A2 and A3 are arranged at least in the X and Y axial directions. By arranging the acceleration sensors A2 and A3 on the left and right feet, the ZMP balance equation can be assembled directly with the feet closest to the ZMP position.

質量操作量が大きな部位である腰部にのみ加速度センサを配置した場合、腰部のみが直接的な制御目標点になり、足部の状態は、この制御目標点の計算結果を基に相対的に算出しなければならず、足部と路面との間では以下の条件を満たすことが、前提となってしまう。   When the acceleration sensor is placed only on the waist, which is a part where the mass operation amount is large, only the waist becomes the direct control target point, and the state of the foot is relatively calculated based on the calculation result of this control target point. It is necessary to satisfy the following conditions between the foot and the road surface.

(1)路面はどんな力やトルクが作用しても動くことがない。
(2)路面での並進に対する摩擦係数は充分に大きく、滑りが生じない。
(1) The road surface does not move under any force or torque.
(2) The coefficient of friction against translation on the road surface is sufficiently large and no slip occurs.

これに対し、本実施形態では、路面との接触部位である足部にZMPと力を直接する反力センサ・システム(床反力センサなど)を配備するとともに、制御に用いるローカル座標とその座標を直接的に計測するための加速度センサを配設する。この結果、ZMP位置に最も近い足部で直接ZMP釣合い方程式を組み立てることができ、上述したような前提条件に依存しない、より厳密な姿勢安定制御を高速で実現することができる。この結果、力やトルクが作用すると路面が動いてしまう砂利上や毛足の長い絨毯上や、並進の摩擦係数が充分に確保できずに滑りが生じ易い住居のタイルなどであっても、機体の安定歩行(運動)を保証することができる。   On the other hand, in the present embodiment, a reaction force sensor system (such as a floor reaction force sensor) that directly applies ZMP and force is provided on a foot portion that is a contact portion with a road surface, and local coordinates used for control and the coordinates thereof are used. The acceleration sensor for directly measuring is provided. As a result, the ZMP balance equation can be directly assembled with the foot closest to the ZMP position, and more precise posture stabilization control that does not depend on the preconditions described above can be realized at high speed. As a result, even on a gravel or a carpet with long fluff that the road surface moves when force or torque is applied, or on a residential tile where slippage tends to occur due to a lack of sufficient friction coefficient for translation, Stable walking (exercise) can be guaranteed.

主制御部80は、各センサA1〜A3、G1〜G3、F1〜F8の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部35、45、55、65の各々に対して適応的な制御を行ない、脚式移動ロボット100の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現する。   The main control unit 80 can dynamically correct the control target in response to the outputs of the sensors A1 to A3, G1 to G3, and F1 to F8. More specifically, a whole body motion pattern in which the upper limb, the trunk, and the lower limb of the legged mobile robot 100 are driven in a coordinated manner by performing adaptive control on each of the sub-control units 35, 45, 55, and 65. To achieve.

ロボット100の機体上での全身運動は、足部運動、ZMP軌道、体幹運動、上肢運動、腰部高さなどを設定するとともに、これらの設定内容に従った動作を指示するコマンドを各副制御部35、45、55、65に転送する。そして、各々の副制御部35、45…では、主制御部81からの受信コマンドを解釈して、各アクチュエータM1、M2、M3…に対して駆動制御信号を出力する。ここで言う「ZMP」とは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、「ZMP軌道」とは、例えばロボット100の歩行動作期間中にZMPが動く軌跡を意味する(前述)。 The whole body motion of the robot 100 on the body includes setting of a foot motion, a ZMP trajectory, a trunk motion, an upper limb motion, a waist height, and the like. Transfer to the sections 35, 45, 55, 65. Then, in each of the sub-control section 35, 45 ... interprets the command received from the main control unit 81 outputs a drive control signal to each actuator M 1, M 2, M 3 .... Here, “ZMP” refers to a point on the floor where the moment due to the floor reaction force during walking becomes zero, and “ZMP trajectory” refers to, for example, ZMP during the walking operation of the robot 100. Means a moving trajectory (described above).

C.モーション編集システム
図5には、本発明の一実施形態に係るモーション編集システムにおける処理フローを模式的に示している。
C. Motion Editing System FIG. 5 schematically shows a processing flow in the motion editing system according to one embodiment of the present invention.

まず、ユーザは、モーション編集アプリケーションをインストールしたパーソナル・コンピュータなどのモーション編集システム上で、オフラインで脚式移動ロボット100用のモーション・データを編集する(ステップS1)。   First, a user edits motion data for the legged mobile robot 100 offline on a motion editing system such as a personal computer on which a motion editing application is installed (step S1).

ここで、モーション・データは、例えばロボット100の2以上のポーズ(姿勢)を時系列的に組み合わせていくことによって編集を行なうことができる。ロボット100のポーズは、各関節角の変位量によって記述される。また、モーション・データは、各関節角の変位量やその速度、加速度などで構成される。例えば、以下のような要素データによってモーション・データを構成することができる。   Here, the motion data can be edited by, for example, combining two or more poses (postures) of the robot 100 in time series. The pose of the robot 100 is described by the displacement amount of each joint angle. The motion data is composed of the displacement amount of each joint angle, its speed, acceleration, and the like. For example, motion data can be constituted by the following element data.

t1,t2,t3,t4,t5:時刻
p:関節又はセンサの種類
d:関節角度
x,y,z,Yaw,Roll,Pitch:関節における位置及び姿勢
g:目標サーボゲイン
tr:補間の種類
fx,fy,fz:力
ax,ay,az:加速度
vx,vy,vz:速度
t1, t2, t3, t4, t5: time p: type of joint or sensor d: joint angle x, y, z, Yaw, Roll, Pitch: position and posture at joint g: target servo gain tr: type of interpolation fx , Fy, fz: forces ax, ay, az: accelerations vx, vy, vz: velocity

なお、モーション・データ自体に関しては、例えば本出願人に既に譲渡されている特願2002−73423号明細書(特開2003−266347号公報)に記載の動作編集装置を用いることによって好適に編集することができる。   The motion data itself is suitably edited, for example, by using the motion editing apparatus described in Japanese Patent Application No. 2002-73423 (JP-A-2003-266347) which has already been assigned to the present applicant. be able to.

次いで、作成したモーション・データを脚式移動ロボット100にインストールして、実機を使用して動作確認を行なう(ステップS2)。なお、モーション・データを実機にインストールするのではなく、ストリーミング形式でデータを実機に配信するようにしてもよい。   Next, the created motion data is installed in the legged mobile robot 100, and the operation is confirmed using the actual machine (step S2). Instead of installing the motion data on the actual device, the data may be distributed to the actual device in a streaming format.

このとき、モーション・データ自体は、動作の連続すなわち各関節角の変位や速度などからなる時系列データであり、時として長大である。本実施形態では、モーション・データの任意の範囲のみを取り出して実機上で再生することにより、モーション編集作業の効率化を図っているが、この点については後に詳解する。   At this time, the motion data itself is time-series data including continuation of motion, that is, displacement and speed of each joint angle, and is sometimes long. In the present embodiment, the efficiency of the motion editing work is improved by extracting only an arbitrary range of the motion data and reproducing it on an actual device. This will be described in detail later.

次いで、実機を使用してモーション・データの任意の範囲を再生したときに、機体上に設置された各センサからの出力すなわちセンサ情報を、モーション編集システムに転送する(ステップS3)。ここで言うセンサ情報には、各関節アクチュエータに配設されたエンコーダからの回転信号の他、体幹部ユニット40(機体の略重心位置)に配設された加速度センサA1及びジャイロ・センサG1、左右の足底に配設された加速度センサA2〜A3、ジャイロ・センサG2〜G3、並びに床反力センサF1〜F8からの出力が含まれる。   Next, when an arbitrary range of the motion data is reproduced using the actual machine, the output from each sensor installed on the machine, that is, the sensor information is transferred to the motion editing system (step S3). The sensor information referred to here includes, in addition to the rotation signal from the encoder provided in each joint actuator, the acceleration sensor A1 and the gyro sensor G1, which are provided in the trunk unit 40 (substantially the center of gravity of the body). Output from acceleration sensors A2 to A3, gyro sensors G2 to G3, and floor reaction force sensors F1 to F8 disposed on the sole of the vehicle.

次いで、モーション編集システム上で、モーション・データを再生中に取得されたセンサ情報に基づいて、ロボットの動作を評価する(ステップS4)。センサ情報に基づくロボット100の動作の評価方法については、後述に譲る。   Next, the motion of the robot is evaluated on the motion editing system based on the sensor information acquired during the reproduction of the motion data (step S4). A method for evaluating the operation of the robot 100 based on the sensor information will be described later.

ロボットの動作を評価した結果、所定の評価基準を満たさない場合には、モーションの修正処理を行なった後(ステップS5)、ステップS2に戻って、実機上での再生に基づく動作の評価を再度行なう。   As a result of evaluating the operation of the robot, if the predetermined evaluation criterion is not satisfied, a motion correction process is performed (step S5), and the process returns to step S2 to evaluate the motion based on the reproduction on the actual machine again. Do.

また、ロボットの動作を評価した結果、所定の評価基準を満たす場合には、ステップS3によって得られたセンサ情報を参照データとして埋め込んだ参照データ付きモーション・データ・ファイルを作成し(ステップS6)、本処理ルーチン全体を終了する。   Also, as a result of evaluating the operation of the robot, if a predetermined evaluation criterion is satisfied, a motion data file with reference data in which the sensor information obtained in step S3 is embedded as reference data is created (step S6). The entire processing routine ends.

ここで、参照データとは、モーション・データを再生している最中に実際に得られるべきセンサ情報や動作情報などで構成される。具体的には、各関節についての角度指令値に対するモーション実行時の測定値や、モーション実行時の各センサの測定値とセンサ出力をフィルタリングした後の測定値の組み合わせ、左右の各足底についての編集時の目標ZMP軌道に対するモーション実行時に安定化制御によって修正された後のZMP軌道、床反力センサの編集時の目標値に対するモーション実行時の測定値などが参照データである。   Here, the reference data includes sensor information, operation information, and the like that should be actually obtained during the reproduction of the motion data. Specifically, the measured value at the time of executing the motion for the angle command value for each joint, the combination of the measured value of each sensor at the time of executing the motion and the measured value after filtering the sensor output, the left and right soles The reference data includes the ZMP trajectory corrected by the stabilization control at the time of executing the motion with respect to the target ZMP trajectory at the time of editing, the measured value at the time of executing the motion with respect to the target value at the time of editing the floor reaction force sensor, and the like.

モーション・データが記述するロボットの動作自体が同じであっても、外部環境又は作業環境に応じて各センサ出力は相違する。例えば、同じ歩行パターンであっても、坂道のとき、あるいは路面が動いてしまう砂利の上や毛足の長い絨毯の上とでは、センサの出力値は異なる。モーション・データが参照データを埋め込むことにより、特定の作業環境下(あるいはロボットの利用形態)に応じたモーション・データを記述することができる、という利点がある。   Even if the motion of the robot described by the motion data is the same, the output of each sensor differs depending on the external environment or the work environment. For example, even if the walking pattern is the same, the output value of the sensor is different on a slope, on a gravel on which the road surface moves, or on a carpet with long hairs. By embedding the reference data in the motion data, there is an advantage that motion data corresponding to a specific working environment (or a robot use form) can be described.

モーション・データは、例えば、m1(t1,p,d,g,tr)、m2(t2,p,x,y,x,Yaw,Roll,Pitch,tr)と表記される。これに対し、参照データは、例えば、S1(t3,p,fx,fy,fz,tr)、S2(t4,p,ax,ay,az,tr)、S3(t5,p,vx,vy,vz,tr)と表記される。また、参照データ付きモーション・データは、例えば、M[m1(),m2(),m3()]と表記される。但し、必要としないデータは適宜除くことができる。また、モーション・データの記載形式及びその構成要素は、システム、モーションの目的などに応じて適宜変更しても構わず、これらに限定されるものではない。   The motion data is represented, for example, as m1 (t1, p, d, g, tr) and m2 (t2, p, x, y, x, Yaw, Roll, Pitch, tr). On the other hand, reference data is, for example, S1 (t3, p, fx, fy, fz, tr), S2 (t4, p, ax, ay, az, tr), S3 (t5, p, vx, vy, tr). vz, tr). The motion data with reference data is represented, for example, by M [m1 (), m2 (), m3 ()]. However, unnecessary data can be appropriately removed. Further, the description format of motion data and its components may be appropriately changed according to the system, the purpose of the motion, and the like, and are not limited thereto.

図5に示すような処理手順に従ってモーション・データを評価・修正することにより、実ロボットのセンサ情報を通信により取得し、実ロボットの応答を考慮したモーションを作成することができる。また、基準環境下で作成されたモーション・データを、例えば住居環境などの異なる環境下で実行したときに、実ロボットが意図した通り動作しているかどうかを判断することができる。   By evaluating and correcting the motion data according to the processing procedure shown in FIG. 5, sensor information of the real robot can be acquired through communication, and a motion can be created in consideration of the response of the real robot. Further, when the motion data created in the reference environment is executed in a different environment such as a residential environment, it can be determined whether or not the actual robot is operating as intended.

このように実ロボット上でモーション・データを評価することには、主に以下の点に意義がある。   Evaluating motion data on a real robot in this way is significant mainly in the following points.

(1)加速度の印象の相違:
仮想空間上でのコンピュータ・グラフィックス(CG)によるアニメーション再生と実空間上での実機での再生とでは、各部の速度や加速度に対する感度が大きく異なるため、その調整には実ロボットを用いて行なう必要がある。
(1) Difference in impression of acceleration:
Since the sensitivity to the speed and acceleration of each part is greatly different between the animation reproduction by computer graphics (CG) in the virtual space and the reproduction by the real machine in the real space, the adjustment is performed using a real robot. There is a need.

(2)姿勢の印象の相違:
仮想空間上でのコンピュータ・グラフィックスによるアニメーション再生と実空間上での実ロボットでの再生とでは、実ロボットのサイズに加え、各部の位置・姿勢関係に対する感度が大きく異なるため、その調整は実ロボットを用いて行なう必要がある。例えば、安定化に用いる部位を腰部のみにした場合、コンピュータ・グラフィックでは気にならなかった腰の運動が、実ロボットでの再生確認では、腰の動きが大きく感じられ所望の動的姿勢が得られないことがある。そこで、安定化部位を増やすとともに優先順位を変えながら部分再生を行なうことで、所望の動的姿勢に修正することができる(例:腰に加え、安定化部位に、体幹と頭部を加えた。これにより実ロボットの腰の運動が小さくなり所望の動作が得られる)。
(2) Difference in posture impression:
Since the reproduction of animation by computer graphics in virtual space and the reproduction by real robot in real space differ greatly in the size and size of the real robot and the sensitivity of each part to the position / posture relationship, the adjustment is It is necessary to use a robot. For example, if the part used for stabilization is only the waist, the waist movement that was not noticed by computer graphics would be greatly felt by the real robot in the playback confirmation, and the desired dynamic posture could be obtained. May not be possible. Therefore, the desired dynamic posture can be corrected by increasing the stabilization region and performing partial playback while changing the priority (eg, adding the trunk and head to the stabilization region in addition to the waist). As a result, the motion of the waist of the real robot is reduced, and a desired motion can be obtained.

(3)実機上でのアクチュエータのトルク(電流)推定の困難さ:
実機のアクチュエータの正確な電流推定は、非常に厳密なモータ・モデルの構築とその各要素の高精度な同定を必要とし、さらにそのモデルを用いたシミュレーションには、PCなどの一般的な計算機システムでは現実時間を大幅に超える時間を必要とする。このため、実機のモーション再生による実測を行ない、細部の修正を行なうことで、モーション作成時間の大幅な増加をきたさずに、よりロバストなモーションが作成できる。
(3) Difficulty in estimating actuator torque (current) on actual machine:
Accurate current estimation of actual actuators requires the construction of extremely rigorous motor models and high-precision identification of each element, and simulations using those models require general computer systems such as PCs. Requires much more time than real time. For this reason, a more robust motion can be created without significantly increasing the motion creation time by performing actual measurement by reproducing the motion of the actual device and correcting the details.

(4)正確な接触・接地時刻の指定の困難さ:
ロボットの外界との接触点及びその接触タイミングの計画運動からの偏差は、ロボットに未知でしかもインパルス的な外力及び外力モーメントが加わることになり、たとえ実時間適応制御を適応したとしても、その運動の安定性に与える影響は非常に大きなものとなる。しかしながら、実ロボットの厳密な形状モデルの構築には、外部環境も含めて高精度な同定を必要とし、さらにそのモデルを用いた接触状態シミュレーションには、PCなどの一般的な計算機システムでは現実時間を大幅に超える時間を必要とし、現実的ではない。そこで、一般的なPC上で、現実時間内で処理可能な程度の簡略化した形状及び環境モデルを用いて生成したモーションと実ロボットでそのモーションを現実の標準環境群で実行した場合との接地点及びその着離状態の偏差を用いて、モーションの修正及び姿勢(運動)安定化処理を再度行なうことで、極めてロバストなモーションを生成することができる。
(4) Difficulty in specifying accurate contact / contact time:
The deviation of the robot's point of contact with the external world and its contact timing from the planned motion results in the addition of an unknown and impulse-like external force and external force moment to the robot. The effect on the stability of the material is very large. However, construction of a strict shape model of a real robot requires high-precision identification including the external environment, and simulation of the contact state using the model requires real-time computation in a general computer system such as a PC. Requires much more time and is not realistic. Therefore, on a general PC, there is a connection between the motion generated using a simplified shape and environment model that can be processed in real time and the case where the motion is executed by a real robot in a real standard environment group. An extremely robust motion can be generated by re-executing the motion correction and the posture (motion) stabilization process using the deviation of the point and its attachment / detachment state.

モーション・データが記述するロボットの動作自体が同じであっても、外部環境又は作業環境に応じて各センサ出力は相違する。例えば、同じ歩行パターンであっても、坂道のとき、あるいは路面が動いてしまう砂利の上や毛足の長い絨毯の上とでは、センサの出力値は異なる。本実施形態によれば、モーション・データが参照データを埋め込むことにより、特定の作業環境下(あるいはロボットの利用形態)に応じたモーション・データを記述することができる、という利点がある。   Even if the motion of the robot described by the motion data is the same, the output of each sensor differs depending on the external environment or the work environment. For example, even if the walking pattern is the same, the output value of the sensor is different on a slope, on a gravel on which the road surface moves, or on a carpet with long hairs. According to the present embodiment, there is an advantage that motion data according to a specific work environment (or a usage form of a robot) can be described by embedding reference data in motion data.

モーション・データのファイル・フォーマット例を図6〜図9に示しておく。本実施形態では、モーション・データは、関節角情報と、姿勢情報と、ZMP軌道情報と、足底接地情報を含んでいる。   FIGS. 6 to 9 show examples of motion data file formats. In the present embodiment, the motion data includes joint angle information, posture information, ZMP trajectory information, and sole contact information.

図6に示すように、関節角情報は、モーション実行時における脚式移動ロボット100の関節自由度を構成する各関節アクチュエータの変位量が時系列的(サンプリング時間毎に)に配列されてなる時系列データである。サンプリング時刻毎のレコードは、各関節についての角度指令値とモーション実行時の測定値の組み合わせで構成される。同図において、R_関節名は、編集時の該当アクチュエータに対する角度指令値であり、M_関節名は、ロボットがモーション実行時におけるアクチュエータの測定値である。   As shown in FIG. 6, the joint angle information is obtained when the displacement amounts of the joint actuators constituting the degree of freedom of the joint of the legged mobile robot 100 at the time of executing the motion are arranged in time series (for each sampling time). It is series data. The record for each sampling time is composed of a combination of an angle command value for each joint and a measured value at the time of executing a motion. In the figure, R_joint name is an angle command value for the corresponding actuator at the time of editing, and M_joint name is a measured value of the actuator when the robot executes a motion.

また、図7に示すように、姿勢情報は、モーション実行時における脚式移動ロボット100の機体上の各部位に設置された姿勢センサ(ジャイロ・センサ)の情報が時系列的(サンプリング時間毎に)に配列されてなる時系列データである。サンプリング時刻毎のレコードは、各センサについてのモーション編集時の目標値とモーション実行時の測定値とセンサ出力をフィルタリングした後の測定値の組み合わせで構成される。同図において、R_センサ名は、該当センサにおける編集時のセンサの目標値であり、M_センサ名は、ロボットのモーション実行時の該当センサにおける測定値であり、F_センサ名は、ロボットのモーション実行時の該当センサ出力をフィルタリングした後の測定値である。   As shown in FIG. 7, the posture information is obtained by chronologically acquiring information of posture sensors (gyro sensors) installed at various parts on the body of the legged mobile robot 100 at the time of executing a motion (for each sampling time). ) Is time-series data. The record for each sampling time is composed of a combination of a target value at the time of motion editing for each sensor, a measured value at the time of executing the motion, and a measured value after filtering the sensor output. In the drawing, R_sensor name is a target value of the sensor at the time of editing in the corresponding sensor, M_sensor name is a measured value of the corresponding sensor at the time of executing a motion of the robot, and F_sensor name is a robot. This is a measured value after filtering the output of the corresponding sensor when the motion is executed.

また、図8に示すように、ZMP軌道情報は、モーション実行時における脚式移動ロボット100のZMP位置が時系列的(サンプリング時間毎に)に配列されてなる時系列データである。サンプリング時刻毎のレコードは、左右の各足底についての、編集時の目標ZMP軌道と、モーション実行時に安定化制御によって修正された後のZMP軌道の組み合わせで構成される。同図において、R_ZMP軌道は編集時の目標ZMP軌道であり、M_ZMP軌道はロボットのモーション実行時に安定化制御によって修正された後のZMP軌道である。   As shown in FIG. 8, the ZMP trajectory information is time-series data in which ZMP positions of the legged mobile robot 100 at the time of performing a motion are arranged in a time-series manner (for each sampling time). The record for each sampling time is composed of a combination of the target ZMP trajectory at the time of editing and the ZMP trajectory corrected by the stabilization control at the time of executing the motion for each of the left and right soles. In the figure, the R_ZMP trajectory is a target ZMP trajectory at the time of editing, and the M_ZMP trajectory is a ZMP trajectory corrected by the stabilization control at the time of executing the motion of the robot.

また、図9に示すように、足底接地情報は、モーション実行時における脚式移動ロボット100の足底に設置された各床反力センサの測定値が時系列的(サンプリング時間毎に)に配列されてなる時系列データである。サンプリング時刻毎のレコードは、床反力センサの編集時の目標値とモーション実行時の測定値の組み合わせで構成される。同図において、R_接地情報は、編集時の目標値であり、M_接地情報はモーション実行時の測定値である。   As shown in FIG. 9, the sole contact information indicates that the measured values of the respective floor reaction force sensors installed on the sole of the legged mobile robot 100 at the time of executing the motion are time-series (for each sampling time). This is time-series data that is arranged. The record for each sampling time is configured by a combination of a target value at the time of editing of the floor reaction force sensor and a measured value at the time of executing a motion. In the figure, R_ground information is a target value at the time of editing, and M_ground information is a measured value at the time of executing a motion.

図10には、図5に示したフローチャートのステップS4に相当する、センサ情報に基づくロボット100のモーション・データを評価するための処理手順をフローチャートの形式で示している。   FIG. 10 shows, in the form of a flowchart, a processing procedure for evaluating the motion data of the robot 100 based on the sensor information, which corresponds to step S4 of the flowchart shown in FIG.

ステップS11では、アクチュエータの応答性を評価する。より具体的には、編集時のアクチュエータに対する角度指令値、角速度指令値、又は角加速度指令値に対して、実ロボット上で実行したときのそれぞれの測定値との偏差(すなわち追従性)を時系列で評価する(ステップS12)。   In step S11, the response of the actuator is evaluated. More specifically, the deviation (i.e., followability) of each of the angle command value, angular velocity command value, or angular acceleration command value for the actuator at the time of editing and each measured value when executed on an actual robot is shown. Evaluation is performed in series (step S12).

Figure 0003555945
Figure 0003555945

追従性の評価は、時系列ではなく周波数領域で行なうようにしてもよい。周波数領域で評価する場合、例えば機械系の固有振動数を取り除くなど、周波数固有の帯域を限定的に取り扱うことができる、という利点がある。   The evaluation of the tracking performance may be performed in the frequency domain instead of the time series. When the evaluation is performed in the frequency domain, there is an advantage that a frequency-specific band can be limitedly handled, for example, by removing a natural frequency of a mechanical system.

Figure 0003555945
Figure 0003555945

なお、時間空間と周波数変換の変換は、下式に示すフーリエ変換並びに逆フーリエ変換を用いればよい。   Note that the conversion between the time space and the frequency conversion may use the Fourier transform and the inverse Fourier transform shown in the following equation.

Figure 0003555945
Figure 0003555945

アクチュエータは、必要トルクが大きくなるほど最高速度(加速度)が低下し、応答性が悪くなり、目標に追従できなくなる。また、可動角度制限ストッパーへの接触やリンク同士の干渉が発生すると、目標値に含まれない高周波成分の偏差が大きくなる。そこで、算出した目標値と実測値の偏差を以下の評価式(7)〜(15)などを用いて評価する(ステップS13)。   As the required torque increases, the maximum speed (acceleration) of the actuator decreases, the responsiveness deteriorates, and the actuator cannot follow the target. Further, when contact with the movable angle limiting stopper or interference between the links occurs, the deviation of the high-frequency component not included in the target value increases. Therefore, the deviation between the calculated target value and the actually measured value is evaluated using the following evaluation expressions (7) to (15) (step S13).

Figure 0003555945
Figure 0003555945

上記の評価式を満たしていなければ内容を保存し(ステップS14)、評価が達成されれば当該評価を終了する。 If the above evaluation formula is not satisfied, the contents are saved (step S14), and if the evaluation is achieved, the evaluation is terminated.

また、ステップS15では、アクチュエータの運用状況の評価を行なう。より具体的には、実ロボットで実行したときのi番目のアクチュエータのトルク値Ti(t)と回転数Ni(t)を時系列で取得し、取得したデータをi番目のアクチュエータの特性を示すNT曲線と比較する。NT曲線は、例えばアクチュエータの製品仕様から得ることができる(図20を参照のこと)。NT曲線上では、NT曲線に基づいて、回転数がNのときの常用最小トルクTi_min(N)及び常用最大トルクTi_max(N)を規定している。 In step S15, the operation status of the actuator is evaluated. More specifically, the torque value T i (t) and the rotation speed N i (t) of the i-th actuator when executed by the real robot are acquired in time series, and the acquired data is obtained as a characteristic of the i-th actuator. Is compared with the NT curve showing The NT curve can be obtained, for example, from the product specifications of the actuator (see FIG. 20). On the NT curve, the normal minimum torque Ti_min (N) and the normal maximum torque Ti_max (N) when the rotation speed is N are defined based on the NT curve.

Figure 0003555945
Figure 0003555945

そして、アクチュエータの限界トルクを超えている動作がないかを評価する(ステップS16)。評価が未達成であれば内容を保存し(ステップS17)、評価が達成されれば当該評価を終了する。シミュレーションによるトルク値の算出は非常に時間がかかり誤差も含まれるが、編集システムと接続された実ロボットから取得することで、正確な情報を即時に取得できる。   Then, it is evaluated whether there is any operation exceeding the limit torque of the actuator (step S16). If the evaluation has not been achieved, the content is saved (step S17), and if the evaluation has been achieved, the evaluation ends. Although the calculation of the torque value by the simulation takes a very long time and includes an error, accurate information can be obtained immediately by obtaining the torque value from the actual robot connected to the editing system.

また、ステップS18では、姿勢の評価を行なう。まず、モーション編集時に計画した姿勢センサ値やZMP軌道と、実ロボットで実行したときセンサ値やZMP軌道との偏差を求める(ステップS19)。より具体的には、モーション編集時に計画した基体制御対象座標原点(O’−X’Y’Z’)(例えば足底などの接地部位に設定されるローカル座標原点)の時間軸上における目標姿勢Adf(t)又は周波数軸上における目標姿勢Adf(ω) In step S18, the posture is evaluated. First, a deviation between a posture sensor value or a ZMP trajectory planned at the time of motion editing and a sensor value or a ZMP trajectory when executed by a real robot is obtained (step S19). More specifically, the target posture on the time axis of the coordinate system origin (O'-X'Y'Z ') (for example, the local coordinate origin set at the ground contact site such as the sole) planned at the time of motion editing A df (t) or target attitude A df (ω) on the frequency axis

Figure 0003555945
Figure 0003555945

と、可動部制御対象座標原点(O”−X”Y”Z”)(例えば、腰部などの直接的な制御目標点)の時間軸上における目標姿勢Adh(t)又は周波数軸上における目標姿勢Adh(ω)、 And a target posture A dh (t) on the time axis or a target on the frequency axis of the origin (O "-X" Y "Z") of the coordinate to be controlled by the movable part (for example, a direct control target point such as the waist) Posture A dh (ω),

Figure 0003555945
Figure 0003555945

と、目標ZMP軌道としてのZMPd(t)=[ZMPdx,ZMPdy,ZMPdz,t]又はZMPd(ω)=[ZMPdx,ZMPdy,ZMPdz,ω]、目標ZMP軌道上での並進力及びヨー軸モーメントとしてのFd(t)=[Fdx,Fdy,Fdz,t]又はFd(ω)=[Fdx,Fdy,Fdz,ω]、実ロボットで実行したときの基体制御対象座標原点(O’−X’Y’Z’)における時間軸上の姿勢センサ測定値Amf(k)(t)又は周波数軸上の姿勢センサ測定値Amf(k)(ω) And ZMP d (t) = [ZMP dx , ZMP dy , ZMP dz , t] as the target ZMP trajectory or ZMP d (ω) = [ZMP dx , ZMP dy , ZMP dz , ω] on the target ZMP trajectory the translational force and F d as the yaw axis moment (t) = [F dx, F dy, F dz, t] or F d (ω) = [F dx, F dy, F dz, ω], in the actual robot base control target coordinate origin (O'-X'Y'Z ') orientation sensor measurements in the time domain in a mf (k) (t) or attitude sensor measurement a mf on the frequency axis (k when running ) (Ω)

Figure 0003555945
Figure 0003555945

と、実ロボットで実行したときの可動部制御対象座標原点(O”−X”Y”Z”)における時間軸上の姿勢センサ測定値Amh(k)(t)又は周波数軸上の姿勢センサ測定値Amh(k)(ω) And the attitude sensor measured value A mh (k) (t) on the time axis or the attitude sensor on the frequency axis at the coordinate origin (O "-X" Y "Z") of the movable part control target when executed by the real robot. Measured value A mh (k) (ω)

Figure 0003555945
Figure 0003555945

と、測定ZMP軌道としてのZMPm(k)(t)=[ZMPmx,ZMPmy,ZMPmz,t]又はZMPm(k)(ω)=[ZMPmx,ZMPmy,ZMPmz,ω]、測定ZMP軌道上での並進力及びヨー軸モーメントとしてのFm(k)(t)=[Fmx,Fmy,Fmz,k,t]又はFm(k)(ω)=[Fmx,Fmy,Fmz,k,ω],Mm(k)(t)=[Mmx,Mmy,Mmz,k,t],Mm(k)(ω)=[Mmx,Mmy,Mmz,k,ω]などの偏差(Aef(k)(t),Aeh(k)(t),ZMPe(k)(t),Fe(k)(t),Me(k)(t),Aef(k)(ω),Aeh(k)(ω),ZMPe(k)(ω),Fe(k)(ω),Me(k)(ω))をそれぞれ算出する。なお、座標系の設定方法などに関しては、図14〜図16を参照されたい。 If, ZMP m as measured ZMP trajectory (k) (t) = [ ZMP mx, ZMP my, ZMP mz, t] or ZMP m (k) (ω) = [ZMP mx, ZMP my, ZMP mz, ω] , translational force on the measurement ZMP trajectory and F m as the yaw axis moment (k) (t) = [ F mx, F my, F mz, k, t] or F m (k) (ω) = [F mx, F my, F mz, k, ω], M m (k) (t) = [M mx, M my, M mz, k, t], M m (k) (ω) = [M mx, M my , M mz , k, ω] (A ef (k) (t), A eh (k) (t), ZMP e (k) (t), F e (k) (t), M e (k) (t) , A ef (k) (ω), A eh (k) (ω), ZMP e (k) (ω), F e (k) (ω), M e (k) (Ω)) is calculated. Please refer to FIGS. 14 to 16 for the method of setting the coordinate system and the like.

Figure 0003555945
Figure 0003555945

そして、算出した目標値と実測値の偏差を以下の評価式(27)〜(41)などを用いて評価する(ステップS20)。   Then, the deviation between the calculated target value and the actually measured value is evaluated using the following evaluation expressions (27) to (41) (step S20).

Figure 0003555945
Figure 0003555945

Figure 0003555945
Figure 0003555945

上記の評価式を満たしていなければ内容を保存し(ステップS21)、評価が達成されれば当該評価を終了する。保管した偏差情報は、再編集時に姿勢安定化制御ブロックの入力値を修正するために利用する。   If the above evaluation formula is not satisfied, the contents are saved (step S21), and if the evaluation is achieved, the evaluation is terminated. The stored deviation information is used to correct the input value of the posture stabilization control block at the time of re-editing.

また、ステップS22では、接地位置の評価を行なう。本実施形態では、図3に示したように、左右それぞれの足底に配設されているロードセルF1〜F8並びに赤外線測距センサD1〜D8を備えている。そこで、モーション編集時の足底の各部位における接地・離地情報Cd(i)(t)又はCd(i)(ω)と、実ロボット上でモーションを実行したときのロードセルF1〜F8並びに赤外線測距センサD1〜D8より得られる接地・離地情報Cm(i,k)(t)又はCm(i,k)(ω)(図17を参照のこと)との偏差Ce(i,k)(t)=Cd(i)(t)−Cm(i,k)(t)又はCe(i,k)(ω)=Cd(i)(ω)−Cm(i,k)(ω)を計算する(ステップS23)。そして、算出した偏差を、以下の式(37)などを用いて評価する(ステップS24)。但し、nは歩数、Ce(i)は接地・離地情報の許容値である。 In step S22, the contact position is evaluated. In the present embodiment, as shown in FIG. 3, there are provided load cells F1 to F8 and infrared distance measuring sensors D1 to D8 disposed on the right and left soles, respectively. Then, the ground / offset information C d (i) (t) or C d (i) (ω) in each part of the sole at the time of motion editing and the load cells F1 to F8 when the motion is executed on the actual robot. And a deviation C e from the grounding / offset information C m (i, k) (t) or C m (i, k) (ω) obtained from the infrared distance measuring sensors D1 to D8 (see FIG. 17). (i, k) (t) = C d (i) (t) −C m (i, k) (t) or C e (i, k) (ω) = C d (i) (ω) −C m (i, k) (ω) is calculated (step S23). Then, the calculated deviation is evaluated using the following equation (37) or the like (step S24). Here, n is the number of steps, and Ce (i) is an allowable value of the grounding / leaving information.

Figure 0003555945
Figure 0003555945

接地位置の接地・離地情報の取得方法として、足底接地部位の各隅に設けられたロードセルF1〜F8並びに赤外線測距センサD1〜D8から出力されるアナログ情報Fimz(k)(t)が所定の閾値γi未満の場合を離地Cm(i,k)=1、閾値γi以上の場合を接地Cm(i,k)=0と判断する。ここで、iは足底に取り付けられたセンサの識別番号である。あるいは、足底接地部位の各隅にマイクロ・スイッチを設け、これらのオン/オフ情報に基づいて接地・離地情報を得るようにしてもよい。 As a method for acquiring the grounding / offset information of the grounding position, analog information F imz (k) (t) output from the load cells F1 to F8 provided at each corner of the sole-grounded portion and the infrared distance measuring sensors D1 to D8. If is less than the predetermined threshold value gamma i the Hanarechi Cm (i, k) = 1 , it is determined if more than the threshold value gamma i grounded C m (i, k) = 0 and. Here, i is the identification number of the sensor attached to the sole. Alternatively, a micro switch may be provided at each corner of the sole contact portion, and the contact / ground information may be obtained based on the ON / OFF information.

接地位置の評価が未達成であれば内容を保存し(ステップS25)、評価が達成されれば当該評価を終了する。ロボットの外界との接触点及びその接触タイミングの計画運動からの偏差は、ロボットに未知でしかもインパルス的な外力及び外力モーメントが加わることになり、たとえ実時間適応制御を適応したとしても、その運動の安定性に与える影響は非常に大きなものとなる。そこで、理想的な仮想空間で生成したモーションと実ロボットでそのモーションを実行した場合との接地点及びその着離状態の偏差を用いて、モーションの修正及び姿勢(運動)安定化処理を再度行なうことで、極めてロバストなモーションを生成することができる。   If the evaluation of the contact position has not been achieved, the content is saved (step S25), and if the evaluation has been achieved, the evaluation ends. The deviation of the robot's point of contact with the external world and its contact timing from the planned motion results in the addition of an unknown and impulse-like external force and external force moment to the robot. The effect on the stability of the material is very large. Therefore, the motion correction and the posture (motion) stabilization processing are performed again using the difference between the contact point and the contact point between the motion generated in the ideal virtual space and the case where the motion is executed by the real robot. This makes it possible to generate extremely robust motion.

また、ステップS26では、補正達成度の評価を行なう。すなわち、前回以前の評価によって修正されたモーションに対して、測定値の改善度を算出する(ステップS27)。例えば、アクチュエータの角度θの場合、k回目の測定時における目標値と実測値との偏差をθe(k)(=θd−θm(k))とおくと、改善度Pは、k回目と(k−1)回目の偏差の変化すなわちP=θe(k)−θe(k-1)で表すことができる。そして、各項目に関する優先度に準じて総合評価を再度行なう(ステップS28)。評価が未達成であれば内容を保存し(ステップS29)、評価が達成されれば当該評価を終了する。 In step S26, the degree of achievement of correction is evaluated. That is, the degree of improvement of the measured value is calculated for the motion corrected by the previous evaluation (step S27). For example, in the case of the actuator angle θ, if the deviation between the target value and the actually measured value at the time of the k-th measurement is θ e (k) (= θ d −θ m (k) ), the degree of improvement P is k It can be expressed by the change of the deviation between the first and the (k-1) th time, that is, P = θe (k) −θe (k-1) . Then, the comprehensive evaluation is performed again according to the priority of each item (step S28). If the evaluation has not been achieved, the contents are saved (step S29), and if the evaluation has been achieved, the evaluation ends.

また、ステップS30では、外部接触による衝撃の評価を行なう。より具体的には、衝撃によるアクチュエータ・トルクやZMP偏差・加速度の影響を算出し(ステップS31)、影響の評価を行なう(ステップS32)。例えば、衝撃によるi番目のアクチュエータ・トルクやZMP偏差・加速度の影響を、Ti(N)を周波数領域に変換したTi(ω)、あるいは上式(17)〜(26)を用いて算出する。そして、上記の評価式(27)〜(41)を用いて影響の評価を行なう。 In step S30, an impact due to external contact is evaluated. More specifically, the influence of the actuator torque, the ZMP deviation, and the acceleration due to the impact is calculated (step S31), and the influence is evaluated (step S32). For example, the influence of the i-th actuator torque or ZMP deviation / acceleration due to the impact is calculated using T i (ω) obtained by converting T i (N) into the frequency domain or the above equations (17) to (26). I do. Then, the influence is evaluated using the above-described evaluation expressions (27) to (41).

外部接触による衝撃の評価が未達成であれば内容を保存し(ステップS33)、評価が達成されれば当該評価を終了する。ロボットの外界を厳密にモデル化することは、特に人間の生活環境を考えると極めて困難である。そこで、シミュレータによる実行時間が現実時間と比較して、過大にならない簡単な衝突モデルを用いて、まず、理想的な仮想空間で外界との衝突を伴うモーションを生成し、次に、実ロボットでそのモーションを実行した場合との外部接触による力情報の偏差を用いて、モーションの修正および姿勢(運動)安定化処理を再度行なうことで、短時間で、極めてロバストなモーションを生成することができる。   If the evaluation of the impact due to external contact has not been achieved, the contents are saved (step S33), and if the evaluation has been achieved, the evaluation ends. It is extremely difficult to rigorously model the outside world of a robot, especially considering the living environment of humans. Therefore, using a simple collision model that does not increase the execution time of the simulator compared to the real time, first, a motion involving a collision with the outside world is generated in an ideal virtual space, By using the deviation of the force information due to external contact with the case of executing the motion, the motion is corrected and the posture (motion) stabilization process is performed again, so that an extremely robust motion can be generated in a short time. .

図11には、図5に示したフローチャートのステップS5に相当する、モーションの修正処理の手順をフローチャートの形式で示している。   FIG. 11 shows, in the form of a flowchart, a procedure of a motion correction process corresponding to step S5 of the flowchart shown in FIG.

モーション修正は、モーション編集システム上で、手動又は自動で修正を行なうことができる。   Motion correction can be performed manually or automatically on the motion editing system.

手動修正の場合、指令値と測定値の差分値や前回以前の修正による改善内容をグラフなどによって視覚的に確認しながら修正する(ステップS41)。   In the case of the manual correction, the correction is made while visually confirming the difference value between the command value and the measured value and the details of the improvement made by the previous correction using a graph or the like (step S41).

一方、自動修正の場合、ステップS11における応答性評価結果の内容を利用して、アクチュエータへの角度、又は角速度、角加速度の指示値   On the other hand, in the case of automatic correction, the contents of the response evaluation result in step S11 are used to indicate the angle or the angular velocity or the angular acceleration to the actuator.

Figure 0003555945
Figure 0003555945

を修正する(ステップS42)。修正には、例えば下式(38)〜(43)で算出した角度、又は角速度、角加速度の指示値を用いる。但し、Λはフィルタであり、αはゲインである。 Is corrected (step S42). For the correction, for example, an angle calculated by the following equations (38) to (43), or an instruction value of angular velocity or angular acceleration is used. Here, Λ is a filter, and α is a gain.

Figure 0003555945
Figure 0003555945

また、応答性評価結果、特に周波数流域での評価結果を利用して、アクチュエータの制御パラメータ(PIDやモータの粘性など)を修正する(ステップS43)。   In addition, the control parameters of the actuator (such as the PID and the viscosity of the motor) are corrected using the response evaluation result, particularly the evaluation result in the frequency range (step S43).

具体的には、実ロボットはモーション実行時に2足歩行や安定した双腕作業など外界や作業対象に対して閉リンク状態と開リンク状態の切替え動作を行なうが、開リンクの高周波数領域での応答性が不十分であれば、D(微分)ゲインを大きくするとともに、粘性の設定値を上げる。また、開リンクの高周波数領域の応答性が目標値以上の場合は、P(比例)、D(微分)の各ゲインを小さくするとともに、粘性の設定値を大きくする。一方、開リンクの低周波数領域での応答性が不十分であれば、P(比例)、I(積分)の各ゲインを上げる。また、開リンクの低周波数領域の応答性が目標値以上の場合は、Iのゲインを小さくする。   Specifically, the real robot performs a switching operation between the closed link state and the open link state with respect to the outside world and the work object such as bipedal walking and stable double-armed work when executing a motion, but in the high frequency region of the open link. If the response is insufficient, the D (differential) gain is increased and the set value of the viscosity is increased. When the response of the open link in the high frequency region is equal to or higher than the target value, the gains of P (proportional) and D (differential) are reduced and the set value of the viscosity is increased. On the other hand, if the response of the open link in the low frequency region is insufficient, the gains of P (proportional) and I (integral) are increased. If the response in the low frequency region of the open link is equal to or higher than the target value, the gain of I is reduced.

また、閉リンクの低周波数領域での応答性が不十分であれば、P(比例)、I(積分)のゲインを大きくする。逆に、目標値以上の場合は、Iのゲインを小さくする。閉リンクの高周波数領域での応答性が目標値以上であれば、D(微分)のゲインを小さくするとともに、粘性の設定値を高くし、逆に応答性が不十分であればDのゲインを上げるとともに、粘性の設定値を下げ、歩行路面に対する倣い性能の向上を図る。   If the response of the closed link in the low frequency region is insufficient, the gains of P (proportional) and I (integral) are increased. Conversely, if it is equal to or greater than the target value, the gain of I is reduced. If the response in the high frequency region of the closed link is equal to or higher than the target value, the gain of D (differential) is reduced and the set value of the viscosity is increased. Conversely, if the response is insufficient, the gain of D is increased. And lower the set value of viscosity to improve the profiling performance on walking road surfaces.

また、ステップS15におけるアクチュエータの運用状況の評価結果の内容を利用して、姿勢安定化処理ブロックの安定化優先部位を変更する(ステップS44)。具体的には、実ロボットは下肢や体幹、腰、右側上肢など部位毎にグループ化されているが、上記の評価式(16)を満たさないアクチュエータにより駆動される部位グループiについての目標モーメント補償量Miをより小さく再設定し、安定化に用いる運動量を小さくし、必要トルクを軽減させる。 Further, the stabilization priority part of the posture stabilization processing block is changed using the contents of the evaluation result of the operation status of the actuator in step S15 (step S44). Specifically, the real robots are grouped for each part such as the lower limb, the trunk, the waist, the right upper limb, etc., but the target moment for the part group i driven by the actuator that does not satisfy the above-mentioned evaluation formula (16) is used. and smaller reconfigure compensation amount M i, to reduce the momentum to be used for stabilization, reduce the required torque.

また、ステップS18における姿勢の安定評価結果を利用して、姿勢安定化処理ブロックの内容を変更する(ステップS45)。具体的には、上記の評価式(27)〜(41)を満たさないアクチュエータにより駆動される部位グループiについての目標モーメント補償量Miをより小さく再設定し、安定化に用いる運動量を小さくし、必要トルクを軽減させる。 The content of the posture stabilization processing block is changed using the posture stability evaluation result in step S18 (step S45). Specifically, reconfigure smaller target moment compensation amount M i for site groups i that is driven by an actuator which does not satisfy the above evaluation formula (27) - (41), to reduce the momentum to be used for stabilizing Reduce the required torque.

また、ステップS22における接地位置の評価結果を利用して、姿勢安定化処理ブロックの内容を変更する(ステップS46)。具体的には、モーション編集時の接地・離地情報Cd(i)(t)又はCd(i)(ω)と、実ロボット上でモーションを実行したときに得られる接地・離地情報Cm(i,k)(t)又はCm(i,k)(ω)との偏差Ce(i,k)(ω)=Cd(i)(ω)−Cm(i,k)(ω)を用いて、以下の評価式(44)により算出されたCi(i,k)(t)又はCi(i,k)(ω)を用いたり、実測値Cm(i,k)(t)を直接用いて支持多角形を新たに再設定したりし、続いて目標ZMP軌道を再設定し、全身運動の再生成を行なう。 Further, the content of the posture stabilization processing block is changed using the evaluation result of the contact position in step S22 (step S46). Specifically, the ground / offset information C d (i) (t) or C d (i) (ω) at the time of motion editing and the ground / offset information obtained when a motion is executed on a real robot Deviation from C m (i, k) (t) or C m (i, k) (ω) Ce (i, k) (ω) = C d (i) (ω) −C m (i, k ) (Ω), using Ci (i, k) (t) or Ci (i, k) (ω) calculated by the following evaluation formula (44) , or using the measured value C m (i , k) (t) is used directly to newly reset the support polygon, and then the target ZMP trajectory is reset to regenerate the whole body motion.

Figure 0003555945
Figure 0003555945

また、ステップS30における外部接触による衝撃の評価結果を利用して、外部接触を考慮した、姿勢安定化処理ブロックの制御内容を変更する(ステップS47)。具体的には、下式(45)を用いて算出した入力ZMP軌道ZMPi(k)(t)を用いて、全身運動の再生成を行なう Further, the control contents of the posture stabilization processing block in consideration of the external contact are changed using the evaluation result of the impact by the external contact in step S30 (step S47). Specifically, the whole body motion is regenerated using the input ZMP trajectory ZMP i (k) (t) calculated using the following equation (45).

Figure 0003555945
Figure 0003555945

ここで、Λは、例えばアクチュエータの周波数特性からある高周波成分以上から改善が望めない場合にはローパス・フィルタを、また、ある低周波成分以下からの能動的な改善を行なわない場合にはハイパス・フィルタを、また、それら両方の効果を期待する場合にはバンドパス・フィルタを、機体の固有振動数の励起を抑制したい場合にはバンド・エリミネーション・フィルタやノッチ・フィルタなどを用いる。上式(43)、(44)では、周波数に関してのフィルタであるが、同様に時間領域に関するフィルタを併用してもよい。   Here, Λ represents, for example, a low-pass filter when improvement cannot be expected from a certain high frequency component or higher due to the frequency characteristics of the actuator, and a high-pass filter when no active improvement from a certain low frequency component or lower is not performed. A filter is used, a bandpass filter is used when both effects are expected, and a band elimination filter or a notch filter is used when it is desired to suppress the excitation of the natural frequency of the airframe. In the above equations (43) and (44), the filters for the frequency are used. However, the filters for the time domain may be used together.

本実施形態に係るモーション編集処理は、ロボットの実機上でモーション・データを再生して評価できること、モーション・データを再生している最中に取得されたセンサ情報に基づいてモーションを修正すること、並びに、参考センサ情報が埋め込まれた形式のモーション・データを処理結果として得られることに特徴がある。   The motion editing process according to the present embodiment can reproduce and evaluate motion data on the actual robot device, correct the motion based on the sensor information acquired during the reproduction of the motion data, Another feature is that motion data in a form in which reference sensor information is embedded can be obtained as a processing result.

ここで、モーション・データを実機上で再生する際、モーション・データの任意の範囲のみを取り出して実機上で再生することにより、モーション編集作業の効率化を図っている。   Here, when the motion data is reproduced on the actual device, only an arbitrary range of the motion data is extracted and reproduced on the actual device, thereby improving the efficiency of the motion editing work.

モーションは、2以上のポーズの時系列的な組み合わせで構成されるが、加速度を積極的且つ継続的に用いたダイナミックなモーション(継続的動的運動)を実行する場合、そのモーションを途中から実行し、評価を行なうことは不可能である。   A motion is composed of a chronological combination of two or more poses. When a dynamic motion (continuous dynamic motion) using acceleration positively and continuously is executed, the motion is executed from the middle. However, it is impossible to make an evaluation.

そこで、本実施形態では、そのような継続的動的運動を任意の時刻からの再生・停止を可能とすることで、モーションの評価に要する時間を極めて短縮するようにした。   Therefore, in the present embodiment, such continuous dynamic motion can be reproduced / stopped from an arbitrary time, so that the time required for motion evaluation is extremely reduced.

図12には、ロボット100のモーション・データで記述される継続的動的運動を任意の時刻からの再生・停止を処理するための手順をフローチャートの形式で示している。同図に示す例では、オンラインすなわち実時間でモーション・データの再生・停止を行なうことができる。   FIG. 12 shows, in the form of a flowchart, a procedure for processing reproduction / stop of a continuous dynamic motion described by motion data of the robot 100 from an arbitrary time. In the example shown in the figure, the reproduction / stop of motion data can be performed online, that is, in real time.

まず、ユーザ入力などによりモーション・データ中の開始時刻を設定する(ステップS51)。   First, a start time in the motion data is set by a user input or the like (step S51).

次いで、この開始時刻における動的姿勢の計算を行なう(ステップS52)。そして、開始時刻の動的姿勢を終点とする過渡モーションを生成して(ステップS53)、この過渡モーションを用いて実機上でのモーションの再生を行なう(ステップS54)。   Next, the dynamic posture at this start time is calculated (step S52). Then, a transient motion having the dynamic posture at the start time as the end point is generated (step S53), and the motion is reproduced on the actual device using the transient motion (step S54).

次いで、ユーザ入力などによりモーション・データ中の停止時刻を設定する(ステップS55)。そして、停止時刻における動的姿勢を計算し(ステップS56)、停止姿勢を始点とする過渡モーションを生成して(ステップS57)、この過渡モーションを用いて、実機の動作を停止させる(ステップS58)。   Next, a stop time in the motion data is set by a user input or the like (step S55). Then, the dynamic posture at the stop time is calculated (step S56), a transient motion starting from the stop posture is generated (step S57), and the operation of the real machine is stopped using the transient motion (step S58). .

また、モーション・データの再生・停止をオンラインで行なう必要は必ずしもない。図18には、ロボット100のモーション・データで記述される継続的動的運動を任意の時刻からの再生・停止をオフラインで処理するための手順について示している。   It is not always necessary to play and stop motion data online. FIG. 18 shows a procedure for processing the reproduction / stop of the continuous dynamic motion described by the motion data of the robot 100 from an arbitrary time off-line.

まず、ユーザ入力などによりモーション・データ中の開始時刻を設定する(ステップS71)。次いで、ユーザ入力などによりモーション・データ中の停止時刻を設定する(ステップS72)。   First, a start time in the motion data is set by a user input or the like (step S71). Next, a stop time in the motion data is set by a user input or the like (step S72).

次いで、この開始時刻における動的姿勢の計算を行なう(ステップS73)。そして、停止時刻における動的姿勢を計算する(ステップS74)。そして、開始時刻の動的姿勢を終点とする過渡モーションを生成する(ステップS75)。   Next, the dynamic posture at this start time is calculated (step S73). Then, the dynamic posture at the stop time is calculated (step S74). Then, a transient motion having the dynamic posture at the start time as the end point is generated (step S75).

次いで、停止姿勢を始点とする過渡モーションを生成する(ステップS76)。そして、この過渡モーションを用いて、実機上でのモーションの再生を行なうとともに(ステップS77)、実機の動作を停止させる(ステップS78)。   Next, a transient motion starting from the stop posture is generated (step S76). Then, using this transient motion, the motion is reproduced on the actual device (step S77), and the operation of the actual device is stopped (step S78).

図5にはモーション編集処理の手順を概略的に示したが、図13にはこの処理手順をより詳細に示している。   FIG. 5 schematically shows the procedure of the motion editing processing, and FIG. 13 shows this processing procedure in more detail.

まず、モーション作成編集システム上で、モーション・データを作成する(ステップS61)。例えば、ユーザは、モーション編集アプリケーションをインストールしたパーソナル・コンピュータなどのモーション編集システム上で、オフラインで脚式移動ロボット100用のモーション・データを編集する。モーション・データは、例えばロボット100の2以上のポーズ(姿勢)を時系列的に組み合わせていくことによって編集を行なうことができる。ロボット100のポーズは、各関節角の変位量によって記述される。また、モーション・データは、各関節角の変位量やその速度、加速度などで構成される。   First, motion data is created on the motion creation / editing system (step S61). For example, a user edits motion data for the legged mobile robot 100 offline on a motion editing system such as a personal computer in which a motion editing application is installed. The motion data can be edited by, for example, combining two or more poses (postures) of the robot 100 in chronological order. The pose of the robot 100 is described by the displacement amount of each joint angle. The motion data is composed of the displacement amount of each joint angle, its speed, acceleration, and the like.

次いで、作成したモーション・データを脚式移動ロボット100にインストールして、実機を使用して動作確認を行なう。但し、モーション・データを実機にインストールするのではなく、ストリーミング形式でデータを実機に配信するようにしてもよい。   Next, the created motion data is installed in the legged mobile robot 100, and the operation is confirmed using an actual machine. However, instead of installing the motion data on the actual device, the data may be distributed to the actual device in a streaming format.

この動作確認のため、仮想空間上での安定化部位の選定とその優先度の指定によるモーションの安定化を行なう(ステップS63)。次いで、安定化されたモーションをモーション作成編集システム上で動作現象確認する(ステップS64)。そして、仮想空間上で所望のモーションであれば、ステップS65へ進んで、実機を使用した動作確認へと向かう。   In order to confirm this operation, the motion is stabilized by selecting a stabilizing part in the virtual space and designating its priority (step S63). Next, the operation phenomenon of the stabilized motion is confirmed on the motion creation / editing system (step S64). If the motion is a desired motion in the virtual space, the process proceeds to step S65, and the operation proceeds to the operation check using the actual device.

また、仮想空間上で所望のモーションでないことが確認された場合には、S62へ向かい、手動又は自動によるモーション編集を行なう。モーション編集では、図11のフローチャートを参照しながら説明したように、該当するアクチュエータへの角度指示値や制御パラメータの修正、トルク評価に基づく安定化優先部位の変更、姿勢評価又は接地位置評価に基づく姿勢安定化処理ブロックの内容の変更、応答性評価に基づくアクチュエータの制御パラメータの変更などを行なう(ステップS42〜S47)。   If it is confirmed that the motion is not the desired motion in the virtual space, the process proceeds to S62, where manual or automatic motion editing is performed. In the motion editing, as described with reference to the flowchart of FIG. 11, correction of an angle instruction value and a control parameter to a corresponding actuator, change of a stabilization priority portion based on torque evaluation, posture evaluation or grounding position evaluation The contents of the posture stabilization processing block are changed, and the control parameters of the actuator are changed based on the response evaluation (steps S42 to S47).

ステップS65では、編集用モーション・データを実ロボットに取り込む。そして、ステップS66では、実ロボットを使用し、動作現象を確認する。   In step S65, the editing motion data is taken into the real robot. In step S66, the operation phenomenon is confirmed using the real robot.

このとき、モーション・データ自体は、動作の連続すなわち各関節角の変位や速度などからなる時系列データであり、時として長大である。本実施形態では、モーション・データの任意の範囲のみを取り出して(図12、図18を参照のこと)、実機上で再生することにより、モーション編集作業の効率化を図ることができる。   At this time, the motion data itself is time-series data including continuation of motion, that is, displacement and speed of each joint angle, and is sometimes long. In the present embodiment, it is possible to improve the efficiency of the motion editing work by extracting only an arbitrary range of motion data (see FIGS. 12 and 18) and reproducing it on an actual device.

実ロボットを使用して動作現象を確認した結果、所望のモーションでないことが判った場合には、安定化部位の再選定とその優先度の再指定やモーションの再編集のためにステップS62へ戻る。ステップS62では、図11のフローチャートを参照しながら説明したように、該当するアクチュエータへの角度指示値や制御パラメータの修正、トルク評価に基づく安定化優先部位の変更、姿勢評価又は接地位置評価に基づく姿勢安定化処理ブロックの内容の変更、応答性評価に基づくアクチュエータの制御パラメータの変更などを行なう(ステップS42〜S47)。   As a result of checking the motion phenomenon using the real robot, if it is found that the motion is not the desired motion, the process returns to step S62 for reselecting a stabilizing portion, redesignating its priority, and reediting the motion. . In step S62, as described with reference to the flowchart of FIG. 11, correction of the angle instruction value or control parameter to the corresponding actuator, change of the stabilization priority part based on torque evaluation, posture evaluation or ground position evaluation is performed. The contents of the posture stabilization processing block are changed, and the control parameters of the actuator are changed based on the response evaluation (steps S42 to S47).

一方、実ロボットを使用して動作現象を確認した結果、所望のモーションであればステップS67へ進み、実ロボットのセンサ情報をモーション作成編集装置に転送する。ここで言うセンサ情報には、各関節アクチュエータに配設されたエンコーダからの回転信号の他、体幹部ユニット40(機体の略重心位置)に配設された加速度センサA1及びジャイロ・センサG1、左右の足底に配設された加速度センサA2〜A3、ジャイロ・センサG2〜G3、並びに床反力センサF1〜F8からの出力が含まれる。   On the other hand, as a result of checking the operation phenomenon using the real robot, if the motion is a desired motion, the process proceeds to step S67, and the sensor information of the real robot is transferred to the motion creating / editing device. The sensor information referred to here includes, in addition to the rotation signal from the encoder provided in each joint actuator, the acceleration sensor A1 and the gyro sensor G1, which are provided in the trunk unit 40 (substantially the center of gravity of the body). Output from acceleration sensors A2 to A3, gyro sensors G2 to G3, and floor reaction force sensors F1 to F8 disposed on the sole of the vehicle.

次いで、取得したセンサ情報を基に、モーション作成編集装置上でロボットの動作を評価する(ステップS68)。ロボットの動作の評価は、上述の図10に示した処理手順に従って、アクチュエータの応答性の評価、アクチュエータ・トルクの評価、姿勢の評価、接地位置の評価、補正達成度の評価、外部接触による衝撃の評価を行なう。   Next, the operation of the robot is evaluated on the motion creation / editing device based on the acquired sensor information (step S68). The evaluation of the operation of the robot is performed in accordance with the processing procedure shown in FIG. 10 described above. Is evaluated.

ここで、ロボットの動作を評価した結果、所定の評価基準を満たさない場合には、ステップS70へ進み、評価内容を保存する。そして、モーションの修正処理を行なった後(ステップS562)、実機上での再生に基づく動作の評価を再度行なう。   Here, as a result of evaluating the operation of the robot, if the predetermined evaluation criterion is not satisfied, the process proceeds to step S70, and the evaluation content is stored. Then, after performing the motion correction processing (step S562), the operation evaluation based on the reproduction on the actual device is performed again.

また、ロボットの動作を評価した結果、所定の評価基準を満たす場合には、評価基準を満たしていればステップS69へ進み、参照データが埋め込まれた最終モーション・データ・ファイルを作成する(図6〜図9を参照のこと)。図13に示したモーション作業を複数回繰り返すことによって、整地や不整地などさまざまな外部環境における参照データを取得し、1つのモーション・データ・ファイルに埋め込んで保存することができる。   In addition, as a result of evaluating the operation of the robot, if a predetermined evaluation criterion is satisfied, the process proceeds to step S69 if the evaluation criterion is satisfied, and a final motion data file in which reference data is embedded is created (FIG. 6). To FIG. 9). By repeating the motion work shown in FIG. 13 a plurality of times, it is possible to acquire reference data in various external environments such as terrain and uneven terrain, and embed and save the data in one motion data file.

ここで、参照データとは、モーション・データを実際に再生している最中に得られるべきセンサ情報や動作情報などで構成される。具体的には、各関節についての角度指令値に対するモーション実行時の測定値や、モーション実行時の各センサの測定値とセンサ出力をフィルタリングした後の測定値の組み合わせ、左右の各足底についての編集時の目標ZMP軌道に対するモーション実行時に安定化制御によって修正された後のZMP軌道、床反力センサの編集時の目標値に対するモーション実行時の測定値などが参照データである。   Here, the reference data includes sensor information, operation information, and the like to be obtained during the actual reproduction of the motion data. Specifically, the measured value at the time of executing the motion for the angle command value for each joint, the combination of the measured value of each sensor at the time of executing the motion and the measured value after filtering the sensor output, the left and right soles The reference data includes the ZMP trajectory corrected by the stabilization control at the time of executing the motion with respect to the target ZMP trajectory at the time of editing, the measured value at the time of executing the motion with respect to the target value at the time of editing the floor reaction force sensor, and the like.

モーション・データが記述するロボットの動作自体が同じであっても、外部環境又は作業環境に応じて各センサ出力は相違する。例えば、同じ歩行パターンであっても、坂道のとき、あるいは路面が動いてしまう砂利の上や毛足の長い絨毯の上とでは、センサの出力値は異なる。本実施形態では、モーション・データには、さまざまな外部環境下でモーションを実行したときに採取された参照データが付加されているので、モーション実行時に外部環境に応じた高度で適応的な制御が可能となる。   Even if the motion of the robot described by the motion data is the same, the output of each sensor differs depending on the external environment or the work environment. For example, even if the walking pattern is the same, the output value of the sensor is different on a slope, on a gravel on which the road surface moves, or on a carpet with long hairs. In the present embodiment, since the motion data includes reference data collected when a motion is executed in various external environments, sophisticated and adaptive control according to the external environment during the motion is performed. It becomes possible.

モーション・データに含まれている参照データに、標準的な環境以外の異なった路面環境など複数の外部環境におけるさまざまな参照データが含まれている場合、それぞれの参照データとモーション・データ再生時の実測データとの偏差を比較することで、現在の外部環境を推定することができる。また、外部環境を推定した後、外部環境に応じてモーション・データの再生をこのまま継続することが可能か否かを判断することができる。   If the reference data included in the motion data includes various reference data in multiple external environments such as different road environments other than the standard environment, each reference data and the By comparing the deviation with the actually measured data, the current external environment can be estimated. Further, after estimating the external environment, it is possible to determine whether or not the reproduction of the motion data can be continued as it is according to the external environment.

図19には、参照データを利用したモーション・データの再生処理手順をフローチャートの形式で示している。   FIG. 19 shows, in the form of a flowchart, a procedure for reproducing motion data using reference data.

モーション再生中には、各関節についての角度指令値に対するモーション実行時の測定値や、モーション実行時の各センサの測定値とセンサ出力をフィルタリングした後の測定値の組み合わせ、左右の各足底についての編集時の目標ZMP軌道に対するモーション実行時に安定化制御によって修正された後のZMP軌道、床反力センサの編集時の目標値に対するモーション実行時の測定値などが参照データとして取得される(ステップS81)。   During the motion playback, the measured value at the time of executing the motion for the angle command value for each joint, the combination of the measured value of each sensor at the time of executing the motion and the measured value after filtering the sensor output, the left and right soles As the reference data, the ZMP trajectory corrected by the stabilization control at the time of executing the motion with respect to the target ZMP trajectory at the time of editing, the measured value at the time of executing the motion with respect to the target value at the time of editing the floor reaction force sensor, etc. S81).

ここで、参照データと実測データを比較し、モーション再生を継続することが可能かどうかを判別する(ステップS82)。   Here, the reference data and the actually measured data are compared to determine whether it is possible to continue the motion reproduction (step S82).

モーション再生の継続が不可能であると判定された場合には、所定の異常終了処理を行なって(ステップS83)、本モーション再生処理全体を異常終了する。   If it is determined that the continuation of the motion reproduction cannot be performed, a predetermined abnormal termination process is performed (step S83), and the entire motion reproduction process is abnormally terminated.

他方、モーション再生の継続が可能であると判定された場合には、参照データと実測データの照合により実際の外部環境の推定を行なう(ステップS84)。   On the other hand, when it is determined that the motion reproduction can be continued, the actual external environment is estimated by comparing the reference data with the actually measured data (step S84).

参照データと実測データとの比較は、評価式を用いて得られる偏差に基づいて行なう。ここで、複数の外部環境についての参照データが用意されているとし、i番目の環境についての参照データをAr(i)、実測データをAm(i)とすると、偏差は下式(46)のように表される。 The comparison between the reference data and the actually measured data is performed based on the deviation obtained using the evaluation formula. Here, assuming that reference data for a plurality of external environments is prepared, and the reference data for the i-th environment is Ar (i) and the measured data is Am (i), the deviation is represented by the following equation (46). ).

Figure 0003555945
Figure 0003555945

そして、制御周期における偏差の平均を下式(47)に基づいて求め、これが最小となる参照データを持つ環境iを現在の外部環境であると推定することができる。   Then, the average of the deviations in the control cycle is obtained based on the following equation (47), and the environment i having the reference data that minimizes this can be estimated as the current external environment.

Figure 0003555945
Figure 0003555945

そして、モーション・データの再生が終了すると(ステップS85)、本処理ルーチン全体を正常終了する。   When the reproduction of the motion data ends (step S85), the entire processing routine ends normally.

以上の構成により、本発明では、
(1)エディタ装置でロボットのモーションデータを作成し、作成したモーションデータをロボットの実機へ転送する。
(2)ロボットは受け取ったモーションデータを実行するとともに、各センサからモーション実行時の外部環境に応じた内部状態のデータを取得する。
(3)さらに、ロボットは取得した内部状態データを参照データとしてエディタ装置へ送信する。
(4)エディタ装置はロボットから取得した参照データを、作成したモーションデータとに基いて、参照データ付きモーションデータとして保存する。その際、最初に送信したモーションデータは、実行結果に基いて、修正を行っても行わなくてもよい。
(5)また、逆に、ロボットがあるモーションデータを実行した際に、参照データ付きモーションデータとロボットの内部状態データとを比較する。
With the above configuration, in the present invention,
(1) The motion data of the robot is created by the editor device, and the created motion data is transferred to the actual robot.
(2) The robot executes the received motion data and acquires data of an internal state corresponding to the external environment at the time of executing the motion from each sensor.
(3) Further, the robot transmits the acquired internal state data to the editor device as reference data.
(4) The editor device stores the reference data obtained from the robot as motion data with reference data based on the created motion data. At that time, the motion data transmitted first may or may not be modified based on the execution result.
(5) Conversely, when the robot executes certain motion data, the motion data with reference data is compared with the internal state data of the robot.

これらのことにより、モーション実行中の例えば路面といった外部環境を推定し、モーション再生の成否を知ることができる。なお、ここで言う内部データとは、ロボットの外部環境等に応じて変化するロボットの内部状態量(例えば、関節角度、各センサ値など)を表す値である。   Thus, it is possible to estimate an external environment such as a road surface during the execution of the motion, and to know whether or not the motion has been reproduced. Note that the internal data referred to here is a value representing an internal state quantity (for example, a joint angle, each sensor value, or the like) of the robot that changes according to the external environment of the robot.

[追補]
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
[Supplement]
The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the scope of the present invention.

本発明の要旨は、必ずしも「ロボット」と称される製品には限定されない。すなわち、電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行なう機械装置あるいはその他一般的な移動体装置であるならば、例えば玩具などのような他の産業分野に属する製品であっても、同様に本発明を適用することができる。   The gist of the present invention is not necessarily limited to products called “robots”. In other words, if it is a mechanical device or other general mobile device that performs motion similar to human motion using electric or magnetic action, it is a product belonging to another industrial field such as a toy etc. Even if there is, the present invention can be similarly applied.

要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。   In short, the present invention has been disclosed by way of example, and the contents described in this specification should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims described at the beginning should be considered.

図1は、本発明に係るモーション編集システムによるモーション編集の対象となる脚式移動ロボット100の外観構成を示した図である。FIG. 1 is a diagram showing an external configuration of a legged mobile robot 100 to be subjected to motion editing by the motion editing system according to the present invention. 図2は、本発明に係るモーション編集システムによるモーション編集の対象となる脚式移動ロボット100の外観構成を示した図である。FIG. 2 is a diagram showing an external configuration of the legged mobile robot 100 to be subjected to motion editing by the motion editing system according to the present invention. 図3は、本発明の実施に供される脚式移動ロボット100の自由度構成を模式的に示した図である。FIG. 3 is a diagram schematically illustrating a degree of freedom configuration of the legged mobile robot 100 used in the embodiment of the present invention. 図4は、脚式移動ロボット100の制御システム構成を模式的に示した図である。FIG. 4 is a diagram schematically illustrating a control system configuration of the legged mobile robot 100. 図5は、本発明の一実施形態に係るモーション編集システムにおける処理フローを模式的に示した図である。FIG. 5 is a diagram schematically showing a processing flow in the motion editing system according to one embodiment of the present invention. 図6は、モーション・データに含まれる関節角情報のデータ構造を示した図である。FIG. 6 is a diagram showing a data structure of joint angle information included in motion data. 図7は、モーション・データに含まれる姿勢情報のデータ構造を示した図である。FIG. 7 is a diagram showing a data structure of the posture information included in the motion data. 図8は、モーション・データに含まれるZMP軌道情報のデータ構造を示した図である。FIG. 8 is a diagram showing a data structure of ZMP trajectory information included in the motion data. 図9は、モーション・データに含まれる足底接地情報のデータ構造を示した図である。FIG. 9 is a diagram showing a data structure of the sole contact information included in the motion data. 図10は、センサ情報に基づくロボット100のモーション・データを評価するための処理手順を示したフローチャートである。FIG. 10 is a flowchart illustrating a processing procedure for evaluating the motion data of the robot 100 based on the sensor information. 図11は、モーションの修正処理の手順を示したフローチャートである。FIG. 11 is a flowchart showing the procedure of the motion correction process. 図12は、ロボット100のモーション・データで記述される継続的動的運動を任意の時刻からの再生・停止を処理するための手順を示したフローチャートである。FIG. 12 is a flowchart showing a procedure for processing a continuous dynamic motion described by the motion data of the robot 100 from a given time to playback and stop. 図13は、モーション編集処理についての図5に示したフローチャートをさらに詳細に示した図である。FIG. 13 is a diagram showing the flowchart of the motion editing process shown in FIG. 5 in further detail. 図14は、実ロボットの姿勢評価を説明するための図である。FIG. 14 is a diagram for explaining the posture evaluation of the real robot. 図15は、実ロボットの姿勢評価を説明するための図である。FIG. 15 is a diagram for explaining the posture evaluation of the real robot. 図16は、実ロボットの姿勢評価を説明するための図である。FIG. 16 is a diagram for explaining the posture evaluation of the real robot. 図17は、実ロボット上でモーションを実行したときのロードセルF1〜F8並びに赤外線測距センサD1〜D8より得られる接地・離地情報Cm(i,k)(t)又はCm(i,k)(ω)を示した図である。FIG. 17 shows the ground / offset information C m (i, k) (t) or C m (i, obtained from the load cells F1 to F8 and the infrared distance measuring sensors D1 to D8 when a motion is executed on the real robot. k) is a view showing (ω). 図18は、ロボット100のモーション・データで記述される継続的動的運動を任意の時刻からの再生・停止を処理するための手順についての他の例を示したフローチャートである。FIG. 18 is a flowchart illustrating another example of the procedure for processing the reproduction / stop of the continuous dynamic motion described by the motion data of the robot 100 from an arbitrary time. 図19は、参照データを利用したモーション・データの再生処理手順を示したフローチャートである。FIG. 19 is a flowchart showing a procedure for reproducing motion data using reference data. 図20は、NT曲線の例を示した図である。FIG. 20 is a diagram showing an example of the NT curve.

符号の説明Explanation of reference numerals

30…頭部ユニット,40…体幹部ユニット
50…腕部ユニット,51…上腕ユニット
52…肘関節ユニット,53…前腕ユニット
60…脚部ユニット,61…大腿部ユニット
62…膝関節ユニット,63…脛部ユニット
80…制御ユニット,81…主制御部
82…周辺回路
100…脚式移動ロボット
DESCRIPTION OF SYMBOLS 30 ... Head unit, 40 ... Trunk unit 50 ... Arm unit, 51 ... Upper arm unit 52 ... Elbow joint unit, 53 ... Forearm unit 60 ... Leg unit, 61 ... Thigh unit 62 ... Knee joint unit, 63 ... Shin unit 80: Control unit 81 ... Main control unit 82 ... Peripheral circuit 100 ... Legged mobile robot

Claims (48)

複数の関節自由度と前記関節を駆動する駆動手段とセンサを有するロボット装置のモーション・データを編集するモーション編集装置において、
前記ロボット装置のモーション・データを作成するモーション・データ作成手段と、
前記モーション・データを前記ロボット装置へ出力する出力手段と、
前記出力されたモーション・データを前記ロボット装置が実行した際の前記ロボット装置のセンサ情報又は動作情報から構成される情報を参照データとして取得する参照データ取得手段と、
前記モーション・データ作成手段が作成した前記モーション・データと前記参照データに基いて、参照データ付きモーション・データを作成する参照データ付きモーション・データ作成手段と、
を具備することを特徴とするモーション編集装置。
A motion editing device for editing motion data of a robot device having a plurality of joint degrees of freedom and a driving unit and a sensor for driving the joint,
Motion data creating means for creating motion data of the robot device;
Output means for outputting the motion data to the robot device;
Reference data obtaining means for obtaining, as reference data, information composed of sensor information or motion information of the robot device when the output motion data is executed by the robot device,
Based on the motion data and the reference data created by the motion data creating means, motion data with reference data creating means to create motion data with reference data,
A motion editing device comprising:
前記取得した参照データに基づいて、前記作成したモーション・データを評価するモーション・データ評価手段をさらに備える,
ことを特徴とする請求項1に記載のモーション編集装置。
Further comprising motion data evaluation means for evaluating the created motion data based on the acquired reference data;
The motion editing apparatus according to claim 1, wherein
前記モーション・データ評価手段による評価結果に基づいて前記モーション・データを修正するモーション・データ修正手段をさらに備える、
ことを特徴とする請求項2に記載のモーション編集装置。
The apparatus further comprises a motion data correction unit that corrects the motion data based on an evaluation result by the motion data evaluation unit,
The motion editing apparatus according to claim 2, wherein
前記参照データ付きモーション・データ作成手段は、前記モーション・データ評価手段において評価基準を満たすモーション・データに前記参照データを付加した参照データ付きモーション・データを作成する、
ことを特徴とする請求項3に記載のモーション編集装置。
The motion data with reference data creating means creates motion data with reference data obtained by adding the reference data to motion data satisfying an evaluation criterion in the motion data evaluation means,
The motion editing device according to claim 3, wherein
前記出力手段は、前記モーション・データを前記ロボット装置にストリーミング形式で出力する、
ことを特徴とする請求項1に記載のモーション編集装置。
The output means outputs the motion data to the robot device in a streaming format,
The motion editing apparatus according to claim 1, wherein
前記参照データ付きモーション・データ作成手段は、各関節についての角度指令値とモーション実行時の測定値の組み合わせで構成される関節角情報が参照データに含まれる参照データ付きモーション・データを作成する、
ことを特徴とする請求項1に記載のモーション編集装置。
The motion data with reference data creating means creates motion data with reference data including joint angle information including a combination of an angle command value for each joint and a measurement value at the time of executing the motion in the reference data.
The motion editing apparatus according to claim 1, wherein
前記参照データ付きモーション・データ作成手段は、各センサについてのモーション作成時の目標値と、モーション実行時のセンサ出力と、該センサ出力をフィルタリングした後の測定値との組み合わせで構成される姿勢情報が参照データに含まれる参照データ付きモーション・データを作成する、
ことを特徴とする請求項1に記載のモーション編集装置。
The motion data with reference data creating means is configured to combine a target value at the time of creating a motion for each sensor, a sensor output at the time of executing the motion, and a measured value obtained by filtering the sensor output. Creates motion data with reference data included in the reference data,
The motion editing apparatus according to claim 1, wherein
前記参照データ付きモーション・データ作成手段は、左右の各足底についての編集時の目標ZMP軌道とモーション実行時に安定化制御によって修正された後のZMP軌道の組み合わせで構成されるZMP軌道情報を参照データ付きモーション・データとして作成する、
ことを特徴とする請求項1に記載のモーション編集装置。
The motion data creating means with reference data refers to ZMP trajectory information composed of a combination of a target ZMP trajectory for editing of each of the left and right soles and a ZMP trajectory corrected by the stabilization control during motion execution. Create as motion data with data,
The motion editing apparatus according to claim 1, wherein
前記参照データ付きモーション・データ作成手段は、前記モーション・データ作成時の床反力センサの目標値とモーション実行時の床反力センサの測定値との組み合わせで構成される足底接地情報又は接触情報を参照データ付きモーション・データとして作成する、
ことを特徴とする請求項1に記載のモーション編集装置。
The motion data creating means with reference data is a sole contact information or a contact formed by a combination of a target value of the floor reaction force sensor at the time of creating the motion data and a measurement value of the floor reaction force sensor at the time of executing the motion. Create information as motion data with reference data,
The motion editing apparatus according to claim 1, wherein
前記モーション・データ評価手段は、前記ロボット装置でモーション・データを実行したときの追従性を時系列又は周波数領域に基づいてモーション・データを評価する、
ことを特徴とする請求項2に記載のモーション編集装置。
The motion data evaluation means evaluates the motion data based on a time series or a frequency domain when the robot device executes the motion data,
The motion editing apparatus according to claim 2, wherein
前記モーション・データ評価手段は、前記ロボット装置でモーション・データを実行したときのアクチュエータ・トルク値と回転数を時系列で取得し、取得したデータとNT曲線により表されるアクチュエータの特性との比較に基づいてモーション・データを評価する、
ことを特徴とする請求項2に記載のモーション編集装置。
The motion data evaluation means obtains an actuator torque value and a rotation speed in a time series when the motion data is executed by the robot device, and compares the obtained data with a characteristic of an actuator represented by an NT curve. Evaluate motion data based on
The motion editing apparatus according to claim 2, wherein
前記モーション・データ評価手段は、前記モーション・データ作成手段によるモーション・データ作成時に計画した姿勢センサ値やZMP軌道と、実ロボットで実行したときセンサ値やZMP軌道との差を算出し、前記ロボット装置の姿勢に基づいてモーション・データを評価する、
ことを特徴とする請求項2に記載のモーション編集装置。
The motion data evaluation means calculates a difference between a posture sensor value or a ZMP trajectory planned at the time of motion data creation by the motion data creation means and a sensor value or a ZMP trajectory when executed by a real robot. Evaluate motion data based on device attitude,
The motion editing apparatus according to claim 2, wherein
前記モーション・データ評価手段は、前記モーション・データ作成手段によるモーション・データ作成時の前記ロボット装置の姿勢と、前記ロボット装置でモーション・データを実行したときの測定値との差分を計算し、前記ロボット装置の接地又は接触に基づいてモーション・データの評価を行なう、
ことを特徴とする請求項2に記載のモーション編集装置。
The motion data evaluation means calculates a difference between the posture of the robot device when creating the motion data by the motion data creation means and a measurement value when executing the motion data with the robot device, Performing motion data evaluation based on grounding or contact of the robotic device;
The motion editing apparatus according to claim 2, wherein
前記モーション・データ評価手段は、前回以前の評価を基に前記モーション・データ修正手段により修正されたモーション・データを実行したときの評価結果と、今回の評価を基に前記モーション・データ修正手段により修正されたモーション・データを実行したときの評価結果を比較することにより、モーション・データの修正による補正達成度の評価を行なう、
ことを特徴とする請求項3に記載のモーション編集装置。
The motion data evaluation means is an evaluation result when executing the motion data corrected by the motion data correction means based on the previous evaluation, and the motion data correction means based on the current evaluation. By comparing the evaluation results when the corrected motion data is executed, the degree of correction achieved by correcting the motion data is evaluated.
The motion editing device according to claim 3, wherein
前記モーション・データ修正手段は、アクチュエータ応答性評価結果に基づいて、アクチュエータへの角度指示値を修正し、又は、アクチュエータの制御パラメータを修正する、
ことを特徴とする請求項3に記載のモーション編集装置。
The motion data correction unit corrects an angle instruction value to the actuator based on the actuator responsiveness evaluation result, or corrects a control parameter of the actuator,
The motion editing device according to claim 3, wherein
前記モーション・データ修正手段は、アクチュエータ・トルクの評価結果に基づいて、姿勢安定化処理によるモーション・データの修正を行なう、
ことを特徴とする請求項3に記載のモーション編集装置。
The motion data correction unit corrects motion data by a posture stabilization process based on an evaluation result of the actuator torque.
The motion editing device according to claim 3, wherein
前記モーション・データ修正手段は、接地又は接触の評価結果に基づいて、姿勢安定化処理によるモーション・データの修正を行なう、
ことを特徴とする請求項3に記載のモーション編集装置。
The motion data correction means corrects the motion data by the posture stabilization process based on the evaluation result of the contact with the ground or the contact.
The motion editing device according to claim 3, wherein
前記モーション・データ修正手段は、外部接触による衝撃の評価結果に基づいて、外部接触を考慮した姿勢安定化処理によりモーション・データの修正を行なう、
ことを特徴とする請求項3に記載のモーション編集装置。
The motion data correction unit corrects the motion data by a posture stabilization process in consideration of the external contact, based on the evaluation result of the impact due to the external contact.
The motion editing device according to claim 3, wherein
複数の関節自由度と前記関節を駆動する駆動手段を有するロボット装置のモーション・データを編集するモーション編集装置において、
前記モーション・データ中にモーションの開始時刻を設定するモーション開始時刻設定手段と、
前記開始時刻における前記ロボット装置の姿勢をモーションの終点とする過渡モーションを作成する開始過渡モーション作成手段と、
前記モーション・データ中にモーションの停止時刻を設定するモーション停止時刻設定手段と、
前記停止時刻における前記ロボット装置の姿勢をモーションの始点とする過渡モーションを作成する停止過渡モーション作成手段と、
を具備することを特徴とするモーション編集装置。
A motion editing apparatus for editing motion data of a robot apparatus having a plurality of joint degrees of freedom and a driving unit for driving the joint,
Motion start time setting means for setting the start time of the motion in the motion data,
Start transient motion creating means for creating a transient motion with the posture of the robot device at the start time as the end point of the motion,
Motion stop time setting means for setting a stop time of the motion in the motion data,
Stop transient motion creating means for creating a transient motion with the posture of the robot device at the stop time as a start point of the motion,
A motion editing device comprising:
複数の関節自由度と前記関節を駆動する駆動手段を有するロボット装置において、
請求項1に記載のモーション編集装置で作成された参照データ付きモーション・データを取得する取得手段と、
取得した前記参照データ付きモーション・データを実行するモーション・データ実行手段と、
を具備することを特徴とするロボット装置。
In a robot apparatus having a plurality of joint degrees of freedom and a driving unit for driving the joint,
Acquisition means for acquiring motion data with reference data created by the motion editing apparatus according to claim 1;
Motion data execution means for executing the acquired motion data with reference data,
A robot device comprising:
前記モーション・データ実行手段によりモーション・データを実行した際の前記ロボット装置のセンサ情報又は動作情報を取得するセンサ情報取得手段と、
センサ情報又は動作情報から構成される情報を参照データとして請求項1に記載のモーション編集装置へ出力する出力手段と、
をさらに備えることを特徴とする請求項20に記載のロボット装置。
Sensor information acquisition means for acquiring sensor information or operation information of the robot device when executing the motion data by the motion data execution means,
Output means for outputting information comprising sensor information or operation information to the motion editing apparatus according to claim 1 as reference data;
The robot apparatus according to claim 20, further comprising:
センサと、複数の関節自由度と前記関節を駆動する駆動手段とを有するロボット装置において、
モーション・データをロボット装置が実行した際のセンサの実測データを参照データとして含んだ参照データ付きモーション・データを取得するモーション・データ取得手段と、
前記参照データ付きモーション・データを実行するモーション・データ実行手段と、
前記参照データ付きモーション・データを実行している際の前記センサの実測データを取得する実測データ取得手段と、
前記参照データと前記実測データを比較することにより、現在の外部環境を推定する外部環境推定手段と、
を具備することを特徴とするロボット装置。
In a robot device having a sensor and a plurality of joint degrees of freedom and driving means for driving the joint,
Motion data acquisition means for acquiring motion data with reference data including actual measurement data of the sensor when the robot device executes the motion data as reference data,
Motion data execution means for executing the motion data with reference data,
Measurement data acquisition means for acquiring measurement data of the sensor when executing the motion data with the reference data,
External environment estimating means for estimating the current external environment by comparing the reference data and the measured data,
A robot device comprising:
センサと、複数の関節自由度と前記関節を駆動する駆動手段を有するロボット装置において、
モーション・データをロボット装置が実行した際のセンサの実測データを参照データとして含んだ参照データ付きモーション・データを取得するモーション・データ取得手段と、
前記参照データ付きモーション・データを実行するモーション・データ実行手段と、
前記参照データ付きモーション・データを実行している際の前記センサの実測データを取得する手段と、
前記参照データと前記実測データを比較することにより、前記モーション・データの実行が継続可能か否かを判別する判別手段と、
前記判別手段が前記モーション・データの実行継続が不可能と判別したことに応答して、前記モーション・データの実行を終了させる終了手段と、
を具備することを特徴とするロボット装置。
In a robot apparatus having a sensor and a plurality of joint degrees of freedom and driving means for driving the joint,
Motion data acquisition means for acquiring motion data with reference data including actual measurement data of the sensor when the robot device executes the motion data as reference data,
Motion data execution means for executing the motion data with reference data,
Means for acquiring the measured data of the sensor when executing the motion data with the reference data,
By comparing the reference data and the measured data, determining means for determining whether or not execution of the motion data can be continued,
Terminating means for terminating the execution of the motion data in response to the determination means determining that the execution of the motion data cannot be continued;
A robot device comprising:
複数の関節自由度と前記関節を駆動する駆動手段を有するロボット装置のモーション・データを作成するモーション編集システムにおいて、
前記ロボット装置のモーション・データを作成するモーション・データ作成手段と、
前記モーション・データを出力する出力手段と、
出力された前記モーション・データを取得して実行するロボット装置と、
出力された前記モーションデータを前記ロボット装置が実行した際の前記ロボット装置のセンサ情報又は動作情報から構成される情報を参照データとして取得する参照データ取得手段と、
前記モーション・データ作成手段が作成した前記モーション・データと前記参照データに基いて、参照データ付きモーション・データを作成する参照データ付きモーション・データ作成手段と、
を具備することを特徴とするモーション編集システム。
In a motion editing system for creating motion data of a robot apparatus having a plurality of joint degrees of freedom and a driving unit for driving the joint,
Motion data creating means for creating motion data of the robot device;
Output means for outputting the motion data;
A robot device for acquiring and executing the output motion data,
Reference data obtaining means for obtaining, as reference data, information configured from sensor information or operation information of the robot device when the output of the motion data is executed by the robot device,
Based on the motion data and the reference data created by the motion data creating means, motion data with reference data creating means to create motion data with reference data,
A motion editing system, comprising:
ロボット装置のモーション・データと、
前記モーション・データを前記ロボット装置が実行した際に前記ロボット装置から得られるセンサ情報又は動作情報から構成される参照データと、
を参照データ付きモーション・データとして格納する、
ことを特徴とする記憶媒体。
Motion data of the robot device,
Reference data composed of sensor information or motion information obtained from the robot device when the robot device executes the motion data,
Is stored as motion data with reference data,
A storage medium characterized by the above-mentioned.
複数の関節自由度と前記関節を駆動する駆動手段とセンサを有するロボット装置のモーション・データを編集するモーション編集方法において、
前記ロボット装置のモーション・データを作成するモーション・データ作成ステップと、
前記モーション・データを前記ロボット装置へ出力する出力ステップと、
前記出力されたモーション・データを前記ロボット装置が実行した際の前記ロボット装置のセンサ情報又は動作情報から構成される情報を参照データとして取得する参照データ取得ステップと、
前記モーション・データ作成ステップにより作成した前記モーション・データと前記参照データに基いて、参照データ付きモーション・データを作成する参照データ付きモーション・データ作成ステップと、
を具備することを特徴とするモーション編集方法。
A motion editing method for editing motion data of a robot device having a plurality of joint degrees of freedom and a driving unit and a sensor for driving the joint,
A motion data creation step of creating motion data of the robot device;
An output step of outputting the motion data to the robot device;
A reference data acquisition step of acquiring information composed of sensor information or operation information of the robot device when the output motion data is executed by the robot device as reference data,
Based on the motion data and the reference data created by the motion data creation step, based on the reference data, motion data with reference data to create motion data with reference data,
A motion editing method, comprising:
前記取得した参照データに基づいて、前記作成したモーション・データを評価するモーション・データ評価ステップをさらに備える,
ことを特徴とする請求項26に記載のモーション編集方法。
A motion data evaluation step of evaluating the created motion data based on the acquired reference data;
The motion editing method according to claim 26, wherein:
前記モーション・データ評価ステップによる評価結果に基づいて前記モーション・データを修正するモーション・データ修正ステップをさらに備える、
ことを特徴とする請求項27に記載のモーション編集方法。
Further comprising a motion data correction step of correcting the motion data based on the evaluation result by the motion data evaluation step,
28. The motion editing method according to claim 27, wherein:
前記参照データ付きモーション・データ作成ステップでは、前記モーション・データ評価ステップにおいて評価基準を満たすモーション・データに前記参照データを付加した参照データ付きモーション・データを作成する、
ことを特徴とする請求項28に記載のモーション編集方法。
In the motion data creation step with reference data, in the motion data evaluation step to create motion data with reference data obtained by adding the reference data to motion data that satisfies the evaluation criteria,
29. The motion editing method according to claim 28, wherein:
前記出力ステップでは、前記モーション・データを前記ロボット装置にストリーミング形式で出力する、
ことを特徴とする請求項26に記載のモーション編集方法。
In the output step, the motion data is output to the robot device in a streaming format.
The motion editing method according to claim 26, wherein:
前記参照データ付きモーション・データ作成ステップでは、各関節についての角度指令値とモーション実行時の測定値の組み合わせで構成される関節角情報が参照データに含まれる参照データ付きモーション・データを作成する、
ことを特徴とする請求項26に記載のモーション編集方法。
In the motion data creation step with reference data, to create motion data with reference data including joint angle information composed of a combination of an angle command value for each joint and a measurement value at the time of the motion is included in the reference data,
The motion editing method according to claim 26, wherein:
前記参照データ付きモーション・データ作成ステップでは、各センサについてのモーション作成時の目標値と、モーション実行時のセンサ出力と、該センサ出力をフィルタリングした後の測定値との組み合わせで構成される姿勢情報が参照データに含まれる参照データ付きモーション・データを作成する、
ことを特徴とする請求項26に記載のモーション編集方法。
In the motion data creating step with reference data, posture information including a combination of a target value at the time of creating a motion for each sensor, a sensor output at the time of executing the motion, and a measured value obtained by filtering the sensor output. Creates motion data with reference data included in the reference data,
The motion editing method according to claim 26, wherein:
前記参照データ付きモーション・データ作成ステップでは、左右の各足底についての編集時の目標ZMP軌道とモーション実行時に安定化制御によって修正された後のZMP軌道の組み合わせで構成されるZMP軌道情報を参照データ付きモーション・データとして作成する、
ことを特徴とする請求項26に記載のモーション編集方法。
In the motion data creation step with reference data, the ZMP trajectory information composed of a combination of the target ZMP trajectory at the time of editing for each of the left and right soles and the ZMP trajectory corrected by the stabilization control at the time of executing the motion is referred to. Create as motion data with data,
The motion editing method according to claim 26, wherein:
前記参照データ付きモーション・データ作成ステップでは、前記モーション・データ作成時の床反力センサの目標値とモーション実行時の床反力センサの測定値との組み合わせで構成される足底接地情報又は接触情報を参照データ付きモーション・データとして作成する、
ことを特徴とする請求項26に記載のモーション編集方法。
In the motion data creating step with reference data, the sole contact information or contact information composed of a combination of a target value of the floor reaction force sensor at the time of creating the motion data and a measurement value of the floor reaction force sensor at the time of executing the motion. Create information as motion data with reference data,
The motion editing method according to claim 26, wherein:
前記モーション・データ評価ステップでは、前記ロボット装置でモーション・データを実行したときの追従性を時系列又は周波数領域に基づいてモーション・データを評価する、
ことを特徴とする請求項27に記載のモーション編集方法。
In the motion data evaluation step, to evaluate the motion data based on a time series or frequency domain, the follow-up performance when executing the motion data in the robot device,
28. The motion editing method according to claim 27, wherein:
前記モーション・データ評価ステップでは、前記ロボット装置でモーション・データを実行したときのアクチュエータ・トルク値と回転数を時系列で取得し、取得したデータとNT曲線により表されるアクチュエータの特性との比較に基づいてモーション・データを評価する、
ことを特徴とする請求項27に記載のモーション編集方法。
In the motion data evaluation step, the actuator torque value and the rotation speed when the robot device executes the motion data are obtained in a time series, and the obtained data is compared with the characteristics of the actuator represented by the NT curve. Evaluate motion data based on
28. The motion editing method according to claim 27, wherein:
前記モーション・データ評価ステップでは、前記モーション・データ作成ステップにおけるモーション・データ作成時に計画した姿勢センサ値やZMP軌道と、実ロボットで実行したときセンサ値やZMP軌道との差を算出し、前記ロボット装置の姿勢に基づいてモーション・データを評価する、
ことを特徴とする請求項27に記載のモーション編集方法。
In the motion data evaluation step, a difference between a posture sensor value or a ZMP trajectory planned at the time of creating motion data in the motion data creation step and a sensor value or a ZMP trajectory when executed by a real robot is calculated. Evaluate motion data based on device attitude,
28. The motion editing method according to claim 27, wherein:
前記モーション・データ評価ステップでは、前記モーション・データ作成ステップにおけるモーション・データ作成時の前記ロボット装置の姿勢と、前記ロボット装置でモーション・データを実行したときの測定値との差分を計算し、前記ロボット装置の接地又は接触に基づいてモーション・データの評価を行なう、
ことを特徴とする請求項27に記載のモーション編集方法。
In the motion data evaluation step, the difference between the posture of the robot device at the time of creating the motion data in the motion data creation step and a measurement value when executing the motion data in the robot device is calculated. Performing motion data evaluation based on grounding or contact of the robotic device;
28. The motion editing method according to claim 27, wherein:
前記モーション・データ評価ステップでは、前回以前の評価を基に前記モーション・データ修正手段により修正されたモーション・データを実行したときの評価結果と、今回の評価を基に前記モーション・データ修正手段により修正されたモーション・データを実行したときの評価結果を比較することにより、モーション・データの修正による補正達成度の評価を行なう、
ことを特徴とする請求項28に記載のモーション編集方法。
In the motion data evaluation step, the evaluation result when executing the motion data corrected by the motion data correction means based on the evaluation before the previous time, and the motion data correction means based on the current evaluation By comparing the evaluation results when the corrected motion data is executed, the degree of correction achieved by correcting the motion data is evaluated.
29. The motion editing method according to claim 28, wherein:
前記モーション・データ修正ステップでは、アクチュエータ応答性評価結果に基づいて、アクチュエータへの角度指示値を修正し、又は、アクチュエータの制御パラメータを修正する、
ことを特徴とする請求項28に記載のモーション編集方法。
In the motion data correction step, based on the actuator response evaluation result, to correct the angle instruction value to the actuator, or to correct the control parameters of the actuator,
29. The motion editing method according to claim 28, wherein:
前記モーション・データ修正ステップでは、アクチュエータ・トルクの評価結果に基づいて、姿勢安定化処理によるモーション・データの修正を行なう、
ことを特徴とする請求項28に記載のモーション編集方法。
In the motion data correction step, based on the evaluation result of the actuator torque, to correct the motion data by posture stabilization processing,
29. The motion editing method according to claim 28, wherein:
前記モーション・データ修正ステップでは、接地又は接触の評価結果に基づいて、姿勢安定化処理によるモーション・データの修正を行なう、
ことを特徴とする請求項28に記載のモーション編集方法。
In the motion data correction step, based on the evaluation result of the touchdown or contact, to correct the motion data by posture stabilization processing,
29. The motion editing method according to claim 28, wherein:
前記モーション・データ修正ステップでは、外部接触による衝撃の評価結果に基づいて、外部接触を考慮した姿勢安定化処理によりモーション・データの修正を行なう、
ことを特徴とする請求項28に記載のモーション編集方法。
In the motion data correction step, based on the evaluation result of the impact due to the external contact, the motion data is corrected by a posture stabilization process in consideration of the external contact,
29. The motion editing method according to claim 28, wherein:
複数の関節自由度と前記関節を駆動する駆動手段を有するロボット装置のモーション・データを編集するモーション編集方法において、
前記モーション・データ中にモーションの開始時刻を設定するモーション開始時刻設定ステップと、
前記開始時刻における前記ロボット装置の姿勢をモーションの終点とする過渡モーションを作成する開始過渡モーション作成ステップと、
前記モーション・データ中にモーションの停止時刻を設定するモーション停止時刻設定ステップと、
前記停止時刻における前記ロボット装置の姿勢をモーションの始点とする過渡モーションを作成する停止過渡モーション作成ステップと、
を具備することを特徴とするモーション編集方法。
In a motion editing method for editing motion data of a robot device having a plurality of joint degrees of freedom and a driving unit for driving the joint,
A motion start time setting step of setting a motion start time in the motion data;
A starting transient motion creating step of creating a transient motion with the posture of the robot device at the start time as an end point of the motion,
A motion stop time setting step of setting a motion stop time in the motion data;
A stop transient motion creating step of creating a transient motion with the posture of the robot device at the stop time as a start point of the motion,
A motion editing method, comprising:
複数の関節自由度と前記関節を駆動する駆動手段を有するロボット装置の制御方法において、
請求項1に記載のモーション編集装置で作成された参照データ付きモーション・データを取得する取得ステップと、
取得した前記参照データ付きモーション・データを実行するモーション・データ実行ステップと、
を具備することを特徴とするロボット装置の制御方法。
A method of controlling a robot apparatus having a plurality of joint degrees of freedom and a driving unit for driving the joint,
An acquiring step of acquiring motion data with reference data created by the motion editing apparatus according to claim 1;
A motion data execution step of executing the acquired motion data with reference data,
A control method for a robot device, comprising:
前記モーション・データ実行ステップにおいてモーション・データを実行した際の前記ロボット装置のセンサ情報又は動作情報を取得するセンサ情報取得ステップと、
センサ情報又は動作情報から構成される情報を参照データとして請求項1に記載のモーション編集装置へ出力する出力ステップと、
をさらに備えることを特徴とする請求項45に記載のロボット装置の制御方法。
A sensor information acquisition step of acquiring sensor information or operation information of the robot device when executing the motion data in the motion data execution step,
An output step of outputting information composed of sensor information or operation information to the motion editing apparatus according to claim 1 as reference data;
The control method for a robot device according to claim 45, further comprising:
センサと、複数の関節自由度と前記関節を駆動する駆動手段とを有するロボット装置の制御方法において、
モーション・データをロボット装置が実行した際のセンサの実測データを参照データとして含んだ参照データ付きモーション・データを取得するモーション・データ取得ステップと、
前記参照データ付きモーション・データを実行するモーション・データ実行ステップと、
前記参照データ付きモーション・データを実行している際の前記センサの実測データを取得する実測データ取得ステップと、
前記参照データと前記実測データを比較することにより、現在の外部環境を推定する外部環境推定ステップと、
を具備することを特徴とするロボット装置の制御方法。
In a control method of a robot apparatus having a sensor and a plurality of joint degrees of freedom and a driving unit for driving the joint,
A motion data acquisition step of acquiring motion data with reference data including actual measurement data of a sensor when the robot device executes the motion data as reference data,
A motion data execution step of executing the motion data with the reference data,
An actual measurement data acquisition step of acquiring actual measurement data of the sensor when executing the motion data with the reference data,
By comparing the reference data and the actual measurement data, an external environment estimation step of estimating the current external environment,
A control method for a robot device, comprising:
センサと、複数の関節自由度と前記関節を駆動する駆動手段を有するロボット装置の制御方法において、
モーション・データをロボット装置が実行した際のセンサの実測データを参照データとして含んだ参照データ付きモーション・データを取得するモーション・データ取得ステップと、
前記参照データ付きモーション・データを実行するモーション・データ実行ステップと、
前記参照データ付きモーション・データを実行している際の前記センサの実測データを取得するステップと、
前記参照データと前記実測データを比較することにより、前記モーション・データの実行が継続可能か否かを判別する判別ステップと、
前記判別ステップにおいて前記モーション・データの実行継続が不可能と判別したことに応答して、前記モーション・データの実行を終了させる終了ステップと、
を具備することを特徴とするロボット装置の制御方法。
A control method for a robot apparatus having a sensor and a plurality of joint degrees of freedom and a driving unit for driving the joint;
A motion data acquisition step of acquiring motion data with reference data including actual measurement data of a sensor when the robot device executes the motion data as reference data,
A motion data execution step of executing the motion data with the reference data,
Acquiring actual measurement data of the sensor when executing the motion data with the reference data,
A comparing step of comparing the reference data and the actually measured data to determine whether or not execution of the motion data can be continued;
An end step of terminating the execution of the motion data in response to determining that the execution of the motion data cannot be continued in the determining step;
A control method for a robot device, comprising:
JP2003352954A 2002-10-11 2003-10-10 Motion editing device and motion editing method for robot device, robot device, control method for robot device, and computer program Expired - Lifetime JP3555945B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003352954A JP3555945B2 (en) 2002-10-11 2003-10-10 Motion editing device and motion editing method for robot device, robot device, control method for robot device, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002298348 2002-10-11
JP2003352954A JP3555945B2 (en) 2002-10-11 2003-10-10 Motion editing device and motion editing method for robot device, robot device, control method for robot device, and computer program

Publications (2)

Publication Number Publication Date
JP2004148492A JP2004148492A (en) 2004-05-27
JP3555945B2 true JP3555945B2 (en) 2004-08-18

Family

ID=32473584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003352954A Expired - Lifetime JP3555945B2 (en) 2002-10-11 2003-10-10 Motion editing device and motion editing method for robot device, robot device, control method for robot device, and computer program

Country Status (1)

Country Link
JP (1) JP3555945B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4614692B2 (en) * 2004-05-28 2011-01-19 ソニー株式会社 Motion evaluation method for robot apparatus
JP4848686B2 (en) * 2005-07-01 2011-12-28 トヨタ自動車株式会社 Legged robot and its motion adjustment method
JP2007125645A (en) * 2005-11-04 2007-05-24 Hitachi Ltd Robot movement editing system
JP5828539B2 (en) * 2011-02-02 2015-12-09 国立大学法人金沢大学 Robot motion method determination device, robot motion method determination method, and program thereof
JP2013144325A (en) * 2012-01-13 2013-07-25 Seiko Epson Corp Robot apparatus, and failure detection method
JP6993638B2 (en) * 2017-08-18 2022-01-13 東日本旅客鉄道株式会社 A mobile robot that imitates the walking behavior of pedestrians
US20210178578A1 (en) 2017-11-16 2021-06-17 Sony Corporation Information processing apparatus, information processing method, computer program, and program manufacturing method
CN109635498B (en) * 2018-12-29 2023-03-24 中国科学院合肥物质科学研究院 Multi-legged robot walking stability evaluation method based on contact interaction information
WO2020166731A1 (en) * 2019-02-11 2020-08-20 엘지전자 주식회사 Action robot terminal and operating method therefor

Also Published As

Publication number Publication date
JP2004148492A (en) 2004-05-27

Similar Documents

Publication Publication Date Title
US7054718B2 (en) Motion editing apparatus and method for legged mobile robot and computer program
KR100837988B1 (en) Device and method for controlling operation of legged robot, and robot device
EP1103450B1 (en) Legged mobile robots and methods of controlling operation of the same
CN100364728C (en) Operation control device for leg-type mobile robot and operation control method and robot device
EP1344612B1 (en) Device and method for controlling motion of legged mobile robot, and motion unit generating method for legged mobile robot
Yi et al. Online learning of a full body push recovery controller for omnidirectional walking
JP5034235B2 (en) Control system, control method, and computer program
JP2001157973A (en) Walk control device, and walk control method for robot
JPWO2003011535A1 (en) Legged mobile robot and its motion control method
US20120158183A1 (en) Walking robot and control method thereof
JP2001212775A (en) Motion controller for leg-type mobile robot, motion control method, and leg-type mobile robot
Yi et al. Learning full body push recovery control for small humanoid robots
Li et al. Contact force/torque control based on viscoelastic model for stable bipedal walking on indefinite uneven terrain
JP3555945B2 (en) Motion editing device and motion editing method for robot device, robot device, control method for robot device, and computer program
WO2004033160A1 (en) Robot device operation control device and operation control method
Ding et al. Walking stabilization control for humanoid robots on unknown slope based on walking sequences adjustment
US20120065778A1 (en) Robot and control method thereof
Lim et al. Control design to achieve dynamic walking on a bipedal robot with compliance
JP3674779B2 (en) Motion control device and motion control method for legged mobile robot, and robot device
JP2001138273A (en) Leg type mobile and its controlling method
JP3674787B2 (en) Robot apparatus motion control device, motion control method, and computer program
JP3568527B2 (en) Mobile device
JP4457617B2 (en) Motion generation system and robot motion evaluation method
JP3555946B2 (en) Mobile robot apparatus and control method for mobile robot apparatus
JP3555947B2 (en) Mobile robot device, mobile robot device control method, mobile robot device motion pattern generation method, and mobile robot device motion control program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040510

R150 Certificate of patent or registration of utility model

Ref document number: 3555945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090521

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090521

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100521

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110521

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120521

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120521

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term