JP2006198709A - Creation device and method for teaching motion data to articulated robot - Google Patents

Creation device and method for teaching motion data to articulated robot Download PDF

Info

Publication number
JP2006198709A
JP2006198709A JP2005011633A JP2005011633A JP2006198709A JP 2006198709 A JP2006198709 A JP 2006198709A JP 2005011633 A JP2005011633 A JP 2005011633A JP 2005011633 A JP2005011633 A JP 2005011633A JP 2006198709 A JP2006198709 A JP 2006198709A
Authority
JP
Japan
Prior art keywords
data
motion
motion data
posture
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005011633A
Other languages
Japanese (ja)
Other versions
JP4487782B2 (en
Inventor
Toru Miyagawa
透 宮川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005011633A priority Critical patent/JP4487782B2/en
Publication of JP2006198709A publication Critical patent/JP2006198709A/en
Application granted granted Critical
Publication of JP4487782B2 publication Critical patent/JP4487782B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for creating a motion data by effectively utilizing a motion capture device. <P>SOLUTION: The creation device creates the motion data which describes the attitude of an articulated robot with time. The device is equipped with a storing means for storing a first motion data which describes the attitude in executing a scheduled motion with time, the motion capture device for generating a second motion data which measures the attitude of a demonstrator with time and describes the attitude in executing the demonstration motion with time, a motion data integration means which integrates the first motion data and the second motion data, and creates a third motion data which describes the attitude in executing the motion superimposing the demonstration motion on the scheduled motion with time, and a correction means which corrects the third motion data integrated by the motion data integration means to an executable motion data by the articulated robot. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、多関節ロボットに教示する動作データを作成する技術に関する。特に、モーションキャプチャ装置を用いて、動作データの作成を簡単化する技術に関する。   The present invention relates to a technique for creating motion data taught to an articulated robot. In particular, the present invention relates to a technique for simplifying creation of motion data using a motion capture device.

多関節ロボットは、複数のリンクと複数の関節を備えている。多関節ロボットは、各関節の関節角(一方のリンクに対する他方のリンクの回転角)を調節することによって、姿勢を経時的に変え、歩いたり、物を持ったり、物を操作したりする動作を実行する。
多関節ロボットに所定の動作を実行させるためには、多関節ロボットの姿勢を経時的に記述する動作データが必要となる。姿勢を経時的に指定すれば、多関節ロボットは姿勢を経時的に変えるので、結果的に動作することになる。動作データは、姿勢を経時的に記述するものであるが、それは姿勢の経時的変化を記述するものでもあり、動作を記述するものでもある。動作データは、多関節ロボットの各関節の関節角、各リンクの位置、あるいは各リンクの向きを経時的に記述している必要があり、動作データを作成するには非常に面倒な作業が必要とされる。
The multi-joint robot includes a plurality of links and a plurality of joints. An articulated robot changes its posture over time by adjusting the joint angle of each joint (the rotation angle of the other link with respect to one link), and moves, walks, holds objects, and manipulates objects Execute.
In order for the articulated robot to execute a predetermined operation, operation data describing the posture of the articulated robot over time is required. If the posture is specified with time, the articulated robot changes its posture with time, and consequently operates. The motion data describes the posture with time, but it also describes the change with time of the posture and also describes the motion. The motion data needs to describe the joint angle of each joint of the multi-joint robot, the position of each link, or the direction of each link over time, and creating the motion data requires very troublesome work It is said.

人型ロボット等に教示する動作データを作成する際に、モーションキャプチャ装置を用いる技術が開発されている。モーションキャプチャ装置は、実演している人等の姿勢を経時的に測定し、実演動作を実行している間の姿勢を経時的に記述するデータ(姿勢の経時的変化を記述するデータでもあり、動作を記述するデータでもある)を生成する。ロボットに実行させたい動作を人が実演し、実演者の姿勢の経時的変化をモーションキャプチャ装置によってデータ化することによって、ロボットに実行させたい動作を記述する動作データを直接的に作成することが可能となる。
特許文献1には、モーションキャプチャ装置を用いて動作データを作成する装置が開示されている。特許文献1では、人型ロボットが実行可能な動作(姿勢の経時的変化)を予め記憶しておき、モーションキャプチャ装置で得られた動作を、人型ロボットが実行可能な動作に修正する技術が開示されている。
特開2002−301674号公報
A technique using a motion capture device has been developed when creating motion data to be taught to a humanoid robot or the like. The motion capture device measures the posture of the person performing the performance over time and describes the posture over time while performing the demonstration operation (the data describing the change in posture over time, It is also data that describes the action. Humans can demonstrate the motions they want to perform, and the motion capture device can directly create motion data that describes the motions that the robot wants to perform, by using the motion capture device to convert the changes in the posture of the performer over time. It becomes possible.
Patent Document 1 discloses a device that creates motion data using a motion capture device. In Patent Literature 1, there is a technique for storing in advance an action (change in posture over time) that can be executed by a humanoid robot and correcting the action obtained by the motion capture device to an action that can be executed by a humanoid robot. It is disclosed.
JP 2002-301694 A

モーションキャプチャ装置を用いると、動作データが比較的簡単に得られるという利点がある反面、ロボットに実行させたい動作を実演者が忠実に実演する必要がある。例えば等身大の人型ロボットに10mの距離を歩行させようとする場合、実演者も10mの距離を歩行しなければならない。ロボットを広範囲に亘って移動させようとすると、実演者も広範囲に亘って移動する必要があり、モーションキャプチャ装置は非常に大掛かりなものとなってしまう。ロボットに実行させたい動作等によっては、モーションキャプチャ装置が非常に大掛かりなものとなってしまう。そのために従来の技術では、モーションキャプチャ装置を利用して比較的簡単に動作データを作成できる機会が限られている。
そこでより多くの機会に、モーションキャプチャ装置を利用することによって比較的簡単に動作データを作成できるという利点が享受できるようにする技術が求められている。
本発明は上記の問題を解決する。本発明では、動作データを作成する際に、モーションキャプチャ装置によることが得策な動作についてはモーションキャプチャ装置を利用し、モーションキャプチャ装置によることが得策でない動作についてはモーションキャプチャ装置を利用しないで動作データを作成する技術を提供する。
Using a motion capture device has the advantage that motion data can be obtained relatively easily, but the performer must faithfully demonstrate the motion that the robot wants to perform. For example, when trying to make a life-size humanoid robot walk a distance of 10 m, the performer must also walk a distance of 10 m. When trying to move the robot over a wide range, the performer must also move over a wide range, and the motion capture device becomes very large. Depending on the operation that the robot wants to perform, the motion capture device becomes very large. For this reason, in the conventional technology, there are limited opportunities to create operation data relatively easily using a motion capture device.
In view of this, there is a need for a technique that allows the user to enjoy the advantage that motion data can be created relatively easily by using a motion capture device.
The present invention solves the above problems. In the present invention, when creating motion data, the motion capture device is used for operations that are best suited for the motion capture device, and the motion data is used for operations that are not suitable for the motion capture device without using the motion capture device. Provide technology to create.

本発明によって具現化される動作データの作成装置は、多関節ロボットの姿勢を経時的に記述する動作データを作成する。姿勢を経時的に記述するデータは、姿勢の経時的変化を記述するデータでもあり、動作を記述するデータでもある。
本発明の動作データの作成装置は、予定動作を実行するときの姿勢を経時的に記述する第1動作データを記憶している記憶手段と、実演者の姿勢を経時的に測定して実演動作を実行するときの姿勢を経時的に記述する第2動作データを生成するモーションキャプチャ装置と、第1動作データと第2動作データを統合して予定動作に実演動作が重畳した動作を実行するときの姿勢を経時的に記述する第3動作データを作成する動作データ統合手段と、動作データ統合手段で統合した第3動作データを多関節ロボットが実行可能な動作データに修正する修正手段を備えている。
ここでいう実演者とは、必ずしも人に限られるものではなく、例えば動物やロボット等であってもよい。予定動作の一例には、手足を普通に動かして歩行する動作が挙げられる。実演動作の一例には手を差し伸べて振る動作が挙げられる。この場合、手足を普通に動かして歩行する予定動作に、手を差し伸べて振る実演動作が重畳することによって、歩行しながら手を差し伸べて振る動作が得られる。実演動作が身体の特定部位の姿勢変化である場合、予定動作データが同一部位の姿勢を経時的に記述していてもよい。この場合、予定動作に実演動作が重畳した動作とは、同一部位に関する予定動作を同一部位に関する実演動作に置き換えたものをいう。あるいは、実演動作が身体の特定部位の姿勢変化である場合、予定動作データには同一部位の姿勢を経時的に記述するデータがないこともある。この場合、予定動作に実演動作が重畳した動作とは、予定動作に予定動作には予定されていない部位に関する実演動作を加えたものとなる。前者の場合には、予定動作を記述する第1動作データのうち、実演動作が優先する部位に関する動作データを、実演動作を記述する第2動作データに置換することによって予定動作に実演動作が重畳した動作を記述する第3動作データが得られる。後者の場合には、予定動作を記述する第1動作データに、予定動作には含まれていない部位に関する実演動作を記述する第2動作データを加えることによって予定動作に実演動作が重畳した動作を記述する第3動作データが得られる。第1動作データと第2動作データを統合するという場合、第1動作データを部分的に第2動作データに置換すること、あるいは、第1動作データに第2動作データを加えることの両者を意味する。
The motion data creation device embodied by the present invention creates motion data that describes the posture of the articulated robot over time. The data that describes the posture over time is data that describes a change in posture over time and data that describes the motion.
The motion data creating apparatus of the present invention includes a storage means storing first motion data that describes a posture at the time of executing a scheduled motion, and a demonstration motion by measuring the posture of the performer over time. A motion capture device that generates second motion data that describes the posture when executing the motion over time, and a motion in which the first motion data and the second motion data are integrated and the demonstration motion is superimposed on the scheduled motion Motion data integration means for creating third motion data describing the posture of the robot over time, and correction means for correcting the third motion data integrated by the motion data integration means into motion data that can be executed by the articulated robot. Yes.
The performer here is not necessarily limited to a person, and may be, for example, an animal or a robot. An example of the scheduled action is an action of walking by moving the limbs normally. An example of the demonstration operation is an operation of reaching out and shaking. In this case, an operation of extending and shaking hands while walking is obtained by superimposing a demonstration operation of extending and shaking hands on a scheduled operation of walking with limbs moving normally. When the demonstration motion is a posture change of a specific part of the body, the scheduled motion data may describe the posture of the same part over time. In this case, the operation in which the demonstration operation is superimposed on the scheduled operation refers to an operation in which the scheduled operation for the same part is replaced with a demonstration operation for the same part. Alternatively, when the demonstration operation is a posture change of a specific part of the body, the scheduled action data may not include data describing the posture of the same part over time. In this case, the operation in which the demonstration operation is superimposed on the scheduled operation is obtained by adding the demonstration operation related to the part not scheduled to the scheduled operation to the scheduled operation. In the case of the former, the demonstration operation is superimposed on the scheduled motion by replacing the motion data related to the part to which the demonstration motion has priority among the first motion data describing the scheduled motion with the second motion data describing the demonstration motion. The third motion data describing the performed motion is obtained. In the latter case, an operation in which the demonstration operation is superimposed on the scheduled motion by adding the second motion data describing the demonstration motion related to the part not included in the scheduled motion to the first motion data describing the scheduled motion. Third motion data to be described is obtained. When integrating the first motion data and the second motion data, it means both replacing the first motion data partially with the second motion data, or adding the second motion data to the first motion data. To do.

本発明の動作データの作成装置によると、予定動作に実演動作が重畳した動作を実行させる動作データを作成することができる。例えばモーションキャプチャ装置では測定が困難な広範囲を移動する動作については予定動作とし、それを実現する動作データを用意しておくことによって、大掛かりなモーションキャプチャ装置を用意する必要をなくすことができる。一方において、実演すれば簡単に実演できる反面、動作データを用意しようとすると大変に面倒な細かな動作については、実演することによって比較的に簡単に動作データを得ることができる。
本発明の動作データの作成装置によると、両者の動作データを統合して動作データを得ることができるために、より多くの機会に、モーションキャプチャ装置を利用することによって比較的簡単に動作データを作成できるという利点が享受できるようになる。
According to the motion data creation apparatus of the present invention, motion data for executing a motion in which a demonstration motion is superimposed on a scheduled motion can be created. For example, an operation that moves over a wide range that is difficult to measure with a motion capture device is a scheduled operation, and by preparing operation data that realizes the operation, it is possible to eliminate the need to prepare a large-scale motion capture device. On the other hand, it can be easily demonstrated if it is demonstrated, but on the other hand, it is relatively easy to obtain the operation data for the detailed operation that is very troublesome when preparing the operation data.
According to the motion data creation device of the present invention, since motion data can be obtained by integrating both motion data, motion data can be obtained relatively easily by using a motion capture device on more occasions. You can enjoy the advantage of being able to create.

動作データ統合手段は、多関節ロボットの部位毎に第1動作データと第2動作データのいずれかを選択し、部位毎に選択された動作データを統合することが好ましい。
例えば、手以外の部位については第1動作データを選択し、手については第2動作データを選択し、手以外の部位についての第1動作データと手についての第2動作データを統合する。この場合、手以外の部位については予定動作を実行し、手については実演動作を実行する動作データが得られる。
部位に着目して予定動作と実演動作の優先関係を選択すると、予定動作に実演動作が重畳した動作を簡単に指定できる。
Preferably, the motion data integration unit selects either the first motion data or the second motion data for each part of the multi-joint robot, and integrates the motion data selected for each part.
For example, the first action data is selected for a part other than the hand, the second action data is selected for the hand, and the first action data for the part other than the hand and the second action data for the hand are integrated. In this case, motion data for executing a scheduled motion for a part other than the hand and performing a demonstration motion for the hand is obtained.
When the priority relationship between the scheduled action and the demonstration action is selected by paying attention to the part, the action in which the demonstration action is superimposed on the scheduled action can be easily specified.

上記の動作データ作成装置では、修正手段で修正した動作データが記述する動作を再現して表示する表示手段を備えていることが好ましい。
それにより、実演者は作成された動作データによるときの動作を確認しながら実演する動作を調節することができ、意図する動作を実現する動作データをより容易に作成することが可能となる。
The operation data creating apparatus preferably includes a display unit that reproduces and displays the operation described by the operation data corrected by the correcting unit.
Thus, the performer can adjust the operation to perform while confirming the operation based on the generated operation data, and can more easily generate operation data that realizes the intended operation.

上記の動作データ作成装置では、修正手段で修正した動作データを多関節ロボットに教示する教示手段を備えていることが好ましい。
それにより、動作データを作成しながら、多関節ロボットをほぼリアルタイムで動作させることが可能となる。
The motion data creating apparatus preferably includes teaching means for teaching the articulated robot the motion data corrected by the correcting means.
As a result, it is possible to operate the articulated robot almost in real time while creating operation data.

上記の動作データ作成装置では、修正手段で修正した動作データを記憶する記憶手段を備えていることが好ましい。
それにより、作成した動作データを保存することや、作成した動作データを用いて新たな動作データを作成することができる。
The operation data creating apparatus preferably includes a storage unit that stores the operation data corrected by the correction unit.
Thereby, the created operation data can be saved, and new operation data can be created using the created operation data.

本発明の技術は、多関節ロボットの姿勢を経時的に記述する動作データを作成する方法にも具現化される。この方法では、予定動作を実行するときの姿勢を経時的に記述する第1動作データを記憶しておく工程と、実演者の姿勢を経時的にモーションキャプチャ装置によって測定して実演動作を実行するときの姿勢を経時的に記述する第2動作データを収集する工程と、第1動作データと第2動作データを統合して予定動作に実演動作が重畳した動作を実行するときの姿勢を経時的に記述する第3動作データを作成する工程と、第3動作データを多関節ロボットが実行可能な動作データに修正する工程を備えている。
この方法によると、モーションキャプチャ装置によることが得策な動作についてはモーションキャプチャ装置を利用し、モーションキャプチャ装置によることが得策でない動作についてはモーションキャプチャ装置を利用しないで動作データを作成することが可能となる。
The technique of the present invention is also embodied in a method for creating motion data that describes the posture of an articulated robot over time. In this method, the first motion data describing the posture at the time of executing the scheduled motion is stored, and the demonstration posture is executed by measuring the posture of the performer with the motion capture device over time. A step of collecting second motion data describing the posture of the time over time, and the posture of the first motion data and the second motion data integrated to perform the motion in which the demonstration motion is superimposed on the scheduled motion over time And a step of correcting the third motion data into motion data executable by the articulated robot.
According to this method, it is possible to create motion data without using the motion capture device for operations that are not advisable by the motion capture device, using motion capture devices for operations that are best suited for the motion capture device. Become.

本発明により、動作データの作成を容易に行うことが可能となり、ロボットに様々な動作を実行させることが可能となる。   According to the present invention, it is possible to easily create operation data, and it is possible to cause the robot to execute various operations.

最初に、以下に説明する実施例の主要な形態を列記する。
(形態1) ロボットは、ヒューマノイドロボットである。
(形態2) 動作データの作成装置は、複数種類の第1動作データを記憶する記憶部を備えている。
(形態3) 動作データの作成装置は、第1動作データ等をネットワークを介して入力するネットワーク接続部を備えている。
First, main forms of the embodiments described below are listed.
(Mode 1) The robot is a humanoid robot.
(Mode 2) The motion data creation device includes a storage unit that stores a plurality of types of first motion data.
(Mode 3) The operation data creation apparatus includes a network connection unit that inputs first operation data and the like via a network.

(実施例1)
本発明を実施した実施例について図面を参照しながら説明する。図1は、本実施例で説明するロボットシステムの構成を模式的に示している。ロボットシステムは、動作データ作成装置10とロボット102を備えている。
動作データ作成装置10は、ロボット102に教示する動作データを作成する装置である。動作データは、所定の動作を実行する間のロボット102の姿勢を経時的に記述するデータである。動作データは、例えば各時刻におけるロボット102の姿勢を記述しており、経時的に見るとロボット102の姿勢変化を記述しており、ロボット102の動作を記述している。なお、ロボット102の姿勢を記述するデータを姿勢データという。動作データは、時系列に並べられた姿勢データによって構成することができる。なお、動作データは、動作開始時の姿勢データと、それからの姿勢変化を経時的に記述するデータで構成することもできる。
動作データ作成装置10とロボット102は無線通信可能に構成されている。ロボット102は、動作データ作成装置10から動作データを入力し、動作データが記述する姿勢に順次調整することによって、動作データが記述する動作を実行する。
Example 1
Embodiments of the present invention will be described with reference to the drawings. FIG. 1 schematically shows the configuration of a robot system described in this embodiment. The robot system includes an operation data creation device 10 and a robot 102.
The motion data creation device 10 is a device that creates motion data taught to the robot 102. The motion data is data that describes the posture of the robot 102 over time during execution of a predetermined motion. The motion data describes, for example, the posture of the robot 102 at each time, describes changes in the posture of the robot 102 over time, and describes the motion of the robot 102. Note that data describing the posture of the robot 102 is referred to as posture data. The motion data can be composed of posture data arranged in time series. The motion data can also be composed of posture data at the start of the motion and data describing the posture change over time.
The motion data creation device 10 and the robot 102 are configured to be capable of wireless communication. The robot 102 inputs the motion data from the motion data creation device 10 and sequentially adjusts the posture described by the motion data to execute the motion described by the motion data.

図1に示すように、ロボット102は人を模して作られているヒューマノイドロボットである。ロボット102は複数の部位から構成されており、主に、頭部104と胴部106と右腕部108と左腕部110と左脚部112と右脚部114等を備えている。頭部104と右腕部108と左腕部110と左脚部112と右脚部114は、胴部106に揺動可能に接続されている。右腕部108や左腕部110や左脚部112や右脚部114は、複数のリンクが複数の関節を介して接続されて構成されている。例えば右脚部114では、胴部106に股関節114aを介して大腿リンク114bが接続されており、大腿リンク114bに膝関節114cを介して下腿リンク114dが接続されており、下腿リンク114dに足首関節114eを介して足平リンク114fが接続されている。ロボット102は、複数のリンクが複数の関節を介して接続されている多関節ロボットである。ロボット102は各関節の関節角を調節するアクチュエータを備えており、各関節の関節角を調節することによって様々な動作を実行することができる。例えばロボット102は、左右の脚部112、114を揺動することによって二足歩行することができる。そのことから、ロボット102は脚式移動ロボットといえる。   As shown in FIG. 1, the robot 102 is a humanoid robot made to imitate a person. The robot 102 includes a plurality of parts, and mainly includes a head 104, a torso 106, a right arm 108, a left arm 110, a left leg 112, a right leg 114, and the like. The head 104, the right arm portion 108, the left arm portion 110, the left leg portion 112, and the right leg portion 114 are swingably connected to the trunk portion 106. The right arm unit 108, the left arm unit 110, the left leg unit 112, and the right leg unit 114 are configured by connecting a plurality of links via a plurality of joints. For example, in the right leg 114, the thigh link 114b is connected to the torso 106 via the hip joint 114a, the crus link 114d is connected to the thigh link 114b via the knee joint 114c, and the ankle joint is connected to the crus link 114d. A foot link 114f is connected via 114e. The robot 102 is an articulated robot in which a plurality of links are connected via a plurality of joints. The robot 102 includes an actuator that adjusts the joint angle of each joint, and various operations can be executed by adjusting the joint angle of each joint. For example, the robot 102 can walk biped by swinging the left and right legs 112 and 114. Therefore, it can be said that the robot 102 is a legged mobile robot.

図1に示すように、動作データ作成装置10は、モーションキャプチャ装置20と、コンピュータ30と、表示装置40を備えている。
モーションキャプチャ装置20は、複数のセンサ22と、そのセンサ22群の出力信号を処理する処理装置24を備えている。図1に示すように、センサ22群(図中に黒丸で示す)は実演者Hの姿勢を検出するためのセンサであり、実演者Hの各部に取付可能になっている。処理装置24は、センサ22群の出力信号に基づいて、実演者Hの姿勢を記述する姿勢データを作成する。モーションキャプチャ装置20は、実演者Hの姿勢を経時的に検出し、検出した姿勢を記述するデータ(ロボット102の動作データに対応するものであり、本明細書の第2動作データに相当する)を経時的に作成する。モーションキャプチャ装置20は汎用のものを用いることができ、例えば光学式のもの、磁気式のもの、加速度を測定するもの、関節角を測定するもの等を用いることができる。
As shown in FIG. 1, the motion data creation device 10 includes a motion capture device 20, a computer 30, and a display device 40.
The motion capture device 20 includes a plurality of sensors 22 and a processing device 24 that processes output signals of the sensors 22 group. As shown in FIG. 1, a group of sensors 22 (indicated by black circles in the figure) are sensors for detecting the posture of the performer H, and can be attached to each part of the performer H. The processing device 24 creates posture data describing the posture of the performer H based on the output signal of the sensor 22 group. The motion capture device 20 detects the posture of the performer H over time, and describes the detected posture (corresponding to the motion data of the robot 102 and corresponds to the second motion data in this specification). Create over time. As the motion capture device 20, a general-purpose device can be used. For example, an optical device, a magnetic device, a device that measures acceleration, a device that measures joint angles, or the like can be used.

コンピュータ30は、詳しくは後述するが、モーションキャプチャ装置20から教示される動作データを用いて、ロボット102が実行可能な動作データを作成する。コンピュータ30は、ロボット102のモデルMを表示装置40に表示することができ、ロボット102のモデルMに作成した動作データを実行させることができる。またコンピュータ30は、作成した動作データをロボット102に教示することもできる。またコンピュータ30は、作成した動作データを、例えば記録媒体4やネットワーク6を介して外部に出力することもできる。コンピュータ30による処理はほぼリアルタイムに行われ、実演者Hの動作はロボットモデルMや実際のロボット102の動作にほぼリアルタイムに反映される。   As will be described later in detail, the computer 30 creates motion data that can be executed by the robot 102 using motion data taught from the motion capture device 20. The computer 30 can display the model M of the robot 102 on the display device 40, and can cause the model M of the robot 102 to execute the operation data created. The computer 30 can also teach the created motion data to the robot 102. The computer 30 can also output the created operation data to the outside via, for example, the recording medium 4 or the network 6. The processing by the computer 30 is performed in almost real time, and the operation of the performer H is reflected in the operation of the robot model M and the actual robot 102 in almost real time.

図2は、本実施例のロボットシステムの構成を機能的に示すブロック図である。図2に示すように、コンピュータ30では、機能的に、予定動作データ記憶部52と、ロボットデータ記憶部54と、データ選択部56と、データ統合部58と、データ修正部60と、ネットワーク接続部62と、データ記憶部64と、ロボットモデル作成部66と、データ送信部68等が構成されている。これらの各構成部は、コンピュータ30が備えるハードウエアやソフトウエア等によって構成されている。   FIG. 2 is a block diagram functionally showing the configuration of the robot system of the present embodiment. As shown in FIG. 2, the computer 30 functionally includes a scheduled motion data storage unit 52, a robot data storage unit 54, a data selection unit 56, a data integration unit 58, a data correction unit 60, and a network connection. A unit 62, a data storage unit 64, a robot model creation unit 66, a data transmission unit 68, and the like are configured. Each of these components is configured by hardware, software, or the like included in the computer 30.

予定動作データ記憶部52は、ロボット102が実行可能であり、ロボット102に予定されている動作を実現する動作データ(本明細書の第1動作データに相当する)を記憶している。データ記憶部52には、例えば記録媒体4等を用いて動作データを記憶させることができる。予定動作データ記憶部52には、例えばロボット102が歩行するために用いる歩行用動作データ等を記憶している。ここで図3を参照して、ロボット102が用いる動作データについて説明する。図3(a)は、ロボット102が用いる歩行用動作データ80の構成を模式的に示している。図3(a)に示すように、歩行用動作データ80は、ロボット102の頭部104の姿勢を経時的に記述している頭部動作データ84と、胴部106の姿勢を経時的に記述している胴部動作データ86と、右腕部108の姿勢を経時的に記述している右腕動作データ88と、左腕部110の姿勢を経時的に記述している左腕動作データ90と、左脚部112の姿勢を経時的に記述している左脚動作データ92と、右脚部114の姿勢を経時的に記述している右脚動作データ94等から構成されている。なお、頭部動作データ84や右腕動作データ88や左腕動作データ90は、それぞれの部位の姿勢を決める各関節の関節角を経時的に記述している。一方、胴部動作データ86や左脚動作データ92や右脚動作データ94は、それぞれの部位の代表点の位置と向きを経時的に記述している。図3(a)に示すように各部の動作データ84、86、88、90、92、94から時刻tに対応するデータをそれぞれ読み取ると、図3(b)に示すように時刻tにおけるロボット102の姿勢を求めることができる。   The scheduled motion data storage unit 52 stores motion data (corresponding to the first motion data in this specification) that can be executed by the robot 102 and that realizes the motion scheduled for the robot 102. The data storage unit 52 can store operation data using, for example, the recording medium 4 or the like. The scheduled motion data storage unit 52 stores, for example, walking motion data used for the robot 102 to walk. Here, the operation data used by the robot 102 will be described with reference to FIG. FIG. 3A schematically shows a configuration of walking motion data 80 used by the robot 102. As shown in FIG. 3A, the walking motion data 80 includes head motion data 84 describing the posture of the head 104 of the robot 102 over time and the posture of the torso 106 over time. Torso motion data 86, right arm motion data 88 describing the posture of the right arm portion 108 over time, left arm motion data 90 describing the posture of the left arm portion 110 over time, left leg The left leg motion data 92 describing the posture of the unit 112 over time, the right leg motion data 94 describing the posture of the right leg unit 114 over time, and the like. The head movement data 84, the right arm movement data 88, and the left arm movement data 90 describe the joint angle of each joint that determines the posture of each part over time. On the other hand, the torso motion data 86, the left leg motion data 92, and the right leg motion data 94 describe the position and orientation of the representative point of each part over time. When the data corresponding to the time t is read from the operation data 84, 86, 88, 90, 92, 94 of each part as shown in FIG. 3 (a), the robot 102 at the time t as shown in FIG. 3 (b). Can be determined.

図2のロボットデータ記憶部52は、ロボット102の仕様等を記述するロボットデータを記憶している。ロボットデータは、例えばロボット102のリンク構成や、各リンクの長さや、各関節の関節角の許容範囲や、各リンクや搭載機器(コンピュータやバッテリ)の重量等を記述している。ロボットデータには、ロボット102の静的なモデルや動的なモデルを計算するのに十分な情報が記述されている。
ネットワーク接続部62は、ネットワーク6を介して外部のコンピュータ等と接続し、外部のコンピュータ等から動作データ等を入力することができる。
The robot data storage unit 52 in FIG. 2 stores robot data describing the specifications of the robot 102 and the like. The robot data describes, for example, the link configuration of the robot 102, the length of each link, the allowable range of joint angles of each joint, the weight of each link and mounted equipment (computer or battery), and the like. In the robot data, information sufficient to calculate a static model or a dynamic model of the robot 102 is described.
The network connection unit 62 is connected to an external computer or the like via the network 6 and can input operation data or the like from the external computer or the like.

データ選択部56は、ロボット102の部位毎に、予定動作データ記憶部52又はモーションキャプチャ装置20から動作データを入力する。データ選択部56が、予定動作データ記憶部52とモーションキャプチャ装置20のいずれを入力するかは、部位毎に予め設定しておくことができる。
データ統合部58は、データ選択部56が選択的に入力した部位毎の動作データを統合して、ロボット102全体の動作を記述する動作データを作成する。
データ修正部60は、データ統合部58が統合して作成した統合動作データを、ロボット102が実行可能な動作データに修正する。モーションキャプチャ装置20から入力した動作データは、ロボット102が実行可能な動作データであるとは限らない。また、各動作データが実行可能な動作データであるとしても、それらを統合した動作データが実行可能であるとは限らない。データ修正部60は、ロボットデータ記憶部54に記憶されているロボットデータを参照して、データ統合部58が作成した統合動作データを修正する。この修正では、例えば各関節の関節角を許容範囲内に修正したり、ロボット102の動的バランスが維持されるように胴部106の位置や姿勢等を修正したりする。
The data selection unit 56 inputs operation data from the scheduled operation data storage unit 52 or the motion capture device 20 for each part of the robot 102. Whether the data selection unit 56 inputs the scheduled motion data storage unit 52 or the motion capture device 20 can be set in advance for each part.
The data integration unit 58 integrates the operation data for each part selectively input by the data selection unit 56 to create operation data describing the operation of the entire robot 102.
The data correction unit 60 corrects the integrated operation data created by the integration of the data integration unit 58 into operation data that can be executed by the robot 102. The motion data input from the motion capture device 20 is not necessarily motion data that can be executed by the robot 102. Further, even if each piece of operation data is executable data, the operation data obtained by integrating them is not always executable. The data correction unit 60 refers to the robot data stored in the robot data storage unit 54 and corrects the integrated operation data created by the data integration unit 58. In this correction, for example, the joint angle of each joint is corrected within an allowable range, or the position and posture of the body portion 106 are corrected so that the dynamic balance of the robot 102 is maintained.

ロボットモデル作成部66は、三次元コンピュータグラフィクス処理を実行することによって、ロボット102のモデルMを表示装置40に表示する。ロボットモデル作成部66は、ロボットデータ記憶部54に記憶されているロボットデータを参照してロボット102のモデルMを作成するとともに、データ修正部60で修正された動作データを入力してロボット102のモデルMの姿勢を計算する。それにより、表示装置40には、データ修正部60で修正された動作データが記述する姿勢をとるロボット102のモデルMが表示される。表示されるモデルMは、動作データが記述する姿勢が経時的に変化することから、姿勢を経時的に変え、動作を再現する。
データ記憶部64は、データ修正部60で修正された動作データを記憶する。データ記憶部64は、姿勢データを時刻(処理開始からの経過時間)データとともに順次記憶することによって、姿勢データを時系列に並べて記憶する。即ち、データ記憶部64には、動作データ作成装置10が作成する動作データが記憶される。
データ送信部68は、データ修正部60で修正された動作データを、ロボット102に向けて送信する。それにより、動作データ作成装置10が作成する動作データを、リアルタイムでロボット102に教示することができる。
The robot model creation unit 66 displays the model M of the robot 102 on the display device 40 by executing a three-dimensional computer graphics process. The robot model creation unit 66 creates the model M of the robot 102 by referring to the robot data stored in the robot data storage unit 54 and inputs the operation data modified by the data modification unit 60 to input the robot 102. Calculate the posture of the model M. As a result, the model M of the robot 102 taking the posture described by the motion data corrected by the data correction unit 60 is displayed on the display device 40. The displayed model M reproduces the motion by changing the posture with time because the posture described by the motion data changes with time.
The data storage unit 64 stores the operation data corrected by the data correction unit 60. The data storage unit 64 stores posture data in time series by sequentially storing posture data together with time (elapsed time from the start of processing) data. That is, the operation data created by the operation data creation device 10 is stored in the data storage unit 64.
The data transmission unit 68 transmits the operation data corrected by the data correction unit 60 to the robot 102. Thereby, the motion data created by the motion data creation device 10 can be taught to the robot 102 in real time.

図4は、動作データ作成装置10の動作の流れを示すフローチャートである。図4に示す処理フローは、主にコンピュータ30によって動作周期Δt毎に繰り返し実行される。以下、図4に示す処理フローに沿って、動作データ作成装置10の動作を説明する。ここでは、ロボット102に、左腕部110を頭上で振りながら歩行させる場合を例に挙げて説明する。図5は、図4に示す処理フローにおいて処理される姿勢データの変遷を模式的に示している。
図4の処理フローに先立ち、予定動作データ記憶部52には歩行動作データ80が記憶されており、実演者Hは左手を振る動作を実演している。実演者Hは歩行する必要がなく、その場に留まって左手を振ればよい。実演者Hがその場に留まっていることから、実演者Hの姿勢をモーションキャプチャ装置20によって測定しやすい。
FIG. 4 is a flowchart showing an operation flow of the operation data creation apparatus 10. The processing flow shown in FIG. 4 is repeatedly executed mainly by the computer 30 every operation cycle Δt. Hereinafter, the operation of the operation data creation device 10 will be described along the processing flow shown in FIG. Here, the case where the robot 102 is walked while swinging the left arm part 110 over the head will be described as an example. FIG. 5 schematically shows changes in posture data processed in the processing flow shown in FIG.
Prior to the processing flow of FIG. 4, the walking motion data 80 is stored in the scheduled motion data storage unit 52, and the performer H is demonstrating the motion of shaking his left hand. The performer H does not have to walk, but can stay on the spot and shake his left hand. Since the performer H remains on the spot, the posture of the performer H can be easily measured by the motion capture device 20.

ステップS2では、データ選択部56が、予定動作データ記憶部52が記憶している歩行動作データ80から、その時の時刻tに対応する姿勢データ(図5中のA)のなかで、左腕部110以外の姿勢データ(図5中のC)を入力する。即ち、左腕動作データ90(図3参照)は利用されないことから、左腕動作データ90を準備しておく必要は必ずしもない。
ステップS4では、データ選択部56が、モーションキャプチャ装置20から、測定した実演者Hの姿勢データ(図5中のB)のなかで、ロボット102の左腕部110に関する姿勢データ(図5中のD)を入力する。即ち、左腕部110の姿勢に関与しないデータは利用されないので、実演者Hの姿勢のなかで左腕部110の姿勢に関与しない姿勢をモーションキャプチャ装置20で測定する必要は必ずしもない。
ステップS6では、データ統合部58が、予定動作データ記憶部52が記憶している歩行動作データ80から入力した部分的な姿勢データ(図5中のC)と、モーションキャプチャ装置20から入力した部分的な姿勢データ(図5中のD)を統合して、ロボット102全体の姿勢を記述する統合姿勢データ(図5中のE)を作成する。データ統合部58が作成した統合姿勢データEは、部分的な姿勢データC、Dを単に統合したものであり、特別な計算等を必要としない。そのことから、データ統合部58が作成した姿勢データEは、ロボット102が実行可能であるか否かは保証されない。
ステップS8では、データ修正部60が、データ統合部58が作成した統合姿勢データ(図5中のE)を、ロボット102が実行可能な姿勢データ(図5中のF)に修正する。データ修正部60は、前回の動作周期t−Δtにおける姿勢データ等も加味して、ロボット102が動力学的にも実行可能な姿勢データに修正する。
In step S2, the data selection unit 56 uses the left arm unit 110 in the posture data (A in FIG. 5) corresponding to the time t from the walking motion data 80 stored in the scheduled motion data storage unit 52. Other posture data (C in FIG. 5) is input. That is, since the left arm motion data 90 (see FIG. 3) is not used, it is not always necessary to prepare the left arm motion data 90.
In step S4, the data selection unit 56 receives the posture data (D in FIG. 5) related to the left arm 110 of the robot 102 from the measured posture data (B in FIG. 5) of the performer H from the motion capture device 20. ). That is, since data that is not related to the posture of the left arm 110 is not used, it is not always necessary to measure the posture of the performer H that is not related to the posture of the left arm 110 with the motion capture device 20.
In step S6, the data integration unit 58 receives the partial posture data (C in FIG. 5) input from the walking motion data 80 stored in the scheduled motion data storage unit 52 and the portion input from the motion capture device 20. The integrated posture data (E in FIG. 5) describing the posture of the entire robot 102 is created by integrating the general posture data (D in FIG. 5). The integrated posture data E created by the data integration unit 58 is a simple integration of the partial posture data C and D, and does not require any special calculation. Therefore, it is not guaranteed whether the posture data E created by the data integration unit 58 can be executed by the robot 102.
In step S8, the data correction unit 60 corrects the integrated posture data (E in FIG. 5) created by the data integration unit 58 into posture data (F in FIG. 5) that can be executed by the robot 102. The data correction unit 60 corrects the posture data to be dynamically executable by the robot 102 in consideration of the posture data and the like in the previous operation cycle t−Δt.

ステップS10では、ロボットモデル作成部66が、データ修正部60で修正された姿勢データの姿勢をとるロボットのモデルMを表示装置40に表示する。ロボットモデル作成部66は、データ修正部60で修正された姿勢データ(図5中のF)を入力し、その修正された姿勢データFが記述する姿勢をとるロボットモデルMを表示する。
ステップS12では、データ送信部68が、データ修正部60で修正された修正姿勢データ(図5中のF)を、ロボット102に送信して教示する。修正姿勢データFを受信したロボット102は、修正姿勢データFが記述する姿勢をとる。修正姿勢データFはロボット102が実行可能な姿勢データに修正されているので、ロボット102が処理エラーを起こしたり、転倒したりすることはない。ロボット102と表示画面40に表示されているモデルMは、同じ姿勢をとることとなる。
ステップS12では、データ記憶部64が、データ修正部60で修正された修正姿勢データFを、時刻データと対応付けて記憶する。
In step S <b> 10, the robot model creation unit 66 displays on the display device 40 a robot model M that takes the posture of the posture data corrected by the data correction unit 60. The robot model creation unit 66 inputs the posture data corrected by the data correction unit 60 (F in FIG. 5), and displays the robot model M that takes the posture described by the corrected posture data F.
In step S <b> 12, the data transmission unit 68 transmits the corrected posture data (F in FIG. 5) corrected by the data correction unit 60 to the robot 102 and teaches it. The robot 102 that has received the corrected posture data F takes the posture described by the corrected posture data F. Since the corrected posture data F is corrected to posture data that can be executed by the robot 102, the robot 102 does not cause a processing error or falls. The robot 102 and the model M displayed on the display screen 40 take the same posture.
In step S12, the data storage unit 64 stores the corrected posture data F corrected by the data correction unit 60 in association with the time data.

図4の処理フローが動作周期Δt毎に繰り返し実行されることによって、ロボット102は左腕部110を頭上で振りながら歩行し、表示装置40にはロボット110と同じ動作をするロボットモデルMが表示される。ロボット102が実演者Hの視界の外へと移動した場合でも、実演者Hは表示装置40のロボットモデルMを観察することができ、自身の演技を調節することができる。
データ送信部68は、ロボット102に修正姿勢データを動作周期Δt毎に経時的に教示することで、ロボット102に姿勢の経時的変化を記述するデータ(即ち、動作データ)を教示することとなる。
データ記憶部64には、経時的に並ぶ修正姿勢データ(即ち、動作データ)が記憶保存される。
By repeatedly executing the processing flow of FIG. 4 every operation period Δt, the robot 102 walks while swinging the left arm portion 110 over the head, and the robot model M that performs the same operation as the robot 110 is displayed on the display device 40. The Even when the robot 102 moves out of the field of view of the performer H, the performer H can observe the robot model M of the display device 40 and can adjust his performance.
The data transmission unit 68 teaches the robot 102 the corrected posture data over time for each movement period Δt, thereby teaching the robot 102 data (that is, motion data) describing the change in posture over time. .
The data storage unit 64 stores and saves corrected posture data (that is, motion data) arranged with time.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時請求項記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

ロボットシステムの外観を示す模式図。The schematic diagram which shows the external appearance of a robot system. 動作データ作成装置の機能的な構成を示すブロック図。The block diagram which shows the functional structure of an operation | movement data creation apparatus. 動作データの構成を模式的に示す図。The figure which shows the structure of operation | movement data typically. 動作データ作成装置の動作の流れを示すフローチャート。The flowchart which shows the flow of operation | movement of an operation | movement data creation apparatus. 姿勢データの変遷を模式的に示す図。The figure which shows the transition of attitude | position data typically.

符号の説明Explanation of symbols

10・・動作データ作成装置
20・・モーションキャプチャ装置
30・・コンピュータ
52・・予定動作データ記憶部
54・・ロボットデータ記憶部
56・・データ選択部
58・・データ統合部
60・・データ修正部
62・・ネットワーク接続部
64・・データ記憶部
66・・ロボットモデル作成部
68・・データ送信部
102・・ロボット
106・・ロボットの胴部
110・・ロボットの左腕部
H・・実演者
10. Motion data creation device 20. Motion capture device 30. Computer 52. Scheduled motion data storage unit 54 Robot data storage unit 56 Data selection unit 58 Data integration unit 60 Data correction unit 62..Network connection unit 64..Data storage unit 66..Robot model creation unit 68..Data transmission unit 102..Robot 106..Robo body 110..Robot left arm H..Performer

Claims (6)

多関節ロボットの姿勢を経時的に記述する動作データを作成する装置であって、
予定動作を実行するときの姿勢を経時的に記述する第1動作データを記憶している記憶手段と、
実演者の姿勢を経時的に測定し、実演動作を実行するときの姿勢を経時的に記述する第2動作データを生成するモーションキャプチャ装置と、
第1動作データと第2動作データを統合し、予定動作に実演動作が重畳した動作を実行するときの姿勢を経時的に記述する第3動作データを作成する動作データ統合手段と、
動作データ統合手段で統合した第3動作データを、多関節ロボットが実行可能な動作データに修正する修正手段と、
を備える動作データ作成装置。
An apparatus for creating motion data that describes the posture of an articulated robot over time,
Storage means for storing first motion data that describes the posture when performing the scheduled motion over time;
A motion capture device that measures the posture of the performer over time and generates second motion data that describes the posture when performing the demonstration operation over time;
Action data integration means for integrating the first action data and the second action data, and creating third action data that describes the posture over time when executing the action in which the demonstration action is superimposed on the scheduled action;
Correction means for correcting the third motion data integrated by the motion data integration means into motion data executable by the articulated robot;
An operation data creation device comprising:
動作データ統合手段は、多関節ロボットの部位毎に第1動作データと第2動作データのいずれかを選択し、部位毎に選択された動作データを統合することを特徴とする請求項1の動作データ作成装置。   The motion data integrating means selects either the first motion data or the second motion data for each part of the articulated robot, and integrates the motion data selected for each part. Data creation device. 修正手段で修正した動作データが記述する動作を再現して表示する表示手段が付加されていることを特徴とする請求項1又は2の動作データ作成装置。   3. The operation data creating apparatus according to claim 1, further comprising display means for reproducing and displaying the operation described by the operation data corrected by the correcting means. 修正手段で修正した動作データを多関節ロボットに教示する教示手段が付加されていることを特徴とする請求項1から3のいずれかの動作データ作成装置。   4. The motion data creating apparatus according to claim 1, further comprising teaching means for teaching the motion data corrected by the correcting means to the articulated robot. 修正手段で修正した動作データを記憶する記憶手段が付加されていることを特徴とする請求項1から4のいずれかの動作データ作成装置。   5. The operation data creating apparatus according to claim 1, further comprising storage means for storing operation data corrected by the correction means. 多関節ロボットの姿勢を経時的に記述する動作データを作成する方法であって、
予定動作を実行するときの姿勢を経時的に記述する第1動作データを記憶しておく工程と、
実演者の姿勢を経時的にモーションキャプチャ装置によって測定し、実演動作を実行するときの姿勢を経時的に記述する第2動作データを収集する工程と、
第1動作データと第2動作データを統合し、予定動作に実演動作が重畳した動作を実行するときの姿勢を経時的に記述する第3動作データを作成する工程と、
第3動作データを、多関節ロボットが実行可能な動作データに修正する工程と、
を備える動作データ作成方法。
A method of creating motion data describing the posture of an articulated robot over time,
Storing first motion data describing the posture at the time of executing the scheduled motion over time;
Measuring the posture of the performer over time with a motion capture device and collecting second motion data describing the posture over time when performing the demonstration motion;
Integrating the first motion data and the second motion data, and creating third motion data that describes the posture over time when executing the motion in which the demonstration motion is superimposed on the scheduled motion;
Correcting the third motion data into motion data executable by the articulated robot;
An operation data creation method comprising:
JP2005011633A 2005-01-19 2005-01-19 Motion data creation device and method for teaching an articulated robot Expired - Fee Related JP4487782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005011633A JP4487782B2 (en) 2005-01-19 2005-01-19 Motion data creation device and method for teaching an articulated robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005011633A JP4487782B2 (en) 2005-01-19 2005-01-19 Motion data creation device and method for teaching an articulated robot

Publications (2)

Publication Number Publication Date
JP2006198709A true JP2006198709A (en) 2006-08-03
JP4487782B2 JP4487782B2 (en) 2010-06-23

Family

ID=36957140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005011633A Expired - Fee Related JP4487782B2 (en) 2005-01-19 2005-01-19 Motion data creation device and method for teaching an articulated robot

Country Status (1)

Country Link
JP (1) JP4487782B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100813693B1 (en) 2006-11-28 2008-03-14 한국과학기술연구원 Method for controlling arm movement of robot and robot thereof
JP2010221395A (en) * 2009-03-24 2010-10-07 Disney Enterprises Inc System and method for tracking and balancing robots for imitating motion capture data
JP5892531B1 (en) * 2015-11-16 2016-03-23 プレンプロジェクト・ホールディングス有限会社 Link string mapping device, link string mapping method, and program
JP2017056054A (en) * 2015-09-17 2017-03-23 カシオ計算機株式会社 Health management support device, health management support method, and program
JP2017170535A (en) * 2016-03-18 2017-09-28 プレンプロジェクト・ホールディングス有限会社 Link row mapping device, link row mapping method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100813693B1 (en) 2006-11-28 2008-03-14 한국과학기술연구원 Method for controlling arm movement of robot and robot thereof
JP2010221395A (en) * 2009-03-24 2010-10-07 Disney Enterprises Inc System and method for tracking and balancing robots for imitating motion capture data
JP2017056054A (en) * 2015-09-17 2017-03-23 カシオ計算機株式会社 Health management support device, health management support method, and program
JP5892531B1 (en) * 2015-11-16 2016-03-23 プレンプロジェクト・ホールディングス有限会社 Link string mapping device, link string mapping method, and program
WO2017086364A1 (en) * 2015-11-16 2017-05-26 直広 早石 Link-sequence mapping device, link-sequence mapping method, and program
CN108290293A (en) * 2015-11-16 2018-07-17 早石直广 Link sequences mapping device, link sequences mapping method and program
US10899005B2 (en) 2015-11-16 2021-01-26 Keisuu Giken Co., Ltd. Link-sequence mapping device, link-sequence mapping method, and program
CN108290293B (en) * 2015-11-16 2021-05-14 株式会社计数技研 Link sequence mapping device, link sequence mapping method, and program
JP2017170535A (en) * 2016-03-18 2017-09-28 プレンプロジェクト・ホールディングス有限会社 Link row mapping device, link row mapping method, and program

Also Published As

Publication number Publication date
JP4487782B2 (en) 2010-06-23

Similar Documents

Publication Publication Date Title
TW469211B (en) Ambulation control apparatus and ambulation control method of robot
US8751041B2 (en) Method to generate humanlike motion of humanoid robot
US7054718B2 (en) Motion editing apparatus and method for legged mobile robot and computer program
JP4715863B2 (en) Actuator control apparatus, actuator control method, actuator, robot apparatus, and computer program
JP4487782B2 (en) Motion data creation device and method for teaching an articulated robot
US20050209534A1 (en) System and method of predicting novel motion in a serial chain system
WO2019059364A1 (en) Remote control manipulator system and control device
WO2003068454A1 (en) Two-leg walking humanoid robot
JP2009095959A (en) Control system, control method, and robot apparatus
JP2007015037A (en) Motion editing device of robot, motion editing method, computer program and robot device
Kuehn et al. System design and testing of the hominid robot charlie
WO2002040222A1 (en) Device and method for controlling motion of legged mobile robot, and motion unit generating method for legged mobile robot
Vidoni et al. Design and implementation of an ERLS-based 3-D dynamic formulation for flexible-link robots
Gorner et al. The DLR-Crawler: A testbed for actively compliant hexapod walking based on the fingers of DLR-Hand II
EP3117967A1 (en) Transparency control method for robotic devices and a control device therefor
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
Miyashita et al. Human-like natural behavior generation based on involuntary motions for humanoid robots
JP2013088730A (en) Skill acquisition supporting system and skill acquisition support method
Barros et al. Bimanual haptics for humanoid robot teleoperation using ROS and V-REP
RU2013125781A (en) IMAGE FORMING DEVICE FOR OBJECT IMAGE FORMATION
JP2001287179A (en) Industrial robot teaching system
Berninger et al. Experimental analysis of structural vibration problems of a biped walking robot
Gmiterko et al. Motion capture of human for interaction with service robot
JP2003117858A (en) Method and device for control of robot walk
JP4587699B2 (en) Robot apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees