JP2006198709A - Creation device and method for teaching motion data to articulated robot - Google Patents
Creation device and method for teaching motion data to articulated robot Download PDFInfo
- Publication number
- JP2006198709A JP2006198709A JP2005011633A JP2005011633A JP2006198709A JP 2006198709 A JP2006198709 A JP 2006198709A JP 2005011633 A JP2005011633 A JP 2005011633A JP 2005011633 A JP2005011633 A JP 2005011633A JP 2006198709 A JP2006198709 A JP 2006198709A
- Authority
- JP
- Japan
- Prior art keywords
- data
- motion
- motion data
- posture
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、多関節ロボットに教示する動作データを作成する技術に関する。特に、モーションキャプチャ装置を用いて、動作データの作成を簡単化する技術に関する。 The present invention relates to a technique for creating motion data taught to an articulated robot. In particular, the present invention relates to a technique for simplifying creation of motion data using a motion capture device.
多関節ロボットは、複数のリンクと複数の関節を備えている。多関節ロボットは、各関節の関節角(一方のリンクに対する他方のリンクの回転角)を調節することによって、姿勢を経時的に変え、歩いたり、物を持ったり、物を操作したりする動作を実行する。
多関節ロボットに所定の動作を実行させるためには、多関節ロボットの姿勢を経時的に記述する動作データが必要となる。姿勢を経時的に指定すれば、多関節ロボットは姿勢を経時的に変えるので、結果的に動作することになる。動作データは、姿勢を経時的に記述するものであるが、それは姿勢の経時的変化を記述するものでもあり、動作を記述するものでもある。動作データは、多関節ロボットの各関節の関節角、各リンクの位置、あるいは各リンクの向きを経時的に記述している必要があり、動作データを作成するには非常に面倒な作業が必要とされる。
The multi-joint robot includes a plurality of links and a plurality of joints. An articulated robot changes its posture over time by adjusting the joint angle of each joint (the rotation angle of the other link with respect to one link), and moves, walks, holds objects, and manipulates objects Execute.
In order for the articulated robot to execute a predetermined operation, operation data describing the posture of the articulated robot over time is required. If the posture is specified with time, the articulated robot changes its posture with time, and consequently operates. The motion data describes the posture with time, but it also describes the change with time of the posture and also describes the motion. The motion data needs to describe the joint angle of each joint of the multi-joint robot, the position of each link, or the direction of each link over time, and creating the motion data requires very troublesome work It is said.
人型ロボット等に教示する動作データを作成する際に、モーションキャプチャ装置を用いる技術が開発されている。モーションキャプチャ装置は、実演している人等の姿勢を経時的に測定し、実演動作を実行している間の姿勢を経時的に記述するデータ(姿勢の経時的変化を記述するデータでもあり、動作を記述するデータでもある)を生成する。ロボットに実行させたい動作を人が実演し、実演者の姿勢の経時的変化をモーションキャプチャ装置によってデータ化することによって、ロボットに実行させたい動作を記述する動作データを直接的に作成することが可能となる。
特許文献1には、モーションキャプチャ装置を用いて動作データを作成する装置が開示されている。特許文献1では、人型ロボットが実行可能な動作(姿勢の経時的変化)を予め記憶しておき、モーションキャプチャ装置で得られた動作を、人型ロボットが実行可能な動作に修正する技術が開示されている。
モーションキャプチャ装置を用いると、動作データが比較的簡単に得られるという利点がある反面、ロボットに実行させたい動作を実演者が忠実に実演する必要がある。例えば等身大の人型ロボットに10mの距離を歩行させようとする場合、実演者も10mの距離を歩行しなければならない。ロボットを広範囲に亘って移動させようとすると、実演者も広範囲に亘って移動する必要があり、モーションキャプチャ装置は非常に大掛かりなものとなってしまう。ロボットに実行させたい動作等によっては、モーションキャプチャ装置が非常に大掛かりなものとなってしまう。そのために従来の技術では、モーションキャプチャ装置を利用して比較的簡単に動作データを作成できる機会が限られている。
そこでより多くの機会に、モーションキャプチャ装置を利用することによって比較的簡単に動作データを作成できるという利点が享受できるようにする技術が求められている。
本発明は上記の問題を解決する。本発明では、動作データを作成する際に、モーションキャプチャ装置によることが得策な動作についてはモーションキャプチャ装置を利用し、モーションキャプチャ装置によることが得策でない動作についてはモーションキャプチャ装置を利用しないで動作データを作成する技術を提供する。
Using a motion capture device has the advantage that motion data can be obtained relatively easily, but the performer must faithfully demonstrate the motion that the robot wants to perform. For example, when trying to make a life-size humanoid robot walk a distance of 10 m, the performer must also walk a distance of 10 m. When trying to move the robot over a wide range, the performer must also move over a wide range, and the motion capture device becomes very large. Depending on the operation that the robot wants to perform, the motion capture device becomes very large. For this reason, in the conventional technology, there are limited opportunities to create operation data relatively easily using a motion capture device.
In view of this, there is a need for a technique that allows the user to enjoy the advantage that motion data can be created relatively easily by using a motion capture device.
The present invention solves the above problems. In the present invention, when creating motion data, the motion capture device is used for operations that are best suited for the motion capture device, and the motion data is used for operations that are not suitable for the motion capture device without using the motion capture device. Provide technology to create.
本発明によって具現化される動作データの作成装置は、多関節ロボットの姿勢を経時的に記述する動作データを作成する。姿勢を経時的に記述するデータは、姿勢の経時的変化を記述するデータでもあり、動作を記述するデータでもある。
本発明の動作データの作成装置は、予定動作を実行するときの姿勢を経時的に記述する第1動作データを記憶している記憶手段と、実演者の姿勢を経時的に測定して実演動作を実行するときの姿勢を経時的に記述する第2動作データを生成するモーションキャプチャ装置と、第1動作データと第2動作データを統合して予定動作に実演動作が重畳した動作を実行するときの姿勢を経時的に記述する第3動作データを作成する動作データ統合手段と、動作データ統合手段で統合した第3動作データを多関節ロボットが実行可能な動作データに修正する修正手段を備えている。
ここでいう実演者とは、必ずしも人に限られるものではなく、例えば動物やロボット等であってもよい。予定動作の一例には、手足を普通に動かして歩行する動作が挙げられる。実演動作の一例には手を差し伸べて振る動作が挙げられる。この場合、手足を普通に動かして歩行する予定動作に、手を差し伸べて振る実演動作が重畳することによって、歩行しながら手を差し伸べて振る動作が得られる。実演動作が身体の特定部位の姿勢変化である場合、予定動作データが同一部位の姿勢を経時的に記述していてもよい。この場合、予定動作に実演動作が重畳した動作とは、同一部位に関する予定動作を同一部位に関する実演動作に置き換えたものをいう。あるいは、実演動作が身体の特定部位の姿勢変化である場合、予定動作データには同一部位の姿勢を経時的に記述するデータがないこともある。この場合、予定動作に実演動作が重畳した動作とは、予定動作に予定動作には予定されていない部位に関する実演動作を加えたものとなる。前者の場合には、予定動作を記述する第1動作データのうち、実演動作が優先する部位に関する動作データを、実演動作を記述する第2動作データに置換することによって予定動作に実演動作が重畳した動作を記述する第3動作データが得られる。後者の場合には、予定動作を記述する第1動作データに、予定動作には含まれていない部位に関する実演動作を記述する第2動作データを加えることによって予定動作に実演動作が重畳した動作を記述する第3動作データが得られる。第1動作データと第2動作データを統合するという場合、第1動作データを部分的に第2動作データに置換すること、あるいは、第1動作データに第2動作データを加えることの両者を意味する。
The motion data creation device embodied by the present invention creates motion data that describes the posture of the articulated robot over time. The data that describes the posture over time is data that describes a change in posture over time and data that describes the motion.
The motion data creating apparatus of the present invention includes a storage means storing first motion data that describes a posture at the time of executing a scheduled motion, and a demonstration motion by measuring the posture of the performer over time. A motion capture device that generates second motion data that describes the posture when executing the motion over time, and a motion in which the first motion data and the second motion data are integrated and the demonstration motion is superimposed on the scheduled motion Motion data integration means for creating third motion data describing the posture of the robot over time, and correction means for correcting the third motion data integrated by the motion data integration means into motion data that can be executed by the articulated robot. Yes.
The performer here is not necessarily limited to a person, and may be, for example, an animal or a robot. An example of the scheduled action is an action of walking by moving the limbs normally. An example of the demonstration operation is an operation of reaching out and shaking. In this case, an operation of extending and shaking hands while walking is obtained by superimposing a demonstration operation of extending and shaking hands on a scheduled operation of walking with limbs moving normally. When the demonstration motion is a posture change of a specific part of the body, the scheduled motion data may describe the posture of the same part over time. In this case, the operation in which the demonstration operation is superimposed on the scheduled operation refers to an operation in which the scheduled operation for the same part is replaced with a demonstration operation for the same part. Alternatively, when the demonstration operation is a posture change of a specific part of the body, the scheduled action data may not include data describing the posture of the same part over time. In this case, the operation in which the demonstration operation is superimposed on the scheduled operation is obtained by adding the demonstration operation related to the part not scheduled to the scheduled operation to the scheduled operation. In the case of the former, the demonstration operation is superimposed on the scheduled motion by replacing the motion data related to the part to which the demonstration motion has priority among the first motion data describing the scheduled motion with the second motion data describing the demonstration motion. The third motion data describing the performed motion is obtained. In the latter case, an operation in which the demonstration operation is superimposed on the scheduled motion by adding the second motion data describing the demonstration motion related to the part not included in the scheduled motion to the first motion data describing the scheduled motion. Third motion data to be described is obtained. When integrating the first motion data and the second motion data, it means both replacing the first motion data partially with the second motion data, or adding the second motion data to the first motion data. To do.
本発明の動作データの作成装置によると、予定動作に実演動作が重畳した動作を実行させる動作データを作成することができる。例えばモーションキャプチャ装置では測定が困難な広範囲を移動する動作については予定動作とし、それを実現する動作データを用意しておくことによって、大掛かりなモーションキャプチャ装置を用意する必要をなくすことができる。一方において、実演すれば簡単に実演できる反面、動作データを用意しようとすると大変に面倒な細かな動作については、実演することによって比較的に簡単に動作データを得ることができる。
本発明の動作データの作成装置によると、両者の動作データを統合して動作データを得ることができるために、より多くの機会に、モーションキャプチャ装置を利用することによって比較的簡単に動作データを作成できるという利点が享受できるようになる。
According to the motion data creation apparatus of the present invention, motion data for executing a motion in which a demonstration motion is superimposed on a scheduled motion can be created. For example, an operation that moves over a wide range that is difficult to measure with a motion capture device is a scheduled operation, and by preparing operation data that realizes the operation, it is possible to eliminate the need to prepare a large-scale motion capture device. On the other hand, it can be easily demonstrated if it is demonstrated, but on the other hand, it is relatively easy to obtain the operation data for the detailed operation that is very troublesome when preparing the operation data.
According to the motion data creation device of the present invention, since motion data can be obtained by integrating both motion data, motion data can be obtained relatively easily by using a motion capture device on more occasions. You can enjoy the advantage of being able to create.
動作データ統合手段は、多関節ロボットの部位毎に第1動作データと第2動作データのいずれかを選択し、部位毎に選択された動作データを統合することが好ましい。
例えば、手以外の部位については第1動作データを選択し、手については第2動作データを選択し、手以外の部位についての第1動作データと手についての第2動作データを統合する。この場合、手以外の部位については予定動作を実行し、手については実演動作を実行する動作データが得られる。
部位に着目して予定動作と実演動作の優先関係を選択すると、予定動作に実演動作が重畳した動作を簡単に指定できる。
Preferably, the motion data integration unit selects either the first motion data or the second motion data for each part of the multi-joint robot, and integrates the motion data selected for each part.
For example, the first action data is selected for a part other than the hand, the second action data is selected for the hand, and the first action data for the part other than the hand and the second action data for the hand are integrated. In this case, motion data for executing a scheduled motion for a part other than the hand and performing a demonstration motion for the hand is obtained.
When the priority relationship between the scheduled action and the demonstration action is selected by paying attention to the part, the action in which the demonstration action is superimposed on the scheduled action can be easily specified.
上記の動作データ作成装置では、修正手段で修正した動作データが記述する動作を再現して表示する表示手段を備えていることが好ましい。
それにより、実演者は作成された動作データによるときの動作を確認しながら実演する動作を調節することができ、意図する動作を実現する動作データをより容易に作成することが可能となる。
The operation data creating apparatus preferably includes a display unit that reproduces and displays the operation described by the operation data corrected by the correcting unit.
Thus, the performer can adjust the operation to perform while confirming the operation based on the generated operation data, and can more easily generate operation data that realizes the intended operation.
上記の動作データ作成装置では、修正手段で修正した動作データを多関節ロボットに教示する教示手段を備えていることが好ましい。
それにより、動作データを作成しながら、多関節ロボットをほぼリアルタイムで動作させることが可能となる。
The motion data creating apparatus preferably includes teaching means for teaching the articulated robot the motion data corrected by the correcting means.
As a result, it is possible to operate the articulated robot almost in real time while creating operation data.
上記の動作データ作成装置では、修正手段で修正した動作データを記憶する記憶手段を備えていることが好ましい。
それにより、作成した動作データを保存することや、作成した動作データを用いて新たな動作データを作成することができる。
The operation data creating apparatus preferably includes a storage unit that stores the operation data corrected by the correction unit.
Thereby, the created operation data can be saved, and new operation data can be created using the created operation data.
本発明の技術は、多関節ロボットの姿勢を経時的に記述する動作データを作成する方法にも具現化される。この方法では、予定動作を実行するときの姿勢を経時的に記述する第1動作データを記憶しておく工程と、実演者の姿勢を経時的にモーションキャプチャ装置によって測定して実演動作を実行するときの姿勢を経時的に記述する第2動作データを収集する工程と、第1動作データと第2動作データを統合して予定動作に実演動作が重畳した動作を実行するときの姿勢を経時的に記述する第3動作データを作成する工程と、第3動作データを多関節ロボットが実行可能な動作データに修正する工程を備えている。
この方法によると、モーションキャプチャ装置によることが得策な動作についてはモーションキャプチャ装置を利用し、モーションキャプチャ装置によることが得策でない動作についてはモーションキャプチャ装置を利用しないで動作データを作成することが可能となる。
The technique of the present invention is also embodied in a method for creating motion data that describes the posture of an articulated robot over time. In this method, the first motion data describing the posture at the time of executing the scheduled motion is stored, and the demonstration posture is executed by measuring the posture of the performer with the motion capture device over time. A step of collecting second motion data describing the posture of the time over time, and the posture of the first motion data and the second motion data integrated to perform the motion in which the demonstration motion is superimposed on the scheduled motion over time And a step of correcting the third motion data into motion data executable by the articulated robot.
According to this method, it is possible to create motion data without using the motion capture device for operations that are not advisable by the motion capture device, using motion capture devices for operations that are best suited for the motion capture device. Become.
本発明により、動作データの作成を容易に行うことが可能となり、ロボットに様々な動作を実行させることが可能となる。 According to the present invention, it is possible to easily create operation data, and it is possible to cause the robot to execute various operations.
最初に、以下に説明する実施例の主要な形態を列記する。
(形態1) ロボットは、ヒューマノイドロボットである。
(形態2) 動作データの作成装置は、複数種類の第1動作データを記憶する記憶部を備えている。
(形態3) 動作データの作成装置は、第1動作データ等をネットワークを介して入力するネットワーク接続部を備えている。
First, main forms of the embodiments described below are listed.
(Mode 1) The robot is a humanoid robot.
(Mode 2) The motion data creation device includes a storage unit that stores a plurality of types of first motion data.
(Mode 3) The operation data creation apparatus includes a network connection unit that inputs first operation data and the like via a network.
(実施例1)
本発明を実施した実施例について図面を参照しながら説明する。図1は、本実施例で説明するロボットシステムの構成を模式的に示している。ロボットシステムは、動作データ作成装置10とロボット102を備えている。
動作データ作成装置10は、ロボット102に教示する動作データを作成する装置である。動作データは、所定の動作を実行する間のロボット102の姿勢を経時的に記述するデータである。動作データは、例えば各時刻におけるロボット102の姿勢を記述しており、経時的に見るとロボット102の姿勢変化を記述しており、ロボット102の動作を記述している。なお、ロボット102の姿勢を記述するデータを姿勢データという。動作データは、時系列に並べられた姿勢データによって構成することができる。なお、動作データは、動作開始時の姿勢データと、それからの姿勢変化を経時的に記述するデータで構成することもできる。
動作データ作成装置10とロボット102は無線通信可能に構成されている。ロボット102は、動作データ作成装置10から動作データを入力し、動作データが記述する姿勢に順次調整することによって、動作データが記述する動作を実行する。
Example 1
Embodiments of the present invention will be described with reference to the drawings. FIG. 1 schematically shows the configuration of a robot system described in this embodiment. The robot system includes an operation
The motion
The motion
図1に示すように、ロボット102は人を模して作られているヒューマノイドロボットである。ロボット102は複数の部位から構成されており、主に、頭部104と胴部106と右腕部108と左腕部110と左脚部112と右脚部114等を備えている。頭部104と右腕部108と左腕部110と左脚部112と右脚部114は、胴部106に揺動可能に接続されている。右腕部108や左腕部110や左脚部112や右脚部114は、複数のリンクが複数の関節を介して接続されて構成されている。例えば右脚部114では、胴部106に股関節114aを介して大腿リンク114bが接続されており、大腿リンク114bに膝関節114cを介して下腿リンク114dが接続されており、下腿リンク114dに足首関節114eを介して足平リンク114fが接続されている。ロボット102は、複数のリンクが複数の関節を介して接続されている多関節ロボットである。ロボット102は各関節の関節角を調節するアクチュエータを備えており、各関節の関節角を調節することによって様々な動作を実行することができる。例えばロボット102は、左右の脚部112、114を揺動することによって二足歩行することができる。そのことから、ロボット102は脚式移動ロボットといえる。
As shown in FIG. 1, the
図1に示すように、動作データ作成装置10は、モーションキャプチャ装置20と、コンピュータ30と、表示装置40を備えている。
モーションキャプチャ装置20は、複数のセンサ22と、そのセンサ22群の出力信号を処理する処理装置24を備えている。図1に示すように、センサ22群(図中に黒丸で示す)は実演者Hの姿勢を検出するためのセンサであり、実演者Hの各部に取付可能になっている。処理装置24は、センサ22群の出力信号に基づいて、実演者Hの姿勢を記述する姿勢データを作成する。モーションキャプチャ装置20は、実演者Hの姿勢を経時的に検出し、検出した姿勢を記述するデータ(ロボット102の動作データに対応するものであり、本明細書の第2動作データに相当する)を経時的に作成する。モーションキャプチャ装置20は汎用のものを用いることができ、例えば光学式のもの、磁気式のもの、加速度を測定するもの、関節角を測定するもの等を用いることができる。
As shown in FIG. 1, the motion
The
コンピュータ30は、詳しくは後述するが、モーションキャプチャ装置20から教示される動作データを用いて、ロボット102が実行可能な動作データを作成する。コンピュータ30は、ロボット102のモデルMを表示装置40に表示することができ、ロボット102のモデルMに作成した動作データを実行させることができる。またコンピュータ30は、作成した動作データをロボット102に教示することもできる。またコンピュータ30は、作成した動作データを、例えば記録媒体4やネットワーク6を介して外部に出力することもできる。コンピュータ30による処理はほぼリアルタイムに行われ、実演者Hの動作はロボットモデルMや実際のロボット102の動作にほぼリアルタイムに反映される。
As will be described later in detail, the
図2は、本実施例のロボットシステムの構成を機能的に示すブロック図である。図2に示すように、コンピュータ30では、機能的に、予定動作データ記憶部52と、ロボットデータ記憶部54と、データ選択部56と、データ統合部58と、データ修正部60と、ネットワーク接続部62と、データ記憶部64と、ロボットモデル作成部66と、データ送信部68等が構成されている。これらの各構成部は、コンピュータ30が備えるハードウエアやソフトウエア等によって構成されている。
FIG. 2 is a block diagram functionally showing the configuration of the robot system of the present embodiment. As shown in FIG. 2, the
予定動作データ記憶部52は、ロボット102が実行可能であり、ロボット102に予定されている動作を実現する動作データ(本明細書の第1動作データに相当する)を記憶している。データ記憶部52には、例えば記録媒体4等を用いて動作データを記憶させることができる。予定動作データ記憶部52には、例えばロボット102が歩行するために用いる歩行用動作データ等を記憶している。ここで図3を参照して、ロボット102が用いる動作データについて説明する。図3(a)は、ロボット102が用いる歩行用動作データ80の構成を模式的に示している。図3(a)に示すように、歩行用動作データ80は、ロボット102の頭部104の姿勢を経時的に記述している頭部動作データ84と、胴部106の姿勢を経時的に記述している胴部動作データ86と、右腕部108の姿勢を経時的に記述している右腕動作データ88と、左腕部110の姿勢を経時的に記述している左腕動作データ90と、左脚部112の姿勢を経時的に記述している左脚動作データ92と、右脚部114の姿勢を経時的に記述している右脚動作データ94等から構成されている。なお、頭部動作データ84や右腕動作データ88や左腕動作データ90は、それぞれの部位の姿勢を決める各関節の関節角を経時的に記述している。一方、胴部動作データ86や左脚動作データ92や右脚動作データ94は、それぞれの部位の代表点の位置と向きを経時的に記述している。図3(a)に示すように各部の動作データ84、86、88、90、92、94から時刻tに対応するデータをそれぞれ読み取ると、図3(b)に示すように時刻tにおけるロボット102の姿勢を求めることができる。
The scheduled motion
図2のロボットデータ記憶部52は、ロボット102の仕様等を記述するロボットデータを記憶している。ロボットデータは、例えばロボット102のリンク構成や、各リンクの長さや、各関節の関節角の許容範囲や、各リンクや搭載機器(コンピュータやバッテリ)の重量等を記述している。ロボットデータには、ロボット102の静的なモデルや動的なモデルを計算するのに十分な情報が記述されている。
ネットワーク接続部62は、ネットワーク6を介して外部のコンピュータ等と接続し、外部のコンピュータ等から動作データ等を入力することができる。
The robot
The
データ選択部56は、ロボット102の部位毎に、予定動作データ記憶部52又はモーションキャプチャ装置20から動作データを入力する。データ選択部56が、予定動作データ記憶部52とモーションキャプチャ装置20のいずれを入力するかは、部位毎に予め設定しておくことができる。
データ統合部58は、データ選択部56が選択的に入力した部位毎の動作データを統合して、ロボット102全体の動作を記述する動作データを作成する。
データ修正部60は、データ統合部58が統合して作成した統合動作データを、ロボット102が実行可能な動作データに修正する。モーションキャプチャ装置20から入力した動作データは、ロボット102が実行可能な動作データであるとは限らない。また、各動作データが実行可能な動作データであるとしても、それらを統合した動作データが実行可能であるとは限らない。データ修正部60は、ロボットデータ記憶部54に記憶されているロボットデータを参照して、データ統合部58が作成した統合動作データを修正する。この修正では、例えば各関節の関節角を許容範囲内に修正したり、ロボット102の動的バランスが維持されるように胴部106の位置や姿勢等を修正したりする。
The
The
The
ロボットモデル作成部66は、三次元コンピュータグラフィクス処理を実行することによって、ロボット102のモデルMを表示装置40に表示する。ロボットモデル作成部66は、ロボットデータ記憶部54に記憶されているロボットデータを参照してロボット102のモデルMを作成するとともに、データ修正部60で修正された動作データを入力してロボット102のモデルMの姿勢を計算する。それにより、表示装置40には、データ修正部60で修正された動作データが記述する姿勢をとるロボット102のモデルMが表示される。表示されるモデルMは、動作データが記述する姿勢が経時的に変化することから、姿勢を経時的に変え、動作を再現する。
データ記憶部64は、データ修正部60で修正された動作データを記憶する。データ記憶部64は、姿勢データを時刻(処理開始からの経過時間)データとともに順次記憶することによって、姿勢データを時系列に並べて記憶する。即ち、データ記憶部64には、動作データ作成装置10が作成する動作データが記憶される。
データ送信部68は、データ修正部60で修正された動作データを、ロボット102に向けて送信する。それにより、動作データ作成装置10が作成する動作データを、リアルタイムでロボット102に教示することができる。
The robot
The
The
図4は、動作データ作成装置10の動作の流れを示すフローチャートである。図4に示す処理フローは、主にコンピュータ30によって動作周期Δt毎に繰り返し実行される。以下、図4に示す処理フローに沿って、動作データ作成装置10の動作を説明する。ここでは、ロボット102に、左腕部110を頭上で振りながら歩行させる場合を例に挙げて説明する。図5は、図4に示す処理フローにおいて処理される姿勢データの変遷を模式的に示している。
図4の処理フローに先立ち、予定動作データ記憶部52には歩行動作データ80が記憶されており、実演者Hは左手を振る動作を実演している。実演者Hは歩行する必要がなく、その場に留まって左手を振ればよい。実演者Hがその場に留まっていることから、実演者Hの姿勢をモーションキャプチャ装置20によって測定しやすい。
FIG. 4 is a flowchart showing an operation flow of the operation
Prior to the processing flow of FIG. 4, the walking
ステップS2では、データ選択部56が、予定動作データ記憶部52が記憶している歩行動作データ80から、その時の時刻tに対応する姿勢データ(図5中のA)のなかで、左腕部110以外の姿勢データ(図5中のC)を入力する。即ち、左腕動作データ90(図3参照)は利用されないことから、左腕動作データ90を準備しておく必要は必ずしもない。
ステップS4では、データ選択部56が、モーションキャプチャ装置20から、測定した実演者Hの姿勢データ(図5中のB)のなかで、ロボット102の左腕部110に関する姿勢データ(図5中のD)を入力する。即ち、左腕部110の姿勢に関与しないデータは利用されないので、実演者Hの姿勢のなかで左腕部110の姿勢に関与しない姿勢をモーションキャプチャ装置20で測定する必要は必ずしもない。
ステップS6では、データ統合部58が、予定動作データ記憶部52が記憶している歩行動作データ80から入力した部分的な姿勢データ(図5中のC)と、モーションキャプチャ装置20から入力した部分的な姿勢データ(図5中のD)を統合して、ロボット102全体の姿勢を記述する統合姿勢データ(図5中のE)を作成する。データ統合部58が作成した統合姿勢データEは、部分的な姿勢データC、Dを単に統合したものであり、特別な計算等を必要としない。そのことから、データ統合部58が作成した姿勢データEは、ロボット102が実行可能であるか否かは保証されない。
ステップS8では、データ修正部60が、データ統合部58が作成した統合姿勢データ(図5中のE)を、ロボット102が実行可能な姿勢データ(図5中のF)に修正する。データ修正部60は、前回の動作周期t−Δtにおける姿勢データ等も加味して、ロボット102が動力学的にも実行可能な姿勢データに修正する。
In step S2, the
In step S4, the
In step S6, the
In step S8, the
ステップS10では、ロボットモデル作成部66が、データ修正部60で修正された姿勢データの姿勢をとるロボットのモデルMを表示装置40に表示する。ロボットモデル作成部66は、データ修正部60で修正された姿勢データ(図5中のF)を入力し、その修正された姿勢データFが記述する姿勢をとるロボットモデルMを表示する。
ステップS12では、データ送信部68が、データ修正部60で修正された修正姿勢データ(図5中のF)を、ロボット102に送信して教示する。修正姿勢データFを受信したロボット102は、修正姿勢データFが記述する姿勢をとる。修正姿勢データFはロボット102が実行可能な姿勢データに修正されているので、ロボット102が処理エラーを起こしたり、転倒したりすることはない。ロボット102と表示画面40に表示されているモデルMは、同じ姿勢をとることとなる。
ステップS12では、データ記憶部64が、データ修正部60で修正された修正姿勢データFを、時刻データと対応付けて記憶する。
In step S <b> 10, the robot
In step S <b> 12, the
In step S12, the
図4の処理フローが動作周期Δt毎に繰り返し実行されることによって、ロボット102は左腕部110を頭上で振りながら歩行し、表示装置40にはロボット110と同じ動作をするロボットモデルMが表示される。ロボット102が実演者Hの視界の外へと移動した場合でも、実演者Hは表示装置40のロボットモデルMを観察することができ、自身の演技を調節することができる。
データ送信部68は、ロボット102に修正姿勢データを動作周期Δt毎に経時的に教示することで、ロボット102に姿勢の経時的変化を記述するデータ(即ち、動作データ)を教示することとなる。
データ記憶部64には、経時的に並ぶ修正姿勢データ(即ち、動作データ)が記憶保存される。
By repeatedly executing the processing flow of FIG. 4 every operation period Δt, the
The
The
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時請求項記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.
10・・動作データ作成装置
20・・モーションキャプチャ装置
30・・コンピュータ
52・・予定動作データ記憶部
54・・ロボットデータ記憶部
56・・データ選択部
58・・データ統合部
60・・データ修正部
62・・ネットワーク接続部
64・・データ記憶部
66・・ロボットモデル作成部
68・・データ送信部
102・・ロボット
106・・ロボットの胴部
110・・ロボットの左腕部
H・・実演者
10. Motion
Claims (6)
予定動作を実行するときの姿勢を経時的に記述する第1動作データを記憶している記憶手段と、
実演者の姿勢を経時的に測定し、実演動作を実行するときの姿勢を経時的に記述する第2動作データを生成するモーションキャプチャ装置と、
第1動作データと第2動作データを統合し、予定動作に実演動作が重畳した動作を実行するときの姿勢を経時的に記述する第3動作データを作成する動作データ統合手段と、
動作データ統合手段で統合した第3動作データを、多関節ロボットが実行可能な動作データに修正する修正手段と、
を備える動作データ作成装置。 An apparatus for creating motion data that describes the posture of an articulated robot over time,
Storage means for storing first motion data that describes the posture when performing the scheduled motion over time;
A motion capture device that measures the posture of the performer over time and generates second motion data that describes the posture when performing the demonstration operation over time;
Action data integration means for integrating the first action data and the second action data, and creating third action data that describes the posture over time when executing the action in which the demonstration action is superimposed on the scheduled action;
Correction means for correcting the third motion data integrated by the motion data integration means into motion data executable by the articulated robot;
An operation data creation device comprising:
予定動作を実行するときの姿勢を経時的に記述する第1動作データを記憶しておく工程と、
実演者の姿勢を経時的にモーションキャプチャ装置によって測定し、実演動作を実行するときの姿勢を経時的に記述する第2動作データを収集する工程と、
第1動作データと第2動作データを統合し、予定動作に実演動作が重畳した動作を実行するときの姿勢を経時的に記述する第3動作データを作成する工程と、
第3動作データを、多関節ロボットが実行可能な動作データに修正する工程と、
を備える動作データ作成方法。 A method of creating motion data describing the posture of an articulated robot over time,
Storing first motion data describing the posture at the time of executing the scheduled motion over time;
Measuring the posture of the performer over time with a motion capture device and collecting second motion data describing the posture over time when performing the demonstration motion;
Integrating the first motion data and the second motion data, and creating third motion data that describes the posture over time when executing the motion in which the demonstration motion is superimposed on the scheduled motion;
Correcting the third motion data into motion data executable by the articulated robot;
An operation data creation method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005011633A JP4487782B2 (en) | 2005-01-19 | 2005-01-19 | Motion data creation device and method for teaching an articulated robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005011633A JP4487782B2 (en) | 2005-01-19 | 2005-01-19 | Motion data creation device and method for teaching an articulated robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006198709A true JP2006198709A (en) | 2006-08-03 |
JP4487782B2 JP4487782B2 (en) | 2010-06-23 |
Family
ID=36957140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005011633A Expired - Fee Related JP4487782B2 (en) | 2005-01-19 | 2005-01-19 | Motion data creation device and method for teaching an articulated robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4487782B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100813693B1 (en) | 2006-11-28 | 2008-03-14 | 한국과학기술연구원 | Method for controlling arm movement of robot and robot thereof |
JP2010221395A (en) * | 2009-03-24 | 2010-10-07 | Disney Enterprises Inc | System and method for tracking and balancing robots for imitating motion capture data |
JP5892531B1 (en) * | 2015-11-16 | 2016-03-23 | プレンプロジェクト・ホールディングス有限会社 | Link string mapping device, link string mapping method, and program |
JP2017056054A (en) * | 2015-09-17 | 2017-03-23 | カシオ計算機株式会社 | Health management support device, health management support method, and program |
JP2017170535A (en) * | 2016-03-18 | 2017-09-28 | プレンプロジェクト・ホールディングス有限会社 | Link row mapping device, link row mapping method, and program |
-
2005
- 2005-01-19 JP JP2005011633A patent/JP4487782B2/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100813693B1 (en) | 2006-11-28 | 2008-03-14 | 한국과학기술연구원 | Method for controlling arm movement of robot and robot thereof |
JP2010221395A (en) * | 2009-03-24 | 2010-10-07 | Disney Enterprises Inc | System and method for tracking and balancing robots for imitating motion capture data |
JP2017056054A (en) * | 2015-09-17 | 2017-03-23 | カシオ計算機株式会社 | Health management support device, health management support method, and program |
JP5892531B1 (en) * | 2015-11-16 | 2016-03-23 | プレンプロジェクト・ホールディングス有限会社 | Link string mapping device, link string mapping method, and program |
WO2017086364A1 (en) * | 2015-11-16 | 2017-05-26 | 直広 早石 | Link-sequence mapping device, link-sequence mapping method, and program |
CN108290293A (en) * | 2015-11-16 | 2018-07-17 | 早石直广 | Link sequences mapping device, link sequences mapping method and program |
US10899005B2 (en) | 2015-11-16 | 2021-01-26 | Keisuu Giken Co., Ltd. | Link-sequence mapping device, link-sequence mapping method, and program |
CN108290293B (en) * | 2015-11-16 | 2021-05-14 | 株式会社计数技研 | Link sequence mapping device, link sequence mapping method, and program |
JP2017170535A (en) * | 2016-03-18 | 2017-09-28 | プレンプロジェクト・ホールディングス有限会社 | Link row mapping device, link row mapping method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP4487782B2 (en) | 2010-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW469211B (en) | Ambulation control apparatus and ambulation control method of robot | |
US8751041B2 (en) | Method to generate humanlike motion of humanoid robot | |
US7054718B2 (en) | Motion editing apparatus and method for legged mobile robot and computer program | |
JP4715863B2 (en) | Actuator control apparatus, actuator control method, actuator, robot apparatus, and computer program | |
JP4487782B2 (en) | Motion data creation device and method for teaching an articulated robot | |
US20050209534A1 (en) | System and method of predicting novel motion in a serial chain system | |
WO2019059364A1 (en) | Remote control manipulator system and control device | |
WO2003068454A1 (en) | Two-leg walking humanoid robot | |
JP2009095959A (en) | Control system, control method, and robot apparatus | |
JP2007015037A (en) | Motion editing device of robot, motion editing method, computer program and robot device | |
Kuehn et al. | System design and testing of the hominid robot charlie | |
WO2002040222A1 (en) | Device and method for controlling motion of legged mobile robot, and motion unit generating method for legged mobile robot | |
Vidoni et al. | Design and implementation of an ERLS-based 3-D dynamic formulation for flexible-link robots | |
Gorner et al. | The DLR-Crawler: A testbed for actively compliant hexapod walking based on the fingers of DLR-Hand II | |
EP3117967A1 (en) | Transparency control method for robotic devices and a control device therefor | |
US11422625B2 (en) | Proxy controller suit with optional dual range kinematics | |
Miyashita et al. | Human-like natural behavior generation based on involuntary motions for humanoid robots | |
JP2013088730A (en) | Skill acquisition supporting system and skill acquisition support method | |
Barros et al. | Bimanual haptics for humanoid robot teleoperation using ROS and V-REP | |
RU2013125781A (en) | IMAGE FORMING DEVICE FOR OBJECT IMAGE FORMATION | |
JP2001287179A (en) | Industrial robot teaching system | |
Berninger et al. | Experimental analysis of structural vibration problems of a biped walking robot | |
Gmiterko et al. | Motion capture of human for interaction with service robot | |
JP2003117858A (en) | Method and device for control of robot walk | |
JP4587699B2 (en) | Robot apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081216 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091222 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100322 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140409 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |