JP2001060273A - Generating device and editing device of operation data - Google Patents

Generating device and editing device of operation data

Info

Publication number
JP2001060273A
JP2001060273A JP23482199A JP23482199A JP2001060273A JP 2001060273 A JP2001060273 A JP 2001060273A JP 23482199 A JP23482199 A JP 23482199A JP 23482199 A JP23482199 A JP 23482199A JP 2001060273 A JP2001060273 A JP 2001060273A
Authority
JP
Japan
Prior art keywords
path
motion data
reference position
operation data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP23482199A
Other languages
Japanese (ja)
Inventor
Kazuhiro Nishitani
和博 西谷
Shigeo Asahara
重夫 浅原
Toshiya Naka
俊弥 中
Yoshiyuki Mochizuki
義幸 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP23482199A priority Critical patent/JP2001060273A/en
Publication of JP2001060273A publication Critical patent/JP2001060273A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate an optional path in a three-dimensional space and to arrange a single or plural operation data on the path and to connect these data together to secure coincidence between a motion path of an object and the said path by generating the 2nd operation data from the 1st operation data and a 2nd path to show that the object has its motion along the 2nd path. SOLUTION: An operation arrangement means 10 receives the 1st operation data showing that an object has its motion along a 1st path and also receives a 2nd path. Then the means 10 generates the 2nd operation data from the 1st operation data and the 2nd path to show that the object has its motion along the 2nd path. In other words, a path is drawn in a three-dimensional virtual space, the reference position of operation data on the object is set on the path, an attitude angle vector is controlled and the arranged data are connected together. As a result, a motion path can be set in accordance with an optional path that is set in a three-dimensional virtual path. Thus, the obtained operation data can be easily reused.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元コンピュー
タグラフィックス(以降、3DCGと称す)・アニメー
ションを生成および/または編集する装置および方法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for generating and / or editing three-dimensional computer graphics (hereinafter referred to as 3DCG) animation.

【0002】[0002]

【従来の技術】最近、3DCGの利用分野として、剛体
多関節物体によってモデル化された、人間などの生物を
リアルに動かすことが必須になりつつある。このような
動きは、アニメータと呼ばれる人々によってキーフレー
ム補間を使った手法で生成されたり、モーション・キャ
プチャリングという3次元動作計測技術によって現実の
動きを捕捉することによって生成される。このような手
法で生成された動きは、動きとしての最低限の意味を持
つような単位で生成される。したがって、一連の長時間
にわたる動きとするためには、これら細切れの動きを接
続して動作データを生成する。また、これらの手法は、
コストがかかるため、生成されたデータの再利用が重要
となる。
2. Description of the Related Art In recent years, as a field of application of 3DCG, it has become essential to realistically move a living thing such as a human modeled by a rigid articulated object. Such motion is generated by a method using key frame interpolation by people called animators, or by capturing real motion by a three-dimensional motion measurement technique called motion capturing. The motion generated by such a method is generated in units having a minimum meaning as the motion. Therefore, in order to make a series of motions over a long period of time, motion data is generated by connecting these small motions. Also, these techniques
Because of the cost, reuse of the generated data is important.

【0003】[0003]

【発明が解決しようとする課題】しかし、単純に動作を
接続するだけでは、3DCGで表された3次元仮想空間
内において、任意のパスと物体の運動経路を一致させる
ことはできなかった。また、動作データを再利用するた
めの手法としては、Retargetting Motion to NewCharac
ters, Michael Gleicher(Autodesk Vision Technology
Center)の研究などがあるが、ユーザは熟慮の末、制
約条件などの設定を行う必要があった。
However, simply connecting motions could not match an arbitrary path with a motion path of an object in a three-dimensional virtual space represented by 3DCG. Also, as a method for reusing motion data, Retargetting Motion to NewCharac
ters, Michael Gleicher (Autodesk Vision Technology
Center), but it was necessary for the user to make settings such as constraints after careful consideration.

【0004】本発明は、上記問題に鑑みなされたもの
で、3次元空間内に任意のパスを生成し、単数または複
数の動作データを、パス上に配置、接続することで、物
体の運動経路をパスと一致させるものである。
[0004] The present invention has been made in view of the above problems, and generates an arbitrary path in a three-dimensional space, and arranges and connects one or a plurality of pieces of motion data on the path to form a motion path of the object. With the path.

【0005】[0005]

【課題を解決するための手段】本発明の生成装置は、物
体が第1のパスに沿って運動することを示す第1の動作
データと、第2のパスを受け取り、前記動作データと前
記第2のパスに基づいて、前記物体が前記第2のパスに
沿って運動することを示す第2の動作データを生成する
動作配置手段を備え、そのことにより上記目的が達成さ
れる。
The generator of the present invention receives first motion data indicating that an object moves along a first path and a second path, and receives the motion data and the second motion data. Based on the two paths, there is provided motion arrangement means for generating second motion data indicating that the object moves along the second path, thereby achieving the above object.

【0006】前記物体が剛体多関節物体であり、前記剛
体多関節物体は、1つのルートおよび少なくとも1つの
関節を有し、前記第1の動作データが、前記ルートの位
置情報と、前記ルートの姿勢情報とを有してもよい。
[0006] The object is a rigid articulated object, the rigid articulated object has one route and at least one joint, and the first motion data includes position information of the route and information of the route. Posture information.

【0007】前記物体が剛体多関節物体であり、前記剛
体多関節物体は、1つのルートおよび少なくとも1つの
関節を有し、前記第1の動作データが、前記ルートの位
置情報と、前記ルートの姿勢情報と、前記少なくとも1
つの関節におけるスライド情報と、前記少なくとも1つ
の関節の回転角度情報を有してもよい。
[0007] The object is a rigid articulated object, the rigid articulated object has one route and at least one joint, and the first motion data includes position information of the route and information of the route. Posture information and the at least one
The information may include slide information on one joint and rotation angle information on the at least one joint.

【0008】前記第1の動作データの前記ルートの位置
情報が、基準位置p(t)と基準位置p(t+Δt)と
を有し、前記第2の動作データの前記ルートの位置情報
が、前記基準位置p(t)に対応する基準位置p’
(t)と前記基準位置p(t+Δt)に対応する基準位
置p’(t+Δt)とを有し、前記基準位置p(t)と
基準位置p(t+Δt)との距離が、前記基準位置p’
(t)と前記基準位置p’(t+Δt)との距離と相関
してもよい。
The position information of the route in the first operation data includes a reference position p (t) and a reference position p (t + Δt), and the position information of the route in the second operation data is Reference position p ′ corresponding to reference position p (t)
(T) and a reference position p ′ (t + Δt) corresponding to the reference position p (t + Δt), and the distance between the reference position p (t) and the reference position p (t + Δt) is equal to the reference position p ′.
It may be correlated with the distance between (t) and the reference position p ′ (t + Δt).

【0009】前記第1の動作データの前記ルートの姿勢
情報が姿勢ベクトルv(t)を有し、前記第2の動作デ
ータの前記ルートの姿勢情報が姿勢ベクトルv’(t)
を有し、前記動作配置手段が、前記姿勢ベクトルv
(t)を姿勢ベクトルv’(t)として生成してもよ
い。
The attitude information of the route in the first motion data has an attitude vector v (t), and the attitude information of the route in the second motion data is an attitude vector v ′ (t).
And the motion arranging means includes the posture vector v
(T) may be generated as the posture vector v ′ (t).

【0010】前記第1の動作データの前記ルートの姿勢
情報が姿勢ベクトルv(t)を有し、前記第2の動作デ
ータの前記ルートの姿勢情報が姿勢ベクトルv’(t)
を有し、前記動作配置手段が、前記姿勢ベクトルv
(t)と前記第2のパスに基づいて、姿勢ベクトルv’
(t)を生成してもよい。
The attitude information of the route in the first motion data has an attitude vector v (t), and the attitude information of the route in the second motion data is an attitude vector v ′ (t).
And the motion arranging means includes the posture vector v
Based on (t) and the second pass, the posture vector v ′
(T) may be generated.

【0011】前記第2の動作データの前記ルートの姿勢
情報が姿勢ベクトルv’(t)を有し、前記動作配置手
段が、初期の姿勢ベクトルv’(t0)および最終の姿
勢ベクトルv’(te)を受け取り、前記初期の姿勢ベ
クトルv’(t0)および前記最終の姿勢ベクトルv’
(te)に基づき、期間t0〜teの姿勢ベクトルv’
(t)を有してもよい。
[0011] The attitude information of the route of the second motion data includes an attitude vector v '(t), and the motion arranging means includes an initial attitude vector v' (t 0 ) and a final attitude vector v '. receive (t e), the initial attitude vector v '(t 0) and the final posture vector v'
Based on the (t e), the period t 0 ~t e posture vector v '
(T).

【0012】前記生成装置は、前記第2のパスを生成す
るパス生成手段をさらに備えてもよい。
[0012] The generating apparatus may further include a path generating means for generating the second path.

【0013】前記パス生成手段は、複数の位置情報を受
け取り、前記複数の位置情報を補間することにより、前
記第2のパスを生成してもよい。
[0013] The path generating means may receive the plurality of position information and generate the second path by interpolating the plurality of position information.

【0014】前記パス生成手段は、3次元空間を表示す
ることができる表示装置とポインティングデバイスを有
し、ポインティングデバイスによって、前記3次元空間
に描かれる軌跡を前記第2のパスとしてもよい。
[0014] The path generating means may include a display device and a pointing device capable of displaying a three-dimensional space, and a locus drawn in the three-dimensional space by the pointing device may be used as the second path.

【0015】前記生成装置が、前記第2の動作データを
表示する表示装置をさらに備えてもよい。
[0015] The generation device may further include a display device for displaying the second operation data.

【0016】本発明の動作データ編集装置は、位置情報
をそれぞれ有する2つの動作データを受け取り、前記2
つのうちの一方の動作データのパスの一部、または、前
記2つのうちの他方の動作データのパスの一部を変更
し、前記2つのうちの一方の動作データのパスと前記2
つのうちの他方の動作データのパスを接続し、前記接続
されたパスの上に前記2つの動作データの位置情報を再
配置し、そのことにより上記目的が達成される。
The operation data editing apparatus of the present invention receives two operation data each having position information, and receives the two operation data.
A part of the path of one of the two operation data or a part of the path of the other one of the two operation data is changed, and the path of one of the two operation data and the path of the two operation data are changed.
The other operation data path is connected, and the position information of the two operation data is relocated on the connected path, thereby achieving the above object.

【0017】前記基準位置p(t)と前記基準位置p
(t+Δt)との距離と、前記基準位置p’(t)と前
記基準位置p’(t+Δt)との距離がほぼ等しくても
よい。
The reference position p (t) and the reference position p
The distance to (t + Δt) may be substantially equal to the distance between the reference position p ′ (t) and the reference position p ′ (t + Δt).

【0018】本発明の動作データ生成方法は、物体が第
1のパスに沿って運動することを示す第1の動作データ
と、第2のパスとを受け取る工程と、前記動作データと
前記第2のパスに基づいて、前記物体が前記第2のパス
に沿って運動することを示す第2の動作データを生成す
る工程とを包含し、そのことにより上記目的が達成され
る。
The motion data generating method according to the present invention includes a step of receiving first motion data indicating that an object moves along a first path and a second path, and a step of receiving the motion data and the second path. Generating second motion data indicating that the object moves along the second path, based on the second path, thereby achieving the above object.

【0019】本発明のコンピュータ読み取り可能な記録
媒体は、物体が第1のパスに沿って運動することを示す
第1の動作データと、第2のパスとを受け取る工程と、
前記動作データと前記第2のパスに基づいて、前記物体
が前記第2のパスに沿って運動することを示す第2の動
作データを生成する工程とをコンピュータに実行させる
ためのプログラムを記録し、そのことにより上記目的が
達成される。
[0019] The computer readable recording medium of the present invention comprises: receiving first motion data indicating that an object moves along a first path; and receiving a second path;
Generating a second motion data indicating that the object moves along the second path based on the motion data and the second path. Thereby, the above object is achieved.

【0020】本発明の動作データ生成方法は、物体が第
1のパスに沿って運動することを示す第1の動作データ
を受け取る工程と、第2のパスを生成する工程と、前記
第2のパスとを受け取る工程と、前記動作データと前記
第2のパスに基づいて、前記物体が前記第2のパスに沿
って運動することを示す第2の動作データを生成する工
程とを包含し、そのことにより上記目的が達成される。
The method of generating motion data according to the present invention includes the steps of receiving first motion data indicating that an object moves along a first path, generating a second path, and generating the second path. Receiving a path, and generating second motion data indicating that the object moves along the second path based on the motion data and the second path, Thereby, the above object is achieved.

【0021】本発明のコンピュータ読み取り可能な記録
媒体は、物体が第1のパスに沿って運動することを示す
第1の動作データを受け取る工程と、第2のパスを生成
する工程と、前記第2のパスとを受け取る工程と、前記
動作データと前記第2のパスに基づいて、前記物体が前
記第2のパスに沿って運動することを示す第2の動作デ
ータを生成する工程とをコンピュータに実行させるため
のプログラムを記録し、そのことにより上記目的が達成
される。
[0021] The computer readable recording medium of the present invention comprises the steps of: receiving first motion data indicating that an object moves along a first path; generating a second path; Receiving the second path, and generating second motion data indicating that the object moves along the second path based on the motion data and the second path. A program to be executed by the computer, thereby achieving the above object.

【0022】[0022]

【発明の実施の形態】以下に、本発明の実施形態を、図
面を参照しながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0023】コンピュータ・グラフィックス・アニメー
ションにおいて、剛体多関節物体でモデル化した人間や
生物などの物体を動かすために必要な動作データは、一
般に時系列データとして与えられる。
In computer graphics / animation, motion data necessary for moving an object such as a human or a living being modeled by a rigid articulated object is generally given as time-series data.

【0024】図1は、本発明の概念を示す図である。本
発明では、既知である第1の動作データと、任意に与え
ることができる第2のパスに基づいて、第2の動作デー
タが作成される。
FIG. 1 is a diagram showing the concept of the present invention. In the present invention, the second operation data is created based on the known first operation data and the second path that can be arbitrarily given.

【0025】第1の動作データとは、図1に示す物体1
が運動経路、つまり、第1のパスに沿って運動すると
き、物体1を3DCGで表すために必要なデータを意味
し、第2のパスとは、3次元空間の中で物体1を運動さ
せたい新たな運動経路を意味する。つまり、第2の動作
データとは、物体1が任意に与えることができる第2の
パスに沿って運動するとき、物体1を3DCGで表すた
めに必要なデータを意味する。
The first operation data is the object 1 shown in FIG.
Means the data necessary to represent the object 1 in 3D CG when it moves along the movement path, that is, the first path, and the second path means moving the object 1 in a three-dimensional space. Meaning a new movement path. That is, the second motion data means data necessary for representing the object 1 in 3DCG when the object 1 moves along a second path that can be arbitrarily given.

【0026】本発明では、所望の第2のパスが与えられ
ると、既知である物体1の第1の動作データから、所望
の第2のパスに沿って運動する物体1の第2の動作デー
タが得られる。このため、本発明によると、すでに存在
する、物体の動作を表している動作データを利用して、
その物体に元のパスとは異なるパスを移動させた動作デ
ータを得ることができる。本発明を適応することによ
り、不連続な2つの動作データを、あたかも連続した動
作データのように、編集することができる。
According to the present invention, when a desired second path is given, the second movement data of the object 1 moving along the desired second path is calculated from the known first movement data of the object 1. Is obtained. For this reason, according to the present invention, using the motion data representing the motion of the object which already exists,
Motion data obtained by moving a path different from the original path to the object can be obtained. By applying the present invention, it is possible to edit two discontinuous operation data as if they were continuous operation data.

【0027】(第1の実施形態)以下に、図1に示す物
体1の第1の動作データから、第2のパスに沿って運動
する物体1の第2の動作データを生成するための構成を
図2を用いて説明する。
(First Embodiment) A configuration for generating second motion data of the object 1 moving along the second path from the first motion data of the object 1 shown in FIG. Will be described with reference to FIG.

【0028】図2は、第1の実施形態における動作配置
手段10を示す図である。
FIG. 2 is a diagram showing the operation arranging means 10 according to the first embodiment.

【0029】動作配置手段10は、物体1が第1のパス
に沿って運動することを示す第1の動作データと、第2
のパスを受け取る。動作配置手段10は、第1の動作デ
ータと第2のパスに基づいて、物体1が第2のパスに沿
って運動することを示す第2の動作データを生成する。
なお、動作配置手段10は、図19に示すシステムによ
って構成されてもよい。
The motion arranging means 10 includes a first motion data indicating that the object 1 moves along the first path, and a second motion data.
Receive the pass. The motion arranging unit 10 generates second motion data indicating that the object 1 moves along the second path based on the first motion data and the second path.
The operation arranging unit 10 may be configured by a system shown in FIG.

【0030】以下に、上述した物体1および物体1の動
作データを、図3および図4を用いて説明する。
Hereinafter, the above-described object 1 and the operation data of the object 1 will be described with reference to FIG. 3 and FIG.

【0031】図3は、物体1の一例であるヒューマノイ
ド型の剛体関節物体20を示す図であり、図4は、図3
に示す剛体関節物体20の複数の関節を明確にした図で
ある。
FIG. 3 is a diagram showing a humanoid type rigid joint object 20 which is an example of the object 1. FIG.
3 is a diagram clarifying a plurality of joints of the rigid joint object 20 shown in FIG.

【0032】動作データは、剛体関節物体20の位置情
報、剛体関節物体20の姿勢情報、剛体関節物体20の
複数の関節におけるスライド情報、剛体関節物体20の
複数の関節における回転角度情報を有している。位置情
報とは、3次元空間における剛体関節物体20の位置を
表し、剛体関節物体20の位置は、たとえば、ワールド
座標系(x軸方向、y軸方向、およびz軸方向)で表す
ことができる。姿勢情報は姿勢ベクトルで表すことがで
き、姿勢ベクトルは、進行方向ベクトル、上方向ベクト
ル、および横方向ベクトルを含む。スライド情報は、剛
体と剛体とを接続する関節が、スライドする量とスライ
ドする方向を表す。
The motion data includes position information of the rigid joint object 20, posture information of the rigid joint object 20, slide information of a plurality of joints of the rigid joint object 20, and rotation angle information of a plurality of joints of the rigid joint object 20. ing. The position information indicates the position of the rigid joint object 20 in a three-dimensional space, and the position of the rigid joint object 20 can be represented by, for example, a world coordinate system (x-axis direction, y-axis direction, and z-axis direction). . The posture information can be represented by a posture vector, and the posture vector includes a traveling direction vector, an upward vector, and a lateral vector. The slide information indicates the amount and direction in which the joint connecting the rigid bodies slides.

【0033】さらに、具体的には、動作データは、その
物体全体の位置を表す3次元座標値(基準位置)の時系
列データp(t)と、その物体全体の姿勢を制御するた
めに使用する3つの姿勢角度ベクトルの時系列データv
(t)、および各関節の運動制御に使用する、平行移動
量を表したスライドベクトルの時系列データρ(t)と
回転量を表した関節角の時系列データθ(t)で構成さ
れ、動作データM(t)=[p(t),v(t),ρ
(t),θ(t)]と表現できる。ここで、tは時間を示
している。
More specifically, the motion data is used to control time-series data p (t) of three-dimensional coordinate values (reference positions) representing the position of the entire object and to control the attitude of the entire object. Time series data v of three attitude angle vectors
(T), and time series data ρ (t) of a slide vector representing an amount of parallel movement used for motion control of each joint and time series data θ (t) of a joint angle representing an amount of rotation. Operation data M (t) = [p (t), v (t), ρ
(T), θ (t)]. Here, t indicates time.

【0034】なお、図4に示すように、剛体関節物体2
0がルートを有する場合、剛体関節物体20の位置情報
はルートの位置情報であってもよい。また、ルートは剛
体関節物体20の基準となる位置を表すため、ルートの
位置を基準位置と呼んでもよい。また、剛体関節物体2
0の姿勢情報はルートの姿勢情報であってもよい。
Note that, as shown in FIG.
When 0 has a route, the position information of the rigid joint object 20 may be the position information of the route. Further, since the route represents a position serving as a reference of the rigid joint object 20, the position of the route may be referred to as a reference position. In addition, rigid joint object 2
The posture information of 0 may be the posture information of the route.

【0035】以下に、図2に示す動作配置手段10の基
本動作を図5および図6を用いて説明する。
The basic operation of the operation arranging means 10 shown in FIG. 2 will be described below with reference to FIGS.

【0036】図5は、予め与えられている第1の動作デ
ータMi(t)と、生成される第2の動作データMMi
(t)との関係を示す図であり、図6は、動作配置手段
10が、第2の動作データMMi(t)を生成する工程
を示す図である。
FIG. 5 shows first operation data Mi (t) given in advance and generated second operation data MMi.
FIG. 6 is a diagram illustrating a relationship with (t), and FIG. 6 is a diagram illustrating a process in which the operation arrangement unit 10 generates the second operation data MMi (t).

【0037】第1の動作データMi(t)は、時刻tに
おける基準位置p(t)と時刻t+Δtにおける基準位
置p(t+Δt)とを有し、第2の動作データMMi
(t)は、基準位置p(t)に対応する基準位置p’
(t)と基準位置p(t+Δt)に対応する基準位置
p’(t+Δt)とを有している。
The first operation data Mi (t) has a reference position p (t) at time t and a reference position p (t + Δt) at time t + Δt, and the second operation data MMi.
(T) is a reference position p ′ corresponding to the reference position p (t).
(T) and a reference position p ′ (t + Δt) corresponding to the reference position p (t + Δt).

【0038】第1のパスに沿って、基準位置p(t)お
よび基準位置p(t+Δt)が配置されている。動作配
置手段10が、基準位置p(t)および基準位置p(t
+Δt)を含む第1の動作データMi(t)および第2
のパスを受け取ると、第2のパスに沿って、基準位置p
(t)に対応する基準位置p’(t)と基準位置p(t
+Δt)に対応する基準位置p’(t+Δt)とを配置
する。ここで、配置された、基準位置p’(t)と基準
位置p’(t+Δt)との間の距離l’は、基準位置p
(t)と基準位置p(t+Δt)との間の距離lと相関
している。つまり、距離l’は距離lの関数(l’=f
(l))であればよい。たとえば、距離l’が距離lと
ほぼ等しかったり、距離l’が距離lのほぼ2倍であっ
てもよい。
A reference position p (t) and a reference position p (t + Δt) are arranged along the first path. The motion arranging unit 10 determines whether the reference position p (t) and the reference position
+ Δt) and the second operation data Mi (t)
Is received along the second path, the reference position p
The reference position p ′ (t) corresponding to (t) and the reference position p (t
+ Δt) and a reference position p ′ (t + Δt) corresponding to the reference position. Here, the distance l ′ between the arranged reference position p ′ (t) and the reference position p ′ (t + Δt) is equal to the reference position p ′.
It is correlated with the distance 1 between (t) and the reference position p (t + Δt). That is, the distance l ′ is a function of the distance l (l ′ = f
(L)) may be used. For example, the distance l 'may be approximately equal to the distance l, or the distance l' may be approximately twice the distance l.

【0039】具体的には、図6に示すように、ステップ
S1で、動作配置手段10は、第1の動作データMi
(t)の中で、時刻tにおける基準位置p(t)と時刻
t+Δtにおける基準位置p(t+Δt)との距離dを
求める。ステップS2で、動作配置手段10は、第2の
動作データMMi(t)の中で、時刻tにおける基準位
置p’(t)を中心に半径dの球面の領域を計算する。
More specifically, as shown in FIG. 6, in step S1, the operation arranging means 10 sets the first operation data Mi.
In (t), the distance d between the reference position p (t) at time t and the reference position p (t + Δt) at time t + Δt is determined. In step S2, the motion arranging means 10 calculates a spherical area having a radius d around the reference position p '(t) at the time t in the second motion data MMi (t).

【0040】ステップS3では、動作配置手段10は、
計算された球面の領域と第2のパスとの交わる点を計算
する。ステップS4では、動作配置手段10は、球面の
領域と第2のパスとの交点のうち、第2のパスの進行方
向にある点を基準位置p’(t+Δt)として決定す
る。
In step S3, the operation arrangement means 10
A point at which the calculated spherical area intersects the second pass is calculated. In step S4, the motion arranging unit 10 determines a point in the traveling direction of the second path among the intersections between the spherical area and the second path as the reference position p ′ (t + Δt).

【0041】上述したステップにより、第1の動作デー
タMi(t)が、第2のパスの上に存在する第2の動作
データMMi(t)に置き換えられる。
By the above-described steps, the first operation data Mi (t) is replaced with the second operation data MMi (t) existing on the second path.

【0042】なお、上述したように、動作データは、基
準位置だけではなく、姿勢角度ベクトルなどを有してい
る。それらは、基準位置とtによって関係付けられてい
る。また、第1の動作データMi(t)の基準位置p
(t)だけでなく、第1の動作データMi(t)の姿勢
角度ベクトルv(t)に対しても、変更が加えられても
よい。
As described above, the operation data includes not only the reference position but also the posture angle vector. They are related by the reference position and t. Also, the reference position p of the first operation data Mi (t)
Not only (t) but also a change may be made to the posture angle vector v (t) of the first motion data Mi (t).

【0043】以下に、生成された第2の動作データMM
i(t)の姿勢角度ベクトルv’(t)を、図7、図8
A、図8Bおよび図9を用いて説明する。
Hereinafter, the generated second operation data MM
The attitude angle vector v ′ (t) of i (t) is shown in FIGS.
A, FIG. 8B and FIG.

【0044】図7は、姿勢角度ベクトルを制御しない場
合における第2の動作データMMi(t)の姿勢角度ベ
クトルv’(t)の一例を示す図である。第2の動作デ
ータMMi(t)の姿勢角度ベクトルv’(t)は、第
1の動作データMi(t)の姿勢角度ベクトルv(t)
(図示せず)と同じである。この場合、物体の姿勢角度
は変化しない。
FIG. 7 is a diagram showing an example of the attitude angle vector v '(t) of the second motion data MMi (t) when the attitude angle vector is not controlled. The posture angle vector v '(t) of the second motion data MMi (t) is the posture angle vector v (t) of the first motion data Mi (t).
(Not shown). In this case, the posture angle of the object does not change.

【0045】図8Aは、第1の動作データMi(t)の
姿勢角度ベクトルv(t)(図示せず)を第2のパスに
基づいて変更した場合における、第2の動作データMM
i(t)の姿勢角度ベクトルv’(t)の一例を示す図
であり、図8Bは、第1の動作データMi(t)の姿勢
角度ベクトルv(t)をx−y平面に投影した場合の投
影ベクトルVmap(t)を示す図である。
FIG. 8A shows the second motion data MM when the attitude angle vector v (t) (not shown) of the first motion data Mi (t) is changed based on the second path.
FIG. 8B is a diagram illustrating an example of the attitude angle vector v ′ (t) of i (t), and FIG. 8B is a diagram in which the attitude angle vector v (t) of the first motion data Mi (t) is projected on an xy plane. FIG. 14 is a diagram showing a projection vector Vmap (t) in the case.

【0046】第1の動作データMi(t)の姿勢角度ベ
クトルv(t)(図示せず)を第2のパスに基づいて変
更した姿勢角度ベクトルv’(t)を生成する方法とし
は、第2のパス上にある基準位置p’(t)の接線方向
のベクトルを姿勢角度ベクトルv’(t)としてもよ
い。たとえば、姿勢角度ベクトルv(t)をx−y平面
に投影した投影ベクトルVmapが生成される。次に、
第2のパス上にある基準位置p’(t)における接触平
面に投影ベクトルVmapを投影し、基準位置p’
(t)を始点とする姿勢角度ベクトルv’(t)が生成
されてもよい。なお、姿勢角度ベクトルv(t)をx−
y平面に投影したベクトルの大きさは、姿勢角度ベクト
ルv’(t)をx−y平面に投影したベクトルの大きさ
と等しい。
A method of generating a posture angle vector v ′ (t) obtained by changing the posture angle vector v (t) (not shown) of the first motion data Mi (t) based on the second path is as follows. A vector in the tangential direction of the reference position p ′ (t) on the second pass may be used as the posture angle vector v ′ (t). For example, a projection vector Vmap obtained by projecting the attitude angle vector v (t) on the xy plane is generated. next,
The projection vector Vmap is projected on the contact plane at the reference position p ′ (t) on the second path, and the reference position p ′
A posture angle vector v ′ (t) starting from (t) may be generated. It should be noted that the posture angle vector v (t) is represented by x−
The magnitude of the vector projected on the y plane is equal to the magnitude of the vector of the attitude angle vector v ′ (t) projected on the xy plane.

【0047】図9は、第2の動作データMMi(t)の
姿勢角度ベクトルv’(t)を第2のパスと独立して制
御した場合における姿勢角度ベクトルv’(t)の一例
を示す図である。図9に示すように、第2のパスにおけ
る初期の姿勢角度ベクトルv’(t0)と、第2のパス
における最後の姿勢角度ベクトルv’(te)が予め与
えられている。この場合、時刻t0〜時刻teの間の姿勢
角度ベクトルが、初期の姿勢角度ベクトルv’(t0
と最後の姿勢角度ベクトルv’(te)とに基づき補間
される。
FIG. 9 shows an example of the attitude angle vector v '(t) when the attitude angle vector v' (t) of the second motion data MMi (t) is controlled independently of the second path. FIG. As shown in FIG. 9, the initial attitude angle vector v in the second pass 'and (t 0), the last posture angle vector v in the second path' (t e) is given in advance. In this case, the posture angle vector between time t 0 and time t e is the initial posture angle vector v ′ (t 0 )
To be interpolated based on the last attitude angle vector v '(t e).

【0048】以下に、動作配置手段10が姿勢角度ベク
トルv’(t)を生成する工程を図10を用いて説明す
る。
The process in which the motion arranging means 10 generates the attitude angle vector v '(t) will be described below with reference to FIG.

【0049】ステップS11では、ユーザからの指示な
どに基づき、動作配置手段10が姿勢角度ベクトルv’
(t)を制御するか否かを判定する。なお、図2では、
ユーザからの指示を示す信号を受け取る信号線を省略し
ている。姿勢角度ベクトルv’(t)を制御する場合処
理はステップS12に進み、姿勢角度ベクトルv’
(t)を制御しない場合処理はステップS13に進む。
ステップS13では、姿勢角度ベクトルv(t)を姿勢
角度ベクトルv’(t)として生成する。
In step S11, based on an instruction from the user or the like, the operation arranging means 10 sets the posture angle vector v '
It is determined whether or not to control (t). In FIG. 2,
A signal line for receiving a signal indicating an instruction from a user is omitted. When controlling the posture angle vector v ′ (t), the process proceeds to step S12, and the posture angle vector v ′ (t) is controlled.
If (t) is not controlled, the process proceeds to step S13.
In step S13, the posture angle vector v (t) is generated as a posture angle vector v '(t).

【0050】ステップS12では、ユーザからの指示な
どに基づき、動作配置手段10が姿勢角度ベクトルv’
(t)を第2のパスと独立して制御するか否かを判定す
る。姿勢角度ベクトルv’(t)を第2のパスと独立し
て制御する場合、処理はステップS14に進み、姿勢角
度ベクトルv’(t)を第2のパスと独立して制御しな
い場合、処理はステップS15に進む。
In step S12, based on an instruction from the user or the like, the motion arranging means 10 sets the posture angle vector v '.
It is determined whether or not (t) is controlled independently of the second pass. If the attitude angle vector v ′ (t) is controlled independently of the second path, the process proceeds to step S14. If the attitude angle vector v ′ (t) is not controlled independently of the second path, the process proceeds to step S14. Goes to step S15.

【0051】ステップS15では、動作配置手段10
は、姿勢角度ベクトルv(t)と第2のパスとに応じ
て、姿勢角度ベクトルv’(t)を生成する。上述した
ように、姿勢角度ベクトルv(t)をx−y平面に投影
した投影ベクトルVmapが生成される。次に、第2の
パス上にある基準位置p’(t)における接触平面に投
影ベクトルVmapを投影し、基準位置p’(t)を始
点とする姿勢角度ベクトルv’(t)が生成されてもよ
い。なお、姿勢角度ベクトルv(t)をx−y平面に投
影したベクトルの大きさは、姿勢角度ベクトルv’
(t)をx−y平面に投影したベクトルの大きさと等し
い。
In step S15, the operation arranging means 10
Generates an attitude angle vector v ′ (t) according to the attitude angle vector v (t) and the second pass. As described above, the projection vector Vmap obtained by projecting the attitude angle vector v (t) on the xy plane is generated. Next, the projection vector Vmap is projected on the contact plane at the reference position p ′ (t) on the second path, and an attitude angle vector v ′ (t) starting from the reference position p ′ (t) is generated. You may. The magnitude of the vector obtained by projecting the attitude angle vector v (t) on the xy plane is equal to the attitude angle vector v ′.
(T) is equal to the magnitude of the vector projected on the xy plane.

【0052】ステップS14では、動作配置手段10
は、初期の姿勢角度ベクトルv’(t 0)と最終の姿勢
角度ベクトルv’(te)との間を補間することによ
り、時刻t 0から時刻teまでの姿勢角度ベクトルv’
(t)を生成する。なお、補間方法としては、図9に示
す線形補間だけでなく、3次元スプライン補間などが用
いられてもよい。
In step S14, the operation arranging means 10
Is the initial attitude angle vector v ′ (t 0) And final posture
Angle vector v '(teBy interpolating between
Time t 0From time teAttitude angle vector v ′
(T) is generated. The interpolation method is shown in FIG.
Use not only linear interpolation but also 3D spline interpolation
May be.

【0053】(第2の実施形態)以下に、第2の実施形
態における生成装置を図11を用いて説明する。図11
は、第2の実施形態における生成装置40を示す図であ
る。
(Second Embodiment) A generator according to a second embodiment will be described below with reference to FIG. FIG.
FIG. 7 is a diagram illustrating a generation device 40 according to the second embodiment.

【0054】図11に示す生成装置40は、動作配置手
段10および第2のパスを生成するパス生成手段30を
備えている。第2の実施形態における動作配置手段10
の構成は、第1の実施形態における動作配置手段10の
構成と同じであるため、その説明を省略する。なお、生
成装置40は、図19に示すシステムによって構成され
てもよい。
The generating device 40 shown in FIG. 11 includes the operation arranging unit 10 and the path generating unit 30 for generating the second path. Operation arranging means 10 in the second embodiment
Is the same as the configuration of the operation arranging means 10 in the first embodiment, and the description thereof will be omitted. Note that the generation device 40 may be configured by the system shown in FIG.

【0055】以下に、パス生成手段30が第2のパスを
生成する動作例(方法1)を説明する。
An operation example (method 1) in which the path generation means 30 generates the second path will be described below.

【0056】パス生成手段30は、入力端子から入力さ
れた制御点(P0〜Pn)の座標列に対し、各制御点の間
を、順番に補間して、パスデータを生成する。なお、制
御点(P0〜Pn)の座標列は、パスデータベースなどの
記憶部に格納されていてもよい。
The path generating means 30 generates path data by sequentially interpolating between the control points with respect to the coordinate sequence of the control points (P 0 to P n ) input from the input terminal. The coordinate sequence of the control points (P 0 ~P n) may be stored in a storage unit such as path database.

【0057】制御点Po、P1、・・・、Pnに、s=
0、s=1、...s=nが対応しているとすると、制御点
の間を補間した後の座標は、x(s)=F(x0,…,
n,s)、y(s)=F(y0,…,yn,s)、z(s)
=F(z0,…,zn,s)で表すことができる。ここで、
Fは実数sを媒介変数とする関数である。また、補間に
用いる関数Fは制御点の個数によって変更することが可
能であり、制御点が2個である場合、関数Fは直線補間
を行う関数であり、制御点が3個である場合、関数Fは
2次曲線補間を行う関数であり、制御点が4個以上であ
る場合、関数Fは3次スプライン補間を行う関数であ
る。
The control points Po, P 1 ,..., P n have s =
Assuming that 0, s = 1,... S = n correspond, the coordinates after interpolation between the control points are x (s) = F (x 0 ,.
x n, s), y ( s) = F (y 0, ..., y n, s), z (s)
= F (z 0 ,..., Z n , s). here,
F is a function using the real number s as a parameter. Also, the function F used for interpolation can be changed depending on the number of control points. When the number of control points is two, the function F is a function for performing linear interpolation. When the number of control points is three, The function F is a function for performing quadratic curve interpolation. When the number of control points is four or more, the function F is a function for performing cubic spline interpolation.

【0058】制御点Piと制御点Pi+1の間を補間する場
合、Δs=s−iとすると、直線補間の場合、x(Δ
s)=xi+αi×Δsであり、2次曲線補間の場合、x
(Δs)=xi+Δs×(αi+Δs×βi)であり、3
次スプライン補間の場合、x(Δs)=xi+Δs×
(αi+Δs×(βi+Δs×γi))である。
In the case of interpolating between the control point P i and the control point P i + 1 , if Δs = s−i, x (Δ
s) = x i + α i × Δs, and in the case of quadratic curve interpolation, x
(Δs) = x i + Δs × (α i + Δs × β i ), and 3
In the case of the next spline interpolation, x (Δs) = xi + Δs ×
(Αi + Δs × (βi + Δs × γi)).

【0059】ここでは、x座標についてのみ表記した
が、y座標,z座標についてもx座標と同様に表記でき
る。生成されるパスデータは、各補間関数に対応した、
補間係数αi、βi、γiと補間した座標値である。図1
2は、直線補間によって制御点Piのx座標であるxi
制御点Pi+1のx座標であるxi+1との間の補間された値
を示す図である。上述したように、パス生成手段30
は、入力端子から入力された制御点(P0〜Pn)を補間
することにより、第2のパスを生成することができる。
Although only the x coordinate is described here, the y coordinate and the z coordinate can be similarly described as the x coordinate. The generated path data corresponds to each interpolation function.
These are coordinate values obtained by interpolating interpolation coefficients α i , β i , and γ i . FIG.
2 is a diagram showing an interpolated value between x i + 1 is the x i and the control point P i + 1 of the x-coordinate is the x coordinate of the control point P i by the linear interpolation. As described above, the path generation unit 30
Can generate the second path by interpolating the control points (P 0 to P n ) input from the input terminals.

【0060】以下に、パス生成手段30が第2のパスを
生成する他の動作例(方法2)を図13を用いて説明す
る。
Hereinafter, another operation example (method 2) in which the path generating means 30 generates the second path will be described with reference to FIG.

【0061】図13は、図11に示すパス生成手段30
が有する表示装置45に表示された3次元仮想空間とパ
ス入力ウィンドウを示す図である。3次元仮想空間に
は、第2のパスが立体的に表現され、パス入力ウィンド
ウでは、第2のパスをx−y平面に投影したパスが表現
されている。なお、パス生成手段30が有する表示装置
45は、第2のパスをx−z平面に投影したパス、およ
び第2のパスをy−z平面に投影したパスなどを表示す
ることができる。
FIG. 13 is a block diagram showing the path generating means 30 shown in FIG.
FIG. 5 is a diagram showing a three-dimensional virtual space and a path input window displayed on a display device 45 of the computer shown in FIG. The second path is three-dimensionally represented in the three-dimensional virtual space, and a path obtained by projecting the second path onto the xy plane is represented in the path input window. The display device 45 included in the path generation unit 30 can display a path obtained by projecting the second path on the xz plane, a path obtained by projecting the second path on the yz plane, and the like.

【0062】ユーザは、マウスなどのポインティングデ
ィバイスなどを用いて、第2のパスをパス生成手段30
に入力することができる。この場合、ユーザは表示装置
45を見ながら、生成される第2のパスを確認すること
ができる。たとえば、ユーザは、3次元仮想空間に配置
された障害物2および3を避けながら物体1の第2のパ
スを設定することができる。なお、第2のパスを微調整
するために、パス入力ウィンドウが用いられてもよい。
たとえば、図13に示すパス入力ウィンドウに示されて
いる第2のパスの軌道を修正すると、3次元仮想空間の
第2のパスの軌道も修正される。
The user uses the pointing device, such as a mouse, to generate the second path through the path generation means 30.
Can be entered. In this case, the user can check the generated second path while viewing the display device 45. For example, the user can set the second path of the object 1 while avoiding the obstacles 2 and 3 arranged in the three-dimensional virtual space. Note that a path input window may be used to fine-tune the second path.
For example, when the trajectory of the second path shown in the path input window shown in FIG. 13 is modified, the trajectory of the second path in the three-dimensional virtual space is also modified.

【0063】パス生成手段30が上述した表示装置45
を備えているため、ユーザは3次元仮想空間における第
2のパスの位置を確認しながら、第2のパスを決定する
ことができる。
The path generation means 30 is connected to the display device 45 described above.
Is provided, the user can determine the second path while checking the position of the second path in the three-dimensional virtual space.

【0064】(第3の実施形態)以下に、第3の実施形
態における動作配置手段を図14を用いて説明する。図
14は、第3の実施形態における動作配置手段50を示
す図である。動作配置手段50は、不連続な動作データ
を連続にすることができる。
(Third Embodiment) The operation arrangement means in the third embodiment will be described below with reference to FIG. FIG. 14 is a diagram illustrating the operation arranging unit 50 according to the third embodiment. The operation arrangement unit 50 can make discontinuous operation data continuous.

【0065】動作配置手段50は、動作データMi〜動
作データMi+nを受け取り、動作データMi〜動作デ
ータMi+nを接続させた動作データMMを生成する。
その原理は、第1の実施形態における動作配置手段10
が、第2のパスと第1の動作データに応じて、第2の動
作データを生成することを利用している。なお、動作配
置手段50は、図19に示すシステムによって構成され
てもよい。
The operation arranging means 50 receives the operation data Mi to the operation data Mi + n, and generates operation data MM in which the operation data Mi to the operation data Mi + n are connected.
The principle is based on the operation arranging means 10 in the first embodiment.
Utilizes the generation of the second operation data in accordance with the second path and the first operation data. The operation arranging unit 50 may be configured by the system shown in FIG.

【0066】以下に、動作配置手段50が動作データを
接続する動作を図15〜図17を用いて説明する。
The operation of connecting the operation data by the operation arranging means 50 will be described below with reference to FIGS.

【0067】図15は、第1の方法によって、動作デー
タMi〜動作データMi+2を接続した動作データMM
を示す図である。
FIG. 15 shows the operation data MM obtained by connecting the operation data Mi to the operation data Mi + 2 according to the first method.
FIG.

【0068】たとえば、動作データMiの最終時刻の動
作データ61の基準位置(パス上にある点)に、動作デ
ータMi+1のパスが接続されるように、その基準位置
に基づいて、時刻ta〜時刻tbにおける動作データMi
+1のパスを改変することにより、第2のパスが生成さ
れる。たとえば、動作データMiの最終時刻の動作デー
タ61の基準位置と、時刻ta〜時刻tbにおける動作デ
ータMi+1のパスの位置(時刻tbにおける動作デー
タMi+1のパスの位置を少なくとも含む)に上述した
補間方法を用いることにより、第2のパスが生成されて
もよい。
[0068] For example, the reference position of the operation data 61 of the last time the operating data Mi (a point on the path), as the path to the operating data Mi + 1 is connected, on the basis of the reference position, time t a ~ Operation data Mi at time t b
By modifying the +1 path, a second path is generated. For example, the reference position of the operation data 61 of the last time the operation data Mi, above the position of the operation data Mi + 1 pass at time t a ~ time t b (including at least a position of the operation data Mi + 1 pass at time t b) The second pass may be generated by using the interpolation method described above.

【0069】上述した第1の実施形態と同様に、動作配
置手段50は、生成された第2のパスと時刻ta〜時刻
bにおける動作データMi+1に基づいて、変更され
た動作データ62を生成する。
As in the first embodiment described above, the operation arranging means 50 converts the changed operation data 62 based on the generated second path and the operation data Mi + 1 from time t a to time t b . Generate.

【0070】図16は、第2の方法によって、動作デー
タMi〜動作データMi+2を接続した動作データMM
を示す図である。
FIG. 16 shows the operation data MM obtained by connecting the operation data Mi to the operation data Mi + 2 according to the second method.
FIG.

【0071】たとえば、動作データMi+1の初期時刻
の動作データ71の基準位置(パス上にある点)に、動
作データMiのパスが接続されるように、その基準位置
に基づいて、時刻tc〜時刻tdにおける動作データMi
のパスを改変することにより、第2のパスが生成され
る。たとえば、動作データMi+1の初期時刻の動作デ
ータ71の基準位置と、時刻tc〜時刻tdにおける動作
データMiの位置(時刻tcにおける動作データMiの
パスの位置を少なくとも含む)に上述した補間方法を用
いることにより、第2のパスが生成されてもよい。
For example, based on the reference position (point on the path) of the operation data 71 at the initial time of the operation data Mi + 1, the time t c- operating data Mi at time t d
Is modified to generate a second path. For example, the reference position of the operation data 71 of the initial time of the operation data Mi + 1, the above-described the position of the operation data Mi at time t c ~ time t d (including at least the position of the path of motion data Mi at time t c) interpolation By using the method, a second pass may be generated.

【0072】上述した第1の実施形態と同様に、動作配
置手段50は、生成された第2のパスと時刻tc〜時刻
dにおける動作データMiに基づいて、変更された動
作データ72を生成する。
Similarly to the above-described first embodiment, the operation arranging unit 50 converts the changed operation data 72 based on the generated second path and the operation data Mi from time t c to time t d . Generate.

【0073】図17は、第3の方法によって、動作デー
タMi〜動作データMi+2を接続した動作データMM
を示す図である。
FIG. 17 shows operation data MM obtained by connecting operation data Mi to operation data Mi + 2 by the third method.
FIG.

【0074】たとえば、動作データMiの時刻tfの動
作データの基準位置(パス上にある点)と、動作データ
Mi+1の時刻thの動作データの基準位置(パス上に
ある点)とが接続されるように、それらの基準位置に基
づいて、時刻tf〜時刻thにおける動作データMiおよ
び動作データMi+1のパスを改変することにより、第
2のパスが生成される。たとえば、時刻tf〜時刻tg
おける動作データMiのパスの位置(時刻tfにおける
動作データMiのパスの位置を少なくとも含む)と、時
刻tg〜時刻thにおける動作データMi+1のパスの位
置(時刻thにおける動作データMi+1のパスの位置
を少なくとも含む)に上述した補間方法を用いることに
より、第2のパスが生成されてもよい。
[0074] For example, the reference position of the operation data at time t f of operation data Mi (a point on the path), and the reference position of the operation data of the operation data Mi + 1 at time t h (a point on the path) connected as it will be, based on their reference position, by modifying the operation data Mi and operation data Mi + 1 pass at time t f ~ time t h, the second pass is generated. For example, the position of the path of motion data Mi at time t f ~ time t g (including at least the position of the path of motion data Mi at time t f), the position of the operation data Mi + 1 pass at time t g ~ time t h by using the interpolation method described above in (at least including the position of the operation data Mi + 1 pass at time t h), the second pass may be generated.

【0075】上述した第1の実施形態と同様に、動作配
置手段50は、生成された第2のパスと時刻tf〜時刻
hにおける動作データMiおよびMi+1に基づい
て、変更された動作データ71を生成する。
[0075] Similar to the first embodiment described above, operates arrangement means 50, on the basis of the operating data Mi and Mi + 1 in the second pass and the time t f ~ time t h generated, changed behavior data 71 is generated.

【0076】(第4の実施形態)以下に、第4の実施形
態における動作データ編集装置100を図18を用いて
説明する。
(Fourth Embodiment) An operation data editing apparatus 100 according to a fourth embodiment will be described below with reference to FIG.

【0077】図18は、動作データ編集装置100を示
す図である。
FIG. 18 is a diagram showing the operation data editing device 100.

【0078】図18に示す、3次元仮想空間における剛
体多関節物体の動作データ編集装置100は、パス制御
点入力手段101と、パス編集データ入力手段102
と、パス制御点編集手段103と、パスデータベース手
段104と、パス生成手段30と、パス出力手段106
と、パス確認手段107と、動作選択手段108と、動
作削除手段109と、動作追加手段110と、動作編集
データ入力手段111と、動作編集手段112と、動作
データベース手段113と、動作配置手段114と、動
作接続手段115と、動作出力手段116と、動作確認
手段117とを備えている。なお、動作データ編集装置
100は、図19に示すシステムによって構成されても
よい。
A motion data editing apparatus 100 for a rigid articulated object in a three-dimensional virtual space shown in FIG. 18 includes a path control point input means 101 and a path edit data input means 102.
Path control point editing means 103, path database means 104, path generation means 30, path output means 106
Path checking means 107, action selecting means 108, action deleting means 109, action adding means 110, action editing data input means 111, action editing means 112, action database means 113, action placement means 114 , Operation connection means 115, operation output means 116, and operation confirmation means 117. The operation data editing device 100 may be configured by the system shown in FIG.

【0079】上述したように、ここでは、動作データを
M(t)=[p(t),v(t),ρ(t),θ(t)]と
表現する。
As described above, here, the operation data is expressed as M (t) = [p (t), v (t), ρ (t), θ (t)].

【0080】パス制御点入力手段101は、制御点の座
標列(P0(x0,y0,z0)からPn(xn,yn,zn)まで
の各制御点の座標の列)の入力処理を行う。制御点は、
上記のパスを生成するために用いるものである。入力さ
れた制御点の座標列は、パスデータベース手段104お
よびパス生成手段105に供給される。
The path control point input means 101 calculates the coordinates of each control point from the coordinate sequence (P 0 (x 0 , y 0 , z 0 )) to P n (x n , y n , z n ). Column). The control points are
This is used to generate the above path. The input coordinate sequence of the control points is supplied to the path database unit 104 and the path generation unit 105.

【0081】パス編集データ入力手段102は、制御点
の座標列を編集するための、編集内容の入力処理を行
う。編集内容には、移動、追加、削除などがある。移動
の場合、パス編集データ入力手段102は、移動する制
御点を示す座標列のインデックスiと移動後の制御点の
座標(x,y,z)の入力処理を行う。追加の場合は、追
加すべき場所を示す座標列のインデックスiと追加され
る制御点の座標(x,y,z)の入力処理を行う。削除の
場合、パス編集データ入力手段102は、削除する制御
点を示す座標列のインデックスiの入力処理を行う。入
力された編集内容は、パス制御点編集手段103に供給
される。
The path edit data input means 102 performs editing content input processing for editing the coordinate sequence of the control points. Edit contents include move, add, and delete. In the case of movement, the path edit data input means 102 performs input processing of an index i of a coordinate sequence indicating a control point to be moved and coordinates (x, y, z) of the moved control point. In the case of addition, an input process of an index i of a coordinate sequence indicating a place to be added and coordinates (x, y, z) of a control point to be added is performed. In the case of deletion, the path edit data input means 102 performs an input process of an index i of a coordinate sequence indicating a control point to be deleted. The input editing content is supplied to the path control point editing means 103.

【0082】パス制御点編集手段103は、パスデータ
ベース手段104から取得した、制御点の座標列P0
nに対して、パス編集データ入力手段102で入力さ
れた編集内容に基づき、制御点の座標列を編集する。移
動の場合、パス制御点編集手段103は、座標列のi番
目の要素Piを、移動後の制御点の座標(x,y,z)に
置きかえる。追加の場合、パス制御点編集手段103
は、座標列Pi〜Pnまでのインデックスを1つずつ後ろ
にずらし、i番目の要素として、追加される制御点の座
標(x,y,z)を代入する。削除の場合、パス制御点編
集手段103は、座標列Piを削除し、座標列Pi+1〜P
nまでのインデックスを1つずつ前にずらす。新たに生成
された制御点の座標列は、パスデータベース手段104
に供給される。
The path control point editing means 103 obtains control point coordinate strings P 0 -P 0 obtained from the path database means 104.
For P n , the coordinate sequence of the control point is edited based on the editing content input by the path editing data input unit 102. In the case of movement, the path control point editing means 103 replaces the i-th element P i of the coordinate sequence with the coordinates (x, y, z) of the moved control point. In the case of addition, the path control point editing means 103
Shifts the indexes of the coordinate strings P i to P n backward by one and substitutes the coordinates (x, y, z) of the control point to be added as the i-th element. In the case of deletion, the path control point editing means 103 deletes the coordinate sequence P i and deletes the coordinate sequences P i + 1 to P i + 1.
Moves the index up to n one step forward. The coordinate sequence of the newly generated control points is stored in the path database
Supplied to

【0083】パスデータベース手段104は、パス制御
点編集手段103で編集した制御点の座標列、およびパ
ス生成手段30で利用する制御点の座標列を取得し、保
存する。保存してある制御点の座標列は、パス制御点編
集手段103およびパス生成手段30およびパス出力手
段106に供給される。
The path database unit 104 acquires and stores the coordinate sequence of the control points edited by the path control point editing unit 103 and the coordinate sequence of the control points used by the path generation unit 30. The stored coordinate sequence of control points is supplied to the path control point editing unit 103, the path generation unit 30, and the path output unit 106.

【0084】本実施形態のパス生成手段30の動作は、
第2の実施形態のパス生成手段30の動作と同じである
ため、その説明を省略する。
The operation of the path generating means 30 of the present embodiment is as follows.
Since the operation is the same as that of the path generation unit 30 of the second embodiment, the description is omitted.

【0085】パス出力手段106は、パスデータベース
手段104に保存されている制御点の座標列を取得し出
力する。また、パス出力手段106は、パス生成手段3
0から、生成されたパスデータを取得し、出力する。
The path output means 106 acquires and outputs a coordinate sequence of control points stored in the path database means 104. Further, the path output means 106 is provided for the path generation means 3.
From 0, the generated path data is obtained and output.

【0086】パス確認手段107は、パス生成手段30
から、生成されたパスデータを取得し、それを用いて描
画する点の座標値を生成して、コンピュータディスプレ
イ上で座標を可視化する一般的な手法を用いて、2次元
平面上、または3次元仮想空間内にパスを表示する。
The path confirmation means 107 is provided for the path generation means 30
From the obtained path data, generate coordinate values of points to be drawn using the generated path data, and use a general method of visualizing the coordinates on a computer display. Display paths in virtual space.

【0087】動作選択手段108は、パス生成手段30
によって生成されたパスに配置する動作データの選択処
理を行う。また、動作選択手段108は、選択した動作
データを、動作配置手段114に供給する。
The operation selecting means 108 includes the path generating means 30
A process of selecting operation data to be arranged in the path generated by is performed. Further, the operation selecting unit 108 supplies the selected operation data to the operation arranging unit 114.

【0088】動作削除手段109は、動作選択手段10
8で選択された動作データM0(t)からMm(t)に
対して、i番目の指定された動作データMi(t)を選
択対象から除外する。さらに、動作削除手段109は、
Mi+1(t)からMm(t)まではインデックス番号
を一つずつ前にずらす。選択された動作データは、M0
(t)〜Mn(t)となる(n=m−1)。また、動作
削除手段109は、選択した動作データを、動作配置手
段114に供給する。
The operation deleting unit 109 is provided with the operation selecting unit 10.
With respect to the operation data M0 (t) to Mm (t) selected in step 8, the i-th specified operation data Mi (t) is excluded from selection targets. Further, the operation deleting means 109
The index numbers are shifted forward one by one from Mi + 1 (t) to Mm (t). The selected operation data is M0
(T) to Mn (t) (n = m−1). In addition, the operation deleting unit 109 supplies the selected operation data to the operation arranging unit 114.

【0089】動作追加手段110は、動作選択手段10
8で選択された動作データM0(t)からMm(t)に
対して、指定された動作データを、i番目の位置に選択
対象として追加する。動作追加手段110は、元のMi
(t)からMm(t)までを、インデックス番号を一つ
ずつ後ろにずらす。選択された動作データは、M0
(t)〜Mn(t)となる(n=m+1)。また、動作
追加手段110は、選択した動作データを、動作配置手
段114に供給する。
The operation adding means 110 includes the operation selecting means 10
With respect to the motion data M0 (t) to Mm (t) selected in 8, the specified motion data is added as a selection target at the i-th position. The operation adding means 110 determines whether the original Mi
The index numbers from (t) to Mm (t) are shifted backward one by one. The selected operation data is M0
(T) to Mn (t) (n = m + 1). Further, the operation adding unit 110 supplies the selected operation data to the operation arrangement unit 114.

【0090】動作編集データ入力手段111は、動作デ
ータの属性を編集するための編集内容の入力処理を行
う。属性には、パスへの配置時に姿勢角度ベクトルを独
立して制御するかどうかの指定、独立して制御を行う場
合の姿勢角度ベクトルの初期角度と最終角度がある。ま
た、動作編集データ入力手段111は、受け取った編集
内容を、動作編集手段112に供給する。
The action edit data input means 111 performs an edit content input process for editing the attribute of the action data. Attributes include designation of whether or not to independently control the attitude angle vector at the time of placement on a path, and an initial angle and a final angle of the attitude angle vector when performing independent control. Further, the operation editing data input unit 111 supplies the received editing content to the operation editing unit 112.

【0091】動作編集手段112は、動作配置手段11
4内の、選択されている動作データM0(t)〜Mn
(t)に対して、動作編集データ入力手段111で入力
された内容に基づき、属性の編集を行う。また、動作編
集手段112は、編集した動作データの属性を、動作デ
ータベース手段113に供給する。
The action editing means 112 includes the action arranging means 11
4, selected operation data M0 (t) to Mn
For (t), the attribute is edited based on the contents input by the operation editing data input unit 111. Further, the operation editing unit 112 supplies the attribute of the edited operation data to the operation database unit 113.

【0092】動作データベース手段113は、動作編集
手段112で編集し、動作配置手段114で利用する動
作データM0(t)〜Mn(t)の属性を保存する。ま
た、動作データベース手段113は、保存した属性を動
作配置手段114に供給する。
The operation database means 113 stores the attributes of the operation data M0 (t) to Mn (t) edited by the operation editing means 112 and used by the operation arrangement means 114. Further, the operation database unit 113 supplies the stored attributes to the operation arrangement unit 114.

【0093】動作配置手段114は、動作データM0
(t)〜Mn(t)に対して、ある時点tでの基準位置
のp(t)とt+Δtでの基準位置p(t+Δt)を、
パス上のp'(t)、p'(t+Δt)に配置し直す。動
作配置手段114の動作は、第1の実施形態の動作配置
手段10の動作とほぼ同じであるため、その詳細な説明
を省略する。
The operation arranging means 114 outputs the operation data M0
For (t) to Mn (t), the reference position p (t) at a certain time point t and the reference position p (t + Δt) at t + Δt are given by
Rearrange them at p ′ (t) and p ′ (t + Δt) on the path. The operation of the operation arranging unit 114 is substantially the same as the operation of the operation arranging unit 10 according to the first embodiment, and a detailed description thereof will be omitted.

【0094】動作接続手段115は、第4の実施形態で
示した方法により、動作配置手段114でパス上に配置
された動作データMM0(t)からMMn(t)を接続
する。
The operation connection means 115 connects the operation data MM0 (t) to MMn (t) arranged on the path by the operation arrangement means 114 by the method described in the fourth embodiment.

【0095】動作出力手段116は、動作接続手段11
5で接続された動作データを取得し出力する。
The operation output means 116 is connected to the operation connection means 11.
The operation data connected in step 5 is acquired and output.

【0096】動作確認手段117は、動作配置手段11
4で配置された動作データ、または、動作接続手段11
5で接続された動作データを、コンピュータディスプレ
イ上でスケルトンモデルの動作を可視化する3次元コン
ピュータグラフィックスアニメーション分野における一
般的な手法を用いて、キャラクタを表示し、さらに、そ
のキャラクタを3次元仮想空間内で動作させる。
The operation confirming means 117 includes the operation arranging means 11
4 or the operation connection means 11
The motion data connected in step 5 is used to display a character using a general technique in the field of three-dimensional computer graphics animation for visualizing the operation of a skeleton model on a computer display, and furthermore, the character is displayed in a three-dimensional virtual space. To work within.

【0097】なお、コンピュータ読み取り可能な記録媒
体が、上記実施形態1〜4の少なくとも1つの方法をコ
ンピュータに実行させるためのプログラムを記録しても
よい。
Note that a computer-readable recording medium may record a program for causing a computer to execute at least one of the first to fourth embodiments.

【0098】[0098]

【発明の効果】本発明によれば、3次元仮想空間内にパ
ス(軌道)を描き、その上に物体の動作データの基準位
置を配置し、姿勢角度ベクトルを制御し、配置された動
作データを接続することで、3次元仮想空間内の任意の
パスにあわせて、運動経路を配置できる。コストの高い
モーションキャプチャやアニメータによるキーフレーム
を使った手法などで得られた動作データを、簡単に再利
用することが可能である。
According to the present invention, a path (trajectory) is drawn in a three-dimensional virtual space, a reference position of the motion data of the object is arranged thereon, a posture angle vector is controlled, and the arranged motion data is , The movement path can be arranged in accordance with an arbitrary path in the three-dimensional virtual space. It is possible to easily reuse motion data obtained by a high-cost motion capture or a method using key frames by an animator.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の概念を示す図である。FIG. 1 is a diagram showing the concept of the present invention.

【図2】第1の実施形態における動作配置手段10を示
す図である。
FIG. 2 is a diagram showing an operation arrangement unit 10 according to the first embodiment.

【図3】物体1の一例であるヒューマノイド型の剛体関
節物体20を示す図である。
FIG. 3 is a diagram showing a humanoid rigid joint object 20, which is an example of the object 1. FIG.

【図4】図3に示す剛体関節物体20の複数の関節を明
確にした図である。
4 is a view showing a plurality of joints of the rigid joint object 20 shown in FIG.

【図5】予め与えられている第1の動作データMi
(t)と、生成される第2の動作データMMi(t)と
の関係を示す図である。
FIG. 5 shows first operation data Mi given in advance.
FIG. 10 is a diagram illustrating a relationship between (t) and generated second operation data MMi (t).

【図6】動作配置手段10が、第2の動作データMMi
(t)を生成する工程を示す図である。
FIG. 6 is a block diagram showing a configuration of the operation arranging means 10 according to an embodiment;
It is a figure which shows the process which produces | generates (t).

【図7】姿勢角度ベクトルを制御しない場合における第
2の動作データMMi(t)の姿勢角度ベクトルv’
(t)の一例を示す図である。
FIG. 7 shows a posture angle vector v ′ of second motion data MMi (t) when the posture angle vector is not controlled.
It is a figure showing an example of (t).

【図8A】第1の動作データMi(t)の姿勢角度ベク
トルv(t)(図示せず)を第2のパスに基づいて変更
した場合における、第2の動作データMMi(t)の姿
勢角度ベクトルv’(t)の一例を示す図である。
FIG. 8A is the attitude of second motion data MMi (t) when attitude angle vector v (t) (not shown) of first motion data Mi (t) is changed based on a second path. It is a figure showing an example of angle vector v '(t).

【図8B】第1の動作データMi(t)の姿勢角度ベク
トルv(t)をx−y平面に投影した場合の投影ベクト
ルVmap(t)を示す図である。
FIG. 8B is a diagram showing a projection vector Vmap (t) when the attitude angle vector v (t) of the first motion data Mi (t) is projected on an xy plane.

【図9】第2の動作データMMi(t)の姿勢角度ベク
トルv’(t)を第2のパスと独立して制御した場合に
おける姿勢角度ベクトルv’(t)の一例を示す図であ
る。
FIG. 9 is a diagram illustrating an example of the attitude angle vector v ′ (t) when the attitude angle vector v ′ (t) of the second motion data MMi (t) is controlled independently of the second path. .

【図10】動作配置手段10が姿勢角度ベクトルv’
(t)を生成する工程を示す図である。
FIG. 10 is a diagram showing an operation arrangement unit 10 in which an attitude angle vector v ′ is used.
It is a figure which shows the process which produces | generates (t).

【図11】第2の実施形態における生成装置40を示す
図である。
FIG. 11 is a diagram illustrating a generation device 40 according to a second embodiment.

【図12】直線補間によって制御点Piのx座標である
iと制御点Pi+1のx座標であるxi+1との間の補間さ
れた値を示す図である。
12 is a diagram showing an interpolated value between x i + 1 is the x i and the control point P i + 1 of the x-coordinate is the x coordinate of the control point P i by the linear interpolation.

【図13】図11に示すパス生成手段30が有する表示
装置45に表示された3次元仮想空間とパス入力ウィン
ドウを示す図である。
13 is a diagram showing a three-dimensional virtual space and a path input window displayed on a display device 45 included in the path generation unit 30 shown in FIG.

【図14】第3の実施形態における動作配置手段50を
示す図である。
FIG. 14 is a diagram showing an operation arrangement unit 50 according to the third embodiment.

【図15】第1の方法によって、動作データMi〜動作
データMi+2を接続した動作データMMを示す図であ
る。
FIG. 15 is a diagram showing operation data MM in which operation data Mi to operation data Mi + 2 are connected by the first method.

【図16】第2の方法によって、動作データMi〜動作
データMi+2を接続した動作データMMを示す図であ
る。
FIG. 16 is a diagram showing operation data MM in which operation data Mi to operation data Mi + 2 are connected by the second method.

【図17】第3の方法によって、動作データMi〜動作
データMi+2を接続した動作データMMを示す図であ
る。
FIG. 17 is a diagram showing operation data MM in which operation data Mi to operation data Mi + 2 are connected by a third method.

【図18】動作データ編集装置100を示す図である。FIG. 18 is a diagram showing an operation data editing device 100.

【図19】実施形態の構成例を示す図である。FIG. 19 is a diagram illustrating a configuration example of an embodiment.

【符号の説明】[Explanation of symbols]

1 物体 20 剛体関節物体 30 パス生成手段 40 生成装置 45 表示装置 101 パス制御点入力手段 102 パス編集データ入力手段 104 パスデータベース手段 106 パス出力手段 107 パス確認手段 108 動作選択手段 109 動作削除手段 110 動作追加手段 111 動作編集データ入力手段 112 動作編集手段 113 動作データベース手段 114 動作配置手段 115 動作接続手段 116 動作出力手段 117 動作確認手段 DESCRIPTION OF SYMBOLS 1 Object 20 Rigid joint object 30 Path generation means 40 Generation device 45 Display device 101 Path control point input means 102 Path edit data input means 104 Path database means 106 Path output means 107 Path confirmation means 108 Operation selection means 109 Operation deletion means 110 Operation Adding means 111 action editing data input means 112 action editing means 113 action database means 114 action arranging means 115 action connecting means 116 action output means 117 action checking means

フロントページの続き (72)発明者 中 俊弥 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 望月 義幸 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B050 BA08 BA09 EA24 EA28 FA02 FA09 Continuing from the front page (72) Inventor Toshiya Naka 1006 Kadoma, Kazuma, Osaka Prefecture Inside Matsushita Electric Industrial Co., Ltd. 5B050 BA08 BA09 EA24 EA28 FA02 FA09

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 物体が第1のパスに沿って運動すること
を示す第1の動作データと、第2のパスを受け取り、前
記動作データと前記第2のパスに基づいて、前記物体が
前記第2のパスに沿って運動することを示す第2の動作
データを生成する動作配置手段を備えた生成装置。
1. A method comprising: receiving first motion data indicating that an object moves along a first path; and a second path, wherein based on the motion data and the second path, the object is configured to A generation device comprising: motion arrangement means for generating second motion data indicating that the robot moves along a second path.
【請求項2】 前記物体が剛体多関節物体であり、 前記剛体多関節物体は、1つのルートおよび少なくとも
1つの関節を有し、 前記第1の動作データが、前記ルートの位置情報と、前
記ルートの姿勢情報とを有する、請求項1に記載の生成
装置。
2. The object according to claim 2, wherein the object is a rigid articulated object, the rigid articulated object has one route and at least one joint, and the first motion data includes position information of the route, The generation device according to claim 1, further comprising: route attitude information.
【請求項3】 前記物体が剛体多関節物体であり、 前記剛体多関節物体は、1つのルートおよび少なくとも
1つの関節を有し、 前記第1の動作データが、前記ルートの位置情報と、前
記ルートの姿勢情報と、前記少なくとも1つの関節にお
けるスライド情報と、前記少なくとも1つの関節の回転
角度情報を有する、請求項1に記載の生成装置。
3. The object according to claim 1, wherein the object is a rigid articulated object, the rigid articulated object has one route and at least one joint, and the first motion data includes position information of the route, The generation device according to claim 1, wherein the generation device includes information on a posture of a route, slide information on the at least one joint, and rotation angle information on the at least one joint.
【請求項4】 前記第1の動作データの前記ルートの位
置情報が、基準位置p(t)と基準位置p(t+Δt)
とを有し、 前記第2の動作データの前記ルートの位置情報が、前記
基準位置p(t)に対応する基準位置p’(t)と前記
基準位置p(t+Δt)に対応する基準位置p’(t+
Δt)とを有し、 前記基準位置p(t)と基準位置p(t+Δt)との距
離と、前記基準位置p’(t)と前記基準位置p’(t
+Δt)との距離が相関する、請求項2または3に記載
の生成装置。
4. The position information of the route of the first operation data includes a reference position p (t) and a reference position p (t + Δt).
And the position information of the route in the second operation data is a reference position p ′ (t) corresponding to the reference position p (t) and a reference position p corresponding to the reference position p (t + Δt). '(T +
Δt), the distance between the reference position p (t) and the reference position p (t + Δt), the reference position p ′ (t), and the reference position p ′ (t
The generation device according to claim 2 or 3, wherein a distance from the generating device is correlated with (+ Δt).
【請求項5】 前記第1の動作データの前記ルートの姿
勢情報が姿勢ベクトルv(t)を有し、 前記第2の動作データの前記ルートの姿勢情報が姿勢ベ
クトルv’(t)を有し、 前記動作配置手段が、前記姿勢ベクトルv(t)を姿勢
ベクトルv’(t)として生成する、請求項2〜3のう
ちの1つに記載の生成装置。
5. The posture information of the route of the first motion data has a posture vector v (t), and the posture information of the route of the second motion data has a posture vector v ′ (t). The generating device according to claim 2, wherein the motion arranging unit generates the posture vector v (t) as a posture vector v ′ (t).
【請求項6】 前記第1の動作データの前記ルートの姿
勢情報が姿勢ベクトルv(t)を有し、 前記第2の動作データの前記ルートの姿勢情報が姿勢ベ
クトルv’(t)を有し、 前記動作配置手段が、前記姿勢ベクトルv(t)と前記
第2のパスに基づいて、姿勢ベクトルv’(t)を生成
する、請求項2〜3のうちの1つに記載の生成装置。
6. The posture information of the route of the first motion data has a posture vector v (t), and the posture information of the route of the second motion data has a posture vector v ′ (t). The generation according to any one of claims 2 to 3, wherein the operation arrangement unit generates an attitude vector v '(t) based on the attitude vector v (t) and the second path. apparatus.
【請求項7】 前記第2の動作データの前記ルートの姿
勢情報が姿勢ベクトルv’(t)を有し、 前記動作配置手段が、初期の姿勢ベクトルv’(t0
および最終の姿勢ベクトルv’(te)を受け取り、前
記初期の姿勢ベクトルv’(t0)および前記最終の姿
勢ベクトルv’(te)に基づき、期間t0〜teの姿勢
ベクトルv’(t)を有している、請求項2〜3のうち
の1つに記載の生成装置。
7. The posture information of the route of the second motion data includes a posture vector v ′ (t), and the motion arranging unit sets an initial posture vector v ′ (t 0 ).
And 'receives (t e), the initial attitude vector v' final pose vector v based on the (t 0) and the final posture vector v '(t e), the period t 0 ~t e posture vector v The generating device according to one of claims 2 to 3, comprising '(t).
【請求項8】 前記第2のパスを生成するパス生成手段
をさらに備えた請求項1〜7のうちの1つに記載の生成
装置。
8. The generation device according to claim 1, further comprising a path generation unit configured to generate the second path.
【請求項9】 前記パス生成手段は、複数の位置情報を
受け取り、前記複数の位置情報を補間することにより、
前記第2のパスを生成する、請求項8に記載の生成装
置。
9. The path generation unit receives a plurality of pieces of position information and interpolates the plurality of pieces of position information,
The generating device according to claim 8, wherein the generating device generates the second path.
【請求項10】 前記パス生成手段は、3次元空間を表
示することができる表示装置とポインティングデバイス
を有し、ポインティングデバイスによって、前記3次元
空間に描かれる軌跡を前記第2のパスとする、請求項8
に記載の生成装置。
10. The path generating means has a display device and a pointing device capable of displaying a three-dimensional space, and a locus drawn in the three-dimensional space by the pointing device is used as the second path. Claim 8
The generating device according to claim 1.
【請求項11】 前記第2の動作データを表示する表示
装置をさらに備えた、請求項1〜9のうちの1つに記載
の生成装置。
11. The generation device according to claim 1, further comprising a display device for displaying the second operation data.
【請求項12】 位置情報をそれぞれ有する2つの動作
データを受け取り、 前記2つのうちの一方の動作データのパスの一部、また
は、前記2つのうちの他方の動作データのパスの一部を
変更し、前記2つのうちの一方の動作データのパスと前
記2つのうちの他方の動作データのパスを接続し、 前記接続されたパスの上に前記2つの動作データの位置
情報を再配置する動作データ編集装置。
12. Receiving two pieces of operation data each having position information, and changing a part of a path of one of the two pieces of operation data or a part of a path of another one of the two pieces of operation data Connecting the path of one of the two operation data to the path of the other of the two operation data, and relocating the position information of the two operation data on the connected path; Data editing device.
【請求項13】 前記基準位置p(t)と前記基準位置
p(t+Δt)との距離と、前記基準位置p’(t)と
前記基準位置p’(t+Δt)との距離がほぼ等しい、
請求項4に記載の生成装置。
13. The distance between the reference position p (t) and the reference position p (t + Δt) is substantially equal to the distance between the reference position p ′ (t) and the reference position p ′ (t + Δt).
The generating device according to claim 4.
【請求項14】 物体が第1のパスに沿って運動するこ
とを示す第1の動作データと、第2のパスとを受け取る
工程と、 前記動作データと前記第2のパスに基づいて、前記物体
が前記第2のパスに沿って運動することを示す第2の動
作データを生成する工程とを包含する動作データ生成方
法。
14. A method comprising: receiving first motion data indicating that an object moves along a first path; and a second path, based on the motion data and the second path. Generating second motion data indicating that the object moves along the second path.
【請求項15】 物体が第1のパスに沿って運動するこ
とを示す第1の動作データと、第2のパスとを受け取る
工程と、 前記動作データと前記第2のパスに基づいて、前記物体
が前記第2のパスに沿って運動することを示す第2の動
作データを生成する工程とをコンピュータに実行させる
ためのプログラムを記録したコンピュータ読み取り可能
な記録媒体。
15. Receiving first motion data indicating that an object moves along a first path and a second path, and based on the motion data and the second path, Generating a second motion data indicating that the object moves along the second path; and a computer-readable storage medium storing a program for causing a computer to execute the second operation data.
【請求項16】 物体が第1のパスに沿って運動するこ
とを示す第1の動作データを受け取る工程と第2のパス
を生成する工程と、 前記第2のパスを受け取る工程と、 前記動作データと前記第2のパスに基づいて、前記物体
が前記第2のパスに沿って運動することを示す第2の動
作データを生成する工程とを包含する動作データ生成方
法。
16. A method comprising: receiving first motion data indicating that an object moves along a first path; generating a second path; receiving the second path; Generating, based on the data and the second path, second motion data indicating that the object moves along the second path.
【請求項17】 物体が第1のパスに沿って運動するこ
とを示す第1の動作データを受け取る工程と、 第2のパスを生成する工程と、 前記第2のパスとを受け取る工程と、 前記動作データと前記第2のパスに基づいて、前記物体
が前記第2のパスに沿って運動することを示す第2の動
作データを生成する工程とをコンピュータに実行させる
ためのプログラムを記録したコンピュータ読み取り可能
な記録媒体。
17. Receiving first motion data indicating that an object is moving along a first path; generating a second path; receiving the second path; Generating a second motion data indicating that the object moves along the second path based on the motion data and the second path. Computer readable recording medium.
JP23482199A 1999-08-20 1999-08-20 Generating device and editing device of operation data Withdrawn JP2001060273A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23482199A JP2001060273A (en) 1999-08-20 1999-08-20 Generating device and editing device of operation data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23482199A JP2001060273A (en) 1999-08-20 1999-08-20 Generating device and editing device of operation data

Publications (1)

Publication Number Publication Date
JP2001060273A true JP2001060273A (en) 2001-03-06

Family

ID=16976921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23482199A Withdrawn JP2001060273A (en) 1999-08-20 1999-08-20 Generating device and editing device of operation data

Country Status (1)

Country Link
JP (1) JP2001060273A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2003095048A1 (en) * 2002-05-08 2005-09-08 コナミ株式会社 Game device
GB2416099A (en) * 2001-10-24 2006-01-11 Accenture Global Services Gmbh Motion engine for animating objects
JP2008023359A (en) * 2002-05-08 2008-02-07 Konami Digital Entertainment:Kk Game device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2416099A (en) * 2001-10-24 2006-01-11 Accenture Global Services Gmbh Motion engine for animating objects
GB2416099B (en) * 2001-10-24 2006-05-31 Accenture Global Services Gmbh Data processing system and method
JPWO2003095048A1 (en) * 2002-05-08 2005-09-08 コナミ株式会社 Game device
JP2008023359A (en) * 2002-05-08 2008-02-07 Konami Digital Entertainment:Kk Game device

Similar Documents

Publication Publication Date Title
US7099747B2 (en) Motion editing apparatus and method for robot device, and computer program
CN105291107B (en) The document generating method of simulator robot and simulator robot
US7027963B2 (en) Simulation system
JP2003058907A (en) Method for generating pose and motion in tree structure link system
US5734383A (en) Apparatus and method for generating a three-dimensional model on a graphic display from a two-dimensional image
JPH06503663A (en) Video creation device
CN102317024A (en) Method of choosing a welding line
CN104070265A (en) Welding seam information setting device, program, automatic teaching system and welding seam information setting method
US6628286B1 (en) Method and apparatus for inserting external transformations into computer animations
JP2008254074A (en) Motion editing device, and its program
JPWO2019064916A1 (en) Robot simulator
JPH07262412A (en) Device and system for indicating cross section of three-dimensional model
Mattingly et al. Robot design using Unity for computer games and robotic simulations
JP2008030136A (en) Apparatus and method for compiling action of robot, as well as computer/program
JP2012165968A (en) Object operating system, method, and program
US6307563B2 (en) System for controlling and editing motion of computer graphics model
JPWO2019064917A1 (en) Robot simulator
JP2019171498A (en) Robot program execution device, robot program execution method and program
JP2003256025A (en) Robot motion teaching method and device
US6798416B2 (en) Generating animation data using multiple interpolation procedures
JPH10302085A (en) Operation recording system for cg model
JP2001216015A (en) Operation teaching device for robot
JP2001060273A (en) Generating device and editing device of operation data
US20220281103A1 (en) Information processing apparatus, robot system, method of manufacturing products, information processing method, and recording medium
CN104574475B (en) A kind of fine animation method based on secondary controller

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107