JP2001297335A - Interaction operation describing method for three- dimensional animation - Google Patents

Interaction operation describing method for three- dimensional animation

Info

Publication number
JP2001297335A
JP2001297335A JP2000114153A JP2000114153A JP2001297335A JP 2001297335 A JP2001297335 A JP 2001297335A JP 2000114153 A JP2000114153 A JP 2000114153A JP 2000114153 A JP2000114153 A JP 2000114153A JP 2001297335 A JP2001297335 A JP 2001297335A
Authority
JP
Japan
Prior art keywords
character
interaction operation
contact
reference position
variables
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000114153A
Other languages
Japanese (ja)
Inventor
Yoshiaki Araki
義明 荒木
Takehito Naitou
剛人 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000114153A priority Critical patent/JP2001297335A/en
Publication of JP2001297335A publication Critical patent/JP2001297335A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To change the contact of a movable character and a static object or to describe interaction operation so as not to require complicated processing without changing the data of the movable character even when the plural contacts exist. SOLUTION: The absolute coordinates of a reference position A of a movable character 10, a scheduled contact position B with a static object 20, a reference position C of the static object 20 and a scheduled contact position D with the character 10 are time sequentially expressed from the time of interaction operation start as plural variables with the coordinates on the side of the object 20 as a reference and by setting the positions of joints of the character 10 and the object 20 on the basis of these respective variables, the interaction operation is described.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、可動なキャラクタ
と静的なオブジェクトとのインタラクション動作を実現
するための3次元アニメーションのインタラクション動
作記述方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a method for describing an interaction action of a three-dimensional animation for realizing an interaction action between a movable character and a static object.

【0002】[0002]

【従来の技術】階層構造を有する3次元関節構造として
キャラクタを定義して利用する3次元アニメーションに
おいて、可動なオブジェクトであるキャラクタと静的な
オブジェクトとのインタラクション動作を表現する従来
の方法として、この動作を複数に分割して別々に表現す
る方法が考えられている。
2. Description of the Related Art In a three-dimensional animation in which a character is defined and used as a three-dimensional joint structure having a hierarchical structure, a conventional method for expressing an interaction operation between a character, which is a movable object, and a static object is a conventional method. A method of dividing an operation into a plurality of operations and expressing the operations separately has been considered.

【0003】例えば、キャラクタが静的なオブジェクト
と絡んで動作する場合に、キャラクタとオブジェクトと
の接触を想定して次のような3つの動作に分割して考え
ることができる。1つは、キャラクタとオブジェクトが
接触している場合で、一方の動作にともなって他方を移
動させる影響をもつ。次は、キャラクタとオブジェクト
が完全に離れている場合で、お互いは独立して動作す
る。最後はこれらの中間の状態で、キャラクタの一部が
オブジェクトに触れてから完全に接触するまでの動作で
ある。従来の研究では、主にキャラクタがオブジェクト
を手に持つ動作を対象としていたことから、この3つの
動作はそれぞれホールディング、リーチングおよびグラ
スピングと呼ばれている。
For example, when a character moves in association with a static object, it can be divided into the following three movements assuming contact between the character and the object. One is a case where the character and the object are in contact with each other, and has an effect of moving one with the movement of the other. Next, when the character and the object are completely separated, they operate independently of each other. Finally, in an intermediate state between these, an operation is performed from when a part of the character touches the object to when the character completely touches the object. In the conventional research, the three movements are called holding, reaching, and grasping, respectively, since the movement mainly targets the movement of the character holding the object.

【0004】従来の技術では、一般的な静的なオブジェ
クトに対してキャラクタがリーチングおよびグラスピン
グの動作を行う自然な3次元アニメーションを自動生成
することに主眼がおかれていた。例えばキャラクタが静
的なオブジェクトを手で持つ動作を考えると、リーチン
グは、キャラクタが手を伸ばしてオブジェクトに触れる
直前までの動作に相当する。このとき、キャラクタがオ
ブジェクトに触れる直前の手の位置が与えられ、これを
利用してインバースキネマティックス(InveseKinemati
cs)を適用して腕のポーズを決定し、オブジェクトに触
れる直前と、腕を伸ばす前のポーズとの間の動きを補間
する。
The prior art focuses on automatically generating a natural three-dimensional animation in which a character performs a reaching and a graping action on a general static object. For example, in consideration of a motion in which a character holds a static object with a hand, reaching corresponds to a motion immediately before the character reaches out and touches the object. At this time, the position of the hand immediately before the character touches the object is given, and this is used to make the Inverse Kinematitics (InveseKinemati).
Apply cs) to determine the pose of the arm and interpolate the movement between just before touching the object and the pose before extending the arm.

【0005】また、グラスピングは、キャラクタの指先
や手のひら等の手の一部がオブジェクトに触れた後、し
っかりとオブジェクトを握るための指先等の動作に相当
する。キャラクタは、あらかじめオブジェクトの握り方
をタクソノミー(語い)として複数有しており、このよ
うな動作の際は、キャラクタはオブジェクトの形状情報
を入手し、適切な握り方を選択する。
[0005] Grasping corresponds to an operation of a fingertip or the like for firmly grasping the object after a part of a hand such as a fingertip or a palm of the character touches the object. The character has a plurality of gripping methods of the object as a taxonomy (vocabulary) in advance, and in such an operation, the character obtains the shape information of the object and selects an appropriate gripping method.

【0006】また、ホールディングは、グラスピングの
後、オブジェクトがキャラクタの手に追従するための仕
組みとしてとらえられている。この場合、オブジェクト
はキャラクタの手に持たれてキャラクタの動きに影響を
受けて追従するため、キャラクタとオブジェクトで動的
に階層関係を確立する枠組みを導入している。
[0006] Holding is regarded as a mechanism for an object to follow the hand of a character after glassing. In this case, since the object is held in the hand of the character and follows the movement of the character while being affected by the movement, a framework for dynamically establishing a hierarchical relationship between the character and the object is introduced.

【0007】[0007]

【発明が解決しようとする課題】このような従来の技術
では、以下のような2つの問題点を挙げることができ
る。
In such a conventional technique, the following two problems can be raised.

【0008】1つは、キャラクタが静的なオブジェクト
と接触できる位置は、キャラクタ側であらかじめ設定し
た位置のみとなることである。上記のグラスピングで
は、キャラクタがオブジェクトを握るために、キャラク
タがオブジェクトと接触する位置をキャラクタがもつデ
ータとして定めた上で、その位置に関するキャラクタの
動作をタクソノミーとして用意している。このため、静
的なオブジェクトとの接触箇所を増やす場合は、タクソ
ノミーを増やすのではなく、キャラクタデータ自体を変
更する必要が生じる。
One is that a character can only come into contact with a static object at a position preset on the character side. In the above-described glassing, in order for the character to grip the object, the position at which the character contacts the object is determined as data held by the character, and the motion of the character relating to the position is prepared as a taxonomy. Therefore, when increasing the number of contact points with the static object, it is necessary to change the character data itself instead of increasing the taxonomy.

【0009】もう1つは、この方法では一般的に、キャ
ラクタとオブジェクトが複数箇所で接触する事例につい
ては実現できないことである。上記のホールディングで
は、手でつかまれたオブジェクトはキャラクタの有する
関節の階層下に配置される。関節の階層関係は、キャラ
クタ全体としてツリー構造をなす必要があるが、オブジ
ェクトがキャラクタと複数箇所で接触している場合は、
キャラクタの有する複数の関節の階層下にオブジェクト
が挿入されることになり、ツリー構造が崩れてしまう。
したがってこの場合は、静的なオブジェクトを一方の接
触箇所の階層下に置くこととし、他方の接触箇所につい
ては擬似的に追従させる複雑なロジックが必要となる。
キャラクタが静的なオブジェクトを両手でつかむ場合が
このような場合の例であるが、さらに、静的なオブジェ
クトを両手で持った状態から片手ずつ交互に持ち替える
ような事例を実現するには、階層構造を制御する動的な
ロジックを別途用意する必要がある。
The other is that this method cannot generally realize a case where a character and an object touch at a plurality of places. In the above-mentioned holding, the object grasped by the hand is arranged under the hierarchy of the joint of the character. The hierarchical relationship of the joints must form a tree structure for the entire character, but if the object is in contact with the character at multiple locations,
An object is inserted below the hierarchy of a plurality of joints of the character, and the tree structure is broken.
Therefore, in this case, a complicated logic is required in which the static object is placed below the hierarchy of one contact point, and the other contact point follows in a pseudo manner.
An example of such a case is when the character grasps a static object with both hands. It is necessary to separately prepare dynamic logic for controlling the structure.

【0010】本発明はこのような課題に鑑みてなされた
ものであり、インタラクション動作において接触点を変
更する、あるいは接触点が複数存在する場合でも、可動
なキャラクタのデータを変更せず、かつ複雑な処理が必
要とならない3次元アニメーションのインタラクション
動作記述方法を提供することを目的とする。
The present invention has been made in view of such a problem, and changes the contact point in the interaction operation. Even when there are a plurality of contact points, the data of the movable character is not changed and the data is complicated. It is an object of the present invention to provide a method for describing an interaction operation of a three-dimensional animation that does not require complicated processing.

【0011】[0011]

【課題を解決するための手段】本発明では上記課題を解
決するために、3次元関節構造で定義された3次元アニ
メーションにおける可動なキャラクタと静的なオブジェ
クトとのインタラクション動作を実現するための3次元
アニメーションのインタラクション動作記述方法におい
て、前記キャラクタの基準位置と、前記キャラクタにお
ける前記オブジェクトとの接触予定位置と、前記オブジ
ェクトの基準位置と、前記オブジェクトにおける前記キ
ャラクタとの接触予定位置とをそれぞれ示す絶対座標
を、動作開始からの前記オブジェクトの基準位置の移動
分を示す第1の相対座標と、前記オブジェクトにおける
基準位置から前記接触予定位置への第2の相対座標と、
前記オブジェクトにおける接触予定位置から前記キャラ
クタにおける接触予定位置への第3の相対座標と、前記
オブジェクトの基準位置から前記キャラクタの基準位置
への第4の相対座標とをそれぞれ示す変数として表し、
前記各変数を時系列的に保持したモーションデータを基
に前記キャラクタおよび前記オブジェクトの有する関節
の位置を設定することによって前記インタラクション動
作を記述することを特徴とする3次元アニメーションの
インタラクション動作記述方法が提供される。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a method for realizing an interaction operation between a movable character and a static object in a three-dimensional animation defined by a three-dimensional joint structure. In a method for describing an interaction action of a three-dimensional animation, a reference position of the character, an expected contact position of the character with the object, an absolute position of the reference position of the object, and an expected contact position of the object with the character are respectively indicated. Coordinates, first relative coordinates indicating the amount of movement of the reference position of the object from the start of operation, second relative coordinates from the reference position on the object to the expected contact position,
Third relative coordinates from the expected contact position on the object to the expected contact position on the character, and fourth relative coordinates from the reference position of the object to the reference position of the character, as variables respectively indicating variables;
A method of describing an interaction operation of a three-dimensional animation, wherein the interaction operation is described by setting positions of joints of the character and the object based on motion data in which the variables are stored in time series. Provided.

【0012】このような3次元アニメーションのインタ
ラクション動作記述方法では、キャラクタおよびオブジ
ェクトの動作において特徴的な箇所の座標を静的なオブ
ジェクト側の座標を基準とした変数として表すことによ
って、キャラクタおよびオブジェクトのインタラクショ
ン動作を統一的に記述するので、接触点を変更する、あ
るいは接触点が複数存在する場合でも、キャラクタのデ
ータを変更せずに、キャラクタ側の基準位置と接触予定
点、およびオブジェクト側の接触予定点との関係を示す
変数のみを新たに設定するだけで、関節構造の処理を複
雑にすることなくこれらの動作が実現可能である。
In such a method for describing an interaction action of a three-dimensional animation, the coordinates of a characteristic portion in the action of the character and the object are represented as variables with reference to the coordinates of the static object, so that the character and the object can be described. Since the interaction behavior is described in a unified manner, even if the contact point is changed, or even if there are multiple contact points, the character's reference position and the expected contact point and the object's contact These operations can be realized without complicating the processing of the joint structure only by newly setting only the variable indicating the relationship with the scheduled point.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。図1に可動なキャラクタおよび静
的なオブジェクトの形態例を示す。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a form example of a movable character and a static object.

【0014】本発明では、図1に示すような可動なキャ
ラクタ10と静的なオブジェクト20とのインタラクシ
ョン動作について考える。キャラクタ10およびオブジ
ェクト20は、ともに階層構造を有する3次元関節構造
を有する。キャラクタ10は人型キャラクタであり、そ
の構造については例えばh−anim(Humanoid Anima
tion Working Group)において標準化されたフォーマッ
トに準拠する。ここではインタラクション動作の例とし
て、人間が静的な物を持つときの動作について述べ、図
1ではオブジェクト20としてバッグを例示している。
また、ここでは簡単な例として、キャラクタ10とオブ
ジェクト20が1点で接触する場合について説明する。
In the present invention, an interaction between a movable character 10 and a static object 20 as shown in FIG. 1 will be considered. The character 10 and the object 20 both have a three-dimensional joint structure having a hierarchical structure. The character 10 is a humanoid character, and its structure is, for example, h-anim (Humanoid Anima).
This is based on the format standardized by the Action Working Group. Here, as an example of the interaction operation, an operation when a human has a static object will be described. In FIG. 1, a bag is illustrated as the object 20.
Here, as a simple example, a case where the character 10 and the object 20 come into contact at one point will be described.

【0015】まず、キャラクタ10の基準位置Aと、キ
ャラクタ10におけるオブジェクト20との接触予定位
置Bと、オブジェクト20の基準位置Cと、オブジェク
ト20におけるキャラクタとの接触予定位置Dという4
つの特徴箇所に注目し、これらについて図1のように定
める。キャラクタ10およびオブジェクト20の動作
は、このキャラクタ10の基準位置Aおよび接触予定位
置Bと、オブジェクト20の基準位置Cおよび接触位置
Dから、各関節の位置が決定されることによって表され
る。例えば、キャラクタ10は基準位置Aおよび接触予
定位置Bの絶対座標が指定されると、インバースキネマ
ティックスによってルート関節から基準位置Aおよび接
触予定位置Bまでの関節の座標が決定される。
First, a reference position A of the character 10, a contact position B of the character 10 with the object 20, a reference position C of the object 20, and a contact position D of the object 20 with the character are referred to as 4.
Attention is paid to two characteristic portions, and these are determined as shown in FIG. The movements of the character 10 and the object 20 are represented by determining the positions of the joints from the reference position A and the expected contact position B of the character 10 and the reference position C and the contact position D of the object 20. For example, when the absolute coordinates of the reference position A and the expected contact position B of the character 10 are designated, the coordinates of the joint from the root joint to the reference position A and the expected contact position B are determined by inverse kinematics.

【0016】本発明では、上記のキャラクタ10の基準
位置Aおよび接触予定位置B、オブジェクト20の基準
位置Cおよび接触予定位置Dを、キャラクタ10および
オブジェクト20の動作制御用にオブジェクト側の座標
を基準として算出した複数の変数として表し、これらの
変数のインタラクション動作開始からの時間経過にとも
なう値をモーションデータとして与える。すなわち、イ
ンタラクション動作を表現する際は、与えられたモーシ
ョンデータに含まれる各変数より、キャラクタ10の基
準位置Aおよび接触予定位置B、オブジェクト20の基
準位置Cおよび接触予定位置Dのそれぞれの絶対座標を
求め、これよりキャラクタ10およびオブジェクト20
の有する各関節の位置を算出する。
In the present invention, the reference position A and the expected contact position B of the character 10 and the reference position C and the expected contact position D of the object 20 are determined based on the coordinates on the object side for controlling the movement of the character 10 and the object 20. Are given as a plurality of variables, and values over time from the start of the interaction operation of these variables are given as motion data. That is, when expressing the interaction action, the absolute coordinates of the reference position A and the expected contact position B of the character 10 and the reference position C and the expected contact position D of the object 20 are obtained from the variables included in the given motion data. From the character 10 and the object 20
Is calculated for each joint.

【0017】これらの変数をW、X、YおよびZとする
と、キャラクタ10の基準位置Aおよび接触予定位置
B、オブジェクト20の基準位置Cおよび接触予定位置
Dのそれぞれの絶対座標から、各変数は次のように表さ
れる。ただし、ある変数sの時刻tにおける値をs
(t)とし、時刻t0をインタラクション動作の開始時
の時刻とする。
Assuming that these variables are W, X, Y and Z, from the absolute coordinates of the reference position A and expected contact position B of the character 10 and the reference position C and expected contact position D of the object 20, each variable is It is expressed as follows. Here, the value of a variable s at time t is s
(T), and time t0 is the time at the start of the interaction operation.

【0018】変数Wは、 W=C(t)−C(t0) とし、オブジェクト20の基準位置Cのインタラクショ
ン動作開始時から時刻tまでの移動分を開始位置からの
相対座標として示す。また、変数Xは、 X=D−C とし、オブジェクト20の基準位置Cからの接触予定位
置Dの相対座標を示す。また、変数Yは、 Y=B−D とし、オブジェクト20における接触予定位置Dからキ
ャラクタ10における接触予定位置Bへのベクトルを相
対座標として示す。また、変数Zは、 Z=A−C とし、オブジェクト20の基準位置Cからキャラクタ1
0の基準位置Aへの相対座標を示す。
The variable W is expressed as W = C (t) -C (t0), and indicates a movement amount of the reference position C of the object 20 from the start of the interaction operation to the time t as relative coordinates from the start position. The variable X is set to X = D−C, and indicates the relative coordinates of the expected contact position D from the reference position C of the object 20. The variable Y is set to Y = BD, and indicates a vector from the expected contact position D on the object 20 to the expected contact position B on the character 10 as relative coordinates. The variable Z is set as Z = A−C, and the character 1 is shifted from the reference position C of the object 20.
0 indicates relative coordinates to the reference position A.

【0019】次に、キャラクタ10とオブジェクト20
とのインタラクション動作をリーチング、グラスピング
およびホールディングの3動作に分割して、各変数の変
化の特徴について説明する。ただし、リーチングとグラ
スピング、およびグラスピングとホールディングの接合
点での各変数の値は等しいものとする。
Next, the character 10 and the object 20
The interaction operation with と is divided into three operations of reaching, grasping and holding, and the characteristics of the change of each variable will be described. However, it is assumed that the values of the variables at the joining point between the reaching and the graping and between the graping and the holding are equal.

【0020】図2にリーチングの場合のキャラクタ10
およびオブジェクト20の各特徴位置の変位の様子を示
す。リーチングは、可動なキャラクタ10が静的なオブ
ジェクト20に接触するまでの過程である。図2では、
人型のキャラクタ10がバッグであるオブジェクト20
の方へ歩み寄り、手を伸ばして手のひらの一部分がバッ
グにわずかに触れるまでの動作を表している。この場合
の各変数の値は次のようになる。
FIG. 2 shows a character 10 in the case of reaching.
And the displacement of each feature position of the object 20. Reaching is a process until the movable character 10 contacts the static object 20. In FIG.
Object 20 in which humanoid character 10 is a bag
, Reaching up to reach a part of the palm and slightly touching the bag. The value of each variable in this case is as follows.

【0021】オブジェクト20は自律的には動かないの
で、変数Wはこの過程では常に0となる。また、オブジ
ェクト20の接触予定位置Dに向かってキャラクタ10
が動いていく過程であるので、変数Xは定数である。
Since the object 20 does not move autonomously, the variable W always becomes 0 in this process. Further, the character 10 moves toward the expected contact position D of the object 20.
Is a moving process, so the variable X is a constant.

【0022】これに対して、キャラクタ10は自律的に
動き、変数YおよびZは最終的に0あるいはある定数に
なるように変化する。変数Yの変化は、キャラクタ10
がオブジェクト20の接触予定位置Dに向けて手を伸ば
す動作を意味する。また変数Zの変化は、キャラクタ1
0がオブジェクト20に歩み寄ってくることを意味して
いる。
On the other hand, the character 10 moves autonomously, and the variables Y and Z change so as to be finally 0 or a certain constant. The change in the variable Y is the character 10
Means reaching the contact position D of the object 20. The change of the variable Z is the character 1
0 means approaching the object 20.

【0023】図3にグラスピングの場合のキャラクタ1
0およびオブジェクト20の各特徴位置の変位の様子を
示す。グラスピングはキャラクタ10がオブジェクト2
0に接触したまま接触点の調整を行う過程である。図3
では、人型のキャラクタ10の手のひらの一部がバッグ
であるオブジェクト20にわずかに接触してから、オブ
ジェクト20をしっかり握るために指の関節を微妙に動
かす動作を表している。この場合の各変数の値は次のよ
うになる。
FIG. 3 shows a character 1 in the case of grassing.
The state of displacement of each characteristic position of 0 and the object 20 is shown. Grasping is a character 10 object 2
This is the process of adjusting the contact point while keeping the contact with zero. FIG.
5 shows an operation in which a part of the palm of the humanoid character 10 slightly contacts the object 20 which is a bag, and then the finger joint is slightly moved to firmly grip the object 20. The value of each variable in this case is as follows.

【0024】オブジェクト20全体がキャラクタ10に
よって動かされることはないので、変数Wは常に定数で
ある。定数Xは、キャラクタ10がオブジェクト20を
しっかり握るまでの指の微妙な動作にともなってわずか
に変化する。また、キャラクタ10とオブジェクト20
は接触したままの状態であるので、変数Yは常に0であ
る。また、キャラクタ10がオブジェクト20にこれ以
上歩み寄ることはないので、変数Zは常に0または定数
である。
Since the entire object 20 is not moved by the character 10, the variable W is always a constant. The constant X slightly changes with the delicate movement of the finger until the character 10 firmly grips the object 20. The character 10 and the object 20
Is kept in contact, the variable Y is always 0. Further, since the character 10 does not approach the object 20 any more, the variable Z is always 0 or a constant.

【0025】図4にホールディングの場合のキャラクタ
10およびオブジェクト20の各特徴位置の変位の様子
を示す。ホールディングは、オブジェクト20がキャラ
クタ10に接触したまま、キャラクタ10に影響されて
移動する過程である。図4では、人型のキャラクタ10
がバッグであるオブジェクト20を保持したまま手を動
かしたり歩いたりする動作を表している。この場合の各
変数の値は次のようになる。
FIG. 4 shows how the characteristic positions of the character 10 and the object 20 are displaced in the case of holding. Holding is a process in which the object 20 moves while being in contact with the character 10 under the influence of the character 10. In FIG. 4, a humanoid character 10
Represents a motion of moving or walking while holding the object 20 which is a bag. The value of each variable in this case is as follows.

【0026】変数Wはキャラクタ10の動作の影響によ
って変化する。この変化は、オブジェクト20側からの
視点ではキャラクタ10が手を動かしたり歩いたりする
動作に影響されて動くことを意味し、反対にキャラクタ
10側からの視点ではオブジェクト20を動かすために
手を移動したり歩いたりすることを意味する。
The variable W changes under the influence of the motion of the character 10. This change means that the character 10 moves from the viewpoint of the object 20 due to the movement of the hand moving or walking, and conversely, moves the hand to move the object 20 from the viewpoint of the character 10. Means walking or walking.

【0027】また、キャラクタ10はオブジェクト20
をしっかりつかんでいるので、変数Xは常に0である。
また、オブジェクト20とキャラクタ10は接触したま
ま動作するので、変数Yは常に0である。また、変数Z
はキャラクタ10によるオブジェクト20の持ち方によ
って変化する。
The character 10 is an object 20
, The variable X is always zero.
Further, since the object 20 and the character 10 operate while being in contact with each other, the variable Y is always 0. Also, the variable Z
Changes depending on how the character 10 holds the object 20.

【0028】次に、図5に本発明の処理を実行する形態
例を示す。本発明では図5のように、上記の各変数をモ
ーションデータ51として読み込み、モーションモジュ
ール52およびIK(インバースキネマティックス)モ
ジュール53を用いて各変数がキャラクタデータ54お
よびオブジェクトデータ55に適用されて、キャラクタ
10およびオブジェクト20の動作が決定さる。キャラ
クタデータ54はキャラクタ10の形状および関節情報
を記述したデータであり、キャラクタ10が人型の場合
は例えば人型キャラクタの関節構造を標準化したh−a
nimの定めるフォーマットに準拠する。また、オブジ
ェクトデータ55はオブジェクト20の形状および関節
情報を記述したデータである。
Next, FIG. 5 shows an embodiment in which the processing of the present invention is executed. In the present invention, as shown in FIG. 5, each of the above variables is read as motion data 51, and each variable is applied to character data 54 and object data 55 using a motion module 52 and an IK (inverse kinematics) module 53. , Character 10 and object 20 are determined. The character data 54 is data describing the shape and joint information of the character 10. When the character 10 is a humanoid, for example, ha which standardizes the joint structure of the humanoid character is used.
The format conforms to the format defined by Nim. The object data 55 is data describing the shape and joint information of the object 20.

【0029】モーションデータ51は、上述したような
キャラクタ10およびオブジェクト20の制御用の変数
W、X、YおよびZを時系列的に保持したデータであ
り、インタラクション動作を実行する時間の長さについ
ての情報も含んでいる。モーションモジュール52は、
このモーションデータ51を管理する装置である。
The motion data 51 is data in which variables W, X, Y, and Z for controlling the character 10 and the object 20 as described above are stored in a time-series manner. Information is also included. The motion module 52
An apparatus for managing the motion data 51.

【0030】モーションモジュール52は、インタラク
ション動作が活性化されるとモーションデータ51を読
み込み。モーションデータ51に含まれる動作時間の
間、IKモジュール53に動作時刻に対応した変数を設
定し続ける。これによって、オブジェクトデータ55は
オブジェクト20の基準位置Cおよび接触予定位置Dの
座標を受け取ることができ、オブジェクト20の動作が
決定される。
The motion module 52 reads the motion data 51 when the interaction operation is activated. During the operation time included in the motion data 51, a variable corresponding to the operation time is continuously set in the IK module 53. Thus, the object data 55 can receive the coordinates of the reference position C and the expected contact position D of the object 20, and the operation of the object 20 is determined.

【0031】IKモジュール53は、モーションモジュ
ール52より動作時刻に対応した変数を受け取り、この
変数よりキャラクタ10の基準位置Aおよび接触位置B
を算出し、インバースキネマティックスアルゴリズムを
利用してキャラクタ10のルートから該当する位置まで
の各関節の座標を計算する。これによって、キャラクタ
データ54に対して動作時刻に対応したキャラクタ10
の各関節の座標が設定し続けられ、キャラクタ10の動
作が決定される。
The IK module 53 receives a variable corresponding to the operation time from the motion module 52, and receives the reference position A and the contact position B of the character 10 from the variable.
Is calculated, and the coordinates of each joint from the root of the character 10 to the corresponding position are calculated using the inverse kinematics algorithm. As a result, the character data 54 corresponding to the character
Are continuously set, and the motion of the character 10 is determined.

【0032】なお、このようなインタラクション動作の
記述を実行する装置としては、例えばグラフィックワー
クステーション等のコンピュータ装置等が考えられ、こ
の場合、上記のモーションモジュール52およびIKモ
ジュール53は専用の集積回路によって実現されるか、
あるいはこれらの動作を実現するプログラムとして記述
され、プロセッサ等によって実行されることによって実
現される。
As an apparatus for executing the description of the interaction operation, for example, a computer such as a graphic workstation can be considered. In this case, the motion module 52 and the IK module 53 are implemented by a dedicated integrated circuit. Will be realized
Alternatively, it is described as a program that realizes these operations, and is realized by being executed by a processor or the like.

【0033】以上のように、本発明の3次元アニメーシ
ョンのインタラクション動作記述方法では、可動なキャ
ラクタ10と静的なオブジェクト20とのインタラクシ
ョン動作が、オブジェクト20側の座標を基準としてキ
ャラクタ10の基準位置Aおよび接触予定位置B、オブ
ジェクト20の基準位置Cおよび接触予定位置Dを表し
た変数が与えられることによって記述されるため、従来
のようにキャラクタ10のデータにあらかじめ接触箇所
のデータを定めておく必要がなく、接触点が移動した場
合でもキャラクタデータ54に関係なく各変数の変化の
みで記述することができる。このため、人型のキャラク
タ10がオブジェクト20を片手で持ち上げ、移動する
上述した例のような場合だけでなく、例えばオブジェク
ト20を両手で持ち上げる、あるいは片手ずつ交互に持
ち替える等の動作のように、接触点が複数存在する場合
でも同様に表現することができる。このような場合、接
触点ごとに変数XおよびYに相当する変数を新たに設定
してモーションデータ51に含めることによって実現さ
れ、従来のようにキャラクタ10の関節構造の処理を複
雑にすることなくこれらの動作を表現することができ、
効率がよい。
As described above, in the three-dimensional animation interaction operation description method of the present invention, the interaction operation between the movable character 10 and the static object 20 is determined based on the reference position of the character 10 based on the coordinates of the object 20. A and the contact expected position B, the reference position C and the contact expected position D of the object 20 are described by being given, and the data of the contact point is determined in advance in the data of the character 10 as in the related art. It is not necessary, and even when the contact point moves, it can be described only by the change of each variable regardless of the character data 54. For this reason, not only in the case of the above-described example in which the humanoid character 10 lifts the object 20 with one hand and moves, for example, the operation of lifting the object 20 with both hands or alternately holding the object 20 one by one, The same can be applied to the case where there are a plurality of contact points. Such a case is realized by newly setting variables corresponding to the variables X and Y for each contact point and including the variables in the motion data 51, without complicating the processing of the joint structure of the character 10 as in the related art. These actions can be expressed,
Efficient.

【0034】なお、上記の実施例では静的なオブジェク
ト20としてバッグを例示したがこれに限ったことでは
なく、例えばオブジェクト20をスケートボードとし、
人型のキャラクタ10がスケートボードの上に乗る動作
を記述することも可能である。本発明はインタラクショ
ン動作として特に手の動きに特定したものではなく、こ
の場合は単に、キャラクタ10の接触予定位置Bが手で
はなく足になるだけで同様に記述することができる。
In the above embodiment, a bag is exemplified as the static object 20. However, the present invention is not limited to this. For example, the object 20 may be a skateboard.
It is also possible to describe the action of the humanoid character 10 riding on a skateboard. The present invention does not specifically specify a hand motion as an interaction motion. In this case, the same description can be made simply by merely setting the expected contact position B of the character 10 to a foot instead of a hand.

【0035】[0035]

【発明の効果】以上説明したように、本発明の3次元ア
ニメーションのインタラクション動作記述方法では、キ
ャラクタおよびオブジェクトの動作において特徴的な箇
所の座標の関係を静的なオブジェクト側の座標を基準と
した変数として表すことによって、キャラクタおよびオ
ブジェクトのインタラクション動作を統一的に記述する
ので、接触点を変更する、あるいは接触点が複数存在す
る場合でも、キャラクタのデータを変更せずに、キャラ
クタ側の基準位置と接触予定点、およびオブジェクト側
の接触予定点との関係を示す変数のみを新たに設定する
だけで、関節構造の処理を複雑にすることなくこれらの
動作が実現可能である。
As described above, in the method for describing the interaction behavior of a three-dimensional animation according to the present invention, the relationship between the coordinates of the characteristic portions in the motion of the character and the object is based on the coordinates of the static object. By expressing it as a variable, the interaction behavior of the character and the object is described in a unified manner. Therefore, even if the contact point is changed, or even if there are multiple contact points, the character's reference position is not changed without changing the character data. These operations can be realized without complicating the processing of the joint structure only by newly setting only the variables indicating the relationship between the object, the contact point, and the contact point on the object side.

【図面の簡単な説明】[Brief description of the drawings]

【図1】可動なキャラクタおよび静的なオブジェクトの
形態例を示す図である。
FIG. 1 is a diagram illustrating a form example of a movable character and a static object.

【図2】リーチングの場合のキャラクタおよびオブジェ
クトの各特徴位置の変位の様子を示す図である。
FIG. 2 is a diagram illustrating a state of displacement of each characteristic position of a character and an object in the case of reaching.

【図3】グラスピングの場合のキャラクタおよびオブジ
ェクトの各特徴位置の変位の様子を示す図である。
FIG. 3 is a diagram illustrating a state of displacement of each characteristic position of a character and an object in the case of glassing.

【図4】ホールディングの場合のキャラクタおよびオブ
ジェクトの各特徴位置の変位の様子を示す図である。
FIG. 4 is a diagram showing a state of displacement of each characteristic position of a character and an object in the case of holding.

【図5】本発明の処理を実行する形態例を示すブロック
図である。
FIG. 5 is a block diagram showing an example of an embodiment for executing the processing of the present invention.

【符号の説明】[Explanation of symbols]

10……キャラクタ、20……オブジェクト、51……
モーションデータ、52……モーションモジュール、5
3……IKモジュール、54……キャラクタデータ、5
5……オブジェクトデータ
10 ... character, 20 ... object, 51 ...
Motion data, 52: Motion module, 5
3 ... IK module, 54 ... Character data, 5
5. Object data

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 3次元関節構造で定義された3次元アニ
メーションにおける可動なキャラクタと静的なオブジェ
クトとのインタラクション動作を実現するための3次元
アニメーションのインタラクション動作記述方法におい
て、 前記キャラクタの基準位置と、前記キャラクタにおける
前記オブジェクトとの接触予定位置と、前記オブジェク
トの基準位置と、前記オブジェクトにおける前記キャラ
クタとの接触予定位置とをそれぞれ示す絶対座標を、前
記インタラクション動作の開始時からの前記オブジェク
トの基準位置の移動分を示す第1の相対座標と、前記オ
ブジェクトにおける基準位置から前記接触予定位置への
第2の相対座標と、前記オブジェクトにおける接触予定
位置から前記キャラクタにおける接触予定位置への第3
の相対座標と、前記オブジェクトの基準位置から前記キ
ャラクタの基準位置への第4の相対座標とを、それぞれ
前記インタラクション動作の開始時から時系列的に示す
変数として表し、 前記各変数を基に前記キャラクタおよび前記オブジェク
トの有する関節の位置を設定することによって前記イン
タラクション動作を記述することを特徴とする3次元ア
ニメーションのインタラクション動作記述方法。
1. A method for describing an interaction operation of a three-dimensional animation for realizing an interaction operation between a movable character and a static object in a three-dimensional animation defined by a three-dimensional joint structure, comprising the steps of: The absolute coordinates indicating the expected position of the character in contact with the object, the reference position of the object, and the expected position of the object in contact with the character are respectively defined as the reference of the object from the start of the interaction operation. First relative coordinates indicating the movement of the position, second relative coordinates from a reference position on the object to the expected contact position, and third relative coordinates from the expected contact position on the object to the expected contact position on the character.
And relative coordinates of the object and fourth relative coordinates from the reference position of the object to the reference position of the character are respectively represented as variables that are shown in time series from the start of the interaction operation. A method for describing an interaction operation of a three-dimensional animation, wherein the interaction operation is described by setting positions of a joint of a character and the object.
【請求項2】 前記キャラクタの有する前記関節の位置
は前記変数を基にインバースキネマティックスによって
設定されることを特徴とする請求項1記載の3次元アニ
メーションのインタラクション動作記述方法。
2. The method according to claim 1, wherein the positions of the joints of the character are set by inverse kinematics based on the variables.
【請求項3】 前記キャラクタと前記オブジェクトが複
数箇所で接触する場合、前記第2の相対座標および前記
第3の相対座標とをそれぞれ示す変数の組み合わせを複
数設定することを特徴とする請求項1記載の3次元アニ
メーションのオブジェクト記述方法。
3. The method according to claim 1, wherein when the character contacts the object at a plurality of locations, a plurality of combinations of variables indicating the second relative coordinates and the third relative coordinates are set. The object description method of the described three-dimensional animation.
JP2000114153A 2000-04-14 2000-04-14 Interaction operation describing method for three- dimensional animation Pending JP2001297335A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000114153A JP2001297335A (en) 2000-04-14 2000-04-14 Interaction operation describing method for three- dimensional animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000114153A JP2001297335A (en) 2000-04-14 2000-04-14 Interaction operation describing method for three- dimensional animation

Publications (1)

Publication Number Publication Date
JP2001297335A true JP2001297335A (en) 2001-10-26

Family

ID=18626004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000114153A Pending JP2001297335A (en) 2000-04-14 2000-04-14 Interaction operation describing method for three- dimensional animation

Country Status (1)

Country Link
JP (1) JP2001297335A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110384922A (en) * 2018-04-16 2019-10-29 珠海金山网络游戏科技有限公司 The method and system of User Activity and Management Controller is monitored in 3D figure

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110384922A (en) * 2018-04-16 2019-10-29 珠海金山网络游戏科技有限公司 The method and system of User Activity and Management Controller is monitored in 3D figure
CN110384922B (en) * 2018-04-16 2023-05-23 珠海金山数字网络科技有限公司 Method and system for monitoring user activity and managing controllers in 3D graphics

Similar Documents

Publication Publication Date Title
Ye et al. Synthesis of detailed hand manipulations using contact sampling
CN108958471B (en) Simulation method and system for virtual hand-operated object in virtual space
CN106041928B (en) A kind of robot manipulating task task generation method based on part model
JP2011110621A (en) Method of producing teaching data of robot and robot teaching system
US10599233B1 (en) Computer mouse device with modified design and functionality
Kopp et al. Imitation games with an artificial agent: From mimicking to understanding shape-related iconic gestures
CN104331154A (en) Man-machine interaction method and system for realizing non-contact mouse control
Inami et al. Cyborgs, human augmentation, cybernetics, and JIZAI body
CN107633551B (en) The methods of exhibiting and device of a kind of dummy keyboard
Brouet et al. Understanding hand degrees of freedom and natural gestures for 3D interaction on tabletop
JP5458245B2 (en) Operation control apparatus, method thereof, and program
US6798416B2 (en) Generating animation data using multiple interpolation procedures
JP2001297335A (en) Interaction operation describing method for three- dimensional animation
JP3818442B2 (en) Image processing apparatus and method, recording medium, and program
Higashi et al. Functionally divided manipulation synergy for controlling multi-fingered hands
CN109960404A (en) A kind of data processing method and device
Molnar et al. Toward Handling the Complexities of Non-Anthropomorphic Hands
Kopp et al. Planning and motion control in lifelike gesture: a refined approach
KR101503373B1 (en) Framework system for adaptive transformation of interactions based on gesture
WO2020059342A1 (en) Robot simulator
Ritter et al. Manual intelligence as a rosetta stone for robot cognition
JP2006209445A (en) Animation generation device and method thereof
CN108415571A (en) A kind of somatosensory device implementation method moving caused data analysis based on thumb
Batliner et al. Robot UI: User Interfaces for Live Robotic Control
Schlattmann et al. Efficient bimanual symmetric 3d manipulation for bare-handed interaction