JP3337938B2 - Motion transmitting / receiving device having three-dimensional skeleton structure and motion transmitting / receiving method - Google Patents

Motion transmitting / receiving device having three-dimensional skeleton structure and motion transmitting / receiving method

Info

Publication number
JP3337938B2
JP3337938B2 JP10045397A JP10045397A JP3337938B2 JP 3337938 B2 JP3337938 B2 JP 3337938B2 JP 10045397 A JP10045397 A JP 10045397A JP 10045397 A JP10045397 A JP 10045397A JP 3337938 B2 JP3337938 B2 JP 3337938B2
Authority
JP
Japan
Prior art keywords
data
motion
skeleton structure
skeleton
basic operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10045397A
Other languages
Japanese (ja)
Other versions
JPH1040418A (en
Inventor
俊弥 中
義幸 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP10045397A priority Critical patent/JP3337938B2/en
Publication of JPH1040418A publication Critical patent/JPH1040418A/en
Application granted granted Critical
Publication of JP3337938B2 publication Critical patent/JP3337938B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、インターネットな
どのネットワークをベースとした3次元コンピュータグ
ラフィックス(以下、「3DCG:three dimensional
computer graphics 」という。)を制作、あるいは商用
的に利用する際に、例えば、人間などの複雑な骨格構造
を持つキャラクタの自然な動きを効率良く送受信するた
めの3次元骨格構造の動き送受信装置、および動き送受
信方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to three-dimensional computer graphics (hereinafter, referred to as "3DCG") based on a network such as the Internet.
Computer graphics. The present invention relates to a motion transmitting / receiving apparatus having a three-dimensional skeleton structure and a motion transmitting / receiving method for efficiently transmitting / receiving a natural motion of a character having a complicated skeleton structure, such as a human, when producing or commercial-using the character. .

【0002】[0002]

【従来の技術】最近、3DCGの利用分野として、WW
W(World Wide Web)などのインターネット上での仮想商
店(Virtual Mall)や、各種ホームページなどが注目され
ている。特に、インターネットの急速な発達によって、
ゲームや映画などの3DCGを家庭内で手軽に扱う環境
が整いつつある。
2. Description of the Related Art Recently, as a field of application of 3DCG, WW
Attention has been focused on virtual malls (Virtual Mall) on the Internet such as W (World Wide Web) and various homepages. In particular, due to the rapid development of the Internet,
An environment for easily handling 3DCG such as games and movies at home is being prepared.

【0003】従来のWWWなどでは、インターネットを
介して、パーソナルコンピュータやワークステーション
などのサーバと呼ばれるマシンに、パーソナルコンピュ
ータなどの複数のクライアントと呼ぶマシンが接続され
ており、クライアントからの要求に応じるべく、必要に
応じて、サーバが提供する画像、音声、テキスト、およ
び配置の情報などのデータをダウンロードし、クライア
ント側で再構築することで、必要な情報を得ることがで
きるようになっている。このサーバーとクライアントと
の間の通信には、TCP/IP(Tranamission Control
Protocol/Internet Protocol) に基づく通信方法が採用
されている。
In the conventional WWW or the like, a plurality of machines called clients such as personal computers are connected to machines called servers such as personal computers and workstations via the Internet, so as to respond to requests from clients. If necessary, necessary information can be obtained by downloading data such as image, sound, text, and arrangement information provided by the server and reconstructing the data on the client side. The communication between the server and the client uses TCP / IP (Tranamission Control).
Protocol / Internet Protocol).

【0004】従来、サーバ側から提供されるデータは、
主として、テキストデータ、および画像データのみであ
ったが、最近では、VRML(Virtual Reality Modelin
g Language) や、VRMLのブラウザの標準化が進み、
形状、シーンなどの3DCGデータそのものを転送しよ
うとする動きがある。
Conventionally, data provided from the server side is:
Mainly text data and image data only, but recently, VRML (Virtual Reality Modelin
g Language) and VRML browser standardization has progressed.
There is a movement to transfer 3DCG data itself such as a shape and a scene.

【0005】ここで、上記VRMLついて簡単に説明す
る。HMTL(Hyper Text Markup Language)などのよう
に、画像、およびテキストを主体とする従来のデータ形
式では、画像データ、特に、動画データを転送するのに
膨大な転送時間と転送コストとが必要である。そのた
め、現状のシステムでは、ネットワークトラフィックの
制約がある。これに対し、従来の3DCGでは、形状を
含めて、視点情報や、光源情報などの全てを3次元デー
タで処理していた。コンピュータグラフィックス(以
下、「CG:computer graphics 」という。)技術が進
歩するにつれて、CGで作成した画像の画質が急速に向
上し、CGデータをそのまま転送する方がデータ量の点
からも非常に効率が良くなっている。通常、同等の画像
データを送る場合の1/100以上の圧縮率である。そ
こで、ネットワークを介した3DCGデータの転送方法
を標準化する動きが起こりつつある。その1つの取り組
みとして、VRMLと呼ぶ3DCGデータの標準化が提
案されている(VRML Ver.2.0)。VRML Ver.2.0
では、プリミティブと呼ぶ形状データ、および各種の光
源データ、視点データ、テクスチャデータなどのデータ
フォーマット、ならびに剛体の移動の指定方法などを規
定している。
[0005] Here, the VRML will be briefly described. In a conventional data format such as HMTL (Hyper Text Markup Language), which mainly uses images and texts, enormous transfer time and transfer cost are required to transfer image data, particularly moving image data. . Therefore, in the current system, there is a restriction on network traffic. In contrast, in the conventional 3DCG, all of the viewpoint information and light source information, including the shape, are processed using three-dimensional data. With the advance of computer graphics (CG) technology, the image quality of images created by CG has rapidly improved, and transferring CG data as it is is much more efficient in terms of data volume. Efficiency has improved. Normally, the compression ratio is 1/100 or more of that when transmitting equivalent image data. Therefore, there is a movement to standardize a method of transferring 3DCG data via a network. As one of the efforts, standardization of 3DCG data called VRML has been proposed (VRML Ver.2.0). VRML Ver.2.0
Defines data formats such as shape data called primitives, various types of light source data, viewpoint data, and texture data, and a method of specifying the movement of a rigid body.

【0006】一方、従来のCG分野で最近注目されてい
るのが、リアルタイムで画像を作っているアニメーショ
ン、いわゆるリアルアニメーションである。このリアル
アニメーションを採用することにより、CM(commercia
l message)や、映画を中心にCGキャラクタのリアルな
動きを再現する工夫がなされている。その1つとして、
人間などの複雑な形状を骨格構造で表し、時々刻々変化
する骨格の関節の移動量を定義することで、複雑な動き
を自然に再現するキネマティックス法と呼ぶ方法があ
る。
On the other hand, what has been recently attracting attention in the conventional CG field is an animation for creating an image in real time, that is, a so-called real animation. By adopting this real animation, CM (commercia
l message) and a movie. As one of them,
There is a method called a kinematics method for naturally reproducing complicated movements by expressing a complicated shape of a human or the like by a skeletal structure and defining a movement amount of a joint of the skeleton which changes every moment.

【0007】上記キネマティックス法は、ロボット工学
を中心に開発された技術である。かかるキネマティック
ス法は、直鎖リンク構造を持つ骨格モデル(リンクとジ
ョイント(間接)とから構成されている。)のジョイン
ト部分のX軸、Y軸、Z軸方向における回転角度とX
軸、Y軸、Z軸方向における移動量(位置)とを設定す
ることによって、骨格モデルの姿勢を決定するものであ
る。
[0007] The kinematics method is a technique developed mainly in robotics. In the kinematics method , the rotation angle and the X-axis, the Y-axis, and the Z-axis directions of the joint portion of a skeleton model (consisting of a link and a joint (indirect)) having a linear link structure are used.
The posture of the skeleton model is determined by setting the movement amount (position) in the axis, Y-axis, and Z-axis directions.

【0008】このキネマティックス法をCGで作成した
任意の骨格構造のキャラクタに適用することで、従来の
ポリゴンをベースとしたアニメーション(キーフレーム
法などとの併用により生成される。)に比べて、データ
量の削減が図れると同時に、人間や恐竜などの自然な動
きを再現することが可能になりつつある。
[0008] By applying this kinematics method to a character having an arbitrary skeletal structure created by CG, compared to a conventional polygon-based animation (generated in combination with a key frame method or the like). At the same time, the amount of data can be reduced, and at the same time, it is becoming possible to reproduce natural movements of humans and dinosaurs.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、VRM
Lを中心とする従来のインターネット上での3DCGモ
デリング言語では、物体の連続した時系列的な動きを定
義する方法などが考慮されていないのが実情である。ま
た、人間などの複雑な形状の動き、換言すると、例え
ば、手足の自然な姿勢などを定義する方法も無いのが実
情である。
SUMMARY OF THE INVENTION However, VRM
The conventional 3DCG modeling language on the Internet centered on L does not consider a method of defining continuous time-series movement of an object. Further, in reality, there is no method for defining the movement of a complicated shape such as a human being, in other words, for example, a natural posture of a limb.

【0010】さらに、キネマティックス法を基本とした
従来のアニメーションを生成する場合において、滑らか
な動きを生成するためには、モーションデータ量が多く
必要となる。そのため、ネットワークへの応用を考えた
場合、トラフィックの問題を解消するまでに至っていな
いのが実情である。
Furthermore, when generating a conventional animation based on the kinematics method, a large amount of motion data is required to generate a smooth motion. Therefore, in consideration of application to a network, the fact is that the problem of traffic has not yet been solved.

【0011】かかる現状に対処するために、本願発明者
等は、人間などの複雑な構造を骨格構造で定義し、指定
された骨格の基準位置(以下、「ルート」という。)
と、骨格の各関節位置の動き情報とを圧縮、および復元
して送受信するための機構と、骨格構造の階層関係、骨
格構造の初期状態、骨格構造の制約条件(例えば、各関
節の回転の自由度や回転の範囲など)、骨格に対応付け
られる形状データ、および骨格構造との対応関係データ
を含む初期情報に付加する骨格構造の動きデータを3次
元仮想空間内での動きの代表的な要素データ(以下、
「基本動作」という。)に分解し、この分解された基本
動作を当該基本動作の代表的な動きの接続方法とともに
伝送する、または復元する機構と、送受信されたアニメ
ーション情報をもとに必要となる骨格構造の姿勢を決定
する機構と、送受信されるアバタの動き情報をもとに操
作する、ユーザの指示に従って、例えば、動きの方向や
基本の動作のシーケンスなどの動きの操作をインタラク
ティブに変更する機構とを含むようにすれば、人間のよ
うな複雑な構造を持つキャラクタの3次元での動きを送
受信する場合、人間の階層を骨格構造で定義し、定義さ
れた骨格構造の一部の関節の3次元仮想空間内での移動
量を、時系列的に送受信する、または代表的な動きの要
素にこの代表的な動きの要素の接続方法を付加して送受
信することができ、その結果、ネットワークをベースと
した送受信系でのキャラクタの自然で滑らかな運動を送
受信でき、転送時のデータ量も大幅に削減できるのでは
ないかと着想した。
In order to cope with such a current situation, the present inventors define a complex structure such as a human with a skeleton structure, and designate a reference position of a designated skeleton (hereinafter, referred to as a “root”).
And a mechanism for compressing, restoring, and transmitting and receiving motion information of each joint position of the skeleton, a hierarchical relationship of the skeletal structure, an initial state of the skeletal structure, a constraint condition of the skeletal structure (for example, rotation of each joint). Motion data of the skeletal structure to be added to the initial information including the shape data associated with the skeleton and the data of the correspondence relationship with the skeletal structure. Element data (hereafter,
It is called “basic operation”. ), And a mechanism for transmitting or restoring the decomposed basic motion together with a connection method of a typical motion of the basic motion, and a posture of a skeletal structure required based on the transmitted and received animation information. A mechanism for deciding, and a mechanism for operating based on the avatar motion information transmitted and received, and a mechanism for interactively changing a motion operation, such as a motion direction or a basic motion sequence, according to a user's instruction, may be included. In the case of transmitting and receiving a three-dimensional movement of a character having a complicated structure like a human, a human hierarchy is defined by a skeletal structure, and a three-dimensional virtual space of a joint of a part of the defined skeletal structure is defined. the amount of movement of the inner, time series transmitted and received, or representative motion elements added how to connect elements of the representative motion can be transmitted and received, as a result, networks It can send and receive natural and smooth motions of characters in a click on the base and the transmission and reception system was conceived that it would be possible to greatly reduce the data amount at the time of transfer.

【0012】本発明は、上記着想に基づきなされたもの
で、インターネットに接続されたクライアントとサーバ
との間で、骨格構造(階層構造)を持つ人間のような複
雑な形状(アバタ)と、アバタの基本となる動きデータ
とを送受信し、ネットワーク上の3次元仮想空間内でア
バタをインタラクティブに操作し合うことを可能にする
3次元骨格構造の動き送受信装置、および動き送受信方
法を提供することを目的とする。
The present invention has been made on the basis of the above-mentioned idea, and comprises a human-like complicated shape (avatar) having a skeleton structure (hierarchical structure) between a client and a server connected to the Internet, and an avatar. And a motion transmission / reception apparatus having a three-dimensional skeleton structure and a motion transmission / reception method capable of transmitting and receiving motion data, which is the basis of the above, and enabling an avatar to be interactively operated in a three-dimensional virtual space on a network. Aim.

【0013】[0013]

【課題を解決するための手段】本発明の請求項1にかか
る3次元骨格構造の動き送受信装置は、送信側から3次
元コンピュータグラフィックスにおける関節、エンドサ
イト及びそれらをつなぐセグメントからなる骨格構造の
動きデータを受信側に送信し、受信側で上記送信された
骨格構造の動きデータをもとにアニメーションを生成す
る装置であって、上記骨格構造を定義する階層データ
と、上記骨格構造の一部分の運動を定めた基本動作デー
タと、前記基本動作データ間の接続方法情報とを送信す
る送信手段と、上記階層データ、及び上記基本動作デー
タと、上記接続方法情報とを受信し、上記階層データ、
及び上記基本動作データに基づいて上記骨格構造の姿勢
を決定するとともに、上記基本動作データを上記接続方
法情報に従って接続する受信手段と、を備えたものであ
る。
According to a first aspect of the present invention , there is provided a motion transmitting / receiving apparatus having a three-dimensional skeletal structure , comprising:
Send a byte and motion data of the skeleton structure whose segments connecting them to the receiver, to generate based on the animation motion data of the transmitted <br/> skeletal structure at the receiving side
A that equipment, hierarchy is defined on the Symbol skeletal structure data
And the basic motion data that defines the movement of a part of the skeletal structure.
And connection method information between the basic operation data.
Transmitting means, the hierarchical data, and the basic operation data.
And the connection method information, and receives the hierarchical data,
And the posture of the skeletal structure based on the basic motion data
And connect the basic operation data to the connection
Receiving means for connecting according to legal information .

【0014】また、本発明の請求項2にかかる3次元骨
格構造の動き送信装置は、送信側装置から3次元コンピ
ュータグラフィックスにおける関節,エンドサイト及び
それらをつなぐセグメントからなる骨格構造の動きデー
タを受信側に送信し、受信側で上記送信された骨格構造
の動きデータをもとにアニメーションを生成するシステ
ムにおける装置であって、上記受信側で上記骨格構造の
姿勢を決定するための、上記骨格構造を定義する階層デ
ータ、及び上記骨格構造の一部分の運動を定めた基本動
作データと、上記基本動作データ間を接続するために利
用される接続方法情報と、を送信する送信手段、を備え
ものである。
[0014] The motion transmitting device of a three-dimensional skeleton structure take some to claim 2 of the present invention, joints in three-dimensional computer graphics from a transmitting apparatus, endocytosis and
It transmits the motion data of the skeleton structure whose segments connecting them to the receiving side, to generate an animation based on the motion data of the transmitted skeleton structure at the receiving side system
Device in the system, wherein the receiving side has the skeletal structure.
Hierarchical data defining the above skeletal structure to determine the posture
Data and the basic motion that defines the motion of a part of the skeletal structure
Operation data and the above basic operation data.
Transmission means for transmitting connection method information to be used, and
It is a thing.

【0015】また、本発明の請求項3にかかる3次元骨
格構造の動き受信装置は、3次元コンピュータグラフィ
ックスにおける関節,エンドサイト及びそれらをつなぐ
セグメントからなる骨格構造の動きデータを受信してア
ニメーションを生成するシステムにおける装置であっ
て、上記骨格構造を定義する階層データと、上記骨格構
造の一部分の運動を定めた基本動作データと、上記基本
動作データ間を接続するために利用される接続方法情報
とを受信する受信手段を備え、上記階層データ、及び上
記基本動作データを、上記骨格構造の姿勢を決定するた
めに利用し、上記接続方法情報を、上記基本動作データ
を接続するために利用するものである。
Furthermore, dynamic-out reception apparatus of a three-dimensional skeleton structure take some to claim 3 of the present invention, three-dimensional computer graphics
Joints, end sites, and connecting them
Receives motion data of a skeletal structure
Equipment in a system that generates animations
The hierarchical data defining the skeletal structure and the skeletal structure
Basic motion data that defines the movement of a part of
Connection method information used to connect between operation data
Receiving means for receiving the hierarchical data,
The basic motion data is used to determine the posture of the skeletal structure.
The connection method information and the basic operation data
Is used to connect

【0016】また、本発明の請求項4にかかる3次元骨
格構造の動き送受信方法は、送信側から3次元コンピュ
ータグラフィックスにおける関節、エンドサイト及びそ
れらをつなぐセグメントからなる骨格構造の動きデータ
を受信側に送信し、受信側で上記送信された骨格構造の
動きデータをもとにアニメーションを生成する方法であ
って、上記骨格構造を定義する階層データと、上記骨格
構造の一部分の運動を定めた基本動作データと、前記基
本動作データ間の接続方法情報とを送信するステップ
と、上記階層データ、及び上記基本動作データと、上記
接続方法情報とを受信し、上記階層データ、及び上記基
本動作データとに基づいて上記骨格構造の姿勢を決定す
るとともに、上記基本動作データを上記接続方法情報に
従って接続するステップと、を含むものである。
[0016] The motion transmission and reception method of the three-dimensional skeleton structure take some to claim 4 of the present invention, three-dimensional computer from the sender
Joints, end sites, and
Motion data of skeletal structure consisting of segments connecting them
To the receiving side, and the receiving side transmits the skeleton structure
This is a method for generating animations based on motion data.
The hierarchical data defining the skeleton structure and the skeleton
Basic motion data defining movement of a part of the structure;
Step of transmitting connection method information between the operation data
And the hierarchical data and the basic operation data and
Receiving the connection method information and the hierarchical data and the base
Determine the posture of the skeletal structure based on the motion data
And the basic operation data in the connection method information.
Therefore, connecting .

【0017】[0017]

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【0022】[0022]

【0023】[0023]

【0024】[0024]

【0025】[0025]

【0026】[0026]

【0027】[0027]

【0028】[0028]

【0029】[0029]

【0030】[0030]

【0031】[0031]

【発明の実施の形態】以下、本発明の一実施の形態を添
付図面に基づき詳細に説明する。図1は本発明の一実施
の形態にかかる3次元骨格構造の動き送受信装置の構成
を示すブロック図である。図1を参照して、本実施の形
態の3次元骨格構造の動き送受信装置は、送信側から3
DCGにおける骨格構造の動きデータを受信側に送信
し、受信側で送信されてきた骨格構造の動きデータをも
とにアニメーションを生成するためのものであって、C
Gアニメーションデータ送信部1、CGアニメーション
データ伝送部2、およびCGアニメーションデータ受信
部3を備えている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing a configuration of a motion transmitting / receiving apparatus having a three-dimensional skeleton structure according to an embodiment of the present invention. With reference to FIG. 1, a motion transmitting / receiving apparatus having a three-dimensional skeleton structure according to the present embodiment
This is for transmitting the skeleton structure motion data in the DCG to the receiving side and generating an animation based on the skeleton structure motion data transmitted from the receiving side.
It includes a G animation data transmission unit 1, a CG animation data transmission unit 2, and a CG animation data reception unit 3.

【0032】図2はCGアニメーションデータ送信部の
構成の一例を示すブロック図である。図2を参照して、
CGアニメーションデータ送信部1は、骨格構造定義部
11、動きデータ定義部12、および動きデータ要素分
解部13を備えており、受信側からの要求に応じて、骨
格構造の階層関係を定義する階層データ、この階層デー
タの初期状態、骨格の関節の制約条件、骨格に対応付け
る形状データ、骨格構造との対応関係データ、形状デー
タの一部に対して動画マッピングする動画データ列、お
よびマッピング方法を含む初期情報に付加して、骨格構
造の動きデータを、時系列データとして送信するか、3
次元仮想空間内での動きの特徴となる基本動作に分解
し、この分解された基本動作に当該基本動作の接続方法
を付加したデータとして送信するか否かを決定し、この
決定された送信態様で初期情報に骨格構造の動きデータ
を付加して送信するようになっている。
FIG. 2 is a block diagram showing an example of the configuration of the CG animation data transmission section. Referring to FIG.
The CG animation data transmitting unit 1 includes a skeleton structure defining unit 11, a motion data defining unit 12, and a motion data element decomposing unit 13. The CG animation data transmitting unit 1 defines a hierarchical relationship of the skeleton structure in response to a request from the receiving side. Data, the initial state of the hierarchical data, the constraint conditions of the skeleton joints, the shape data associated with the skeleton, the correspondence relationship data with the skeletal structure, a moving image data sequence for performing moving image mapping on a part of the shape data, and a mapping method. The motion data of the skeletal structure is transmitted as time-series data in addition to the initial information,
It is decomposed into basic operations that characterize the motion in the three-dimensional virtual space, and it is determined whether or not to transmit as data obtained by adding the connection method of the basic operations to the decomposed basic operations. Then, skeleton structure motion data is added to the initial information and transmitted.

【0033】再び、図1を参照して、CGアニメーショ
ンデータ伝送部2は、送信側コンピュータ上にある送信
プログラムと受信側コンピュータ上にある受信プログラ
ムとによって、初期情報に骨格構造の動きデータを付加
したCGアニメーションデータを送信側コンピュータか
ら受信側コンピュータに伝送するようになっている。
Referring again to FIG. 1, the CG animation data transmission unit 2 adds the skeletal structure motion data to the initial information by the transmission program on the transmission side computer and the reception program on the reception side computer. The CG animation data is transmitted from the transmitting computer to the receiving computer.

【0034】図3はCGアニメーションデータ受信部の
構成の一例を示すブロック図である。図3を参照して、
CGアニメーションデータ受信部3は、骨格構造定義部
31、形状データ対応付け部32、動きデータ定義部3
3、姿勢決定部34、動き要素データ接続部35、およ
び動き接続部36を備えており、CGアニメーションデ
ータ伝送部2から伝送されてきたCGアニメーションデ
ータを受信し、この受信したCGアニメーションデータ
の送信態様を判別し、初期情報に付加される骨格構造の
動きデータが時系列的データとして送信されてきたと判
別したときには、初期情報、および時系列的データとし
て送信されてきた骨格構造の動きデータを解釈し、運動
学に基づいて骨格構造の姿勢を決定する一方、初期情報
に付加される骨格構造の動きデータが3次元仮想空間内
での動きの特徴となる基本動作に分解され、この分解さ
れた基本動作に当該基本動作の接続方法が付加されたデ
ータとして送信されてきたと判別されたときには、初期
情報、および分解された基本動作にこの基本動作の接続
方法が付加されたデータとして送信されてきた骨格構造
の動きデータを解釈し、運動学に基づいて骨格構造の姿
勢を決定するようになっている。
FIG. 3 is a block diagram showing an example of the configuration of the CG animation data receiving section. Referring to FIG.
The CG animation data receiving unit 3 includes a skeleton structure defining unit 31, a shape data associating unit 32, and a motion data defining unit 3.
3. It includes a posture determination unit 34, a motion element data connection unit 35, and a motion connection unit 36, receives the CG animation data transmitted from the CG animation data transmission unit 2, and transmits the received CG animation data. When the mode is determined and the motion data of the skeletal structure added to the initial information is determined to have been transmitted as time-series data, the initial information and the motion data of the skeleton structure transmitted as the time-series data are interpreted. Then, the posture of the skeletal structure is determined based on the kinematics, and the motion data of the skeletal structure added to the initial information is decomposed into basic motions that are characteristic of the motion in the three-dimensional virtual space. If it is determined that the data has been transmitted as data obtained by adding the connection method of the basic operation to the basic operation, the initial information and the decomposition The interpreting movement data of the skeleton structure connection is transmitted as additional data of the basic operation in the basic operation, so as to determine the attitude of the skeletal structure based on kinematics.

【0035】ここで、上記3次元骨格構造の動き送受信
装置の動作について説明する。CGアニメーションデー
タ送信部1は、受信側からの要求に応じて、骨格構造の
階層関係を定義する階層データ、この階層データの初期
状態、骨格の関節の制約条件、骨格に対応付ける形状デ
ータ、骨格構造との対応関係データ、形状データの一部
に対して動画マッピングする動画データ列、およびマッ
ピング方法を含む初期情報に付加して、骨格構造の動き
データを、時系列データとして送信するか、3次元仮想
空間内での動きの特徴となる基本動作に分解し、この分
解された基本動作に当該基本動作の接続方法を付加した
データとして送信するか否かを決定し、この決定された
送信態様で初期情報に骨格構造の動きデータを付加して
送信する。
Here, the operation of the motion transmitting / receiving apparatus having the three-dimensional skeleton structure will be described. In response to a request from the receiving side, the CG animation data transmitting unit 1 performs hierarchical data defining the hierarchical relationship of the skeletal structure, the initial state of the hierarchical data, the constraint conditions of the skeletal joints, the shape data associated with the skeleton, and the skeletal structure. The motion data of the skeletal structure is transmitted as time-series data by adding to the initial information including the correspondence relationship data, the moving image data string for moving image mapping to a part of the shape data, and the mapping method, It is decomposed into basic operations that characterize the motion in the virtual space, and it is determined whether or not to transmit as data obtained by adding the connection method of the basic operations to the decomposed basic operations. The skeleton structure motion data is added to the initial information and transmitted.

【0036】このとき、骨格構造定義部11は、送信の
対象となるCGキャラクタ(人間などの複雑な骨格を持
つものである。)を骨格構造で定義し、この定義された
骨格構造は、階層構造の最も親になる位置にルート(計
算の基準位置)が設定される。ここで、骨格構造は、通
常の人間の場合、図4、および図10(a)に示すよう
な階層構造を持っている。一方、ルートは、例えば、両
足の付け根などのように、通常、体の中心位置に設定
し、この位置にCGキャラクタのローカル座標系(以下
では、Zトップの右手系とする。)の原点を置く。
At this time, the skeleton structure definition unit 11 defines a CG character (having a complex skeleton such as a human) to be transmitted by a skeleton structure, and the defined skeleton structure is defined as a hierarchical structure. A route (reference position for calculation) is set at the position that becomes the parent of the structure. Here, the skeleton structure of a normal human has a hierarchical structure as shown in FIGS. 4 and 10A. On the other hand, the route is usually set at the center position of the body, for example, at the base of both feet, and the origin of the CG character's local coordinate system (hereinafter referred to as the Z-top right hand system) is set at this position. Put.

【0037】図4において、四角で囲った部分は、骨格
構造の関節、またはジョイントと呼ばれるものであっ
て、各ジョイントを繋ぐ直線は、腕や足などの部分に対
応しており、リンク、またはセグメントと呼ばれるもの
である。さらに、太い四角で囲った部分は、エンドサイ
トと呼ばれる手先や足先の先端部分である。図4では、
基本的な骨格を示したが、必要に応じて、骨格構造の階
層を変更する。例えば、図4の骨格構造において、手の
階層をもっと詳しく表現したい場合、左右の手首の下に
5本の指の階層と、この各階層にそれぞれ含まれる指の
関節とを設ければ良い。
In FIG. 4, the portions surrounded by squares are called joints or joints of the skeletal structure, and the straight lines connecting the joints correspond to the parts such as the arms and the legs. This is called a segment. Furthermore, the portion surrounded by a thick square is a tip portion of a hand or a toe called an end site. In FIG.
Although the basic skeleton has been shown, the hierarchy of the skeleton structure is changed as necessary. For example, in the skeletal structure of FIG. 4, when it is desired to express the hand hierarchy in more detail, a hierarchy of five fingers and a finger joint included in each hierarchy may be provided below the left and right wrists.

【0038】骨格構造には、上記ジョイントの階層関係
以外に、階層の初期状態が設定される。例えば、腕や足
の長さ、および腕や足の長さの初期方向が設定される。
加えて、骨格構造には、各ジョイントの可動範囲が設定
される。例えば、右肘がローカル座標系XYZ軸回りの
回転でそれぞれ何度から何度まで回転可能かなどが設定
される。
In the skeletal structure, an initial state of the hierarchy is set in addition to the hierarchical relationship of the joints. For example, the lengths of the arms and legs and the initial directions of the lengths of the arms and legs are set.
In addition, the movable range of each joint is set in the skeletal structure. For example, how many times the right elbow can be rotated around the XYZ axes of the local coordinate system can be set.

【0039】図5は骨格構造のデータ形式の一例を示す
図であって、図5(a)は骨格の階層を示している。図
5(a)を参照して、例えば、人間の肘の部分を例にと
れば、セグメントが上腕や前腕に対応しており、セグメ
ントの両端にサイトと呼ぶ部分がある。さらに、肘など
の関節部分(上腕のサイトと前腕のサイトとで定義され
ている。)がジョイントである。一方、図5(b)は骨
格構造の定義の一例を示している。図5(b)の骨格構
造の定義例では、セグメント、サイト、およびジョイン
トには、識別子として、Neck、およびNeckBaseなどの各
部の名称が付加されており、サイトには、3次元座標位
置(-p)、および回転角度(-r)が、それぞれ、3成分
ずつ設定されている。サイトの座標は、各セグメントの
親サイトの位置にローカル座標の原点を置くようになっ
ている。ジョイントに関しては、SkullBase などの識別
名、および階層関係(-c: どの親サイトとどの子サイト
が接続しているかの親子関係)が設定されている。さら
に、必要に応じて、回転の自由度(Ballの場合は、XY
Zの3軸回りの回転)、および可動範囲(-l:角度)が
設定される。
FIG. 5 is a diagram showing an example of the data format of the skeleton structure, and FIG. 5A shows the hierarchy of the skeleton. Referring to FIG. 5 (a), for example, taking a human elbow as an example, the segment corresponds to the upper arm or the forearm, and there are portions called sites at both ends of the segment. Further, joints such as elbows (defined by the upper arm site and the forearm site) are joints. On the other hand, FIG. 5B shows an example of the definition of the skeletal structure. In the example of the definition of the skeletal structure in FIG. 5B, the names of the respective parts such as Neck and NeckBase are added as identifiers to the segments, sites, and joints, and the three-dimensional coordinate position (- p) and the rotation angle (-r) are set for each of the three components. Site coordinates are such that the origin of local coordinates is at the location of the parent site for each segment. For the joint, an identifier such as SkullBase and a hierarchical relationship (-c: parent-child relationship between which parent site and which child site are connected) are set. Furthermore, if necessary, the degree of freedom of rotation (for Ball, XY
Z), and a movable range (-l: angle) are set.

【0040】動きデータ定義部12は、骨格構造定義部
11で設定された骨格構造の主要部分の動きデータを設
定する。ここで、主要部分とは、骨格の動かしたい部分
であって、例えば、体全体であれば、体全体に含まれる
骨格の関節の3次元座標位置または関節角度データを時
系列データとして与えることにより得られる。動きデー
タのフォーマットは、通常、フレーム番号などの時間デ
ータと実体データとからなり、それぞれ、ジョイントの
名称、角度データか座標データかを識別するための識別
子、および3要素(XYZ軸の成分)のデータで構成さ
れる。
The motion data definition unit 12 sets the motion data of the main part of the skeleton structure set by the skeleton structure definition unit 11. Here, the main part is a part of the skeleton to be moved. For example, in the case of the whole body, the three-dimensional coordinate position or joint angle data of the joint of the skeleton included in the whole body is given as time-series data. can get. The format of the motion data usually consists of time data such as a frame number and the like, and entity data, each of which includes a joint name, an identifier for identifying angle data or coordinate data, and three elements (XYZ axis components). Consists of data.

【0041】動き要素データ分解部13は、必要に応じ
て、上述の時系列の動きデータ列をもとに、骨格の運動
を表現するのに必要な基準点や経過情報などに分解す
る。なお、この分解方法などについては、後で詳しく説
明することにする。
The motion element data decomposing unit 13 decomposes, as necessary, into reference points and progress information necessary for expressing the movement of the skeleton, based on the time-series motion data sequence. The decomposition method and the like will be described later in detail.

【0042】CGアニメーションデータ伝送部2は、送
信側コンピュータ上にある送信プログラムと受信側コン
ピュータ上にある受信プログラムとによって、初期情報
に骨格構造の動きデータを付加したCGアニメーション
データを送信側コンピュータから受信側コンピュータに
伝送する。つまり、CGアニメーションデータ送信部1
で圧縮された骨格構造、および動きのデータをTCP/
IPに従ってサーバーとクライアントとの間で伝送す
る。
The CG animation data transmission unit 2 transmits CG animation data in which skeletal structure motion data is added to initial information from a transmission computer by a transmission program on a transmission computer and a reception program on a reception computer. Transmit to the receiving computer. That is, the CG animation data transmission unit 1
The skeletal structure and motion data compressed by
Transmission between server and client according to IP.

【0043】CGアニメーションデータ受信部3は、C
Gアニメーションデータ伝送部2から伝送されてきたC
Gアニメーションデータを受信し、この受信したCGア
ニメーションデータの送信態様を判別し、初期情報に付
加される骨格構造の動きデータが時系列的データとして
送信されてきたと判別したときには、初期情報、および
時系列的データとして送信されてきた骨格構造の動きデ
ータを解釈し、運動学に基づいて骨格構造の姿勢を決定
する一方、初期情報に付加される骨格構造の動きデータ
が3次元仮想空間内での動きの特徴となる基本動作に分
解され、この分解された基本動作に当該基本動作の接続
方法が付加されたデータとして送信されてきたと判別さ
れたときには、初期情報、および分解された基本動作に
この基本動作の接続方法が付加されたデータとして送信
されてきた骨格構造の動きデータを解釈し、運動学に基
づいて骨格構造の姿勢を決定する。このとき、骨格構造
定義部31は、骨格構造定義部11で定義される人間の
骨格構造データ(図4参照)を受信し、この受信した骨
格構造データを解釈する。
The CG animation data reception unit 3
C transmitted from the G animation data transmission unit 2
When the G animation data is received, the transmission mode of the received CG animation data is determined, and when it is determined that the motion data of the skeletal structure added to the initial information has been transmitted as time-series data, the initial information and the time While interpreting the motion data of the skeletal structure transmitted as sequential data and determining the posture of the skeletal structure based on the kinematics, the motion data of the skeletal structure added to the initial information is obtained in the three-dimensional virtual space. When it is determined that the data has been transmitted as data obtained by adding the connection method of the basic operation to the decomposed basic operation, the initial information and the decomposed basic operation are divided into basic operations. Interpret the motion data of the skeletal structure sent as data to which the connection method of the basic motion is added, and based on the kinematics, To determine the momentum. At this time, the skeleton structure definition unit 31 receives the human skeleton structure data (see FIG. 4) defined by the skeleton structure definition unit 11, and interprets the received skeleton structure data.

【0044】形状データ対応付け部32は、処理対象と
なる骨格構造のどのセグメントと、予め伝送された形状
データのどの部分とが対応するかをグループ分けする。
ここで、形状データというのは、CGキャラクタの骨格
に貼り付ける皮膚(「スキン」とも呼ぶ。)の部分であ
って、通常は、ポリゴン列、またはメッシュデータの集
合である。このポリゴン列やメッシュデータから上腕に
対応するグループや足に対応するグループなどを分類
し、分類されたデータグループがどのように骨格構造の
上腕や足と対応するのかを予め定義しておく。通常、形
状と骨格との対応関係は、骨格構造のセグメントの親側
のサイトにそのセグメントのローカル座標系の原点を置
き、原点からどの方向(方向ベクトルと回転ベクトルと
で指定する。)にどれくらいのスケールでスキンを割り
付けるかを設定することによって決定される。骨格のセ
グメントは、複数の形状グループの中心に配置され、各
形状グループから最短距離で対応付けられる。
The shape data associating section 32 groups which segment of the skeleton structure to be processed corresponds to which part of the previously transmitted shape data.
Here, the shape data is a portion of the skin (also referred to as “skin”) to be attached to the skeleton of the CG character, and is usually a polygon row or a set of mesh data. A group corresponding to the upper arm, a group corresponding to the foot, and the like are classified based on the polygon row and the mesh data, and how the classified data group corresponds to the upper arm and the foot of the skeletal structure is defined in advance. Normally, the correspondence between the shape and the skeleton is such that the origin of the local coordinate system of the segment is placed at the site on the parent side of the segment of the skeletal structure and in which direction (designated by the direction vector and the rotation vector) from the origin. Is determined by setting whether to assign the skin on a scale of. A skeleton segment is arranged at the center of a plurality of shape groups and is associated with the shortest distance from each shape group.

【0045】さらに、形状を自然に見せるためには、関
節部分でスキンが破れたりしないように設定する必要が
ある。この場合、関節部分の形状グループに対して、新
たな形状グループ(「フレクサ」と呼ぶ。)を設定し、
関節の曲げ角度に応じて、親側のセグメント、および子
側のセグメントからの曲げ角度に応じた影響を重み係数
で設定し、フレクサに含まれる形状グループを変形する
ことで実現される。
Further, in order to make the shape look natural, it is necessary to make settings so that the skin is not broken at the joints. In this case, a new shape group (called “flexor”) is set for the shape group of the joint portion,
This is realized by setting the weighting coefficient to the effect of the bending angle from the parent segment and the child segment in accordance with the bending angle of the joint, and deforming the shape group included in the flexor.

【0046】動きデータ定義部33は、動きデータ定義
部12、または動き要素データ分解部13から送信され
る動きデータを受信し、必要に応じて、受信した動きデ
ータを復元する。動き要素データ接続部35は、動きデ
ータ定義部33で復元された動きデータの基本動作同士
を滑らかに接続する。
The motion data definition unit 33 receives the motion data transmitted from the motion data definition unit 12 or the motion element data decomposition unit 13, and restores the received motion data as needed. The motion element data connection unit 35 connects the basic operations of the motion data restored by the motion data definition unit 33 smoothly.

【0047】姿勢決定部34は、骨格構造定義部31か
ら送られる骨格構造データと、形状データ対応付け部3
2から送られる骨格ごとにグループ分けされた形状デー
タと、動きデータ定義部33から送られる動きデータと
を用いて、任意の時刻における骨格の姿勢を決定する。
また、姿勢決定部34は、必要に応じて、動き要素デー
タ接続部35から送られてくる滑らかに基本動作同士が
接続された動きデータをも加味して、任意の時刻におけ
る骨格の姿勢を決定する。動き接続部36は、姿勢決定
部34で決定された骨格の姿勢を接続する。
The posture determining section 34 is configured to transmit the skeleton structure data sent from the skeleton structure defining section 31 to the shape data associating section 3.
The posture of the skeleton at an arbitrary time is determined using the shape data grouped for each skeleton sent from 2 and the motion data sent from the motion data definition unit 33.
In addition, the posture determination unit 34 determines the posture of the skeleton at an arbitrary time, as necessary, by taking into account the movement data transmitted from the movement element data connection unit 35 and connecting the basic operations smoothly. I do. The movement connection unit 36 connects the posture of the skeleton determined by the posture determination unit 34.

【0048】次に、骨格構造の姿勢の決定法について説
明する。図4の骨格構造の任意の時刻(フレーム)にお
ける姿勢の決定方法には、動きデータの形式によって異
なるが、基本的には、ロボット工学を中心に開発された
キネマティックス(「運動学」とも呼ぶ。)法を用いる
(「ロボットの力学と制御''(有本著、朝倉書店)」な
どを参照)。キネマティックス法は、直鎖リンクで接続
された関節構造の初期位置に、各関節の角度データの時
間変化量を与え、親から順にジョイントの位置を決定す
ることで、直鎖の姿勢を決定する方法である。
Next, a method for determining the posture of the skeletal structure will be described. The method of determining the posture of the skeletal structure in FIG. 4 at an arbitrary time (frame) differs depending on the form of the motion data, but basically, kinematics (also referred to as “kinematics”) developed mainly with robotics. (See "Dynamics and control of robots" (Arimoto, Asakura Shoten)). The kinematics method determines the linear posture by giving the time change of the angle data of each joint to the initial position of the joint structure connected by the linear link and determining the joint position in order from the parent How to

【0049】図4に示した人間の骨格の場合、通常、ル
ートから左右の足先、ルートから左右の手先、ルートか
ら頭頂の合計5本の直鎖(例えば、右腕や右足など)に
ついて、個別に姿勢を決定する必要がある。
In the case of the human skeleton shown in FIG. 4, usually, a total of five straight chains (for example, a right arm and a right foot) from the root to the right and left toes, the root to the left and right hands, and the root from the top are individually It is necessary to determine the posture.

【0050】今、動きデータ定義部33から送られるデ
ータが各関節の角度データの場合を考える。一般に、図
4の必要なジョイントの角度データ全てが姿勢決定部3
4に与えられるので、各直鎖の姿勢は、一意的に決定さ
れる。このように、骨格構造の初期状態と、任意の時刻
におけるジョイントの角度データ(ローカル座標系での
初期位置からの回転角度)とから、骨格の姿勢を決定す
る方法をダイレクトキネマティックス(順運動学)法と
呼ぶ。
Now, consider the case where the data sent from the motion data definition unit 33 is the angle data of each joint. Generally, all necessary joint angle data in FIG.
4, the posture of each straight line is uniquely determined. As described above, the method of determining the posture of the skeleton from the initial state of the skeleton structure and the joint angle data (rotation angle from the initial position in the local coordinate system) at an arbitrary time is described by direct kinematics (forward motion). Gaku) called the law.

【0051】ダイレクトキネマティックス法の場合、姿
勢決定部34では、骨格構造定義部31から入力される
骨格の初期値データに対して、ルートに近い関節から順
に計算する。例えば、図5に示した骨格の親側のサイ
ト、およびセグメントの長さに対して、動きデータ定義
部33から与えられる親サイトの回転角度で決める回転
行列(3*4行列)を作用させる。その結果、子側のサ
イト位置が決まる。上記骨格の親側のサイト、およびセ
グメントの長さに対して、上記回転行列を作用させる操
作は、ジョイントの数だけ繰り返される。
In the case of the direct kinematics method, the posture determination unit 34 calculates the skeleton initial value data input from the skeleton structure definition unit 31 in order from the joint closest to the root. For example, a rotation matrix (3 * 4 matrix) determined by the rotation angle of the parent site given by the motion data definition unit 33 is applied to the parent site of the skeleton shown in FIG. 5 and the length of the segment. As a result, the position of the child site is determined. The operation of applying the rotation matrix to the parent site of the skeleton and the length of the segment is repeated by the number of joints.

【0052】ダイレクトキネマティックス法以外の姿勢
決定法として、インバースキネマティックス法が挙げら
れる。かかるインバースキネマティックスでは、図4の
骨格構造に対し計算する範囲(骨格を動かす影響範囲の
ことで、「ハンドル」と呼ぶ。)を設定する必要があ
る。図4では、例えば、右襟から右手先にハンドルを設
定する。さらに、この設定されたハンドルに対して、動
きデータ定義部33からハンドルの先端部分、つまり、
この例では、右手先の3次元仮想空間での軌跡の時系列
データが与えられる。軌跡データは、先端部の3次元座
標(XYZ軸成分)と回転角度(XYZ軸回りの回転成
分)との最大6要素を設定できるが、通常は、どちらか
3成分づつを別々に姿勢決定部34に与える。
As an attitude determination method other than the direct kinematics method, there is an inverse kinematics method. In such inverse kinematics, it is necessary to set a range to be calculated for the skeletal structure in FIG. 4 (an influence range for moving the skeleton, which is referred to as a “handle”). In FIG. 4, for example, the handle is set from the right collar to the right hand. Further, with respect to the set handle, the motion data definition unit 33 sends the tip of the handle, that is,
In this example, time-series data of a trajectory in the three-dimensional virtual space at the right end is provided. The trajectory data can set up to six elements of the three-dimensional coordinates (XYZ axis components) and the rotation angle (rotation components around the XYZ axes) of the tip, but usually, each of the three components is separately set in the posture determination unit. Give to 34.

【0053】上記インバースキネマティックス法を採用
して、ハンドルの先端部分の軌跡から骨格(ハンドルの
範囲)の姿勢を数式を用いて解く場合、拘束条件が無い
と、解が複数存在し得る。つまり、3次元仮想空間内の
骨格の姿勢が一意的に決まらない。そこで、通常は、ハ
ンドルに含まれる全ての関節角度の微小変化量の自乗和
が最小になるような評価関数(エネルギ最小化)に基づ
いて計算する。具体的な計算は、上述したダイレクトキ
ネマティックスで用いる関節角度と、先端位置の関係を
示す行列式(「ヤコビ行列」と呼び、一意的に決ま
る。)の逆行列とを計算する。この逆行列は、関節の数
がN個の場合、6*Nの行列(6は先端部の最大自由度
である。)となり、そのままでは逆行列が存在しない。
そこで、上記の拘束条件の下、疑似ヤコビ逆行列を掃き
だし法などで計算する(「ロボット工学(広瀬著、裳華
房)」など参照)。
In the case where the above inverse kinematics method is used to solve the posture of the skeleton (the range of the handle) from the trajectory of the tip portion of the handle using a mathematical expression, there may be a plurality of solutions without constraint conditions. That is, the posture of the skeleton in the three-dimensional virtual space is not uniquely determined. Therefore, usually, the calculation is performed based on an evaluation function (energy minimization) that minimizes the sum of squares of the minute changes of all the joint angles included in the handle. For specific calculation, an inverse matrix of a determinant (referred to as a “Jacobi matrix”, which is uniquely determined) indicating the relationship between the joint angle used in the above-described direct kinematics and the tip position is calculated. When the number of joints is N, this inverse matrix becomes a 6 * N matrix (6 is the maximum degree of freedom at the tip), and there is no inverse matrix as it is.
Therefore, under the above-mentioned constraints, the pseudo-Jacobi inverse matrix is calculated by a sweeping method or the like (see “Robot Engineering (Hirose, Shokabo)”).

【0054】姿勢決定部34では、上記インバースキネ
マティックスとダイレクトキネマティックスとの両方の
アルゴリズムを用途に応じて使い分けられる。さらに、
姿勢決定部34では、必要に応じて、骨格構造定義部3
1から入力される任意の関節の可動範囲データをもと
に、キネマティックスで決まる関節角度に対し設定され
た可動範囲と比較することで、関節の姿勢に制限を加え
る。つまり、キネマティックスで姿勢計算した結果、あ
る関節の角度が可動範囲を越えれば、姿勢計算で求めた
値にセットする条件判定処理を加える。上述のキネマテ
ィックス法を用いることで、骨格構造を持つキャラクタ
の姿勢が決定できる。
In the attitude determination unit 34, both algorithms of the above inverse kinematics and direct kinematics can be used depending on the application. further,
In the posture determination unit 34, the skeleton structure definition unit 3
Based on the movable range data of an arbitrary joint input from step 1, the posture of the joint is limited by comparing it with the movable range set for the joint angle determined by kinematics. In other words, as a result of the posture calculation using kinematics, if the angle of a certain joint exceeds the movable range, a condition determination process for setting the angle to the value obtained by the posture calculation is added. By using the above kinematics method, the posture of the character having the skeletal structure can be determined.

【0055】次に、骨格の姿勢にスキンを割り付ける方
法について説明する。上述したように、3DCGでは、
スキンデータは、ポリゴングループ、または自由曲面グ
ループで、通常、スキンの形状のモデリングには、汎用
の3DCGモデリングツールを用いる。このツールの出
力データ形式は、Dxf(AUTO DESK社製作の商品名AUTO
CADのファイルフォーマット)や、Obj(SGI社製作の
商品名Wave FRONTのファイルフォーマット) などの標準
フォーマットを利用する。
Next, a method of assigning a skin to the posture of the skeleton will be described. As described above, in 3DCG,
The skin data is a polygon group or a free-form surface group. Generally, a general-purpose 3DCG modeling tool is used for modeling the shape of the skin. The output data format of this tool is Dxf (AUTO DESK's product name AUTO
Standard formats such as CAD file format and Obj (SGI product name Wave FRONT file format) are used.

【0056】形状データ対応付け部32では、ポリゴン
グループに対して、骨格構造定義部31で定義される骨
格構造のどのセグメントを対応付けるかを設定する。例
えば、人間の上腕の形状グループが骨格の上腕のセグメ
ントと対応する場合、形状グループのモデリング座標の
原点(重心位置など)と、セグメントの親サイトの座標
原点とを一致させ、そこからのオフセット(XYZ軸方
向3成分)と形状のスケール(XYZ軸方向の拡大率)
とで配置関係を微調整する。
The shape data association unit 32 sets which segment of the skeleton structure defined by the skeleton structure definition unit 31 is associated with the polygon group. For example, if the shape group of the human upper arm corresponds to the segment of the upper arm of the skeleton, the origin of the modeling coordinates of the shape group (such as the center of gravity) and the coordinate origin of the parent site of the segment match, and an offset ( XYZ axis direction three components) and shape scale (XYZ axis direction magnification)
And to fine-tune the placement relationship.

【0057】上述のキネマティックス法を用いて、骨格
の姿勢が決定されれば、注目するセグメントの親サイト
の位置と方向とが決まるので、上記求めた移動回転行列
をそのまま各セグメントと対応するグループの形状デー
タ(ポリゴンの頂点座標)に作用させれば、骨格の動き
に連動してスキンが移動する。
If the posture of the skeleton is determined using the above-described kinematics method, the position and direction of the parent site of the segment of interest are determined. When applied to the group shape data (vertex coordinates of polygons), the skin moves in conjunction with the movement of the skeleton.

【0058】以上が基本的な骨格構造を持つCGキャラ
クタのアニメーション生成法の説明である。上述の例で
は、動きデータは、各関節の角度データ(ダイレクトキ
ネマティックスの場合)、あるいは先端部分の軌跡デー
タ(インバースキネマティックスの場合)であり、さら
に、各関節の角度データ、および先端部分の軌跡データ
の時系列データを動きデータ定義部33から順次入力す
る必要がある。一般に、インターネットで接続された、
図1に示すCGアニメーションデータの送受信系では、
CGアニメーションデータ伝送部における通信トラフ
ィックを極力少なく押える必要がある。
The above is an explanation of a method for generating an animation of a CG character having a basic skeleton structure. In the above example, the motion data is the angle data of each joint (in the case of direct kinematics) or the trajectory data of the distal end portion (in the case of inverse kinematics). It is necessary to sequentially input the time series data of the trajectory data of the part from the motion data definition unit 33. Generally connected to the Internet,
In the transmission / reception system of CG animation data shown in FIG.
It is necessary to minimize communication traffic in the CG animation data transmission unit 2 as much as possible.

【0059】つづいて、動きデータの圧縮方法について
説明する。圧縮率は、伝送路の転送性能や、送受信側の
マシンの描画性能に合わせて、階層的に制御できる必要
がある。図6は骨格構造の動きの分割方法を説明するた
めの図である。図6を参照して、CGキャラクタの動き
データは、(1)骨格構造の各関節の動き、ならびに
(2)体全体3次元仮想空間内での位置、および方向
のデータで決定される。以下では、前者をローカル情報
と呼び、後者をワールド情報と呼ぶことにする。
Next, a method of compressing motion data will be described. Compression ratio, the transfer performance and the transmission line, in accordance with the drawing performance of the transmit and receive side of the machine must be able to hierarchically control. FIG. 6 is a diagram for explaining a method of dividing the movement of the skeletal structure. Referring to FIG. 6, the motion data of the CG character is determined by (1) the motion of each joint of the skeletal structure, and (2) the position and direction data of the entire body in the three-dimensional virtual space. Hereinafter, the former is referred to as local information, and the latter is referred to as world information.

【0060】通常のCGキャラクタアニメーションで
は、ワールド情報を図4で示した骨格構造のルートの情
報として定義し、さらにローカル情報を各関節情報とす
る。
In normal CG character animation, world information is defined as information on the root of the skeletal structure shown in FIG. 4, and local information is used as joint information.

【0061】まず、図6に示すようなCGキャラクタが
動き得る範囲を取り囲む3次元仮想空間を考える。この
3次元仮想空間の基準座標と、骨格構造のルート位置
(図6では、人間のヘソの位置)とを一致させ、ローカ
ル座標系の原点を設定する。このローカル座標系の原点
に対して、各X軸、Y軸、Z軸方向に仮想動作空間を設
定する。この仮想動作空間は、XYZ軸方向の大きさを
設定することで、全体のサイズが決まる。さらに、体の
移動に伴うワールド座標系での仮想動作空間の移動は、
キャラクタの平行移動と回転のマトリックスとで定義す
ることができる。仮想動作空間は、CGキャラクタの移
動(ワールド情報)に従って、回転または移動するもの
であり、定性的には、仮想動作空間は、ローカル座標系
でのCGキャラクタの手や足が移動し得る最大の範囲で
ある。図6では、仮想動作空間として、直方体を例に挙
げたが、CGキャラクタを中心とする球体を選んでも良
い。この場合、以下に説明する分割は、極座標系で与え
る方が都合が良い。
First, consider a three-dimensional virtual space surrounding a range in which a CG character can move as shown in FIG. The reference coordinates of the three-dimensional virtual space and the root position of the skeletal structure (in FIG. 6, the position of the human stomach) are matched, and the origin of the local coordinate system is set. With respect to the origin of the local coordinate system, a virtual operation space is set in each of the X-axis, Y-axis, and Z-axis directions. The overall size of the virtual operation space is determined by setting the size in the XYZ axis directions. Furthermore, the movement of the virtual motion space in the world coordinate system due to the movement of the body,
It can be defined by a matrix of translation and rotation of the character. The virtual motion space rotates or moves in accordance with the movement (world information) of the CG character. Qualitatively, the virtual motion space is the largest that the hand or foot of the CG character can move in the local coordinate system. Range. In FIG. 6, a rectangular parallelepiped is taken as an example of the virtual motion space, but a sphere centered on a CG character may be selected. In this case, it is more convenient to provide the division described below in a polar coordinate system.

【0062】次に、3次元仮想空間に対し、この3次元
仮想空間を分割するようなサブ3次元仮想空間を考え
る。このサブ3次元仮想空間は、仮想動作空間を均等に
分割するものであって、そのサイズは、ローカル座標系
でのXYZ軸方向の分割ピッチdx,dy,dz、またはXYZ
軸方向の分割数(l,m,n)で量子化数を決定する。
Next, a sub-three-dimensional virtual space that divides this three-dimensional virtual space into a three-dimensional virtual space will be considered. This sub-three-dimensional virtual space divides the virtual motion space equally, and its size is a division pitch dx, dy, dz or XYZ in the XYZ axis direction in the local coordinate system.
The number of quantizations is determined by the number of divisions (l, m, n) in the axial direction.

【0063】3次元仮想空間内でCGキャラクタの動き
を設定する場合、骨格構造の各関節位置、あるいは先端
位置の軌跡を設定する必要がある。軌跡は、サブ3次元
仮想空間の識別番号、あるいは座標位置で定義する。な
お、サブ3次元仮想空間の分割ピッチを大きくとれば、
骨格構造の各関節位置、あるいは先端位置の量子化レベ
ルが下がり、データ量を削減することができる。
When setting the movement of the CG character in the three-dimensional virtual space, it is necessary to set the trajectory of each joint position or the tip position of the skeleton structure. The trajectory is defined by an identification number of the sub three-dimensional virtual space or a coordinate position. If the division pitch of the sub three-dimensional virtual space is increased,
The quantization level at each joint position or tip position of the skeletal structure is reduced, and the data amount can be reduced.

【0064】サブ3次元仮想空間は、送受信側のハード
ウエア、あるいは伝送系の性能に合わせて、図7に示す
ように、さらに階層的に分割した後、合成する。3次元
仮想空間内でのCGキャラクタの連続した運動の軌跡を
符号化するには、図8に示す3次元仮想空間での運動の
経過点をサブ3次元仮想空間で指定する。また、動きを
再生するのに最低限必要な情報には、動きの始点のサブ
3次元仮想空間の位置(または識別番号)、終点のサブ
3次元仮想空間の位置(または識別番号)、および動き
の始点と終点との間の補間方法の情報(直線補間、スプ
ライン補間など)である。なお、図8に示す経過点の情
報を増やせば増やすほど、運動を滑らかに再現できるも
のの、データ量は増えることになる。サブ3次元仮想空
間の識別番号が与えられたときに、受信側で、3次元仮
想空間内の座標に変換するには、例えば、サブ3次元仮
想空間の重心位置、およびローカル座標の原点からの相
対位置を用いて変換する。この場合、サブ3次元仮想空
間のサイズ分の量子化誤差が生じる。
The sub-three-dimensional virtual space is further divided hierarchically and combined as shown in FIG. 7 in accordance with the hardware of the transmission / reception side or the performance of the transmission system. In order to encode the trajectory of the continuous movement of the CG character in the three-dimensional virtual space, the progress point of the movement in the three-dimensional virtual space shown in FIG. 8 is specified in the sub three-dimensional virtual space. The minimum information required to reproduce the motion includes the position (or identification number) of the sub-three-dimensional virtual space at the start point of the motion, the position (or identification number) of the sub-three-dimensional virtual space at the end point, and the motion. (Linear interpolation, spline interpolation, etc.) on the interpolation method between the start point and the end point of. It should be noted that the more the information of the elapsed points shown in FIG. 8 is increased, the more smoothly the exercise can be reproduced, but the larger the data amount. When the identification number of the sub-three-dimensional virtual space is given, the receiving side converts the coordinates into coordinates in the three-dimensional virtual space by, for example, the center of gravity of the sub-three-dimensional virtual space and the origin of the local coordinates from the origin. Convert using relative position. In this case, a quantization error corresponding to the size of the sub three-dimensional virtual space occurs.

【0065】図1で示したCGキャラクタの骨格データ
の送受信系における上述のデータの流れを整理すると、
まず、動き要素データ分解部13において、伝送したい
CGキャラクタに対し、3次元仮想空間のワールド座標
系での位置、および方向(ワールド情報)を表す移動回
転マトリックス、図6の仮想的な動作空間のサイズ、お
よびサブ3次元仮想空間への分割ピッチ(dx,dy,dz)を
伝送する。次に、必要に応じて、動きのデータとして、
CGキャラクタの腕や足の単位で、腕や足の骨格が移動
する3次元軌跡の始点と終点とのサブ3次元仮想空間の
位置、または識別番号、経過点のサブ空間位置または経
過点情報、および3次元軌跡の始点と終点との間の接続
方法を必要に応じて転送する。そうすると、受信側の動
きデータ要素接続部35では、上記転送データを解釈
(復元)して、図6に示すCGキャラクタの3次元軌跡
を補間することで、CGキャラクタの動きを再生する。
The data flow in the transmission / reception system of the skeleton data of the CG character shown in FIG.
First, in the motion element data decomposing unit 13, for a CG character to be transmitted, a movement / rotation matrix representing a position and a direction (world information) in the world coordinate system of the three-dimensional virtual space, The size and the division pitch (dx, dy, dz) into the sub-three-dimensional virtual space are transmitted. Next, if necessary,
In the unit of the arm or foot of the CG character, the position or the identification number of the sub-three-dimensional virtual space between the start point and the end point of the three-dimensional trajectory where the skeleton of the arm or foot moves, the sub-space position of the progress point or the progress point information, And a connection method between the start point and the end point of the three-dimensional trajectory is transferred as necessary. Then, the movement data element connection unit 35 on the receiving side interprets (restores) the transfer data and reproduces the movement of the CG character by interpolating the three-dimensional trajectory of the CG character shown in FIG.

【0066】なお、上記の説明では、説明を簡素化する
ために、先端部分の軌跡のみを設定する方法を例に挙げ
て説明したが、姿勢決定部34において、ダイレクトキ
ネマティックスを採用して、姿勢を決定する場合も同様
に、必要な骨格の全ての関節の経過位置から求めた角度
情報をサブ3次元仮想空間の情報で転送すれば良い。
In the above description, a method of setting only the trajectory of the tip portion has been described as an example for the sake of simplicity, but the posture determination unit 34 employs direct kinematics. Similarly, when the posture is determined, the angle information obtained from the progress positions of all the joints of the necessary skeleton may be transferred as information in the sub three-dimensional virtual space.

【0067】次に、サブ3次元仮想空間が姿勢決定部3
4に与えられた場合、送信、あるいは受信側で関節の角
度データを求める方法を図9に示す。図9を参照して、
関節の位置の初期位置(図9の球の中心位置)は、骨格
構造定義部11、および骨格構造定義部31で設定され
る。次に、ある時刻でのサブ3次元仮想空間内の位置、
あるいは識別番号が姿勢決定部34に与えられた場合、
サブ3次元仮想空間の重心位置座標が計算できる。サブ
3次元仮想空間内の位置、あるいは識別番号、およびサ
ブ3次元仮想空間の大きさと、既に知られているセグメ
ントの長さとをもとにローカル座標系での各軸回りの回
転角度(θx ,θy , θz )を計算する。この場合回転
の順序(X−Y−Zなど)は予め決めておく必要があ
る。
Next, the sub-three-dimensional virtual space is
FIG. 9 shows a method for obtaining joint angle data on the transmitting or receiving side when the signal is given to the transmitting side. Referring to FIG.
The initial position of the joint position (the center position of the sphere in FIG. 9) is set by the skeleton structure definition unit 11 and the skeleton structure definition unit 31. Next, the position in the sub-three-dimensional virtual space at a certain time,
Alternatively, when the identification number is given to the posture determination unit 34,
The coordinates of the position of the center of gravity of the sub three-dimensional virtual space can be calculated. The rotation angle (θx, θx) around each axis in the local coordinate system based on the position or the identification number in the sub-three-dimensional virtual space, the size of the sub-three-dimensional virtual space, and the length of the known segment. θy, θz). In this case, the order of rotation (such as XYZ) must be determined in advance.

【0068】姿勢決定部34で、インバースキネマティ
ックス法を採用して、姿勢を決定する場合、CGアニメ
ーションデータ送信部1では、骨格構造のハンドル情報
と、骨格の先端位置での軌跡情報とを動き要素データ分
解部13から転送する。
[0068] In the posture determining unit 34 adopts the inverse kinematics method, when determining the posture, the C G animation data transmitting unit 1, a handle information skeletal structure, the locus information of the tip position of skeletons From the motion element data decomposing unit 13.

【0069】ここまでの説明では、骨格の捻れ(ローカ
ル座標系でのZ軸回りの回転)の情報は、正確に規定し
ていなかった。関節の定義部分(図5(b)のJoint 情
報)で、関節の自由度がBallの場合は、XYZ軸の3軸
回りに回転可能であって、もし捻れを制限する場合は、
Z軸回りの回転を無視する。ところが、人間などでは、
腰、首、および手首などの関節は捻れが姿勢に大きく影
響し、特に、CGキャラクタは、手首が返っているかな
どの情報を正確に表現する必要がある。この場合、上記
の説明とは別に、捻れの情報(Z軸回りの回転角度)を
サブ3次元仮想空間情報に付加して、別途、送受信する
必要がある。例えば、図11(a)に示す例では、時刻
toでの手首の捻れ角度がθo 、時刻t1での捻れ角度がθ
1 を送受信し、姿勢決定部34で決まる骨格の関節角度
のうち、捻れが必要な部分のみ、θo からθ1 までの間
を補間した角度データに置き換える。
In the description so far, the information on the torsion of the skeleton (rotation around the Z axis in the local coordinate system) has not been accurately defined. In the definition part of the joint (Joint information in FIG. 5B), when the degree of freedom of the joint is Ball, the joint can be rotated around three axes of the XYZ axes.
Ignore rotation about the Z axis. However, in humans,
The torsion greatly affects the posture of the joints such as the waist, neck, and wrist. In particular, the CG character needs to accurately represent information such as whether the wrist is returning. In this case, separately from the above description, it is necessary to add torsion information (rotation angle about the Z axis) to the sub-three-dimensional virtual space information and transmit and receive the information separately. For example, in the example shown in FIG.
The twist angle of the wrist at to is θo, and the twist angle at time t1 is θ
1 and receive, among joint angles of skeletons decided in the posture determining portion 34, twisting only portions necessary, replaced with angle data interpolated between the θo to theta 1.

【0070】次に、基本の動作(「右手を上げる」と
か、「手を振る」などの連続した動作)同士を接続する
方法について説明する。例えば、CGキャラクタの基本
動作として、(1)右手を体の左下の仮想的な動作空間
から体の中心の仮想的な動作空間を通過し、右上方の仮
想的な動作空間へ移動する動きと、(2)右上方の仮想
的な動作空間から体の前方方向の仮想的な動作空間に手
を伸ばす動作を繋ぐ場合とを例に挙げる。
Next, a method for connecting basic operations (continuous operations such as "raising the right hand" and "waving the hand") will be described. For example, as a basic motion of the CG character, (1) a motion in which the right hand moves from the virtual motion space at the lower left of the body to the virtual motion space at the center of the body and moves to the virtual motion space at the upper right. , (2) a case of connecting an operation of reaching for a hand from a virtual operation space in the upper right to a virtual operation space in the forward direction of the body.

【0071】図11(a)は2つの基本動作の接続を説
明する概念図である。図11(a)を参照して、時刻t0
から時刻t1の間の動きが上記(1)の基本動作に、また
時刻t2から時刻t3までの動きが上記(2)の基本動作
に、それぞれ、対応するものとする。動き要素データ分
解部13で、仮想的な動作空間情報に分解し、始点のサ
ブ3次元仮想空間情報、および終点のサブ3次元仮想空
間情報、あるいは必要に応じて、始点と終点との間の経
過点のサブ3次元仮想空間情報を補間方法とともに転送
する。CGアニメーションデータ受信部3では、動き要
データ接続部35において、サブ3次元仮想空間を解
釈し、基本動作ごとの軌跡情報を復元する。さらに、動
き要素データ接続部35で、基本動作(1)と基本動作
(2)とを接続する。
FIG. 11A is a conceptual diagram illustrating the connection between two basic operations. Referring to FIG. 11A, at time t0
The movement from time t1 to time t1 corresponds to the basic operation of (1), and the movement from time t2 to time t3 corresponds to the basic operation of (2). The motion element data decomposing unit 13 decomposes the data into virtual motion space information and sub-three-dimensional virtual space information of the start point and sub-three-dimensional virtual space information of the end point, or, if necessary, between the start point and the end point. The sub-three-dimensional virtual space information of the lapse point is transferred together with the interpolation method. In the CG animation data receiving unit 3, the motion element data connecting unit 35 interprets the sub three-dimensional virtual space and restores the trajectory information for each basic motion. Further, the movement element data connection unit 35 connects the basic operation (1) and the basic operation (2).

【0072】図11(b)は時間軸を基準に通常の基本
動作同士の接続状態を表した図である。図11(b)を
参照して、時刻t1での動作空間情報から基本動作(1)
の終点位置を復元できる。これを右手の関節のエンドサ
イト(右手の先端)の位置、または関節角度データに変
換したのが図11(b)のグラフである。また、同様
に、時刻t2での動作空間位置から時刻t2における右手先
の角度、あるいは座標値が復元できる。これらの基本動
作を接続するための接続情報として、基本動作(1)の
時刻負方向にどれだけ遡るか(時刻負方向の値)の情
報、例えば、t1′と、基本動作(2)の時刻正方向にど
れだけ経過するか、例えば、t2′とを設定する必要があ
る。なお、この値は、送受信側で固定値をデフォルトと
して持たせてもよい。これらの情報を用いて、図11の
時刻t1′,t1,t2,t2′における右手先端部の座標値を
用いて、補間処理を行なう。なお、図11(b)の白丸
は、一般に、これらの値はXYZ軸の3成分を持つが、
ここでは説明の簡略化のために、1成分のみを示してい
る。
FIG. 11B is a diagram showing a connection state between normal basic operations based on the time axis. Referring to FIG. 11 (b), basic operation (1) is obtained from the operation space information at time t1.
Can be restored. FIG. 11B is a graph obtained by converting this into the position of the end site of the joint of the right hand (tip of the right hand) or the joint angle data. Similarly, the right hand angle or the coordinate value at time t2 can be restored from the operation space position at time t2. As connection information for connecting these basic operations, information on how far back in the negative time direction (value in the negative time direction) of the basic operation (1), for example, t1 ', and the time of the basic operation (2) It is necessary to set how much time elapses in the forward direction, for example, t2 '. This value may have a fixed value as a default on the transmitting and receiving sides. Using these pieces of information, interpolation processing is performed using the coordinate values of the right hand tip at times t1 ', t1, t2, and t2' in FIG. In addition, although these values generally have three components on the XYZ axes in the white circle in FIG.
Here, for simplification of description, only one component is shown.

【0073】また、これらの点の補間法として、直線補
間、あるいはスプライン補間などの情報を送受信側で予
め設定しておく。さらに、接続を滑らかに行なうには、
必要に応じて、時刻t1と時刻t2との間に補間情報となる
サブ3次元仮想空間情報を転送する(図11の時刻t1と
t2との間の点)。上述の例では、姿勢決定部34で、イ
ンバースキネマティックス法を採用して、骨格の姿勢を
決定する場合を例に挙げて説明したが、ダイレクトキネ
マティックス法による姿勢決定の場合も、各関節の情報
が姿勢決定部34に与えられるだけで、基本動作の接続
に関しては、全く同じ原理である。
As the interpolation method for these points, information such as linear interpolation or spline interpolation is set in advance on the transmitting / receiving side. Furthermore, to make the connection smooth,
If necessary, sub-three-dimensional virtual space information serving as interpolation information is transferred between time t1 and time t2 (see time t1 and time t1 in FIG. 11).
point between t2). In the above example, the case where the posture determining unit 34 determines the posture of the skeleton by employing the inverse kinematics method has been described as an example. Only the information of the joint is provided to the posture determination unit 34, and the connection of the basic motion is exactly the same.

【0074】以上の方法を用いることで、予め転送され
た複数の基本動作をもとに複数の基本動作を繋ぎ合わせ
たり、新たな仮想的な動作空間情報、および補間情報の
みを送ることで、基本動作を変更した新たな動きを極め
て少ないデータ量で生成することができる。
By using the above method, by linking a plurality of basic operations based on a plurality of previously transferred basic operations, or by sending only new virtual operation space information and interpolation information, A new motion in which the basic operation has been changed can be generated with an extremely small amount of data.

【0075】つづいて、上述の基本動作の始点や終点、
あるいはキーとなる経過点情報の作成方法について説明
する。3次元仮想空間内でのCGキャラクタの基本動作
は、上述のように、注目するCGキャラクタが3次元仮
想空間内のどのあたりを、どのような軌跡に沿って移動
しているか(ワールド情報)と、注目するCGキャラク
タの軌跡上のある時刻において、CGキャラクタの手や
足がどのような姿勢(運動)を取るか(ローカル情報)
とに分けられる。前者は、任意の時刻における図4の骨
格構造のルートの平行移動量(Xtrans, Ytrans, Ztran
s)、および方向(Xrot, Yrot, Zrot)で定義できる。
一方、後者は、各関節、または先端部分の角度(Xrot,
Yrot, Zrot)、あるいは3次元座標(Xtrans, Ytrans,
Ztrans)で定義される。これらの情報は、共に時系列の
データ、あるいは上述した仮想的な動作空間情報とし
て、送信系から受信系に送られる。
Next, the starting point and the ending point of the basic operation described above,
Alternatively, a method of creating key point information will be described. The basic operation of the CG character in the three-dimensional virtual space is, as described above, where the CG character of interest moves in the three-dimensional virtual space and along what trajectory (world information). What kind of posture (motion) the hand or foot of the CG character takes at a certain time on the trajectory of the CG character of interest (local information)
And divided into The former is the amount of translation of the root of the skeletal structure in FIG. 4 at an arbitrary time (Xtrans, Ytrans, Ztran
s) and direction (Xrot, Yrot, Zrot).
On the other hand, the latter is the angle of each joint or tip (Xrot,
Yrot, Zrot) or three-dimensional coordinates (Xtrans, Ytrans,
Ztrans). These pieces of information are both sent from the transmission system to the reception system as time-series data or the above-described virtual operation space information.

【0076】基本動作そのものを設定する場合、通常
は、モーションキャプチャと呼ばれる手法を用いる。以
下では、まず、モーションキャプチャを用いた動きデー
タの作成方法を説明する。モーションキャプチャは、体
の関節部分に光を反射するマーカを取り付けたモデルに
所望の動きをさせながら、複数のカメラで撮影する。2
台以上のカメラで撮影したあるマーカの2次元画像をも
とに、そのマーカの3次元座標、または骨格構造に対応
させたときの角度データを算出する(特願平7−312
005号などを参照)。モーションキャプチャされたC
Gキャラクタの動きは、図4に示した骨格構造の各関節
の角度データ(時系列)である。このデータは、図11
(a)の例では、時刻t0から時刻t1までの運動の軌跡1
や、時刻t2から時刻t3までの運動の軌跡2に対応する。
When the basic operation itself is set, a technique called motion capture is usually used. Hereinafter, a method of creating motion data using motion capture will be described first. In the motion capture, a plurality of cameras capture images while making a desired movement on a model in which a marker reflecting light is attached to a joint part of a body. 2
Based on a two-dimensional image of a marker captured by more than one camera, the three-dimensional coordinates of the marker or angle data corresponding to the skeletal structure is calculated (Japanese Patent Application No. 7-312).
005). Motion captured C
The motion of the G character is angle data (time series) of each joint of the skeletal structure shown in FIG. This data is shown in FIG.
In the example of (a), the trajectory 1 of the movement from time t0 to time t1
Or a locus 2 of the movement from time t2 to time t3.

【0077】上記骨格構造の各関節の角度データをそれ
ぞれ基本動作として、動きデータ定義部12から、時系
列データでCGアニメーションデータ伝送部2に送り、
動きデータ定義部33で、解釈するのが基本の動き送受
信方法である。これに対し、動きのデータ量を削減した
い場合、軌跡上の経過点情報をサンプリングし、サンプ
リングされた軌跡上の経過点情報を接続方法とともに送
受信する方法がある。
The motion data defining unit 12 sends the angle data of each joint of the skeletal structure as a basic operation to the CG animation data transmitting unit 2 as time-series data.
What the motion data definition unit 33 interprets is a basic motion transmission / reception method. On the other hand, when it is desired to reduce the amount of motion data, there is a method of sampling progress point information on a trajectory and transmitting and receiving the sampled progress point information along with a connection method.

【0078】さらに、送受信データを圧縮して再利用す
る必要がある場合は、図6に示した仮想的な動作空間デ
ータに分解する必要がある。この場合、モーションキャ
プチャした軌跡データをもとに、動き要素データ分解部
13で、図6のCGキャラクタの仮想的な動作空間に量
子化(ベクトル量子化)し、仮想的な動作空間データの
位置、または識別番号に分解する。動き要素データ接続
部35では、受信した仮想的な動作空間データから接続
方法の情報を用いてモーションキャプチャされた動きの
軌跡を復元する。
Further, when it is necessary to compress transmitted / received data and reuse it, it is necessary to decompose the data into virtual operation space data shown in FIG. In this case, the motion element data decomposing unit 13 quantizes (vector-quantizes) the virtual motion space of the CG character in FIG. , Or broken down into identification numbers. The motion element data connection unit 35 restores the trajectory of the motion captured by using the information on the connection method from the received virtual motion space data.

【0079】次に、モーションキャプチャなどを用いる
ことなく、動きデータを作成する方法を簡単に説明す
る。図6に示したCGキャラクタの骨格構造と、仮想的
な動作空間を設定する。CGキャラクタの初期状態は、
図10に示したものとなる。仮想的な動作空間をサブ3
次元仮想空間に分割し、この分割されたサブ3次元仮想
空間の識別番号などで位置を指定していく。
Next, a method of creating motion data without using motion capture will be briefly described. The skeleton structure of the CG character shown in FIG. 6 and a virtual motion space are set. The initial state of the CG character is
This is shown in FIG. Virtual operation space sub 3
The virtual space is divided into three-dimensional virtual spaces, and the position is designated by the identification number of the divided sub-three-dimensional virtual space.

【0080】図12に簡単な右手の姿勢の設定例を示
す。図12を参照して、まず、ステップ1として、右手
先の始点位置を決める。例えば、始点を顔の右前とする
と、顔の右前近傍のサブ3次元仮想空間の番号を設定す
る。その結果を、例えば、インバースキネマティックス
法を採用して、右手の姿勢を決定して表示する。なお、
この場合、簡単なブラウザとして、キネマティックと表
示系とが必要である。右手の位置が思いのものと異なる
場合は、現在のブロック番号、あるいは位置から、移動
させたいXYZ軸方向(ローカル座標系)のサブ3次元
仮想空間のステップ数を設定することで、新たなサブ3
次元仮想空間を設定する(ステップ2)。ステップ2の
操作を繰り返すことで、所望の位置を設定できる。この
指定法の利点は、例えば、もう少し右や後ろなどと、人
間が動作の振付けを行なう要領で、大体の位置の設定が
できるところにある。この指定を必要な始点位置、終点
位置、および経過点のサブ3次元仮想空間に対して設定
する(ステップn、ステップn+1など)。
FIG. 12 shows a simple setting example of the right hand posture. Referring to FIG. 12, first, as a step 1, the starting point position of the right hand is determined. For example, if the start point is the right front of the face, the number of the sub three-dimensional virtual space near the right front of the face is set. The result is displayed by determining the posture of the right hand, for example, by employing the inverse kinematics method. In addition,
In this case, a kinematic and a display system are required as a simple browser. If the position of the right hand is different from the desired one, the number of steps in the XYZ-axis direction (local coordinate system) to be moved is set from the current block number or position, and a new sub- 3
A two-dimensional virtual space is set (step 2). By repeating the operation of step 2, a desired position can be set. The advantage of this designation method is that the position can be roughly set, for example, to the right or behind a little, in the manner in which a human performs choreography of motion. This designation is set for the necessary three-dimensional virtual space of the start point position, the end point position, and the lapse point (step n, step n + 1, etc.).

【0081】ここまでの説明では、主に骨格の動きの設
定を中心に説明した。CGキャラクタとして、実際に欲
しいのは、上記の骨格の姿勢にバインドされたスキン情
報である。既に説明したように、スキン形状と骨格のセ
グメントとは、ローカル座標位置を共用することで割り
付けることができる。キネマティックス法では、動かす
必要がある部分に骨格を設定する必要がある。図4、あ
るいは図10に示したのが一般に使われる骨格の階層関
係である。ところが、例えば、手が開いているとか指の
曲げ具合いなど人間の指先の形を設定したい場合は、同
様に、指の骨格を定義すれば良いが、単に、指の骨格を
定義しただけでは、データ量が増加してしまう。
In the description so far, mainly the setting of the movement of the skeleton has been mainly described. What the CG character actually wants is the skin information bound to the posture of the skeleton. As described above, the skin shape and the skeleton segment can be allocated by sharing the local coordinate position. In the kinematics method, it is necessary to set a skeleton in a portion that needs to be moved. FIG. 4 or FIG. 10 shows the hierarchical relationship of the skeleton generally used. However, for example, if you want to set the shape of a human fingertip such as the hand being open or the bending of the finger, it is sufficient to define the skeleton of the finger in the same way, but simply defining the skeleton of the finger, The data volume increases.

【0082】そこで、データ量を削減するべく、手の形
状を固定にして、必要に応じて所望の形状データを入れ
換える方法について説明する。図4に示した階層構造の
右手や左手のジョイントにバインドする形状データとし
て、例えば、手を広げた形状や握った形状などを予め用
意する。さらに、図11で示したように、右手の動きが
与えられたときに、動き要素データ分解部13でサブ3
次元仮想空間の情報とともに、手首にバインドする形状
データの種類、および捻れ情報を付加して転送する。動
き要素データ接続部35では、サブ3次元仮想空間情
で動きの軌跡を復元し、同時に、手首の捻れと、手首に
バインドされる形状とがどのようなものかを判断し、こ
の判断に基づいて切替えて表示することで、手先の形状
を正確に再生できる。
A method for fixing the shape of the hand and replacing desired shape data as necessary will be described in order to reduce the data amount. As the shape data to be bound to the right-hand and left-hand joints of the hierarchical structure shown in FIG. 4, for example, a shape in which the hand is spread or a shape in which the hand is gripped is prepared in advance. Further, as shown in FIG. 11, when a right hand motion is given, the motion element data
Along with the information of the three-dimensional virtual space, the type of shape data to be bound to the wrist and the twist information are added and transferred. The motion element data connecting unit 35, restores the trajectory of movement in the sub-three-dimensional virtual space Majo report, at the same time, judges that the twisting of the wrist, or the shape that is bound to the wrist looks like, this determination , The hand shape can be accurately reproduced.

【0083】次に、CGキャラクタの再生において、重
要となる表情の表現法について説明する。表情をリアル
に表現する場合、図4に示す階層の首に対応するジョイ
ントに頭の形状をバインドさせることができるが、体の
動きに同期させて、「笑ったり」、「怒ったり」といっ
た表情を再現するのは難しい。そこで、表情は、実写の
動画を頭の形状にマッピングする方法を用いる。
Next, a description will be given of a method of expressing an expression that is important in reproducing a CG character. When expressing the facial expression realistically, the shape of the head can be bound to the joint corresponding to the neck of the hierarchy shown in FIG. 4, but in synchronization with the movement of the body, the facial expression such as "laughing" or "angry" Is difficult to reproduce. Therefore, for the expression, a method of mapping a live-action moving image to a head shape is used.

【0084】図10は表情のマッピングを説明するため
の概念図である。図10を参照して、マッピングを施す
場合の頭の形状は、球や円柱が基本で、必要に応じて、
顔の凹凸を再現した形状データを用いる。この形状にマ
ッピング座標、または投影方向などのマッピング方法を
設定する。さらに、首が右を向いたり、左を向いたりし
て骨格の首が回る場合を考慮して、マッピングデータと
して、人間の顔を複数(通常は顔を取り囲む円上)のカ
メラ位置から見たときの表情の動画列(MPEG2(Mot
ion Picture Experts Group phase2) 圧縮画像)を用意
する。首の方向が決まると、表情のマッピングデータを
どの動画列(視点に依存するデータである。)から選ぶ
かが決まり、必要に応じて、複数の動画列から対応する
時間の画像データの対応する画素同士を対応する画素に
対して視線からの角度で重み付け、いわゆるマージして
表示する。例えば、CGキャラクタを観察する視点が図
10(b)に示すAとBの間の場合、動画列データとし
て、A,Bを選択し、A,B、および視点からキャラク
タの重心を見たときの角度の隔たりに応じた重み(角度
差に比例する。)を決定する。
FIG. 10 is a conceptual diagram for explaining expression mapping. Referring to FIG. 10, the shape of the head when mapping is performed is basically a sphere or a cylinder.
Shape data that reproduces the unevenness of the face is used. A mapping method such as a mapping coordinate or a projection direction is set for this shape. In addition, in consideration of the case where the skeletal neck turns to the right or to the left, the human face is viewed from a plurality of camera positions (usually on a circle surrounding the face) as mapping data. The video sequence of the expression at the time (MPEG2 (Mot
ion Picture Experts Group phase 2) Prepare compressed images). When the direction of the neck is determined, it is determined from which moving image sequence (viewpoint-dependent data) the facial expression mapping data is to be selected. If necessary, the image data corresponding to the corresponding time from a plurality of moving image sequences is selected. The pixels are weighted with respect to the corresponding pixels by an angle from the line of sight, and are displayed in a so-called merged manner. For example, when the viewpoint for observing the CG character is between A and B shown in FIG. 10B, when A and B are selected as moving image sequence data and the center of gravity of the character is viewed from A, B and the viewpoint Is determined (proportional to the angle difference) in accordance with the angle difference of.

【0085】CGアニメーションデータ送信部1では、
表情の動画列をMPEG2などを用いて、圧縮したデー
タとカメラ位置とを転送する機構が必要である。一方、
CGアニメーションデータ受信部では、圧縮して転送
された動画列を復元し、カメラの位置をもとにどの視点
の画像かを選択してマッピングする機構が必要である。
なお、動画のマッピング法については、「Foley & Van
Dam et. al.,: Computer Graphics Principles and Pra
ctice II, Addison Wesley」を参照されたい。
In the CG animation data transmitting section 1,
A mechanism for transferring the compressed data and camera position of the moving image sequence of the expression using MPEG2 or the like is required. on the other hand,
The CG animation data receiving unit 3 needs a mechanism for restoring the compressed and transferred moving image sequence and selecting and mapping which viewpoint image is based on the camera position.
Please refer to "Foley & Van
Dam et. Al.,: Computer Graphics Principles and Pra
ctice II, Addison Wesley ".

【0086】図13は右手、左手、および頭の3本のハ
ンドルに対する動きのスクリプト表記の一例を示す図で
ある。図13を参照して、軌跡情報として、始点、終
点、および経過点のサブ3次元仮想空間の番号を設定
し、実際の再現時間を付加情報として転送する。この例
では、補間方法として、スプラインを指定している。
FIG. 13 is a diagram showing an example of script notation of movement for three handles of the right hand, the left hand, and the head. Referring to FIG. 13, the numbers of the sub-three-dimensional virtual space of the starting point, the ending point, and the lapse point are set as the trajectory information, and the actual reproduction time is transferred as additional information. In this example, a spline is specified as the interpolation method.

【0087】図14はCG骨格構造の動きデータの送受
信法の一例を示す図である。図14を参照して、CGア
ニメーションデータ送信部1とCGアニメーションデー
受信部3との間で、サブ3次元仮想空間で表現した動
きのデータの実体と、動きの記述言語(例えば13図)
とを送受信することで、種々の計算、および描画等の性
能、ならびにOS(Operating System)などのハードウエ
アに依存しない、CGアニメーションデータの送受信が
可能になる。
FIG. 14 is a diagram showing an example of a method of transmitting and receiving motion data having a CG skeleton structure. Referring to FIG. 14, between CG animation data transmitting unit 1 and CG animation data receiving unit 3 , the entity of the motion data represented in the sub-three-dimensional virtual space and the motion description language (for example, FIG. 13)
CG animation data can be transmitted and received without depending on the performance of various calculations and drawing, and hardware such as an OS (Operating System).

【0088】最後に、CGキャラクタが複数存在する場
合、複数のCGキャラクタのうち2者の衝突チェックを
行なう方法について簡単に説明する。図6に示したよう
に、サブ3次元仮想空間で動きを表現する利点の1つに
衝突チェックの計算の簡易化がある。例えば、一方の腕
と他方の手とが衝突するかどうかを大雑把に判定する場
合、まず、一方のキャラクタの注目する腕に含まれるセ
グメントのバウンダリを考える。バウンダリは、図4に
示す骨格構造の腕の親サイト、および子サイトで決まる
直方体とする。直方体の底面積は、スキンのサイズで決
まり、通常の人間では、体格に合わせて固定の値であ
る。このバウンダリと、他方のキャラクタのサブ3次元
仮想空間(直方体)との衝突判定を行なえば、簡単に大
まかな判定が可能になる。さらに、衝突を詳しく判定し
たい場合は、上記のバウンダリに含まれる形状データ
(ポリゴングループの全頂点)について衝突判定をすれ
ば良い。このサブ3次元仮想空間での衝突判定(バウン
ダリと注目点との内外判定)をすることで、衝突チェッ
クの計算の大幅な簡略化(高速化)が実現される。な
お、本発明は上記実施の形態に限定されるものではな
く、本発明の請求の範囲内での種々の設計変更、および
修正を加え得ることは勿論である。
Finally, a brief description will be given of a method of checking a collision between two CG characters when there are a plurality of CG characters. As shown in FIG. 6, one of the advantages of expressing motion in the sub-three-dimensional virtual space is simplification of calculation of a collision check. For example, when roughly determining whether or not one arm and the other hand collide, consider the boundary of a segment included in the arm of interest of one character. The boundary is a rectangular parallelepiped determined by the parent site and the child site of the arm having the skeletal structure shown in FIG. The base area of the cuboid is determined by the size of the skin, and is a fixed value according to the physique in a normal human. If a collision is determined between the boundary and the sub-three-dimensional virtual space (rectangular parallelepiped) of the other character, rough determination can be easily performed. Further, when it is desired to determine the collision in detail, the collision may be determined for the shape data (all vertices of the polygon group) included in the boundary. By performing the collision determination (inside / outside determination between the boundary and the point of interest) in the sub-three-dimensional virtual space, the calculation of the collision check is greatly simplified (speeded up). It should be noted that the present invention is not limited to the above-described embodiment, and it is needless to say that various design changes and modifications can be made within the scope of the present invention.

【0089】[0089]

【発明の効果】以上の説明から明らかな通り、本発明に
よると、人間のような複雑な構造を持つキャラクタの3
次元の動きを送受信する場合、人間の階層を骨格構造で
定義し、その構造を一部の関節の3次元仮想空間内での
移動量を時系列または代表的な動きの要素とその接続方
法を付加して送受信することで、ネットワークをベース
とした送受信系でのキャラクタの自然で滑らかな運動を
送受信でき、転送時のデータ量も大幅に減少できる。
As is apparent from the above description, according to the present invention, the character 3 having a complicated structure like a human being can be obtained.
When transmitting and receiving three-dimensional movements, the human hierarchy is defined by a skeletal structure, and the structure is defined by the amount of movement of some joints in a three-dimensional virtual space in time series or representative movement elements and their connection methods. By additionally transmitting and receiving, it is possible to transmit and receive a natural and smooth movement of the character in the transmission / reception system based on the network, and it is possible to greatly reduce the data amount at the time of transfer.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態にかかる3次元骨格構造
の動き送受信装置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a motion transmitting / receiving apparatus having a three-dimensional skeleton structure according to an embodiment of the present invention.

【図2】CGアニメーションデータ送信部の構成の一例
を示すブロック図である。
FIG. 2 is a block diagram illustrating an example of a configuration of a CG animation data transmission unit.

【図3】CGアニメーションデータ受信部の構成の一例
を示すブロック図である。
FIG. 3 is a block diagram illustrating an example of a configuration of a CG animation data receiving unit.

【図4】人間の骨格構造の階層関係の一例を示す図であ
る。
FIG. 4 is a diagram illustrating an example of a hierarchical relationship of a human skeleton structure.

【図5】骨格構造のデータ形式の一例を示す図である。FIG. 5 is a diagram illustrating an example of a data format of a skeleton structure.

【図6】骨格構造の動きの分割方法を説明するための図
である。
FIG. 6 is a diagram for explaining a method of dividing the movement of the skeletal structure.

【図7】動きの分割サブ3次元仮想空間を説明するため
の図である。
FIG. 7 is a diagram for describing a motion division sub-three-dimensional virtual space.

【図8】動きの分割サブ3次元仮想空間から運動の軌跡
への復元を説明するための図である。
FIG. 8 is a diagram for explaining restoration of a motion from a sub-three-dimensional virtual space into a motion trajectory;

【図9】サブ3次元仮想空間が与えられたときに関節の
角度に変更する方法を説明するための図である。
FIG. 9 is a diagram for explaining a method of changing to a joint angle when a sub three-dimensional virtual space is given.

【図10】人間の基本的な骨格と顔の形状とにマッピン
グする方法の一例を示す図である。
FIG. 10 is a diagram showing an example of a method of mapping a basic human skeleton and a face shape.

【図11】基本的な動きの同士の接続を説明するための
図である。
FIG. 11 is a diagram for explaining connection between basic movements.

【図12】人間の運動から動きデータを生成するシーケ
ンスの一例を説明するための図である。
FIG. 12 is a diagram for explaining an example of a sequence for generating motion data from human motion.

【図13】CG骨格構造の動きデータのスクリプト表現
の一例を説明するための図である。
FIG. 13 is a diagram illustrating an example of a script expression of motion data having a CG skeleton structure.

【図14】CG骨格構造の動きデータの送受信法の一例
を示す図である。
FIG. 14 is a diagram illustrating an example of a method of transmitting and receiving motion data having a CG skeleton structure.

【符号の説明】[Explanation of symbols]

1 CGアニメーションデータ送信部 2 CGアニメーションデータ伝送部 3 CGアニメーションデータ受信部 11 骨格構造定義部 12 動きデータ定義部 13 動き要素データ分解部 31 骨格構造定義部 32 形状データ対応付け部 33 動きデータ定義部 34 姿勢決定部 35 動き要素データ接続部 36 動き接続部DESCRIPTION OF SYMBOLS 1 CG animation data transmission part 2 CG animation data transmission part 3 CG animation data reception part 11 Skeletal structure definition part 12 Motion data definition part 13 Motion element data decomposition part 31 Skeletal structure definition part 32 Shape data correspondence part 33 Motion data definition part 34 attitude determination unit 35 motion element data connection unit 36 motion connection unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平8−180208(JP,A) 特開 平9−81782(JP,A) 特開 平10−40419(JP,A) 特開 平10−222698(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 11/60 - 17/50 G06F 13/00 JICSTファイル(JOIS)──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-8-180208 (JP, A) JP-A-9-81782 (JP, A) JP-A-10-40419 (JP, A) JP-A-10-108 222698 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00 G06T 11/60-17/50 G06F 13/00 JICST file (JOIS)

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 送信側から3次元コンピュータグラフィ
ックスにおける関節、エンドサイト及びそれらをつなぐ
セグメントからなる骨格構造の動きデータを受信側に送
信し、受信側で上記送信された骨格構造の動きデータを
もとにアニメーションを生成する装置であって、上記骨格構造を定義する階層データと、上記骨格構造の
一部分の運動を定めた基本動作データと、前記基本動作
データ間の接続方法情報とを送信する送信手段と、 上記階層データ、及び上記基本動作データと、上記接続
方法情報とを受信し、上記階層データ、及び上記基本動
作データに基づいて上記骨格構造の姿勢を決定するとと
もに、上記基本動作データを上記接続方法情報に従って
接続する受信手段と、 を備えた ことを特徴とする3次元骨格構造の動き送受信
装置。
[Claim 1] Joints and end sites in three-dimensional computer graphics from a transmitting side and connecting them
Transmits the motion data of the skeleton structure whose segments to the receiving side, a device for generating an animation based on the motion data of the transmitted skeleton structure at the receiving side, a hierarchical data for defining the skeleton structure, Of the above skeletal structure
Basic operation data defining a part of the exercise, and the basic operation
Transmitting means for transmitting connection method information between data, the hierarchical data, the basic operation data, and the connection
Receiving the method information, the hierarchical data, and the basic operation.
To determine the posture of the above skeletal structure based on crop data
In addition, the basic operation data is stored in accordance with the connection method information.
A motion transmitting / receiving apparatus having a three-dimensional skeletal structure , comprising: receiving means for connecting .
【請求項2】 送信側装置から3次元コンピュータグラ
フィックスにおける関節,エンドサイト及びそれらをつ
なぐセグメントからなる骨格構造の動きデータを受信側
に送信し、受信側で上記送信された骨格構造の動きデー
タをもとにアニメーションを生成するシステムにおける
装置であって、 上記受信側で上記骨格構造の姿勢を決定するための、上
記骨格構造を定義する階層データ、及び上記骨格構造の
一部分の運動を定めた基本動作データと、上記基本動作
データ間を接続するために利用される接続方法情報と、
を送信する送信手段、 を備えたこと を特徴とする3次元骨格構造の動き送信
置。
2. A joint, an end site and three-dimensional computer graphics in three-dimensional computer graphics are transmitted from a transmitting device.
Nag sends motion data of the skeleton structure whose segments to the receiving side, a <br/> apparatus in a system for generating an animation based on the motion data of the transmitted skeleton structure at the receiving side, the receiving Side to determine the posture of the above skeletal structure,
Hierarchical data defining the skeletal structure, and
Basic motion data that defines a part of the movement and the basic motion
Connection method information used to connect data,
Motion transmission instrumentation <br/> location of a three-dimensional skeleton structure characterized by comprising a transmission hand stage, for transmitting.
【請求項3】 3次元コンピュータグラフィックスにお
ける関節,エンドサイト及びそれらをつなぐセグメント
からなる骨格構造の動きデータを受信してアニメーショ
ンを生成するシステムにおける装置であって、 上記骨格構造を定義する階層データと、上記骨格構造の
一部分の運動を定めた基本動作データと、上記基本動作
データ間を接続するために利用される接続方法情報とを
受信する受信手段を備え、 上記階層データ、及び上記基本動作データを、上記骨格
構造の姿勢を決定する ために利用し、上記接続方法情報
を、上記基本動作データを接続するために利用する こと
を特徴とする3次元骨格構造の動き受信装置。
3. Three-dimensional computer graphics
Joints, end sites and segments connecting them
Of motion data of the skeletal structure consisting of
An apparatus for generating a skeleton structure, the hierarchical data defining the skeleton structure;
Basic motion data that defines a part of the movement and the basic motion
Connection method information used to connect data
Receiving means for receiving the hierarchical data and the basic operation data,
Used to determine the attitude of the structure, the connection method information above
The dynamic-out reception apparatus of a three-dimensional skeleton structure, characterized in that utilized to connect the basic operation data.
【請求項4】 送信側から3次元コンピュータグラフィ
ックスにおける関節、エンドサイト及びそれらをつなぐ
セグメントからなる骨格構造の動きデータを受信側に送
信し、受信側で上記送信された骨格構造の動きデータを
もとにアニメーションを生成する方法であって、 上記骨格構造を定義する階層データと、上記骨格構造の
一部分の運動を定めた基本動作データと、前記基本動作
データ間の接続方法情報とを送信するステップと、 上記階層データ、及び上記基本動作データと、上記接続
方法情報とを受信し、上記階層データ、及び上記基本動
作データとに基づいて上記骨格構造の姿勢を決定すると
ともに、上記基本動作データを上記接続方法情報に従っ
て接続するステップと、 を含むことを特徴とする3次元骨格構造の動き送受信
4. A three-dimensional computer graphic from a transmitting side.
Joints, end sites, and connecting them
Send motion data of skeleton structure consisting of segments to the receiving side
The receiver sends the transmitted skeleton structure motion data
A method for generating an animation based on the hierarchical data defining the skeletal structure;
Basic operation data defining a part of the exercise, and the basic operation
Transmitting connection method information between data, the hierarchical data, the basic operation data, and the connection
Receiving the method information, the hierarchical data, and the basic operation.
When the posture of the above skeletal structure is determined based on the work data
In both cases, the basic operation data is stored in accordance with the connection method information.
Motion transmission and reception side of the three-dimensional skeleton structure, which comprises the steps of: connecting Te
Law .
JP10045397A 1996-04-25 1997-04-17 Motion transmitting / receiving device having three-dimensional skeleton structure and motion transmitting / receiving method Expired - Lifetime JP3337938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10045397A JP3337938B2 (en) 1996-04-25 1997-04-17 Motion transmitting / receiving device having three-dimensional skeleton structure and motion transmitting / receiving method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10507796 1996-04-25
JP8-105077 1996-04-25
JP10045397A JP3337938B2 (en) 1996-04-25 1997-04-17 Motion transmitting / receiving device having three-dimensional skeleton structure and motion transmitting / receiving method

Publications (2)

Publication Number Publication Date
JPH1040418A JPH1040418A (en) 1998-02-13
JP3337938B2 true JP3337938B2 (en) 2002-10-28

Family

ID=26441478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10045397A Expired - Lifetime JP3337938B2 (en) 1996-04-25 1997-04-17 Motion transmitting / receiving device having three-dimensional skeleton structure and motion transmitting / receiving method

Country Status (1)

Country Link
JP (1) JP3337938B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410392B2 (en) 2015-01-30 2019-09-10 Dentsu Inc. Data structure for computer graphics, information processing device, information processing method and information processing system
US10916045B2 (en) 2016-03-08 2021-02-09 Dentsu Inc. Device, program, and information processing method

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6512520B1 (en) 1997-07-31 2003-01-28 Matsushita Electric Industrial Co., Ltd. Apparatus for and method of transmitting and receiving data streams representing 3-dimensional virtual space
EP0973129A3 (en) 1998-07-17 2005-01-12 Matsushita Electric Industrial Co., Ltd. Motion image data compression system
WO2000041139A1 (en) 1998-12-28 2000-07-13 Fujitsu Limited Three-dimensional skeleton data compressing device
KR20000037456A (en) * 2000-04-25 2000-07-05 박기현 A system and method for character animation through computer network
JP4011327B2 (en) * 2000-11-15 2007-11-21 株式会社レクサー・リサーチ Display object providing apparatus, display object providing method, and display object providing program
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
WO2006011153A2 (en) * 2004-07-30 2006-02-02 Extreme Reality Ltd. A system and method for 3d space-dimension based image processing
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
KR101577106B1 (en) 2009-09-21 2015-12-11 익스트림 리얼리티 엘티디. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US9436286B2 (en) * 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
JP2014504074A (en) 2011-01-23 2014-02-13 エクストリーム リアリティー エルティーディー. Method, system, apparatus and associated processing logic for generating stereoscopic 3D images and video
US9298269B2 (en) * 2014-04-10 2016-03-29 The Boeing Company Identifying movements using a motion sensing device coupled with an associative memory
WO2019167214A1 (en) * 2018-03-01 2019-09-06 株式会社ソニー・インタラクティブエンタテインメント Estimation device, estimation method and program
JP6506443B1 (en) * 2018-04-27 2019-04-24 株式会社 ディー・エヌ・エー Image generation apparatus and image generation program
JP2020065229A (en) * 2018-10-19 2020-04-23 西日本電信電話株式会社 Video communication method, video communication device, and video communication program
CN111773700A (en) * 2020-07-24 2020-10-16 网易(杭州)网络有限公司 Animation data processing method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410392B2 (en) 2015-01-30 2019-09-10 Dentsu Inc. Data structure for computer graphics, information processing device, information processing method and information processing system
US10916045B2 (en) 2016-03-08 2021-02-09 Dentsu Inc. Device, program, and information processing method

Also Published As

Publication number Publication date
JPH1040418A (en) 1998-02-13

Similar Documents

Publication Publication Date Title
JP3337938B2 (en) Motion transmitting / receiving device having three-dimensional skeleton structure and motion transmitting / receiving method
US6222560B1 (en) Transmitter-receiver of three-dimensional skeleton structure motions and method thereof
US6961060B1 (en) Virtual space control data receiving apparatus,virtual space control data transmission and reception system, virtual space control data receiving method, and virtual space control data receiving program storage media
Zhao A survey on virtual reality
US7057619B2 (en) Methods and system for general skinning via hardware accelerators
US6414684B1 (en) Method for communicating and generating computer graphics animation data, and recording media
Lau et al. Emerging web graphics standards and technologies
Li et al. VSculpt: a distributed virtual sculpting environment for collaborative design
Tang et al. Streaming 3D shape deformations in collaborative virtual environment
Wu et al. Solid model streaming as a basis for a distributed design environment
JPH1040419A (en) Method for transmitting, receiving and generating computer graphics animation data, and recording medium
Li et al. Collaborative distributed virtual sculpting
Preda et al. Virtual character definition and animation within the MPEG-4 standard
WO2005076226A1 (en) Animation techniques using quaternions
Preda et al. Virtual character within mpeg-4 animation framework extension
Faure et al. Collaborative animation over the network
Di Giacomo et al. Adaptation of virtual human animation and representation for MPEG
Gutiérrez et al. A mpeg-4 virtual human animation engine for interactive web based applications
Preda et al. Insights into low-level avatar animation and MPEG-4 standardization
CN115937371B (en) Character model generation method and system
Bernardini et al. An efficient network protocol for virtual worlds browsing
Li et al. Web-based interactive design of freeform motions
Gürel Turkish sign language animation with articulated body model
Wang et al. Generation and manipulation of h-anim CAESAR scan bodies
Abdul-Jalil The development of a collaborative virtual environment for finite element simulation

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070809

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080809

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080809

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090809

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090809

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100809

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110809

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110809

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120809

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130809

Year of fee payment: 11

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term