JPH11102450A - Device and method for transmitting and receiving data stream showing three-dimensional virtual space - Google Patents

Device and method for transmitting and receiving data stream showing three-dimensional virtual space

Info

Publication number
JPH11102450A
JPH11102450A JP21526398A JP21526398A JPH11102450A JP H11102450 A JPH11102450 A JP H11102450A JP 21526398 A JP21526398 A JP 21526398A JP 21526398 A JP21526398 A JP 21526398A JP H11102450 A JPH11102450 A JP H11102450A
Authority
JP
Japan
Prior art keywords
stream
sound
data
shape
pcc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP21526398A
Other languages
Japanese (ja)
Other versions
JP3338382B2 (en
Inventor
Toshiya Naka
俊弥 中
Yoshiyuki Mochizuki
義幸 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP21526398A priority Critical patent/JP3338382B2/en
Publication of JPH11102450A publication Critical patent/JPH11102450A/en
Application granted granted Critical
Publication of JP3338382B2 publication Critical patent/JP3338382B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To decrease the quantity of data to be transferred by transferring sound data which accompany the movements of a skeleton structure via a sound stream together with a synchronizing method, a compressing method or the respective inter-stream correspondence information. SOLUTION: A three-dimensional virtual space generation part 4 is connected to a 3DCG data stream receiving part 3, via a data bus and receives the input of a 3DCG data stream DS from the part 3. Then the part 4 generates 3DCG showing a three-dimensional space, based on the stream DS and also generates a sound data stream Sa. A sound generation part 5 is connected to the part 4 via a signal line and obtains the input of the stream Sa to reproduce the voices. In other words, a device 100 simultaneously transmits plural 3DCG data streams which construct an encoding data stream DS1 via a 3DCG data stream transmitting part 1. A client part PCC generates a 3D animation, including the voices based on the stream DS which are received via a sending part TR.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元コンピュー
タグラフィックス(以下、「3DCG」と呼ぶ)によっ
て表現される3次元仮想空間を形成するデータストリー
ムの送受信システム、更に詳述すれば、人間などの複雑
な骨格構造を持つキャラクタの自然な動きを効率良く送
受信するための3次元骨格構造体を表すデータストリー
ムを送受信する装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system for transmitting and receiving a data stream that forms a three-dimensional virtual space represented by three-dimensional computer graphics (hereinafter referred to as "3DCG"). The present invention relates to an apparatus and a method for transmitting and receiving a data stream representing a three-dimensional skeleton structure for efficiently transmitting and receiving a natural movement of a character having a complicated skeleton structure.

【0002】[0002]

【従来の技術】近年、3DCGの利用分野として、WW
W(World-Wide Web)などのインターネット上での仮想
商店(Virtual Mall)、電子取引(Electronic Commerc
e)及びそれらに関連する各種ホームページなどが注目
されている。特に、インターネットの急速な発達によっ
て、ゲームや映画などの比較的高品位な3DCGを家庭
内で手軽に扱う環境が整いつつある。
2. Description of the Related Art In recent years, as a field of application of 3DCG,
Virtual malls (Virtual Mall) and electronic commerce (Electronic Commerc) on the Internet such as W (World-Wide Web)
e) and related homepages are attracting attention. In particular, due to the rapid development of the Internet, an environment for easily handling relatively high-quality 3DCG such as games and movies in a home is being prepared.

【0003】図8に示すように、WWW等では、インタ
ーネットを介して、パーソナルコンピュータやワークス
テーションなどのサーバと呼ばれるマシンPCSに、パ
ーソナルコンピュータなどの複数のクライアントPCC
1〜PCCnと呼ばれるマシンが接続されている。そし
て、クライアントは、必要に応じてサーバからダウンロ
ードした画像、音声、テキスト及び配置情報等を再構築
して、サーバから発信された情報を得ることができる。
このサーバとクライアント間の通信には、通常、TCP
/IP(Transmission Control Protocol/Internet Pro
tocol)に基づく通信方法が採用される。
As shown in FIG. 8, in the WWW or the like, a plurality of client PCCs such as personal computers are connected to a machine PCS called a server such as a personal computer or a workstation via the Internet.
1 to PCCn are connected. Then, the client can obtain information transmitted from the server by reconstructing the image, sound, text, arrangement information, and the like downloaded from the server as needed.
This communication between the server and the client usually uses TCP
/ IP (Transmission Control Protocol / Internet Pro
tocol).

【0004】従来、サーバ側から提供されるデータは、
主として、テキストデータ及び画像データのみであった
が、最近ではVRML(Virtual Reality Modeling Lan
guage)や、VRMLのブラウザの標準化が進み、形
状、シーンなどの3DCGデータそのものを転送しよう
とする動きがある。
Conventionally, data provided from the server side is:
It mainly consisted of only text data and image data, but recently, VRML (Virtual Reality Modeling Lan
guage) and VRML browsers have been standardized, and there is a movement to transfer 3DCG data itself such as shapes and scenes.

【0005】前記VRMLについて簡単に説明する。H
TML(Hypertext Markup Language)などのように、
画像およびテキストを主体とする従来のデータ形式で
は、画像データ、特に、動画データを転送するのに膨大
な転送時間と転送コストが必要である。そのため、現状
の装置では、ネットワークトラフィックの制約がある。
これに対し、3DCGでは、形状を含めて視点情報や光
源情報などの全てを3次元データで処理しているが、近
年のコンピュータグラフィックス(以下、「CG」と呼
ぶ)技術の進歩により、CGで作成した画像の画質が急
速に向上している。そのため、CGデータをそのまま転
送する方がデータ量の点からも非常に効率が良い。
[0005] The VRML will be briefly described. H
Like TML (Hypertext Markup Language)
In the conventional data format mainly composed of images and texts, enormous transfer time and transfer cost are required to transfer image data, especially moving image data. For this reason, current devices have restrictions on network traffic.
On the other hand, in 3DCG, all of the viewpoint information and light source information, including the shape, are processed using three-dimensional data. However, due to recent advances in computer graphics (hereinafter referred to as “CG”) technology, The image quality of the image created by is rapidly improving. Therefore, transferring the CG data as it is is much more efficient in terms of data amount.

【0006】通常、CGデータは、従来の画像データの
1/100以下のデータ量で、従来と同等品質の画像を
表現できる、つまりCGデータは従来の画像データの1
00倍以上の圧縮率を有している。そのため、ネットワ
ークを介する画像データ送信に、CGデータを、特に3
DCGデータを標準として用いる動きが起こりつつあ
る。このような3DCGデータ転送の標準化の取り組み
の一つとして、前記のVRMLが提案されている(VR
ML Ver2.0)。VRML Ver 2.0では、プリミティブ
と呼ぶ形状データ、および各種の光源データ、視点デー
タ、テクスチャデータなどのデータフォーマット、並び
に剛体の移動の指定方法などを規定している。このよう
な、データフォーマットを便宜上VRフォーマット(V
RF)と呼ぶ。
Normally, CG data can express an image of the same quality as the conventional image data with a data amount of 1/100 or less of the conventional image data.
It has a compression ratio of 00 or more. Therefore, CG data, especially 3
There is a move to use DCG data as a standard. As one of the efforts for standardization of such 3DCG data transfer, the aforementioned VRML has been proposed (VR
ML Ver2.0). VRML Ver 2.0 defines shape data called primitives, various light source data, viewpoint data, texture data, and other data formats, and a method of specifying rigid body movement. Such a data format is referred to as a VR format (V
RF).

【0007】一方、従来のCG分野で最近注目されてい
るのが、リアルタイムで画像を生成するアニメーション
技術である。このリアルタイムのアニメーション技術を
用いることで、CMや映画を中心にCGキャラクタのリ
アルな動きを再現する工夫がなされている。その一つと
して人間などの複雑な形状を骨格構造で表し、時々刻々
変化する骨格の関節の移動量を定義することで、複雑な
動きを自然に再現できる。
On the other hand, an animation technique for generating an image in real time has recently attracted attention in the conventional CG field. By using this real-time animation technique, a device has been devised to reproduce the real movement of the CG character mainly in commercials and movies. As one of them, a complex shape such as a human is represented by a skeletal structure, and a complex movement can be reproduced naturally by defining a movement amount of a joint of the skeleton which changes every moment.

【0008】[0008]

【発明が解決しようとする課題】このようなVRMLを
中心とする従来のインターネット環境で用いられていた
3DCGモデリング言語では、人間などの複雑な構造を
持つ形状にリアルタイムで動作を設定することができな
かった。また、ネットワークを介した仮想の空間内で複
数のユーザが仮想の3次元空間を共有し、その空間内で
お互いの化身(Avatar)をインターラクティブに操作し
合うこともできなかった。また、仮想の3次元空間内の
化身(以下、「アバタ」と呼ぶ)の動作に同期した形で
音声や音楽をリアルタイムで送信又は受信することがで
きないのが実情であった。そこで、本発明は、通信路を
介して人間などの複雑な構造を持つ形状にリアルタイム
で動作を設定することを可能にし、又、ネットワークを
介した仮想の空間内で複数のユーザが仮想の3次元空間
を共有し、その空間内でお互いのアバタをインターラク
ティブに操作し合うことを可能にする。また、仮想の3
次元空間内のアバタの動作に同期した形で、音声や音楽
をリアルタイムで送信又は受信することを可能にするよ
うに、3次元仮想空間を表すデータストリームを送信又
は受信する装置及び方法を提供することを目的とする。
In the 3DCG modeling language used in the conventional Internet environment centered on such VRML, it is possible to set an operation in real time in a shape having a complicated structure such as a human. Did not. Further, a plurality of users share a virtual three-dimensional space in a virtual space via a network, and cannot interactively operate each other's incarnation (Avatar) in the space. Further, in reality, voice or music cannot be transmitted or received in real time in a manner synchronized with the operation of an incarnation (hereinafter, referred to as an “avatar”) in a virtual three-dimensional space. Therefore, the present invention makes it possible to set an operation in real time in a shape having a complicated structure such as a human through a communication path, and to allow a plurality of users to operate in a virtual space via a network. Sharing a dimensional space, it is possible to interact with each other's avatars in that space. In addition, virtual 3
Provided are an apparatus and method for transmitting or receiving a data stream representing a three-dimensional virtual space so as to allow voice or music to be transmitted or received in real time in a manner synchronized with the operation of an avatar in the three-dimensional space. The purpose is to:

【0009】[0009]

【課題を解決するための手段】この目的を達成するため
に、本発明は、送信部と、受信部と、該送信部と該受信
部とを接続する伝送手段とを備えて、送信部から3次元
コンピューターグラフィックスにおける骨格構造の形状
を示すデータストリームである形状ストリーム、動きを
示すデータストリームである動作ストリーム及び該動き
と同期する音を示すデータストリームである音ストリー
ムを受信部に送信し、該受信部では送信された該動作ス
トリーム及び該音ストリームを同期させて3次元コンピ
ュータグラフィックスを生成するように、3次元仮想空
間を表すデータストリームを送受信する装置であって、
該送信部は、該形状ストリーム、動作ストリーム、及び
該動作ストリームに同期する音ストリームを予め決めら
れたデータストリームのフォーマットに応じて複数のス
トリームとして同時に送信する送信手段を有し、伝送手
段は、該複数のストリームを該送信部から該受信部に伝
送すると共に、該受信部は、該伝送手段を経由して該送
信部から伝送されてきた該複数のストリームを受信する
と共に、受信したストリームの種類およびフォーマット
を判別し、複数のストリームを受信し、それぞれの判別
されたストリームに応じて必要な復元処理をストリーム
に加えるデータストリーム受信手段と、該受信部で受信
した該ストリームのうち形状ストリーム或いは予め読み
込まれた3次元形状データを用いて3次元仮想空間内に
骨格構造の形状あるいは3次元仮想空間を生成し、更に
動作ストリームを用いて該骨格構造の形状を動かす3次
元仮想空間生成手段と、該ストリームに音データが含ま
れる場合は該骨格構造の動きに同期させて音データを再
生する音再生手段とを有することを特徴とする3次元仮
想空間を表すデータストリームを送受信する装置を提供
する。
In order to achieve this object, the present invention provides a transmitting unit, a receiving unit, and a transmitting unit for connecting the transmitting unit and the receiving unit. A shape stream, which is a data stream indicating the shape of the skeletal structure in the three-dimensional computer graphics, an operation stream, which is a data stream indicating motion, and a sound stream, which is a data stream indicating sound synchronized with the motion, are transmitted to the receiving unit. The receiving unit is a device for transmitting and receiving a data stream representing a three-dimensional virtual space, such that the transmitted operation stream and the sound stream are synchronized to generate three-dimensional computer graphics,
The transmitting unit has a transmitting unit that simultaneously transmits the shape stream, the operation stream, and a sound stream synchronized with the operation stream as a plurality of streams in accordance with a format of a predetermined data stream. The plurality of streams are transmitted from the transmission unit to the reception unit, and the reception unit receives the plurality of streams transmitted from the transmission unit via the transmission unit, and transmits the received streams. A data stream receiving unit that determines a type and a format, receives a plurality of streams, and performs necessary restoration processing on the streams according to each of the determined streams; and a shape stream or a shape stream among the streams received by the receiving unit. The shape of the skeleton structure is stored in the three-dimensional virtual space using the three-dimensional shape data read in advance. Or a three-dimensional virtual space generating means for generating a three-dimensional virtual space and further moving the shape of the skeletal structure using a motion stream, and in synchronism with the movement of the skeletal structure when the stream contains sound data. An apparatus for transmitting and receiving a data stream representing a three-dimensional virtual space, comprising: a sound reproducing unit that reproduces sound data.

【0010】更に、本発明は、送信部と、受信部と、該
送信部と該受信部とを双方向に接続する伝送手段とを備
えて、送信部から3次元コンピューターグラフィックス
における骨格構造の形状を示すデータストリームである
形状ストリーム、動きを示すデータストリームである動
作ストリーム及び該動きと同期する音を示すデータスト
リームである音ストリームを受信部に送信し、該受信部
では送信された該動作ストリーム及び該音ストリームを
同期させて3次元コンピュータグラフィックスを生成す
るように、3次元仮想空間を表すデータストリームを送
受信する装置であって、該送信部は、該受信部からの要
求に応じて、リアルタイムに該形状ストリーム、動作ス
トリーム、及び該動作ストリームに同期する音ストリー
ムを予め決められたデータストリームのフォーマットに
応じて複数のストリームとして同時に送信する送信手段
を有し、伝送手段は、該複数のストリームを該送信部か
ら該受信部に対話的に伝送すると共に、該受信部は、該
伝送手段を経由して該送信部から伝送されてきた該複数
のストリームを受信すると共に、受信したストリームの
種類およびフォーマットを判別し、複数のストリームを
必要に応じてリアルタイムに受信し、それぞれの判別さ
れたストリームに応じて必要な復元処理をストリームに
加えるデータストリーム受信手段と、該受信部で受信し
た該ストリームのうち形状ストリーム或いは予め読み込
まれた3次元形状データを用いて3次元仮想空間内に骨
格構造の形状あるいは3次元仮想空間を生成し、更に動
作ストリームを用いて該骨格構造の形状を動かす3次元
仮想空間生成手段と、該ストリームに音データが含まれ
る場合は該骨格構造の動きに同期させて音データを再生
する音再生手段とを有することを特徴とする3次元仮想
空間を表すデータストリームを送受信する装置を提供す
る。
Further, the present invention comprises a transmitting section, a receiving section, and transmission means for connecting the transmitting section and the receiving section bidirectionally, and the transmitting section has a skeleton structure in three-dimensional computer graphics. A shape stream, which is a data stream indicating a shape, an operation stream, which is a data stream indicating a motion, and a sound stream, which is a data stream indicating a sound synchronized with the motion, are transmitted to a receiving unit. An apparatus for transmitting and receiving a data stream representing a three-dimensional virtual space so as to generate three-dimensional computer graphics by synchronizing the stream and the sound stream, wherein the transmitting unit responds to a request from the receiving unit The shape stream, the motion stream, and the sound stream synchronized with the motion stream are determined in advance in real time. Transmitting means for simultaneously transmitting the plurality of streams as a plurality of streams according to the format of the data stream, wherein the transmitting means interactively transmits the plurality of streams from the transmitting section to the receiving section, and the receiving section comprises Receiving the plurality of streams transmitted from the transmitting unit via the transmission means, determining the type and format of the received stream, receiving the plurality of streams in real time as necessary, and determining each of the streams; A data stream receiving means for applying necessary restoration processing to the stream in accordance with the stream, and a three-dimensional virtual space using a shape stream or pre-read three-dimensional shape data among the streams received by the receiving unit. Generate the shape of the skeletal structure or a three-dimensional virtual space, and further use the motion stream to A three-dimensional virtual space generating means for moving the shape, and a sound reproducing means for reproducing the sound data in synchronism with the movement of the skeletal structure when the stream includes sound data. Device for transmitting and receiving a data stream representing

【0011】又、本発明は、送信部から3次元コンピュ
ーターグラフィックスにおける骨格構造の形状を示すデ
ータストリームである形状ストリーム、動きを示すデー
タストリームである動作ストリーム及び該動きと同期す
る音を示す音ストリームを受信部に送信し、該受信部で
は送信された該動作ストリームと該音ストリームを同期
させて3次元コンピュータグラフィックスを生成するよ
うに、3次元仮想空間を表すデータストリームを送受信
する方法であって、該形状ストリーム、該動作ストリー
ム、及び該動作ストリームに同期する該音ストリームを
予め決められたデータストリームのフォーマットに応じ
て複数のストリームとして同時に送信する送信ステップ
と、該送信部と該受信部とを接続して、該複数のストリ
ームを該送信部から該受信部に伝送する伝送ステップ
と、該伝送された該複数のストリームを受信すると共
に、受信したストリームの種類およびフォーマットを判
別し、複数のストリームを受信し、それぞれの判別され
たストリームに応じてストリームの復元処理を行うデー
タストリーム受信ステップと、該受信部で受信した該ス
トリームのうち形状ストリーム或いは予め読み込まれた
3次元形状データを用いて3次元仮想空間内に骨格構造
の形状或いは3次元仮想空間を生成し、更に動作ストリ
ームを用いて骨格構造の形状を動かす3次元仮想空間生
成ステップと、該ストリームに音データが含まれる場合
は、該骨格構造の動きに同期させて音データを再生する
音再生ステップとを含むことを特徴とする3次元仮想空
間を表すデータストリームを送受信する方法を提供す
る。
The present invention also provides a shape stream, which is a data stream indicating the shape of a skeletal structure in three-dimensional computer graphics, a motion stream, which is a data stream indicating motion, and a sound indicating sound synchronized with the motion. A stream is transmitted to a receiving unit, and the receiving unit transmits and receives a data stream representing a three-dimensional virtual space so that the transmitted operation stream and the sound stream are synchronized to generate three-dimensional computer graphics. A transmitting step of simultaneously transmitting the shape stream, the operation stream, and the sound stream synchronized with the operation stream as a plurality of streams according to a predetermined data stream format; and Unit to connect the plurality of streams to the transmitting unit. A transmitting step of transmitting to the receiving unit, receiving the transmitted plurality of streams, determining the type and format of the received stream, receiving the plurality of streams, and responding to each determined stream. A data stream receiving step of performing a stream restoration process, and a skeleton structure shape or a three-dimensional virtual shape in a three-dimensional virtual space using a shape stream or pre-read three-dimensional shape data of the stream received by the receiving unit. A three-dimensional virtual space generating step of generating a space and further moving the shape of the skeletal structure using the motion stream; and, if the stream contains sound data, reproducing the sound data in synchronization with the movement of the skeletal structure. Transmitting and receiving a data stream representing a three-dimensional virtual space, comprising: The law provides.

【0012】更に、本発明は、送信部から3次元コンピ
ューターグラフィックスにおける骨格構造の形状を示す
データストリームである形状ストリーム、動きを示すデ
ータストリームである動作ストリーム及び該動きと同期
する音を示す音ストリームを受信部に送信し、該受信部
では送信された該動作ストリームと該音ストリームを同
期させて3次元コンピュータグラフィックスを生成する
ように、3次元仮想空間を表すデータストリームを送受
信する方法であって、該受信部からの要求に応じて、リ
アルタイムに該形状ストリーム、該動作ストリーム、及
び該動作ストリームに同期する該音ストリームを予め決
められたデータストリームのフォーマットに応じて複数
のストリームとして同時に送信する送信ステップと、該
送信部と該受信部とを双方向に接続して、該複数のスト
リームを該送信部から該受信部に対話的に伝送する伝送
ステップと、該伝送された該複数のストリームを受信す
ると共に、受信したストリームの種類およびフォーマッ
トを判別し、複数のストリームをリアルタイムに受信
し、それぞれの判別されたストリームに応じてストリー
ムの復元処理を行うデータストリーム受信ステップと、
該受信部で受信した該ストリームのうち形状ストリーム
或いは予め読み込まれた3次元形状データを用いて3次
元仮想空間内に骨格構造の形状或いは3次元仮想空間を
生成し、更に動作ストリームを用いて骨格構造の形状を
動かす3次元仮想空間生成ステップと、該ストリームに
音データが含まれる場合は、該骨格構造の動きに同期さ
せて音データを再生する音再生ステップとを含むことを
特徴とする3次元仮想空間を表すデータストリームを送
受信する方法を提供する。
The present invention further provides a shape stream, which is a data stream indicating the shape of a skeleton structure in three-dimensional computer graphics, a motion stream, which is a data stream indicating motion, and a sound indicating sound synchronized with the motion. A stream is transmitted to a receiving unit, and the receiving unit transmits and receives a data stream representing a three-dimensional virtual space so that the transmitted operation stream and the sound stream are synchronized to generate three-dimensional computer graphics. Then, in response to a request from the receiving unit, the shape stream, the operation stream, and the sound stream synchronized with the operation stream are simultaneously converted into a plurality of streams according to a predetermined data stream format in real time. Transmitting step of transmitting, the transmitting unit and the receiving unit Bi-directionally connecting and transmitting the plurality of streams interactively from the transmitting unit to the receiving unit; and receiving the plurality of transmitted streams and the type and format of the received streams. A data stream receiving step of receiving a plurality of streams in real time and performing a stream restoration process according to each of the determined streams;
A shape of a skeletal structure or a three-dimensional virtual space is generated in a three-dimensional virtual space using a shape stream or three-dimensional shape data read in advance among the streams received by the receiving unit, and a skeleton is generated using an operation stream. A step of generating a three-dimensional virtual space that moves the shape of the structure, and a step of reproducing the sound data in synchronization with the movement of the skeletal structure when the stream includes sound data. A method for transmitting and receiving a data stream representing a dimensional virtual space is provided.

【0013】[0013]

【発明の実施の形態】以下、本発明の一実施形態を添付
の図面を参照して詳細に説明する。先ず、図1に、本発
明の一実施形態にかかる、3次元仮想空間を表すデータ
ストリームを送受信する装置100の最小構成例を示
す。装置100は、送信側のサーバー部PCSと、受信
側のクライアント部PCCと、両者を繋ぐ伝送部TRか
ら構成される。なお、サーバー部PCSは、通常外部に
設けられたストリームオーサリング手段によって入力さ
れたユーザーの指示にしたがって、3次元仮想空間を表
す3DCGデータストリームを生成する。このストリー
ムオーサリング手段の動作については、後で説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the accompanying drawings. First, FIG. 1 shows a minimum configuration example of an apparatus 100 for transmitting and receiving a data stream representing a three-dimensional virtual space according to an embodiment of the present invention. The device 100 includes a server unit PCS on the transmission side, a client unit PCC on the reception side, and a transmission unit TR connecting the two. The server unit PCS generates a 3DCG data stream representing a three-dimensional virtual space according to a user's instruction normally input by a stream authoring unit provided outside. The operation of the stream authoring means will be described later.

【0014】サーバー部PCSは、ユーザのアバタ(化
身)を含む3次元仮想空間を形成する3DCGデータス
トリームDSをエンコード(フォーマット変換)して、
エンコードデータストリームDS1を生成する。なお、
後で図4及び図5及び図11を参照して、3DCGデー
タストリームDS及びエンコードデータストリームDS
1のフォーマットVRFについて説明する。
The server PCS encodes (format converts) the 3DCG data stream DS forming a three-dimensional virtual space including the avatar (incarnation) of the user,
Generate an encoded data stream DS1. In addition,
4 and 5 and 11, the 3DCG data stream DS and the encoded data stream DS
One format VRF will be described.

【0015】伝送部TRは送信側のサーバー部PCSと
受信側のクライアント部PCCを双方向に接続して、エ
ンコードデータストリームDS1をサーバー部PCSか
らクライアント部PCCに伝送すると共に、クライアン
ト部PCCから入力される3DCGデータに関する変更
データをサーバー部PCSに伝送する。つまり、サーバ
ー部PCSは、入力されたエンコードデータストリーム
DS1を再フォーマット変換して3DCGデータストリ
ームDSをデコード(逆フォーマット変換)し、そして
3次元仮想空間を表す3DCG画像を再現する。なお、
同様に、ユーザーがサーバー部PCSで、自身のアバタ
を操作して、3次元仮想空間に変化を生ぜしめた場合に
は、サーバー部PCSはその変化を表す画像変更データ
DMを生成して、伝送部TRを経由してクライアント部
PCCに送信する。
The transmission unit TR bidirectionally connects the server unit PCS on the transmission side and the client unit PCC on the reception side, transmits the encoded data stream DS1 from the server unit PCS to the client unit PCC, and inputs from the client unit PCC. The changed data relating to the 3DCG data to be transmitted is transmitted to the server PCS. That is, the server unit PCS reformat-converts the input encoded data stream DS1, decodes (reverse-format converts) the 3DCG data stream DS, and reproduces a 3DCG image representing a three-dimensional virtual space. In addition,
Similarly, when the user operates his / her avatar on the server PCS to cause a change in the three-dimensional virtual space, the server PCS generates and transmits image change data DM representing the change. The data is transmitted to the client PCC via the unit TR.

【0016】通常、サーバー部PCSとクライアント部
PCCは、それぞれワークステーションやパーソナルコ
ンピュータに代表されるコンピュータ装置内に、主にソ
フトウェアによって実現される。サーバー部PCSは3
DCGデータストリーム送信部1を備え、伝送部TRは
3DCGデータストリーム伝送部2を備える。そして、
クライアント部PCCは、3DCGデータストリーム受
信部3、3次元仮想空間生成部4、及び音生成部5を備
える。3次元仮想空間生成部4は3DCGデータストリ
ーム受信部3とデータバスで接続されて、3DCGデー
タストリーム受信部3から3DCGデータストリームD
Sの入力を受ける。
Normally, the server section PCS and the client section PCC are each realized mainly by software in a computer device represented by a workstation or a personal computer. Server part PCS is 3
The transmission unit TR includes a 3D CG data stream transmission unit 2. And
The client unit PCC includes a 3DCG data stream receiving unit 3, a three-dimensional virtual space generating unit 4, and a sound generating unit 5. The three-dimensional virtual space generating unit 4 is connected to the 3DCG data stream receiving unit 3 via a data bus, and receives a 3DCG data stream D from the 3DCG data stream receiving unit 3.
S input is received.

【0017】3次元仮想空間生成部4は、3DCGデー
タストリームDSに基づいて、3次元仮想空間を表す3
DCGを生成すると共に、音データストリームSaを生
成する。音生成部5は信号線で3次元仮想空間生成部4
に接続されて、音データストリームSaの入力を得て音
声を再生する。
The three-dimensional virtual space generator 4 generates a three-dimensional virtual space based on the 3DCG data stream DS.
A DCG is generated, and a sound data stream Sa is generated. The sound generation unit 5 is composed of a signal line and a three-dimensional virtual space generation unit 4.
To receive the input of the sound data stream Sa and reproduce the sound.

【0018】つまり、装置100は、3DCGデータス
トリーム送信部1からエンコードデータストリームDS
1を構成する複数の3DCGデータストリームを同時に
送信する。クライアント部PCCは、伝送部TRを経由
して受信した複数の3DCGデータストリームに基づい
て、音声を含む3Dアニメーションを生成する。
That is, the apparatus 100 transmits the encoded data stream DS from the 3DCG data stream transmitting unit 1.
1 are transmitted at the same time. The client PCC generates a 3D animation including audio based on the plurality of 3DCG data streams received via the transmission unit TR.

【0019】本例では、前記の如く装置100の最小構
成、つまり一つのサーバー部PCSに対して、伝送部T
Rを介して一つのクライアント部PCCが接続されてい
る図1のシングルユーザネットワークの例について説明
したが、図8のマルチユーザネットワークに示すよう
に、伝送部TRを介して複数のクライアント部PCCn
(nは自然数)を接続してもよいことは言うまでもな
い。
In this example, as described above, the minimum configuration of the apparatus 100, that is, the transmission unit T
Although the example of the single-user network of FIG. 1 in which one client unit PCC is connected via R has been described, as shown in the multi-user network of FIG. 8, a plurality of client units PCCn are connected via the transmission unit TR.
(N is a natural number).

【0020】図2に、サーバー部PCS内に構成される
3DCGデータストリーム送信部1の構成例を示す。3
DCGデータストリーム送信部1は、双方向信号線で3
DCGデータストリーム伝送部2に接続されて、クライ
アント部PCC及びサーバー部PCSの双方で生成され
るリクエスト信号Srを交換する。3DCGデータスト
リーム送信部1は、アバタの骨格データストリームSs
を生成する骨格構造ストリーム送信部11、アバタの動
きデータストリームSmを生成する動きストリーム送信
部12、アバタの音データストリームSaを生成する音
ストリーム送信部13、アバタの各データストリームS
s、Sm、及びSaを所定のフォーマットに変換するエ
ンコード処理を行うストリーム変換部14、およびクラ
イアントのID及びアバタの状態等の装置100内の状
態管理処理を行う状態管理部15を備えている。
FIG. 2 shows an example of the configuration of the 3DCG data stream transmitting section 1 configured in the server section PCS. 3
The DCG data stream transmission unit 1 uses 3
It is connected to the DCG data stream transmission unit 2 and exchanges request signals Sr generated by both the client PCC and the server PCS. The 3DCG data stream transmission unit 1 generates an avatar skeleton data stream Ss
, A skeleton stream transmitting unit 11 for generating an avatar motion data stream Sm, a sound stream transmitting unit 13 for generating an avatar sound data stream Sa, and an avatar data stream S
A stream conversion unit 14 performs an encoding process for converting s, Sm, and Sa into a predetermined format, and a state management unit 15 performs a state management process in the apparatus 100 such as a client ID and an avatar state.

【0021】ストリーム変換部14は、骨格構造ストリ
ーム送信部11と3DCGデータストリーム伝送部2の
両方と双方向接続されて、アバタの骨格データストリー
ムSsを骨格データストリームSs1にエンコードして
3DCGデータストリーム伝送部2に供給する。同様
に、ストリーム変換部14は、動きストリーム送信部1
2と3DCGデータストリーム伝送部2とも双方向接続
されて、アバタの動きデータストリームSmを動きデー
タストリームSm1にエンコードして3DCGデータス
トリーム伝送部2に供給する。更に、ストリーム変換部
14は、音ストリーム送信部13と3DCGデータスト
リーム伝送部2と双方に接続されて、音データストリー
ムSaを音データストリームSa1にエンコードして、
3DCGデータストリーム伝送部2に供給する。
The stream converter 14 is bidirectionally connected to both the skeletal structure stream transmitter 11 and the 3D CG data stream transmitter 2, and encodes the avatar skeletal data stream Ss into the skeletal data stream Ss1 to transmit the 3D CG data stream. Supply to section 2. Similarly, the stream conversion unit 14 includes the motion stream transmission unit 1
The avatar motion data stream Sm is also bidirectionally connected to the 2D and 3D CG data stream transmitting unit 2 to encode the avatar's motion data stream Sm1 and supply it to the 3D CG data stream transmitting unit 2. Further, the stream converter 14 is connected to both the sound stream transmitter 13 and the 3DCG data stream transmitter 2, and encodes the sound data stream Sa into a sound data stream Sa1,
The data is supplied to the 3DCG data stream transmission unit 2.

【0022】3DCGデータストリーム送信部1は、ク
ライアント部PCCから送信されて来たリクエスト信号
Srに応じて、骨格構造ストリーム送信部11から骨格
データストリームSsを、動きストリーム送信部12か
ら動きデータストリームSmを、そして音ストリーム送
信部13から音データストリームSaを生成させて、そ
れぞれをストリーム変換部14に対して出力させる。骨
格データストリームSsは、骨格構造の階層関係を定義
する階層データ、及びこの階層データの初期状態、骨格
の関節の状態、骨格に対応付ける形状、骨格構造との対
応関係を示す情報を含む。動きデータストリームSm
は、骨格構造の基本となる動き情報を含む。音データス
トリームSaは、動きデータストリームSmの表す動き
情報に同期する音を表す情報を含む。
The 3DCG data stream transmitting section 1 receives the skeleton data stream Ss from the skeleton structure stream transmitting section 11 and the motion data stream Sm from the motion stream transmitting section 12 in response to the request signal Sr transmitted from the client PCC. And a sound data stream Sa is generated from the sound stream transmission unit 13, and each is output to the stream conversion unit 14. The skeleton data stream Ss includes hierarchical data that defines the hierarchical relationship of the skeleton structure, and information indicating the initial state of the hierarchical data, the state of the joints of the skeleton, the shape associated with the skeleton, and the correspondence relationship with the skeleton structure. Motion data stream Sm
Contains motion information that is the basis of the skeletal structure. The sound data stream Sa includes information representing a sound synchronized with the motion information represented by the motion data stream Sm.

【0023】ストリーム変換部14は、これらのデータ
ストリームSs、Sm、及びSaのそれぞれに固有の識
別情報を付与して、異なるフォーマットの骨格データス
トリームSs1、動きデータストリームSm1、及び音
データストリームSa1を生成して3DCGデータスト
リーム伝送部2に出力する。なお、これらデータストリ
ームSs1、Sm1、及びSa1のフォーマットとして
は、前述のように好ましくは、VRMLのフォーマット
或いはVRMLフォーマットを拡張した形式を用いる。
なお、VRMLフォーマットについてはVRML Ver.
2.0として規格化されている。また、ストリームで送る
必要のないCG形状データは、通常のHTTP(Hypert
ext Markup Language)に従ってネットワーク経由で予
め転送するか、ローカルのマシン上のファイルから読込
んでもよい。
The stream converter 14 adds unique identification information to each of the data streams Ss, Sm, and Sa to convert the skeletal data stream Ss1, motion data stream Sm1, and sound data stream Sa1 of different formats. Generate and output to the 3DCG data stream transmission unit 2. As a format of the data streams Ss1, Sm1, and Sa1, as described above, a VRML format or a format obtained by extending the VRML format is preferably used.
The VRML format is VRML Ver.
It is standardized as 2.0. CG shape data that does not need to be transmitted in a stream is stored in a normal HTTP (Hypert
ext Markup Language) and may be transferred in advance via a network or read from a file on a local machine.

【0024】図3に、3DCGデータストリーム受信部
3の詳細な構造を示す。3DCGデータストリーム受信
部3は、3DCGデータストリーム送信部1と同様に、
3DCGデータストリーム伝送部2と双方向に接続され
て、リクエスト信号Srを交換する。3DCGデータス
トリーム受信部3は、ストリーム変換部31、骨格構造
ストリーム受信部32、動きストリーム受信部33、及
び音ストリーム受信部34を備えている。
FIG. 3 shows a detailed structure of the 3DCG data stream receiving section 3. The 3DCG data stream receiving unit 3, like the 3DCG data stream transmitting unit 1,
It is bidirectionally connected to the 3DCG data stream transmission unit 2 and exchanges request signals Sr. The 3DCG data stream receiving unit 3 includes a stream converting unit 31, a skeleton structure stream receiving unit 32, a motion stream receiving unit 33, and a sound stream receiving unit 34.

【0025】ストリーム変換部31は3DCGデータス
トリーム伝送部2と骨格構造ストリーム受信部32に双
方向接続され、3DCGデータストリーム伝送部2を経
由して3DCGデータストリーム送信部1から入力され
る骨格データストリームSs1を再フォーマット変換し
て元の骨格データストリームSsにデコードして、骨格
構造ストリーム受信部32に供給する。同様に、ストリ
ーム変換部31は、3DCGデータストリーム伝送部2
と動きストリーム受信部33に双方向に接続され、動き
データストリームSm1を動きデータストリームSmに
デコードして、動きストリーム受信部33に供給する。
更に、ストリーム変換部31は3DCGデータストリー
ム伝送部2と音ストリーム受信部34に双方向に接続さ
れ、音データストリームSa1を音データストリームS
aにデコードして音ストリーム受信部34に供給する。
The stream converter 31 is bidirectionally connected to the 3DCG data stream transmitter 2 and the skeletal structure stream receiver 32, and the skeletal data stream input from the 3DCG data stream transmitter 1 via the 3DCG data stream transmitter 2 Ss1 is reformatted, decoded into the original skeleton data stream Ss, and supplied to the skeleton structure stream receiving unit 32. Similarly, the stream conversion unit 31 includes the 3DCG data stream transmission unit 2
The motion data stream Sm1 is bidirectionally connected to the motion stream receiving unit 33, decodes the motion data stream Sm1 into a motion data stream Sm, and supplies the motion data stream Sm to the motion stream receiving unit 33.
Further, the stream converter 31 is bidirectionally connected to the 3DCG data stream transmitter 2 and the sound stream receiver 34, and converts the sound data stream Sa1 to the sound data stream S.
a, and supplies it to the sound stream receiving unit 34.

【0026】つまり、3DCGデータストリーム送信部
1から送信された骨格データストリームSs1、動きデ
ータストリームSm1、及び音データストリームSa1
は、3DCGデータストリーム伝送部2を経由して、ス
トリーム変換部31に入力される。ストリーム変換部3
1は、入力された各ストリームSs1、Sm1、及びS
a1を、必要に応じて元のフォーマットに逆変換して、
骨格データストリームSs、動きデータストリームS
m、及び音データストリームSaにデコードして、骨格
構造ストリーム受信部32、動きストリーム受信部3
3、及び音ストリーム受信部34のそれぞれに出力す
る。このように、3DCGデータストリーム伝送部2か
ら伝送されてきたエンコード3DCGデータストリーム
DS1を3DCGデータストリームDSにデコードし
て、それぞれ別個の骨格構造、動き、および音のデータ
ストリームSs、Sm、及びSaとして受信する。
That is, the skeleton data stream Ss1, the motion data stream Sm1, and the sound data stream Sa1 transmitted from the 3DCG data stream transmission unit 1.
Is input to the stream converter 31 via the 3DCG data stream transmitter 2. Stream converter 3
1 is the input streams Ss1, Sm1, and S
a1 is converted back to the original format if necessary,
Skeletal data stream Ss, motion data stream S
m, and a sound data stream Sa, and the skeleton structure stream receiving unit 32 and the motion stream receiving unit 3
3 and the sound stream receiving unit 34. As described above, the encoded 3DCG data stream DS1 transmitted from the 3DCG data stream transmission unit 2 is decoded into the 3DCG data stream DS, and each of the encoded data is transmitted as a separate skeletal structure, motion, and sound data stream Ss, Sm, and Sa. Receive.

【0027】以下に、装置100の動作について簡単に
説明する。サーバー部PCSの3DCGデータストリー
ム送信部1は、複数のクライアント部PCCからのリク
エスト信号Srに応じて、アバタの骨格構造の階層関係
を定義する階層データ、この階層データの初期状態、骨
格の関節の制約条件、骨格に対応付ける形状データ、骨
格構造との対応関係データをストリームとして伝送す
る。ストリーム変換部14は3DCGデータストリーム
DSをフォーマット変換及び圧縮処理してエンコードデ
ータストリームDS1を生成する。また、3DCGデー
タストリームDSがコンポジットタイプの場合は動きま
たは音声を別個のストリームに分解すると共に、必要に
応じて骨格データストリームSsを圧縮する。
Hereinafter, the operation of the apparatus 100 will be briefly described. The 3DCG data stream transmission unit 1 of the server unit PCS, in response to request signals Sr from the plurality of client units PCC, performs hierarchical data defining the hierarchical relationship of the skeleton structure of the avatar, the initial state of this hierarchical data, and the joint state of the skeleton. The constraint condition, the shape data associated with the skeleton, and the data on the correspondence relationship with the skeleton structure are transmitted as a stream. The stream converter 14 performs format conversion and compression processing of the 3DCG data stream DS to generate an encoded data stream DS1. When the 3DCG data stream DS is a composite type, the motion or sound is decomposed into separate streams, and the skeleton data stream Ss is compressed as necessary.

【0028】なお、アバタの骨格データについては、本
願出願人による特願平9−100453号(平成9年4
月17日提出)に詳しく述べられているが、後で図9及
び図10を参照して、アバタの骨格データ構造について
簡単に説明する。
The avatar skeleton data is disclosed in Japanese Patent Application No. 9-100453 by the present applicant (April 1997).
(Submitted on March 17), the avatar skeleton data structure will be briefly described later with reference to FIGS. 9 and 10.

【0029】図4及び図5を参照して、本発明に係る3
DCGデータストリームDSの標準的なフォーマットを
二例示す。先ず、第一の例は、図4に示すように、各ス
トリーム、例えば骨格データストリームSsは、メイン
ヘッダMH、サブヘッダSH、およびデータ本体DBか
ら構成され、メインヘッダMHにはデータの種類、デー
タの順序、圧縮/非圧縮の判別、ストリームの開始時間
(またはフレーム番号)、終了時間(またはフレーム番
号)、ループの有無、タイムスタンプ(同期に用いる)
の有無、再生時のピッチなどを書いておく。サブヘッダ
SHとデータ本体DBは1対をなし、サブヘッダSHに
データのサイズなどを明記する。以下の説明では特に断
らない限り、骨格データストリームSs、動きデータス
トリームSm、及び音データストリームSaは全てこの
形式で表すものとする。
Referring to FIG. 4 and FIG.
2 shows two examples of a standard format of the DCG data stream DS. First, in the first example, as shown in FIG. 4, each stream, for example, a skeleton data stream Ss is composed of a main header MH, a subheader SH, and a data body DB. Order, compression / non-compression, stream start time (or frame number), end time (or frame number), presence / absence of loop, time stamp (used for synchronization)
Presence / absence, pitch for playback, etc. are written. The subheader SH and the data body DB form a pair, and the size of the data and the like are specified in the subheader SH. In the following description, unless otherwise specified, the skeleton data stream Ss, the motion data stream Sm, and the sound data stream Sa are all represented in this format.

【0030】更に、図5に示す第二の例では、コンポジ
ットタイプのデータストリームで動作と音、動作と動作
が一つのストリームの中にシーケンシャルに並んでい
る。この場合シーケンシャルに並んだデータ同士は、通
常は再生時に同期させる必要のあるデータ同士である。
動作や音データは同期に必要な長さに適切に細かくパケ
ットと呼ぶ単位に分解して並べておく。このデータの並
びをメインヘッダに明記しておく。
Further, in the second example shown in FIG. 5, the operation and the sound, and the operation and the operation are sequentially arranged in one stream in the composite type data stream. In this case, the data arranged sequentially is usually data that needs to be synchronized at the time of reproduction.
The operation and sound data are appropriately divided into units called packets, which are appropriately finely divided into a length necessary for synchronization and arranged. This data arrangement is specified in the main header.

【0031】次に、図6及び図7に、上述の細かく分解
されたパケットであるストリームパケットの例として、
アニメーションストリーム(図6)と動作ストリーム
(図7)を示す。
Next, FIGS. 6 and 7 show examples of stream packets that are the above-described finely divided packets.
Fig. 6 shows an animation stream (Fig. 6) and an operation stream (Fig. 7).

【0032】以下に、図9、図10、及び図11を参照
してアバタの骨格データストリームSs、及び動きデー
タストリームSmのデータ構造について説明する。先
ず、図9(図9)に基本的な骨格構造を示す。簡便化の
ため、アバタの肘を表す骨格構造について述べる。つま
り、2本のリンクLK1及びリンクLK2はジョイント
Jによって、階層関係をもって接続される。例えば、リ
ンクLK1が上腕とすると、リンクLK1が親で前腕を
表すリンクLK2が子と言う上下階層構造を有する。
The data structures of the avatar skeleton data stream Ss and the motion data stream Sm will be described below with reference to FIGS. 9, 10 and 11. First, FIG. 9 (FIG. 9) shows a basic skeleton structure. For the sake of simplicity, a skeletal structure representing the avatar's elbow will be described. That is, the two links LK1 and LK2 are connected by the joint J in a hierarchical relationship. For example, if the link LK1 is the upper arm, the link LK1 has the upper and lower hierarchical structure in which the link LK2 representing the parent and the forearm is the child.

【0033】次に、図10にアバタ全体の一般的な階層
構造を示す。同図において、直線で示されたブロックの
各々が前記ジョイントJに対応し、破線で示されたブロ
ックの各々が各階層系統の先端部を示している。つま
り、本例において、アバタは、本体のルートRから3つ
の一次系統R1、R2、及びR3が接続されている。一
次系統R1は、右足付け根JR1−1、右膝JR1−
2、右足首JR1−3、及び右足先JR1−4と階層が
深くなって、アバタのルートRに接続される右足系統R
1を構成している。同様に、JR2−1、JR2−2、
JR2−3、JR2−4によって、左足系統R2が構成
される。但し、一次系統R3は上半身を表すために、背
骨付け根JR3−1から3つの二次系統R31、R3
2、及びR33に枝分かれしている。二次系統R31
は、右襟JR31−1、右肩JR31−2、右肘JR3
1−3、右手首JR31−4、右手先JR31−5の階
層からなる右腕系統を構成している。同様に、二次系統
R32は、左襟JR32−1、左肩JR32−2、左肘
JR32−3、左手首JR32−4、左手先JR32−
5の階層からなる左腕系統を構成している。二次系統R
33は、首JR33−1及び頭頂JR33−2の階層か
ら成る頭部系統を構成している。
Next, FIG. 10 shows a general hierarchical structure of the entire avatar. In the figure, each of the blocks indicated by a straight line corresponds to the joint J, and each of the blocks indicated by a broken line indicates the leading end of each hierarchical system. That is, in this example, the avatar is connected to three primary systems R1, R2, and R3 from the root R of the main body. The primary line R1 has a right foot base JR1-1 and a right knee JR1-
2. Right ankle JR1-3 and right ankle JR1-4, the depth of which is deeper, and the right foot system R connected to the avatar route R
1. Similarly, JR2-1, JR2-2,
The left foot system R2 is configured by JR2-3 and JR2-4. However, since the primary line R3 represents the upper body, the three secondary lines R31, R3 from the spine root JR3-1.
2, and R33. Secondary system R31
Is right collar JR31-1, right shoulder JR31-2, right elbow JR3
The right arm system includes a hierarchy of 1-3, right wrist JR31-4, and right hand JR31-5. Similarly, the secondary system R32 includes a left collar JR32-1, a left shoulder JR32-2, a left elbow JR32-3, a left wrist JR32-4, and a left hand JR32-.
A left arm system composed of five layers is configured. Secondary system R
Reference numeral 33 denotes a head system composed of a hierarchy of a neck JR 33-1 and a crown JR 33-2.

【0034】なお、必要に応じて、各系統の階層を更に
深くすると共に細分化して、より実際の人間に近い行動
自由度を持ったアバタを表現することができる。例え
ば、左右の手先JR31−5及びJR32−5に、指を
与える人は、それぞれに手の関節に対応する通常15個
のジョイントを付与すればよい。
[0034] If necessary, the hierarchy of each system can be further deepened and subdivided to represent an avatar having a degree of freedom of action closer to that of a real human. For example, a person who gives a finger to the left and right hand ends JR31-5 and JR32-5 only needs to normally give 15 joints each corresponding to a joint of the hand.

【0035】図11に、上記の骨格構造(初期値)に対
する動きデータを、動きデータストリームSm中で示す
フォーマットを示す。基本的な動きデータは、各関節J
がローカル座標系で、X、Y、及びZ軸回りに回転する
角度を時間の経過と共に示す回転角度時系列データであ
る。更に、ワールド座標系におけるルートRの位置座標
のX、Y、及びZの三要素とルートR位置の方向ベクト
ルの三要素の時系列データである。このように示された
データを、時系列に必要なフレーム数分だけ繰返して、
動きデータストリームSm中に記録する。
FIG. 11 shows a format in which motion data for the above skeleton structure (initial value) is shown in the motion data stream Sm. The basic motion data is
Is rotation angle time-series data indicating the angle of rotation about the X, Y, and Z axes in the local coordinate system over time. Further, it is time-series data of three elements of X, Y, and Z of the position coordinates of the route R in the world coordinate system and three elements of the direction vector of the position of the route R. The data shown in this way is repeated by the number of frames required in time series,
It is recorded in the motion data stream Sm.

【0036】再び図3を参照して、クライアント部PC
Cにおける処理について述べる。ストリーム受信部3
2、33、および34では、3DCGデータストリーム
伝送部2から伝送され、ストリーム変換されたそれぞれ
のストリームSs、Sm、及びSaを受信する。通常受
信側のコンピュータPCCでは、各ストリームを受信す
る受け口となるプロセス(またはスレッド)を必要な数
だけ複数個同時に発生させる。この複数のプロセスは、
図2に示す3DCGデータストリーム送信部1の送信側
の状態管理部15と、リクエスト信号Srによって交信
し合い、それぞれのストリームの数や状態を随時モニタ
リングする。
Referring again to FIG. 3, client unit PC
The processing in C will be described. Stream receiving unit 3
In 2, 33, and 34, the respective streams Ss, Sm, and Sa transmitted from the 3DCG data stream transmission unit 2 and subjected to stream conversion are received. Normally, the required number of processes (or threads) serving as reception ports for receiving each stream are simultaneously generated in a required number in the computer PCC on the receiving side. This multiple process
It communicates with the status management unit 15 on the transmission side of the 3DCG data stream transmission unit 1 shown in FIG.

【0037】さらにストリーム受信部32、33、およ
び34では、受信の受け口となる複数のプロセスを介し
て、共有メモリ(または共有のバッファ)にストリーム
を随時バッファリングする。このバッファリングされた
ストリームは各ストリーム間の時間的な同期を取りつつ
3次元仮想空間生成部4にデータストリームSs、S
m、及びSaを渡す。また、前述のように、通常のHT
TPに従ってネットワーク経由で予め転送された或いは
ローカルマシン上のファイルから読込まれたCG形状デ
ータに基づいて、骨格構造ストリームを再生する。さら
に上記伝送された骨格構造ストリームに同期させて、動
きストリームSmあるいは音ストリームSaをリアルタ
イムに3次元仮想空間生成部4に渡す。3次元仮想空間
生成部4では、3DCGデータストリーム受信部3から
入力されたストリームに基づいて、サーバー部PCSの
3DCGデータストリーム送信部1で生成された3DC
Gを再生する。つまり、3次元仮想空間生成部4は、3
次元の仮想空間を生成するVRML専用ブラウザ等を用
いて3次元仮想空間を再生する。上記の仕組みにおい
て、共有バッファに一次蓄積されたデータストリーム
が、3次元仮想空間部4からのトリガに従って、各バッ
ファから上述のストリーム受信部32、33および34
の各プロセスに対して同時に送られ、次に、VRMLで
定義された3次元仮想空間の指定されたノードに対して
同時に送られる。VRMLのノードには、通常3次元の
形状、音を出すべき物体、骨格の関節形状が予め指定さ
れている。
Further, the stream receiving units 32, 33, and 34 buffer the stream in the shared memory (or the shared buffer) as needed through a plurality of processes serving as reception ports. The buffered streams are sent to the three-dimensional virtual space generation unit 4 while synchronizing the time between the streams with the data streams Ss and Ss.
Pass m and Sa. Also, as described above, the normal HT
The skeleton structure stream is reproduced based on the CG shape data previously transferred via the network according to the TP or read from a file on the local machine. Further, in synchronization with the transmitted skeletal structure stream, the motion stream Sm or the sound stream Sa is transferred to the three-dimensional virtual space generation unit 4 in real time. In the three-dimensional virtual space generation unit 4, based on the stream input from the 3DCG data stream reception unit 3, the 3DCG data stream transmission unit 1 of the server PCS generates the 3DCG data stream transmission unit 1.
Play G. That is, the three-dimensional virtual space generation unit 4
The three-dimensional virtual space is reproduced using a VRML-only browser that generates a three-dimensional virtual space. In the above-described mechanism, the data stream temporarily stored in the shared buffer is transmitted from each buffer to the above-described stream receiving units 32, 33, and 34 according to a trigger from the three-dimensional virtual space unit 4.
, And then to the specified node in the three-dimensional virtual space defined by VRML. In the VRML node, usually, a three-dimensional shape, an object to emit sound, and a joint shape of a skeleton are designated in advance.

【0038】図12及び図13にVRML Ver.2.0の表
記で記述した3次元シーンを表す。図12にVRMLの
記述を示すと共に同記述に対応するシーン構造を図13
に示している。図13において、円で表された部分をノ
ードと呼び、Shapeで記述されるノードが3次元空間に
存在する各物体に対応する。また、Transformで表され
るノードが移動、回転などに対応する部分で、さらに3
次元形状の階層情報はVRMLでは括弧で区切られたネ
スト関係で表現される。図12においては、Translatio
nとRotationの後ろのパラメタを変更するとその値に従
って2つのShapeが移動および回転する例が示されてい
る。上記の基本的な仕組みに従って、図3に示す動きス
トリーム受信部33で受信した特定の3次元骨格構造の
各関節のRotationの値を時系列で変更することで、骨格
構造の各関節位置が変更される。つまり3次元仮想空間
内の骨格構造を持つ人間などが動きストリームのデータ
に従ってリアルタイムに動くことになる。音ストリーム
に関しては、図13に示すようなシーン木構造で表され
た3次元シーンにShapeとして音源に相当する物体のノ
ードを設定しておく。音声ストリームが、ユーザからの
トリガ(通常はVRMLのセンサノードを用いる)によ
り、図3の音ストリーム受信部34から図12及び図1
3に示す音源に相当するShapeノードに送出される。
FIGS. 12 and 13 show three-dimensional scenes described in VRML Ver. 2.0. FIG. 12 shows a VRML description and FIG. 13 shows a scene structure corresponding to the description.
Is shown in In FIG. 13, a portion represented by a circle is called a node, and a node described by a shape corresponds to each object existing in a three-dimensional space. Also, the node represented by Transform corresponds to movement, rotation, etc., and 3
Hierarchical information of a dimensional shape is expressed in VRML by a nest relationship separated by parentheses. In FIG. 12, the Translatio
An example is shown in which when the parameters after n and Rotation are changed, two Shapes move and rotate according to the values. According to the basic mechanism described above, the position of each joint of the skeletal structure is changed by changing the Rotation value of each joint of the specific three-dimensional skeletal structure received by the motion stream receiving unit 33 shown in FIG. 3 in time series. Is done. That is, a human having a skeletal structure in the three-dimensional virtual space moves in real time according to the data of the motion stream. As for the sound stream, a node of an object corresponding to a sound source is set as a shape in a three-dimensional scene represented by a scene tree structure as shown in FIG. When the audio stream is triggered by a user (usually using a VRML sensor node), the audio stream receiving unit 34 shown in FIG.
3 is transmitted to the Shape node corresponding to the sound source shown in FIG.

【0039】受け取った音データの再生は通常のパーソ
ナルコンピュータなどでは音生成部5にそのまま渡され
て再生される。音再生部5は音再生用のデジタルシグナ
ルプロセッサ(DSP)および音源などで構成される。
また、音データは一般にはWav, Aiff, MIDIなどのフォ
ーマットが一般に用いられるが、音声などにはPCMデ
ータを用いる場合もある。動きのストリームと音ストリ
ームの同期については、通常3次元仮想空間生成部4に
は内部の時間を管理しており、開始の時刻と終了の時刻
を指定することで通常は同期を取ることができる。
The reproduction of the received sound data is passed directly to the sound generation unit 5 and reproduced in a normal personal computer or the like. The sound reproducing unit 5 includes a digital signal processor (DSP) for sound reproduction and a sound source.
In addition, generally, a format such as Wav, Aiff, or MIDI is used for sound data, but PCM data may be used for sound or the like. Regarding the synchronization of the motion stream and the sound stream, the internal time is usually managed in the three-dimensional virtual space generation unit 4, and the synchronization can usually be achieved by specifying the start time and the end time. .

【0040】図14に3次元仮想空間生成部4でのCG
ストリームの再生を時系列で示す。前述したように音ス
トリームは音生成部5で生成し、開始時刻t0と終了時刻
t1を設定して再生させる。動きのストリームは受信側パ
ーソナルコンピュータの性能や3次元シーンの複雑さに
依存して変動する。このため、音に対して動作が送れた
り早まったりする。これを無くして音と動作との同期を
取るため、セパレートのストリームのデータにタイムス
タンプTS(△で表示)を予め入れておく。タイムスタ
ンプを用いると、音の再生に対して音ストリームのタイ
ムスタンプ位置に動作の再生を合わせるが容易になる。
つまり対応する任意のタイムスタンプ位置で、もし動き
の再生がタイムスタンプ位置で判断して遅れていれば、
それ以降のタイムスタンプ位置までの動きの再生は飛ば
す処理を3次元仮想空間生成部4で行なう。ましてや、
同じタイムスタンプ位置で動きの再生が終っていれば、
音の再生がタイムスタンプ位置まで終了するまで動きの
再生を繰返す処理を3次元仮想空間生成部4で行なう。
あるいは、図14の下段に示すようにCGデータストリ
ームの形式としてコンポジットタイプを用い、さらに同
期を合わせたい最小のパケットに分割しておけば、パケ
ット間では音と動作との同期が取れて再生できる。
FIG. 14 shows the CG in the three-dimensional virtual space generation unit 4.
The reproduction of the stream is shown in time series. As described above, the sound stream is generated by the sound generation unit 5, and the start time t0 and the end time
Set t1 for playback. The motion stream varies depending on the performance of the receiving personal computer and the complexity of the three-dimensional scene. For this reason, the operation can be sent or hastened for the sound. To eliminate this and synchronize the sound with the operation, a time stamp TS (indicated by △) is inserted in advance in the data of the separate stream. The use of the time stamp makes it easy to match the operation reproduction to the time stamp position of the sound stream with respect to the sound reproduction.
In other words, at any corresponding time stamp position, if the playback of the motion is delayed by judging from the time stamp position,
The three-dimensional virtual space generation unit 4 performs a skipping process for reproducing the motion up to the time stamp position thereafter. Much more
If the playback of the motion is finished at the same time stamp position,
The three-dimensional virtual space generation unit 4 performs a process of repeating the motion reproduction until the sound reproduction ends up to the time stamp position.
Alternatively, as shown in the lower part of FIG. 14, if a composite type is used as the format of the CG data stream, and further divided into the minimum packets to be synchronized, the sound and the operation can be synchronized between the packets and reproduced. .

【0041】なお、先に図1に関して述べたストリーム
オーサリング手段の基本動作について簡単に説明する。
ストリームオーサリング手段は、任意のデータ長を有す
る骨格データストリームSs、動きデータストリームS
m、及び音データストリームSaを、同期に必要な任意
の長さに切断して、図4及び図5に示したパケット形式
に変換する。なお、骨格データストリームSsのデータ
長は関節数や自由度等の条件により、動きデータストリ
ームSmのデータ長は動作の継続時間により、そして音
データストリームSaのデータ長は音の生成時間により
任意に決める。そして、各ストリームに図14に示した
ように、同期に必要なタイムスタンプ情報を付与する。
さらに、必要に応じて、各ストリーム同士を接続して新
たなストリームを生成する。このようにして、編集した
ストリームをサーバー部PCSにデータ登録するもので
ある。
The basic operation of the stream authoring means described above with reference to FIG. 1 will be briefly described.
The stream authoring means includes a skeleton data stream Ss having an arbitrary data length and a motion data stream S
m and the audio data stream Sa are cut into arbitrary lengths necessary for synchronization and converted into the packet format shown in FIGS. The data length of the skeleton data stream Ss depends on conditions such as the number of joints and degrees of freedom, the data length of the motion data stream Sm depends on the duration of the operation, and the data length of the sound data stream Sa depends on the sound generation time. Decide. Then, as shown in FIG. 14, time stamp information necessary for synchronization is added to each stream.
Further, if necessary, each stream is connected to generate a new stream. In this way, the edited stream is registered in the server PCS.

【0042】以下に、図15、図16、及び図17に示
すフローチャートを参照して、本発明に係る装置100
の動作について説明する。図15は、装置100におけ
るサーバー部PCSと複数のクライアント部PCC間が
接続されたいわゆるマルチユーザーネットワークにおけ
る3次元空間の共有を示している。ここで、図8に示し
たように、単独のサーバー部PCSに対して複数クライ
アント部PCC2〜PCCnが接続されて、互いに3次
元空間が共有されている時に、新たにクライアント部P
CC1がサーバー部PCSに接続された場合について述
べる。
The apparatus 100 according to the present invention will be described below with reference to the flowcharts shown in FIGS.
Will be described. FIG. 15 shows sharing of a three-dimensional space in a so-called multi-user network in which a server PCS and a plurality of client PCs in the apparatus 100 are connected. Here, as shown in FIG. 8, when a plurality of client units PCC2 to PCCn are connected to a single server unit PCS and a three-dimensional space is shared with each other, a new client unit PC is newly added.
The case where CC1 is connected to the server PCS will be described.

【0043】ステップS1で、クライアント部PCC1
がサーバー部PCSにIDを要求する。ステップS3
で、サーバー部PCSはクライアント部PCC1に対し
てIDを発行する。この時点で、クライアント部PCC
1及びサーバー部PCSの3次元仮想空間に、クライア
ント部PCC1のアバタが出現する。ステップS5で、
クライアント部PCC1においてユーザがアバタを操作
したか否かが判断される。アバタ操作の検出をもって、
次のステップS7に進む。それまでは、本ステップS5
で繰り返しNOと判断されて、アバタ操作有無判断が継
続される。
In step S1, the client PCC1
Requests the ID from the server PCS. Step S3
Then, the server PCS issues an ID to the client PCC1. At this point, the client PCC
1 and the avatar of the client PCC1 appear in the three-dimensional virtual space of the server PCS. In step S5,
It is determined whether or not the user has operated the avatar in the client PCC1. With the detection of avatar operation,
Proceed to the next step S7. Until then, this step S5
Is repeatedly determined to be NO, and the avatar operation presence / absence determination is continued.

【0044】ステップS7で、クライアント部PCC1
はユーザによる操作に基づく、アバタの移動情報を含む
動きデータストリームSmの画像変更データDMを3D
CGデータストリーム受信部3によって生成し、伝送部
TRを経由してサーバー部PCSの3DCGデータスト
リーム送信部1に送信する。なお、サーバー部PCS
は、画像変更データDMと共に送られてくるIDによっ
て、ユーザつまりクライアント部PCC1を識別する。
ステップS9では、クライアント部PCC1から送信さ
れた画像変更データDM及びIDを、他のクライアント
部PCC2〜PCCnのいずれかに伝達する必要がある
か否かが判断される。なお、この判断は、通常、クライ
アント部PCC1からのリクエスト信号Srに基づいて
なされるが、ステップS1の時点で予めクライアント部
PCC1からサーバー部PCSに指示しておいてもい。
In step S7, the client PCC1
3D converts the image change data DM of the motion data stream Sm including the avatar movement information based on the user's operation into 3D.
It is generated by the CG data stream receiving unit 3 and transmitted to the 3DCG data stream transmitting unit 1 of the server PCS via the transmission unit TR. The server PCS
Identifies the user, that is, the client PCC1, by the ID transmitted together with the image change data DM.
In step S9, it is determined whether or not the image change data DM and ID transmitted from the client unit PCC1 need to be transmitted to any of the other client units PCC2 to PCCn. This determination is usually made based on the request signal Sr from the client PCC1, but the client PCC1 may instruct the server PCS in advance at step S1.

【0045】ステップS11で、クライアント部PCC
1に、現在接続されている他のクライアント部PCC2
〜PCCnのいずれに教えるかを問い合わせて回答を得
る。なお、このような情報は、クライアント部PCC或
いはサーバー部PCSの双方で、予め決めておいてもよ
いことは言うまでもない。ステップS13では、ステッ
プS11でクライアント部PCC1から回答されたクラ
イアントに、画像変更データDMによってクライアント
部PCC1のアバタの動き情報を送信した後、ステップ
S5に戻り、クライアント部PCC1がネットワークか
ら離脱するまでステップS5からS13の処理を繰り返
す。
In step S11, the client PCC
1, other currently connected client unit PCC2
To PCCn to get a response. Needless to say, such information may be determined in advance in both the client PCC and the server PCS. In step S13, after the motion information of the avatar of the client PCC1 is transmitted to the client answered by the client PCC1 in step S11 using the image change data DM, the process returns to step S5, and the process is repeated until the client PCC1 leaves the network. The processing from S5 to S13 is repeated.

【0046】次に図16を参照して、装置100におけ
る、サーバー部PCSにクライアント部PCC1が一つ
だけ接続されているいわゆるシングルユーザーネットワ
ークにおける3次元仮想空間データの送受信方法につい
て説明する。
Next, a method of transmitting and receiving three-dimensional virtual space data in a so-called single user network in which only one client PCC1 is connected to the server PCS in the apparatus 100 will be described with reference to FIG.

【0047】先ず、ステップS21で、3次元仮想空間
を表す3DCGデータストリームDSの読み出し先が決
定される。例えば、3DCGデータストリームDSがク
ライアント部PCC1に有る場合にはNOと判断され
て、ステップS23に進む。ステップS23で、3DC
GデータストリームDSが、クライアント部PCC1の
記憶装置(不図示)から読み出されて、クライアント部
PCC1の3次元仮想空間生成部4に供給され、3次元
仮想空間画像が生成される。一方、ステップS21でY
ESと判断される場合には、ステップS25に進む。ス
テップS25で、3DCGデータストリームDS1が、
サーバー部PCSの記憶装置(不図示)から読み出され
て、クライアント部PCC1の3次元仮想空間生成部4
に供給され、3次元仮想空間画像が生成される。
First, in step S21, the reading destination of the 3DCG data stream DS representing the three-dimensional virtual space is determined. For example, if the 3DCG data stream DS is present in the client PCC1, it is determined as NO and the process proceeds to step S23. In step S23, 3DC
The G data stream DS is read from a storage device (not shown) of the client PCC1 and supplied to the three-dimensional virtual space generation unit 4 of the client PCC1 to generate a three-dimensional virtual space image. On the other hand, in step S21, Y
If it is determined to be ES, the process proceeds to step S25. In step S25, the 3DCG data stream DS1 is
The three-dimensional virtual space generation unit 4 is read from a storage device (not shown) of the server unit PCS and is read from the storage unit (not shown) of the client unit PCC1.
And a three-dimensional virtual space image is generated.

【0048】ステップS27で、クライアント部PCC
1がサーバー部PCSにIDを要求する。ステップS2
9で、サーバー部PCSがクライアント部PCC1に対
してIDを発行する。
In step S27, the client PCC
1 requests an ID from the server PCS. Step S2
At 9, the server PCS issues an ID to the client PCC1.

【0049】ステップS31で、クライアント部PCC
1がアバタの3DCGデータストリームDSを読み出す
先が決定される。例えば、アバタのデータがクライアン
ト部PCC1に有る場合には、クライアント部PCC1
からのリクエスト信号Srはサーバー部PCSからのア
バタデータ読み出し要求をしないので、NOと判断され
てステップS33に進む。ステップS33で、クライア
ント部PCC1の記憶装置からアバタの3DCGデータ
ストリームDSが読み出されてクライアント部PCC1
の3次元仮想空間生成部4に供給される。そして、同3
DCGデータストリームDSに基づいて、3次元仮想空
間内にアバタ画像が生成される。一方、ステップS31
でYESと判断される場合は、ステップS35に進む。
ステップS35で、クライアント部PCC1からのリク
エスト信号Srに基づいて、サーバー部PCSはアバタ
の骨格データストリームSs及び動きデータストリーム
Smを、必要に応じてエンコード(フォーマット変換)
してクライアント部PCC1に転送する。
In step S31, the client PCC
The destination from which the 1 reads the 3D CG data stream DS of the avatar is determined. For example, if the avatar data is in the client PCC1, the client PCC1
Since the request signal Sr does not make an avatar data read request from the server unit PCS, the determination is NO and the process proceeds to step S33. In step S33, the 3D CG data stream DS of the avatar is read from the storage device of the client PCC1 and the client PCC1 is read.
Is supplied to the three-dimensional virtual space generation unit 4. And 3
An avatar image is generated in the three-dimensional virtual space based on the DCG data stream DS. On the other hand, step S31
If YES is determined, the process proceeds to step S35.
In step S35, based on the request signal Sr from the client PCC1, the server PCS encodes the avatar skeleton data stream Ss and the motion data stream Sm as needed (format conversion).
And transfers it to the client PCC1.

【0050】ステップS37で、クライアント部PCC
1は、サーバー部PCSから転送された骨格データスト
リームSs(Ss1)及び動きデータストリームSm
(Sm1)を受信する。ステップS39で、受領したデ
ータストリームSs(Ss1)及びSm(Sm1)をデ
コード(逆フォーマット変換)する必要があるか否かが
判断される。逆変換が不要な場合には、ステップS41
に進む。
In step S37, the client PCC
1 is a skeletal data stream Ss (Ss1) and a motion data stream Sm transferred from the server PCS.
(Sm1) is received. In step S39, it is determined whether the received data streams Ss (Ss1) and Sm (Sm1) need to be decoded (inverted format conversion). If the inverse conversion is not required, step S41
Proceed to.

【0051】ステップS41では、データストリームS
s及びSmが、ストリーム変換部31による逆フォーマ
ット変換を受けずに、骨格構造ストリーム受信部32及
び動きストリーム受信部33を経由して3次元仮想空間
生成部4に供給される。一方、逆変換が必要な場合は、
YESと判断されてステップS43に進む。ステップS
43では、データストリームSs1及びSm1を、スト
リーム変換部31によってデータストリームSs及びS
mにデコード(逆フォーマット変換)して、骨格構造ス
トリーム受信部32及び動きストリーム受信部33で所
定の単位に分解した後、3次元仮想空間生成部4に供給
する。そして、3次元仮想空間生成部4で、アバタの動
作変化を反映した3次元仮想空間画像が生成される。
In step S41, the data stream S
The s and Sm are supplied to the three-dimensional virtual space generation unit 4 via the skeleton structure stream reception unit 32 and the motion stream reception unit 33 without being subjected to the inverse format conversion by the stream conversion unit 31. On the other hand, if you need an inverse transformation,
YES is determined and the process proceeds to step S43. Step S
At 43, the data streams Ss1 and Sm1 are converted by the stream converter 31 into data streams Ss and Sm1.
m (reverse format conversion), decompose into predetermined units by the skeleton structure stream receiving unit 32 and the motion stream receiving unit 33, and then supply them to the three-dimensional virtual space generating unit 4. Then, the three-dimensional virtual space generation unit 4 generates a three-dimensional virtual space image reflecting the change in the motion of the avatar.

【0052】次に、図17を参照して、クライアント部
PCCの3次元仮想空間生成部4による3DCG再生時
における3DCGデータストリームDSの同期処理を説
明する。
Next, referring to FIG. 17, a description will be given of the synchronization processing of the 3DCG data stream DS at the time of 3DCG reproduction by the 3D virtual space generation unit 4 of the client PCC.

【0053】ステップS51で、3次元仮想空間生成部
4からの3DCGシーン描画開始命令発行に応じて、内
部クロック(TimeSensor)をリセットする。つまり、サ
ーバー部PCSからの要求に応じて、各クライアント部
PCCが同時に、自身の内部クロック(TimeSensor)を
リセットする。
In step S51, the internal clock (TimeSensor) is reset in response to the issuance of the 3D CG scene drawing start command from the three-dimensional virtual space generation unit 4. That is, in response to a request from the server PCS, each client PCC simultaneously resets its own internal clock (TimeSensor).

【0054】ステップS53で、クライアント部PCC
1においてユーザがアバタを操作したか否かが判断され
る。アバタ操作の検出をもって、次のステップS55に
進む。それまでは、本ステップS53で繰返しNOと判
断されて、アバタ操作有無判断が継続される。
In step S53, the client PCC
At 1, it is determined whether the user has operated the avatar. When the avatar operation is detected, the process proceeds to the next step S55. Until then, the determination in step S53 is NO, and the avatar operation presence / absence determination is continued.

【0055】ステップS55で、VRML形式で記述さ
れている骨格データストリームSs、動きデータストリ
ームSm、及び音データストリームSaを3次元仮想空
間生成部4の一次メモリ(不図示)から読み出す。
In step S55, the skeleton data stream Ss, the motion data stream Sm, and the sound data stream Sa described in the VRML format are read from the primary memory (not shown) of the three-dimensional virtual space generation unit 4.

【0056】ステップS57で、各データストリーム中
のメインヘッダMH中の記述に基づいて同期再生が必要
か否かが判断される。同期再生が不要の場合には、NO
と判断されてステップS59に進む。ステップS59
で、内部クロック(TimeSensor)に基づいて、VRML形
式で指定された時間に動きデータストリームSmを再生
すると共に、音生成部5が音データストリームSaを再
生する。つまり、3次元仮想空間生成部4から音生成部
5に音データフォーマットが起動信号と共に送られてく
ると、直ちに音再生を開始する。
In step S57, it is determined whether or not synchronous reproduction is necessary based on the description in the main header MH in each data stream. NO if synchronous playback is not required
And the process proceeds to step S59. Step S59
Then, based on the internal clock (TimeSensor), the motion data stream Sm is reproduced at the time designated in the VRML format, and the sound generator 5 reproduces the sound data stream Sa. That is, as soon as the sound data format is sent from the three-dimensional virtual space generation unit 4 to the sound generation unit 5 together with the start signal, the sound reproduction is started.

【0057】一方、同期再生が必要な場合は、ステップ
S57でYESと判断されてステップS61に進む。ス
テップS61で、再生する3DCGデータストリームD
Sの中身が音データストリームSaであるか否かが判断
される。ステップS61でYESの場合は、ステップS
63に進む。ステップS63で、音生成部5により、図
14に示したタイムスタンプ情報を3次元仮想空間生成
部4にフィードバックする。
On the other hand, when synchronous reproduction is necessary, YES is determined in the step S57, and the process proceeds to a step S61. In step S61, the 3DCG data stream D to be reproduced
It is determined whether or not the content of S is the sound data stream Sa. If YES in step S61, step S61
Go to 63. In step S63, the sound generation unit 5 feeds back the time stamp information shown in FIG. 14 to the three-dimensional virtual space generation unit 4.

【0058】一方、3DCGデータストリームDSの中
身がCGデータである場合は、ステップS61でNOと
判断されて、ステップS65に進む。ステップS65
で、音生成部5からフィードバックされたタイムスタン
プ情報が同期信号として3次元仮想空間生成部4に入力
される。また、音声パケットの場合には、その終了信号
が同期信号として3次元仮想空間生成部4に入力され
る。
On the other hand, when the contents of the 3DCG data stream DS are CG data, NO is determined in the step S61, and the process proceeds to a step S65. Step S65
Then, the time stamp information fed back from the sound generator 5 is input to the three-dimensional virtual space generator 4 as a synchronization signal. In the case of a voice packet, the end signal is input to the three-dimensional virtual space generation unit 4 as a synchronization signal.

【0059】ステップS67で、CGデータの読み込み
が完了しているか否かが前述のタイムスタンプに基づい
て判断される。完了している場合は、YESと判断され
て、ステップS69に進む。ステップS69では、CG
再生を即時中止して、次のステップS71に進む。な
お、CG再生のタイミングは、VRMLの内部クロック
(TimeSensor)に基づいて管理される。
In step S67, it is determined whether the reading of the CG data has been completed based on the time stamp. If completed, the determination is YES, and the process proceeds to step S69. In step S69, CG
The reproduction is immediately stopped, and the process proceeds to the next step S71. The timing of CG reproduction is based on the internal clock of VRML.
(TimeSensor) based on management.

【0060】ステップS71では、更なるCG描画再生
のための3DCGデータストリームDSのサーバー部P
CSから3次元仮想空間生成部4への入力の有無が判断
される。入力が有る場合にはYESと判断されて、ステ
ップS51に戻る。一方、入力が無い場合は本ステップ
S71による判断を継続する。
In step S71, the server unit P of the 3DCG data stream DS for further CG drawing reproduction
The presence or absence of an input from the CS to the three-dimensional virtual space generation unit 4 is determined. If there is an input, it is determined as YES, and the process returns to step S51. On the other hand, when there is no input, the determination in step S71 is continued.

【0061】一方、ステップS67で、NOと判断され
た場合は、ステップS73に進む。ステップS73で
は、CG再生を次のタイムスタンプで示される同期時間
まで引き延ばした後に、ステップS71に進む。このよ
うにして、再生ストリームの同期を取ることができる。
On the other hand, if NO is determined in the step S67, the process proceeds to a step S73. In step S73, after the CG reproduction is extended to the synchronization time indicated by the next time stamp, the process proceeds to step S71. In this way, the reproduction streams can be synchronized.

【0062】本発明にかかる、3次元仮想空間を表すデ
ータストリームを送受信する方法は、図15乃至図17
のフローチャートのステップを有する。本発明のこの方
法をコンピュータに実行させるためのプログラムを、該
コンピュータで読取り可能な記録媒体に記録してもよ
い。この目的のために、図18に示すように、例えば、
インターネット対応のパーソナルコンピュータPCとパ
ーソナルコンピュータPCで読取り可能なフロッピーデ
ィスクFDを、夫々、コンピュータと記録媒体として使
用してもよい。又、記録媒体はフロッピーディスクに限
られるものではなく、各種の光ディスク、半導体メモリ
等であってもよい。又、各種プログラムはインターネッ
ト経由でパーソナルコンピュータPCで取得することが
できる。
FIGS. 15 to 17 show a method for transmitting and receiving a data stream representing a three-dimensional virtual space according to the present invention.
Steps of the flowchart of FIG. A program for causing a computer to execute the method of the present invention may be recorded on a computer-readable recording medium. For this purpose, for example, as shown in FIG.
An Internet-compatible personal computer PC and a floppy disk FD readable by the personal computer PC may be used as the computer and the recording medium, respectively. Further, the recording medium is not limited to a floppy disk, but may be various optical disks, semiconductor memories, or the like. Also, various programs can be obtained by a personal computer PC via the Internet.

【0063】なお、本説明ではインターネットを想定し
た双方向の通信系を想定して説明したが、衛星放送や地
上波放送などの伝送系でもインターネットなどと併用す
ることで全く同様に送受信できる。又、双方向性を要し
ない場合は、衛星放送や地上波放送等の放送系のみにも
利用できることは言うまでもない。
Although the present description has been made on the assumption of a two-way communication system on the assumption of the Internet, transmission and reception of satellite broadcasting, terrestrial broadcasting, and the like can be performed in exactly the same manner by using the system together with the Internet. In the case where bidirectionality is not required, it goes without saying that the present invention can be used only for broadcasting systems such as satellite broadcasting and terrestrial broadcasting.

【0064】[0064]

【発明の効果】以上の説明から明らかなように、本発明
によれば、人間のような骨格構造の形状データをストリ
ームで転送し、その骨格の基本的な動作を動きストリー
ムとして送り、更に、前記骨格構造の動きに付随する音
データを音ストリームで、夫々、同期方法や圧縮方法あ
るいは各ストリーム間の対応情報と共に転送すること
で、キャラクタの滑らかな運動とそれと同期した音情報
を送信又は受信でき、転送時のデータ量も大幅に削減で
きる。又、ネットワークをベースとした送受信系でユー
ザの要求に応じてインターラクティブに送受信できる。
As is apparent from the above description, according to the present invention, shape data of a skeleton structure like a human is transferred as a stream, and the basic operation of the skeleton is sent as a motion stream. By transmitting sound data accompanying the movement of the skeletal structure as a sound stream together with a synchronization method, a compression method, or corresponding information between the streams, a smooth movement of the character and sound information synchronized with the movement are transmitted or received. It is possible to greatly reduce the amount of data at the time of transfer. In addition, a transmission / reception system based on a network enables interactive transmission / reception according to a user's request.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態にかかる、3次元仮想空
間を表すデータストリームを送受信する装置の最小構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating a minimum configuration of an apparatus for transmitting and receiving a data stream representing a three-dimensional virtual space according to an embodiment of the present invention.

【図2】 図1に示す3DCGデータストリーム送信部
の詳細を示すブロック図である。
FIG. 2 is a block diagram illustrating details of a 3DCG data stream transmission unit illustrated in FIG. 1;

【図3】 図1に示す3DCGデータストリーム受信部
の詳細を示すブロック図である。
FIG. 3 is a block diagram illustrating details of a 3DCG data stream receiving unit illustrated in FIG. 1;

【図4】 本発明に係る3DCGデータストリームのフ
ォーマットの一例を示す図である。
FIG. 4 is a diagram showing an example of a format of a 3DCG data stream according to the present invention.

【図5】 本発明に係る3DCGデータストリームのフ
ォーマットの別の例を示す図である
FIG. 5 is a diagram showing another example of the format of the 3DCG data stream according to the present invention.

【図6】 本発明に係る3DCGデータストリームであ
るアニメーションストリームのパケットを示す模式図で
ある。
FIG. 6 is a schematic diagram showing a packet of an animation stream that is a 3DCG data stream according to the present invention.

【図7】 本発明に係る3DCGデータストリームであ
る動作ストリームのパケットを示す模式図である。
FIG. 7 is a schematic diagram showing packets of an operation stream that is a 3DCG data stream according to the present invention.

【図8】単独のサーバーに複数のクライアントが接続さ
れた本発明の装置を示す模式図である。
FIG. 8 is a schematic diagram showing an apparatus of the present invention in which a plurality of clients are connected to a single server.

【図9】 本発明に係る3DCGデータストリームにお
ける基本的な骨格構造を示す説明図である。
FIG. 9 is an explanatory diagram showing a basic skeleton structure in a 3DCG data stream according to the present invention.

【図10】 本発明に係る3DCGデータストリームに
おけるアバタの骨格構造を表すデータの一般的な階層構
造を示す模式図である。
FIG. 10 is a schematic diagram illustrating a general hierarchical structure of data representing a skeleton structure of an avatar in a 3DCG data stream according to the present invention.

【図11】 図10に示す骨格構造(初期値)に対する
動きを表すデータストリーム示すフォーマットを示す模
式図である。
11 is a schematic diagram showing a format showing a data stream representing a motion with respect to the skeleton structure (initial value) shown in FIG.

【図12】 本発明に係る3次元シーンのVRMLに従
う記述の記述例を示す説明図である。
FIG. 12 is an explanatory diagram showing a description example of a description according to VRML of a three-dimensional scene according to the present invention.

【図13】 図12の記述例に対応するシーン構造を示
す模式図である。
FIG. 13 is a schematic diagram showing a scene structure corresponding to the description example of FIG. 12;

【図14】 本発明に係る3DCGデータストリームの
同期方法の一例を示す説明図である。
FIG. 14 is an explanatory diagram showing an example of a 3DCG data stream synchronization method according to the present invention.

【図15】 図8の本発明に係るマルチユーザーネット
ワークにおける3次元空間の共有動作を示すフローチャ
ートである。
FIG. 15 is a flowchart illustrating an operation of sharing a three-dimensional space in the multi-user network according to the present invention of FIG. 8;

【図16】 図1の本発明に係るシングルユーザーネッ
トワークにおける3次元仮想空間データの送受信方法を
示すフローチャートである。
FIG. 16 is a flowchart illustrating a method for transmitting and receiving three-dimensional virtual space data in the single-user network according to the present invention of FIG. 1;

【図17】 本発明に係る3DCG再生時における3D
CGデータストリームの同期処理を示すフローチャート
である。
FIG. 17 shows 3D during 3D CG playback according to the present invention.
It is a flowchart which shows the synchronization process of a CG data stream.

【図18】 図15乃至図17のフローチャートのステ
ップを有する本発明の方法をコンピュータに実行させる
ためのプログラムを記録したフロッピーディスクと共に
使用されるパーソナルコンピュータの斜視図である。
FIG. 18 is a perspective view of a personal computer used with a floppy disk storing a program for causing a computer to execute the method of the present invention having the steps of the flowcharts of FIGS.

【符号の説明】[Explanation of symbols]

1 3DCGデータストリーム送信部 2 3DCGデータストリーム伝送部 3 3DCGデータストリーム受信部 4 3次元仮想空間生成部 5 音生成部 11 骨格構造ストリーム送信部 12 動きストリーム送信部 13 音ストリーム送信部 14 ストリーム変換部 15 状態管理部 31 ストリーム変換部 32 骨格構造ストリーム受信部 33 動きストリーム受信部 34 音ストリーム受信部 Ss、Ss1 骨格データストリーム Sm、Sm1 動きデータストリーム Sa、Sa1 音データストリーム Sr リクエスト信号 Reference Signs List 1 3DCG data stream transmission unit 2 3DCG data stream transmission unit 3 3DCG data stream reception unit 4 3D virtual space generation unit 5 sound generation unit 11 skeletal structure stream transmission unit 12 motion stream transmission unit 13 sound stream transmission unit 14 stream conversion unit 15 State management unit 31 Stream conversion unit 32 Skeletal structure stream reception unit 33 Motion stream reception unit 34 Sound stream reception unit Ss, Ss1 Skeletal data stream Sm, Sm1 Motion data stream Sa, Sa1 Sound data stream Sr Request signal

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 送信部(PCS)と、受信部(PCC)
と、該送信部(PCS)と該受信部(PCC)とを接続
する伝送手段(TR、2)とを備えて、送信部(PC
S)から3次元コンピューターグラフィックスにおける
骨格構造の形状を示すデータストリームである形状スト
リーム(Ss)、動きを示すデータストリームである動
作ストリーム(Sm)及び該動きと同期する音を示すデ
ータストリームである音ストリーム(Sa)を受信部
(PCC)に送信し、該受信部(PCC)では送信され
た該動作ストリーム(Sm)及び該音ストリーム(S
a)を同期させて3次元コンピュータグラフィックスを
生成するように、3次元仮想空間を表すデータストリー
ムを送受信する装置(100)であって、 該送信部(PCS)は、該形状ストリーム(Ss)、動
作ストリーム(Sm)、及び該動作ストリーム(Sm)
に同期する音ストリーム(Sa)を予め決められたデー
タストリーム(DS)のフォーマット(VRF)に応じ
て複数のストリーム(Ss1、Sm1、Sa1;DS
1)として同時に送信する送信手段(1)を有し、更
に、 伝送手段(TR、2)は、該複数のストリーム(Ss
1、Sm1、Sa1;DS1)を該送信部(PCS)か
ら該受信部(PCC)に伝送すると共に、 該受信部(PCC)は、 該伝送手段(TR、2)を経由して該送信部(PCS)
から伝送されてきた該複数のストリーム(DS1)を受
信すると共に、受信したストリーム(DS1)の種類お
よびフォーマット(VRML)を判別し、複数のストリ
ーム(Sm1、Sa1)を受信し、それぞれの判別され
たストリーム(Sm1、Sa1)に応じて必要な復元処
理をストリーム(Sm1、Sa1)に加えるデータスト
リーム受信手段(3)と、 該受信部(PCC)で受信した該ストリーム(DS1)
のうち形状ストリーム(Ss1)或いは予め読み込まれ
た3次元形状データ(DS1、DS)を用いて3次元仮
想空間内に骨格構造の形状あるいは3次元仮想空間を生
成し、更に動作ストリーム(Sm1)を用いて該骨格構
造の形状を動かす3次元仮想空間生成手段(4)と、 該ストリーム(DS1)に音データ(Sa1)が含まれ
る場合は該骨格構造の動き(Sm1)に同期させて音デ
ータ(Sa1)を再生する音再生手段(5)とを有する
ことを特徴とする3次元仮想空間を表すデータストリー
ムを送受信する装置(100)。
A transmitting unit (PCS) and a receiving unit (PCC)
And a transmission unit (TR, 2) for connecting the transmitting unit (PCS) and the receiving unit (PCC).
From S), a shape stream (Ss), which is a data stream indicating the shape of the skeletal structure in three-dimensional computer graphics, an operation stream (Sm), which is a data stream indicating motion, and a data stream, which indicates sound synchronized with the motion. The sound stream (Sa) is transmitted to the receiving unit (PCC), and the receiving unit (PCC) transmits the transmitted operation stream (Sm) and the transmitted sound stream (Sm).
An apparatus (100) for transmitting and receiving a data stream representing a three-dimensional virtual space so as to generate three-dimensional computer graphics by synchronizing a), wherein the transmission unit (PCS) includes: , Operation stream (Sm), and the operation stream (Sm)
A sound stream (Sa) synchronized with a plurality of streams (Ss1, Sm1, Sa1; DS) according to a predetermined data stream (DS) format (VRF)
The transmission means (TR) has a plurality of streams (Ss) for transmitting simultaneously as (1).
1, Sm1, Sa1; DS1) from the transmission unit (PCS) to the reception unit (PCC), and the reception unit (PCC) transmits the transmission unit via the transmission means (TR, 2). (PCS)
Receiving the plurality of streams (DS1), determining the type and format (VRML) of the received stream (DS1), receiving the plurality of streams (Sm1, Sa1), and determining each of them. Data stream receiving means (3) for adding necessary restoration processing to the stream (Sm1, Sa1) in accordance with the stream (Sm1, Sa1), and the stream (DS1) received by the receiver (PCC)
Of the skeleton structure or the three-dimensional virtual space in the three-dimensional virtual space using the shape stream (Ss1) or the three-dimensional shape data (DS1, DS) read in advance, and furthermore, the motion stream (Sm1) is generated. A three-dimensional virtual space generating means (4) for moving the shape of the skeletal structure by using the sound data (Sa1) when the stream (DS1) includes the sound data (Sa1). An apparatus (100) for transmitting and receiving a data stream representing a three-dimensional virtual space, comprising: a sound reproducing means (5) for reproducing (Sa1).
【請求項2】 送信部(PCS)と、受信部(PCC)
と、該送信部(PCS)と該受信部(PCC)とを双方
向に接続する伝送手段(TR、2)とを備えて、送信部
(PCS)から3次元コンピューターグラフィックスに
おける骨格構造の形状を示すデータストリームである形
状ストリーム(Ss)、動きを示すデータストリームで
ある動作ストリーム(Sm)及び該動きと同期する音を
示すデータストリームである音ストリーム(Sa)を受
信部(PCC)に送信し、該受信部(PCC)では送信
された該動作ストリーム(Sm)及び該音ストリーム
(Sa)を同期させて3次元コンピュータグラフィック
スを生成するように、3次元仮想空間を表すデータスト
リームを送受信する装置(100)であって、 該送信部(PCS)は、該受信部(PCC)からの要求
(Sr)に応じて、リアルタイムに該形状ストリーム
(Ss)、動作ストリーム(Sm)、及び該動作ストリ
ーム(Sm)に同期する音ストリーム(Sa)を予め決
められたデータストリーム(DS)のフォーマット(V
RF)に応じて複数のストリーム(Ss1、Sm1、S
a1;DS1)として同時に送信する送信手段(1)を
有し、更に、 伝送手段(TR、2)は、該複数のストリーム(Ss
1、Sm1、Sa1;DS1)を該送信部(PCS)か
ら該受信部(PCC)に対話的に伝送すると共に、 該受信部(PCC)は、 該伝送手段(TR、2)を経由して該送信部(PCS)
から伝送されてきた該複数のストリーム(DS1)を受
信すると共に、受信したストリーム(DS1)の種類お
よびフォーマット(VRML)を判別し、複数のストリ
ーム(Sm1、Sa1)を必要に応じてリアルタイムに
受信し、それぞれの判別されたストリーム(Sm1、S
a1)に応じて必要な復元処理をストリーム(Sm1、
Sa1)に加えるデータストリーム受信手段(3)と、 該受信部(PCC)で受信した該ストリーム(DS1)
のうち形状ストリーム(Ss1)或いは予め読み込まれ
た3次元形状データ(DS1、DS)を用いて3次元仮
想空間内に骨格構造の形状あるいは3次元仮想空間を生
成し、更に動作ストリーム(Sm1)を用いて該骨格構
造の形状を動かす3次元仮想空間生成手段(4)と、 該ストリーム(DS1)に音データ(Sa1)が含まれ
る場合は該骨格構造の動き(Sm1)に同期させて音デ
ータ(Sa1)を再生する音再生手段(5)とを有する
ことを特徴とする3次元仮想空間を表すデータストリー
ムを送受信する装置(100)。
2. A transmitting unit (PCS) and a receiving unit (PCC)
And transmission means (TR, 2) for connecting the transmitting section (PCS) and the receiving section (PCC) in two directions, and the shape of the skeleton structure in three-dimensional computer graphics from the transmitting section (PCS). The shape stream (Ss), which is a data stream indicating the motion, the motion stream (Sm), which is a data stream indicating motion, and the sound stream (Sa), which is a data stream indicating sound synchronized with the motion, are transmitted to the receiving unit (PCC). The receiving unit (PCC) transmits and receives a data stream representing a three-dimensional virtual space so as to synchronize the transmitted operation stream (Sm) and the transmitted sound stream (Sa) to generate three-dimensional computer graphics. The transmission unit (PCS) responds to a request (Sr) from the reception unit (PCC). Immediately, the shape stream (Ss), the operation stream (Sm), and the sound stream (Sa) synchronized with the operation stream (Sm) are converted into a predetermined data stream (DS) format (V
RF) and a plurality of streams (Ss1, Sm1, S
a1; DS1), the transmitting means (1) for simultaneously transmitting the plurality of streams (Ss).
1, Sm1, Sa1; DS1) from the transmitting unit (PCS) to the receiving unit (PCC) interactively, and the receiving unit (PCC) transmits via the transmission means (TR, 2). The transmission unit (PCS)
And the type and format (VRML) of the received stream (DS1) are determined, and the plurality of streams (Sm1, Sa1) are received in real time as necessary. Then, each of the determined streams (Sm1, Sm
The restoration processing necessary according to a1) is performed in a stream (Sm1,
Data stream receiving means (3) to be added to Sa1), and the stream (DS1) received by the receiving unit (PCC)
Of the skeleton structure or the three-dimensional virtual space in the three-dimensional virtual space using the shape stream (Ss1) or the three-dimensional shape data (DS1, DS) read in advance, and furthermore, the motion stream (Sm1) is generated. A three-dimensional virtual space generating means (4) for moving the shape of the skeletal structure by using the sound data (Sa1) when the stream (DS1) includes the sound data (Sa1). An apparatus (100) for transmitting and receiving a data stream representing a three-dimensional virtual space, comprising: a sound reproducing means (5) for reproducing (Sa1).
【請求項3】 前記3次元仮想空間生成手段(4)は、
前記データストリーム受信手段(3)で復元されたデー
タストリーム(DS)に対して、前記伝送手段(TR、
2)を介して繋がった複数の受信部(PCCn)からの
要求(Sr)に基づいて、伝送すべきデータの種類およ
び部分を指定して、その指定されたデータを管理する一
方、 要求のあった受信部(PCC)に対する該管理されたデ
ータの送信を設定する手段(1)を設け、更に、 前記送信部(PCS、1)は、前記要求(Sr)に応じ
て、該管理されたデータを要求のある受信部(PCC)
に伝送することを特徴とする請求項2に記載の装置(1
00)。
3. The three-dimensional virtual space generation means (4)
For the data stream (DS) restored by the data stream receiving means (3), the transmission means (TR,
On the basis of requests (Sr) from a plurality of receiving units (PCCn) connected via 2), the type and part of data to be transmitted are specified, and the specified data is managed. Means (1) for setting the transmission of the managed data to the receiving unit (PCC), wherein the transmitting unit (PCS, 1) responds to the request (Sr). Receiving unit (PCC) requesting
3. The device (1) according to claim 2, wherein
00).
【請求項4】 前記送信手段(1)は、送信対象データ
ストリーム(DS)に対して、形状ストリーム(S
s)、動作ストリーム(Sm)及び音ストリーム(S
a)を判別すると共に一つ以上のデータストリーム(D
S)とし、データストリーム(DS)を圧縮或いは予め
決められた分割単位(パケット)に分解し、形状ストリ
ーム(Ss)、動作ストリーム(Sm)及び音ストリー
ム(Sa)のための判別手段(ID、MH)と共にスト
リーム(DS1)を送信する手段(14)を有し、 前記受信手段(3)は、該伝送されたストリーム(DS
1)に対して、形状ストリーム(Ss1)、動作ストリ
ーム(Sm1)及び音ストリーム(Sa1)を判別し、
該判別手段(ID、MH)に基づいて、一つ以上のスト
リーム(DS1)として復元すると共に予め決められた
分割単位(パケット)を繋ぎ合わせて元のデータストリ
ーム(DS)を同時に復元する手段(31)を有し、更
に、 前記3次元空間生成手段(4)は、該復元されたデータ
ストリーム(DS)に対して、形状ストリーム(S
s)、動作ストリーム(Sm)及び音ストリーム(S
a)を判別する一方、 該判別手段(ID、MH)に基づいて形状ストリーム
(Ss)、動作ストリーム(Sm)及び音ストリーム
(Sa)を再生する手段(3)を設けたことを特徴とす
る請求項2又は3に記載の装置(100)。
4. The transmission means (1) transmits a shape stream (S) to a transmission target data stream (DS).
s), motion stream (Sm) and sound stream (Sm).
a) and one or more data streams (D
S), the data stream (DS) is compressed or decomposed into predetermined division units (packets), and discriminating means (ID, ID, MH) and a means (14) for transmitting the stream (DS1) together with the transmitted stream (DS1).
For 1), a shape stream (Ss1), a motion stream (Sm1) and a sound stream (Sa1) are determined,
Based on the discriminating means (ID, MH), means for restoring as one or more streams (DS1) and for simultaneously restoring the original data stream (DS) by connecting predetermined division units (packets) ( 31), and the three-dimensional space generation means (4) generates a shape stream (S) for the reconstructed data stream (DS).
s), motion stream (Sm) and sound stream (Sm).
a) for discriminating a) and a means (3) for reproducing the shape stream (Ss), the motion stream (Sm) and the sound stream (Sa) based on the discriminating means (ID, MH). Apparatus (100) according to claim 2 or 3.
【請求項5】 前記送信手段(1)は、送信対象データ
ストリーム(DS)に対して、形状ストリーム(S
s)、動作ストリーム(Sm)及び音ストリーム(S
a)を判別し、複数の動作に対して、動作の種類と組合
せ、対応する3次元骨格構造の形状、及び再生条件と共
に一つ以上のデータストリーム(DS)とし、データス
トリーム(DS)を圧縮或いは予め決められた分割単位
(パケット)に分解し、形状ストリーム(Ss)、動作
ストリーム(Sm)及び音ストリーム(Sa)のための
判別手段(ID、MH)と共にストリーム(DS1)を
送信する手段(14)を有し、 前記受信手段(3)は、該伝送されたストリーム(DS
1)に対して、形状ストリーム(Ss1)、動作ストリ
ーム(Sm1)及び音ストリーム(Sa1)を判別し、
複数の動作に対して、動作の種類と組合せ、対応する3
次元骨格構造の形状、及び再生条件に基づいて、一つ以
上のストリーム(DS1)として復元或いは予め決めら
れた分割単位(パケット)を同時に繋ぎ合わせて元のデ
ータストリーム(DS)に復元する手段(31)を有
し、更に、 前記3次元空間生成手段(4)は、該復元されたデータ
ストリーム(DS)に対して、形状ストリーム(S
s)、動作ストリーム(Sm)及び音ストリーム(S
a)を判別する一方、 複数の動作に対して、動作の種類と組合せ、対応する3
次元骨格構造の形状、及び再生条件に基づき指定された
骨格構造の形状の動作を再生する手段(4)を設けたこ
とを特徴とする請求項2又は3に記載の装置(10
0)。
5. The transmission means (1) transmits a shape stream (S) to a transmission target data stream (DS).
s), motion stream (Sm) and sound stream (Sm).
a) is determined, and for a plurality of operations, one or more data streams (DS) are combined with the type and combination of the operation, the shape of the corresponding three-dimensional skeleton structure, and the reproduction condition, and the data stream (DS) is compressed. Alternatively, the stream (DS1) is decomposed into predetermined division units (packets), and the stream (DS1) is transmitted together with the discriminating means (ID, MH) for the shape stream (Ss), the operation stream (Sm), and the sound stream (Sa). (14), and the receiving means (3) includes the transmitted stream (DS)
For 1), a shape stream (Ss1), a motion stream (Sm1) and a sound stream (Sa1) are determined,
For a plurality of actions, the action type and combination
Means for restoring as one or more streams (DS1) based on the shape of the dimensional skeletal structure and the reproduction conditions or for simultaneously reconstructing predetermined division units (packets) to restore the original data stream (DS) ( 31), and the three-dimensional space generation means (4) generates a shape stream (S) for the restored data stream (DS).
s), motion stream (Sm) and sound stream (Sm).
While determining a), for a plurality of actions, a combination of action types and
4. The apparatus according to claim 2, further comprising means (4) for reproducing an operation of the shape of the three-dimensional skeleton structure and the shape of the skeleton structure specified based on the reproduction conditions.
0).
【請求項6】 前記送信手段(1)は、送信対象データ
ストリーム(DS)に対して、形状ストリーム(S
s)、動作ストリーム(Sm)及び音ストリーム(S
a)を判別し、複数の動作および音に対して、動作およ
び音の種類と組合せ、対応する3次元骨格構造の形状、
及び再生条件と共に一つ以上のデータストリーム(D
S)とし、データストリーム(DS)を圧縮或いは予め
決められた分割単位(パケット)に分解し、形状ストリ
ーム(Ss)、動作ストリーム(Sm)及び音ストリー
ム(Sa)のための判別手段(ID、MH)及び形状ス
トリーム(Ss)、動作ストリーム(Sm)及び音スト
リーム(Sa)同士の同期情報(TS)と共にストリー
ム(DS1)を送信する手段(14)を有し、 前記受信手段(3)は、該伝送されたストリーム(DS
1)に対して、形状ストリーム(Ss1)、動作ストリ
ーム(Sm1)及び音ストリーム(Sa1)を判別し、
複数の動作および音に対して、動作の種類と組合せ、対
応する3次元骨格構造の形状、及び再生条件に基づい
て、一つ以上のストリーム(DS1)として復元或いは
予め決められた分割単位(パケット)を同時に繋ぎ合わ
せて元のデータストリーム(DS)に復元する手段(3
1)を有し、更に、 前記3次元空間生成手段(4)は、該復元されたデータ
ストリーム(DS)に対して、形状ストリーム(S
s)、動作ストリーム(Sm)及び音ストリーム(S
a)を判別する一方、 複数の動作及び音に対して、動作の種類と組合せ、対応
する3次元骨格構造の形状、及び再生条件に基づき指定
された骨格構造の形状の動作を再生する手段(4)と、
同時に音データ(Sa)と動き(Sm)を同期させて再
生する手段(4)とを設けたことを特徴とする請求項2
又は3に記載の装置(100)。
6. The transmission means (1) transmits a shape stream (S) to a transmission target data stream (DS).
s), motion stream (Sm) and sound stream (Sm).
a) is determined, and a plurality of actions and sounds are combined with types of actions and sounds, and the shape of the corresponding three-dimensional skeletal structure;
And one or more data streams (D
S), the data stream (DS) is compressed or decomposed into predetermined division units (packets), and discriminating means (ID, ID) for the shape stream (Ss), the operation stream (Sm), and the sound stream (Sa) MH) and means (14) for transmitting a stream (DS1) together with synchronization information (TS) between the shape stream (Ss), the operation stream (Sm) and the sound stream (Sa). , The transmitted stream (DS
For 1), a shape stream (Ss1), a motion stream (Sm1) and a sound stream (Sa1) are determined,
For a plurality of actions and sounds, based on the type and combination of the actions, the shape of the corresponding three-dimensional skeletal structure, and the reproduction conditions, one or more streams (DS1) are restored or divided into predetermined units (packets). ) At the same time to restore the original data stream (DS) (3)
1), and the three-dimensional space generation means (4) generates a shape stream (S) for the reconstructed data stream (DS).
s), motion stream (Sm) and sound stream (Sm).
Means for recognizing (a), for a plurality of actions and sounds, reproducing the action of the combination of the type of action, the shape of the corresponding three-dimensional skeletal structure, and the shape of the skeletal structure specified based on the playback conditions ( 4) and
3. A means (4) for synchronizing and reproducing the sound data (Sa) and the movement (Sm) at the same time.
Or the apparatus (100) according to 3.
【請求項7】 送信部(PCS)から3次元コンピュー
ターグラフィックスにおける骨格構造の形状を示すデー
タストリームである形状ストリーム(Ss)、動きを示
すデータストリームである動作ストリーム(Sm)及び
該動きと同期する音を示す音ストリーム(Sa)を受信
部(PCC)に送信し、該受信部(PCC)では送信さ
れた該動作ストリーム(Sm)と該音ストリーム(S
a)を同期させて3次元コンピュータグラフィックスを
生成するように、3次元仮想空間を表すデータストリー
ムを送受信する方法であって、 該形状ストリーム(Ss)、該動作ストリーム(S
m)、及び該動作ストリーム(Sm)に同期する該音ス
トリーム(Sa)を予め決められたデータストリーム
(DS)のフォーマット(VRF)に応じて複数のスト
リーム(Ss1、Sm1、Sa1;DS1)として同時
に送信する送信ステップ(S35)と、 該送信部(PCS)と該受信部(PCC)とを接続し
て、該複数のストリーム(Ss1、Sm1、Sa1;D
S1)を該送信部(PCS)から該受信部(PCC)に
伝送する伝送ステップ(S21〜S37)と、 該伝送された該複数のストリーム(DS1)を受信する
と共に、受信したストリーム(DS1)の種類およびフ
ォーマット(VRLM)を判別し、複数のストリーム
(Sm1、Sa1)を受信し、それぞれの判別されたス
トリーム(Sm1、Sa1)に応じてストリーム(Sm
1、Sa1)の復元処理を行うデータストリーム受信ス
テップ(S39、S41、S43)と、 該受信部(PCC)で受信した該ストリーム(DS1)
のうち形状ストリーム(Ss1)或いは予め読み込まれ
た3次元形状データ(DS1、DS)を用いて3次元仮
想空間内に骨格構造の形状或いは3次元仮想空間を生成
し、更に動作ストリーム(Sm1)を用いて骨格構造の
形状を動かす3次元仮想空間生成ステップ(S51〜S
73)と、 該ストリーム(DS1)に音データ(Sa1)が含まれ
る場合は、該骨格構造の動き(Sm1)に同期させて音
データ(Sa1)を再生する音再生ステップ(S61、
S63)とを含むことを特徴とする3次元仮想空間を表
すデータストリームを送受信する方法。
7. A shape stream (Ss), which is a data stream indicating the shape of a skeleton structure in three-dimensional computer graphics, a motion stream (Sm), which is a data stream indicating motion, and synchronization with the motion from the transmitting unit (PCS). A sound stream (Sa) indicating a sound to be played is transmitted to a receiving unit (PCC), and the received operating stream (Sm) and the sound stream (Sm) are transmitted to the receiving unit (PCC).
a) transmitting and receiving a data stream representing a three-dimensional virtual space so as to generate three-dimensional computer graphics by synchronizing the shape stream (Ss) and the operation stream (S
m) and the sound stream (Sa) synchronized with the operation stream (Sm) as a plurality of streams (Ss1, Sm1, Sa1; DS1) according to a predetermined data stream (DS) format (VRF). A transmitting step (S35) for transmitting simultaneously; connecting the transmitting unit (PCS) and the receiving unit (PCC) to connect the plurality of streams (Ss1, Sm1, Sa1; D
(S1) transmitting from the transmitting unit (PCS) to the receiving unit (PCC) (S21 to S37); receiving the transmitted plurality of streams (DS1) and receiving the received stream (DS1) Of the stream (Sm1, Sa1), and receives the streams (Sm1, Sa1) according to the determined streams (Sm1, Sa1).
1, Sa1), a data stream receiving step (S39, S41, S43) for performing restoration processing, and the stream (DS1) received by the receiving unit (PCC).
Of the skeleton structure or the three-dimensional virtual space in the three-dimensional virtual space using the shape stream (Ss1) or the three-dimensional shape data (DS1, DS) read in advance, and furthermore, the motion stream (Sm1) 3D virtual space generation step for moving the shape of the skeletal structure using
73), and when the stream (DS1) includes sound data (Sa1), a sound reproduction step (S61, S61) for reproducing the sound data (Sa1) in synchronization with the movement (Sm1) of the skeletal structure.
S63). A method for transmitting and receiving a data stream representing a three-dimensional virtual space, the method comprising:
【請求項8】 送信部(PCS)から3次元コンピュー
ターグラフィックスにおける骨格構造の形状を示すデー
タストリームである形状ストリーム(Ss)、動きを示
すデータストリームである動作ストリーム(Sm)及び
該動きと同期する音を示す音ストリーム(Sa)を受信
部(PCC)に送信し、該受信部(PCC)では送信さ
れた該動作ストリーム(Sm)と該音ストリーム(S
a)を同期させて3次元コンピュータグラフィックスを
生成するように、3次元仮想空間を表すデータストリー
ムを送受信する方法であって、 該受信部(PCC)からの要求(Sr)に応じて、リア
ルタイムに該形状ストリーム(Ss)、該動作ストリー
ム(Sm)、及び該動作ストリーム(Sm)に同期する
該音ストリーム(Sa)を予め決められたデータストリ
ーム(DS)のフォーマット(VRF)に応じて複数の
ストリーム(Ss1、Sm1、Sa1;DS1)として
同時に送信する送信ステップ(S35)と、 該送信部(PCS)と該受信部(PCC)とを双方向に
接続して、該複数のストリーム(Ss1、Sm1、Sa
1;DS1)を該送信部(PCS)から該受信部(PC
C)に対話的に伝送する伝送ステップ(S21〜S3
7)と、 該伝送された該複数のストリーム(DS1)を受信する
と共に、受信したストリーム(DS1)の種類およびフ
ォーマット(VRLM)を判別し、複数のストリーム
(Sm1、Sa1)をリアルタイムに受信し、それぞれ
の判別されたストリーム(Sm1、Sa1)に応じてス
トリーム(Sm1、Sa1)の復元処理を行うデータス
トリーム受信ステップ(S39、S41、S43)と、 該受信部(PCC)で受信した該ストリーム(DS1)
のうち形状ストリーム(Ss1)或いは予め読み込まれ
た3次元形状データ(DS1、DS)を用いて3次元仮
想空間内に骨格構造の形状或いは3次元仮想空間を生成
し、更に動作ストリーム(Sm1)を用いて骨格構造の
形状を動かす3次元仮想空間生成ステップ(S51〜S
73)と、 該ストリーム(DS1)に音データ(Sa1)が含まれ
る場合は、該骨格構造の動き(Sm1)に同期させて音
データ(Sa1)を再生する音再生ステップ(S61、
S63)とを含むことを特徴とする3次元仮想空間を表
すデータストリームを送受信する方法。
8. A shape stream (Ss), which is a data stream indicating the shape of a skeleton structure in three-dimensional computer graphics, a motion stream (Sm), which is a data stream indicating motion, and synchronization with the motion from the transmitting unit (PCS). A sound stream (Sa) indicating a sound to be played is transmitted to a receiving unit (PCC), and the received operating stream (Sm) and the sound stream (Sm) are transmitted to the receiving unit (PCC).
a) transmitting and receiving a data stream representing a three-dimensional virtual space so as to generate three-dimensional computer graphics by synchronizing a) with each other, and in response to a request (Sr) from the receiving unit (PCC), In accordance with a predetermined data stream (DS) format (VRF), the shape stream (Ss), the operation stream (Sm), and the sound stream (Sa) synchronized with the operation stream (Sm) A transmission step (S35) of transmitting simultaneously as streams (Ss1, Sm1, Sa1; DS1), and the transmitting unit (PCS) and the receiving unit (PCC) are bidirectionally connected to each other to form the plurality of streams (Ss1). , Sm1, Sa
1; DS1) from the transmitting section (PCS) to the receiving section (PC
C) a transmission step (S21-S3) for interactive transmission
7) receiving the plurality of transmitted streams (DS1), determining the type and format (VRLM) of the received stream (DS1), and receiving the plurality of streams (Sm1, Sa1) in real time. A data stream receiving step (S39, S41, S43) for performing a restoration process on the stream (Sm1, Sa1) according to each of the determined streams (Sm1, Sa1); and the stream received by the receiving unit (PCC). (DS1)
Of the skeleton structure or the three-dimensional virtual space in the three-dimensional virtual space using the shape stream (Ss1) or the three-dimensional shape data (DS1, DS) read in advance, and furthermore, the motion stream (Sm1) 3D virtual space generation step for moving the shape of the skeletal structure using
73), and when the stream (DS1) includes sound data (Sa1), a sound reproduction step (S61, S61) for reproducing the sound data (Sa1) in synchronization with the movement (Sm1) of the skeletal structure.
S63). A method for transmitting and receiving a data stream representing a three-dimensional virtual space, the method comprising:
【請求項9】 前記3次元仮想空間生成ステップ(S5
1〜S73)は、 前記データストリーム受信ステップ(S39、S41、
S43)で復元されたデータストリーム(DS)に対し
て、前記送信ステップ(S35)によって繋がった複数
の受信部(PCCn)からの要求(Sr)に基づいて、
伝送すべきデータの種類および部分を指定して、その指
定されたデータを管理すると同時に、要求のあった受信
部(PCC)に対する該管理されたデータの送信を設定
するステップ(S35)を含み、 前記送信部(PCS、1)は、前記要求(Sr)に応じ
て、該管理されたデータを要求のある受信部(PCC)
に伝送することを特徴とする請求項8に記載の方法。
9. The three-dimensional virtual space generating step (S5)
1 to S73), the data stream receiving step (S39, S41,
For the data stream (DS) restored in S43), based on the requests (Sr) from the plurality of receiving units (PCCn) connected in the transmitting step (S35),
Specifying a type and a portion of data to be transmitted and managing the specified data, and setting transmission of the managed data to a receiving unit (PCC) that has requested (S35) In response to the request (Sr), the transmitting unit (PCS, 1) transmits the managed data to the receiving unit (PCC)
9. The method according to claim 8, wherein the data is transmitted to a computer.
【請求項10】 前記送信ステップ(S35)は、送信
対象データストリーム(DS)に対して、形状ストリー
ム(Ss)、動作ストリーム(Sm)および音ストリー
ム(Sa)を判別すると共に一つ以上のデータストリー
ム(DS)とし、データストリーム(DS)を圧縮或い
は予め決められた分割単位(パケット)に分解し、形状
ストリーム(Ss)、動作ストリーム(Sm)および音
ストリーム(Sa)のための判別手段(ID、MH)と
共にストリーム(DS1)を送信するステップ(S3
5)を有し、 前記受信ステップ(S39、S41、S43)は、該伝
送されたストリーム(DS1)に対して、形状ストリー
ム(Ss1)、動作ストリーム(Sm)及び音ストリー
ム(Sa1)を判別し、該判別手段(ID、MH)に基
づいて、一つ以上のストリーム(DS1)として復元す
ると共に予め決められた分割単位(パケット)を繋ぎ合
わせて元のデータストリーム(DS)を同時に復元する
ステップ(S43)を有し、更に、 前記3次元仮想空間生成ステップ(S51〜S73)
は、該復元されたデータストリーム(DS)に対して、
形状ストリーム(Ss)、動作ストリーム(Sm)及び
音ストリーム(Sa)を判別し、該判別手段(ID、M
H)に基づいて形状ストリーム(Ss)、動作ストリー
ム(Sm)及び音ストリーム(Sa)を再生するステッ
プ(S59)を有することを特徴とする請求項8又は9
に記載の方法。
10. The transmitting step (S35) includes determining a shape stream (Ss), a motion stream (Sm), and a sound stream (Sa) with respect to a data stream to be transmitted (DS) and transmitting one or more data streams. Stream (DS), the data stream (DS) is compressed or decomposed into predetermined division units (packets), and the discriminating means (Ss), motion stream (Sm) and sound stream (Sa) are determined. (S3) transmitting the stream (DS1) together with the ID (MH, ID)
5), wherein the receiving step (S39, S41, S43) determines a shape stream (Ss1), a motion stream (Sm), and a sound stream (Sa1) for the transmitted stream (DS1). Restoring as one or more streams (DS1) based on the discriminating means (ID, MH) and simultaneously restoring the original data stream (DS) by connecting predetermined division units (packets) (S43), and the three-dimensional virtual space generating step (S51 to S73)
For the recovered data stream (DS):
The shape stream (Ss), the motion stream (Sm) and the sound stream (Sa) are discriminated, and the discrimination means (ID, M
10. A step (S59) for reproducing a shape stream (Ss), a motion stream (Sm) and a sound stream (Sa) based on H).
The method described in.
【請求項11】 前記送信ステップ(S35)は、送信
対象データストリーム(DS)に対して、形状ストリー
ム(Ss)、動作ストリーム(Sm)及び音ストリーム
(Sa)を判別し、複数の動作に対して、動作の種類と
組合せ、対応する3次元骨格構造の形状、及び再生条件
と共に一つ以上のデータストリーム(DS)とし、デー
タストリーム(DS)を圧縮或いは予め決められた分割
単位(パケット)に分解し、形状ストリーム(Ss)、
動作ストリーム(Sm)及び音ストリーム(Sa)のた
めの判別手段(ID、MH)と共にストリーム(DS
1)を送信するステップ(S35)を有し、 前記受信ステップ(S39、S41、S43)は、該伝
送されたストリーム(DS1)に対して、形状ストリー
ム(Ss1)、動作ストリーム(Sm1)及び音ストリ
ーム(Sa1)を判別し、複数の動作に対して、動作の
種類と組合せ、対応する3次元骨格構造の形状、及び再
生条件に基づいて、一つ以上のストリーム(DS1)と
して復元或いは予め決められた分割単位(パケット)を
同時に繋ぎ合わせてもとのデータストリーム(DS)に
復元するステップ(S43)を有し、更に、 前記3次元仮想空間生成ステップ(S51〜S73)
は、該復元されたデータストリーム(DS)に対して、
形状ストリーム(Ss)、動作ストリーム(Sm)およ
び音ストリーム(Sa)を判別し、複数の動作に対し
て、動作の種類と組合せ、対応する3次元骨格構造の形
状、及び再生条件に基づき指定された骨格構造の形状の
動作を再生するステップ(S41)を有することを特徴
とする請求項8又は9に記載の方法。
11. The transmitting step (S35) includes determining a shape stream (Ss), a motion stream (Sm), and a sound stream (Sa) for a data stream (DS) to be transmitted, and One or more data streams (DS) together with the type and operation of the operation, the shape of the corresponding three-dimensional skeletal structure, and the reproduction condition, and compress the data stream (DS) or divide the data stream into predetermined division units (packets). Decompose, shape stream (Ss),
The stream (DS) together with the discriminating means (ID, MH) for the operation stream (Sm) and the sound stream (Sa)
1) the step of transmitting (S35), and the step of receiving (S39, S41, S43) includes, for the transmitted stream (DS1), a shape stream (Ss1), a motion stream (Sm1), and a sound. The stream (Sa1) is discriminated, and a plurality of operations are restored or predetermined as one or more streams (DS1) based on the combination of the type of operation, the shape of the corresponding three-dimensional skeleton structure, and the reproduction condition. (S43) restoring the divided units (packets) to the original data stream (DS) at the same time, and further comprises the three-dimensional virtual space generating steps (S51 to S73).
For the recovered data stream (DS):
The shape stream (Ss), the motion stream (Sm), and the sound stream (Sa) are discriminated, and a plurality of motions are specified based on a combination of motion types, a shape of a corresponding three-dimensional skeleton structure, and reproduction conditions. The method according to claim 8 or 9, further comprising a step (S41) of reproducing a motion of the shape of the skeleton structure.
【請求項12】 前記送信ステップ(S35)は、送信
対象データストリーム(DS)に対して、形状ストリー
ム(Ss)、動作ストリーム(Sm)及び音ストリーム
(Sa)を判別し、複数の動作及び音に対して、動作及
び音の種類と組合せ、対応する3次元骨格構造の形状、
及び再生条件と共に一つ以上のデータストリーム(D
S)とし、データストリーム(DS)を圧縮或いは予め
決められた分割単位(パケット)に分解し、形状ストリ
ーム(Ss)、動作ストリーム(Sm)及び音ストリー
ム(Sa)のための判別手段(ID、MH)及び形状ス
トリーム(Ss)、動作ストリーム(Sm)及び音スト
リーム(Sa)同士の同期情報(TS)と共にストリー
ム(DS1)を送信するステップ(S35)を有し、 前記受信ステップ(S39、S41、S43)は、該伝
送されたストリーム(DS1)に対して、形状ストリー
ム(Ss1)、動作ストリーム(Sm1)及び音ストリ
ーム(Sa1)を判別し、複数の動作および音に対し
て、動作の種類と組合せ、対応する3次元骨格構造の形
状、及び再生条件に基づいて、一つ以上のストリーム
(DS1)として復元或いは予め決められた分割単位
(パケット)を同時に繋ぎ合わせて元のデータストリー
ム(DS)に復元するステップ(S43)を有し、更
に、 前記3次元仮想空間生成ステップ(S51〜S73)
は、該復元されたデータストリーム(DS)に対して、
形状ストリーム(Ss)、動作ストリーム(Sm)及び
音ストリーム(Sa)を判別し、複数の動作および音に
対して、動作の種類と組合せ、対応する3次元骨格構造
の形状、及び再生条件に基づき指定された骨格構造の形
状の動作を再生するステップ(S59)と、同時に音デ
ータ(Sa)と動き(Sm)を同期させて再生するステ
ップ(S61〜S67)とを有することを特徴とする請
求項8又は9に記載の方法。
12. The transmitting step (S35) includes determining a shape stream (Ss), a motion stream (Sm), and a sound stream (Sa) with respect to a transmission target data stream (DS), and For the combination of motion and sound type, the shape of the corresponding 3D skeleton structure,
And one or more data streams (D
S), the data stream (DS) is compressed or decomposed into predetermined division units (packets), and discriminating means (ID, ID) for the shape stream (Ss), the operation stream (Sm), and the sound stream (Sa) MH) and the shape stream (Ss), the operation stream (Sm), and the stream (DS1) together with the synchronization information (TS) between the sound streams (Sa). The receiving step (S39, S41) , S43) determines a shape stream (Ss1), a motion stream (Sm1), and a sound stream (Sa1) for the transmitted stream (DS1), and determines the type of motion for a plurality of motions and sounds. And restore or convert as one or more streams (DS1) based on the shape of the corresponding three-dimensional skeletal structure and playback conditions. Or a step of simultaneously connecting predetermined division units (packets) to restore the original data stream (DS) (S43), and further, the three-dimensional virtual space generation steps (S51 to S73).
For the recovered data stream (DS):
The shape stream (Ss), the motion stream (Sm), and the sound stream (Sa) are determined, and a plurality of motions and sounds are combined based on the type of motion, the shape of the corresponding three-dimensional skeleton structure, and reproduction conditions. A step (S59) of reproducing the operation of the shape of the designated skeletal structure, and a step (S61 to S67) of simultaneously reproducing the sound data (Sa) and the movement (Sm) in synchronization. Item 10. The method according to item 8 or 9.
【請求項13】 送信部(PCS)と、受信部(PC
C)と、該送信部(PCS)と該受信部(PCC)とを
接続する伝送手段(TR、2)とを備えて、送信部(P
CS)から3次元コンピューターグラフィックスにおけ
る骨格構造の形状を示すデータストリームである形状ス
トリーム(Ss)、動きを示すデータストリームである
動作ストリーム(Sm)及び該動きと同期する音を示す
データストリームである音ストリーム(Sa)を受信部
(PCC)に送信し、該受信部(PCC)では送信され
た該動作ストリーム(Sm)及び該音ストリーム(S
a)を同期させて3次元コンピュータグラフィックスを
生成するように、3次元仮想空間を表すデータストリー
ムを送受信するシステム(100)の送信部(PCS)
の送信機能をコンピュータ(PC)に実行させるための
プログラムを記録したコンピュータ(PC)読取り可能
な記録媒体(FD)であって、 該送信機能は、 該形状ストリーム(Ss)、動作ストリーム(Sm)、
及び該動作ストリーム(Sm)に同期する音ストリーム
(Sa)を予め決められたデータストリーム(DS)の
フォーマット(VRF)に応じて複数のストリーム(S
s1、Sm1、Sa1;DS1)として同時に送信する
機能と、 該複数のストリーム(Ss1、Sm1、Sa1;DS
1)を該送信部(PCS)から該受信部(PCC)に伝
送する機能とを含むことを特徴とするコンピュータ(P
C)読取り可能な記録媒体(FD)。
13. A transmitting unit (PCS) and a receiving unit (PC)
C) and transmission means (TR, 2) for connecting the transmitting unit (PCS) and the receiving unit (PCC).
CS), a shape stream (Ss) which is a data stream indicating the shape of the skeletal structure in three-dimensional computer graphics, an operation stream (Sm) which is a data stream indicating motion, and a data stream indicating sound synchronized with the motion. The sound stream (Sa) is transmitted to the receiving unit (PCC), and the receiving unit (PCC) transmits the transmitted operation stream (Sm) and the transmitted sound stream (Sm).
A transmission unit (PCS) of the system (100) for transmitting and receiving a data stream representing a three-dimensional virtual space so as to generate three-dimensional computer graphics by synchronizing a).
A computer (PC) readable recording medium (FD) that stores a program for causing a computer (PC) to execute the transmission function of (a), the transmission function comprising: the shape stream (Ss) and the operation stream (Sm) ,
And a sound stream (Sa) synchronized with the operation stream (Sm) according to a predetermined data stream (DS) format (VRF).
s1, Sm1, Sa1; DS1) and a function of simultaneously transmitting the streams (Ss1, Sm1, Sa1; DS).
(1) transmitting the data from the transmitting unit (PCS) to the receiving unit (PCC).
C) Readable recording medium (FD).
【請求項14】 送信部(PCS)と、受信部(PC
C)と、該送信部(PCS)と該受信部(PCC)とを
接続する伝送手段(TR、2)とを備えて、送信部(P
CS)から3次元コンピューターグラフィックスにおけ
る骨格構造の形状を示すデータストリームである形状ス
トリーム(Ss)、動きを示すデータストリームである
動作ストリーム(Sm)及び該動きと同期する音を示す
データストリームである音ストリーム(Sa)を受信部
(PCC)に送信し、該受信部(PCC)では送信され
た該動作ストリーム(Sm)及び該音ストリーム(S
a)を同期させて3次元コンピュータグラフィックスを
生成するように、3次元仮想空間を表すデータストリー
ムを送受信するシステム(100)の受信部(PCC)
の受信機能をコンピュータ(PC)に実行させるための
プログラムを記録したコンピュータ(PC)読取り可能
な記録媒体(FD)であって、 該送信部(PCS)は、該形状ストリーム(Ss)、動
作ストリーム(Sm)、及び該動作ストリーム(Sm)
に同期する音ストリーム(Sa)を予め決められたデー
タストリーム(DS)のフォーマット(VRF)に応じ
て複数のストリーム(Ss1、Sm1、Sa1;DS
1)として同時に送信し、更に、 伝送手段(TR、2)は、該複数のストリーム(Ss
1、Sm1、Sa1;DS1)を該送信部(PCS)か
ら該受信部(PCC)に伝送すると共に、 該受信機能は、 該伝送手段(TR、2)を経由して該送信部(PCS)
から伝送されてきた該複数のストリーム(DS1)を受
信すると共に、受信したストリーム(DS1)の種類お
よびフォーマット(VRML)を判別し、複数のストリ
ーム(Sm1、Sa1)を受信し、それぞれの判別され
たストリーム(Sm1、Sa1)に応じて必要な復元処
理をストリーム(Sm1、Sa1)に加える機能と、 該受信部(PCC)で受信した該ストリーム(DS1)
のうち形状ストリーム(Ss1)或いは予め読み込まれ
た3次元形状データ(DS1、DS)を用いて3次元仮
想空間内に骨格構造の形状あるいは3次元仮想空間を生
成し、更に動作ストリーム(Sm1)を用いて該骨格構
造の形状を動かす機能と、 該ストリーム(DS1)に音データ(Sa1)が含まれ
る場合は該骨格構造の動き(Sm1)に同期させて音デ
ータ(Sa1)を再生する機能とを含むことを特徴とす
るコンピュータ(PC)読取り可能な記録媒体(F
D)。
14. A transmitting unit (PCS) and a receiving unit (PC)
C) and transmission means (TR, 2) for connecting the transmitting unit (PCS) and the receiving unit (PCC).
CS), a shape stream (Ss) which is a data stream indicating the shape of the skeletal structure in three-dimensional computer graphics, an operation stream (Sm) which is a data stream indicating motion, and a data stream indicating sound synchronized with the motion. The sound stream (Sa) is transmitted to the receiving unit (PCC), and the receiving unit (PCC) transmits the transmitted operation stream (Sm) and the transmitted sound stream (Sm).
a receiving unit (PCC) of the system (100) for transmitting and receiving a data stream representing a three-dimensional virtual space so as to generate three-dimensional computer graphics by synchronizing a)
A computer (PC) readable recording medium (FD) that records a program for causing a computer (PC) to execute the receiving function of (a), wherein the transmission unit (PCS) includes the shape stream (Ss) and the operation stream. (Sm) and the operation stream (Sm)
A sound stream (Sa) synchronized with a plurality of streams (Ss1, Sm1, Sa1; DS) according to a predetermined data stream (DS) format (VRF)
1), and the transmission means (TR, 2) further transmits the plurality of streams (Ss
1, Sm1, Sa1; DS1) from the transmitting unit (PCS) to the receiving unit (PCC), and the receiving function includes the transmitting unit (PCS) via the transmitting means (TR, 2).
, The type and format (VRML) of the received stream (DS1) are determined, and the plurality of streams (Sm1, Sa1) are received. A function of adding necessary restoration processing to the stream (Sm1, Sa1) according to the stream (Sm1, Sa1), and the stream (DS1) received by the receiving unit (PCC).
Of the skeletal structure or the three-dimensional virtual space in the three-dimensional virtual space using the shape stream (Ss1) or the three-dimensional shape data (DS1, DS) read in advance, and further the motion stream (Sm1) is generated. A function of moving the shape of the skeletal structure using the function, and a function of reproducing the sound data (Sa1) in synchronization with the movement (Sm1) of the skeletal structure when the stream (DS1) includes sound data (Sa1). A computer (PC) readable recording medium (F)
D).
【請求項15】 送信部(PCS)から3次元コンピュ
ーターグラフィックスにおける骨格構造の形状を示すデ
ータストリームである形状ストリーム(Ss)、動きを
示すデータストリームである動作ストリーム(Sm)及
び該動きと同期する音を示す音ストリーム(Sa)を受
信部(PCC)に送信し、該受信部(PCC)では送信
された該動作ストリーム(Sm)と該音ストリーム(S
a)を同期させて3次元コンピュータグラフィックスを
生成するように、3次元仮想空間を表すデータストリー
ムを送受信する方法をコンピュータ(PC)に実行させ
るためのプログラムを記録したコンピュータ(PC)読
取り可能な記録媒体(FD)であって、 該方法は、 該受信部(PCC)からの要求(Sr)に応じて、リア
ルタイムに該形状ストリーム(Ss)、該動作ストリー
ム(Sm)、及び該動作ストリーム(Sm)に同期する
該音ストリーム(Sa)を予め決められたデータストリ
ーム(DS)のフォーマット(VRF)に応じて複数の
ストリーム(Ss1、Sm1、Sa1;DS1)として
同時に送信する送信ステップ(S35)と、 該送信部(PCS)と該受信部(PCC)とを双方向に
接続して、該複数のストリーム(Ss1、Sm1、Sa
1;DS1)を該送信部(PCS)から該受信部(PC
C)に対話的に伝送する伝送ステップ(S21〜S3
7)と、 該伝送された該複数のストリーム(DS1)を受信する
と共に、受信したストリーム(DS1)の種類およびフ
ォーマット(VRLM)を判別し、複数のストリーム
(Sm1、Sa1)をリアルタイムに受信し、それぞれ
の判別されたストリーム(Sm1、Sa1)に応じてス
トリーム(Sm1、Sa1)の復元処理を行うデータス
トリーム受信ステップ(S39、S41、S43)と、 該受信部(PCC)で受信した該ストリーム(DS1)
のうち形状ストリーム(Ss1)或いは予め読み込まれ
た3次元形状データ(DS1、DS)を用いて3次元仮
想空間内に骨格構造の形状或いは3次元仮想空間を生成
し、更に動作ストリーム(Sm1)を用いて骨格構造の
形状を動かす3次元仮想空間生成ステップ(S51〜S
73)と、 該ストリーム(DS1)に音データ(Sa1)が含まれ
る場合は、該骨格構造の動き(Sm1)に同期させて音
データ(Sa1)を再生する音再生ステップ(S61、
S63)とを含むことを特徴とするコンピュータ(P
C)読取り可能な記録媒体(FD)。
15. A shape stream (Ss), which is a data stream indicating a shape of a skeleton structure in three-dimensional computer graphics, a motion stream (Sm), which is a data stream indicating motion, and synchronization with the motion from the transmitting unit (PCS). A sound stream (Sa) indicating a sound to be played is transmitted to a receiving unit (PCC), and the received operating stream (Sm) and the sound stream (Sm) are transmitted to the receiving unit (PCC).
a) a computer (PC) readable program storing a program for causing a computer (PC) to execute a method of transmitting and receiving a data stream representing a three-dimensional virtual space so as to generate three-dimensional computer graphics by synchronizing a) A recording medium (FD), the method comprising: responding to a request (Sr) from the receiving unit (PCC), in real time, the shape stream (Ss), the operation stream (Sm), and the operation stream ( (S35) transmitting the sound stream (Sa) synchronized with Sm) simultaneously as a plurality of streams (Ss1, Sm1, Sa1; DS1) in accordance with a predetermined data stream (DS) format (VRF). Bidirectionally connecting the transmitting unit (PCS) and the receiving unit (PCC), Ss1, Sm1, Sa
1; DS1) from the transmitting section (PCS) to the receiving section (PC
C) a transmission step (S21-S3) for interactive transmission
7) receiving the plurality of transmitted streams (DS1), determining the type and format (VRLM) of the received stream (DS1), and receiving the plurality of streams (Sm1, Sa1) in real time. A data stream receiving step (S39, S41, S43) for performing a restoration process on the stream (Sm1, Sa1) according to each of the determined streams (Sm1, Sa1); and the stream received by the receiving unit (PCC). (DS1)
Of the skeleton structure or the three-dimensional virtual space in the three-dimensional virtual space using the shape stream (Ss1) or the three-dimensional shape data (DS1, DS) read in advance, and furthermore, the motion stream (Sm1) 3D virtual space generation step for moving the shape of the skeletal structure using
73), and when the stream (DS1) includes sound data (Sa1), a sound reproduction step (S61, S61) for reproducing the sound data (Sa1) in synchronization with the movement (Sm1) of the skeletal structure.
(S63).
C) Readable recording medium (FD).
【請求項16】 3次元仮想空間を表すデータストリー
ムを送受信するシステム(100)に使用される送信部
(PCS)であって、 システム(100)は、受信部(PCC)と、該送信部
(PCS)と該受信部(PCC)とを接続する伝送手段
(TR、2)とを備え、又、 送信部(PCS)から3次元コンピューターグラフィッ
クスにおける骨格構造の形状を示すデータストリームで
ある形状ストリーム(Ss)、動きを示すデータストリ
ームである動作ストリーム(Sm)及び該動きと同期す
る音を示すデータストリームである音ストリーム(S
a)を受信部(PCC)に送信し、該受信部(PCC)
では送信された該動作ストリーム(Sm)及び該音スト
リーム(Sa)を同期させて3次元コンピュータグラフ
ィックスを生成する一方、 該送信部(PCS)は、該形状ストリーム(Ss)、動
作ストリーム(Sm)、及び該動作ストリーム(Sm)
に同期する音ストリーム(Sa)を予め決められたデー
タストリーム(DS)のフォーマット(VRF)に応じ
て複数のストリーム(Ss1、Sm1、Sa1;DS
1)として同時に送信する送信手段(1)を有し、更
に、 伝送手段(TR、2)は、該複数のストリーム(Ss
1、Sm1、Sa1;DS1)を該送信部(PCS)か
ら該受信部(PCC)に伝送することを特徴とする送信
部(PCS)。
16. A transmitting unit (PCS) used in a system (100) for transmitting and receiving a data stream representing a three-dimensional virtual space, the system (100) comprising: a receiving unit (PCC); PCS) and transmission means (TR, 2) for connecting the receiving unit (PCC), and a shape stream which is a data stream indicating the shape of a skeletal structure in three-dimensional computer graphics from the transmitting unit (PCS). (Ss), an operation stream (Sm) which is a data stream indicating a motion, and a sound stream (Sm) which is a data stream indicating a sound synchronized with the motion.
a) to the receiving unit (PCC).
Then, the transmitted operation stream (Sm) and the transmitted sound stream (Sa) are synchronized to generate three-dimensional computer graphics, while the transmission unit (PCS) transmits the shape stream (Ss) and the operation stream (Sm). ) And the operation stream (Sm)
A sound stream (Sa) synchronized with a plurality of streams (Ss1, Sm1, Sa1; DS) according to a predetermined data stream (DS) format (VRF)
The transmission means (TR) has a plurality of streams (Ss) for transmitting simultaneously as (1).
1, Sm1, Sa1; DS1) from the transmitting unit (PCS) to the receiving unit (PCC).
【請求項17】 3次元仮想空間を表すデータストリー
ムを送受信するシステム(100)に使用される送信部
(PCS)であって、 システム(100)は、受信部(PCC)と、該送信部
(PCS)と該受信部(PCC)とを双方向に接続する
伝送手段(TR、2)とを備え、又、 送信部(PCS)から3次元コンピューターグラフィッ
クスにおける骨格構造の形状を示すデータストリームで
ある形状ストリーム(Ss)、動きを示すデータストリ
ームである動作ストリーム(Sm)及び該動きと同期す
る音を示すデータストリームである音ストリーム(S
a)を受信部(PCC)に送信し、該受信部(PCC)
では送信された該動作ストリーム(Sm)及び該音スト
リーム(Sa)を同期させて3次元コンピュータグラフ
ィックスを生成する一方、 該送信部(PCS)は、該受信部(PCC)からの要求
(Sr)に応じて、リアルタイムに該形状ストリーム
(Ss)、動作ストリーム(Sm)、及び該動作ストリ
ーム(Sm)に同期する音ストリーム(Sa)を予め決
められたデータストリーム(DS)のフォーマット(V
RF)に応じて複数のストリーム(Ss1、Sm1、S
a1;DS1)として同時に送信する送信手段(1)を
有し、更に、 伝送手段(TR、2)は、該複数のストリーム(Ss
1、Sm1、Sa1;DS1)を該送信部(PCS)か
ら該受信部(PCC)に対話的に伝送することを特徴と
する送信部(PCS)。
17. A transmitting unit (PCS) used in a system (100) for transmitting and receiving a data stream representing a three-dimensional virtual space, the system (100) comprising: a receiving unit (PCC); PCS) and transmission means (TR, 2) for connecting the receiving section (PCC) bidirectionally, and a data stream indicating the shape of the skeletal structure in three-dimensional computer graphics from the transmitting section (PCS). A certain shape stream (Ss), a motion stream (Sm) which is a data stream indicating a motion, and a sound stream (Sm) which is a data stream indicating a sound synchronized with the motion.
a) to the receiving unit (PCC).
Then, the transmitted operation stream (Sm) and the transmitted sound stream (Sa) are synchronized to generate three-dimensional computer graphics, while the transmitting unit (PCS) transmits a request (Sr) from the receiving unit (PCC). ), The shape stream (Ss), the operation stream (Sm), and the sound stream (Sa) synchronized with the operation stream (Sm) are converted in real time into a predetermined data stream (DS) format (V
RF) and a plurality of streams (Ss1, Sm1, S
a1; DS1), the transmitting means (1) for simultaneously transmitting the plurality of streams (Ss).
1, Sm1, Sa1; DS1) from the transmitting unit (PCS) to the receiving unit (PCC) interactively.
【請求項18】 3次元仮想空間を表すデータストリー
ムを送受信するシステム(100)に使用される受信部
(PCC)であって、 システム(100)は、送信部(PCS)と、該送信部
(PCS)と該受信部(PCC)とを接続する伝送手段
(TR、2)とを備え、又、 送信部(PCS)から3次元コンピューターグラフィッ
クスにおける骨格構造の形状を示すデータストリームで
ある形状ストリーム(Ss)、動きを示すデータストリ
ームである動作ストリーム(Sm)及び該動きと同期す
る音を示すデータストリームである音ストリーム(S
a)を受信部(PCC)に送信し、該受信部(PCC)
では送信された該動作ストリーム(Sm)及び該音スト
リーム(Sa)を同期させて3次元コンピュータグラフ
ィックスを生成する一方、 該送信部(PCS)は、該形状ストリーム(Ss)、動
作ストリーム(Sm)、及び該動作ストリーム(Sm)
に同期する音ストリーム(Sa)を予め決められたデー
タストリーム(DS)のフォーマット(VRF)に応じ
て複数のストリーム(Ss1、Sm1、Sa1;DS
1)として同時に送信し、更に、 伝送手段(TR、2)は、該複数のストリーム(Ss
1、Sm1、Sa1;DS1)を該送信部(PCS)か
ら該受信部(PCC)に伝送すると共に、 該受信部(PCC)は、 該伝送手段(TR、2)を経由して該送信部(PCS)
から伝送されてきた該複数のストリーム(DS1)を受
信すると共に、受信したストリーム(DS1)の種類お
よびフォーマット(VRML)を判別し、複数のストリ
ーム(Sm1、Sa1)を受信し、それぞれの判別され
たストリーム(Sm1、Sa1)に応じて必要な復元処
理をストリーム(Sm1、Sa1)に加えるデータスト
リーム受信手段(3)と、 該受信部(PCC)で受信した該ストリーム(DS1)
のうち形状ストリーム(Ss1)或いは予め読み込まれ
た3次元形状データ(DS1、DS)を用いて3次元仮
想空間内に骨格構造の形状あるいは3次元仮想空間を生
成し、更に動作ストリーム(Sm1)を用いて該骨格構
造の形状を動かす3次元仮想空間生成手段(4)と、 該ストリーム(DS1)に音データ(Sa1)が含まれ
る場合は該骨格構造の動き(Sm1)に同期させて音デ
ータ(Sa1)を再生する音再生手段(5)とを有する
ことを特徴とする受信部(PCC)。
18. A receiving unit (PCC) used in a system (100) for transmitting and receiving a data stream representing a three-dimensional virtual space, wherein the system (100) includes a transmitting unit (PCS) and the transmitting unit (PCS). PCS) and transmission means (TR, 2) for connecting the receiving unit (PCC), and a shape stream which is a data stream indicating the shape of a skeletal structure in three-dimensional computer graphics from the transmitting unit (PCS). (Ss), an operation stream (Sm) which is a data stream indicating a motion, and a sound stream (Sm) which is a data stream indicating a sound synchronized with the motion.
a) to the receiving unit (PCC).
Then, the transmitted operation stream (Sm) and the transmitted sound stream (Sa) are synchronized to generate three-dimensional computer graphics, while the transmission unit (PCS) transmits the shape stream (Ss) and the operation stream (Sm). ) And the operation stream (Sm)
A sound stream (Sa) synchronized with a plurality of streams (Ss1, Sm1, Sa1; DS) according to a predetermined data stream (DS) format (VRF)
1), and the transmission means (TR, 2) further transmits the plurality of streams (Ss
1, Sm1, Sa1; DS1) from the transmission unit (PCS) to the reception unit (PCC), and the reception unit (PCC) transmits the transmission unit via the transmission means (TR, 2). (PCS)
Receiving the plurality of streams (DS1), determining the type and format (VRML) of the received stream (DS1), receiving the plurality of streams (Sm1, Sa1), and determining each of them. Data stream receiving means (3) for adding necessary restoration processing to the stream (Sm1, Sa1) in accordance with the stream (Sm1, Sa1), and the stream (DS1) received by the receiver (PCC)
Of the skeletal structure or the three-dimensional virtual space in the three-dimensional virtual space using the shape stream (Ss1) or the three-dimensional shape data (DS1, DS) read in advance, and further the motion stream (Sm1) is generated. A three-dimensional virtual space generating means (4) for moving the shape of the skeletal structure using the sound data (Sa1) when the stream (DS1) includes the sound data (Sa1). And a sound reproducing means (5) for reproducing (Sa1).
【請求項19】 3次元仮想空間を表すデータストリー
ムを送受信するシステム(100)に使用される受信部
(PCC)であって、 システム(100)は、送信部(PCS)と、該送信部
(PCS)と該受信部(PCC)とを双方向に接続する
伝送手段(TR、2)とを備え、又、 送信部(PCS)から3次元コンピューターグラフィッ
クスにおける骨格構造の形状を示すデータストリームで
ある形状ストリーム(Ss)、動きを示すデータストリ
ームである動作ストリーム(Sm)及び該動きと同期す
る音を示すデータストリームである音ストリーム(S
a)を受信部(PCC)に送信し、該受信部(PCC)
では送信された該動作ストリーム(Sm)及び該音スト
リーム(Sa)を同期させて3次元コンピュータグラフ
ィックスを生成する一方、 該送信部(PCS)は、該受信部(PCC)からの要求
(Sr)に応じて、リアルタイムに該形状ストリーム
(Ss)、動作ストリーム(Sm)、及び該動作ストリ
ーム(Sm)に同期する音ストリーム(Sa)を予め決
められたデータストリーム(DS)のフォーマット(V
RF)に応じて複数のストリーム(Ss1、Sm1、S
a1;DS1)として同時に送信し、更に、 伝送手段(TR、2)は、該複数のストリーム(Ss
1、Sm1、Sa1;DS1)を該送信部(PCS)か
ら該受信部(PCC)に対話的に伝送すると共に、 該受信部(PCC)は、 該伝送手段(TR、2)を経由して該送信部(PCS)
から伝送されてきた該複数のストリーム(DS1)を受
信すると共に、受信したストリーム(DS1)の種類お
よびフォーマット(VRML)を判別し、複数のストリ
ーム(Sm1、Sa1)を必要に応じてリアルタイムに
受信し、それぞれの判別されたストリーム(Sm1、S
a1)に応じて必要な復元処理をストリーム(Sm1、
Sa1)に加えるデータストリーム受信手段(3)と、 該受信部(PCC)で受信した該ストリーム(DS1)
のうち形状ストリーム(Ss1)或いは予め読み込まれ
た3次元形状データ(DS1、DS)を用いて3次元仮
想空間内に骨格構造の形状あるいは3次元仮想空間を生
成し、更に動作ストリーム(Sm1)を用いて該骨格構
造の形状を動かす3次元仮想空間生成手段(4)と、 該ストリーム(DS1)に音データ(Sa1)が含まれ
る場合は該骨格構造の動き(Sm1)に同期させて音デ
ータ(Sa1)を再生する音再生手段(5)とを有する
ことを特徴とする受信部(PCC)。
19. A receiving unit (PCC) used in a system (100) for transmitting and receiving a data stream representing a three-dimensional virtual space, the system (100) comprising a transmitting unit (PCS) and the transmitting unit (PCS). PCS) and transmission means (TR, 2) for bidirectionally connecting the receiving unit (PCC) with the receiving unit (PCC). A shape stream (Ss), a motion stream (Sm) which is a data stream indicating a motion, and a sound stream (Sm) which is a data stream indicating a sound synchronized with the motion.
a) to the receiving unit (PCC).
Then, the transmitted operation stream (Sm) and the transmitted sound stream (Sa) are synchronized to generate three-dimensional computer graphics, while the transmitting unit (PCS) transmits a request (Sr) from the receiving unit (PCC). ), The shape stream (Ss), the operation stream (Sm), and the sound stream (Sa) synchronized with the operation stream (Sm) are converted in real time into a predetermined data stream (DS) format (V
RF) and a plurality of streams (Ss1, Sm1, S
a1; DS1), and the transmission means (TR, 2) transmits the plurality of streams (Ss
1, Sm1, Sa1; DS1) from the transmitting unit (PCS) to the receiving unit (PCC) interactively, and the receiving unit (PCC) transmits via the transmission means (TR, 2). The transmission unit (PCS)
And the type and format (VRML) of the received stream (DS1) are determined, and the plurality of streams (Sm1, Sa1) are received in real time as necessary. Then, each of the determined streams (Sm1, Sm
The restoration processing necessary according to a1) is performed in a stream (Sm1,
Data stream receiving means (3) to be added to Sa1), and the stream (DS1) received by the receiving unit (PCC)
Of the skeletal structure or the three-dimensional virtual space in the three-dimensional virtual space using the shape stream (Ss1) or the three-dimensional shape data (DS1, DS) read in advance, and further the motion stream (Sm1) is generated. A three-dimensional virtual space generating means (4) for moving the shape of the skeletal structure using the sound data (Sa1) when the stream (DS1) includes the sound data (Sa1). And a sound reproducing means (5) for reproducing (Sa1).
JP21526398A 1997-07-31 1998-07-30 Apparatus and method for transmitting and receiving a data stream representing a three-dimensional virtual space Expired - Fee Related JP3338382B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21526398A JP3338382B2 (en) 1997-07-31 1998-07-30 Apparatus and method for transmitting and receiving a data stream representing a three-dimensional virtual space

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP20585797 1997-07-31
JP9-205857 1997-07-31
JP21526398A JP3338382B2 (en) 1997-07-31 1998-07-30 Apparatus and method for transmitting and receiving a data stream representing a three-dimensional virtual space

Publications (2)

Publication Number Publication Date
JPH11102450A true JPH11102450A (en) 1999-04-13
JP3338382B2 JP3338382B2 (en) 2002-10-28

Family

ID=26515292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21526398A Expired - Fee Related JP3338382B2 (en) 1997-07-31 1998-07-30 Apparatus and method for transmitting and receiving a data stream representing a three-dimensional virtual space

Country Status (1)

Country Link
JP (1) JP3338382B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002041258A1 (en) * 2000-11-15 2002-05-23 Lexer Research Inc. Method for providing display object and program for providing display object
US6559845B1 (en) 1999-06-11 2003-05-06 Pulse Entertainment Three dimensional animation system and method
JPWO2003101102A1 (en) * 2002-05-24 2005-09-29 三菱電機株式会社 Movie file playback method for portable communication device and movie file playback device for portable communication device
JP2010532890A (en) * 2007-07-06 2010-10-14 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Avatar customization apparatus and method
JP2016513383A (en) * 2013-01-19 2016-05-12 トロンデルト オーユー Safe streaming method in numerical control manufacturing system and safe numerical control manufacturing system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6559845B1 (en) 1999-06-11 2003-05-06 Pulse Entertainment Three dimensional animation system and method
JP2010160813A (en) * 1999-06-11 2010-07-22 Laastra Telecom Gmbh Llc Three-dimensional animation system and method
WO2002041258A1 (en) * 2000-11-15 2002-05-23 Lexer Research Inc. Method for providing display object and program for providing display object
JPWO2003101102A1 (en) * 2002-05-24 2005-09-29 三菱電機株式会社 Movie file playback method for portable communication device and movie file playback device for portable communication device
JP2010532890A (en) * 2007-07-06 2010-10-14 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Avatar customization apparatus and method
JP2016513383A (en) * 2013-01-19 2016-05-12 トロンデルト オーユー Safe streaming method in numerical control manufacturing system and safe numerical control manufacturing system

Also Published As

Publication number Publication date
JP3338382B2 (en) 2002-10-28

Similar Documents

Publication Publication Date Title
KR100294372B1 (en) Method and apparatus for transmitting / receiving data string representing 3D virtual space
US11151890B2 (en) 5th-generation (5G) interactive distance dedicated teaching system based on holographic terminal and method for operating same
US6557041B2 (en) Real time video game uses emulation of streaming over the internet in a broadcast event
Doenges et al. MPEG-4: Audio/video and synthetic graphics/audio for mixed media
JP3566909B2 (en) Three-dimensional animation system and method
JP4266411B2 (en) Information processing apparatus and control method therefor, information transmission system, and storage medium
JP2003521039A (en) System and method for delivering rich media content over a network
US6757432B2 (en) Apparatus for transmitting and/or receiving stream data and method for producing the same
JP3338382B2 (en) Apparatus and method for transmitting and receiving a data stream representing a three-dimensional virtual space
JP5160704B2 (en) Real-time video games that emulate streaming over the Internet in broadcast
JPH10222698A (en) Communication equipment of three-dimensional virtual space and communicating method
JP3428513B2 (en) Transmission device, transmission method, reception device, reception method, and communication system using multidimensional stream data
JP2003143575A (en) Multimedia reproducing method and device
KR100317299B1 (en) MPEG-4 Video Conference System And Multimedia Information Structure For MPEG-4 Video Conference System
US20230007067A1 (en) Bidirectional presentation datastream
US20230007361A1 (en) Bidirectional presentation datastream using control and data plane channels
KR20000037456A (en) A system and method for character animation through computer network
Petajan MPEG-4 face and body animation coding applied to HCI
CN114786023A (en) AR live broadcast system based on virtual reality
Todesco et al. MPEG-4 support to multiuser virtual environments
Shahabi et al. Media Immersion Environment (MIE)
Darlagiannis COSMOS: Collaborative system framework based on MPEG-4 objects and streams.
JP2004086592A (en) Moving image generating method and its program
CN115174978A (en) 3D digital person sound and picture synchronization method and electronic equipment
CN117544808A (en) Device control method, storage medium, and electronic device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070809

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080809

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080809

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090809

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090809

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100809

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees