JPH10222698A - Communication equipment of three-dimensional virtual space and communicating method - Google Patents

Communication equipment of three-dimensional virtual space and communicating method

Info

Publication number
JPH10222698A
JPH10222698A JP9028074A JP2807497A JPH10222698A JP H10222698 A JPH10222698 A JP H10222698A JP 9028074 A JP9028074 A JP 9028074A JP 2807497 A JP2807497 A JP 2807497A JP H10222698 A JPH10222698 A JP H10222698A
Authority
JP
Japan
Prior art keywords
dimensional
data
space
information
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9028074A
Other languages
Japanese (ja)
Inventor
Toshiya Naka
俊弥 中
Yoshiyuki Mochizuki
義幸 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP9028074A priority Critical patent/JPH10222698A/en
Publication of JPH10222698A publication Critical patent/JPH10222698A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To transmit required information between clinents by moving a crater in three-dimensional virtual space based on the intention of an operator. SOLUTION: When three-dimensional data including shape data, frame data of the crater and action data of the crater in three-dimensional virtual space is inputted from an output, a preserving part 1 preserves three-dimensional data. A generating part 31 generates a three-dimensional space shape based on shape data. The generating part 32 generates a three-dimensional frame animation based on frame data and action data. A display part 4 displays the three-dimensional space shape and the three-dimensional frame animation. When an operation signal corresponding to the operation for permitting a user to actually transmit required information to a desired client is inputted, an operating part 2 converts an operation signal into mobile information, preserves mobil information to the preserving part 1 and also calculates action difference information based on mobile information. A transmitting/receiving part 7 selects action difference information from action difference data and generates a packet based on action difference information so as to transmit it.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、インターネットな
どの世界的規模のネットワークをベースとした3次元コ
ンピュータグラフィックス(以下、「3DCG:three d
imensional computer graphics」という。)を伝送、あ
るいは商用的に利用する際に、3DCGをベースとした
仮想空間内での形状、例えば人間のように、骨格構造を
持つ形状、それらの動き情報、音声、および動画像デー
タの操作を集中して取り扱うことが可能な3次元仮想空
間の通信装置、および通信方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to three-dimensional computer graphics (hereinafter "3DCG: three-dimensional computer graphics") based on a worldwide network such as the Internet.
"Imensional computer graphics." ) For transmission or commercial use, shapes in a virtual space based on 3DCG, for example, shapes having a skeletal structure like a human, manipulation of their motion information, audio, and moving image data The present invention relates to a communication device and a communication method for a three-dimensional virtual space capable of handling intensively.

【0002】[0002]

【従来の技術】最近、3DCGの利用分野として、WW
W(World Wide Web)などのインターネット上の仮想商店
(Virtual Mall)、および各種ホームページが注目され
ている。特に、インターネットの急速な発達によって、
ゲーム、映画、およびバーチャルモールなどの3DCG
を家庭内で手軽に扱う環境が急速に整いつつある。
2. Description of the Related Art Recently, as a field of application of 3DCG, WW
Virtual malls (Virtual Mall) on the Internet, such as W (World Wide Web), and various homepages have attracted attention. In particular, due to the rapid development of the Internet,
3DCG for games, movies, virtual malls, etc.
The environment in which homes are easily handled in homes is rapidly being prepared.

【0003】従来のWWWなどでは、インターネットを
介して、ワークステーション、およびパーソナルコンピ
ュータなどのサーバと呼ばれるマシンに、パーソナルコ
ンピュータなどの複数のクライアントと呼ぶマシンが接
続されており、クライアントからの要求に対応するべ
く、必要に応じて、サーバが提供する画像、音声、テキ
スト、および配置の情報などのデータをダウンロード
し、クライアント側で再構築(ブラウジング)すること
で、必要な情報を得ることができるようになっている。
このサーバーとクライアントとの間の通信には、TCP
/IP(Transmission Control Protocol/Internet Prot
ocol) に基づく通信方法が採用されている。
In the conventional WWW or the like, a plurality of machines such as a personal computer are connected to machines called a server such as a workstation and a personal computer via the Internet to respond to a request from the client. In order to obtain necessary information, the server downloads data such as images, sounds, texts, and arrangement information provided by the server as necessary, and reconstructs (browses) the data on the client side. It has become.
The communication between the server and the client uses TCP
/ IP (Transmission Control Protocol / Internet Prot
ocol).

【0004】従来、サーバ側から提供されるデータは、
主として、テキストデータ、および画像データのみであ
ったが、最近では、VRML(Virtual Reality Modeli
ng Language)、およびそのブラウザ(閲覧用ツール)の
普及と標準化とが進み、形状、およびシーンなどの3D
CGデータそのものを転送しようとする動きがある。
Conventionally, data provided from the server side is:
Mainly text data and image data only, but recently, VRML (Virtual Reality Model
ng Language) and its browsers (browsing tools) are spreading and standardizing.
There is a movement to transfer CG data itself.

【0005】ここで、上記VRMLについて簡単に説明
する。HMTL(Hyper Text Markup Language) などの
ように、画像データと文字に代表されるテキストデータ
とを主体とする従来のデータ形式では、画像データ、特
に、動画像データを転送するのに膨大な転送時間と転送
コストが必要である。そのため、現状のシステムでは、
ネットワークトラフィックの制約がある。具体的には、
サーバとクライアントとの間で通信する際に、クライア
ントからサーバにアクセスする時間に制約を受けたり、
アクセスするまでの待ち時間が生じてしまう。これに対
し、従来の3DCGでは、仮想空間に配置した物の形状
を基に視点から見た形状、および物体の表面属性を特定
するべく、形状を含めて、視点情報、および光源情報な
どの全てを3次元データで処理していた。コンピュータ
グラフィックス(以下、「CG:computer graphics」と
いう。)技術が進歩するにつれて、CGで作成した画像
の画質が急速に向上し、CGデータをそのまま転送する
方がデータ量の点からも非常に効率が良くなっている。
通常、同じ時間の動画像データとVRMLデータとの転
送量は、1/100以上の圧縮率がある。そこで、電話
線などの低速のネットワークを介した3DCGデータの
転送方法を標準化する動きが起こりつつある。その1つ
の取り組みとして、VRMLと呼ぶ3DGデータの標準
化が提案されている(「VRML Ver.2.0 Specificati
on」参照)。このVRMLでは、プリミティブと呼ぶ形
状データ、および各種の光源データ、視点データ、テク
スチャデータなどのデータフォーマットと通信プロトコ
ルとを規定している。
[0005] Here, the above VRML will be briefly described. In a conventional data format, such as HMTL (Hyper Text Markup Language), which mainly includes image data and text data represented by characters, a huge transfer time is required to transfer image data, particularly moving image data. And transfer costs are needed. Therefore, in the current system,
There are network traffic restrictions. In particular,
When communicating between the server and the client, there are restrictions on the time to access the server from the client,
There is a waiting time before accessing. On the other hand, in the conventional 3DCG, in order to specify the shape viewed from the viewpoint based on the shape of the object arranged in the virtual space and the surface attribute of the object, all of the viewpoint information and light source information including the shape are included. Was processed with three-dimensional data. With the advance of computer graphics (CG) technology, the image quality of images created by CG has rapidly improved, and transferring CG data as it is is much more efficient in terms of data volume. Efficiency has improved.
Normally, the transfer amount of moving image data and VRML data at the same time has a compression ratio of 1/100 or more. Therefore, there is a movement to standardize a method of transferring 3DCG data through a low-speed network such as a telephone line. As one approach, standardization of 3DG data called VRML has been proposed (see “VRML Ver.2.0 Specificati
on "). In VRML, data formats such as shape data called primitives, various types of light source data, viewpoint data, and texture data, and communication protocols are defined.

【0006】一方、従来のCG分野で最近注目されてい
るのが、リアルタイムで画像を作っているアニメーショ
ン、いわゆるリアルアニメーションである。このリアル
アニメーションを採用することにより、CM(commercia
l message)、および映画を中心にCGキャラクタのリア
ルな動きを再現する工夫がなされている。その1つとし
て、人間などの複雑な形状を骨格構造で表し、時々刻々
変化する骨格の関節の移動量を求めることで、複雑な動
きを自然に再現するキネマティックス法と呼ぶ方法があ
る。
On the other hand, what has been recently attracting attention in the conventional CG field is an animation for creating an image in real time, that is, a so-called real animation. By adopting this real animation, CM (commercia
l message) and a movie. As one of the methods, there is a method called a kinematics method in which a complex shape such as a human is represented by a skeletal structure, and the movement of a joint of the skeleton which changes every moment is calculated to thereby naturally reproduce the complicated movement.

【0007】上記キネマティックス法は、ロボット工学
を中心に開発された技術である。かかるキネマティック
ス法は、直鎖リンク構造を持つ骨格モデル(リンクとジ
ョイント(関節)とから構成されている。)のジョイン
ト部分のX、Y、Z軸方向における回転角度とX、Y、
Z軸方向における移動量とを設定することによって、骨
格モデルの姿勢を決定するものである。
[0007] The kinematics method is a technique developed mainly in robotics. In such a kinematics method, the rotation angle of the joint part of the skeleton model having a linear link structure (consisting of a link and a joint (joint)) in the X, Y, and Z axis directions and X, Y,
The posture of the skeleton model is determined by setting the movement amount in the Z-axis direction.

【0008】このキネマティックス法をCGで作成した
任意の骨格構造のキャラクタに適用することで、従来の
ポリゴンをベースとしたアニメーションに比べて、デー
タ量の削減が図れると同時に、人間、および恐竜などの
自然な動きを再現することが可能になりつつある。
By applying this kinematics method to a character having an arbitrary skeletal structure created by CG, the amount of data can be reduced as compared with a conventional polygon-based animation, and at the same time, humans and dinosaurs can be reduced. It is becoming possible to reproduce natural movements such as.

【0009】このように、インターネットをベースとし
た環境下においては、HMTLを中心とした文字、およ
び画像の情報転送からCGデータ、および画像データ、
文章などを一括して処理する環境が求められている。
As described above, in an environment based on the Internet, CG data, image data,
There is a demand for an environment for processing text and the like collectively.

【0010】そこで、従来では、インターネット上の情
報受信装置として、通常、パーソナルコンピュータ、お
よびワークステーションを用い、文字、および画像に対
して、それ専用のブラウザソフトを用いてアクセスし、
3DCGに対して、それ専用のブラウザソフトを用いて
アクセスしている。また、最近では、インターネットT
V(television)なども提案されており、スイッチを入れ
るだけで、容易にインターネット上のホームページにア
クセスが可能となってきている。
Therefore, conventionally, a personal computer and a workstation are usually used as information receiving apparatuses on the Internet, and characters and images are accessed using dedicated browser software.
3DCG is accessed using dedicated browser software. Recently, the Internet T
V (television) and the like have also been proposed, and it is becoming possible to easily access a homepage on the Internet simply by turning on a switch.

【0011】[0011]

【発明が解決しようとする課題】上記のように、HTM
Lを基本とする従来の記述法、あるいはユーザインタフ
ェースでは、文字データ、および画像データを表現する
ことができる。
As described above, the HTM
In the conventional description method or user interface based on L, character data and image data can be expressed.

【0012】しかしながら、HTMLを基本とする従来
の記述法、あるいはユーザインタフェースにおいては、
インターフェース自身が2次元的な階層で構成されてい
る。そのため、3次元仮想空間の情報を分かりやすく再
現することは困難である。
However, in the conventional description method based on HTML or the user interface,
The interface itself has a two-dimensional hierarchy. Therefore, it is difficult to easily reproduce the information of the three-dimensional virtual space.

【0013】また、画像データをインターネットを介し
て送受信する場合、伝送量、および伝送時間が大量に必
要である。
When transmitting and receiving image data via the Internet, a large amount of transmission and a large transmission time are required.

【0014】さらに、従来のVRMLで表現された3次
元仮想空間では、人間などの骨格構造をもつキャラクタ
(アバタ)にリアルな動きをつけ、少ないデータ量で動
かすための仕組みが無いのが実情である。
Further, in a conventional three-dimensional virtual space represented by VRML, there is no mechanism for realizing a character (avatar) having a skeletal structure such as a human and moving the character with a small amount of data. is there.

【0015】加えて、3次元仮想空間内でのアバタの操
作がしづらく、文字、および画像を含めた統合的な情報
の伝達がスムーズに行かないなどの問題もある。
In addition, there is a problem that it is difficult to operate an avatar in a three-dimensional virtual space, and integrated information including characters and images is not smoothly transmitted.

【0016】本発明は、かかる現状に鑑みなされたもの
で、3次元仮想空間で骨格構造を有する仮想的な生物体
を操作者の意志に基づいて動かすことによって、クライ
アント間で所要の情報を通信することができるようにす
ることで、臨場感に溢れる3次元仮想空間の通信状態を
実現することができる3次元仮想空間の通信装置、およ
び通信方法を提供することを目的とする。
The present invention has been made in view of the above situation, and communicates required information between clients by moving a virtual creature having a skeletal structure in a three-dimensional virtual space based on an operator's will. An object of the present invention is to provide a communication device and a communication method for a three-dimensional virtual space that can realize a communication state of a three-dimensional virtual space full of a sense of reality by being able to perform the communication.

【0017】[0017]

【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載の3次元仮想空間の通信装置は、3
次元仮想空間で骨格構造を有する仮想的な生物体を操作
者の意志に基づいて動かすことによって、クライアント
間で所要の情報を通信するための装置であって、外部か
ら上記3次元仮想空間内の形状データ、上記仮想的な生
物体の骨格データ、および上記仮想的な生物体の動作デ
ータを含む3次元データが入力されると、この入力され
た3次元データを一時的に保存する3次元空間形状保存
手段と、この3次元空間形状保存手段に一時的に保存さ
れている上記3次元データに含まれる上記3次元仮想空
間内の形状データを読み出し、この読み出した上記3次
元仮想空間内の形状データを基に、3次元空間形状を生
成する3次元空間形状生成手段と、上記3次元空間形状
保存手段に一時的に保存されている上記3次元データに
含まれる上記仮想的な生物体の骨格データ、および上記
仮想的な生物体の動作データを読み出し、この読み出し
た上記仮想的な生物体の骨格データ、および上記仮想的
な生物体の動作データを互いに対応付け、この対応付け
した上記仮想的な生物体の動作データに従って上記仮想
的な生物体の骨格データを変形させることによって、3
次元骨格アニメーションを生成する3次元骨格アニメー
ション生成手段と、上記3次元空間形状生成手段にて生
成された上記3次元空間形状、および上記3次元骨格ア
ニメーション生成手段にて生成された上記3次元骨格ア
ニメーションを描画専用メモリに書き込み、この描画専
用メモリに書き込んだ上記3次元空間形状、および上記
3次元骨格アニメーションを読み出し、この読み出した
上記3次元空間形状、および上記3次元骨格アニメーシ
ョンを表示画面に表示する3次元表示手段と、実際に操
作者が所望のクライアントに所要の情報を送信するため
の操作に対応した操作信号が入力されると、この入力さ
れた操作信号を上記3次元仮想空間内で上記仮想的な生
物体を動かすための移動情報に変換し、この変換した移
動情報を上記3次元空間形状保存手段にて一時的に保存
させるとともに、必要に応じて、当該移動情報を基に、
上記仮想的な生物体の動きの変化量を表す動作差分デー
タを算出する3次元空間操作手段と、この3次元空間操
作手段にて算出された上記動作差分データから所望のク
ライアントに送信すべき必要な動作差分情報を選択し、
この選択した動作差分情報を基に、所望のクライアント
に送信すべきパケットを作成し、この作成したパケット
を送信する送信手段とを含むことを特徴とするものであ
る。
In order to achieve the above object, a communication apparatus for a three-dimensional virtual space according to claim 1,
A device for communicating required information between clients by moving a virtual creature having a skeletal structure in a three-dimensional virtual space based on an operator's will, and is a device for externally transmitting data in the three-dimensional virtual space. When three-dimensional data including shape data, the skeleton data of the virtual organism, and motion data of the virtual organism is input, a three-dimensional space for temporarily storing the input three-dimensional data. A shape storage unit, and reads out the shape data in the three-dimensional virtual space included in the three-dimensional data temporarily stored in the three-dimensional space shape storage unit, and reads out the read-out shape in the three-dimensional virtual space. A three-dimensional space shape generating means for generating a three-dimensional space shape based on the data; and the virtual data included in the three-dimensional data temporarily stored in the three-dimensional space shape storage means. Read the skeleton data of the virtual organism and the operation data of the virtual organism, and associate the read skeleton data of the virtual organism and the operation data of the virtual organism with each other. By deforming the skeleton data of the virtual creature in accordance with the attached motion data of the virtual creature, 3
Three-dimensional skeleton animation generating means for generating a three-dimensional skeleton animation, the three-dimensional space shape generated by the three-dimensional space shape generating means, and the three-dimensional skeleton animation generated by the three-dimensional skeleton animation generating means Is written in the drawing-only memory, the three-dimensional space shape and the three-dimensional skeleton animation written in the drawing-only memory are read, and the read three-dimensional space shape and the three-dimensional skeleton animation are displayed on a display screen. When an operation signal corresponding to an operation for actually transmitting required information to a desired client by the operator is input to the three-dimensional display means, the input operation signal is displayed in the three-dimensional virtual space. It is converted into movement information for moving a virtual organism, and the converted movement information is converted into the above-mentioned tertiary information. Together it is temporarily stored at room shape storage means, if necessary, based on the movement information,
A three-dimensional space operation means for calculating motion difference data representing the amount of change in the movement of the virtual living body, and it is necessary to transmit the motion difference data calculated by the three-dimensional space operation means to a desired client Select the motion difference information
A transmission means for generating a packet to be transmitted to a desired client based on the selected operation difference information, and transmitting the generated packet.

【0018】請求項2に記載の3次元仮想空間の通信装
置は、請求項1に記載の3次元仮想空間の通信装置にお
いて、他のクライアントから送信されてきたパケットを
受信し、この受信したパケットから必要な動作差分デー
タを読み出し、この読み出した動作差分データを上記3
次元骨格アニメーション生成手段に渡す受信手段を含
み、上記3次元骨格アニメーション生成手段は、上記受
信手段から渡された上記動作差分データを基に、3次元
骨格アニメーションを生成することを特徴とするもので
ある。
A communication device for a three-dimensional virtual space according to a second aspect of the present invention is the communication device for a three-dimensional virtual space according to the first aspect, which receives a packet transmitted from another client, and receives the received packet. The necessary operation difference data is read from the
Receiving means for passing to the three-dimensional skeleton animation generating means, wherein the three-dimensional skeleton animation generating means generates a three-dimensional skeleton animation based on the motion difference data passed from the receiving means. is there.

【0019】請求項3に記載の3次元仮想空間の通信装
置は、請求項1または2に記載の3次元仮想空間の通信
装置において、動画像データを含む放送データが入力さ
れると、この入力された放送データに含まれる動画デー
タを一時的に保存する動画像データ入力手段と、この動
画像データ入力手段に一時的に保存されている動画像デ
ータを読み出し、この読み出した動画像データに対し
て、動画マッピングを施すことによって、動画像を上記
3次元仮想空間内の指定された形状に貼り付ける動画像
生成手段とを含むことを特徴とするものである。
According to a third aspect of the present invention, in the three-dimensional virtual space communication apparatus, when broadcast data including moving image data is input, the input is performed. Moving image data input means for temporarily storing moving image data included in the broadcast data, and moving image data temporarily stored in the moving image data input means. And moving image mapping means for attaching the moving image to a designated shape in the three-dimensional virtual space by performing moving image mapping.

【0020】請求項4に記載の3次元仮想空間の通信装
置は、請求項1ないし3のいずれかに記載の3次元仮想
空間の通信装置において、実際の操作者が所要の家庭内
機器を制御するための操作に対応した操作信号が入力さ
れると、この入力された操作信号を上記3次元仮想空間
内の仮想的な家庭内機器の第1の操作情報に変換し、こ
の変換した第1の操作情報から制御対象となる家庭内機
器を特定して、制御情報を得る制御情報取得手段と、こ
の制御情報取得手段にて得られた上記制御情報を制御対
象となる家庭内機器の第2の操作情報に変換し、この変
換した第2の操作情報を制御対象となる家庭内機器との
通信プロトコルに変換し、この変換した通信プロトコル
を制御対象となる家庭内機器に転送する家庭内機器制御
手段とを含むことを特徴とするものである。
According to a third aspect of the present invention, there is provided a communication apparatus for a three-dimensional virtual space according to any one of the first to third aspects, wherein an actual operator controls required home appliances. When the operation signal corresponding to the operation for performing the operation is input, the input operation signal is converted into the first operation information of the virtual home appliance in the three-dimensional virtual space, and the converted first operation information is converted. A control information acquisition unit that specifies the home device to be controlled from the operation information of the control device and obtains the control information, and the control information obtained by the control information acquisition unit is a second control device of the home device to be controlled. Home device that converts the converted second operation information into a communication protocol with the home device to be controlled, and transfers the converted communication protocol to the home device to be controlled. Including control means It is an feature.

【0021】請求項5に記載の3次元仮想空間の通信方
法は、3次元仮想空間で骨格構造を有する仮想的な生物
体を操作者の意志に基づいて動かすことによって、クラ
イアント間で所要の情報を通信するための方法であっ
て、外部から上記3次元仮想空間内の形状データ、上記
仮想的な生物体の骨格データ、および上記仮想的な生物
体の動作データを含む3次元データが入力されると、こ
の入力された3次元データを一時的に保存する3次元空
間形状保存ステップと、この3次元空間形状保存ステッ
プに一時的に保存されている上記3次元データに含まれ
る上記3次元仮想空間内の形状データを読み出し、この
読み出した上記3次元仮想空間内の形状データを基に、
3次元空間形状を生成する3次元空間形状生成ステップ
と、上記3次元空間形状保存ステップに一時的に保存さ
れている上記3次元データに含まれる上記仮想的な生物
体の骨格データ、および上記仮想的な生物体の動作デー
タを読み出し、この読み出した上記仮想的な生物体の骨
格データ、および上記仮想的な生物体の動作データを互
いに対応付け、この対応付けした上記仮想的な生物体の
動作データに従って上記仮想的な生物体の骨格データを
変形させることによって、3次元骨格アニメーションを
生成する3次元骨格アニメーション生成ステップと、上
記3次元空間形状生成ステップにて生成された上記3次
元空間形状、および上記3次元骨格アニメーション生成
ステップにて生成された上記3次元骨格アニメーション
を描画専用メモリに書き込み、この描画専用メモリに書
き込んだ上記3次元空間形状、および上記3次元骨格ア
ニメーションを読み出し、この読み出した上記3次元空
間形状、および上記3次元骨格アニメーションを表示画
面に表示する3次元表示ステップと、実際に操作者が所
望のクライアントに所要の情報を送信するための操作に
対応した操作信号が入力されると、この入力された操作
信号を上記3次元仮想空間内で上記仮想的な生物体を動
かすための移動情報に変換し、この変換した移動情報を
上記3次元空間形状保存ステップにて一時的に保存させ
るとともに、必要に応じて、当該移動情報を基に、上記
仮想的な生物体の動きの変化量を表す動作差分データを
算出する3次元空間操作ステップと、この3次元空間操
作ステップにて算出された上記動作差分データから所望
のクライアントに送信すべき必要な動作差分情報を選択
し、この選択した動作差分情報を基に、所望のクライア
ントに送信すべきパケットを作成し、この作成したパケ
ットを送信する送信ステップとを含むことを特徴とする
ものである。
According to a third aspect of the present invention, in the three-dimensional virtual space communication method, required information is exchanged between clients by moving a virtual creature having a skeletal structure in the three-dimensional virtual space based on an operator's will. Wherein three-dimensional data including shape data in the three-dimensional virtual space, skeleton data of the virtual creature, and motion data of the virtual creature is input from outside. Then, a three-dimensional space shape storage step of temporarily storing the input three-dimensional data, and the three-dimensional virtual shape included in the three-dimensional data temporarily stored in the three-dimensional space shape storage step The shape data in the space is read, and based on the read shape data in the three-dimensional virtual space,
A three-dimensional space shape generating step of generating a three-dimensional space shape, the virtual skeleton data of the virtual organism included in the three-dimensional data temporarily stored in the three-dimensional space shape storage step, and the virtual Operation data of the virtual organism, and correlates the read skeleton data of the virtual organism and the operation data of the virtual organism with each other; Deforming the skeleton data of the virtual organism according to the data, generating a three-dimensional skeleton animation by generating a three-dimensional skeleton animation, and the three-dimensional space shape generated in the three-dimensional space shape generating step; And a memory dedicated to drawing the three-dimensional skeleton animation generated in the three-dimensional skeleton animation generation step. Writing, reading the three-dimensional space shape and the three-dimensional skeleton animation written in the dedicated drawing memory, and displaying the read three-dimensional space shape and the three-dimensional skeleton animation on a display screen; When an operation signal corresponding to an operation for actually transmitting necessary information to a desired client is input by the operator, the input operation signal is transmitted to the virtual living body in the three-dimensional virtual space. Is converted into movement information for moving the virtual living body, and the converted movement information is temporarily stored in the three-dimensional space shape storage step, and, if necessary, based on the movement information. Three-dimensional space operation step for calculating motion difference data representing the amount of change in the motion of the object, and the motion calculated in the three-dimensional space operation step Selecting necessary operation difference information to be transmitted to the desired client from the minute data, creating a packet to be transmitted to the desired client based on the selected operation difference information, and transmitting the created packet And characterized in that:

【0022】請求項6に記載の3次元仮想空間の通信方
法は、請求項5に記載の3次元仮想空間の通信方法にお
いて、他のクライアントから送信されてきたパケットを
受信し、この受信したパケットから必要な動作差分デー
タを読み出し、この読み出した動作差分データを上記3
次元骨格アニメーション生成ステップに渡す受信ステッ
プを含み、上記3次元骨格アニメーション生成ステップ
は、上記受信ステップから渡された上記動作差分データ
を基に、3次元骨格アニメーションを生成することを特
徴とするものである。
According to a sixth aspect of the present invention, in the three-dimensional virtual space communication method, a packet transmitted from another client is received, and the received packet is transmitted. The necessary operation difference data is read from the
A receiving step of passing to the three-dimensional skeleton animation generating step, wherein the three-dimensional skeleton animation generating step generates a three-dimensional skeleton animation based on the motion difference data passed from the receiving step. is there.

【0023】請求項7に記載の3次元仮想空間の通信方
法は、請求項5または6に記載の3次元仮想空間の通信
方法において、動画像データを含む放送データが入力さ
れると、この入力された放送データに含まれる動画デー
タを一時的に保存する動画像データ入力ステップと、こ
の動画像データ入力ステップに一時的に保存されている
動画像データを読み出し、この読み出した動画像データ
に対して、動画マッピングを施すことによって、動画像
を上記3次元仮想空間内の指定された形状に貼り付ける
動画像生成ステップとを含むことを特徴とするものであ
る。
A communication method for a three-dimensional virtual space according to a seventh aspect of the present invention is the communication method for a three-dimensional virtual space according to the fifth or sixth aspect, wherein when broadcast data including moving image data is input, the input is performed. A moving image data input step for temporarily storing moving image data included in the broadcast data, and reading the moving image data temporarily stored in the moving image data input step. A moving image generation step of applying the moving image mapping to paste the moving image to a designated shape in the three-dimensional virtual space.

【0024】請求項8に記載の3次元仮想空間の通信方
法は、請求項5ないし7のいずれかに記載の3次元仮想
空間の通信方法において、実際の操作者が所要の家庭内
機器を制御するための操作に対応した操作信号が入力さ
れると、この入力された操作信号を上記3次元仮想空間
内の仮想的な家庭内機器の第1の操作情報に変換し、こ
の変換した第1の操作情報から制御対象となる家庭内機
器を特定して、制御情報を得る制御情報取得ステップ
と、この制御情報取得ステップにて得られた上記制御情
報を制御対象となる家庭内機器の第2の操作情報に変換
し、この変換した第2の操作情報を制御対象となる家庭
内機器との通信プロトコルに変換し、この変換した通信
プロトコルを制御対象となる家庭内機器に転送する家庭
内機器制御ステップとを含むことを特徴とするものであ
る。
According to a third aspect of the present invention, in the three-dimensional virtual space communication method according to any one of the fifth to seventh aspects, an actual operator controls required home appliances. When the operation signal corresponding to the operation for performing the operation is input, the input operation signal is converted into the first operation information of the virtual home appliance in the three-dimensional virtual space, and the converted first operation information is converted. A control information acquisition step of obtaining control information by specifying a household device to be controlled from the operation information of the second device, and the control information obtained in the control information acquisition step is used as a second control of the household device to be controlled. Home device that converts the converted second operation information into a communication protocol with the home device to be controlled, and transfers the converted communication protocol to the home device to be controlled. Control step It is characterized in that comprises a.

【0025】[0025]

【発明の実施の形態】以下、本発明の実施の形態を添付
図面に基づき詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0026】実施の形態1.図1は本発明の実施の形態
1にかかる3次元仮想空間の通信装置の構成を示すブロ
ック図である。図1を参照して、本実施の形態1の3次
元仮想空間の通信装置は、3次元仮想空間で骨格構造を
有する仮想的な人間(以下、「アバタ」という。)をユ
ーザの意志に基づいて動かすことによって、クライアン
ト間で所要の情報を通信するためのものであって、3次
元空間形状保存部1、3次元空間操作部2、3次元空間
生成部3、3次元表示部4、音再生部5、仮想空間デー
タ接続部6、および仮想空間の動き情報送受信部7を備
えている。
Embodiment 1 FIG. 1 is a block diagram illustrating a configuration of a communication device in a three-dimensional virtual space according to the first embodiment of the present invention. With reference to FIG. 1, the communication device for a three-dimensional virtual space according to the first embodiment transmits a virtual human having a skeletal structure in the three-dimensional virtual space (hereinafter, referred to as “avatar”) based on a user's will. 3D space shape storage unit 1, 3D space operation unit 3, 3D space generation unit 3, 3D display unit 4, sound It includes a reproducing unit 5, a virtual space data connecting unit 6, and a virtual space motion information transmitting / receiving unit 7.

【0027】3次元空間形状保存部1は、外部から3次
元仮想空間内の形状データ、アバタの骨格データ、およ
びアバタの動作データ(アバタの表情を含む。)を含む
3次元データが入力されると、この入力された3次元デ
ータを一時的に保存するためのものである。具体的に
は、この3次元空間形状保存部1では、例えば、TV、
オーディオ、および電話などのユーザの家庭に一般的に
存在するAV(Audio andVisual)機器などを、例えば、
VRML形式で表現された別々のCG形状データで予め
作成しておき、この作成したCG形状データをCGキャ
ラクタとしてのアバタのデータ、および動画像データと
ともにディスクなどに保持している。なお、形状データ
は、インターネットを介してリンクされたサーバのホー
ムページなどからクライアントの要求に応じて転送し、
例えば、PD(Photo Disc)、CD(Compact Disc)、およ
びDVD(Digital Video Disc)などの書き換え可能なデ
ィスクにファイル単位で保持しておいてもよい。
The three-dimensional space shape storage unit 1 receives externally input three-dimensional data including shape data in the three-dimensional virtual space, avatar skeleton data, and avatar motion data (including avatar expressions). And for temporarily storing the input three-dimensional data. Specifically, in the three-dimensional space shape storage unit 1, for example, TV,
For example, audio and AV (Audio and Visual) devices generally existing in a user's home, such as a telephone,
It is created in advance with separate CG shape data expressed in the VRML format, and the created CG shape data is stored on a disk or the like together with avatar data as CG characters and moving image data. In addition, the shape data is transferred according to a client's request from a server homepage or the like linked via the Internet,
For example, it may be stored in a rewritable disc such as a PD (Photo Disc), a CD (Compact Disc), and a DVD (Digital Video Disc) in file units.

【0028】3次元空間生成部3は、3次元空間形状保
存部1に一時的に保存されている3次元データに含まれ
る3次元仮想空間内の形状データを読み出し、この読み
出した3次元仮想空間内の形状データを基に、3次元空
間形状を生成する3次元空間形状生成部31と、3次元
空間形状保存部1に一時的に保存されている3次元デー
タに含まれるアバタの骨格データ、およびアバタの動作
データを読み出し、この読み出したアバタの骨格デー
タ、およびアバタの動作データを互いに対応付け、この
対応付けしたアバタの動作データに従ってアバタの骨格
データを変形させることによって、3次元骨格アニメー
ションを生成する3次元骨格アニメーション生成部32
とを備えている。この3次元空間生成部3では、ユーザ
が3次元仮想空間の通信装置を起動すると、3次元空間
形状生成部31にて3次元空間形状保存部1に保存され
ている3次元仮想空間の形状データを読み込み、その配
置情報などに従って3次元仮想空間内に物品を配置した
状態で3次元仮想空間を3次元表示部4に表示させる。
通常、3次元仮想空間は、ユーザの操作によって、物品
の位置を替えたり、物品そのものを入れ換えたりするこ
とで、所望(カスタマイズ)の3次元空間に作り上げる
ことができる。その場合、ユーザは、3次元空間操作部
2で3次元仮想空間内の物品を選択(ピック)し、表面
属性、移動情報、およびCut&Paste などの所望のパラメ
ータを指定し、3次元空間形状生成部31の内部データ
構造に対応するシーントリーの所望のノードを変更する
ことで実現できる。
The three-dimensional space generation unit 3 reads out the shape data in the three-dimensional virtual space included in the three-dimensional data temporarily stored in the three-dimensional space shape storage unit 1, and reads out the read three-dimensional virtual space. A three-dimensional space shape generation unit 31 for generating a three-dimensional space shape based on the shape data in the avatar; avatar skeleton data included in the three-dimensional data temporarily stored in the three-dimensional space shape storage unit 1; By reading the avatar's motion data and the read avatar's skeleton data and the avatar's motion data, the three-dimensional skeleton animation is created by deforming the avatar's skeleton data according to the associated avatar's motion data. 3D skeleton animation generator 32 to be generated
And In the three-dimensional space generation unit 3, when the user activates the communication device in the three-dimensional virtual space, the three-dimensional space shape generation unit 31 stores the three-dimensional virtual space shape data stored in the three-dimensional space shape storage unit 1. Is read, and the three-dimensional virtual space is displayed on the three-dimensional display unit 4 in a state where the articles are arranged in the three-dimensional virtual space according to the arrangement information or the like.
Usually, a three-dimensional virtual space can be created in a desired (customized) three-dimensional space by changing the position of an article or exchanging the article itself by a user operation. In this case, the user selects (pick) an article in the three-dimensional virtual space with the three-dimensional space operation unit 2, specifies surface attributes, movement information, and desired parameters such as Cut & Paste, and specifies the three-dimensional space shape generation unit. This can be realized by changing a desired node of the scene tree corresponding to the internal data structure of the scene tree 31.

【0029】3次元表示部4は、3次元空間形状生成部
31にて生成された3次元空間形状、および3次元骨格
アニメーション生成部32にて生成された3次元骨格ア
ニメーションをフレームメモリ(図示せず。)に書き込
み、このフレームメモリに書き込んだ3次元空間形状、
および3次元骨格アニメーションを読み出し、この読み
出した3次元空間形状、および3次元骨格アニメーショ
ンを表示画面に表示するためのものであって、テレビモ
ニタ、および液晶表示装置などのディスプレイ(図示せ
ず。)を備えている。
The three-dimensional display unit 4 stores the three-dimensional space shape generated by the three-dimensional space shape generation unit 31 and the three-dimensional skeleton animation generated by the three-dimensional skeleton animation generation unit 32 in a frame memory (not shown). ), And the three-dimensional spatial shape written to this frame memory,
And a three-dimensional skeleton animation are read out, and the read three-dimensional space shape and the three-dimensional skeleton animation are displayed on a display screen. The display (not shown) such as a television monitor and a liquid crystal display device. It has.

【0030】3次元空間操作部2は、実際にユーザが所
望のクライアントに所要の情報を送信するための操作に
対応した操作信号が入力されると、この入力された操作
信号を3次元仮想空間内でアバタを動かすための移動情
報に変換し、この変換した移動情報を3次元空間形状保
存部1にて一時的に保存させるとともに、必要に応じ
て、当該移動情報を基に、アバタの動きの変化量を表す
動作差分データを算出するものである。この3次元空間
操作部2では、ユーザの意志に従って3次元仮想空間を
観察するための視点位置、ズーム角、および視線方向な
どの視点情報、物品の位置、アバタの移動方向、および
基本動作の接続情報などのアバタの動き、音の起動命
令、ならびに動画像の選択表示条件などを指定する。通
常、マウスなどが入力装置となるが、リモートコントロ
ールスイッチ、およびデータグローブなども入力装置と
して適用可能である。
When a user inputs an operation signal corresponding to an operation for transmitting necessary information to a desired client, the three-dimensional space operation unit 2 converts the input operation signal into a three-dimensional virtual space. Is converted into movement information for moving the avatar within the avatar, and the converted movement information is temporarily stored in the three-dimensional space shape storage unit 1. If necessary, the movement of the avatar is performed based on the movement information. Is calculated as the motion difference data representing the amount of change in. The three-dimensional space operation unit 2 connects viewpoint information such as a viewpoint position, a zoom angle, and a line-of-sight direction for observing a three-dimensional virtual space according to a user's intention, a position of an article, a moving direction of an avatar, and a connection of a basic operation. Avatar movement such as information, a sound activation command, and a moving image selection display condition are specified. Usually, a mouse or the like is used as the input device, but a remote control switch, a data glove, and the like can also be applied as the input device.

【0031】仮想空間の動き情報送受信部7は、3次元
空間操作部2にて算出された動作差分データから所望の
クライアントに送信すべき必要な動作差分情報を選択
し、この選択した動作差分情報を基に所望のクライアン
トに送信すべきパケットを作成し、この作成したパケッ
トを送信する一方、他のクライアントから送信されてき
たパケットを受信し、この受信したパケットから必要な
動作差分データを読み出し、この読み出した動作差分デ
ータを3次元骨格アニメーション生成部32に渡すもの
である。なお、3次元骨格アニメーション生成部32
は、仮想空間の動き情報送受信部7から動作差分データ
が渡されると、この渡された動作差分データを基に3次
元骨格アニメーションを生成する。
The virtual space motion information transmitting / receiving unit 7 selects necessary motion difference information to be transmitted to a desired client from the motion difference data calculated by the three-dimensional space operation unit 2, and selects the selected motion difference information. A packet to be transmitted to a desired client is created based on the received packet, and while the created packet is transmitted, a packet transmitted from another client is received, and necessary operation difference data is read from the received packet, The read operation difference data is transferred to the three-dimensional skeleton animation generation unit 32. The three-dimensional skeleton animation generator 32
Receives the motion difference data from the motion information transmitting / receiving unit 7 in the virtual space, and generates a three-dimensional skeleton animation based on the passed motion difference data.

【0032】音再生部5は、予めセット、すなわち必要
に応じてネットワーク経由でダウンロードされた、ある
いは予め書き換え可能なディスクに保存された、例え
ば、Wav(microsoft Wav format for windows)、MI
DI(Musical Instrument Digital Interface)、および
AIFF(Audio Interchange File Format) 形式などの
音データの標準形式ファイルをサウンド再生ボードなど
で再生するものである。
The sound reproducing unit 5 is set in advance, that is, for example, Wav (microsoft Wav format for windows), MI
A standard file of sound data such as DI (Musical Instrument Digital Interface) and AIFF (Audio Interchange File Format) is reproduced by a sound reproduction board or the like.

【0033】仮想空間データ接続部6は、3次元仮想空
間にインターネットを介してリンクされたサーバ上の複
数の3次元仮想空間同志を動的に接続するためのもので
ある。
The virtual space data connection unit 6 is for dynamically connecting a plurality of three-dimensional virtual spaces on a server linked to the three-dimensional virtual space via the Internet.

【0034】ところで、図2に示すように、ユーザが3
次元仮想空間内に自分の分身であるアバタを登場させる
必要がある場合は、3次元骨格アニメーション生成部3
2がCGキャラクタを3次元仮想空間に描画させる。こ
のCGキャラクタの形状データは、予め汎用のモデラソ
フトを用い、例えば、VRML拡張形式など、必要な階
層情報を付加した形式のデータで、3次元空間形状保存
部1などに保存しておく。
By the way, as shown in FIG.
If you need to make your avatar appear in your virtual space,
2 draws the CG character in the three-dimensional virtual space. The shape data of the CG character is stored in the three-dimensional space shape storage unit 1 or the like in advance using general-purpose modeler software, for example, in a format to which necessary hierarchical information is added, such as a VRML extension format.

【0035】また、ユーザがTV、およびパーソナルコ
ンピュータを起動するのと同様に電源を入れると、3次
元表示部4のディスプレイ上に、3次元空間生成部3で
生成された3次元仮想空間が自動的に表示される。この
ディスプレイ上に表示された3次元仮想空間は、ユーザ
が個々に有しているものである。ディスプレイ内には、
実際のユーザの部屋にあるAV機器と同等の形状が同じ
配置で表示される。これは、予めVRMLなどのフォー
マットで、3次元空間形状保存部1の書き換えディスク
などに保存しておいてもよい。図2に示すように、3次
元仮想空間内でアバタを登場させ、アバタの操作を行な
うには、アバタを骨格構造で定義し、その各関節部分の
関節角度、および位置情報などの各関節部分の動作デー
タを受信する必要がある。この動作データは、基本的に
必要最低限の「歩く」や「走る」などの基本動作のみを
受信し、3次元骨格アニメーション生成部32にて、例
えば、骨格の各関節の回転角度などを時間方向に重み付
けして、基本動作同士を滑らかに接続することで、3次
元仮想空間内でアバタをユーザの指示に従って対話的に
移動させる。
When the user turns on the power in the same manner as when activating the TV and the personal computer, the three-dimensional virtual space generated by the three-dimensional space generation unit 3 is automatically displayed on the display of the three-dimensional display unit 4. Is displayed. The three-dimensional virtual space displayed on the display is what the user has individually. In the display,
A shape equivalent to the AV equipment in the actual user's room is displayed in the same arrangement. This may be stored in advance in a format such as VRML on a rewritable disk or the like of the three-dimensional space shape storage unit 1. As shown in FIG. 2, in order to make an avatar appear in a three-dimensional virtual space and operate the avatar, the avatar is defined by a skeletal structure, and each joint such as a joint angle of each joint and position information. Operation data must be received. This motion data basically receives only basic motions such as “walk” and “run” which are the minimum necessary, and the three-dimensional skeleton animation generation unit 32 determines, for example, the rotation angle of each joint of the skeleton. The avatars are interactively moved in the three-dimensional virtual space according to the user's instructions by weighting the directions and connecting the basic operations smoothly.

【0036】図3、および図4は3次元仮想空間内で登
場させたアバタを動かして表示する際の動作の流れを示
すフローチャートである。図3、および図4を参照し
て、上記3次元仮想空間の通信装置において、3次元仮
想空間内で登場させたアバタを動かして表示する際の動
作の流れについて説明する。
FIG. 3 and FIG. 4 are flowcharts showing the flow of the operation when moving and displaying an avatar that has appeared in a three-dimensional virtual space. With reference to FIG. 3 and FIG. 4, a description will be given of an operation flow when the avatar appearing in the three-dimensional virtual space is moved and displayed in the communication device in the three-dimensional virtual space.

【0037】まず、図3を参照して、3次元仮想空間の
通信装置が起動される(ステップS1)と、3次元空間
形状保存部1は、外部から3次元データが入力されたか
否かを判別する。ここで、外部から3次元データが入力
されたと判別すると、3次元空間形状保存部1は、3次
元データに付与されているヘッダ、あるいは拡張子に基
づき、入力された3次元データの内容を調べる(ステッ
プS2)。ここで、3次元データに3次元仮想空間の形
状データが含まれている場合には、形状データのアドレ
スの内容に基づいて、形状データがネットワークを経由
して入力されたものか、形状データがローカルディスク
から入力されたものか否かを判別する(ステップS
3)。形状データがネットワークを経由して入力された
ものと判別した場合には、3次元空間形状保存部1は、
インターネットから形状データを読み込む(ステップS
4)。一方、形状データがローカルディスクから入力さ
れたものと判別した場合には、CD、およびDVDなど
から形状データを読み込む(ステップS5)。また、3
次元データにアバタの骨格データが含まれている場合に
は、骨格データのアドレスの内容に基づいて、骨格デー
タがネットワークを経由して入力されたものか、骨格デ
ータがローカルディスクから入力されたものか否かを判
別する(ステップS6)。骨格データがネットワークを
経由して入力されたものと判別した場合には、3次元空
間形状保存部1は、インターネットから形状データを読
み込む(ステップS7)。一方、骨格データがローカル
ディスクから入力されたものと判別した場合には、C
D、およびDVDなどから形状データを読み込む(ステ
ップS8)。さらに、3次元データにアバタの動作デー
タが含まれている場合には、動作データのアドレスの内
容に基づいて、動作データがネットワークを経由して入
力されたものか、動作データがローカルディスクから入
力されたものか否かを判別する(ステップS9)。動作
データがネットワークを経由して入力されたものと判別
した場合には、3次元空間形状保存部1は、インターネ
ットから動作データを読み込む(ステップS10)。一
方、動作データがローカルディスクから入力されたもの
と判別した場合には、CD、およびDVDなどから動作
データを読み込む(ステップS11)。
First, referring to FIG. 3, when the communication device for the three-dimensional virtual space is activated (step S1), the three-dimensional space shape storage unit 1 determines whether or not three-dimensional data has been input from the outside. Determine. Here, when it is determined that the three-dimensional data is input from the outside, the three-dimensional space shape storage unit 1 checks the content of the input three-dimensional data based on the header or extension attached to the three-dimensional data. (Step S2). Here, when the three-dimensional data includes the shape data of the three-dimensional virtual space, based on the content of the address of the shape data, whether the shape data is input via the network or the shape data is It is determined whether or not the data is input from the local disk (step S
3). If it is determined that the shape data has been input via the network, the three-dimensional space shape storage unit 1
Read shape data from the Internet (step S
4). On the other hand, when it is determined that the shape data has been input from the local disk, the shape data is read from a CD, a DVD, or the like (step S5). Also, 3
If the dimensional data includes avatar skeleton data, the skeleton data is input via a network or the skeleton data is input from a local disk based on the contents of the address of the skeleton data. It is determined whether or not (step S6). If it is determined that the skeleton data has been input via the network, the three-dimensional space shape storage unit 1 reads the shape data from the Internet (step S7). On the other hand, if it is determined that the skeleton data has been input from the local disk,
D and shape data are read from a DVD or the like (step S8). Furthermore, when the avatar operation data is included in the three-dimensional data, the operation data is input via a network or the operation data is input from a local disk based on the contents of the address of the operation data. It is determined whether or not it has been performed (step S9). If it is determined that the operation data has been input via the network, the three-dimensional space shape storage unit 1 reads the operation data from the Internet (step S10). On the other hand, when it is determined that the operation data has been input from the local disk, the operation data is read from a CD, a DVD, or the like (step S11).

【0038】図4を参照して、上記各データの読み込み
が終了すると、3次元空間形状保存部1は、読み込んだ
各データが圧縮されているか否かを判別する(ステップ
S12)。ここで、読み込んだ各データが圧縮されてい
ると判別すると、3次元空間形状保存部1は、読み込ん
だデータに対して復元処理(補間も含む)を行ない(ス
テップS13)、その後、必要に応じて、復元処理した
データをメモリ(図示せず。)などに一時的に保存する
(ステップS14)。一方、読み込んだデータが圧縮さ
れていないと判別すると、3次元空間形状保存部1は、
復元処理を行うことなく、必要に応じて、読み込んだデ
ータをそのままメモリなどに一時的に保存する(ステッ
プS14)。
Referring to FIG. 4, when the reading of each data is completed, the three-dimensional space shape storage unit 1 determines whether each read data is compressed or not (step S12). Here, if it is determined that each of the read data is compressed, the three-dimensional space shape storage unit 1 performs a restoration process (including interpolation) on the read data (step S13), and thereafter, if necessary. Then, the restored data is temporarily stored in a memory (not shown) or the like (step S14). On the other hand, when determining that the read data is not compressed, the three-dimensional space shape storage unit 1
The read data is temporarily stored in a memory or the like as needed without performing the restoration process (step S14).

【0039】上記各データを保存する処理(ステップS
14)が終了すると、3次元空間形状生成部31は、3
次元空間形状保存部1のメモリなどに一時的に保存され
ている3次元仮想空間の形状データを読み出し、この読
み出した3次元仮想空間の形状データを基に3次元空間
形状を生成する(ステップS15〜S19)。具体的に
は、まず、3次元空間形状保存部1のメモリなどに一時
的に保存されている3次元仮想空間の形状データを読み
出し、各形状毎にワールド座標からローカル座標に変換
した後、各形状毎にローカル座標から視点座標に変換す
る(ステップS15、およびS16)。そして、変換し
た視点座標に基づき、視点情報によるクリッピングを行
なった後、各形状毎に頂点毎の輝度を計算する(ステッ
プS17、およびS18)。最後に、計算した輝度に基
づき、スクリーン上での画素レベルの補間処理を行う
(ステップS19)。
Processing for saving the above data (step S
When 14) is completed, the three-dimensional space shape generation unit 31
The three-dimensional virtual space shape data temporarily stored in the memory of the three-dimensional space shape storage unit 1 is read, and a three-dimensional space shape is generated based on the read three-dimensional virtual space shape data (step S15). To S19). Specifically, first, shape data of the three-dimensional virtual space temporarily stored in a memory or the like of the three-dimensional space shape storage unit 1 is read, and world coordinates are converted into local coordinates for each shape. The local coordinates are converted into the viewpoint coordinates for each shape (steps S15 and S16). Then, after performing clipping based on the viewpoint information based on the converted viewpoint coordinates, the luminance of each vertex is calculated for each shape (steps S17 and S18). Finally, pixel-level interpolation processing on the screen is performed based on the calculated luminance (step S19).

【0040】上記3次元空間形状を生成する行程(ステ
ップS15〜S19)が終了すると、3次元表示部4
は、3次元空間形状生成部31にて生成された3次元空
間形状をフレームメモリに書き込み、このフレームメモ
リに書き込んだ3次元空間形状を読み出し、この読み出
した3次元空間形状をディスプレイ上に表示する(ステ
ップS20、およびS21)。具体的には、まず、ステ
ップS19にて補間処理された補間データをフレームメ
モリに書き込む(ステップS20)。その後、フレーム
メモリに書き込んだ補間データを読み出し、この読み出
した補間データをディスプレイ上にシーン表示する(ス
テップS21)。その結果、3次元表示部4のディスプ
レイ上に、3次元空間生成部3で生成された3次元仮想
空間が自動的に表示される。
When the process of generating the three-dimensional space shape (steps S15 to S19) is completed, the three-dimensional display unit 4
Writes the three-dimensional space shape generated by the three-dimensional space shape generation unit 31 into a frame memory, reads the three-dimensional space shape written into the frame memory, and displays the read three-dimensional space shape on a display. (Steps S20 and S21). Specifically, first, the interpolation data interpolated in step S19 is written in the frame memory (step S20). After that, the interpolation data written in the frame memory is read, and the read interpolation data is displayed as a scene on a display (step S21). As a result, the three-dimensional virtual space generated by the three-dimensional space generation unit 3 is automatically displayed on the display of the three-dimensional display unit 4.

【0041】また、上記各データを保存する処理(ステ
ップS14)が終了すると、3次元骨格アニメーション
生成部32は、3次元空間形状保存部1に一時的に保存
されている3次元データに含まれるアバタの骨格デー
タ、およびアバタの動作データを読み出し、この読み出
したアバタの骨格データ、およびアバタの動作データを
互いに対応付け、この対応付けしたアバタの動作データ
に従ってアバタの骨格データを変形させることによって
3次元骨格アニメーションを生成する(ステップS22
〜S28)。具体的には、まず、3次元空間形状保存部
1のメモリなどに一時的に保存されているアバタの骨格
データを読み出し、この読み出した骨格データを基に、
骨格とスキンとを対応付けするための処理、いわゆるグ
ルーピングを行なう(ステップS22)。そして、3次
元空間形状保存部1のメモリなどに一時的に保存されて
いるアバタの動作データを読み出し、この読み出した動
作データを基に、各関節毎にローカル座標でのリンクの
姿勢を決定するための要素を求め、この求めた要素をグ
ルーピングの結果得られた全グルーピングデータに乗算
することで、各関節毎のローカル座標でのリンクの姿勢
を計算する処理、およびスキンを描画する処理が指定さ
れた全フレームに対して施されるまで、予め定められた
フレーム単位毎に当該各関節毎のローカル座標でのリン
クの姿勢を計算する処理、およびスキンを描画する処理
を時系列的に行なう(ステップS23〜S25)。その
後、指定された全フレームに対して、上記各関節毎のロ
ーカル座標でのリンクの姿勢を計算する処理(ステップ
S23)、およびスキンを描画する処理(ステップS2
5)が施されると、動作の接続を行なうべきか否かを判
別する(ステップS26)。ここで、新たにアバタを動
かすべく、3次元空間操作部2に対して新たな操作信号
の入力があり、動作の接続を行なうべきと判別された場
合には、基本動作を接続するための処理を行なった後、
3次元空間操作部2に操作の終了を促す操作信号が入力
されるまで、動作の再生を継続する(ステップS27、
およびS28)。一方、3次元空間操作部2に対して新
たな操作信号の入力がなく、動作の接続を行なうべきで
ないと判別された場合には、基本動作を接続するための
処理を行なうことなく、3次元空間操作部2に操作の終
了を促す操作信号が入力されるまで、動作の再生を継続
する(ステップS28)。そして、3次元空間操作部2
に操作の終了を促す操作信号が入力されると、動作の再
生を終了する(ステップS28)。
When the processing for storing the above data (step S14) is completed, the three-dimensional skeleton animation generating unit 32 is included in the three-dimensional data temporarily stored in the three-dimensional space shape storing unit 1. By reading avatar skeleton data and avatar motion data, associating the read avatar skeleton data and avatar motion data with each other, and deforming the avatar skeleton data according to the associated avatar motion data, 3 Generate a two-dimensional skeleton animation (step S22)
To S28). Specifically, first, avatar skeleton data temporarily stored in a memory or the like of the three-dimensional space shape storage unit 1 is read, and based on the read skeleton data,
A process for associating the skeleton with the skin, that is, a so-called grouping is performed (step S22). Then, the avatar operation data temporarily stored in the memory or the like of the three-dimensional space shape storage unit 1 is read, and based on the read operation data, the link posture in local coordinates is determined for each joint. The process to calculate the link posture in local coordinates for each joint and the process to draw the skin by multiplying all the grouping data obtained as a result of the grouping by the obtained elements are specified. Until the processing is performed on all the frames, the processing of calculating the link posture at the local coordinates of each joint and the processing of drawing the skin are performed in time series for each predetermined frame unit ( Steps S23 to S25). Thereafter, for all the specified frames, the process of calculating the link posture in the local coordinates of each joint (step S23) and the process of drawing the skin (step S2)
When 5) is performed, it is determined whether or not the operation should be connected (step S26). Here, when a new operation signal is input to the three-dimensional space operation unit 2 to move the avatar, and it is determined that the operation should be connected, a process for connecting the basic operation is performed. After doing
The reproduction of the operation is continued until an operation signal urging the end of the operation is input to the three-dimensional space operation unit 2 (step S27,
And S28). On the other hand, when it is determined that there is no new operation signal input to the three-dimensional space operation unit 2 and the connection of the operation should not be performed, the processing for connecting the basic operation is performed without performing the processing for connecting the basic operation. The reproduction of the operation is continued until an operation signal urging the end of the operation is input to the space operation unit 2 (step S28). And three-dimensional space operation unit 2
When the operation signal urging the end of the operation is input to the CPU, the reproduction of the operation is ended (step S28).

【0042】上記骨格を描画する処理(ステップS2
5)において得られた骨格描画処理データは、3次元表
示部4のフレームメモリに書き込まれる(ステップS2
0)。その結果、ユーザは、3次元仮想空間内に自分の
分身であるアバタを登場させることができる。
Processing for drawing the skeleton (step S2)
The skeleton drawing processing data obtained in 5) is written to the frame memory of the three-dimensional display unit 4 (step S2).
0). As a result, the user can make his or her avatar appear in the three-dimensional virtual space.

【0043】実際にユーザが所望のクライアントに所要
の情報を送信するための操作に対応した操作信号が入力
されると(ステップS29)、3次元空間操作部2は、
この入力された操作信号を3次元仮想空間内でアバタを
動かすための移動情報に変換する(ステップ30)。こ
の変換した移動情報は、3次元空間形状保存部1のメモ
リなどに一時的に保存される。その結果、3次元仮想空
間内でアバタをユーザの指示に従って対話的に移動させ
ることができる。
When an operation signal corresponding to an operation for transmitting necessary information to a desired client is input by the user (step S29), the three-dimensional space operation unit 2
The input operation signal is converted into movement information for moving the avatar in the three-dimensional virtual space (step 30). The converted movement information is temporarily stored in a memory of the three-dimensional space shape storage unit 1 or the like. As a result, the avatar can be interactively moved in the three-dimensional virtual space according to the user's instruction.

【0044】図5はアバタの動き情報を送信する際の動
作の流れを示すフローチャートである。図5を参照し
て、上記3次元仮想空間の通信装置において、アバタの
動き情報を送信する際の動作の流れについて説明する。
FIG. 5 is a flowchart showing the flow of the operation when transmitting avatar motion information. With reference to FIG. 5, a description will be given of an operation flow when transmitting avatar motion information in the communication device in the three-dimensional virtual space.

【0045】まず、アバタを動かすための操作信号が入
力されると、3次元空間操作部2は、この入力された操
作信号を3次元仮想空間内でアバタを動かすための移動
情報に変換し(ステップ31)、必要に応じて、この変
換した移動情報を基に、アバタの動きの変化量を表す動
作差分データを算出する(ステップS32)。
First, when an operation signal for moving the avatar is input, the three-dimensional space operation unit 2 converts the input operation signal into movement information for moving the avatar in the three-dimensional virtual space ( Step 31) If necessary, motion difference data representing the amount of change in avatar motion is calculated based on the converted movement information (step S32).

【0046】上記動作差分データを算出する処理(ステ
ップS32)が終了すると、仮想空間の動き情報送受信
部7は、3次元空間操作部2にて算出された動作差分デ
ータから所望のクライアントに送信すべき必要な動作差
分情報を選択し、この選択した動作差分情報を基に、所
望のクライアントに送信すべきパケットを作成し、この
作成したパケットを送信する(ステップS33〜S4
3)。具体的には、まず、他のクライアントに情報を送
信すべきか否かを判別する(ステップS33)。ここ
で、3次元空間操作部2に入力された操作信号が実際に
ユーザが所望のクライアントに所要の情報を送信するた
めの操作に対応したものではなく、他のクライアントに
情報を送信すべきでないと判別した場合には、何も送信
しない(ステップS34)。一方、3次元空間操作部2
に入力された操作信号が実際にユーザが所望のクライア
ントに所要の情報を送信するための操作に対応したもの
であり、他のクライアントに情報を送信すべきであると
判別した場合には、送信すべき情報に音声データが含ま
れているか否かを判別する(ステップS35)。ここ
で、送信すべき情報に音声データが含まれていないと判
別した場合には、音声データを送信しない(ステップS
36)。一方、送信すべき情報に音声データが含まれて
いると判別した場合には、音声データを送信するため
に、音声データのセットを行なう(ステップS37)。
音声データをセットする処理(ステップS37)が終了
すると、送信すべきデータに動画像データが含まれてい
るか否かを判別する(ステップS38)。ここで、送信
すべき情報に動画像データが含まれていないと判別した
場合には、動画像データを送信しない(ステップS3
9)。一方、送信すべき情報に動画像データが含まれて
いると判別した場合には、動画像データを送信するため
に、動画像データのセットを行なう(ステップS4
0)。動画像データをセットする処理(ステップS4
0)が終了すると、3次元空間操作部2にて算出された
動作差分データから所望のクライアントに送信すべき必
要な動作差分情報を選択する(ステップS41)。その
後、この選択した動作差分情報を基に、所望のクライア
ントに送信すべきパケットを作成する(ステップS4
2)。最後に、チャット用のサーバに対して、音声デー
タ、および動画像データを合わせた状態で、この作成し
たパケットを送信する(ステップS43)。その結果、
3次元仮想空間でアバタを操作者の意志に基づいて動か
すことによって、音声データ、および動画像データを伴
った状態で所要の情報を、チャット用のサーバからパケ
ットで指定されたクライアントに送信することができ
る。
When the process of calculating the motion difference data (step S32) is completed, the motion information transmitting / receiving unit 7 in the virtual space transmits the motion difference data calculated by the three-dimensional space operation unit 2 to a desired client. The required operation difference information to be transmitted is selected, a packet to be transmitted to a desired client is created based on the selected operation difference information, and the created packet is transmitted (steps S33 to S4).
3). Specifically, first, it is determined whether or not information should be transmitted to another client (step S33). Here, the operation signal input to the three-dimensional space operation unit 2 does not actually correspond to an operation for the user to transmit required information to a desired client, and information should not be transmitted to another client. If it is determined that nothing is transmitted, nothing is transmitted (step S34). On the other hand, the three-dimensional space operation unit 2
If it is determined that the operation signal input to the user actually corresponds to the operation for transmitting the required information to the desired client and the information should be transmitted to another client, the transmission is performed. It is determined whether or not the information to be included includes audio data (step S35). Here, if it is determined that the information to be transmitted does not include audio data, the audio data is not transmitted (step S
36). On the other hand, if it is determined that the information to be transmitted includes audio data, audio data is set to transmit the audio data (step S37).
When the process of setting the audio data (Step S37) is completed, it is determined whether or not the data to be transmitted includes moving image data (Step S38). If it is determined that the information to be transmitted does not include the moving image data, the moving image data is not transmitted (step S3).
9). On the other hand, when it is determined that the information to be transmitted includes the moving image data, the moving image data is set to transmit the moving image data (step S4).
0). Processing for setting moving image data (step S4
When 0) is completed, necessary operation difference information to be transmitted to a desired client is selected from the operation difference data calculated by the three-dimensional space operation unit 2 (step S41). Thereafter, based on the selected operation difference information, a packet to be transmitted to a desired client is created (step S4).
2). Finally, the created packet is transmitted to the chat server in a state where the voice data and the moving image data are combined (step S43). as a result,
By moving an avatar based on the operator's intention in a three-dimensional virtual space, necessary information is transmitted from a chat server to a client specified by a packet, together with audio data and moving image data. Can be.

【0047】図6はアバタの動き情報を受信する際の動
作の流れを示すフローチャートである。図6を参照し
て、上記3次元仮想空間の通信装置において、アバタの
動き情報を受信する際の動作の流れについて説明する。
FIG. 6 is a flowchart showing the flow of the operation when receiving avatar motion information. With reference to FIG. 6, a description will be given of an operation flow when the avatar motion information is received in the communication device in the three-dimensional virtual space.

【0048】他のクライアントから送信されてきたパケ
ットを受信すると、仮想空間の動き情報送受信部7は、
この受信したパケットから必要な動作差分データを読み
出し、この読み出した動作差分データを3次元骨格アニ
メーション生成部32に渡す(ステップS50〜S5
7)。具体的には、まず、受信したパケットから必要な
動作差分データを読み出す(ステップS50)。そし
て、読み出した動作差分データに音声データが含まれて
いるか否かを判別する(ステップS51)。ここで、動
作差分データに音声データが含まれていないと判別した
場合には、音声データを受信しない(ステップS5
2)。一方、動作差分データに音声データが含まれてい
ると判別した場合には、音声データを受信し、所望の形
式にセットする(ステップS53)。音声データをセッ
トする処理(ステップS53)が終了すると、読み出し
た動作差分データに動画像データが含まれているか否か
を判別する(ステップS54)。ここで、動作差分デー
タに動画像データが含まれていないと判別した場合に
は、動画像データを受信しない(ステップS55)。一
方、動作差分データに動画像データが含まれていると判
別した場合には、動画像データを受信し、所望の形式に
セットする(ステップS56)。動画像データをセット
する処理(ステップS56)が終了すると、3次元骨格
アニメーション生成部32に必要なデータを渡す(ステ
ップS57)。そうすると、3次元骨格アニメーション
生成部32は、仮想空間の動き情報送受信部7から渡さ
れた動作差分データを基に、3次元骨格アニメーション
を生成する。その結果、3次元仮想空間で骨格構造を有
する仮想的な生物体を操作者の意志に基づいて動かすこ
とによって、他のクライアントから送信されてきた所要
の情報を受信し、この受信した所要の情報の内容に則し
た状態で、アバタを3次元仮想空間内でアバタを登場さ
せて、3次元表示部4のディスプレイ上に表示すること
ができる。
Upon receiving a packet transmitted from another client, the motion information transmitting / receiving section 7 in the virtual space
The necessary motion difference data is read from the received packet, and the read motion difference data is passed to the three-dimensional skeleton animation generation unit 32 (steps S50 to S5).
7). Specifically, first, necessary operation difference data is read from the received packet (step S50). Then, it is determined whether or not the read operation difference data includes audio data (step S51). Here, if it is determined that no audio data is included in the motion difference data, no audio data is received (step S5).
2). On the other hand, when it is determined that the motion difference data includes the voice data, the voice data is received and set to a desired format (step S53). When the process of setting audio data (step S53) is completed, it is determined whether or not the read motion difference data includes moving image data (step S54). Here, if it is determined that the motion difference data does not include the moving image data, the moving image data is not received (step S55). On the other hand, when it is determined that the motion difference data includes the moving image data, the moving image data is received and set to a desired format (step S56). When the process of setting the moving image data (Step S56) is completed, necessary data is passed to the three-dimensional skeleton animation generating unit 32 (Step S57). Then, the three-dimensional skeleton animation generating unit 32 generates a three-dimensional skeleton animation based on the motion difference data passed from the motion information transmitting / receiving unit 7 in the virtual space. As a result, by moving a virtual creature having a skeletal structure in a three-dimensional virtual space based on the operator's intention, necessary information transmitted from another client is received, and the received required information is received. The avatar can be made to appear in the three-dimensional virtual space and displayed on the display of the three-dimensional display unit 4 in a state conforming to the contents of the above.

【0049】すなわち、本実施の形態1においては、外
部から3次元仮想空間内の形状データ、アバタの骨格デ
ータ、およびアバタの動作データを含む3次元データが
入力されると、3次元空間形状保存部1は、入力された
3次元データを一時的に保存する。そして、3次元空間
形状生成部31は、3次元空間形状保存部1に一時的に
保存されている3次元データに含まれる3次元仮想空間
内の形状データを読み出し、この読み出した3次元仮想
空間内の形状データを基に、3次元空間形状を生成す
る。一方、3次元骨格アニメーション生成部32は、3
次元空間形状保存部1に一時的に保存されている3次元
データに含まれるアバタの骨格データ、およびアバタの
動作データを読み出し、この読み出したアバタの骨格デ
ータ、およびアバタの動作データを互いに対応付け、こ
の対応付けしたアバタの動作データに従ってアバタの骨
格データを変形させることによって、3次元骨格アニメ
ーションを生成する。次に、3次元表示部4は、3次元
空間形状生成部31にて生成された3次元空間形状、お
よび3次元骨格アニメーション生成部32にて生成され
た3次元骨格アニメーションをフレームメモリに書き込
み、このフレームメモリに書き込んだ3次元空間形状、
および3次元骨格アニメーションを読み出し、この読み
出した3次元空間形状、および3次元骨格アニメーショ
ンをディスプレイ上に表示する。その後、実際にユーザ
が所望のクライアントに所要の情報を送信するための操
作に対応した操作信号が入力されると、3次元空間操作
部2は、この入力された操作信号を3次元仮想空間内で
アバタを動かすための移動情報に変換し、この変換した
移動情報を3次元空間形状保存部1にて一時的に保存さ
せるとともに、必要に応じて、当該移動情報を基に、ア
バタの動きの変化量を表す動作差分データを算出する。
そうすると、仮想空間の動き情報送受信部7は、3次元
空間操作部2にて算出された動作差分データから所望の
クライアントに送信すべき必要な動作差分情報を選択
し、この選択した動作差分情報を基に、所望のクライア
ントに送信すべきパケットを作成し、この作成したパケ
ットを送信する。そのため、3次元仮想空間でアバタを
操作者の意志に基づいて動かすことによって、所要の情
報をパケットで指定されたクライアントに送信すること
ができる。
That is, in the first embodiment, when three-dimensional data including shape data in the three-dimensional virtual space, avatar skeleton data, and avatar operation data is input from the outside, the three-dimensional space shape is stored. The unit 1 temporarily stores the input three-dimensional data. Then, the three-dimensional space shape generation unit 31 reads out the shape data in the three-dimensional virtual space included in the three-dimensional data temporarily stored in the three-dimensional space shape storage unit 1, and reads the read three-dimensional virtual space. A three-dimensional space shape is generated based on the shape data in the space. On the other hand, the three-dimensional skeleton animation generating unit 32
The avatar skeleton data and the avatar operation data included in the three-dimensional data temporarily stored in the dimensional space shape storage unit 1 are read, and the read avatar skeleton data and the avatar operation data are associated with each other. By deforming the avatar skeleton data according to the associated avatar motion data, a three-dimensional skeleton animation is generated. Next, the three-dimensional display unit 4 writes the three-dimensional space shape generated by the three-dimensional space shape generation unit 31 and the three-dimensional skeleton animation generated by the three-dimensional skeleton animation generation unit 32 into a frame memory. 3D space shape written in this frame memory,
And the three-dimensional skeleton animation are read, and the read three-dimensional space shape and the three-dimensional skeleton animation are displayed on a display. Thereafter, when an operation signal corresponding to an operation for actually transmitting necessary information to a desired client by a user is input, the three-dimensional space operation unit 2 converts the input operation signal into a three-dimensional virtual space. Is converted into movement information for moving the avatar, and the converted movement information is temporarily stored in the three-dimensional space shape storage unit 1 and, if necessary, based on the movement information. The motion difference data representing the amount of change is calculated.
Then, the motion information transmission / reception unit 7 in the virtual space selects necessary motion difference information to be transmitted to a desired client from the motion difference data calculated by the three-dimensional space operation unit 2, and transmits the selected motion difference information. Based on this, a packet to be transmitted to a desired client is created, and the created packet is transmitted. Therefore, by moving the avatar in the three-dimensional virtual space based on the operator's intention, necessary information can be transmitted to the client specified by the packet.

【0050】また、他のクライアントから送信されてき
たパケットを受信すると、仮想空間の動き情報送受信部
7は、この受信したパケットから必要な動作差分データ
を読み出し、この読み出した動作差分データを3次元骨
格アニメーション生成部32に渡す。そうすると、3次
元骨格アニメーション生成部32は、仮想空間の動き情
報送受信部7から渡された動作差分データを基に、3次
元骨格アニメーションを生成する。そのため、3次元仮
想空間でアバタを操作者の意志に基づいて動かすことに
よって、他のクライアントから送信されてきた所要の情
報を受信し、この受信した所要の情報の内容に則した状
態で、アバタを3次元仮想空間内で登場させて、3次元
表示部4のディスプレイ上に表示することができる。
When a packet transmitted from another client is received, the motion information transmitting / receiving section 7 in the virtual space reads necessary operation difference data from the received packet, and converts the read operation difference data into three-dimensional data. This is passed to the skeleton animation generator 32. Then, the three-dimensional skeleton animation generating unit 32 generates a three-dimensional skeleton animation based on the motion difference data passed from the motion information transmitting / receiving unit 7 in the virtual space. Therefore, by moving the avatar in the three-dimensional virtual space based on the operator's intention, required information transmitted from another client is received, and the avatar is transmitted in accordance with the content of the received required information. Appear in the three-dimensional virtual space and can be displayed on the display of the three-dimensional display unit 4.

【0051】このように、本実施の形態1によると、3
次元仮想空間でアバタを操作者の意志に基づいて動かす
ことによって、クライアント間で所要の情報を通信する
ことができるので、以下の効果を奏する。
As described above, according to the first embodiment, 3
By moving the avatar in the three-dimensional virtual space based on the operator's intention, necessary information can be communicated between the clients, and the following effects are obtained.

【0052】すなわち、HTMLを基本とする記述法、
あるいはユーザインタフェースにおいても、3次元仮想
空間の情報を分かりやすく再現することが簡単となる。
また、画像データをインターネットを介して送受信する
場合でも、伝送量、および伝送時間が大量に必要となる
ことがない。さらに、VRMLで表現された仮想空間で
も、少ないデータ量でアバタにリアルな動きをつけるこ
とができる。加えて、3次元仮想空間内でのアバタの操
作が容易となり、文字、および画像を含めた統合的な情
報の伝達がスムーズに行えるようになる。
That is, a description method based on HTML,
Alternatively, also in the user interface, it is easy to easily reproduce the information of the three-dimensional virtual space.
Even when image data is transmitted and received via the Internet, a large amount of transmission and a large transmission time are not required. Furthermore, even in a virtual space represented by VRML, a realistic movement can be given to an avatar with a small amount of data. In addition, the operation of the avatar in the three-dimensional virtual space is facilitated, and integrated information including characters and images can be smoothly transmitted.

【0053】換言すると、臨場感に溢れる3次元仮想空
間の通信状態を実現することができる。
In other words, it is possible to realize a communication state in a three-dimensional virtual space that is full of a sense of reality.

【0054】実施の形態2.図7は本発明の実施の形態
2にかかる3次元仮想空間の通信装置の構成を示すブロ
ック図である。図7を参照して、本実施の形態2の3次
元仮想空間の通信装置の特徴は、動画像データを含む放
送データが入力されると、この放送データに含まれる動
画データを一時的に保存する動画像データ入力部8と、
この動画像データ入力部8に一時的に保存されている動
画像データを読み出し、この読み出した動画像データに
対して、動画マッピングを施すことによって、動画像を
3次元仮想空間内の指定された形状に貼り付ける動画像
生成部33とを備えている点にあり、その他の構成は、
実施の形態1と同様である。
Embodiment 2 FIG. 7 is a block diagram illustrating a configuration of a communication device in a three-dimensional virtual space according to the second embodiment of the present invention. Referring to FIG. 7, a feature of the communication device in the three-dimensional virtual space according to the second embodiment is that when broadcast data including moving image data is input, moving image data included in the broadcast data is temporarily stored. A moving image data input unit 8
The moving image data temporarily stored in the moving image data input unit 8 is read, and moving image mapping is performed on the read moving image data, so that the moving image is designated in the three-dimensional virtual space. And a moving image generation unit 33 to be attached to the shape.
This is the same as in the first embodiment.

【0055】ところで、上記3次元仮想空間の通信装置
の電源(図示せず。)を入れると、DVDなどからユー
ザにカスタマイズされた形状部品データを読み込み、こ
の読み込んだ形状部品データが3次元仮想空間内に配置
される。ユーザは、用途に応じて、アバタを自分の3次
元仮想空間内で移動させ、3次元仮想空間内の所望の機
器を操作することで、それと接続された実際の機器を制
御する。特に、上記3次元仮想空間の通信装置では、ユ
ーザの指示に従って、動画像データ入力部8が動画像放
送を受信すると、動画像生成部33は、この動画像デー
タ入力部8が受信した動画像放送に含まれる動画像デー
タを3次元仮想空間内の所定の位置に表示する。
By the way, when the power supply (not shown) of the communication device in the three-dimensional virtual space is turned on, the shape part data customized by the user is read from a DVD or the like, and the read shape part data is stored in the three-dimensional virtual space. Is placed within. The user moves the avatar in his or her three-dimensional virtual space according to the application, and operates a desired device in the three-dimensional virtual space to control an actual device connected thereto. In particular, in the communication device of the three-dimensional virtual space, when the moving image data input unit 8 receives a moving image broadcast according to a user's instruction, the moving image generation unit 33 transmits the moving image received by the moving image data input unit 8. The moving image data included in the broadcast is displayed at a predetermined position in the three-dimensional virtual space.

【0056】なお、動画像データは、通常のTV放送の
形態、およびディジタル放送の形態において、例えば、
衛星からの下り伝送路を用いて受信することにより表示
することができる。あるいは、インターネットにつなが
った動画像を配信するサーバから動画像データを受け取
ることにより、表示することも可能である。
Note that the moving image data is, for example, in the form of a normal TV broadcast or digital broadcast.
The information can be displayed by receiving the data using a downlink transmission path from a satellite. Alternatively, it is also possible to display by receiving moving image data from a server that distributes moving images connected to the Internet.

【0057】図8は動画像を貼り付ける際の動作の流れ
を示すフローチャートである。図8を参照して、上記3
次元仮想空間の通信装置において、動画像を貼り付ける
際の動作の流れについて説明する。
FIG. 8 is a flowchart showing the flow of the operation when pasting a moving image. Referring to FIG.
The flow of operation when pasting a moving image in a communication device in a three-dimensional virtual space will be described.

【0058】動画像データを含む放送データが入力され
ると、まず、動画像データ入力部8は、この入力された
放送データに含まれる動画データを一時的に保存する
(ステップS60〜S62)。具体的には、まず、動画
データが圧縮されているか否かを判別する(ステップS
60)。ここで、動画像データが圧縮されていると判別
すると、動画像データに対して復元処理を行ない(ステ
ップS61)、その後、必要に応じて、復元処理したデ
ータをメモリ(図示せず。)などに一時的に保存する
(ステップS62)。一方、動画像データが圧縮されて
いないと判別すると、復元処理を行うことなく、必要に
応じて、動画像データをそのままメモリなどに一時的に
保存する(ステップS62)。
When broadcast data including moving image data is input, first, the moving image data input section 8 temporarily stores moving image data included in the input broadcast data (steps S60 to S62). Specifically, first, it is determined whether or not the moving image data is compressed (step S
60). Here, if it is determined that the moving image data is compressed, a restoring process is performed on the moving image data (step S61), and then, if necessary, the restored data is stored in a memory (not shown) or the like. (Step S62). On the other hand, if it is determined that the moving image data is not compressed, the moving image data is temporarily stored in a memory or the like as needed without performing the decompression process (step S62).

【0059】上記動画データを保存する行程(ステップ
S60〜S62)が終了すると、動画像生成部33は、
動画像データ入力部8に一時的に保存されている動画像
データを読み出し、この読み出した動画像データに対し
て、動画マッピングを施すことによって、動画像を3次
元仮想空間内の指定された形状に貼り付ける(ステップ
S63〜S65)。具体的には、まず、動画像データ入
力部8に一時的に保存されている動画像データを読み出
し、この読み出した動画像データを基に、マッピング座
標をセットする(ステップS63)。その後、セットし
たマッピング座標に従って画像処理を行う(ステップS
64)。最後に、画像処理データを動画マッピング処理
することによって、動画像を生成し、この生成した動画
像を3次元仮想空間内の指定された形状に貼り付ける
(ステップS65)。
When the process of storing the moving image data (steps S60 to S62) is completed, the moving image generation unit 33
The moving image data temporarily stored in the moving image data input unit 8 is read, and the read moving image data is subjected to moving image mapping, so that the moving image is converted into a specified shape in the three-dimensional virtual space. (Steps S63 to S65). Specifically, first, moving image data temporarily stored in the moving image data input unit 8 is read, and mapping coordinates are set based on the read moving image data (step S63). Thereafter, image processing is performed in accordance with the set mapping coordinates (step S
64). Finally, a moving image is generated by performing a moving image mapping process on the image processing data, and the generated moving image is pasted on a designated shape in the three-dimensional virtual space (step S65).

【0060】すなわち、本実施の形態2においては、動
画像データを含む放送データが入力されると、動画像デ
ータ入力部8は、この放送データに含まれる動画データ
を一時的に保存する。そうすると、動画像生成部33
は、動画像データ入力部8に一時的に保存されている動
画像データを読み出し、この読み出した動画像データに
対して、動画マッピングを施すことによって、動画像を
3次元仮想空間内の指定された形状に貼り付ける。
That is, in the second embodiment, when broadcast data including moving image data is input, the moving image data input unit 8 temporarily stores moving image data included in the broadcast data. Then, the moving image generation unit 33
Reads out the moving image data temporarily stored in the moving image data input unit 8 and performs moving image mapping on the read moving image data, so that the moving image is designated in the three-dimensional virtual space. Paste in the shape.

【0061】したがって、本実施の形態2によると、ユ
ーザの指示に従って、動画像データを含む放送データを
受信すると、この受信した放送データに含まれる動画像
データを3次元仮想空間内の所定の位置に表示すること
ができる。その結果、3次元空間内に表示されている動
画像データをクライアント間で共有できるとともに、3
次元空間内に表示されている動画像データをあらゆる角
度から見て楽しむことができる。
Therefore, according to the second embodiment, when broadcast data including moving image data is received in accordance with a user's instruction, moving image data included in the received broadcast data is transferred to a predetermined position in the three-dimensional virtual space. Can be displayed. As a result, the moving image data displayed in the three-dimensional space can be shared between the clients, and
Moving image data displayed in the three-dimensional space can be viewed and enjoyed from all angles.

【0062】実施の形態3.図9は本発明の実施の形態
3にかかる3次元仮想空間の通信装置の構成を示すブロ
ック図である。
Embodiment 3 FIG. 9 is a block diagram illustrating a configuration of a communication device in a three-dimensional virtual space according to the third embodiment of the present invention.

【0063】図9を参照して、本実施の形態3の3次元
仮想空間の通信装置の特徴は、3次元空間生成部3を、
実際の操作者が所要の家庭内機器を制御するための操作
に対応した操作信号が3次元空間操作部2に入力される
と、この入力された操作信号を3次元仮想空間内の仮想
的な家庭内機器の第1の操作情報に変換し、この変換し
た第1の操作情報から制御対象となる家庭内機器を特定
して、制御情報を得るように構成した点、および3次元
空間生成部3にて得られた制御情報を制御対象となる家
庭内機器の第2の操作情報に変換し、この変換した第2
の操作情報を制御対象となる家庭内機器との通信プロト
コルに変換し、この変換した通信プロトコルを制御対象
となる家庭内機器に転送する家庭内機器制御部9を備え
た点にあり、その他の構成は、実施の形態2と同様であ
る。
Referring to FIG. 9, the feature of the communication device for three-dimensional virtual space of the third embodiment is that
When an operation signal corresponding to an operation for controlling a required home device by an actual operator is input to the three-dimensional space operation unit 2, the input operation signal is converted into a virtual image in the three-dimensional virtual space. A point configured to convert into the first operation information of the home device, identify the home device to be controlled from the converted first operation information, and obtain the control information, and a three-dimensional space generation unit 3 is converted into the second operation information of the home appliance to be controlled, and the converted second
Is provided with a home device control unit 9 for converting the operation information of the device into a communication protocol with the home device to be controlled, and transferring the converted communication protocol to the home device to be controlled. The configuration is the same as that of the second embodiment.

【0064】家庭内機器制御部9は、TV、電話、およ
びスイッチなどの3次元仮想空間内の仮想的な機器と、
現実の部屋にある機器の制御を行なうホームオートメー
ション管理システム、およびホームセキュリティシステ
ムとを互いにリンクさせている。そのため、例えば、3
次元仮想空間内のTVのチャンネルを替えると、これに
連動させて、実際のTVのチャンネルを変更させたり、
3次元仮想空間内のドアの施錠を解除すると、これに連
動させて、ドアを開かせたりすることができる。これを
実現するために、接続機構、または制御機構は、例え
ば、IEEEのNo.1394勧告の標準フォーマット
に従う。
The home appliance control unit 9 includes virtual appliances in a three-dimensional virtual space such as a TV, a telephone, and a switch.
A home automation management system that controls devices in a real room and a home security system are linked to each other. Therefore, for example, 3
When the channel of the TV in the virtual virtual space is changed, the channel of the actual TV is changed in conjunction with this,
When the door in the three-dimensional virtual space is unlocked, the door can be opened in conjunction with this. To realize this, the connection mechanism or the control mechanism is, for example, an IEEE No. According to the standard format of the 1394 Recommendation.

【0065】図10は家庭内機器を制御する際の動作の
流れを示すフローチャートである。図10を参照して、
上記3次元仮想空間の通信装置において、家庭内機器を
制御する際の動作の流れについて説明する。
FIG. 10 is a flow chart showing the flow of operation when controlling household appliances. Referring to FIG.
A description will be given of an operation flow when controlling the home device in the communication device in the three-dimensional virtual space.

【0066】実際の操作者が所要の家庭内機器を制御す
るための操作に対応した操作信号が3次元空間操作部2
に入力されると、3次元空間生成部3は、この入力され
た操作信号を3次元仮想空間内の仮想的な家庭内機器の
第1の操作情報に変換し(ステップS70)、この変換
した第1の操作情報から制御対象となる家庭内機器を特
定して、制御情報を得る(ステップS71)。
An operation signal corresponding to an operation for an actual operator to control required home appliances is transmitted to the three-dimensional space operation unit 2.
, The three-dimensional space generation unit 3 converts the input operation signal into first operation information of virtual home devices in the three-dimensional virtual space (step S70), and converts the operation signal. A home device to be controlled is specified from the first operation information to obtain control information (step S71).

【0067】制御対象となる家庭内機器を特定する処理
(ステップS71)が終了すると、家庭内機器制御部9
は、3次元空間生成部3にて得られた制御情報を制御対
象となる家庭内機器の第2の操作情報に変換し(ステッ
プS72)、この変換した第2の操作情報を制御対象と
なる家庭内機器との通信プロトコルに変換し(ステップ
S73)、この変換した通信プロトコルを制御対象とな
る家庭内機器に転送する(ステップS74)。
When the process for specifying the home device to be controlled (step S71) is completed, the home device control unit 9
Converts the control information obtained by the three-dimensional space generation unit 3 into the second operation information of the home appliance to be controlled (step S72), and the converted second operation information becomes the control object. The communication protocol is converted into a communication protocol with the home device (step S73), and the converted communication protocol is transferred to the home device to be controlled (step S74).

【0068】すなわち、本実施の形態3においては、実
際の操作者が所要の家庭内機器を制御するための操作に
対応した操作信号が入力されると、3次元空間生成部3
は、この入力された操作信号を3次元仮想空間内の仮想
的な家庭内機器の第1の操作情報に変換し、この変換し
た第1の操作情報から制御対象となる家庭内機器を特定
して、制御情報を得る。そうすると、家庭内機器制御部
9は、3次元空間生成部3にて得られた制御情報を制御
対象となる家庭内機器の第2の操作情報に変換し、この
変換した第2の操作情報を制御対象となる家庭内機器と
の通信プロトコルに変換し、この変換した通信プロトコ
ルを制御対象となる家庭内機器に転送する。
That is, in the third embodiment, when an operation signal corresponding to an operation for controlling a required home device by an actual operator is input, the three-dimensional space generation unit 3
Converts the input operation signal into first operation information of a virtual home device in a three-dimensional virtual space, and specifies a home device to be controlled from the converted first operation information. To obtain control information. Then, the home device control unit 9 converts the control information obtained by the three-dimensional space generation unit 3 into second operation information of the home device to be controlled, and converts the converted second operation information. The communication protocol is converted into a communication protocol with the home device to be controlled, and the converted communication protocol is transferred to the home device to be controlled.

【0069】したがって、3次元仮想空間でアバタを操
作者の意志に基づいて動かすことによって、3次元仮想
空間内の仮想的な家庭内機器を操作すると、この操作に
連動させて、制御することができる。その結果、実際に
家庭内機器を操作することなく、3次元仮想空間の通信
装置側で、実際の家庭内機器の制御を集中管理すること
ができる。
Accordingly, when the avatar is moved in the three-dimensional virtual space based on the operator's intention and the virtual home appliance in the three-dimensional virtual space is operated, the control can be performed in conjunction with this operation. it can. As a result, it is possible to centrally manage the control of the actual home device on the communication device side in the three-dimensional virtual space without actually operating the home device.

【0070】なお、本発明は上記各実施の形態に限定さ
れるものではなく、例えば、上記各実施の形態におい
て、インターネットを介して、3次元仮想空間の通信装
置のユーザインタフェースから他の汎用の3次元仮想空
間にダイナミックにリンクしたり、複数のアバタを用い
ることにより、情報を共有化するようにしてもよい。
The present invention is not limited to the above embodiments. For example, in each of the above embodiments, a user interface of a communication device in a three-dimensional virtual space may be connected to another general-purpose interface via the Internet. Information may be shared by dynamically linking to a three-dimensional virtual space or by using a plurality of avatars.

【0071】かかる事項を達成するための方法について
説明する。インターネットを介して、3次元仮想空間の
通信装置のユーザインタフェースから他の汎用の3次元
仮想空間にダイナミックにリンクしたり、複数のアバタ
を用いることにより、情報を共有化するようにする場合
には、3次元仮想空間を表現するデータは、インターネ
ットを介して複数のクライアント間で共有する必要があ
る。そのため、3次元仮想空間内に存在する物品の形状
単位で標準データフォーマットに従う必要がある。
A method for achieving this will be described. When sharing information by dynamically linking from a user interface of a communication device in a three-dimensional virtual space to another general-purpose three-dimensional virtual space via the Internet, or by using a plurality of avatars, Data expressing a three-dimensional virtual space needs to be shared between a plurality of clients via the Internet. Therefore, it is necessary to follow a standard data format for each shape of an article existing in the three-dimensional virtual space.

【0072】そこで、以下、インターネットで3次元デ
ータを送受信するときの標準になりつつあるVRMLフ
ォーマットを用いた場合を想定して説明する。
The following description is based on the assumption that the VRML format, which is becoming the standard when transmitting and receiving three-dimensional data on the Internet, is used.

【0073】VRMLでは、3次元仮想空間に存在する
部品をさらに細かい単位(以下、「ポリゴン」とい
う。)に分けて、通常、Indexed Faceset のフォーマッ
トで表す(「VRML Ver.2.0 Specification」参
照)。各ポリゴンの形状は、汎用のモデラを用いてモデ
リングし、VRMLデータ形式で出力する。VRMLで
は、個々の部品の形状に加えて、色、および光学属性な
どの表面属性を設定できる。さらに、前述の個々のポリ
ゴンの形状を3次元仮想空間内の所望の位置にスケーリ
ングして配置する。VRMLでは、個々の部品単位にフ
ァイルを持たせることもできるし、部品が幾つか集まっ
て配置された部屋などの少し大きなレベルを1つのファ
イルとして表現することも可能である。いずれにして
も、3次元空間形状生成部31では、VRML形式の形
状部品データを読み込んで、所定のシーントリー上に階
層表現した形で管理する。
In VRML, parts existing in a three-dimensional virtual space are divided into smaller units (hereinafter, referred to as “polygons”) and are usually expressed in an Indexed Faceset format (see “VRML Ver. 2.0 Specification”). The shape of each polygon is modeled using a general-purpose modeler and output in VRML data format. With VRML, in addition to the shape of each component, surface attributes such as color and optical attributes can be set. Further, the shapes of the individual polygons are scaled and arranged at desired positions in the three-dimensional virtual space. With VRML, a file can be provided for each individual component, or a slightly larger level such as a room where some components are gathered and arranged can be expressed as one file. In any case, the three-dimensional space shape generation unit 31 reads the shape part data in the VRML format and manages it in a form expressed hierarchically on a predetermined scene tree.

【0074】さらに、VRMLでは、WWWInline、お
よびWWWAnchorと呼ぶノードがあり、3次元仮想空間
内の形状とは別のVRMLの形状、音のファイル、およ
び画像ファイルなどをリンクできる。例えば、3次元仮
想空間の通信装置が表示している3次元仮想空間のドア
の形状に、WWWAnchorで別の3次元仮想空間のシーン
をリンクしておくと、ユーザがドアをクリックしたアク
ションに従って、URL(Uniform Resource Locator)
で指定されるファイル、あるいはHTTP(Hypertext T
ransfer Protocol) アドレスで指定されたサーバ上にあ
るVRMLシーンデータを読み込み、3次元空間生成部
3で新しい空間として表示する。この場合、あたかも3
次元仮想空間の通信装置を見ているユーザは、3次元仮
想空間内の仮想の自分の部屋から、例えば、町、および
都市などの新たな空間に移動するようなインタフェース
を提供することができる。
Further, in VRML, there are nodes called WWWInline and WWWAnchor, and a VRML shape different from the shape in the three-dimensional virtual space, a sound file, an image file, and the like can be linked. For example, if a scene of another three-dimensional virtual space is linked to the shape of the door of the three-dimensional virtual space displayed by the communication device of the three-dimensional virtual space by WWWAnchor, the user can click the door according to the action of clicking the door. URL (Uniform Resource Locator)
File or HTTP (Hypertext T
(ransfer Protocol) The VRML scene data on the server specified by the address is read and displayed as a new space by the three-dimensional space generation unit 3. In this case, as if 3
A user looking at a communication device in a three-dimensional virtual space can provide an interface to move from his virtual room in the three-dimensional virtual space to a new space, such as a town or a city.

【0075】WWWAnchor、およびWWWInlineには、
ASCII(American Standerd Code for Information
Interchange)形式で、その形状がクリックされたときに
移動するVRMLファイルのアドレス(HTTP形
式)、および再生する音声のファイルの場所を予め定義
しておく。WWWAnchorで指定されるファイルが、例え
ば、Wav、MIDI、およびAIFFフォーマットな
どの音のファイルの場合は、そのファイルの拡張子を判
断(MIME(Multipurpose Internet Mail Extension)
のタイプに設定)し、音再生部5で、そのファイルを再
生する。同様に、画像ファイルの場合は、ファイルの拡
張子で判断し、動画像生成部33で動画像データを3次
元形状の物体(ポリゴン)に動画マッピングして表示す
る。さらに、WWWAnchorで定義されるファイルがVR
MLデータの場合は、VRML、およびwrl などの拡張子で
判断し、3次元空間形状生成部31で3次元仮想空間を
再生する。
In WWWAnchor and WWWInline,
ASCII (American Standerd Code for Information
In an Interchange format, the address of the VRML file to be moved when the shape is clicked (HTTP format) and the location of the audio file to be reproduced are defined in advance. If the file specified by WWWAnchor is a sound file such as Wav, MIDI, and AIFF format, the extension of the file is determined (MIME (Multipurpose Internet Mail Extension)).
), And the sound reproducing unit 5 reproduces the file. Similarly, in the case of an image file, determination is made based on the file extension, and the moving image generation unit 33 displays moving image data on a three-dimensional object (polygon) by moving image mapping. Furthermore, the file defined by WWWAnchor is VR
In the case of ML data, it is determined based on an extension such as VRML and wrl, and the three-dimensional space shape generation unit 31 reproduces a three-dimensional virtual space.

【0076】インターネットを介してリンクされている
サーバとクライアントとの関連は、以下の通りである。
すなわち、ユーザにカスタマイズされた、仮想空間の部
屋のデータなどのデータは、個人情報として、クライア
ント側の3次元仮想空間の通信装置に予め作成される。
クライアント側の3次元仮想空間の通信装置上には、ユ
ーザが独自に設定したVRML環境が表示されている。
ユーザが独自に設定したVRML環境から別の汎用のV
RML環境に移動するには、WWWAnchorなどで、必要
な3次元仮想空間のHTTPアドレスをリンクしておく
か、あるいはユーザが直接アドレスを指定するようにす
ればよい。
The relationship between the server and the client linked via the Internet is as follows.
That is, data such as room data in the virtual space customized for the user is created in advance as personal information in the communication device of the three-dimensional virtual space on the client side.
A VRML environment uniquely set by the user is displayed on the communication device in the three-dimensional virtual space on the client side.
From the VRML environment set by the user to another general-purpose V
In order to move to the RML environment, a necessary WWW Anchor or the like may be used to link the required HTTP address of the three-dimensional virtual space, or the user may directly specify the address.

【0077】実際のVRMLデータは、Shared VRM
Lサーバなどを用いて、インターネットにつながったV
RMLサーバ上に分散した形で置いておく。分散サーバ
は、3次元仮想空間の通信装置からの要求(HTTP)
に応じた必要な単位のVRMLデータを配信する。分散
するVRMLデータの単位、および規模については、サ
ービスを行なうインターネット上の3次元仮想空間の規
模に依存して、任意に決定される。
The actual VRML data is a shared VRM
V connected to the Internet using an L server
It is placed in a distributed form on the RML server. Distributed server requests from communication device in 3D virtual space (HTTP)
The VRML data of the required unit corresponding to the above is distributed. The unit and the scale of the VRML data to be distributed are arbitrarily determined depending on the scale of the three-dimensional virtual space on the Internet where the service is provided.

【0078】3次元仮想空間の通信装置に表示される3
次元仮想空間内で、複数ユーザの分身であるアバタを登
場させる場合は、インターネットに接続されたチャット
用のサーバがアバタの動き、および会話の変化情報のみ
を管理し、必要に応じて、その変化量をネットワークに
接続された必要なユーザにブロードキャスト(配信)す
る。
[0078] 3 displayed on the communication device in the three-dimensional virtual space
When an avatar that is an alter ego of multiple users appears in a three-dimensional virtual space, a chat server connected to the Internet manages only the avatar's movement and conversation change information. Broadcast the quantity to the required users connected to the network.

【0079】その他、本発明の請求の範囲内での種々の
設計変更、および修正を加え得ることは勿論である。
It goes without saying that various design changes and modifications can be made within the scope of the present invention.

【0080】[0080]

【発明の効果】以上の説明から明らかな通り、請求項
1、および請求項5に記載の発明によると、3次元仮想
空間でアバタを操作者の意志に基づいて動かすことによ
って、所要の情報をパケットで指定されたクライアント
に送信することができる結果、臨場感に溢れる3次元仮
想空間の送信状態を実現することができる。
As is apparent from the above description, according to the first and fifth aspects of the present invention, the required information is moved by moving the avatar in the three-dimensional virtual space based on the operator's will. As a result of being able to transmit to the client specified by the packet, it is possible to realize a transmission state of the three-dimensional virtual space which is full of a sense of reality.

【0081】請求項2、および請求項6に記載の発明に
よると、3次元仮想空間でアバタを操作者の意志に基づ
いて動かすことによって、他のクライアントから送信さ
れてきた所要の情報を受信し、この受信した所要の情報
の内容に則した状態で、アバタを3次元仮想空間内で登
場させて、表示することができる結果、臨場感に溢れる
3次元仮想空間の受信状態を実現することができる。
According to the second and sixth aspects of the present invention, by moving an avatar in a three-dimensional virtual space based on an operator's intention, required information transmitted from another client is received. The avatar can appear in the three-dimensional virtual space and be displayed in a state in accordance with the content of the received required information. As a result, it is possible to realize a realistic three-dimensional virtual space reception state. it can.

【0082】請求項3、および請求項7に記載の発明に
よると、ユーザの指示に従って、動画像データを含む放
送データを受信すると、この受信した放送データに含ま
れる動画像データを3次元仮想空間内の所定の位置に表
示することができる結果、3次元空間内に表示されてい
る動画像データをクライアント間で共有できるととも
に、3次元空間内に表示されている動画像データをあら
ゆる角度から見て楽しむことができる。
According to the third and seventh aspects of the present invention, when broadcast data including moving image data is received in accordance with a user's instruction, moving image data included in the received broadcast data is converted into a three-dimensional virtual space. As a result, the moving image data displayed in the three-dimensional space can be shared between clients, and the moving image data displayed in the three-dimensional space can be viewed from all angles. You can enjoy.

【0083】請求項4、および請求項8に記載の発明に
よると、3次元仮想空間でアバタを操作者の意志に基づ
いて動かすことによって、3次元仮想空間内の仮想的な
家庭内機器を操作すると、この操作に連動させて、制御
することができる結果、実際に家庭内機器を操作するこ
となく、3次元仮想空間の通信装置側で、実際の家庭内
機器の制御を集中管理することができる。
According to the fourth and eighth aspects of the present invention, the avatar is moved in the three-dimensional virtual space based on the operator's intention to operate the virtual household equipment in the three-dimensional virtual space. Then, as a result of being able to control in conjunction with this operation, it is possible to centrally manage the control of the actual home device on the communication device side of the three-dimensional virtual space without actually operating the home device. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1にかかる3次元仮想空間
の通信装置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a communication device in a three-dimensional virtual space according to a first embodiment of the present invention.

【図2】3次元仮想空間内にアバタを登場させた状態を
示す図である。
FIG. 2 is a diagram showing a state in which an avatar appears in a three-dimensional virtual space.

【図3】3次元仮想空間内で登場させたアバタを動かし
て表示する際の動作の流れを示すフローチャートであ
る。
FIG. 3 is a flowchart showing a flow of an operation when an avatar that has appeared in a three-dimensional virtual space is moved and displayed.

【図4】3次元仮想空間内で登場させたアバタを動かし
て表示する際の動作の流れを示すフローチャートであ
る。
FIG. 4 is a flowchart illustrating a flow of an operation when an avatar that has appeared in a three-dimensional virtual space is moved and displayed.

【図5】アバタの動き情報を送信する際の動作の流れを
示すフローチャートである。
FIG. 5 is a flowchart illustrating a flow of an operation when transmitting avatar motion information.

【図6】アバタの動き情報を受信する際の動作の流れを
示すフローチャートである。
FIG. 6 is a flowchart showing a flow of an operation when receiving avatar motion information.

【図7】本発明の実施の形態2にかかる3次元仮想空間
の通信装置の構成を示すブロック図である。
FIG. 7 is a block diagram illustrating a configuration of a communication device in a three-dimensional virtual space according to a second embodiment of the present invention;

【図8】動画像を貼り付ける際の動作の流れを示すフロ
ーチャートである。
FIG. 8 is a flowchart showing a flow of an operation when pasting a moving image.

【図9】本発明の実施の形態3にかかる3次元仮想空間
の通信装置の構成を示すブロック図である。
FIG. 9 is a block diagram illustrating a configuration of a communication device in a three-dimensional virtual space according to a third embodiment of the present invention;

【図10】家庭内機器を制御する際の動作の流れを示す
フローチャートである。
FIG. 10 is a flowchart showing a flow of an operation when controlling home appliances.

【符号の説明】[Explanation of symbols]

1 3次元空間形状保存部 2 3次元空間操作部 3 3次元空間生成部 31 3次元空間形状生成部 32 3次元骨格アニメーション生成部 33 動画像生成部 4 3次元表示部 5 音再生部 6 仮想空間データ接続部 7 仮想空間の動き情報送受信部 8 動画像データ入力部 9 家庭内機器制御部 Reference Signs List 1 3D space shape storage unit 2 3D space operation unit 3 3D space generation unit 31 3D space shape generation unit 32 3D skeleton animation generation unit 33 Moving image generation unit 4 3D display unit 5 Sound reproduction unit 6 Virtual space Data connection unit 7 Motion information transmission / reception unit in virtual space 8 Moving image data input unit 9 Home device control unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 3次元仮想空間で骨格構造を有する仮想
的な生物体を操作者の意志に基づいて動かすことによっ
て、クライアント間で所要の情報を通信するための装置
であって、 外部から上記3次元仮想空間内の形状データ、上記仮想
的な生物体の骨格データ、および上記仮想的な生物体の
動作データを含む3次元データが入力されると、この入
力された3次元データを一時的に保存する3次元空間形
状保存手段と、 この3次元空間形状保存手段に一時的に保存されている
上記3次元データに含まれる上記3次元仮想空間内の形
状データを読み出し、この読み出した上記3次元仮想空
間内の形状データを基に、3次元空間形状を生成する3
次元空間形状生成手段と、 上記3次元空間形状保存手段に一時的に保存されている
上記3次元データに含まれる上記仮想的な生物体の骨格
データ、および上記仮想的な生物体の動作データを読み
出し、この読み出した上記仮想的な生物体の骨格デー
タ、および上記仮想的な生物体の動作データを互いに対
応付け、この対応付けした上記仮想的な生物体の動作デ
ータに従って上記仮想的な生物体の骨格データを変形さ
せることによって、3次元骨格アニメーションを生成す
る3次元骨格アニメーション生成手段と、 上記3次元空間形状生成手段にて生成された上記3次元
空間形状、および上記3次元骨格アニメーション生成手
段にて生成された上記3次元骨格アニメーションを描画
専用メモリに書き込み、この描画専用メモリに書き込ん
だ上記3次元空間形状、および上記3次元骨格アニメー
ションを読み出し、この読み出した上記3次元空間形
状、および上記3次元骨格アニメーションを表示画面に
表示する3次元表示手段と、 実際に操作者が所望のクライアントに所要の情報を送信
するための操作に対応した操作信号が入力されると、こ
の入力された操作信号を上記3次元仮想空間内で上記仮
想的な生物体を動かすための移動情報に変換し、この変
換した移動情報を上記3次元空間形状保存手段にて一時
的に保存させるとともに、必要に応じて、当該移動情報
を基に、上記仮想的な生物体の動きの変化量を表す動作
差分データを算出する3次元空間操作手段と、 この3次元空間操作手段にて算出された上記動作差分デ
ータから所望のクライアントに送信すべき必要な動作差
分情報を選択し、この選択した動作差分情報を基に、所
望のクライアントに送信すべきパケットを作成し、この
作成したパケットを送信する送信手段とを含むことを特
徴とする3次元仮想空間の通信装置。
1. A device for communicating required information between clients by moving a virtual creature having a skeletal structure in a three-dimensional virtual space based on an operator's will. When the three-dimensional data including the shape data in the three-dimensional virtual space, the skeleton data of the virtual creature, and the operation data of the virtual creature is input, the input three-dimensional data is temporarily stored. Means for storing the three-dimensional space shape stored in the three-dimensional space shape storage means; and the three-dimensional data contained in the three-dimensional data temporarily stored in the three-dimensional space shape storage means. Generate 3D space shape based on shape data in 3D virtual space 3
Three-dimensional space shape generation means; and the virtual skeletal data of the virtual creature included in the three-dimensional data temporarily stored in the three-dimensional space shape storage means, and the operation data of the virtual creature Reading out the read skeleton data of the virtual organism, and associating the operation data of the virtual organism with each other, and according to the associated operation data of the virtual organism, the virtual organism Three-dimensional skeleton animation generation means for generating a three-dimensional skeleton animation by deforming the skeleton data of the three-dimensional skeleton animation; the three-dimensional space shape generated by the three-dimensional space shape generation means; and the three-dimensional skeleton animation generation means Write the above three-dimensional skeletal animation generated in step 3 into the drawing-only memory and write it into this drawing-only memory. Three-dimensional display means for reading the three-dimensional space shape and the three-dimensional skeleton animation and displaying the read three-dimensional space shape and the three-dimensional skeleton animation on a display screen; When an operation signal corresponding to an operation for transmitting required information is input, the input operation signal is converted into movement information for moving the virtual organism in the three-dimensional virtual space, The converted movement information is temporarily stored in the three-dimensional space shape storage unit, and, if necessary, based on the movement information, motion difference data representing the amount of change in the movement of the virtual organism. A three-dimensional space operation means for calculating the motion difference information, and necessary motion difference information to be transmitted to a desired client from the motion difference data calculated by the three-dimensional space operation means And a transmission means for transmitting a packet to be transmitted to a desired client based on the selected operation difference information, and transmitting the generated packet. .
【請求項2】 請求項1に記載の3次元仮想空間の通信
装置において、 他のクライアントから送信されてきたパケットを受信
し、この受信したパケットから必要な動作差分データを
読み出し、この読み出した動作差分データを上記3次元
骨格アニメーション生成手段に渡す受信手段を含み、 上記3次元骨格アニメーション生成手段は、上記受信手
段から渡された上記動作差分データを基に、3次元骨格
アニメーションを生成することを特徴とする3次元仮想
空間の通信装置。
2. The communication device according to claim 1, wherein a packet transmitted from another client is received, necessary operation difference data is read from the received packet, and the read operation is performed. Receiving means for passing the difference data to the three-dimensional skeleton animation generating means, wherein the three-dimensional skeleton animation generating means generates a three-dimensional skeletal animation based on the motion difference data passed from the receiving means. A communication device for a three-dimensional virtual space that is a feature.
【請求項3】 請求項1または2に記載の3次元仮想空
間の通信装置において、 動画像データを含む放送データが入力されると、この入
力された放送データに含まれる動画データを一時的に保
存する動画像データ入力手段と、 この動画像データ入力手段に一時的に保存されている動
画像データを読み出し、この読み出した動画像データに
対して、動画マッピングを施すことによって、動画像を
上記3次元仮想空間内の指定された形状に貼り付ける動
画像生成手段とを含むことを特徴とする3次元仮想空間
の通信装置。
3. The communication device for a three-dimensional virtual space according to claim 1, wherein, when broadcast data including moving image data is input, moving image data included in the input broadcast data is temporarily stored. Moving image data input means for storing, and moving image data temporarily stored in the moving image data input means, and moving image mapping is performed on the read moving image data to convert the moving image A three-dimensional virtual space communication device, comprising: a moving image generation unit for pasting the moving image to a designated shape in the three-dimensional virtual space.
【請求項4】 請求項1ないし3のいずれかに記載の3
次元仮想空間の通信装置において、 実際の操作者が所要の家庭内機器を制御するための操作
に対応した操作信号が入力されると、この入力された操
作信号を上記3次元仮想空間内の仮想的な家庭内機器の
第1の操作情報に変換し、この変換した第1の操作情報
から制御対象となる家庭内機器を特定して、制御情報を
得る制御情報取得手段と、 この制御情報取得手段にて得られた上記制御情報を制御
対象となる家庭内機器の第2の操作情報に変換し、この
変換した第2の操作情報を制御対象となる家庭内機器と
の通信プロトコルに変換し、この変換した通信プロトコ
ルを制御対象となる家庭内機器に転送する家庭内機器制
御手段とを含むことを特徴とする3次元仮想空間の通信
装置。
4. The method according to claim 1, wherein
In a communication device of a three-dimensional virtual space, when an operation signal corresponding to an operation for controlling a required home device by an actual operator is input, the input operation signal is transmitted to a virtual device in the three-dimensional virtual space. Control information obtaining means for converting the first operation information of a typical household device, identifying the home device to be controlled from the converted first operation information, and obtaining the control information; The control information obtained by the means is converted into second operation information of a home device to be controlled, and the converted second operation information is converted into a communication protocol with a home device to be controlled. And a home device control unit for transferring the converted communication protocol to a home device to be controlled.
【請求項5】 3次元仮想空間で骨格構造を有する仮想
的な生物体を操作者の意志に基づいて動かすことによっ
て、クライアント間で所要の情報を通信するための方法
であって、 外部から上記3次元仮想空間内の形状データ、上記仮想
的な生物体の骨格データ、および上記仮想的な生物体の
動作データを含む3次元データが入力されると、この入
力された3次元データを一時的に保存する3次元空間形
状保存ステップと、 この3次元空間形状保存ステップに一時的に保存されて
いる上記3次元データに含まれる上記3次元仮想空間内
の形状データを読み出し、この読み出した上記3次元仮
想空間内の形状データを基に、3次元空間形状を生成す
る3次元空間形状生成ステップと、 上記3次元空間形状保存ステップに一時的に保存されて
いる上記3次元データに含まれる上記仮想的な生物体の
骨格データ、および上記仮想的な生物体の動作データを
読み出し、この読み出した上記仮想的な生物体の骨格デ
ータ、および上記仮想的な生物体の動作データを互いに
対応付け、この対応付けした上記仮想的な生物体の動作
データに従って上記仮想的な生物体の骨格データを変形
させることによって、3次元骨格アニメーションを生成
する3次元骨格アニメーション生成ステップと、 上記3次元空間形状生成ステップにて生成された上記3
次元空間形状、および上記3次元骨格アニメーション生
成ステップにて生成された上記3次元骨格アニメーショ
ンを描画専用メモリに書き込み、この描画専用メモリに
書き込んだ上記3次元空間形状、および上記3次元骨格
アニメーションを読み出し、この読み出した上記3次元
空間形状、および上記3次元骨格アニメーションを表示
画面に表示する3次元表示ステップと、 実際に操作者が所望のクライアントに所要の情報を送信
するための操作に対応した操作信号が入力されると、こ
の入力された操作信号を上記3次元仮想空間内で上記仮
想的な生物体を動かすための移動情報に変換し、この変
換した移動情報を上記3次元空間形状保存ステップにて
一時的に保存させるとともに、必要に応じて、当該移動
情報を基に、上記仮想的な生物体の動きの変化量を表す
動作差分データを算出する3次元空間操作ステップと、 この3次元空間操作ステップにて算出された上記動作差
分データから所望のクライアントに送信すべき必要な動
作差分情報を選択し、この選択した動作差分情報を基
に、所望のクライアントに送信すべきパケットを作成
し、この作成したパケットを送信する送信ステップとを
含むことを特徴とする3次元仮想空間の通信方法。
5. A method for communicating required information between clients by moving a virtual creature having a skeletal structure in a three-dimensional virtual space based on an operator's will, the method comprising: When the three-dimensional data including the shape data in the three-dimensional virtual space, the skeleton data of the virtual creature, and the operation data of the virtual creature is input, the input three-dimensional data is temporarily stored. A three-dimensional space shape storing step of storing the three-dimensional space shape data in the three-dimensional virtual space included in the three-dimensional data temporarily stored in the three-dimensional space shape storing step; A three-dimensional space shape generating step of generating a three-dimensional space shape based on the shape data in the three-dimensional virtual space; The skeleton data of the virtual creature and the operation data of the virtual creature included in the three-dimensional data are read, and the read skeleton data of the virtual creature and the virtual creature are read out. Three-dimensional skeleton animation generating step of generating a three-dimensional skeleton animation by associating the motion data with each other and deforming the skeleton data of the virtual organism according to the associated motion data of the virtual organism And the 3 generated in the 3D space shape generating step
The three-dimensional space shape and the three-dimensional skeleton animation generated in the three-dimensional skeleton animation generation step are written in a dedicated drawing memory, and the three-dimensional space shape and the three-dimensional skeleton animation written in the dedicated drawing memory are read out. A three-dimensional display step of displaying the read three-dimensional space shape and the three-dimensional skeleton animation on a display screen; and an operation corresponding to an operation for the operator to actually transmit necessary information to a desired client. When the signal is input, the input operation signal is converted into movement information for moving the virtual living body in the three-dimensional virtual space, and the converted movement information is stored in the three-dimensional space shape storing step. At the same time, and, if necessary, the virtual organism based on the movement information. Three-dimensional space operation step of calculating motion difference data representing the amount of change in the motion of the user, and selecting necessary motion difference information to be transmitted to a desired client from the motion difference data calculated in the three-dimensional space operation step Transmitting a packet to be transmitted to a desired client based on the selected operation difference information, and transmitting the generated packet.
【請求項6】 請求項5に記載の3次元仮想空間の通信
方法において、 他のクライアントから送信されてきたパケットを受信
し、この受信したパケットから必要な動作差分データを
読み出し、この読み出した動作差分データを上記3次元
骨格アニメーション生成ステップに渡す受信ステップを
含み、 上記3次元骨格アニメーション生成ステップは、上記受
信ステップから渡された上記動作差分データを基に、3
次元骨格アニメーションを生成することを特徴とする3
次元仮想空間の通信方法。
6. The communication method according to claim 5, wherein a packet transmitted from another client is received, necessary operation difference data is read from the received packet, and the read operation is performed. A receiving step of passing the difference data to the three-dimensional skeleton animation generating step, wherein the three-dimensional skeleton animation generating step is performed based on the motion difference data passed from the receiving step.
Generate 3D skeleton animation 3
A communication method for a three-dimensional virtual space.
【請求項7】 請求項5または6に記載の3次元仮想空
間の通信方法において、 動画像データを含む放送データが入力されると、この入
力された放送データに含まれる動画データを一時的に保
存する動画像データ入力ステップと、 この動画像データ入力ステップに一時的に保存されてい
る動画像データを読み出し、この読み出した動画像デー
タに対して、動画マッピングを施すことによって、動画
像を上記3次元仮想空間内の指定された形状に貼り付け
る動画像生成ステップとを含むことを特徴とする3次元
仮想空間の通信方法。
7. The communication method for a three-dimensional virtual space according to claim 5, wherein when broadcast data including moving image data is input, moving image data included in the input broadcast data is temporarily stored. A moving image data input step to be saved, and moving image data temporarily stored in the moving image data input step are read out, and the read moving image data is subjected to moving image mapping, whereby the moving image Generating a moving image to be attached to a designated shape in the three-dimensional virtual space.
【請求項8】 請求項5ないし7のいずれかに記載の3
次元仮想空間の通信方法において、 実際の操作者が所要の家庭内機器を制御するための操作
に対応した操作信号が入力されると、この入力された操
作信号を上記3次元仮想空間内の仮想的な家庭内機器の
第1の操作情報に変換し、この変換した第1の操作情報
から制御対象となる家庭内機器を特定して、制御情報を
得る制御情報取得ステップと、 この制御情報取得ステップにて得られた上記制御情報を
制御対象となる家庭内機器の第2の操作情報に変換し、
この変換した第2の操作情報を制御対象となる家庭内機
器との通信プロトコルに変換し、この変換した通信プロ
トコルを制御対象となる家庭内機器に転送する家庭内機
器制御ステップとを含むことを特徴とする3次元仮想空
間の通信方法。
8. The method according to claim 5, wherein
In the communication method of the three-dimensional virtual space, when an operation signal corresponding to an operation for controlling a required home device by an actual operator is input, the input operation signal is transmitted to the virtual space in the three-dimensional virtual space. A control information obtaining step of converting control information into first operation information of a typical home device, identifying a home device to be controlled from the converted first operation information, and obtaining control information; Converting the control information obtained in the step into second operation information of the home appliance to be controlled,
A home device control step of converting the converted second operation information into a communication protocol with the home device to be controlled, and transferring the converted communication protocol to the home device to be controlled. A featured communication method for a three-dimensional virtual space.
JP9028074A 1997-02-12 1997-02-12 Communication equipment of three-dimensional virtual space and communicating method Withdrawn JPH10222698A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9028074A JPH10222698A (en) 1997-02-12 1997-02-12 Communication equipment of three-dimensional virtual space and communicating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9028074A JPH10222698A (en) 1997-02-12 1997-02-12 Communication equipment of three-dimensional virtual space and communicating method

Publications (1)

Publication Number Publication Date
JPH10222698A true JPH10222698A (en) 1998-08-21

Family

ID=12238634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9028074A Withdrawn JPH10222698A (en) 1997-02-12 1997-02-12 Communication equipment of three-dimensional virtual space and communicating method

Country Status (1)

Country Link
JP (1) JPH10222698A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299684A (en) * 1999-04-12 2000-10-24 Telecommunication Advancement Organization Of Japan Data communication system
WO2001011470A1 (en) * 1999-08-06 2001-02-15 Digit Co., Ltd. Method for manipulating interface character through remote control
WO2002093497A1 (en) * 2001-05-14 2002-11-21 Netdimension Corporation Information distribution system and information distribution method
JP2006215553A (en) * 2005-01-31 2006-08-17 Samsung Electronics Co Ltd System and method for providing sign language video data in broadcasting-communication convergence system
JP2007515707A (en) * 2003-11-27 2007-06-14 スマート インターネット テクノロジー シーアールシー ピーティワイ リミテッド Communication system and method
JP2008233946A (en) * 2007-03-16 2008-10-02 Konami Digital Entertainment:Kk Character display device, character display method and program
US7594179B2 (en) 2002-10-10 2009-09-22 Sony Corporation Information processing system, service providing apparatus and method, information processing apparatus and method, recording medium, and program
JP2011065272A (en) * 2009-09-15 2011-03-31 Ricoh Co Ltd Information processing apparatus, and program
JP2015210547A (en) * 2014-04-23 2015-11-24 博司 佐久田 Remote monitoring system
WO2020194821A1 (en) * 2019-03-27 2020-10-01 株式会社ドワンゴ Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299684A (en) * 1999-04-12 2000-10-24 Telecommunication Advancement Organization Of Japan Data communication system
WO2001011470A1 (en) * 1999-08-06 2001-02-15 Digit Co., Ltd. Method for manipulating interface character through remote control
US7739086B2 (en) 2001-05-14 2010-06-15 Netdimension Corporation Information delivering method
WO2002093497A1 (en) * 2001-05-14 2002-11-21 Netdimension Corporation Information distribution system and information distribution method
US7225114B2 (en) 2001-05-14 2007-05-29 Netdimension Corporation Information delivering system and information delivering method
KR100742000B1 (en) * 2001-05-14 2007-07-23 가부시키가이샤 네트디멘션 Information distribution system and information distribution method
KR100981405B1 (en) * 2001-05-14 2010-09-10 가부시키가이샤 네트디멘션 Information distribution system and information distribution method
KR100923123B1 (en) * 2001-05-14 2009-10-23 가부시키가이샤 네트디멘션 Information distribution system and information distribution method
US7823074B2 (en) 2002-10-10 2010-10-26 Sony Corporation Service providing apparatus and method, and information processing apparatus and method
US7594179B2 (en) 2002-10-10 2009-09-22 Sony Corporation Information processing system, service providing apparatus and method, information processing apparatus and method, recording medium, and program
JP2007515707A (en) * 2003-11-27 2007-06-14 スマート インターネット テクノロジー シーアールシー ピーティワイ リミテッド Communication system and method
US9055126B2 (en) 2003-11-27 2015-06-09 Swarm Systems Pty Ltd Systems and methods for communicating
US9398101B2 (en) 2003-11-27 2016-07-19 Swarm Systems Pty Ltd Systems and methods for communicating
US10182157B2 (en) 2003-11-27 2019-01-15 Swarm Systems Pty Ltd. Systems and methods for communicating
JP2006215553A (en) * 2005-01-31 2006-08-17 Samsung Electronics Co Ltd System and method for providing sign language video data in broadcasting-communication convergence system
JP2008233946A (en) * 2007-03-16 2008-10-02 Konami Digital Entertainment:Kk Character display device, character display method and program
JP2011065272A (en) * 2009-09-15 2011-03-31 Ricoh Co Ltd Information processing apparatus, and program
JP2015210547A (en) * 2014-04-23 2015-11-24 博司 佐久田 Remote monitoring system
WO2020194821A1 (en) * 2019-03-27 2020-10-01 株式会社ドワンゴ Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data
JP2020162004A (en) * 2019-03-27 2020-10-01 株式会社ドワンゴ Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data

Similar Documents

Publication Publication Date Title
JP3928229B2 (en) Display control apparatus, display control method, and recording medium
US6262734B1 (en) Graphic data generating apparatus, graphic data generation method, and medium of the same
Lea et al. Virtual society: Collaboration in 3D spaces on the Internet
US6466239B2 (en) Method and apparatus for editing data used in creating a three-dimensional virtual reality environment
US6552721B1 (en) Graphic data generating apparatus, graphic data generation method, and medium of the same
EP0753835B1 (en) A three-dimensional virtual reality space sharing method and system
US6961060B1 (en) Virtual space control data receiving apparatus,virtual space control data transmission and reception system, virtual space control data receiving method, and virtual space control data receiving program storage media
US8504926B2 (en) Model based avatars for virtual presence
US6518989B1 (en) Graphic data generating apparatus, graphic data generation method, and medium of the same
Dias et al. mWorld: A multiuser 3D virtual environment
Frécon et al. An overview of the COVEN platform
US6401237B1 (en) Method and apparatus for editing data used in creating a three-dimensional virtual reality environment
US20030184590A1 (en) Client server approach for interactive updates of graphical user interfaces on intranets
JPH10333542A (en) Client device, display control method, shared virtual space provision device and method and provision medium
JPH10222698A (en) Communication equipment of three-dimensional virtual space and communicating method
Snowdon et al. A review of distributed architectures for networked virtual reality
Steed et al. Spelunking: Experiences using the D ive System on CAVE-like Platforms
WO1998033147A1 (en) Pattern data generator, pattern data generating method and its medium
JP3859020B2 (en) 3D virtual reality space sharing method, 3D virtual reality space sharing system, information processing method, client terminal, and shared server terminal
Behr et al. Beyond the web browser-x3d and immersive vr
JPH1040419A (en) Method for transmitting, receiving and generating computer graphics animation data, and recording medium
KR100283617B1 (en) 3D Virtual Space Construction System
EP0895196A1 (en) Pattern data generator, pattern data generating method, and its medium
Steed et al. Construction of collaborative virtual environments
Elordi et al. Virtual reality interfaces applied to web-based 3D E-commerce

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060404

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060526