JP2000311256A - Shared virtual space display system, avatar display method and recording medium - Google Patents

Shared virtual space display system, avatar display method and recording medium

Info

Publication number
JP2000311256A
JP2000311256A JP12119199A JP12119199A JP2000311256A JP 2000311256 A JP2000311256 A JP 2000311256A JP 12119199 A JP12119199 A JP 12119199A JP 12119199 A JP12119199 A JP 12119199A JP 2000311256 A JP2000311256 A JP 2000311256A
Authority
JP
Japan
Prior art keywords
graphic object
avatar
virtual space
client
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP12119199A
Other languages
Japanese (ja)
Inventor
Osamu Shikoku
修 四國
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Group Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP12119199A priority Critical patent/JP2000311256A/en
Publication of JP2000311256A publication Critical patent/JP2000311256A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a shared virtual space display system which can display an avatar that is optionally produced in a shared virtual space. SOLUTION: When a client terminal 1b is logged in a shared virtual space, the terminal 1b transmits an avatar 52 that is read out of an avatar object input part 12 to a WWW server 21. The server 21 transmits an avatar 51 that is read out of a VRML file storage part 23 to the terminal 1b. Then the terminal 1b receives the avatar 51 and displays a three-dimensional image of the shared virtual space where the avatar 51 appeared. Meanwhile, a client terminal 1a receives the log-in information from the server 21 and displays a three- dimensional image of the shared virtual space where the avatar 52 included in the log-in information appeared.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、任意に作成した
アバタを共有仮想空間において表示することのできる共
有仮想空間表示システム、アバタ表示方法及び記録媒体
に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a shared virtual space display system, an avatar display method, and a recording medium that can display arbitrarily created avatars in a shared virtual space.

【0002】[0002]

【従来の技術】近年、コンピュータネットワーク等の発
達により、利用者は、所望の情報を世界中のコンピュー
タから取得できるようになっている。中でも、インター
ネットの発達は、顕著である。このインターネットを使
用して、利用者は、WWW(World Wide Web)サーバに格
納されているHTML(Hyper Text Markup Language)
によって記述された文書データ(HTMLファイル)等
を、HTTP(Hyper Text Transfer Protocol)により
取得し、クライアント端末のHTMLブラウザにて表示
させることができる。このようなHTMLファイル及び
HTMLファイル等の送受信の仕組みであるHTTPを
利用して、企業内ネットワーク等を構築したイントラネ
ットも広まっている。
2. Description of the Related Art In recent years, with the development of computer networks and the like, users can obtain desired information from computers all over the world. Above all, the development of the Internet is remarkable. Using this Internet, a user can use HTML (Hyper Text Markup Language) stored in a WWW (World Wide Web) server.
Document data (HTML file) described in the HTML file is acquired by HTTP (Hyper Text Transfer Protocol), and can be displayed on the HTML browser of the client terminal. Intranets that have built in-company networks and the like using HTTP, which is a mechanism for transmitting and receiving such HTML files and HTML files, have also become widespread.

【0003】最近では、このHTMLにおいて扱えなか
った三次元グラフィックスのデータを扱って、クライア
ント端末に三次元画像を表示することができるVRML
(Virtual Reality Modeling Language)の技術が知ら
れている。この技術は、HTMLと同様に、WWWサー
バに格納されているVRML言語によって記述された三
次元グラフィックスデータ(VRMLファイル)を、ク
ライアント端末がインターネットを介して取得し、クラ
イアント端末のVRMLブラウザにて所定の三次元画像
を表示させるものである。
Recently, a VRML capable of displaying a three-dimensional image on a client terminal by handling data of three-dimensional graphics which cannot be handled in the HTML.
(Virtual Reality Modeling Language) technology is known. In this technology, similarly to HTML, a client terminal acquires three-dimensional graphics data (VRML file) described in a VRML language stored in a WWW server via the Internet, and uses a VRML browser of the client terminal to acquire the three-dimensional graphics data (VRML file). A predetermined three-dimensional image is displayed.

【0004】このVRMLファイルは、一般に、図18
に示すように、三次元グラフィックスにおける視点位置
等が設定されたカメラオブジェクトと、三次元グラフィ
ックスにおける光の照射条件等が設定されたライトオブ
ジェクトと、三次元グラフィックスにおけるポリゴン等
のバーティクス(頂点座標)が設定されたジオメトリオ
ブジェクトとから構成される。VRMLブラウザは、こ
れらのオブジェクトを読み込み、オブジェクトに従った
画像を生成して仮想の三次元ワールドの情景を表示す
る。
[0004] This VRML file generally has the format shown in FIG.
As shown in FIG. 5, a camera object in which a viewpoint position and the like in three-dimensional graphics are set, a light object in which light irradiation conditions and the like in three-dimensional graphics are set, and vertices such as polygons and the like in three-dimensional graphics ( (Vertex coordinates) are set. The VRML browser reads these objects, generates an image according to the objects, and displays a virtual three-dimensional world scene.

【0005】例えば、ジオメトリオブジェクトにより建
物や道路等からなる「街」が形成され、カメラオブジェ
クトにより「街」を高台から斜めに見下ろす視点が設定
され、ライトオブジェクトにより「街」に斜め上空から
光が照射される条件が設定されている場合、VRMLブ
ラウザは、三次元ワールドの「街」の情景を表示する。
すなわち、VRMLファイルに含まれる各オブジェクト
は、一体となって仮想の三次元ワールドの情景を構成す
る。
[0005] For example, a "town" composed of buildings, roads, and the like is formed by a geometry object, a viewpoint for obliquely looking down at the "town" from a hill is set by a camera object, and light is emitted from the diagonal sky to the "town" by a light object. When the irradiation condition is set, the VRML browser displays a scene of a “town” in the three-dimensional world.
That is, the objects included in the VRML file together form a virtual three-dimensional world scene.

【0006】これらのオブジェクトは、図19(a)に
示すようなノード(Node)と、フィールド(Field)とから
構成され、具体的には、図19(b)に示すように記述
される。例えば、立方体の形状を規定するノード(及び
フィールド)は、図20(a)に示すような立方体の画
像を構成し、また、球の形状を規定するノードは、図2
0(b)に示すような球の画像を構成する。これらの他
に、ポリゴン等の形状をバーティクスにより規定するノ
ードもある。ジオメトリオブジェクトは、一般に、これ
らの所定の形状を規定するノードが複数集まって、構成
される。
[0006] These objects are composed of a node (Node) as shown in FIG. 19A and a field (Field), and are specifically described as shown in FIG. 19B. For example, a node (and a field) defining the shape of a cube constitutes a cube image as shown in FIG. 20A, and a node defining the shape of a sphere is shown in FIG.
An image of a sphere as shown in FIG. In addition to these, there are nodes that define shapes such as polygons by vertices. Generally, a geometry object is configured by collecting a plurality of nodes that define these predetermined shapes.

【0007】このジオメトリオブジェクトは、それぞれ
独自の基準点に基づいたローカル座標に従って形状等が
規定されており、VRMLブラウザにより、カメラオブ
ジェクトにて定まる視点位置等を基準としたワールド座
標に変換される。例えば、図20(a)及び(b)に示
すローカル座標に従って規定された立方体や球の形状
が、ワールド座標に変換されると、図20(c)に示す
ような三次元ワールドにおける所定の位置に配置され
る。
[0007] The shape and the like of this geometry object are defined according to local coordinates based on their own reference points, and the VRML browser converts the geometry object into world coordinates based on the viewpoint position and the like determined by the camera object. For example, when the shape of a cube or a sphere defined according to the local coordinates shown in FIGS. 20A and 20B is converted into world coordinates, a predetermined position in a three-dimensional world as shown in FIG. Placed in

【0008】このような座標変換を可能とするように、
ジオメトリオブジェクトは、一般に、図21に示すよう
な変換マトリクスを規定するノード(及びフィールド)
を含んでいる。そして、VRMLブラウザは、ジオメト
リオブジェクトに含まれる変換マトリクスを使用して、
例えば、ポリゴンのノードにおける複数のバーティクス
をローカル座標からワールド座標に変換して、ポリゴン
により形成される所定の三次元ワールドの情景を表示す
る。情景の表示後、カメラオブジェクトにて定められる
視点位置等が変化すると、ポリゴンが配置されるワール
ド座標も変化するため、三次元ワールドの情景が変わる
こととなる。
In order to enable such coordinate transformation,
A geometry object is generally a node (and a field) that defines a transformation matrix as shown in FIG.
Contains. Then, the VRML browser uses the transformation matrix included in the geometry object,
For example, a plurality of vertices at a polygon node are converted from local coordinates to world coordinates, and a predetermined three-dimensional world scene formed by polygons is displayed. After the scene is displayed, if the viewpoint position or the like determined by the camera object changes, the world coordinates where the polygons are arranged also change, so that the scene of the three-dimensional world changes.

【0009】このようなカメラオブジェクトの視点位置
等は、例えば、VRMLブラウザにて、マウス等を介し
た利用者の入力により指定される。例えば、「街」を構
成するVRMLファイルにより、VRMLブラウザに三
次元ワールドの「街」の情景が表示されている状態で、
利用者が、マウス等を介してカメラオブジェクトの視点
位置を順次変更すると、あたかも、利用者が「街」の中
を歩いているように「街」の情景が移動する。
[0009] The viewpoint position and the like of such a camera object are designated by, for example, a user input via a mouse or the like in a VRML browser. For example, in a state where the scene of the “town” of the three-dimensional world is displayed on the VRML browser by the VRML file configuring the “town”,
When the user sequentially changes the viewpoint position of the camera object via a mouse or the like, the scene of the “town” moves as if the user is walking in the “town”.

【0010】また、変換マトリクスは、ジオメトリオブ
ジェクト毎に含ませることができるため、変換マトリク
スの値のみが変化しても、対応するジオメトリオブジェ
クトを構成するポリゴン等が配置されるワールド座標が
変化する。この変換マトリクスの値は、例えば、VRM
Lファイルに含まれるスクリプトノードにて指し示され
る所定のスクリプト言語により変更される。例えば、
「街」を構成するVRMLファイルにより、VRMLブ
ラウザに三次元ワールドの「街」の情景が表示されてい
る状態で、「自動車」を構成するポリゴン等に対応する
変換マトリクスの値が、所定のスクリプト言語により順
次変更されると、「自動車」が「街」の中を移動する。
[0010] Further, since the transformation matrix can be included for each geometry object, even if only the value of the transformation matrix changes, the world coordinates where the polygons and the like constituting the corresponding geometry object are arranged change. The value of this conversion matrix is, for example, VRM
It is changed by a predetermined script language indicated by a script node included in the L file. For example,
In a state where the scene of the “town” of the three-dimensional world is displayed on the VRML browser by the VRML file constituting the “town”, the value of the conversion matrix corresponding to the polygon or the like constituting the “automobile” is set to a predetermined script. When sequentially changed according to the language, the “car” moves in the “town”.

【0011】現在では、このような仮想の三次元ワール
ドを単独で楽しむのではなく、複数の利用者が、共有す
る三次元ワールド(共有仮想空間)に、それぞれ自己の
分身であるアバタ(Avatar)を登場させて、文字の入力
と表示による会話であるチャット(Chat)等のコミュニ
ケーションを行うことができる専用のVRMLサイトも
登場している。例えば、図22に示すような共有仮想空
間において、利用者A(太郎)が、アバタ110aを操
り、利用者B(花子)がアバタ110bを操る。各利用
者に操作されたこれらのアバタは、共有仮想空間内を自
由に移動し、他のアバタとコミュニケーションをとる。
At present, instead of enjoying such a virtual three-dimensional world by itself, a plurality of users can share their own avatar (Avatar) in a shared three-dimensional world (shared virtual space). And a dedicated VRML site that allows communication such as chat, which is a conversation by inputting and displaying characters, has also appeared. For example, in a shared virtual space as shown in FIG. 22, a user A (Taro) operates an avatar 110a, and a user B (Hanako) operates an avatar 110b. These avatars operated by each user move freely in the shared virtual space and communicate with other avatars.

【0012】[0012]

【発明が解決しようとする課題】このような共有仮想空
間表示システムにおいて、一般に、利用者は、システム
で用意した複数のアバタの中から適当なアバタを選択し
て、共有仮想空間にログインする。そのため、利用者
は、システムで用意したアバタの中に好みのアバタがな
い場合であっても、いずれかを選択しなければならず、
自由度が低かった。また、好みのアバタがあっても、他
の利用者も選択している場合、同一のアバタが共有仮想
空間に登場することとなる。
In such a shared virtual space display system, generally, a user selects an appropriate avatar from a plurality of avatars prepared by the system and logs in to the shared virtual space. Therefore, the user must select one of the avatars prepared by the system, even if the user does not have a favorite avatar.
The degree of freedom was low. Also, even if there is a favorite avatar, if another user has also selected, the same avatar will appear in the shared virtual space.

【0013】そして、各利用者が、共有仮想空間に登場
するアバタの外観からでは、他の利用者を判別できない
ため、一般に、共有仮想空間表示システムは、図22に
示すように、アバタ110a、110bの画像上に、ユ
ーザ名称111a、111bをテキストにて表示する。
すなわち、各利用者は、共有仮想空間に登場するアバタ
110(110a、110b)の外観からではなく、ユ
ーザ名称111(111a、111b)から、利用者を
判別し、コミュニケーションをとることとなる。このよ
うなユーザ名称111の表示は、共有仮想空間において
リアル感を損なわせるものであり、また、アバタ110
が遠方に位置するような場合に、アバタ110がユーザ
名称111に隠れてしまうといった問題があった。
Since each user cannot distinguish the other users from the appearance of the avatar appearing in the shared virtual space, the shared virtual space display system generally uses the avatar 110a, as shown in FIG. The user names 111a and 111b are displayed as text on the image 110b.
That is, each user determines the user based on the user name 111 (111a, 111b), and communicates with the user, not from the appearance of the avatar 110 (110a, 110b) appearing in the shared virtual space. Such a display of the user name 111 impairs the realism in the shared virtual space.
There is a problem that the avatar 110 is hidden behind the user name 111 when is located far away.

【0014】一方、異なる共有仮想空間表示システム間
では、システムで用意したアバタも異なる。そして、複
数の共有仮想空間表示システムを使用するような利用者
であっても、結局、好みのアバタを選択できない共有仮
想空間表示システムを使用しなくなり、共有仮想空間表
示システム全体の活性化が図れないといった問題があっ
た。
On the other hand, avatars prepared by different shared virtual space display systems are different. And even if the user uses a plurality of shared virtual space display systems, the shared virtual space display system in which the avatar of choice cannot be selected is no longer used, and the entire shared virtual space display system can be activated. There was a problem that there was no.

【0015】この発明は、上記実状に鑑みてなされたも
ので、任意に作成したアバタを共有仮想空間において表
示することのできる共有仮想空間表示システム、アバタ
表示方法及び記録媒体を提供することを目的とする。
The present invention has been made in view of the above situation, and has as its object to provide a shared virtual space display system, an avatar display method, and a recording medium that can display an avatar created arbitrarily in a shared virtual space. And

【0016】[0016]

【課題を解決するための手段】上記目的を達成するた
め、本発明の第1の観点に係る共有仮想空間表示システ
ムは、ネットワークを介して接続された複数のクライア
ントがサーバから供給された所定の仮想空間を共有し、
各クライアントがそれぞれ管理するアバタの視点からと
らえた仮想空間内の三次元画像を表示する共有仮想空間
表示システムであって、各クライアントは、アバタを構
成するグラフィックオブジェクトを入力するグラフィッ
クオブジェクト入力手段と、前記グラフィックオブジェ
クト入力手段により入力されたグラフィックオブジェク
トをサーバに送信するグラフィックオブジェクト送信手
段と、サーバから送られた他のクライアントのグラフィ
ックオブジェクトを受信するグラフィックオブジェクト
受信手段と、前記グラフィックオブジェクト受信手段が
受信した他のクライアントのグラフィックオブジェクト
を記憶するグラフィックオブジェクト記憶手段と、前記
グラフィックオブジェクト記憶手段に記憶されたグラフ
ィックオブジェクトを含む共有仮想空間の画像を描画す
る画像描画手段と、を備えることを特徴とする。
In order to achieve the above object, a shared virtual space display system according to a first aspect of the present invention provides a system in which a plurality of clients connected via a network are connected to a predetermined client provided from a server. Sharing virtual space,
A shared virtual space display system that displays a three-dimensional image in a virtual space captured from the viewpoint of an avatar managed by each client, wherein each client is a graphic object input unit that inputs a graphic object constituting the avatar, A graphic object transmitting unit that transmits a graphic object input by the graphic object input unit to a server, a graphic object receiving unit that receives a graphic object of another client transmitted from the server, and a graphic object receiving unit that receives the graphic object. Graphic object storage means for storing a graphic object of another client, and a graphic object stored in the graphic object storage means Characterized in that and an image drawing unit that draws an image of the shared virtual space including the.

【0017】この発明によれば、グラフィックオブジェ
クト入力手段は、アバタを構成する例えば、VRML言
語で記述されたグラフィックオブジェクトを入力する。
グラフィックオブジェクト送信手段は、グラフィックオ
ブジェクト入力手段により入力されたグラフィックオブ
ジェクトをネットワークを介してサーバに送信する。グ
ラフィックオブジェクト受信手段は、サーバから送られ
た他のクライアントのグラフィックオブジェクトをネッ
トワークを介して受信する。グラフィックオブジェクト
記憶手段は、グラフィックオブジェクト受信手段が受信
した他のクライアントのグラフィックオブジェクトを記
憶する。画像描画手段は、グラフィックオブジェクト記
憶手段に記憶されたグラフィックオブジェクトを含む共
有仮想空間の画像を描画する。この結果、任意に作成し
たアバタを共有仮想空間において表示することができ
る。
According to the present invention, the graphic object input means inputs a graphic object that constitutes an avatar, for example, is described in the VRML language.
The graphic object transmitting means transmits the graphic object input by the graphic object input means to the server via the network. The graphic object receiving means receives the graphic object of another client sent from the server via the network. The graphic object storing means stores the graphic object of another client received by the graphic object receiving means. The image drawing means draws an image of the shared virtual space including the graphic object stored in the graphic object storage means. As a result, the avatar created arbitrarily can be displayed in the shared virtual space.

【0018】上記目的を達成するため、本発明の第2の
観点に係る共有仮想空間表示システムは、ネットワーク
を介して接続された第一のクライアント及び第二のクラ
イアントがサーバから供給された所定の仮想空間を共有
し、各クライアントがそれぞれ管理するアバタの視点か
らとらえた仮想空間内の三次元画像を表示する共有仮想
空間表示システムであって、第一のクライアントは、ア
バタを構成するグラフィックオブジェクトを入力するグ
ラフィックオブジェクト入力手段と、前記グラフィック
オブジェクト入力手段により入力されたグラフィックオ
ブジェクトをサーバに送信するグラフィックオブジェク
ト送信手段と、を備え、サーバは、前記グラフィックオ
ブジェクト送信手段により送信されたグラフィックオブ
ジェクトを受信するアバタ受信手段と、前記アバタ受信
手段が受信したグラフィックオブジェクトを記憶するア
バタ記憶手段と、前記アバタ記憶手段に記憶したグラフ
ィックオブジェクトを第二のクライアントに送信するア
バタ送信手段と、を備え、第二のクライアントは、前記
アバタ送信手段から送られたグラフィックオブジェクト
を受信するグラフィックオブジェクト受信手段と、前記
グラフィックオブジェクト受信手段が受信した第一のク
ライアントのグラフィックオブジェクトを記憶するグラ
フィックオブジェクト記憶手段と、前記グラフィックオ
ブジェクト記憶手段に記憶されたグラフィックオブジェ
クトを含む共有仮想空間の画像を描画する画像描画手段
と、を備える、ことを特徴とする。
In order to achieve the above object, a shared virtual space display system according to a second aspect of the present invention provides a system in which a first client and a second client connected via a network are connected to a predetermined client provided from a server. A shared virtual space display system that shares a virtual space and displays a three-dimensional image in the virtual space captured from the viewpoint of an avatar managed by each client, wherein the first client is a graphic object that constitutes the avatar. Graphic object input means for inputting; and a graphic object transmitting means for transmitting the graphic object input by the graphic object input means to a server, wherein the server receives the graphic object transmitted by the graphic object transmitting means. An avatar receiving means, an avatar storing means for storing the graphic object received by the avatar receiving means, and an avatar transmitting means for transmitting the graphic object stored in the avatar storing means to a second client, A client for receiving a graphic object transmitted from the avatar transmitting unit; a graphic object storing unit for storing a graphic object of the first client received by the graphic object receiving unit; Image drawing means for drawing an image of the shared virtual space including the graphic object stored in the means.

【0019】この発明によれば、グラフィックオブジェ
クト入力手段は、第一のクライアントにおいて、アバタ
を構成する例えば、VRML言語で記述されたグラフィ
ックオブジェクトを入力する。グラフィックオブジェク
ト送信手段は、グラフィックオブジェクト入力手段によ
り入力されたグラフィックオブジェクトをサーバに送信
する。アバタ受信手段は、サーバにおいて、グラフィッ
クオブジェクト送信手段により送信されたグラフィック
オブジェクトを受信する。アバタ記憶手段は、アバタ受
信手段が受信したグラフィックオブジェクトを記憶す
る。アバタ送信手段は、アバタ記憶手段に記憶したグラ
フィックオブジェクトを第二のクライアントに送信す
る。グラフィックオブジェクト受信手段は、第二のクラ
イアントにおいて、アバタ送信手段から送られたグラフ
ィックオブジェクトを受信する。グラフィックオブジェ
クト記憶手段は、グラフィックオブジェクト受信手段が
受信した第一のクライアントのグラフィックオブジェク
トを記憶する。画像描画手段は、グラフィックオブジェ
クト記憶手段に記憶されたグラフィックオブジェクトを
含む共有仮想空間の画像を描画する。この結果、任意に
作成したアバタを共有仮想空間において表示することが
できる。
According to the present invention, the graphic object input means inputs, in the first client, a graphic object that constitutes an avatar, for example, is described in the VRML language. The graphic object transmitting means transmits the graphic object input by the graphic object input means to the server. The avatar receiving means receives the graphic object transmitted by the graphic object transmitting means in the server. The avatar storage unit stores the graphic object received by the avatar reception unit. The avatar transmission means transmits the graphic object stored in the avatar storage means to the second client. The graphic object receiving means receives the graphic object transmitted from the avatar transmitting means in the second client. The graphic object storing means stores the graphic object of the first client received by the graphic object receiving means. The image drawing means draws an image of the shared virtual space including the graphic object stored in the graphic object storage means. As a result, the avatar created arbitrarily can be displayed in the shared virtual space.

【0020】前記グラフィックオブジェクト入力手段
は、所定の記録媒体、例えば、フロッピー(登録商標)
ディスクに記憶されたグラフィックオブジェクトを読み
出して入力してもよい。この場合、フロッピーディスク
等の記録媒体は、持ち運びが可能であるため、いずれの
クライアント端末においても使用可能となる。
The graphic object input means is a predetermined recording medium, for example, a floppy (registered trademark)
A graphic object stored in a disk may be read and input. In this case, since a recording medium such as a floppy disk is portable, it can be used in any client terminal.

【0021】上記目的を達成するため、本発明の第3の
観点に係るアバタ表示方法は、ネットワークを介して接
続された複数のクライアントがサーバから供給された所
定の仮想空間を共有し、各クライアントがそれぞれ規定
する視点からとらえた仮想空間内にアバタの三次元画像
を表示するアバタ表示方法であって、アバタを構成する
グラフィックオブジェクトを入力するグラフィックオブ
ジェクト入力ステップと、前記グラフィックオブジェク
ト入力ステップにより入力されたグラフィックオブジェ
クトをサーバに送信するグラフィックオブジェクト送信
ステップと、サーバから送られた他のクライアントのグ
ラフィックオブジェクトを受信するグラフィックオブジ
ェクト受信ステップと、前記グラフィックオブジェクト
受信ステップが受信した他のクライアントのグラフィッ
クオブジェクトを含む共有仮想空間の画像を描画する画
像描画ステップと、を備えることを特徴とする。
According to a third aspect of the present invention, there is provided an avatar display method in which a plurality of clients connected via a network share a predetermined virtual space supplied from a server. Is an avatar display method for displaying a three-dimensional image of an avatar in a virtual space captured from a viewpoint defined by each of the avatars, wherein a graphic object input step of inputting a graphic object constituting the avatar; A graphic object transmitting step of transmitting the graphic object to the server, a graphic object receiving step of receiving another client graphic object transmitted from the server, and a graphic object receiving step. Characterized in that it comprises an image rendering step of rendering an shared virtual space including other client graphical objects, the.

【0022】この発明によれば、グラフィックオブジェ
クト入力ステップは、アバタを構成する例えば、VRM
L言語にて規定されたグラフィックオブジェクトを入力
する。グラフィックオブジェクト送信ステップは、グラ
フィックオブジェクト入力ステップにより入力されたグ
ラフィックオブジェクトをネットワークを介してサーバ
に送信する。グラフィックオブジェクト受信ステップ
は、サーバから送られた他のクライアントのグラフィッ
クオブジェクトをネットワークを介して受信する。画像
描画ステップは、グラフィックオブジェクト受信ステッ
プが受信した他のクライアントのグラフィックオブジェ
クトを含む共有仮想空間の画像を描画する。この結果、
任意に作成したアバタを共有仮想空間において表示する
ことができる。
According to the present invention, the graphic object input step includes, for example, VRM forming an avatar.
A graphic object specified in the L language is input. The graphic object transmitting step transmits the graphic object input in the graphic object input step to the server via the network. The graphic object receiving step receives the graphic object of another client sent from the server via the network. The image drawing step draws an image of the shared virtual space including the graphic object of another client received by the graphic object receiving step. As a result,
Arbitrarily created avatars can be displayed in the shared virtual space.

【0023】上記目的を達成するため、本発明の第4の
観点に係る記録媒体は、ネットワークを介して接続され
た複数のクライアントがサーバから供給された所定の仮
想空間を共有し、各クライアントがそれぞれ規定する視
点からとらえた仮想空間内にアバタの三次元画像を表示
するアバタ表示方法をコンピュータに実行させるための
プログラムを記録したコンピュータ読み取り可能な記録
媒体であって、アバタを構成するグラフィックオブジェ
クトを入力するグラフィックオブジェクト入力ステップ
と、前記グラフィックオブジェクト入力ステップにより
入力されたグラフィックオブジェクトをサーバに送信す
るグラフィックオブジェクト送信ステップと、サーバか
ら送られた他のクライアントのグラフィックオブジェク
トを受信するグラフィックオブジェクト受信ステップ
と、前記グラフィックオブジェクト受信ステップが受信
した他のクライアントのグラフィックオブジェクトを含
む共有仮想空間の画像を描画する画像描画ステップとを
有するアバタ表示方法をコンピュータに実行させるため
のプログラムを記録する。
In order to achieve the above object, a recording medium according to a fourth aspect of the present invention provides a recording medium in which a plurality of clients connected via a network share a predetermined virtual space supplied from a server, and each client A computer-readable recording medium recording a program for causing a computer to execute an avatar display method of displaying a three-dimensional image of an avatar in a virtual space captured from a defined viewpoint. A graphic object inputting step for inputting, a graphic object transmitting step for transmitting the graphic object input in the graphic object inputting step to the server, and a graphic receiving the other client graphic object transmitted from the server. A program for causing a computer to execute an avatar display method having an image object receiving step and an image drawing step of drawing an image of a shared virtual space including a graphic object of another client received by the graphic object receiving step. .

【0024】[0024]

【発明の実施の形態】本発明の実施の形態にかかる共有
仮想空間表示システムについて、以下図面を参照して説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A shared virtual space display system according to an embodiment of the present invention will be described below with reference to the drawings.

【0025】図1は、この実施の形態に適用される共有
仮想空間表示システムの一例を示す模式図である。この
システムは、クライアント端末1と、VRMLサイト2
とを備え、それぞれインターネット3を介して接続され
ている。
FIG. 1 is a schematic diagram showing an example of a shared virtual space display system applied to this embodiment. This system comprises a client terminal 1 and a VRML site 2
And are connected via the Internet 3 respectively.

【0026】クライアント端末1は、例えば、ディスプ
レイ、マウス、キーボード、モデム等を備えた汎用のパ
ーソナルコンピュータ等からなり、インターネット3を
介して、VRMLサイト2に接続する。具体的に説明す
ると、クライアント端末1は、図2に示すように、通信
処理部11と、アバタオブジェクト入力部12と、他ク
ライアント情報記憶部13と、指示入力部14と、処理
制御部15と、VRML記憶部16と、VRML処理部
17と、グラフィック処理部18と、画像表示部19と
から構成される。
The client terminal 1 is composed of, for example, a general-purpose personal computer having a display, a mouse, a keyboard, a modem and the like, and is connected to the VRML site 2 via the Internet 3. More specifically, as shown in FIG. 2, the client terminal 1 includes a communication processing unit 11, an avatar object input unit 12, an other client information storage unit 13, an instruction input unit 14, a processing control unit 15, , A VRML storage unit 16, a VRML processing unit 17, a graphic processing unit 18, and an image display unit 19.

【0027】通信処理部11は、モデム等からなり、処
理制御部15に制御され、インターネット3を介してV
RMLサイト2からVRMLファイルを取得する。な
お、通信処理部11は、VRMLサイト2からVRML
ファイルを取得する際に、HTTPを使用するが、ファ
イル転送のプロトコルは任意である。通信処理部11
は、取得したVRMLファイルを処理制御部15に供給
する。また、通信処理部11は、共有仮想空間内におけ
る自己の管理するアバタの現在位置等が変化すると、ア
バタの移動情報を他のクライアント端末1へ送信する。
同様に、通信処理部11は、他のクライアント端末1か
ら送られたアバタの移動情報を受信する。通信処理部1
1は、受信した他のクライアント端末1のアバタの移動
情報を処理制御部15に供給する。
The communication processing unit 11 comprises a modem or the like, is controlled by the processing control unit 15,
Obtain a VRML file from the RML site 2. Note that the communication processing unit 11 sends the VRML site 2
When acquiring a file, HTTP is used, but the protocol of the file transfer is arbitrary. Communication processing unit 11
Supplies the obtained VRML file to the processing control unit 15. Further, when the current position or the like of the avatar managed by the communication processing unit 11 in the shared virtual space changes, the communication processing unit 11 transmits avatar movement information to another client terminal 1.
Similarly, the communication processing unit 11 receives the avatar movement information transmitted from another client terminal 1. Communication processing unit 1
1 supplies the processing control unit 15 with the received avatar movement information of the other client terminal 1.

【0028】アバタオブジェクト入力部12は、所定の
アバタオブジェクトを入力し、処理制御部15に供給す
る。このアバタオブジェクト入力部12は、例えば、フ
ロッピーディスク(フレキシブルディスク)等から所定
の情報を読み出すことのできるフロッピーディスクドラ
イブ等からなり、フロッピーディスクに記憶されたアバ
タオブジェクトを読み出し、処理制御部15に供給す
る。
The avatar object input section 12 inputs a predetermined avatar object and supplies it to the processing control section 15. The avatar object input unit 12 includes, for example, a floppy disk drive capable of reading predetermined information from a floppy disk (flexible disk) or the like. The avatar object input unit 12 reads an avatar object stored in the floppy disk and supplies the avatar object to the processing control unit 15. I do.

【0029】以下、このフロッピーディスクに記憶され
たアバタオブジェクトについて図3を参照して具体的に
説明する。図3に示すように、まずユーザは、所定のオ
ーサリングツール等によって、アバタ41のグラフィッ
クデータを生成する。例えば、ユーザは、自己の写真等
からアバタ41をジェネレートしてもよい。この場合、
リアルなアバタ41を生成でき、知人等は、アバタ41
の外観から容易にユーザを判別することができる。
Hereinafter, the avatar object stored in the floppy disk will be specifically described with reference to FIG. As shown in FIG. 3, first, the user generates graphic data of the avatar 41 using a predetermined authoring tool or the like. For example, the user may generate the avatar 41 from a photograph or the like of the user. in this case,
Real avatars 41 can be generated, and acquaintances can generate avatars 41
The user can be easily determined from the appearance of the user.

【0030】そしてユーザは、更に、アバタ41をVR
ML化してアバタオブジェクト42を生成する。ユーザ
は、生成されたアバタオブジェクト42を所定のフロッ
ピーディスク43に書き込み記憶する。このようなアバ
タオブジェクト42が記憶されたフロッピーディスク4
3をアバタオブジェクト入力部12に挿入することによ
り、アバタオブジェクト入力部12は、アバタオブジェ
クト42を読み出し、処理制御部15に供給する。
Then, the user further sets the avatar 41 to VR.
The avatar object 42 is generated by performing ML conversion. The user writes and stores the generated avatar object 42 on a predetermined floppy disk 43. Floppy disk 4 storing such an avatar object 42
By inserting 3 into the avatar object input unit 12, the avatar object input unit 12 reads out the avatar object 42 and supplies it to the processing control unit 15.

【0031】図2に戻って、他クライアント情報記憶部
13は、仮想空間を共有している他のクライアント端末
1の情報、すなわち、VRMLサイト2に接続している
他のクライアント端末1の情報である他ユーザ情報31
及び他アバタ情報32を記憶する。他ユーザ情報31
は、図4(a)に示すように、自己のアバタの移動情報
を他のクライアント端末1に送信する際に送信先として
使用するクライアント端末1のユーザ名称及びアドレス
からなる。
Returning to FIG. 2, the other client information storage unit 13 stores information of the other client terminals 1 sharing the virtual space, that is, information of the other client terminals 1 connected to the VRML site 2. Certain other user information 31
And other avatar information 32. Other user information 31
4A includes a user name and an address of the client terminal 1 used as a transmission destination when transmitting the avatar movement information to another client terminal 1 as shown in FIG.

【0032】他アバタ情報32は、図4(b)に示すよ
うに、他のクライアント端末1が管理するアバタの共有
仮想空間内における現在位置等を示すものであり、位置
ベクトル、視線ベクトル、上方向ベクトル及び、描画フ
ラグからなる。位置ベクトル、視線ベクトル及び上方向
ベクトルは、共有仮想空間内における他のクライアント
端末1が管理するアバタの現在位置及び向きを特定する
ための情報である。これらの位置ベクトル、視線ベクト
ル及び、上方向ベクトルは、他のクライアント端末1か
ら送られた移動情報に従って更新される。なお、位置ベ
クトル、視線ベクトル及び上方向ベクトルの詳細につい
ては、後述する。描画フラグは、他のクライアント端末
1が管理するアバタが描画対象であるか否かを示すフラ
グであり、描画対象の場合にONがセットされ、描画対
象でない場合にOFFがセットされる。
As shown in FIG. 4B, the other avatar information 32 indicates the current position and the like of the avatar managed by the other client terminal 1 in the shared virtual space. It consists of a direction vector and a drawing flag. The position vector, the line-of-sight vector, and the upward vector are information for specifying the current position and orientation of the avatar managed by another client terminal 1 in the shared virtual space. These position vector, line-of-sight vector, and upward vector are updated according to the movement information sent from another client terminal 1. The details of the position vector, the line-of-sight vector, and the upward vector will be described later. The drawing flag is a flag indicating whether or not an avatar managed by another client terminal 1 is a drawing target. ON is set when the avatar is a drawing target, and OFF when the avatar is not a drawing target.

【0033】図2に戻って、指示入力部14は、キーボ
ードやマウス等の入力デバイスからなり、利用者の指示
に従った入力コマンド等を処理制御部15に供給する。
例えば、利用者の指示に従って、自己のクライアント端
末1にて管理するアバタの共有仮想空間内における位置
や向きを変化させる指示情報を入力する。
Returning to FIG. 2, the instruction input unit 14 is composed of an input device such as a keyboard and a mouse, and supplies an input command or the like according to a user's instruction to the processing control unit 15.
For example, according to a user's instruction, instruction information for changing the position and orientation of the avatar managed by the client terminal 1 in the shared virtual space is input.

【0034】処理制御部15は、RAM(Random Acces
s Memory)及びROM(Read OnlyMemory)等を備えた
CPU(Central Processing Unit)等からなり、クラ
イアント端末1全体を制御する。例えば、処理制御部1
5は、VRML処理部17を制御して、後述するログイ
ン処理、画像生成処理、ログイン情報受信処理、視点移
動処理、移動情報受信処理、ログアウト情報受信処理、
及び、ログアウト処理を実行する。
The processing control unit 15 has a RAM (Random Acces
s Memory) and a CPU (Central Processing Unit) having a ROM (Read Only Memory) and the like, and controls the entire client terminal 1. For example, the processing control unit 1
5 controls the VRML processing unit 17 to perform a login process, an image generation process, a login information reception process, a viewpoint movement process, a movement information reception process, a logout information reception process, which will be described later.
Then, a logout process is executed.

【0035】VRML記憶部16は、ハードディスク等
からなり、図5(a)に示すカメラオブジェクト情報3
3と、図5(b)に示す静的オブジェクト情報34と、
図5(c)に示す動的オブジェクト情報35とを記憶す
る。
The VRML storage unit 16 comprises a hard disk or the like, and stores the camera object information 3 shown in FIG.
3, and the static object information 34 shown in FIG.
The dynamic object information 35 shown in FIG.

【0036】図5(a)に示すカメラオブジェクト情報
33は、自己の管理するアバタの共有仮想空間内におけ
る現在位置及び向きを表す位置ベクトル、視線ベクトル
及び、上方向ベクトルからなる。なお、自己の管理する
アバタは、自己のクライアント端末1における画像表示
部19に、原則として表示されない。画像表示部19に
表示されるのは、そのアバタの視点からとらえた共有仮
想空間の情景である。すなわち、自己の管理するアバタ
は、自己のクライアント端末1においては、共有仮想空
間を撮像するカメラオブジェクトとなる。従って、カメ
ラオブジェクト情報33を構成する位置ベクトル、視線
方向ベクトル及び、上方向ベクトルは、図6に模式的に
示すカメラオブジェクト44におけるそれぞれの値とな
る。
The camera object information 33 shown in FIG. 5A is composed of a position vector, a line-of-sight vector, and an upward vector representing the current position and orientation of the avatar managed by itself in the shared virtual space. The avatar managed by the user is not displayed on the image display unit 19 of the client terminal 1 in principle. What is displayed on the image display unit 19 is a scene of the shared virtual space viewed from the viewpoint of the avatar. That is, the avatar managed by the user is a camera object that captures an image of the shared virtual space in the client terminal 1 of the user. Therefore, the position vector, the line-of-sight direction vector, and the upward vector forming the camera object information 33 are the respective values of the camera object 44 schematically shown in FIG.

【0037】図5(b)に示す静的オブジェクト情報3
4は、アバタを除いた共有仮想空間を構成する静的で動
きのない画像の元となる複数のオブジェクトの情報であ
る。すなわち、静的オブジェクト情報34は、共有仮想
空間の各静的オブジェクトを構成するポリゴンデータ領
域、ワールド座標領域、可視フラグ及び、グラフィック
スコンテキストデータ領域とからなる。ポリゴンデータ
領域は、各オブジェクトを構成するポリゴンの情報を格
納するための領域である。ワールド座標領域は、後述す
る画像生成処理にてワールド座標に変換された各ポリゴ
ンのバーティクスをそれぞれ格納するための領域であ
る。
The static object information 3 shown in FIG.
Reference numeral 4 denotes information on a plurality of objects serving as a source of a static and static image constituting a shared virtual space excluding an avatar. That is, the static object information 34 includes a polygon data area, a world coordinate area, a visible flag, and a graphics context data area that constitute each static object in the shared virtual space. The polygon data area is an area for storing information on polygons constituting each object. The world coordinate area is an area for storing the vertices of each polygon converted into world coordinates in the image generation processing described later.

【0038】可視フラグは、ポリゴンが描画対象である
か否かを示すフラグを保持する。グラフィックスコンテ
キストデータ領域は、後述する画像生成処理にて生成さ
れるグラフィックスコンテキストデータを格納するため
の領域である。
The visible flag holds a flag indicating whether or not the polygon is to be drawn. The graphics context data area is an area for storing graphics context data generated in image generation processing described later.

【0039】図5(c)に示す動的オブジェクト情報3
5は、共有仮想空間内を動くことのできる複数のアバタ
オブジェクトの情報である。すなわち、動的オブジェク
ト情報35は、他のクライアント端末1がそれぞれ管理
する各アバタオブジェクトを構成する変換マトリクス領
域、ポリゴンデータ領域、ワールド座標領域、可視フラ
グ及び、グラフィックスコンテキストデータ領域とから
なる。変換マトリクスは、アバタオブジェクトを構成す
るポリゴンのバーティクスの座標を変換するためのマト
リクスである。この変換マトリクスの値に応じて、共有
仮想空間内におけるアバタの位置及び向きが変化する。
ポリゴンデータ領域、ワールド座標領域、可視フラグ及
び、グラフィックスコンテキストデータ領域は、図5
(b)に示す静的オブジェクト情報34のものと同じ構
成である。
The dynamic object information 3 shown in FIG.
Reference numeral 5 denotes information on a plurality of avatar objects that can move in the shared virtual space. That is, the dynamic object information 35 includes a conversion matrix area, a polygon data area, a world coordinate area, a visibility flag, and a graphics context data area which constitute each avatar object managed by another client terminal 1. The conversion matrix is a matrix for converting the coordinates of the vertices of the polygons forming the avatar object. The position and orientation of the avatar in the shared virtual space change according to the value of the conversion matrix.
The polygon data area, world coordinate area, visible flag, and graphics context data area are shown in FIG.
The configuration is the same as that of the static object information 34 shown in (b).

【0040】図2に戻って、VRML処理部17は、V
RMLブラウザのアプリケーション本体等からなり、処
理制御部15に制御され、後述するログイン処理、画像
生成処理、ログイン情報受信処理、視点移動処理、移動
情報受信処理、ログアウト情報受信処理、及び、ログア
ウト処理を実行する。すなわち、VRML処理部17
は、ログイン処理を行い、通信処理部11を介して、ロ
グイン要求を送信すると共にアバタオブジェクト入力部
12から入力した任意のアバタオブジェクトをWWWサ
ーバ21に送信する。ログイン後、VRML処理部17
は、画像生成処理を行い、静的オブジェクト情報34及
び動的オブジェクト情報35に記憶された各オブジェク
トに従って、三次元画像を生成する。また、VRML処
理部17は、ログイン情報受信処理を行い、他のクライ
アント端末1のログインに伴って、WWWサーバ21か
ら送られたアバタオブジェクトを受信し、受信したアバ
タオブジェクトを動的オブジェクト情報35に格納す
る。
Referring back to FIG. 2, the VRML processing unit 17
It is composed of an application body of an RML browser and the like, and is controlled by the processing control unit 15 to perform a login process, an image generation process, a login information reception process, a viewpoint movement process, a movement information reception process, a logout information reception process, and a logout process described later. Execute. That is, the VRML processing unit 17
Performs a login process, transmits a login request via the communication processing unit 11, and transmits an arbitrary avatar object input from the avatar object input unit 12 to the WWW server 21. After login, the VRML processing unit 17
Performs image generation processing, and generates a three-dimensional image according to each object stored in the static object information 34 and the dynamic object information 35. Further, the VRML processing unit 17 performs a login information receiving process, receives the avatar object sent from the WWW server 21 in accordance with the login of the other client terminal 1, and stores the received avatar object in the dynamic object information 35. Store.

【0041】そして、VRML処理部17は、視点移動
処理を行い、自己のクライアント端末1が管理するアバ
タの視点位置が変化した際に、通信処理部11を介して
他のクライアント端末1に移動情報を送信する。また、
VRML処理部17は、移動情報受信処理を行い、同様
に、他のクライアント端末1から送られた移動情報を受
信し、受信した移動情報に従って、動的オブイジェクト
情報35に記憶されたアバタオブジェクトの変換マトリ
クスを更新する。
Then, the VRML processing unit 17 performs a viewpoint moving process, and when the viewpoint position of the avatar managed by the client terminal 1 changes, the VRML processing unit 17 sends the movement information to the other client terminals 1 via the communication processing unit 11. Send Also,
The VRML processing unit 17 performs movement information reception processing, similarly receives movement information transmitted from another client terminal 1, and, according to the received movement information, performs processing on the avatar object stored in the dynamic object information 35. Update the transformation matrix.

【0042】更に、VRML処理部17は、ログアウト
情報受信処理を行い、他のクライアント端末1のログア
ウトに伴って、WWWサーバ21から送られたログアウ
ト情報を受信し、受信したログアウト情報に従って動的
オブイジェクト情報35に記憶された対象のアバタオブ
ジェクト等を削除する。また、VRML処理部17は、
ログアウト処理を行い、WWWサーバ21にログアウト
要求を送信し、共有仮想空間からログアウトする。
Further, the VRML processing unit 17 performs a logout information receiving process, receives the logout information sent from the WWW server 21 in accordance with the logout of the other client terminal 1, and performs dynamic logout according to the received logout information. The target avatar object or the like stored in the eject information 35 is deleted. In addition, the VRML processing unit 17
A logout process is performed, and a logout request is transmitted to the WWW server 21 to log out of the shared virtual space.

【0043】グラフィック処理部18は、所定のグラフ
ィックライブラリ等からなり、VRML処理部17から
送られたグラフィックスコンテキストデータに基づいて
共有仮想空間を表す三次元画像を生成する。なお、グラ
フィック処理部18は、最終的には生成した三次元画像
を二次元メモリ(フレームバッファ等)に描画し、二次
元メモリの画像を画像表示部19に供給する。
The graphic processing unit 18 includes a predetermined graphic library and the like, and generates a three-dimensional image representing the shared virtual space based on the graphics context data sent from the VRML processing unit 17. Note that the graphic processing unit 18 finally draws the generated three-dimensional image in a two-dimensional memory (a frame buffer or the like) and supplies the image in the two-dimensional memory to the image display unit 19.

【0044】画像表示部19は、汎用のカラーCRT
(Cathode Ray Tube)ディスプレイ等からなり、グラフ
ィック処理部18から供給された共有仮想空間を表す画
像を表示する。
The image display unit 19 is a general-purpose color CRT.
(Cathode Ray Tube) A display or the like, which displays an image representing the shared virtual space supplied from the graphic processing unit 18.

【0045】図1に戻って、VRMLサイト2は、WW
Wサーバ21と、クライアント情報管理部22と、VR
MLファイル記憶部23とを含んで構成される。
Returning to FIG. 1, the VRML site 2
W server 21, client information management unit 22, VR
An ML file storage unit 23 is included.

【0046】WWWサーバ21は、例えば、通信制御装
置を備えた汎用のワークステーション等からなり、イン
ターネット3を介して、クライアント端末1から送られ
る接続要求(ログイン要求)に応答して、クライアント
端末1と通信接続する。また、クライアント端末1から
送られる切断要求(ログアウト)に応答し、クライアン
ト端末1との通信接続を切断する。すなわち、WWWサ
ーバ21は、クライアント端末1の共有仮想空間内への
ログイン及びログアウトを管理する。その際、WWWサ
ーバ21は、共有仮想空間内にログインしたクライアン
ト端末1及び、ログアウトしたクライアント端末1の情
報をクライアント情報管理部22に供給し、記憶させ
る。
The WWW server 21 is composed of, for example, a general-purpose workstation provided with a communication control device, and responds to a connection request (login request) sent from the client terminal 1 via the Internet 3. Connect with communication. Further, in response to a disconnection request (logout) sent from the client terminal 1, the communication connection with the client terminal 1 is disconnected. That is, the WWW server 21 manages login and logout of the client terminal 1 into the shared virtual space. At this time, the WWW server 21 supplies the information of the client terminal 1 that has logged in to the shared virtual space and the client terminal 1 that has logged out to the client information management unit 22, and stores the information.

【0047】なお、WWWサーバ21は、クライアント
端末1が共有仮想空間内にログインする際に、クライア
ント端末1から送られるアバタオブジェクトを受信し、
受信したアバタオブジェクトをVRMLファイル記憶部
23に記憶する。そして、WWWサーバ21は、既に共
有仮想空間内へログインしている他のクライアント端末
1へ、新たにログインしたクライアント端末1のアバタ
オブジェクトを送信する。
The WWW server 21 receives the avatar object sent from the client terminal 1 when the client terminal 1 logs in to the shared virtual space,
The received avatar object is stored in the VRML file storage unit 23. Then, the WWW server 21 transmits the avatar object of the newly logged-in client terminal 1 to another client terminal 1 already logged in the shared virtual space.

【0048】クライアント情報管理部22は、仮想空間
を共有している、つまり、VRMLサイト2に接続して
いる全てのクライアント端末1の情報を管理する。すな
わち、クライアント情報管理部22は、各クライアント
端末1により行われるVRMLサイト2へのログイン及
びログアウトの状況を記憶する。
The client information management unit 22 manages information on all the client terminals 1 sharing the virtual space, that is, connected to the VRML site 2. That is, the client information management unit 22 stores the status of login and logout to the VRML site 2 performed by each client terminal 1.

【0049】VRMLファイル記憶部23は、WWWサ
ーバ21に付属したハードディスク等からなり、共有仮
想空間を構成する静的オブジェクトを規定したVRML
ファイル、及び、各クライアント端末1から送られたア
バタオブジェクトを規定するVRMLファイルを記憶す
る。
The VRML file storage unit 23 is composed of a hard disk or the like attached to the WWW server 21 and is a VRML file that defines static objects constituting a shared virtual space.
A file and a VRML file that defines an avatar object sent from each client terminal 1 are stored.

【0050】以下、処理制御部15に制御されたVRM
L処理部17が行うログイン処理、画像生成処理、ログ
イン情報受信処理、視点移動処理、移動情報受信処理、
ログアウト情報受信処理、及び、ログアウト処理につい
て図面を参照して説明する。
Hereinafter, the VRM controlled by the processing control unit 15
Login processing, image generation processing, login information reception processing, viewpoint movement processing, movement information reception processing performed by the L processing unit 17,
The logout information receiving process and the logout process will be described with reference to the drawings.

【0051】まずログイン処理について、図7を参照し
て説明する。図7は、ログイン処理を説明するフローチ
ャートである。このログイン処理は、ユーザにより、ア
バタオブジェクトを記憶したフロッピーディスク等がア
バタオブジェクト入力部12にセットされた後、指示入
力部14から入力されたログインを表す所定の指示情報
に応答して開始する。
First, the login process will be described with reference to FIG. FIG. 7 is a flowchart illustrating the login process. The login process is started in response to predetermined instruction information indicating login entered from the instruction input unit 14 after the user sets a floppy disk or the like storing the avatar object in the avatar object input unit 12.

【0052】まず、VRML処理部17は、通信処理部
11を介してWWWサーバ21にログイン要求を送信す
る(ステップS11)。すなわち、VRML処理部17
は、ユーザ名称及び暗証番号等の所定の情報からなるロ
グイン要求を、WWWサーバ21に送信する。WWWサ
ーバ21は、受信したログイン要求に含まれるユーザ名
称及び暗証番号等の有効性を確認した後、アバタオブジ
ェクトの送信をVRML処理部17に要求する。
First, the VRML processing unit 17 transmits a login request to the WWW server 21 via the communication processing unit 11 (Step S11). That is, the VRML processing unit 17
Transmits a login request including predetermined information such as a user name and a password to the WWW server 21. After checking the validity of the user name and the password included in the received login request, the WWW server 21 requests the VRML processing unit 17 to transmit the avatar object.

【0053】VRML処理部17は、アバタオブジェク
トをWWWサーバ21に送信する(ステップS12)。
すなわち、VRML処理部17は、アバタオブジェクト
入力部12からフロッピーディスクに記憶されたアバタ
オブジェクトを取得し、取得したアバタオブジェクトを
通信処理部11を介してWWWサーバ21に送信する。
WWWサーバ21は、アバタオブジェクトを受信する
と、受信したアバタオブジェクトをVRMLファイル記
憶部23に格納する。アバタオブジェクトを記憶後、W
WWサーバ21は、VRMLファイル記憶部23から共
有仮想空間を構成する静的で動きのない静的オブジェク
トを規定するVRMLファイルを読み出し、クライアン
ト端末1にそのVRMLファイルを送信する。
The VRML processing unit 17 transmits the avatar object to the WWW server 21 (Step S12).
That is, the VRML processing unit 17 acquires the avatar object stored in the floppy disk from the avatar object input unit 12 and transmits the acquired avatar object to the WWW server 21 via the communication processing unit 11.
Upon receiving the avatar object, the WWW server 21 stores the received avatar object in the VRML file storage unit 23. After storing the avatar object,
The WW server 21 reads out a VRML file that defines a static and static object constituting the shared virtual space from the VRML file storage unit 23, and transmits the VRML file to the client terminal 1.

【0054】VRML処理部17は、WWWサーバ21
から送られた静的オブジェクトを取得する(ステップS
13)。VRML処理部17は、静的アバタオブジェク
トをVRML記憶部16の静的オブジェクト情報34に
記憶する。一方、WWWサーバ21は、クライアント情
報管理部22に他のクライアント端末1の情報が記憶さ
れていると判別した場合に、VRMLファイル記憶部2
3に記憶されている他のクライアント端末1のアバタオ
ブジェクト等からクライアント情報を生成し、生成した
クライアント情報をクライアント端末1に送信する。
The VRML processing unit 17 is a WWW server 21
Obtain the static object sent from (Step S
13). The VRML processing unit 17 stores the static avatar object in the static object information 34 of the VRML storage unit 16. On the other hand, when the WWW server 21 determines that the information of the other client terminal 1 is stored in the client information management unit 22, the VRML file storage unit 2
3 generates client information from an avatar object or the like of another client terminal 1 stored in the client terminal 1, and transmits the generated client information to the client terminal 1.

【0055】VRML処理部17は、WWWサーバ21
からクライアント情報が送信されたか否かを判別する
(ステップS14)。すなわち、VRML処理部17
は、他のクライアント端末1のアバタオブジェクト、ユ
ーザ名称及び、アドレス等からなるクライアント情報を
受信したか否かを判別する。VRML処理部17は、W
WWサーバ21からクライアント情報が送信されていな
いと判別した場合、後述するステップS16に処理を進
める。
The VRML processing unit 17 is a WWW server 21
It is determined whether or not the client information has been transmitted from (step S14). That is, the VRML processing unit 17
Determines whether client information including an avatar object, a user name, an address, and the like of another client terminal 1 has been received. The VRML processing unit 17
If it is determined that the client information has not been transmitted from the WW server 21, the process proceeds to step S16 described below.

【0056】一方、WWWサーバ21から送られたクラ
イアント情報を受信したと判別した場合、VRML処理
部17は、受信したクライアント情報に含まれるアバタ
オブジェクト等の情報をVRML記憶部16に記憶する
(ステップS15)。すなわち、VRML処理部17
は、受信したクライアント情報に含まれるユーザ名称等
を他ユーザ情報31に、予め初期値と定められた位置ベ
クトル等を他アバタ情報32に、クライアント情報に含
まれるアバタオブジェクトを動的オブジェクト情報35
に、それぞれ追加して記憶する。なお、VRML処理部
17は、他アバタ情報32に初期値の位置ベクトル等を
記憶する際に、描画フラグをOFFにセットする。これ
は、他のクライアント端末1が管理するカメラオブジェ
クト(つまり、他アバタ)の現在の正確な位置を把握し
ていないためである。なお、他アバタが共有仮想空間内
を移動し、それに伴い、他のクライアント端末1から移
動情報が送られた際に、他アバタの正確な位置が明らか
となり、描画フラグもONに変更される。また、VRM
L処理部17は、カメラオブジェクト情報33に、共有
仮想空間内におけるデフォルトの位置及び方向を表す位
置ベクトル等を記憶する。つまり、自アバタの位置等を
所定の位置に設定する。
On the other hand, if it is determined that the client information sent from the WWW server 21 has been received, the VRML processing unit 17 stores information such as the avatar object included in the received client information in the VRML storage unit 16 (step S15). That is, the VRML processing unit 17
In the received client information, the user name and the like included in the received client information are stored in the other user information 31, the position vector and the like defined in advance as initial values are stored in the other avatar information 32, and the avatar object included in the client information is stored in the dynamic object information 35
Are added and stored. Note that the VRML processing unit 17 sets the drawing flag to OFF when storing the initial value position vector and the like in the other avatar information 32. This is because the current accurate position of the camera object (that is, another avatar) managed by another client terminal 1 is not known. When the other avatar moves in the shared virtual space and the movement information is transmitted from the other client terminal 1 with the movement, the accurate position of the other avatar becomes clear, and the drawing flag is changed to ON. VRM
The L processing unit 17 stores, in the camera object information 33, a position vector or the like indicating a default position and direction in the shared virtual space. That is, the position of the own avatar is set to a predetermined position.

【0057】VRML処理部17は、画像生成処理を行
う(ステップS16)。すなわち、VRML処理部17
は、グラフィック処理部18を制御してログイン時の共
有仮想空間の画像を生成する。
The VRML processing section 17 performs an image generation process (step S16). That is, the VRML processing unit 17
Controls the graphic processing unit 18 to generate an image of the shared virtual space at the time of login.

【0058】以下、ステップS16にて行われる画像生
成処理について、図8を参照して説明する。図8は、画
像生成処理を説明するフローチャートである。なお、こ
の画像生成処理は、後述するログイン情報受信処理、視
点移動処理、移動情報受信処理、及び、ログアウト情報
受信処理にてもそれぞれ実行される。
Hereinafter, the image generation processing performed in step S16 will be described with reference to FIG. FIG. 8 is a flowchart illustrating the image generation processing. Note that this image generation processing is also executed in login information reception processing, viewpoint movement processing, movement information reception processing, and logout information reception processing, which will be described later.

【0059】まず、VRML処理部17は、静的オブジ
ェクト情報34を構成するポリゴンの座標変換を行う
(ステップS21)。すなわち、VRML処理部17
は、VRML記憶部16に記憶されている静的オブジェ
クト情報34を構成するポリゴンのバーティクスをロー
カル座標からワールド座標に変換する。VRML処理部
17は、変換後のバーティクスの値をワールド座標領域
に格納する。
First, the VRML processing unit 17 performs coordinate conversion of polygons constituting the static object information 34 (step S21). That is, the VRML processing unit 17
Converts the vertices of the polygons constituting the static object information 34 stored in the VRML storage unit 16 from local coordinates to world coordinates. The VRML processing unit 17 stores the converted vertex value in the world coordinate area.

【0060】VRML処理部17は、他アバタ情報32
に位置ベクトル等が記憶されているか否かを判別する
(ステップS22)。すなわち、VRML処理部17
は、仮想空間を共有している他のクライアント端末1が
あるか否かを判別する。VRML処理部17は、他アバ
タ情報32に位置ベクトル等が記憶されていないと判別
した場合、後述するステップS24に処理を進める。
The VRML processing unit 17 outputs the other avatar information 32
It is determined whether a position vector or the like is stored in step S22 (step S22). That is, the VRML processing unit 17
Determines whether there is another client terminal 1 sharing the virtual space. If the VRML processing unit 17 determines that the position vector or the like is not stored in the other avatar information 32, the process proceeds to step S24 described below.

【0061】一方、VRML処理部17は、他アバタ情
報32に位置ベクトル等が記憶されていると判別した場
合、動的オブジェクト情報35を構成するポリゴンの座
標変換を行う(ステップS23)。すなわち、VRML
処理部17は、変換マトリクスを使用して動的オブジェ
クト情報35を構成するポリゴンのバーティクスをロー
カル座標からワールド座標に変換する。VRML処理部
17は、変換後のバーティクスの値をワールド座標領域
に格納する。なお、VRML処理部17は、動的オブジ
ェクト情報35の描画フラグがOFFに設定されている
場合に、ワールド座標領域に描画対象外となる値を設定
する。
On the other hand, when the VRML processing unit 17 determines that the position vector and the like are stored in the other avatar information 32, it performs coordinate conversion of the polygons constituting the dynamic object information 35 (step S23). That is, VRML
The processing unit 17 converts the vertices of the polygons constituting the dynamic object information 35 from local coordinates to world coordinates using the conversion matrix. The VRML processing unit 17 stores the converted vertex value in the world coordinate area. When the drawing flag of the dynamic object information 35 is set to OFF, the VRML processing unit 17 sets a value not to be drawn in the world coordinate area.

【0062】VRML処理部17は、静的オブジェクト
情報34及び動的オブジェクト情報35のポリゴン(バ
ーティクス)の法線ベクトル(ポリゴンノーマル)に従
って、描画対象のポリゴンを選別する(ステップS2
4)。すなわち、VRML処理部17は、図9に示すよ
うに、ポリゴン101の視線方向ベクトルlと、法線ベ
クトル(ポリゴンノーマル)nとを乗じた値が正であり
(n・l>0)、かつ、視線方向ベクトルlと法線ベク
トルnとによりなす角度θが、90度未満となるポリゴ
ンを選別する。なお、VRML処理部17は、描画対象
と選別したポリゴンの可視フラグをONに設定し、選別
されなかったポリゴンの可視フラグをOFFにセットす
る。
The VRML processing unit 17 selects a polygon to be drawn according to the normal vector (polygon normal) of the polygon (vertics) in the static object information 34 and the dynamic object information 35 (step S2).
4). That is, the VRML processing unit 17 determines that the value obtained by multiplying the line-of-sight vector l of the polygon 101 by the normal vector (polygon normal) n is positive (n · l> 0), as shown in FIG. , Polygons whose angle θ formed by the line-of-sight direction vector 1 and the normal vector n is less than 90 degrees are selected. The VRML processing unit 17 sets the visible flag of a polygon selected as a drawing target to ON, and sets the visible flag of a polygon not selected as OFF.

【0063】VRML処理部17は、描画対象のポリゴ
ンから、グラフィックスコンテキストデータを生成する
(ステップS25)。すなわち、VRML処理部17
は、静的オブジェクト情報34及び動的オブジェクト情
報35の可視フラグがONに設定されているポリゴンか
ら、グラフィック処理部18に供給するためのグラフィ
ックスコンテキストデータを生成する。VRML処理部
17は、生成したグラフィックスコンテキストデータを
グラフィックスコンテキストデータ領域に記憶する。
The VRML processing section 17 generates graphics context data from the polygon to be drawn (step S25). That is, the VRML processing unit 17
Generates graphics context data to be supplied to the graphic processing unit 18 from polygons for which the visible flags of the static object information 34 and the dynamic object information 35 are set to ON. The VRML processing unit 17 stores the generated graphics context data in the graphics context data area.

【0064】VRML処理部17は、グラフィックスコ
ンテキストデータをグラフィック処理部18に供給する
と共にグラフィック処理部18を制御し、三次元画像を
描画する(ステップS26)。すなわち、グラフィック
処理部18は、静的オブジェクト情報34及び動的オブ
ジェクト情報35のグラフィックスコンテキストデータ
を取得すると、ジオメトリ変換、3D(三次元)クリッ
ピング、シェーディング、3Dから2D(二次元)への
変換等を行い、共有仮想空間の三次元画像を所定のスク
リーン上に投影変換した画像を所定のフレームメモリに
書き込む(描画する)。グラフィック処理部18は、描
画した画像を画像表示部19に供給し、共有仮想空間の
情景を表示する。そして、画像表示部19は、描画対象
のポリゴンデータから生成した共有仮想空間の情景を表
示する。
The VRML processing unit 17 supplies the graphics context data to the graphic processing unit 18 and controls the graphic processing unit 18 to draw a three-dimensional image (step S26). That is, when the graphics processing unit 18 acquires the graphics context data of the static object information 34 and the dynamic object information 35, the graphics processing unit 18 performs geometry conversion, 3D (three-dimensional) clipping, shading, and conversion from 3D to 2D (two-dimensional). And the like, and writes (draws) an image obtained by projecting and converting the three-dimensional image in the shared virtual space onto a predetermined screen in a predetermined frame memory. The graphic processing unit 18 supplies the drawn image to the image display unit 19, and displays a scene in the shared virtual space. Then, the image display unit 19 displays a scene in the shared virtual space generated from the polygon data to be drawn.

【0065】次に、ログイン情報受信処理について、図
10を参照して説明する。図10は、ログイン情報受信
処理を説明するフローチャートである。このログイン情
報受信処理は、他のクライアント端末1が共有仮想空間
にログインした際に、WWWサーバ21から送られるア
バタオブジェクト等を含んだログイン情報に応答して開
始する。
Next, the login information receiving process will be described with reference to FIG. FIG. 10 is a flowchart illustrating the login information receiving process. The login information receiving process starts when another client terminal 1 logs in to the shared virtual space in response to login information including an avatar object and the like sent from the WWW server 21.

【0066】まず、VRML処理部17は、WWWサー
バ21から送られたログイン情報を取得する(ステップ
S31)。すなわち、VRML処理部17は、WWWサ
ーバ21から送られたユーザ名称、アドレス及び、アバ
タオブジェクト等を含んだログイン情報を通信処理部1
1を介して受信する。
First, the VRML processing unit 17 acquires the login information sent from the WWW server 21 (Step S31). That is, the VRML processing unit 17 transmits the login information including the user name, the address, the avatar object, and the like sent from the WWW server 21 to the communication processing unit 1.
1 to receive.

【0067】VRML処理部17は、受信したログイン
情報に含まれるアバタオブジェクト等の情報をVRML
記憶部16に記憶する(ステップS32)。すなわち、
VRML処理部17は、受信したログイン情報に含まれ
るユーザ名称等を他ユーザ情報31に、共有仮想空間内
におけるデフォルトの位置及び方向を表す位置ベクトル
等を他アバタ情報32に、ログイン情報に含まれるアバ
タオブジェクトを動的オブジェクト情報35に、それぞ
れ追加して記憶する。なお、VRML処理部17は、他
アバタ情報32に位置ベクトル等を記憶する際に描画フ
ラグをONにセットする。すなわち、共有仮想空間内に
おけるデフォルトの位置及び方向に設定した他アバタを
表示対象として設定する。
The VRML processing unit 17 converts the information such as the avatar object included in the received login information into a VRML
It is stored in the storage unit 16 (step S32). That is,
The VRML processing unit 17 includes the user name and the like included in the received login information in the other user information 31, the position vector and the like indicating the default position and direction in the shared virtual space in the other avatar information 32, and the login information. The avatar object is added to the dynamic object information 35 and stored. The VRML processing unit 17 sets the drawing flag to ON when storing the position vector and the like in the other avatar information 32. That is, another avatar set to the default position and direction in the shared virtual space is set as a display target.

【0068】VRML処理部17は、画像生成処理を行
う(ステップS33)。すなわち、VRML処理部17
は、グラフィック処理部18を制御して、他アバタ(他
のクライアント端末1から送られたアバタオブジェク
ト)を含んだ共有仮想空間の画像を生成する。
The VRML processing section 17 performs an image generation process (step S33). That is, the VRML processing unit 17
Controls the graphic processing unit 18 to generate an image of a shared virtual space including another avatar (an avatar object sent from another client terminal 1).

【0069】次に、視点移動処理について、図11を参
照して説明する。図11は、視点移動処理を説明するフ
ローチャートである。この視点移動処理は、ユーザから
指示入力部14を介して所定の指示情報が入力される
と、その指示情報に応答して、開始する。
Next, the viewpoint moving process will be described with reference to FIG. FIG. 11 is a flowchart illustrating the viewpoint moving process. This viewpoint moving process starts when predetermined instruction information is input from the user via the instruction input unit 14, in response to the instruction information.

【0070】まず、VRML処理部17は、指示入力部
14から入力された指示情報を取得し、取得した指示情
報に従ってカメラオブジェクト情報33の値を変更する
(ステップS41)。すなわち、VRML処理部17
は、指示情報に従って、カメラオブジェクト情報33の
位置ベクトル、視線ベクトル及び、上方向ベクトルの値
を更新する。
First, the VRML processing unit 17 acquires the instruction information input from the instruction input unit 14, and changes the value of the camera object information 33 according to the acquired instruction information (step S41). That is, the VRML processing unit 17
Updates the position vector, line-of-sight vector, and upward vector value of the camera object information 33 according to the instruction information.

【0071】VRML処理部17は、他ユーザ情報31
に他クライアント端末1の情報が記憶されているか否か
を判別する(ステップS42)。すなわち、VRML処
理部17は、仮想空間を共有している他のクライアント
端末1があるか否かを判別する。他ユーザ情報31に他
クライアント端末1の情報が記憶されていないと判別し
た場合、VRML処理部17は、後述するステップS4
5に処理を進める。
The VRML processing unit 17 stores the other user information 31
Then, it is determined whether or not the information of the other client terminal 1 is stored in Step S42. That is, the VRML processing unit 17 determines whether there is another client terminal 1 sharing the virtual space. If it is determined that the information of the other client terminal 1 is not stored in the other user information 31, the VRML processing unit 17 proceeds to step S4 described later.
The process proceeds to 5.

【0072】VRML処理部17は、他ユーザ情報31
に他クライアント端末1の情報が記憶されていると判別
した場合、他ユーザ情報31からユーザ名称等を取得す
る(ステップS43)。すなわち、VRML処理部17
は、移動情報の送信先である他のクライアント端末1を
特定するユーザ名称及びアドレスを取得する。
The VRML processing unit 17 stores the other user information 31
When it is determined that the information of the other client terminal 1 is stored in the other user information, a user name or the like is acquired from the other user information 31 (step S43). That is, the VRML processing unit 17
Acquires a user name and an address for specifying another client terminal 1 to which the movement information is transmitted.

【0073】VRML処理部17は、カメラオブジェク
ト情報33の位置ベクトル等から共有仮想空間内の自己
のアバタの位置等が変化したことを示す移動情報を生成
し、生成した移動情報を他のクライアント端末1に送信
する(ステップS44)。VRML処理部17は、生成
した移動情報をステップS43にて特定した他のクライ
アント端末1に送信する。
The VRML processing unit 17 generates movement information indicating that the position of its own avatar in the shared virtual space has changed from the position vector or the like of the camera object information 33, and transmits the generated movement information to another client terminal. 1 (step S44). The VRML processing unit 17 transmits the generated movement information to the other client terminals 1 specified in step S43.

【0074】VRML処理部17は、画像生成処理を行
う(ステップS45)。すなわち、VRML処理部17
は、グラフィック処理部18を制御して、他のクライア
ント端末1のアバタオブジェクト等を含んだ共有仮想空
間の画像を生成する。
The VRML processing section 17 performs an image generation process (step S45). That is, the VRML processing unit 17
Controls the graphic processing unit 18 to generate an image of the shared virtual space including the avatar object of another client terminal 1 and the like.

【0075】次に、移動情報受信処理について、図12
を参照して説明する。図12は、移動情報受信処理を説
明するフローチャートである。この移動情報受信処理
は、通信処理部11を介して他のクライアント端末1か
ら移動情報が送られると、その移動情報に応答して開始
する。
Next, the movement information receiving process will be described with reference to FIG.
This will be described with reference to FIG. FIG. 12 is a flowchart illustrating the movement information receiving process. This movement information reception processing is started in response to movement information sent from another client terminal 1 via the communication processing unit 11 in response to the movement information.

【0076】まず、VRML処理部17は、他のクライ
アント1から送られた移動情報を取得する(ステップS
51)。すなわち、VRML処理部17は、他のクライ
アント端末1におけるカメラオブジェクトの変更に伴っ
て、他のクライアント端末1から送られる移動情報を受
信する。
First, the VRML processing unit 17 acquires the movement information sent from another client 1 (step S).
51). That is, the VRML processing unit 17 receives the movement information sent from the other client terminal 1 in accordance with the change of the camera object in the other client terminal 1.

【0077】VRML処理部17は、受信した移動情報
に従って、他アバタ情報32を更新する(ステップS5
2)。すなわち、VRML処理部17は、他アバタ情報
32の該当する位置ベクトル等を受信した移動情報に従
って変更する。その際、VRML処理部17は、他アバ
タ情報32の描画フラグを無条件にONに設定する。す
なわち、上述のログイン処理にて描画フラグがOFFに
設定されていた場合であっても、移動情報の受信により
ONに変更される。
The VRML processing unit 17 updates the other avatar information 32 according to the received movement information (step S5).
2). That is, the VRML processing unit 17 changes the corresponding position vector or the like of the other avatar information 32 according to the received movement information. At that time, the VRML processing unit 17 unconditionally sets the drawing flag of the other avatar information 32 to ON. That is, even if the drawing flag is set to OFF in the above-described login processing, the drawing flag is changed to ON by receiving the movement information.

【0078】VRML処理部17は、変更された他アバ
タ情報32に従って、対応する動的オブジェクト情報3
5の変換マトリクスを更新する(ステップS53)。す
なわち、VRML処理部17は、変更された他アバタ情
報32の位置ベクトル、視線ベクトル及び、上方向ベク
トルに従って、動的オブジェクト情報35の対応する変
換マトリクスの値を変更する。
The VRML processing unit 17 makes the corresponding dynamic object information 3 according to the changed other avatar information 32.
5 is updated (step S53). That is, the VRML processing unit 17 changes the value of the corresponding transformation matrix of the dynamic object information 35 according to the changed position vector, line-of-sight vector, and upward vector of the other avatar information 32.

【0079】VRML処理部17は、画像生成処理を行
う(ステップS54)。すなわち、VRML処理部17
は、グラフィック処理部18を制御して、他のクライア
ント端末1の移動したアバタオブジェクトを含んだ共有
仮想空間の画像を生成する。
The VRML processing section 17 performs an image generation process (step S54). That is, the VRML processing unit 17
Controls the graphic processing unit 18 to generate an image of the shared virtual space including the moved avatar object of the other client terminal 1.

【0080】次に、ログアウト情報受信処理について、
図13を参照して説明する。図13は、ログアウト情報
受信処理を説明するフローチャートである。このログア
ウト情報受信処理は、他のクライアント端末1が共有仮
想空間からログアウトした際に、通信処理部11を介し
てWWWサーバ21から送られるログアウト情報に応答
して開始する。
Next, regarding the logout information receiving process,
This will be described with reference to FIG. FIG. 13 is a flowchart illustrating the logout information receiving process. The logout information receiving process is started in response to logout information sent from the WWW server 21 via the communication processing unit 11 when another client terminal 1 logs out of the shared virtual space.

【0081】まず、VRML処理部17は、WWWサー
バ21から送られたログアウト情報を取得する(ステッ
プS61)。すなわち、VRML処理部17は、WWW
サーバ21から通信処理部11を介して送られたユーザ
名称等を含むログアウト情報を受信する。
First, the VRML processing unit 17 acquires the logout information sent from the WWW server 21 (step S61). That is, the VRML processing unit 17
The logout information including the user name and the like transmitted from the server 21 via the communication processing unit 11 is received.

【0082】VRML処理部17は、受信したログアウ
ト情報に従って、動的オブジェクト情報35等からアバ
タオブジェクトを削除する(ステップS62)。すなわ
ち、VRML処理部17は、ログアウト情報に含まれる
ユーザ名称をキーにして、他ユーザ情報31からユーザ
名称等を、他アバタ情報32から位置ベクトル等を、動
的オブジェクト情報35からアバタオブジェクトをそれ
ぞれ削除する。
The VRML processing unit 17 deletes the avatar object from the dynamic object information 35 and the like according to the received logout information (step S62). That is, the VRML processing unit 17 uses the user name included in the logout information as a key, and stores the user name and the like from the other user information 31, the position vector and the like from the other avatar information 32, and the avatar object from the dynamic object information 35. delete.

【0083】VRML処理部17は、画像生成処理を行
う(ステップS63)。すなわち、VRML処理部17
は、グラフィック処理部18を制御して、ログアウトし
た他のクライアント端末1のアバタオブジェクトが削除
された共有仮想空間の画像を生成する。
The VRML processing section 17 performs an image generation process (step S63). That is, the VRML processing unit 17
Controls the graphic processing unit 18 to generate an image of the shared virtual space from which the avatar object of the other client terminal 1 that has logged out is deleted.

【0084】次に、ログアウト処理について、図14を
参照して説明する。図14は、ログアウト処理を説明す
るフローチャートである。このログアウト処理は、指示
入力部14から入力されたログアウトを表す所定の指示
情報に応答して開始する。
Next, the logout process will be described with reference to FIG. FIG. 14 is a flowchart illustrating the logout process. The logout process is started in response to predetermined instruction information indicating logout input from the instruction input unit 14.

【0085】まず、VRML処理部17は、通信処理部
11を介してWWWサーバ21にログアウト要求を送信
する(ステップS71)。WWWサーバ21は、ログア
ウト要求を受信すると、ログアウトを要求したクライア
ント端末1のユーザ名称を含んだログアウト情報を生成
し、生成したログアウト情報をクライアント情報管理部
22により、他のクライアント端末1に送信する。ま
た、WWWサーバ21は、ログアウトを要求したクライ
アント端末1のユーザ名称をキーにして、クライアント
情報管理部22及び、VRMLファイル記憶部23から
該当する情報を削除した後、ログアウトを要求したクラ
イアント端末1にログアウト完了通知を送信する。
First, the VRML processing unit 17 transmits a logout request to the WWW server 21 via the communication processing unit 11 (Step S71). Upon receiving the logout request, the WWW server 21 generates logout information including the user name of the client terminal 1 that has requested logout, and transmits the generated logout information to the other client terminals 1 by the client information management unit 22. . Further, the WWW server 21 deletes the corresponding information from the client information management unit 22 and the VRML file storage unit 23 using the user name of the client terminal 1 that has requested logout as a key, and then deletes the client terminal 1 that has requested logout. Send a logout completion notification to.

【0086】VRML処理部17は、通信処理部11を
介してWWWサーバ21から送られたログアウト完了通
知を受信する(ステップS72)。これにより、クライ
アント端末1は、共有仮想空間からログアウトしたこと
となる。
The VRML processing unit 17 receives the logout completion notification sent from the WWW server 21 via the communication processing unit 11 (Step S72). As a result, the client terminal 1 has logged out of the shared virtual space.

【0087】以下、上述の各処理におけるアバタオブジ
ェクト等のデータの流れについて、共有仮想空間にクラ
イアント端末1がログインする場合を一例として図面を
参照して説明する。
Hereinafter, the flow of data of the avatar object and the like in each of the above-described processes will be described with reference to the drawings, taking as an example the case where the client terminal 1 logs in to the shared virtual space.

【0088】まず、共有仮想空間にいずれのクライアン
ト端末1もログインしていない状態で、クライアント端
末1aがログインする場合について図15を参照して説
明する。図15に示すように、クライアント端末1a
は、共有仮想空間にログインする際に、クライアント端
末1aのアバタオブジェクト入力部12からアバタオブ
ジェクト51を読み出し、読み出したアバタオブジェク
ト51をWWWサーバ21に送信する(ステップS1
2)。WWWサーバ21は、受信したアバタオブジェク
ト51をVRMLファイル記憶部23に記憶した後、V
RMLファイル記憶部23から静的オブジェクトのみを
読み出し、クライアント端末1aに送信する。クライア
ント端末1aは、WWWサーバ21から静的オブジェク
トを受信し、VRML記憶部16に静的オブジェクトの
みを記憶する(ステップS13)。そして、クライアン
ト端末1aは、アバタの登場しない共有仮想空間を画像
表示部19に表示する(ステップS16)。
First, a case where the client terminal 1a logs in with no client terminal 1 logged in to the shared virtual space will be described with reference to FIG. As shown in FIG. 15, the client terminal 1a
Reads the avatar object 51 from the avatar object input unit 12 of the client terminal 1a when logging in to the shared virtual space, and transmits the read avatar object 51 to the WWW server 21 (step S1).
2). After storing the received avatar object 51 in the VRML file storage unit 23, the WWW server 21
Only the static object is read from the RML file storage unit 23 and transmitted to the client terminal 1a. The client terminal 1a receives the static object from the WWW server 21, and stores only the static object in the VRML storage unit 16 (Step S13). Then, the client terminal 1a displays the shared virtual space where the avatar does not appear on the image display unit 19 (Step S16).

【0089】この結果、クライアント端末1aは、ユー
ザが所定のオーサリングツール等により作成したオリジ
ナルのアバタオブジェクト51を伴って、共有仮想空間
にログインすることができる。
As a result, the client terminal 1a can log in to the shared virtual space with the original avatar object 51 created by the user using a predetermined authoring tool or the like.

【0090】次に、このクライアント端末1aが共有仮
想空間にログインしている状態で、新たにクライアント
端末1bがログインする場合について図16を参照して
説明する。図16に示すように、クライアント端末1b
は、共有仮想空間にログインする際に、クライアント端
末1bのアバタオブジェクト入力部12からアバタオブ
ジェクト52を読み出し、読み出したアバタオブジェク
ト52をWWWサーバ21に送信する(ステップS1
2)。WWWサーバ21は、受信したアバタオブジェク
ト52をVRMLファイル記憶部23に追加して記憶し
た後、VRMLファイル記憶部23から静的オブジェク
ト及びアバタオブジェクト51を読み出し、クライアン
ト端末1bに送信する。クライアント端末1bは、WW
Wサーバ21から静的オブジェクト及びアバタオブジェ
クト51を受信し、VRML記憶部16に静的オブジェ
クト及びアバタオブジェクト51を記憶する(ステップ
S13、S15)。そして、クライアント端末1bは、
図17(a)に示すようなアバタ51が登場した共有仮
想空間を画像表示部19に表示する(ステップS1
6)。
Next, a case where the client terminal 1b newly logs in while the client terminal 1a is logged in to the shared virtual space will be described with reference to FIG. As shown in FIG. 16, the client terminal 1b
Reads the avatar object 52 from the avatar object input unit 12 of the client terminal 1b when logging in to the shared virtual space, and transmits the read avatar object 52 to the WWW server 21 (step S1).
2). The WWW server 21 adds and stores the received avatar object 52 to the VRML file storage unit 23, reads the static object and the avatar object 51 from the VRML file storage unit 23, and transmits the static object and the avatar object 51 to the client terminal 1b. The client terminal 1b has the WW
The static object and the avatar object 51 are received from the W server 21 and the static object and the avatar object 51 are stored in the VRML storage unit 16 (steps S13 and S15). Then, the client terminal 1b
The shared virtual space in which the avatar 51 appears as shown in FIG. 17A is displayed on the image display unit 19 (step S1).
6).

【0091】一方、クライアント端末1aは、WWWサ
ーバ21からアバタオブジェクト52を含んだログイン
情報を受信し(ステップS31)、VRML記憶部16
にアバタオブジェクト52を記憶する(ステップS3
2)。そして、クライアント端末1aは、図17(b)
に示すようなアバタ52が登場した共有仮想空間を画像
表示部19に表示する(ステップS33)。
On the other hand, the client terminal 1a receives the login information including the avatar object 52 from the WWW server 21 (step S31), and the VRML storage 16
The avatar object 52 (step S3).
2). Then, the client terminal 1a is configured as shown in FIG.
Is displayed on the image display unit 19 (step S33).

【0092】この結果、クライアント端末1bは、ユー
ザが所定のオーサリングツール等により作成したオリジ
ナルのアバタオブジェクト52を伴って、共有仮想空間
にログインすることができる。そして、クライアント端
末1a、1bは、それぞれ他のアバタであるアバタ5
2、51が登場した共有仮想空間を表す画像を表示する
ことができる。
As a result, the client terminal 1b can log in to the shared virtual space with the original avatar object 52 created by the user using a predetermined authoring tool or the like. Then, the client terminals 1a and 1b each have an avatar 5 as another avatar.
An image representing the shared virtual space in which 2, 51 has appeared can be displayed.

【0093】この後、各アバタ52、51の移動情報
は、WWWサーバ21を介さずに、直接クライアント端
末1a、1b間で送受信される。そして、クライアント
端末1a、1bは、移動情報が反映された各アバタ5
2、51を含んだ共有仮想空間を表す画像を表示するこ
とができる。また、いずれかのクライアント端末1がロ
グアウトした際に、アバタオブジェクト等は、削除され
る。そして、残ったクライアント端末1は、ログアウト
したアバタが削除された共有仮想空間を表す画像を表示
することができる。
Thereafter, the movement information of the avatars 52 and 51 is directly transmitted and received between the client terminals 1a and 1b without passing through the WWW server 21. Then, the client terminals 1a and 1b communicate with the respective avatars 5 reflecting the movement information.
An image representing the shared virtual space including 2, 51 can be displayed. When any one of the client terminals 1 logs out, the avatar object and the like are deleted. Then, the remaining client terminal 1 can display an image representing the shared virtual space from which the logged out avatar has been deleted.

【0094】なお、上記の実施の形態では、ユーザが任
意に作成したアバタオブジェクトをフロッピーディスク
にて保存したが、アバタオブジェクトを保存する記憶媒
体は任意である。例えば、ICカードにアバタオブジェ
クトを保存してもよい。
In the above embodiment, the avatar object created arbitrarily by the user is stored on a floppy disk, but the storage medium for storing the avatar object is arbitrary. For example, an avatar object may be stored in an IC card.

【0095】なお、この発明に係る共有仮想空間表示シ
ステムは、専用のシステムによらず、通常のコンピュー
タシステムを用いて実現可能である。例えば、コンピュ
ータに上述のいずれかを実行するためのプログラムを格
納した媒体(フロッピーディスク、CD−ROM等)か
ら該プログラムをインストールすることにより、上述の
処理を実行する共有仮想空間表示システムを構成するこ
とができる。
The shared virtual space display system according to the present invention can be realized by using an ordinary computer system without using a dedicated system. For example, by installing the program from a medium (a floppy disk, a CD-ROM, or the like) storing a program for executing any of the above-described processes in a computer, a shared virtual space display system that executes the above-described process is configured. be able to.

【0096】また、コンピュータにプログラムを供給す
るための媒体は、通信媒体(通信回線、通信ネットワー
ク、通信システムのように、一時的かつ流動的にプログ
ラムを保持する媒体)でも良い。例えば、通信ネットワ
ークの掲示板(BBS)に該プログラムを掲示し、これ
をネットワークを介して配信してもよい。そして、この
プログラムを起動し、OSの制御下で、他のアプリケー
ションプログラムと同様に実行することにより、上述の
処理を実行することができる。
The medium for supplying the program to the computer may be a communication medium (a medium that temporarily and fluidly stores the program, such as a communication line, a communication network, or a communication system). For example, the program may be posted on a bulletin board (BBS) of a communication network and distributed via the network. Then, by starting this program and executing it in the same manner as other application programs under the control of the OS, the above-described processing can be executed.

【0097】[0097]

【発明の効果】以上説明したように、本発明によれば、
任意に作成したアバタを共有仮想空間において表示する
ことができる。
As described above, according to the present invention,
Arbitrarily created avatars can be displayed in the shared virtual space.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る共有仮想空間表示シ
ステムの構成の一例を示す模式図である。
FIG. 1 is a schematic diagram illustrating an example of a configuration of a shared virtual space display system according to an embodiment of the present invention.

【図2】クライアント端末の構成の一例を示す模式図で
ある。
FIG. 2 is a schematic diagram illustrating an example of a configuration of a client terminal.

【図3】アバタオブジェクトがフロッピーディスクに保
存される様子を説明する模式図である。
FIG. 3 is a schematic diagram illustrating how an avatar object is stored on a floppy disk.

【図4】クライアント情報記憶部に記憶される情報の一
例を示す模式図であり、(a)が他ユーザ情報であり、
(b)が他アバタ情報である。
FIG. 4 is a schematic diagram illustrating an example of information stored in a client information storage unit, where (a) is other user information,
(B) is other avatar information.

【図5】VRML記憶部に記憶される情報の一例を示す
模式図であり、(a)がカメラオブジェクト情報であ
り、(b)が静的オブジェクト情報であり、(c)が動
的オブジェクトである。
5A and 5B are schematic diagrams illustrating an example of information stored in a VRML storage unit, where FIG. 5A illustrates camera object information, FIG. 5B illustrates static object information, and FIG. 5C illustrates a dynamic object. is there.

【図6】カメラオブジェクト情報を構成する位置ベクト
ル、視線ベクトル及び上方向ベクトルを説明するための
模式図である。
FIG. 6 is a schematic diagram for explaining a position vector, a line-of-sight vector, and an upward vector constituting camera object information.

【図7】本発明の実施の形態に係るログイン処理を説明
するためのフローチャートである。
FIG. 7 is a flowchart illustrating a login process according to the embodiment of the present invention.

【図8】本発明の実施の形態に係る画像生成処理を説明
するためのフローチャートである。
FIG. 8 is a flowchart illustrating an image generation process according to the embodiment of the present invention.

【図9】描画対象のポリゴンを判別するための手法を説
明する模式図である。
FIG. 9 is a schematic diagram illustrating a method for determining a polygon to be drawn.

【図10】本発明の実施の形態に係るログイン情報受信
処理を説明するためのフローチャートである。
FIG. 10 is a flowchart illustrating a login information receiving process according to the embodiment of the present invention.

【図11】本発明の実施の形態に係る視点移動処理を説
明するためのフローチャートである。
FIG. 11 is a flowchart illustrating a viewpoint moving process according to the embodiment of the present invention.

【図12】本発明の実施の形態に係る移動情報受信処理
を説明するためのフローチャートである。
FIG. 12 is a flowchart for describing movement information reception processing according to the embodiment of the present invention.

【図13】本発明の実施の形態に係るログアウト情報受
信処理を説明するためのフローチャートである。
FIG. 13 is a flowchart illustrating a logout information receiving process according to the embodiment of the present invention.

【図14】本発明の実施の形態に係るログアウト処理を
説明するためのフローチャートである。
FIG. 14 is a flowchart illustrating a logout process according to the embodiment of the present invention.

【図15】いずれのクライアント端末も共有仮想空間表
示システムにログインしていない状態から、クライアン
ト端末がログインした際のアバタオブジェクトのデータ
の流れを説明する模式図である。
FIG. 15 is a schematic diagram illustrating a flow of data of an avatar object when a client terminal logs in from a state where no client terminal has logged in to the shared virtual space display system.

【図16】1つのクライアント端末が共有仮想空間表示
システムにログインしている状態から、他のクライアン
ト端末がログインした際のアバタオブジェクトのデータ
の流れを説明する模式図である。
FIG. 16 is a schematic diagram illustrating a flow of data of an avatar object when another client terminal logs in from a state in which one client terminal has logged in to the shared virtual space display system.

【図17】(a)が、後からログインしたクライアント
端末の画像表示部に表示される三次元画像の一例を示す
模式図であり、(b)が、先にログインしたクライアン
ト端末の画像表示部に表示される三次元画像の一例を示
す模式図である。
17A is a schematic diagram illustrating an example of a three-dimensional image displayed on an image display unit of a client terminal that has logged in later, and FIG. 17B is a schematic diagram illustrating an image display unit of a client terminal that has logged in earlier. FIG. 3 is a schematic diagram showing an example of a three-dimensional image displayed on the screen.

【図18】VRMLファイルの構成を模式的に示す図で
ある。
FIG. 18 is a diagram schematically showing a configuration of a VRML file.

【図19】(a)がオブジェクトを構成する最小単位の
ノード及びフィールドを示す模式図であり、(b)が実
際のノード及びフィールドの記述例を示す模式図であ
る。
FIG. 19A is a schematic diagram illustrating nodes and fields of a minimum unit constituting an object, and FIG. 19B is a schematic diagram illustrating a description example of actual nodes and fields.

【図20】(a)が立方体形状のオブジェクトを示す模
式図であり、(b)が球形状のオブジェクトを示す模式
図であり、(c)が立方体形状のオブジェクト及び球形
状のオブジェクトがワールド座標に変換された例を示す
模式図である。
20A is a schematic diagram illustrating a cubic object, FIG. 20B is a schematic diagram illustrating a spherical object, and FIG. 20C is a schematic diagram illustrating a cubic object and a spherical object in world coordinates. It is a schematic diagram which shows the example converted into.

【図21】変換マトリクスのノードの一例を示す模式図
である。
FIG. 21 is a schematic diagram illustrating an example of a node of a conversion matrix.

【図22】共有仮想空間内に登場するアバタの一例を示
す模式図である。
FIG. 22 is a schematic diagram illustrating an example of an avatar appearing in a shared virtual space.

【符号の説明】[Explanation of symbols]

1 クライアント端末 2 VRMLサイト 3 インターネット 11 通信処理部 12 アバタオブジェクト入力部 13 他クライアント情報記憶部 14 指示入力部 15 処理制御部 16 VRML記憶部 17 VRML処理部 18 グラフィック処理部 19 画像表示部 21 WWWサーバ 22 クライアント情報管理部 23 VRMLファイル記憶部 Reference Signs List 1 client terminal 2 VRML site 3 Internet 11 communication processing unit 12 avatar object input unit 13 other client information storage unit 14 instruction input unit 15 processing control unit 16 VRML storage unit 17 VRML processing unit 18 graphic processing unit 19 image display unit 21 WWW server 22 Client Information Management Unit 23 VRML File Storage Unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】ネットワークを介して接続された複数のク
ライアントがサーバから供給された所定の仮想空間を共
有し、各クライアントがそれぞれ管理するアバタの視点
からとらえた仮想空間内の三次元画像を表示する共有仮
想空間表示システムであって、 各クライアントは、 アバタを構成するグラフィックオブジェクトを入力する
グラフィックオブジェクト入力手段と、 前記グラフィックオブジェクト入力手段により入力され
たグラフィックオブジェクトをサーバに送信するグラフ
ィックオブジェクト送信手段と、 サーバから送られた他のクライアントのグラフィックオ
ブジェクトを受信するグラフィックオブジェクト受信手
段と、 前記グラフィックオブジェクト受信手段が受信した他の
クライアントのグラフィックオブジェクトを記憶するグ
ラフィックオブジェクト記憶手段と、 前記グラフィックオブジェクト記憶手段に記憶されたグ
ラフィックオブジェクトを含む共有仮想空間の画像を描
画する画像描画手段と、 を備えることを特徴とする共有仮想空間表示システム。
1. A plurality of clients connected via a network share a predetermined virtual space supplied from a server, and each client displays a three-dimensional image in the virtual space viewed from the viewpoint of an avatar managed by each client. A shared virtual space display system, wherein each client comprises: a graphic object input unit for inputting a graphic object constituting an avatar; a graphic object transmitting unit for transmitting a graphic object input by the graphic object input unit to a server; A graphic object receiving means for receiving a graphic object of another client sent from the server; and a graphic object of another client received by the graphic object receiving means. Shared virtual space display system for the graphic object storage unit that, an image drawing means for drawing the image of the shared virtual space including the graphic objects stored in said graphical object storage means, comprising: a.
【請求項2】ネットワークを介して接続された第一のク
ライアント及び第二のクライアントがサーバから供給さ
れた所定の仮想空間を共有し、各クライアントがそれぞ
れ管理するアバタの視点からとらえた仮想空間内の三次
元画像を表示する共有仮想空間表示システムであって、 第一のクライアントは、 アバタを構成するグラフィックオブジェクトを入力する
グラフィックオブジェクト入力手段と、 前記グラフィックオブジェクト入力手段により入力され
たグラフィックオブジェクトをサーバに送信するグラフ
ィックオブジェクト送信手段と、を備え、 サーバは、 前記グラフィックオブジェクト送信手段により送信され
たグラフィックオブジェクトを受信するアバタ受信手段
と、 前記アバタ受信手段が受信したグラフィックオブジェク
トを記憶するアバタ記憶手段と、 前記アバタ記憶手段に記憶したグラフィックオブジェク
トを第二のクライアントに送信するアバタ送信手段と、
を備え、 第二のクライアントは、 前記アバタ送信手段から送られたグラフィックオブジェ
クトを受信するグラフィックオブジェクト受信手段と、 前記グラフィックオブジェクト受信手段が受信した第一
のクライアントのグラフィックオブジェクトを記憶する
グラフィックオブジェクト記憶手段と、 前記グラフィックオブジェクト記憶手段に記憶されたグ
ラフィックオブジェクトを含む共有仮想空間の画像を描
画する画像描画手段と、を備える、 ことを特徴とする共有仮想空間表示システム。
2. A first client and a second client connected via a network share a predetermined virtual space supplied from a server, and the first client and the second client in a virtual space viewed from the viewpoint of an avatar managed by each client. A shared virtual space display system for displaying a three-dimensional image of: a first client, a graphic object input means for inputting a graphic object constituting an avatar, and a server for receiving a graphic object input by the graphic object input means. The graphic object transmitting means for transmitting the graphic object transmitted by the graphic object transmitting means; and the graphic object received by the avatar receiving means. An avatar memory for storing the avatar transmitting means for transmitting the graphic object to the second client stored in the avatar memory means,
The second client comprises: a graphic object receiving means for receiving the graphic object sent from the avatar sending means; and a graphic object storage means for storing the graphic object of the first client received by the graphic object receiving means. And an image drawing means for drawing an image of the shared virtual space including the graphic object stored in the graphic object storage means.
【請求項3】前記グラフィックオブジェクト入力手段
は、所定の記録媒体に記憶されたグラフィックオブジェ
クトを読み出して入力する、 ことを特徴とする請求項1又は2に記載の共有仮想空間
表示システム。
3. The shared virtual space display system according to claim 1, wherein said graphic object input means reads and inputs a graphic object stored in a predetermined recording medium.
【請求項4】ネットワークを介して接続された複数のク
ライアントがサーバから供給された所定の仮想空間を共
有し、各クライアントがそれぞれ規定する視点からとら
えた仮想空間内にアバタの三次元画像を表示するアバタ
表示方法であって、 アバタを構成するグラフィックオブジェクトを入力する
グラフィックオブジェクト入力ステップと、 前記グラフィックオブジェクト入力ステップにより入力
されたグラフィックオブジェクトをサーバに送信するグ
ラフィックオブジェクト送信ステップと、 サーバから送られた他のクライアントのグラフィックオ
ブジェクトを受信するグラフィックオブジェクト受信ス
テップと、 前記グラフィックオブジェクト受信ステップが受信した
他のクライアントのグラフィックオブジェクトを含む共
有仮想空間の画像を描画する画像描画ステップと、 を備えることを特徴とするアバタ表示方法。
4. A plurality of clients connected via a network share a predetermined virtual space supplied from a server, and each client displays a three-dimensional image of an avatar in a virtual space viewed from a viewpoint defined by each client. An avatar display method, comprising: a graphic object input step of inputting a graphic object constituting an avatar; a graphic object transmitting step of transmitting a graphic object input by the graphic object input step to a server; A graphic object receiving step of receiving a graphic object of another client; and a shared virtual sky containing the graphic object of another client received by the graphic object receiving step. An avatar display method, comprising: an image drawing step of drawing an image between the avatars.
【請求項5】ネットワークを介して接続された複数のク
ライアントがサーバから供給された所定の仮想空間を共
有し、各クライアントがそれぞれ規定する視点からとら
えた仮想空間内にアバタの三次元画像を表示するアバタ
表示方法をコンピュータに実行させるためのプログラム
を記録したコンピュータ読み取り可能な記録媒体であっ
て、 アバタを構成するグラフィックオブジェクトを入力する
グラフィックオブジェクト入力ステップと、前記グラフ
ィックオブジェクト入力ステップにより入力されたグラ
フィックオブジェクトをサーバに送信するグラフィック
オブジェクト送信ステップと、サーバから送られた他の
クライアントのグラフィックオブジェクトを受信するグ
ラフィックオブジェクト受信ステップと、前記グラフィ
ックオブジェクト受信ステップが受信した他のクライア
ントのグラフィックオブジェクトを含む共有仮想空間の
画像を描画する画像描画ステップとを有するアバタ表示
方法をコンピュータに実行させるためのプログラムを記
録したコンピュータ読み取り可能な記録媒体。
5. A plurality of clients connected via a network share a predetermined virtual space supplied from a server, and each client displays a three-dimensional image of an avatar in a virtual space captured from a viewpoint defined by each client. A computer-readable recording medium on which a program for causing a computer to execute an avatar display method is provided, comprising: a graphic object input step of inputting a graphic object constituting an avatar; and a graphic input by the graphic object input step. A graphic object transmitting step of transmitting an object to a server, a graphic object receiving step of receiving another client graphic object transmitted from the server, and the graphic object A computer-readable recording medium storing a program for causing a computer to execute an avatar display method, comprising: an image drawing step of drawing an image of a shared virtual space including a graphic object of another client received by the event receiving step.
JP12119199A 1999-04-28 1999-04-28 Shared virtual space display system, avatar display method and recording medium Pending JP2000311256A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12119199A JP2000311256A (en) 1999-04-28 1999-04-28 Shared virtual space display system, avatar display method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12119199A JP2000311256A (en) 1999-04-28 1999-04-28 Shared virtual space display system, avatar display method and recording medium

Publications (1)

Publication Number Publication Date
JP2000311256A true JP2000311256A (en) 2000-11-07

Family

ID=14805122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12119199A Pending JP2000311256A (en) 1999-04-28 1999-04-28 Shared virtual space display system, avatar display method and recording medium

Country Status (1)

Country Link
JP (1) JP2000311256A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257603A (en) * 2007-04-06 2008-10-23 Ntt Docomo Inc Server device and program
EP2015200A1 (en) 2007-04-06 2009-01-14 NTT DoCoMo, Inc. Method and apparatus for navigating virtual space
JP2017208638A (en) * 2016-05-17 2017-11-24 レノボ・シンガポール・プライベート・リミテッド Iris authentication device, iris authentication method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257603A (en) * 2007-04-06 2008-10-23 Ntt Docomo Inc Server device and program
EP1993047A1 (en) 2007-04-06 2008-11-19 NTT DoCoMo, Inc. Method and system for providing information in virtual space
EP2015200A1 (en) 2007-04-06 2009-01-14 NTT DoCoMo, Inc. Method and apparatus for navigating virtual space
US8209324B2 (en) 2007-04-06 2012-06-26 Ntt Docomo, Inc. Method and system for providing information in virtual space
US8904297B2 (en) 2007-04-06 2014-12-02 Ntt Docomo, Inc. Method and system for providing information in virtual space
JP2017208638A (en) * 2016-05-17 2017-11-24 レノボ・シンガポール・プライベート・リミテッド Iris authentication device, iris authentication method, and program

Similar Documents

Publication Publication Date Title
US6570563B1 (en) Method and system for three-dimensional virtual reality space sharing and for information transmission
US6437777B1 (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6346956B2 (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
JP3859018B2 (en) 3D virtual reality space sharing method, 3D virtual reality space sharing system, address management method, and address management server terminal
US6020885A (en) Three-dimensional virtual reality space sharing method and system using local and global object identification codes
US7844229B2 (en) Mobile virtual and augmented reality system
US5926179A (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6154211A (en) Three-dimensional, virtual reality space display processing apparatus, a three dimensional virtual reality space display processing method, and an information providing medium
KR100436944B1 (en) Multi-user interactive 3D world system by world side web
US6331853B1 (en) Display control apparatus display control method and presentation medium
CN109885367B (en) Interactive chat implementation method, device, terminal and storage medium
JP2018524661A (en) Virtual workspace viewport follow mode in collaborative systems
US9256362B2 (en) Network system, communication method and communication terminal
KR20110002093A (en) Panning using virtual surfaces
CN102067179A (en) Swoop navigation
JP2008070705A (en) Picture providing system and picture providing server device
WO2024088144A1 (en) Augmented reality picture processing method and apparatus, and electronic device and storage medium
JP4236717B2 (en) Information processing apparatus, information processing method, and information providing medium in 3D virtual reality space sharing system
Glushakov et al. Edge-based provisioning of holographic content for contextual and personalized augmented reality
JP2000311256A (en) Shared virtual space display system, avatar display method and recording medium
KR100521728B1 (en) Video geographic information system
JPH0981782A (en) Method and system for three-dimensional virtual reality space, medium and method for recording information, medium and method for transmitting information, information processing method, client terminal, and common-use server terminal
US20200410734A1 (en) Spatial reproduction method and spatial reproduction system
JPH0981495A (en) Method and system for sharing three-dimensional virtual reality space, medium and method for information recording, medium and method for information transmission, information processing method, and shared server terminal
JPH10154244A (en) Device and method for three-dimensional virtual reality space display, and information supply medium