JP2001076179A - Multi-user system sharing three-dimensional virtual space - Google Patents

Multi-user system sharing three-dimensional virtual space

Info

Publication number
JP2001076179A
JP2001076179A JP25253199A JP25253199A JP2001076179A JP 2001076179 A JP2001076179 A JP 2001076179A JP 25253199 A JP25253199 A JP 25253199A JP 25253199 A JP25253199 A JP 25253199A JP 2001076179 A JP2001076179 A JP 2001076179A
Authority
JP
Japan
Prior art keywords
information
user
virtual space
scene
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP25253199A
Other languages
Japanese (ja)
Other versions
JP3338673B2 (en
Inventor
Masahito Kazama
政仁 風間
Hiroshi Yoshida
大史 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MULTITERM CO Ltd
Original Assignee
MULTITERM CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MULTITERM CO Ltd filed Critical MULTITERM CO Ltd
Priority to JP25253199A priority Critical patent/JP3338673B2/en
Publication of JP2001076179A publication Critical patent/JP2001076179A/en
Application granted granted Critical
Publication of JP3338673B2 publication Critical patent/JP3338673B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Computer And Data Communications (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To share the three-dimensional virtual space of a large scale and to execute various activities in it by selecting information on a part viewed from the eye of a user and optimizing information transmitted between a server and the user. SOLUTION: Object ID of a client is sent to a request management part 51 in accordance with a scene update request from a connection management part 31. ID returned from the request management part 51 is sent to an update history management part 23, received state update information is compared with the previous state of a local scene which it itself holds and the changed object is specified. An object parameter is received from an object parameter management part 21 by object ID and scene change information is generated based on the object parameter and an object position from a curling part 5. It is informed to the connection management part 31 and the state of the local scene is updated. The connection management part 31 receives scene change information from a local scene management part 32 and transmits it to a client 6-1.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元仮想空間共
有マルチユーザーシステムに関し、特に、大規模な3次
元仮想空間の共有しその中で多様な活動を行うことを可
能とするマルチユーザーシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multi-user system for sharing a three-dimensional virtual space, and more particularly to a multi-user system capable of sharing a large-scale three-dimensional virtual space and performing various activities therein. .

【0002】[0002]

【従来の技術】3次元コンピュータグラフィックス(以
下CGという)で表現された大規模な仮想空間を、複数
のユーザー(マルチユーザー)がネットワークを介して
共有するサービスは、新しいコミュニケーションの形と
して注目されており、いくつかのサービスが提供されて
いる。しかし、それらはいずれもチャット(文字による
会話)を主とした、非常に限定されたコミュニケーショ
ンしかとれないものに留まっている。
2. Description of the Related Art A service in which a plurality of users (multi-users) share a large-scale virtual space represented by three-dimensional computer graphics (hereinafter, referred to as CG) via a network has attracted attention as a new form of communication. And several services are provided. However, all of them are limited to very limited communication, mainly chatting.

【0003】そこで、より豊かなコミュニケーションを
行える仮想空間共有サービスが求められる。そのために
は、話をするだけでなく多様な活動ができ、ユーザーの
行動に応じて、刻一刻と周囲の環境やアバター(仮想空
間におけるユーザーの代理人)の状態が動的に変化する
空間であることが必要である。また、サービス提供側か
ら与えられた、万人向けの空間だけでなく、特定の興味
を持つ人達が、自分たちの興味に合わせて作り上げる空
間や、自分一人のためのプライベートな空間を一つのサ
ービスの中で共存させることも求められている。
[0003] Therefore, a virtual space sharing service capable of performing rich communication is demanded. To do so, we can not only talk but also perform a variety of activities, and in a space where the surrounding environment and avatar (user's agent in the virtual space) dynamically change every moment according to the user's behavior It is necessary to be. In addition to the space provided by the service provider for everyone, a space created by people with specific interests according to their interests and a private space for oneself It is also required that they coexist in a space.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、このよ
うなサービスを行うための仮想空間は、複雑で広大な物
理的構造とその状態を記述する多くの情報を持つ、非常
に大規模なものとなる。その一方、サーバーとユーザー
をつなぐ伝送路の能力は限られており、仮想空間の情報
全てを、ユーザーにストレスを与えることなくやり取り
することは事実上不可能である。よって、何らかの形で
伝送する情報を限定する必要がある。
However, a virtual space for providing such a service is a very large one having a complex and vast physical structure and a lot of information describing its state. . On the other hand, the capacity of the transmission path connecting the server and the user is limited, and it is virtually impossible to exchange all the information in the virtual space without stressing the user. Therefore, it is necessary to limit information to be transmitted in some form.

【0005】現存するサービスでも伝送情報の限定は行
われているが、それは、空間をいくつかの部分に区切
り、ユーザーがそのどの部分にいるかによって伝送する
情報を限定するのである。これでは、本来必要でない情
報(ユーザーの背景にある物体の情報など)までで伝送
されてしまい、サーバーとユーザー間でやり取りできる
有効な情報は、その一部のわずかなものとなってしま
う。その結果、小規模な仮想空間の共有しか実現できな
いため、限られた活動しか行えず、変化の少ない静的な
空間しか表現できないものとなっている。
[0005] Although existing services also limit transmission information, they divide the space into several parts and limit the information to be transmitted depending on which part of the user the user is in. In this case, information that is not originally required (such as information on an object in the background of the user) is transmitted, and effective information that can be exchanged between the server and the user is a small part of the effective information. As a result, since only a small virtual space can be shared, only limited activities can be performed, and only a static space with little change can be expressed.

【0006】そこで、本発明の目的は、各ユーザーの視
点から見える部分の情報を選択してサーバーとユーザー
との間で伝送する情報を最適化することにより、大規模
な3次元仮想空間を共有しその中で多様な活動を行うこ
とを可能とするマルチユーザーシステムを提供すること
にある。
Accordingly, an object of the present invention is to share a large-scale three-dimensional virtual space by optimizing information to be transmitted between a server and a user by selecting information in a portion visible from each user's viewpoint. Another object of the present invention is to provide a multi-user system that enables various activities to be performed therein.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明に係る3次元仮想空間共有マルチユーザー
システムは、3次元仮想空間通信サービスを行うサーバ
ーに通信回線を介して接続された複数のクライアントの
ユーザーが3次元コンピュータグラフィックスによる3
次元仮想空間を共有する3次元仮想空間共有マルチユー
ザーシステムにおいて、サーバーにおける処理は、各ク
ライアントのユーザーからのイベントを処理しそれに応
じて空間内のグローバルシーンの状態を更新する処理
と、各クライアント毎にそのユーザーの見ているローカ
ルシーン内における視点情報に基づきユーザー視域内の
複数のオブジェクトに関しカリングを行う処理と、カリ
ングにより生成されたローカルシーン変化情報を当該ク
ライアントに伝送する処理を含み、一方、当該クライア
ントにおける処理は、伝送された前記ローカルシーン変
化情報に基づき更新されるローカルシーンを描画する処
理を含むことを特徴とする。
In order to achieve the above object, a three-dimensional virtual space sharing multi-user system according to the present invention is connected via a communication line to a server for providing a three-dimensional virtual space communication service. Users of multiple clients can use 3D computer graphics
In a three-dimensional virtual space sharing multi-user system that shares a three-dimensional virtual space, processing at the server involves processing events from the users of each client and updating the state of the global scene in the space accordingly; Including the process of performing culling on a plurality of objects in the user's viewing area based on viewpoint information in the local scene that the user is watching, and transmitting the local scene change information generated by culling to the client, The processing in the client includes a processing of drawing a local scene updated based on the transmitted local scene change information.

【0008】3次元仮想空間を共有するクライアントの
あるユーザーが、ある時点で3次元仮想空間をユーザー
自身のディスプレイに描画する場合、グローバルシーン
を管理しているサーバーから受け取るオブジェクトに関
する情報のうちユーザー自身が見ているローカルシーン
の動的な変化情報以外の情報は、ユーザーが見ているロ
ーカルシーンに反映されない情報であり、いわばユーザ
ーに不必要な情報である。言いかえれば、そのユーザー
は、ユーザー自身が見ているローカルシーンの動的な変
化情報をサーバーからリアルタイムに受け取ることさえ
できれば、動的に変化する空間を共有することができる
のである。そこで、所定のカリング処理を行いクライア
ントに伝送する情報をユーザーの視点情報に基づいたロ
ーカルシーン変化情報に限定する。こうすることによ
り、伝送するオブジェクトに関する情報を真にそのユー
ザーに有効な情報に限定し、すなわち最適化し、効率的
な伝送を可能とする。これにより、限られた伝送路の能
力内で多様な情報のやり取りを可能とし、動的に変化す
る3次元仮想空間を共有するマルチユーザーシステムを
提供することができる。
When a certain user of a client sharing a three-dimensional virtual space draws the three-dimensional virtual space on his own display at a certain point in time, among the information about the objects received from the server managing the global scene, The information other than the dynamic change information of the local scene viewed by the user is information that is not reflected in the local scene viewed by the user, that is, information that is unnecessary for the user. In other words, the user can share the dynamically changing space as long as the user can receive the real-time dynamic change information of the local scene from the server in real time. Therefore, information to be transmitted to the client after performing a predetermined culling process is limited to local scene change information based on the viewpoint information of the user. In this way, the information about the object to be transmitted is limited to information that is truly effective for the user, that is, optimized, and efficient transmission is enabled. As a result, it is possible to provide a multi-user system capable of exchanging various kinds of information within a limited transmission path capability and sharing a dynamically changing three-dimensional virtual space.

【0009】カリングは、3次元CGにおいて描画処理
を高速に行うために、描画する必要のない(見えない)
オブジェクトを描画処理以前に取り除く処理として一般
に知られている。本発明では、このカリング処理を、サ
ーバーとユーザー間での伝送情報の制限に利用してお
り、各クライアントのユーザー毎にカリング処理をサー
バー側で行い、ユーザーが必要とする(ユーザーから見
える)オブジェクトに関する情報のみを伝送するように
している。
In culling, drawing is not necessary (not visible) in order to perform drawing processing at high speed in three-dimensional CG.
It is generally known as a process of removing an object before a rendering process. In the present invention, the culling process is used to limit transmission information between the server and the user. The culling process is performed on the server side for each user of each client, and the objects required by the user (visible to the user) Only the information about is transmitted.

【0010】[0010]

【発明の実施の形態】以下、本発明の好ましい実施の形
態を、図面に基づき説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0011】図1は、本発明の一実施の形態に係る3次
元仮想空間共有マルチユーザーシステムの機能ブロック
図であり、所定の3次元仮想空間通信サービスを行うサ
ーバー1とサービスの提供を受ける複数のクライアント
6−1、6−2、6−3、…を通信回線を介して接続し
たサーバークライアントシステムからなる。なお、説明
及び図示の便宜上クライアントは3つとしているが、本
発明はこれに限定されるものではない。
FIG. 1 is a functional block diagram of a three-dimensional virtual space sharing multi-user system according to an embodiment of the present invention. A server 1 for performing a predetermined three-dimensional virtual space communication service and a plurality of services to be provided are provided. , 6-2, 6-3,... Are connected via a communication line. Although the number of clients is three for convenience of explanation and illustration, the present invention is not limited to this.

【0012】本実施の形態に係るシステムでは、複数の
ユーザーが仮想空間を共有し、その中で多様なコミュニ
ケーションを行うことを可能とするために、サーバー内
のグローバルシーンと各クライアントにおけるローカル
シーンの状態を同期させる(リアルタイムで更新する)
機能と、ユーザーの視点から見える部分の情報だけを選
択してサーバーとユーザーとの間で伝送する情報を制限
(最適化)する機能を持つ。また、ユーザー間のコミュ
ニケーションはユーザー同士のイベントのやり取りとし
て扱われる。
In the system according to the present embodiment, in order to allow a plurality of users to share a virtual space and perform various communications in the virtual space, a global scene in a server and a local scene in each client are compared. Synchronize state (update in real time)
It has a function and a function to limit (optimize) the information transmitted between the server and the user by selecting only the information of the part visible from the user's viewpoint. Communication between users is treated as exchange of events between users.

【0013】以下、各部の機能について順を追って説明
する。
Hereinafter, the function of each section will be described step by step.

【0014】1.サーバーの機能 サーバー1では、仮想空間のShared Stateを実現するマ
ルチユーザーサーバーを構築する。Shared Stateとは、
各々のユーザーが見ている空間の一貫性を保ち、空間共
有を実現する技術をいい、サーバーはユーザーからのイ
ベントを処理し、それによる空間の状態の変化を全ての
ユーザーに伝えるものである。Shared Stateについて
は、例えば、Yoshiaki Araki,“VSPLUS: A High-Level
Multi-UserExtension Library For Interactive VRML W
orlds”, Third Symposium on Virtual Reality Modeli
ng Language, 1998に記述されているので参照された
い。
1. Server Function In the server 1, a multi-user server for realizing the shared state of the virtual space is constructed. What is Shared State?
A technology that maintains the coherence of the space seen by each user and achieves space sharing. A server processes events from users and communicates changes in the state of the space to all users. About Shared State, for example, Yoshiaki Araki, “VSPLUS: A High-Level
Multi-UserExtension Library For Interactive VRML W
orlds ”, Third Symposium on Virtual Reality Modeli
See ng Language, 1998.

【0015】本実施の形態において、サーバー1がクラ
イアント6−1、6−2、6−3、…から受け取るクラ
イアントメッセージは以下の情報を含む。・ メッセージを発生したクライアントのID…ユーザー
ID・ メッセージタイプ…移動、発言、アクション・ パラメータ…メッセージタイプによりパラメータの表
す内容は異なる。その関係を以下に示す。
In the present embodiment, the client message received by the server 1 from the clients 6-1, 6-2, 6-3,... Includes the following information. -ID of the client that generated the message-User ID-Message type-Movement, speech, action-Parameter-The contents represented by the parameter differ depending on the message type. The relationship is shown below.

【0016】[0016]

【表1】 [Table 1]

【0017】(1)クライアント管理部3−1 接続管理部31 (イ)新規接続時 クライアントを新規にシステムに接続する場合、クライ
アントからの接続要求、ユーザーID、パスワードを受
け取り、ユーザー管理DB内のレコードと照合する。適
合した場合は接続を受け付け、ユーザー管理DB内の初
期状態設定を元にシーン初期化情報を生成し、クライア
ントに伝送する。このときの接続管理部31の入出力は
次の通りである。
(1) Client Management Unit 3-1 Connection Management Unit 31 (a) At the time of a new connection When a client is newly connected to the system, a connection request from the client, a user ID and a password are received, and the client management DB in the user management DB is received. Match against a record. If they match, the connection is accepted, scene initialization information is generated based on the initial state settings in the user management DB, and transmitted to the client. The input and output of the connection management unit 31 at this time are as follows.

【0018】[0018]

【表2】 [Table 2]

【0019】(ロ)通常時 クライアントとの接続が確保された後の通常時は、クラ
イアントからのクライアントメッセージを受け取り、そ
のメッセージタイプの応じてイベント管理部4の各処理
部に、クライアントのオブジェクトID、ターゲットオ
ブジェクトID、パラメータを受け渡す。ここで、ター
ゲットオブジェクトIDとは、……である。また、ロー
カルシーン管理部32からシーン変化情報を受け取り、
クライアントに伝送すると共に、シーン更新頻度の設定
及びシーン更新情報の伝送状態からシーンの更新タイミ
ングを判断し、ローカルシーン管理部32に対しシーン
更新要求を送る。このとき接続管理部31の入出力は次
の通りである。
(B) Normal Time In a normal time after the connection with the client is secured, a client message from the client is received, and each processing unit of the event management unit 4 sends the object ID of the client according to the message type. , Target object ID, and parameters. Here, the target object ID is ... Also, scene change information is received from the local scene management unit 32,
In addition to transmitting to the client, the scene update timing is determined from the setting of the scene update frequency and the transmission state of the scene update information, and a scene update request is sent to the local scene management unit 32. At this time, the input and output of the connection management unit 31 are as follows.

【0020】[0020]

【表3】 [Table 3]

【0021】ローカルシーン管理部32 接続管理部32からのシーン更新要求に応じて、後述す
るカリング部5内のリクエスト管理部53にクライアン
トのオブジェクトIDを送る。その後、リクエスト管理
部53から返ってきたオブジェクトIDを、後述するグ
ローバルシーン管理部2内の更新履歴管理部23に送
り、受け取った状態更新情報と自ら保持する以前のロー
カルシーンの状態とを比較することで状態が変化したオ
ブジェクトを特定する。それらのオブジェクトのIDを
グローバルシーン管理部2内のオブジェクトパラメータ
管理部21に送り、オブジェクトパラメータを受け取
る。このパラメータと後述するカリング部5からのオブ
ジェクト位置を元にシーン変化情報を生成し、接続管理
部31に通知すると共にローカルシーンの状態を更新す
る。ローカルシーン管理部32の入出力は次の通りであ
る。
In response to a scene update request from the connection manager 32, the local scene manager 32 sends the client object ID to a request manager 53 in the culling unit 5 described later. After that, the object ID returned from the request management unit 53 is sent to the update history management unit 23 in the global scene management unit 2 described below, and the received state update information is compared with the state of the local scene before being held by itself. Identify the object whose state has changed. The IDs of these objects are sent to the object parameter management unit 21 in the global scene management unit 2 and the object parameters are received. Based on this parameter and an object position from the culling unit 5 described later, scene change information is generated, notified to the connection management unit 31, and updated the state of the local scene. The inputs and outputs of the local scene management unit 32 are as follows.

【0022】[0022]

【表4】 [Table 4]

【0023】(2)イベント管理部4 イベント管理部は、イベント生成部41、発言処理部4
2、アクション処理部43、及び移動処理部44の4つ
の機能実現部からなる。
(2) Event Management Unit 4 The event management unit includes the event generation unit 41 and the comment processing unit 4
2. It is composed of four function realizing units: an action processing unit 43 and a movement processing unit 44.

【0024】イベント生成部41 グローバルシーン管理部2内のパラメータ管理部21及
びジオメトリ管理部22にそれぞれオブジェクトIDを
送り、オブジェクト位置、オブジェクトパラメータを受
け取る。それらの情報が予め設定された条件を満たして
いるかどうかをチェックし、条件が満たされた場合は、
自動的にイベントメッセージを生成し、イベント管理部
4の各イベント処理部に向けてメッセージを送る。イベ
ント生成部41での入出力は次の通りである。
The event generation unit 41 sends an object ID to the parameter management unit 21 and the geometry management unit 22 in the global scene management unit 2, and receives an object position and an object parameter. Check whether the information meets the preset conditions, and if the conditions are met,
An event message is automatically generated, and the message is sent to each event processing unit of the event management unit 4. The input and output at the event generator 41 are as follows.

【0025】[0025]

【表5】 [Table 5]

【0026】発言処理部42 接続管理部31やイベント生成部41から発言を行った
オブジェクトのID、発言パラメータを受け取り、発言
パラメータに含まれる発言内容及び制御コードに基づい
て発言オブジェクトのパラメータを変更し、オブジェク
トパラメータ管理部21に通知する。発言処理部42で
の入出力は次の通りである。
The utterance processing unit 42 receives the ID of the uttered object and the utterance parameter from the connection management unit 31 and the event generation unit 41, and changes the parameters of the utterance object based on the content of the utterance and the control code included in the utterance parameter. , To the object parameter management unit 21. The input and output at the comment processing unit 42 are as follows.

【0027】[0027]

【表6】 [Table 6]

【0028】アクション処理部43 接続管理部31やイベント生成部41からクライアント
オブジェクトID、ターゲットオブジェクトID、アク
ションパラメータを受け取る。アクション定義データベ
ースの中から受け取ったターゲットオブジェクトIDに
対するレコードを選び出し、記述されたアクションの定
義に従いクライアントのオブジェクトID、アクション
パラメータによるターゲットオブジェクトのパラメータ
変化を求め、オブジェクトパラメータ管理部22に通知
する。アクション処理部43の入出力は次の通りであ
る。
The action processing unit 43 receives a client object ID, a target object ID, and an action parameter from the connection management unit 31 and the event generation unit 41. A record for the received target object ID is selected from the action definition database, and a parameter change of the target object according to the client's object ID and action parameters is obtained in accordance with the described action definition, and is notified to the object parameter management unit 22. The input / output of the action processing unit 43 is as follows.

【0029】[0029]

【表7】 [Table 7]

【0030】移動処理部44 接続管理部31やイベント生成部41からオブジェクト
ID、移動パラメータを受け取る。グローバルシーン管
理部2内のオブジェクトジオメトリ管理部22にオブジ
ェクトIDを送り、オブジェクト位置を受け取る。この
オブジェクト位置に対した移動パラメータに応じた移動
処理を行い、更新された位置をオブジェクト管理に返
す。移動処理部44の入出力は次の通りである。
The movement processing unit 44 receives an object ID and a movement parameter from the connection management unit 31 and the event generation unit 41. The object ID is sent to the object geometry management unit 22 in the global scene management unit 2, and the object position is received. The moving process according to the moving parameter for the object position is performed, and the updated position is returned to the object management. The input / output of the movement processing unit 44 is as follows.

【0031】[0031]

【表8】 [Table 8]

【0032】(3)グローバルシーン管理部2 グローバルシーン管理部2は、オブジェクトパラメータ
管理部21とオブジェクトジオメトリ管理部22と、更
新履歴管理部23からなる。
(3) Global Scene Management Unit 2 The global scene management unit 2 includes an object parameter management unit 21, an object geometry management unit 22, and an update history management unit 23.

【0033】オブジェクトパラメータ管理部21 シーン内のオブジェクトのパラメータを管理するオブジ
ェクトパラメータDBの管理を行う。具体的には、アク
ション処理部42、発言処理部43からオブジェクトI
D、パラメータ変化を受け取り、オブジェクトパラメー
タDB内のオブジェクトIDに対応するレコードのパラ
メータ情報を更新し、更新履歴管理部23に情報が更新
されたオブジェクトのIDを知らせる。また、イベント
生成部41、ローカルシーン管理部32からオブジェク
トIDを受け取り、そのIDに対するオブジェクトパラ
メータDB内のレコードを取り出し、オブジェクトパラ
メータを返す。オブジェクトパラメータ管理部21の入
出力は次の通りである。
The object parameter management unit 21 manages an object parameter DB for managing parameters of objects in a scene. Specifically, the action processing unit 42 and the remark processing unit 43
D, receives the parameter change, updates the parameter information of the record corresponding to the object ID in the object parameter DB, and notifies the update history management unit 23 of the ID of the object whose information has been updated. Further, it receives an object ID from the event generation unit 41 and the local scene management unit 32, extracts a record in the object parameter DB corresponding to the ID, and returns an object parameter. The input and output of the object parameter management unit 21 are as follows.

【0034】[0034]

【表9】 [Table 9]

【0035】オブジェクトジオメトリ管理部22 シーン内のオブジェクトの位置、概形、クライアントの
視点情報、オクルーダ(オクルージョンを生じさせるオ
ブジェクト)情報を管理するオブジェクトジオメトリD
Bの管理を行う。具体的には、つぎの処理を行う。
Object geometry management unit 22 An object geometry D that manages the position and outline of an object in a scene, viewpoint information of a client, and occluder (object causing occlusion) information.
B is managed. Specifically, the following processing is performed.

【0036】(イ)移動処理部44からオブジェクトI
D、オブジェクト位置を受け取りオブジェクトジオメト
リDB内のオブジェクトIDに対応するレコードの位置
情報を更新し、更新履歴管理部23に情報が更新された
オブジェクトのIDを知らせる。
(A) The object I from the movement processing unit 44
D, receives the object position, updates the position information of the record corresponding to the object ID in the object geometry DB, and notifies the update history management unit 23 of the ID of the object whose information has been updated.

【0037】(ロ)イベント生成部41からオブジェク
トIDを受け取り、それに対応するオブジェクト位置を
オブジェクトジオメトリDBから選び出し、イベント生
成部41に返す。
(B) The object ID is received from the event generator 41, the corresponding object position is selected from the object geometry DB, and returned to the event generator 41.

【0038】(ハ)リクエスト管理部53からクライア
ントのオブジェクトIDを受け取り、対応する視点情報
を返す。
(C) The client object ID is received from the request management unit 53, and the corresponding viewpoint information is returned.

【0039】(ニ)後述するビューフラスタムカリング
部52からオブジェクトIDを受け取り、対応するオブ
ジェクト位置、オブジェクト概形を渡す。
(D) The object ID is received from the view frustum culling unit 52 described later, and the corresponding object position and object outline are passed.

【0040】(ホ)また、やはり後述するオクルージョ
ンカリング部53からクライアントのオブジェクトID
を受け取り、それに対応する視点情報を選び出す。オブ
ジェクトジオメトリDBに保持されているオクルーダ情
報の中からこの視点情報に合致するレコードを選択し、
オクルージョンカリング部53にオクルーダIDを返
す。
(E) The object ID of the client is obtained from the occlusion culling unit 53 also described later.
And select corresponding viewpoint information. From the occluder information held in the object geometry DB, select a record that matches this viewpoint information,
The occluder ID is returned to the occlusion culling unit 53.

【0041】以上のオブジェクトジオメトリ管理部22
の入出力を整理すると次の通りである。
The above object geometry management unit 22
The following is a summary of the input and output of.

【0042】[0042]

【表10】 [Table 10]

【0043】更新履歴管理部23 シーン内のオブジェクトの状態の更新状況を記録する更
新履歴DBを管理する。すなわち、オブジェクトジオメ
トリ管理部22やオブジェクトパラメータ管理部21か
ら、情報が更新されたオブジェクトのIDを受け取り、
そのIDに対応するレコードの更新タイムスタンプの履
歴を更新・保持する。また、ローカルシーン管理部32
からオブジェクトIDを受け取り、そのIDに対応する
オブジェクトの状態更新時間を返す。更新履歴管理部2
3の入出力は次の通りである。
Update history management unit 23 manages an update history DB that records the update status of the state of an object in a scene. That is, the ID of the object whose information has been updated is received from the object geometry management unit 22 or the object parameter management unit 21,
The history of the update time stamp of the record corresponding to the ID is updated and held. The local scene management unit 32
, And returns the state update time of the object corresponding to the ID. Update history management unit 2
The input / output of 3 is as follows.

【0044】[0044]

【表11】 [Table 11]

【0045】(4)カリング部5 カリング部は、リクエスト管理部51と、ビューフラス
タムカリング部52と、オクルージョンカリング部53
からなり、クライアント毎にそのユーザーの見ているロ
ーカルシーン内における視点情報に基づきユーザー視域
内の複数のオブジェクトに関しカリング処理を行う。こ
こでのカリング処理は、ユーザーの視域を仮想空間内に
設定しその範囲に含まれないオブジェクトを描画処理前
に取り除くビューフラスタムカリングと、その処理の結
果に対して手前にあるオブジェクトの陰に隠れて見えな
くなっているオブジェクトを描画処理前に取り除くオク
ルージョンカリングを含む。後者のオクルージョンカリ
ングについては、例えば、Hansong Zhang, “Effective
Occlusion Culling for the Interactive Displayof A
rbitrary Models”, Department of Computer Science,
UNC-Chapel Hill,July 1998に記述されているので参照
されたい。
(4) Culling Unit 5 The culling unit includes a request management unit 51, a view frustum culling unit 52, and an occlusion culling unit 53.
The culling process is performed on a plurality of objects in the user's visual field based on the viewpoint information in the local scene viewed by the user for each client. Here, the culling process is a view frustum culling in which the user's view is set in the virtual space and objects not included in the range are removed before the drawing process, and the result of the process is shaded by the object in front. Includes occlusion culling that removes objects that are hidden behind the scene before drawing. For the latter occlusion culling, see, for example, Hansong Zhang, “Effective
Occlusion Culling for the Interactive Displayof A
rbitrary Models ”, Department of Computer Science,
See UNC-Chapel Hill, July 1998 for a description.

【0046】リクエスト管理部51 ローカルシーン管理部32からクライアントIDを受け
取り、それに対応する視点情報をオブジェクトジオメト
リ管理部22から取得する。この視点情報をビューフラ
スタムカリング部52に渡し、その結果オクルージョン
カリング部53から戻ってきたオブジェクトIDとオブ
ジェクト位置をローカルシーン管理部32に返す。リク
エスト管理部51の入出力は次の通りである。
The request management unit 51 receives the client ID from the local scene management unit 32 and acquires viewpoint information corresponding to the client ID from the object geometry management unit 22. The viewpoint information is passed to the view frustum culling unit 52, and as a result, the object ID and the object position returned from the occlusion culling unit 53 are returned to the local scene management unit 32. The input / output of the request management unit 51 is as follows.

【0047】[0047]

【表12】 [Table 12]

【0048】ビューフラスタムカリング部52 リクエスト管理部51から受け取った視点情報を元にビ
ューフラスタム(その視点から見える範囲)を仮想空間
内に設定する。オブジェクトの階層構造を表すシーング
ラフをトラバースしてオブジェクトIDをオブジェクト
ジオメトリ管理部22に送る。オブジェクトジオメトリ
管理部22から受け取ったオブジェクト位置、オブジェ
クト概形を持つオブジェクトがビューフラスタムに含ま
れるかどうかを判定し、含まれると判定されたオブジェ
クトのオブジェクトIDとオブジェクト位置、及び視点
情報をオクルージョンカリング部53に渡す。ビューフ
ラスタムカリング部52の入出力は次の通りである。
The view frustum culling unit 52 sets a view frustum (a range visible from the viewpoint) in the virtual space based on the viewpoint information received from the request management unit 51. The object ID is sent to the object geometry management unit 22 by traversing the scene graph representing the hierarchical structure of the object. It determines whether the object having the object position and the object outline received from the object geometry management unit 22 is included in the view frustum, and occludes the object ID and the object position of the object determined to be included and the viewpoint information. Hand over to section 53. The input / output of the view frustum culling unit 52 is as follows.

【0049】[0049]

【表13】 [Table 13]

【0050】オクルージョンカリング部53 ビューフラスタムカリング部52から受け取った視点情
報をオブジェクトジオメトリ管理部22に送りオクルー
ダIDを受け取る。オクルーダIDとビューフラスタム
カリング部52からのオブジェクトIDを比較し、一致
するものについて、そのオブジェクトの陰になる範囲を
オブジェクト位置、オブジェクト概形及び視点情報を元
に求める。この範囲に他のオブジェクトが含まれるかど
うかを判定し、含まれると判定されたオブジェクトを取
り除く。その結果残ったオブジェクトのオブジェクトI
D、オブジェクト位置をローカルシーン管理部32に送
る。オクルージョンカリング部53の入出力は次の通り
である。
The occlusion culling unit 53 sends the viewpoint information received from the view frustum culling unit 52 to the object geometry management unit 22 and receives an occluder ID. The occluder ID is compared with the object ID from the view frustum culling unit 52, and, for a match, the range in which the object is shaded is determined based on the object position, object outline, and viewpoint information. It is determined whether another object is included in the range, and the object determined to be included is removed. Object I of the remaining object
D, Send the object position to the local scene management unit 32. The input and output of the occlusion culling unit 53 are as follows.

【0051】[0051]

【表14】 [Table 14]

【0052】上述したサーバーの機能によれば、接続管
理部31はローカルシーン管理部32からシーン変化情
報を受け取りクライアントに伝送する。この際、カリン
グ部5に含まれるビューフラスタムカリングとオクルー
ジョンカリングを経ることにより、シーン変化情報を、
ユーザーから見える部分のローカルシーンについてのみ
のオブジェクトに関する情報に限定しているので、効率
的な伝送が可能となる。
According to the server function described above, the connection manager 31 receives the scene change information from the local scene manager 32 and transmits it to the client. At this time, scene change information is obtained through view frustum culling and occlusion culling included in the culling unit 5.
Since the information is limited to the information on the object only for the local scene in the part visible to the user, efficient transmission is possible.

【0053】2.クライアントの機能 次に、各クライアント6−1、6−2、6−3の機能に
ついて説明する。クライアント6−1は、接続管理部6
1、入力ハンドリング部62、ターゲット判定部63、
視点移動部64、ローカルシーン管理部65、フキダシ
レイアウト部66、及びシーン描画部67を含む。
2. Function of Client Next, the function of each client 6-1, 6-2, 6-3 will be described. The client 6-1 is connected to the connection management unit 6
1, an input handling unit 62, a target determination unit 63,
It includes a viewpoint moving section 64, a local scene management section 65, a balloon layout section 66, and a scene drawing section 67.

【0054】接続管理部61 (イ)新規接続時 サーバーに接続要求、ユーザーID、パスワードを送
り、接続が受けつけられた後に送られてくるシーン初期
化情報をローカルシーン管理部65に渡す。新規接続時
の入出力は次の通りである。
Connection management unit 61 (a) At the time of new connection A connection request, a user ID and a password are sent to the server, and the scene initialization information sent after the connection is accepted is passed to the local scene management unit 65. Input / output at the time of new connection is as follows.

【0055】[0055]

【表15】 [Table 15]

【0056】(ロ)通常時 後述する入力ハンドリング部62からの入力イベントメ
ッセージ、ターゲット判定からのターゲットオブジェク
トIDを元にクライアントメッセージを生成し、サーバ
ー1に送る。また、サーバーから送られてきたシーン変
化情報をローカルシーン管理部65に渡す。通常時の入
出力は次の通りである。
(B) Normal time A client message is generated based on an input event message from the input handling unit 62 to be described later and a target object ID from the target determination, and sent to the server 1. Also, the scene change information sent from the server is passed to the local scene management unit 65. The input / output during normal operation is as follows.

【0057】[0057]

【表16】 [Table 16]

【0058】入力ハンドリング部62 入力ハンドリング部は入力インターフェースを構築し、
マウス、キーボードからの入力パラメータを受け取る。
入力パラメータからの入力のタイプを判定し、それぞれ
のタイプに応じた入力イベントメッセージを生成し、接
続管理部61に送る。また、入力タイプがアクションの
場合にはマウスポインタ位置をターゲット判定部63
に、発言の場合は発言パラメータをローカルシーン管理
部65に、移動の場合は移動パラメータを視点移動部6
4にそれぞれ送る。ここでの入出力は次の通りである。
Input Handling Unit 62 The input handling unit constructs an input interface,
Receives input parameters from mouse and keyboard.
The type of the input from the input parameter is determined, and an input event message corresponding to each type is generated and sent to the connection management unit 61. If the input type is action, the position of the mouse pointer is
In the case of remark, the remark parameter is stored in the local scene management unit 65.
4 each. The input and output here are as follows.

【0059】[0059]

【表17】 [Table 17]

【0060】ターゲット判定部63 ローカルシーン管理部65から受け取ったオブジェクト
位置と視点情報からオブジェクトの画面上での表示位置
を求め、これを入力ハンドリング部6からのマウスポイ
ンタ位置と比較することで、アクション対象となるオブ
ジェクトを判定し、そのオブジェクトのID(ターゲッ
トオブジェクトID)を接続管理部61に送る。ここで
の入出力は次の通りである。
The target determination unit 63 determines the display position of the object on the screen from the object position and the viewpoint information received from the local scene management unit 65, and compares this with the mouse pointer position from the input handling unit 6 to perform the action. The target object is determined, and the ID of the object (target object ID) is sent to the connection management unit 61. The input and output here are as follows.

【0061】[0061]

【表18】 [Table 18]

【0062】視点移動部64 入力ハンドリング部62から受け取った移動パラメータ
を元に、ローカルシーン管理部65からの視点情報に対
し移動処理を行い、新たな視点情報をローカルシーン管
理部65に返す。ここでの入出力は次の通りである。
Based on the movement parameters received from the input handling unit 62, the viewpoint moving unit 64 performs movement processing on the viewpoint information from the local scene management unit 65, and returns new viewpoint information to the local scene management unit 65. The input and output here are as follows.

【0063】[0063]

【表19】 [Table 19]

【0064】ローカルシーン管理部65 ユーザーが見ている仮想空間の状態情報を保持するロー
カルシーンDBを管理する。接続管理部61からシーン
変化情報、入力ハンドリング部62からの発言パラメー
タ、視点移動部64からの視点情報を元にローカルシー
ンDB内のオブジェクトの情報を更新する。次いで、ロ
ーカルシーンDBから各オブジェクトの情報を取り出
し、ターゲット判定部63に視点情報、オブジェクトI
D、オブジェクト位置を、後述するフキダシレイアウト
部66にオブジェクト位置と発言パラメータを、そして
やはり後述するシーン描画部67にオブジェクト形状情
報をそれぞれ送る。ここでの入出力は以下の通りであ
る。
The local scene management unit 65 manages a local scene DB holding state information of the virtual space viewed by the user. The object information in the local scene DB is updated based on the scene change information from the connection management unit 61, the speech parameter from the input handling unit 62, and the viewpoint information from the viewpoint moving unit 64. Next, information of each object is extracted from the local scene DB, and the target determination unit 63 outputs the viewpoint information and the object I
D, the object position, the object position and the speech parameter to the balloon layout unit 66 described later, and the object shape information to the scene drawing unit 67 also described later. The input and output here are as follows.

【0065】[0065]

【表20】 [Table 20]

【0066】フキダシレイアウト部66 ローカルシーン管理部65からユーザー自身や他のユー
ザーの発言パラメータと各ユーザーバターのオブジェク
ト位置を受け取り、それらを表示するためのフキダシ
を、見やすくかつ誰が何を話しているのか分かるよう、
画面の中で適切にレイアウトする。このフキダシレイア
ウトを後述するシーン描画部67に渡す。ここでの入出
力は次の通りである。
Balloon layout section 66 receives the user's own or other user's speech parameters and the object position of each user butter from local scene management section 65, and displays balloons for displaying them in an easy-to-read manner and who is talking about what. As you can see,
Layout properly on the screen. This balloon layout is passed to a scene drawing section 67 described later. The input and output here are as follows.

【0067】[0067]

【表21】 [Table 21]

【0068】シーン描画部67 ローカルシーン管理部65からオブジェクト形状情報を
受け取り、それを元にローカルシーン画像を生成する。
また、フキダシレイアウト部66からフキダシレイアウ
ト情報を元にフキダシ画像を生成し、ローカルシーン画
像に重ねる。こうして生成された出力画像をディスプレ
イに表示する。ここでの入出力は次の通りである。
The scene drawing section 67 receives object shape information from the local scene management section 65 and generates a local scene image based on the object shape information.
Also, a balloon image is generated from the balloon layout unit 66 based on the balloon layout information, and is superimposed on the local scene image. The output image thus generated is displayed on a display. The input and output here are as follows.

【0069】[0069]

【表22】 [Table 22]

【0070】クライアント6−1がサーバー1から受け
取るシーン変化情報は、1.サーバーの機能の項で説明
したように、ユーザーから見える部分のローカルシーン
についてのみのオブジェクトに関する情報に限定されて
いる。しかしながら、クライアントは、ユーザーが見て
いる仮想空間の状態情報を保持するローカルシーンDB
を管理するローカルシーン管理部65を有しているの
で、そこから描画に必要なオブジェクト形状情報を受け
取ることで、動的な空間をディスプレイに表示すること
ができる。
The scene change information that the client 6-1 receives from the server 1 includes: As described in the section of the server function, information on an object is limited only to a local scene in a portion visible to a user. However, the client has a local scene DB that holds the state information of the virtual space that the user is looking at.
, A dynamic space can be displayed on the display by receiving object shape information necessary for drawing from the local scene management unit 65.

【0071】本実施の形態に係る3次元仮想空間共有マ
ルチユーザーシステムにおいて、サーバーとクライアン
ト間で伝送するローカルシーン変化情報の制限は、サー
バーによるカリング処理に加えて、ユーザーの視点から
オブジェクトまでの距離に応じて伝送する情報を増減さ
せる処理を行うようにしてもよい。ユーザーの視点から
遠いオブジェクトほど、そのオブジェクトに関する詳細
な情報は、動的な空間を描画する上で必要性が低くなる
からである。
In the three-dimensional virtual space sharing multi-user system according to this embodiment, the local scene change information transmitted between the server and the client is restricted by the distance from the user's viewpoint to the object in addition to the culling process by the server. May be performed to increase or decrease the information to be transmitted according to. This is because the more distant an object is from the user's viewpoint, the less detailed information about the object is required to draw a dynamic space.

【0072】また、カリングを細かな単位で(例えばポ
リゴンやオブジェクトのパーツの単位として)行うと、
伝送すべきオブジェクトに関する情報の精度は向上する
が、サーバーの負荷が増大する。逆に、低い精度(オブ
ジェクトのグループ単位)のカリングを行った場合は、
余分な情報を伝送してしまったり、表示される画像の品
質が低下したりといった状況が生じる場合がある。そこ
で、システムの望ましい仕様に応じてカリングを行う単
位を適切に設定する。
When culling is performed in fine units (for example, in units of polygons and object parts),
The accuracy of the information about the objects to be transmitted is improved, but the load on the server increases. Conversely, if you cull with low precision (per group of objects)
There may be situations where extra information is transmitted or the quality of the displayed image is reduced. Therefore, the culling unit is appropriately set according to the desired specifications of the system.

【0073】一方、サーバーとユーザー間の情報のやり
取りにより仮想空間が更新される頻度と、伝送できる空
間情報の多様性とはトレードオフの関係にある。そこ
で、ユーザーに不快感を与えずにより多様な情報を伝送
するための更新頻度を適正に設定する。
On the other hand, there is a trade-off between the frequency at which the virtual space is updated due to the exchange of information between the server and the user and the diversity of spatial information that can be transmitted. Therefore, the update frequency for transmitting various information without giving the user any discomfort is appropriately set.

【0074】本実施の形態に係る3次元仮想空間共有マ
ルチユーザーシステムは、通常のUNIXをプラットフ
ォームとするサーバーとMicrosoft Windows(マイクロ
ソフト社の商標)をプラットフォームとするパーソナル
コンピュータとを通信回線で接続したコンピュータネッ
トワークにより実現でき、TCP/IPプロトコルのネ
ットワークであるインターネットでも容易に実現可能で
ある。
The three-dimensional virtual space sharing multi-user system according to the present embodiment is a computer in which a server using a normal UNIX platform and a personal computer using Microsoft Windows (a trademark of Microsoft Corporation) as a platform are connected by a communication line. It can be realized by a network, and can be easily realized by the Internet which is a network of the TCP / IP protocol.

【0075】なお、本発明は上記した実施の形態に限定
されるものではなく、特許請求の範囲に記載した技術思
想の範囲内において種々の変更が可能なのはいうまでも
ない。
The present invention is not limited to the above-described embodiment, and it goes without saying that various changes can be made within the scope of the technical idea described in the claims.

【0076】[0076]

【発明の効果】以上説明したように、本発明による3次
元仮想空間共有マルチユーザーシステムによれば、伝送
するオブジェクトに関する情報を真に各ユーザーに有効
な情報に限定し、すなわち最適化し、効率的な伝送を可
能とする。これにより、限られた伝送路の能力内で多様
な情報のやり取りを可能とし、動的に変化する3次元仮
想空間を共有するマルチユーザーシステムを提供するこ
とができることから、産業界に与える意義は極めて大で
ある。
As described above, according to the three-dimensional virtual space sharing multi-user system according to the present invention, the information on the object to be transmitted is limited to the information that is truly effective for each user, that is, the information is optimized and efficiently used. Transmission is possible. As a result, it is possible to exchange various information within a limited transmission path capability, and to provide a multi-user system that shares a dynamically changing three-dimensional virtual space. Very large.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態に係る3次元仮想空間共
有マルチユーザーシステムの機能ブロック図。
FIG. 1 is a functional block diagram of a three-dimensional virtual space sharing multi-user system according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 サーバー 2 グローバルシーン管理部 3−1、3−2、3−3 クライアント管理部 4 イベント管理部 5 カリング部 6−1、6−2、6−3 クライアント 1 server 2 global scene management unit 3-1, 3-2, 3-3 client management unit 4 event management unit 5 culling unit 6-1, 6-2, 6-3 client

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA09 CA07 CA08 EA26 FA02 FA06 5B089 GA11 GA21 JA17 JB03 KA08 KB04 LB17 5C082 AA01 AA34 BB01 CB01 DA22 DA87 MM05  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B050 BA09 CA07 CA08 EA26 FA02 FA06 5B089 GA11 GA21 JA17 JB03 KA08 KB04 LB17 5C082 AA01 AA34 BB01 CB01 DA22 DA87 MM05

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 3次元仮想空間通信サービスを行うサー
バーに通信回線を介して接続された複数のクライアント
のユーザーが3次元コンピュータグラフィックスによる
3次元仮想空間を共有する3次元仮想空間共有マルチユ
ーザーシステムにおいて、前記サーバーにおける処理
は、各クライアントのユーザーからのイベントを処理し
それに応じて空間内のグローバルシーンの状態を更新す
る処理と、各クライアント毎にそのユーザーの見ている
ローカルシーン内における視点情報に基づきユーザー視
域内の複数のオブジェクトに関しカリングを行う処理
と、カリングにより生成されたローカルシーン変化情報
を当該クライアントに伝送する処理を含み、一方、当該
クライアントにおける処理は、伝送された前記ローカル
シーン変化情報に基づき更新されるローカルシーンを描
画する処理を含むことを特徴とする3次元仮想空間共有
マルチユーザーシステム。
1. A three-dimensional virtual space sharing multi-user system in which users of a plurality of clients connected via a communication line to a server performing a three-dimensional virtual space communication service share a three-dimensional virtual space by three-dimensional computer graphics. In the server, the processing of processing the event from the user of each client and updating the state of the global scene in the space accordingly, and the viewpoint information in the local scene that the user sees for each client And a process of transmitting the local scene change information generated by the culling to the client, while the process in the client includes transmitting the local scene change. Based on information A three-dimensional virtual space sharing multi-user system including a process of drawing a local scene to be updated.
【請求項2】 前記カリング処理は、ユーザーの視域を
仮想空間内に設定しその範囲に含まれないオブジェクト
を描画処理前に取り除くビューフラスタムカリングと、
その処理の結果に対して手前にあるオブジェクトの陰に
隠れて見えなくなっているオブジェクトを描画処理前に
取り除くオクルージョンカリングとからなることを特徴
とする請求項第1項記載の3次元仮想空間共有マルチユ
ーザーシステム。
2. The frustum culling, wherein the culling process sets a user's viewing zone in a virtual space and removes objects not included in the range before a rendering process.
2. The multi-dimensional shared virtual space according to claim 1, further comprising: occlusion culling for removing an object that is hidden behind the object in front of the object and becomes invisible before the drawing processing. User system.
JP25253199A 1999-09-07 1999-09-07 3D virtual space sharing multi-user system Expired - Fee Related JP3338673B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25253199A JP3338673B2 (en) 1999-09-07 1999-09-07 3D virtual space sharing multi-user system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25253199A JP3338673B2 (en) 1999-09-07 1999-09-07 3D virtual space sharing multi-user system

Publications (2)

Publication Number Publication Date
JP2001076179A true JP2001076179A (en) 2001-03-23
JP3338673B2 JP3338673B2 (en) 2002-10-28

Family

ID=17238675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25253199A Expired - Fee Related JP3338673B2 (en) 1999-09-07 1999-09-07 3D virtual space sharing multi-user system

Country Status (1)

Country Link
JP (1) JP3338673B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141131A (en) * 2001-10-31 2003-05-16 Nippon Telegr & Teleph Corp <Ntt> Time-space model distributing system and index generating method for time-space model, model distributing server, model display client, model distributing server control method, model display client control method, model distributing server control program, model display client control program and recording medium having the programs recorded therein
US7134961B2 (en) 2001-08-28 2006-11-14 Kabushiki Kaisha Square Enix Management of player information in a multiplayer network game environment
JP2010537348A (en) * 2007-08-30 2010-12-02 ハリス コーポレイション Geospatial data system and related methods for selectively reading and displaying geospatial texture data in successive layers of resolution
JP2011508338A (en) * 2007-12-26 2011-03-10 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッド Efficient state management for graphics pipelines
JP2011065644A (en) * 2009-09-15 2011-03-31 Palo Alto Research Center Inc System for interaction with object in virtual environment
KR101953567B1 (en) * 2017-11-03 2019-03-04 서울과학기술대학교 산학협력단 Method for postprocessing contents in virtual reallity services
KR101953578B1 (en) * 2017-10-19 2019-03-04 서울과학기술대학교 산학협력단 Method and apparatus for contents generation in cloud based virtual reallity services
JP2021530024A (en) * 2018-06-18 2021-11-04 マジック リープ, インコーポレイテッドMagic Leap,Inc. Centralized rendering
JP2021531699A (en) * 2018-07-24 2021-11-18 マジック リープ, インコーポレイテッドMagic Leap, Inc. Application sharing

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7134961B2 (en) 2001-08-28 2006-11-14 Kabushiki Kaisha Square Enix Management of player information in a multiplayer network game environment
JP2003141131A (en) * 2001-10-31 2003-05-16 Nippon Telegr & Teleph Corp <Ntt> Time-space model distributing system and index generating method for time-space model, model distributing server, model display client, model distributing server control method, model display client control method, model distributing server control program, model display client control program and recording medium having the programs recorded therein
JP2010537348A (en) * 2007-08-30 2010-12-02 ハリス コーポレイション Geospatial data system and related methods for selectively reading and displaying geospatial texture data in successive layers of resolution
JP2011508338A (en) * 2007-12-26 2011-03-10 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッド Efficient state management for graphics pipelines
US8826294B2 (en) 2007-12-26 2014-09-02 Advanced Micro Devices, Inc. Efficient state management system
JP2011065644A (en) * 2009-09-15 2011-03-31 Palo Alto Research Center Inc System for interaction with object in virtual environment
KR101817467B1 (en) * 2009-09-15 2018-01-11 팔로 알토 리서치 센터 인코포레이티드 System for interacting with objects in a virtual environment
KR101953578B1 (en) * 2017-10-19 2019-03-04 서울과학기술대학교 산학협력단 Method and apparatus for contents generation in cloud based virtual reallity services
KR101953567B1 (en) * 2017-11-03 2019-03-04 서울과학기술대학교 산학협력단 Method for postprocessing contents in virtual reallity services
JP2021530024A (en) * 2018-06-18 2021-11-04 マジック リープ, インコーポレイテッドMagic Leap,Inc. Centralized rendering
JP7411585B2 (en) 2018-06-18 2024-01-11 マジック リープ, インコーポレイテッド Centralized rendering
JP2021531699A (en) * 2018-07-24 2021-11-18 マジック リープ, インコーポレイテッドMagic Leap, Inc. Application sharing

Also Published As

Publication number Publication date
JP3338673B2 (en) 2002-10-28

Similar Documents

Publication Publication Date Title
US9589380B2 (en) Avatar-based unsolicited advertisements in a virtual universe
US6219045B1 (en) Scalable virtual world chat client-server system
US20030120823A1 (en) Client system for implementing 3-dimensional virtual reality and method for implementing virtual reality using same
US9724610B2 (en) Creation and prioritization of multiple virtual universe teleports in response to an event
KR20080074860A (en) Systems and methods for providing an online lobby
US11465059B2 (en) Non-player game communication
US5784570A (en) Server for applying a recipient filter and compressing the input data stream based upon a set of at least one characteristics in a multiuser interactive virtual environment
US20050253872A1 (en) Method and system for culling view dependent visual data streams for a virtual environment
JP3338673B2 (en) 3D virtual space sharing multi-user system
CN114697755A (en) Virtual scene information interaction method, device, equipment and storage medium
JPH1040232A (en) Communication device
KR20140103881A (en) System and method for providing social network emoticon using 3d character
CN106411688A (en) Method of displaying pendant object in user head portrait area and apparatus thereof
US11790588B2 (en) Display control device, display control method, and display system
JP3484348B2 (en) Shared object control method in 3D shared virtual space communication service, client terminal device, 3D shared virtual space communication system, and program recording medium of client terminal device
KR100312747B1 (en) Networked Multi-User Dimension three dimensional graphic virtual reality system
JP3257459B2 (en) Shared virtual space simple two-dimensional interface realizing method, client system having the interface, and storage medium storing the interface program
CN106534099A (en) Three-dimensional processing method, device and system
CN100456749C (en) Method and system for providing dynamic graphic display for user based on instantaneous communication platform
CN115955542B (en) Online meta-space simulated meeting place seating control method, system and storage medium
Roberts Communication infrastructures for inhabited information spaces
JP7265085B1 (en) Information processing system, information processing method, and program
JP3512973B2 (en) A method for realizing a shared object in three-dimensional shared virtual space communication
US10786744B1 (en) Messaging service
CN117812070A (en) Information processing method, terminal, server, electronic device, and storage medium

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080809

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080809

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080809

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090809

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100809

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100809

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110809

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120809

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130809

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130809

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130809

Year of fee payment: 11

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350