JPH11120375A - Client device, image display control method, device and method for common virtual space provision, and transmission medium - Google Patents
Client device, image display control method, device and method for common virtual space provision, and transmission mediumInfo
- Publication number
- JPH11120375A JPH11120375A JP9303403A JP30340397A JPH11120375A JP H11120375 A JPH11120375 A JP H11120375A JP 9303403 A JP9303403 A JP 9303403A JP 30340397 A JP30340397 A JP 30340397A JP H11120375 A JPH11120375 A JP H11120375A
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- client device
- avatar
- life object
- experience
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Computer And Data Communications (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、クライアント装
置、画像表示制御方法、共有仮想空間提供装置および方
法、並びに伝送媒体に関し、特に、各ユーザが、共有仮
想空間における分身としてのアバタの共有仮想空間にお
ける経験を認識できるようにした、クライアント装置、
画像表示制御方法、共有仮想空間提供装置および方法、
並びに伝送媒体に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a client device, an image display control method, an apparatus and method for providing a shared virtual space, and a transmission medium, and in particular, each user can share an avatar as an alter ego in the shared virtual space. Client device, which can recognize the experience in
Image display control method, shared virtual space providing apparatus and method,
And a transmission medium.
【0002】[0002]
【従来の技術】従来、NIFTY-Serve(商標)や米国のCom
puServe(商標)などのように、複数の利用者が自らの
パーソナルコンピュータを、モデムおよび公衆電話回線
網を介してセンターのホストコンピュータに接続し、所
定の通信プロトコルに基づいてホストコンピュータにア
クセスする、いわゆるパソコン通信サービスの分野にお
いては、Habitat(商標)と呼ばれるサイバースペース
のサービスが知られている。2. Description of the Related Art Conventionally, NIFTY-Serve (trademark) and Com
A plurality of users, such as puServe (trademark), connect their personal computers to a center host computer via a modem and a public telephone network, and access the host computer based on a predetermined communication protocol. In the field of so-called personal computer communication services, a cyberspace service called Habitat (trademark) is known.
【0003】Habitatは、米国LucasFilm社によって1985
年から開発が始められ、米国商業ネットワークであるQu
antumLink社で約3年間運用された後、1990年2月に富士
通Habitat(商標)としてNIFTY-Serveでそのサービスが
開始されたものである。このHabitatにおいては、2次元
グラフィックスで描画された「ポピュロポリス(Populo
polis)」と呼ばれる仮想の都市に、アバタ(avatar;
インド神話に登場する神の化身)と呼ばれるユーザの分
身を送り込み、ユーザ同士がチャット(Chat;文字の入
力と表示によるテキストベースでのリアルタイムの対
話)などを行うことができる。このHabitatの更に詳細
な説明については、サイバースペース,マイケル・ベネ
ディクト編,1994年3月20日初版発行,NTT出版 ISBN
4−87188−265−9C0010(原著;Cyberspace:First Ste
ps ,Michael Benedikt,ed. 1991,MIT PressCambrige,MA
ISBN0−262−02327−X)第282頁乃至第307頁を参照さ
れたい。[0003] Habitat was established in 1985 by LucasFilm of the United States.
Quark, a U.S. commercial network,
After operating for about three years at antumLink, the service was launched on NIFTY-Serve in February 1990 as Fujitsu Habitat (trademark). In this Habitat, “Populopolis” drawn in two-dimensional graphics
polis) "in a virtual city called avatar;
By sending in alternations of users called incarnations of God that appear in Indian mythology, users can chat with each other (Chat; text-based real-time dialogue by inputting and displaying characters). For a more detailed description of Habitat, see Cyberspace, Michael Benedict, March 20, 1994, first edition, NTT Publishing ISBN
4-87188-265-9C0010 (Original; Cyberspace: First Ste)
ps, Michael Benedikt, ed. 1991, MIT PressCambrige, MA
ISBN 0-262-02327-X) pp. 282-307.
【0004】この種のパソコン通信サービスで運用され
ている従来のサイバースペースシステムにおいては、仮
想的な街並みや部屋の内部の様子が2次元グラフィック
スで描画されており、アバタを奥行きまたは手前方向へ
移動させる場合、単にアバタを2次元グラフィックスの
背景上で上下に移動させるだけであり、仮想空間内での
歩行や移動を疑似体験させるには表示の上での表現力が
乏しかった。また、自分の分身であるアバタと他人のア
バタが表示された仮想空間を、第3者の視点で見ること
になるため、この点においても、疑似体験の感覚が損な
われるものであった。In a conventional cyberspace system operated by this kind of personal computer communication service, a virtual cityscape or the inside of a room is drawn in two-dimensional graphics, and the avatar is moved in the depth or front direction. When moving, the avatar was simply moved up and down on the background of the two-dimensional graphics, and the simulated experience of walking and moving in the virtual space was poor in expressiveness on the display. In addition, since the virtual space in which the avatar of one's alter ego and the avatar of another person are displayed is viewed from the viewpoint of a third party, the sense of the simulated experience is impaired also in this point.
【0005】そこで、特開平9-81781号公報に開示され
ているように、仮想空間を3次元グラフィックスで表示
し、ユーザがアバタの視点で自由に歩き回れる機能が、
VRML(Virtual Reality Modeling Language)と呼ばれる3
次元グラフィクス・データの記述言語を利用することに
よって実現されている。また、ユーザの代理となるアバ
タを用いてチャットを行う種々のサイバースペースの考
察に関しては、日経エレクトロニクス1996.9.9(no.670)
の第151頁乃至159頁に記載されている。Therefore, as disclosed in Japanese Patent Application Laid-Open No. 9-81781, a function of displaying a virtual space in three-dimensional graphics so that a user can freely walk around from the viewpoint of an avatar has been proposed.
VRML (Virtual Reality Modeling Language) 3
This is realized by using a description language of dimensional graphics data. Regarding various cyberspaces where chats are performed using avatars on behalf of users, see Nikkei Electronics 1996.9.9 (no.670)
Pp. 151-159.
【0006】ところで、本出願人は、特願平9-171196号
として、サイバースペース内におけるアバタの滞在時間
に対応して、アバタの外形を変化させることを提案し
た。これにより、各ユーザは、そのアバタのサイバース
ペース内における滞在時間を、その外形から類推するこ
とができる。The applicant of the present invention has proposed, as Japanese Patent Application No. 9-171196, to change the outer shape of an avatar in accordance with the staying time of the avatar in cyberspace. Thereby, each user can infer the staying time of the avatar in the cyber space from the outer shape.
【0007】[0007]
【発明が解決しようとする課題】しかしながら、アバタ
の外形の変化はわずかであり、各ユーザが、他のユーザ
のアバタの外見を見て、そのアバタのサイバースペース
における経験を類推することは困難である。従って、各
ユーザは、他のユーザのアバタを見て、そのアバタに対
応するユーザが、どのような趣味をもっているのか判断
することができなかった。However, changes in the avatar's outer shape are slight, and it is difficult for each user to look at the appearance of another user's avatar and to analogize the avatar's experience in cyberspace. is there. Therefore, each user cannot see the avatar of another user and determine what kind of hobby the user corresponding to the avatar has.
【0008】その結果、各ユーザは、サイバースペース
内において、自分と同一の体験をした他のユーザとチャ
ットを行いたいと考えたとしても、どのアバタのユーザ
が同一の体験をしているのかが不明であり、同一の趣味
を有する仲間を探すことが困難である課題があった。As a result, even if each user wants to chat with other users who have the same experience in cyberspace, it is difficult to determine which avatar user has the same experience. There is a problem that it is unknown and it is difficult to find a friend having the same hobby.
【0009】本発明はこのような状況に鑑みてなされた
ものであり、簡単かつ確実に、他のユーザのアバタのサ
イバースペース内における経験を類推することができる
ようにするものである。The present invention has been made in view of such a situation, and it is an object of the present invention to easily and surely infer the experience of another user's avatar in cyberspace.
【0010】[0010]
【課題を解決するための手段】請求項1に記載のクライ
アント装置は、共有仮想空間内に存在するユーザの分身
としての仮想生命オブジェクトの、所定のイベントの発
生に応じて変化する経験パラメータを管理する経験パラ
メータテーブルを記憶する記憶手段と、自己の分身とし
ての仮想生命オブジェクトの経験パラメータをサーバを
介して他のクライアント装置に転送する転送手段と、他
のクライアント装置からサーバを介して転送されてきた
経験パラメータに基づいて、仮想生命オブジェクトを修
飾するスクリプトを解釈する解釈手段と、解釈手段の解
釈に基づいて、経験パラメータに応じた仮想生命オブジ
ェクトを表示させるように制御する制御手段とを備える
ことを特徴とする。According to the present invention, there is provided a client apparatus for managing an experience parameter of a virtual life object as an alter ego of a user existing in a shared virtual space, which changes according to occurrence of a predetermined event. Storage means for storing an experience parameter table to be transferred, transfer means for transferring the experience parameter of the virtual life object as its own self to another client device via the server, and transfer from another client device via the server. Interpreting means for interpreting a script that modifies the virtual life object based on the experienced parameter, and control means for controlling display of the virtual life object according to the experience parameter based on the interpretation of the interpreting means. It is characterized by.
【0011】請求項8に記載の画像表示制御方法は、共
有仮想空間内に存在するユーザの分身としての仮想生命
オブジェクトの、所定のイベントの発生に応じて変化す
る経験パラメータを管理する経験パラメータテーブルを
記憶する記憶ステップと、自己の分身としての仮想生命
オブジェクトの経験パラメータをサーバを介して他のク
ライアント装置に転送する転送ステップと、他のクライ
アント装置からサーバを介して転送されてきた経験パラ
メータに基づいて、仮想生命オブジェクトを修飾するス
クリプトを解釈する解釈ステップと、解釈ステップでの
解釈に基づいて、経験パラメータに応じた仮想生命オブ
ジェクトを表示させるように制御する制御ステップとを
備えることを特徴とする。An image display control method according to an eighth aspect of the present invention provides an experience parameter table for managing experience parameters of a virtual life object as an alter ego of a user existing in a shared virtual space, which change according to occurrence of a predetermined event. A transfer step of transferring the experience parameter of the virtual life object as a self-alteration to another client device via the server, and an experience parameter transferred from the other client device via the server. An interpretation step of interpreting a script that modifies the virtual life object based on the interpretation step, and a control step of controlling to display the virtual life object according to the experience parameter based on the interpretation in the interpretation step, I do.
【0012】請求項9に記載の伝送媒体は、共有仮想空
間内に存在するユーザの分身としての仮想生命オブジェ
クトの、所定のイベントの発生に応じて変化する経験パ
ラメータを管理する経験パラメータテーブルを記憶する
記憶ステップと、自己の分身としての仮想生命オブジェ
クトの経験パラメータをサーバを介して他のクライアン
ト装置に転送する転送ステップと、他のクライアント装
置からサーバを介して転送されてきた経験パラメータに
基づいて、仮想生命オブジェクトを修飾するスクリプト
を解釈する解釈ステップと、解釈ステップでの解釈に基
づいて、経験パラメータに応じた仮想生命オブジェクト
を表示させるように制御する制御ステップとを備えるコ
ンピュータプログラムを伝送することを特徴とする。[0012] According to a ninth aspect of the present invention, the transmission medium stores an experience parameter table for managing experience parameters of a virtual life object existing in a shared virtual space, which change as a predetermined event occurs, of a virtual life object as an alter ego of a user. Based on the experience parameter transferred from the other client device via the server to the other client device via the server, the transfer step of transferring the experience parameter of the virtual life object as a self-self to the other client device Transmitting a computer program comprising: an interpretation step of interpreting a script for modifying a virtual life object; and a control step of controlling to display a virtual life object according to the experience parameter based on the interpretation in the interpretation step. It is characterized by.
【0013】請求項10に記載の共有仮想空間提供装置
は、第1のクライアント装置が、共有仮想空間内に存在
するユーザの分身としての仮想生命オブジェクトが共有
仮想空間において得点を取得したとき送信した、その得
点の累積値に対応する経験パラメータを受信する受信手
段と、受信手段が受信した経験パラメータを、第2のク
ライアント装置に転送する転送手段とを備えることを特
徴とする。According to a tenth aspect of the present invention, in the shared virtual space providing apparatus, the first client device transmits when a virtual life object as an alter ego of a user existing in the shared virtual space acquires a score in the shared virtual space. Receiving means for receiving an empirical parameter corresponding to the accumulated value of the score, and transfer means for transferring the empirical parameter received by the receiving means to the second client device.
【0014】請求項11に記載の共有仮想空間提供方法
は、第1のクライアント装置が、共有仮想空間内に存在
するユーザの分身としての仮想生命オブジェクトが共有
仮想空間において得点を取得したとき送信した、その得
点の累積値に対応する経験パラメータを受信する受信ス
テップと、受信ステップで受信した経験パラメータを、
第2のクライアント装置に転送する転送ステップとを備
えることを特徴とする。In the shared virtual space providing method according to the present invention, the first client device transmits when the virtual life object as the alter ego of the user existing in the shared virtual space acquires a score in the shared virtual space. Receiving the experience parameter corresponding to the accumulated value of the score, and the experience parameter received in the receiving step,
Transferring to the second client device.
【0015】請求項12に記載の伝送媒体は、第1のク
ライアント装置が、共有仮想空間内に存在するユーザの
分身としての仮想生命オブジェクトが共有仮想空間にお
いて得点を取得したとき送信した、その得点の累積値に
対応する経験パラメータを受信する受信ステップと、受
信ステップで受信した経験パラメータを、第2のクライ
アント装置に転送する転送ステップとを備えるコンピュ
ータプログラムを伝送することを特徴とする。According to a twelfth aspect of the present invention, in the transmission medium, the first client device transmits a virtual life object as an alter ego of a user existing in the shared virtual space, when the virtual life object acquires a score in the shared virtual space. And transmitting a computer program comprising: a receiving step of receiving an empirical parameter corresponding to the accumulated value of the above; and a transferring step of transferring the empirical parameter received in the receiving step to a second client device.
【0016】請求項1に記載のクライアント装置、請求
項8に記載の画像表示制御方法、および請求項9に記載
の伝送媒体においては、他のクライアント装置からサー
バを介して転送されてきた経験パラメータに基づいて、
仮想生命オブジェクトを修飾するスクリプトが解釈され
る。そして、解釈結果に基づいて、経験パラメータに応
じて仮想生命オブジェクトが修飾されるように表示され
る。In the client device according to the first aspect, the image display control method according to the eighth aspect, and the transmission medium according to the ninth aspect, the empirical parameters transferred from another client device via the server. On the basis of,
A script that modifies the virtual life object is interpreted. Then, based on the interpretation result, the virtual life object is displayed so as to be modified according to the experience parameter.
【0017】請求項10に記載の共有仮想空間提供装
置、請求項11に記載の共有仮想空間提供方法、および
請求項12に記載の伝送媒体においては、共有仮想空間
において取得した得点の累積値に対応する経験パラメー
タが第1のクライアント装置から送信されてきたとき、
これが受信され、第2のクライアント装置に転送され
る。In the apparatus for providing a shared virtual space according to the tenth aspect, the method for providing a shared virtual space according to the eleventh aspect, and the transmission medium according to the twelfth aspect, the accumulated value of the scores acquired in the shared virtual space is When the corresponding experience parameter is sent from the first client device,
This is received and forwarded to the second client device.
【0018】[0018]
【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。但
し勿論この記載は、各手段を記載したものに限定するこ
とを意味するものではない。DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below. In order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, each means is described. When the features of the present invention are described by adding the corresponding embodiment (however, an example) in parentheses after the parentheses, the result is as follows. However, of course, this description does not mean that each means is limited to those described.
【0019】請求項1に記載のクライアント装置は、共
有仮想空間内に存在するユーザの分身としての仮想生命
オブジェクトの、所定のイベントの発生に応じて変化す
る経験パラメータを管理する経験パラメータテーブルを
記憶する記憶手段(例えば、図4のHDD31)と、自己
の分身としての仮想生命オブジェクトの経験パラメータ
をサーバを介して他のクライアント装置に転送する転送
手段(例えば、図4のモデム39)と、他のクライアン
ト装置からサーバを介して転送されてきた経験パラメー
タに基づいて、仮想生命オブジェクトを修飾するスクリ
プトを解釈する解釈手段(例えば、図4のJavaによる経
験スクリプトプログラム)と、解釈手段の解釈に基づい
て、経験パラメータに応じた仮想生命オブジェクトを表
示させるように制御する制御手段(例えば、図4のグラ
フィックス処理回路43)とを備えることを特徴とす
る。[0019] The client device according to the first aspect of the present invention stores an experience parameter table for managing experience parameters of a virtual life object as an alter ego of a user existing in a shared virtual space, which change in accordance with occurrence of a predetermined event. Storage means (for example, the HDD 31 in FIG. 4), transfer means (for example, the modem 39 in FIG. 4) for transferring the experience parameter of the virtual life object as its own self to another client device via the server, Interpreting means for interpreting a script for modifying a virtual life object based on experience parameters transferred from a client device via a server (for example, an experience script program using Java in FIG. 4), and interpreting means Control to display the virtual life object according to the experience parameter. (For example, the graphics processing circuit 43 in FIG. 4).
【0020】請求項10に記載の共有仮想空間提供装置
は、第1のクライアント装置が、共有仮想空間内に存在
するユーザの分身としての仮想生命オブジェクトが共有
仮想空間において得点を取得したとき送信した、その得
点の累積値に対応する経験パラメータを受信する受信手
段(例えば、図10のステップS11)と、受信手段が
受信した経験パラメータを、第2のクライアント装置に
転送する転送手段(例えば、図10のステップS12)
とを備えることを特徴とする。According to a tenth aspect of the present invention, in the shared virtual space providing apparatus, the first client device transmits when the virtual life object as the alter ego of the user existing in the shared virtual space obtains a score in the shared virtual space. Receiving means (for example, step S11 in FIG. 10) for receiving the experience parameter corresponding to the accumulated value of the score, and transfer means (for example, FIG. 10) for transferring the experience parameter received by the receiving means to the second client device. Ten steps S12)
And characterized in that:
【0021】以下、図面を参照し、本発明の実施の形態
について説明する。Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
【0022】説明に先立ち、世界的規模で構築されたコ
ンピュータネットワークであるインターネット(The Int
ernet)において、様々な情報を提供するWWW(world wide
web)の枠組みを利用して3次元的な情報を統一的に扱
うことができる記述言語であるVRML(virtual reality m
odeling language)について説明する。Prior to the description, the Internet (The Int) which is a computer network constructed on a worldwide scale
ernet) to provide a variety of information
VRML (virtual reality m) is a description language that can handle three-dimensional information in a unified manner using the framework of (web).
odeling language).
【0023】ここで、インターネットで利用できる情報
提供システムとして、スイスのCERN(European Center
for Nuclear Research:欧州核物理学研究所)が開発し
たWWWが知られている。これは、テキスト、画像、音声
などの情報をハイパーテキスト形式で閲覧できるように
したもので、HTTP(Hyper Text Transfer Protocol)と呼
ばれるプロトコルに基づいて、WWWサーバに格納された
情報をパーソナルコンピュータなどの端末に非同期転送
するものである。Here, as an information providing system that can be used on the Internet, Swiss CERN (European Center)
WWW developed by European Nuclear Physics Research Institute is known. This allows information such as text, images, and audio to be viewed in a hypertext format.In accordance with a protocol called HTTP (Hyper Text Transfer Protocol), information stored in a WWW server can be This is to perform asynchronous transfer to the terminal.
【0024】WWWサーバは、HTTPデーモン(HTTP:Hyper
Text Transfer Protocol、ハイパーテキスト転送プロト
コル)と呼ばれるサーバ・ソフトウエアとハイパーテキ
スト情報が格納されるHTMLファイルによって構成され
る。なお、デーモンとは、UNIX上で作業を行う場合、バ
ックグラウンドで管理や処理を実行するプログラムを意
味する。ハイパーテキスト情報は、HTML(HyperText Ma
rkup Language、ハイパーテキスト記述言語)と呼ばれ
る記述言語によって表現される。HTMLによるハイパーテ
キストの記述は、「<」と「>」で囲まれたタグと呼ば
れる書式指定によって文章の論理的な構造が表現され
る。他の情報とのリンクについての記述は、アンカーと
呼ばれるリンク情報によって行われる。アンカーによっ
て情報が存在する所を指定する際には、URL(Uniform Re
source Locator)が用いられる。The WWW server is an HTTP daemon (HTTP: Hyper)
It consists of server software called Text Transfer Protocol (Hypertext Transfer Protocol) and HTML files that store hypertext information. Note that a daemon means a program that performs management and processing in the background when working on UNIX. Hypertext information is HTML (HyperText Ma
rkup Language (hypertext description language). In the description of hypertext in HTML, the logical structure of a sentence is expressed by a format specification called a tag surrounded by “<” and “>”. Description of a link to other information is made by link information called an anchor. When specifying the location where the information exists by the anchor, use URL (Uniform Re
source Locator) is used.
【0025】HTMLで記述されたファイルを、TCP/IP(Tra
nsmission Control Protocol/Internet Protocol)ネッ
トワーク上において転送するためのプロトコルがHTTPで
ある。クライアントからの情報の要求をWWWサーバに伝
え、HTMLファイルのハイパーテキスト情報をクライアン
トに転送する機能をもっている。A file described in HTML is transferred to TCP / IP (Tra
The protocol for transferring data on a network (nsmission Control Protocol / Internet Protocol) is HTTP. It has a function to transmit the information request from the client to the WWW server and to transfer the hypertext information of the HTML file to the client.
【0026】WWWを利用する環境として多く利用されて
いるのが、WWWブラウザ(ブラウザとは閲覧するという
意味)と呼ばれる、Netscape Navigator(米国Netscape
Communications社の商標)をはじめとするクライアン
ト・ソフトウエアである。A WWW browser that is often used as an environment for using the WWW is called a WWW browser (a browser means browsing).
Communications software) and other client software.
【0027】このWWWブラウザを用いて、URLに対応する
世界規模で広がるインターネット上のWWWサーバ上のフ
ァイル、いわゆるホームページを閲覧することができ、
いわゆるネットサーフィンと呼ばれるように、リンクが
張られたホームページを次々と辿って、多種多様なWWW
の情報ソースにアクセスすることができる。Using this WWW browser, it is possible to browse files on a WWW server on the Internet, which corresponds to a URL, on the Internet, so-called home pages,
As it is called so-called Internet surfing, a wide variety of WWWs are traversed by linked home pages one after another.
Can access information sources.
【0028】近年、このWWWをさらに拡張し、3次元空間
の記述や、3次元グラフィックスで描画されたオブジェ
クトに対してハイパーテキストのリンクの設定を可能と
し、これらのリンクをたどりながらWWWサーバを次々と
アクセスできるようにしたVRMLと呼ばれる3次元グラフ
ィックス記述言語で記述された3次元空間を表示するVR
MLブラウザが開発されている。In recent years, this WWW has been further extended to enable description of a three-dimensional space and setting of hypertext links for objects drawn with three-dimensional graphics, and to follow a WWW server while following these links. VR that displays a three-dimensional space described in a three-dimensional graphics description language called VRML that can be accessed one after another
An ML browser has been developed.
【0029】このVRMLの詳細は、例えば、「VRMLを知
る:3次元電脳空間の構築とブラウジング〔マーク・ペ
ッシ著,松田晃一・蒲地輝尚・竹内彰一・本田康晃・暦
本純一・石川真之・宮下健・原和弘訳,1996年3月
25日初版発行,プレンティスホール出版ISBN4-931356
-37-0〕(原著;VRML:Browsing & Building Cyberspac
e,Mark Pesce, 1995 New Readers Publishing ISBN 1-5
6205-498-8))」、および「VRMLの最新動向とCybe
rPassage〔松田晃一・本田康晃著、bit(共
立出版)/1996 Vol.28 No.7 pp29 乃至pp36, No.8 pp5
7 乃至pp65, No.9pp29 乃至pp36, No.10 pp49乃至pp5
8〕」等の文献に記載されている。The details of this VRML are described in, for example, “Knowing VRML: Construction and Browsing of a Three-Dimensional Cyberspace [by Mark Pessi, Koichi Matsuda, Teruhisa Kamachi, Shoichi Takeuchi, Yasuaki Honda, Junichi Korumoto, Masayuki Ishikawa, Translated by Ken Miyashita and Kazuhiro Hara, first edition published on March 25, 1996, Prentice Hall Publishing ISBN4-931356
-37-0] (Original; VRML: Browsing & Building Cyberspac
e, Mark Pesce, 1995 New Readers Publishing ISBN 1-5
6205-498-8)) ”and“ VRML latest trends and Cybe ”
rPassage [Koichi Matsuda and Yasuaki Honda, bit (Kyoritsu Shuppan) / 1996 Vol.28 No.7 pp29-pp36, No.8 pp5
7 to pp65, No.9 pp29 to pp36, No.10 pp49 to pp5
8] ”.
【0030】また、 August 4, 1996における The Virt
ual Reality Modeling Language Version 2.0, ISO/IE
C CD 14772の公式かつ完全な仕様書は、http://webspac
e.sgi.com/moving-worlds/spec/index.htmlで公開され
ており、その日本語版は、http://www.webcity.co.jp/i
nfo/andoh/VRML/vrml2.0/spec-jp/index.htmlで公開さ
れている。Also, The Virt in August 4, 1996
ual Reality Modeling Language Version 2.0, ISO / IE
The official and complete specification of CCD 14772 can be found at http: // webspac
It is published at e.sgi.com/moving-worlds/spec/index.html, and its Japanese version is http://www.webcity.co.jp/i
It is published at nfo / andoh / VRML / vrml2.0 / spec-jp / index.html.
【0031】さらに、VRML2.0用ブラウザおよび共有
サーバ用ソフトウェアとしては、例えば、本出願人であ
るソニー株式会社が「Community Place Browser / Bure
au(商標)」として開発し、製品化しており、そのβ版
(試供版)を、インターネット上のホームページhttp:/
/vs.sony co.jpからダウンロード可能としている。Further, as a browser for VRML 2.0 and software for a shared server, for example, Sony Corporation, which is the applicant of the present invention, describes “Community Place Browser / Bure”.
au (trademark) "and commercialized, and its beta version (trial version) is
It can be downloaded from /vs.sony co.jp.
【0032】このようなVRML2.0を用いて3次元的な
仮想空間を構築しようとする場合、まず、VRMLにより仮
想空間内の物体(モデル)の形、動きおよび位置等を示
す図形データの作成(モデル作成)、ユーザが画面表示
された仮想空間内のモデルを、例えば、マウスでクリッ
クしてポインティングした場合にイベントを発生させる
スイッチ(センサ)のモデルへの付加(センサ付加)、
センサへのポインティングに応じて発生するイベントを
実現するスクリプトのプログラミング(スクリプト作
成)、センサーに対する操作とスクリプトの起動等、図
形データおよびスクリプト(以下、図形データ、スクリ
プトおよびVRMLに規定されているライト等のコモンノー
ド等を総称してノードとも記す)の間の対応付け(ルー
ティング)などによって所望のコンテンツを表現するVR
MLファイルを作成する。When a three-dimensional virtual space is to be constructed using VRML 2.0, first, creation of graphic data indicating the shape, movement, position, etc. of an object (model) in the virtual space by VRML. (Model creation), adding a switch (sensor) to the model that generates an event when the user clicks and points the model in the virtual space displayed on the screen (sensor addition),
Programming of scripts (script creation) to realize events that occur in response to pointing to sensors, operation of sensors and activation of scripts, graphic data and scripts (graphic data, scripts, lights defined in VRML, etc.) VR that expresses desired content by associating (routing) between common nodes etc.
Create an ML file.
【0033】例えば、http://www.ses.co.jp/SES/STAFF
/kan/howto/howto1.htmlには、VRML2.0の書き方、サン
プルデータなど、丁寧に解説されている。その一部を紹
介すると、以下の通りである。For example, http://www.ses.co.jp/SES/STAFF
/kan/howto/howto1.html explains carefully how to write VRML 2.0 and sample data. Some of them are introduced below.
【0034】1.VRML2.0で書かれたワールドを見るには HTML形式で書かれたデータを見るためにHTMLブラウザが
必要なように、VRML2.0形式で書かれたデータを見るた
めにはVRML2.0に対応したVRMLブラウザが必要となる。
尚、このページで作成したVRML2.0のデータは全てSONY
社製のCommunity Place Browserで行なわれている。ま
た、ファイルがVRMLで書かれたことを表すためにファイ
ルの拡張子を*.wrl(ワールドの意)に、更にVRML2.0で
書かれたことを表すためにファイルの1行目に #VRML V2.0 utf8 と書くことが必要である。1. Viewing a World Written in VRML 2.0 Just as an HTML browser is needed to view data written in HTML format, to view data written in VRML 2.0 format, A VRML browser compatible with VRML 2.0 is required.
All VRML 2.0 data created on this page is SONY
This is being done at the Community Place Browser. To indicate that the file was written in VRML, the file extension was set to * .wrl (meaning world), and to indicate that it was written in VRML 2.0, the first line of the file was #VRML It is necessary to write V2.0 utf8.
【0035】2.VRML2.0データの基本構造 VRML2.0のデータはノード(Node)とフィールド(Field)で
構成されていて、基本的に次のような形で書かれてい
る。 Node { Field(s) } この中でFieldsは省略することができるが、Nodeと中か
っこ'{','}'は省略することができない。フィールドは
ノードに変数を渡し、ノードのパラメータを指定しま
す。フィールドを省略した場合、デフォルト値が用いら
れる。また、フィールドには単一の値しか持たない「単
一値フィールド(SF)」と複数の値を持つ「複値フィール
ド(MF)」があり、単一値フィールドの名前は"SF"で、複
値フィールドは"MF"で始まるようになっている。2. Basic Structure of VRML2.0 Data VRML2.0 data is composed of nodes and fields, and is basically written in the following form. Node {Field (s)} In this, Fields can be omitted, but Node and curly braces '{', '}' cannot be omitted. Fields pass variables to nodes and specify parameters for nodes. If the field is omitted, the default value will be used. There are two types of fields: "single-value field (SF)" that has only a single value and "multi-value field (MF)" that has multiple values. The name of the single-value field is "SF". Multi-valued fields begin with "MF".
【0036】3.球の書き方 VRML2.0では球や直方体、円柱、円錐などの基本図形を
描くためのノードが用意されている。前にも書いている
が、それぞれのノードはパラメータを指定するためのフ
ィールドを持っている。例えば、球を描くためのSphere
ノードは半径を指定するためのradiusというフィールド
を持っており、次のように書くことで半径1の球を表示
する。尚、radiusフィールドのデータタイプは、SFFloa
tですから、1つの浮動小数点数の値をとる。3. How to Write a Sphere VRML2.0 provides nodes for drawing basic figures such as a sphere, a rectangular parallelepiped, a cylinder, and a cone. As mentioned earlier, each node has a field for specifying parameters. For example, Sphere for drawing a sphere
The node has a radius field to specify the radius, and a sphere with a radius of 1 is displayed by writing as follows. The data type of the radius field is SFFloa
So it takes one floating point value.
【0037】Sample1 1: #VRML V2.0 utf8 2: Transform { 3: children [ 4: Shape { 5: geometry Sphere { radius 1 } 6: } 7: ] 8: }Sample11: #VRML V2.0 utf8 2: Transform {3: children [4: Shape {5: geometry Sphere {radius 1} 6:} 7:] 8:}
【0038】実は2,3行目、7,8行目は書かなくてもかま
いません。1行目と4行目乃至6行目だけで、きちんと半
径1の球を表示できる。Transformノードは、Groupノー
ドという種類のノードの1つで、文字通りノードのグル
ープ化を行うためのノードである。Transformノードを
含めて、以後でてくる他のノードの詳しい機能やフィー
ルドなどは「Appendix1:VRML2.0Node List」を参照さ
れたい。球を書くためのノードはSphereであるが、この
ノードはGeometryノードを呼ばれるノードの1つであ
る。Geometryノードは、見え方と形状を定義するShape
ノードのgeometryフィールドに書く必要がある。In fact, lines 2 and 3 and lines 7 and 8 need not be written. Only the first line and the fourth to sixth lines can display a sphere with a radius of 1 properly. The Transform node is one of the types of nodes called Group nodes, and is a node for literally grouping nodes. Refer to "Appendix 1: VRML2.0 Node List" for detailed functions and fields of other nodes including the Transform node. The node for writing the sphere is Sphere, and this node is one of the nodes called the Geometry node. Geometry node is a Shape that defines appearance and shape
Must be written in the geometry field of the node.
【0039】4.球に色を付ける 先ほどの球に色を付けるには次のように書く。 Sample2 1: #VRML V2.0 utf8 2: Transform { 3: children [ 4: Shape { 5: appearance Appearance { 6: material Material { diffuseColor 1 0 0 } 7: } 8: geometry Sphere { radius 1 } 9: } 10: ] 11: }4. Coloring the Sphere To color the sphere, write as follows. Sample2 1: #VRML V2.0 utf8 2: Transform {3: children [4: Shape {5: appearance Appearance {6: material Material {diffuseColor 1 0 0} 7:} 8: geometry Sphere {radius 1} 9:} 10:] 11:}
【0040】この球は赤色で表示される。追加されたの
は5行目乃至7行目までである。diffuseColorフィールド
のデータタイプは、SFColorであるから、RGBカラーを表
す3つの単精度浮動小数点数の組を1つだけ持つ。見え
方を定義するMaterialノードはAppearanceノードのmate
rialフィールドに書くことになっています。また、Appe
aranceノードはShapeノードのappearanceフィールドに
書くことになっている。このためこのような一見複雑な
構造になっている。This sphere is displayed in red. Lines 5 to 7 are added. Since the data type of the diffuseColor field is SFColor, it has only one set of three single-precision floating-point numbers representing RGB colors. The Material node that defines the appearance is the mate of the Appearance node
It is to be written in the rial field. Appe
The arance node is to be written in the appearance field of the Shape node. Therefore, such a seemingly complicated structure is obtained.
【0041】5.テクスチャの張り付け オブジェクトに色を付けるだけではなくて画像ファイル
を張り付けることもできる。VRML2.0でテクスチャとし
て利用できるファイルフォーマットはJPEG,GIF,PNGであ
る。ここでは予め用意したGIFイメージを使っている。 Sample3 1: #VRML V2.0 utf8 2: Transform { 3: children [ 4: Shape { 5: appearance Appearance { 6: texture ImageTexture { url "image.gif" } 7: } 8: geometry Box {} 9: } 10: ] 11: }5. Pasting Textures In addition to coloring objects, image files can also be pasted. The file formats that can be used as textures in VRML2.0 are JPEG, GIF, and PNG. Here, a GIF image prepared in advance is used. Sample3 1: #VRML V2.0 utf8 2: Transform {3: children [4: Shape {5: appearance Appearance {6: texture ImageTexture {url "image.gif"} 7:} 8: geometry Box {} 9:} 10:] 11:}
【0042】テクスチャを張り付けているのは6行目で
ある。ImageTexureノードはAppearanceノードのtexture
フィールドに書くことになっているため、このような書
き方になる。尚、8行目のBoxノードは直方体を描くため
のノードである。The sixth line applies the texture. ImageTexure node is the texture of Appearance node
This is how it is written because it is supposed to be written in the field. Note that the Box node on the eighth line is a node for drawing a rectangular parallelepiped.
【0043】6.物体の位置を移動させる 次にこの赤色の球を右に移動させる。 Sample4 1: #VRML V2.0 utf8 2: Transform { 3: translation 2 0 0 4: children [ 5: Shape { 6: appearance Appearance { 7: material Material { diffuseColor 1 0 0 } 8: } 9: geometry Sphere { radius 1 } 10: } 11: ] 12: }6. Move the position of the object Next, move this red sphere to the right. Sample4 1: #VRML V2.0 utf8 2: Transform {3: translation 2 0 0 4: children [5: Shape {6: appearance Appearance {7: material Material {diffuseColor 1 0 0} 8:} 9: geometry Sphere { radius 1} 10:} 11:] 12:}
【0044】3行目に追加したtranslationフィールドで
物体を平行移動させる。translationフィールドは、 translation x y z で、それぞれx軸、y軸、z軸の移動量を指定する。ブラ
ウザ上ではx軸は左右(右方向に+)、y軸は上下(上方
向に+)、z軸は奥行き(手前に向かって+)を表す。従
って、 translation 2 0 0 は右方向に2だけ平行移動することになる。The object is translated in the translation field added to the third line. In the translation field, translation xyz is used to specify the amount of movement on the x-axis, y-axis, and z-axis, respectively. On the browser, the x-axis represents left and right (+ to the right), the y-axis represents up and down (+ to the top), and the z-axis represents depth (+ to the front). Thus, translation 2 0 0 translates 2 to the right.
【0045】7.物体の追加 赤い球の左に緑の円錐を追加する。 Sample5 1: #VRML V2.0 utf8 2: Transform { 3: translation 2 0 0 4: children [ 5: Shape { 6: appearance Appearance { 7: material Material { diffuseColor 1 0 0 } 8: } 9: geometry Sphere { radius 1 } 10: } 11: ] 12: } 13: Transform { 14: translation -2 0 0 15: children [ 16: Shape { 17: appearance Appearance { 18: material Material { diffuseColor 0 1 0 } 19: } 20: geometry Cylinder {} 21: } 22: ] 23: }7. Add an object Add a green cone to the left of the red sphere. Sample5 1: #VRML V2.0 utf8 2: Transform {3: translation 2 0 0 4: children [5: Shape {6: appearance Appearance {7: material Material {diffuseColor 1 0 0} 8:} 9: geometry Sphere { radius 1} 10:} 11:] 12:} 13: Transform {14: translation -2 0 0 15: children [16: Shape {17: appearance Appearance {18: material Material {diffuseColor 0 1 0} 19:} 20 : geometry Cylinder {} 21:} 22:] 23:}
【0046】13行目以降に追加したソースは12行目以前
のものと構造は同じである。物体が球から円錐へ、色が
赤から緑へ、そして位置が左に移動している点が12行目
以前のものと異なる。The source added after the 13th line has the same structure as the source added before the 12th line. The difference is that the object moves from a sphere to a cone, the color moves from red to green, and the position moves to the left.
【0047】8.ポリゴンで書く 上述した「VRML2.0の書き方」ではプリミティブな図形
を使ったが、複雑な図形を書くときにはポリゴンを使用
する。ポリゴンで表示するためにIndexedLineSet,Inde
xedFaceSetの2つのノードが用意されている。IndexedLi
neSetは線を、IndexedFaceSetは面を表現する。 Sample6 1: #VRML V2.0 utf8 2: Transform { 3: children [ 4: Shape { 5: geometry IndexedFaceSet { 6: coord Coordinate { 7: point [ 8: 0 0 0, 9: 1 0 0, 10: 1 0 1, 11: 0 0 1, 12: 0 1 0, 13: 1 1 0, 14: 1 1 1, 15: 0 1 1 16: ] 17: } 18: coordIndex [ 19: 0, 1, 2, 3,-1, 20: 0, 1, 5, 4,-1, 21: 1, 2, 6, 5,-1, 22: 2, 3, 7, 6,-1, 23: 3, 0, 4, 7,-1, 24: 4, 5, 6, 7,-1 25: ] 26: solid FALSE 27: } 28: } 29: } 30: ] 31: }8. Writing with Polygons Although the above-described “How to Write VRML 2.0” uses primitive figures, polygons are used when writing complicated figures. IndexedLineSet, Inde for displaying with polygons
Two nodes of xedFaceSet are prepared. IndexedLi
neSet represents a line, and IndexedFaceSet represents a face. Sample6 1: #VRML V2.0 utf8 2: Transform {3: children [4: Shape {5: geometry IndexedFaceSet {6: coord Coordinate {7: point [8: 0 0 0, 9: 1 0 0, 10: 1 0 1, 11: 0 0 1, 12: 0 1 0, 13: 1 1 0, 14: 1 1 1, 15: 0 1 1 16:] 17:} 18: coordIndex [19: 0, 1, 2, 3, -1, 20: 0, 1, 5, 4, -1, 21: 1, 2, 6, 5, -1, 22: 2, 3, 7, 6, -1, 23: 3, 0, 4, 7, -1, 24: 4, 5, 6, 7, -1 25:] 26: solid FALSE 27:} 28:} 29:} 30:] 31:}
【0048】このサンプルは6つの面で立方体を表して
いる。ポリゴンで表すためにはまず、頂点となる座標を
決める(7行目乃至16行目)。この座標は上から0,1,2,
と番号が振られる。即ち、10行目の「1 0 1」は「2」番
の座標ということになる。次に何番の座標と何番の座標
で面を構成するのかを決める(18行目乃至25行目)。19
行目の「0, 1, 2, 3, -1」は「0番、1番、2番、3番の
座標で面を作る」ことを表している。This sample represents a cube in six planes. To represent a polygon, first determine the coordinates of the vertices (lines 7 to 16). These coordinates are 0,1,2,
And numbered. That is, “1 0 1” on the 10th row is the “2” coordinate. Next, it is determined at what coordinates and at what coordinates the surface is configured (lines 18 to 25). 19
“0, 1, 2, 3, −1” on the line indicates that “a surface is to be created with coordinates 0, 1, 2, 3”.
【0049】9.ノードに名前を付ける 既に定義されているノードを再利用するためにDEFとUSE
という機能がある。例えば、半径2の青の球を2つ描く
とする。これまでの書き方で書くならば次のようにな
る。 Sample7 1: #VRML V2.0 utf8 2: Transform { 3: children [ 4: Shape { 5: appearance Appearance { 6: material Material { diffuseColor 0 0 1 } 7: } 8: geometry Sphere { radius 2 } 9: } 10: ] 11: } 12: Transform { 13: translation 0 5 0 14: children [ 15: Shape { 16: appearance Appearance { 17: material Material { diffuseColor 0 0 1 } 18: } 19: geometry Sphere { radius 2 } 20: } 21: ] 22: }9. Naming Nodes DEF and USE to reuse already defined nodes
There is a function called. For example, assume that two blue spheres with a radius of 2 are drawn. If you write in the conventional way, it will be as follows. Sample7 1: #VRML V2.0 utf8 2: Transform {3: children [4: Shape {5: appearance Appearance {6: material Material {diffuseColor 0 0 1} 7:} 8: geometry Sphere {radius 2} 9:} 10:] 11:} 12: Transform {13: translation 0 5 0 14: children [15: Shape {16: appearance Appearance {17: material Material {diffuseColor 0 0 1} 18:} 19: geometry Sphere {radius 2} 20:} 21:] 22:}
【0050】12行目以降は13行目の座標移動の部分を除
いて11行目以前と全く同じである。1度定義されている
「半径2で青い球」を再び同じように記述するのははっ
きり言って無駄である。そこで次のようにする。The twelfth and subsequent lines are exactly the same as those before the eleventh line except for the coordinate movement on the thirteenth line. It is clearly wasteful to describe the once defined "blue sphere with radius 2" in the same way. So we do the following.
【0051】 Sample7改 1: #VRML V2.0 utf8 2: Transform { 3: children [ 4: DEF BlueSphere Shape { 5: appearance Appearance { 6: material Material { diffuseColor 0 0 1 } 7: } 8: geometry Sphere { radius 2 } 9: } 10: ] 11: } 12: Transform { 13: translation 0 5 0 14: children [ 15: USE BlueSphere 16: } 17: ] 18: } 4行目を見ると DEF BlueSphere Shape となっている。これは「Shape{……}を「BlueSphere」
という名前にします。」という意味で、これ以降 USE BlueSphere と書くだけでShape{……}と同じ内容を表す。Sample7 Kai 1: #VRML V2.0 utf8 2: Transform {3: children [4: DEF BlueSphere Shape {5: appearance Appearance {6: material Material {diffuseColor 0 0 1} 7:} 8: geometry Sphere { radius 2} 9:} 10:] 11:} 12: Transform {13: translation 0 5 0 14: children [15: USE BlueSphere 16:} 17:] 18:} Looking at the fourth line, it becomes DEF BlueSphere Shape ing. This is “Shape {……} replaced with“ BlueSphere ”
Name. From now on, simply writing USE BlueSphere will represent the same content as Shape {……}.
【0052】10.WRLファイルの読み込み 大きなVRMLデータをつくるときに1つのファイルにすべ
ての記述を行うのはあまりいい方法ではない。部品ごと
に分けて必要に応じて呼び出せるようにしておく方が便
利である。このような場合、Inlineノードを使う。例え
ば1.でつくったSample1.wrlを読み込んで表示する。 Sample8 1: #VRML V2.0 utf8 2: Inline { 3: url [ 4: sample1.wrl 5: ] 6: }10. Reading WRL File When creating large VRML data, it is not a very good method to write all descriptions in one file. It is more convenient to divide each part so that it can be called up as needed. In such a case, use an Inline node. For example, read and display Sample1.wrl created in 1. Sample8 1: #VRML V2.0 utf8 2: Inline {3: url [4: sample1.wrl 5:] 6:}
【0053】11.リンクを張る オブジェクトにリンクを張り、オブジェクトをクリック
したときに別のページにジャンプさせることもできる。 Sample9 1: #VRML V2.0 utf8 2: Anchor { 3: children [ 4: Shape { 5: geometry Sphere { radius 2 } 6: } 7: ] 8: url "test.html" 9: description "LINK to test.html" 10: }11. Linking a link It is also possible to link an object and jump to another page when the object is clicked. Sample9 1: #VRML V2.0 utf8 2: Anchor {3: children [4: Shape {5: geometry Sphere {radius 2} 6:} 7:] 8: url "test.html" 9: description "LINK to test .html "10:}
【0054】リンクを張るオブジェクトを子ノードにし
てAnchorノードで括る。AnchorノードはGroupノードの
1つである。リンク先のファイルをurlフィールドに書
く。descriptionフィールドに書いた文字列はマウスポ
インタがオブジェクトに触れている間表示される。An object to be linked is set as a child node and is bound by an anchor node. Anchor node is one of the Group nodes. Write the link destination file in the url field. The text you write in the description field is displayed while the mouse pointer is touching the object.
【0055】12.ライトの設定 VRML2.0ではワールドに光を設定するためにDirectional
Light(平行光)、PointLigt(点光源)、SpotLight
(スポットライト)3つのノードが用意されている。こ
こではPointLigtノードを例に挙げて説明する。光の当
たり方がわかりやすいように3行目でオブジェクトを回
転させている。 Sample10 1: #VRML V2.0 utf8 2: Transform { 3: rotation 1 0 0 0.75 4: children [ 5: PointLight { 6: location 0 0 2 #オブジェクトの前 7: } 8: Shape { 9: geometry Cylinder {} 10: } 11: ] 12: }12. Light setting VRML2.0 uses Directional to set light in the world.
Light (parallel light), PointLigt (point light source), SpotLight
(Spotlight) Three nodes are prepared. Here, a PointLigt node will be described as an example. The object is rotated on the third line so that it is easy to see how the light hits. Sample10 1: #VRML V2.0 utf8 2: Transform {3: rotation 1 0 0 0.75 4: children [5: PointLight {6: location 0 0 2 #In front of object 7:} 8: Shape {9: geometry Cylinder { } 10:} 11:] 12:}
【0056】6行目の光源の位置によってオブジェクト
の見え方が異なる。このサンプルではオブジェクトの前
に光源を置いている。The appearance of the object differs depending on the position of the light source on the sixth row. In this example, a light source is placed in front of the object.
【0057】13.ワールド環境(1) これまでは主にオブジェクトの作成に関しての解説であ
ったが、今回はオブジェクト作成以外のノードの使い方
について触れる。ワールド環境などと勝手に命名してい
るが、こういう言い方が一般的かどうかは分からない。
まず、ブラウザでデフォルトで用意されている HeadLig
ht を消してみる。HeadLight の ON・OFF はブラウザの
Option で変更できるが、ファイル内に書くことによっ
ても設定できる。 Sample11 1: #VRML V2.0 utf8 2: NavigationInfo { 3: headlight FALSE 4: } 5: Transform{ 6: children [ 7: Shape { 8: appearance Appearance { 9: material Material { diffuseColor 1 0 0 } 10: } 11: geometry Sphere {} 12: } 13: ] 14: }13. World Environment (1) Up to now, the explanation has mainly been about the creation of an object, but this time, how to use a node other than the creation of an object will be described. Although it is arbitrarily named as world environment, etc., it is not known whether such a term is common.
First, HeadLig provided by default in the browser
Try deleting ht. ON / OFF of HeadLight is
Can be changed with Option, but can also be set by writing in the file. Sample11 1: #VRML V2.0 utf8 2: NavigationInfo {3: headlight FALSE 4:} 5: Transform {6: children [7: Shape {8: appearance Appearance {9: material Material {diffuseColor 1 0 0} 10:} 11: geometry Sphere {} 12:} 13:] 14:}
【0058】このサンプルでブラウザの Option を見る
と、Headlight のチェックがはずれている。このサンプ
ルでは今までのサンプルに比べて極端に暗くなっている
のが分かる。HeadLight は常にユーザの見ている方向に
照らされるライトで、これがないとこのように見える。
新たに加えたのは 2 行目から 4 行目の NavigationInf
o ノードである。このノードの headlight フィールド
をTRUE か FALSE にすることで HeadLight を ON・OFF
する。HeadLight を消して任意のライトを設定すること
で効果的に明るさを設定できる。Looking at the option of the browser in this sample, the check of Headlight is unchecked. It can be seen that this sample is extremely darker than the previous samples. HeadLight is a light that always shines in the direction you are looking, and without it it looks like this.
Newly added NavigationInf on lines 2-4
o It is a node. Turn headlight ON / OFF by setting headlight field of this node to TRUE or FALSE
I do. By turning off HeadLight and setting an optional light, the brightness can be set effectively.
【0059】14.ワールド環境(2) NavigationInfo ノードには他にも幾つかのフィールド
が用意されている。その中の type フィールドでナビゲ
ーション方法を変更することができる。デフォルトでは
WALK に設定されている ナビゲーション方法である
が、他にも重力を無視して移動できる FLY、自分が動く
ことなくオブジェクトを動かす EXAMINE、何もコントロ
ールできない NONE、がある。ちなみに WALKは重力の影
響を受けながら移動するナビゲーション方法である。14. World Environment (2) The NavigationInfo node has several other fields. You can change the navigation method in the type field in it. By default
The navigation method set to WALK is FLY, which can move ignoring gravity, EXAMINE, which moves an object without moving itself, and NONE, which does not control anything. By the way, WALK is a navigation method that moves under the influence of gravity.
【0060】 Sample12 1: #VRML V2.0 utf8 2: NavigationInfo { 3: type EXAMINE 4: } 5: Transform{ 6: children [ 7: Shape { 8: appearance Appearance { 9: material Material { diffuseColor 1 0 0 } 10: } 11: geometry Box {} 12: } 13: ] 14: } このサンプルでは EXAMINE にしている。オブジェクト
をマウスでドラッグするとオブジェクトが回転する。Sample12 1: #VRML V2.0 utf8 2: NavigationInfo {3: type EXAMINE 4:} 5: Transform {6: children [7: Shape {8: appearance Appearance {9: material Material {diffuseColor 1 0 0}} 10:} 11: geometry Box {} 12:} 13:] 14:} This sample uses EXAMINE. Dragging an object with the mouse rotates the object.
【0061】15.シーンにタイトルを付ける HTML では <title> タグで囲むことによってタイトルを
付けることができる。もしこのタグを指定しないとタイ
トルが [http://ryo1.is.kochi-u…howto3.html] のよ
うにパスが表示される。VRML でもこれと同じことが起
こる。これまでのサンプルではタイトルを指定していな
いためパスが表示されている。VRMLでタイトルを指定す
るには WorldInfo ノードを使用する。15. Adding a title to a scene In HTML, a title can be given by surrounding it with a <title> tag. If you do not specify this tag, the title will be displayed as [http: //ryo1.is.kochi-u…howto3.html]. The same goes for VRML. In the previous samples, the path is displayed because no title is specified. Use the WorldInfo node to specify a title in VRML.
【0062】 Sample13 1: #VRML V2.0 utf8 2: WorldInfo { 3: title "Spin Box" 4: info["Autor H.Kan","http://ryo1.is.kochi-u.ac.jp/"] 5: } 2: NavigationInfo { 3: type EXAMINE 4: } 5: Transform{ 6: children [ 7: Shape { 8: appearance Appearance { 9: material Material { diffuseColor 1 0 0 } 10: } 11: geometry Box {} 12: } 13: ] 14: }Sample13 1: #VRML V2.0 utf8 2: WorldInfo {3: title "Spin Box" 4: info ["Autor H.Kan", "http://ryo1.is.kochi-u.ac.jp / "] 5:} 2: NavigationInfo {3: type EXAMINE 4:} 5: Transform {6: children [7: Shape {8: appearance Appearance {9: material Material {diffuseColor 1 0 0} 10:} 11: geometry Box {} 12:} 13:] 14:}
【0063】2 行目乃至 5 行目までに WorldInfo ノー
ドを追加した。このサンプルでは前のサンプルに "Spin
Box" というタイトルを付けた(Plugin 版では表示さ
れなかった)。尚、info フィールドにはタイトル以外
の情報を書くが、ブラウザ上には何の変化も与えない。A WorldInfo node was added to the second to fifth lines. In this sample, the previous sample is called "Spin
(It was not displayed in the Plugin version.) The info field contains information other than the title, but does not change anything on the browser.
【0064】16.視点の位置を変える デフォルトでは視点は最初 z 軸上のどこか(オブジェ
クトの配置によって異なる)にいる。ここでは最初の視
点位置を任意の場所に変更できるようにする。16. Changing the Viewpoint Position By default, the viewpoint is initially somewhere on the z-axis (depending on the placement of objects). Here, the initial viewpoint position can be changed to an arbitrary position.
【0065】 Sample14 1: #VRML V2.0 utf8 2: Viewpoint{ position x y z } 3: Transform { 4: children [ 5: Shape { 6: appearance Appearance { 7: material Material { diffuseColor 1 0 0 } 8: } 9: geometry Sphere {} 10: } 11: ] 12: } 13: Transform { 14: translation -3 0 0 15: children [ 16: Shape { 17: appearance Appearance { 18: material Material { diffuseColor 0 1 0 } 19: } 20: geometry Sphere {} 21: } 22: ] 23: } 24: Transform { 25: translation 3 0 0 26: children [ 27: Shape { 28: appearance Appearance { 29: material Material { diffuseColor 0 0 1 } 30: } 31: geometry Sphere {} 32: } 33: ] 34: } Sample14 1: #VRML V2.0 utf8 2: Viewpoint {position xyz} 3: Transform {4: children [5: Shape {6: appearance Appearance {7: material Material {diffuseColor 1 0 0} 8:} 9 : geometry Sphere {} 10:} 11:] 12:} 13: Transform {14: translation -3 0 0 15: children [16: Shape {17: appearance Appearance {18: material Material {diffuseColor 0 1 0} 19: } 20: geometry Sphere {} 21:} 22:] 23:} 24: Transform {25: translation 3 0 0 26: children [27: Shape {28: appearance Appearance {29: material Material {diffuseColor 0 0 1} 30 :} 31: geometry Sphere {} 32:} 33:] 34:}
【0066】(0, 0, 0)に赤、(-3, 0 , 0)に
緑、(3, 0, 0)に青の球がある。2 行目の Viewpoin
t ノードの position フィールドに具体的な座標を指定
すると、そこが最初の視点になる。ただし視線方向は常
に z 軸の方向である。There is a red sphere at (0, 0, 0), a green sphere at (-3, 0, 0), and a blue sphere at (3, 0, 0). Viewpoin on line 2
If you specify specific coordinates in the position field of the t node, that will be the first viewpoint. However, the line of sight is always the direction of the z-axis.
【0067】17.視線の方向を変える sample14 では視点の座標のみを変更したが、もちろん
視線方向も指定できる。方向を指定するときも Viewpoi
nt ノードを使うが、 フィールドは orientation フィ
ールドを使う。orientation フィールドは SFRotation
型のフィールドで、加点軸と回転角を値として持つ。17. Changing the direction of the line of sight In sample14, only the coordinates of the viewpoint are changed, but of course the line of sight can also be specified. Viewpoi when specifying direction
Use the nt node, but use the orientation field for the field. orientation field is SFRotation
This is a type field and has a point axis and a rotation angle as values.
【0068】18.センサをつける VRML2.0 のノードの中には Sensor ノードと呼ばれるノ
ードがある。シーン内での様々なことを感知、判定する
ためのノードで、全部で7種類用意されている。このWeb
ページで動作確認を行っている Community Place Brows
er では、幾つかの Sensor ノードがまだサポートされ
ていない。ここではオブジェクトにマウスがヒットした
かどうかを感知する TouchSensor をオブジェクトにつ
けてみる。18. Attaching Sensors Among VRML2.0 nodes, there is a node called a sensor node. Nodes for sensing and judging various things in the scene. There are seven types in total. This Web
Community Place Brows whose operation is checked on the page
er does not yet support some Sensor nodes. Here, we attach a TouchSensor to the object to detect whether the mouse hits the object.
【0069】Sample15 1: #VRML V2.0 utf8 2: Transform{ 3: children [ 4: DEF TS TouchSensor {} 5: Shape { 6: geometry Box {} 7: } 8: ] 9: }Sample15 1: #VRML V2.0 utf8 2: Transform {3: children [4: DEF TS TouchSensor {} 5: Shape {6: geometry Box {} 7:} 8:] 9:}
【0070】これまでのサンプルと異なるのは4行目だ
けである。ここでは TS という名前を付けた TouchSens
or を Box につけている。Box にマウスカーソルが触れ
ると(あなたが使っているブラウザが Community Place
Browser ならば)手の形に変わるはずである(他のブ
ラウザの中にはカーソルが変わらないものもある)。ち
なみにクリックしても何も起きない。Only the fourth line differs from the previous samples. Here, TouchSens named TS
or is attached to the Box. When the mouse cursor touches the Box (the browser you use is Community Place
It should change to a hand (in a Browser) (the cursor may not change in some other browsers). By the way, nothing happens when you click.
【0071】19.動きをつける(1) VRML2.0 が VRML1.0 と大きく異なる点はシーンに動き
をつけられるという点である。 動きをつけるには Java
や VRMLScript(JavaScript) などのスクリプトを用い
る方法と、Interplator ノードを用いる方法がある。ま
ずは Interplator ノードを用いる方法から見ていく。I
nterplate とは、「差し挟む」とか「内挿する」といっ
た意味である。Interpolator ノードで数値、位置、3D
座標、方向、法線、色の値を変えることによってシーン
に動きをつけることができる。ここでは方向を内挿する
OrientationInterpolatorノードを用いてオブジェクト
を回転させてみる。19. Add Motion (1) VRML2.0 is significantly different from VRML1.0 in that it can add motion to a scene. Java for movement
There is a method using a script such as VRMLScript (JavaScript) or a method using an Interplator node. Let's start with the method using Interplator nodes. I
nterplate means “insert” or “interpolate”. Numeric, position, 3D with Interpolator node
You can add motion to the scene by changing the coordinates, direction, normals, and color values. Here we interpolate the direction
Try rotating the object using the OrientationInterpolator node.
【0072】 Sample16 1: #VRML V2.0 utf8 2: DEF OBJ Transform{ 3: children [ 4: Shape { 5: geometry Box { size 2 3 1 } 6: } 7: ] 8: } 9: DEF TS TimeSensor{ 10: cycleInterval 1 11: loop TRUE 12: stopTime -1 13: } 14: DEF OI OrientationInterpolator{ 15: key [0, 0.125, 0.25,0.375, 0.5, 16: 0.625, 0.75, 0.875, 1,] 17: keyValue [0 1 0 0, 0 1 0 0.785, 0 1 0 1.57, 18: 0 1 0 2.355, 0 1 0 3.14, 0 1 0 -2.355, 19: 0 1 0 -1.57, 0 1 0 -0.785, 0 1 0 0] 20: } 21: ROUTE TS.fraction_changed TO OI.set_fraction 22: ROUTE OI.value_changed TO OBJ.set_rotationSample16 1: #VRML V2.0 utf8 2: DEF OBJ Transform {3: children [4: Shape {5: geometry Box {size 2 3 1} 6:} 7:] 8:} 9: DEF TS TimeSensor {10: cycleInterval 1 11: loop TRUE 12: stopTime -1 13:} 14: DEF OI OrientationInterpolator {15: key [0, 0.125, 0.25,0.375, 0.5, 16: 0.625, 0.75, 0.875, 1,] 17: keyValue (0 1 0 0, 0 1 0 0.785, 0 1 0 1.57, 18: 0 1 0 2.355, 0 1 0 3.14, 0 1 0 -2.355, 19: 0 1 0 -1.57, 0 1 0 -0.785, 0 1 0 0] 20:} 21: ROUTE TS.fraction_changed TO OI.set_fraction 22: ROUTE OI.value_changed TO OBJ.set_rotation
【0073】まず、幾つかのノードに名前を付けてお
く。2,9,14 行目にそれぞれ、OBJ,TS,OI と定義してい
る。これは後述するがイベントの受け渡しをするときに
必要になる。9 行目乃至 13 行目を見ます。TouchSenso
r は時間の経過を感知するノードで、時間の経過に伴っ
て一定の間隔でイベントを生成することができる。loop
フィールドは TRUE か FALSE をとる SFBool フィール
ドで、TRUE なら stopTime になるまで続く。ここでは
stopTime -1 と startTime(デフォルトは0)と startT
ime より小さな値になっているので永久に継続されるこ
とになる。回転する動きをもっと遅くするときには cyc
leInterval の値をもっと大きくする。First, names are given to some nodes. Lines 2, 9, and 14 define OBJ, TS, and OI, respectively. As will be described later, this is necessary when passing events. Look at lines 9-13. TouchSenso
r is a node that senses the passage of time, and can generate events at regular intervals as time passes. loop
The field is an SFBool field that takes TRUE or FALSE, and if TRUE, continues until stopTime. here
stopTime -1 and startTime (default is 0) and startT
Since it is smaller than ime, it will continue forever. Cyc for slower rotation
Increase the value of leInterval.
【0074】14 行目乃至 20 行目までが OrientationI
nterpolator ノードである。Interpolator ノードはす
べて key と keyValue の2つのフィールドを持ってい
る。key はアニメーション時間の間隔を 0 から 1 の間
で設定する。keyValue は key で設定した間隔に具体的
なフィールド値(ここでは MFRotation )を設定する。
ここではアニメーション時間の間隔を9等分して、y軸
を中心に回転角を設定している。Lines 14 to 20 correspond to OrientationI
This is an nterpolator node. Every Interpolator node has two fields, key and keyValue. key sets the animation time interval between 0 and 1. keyValue sets a specific field value (here, MFRotation) at the interval set by key.
Here, the rotation time is set around the y-axis by dividing the animation time interval into nine equal parts.
【0075】しかしこれだけではシーンに動きをつける
ことはできない。TimeSensorノードの生成したイベント
を OrientationInterpolator ノードに渡してやる必要
がある。21,22行目を見ます。この ROUTE というキーワ
ードで始まる行で イベントを受け渡しを行う。TimeSen
sor TS が起動すると fraction_changed がイベントア
ウトされる。fraction_changed がイベントアウトされ
ると、OrientationInterplator OIの set_fraction に
イベントインされる。ここまでが21 行目の ROUTE の動
作である。22 行目はイベントインされた set_fraction
値から OrientationInterplator OI が値を内挿し、そ
れを Transform OBJ の translation フィールドにvalu
e_changed としてイベントアウトする。もう1つサンプ
ルをあげてみる。However, it is not possible to add a motion to the scene by this alone. It is necessary to pass the event generated by TimeSensor node to OrientationInterpolator node. Look at lines 21,22. The event is passed on the line that starts with the keyword ROUTE. TimeSen
When sor TS starts, fraction_changed is evented out. When fraction_changed is evented out, it is evented in set_fraction of OrientationInterplator OI. This is the operation of ROUTE on line 21. Line 22 is the event_set_fraction
OrientationInterplator OI interpolates the value from the value and puts it into the translation field of the Transform OBJ.
Event out as e_changed. Here is another sample.
【0076】20.動きをつける(2) 今度はマウスでオブジェクトをクリックすると移動する
サンプルである。移動するには位置を内挿する Positio
nInterpolator ノードを使用する。 Sample17 1: #VRML V2.0 utf8 2: DEF OBJ Transform { 3: children [ 4: DEF TS TouchSensor {} 5: Shape { 6: appearance Appearance { 7: material Material { diffuseColor 1 0 0 } 8: } 9: geometry Box {} 10: } 11: ] 12: } 13: DEF TIS TimeSensor { cycleInterval 5 } 14: DEF PI PositionInterpolator { 15: key [0, 0.2, 0.4, 0.6, 0.8, 1.0] 16: keyValue[0 0 0 , 0 0 -2 , 0 2 -4 , 0 4 -6 , 2 4 -6, 4 2 -6] 17: } 18: ROUTE TS.touchTime TO TIS.set_startTime 19: ROUTE TIS.fraction_changed TO PI.set_fraction 20: ROUTE PI.value_changed TO OBJ.set_translation20. Add movement (2) This is a sample that moves when the object is clicked with the mouse. Positio interpolating position to move
Use the nInterpolator node. Sample17 1: #VRML V2.0 utf8 2: DEF OBJ Transform {3: children [4: DEF TS TouchSensor {} 5: Shape {6: appearance Appearance {7: material Material {diffuseColor 1 0 0} 8:} 9: geometry Box {} 10:} 11:] 12:} 13: DEF TIS TimeSensor {cycleInterval 5} 14: DEF PI PositionInterpolator {15: key [0, 0.2, 0.4, 0.6, 0.8, 1.0] 16: keyValue [0 0 0, 0 0 -2, 0 2 -4, 0 4 -6, 2 4 -6, 4 2 -6] 17:} 18: ROUTE TS.touchTime TO TIS.set_startTime 19: ROUTE TIS.fraction_changed TO PI.set_fraction 20: ROUTE PI.value_changed TO OBJ.set_translation
【0077】今度は、OBJ という名前の赤い立方体に T
ouchSenor TS をつけている。オブジェクトがクリック
されると、TouchSenor TS の touchTime が TimeSensor
TIS の startTime にイベントアウトされる。サンプル
のソースには TimeSensoe ノードの中に startTime フ
ィールドは書いてないが、デフォルトで startTime 0
となっている。あとは前のサンプルと同じである。これ
らの ROUTE によってオブジェクトが移動する。Now, add a red cube named OBJ to T
ouchSenor TS is attached. When an object is clicked, the touchTime of TouchSenor TS changes to TimeSensor
Event is out at start time of TIS. The sample source does not have a startTime field in the TimeSensoe node, but it defaults to startTime 0
It has become. The rest is the same as the previous sample. Objects are moved by these ROUTEs.
【0078】ここで、第1世代のVRML1.0に対し、第
2世代のVRML2.0で新たに加わった機能であるVRML仮
想空間内における自律的な動き(Behavior)を実現するた
めのメカニズムについて概説する。Here, a mechanism for realizing an autonomous movement (Behavior) in a VRML virtual space, which is a function newly added in the second generation VRML 2.0 with respect to the first generation VRML 1.0. Outline.
【0079】VRML2.0においては、3次元仮想現実空
間内に配置されたオブジェクトに対する操作に伴って生
じるイベントや、予め設定された時間が経過した時点で
生じるタイマーイベントに応じて、オブジェクトの自律
的な動きを実現することができる。このBehaviorのメカ
ニズムは、センサー、ルーティング、スクリプトの3つ
の要素の連携動作によって実現される。In VRML 2.0, an object autonomously responds to an event that occurs in response to an operation on an object placed in the three-dimensional virtual reality space or a timer event that occurs when a preset time has elapsed. Movement can be realized. This Behavior mechanism is realized by the cooperative operation of the three elements of sensor, routing, and script.
【0080】すなわち、 予め3次元仮想現実空間内に配置されたオブジェクト
などのノードに対して関係付けられて、VRMLファイルと
して記述されたセンサーノードが、そのフィールドの値
の変化に基づいて、外部イベントを感知し、VRMLシーン
内にイベントを発生する。 発生したイベントは、 VRMLファイルとして記述され
たルーティングに基づいて、オブジェクトの挙動を規定
するプログラムである外部のスクリプトに対して、伝達
される。 外部のスクリプトには予め特定のイベントが到来した
時点で呼び出されるメソッドが記述されており、ルーテ
ィングによって伝達されたイベントを受け取った外部の
スクリプトは、その記述に基づく処理を実行した後、そ
の処理結果と、ルーティングの記述に基づいて、VRMLシ
ーン内の該当するノードのフィールドの値を変更する。That is, a sensor node described as a VRML file, which is previously associated with a node such as an object arranged in a three-dimensional virtual reality space, is set to an external event based on a change in the value of the field. And generate an event in the VRML scene. The generated event is transmitted to an external script, which is a program that defines the behavior of the object, based on the routing described as a VRML file. A method called when a specific event arrives is described in the external script in advance, and the external script that receives the event transmitted by the routing executes a process based on the description, and then executes the process result. Then, the value of the field of the corresponding node in the VRML scene is changed based on the description of the routing.
【0081】VRML2.0においては、センサーノードと
しては、例えば、指定されたオブジェクト上をポインテ
ィングデバイスが通過したり、ユーザによってクリック
された場合にイベントを発生するTouchSensorや、指定
された領域内にViewPoint(ユーザの視点)が侵入した
場合にイベントを発生するProximitySensorや、与えら
れた時刻となったり、予め指定された時間間隔が経過す
る毎に発生するTimeSensorなどが定義されている。In VRML 2.0, as a sensor node, for example, a TouchSensor that generates an event when a pointing device passes over a specified object or is clicked by a user, or a ViewPoint in a specified area A ProximitySensor that generates an event when a (user's viewpoint) invades, a TimeSensor that is generated at a given time, or every time a predetermined time interval elapses, are defined.
【0082】もう少し詳しく、Behaviorの仕組みを説明
する。先にも述べたように、Behaviorの仕組みは、セン
サー、イベント、ルーティングおよびスクリプトから構
成されている。The mechanism of Behavior will be described in more detail. As mentioned earlier, the Behavior mechanism consists of sensors, events, routing, and scripts.
【0083】センサーは、2つの機能に分けられる。 ・ユーザの操作を感知するタイプ ・システムの変化を感知するタイプThe sensor is divided into two functions. -A type that senses user operations-A type that senses changes in the system
【0084】ユーザの操作を感知するタイプのセンサー
は、3次元仮想空間内に配置された物体などに関係付け
られたソフトウエアによるスイッチとなる。システムの
変化を感知するタイプのセンサーは、作動させる時間を
事前に設定しておいたタイマーが作動することになる。
センサーの働きは、これらの外部イベントを検出して、
それをVRML内部のイベントに変換することである。The type of sensor that senses the operation of the user is a switch by software associated with an object or the like arranged in the three-dimensional virtual space. For a type of sensor that senses a change in the system, a timer in which the operation time is set in advance is activated.
The function of the sensor is to detect these external events and
Converting it to an event inside VRML.
【0085】イベントは、VRMLの内部の関連するノード
間で、情報を伝えるためのデータのことを指す。実際に
は、VRMLファイルの中に記述されたフィールド値の変化
がイベントとして伝達される。An event refers to data for transmitting information between related nodes inside VRML. Actually, a change in a field value described in the VRML file is transmitted as an event.
【0086】ルーティングは、センサー機能で検出され
たイベントをどのノードに伝えるかを指定するための仕
組みで、イベントによる情報の伝達経路を指定すること
になる。The routing is a mechanism for specifying to which node the event detected by the sensor function is to be transmitted, and specifies the information transmission route by the event.
【0087】スクリプトはイベントの入出力口で、入力
されたイベントから何らかの計算を行い、その結果をイ
ベントとして出力することができるものである。スクリ
プトは特定の言語のみに制限されるものではなく、現段
階では、インターネット界で注目を浴びているJava(米
国Sun Microsystems社の商標)やJavaScript、通常のシ
ステムでよく利用されているC言語、UNIXでよく利用さ
れているTcl/TkやPERL、米国マイクロソフト社の提供し
ているVisual Basic言語などが対応している。このよう
にVRML2.0では特定のスクリプト言語に依存しない仕
様になっている(VRML2.0仕様検討中、一時特定の言
語仕様としてVRMLScriptが採用されようとしたこともあ
るが、この構想は取り止めなった)。The script is an event input / output port, which can perform some calculation from the input event and output the result as an event. Scripts are not limited to a specific language. At this stage, Java (a trademark of Sun Microsystems, Inc.) and JavaScript, which are attracting attention in the Internet world, C language, which is often used in ordinary systems, Tcl / Tk and PERL, which are often used in UNIX, and Visual Basic language provided by Microsoft Corporation in the United States are supported. As described above, VRML 2.0 has specifications that do not depend on a specific script language. (While studying the VRML 2.0 specifications, VRMLScript was temporarily adopted as a specific language specification, but this concept has been canceled. T).
【0088】次に、Behaviorの処理手段に関して、図1
を参照して説明する。Behaviorの処理を図式化すると、
図1のようになる。以下、各部に分けて、処理信号の流
れを説明する。Next, with regard to the processing means of the Behavior, FIG.
This will be described with reference to FIG. If you diagram the behavior process,
As shown in FIG. Hereinafter, the flow of the processing signal will be described for each part.
【0089】センサーノード 前にも述べたように、センサーノードには、大きく分類
して2系統がある。ユーザの操作を感知するタイプと、
システムの変化を感知するタイプのセンサーである。Sensor Node As described above, sensor nodes are roughly classified into two systems. A type that senses user operations,
It is a type of sensor that senses changes in the system.
【0090】前者のセンサーには、3次元物体やその平
面をマウスクリックしたり、通過したりしたときに感知
するTouchSensorやPlaneSensorなどのセンサーノードが
あり、後者のセンサーとしては、設定した時間が来ると
イベントを発生させる仕組みになっているTimeSensorが
用意されている。The former sensor includes a sensor node such as TouchSensor or PlaneSensor which senses when a mouse is clicked on or passes through a three-dimensional object or its plane, and a set time comes as the latter sensor. And a TimeSensor that has a mechanism to generate an event is prepared.
【0091】この図1の例では、球にTouchSensorが付
けられているものとする。このとき、ユーザが球をマウ
スクリックすると、このイベントをTouchSensorが検出
する。このイベントは、TouchSensorのeventOutフィー
ルドのフィールド値が変化することで検出される。通常
1回のマウスクリックで2つのイベントを発生する。そ
れは、マウスボタンが押されたタイミングと、離された
タイミングである。In the example of FIG. 1, it is assumed that TouchSensor is attached to the sphere. At this time, when the user clicks the mouse on the ball, TouchSensor detects this event. This event is detected when the field value of the eventOut field of TouchSensor changes. Normally two events occur with a single mouse click. That is, the timing when the mouse button is pressed and the timing when the mouse button is released.
【0092】次に、このイベントは、ルーティング記述
部分によって、ルーティングされることになる。Next, this event is routed by the routing description part.
【0093】ルーティング このイベントのルーティングを指定するのが、図2に示
すような「Route」である。Routing "Route" as shown in FIG. 2 designates the routing of this event.
【0094】センサー記述部分で発生したイベントがRo
uteのeventOutフィールドに伝達され、さらに、次に述
べるスクリプトノードに伝えられることにより、外部フ
ァイルにイベントが渡され、Behavior機能が実行され
る。The event that occurred in the sensor description part is Ro
The event is passed to an external file by being transmitted to the eventOut field of the ute and further transmitted to the script node described below, and the Behavior function is executed.
【0095】スクリプトノード このノードは、VRMLファイルと外部のスクリプトとを連
動させる仲介をするノードである。スクリプトノードの
記述書式に従って、どのような言語で記述されているか
とか、ファイル名を指定したり、外部スクリプトファイ
ルとの間でイベントのやり取りをするために、eventIn
フィールドとeventOutフィールドを規定する。このと
き、使用できるスクリプトファイルは、Java、JavaScri
pt、C言語、Tcl/Tk、PERL、およびVisual Basic言語な
ど多岐に渡る。Script node This node is a node that mediates the link between the VRML file and an external script. According to the description format of the script node, in what language it is described, to specify a file name, and to exchange events with external script files, use eventIn
Field and eventOut field are defined. At this time, the script files that can be used are Java, JavaScri
It covers a wide variety of languages, including pt, C, Tcl / Tk, PERL, and Visual Basic.
【0096】実際の処理手段としては、ルーティングさ
れたイベントがスクリプトノードに記述されているスク
リプトファイルに処理が伝達され、外部のスクリプトフ
ァイルが実行される。外部のスクリプトファイルは、そ
の中で定義されているeventIn(イベントの入口)で受
け取り、そのファイル内に記述された処理を実行する。
その処理が終了した後、eventOut(イベントの出口)か
ら結果をVRMLファイルのルーティングへ返す。VRMLファ
イルは、その返された結果を実行して、一連のBehavior
処理は終了する。As the actual processing means, the routed event is transmitted to a script file described in a script node, and an external script file is executed. An external script file is received at eventIn (event entrance) defined therein, and executes the processing described in the file.
After the processing is completed, the result is returned from the eventOut (exit of the event) to the routing of the VRML file. The VRML file executes the returned result and returns a series of Behavior
The process ends.
【0097】このような、センサー、ルーティング、ス
クリプトの連携動作によって実現されるBehaviorのメカ
ニズムを利用することによって、例えば、3次元仮想現
実空間内に配置されたスイッチを模したオブジェクトを
マウスでクリックすることによって、同じ空間内に配置
された他のオブジェクトの外観(形状、姿勢、サイズ、
色等)であるとか、挙動シーケンスなどを動的に変更す
る事ができる。By using such a mechanism of Behavior realized by the cooperative operation of the sensor, the routing, and the script, for example, an object simulating a switch arranged in a three-dimensional virtual reality space is clicked with a mouse. By doing so, the appearance (shape, posture, size,
Color, etc.), and behavior sequence, etc., can be dynamically changed.
【0098】このBehaviorのメカニズムの詳細な説明に
ついては、http://webspace.sgi.com/moving-worlds/sp
ec/part1/concepts.htmlおよび、その日本語版であるht
tp://www.webcity.co.jp/info/andoh/VRML/vrml2.0/spe
c-jp/part1/concepts.htmlで公開されている、August
4, 1996における The Virtual Reality Modeling Langu
age Version 2.0, ISO/IEC CD 14772の仕様書、4.概
念の節に開示されている。この節には、 VRML仕様書を
利用するにあたりキーとなる概念が記述されている。ノ
ードをシーングラフに結合する方法、ノードがイベント
を生成したり受け取ったりする方法、プロトタイプによ
るノードタイプの作成方法、VRMLにノードタイプを追加
して外部から使用できるようにエクスポートする方法、
VRMLファイルにプログラムとして動作するスクリプトを
組み込む方法など、様々なノードに関する一般的な項目
が記載されている。For a detailed description of this Behavior mechanism, see http://webspace.sgi.com/moving-worlds/sp
ec / part1 / concepts.html and its Japanese version, ht
tp: //www.webcity.co.jp/info/andoh/VRML/vrml2.0/spe
August published at c-jp / part1 / concepts.html
4, The Virtual Reality Modeling Langu in 1996
age Version 2.0, ISO / IEC CD 14772 Specification, 4. It is disclosed in the Concepts section. This section describes the key concepts in using the VRML specification. How to combine nodes into the scene graph, how nodes generate and receive events, how to create node types with prototypes, how to add node types to VRML and export them for external use,
General items about various nodes are described, such as how to incorporate scripts that operate as programs into VRML files.
【0099】次に、このようなVRML2.0の自律的な動
き(Behavior)を実現するメカニズムを応用して、共有仮
想空間内に、仮想生命オブジェクトを誕生させ、ユーザ
の操作や時間経過に伴う所定のイベントの発生に応じて
変化する成長パラメータ(外観的成長又は内面的成長
(個性))をサーバで管理し、このサーバから転送され
た成長パラメータに基づいて、仮想生命オブジェクトの
外観(形状、姿勢、サイズ、色等)又は挙動シーケンス
の内の何れか一方もしくは双方を動的に変更するための
スクリプトプログラムを解釈、実行することで、成長パ
ラメータに応じた仮想生命オブジェクトを表示する技術
について、以下に詳述する。Next, by applying such a mechanism for realizing the autonomous movement (Behavior) of VRML 2.0, a virtual life object is created in a shared virtual space, and the virtual life object is generated according to the user's operation and time lapse. A growth parameter (appearance growth or internal growth (individuality)) that changes in response to the occurrence of a predetermined event is managed by a server, and based on the growth parameter transferred from the server, the appearance (shape, shape, (Posture, size, color, etc.) or one or both of the behavior sequence is interpreted and executed by a script program to dynamically change the display of virtual life objects according to the growth parameters. Details will be described below.
【0100】図3は本発明の一実施の形態の全体のシス
テム構成図である。FIG. 3 is an overall system configuration diagram of an embodiment of the present invention.
【0101】図3において、1,2,3は、VRMLブラウ
ザおよびWWWブラウザがインストールされ、これらが動
作しているクライアントPC(パーソナルコンピュー
タ)であり、IP(インターネット接続サービスプロバイ
ダ)4,5,6を介してインターネット7と接続されて
いる。In FIG. 3, reference numerals 1, 2, and 3 denote client PCs (personal computers) on which a VRML browser and a WWW browser are installed and these are operating, and IPs (Internet connection service providers) 4, 5, and 6 Is connected to the Internet 7 via the Internet.
【0102】インターネット7とルータ8を介して接続
されたLAN(Local Area Network)9には、WWWサーバ1
0、WLS(World Location Server)11、および共有サー
バ12が接続されている。これらの各サーバ10乃至1
2には、ハードディスク(HDD)10a,10b,11a,1
2aが、各々設けられている。A WWW server 1 is connected to a LAN (Local Area Network) 9 connected to the Internet 7 via a router 8.
0, a WLS (World Location Server) 11, and a shared server 12 are connected. Each of these servers 10 to 1
2 has hard disks (HDD) 10a, 10b, 11a, 1
2a are each provided.
【0103】図4はクライアントPC1のハードウェア
構成を示すブロック図である。FIG. 4 is a block diagram showing a hardware configuration of the client PC 1.
【0104】図4において、30は各部を制御するCP
U、31はVRML 2.0 fileや、Java(米国 Sun Micros
ystems社の商標)による共有仮想生命の経験スクリプト
プログラム等からなるVRMLコンテンツと、各クライアン
トPCのユーザ(クライアント)の分身であるアバタ
(仮想生命オブジェクト)の経験パラメータ管理テーブ
ル(図8を用いて後述する)が格納されたHDD、32はC
D−ROMディスク33に格納されたVRMLコンテンツを読み
取るCD−ROMドライブ、34はBIOS(Basic InputOutput
Systems)等が格納されたROM、35はマイクロフォン3
6と左右のスピーカ37,38が接続されたサウンド処
理回路、39はインターネット7に接続するためのMODE
M、40はマウス41とキーボード42が接続されたI/O
(入出力)インターフェイス、43はVRAM44が内蔵さ
れたグラフィックス処理回路、45はCRTモニタ、46
はRAMである。In FIG. 4, reference numeral 30 denotes a CP for controlling each unit.
U and 31 are VRML 2.0 files and Java (Sun Micros
VRML contents composed of a shared virtual life experience script program and the like by a trademark of ystems, and an experience parameter management table of an avatar (virtual life object) which is an alter ego of a user (client) of each client PC (described later using FIG. 8). HDD is stored, 32 is C
A CD-ROM drive for reading VRML content stored in the D-ROM disk 33, and a BIOS (Basic Input Output
Systems), etc., and the microphone 35 is a microphone 3
6 is a sound processing circuit in which left and right speakers 37 and 38 are connected. 39 is a MODE for connecting to the Internet 7.
M and 40 are I / Os to which a mouse 41 and a keyboard 42 are connected.
(Input / output) interface; 43, a graphics processing circuit with a built-in VRAM 44; 45, a CRT monitor;
Is RAM.
【0105】このRAM46には、実行時に、Windows95
(米国Micro Soft社の商標) の上で動作するWWWブラウ
ザであるNetscape Navigator、Javaインタプリタ、およ
び、ソニー株式会社によって開発されたVRML2.0ブラウ
ザであるCommunity Place Browserが読み込まれて、CPU
30によって実行される状態となっている。This RAM 46 stores Windows 95 data at the time of execution.
(Trademark of MicroSoft, USA) Netscape Navigator, a WWW browser running on Java, a Java interpreter, and Community Place Browser, a VRML 2.0 browser developed by Sony Corporation, are loaded and the CPU
30 is executed.
【0106】VRML2.0ブラウザには、米国シリコング
ラフィクス社によって開発され、無償公開されているVR
MLの構文解釈用ライブラリ(パーサ)であるQvLibと、
英国Criterion Software Ltd.のソフトウエア・レンダ
ラであるRenderWare等、もしくはこれらと同等の機能を
有するパーサやレンダラが実装されている。[0106] The VRML 2.0 browser includes a VR developed by the United States Silicon Graphics Corporation and released for free.
QvLib, a library (parser) for parsing ML,
RenderWare, which is a software renderer of Criterion Software Ltd. in the UK, etc., or a parser or renderer having equivalent functions are implemented.
【0107】そして、 Community Place Browserは、図
3に示すように、WWWブラウザとしてのNetscape Naviga
torとの間において、NCAPI(Netscape Client Applicati
onPrograming Interface)(商標)に基づいて各種デー
タの授受を行う。Then, as shown in FIG. 3, the Community Place Browser is a Netscape Naviga as a WWW browser.
NCAPI (Netscape Client Applicati
Various data are transmitted and received based on onPrograming Interface (trademark).
【0108】Netscape Navigatorは、インターネット7
を介してWWWサーバ10よりHTMLファイルとVRMLコンテ
ンツ(VRMLファイルとJavaによるスクリプトプログラム
とを含む)の供給を受けると、これらをローカルのHDD
31にそれぞれ記憶させる。Netscape Navigatorは、こ
のうちのHTMLファイルを処理してテキストや画像をCRT
モニタ45に表示する一方、 Community Place Browser
はVRMLファイルを処理して3次元仮想空間をCRTモニタ4
5に表示するとともに、Javaインタプリタによるスクリ
プトプログラムの処理結果に応じて、3次元仮想空間内
のオブジェクトの挙動を変化させる。Netscape Navigator is the Internet 7
When the HTML file and the VRML content (including the VRML file and the script program in Java) are supplied from the WWW server 10 via the
31 is stored. Netscape Navigator processes the HTML files and converts text and images to CRT.
While displaying on monitor 45, Community Place Browser
Processes VRML files and displays 3D virtual space on CRT monitor 4
5, the behavior of the object in the three-dimensional virtual space is changed according to the processing result of the script program by the Java interpreter.
【0109】なお、図示は省略するが、他のクライアン
トPC2やクライアントPC3も、クライアントPC1
と同様に構成されている。Although not shown, the other client PCs 2 and 3 are also connected to the client PC 1.
It is configured similarly to.
【0110】次に上述した一実施の形態の動作について
説明する。Next, the operation of the above-described embodiment will be described.
【0111】まず、実際にVRMLコンテンツをインターネ
ット経由でダウンロードしてから、1つの仮想空間を複
数のユーザで共有するマルチユーザ環境とするまでの手
順を図5乃至図7を参照して説明する。First, the procedure from actually downloading VRML contents via the Internet to setting up a multi-user environment in which one virtual space is shared by a plurality of users will be described with reference to FIGS. 5 to 7.
【0112】図5において、番号1で示すように、最初
に、WWWブラウザを用いて、VRMLコンテンツを提供して
いるWebサイトのホームページを閲覧する。この例で
は、 http://pc.sony.co.jp/sapari/ を閲覧してい
る。次に、番号2で示すように、クライアントPC1と
クライアントPC2のユーザは、VRML 2.0fileと、VRM
L空間内での自律的な動き(Behavior)を実現するための
スクリプトプログラム(Javaによる成長スクリプトプロ
グラム)とからなるVRMLコンテンツを、それぞれダウン
ロードする。In FIG. 5, as shown by reference numeral 1, first, a home page of a Web site providing VRML content is browsed using a WWW browser. In this example, http://pc.sony.co.jp/sapari/ is browsed. Next, as indicated by the number 2, the users of the client PC1 and the client PC2 are required to store the VRML 2.0 file and the VRM
Each VRML content including a script program (a growth script program using Java) for realizing an autonomous movement (Behavior) in the L space is downloaded.
【0113】勿論、 CD−ROMディスク33で提供される
VRMLコンテンツをCD−ROMドライブ32で読み込んでも
良い。Of course, provided on the CD-ROM disk 33
VRML contents may be read by the CD-ROM drive 32.
【0114】次に、図6に示すように、クライアントP
C1およびクライアントPC2は、それぞれにダウンロ
ードされ、一旦ローカルのHDD31に格納されたVRML
2.0fileを、VRML2.0ブラウザであるCommunity Place
Browserが解釈・実行し、さらに番号3で示すように、
VSCP(Virtual Society Server Client Protocol)に基づ
いて、WLS11に対して共有サーバ12のURLを問い合わ
せる。このとき番号4で示すように、WLS11はHDD11
aに格納された共有サーバURL管理テーブルを参照して、
クライアントPC1およびクライアントPC2に対し
て、共有サーバ12のURLを通知する。Next, as shown in FIG.
The CML and the client PC 2 are respectively downloaded and temporarily stored in the local HDD 31.
2.0file is a VRML 2.0 browser, Community Place
Browser interprets and executes, and as shown by number 3,
The WLS 11 is inquired of the URL of the shared server 12 based on VSCP (Virtual Society Server Client Protocol). At this time, as shown by the number 4, the WLS 11
Referring to the shared server URL management table stored in a,
The client PC 1 and the client PC 2 are notified of the URL of the shared server 12.
【0115】このURLを用いて、図7に示すように、ク
ライアントPC1とクライアントPC2が、共有サーバ
12に接続する。その結果、番号5で示すように、この
共有サーバ12を介して共有3Dオブジェクトの位置や動
きなどに関する共有メッセージの送信が行われ、番号6
で示すように、その転送が行われ、マルチユーザ環境が
実現される。Using this URL, the client PC 1 and the client PC 2 connect to the shared server 12 as shown in FIG. As a result, as shown by the number 5, a shared message related to the position and movement of the shared 3D object is transmitted through the shared server 12, and the number 6 is transmitted.
As shown by, the transfer is performed, and a multi-user environment is realized.
【0116】なお、以上の接続手順の詳しい説明につい
ては、特開平9-81781号公報を参照されたい。For a detailed description of the above connection procedure, refer to JP-A-9-81781.
【0117】各クライアントPCのHDD31には、図8
に示すような各クライアントPCのユーザの分身である
アバタの経験パラメータを管理する経験パラメータ管理
テーブルが格納されている。FIG. 8 shows the HDD 31 of each client PC.
The experience parameter management table for managing the experience parameters of the avatar which is the alter ego of the user of each client PC as shown in FIG.
【0118】すなわち、図8に示すように、アバタの経
験パラメータに関するデータは、1つの仮想空間内にお
いて3Dオブジェクトを一意に特定するための3Dオブジェ
クトID、仮想空間内でのアバタの3次元座標値、ユーザ
によって選ばれた猿や猫などのアバタの外見の種類、そ
の性別、ユーザによって付与されたニックネーム、ユー
ザによって初期設定された日時、すなわちそのアバタの
誕生日時、誕生した仮想空間に付与されているワールド
名、並びにアバタの経験パラメータからなる。That is, as shown in FIG. 8, the data relating to the avatar's empirical parameters include a 3D object ID for uniquely specifying a 3D object in one virtual space, and a three-dimensional coordinate value of the avatar in the virtual space. The type of appearance of the avatar, such as a monkey or cat, selected by the user, its gender, the nickname given by the user, the date and time initialized by the user, that is, the date of the avatar's birthday, the virtual space created World name, and avatar experience parameters.
【0119】経験パラメータは、成長パラメータと取得
パラメータから構成されている。成長パラメータは、ア
バタの外観的成長を規定するフィジカルパラメータと、
性格等が反映された内面的成長を規定するためのメンタ
ルパラメータに大別される。The empirical parameters are composed of growth parameters and acquisition parameters. The growth parameters are physical parameters that define the appearance growth of the avatar,
It is broadly divided into mental parameters for defining internal growth reflecting personality and the like.
【0120】フィジカルパラメータは、身長(単位c
m)、体重(単位Kg)、体格指数、食欲指数、健康度指
数、および滞在時間(単位時間)からなる。The physical parameters are height (unit c)
m), body weight (unit: kg), body mass index, appetite index, health index, and stay time (unit time).
【0121】メンタルパラメータは、知能指数、言語能
力指数、社交性指数、自主性指数、活発性指数、および
機嫌指数により構成されている。The mental parameters include an intelligence index, a language ability index, a sociality index, an independence index, an activity index, and a mood index.
【0122】これらのパラメータは、アバタによって最
初に初期設定された誕生日時からの経過時間に伴って発
生するタイマーイベント、自らのユーザの操作に伴って
発生する操作イベント、および、相手のクライアントP
Cにおける自分のアバタに対する操作に伴って発生する
操作イベントに基づき、所定の成長パラメータ算出式に
よって算出された値に順次更新される。These parameters include a timer event that occurs with the elapsed time from the date of birth initially set by the avatar, an operation event that occurs with the user's own operation, and a client P
Based on an operation event that occurs in response to an operation on his / her avatar in C, the value is sequentially updated to a value calculated by a predetermined growth parameter calculation formula.
【0123】取得パラメータは、ユーザのアバタが仮想
空間内において行った、例えば、フィッシング、マラソ
ンなどのイベントにおいて取得した得点(ポイント)で
構成される。The acquisition parameters are constituted by the points (points) acquired by the user's avatar in the virtual space, for example, in events such as fishing and marathon.
【0124】図9は、クライアントPC1のCRTモニタ
画面上のVRMLブラウザのメインウインドウに隣接して表
示されるアクションパネルの機能を示している。FIG. 9 shows the function of the action panel displayed adjacent to the main window of the VRML browser on the CRT monitor screen of the client PC 1.
【0125】この図において、Aは(Active)と表記され
ている「呼ぶボタン」であり、相手のアバタを呼んだ
り、寝ている自分のアバタ(この場合のアバタは、いず
れも、例えば犬などの動物である)を起こす際にクリッ
クされる。In this figure, A is a “call button” described as (Active), which calls the avatar of the other party or his / her sleeping avatar (in this case, the avatar is, for example, a dog or the like). Clicked to wake up.)
【0126】Bは(Sleep)と表記されている「おやすみボ
タン」であり、自分のアバタを寝かす際にクリックされ
る。B is a “good night button” written as (Sleep), which is clicked when putting one's avatar to sleep.
【0127】Cは「ごはんボタン」であり、相手のアバ
タに食事を与える際にクリックされるボタンである。C is a "rice button" which is clicked when feeding a meal to the avatar of the other party.
【0128】Dは「ほめるボタン」であり、相手のアバ
タに笑いかけて褒めてあげる際にクリックされるボタン
である。D is a "praise button", which is clicked when laughing and praising the other party's avatar.
【0129】Eは「あそぶボタン」であり、自分のアバ
タが鬼になって逃げ回る相手のアバタを追いかけて、壁
にぶつかって逃げれない相手のアバタにぶつかるまで追
いつめて遊ぶ、いわゆる鬼ごっこで遊ぶ際にクリックさ
れるボタンである。E is a "play button", which is used to play a so-called tag game after chasing the avatar of the opponent whose avatar becomes a demon and fleeing, and chase until the avatar of the opponent who cannot escape by hitting the wall. The button to be clicked.
【0130】Fは「しかるボタン」であり、言う事を聞
かない相手のアバタを叱り付けて、しつけを行なう際に
クリックされるボタンである。[0130] F is a "warning button" which is clicked when scolding the avatar of the other party who does not hear what to say and performing discipline.
【0131】Gは「きれいにするボタン」であり、相手
のアバタをブラッシングしてきれいにする際にクリック
されるボタンである。G is a “clean button”, which is clicked when brushing the other party's avatar to clean it.
【0132】そして、例えば、図10に示すように、自
分のクライアントPC1において、ステップS1で、
「呼ぶボタン」Aがクリックされると(アクションパネ
ルが操作されると)、ステップS2で、その操作イベン
トに基づいて経験パラメータ(いまの場合、成長パラメ
ータ)更新処理が実行される。それによりに、食欲指
数、健康度指数、機嫌指数が、1/10から10/10
まで、0.1ポイントづつインクリメントされる。その操
作メッセージが更新済みのアバタの成長パラメータと共
に送信されると、共有サーバ12はステップS11でこ
れを受信し、さらにこれをステップS12で相手のクラ
イアントPC2へ送信する。Then, for example, as shown in FIG. 10, in own client PC1, in step S1,
When the "call button" A is clicked (when the action panel is operated), in step S2, an experience parameter (in this case, a growth parameter) update process is executed based on the operation event. As a result, the appetite index, health index, and mood index increased from 1/10 to 10/10
Up to 0.1 point increment. When the operation message is transmitted together with the updated avatar growth parameter, the shared server 12 receives the operation message in step S11, and transmits it to the partner client PC 2 in step S12.
【0133】また、例えば、「ごはんボタン」Cがクリ
ックされ、その操作イベントが発生する毎に、成長パラ
メータの体重が増加し、それに伴って、体格指数が、1
/10から10/10まで、0.1ポイントづつインクリ
メントされる。Further, for example, every time the “rice button” C is clicked and the operation event occurs, the weight of the growth parameter increases, and accordingly, the physique index becomes 1
It is incremented by 0.1 points from / 10 to 10/10.
【0134】その後、時間経過に伴うタイマーイベント
が発生すると、ステップS2で、成長パラメータの体重
が減少し、それに伴って、体格指数が0.1ポイントづつ
デクリメントされる。Thereafter, when a timer event occurs with the lapse of time, in step S2, the weight of the growth parameter decreases, and accordingly, the physique index is decremented by 0.1 point.
【0135】例えば、この体格指数を含む成長パラメー
タは、更新される毎に、共有サーバ12のマルチキャス
ト処理により、ステップS12で、仮想空間を共有して
いるその他のクライアントPCへ転送される。For example, every time the growth parameters including the physique index are updated, they are transferred to other client PCs sharing the virtual space by multicast processing of the shared server 12 in step S12.
【0136】クライアントPC1では、他のクライアン
トPC2から送信されてきた(共有サーバ12のステッ
プS21の受信処理と、ステップS22の転送処理によ
り送信されてきた)成長パラメータに基づいて、ステッ
プS3で、アバタの成長に伴う自律的な挙動を制御する
ための処理手順が記述された経験(成長)スクリプトプ
ログラムが実行され、ステップS4で、VRMLファイルの
アバタを表現するための3Dオブジェクトを構成する各ノ
ードのフィールドの値が変更され、ステップS5で、こ
の変更されたフィールドの値が反映されたアバタがレン
ダリングされ、クライアントPC1のCRTモニタ画面上
のVRMLブラウザのメインウインドウ上に表示される。In step S3, the client PC1 determines the avatar based on the growth parameters transmitted from the other client PC2 (transmitted by the reception processing in step S21 of the shared server 12 and the transfer processing in step S22). An experience (growth) script program in which a processing procedure for controlling autonomous behavior accompanying the growth of the game is described is executed. In step S4, each node constituting a 3D object for expressing an avatar of a VRML file is executed. The value of the field is changed, and in step S5, the avatar reflecting the changed value of the field is rendered and displayed on the main window of the VRML browser on the CRT monitor screen of the client PC1.
【0137】このクライアントPC1と同じ処理が、仮
想空間を共有しているその他のクライアントPCにおい
ても実行され、これによりアバタの成長に伴って変更さ
れたフィールドの値が反映されたアバタの姿がレンダリ
ングされ、他のクライアントPCのCRTモニタ画面上のV
RMLブラウザのメインウインドウ上にも表示されること
になる。The same processing as that of the client PC 1 is executed in the other client PCs sharing the virtual space, whereby the avatar in which the values of the fields changed with the growth of the avatar are reflected is rendered. V on the CRT monitor screen of another client PC
It will also be displayed on the main window of the RML browser.
【0138】図11および図12に、VRMLファイルのア
バタを表現するための3Dオブジェクトを構成する各ノー
ドに対応したpart0乃至part5の関係(図11)と、その
表示例(図12)を示す。part0がアバタの頭部に相当
し、part1がアバタの胴体に相当し、part2とpart3がア
バタの右腕と左腕に相当し、part4とpart5がアバタの右
足と左足に相当する。FIGS. 11 and 12 show the relationship between part0 to part5 corresponding to each node constituting the 3D object for expressing the avatar of the VRML file (FIG. 11), and a display example (FIG. 12). part0 corresponds to the avatar's head, part1 corresponds to the avatar's torso, part2 and part3 correspond to the avatar's right and left arms, and part4 and part5 correspond to the avatar's right and left feet.
【0139】これらの各part0乃至part5に対応する各ノ
ードのフィールドの値を変更することで、アバタの各部
の外観(形状、姿勢(向き)、サイズ、色等)、および
各部の挙動シーケンスを動的に変更する事が出来る。こ
らは全て、成長パラメータに基づく成長スクリプトプロ
グラムの処理で実現される。すなわち、VRML2.0で定義
されたセンサー、ルーティング、スクリプトの連携動作
によって実現されるBehaviorのメカニズムを利用するこ
とによって実現される。By changing the value of the field of each node corresponding to each of these parts 0 to 5, the appearance (shape, posture (direction), size, color, etc.) of each part of the avatar and the behavior sequence of each part are changed. Can be changed. These are all realized by processing of a growth script program based on growth parameters. That is, it is realized by using the Behavior mechanism realized by the cooperative operation of the sensor, the routing, and the script defined in VRML2.0.
【0140】従って、従来の携帯電子ペットの仮想生物
の画像表示方法のように、予め仮想生物のキヤラクタの
成長過程の各段階のビットマップ画像をROMに格納して
おく必要はなく、例えば、アバタの成長経過に応じてそ
の体格や挙動を連続的かつ動的に変化させる事が出来
る。Therefore, unlike the conventional method of displaying an image of a virtual creature of a portable electronic pet, it is not necessary to previously store the bitmap image of each stage in the growth process of the character of the virtual creature in the ROM. It is possible to continuously and dynamically change its physique and behavior according to the progress of growth.
【0141】図13は、アバタの成長と体格指数の遷移
に伴ってアバタの体格を動的に変更して表示する概念図
を示している。加齢に伴って、顔が大人の顔となり、体
格も大きくなるが、体格指数が小さいと、やせた身体と
なり、大きいと、大きな身体となる。FIG. 13 is a conceptual diagram for dynamically changing and displaying the avatar's physique in accordance with the growth of the avatar and the transition of the physique index. With aging, the face becomes an adult face and the physique increases, but if the physique index is small, the body becomes lean, and if it is large, the body becomes large.
【0142】図14は、アバタの機嫌指数の遷移に伴っ
てアバタの表情を動的に変更して表示する概念図を示し
ている。機嫌指数が大きいと、笑い顔となり、小さい
と、怒った顔になる。FIG. 14 is a conceptual diagram showing the avatar's expression dynamically changed and displayed according to the transition of the avatar's mood index. A high mood index results in a laughing face, while a low mood index results in an angry face.
【0143】図15は、アバタの活発性指数の遷移に伴
ってアバタの各部の挙動シーケンスを動的に変更して表
示する概念図を示している。活発性指数が小さいと、足
の屈伸程度の動きしかできないが、大きくなると、手を
振ったり、頭を振ったりすることができる。FIG. 15 is a conceptual diagram of dynamically changing and displaying the behavior sequence of each part of the avatar according to the transition of the avatar's activity index. When the activity index is small, only movement of the legs can be performed, but when it is large, the hand can shake or shake the head.
【0144】図16は、アバタの知能指数の遷移に伴っ
てアバタへ頭髪を付加したり眼鏡を付加して表示する概
念図を示している。FIG. 16 is a conceptual diagram showing the display of the avatar with the addition of hair or glasses with the transition of the avatar's intelligence index.
【0145】ここで、成長パラメータの知能指数は、図
9に示す「呼ぶボタン」Aの操作に伴うアクセスイベン
トに基づいて、0.1ポイントづつインクリメントされ、
図16に示すようにアバタの外観に影響を与える。Here, the intelligence index of the growth parameter is incremented by 0.1 point based on an access event accompanying the operation of the “call button” A shown in FIG.
As shown in FIG. 16, this affects the appearance of the avatar.
【0146】言語指数は、図9に示す「呼ぶボタン」A
の操作に伴うアクセスイベントやタイマーイベントに基
づくアバタの年齢に応じて0.1ポイントづつインクリメ
ントされ、アバタの年齢増加に応じて、テキストベース
でのチャットの文章編集処理を実行するに際し、そのテ
キストの文体に影響を与える。The language index is represented by a “call button” A shown in FIG.
It is incremented by 0.1 point according to the age of the avatar based on the access event and timer event associated with the operation of the avatar, and according to the age increase of the avatar, when executing the text-based chat text editing process, the text style Affect.
【0147】社交性指数は、相手のアバタとのチャット
の頻度に応じて0.1ポイントづつインクリメント又はデ
クリメントされ、頻度が多ければ外向的な振る舞い、頻
度が少なくなれば内向的な振る舞い、となるようにアバ
タの振る舞いに影響を与える。社交的で明るく、積極的
な性格のアバタは、姿勢も顔色も良くなり、逆に、内向
的で暗く、消極的な性格のアバタは、姿勢も顔色も悪く
なる。The sociability index is incremented or decremented by 0.1 point in accordance with the frequency of chatting with the avatar of the other party. Affects avatar behavior. An avatar with a sociable, cheerful and aggressive personality will have a better posture and complexion, while a avatar with an introverted, darker and passive personality will have a worse posture and complexion.
【0148】自主性指数は、タイマーイベントに基づく
アバタの年齢増加に応じて、0.1ポイントづつインクリ
メントされ、次第にユーザの言う事を聞かなくなるなど
のアバタの振る舞いに影響を与える。The independence index is incremented in increments of 0.1 points according to the age increase of the avatar based on the timer event, and affects the behavior of the avatar such that the user gradually stops listening to the user.
【0149】活発性指数は、年齢、食欲指数、健康度指
数などに基づいて決定され、図15に示すように、アバ
タの振る舞いに影響を与える。また、図9に示す「あそ
ぶボタン」Eの操作に伴う操作イベントの発生に基づい
て、活発性指数が0.1ポイントづつインクリメントさ
れ、次第に逃げ足が早くなるなどのアバタの振る舞いに
影響を与えたり、アバタの体重を減らして体格指数をデ
クリメントして図13に示すようにその外観に動的な変
更を与える。The activity index is determined based on the age, appetite index, health index, and the like, and affects the behavior of the avatar as shown in FIG. In addition, based on the occurrence of an operation event associated with the operation of the "play button" E shown in FIG. The body weight is reduced and the body mass index is decremented to give a dynamic change to its appearance as shown in FIG.
【0150】機嫌指数は、図9に示す「呼ぶボタン」A
の操作に伴うアクセスイベントやタイマーイベントに基
づくアクセス頻度などに基づいて決定され、図14に示
すように、アバタの表情に影響を与える。The mood index is calculated using the “call button” A shown in FIG.
Is determined based on an access event based on an access event associated with the operation or a timer event, and affects the expression of the avatar as shown in FIG.
【0151】その結果、例えばチャットで話しかけるな
ど、自発的な行為の場合は、内面的成長の度合いを1だ
けインクリメントし、話しかけられるなど、受け身的な
行為が行われた場合は、1だけデクリメントし、「ほめ
るボタン」Dがクリックされた場合には、5だけインク
リメントし、「しかるボタン」Fがクリックされた場合
には、5だけデクリメントするなどして、よちよち歩き
の赤ん坊から、立派な大人を経て、老人になるまで、年
齢に応じてアバタの外見を変化させることができる。As a result, for example, in the case of a spontaneous action such as talking in a chat, the degree of internal growth is incremented by one, and in the case of a passive action such as talking, the decrement is decremented by one. When the "praise button" D is clicked, the value is incremented by 5, and when the "appropriate button" F is clicked, the value is decremented by 5, etc., so that a good adult can be removed from the toddler baby. You can change the appearance of avatars according to their age until they become old.
【0152】図17は、アバタの成長パラメータに対応
する変化の他の例を示している。この例においては、ア
バタは人間とされ、赤ちゃん、子供、青年、大人、老人
と変化し、転生により、老人から再び赤ちゃんに戻るよ
うになされている。FIG. 17 shows another example of the change corresponding to the avatar growth parameter. In this example, the avatar is a human being, changed into a baby, child, adolescent, adult, or old man, and reincarnated to return from the old man to the baby again.
【0153】図13乃至図16に示すような、年齢(仮
想空間内における滞在時間の累積値)に対応して発生す
る変化は、比較的、徐々に行われる。換言すれば、変化
した後の外形から、変化する前の外形をある程度想像す
ることができ、各ユーザは、その関連性をある程度認識
することができる。しかしながら、アバタが図17に示
すように変化するものとすると、変化前と変化後のアバ
タの同一性を各ユーザが想像することが困難になる。The changes that occur according to the age (cumulative value of the stay time in the virtual space) as shown in FIGS. 13 to 16 are relatively gradually performed. In other words, the external shape before the change can be imagined to some extent from the external shape after the change, and each user can recognize the relevance to some extent. However, if the avatar changes as shown in FIG. 17, it becomes difficult for each user to imagine the identity of the avatar before and after the change.
【0154】例えば、図17に子供で示すアバタが、仮
想空間内において歩いていき、ビルの影にいったん隠れ
た後、2、3秒たって、再びビルの影から現れたとき
に、そのアバタが子供から青年に変化していたとする
と、その青年は、2、3秒前に子供であったアバタと同
一であると認識することが困難であり、別のアバタが現
れたものと認識されることになる。For example, when the avatar shown as a child in FIG. 17 walks in the virtual space and once hides in the shadow of a building, and after a few seconds, it reappears from the shadow of the building, If the child changed from a child to an adolescent, the adolescent would have difficulty recognizing the same avatar as a child a few seconds ago, and would recognize that another avatar had appeared become.
【0155】そこで、このような場合においては、成長
パラメータの更新を、そのアバタがいったん仮想空間か
ら離脱した後、行うようにすることができる。図18
は、この場合の処理例を表している。Therefore, in such a case, the update of the growth parameter can be performed after the avatar has once left the virtual space. FIG.
Represents a processing example in this case.
【0156】すなわち、最初にステップS41におい
て、アバタが仮想空間に再び滞在を開始するとき、前回
までの滞在時間の累積値(寿命残時間)が、経験パラメ
ータ管理テーブルの成長パラメータから読み出される。
そして、その年齢(寿命残時間)に対応するアバタが読
み出され、ステップS42において、そのアバタの種類
と、ステップS41で読み出された滞在時間が、共有サ
ーバ12を介して他のクライアントPCに通知される。
従って、他のクライアントPCのCRTモニタには、その
滞在時間(年齢)に対応するアバタの画像が表示され
る。That is, first, in step S41, when the avatar starts to stay in the virtual space again, the accumulated value of the stay time up to the previous time (remaining life time) is read from the growth parameter of the experience parameter management table.
Then, the avatar corresponding to the age (remaining life time) is read, and in step S42, the type of the avatar and the stay time read in step S41 are transmitted to another client PC via the shared server 12. Notified.
Therefore, an avatar image corresponding to the staying time (age) is displayed on the CRT monitor of another client PC.
【0157】次に、ステップS43に進み、そのアバタ
が、仮想空間からログアウトしたか否か(離脱したか否
か)が判定される。アバタが、仮想空間から離脱してい
ない場合には、ステップS44に進み、滞在時間の現在
値に、それまでの滞在時間を加算する処理が行われる。
ステップS45においては、ステップS44で行われた
演算結果を、経験パラメータ管理テーブルの成長パラメ
ータの滞在時間として保存する処理が実行される。すな
わち、そのアバタの滞在時間が、ステップS45におい
て更新される。その後、ステップS43に戻り、それ以
降の処理が繰り返し実行される。このステップS43乃
至S45における滞在時間の累積処理は、一定周期(例
えば1分)毎に行われる。そして、ステップS43にお
いて、アバタが仮想空間から離脱したと判定された場
合、処理が終了される。Next, the process proceeds to a step S43, where it is determined whether or not the avatar has logged out of the virtual space (whether or not it has left). If the avatar has not departed from the virtual space, the process proceeds to step S44, and processing for adding the current stay time to the current stay time is performed.
In step S45, a process of storing the calculation result performed in step S44 as the stay time of the growth parameter in the experience parameter management table is executed. That is, the stay time of the avatar is updated in step S45. Thereafter, the process returns to step S43, and the subsequent processing is repeatedly executed. The process of accumulating the stay time in steps S43 to S45 is performed at regular intervals (for example, one minute). If it is determined in step S43 that the avatar has left the virtual space, the process ends.
【0158】すなわち、この場合においては、一度、ア
バタが仮想空間に滞在すると、連続して滞在している期
間においては、そのアバタの滞在時間(年齢)に起因し
て、その外形が変化されることはなく、一度、仮想空間
を退出するまで、同一の外形(年齢)とされる。従っ
て、同一の滞在サイクル期間内に、アバタの外形が変化
して、同一性が損なわれるようなことが防止される。That is, in this case, once the avatar stays in the virtual space, the outer shape of the avatar changes during the continuous stay due to the staying time (age) of the avatar. The same outer shape (age) is used until the user leaves the virtual space once. Therefore, it is prevented that the external shape of the avatar changes during the same stay cycle period, and the identity is lost.
【0159】そして、そのアバタが、仮想空間から離脱
し、再び仮想空間内に滞在を開始するとき、前回の滞在
サイクルまでの滞在時間の累積値に対応する外形のアバ
タとして登場することになる。Then, when the avatar leaves the virtual space and starts staying in the virtual space again, it appears as an avatar having an outer shape corresponding to the accumulated value of the stay time up to the previous stay cycle.
【0160】なお、アバタの仮想空間内における滞在時
間は、例えば、Windows95のシステム設定の情報を管理
しているレジストリ中の所定の領域に保持しておくよう
にしてもよい。このレジストリの内容は、テキストファ
イル形式で情報の読み書きが可能である。The stay time of the avatar in the virtual space may be stored in a predetermined area in a registry that manages information on the system settings of Windows 95, for example. The contents of this registry can be read and written in text file format.
【0161】なお、以上の原理は、アバタの外形が大き
く変化する場合だけでなく、身長、体重、顔立ち、ファ
ッションなどを、滞在時間(年齢)に応じて変化させた
り、髭、髪の毛などを、滞在時間に対応して変化させる
場合にも適用することができる。The above principle is not limited to the case where the external shape of the avatar changes greatly, but also changes the height, weight, facial features, fashion, etc. according to the staying time (age), and changes the beard, hair, etc. The present invention can also be applied to a case where it is changed according to the stay time.
【0162】また、アバタが、ボイスチャット機能を利
用して、音声で他のアバタのユーザと会話を行うような
場合、音声に付加するエフェクトを、その滞在時間に対
応して、若い声からしわがれた声に変化させるようにし
てもよい。In the case where the avatar has a voice conversation with another avatar user using the voice chat function, the effect added to the voice is reduced from the young voice corresponding to the staying time. You may make it change into a voice.
【0163】さらに、テキストチャット機能により、文
字を使って会話が行われる場合、その文字(フォント)
を、滞在時間が少ない場合には丸文字とし、滞在時間が
長くなるにつれて明朝体の文字とし、老年期に相当する
滞在時間には、行書あるいは草書の文字を用いるように
することができる。Further, when a conversation is performed using characters by the text chat function, the characters (fonts)
May be circled when the staying time is short, and may be changed to Mincho font as the staying time increases, and a line or cursive letter may be used for the staying time corresponding to the old age.
【0164】次に、取得パラメータの例について説明す
る。いま、アバタが、仮想空間の海にきて、釣りをする
ものとする。アバタが、仮想空間の海に近い場所に移動
すると、そのアバタのユーザのCRTモニタには、例えば
図19に示すような海の画像が表示される。この海に
は、同図に示すように、魚が泳いでいる。例えば、図1
9に示す子供のアバタのユーザのCRTモニタには、例え
ば図20に示すような海の画像が表示されることにな
る。Next, examples of acquisition parameters will be described. Now, it is assumed that the avatar comes to the sea in the virtual space and goes fishing. When the avatar moves to a place near the sea in the virtual space, an image of the sea as shown in FIG. 19 is displayed on the CRT monitor of the user of the avatar. As shown in the figure, fish are swimming in this sea. For example, FIG.
For example, an image of the sea as shown in FIG. 20 is displayed on the CRT monitor of the child avatar user shown in FIG.
【0165】所定のユーザのアバタが、この海で釣りを
する場合の処理が、図21のフローチャートに示されて
いる。なお、アバタが行う釣りは、アバタのユーザが、
マウスで移動する所定の魚をクリックすることで行われ
る。The processing when the avatar of a predetermined user fishes in this sea is shown in the flowchart of FIG. In addition, the fishing that the avatar performs, the user of the avatar,
This is performed by clicking a predetermined fish to be moved with the mouse.
【0166】最初にステップS61において、魚が釣ら
れたか否かが判定される。釣られていない場合には、ス
テップS66に進み、釣りが終了されたか否かが判定さ
れ、終了されていなければ、ステップS61に戻り、そ
れ以降の処理が繰り返し実行される。First, in step S61, it is determined whether or not a fish has been caught. If the fish has not been caught, the process proceeds to step S66, and it is determined whether the fishing has been completed. If the fish has not been caught, the process returns to step S61, and the subsequent processes are repeatedly executed.
【0167】ユーザが、海を泳ぐ魚をうまくクリックす
ることで、魚を釣ったとステップS61で判定された場
合、ステップS62に進み、その釣られた魚の大きさ、
種類に対応するポイントが計算される。魚は大きいほど
ポイントが大きく、また、高価な魚ほどポイントが大き
くなる。ステップS62で計算されたポイントは、ステ
ップS63において、現在、そのアバタが有する得点に
加算され、取得パラメータのフィッシングの得点として
記憶される。If it is determined in step S61 that the user has caught the fish by successfully clicking the fish swimming in the sea, the process proceeds to step S62, where the size of the fish caught is determined.
Points corresponding to the type are calculated. The larger the fish, the larger the points, and the more expensive the fish, the larger the points. The point calculated in step S62 is added to the score currently held by the avatar in step S63, and is stored as the fishing score of the acquisition parameter.
【0168】次に、ステップS64において、ステップ
S63で計算された現在の得点に対応する修飾品が検索
され、その修飾品を修飾する処理が実行される。すなわ
ち、クライアントPCのHDD31のVRML2.0ファイルに
は、この修飾品を修飾した画像が予め用意されており、
ユーザのアバタは、それまでのアバタから、そのアバタ
に対して修飾品を修飾(付加)した状態のアバタに変更
される。Next, in step S64, a modified product corresponding to the current score calculated in step S63 is searched, and a process of modifying the modified product is executed. That is, in the VRML2.0 file of the HDD 31 of the client PC, an image obtained by modifying this modified product is prepared in advance,
The user's avatar is changed from the previous avatar to an avatar in which a modified product is modified (added) to the avatar.
【0169】例えば、それまでのアバタの外形が、図2
2に示すような外形であったとすると、フィッシングの
得点が所定の値に達したとき、アバタは、図23に示す
ように、それまでのアバタに蝶ネクタイを修飾したアバ
タに変更される。得点が、さらに増加した場合には、例
えば図24に示すように、蝶ネクタイに代えて勲章を修
飾したアバタに変更される。得点がさらに大きくなった
場合には、勲章に代えて、図25に示すように、王冠を
修飾したアバタに変更される。図22に示すアバタと、
図23乃至図25に示すアバタを比較して明らかなよう
に、修飾品を修飾する前のアバタと、修飾品を修飾した
後のアバタとは、同一性が確保されており、各ユーザ
は、修飾品を修飾していない状態のアバタと、修飾品を
修飾している状態のアバタを見比べて、両者が同一のア
バタであることを認識することができるようになされて
いる。この点、図17の成長パラメータに起因してアバ
タそのものを修正(変更)する例と異なっている。For example, the external shape of the avatar is shown in FIG.
Assuming that the outer shape is as shown in FIG. 2, when the fishing score reaches a predetermined value, the avatar is changed to an avatar obtained by modifying the previous avatar with a bow tie, as shown in FIG. If the score is further increased, for example, as shown in FIG. 24, the avatar is modified to an avatar modified with a medal instead of a bow tie. When the score is further increased, instead of the medal, as shown in FIG. 25, the avatar is modified to the crown. An avatar shown in FIG. 22;
As is clear from the comparison of the avatars shown in FIGS. 23 to 25, the avatar before the modification of the modified product and the avatar after the modification of the modified product have the same identity. By comparing the avatar in a state where the modified product is not modified with the avatar in a state where the modified product is modified, it is possible to recognize that both are the same avatar. This is different from the example in which the avatar itself is modified (changed) due to the growth parameters in FIG.
【0170】さらに、ステップS65においては、ステ
ップS63で計算され、更新された取得パラメータが、
共有サーバ12を介して他のクライアント通知される。
その結果、他のクライアントPCにおけるCRTモニタ上
の画像が、その得点に対応する修飾品を修飾したアバタ
に変更される。Further, in step S65, the updated acquisition parameters calculated in step S63 are:
Other clients are notified via the shared server 12.
As a result, the image on the CRT monitor of another client PC is changed to an avatar obtained by modifying a modified product corresponding to the score.
【0171】次に、ステップS66において、フィッシ
ングが終了されたか否かが判定され、終了されていなけ
ればステップS61に戻り、同様の処理が繰り返し実行
される。フィッシングが終了したと、ステップS66に
おいて判定された場合には、処理が終了される。Next, in step S66, it is determined whether or not the phishing has been completed. If not, the process returns to step S61, and the same processing is repeatedly performed. If it is determined in step S66 that the phishing has ended, the process ends.
【0172】修飾品の修飾は、イベント(経験)毎に異
なっている。従って、各ユーザは、蝶ネクタイ、勲章、
または王冠の修飾品を修飾しているアバタは、フィッシ
ングを経験しているアバタであると認識することができ
る。そして、フィッシングが好きなアバタは、仮想空間
において、同一の趣味を有する他のアバタを、この修飾
品を基準にして、迅速かつ容易に見いだすことができ、
必要に応じて、そのアバタに話しかけ、チャットを楽し
むことができる。The modification of the modified product differs for each event (experience). Therefore, each user has a bow tie, medal,
Alternatively, the avatar modifying the crown decoration can be recognized as an avatar experiencing fishing. An avatar who likes fishing can quickly and easily find other avatars having the same hobby in the virtual space, based on the modified product.
If necessary, you can talk to the avatar and enjoy chatting.
【0173】図19と図20の表示例においては、この
チャットの例が示されている。すなわち、この表示例に
おいては、「おさかなつれますか」、「なかなかつかま
らないなぁ」、「がんばってね」のチャットが行われて
いる。FIGS. 19 and 20 show examples of this chat. In other words, in this display example, the chats "Can you fish?", "I can't help you", and "Go for it" are performed.
【0174】このように、取得パラメータは、アバタが
所定の得点を取得したとき、直ちに、他のアバタに通知
される。すなわち、この場合の処理は、図10に示した
ように行われる。取得パラメータが変化しても、修飾品
が修飾された状態にアバタの外形が変更されるだけなの
で(変更される前と変更された後のアバタの同一性を確
認することができるので)、各ユーザが違和感を覚える
ようなことはない。As described above, the obtained parameters are immediately notified to other avatars when the avatar obtains a predetermined score. That is, the process in this case is performed as shown in FIG. Even if the acquisition parameters change, the avatar's outer shape is only changed to the state in which the qualifier has been modified (since the avatar's identity before and after the change can be confirmed). The user does not feel uncomfortable.
【0175】なお、修飾品としては、この他、帽子、ジ
ャケット、釣竿、ルアーなどとすることができる。[0175] In addition, as a modified product, a hat, a jacket, a fishing rod, a lure, and the like can be used.
【0176】また、フィッシング以外に、例えば、マラ
ソン、ゴルフなどのコンテストで優賞したアバタに、各
種の修飾品を修飾させるようにすることができる。In addition to fishing, for example, avatars that have won a contest such as a marathon or golf can be modified with various modified products.
【0177】このようにして、より現実に近い変化を共
有仮想空間において楽しむことができる。[0177] In this manner, a change closer to reality can be enjoyed in the shared virtual space.
【0178】なお、以上の各種の処理を実行するコンピ
ュータプログラムは、フロッピーディスク、CD-ROMディ
スク、その他の記録媒体に記録して提供したり、インタ
ーネットを介して伝送することで提供することができ
る。The computer programs for executing the above various processes can be provided by recording them on a floppy disk, CD-ROM disk, or other recording medium, or by transmitting them via the Internet. .
【0179】[0179]
【発明の効果】以上の如く、請求項1に記載のクライア
ント装置、請求項8に記載の画像表示制御方法、およ
び、請求項9に記載の伝送媒体によれば、共有仮想空間
内に存在するクライアントの分身としての仮想生命オブ
ジェクトを、所定のイベントの発生に応じて変化する経
験パラメータに対応して修飾するようにしたので、簡単
かつ確実に、仮想生命オブジェクトの共有仮想空間内に
おける経験を各ユーザに認識させることが可能となる。As described above, according to the client apparatus of the first aspect, the image display control method of the eighth aspect, and the transmission medium of the ninth aspect, the client apparatus exists in the shared virtual space. Since the virtual life object as the alter ego of the client is modified in accordance with the experience parameter that changes according to the occurrence of a predetermined event, the experience of the virtual life object in the shared virtual space can be easily and reliably measured. It is possible to make the user recognize.
【0180】請求項10に記載の共有仮想空間提供装
置、請求項11に記載の共有仮想空間提供方法、およ
び、請求項12に記載の伝送媒体によれば、第1のクラ
イアント装置から更新された経験パラメータが送信され
てきたとき、第2のクライアント装置に転送するように
したので、共有仮想空間における仮想生命オブジェクト
の経験を各ユーザに、容易に認識させることが可能な共
有仮想空間を提供することができる。According to the shared virtual space providing apparatus of the tenth aspect, the shared virtual space providing method of the eleventh aspect, and the transmission medium of the twelfth aspect, the updated information is provided from the first client apparatus. Since the experience parameter is transmitted to the second client device when the experience parameter is transmitted, a shared virtual space that allows each user to easily recognize the experience of the virtual life object in the shared virtual space is provided. be able to.
【図1】センサー、イベント、ルーティング、およびス
クリプトの関係を説明する図である。FIG. 1 is a diagram illustrating the relationship among sensors, events, routing, and scripts.
【図2】ルーティングを説明する図である。FIG. 2 is a diagram illustrating routing.
【図3】本発明を適用した共有仮想空間提供システムの
構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a shared virtual space providing system to which the present invention has been applied.
【図4】図1のクライアントPC1の構成例を示すブロ
ック図である。FIG. 4 is a block diagram showing a configuration example of a client PC 1 of FIG.
【図5】図3のシステムの動作を説明するディスプレイ
の写真である。FIG. 5 is a photograph of a display illustrating the operation of the system of FIG. 3;
【図6】図3のシステムの動作を説明するディスプレイ
の写真である。FIG. 6 is a photograph of a display illustrating the operation of the system of FIG. 3;
【図7】図3のシステムの動作を説明するディスプレイ
の写真である。FIG. 7 is a photograph of a display illustrating the operation of the system of FIG. 3;
【図8】経験パラメータ管理テーブルの例を示す図であ
る。FIG. 8 is a diagram showing an example of an experience parameter management table.
【図9】アクションパネルを説明するディスプレイの写
真である。FIG. 9 is a photograph of a display illustrating an action panel.
【図10】成長パラメータの授受を説明する図である。FIG. 10 is a diagram for explaining exchange of growth parameters.
【図11】3Dオブジェクトを構成するアバタのノード
を説明する図である。FIG. 11 is a diagram illustrating an avatar node forming a 3D object.
【図12】図11に示したノードに対応する表示例を示
すディスプレイの写真である。FIG. 12 is a photograph of a display showing a display example corresponding to the node shown in FIG. 11;
【図13】アバタの体格指数を説明する図である。FIG. 13 is a diagram illustrating an avatar physique index.
【図14】アバタの機嫌指数を説明する図である。FIG. 14 is a diagram illustrating an avatar's mood index.
【図15】アバタの活発性指数を説明する図である。FIG. 15 is a diagram illustrating an avatar activity index.
【図16】アバタの知能指数を説明する図である。FIG. 16 is a diagram illustrating an avatar's intelligence index.
【図17】アバタの形状の変化を説明する図である。FIG. 17 is a diagram illustrating a change in the shape of an avatar.
【図18】アバタの形状を図17に示すように変化させ
る場合の処理を説明するフローチャートである。FIG. 18 is a flowchart illustrating a process for changing the shape of an avatar as shown in FIG. 17;
【図19】共有仮想空間のディスプレイの表示例を示す
写真である。FIG. 19 is a photograph showing a display example of a display in a shared virtual space.
【図20】共有仮想空間のディスプレイの表示例を示す
写真である。FIG. 20 is a photograph showing a display example of a display in a shared virtual space.
【図21】フィッシングのゲームの処理を説明するフロ
ーチャートである。FIG. 21 is a flowchart illustrating a fishing game process.
【図22】共有仮想空間のディスプレイの表示例を示す
写真である。FIG. 22 is a photograph showing a display example of a display in a shared virtual space.
【図23】共有仮想空間のディスプレイの表示例を示す
写真である。FIG. 23 is a photograph showing a display example of a display in a shared virtual space.
【図24】共有仮想空間のディスプレイの表示例を示す
写真である。FIG. 24 is a photograph showing a display example of a display in a shared virtual space.
【図25】共有仮想空間のディスプレイの表示例を示す
写真である。FIG. 25 is a photograph showing a display example of a display in a shared virtual space.
1乃至3 クライアントPC, 7 インターネット,
10 WWWサーバ,12 共有サーバ, 30 CPU,
31 ハードディスク, 39 モデム, 45 CR
Tモニタ, 46 RAM1-3 client PC, 7 Internet,
10 WWW server, 12 shared server, 30 CPU,
31 hard disk, 39 modem, 45 CR
T monitor, 46 RAM
Claims (12)
ら共有仮想空間の情報の提供を受けるクライアント装置
において、 前記共有仮想空間内に存在するユーザの分身としての仮
想生命オブジェクトの、所定のイベントの発生に応じて
変化する経験パラメータを管理する経験パラメータテー
ブルを記憶する記憶手段と、 自己の分身としての前記仮想生命オブジェクトの前記経
験パラメータを前記サーバを介して他のクライアント装
置に転送する転送手段と、 他のクライアント装置からサーバを介して転送されてき
た前記経験パラメータに基づいて、前記仮想生命オブジ
ェクトを修飾するスクリプトを解釈する解釈手段と、 前記解釈手段の解釈に基づいて、前記経験パラメータに
応じた仮想生命オブジェクトを表示させるように制御す
る制御手段とを備えることを特徴とするクライアント装
置。1. A client device which receives information of a shared virtual space from a server together with another client device, wherein a virtual life object as an alter ego of a user existing in the shared virtual space responds to occurrence of a predetermined event. A storage unit that stores an experience parameter table that manages an experience parameter that changes according to the following conditions: a transfer unit that transfers the experience parameter of the virtual life object as a self-alteration to another client device via the server; Interpreting means for interpreting a script for modifying the virtual life object based on the experience parameter transferred from the client device via the server; and a virtual life corresponding to the experience parameter based on the interpretation of the interpreting means. Control to control the display of the object Client device; and a stage.
ブジェクトが前記共有仮想空間において取得した得点に
基づいて算出される取得パラメータを含むことを特徴と
する請求項1に記載のクライアント装置。2. The client device according to claim 1, wherein the experience parameter includes an acquisition parameter calculated based on a score obtained by the virtual life object in the shared virtual space.
パラメータに対応して、新たな修飾品を付加して表示さ
れることを特徴とする請求項2に記載のクライアント装
置。3. The client device according to claim 2, wherein the virtual life object is displayed with a new decoration added in accordance with the acquisition parameter.
ーブルの取得パラメータが更新されたとき、そのとき更
新された取得パラメータを転送することを特徴とする請
求項2に記載のクライアント装置。4. The client device according to claim 2, wherein when the acquisition parameter of the experience parameter table is updated, the transfer unit transfers the updated acquisition parameter at that time.
ブジェクトの前記共有仮想空間における滞在時間の累積
値に基づいて算出される成長パラメータをさらに含み、
前記仮想生命オブジェクトは、前記成長パラメータに応
じて修正されることを特徴とする請求項2に記載のクラ
イアント装置。5. The experience parameter further includes a growth parameter calculated based on a cumulative value of a stay time of the virtual life object in the shared virtual space,
The client device according to claim 2, wherein the virtual life object is modified according to the growth parameter.
クトが前記共有仮想空間に滞在を開始するとき、その滞
在開始の直前までの滞在時間の累積値に基づいて算出さ
れた成長パラメータを転送することを特徴とする請求項
5に記載のクライアント装置。6. The transfer means transfers, when the virtual life object starts staying in the shared virtual space, a growth parameter calculated based on an accumulated value of stay time immediately before the start of the stay. The client device according to claim 5, wherein:
生命オブジェクトのボイスチャットの音声、またはテキ
ストチャットの字体が変更されることを特徴とする請求
項1に記載のクライアント装置。7. The client device according to claim 1, wherein a voice of a voice chat or a font of a text chat of the virtual life object is changed according to the experience parameter.
ら共有仮想空間の情報の提供を受けるクライアント装置
の画像表示制御方法において、 前記共有仮想空間内に存在するユーザの分身としての仮
想生命オブジェクトの、所定のイベントの発生に応じて
変化する経験パラメータを管理する経験パラメータテー
ブルを記憶する記憶ステップと、 自己の分身としての前記仮想生命オブジェクトの前記経
験パラメータを前記サーバを介して他のクライアント装
置に転送する転送ステップと、 他のクライアント装置からサーバを介して転送されてき
た前記経験パラメータに基づいて、前記仮想生命オブジ
ェクトを修飾するスクリプトを解釈する解釈ステップ
と、 前記解釈ステップでの解釈に基づいて、前記経験パラメ
ータに応じた仮想生命オブジェクトを表示させるように
制御する制御ステップとを備えることを特徴とする画像
表示制御方法。8. A method for controlling image display of a client device receiving information of a shared virtual space from a server together with another client device, wherein a predetermined virtual life object as an alter ego of a user existing in the shared virtual space is provided. A storage step of storing an experience parameter table for managing an experience parameter that changes in accordance with the occurrence of an event; and a transfer for transferring the experience parameter of the virtual life object as its own self to another client device via the server. Interpreting a script that qualifies the virtual life object based on the experience parameter transferred from another client device via a server; and interpreting the experience based on the interpretation in the interpreting step. Virtual life object according to parameters Image display control method characterized by comprising a control step of controlling so as to display the transfected.
ら共有仮想空間の情報の提供を受けるクライアント装置
に用いるコンピュータプログラムであって、 前記共有仮想空間内に存在するユーザの分身としての仮
想生命オブジェクトの、所定のイベントの発生に応じて
変化する経験パラメータを管理する経験パラメータテー
ブルを記憶する記憶ステップと、 自己の分身としての前記仮想生命オブジェクトの前記経
験パラメータを前記サーバを介して他のクライアント装
置に転送する転送ステップと、 他のクライアント装置からサーバを介して転送されてき
た前記経験パラメータに基づいて、前記仮想生命オブジ
ェクトを修飾するスクリプトを解釈する解釈ステップ
と、 前記解釈ステップでの解釈に基づいて、前記経験パラメ
ータに応じた仮想生命オブジェクトを表示させるように
制御する制御ステップとを備えるコンピュータプログラ
ムを伝送することを特徴とする伝送媒体。9. A computer program for use in a client device that receives information of a shared virtual space from a server together with another client device, the computer program comprising: a virtual life object as an alter ego of a user existing in the shared virtual space; Storing an experience parameter table for managing an experience parameter that changes in response to the occurrence of the event, and transferring the experience parameter of the virtual life object as a self-alteration to another client device via the server. A transfer step, an interpretation step of interpreting a script that qualifies the virtual life object based on the experience parameter transferred from another client device via a server, and, based on the interpretation in the interpretation step, Temporary according to experience parameters Transmission medium characterized by transmitting the computer program and a control step of controlling so as to display a life object.
間の情報を提供する共有仮想空間提供装置において、 第1のクライアント装置が、前記共有仮想空間内に存在
するユーザの分身としての仮想生命オブジェクトが前記
共有仮想空間において得点を取得したとき送信した、そ
の得点の累積値に対応する経験パラメータを受信する受
信手段と、 前記受信手段が受信した前記経験パラメータを、第2の
クライアント装置に転送する転送手段とを備えることを
特徴とする共有仮想空間提供装置。10. A shared virtual space providing device for providing information of a shared virtual space to a plurality of client devices, wherein the first client device is configured to include a virtual life object as an alter ego of a user existing in the shared virtual space. Receiving means for receiving an experience parameter corresponding to the accumulated value of the score transmitted when the score is obtained in the shared virtual space; and transferring means for transferring the experience parameter received by the receiving means to a second client device. And a shared virtual space providing apparatus.
間の情報を提供する共有仮想空間提供装置の共有仮想空
間提供方法において、 第1のクライアント装置が、前記共有仮想空間内に存在
するユーザの分身としての仮想生命オブジェクトが前記
共有仮想空間において得点を取得したとき送信した、そ
の得点の累積値に対応する経験パラメータを受信する受
信ステップと、前記受信ステップで受信した前記経験パ
ラメータを、第2のクライアント装置に転送する転送ス
テップとを備えることを特徴とする共有仮想空間提供方
法。11. A shared virtual space providing method for a shared virtual space providing apparatus for providing information of a shared virtual space to a plurality of client apparatuses, wherein the first client apparatus is a user who is present in the shared virtual space. A receiving step of receiving an experience parameter corresponding to an accumulated value of the score transmitted when the virtual life object obtains a score in the shared virtual space; and transmitting the experience parameter received in the receiving step to a second client. Transferring to a device.
間の情報を提供する共有仮想空間提供装置に用いるコン
ピュータプログラムであって、 第1のクライアント装置が、前記共有仮想空間内に存在
するユーザの分身としての仮想生命オブジェクトが前記
共有仮想空間において得点を取得したとき送信した、そ
の得点の累積値に対応する経験パラメータを受信する受
信ステップと、 前記受信ステップで受信した前記経験パラメータを、第
2のクライアント装置に転送する転送ステップとを備え
るコンピュータプログラムを伝送することを特徴とする
伝送媒体。12. A computer program for use in a shared virtual space providing device for providing information of a shared virtual space to a plurality of client devices, wherein the first client device is a user who exists in the shared virtual space. A receiving step of receiving an experience parameter corresponding to an accumulated value of the score, which is transmitted when the virtual life object obtains a score in the shared virtual space, and transmitting the experience parameter received in the receiving step to a second client. Transmitting a computer program comprising a transfer step of transferring to a device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9303403A JPH11120375A (en) | 1997-10-17 | 1997-10-17 | Client device, image display control method, device and method for common virtual space provision, and transmission medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9303403A JPH11120375A (en) | 1997-10-17 | 1997-10-17 | Client device, image display control method, device and method for common virtual space provision, and transmission medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11120375A true JPH11120375A (en) | 1999-04-30 |
Family
ID=17920614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9303403A Withdrawn JPH11120375A (en) | 1997-10-17 | 1997-10-17 | Client device, image display control method, device and method for common virtual space provision, and transmission medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11120375A (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000054028A (en) * | 2000-05-18 | 2000-09-05 | 문영일 | A network-based character creation system and method thereof |
KR20000071988A (en) * | 2000-06-07 | 2000-12-05 | 엄주천 | Educating system using character in internet and educating method thereof |
KR20010000172A (en) * | 2000-07-22 | 2001-01-05 | 전종한 | character upbringing system using paduk game on internet and upbringing method thereof |
KR20010007698A (en) * | 2000-05-15 | 2001-02-05 | 김양환 | Method for serving the engagement of a real time data transmission service with a character growth and the system therfor |
KR20010015928A (en) * | 1999-12-15 | 2001-03-05 | 송창건 | A apperarance of I, in Internet |
KR20010097853A (en) * | 2000-04-26 | 2001-11-08 | 김동현 | System and method for virtual breeding game and advertisement |
JP2001312644A (en) * | 2000-04-28 | 2001-11-09 | Sony Corp | Information processor, information processing method and storage medium |
JP2001325169A (en) * | 2000-05-15 | 2001-11-22 | Vasara:Kk | Cyberspace system using language with tag |
KR20020009374A (en) * | 2000-07-26 | 2002-02-01 | 김영화 | Internet cyber baby raising game and shopping mall |
KR20020014927A (en) * | 2000-08-19 | 2002-02-27 | 황석규 | Internet Scholarship method using Bringing-up game by internet web-site and local program connection type and system for the same |
KR20020073018A (en) * | 2001-03-14 | 2002-09-19 | 주식회사 다날 | Method for growing character by data communication |
KR20020082568A (en) * | 2001-04-24 | 2002-10-31 | 주식회사 부룩소 | System for network-based providing game-used scholarship data |
KR20020088353A (en) * | 2001-05-18 | 2002-11-27 | 아르재 가부시키가이샤 | Game Method Using Network, Server Executing The Game Method, and Storage Medium Storing Program Executing The Game Method |
KR20020095955A (en) * | 2001-06-18 | 2002-12-28 | (주)창과창 | Method for providing incentive to uplift studying effectiveness in internet studying service |
KR100377119B1 (en) * | 2000-04-26 | 2003-03-26 | 주식회사대교 | Method of progressing effect of internet education by virtual character |
KR20030030579A (en) * | 2001-10-09 | 2003-04-18 | 이국희 | Construction of cyber bullfighting arena on the Internet |
KR100393011B1 (en) * | 2000-07-13 | 2003-07-28 | 신동욱 | Method for realising burning candle on the internet space |
KR20040001701A (en) * | 2002-06-28 | 2004-01-07 | 김문수 | Learning system using avata on cyberspace |
KR100458902B1 (en) * | 2002-04-11 | 2004-12-03 | 전자부품연구원 | The education service device and method by using a physical growth model with wireless telecommunication and internet |
JP2009000524A (en) * | 2007-06-20 | 2009-01-08 | Nhn Corp | System for providing ranking of game avatar on network, and its method |
WO2009060955A1 (en) * | 2007-11-08 | 2009-05-14 | Nec Corporation | Avatar generation device, avatar generation method and avatar generation program |
WO2009136605A1 (en) | 2008-05-08 | 2009-11-12 | 株式会社エヌ・ティ・ティ・ドコモ | Virtual space provision device, program, and virtual space provision system |
JP2019146035A (en) * | 2018-02-21 | 2019-08-29 | 富士ゼロックス株式会社 | Information processing apparatus and program |
-
1997
- 1997-10-17 JP JP9303403A patent/JPH11120375A/en not_active Withdrawn
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010015928A (en) * | 1999-12-15 | 2001-03-05 | 송창건 | A apperarance of I, in Internet |
KR100377119B1 (en) * | 2000-04-26 | 2003-03-26 | 주식회사대교 | Method of progressing effect of internet education by virtual character |
KR20010097853A (en) * | 2000-04-26 | 2001-11-08 | 김동현 | System and method for virtual breeding game and advertisement |
JP2001312644A (en) * | 2000-04-28 | 2001-11-09 | Sony Corp | Information processor, information processing method and storage medium |
KR20010007698A (en) * | 2000-05-15 | 2001-02-05 | 김양환 | Method for serving the engagement of a real time data transmission service with a character growth and the system therfor |
JP2001325169A (en) * | 2000-05-15 | 2001-11-22 | Vasara:Kk | Cyberspace system using language with tag |
KR20000054028A (en) * | 2000-05-18 | 2000-09-05 | 문영일 | A network-based character creation system and method thereof |
KR20000071988A (en) * | 2000-06-07 | 2000-12-05 | 엄주천 | Educating system using character in internet and educating method thereof |
KR100393011B1 (en) * | 2000-07-13 | 2003-07-28 | 신동욱 | Method for realising burning candle on the internet space |
KR20010000172A (en) * | 2000-07-22 | 2001-01-05 | 전종한 | character upbringing system using paduk game on internet and upbringing method thereof |
KR20020009374A (en) * | 2000-07-26 | 2002-02-01 | 김영화 | Internet cyber baby raising game and shopping mall |
KR20020014927A (en) * | 2000-08-19 | 2002-02-27 | 황석규 | Internet Scholarship method using Bringing-up game by internet web-site and local program connection type and system for the same |
KR20020073018A (en) * | 2001-03-14 | 2002-09-19 | 주식회사 다날 | Method for growing character by data communication |
KR20020082568A (en) * | 2001-04-24 | 2002-10-31 | 주식회사 부룩소 | System for network-based providing game-used scholarship data |
KR20020088353A (en) * | 2001-05-18 | 2002-11-27 | 아르재 가부시키가이샤 | Game Method Using Network, Server Executing The Game Method, and Storage Medium Storing Program Executing The Game Method |
KR20020095955A (en) * | 2001-06-18 | 2002-12-28 | (주)창과창 | Method for providing incentive to uplift studying effectiveness in internet studying service |
KR20030030579A (en) * | 2001-10-09 | 2003-04-18 | 이국희 | Construction of cyber bullfighting arena on the Internet |
KR100458902B1 (en) * | 2002-04-11 | 2004-12-03 | 전자부품연구원 | The education service device and method by using a physical growth model with wireless telecommunication and internet |
KR20040001701A (en) * | 2002-06-28 | 2004-01-07 | 김문수 | Learning system using avata on cyberspace |
JP2009000524A (en) * | 2007-06-20 | 2009-01-08 | Nhn Corp | System for providing ranking of game avatar on network, and its method |
WO2009060955A1 (en) * | 2007-11-08 | 2009-05-14 | Nec Corporation | Avatar generation device, avatar generation method and avatar generation program |
WO2009136605A1 (en) | 2008-05-08 | 2009-11-12 | 株式会社エヌ・ティ・ティ・ドコモ | Virtual space provision device, program, and virtual space provision system |
JP2019146035A (en) * | 2018-02-21 | 2019-08-29 | 富士ゼロックス株式会社 | Information processing apparatus and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3932461B2 (en) | Client device, image display control method, shared virtual space providing device and method, and recording medium | |
JPH11120375A (en) | Client device, image display control method, device and method for common virtual space provision, and transmission medium | |
JP3932462B2 (en) | Client device, image display control method, shared virtual space providing device and method, and recording medium | |
US6704784B2 (en) | Information processing apparatus and method, information processing system and program providing medium | |
JP3799134B2 (en) | System and notification method | |
JPH11212934A (en) | Information processing device and method and information supply medium | |
JPH11213179A (en) | Device, method for providing shared virtual space and providing medium | |
EP0753835B1 (en) | A three-dimensional virtual reality space sharing method and system | |
JP3928229B2 (en) | Display control apparatus, display control method, and recording medium | |
US6820112B1 (en) | Information processing system, information processing method and apparatus, and information serving medium | |
JPH11203009A (en) | Information processing device and method and distribution medium | |
JP3566909B2 (en) | Three-dimensional animation system and method | |
US6734885B1 (en) | Information processing apparatus, method and computer program for virtual reality transparent avatars | |
JP3859020B2 (en) | 3D virtual reality space sharing method, 3D virtual reality space sharing system, information processing method, client terminal, and shared server terminal | |
JPH11203499A (en) | Information processor, information processing method and presentation medium | |
KR20040024627A (en) | Apparatus and method for a real-time avatar image generating system | |
JPH11219449A (en) | Information processor, information processing method, and providing medium | |
JP2003162735A (en) | Object change control data, information processor, server device, and its program | |
JP2007013622A (en) | Video communication server, video communication method, and video communication program | |
JP5160200B2 (en) | Virtual space system, method and program | |
Schmalstieg et al. | On System Architectures for Virtual Environments | |
KR20030008234A (en) | Manufacture and display methods of 3D animation data | |
KR20050023996A (en) | System for managing 3D character |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20050104 |