JP4032321B2 - 3D virtual reality space display processing apparatus, 3D virtual reality space display processing method, and information recording medium - Google Patents

3D virtual reality space display processing apparatus, 3D virtual reality space display processing method, and information recording medium Download PDF

Info

Publication number
JP4032321B2
JP4032321B2 JP28255897A JP28255897A JP4032321B2 JP 4032321 B2 JP4032321 B2 JP 4032321B2 JP 28255897 A JP28255897 A JP 28255897A JP 28255897 A JP28255897 A JP 28255897A JP 4032321 B2 JP4032321 B2 JP 4032321B2
Authority
JP
Japan
Prior art keywords
dimensional
virtual reality
reality space
graphics data
server terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP28255897A
Other languages
Japanese (ja)
Other versions
JPH10154244A (en
Inventor
晃一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP28255897A priority Critical patent/JP4032321B2/en
Publication of JPH10154244A publication Critical patent/JPH10154244A/en
Application granted granted Critical
Publication of JP4032321B2 publication Critical patent/JP4032321B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、3次元仮想現実空間表示処理装置、3次元仮想現実空間表示処理方法および情報記録媒体に関し、特に、3次元仮想現実空間を利用しようとするユーザが、所望の3次元仮想現実空間を、統一したGUIで簡単かつ容易に選択することができる3次元仮想現実空間表示処理装置、3次元仮想現実空間表示処理方法および情報記録媒体に関する。
【0002】
【従来の技術】
従来、NIFTY-Serve(商標)や米国のCompuServe(商標)などのように、複数の利用者が自らのパーソナルコンピュータを、モデムおよび公衆電話回線網を介してセンターのホストコンピュータに接続し、所定の通信プロトコルに基づいてホストコンピュータにアクセスする、いわゆるパソコン通信サービスの分野においては、Habitat(商標)と呼ばれるサイバースペースのサービスが知られている。Habitatは、米国LucasFilm社によって1985年から開発が始められ、米国商業ネットワークであるQuantumLink社で約3年間運用された後、1990年2月に富士通Habitat(商標)としてNIFTY-Serveでそのサービスが開始されたものである。このHabitatにおいては、2次元グラフィックスで描画された「ポピュロポリス(Populopolis)」と呼ばれる仮想の都市に、アバタ(avatar;インド神話に登場する神の化身)と呼ばれるユーザの分身を送り込み、ユーザ同士がチャット(Chat;文字の入力と表示によるテキストベースでのリアルタイムの対話)などを行うことができる。このHabitatの更に詳細な説明については、サイバースペース,マイケル・ベネディクト編,1994年3月20日初版発行,NTT出版ISBN4−87188−265−9C0010(原著;Cyberspace:First Steps ,Michael Benedikt,ed. 1991,MIT PressCambrige,MA ISBN0−262−02327−X)第282頁〜第307頁を参照されたい。
【0003】
さて、上述したサイバースペースシステムを、世界規模で情報の授受が可能なインターネット(the Internet)のインフラストラクチャを利用して実現するために、VRML(Virtual Reality Modeling Language)と呼ばれる3次元グラフィックス記述言語の標準化が進められている。
【0004】
インターネットのWWW(World Wide Web)においては、文書データをHTML(Hyper Text Markup Language)によって記述し、WWWサーバに格納しておくことで、クライアント端末からの要求に応じてこのHTMLファイルを転送し、そのクライアント端末側のHTMLBrowserを用いて表示させることができる。
【0005】
このHTMLファイルと同様に、3次元グラフィックスデータをVRMLで記述して、WWWサーバに格納することで、クライアント端末からの要求に応じてVRMLファイルを転送し、そのクライアント端末側のVRMLBrowserを用いて表示させることができる。
【0006】
本出願人は、この VRMLファイルを解釈し、3次元空間として描画し表示処理することができるVRML Browserを含むアプリケーションソフトウエアとして、CyberPassage(商標)を既に開発している。
【0007】
このCyberPassageは、次の3つのソフトウェアから構成される。
(1)CyberPassage Browser
これは、VRMLブラウザであり、VRML1.0に準拠し、加えて、VRML2.0の機能(動き、音)を先取りし、動画機能を持つE-VRMLをサポートする。また、CyberPassage Bureauに接続できるマルチユーザ機能を持つ。スクリプト言語には、TCL/TKを用いている。
(2)CyberPassage Conductor
これは、VRMLオーサリングシステムであり、VRML1.0をベースにしたE-VRMLに準拠し、単純に3次元の世界を構築するだけではなく、3次元の世界に動きを付けたり、音や映像を付加することを簡単に行なえるツールである。
(3)CyberPassage Bureau
これは、CyberPassage Browserから接続し、ネットワーク上に構築された仮想的な空間の中で本当に人々が出会うことを可能にするサーバ端末システムのためのものである。
【0008】
【発明が解決しようとする課題】
ところで、上述したCyberPassage Browser等のVRML Browser を用いて、3次元仮想現実空間を利用(主に見る)ためには、WWWサーバに格納されたVRMLファイルをURL(Uniform Resource Locatorの略で、インターネット上のリソースを一意に指定するアドレス)で指定したり、クライアント端末のHDD(ハードディスク)や、CD−ROMディスクに格納された複数のVRMLファイルの中から、所望の3次元仮想現実空間が記述されたVRMLファイルを選択して、読み出させる必要がある。
【0009】
例えば、上述した従来のCyberPassage Browserにおいては、図38に示すように、ユーザがマウスを操作して、メニューバーのFileのドロップダウン・メニューの中から「ファイルを開く」(Open File)を選択する。これにより表示される「ファイルを開く」のダイアログボックスに表示されたディレクトリ・ツリーの中から、所望のVRMLファイルが格納されているディレクトリ(フォルダとも称される)を目視で探し出して、そのディレクトリ内のVRMLファイルにポインタを移動してクリックしなければならなかった。このように、ユーザが所望の3次元仮想現実空間が記述されたVRMLファイルを探し出すためには、煩雑で面倒な操作を必要としていた。
【0010】
図38においては、R:\SONY\WORLD\TOYWORLD\UFO\のディレクトリに格納されたファイル名Main.wrlのVRMLファイルを選択して、UFOワールド(3次元仮想現実空間)を表示させた後、再度説明のために、ファイルを開くのダイアログボックスを表示させた状態の表示画面を示している。
【0011】
この図38から明らかなように、ファイル名を見ただけでは、その3次元仮想現実空間ががどのような仮想世界であるのか、直感的に把握することができなかった。
【0012】
本発明は、このような状況に鑑みてなされたもので、3次元仮想現実空間を利用しようとするユーザが、所望の3次元仮想現実空間を、統一した3次元のGUI(Graphical User Interface)で簡単かつ容易に選択することができるようにするものである。
【0013】
【課題を解決するための手段】
請求項1に記載の3次元仮想現実空間表示処理装置、請求項13に記載の3次元仮想現実空間表示処理方法、および請求項14に記載の情報記録媒体は、各々の3次元仮想現実空間が記述される3次元グラフィックスデータと、3次元グラフィックスデータの各々に対応付けられた3次元アイコンとをそれぞれ所定のディレクトリ内に格納し、所定のディレクトリそれぞれを同一階層に格納し、この3次元グラフィックスデータの各々に対応付けられた3次元アイコンを3次元配列してなるエントリールームが記述された3次元グラフィックスデータを自動生成して、所定のディレクトリと同一階層に格納し、同一階層に格納される所定のディレクトリを検索して、検索された3次元グラフィックスデータに対応する3次元アイコンをエントリールームに配列させるためのエントリールームが記述された3次元グラフィックスデータを自動生成することを特徴とする。
【0014】
これにより、3次元仮想現実空間を利用しようとするユーザが、所望の3次元仮想現実空間を、統一した3次元のGUIで簡単かつ容易に選択することができる。
【0015】
ここで、情報記録媒体とは、単にコンピュータプログラムが格納されたFDやCD−ROMディスクなどのパッケージメディアのみならず、例えばインターネットなどのネットワーク伝送媒体を介してコンピュータプログラムをダウンロードする場合の伝送媒体をも含む、より上位の概念である。
【0016】
なお、以下の説明において、自分の分身を表すアバタのオブジェクトは、仮想現実空間内を移動させたり、また、登場させたり退場させたりすることができるものであり、仮想現実空間において、その状態が変化する(更新される)。そこで、このようなオブジェクトを、以下、適宜、更新オブジェクトという。また、仮想現実空間の、例えば町などを構成する、ビルディングなどの建物のオブジェクトは、更新オブジェクトと異なり、複数のユーザが共通して利用するもので、その基本的な状態は変化しない。変化するとしても、それは自律的であり、クライアント端末の操作とは独立している。そこで、このような複数のユーザが共通して利用するオブジェクトを、以下、適宜、基本オブジェクトという。
【0017】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し一例)を付加して本発明の特徴を記述すると、次のようになる。但し勿論この記載は、各手段を記載したものに限定することを意味するものではない。
【0018】
請求項1に記載の3次元仮想現実空間表示処理装置は、各々の3次元仮想現実空間が記述される3次元グラフィックスデータと、3次元グラフィックスデータの各々に対応付けられた3次元アイコンとをそれぞれ所定のディレクトリ内に格納し、所定のディレクトリそれぞれを同一階層に格納する記憶手段(例えば図7の記憶装置50)と、記憶手段に格納された3次元グラフィックスデータの各々に対応付けられた3次元アイコンを3次元配列してなるエントリールームが記述された3次元グラフィックスデータを自動生成して、所定のディレクトリと同一階層に格納するエントリールーム自動生成手段(例えばCommunity Place Browser)とを備え、エントリールーム自動生成手段は、同一階層に格納される所定のディレクトリを検索して、検索された3次元グラフィックスデータに対応する3次元アイコンをエントリールームに配列させるためのエントリールームが記述された3次元グラフィックスデータを自動生成することを特徴とする。
【0019】
請求項11に記載の3次元仮想現実空間表示処理装置は、エントリールーム内に表示されている3次元アイコンの何れかを選択するための選択手段(例えば図24のマウス49b)と、3次元アイコンに対応した3次元グラフィックスデータを関係付けるためのリンク情報に基づいて、選択手段によって選択された3次元アイコンに対応する3次元グラフィックスデータを読み込む読込手段(例えば図34のステップS69)とをさらに具備することを特徴とする。
【0020】
請求項12に記載の3次元仮想現実空間表示処理装置は、選択手段は、エントリールーム内に表示されるポインタの位置の移動と確定操作によって3次元アイコンの何れかを選択するものであり、選択手段によって、ポインタを3次元アイコンにオーバーレイした状態において、3次元アイコンに対応した3次元グラフィックスデータの説明文を、エントリールームにオーバーレイ表示する説明表示手段(例えば図34のステップS70)をさらに備えることを特徴とする。
【0021】
まず最初に、バーチャル・ソサエティーの基本理念・構想に関して、ソニー・コンピュータ・サイエンス研究所の北野宏明氏は、そのHome Page「北野宏明、”バーチャル・ソサエティー(V1.0)”、http://www.csl.sony.co.jp/person/kitano/VS/concept.j.html,1995」の中で、以下のように説明している。
【0022】
「21世紀の初頭に、全世界的な規模で張りめぐらされたネットワークの中に、仮想的な社会---バーチャル・ソサエティー---が出現するでしょう。全世界の人々が、ネットワーク上に作られた共有空間の中に、数千万人、数億人という規模の「社会」を出現させるのです。現在のインターネットやCATV、さらには、情報スーパーハイウエーの彼方に出現するであろう社会が、私の考える「バーチャル・ソサエティー」です。この社会の中で、人々は、買いものを楽しんだり、人と会話をする、ゲームをする、仕事をする、など、通常の社会生活とほぼ同等の社会行為を行なうことができるうえ、仮想的であるゆえに可能である(つまり、一瞬にして、東京からパリに移動するなど、実社会では困難である)ことも可能となるのです。この様な、「社会」は、広帯域ネットワーク、高品位な三次元の表現能力、音声、音楽、動画像の双方向のコミュニケーションを可能とした、サイバースペースの構築技術、そして、その空間を、多人数で共有できる場にする、大規模分散システムなどの最先端の技術で初めて可能になります。」
【0023】
更に詳細な説明については、上記URLを参考にされたい。
【0024】
以上のような、バーチャル・ソサエティーを実現する3次元仮想現実空間システムがサイバースペースシステムであり、このサイバースペースシステムを構築するのに必要なインフラストラクチャの具体例としては、現段階においては、TCP/IP(Transmission Control Protocol/Internet Protocol)と称される通信プロトコルで接続された世界的規模のコンピュータ・ネットワークであるインターネット(The Internet)や、WWW(World Wide Web)などのインターネット技術を企業内LAN(Local Area Network)での情報共有に適用したイントラネット(Intranet)等が考えられている。さらに、将来的には、幹線系から加入者系に至るまで全てを光ファイバで構成するFTTH(Fiber To The Home)による広帯域ネットワークを利用することも考えられている。
【0025】
ここで、インターネット(The Internet)で利用できる情報提供システムとして、スイスのCERN(European Center for Nuclear Research:欧州核物理学研究所)が開発したWWW(World Wide Web)が知られている。これは、テキスト、画像、音声などの情報をハイパーテキスト形式で閲覧できるようにしたもので、HTTP(Hyper Text Transfer Protocol)と呼ばれるプロトコルに基づいて、WWWサーバ端末に格納された情報をパーソナルコンピュータなどの端末に非同期転送するものである。
【0026】
WWWサーバは、HTTPデーモン(HTTP:HyperText Transfer Protocol、ハイパーテキスト転送プロトコル)と呼ばれるサーバ・ソフトウエアとハイパーテキスト情報が格納されるHTMLファイルによって構成される。ハイパーテキスト情報は、HTML(HyperText Makeup Language、ハイパーテキスト記述言語)と呼ばれる記述言語によって表現される。HTMLによるハイパーテキストの記述は、「<」と「>」で囲まれたタグと呼ばれる書式指定によって文章の論理的な構造が表現される。他の情報とのリンクについての記述は、アンカーと呼ばれるリンク情報によって行われる。アンカーで情報が存在する所を指定する方法がURL(Uniform Resource Locator)である。
【0027】
HTMLで記述されたファイルを、TCP/IPネットワーク上において転送するためのプロトコルがHTTP(HyperText Transfer Protocol)である。クライアントからの情報の要求をWWWサーバに伝え、HTMLファイルのハイパーテキスト情報をクライアントに転送する機能をもっている。
【0028】
WWWを利用する環境として多く利用されているのが、WWWブラウザ(ブラウザとは閲覧するという意味)と呼ばれるNetscape Navigator(商標)をはじめとするクライアント・ソフトウエアである。
【0029】
なお、デーモンとは、UNIX上で作業を行う場合、バックグラウンドで管理や処理を実行するプログラムを意味する。
【0030】
近年、このWWWをさらに拡張し、3次元空間の記述や、3次元グラフィックスで描画されたオブジェクトに対してハイパーテキストのリンクの設定を可能とし、これらのリンクをたどりながらWWWサーバ端末を次々とアクセスできるようにしたVRML(Virtual Reality Modeling Language)と呼ばれる3次元グラフィックス・データの記述言語と、このVRMLで記述された仮想空間をパーソナルコンピュータやワークステーションで描画するためのVRMLビューワが開発された。このVRMLバージョン1.0の仕様書は、1995年5月26日に公開されたが、その後、誤記や曖昧な表現が訂正された改正版が、1995年11月9日に公開され、その仕様書は、URL=http://www.vrml.org/specifications/VRML1.0/から入手することができる。
【0031】
上述した、VRMLによって記述した3次元空間の情報をWWWサーバ端末に格納しておくことで、インターネット上に3次元グラフィックスによる仮想空間を構築することが可能となり、さらにインターネットを介して接続されたパーソナルコンピュータ等によりVRMLビューワを利用することによって、3次元グラフィックスによる仮想空間の表示やウォークスルー機能を実現することができる。
【0032】
以下の実施の形態においては、ネットワークとしてインターネットを用いた例について説明するが、FTTHを用いて実現しても勿論構わない。
【0033】
なお、サイバースペース(Cyberspace)とは、米国のSF作家William Gibsonの造語であり、21世紀後半を舞台にした出世作NEUROMANCER(1984年)の中で使用された。厳密には、同書が最初ではなく、Burning Chrome(1982年)でも使用されている。これらの小説では、主人公が額に特殊な電極を貼り付けてコンピュータと脳を直接的に接続し、世界中に張り巡らされたコンピュータ・ネットワークのデータを視覚的に再構成した仮想的な3次元空間を脳に直接投影させる描写がある。この仮想3次元空間をサイバースペースと称した。最近においては、ネットワークを介して仮想的な3次元空間を複数のユーザが共有するシステムを示す用語として使用されるようになった。本発明の実施の形態においてもこの意味で使用する。
【0034】
図1は、本発明のサイバースペース(ネットワークを介して提供される3次元仮想現実空間)システムの構成例を表している。同図に示すように、この実施の形態においては、例えば、いわゆるインターネットなどの世界的規模のネットワーク(広域通信網)15(情報伝送媒体)を介して、ホストコンピュータ(ホスト)A乃至C、複数(本実施の形態では、3台)のクライアント端末13−1乃至13−3、任意の数(本実施の形態では、1台)のサービス提供者端末14が相互に接続されている。
【0035】
ホストAは、例えば、いわゆるWWW(World Wide Web)のシステムを構成している。すなわち、ホストAは、後述するような情報(ファイル)を有している。そして、各情報(ファイル)には、その情報を一元的に指定するための指定情報としてのURL(Uniform Resource Locator)が対応付けられており、URLを指定することで、そのURLに対応する情報にアクセスすることができるようになされている。
【0036】
具体的には、ホストAは、例えば3次元仮想現実空間における東京の町並みや、3次元仮想現実空間におけるニューヨークの町並み、その他の所定の地域の3次元仮想現実空間(以下、適宜、単に、仮想現実空間と称する)を提供するための3次元画像のデータを記憶している。なお、この3次元画像データは、その基本的な状態が変化しない(変化するとしても、例えば、観覧車、ネオンサインなどのように自律的に変化する)基本オブジェクトだけでなる、いわば更新が伴わない静的なデータである。例えば、ビルディングや道路などのように複数のユーザが共通して利用するものが基本オブジェクトである。そして、ホストAは、情報サーバ端末10(基本サーバ端末)を有しており、この情報サーバ端末10は、ネットワーク15を介してURLを受信すると、そのURLに対応する情報、すなわち、仮想現実空間(但し、これは、上述したように基本オブジェクトだけでなるもの)を、同じくネットワーク15を介して提供するようになされている。
【0037】
なお、図1においては、所定の地域の仮想現実空間(基本オブジェクトだけでなるもの)を提供するサーバ端末である情報サーバ端末を有するホストは、ホストAの1台だけしか設けられていないが、このようなホストは複数設けることが可能である。
【0038】
ホストBは、共有サーバ端末11(共有サーバ端末)を有し、この共有サーバ端末11は、仮想現実空間に配置されることにより、その仮想現実空間を構成することとなる更新オブジェクトとしての、例えば各ユーザを表すアバタなどを管理し、これにより複数のユーザに同一の仮想現実空間を共有させるようになされている。但し、ホストBは、ホストAが記憶している仮想現実空間のうちの所定の地域(例えば、東京など)の仮想現実空間に配置された更新オブジェクトのみを管理するようになされている。すなわち、ホストBは、いわば所定の地域の仮想現実空間専用のものとされている。なお、図示していないが、ネットワーク15には、ホストB以外にも、ホストAが記憶している、その他の各地域(例えば、ニューヨーク、ロンドンなど)の仮想現実空間に配置された更新オブジェクトを管理するサーバ端末である共有サーバ端末を有するホストが接続されている。
【0039】
ホストCは、ホストAと同様、例えばWWWのシステムを構成するもので、ホストBのような、更新オブジェクトを管理するホスト(共有サーバ端末)をアドレスするための、例えばそのホストのIPアドレス(共有サーバ端末のアドレス)を記憶している。従って、ホストCが記憶している共有サーバ端末のアドレスは、上述したホストAにおける場合と同様に、URLと一元的に対応付けられている。そして、ホストCは、マッピングサーバ端末12(管理サーバ端末)を有しており、このマッピングサーバ端末12は、ネットワーク15を介してURLを受信すると、そのURLに対応する情報としての共有サーバ端末のIPアドレスを、同じくネットワーク15を介して提供するようになされている。なお、図1においては、共有サーバ端末のアドレスを提供するサーバ端末であるマッピングサーバ端末12を有するホストは、ホストCの1台だけしか設けられていないが、このようなホストは複数設けることが可能である。
【0040】
クライアント端末13(13−1,13−2,13−3)は、ネットワーク15を介して情報サーバ端末10から、仮想現実空間の提供を受け、共有サーバ端末11の管理の下、その仮想現実空間を、他のクライアント端末(サービス提供者端末14を含む)と共有することができるようになされている。さらに、クライアント端末13は、サービス提供者端末14から、仮想現実空間を利用した所定のサービス(情報)の提供を受けることができるようにもなされている。
【0041】
サービス提供者端末14は、クライアント端末13と同様に、仮想現実空間の提供を受け、その仮想現実空間を、クライアント端末13(サービス提供者端末が、サービス提供者端末14以外にも存在する場合には、そのサービス提供者端末を含む)と共有することができるようになされている。従って、この部分の機能に関しては、サービス提供者端末14は、クライアント端末13と同一である。
【0042】
さらに、サービス提供者端末14は、クライアント端末13に対して、所定のサービスを提供することができるようになされている。なお、図1において、このようなサービス提供者端末は、サービス提供者端末14の1台だけしか設けられていないが、サービス提供者端末は複数設けることが可能である。
【0043】
次に、ホストAおよびCが構成しているWWWのシステムについて簡単に説明する。図2に示すように、WWWは、ホストX,Y,Zから、ネットワーク(WWWの場合はインターネット)15を介して、不特定多数のユーザ(クライアント端末)に対し、情報を提供するためのシステムの1つで、提供可能な情報は、テキストだけでなく、図形、画像(静止画、動画)、音声、さらには3次元画像、その他これらをリンクさせたハイパーテキストなど多岐にわたる。
【0044】
WWWの場合、各情報について、その情報を一元的に表現する形式であるURLが決められており、ユーザは、URLを指定することで、そのURLに対応する情報を得ることができる。ここで、URLは、例えば、図3に示すように、サービスの種類を表すプロトコル種別(図3の実施の形態では、http(これは、後述するファイル名に対応するファイルを検索して送信するように指示するコマンドに相当する))、URLの送り先を表すホスト名(図3の実施の形態では、www.csl.sony.co.jp)、および送信させるべきデータのファイル名(図3の実施の形態では、index.html)で構成される。
【0045】
ユーザは、クライアント端末を操作して、所望する情報に対応するURLを入力する。クライアント端末では、URLが入力されると、そのURLの、例えばホスト名が参照され、そのホスト名によって特定されるホスト(図2の実施の形態では、インターネットに接続されているホストX,Y,Zのうちの、例えばホストX)とのリンクが確立される。そして、クライアント端末では、URLが、インターネットを介して、リンクが確立されたホスト、すなわちホストXに送信され、これにより、ホストXに対し、URLに対応する情報の提供の要求がなされる。ホストXでは、情報サーバ端末(WWWサーバ端末)上でHTTPデーモン(httpd)が稼働しており、情報サーバ端末は、URLを受信すると、そのURLに対応する情報を、インターネットを介してクライアント端末に送信する。
【0046】
クライアント端末では、送信されてきた情報が受信され、その後、例えば表示される。これにより、ユーザは、所望する情報を得ることができる。
【0047】
従って、ホストに、情報として、仮想現実空間を構成する要素(オブジェクト)の記述としての、例えば基本オブジェクトの形状(例えば、直方体や円錐形など)や、その配置位置、属性(例えば、基本オブジェクトの色やテクスチャなど)などを表すデータを記憶させるようにするだけで、不特定多数のユーザに、仮想現実空間(但し、基本オブジェクトだけでなるもの)を提供することができる。すなわち、ネットワーク15として、インターネットを採用するとともに、WWWを利用する場合、インターネットは、既に世界的規模で普及しており、また、ホストに記憶させる情報を、仮想現実空間を構成する要素の記述とすることは、WWWを構成する情報サーバ端末(WWWサーバ端末)の変更を要するものでない(仮想現実空間を構成する要素の記述を、上述したようにして提供するサービスは、WWWによって提供されている既存のサービスとの上位互換性を有する)から、不特定多数のユーザに、世界的規模で、仮想現実空間を、容易に、かつ安価に提供することが可能となる。
【0048】
また、所定のホスト(マッピングサーバ端末)に、情報として、他のホストのIPアドレスを記憶させるようにすることで、やはり、不特定多数のユーザに、世界的規模で、ホストのIPアドレスを、容易に提供することが可能となる。
【0049】
なお、WWWを構成するホストに、仮想現実空間を構成する要素の記述(所定の地域の仮想現実空間を提供するための3次元画像のデータ)を記憶させただけでは、同一の仮想現実空間を、複数のユーザが共有することは困難である。すなわち、WWWでは、URLに対応する情報が、ユーザに提供されるだけであり、ユーザ間で、情報のやりとりを行うための管理は行われない。このため、WWWを、その設計を変更せずに利用して、ユーザ間で、前述したような更新オブジェクトの変更情報のやりとりを行うのは困難である。そこで、図1のサイバースペースシステムでは、共有サーバ端末11を有するホストBおよびマッピングサーバ端末12を有するホストCを設け、同一の仮想現実空間を、複数のユーザが共有することができるようになされている(その詳細については、後述する)。
【0050】
次に、図4は、図1のホストA上で稼働する情報サーバ端末10の構成例を示している。同図に示すように、情報サーバ端末10はCPU81を備え、このCPU81は、ROM82に記憶されているプログラムに従って各種の処理を実行するようになされている。この情報サーバ端末10では、前述したHTTPデーモンが、バックグラウンドで稼動している。RAM83には、CPU81が各種の処理を実行する上において必要なデータ、プログラム等が適宜記憶されるようになされている。通信装置84は、ネットワーク15に対して所定のデータを授受するようになされている。ハードディスク、光ディスク、光磁気ディスクなどよりなる記憶装置85は、上述したような、例えば東京や、ニューヨーク、その他の所定の地域の仮想現実空間を提供するための3次元画像のデータを、URLと対応付けて記憶している。
【0051】
図5は、図1のホストB上で稼働する共有サーバ端末11の構成例を示している。同図に示すように、共有サーバ端末11はCPU21を備え、このCPU21は、ROM22に記憶されているプログラムに従って各種の処理を実行するようになされている。RAM23には、CPU21が各種の処理を実行する上において必要なデータ、プログラム等が適宜記憶されるようになされている。通信装置24は、ネットワーク15に対して所定のデータを授受するようになされている。
【0052】
表示装置25は、例えばCRTやLCDなどを備え、共有サーバ端末11が管理を担当している地域の仮想現実空間(基本オブジェクトだけでなく、更新オブジェクトを含んで構成される仮想現実空間)の画像をモニタすることができるように、インタフェース28に接続されている。このインタフェース28には、また、マイク26とスピーカ27が接続されており、所定の音声信号をクライアント端末13やサービス提供者端末14に供給したり、クライアント端末13やサービス提供者端末14からの音声信号をモニタすることができるようになされている。
【0053】
また、共有サーバ端末11は、入力装置29を備え、インタフェース28を介して、各種の入力を行うことができるようになされている。この入力装置29は、少なくともキーボード29aとマウス29bを有している。
【0054】
ハードディスク、光ディスク、光磁気ディスクなどよりなる記憶装置30は、共有サーバ端末11が管理を担当している地域の仮想現実空間のデータを記憶している。なお、この仮想現実空間のデータは、情報サーバ端末10(図4)の記憶装置85に記憶されているものと同一のものであり、表示装置25では、このデータが表示されることで、共有サーバ端末11が管理を担当している地域の仮想現実空間が表示される。
【0055】
図6は、図1のホストC上で稼働するマッピングサーバ端末12の構成例を示している。CPU91乃至通信装置94は、図4に示したCPU81乃至通信装置84と基本的に同様の構成であるので、その説明は省略する。記憶装置95は、更新オブジェクトを管理する共有サーバ端末(図1の実施の形態では、共有サーバ端末11しか図示していないが、その他にも、図示せぬ共有サーバ端末がネットワーク15に接続されている)を特定するためのアドレスを、URLと対応付けて記憶している。
【0056】
図7は、クライアント端末13(13−1乃至13−3)の構成例を示している。クライアント端末13はCPU41を備え、このCPU41は、ROM42に記憶されているプログラムに従って各種の処理を実行するようになされている。RAM43には、CPU41が各種の処理を実行する上において必要なデータやプログラム等が適宜記憶されるようになされている。通信装置44は、ネットワーク15を介して、データを授受するようになされている。
【0057】
表示装置45は、例えばCRTやLCDなどを備え、CG(コンピュータグラフィック)の3次元画像や、通常のビデオカメラなどにより撮影された3次元の画像を表示することができるようになされている。マイク46は、音声信号を共有サーバ端末11に出力するとき利用される。また、スピーカ47は、共有サーバ端末11より音声信号が伝送されてきたとき、これを出力する。入力装置49は、各種の入力を行うとき操作されるようになされている。
【0058】
この入力装置49のキーボード49aは、所定の文字や記号などでなるテキスト(URLを含む)を入力するとき操作されるようになされている。マウス49bは、所定の位置を指定するとき操作されるようになされている。視点入力装置49cおよび移動入力装置49dは、更新オブジェクトとしての、クライアント端末13に対応するアバタの状態を変化させるときに操作される。すなわち、視点入力装置49cは、クライアント端末13の対応するアバタの視点を入力するとき操作される。これにより、アバタの視点を上下左右の方向に移動させたり、仮想現実空間の奥行方向への移動ができるようになされている。また、移動入力装置49dは、アバタを、前後左右の方向に、所定の速度で移動させるための入力を行うことができるようになされている。勿論、これらの入力を、キーボード49aやマウス49bから行うようにすることもできる。
【0059】
ハードディスク、光ディスク、光磁気ディスクなどよりなる記憶装置50は、ユーザを表すアバタ(更新オブジェクト)を記憶している。さらに、記憶装置50は、情報サーバ端末10(情報サーバ端末10以外に情報サーバ端末が存在する場合には、その情報サーバ端末を含む)に記憶されている各地域の仮想現実空間に配置される更新オブジェクトを管理する共有サーバ端末のIPアドレスを取得するためのURL(以下、適宜、アドレス取得URLという)を、その地域の仮想現実空間のデータに対応するURL(以下、適宜、仮想現実空間URLという)と対応付けて記憶している。これにより、ある地域の仮想現実空間のデータに対応する仮想現実空間URLが入力されたとき、その地域の仮想現実空間を管理する共有サーバ端末のIPアドレスを取得するためのアドレス取得URLを得ることができるようになされている。
【0060】
インタフェース48は、表示装置45、マイク46、スピーカ47、入力装置49、および記憶装置50に対するデータのインタフェースを構成している。
【0061】
図8は、図1のサービス提供者端末14の構成例を示している。そのCPU51乃至記憶装置60は、図7のクライアント端末13のCPU41乃至入力装置50と基本的に同様の構成であるので、その説明は省略する。
【0062】
図9は、図1の情報サーバ端末10により提供され、共有サーバ端末11の管理の下、複数のユーザの間で共有することのできる仮想現実空間を模式的に表している。同図に示すように、この仮想現実空間は、町を構成しており、アバタC(例えばクライアント端末13−1のアバタ)や、アバタD(例えばクライアント端末13−2のアバタ)が、この町(仮想現実空間)を移動することができるようになされている。
【0063】
アバタCは、仮想現実空間における位置と視点から、例えば図10に示すような画像を見ることになる。すなわち、クライアント端末13−1には、仮想現実空間を構成する基本オブジェクトに関するデータが、情報サーバ端末10から提供され、RAM43(または記憶装置50)に記憶される。そして、RAM43(または記憶装置50)からは、所定の視点と位置から仮想現実空間を見た場合に見ることのできる仮想現実空間のデータが読み出され、表示装置45に供給される。その後、そのアバタCの視点と位置を、視点入力装置49cと移動入力装置49dを操作することで変更すると、その変更に対応したデータがRAM43(または記憶装置50)から読み出されて表示装置45に供給され、これにより、表示装置45に表示されている仮想現実空間(3次元画像)が変化される。
【0064】
さらに、クライアント端末13−1には、いまの視点と位置から仮想現実空間を見た場合にみることのできる他人のアバタ(更新オブジェクト)(図10の実施の形態では、アバタD)に関するデータが、共有サーバ端末11から提供され、そのデータに基づいて、表示装置45の表示が変更される。すなわち、図9に示した状態において、アバタCはアバタDの方向を見ているので、図10に示したように、クライアント端末13−1の表示装置45に表示される画像(仮想現実空間)には、アバタDが表示される。
【0065】
同様にして、アバタDが対応するクライアント端末13−2の表示装置45には、図11に示すような画像が表示される。そして、この表示画像も、アバタDの視点と位置を移動させることで変化される。なお、図9において、アバタDはアバタCの方向を見ているので、クライアント端末13−2の表示装置45に表示される画像(仮想現実空間)には、図11に示したように、アバタCが表示されている。
【0066】
サービス提供者端末14は、情報サーバ端末10および共有サーバ端末11によって提供される共有可能な仮想現実空間の一部の空間を支配する。換言すれば、サービス提供者は、情報サーバ端末10および共有サーバ端末11の管理者(仮想現実空間の情報を提供する情報プロバイダ)から、その提供する仮想現実空間の一部を購入する。この購入は、現実空間において行われる。すなわち、情報サーバ端末10および共有サーバ端末11の管理者は、所定のサービス提供者より仮想現実空間の購入の申込を受けたとき、仮想現実空間の一部を、そのサービス提供者に割り当てる。
【0067】
例えば、サービス提供者端末14の所有者(サービス提供者)が、仮想現実空間内の所定のビルの1室を借り受け、そこに電器店を設けるものとする。サービス提供者は、その電器店に展示する商品、例えばテレビジョン受像機(テレビ)の資料をサーバ端末管理者に提供する。サーバ端末管理者は、この資料を基に、コンピュータグラフィックスにより、そのテレビの立体画像を生成する。そして、その立体画像を、その電器店の所定の位置に配置する。これにより、仮想現実空間内におけるその空間の画像が完成することになる。
【0068】
同様のことが多くのサービス提供者により行われ、仮想現実空間が1つの大きな町として形成される。
【0069】
図12は、サービス提供者端末14を有するサービス提供者が占有する仮想現実空間(ビルの1室)を平面的に表している。この実施の形態においては、ビルの1室が、このサービス提供者のために割り当てられており、その空間(ビル内)には、2台のテレビ72,73が配置されているとともに、テレビ73の右斜め前方には、カウンタ71が配置されている。そしてサービス提供者端末14のサービス提供者は、自己のアバタFをカウンタ71の後方に配置するようにする。勿論、アバタFは、サービス提供者端末14の移動入力装置59dを操作することで、所定の位置に移動させることが可能である。
【0070】
いま、この電器店に、クライアント端末13−1のアバタCが、図12に示すように入ってきたものとする。このとき、クライアント端末13−1の表示装置45には、アバタCの位置と視点に対応して、例えば図13に示すような画像が表示される。これに対して、アバタFがカウンタ71の後方に位置している場合においては、サービス提供者端末14の表示装置55には、図14に示すような画像が表示される。図13と図14に示すように、アバタCから見た画像にはアバタFが、また、アバタFから見た画像にはアバタCが、それぞれ表示される。
【0071】
また、図13に示すように、アバタCから見た画像には、クライアント端末13−1から所定の画像を指定するとき使用されるカーソル74が表示される。同様に、図14に示すように、サービス提供者端末14から所定の画像を指定するとき利用するために、カーソル75が表示される。
【0072】
クライアント端末13−1の移動入力装置49dを操作して、アバタCをテレビ72あるいはテレビ73の回りに移動させることで、その位置と視点に対応する画像が表示装置45に表示される。これにより、ユーザは、テレビ72や73を、実際に、売場に配置されている商品としてのテレビを観察する場合と同様に観察することができる。
【0073】
また、ユーザは、マウス49bを操作して、カーソル74を移動させ、アバタF上でクリックすると、アバタFに対応するサービス提供者端末14には、会話申込信号が伝送される。サービス提供者端末14は、このとき、マイク56を介して、アバタCに対応するクライアント端末13−1のスピーカ47に対して音声信号を出力することができる。同様に、クライアント端末13−1のマイク46から所定の音声信号を入力することで、サービス提供者端末14のスピーカ57にユーザの音声信号を伝達することができる。このようにして、両者は音声による通常の会話を行うことができる。
【0074】
なお、この会話は、アバタF(サービス提供者端末14)からアバタC(クライアント端末13−1)に対して、申し込むようにすることもできる。
【0075】
また、クライアント端末13−1において、カーソル74を移動させ、例えばテレビ72の画像上においてクリックすると、テレビ72のより詳細な説明情報(提供情報)の提供を受けることができる。これは、情報サーバ端末10が提供する仮想現実空間のデータを、テレビ72のデータに説明情報をリンクさせておくように構成することで実現することができる。なお、説明情報を表示するときの画像は、3次元画像であってもよいし、平面的な2次元画像とすることもできる。
【0076】
この所定の画像を指定する操作は、サービス提供者端末14側からも行うことができる。これにより、サービス提供者側からユーザに対して、所定のテレビの説明情報を積極的に提供することができる。
【0077】
また、サービス提供者がマウス59bを操作して、カーソル75でアバタCを指定すると、このアバタCの位置と視点に対応する画像、すなわち、クライアント端末13−1の表示装置45に表示されている画像と同一の画像を、サービス提供者端末14の表示装置55に表示させることができる。これにより、サービス提供者は、ユーザ(アバタC)が、いまどこを見ているのかを知ることができ、ユーザの知りたいポイントに関する情報を、的確にユーザに対して提供することが可能となる。
【0078】
ユーザは、説明を受け、あるいは提供情報(説明情報)の提供を受け、気に入った場合においては、例えばテレビ72を実際に購入することができる。この場合、ユーザは、アバタFを介して、サービス提供者端末14に対して購入の申込をする。また、ユーザは、例えばクレジットカードの番号等を、アバタCを介してサービス提供者端末14(アバタF)に伝達する。そして、商品の金額に対応する額を引き落とすように依頼する。サービス提供者端末14のサービス提供者は、そのクレジットカードの番号から、所定の金額を引き落とすための処理を行うとともに、購入の申込を受けた商品の発送の手配を行う。
【0079】
この仮想現実空間において提供される画像は、基本的に、コンピュータグラフィックスにより生成された精度の高い画像である。従って、これをあらゆる角度から見ることで、殆ど実際の商品を希望する角度から観察した場合と同様の観察を行うことが可能となり、より確実に商品を確認することができる。
【0080】
この仮想現実空間には、このようにして、多数の店や映画館、劇場などが存在する。そして、各店において、実際に商品を販売することが可能であるため、立地条件の良い空間(多くのユーザのアバタが入ってくる空間)は、実際に経済的価値が発生する。そこで、この仮想現実空間を実際に(現実に)売買したり、賃貸することができる。従って、このシステムは、所謂テレビショッピングなどとは全く異なるものとなる。
【0081】
次に、図15乃至図18のフローチャートを参照して、クライアント端末13(サービス提供者端末14)、情報サーバ端末10、マッピングサーバ端末12、または共有サーバ端末11それぞれの動作について詳述する。
【0082】
図15は、クライアント端末13(サービス提供者端末14)の処理例を示している。クライアント端末13では、まず最初に、ステップS1において、仮想現実空間URLの入力があったか否かが、CPU41によって判定される。ステップS1において、仮想現実空間URLの入力がないと判定された場合、ステップS1に戻る。また、ステップS1において、仮想現実空間URLの入力があったと判定された場合、すなわち、ユーザがキーボート49aを操作することで、所望する仮想現実空間に対応する仮想現実空間URLを入力し、これが、インターフェース48を介して、CPU41によって受信された場合、ステップS2に進み、図2で説明したように、WWWのシステムを構成し、情報サーバ端末を有する所定のホストの情報サーバ端末(ここでは、例えばホストAの情報サーバ端末10)に対して、通信装置44から、ネットワーク15を介して、仮想現実空間URLが送信され、リンクが確立される。
【0083】
さらに、ステップS2では、仮想現実空間URLと対応付けられているアドレス取得URLが、記憶装置50から読み出され、WWWのシステムを構成する、所定のホストのマッピングサーバ端末(ここでは、例えばホストCのマッピングサーバ端末12とする)に対して、通信装置44から、ネットワーク15を介して、アドレス取得URLが送信され、リンクが確立される。
【0084】
その後、ステップS3に進み、ネットワーク15を介して送られてくる、ステップS2で送信した仮想現実空間URLまたはアドレス取得URLにそれぞれ対応する仮想現実空間のデータ(3次元画像データ)または共有サーバ端末12のIPアドレスが、通信装置44によって受信される。
【0085】
すなわち、ステップS2では、情報サーバ端末10に、仮想現実空間URLが送信されるが、情報サーバ端末10において、この仮想現実空間URLが受信されると、それに対応する仮想現実空間のデータが、後述する図16のステップS22において、ネットワーク15を介してクライアント端末13に送信される。ステップS3では、このようにして情報サーバ端末10から送信されてくる仮想現実空間のデータが受信される。なお、受信された仮想現実空間のデータは、RAM43に転送されて記憶される(または記憶装置50に記憶され、そこからRAM43に転送される)。
【0086】
また、ステップS2では、マッピングサーバ端末12に対し、アドレス取得URLが送信されるが、マッピングサーバ端末12において、このアドレス取得URLが受信されると、それに対応する共有サーバ端末のIPアドレスが、後述する図17のステップS32において、ネットワーク15を介してクライアント端末13に送信される。ステップS3では、このようにしてマッピングサーバ端末12から送信されてくる共有サーバ端末12のIPアドレスが受信される。
【0087】
ここで、入力された仮想現実空間URLに対応付けられているアドレス取得URLは、上述したように、その仮想現実空間URLに対応する仮想現実空間に配置された更新オブジェクトを管理する共有サーバ端末のIPアドレスに対応するものである。従って、例えば、入力された仮想現実空間URLが、東京の仮想現実空間に対応するものであり、ホストBが有する共有サーバ端末11が、東京の仮想現実空間に配置された更新オブジェクトを管理するものであった場合、ステップS3では、共有サーバ端末11のIPアドレスが受信されることになる。よって、ユーザは、どの共有サーバ端末が、どの地域の仮想現実空間に配置された更新オブジェクトを管理するものか知らなくても、自身が提供を受けようとする地域の仮想現実空間を管理する共有サーバ端末の場所(IPアドレス)を、自動的に取得することができる。
【0088】
なお、ステップS2およびS3において、仮想現実空間URLおよびアドレス取得URLを送信し、仮想現実空間のデータおよびIPアドレスを受信する処理は、実際には、例えば、仮想現実空間URLを送信し、それに対応する仮想現実空間のデータを受信した後、アドレス取得URLを送信し、それに対応するIPアドレスを受信することで行われる。
【0089】
ステップS3で、仮想現実空間のデータおよび共有サーバ端末のIPアドレスが受信されると、ステップS4に進み、ステップS3で受信したIPアドレス(共有サーバ端末のIPアドレス)に対応する共有サーバ端末(ここでは、例えば共有サーバ端末11)に対し、ネットワーク15を介して、接続要求が、通信装置44によって送信され、これによりクライアント端末13と共有サーバ端末11との間で通信リンクが確立される。さらに、ステップS4では、通信リンクの確立後、共有サーバ端末11に対し、記憶装置50に記憶されている、自己を表すアバタ(更新オブジェクト)が、通信装置44によって送信される。
【0090】
ここで、共有サーバ端末11は、ユーザのアバタを受信すると、そのアバタを、同一の仮想現実空間(ここでは、上述したように、東京の仮想現実空間とする)に存在する他のユーザのクライアント端末に送信するようになされている。そして、他のクライアント端末においては、送信されてきたアバタが、仮想現実空間に配置され、これにより、複数のユーザの間で、同一の仮想現実空間を共有することができる。
【0091】
なお、ユーザのアバタは、クライアント端末13から共有サーバ端末11に提供するのではなく、共有サーバ端末11に、アクセスのあったユーザに対し、所定のアバタを割り当てさせるようにすることも可能である。また、クライアント端末13においては、それを利用するユーザ自身のアバタを、前述の図36および図37に示したように、仮想現実空間に配置して表示するようにすることが可能であるが、現実の世界では、ユーザは、自身を見ることはできないので、仮想現実空間を、現実の世界に近いものとする観点からは、ユーザのアバタは、そのユーザが利用するクライアント端末には表示させないようにする方が好ましい。
【0092】
ステップS4の処理後、ステップS5に進み、RAM43から、所定の視点と位置から仮想現実空間を見た場合に見ることのできる仮想現実空間のデータが、CPU41によって読み出され、表示装置45に供給される。これにより、表示装置45には、所定の仮想現実空間が表示される。
【0093】
そして、ステップS6において、共有サーバ端末11から、他のユーザのアバタの更新情報が送信されてきたか否かが、通信装置44によって判定される。
【0094】
ここで、ユーザは、上述したように、自己のアバタの位置あるいは視点を、視点入力装置49cまたは移動入力装置49dを操作することで更新することができるようになされており、これにより、アバタの位置あるいは視点の更新が指令されると、CPU41では、インタフェース48を介して、この指令が受信される。そして、CPU41は、その指令に対応して、更新されたアバタの位置または視点にそれぞれ対応する位置データまたは視点データを、更新情報として共有サーバ端末11に出力する処理を実行する。すなわち、CPU41は、通信装置44を制御し、更新情報を共有サーバ端末11に送信させる。
【0095】
共有サーバ端末11は、クライアント端末から更新情報を受信すると、後述する図18のステップS44において、その更新情報を、他のクライアント端末に出力するようになされている。なお、共有サーバ端末11は、上述したように、アクセス要求のあったクライアント端末から、アバタを受信すると、そのアバタを、他のユーザのクライアント端末に送信するようになされているが、このアバタも、更新情報として送信されるようになされている。
【0096】
以上のようにして更新情報が送信されてきた場合、ステップS6においては、共有サーバ端末11から、他のユーザのアバタの更新情報が送信されてきたと判定される。この場合、その更新情報は、通信装置44によって受信され、CPU41に出力される。CPU41は、ステップS7において、表示装置45の表示を、更新情報を反映した表示に更新させる。すなわち、更新情報として、他のクライアント端末からの位置データあるいは視点データを受信した場合、そのユーザのアバタを、受信した位置データ、視点データにしたがって、移動させ、または変化させる(例えば、アバタの向きを変更させる)。また、更新情報として、他のクライアント端末からのアバタを受信した場合、そのアバタを、表示装置45に、いま表示されている仮想現実空間の所定の位置に配置する。なお、共有サーバ端末11は、更新情報として、アバタを送信する場合、そのアバタについての位置データおよび視点データも、更新情報に含めて送信するようになされており、表示装置45では、その位置データおよび視点データに対応して、アバタが表示されるようになされている。
【0097】
以上の処理が終了すると、ステップS8に進む。
【0098】
一方、ステップS6において、共有サーバ端末11から、他のユーザのアバタの更新情報が送信されてきていないと判定された場合、ステップS7をスキップして、ステップS8に進む。ステップS8では、上述したように、視点入力装置49cまたは移動入力装置49dを操作することで、クライアント端末13を利用するユーザのアバタの位置あるいは視点が更新されたか否かが、CPU41によって判定される。
【0099】
ステップS8において、アバタの位置あるいは視点が更新されたと判定された場合、すなわち、視点入力装置49cまたは移動入力装置49dが、ユーザによって操作された場合、ステップS9に進み、CPU41では、その操作に対応する位置データ、視点データに基づいて、ユーザのアバタの位置と視点に対応する仮想現実空間のデータをRAM43から読み出し、必要に応じて補正のための演算を行い、その位置と視点に対応する画像データを生成する。そして、CPU41は、表示装置45に、その画像データを出力し、表示させる。これにより、表示装置45には、視点入力装置49cと移動入力装置49dを操作することで入力した視点と位置に対応する画像(仮想現実空間)が表示される。
【0100】
さらに、CPU41は、ステップS10において、通信装置44を制御し、これにより、視点入力装置49cまたは移動入力装置49dそれぞれの操作に対応する視点データまたは位置データを、共有サーバ端末11に送信させ、ステップS11に進む。
【0101】
ここで、上述したように、クライアント端末13からの更新情報は、共有サーバ端末11により受信され、さらに、他のクライアント端末に出力される。これにより、他のクライアント端末においては、クライアント端末13を利用するユーザのアバタが、更新情報を反映した形で表示される。
【0102】
一方、ステップS8において、アバタの位置あるいは視点が更新されていないと判定された場合、ステップS9およびS10をスキップして、ステップS11に進む。ステップS11では、キーボード49aの所定のキーを操作するなどして終了が指令されたか否かが判定され、終了が指令されない限り、ステップS6に戻り、それ以降の処理が繰り返し実行される。
【0103】
次に、図16のフローチャートは、情報サーバ端末10の処理例を示している。情報サーバ端末10では、まず最初に、ステップS21において、クライアント端末13から、ネットワーク15を介して、仮想現実空間URLが送信されてきたかどうかが、通信装置84によって判定される。ステップS21において、仮想現実空間URLが送信されてきていないと判定された場合、ステップS21に戻る。また、ステップS21において、仮想現実空間URLが送信されてきたと判定された場合、その仮想現実空間URLが、通信装置84によって受信され、ステップS22に進む。ステップS22では、記憶装置85から、通信装置84で受信された仮想現実空間URLと対応付けられている仮想現実空間のデータが、CPU81によって読み出され、それが、通信装置84により、ネットワーク15を介して、仮想現実空間URLを送信してきたクライアント端末13に送られる。そして、その後は、ステップS21に戻り、上述の処理が繰り返される。
【0104】
図17は、マッピングサーバ端末12の処理例を示している。マッピングサーバ端末12では、ステップS31において、クライアント端末13から、ネットワーク15を介して、アドレス取得URLが送信されてきたかどうかが、通信装置94によって判定される。ステップS31において、アドレス取得URLが送信されてきていないと判定された場合、ステップS31に戻る。また、ステップS31において、アドレス取得URLが送信されてきたと判定された場合、そのアドレス取得URLが、通信装置94によって受信され、ステップS32に進む。ステップS32では、記憶装置95から、通信装置94で受信されたアドレス取得URLと対応付けられているIPアドレス(共有サーバ端末のIPアドレス)が、CPU91によって読み出され、それが、通信装置94により、ネットワーク15を介して、アドレス取得URLを送信してきたクライアント端末13に送られる。そして、その後は、ステップS31に戻り、上述の処理が繰り返される。
【0105】
図18は、共有サーバ端末11の処理例を示している。共有サーバ端末11では、まず最初に、ステップS41において、クライアント端末13から、ネットワーク15を介して、接続要求が送信されてきたかどうかが、通信装置24によって判定される。ステップS41において、接続要求が送信されてきていないと判定された場合、ステップS42をスキップして、ステップS43に進む。また、ステップS41において、接続要求が送信されてきたと判定された場合、すなわち、クライアント端末13が、図15のステップS4において接続要求を、共有サーバ端末11に送信した場合、そのクライアント端末13との通信リンクが、通信装置24によって確立され、ステップS42に進む。
【0106】
ステップS42では、RAM23に記憶された接続管理表が、CPU21によって更新される。すなわち、共有サーバ端末11は、クライアント端末13から送信されてくる更新情報を、他のクライアント端末に送信するために、自身との通信リンクを確立しているクライアント端末13を認識している必要がある。そこで、共有サーバ端末11では、クライアント端末との通信リンクを確立すると、そのクライアント端末を識別するための情報を、接続管理表に登録するようになされている。すなわち、この接続管理表は、共有サーバ端末11と、いまリンクが確立しているクライアント端末の、いわば一覧表である。ここで、クライアント端末を識別するための情報としては、TCP/IPパケットのヘッダとして各クライアント端末から送られてくる送信元のIPアドレスと、各クライアント端末のユーザが設定したアバタのニックネームを登録する。
【0107】
その後、ステップS43に進み、クライアント端末13から更新情報が送信されてきたか否かが、通信装置24によって判定される。ステップS43において、更新情報が送信されてきていないと判定された場合、ステップS44をスキップして、ステップS45に進む。また、ステップS43において、更新情報が送信されてきたと判定された場合、すなわち、クライアント端末13が、図15のステップS10において、更新情報としての位置データ、視点データを、共有サーバ端末11に送信した場合(あるいは、図15のステップS4において、接続要求の送信後、更新情報としてのアバタを、共有サーバ端末11に送信した場合)、その更新情報が、通信装置24によって受信され、ステップS44に進む。ステップS44では、CPU21によって、RAM23に記憶された接続管理表が参照され、通信装置24で受信された更新情報が、その更新情報を送信してきたクライアント端末以外のクライアント端末に送信される。この際に、接続管理表で管理されている各クライアント端末の送信元のIPアドレスが使用される。
【0108】
なお、この更新情報は、上述したように、図15のステップS6において、クライアント端末13により受信される。
【0109】
その後、ステップS45に進み、クライアント端末13より終了の指令が入力されたか否かが、CPU21によって判定され、終了が指令されていない場合においては、ステップS46をスキップして、ステップS41に戻る。また、終了が指令された場合は、ステップS46に進み、その指令を送信してきたクライアント端末13との回線が、通信装置24によって切断され、さらに、接続管理表から、そのクライアント端末13に関する情報が、CPU21によって削除されて、ステップS41に戻る。
【0110】
以上のように、更新オブジェクトの管理は、共有サーバ端末11で行うようにするとともに、基本オブジェクトの管理(提供)は、既に世界的規模で普及しているインターネットのWWWを構成する情報サーバ端末10で行うようにしたので、世界的規模で、不特定多数のユーザに、共有可能な仮想現実空間を、容易に提供することが可能となる。さらに、この際、既に構築されているWWWのシステムの仕様は変更する必要がない。
【0111】
また、仮想現実空間のデータを提供するのに、WWWを利用する場合には、データの授受を行うのに、既存のウェブブラウザ(例えば、ネットスケープ社のネットスケープナビゲータ(Netscape Navigator)(商標)など)を使用することができるので、新規にウェブブラウザを作成する必要もない。
【0112】
さらに、マッピングサーバ端末12によって、共有サーバ端末11のIPアドレスを提供するようにしたので、ユーザは、共有サーバ端末11のアドレスを知らなくても、仮想現実空間を、他のユーザと共有することができる。
【0113】
次に、図19を参照して、クライアント端末13と、情報サーバ端末10、共有サーバ端末11、マッピングサーバ端末12それぞれとの通信手順について説明する。ユーザは、仮想現実空間の提供を希望するとき、その希望する地域の仮想現実空間に対応付けられたURL(仮想現実空間URL)を入力する。すると、そのURLが、クライアント端末13から情報サーバ端末10(httpd)に対して送信される。情報サーバ端末10は、クライアント端末13からURLを受信すると、そのURLに対応付けられた仮想現実空間のデータ(3次元シーンデータ)(基本オブジェクトのみのデータ)を、クライアント端末13に送信する。クライアント端末13は、これを受信して表示させる。
【0114】
なお、この段階では、クライアント端末13と共有サーバ端末11との間は接続されていない(リンクが確立していない)ため、クライアント端末13が更新情報を受信することはなく、従って、基本オブジェクトだけの仮想現実空間、すなわち、例えばビルディングなどの、いわば町並みだけの仮想現実空間が表示される(他のユーザのアバタなどの更新オブジェクトは表示されない)。
【0115】
さらに、クライアント端末13では、仮想現実空間URLと対応付けられているアドレス取得URLが、マッピングサーバ端末12に送信される。マッピングサーバ端末12では、アドレス取得URLが受信され、そのアドレス取得URLと対応付けられているIPアドレス(仮想現実空間URLと対応付けられている地域の仮想現実空間に配置された更新オブジェクトを管理する共有サーバ端末である、例えば、共有サーバ端末11のIPアドレス)が、クライアント端末13に送信される。
【0116】
ここで、マッピングサーバ端末12に、クライアント端末13が送信したアドレス取得URLと対応付けられているIPアドレスが登録されていないことが考えられる。すなわち、例えば、仮想現実空間URLと対応付けられている地域の仮想現実空間に配置された更新オブジェクトを管理する共有サーバ端末が、未設置(未稼動)である場合などがある。このような場合は、共有サーバ端末のIPアドレスが得られないため、基本オブジェクトだけの仮想現実空間、すなわち、例えば、上述したような町並みだけの仮想現実空間が表示される。従って、この場合、仮想現実空間の、他のユーザとの共有は成立しない。このような仮想現実空間は、既存のWWWにより、情報サーバ端末(WWWサーバ端末)に、仮想現実空間のデータ(基本オブジェクト)を記憶させておくだけで提供することができるものであり、このことから、本発明のサイバースペースシステムは、既存のWWWと上位互換になっているということができる。
【0117】
マッピングサーバ端末12からIPアドレス(共有サーバ端末11のIPアドレス)が送信されてくると、クライアント端末13では、そのIPアドレスが受信され、それに対応する共有サーバ端末、すなわち、ここでは、共有サーバ端末11に、接続要求が送信される。そして、クライアント端末13と共有サーバ端末11との間の通信リンクが確立すると、クライアント端末13は、自己を表すアバタ(ユーザの3次元形状)を、共有サーバ端末11に送信する。共有サーバ端末11は、クライアント端末13から、そのユーザのアバタを受信すると、そのアバタを、いま、共有サーバ端末11とリンクの確立している、その他のクライアント端末に送信するとともに、共有サーバ端末11が管理する地域の仮想現実空間に配置されている、他のユーザのアバタである更新オブジェクト(共有3次元オブジェクトの形状)を、クライアント端末13に送信する。
【0118】
これにより、他のクライアント端末では、クライアント端末13のユーザのアバタが仮想現実空間に配置され、そのアバタが画面上に登場する。また、クライアント端末13では、他のクライアント端末のユーザのアバタが仮想現実空間に配置され、やはり、そのアバタが画面上に登場する。その結果、共有サーバ端末11とのリンクが確立しているクライアント端末のすべてのユーザは、同一の仮想現実空間を共有することとなる。
【0119】
その後、共有サーバ端末11は、他のクライアント端末からの更新情報を受信すると、その更新情報を、クライアント端末13に送信する。クライアント端末13では、この更新情報が受信され、それに対応して表示が変更される(例えば、他のユーザのアバタの位置が変更される)。また、クライアント端末13のユーザによって、そのユーザのアバタの状態が変更されると、その変更に対応した更新情報が、クライアント端末13から共有サーバ端末11に送信される。共有サーバ端末11は、クライアント端末13からの更新情報を受信すると、他のクライアント端末からの更新情報を受信した場合と同様に、その更新情報を、クライアント端末13以外のクライアント端末に送信する。これにより、クライアント端末13以外のクライアント端末では、その更新情報に対応して、クライアント端末13のユーザのアバタの状態が変更される(クライアント端末13のユーザによって、そのユーザのアバタの状態が変更されたように変更される)。
【0120】
その後、クライアント端末13では、共有サーバ端末11との接続が切断されるまで、自己のアバタについての更新情報を送信するとともに、共有サーバ端末11からの更新情報を受信し、その更新情報に基づいて、表示を変更する処理が繰り返される。
【0121】
以上のように、同一の仮想現実空間の共有は、ユーザ(クライアント端末13)同志の間で、共有サーバ端末11を経由した更新情報のやりとりを行うことによって成立する。従って、共有サーバ端末11とクライアント端末13とが離れた位置に存在する場合、共有サーバ端末11とクライアント端末13との間の通信に、大きな遅延が生じ、レスポンスが悪化することとなる。すなわち、例えば、共有サーバ端末11が米国(アメリカ合衆国)に設置されている場合において、日本のユーザが、共有サーバ端末11にアクセスしているときには、日本のあるユーザAの更新情報は、日本→アメリカ→日本という経路で、日本の他のユーザBに送信されることとなり、ユーザAによる変更が、ユーザBにおいて反映されるまでに、時間を要することとなる。
【0122】
そこで、同一の地域の仮想現実空間に配置された更新オブジェクトを管理する共有サーバ端末は、1つだけでなく、例えば世界各国などに複数設置し、さらに、マッピングサーバ端末12には、そのような複数の共有サーバ端末のIPアドレスを登録しておき、そのうちの、クライアント端末13が設置された地域に地理的に近い位置に設置されている共有サーバ端末のIPアドレスを提供させるようにすることが可能である。
【0123】
すなわち、例えば、図20に示すように、遊園地などの仮想現実空間(3次元空間)に配置された更新オブジェクトを管理する共有サーバ端末W1またはW2を、それぞれ日本または米国に設置しておくようにする。そして、情報サーバ端末10から、その遊園地の仮想現実空間のデータの提供を、日本および米国のユーザが受けた場合には、各ユーザからは、マッピングサーバ端末12に対し、遊園地の仮想現実空間に対応する仮想現実空間URLに対応付けられたアドレス取得URLが送信されてくるが(すべてのユーザから同一のアドレス取得URLが送信されてくるが)、このとき、マッピングサーバ端末12には、日本のユーザに対しては日本に設置されている共有サーバ端末W1のIPアドレスを、米国のユーザに対しては米国に設置されている共有サーバ端末W2のIPアドレスを、それぞれ提供させるようにする。
【0124】
ここで、マッピングサーバ端末12は、以下の手順でアドレス取得URLを送信してきたクライアント端末の設置場所を特定する。
【0125】
すなわち、TCP/IPプロトコルで通信を行う場合、そのTCP/IPパケットのヘッダには、送信元のIPアドレス(Source IP Address)と発信先のIPアドレス(Destination IP Address)が記述されている。
【0126】
一方、IPアドレスは、32ビットで構成され、通常、8ビット単位でドットで区切られた10進数で表現される。例えば、IP=43.0.35.117と表現される。このIPアドレスが、インターネットに接続された送信元や発信先の端末を一意に定める住所の役割を担っている。4オクテット(32ビット)で表現されるIPアドレスは人間にとって覚えにくいため、人間にとって理解しやすい識別名称として表現したのが、ドメインネームである。そして、世界中の端末に付与されたドメインネームとIPアドレスの対応を管理し、端末からのドメインネームによる問い合わせに対してIPアドレスを答える、もしくはIPアドレスによる問い合わせに対してドメインネームを答えるシステムがドメインネームシステム(DNS:Domain Name System)である。DNSは、世界中のインターネット上に散在するドメインネームサーバの連携動作によって、機能する。ドメインネームは、例えば、hanaya@ipd.sony.co.jpのように、ユーザ名@ホスト名称.組織名称.組織属性.国識別名称(米国は省略)と表現され、第1階層の国識別名称が、jpであれば日本に設置されている端末であり、省略されていた場合は、米国に設置されている端末である事が特定できる。
【0127】
マッピングサーバ端末12は、図23に示すドメインネームサーバ130を利用して、アドレス取得URLを送信してきたクライアント端末の設置場所を特定する。
【0128】
すなわち、要求元のクライアント端末の送信元のIPアドレスとこのIPアドレスが付与されたドメインネームの対応テーブルを管理するドメインネームサーバ130に対して、対応するドメインネームの問い合わを行い、ドメインネームサーバ130より得られたクライアント端末のドメインネームの第1階層に基いてクライアント端末が設置された国を特定する。
【0129】
この場合、各ユーザが利用するクライアント端末と共有サーバ端末とは地理的に近い位置に存在するから、上述したような遅延の問題を解消、すなわち、レスポンスの悪化を防止することができる。
【0130】
なお、この場合、日本のユーザおよび米国のユーザが提供を受ける仮想現実空間は、同一の遊園地の仮想現実空間であるが、その共有を管理する共有サーバ端末が、日本のユーザと米国のユーザとで異なるため、その共有は、日本のユーザどうしと、米国のユーザ同志とで、別個独立に行われる。すなわち、日本のユーザどうしのみ、または米国のユーザどうしのみで、それぞれ1つの遊園地の仮想現実空間が共有される。従って、この場合、情報サーバ端末10からは、同一の仮想現実空間が提供されるが、日本のユーザどうしと米国のユーザどうしとでは、別々の共有空間が構築されることとなり、自国の言語でのチャットが支障なく行えることとなる。
【0131】
但し、この場合、共有サーバ端末W1とW2とを接続し、その間で、更新情報のやりとりを行わせるようにすることで、日本のユーザおよび米国のユーザどうしの間で、同一の仮想現実空間を共有するようにすることが可能である。
【0132】
また、レスポンスの悪化は、共有サーバ端末11に対し、多くのユーザがアクセスした場合も生じるが、これは、同一の地域の仮想現実空間に配置された更新オブジェクトを管理する共有サーバ端末を、例えば各国や各県などの、所定の地域ごとに、複数設置し、マッピングサーバ端末12には、その複数の共有サーバ端末のうち、そこにアクセスしているクライアント端末の数の少ないもののアドレスを提供させるようにすることで防止することができる。
【0133】
すなわち、この場合、例えば、上述の如く、複数の共有サーバ端末W3,W4,W5,・・・を設置し、マッピングサーバ端末12には、まず、所定のURLに対し、所定の共有サーバ端末W3のIPアドレスを提供させるようにする。さらに、この場合、例えばマッピングサーバ端末12と共有サーバ端末W3との間で通信を行わせるようにし、これにより、共有サーバ端末W3からマッピングサーバ端末12に対し、共有サーバ端末W3にアクセスしているクライアント端末の数を送信させるようにする。そして、マッピングサーバ端末12には、共有サーバ端末W3にアクセスしているクライアント端末の数が所定の数(共有サーバ端末W3のレスポンスが悪化しないような数(例えば、100など))を超えた状態となった場合において、所定のURLを受信したとき、他の共有サーバ端末W4(この共有サーバ端末W4は、共有サーバ端末4の近くに設置されているものであることが望ましい)のIPアドレスを提供させるようにする。
【0134】
なお、この場合、共有サーバ端末W4は、最初から稼働させておいても良いが、共有サーバ端末W3にアクセスしているクライアント端末の数が所定の数を超えたときに稼働させるようにすることも可能である。
【0135】
その後は、さらに、マッピングサーバ端末12と共有サーバ端末W4との間で通信を行わせるようにし、マッピングサーバ端末12には、上述の場合と同様に、共有サーバ端末W4にアクセスしているクライアント端末の数が所定の数を超えた状態となった場合において、所定のURLを受信したときに、さらに他の共有サーバ端末W5のIPアドレスを提供させるようにする(但し、共有サーバ端末W3へのアクセス数が所定の数以下に減少した場合には、共有サーバ端末W3のアドレスを提供させるようにする)。
【0136】
以上のようにすることで、各共有サーバ端末W3,W4,W5,・・・には、過大な負荷がかからなくなるので、レスポンスの悪化を防止することができる。
【0137】
なお、以上のことは、マッピングサーバ端末12が、所定のURLに対応して出力する共有サーバ端末のIPアドレスを制御することで実現することができ、ユーザが利用するクライアント端末13や、その上で稼働するソフトウェアについては、一切変更する必要はない。
【0138】
また、本実施の形態においては、共有サーバ端末11が管理する更新オブジェクトとして、ユーザのアバタを例に説明したが、共有サーバ端末11には、アバタ以外の、例えばユーザが作成した、状態の変化するオブジェクトなどの、あらゆる更新オブジェクトを管理させることができる。但し、更新オブジェクトの管理は、場合によっては、クライアント端末13に行わせるようにすることが可能である。すなわち、例えば時計などの更新オブジェクトについては、クライアント端末13に、その内蔵するクロックに基づいて、時刻の更新を行わせるようにすることが可能である。
【0139】
さらに、本実施の形態では、図1に示すように、ホストA乃至C、クライアント端末13−1乃至13−3、およびサービス提供者端末14のすべてを、インターネットであるネットワーク15を介して、相互に接続するようにしたが、既に構築されているWWWを利用する観点からすれば、少なくとも、情報サーバ端末10を有するホストAまたはマッピングサーバ端末12を有するホストCのそれぞれと、クライアント端末13とが、インターネットを介して接続されていれば良い。さらに、例えば、ユーザが、共有サーバ端末11のアドレスを認識している場合には、少なくとも、情報サーバ端末10を有するホストAと、クライアント端末13とが、インターネットを介して接続されていれば良い。
【0140】
また、本実施の形態では、情報サーバ端末10とマッピングサーバ端末12とを、別々のホスト上で稼動させるようにしたが、情報サーバ端末10およびマッピングサーバ端末12は、WWWを利用する場合には、同一のホスト内に構成することが可能である。なお、WWWを利用しない場合には、情報サーバ端末10、共有サーバ端末11、およびマッピングサーバ端末12は、すべて同一のホスト内に構成することが可能である。
【0141】
さらに、本実施の形態においては、ホストA(情報サーバ端末10)に、所定の地域ごとの仮想現実空間のデータを記憶させるようにしたが、このデータは、地域単位の他、例えば、デパートや遊園地などといった単位で扱うことも可能である。
【0142】
以上の実施の形態においては、基本オブジェクトをネットワーク15を介して、各クライアント端末13に供給するようにしたが、例えばCD−ROMなどの情報記録媒体に仮想現実空間を形成する基本的なオブジェクトである基本オブジェクトを予め格納しておき、各ユーザに、これを予め配布しておくようにすることができる。この場合、各クライアント端末13は、例えば図21に示すように構成される。すなわち、この実施の形態においては、CD−ROMドライブ100が、インタフェース48に接続されており、基本オブジェクトにより構成される仮想現実空間が予め格納されているCD−ROM101をドライブするようになされている。その他の構成は、図7における場合と同様である。
【0143】
このように、CD−ROM101から基本オブジェクトのデータを提供するようにすれば、ネットワーク15を介して基本オブジェクトのデータを転送する時間が不要となるため、より迅速な処理が可能となる。
【0144】
あるいはまた、CD−ROMを用いずに、情報サーバ端末10から供給された基本オブジェクトのデータを記憶装置50に最初の第1回目のみ格納し、その後は、適宜、これを読み出して、使用するようにしてもよい。
【0145】
すなわち、基本オブジェクトデータの格納元は、図22に示すように、情報サーバ端末10の記憶装置85(ケース1乃至ケース3の場合)、クライアント端末13の記憶装置50(ケース4乃至ケース6の場合)、またはクライアント端末13のCD−ROM101(ケース7乃至ケース9の場合)とすることができる。
【0146】
これに対して、更新オブジェクトデータの格納元は、情報サーバ端末10の記憶装置85(ケース1の場合)、または共有サーバ端末11の記憶装置30(ケース2乃至ケース9の場合)とすることができる。そして、共有サーバ端末11に更新オブジェクトデータを格納する場合においては、その共有サーバ端末は、例えば図23に示すように、日本の共有サーバ端末11−1(ケース2、ケース5またはケース8の場合)、または、米国の共有サーバ端末11−2(ケース3、ケース6またはケース9の場合)とすることができる。この場合、更新オブジェクトデータのURLの格納元は、マッピングサーバ端末12となる。
【0147】
なお、更新オブジェクトデータの格納元が情報サーバ端末10である場合には、更新オブジェクトデータのURLの格納元は、情報サーバ端末10で管理されているデフォルトのURLとなる(ケース1の場合)。あるいはユーザにより共有サーバ端末11がマニュアルで指定された場合には、その指定されたURLが格納元となる(ケース4またはケース7の場合)。
【0148】
図22における各ケースの場合のデータの流れを、図23を参照して説明すると、次のようになる。すなわち、ケース1の場合、情報サーバ端末10としてのWWWサーバ端末121の記憶装置であるHDD(Hard Disk Drive)の所定のディレクトリに記憶されているVRLMファイル(その詳細は後述する)から基本オブジェクトデータが読み出され、ネットワーク15としてのインターネット(The Internet)15Aを介して、例えばクライアント端末13−1に供給される。また、WWWサーバ端末121の記憶装置には、更新オブジェクトデータも記憶されている。すなわち、WWWサーバ端末121において、基本オブジェクトデータが読み出されたとき、それに対応する更新オブジェクトデータのURLが、WWWサーバ端末121の記憶装置に予めデフォルトのURLとして記憶されており、そのデフォルトのURLから更新オブジェクトデータが読み出され、クライアント端末13−1に供給される。
【0149】
ケース2においては、日本のクライアント端末13−1に対して、WWWサーバ端末121から、基本オブジェクトのデータがインターネット15Aを介して供給される。これに対して、更新オブジェクトのデータは、マッピングサーバ端末12で指定された日本の共有サーバ端末11−1からインターネット15Aを介してクライアント端末13−1に供給される。
【0150】
ケース3においては、米国のクライアント端末13−2に対して、基本オブジェクトのデータが、WWWサーバ端末121からインターネット15Aを介して供給され、更新オブジェクトデータは、マッピングサーバ端末12で指定された米国の共有サーバ端末11−2からインターネット15Aを介して供給される。
【0151】
ケース4においては、例えば、日本のクライアント端末13−1の記憶装置50に予め基本オブジェクトのデータが格納されており、更新オブジェクトデータは、クライアント端末13−1で指定した、例えば、米国の共有サーバ端末11−2から供給される。
【0152】
ケース5においては、クライアント端末13−1の記憶装置50に基本オブジェクトのデータが予め格納されており、更新オブジェクトデータは、マッピングサーバ端末12で指定された日本の共有サーバ端末11−1からインターネット15Aを介して供給される。
【0153】
ケース6においては、米国のクライアント端末13−2の記憶装置50に基本オブジェクトデータが予め格納されている。そして、更新オブジェクトデータは、マッピングサーバ端末12で指定された米国の共有サーバ端末11−2から、インターネット15Aを介してクライアント端末13−2に供給される。
【0154】
ケース7においては、例えば、日本のクライアント端末13−1に対して、CD−ROM101の基本オブジェクトのデータが、CD−ROMドライブ100を介して提供される。更新オブジェクトのデータは、クライアント端末13−1で指定した共有サーバ端末(例えば、共有サーバ端末11−1または11−2)から供給される。
【0155】
ケース8においては、クライアント端末13−1に対して、基本オブジェクトがCD−ROM101から供給され、更新オブジェクトのデータが、日本のマッピングサーバ端末12で指定された日本の共有サーバ端末11−1から供給される。
【0156】
ケース9においては、米国のクライアント端末13−2に対して、基本オブジェクトデータがCD−ROM101から供給され、更新オブジェクトデータが、マッピングサーバ端末12により指定された米国の共有サーバ端末11−2からインターネット15Aを介して供給される。
【0157】
次に、以上のような仮想現実空間のデータを授受し、表示装置に表示させるためのソフトウエアについて説明する。WWWにおいては、文書データをHTML(Hyper Text Markup Language)によって記述されたファイルを転送する。従って、テキストデータは、HTML形式のファイルとして登録される。
【0158】
これに対して、WWWにおいて、3次元グラフィックスデータは、VRMLまたはこれを拡張したE−VRML(Enhanced Virtual Reality Modeling Language)で記述することで、転送して利用することができる。従って、例えば、図24に示すように、前述した情報サーバ端末10、共有サーバ端末11またはマッピングサーバ端末12を構成するリモートホスト111のWWWサーバ端末112は、HTMLファイルとE−VRMLファイルを、その記憶装置に格納している。
【0159】
HTMLファイルにおいては、URLにより異なるファイルとのリンクが行われる。また、VRMLファイルまたはE−VRMLファイルにおいては、オブジェクトに対して、WWW AnchorやWWW Inlineなどの属性が指定できるようになされている。WWW Anchorは、オブジェクトにハイパーテキストのリンクを付けるための属性であり、リンク先のファイルは、URLで指定される。また、WWW Inlineは、例えば建物などの外観を外壁、屋根、窓、扉などの部品に分けて記述するための属性であり、各部品のファイルにURLを対応させることができる。このようにして、VRMLファイルまたはE−VRMLファイルにおいても、WWW AnchorまたはWWW Inlineにより、他のファイルにリンクをはることができる。
【0160】
WWWにおいて、クライアント端末に入力されたURLをWWWサーバ端末へ通知し、これによりWWWサーバ端末から転送されてきたHTMLファイルを解釈して表示するためのアプリケーションソフトウエア(WWW Browser)としては、ネットスケープ社のNetscape Navigator(商標)(以降、Netscapeと略称する)が知られている。そこで、例えば、クライアント端末13においても、WWWサーバ端末とのデータの授受を行う機能を利用する目的で、Netscapeを用いている。
【0161】
但し、このWWW Browserは、HTMLファイルを解釈し、表示することができるが、VRMLファイルまたはE−VRMLファイルは、受信することができても、これを解釈して表示することができない。そこで、VRMLファイルおよびE−VRMLファイルを解釈し、3次元空間として描画し、表示することができるVRML Browserが必要となる。
【0162】
なお、VRMLの詳細は、書籍『VRMLを知る:3次元電脳空間の構築とブラウジング,マーク・ペシ著,松田晃一・蒲池輝尚・竹内彰一・本田康晃・暦本純一・石川真之・宮下健・原和弘訳,1996年3月25日初版発行,プレンティスホール出版ISBN4-931356-37-0(原著;VRML:Browsing & Building Cyberspace, Mark Pesce, 1995 New Readers Publishing ISBN 1-56205-498-8)』に開示されている。
【0163】
本出願人は、このVRML Browserを含むアプリケーションソフトウエアとして、Community Place(商標)を開発している。
【0164】
Community Placeは、次の3つのソフトウェアから構成される。
(1)Community Place Browser
これは、VRMLブラウザであり、VRML1.0に準拠し、加えて、VRML2.0の機能(動き、音)を先取りし、動画機能を持つE-VRMLをサポートする。また、Community Place Bureauに接続できるマルチユーザ機能を持つ。スクリプト言語には、TCL/TKを用いている。
(2)Community Place Conductor
これは、VRMLオーサリングシステムであり、VRML1.0をベースにしたE-VRMLに準拠し、単純に3次元の世界を構築するだけではなく、3次元の世界に動きを付けたり、音や映像を付加することを簡単に行なえるツールである。
(3)Community Place Bureau
これは、Community Place Browserから接続し、ネットワーク上に構築された仮想的な空間の中で本当に人々が出会うことを可能にするサーバ端末システムのためのものである。
【0165】
図23に示すクライアント端末13−1,13−2において、予めブラウザ(Browser)をインストール実行させる。また、共有サーバ端末11−1,11−2において、予めビューロ(Bureau)をインストールして実行させる。図25においては、クライアント端末13−1上で、Community Place BrowserをCD−ROM101からインストールして実行させ、共有サーバ端末機能とクライアント機能を単一の端末で実現するために、共有サーバ端末11−1上で、予めCommunity Place BureauとCommunity Place BrowserをCD−ROM101からインストールして実行させている場合の一例を示している。
【0166】
Community Place Browserは、図24に示すように、WWW BrowserとしてのNetscapeとの間において、NCAPI(Netscape Client Application Programing Interface)(商標)に基づいて各種データの授受を行う。
【0167】
Netscapeは、インターネットを介してWWWサーバ端末112よりHTMLファイルとVRMLファイルまたはE−VRMLファイルの供給を受けると、これを記憶装置50にそれぞれ記憶させる。Netscapeは、このうちのHTMLファイルを処理する。これに対して、VRMLファイルまたはE−VRMLファイルは、Community Place Browserが処理する。
【0168】
E-VRML(Enhanced VRML)は、VRML1.0にBehavior(動き)とマルチメディア拡張(音、動画)を行なったもので、本出願人の最初の成果として、1995年9月にVRMLコミュニティに提案された。E-VRMLで用いられている動きの記述の基本モデル(イベントモデル)は、その後、VRML2.0のプロポーザルの1つであるMoving Worldsプロポーザルに引き継がれている。
【0169】
次に、Community Place Browserの概略について説明する。このブラウザをインストール後、Windows95(商標)のスタートメニューの「プログラム」(Windows NT(商標)の場合はプログラムマネージャ)の「Community Place Folder」からManualを選択するとマニュアルを表示させることができる。
【0170】
なお、ここでは、Community Place Browser,Community Place Conductor,Community Place Bureau、並びにこれらを動作させるために必要なファイルは、CD−ROM101などの記録媒体に記録して、サンプルとして配布されるものとする。
【0171】
[ブラウザの動作環境]
ブラウザの動作環境は、例えば、図26に示すとおりである。その最低動作環境は最低限満足する必要がある。但し、Netscape Navigatorは、スタンドアローンのVRMLブラウザとして使用する場合には必要ない。特に、マルチユーザで使う場合は、推奨動作環境とすることが望ましい。
【0172】
[ブラウザのインストール方法]
ブラウザのインストール方法は、通常、Netscapeをインストールするのと同じである。上記CD−ROM101の\Sony(商標)のディレクトリに置かれているvscplb3a.exeを用いてインストールする。
【0173】
(1)vscplb3a.exeをダブルクリックする。"Unzip To Directory"欄のディレクトリにインストールパッケージが展開されるので、必要に応じて適宜変更する。
(2)[Unzip]ボタンをクリックする。しばらくするとインストールパッケージが展開される。
(3)"12 files unzipped successfully"と表示されるので、[OK]ボタンをクリックする。
(4)「Welcome」ウィンドウが表示されたら、[NEXT]ボタンをクリックする。
(5)「Software License Agreement」の条項をよく読み、同意する場合は[Yes]ボタンをクリックする。同意しない場合は[No]ボタンをクリックする。
(6)インストールするディレクトリを調べる。デフォルトでは\Program Files\Sony\Community Placeとなっている。
(7)上記ディレクトリ名で不都合があれば、[Browse]ボタンを押してディレクトリを選択する。[Next]ボタンを押して次へ進む。
(8)「readme」ファイルをこの場で読む場合は[Yes]ボタンをクリックする。
(9)インストールが完了したら、[OK]ボタンをクリックする。
【0174】
[ブラウザの起動方法]
ブラウザを起動する前に、まずNetscape Navigatorの設定を行う。なお、スタンドアロンで使用する場合はこの作業は必要なく、スタートメニューの「プログラム」から「Community Place Folder...Community Place」を選んで起動すれば良い。また、以下の設定は、インストールにより自動的に設定される場合もある。
【0175】
(1)Netscape Navigatorの「Options」メニューから「General Preference」を実行し、「Preference」ウィンドウを開く。上部のタブから「Helper Applications」を選択する。
(2)File typeの一覧に「x-world/x-vrml」があるかどうか確認する。すでに存在していれば、(4)へ進む。
(3)[Create New Type]ボタンをクリックする。Mime Typeの欄に「x-world」、Mime SubTypeの欄に「x-vrml」と入力し、[OK]ボタンをクリックする。Extensions欄に「wrl」と入力する。
(4)[Launch the Application:]ボタンをクリックする。Community Placeブラウザのパス名をその下のテキスト欄に入力する(デフォルトでは\Program Files\Sony\Community Place\bin\vscp.exe)。
(5)[OK]ボタンをクリックする。
【0176】
以上で、設定は終りである。後は、以下の手順で起動する。
【0177】
(1)Netscapeの「File..Open File」メニューで、サンプルのCD−ROM101のreadme.htmを読み込む。
(2)サンプルワールドへのリンクをクリックすると、Community Placeが自動的に起動され、CD−ROM101に添付したサンプルワールドをロードできる。
【0178】
[ブラウザのアンインストール(削除)方法]
スタートメニューの「プログラム」(Windows NTの場合はプログラムマネージャ)の「Community Place Folder」からUninstallを実行すれは、自動的にアンインストールされる。
【0179】
[ブラウザの操作方法]
ブラウザの操作は、マウス49b、キーボード49a、画面上のボタンを用いて行なう。操作は、非常に直観的に行なえる。
【0180】
〈3次元内での移動〉
VRMLが提供する3次元空間では、前進、後退、右へ回転、左へ回転など現実世界で行なっている動作が可能である。ブラウザでは、このような動作を以下のようなユーザインタフェースで実現している。
【0181】
《ボードを使う方法》
キーボード49aでは、その矢印キー(図示せず)で次のように移動できる。
→ 右へ回転
← 左へ回転
↑ 前進
↓ 後退
【0182】
《マウスを使う方法》
マウス操作は、すべて左ボタンで行なう。
(1)Community Placeのウィンドウ内でマウス49bの左ボタンを押し、押した状態のまま押した地点よりも
右へ動かすと 右へ回転
左へ動かすと 左へ回転
上へ動かすと 前進
下へ動かすと 後退
する。マウスを動かした距離によって移動の速度が変化する。
(2)キーボード49aのCtrl(Control)キー(図示せず)を押した状態で、画面上の物体をクリックすると、その物体の正面まで移動する。
【0183】
ここで、以下の注意が必要である。
・物体にぶつかると衝突音がして、画面の枠が赤く点滅する。この場合はそれ以上先には進めないので、向きを変える。
・自分のいる場所がわからなくなったり、何も見えなくなったりした場合には、画面右の[Home]ボタンをクリックすると、初期位置に戻る。
【0184】
[ジャンピングアイ]
3次元空間をナビゲートしている間に、道に迷うことがある。そのような場合に、空に飛び上がって回りを見回すことができる。
(1)画面右の[Jump]ボタンをクリックすると、ジャンピングアイモードになり、上空からワールドを見下ろす位置にジャンプする。
(2)もう一度、[Jump]ボタンをクリックすると、元の位置に戻る。
(3)あるいは、ワールド内のどこかの地点をクリックするとその地点に降りる。
【0185】
[物体の選択]
画面上でマウスカーソルを動かすと、物体の上にさしかかったところでカーソルの形が手に変わるところがある。そこでマウス49bの左ボタンをクリックすると、物体の持つアクションを呼び出すことができる。
【0186】
[VRMLファイルの読み込み]
次の方法でVRMLファイルを読み込むことができる。
・NetscapeでVRMLファイルへのリンクをクリックする。
・Community Placeの「File..Open File」メニューでディスク上の拡張子wrlのファイルを選択する。
・Community Placeの「File..Open URL」メニューでURLを入力する。
・ワールド内の物体で、マウスカーソルに「URL」と表示されるものをクリックする。
【0187】
[ツールバーボタン操作]
ブラウザでは、良く使う機能をツールバーに並んでいるツールバーのボタンを使って以下のような操作を行うことができる。
[Back] 一つ前に読み込んだワールドに戻る。
[Forward] Backで戻った後、先のワールドへ再度進む。
[Home] 初期位置へ移動する。
[Undo] 物体を移動した後、元の場所に戻す(後述)。
[Bookmark] 現在のワールド、位置をブックマークに登録する。
[Scouter] スカウターモードにする(後述)。
[Jump] ジャンピングアイモードにする。
【0188】
[スカウタモード]
ワールドに置かれた物体は、E-VRMLの機能を用いて、文字列を情報として持つことができる。
(1)画面右の[Scouter]ボタンをクリックすると、スカウタモードに入る。
(2)画面上でマウスカーソルを動かすと、情報ラベルを持つ物体の上にさしかかったところで情報ラベルが表示される。
(3)もう一度[Scouter]ボタンをクリックすると、スカウタモードを終了する。
【0189】
[物体を動かす]
キーボード49aのAlt(Alternate)キー(図示せず)(機種によっては、graphキー)を押しながら物体の上でマウス49bの左ボタンを押し、押したままマウス49bを動かすと、物体を移動させることができる。これは、現実世界で、机の上のコーヒーカップを手で動かせるのと同じである。ただし、移動できるのは移動可能属性を持つ物体だけなので、あらゆる物体を移動できるわけではない。なお、物体を移動させた後、1回分だけは[Undo]ボタンで元に戻すことができる。
【0190】
[マルチユーザサーバ端末への接続方法]
このブラウザは、マルチユーザ機能を持っている。マルチユーザ機能とは、同じVRMLの仮想空間を他のユーザと共有する機能である。現在、出願人は、Community Placeビューロをインターネット上で実験運用している。chatroomと称するワールドを読み込むことでサーバ端末に接続し、他のユーザと同じVRMLの仮想空間を共有し、一緒に歩き回ったり、部屋の電気を消したり、チャットしたりすることができる。
【0191】
これは、以下の手順で行なう。
(1)自分の使っているパーソナルコンピュータが、インターネットへ接続されていることを確認する。
(2)サンプルワールドのChatroomをブラウザに読み込む。これは、サンプルのCD−ROM101の\Sony\readme.htmをNetscapeに読み込み、Chat Roomをクリックすることで行なう。
(3)メッセージウィンドウに「Connected to VS Server」と表示されれば、マルチユーザサーバ端末への接続が成功している。
【0192】
以上で、サーバ端末に接続される。他のユーザとのインタラクションには、次の2種類がある。
・他の人にアクションを伝える。
これは、actionウィンドウのHello,Smile,Wao!,Wooo!!,Umm...,Sad,Byeなどのボタンをクリックすることで実現される。また、アクションとしては、自分自身(アバタ)を左または右方向に36度、180度、または360度回転させることもできる。
・他の人と会話する。
これは、「View..Chat」メニューでChatウィンドウを開き、一番下の入力欄にキーボード49aからメッセージを入力することで実現される。
【0193】
[マルチユーザワールド]
サンプルのCD−ROM101で提供されているマルチユーザのワールドは、次の3つである。なお、チャットはすべての世界で、共通に行うことができる。
(1)Chat Room
チャットをメインとする部屋であるが、いくつかのオブジェクトは、他のユーザと共有されている。左ボタンでクリックするとだんだん透明になるオブジェクトや、部屋の電気を消すスイッチや、クリックすると飛び回るオブジェクトなどがある。また、秘密の穴などもある。
(2)Play with a ball!
仮想空間に浮かぶボールをクリックすると、自分の方に飛んでくる。このボールは、その空間にいるすべてのユーザで共有され、他のユーザとキャッチボールすることができる。
(3)Share your drawing
仮想空間にホワイトボードが置かれており、それを左ボタンでクリックすると共有ホワイトボードが表示される。左ボタンでドラッグすることでボードに描画することができ、それは、その空間にいる他のユーザと共有できる。
【0194】
Community Place Bureauを使えば、Community Place Browserを使ったユーザ同志がVRML1.0で記述された世界に一緒に入り込むことができる。このため、3次元仮想現実空間を提供するには、まず、VRML1.0で記述されたファイルを用意する必要がある。その後、ビューロ(以下、適宜、Community Place Bureauを、単に、ビューロ(Bureau)と称する)を適当なパーソナルコンピュータで動作させる。さらに、そのVRML1.0のファイルに、ビューロの動いているパーソナルコンピュータを知らせる行を追加する。そのVRMLファイルを、Community Place Browserに読み込ませれば、ブラウザ(以下、適宜、Community Place Browserを、単に、ブラウザ(Browser)と称する)はビューロに接続される。
【0195】
接続がうまく行けば、仮想世界の中でユーザ同志がお互いに見え、会話を行うことができる。さらに、適当なスプリクトをファイルに書き込むことにより、アクションパネルを使って、喜怒哀楽を表現することができる。
【0196】
Community Place Browserは、TCLを用いた動作記述用のインタフェースを用意している。これを使うことにより、仮想世界の中のオブジェクトに動きを付けて、さらに、それをブラウザ間で同期させることができる。これにより、工夫次第で、3Dゲームなどを複数のユーザで楽しむことが可能となる。
【0197】
マルチユーザの仮想世界を楽しむには、VRMLファイルの準備、ビューロの起動、ブラウザの接続の3つのステップがある。
【0198】
[VRMLファイルの準備]
まず、自分の気に入ったVRML1.0のファイルを用意する。このファイルは、自分で作成するか、あるいはフリーのものを持ってくることができる。そのファイルが、マルチユーザの仮想世界の舞台となる。
【0199】
[ビューロの起動]
Community Place Bureauの動作環境は次の通りである。
CPU 486SX以上
OS Windows 95
メモリ 12MB以上
【0200】
このビューロは、ダウンロードしてきたファイルを実行するだけで、起動することができる。実行すると、いくつかのメニューのついたメニューバーだけが表示される。起動直後は、ビューロは停止状態であり、Viewメニューをプルダウンして、statusを選べば、statusウインドウが表示され、現在のビューロの状態が判るようになる。なお、このとき、停止中であるのか、動作中であるのかの状態の他、接続を待っているポート番号も表示される。
【0201】
ビューロは、起動直後はTCPのポート5126番で接続を待つように設定されている。このポート番号を変更するには、optionsメニューをプルダウンして、portを選択する。新しいポート番号の入力を促されたら、5000以上のポート番号を入力する。どのポートを使えばよいか判らない場合には、特に設定をせず、デフォルト値(5126)を使用することができる。
【0202】
停止中のビューロを動作させるには、runメニューをプルダウンして、startを選択する。サーバ端末は、指定されたポートで接続を待つようになる。このとき、statusウインドウで表示されている状態は、runningになる。
【0203】
このように、ビューロの準備が完了した後、ブラウザがビューロに接続してきたとき、ビューロは、そのブラウザの位置を他のブラウザに教えたり、会話や動作の情報を受け渡しする。
【0204】
ビューロのstatusウインドウは、ユーザからの接続が来る度に更新されるので、このウインドウを使うことにより、その世界に入っているユーザを確認することができる。
【0205】
[ブラウザの接続]
ブラウザをビューロに接続するには、次の2つのことが必要となる。1つは、ブラウザにどのビューロに接続するのかを指示することである。これは、VRMLファイルにinfoノードを書き込むことにより行われる。そして、もう1つは、自分が他のユーザから見えるように、自分のアバタのファイルを適当なディレクトリにコピーすることである。
【0206】
[VRMLファイルへの追加]
接続するビューロを指定する行をVRMLファイルに書き込むとき、ビューロが動いているパーソナルコンピュータの名称と、ポート番号を指定する。この場合の書式は次のようになる。
DEF VsServer Info {string"サーバ名:ポート番号"}
【0207】
サーバ端末名は、ビューロの動作しているインターネットでのマシン名(例えばfred.research.sony.com)、またはそのIPアドレス(例えば123.231.12.1)になる。ポート番号は、ビューロで設定したポート番号である。
【0208】
従って、上記した書式は例えば次のようになる。
DEF VsServer Info {string"fred.research.sony.com:5126"}
【0209】
また、図25の例においては、共有サーバ端末11−1のIPアドレスは、43.0.35.117とされているので、この場合には、上記した書式は次のようになる。
DEF VsServer Info { string "43.0.35.117:5126"}
【0210】
このような書式を用意したVRMLファイルの
#VRML V1.0 ascii
の下の行に追加する。
【0211】
[アバタファイルのコピー]
Community Place Browserは、Community Place Bureauに接続されたとき、それに対し、自分のアバタを通知する。所定のアバタが他のアバタと出会ったとき、ビューロは、この情報を他のブラウザに通知することにより、所定のアバタを他のブラウザに表示させる。このため、所定のアバタのVRMLファイルを予め適当な場所にコピーする必要がある。
【0212】
次に、ブラウザ(Community Place Browser)の動作について、さらに説明する。
【0213】
以下の説明においては、1996年8月4日に公開されたVRML2.0(The Virtual Reality Modeling Language Specification Version 2.0)の記述形式を前提として説明する。また、以下の説明において、ブラウザは、VRML2.0に対応しており、このVRML2.0で記述されたファイルを解釈し、その3次元仮想空間を表示することができるものとする。
【0214】
ここで、VRML2.0の仕様書の詳細については、
URL=http://www.vrml.org/Specifications/VRML2.0/
で公開されている。
【0215】
さらに、このVRML2.0の日本語に翻訳された仕様書の詳細については、URL=http://www.webcity.co.jp/info/andoh/VRML/vrml2.0/spec-jp/index.htmlで公開されている。
【0216】
Community Place Browserを起動するには、上述した[ブラウザの起動方法]で説明したように、Windows95のスタートメニューやエクスプローラで表示される cpbrowse.exe の実行ファイルのアイコンをダブルクリックすればよい。
【0217】
ブラウザの実行ファイルであるcpbrowse.exeが選択され、ブラウザが起動されると、まず最初に、例えば図27に示すように、メインウィンドウ110が表示され、そのメインウィンド110内に、複数の3次元アイコン111−1乃至111−6が、3次元配列されたエントリールームと称される3次元仮想現実空間画像が表示される。
【0218】
ここで、例えば、CD−ROM101などの記録媒体に格納されたCommunity Place Browserを、専用のインストーラを用いてクライアント端末13の記憶装置50へインストールした場合、ブラウザを機能させるための実行ファイルcpbrowse.exeは、図28に示すように、デフォルトの設定では、ローカルのハードディスクのCドライブ(記憶装置50)の、C:\Program Files\Sony\Community Place Browser\binのディレクトリ(フォルダとも称される)にインストールされる。
【0219】
上述した専用のインストーラによるCommunity Place Browserのインストール時において、例えば、CD−ROM101などの記録媒体に格納されたVRMLファイルを含むワールド・コンテンツが、専用のインストーラの機能によってbinディレクトリと同一階層のworldディレクトリにインストールされる。例えば、図28に示すように、worldディレクトリに、3次元仮想現実空間(仮想世界)がVRML2.0によって記述されたVRMLファイルを含むcircus2ディレクトリ、driveディレクトリ、networkentryディレクトリ、origamiディレクトリ、tvディレクトリ、およびufoディレクトリが各々インストールされる。
【0220】
ここで、 図28にフォルダ・アイコンで示されるcircus2ディレクトリ、driveディレクトリ、networkentryディレクトリ、origamiディレクトリ、tvディレクトリ、およびufoディレクトリなどのワールド・コンテンツ・フォルダは、仮想世界を記述したVRMLファイルmain.wrl(拡張子がwrlのファイル)、そのVRMLファイルを解釈する際に参照されるオブジェクトのテクスチャが記述されたテクスチャ・ファイル(例えば、拡張子がjpgのファイル)、そのVRMLファイルを解釈する際に参照されるオブジェクトの挙動を規定するスクリプトが記述されたスクリプト・ファイル(例えば、拡張子がclassのファイル)、エントリールームに表示される3次元アイコン111−1乃至111−6の形状やテクスチャ、並びに、リンク情報としてのURLやファイル名がVRML2.0で記述されたVRMLファイルentry.wrlなどを含んで構成される。図28においては、説明の都合上、仮想世界を記述したVRMLファイルmain.wrlと、3次元アイコン111−1乃至111−6のVRMLファイル entry.wrlのみを示している。
【0221】
そして、ブラウザを機能させるための実行ファイルcpbrowse.exeが、上記binディレクトリにインストールされた後、初めて(最初に)ブラウザを起動した時点で、図27に示すエントリールームが記述されたVRMLファイルentryroom.wrlが、ブラウザの機能によって自動的に生成される。そして、複数の3次元アイコン111−1乃至111−6が3次元配列されたエントリールームと称する3次元仮想現実空間がVRML2.0によって記述されたVRMLファイルentryroom.wrlが、ブラウザの機能によってworldディレクトリ内に自動的に格納される。これにより、ブラウザによって自動生成されたVRMLファイルentryroom.wrlが、図28に示すように、 binディレクトリと同一階層のworldディレクトリ内に格納される。
【0222】
このエントリールームは、仮想世界への入り口として機能するもので、そのVRMLファイルentryroom.wrlは、ローカルディスク(記憶装置50)に格納されると共に、新たにワールド・コンテンツ・フォルダがインストールされたり、アンインストールされた時点で、自動的に更新される。この更新処理については、後に詳述する。
【0223】
以降、Community Place Browserは、その起動時に、自ら生成したVRMLファイルentryroom.wrlを自動的に読み込んで、ブラウザのメインウィンドウ110に表示する。
【0224】
これにより、図27に示すように、メインウィンド110内に、エントリールームと称される複数の3次元アイコン111−1乃至111−6が3次元配列された3次元仮想現実空間画像が表示される。
【0225】
ここで、エントリールームのVRMLファイルentryroom.wrlは、Community Place Browserが、以下の条件を満たす場合に自動的に生成する。
1. Community Place Browserの実行ファイルcpbrowse.exeがインストールされているディレクトリ(デフォルトでは、「C:\Program Files\Sony\Community Place Browser\bin」)と同一階層に、worldディレクトリ(フォルダ)が存在する。
2. worldディレクトリ内に、仮想世界を記述したVRMLファイルmain.wrlが格納されている。
3. 上記worldディレクトリ内に、3次元アイコン111−1乃至111−6の形状やテクスチャ、リンク情報としてのURLやファイル名がVRML2.0で記述されたVRMLファイルentry.wrlが格納されている。
【0226】
以上の3条件を満たす場合に、それぞれのVRMLファイルentry.wrlによって記述された3次元アイコン111−1乃至111−6の3次元配列に関する情報や、エントリールームを表示する際の初期状態におけるユーザの視点位置に関する情報を含むVRMLファイルentryroom.wrlが自動的に生成される。
【0227】
ここで、VRMLファイルentry.wrlでは、VRML2.0で規定された寸法単位2.0×2.0×2.0のサイズで各3次元アイコン111−1乃至111−6の形状が記述され、また、それらの表面模様を示すテクスチャの記述や、それが指す実際の仮想世界へのリンク情報としてのURLやファイル名が記述されている。
【0228】
例えば、Community Place Browserの起動時に自動的に生成されたVRMLファイルentryroom.wrlを示せば、以下の通りである。
【0229】
なお、以下に示すVRMLファイルの左端の行番号は説明の都合上付加したものであり、実際には不要である。
【0230】
[起動直後のentryroom.wrlの例]
1 #VRML V2.0 utf8
2 #
3 # NOTICE
4 #
5 # This file is automatically generated by Community Place.
6 # DO NOT edit this file.
7 #
8 WorldInfo { title "Entry Room"}
9 NavigationInfo{ headlight TRUE }
10 Transform {
11 translation 0.000000 0.000000 0
12 children [
13 Inline { url "circus2/entry.wrl" }
14 ]
15 }
16 Transform {
17 translation 3.300000 0.000000 0
18 children [
19 Inline { url "drive/entry.wrl" }
20 ]
21 }
22 Transform {
23 translation 6.600000 0.000000 0
24 children [
25 Inline { url "networkentry/entry.wrl" }
26 ]
27 }
28 Transform {
29 translation 0.000000 -3.300000 0
30 children [
31 Inline { url "origami/entry.wrl" }
32 ]
33 }
34 Transform {
35 translation 3.300000 -3.300000 0
36 children [
37 Inline { url "tv/entry.wrl" }
38 ]
39 }
40 Transform {
41 translation 6.600000 -3.300000 0
42 children [
43 Inline { url "ufo/entry.wrl" }
44 ]
45 }
46 Viewpoint {
47 position 3.300000 -1.650000 10.612769
48 fieldOfView 0.785398
49 }
【0231】
まず最初に、VRML2.0においては、ファイルはノード(Node)とフィールド(Field)で構成されており、基本的に次のような書式で記述される。
Node { Field(s) }
【0232】
この内、Fieldsについては省略することができるが、Nodeと中かっこ“{”,“}”については省略することができない。
【0233】
フィールドはノードに変数を渡し、ノードのパラメータを指定する。フィールドを省略した場合、デフォルト値が用いられる。また、フィールドには単一の値しか持たない「単一値フィールド(SF)」と、複数の値を持つ「複値フィールド(MF)」があり,単一値フィールドの名称は“SF”で始まり、複値フィールドの名称は“MF”で始まるようになっている。
【0234】
上記VRMLファイルにおいて、1行目は、VRML2.0の仕様に基づいて記述されていることを示している。
【0235】
次に、上記5行目は、コメント行で、このファイルがCommunity Place Browserの起動時に自動的に生成されたファイルであることを示している。
【0236】
8行目のWorldInfoノードは、ワールド情報を記述するもので、そのtitleフィールドに、ワールドタイトルが記述されている。
【0237】
9行目のNavigationInfoノードは、ワールド内の移動等に関わる各種パラメータを設定するもので、そのheadlight フィールドがTRUEと設定されている場合、ヘッドライトを点灯して、明るい照明効果を与える。
【0238】
11行目に記述されたTransformノードのtranslationフィールドは、3次元オブジェクトの平行移動量を示すもので、translationフィールドは、
translation x y z
と記述した場合、それぞれx軸、y軸、z軸の移動量が指定される。ブラウザ上ではx軸が左右方向(右方向が正)、y軸が上下方向(上方向が正)、z軸が奥行き方向(手前方向が正)として表示される。
【0239】
例えば、
translation 2 0 0
と記述した場合、ワールド内で3次元オブジェクトを右方向へ2単位だけ平行移動したことになる。
【0240】
12行目のchildrenフィールドは、子ノードを示すものである。
【0241】
13行目のInlineノードは、その他のVRMLファイルの組み込みを示すもので、そのInlineのノードのurlフィールドに記述されたVRMLファイルが呼び出される。
【0242】
例えば、
Inline{url“circus2/entry.wrl”}
と記述した場合、circus2ディレクトリのVRMLファイルentry.wrlが読み込まれて表示される。
【0243】
46行目のViewpoint ノードは、ワールドに対するユーザの視点位置や視線方向を指定するもので、その position フィールドに具体的な3次元座標を指定すると、その座標位置が、ワールドを表示しときの最初の視点となる。ただし、視線方向はデフォルトではz 軸の負方向(画面の奥行き方向)となっている。
【0244】
なお、視点の位置を変更するには、Viewpoint ノードのorientation フィールドで指定する。このorientation フィールドは SFRotation 型のフィールドで、回転軸と回転角を指定する。
【0245】
48行目のfieldOfView フィールドは、 position フィールドで指定された視点を起点とする視野角をラジアン単位で指定する。小さな視野角が設定された場合、カメラの望遠レンズに相当し、大きな視野角が設定された場合、カメラの広角レンズに相当する。視野角のデフォルト値は45 度に相当する0.785398となっている。
【0246】
上述した起動直後に自動生成されたエントリールームのVRMLファイルentryroom.wrlが、Community Place Browserによって読み込まれることで、図27に示すようなエントリールームが表示されるが、その表示ウィンドウ内に配置された3次元アイコン111−1乃至111−6と、デフォルトにおける視点位置(Viewpoint)との立体的な位置関係を示せば図29に示す通りである。
【0247】
図29に示すように、3次元アイコン111−1乃至111−6と、視点位置の3次元座標値は以下の通りである。
3次元アイコン111−1の座標値(x,y,z)=(0.0, 0.0,0.0)
3次元アイコン111−2の座標値(x,y,z)=(3.3, 0.0,0.0)
3次元アイコン111−3の座標値(x,y,z)=(6.6, 0.0,0.0)
3次元アイコン111−4の座標値(x,y,z)=(0.0,-3.3,0.0)
3次元アイコン111−5の座標値(x,y,z)=(3.3,-3.3,0.0)
3次元アイコン111−6の座標値(x,y,z)=(6.6,-3.3,0.0)
視点位置の座標値(x,y,z)=(3.3,-1.65,10.612869)
【0248】
これらの座標値は、上述した起動直後に自動生成されたエントリールームのVRMLファイルentryroom.wrlの記述に基づくものである。
【0249】
次に、新たにワールド・コンテンツ・フォルダがインストールされたり、アンインストールされると、その次にブラウザが起動された時点で、エントリールームのVRMLファイルentryroom.wrlが自動的に更新される。
【0250】
すなわち、ブラウザは、それが起動される毎に、worldディレクトリ内のディレクトリを検索することで、新たに追加されたVRMLファイルentry.wrlを含むディレクトリ(ワールド・コンテンツ・フォルダ)が存在するか否か、または削除されたVRMLファイルentry.wrlを含むディレクトリが存在するか否かを判別する。そして、追加または削除されたVRMLファイルentry.wrlを含むディレクトリが存在する場合、それに対応して、エントリールームのVRMLファイルentryroom.wrlを書き換えて、更新する。
【0251】
ここで、例えば、Netscape(商標)などを用いて、インターネット上のWWWサーバにアクセスし、そのWWWサーバに格納されているanalogワールドのVRMLファイルentry.wrlを含むディレクトリ(ワールド・コンテンツ・フォルダ)をダウンロードし、図30に示すように、クライアント端末のハードディスク(記憶装置50)の、C:\Program Files\Sony\Community Place Browser\worldのディレクトリにインストールしたとする。
【0252】
もしくは、CD−ROM101などの記録媒体に格納されたanalogワールドのVRMLファイルentry.wrlを含むディレクトリ(ワールド・コンテンツ・フォルダ)が、専用のインストーラの機能によってbinディレクトリと同一階層のworldディレクトリにインストールされたとする。
【0253】
その後、ブラウザを起動すると、ブラウザは、worldディレクトリ内のディレクトリを検索することで、新たに追加されたanalogワールドのVRMLファイルentry.wrlを含むディレクトリ(ワールド・コンテンツ・フォルダ)の存在を判別し、それに対応して、エントリールームのVRMLファイルentryroom.wrlを書き換える。
【0254】
例えば、 このanalogワールドの追加に伴ってブラウザの起動時に自動的に更新されたVRMLファイルentryroom.wrlを示せば、以下の通りである。
【0255】
なお、以下に示すVRMLファイルにおいても、左端の行番号は説明の都合上付加したものであり、実際には不要である。
【0256】
[更新されたentryroom.wrlの例]
1 #VRML V2.0 utf8
2 #
3 # NOTICE
4 #
5 # This file is automatically generated by Community Place.
6 # DO NOT edit this file.
7 #
8 WorldInfo { title "Entry Room"}
9 NavigationInfo{ headlight TRUE }
10 Transform {
11 translation 0.000000 0.000000 0
12 children [
13 Inline { url "analog/entry.wrl" }
14 ]
15 }
16 Transform {
17 translation 3.300000 0.000000 0
18 children [
19 Inline { url "circus2/entry.wrl" }
20 ]
21 }
22 Transform {
23 translation 6.600000 0.000000 0
24 children [
25 Inline { url "drive/entry.wrl" }
26 ]
27 }
28 Transform {
29 translation 0.000000 -3.300000 0
30 children [
31 Inline { url "networkentry/entry.wrl" }
32 ]
33 }
34 Transform {
35 translation 3.300000 -3.300000 0
36 children [
37 Inline { url "origami/entry.wrl" }
38 ]
39 }
40 Transform {
41 translation 6.600000 -3.300000 0
42 children [
43 Inline { url "tv/entry.wrl" }
44 ]
45 }
46 Transform {
47 translation 0.000000 -6.600000 0
48 children [
49 Inline { url "ufo/entry.wrl" }
50 ]
51 }
52 Viewpoint {
53 position 3.300000 -3.300000 17.583812
54 fieldOfView 0.785398
55 }
【0257】
上述したanalogワールドの追加に伴って、ブラウザによって自動的に更新されたエントリールームのVRMLファイルentryroom.wrlが、Community Place Browserによって読み込まれることで、今度は、図31に示すようなエントリールームが表示される。この表示例では、3次元アイコン111−0が追加されている。この表示ウィンドウ内に配置された3次元アイコン111−0乃至111−6と、デフォルトにおける視点位置(Viewpoint)との立体的な位置関係を示せば図32に示す通りである。
【0258】
図32に示すように、3次元アイコン111−0乃至111−6と、視点位置の3次元座標値は以下の通りである。
3次元アイコン111−0の座標値(x,y,z)=(0.0, 0.0,0.0)
3次元アイコン111−1の座標値(x,y,z)=(3.3, 0.0,0.0)
3次元アイコン111−2の座標値(x,y,z)=(6.6, 0.0,0.0)
3次元アイコン111−3の座標値(x,y,z)=(0.0,-3.3,0.0)
3次元アイコン111−4の座標値(x,y,z)=(3.3,-3.3,0.0)
3次元アイコン111−5の座標値(x,y,z)=(6.6,-3.3,0.0)
3次元アイコン111−6の座標値(x,y,z)=(0.0,-6.6,0.0)
視点位置の座標値(x,y,z)=(3.3,-3.3,17.583812)
【0259】
これらの座標値は、上述したanalogワールドの追加後、ブラウザの起動時に自動的に更新されたエントリールームのVRMLファイルentryroom.wrlの記述に基づくものである。
【0260】
上述したVRMLファイルentryroom.wrlを見れば分かるように、analogワールドの追加に伴って、10行目乃至15行目のanalogワールドの3次元アイコン111−0を記述したVRMLファイルanalog\entry.wrlに対応する記述が自動的に追加され、既存の3次元アイコン111−1乃至111−6の座標値や視点位置などの値も書き換えられている。
【0261】
すなわち、新たに追加されたanalogワールドの3次元アイコン111−0が、視点位置から見て、最上段の最左端に配置され、既存の3次元アイコン111−1乃至111−6は、順次右方向(X軸の正方向)または下方向(Y軸の負方向)へ、3.3単位づつ移動されて再配置される。
【0262】
さらに、視点位置も、3次元アイコン111−0乃至111−6の配列段数が一段増加したのに伴って、下方向へ1.65単位移動され、後方(Z軸の正方向)へ6.971043単位移動され、視点位置が自動的に補正される。
【0263】
一方、analogワールドのVRMLファイルentry.wrlを含むディレクトリが削除された場合、その後、ブラウザが起動された時点で、worldディレクトリ内のディレクトリが検索され、analogワールドの削除が判別され、それに対応して、エントリールームのVRMLファイルentryroom.wrlが書き換えられる。これにより、図29に示す位置関係で3次元アイコン111−1乃至111−6が配列された、図27に示すエントリールームの表示に戻されることになる。
【0264】
ここで、ブラウザは、起動時に、worldディレクトリ内のディレクトリを検索し、新たに追加されたanalogワールドのVRMLファイルentry.wrlを含むディレクトリ(ワールド・コンテンツ・フォルダ)が存在する場合、それに対応して、エントリールームのVRMLファイルentryroom.wrlを書き換えると説明した。これは、ワールド・コンテンツ・フォルダの追加や削除に関係なく、起動時に必ずエントリールームのVRMLファイルentryroom.wrlの書き換えを行うことによって実現される。しかしながら、これは、結果として、ワールド・コンテンツ・フォルダの追加または削除があった場合にのみ、エントリールームのVRMLファイルentryroom.wrlの書き換えを行うことと等価である。
【0265】
なお、ワールド・コンテンツ・フォルダ内にVRMLファイルentry.wrlが含まれていない場合、当然の事ながら、そのワールドを示す3次元アイコンはエントリールームに表示されない。
【0266】
図27と図31に示すように、エントリールームに表示される3次元アイコン111−0乃至111−6は、対応するワールドを縮小したような形状のデザインであったり、ワールドを模した表面模様(テクスチャ)を貼り付けたようなデザインとされており、これらのデザインに基づいてVRML2.0によって予め記述されている。従って、ユーザは、これら3次元アイコン111−0乃至111−6を見ることによって、対応するワールドの概要を、直感的に把握することが可能である。
【0267】
ユーザは、前述した[ブラウザの操作方法]で説明したように、マウス49bやキーボード49aを操作したり、図27と図31に示すように、ブラウザのメインウィンドウ110の下端部の領域に表示されているナビゲーションボタン112をマウス49bで操作することによって、3次元アイコン111−0乃至111−6が表示された3次元仮想現実空間であるエントリールーム内を、自由に移動(ナビゲート)することができる。例えば、視点位置や視線方向を任意に変更することで、3次元配列された3次元アイコン111−0乃至111−6を所望の角度から眺めることが可能である。ナビゲーションボタン112は、右端から右移動、上移動、下移動、左移動、右旋回、後退、前進、左旋回、上チルト、下チルト、水平リセットの順に配列されている。
【0268】
エントリールームが表示された後、ユーザがマウス49bなどを操作することにより矢印型のポインタを移動し、例えば、circus2ワールドの3次元アイコン111−1の上にオーバレイさせると、図31に示すように、ポインタ形状がURLと表記されたバルーン表示を伴う手の平形状に変化する。さらに、表示されているエントリールームの下端部分に、3次元アイコン111−1のワールドの説明文として、“Circus Park 2(is the entry to a multiuser world)”なる文字列が、画面に向って右端から左方向へスクロール表示される。
【0269】
図31の状態で、ユーザがマウス49bなどのボタンをクリックして、確定操作を行うと、ブラウザは、その3次元アイコン111−1に対応するワールドが記述された図29に示すVRMLファイルcircus2\main.wrlを読み込み、図33に示すように、メインウィンドウ110に表示する。
【0270】
すなわち、3次元アイコン111−0乃至111−6のVRMLファイルentry.wrlには、それらに対応するワールドのVRMLファイルmain.wrlへのリンク情報が記述されている。ブラウザは、3次元アイコン111−0乃至111−6のいずれかがクリックされると、それに対応するVRMLファイルentry.wrlとリンクしているワールドのVRMLファイルmain.wrlを読み出し、エントリールームの表示に代えて、そのVRMLファイルmain.wrlに記述されたワールドをメインウィンドウ110に表示させる。
【0271】
以上のように、3次元アイコン111−0乃至111−6が表示された3次元仮想現実空間であるエントリールーム内をマウス操作によって自由に移動(ナビゲート)しながら、所望のワールドを選択するといった、統一したGUIを実現することができる。図38に示す従来の選択方法のように、ディレクトリの検索などと言った煩雑な操作を行わなくても、ブラウザの起動と同時に自動的に表示されるエントリールームを見ながらマウスを操作することで、所望するワールドを容易にかつ即座に選択することが可能となる。
【0272】
次に、図34に示すフローチャートを参照して、上述したブラウザによるエントリールームの自動生成処理を含む処理過程についてさらに説明する。
【0273】
ブラウザが起動されると、ステップS61においてworldディレクトリ内のワールド・コンテンツ・フォルダが検索され、次のステップS62において、新規に追加されたワールド・コンテンツ・フォルダの有無が判定される。新規のワールド・コンテンツ・フォルダが有ると判定された場合、さらに次のステップS63において、3次元アイコンの3次元配列に関する情報や、エントリールームを表示する際の初期状態におけるユーザの視点位置に関する情報を含むVRMLファイルentryroom.wrlが自動的に更新される。この自動更新処理によって、新たに追加されたVRMLファイルentry.wrlを含むディレクトリに対応する新たな3次元アイコンが追加される。
【0274】
一方、ステップS62において、新規に追加されたワールド・コンテンツ・フォルダがないと判定された場合、ステップS64で、削除されたワールド・コンテンツ・フォルダの有無が判定される。ステップS64において削除されたワールド・コンテンツ・フォルダが有ると判定された場合、さらに次のステップS65において、削除されたVRMLファイルentry.wrlを含むディレクトリに伴って、それが反映されるように、VRMLファイルentryroom.wrlが自動的に更新される。
【0275】
そして、ステップS66において、自動更新されたVRMLファイルentryroom.wrlを読み出して、エントリールームを表示する。
【0276】
次のステップS67において、エントリールームに表示されているワールド・コンテンツにリンクされた何れかの3次元アイコンがマウス49bでクリックされたか否かが判定され、クリックされたと判定された場合、次のステップS68へ進み、リンクされたワールド・コンテンツが記述されたVRMLファイルmain.wrlを読み出して表示する。その後、ステップS69において、ユーザによるマウス49bとナビゲートボタン112などを用いたナビゲート操作に応じて3次元仮想現実空間の表示を更新する。これにより、ユーザは、所望の3次元仮想現実空間内を、自由に移動(ナビゲート)することができる。
【0277】
一方、ステップS67において、エントリールームに表示されている3次元アイコンがマウスでクリックされなかったと判定された場合、ステップS70へ進み、ユーザによるナビゲート操作に応じて3次元仮想現実空間の表示を更新すると共に、ポインタが3次元アイコン上にオーバレイした場合のポインタ形状変更処理や、エントリールームの下端部分へのワールドの説明文のスクロール表示処理などを実行する。
【0278】
ここで、従来のHTMLで記述されたホームページとの相違点について考察を加える。図35は、従来のHTMLで記述されたホームページと、上述した本発明によるVRMLで記述された仮想世界への入り口であるエントリールームとを比較した図である。
【0279】
この図35に示すように、従来のHTMLで記述されたホームページは、ページ上の任意の行に配置されたテキストやボタンをアンカーオブジェクトとして、その他のページとリンクさせ得るだけである。これに対し、本発明のVRMLで記述されたエントリールームによれば、3次元空間上の任意の座標位置に配列した3次元アイコンをアンカーオブジェクトとして、その他のVRMLで記述された3次元仮想空間とリンクさせることが可能であり、これによりユーザが所望の3次元仮想空間を選択する際の統一したGUI環境を提供することが可能である。
【0280】
なお、図27および図31においては、エントリルームに、3次元アイコンを、平面的に配置したが、3次元アイコンは、図36に示すように、立体的に(奥行き方向に)配置するようにすることも可能である。この場合、例えば、手前側には、最近インストールされたコンテンツに関する3次元アイコンを配置し、奥側には、より過去にインストールされたコンテンツに関する3次元アイコンを配置するようにすることができる。
【0281】
ここで、図36においては、手前側に、9個の3次元アイコンが表示されており、奥側に、5個の3次元アイコンが表示されている。また、エントリルームは、上述したように3次元仮想現実空間であるから、その中を、奥行き方向に移動することができる。図36に示した状態から、奥行き方向に移動した状態を、図37に示す。
【0282】
以上のように、3次元アイコンを立体的に配置する場合には、一度に、多くの3次元アイコンを、ユーザに提示することが可能となる。
【0283】
また、上述の場合においては、ブラウザの起動時に、ディレクトリを検索し、3次元アイコンをエントリルームに配置するようにしたため、新しいコンテンツをインストールしても、ブラウザが起動されるまでは、その新しいコンテンツについての3次元アイコンは、エントリルームに配置されない。しかしながら、例えば、新しいコンテンツを、専用のインストーラによりインストールさせることにより、その新しいコンテンツについての3次元アイコンを、エントリルームに、即座に配置する(ファイルentryroom.wrlに、新たなコンテンツにおけるファイルentry.wrlを反映させる)ようにすることが可能である。
【0284】
但し、この場合でも、ブラウザは、ファイルentryroom.wrlを常時読み込みにいっているわけではないため、表示されているエントリルームには、インストールされた新しいコンテンツについての3次元アイコンは、即座には表示されない。即ち、新しいコンテンツについての3次元アイコンは、再度、ブラウザが起動されたときか、あるいは、また、ブラウザが、ファイルentryroom.wrlを読み込みにいったときに、エントリルームに表示されることになる。
【0285】
なお、表示されているエントリルームに、インストールされた新しいコンテンツについての3次元アイコンを、即座に表示させることは、エントリルームが表示されている場合において、例えば、ブラウザに、定期的に、ファイルentryroom.wrlを読み込ませるようにすることで実現することが可能である。
【0286】
以上、本発明を、ネットワーク15として、インターネットを採用するとともに、WWWを利用する場合について説明したが、本発明は、ネットワーク15として、インターネット以外の広域通信網を採用した場合、また、WWW以外のシステムを採用した場合においても、実現可能である。
【0287】
【発明の効果】
以上の如く、請求項1に記載の3次元仮想現実空間表示処理装置、請求項13に記載の3次元仮想現実空間表示処理方法、および請求項14に記載の情報記録媒体によれば、3次元仮想現実空間を利用しようとするユーザが、所望の3次元仮想現実空間を、統一した3次元のGUI環境で簡単かつ容易に選択することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したサイバースペースシステムの一実施の形態の構成を示すブロック図である。
【図2】WWWを説明するための図である。
【図3】URLの例を示す図である。
【図4】図1の情報サーバ端末10の構成例を示すブロック図である。
【図5】図1の共有サーバ端末11の構成例を示すブロック図である。
【図6】図1のマッピングサーバ端末12の構成例を示すブロック図である。
【図7】図1のクライアント端末13の構成例を示すブロック図である。
【図8】図1のサービス提供者端末14の構成例を示すブロック図である。
【図9】図1のサイバースペースシステムにより形成される仮想現実空間を説明する図である。
【図10】図9のアバタCからの視野を説明する図である。
【図11】図9のアバタDからの視野を説明する図である。
【図12】図1の実施の形態におけるサイバースペースシステムの一部の割当空間を説明する図である。
【図13】図12のアバタCからの視野を説明する図である。
【図14】図12のアバタFからの視野を説明する図である。
【図15】クライアント端末13(サービス提供者端末14)の動作を説明するフローチャートである。
【図16】情報サーバ端末10の動作を説明するフローチャートである。
【図17】マッピングサーバ端末12の動作を説明するフローチャートである。
【図18】共有サーバ端末11の動作を説明するフローチャートである。
【図19】クライアント端末13と、情報サーバ端末10、共有サーバ端末11、またはマッピングサーバ端末12それぞれとの間の通信手順を説明するための図である。
【図20】同一の仮想現実空間に配置された更新オブジェクトを管理する共有サーバ端末が複数存在する場合を説明するための図である。
【図21】クライアント端末13の他の構成例を示すブロック図である。
【図22】基本オブジェクトと更新オブジェクトの格納先を説明する図である。
【図23】基本オブジェクトと更新オブジェクトの配置を説明するための図である。
【図24】サイバースペースシステムを実現するためのソフトウエアを説明するための図である。
【図25】クライアント端末13−1と共有サーバ端末11−1の上で動作するソフトウエアを説明する図である。
【図26】ソフトウエアが動作する環境を説明する図である。
【図27】エントリールームの表示例を示す写真である。
【図28】ディレクトリの構成例を示す図である。
【図29】図27に示すエントリールーム内に配置された3次元アイコンと視点位置の3次元位置関係を示す図である。
【図30】新たにワールド・コンテンツが追加された後のディレクトリ構成例を示す図である。
【図31】新たにワールド・コンテンツが追加された後のエントリールームの表示例を示す写真である。
【図32】図31に示す新たにワールド・コンテンツが追加された後のエントリールーム内に配置された3次元アイコンと視点位置の3次元位置関係を示す図である。
【図33】3次元仮想現実空間の表示例を示す写真である。
【図34】ブラウザによるエントリールームの自動生成処理を含む処理過程を説明するためのフローチャートである。
【図35】従来のHTMLによるホームページと本発明のVRMLによるエントリールームを比較した図である。
【図36】エントリールームの他の表示例を示す写真である。
【図37】エントリールームの他の表示例を示す写真である。
【図38】従来のVRMLブラウザによるファイルを開く操作を説明するための写真である。
【符号の説明】
10 情報サーバ端末, 11 共有サーバ端末, 12 マッピングサーバ端末, 13−1乃至13−3 クライアント端末(情報処理装置), 15 ネットワーク(広域通信網), 21 CPU, 22 ROM, 23 RAM, 24 通信装置, 25 表示装置, 26 マイク, 27 スピーカ, 28 インターフェース, 29 入力装置, 30 記憶装置, 41 CPU(表示処理手段)(生成手段), 42 ROM, 43 RAM, 44 通信装置, 45 表示装置, 46 マイク, 47 スピーカ, 48インターフェース, 49 入力装置, 50 記憶装置(記憶手段), 81 CPU, 82 ROM, 83 RAM, 84 通信装置, 85 記憶装置, 91 CPU, 92 ROM, 93 RAM, 94 通信装置, 95 記憶装置, 110 メインウインドウ, 111−0乃至111−6 3次元アイコン, 130 ドメインネームサーバ
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a three-dimensional virtual reality space display processing device, a three-dimensional virtual reality space display processing method, andInformation recording mediumIn particular, a three-dimensional virtual reality space display processing device that allows a user who wants to use a three-dimensional virtual reality space to easily and easily select a desired three-dimensional virtual reality space with a unified GUI. Virtual reality space display processing method andInformation recording mediumAbout.
[0002]
[Prior art]
Conventionally, a plurality of users, such as NIFTY-Serve (trademark) and CompuServe (trademark) in the United States, connect their personal computers to the host computer of the center via a modem and a public telephone line network. In the field of so-called personal computer communication services for accessing a host computer based on a communication protocol, a cyberspace service called Habitat (trademark) is known. Habitat was developed by LucasFilm in the United States in 1985 and has been in operation for about 3 years at QuantumLink, a US commercial network. After that, the service was started at NIFTY-Serve as Fujitsu Habitat (trademark) in February 1990. It has been done. In this Habitat, the user's alternation called avatar (avatar, the incarnation of god that appears in Indian mythology) is sent to a virtual city called “Populopolis” drawn with two-dimensional graphics, Chat (Chat; real-time text-based dialogue by inputting and displaying characters) can be performed. For a more detailed description of Habitat, see Cyberspace, Michael Benedict, edited by the first edition of March 20, 1994, NTT publication ISBN 4-87188-265-9C0010 (original work; Cyberspace: First Steps, Michael Benedikt, ed. 1991 MIT PressCambrige, MA ISBN 0-262-02327-X), pages 282-307.
[0003]
Now, in order to realize the above-mentioned cyber space system using the Internet infrastructure that can exchange information on a global scale, a three-dimensional graphics description language called VRML (Virtual Reality Modeling Language) Is being standardized.
[0004]
In the WWW (World Wide Web) on the Internet, document data is described in HTML (Hyper Text Markup Language) and stored in a WWW server, so that this HTML file is transferred in response to a request from a client terminal. It can be displayed using HTMLBrowser on the client terminal side.
[0005]
Similar to this HTML file, 3D graphics data is described in VRML and stored in a WWW server, so that the VRML file is transferred in response to a request from the client terminal, and the client terminal side VRMLBrowser is used. Can be displayed.
[0006]
The present applicant has already developed CyberPassage (trademark) as application software including a VRML Browser that can interpret this VRML file, draw it as a three-dimensional space, and display it.
[0007]
This CyberPassage consists of the following three software.
(1) CyberPassage Browser
This is a VRML browser that conforms to VRML1.0, and in addition supports VR-2.0 E-VRML, which preempts VRML2.0 functions (movement, sound) and has video functions. It also has a multi-user function that can connect to the CyberPassage Bureau. TCL / TK is used as the script language.
(2) CyberPassage Conductor
This is a VRML authoring system that conforms to E-VRML based on VRML1.0, and not only simply builds a 3D world, but also adds movement to the 3D world, It is a tool that can be easily added.
(3) CyberPassage Bureau
This is for a server terminal system that connects from CyberPassage Browser and allows people to meet in a virtual space built on the network.
[0008]
[Problems to be solved by the invention]
By the way, in order to use (mainly see) the three-dimensional virtual reality space by using the VRML Browser such as the CyberPassage Browser described above, the VRML file stored in the WWW server is an abbreviation for URL (Uniform Resource Locator, on the Internet). Specified resource), or the desired 3D virtual reality space is described from a plurality of VRML files stored in the HDD (hard disk) of the client terminal or the CD-ROM disk. A VRML file needs to be selected and read.
[0009]
For example, in the above-described conventional CyberPassage Browser, as shown in FIG. 38, the user operates the mouse and selects "Open File" from the File drop-down menu on the menu bar. . The directory (also referred to as a folder) in which the desired VRML file is stored is visually found from the directory tree displayed in the “Open File” dialog box displayed by this, and the directory is displayed. Had to move the pointer to the VRML file and click. Thus, in order for a user to find a VRML file in which a desired three-dimensional virtual reality space is described, a complicated and troublesome operation is required.
[0010]
In FIG. 38, after selecting the VRML file with the file name Main.wrl stored in the directory R: \ SONY \ WORLD \ TOYWORLD \ UFO \ and displaying the UFO world (3D virtual reality space), For the purpose of explanation again, a display screen in a state in which a file open dialog box is displayed is shown.
[0011]
As is apparent from FIG. 38, it is impossible to intuitively understand what kind of virtual world the three-dimensional virtual reality space is just by looking at the file name.
[0012]
The present invention has been made in view of such a situation, and a user who intends to use a three-dimensional virtual reality space uses a unified three-dimensional GUI (Graphical User Interface) to create a desired three-dimensional virtual reality space. It makes it possible to select easily and easily.
[0013]
[Means for Solving the Problems]
  The three-dimensional virtual reality space display processing device according to claim 1, the three-dimensional virtual reality space display processing method according to claim 13, and the information recording medium according to claim 14, wherein each three-dimensional virtual reality space is 3D graphics data to be describedAnd a 3D icon associated with each of the 3D graphics dataA given directoryAnd store each directory in the same hierarchyAutomatically generate 3D graphics data describing the entry room, which is a 3D array of 3D icons associated with each 3D graphics data.And stored in the same hierarchy as the given directoryA predetermined directory is searched, and 3D icons corresponding to the searched 3D graphics data are arranged in the entry room.Automatically generates 3D graphics data describing entry roomsIt is characterized by that.
[0014]
Thereby, a user who intends to use the three-dimensional virtual reality space can easily and easily select a desired three-dimensional virtual reality space with a unified three-dimensional GUI.
[0015]
  here,Information recording mediumIs not only a package medium such as an FD or a CD-ROM disc in which a computer program is stored, but also includes a transmission medium for downloading a computer program via a network transmission medium such as the Internet. It is a concept.
[0016]
In the following description, an avatar object representing one's alternation can be moved in the virtual reality space, and can be made to appear or leave, and in the virtual reality space, its state is Change (updated). Therefore, such an object is hereinafter referred to as an update object as appropriate. Also, a building object such as a building that constitutes a virtual reality space, such as a town, is used in common by a plurality of users, unlike an update object, and its basic state does not change. Even if it changes, it is autonomous and independent of the operation of the client terminal. Therefore, such an object shared by a plurality of users is hereinafter referred to as a basic object as appropriate.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below, but in order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, in parentheses after each means, The features of the present invention will be described with the corresponding embodiment (however, an example) added. However, of course, this description does not mean that each means is limited to the description.
[0018]
  The three-dimensional virtual reality space display processing device according to claim 1, wherein three-dimensional graphics data in which each three-dimensional virtual reality space is describedAnd a 3D icon associated with each of the 3D graphics dataA given directoryAnd store each directory in the same hierarchyA storage means (for example, the storage device 50 of FIG. 7) stored in the storage means and an entry room formed by three-dimensionally arranging three-dimensional icons associated with each of the three-dimensional graphics data stored in the storage means are described. Automatic generation of 3D graphics dataAnd store it in the same hierarchy as a given directoryEntry room automatic generation means (for example, Community Place Browser),Stored in the same hierarchyA predetermined directory is searched, and 3D icons corresponding to the searched 3D graphics data are arranged in the entry room.Automatically generates 3D graphics data describing entry roomsIt is characterized by that.
[0019]
  Claim11The 3D virtual reality space display processing device described in 1) corresponds to the selection means (for example, the mouse 49b in FIG. 24) for selecting any of the 3D icons displayed in the entry room and the 3D icons. Reading means (for example, step S69 in FIG. 34) for reading the 3D graphics data corresponding to the 3D icon selected by the selection means based on the link information for relating the 3D graphics data is further provided. It is characterized by that.
[0020]
  Claim12In the three-dimensional virtual reality space display processing device described in the above, the selection means selects any of the three-dimensional icons by moving and confirming the position of the pointer displayed in the entry room. In the state where the pointer is overlaid on the three-dimensional icon, it further comprises an explanation display means (for example, step S70 in FIG. 34) for displaying the explanation of the three-dimensional graphics data corresponding to the three-dimensional icon in the entry room. And
[0021]
First of all, Hiroaki Kitano of Sony Computer Science Laboratories regarding the basic philosophy and concept of virtual society, its home page “Hiroaki Kitano,“ Virtual Society (V1.0) ”, http: // www .csl.sony.co.jp / person / kitano / VS / concept.j.html, 1995 ", explains as follows.
[0022]
“At the beginning of the 21st century, a virtual society will emerge in a network that has been spread around the world. Virtual societies will appear on the network. “Society” of the scale of tens of millions and hundreds of millions will appear in the created shared space. The society that will appear beyond the current Internet, CATV, and even the information superhighway is the “virtual society” that I think. In this society, people can enjoy shopping, have conversations with people, play games, work, etc. That is why it is possible (that is, it is difficult in the real world, such as moving from Tokyo to Paris in an instant). This kind of “society” is a technology that builds cyberspace that allows two-way communication between broadband networks, high-quality three-dimensional expression, voice, music, and moving images. This will be possible for the first time with cutting-edge technologies such as large-scale distributed systems that can be shared by many people. "
[0023]
Please refer to the above URL for more detailed explanation.
[0024]
The three-dimensional virtual reality space system that realizes the virtual society as described above is a cyberspace system. As a concrete example of the infrastructure necessary for constructing this cyberspace system, at this stage, TCP / Internet technology such as the Internet, which is a worldwide computer network connected by a communication protocol called IP (Transmission Control Protocol / Internet Protocol), and Internet technology such as WWW (World Wide Web) are used in the corporate LAN ( An intranet applied to information sharing in a local area network is considered. Further, in the future, it is also considered to use a broadband network based on FTTH (Fiber To The Home), which is composed of optical fibers from the trunk line system to the subscriber line.
[0025]
Here, WWW (World Wide Web) developed by CERN (European Center for Nuclear Research) in Switzerland is known as an information providing system that can be used on the Internet. This allows information such as text, images, and audio to be viewed in hypertext format. Information stored in a WWW server terminal is stored in a personal computer or the like based on a protocol called HTTP (Hyper Text Transfer Protocol). Asynchronous transfer to other terminals.
[0026]
The WWW server includes server software called an HTTP daemon (HTTP: HyperText Transfer Protocol) and an HTML file in which hypertext information is stored. The hypertext information is expressed by a description language called HTML (HyperText Makeup Language). In the hypertext description by HTML, the logical structure of a sentence is expressed by a format designation called a tag surrounded by “<” and “>”. The description about the link with other information is performed by link information called an anchor. A URL (Uniform Resource Locator) is a method for designating a place where information exists with an anchor.
[0027]
A protocol for transferring a file described in HTML on a TCP / IP network is HTTP (HyperText Transfer Protocol). It has a function of transmitting a request for information from the client to the WWW server and transferring the hypertext information of the HTML file to the client.
[0028]
Client software such as Netscape Navigator (trademark) called a WWW browser (browser means browsing) is often used as an environment for using the WWW.
[0029]
Note that the daemon means a program that executes management and processing in the background when working on UNIX.
[0030]
In recent years, this WWW has been further expanded to allow the setting of hypertext links for 3D space descriptions and objects drawn with 3D graphics. A VRML (Virtual Reality Modeling Language) language called VRML (Virtual Reality Modeling Language) that can be accessed and a VRML viewer for drawing a virtual space described in VRML on a personal computer or workstation have been developed. . This VRML version 1.0 specification was published on May 26, 1995. Later, an amended version with corrections of errors and ambiguous expressions was published on November 9, 1995. The document can be obtained from URL = http: //www.vrml.org/specifications/VRML1.0/.
[0031]
By storing the information of the three-dimensional space described in VRML described above in the WWW server terminal, it becomes possible to construct a virtual space based on three-dimensional graphics on the Internet, and further connected via the Internet. By using the VRML viewer with a personal computer or the like, it is possible to realize a virtual space display and a walk-through function using three-dimensional graphics.
[0032]
In the following embodiments, an example in which the Internet is used as a network will be described, but of course, it may be realized using FTTH.
[0033]
Cyberspace is a coined word by American science fiction writer William Gibson, and was used in the upcoming NEUROMANCER (1984) set in the second half of the 21st century. Strictly speaking, the book is not the first, but is also used in Burning Chrome (1982). In these novels, the protagonist attaches a special electrode to the forehead to connect the computer and the brain directly, and visually reconstructs the data of a computer network spread around the world. There is a depiction that projects space directly onto the brain. This virtual three-dimensional space was called cyberspace. Recently, the term is used to indicate a system in which a plurality of users share a virtual three-dimensional space via a network. This is also used in the embodiments of the present invention.
[0034]
FIG. 1 shows a configuration example of a cyberspace (three-dimensional virtual reality space provided via a network) system of the present invention. As shown in the figure, in this embodiment, for example, a plurality of host computers (hosts) A to C are connected via a global network (wide area communication network) 15 (information transmission medium) such as the so-called Internet. In this embodiment, three client terminals 13-1 to 13-3 and an arbitrary number (one in this embodiment) of service provider terminals 14 are connected to each other.
[0035]
For example, the host A constitutes a so-called WWW (World Wide Web) system. That is, the host A has information (file) as described later. Each information (file) is associated with a URL (Uniform Resource Locator) as designation information for designating the information in an integrated manner, and information corresponding to the URL is designated by designating the URL. Has been made available to access.
[0036]
Specifically, the host A, for example, the streets of Tokyo in the 3D virtual reality space, the streets of New York in the 3D virtual reality space, and other 3D virtual reality spaces (hereinafter simply referred to as virtual 3D image data for providing (real space) is stored. This three-dimensional image data is composed of only basic objects whose basic state does not change (even if they change, they change autonomously, such as a ferris wheel or a neon sign). There is no static data. For example, a basic object is used by a plurality of users in common, such as a building or a road. The host A has an information server terminal 10 (basic server terminal). When this information server terminal 10 receives a URL via the network 15, information corresponding to the URL, that is, a virtual reality space. (However, this consists of only basic objects as described above) is also provided via the network 15.
[0037]
In FIG. 1, only one host A is provided as a host having an information server terminal which is a server terminal that provides a virtual reality space (consisting only of basic objects) in a predetermined area. A plurality of such hosts can be provided.
[0038]
The host B has a shared server terminal 11 (shared server terminal), and this shared server terminal 11 is arranged in the virtual reality space, and as an update object that constitutes the virtual reality space, for example, An avatar representing each user is managed so that a plurality of users can share the same virtual reality space. However, the host B manages only the update objects arranged in the virtual reality space in a predetermined area (for example, Tokyo) of the virtual reality space stored in the host A. That is, the host B is dedicated to the virtual reality space in a predetermined area. Although not shown, in addition to the host B, the network 15 stores update objects arranged in the virtual reality space stored in the host A in other regions (for example, New York, London, etc.). A host having a shared server terminal that is a server terminal to be managed is connected.
[0039]
The host C, like the host A, constitutes a WWW system, for example, and for example, an IP address (shared) of the host for addressing a host (shared server terminal) that manages update objects, such as the host B. Server address) is stored. Therefore, the address of the shared server terminal stored in the host C is associated with the URL in a unified manner as in the host A described above. Then, the host C has a mapping server terminal 12 (management server terminal). When this mapping server terminal 12 receives a URL via the network 15, the shared server terminal as information corresponding to the URL is received. An IP address is also provided via the network 15. In FIG. 1, only one host C is provided as the host having the mapping server terminal 12, which is a server terminal that provides the address of the shared server terminal. However, a plurality of such hosts may be provided. Is possible.
[0040]
The client terminal 13 (13-1, 13-2, 13-3) receives the virtual reality space from the information server terminal 10 via the network 15, and manages the virtual reality space under the management of the shared server terminal 11. Can be shared with other client terminals (including the service provider terminal 14). Further, the client terminal 13 can receive provision of a predetermined service (information) using the virtual reality space from the service provider terminal 14.
[0041]
Similarly to the client terminal 13, the service provider terminal 14 is provided with a virtual reality space, and the virtual reality space is provided to the client terminal 13 (when the service provider terminal exists other than the service provider terminal 14. (Including the service provider terminal). Therefore, regarding the function of this part, the service provider terminal 14 is the same as the client terminal 13.
[0042]
Further, the service provider terminal 14 can provide a predetermined service to the client terminal 13. In FIG. 1, only one service provider terminal 14 is provided as such a service provider terminal, but a plurality of service provider terminals can be provided.
[0043]
Next, the WWW system constituted by the hosts A and C will be briefly described. As shown in FIG. 2, the WWW is a system for providing information from a host X, Y, Z to an unspecified number of users (client terminals) via a network (Internet in the case of WWW) 15. The information that can be provided is not only text, but also a wide variety of figures, images (still images, moving images), audio, three-dimensional images, and other hypertexts that link these.
[0044]
In the case of the WWW, a URL that is a format for expressing the information in a unified manner is determined for each piece of information, and the user can obtain information corresponding to the URL by specifying the URL. Here, for example, as shown in FIG. 3, the URL is a protocol type indicating the type of service (in the embodiment shown in FIG. 3, http (this is a file corresponding to a file name described later and transmitted). 3), a host name representing a URL destination (in the embodiment of FIG. 3, www.csl.sony.co.jp), and a file name of data to be transmitted (FIG. 3). In the embodiment, it is composed of index.html).
[0045]
The user operates the client terminal to input a URL corresponding to desired information. In the client terminal, when a URL is input, for example, a host name of the URL is referred to, and a host specified by the host name (in the embodiment of FIG. 2, hosts X, Y, A link with Z, for example, host X) is established. In the client terminal, the URL is transmitted via the Internet to the host with which the link has been established, that is, the host X, thereby requesting the host X to provide information corresponding to the URL. In the host X, an HTTP daemon (httpd) is running on the information server terminal (WWW server terminal). When the information server terminal receives the URL, the information corresponding to the URL is sent to the client terminal via the Internet. Send.
[0046]
At the client terminal, the transmitted information is received and then displayed, for example. Thereby, the user can obtain desired information.
[0047]
Accordingly, as a description of the elements (objects) constituting the virtual reality space, for example, the shape of the basic object (for example, a rectangular parallelepiped or a cone), the arrangement position, and the attribute (for example, the basic object) By simply storing data representing colors, textures, etc., a virtual reality space (however, consisting only of basic objects) can be provided to an unspecified number of users. That is, when the Internet is adopted as the network 15 and the WWW is used, the Internet is already widespread on a global scale, and information stored in the host is described as a description of elements constituting the virtual reality space. It is not necessary to change the information server terminal (WWW server terminal) constituting the WWW (the service that provides the description of the elements constituting the virtual reality space as described above is provided by the WWW. It is possible to provide a virtual reality space easily and inexpensively to an unspecified number of users on a global scale because it has upward compatibility with existing services.
[0048]
Also, by storing the IP address of another host as information in a predetermined host (mapping server terminal), the IP address of the host can be assigned to an unspecified number of users on a global scale. It can be provided easily.
[0049]
Note that if the host constituting the WWW stores only the description of the elements constituting the virtual reality space (three-dimensional image data for providing a virtual reality space in a predetermined area), the same virtual reality space is stored. It is difficult for multiple users to share. That is, in the WWW, information corresponding to the URL is only provided to the user, and management for exchanging information between the users is not performed. For this reason, it is difficult to exchange the update object change information as described above between users by using the WWW without changing its design. Therefore, in the cyber space system of FIG. 1, the host B having the shared server terminal 11 and the host C having the mapping server terminal 12 are provided so that a plurality of users can share the same virtual reality space. (The details will be described later).
[0050]
Next, FIG. 4 shows a configuration example of the information server terminal 10 operating on the host A of FIG. As shown in the figure, the information server terminal 10 includes a CPU 81, and the CPU 81 executes various processes according to programs stored in the ROM 82. In the information server terminal 10, the above-described HTTP daemon is running in the background. The RAM 83 appropriately stores data, programs, and the like necessary for the CPU 81 to execute various processes. The communication device 84 exchanges predetermined data with the network 15. The storage device 85 including a hard disk, an optical disk, a magneto-optical disk, and the like corresponds to the URL of 3D image data for providing a virtual reality space in, for example, Tokyo, New York, and other predetermined areas as described above. I remember it.
[0051]
FIG. 5 shows a configuration example of the shared server terminal 11 operating on the host B in FIG. As shown in the figure, the shared server terminal 11 includes a CPU 21, and the CPU 21 executes various processes according to programs stored in the ROM 22. The RAM 23 appropriately stores data, programs, and the like necessary for the CPU 21 to execute various processes. The communication device 24 is configured to exchange predetermined data with the network 15.
[0052]
The display device 25 includes, for example, a CRT, an LCD, and the like, and an image of a virtual reality space (a virtual reality space configured to include not only basic objects but also update objects) in an area in which the shared server terminal 11 is in charge of management. It is connected to the interface 28 so that it can be monitored. A microphone 26 and a speaker 27 are connected to the interface 28, and a predetermined audio signal is supplied to the client terminal 13 and the service provider terminal 14, and audio from the client terminal 13 and the service provider terminal 14 is supplied. The signal can be monitored.
[0053]
In addition, the shared server terminal 11 includes an input device 29 and can perform various inputs via the interface 28. The input device 29 has at least a keyboard 29a and a mouse 29b.
[0054]
A storage device 30 including a hard disk, an optical disk, a magneto-optical disk, and the like stores data of a virtual reality space in a region where the shared server terminal 11 is in charge of management. Note that the data in the virtual reality space is the same as that stored in the storage device 85 of the information server terminal 10 (FIG. 4), and is shared by the display device 25 displaying this data. The virtual reality space of the area where the server terminal 11 is in charge of management is displayed.
[0055]
FIG. 6 shows a configuration example of the mapping server terminal 12 operating on the host C in FIG. Since the CPU 91 to the communication device 94 have basically the same configuration as the CPU 81 to the communication device 84 shown in FIG. The storage device 95 is a shared server terminal that manages update objects (only the shared server terminal 11 is shown in the embodiment of FIG. 1, but in addition, a shared server terminal (not shown) is connected to the network 15. Is stored in association with the URL.
[0056]
FIG. 7 shows a configuration example of the client terminal 13 (13-1 to 13-3). The client terminal 13 includes a CPU 41, and the CPU 41 is configured to execute various processes according to programs stored in the ROM 42. The RAM 43 appropriately stores data, programs, and the like necessary for the CPU 41 to execute various processes. The communication device 44 exchanges data via the network 15.
[0057]
The display device 45 includes, for example, a CRT or LCD, and can display a CG (computer graphic) three-dimensional image or a three-dimensional image taken by a normal video camera. The microphone 46 is used when outputting an audio signal to the shared server terminal 11. The speaker 47 outputs an audio signal when it is transmitted from the shared server terminal 11. The input device 49 is operated when performing various inputs.
[0058]
The keyboard 49a of the input device 49 is operated when inputting text (including URL) composed of predetermined characters and symbols. The mouse 49b is operated when a predetermined position is designated. The viewpoint input device 49c and the movement input device 49d are operated when changing the state of the avatar corresponding to the client terminal 13 as the update object. That is, the viewpoint input device 49c is operated when inputting the viewpoint of the corresponding avatar of the client terminal 13. Thereby, the viewpoint of the avatar can be moved in the vertical and horizontal directions, or the virtual reality space can be moved in the depth direction. Further, the movement input device 49d can perform an input for moving the avatar in the front-rear and left-right directions at a predetermined speed. Of course, these inputs can be performed from the keyboard 49a or the mouse 49b.
[0059]
A storage device 50 including a hard disk, an optical disk, a magneto-optical disk, and the like stores an avatar (update object) representing the user. Furthermore, the storage device 50 is arranged in the virtual reality space of each region stored in the information server terminal 10 (including an information server terminal if there is an information server terminal other than the information server terminal 10). A URL for acquiring the IP address of the shared server terminal that manages the update object (hereinafter referred to as “address acquisition URL” as appropriate) is a URL (hereinafter referred to as “virtual reality space URL as appropriate”) corresponding to the virtual reality space data of the region. And associated with each other. As a result, when a virtual reality space URL corresponding to the virtual reality space data in a certain area is input, an address acquisition URL for acquiring the IP address of the shared server terminal that manages the virtual reality space in that area is obtained. It is made to be able to.
[0060]
The interface 48 constitutes a data interface to the display device 45, the microphone 46, the speaker 47, the input device 49, and the storage device 50.
[0061]
FIG. 8 shows a configuration example of the service provider terminal 14 of FIG. Since the CPU 51 to the storage device 60 have basically the same configuration as the CPU 41 to the input device 50 of the client terminal 13 in FIG.
[0062]
FIG. 9 schematically shows a virtual reality space that is provided by the information server terminal 10 of FIG. 1 and can be shared among a plurality of users under the management of the shared server terminal 11. As shown in the figure, this virtual reality space constitutes a town, and an avatar C (for example, an avatar of the client terminal 13-1) and an avatar D (for example, an avatar of the client terminal 13-2) are included in this town. (Virtual reality space) can be moved.
[0063]
The avatar C sees an image as shown in FIG. 10, for example, from the position and viewpoint in the virtual reality space. That is, the client terminal 13-1 is provided with data related to the basic objects constituting the virtual reality space from the information server terminal 10 and stored in the RAM 43 (or the storage device 50). Then, from the RAM 43 (or the storage device 50), data of the virtual reality space that can be seen when the virtual reality space is viewed from a predetermined viewpoint and position is read and supplied to the display device 45. Thereafter, when the viewpoint and position of the avatar C are changed by operating the viewpoint input device 49c and the movement input device 49d, data corresponding to the change is read from the RAM 43 (or the storage device 50) and displayed on the display device 45. As a result, the virtual reality space (three-dimensional image) displayed on the display device 45 is changed.
[0064]
Furthermore, the client terminal 13-1 has data on another person's avatar (update object) (avatar D in the embodiment of FIG. 10) that can be seen when viewing the virtual reality space from the current viewpoint and position. The display of the display device 45 is changed based on the data provided from the shared server terminal 11. That is, in the state shown in FIG. 9, since the avatar C looks at the direction of the avatar D, as shown in FIG. 10, the image (virtual reality space) displayed on the display device 45 of the client terminal 13-1. Displays an avatar D.
[0065]
Similarly, an image as shown in FIG. 11 is displayed on the display device 45 of the client terminal 13-2 to which the avatar D corresponds. This display image is also changed by moving the viewpoint and position of the avatar D. In FIG. 9, since the avatar D is looking at the direction of the avatar C, the image (virtual reality space) displayed on the display device 45 of the client terminal 13-2 is as shown in FIG. C is displayed.
[0066]
The service provider terminal 14 dominates a part of the shareable virtual reality space provided by the information server terminal 10 and the shared server terminal 11. In other words, the service provider purchases a part of the provided virtual reality space from the manager of the information server terminal 10 and the shared server terminal 11 (information provider that provides information on the virtual reality space). This purchase is made in real space. That is, when an administrator of the information server terminal 10 and the shared server terminal 11 receives an application for purchase of the virtual reality space from a predetermined service provider, the manager of the information server terminal 10 and the shared server terminal 11 allocates a part of the virtual reality space to the service provider.
[0067]
For example, it is assumed that the owner (service provider) of the service provider terminal 14 borrows a room in a predetermined building in the virtual reality space and installs an electrical store there. The service provider provides merchandise to be exhibited at the electrical store, for example, materials for a television receiver (television) to the server terminal manager. The server terminal manager generates a stereoscopic image of the television by computer graphics based on this material. Then, the stereoscopic image is arranged at a predetermined position of the electrical store. Thereby, the image of the space in the virtual reality space is completed.
[0068]
The same thing is done by many service providers, and the virtual reality space is formed as one big town.
[0069]
FIG. 12 planarly represents a virtual reality space (one room of a building) occupied by a service provider having the service provider terminal 14. In this embodiment, one room of a building is allocated for this service provider, and two televisions 72 and 73 are disposed in the space (in the building), and the television 73 is provided. A counter 71 is disposed diagonally to the front of the right. Then, the service provider of the service provider terminal 14 arranges his / her avatar F behind the counter 71. Of course, the avatar F can be moved to a predetermined position by operating the mobile input device 59d of the service provider terminal 14.
[0070]
Now, it is assumed that the avatar C of the client terminal 13-1 has entered this electrical store as shown in FIG. At this time, for example, an image as shown in FIG. 13 is displayed on the display device 45 of the client terminal 13-1 corresponding to the position and viewpoint of the avatar C. On the other hand, when the avatar F is located behind the counter 71, an image as shown in FIG. 14 is displayed on the display device 55 of the service provider terminal 14. As shown in FIGS. 13 and 14, the image viewed from the avatar C is displayed with an avatar F, and the image viewed from the avatar F is displayed with an avatar C.
[0071]
Further, as shown in FIG. 13, a cursor 74 used when a predetermined image is designated from the client terminal 13-1 is displayed on the image viewed from the avatar C. Similarly, as shown in FIG. 14, a cursor 75 is displayed for use when a predetermined image is designated from the service provider terminal 14.
[0072]
By operating the mobile input device 49 d of the client terminal 13-1 and moving the avatar C around the television 72 or the television 73, an image corresponding to the position and viewpoint is displayed on the display device 45. As a result, the user can observe the televisions 72 and 73 in the same manner as when actually observing the television as a product placed on the sales floor.
[0073]
When the user operates the mouse 49 b to move the cursor 74 and clicks on the avatar F, a conversation application signal is transmitted to the service provider terminal 14 corresponding to the avatar F. At this time, the service provider terminal 14 can output an audio signal to the speaker 47 of the client terminal 13-1 corresponding to the avatar C via the microphone 56. Similarly, the user's voice signal can be transmitted to the speaker 57 of the service provider terminal 14 by inputting a predetermined voice signal from the microphone 46 of the client terminal 13-1. In this way, both parties can conduct a normal conversation by voice.
[0074]
This conversation can be applied from avatar F (service provider terminal 14) to avatar C (client terminal 13-1).
[0075]
Further, when the cursor 74 is moved on the client terminal 13-1 and clicked on, for example, an image of the television 72, more detailed explanation information (provided information) of the television 72 can be provided. This can be realized by configuring the virtual reality space data provided by the information server terminal 10 to link the description information to the data of the television 72. It should be noted that the image when displaying the explanation information may be a three-dimensional image or a planar two-dimensional image.
[0076]
The operation of designating the predetermined image can also be performed from the service provider terminal 14 side. Thereby, the description information of predetermined television can be actively provided to the user from the service provider side.
[0077]
When the service provider operates the mouse 59b and designates the avatar C with the cursor 75, an image corresponding to the position and viewpoint of the avatar C, that is, displayed on the display device 45 of the client terminal 13-1. The same image as the image can be displayed on the display device 55 of the service provider terminal 14. As a result, the service provider can know where the user (avatar C) is now viewing, and can accurately provide the user with information regarding the point the user wants to know.
[0078]
If the user receives explanation or provision of provision information (explanation information) and likes it, the user can actually purchase the television 72, for example. In this case, the user applies for purchase to the service provider terminal 14 via the avatar F. In addition, the user transmits, for example, a credit card number or the like to the service provider terminal 14 (avatar F) via the avatar C. Then, a request is made to withdraw an amount corresponding to the amount of the product. The service provider of the service provider terminal 14 performs a process for debiting a predetermined amount from the credit card number and arranges the shipment of the product for which the purchase application has been received.
[0079]
An image provided in the virtual reality space is basically a highly accurate image generated by computer graphics. Therefore, by viewing this from all angles, it is possible to perform the same observation as when almost the actual product is observed from the desired angle, and the product can be confirmed more reliably.
[0080]
In this virtual reality space, there are many shops, movie theaters, theaters, and the like. Since each store can actually sell products, a space with good location conditions (a space where many users' avatars enter) actually generates economic value. Therefore, this virtual reality space can be actually sold or rented (actually). Therefore, this system is completely different from what is called TV shopping.
[0081]
Next, operations of the client terminal 13 (service provider terminal 14), the information server terminal 10, the mapping server terminal 12, or the shared server terminal 11 will be described in detail with reference to the flowcharts of FIGS.
[0082]
FIG. 15 shows a processing example of the client terminal 13 (service provider terminal 14). In the client terminal 13, first, in step S1, the CPU 41 determines whether or not a virtual reality space URL has been input. If it is determined in step S1 that the virtual reality space URL has not been input, the process returns to step S1. When it is determined in step S1 that the virtual reality space URL has been input, that is, when the user operates the keyboard 49a, the virtual reality space URL corresponding to the desired virtual reality space is input. When received by the CPU 41 via the interface 48, the process proceeds to step S2, and, as described in FIG. 2, the WWW system is configured and the information server terminal of the predetermined host having the information server terminal (here, for example, The virtual reality space URL is transmitted from the communication device 44 via the network 15 to the information server terminal 10) of the host A, and a link is established.
[0083]
Further, in step S2, an address acquisition URL associated with the virtual reality space URL is read from the storage device 50, and a mapping server terminal of a predetermined host (here, for example, the host C) constituting the WWW system. To the mapping server terminal 12), an address acquisition URL is transmitted from the communication device 44 via the network 15, and a link is established.
[0084]
Thereafter, the process proceeds to step S3, and the virtual reality space data (three-dimensional image data) or the shared server terminal 12 respectively corresponding to the virtual reality space URL or the address acquisition URL transmitted in step S2 sent via the network 15. Is received by the communication device 44.
[0085]
That is, in step S2, a virtual reality space URL is transmitted to the information server terminal 10. When the virtual reality space URL is received at the information server terminal 10, data in the virtual reality space corresponding thereto is described later. In step S22 of FIG. 16, the data is transmitted to the client terminal 13 via the network 15. In step S3, the virtual reality space data transmitted from the information server terminal 10 in this way is received. The received virtual reality space data is transferred to the RAM 43 and stored (or stored in the storage device 50 and then transferred to the RAM 43).
[0086]
In step S2, an address acquisition URL is transmitted to the mapping server terminal 12. When the mapping server terminal 12 receives this address acquisition URL, the IP address of the corresponding shared server terminal is set as described later. In step S32 of FIG. 17, the data is transmitted to the client terminal 13 via the network 15. In step S3, the IP address of the shared server terminal 12 thus transmitted from the mapping server terminal 12 is received.
[0087]
Here, as described above, the address acquisition URL associated with the input virtual reality space URL is the value of the shared server terminal that manages the update objects arranged in the virtual reality space corresponding to the virtual reality space URL. It corresponds to an IP address. Therefore, for example, the input virtual reality space URL corresponds to the virtual reality space in Tokyo, and the shared server terminal 11 possessed by the host B manages update objects arranged in the virtual reality space in Tokyo. In step S3, the IP address of the shared server terminal 11 is received. Therefore, even if the user does not know which shared server terminal manages the update object arranged in which region of virtual reality space, the user can manage the virtual reality space of the region that he / she wants to receive. The location (IP address) of the server terminal can be acquired automatically.
[0088]
In steps S2 and S3, the process of transmitting the virtual reality space URL and the address acquisition URL and receiving the virtual reality space data and the IP address is actually performed by, for example, transmitting the virtual reality space URL and corresponding to it. After receiving the virtual reality space data to be transmitted, an address acquisition URL is transmitted, and an IP address corresponding to the URL is received.
[0089]
When the virtual reality space data and the IP address of the shared server terminal are received in step S3, the process proceeds to step S4, and the shared server terminal (here, the IP address of the shared server terminal) received in step S3 (the IP address of the shared server terminal) Then, for example, a connection request is transmitted to the shared server terminal 11) via the network 15 by the communication device 44, whereby a communication link is established between the client terminal 13 and the shared server terminal 11. Furthermore, in step S 4, after the communication link is established, the avatar (update object) representing itself stored in the storage device 50 is transmitted to the shared server terminal 11 by the communication device 44.
[0090]
Here, when the shared server terminal 11 receives the user's avatar, the shared server terminal 11 is a client of another user existing in the same virtual reality space (here, the virtual reality space in Tokyo as described above). It is designed to be sent to the terminal. In the other client terminals, the transmitted avatar is arranged in the virtual reality space, so that the same virtual reality space can be shared among a plurality of users.
[0091]
The user avatar is not provided from the client terminal 13 to the shared server terminal 11, but the shared server terminal 11 can be assigned a predetermined avatar to the accessed user. . Further, in the client terminal 13, the user's own avatar using the client terminal 13 can be arranged and displayed in the virtual reality space as shown in FIGS. 36 and 37, Since the user cannot see himself / herself in the real world, from the viewpoint of making the virtual reality space close to the real world, the user's avatar should not be displayed on the client terminal used by the user. Is preferable.
[0092]
After the process of step S4, the process proceeds to step S5, where the virtual reality space data that can be seen when viewing the virtual reality space from the predetermined viewpoint and position is read from the RAM 43 by the CPU 41 and supplied to the display device 45. Is done. As a result, a predetermined virtual reality space is displayed on the display device 45.
[0093]
In step S <b> 6, the communication device 44 determines whether or not update information of another user's avatar has been transmitted from the shared server terminal 11.
[0094]
Here, as described above, the user can update the position or viewpoint of his / her avatar by operating the viewpoint input device 49c or the movement input device 49d. When a position or viewpoint update command is issued, the CPU 41 receives this command via the interface 48. In response to the command, the CPU 41 executes a process of outputting the updated position data or viewpoint data corresponding to the position or viewpoint of the avatar to the shared server terminal 11 as update information. That is, the CPU 41 controls the communication device 44 to transmit update information to the shared server terminal 11.
[0095]
When the shared server terminal 11 receives the update information from the client terminal, the shared server terminal 11 outputs the update information to another client terminal in step S44 of FIG. As described above, when the shared server terminal 11 receives an avatar from a client terminal that has requested access, the shared server terminal 11 transmits the avatar to the client terminal of another user. The information is transmitted as update information.
[0096]
When the update information has been transmitted as described above, in step S6, it is determined that the update information of the avatar of another user has been transmitted from the shared server terminal 11. In this case, the update information is received by the communication device 44 and output to the CPU 41. In step S7, the CPU 41 updates the display on the display device 45 to a display reflecting the update information. That is, when position data or viewpoint data from another client terminal is received as update information, the user's avatar is moved or changed according to the received position data or viewpoint data (for example, the avatar direction To change). When an avatar from another client terminal is received as update information, the avatar is placed on the display device 45 at a predetermined position in the virtual reality space currently displayed. Note that when the avatar is transmitted as the update information, the shared server terminal 11 transmits the position data and viewpoint data regarding the avatar in the update information, and the display device 45 transmits the position data. An avatar is displayed corresponding to the viewpoint data.
[0097]
When the above process ends, the process proceeds to step S8.
[0098]
On the other hand, if it is determined in step S6 that update information of another user's avatar has not been transmitted from the shared server terminal 11, step S7 is skipped and the process proceeds to step S8. In step S8, as described above, the CPU 41 determines whether the position or viewpoint of the avatar of the user using the client terminal 13 has been updated by operating the viewpoint input device 49c or the movement input device 49d. .
[0099]
If it is determined in step S8 that the position or viewpoint of the avatar has been updated, that is, if the viewpoint input device 49c or the movement input device 49d is operated by the user, the process proceeds to step S9, and the CPU 41 responds to the operation. Based on the position data and viewpoint data, the virtual reality space data corresponding to the position and viewpoint of the user's avatar is read from the RAM 43, and if necessary, calculation for correction is performed, and an image corresponding to the position and viewpoint is read. Generate data. Then, the CPU 41 outputs and displays the image data on the display device 45. Accordingly, the display device 45 displays an image (virtual reality space) corresponding to the viewpoint and position input by operating the viewpoint input device 49c and the movement input device 49d.
[0100]
Further, the CPU 41 controls the communication device 44 in step S10, thereby causing the shared server terminal 11 to transmit the viewpoint data or the position data corresponding to the operations of the viewpoint input device 49c or the mobile input device 49d. Proceed to S11.
[0101]
Here, as described above, the update information from the client terminal 13 is received by the shared server terminal 11 and further output to other client terminals. Thereby, in other client terminals, the avatar of the user who uses the client terminal 13 is displayed in a form reflecting the update information.
[0102]
On the other hand, if it is determined in step S8 that the position or viewpoint of the avatar has not been updated, steps S9 and S10 are skipped and the process proceeds to step S11. In step S11, it is determined whether or not an end is instructed by operating a predetermined key of the keyboard 49a. The process returns to step S6 unless the end is instructed, and the subsequent processing is repeatedly executed.
[0103]
Next, the flowchart of FIG. 16 shows a processing example of the information server terminal 10. In the information server terminal 10, first, in step S21, the communication device 84 determines whether or not the virtual reality space URL is transmitted from the client terminal 13 via the network 15. If it is determined in step S21 that the virtual reality space URL has not been transmitted, the process returns to step S21. When it is determined in step S21 that the virtual reality space URL has been transmitted, the virtual reality space URL is received by the communication device 84, and the process proceeds to step S22. In step S <b> 22, the virtual reality space data associated with the virtual reality space URL received by the communication device 84 is read from the storage device 85 by the CPU 81, and is transmitted to the network 15 by the communication device 84. To the client terminal 13 that has transmitted the virtual reality space URL. Thereafter, the process returns to step S21, and the above-described processing is repeated.
[0104]
FIG. 17 shows a processing example of the mapping server terminal 12. In the mapping server terminal 12, the communication device 94 determines whether or not an address acquisition URL has been transmitted from the client terminal 13 via the network 15 in step S31. If it is determined in step S31 that the address acquisition URL has not been transmitted, the process returns to step S31. If it is determined in step S31 that the address acquisition URL has been transmitted, the address acquisition URL is received by the communication device 94, and the process proceeds to step S32. In step S <b> 32, the IP address (IP address of the shared server terminal) associated with the address acquisition URL received by the communication device 94 is read from the storage device 95 by the CPU 91, and is read by the communication device 94. The address acquisition URL is sent via the network 15 to the client terminal 13 that has transmitted the address acquisition URL. Thereafter, the process returns to step S31, and the above-described processing is repeated.
[0105]
FIG. 18 shows a processing example of the shared server terminal 11. In the shared server terminal 11, first, in step S <b> 41, it is determined by the communication device 24 whether or not a connection request has been transmitted from the client terminal 13 via the network 15. If it is determined in step S41 that a connection request has not been transmitted, step S42 is skipped and the process proceeds to step S43. If it is determined in step S41 that a connection request has been transmitted, that is, if the client terminal 13 transmits a connection request to the shared server terminal 11 in step S4 of FIG. A communication link is established by the communication device 24 and proceeds to step S42.
[0106]
In step S42, the connection management table stored in the RAM 23 is updated by the CPU 21. That is, the shared server terminal 11 needs to recognize the client terminal 13 that has established a communication link with itself in order to transmit the update information transmitted from the client terminal 13 to other client terminals. is there. Therefore, when the communication link with the client terminal is established, the shared server terminal 11 registers information for identifying the client terminal in the connection management table. In other words, this connection management table is a list of the shared server terminal 11 and the client terminals that have now established links. Here, as information for identifying the client terminal, the source IP address sent from each client terminal as the header of the TCP / IP packet and the avatar nickname set by the user of each client terminal are registered. .
[0107]
Thereafter, the process proceeds to step S43, and the communication device 24 determines whether update information has been transmitted from the client terminal 13. If it is determined in step S43 that update information has not been transmitted, step S44 is skipped and the process proceeds to step S45. If it is determined in step S43 that update information has been transmitted, that is, the client terminal 13 has transmitted position data and viewpoint data as update information to the shared server terminal 11 in step S10 of FIG. In the case (or when the avatar as update information is transmitted to the shared server terminal 11 after transmitting the connection request in step S4 in FIG. 15), the update information is received by the communication device 24, and the process proceeds to step S44. . In step S44, the CPU 21 refers to the connection management table stored in the RAM 23, and the update information received by the communication device 24 is transmitted to a client terminal other than the client terminal that has transmitted the update information. At this time, the source IP address of each client terminal managed in the connection management table is used.
[0108]
As described above, this update information is received by the client terminal 13 in step S6 of FIG.
[0109]
Thereafter, the process proceeds to step S45, where it is determined by the CPU 21 whether or not an end command has been input from the client terminal 13. If the end command has not been instructed, step S46 is skipped and the process returns to step S41. When the termination is instructed, the process proceeds to step S46, the line with the client terminal 13 that has transmitted the instruction is disconnected by the communication device 24, and information on the client terminal 13 is obtained from the connection management table. , Deleted by the CPU 21, and the process returns to step S41.
[0110]
As described above, management of update objects is performed by the shared server terminal 11, and management (provision) of basic objects is performed by the information server terminal 10 that constitutes the Internet WWW that is already widespread on a global scale. Thus, it is possible to easily provide a sharable virtual reality space to an unspecified number of users on a global scale. Further, at this time, it is not necessary to change the specifications of the already constructed WWW system.
[0111]
In addition, when using WWW to provide virtual reality space data, an existing web browser (for example, Netscape Navigator (trademark) of Netscape Corporation) is used to exchange data. Since there is no need to create a new web browser.
[0112]
Furthermore, since the mapping server terminal 12 provides the IP address of the shared server terminal 11, the user can share the virtual reality space with other users without knowing the address of the shared server terminal 11. Can do.
[0113]
Next, with reference to FIG. 19, the communication procedure between the client terminal 13, the information server terminal 10, the shared server terminal 11, and the mapping server terminal 12 will be described. When a user desires to provide a virtual reality space, the user inputs a URL (virtual reality space URL) associated with the desired virtual reality space. Then, the URL is transmitted from the client terminal 13 to the information server terminal 10 (httpd). When the information server terminal 10 receives a URL from the client terminal 13, the information server terminal 10 transmits virtual reality space data (three-dimensional scene data) (data of only a basic object) associated with the URL to the client terminal 13. The client terminal 13 receives this and displays it.
[0114]
At this stage, since the client terminal 13 and the shared server terminal 11 are not connected (link is not established), the client terminal 13 does not receive the update information, and therefore only the basic object is received. Virtual reality space, that is, a virtual reality space such as a building, that is, only a townscape, is displayed (update objects such as avatars of other users are not displayed).
[0115]
Further, the client terminal 13 transmits an address acquisition URL associated with the virtual reality space URL to the mapping server terminal 12. The mapping server terminal 12 receives the address acquisition URL, and manages an IP address associated with the address acquisition URL (update objects arranged in the virtual reality space in the region associated with the virtual reality space URL). A shared server terminal, for example, the IP address of the shared server terminal 11) is transmitted to the client terminal 13.
[0116]
Here, it is conceivable that the IP address associated with the address acquisition URL transmitted by the client terminal 13 is not registered in the mapping server terminal 12. That is, for example, there is a case where the shared server terminal that manages the update object arranged in the virtual reality space in the region associated with the virtual reality space URL is not installed (not operating). In such a case, since the IP address of the shared server terminal cannot be obtained, the virtual reality space of only the basic object, that is, the virtual reality space of the townscape as described above, for example, is displayed. Therefore, in this case, sharing of the virtual reality space with other users is not established. Such a virtual reality space can be provided by simply storing virtual reality space data (basic objects) in an information server terminal (WWW server terminal) using an existing WWW. Therefore, it can be said that the cyberspace system of the present invention is upward compatible with the existing WWW.
[0117]
When an IP address (IP address of the shared server terminal 11) is transmitted from the mapping server terminal 12, the client terminal 13 receives the IP address, and the corresponding shared server terminal, that is, the shared server terminal here. 11, the connection request is transmitted. Then, when a communication link between the client terminal 13 and the shared server terminal 11 is established, the client terminal 13 transmits an avatar (a three-dimensional shape of the user) representing itself to the shared server terminal 11. When the shared server terminal 11 receives the avatar of the user from the client terminal 13, the shared server terminal 11 transmits the avatar to the other client terminals that have established a link with the shared server terminal 11, and at the same time, the shared server terminal 11. An update object (a shape of a shared three-dimensional object) that is an avatar of another user, which is arranged in the virtual reality space of the area managed by is transmitted to the client terminal 13.
[0118]
Thereby, in another client terminal, the avatar of the user of the client terminal 13 is arranged in the virtual reality space, and the avatar appears on the screen. In the client terminal 13, the avatars of the users of other client terminals are arranged in the virtual reality space, and the avatars appear on the screen. As a result, all users of the client terminals that have established links with the shared server terminal 11 share the same virtual reality space.
[0119]
Thereafter, when the shared server terminal 11 receives update information from another client terminal, the shared server terminal 11 transmits the update information to the client terminal 13. The client terminal 13 receives this update information and changes the display accordingly (for example, the position of another user's avatar is changed). When the user's avatar state is changed by the user of the client terminal 13, update information corresponding to the change is transmitted from the client terminal 13 to the shared server terminal 11. When the shared server terminal 11 receives the update information from the client terminal 13, the shared server terminal 11 transmits the update information to the client terminals other than the client terminal 13 as in the case of receiving the update information from the other client terminals. Thereby, in the client terminals other than the client terminal 13, the state of the user's avatar of the client terminal 13 is changed corresponding to the update information (the state of the user's avatar is changed by the user of the client terminal 13). Changed).
[0120]
Thereafter, the client terminal 13 transmits update information about its own avatar until the connection with the shared server terminal 11 is disconnected, receives update information from the shared server terminal 11, and based on the update information. The process of changing the display is repeated.
[0121]
As described above, sharing of the same virtual reality space is established by exchanging update information via the shared server terminal 11 between users (client terminals 13). Therefore, when the shared server terminal 11 and the client terminal 13 are located at a distance, a large delay occurs in communication between the shared server terminal 11 and the client terminal 13 and the response is deteriorated. That is, for example, when the shared server terminal 11 is installed in the United States (United States) and a Japanese user is accessing the shared server terminal 11, the update information of a certain user A in Japan is changed from Japan to America. → It will be transmitted to another user B in Japan via the route of Japan, and it will take time for the change by user A to be reflected in user B.
[0122]
Therefore, not only one shared server terminal that manages update objects arranged in the virtual reality space in the same region, but a plurality of shared server terminals, for example, in various countries around the world, and the mapping server terminal 12 includes It is possible to register the IP addresses of a plurality of shared server terminals, and to provide the IP addresses of the shared server terminals installed at geographically close positions in the area where the client terminal 13 is installed. Is possible.
[0123]
That is, for example, as shown in FIG. 20, a shared server terminal W1 or W2 that manages update objects arranged in a virtual reality space (three-dimensional space) such as an amusement park is installed in Japan or the United States, respectively. To. When the users in Japan and the United States receive provision of the virtual reality space data of the amusement park from the information server terminal 10, the virtual reality of the amusement park is sent from each user to the mapping server terminal 12. Although the address acquisition URL associated with the virtual reality space URL corresponding to the space is transmitted (although the same address acquisition URL is transmitted from all users), at this time, the mapping server terminal 12 The Japanese server is provided with the IP address of the shared server terminal W1 installed in Japan, and the US user is provided with the IP address of the shared server terminal W2 installed in the United States. .
[0124]
Here, the mapping server terminal 12 specifies the installation location of the client terminal that has transmitted the address acquisition URL in the following procedure.
[0125]
That is, when communication is performed using the TCP / IP protocol, a source IP address (Source IP Address) and a destination IP address (Destination IP Address) are described in the header of the TCP / IP packet.
[0126]
On the other hand, the IP address is composed of 32 bits and is usually expressed by a decimal number separated by dots in units of 8 bits. For example, it is expressed as IP = 43.0.35.117. This IP address plays the role of an address that uniquely defines a source or destination terminal connected to the Internet. Since an IP address expressed in 4 octets (32 bits) is difficult for humans to remember, the domain name is expressed as an identification name that is easy for humans to understand. A system that manages the correspondence between domain names assigned to terminals all over the world and IP addresses, and answers IP addresses in response to inquiries by terminals from domain names, or answers domain names to inquiries by IP addresses. It is a Domain Name System (DNS). DNS functions by the cooperative operation of domain name servers scattered on the Internet around the world. The domain name is user name @ host name, for example, hanaya@ipd.sony.co.jp. Organization name. Organization attribute. It is expressed as a country identification name (the United States is omitted). If the country identification name of the first layer is jp, it is a terminal installed in Japan. If it is omitted, it is a terminal installed in the United States. Something can be identified.
[0127]
The mapping server terminal 12 uses the domain name server 130 shown in FIG. 23 to specify the installation location of the client terminal that has transmitted the address acquisition URL.
[0128]
That is, the domain name server 130 that manages the correspondence table of the IP address of the transmission source of the requesting client terminal and the domain name to which this IP address is assigned is inquired of the corresponding domain name. The country in which the client terminal is installed is specified based on the first layer of the domain name of the client terminal obtained from 130.
[0129]
In this case, since the client terminal and the shared server terminal used by each user are located in geographically close positions, the problem of delay as described above can be solved, that is, deterioration of response can be prevented.
[0130]
In this case, the virtual reality space provided by the user in Japan and the user in the United States is the virtual reality space in the same amusement park, but the shared server terminal that manages the sharing is a user in Japan and a user in the United States. Therefore, sharing is performed independently between Japanese users and US users. That is, a virtual amusement space of one amusement park is shared by only Japanese users or only by US users. Therefore, in this case, the same virtual reality space is provided from the information server terminal 10, but separate shared spaces are constructed between Japanese users and US users. Will be able to chat without any problems.
[0131]
However, in this case, the same virtual reality space can be established between Japanese users and US users by connecting the shared server terminals W1 and W2 and exchanging update information therebetween. It is possible to share.
[0132]
Further, the deterioration of the response also occurs when many users access the shared server terminal 11. This is because the shared server terminal that manages the update objects arranged in the virtual reality space in the same region, for example, A plurality of mapping servers 12 are installed for each predetermined region such as each country and each prefecture, and the mapping server terminal 12 is provided with addresses of the plurality of shared server terminals with a small number of client terminals accessing the same. This can be prevented.
[0133]
That is, in this case, for example, as described above, a plurality of shared server terminals W3, W4, W5,... Are installed, and the mapping server terminal 12 first sets a predetermined shared server terminal W3 for a predetermined URL. To provide the IP address. Furthermore, in this case, for example, communication is performed between the mapping server terminal 12 and the shared server terminal W3, whereby the shared server terminal W3 accesses the shared server terminal W3 to the mapping server terminal 12. Send the number of client terminals. In the mapping server terminal 12, the number of client terminals accessing the shared server terminal W3 exceeds a predetermined number (for example, 100 such that the response of the shared server terminal W3 does not deteriorate). In this case, when a predetermined URL is received, the IP address of another shared server terminal W4 (which is preferably installed near the shared server terminal 4) is assigned. Make it available.
[0134]
In this case, the shared server terminal W4 may be operated from the beginning, but is operated when the number of client terminals accessing the shared server terminal W3 exceeds a predetermined number. Is also possible.
[0135]
Thereafter, communication is further performed between the mapping server terminal 12 and the shared server terminal W4. The mapping server terminal 12 is connected to the client terminal that is accessing the shared server terminal W4 in the same manner as described above. When the predetermined number is received, the IP address of another shared server terminal W5 is further provided when the predetermined URL is received (however, the number of When the number of accesses decreases below a predetermined number, the address of the shared server terminal W3 is provided).
[0136]
As described above, each shared server terminal W3, W4, W5,... Is not subjected to an excessive load, so that the response can be prevented from deteriorating.
[0137]
The above can be realized by the mapping server terminal 12 controlling the IP address of the shared server terminal that is output in response to a predetermined URL. There is no need to change any software that runs on.
[0138]
Moreover, in this Embodiment, although the user's avatar was demonstrated to the shared server terminal 11 as an example of the update object which the shared server terminal 11 manages, the state change which the user created other than an avatar, for example, produced | generated Any update object, such as an object to be managed, can be managed. However, in some cases, the update object can be managed by the client terminal 13. That is, for example, for an update object such as a clock, it is possible to cause the client terminal 13 to update the time based on the built-in clock.
[0139]
Further, in the present embodiment, as shown in FIG. 1, all of the hosts A to C, the client terminals 13-1 to 13-3, and the service provider terminal 14 are mutually connected via a network 15 that is the Internet. However, from the viewpoint of using the already constructed WWW, at least each of the host A having the information server terminal 10 or the host C having the mapping server terminal 12 and the client terminal 13 are It only has to be connected via the Internet. Furthermore, for example, when the user recognizes the address of the shared server terminal 11, it is sufficient that at least the host A having the information server terminal 10 and the client terminal 13 are connected via the Internet. .
[0140]
In this embodiment, the information server terminal 10 and the mapping server terminal 12 are operated on different hosts. However, when the information server terminal 10 and the mapping server terminal 12 use the WWW, Can be configured in the same host. If the WWW is not used, the information server terminal 10, the shared server terminal 11, and the mapping server terminal 12 can all be configured in the same host.
[0141]
Further, in the present embodiment, the virtual reality space data for each predetermined area is stored in the host A (information server terminal 10). It can also be handled in units such as an amusement park.
[0142]
In the above embodiment, the basic object is supplied to each client terminal 13 via the network 15, but is a basic object that forms a virtual reality space on an information recording medium such as a CD-ROM. A basic object can be stored in advance and distributed to each user in advance. In this case, each client terminal 13 is configured as shown in FIG. 21, for example. That is, in this embodiment, the CD-ROM drive 100 is connected to the interface 48 and drives the CD-ROM 101 in which a virtual reality space constituted by basic objects is stored in advance. . Other configurations are the same as those in FIG.
[0143]
As described above, if the basic object data is provided from the CD-ROM 101, the time for transferring the basic object data via the network 15 is not required, so that more rapid processing is possible.
[0144]
Alternatively, the basic object data supplied from the information server terminal 10 is stored only in the first time in the storage device 50 without using the CD-ROM, and thereafter, this is read out and used as appropriate. It may be.
[0145]
That is, as shown in FIG. 22, the storage sources of the basic object data are the storage device 85 of the information server terminal 10 (cases 1 to 3) and the storage device 50 of the client terminal 13 (cases 4 to 6). Or the CD-ROM 101 of the client terminal 13 (in case 7 to case 9).
[0146]
On the other hand, the storage source of the updated object data is the storage device 85 of the information server terminal 10 (in case 1) or the storage device 30 of the shared server terminal 11 (in cases 2 to 9). it can. When the update object data is stored in the shared server terminal 11, the shared server terminal is the shared server terminal 11-1 in Japan (case 2, case 5, or case 8) as shown in FIG. 23, for example. ) Or a shared server terminal 11-2 in the United States (in case 3, case 6, or case 9). In this case, the storage source of the URL of the update object data is the mapping server terminal 12.
[0147]
When the storage source of the update object data is the information server terminal 10, the storage source of the URL of the update object data is a default URL managed by the information server terminal 10 (case 1). Alternatively, when the shared server terminal 11 is manually specified by the user, the specified URL is the storage source (in case 4 or case 7).
[0148]
The data flow in each case in FIG. 22 will be described with reference to FIG. That is, in case 1, basic object data is obtained from a VRLM file (details will be described later) stored in a predetermined directory of an HDD (Hard Disk Drive) which is a storage device of the WWW server terminal 121 as the information server terminal 10. Is read and supplied to, for example, the client terminal 13-1 via the Internet 15 A as the network 15. The storage device of the WWW server terminal 121 also stores updated object data. That is, when the basic object data is read in the WWW server terminal 121, the URL of the updated object data corresponding to the basic object data is stored in advance as a default URL in the storage device of the WWW server terminal 121. The update object data is read out from, and supplied to the client terminal 13-1.
[0149]
In Case 2, basic object data is supplied from the WWW server terminal 121 to the Japanese client terminal 13-1 via the Internet 15A. On the other hand, the update object data is supplied from the Japanese shared server terminal 11-1 designated by the mapping server terminal 12 to the client terminal 13-1 via the Internet 15A.
[0150]
In Case 3, basic object data is supplied from the WWW server terminal 121 to the US client terminal 13-2 via the Internet 15A, and the update object data is supplied from the US specified by the mapping server terminal 12. It is supplied from the shared server terminal 11-2 via the Internet 15A.
[0151]
In Case 4, for example, basic object data is stored in advance in the storage device 50 of the Japanese client terminal 13-1, and the update object data is specified by the client terminal 13-1, for example, a shared server in the United States. Supplied from the terminal 11-2.
[0152]
In case 5, the basic object data is stored in advance in the storage device 50 of the client terminal 13-1, and the updated object data is sent from the Japanese shared server terminal 11-1 designated by the mapping server terminal 12 to the Internet 15A. Is supplied through.
[0153]
In Case 6, basic object data is stored in advance in the storage device 50 of the client terminal 13-2 in the United States. The updated object data is supplied from the shared server terminal 11-2 in the United States designated by the mapping server terminal 12 to the client terminal 13-2 via the Internet 15A.
[0154]
In Case 7, for example, the data of the basic object of the CD-ROM 101 is provided to the Japanese client terminal 13-1 via the CD-ROM drive 100. The update object data is supplied from the shared server terminal (for example, shared server terminal 11-1 or 11-2) designated by the client terminal 13-1.
[0155]
In Case 8, the basic object is supplied from the CD-ROM 101 to the client terminal 13-1, and the update object data is supplied from the Japanese shared server terminal 11-1 designated by the Japanese mapping server terminal 12. Is done.
[0156]
In case 9, basic object data is supplied from the CD-ROM 101 to the US client terminal 13-2, and updated object data is sent from the US shared server terminal 11-2 designated by the mapping server terminal 12 to the Internet. 15A is supplied.
[0157]
Next, software for exchanging virtual reality space data as described above and displaying the data on a display device will be described. In the WWW, a file described in HTML (Hyper Text Markup Language) is transferred as document data. Therefore, the text data is registered as an HTML file.
[0158]
On the other hand, in the WWW, three-dimensional graphics data can be transferred and used by describing it in VRML or E-VRML (Enhanced Virtual Reality Modeling Language). Therefore, for example, as shown in FIG. 24, the WWW server terminal 112 of the remote host 111 that constitutes the information server terminal 10, the shared server terminal 11 or the mapping server terminal 12 described above stores the HTML file and the E-VRML file as It is stored in a storage device.
[0159]
In the HTML file, a link with a different file is performed depending on the URL. In the VRML file or E-VRML file, attributes such as WWW Anchor and WWW Inline can be specified for the object. WWW Anchor is an attribute for attaching a hypertext link to an object, and a link destination file is specified by a URL. WWW Inline is an attribute for describing the appearance of a building, for example, by dividing it into parts such as an outer wall, a roof, a window, and a door, and a URL can be associated with each part file. In this manner, a VRML file or an E-VRML file can be linked to another file by WWW Anchor or WWW Inline.
[0160]
In the WWW, application software (WWW Browser) for notifying the URL input to the client terminal to the WWW server terminal and interpreting and displaying the HTML file transferred from the WWW server terminal is used as Netscape Corporation. Netscape Navigator (trademark) (hereinafter abbreviated as Netscape) is known. Therefore, for example, the client terminal 13 also uses Netscape for the purpose of using a function for exchanging data with the WWW server terminal.
[0161]
However, although this WWW Browser can interpret and display an HTML file, even if it can receive a VRML file or an E-VRML file, it cannot interpret and display it. Therefore, a VRML Browser is required that can interpret VRML files and E-VRML files, draw them as a three-dimensional space, and display them.
[0162]
For details of VRML, see the book “Learn VRML: Construction and browsing of 3D cyberspace, written by Mark Pessi, Junichi Matsuda, Teruhisa Tsujiike, Shoichi Takeuchi, Yasutoshi Honda, Junichi Kyokimoto, Masayuki Ishikawa, Ken Miyashita, Translated by Kazuhiro Hara, published first on March 25, 1996, published by Prentice Hall ISBN4-931356-37-0 (Original: VRML: Browsing & Building Cyberspace, Mark Pesce, 1995 New Readers Publishing ISBN 1-56205-498-8) Is disclosed.
[0163]
The present applicant has developed Community Place (trademark) as application software including this VRML Browser.
[0164]
Community Place consists of the following three software.
(1) Community Place Browser
This is a VRML browser that conforms to VRML1.0, and in addition supports VR-2.0 E-VRML, which preempts VRML2.0 functions (movement, sound) and has video functions. It also has a multi-user function that can be connected to the Community Place Bureau. TCL / TK is used as the script language.
(2) Community Place Conductor
This is a VRML authoring system that conforms to E-VRML based on VRML1.0, and not only simply builds a 3D world, but also adds movement to the 3D world, It is a tool that can be easily added.
(3) Community Place Bureau
This is for a server terminal system that connects from the Community Place Browser and enables people to really meet in a virtual space built on the network.
[0165]
In the client terminals 13-1 and 13-2 shown in FIG. 23, a browser is installed and executed in advance. In addition, the shared server terminals 11-1 and 11-2 are installed and executed in advance. In FIG. 25, the Community Place Browser is installed and executed from the CD-ROM 101 on the client terminal 13-1, so that the shared server terminal function and the client function are realized by a single terminal. 1 shows an example in which the Community Place Bureau and the Community Place Browser are installed from the CD-ROM 101 and executed in advance.
[0166]
As shown in FIG. 24, the Community Place Browser exchanges various data with Netscape as a WWW Browser based on NCAPI (Netscape Client Application Programming Interface) (trademark).
[0167]
When Netscape receives the supply of the HTML file and the VRML file or the E-VRML file from the WWW server terminal 112 via the Internet, Netscape stores them in the storage device 50, respectively. Netscape processes these HTML files. On the other hand, the Community Place Browser processes the VRML file or the E-VRML file.
[0168]
E-VRML (Enhanced VRML) is VRML1.0 with behavior (motion) and multimedia enhancement (sound, video). It was done. The basic model (event model) of motion description used in E-VRML was subsequently carried over to the Moving Worlds proposal, one of VRML 2.0 proposals.
[0169]
Next, the outline of Community Place Browser will be described. After installing this browser, the manual can be displayed by selecting Manual from “Community Place Folder” in “Program” (program manager in the case of Windows NT ™) in the start menu of Windows 95 (trademark).
[0170]
Here, it is assumed that the Community Place Browser, the Community Place Conductor, the Community Place Bureau, and the files necessary for operating them are recorded on a recording medium such as the CD-ROM 101 and distributed as a sample.
[0171]
[Browser operating environment]
The operating environment of the browser is, for example, as shown in FIG. The minimum operating environment must be satisfied at a minimum. However, Netscape Navigator is not required when used as a standalone VRML browser. In particular, it is desirable to use the recommended operating environment when using multiple users.
[0172]
[How to install the browser]
The browser installation method is usually the same as installing Netscape. Install using vscplb3a.exe located in the \ Sony (trademark) directory of the CD-ROM 101.
[0173]
(1) Double-click vscplb3a.exe. The installation package will be expanded in the directory in the "Unzip To Directory" field, so change it as necessary.
(2) Click the [Unzip] button. After a while, the installation package is expanded.
(3) When "12 files unzipped successfully" is displayed, click the [OK] button.
(4) When the “Welcome” window appears, click the [NEXT] button.
(5) Read the terms of the “Software License Agreement” carefully and click the [Yes] button if you agree. Click the [No] button if you do not agree.
(6) Check the installation directory. The default is \ Program Files \ Sony \ Community Place.
(7) If the above directory name is inconvenient, click the [Browse] button to select the directory. Press the [Next] button to proceed.
(8) Click the [Yes] button to read the "readme" file here.
(9) When installation is complete, click the [OK] button.
[0174]
[How to start the browser]
Before starting the browser, first set up Netscape Navigator. Note that this operation is not necessary for stand-alone use, and can be started by selecting “Community Place Folder ... Community Place” from “Programs” in the start menu. The following settings may be set automatically by installation.
[0175]
(1) Run "General Preference" from "Options" menu of Netscape Navigator and open "Preference" window. Select "Helper Applications" from the top tab.
(2) Check if "x-world / x-vrml" is in the file type list. If it already exists, go to (4).
(3) Click the [Create New Type] button. Enter "x-world" in the Mime Type field and "x-vrml" in the Mime SubType field, and click the [OK] button. Enter "wrl" in the Extensions field.
(4) Click the [Launch the Application:] button. Enter the Community Place browser path name in the text field below (by default, \ Program Files \ Sony \ Community Place \ bin \ vscp.exe).
(5) Click the [OK] button.
[0176]
This completes the setting. After that, start with the following procedure.
[0177]
(1) Read “meme.htm” of the sample CD-ROM 101 by using “File..Open File” menu of Netscape.
(2) When the link to the sample world is clicked, Community Place is automatically activated, and the sample world attached to the CD-ROM 101 can be loaded.
[0178]
[How to uninstall (delete) the browser]
If Uninstall is executed from “Community Place Folder” of “Program” (Program Manager in the case of Windows NT) in the start menu, it is automatically uninstalled.
[0179]
[How to use the browser]
The browser is operated using a mouse 49b, a keyboard 49a, and buttons on the screen. The operation is very intuitive.
[0180]
<Movement within 3D>
In the 3D space provided by VRML, you can move in the real world, such as forward, backward, rotate right, rotate left. In the browser, such an operation is realized by the following user interface.
[0181]
<Using the board>
The keyboard 49a can be moved as follows using the arrow keys (not shown).
→ Rotate right
← Rotate left
↑ Advance
↓ Retreat
[0182]
<How to use the mouse>
All mouse operations are performed with the left button.
(1) Press the left button of the mouse 49b in the Community Place window.
Move right to rotate right
Move left to rotate left
Move up to move forward
Move backward to move backward
To do. The speed of movement changes depending on the distance you move the mouse.
(2) When an object on the screen is clicked with the Ctrl (Control) key (not shown) of the keyboard 49a being pressed, the object moves to the front of the object.
[0183]
Here, the following attention is necessary.
・ When it hits an object, it makes a collision sound and the frame of the screen blinks red. In this case, you can't go any further, so change the direction.
・ If you do not know where you are or cannot see anything, click the [Home] button on the right of the screen to return to the initial position.
[0184]
[Jumping Eye]
While navigating through 3D space, you may get lost. In such a case, you can jump into the sky and look around.
(1) Click the [Jump] button on the right side of the screen to enter the jumping eye mode and jump to the position overlooking the world from the sky.
(2) Click the [Jump] button again to return to the original position.
(3) Or, if you click somewhere in the world, you will get down to that point.
[0185]
[Select object]
When you move the mouse cursor on the screen, the cursor changes to a hand when it is over the object. If the left button of the mouse 49b is clicked, the action of the object can be called.
[0186]
[Read VRML file]
VRML files can be read in the following way.
-Click on the link to the VRML file in Netscape.
-Select the file with the extension wrl on the disc in the “File..Open File” menu of Community Place.
・ Enter the URL in the “File..Open URL” menu of Community Place.
-Click on an object in the world that displays "URL" on the mouse cursor.
[0187]
[Toolbar button operation]
In the browser, you can perform the following operations using the buttons on the toolbar that are frequently used.
[Back] Goes back to the previous loaded world.
After returning with [Forward] Back, proceed to the previous world again.
[Home] Move to the initial position.
[Undo] After moving the object, return it to its original location (described later).
[Bookmark] Register the current world and position as a bookmark.
[Scouter] Set to Scouter mode (described later).
[Jump] Set to jumping eye mode.
[0188]
[Scouter mode]
An object placed in the world can have a character string as information by using the function of E-VRML.
(1) Click the [Scouter] button on the right of the screen to enter Scouter mode.
(2) When the mouse cursor is moved on the screen, the information label is displayed at the point near the object with the information label.
(3) Click the [Scouter] button again to exit Scouter mode.
[0189]
[Move the object]
While holding down the Alt (Alternate) key (not shown) of the keyboard 49a (graph key depending on the model), press the left button of the mouse 49b on the object and move the mouse 49b while holding it down to move the object. Can do. This is the same as moving a coffee cup on a desk by hand in the real world. However, since only objects having a movable attribute can be moved, not all objects can be moved. After moving the object, you can use the [Undo] button to restore it once.
[0190]
[How to connect to a multi-user server terminal]
This browser has a multi-user function. The multi-user function is a function for sharing the same VRML virtual space with other users. Currently, the applicant is experimenting with Community Place Bureau on the Internet. By importing a world called chatroom, you can connect to a server terminal and share the same VRML virtual space with other users, walk around together, turn off the lights in the room, and chat.
[0191]
This is done by the following procedure.
(1) Make sure that your personal computer is connected to the Internet.
(2) Load the sample world Chatroom into the browser. This is done by reading \ Sony \ readme.htm on the sample CD-ROM 101 into Netscape and clicking Chat Room.
(3) If “Connected to VS Server” is displayed in the message window, the connection to the multi-user server terminal is successful.
[0192]
Thus, the server terminal is connected. There are the following two types of interaction with other users.
・ Communicate actions to others.
This is achieved by clicking buttons such as Hello, Smile, Wao !, Wooo !!, Umm ..., Sad, Bye in the action window. As an action, the user (avatar) can be rotated 36 degrees, 180 degrees, or 360 degrees in the left or right direction.
・ Converse with other people.
This is realized by opening a Chat window with the “View..Chat” menu and inputting a message from the keyboard 49a in the input field at the bottom.
[0193]
[Multi-user world]
There are the following three multi-user worlds provided on the sample CD-ROM 101. Chats can be shared in all worlds.
(1) Chat Room
Although it is a room mainly for chatting, some objects are shared with other users. There are objects that become gradually transparent when clicked with the left button, switches that turn off the electricity in the room, and objects that fly around when clicked. There are also secret holes.
(2) Play with a ball!
Click on the ball in the virtual space and it will fly towards you. This ball is shared by all users in the space and can be caught with other users.
(3) Share your drawing
A whiteboard is placed in the virtual space, and clicking on it with the left button displays the shared whiteboard. You can draw on the board by dragging with the left button, which can be shared with other users in the space.
[0194]
With Community Place Bureau, users using Community Place Browser can enter the world described in VRML1.0 together. Therefore, in order to provide a three-dimensional virtual reality space, it is first necessary to prepare a file described in VRML1.0. Thereafter, the bureau (hereinafter, Community Place Bureau is simply referred to as “Bureau”) is operated on an appropriate personal computer. Furthermore, a line informing the personal computer on which the bureau is moving is added to the VRML 1.0 file. When the VRML file is read into the Community Place Browser, the browser (hereinafter, the Community Place Browser is simply referred to as a browser) is connected to the bureau.
[0195]
If the connection is successful, the users can see each other and have a conversation in the virtual world. Furthermore, by writing an appropriate script to the file, the emotion panel can be expressed using the action panel.
[0196]
Community Place Browser provides an interface for behavior description using TCL. By using this, you can add motion to objects in the virtual world and then synchronize them between browsers. This makes it possible to enjoy a 3D game or the like with a plurality of users depending on the device.
[0197]
To enjoy a multi-user virtual world, there are three steps: VRML file preparation, bureau activation, and browser connection.
[0198]
[Preparation of VRML file]
First, prepare your favorite VRML1.0 file. You can create this file yourself or you can bring it free. That file becomes the stage of a multi-user virtual world.
[0199]
[Launch Bureau]
The operating environment of Community Place Bureau is as follows.
CPU 486SX or higher
OS Windows 95
Memory 12MB or more
[0200]
This bureau can be started simply by executing the downloaded file. When run, only a menu bar with some menus is displayed. Immediately after startup, the bureau is in a stopped state. If you pull down the View menu and select status, the status window is displayed and you can see the current bureau status. At this time, the port number waiting for connection is also displayed in addition to the state of being stopped or operating.
[0201]
The bureau is set to wait for connection at TCP port 5126 immediately after activation. To change this port number, pull down the options menu and select port. When prompted for a new port number, enter a port number greater than 5000. If it is unclear which port should be used, the default value (5126) can be used without any particular setting.
[0202]
To run a stopped bureau, pull down the run menu and select start. The server terminal waits for a connection at the designated port. At this time, the status displayed in the status window is running.
[0203]
As described above, when the browser is connected to the bureau after the preparation of the bureau is completed, the bureau teaches the position of the browser to other browsers, and exchanges conversation and operation information.
[0204]
Since the status window of the bureau is updated every time a connection from the user comes, this window can be used to check the users in the world.
[0205]
[Browser Connection]
To connect the browser to the bureau, two things are necessary: One is to instruct the browser which bureau to connect to. This is done by writing an info node to the VRML file. The other is to copy the file of the avatar to an appropriate directory so that the user can see it from other users.
[0206]
[Add to VRML file]
When writing a line specifying the bureau to be connected to the VRML file, the name of the personal computer on which the bureau is operating and the port number are specified. The format in this case is as follows.
DEF VsServer Info {string "Server name: Port number"}
[0207]
The server terminal name is the machine name (for example, fred.research.sony.com) on the Internet where the bureau is operating, or its IP address (for example, 123.231.12.1). The port number is a port number set by the bureau.
[0208]
Thus, for example, the above format is as follows.
DEF VsServer Info {string "fred.research.sony.com:5126"}
[0209]
In the example of FIG. 25, the IP address of the shared server terminal 11-1 is 43.0.35.117. In this case, the above format is as follows.
DEF VsServer Info {string "43.0.35.117:5126"}
[0210]
A VRML file with such a format
#VRML V1.0 ascii
Add to the line below.
[0211]
[Copy avatar file]
When the Community Place Browser is connected to the Community Place Bureau, it notifies its avatar. When a predetermined avatar meets another avatar, the bureau notifies the other browser of this information, thereby causing the other browser to display the predetermined avatar. For this reason, it is necessary to copy a VRML file of a predetermined avatar to an appropriate location in advance.
[0212]
Next, the operation of the browser (Community Place Browser) will be further described.
[0213]
In the following description, description will be made on the premise of the description format of VRML 2.0 (The Virtual Reality Modeling Language Specification Version 2.0) released on August 4, 1996. In the following description, it is assumed that the browser is compatible with VRML 2.0, and can interpret a file described in VRML 2.0 and display the three-dimensional virtual space.
[0214]
Here, for details of the VRML 2.0 specification,
URL = http: //www.vrml.org/Specifications/VRML2.0/
It is published in
[0215]
Furthermore, for details of the VRML2.0 specification translated into Japanese, URL = http: //www.webcity.co.jp/info/andoh/VRML/vrml2.0/spec-jp/index. It is published in html.
[0216]
To launch Community Place Browser, double-click the cpbrowse.exe executable file icon displayed in the Windows 95 Start Menu or Explorer as described in [How to Start Browser] above.
[0217]
When the browser execution file cpbrowse.exe is selected and the browser is started, first, as shown in FIG. 27, for example, a main window 110 is displayed, and a plurality of three-dimensional images are displayed in the main window 110. A three-dimensional virtual reality space image called an entry room in which icons 111-1 to 111-6 are arranged three-dimensionally is displayed.
[0218]
Here, for example, when the Community Place Browser stored in a recording medium such as the CD-ROM 101 is installed in the storage device 50 of the client terminal 13 using a dedicated installer, an execution file cpbrowse.exe for causing the browser to function is used. As shown in FIG. 28, in the default setting, the C: \ Program Files \ Sony \ Community Place Browser \ bin directory (also referred to as a folder) in the local hard disk C drive (storage device 50). Installed.
[0219]
When Community Place Browser is installed by the dedicated installer described above, for example, world content including VRML files stored in a recording medium such as the CD-ROM 101 is converted to a world directory at the same level as the bin directory by the function of the dedicated installer. To be installed. For example, as shown in FIG. 28, in the world directory, a circus2 directory including a VRML file in which a three-dimensional virtual reality space (virtual world) is described by VRML 2.0, a drive directory, a networkentry directory, an origami directory, a tv directory, and Each ufo directory is installed.
[0220]
Here, the world content folders such as the circus2 directory, the drive directory, the networkentry directory, the origami directory, the tv directory, and the ufo directory indicated by the folder icons in FIG. 28 are the VRML file main.wrl ( A file with the extension wrl), a texture file describing the texture of the object referenced when interpreting the VRML file (for example, a file with the extension jpg), and referenced when interpreting the VRML file A script file (for example, a file with an extension of class) in which a script for defining the behavior of the object is described, the shape and texture of the three-dimensional icons 111-1 to 111-6 displayed in the entry room, and a link URL as information Airu name is configured, and the like VRML file entry.wrl written in VRML2.0. In FIG. 28, for convenience of explanation, only the VRML file main.wrl describing the virtual world and the VRML file entry.wrl of the three-dimensional icons 111-1 to 111-6 are shown.
[0221]
When the browser is started for the first time after the execution file cpbrowse.exe for causing the browser to function is installed in the bin directory, the VRML file entryroom. wrl is automatically generated by the browser function. A VRML file entryroom.wrl in which a three-dimensional virtual reality space called an entry room in which a plurality of three-dimensional icons 111-1 to 111-6 are arranged in a three-dimensional manner is described in VRML 2.0 is stored in the world directory by a browser function. Automatically stored within. As a result, the VRML file entryroom.wrl automatically generated by the browser is stored in the world directory at the same level as the bin directory, as shown in FIG.
[0222]
This entry room functions as an entrance to the virtual world. The VRML file entryroom.wrl is stored on the local disk (storage device 50), and a new world content folder is installed or unregistered. It is automatically updated when it is installed. This update process will be described in detail later.
[0223]
Thereafter, the Community Place Browser automatically reads the VRML file entryroom.wrl generated by itself when it is started up and displays it on the main window 110 of the browser.
[0224]
As a result, as shown in FIG. 27, a three-dimensional virtual reality space image in which a plurality of three-dimensional icons 111-1 to 111-6 called entry rooms are three-dimensionally arranged is displayed in the main window 110. .
[0225]
Here, the VRML file entryroom.wrl of the entry room is automatically generated when the Community Place Browser satisfies the following conditions.
1. The world directory (folder) exists in the same hierarchy as the directory where the executable file cpbrowse.exe of Community Place Browser is installed (by default, “C: \ Program Files \ Sony \ Community Place Browser \ bin”).
2. In the world directory, a VRML file main.wrl describing the virtual world is stored.
3. In the world directory, a VRML file entry.wrl in which the shapes and textures of the three-dimensional icons 111-1 to 111-6, URLs as link information, and file names are described in VRML 2.0 is stored.
[0226]
When the above three conditions are satisfied, information on the three-dimensional arrangement of the three-dimensional icons 111-1 to 111-6 described by each VRML file entry.wrl, and the initial state when the entry room is displayed are displayed. A VRML file entryroom.wrl containing information on the viewpoint position is automatically generated.
[0227]
Here, in the VRML file entry.wrl, the shapes of the three-dimensional icons 111-1 to 111-6 are described in a size unit of 2.0 × 2.0 × 2.0 defined in VRML2.0, and their surface patterns are also described. And a URL and file name as link information to the actual virtual world pointed to by the texture.
[0228]
For example, the VRML file entryroom.wrl automatically generated when the Community Place Browser is activated is as follows.
[0229]
Note that the line number at the left end of the VRML file shown below is added for convenience of explanation and is not actually required.
[0230]
[Example of entryroom.wrl immediately after startup]
1 #VRML V2.0 utf8
2 #
3 # NOTICE
Four #
5 # This file is automatically generated by Community Place.
6 # DO NOT edit this file.
 7 #
8 WorldInfo {title "Entry Room"}
9 NavigationInfo {headlight TRUE}
10 Transform {
11 translation 0.000000 0.000000 0
12 children [
13 Inline {url "circus2 / entry.wrl"}
14 ]
15}
16 Transform {
17 translation 3.300000 0.000000 0
18 children [
19 Inline {url "drive / entry.wrl"}
20]
twenty one }
22 Transform {
23 translation 6.600000 0.000000 0
24 children [
25 Inline {url "networkentry / entry.wrl"}
26]
27}
28 Transform {
29 translation 0.000000 -3.300000 0
30 children [
31 Inline {url "origami / entry.wrl"}
32]
33}
34 Transform {
35 translation 3.300000 -3.300000 0
36 children [
37 Inline {url "tv / entry.wrl"}
38]
39}
40 Transform {
41 translation 6.600000 -3.300000 0
42 children [
43 Inline {url "ufo / entry.wrl"}
44]
45}
46 Viewpoint {
47 position 3.300000 -1.650000 10.612769
48 fieldOfView 0.785398
49}
[0231]
First, in VRML 2.0, a file is composed of a node and a field, and is basically described in the following format.
Node {Field (s)}
[0232]
Of these, Fields can be omitted, but Node and curly braces “{”, “}” cannot be omitted.
[0233]
The field passes variables to the node and specifies the parameters of the node. If the field is omitted, the default value is used. In addition, there are “single value field (SF)” that has only a single value and “multivalue field (MF)” that has multiple values. The name of the single value field is “SF”. Beginning, the name of the multi-value field starts with "MF".
[0234]
In the VRML file, the first line indicates that the description is based on the VRML 2.0 specification.
[0235]
Next, the fifth line is a comment line, which indicates that this file is automatically generated when Community Place Browser is started.
[0236]
The WorldInfo node on the eighth line describes the world information, and the world title is described in the title field.
[0237]
The NavigationInfo node on the ninth line sets various parameters related to movement in the world. When the headlight field is set to TRUE, the headlight is turned on to give a bright lighting effect.
[0238]
The translation field of the Transform node described in the 11th line indicates the translation amount of the three-dimensional object. The translation field is
translation x y z
Is specified, the movement amounts of the x-axis, y-axis, and z-axis are specified. On the browser, the x-axis is displayed in the horizontal direction (right direction is positive), the y-axis is displayed in the vertical direction (upward direction is positive), and the z-axis is displayed in the depth direction (front direction is positive).
[0239]
For example,
translation 2 0 0
Is a translation of the 3D object to the right by 2 units in the world.
[0240]
The children field on the 12th line indicates a child node.
[0241]
The Inline node on the 13th line indicates incorporation of other VRML files, and the VRML file described in the url field of the Inline node is called.
[0242]
For example,
Inline {url “circus2 / entry.wrl”}
Is described, the VRML file entry.wrl in the circus2 directory is read and displayed.
[0243]
The Viewpoint node on line 46 specifies the user's viewpoint position and line-of-sight direction with respect to the world. When a specific 3D coordinate is specified in the position field, the coordinate position is the first when the world is displayed. Become a viewpoint. However, the line-of-sight direction is the negative z-axis direction (the depth direction of the screen) by default.
[0244]
To change the viewpoint position, specify it in the orientation field of the Viewpoint node. This orientation field is a SFRotation type field and specifies the rotation axis and rotation angle.
[0245]
In the fieldOfView field on the 48th line, the viewing angle starting from the viewpoint specified in the position field is specified in radians. When a small viewing angle is set, it corresponds to a telephoto lens of the camera, and when a large viewing angle is set, it corresponds to a wide-angle lens of the camera. The default viewing angle is 0.785398, corresponding to 45 degrees.
[0246]
The entry room VRML file entryroom.wrl automatically generated immediately after startup is read by the Community Place Browser, and the entry room as shown in FIG. 27 is displayed. However, the entry room is arranged in the display window. FIG. 29 shows a three-dimensional positional relationship between the three-dimensional icons 111-1 to 111-6 and the default viewpoint position (Viewpoint).
[0247]
As shown in FIG. 29, the three-dimensional icons 111-1 to 111-6 and the three-dimensional coordinate values of the viewpoint positions are as follows.
The coordinate value (x, y, z) of the three-dimensional icon 111-1 = (0.0, 0.0, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-2 = (3.3, 0.0, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-3 (6.6, 0.0, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-4 (0.0, -3.3, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-5 = (3.3, -3.3, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-6 = (6.6, -3.3, 0.0)
Coordinate value of viewpoint position (x, y, z) = (3.3, -1.65, 10.612869)
[0248]
These coordinate values are based on the description of the entry room VRML file entryroom.wrl that is automatically generated immediately after startup.
[0249]
Next, when a new world content folder is installed or uninstalled, the VRML file entryroom.wrl of the entry room is automatically updated when the browser is started next time.
[0250]
That is, each time the browser is activated, the browser searches the directory in the world directory to determine whether a directory (world content folder) including the newly added VRML file entry.wrl exists. Or whether there is a directory containing the deleted VRML file entry.wrl. If there is a directory including the added or deleted VRML file entry.wrl, the VRML file entryroom.wrl of the entry room is rewritten and updated accordingly.
[0251]
Here, for example, using Netscape (trademark) or the like, a WWW server on the Internet is accessed, and a directory (world content folder) including the VRML file entry.wrl of the analog world stored in the WWW server is stored. Suppose that it is downloaded and installed in the directory of C: \ Program Files \ Sony \ Community Place Browser \ world on the hard disk (storage device 50) of the client terminal as shown in FIG.
[0252]
Alternatively, the directory (world content folder) containing the VRML file entry.wrl of the analog world stored in a recording medium such as the CD-ROM 101 is installed in the world directory at the same level as the bin directory by the function of the dedicated installer. Suppose.
[0253]
Thereafter, when the browser is started, the browser searches the directory in the world directory to determine the existence of a directory (world content folder) including the newly added analog world VRML file entry.wrl. Correspondingly, the entry room VRML file entryroom.wrl is rewritten.
[0254]
For example, the VRML file entryroom.wrl that is automatically updated when the browser is activated with the addition of the analog world is as follows.
[0255]
In the VRML file shown below, the line number at the left end is added for convenience of explanation and is not actually required.
[0256]
[Example of updated entryroom.wrl]
1 #VRML V2.0 utf8
2 #
3 # NOTICE
Four #
5 # This file is automatically generated by Community Place.
6 # DO NOT edit this file.
7 #
8 WorldInfo {title "Entry Room"}
9 NavigationInfo {headlight TRUE}
10 Transform {
11 translation 0.000000 0.000000 0
12 children [
13 Inline {url "analog / entry.wrl"}
14 ]
15}
16 Transform {
17 translation 3.300000 0.000000 0
18 children [
19 Inline {url "circus2 / entry.wrl"}
20]
twenty one }
22 Transform {
23 translation 6.600000 0.000000 0
24 children [
25 Inline {url "drive / entry.wrl"}
26]
27}
28 Transform {
29 translation 0.000000 -3.300000 0
30 children [
31 Inline {url "networkentry / entry.wrl"}
32]
33}
34 Transform {
35 translation 3.300000 -3.300000 0
36 children [
37 Inline {url "origami / entry.wrl"}
38]
39}
40 Transform {
41 translation 6.600000 -3.300000 0
42 children [
43 Inline {url "tv / entry.wrl"}
44]
45}
46 Transform {
47 translation 0.000000 -6.600000 0
48 children [
49 Inline {url "ufo / entry.wrl"}
50]
51}
52 Viewpoint {
53 position 3.300000 -3.300000 17.583812
54 fieldOfView 0.785398
55}
[0257]
The entry room VRML file entryroom.wrl, which is automatically updated by the browser with the addition of the analog world described above, is read by the Community Place Browser, and this time, the entry room as shown in FIG. 31 is displayed. Is done. In this display example, a three-dimensional icon 111-0 is added. FIG. 32 shows the three-dimensional positional relationship between the three-dimensional icons 111-0 to 111-6 arranged in the display window and the default viewpoint position (Viewpoint).
[0258]
As shown in FIG. 32, the three-dimensional icons 111-0 to 111-6 and the three-dimensional coordinate values of the viewpoint position are as follows.
The coordinate value of the three-dimensional icon 111-0 (x, y, z) = (0.0, 0.0, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-1 = (3.3, 0.0, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-2 = (6.6, 0.0, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-3 = (0.0, -3.3, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-4 (3.3, -3.3, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-5 = (6.6, -3.3, 0.0)
The coordinate value (x, y, z) of the three-dimensional icon 111-6 = (0.0, -6.6, 0.0)
Coordinate value of viewpoint position (x, y, z) = (3.3, -3.3, 17.583812)
[0259]
These coordinate values are based on the description of the entry room VRML file entryroom.wrl that is automatically updated when the browser is activated after the above-described analog world is added.
[0260]
As can be seen from the VRML file entryroom.wrl described above, in the VRML file analog \ entry.wrl describing the 3D icon 111-0 of the analog world in the 10th to 15th lines with the addition of the analog world. Corresponding descriptions are automatically added, and values such as the coordinate values and viewpoint positions of the existing three-dimensional icons 111-1 to 111-6 are rewritten.
[0261]
That is, the newly added three-dimensional icon 111-0 of the analog world is arranged at the leftmost end of the uppermost stage when viewed from the viewpoint position, and the existing three-dimensional icons 111-1 to 111-6 are sequentially moved to the right. It is moved 3.3 units at a time (in the positive direction of the X axis) or downward (in the negative direction of the Y axis) and rearranged.
[0262]
Furthermore, the viewpoint position is also moved downward by 1.65 units and moved backward by 6.971043 units as the number of arrangement stages of the three-dimensional icons 111-0 to 111-6 increases by one stage. The viewpoint position is automatically corrected.
[0263]
On the other hand, if the directory containing the VRML file entry.wrl of the analog world is deleted, then when the browser is started, the directory in the world directory is searched, and the deletion of the analog world is determined, and correspondingly The VRML file entryroom.wrl of the entry room is rewritten. Thus, the display returns to the entry room display shown in FIG. 27 in which the three-dimensional icons 111-1 to 111-6 are arranged in the positional relationship shown in FIG.
[0264]
Here, when the browser starts up, it searches a directory in the world directory, and if there is a directory (world content folder) containing the newly added analog world VRML file entry.wrl, it corresponds to that. He explained that the entry room VRML file entryroom.wrl would be rewritten. This is realized by rewriting the VRML file entryroom.wrl of the entry room without fail regardless of the addition or deletion of the world content folder. However, this is equivalent to rewriting the entry room VRML file entryroom.wrl only when the world content folder is added or deleted as a result.
[0265]
If the VRML file entry.wrl is not included in the world content folder, the three-dimensional icon indicating the world is not displayed in the entry room.
[0266]
As shown in FIGS. 27 and 31, the three-dimensional icons 111-0 to 111-6 displayed in the entry room have a design with a shape that reduces the corresponding world, or a surface pattern that imitates the world ( (Texture) is applied, and is described in advance by VRML2.0 based on these designs. Therefore, the user can intuitively grasp the outline of the corresponding world by looking at these three-dimensional icons 111-0 to 111-6.
[0267]
The user operates the mouse 49b and the keyboard 49a as described in the above [Browser operation method], or is displayed in the lower end area of the main window 110 of the browser as shown in FIGS. The navigation button 112 is operated with the mouse 49b, and can be freely moved (navigated) in the entry room, which is a three-dimensional virtual reality space in which the three-dimensional icons 111-0 to 111-6 are displayed. it can. For example, it is possible to view the three-dimensionally arranged three-dimensional icons 111-0 to 111-6 from a desired angle by arbitrarily changing the viewpoint position and the line-of-sight direction. The navigation buttons 112 are arranged in the order of right movement, up movement, down movement, left movement, right turn, reverse, forward, left turn, up tilt, down tilt, and horizontal reset from the right end.
[0268]
After the entry room is displayed, when the user moves the arrow pointer by operating the mouse 49b or the like and overlays it on the three-dimensional icon 111-1 of the circus2 world, for example, as shown in FIG. The pointer shape changes to a palm shape with a balloon display labeled URL. In addition, a character string “Circus Park 2 (is the entry to a multiuser world)” is displayed at the lower end of the displayed entry room as the description of the world of the three-dimensional icon 111-1 toward the screen. Scrolls from left to right.
[0269]
In the state of FIG. 31, when the user clicks a button such as the mouse 49b and performs a confirmation operation, the browser displays the VRML file circus2 \ shown in FIG. 29 in which the world corresponding to the three-dimensional icon 111-1 is described. main.wrl is read and displayed on the main window 110 as shown in FIG.
[0270]
That is, the VRML file entry.wrl of the three-dimensional icons 111-0 to 111-6 describes link information to the VRML file main.wrl of the world corresponding to them. When one of the three-dimensional icons 111-0 to 111-6 is clicked, the browser reads the VRML file main.wrl of the world linked to the corresponding VRML file entry.wrl, and displays it in the entry room display. Instead, the world described in the VRML file main.wrl is displayed on the main window 110.
[0271]
As described above, a desired world is selected while freely moving (navigating) the entry room, which is a three-dimensional virtual reality space displaying the three-dimensional icons 111-0 to 111-6, by a mouse operation. A unified GUI can be realized. As in the conventional selection method shown in FIG. 38, the user can operate the mouse while looking at the entry room that is automatically displayed when the browser is started, without performing a complicated operation such as searching a directory. The desired world can be selected easily and immediately.
[0272]
Next, with reference to the flowchart shown in FIG. 34, the process including the entry room automatic generation process by the browser described above will be further described.
[0273]
When the browser is activated, the world content folder in the world directory is searched in step S61, and in the next step S62, it is determined whether or not there is a newly added world content folder. If it is determined that there is a new world content folder, in the next step S63, information on the three-dimensional arrangement of the three-dimensional icons and information on the user's viewpoint position in the initial state when the entry room is displayed are displayed. The included VRML file entryroom.wrl is automatically updated. By this automatic update process, a new three-dimensional icon corresponding to the directory including the newly added VRML file entry.wrl is added.
[0274]
On the other hand, if it is determined in step S62 that there is no newly added world content folder, it is determined in step S64 whether or not there is a deleted world content folder. If it is determined in step S64 that there is a deleted world content folder, VRML is reflected in the next step S65 so that it is reflected along with the directory containing the deleted VRML file entry.wrl. The file entryroom.wrl is automatically updated.
[0275]
In step S66, the automatically updated VRML file entryroom.wrl is read and an entry room is displayed.
[0276]
In the next step S67, it is determined whether or not any of the three-dimensional icons linked to the world content displayed in the entry room has been clicked with the mouse 49b. Proceeding to S68, the VRML file main.wrl in which the linked world content is described is read and displayed. Thereafter, in step S69, the display of the three-dimensional virtual reality space is updated according to the navigation operation using the mouse 49b and the navigation button 112 by the user. Thereby, the user can freely move (navigate) in a desired three-dimensional virtual reality space.
[0277]
On the other hand, if it is determined in step S67 that the 3D icon displayed in the entry room has not been clicked with the mouse, the process proceeds to step S70, and the display of the 3D virtual reality space is updated in accordance with the navigation operation by the user. At the same time, a pointer shape changing process when the pointer is overlaid on the three-dimensional icon, a scrolling display process of the world description at the lower end of the entry room, and the like are executed.
[0278]
Here, the difference from the home page described in the conventional HTML will be considered. FIG. 35 is a diagram comparing a conventional home page described in HTML and an entry room which is an entrance to the virtual world described in VRML according to the present invention.
[0279]
As shown in FIG. 35, the home page described in the conventional HTML can only be linked to other pages by using texts and buttons arranged on an arbitrary line on the page as anchor objects. On the other hand, according to the entry room described in VRML of the present invention, a 3D icon arranged in an arbitrary coordinate position in the 3D space is used as an anchor object, and other 3D virtual spaces described in VRML It is possible to provide a unified GUI environment when the user selects a desired three-dimensional virtual space.
[0280]
In FIG. 27 and FIG. 31, the three-dimensional icons are arranged in a plane in the entry room. However, the three-dimensional icons are arranged three-dimensionally (in the depth direction) as shown in FIG. It is also possible to do. In this case, for example, a three-dimensional icon related to recently installed content can be arranged on the front side, and a three-dimensional icon related to content installed in the past can be arranged on the back side.
[0281]
Here, in FIG. 36, nine three-dimensional icons are displayed on the front side, and five three-dimensional icons are displayed on the back side. Further, since the entry room is a three-dimensional virtual reality space as described above, the entry room can be moved in the depth direction. FIG. 37 shows a state moved in the depth direction from the state shown in FIG.
[0282]
As described above, when three-dimensional icons are three-dimensionally arranged, many three-dimensional icons can be presented to the user at a time.
[0283]
In the above case, when the browser is started, the directory is searched and the three-dimensional icon is placed in the entry room. Therefore, even if new content is installed, the new content is not started until the browser is started. The 3D icon for is not placed in the entry room. However, for example, by installing new content with a dedicated installer, a three-dimensional icon for the new content is immediately placed in the entry room (file entryroom.wrl, file entry.wrl in the new content). Can be reflected).
[0284]
However, even in this case, since the browser does not always read the file entryroom.wrl, the displayed entry room does not immediately display the three-dimensional icon for the new installed content. . That is, the three-dimensional icon for the new content is displayed in the entry room when the browser is started again or when the browser reads the file entryroom.wrl.
[0285]
In addition, when the entry room is displayed, the 3D icon for the installed new content is immediately displayed in the displayed entry room. It can be realized by loading .wrl.
[0286]
The present invention has been described with respect to the case where the Internet is used as the network 15 and the WWW is used. However, the present invention is applied to a case where a wide area communication network other than the Internet is used as the network 15. Even when the system is adopted, it can be realized.
[0287]
【The invention's effect】
  As described above, according to the three-dimensional virtual reality space display processing device according to claim 1, the three-dimensional virtual reality space display processing method according to claim 13, and the information recording medium according to claim 14,A user who intends to use the 3D virtual reality space can easily and easily select a desired 3D virtual reality space in a unified 3D GUI environment.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of a cyberspace system to which the present invention is applied.
FIG. 2 is a diagram for explaining WWW.
FIG. 3 is a diagram illustrating an example of a URL.
4 is a block diagram illustrating a configuration example of the information server terminal 10 in FIG. 1;
5 is a block diagram illustrating a configuration example of a shared server terminal 11 in FIG.
6 is a block diagram illustrating a configuration example of the mapping server terminal 12 in FIG. 1;
7 is a block diagram illustrating a configuration example of a client terminal 13 in FIG.
8 is a block diagram showing a configuration example of a service provider terminal 14 of FIG.
FIG. 9 is a diagram for explaining a virtual reality space formed by the cyberspace system of FIG. 1;
10 is a diagram for explaining a field of view from an avatar C in FIG. 9; FIG.
FIG. 11 is a diagram for explaining a field of view from an avatar D in FIG. 9;
FIG. 12 is a diagram for explaining a part of the allocation space of the cyber space system in the embodiment of FIG. 1;
13 is a diagram for explaining a field of view from an avatar C in FIG. 12. FIG.
14 is a diagram for explaining a field of view from an avatar F in FIG. 12; FIG.
FIG. 15 is a flowchart for explaining the operation of the client terminal 13 (service provider terminal 14).
16 is a flowchart for explaining the operation of the information server terminal 10. FIG.
FIG. 17 is a flowchart for explaining the operation of the mapping server terminal 12;
18 is a flowchart for explaining the operation of the shared server terminal 11. FIG.
FIG. 19 is a diagram for describing a communication procedure between the client terminal 13 and each of the information server terminal 10, the shared server terminal 11, or the mapping server terminal 12.
FIG. 20 is a diagram for explaining a case where there are a plurality of shared server terminals that manage update objects arranged in the same virtual reality space.
FIG. 21 is a block diagram illustrating another configuration example of the client terminal 13;
FIG. 22 is a diagram illustrating the storage destination of the basic object and the update object.
FIG. 23 is a diagram for explaining the arrangement of basic objects and update objects.
FIG. 24 is a diagram for explaining software for realizing a cyberspace system;
FIG. 25 is a diagram illustrating software that runs on the client terminal 13-1 and the shared server terminal 11-1.
FIG. 26 is a diagram illustrating an environment in which software operates.
FIG. 27 is a photograph showing a display example of an entry room.
FIG. 28 is a diagram illustrating a configuration example of a directory.
29 is a diagram illustrating a three-dimensional positional relationship between a three-dimensional icon and a viewpoint position arranged in the entry room illustrated in FIG. 27. FIG.
FIG. 30 is a diagram showing a directory configuration example after a new world content is added.
FIG. 31 is a photograph showing a display example of an entry room after a new world content is added.
32 is a diagram showing a three-dimensional positional relationship between a three-dimensional icon and a viewpoint position arranged in the entry room after the world content shown in FIG. 31 is newly added.
FIG. 33 is a photograph showing a display example of a three-dimensional virtual reality space.
FIG. 34 is a flowchart for explaining a process including an entry room automatic generation process by a browser;
FIG. 35 is a diagram comparing a conventional HTML homepage and an VRML entry room of the present invention.
FIG. 36 is a photograph showing another display example of an entry room.
FIG. 37 is a photograph showing another display example of an entry room.
FIG. 38 is a photograph for explaining an operation for opening a file by a conventional VRML browser.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Information server terminal, 11 Shared server terminal, 12 Mapping server terminal, 13-1 thru | or 13-3 Client terminal (information processing apparatus), 15 network (wide area communication network), 21 CPU, 22 ROM, 23 RAM, 24 communication apparatus , 25 display device, 26 microphone, 27 speaker, 28 interface, 29 input device, 30 storage device, 41 CPU (display processing means) (generation means), 42 ROM, 43 RAM, 44 communication device, 45 display device, 46 microphone , 47 speaker, 48 interface, 49 input device, 50 storage device (storage means), 81 CPU, 82 ROM, 83 RAM, 84 communication device, 85 storage device, 91 CPU, 92 ROM, 93 RAM, 94 communication Device, 95 memory, 110 main window, 111-0 to 111-6 3D icons, 130 domain name server

Claims (14)

3次元グラフィックスデータを解釈して、対応する3次元仮想現実空間画像を表示する3次元仮想現実空間表示処理装置において、
各々の3次元仮想現実空間が記述される前記3次元グラフィックスデータと、3次元グラフィックスデータの各々に対応付けられた3次元アイコンとをそれぞれ所定のディレクトリ内に格納し、前記所定のディレクトリそれぞれを同一階層に格納する記憶手段と、
前記記憶手段に格納された3次元グラフィックスデータの各々に対応付けられた3次元アイコンを3次元配列してなるエントリールームが記述された3次元グラフィックスデータを自動生成して、前記所定のディレクトリと同一階層に格納するエントリールーム自動生成手段と
を備え、
前記エントリールーム自動生成手段は、前記同一階層に格納される所定のディレクトリを検索して、検索された3次元グラフィックスデータに対応する3次元アイコンを前記エントリールームに配列させるための前記エントリールームが記述された3次元グラフィックスデータを自動生成する
ことを特徴とする3次元仮想現実空間表示処理装置。
In a 3D virtual reality space display processing device that interprets 3D graphics data and displays a corresponding 3D virtual reality space image,
The 3D graphics data describing each 3D virtual reality space and the 3D icons associated with each of the 3D graphics data are stored in predetermined directories, respectively, Storage means for storing in the same hierarchy;
The predetermined directory is generated by automatically generating three-dimensional graphics data in which an entry room is formed by three-dimensionally arranging three-dimensional icons associated with each of the three-dimensional graphics data stored in the storage means. And entry room automatic generation means to store in the same level,
The entry room automatic generation means searches for a predetermined directory stored in the same hierarchy, and the entry room for arranging the 3D icons corresponding to the searched 3D graphics data in the entry room. A three-dimensional virtual reality space display processing device that automatically generates described three-dimensional graphics data.
前記3次元アイコンは、対応する3次元グラフィックスデータを取得させて、3次元グラフィックスデータに基づく3次元仮想現実空間を生成するための情報を含む
ことを特徴とする請求項1に記載の3次元仮想現実空間表示処理装置。
The 3D icon according to claim 1, wherein the 3D icon includes information for acquiring corresponding 3D graphics data and generating a 3D virtual reality space based on the 3D graphics data. Dimensional virtual reality space display processing device.
ユーザの操作に応じて選択された前記3次元アイコンに対応する3次元グラフィックスデータを取得し、取得した3次元グラフィックスデータに基づく3次元仮想現実空間を生成して表示する表示制御手段
を備えることを特徴とする請求項2に記載の3次元仮想現実空間表示処理装置。
Display control means for acquiring 3D graphics data corresponding to the 3D icon selected in accordance with a user operation, and generating and displaying a 3D virtual reality space based on the acquired 3D graphics data. The three-dimensional virtual reality space display processing device according to claim 2.
前記エントリールーム自動生成手段は、前記記憶手段に、前記3次元グラフィックスデータがファイル単位で追加された時点で、追加された3次元グラフィックスデータに対応する3次元アイコンを追加してなるエントリールームが記述された3次元グラフィックスデータを自動生成する
ことを特徴とする請求項1に記載の3次元仮想現実空間表示処理装置。
The entry room automatic generation means adds an entry room corresponding to the added 3D graphics data to the storage means when the 3D graphics data is added in file units. The three-dimensional virtual reality space display processing device according to claim 1, wherein three-dimensional graphics data in which is described is automatically generated.
前記エントリールーム自動生成手段は、前記記憶手段から、前記3次元グラフィックスデータがファイル単位で削除された時点で、削除された3次元グラフィックスデータに対応する3次元アイコンを削除してなるエントリールームが記述された3次元グラフィックスデータを自動生成する
ことを特徴とする請求項1に記載の3次元仮想現実空間表示処理装置。
The entry room automatic generation means deletes the 3D icon corresponding to the deleted 3D graphics data when the 3D graphics data is deleted in file units from the storage means. The three-dimensional virtual reality space display processing device according to claim 1, wherein three-dimensional graphics data in which is described is automatically generated.
前記エントリールーム自動生成手段は、起動時点で、前記記憶手段にファイル単位で格納されている前記3次元グラフィックスデータを検索し、
前記3次元グラフィックスデータが前記ファイル単位で追加または削除されていた場合、追加または削除された3次元グラフィックスデータに対応する3次元アイコンを追加または削除してなるエントリールームが記述された3次元グラフィックスデータを自動生成する
ことを特徴とする請求項1に記載の3次元仮想現実空間表示処理装置。
The entry room automatic generation means searches the 3D graphics data stored in file units in the storage means at the time of activation,
When the 3D graphics data is added or deleted in units of files, a 3D in which an entry room is described in which a 3D icon corresponding to the added or deleted 3D graphics data is added or deleted is described. The graphics data is automatically generated. The three-dimensional virtual reality space display processing device according to claim 1.
前記エントリールーム自動生成手段は、前記記憶手段に対して、前記3次元グラフィックスデータがファイル単位で追加または削除された時系列順序に応じて、前記3次元グラフィックスデータに対応する3次元アイコンの3次元配列を並び替える
ことを特徴とする請求項1に記載の3次元仮想現実空間表示処理装置。
The entry room automatic generation means stores the 3D icon corresponding to the 3D graphics data in the storage means according to the time series order in which the 3D graphics data is added or deleted in file units . The three-dimensional virtual reality space display processing device according to claim 1, wherein the three-dimensional array is rearranged.
前記エントリールーム自動生成手段は、前記3次元グラフィックスデータに対応する3次元アイコンの3次元配列の並び替えに応じて、前記エントリールームの初期状態における視点位置を補正する
ことを特徴とする請求項7に記載の3次元仮想現実空間表示処理装置。
The entry room automatic generation means corrects a viewpoint position in an initial state of the entry room according to a rearrangement of a three-dimensional array of three-dimensional icons corresponding to the three-dimensional graphics data. The three-dimensional virtual reality space display processing device according to claim 7.
前記3次元アイコンは、対応する3次元グラフィックスデータで記述された3次元仮想現実空間を模した形状もしくは表面模様である
ことを特徴とする請求項1に記載の3次元仮想現実空間表示処理装置。
The three-dimensional virtual reality space display processing device according to claim 1, wherein the three-dimensional icon has a shape or a surface pattern imitating a three-dimensional virtual reality space described by corresponding three-dimensional graphics data. .
前記3次元グラフィックスデータは、VRML(Virtual Reality Modeling Language)で記述されている
ことを特徴とする請求項1に記載の3次元仮想現実空間表示処理装置。
The three-dimensional virtual reality space display processing device according to claim 1, wherein the three-dimensional graphics data is described in VRML (Virtual Reality Modeling Language).
前記エントリールーム内に表示されている前記3次元アイコンの何れかを選択するための選択手段と、
前記3次元アイコンに対応した前記3次元グラフィックスデータを関係付けるためのリンク情報に基づいて、前記選択手段によって選択された前記3次元アイコンに対応する前記3次元グラフィックスデータを読み込む読込手段と
をさらに具備することを特徴とする請求項1に記載の3次元仮想現実空間表示処理装置。
Selection means for selecting any of the three-dimensional icons displayed in the entry room;
Reading means for reading the 3D graphics data corresponding to the 3D icon selected by the selection means based on link information for associating the 3D graphics data corresponding to the 3D icon; The three-dimensional virtual reality space display processing device according to claim 1, further comprising:
前記選択手段は、前記エントリールーム内に表示されるポインタの位置の移動と確定操作によって前記3次元アイコンの何れかを選択するものであり、
前記選択手段によって、前記ポインタを前記3次元アイコンにオーバーレイした状態において、前記3次元アイコンに対応した前記3次元グラフィックスデータの説明文を、前記エントリールームにオーバーレイ表示する説明表示手段を
さらに備えることを特徴とする請求項11に記載の3次元仮想現実空間表示処理装置。
The selection means selects one of the three-dimensional icons by moving and confirming the position of a pointer displayed in the entry room,
In the state where the pointer is overlaid on the three-dimensional icon by the selection means, the display further comprises an explanation display means for displaying an explanatory text of the three-dimensional graphics data corresponding to the three-dimensional icon in the entry room. The three-dimensional virtual reality space display processing device according to claim 11.
記憶手段およびエントリールーム自動生成手段を備えた3次元仮想現実空間表示処理装置であって、3次元グラフィックスデータを解釈して、対応する3次元仮想現実空間画像を表示する3次元仮想現実空間表示処理装置の3次元仮想現実空間表示処理方法において、
前記記憶手段によって、各々の3次元仮想現実空間が記述される前記3次元グラフィックスデータと、3次元グラフィックスデータの各々に対応付けられた3次元アイコンとをそれぞれ所定のディレクトリ内に格納し、前記所定のディレクトリそれぞれを同一階層に格納し、
前記エントリールーム自動生成手段によって、
格納された3次元グラフィックスデータの各々に対応付けられた3次元アイコンを3次元配列してなるエントリールームが記述された3次元グラフィックスデータを自動生成して、前記所定のディレクトリと同一階層に格納し、
前記同一階層に格納される所定のディレクトリを検索して、検索された3次元グラフィックスデータに対応する3次元アイコンを前記エントリールームに配列させるための前記エントリールームが記述された3次元グラフィックスデータを自動生成する
ことを特徴とする3次元仮想現実空間表示処理方法。
A three-dimensional virtual reality space display processing apparatus having a storage means and an entry room automatic generation means, which interprets three-dimensional graphics data and displays a corresponding three-dimensional virtual reality space image. In the three-dimensional virtual reality space display processing method of the processing device,
The storage means stores the three-dimensional graphics data in which each three-dimensional virtual reality space is described and a three-dimensional icon associated with each of the three-dimensional graphics data in a predetermined directory, Each of the predetermined directories is stored in the same hierarchy,
By the entry room automatic generation means,
Three-dimensional graphics data in which an entry room is formed by three-dimensionally arranging three-dimensional icons associated with each of the stored three-dimensional graphics data is automatically generated, and the same directory as the predetermined directory is generated. Store and
3D graphics data describing the entry room for searching a predetermined directory stored in the same hierarchy and arranging a 3D icon corresponding to the searched 3D graphics data in the entry room Is automatically generated. A three-dimensional virtual reality space display processing method.
コンピュータに、記憶手段およびエントリールーム自動生成手段を実現させるための、3次元グラフィックスデータを解釈して、対応する3次元仮想現実空間画像を表示する3次元仮想現実空間表示処理用のプログラムであって、
前記記憶手段によって、各々の3次元仮想現実空間が記述される前記3次元グラフィックスデータと、3次元グラフィックスデータの各々に対応付けられた3次元アイコンとをそれぞれ所定のディレクトリ内に格納し、前記所定のディレクトリそれぞれを同一階層に格納し、
前記エントリールーム自動生成手段によって、
格納された3次元グラフィックスデータの各々に対応付けられた3次元アイコンを3次元配列してなるエントリールームが記述された3次元グラフィックスデータを自動生成して、前記所定のディレクトリと同一階層に格納し、
前記同一階層に格納される所定のディレクトリを検索して、検索された3次元グラフィックスデータに対応する3次元アイコンを前記エントリールームに配列させるための前記エントリールームが記述された3次元グラフィックスデータを自動生成する
ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている情報記録媒体。
A program for 3D virtual reality space display processing that interprets 3D graphics data and displays a corresponding 3D virtual reality space image for realizing a storage means and an automatic entry room generation means on a computer. And
The storage means stores the three-dimensional graphics data in which each three-dimensional virtual reality space is described and a three-dimensional icon associated with each of the three-dimensional graphics data in a predetermined directory, Each of the predetermined directories is stored in the same hierarchy,
By the entry room automatic generation means,
Three-dimensional graphics data in which an entry room is formed by three-dimensionally arranging three-dimensional icons associated with each of the stored three-dimensional graphics data is automatically generated, and the same directory as the predetermined directory is generated. Store and
3D graphics data describing the entry room for searching a predetermined directory stored in the same hierarchy and arranging a 3D icon corresponding to the searched 3D graphics data in the entry room An information recording medium on which a computer-readable program is recorded.
JP28255897A 1996-09-30 1997-09-30 3D virtual reality space display processing apparatus, 3D virtual reality space display processing method, and information recording medium Expired - Lifetime JP4032321B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28255897A JP4032321B2 (en) 1996-09-30 1997-09-30 3D virtual reality space display processing apparatus, 3D virtual reality space display processing method, and information recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP27873796 1996-09-30
JP8-278737 1996-09-30
JP28255897A JP4032321B2 (en) 1996-09-30 1997-09-30 3D virtual reality space display processing apparatus, 3D virtual reality space display processing method, and information recording medium

Publications (2)

Publication Number Publication Date
JPH10154244A JPH10154244A (en) 1998-06-09
JP4032321B2 true JP4032321B2 (en) 2008-01-16

Family

ID=26553022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28255897A Expired - Lifetime JP4032321B2 (en) 1996-09-30 1997-09-30 3D virtual reality space display processing apparatus, 3D virtual reality space display processing method, and information recording medium

Country Status (1)

Country Link
JP (1) JP4032321B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4516207B2 (en) * 2000-12-26 2010-08-04 富士通株式会社 Communication mediation method, mediation device, and communication device
JP3766320B2 (en) * 2001-11-26 2006-04-12 Necフィールディング株式会社 Virtual space providing system, virtual space providing method, and virtual space providing program
JP2004021521A (en) * 2002-06-14 2004-01-22 Sony Corp Apparatus, method, and program for information processing
JP2007241766A (en) * 2006-03-09 2007-09-20 National Institute Of Information & Communication Technology Three-dimensional blog providing device and three-dimensional blog providing program
US20080318687A1 (en) * 2007-06-21 2008-12-25 Microsoft Corporation Live Game Lobby

Also Published As

Publication number Publication date
JPH10154244A (en) 1998-06-09

Similar Documents

Publication Publication Date Title
JP3859018B2 (en) 3D virtual reality space sharing method, 3D virtual reality space sharing system, address management method, and address management server terminal
US6346956B2 (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6057856A (en) 3D virtual reality multi-user interaction with superimposed positional information display for each user
US6437777B1 (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
EP0753836B1 (en) A three-dimensional virtual reality space sharing method and system
US6154211A (en) Three-dimensional, virtual reality space display processing apparatus, a three dimensional virtual reality space display processing method, and an information providing medium
EP0753835B1 (en) A three-dimensional virtual reality space sharing method and system
US6020885A (en) Three-dimensional virtual reality space sharing method and system using local and global object identification codes
US5982372A (en) Visual metaphor for shortcut navigation in a virtual world
US5907328A (en) Automatic and configurable viewpoint switching in a 3D scene
US7107549B2 (en) Method and system for creating and distributing collaborative multi-user three-dimensional websites for a computer system (3D Net Architecture)
US9268460B1 (en) System and method of modeling internet resources in a virtual space
US20060184886A1 (en) Spatial chat in a multiple browser environment
US6331853B1 (en) Display control apparatus display control method and presentation medium
EP0843168A2 (en) An information processing apparatus, an information processing method, and a medium for use in a three-dimensional virtual reality space sharing system
US10474711B1 (en) System and methods for effective virtual reality visitor interface
US20030128205A1 (en) User interface for a three-dimensional browser with simultaneous two-dimensional display
JP4236717B2 (en) Information processing apparatus, information processing method, and information providing medium in 3D virtual reality space sharing system
JP3859020B2 (en) 3D virtual reality space sharing method, 3D virtual reality space sharing system, information processing method, client terminal, and shared server terminal
JP4032321B2 (en) 3D virtual reality space display processing apparatus, 3D virtual reality space display processing method, and information recording medium
JP2002208036A (en) System for providing contents and method for the same
JP3879154B2 (en) Information processing apparatus and information processing method
JPH10154242A (en) Three-dimensional virtual reality space display processor, three-dimensional virtual reality space display processing method, and information supply medium
JPH0981495A (en) Method and system for sharing three-dimensional virtual reality space, medium and method for information recording, medium and method for information transmission, information processing method, and shared server terminal
JPH10154052A (en) Three-dimensional virtual reality space display processor, display processing method and information providing medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070606

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term