JP3780536B2 - Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method - Google Patents

Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method Download PDF

Info

Publication number
JP3780536B2
JP3780536B2 JP22452094A JP22452094A JP3780536B2 JP 3780536 B2 JP3780536 B2 JP 3780536B2 JP 22452094 A JP22452094 A JP 22452094A JP 22452094 A JP22452094 A JP 22452094A JP 3780536 B2 JP3780536 B2 JP 3780536B2
Authority
JP
Japan
Prior art keywords
character
user terminal
virtual space
image
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22452094A
Other languages
Japanese (ja)
Other versions
JPH0887605A (en
Inventor
宏明 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP22452094A priority Critical patent/JP3780536B2/en
Publication of JPH0887605A publication Critical patent/JPH0887605A/en
Application granted granted Critical
Publication of JP3780536B2 publication Critical patent/JP3780536B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、例えば所定の都市空間を設計し、その都市空間の問題点などをテストする場合に用いて好適なシミュレーションシステム、仮想空間提供装置及び方法、並びにユーザ端末装置及び仮想空間画像生成方法に関する。
【0002】
【従来の技術】
最近、バーチャルリアリティ(仮想現実空間)を利用した装置が開発されている。
【0003】
例えば、住宅を設計する場合において、所定の間取りや仕様を決定すると、それに対応する住宅の画像をバーチャルリアリティで生成し、その画像を、その住宅を発注した注文者に対して、ヘッドマウントディスプレイなどを用いて表示する装置が知られている。発注者は、このヘッドマウントディスプレイに表示されるバーチャルリアリティから、自分があたかもその住宅において実際に生活しているような感覚で、その住宅を体験し、テストすることができる。これにより、単に設計図面上から住宅を見る場合に比べて、住宅の不便な点などを容易に発見することができる。
【0004】
同様に、住宅ではなく、都市空間をバーチャルリアリティとして提供する装置も知られている。
【0005】
【発明が解決しようとする課題】
しかしながら、従来のこのような装置は、複数のユーザが同時にバーチャルリアリティを体験(テスト)することができず、従って、複数の人間が所定の空間を同時に利用することによる問題点などを発見することができない課題があった。
【0006】
本発明はこのような状況に鑑みてなされたものであり、複数の利用者が所定の空間を同時に利用する場合における問題点などをテストすることを可能にするものである。
【0007】
【課題を解決するための手段】
本発明のシミュレーションシステムは、受信手段は、仮想空間上において対応するキャラクタを有し、キャラクタの位置を入力して、供給手段に送信し、供給手段は、キャラクタの位置におけるキャラクタの視点からの画像またはキャラクタを含む仮想空間の俯瞰視点からの画像に対応する描画情報を記憶手段から読み出して、受信手段に供給するとともに、受信手段から供給されたキャラクタの位置のデータを他の受信手段に供給し、受信手段は、供給手段から、キャラクタの位置に対応する描画情報と、自分以外の受信手段のキャラクタの位置の提供を受けて自分のキャラクタの位置におけるキャラクタの視点からの仮想空間画像を生成するか、または描画情報と、自分以外のキャラクタの位置のデータと、自分のキャラクタの位置のデータとを用いて、自分のキャラクタの画像を含む俯瞰視点からの仮想空間画像を生成し、供給手段は、仮想空間において地域が指定されることにより、ユーザ操作に応じてキャラクタに対応する音声信号の合成を行う範囲を設定する設定手段をさらに備え、供給手段は、設定手段により設定された範囲内に位置する複数のキャラクタに対応する音声信号を合成して、受信手段に供給することを特徴とする。
【0008】
受信手段と供給手段の少なくとも一方は、自分のキャラクタを表示せず、自分以外のキャラクタを表示するキャラクタモードと、自分以外のキャラクタと自分のキャラクタの両方を表示する俯瞰モードとを切り換える俯瞰モード切換手段を設けることができる。
【0009】
受信手段と供給手段の少なくとも一方には、俯瞰モード時における俯瞰視点を入力する俯瞰視点入力手段をさらに設けることができる。
【0010】
前記供給手段は、複数のキャラクタに対応する音声信号を合成する合成モードと、特定のキャラクタに対応する音声信号を授受する独立モードとを選択する選択手段を備えることができる。
前記受信手段は、供給手段から提供された画像データと他のユーザ端末のキャラクタの位置のデータを用いて、自己に対応するキャラクタを表示せずに、自己以外のユーザ端末に対応するキャラクタを表示する仮想空間画像を生成することができる。
本発明の仮想空間提供装置は、仮想空間を形成するデータを記憶する記憶手段と、複数のユーザ端末から、ユーザ端末に対応する仮想空間上のキャラクタの位置に対応するデータを受信する受信手段と、受信したユーザ端末に対応するキャラクタの位置におけるキャラクタの視点からの画像またはキャラクタを含む仮想空間の俯瞰視点からの画像に対応する描画情報を記憶手段から読み出してユーザ端末に送信すると共に、ユーザ端末から受信したキャラクタの位置のデータを他のユーザ端末に送信する送信手段と、複数のユーザ端末から受信したキャラクタに対応する音声信号を合成する合成手段と、仮想空間において地域が指定されることにより、キャラクタに対応する音声信号の合成を行う範囲を設定する設定手段とを備え、合成手段は、設定手段により設定された範囲内に位置する複数のユーザ端末の音声信号を合成し、送信手段は、合成した音声信号をユーザ端末にさらに送信することを特徴とする。
前記合成手段は、各ユーザ端末に対応するキャラクタを中心として、そのキャラクタから遠い位置に位置するキャラクタに対応するユーザ端末から受信した音声信号は、その距離が遠いほど大きく減衰するようにして合成することができる。
複数のユーザ端末から受信した音声信号を合成して送信するモードと、特定のユーザ端末から受信した音声信号を送信するモードとを選択する選択手段を更に備えることができる。
本発明の仮想空間提供方法は、複数のユーザ端末から、ユーザ端末に対応する仮想空間上のキャラクタの位置に対応するデータを受信する受信ステップと、受信したユーザ端末に対応するキャラクタの位置におけるキャラクタの視点からの画像またはキャラクタを含む仮想空間の俯瞰視点からの画像に対応する描画情報をユーザ端末に送信する送信ステップと、ユーザ端末から受信したキャラクタの位置のデータを他のユーザ端末に送信するステップと、仮想空間において地域が指定されることにより、キャラクタに対応する音声信号の合成を行う範囲を設定するステップと、設定された範囲内に位置する複数のユーザ端末から受信した音声信号を合成するステップとを備え、合成した音声信号をユーザ端末にさらに送信することを特徴とする。
前記合成ステップは、各ユーザ端末に対応するキャラクタを中心として、そのキャラクタから遠い位置に位置するキャラクタに対応するユーザ端末から受信した音声信号は、その距離が遠いほど大きく減衰するようにして合成することができる。
本発明のユーザ端末装置は、自己に対応する仮想空間上のキャラクタの位置を入力する入力手段と、入力された自己に対応する仮想空間上のキャラクタの位置に対応するデータをシミュレーション装置に送信する送信手段と、送信した自己に対応するキャラクタの位置に対応するデータに対応する描画情報をシミュレーション装置から受信すると共に、他のユーザ端末装置のキャラクタの位置のデータを受信する受信手段と、仮想空間の画像の表示モードについて、自己に対応するキャラクタの視点からの画像を表示するキャラクタモードか、または自己に対応するキャラクタを含む仮想空間の俯瞰視点からの画像を表示する俯瞰モードのいずれかを選択するモード選択手段と、モード選択手段によりキャラクタモードが選択されている場合、描画情報と他のユーザ端末装置のキャラクタの位置のデータを用いて、自己に対応する仮想空間上のキャラクタの位置におけるキャラクタの視点からの仮想空間画像を生成し、モード選択手段により俯瞰モードが選択されている場合、描画情報と、他のユーザ端末装置のキャラクタの位置のデータと、自己のキャラクタの位置のデータとを用いて、自己のキャラクタの画像を含む俯瞰視点からの仮想空間画像を生成する生成手段とを備え、受信手段は、仮想空間において地域が指定されることにより、 キャラクタに対応する音声信号の合成を行う範囲が設定され、設定された範囲内に位置する複数のキャラクタに対応する音声信号が合成され、合成された音声信号を前記シミュレーション装置から受信することを特徴とする。
前記生成手段は、描画情報と他のユーザ端末装置のキャラクタの位置のデータを用いて、自己に対応するキャラクタを表示せずに、自己以外のユーザ端末装置に対応するキャラクタを表示する仮想空間画像を生成することができる。
前記生成手段は、描画情報と他のユーザ端末装置のキャラクタの位置のデータを用いて、俯瞰視点から見た自己に対応するキャラクタを含む仮想空間画像を生成することができる。
キャラクタモードと俯瞰モードとを切り替える俯瞰モード切替手段を更に備えることができる。
【0011】
【作用】
上記構成のシミュレーションシステムにおいては、受信手段は、キャラクタの位置に対応する画像データと、自分以外の受信手段のキャラクタの位置の提供を受けて仮想空間画像を生成する。従って、複数のキャラクタが同時に所定の仮想現実空間を利用する場合における各種の問題点を把握することが可能となる。
【0012】
【実施例】
図1は、本発明のシミュレーションシステムの構成例を表している。この実施例においては、複数の(N台の)ユーザ端末3−1乃至3−Nが、例えば光ファイバを利用した広帯域通信網を介してシミュレーション装置1に接続されている。シミュレーション装置1はデータベース2を有し、このデータベース2には、仮想現実空間を形成する画像データが記憶されている。
【0013】
ユーザ端末3−1乃至3−Nは、仮想現実空間上において、対応するキャラクタを有し、そのキャラクタの位置と視点に対応するデータをシミュレーション装置1に供給すると、シミュレーション装置1は、このキャラクタの位置と視点に対応する画像データをデータベース2より読み出し、ユーザ端末3−1乃至3−Nに供給するようになされている。
【0014】
図2は、シミュレーション装置1の構成例を示している。同図に示すように、シミュレーション装置1はCPU21を備え、このCPU21は、ROM22に記憶されているプログラムに従って各種の処理を実行するようになされている。RAM23には、CPU21が各種の処理を実行する上において必要なデータ、プログラム等が適宜記憶されるようになされている。通信装置24は、ユーザ端末3(3−1乃至3−N)に対して所定のデータを授受するようになされている。
【0015】
表示装置25は、CRT、LCDなどを備え、シミュレーション装置1が提供する仮想現実空間の画像をモニタすることができるように、インタフェース28に接続されている。このインタフェース28にはまた、マイク26とスピーカ27が接続されており、所定の音声信号をユーザ端末3に供給したり、ユーザ端末3からの音声信号をモニタすることができるようになされている。
【0016】
また、シミュレーション装置1は入力装置29を備え、インタフェース28を介して、各種の入力を行うことができるようになされている。この入力装置29は、キーボード29a、マウス29b、視点入力装置29c、移動入力装置29d、俯瞰モード切換釦29e、俯瞰視点入力装置29f、合成モード切換釦29g、地域指定装置29hを有している。
【0017】
キーボード29aは、所定の文字や記号などを入力するとき操作されるようになされている。マウス29bは、所定の位置を指定するとき操作されるようになされている。視点入力装置29cは、シミュレーション装置1の対応するキャラクタの視点を入力するとき操作される。これにより、キャラクタの視点を上下左右の方向に移動させたり、所定の画像をズームすることができるようになされている。また、移動入力装置29dは、キャラクタを前後左右の方向に、所定の速度で移動させるための入力を行うことができるようになされている。
【0018】
俯瞰モード切換釦29eは、表示装置25に仮想現実空間の画像を表示させるモードを、キャラクタモードまたは俯瞰モードに切り換えるとき操作される。キャラクタモードにおいては、対応するキャラクタの視点からの画像が表示され、俯瞰モードにおいては、対応するキャラクタを含む仮想現実空間の画像を俯瞰視点から見た画像が表示される。俯瞰視点入力装置29fは、俯瞰モード時において、表示装置25に表示する画像の俯瞰視点を入力するとき操作される。
【0019】
また、合成モード切換釦29gは、合成モードと単独モードを切り換えるとき操作される。単独モード時においては、所定のユーザ端末3またはシミュレーション装置1と、それらにより指定された他のユーザ端末3との間における音声信号のみが相互に授受される。これに対して、合成モード時においては、所定の仮想現実空間内に位置するキャラクタに対応するユーザ端末3より入力される音声信号を、全て合成して、それらのユーザ端末3に対して伝送される。
【0020】
図3は、ユーザ端末3(3−1乃至3−N)の構成例を示している。ユーザ端末3はCPU41を備え、このCPU41は、ROM42に記憶されているプログラムに従って各種の処理を実行するようになされている。RAM43には、CPU41が各種の処理を実行する上において必要なデータやプログラム等が適宜記憶されるようになされている。通信装置44は、シミュレーション装置1に対してデータを授受するようになされている。
【0021】
表示装置45は、CRT、LCDなどを備え、CG(コンピュータグラフィック)の3次元画像や、通常のビデオカメラなどにより撮影された3次元の画像を表示することができるようになされている。マイク46は、音声信号を、シミュレーション装置1や他のユーザ端末に出力するとき利用される。また、スピーカ47は、シミュレーション装置1や他のユーザ端末より音声信号が伝送されてきたとき、これを出力する。入力装置49は、各種の入力を行うとき操作されるようになされている。
【0022】
このユーザ端末3の入力装置49におけるキーボード49a乃至俯瞰視点入力装置49fは、図2に示したシミュレーション装置1の入力装置29におけるキーボード29a乃至俯瞰視点入力装置29fと対応するものである。
【0023】
インタフェース48は、表示装置45、マイク46、スピーカ47、および入力装置49に対するデータのインタフェースを構成している。
【0024】
図4は、図1に示したシミュレーション装置1により提供される仮想現実空間を模式的に表している。同図に示すように、この仮想現実空間は、町を構成しており、キャラクタC(例えばユーザ端末3−1のキャラクタ)や、キャラクタD(例えばユーザ端末3−2のキャラクタ)が、この町(仮想現実空間)を移動することができるようになされている。
【0025】
キャラクタCは、仮想現実空間における位置と視点から、例えば図5に示すような画像を見ることになる。即ち、キャラクタモード時、ユーザ端末3−1の表示装置25には、図5に示すような画像がシミュレーション装置1から提供され、表示される。そして、そのキャラクタCの視点と位置を、視点入力装置49cと移動入力装置49dを操作することで変更すると、それに対応して、シミュレーション装置1から供給される仮想現実空間を形成する3次元画像が変化される。
【0026】
同様に、キャラクタDが対応するユーザ端末3−2の表示装置には、キャラクタモード時、図6に示すような画像がシミュレーション装置1から提供され、表示される。そして、その表示画像も、キャラクタDの視点と位置を移動させることで変化される。
【0027】
図4に示す状態において、キャラクタCはキャラクタDの方向を見ている。従って、図5に示すように、ユーザ端末3−1の表示装置25に表示される画像(仮想現実空間)には、キャラクタDが表示されている。
【0028】
同様に、図4において、キャラクタDはキャラクタCの方向を見ている。このため、図6に示すように、ユーザ端末3−2の表示装置25に表示される画像(仮想現実空間)には、キャラクタCが表示される。
【0029】
これに対して、例えばユーザ端末3−2において俯瞰モードを指定すると、図4に示すように、自分のキャラクタCを含む俯瞰的画像が表示される。
【0030】
次に、図7乃至図10のフローチャートを参照して、ユーザ端末3とシミュレーション装置1の動作について説明する。
【0031】
図7は、ユーザ端末3の処理例を表している。最初にステップS1において、ユーザ端末3の俯瞰モード切換ボタン49eを操作して、俯瞰モードまたはキャラクタモードのいずれかを設定する。次にステップS2において、位置または視点を変更するか否かを判定する。キャラクタモード時においては、キャラクタの仮想現実空間内における位置を、移動入力装置49dを操作することで入力する。またキャラクタの視点を、視点入力装置49cを操作することで入力する。俯瞰モード時においては、その位置は、移動入力装置49dを操作することで入力され、俯瞰視点は、俯瞰視点入力装置49fを操作することで入力される。
【0032】
位置または視点を変更したとき、ステップS3に進み、位置または視点に対応するデータをシミュレーション装置1に出力する処理が実行される。即ち、CPU41は、視点入力装置49c、移動入力装置49d、俯瞰視点入力装置49fなどの操作に対応するデータを、通信装置44を介してシミュレーション装置1へ出力する。
【0033】
シミュレーション装置1においては、図8を参照して後述するように、この位置と視点のデータを受信したとき、ステップS22において、この位置と視点に対応する画像データをデータベース2より読み出し、ユーザ端末3に出力する。
【0034】
そこで、ユーザ端末3においては、ステップS4において、シミュレーション装置1が出力した描画情報を受信し、それに対応して、仮想現実空間を形成する、例えば都市計画画像を生成する。
【0035】
即ち、CPU41は、シミュレーション装置1より、描画情報を通信装置44を介して受信したとき、この描画情報を一旦RAM43に記憶させる。そして、この描画情報に対応して3次元の仮想現実空間を形成する画像を生成し、インタフェース48を介して表示装置45に表示させる。これにより、表示装置45には、例えば計画した都市の3次元画像が表示される。
【0036】
ステップS3とステップS4の処理は、位置または視点が変更された場合においてのみ実行される。位置または視点を変更する必要がない場合、既に表示装置45に表示されている画像を変化させる必要がない。従って、この場合においては、ステップS3とステップS4の処理はスキップされる。
【0037】
次にステップS5に進み、現在のモードが俯瞰モードであるか否かが判定される。俯瞰モードである場合においては、ステップS6に進み、自分のキャラクタの画像を、視点入力装置49cと移動入力装置49dを操作することで、入力した視点と位置に対応して生成する。そして、自分のキャラクタの画像を表示装置45に出力し、表示させる。
【0038】
現在のモードが俯瞰モードではない場合、即ち、キャラクタモードである場合、自分のキャラクタの位置と視点に対応する画像が表示装置45に表示されるため、自分のキャラクタの画像は、自分の表示装置45に表示させる必要はない。そこで、この場合においては、ステップS6の処理はスキップされる。
【0039】
次にステップS7に進み、他のユーザ端末3またはシミュレーション装置1のキャラクタの位置と視点のデータを受信する。そしてステップS8において、ステップS7で受信した位置と視点のデータから、そのキャラクタの位置または視点が変更されたか否かを判定し、変更された場合においては、ステップS9に進み、その新たな位置または視点におけるキャラクタの画像を生成し、これを表示装置45に出力し、表示させる。
【0040】
これに対して、ステップS8において、他のキャラクタの位置または視点が変更されていないと判定された場合においては、ステップS9の処理はスキップされる。即ち、そのキャラクタの画像は変更されない。
【0041】
次にステップS10に進み、モード(俯瞰モードまたはキャラクタモード)を変更するか否かを判定し、変更しない場合においては、ステップS2に戻り、それ以降の処理を繰り返し実行する。
【0042】
これに対して、モードを変更する場合においては、ステップS1に戻り、新たなモードを設定し、ステップS2に進み、それ以降の処理を繰り返す。
【0043】
以上のようにして、例えばユーザ端末3−2において、キャラクタモードを指定した場合、自分のキャラクタの位置と視点に対応して、例えば図6に示すような画像が表示装置45に表示される。
【0044】
これに対して、俯瞰モードを設定した場合においては、その位置と俯瞰視点に対応して、図4に示すような画像が表示装置45に表示される。
【0045】
図8は、ユーザ端末3が、図7のフローチャートに示すような処理を実行した場合におけるシミュレーション装置1の処理例を表している。最初にステップS21において、ユーザ端末3より、対応するキャラクタの位置または視点を変更するデータを受信するまで待機し、受信したとき、ステップS22に進み、受信した位置または視点データに対応する描画情報をデータベース2より読み出し、その位置または視点データを出力したユーザ端末3に出力する。このステップS22で出力したデータが、ユーザ端末3において、図7のステップS4において受信され、処理されることになる。
【0046】
次にステップS23に進み、ステップS21で受信した位置または視点データを、関連する他のユーザ端末にも出力する。このステップS23で出力したデータが、ユーザ端末3において、図7のステップS7において受信される。
【0047】
尚、ここにおいて、他のユーザ端末が関連するか否かは、そのユーザ端末の位置と視点から判断される。即ち、例えばユーザ端末3−1のキャラクタCの位置または視点が変更された場合、このキャラクタCを表示装置に表示しているユーザ端末であって、ユーザ端末3−1以外のユーザ端末が、ここにおける関連する他のユーザ端末となる。
【0048】
ステップS23の処理の後、ステップS21に戻り、同様の処理が繰り返し実行される。
【0049】
尚、図8には、ユーザ端末3の操作に対応するシミュレーション装置1の処理を説明したが、シミュレーション装置1は、ユーザ端末3が有する機能を同様に有しており、図7を参照して説明したユーザ端末3の処理は、シミュレーション装置1においても同様に行うことができるようになされている。
【0050】
以上のようにして、各ユーザ端末3の表示装置45と、シミュレーション装置1の表示装置25には、仮想現実空間における都市の画像が所定の数のキャラクタの画像とともに、表示される。
【0051】
次に図9のフローチャートを参照して、ユーザ端末3における他のユーザ端末3またはシミュレーション装置1との音声信号による会話処理について説明する。
【0052】
最初にステップS31において、現在のモードが合成モードであるか否かが判定され、合成モードではない場合(独立モードである場合)、ステップS32に進み、相手画像を指定する処理が実行される。即ち、ユーザ端末3は、例えばマウス49bを操作して、対応するカーソル(図示せず)を、会話を行う相手として指定したいキャラクタ上に配置し、クリックすることで、キャラクタの指定を行う。
【0053】
次にステップS33に進み、指定された相手を特定するためのデータをシミュレーション装置1に出力する処理を実行する。即ち、ユーザ端末3のCPU41は、指定されたキャラクタに対応するデータをシミュレーション装置1に出力する。
【0054】
シミュレーション装置1は、図10のフローチャートを参照して後述するように、ユーザ端末3より、この相手を指定するデータを受信したとき、ステップS54において、これを、指定されたユーザ端末に出力する。指定データを受信した他のユーザ端末は、これに応答するとき、図9のステップS43でOK信号を出力する。シミュレーション装置1は、このOK信号を受信したとき、図10のステップS57で、指定したユーザ端末と指定されたユーザ端末の通信網を接続する処理を実行する。
【0055】
そこで、ユーザ端末3においては、図9のステップS34において、OK信号の受信を確認した後、ステップS35において、指定した相手と音声信号による双方向の会話を実行する。
【0056】
このとき、所定のユーザ端末3のマイク46より入力した音声信号は、インタフェース48、通信装置44を介してシミュレーション装置1に出力される。シミュレーション装置1は、上述したように、音声信号による通信網の接続を行っているため、この音声信号は、指定されたキャラクタが対応するユーザ端末3に出力される。そして、そのユーザ端末3のスピーカ47より出力される。
【0057】
同様に、指定されたユーザ端末3のマイク46より入力した音声信号が、キャラクタを指定したユーザ端末のスピーカ47に出力される。これにより、双方向の音声信号による会話が行われる。
【0058】
この会話は、ステップS36において、ユーザ端末3のキーボード49aの所定のキーを操作するなどして終了が指令されるか、ステップS37において、モードが合成モードに変更されたと判定されるまで繰り返し実行される。
【0059】
ステップS36において、会話の終了が指令されたと判定された場合においては、ステップS38に進み、終了信号を出力する処理が実行される。
【0060】
シミュレーション装置1は、この終了信号を受信したとき、図10のステップS58でこれを検出し、通信網の接続を解除する処理を実行する。
【0061】
一方、ステップS31において、モードが合成モードであると判定された場合においては、ステップS39に進み、所定の仮想現実空間内における空間(地域)内に位置する不特定のキャラクタに対応するユーザ端末またはシミュレーション装置との会話が実行される。
【0062】
即ち、図10を参照して後述するように、合成モード時においては、ステップS62において、所定の地域内に位置する複数のキャラクタ間において、相互に会話を行うことができるようになされる。従って、ユーザ端末3においては、この合成モードが終了されたとステップS40において判定されるまで、所定の地域内の不特定のキャラクタに対応するユーザ端末またはシミュレーション装置との会話を行うことが可能となる。
【0063】
単独モードにおける会話を行っている最中に、ステップS37において、合成モードに変更されたと判定された場合においては、ステップS37からステップS39に進み、それ以降の処理が同様に実行される。
【0064】
図10は、シミュレーション装置1における会話処理の例を表している。最初にステップS51において、合成モードまたは独立モードの設定処理が行われる。この設定は、シミュレーション装置1の合成モード切換釦29gを操作することで行われる。次にステップS52において、設定されたモードが合成モードであるか否かが判定され、合成モードではない(独立モードである)と判定された場合においては、ステップS53に進み、ユーザ端末3より所定のキャラクタを指定する指定データが受信されたか否かが判定される。指定データが受信されたと判定された場合、ステップS54に進み、指定データを、指定されたキャラクタが対応するユーザ端末3に出力する。
【0065】
次にステップS55に進み、指定データを供給したユーザ端末からOK信号が受信されたか否かを判定する。OK信号が受信されていない場合、ステップS56に進み、モードを独立モードから合成モードに変更するか否かを判定し、変更しない場合においては、ステップS53に戻り、それ以降の処理を繰り返す。
【0066】
ステップS55において、OK信号を受信したと判定した場合、ステップS55からステップS57に進み、キャラクタを指定したユーザ端末と、OK信号を出力したユーザ端末とを、音声信号による会話が可能なように通信網を接続する処理を実行する。
【0067】
次にステップS58に進み、会話終了信号が受信されたか否かが判定され、受信されない場合、ステップS59に進み、独立モードが変更されたか否かが判定され、変更されない場合、ステップS57に戻る。これにより、キャラクタを指定したユーザ端末またはシミュレーション装置と、指定されたキャラクタのユーザ端末またはシミュレーション装置との間で、双方向の音声信号による会話が継続される。
【0068】
ユーザ端末3が、図9のステップS38において終了信号を出力し、シミュレーション装置1において、図10のステップS58でこれを受信したとき、ステップS53に戻り、それ以降の処理を繰り返す。また、ステップS59において、独立モードから合成モードに変更するか否かを判定し、変更する場合、ステップS51に戻り、合成モード切換ボタン29gを操作して、所定のモードを設定する処理を実行する。
【0069】
ステップS51において、合成モード切換ボタン29gを操作することで、合成モードを設定した場合、ステップS52からステップS60に進み、合成モードを設定する地域を指定するか否かが判定される。合成モードを設定する地域を指定する場合、ステップS61に進み、地域指定処理が実行される。
【0070】
即ち、合成モードを適用する地域を設定する場合、入力装置29の地域指定装置29hを操作して、合成モードを適用する地域として所定の地域が指定される。
【0071】
例えば、仮想現実空間を形成する都市空間において、その所定のブロックのビルや住居において停電が発生したことを想定し、その場合における各キャラクタの動きを把握したいような場合、そのブロック内において合成モードを設定することができる。あるいはまた、仮想現実空間を形成する所定の位置に、道路を形成し、その道路を走行する車輌による騒音の及ぼす影響を調べるような場合において、その道路から所定の範囲内の地域を指定することができる。
【0072】
ステップS60において、特に地域を指定する必要がないと判定された場合、ステップS61の地域指定処理はスキップされる。この場合においては、全ての地域(仮想現実空間を形成する全ての空間)に合成モードが設定されることになる。
【0073】
次にステップS62に進み、指定された地域、あるいは全ての空間に位置するキャラクタに対応するユーザ端末3の音声信号による通信網を相互に接続し、ステップS63において、それらによる音声信号による会話を行わせる。この処理は、ステップS64において、合成モードから独立モードへモードを変更すると判定されるまで繰り返し実行される。
【0074】
この合成モード時においては、合成モードが設定されている地域内においては、その地域に位置するキャラクタの対応するユーザ端末が発生する音声信号が全て合成されて、他のユーザ端末に供給される。これに対して、独立モードにおいては、キャラクタを指定したユーザ端末と、指定されたキャラクタに対応するユーザ端末との間においてのみ会話が行われる。
【0075】
しかしながら、このような会話は、現実の空間においては有り得ないことである。即ち、現実の空間においては、常に周囲のキャラクタからの音声信号が入力されている。換言すれば、このような意図しない周囲のキャラクタからの音声信号が入力されている状態が、より自然に近い状態である。従って、より自然に近い状態を実現するには、この合成モードが設定される。
【0076】
但し、所定の地域内に位置するキャラクタが発生する音声信号を、全て同一レベルで合成し、各ユーザ端末に供給するようにすると、各ユーザ端末において、音声信号を実質的に聞き取ることが困難になる。そこで、各ユーザ端末に対しては、その対応するキャラクタを中心として、そのキャラクタから遠い位置に位置するキャラクタが出力する音声信号は、その距離が遠いほど大きく減衰するようにして合成する。このようにすることで、より現実空間に近い臨場感を発生させることができる。
【0077】
この仮想現実空間において提供される画像は、基本的にコンピュータグラフィックスにより生成された精度の高い画像である。従って、これをあらゆる角度から見ることで、現実の空間における都市空間と殆ど同様の体験を、各ユーザ端末に体験させることができる。
【0078】
この仮想現実空間には、多数のビルや住居、川などが適宜配置される。そして、複数のユーザ端末に対応するキャラクタを移動させる処理を実行させることによって、その都市空間における問題点を把握することが可能となる。
【0079】
【発明の効果】
以上の如く、本発明のシミュレーションシステムによれば、自分自身のキャラクタの位置、自分以外のキャラクタの位置に対応して、仮想空間画像を生成するようにしたので、より現実空間に近い状態で、仮想現実空間を体験させることが可能となる。また、仮想現実空間における問題点などを実際にテストし、判断することが可能となる。
【図面の簡単な説明】
【図1】本発明のシミュレーションシステムの構成例を示すブロック図である。
【図2】図1のシミュレーション装置1の構成例を示すブロック図である。
【図3】図1のユーザ端末3の構成例を示すブロック図である。
【図4】図1のシミュレーションシステムにより形成される仮想現実空間を説明する図である。
【図5】図4のキャラクタCからの視野を説明する図である。
【図6】図4のキャラクタDからの視野を説明する図である。
【図7】図1のユーザ端末3の処理を説明するフローチャートである。
【図8】図1のシミュレーション装置1の処理を説明するフローチャートである。
【図9】図1のユーザ端末3の会話処理を説明するフローチャートである。
【図10】図1のシミュレーション装置1の会話処理を説明するフローチャートである。
【符号の説明】
1 シミュレーション装置
2 データベース
3,3−1乃至3−N ユーザ端末
21 CPU
22 ROM
23 RAM
24 通信装置
25 表示装置
26 マイク
27 スピーカ
28 インタフェース
29 入力装置
29a キーボード
29b マウス
29c 視点入力装置
29d 移動入力装置
29e 俯瞰モード切換釦
29f 俯瞰視点入力装置
29g 合成モード切換釦
29h 地域指定装置
41 CPU
42 ROM
43 RAM
44 通信装置
45 表示装置
46 マイク
47 スピーカ
48 インタフェース
49 入力装置
49a キーボード
49b マウス
49c 視点入力装置
49d 移動入力装置
49e 俯瞰モード切換釦
49f 俯瞰視点入力装置
[0001]
[Industrial application fields]
The present invention is a simulation system suitable for use in, for example, designing a predetermined city space and testing problems in the city space., Virtual space providing device and method, user terminal device, and virtual space image generation methodAbout.
[0002]
[Prior art]
Recently, devices using virtual reality (virtual reality space) have been developed.
[0003]
For example, when designing a house, if a predetermined floor plan or specification is determined, an image of the corresponding house is generated with virtual reality, and the image is sent to the orderer who ordered the house, such as a head-mounted display. There is known an apparatus for performing display using. From the virtual reality displayed on the head-mounted display, the orderer can experience and test the house as if he / she actually lived in the house. Thereby, inconvenient points of the house can be easily found as compared with the case where the house is simply viewed from the design drawing.
[0004]
Similarly, an apparatus that provides an urban space as a virtual reality instead of a house is also known.
[0005]
[Problems to be solved by the invention]
However, such a conventional device cannot allow a plurality of users to experience (test) virtual reality at the same time, and therefore, find problems caused by a plurality of people using a predetermined space at the same time. There was a problem that could not be done.
[0006]
The present invention has been made in view of such a situation, and enables a plurality of users to test problems and the like when a predetermined space is used simultaneously.
[0007]
[Means for Solving the Problems]
  In the simulation system of the present invention, the receiving means has a corresponding character in the virtual space, inputs the character position, and transmits the character position to the supplying means. The supplying means is an image from the viewpoint of the character at the character position. Alternatively, the drawing information corresponding to the image from the overhead view of the virtual space including the character is read from the storage means and supplied to the receiving means, and the character position data supplied from the receiving means is supplied to the other receiving means. The receiving means receives the drawing information corresponding to the position of the character from the supplying means and the position of the character of the receiving means other than itself, and generates a virtual space image from the viewpoint of the character at the position of the own character. Or drawing information, character position data other than your own, and your character position data By using the data, generating a virtual space image from bird's-eye-view including an image of his characterThe supply means further includes a setting means for setting a range for synthesizing the audio signal corresponding to the character in accordance with a user operation by designating an area in the virtual space, and the supply means is set by the setting means Synthesized speech signals corresponding to a plurality of characters located within the specified range and supplied to the receiving meansIt is characterized by that.
[0008]
At least one of the receiving means and the supplying means does not display its own character, but switches between a character mode in which a character other than itself is displayed and an overhead mode in which both a character other than itself and its own character are displayed.Switching meansCan be provided.
[0009]
At least one of the receiving means and the supplying means has an overhead view for inputting the overhead view in the overhead view mode.Input meansCan be further provided.
[0010]
  SaidThe supply means can comprise selection means for selecting a synthesis mode for synthesizing audio signals corresponding to a plurality of characters and an independent mode for transferring audio signals corresponding to a specific character.
  SaidThe receiving means displays the character corresponding to the user terminal other than the self without displaying the character corresponding to the self using the image data provided from the supplying means and the data of the position of the character of the other user terminal. A virtual space image can be generated.
  The virtual space providing apparatus of the present invention includes a storage unit that stores data forming a virtual space, and a reception unit that receives data corresponding to the position of a character in a virtual space corresponding to the user terminal from a plurality of user terminals. The drawing information corresponding to the image from the viewpoint of the character at the position of the character corresponding to the received user terminal or the image from the overhead view of the virtual space including the character is read from the storage means and transmitted to the user terminal. Transmitting means for transmitting the character position data received from the other user terminal;Synthesizing means for synthesizing audio signals corresponding to characters received from a plurality of user terminals; and setting means for setting a range for synthesizing audio signals corresponding to characters by specifying a region in the virtual space;WithThe synthesizing unit synthesizes audio signals of a plurality of user terminals located within the range set by the setting unit, and the transmission unit further transmits the synthesized audio signals to the user terminal.It is characterized by that.
  SaidThe synthesizing means synthesizes the voice signal received from the user terminal corresponding to the character located far from the character centering on the character corresponding to each user terminal so that the voice signal is attenuated as the distance increases. Can do.
  Selection means for selecting a mode for synthesizing and transmitting audio signals received from a plurality of user terminals and a mode for transmitting audio signals received from specific user terminals can be further provided.
  The virtual space providing method of the present invention includes a reception step of receiving data corresponding to a position of a character in a virtual space corresponding to the user terminal from a plurality of user terminals, and a character at the position of the character corresponding to the received user terminal. A step of transmitting drawing information corresponding to an image from the viewpoint of the image or an image from the overhead view of the virtual space including the character to the user terminal, and transmitting data of the position of the character received from the user terminal to the other user terminal Steps,A step of setting a range for synthesizing a voice signal corresponding to the character by designating an area in the virtual space; and a step of synthesizing voice signals received from a plurality of user terminals located within the set range; And further transmitting the synthesized audio signal to the user terminalIt is characterized by that.
  SaidIn the synthesis step, the voice signal received from the user terminal corresponding to the character located at a position far from the character centered on the character corresponding to each user terminal is synthesized such that the farther the distance, the greater the attenuation. Can do.
  The user terminal device of the present invention transmits to the simulation device input means for inputting the character position in the virtual space corresponding to the user and data corresponding to the input character position in the virtual space corresponding to the self. A transmission means, a reception means for receiving drawing information corresponding to the data corresponding to the position of the character corresponding to the transmitted self from the simulation apparatus, and receiving data of the position of the character of another user terminal apparatus; and a virtual space Select either the character mode that displays the image from the viewpoint of the character that corresponds to self or the bird's-eye view mode that displays an image from the overhead view of the virtual space that includes the character that corresponds to self. Mode selection means to be used and the character mode is selected by the mode selection means Using the drawing information and the character position data of other user terminal devices, a virtual space image is generated from the viewpoint of the character at the character position in the virtual space corresponding to itself, and the overhead mode is selected by the mode selection means If it is, a virtual space image from an overhead view including the image of the own character is generated using the drawing information, the character position data of the other user terminal device, and the own character position data. Generating means forReceiving means, by specifying the area in the virtual space, A range for synthesizing the audio signal corresponding to the character is set, audio signals corresponding to a plurality of characters located within the set range are synthesized, and the synthesized audio signal is received from the simulation device.It is characterized by that.
  The generating means uses the drawing information and character position data of another user terminal device to display a character corresponding to a user terminal device other than the self, without displaying a character corresponding to the self. Can be generated.
  The generation unit can generate a virtual space image including a character corresponding to the self viewed from the overhead viewpoint, using the drawing information and the character position data of another user terminal device.
  An overhead mode switching means for switching between the character mode and the overhead mode can be further provided.
[0011]
[Action]
In the simulation system having the above configuration,The receiving means receives the image data corresponding to the position of the character and the position of the character of the receiving means other than itself, and generates a virtual space image.Therefore,MultipleIt is possible to grasp various problems in the case where the character simultaneously uses a predetermined virtual reality space.
[0012]
【Example】
FIG. 1 shows a configuration example of a simulation system of the present invention. In this embodiment, a plurality (N) of user terminals 3-1 to 3-N are connected to the simulation apparatus 1 via, for example, a broadband communication network using optical fibers. The simulation apparatus 1 has a database 2 in which image data forming a virtual reality space is stored.
[0013]
When the user terminals 3-1 to 3-N have a corresponding character in the virtual reality space and supply data corresponding to the position and viewpoint of the character to the simulation device 1, the simulation device 1 Image data corresponding to the position and viewpoint is read from the database 2 and supplied to the user terminals 3-1 to 3-N.
[0014]
FIG. 2 shows a configuration example of the simulation apparatus 1. As shown in the figure, the simulation apparatus 1 includes a CPU 21, and the CPU 21 executes various processes according to programs stored in the ROM 22. The RAM 23 appropriately stores data, programs, and the like necessary for the CPU 21 to execute various processes. The communication device 24 is configured to send and receive predetermined data to the user terminal 3 (3-1 to 3-N).
[0015]
The display device 25 includes a CRT, an LCD, and the like, and is connected to the interface 28 so that an image of the virtual reality space provided by the simulation device 1 can be monitored. The interface 28 is also connected to a microphone 26 and a speaker 27 so that a predetermined audio signal can be supplied to the user terminal 3 and an audio signal from the user terminal 3 can be monitored.
[0016]
Further, the simulation apparatus 1 includes an input device 29 so that various inputs can be performed via the interface 28. The input device 29 includes a keyboard 29a, a mouse 29b, a viewpoint input device 29c, a movement input device 29d, an overhead view mode switching button 29e, an overhead view viewpoint input device 29f, a composition mode switching button 29g, and an area designation device 29h.
[0017]
The keyboard 29a is operated when inputting predetermined characters or symbols. The mouse 29b is operated when a predetermined position is designated. The viewpoint input device 29 c is operated when inputting the viewpoint of the corresponding character of the simulation device 1. As a result, the viewpoint of the character can be moved in the vertical and horizontal directions, or a predetermined image can be zoomed. In addition, the movement input device 29d can perform an input for moving the character in the forward / backward / left / right directions at a predetermined speed.
[0018]
The overhead mode switching button 29e is operated when switching the mode for displaying the image of the virtual reality space on the display device 25 to the character mode or the overhead mode. In the character mode, an image from the viewpoint of the corresponding character is displayed, and in the overhead view mode, an image of the virtual reality space including the corresponding character is viewed from the overhead viewpoint. The overhead view input device 29f is operated when inputting an overhead view of an image displayed on the display device 25 in the overhead view mode.
[0019]
The composite mode switching button 29g is operated when switching between the composite mode and the single mode. In the single mode, only audio signals between the predetermined user terminal 3 or the simulation apparatus 1 and another user terminal 3 designated by them are exchanged. On the other hand, in the synthesis mode, all the audio signals input from the user terminals 3 corresponding to the characters located in the predetermined virtual reality space are synthesized and transmitted to the user terminals 3. The
[0020]
FIG. 3 shows a configuration example of the user terminal 3 (3-1 to 3-N). The user terminal 3 includes a CPU 41, and the CPU 41 is configured to execute various processes according to programs stored in the ROM 42. The RAM 43 appropriately stores data, programs, and the like necessary for the CPU 41 to execute various processes. The communication device 44 is configured to exchange data with the simulation device 1.
[0021]
The display device 45 includes a CRT, an LCD, and the like, and can display a CG (computer graphic) three-dimensional image or a three-dimensional image taken by a normal video camera. The microphone 46 is used when outputting an audio signal to the simulation apparatus 1 or another user terminal. The speaker 47 outputs an audio signal transmitted from the simulation apparatus 1 or another user terminal. The input device 49 is operated when performing various inputs.
[0022]
The keyboard 49a through the overhead view input device 49f in the input device 49 of the user terminal 3 correspond to the keyboard 29a through the overhead view input device 29f in the input device 29 of the simulation apparatus 1 shown in FIG.
[0023]
The interface 48 constitutes a data interface to the display device 45, the microphone 46, the speaker 47, and the input device 49.
[0024]
FIG. 4 schematically shows a virtual reality space provided by the simulation apparatus 1 shown in FIG. As shown in the figure, this virtual reality space constitutes a town, and a character C (for example, a character of the user terminal 3-1) and a character D (for example, a character of the user terminal 3-2) are displayed in this town. (Virtual reality space) can be moved.
[0025]
The character C sees an image as shown in FIG. 5, for example, from the position and viewpoint in the virtual reality space. That is, in the character mode, an image as shown in FIG. 5 is provided from the simulation device 1 and displayed on the display device 25 of the user terminal 3-1. When the viewpoint and position of the character C are changed by operating the viewpoint input device 49c and the movement input device 49d, a three-dimensional image forming the virtual reality space supplied from the simulation device 1 is correspondingly changed. Changed.
[0026]
Similarly, an image as shown in FIG. 6 is provided and displayed on the display device of the user terminal 3-2 to which the character D corresponds from the simulation device 1 in the character mode. The display image is also changed by moving the viewpoint and position of the character D.
[0027]
In the state shown in FIG. 4, the character C looks at the direction of the character D. Therefore, as shown in FIG. 5, the character D is displayed in the image (virtual reality space) displayed on the display device 25 of the user terminal 3-1.
[0028]
Similarly, in FIG. 4, the character D looks at the direction of the character C. For this reason, as shown in FIG. 6, the character C is displayed on the image (virtual reality space) displayed on the display device 25 of the user terminal 3-2.
[0029]
On the other hand, for example, when the bird's-eye view mode is designated in the user terminal 3-2, as shown in FIG. 4, an overhead image including the user's character C is displayed.
[0030]
Next, operations of the user terminal 3 and the simulation apparatus 1 will be described with reference to the flowcharts of FIGS.
[0031]
FIG. 7 illustrates a processing example of the user terminal 3. First, in step S1, the overhead mode switching button 49e of the user terminal 3 is operated to set either the overhead mode or the character mode. Next, in step S2, it is determined whether to change the position or the viewpoint. In the character mode, the position of the character in the virtual reality space is input by operating the movement input device 49d. In addition, the viewpoint of the character is input by operating the viewpoint input device 49c. In the overhead view mode, the position is input by operating the mobile input device 49d, and the overhead view point is input by operating the overhead view point input device 49f.
[0032]
When the position or the viewpoint is changed, the process proceeds to step S3, and a process for outputting data corresponding to the position or the viewpoint to the simulation apparatus 1 is executed. That is, the CPU 41 outputs data corresponding to operations of the viewpoint input device 49c, the movement input device 49d, the overhead view viewpoint input device 49f, and the like to the simulation device 1 via the communication device 44.
[0033]
As will be described later with reference to FIG. 8, when receiving the position and viewpoint data, the simulation apparatus 1 reads the image data corresponding to the position and viewpoint from the database 2 in step S <b> 22, and the user terminal 3. Output to.
[0034]
Therefore, in step S4, the user terminal 3 receives the drawing information output from the simulation apparatus 1, and generates, for example, a city planning image that forms a virtual reality space correspondingly.
[0035]
That is, when the CPU 41 receives drawing information from the simulation apparatus 1 via the communication device 44, the CPU 41 temporarily stores the drawing information in the RAM 43. Then, an image forming a three-dimensional virtual reality space corresponding to the drawing information is generated and displayed on the display device 45 via the interface 48. Thereby, for example, a three-dimensional image of the planned city is displayed on the display device 45.
[0036]
Steps S3 and S4 are executed only when the position or the viewpoint is changed. When there is no need to change the position or the viewpoint, there is no need to change the image already displayed on the display device 45. Accordingly, in this case, the processes in steps S3 and S4 are skipped.
[0037]
Next, it progresses to step S5 and it is determined whether the present mode is an overhead view mode. In the bird's-eye view mode, the process proceeds to step S6, and an image of one's own character is generated corresponding to the input viewpoint and position by operating the viewpoint input device 49c and the movement input device 49d. Then, an image of his / her character is output to the display device 45 and displayed.
[0038]
When the current mode is not the bird's-eye view mode, that is, in the character mode, an image corresponding to the position and viewpoint of his / her character is displayed on the display device 45. It is not necessary to display on 45. Therefore, in this case, the process of step S6 is skipped.
[0039]
In step S7, the character position and viewpoint data of the other user terminal 3 or the simulation apparatus 1 are received. In step S8, it is determined from the position and viewpoint data received in step S7 whether or not the position or viewpoint of the character has been changed. If changed, the process proceeds to step S9, where the new position or viewpoint is changed. An image of the character at the viewpoint is generated and output to the display device 45 for display.
[0040]
On the other hand, if it is determined in step S8 that the position or viewpoint of another character has not been changed, the process of step S9 is skipped. That is, the image of the character is not changed.
[0041]
Next, it progresses to step S10, it is determined whether a mode (overlook mode or character mode) is changed, and when not changing, it returns to step S2 and the subsequent process is repeatedly performed.
[0042]
On the other hand, when the mode is changed, the process returns to step S1, a new mode is set, the process proceeds to step S2, and the subsequent processing is repeated.
[0043]
As described above, for example, when the character mode is designated in the user terminal 3-2, for example, an image as shown in FIG. 6 is displayed on the display device 45 in correspondence with the position and viewpoint of his / her character.
[0044]
On the other hand, when the overhead view mode is set, an image as shown in FIG. 4 is displayed on the display device 45 corresponding to the position and the overhead view viewpoint.
[0045]
FIG. 8 shows a processing example of the simulation apparatus 1 when the user terminal 3 executes the processing shown in the flowchart of FIG. First, in step S21, the process waits until data for changing the position or viewpoint of the corresponding character is received from the user terminal 3. When received, the process proceeds to step S22, and drawing information corresponding to the received position or viewpoint data is obtained. The data is read from the database 2 and output to the user terminal 3 that has output the position or viewpoint data. The data output in step S22 is received and processed in the user terminal 3 in step S4 of FIG.
[0046]
In step S23, the position or viewpoint data received in step S21 is output to other related user terminals. The data output in step S23 is received by the user terminal 3 in step S7 in FIG.
[0047]
Here, whether or not another user terminal is related is determined from the position and viewpoint of the user terminal. That is, for example, when the position or viewpoint of the character C of the user terminal 3-1 is changed, the user terminal that displays the character C on the display device, and the user terminal other than the user terminal 3-1 is here. Other related user terminals in
[0048]
After the process of step S23, the process returns to step S21 and the same process is repeatedly executed.
[0049]
In FIG. 8, the processing of the simulation apparatus 1 corresponding to the operation of the user terminal 3 has been described. However, the simulation apparatus 1 similarly has the functions of the user terminal 3, and refer to FIG. The processing of the user terminal 3 described can be performed similarly in the simulation apparatus 1.
[0050]
As described above, the image of the city in the virtual reality space is displayed on the display device 45 of each user terminal 3 and the display device 25 of the simulation device 1 together with a predetermined number of character images.
[0051]
Next, with reference to the flowchart of FIG. 9, the conversation process by the audio signal with the other user terminal 3 or the simulation apparatus 1 in the user terminal 3 is demonstrated.
[0052]
First, in step S31, it is determined whether or not the current mode is the synthesis mode. If the current mode is not the synthesis mode (in the case of the independent mode), the process proceeds to step S32, and processing for designating the partner image is executed. That is, for example, the user terminal 3 operates the mouse 49b to place a corresponding cursor (not shown) on a character to be designated as a conversation partner and clicks to designate the character.
[0053]
Next, the process proceeds to step S33, and a process of outputting data for specifying the designated partner to the simulation apparatus 1 is executed. That is, the CPU 41 of the user terminal 3 outputs data corresponding to the designated character to the simulation apparatus 1.
[0054]
As will be described later with reference to the flowchart of FIG. 10, when the simulation apparatus 1 receives data designating the other party from the user terminal 3, the simulation apparatus 1 outputs the data to the designated user terminal in step S <b> 54. When the other user terminal that has received the designated data responds, it outputs an OK signal in step S43 of FIG. When receiving the OK signal, the simulation apparatus 1 executes a process of connecting the designated user terminal and the designated user terminal communication network in step S57 of FIG.
[0055]
Therefore, after confirming the reception of the OK signal in step S34 in FIG. 9, the user terminal 3 executes a two-way conversation using the voice signal with the designated partner in step S35.
[0056]
At this time, the audio signal input from the microphone 46 of the predetermined user terminal 3 is output to the simulation apparatus 1 via the interface 48 and the communication device 44. As described above, since the simulation apparatus 1 is connected to the communication network by voice signals, the voice signals are output to the user terminal 3 to which the designated character corresponds. And it outputs from the speaker 47 of the user terminal 3.
[0057]
Similarly, an audio signal input from the microphone 46 of the specified user terminal 3 is output to the speaker 47 of the user terminal specifying the character. As a result, a conversation using a bidirectional audio signal is performed.
[0058]
This conversation is repeatedly executed until it is instructed to end in step S36 by operating a predetermined key of the keyboard 49a of the user terminal 3 or until it is determined in step S37 that the mode has been changed to the synthesis mode. The
[0059]
If it is determined in step S36 that the end of the conversation has been commanded, the process proceeds to step S38, and processing for outputting an end signal is executed.
[0060]
When receiving the end signal, the simulation apparatus 1 detects this in step S58 in FIG. 10 and executes a process for releasing the connection of the communication network.
[0061]
On the other hand, if it is determined in step S31 that the mode is the composite mode, the process proceeds to step S39, where a user terminal corresponding to an unspecified character located in a space (region) in a predetermined virtual reality space or A conversation with the simulation device is executed.
[0062]
That is, as will be described later with reference to FIG. 10, in the synthesis mode, in step S62, a plurality of characters located in a predetermined area can be talked with each other. Accordingly, the user terminal 3 can have a conversation with the user terminal or the simulation apparatus corresponding to the unspecified character in the predetermined area until it is determined in step S40 that the synthesis mode has been completed. .
[0063]
During the conversation in the single mode, if it is determined in step S37 that the mode has been changed to the synthesis mode, the process proceeds from step S37 to step S39, and the subsequent processing is similarly executed.
[0064]
FIG. 10 shows an example of conversation processing in the simulation apparatus 1. First, in step S51, a setting process for the synthesis mode or the independent mode is performed. This setting is performed by operating the synthesis mode switching button 29g of the simulation apparatus 1. Next, in step S52, it is determined whether or not the set mode is the combination mode. If it is determined that the set mode is not the combination mode (independent mode), the process proceeds to step S53, and the user terminal 3 determines the predetermined mode. It is determined whether or not the designation data designating the character is received. When it is determined that the designated data has been received, the process proceeds to step S54, and the designated data is output to the user terminal 3 to which the designated character corresponds.
[0065]
In step S55, it is determined whether an OK signal is received from the user terminal that supplied the designated data. If the OK signal has not been received, the process proceeds to step S56 to determine whether or not to change the mode from the independent mode to the synthesis mode. If not changed, the process returns to step S53 and the subsequent processing is repeated.
[0066]
If it is determined in step S55 that an OK signal has been received, the process proceeds from step S55 to step S57, and communication is performed so that a user terminal that has designated a character and a user terminal that has output the OK signal can have a conversation using an audio signal. Execute processing to connect the network.
[0067]
Next, the process proceeds to step S58, where it is determined whether or not a conversation end signal has been received. If not, the process proceeds to step S59, where it is determined whether or not the independent mode has been changed. If not, the process returns to step S57. Thereby, the conversation by a bidirectional | two-way audio | voice signal is continued between the user terminal or simulation apparatus which designated the character, and the user terminal or simulation apparatus of the designated character.
[0068]
When the user terminal 3 outputs an end signal in step S38 in FIG. 9 and the simulation apparatus 1 receives this signal in step S58 in FIG. 10, the process returns to step S53, and the subsequent processing is repeated. In step S59, it is determined whether or not the mode is changed from the independent mode to the synthesis mode. When the mode is changed, the process returns to step S51, and the process for setting the predetermined mode is executed by operating the synthesis mode switching button 29g. .
[0069]
In step S51, when the composition mode is set by operating the composition mode switching button 29g, the process proceeds from step S52 to step S60, and it is determined whether or not the region for setting the composition mode is designated. When designating an area for which the synthesis mode is set, the process proceeds to step S61, and an area designation process is executed.
[0070]
That is, when setting the area to which the synthesis mode is applied, the area designating device 29h of the input device 29 is operated to designate a predetermined area as the area to which the synthesis mode is applied.
[0071]
For example, in a city space that forms a virtual reality space, assuming that a power outage has occurred in a building or residence in a given block, if you want to know the movement of each character in that case, you can use the composite mode in that block. Can be set. Alternatively, when a road is formed at a predetermined position in the virtual reality space and the influence of noise caused by vehicles traveling on the road is examined, an area within a predetermined range from the road is designated. Can do.
[0072]
If it is determined in step S60 that it is not particularly necessary to designate a region, the region designation process in step S61 is skipped. In this case, the synthesis mode is set in all regions (all spaces forming the virtual reality space).
[0073]
Next, the process proceeds to step S62, where a communication network based on the audio signal of the user terminal 3 corresponding to the character located in the designated area or all the spaces is connected to each other. In step S63, a conversation based on the audio signal is performed. Make it. This process is repeatedly executed until it is determined in step S64 that the mode is changed from the synthesis mode to the independent mode.
[0074]
In the synthesis mode, in the area where the synthesis mode is set, all the audio signals generated by the user terminals corresponding to the characters located in the area are synthesized and supplied to other user terminals. On the other hand, in the independent mode, a conversation is performed only between the user terminal that designates the character and the user terminal that corresponds to the designated character.
[0075]
However, such a conversation is impossible in a real space. That is, in an actual space, audio signals from surrounding characters are always input. In other words, a state in which an audio signal from such an unintended surrounding character is input is a more natural state. Therefore, in order to realize a more natural state, this synthesis mode is set.
[0076]
However, if all voice signals generated by characters located in a predetermined area are synthesized at the same level and supplied to each user terminal, it is difficult to substantially hear the voice signal at each user terminal. Become. Therefore, for each user terminal, a voice signal output by a character located far from the character centering on the corresponding character is synthesized such that it is attenuated as the distance increases. By doing so, it is possible to generate a sense of reality that is closer to the real space.
[0077]
The image provided in the virtual reality space is basically a highly accurate image generated by computer graphics. Therefore, by viewing this from all angles, it is possible to cause each user terminal to experience almost the same experience as in an actual space.
[0078]
In this virtual reality space, a large number of buildings, houses, rivers, and the like are appropriately arranged. And the problem in the city space can be grasped | ascertained by performing the process which moves the character corresponding to a some user terminal.
[0079]
【The invention's effect】
As described above, according to the simulation system of the present invention, the position of one's own character.When, Other characterspositionIn response toGenerate virtual space imageAs a result, the virtual reality space can be experienced in a state closer to the real space.. Also,It is possible to actually test and judge problems in the virtual reality space.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a simulation system of the present invention.
FIG. 2 is a block diagram illustrating a configuration example of the simulation apparatus 1 of FIG.
FIG. 3 is a block diagram illustrating a configuration example of a user terminal 3 in FIG. 1;
4 is a diagram for explaining a virtual reality space formed by the simulation system of FIG. 1; FIG.
FIG. 5 is a diagram for explaining a field of view from a character C in FIG. 4;
6 is a diagram for explaining a field of view from a character D in FIG. 4;
FIG. 7 is a flowchart for explaining processing of the user terminal 3 of FIG. 1;
FIG. 8 is a flowchart for explaining processing of the simulation apparatus 1 of FIG. 1;
FIG. 9 is a flowchart illustrating conversation processing of the user terminal 3 of FIG.
10 is a flowchart for explaining conversation processing of the simulation apparatus 1 in FIG. 1;
[Explanation of symbols]
1 Simulation device
2 Database
3,3-1 to 3-N user terminal
21 CPU
22 ROM
23 RAM
24 Communication equipment
25 Display device
26 microphone
27 Speaker
28 interface
29 Input device
29a keyboard
29b mouse
29c Viewpoint input device
29d mobile input device
29e Overhead mode switch button
29f Overhead viewpoint input device
29g Composite mode switch button
29h area designation device
41 CPU
42 ROM
43 RAM
44 Communication equipment
45 Display device
46 microphone
47 Speaker
48 interface
49 Input device
49a keyboard
49b mouse
49c Viewpoint input device
49d mobile input device
49e Overhead mode switching button
49f Overhead viewpoint input device

Claims (14)

3次元の仮想空間を形成する画像データを記憶する記憶手段と、
前記記憶手段に記憶されている仮想空間の画像データを供給する供給手段と、
前記供給手段より前記仮想空間の画像データを受信して、仮想空間画像を生成する、前記供給手段に接続された複数の受信手段と
を備えるシミュレーションシステムにおいて、
前記受信手段は、前記仮想空間上において対応するキャラクタを有し、前記キャラクタの位置を入力して、前記供給手段に送信し、
前記供給手段は、前記キャラクタの位置における前記キャラクタの視点からの画像または前記キャラクタを含む前記仮想空間の俯瞰視点からの画像に対応する描画情報を前記記憶手段から読み出して、前記受信手段に供給するとともに、前記受信手段から供給された前記キャラクタの位置のデータを他の前記受信手段に供給し、
前記受信手段は、前記供給手段から、前記キャラクタの位置に対応する前記描画情報と、自分以外の前記受信手段のキャラクタの位置の提供を受けて自分のキャラクタの位置における前記キャラクタの視点からの仮想空間画像を生成するか、または前記描画情報と、自分以外のキャラクタの位置のデータと、自分のキャラクタの位置のデータとを用いて、自分のキャラクタの画像を含む俯瞰視点からの仮想空間画像を生成し、
前記供給手段は、前記仮想空間において地域が指定されることにより、ユーザ操作に応じて前記キャラクタに対応する音声信号の合成を行う範囲を設定する設定手段をさらに備え、
前記供給手段は、前記設定手段により設定された範囲内に位置する複数の前記キャラクタに対応する音声信号を合成して、受信手段に供給する
ことを特徴とするシミュレーションシステム。
Storage means for storing image data forming a three-dimensional virtual space;
Supply means for supplying image data of the virtual space stored in the storage means;
A simulation system comprising: a plurality of receiving means connected to the supplying means for receiving the image data of the virtual space from the supplying means and generating a virtual space image;
The receiving means has a corresponding character in the virtual space, inputs the position of the character, transmits to the supply means,
The supply means reads out drawing information corresponding to an image from the viewpoint of the character at the position of the character or an image from an overhead viewpoint of the virtual space including the character from the storage means, and supplies the drawing information to the reception means And supplying the position data of the character supplied from the receiving means to the other receiving means,
The receiving means receives from the supply means the drawing information corresponding to the position of the character and the positions of the characters of the receiving means other than itself, and receives a virtual view from the viewpoint of the character at the position of the own character. A space image is generated, or a virtual space image from an overhead view including an image of one's character is generated using the drawing information, character position data other than oneself, and one's character position data. generated,
The supply means further comprises a setting means for setting a range for synthesizing a voice signal corresponding to the character in response to a user operation by designating an area in the virtual space,
The simulation system characterized in that the supply means synthesizes voice signals corresponding to the plurality of characters located within the range set by the setting means and supplies the synthesized voice signals to the reception means .
前記受信手段と供給手段の少なくとも一方は、自分のキャラクタを表示せず、自分以外のキャラクタを表示するキャラクタモードと、自分以外のキャラクタと自分のキャラクタの両方を表示する俯瞰モードとを切り換える俯瞰モード切換手段を有する
ことを特徴とする請求項1に記載のシミュレーションシステム。
At least one of the receiving means and the supplying means does not display its own character, but switches between a character mode in which a character other than itself is displayed and an overhead mode in which both the character other than itself and the own character are displayed. The simulation system according to claim 1, further comprising a switching unit.
前記受信手段と供給手段の少なくとも一方は、前記俯瞰モード時における俯瞰視点を入力する俯瞰視点入力手段を備える
ことを特徴とする請求項2に記載のシミュレーションシステム。
The simulation system according to claim 2, wherein at least one of the reception unit and the supply unit includes an overhead viewpoint input unit that inputs an overhead viewpoint in the overhead mode.
前記供給手段は、複数の前記キャラクタに対応する音声信号を合成する合成モードと、特定のキャラクタに対応する音声信号を授受する独立モードとを選択する選択手段を備える
ことを特徴とする請求項に記載のシミュレーションシステム。
Said supply means according to claim 1, characterized in that it comprises a combination mode for synthesizing a speech signal corresponding to a plurality of said characters, a selection means for selecting the independent mode for exchanging speech signals corresponding to a particular character The simulation system described in 1.
前記受信手段は、前記供給手段から提供された前記画像データと他のユーザ端末の前記キャラクタの位置のデータを用いて、自己に対応するキャラクタを表示せずに、自己以外のユーザ端末に対応するキャラクタを表示する仮想空間画像を生成する
ことを特徴とする請求項1に記載のシミュレーションシステム。
The receiving means uses the image data provided from the supplying means and the position data of the character of another user terminal, and does not display a character corresponding to the user, but corresponds to a user terminal other than the self. The simulation system according to claim 1, wherein a virtual space image for displaying a character is generated.
ユーザ端末に仮想空間を形成するデータを提供する仮想空間提供装置において、
仮想空間を形成するデータを記憶する記憶手段と、
複数の前記ユーザ端末から、前記ユーザ端末に対応する仮想空間上のキャラクタの位置に対応するデータを受信する受信手段と、
受信した前記ユーザ端末に対応するキャラクタの位置における前記キャラクタの視点からの画像または前記キャラクタを含む前記仮想空間の俯瞰視点からの画像に対応する描画情報を前記記憶手段から読み出して前記ユーザ端末に送信すると共に、前記ユーザ端末から受信した前記キャラクタの位置のデータを他のユーザ端末に送信する送信手段と、
複数の前記ユーザ端末から受信した前記キャラクタに対応する音声信号を合成する合成手段と、
前記仮想空間において地域が指定されることにより、前記キャラクタに対応する音声信号の合成を行う範囲を設定する設定手段とを備え、
前記合成手段は、前記設定手段により設定された範囲内に位置する複数の前記ユーザ端末の音声信号を合成し、
前記送信手段は、前記合成した音声信号を前記ユーザ端末にさらに送信する
ことを特徴とする仮想空間提供装置。
In a virtual space providing device that provides data forming a virtual space to a user terminal,
Storage means for storing data forming a virtual space;
Receiving means for receiving data corresponding to the position of the character in the virtual space corresponding to the user terminal from a plurality of the user terminals;
The drawing information corresponding to the received image from the viewpoint of the character at the position of the character corresponding to the user terminal or the image from the overhead view of the virtual space including the character is read from the storage means and transmitted to the user terminal. And transmitting means for transmitting the character position data received from the user terminal to another user terminal,
Synthesizing means for synthesizing audio signals corresponding to the characters received from a plurality of the user terminals;
Setting means for setting a range for synthesizing a voice signal corresponding to the character by designating a region in the virtual space ;
The synthesizing unit synthesizes audio signals of a plurality of the user terminals located within a range set by the setting unit,
The virtual space providing apparatus , wherein the transmission unit further transmits the synthesized audio signal to the user terminal .
前記合成手段は、各ユーザ端末に対応するキャラクタを中心として、そのキャラクタから遠い位置に位置するキャラクタに対応するユーザ端末から受信した音声信号は、その距離が遠いほど大きく減衰するようにして合成する
ことを特徴とする請求項に記載の仮想空間提供装置。
The synthesizing unit synthesizes a voice signal received from a user terminal corresponding to a character located at a position far from the character centered on a character corresponding to each user terminal so that the voice signal is attenuated as the distance increases. The virtual space providing device according to claim 6 .
複数のユーザ端末から受信した音声信号を合成して送信するモードと、特定のユーザ端末から受信した音声信号を送信するモードとを選択する選択手段を更に備える
ことを特徴とする請求項に記載の仮想空間提供装置。
7. The method according to claim 6 , further comprising selection means for selecting a mode for synthesizing and transmitting audio signals received from a plurality of user terminals and a mode for transmitting audio signals received from a specific user terminal. Virtual space providing device.
ユーザ端末に仮想空間を形成するデータを提供する仮想空間提供装置の仮想空間提供方法において、
複数の前記ユーザ端末から、前記ユーザ端末に対応する仮想空間上のキャラクタの位置に対応するデータを受信する受信ステップと、
受信した前記ユーザ端末に対応するキャラクタの位置における前記キャラクタの視点からの画像または前記キャラクタを含む前記仮想空間の俯瞰視点からの画像に対応する描画情報を前記ユーザ端末に送信する送信ステップと、
前記ユーザ端末から受信した前記キャラクタの位置のデータを他のユーザ端末に送信するステップと、
前記仮想空間において地域が指定されることにより、前記キャラクタに対応する音声信号の合成を行う範囲を設定するステップと、
前記設定された範囲内に位置する複数の前記ユーザ端末から受信した前記音声信号を合成するステップとを備え、
前記合成した音声信号を前記ユーザ端末にさらに送信する
ことを特徴とする仮想空間提供方法。
In a virtual space providing method of a virtual space providing apparatus that provides data forming a virtual space to a user terminal,
A receiving step of receiving data corresponding to the position of the character in the virtual space corresponding to the user terminal from the plurality of user terminals;
A transmitting step of transmitting drawing information corresponding to an image from the viewpoint of the character at the position of the character corresponding to the received user terminal or an image from an overhead viewpoint of the virtual space including the character to the user terminal;
Transmitting the character position data received from the user terminal to another user terminal;
Setting a range for synthesizing an audio signal corresponding to the character by designating an area in the virtual space;
Synthesizing the audio signals received from a plurality of the user terminals located within the set range,
A method for providing a virtual space , further comprising transmitting the synthesized voice signal to the user terminal .
前記合成ステップは、各ユーザ端末に対応するキャラクタを中心として、そのキャラクタから遠い位置に位置するキャラクタに対応するユーザ端末から受信した音声信号は、その距離が遠いほど大きく減衰するようにして合成する
ことを特徴とする請求項に記載の仮想空間提供方法。
The synthesizing step synthesizes the voice signal received from the user terminal corresponding to the character located at a position far from the character centered on the character corresponding to each user terminal so that the voice signal is attenuated as the distance increases. The virtual space providing method according to claim 9 .
シミュレーション装置から仮想空間を形成するデータの提供を受けるユーザ端末装置において、
自己に対応する仮想空間上のキャラクタの位置を入力する入力手段と、
前記入力された自己に対応する仮想空間上のキャラクタの位置に対応するデータを前記シミュレーション装置に送信する送信手段と、
送信した自己に対応するキャラクタの位置に対応するデータに対応する描画情報を前記シミュレーション装置から受信すると共に、他のユーザ端末装置の前記キャラクタの位置のデータを受信する受信手段と、
前記仮想空間の画像の表示モードについて、自己に対応するキャラクタの視点からの画像を表示するキャラクタモードか、または自己に対応するキャラクタを含む仮想空間の俯瞰視点からの画像を表示する俯瞰モードのいずれかを選択するモード選択手段と、
前記モード選択手段により前記キャラクタモードが選択されている場合、前記描画情報と他のユーザ端末装置の前記キャラクタの位置のデータを用いて、自己に対応する仮想空間上のキャラクタの位置における前記キャラクタの視点からの仮想空間画像を生成し、前記モード選択手段により前記俯瞰モードが選択されている場合、前記描画情報と、他のユーザ端末装置のキャラクタの位置のデータと、自己のキャラクタの位置のデータとを用いて、自己のキャラクタの画像を含む俯瞰視点からの仮想空間画像を生成する生成手段とを備え、
前記受信手段は、前記仮想空間において地域が指定されることにより、前記キャラクタに対応する音声信号の合成を行う範囲が設定され、前記設定された範囲内に位置する複数のキャラクタに対応する音声信号が合成され、前記合成された音声信号を前記シミュレーション装置から受信する
ことを特徴とするユーザ端末装置。
In a user terminal device that receives provision of data forming a virtual space from a simulation device,
Input means for inputting the position of the character in the virtual space corresponding to the self;
Transmitting means for transmitting data corresponding to the position of the character in the virtual space corresponding to the input self to the simulation device;
Receiving means for receiving the drawing information corresponding to the data corresponding to the position of the character corresponding to the transmitted self from the simulation device, and receiving the data of the character position of the other user terminal device;
Regarding the display mode of the image in the virtual space, either the character mode for displaying an image from the viewpoint of the character corresponding to the self or the overhead view mode for displaying an image from the overhead view of the virtual space including the character corresponding to the self Mode selection means for selecting
When the character mode is selected by the mode selection means, the character information at the character position in the virtual space corresponding to the self is used by using the drawing information and the character position data of another user terminal device. When a virtual space image from a viewpoint is generated and the overhead mode is selected by the mode selection means, the drawing information, the character position data of another user terminal device, and the own character position data And generating means for generating a virtual space image from a bird's eye view including an image of the own character,
The receiving means sets a range for synthesizing a voice signal corresponding to the character by designating an area in the virtual space, and a voice signal corresponding to a plurality of characters located within the set range Is synthesized, and the synthesized voice signal is received from the simulation device.
前記生成手段は、前記描画情報と他のユーザ端末装置の前記キャラクタの位置のデータを用いて、自己に対応するキャラクタを表示せずに、自己以外のユーザ端末装置に対応するキャラクタを表示する仮想空間画像を生成する
ことを特徴とする請求項11に記載のユーザ端末装置。
The generation means uses the drawing information and the position data of the character of another user terminal device to display a character corresponding to a user terminal device other than the self without displaying the character corresponding to the self. The user terminal device according to claim 11 , wherein a spatial image is generated.
前記生成手段は、前記描画情報と他のユーザ端末装置の前記キャラクタの位置のデータを用いて、俯瞰視点から見た自己に対応するキャラクタを含む仮想空間画像を生成する
ことを特徴とする請求項21に記載のユーザ端末装置。
The generation unit generates a virtual space image including a character corresponding to the self viewed from an overhead viewpoint using the drawing information and data of the position of the character of another user terminal device. The user terminal device according to 21.
前記キャラクタモードと俯瞰モードとを切り替える俯瞰モード切替手段を更に備える
ことを特徴とする請求項21に記載のユーザ端末装置。
The user terminal apparatus according to claim 21, further comprising overhead mode switching means for switching between the character mode and the overhead mode.
JP22452094A 1994-09-20 1994-09-20 Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method Expired - Fee Related JP3780536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22452094A JP3780536B2 (en) 1994-09-20 1994-09-20 Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22452094A JP3780536B2 (en) 1994-09-20 1994-09-20 Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005350248A Division JP3815509B2 (en) 2005-12-05 2005-12-05 Simulation system, virtual space providing device and method, user terminal device, and virtual space image generation method

Publications (2)

Publication Number Publication Date
JPH0887605A JPH0887605A (en) 1996-04-02
JP3780536B2 true JP3780536B2 (en) 2006-05-31

Family

ID=16815091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22452094A Expired - Fee Related JP3780536B2 (en) 1994-09-20 1994-09-20 Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method

Country Status (1)

Country Link
JP (1) JP3780536B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6219045B1 (en) 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
JP3378726B2 (en) * 1996-05-24 2003-02-17 富士通株式会社 Machine design / manufacturing process support device
JPH1021215A (en) * 1996-06-28 1998-01-23 Ritsumeikan Method and device for generating cyber space
JP2019040328A (en) * 2017-08-24 2019-03-14 株式会社フォトロン Information distribution apparatus and information distribution system
JP6971282B2 (en) * 2019-08-30 2021-11-24 株式会社コロプラ Programs, methods, and information terminals
JP7191181B2 (en) * 2019-08-30 2022-12-16 株式会社コロプラ Program, method, and information terminal

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036162B2 (en) * 1991-10-22 2000-04-24 ソニー株式会社 Virtual space sharing method and virtual space sharing server
JP3376593B2 (en) * 1991-11-14 2003-02-10 株式会社日立製作所 Map data display device
JP2997590B2 (en) * 1991-11-29 2000-01-11 株式会社東芝 Electronic conference system and terminal device
JPH06149275A (en) * 1992-10-30 1994-05-27 Sega Enterp Ltd Three-dimensional virtual sound image forming device in consideration of three-dimensional virtual space information

Also Published As

Publication number Publication date
JPH0887605A (en) 1996-04-02

Similar Documents

Publication Publication Date Title
JP4152432B2 (en) Virtual reality network
US6813473B1 (en) Remote laboratory
JP4190590B2 (en) Virtual reality space providing method and virtual reality space providing device
JPH09247637A (en) Video audio communication system, video communication system and transmission and reception terminals
CN109478342B (en) Image display device and image display system
JP2006101329A (en) Stereoscopic image observation device and its shared server, client terminal and peer to peer terminal, rendering image creation method and stereoscopic image display method and program therefor, and storage medium
JP3815509B2 (en) Simulation system, virtual space providing device and method, user terminal device, and virtual space image generation method
JP3780536B2 (en) Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method
JP3036162B2 (en) Virtual space sharing method and virtual space sharing server
JP2005100087A (en) Field monitoring system and method
JPH0970030A (en) Image display method for virtual conference system and virtual conference terminal equipment
US6028609A (en) Picture display method and apparatus
KR101496899B1 (en) System and method for servicing remote help using virtual device simulation and tutorial service apparatus and method
JP2913624B1 (en) Disaster experience simulator
JP2897627B2 (en) Conference environment control device
KR102540516B1 (en) Apparatus, user device and method for providing augmented reality contents
KR100238072B1 (en) Virtual space realization apparatus for video conference system
JPH09102051A (en) Sound field control method and sound field controller
WO2023190091A1 (en) Virtual realty conferencing system
JPH0424914B2 (en)
Retik et al. Integrating virtual reality and telepresence to remotely monitor construction sites: A ViRTUE project
JPH096577A (en) Device and method for image display
JP2003101989A (en) Virtual appreciation method, appreciation server device, terminal, and program
JP4166290B2 (en) Cyber space system, information processing method, virtual space providing device, and virtual space providing method
JP2002245294A (en) Model dwelling house system utilizing virtual space

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060227

LAPS Cancellation because of no payment of annual fees