JP3780536B2 - Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method - Google Patents
Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method Download PDFInfo
- Publication number
- JP3780536B2 JP3780536B2 JP22452094A JP22452094A JP3780536B2 JP 3780536 B2 JP3780536 B2 JP 3780536B2 JP 22452094 A JP22452094 A JP 22452094A JP 22452094 A JP22452094 A JP 22452094A JP 3780536 B2 JP3780536 B2 JP 3780536B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- user terminal
- virtual space
- image
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
- Processing Or Creating Images (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、例えば所定の都市空間を設計し、その都市空間の問題点などをテストする場合に用いて好適なシミュレーションシステム、仮想空間提供装置及び方法、並びにユーザ端末装置及び仮想空間画像生成方法に関する。
【0002】
【従来の技術】
最近、バーチャルリアリティ(仮想現実空間)を利用した装置が開発されている。
【0003】
例えば、住宅を設計する場合において、所定の間取りや仕様を決定すると、それに対応する住宅の画像をバーチャルリアリティで生成し、その画像を、その住宅を発注した注文者に対して、ヘッドマウントディスプレイなどを用いて表示する装置が知られている。発注者は、このヘッドマウントディスプレイに表示されるバーチャルリアリティから、自分があたかもその住宅において実際に生活しているような感覚で、その住宅を体験し、テストすることができる。これにより、単に設計図面上から住宅を見る場合に比べて、住宅の不便な点などを容易に発見することができる。
【0004】
同様に、住宅ではなく、都市空間をバーチャルリアリティとして提供する装置も知られている。
【0005】
【発明が解決しようとする課題】
しかしながら、従来のこのような装置は、複数のユーザが同時にバーチャルリアリティを体験(テスト)することができず、従って、複数の人間が所定の空間を同時に利用することによる問題点などを発見することができない課題があった。
【0006】
本発明はこのような状況に鑑みてなされたものであり、複数の利用者が所定の空間を同時に利用する場合における問題点などをテストすることを可能にするものである。
【0007】
【課題を解決するための手段】
本発明のシミュレーションシステムは、受信手段は、仮想空間上において対応するキャラクタを有し、キャラクタの位置を入力して、供給手段に送信し、供給手段は、キャラクタの位置におけるキャラクタの視点からの画像またはキャラクタを含む仮想空間の俯瞰視点からの画像に対応する描画情報を記憶手段から読み出して、受信手段に供給するとともに、受信手段から供給されたキャラクタの位置のデータを他の受信手段に供給し、受信手段は、供給手段から、キャラクタの位置に対応する描画情報と、自分以外の受信手段のキャラクタの位置の提供を受けて自分のキャラクタの位置におけるキャラクタの視点からの仮想空間画像を生成するか、または描画情報と、自分以外のキャラクタの位置のデータと、自分のキャラクタの位置のデータとを用いて、自分のキャラクタの画像を含む俯瞰視点からの仮想空間画像を生成し、供給手段は、仮想空間において地域が指定されることにより、ユーザ操作に応じてキャラクタに対応する音声信号の合成を行う範囲を設定する設定手段をさらに備え、供給手段は、設定手段により設定された範囲内に位置する複数のキャラクタに対応する音声信号を合成して、受信手段に供給することを特徴とする。
【0008】
受信手段と供給手段の少なくとも一方は、自分のキャラクタを表示せず、自分以外のキャラクタを表示するキャラクタモードと、自分以外のキャラクタと自分のキャラクタの両方を表示する俯瞰モードとを切り換える俯瞰モード切換手段を設けることができる。
【0009】
受信手段と供給手段の少なくとも一方には、俯瞰モード時における俯瞰視点を入力する俯瞰視点入力手段をさらに設けることができる。
【0010】
前記供給手段は、複数のキャラクタに対応する音声信号を合成する合成モードと、特定のキャラクタに対応する音声信号を授受する独立モードとを選択する選択手段を備えることができる。
前記受信手段は、供給手段から提供された画像データと他のユーザ端末のキャラクタの位置のデータを用いて、自己に対応するキャラクタを表示せずに、自己以外のユーザ端末に対応するキャラクタを表示する仮想空間画像を生成することができる。
本発明の仮想空間提供装置は、仮想空間を形成するデータを記憶する記憶手段と、複数のユーザ端末から、ユーザ端末に対応する仮想空間上のキャラクタの位置に対応するデータを受信する受信手段と、受信したユーザ端末に対応するキャラクタの位置におけるキャラクタの視点からの画像またはキャラクタを含む仮想空間の俯瞰視点からの画像に対応する描画情報を記憶手段から読み出してユーザ端末に送信すると共に、ユーザ端末から受信したキャラクタの位置のデータを他のユーザ端末に送信する送信手段と、複数のユーザ端末から受信したキャラクタに対応する音声信号を合成する合成手段と、仮想空間において地域が指定されることにより、キャラクタに対応する音声信号の合成を行う範囲を設定する設定手段とを備え、合成手段は、設定手段により設定された範囲内に位置する複数のユーザ端末の音声信号を合成し、送信手段は、合成した音声信号をユーザ端末にさらに送信することを特徴とする。
前記合成手段は、各ユーザ端末に対応するキャラクタを中心として、そのキャラクタから遠い位置に位置するキャラクタに対応するユーザ端末から受信した音声信号は、その距離が遠いほど大きく減衰するようにして合成することができる。
複数のユーザ端末から受信した音声信号を合成して送信するモードと、特定のユーザ端末から受信した音声信号を送信するモードとを選択する選択手段を更に備えることができる。
本発明の仮想空間提供方法は、複数のユーザ端末から、ユーザ端末に対応する仮想空間上のキャラクタの位置に対応するデータを受信する受信ステップと、受信したユーザ端末に対応するキャラクタの位置におけるキャラクタの視点からの画像またはキャラクタを含む仮想空間の俯瞰視点からの画像に対応する描画情報をユーザ端末に送信する送信ステップと、ユーザ端末から受信したキャラクタの位置のデータを他のユーザ端末に送信するステップと、仮想空間において地域が指定されることにより、キャラクタに対応する音声信号の合成を行う範囲を設定するステップと、設定された範囲内に位置する複数のユーザ端末から受信した音声信号を合成するステップとを備え、合成した音声信号をユーザ端末にさらに送信することを特徴とする。
前記合成ステップは、各ユーザ端末に対応するキャラクタを中心として、そのキャラクタから遠い位置に位置するキャラクタに対応するユーザ端末から受信した音声信号は、その距離が遠いほど大きく減衰するようにして合成することができる。
本発明のユーザ端末装置は、自己に対応する仮想空間上のキャラクタの位置を入力する入力手段と、入力された自己に対応する仮想空間上のキャラクタの位置に対応するデータをシミュレーション装置に送信する送信手段と、送信した自己に対応するキャラクタの位置に対応するデータに対応する描画情報をシミュレーション装置から受信すると共に、他のユーザ端末装置のキャラクタの位置のデータを受信する受信手段と、仮想空間の画像の表示モードについて、自己に対応するキャラクタの視点からの画像を表示するキャラクタモードか、または自己に対応するキャラクタを含む仮想空間の俯瞰視点からの画像を表示する俯瞰モードのいずれかを選択するモード選択手段と、モード選択手段によりキャラクタモードが選択されている場合、描画情報と他のユーザ端末装置のキャラクタの位置のデータを用いて、自己に対応する仮想空間上のキャラクタの位置におけるキャラクタの視点からの仮想空間画像を生成し、モード選択手段により俯瞰モードが選択されている場合、描画情報と、他のユーザ端末装置のキャラクタの位置のデータと、自己のキャラクタの位置のデータとを用いて、自己のキャラクタの画像を含む俯瞰視点からの仮想空間画像を生成する生成手段とを備え、受信手段は、仮想空間において地域が指定されることにより、 キャラクタに対応する音声信号の合成を行う範囲が設定され、設定された範囲内に位置する複数のキャラクタに対応する音声信号が合成され、合成された音声信号を前記シミュレーション装置から受信することを特徴とする。
前記生成手段は、描画情報と他のユーザ端末装置のキャラクタの位置のデータを用いて、自己に対応するキャラクタを表示せずに、自己以外のユーザ端末装置に対応するキャラクタを表示する仮想空間画像を生成することができる。
前記生成手段は、描画情報と他のユーザ端末装置のキャラクタの位置のデータを用いて、俯瞰視点から見た自己に対応するキャラクタを含む仮想空間画像を生成することができる。
キャラクタモードと俯瞰モードとを切り替える俯瞰モード切替手段を更に備えることができる。
【0011】
【作用】
上記構成のシミュレーションシステムにおいては、受信手段は、キャラクタの位置に対応する画像データと、自分以外の受信手段のキャラクタの位置の提供を受けて仮想空間画像を生成する。従って、複数のキャラクタが同時に所定の仮想現実空間を利用する場合における各種の問題点を把握することが可能となる。
【0012】
【実施例】
図1は、本発明のシミュレーションシステムの構成例を表している。この実施例においては、複数の(N台の)ユーザ端末3−1乃至3−Nが、例えば光ファイバを利用した広帯域通信網を介してシミュレーション装置1に接続されている。シミュレーション装置1はデータベース2を有し、このデータベース2には、仮想現実空間を形成する画像データが記憶されている。
【0013】
ユーザ端末3−1乃至3−Nは、仮想現実空間上において、対応するキャラクタを有し、そのキャラクタの位置と視点に対応するデータをシミュレーション装置1に供給すると、シミュレーション装置1は、このキャラクタの位置と視点に対応する画像データをデータベース2より読み出し、ユーザ端末3−1乃至3−Nに供給するようになされている。
【0014】
図2は、シミュレーション装置1の構成例を示している。同図に示すように、シミュレーション装置1はCPU21を備え、このCPU21は、ROM22に記憶されているプログラムに従って各種の処理を実行するようになされている。RAM23には、CPU21が各種の処理を実行する上において必要なデータ、プログラム等が適宜記憶されるようになされている。通信装置24は、ユーザ端末3(3−1乃至3−N)に対して所定のデータを授受するようになされている。
【0015】
表示装置25は、CRT、LCDなどを備え、シミュレーション装置1が提供する仮想現実空間の画像をモニタすることができるように、インタフェース28に接続されている。このインタフェース28にはまた、マイク26とスピーカ27が接続されており、所定の音声信号をユーザ端末3に供給したり、ユーザ端末3からの音声信号をモニタすることができるようになされている。
【0016】
また、シミュレーション装置1は入力装置29を備え、インタフェース28を介して、各種の入力を行うことができるようになされている。この入力装置29は、キーボード29a、マウス29b、視点入力装置29c、移動入力装置29d、俯瞰モード切換釦29e、俯瞰視点入力装置29f、合成モード切換釦29g、地域指定装置29hを有している。
【0017】
キーボード29aは、所定の文字や記号などを入力するとき操作されるようになされている。マウス29bは、所定の位置を指定するとき操作されるようになされている。視点入力装置29cは、シミュレーション装置1の対応するキャラクタの視点を入力するとき操作される。これにより、キャラクタの視点を上下左右の方向に移動させたり、所定の画像をズームすることができるようになされている。また、移動入力装置29dは、キャラクタを前後左右の方向に、所定の速度で移動させるための入力を行うことができるようになされている。
【0018】
俯瞰モード切換釦29eは、表示装置25に仮想現実空間の画像を表示させるモードを、キャラクタモードまたは俯瞰モードに切り換えるとき操作される。キャラクタモードにおいては、対応するキャラクタの視点からの画像が表示され、俯瞰モードにおいては、対応するキャラクタを含む仮想現実空間の画像を俯瞰視点から見た画像が表示される。俯瞰視点入力装置29fは、俯瞰モード時において、表示装置25に表示する画像の俯瞰視点を入力するとき操作される。
【0019】
また、合成モード切換釦29gは、合成モードと単独モードを切り換えるとき操作される。単独モード時においては、所定のユーザ端末3またはシミュレーション装置1と、それらにより指定された他のユーザ端末3との間における音声信号のみが相互に授受される。これに対して、合成モード時においては、所定の仮想現実空間内に位置するキャラクタに対応するユーザ端末3より入力される音声信号を、全て合成して、それらのユーザ端末3に対して伝送される。
【0020】
図3は、ユーザ端末3(3−1乃至3−N)の構成例を示している。ユーザ端末3はCPU41を備え、このCPU41は、ROM42に記憶されているプログラムに従って各種の処理を実行するようになされている。RAM43には、CPU41が各種の処理を実行する上において必要なデータやプログラム等が適宜記憶されるようになされている。通信装置44は、シミュレーション装置1に対してデータを授受するようになされている。
【0021】
表示装置45は、CRT、LCDなどを備え、CG(コンピュータグラフィック)の3次元画像や、通常のビデオカメラなどにより撮影された3次元の画像を表示することができるようになされている。マイク46は、音声信号を、シミュレーション装置1や他のユーザ端末に出力するとき利用される。また、スピーカ47は、シミュレーション装置1や他のユーザ端末より音声信号が伝送されてきたとき、これを出力する。入力装置49は、各種の入力を行うとき操作されるようになされている。
【0022】
このユーザ端末3の入力装置49におけるキーボード49a乃至俯瞰視点入力装置49fは、図2に示したシミュレーション装置1の入力装置29におけるキーボード29a乃至俯瞰視点入力装置29fと対応するものである。
【0023】
インタフェース48は、表示装置45、マイク46、スピーカ47、および入力装置49に対するデータのインタフェースを構成している。
【0024】
図4は、図1に示したシミュレーション装置1により提供される仮想現実空間を模式的に表している。同図に示すように、この仮想現実空間は、町を構成しており、キャラクタC(例えばユーザ端末3−1のキャラクタ)や、キャラクタD(例えばユーザ端末3−2のキャラクタ)が、この町(仮想現実空間)を移動することができるようになされている。
【0025】
キャラクタCは、仮想現実空間における位置と視点から、例えば図5に示すような画像を見ることになる。即ち、キャラクタモード時、ユーザ端末3−1の表示装置25には、図5に示すような画像がシミュレーション装置1から提供され、表示される。そして、そのキャラクタCの視点と位置を、視点入力装置49cと移動入力装置49dを操作することで変更すると、それに対応して、シミュレーション装置1から供給される仮想現実空間を形成する3次元画像が変化される。
【0026】
同様に、キャラクタDが対応するユーザ端末3−2の表示装置には、キャラクタモード時、図6に示すような画像がシミュレーション装置1から提供され、表示される。そして、その表示画像も、キャラクタDの視点と位置を移動させることで変化される。
【0027】
図4に示す状態において、キャラクタCはキャラクタDの方向を見ている。従って、図5に示すように、ユーザ端末3−1の表示装置25に表示される画像(仮想現実空間)には、キャラクタDが表示されている。
【0028】
同様に、図4において、キャラクタDはキャラクタCの方向を見ている。このため、図6に示すように、ユーザ端末3−2の表示装置25に表示される画像(仮想現実空間)には、キャラクタCが表示される。
【0029】
これに対して、例えばユーザ端末3−2において俯瞰モードを指定すると、図4に示すように、自分のキャラクタCを含む俯瞰的画像が表示される。
【0030】
次に、図7乃至図10のフローチャートを参照して、ユーザ端末3とシミュレーション装置1の動作について説明する。
【0031】
図7は、ユーザ端末3の処理例を表している。最初にステップS1において、ユーザ端末3の俯瞰モード切換ボタン49eを操作して、俯瞰モードまたはキャラクタモードのいずれかを設定する。次にステップS2において、位置または視点を変更するか否かを判定する。キャラクタモード時においては、キャラクタの仮想現実空間内における位置を、移動入力装置49dを操作することで入力する。またキャラクタの視点を、視点入力装置49cを操作することで入力する。俯瞰モード時においては、その位置は、移動入力装置49dを操作することで入力され、俯瞰視点は、俯瞰視点入力装置49fを操作することで入力される。
【0032】
位置または視点を変更したとき、ステップS3に進み、位置または視点に対応するデータをシミュレーション装置1に出力する処理が実行される。即ち、CPU41は、視点入力装置49c、移動入力装置49d、俯瞰視点入力装置49fなどの操作に対応するデータを、通信装置44を介してシミュレーション装置1へ出力する。
【0033】
シミュレーション装置1においては、図8を参照して後述するように、この位置と視点のデータを受信したとき、ステップS22において、この位置と視点に対応する画像データをデータベース2より読み出し、ユーザ端末3に出力する。
【0034】
そこで、ユーザ端末3においては、ステップS4において、シミュレーション装置1が出力した描画情報を受信し、それに対応して、仮想現実空間を形成する、例えば都市計画画像を生成する。
【0035】
即ち、CPU41は、シミュレーション装置1より、描画情報を通信装置44を介して受信したとき、この描画情報を一旦RAM43に記憶させる。そして、この描画情報に対応して3次元の仮想現実空間を形成する画像を生成し、インタフェース48を介して表示装置45に表示させる。これにより、表示装置45には、例えば計画した都市の3次元画像が表示される。
【0036】
ステップS3とステップS4の処理は、位置または視点が変更された場合においてのみ実行される。位置または視点を変更する必要がない場合、既に表示装置45に表示されている画像を変化させる必要がない。従って、この場合においては、ステップS3とステップS4の処理はスキップされる。
【0037】
次にステップS5に進み、現在のモードが俯瞰モードであるか否かが判定される。俯瞰モードである場合においては、ステップS6に進み、自分のキャラクタの画像を、視点入力装置49cと移動入力装置49dを操作することで、入力した視点と位置に対応して生成する。そして、自分のキャラクタの画像を表示装置45に出力し、表示させる。
【0038】
現在のモードが俯瞰モードではない場合、即ち、キャラクタモードである場合、自分のキャラクタの位置と視点に対応する画像が表示装置45に表示されるため、自分のキャラクタの画像は、自分の表示装置45に表示させる必要はない。そこで、この場合においては、ステップS6の処理はスキップされる。
【0039】
次にステップS7に進み、他のユーザ端末3またはシミュレーション装置1のキャラクタの位置と視点のデータを受信する。そしてステップS8において、ステップS7で受信した位置と視点のデータから、そのキャラクタの位置または視点が変更されたか否かを判定し、変更された場合においては、ステップS9に進み、その新たな位置または視点におけるキャラクタの画像を生成し、これを表示装置45に出力し、表示させる。
【0040】
これに対して、ステップS8において、他のキャラクタの位置または視点が変更されていないと判定された場合においては、ステップS9の処理はスキップされる。即ち、そのキャラクタの画像は変更されない。
【0041】
次にステップS10に進み、モード(俯瞰モードまたはキャラクタモード)を変更するか否かを判定し、変更しない場合においては、ステップS2に戻り、それ以降の処理を繰り返し実行する。
【0042】
これに対して、モードを変更する場合においては、ステップS1に戻り、新たなモードを設定し、ステップS2に進み、それ以降の処理を繰り返す。
【0043】
以上のようにして、例えばユーザ端末3−2において、キャラクタモードを指定した場合、自分のキャラクタの位置と視点に対応して、例えば図6に示すような画像が表示装置45に表示される。
【0044】
これに対して、俯瞰モードを設定した場合においては、その位置と俯瞰視点に対応して、図4に示すような画像が表示装置45に表示される。
【0045】
図8は、ユーザ端末3が、図7のフローチャートに示すような処理を実行した場合におけるシミュレーション装置1の処理例を表している。最初にステップS21において、ユーザ端末3より、対応するキャラクタの位置または視点を変更するデータを受信するまで待機し、受信したとき、ステップS22に進み、受信した位置または視点データに対応する描画情報をデータベース2より読み出し、その位置または視点データを出力したユーザ端末3に出力する。このステップS22で出力したデータが、ユーザ端末3において、図7のステップS4において受信され、処理されることになる。
【0046】
次にステップS23に進み、ステップS21で受信した位置または視点データを、関連する他のユーザ端末にも出力する。このステップS23で出力したデータが、ユーザ端末3において、図7のステップS7において受信される。
【0047】
尚、ここにおいて、他のユーザ端末が関連するか否かは、そのユーザ端末の位置と視点から判断される。即ち、例えばユーザ端末3−1のキャラクタCの位置または視点が変更された場合、このキャラクタCを表示装置に表示しているユーザ端末であって、ユーザ端末3−1以外のユーザ端末が、ここにおける関連する他のユーザ端末となる。
【0048】
ステップS23の処理の後、ステップS21に戻り、同様の処理が繰り返し実行される。
【0049】
尚、図8には、ユーザ端末3の操作に対応するシミュレーション装置1の処理を説明したが、シミュレーション装置1は、ユーザ端末3が有する機能を同様に有しており、図7を参照して説明したユーザ端末3の処理は、シミュレーション装置1においても同様に行うことができるようになされている。
【0050】
以上のようにして、各ユーザ端末3の表示装置45と、シミュレーション装置1の表示装置25には、仮想現実空間における都市の画像が所定の数のキャラクタの画像とともに、表示される。
【0051】
次に図9のフローチャートを参照して、ユーザ端末3における他のユーザ端末3またはシミュレーション装置1との音声信号による会話処理について説明する。
【0052】
最初にステップS31において、現在のモードが合成モードであるか否かが判定され、合成モードではない場合(独立モードである場合)、ステップS32に進み、相手画像を指定する処理が実行される。即ち、ユーザ端末3は、例えばマウス49bを操作して、対応するカーソル(図示せず)を、会話を行う相手として指定したいキャラクタ上に配置し、クリックすることで、キャラクタの指定を行う。
【0053】
次にステップS33に進み、指定された相手を特定するためのデータをシミュレーション装置1に出力する処理を実行する。即ち、ユーザ端末3のCPU41は、指定されたキャラクタに対応するデータをシミュレーション装置1に出力する。
【0054】
シミュレーション装置1は、図10のフローチャートを参照して後述するように、ユーザ端末3より、この相手を指定するデータを受信したとき、ステップS54において、これを、指定されたユーザ端末に出力する。指定データを受信した他のユーザ端末は、これに応答するとき、図9のステップS43でOK信号を出力する。シミュレーション装置1は、このOK信号を受信したとき、図10のステップS57で、指定したユーザ端末と指定されたユーザ端末の通信網を接続する処理を実行する。
【0055】
そこで、ユーザ端末3においては、図9のステップS34において、OK信号の受信を確認した後、ステップS35において、指定した相手と音声信号による双方向の会話を実行する。
【0056】
このとき、所定のユーザ端末3のマイク46より入力した音声信号は、インタフェース48、通信装置44を介してシミュレーション装置1に出力される。シミュレーション装置1は、上述したように、音声信号による通信網の接続を行っているため、この音声信号は、指定されたキャラクタが対応するユーザ端末3に出力される。そして、そのユーザ端末3のスピーカ47より出力される。
【0057】
同様に、指定されたユーザ端末3のマイク46より入力した音声信号が、キャラクタを指定したユーザ端末のスピーカ47に出力される。これにより、双方向の音声信号による会話が行われる。
【0058】
この会話は、ステップS36において、ユーザ端末3のキーボード49aの所定のキーを操作するなどして終了が指令されるか、ステップS37において、モードが合成モードに変更されたと判定されるまで繰り返し実行される。
【0059】
ステップS36において、会話の終了が指令されたと判定された場合においては、ステップS38に進み、終了信号を出力する処理が実行される。
【0060】
シミュレーション装置1は、この終了信号を受信したとき、図10のステップS58でこれを検出し、通信網の接続を解除する処理を実行する。
【0061】
一方、ステップS31において、モードが合成モードであると判定された場合においては、ステップS39に進み、所定の仮想現実空間内における空間(地域)内に位置する不特定のキャラクタに対応するユーザ端末またはシミュレーション装置との会話が実行される。
【0062】
即ち、図10を参照して後述するように、合成モード時においては、ステップS62において、所定の地域内に位置する複数のキャラクタ間において、相互に会話を行うことができるようになされる。従って、ユーザ端末3においては、この合成モードが終了されたとステップS40において判定されるまで、所定の地域内の不特定のキャラクタに対応するユーザ端末またはシミュレーション装置との会話を行うことが可能となる。
【0063】
単独モードにおける会話を行っている最中に、ステップS37において、合成モードに変更されたと判定された場合においては、ステップS37からステップS39に進み、それ以降の処理が同様に実行される。
【0064】
図10は、シミュレーション装置1における会話処理の例を表している。最初にステップS51において、合成モードまたは独立モードの設定処理が行われる。この設定は、シミュレーション装置1の合成モード切換釦29gを操作することで行われる。次にステップS52において、設定されたモードが合成モードであるか否かが判定され、合成モードではない(独立モードである)と判定された場合においては、ステップS53に進み、ユーザ端末3より所定のキャラクタを指定する指定データが受信されたか否かが判定される。指定データが受信されたと判定された場合、ステップS54に進み、指定データを、指定されたキャラクタが対応するユーザ端末3に出力する。
【0065】
次にステップS55に進み、指定データを供給したユーザ端末からOK信号が受信されたか否かを判定する。OK信号が受信されていない場合、ステップS56に進み、モードを独立モードから合成モードに変更するか否かを判定し、変更しない場合においては、ステップS53に戻り、それ以降の処理を繰り返す。
【0066】
ステップS55において、OK信号を受信したと判定した場合、ステップS55からステップS57に進み、キャラクタを指定したユーザ端末と、OK信号を出力したユーザ端末とを、音声信号による会話が可能なように通信網を接続する処理を実行する。
【0067】
次にステップS58に進み、会話終了信号が受信されたか否かが判定され、受信されない場合、ステップS59に進み、独立モードが変更されたか否かが判定され、変更されない場合、ステップS57に戻る。これにより、キャラクタを指定したユーザ端末またはシミュレーション装置と、指定されたキャラクタのユーザ端末またはシミュレーション装置との間で、双方向の音声信号による会話が継続される。
【0068】
ユーザ端末3が、図9のステップS38において終了信号を出力し、シミュレーション装置1において、図10のステップS58でこれを受信したとき、ステップS53に戻り、それ以降の処理を繰り返す。また、ステップS59において、独立モードから合成モードに変更するか否かを判定し、変更する場合、ステップS51に戻り、合成モード切換ボタン29gを操作して、所定のモードを設定する処理を実行する。
【0069】
ステップS51において、合成モード切換ボタン29gを操作することで、合成モードを設定した場合、ステップS52からステップS60に進み、合成モードを設定する地域を指定するか否かが判定される。合成モードを設定する地域を指定する場合、ステップS61に進み、地域指定処理が実行される。
【0070】
即ち、合成モードを適用する地域を設定する場合、入力装置29の地域指定装置29hを操作して、合成モードを適用する地域として所定の地域が指定される。
【0071】
例えば、仮想現実空間を形成する都市空間において、その所定のブロックのビルや住居において停電が発生したことを想定し、その場合における各キャラクタの動きを把握したいような場合、そのブロック内において合成モードを設定することができる。あるいはまた、仮想現実空間を形成する所定の位置に、道路を形成し、その道路を走行する車輌による騒音の及ぼす影響を調べるような場合において、その道路から所定の範囲内の地域を指定することができる。
【0072】
ステップS60において、特に地域を指定する必要がないと判定された場合、ステップS61の地域指定処理はスキップされる。この場合においては、全ての地域(仮想現実空間を形成する全ての空間)に合成モードが設定されることになる。
【0073】
次にステップS62に進み、指定された地域、あるいは全ての空間に位置するキャラクタに対応するユーザ端末3の音声信号による通信網を相互に接続し、ステップS63において、それらによる音声信号による会話を行わせる。この処理は、ステップS64において、合成モードから独立モードへモードを変更すると判定されるまで繰り返し実行される。
【0074】
この合成モード時においては、合成モードが設定されている地域内においては、その地域に位置するキャラクタの対応するユーザ端末が発生する音声信号が全て合成されて、他のユーザ端末に供給される。これに対して、独立モードにおいては、キャラクタを指定したユーザ端末と、指定されたキャラクタに対応するユーザ端末との間においてのみ会話が行われる。
【0075】
しかしながら、このような会話は、現実の空間においては有り得ないことである。即ち、現実の空間においては、常に周囲のキャラクタからの音声信号が入力されている。換言すれば、このような意図しない周囲のキャラクタからの音声信号が入力されている状態が、より自然に近い状態である。従って、より自然に近い状態を実現するには、この合成モードが設定される。
【0076】
但し、所定の地域内に位置するキャラクタが発生する音声信号を、全て同一レベルで合成し、各ユーザ端末に供給するようにすると、各ユーザ端末において、音声信号を実質的に聞き取ることが困難になる。そこで、各ユーザ端末に対しては、その対応するキャラクタを中心として、そのキャラクタから遠い位置に位置するキャラクタが出力する音声信号は、その距離が遠いほど大きく減衰するようにして合成する。このようにすることで、より現実空間に近い臨場感を発生させることができる。
【0077】
この仮想現実空間において提供される画像は、基本的にコンピュータグラフィックスにより生成された精度の高い画像である。従って、これをあらゆる角度から見ることで、現実の空間における都市空間と殆ど同様の体験を、各ユーザ端末に体験させることができる。
【0078】
この仮想現実空間には、多数のビルや住居、川などが適宜配置される。そして、複数のユーザ端末に対応するキャラクタを移動させる処理を実行させることによって、その都市空間における問題点を把握することが可能となる。
【0079】
【発明の効果】
以上の如く、本発明のシミュレーションシステムによれば、自分自身のキャラクタの位置と、自分以外のキャラクタの位置に対応して、仮想空間画像を生成するようにしたので、より現実空間に近い状態で、仮想現実空間を体験させることが可能となる。また、仮想現実空間における問題点などを実際にテストし、判断することが可能となる。
【図面の簡単な説明】
【図1】本発明のシミュレーションシステムの構成例を示すブロック図である。
【図2】図1のシミュレーション装置1の構成例を示すブロック図である。
【図3】図1のユーザ端末3の構成例を示すブロック図である。
【図4】図1のシミュレーションシステムにより形成される仮想現実空間を説明する図である。
【図5】図4のキャラクタCからの視野を説明する図である。
【図6】図4のキャラクタDからの視野を説明する図である。
【図7】図1のユーザ端末3の処理を説明するフローチャートである。
【図8】図1のシミュレーション装置1の処理を説明するフローチャートである。
【図9】図1のユーザ端末3の会話処理を説明するフローチャートである。
【図10】図1のシミュレーション装置1の会話処理を説明するフローチャートである。
【符号の説明】
1 シミュレーション装置
2 データベース
3,3−1乃至3−N ユーザ端末
21 CPU
22 ROM
23 RAM
24 通信装置
25 表示装置
26 マイク
27 スピーカ
28 インタフェース
29 入力装置
29a キーボード
29b マウス
29c 視点入力装置
29d 移動入力装置
29e 俯瞰モード切換釦
29f 俯瞰視点入力装置
29g 合成モード切換釦
29h 地域指定装置
41 CPU
42 ROM
43 RAM
44 通信装置
45 表示装置
46 マイク
47 スピーカ
48 インタフェース
49 入力装置
49a キーボード
49b マウス
49c 視点入力装置
49d 移動入力装置
49e 俯瞰モード切換釦
49f 俯瞰視点入力装置[0001]
[Industrial application fields]
The present invention is a simulation system suitable for use in, for example, designing a predetermined city space and testing problems in the city space., Virtual space providing device and method, user terminal device, and virtual space image generation methodAbout.
[0002]
[Prior art]
Recently, devices using virtual reality (virtual reality space) have been developed.
[0003]
For example, when designing a house, if a predetermined floor plan or specification is determined, an image of the corresponding house is generated with virtual reality, and the image is sent to the orderer who ordered the house, such as a head-mounted display. There is known an apparatus for performing display using. From the virtual reality displayed on the head-mounted display, the orderer can experience and test the house as if he / she actually lived in the house. Thereby, inconvenient points of the house can be easily found as compared with the case where the house is simply viewed from the design drawing.
[0004]
Similarly, an apparatus that provides an urban space as a virtual reality instead of a house is also known.
[0005]
[Problems to be solved by the invention]
However, such a conventional device cannot allow a plurality of users to experience (test) virtual reality at the same time, and therefore, find problems caused by a plurality of people using a predetermined space at the same time. There was a problem that could not be done.
[0006]
The present invention has been made in view of such a situation, and enables a plurality of users to test problems and the like when a predetermined space is used simultaneously.
[0007]
[Means for Solving the Problems]
In the simulation system of the present invention, the receiving means has a corresponding character in the virtual space, inputs the character position, and transmits the character position to the supplying means. The supplying means is an image from the viewpoint of the character at the character position. Alternatively, the drawing information corresponding to the image from the overhead view of the virtual space including the character is read from the storage means and supplied to the receiving means, and the character position data supplied from the receiving means is supplied to the other receiving means. The receiving means receives the drawing information corresponding to the position of the character from the supplying means and the position of the character of the receiving means other than itself, and generates a virtual space image from the viewpoint of the character at the position of the own character. Or drawing information, character position data other than your own, and your character position data By using the data, generating a virtual space image from bird's-eye-view including an image of his characterThe supply means further includes a setting means for setting a range for synthesizing the audio signal corresponding to the character in accordance with a user operation by designating an area in the virtual space, and the supply means is set by the setting means Synthesized speech signals corresponding to a plurality of characters located within the specified range and supplied to the receiving meansIt is characterized by that.
[0008]
At least one of the receiving means and the supplying means does not display its own character, but switches between a character mode in which a character other than itself is displayed and an overhead mode in which both a character other than itself and its own character are displayed.Switching meansCan be provided.
[0009]
At least one of the receiving means and the supplying means has an overhead view for inputting the overhead view in the overhead view mode.Input meansCan be further provided.
[0010]
SaidThe supply means can comprise selection means for selecting a synthesis mode for synthesizing audio signals corresponding to a plurality of characters and an independent mode for transferring audio signals corresponding to a specific character.
SaidThe receiving means displays the character corresponding to the user terminal other than the self without displaying the character corresponding to the self using the image data provided from the supplying means and the data of the position of the character of the other user terminal. A virtual space image can be generated.
The virtual space providing apparatus of the present invention includes a storage unit that stores data forming a virtual space, and a reception unit that receives data corresponding to the position of a character in a virtual space corresponding to the user terminal from a plurality of user terminals. The drawing information corresponding to the image from the viewpoint of the character at the position of the character corresponding to the received user terminal or the image from the overhead view of the virtual space including the character is read from the storage means and transmitted to the user terminal. Transmitting means for transmitting the character position data received from the other user terminal;Synthesizing means for synthesizing audio signals corresponding to characters received from a plurality of user terminals; and setting means for setting a range for synthesizing audio signals corresponding to characters by specifying a region in the virtual space;WithThe synthesizing unit synthesizes audio signals of a plurality of user terminals located within the range set by the setting unit, and the transmission unit further transmits the synthesized audio signals to the user terminal.It is characterized by that.
SaidThe synthesizing means synthesizes the voice signal received from the user terminal corresponding to the character located far from the character centering on the character corresponding to each user terminal so that the voice signal is attenuated as the distance increases. Can do.
Selection means for selecting a mode for synthesizing and transmitting audio signals received from a plurality of user terminals and a mode for transmitting audio signals received from specific user terminals can be further provided.
The virtual space providing method of the present invention includes a reception step of receiving data corresponding to a position of a character in a virtual space corresponding to the user terminal from a plurality of user terminals, and a character at the position of the character corresponding to the received user terminal. A step of transmitting drawing information corresponding to an image from the viewpoint of the image or an image from the overhead view of the virtual space including the character to the user terminal, and transmitting data of the position of the character received from the user terminal to the other user terminal Steps,A step of setting a range for synthesizing a voice signal corresponding to the character by designating an area in the virtual space; and a step of synthesizing voice signals received from a plurality of user terminals located within the set range; And further transmitting the synthesized audio signal to the user terminalIt is characterized by that.
SaidIn the synthesis step, the voice signal received from the user terminal corresponding to the character located at a position far from the character centered on the character corresponding to each user terminal is synthesized such that the farther the distance, the greater the attenuation. Can do.
The user terminal device of the present invention transmits to the simulation device input means for inputting the character position in the virtual space corresponding to the user and data corresponding to the input character position in the virtual space corresponding to the self. A transmission means, a reception means for receiving drawing information corresponding to the data corresponding to the position of the character corresponding to the transmitted self from the simulation apparatus, and receiving data of the position of the character of another user terminal apparatus; and a virtual space Select either the character mode that displays the image from the viewpoint of the character that corresponds to self or the bird's-eye view mode that displays an image from the overhead view of the virtual space that includes the character that corresponds to self. Mode selection means to be used and the character mode is selected by the mode selection means Using the drawing information and the character position data of other user terminal devices, a virtual space image is generated from the viewpoint of the character at the character position in the virtual space corresponding to itself, and the overhead mode is selected by the mode selection means If it is, a virtual space image from an overhead view including the image of the own character is generated using the drawing information, the character position data of the other user terminal device, and the own character position data. Generating means forReceiving means, by specifying the area in the virtual space, A range for synthesizing the audio signal corresponding to the character is set, audio signals corresponding to a plurality of characters located within the set range are synthesized, and the synthesized audio signal is received from the simulation device.It is characterized by that.
The generating means uses the drawing information and character position data of another user terminal device to display a character corresponding to a user terminal device other than the self, without displaying a character corresponding to the self. Can be generated.
The generation unit can generate a virtual space image including a character corresponding to the self viewed from the overhead viewpoint, using the drawing information and the character position data of another user terminal device.
An overhead mode switching means for switching between the character mode and the overhead mode can be further provided.
[0011]
[Action]
In the simulation system having the above configuration,The receiving means receives the image data corresponding to the position of the character and the position of the character of the receiving means other than itself, and generates a virtual space image.Therefore,MultipleIt is possible to grasp various problems in the case where the character simultaneously uses a predetermined virtual reality space.
[0012]
【Example】
FIG. 1 shows a configuration example of a simulation system of the present invention. In this embodiment, a plurality (N) of user terminals 3-1 to 3-N are connected to the
[0013]
When the user terminals 3-1 to 3-N have a corresponding character in the virtual reality space and supply data corresponding to the position and viewpoint of the character to the
[0014]
FIG. 2 shows a configuration example of the
[0015]
The
[0016]
Further, the
[0017]
The
[0018]
The overhead
[0019]
The composite mode switching button 29g is operated when switching between the composite mode and the single mode. In the single mode, only audio signals between the
[0020]
FIG. 3 shows a configuration example of the user terminal 3 (3-1 to 3-N). The
[0021]
The
[0022]
The
[0023]
The
[0024]
FIG. 4 schematically shows a virtual reality space provided by the
[0025]
The character C sees an image as shown in FIG. 5, for example, from the position and viewpoint in the virtual reality space. That is, in the character mode, an image as shown in FIG. 5 is provided from the
[0026]
Similarly, an image as shown in FIG. 6 is provided and displayed on the display device of the user terminal 3-2 to which the character D corresponds from the
[0027]
In the state shown in FIG. 4, the character C looks at the direction of the character D. Therefore, as shown in FIG. 5, the character D is displayed in the image (virtual reality space) displayed on the
[0028]
Similarly, in FIG. 4, the character D looks at the direction of the character C. For this reason, as shown in FIG. 6, the character C is displayed on the image (virtual reality space) displayed on the
[0029]
On the other hand, for example, when the bird's-eye view mode is designated in the user terminal 3-2, as shown in FIG. 4, an overhead image including the user's character C is displayed.
[0030]
Next, operations of the
[0031]
FIG. 7 illustrates a processing example of the
[0032]
When the position or the viewpoint is changed, the process proceeds to step S3, and a process for outputting data corresponding to the position or the viewpoint to the
[0033]
As will be described later with reference to FIG. 8, when receiving the position and viewpoint data, the
[0034]
Therefore, in step S4, the
[0035]
That is, when the
[0036]
Steps S3 and S4 are executed only when the position or the viewpoint is changed. When there is no need to change the position or the viewpoint, there is no need to change the image already displayed on the
[0037]
Next, it progresses to step S5 and it is determined whether the present mode is an overhead view mode. In the bird's-eye view mode, the process proceeds to step S6, and an image of one's own character is generated corresponding to the input viewpoint and position by operating the
[0038]
When the current mode is not the bird's-eye view mode, that is, in the character mode, an image corresponding to the position and viewpoint of his / her character is displayed on the
[0039]
In step S7, the character position and viewpoint data of the
[0040]
On the other hand, if it is determined in step S8 that the position or viewpoint of another character has not been changed, the process of step S9 is skipped. That is, the image of the character is not changed.
[0041]
Next, it progresses to step S10, it is determined whether a mode (overlook mode or character mode) is changed, and when not changing, it returns to step S2 and the subsequent process is repeatedly performed.
[0042]
On the other hand, when the mode is changed, the process returns to step S1, a new mode is set, the process proceeds to step S2, and the subsequent processing is repeated.
[0043]
As described above, for example, when the character mode is designated in the user terminal 3-2, for example, an image as shown in FIG. 6 is displayed on the
[0044]
On the other hand, when the overhead view mode is set, an image as shown in FIG. 4 is displayed on the
[0045]
FIG. 8 shows a processing example of the
[0046]
In step S23, the position or viewpoint data received in step S21 is output to other related user terminals. The data output in step S23 is received by the
[0047]
Here, whether or not another user terminal is related is determined from the position and viewpoint of the user terminal. That is, for example, when the position or viewpoint of the character C of the user terminal 3-1 is changed, the user terminal that displays the character C on the display device, and the user terminal other than the user terminal 3-1 is here. Other related user terminals in
[0048]
After the process of step S23, the process returns to step S21 and the same process is repeatedly executed.
[0049]
In FIG. 8, the processing of the
[0050]
As described above, the image of the city in the virtual reality space is displayed on the
[0051]
Next, with reference to the flowchart of FIG. 9, the conversation process by the audio signal with the
[0052]
First, in step S31, it is determined whether or not the current mode is the synthesis mode. If the current mode is not the synthesis mode (in the case of the independent mode), the process proceeds to step S32, and processing for designating the partner image is executed. That is, for example, the
[0053]
Next, the process proceeds to step S33, and a process of outputting data for specifying the designated partner to the
[0054]
As will be described later with reference to the flowchart of FIG. 10, when the
[0055]
Therefore, after confirming the reception of the OK signal in step S34 in FIG. 9, the
[0056]
At this time, the audio signal input from the
[0057]
Similarly, an audio signal input from the
[0058]
This conversation is repeatedly executed until it is instructed to end in step S36 by operating a predetermined key of the
[0059]
If it is determined in step S36 that the end of the conversation has been commanded, the process proceeds to step S38, and processing for outputting an end signal is executed.
[0060]
When receiving the end signal, the
[0061]
On the other hand, if it is determined in step S31 that the mode is the composite mode, the process proceeds to step S39, where a user terminal corresponding to an unspecified character located in a space (region) in a predetermined virtual reality space or A conversation with the simulation device is executed.
[0062]
That is, as will be described later with reference to FIG. 10, in the synthesis mode, in step S62, a plurality of characters located in a predetermined area can be talked with each other. Accordingly, the
[0063]
During the conversation in the single mode, if it is determined in step S37 that the mode has been changed to the synthesis mode, the process proceeds from step S37 to step S39, and the subsequent processing is similarly executed.
[0064]
FIG. 10 shows an example of conversation processing in the
[0065]
In step S55, it is determined whether an OK signal is received from the user terminal that supplied the designated data. If the OK signal has not been received, the process proceeds to step S56 to determine whether or not to change the mode from the independent mode to the synthesis mode. If not changed, the process returns to step S53 and the subsequent processing is repeated.
[0066]
If it is determined in step S55 that an OK signal has been received, the process proceeds from step S55 to step S57, and communication is performed so that a user terminal that has designated a character and a user terminal that has output the OK signal can have a conversation using an audio signal. Execute processing to connect the network.
[0067]
Next, the process proceeds to step S58, where it is determined whether or not a conversation end signal has been received. If not, the process proceeds to step S59, where it is determined whether or not the independent mode has been changed. If not, the process returns to step S57. Thereby, the conversation by a bidirectional | two-way audio | voice signal is continued between the user terminal or simulation apparatus which designated the character, and the user terminal or simulation apparatus of the designated character.
[0068]
When the
[0069]
In step S51, when the composition mode is set by operating the composition mode switching button 29g, the process proceeds from step S52 to step S60, and it is determined whether or not the region for setting the composition mode is designated. When designating an area for which the synthesis mode is set, the process proceeds to step S61, and an area designation process is executed.
[0070]
That is, when setting the area to which the synthesis mode is applied, the
[0071]
For example, in a city space that forms a virtual reality space, assuming that a power outage has occurred in a building or residence in a given block, if you want to know the movement of each character in that case, you can use the composite mode in that block. Can be set. Alternatively, when a road is formed at a predetermined position in the virtual reality space and the influence of noise caused by vehicles traveling on the road is examined, an area within a predetermined range from the road is designated. Can do.
[0072]
If it is determined in step S60 that it is not particularly necessary to designate a region, the region designation process in step S61 is skipped. In this case, the synthesis mode is set in all regions (all spaces forming the virtual reality space).
[0073]
Next, the process proceeds to step S62, where a communication network based on the audio signal of the
[0074]
In the synthesis mode, in the area where the synthesis mode is set, all the audio signals generated by the user terminals corresponding to the characters located in the area are synthesized and supplied to other user terminals. On the other hand, in the independent mode, a conversation is performed only between the user terminal that designates the character and the user terminal that corresponds to the designated character.
[0075]
However, such a conversation is impossible in a real space. That is, in an actual space, audio signals from surrounding characters are always input. In other words, a state in which an audio signal from such an unintended surrounding character is input is a more natural state. Therefore, in order to realize a more natural state, this synthesis mode is set.
[0076]
However, if all voice signals generated by characters located in a predetermined area are synthesized at the same level and supplied to each user terminal, it is difficult to substantially hear the voice signal at each user terminal. Become. Therefore, for each user terminal, a voice signal output by a character located far from the character centering on the corresponding character is synthesized such that it is attenuated as the distance increases. By doing so, it is possible to generate a sense of reality that is closer to the real space.
[0077]
The image provided in the virtual reality space is basically a highly accurate image generated by computer graphics. Therefore, by viewing this from all angles, it is possible to cause each user terminal to experience almost the same experience as in an actual space.
[0078]
In this virtual reality space, a large number of buildings, houses, rivers, and the like are appropriately arranged. And the problem in the city space can be grasped | ascertained by performing the process which moves the character corresponding to a some user terminal.
[0079]
【The invention's effect】
As described above, according to the simulation system of the present invention, the position of one's own character.When, Other characterspositionIn response toGenerate virtual space imageAs a result, the virtual reality space can be experienced in a state closer to the real space.. Also,It is possible to actually test and judge problems in the virtual reality space.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a simulation system of the present invention.
FIG. 2 is a block diagram illustrating a configuration example of the
FIG. 3 is a block diagram illustrating a configuration example of a
4 is a diagram for explaining a virtual reality space formed by the simulation system of FIG. 1; FIG.
FIG. 5 is a diagram for explaining a field of view from a character C in FIG. 4;
6 is a diagram for explaining a field of view from a character D in FIG. 4;
FIG. 7 is a flowchart for explaining processing of the
FIG. 8 is a flowchart for explaining processing of the
FIG. 9 is a flowchart illustrating conversation processing of the
10 is a flowchart for explaining conversation processing of the
[Explanation of symbols]
1 Simulation device
2 Database
3,3-1 to 3-N user terminal
21 CPU
22 ROM
23 RAM
24 Communication equipment
25 Display device
26 microphone
27 Speaker
28 interface
29 Input device
29a keyboard
29b mouse
29c Viewpoint input device
29d mobile input device
29e Overhead mode switch button
29f Overhead viewpoint input device
29g Composite mode switch button
29h area designation device
41 CPU
42 ROM
43 RAM
44 Communication equipment
45 Display device
46 microphone
47 Speaker
48 interface
49 Input device
49a keyboard
49b mouse
49c Viewpoint input device
49d mobile input device
49e Overhead mode switching button
49f Overhead viewpoint input device
Claims (14)
前記記憶手段に記憶されている仮想空間の画像データを供給する供給手段と、
前記供給手段より前記仮想空間の画像データを受信して、仮想空間画像を生成する、前記供給手段に接続された複数の受信手段と
を備えるシミュレーションシステムにおいて、
前記受信手段は、前記仮想空間上において対応するキャラクタを有し、前記キャラクタの位置を入力して、前記供給手段に送信し、
前記供給手段は、前記キャラクタの位置における前記キャラクタの視点からの画像または前記キャラクタを含む前記仮想空間の俯瞰視点からの画像に対応する描画情報を前記記憶手段から読み出して、前記受信手段に供給するとともに、前記受信手段から供給された前記キャラクタの位置のデータを他の前記受信手段に供給し、
前記受信手段は、前記供給手段から、前記キャラクタの位置に対応する前記描画情報と、自分以外の前記受信手段のキャラクタの位置の提供を受けて自分のキャラクタの位置における前記キャラクタの視点からの仮想空間画像を生成するか、または前記描画情報と、自分以外のキャラクタの位置のデータと、自分のキャラクタの位置のデータとを用いて、自分のキャラクタの画像を含む俯瞰視点からの仮想空間画像を生成し、
前記供給手段は、前記仮想空間において地域が指定されることにより、ユーザ操作に応じて前記キャラクタに対応する音声信号の合成を行う範囲を設定する設定手段をさらに備え、
前記供給手段は、前記設定手段により設定された範囲内に位置する複数の前記キャラクタに対応する音声信号を合成して、受信手段に供給する
ことを特徴とするシミュレーションシステム。Storage means for storing image data forming a three-dimensional virtual space;
Supply means for supplying image data of the virtual space stored in the storage means;
A simulation system comprising: a plurality of receiving means connected to the supplying means for receiving the image data of the virtual space from the supplying means and generating a virtual space image;
The receiving means has a corresponding character in the virtual space, inputs the position of the character, transmits to the supply means,
The supply means reads out drawing information corresponding to an image from the viewpoint of the character at the position of the character or an image from an overhead viewpoint of the virtual space including the character from the storage means, and supplies the drawing information to the reception means And supplying the position data of the character supplied from the receiving means to the other receiving means,
The receiving means receives from the supply means the drawing information corresponding to the position of the character and the positions of the characters of the receiving means other than itself, and receives a virtual view from the viewpoint of the character at the position of the own character. A space image is generated, or a virtual space image from an overhead view including an image of one's character is generated using the drawing information, character position data other than oneself, and one's character position data. generated,
The supply means further comprises a setting means for setting a range for synthesizing a voice signal corresponding to the character in response to a user operation by designating an area in the virtual space,
The simulation system characterized in that the supply means synthesizes voice signals corresponding to the plurality of characters located within the range set by the setting means and supplies the synthesized voice signals to the reception means .
ことを特徴とする請求項1に記載のシミュレーションシステム。At least one of the receiving means and the supplying means does not display its own character, but switches between a character mode in which a character other than itself is displayed and an overhead mode in which both the character other than itself and the own character are displayed. The simulation system according to claim 1, further comprising a switching unit.
ことを特徴とする請求項2に記載のシミュレーションシステム。The simulation system according to claim 2, wherein at least one of the reception unit and the supply unit includes an overhead viewpoint input unit that inputs an overhead viewpoint in the overhead mode.
ことを特徴とする請求項1に記載のシミュレーションシステム。Said supply means according to claim 1, characterized in that it comprises a combination mode for synthesizing a speech signal corresponding to a plurality of said characters, a selection means for selecting the independent mode for exchanging speech signals corresponding to a particular character The simulation system described in 1.
ことを特徴とする請求項1に記載のシミュレーションシステム。The receiving means uses the image data provided from the supplying means and the position data of the character of another user terminal, and does not display a character corresponding to the user, but corresponds to a user terminal other than the self. The simulation system according to claim 1, wherein a virtual space image for displaying a character is generated.
仮想空間を形成するデータを記憶する記憶手段と、
複数の前記ユーザ端末から、前記ユーザ端末に対応する仮想空間上のキャラクタの位置に対応するデータを受信する受信手段と、
受信した前記ユーザ端末に対応するキャラクタの位置における前記キャラクタの視点からの画像または前記キャラクタを含む前記仮想空間の俯瞰視点からの画像に対応する描画情報を前記記憶手段から読み出して前記ユーザ端末に送信すると共に、前記ユーザ端末から受信した前記キャラクタの位置のデータを他のユーザ端末に送信する送信手段と、
複数の前記ユーザ端末から受信した前記キャラクタに対応する音声信号を合成する合成手段と、
前記仮想空間において地域が指定されることにより、前記キャラクタに対応する音声信号の合成を行う範囲を設定する設定手段とを備え、
前記合成手段は、前記設定手段により設定された範囲内に位置する複数の前記ユーザ端末の音声信号を合成し、
前記送信手段は、前記合成した音声信号を前記ユーザ端末にさらに送信する
ことを特徴とする仮想空間提供装置。In a virtual space providing device that provides data forming a virtual space to a user terminal,
Storage means for storing data forming a virtual space;
Receiving means for receiving data corresponding to the position of the character in the virtual space corresponding to the user terminal from a plurality of the user terminals;
The drawing information corresponding to the received image from the viewpoint of the character at the position of the character corresponding to the user terminal or the image from the overhead view of the virtual space including the character is read from the storage means and transmitted to the user terminal. And transmitting means for transmitting the character position data received from the user terminal to another user terminal,
Synthesizing means for synthesizing audio signals corresponding to the characters received from a plurality of the user terminals;
Setting means for setting a range for synthesizing a voice signal corresponding to the character by designating a region in the virtual space ;
The synthesizing unit synthesizes audio signals of a plurality of the user terminals located within a range set by the setting unit,
The virtual space providing apparatus , wherein the transmission unit further transmits the synthesized audio signal to the user terminal .
ことを特徴とする請求項6に記載の仮想空間提供装置。The synthesizing unit synthesizes a voice signal received from a user terminal corresponding to a character located at a position far from the character centered on a character corresponding to each user terminal so that the voice signal is attenuated as the distance increases. The virtual space providing device according to claim 6 .
ことを特徴とする請求項6に記載の仮想空間提供装置。7. The method according to claim 6 , further comprising selection means for selecting a mode for synthesizing and transmitting audio signals received from a plurality of user terminals and a mode for transmitting audio signals received from a specific user terminal. Virtual space providing device.
複数の前記ユーザ端末から、前記ユーザ端末に対応する仮想空間上のキャラクタの位置に対応するデータを受信する受信ステップと、
受信した前記ユーザ端末に対応するキャラクタの位置における前記キャラクタの視点からの画像または前記キャラクタを含む前記仮想空間の俯瞰視点からの画像に対応する描画情報を前記ユーザ端末に送信する送信ステップと、
前記ユーザ端末から受信した前記キャラクタの位置のデータを他のユーザ端末に送信するステップと、
前記仮想空間において地域が指定されることにより、前記キャラクタに対応する音声信号の合成を行う範囲を設定するステップと、
前記設定された範囲内に位置する複数の前記ユーザ端末から受信した前記音声信号を合成するステップとを備え、
前記合成した音声信号を前記ユーザ端末にさらに送信する
ことを特徴とする仮想空間提供方法。In a virtual space providing method of a virtual space providing apparatus that provides data forming a virtual space to a user terminal,
A receiving step of receiving data corresponding to the position of the character in the virtual space corresponding to the user terminal from the plurality of user terminals;
A transmitting step of transmitting drawing information corresponding to an image from the viewpoint of the character at the position of the character corresponding to the received user terminal or an image from an overhead viewpoint of the virtual space including the character to the user terminal;
Transmitting the character position data received from the user terminal to another user terminal;
Setting a range for synthesizing an audio signal corresponding to the character by designating an area in the virtual space;
Synthesizing the audio signals received from a plurality of the user terminals located within the set range,
A method for providing a virtual space , further comprising transmitting the synthesized voice signal to the user terminal .
ことを特徴とする請求項9に記載の仮想空間提供方法。The synthesizing step synthesizes the voice signal received from the user terminal corresponding to the character located at a position far from the character centered on the character corresponding to each user terminal so that the voice signal is attenuated as the distance increases. The virtual space providing method according to claim 9 .
自己に対応する仮想空間上のキャラクタの位置を入力する入力手段と、
前記入力された自己に対応する仮想空間上のキャラクタの位置に対応するデータを前記シミュレーション装置に送信する送信手段と、
送信した自己に対応するキャラクタの位置に対応するデータに対応する描画情報を前記シミュレーション装置から受信すると共に、他のユーザ端末装置の前記キャラクタの位置のデータを受信する受信手段と、
前記仮想空間の画像の表示モードについて、自己に対応するキャラクタの視点からの画像を表示するキャラクタモードか、または自己に対応するキャラクタを含む仮想空間の俯瞰視点からの画像を表示する俯瞰モードのいずれかを選択するモード選択手段と、
前記モード選択手段により前記キャラクタモードが選択されている場合、前記描画情報と他のユーザ端末装置の前記キャラクタの位置のデータを用いて、自己に対応する仮想空間上のキャラクタの位置における前記キャラクタの視点からの仮想空間画像を生成し、前記モード選択手段により前記俯瞰モードが選択されている場合、前記描画情報と、他のユーザ端末装置のキャラクタの位置のデータと、自己のキャラクタの位置のデータとを用いて、自己のキャラクタの画像を含む俯瞰視点からの仮想空間画像を生成する生成手段とを備え、
前記受信手段は、前記仮想空間において地域が指定されることにより、前記キャラクタに対応する音声信号の合成を行う範囲が設定され、前記設定された範囲内に位置する複数のキャラクタに対応する音声信号が合成され、前記合成された音声信号を前記シミュレーション装置から受信する
ことを特徴とするユーザ端末装置。In a user terminal device that receives provision of data forming a virtual space from a simulation device,
Input means for inputting the position of the character in the virtual space corresponding to the self;
Transmitting means for transmitting data corresponding to the position of the character in the virtual space corresponding to the input self to the simulation device;
Receiving means for receiving the drawing information corresponding to the data corresponding to the position of the character corresponding to the transmitted self from the simulation device, and receiving the data of the character position of the other user terminal device;
Regarding the display mode of the image in the virtual space, either the character mode for displaying an image from the viewpoint of the character corresponding to the self or the overhead view mode for displaying an image from the overhead view of the virtual space including the character corresponding to the self Mode selection means for selecting
When the character mode is selected by the mode selection means, the character information at the character position in the virtual space corresponding to the self is used by using the drawing information and the character position data of another user terminal device. When a virtual space image from a viewpoint is generated and the overhead mode is selected by the mode selection means, the drawing information, the character position data of another user terminal device, and the own character position data And generating means for generating a virtual space image from a bird's eye view including an image of the own character,
The receiving means sets a range for synthesizing a voice signal corresponding to the character by designating an area in the virtual space, and a voice signal corresponding to a plurality of characters located within the set range Is synthesized, and the synthesized voice signal is received from the simulation device.
ことを特徴とする請求項11に記載のユーザ端末装置。The generation means uses the drawing information and the position data of the character of another user terminal device to display a character corresponding to a user terminal device other than the self without displaying the character corresponding to the self. The user terminal device according to claim 11 , wherein a spatial image is generated.
ことを特徴とする請求項21に記載のユーザ端末装置。The generation unit generates a virtual space image including a character corresponding to the self viewed from an overhead viewpoint using the drawing information and data of the position of the character of another user terminal device. The user terminal device according to 21.
ことを特徴とする請求項21に記載のユーザ端末装置。The user terminal apparatus according to claim 21, further comprising overhead mode switching means for switching between the character mode and the overhead mode.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22452094A JP3780536B2 (en) | 1994-09-20 | 1994-09-20 | Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22452094A JP3780536B2 (en) | 1994-09-20 | 1994-09-20 | Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005350248A Division JP3815509B2 (en) | 2005-12-05 | 2005-12-05 | Simulation system, virtual space providing device and method, user terminal device, and virtual space image generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0887605A JPH0887605A (en) | 1996-04-02 |
JP3780536B2 true JP3780536B2 (en) | 2006-05-31 |
Family
ID=16815091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP22452094A Expired - Fee Related JP3780536B2 (en) | 1994-09-20 | 1994-09-20 | Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3780536B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6219045B1 (en) | 1995-11-13 | 2001-04-17 | Worlds, Inc. | Scalable virtual world chat client-server system |
JP3378726B2 (en) * | 1996-05-24 | 2003-02-17 | 富士通株式会社 | Machine design / manufacturing process support device |
JPH1021215A (en) * | 1996-06-28 | 1998-01-23 | Ritsumeikan | Method and device for generating cyber space |
JP2019040328A (en) * | 2017-08-24 | 2019-03-14 | 株式会社フォトロン | Information distribution apparatus and information distribution system |
JP6971282B2 (en) * | 2019-08-30 | 2021-11-24 | 株式会社コロプラ | Programs, methods, and information terminals |
JP7191181B2 (en) * | 2019-08-30 | 2022-12-16 | 株式会社コロプラ | Program, method, and information terminal |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3036162B2 (en) * | 1991-10-22 | 2000-04-24 | ソニー株式会社 | Virtual space sharing method and virtual space sharing server |
JP3376593B2 (en) * | 1991-11-14 | 2003-02-10 | 株式会社日立製作所 | Map data display device |
JP2997590B2 (en) * | 1991-11-29 | 2000-01-11 | 株式会社東芝 | Electronic conference system and terminal device |
JPH06149275A (en) * | 1992-10-30 | 1994-05-27 | Sega Enterp Ltd | Three-dimensional virtual sound image forming device in consideration of three-dimensional virtual space information |
-
1994
- 1994-09-20 JP JP22452094A patent/JP3780536B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0887605A (en) | 1996-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4152432B2 (en) | Virtual reality network | |
US6813473B1 (en) | Remote laboratory | |
JP4190590B2 (en) | Virtual reality space providing method and virtual reality space providing device | |
JPH09247637A (en) | Video audio communication system, video communication system and transmission and reception terminals | |
CN109478342B (en) | Image display device and image display system | |
JP2006101329A (en) | Stereoscopic image observation device and its shared server, client terminal and peer to peer terminal, rendering image creation method and stereoscopic image display method and program therefor, and storage medium | |
JP3815509B2 (en) | Simulation system, virtual space providing device and method, user terminal device, and virtual space image generation method | |
JP3780536B2 (en) | Simulation system, virtual space providing apparatus and method, user terminal apparatus, and virtual space image generation method | |
JP3036162B2 (en) | Virtual space sharing method and virtual space sharing server | |
JP2005100087A (en) | Field monitoring system and method | |
JPH0970030A (en) | Image display method for virtual conference system and virtual conference terminal equipment | |
US6028609A (en) | Picture display method and apparatus | |
KR101496899B1 (en) | System and method for servicing remote help using virtual device simulation and tutorial service apparatus and method | |
JP2913624B1 (en) | Disaster experience simulator | |
JP2897627B2 (en) | Conference environment control device | |
KR102540516B1 (en) | Apparatus, user device and method for providing augmented reality contents | |
KR100238072B1 (en) | Virtual space realization apparatus for video conference system | |
JPH09102051A (en) | Sound field control method and sound field controller | |
WO2023190091A1 (en) | Virtual realty conferencing system | |
JPH0424914B2 (en) | ||
Retik et al. | Integrating virtual reality and telepresence to remotely monitor construction sites: A ViRTUE project | |
JPH096577A (en) | Device and method for image display | |
JP2003101989A (en) | Virtual appreciation method, appreciation server device, terminal, and program | |
JP4166290B2 (en) | Cyber space system, information processing method, virtual space providing device, and virtual space providing method | |
JP2002245294A (en) | Model dwelling house system utilizing virtual space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051004 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060227 |
|
LAPS | Cancellation because of no payment of annual fees |