JP2018126341A - シミュレーションシステム及びプログラム - Google Patents

シミュレーションシステム及びプログラム Download PDF

Info

Publication number
JP2018126341A
JP2018126341A JP2017021701A JP2017021701A JP2018126341A JP 2018126341 A JP2018126341 A JP 2018126341A JP 2017021701 A JP2017021701 A JP 2017021701A JP 2017021701 A JP2017021701 A JP 2017021701A JP 2018126341 A JP2018126341 A JP 2018126341A
Authority
JP
Japan
Prior art keywords
user
blower
information
unit
simulation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017021701A
Other languages
English (en)
Other versions
JP6660321B2 (ja
Inventor
高広 戸島
Takahiro Toshima
高広 戸島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2017021701A priority Critical patent/JP6660321B2/ja
Publication of JP2018126341A publication Critical patent/JP2018126341A/ja
Application granted granted Critical
Publication of JP6660321B2 publication Critical patent/JP6660321B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】頭部装着型表示装置を用いるシステムにおいて送風機を有効活用した仮想現実感の向上を実現できるシミュレーションシステム及びプログラム等の提供。【解決手段】シミュレーションシステム、視界を覆うようにHMD200(頭部装着型表示装置)を装着する実空間のユーザUSに対応する移動体を、仮想空間に配置設定する処理を行う仮想空間設定部と、HMD200の表示画像を生成する表示処理部と、送風機80の制御を行う制御部を含む。制御部は、仮想空間内のオブジェクトと移動体との交差場所を目標とし、目標に対応する実空間の送風目標TGFに向けて、送風機80に気体を送風させる制御を行う。【選択図】図8

Description

本発明は、シミュレーションシステム及びプログラム等に関する。
従来より、仮想空間において仮想カメラから見える画像を生成するシミュレーションシステムが知られている。例えば仮想カメラから見える画像をHMD(頭部装着型表示装置)に表示して、バーチャルリアリティ(VR)を実現するシミュレーションシステムの従来技術としては、特許文献1に開示される技術がある。また環境コントロール装置にゲーム機と各種家庭電化機器を接続し、ゲーム内容と連動した室内環境を醸し出すことによって臨場感を高める環境コントロール装置の従来技術としては、特許文献2に開示される技術がある。
特開平11−309269号公報 特開2002−204891号公報
HMDを用いたシミュレーションシステムでは、ユーザの視界がHMDにより覆われてしまい、視界が外界から遮断される。一方、HMDには仮想空間(VR空間)の画像が表示されるが、仮想空間の画像だけではユーザの仮想現実感を今ひとつ高めることができない。このため、ユーザの仮想現実感を高めることができるような体感装置を用いることが望ましい。
しかしながら、例えば仮想空間において液体の中に入ったような状況をユーザに体感させるために、本物の液体を使用する体感装置を用いるのは、シミュレーションシステムの運営上、現実的ではなく、衛生面や安全面の点でも問題がある。
本発明の幾つかの態様によれば、頭部装着型表示装置を用いるシステムにおいて送風機を有効活用した仮想現実感の向上を実現できるシミュレーションシステム及びプログラム等を提供できる。
本発明の一態様は、視界を覆うように頭部装着型表示装置を装着する実空間のユーザに対応する移動体を、仮想空間に配置設定する処理を行う仮想空間設定部と、前記頭部装着型表示装置の表示画像を生成する表示処理部と、送風機の制御を行う制御部と、を含み、前記制御部は、前記仮想空間内のオブジェクトと前記移動体との交差場所を目標とし、前記目標に対応する前記実空間の送風目標に向けて、前記送風機に気体を送風させる制御を行うシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
本発明の一態様によれば、視界を覆うように頭部装着型表示装置を装着する実空間のユーザに対応する移動体が、仮想空間に配置設定されて、頭部装着型表示装置の表示画像が生成される。そして仮想空間内のオブジェクトと移動体との交差場所を目標とし、目標に対応する実空間の送風目標に向けて、送風機により気体が送風される制御が行われる。このようにすれば、仮想空間内のオブジェクトと移動体との交差場所を、対応する場所に対して気体が当たることにより触覚的にユーザに認識させることができ、ユーザの仮想現実感の向上を図れる。従って、頭部装着型表示装置を用いるシステムにおいて送風機を有効活用した仮想現実感の向上を実現できるシミュレーションシステム等の提供が可能になる。
また本発明の一態様では、前記実空間での前記ユーザの位置情報及び姿勢情報の少なくとも一方を取得する情報取得部を含み、前記仮想空間設定部は、取得された前記ユーザの前記位置情報及び前記姿勢情報の少なくとも一方に基づいて、前記移動体を前記仮想空間に配置設定し、前記制御部は、前記位置情報及び前記姿勢情報の少なくとも一方に基づき配置設定された前記移動体と前記オブジェクトとの交差場所を、前記目標に設定し、前記目標に対応する前記実空間の送風目標に向けて、前記送風機に気体を送風させる制御を行ってもよい。
このようにすれば、実空間でのユーザの位置又は姿勢が変化した場合にも、その位置又は姿勢の変化に追従するように、送風機の送風目標を変化させることが可能になり、より精度が高い送風機の送風制御を実現できる。
また本発明の一態様では、前記オブジェクトは液体オブジェクトであり、前記交差場所は、前記液体オブジェクトの液面と前記移動体との交差場所であってもよい。
このようにすれば、仮想空間の液体オブジェクトの液面と移動体との交差場所を、対応する場所に対して気体が当たることにより触覚的にユーザに認識させることができ、ユーザの仮想現実感の向上を図れる。
また本発明の一態様では、前記送風機は、少なくとも1つのルーバーを有し、前記制御部は、前記ルーバーの向きを制御することで、前記送風機の気体の送風方向を制御してもよい。
このようにすれば、コンパクトな構造の送風機で送風方向の制御を実現できるようになる。
また本発明の一態様では、前記制御部は、前記送風機の向きを制御することで、前記送風機の気体の送風方向を制御してもよい。
このようにすれば、簡素な制御手法や簡素な構造の送風機で送風方向の制御を実現できるようになる。
また本発明の一態様では、前記送風機は、前記ユーザの正面方向に配置されてもよい。
このようにすれば、ユーザの正面方向に配置される送風機からの気体の送風により、仮想空間内のオブジェクトと移動体との交差場所を、触覚的にユーザに認識させることが可能になる。
また本発明の一態様では、前記ユーザのプレイ位置を変化させる可動筐体を含み、前記送風機は、前記ユーザが搭乗する前記可動筐体に設けられてもよい。
このような可動筐体を設ければ、ユーザのプレイ位置を様々に変化させることが可能になり、ユーザの仮想現実感を向上できる。またユーザのプレイ位置の変化に連動するように送風機の位置も変化するようになるため、ユーザと送風機の間の相対的位置関係を維持することができ、送風機の送風制御の簡素化を図れる。
また本発明の一態様では、前記実空間の環境情報を取得する情報取得部を含み、前記制御部は、前記環境情報に基づいて、前記送風機の送風制御を行ってもよい。
このようにすれば、実空間の環境状態が変化した場合にも、その環境状態の変化を反映させた送風制御が可能になる。
また本発明の一態様では、前記ユーザの状態情報を取得する情報取得部を含み、前記制御部は、前記ユーザの前記状態情報に基づいて、前記送風機の送風制御を行ってもよい。
このようにすれば、実空間のユーザの状態が変化した場合にも、そのユーザ状態の変化を反映させた送風制御が可能になる。
また本発明の一態様では、前記送風機を含み、前記送風機は、送風する気体を加工する加工部を含んでもよい。
このようにすれば、加工部により加工された気体を送風目標に対して送風できるようになる。
また本発明の一態様では、送風エリアに複数の前記送風機が配置され、前記制御部は、前記ユーザの位置情報に基づいて、複数の前記送風機の送風制御を行ってもよい。
このようにすれば、実空間でのユーザの位置情報を反映させた、複数の送風機の適切な送風制御を実現できるようになる。
本実施形態のシミュレーションシステムの構成例を示すブロック図。 図2(A)、図2(B)はHMDのトラッキング処理の一例の説明図。 図3(A)、図3(B)はHMDのトラッキング処理の他の例の説明図。 本実施形態の可動筐体の構成例を示す斜視図。 本実施形態の可動筐体の構成例を示す正面図。 ユーザの視点から送風機の方向を見た図。 図7(A)、図7(B)は本実施形態により実現されるロボットゲームの説明図。 図8(A)、図8(B)は本実施形態の送風制御手法の説明図。 送風機の内部構造の説明図。 送風機の送風制御の説明図。 送風機の送風制御の説明図。 図12(A)、図12(A)はルーバーの制御手法の一例を示す図。 図13(A)、図13(A)は送風機の送風制御の他の例の説明図。 本実施形態の処理例を説明するフローチャート。 本実施形態の詳細な処理例を説明するフローチャート。 図16(A)、図16(B)は複数の送風機の送風制御手法の説明図。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム、画像生成システム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、スポーツ競技シミュレータや運転シミュレータなどのリアルタイムシミュレーションシステム、SNSのサービスを提供するシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
可動筐体30(広義には筐体)は、ユーザのプレイ位置を変化させる筐体である。この可動筐体30は、例えばアーケード筐体などと呼ばれるものであり、シミュレーションシステムの装置の外殻となるものであり、箱状である必要はない。可動筐体30は、ロボットゲームや車ゲームや飛行機ゲームなどにおけるコックピット筐体(体感筐体)であってもよいし、カードゲーム筐体などであってもよい。可動筐体30は、シミュレーションシステムの本体部分であり、シミュレーションシステムを実現するための種々の機器、構造物が設けられる。可動筐体30には、少なくともプレイ位置が設定されている。可動筐体30の構成例については後述の図4、図5により詳細に説明する。
送風機80は、送風を行う装置であり、例えば空気等の気体に圧力を与えて送り出す装置である。送風機80としては、シロッコファン又はターボファンなどを用いる遠心送風機を採用できる。シロッコファンは、他翼ファンとも呼ばれ、例えば縦長の細長い板状の羽根が筒状に取り付けられているファンである。風の方向は軸に対して直角に、遠心方向に流れる。但し送風機80として、プロペラファンを用いる軸流送風機や、斜流ファンや混流ファンを用いる斜流送風機や、横流ファンを用いる横断流送風機などを採用してもよい。
本実施形態では送風機80は、ユーザが搭乗する可動筐体30に配置される。こうすることで、可動筐体30の可動によるプレイ位置の変化時に、そのプレイ位置の変化に連動して送風機80の位置も変化するようになり、送風機80とユーザの相対的位置関係を維持できるようになる。但し、本実施形態のシミュレーションシステムでは、可動筐体30とは別の位置に送風機80を配置してもよい。或いは本実施形態のシミュレーションシステムは、可動筐体30を設けない変形実施も可能である。この場合には、ユーザがプレイするプレイフィールド上に送風機80が配置される。より具体的には、プレイフィールドの送風エリアに1又は複数の送風機80が配置されるようになる。
操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、ハンドル、ペダル、レバー又は音声入力装置等の種々の操作デバイスにより実現できる。例えば後述の図4、図5の可動筐体30では、操作レバー50、52等により操作部160が実現される。
記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。
HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点位置、視線方向を特定できる。
トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向を直接に特定するトラッキング処理を採用してもよい。
HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左眼の前に設定される第1のディスプレイ又は第1の表示領域と、右眼の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左眼用画像と右眼用画像を生成し、第1のディスプレイに左眼用画像を表示し、第2のディスプレイに右眼用画像を表示する。或いは1つのディスプレイの第1の表示領域に左眼用画像を表示し、第2の表示領域に右眼用画像を表示する。またHMD200には左眼用、右眼用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左眼用画像、右眼用画像に対して行われる。この補正処理は表示処理部120が行う。
HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。
音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。
I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。
通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。
処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。
処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、仮想空間設定部112、移動体処理部113、仮想カメラ制御部114、ゲーム処理部115、制御部117、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。
演算処理部110は、各種の演算処理を行う。例えば情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理(シミュレーション処理)、表示処理、或いは音処理などの演算処理を行う。
情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、HMD200を装着するユーザの位置情報などを取得する。情報取得部111は、ユーザの姿勢情報(方向情報)や動き情報などを取得してもよい。
仮想空間設定部112(仮想空間設定処理のプログラムモジュール)は、オブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。
移動体処理部113(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応するユーザ移動体である。ユーザ移動体は、実空間のユーザに対応する仮想空間のユーザキャラクタ(アバター、プレーヤキャラクタ)や、或いは当該ユーザキャラクタが搭乗(操作)する搭乗移動体(操作移動体)などである。
仮想カメラ制御部114(仮想カメラ制御処理のプログラムモジュール)は、仮想カメラの制御を行う。例えば、操作部160により入力されたユーザの操作情報やトラッキング情報などに基づいて、仮想カメラを制御する処理を行う。
例えば仮想カメラ制御部114は、ユーザの一人称視点又は三人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動するユーザ移動体の視点(一人称視点)に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。或いは、ユーザ移動体に追従する視点(三人称視点)の位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置や姿勢を制御する。
例えば仮想カメラ制御部114は、視点トラッキングにより取得されたユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。例えば本実施形態では、ユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)が取得される。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。そして仮想カメラ制御部114は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部114は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。
ゲーム処理部115(ゲーム処理のプログラムモジュール)は、ユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部115(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。
制御部117(制御処理のプログラムモジュール)は、送風機80の制御処理や可動筐体30の制御処理を行う。制御部117の詳細については後述する。
表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、仮想空間において仮想カメラ(所与の視点。左眼用、右眼用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。
音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。
出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。
図1に示すように本実施形態のシミュレーションシステムは、実空間でのユーザの位置情報を取得する情報取得部111を含む。例えば情報取得部111は、ユーザの視点トラッキングなどによりユーザの位置情報を取得する。そして移動体処理部113は、取得された位置情報に基づいて、ユーザ移動体(ユーザキャラクタ、搭乗移動体)を移動させる処理を行い、表示処理部120は、ユーザが装着するHMD200の表示画像を生成する。例えば実空間でのユーザの移動に追従するように、仮想空間でのユーザ移動体を移動させる。そして、そのユーザ移動体に対応する仮想カメラから見える画像を、HMD200の表示画像として生成する。
例えば情報取得部111は、視界を覆うようにHMD200を装着するユーザの位置情報を取得する。例えば情報取得部111は、HMD200のトラッキング情報などに基づいて、実空間でのユーザの位置情報を取得する。例えばHMD200の位置情報を、当該HMD200を装着するユーザの位置情報として取得する。具体的には、ユーザが実空間(現実世界)のプレイフィールド(シミュレーションフィールド、プレイエリア)に位置する場合に、そのプレイフィールドでの位置情報を取得する。なお、HMD200のトラッキング処理ではなくて、ユーザやユーザの頭部などの部位を直接にトラッキングする手法により、ユーザの位置情報を取得してもよい。
また仮想カメラ制御部114は、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。
例えば入力処理部102(入力受け付け部)は、HMD200を装着するユーザの視点情報のトラッキング情報を取得する。例えばユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)を取得する。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。なおトラッキング処理によりユーザの視点位置、視線方向を直接に取得すようにしてもよい。一例としては、トラッキング情報は、ユーザの初期視点位置からの視点位置の変化情報(視点位置の座標の変化値)、及び、ユーザの初期視線方向からの視線方向の変化情報(視線方向の回転軸回りでの回転角度の変化値)の少なくとも一方を含むことができる。このようなトラッキング情報が含む視点情報の変化情報に基づいて、ユーザの視点位置や視線方向(ユーザの頭部の位置、姿勢の情報)を特定できる。
また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応するユーザキャラクタやその搭乗移動体などの移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。
なお図1の本実施形態のシミュレーションシステムの処理は、家庭用ゲーム装置や業務用ゲーム装置などの処理装置、施設に設置されるPC等の処理装置、ユーザが背中等に装着する処理装置(バックパックPC)、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。
2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
図2(B)に示すように、可動筐体30の周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキング処理が実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。例えばユーザUSの位置情報や姿勢情報(方向情報)を検出できるようになる。
図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。
そして図3(B)に示す撮像部150を、ユーザUSの周囲の少なくとも1つの場所(例えば前方側、或いは前方側及び後方側など)に設置し、この撮像部150により、HMD200の発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。
例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。
なお、発光素子231〜236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。
また、ユーザUSの位置情報、姿勢情報(視点位置、視線方向)を検出を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200のトラッキング処理を行って、位置情報や姿勢情報を検出してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法を用いてもよい。
3.可動筐体
次に本実施形態の可動筐体30の構成例について説明する。図4は可動筐体30の斜視図であり、図5は正面図である。
図4、図5に示す可動筐体30では、底部32の上にカバー部33が設けられ、その上に、ベース部34(台座部)が設けられる。ベース部34は底部32に対して対向するように設けられる。
ベース部34には、シート62を有するライド部60が設けられる。ユーザUSは、このライド部60のシート62に着座する。またベース部34には、足置き部44が設けられ、ライド部60に着座したユーザUSは、両足を足置き部44に載せる。また送風機80は、この足置き部44に取り付けれている。送風機80には換気ダクト81が取り付けられており、この換気ダクト81により換気が行われる。
例えば図6は、ユーザUSの視点から送風機80の方向を見た図である。図6に示すように送風機80はユーザUSの正面方向側に配置される。具体的には、送風機80は、ユーザUSに対向する場所に開口部82を有する。この開口部82には、後述するように回動自在にルーバー91、92(羽板)が取り付けられている。そしてルーバー91、92の奥側には金網83が設けられ、金網83の奥側に円筒状のシロッコファン(不図示)が設けられている。このシロッコファンは、モータ(不図示)により回転軸回りの回転を行う。これによりシロッコファンの回転軸に直交する方向への送風が行われて、金網83及び開口部82を介してユーザUS側に風が送られるようになる。
またベース部34には、操作部用の支持部40、42が設けられ、この支持部40、42の上面部に、図1の操作部160として機能する操作レバー50、52が設けられている。ライド部60に着座したユーザUSは、右手、左手で操作レバー50、52を操作して、ゲームプレイを楽しむ。
可動筐体30は、ユーザUSのプレイ位置を変化させる筐体(アーケード筐体、コックピット筐体等)である。例えば可動筐体30は、図1のゲーム処理部115(処理部100)のゲーム処理の結果(ゲーム状況)に応じて、ユーザUSのプレイ位置を変化させる。
例えばゲーム処理部115は、ユーザUSがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。例えば実空間のユーザUSに対応するユーザキャラクタ(パイロット)が搭乗するロボット等の搭乗移動体(或いはユーザキャラクタ)を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザUSに体感させるための処理を行う。そして可動筐体30は、ゲーム処理であるシミュレーション処理の結果に基づいてプレイ位置を変化させる。例えばユーザキャラクタの搭乗移動体(或いはユーザキャラクタ)の仮想空間での移動処理の結果等に基づいて、プレイ位置を変化させる。例えばロボットゲームでは、ロボットの移動の際の加速や減速や方向の変化に伴う加速度を、ユーザUSに体感させるためのシミュレーション処理として、プレイ位置を変化させる処理を行う。或いは敵からの弾丸やミサイルなどのショットがロボットにヒットした場合に、そのショットによる衝撃をユーザUSに体感させるためのシミュレーション処理として、プレイ位置を変化させる処理を行う。
ここでプレイ位置は、仮想現実(VR)のシミュレーションゲームをプレイする際にユーザUSが位置するプレイポジションである。例えばプレイ位置は、ユーザUSのライド部60のライド位置である。図4のようにユーザUSが、ライド部60のシート62に座って、仮想現実のシミュレーションゲームをプレイしている場合には、プレイ位置は例えばシート62のライド位置である着座位置である。ユーザUSが、バイク、自転車、又は馬などの乗り物や動物を模擬したライド部にまたがっている場合には、プレイ位置は、またがっている位置である。またユーザUSが立ち姿勢でシミュレーションゲームをプレイする場合には、プレイ位置は、例えばライド部での立ち位置である。
このように本実施形態のシミュレーションシステムは、ユーザUSのプレイ位置をゲーム処理の結果(ゲーム状況)に基づいて変化させることが可能な可動筐体30を有している。このように、プレイ位置(ライド位置)を変化させることで、例えば仮想空間でのユーザキャラクタの搭乗移動体(ロボット)の移動等に伴う加速度の変化等を、ユーザUSに体感させることが可能になり、仮想現実感の向上を図れる。
具体的には図4において、ライド部60の背面側には、電動シリンダ70、72(電動シリンダ72は不図示)が設けられている。電動シリンダ70は、ユーザUSの右肩の後ろ側に対応する位置に設けられ、電動シリンダ72は、ユーザUSの左肩の後ろ側に対応する位置に設けられる。これらの電動シリンダ70、72(広義にはアクチュエータ)の一端は、不図示のヒンジ部により、底部32に対して回動自在に取り付けられる。電動シリンダ70、72の他端は、不図示のヒンジ部により、ライド部60の背面側に設けられた取付部材64に対して回動自在に取り付けられる。取付部材64はベース部34に固定されている。そして電動シリンダ70、72のロッド部が直線運動することで、ベース部34の姿勢(方向)を変化させる動作が実現される。ベース部34の姿勢が変化することで、ライド部60の姿勢も変化し、ユーザUSの着座位置であるプレイ位置も変化する。電動シリンダ70、72のロッド部は、図1の制御部117により設定される制御信号に基づき制御される。
例えば底部32とベース部34の間のカバー部33内には、リングボール等で構成される不図示の支持部が設けられている。この支持部の一端は底部32に取り付けられ、他端はベース部34の裏側面に取り付けられる。
そして例えば電動シリンダ70、72のロッド部が共に短くなると、ベース部34が図4のX軸回りにピッチングして、ユーザUSが後ろのめりになる動作が実現される。例えばユーザ移動体であるロボットの加速が行われた場合には、その加速感を体感させるために、ユーザUSが後ろのめりになるようなピッチングの回転移動が行われる。
また電動シリンダ70、72のロッド部が共に長くなると、ベース部34がX軸回りにピッチングして、ユーザUSが前のめりになる動作が実現される。例えばロボットの減速が行われた場合には、その減速感を体感させるために、ユーザUSが前のめりになるようなピッチングの回転移動が行われる。
また電動シリンダ70、72のロッド部の一方が短くなり、他方が長くなると、ベース部34が図4のZ軸回りにローリングする動作が実現される。例えばロボットが進行方向に対して右側や左側に曲がった場合に、その慣性力をユーザに体感させるために、ベース部34のローリングの回転移動が行われる。
このように、ユーザ移動体であるロボットの移動に伴う加速感、減速感、慣性力をユーザに体感させることで、ユーザの仮想現実感を向上できると共に、いわゆる3D酔いを抑制することも可能になる。即ち、例えばHMD200には、ユーザキャラクタが搭乗するロボット(搭乗移動体)が移動する画像が立体的に表示されているのに、実世界においてはユーザのプレイ位置が殆ど移動していないと、ユーザに感覚のずれが生じ、3D酔いを引き起こしてしまう。
この点、本実施形態では、可動筐体30を設けることで、このような3D酔いを緩和している。即ち、ロボットの加速、減速、コーナリングの際に、可動筐体30のベース部34(ライド部60)を回転移動(ローリング、ピッチング等)させて、ユーザのプレイ位置を変化させる。こうすることで、仮想世界の事象と、実空間の事象が近づくようになり、3D酔いを緩和できる。
また本実施形態では、例えば敵からのミサイルや弾等のショットがロボットにヒットした場合に、そのショットによる衝撃をユーザに体感させるために、ロッド部が微少のストローク距離で直線運動するように電動シリンダ70、72を制御する。或いは、地面の凹凸を表現するために、ロッド部が微少のストローク距離で直線運動するように電動シリンダ70、72を制御してもよい。このようにすることで、ユーザの仮想現実感を更に向上できるようになる。
4.本実施形態の手法
次に本実施形態の手法について説明する。なお、以下では、ユーザキャラクタが搭乗するロボットと他のロボットとが対戦するロボットゲームに、本実施形態の手法を適用した場合について主に説明する。但し本実施形態の手法が適用されるゲームはこのようなロボットゲームには限定されない。例えば本実施形態の手法は、ロボットゲーム以外の種々のゲーム(仮想体験ゲーム、対戦ゲーム、RPG、アクションゲーム、競争ゲーム、スポーツゲーム、ホラー体験ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、パズルゲーム、コミュニケーションゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。
4.1 ゲームの説明
まず本実施形態の手法により実現されるロボットゲームについて説明する。このロボットゲームでは、実空間のユーザに対応する仮想空間のユーザキャラクタが、パイロットとなってロボットに搭乗する。ユーザキャラクタが乗り込むロボットのコックピットは、細長い円筒状のコックピットとなっている。ユーザキャラクタが円筒状のコックピットに乗り込むと、コックピットに特殊な液体が注入され、コックピット内がこの液体で満たされる。この液体は酸素を含んでおり、ユーザキャラクタは、液体を肺に取り込むことで液体呼吸が可能になるというゲーム設定になっている。
このようなゲームをプレイするために、ユーザUSは、視界を覆うようにHMD200を装着して、図4の可動筐体30のライド部60に着座する。すると、ユーザUSの周囲に、円筒状のコックピットが存在するかのように見える仮想空間(VR空間)の画像が、HMD200に表示される。これによりユーザUSは、あたかも本物のロボットのコックピットに乗り込んで、ロボットを操縦しているかのように感じることができる仮想体験が可能になる。
ユーザUSに対応するユーザキャラクタCHが、円筒状のコックピットに乗り込むと、上述したようにコックピット内は特殊な液体で満たされる。図7(A)、図7(B)はその時の様子を示すゲームの説明図である。
例えば図7(A)では、液体LQの液面SFは、ユーザキャラクタCHの胸あたりにあるが、その後の更なる注入により、図7(B)に示すように、ユーザキャラクタCHの顔の付近まで、液体LQの液面SFが上昇する。そして最後には、仮想空間での円筒状のコックピット内が全て液体LQで満たされることになる。そしてコックピット内が液体LQで満たされた後、ロボットの操縦ゲームが開始する。そして実空間のユーザUSは、図4の操作レバー50、52等を操作することで、ロボットを操縦して、仮想空間のゲームフィールドで移動させる。そしてゲームフィールド上の他のロボット等との対戦ゲームを楽しむ。
4.2 送風制御
以上のようなロボットゲームでは、図7(A)、図7(B)のようにコックピット内が液体で満たされるという仮想現実をユーザに仮想体験させる必要がある。この場合に、コックピット内が液体で満たされるような映像をHMD200に表示するだけでは、ユーザの仮想現実感を今ひとつ高めることができない。一方、水などの液体を用いた体感装置により、このような仮想現実を実現するのは、システムの運営上、現実的ではない。例えば液体をユーザに吹きかけるような体感装置も考えられるが、衛生面を考慮すると望ましくないという課題がある。
このような課題を解決する本実施形態のシミュレーションシステムは、図1に示すように、仮想空間の設定処理を行う仮想空間設定部112と、HMD200の表示画像を生成する表示処理部120と、送風機80の制御を行う制御部117を含む。またシミュレーションシステムは情報取得部111やHMD200を含むことができる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
仮想空間設定部112は、視界を覆うようにHMD200(頭部装着型表示装置)を装着する実空間のユーザに対応する移動体(ユーザ移動体)を、仮想空間に配置設定する処理を行う。実空間のユーザに対応する移動体は、ユーザに対応する仮想空間のユーザキャラクタ(アバタ)や、ユーザキャラクタが搭乗するロボット等の搭乗移動体である。ユーザに対応する移動体は仮想空間に配置設定され、仮想空間内を移動する。この移動体の移動処理は図1の移動体処理部113が行う。そして表示処理部120は、HMD200の表示画像を生成する。例えば仮想空間においてユーザキャラクタの視点(ユーザの視点)から見える画像を生成して、HMD200に表示する。このようにすることで、視界の全周囲に亘って広がる仮想空間(VR空間)の画像がHMD200に表示されるようになる。
そして制御部117は送風機80の制御を行う。具体的には制御部117は、仮想空間内のオブジェクトと移動体との交差場所を目標とし、この目標に対応する実空間の送風目標に向けて、送風機80に気体を送風させる制御を行う。ここで、交差場所は、例えば仮想空間内のオブジェクトの面(プリミティブ)と移動体とが交差する場所である。
具体的には、オブジェクトは液体オブジェクトであり、交差場所は、液体オブジェクトの液面と移動体との交差場所である。即ち、図7(A)、図7(B)のように、オブジェクトが液体LQのオブジェクトである場合には、液体LQのオブジェクトの面である液面SFと、移動体であるユーザキャラクタCHとの交差場所が目標TGに設定される。そして制御部117は、この目標TGに対応する実空間の送風目標に向けて、送風機80に気体を送風させる制御を行う。ここで、気体の送風により錯覚させる液体は、水であってもよいし、水以外の特殊な液体であってもよい。或いはミストや泥のようなものであってもよい。また、移動体との交差対象なるオブジェクトは液体オブジェクトには限定されず、種々の種類(プロパティ)のオブジェクトを想定できる。またオブジェクトはボリュームを有する立体的なオブジェクトには限定されず、面などのプリミティブであってもよい。
図8(A)、図8(B)は、本実施形態の送風制御手法の説明図である。図8(A)、図8(B)に示すように、実空間のユーザUSは、可動筐体30のライド部60に着座して、両足を足置き部44に載せている。このようなライド姿勢のユーザUSに対して、ユーザUSの正面方向に配置された送風機80が気体を送風する。
具体的には図7(A)に示すように液面SFがユーザキャラクタCHの胸の付近にある場合には、この胸の付近にある液面SFとユーザキャラクタCHとの交差場所が目標TGに設定される。そして図8(A)のA1に示すように、この目標TGに対応する実空間の送風目標TGFに向けて、送風機80が気体を送風する。
また図7(B)に示すように液面SFがユーザキャラクタCHの顔の付近にある場合には、この顔の付近にある液面SFとユーザキャラクタCHとの交差場所が目標TGに設定される。そして図8(B)のA2に示すように、この目標TGに対応する実空間の送風目標TGFに向けて、送風機80が気体を送風する。
このように、本実施形態ではHMD200に表示される図7(A)、図7(B)の液体LQの液面SFの変化に連動して、図8(A)、図8(B)のA1、A2に示すように送風機80から送風される気体の送風目標TGFが変化するようになる。即ち図7(A)、図7(B)のように液体LQがコックピットに注入されて、液面SFが上昇すると、その液面SFの上昇に連動するように、送風機80からの気体がユーザUSに当たる位置(TGF)も上昇する。従って、ユーザ(US)は、気体が当たる位置(TGF)を、液面SFの位置のように感じることができ、HMD200により自身の周囲に見えるコックピット内に、あたかも本当に液体LQが注入されているかのような仮想現実感を得ることができる。
即ち本実施形態ではユーザ(US)は視界を覆うようにHMD200を装着しており、実空間でのユーザの視界が遮断されている。このように実空間の状況が見えていないHMD200の装着状態だからこそ、HMD200に表示される液面SFの上昇に合わせて送風するだけで、あたかも本当に液体LQが注入さている状況のように、ユーザを錯覚させることができる。
例えばユーザの仮想現実感を向上するためには、HMD200に表示される液面SFの存在を、ユーザに体感させることが効果的であり、図7(A)、図7(B)のように液体LQと空気の境界である液面SFが上昇する様子を体感できることが望ましい。例えばユーザは、これから気体(空気)が当たる場所や、すでに過去に気体が当たった場所については意識する傾向になく、気体が現実に当たっている部分に対して意識が向く。従って、図8(A)、図8(B)に示すように送風目標TGFを上から下に変化させれば、送風機80からの気体が当たった場所を、あたかも液面SFのように感じるようになる。そしてHMD200には、ユーザの全周囲に亘ってVR空間が広がるような映像が表示されており、その映像においても液面SFが上昇しているため、送風機80からの気体が当たる場所を液面SFと錯覚するようになる。この結果、送風機80からの送風を行わない場合に比べて、ユーザの仮想現実感を格段に向上することが可能になる。
このように本実施形態では、HMD200に表示される映像でユーザの視覚を錯覚させると共に、送風機80からの空気によりユーザの触覚を錯覚させている。ユーザは視界を覆うようにHMD200を装着しており、ユーザの視界が外界から遮断されているため、送風機80の存在もユーザには見えていない。従って、視界から遮断されている送風機80からの気体が当たる場所を、液面(SF)のように錯覚するようになる。そして例えば可動筐体30等に送風機80を設置するのは、例えばユーザに対して液体を吹きかけるような体感装置を設置する手法に比べて、現実的であり、衛生面においても望ましい。従って、簡素な装置で、ユーザの仮想現実感を大幅に向上できるという利点がある。
以上のように本実施形態のシミュレーションシステムでは、視界を覆うようにHMD200を装着してプレイするゲームにおいて、仮想空間でのゲーム状況に応じて、気体を吹き出す条件(方向、強さ等)を操作可能な送風機80を設けている。そして仮想空間内のオブジェクト(液面)と、実空間のユーザのプレイ位置に対応した仮想位置に配置されるユーザキャラクタ(アバタ)との交差場所(接面、接点、接線)を目標とし、その目標に対応する実空間の位置を送風目標(TGF)として、送風機80の送風を行っている。このようにすることで、あたかも本物の液面が上昇しているかのような仮想現実をユーザに体験させることに成功している。
また本実施形態では、送風機80は少なくとも1つのルーバーを有する。そして図1の制御部117は、ルーバーの向きを制御することで、送風機80の気体の送風方向を制御している。
例えば図9は送風機80の内部構造の一例を示す説明図である。図9に示すように送風機80には、送風ユニット84とルーバー91、92が設けられている。ルーバー91、92は、図6に示す送風機80の開口部82を形成する壁部85、86に対して、回動自在に取り付けられている。
そして本実施形態では、送風ユニット84として例えばシロッコファンにより構成されるユニットを用いている。シロッコファンは、プロペラファンに比べて、風速は低いが、気体を送り出す圧力(静圧)は強い。従って、シロッコファンを用いることで、気体が当たる場所を液面として錯覚させることが、プロペラファンを用いる場合に比べて容易であるという利点がある。
図10、図11は本実施形態の送風機80の送風制御手法の説明図である。図10、図11に示すように送風機80はルーバー91、92(少なくとも1つのルーバー)を有する。ルーバー91、92は壁部86、85に回動自在に取り付けられている。そして本実施形態では図10、図11に示すように、ルーバー91、92の向きを制御することで、送風機80の送風方向を制御している。例えば図8(A)のようにユーザ(US)の胸付近を送風目標TGFとして送風機80からの気体を送風する場合には、図10に示すように、下向き方向側にルーバー91、92の向きを設定する。一方、図8(B)のようにユーザの顔付近を送風目標TGFとして送風機80からの気体を送風する場合には、図11に示すように、上向き方向側にルーバー91、92の向きを設定する。このようにすれば、ルーバー91、92の向きを制御部117により制御するという簡素な制御手法で、図8(A)、図8(B)に示すように気体が送風される向きを制御して、気体が当たる場所を液面としてユーザに錯覚させることが可能になる。なお、ルーバー91、92の向きの制御は、不図示のモータやリンクにより行われる。例えば制御部117がモータを制御して、リンクを動かすことで、リンクに連結されたルーバー91、92の向きを変化させる。
ここで本実施形態では図6に示すように、送風機80に開口部82を設け、この開口部82の内部にルーバー91、92を配置している。即ち本実施形態では、ユーザは視界を覆うようにHMD200を装着しているため、図4のように可動筐体30のライド部60に着座した際に、ユーザの正面方向に配置される送風機80の存在を視覚的に認識することができない。このため、ユーザが送風機80の方に手を伸ばして、送風機80に手が触れてしまう事態が生じてしまう。
この点、図6のように送風機80に開口部82を設け、この開口部82の内部にルーバー91、92を設ければ、HMD200に視界を遮られたユーザが、ルーバー91、92(或いは送風ユニット)に手を触れてしまうような事態を防止でき、安全性等の向上を図れる。
図12(A)、(B)はルーバー91、92の制御手法の一例を示す図である。図12(A)、図12(B)では、ルーバー91、92の一端側に回転軸AX1、AX2が設定され、ルーバー91、92の他端側からB1、B2に示すように気体が送風される。そしてルーバー91は回転軸AX1を回転支点としてその向きが設定され、ルーバー92は回転軸AX2を回転支点としてその向きが設定される。
例えば図10のように送風機80の送風方向を下方向側に設定する場合には、ルーバー91、92を図12(A)に示すような向きに設定する。例えば上側のルーバー92の向きを、俯角方向の向きとなるように下方向側に向ける。このとき、下側のルーバー91は例えば水平方向に保たれている。一方、図11のように送風機80の送風方向を上方向側に設定する場合には、ルーバー91、92を図12(B)に示すような向きに設定する。例えば下側のルーバー91の向きを、仰角方向の向きとなるように、上方向側に向ける。このとき、上側のルーバー92は例えば水平方向に保たれている。
このようにすれば、ルーバー91、92の一端側(AX1、AX2側)に比べて、送風の出口側である他端側でのルーバー91、92間の距離が狭まるようになる。従って図12(A)、図12(B)のB1、B2のように送風される気体の圧力を、高めることができる。この結果、図8(A)、図8(B)において、送風機80からの気体が当たる部分を、液面であるようにユーザに感じさせることが容易になる。
また本実施形態では制御部117が、送風機80の向きを制御することで、送風機80の気体の送風方向を制御するようにしてもよい。
例えば図13(A)の送風機80(送風ユニット)は、そのケーシング87内にシロッコファン88が設けられている。そしてシロッコファン88からの気体は、金網83を介してユーザ側に送風される。そして送風機80は、回転軸AXAを回転支点として、C1、C2に示すようにその向きを変えることが可能になっている。例えば送風機80には、回転軸AXAを回転支点として送風機80の向きを変えるためのモータ(不図示)が設けられる。このモータを制御部117が制御することで、C1、C2に示すように送風機80の向きが制御されて、気体の送風方向が制御される。
また図13(B)では、送風機80に対して排気ダクト89が設けられている。この排気ダクト89では、気体の出口側での開口が広くなっている。また排気ダクト89の入り口側には、例えばシロッコファン等が配置される。例えば図13(B)の送風機80には、回転軸AXBを回転支点として、C3、C4に示すように排気ダクト89の向きを変えるためのモータ(不図示)が設けられる。このモータを制御部117が制御することで、排気ダクト89の向きが制御されて、気体の送風方向が制御される。
このように本実施形態では、ルーバー91、92の向きを制御することで送風機80の気体の送風方向を制御してもよいし、送風機80自体の向きを制御することで、送風機80の気体の送風方向を制御してもよい。ルーバー91、92の向きを制御する手法には、コンパクトな送風機80で送風方向を制御できるという優位点がある。送風機80自体の向きを制御する手法には、簡素な制御手法や簡素な構造の送風機80で送風方向を制御できるという優位点がある。
また本実施形態では図8(A)、図8(B)に示すように、送風機80がユーザの正面方向に配置されている。このようにすれば、ユーザの正面方向に配置される送風機80から、図8(A)、図8(B)のA1、A2に示すように気体を送風することで、図7(A)、図7(B)のように、あたかも液面SFが、例えばユーザの体の下側から上側に向けて上昇しているような仮想現実を、ユーザに感じさせることができる。例えばユーザの背中側に比べて、ユーザの正面側に気体を当てることで、このよう仮想現実をユーザに感じさせることが容易になる。
また本実施形態のシミュレーションシステムは、図4、図5で説明したように、ユーザのプレイ位置を変化させる可動筐体30を含む。このような可動筐体30を設けることで、HMD200に表示される映像に連動して、ユーザのプレイ位置を様々に変化させることが可能になり、ユーザの仮想現実感を向上できる。そして本実施形態では図8(A)、図8(B)に示すように、送風機80は、ユーザが搭乗する可動筐体30に設けられる。例えば可動筐体30上に送風機80が配置される。このようにすれば、例えばベース部34の姿勢が変化して、ユーザのプレイ位置(ライド部60のライド位置)が変化した際に、そのプレイ位置の変化に連動するように送風機80の位置も変化するようになる。従って、ユーザと送風機80の間の相対的位置関係は変化しないようになり、図8(A)、図8(B)のA1、A2に示すような送風機80の送風制御を簡素化できる。即ち、送風機80を可動筐体30上に配置しない手法では、可動筐体30によりプレイ位置が変化した場合に、このプレイ位置に追従するように送風機80の位置を変化させる制御を行わないと、図8(A)、図8(B)のA1、A2に示すような適切な送風制御を実現できない。この点、可動筐体30上に送風機80を配置する手法によれば、このような送風機80の位置を変化させる制御が不要になるため、制御部117の制御処理の簡素化を図れるという利点がある。
また本実施形態のシミュレーションシステムは図1に示すように、実空間でのユーザの位置情報及び姿勢情報の少なくとも一方を取得する情報取得部111を含む。そして仮想空間設定部112は、取得されたユーザの位置情報及び姿勢情報の少なくとも一方に基づいて、移動体(ユーザ移動体、ユーザキャラクタ、搭乗移動体等)を仮想空間に配置設定する。そして制御部117は、位置情報及び姿勢情報の少なくとも一方に基づき配置設定された移動体とオブジェクトとの交差場所を、目標に設定し、目標に対応する実空間の送風目標に向けて、送風機80に気体を送風させる制御を行う。
この場合に本実施形態では、情報取得部111は、例えば実空間の環境情報を取得する。そして制御部117は、取得された環境情報に基づいて、送風機80の送風制御を行う。或いは情報取得部111は、ユーザの状態情報を取得する。そして制御部117は、ユーザの状態情報に基づいて、送風機80の送風制御を行う。
例えば図14は、本実施形態の処理例を説明するフローチャートである。図14に示すように、ユーザの位置情報、姿勢情報を取得する(ステップS1)。この位置情報、姿勢情報の取得は、前述したトラッキング処理やモーションセンサを用いた処理により実現できる。そして、取得されたユーザの位置情報、姿勢情報に基づいて、ユーザキャラクタ(広義には移動体)を仮想空間に配置設定する(ステップS2)。即ち、実空間のユーザに対応するユーザキャラクタを仮想空間に配置設定する。次に、ユーザキャラクタと液体オブジェクトの交差場所を目標に設定する(ステップS3)。そして、設定された目標に対する実空間の送風目標に向けて、送風機80による送風を行う(ステップS4)。
このようにすれば、実空間でのユーザの位置又は姿勢が変化した場合にも、その位置又は姿勢の変化に追従するように、送風機80の送風目標を変化させることが可能になる。これにより、仮想空間でのユーザキャラクタと液面との相対的位置関係と、実空間でのユーザと送風目標との相対的位置関係を、一致(略一致)させることが可能になり、より精度が高い送風機80の送風制御を実現できるようになる。
図15は、本実施形態の詳細な処理例を説明するフローチャートである。図15に示すように、室温、湿度又は筐体設置環境等の実空間の環境情報を取得する(ステップS11)。また体温又は肌露出割合等のユーザの状態情報を取得する(ステップS12)。そして実空間の環境情報、ユーザ状態情報に基づいて、送風制御パラメータを設定する(ステップS13)。送風制御パラメータは、例えば送風の強さ、送風の温度又は送風の範囲等を設定するパラメータである。そして、設定された送風制御パラメータに基づいて、送風機80の送風制御を行う(ステップS14)。
このようにすれば、実空間の環境状態が変化した場合にも、その環境状態の変化を反映させた送風制御が可能になる。また実空間のユーザの状態が変化した場合にも、そのユーザ状態の変化を反映させた送風制御が可能になる。
例えば実空間での室温や湿度が変化した場合に、送風機80の送風制御を何ら変更しないと、正確な送風目標の位置に送風機80からの気体を送風することができなくなってしまう。また、可動筐体30が設置される環境としては、様々な環境が想定され、例えば可動筐体30が設置される施設のスペースが狭かったり、広かったりする。例えば狭いスペースにおいて、強い送風を行うと、乱気流などが発生して、正確な送風目標の位置に送風機80からの気体を送風することができなくなってしまう。
この点、図15の手法では、実空間の環境状態の変化に応じて、送風の強さ、送風の温度(気体温度)、又は送風の範囲等の送風制御パラメータが設定されて、送風制御が行われる。従って、実空間の環境に応じた適切な送風制御を実現できるようになる。例えば送風の強さを制御したり、送風の範囲を制御することで、送風による乱気流の発生等も抑制できる。また環境の温度が高い場合には、送風の温度を低くし、環境の温度が低い場合には、送風の温度を高くすれば、最適な温度での送風が可能になる
またユーザの体温が低い場合や、肌の露出割合が高い場合には、送風を弱めたり、送風される空気の温度が低くならないようにすることが望ましい。一方、ユーザの体温が高い場合や、肌の露出割合が低い場合には、強い送風や高い温度の送風を行っても、それほど問題はない。またユーザの位置に対して送風機80の位置が遠く離れている場合には、送風を強めることが望ましく、ユーザの位置に対して送風機80の位置が近い場合には、送風を弱めることが望ましい。またユーザが大人であるか、子供であるかに応じて、送風目標の位置を変化させることが望ましい。また大人のユーザに対しては強い送風を行っても問題は無いが、子供に対しては送風の強さを弱めることが望ましい。
この点、図15の手法では、ユーザの状態(体温、露出割合、プレイ位置、年齢又は性別等)に応じて、送風の強さ、送風の温度、又は送風の範囲等の送風制御パラメータが設定されて、送風制御が行われる。従って、ユーザの状態に応じた適切な送風制御を実現できるようになる。
なお実空間の環境情報やユーザの状態情報は、例えばシミュレーションシステムの設置場所や可動筐体30に設けられた種々のセンサを用いて検出できる。例えば筐体の設置環境の広狭は、発光素子及び受光素子からなる検知システムやカメラなどを用いて検出できる。ユーザの体温はサーモセンサにより検出でき、ユーザの肌の露出割合や位置や姿勢は、カメラやモーションセンサなどにより検出できる。
また図1に示すように本実施形態のシミュレーションシステムは送風機80を含む。そして送風機80は、送風する気体を加工する加工部98を含む。そして制御部117の制御の下で、送風機80は、加工部98により加工された気体を、送風目標(TGF)に対して送風する。
ここで加工部98での気体の加工としては種々の態様が考えられる。例えば送風する気体に香りを混ぜるような加工をしてもよい。また送風する気体の温度を変化させるような加工を行ってもよい。例えば送風する気体の温度を上げたり、温度を下げる加工を行う。例えば温度を下げる加工の一態様として、気体に氷や雪を混ぜるような加工を行って、送風してもよい。或いは、送風する気体の湿度を変化させる加工を行ってもよい。例えば送風する気体の湿度を上げたり、湿度を下げる加工を行う。例えば、ミストを送風するような加工を行ってもよい。このように気体の加工を行って送風すれば、加工した気体を利用して、ユーザに対して多種多様な仮想現実を体感させることが可能になる。例えば吹雪が吹き付けるようなHMD200の映像シーンに連動して、氷や雪が混ざった気体を送風するような加工を行う。また、火山などの暑い場所でのHMD200の映像シーンに連動して、熱風の気体を送風するような加工を行う。また、お花畑などの映像シーンに連動して、花の香りが混ざった気体を送風するような加工を行う。これにより、ユーザの仮想現実感を更に向上できるようになる。
なお、本実施形態では図4のように、シミュレーションシステムが可動筐体30を有する場合を主に例にとり説明したが、本実施形態はこれに限定されない。例えば図4では送風機80が可動筐体30に設けられているが、送風機80を、ユーザがゲームをプレイするプレイフィールドに配置してもよい。
例えば図16(A)、図16(B)では、送風エリアARに対して複数の送風機F1〜F8が配置されている。そして図1の制御部117は、ユーザUSの位置情報に基づいて、複数の送風機F1〜F8の送風制御を行う。
ここで、図16(A)、図16(B)の送風エリアARは、例えばFPS(First Person shooter)やRPGなどのゲームおいて、仮想空間内に設定される池や沼のエリアである。そして、この池や沼の液面の存在を、送風機F1〜F8からの送風によりユーザUSに体感させる。例えばユーザUSに対応する仮想空間のユーザキャラクタが、送風エリアARに対応する池や沼に入った場合に、送風機F1〜F8からの気体を、例えばユーザUSのお腹付近を送風目標として送風する。こうすることで、ユーザは、あたかも自身のお腹付近に池や沼の液面があるかのように錯覚するようになる。
この場合に、例えば図16(A)に示すようにユーザUSが送風機F1、F2、F8に近い位置にいる場合には、送風機F1、F2、F8の送風の強さを弱める一方で、送風機F3、F4、F5、F6、F7の送風の強さを強める。一方、図16(B)に示すようにユーザUSが送風機F5、F6、F7に近い位置にいる場合には、送風機F5、F6、F7の送風の強さを弱める一方で、送風機F8、F1、F2、F3、F4の送風の強さを強める。このようにすれば、ユーザUSが送風エリアARのどの位置にいる場合にも、送風機F1〜F8からの気体が均等にユーザのお腹付近に当たるようになり、最適な送風制御が可能になる。なお図16(A)、図16(B)では、ユーザUSの位置情報に基づいて、送風機F1〜F8の送風の強さを制御したが、送風の温度や送風の範囲を制御するようにしてもよい。
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(移動体、筐体、アクチュエータ等)と共に記載された用語(ユーザキャラクタ・搭乗移動体、可動筐体、電動シリンダ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また可動筐体の構成、構造、送風制御処理、位置情報及び姿勢情報の取得処理、仮想空間の設定処理、移動体の移動処理、表示処理、ゲーム処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。
US ユーザ、CH ユーザキャラクタ、TG 目標、TGF 送風目標、
LQ 液体、SF 液面、F1〜F8 送風機、AR 送風エリア、
AX1、AX2、AXA、AXB 回転軸、
30 可動筐体、32 底部、33 カバー部、34 ベース部、
40、42 支持部、44 足置き部、50、52 操作レバー、
60 ライド部、62 シート、64 取付部材、70、72 電動シリンダ、
80 送風機、81 換気ダクト、82 開口部、83 金網、
84 送風ユニット、85、86 壁部、87 ケーシング、89 排気ダクト、
88 シロッコファン、91、92 ルーバー、98 加工部、
100 処理部、102 入力処理部、110 演算処理部、111 情報取得部、
112 仮想空間設定部、113 移動体処理部、114 仮想カメラ制御部、
115 ゲーム処理部、117 制御部、120 表示処理部、130 音処理部、
140 出力処理部、150 撮像部、151、152 カメラ、160 操作部、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、210 センサ部、
220 表示部、231〜236 発光素子、240 処理部、
280、284 ベースステーション、281、282、285、286 発光素子

Claims (12)

  1. 視界を覆うように頭部装着型表示装置を装着する実空間のユーザに対応する移動体を、仮想空間に配置設定する処理を行う仮想空間設定部と、
    前記頭部装着型表示装置の表示画像を生成する表示処理部と、
    送風機の制御を行う制御部と、
    を含み、
    前記制御部は、
    前記仮想空間内のオブジェクトと前記移動体との交差場所を目標とし、前記目標に対応する前記実空間の送風目標に向けて、前記送風機に気体を送風させる制御を行うことを特徴とするシミュレーションシステム。
  2. 請求項1において、
    前記実空間での前記ユーザの位置情報及び姿勢情報の少なくとも一方を取得する情報取得部を含み、
    前記仮想空間設定部は、
    取得された前記ユーザの前記位置情報及び前記姿勢情報の少なくとも一方に基づいて、前記移動体を前記仮想空間に配置設定し、
    前記制御部は、
    前記位置情報及び前記姿勢情報の少なくとも一方に基づき配置設定された前記移動体と前記オブジェクトとの交差場所を、前記目標に設定し、前記目標に対応する前記実空間の送風目標に向けて、前記送風機に気体を送風させる制御を行うことを特徴とするシミュレーションシステム。
  3. 請求項1又は2において、
    前記オブジェクトは液体オブジェクトであり、前記交差場所は、前記液体オブジェクトの液面と前記移動体との交差場所であることを特徴とするシミュレーションシステム。
  4. 請求項1乃至3のいずれかにおいて、
    前記送風機は、少なくとも1つのルーバーを有し、
    前記制御部は、
    前記ルーバーの向きを制御することで、前記送風機の気体の送風方向を制御することを特徴とするシミュレーションシステム。
  5. 請求項1乃至3のいずれかにおいて、
    前記制御部は、
    前記送風機の向きを制御することで、前記送風機の気体の送風方向を制御することを特徴とするシミュレーションシステム。
  6. 請求項1乃至5のいずれかにおいて、
    前記送風機は、前記ユーザの正面方向に配置されることを特徴とするシミュレーションシステム。
  7. 請求項1乃至6のいずれかにおいて、
    前記ユーザのプレイ位置を変化させる可動筐体を含み、
    前記送風機は、前記ユーザが搭乗する前記可動筐体に設けられることを特徴とするシミュレーションシステム。
  8. 請求項1乃至7のいずれかにおいて、
    前記実空間の環境情報を取得する情報取得部を含み、
    前記制御部は、
    前記環境情報に基づいて、前記送風機の送風制御を行うことを特徴とするシミュレーションシステム。
  9. 請求項1乃至8のいずれかにおいて、
    前記ユーザの状態情報を取得する情報取得部を含み、
    前記制御部は、
    前記ユーザの前記状態情報に基づいて、前記送風機の送風制御を行うことを特徴とするシミュレーションシステム。
  10. 請求項1乃至9のいずれかにおいて、
    前記送風機を含み、
    前記送風機は、送風する気体を加工する加工部を含むことを特徴とするシミュレーションシステム。
  11. 請求項1乃至10のいずれかにおいて、
    送風エリアに複数の前記送風機が配置され、
    前記制御部は、
    前記ユーザの位置情報に基づいて、複数の前記送風機の送風制御を行うことを特徴とするシミュレーションシステム。
  12. 視界を覆うように頭部装着型表示装置を装着する実空間のユーザに対応する移動体を、仮想空間に配置設定する処理を行う仮想空間設定部と、
    前記頭部装着型表示装置の表示画像を生成する表示処理部と、
    送風機の制御を行う制御部として、
    コンピュータを機能させ、
    前記制御部は、
    前記仮想空間内のオブジェクトと前記移動体との交差場所を目標とし、前記目標に対応する前記実空間の送風目標に向けて、前記送風機に気体を送風させる制御を行うことを特徴とするプログラム。
JP2017021701A 2017-02-08 2017-02-08 シミュレーションシステム及びプログラム Active JP6660321B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017021701A JP6660321B2 (ja) 2017-02-08 2017-02-08 シミュレーションシステム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017021701A JP6660321B2 (ja) 2017-02-08 2017-02-08 シミュレーションシステム及びプログラム

Publications (2)

Publication Number Publication Date
JP2018126341A true JP2018126341A (ja) 2018-08-16
JP6660321B2 JP6660321B2 (ja) 2020-03-11

Family

ID=63171659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017021701A Active JP6660321B2 (ja) 2017-02-08 2017-02-08 シミュレーションシステム及びプログラム

Country Status (1)

Country Link
JP (1) JP6660321B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112817444A (zh) * 2021-01-21 2021-05-18 网易(杭州)网络有限公司 虚拟现实交互方法及装置、计算机存储介质、电子设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05200163A (ja) * 1992-01-29 1993-08-10 Mitsubishi Electric Corp 娯楽乗り物装置
JPH08173583A (ja) * 1994-12-22 1996-07-09 Ishikawajima Harima Heavy Ind Co Ltd スカイダイビング及びパラシュート降下訓練シミュレータ
JPH10117309A (ja) * 1996-10-08 1998-05-06 Yuu:Kk 映像表示装置
JPH11316646A (ja) * 1998-05-01 1999-11-16 Nippon Telegr & Teleph Corp <Ntt> 仮想臨場体感方法及びシステム装置
JP2002113263A (ja) * 2000-10-06 2002-04-16 Daikin Ind Ltd キャラクタ育成方法及びキャラクタ育成装置
JP2005169063A (ja) * 2003-11-21 2005-06-30 Takechika Nishi 画像表示装置及びシミュレーション装置
JP2007307098A (ja) * 2006-05-18 2007-11-29 Kanazawa Inst Of Technology 仮想空間生成装置および方法
JP2010231399A (ja) * 2009-03-26 2010-10-14 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2010237882A (ja) * 2009-03-30 2010-10-21 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2015150022A (ja) * 2014-02-10 2015-08-24 株式会社タイトー ゲーム装置
CN106919252A (zh) * 2017-01-16 2017-07-04 赵兵 环境效果模拟系统和方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05200163A (ja) * 1992-01-29 1993-08-10 Mitsubishi Electric Corp 娯楽乗り物装置
JPH08173583A (ja) * 1994-12-22 1996-07-09 Ishikawajima Harima Heavy Ind Co Ltd スカイダイビング及びパラシュート降下訓練シミュレータ
JPH10117309A (ja) * 1996-10-08 1998-05-06 Yuu:Kk 映像表示装置
JPH11316646A (ja) * 1998-05-01 1999-11-16 Nippon Telegr & Teleph Corp <Ntt> 仮想臨場体感方法及びシステム装置
JP2002113263A (ja) * 2000-10-06 2002-04-16 Daikin Ind Ltd キャラクタ育成方法及びキャラクタ育成装置
JP2005169063A (ja) * 2003-11-21 2005-06-30 Takechika Nishi 画像表示装置及びシミュレーション装置
JP2007307098A (ja) * 2006-05-18 2007-11-29 Kanazawa Inst Of Technology 仮想空間生成装置および方法
JP2010231399A (ja) * 2009-03-26 2010-10-14 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2010237882A (ja) * 2009-03-30 2010-10-21 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2015150022A (ja) * 2014-02-10 2015-08-24 株式会社タイトー ゲーム装置
CN106919252A (zh) * 2017-01-16 2017-07-04 赵兵 环境效果模拟系统和方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鈴木 由里子: "風圧を用いた力覚ディスプレイ", 電気学会誌, vol. 124巻、3号, JPN7019002264, 1 March 2004 (2004-03-01), pages 162 - 165, ISSN: 0004077774 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112817444A (zh) * 2021-01-21 2021-05-18 网易(杭州)网络有限公司 虚拟现实交互方法及装置、计算机存储介质、电子设备

Also Published As

Publication number Publication date
JP6660321B2 (ja) 2020-03-11

Similar Documents

Publication Publication Date Title
US11014000B2 (en) Simulation system, processing method, and information storage medium
US10915166B2 (en) Simulation system, processing method, and information storage medium
US11493990B2 (en) Simulation system, processing method, and information storage medium
US11865453B2 (en) Simulation system, process method, and information storage medium
JP6761340B2 (ja) シミュレーションシステム及びプログラム
JP6719308B2 (ja) シミュレーションシステム及びプログラム
JP6298130B2 (ja) シミュレーションシステム及びプログラム
JP6957218B2 (ja) シミュレーションシステム及びプログラム
JP6712423B2 (ja) シミュレーションシステム
JP6774260B2 (ja) シミュレーションシステム
JP2019175323A (ja) シミュレーションシステム及びプログラム
WO2017203750A1 (ja) ゲーム装置、及びゲーム制御方法
JP2017196293A (ja) ゲームシステム
JP7072441B2 (ja) シミュレーションシステム及びプログラム
JP6935218B2 (ja) シミュレーションシステム及びプログラム
JP6660321B2 (ja) シミュレーションシステム及びプログラム
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP2019213764A (ja) シミュレーションシステム
JP2019176934A (ja) シミュレーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190214

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200207

R150 Certificate of patent or registration of utility model

Ref document number: 6660321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250