JP6538013B2 - 仮想空間体感システム - Google Patents

仮想空間体感システム Download PDF

Info

Publication number
JP6538013B2
JP6538013B2 JP2016142133A JP2016142133A JP6538013B2 JP 6538013 B2 JP6538013 B2 JP 6538013B2 JP 2016142133 A JP2016142133 A JP 2016142133A JP 2016142133 A JP2016142133 A JP 2016142133A JP 6538013 B2 JP6538013 B2 JP 6538013B2
Authority
JP
Japan
Prior art keywords
player
avatar
virtual space
coordinates
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016142133A
Other languages
English (en)
Other versions
JP2018013901A (ja
Inventor
烈 野村
烈 野村
義勝 金丸
義勝 金丸
良哉 尾小山
良哉 尾小山
良昌 高橋
良昌 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2016142133A priority Critical patent/JP6538013B2/ja
Publication of JP2018013901A publication Critical patent/JP2018013901A/ja
Application granted granted Critical
Publication of JP6538013B2 publication Critical patent/JP6538013B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、3Dモデルで表示された仮想空間にプレイヤー自身が存在していると認識させるための仮想空間体感システムに関する。
従来、仮想空間を生成し、その仮想空間の画像をヘッドマウントディスプレイ等でプレイヤーに認識させ、プレイヤー自身がその仮想空間に存在していると認識させる仮想空間体感システムが知られている。
この種の仮想空間体感システムとしては、モーションキャプチャー装置等によってプレイヤーの現実空間における動作を検出し、その検出した動作に応じてプレイヤーに対応するアバターを仮想空間で動作させるものがある(例えば、特許文献1参照)。
特開2010−257461号公報
ところで、特許文献1に記載の従来の仮想空間体感システムで、プレイヤー自身が仮想空間に存在しているとの認識をより確かなものとするためには、プレイヤーの現実空間における座標の移動量とアバターの仮想空間における座標の移動量とを、できるだけ近づけることが好ましい。
しかし、そのようにプレイヤーとアバターの座標の移動量を近づけるようとすると、仮想空間の形状が現実空間の形状に類似する形状に制限されてしまうという問題があった。
本発明は以上の点に鑑みてなされたものであり、任意の方向に拡張又は縮小した仮想空間をプレイヤーに認識させることができる仮想空間体感システムを提供することを目的とする。
上記目的を達成するために、本発明の仮想空間体感システムは、プレイヤーが存在する現実空間に対応する仮想空間を生成する仮想空間生成部と、前記プレイヤーの動作に対応して前記仮想空間で動作するアバターを生成するアバター生成部と、前記プレイヤーの座標を検出するプレイヤー座標検出部と、検出された前記プレイヤーの座標に基づいて、前記アバターの座標を決定するアバター座標決定部と、前記アバターの座標に基づいて、前記プレイヤーに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、前記プレイヤーに、決定された前記仮想空間の画像を認識させる仮想空間画像表示器とを備え、前記アバター座標決定部は、第1方向における前記プレイヤーの座標の移動量に対する前記アバターの座標の移動量と、前記第1方向とは異なる第2方向における該プレイヤーの座標の移動量に対する該アバターの座標の移動量とを異ならせるように構成されていることを特徴とする。
ここで、「仮想空間の画像」とは、仮想空間の背景の画像の他、複数のアバターが存在している場合には他のアバターの画像、仮想空間にのみ存在するオブジェクトの画像、現実空間に対応して仮想空間に存在するオブジェクトの画像等、プレイヤーが自らに対応するアバターの仮想空間における座標を推認し得る画像をいう。
このように、本発明の仮想空間体感システムでは、移動方向に応じて、プレイヤーの座標の移動量に対するアバターの座標の移動量を異ならせている。これにより、プレイヤーの座標とアバターの座標との対応関係のズレを任意の方向に異なる大きさで生じさせて、プレイヤーに認識させる仮想空間を任意の方向に拡張又は縮小することができる。
例えば、アバターの座標が前後方向に移動した際のアバターの座標の移動速度を速く(単位時間当たりの移動量を大きく)するとともに、左右方向に移動した際の移動速度を遅く(単位時間当たりの移動量を小さく)した場合には、プレイヤーに現実空間よりも前後方向に延び、左右方向に狭い仮想空間を認識させることができる。
また、本発明の仮想空間体感システムにおいては、前記第2方向への前記アバターの座標の移動は、前記第1方向への該アバターの座標の移動の直後に生じる移動であることが好ましい。
また、本発明の仮想空間認識システムにおいては、前記第2方向への前記アバターの座標の移動は、前記第1方向への該アバターの座標の移動と同時に生じる移動であることが好ましい。
このように、第1方向へのアバターの座標の移動と第2方向へのアバターの座標の移動を連続して、又は、同時に生じさせることにより、プレイヤーの座標とアバターの座標との対応関係にズレを生じさせる過程の時間(すなわち、プレイヤーが違和感を覚えやすい時間)を集中させることができる。
その結果、プレイヤーに頻繁に違和感を覚えさせることがなくなるので、プレイヤーに覚えさせる違和感を抑えつつ、プレイヤーに任意の方向に拡張又は縮小した仮想空間を認識させることができる。
また、本発明の仮想空間体感システムにおいては、前記第1方向の移動と前記第2方向の移動とが異なる時間で生じる構成である場合には、前記第1方向は、往復運動の往路の方向であり、前記第2方向は、前記往復運動の復路の方向であることが好ましい。
このように構成すると、往復運動の結果として(すなわち、往路又は復路の移動の過程において)、プレイヤーの現実空間における座標とアバターの仮想空間における座標との対応関係にズレを生じさせることができる。
その結果、ズレが生じている過程をプレイヤーが認識しにくくなるので、プレイヤーに覚えさせる違和感を抑えつつ、プレイヤーに任意の方向に拡張又は縮小した仮想空間を認識させることができる。
実施形態に係る仮想空間体感システムの概略構成を示す模式図。 図1の仮想空間体感システム構成を示すブロック図。 図1の仮想空間体感システムがゲームのスタート時の段階及びトリガーイベントが認識されていない段階で実行する処理を示すフローチャート。 ゲームのスタート時における状態を示す斜視図であり、図4Aはプレイヤーの状態を示す図、図4Bはアバターの状態を示す図。 図1の仮想空間体感システムがゲームの第1段階で実行する処理を示すフローチャート。 ゲームの第1段階開始時における状態を示す斜視図であり、図6Aはプレイヤーの状態を示す図、図6Bはアバターの状態を示す図。 ゲームの第1段階進行時における状態を示す斜視図であり、図7Aはプレイヤーの状態を示す図、図7Bはアバターの状態を示す図。 ゲームの第1段階完了時における状態を示す斜視図であり、図8Aは現実空間の状態を示す図、図8Bは仮想空間の状態を示す図。 図1の仮想空間体感システムがゲームの第2段階で実行する処理を示すフローチャート。 ゲームの第2段階開始時における状態を示す斜視図であり、図10Aは現実空間の状態を示す図、図10Bは仮想空間の状態を示す図。 ゲームの第2段階進行時における状態を示す斜視図であり、図11Aは現実空間の状態を示す図、図11Bは仮想空間の状態を示す図。 ゲームの第2段階完了時における状態を示す斜視図であり、図12Aは現実空間の状態を示す図、図12Bは仮想空間の状態を示す図。 図1の仮想空間体感システムがゲームの第3段階で実行する処理を示すフローチャート。 ゲームの第3段階開始時における状態を示す斜視図であり、図14Aは現実空間の状態を示す図、図14Bは仮想空間の状態を示す図。 ゲームの第3段階進行時における状態を示す斜視図であり、図15Aは現実空間の状態を示す図、図15Bは仮想空間の状態を示す図。 ゲームの第3段階完了時における状態を示す斜視図であり、図16Aは現実空間の状態を示す図、図16Bは仮想空間の状態を示す図。
以下、図面を参照して、実施形態に係る仮想空間体感システムSについて説明する。
まず、図1を参照して、仮想空間体感システムSの概略構成について説明する。
図1に示すように、仮想空間体感システムSは、現実空間RSに存在するプレイヤーPに取り付けられる複数の標識1と、プレイヤーP(すなわち、標識1)を撮影するカメラ2と、仮想空間VS(図4B等参照)の画像及び音声を決定するサーバ3と、決定された画像及び音声をプレイヤーに認識させるヘッドマウントディスプレイ(以下、「HMD4」という。)とを備えている。カメラ2、サーバ3及びHMD4は、無線で相互に情報を送受信可能となっている。
複数の標識1は、プレイヤーPの装着するHMD4、手袋及び靴を介して、プレイヤーPの頭部、両手及び両足のそれぞれに取り付けられている。
カメラ2は、プレイヤーPの存在する現実空間RSのプレイヤーPが移動し得る範囲を多方向から撮影可能なように、複数設置されている。
サーバ3は、カメラ2が撮影した複数の画像から標識1を検出し、その検出された標識1の現実空間RSにおける位置に基づいて、プレイヤーPの座標及び姿勢を認識し、その座標及び姿勢に基づいて、プレイヤーPに認識させる画像及び音声を決定する。
HMD4は、プレイヤーPの頭部に装着される。HMD4には、プレイヤーPに、サーバ3によって決定された仮想空間の画像をプレイヤーPの認識させるためのモニタ41(仮想空間画像表示器)と、サーバ3によって決定された仮想空間の音声をプレイヤーPに認識させるためのスピーカ42(仮想空間音声発生器)と、プレイヤーPの声を集音するためのマイク(不図示)が設けられている(図2参照)。
この仮想空間体感システムSを用いてゲーム等を行う場合、プレイヤーPは、仮想空間の画像と音声のみを認識して、プレイヤーP自身が仮想空間に存在していると認識する。
なお、仮想空間体感システムSでは、プレイヤーPの現実空間における座標を認識するシステムとして、標識1とカメラ2とサーバ3とによって構成された、いわゆるモーションキャプチャー装置を備えている。しかし、本発明の仮想空間体感システムは、このような構成に限定されるものではない。
例えば、モーションキャプチャー装置を使用する場合には、上記の構成のものの他、カメラとサーバとが有線で接続されたものを用いてもよいし、標識及びカメラの数が上記構成とは異なる(例えば、それぞれ1つずつ設けられている)ものを用いてもよい。また、モーションキャプチャー装置に代わり、プレイヤーの座標のみを検出する装置を用いてもよい。
次に、図2を用いて、サーバ3の構成を詳細に説明する。
サーバ3は、CPU、RAM、ROM、インターフェース回路等を含む1つ又は複数の電子回路ユニットにより構成されている。サーバ3は、実装されたハードウェア構成又はプログラムにより実現される機能として、図2に示すように、表示画像生成部31と、プレイヤー情報検出部32と、トリガーイベント認識部33と、アバター座標決定部34と、仮想空間画像決定部35と、仮想空間音声決定部36とを備えている。
表示画像生成部31は、HMD4のモニタ41を介してプレイヤーPに認識させる画像を生成する。表示画像生成部31は、仮想空間生成部31aと、アバター生成部31bと、移動体生成部31cとを有している。
仮想空間生成部31aは、仮想空間の背景となる画像及び仮想空間に存在するオブジェクトの画像を生成する。
アバター生成部31bは、仮想空間に、プレイヤーPの動作に対応して動作するアバターを生成する。アバター生成部31bは、複数のプレイヤーPが存在する場合には、それぞれのプレイヤーPに対応するようにして複数のアバターを生成する。このアバターは、対応するプレイヤーPの現実空間における動作(すなわち、座標の移動及び姿勢の変化)に対応して、仮想空間において動作する。
移動体生成部31cは、仮想空間に、現実空間RSには対応する物体が存在せず、仮想空間にアバターと接続可能な移動体を生成する。
ここで、「移動体」とは、アバターが接続した際に、プレイヤーPの現実の移動とは異なるアバターの移動を、(意識している、意識していないに関わらず)プレイヤーに予測させるものであればよい。例えば、エレベータ等の現実空間で移動に使われるものの他、飛び乗ることが可能な川を流れる丸太、上に立った際に崩れそうな床、ジャンプ台、跳躍を補助する翼等が該当する。
また、ここで、アバターと移動体との「接続」とは、移動体の移動、移動体の形状の変化等がアバターの座標に影響することを、プレイヤーが予測し得る状態になることをいう。例えば、アバターがエレベータに乗り込む、アバターが川を流れる丸太に乗る、アバターが崩れそうな床の上に立つ、ジャンプ台の上に立つ、跳躍を補助する翼をアバターが装着する等が該当する。
プレイヤー情報検出部32には、カメラ2が撮影した標識1を含むプレイヤーPの画像データが入力される。このプレイヤー情報検出部32は、プレイヤー姿勢検出部32aと、プレイヤー座標検出部32bとを有している。
プレイヤー姿勢検出部32aは、入力されたプレイヤーPの画像データから標識1を抽出し、その抽出結果に基づいて、プレイヤーPの姿勢を検出する。
プレイヤー座標検出部32bは、入力されたプレイヤーPの画像データから標識1を抽出し、その抽出結果に基づいて、プレイヤーPの座標を検出する。
トリガーイベント認識部33は、プレイヤーPが現実空間において所定の動作を行った際に(すなわち、プレイヤーPに対応するアバターが仮想空間において所定の動作を行った際に)、その動作に基づくトリガーイベントが発生したと認識する。トリガーイベントは、プレイヤーPが所定の座標に移動する、プレイヤーPが所定の姿勢をとる等、プレイヤーPの動作に応じて発生するものであれば、プレイヤーPがその発生を認識していないものであってもよい。
アバター座標決定部34は、プレイヤー座標検出部32bによって検出されたプレイヤーPの現実空間RSにおける座標に基づいて、そのプレイヤーPに対応するアバターの仮想空間における座標を決定する。
また、アバター座標決定部34は、トリガーイベント認識部33がトリガーイベントを認識した際には、認識されたトリガーイベントの種類に応じて、所定期間若しくは所定範囲、又は、所定期間及び所定範囲において、アバターの座標を、プレイヤーの座標とアバターの座標との対応関係にズレを生じさせるように補正する。
また、ここで、プレイヤーの座標とアバターの座標との対応関係にズレを生じさせる「補正」とは、アバターの座標そのものをプレイヤーの座標の移動に関連させずに移動させることの他、プレイヤーの座標の移動量に対するアバターの座標の移動量を変化させること等をいう。
仮想空間画像決定部35は、アバターの座標に基づいて、HMD4のモニタ40を介して、そのアバターに対応するプレイヤーPに認識させる仮想空間の画像を決定する。
ここで、「仮想空間の画像」とは、仮想空間の背景の画像の他、複数のアバターが存在している場合には他のアバターの画像、仮想空間にのみ存在するオブジェクトの画像、現実空間に対応して仮想空間に存在するオブジェクトの画像等、プレイヤーが自らに対応するアバターの仮想空間における座標を推認し得る画像をいう。
仮想空間音声決定部36は、アバターの座標に基づいて、HMD4のスピーカ42を介して、そのアバターに対応するプレイヤーPに認識させる音声を決定する。
次に、図2〜図16を参照して、仮想空間体感システムSを用いてゲームを行う際に、仮想空間体感システムSの実行する処理について説明する。図3、図5、図9及び図13は、ゲームの各段階において仮想空間体感システムSで行われる処理を示すフローチャートである。ここで、本実施形態において行われるゲームは、二人のプレイヤーが協力して移動し、それぞれのスタート地点からそれぞれのゴール地点を目指すゲームである。
まず、図2、図3及び図4を参照して、仮想空間体感システムSがゲームのスタート時の段階及びトリガーイベントが認識されていない段階で実行する処理について説明する。
ゲームの開始を指示する信号を認識したときには、まず、サーバ3の表示画像生成部31が、仮想空間VS、第1アバターA1及び第2アバターA2、並びに、移動体を生成する(図3/STEP01)。
具体的には、表示画像生成部31の仮想空間生成部31aが、仮想空間VS及び仮想空間VSに存在する各種オブジェクトを生成する。表示画像生成部31のアバター生成部31bが、第1プレイヤーP1に対応する第1アバターA1及び第2プレイヤーP2に対応する第2アバターA2を生成する。表示画像生成部31の移動体生成部31cが、後述するエレベータVS1等の移動体を生成する。
このSTEP01の処理により生成された仮想空間VSには、図4Bに示すように、第1アバターA1及び第2アバターA2、移動体であるエレベータVS1、床VS2及びジャンプ台VS3の他、現実空間RSに設置されているホワイトボードRS1(図4A参照)に対応する位置に生成されたボタンVS4等のトリガーイベントに関連するオブジェクトが設置されている。
次に、サーバ3のプレイヤー情報検出部32が、カメラ2によって撮影された画像データを取得し、その画像データに基づいて、第1プレイヤーP1及び第2プレイヤーP2(以下、総称する場合は「プレイヤーP」という。)の現実空間RSにおける座標及び姿勢(図4A参照)を検出する(図3/STEP02)。
次に、サーバ3のアバター座標決定部34が、プレイヤー情報検出部32が検出した第1プレイヤーP1の現実空間RSにおける座標に基づいて、第1アバターA1の仮想空間VSにおける座標を決定し、第2プレイヤーP2の現実空間RSにおける座標に基づいて、第2アバターA2の仮想空間VSにおける座標を決定する(図3/STEP03)。
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36が、プレイヤーPに認識させる画像及び音声を、第1アバターA1及び第2アバターA2の仮想空間VSにおける座標及び姿勢に基づいて決定する(図3/STEP04)。
次に、プレイヤーPの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図3/STEP05)。
次に、サーバ3のプレイヤー情報検出部32が、第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が検出されたか否かを判定する(図3/STEP06)。
第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が検出された場合(STEP06でYESの場合)には、STEP03に戻り、再度、STEP03以降の処理を実行する。
第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が検出されなかった場合(STEP06でNOの場合)には、サーバ3が、ゲームの終了を指示する信号を認識したか否かを判定する(図3/STEP07)。
ゲームの終了を指示する信号を認識できなかった場合(STEP07でNOの場合)には、STEP06に戻り、再度、STEP06以降の処理を実行する。ゲームの終了を指示する信号を認識した場合(STEP07でYESの場合)には、仮想空間体感システムSは、今回の処理を終了する。
以上の処理により、ゲームが開始された後には、仮想空間VSに、第1プレイヤーP1に対応する第1アバターA1及び第2プレイヤーP2に対応する第2アバターA2と、移動体であるエレベータVS1、床VS2及びジャンプ台VS3を含む複数のオブジェクトが設置される。
そして、第1プレイヤーP1及び第2プレイヤーP2は、それぞれが装着したHMD4に表示される画像及び発生される音声によって、それぞれに対応する第1アバターA1及び第2アバターA2を介して、自身が仮想空間VSに存在し、自由に動作することができると認識するようになる。
次に、図2、図5〜図8を参照して、仮想空間体感システムSがゲームの第1段階で実行する処理について説明する。この第1段階では、仮想空間VSの状態が図6Bに示す状態となること(すなわち、第1アバターA1が、エレベータVS1のマークVS1a上に移動すること)がトリガーイベントの発生に該当する。
この第1段階においては、まず、サーバ3のトリガーイベント認識部33が、第1プレイヤーP1の動作に基づくトリガーイベントの発生を認識したか否かを判定する(図5/STEP11)。
具体的には、トリガーイベント認識部33は、仮想空間VSで、第1プレイヤーP1に対応する第1アバターA1がエレベータVS1のマークVS1a上に移動するように(図6B参照)、現実空間RSで、第1プレイヤーP1がY軸方向に移動したか否か(図6A参照)を判定する。
そして、第1プレイヤーP1の座標が所定の位置に位置したときには、トリガーイベント認識部33が、トリガーイベントが発生したと認識する。
このとき、エレベータVS1は移動体であるので、第1プレイヤーP1及び第2プレイヤーP2は、第1プレイヤーに対応する第1アバターA1が移動体と接続したと認識することになる。
トリガーイベントの発生が認識された場合(STEP11でYESの場合)には、サーバ3のアバター座標決定部34が、移動体であるエレベータVS1の移動に伴って、エレベータVS1に乗っている第1アバターA1の座標を移動する(図5/STEP12)。
具体的には、アバター座標決定部34が、トリガーイベントの発生をトリガーとして、アバター座標決定部34が、移動体であるエレベータVS1の移動に伴って、第1アバターA1の座標を所定方向に所定量移動させる。
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、移動後の第1アバターA1の座標に基づいて、プレイヤーPに認識させる仮想空間の画像及び音声を決定する(図5/STEP13)。
次に、プレイヤーPの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図5/STEP14)。
STEP14の処理を実行した後、又は、トリガーイベントの発生が認識されなかった場合(STEP11でNOの場合)には、仮想空間体感システムSは、今回の処理を終了する。
上記のSTEP12〜STEP14の処理中、現実空間RSでは、第1アバターA1に対応する第1プレイヤーP1の座標は、第1段階開始時(図6A)、第1段階進行時(図7A)及び第1段階終了時(図8A)において、移動していない。
一方、仮想空間VSでは、第1プレイヤーP1に対応する第1アバターA1の座標は、第1段階開始時(図6B)、第1段階進行時(図7B)及び第1段階終了時(図8B)において、移動体であるエレベータVS1の移動に伴って、X軸方向において第2アバターA2から離れる方向に移動するとともに、Z軸方向において上方向に移動する。ここで、第1アバターA1の座標の移動速度は、X軸方向(第1方向)における移動速度よりもZ軸方向(第2方向)における移動速度の方が遅くなっている。
すなわち、STEP12〜STEP14の処理によって、第1アバターA1の座標は第1プレイヤーP1の座標の移動とは独立して移動し、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係にズレが生じることになる。
そして、その対応関係のズレに応じて、プレイヤーPの認識している仮想空間VSの画像が変化する。
具体的には、第1プレイヤーP1の認識する仮想空間VSの画像では、第2アバターA2の画像は、第1アバターA1と第2アバターA2の相対座標の変化に基づいて、その大きさ、角度、姿勢等が変化する。また、第2アバターA2以外の画像は、第1アバターA1の座標の移動に基づいて、その大きさ、角度等が変化する。
また、第2プレイヤーP2の認識する仮想空間VSの画像では、移動体であるエレベータVS1の画像は、エレベータVS1の移動に基づいて、その大きさ、角度等が変化する。また、第1アバターA1の画像は、エレベータVS1の移動に伴う第1アバターA1と第2アバターA2の相対座標の変化基づいて、その大きさ、角度、姿勢等が変化する。また、エレベータVS1及び第1アバターA1以外の画像は変化しない。
また、仮想空間VSの音声(例えば、他のプレイヤーの声に基づいて決定されるアバターの声や、移動体から発生する音)も、仮想空間VSの画像と同様に、第1アバターA1がエレベータVS1とともに移動に応じて変化する。
そして、プレイヤーPは、仮想空間VSの画像及び音声の変化を介して、その対応関係のズレを認識することによって、現実空間RSよりも拡張された仮想空間VSを認識する。具体的には、プレイヤーPは、第1アバターA1がX軸方向及びZ軸方向に移動したことによって、第1アバターA1がそのように移動できるほど、仮想空間VSがX軸方向及びZ軸方向に現実空間RSよりも拡張されていると認識する。
また、第1段階におけるトリガーイベントは、第1アバターA1と移動体であるエレベータVS1に乗りこんだ(接続した)状態で、第1アバターA1がマークVS1aの上に立つように第1プレイヤーP1が移動することとなっている。
すなわち、対応関係にズレを生じさせるための第1アバターA1の座標の移動は、移動体であるエレベータVS1の移動が第1アバターA1の座標に影響することを、プレイヤーPが予測し得る状態で発生する。
この予測によって、プレイヤーPは、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係のズレを違和感なく受け入れることができる。
ところで、上記したように、エレベータVS1の移動に伴って生じる第1アバターA1の座標の移動速度は、X軸方向(第1方向)における移動速度よりもZ軸方向(第2方向)における移動速度の方が遅くなっている。
これにより、対応関係のズレは、X軸方向において大きく、Z軸方向において小さくなっている。その結果、プレイヤーPは、現実空間RSに対して、X軸方向において、第2アバターA2から第1アバターA1が離れる方向に大きく拡張し、Z軸方向において、X軸方向における拡張の度合いよりも小さく拡張した仮想空間VSを認識する。
また、対応関係にズレを生じさせるための第1アバターA1の座標のX方向における移動とZ軸方向における移動は、同時に行われている。これにより、対応関係にズレを生じさせる過程の時間(すなわち、プレイヤーPが違和感を覚えやすい時間)が集中している。その結果、プレイヤーPは、頻繁に違和感を覚えることがなくなっている。
次に、図2、図9〜図12を参照して、仮想空間体感システムSがゲームの第2段階で実行する処理について説明する。この第2段階では、仮想空間VSの状態が図11Bに示す状態となること(すなわち、第2アバターA2がボタンVS4を押す動作を行うこと)がトリガーイベントの発生に該当する。
この第2段階においては、まず、サーバ3のアバター座標決定部34が、第1アバターA1が移動体に接続したか否かを判定する(図9/STEP21)。
具体的には、アバター座標決定部34が、仮想空間VSで、第1プレイヤーP1に対応する第1アバターA1の座標が移動体である崩れそうな床VS2の上に移動するように(図10B参照)、現実空間RSで、第1プレイヤーP1の座標がY軸方向に移動したか否か(図10A参照)を判定する。
第2段階では、床VS2は移動体であるので、第1プレイヤーP1及び第2プレイヤーP2は、第1アバターA1が床VS2の上に移動したことを認識することによって、第1アバターA1が移動体と接続したと認識することになる。
このSTEP21の判定は、第1アバターA1が移動体に接続した(床VS2の上に移動した)と判定されるまで(STEP21でNOとなるたびに)、所定の周期で繰り返される。
第1アバターA1が移動体に接続した場合(STEP21でYESの場合)には、サーバ3のトリガーイベント認識部33が、第2プレイヤーP2の動作に基づくトリガーイベントの発生を認識したか否かを判定する(図9/STEP22)。
具体的には、トリガーイベント認識部33は、仮想空間VSで、第2プレイヤーP2に対応する第2アバターA2がボタンVS4近傍の位置でそのボタンVS4に触れる姿勢となるように(図10B参照)、現実空間RSで、第2プレイヤーP2がY軸方向に移動して所定の姿勢となったか否か(図10A参照)を判定する。
そして、第2プレイヤーP2の座標が所定の位置まで移動して、第2プレイヤーP2の姿勢が所定の姿勢となったときには、トリガーイベント認識部33は、第2プレイヤーP2の動作に基づいたトリガーイベントが発生したと認識する。
トリガーイベントの発生が認識された場合(STEP22でYESの場合)には、サーバ3のアバター座標決定部34が、床VS2の崩落(すなわち、移動体の移動)に伴って、床VS2に立っていた第1アバターA1の座標を移動する(図9/STEP23)。
具体的には、アバター座標決定部34が、第2プレイヤーP2の動作に基づいたトリガーイベントの発生をトリガーとして、第1アバターA1の座標のみを所定方向に所定量移動させる。
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、移動後の第1アバターA1の座標に基づいて、プレイヤーPに認識させる仮想空間の画像及び音声を決定する(図9/STEP24)。
次に、プレイヤーPの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図9/STEP25)。
STEP25の処理を実行した後、又は、トリガーイベントの発生が認識されなかった場合(STEP22でNOの場合)には、仮想空間体感システムSは、今回の処理を終了する。
上記のSTEP23〜STEP25の処理中、現実空間RSでは、第1アバターA1に対応する第1プレイヤーP1の座標は、第2段階開始時(図10A)、第2段階進行時(図11A)及び第2段階終了時(図12A)において、移動していない。
一方、仮想空間VSでは、第1プレイヤーP1に対応する第1アバターA1の座標は、第2段階開始時(図10B)、第2段階進行時(図11B)及び第2段階終了時(図12B)において、移動体である床VS2の崩落に伴って、Z軸方向において下方向に移動する。
すなわち、STEP23〜STEP25の処理によって、第1アバターA1の座標は第1プレイヤーP1の座標の移動とは独立して移動し、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係にズレが生じることになる。
このとき、第1段階において対応関係にズレが生じた際の処理(STEP12〜STEP14)と同様に、プレイヤーPの認識している仮想空間VSの画像が変化する。
そして、プレイヤーPは、仮想空間VSの画像及び音声の変化を介して、その対応関係のズレを認識することによって、仮想空間VSは現実空間RSよりも拡張されていると認識する。具体的には、プレイヤーPは、第1アバターA1がZ軸方向下向きに移動したことによって、第1アバターA1がそのように移動できるほど、仮想空間VSがZ軸方向下向きに現実空間RSよりも拡張されていると認識する。
また、第2段階のトリガーイベント(第2アバターA2がボタンVS4を押す動作。STEP22の処理)は、第1アバターA1が移動体である崩れそうな床VS2の上に立った(接続した)状態(STEP21の処理)を前提としている。
すなわち、対応関係にズレを生じさせるための第1アバターA1の座標の移動は、移動体である床VS2bの崩落(変化)が第1アバターA1の座標に影響することを、プレイヤーPが予測し得る状態で発生する。
この予測によって、プレイヤーPは、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係のズレを違和感なく受け入れることができる。
ところで、第2段階におけるトリガーイベントは、移動する第1アバターA1が床VS2の上に移動したことではなく、第2アバターA2がボタンVS4を押す動作を行うこととなっている。すなわち、対応関係にズレを生じさせるために座標が移動するアバターと、トリガーイベントを発生させるアバターとが一致していない。
しかし、そのように一致していない場合であっても、第1プレイヤーP1及び第2プレイヤーP2のいずれにも、現実空間RSよりも拡張された仮想空間VSを認識させることができる。
次に、図2、図13〜図16を参照して、仮想空間体感システムSがゲームの第3段階で実行する処理について説明する。この第3段階では、仮想空間VSの状態が図14Bに示す状態となること(すなわち、第1アバターA1が、ジャンプ台VS3の上に移動すること)がトリガーイベントの発生に該当する。
この第3段階においては、まず、サーバ3のトリガーイベント認識部33が、第1プレイヤーP1の動作に基づくトリガーイベントの発生を認識したか否かを判定する(図13/STEP31)。
具体的には、トリガーイベント認識部33は、仮想空間VSで、第1プレイヤーP1に対応する第1アバターA1がジャンプ台VS3の上に移動するように(図14B参照)、現実空間RSで、第1プレイヤーP1がY軸方向に移動したか否か(図14A参照)を判定する。
そして、第1プレイヤーP1の座標が所定の位置に位置したときには、トリガーイベント認識部33が、トリガーイベントが発生したと認識する。
このとき、ジャンプ台VS3は移動体であるので、第1プレイヤーP1及び第2プレイヤーP2は、第1プレイヤーに対応する第1アバターA1が移動体と接続したと認識することになる。
トリガーイベントの発生が認識された場合(STEP31でYESの場合)には、サーバ3のアバター座標決定部34が、移動体による移動の対象となる第1アバターA1の座標の所定方向の移動速度を、所定範囲において変更する(図13/STEP32)。
具体的には、アバター座標決定部34が、第1プレイヤーP1の座標の移動速度に対する第1アバターA1の座標の移動速度を、ジャンプ台VS3の上方となる範囲のみにおいて、Z軸方向上向きのみ大きくなるように変更する。
次に、第1プレイヤーP1の座標の移動に伴って、第1アバターA1の座標を移動させる(図13/STEP33)。
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、移動後の第1アバターA1の座標に基づいて、プレイヤーPに認識させる仮想空間の画像及び音声を決定する(図13/STEP34)。
次に、プレイヤーPの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図13/STEP35)。
STEP35の処理を実行した後、又は、トリガーイベントの発生が認識されなかった場合(STEP31でNOの場合)には、仮想空間体感システムSは、今回の処理を終了する。
上記のSTEP32〜STEP35の処理中、現実空間RSでは、第1アバターA1に対応する第1プレイヤーP1の座標は、第3段階開始時(図14A)から第3段階進行時(図15A)において、Y軸方向前向き且つZ軸方向上向きに移動し、第3段階進行時(図15A)から第3段階終了時(図16A)において、Y軸方向前向き且つZ軸方向下向きに移動する。
一方、仮想空間VSでは、第1プレイヤーP1に対応する第1アバターA1の座標も、第3段階開始時(図14B)から第3段階進行時(図15B)において、Y軸方向前向き且つZ軸方向上向きに移動し、第3段階進行時(図15B)から第3段階終了時(図16B)において、Y軸方向前向き且つZ軸方向下向きに移動する。
しかし、第3段階開始時(図14B)から第3段階進行時(図15B)における第1アバターA1の座標は、移動速度を変更させる範囲(STEP32の処理の対象となる範囲)であるジャンプ台VS3の上となる範囲であるので、Z軸方向上向き(第1方向)の移動のみ他の方向の移動(第2方向)よりも、大きくなっている(すなわち、第1プレイヤーP1の座標の移動量に対する第1アバターA1の座標の移動量を変化させている。)。
その結果、着地した際(第3段階終了時(図16B))には、Z軸方向において、第1プレイヤーP1の現実空間における座標と第1アバターA1の仮想空間における座標との対応関係にズレが生じることになる。具体的には、現実空間RSでは、第1プレイヤーP1は平坦な地面で前方にジャンプしたに過ぎないが、仮想空間VSでは、第1プレイヤーP1に対応する第1アバターA1が、低い位置から高い段差を飛び乗ったことになる。
このとき、第1段階及び第2段階において対応関係にズレが生じた際の処理(STEP12〜STEP14、STEP23〜STEP25)と同様に、プレイヤーPの認識している仮想空間VSの画像が変化する。
そして、プレイヤーPは、仮想空間VSの画像及び音声の変化を介して、その対応関係のズレを認識することによって、現実空間RSよりも拡張された仮想空間VSを認識する。具体的には、プレイヤーPは、第1アバターA1が段差を飛び乗るように移動したことによって、所定の範囲(ジャンプ台VS3の存在している範囲)で、仮想空間VSがZ軸方向下向きに現実空間RSよりも拡張されていると認識する。
また、第3段階におけるトリガーイベントは、第1アバターA1と移動体であるジャンプ台VS3の上に立つように第1プレイヤーP1が移動することとなっている。
すなわち、対応関係にズレを生じさせるための第1アバターA1の座標の移動は、移動体であるジャンプ台VS3が第1アバターA1の座標に影響することを、プレイヤーPが予測し得る状態で発生する。
この予測によって、プレイヤーPは、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係のズレを違和感なく受け入れることができる。
ところで、第3段階においては、対応関係にズレを生じさせるための第1アバターA1の座標の移動は、ジャンプ(すなわち、上昇とその上昇の直後の下降とを含む往復運動)となっている。
これにより、対応関係にズレを生じさせる過程の時間(すなわち、プレイヤーPが違和感を覚えやすい時間)が集中している。その結果、プレイヤーPが、頻繁に違和感を覚えることがなくなっている。また、往復運動を介して対応関係にズレを生じさせているので、プレイヤーPが、ズレが生じている過程を認識しにくくなっている。
以上説明したように、仮想空間体感システムSによれば、第1プレイヤーP1の現実空間における座標と第1アバターA1の仮想空間における座標とのズレを、任意の方向に異なる大きさで生じさせることができるので、第1プレイヤーP1及び第2プレイヤーP2に認識させる仮想空間VSを任意の方向に拡張又は縮小することができる。
以上、図示の実施形態について説明したが、本発明はこのような形態に限られるものではない。
例えば、上記実施形態においては、現実空間RSに第1プレイヤーP1及び第2プレイヤーP2が存在し、仮想空間VSに第1プレイヤーP1に対応する第1アバターA1及び第2プレイヤーP2に対応する第2アバターA2が存在している。しかし、本発明の仮想空間認識システムは、2人のプレイヤーにのみ対応するものではなく、プレイヤーの数は1人でもよいし3人以上でもよい。
また、上記実施形態では、仮想空間VSを現実空間RSよりもX軸方向及びZ軸方向において拡張している。しかし、本発明の仮想空間体感システムにおける仮想空間は、このようなものに限定されるものではなく、いずれの方向に対しても、現実空間よりも拡張させてもよいし、逆に縮小させてもよい。
1…標識、2…カメラ、3…サーバ、4…HMD、31…表示画像生成部、31a…仮想空間生成部、31b…アバター生成部、31c…移動体生成部、32…プレイヤー情報検出部、32a…プレイヤー姿勢検出部、32b…プレイヤー座標検出部、33…トリガーイベント認識部、34…アバター座標決定部、35…仮想空間画像決定部、36…仮想空間音声決定部、41…モニタ(仮想空間画像表示器)、42…スピーカ(仮想空間音声発生器)、A1…第1アバター、A2…第2アバター、P…プレイヤー、P1…第1プレイヤー、P2…第2プレイヤー、RS…現実空間、RS1…ホワイトボード、S…仮想空間体感システム、VS…仮想空間、VS1…エレベータ(移動体)、VS1a…マーク、VS2…床(移動体)、VS3…ジャンプ台、VS4…ボタン。

Claims (4)

  1. プレイヤーが存在する現実空間に対応する仮想空間を生成する仮想空間生成部と、
    前記プレイヤーの動作に対応して前記仮想空間で動作するアバターを生成するアバター生成部と、
    前記プレイヤーの座標を検出するプレイヤー座標検出部と、
    検出された前記プレイヤーの座標に基づいて、前記アバターの座標を決定するアバター座標決定部と、
    前記アバターの座標に基づいて、前記プレイヤーに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
    前記プレイヤーに、決定された前記仮想空間の画像を認識させる仮想空間画像表示器とを備え、
    前記アバター座標決定部は、第1方向における前記プレイヤーの座標の移動量に対する前記アバターの座標の移動量と、前記第1方向とは異なる第2方向における該プレイヤーの座標の移動量に対する該アバターの座標の移動量とを異ならせるように構成されていることを特徴とする仮想空間体感システム。
  2. 請求項1に記載の仮想空間体感システムにおいて、
    前記第2方向への前記アバターの座標の移動は、前記第1方向への該アバターの座標の移動の直後に生じる移動であることを特徴とする仮想空間体感システム。
  3. 請求項1に記載の仮想空間体感システムにおいて、
    前記第2方向への前記アバターの座標の移動は、前記第1方向への該アバターの座標の移動と同時に生じる移動であることを特徴とする仮想空間体感システム。
  4. 請求項1又は請求項2に記載の仮想空間体感システムにおいて、
    前記第1方向は、往復運動の往路の方向であり、
    前記第2方向は、前記往復運動の復路の方向であることを特徴とする仮想空間体感システム。
JP2016142133A 2016-07-20 2016-07-20 仮想空間体感システム Active JP6538013B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016142133A JP6538013B2 (ja) 2016-07-20 2016-07-20 仮想空間体感システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016142133A JP6538013B2 (ja) 2016-07-20 2016-07-20 仮想空間体感システム

Publications (2)

Publication Number Publication Date
JP2018013901A JP2018013901A (ja) 2018-01-25
JP6538013B2 true JP6538013B2 (ja) 2019-07-03

Family

ID=61019402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016142133A Active JP6538013B2 (ja) 2016-07-20 2016-07-20 仮想空間体感システム

Country Status (1)

Country Link
JP (1) JP6538013B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021140194A (ja) * 2018-05-24 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP6936465B1 (ja) * 2019-11-13 2021-09-15 株式会社Abal 仮想空間体感システム
JP2022147845A (ja) * 2021-03-23 2022-10-06 株式会社Jvcケンウッド 表示装置、表示装置の制御方法及びプログラム
KR102615799B1 (ko) * 2023-07-07 2023-12-20 주식회사 위시 모션 캡쳐 시스템에서의 가상 공간 확장 장치 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3653463B2 (ja) * 2000-11-09 2005-05-25 日本電信電話株式会社 複数のユーザによる仮想空間共有システム
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
JP6211144B1 (ja) * 2016-07-04 2017-10-11 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Also Published As

Publication number Publication date
JP2018013901A (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
JP6538013B2 (ja) 仮想空間体感システム
US9218781B2 (en) Information processing apparatus, display control method, and program
US8414393B2 (en) Game device, control method for a game device, and a non-transitory information storage medium
US20140354687A1 (en) Computer-readable non-transitory storage medium having stored therein information processing program, information processing system, information processing apparatus, and information processing method
US20120108305A1 (en) Data generation device, control method for a data generation device, and non-transitory information storage medium
WO2018180144A1 (ja) 歩行支援システム、歩行支援方法、および歩行支援プログラム
JP6936465B1 (ja) 仮想空間体感システム
JP2012173772A (ja) ユーザインタラクション装置、ユーザインタラクション方法、ユーザインタラクションプログラム、及び集積回路
US10978019B2 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
US11112857B2 (en) Information processing apparatus, information processing method, and program
US20220362667A1 (en) Image processing system, non-transitory computer-readable storage medium having stored therein image processing program, and image processing method
WO2018143732A1 (ko) 게임 제어장치 및 이를 포함하는 가상현실 게임 시스템
JP6538012B2 (ja) 仮想空間体感システム
WO2020049847A1 (ja) 推定装置、学習装置、推定方法、学習方法及びプログラム
JP2010137097A (ja) ゲーム装置および情報記憶媒体
JP6672508B2 (ja) 仮想空間体感システム
JP2012000165A (ja) ビデオゲーム装置
JP7055527B1 (ja) 仮想空間体感システム
KR101587263B1 (ko) 센싱장치 및 이를 구비한 스크린 사격 시뮬레이션 시스템
US11954244B2 (en) Information processing device and information processing method
US11364432B2 (en) Timing game device and program for timing game
JP6177965B1 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
JP2023016047A (ja) 情報処理システム、プログラム及び情報処理方法
JP2023015979A (ja) 情報処理システム、プログラム及び情報処理方法
JP2023015980A (ja) 情報処理システム、プログラム及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190605

R150 Certificate of patent or registration of utility model

Ref document number: 6538013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250