JP6549066B2 - 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム - Google Patents

没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム Download PDF

Info

Publication number
JP6549066B2
JP6549066B2 JP2016138974A JP2016138974A JP6549066B2 JP 6549066 B2 JP6549066 B2 JP 6549066B2 JP 2016138974 A JP2016138974 A JP 2016138974A JP 2016138974 A JP2016138974 A JP 2016138974A JP 6549066 B2 JP6549066 B2 JP 6549066B2
Authority
JP
Japan
Prior art keywords
computer
virtual space
hmd
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016138974A
Other languages
English (en)
Other versions
JP2016181302A (ja
Inventor
功淳 馬場
功淳 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016138974A priority Critical patent/JP6549066B2/ja
Publication of JP2016181302A publication Critical patent/JP2016181302A/ja
Application granted granted Critical
Publication of JP6549066B2 publication Critical patent/JP6549066B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システムに関するものである。より詳細には、ユーザの頭部に装着したヘッドマウント・ディスプレイ(HMD)を用いたHMD頭部操作、およびユーザが保持するコントローラの操作を通じて、没入仮想空間内に配置されたオブジェクトを操作可能とするようコンピュータに制御させるコンピュータ・プログラムおよびコンピュータ・システムに関するものである。
ユーザの頭部に装着され、眼前に配置されたディスプレイ等によってユーザに仮想空間における画像を提示可能なHMDが知られる。特に、特許文献1に開示されるようなHMDでは、3次元仮想空間に360度のパノラマ画像を表示可能である。このようなHMDは通例、各種センサ(例えば、加速度センサや角速度センサ)を備え、HMD本体の姿勢データを計測する。特に、頭部の回転角に関する情報に従ってパノラマ画像の視線方向変更を可能にする。即ち、HMDを装着したユーザが自身の頭部を回転させると、それに併せて360度のパノラマ画像の視線方向を変更することを通じて、ユーザに対し、映像世界への没入感を高め、エンタテインメント性を向上させるものである(特許文献1の段落〔0003〕,〔0033〕,〔0034〕および〔要約〕参照)。
加えて、特許文献1には、頭部の動きによるユーザ・ジェスチャとHMDでの画面上の操作(例えば、表示画面切り替え)を予め関連付けておき、頭部の傾きや加速度に基づいてユーザのジェスチャを特定した際に、該ジェスチャに関連する画面操作を実施することが開示される。これにより、ユーザがHMD装着時に手元が見えないことに起因したコントローラ操作の不便性を解消する(同文献の段落〔0080〕〜〔0083〕参照)。
特開2013−258614号公報 しかしながら、特許文献1の上記開示は、単に、パノラマ画像の視界特定のために、またはユーザ・ジェスチャの特定のために、センサにより取得される頭部動作の情報を用いるに過ぎない。今後、HMDを使用した没入型仮想空間に対応した各種アプリケーションが数多く開発されることで、HMDがより広範に普及することが見込まれる。
HMDを用いない従来のゲーム・アプリケーションでは、一般的にコントローラの複雑な操作を必要することが多い一方で、ユーザがHMDを装着した状態では、自身の手元が見えず、コントローラの操作が困難となることが懸念される。この点、HMDに基づく没入型仮想空間において、頭部動作の情報は、上記に限られずアプリケーション起動中の様々な場面で適用されることが期待される。
その一例として、3次元仮想空間に配置されたオブジェクトを操作するようなアプリケーションを想定する。以下の発明の詳細な説明では、特に、図11から図13のような没入型3次元仮想空間に配置された積み木オブジェクトを操作可能とするような積み木ゲーム・アプリケーションを想定する。HMD本体の頭部動作が積み木オブジェクトを特定方向に移動させる等の操作と関連付けられ、これにより、積み木オブジェクトへの操作をHMDの動作で可能とするものである。
本発明は、HMD本体の頭部動作を、没入型3次元仮想空間に配置されたオブジェクトの特定の操作と関連付けることにより、3次元仮想空間内のオブジェクト操作を容易に実施可能とすることを目的とする。
本発明による、没入型の仮想空間内でのオブジェクト操作をコンピュータに制御させるコンピュータ・プログラムは、コンピュータに接続されるヘッドマウント・ディスプレイが具備する傾きセンサで検知される傾き情報に基づいて、仮想空間内の視界情報を決定する視界決定部、ヘッドマウント・ディスプレイに表示するために、視界情報に基づいて仮想空間の視界画像を生成する画像生成部、仮想空間において基準視線上に配置されるオブジェクトを特定するオブジェクト特定部であって、基準視線が、視界画像の所定位置に対応付けて決定される、オブジェクト特定部、並びに、オブジェクトの特定に応じて、ヘッドマウント・ディスプレイの所定方向の傾け動作に従い、特定されたオブジェクトへの操作を実施するオブジェクト操作部として前記コンピュータに機能させる。
また、本発明によるコンピュータ・プログラムは、上記視界決定部において、視界情報が更に、コンピュータに接続され且つヘッドマウント・ディスプレイを検知可能な位置センサによって検知されるヘッドマウント・ディスプレイの位置情報に基づく。
更に、本発明によるコンピュータ・プログラムは、上記オブジェクト操作部において、特定されたオブジェクトへの操作が更に、コンピュータに接続可能な外部コントローラと連携して実施され、外部コントローラがタッチ・ディスプレイを具備し、特定されたオブジェクトへの操作が、タッチ・ディスプレイへのタップ、スワイプおよびホールドの何れを含むタッチ動作に従って実施される。
本発明による、没入型の仮想空間内のオブジェクト操作のためのコンピュータ・システムは、コンピュータと、該コンピュータに接続された、傾きセンサを具備するヘッドマウント・ディスプレイとを備え、上記コンピュータが、傾きセンサで検知される傾き情報に基づいて仮想空間内の視界情報を決定し、ヘッドマウント・ディスプレイに表示するために、視界情報に基づいて仮想空間の視界画像を生成し、仮想空間において基準視線上に配置されるオブジェクトを特定し、基準視線が前記視界画像の所定位置に対応付けて決定され、オブジェクトの特定に応じて、ヘッドマウント・ディスプレイの所定方向の傾け動作に従い特定されたオブジェクトへの操作を実施するように構成される。
本発明によれば、HMDを装着したユーザの頭部の簡易な動作により、従来技術のような複雑なコントローラ動作を必要とすることなく、没入型3次元仮想空間内のオブジェクト操作を容易に実施可能とする。また、HMDを用いた頭部動作をコントローラの動作と組み合せることにより、複雑なオブジェクト操作にも対応可能とする。これにより、本発明は、HMDを用いたゲーム・アプリケーションにおいて、新規のゲーム操作態様を提供可能とする。
この発明の上記の、及び他の特徴及び利点は、この発明の実施例の以下のより特定的な説明、添付の図面、及び請求の範囲から明らかなものとなる。
図1は、本発明の実施の態様による、HMDシステムを示す模式図である。 図2は、図1に示したHMDを装着しているユーザの頭部を中心に規定される実空間での直交座標系を示す。 図3は、ポジション・トラッキング・カメラによって検知される、HMD上に仮想的に設けられた複数の検知点を示す概要図である。 図4は、本発明の実施の態様による、3次元仮想空間内でのオブジェクト操作を実装するための機能的構成を示すブロック図である。 図5は、本発明の実施の態様による、3次元仮想空間における仮想カメラとオブジェクトの配置例を模式的に示す立体概要図である。 図6は、本発明の実施の態様による、3次元仮想空間における仮想カメラとオブジェクトの配置例を模式的に示す立体概要図である。 図7Aは、本発明の実施の態様による、3次元仮想空間における仮想カメラとオブジェクトの一操作例を模式的に示す立体概要図である。 図7Bは、本発明の実施の態様による、3次元仮想空間における仮想カメラとオブジェクトの他の操作例を模式的に示す立体概要図である。 図8は、本発明の実施の態様による、オブジェクト制御部における機能的構成を示すブロック図である。 図9は、本発明の実施の態様による、オブジェクト操作とユーザ動作の対応例を示す概要図である。 図10は、本発明の実施の態様による、3次元仮想空間内でのオブジェクト操作のための処理フロー図である。 図11は、本発明の実施の態様による、3次元仮想空間内でのオブジェクト操作に関する画面イメージ例である。 図12は、本発明の実施の態様による、3次元仮想空間内でのオブジェクト操作に関する画面イメージ例である。 図13は、本発明の実施の態様による、3次元仮想空間内でのオブジェクト操作に関する画面イメージ例である。
以下に、図面を参照して、本発明の実施の形態による、没入型仮想空間内でオブジェクト操作をコンピュータに制御させるコンピュータ・プログラム、および没入型仮想空間内のオブジェクト操作のためのコンピュータ・システムについて説明する。図中、同一の構成要素には同一の符号を付してある。
図1は、本発明の実施の態様による、ヘッドマウント・ディスプレイ(以下、「HMD」と称する。)を使用したHMDシステム100の全体概略図である。図示のように、HMDシステム100は、HMD本体110、コンピュータ(制御回路部)120、ポジション・トラッキング・カメラ(位置センサ)130、並びに外部コントローラ140を備える。
HMD110は、ディスプレイ112およびセンサ114を具備する。ディスプレイ112は、ユーザの視界を完全に覆うよう構成された非透過型の表示装置であり、ユーザはディスプレイ112に表示される画面のみを観察することができる。そして、非透過型のHMD110を装着したユーザは、外界の視界を全て失うため、制御回路部120において実行されるアプリケーションにより表示される仮想空間に完全に没入する表示態様となる。
HMD110が具備するセンサ114は、ディスプレイ112近辺に固定される。センサ114は、地磁気センサ、加速度センサ、および/または傾き(角速度、ジャイロ)センサを含み、これらの1つ以上を通じて、ユーザの頭部に装着されたHMD110(ディスプレイ112)の各種動きを検知することができる。特に角速度センサの場合には、図2のように、HMD110の動きに応じて、HMD110の3軸回りの角速度を経時的に検知し、各軸回りの角度(傾き)の時間変化を決定することができる。
図2を参照して傾きセンサで検知可能な角度情報データについて説明する。図示のように、HMDを装着したユーザの頭部を中心として、XYZ座標が規定される。ユーザが直立する垂直方向をY軸、Y軸と直交しディスプレイ112の中心とユーザを結ぶ方向をZ軸、Y軸およびZ軸と直交する方向の軸をX軸とする。傾きセンサでは、各軸回りの角度(即ち、Y軸を軸とした回転を示すヨー角、X軸を軸とした回転を示すピッチ角、Z軸を軸とした回転を示すロール角で決定される傾き)を検知し、その経時的な変化により、動き検知部220が視界情報として角度(傾き)情報データを決定する。
図1に戻り、HMDシステム100が備えるコンピュータ120は、HMDを装着したユーザを3次元仮想空間に没入させ、3次元仮想空間に基づく動作を実施させるための制御回路部120として機能する。図1のように、制御回路部120は、HMD110とは別のハードウェアとして構成してもよい。当該ハードウェアは、パーソナルコンピュータやネットワークを通じたサーバ・コンピュータのようなコンピュータとすることができる。即ち、互いにバス接続されたCPU、主記憶、補助記憶、送受信部、表示部、および入力部を備える任意のコンピュータとすることができる。
代替として、制御回路部120は、オブジェクト操作装置として、HMD110内部に搭載されてもよい。ここでは、制御回路部120は、オブジェクト操作装置の全部または一部の機能のみを実装することができる。一部のみを実装した場合には、残りの機能をHMD110側、またはネットワークを通じたサーバ・コンピュータ(図示せず)側に実装してもよい。
HMDシステム100が備えるポジション・トラッキング・カメラ(位置センサ)130は、制御回路部120に通信可能に接続され、HMD110の位置追跡機能を有する。ポジション・トラッキング・カメラ130は、赤外線センサや複数の光学カメラを用いて実現される。ポジション・トラッキング・カメラ130を具備し、ユーザ頭部のHMDの位置を検知することによって、HMDシステム100は、3次元仮想空間における仮想カメラ/没入ユーザの仮想空間位置を正確に対応付け、特定することができる。
より具体的には、ポジション・トラッキング・カメラ130は、図3に例示的に示すように、HMD110上に仮想的に設けられ、赤外線を検知する複数の検知点の実空間位置をユーザの動きに対応して経時的に検知する。そして、ポジション・トラッキング・カメラ130により検知された実空間位置の経時的変化に基づいて、HMD110の動きに応じた各軸回りの角度の時間変化を決定することができる。
再度図1に戻り、HMDシステム100は外部コントローラ140を備える。外部コントローラ140は、一般的なユーザ端末であり、図示のようなスマートフォンとすることができるが、これに限定されない。例えば、PDA、タブレット型コンピュータ、ゲーム用コンソール、ノートPCのようなタッチ・ディスプレイを備える携帯型デバイス端末であれば如何なるデバイスにもすることができる。即ち、外部コントローラ140は、互いにバス接続されたCPU、主記憶、補助記憶、送受信部、表示部、および入力部を備える任意の携帯型デバイス端末とすることができる。ユーザは、外部コントローラ140のタッチ・ディスプレイに対し、タップ、スワイプおよびホールドを含む各種タッチ動作を実施可能である。
図4のブロック図は、本発明の実施の形態による、3次元仮想空間内のオブジェクト操作を実装するために、制御回路装置120を中心にコンポーネントの主要機能の構成を示したものである。制御回路部120では、主に、センサ114/130および外部コントローラ140からの入力を受け、該入力を処理してディスプレイ112への出力を行う。制御回路部120は、主に、動き検知部210、視界決定部220および視界画像生成部230、並びにオブジェクト制御部240を含み、空間情報格納部250、オブジェクト情報格納部260、および仮想カメラ情報格納部270等の各種テーブルと相互作用して各種情報を処理する。
動き検知部210では、センサ114/130からの動き情報の入力に基づいて、ユーザの頭部に装着されたHMD110の動きデータを測定する。本発明の実施の形態では、特に、傾きセンサ114により経時的に検知される角度情報、およびポジション・トラッキング・カメラ130により経時的に検知される位置情報を決定する。
視界決定部220は、空間情報格納部250に格納された3次元仮想空間情報、並びに傾きセンサ114に検知される角度情報、および位置センサ130に検知される位置情報に基づく仮想カメラの視野方向の検知情報に基づいて、3次元仮想空間における仮想カメラからの視界情報を決定する。そして、決定された視界情報に基づいて、視界画像生成部230では、360度パノラマの一部の視界画像を生成することができる。図11〜13にそれぞれ図示するように、視界画像は2次元画像を左目用と右目用の2つを生成し、HMDにおいてこれら2つを重畳させて生成することで、ユーザには3次元画像の如くHMDに表示される。
図4に戻り、オブジェクト制御部240では、オブジェクト情報格納部260に格納された3次元仮想空間内のオブジェクト情報、並びに各センサ114/130および外部コントローラ140からのユーザ指令に基づいて、操作対象オブジェクトを特定する。そして、当該特定した操作対象オブジェクトへの所定のユーザ操作指令を受けて、仮想カメラ情報格納部270に格納された仮想カメラ情報の調整と共に操作対象オブジェクトへの操作を実施し、HMDのディスプレイ112に出力する。オブジェクト操作の具体的な処理については、図5以降に関連して説明する。
なお図4において、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メモリ、その他の集積回路で構成することができ、ソフトウェア的には、メモリにロードされた各種プログラムなどによって実現される。したがって、これらの機能ブロックがハードウェア、ソフトウェア、又はそれらの組み合わせによって実現できることが当業者に理解される(後記する図8についても同様である。)。
これより図5から図10を参照して、図4に示した視界決定部220、視界画像生成部230、およびオブジェクト制御部240によって実施される操作対象オブジェクトを特定する処理および対象オブジェクトの操作処理について詳細に説明する。図5は、本発明の実施の態様による、没入型3次元仮想空間2内の仮想カメラ1、並びに、円柱オブジェクトO1,O2および直方体オブジェクトO3の配置例を模式的に示す立体図である。仮想カメラ1から撮像される視界が、視界画像として没入ユーザのディスプレイに表示される。図示のように、HMDを装着したユーザが下方向に頭を傾けることに応じて、仮想カメラ1も水平より下方向を向いている。そして、その視界の中心(矢印)の先には円柱オブジェクトO1が配置される。また、視界の右方向には円柱オブジェクトO2が、左方向には直方体オブジェクトO3が配置される。
図5の模式図における配置の詳細を次に図6に示す。図示のように、水平面をXZ座標面で規定し、垂直方向をZ軸で規定した仮想空間内に、仮想カメラ1が(Xcam,Ycam,Zcam)の位置に配置される。当該位置座標は、ポジション・トラッキング・カメラにより検知された位置情報に基づいて決定される。仮想カメラ1は所定の視野の範囲を有しており、視野範囲に基づいて視界が規定されて視界画像が生成される。視界の基準視線Lstdおよび該基準視線に対する視界境界線をLbd1,Lbd2が規定される。ここで、基準線Lstdは、視界画像の所定位置(例えば、中心点)に対応するように規定される。
また、各オブジェクトO1〜O3は、一例として、XZ平面上のO1(XO1,0,ZO1),O2(XO2,0,ZO2),O3(XO3,0,ZO3)に配置される。勿論、オブジェクトは一定の大きさを有するため、座標位置は座標範囲として規定するとよい。図6の例のような仮想カメラの位置および向きと各オブジェクトの配置位置との関係では、基準視線Lstd上にオブジェクトO1が配置されており、その結果、操作対象オブジェクトとしてO1が特定される。
図6で特定されたオブジェクトO1に対する操作の概要について図7Aおよび図7Bを示す。図7Aは、本発明の実施の態様による、3次元仮想空間における仮想カメラとオブジェクトの一操作例を模式的に示す。図示のように、操作対象オブジェクトO1が特定されると、仮想カメラ1の位置が固定される。この状態でユーザが更に頭部を傾けるHMD動作を実施することにより、当該動作に予め関連付けられたオブジェクト操作をオブジェクトO1に対して実施する。ここでは、頭部を垂直方向に移動させるHMD傾け動作をユーザが実施することにより、その移動距離に応じて、3次元仮想空間でもオブジェクトO1をY軸方向に、(XO1,YO1,ZO1)の座標位置まで移動させる。その際、基準視線LOP’が常に視界の基準位置となるように(例えば視界画像上、中心点を維持するように)、仮想カメラの向きをやはりY軸方向に角度調整する。
図7Aでは、Y軸方向に移動したオブジェクトO1’に対して更に回転処理が実施される。オブジェクト回転処理についてもオブジェクト移動処理と同様に、所定のHMD傾け動作(例えば、水平方向のHMD傾け動作)に関連付けることができる。これ以外にも、外部コントローラ140上での所定の動作(例えば、タッチ・ディスプレイ上でのスワイプ動作)とすることもできる。
図7Bは、本発明の実施の態様による、3次元仮想空間における仮想カメラとオブジェクトの他の操作例を模式的に示す。図7Aの例では、操作対象オブジェクトO1の特定に伴い、仮想カメラ1の位置を固定して、その後カメラの向きを調整した。これに対し、図7Bの例では仮想カメラの位置を固定せずに、その向きを固定する。即ち、オブジェクトO1がY軸方向に(XO1,YO1,ZO1)の座標位置まで移動するのに伴い、仮想カメラ1の位置もY方向に(Xcam,Ycam+YO1,Zcam)の座標位置まで移動させる。
仮想カメラの位置および向きの制御について、図7Aや図7Bの処理例に限定されない。即ち、基準視線LOP’が常に視界の基準位置となるように(例えば視界画像上、中心点を維持するように)、仮想カメラの位置および/または向きを調整するものであれば何れの処理態様とできることが当業者に理解されるべきである。
上記図6、図7Aおよび図7Bで説明してきた3次元仮想空間内でのオブジェクト操作に関する処理の詳細について、これより図8〜図10を参照してより詳細に説明する。図8は、図4で説明したオブジェクト制御部240を構成する詳細な機能ブロック図である。図示するように、オブジェクト制御部240は、操作対象オブジェクトを特定するためのオブジェクト特定部300、および特定された操作対象オブジェクトに対して操作するためのオブジェクト操作部400を備える。
オブジェクト特定部300では、ユーザによるHMD傾け動作によって、3次元仮想空間において図6に示した基準視線上に配置されるオブジェクトを特定する。そのために、当該オブジェクト特定部300は、視界画像の基準点に関連付けられる3次元仮想空間の基準視線を計算するための基準視線計算部320、基準視線上にオブジェクトが配置されているかを判定するオブジェクト判定部340、および基準視線上にオブジェクトが配置される場合に、そのオブジェクトを操作対象オブジェクトとして選択する操作対象オブジェクト選択部360を備える。
一方、オブジェクト操作部400では、オブジェクト特定部300での操作対象オブジェクトの特定に応じて、ユーザによるHMDの所定方向への頭部傾け動作に従った上記操作対象オブジェクトへの操作を実施する。そのために、当該オブジェクト操作部400は、外部コントローラでユーザによるタッチ動作を受けたかを判定する外部コントローラ動作判定部420、ユーザによるHMD傾け動作(特に、傾け方向)を判定する傾け動作判定部440、オブジェクト操作に際し仮想カメラの位置や方向を調整する仮想カメラ調整部450、操作対象オブジェクトに対するオブジェクト操作を、オブジェクト操作テーブル470に従って特定するオブジェクト操作特定部460、および、オブジェクト操作を実施して視界画像を生成するオブジェクト操作実施部480を含む。
ここで、図9を参照してオブジェクト操作テーブル470を用いたオブジェクト操作特定について説明する。図9はオブジェクト操作テーブル470の基礎となる、ユーザ動作とオブジェクト操作の対応例を示す概略図である。オブジェクト選択部360で操作対象オブジェクトを選択した際、引き続き外部コントローラへの「タップ」動作をユーザが行うと、3次元空間内で操作対象オブジェクトを「掴む」動作を行うことができる。「タップ」動作は例示に過ぎず、操作対象オブジェクトが選択された状態で一意に関連付け可能なユーザ動作であれば、他のHMD動作でもその他の入力動作によるものでもよい。
上記「掴む」動作をした後のオブジェクト操作は、オブジェクト操作テーブル470に従って決定することができる。図示のように、ユーザ動作には、HMD傾け動作(列)に加えて、外部コントローラによるタッチ動作(行)が含まれ、これらユーザ動作の組合せにより、オブジェクト操作を特定することができる。例えば、HMD動作が「上下方向の傾け」動作である場合、更にユーザが外部コントローラ動作と連携してタッチ・ディスプレイ上で「タップ」動作を実施する場合は「オブジェクトを放す」動作指令として解釈される。同様に、HMD動作が「上下方向の傾け」動作である場合、更にユーザが外部コントローラと連携して「スワイプ」動作を実施する場合は「オブジェクトの回転移動」動作指令として、外部コントローラで「ホールド」動作を実施する場合は「オブジェクトの上下移動」動作指令として、外部コントローラ動作と連携せずに何もしない場合は「オブジェクトの前後移動」動作指令として、オブジェクト操作特定部460で解釈され、各動作指令がオブジェクト操作実施部480で実施されることになる。
なお、HMD動作は「上下方向の傾け」に限らず、一意に特定可能な傾け動作であれば何れの動作でもよい。また、ユーザ動作を、HMD傾け動作および外部コントローラ動作のどちらか一方のみとしてオブジェクト操作に対応付けてもよい。しかしながら、オブジェクト操作種別を多く設けたい場合には、これらの組合せとするのが好適である。ユーザによるHMD傾け動作は、HMDを装着したユーザが自身の頭部を動かすだけで実施可能なため、ユーザにとって容易なものである。また、外部コントローラでのタッチ動作についても、タッチ・ディスプレイの何れの位置での「タップ」、「スワイプ」、「ホールド」動作とするのみでよく、やはり、ユーザにとって容易なものと言える。
次に、図10を参照して、本発明の実施の態様による、3次元仮想空間内でのオブジェクト操作のための処理フローについて詳細に説明する。当該オブジェクト操作処理は、外部コントローラ140、ポジション・トラッキング・カメラ(位置センサ)130、HMD100およびコンピュータ(制御回路部)120の相互作用によって実現されるものである。
当該オブジェクト操作処理に際し、動き検出部210において、HMDの各情報が検知されている。即ち、ステップS130−1では、コンピュータ120に接続され且つHMDを検知可能な位置センサによってHMD100の位置が検知される。また、ステップS100−1では、コンピュータ120に接続されるHMDが具備する傾きセンサによってHMD100の傾きが検知される。そして、ステップS120−1では、動き検出部210により、それぞれ位置情報および傾き情報が決定され、更に視界決定部220により、上記HMD100の位置情報および/または傾き情報に基づいて、3次元仮想空間内での視界情報が決定される。
視界情報が決定されると、引き続き、ステップS120−2では、視界画像生成部220によって、HMDに表示するために、上記視界情報に基づいて視界画像を生成する。併せて、ステップS120−3では、空間内基準線計算部320によって、基準視線Lstdを決定する。基準視線Lstdは、視界画像の所定位置に対応付けて決定される。当該所定位置は視界画像の中心点とするのがよいが、これに限定されず、視界画像の如何なる設定可能な位置としてよい。また、基準点は何らかのマーク(例えば、手の平のアイコン)として上記視界画像に重畳表示するのがよい。
次いで、ステップS100−2では、視界画像がHMDに表示される。視界画像には、後に操作対象になり得る複数のオブジェクトが表示される。そして、視界画像がHMDに表示された状態で、HMDを装着したユーザは、頭部傾け動作を実施し、3次元仮想空間内に配置された複数のオブジェクトの内少なくとも1つが視界画像の所定位置に対応するよう位置合わせを行う。
ステップS120−4では、オブジェクト判定部340によって、少なくとも1つのオブジェクトが視界画像の上記所定位置に位置合わせされたか、即ち、3次元空間において基準視線上にオブジェクトが配置されているかについて判定する。基準視線上にオブジェクトが配置されている場合は、ステップS120−5において、オブジェクト選択部360によって当該オブジェクトを操作対象オブジェクトとして選択する。仮に基準視線上に配置されるオブジェクトが複数存在するような場合には、3次元仮想空間において仮想カメラの位置、即ち視点から最も近い1つのオブジェクトをオブジェクト選択部360は選択するとよい。
ステップS140−1では、ステップS120−5のオブジェクトの選択に対し、外部コントローラ140によるユーザ・タッチ動作(特に、「タップ動作」)があるかを判断する。当該ユーザ・タッチ動作があった場合には、ステップS120−6でオブジェクト特定部300がこれに応答して、操作対象オブジェクトの特定が完了する。この状態では、視界画像では、ユーザにより操作対象オブジェクトを「掴む」行為が実施された態様として、HMDに表示される。他方、ユーザ・タッチ動作がない場合には、初期のステップS130−1およびステップS100−1に戻り、引き続きHMDの位置情報および傾き情報を検知する。
ユーザが操作対象オブジェクトを掴んだ状態で、更に、ユーザにより外部コントローラ動作(ステップS140−2)やHMD傾け動作(ステップS100−3)がなされる。これらに対し、外部コントローラ動作判定部420や傾け動作・方向判定部440がそれぞれ動作判定を行い、ステップS120−7では、オブジェクト操作特定部460により操作対象オブジェクトへの対応する操作が特定される。対応する操作については、先に図9を参照して説明したとおりであり、例えば垂直(上下)方向のHMD傾け動作と外部コントローラ動作との動作の組み合わせに基づいて一意のオブジェクト操作が決定される。
ステップS120−8以降では、操作対象オブジェクトへの実際の操作が実施され、その結果がHMD上に表示される。即ち、ステップS120−8では、仮想カメラ調整部450により、図7Aや図7Bに示した仮想カメラの位置・方向の調整を行う。引き続き、ステップS120−9では、オブジェクト操作実施部480により、同じく図7Aや図7Bに示したように特定の操作を操作対象オブジェクトに実施する。そして、ステップS120−10では、操作に伴う一連の結果画像を生成し、ステップS100−4で当該操作結果画像を経時的にHMDに表示する。
画面表示例
上記を踏まえて、図11〜図13に、本発明の実施の態様に基づいて実装された、3次元仮想空間内でのオブジェクト操作に関連した、HMDに表示される画面例を示す。ここでは、没入型3次元仮想空間に配置された積み木オブジェクトを操作可能とするような積み木ゲーム・アプリケーションを想定する。より具体的には、積み木オブジェクトを特定方向に移動させる等の操作と関連付けることで、積み木オブジェクトへの操作をHMDの頭部動作で実施可能とする積み木ゲーム・アプリケーションを想定する。先に説明したとおり、各図には左目用と右目用の2つの画像が表示されており、HMDに表示される際は、これらを重畳することによりユーザには3次元画像の如く生成される。
図11では、3次元仮想空間の平面上に多くの積み木オブジェクトが配置されている。また、視界画像の中心には手のひらの形をしたマークが表示されている。そして、当該マークが積み木オブジェクトと重なるよう、ユーザはHMD傾け動作による位置合わせをすることでゲーム進行がなされる。ユーザは、当該位置合わせにより1つの積み木オブジェクトを選択した後に、HMD傾け動作および外部コントローラ動作を組み合わせることにより、その積み木オブジェクトを図7に示したようなオブジェクト操作ルールに従って操作させる。図12は、選択により掴んだ積み木オブジェクトを所定の位置まで移動する操作を行った状態である。また、図13は1つの積み木オブジェクトをHMDの垂直方向の傾け動作により上方向に持ち上げて、更に隣に配置された別の積み木オブジェクトに積み重ねようとしている状態である。
このように、本発明によれば、HMDを装着したユーザの頭部の簡易な動作により、没入型3次元仮想空間内のオブジェクト操作を実施可能とする。また、HMDを用いた頭部動作を外部コントローラの動作と組み合せることにより、より複雑なオブジェクト操作にも対応可能とする。これらを通じて、本発明は、HMDを用いたゲーム・アプリケーションにおいて、新規のゲーム操作態様を提供可能とするものである。
以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。
1 仮想カメラ
2 没入型3次元仮想空間
100 HMDシステム
110 HMD
112 ディスプレイ
114 傾きセンサ(ジャイロ・センサ)
120 コンピュータ(制御回路部)
130 位置センサ(ポジション・トラッキング・カメラ)
140 外部コントローラ
210 動き検出部220 視界決定部
230 視界画像生成部
240 オブジェクト制御部
250 空間情報格納部
260 オブジェクト情報格納部
270 仮想カメラ情報格納部
300 オブジェクト特定部
320 基準視線計算部
340 オブジェクト判定部
360 操作対象オブジェクト選択部
400 オブジェクト操作部
420 外部コントローラ動作判定部
440 傾け動作判定部
450 仮想カメラ調整部
460 オブジェクト操作特定部
470 オブジェクト操作テーブル
480 オブジェクト操作実施部

Claims (9)

  1. 没入型仮想空間内でオブジェクト操作をコンピュータに制御させるコンピュータ・プログラムであって、
    前記コンピュータに接続されるヘッドマウント・ディスプレイが具備する傾きセンサで検知される傾き情報に基づいて、仮想空間内の視界情報を決定する視界決定部と、
    前記ヘッドマウント・ディスプレイに表示するために、前記視界情報に基づいて前記仮想空間の視界画像を生成する画像生成部と、
    前記仮想空間において基準視線上に配置されるオブジェクトを特定するオブジェクト特定部であって、前記基準視線が、前記視界画像の所定位置に対応付けて決定される、オブジェクト特定部と、
    前記コンピュータに接続可能な外部コントローラ上で行われた動作と前記ヘッドマウント・ディスプレイの所定方向の傾け動作との組み合わせに応じて定まる、オブジェクトの特定以外の1の操作を、前記特定されたオブジェクトに対して実行するオブジェクト操作部
    として前記コンピュータに機能させる、コンピュータ・プログラム。
  2. 請求項1記載のコンピュータ・プログラムであって、
    前記視界決定部において、前記視界情報が更に、前記コンピュータに接続され且つ前記ヘッドマウント・ディスプレイを検知可能な位置センサによって検知される前記ヘッドマウント・ディスプレイの位置情報に基づく、コンピュータ・プログラム。
  3. 請求項1または2記載のコンピュータ・プログラムであって、
    前記オブジェクト特定部において、更に、前記基準視線上に配置されるオブジェクトが複数ある場合に、前記仮想空間において視点から最も近い1つのオブジェクトを選択する、コンピュータ・プログラム。
  4. 前記所定位置が前記視界画像の中心点に設定される、請求項1から3のいずれか一項記載のコンピュータ・プログラム。
  5. 前記所定方向が垂直方向である、請求項1から4のいずれか一項記載のコンピュータ・プログラム
  6. 前記外部コントローラがタッチ・ディスプレイを具備し、前記外部コントローラ上で行われた前記動作が、前記タッチ・ディスプレイへのタップ、スワイプおよびホールドの何れかを含むタッチ動作である、請求項1から5のいずれか一項記載のコンピュータ・プログラム。
  7. 没入型仮想空間内のオブジェクト操作のためのコンピュータ・システムであって、
    コンピュータと、該コンピュータに接続された、傾きセンサを具備するヘッドマウント・ディスプレイと、前記コンピュータに接続可能な外部コントローラとを備え、前記コンピュータが、
    前記傾きセンサで検知される傾き情報に基づいて仮想空間内の視界情報を決定し、
    前記ヘッドマウント・ディスプレイに表示するために、前記視界情報に基づいて前記仮想空間の視界画像を生成し、
    前記仮想空間において基準視線上に配置されるオブジェクトを特定し、前記基準視線が、前記視界画像の所定位置に対応付けて決定され、
    前記外部コントローラ上で行われた動作と前記ヘッドマウント・ディスプレイの所定方向の傾け動作との組み合わせに応じて定まる、オブジェクトの特定以外の1の操作を、前記特定されたオブジェクトに対して実行する
    ように構成される、コンピュータ・システム。
  8. 請求項7記載のコンピュータ・システムであって、更に、前記コンピュータに接続され、且つ前記ヘッドマウント・ディスプレイを検知可能な位置センサを備え、
    前記決定される視界情報が更に、前記位置センサによって検知される前記ヘッドマウント・ディスプレイの位置情報に基づく、コンピュータ・システム。
  9. 請求項7または8記載のコンピュータ・システムであって
    前記外部コントローラ上で行われた前記動作は、前記外部コントローラが具備するタッチ・ディスプレイ上のタッチ動作である、コンピュータ・システム。
JP2016138974A 2016-07-13 2016-07-13 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム Active JP6549066B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016138974A JP6549066B2 (ja) 2016-07-13 2016-07-13 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016138974A JP6549066B2 (ja) 2016-07-13 2016-07-13 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015052897A Division JP5981591B1 (ja) 2015-03-17 2015-03-17 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム

Publications (2)

Publication Number Publication Date
JP2016181302A JP2016181302A (ja) 2016-10-13
JP6549066B2 true JP6549066B2 (ja) 2019-07-24

Family

ID=57131077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016138974A Active JP6549066B2 (ja) 2016-07-13 2016-07-13 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム

Country Status (1)

Country Link
JP (1) JP6549066B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6189513B1 (ja) * 2016-10-18 2017-08-30 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2018194320A1 (ko) * 2017-04-20 2018-10-25 한국전자통신연구원 시선추적에 따른 공간 오디오 제어 장치 및 그 방법
JP7385238B2 (ja) * 2019-01-07 2023-11-22 株式会社mediVR リハビリテーション支援装置、リハビリテーション支援方法及びリハビリテーション支援プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263698A (ja) * 1995-03-20 1996-10-11 Matsushita Electric Ind Co Ltd 環境擬似体験装置
JP3961545B2 (ja) * 2005-11-29 2007-08-22 株式会社コナミデジタルエンタテインメント オブジェクト選択装置、オブジェクト選択方法、ならびに、プログラム
JP2010231290A (ja) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology 頭部運動による入力装置及び方法
US20130326364A1 (en) * 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
CN104246864B (zh) * 2013-02-22 2016-06-29 索尼公司 头戴式显示器和图像显示装置
US9829997B2 (en) * 2013-02-22 2017-11-28 Sony Corporation Head-mounted display system, head-mounted display, and head-mounted display control program

Also Published As

Publication number Publication date
JP2016181302A (ja) 2016-10-13

Similar Documents

Publication Publication Date Title
JP5981591B1 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
US9928650B2 (en) Computer program for directing line of sight
CN108780360B (zh) 虚拟现实导航
US9959679B2 (en) Floating graphical user interface
JP5959047B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
KR101340797B1 (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
JP5839220B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2013258614A (ja) 画像生成装置および画像生成方法
JP6110893B2 (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP6357023B2 (ja) 情報処理プログラム、情報処理装置、情報処理装置の制御方法および情報処理システム
WO2016163183A1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
WO2016152734A1 (ja) コンピュータ・プログラム
JP2012252661A (ja) 画像生成プログラム、画像生成方法、画像生成装置及び画像生成システム
JP6099237B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
EP2952233B1 (en) Information processing system, information processing program, information processing apparatus, and information processing method
JP7471497B2 (ja) 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
JP2016181267A (ja) コンピュータ・プログラム
US11960660B2 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
JP2017191474A (ja) Hmd装置におけるセンサー類を用いたユーザーインタフェースプログラムおよび装置
JP2017049960A (ja) Hmd装置におけるセンサー類を用いたユーザーインタフェースプログラムおよび装置
JP6867104B2 (ja) フローティング・グラフィカルユーザインターフェース
JP2017004539A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
WO2023221929A1 (zh) 画面显示方法、装置、电子设备及存储介质
WO2023181549A1 (ja) 制御装置、制御方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181129

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190626

R150 Certificate of patent or registration of utility model

Ref document number: 6549066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250