JP6960212B2 - 視線誘導のためのコンピュータ・プログラム - Google Patents

視線誘導のためのコンピュータ・プログラム Download PDF

Info

Publication number
JP6960212B2
JP6960212B2 JP2016110508A JP2016110508A JP6960212B2 JP 6960212 B2 JP6960212 B2 JP 6960212B2 JP 2016110508 A JP2016110508 A JP 2016110508A JP 2016110508 A JP2016110508 A JP 2016110508A JP 6960212 B2 JP6960212 B2 JP 6960212B2
Authority
JP
Japan
Prior art keywords
sight
line
target object
guidance
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016110508A
Other languages
English (en)
Other versions
JP2017059212A (ja
JP2017059212A5 (ja
Inventor
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015181073A external-priority patent/JP5981006B1/ja
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016110508A priority Critical patent/JP6960212B2/ja
Publication of JP2017059212A publication Critical patent/JP2017059212A/ja
Publication of JP2017059212A5 publication Critical patent/JP2017059212A5/ja
Application granted granted Critical
Publication of JP6960212B2 publication Critical patent/JP6960212B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータ・プログラムに関する。より詳細には、ユーザがヘッドマウント・ディスプレイ(以下、「HMD」と称する。)を頭部に装着し、3次元仮想空間に没入している状況において、3次元仮想空間での視線を所定の方向に誘導するようコンピュータを機能させるものである。
ユーザの頭部に装着され、眼前に配置されたディスプレイ等によってユーザに3次元仮想空間画像を提示可能なHMDが知られる。特に、3次元仮想空間に360度のパノラマ画像を表示可能なHMDが知られる。HMDは通例、各種センサ(例えば、加速度センサや角速度センサ)を備え、HMD本体の姿勢データを計測する。特に、頭部の回転角に関する情報に従ってパノラマ画像の視線方向変更を可能にすることを特徴とする。即ち、HMDを装着したユーザが自身の頭部を傾け、回転させると、それに併せて、360度のパノラマ画像の視線方向変更を可能にする。3次元仮想空間に没入したユーザは、自身の頭部動作により、3次元空間内で任意の方向に自らの視線を自由に向けることができる。
このようにして、HMDは、ユーザに対し、映像世界への没入感を高め、エンタテインメント性を向上させる。他方で、アプリケーション開発者側にとっては、3次元仮想空間の特定の位置に対してユーザに視線を向けてもらいたい場合に、ユーザ視線をどのように誘導するかが問題となる。
特許文献1には、ユーザに対し視点を推奨する従来技術が開示される。具体的には、3次元空間において、オブジェクト映像の推奨すべき視点を指定する推奨ベクトル情報を設定し、当該推奨ベクトル情報に基づいて、オブジェクト映像の表示に用いられる視点情報を決定する。これにより、推奨ベクトル情報の設定者の意図を反映させた形でオブジェクト映像を表示させるものである(段落〔0008〕)。ここでは、推奨ベクトルとして視覚的な部品(矢印や円)が適用可能である(段落〔0033〕)。しかしながら、特許文献1の開示は、上述したようなHMDを装着したユーザの頭部動作とは直接関係するものではない。
特開平11−265462号公報
本発明は、ユーザの視線を効果的に誘導可能なように3次元の誘導オブジェクトを3次元空間内の適切な位置に動的に配置する。これにより、HMDを装着して3次元仮想空間に没入しているユーザに対し、HMDの動作に連動した視覚的な視線誘導効果を実現することを目的とするものである。
上記の課題を解決するために、本発明は、3次元仮想空間内のターゲット・オブジェクトの位置を特定する特定手段と、HMDの動きに従って、仮想カメラからの視線に基づく視界を決定する視界決定手段と、3次元仮想空間において、視線に追従する3次元の誘導オブジェクトを、仮想カメラの位置と視線の方向とターゲット・オブジェクトの位置とに基づいて決定される、視界内の位置に配置する配置手段と、3次元仮想空間の視界画像を生成して表示する表示手段と、としてHMDに接続されるコンピュータを機能させる、視線誘導のためのコンピュータ・プログラムを提供する。
図1は、本発明の実施形態によるコンピュータ・プログラムを実施するためのHMDシステムを示した模式図である。 図2は、図1に示したHMDを装着したユーザの頭部を中心にして規定される実空間の直交座標系を示す。 図3は、図1のポジション・トラッキング・カメラによって検知される、HMD上に仮想的に設けられた複数の検知点を示す模式図である。 図4は、本発明の実施形態によるコンピュータ・プログラムをHMD用ゲーム・プログラムに適用して3次元仮想空間を構築した一例の画面イメージである。 図5は、3次元仮想空間における視界の内、水平方向について示す模式図である。 図6Aは、3次元仮想空間における誘導オブジェクトの配置について平面的に示す一例の模式図である。 図6Bは、3次元仮想空間における誘導オブジェクトの配置について平面的に示す他の例の模式図である。 図7Aは、3次元仮想空間における誘導オブジェクトの配置について立体的に示す一例の模式図である。 図7Bは、3次元仮想空間における誘導オブジェクトの配置について立体的に示す他の例の模式図である。 図8は、本発明の実施形態によるコンピュータ・プログラムで実装される主要な機能ブロック図である。 図9は、図8の機能ブロックにより実行される情報処理について示した概略の処理フロー図である。 図10は、図8の機能ブロックにより実行される情報処理について示した詳細の処理フロー図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施の形態による視線誘導のためのコンピュータ・プログラムは、以下のような構成を備える。
(項目1)
3次元仮想空間内のターゲット・オブジェクトの位置を特定する特定手段と、
HMDの動きに従って、仮想カメラからの視線に基づく視界を決定する視界決定手段と、
前記3次元仮想空間において、前記視線に追従する3次元の誘導オブジェクトを、前記仮想カメラの位置と前記視線の方向と前記ターゲット・オブジェクトの位置とに基づいて決定される、前記視界内の位置に配置する配置手段と、
前記3次元仮想空間の視界画像を生成して表示する表示手段と
として前記HMDに接続されるコンピュータを機能させる、視線誘導のためのコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、3次元仮想空間において、視線に追従する3次元誘導オブジェクトを視界内に動的に配置可能とすることにより、ユーザの視線を適切に誘導することができ、視覚的な視線誘導効果を発揮させることができる。
(項目2)
前記配置手段が、更に、
前記3次元仮想空間において、前記誘導オブジェクトを、前記視線の方向と前記仮想カメラから前記ターゲット・オブジェクトへの方向との間の位置であって、前記仮想カメラから前記ターゲット・オブジェクトまでの距離と等距離となる位置に配置する、項目1記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、誘導オブジェクトの配置位置をより適切な構成にすることができ、より効果的なユーザの視線誘導を実施可能となる。
(項目3)
前記配置手段が、更に、
前記3次元仮想空間において、前記誘導オブジェクトを、前記仮想カメラの位置を中心とし、且つ前記仮想カメラから前記ターゲット・オブジェクトまでを半径とする円周であって、前記視線と交差する円周上に配置する、項目2記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、誘導オブジェクトの配置位置をより適切な構成にすることができ、より自然な形で視線を追従可能とする。これにより、効果的なユーザの視線誘導を実施可能とする。
(項目4)
前記配置手段が、更に、
前記仮想カメラに関し、前記視線の方向と前記ターゲット・オブジェクトの方向との間の角度が所与の第1角以内となった場合に、前記誘導オブジェクトを前記ターゲット・オブジェクトの周囲の所定方向に配置する、項目1から3のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、誘導オブジェクトがターゲット・オブジェクトに接近したときに、誘導オブジェクトの動的な配置変更を実施可能とし、より効果的な視線誘導を可能とする。
(項目5)
前記所定方向が、前記3次元仮想空間における垂直方向である、項目4記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、誘導オブジェクトがターゲット・オブジェクトに接近したときに、誘導オブジェクトの動的な配置変更を実施可能とし、より効果的な視線誘導を可能とする。
(項目6)
前記第1角が10度から30度までの角度範囲から設定される、項目4または5記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、上記角度範囲を設けることにより、より効果的な誘導オブジェクトの配置変更を実施可能とする。
(項目7)
前記配置手段が、更に、
前記仮想カメラの位置に関し、前記視線の方向から前記ターゲット・オブジェクトの方向に向けて所与の第2角を成す位置に前記誘導オブジェクトを配置することを特徴とする、項目1から6のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、上記第2角を導入することにより、より適切な誘導オブジェクトの配置を通じたより効果的な視線誘導を実施可能とする。
(項目8)
前記誘導オブジェクトが、前記ターゲット・オブジェクトへの3次元の指向性を有する、項目1から7のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、誘導オブジェクトが、3次元の指向性を有することにより、より効果的な視線誘導を実施可能とする。
(項目9)
前記誘導オブジェクトが、前記仮想カメラに関し、前記視線の方向と前記ターゲット・オブジェクトの方向との間の角度に応じた第1特性を有する、項目1から8のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、所定の特性を有する動的な誘導オブジェクト表示態様とすることで、より効果的な視線誘導を実施可能とする。
(項目10)
前記誘導オブジェクトが所定のモーションを有する、項目1から9のいずれか一項記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、アニメーション効果を有する誘導オブジェクトを導入することで、より効果的な視線誘導を実施可能とする。
(項目11)
前記誘導オブジェクトのモーションが、前記仮想カメラに関し、前記視線の方向と前記ターゲット・オブジェクトの方向との間の角度に応じた第2特性を有する、項目10記載のコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、誘導オブジェクトを所定の特性を有するモーションによって導入することで、より効果的な視線誘導を実施可能とする。
[本発明の実施形態の詳細]
以下に、図面を参照して、本発明の実施の形態による、視線誘導のためのコンピュータ・プログラムについて説明する。図中、同一の構成要素には同一の符号を付してある。
図1は、本発明の実施形態によるコンピュータ・プログラムを実施するための、ヘッドマウント・ディスプレイ(以下、「HMD」と称する。)を用いたHMDシステム100の全体概略図である。図示のように、HMDシステム100は、HMD本体110、コンピュータ(制御回路部)120、およびポジション・トラッキング・カメラ(位置センサ)130を備える。
HMD110は、ディスプレイ112およびセンサ114を具備する。ディスプレイ112は、これに限定されないが、ユーザの視界を完全に覆うよう構成された非透過型の表示装置とすることができ、ユーザはディスプレイ112に表示される画面のみを観察することができる。当該非透過型のHMD110を装着したユーザは、外界の視界を全て失う。このため、コンピュータ120において実行されるアプリケーションによりディスプレイ112に表示される3次元仮想空間に完全に没入する表示態様となる。
HMD110が具備するセンサ114は、ディスプレイ112近辺に固定される。センサ114は、地磁気センサ、加速度センサ、および/または傾き(角速度、ジャイロ)センサを含み、これらの1つ以上を通じて、ユーザの頭部に装着されたHMD110(ディスプレイ112)の各種動きを検知することができる。特に角速度センサの場合には、図2のように、HMD110の動きに応じて、HMD110の3軸回りの角速度を経時的に検知し、各軸回りの角度(傾き)の時間変化を決定することができる。
そこで、図2を参照して、傾きセンサで検知可能な角度情報データについて具体的に説明する。図示のように、HMDを装着したユーザの頭部を中心として、XYZ座標系が規定される。ユーザが直立する垂直方向をY軸、Y軸と直交しディスプレイ112の中心とユーザを結ぶ方向をZ軸、Y軸およびZ軸と直交する方向の軸をX軸とする。傾きセンサでは、各軸回りの角度、具体的にはY軸を軸とした回転を示すヨー角、X軸を軸とした回転を示すピッチ角、およびZ軸を軸とした回転を示すロール角で決定される傾きを検知する。そして、その経時的な変化により、動き検知部220が視界情報として角度(傾き)情報データを決定する。当該角度情報データを用いることによって、HMDを装着したユーザに対し、3次元仮想空間内でのユーザの視線および該視線に基づく視界を提供することができる。
図1に戻り、HMDシステム100が備えるコンピュータ120は、HMDを装着したユーザを3次元仮想空間に没入させ、3次元仮想空間に基づく動作を実施させるための制御回路装置として機能する。図示のように、コンピュータ120は、HMD110とは別のハードウェアとして構成することができる。当該ハードウェアは、パーソナルコンピュータやネットワークを通じたサーバ・コンピュータのような汎用的なコンピュータとすることができる。即ち、互いにバス接続されたCPU、主記憶、補助記憶、送受信部、表示部、および入力部を備える(非図示)任意のコンピュータとすることができる。代替として、コンピュータ120は、視界調整装置としてHMD110内部に搭載されてもよい。この場合は、コンピュータ120は、視界調整装置の全部または一部の機能のみを実装することができる。一部のみを実装した場合には、残りの機能をHMD110側、またはネットワークを通じたサーバ・コンピュータ(非図示)側に実装してもよい。
HMDシステム100が備えるポジション・トラッキング・カメラ(位置センサ)130は、コンピュータ120に通信可能に接続され、HMD110の位置追跡機能を有する。ポジション・トラッキング・カメラ130は、赤外線センサおよび/または複数の光学カメラを用いて実現される。HMDシステム100は、このようなポジション・トラッキング・カメラ130を具備し、ユーザ頭部のHMDの位置を検知することによって、実空間のHMDの位置および3次元仮想空間における仮想カメラ/没入ユーザの仮想空間位置を正確に対応付けて、特定することができる。具体的には、ポジション・トラッキング・カメラ130は、図3に例示的に示すように、HMD110上に仮想的に設けられ、赤外線を検知する複数の検知点の実空間位置をユーザの動きに対応して経時的に検知する。そして、ポジション・トラッキング・カメラ130により検知された実空間位置の経時的変化に基づいて、HMD110の動きに応じて、3次元仮想空間内の位置特定を可能にする。
図4は、本発明の実施形態による視線誘導のためのコンピュータ・プログラムをHMD用ゲーム・プログラムに適用して3次元仮想空間を構築した一例の画面イメージである。なお、図4では視界画像を2次元画面イメージとして示しているが、HMDを装着しているユーザには3次元画像として表示される点に留意すべきである。図4(a),(b)に示すように、仮想カメラから撮影される視界の中心方向が視線方向であり、一例として、視野画像の中心部に仮想視点10,10’がドットで示される。また、視界画像には、中央のボード・オブジェクト40をはじめとした様々な3次元オブジェクトが配置される。当該3次元オブジェクト配置に関しては、オブジェクト情報や位置情報を有する3次元仮想空間情報がメモリに格納される。そして、HMDの動きによる視線方向に合わせて、HMD用ゲーム・プログラムが、3次元仮想空間情報に関連付けて視野画像を生成することができる。
図4(a),(b)のように、矢印(→)の3次元形状を有する3次元誘導オブジェクト20が3次元空間内に配置および表示される。3次元誘導オブジェクト20は、図4(a)では略左奥行き方向、図4(b)では下向きというように3次元での指向性を有する。そして、誘導オブジェクト20は、HMDの動き、即ち視線の動きに追従するように3次元仮想空間内の位置および向きが計算され、動的に配置される。
図4(a)では、視線誘導先のターゲット・オブジェクトは離れた位置にあり、未だ視界画像に含まれない。つまり、誘導オブジェクト20のみが、仮想視点10とターゲット・オブジェクト(非図示)の間に表示される。図4(a)のように、視界画像にターゲット・オブジェクトが含まれない場合でも、左奥行き方向を有する誘導オブジェクト20の存在により、ユーザは、左方向を向けばターゲット・オブジェクトを3次元空間内で特定できると認識可能である。他方、図4(b)のように仮想視点10’がターゲット・オブジェクトに十分近づいた場合は、もはや両者の間に誘導オブジェクト20を表示する必要もない。ユーザはターゲット・オブジェクト30の存在を既に認識していると想定できるからである。この場合は、誘導オブジェクト20’は、ターゲット・オブジェクト30の周囲の所定方向に、仮想視点10’およびターゲット・オブジェクト30の間からは外れて表示するのがよい。図4(b)の例では、ターゲット・オブジェクト30に対し、3次元仮想空間の垂直方向に所定の距離だけ離して下向きに誘導オブジェクト20’を配置している。
なお、誘導オブジェクト20,20’は、仮想カメラに関する視線の方向とターゲット・オブジェクトの方向との間の角度に応じた特性を有するようにしてもよい。特に、上記角度に応じて誘導オブジェクトの大きさや色を決定するのがよい。例えば、視線の方向がターゲット・オブジェクトから離れる程、3次元誘導オブジェクト(3D矢印オブジェクト)を大きい形状を有するようにし、および/または、目立つように色彩を付す(例えば赤色)ようにするのがよい。
加えて、誘導オブジェクトは所定のモーションを有するようにHMDにアニメーション表示してもよい。ここでのモーションとは、例えば、3D矢印オブジェクトが向いている方向に、3次元的に小刻みな前後運動をするといったアニメーション動作を含むが、これに限定されず、如何なるアニメーション動作としてもよい。また、誘導オブジェクトのモーションは、仮想カメラに関する視線の方向とターゲット・オブジェクトの方向との間の角度に応じた動きの特性を有するようにしてもよい。例えば、上記角度に応じて、前後運動の距離や速度を決定してもよい。
図5は、3次元仮想空間に配置された仮想カメラからの視界、特に水平方向の視界について示す。図示のように、3次元仮想空間にXYZ座標系が規定され、仮想カメラ1が(Xcam,Ycam,Zcam)の位置に配置される。当該位置座標は、図3に示すように、ポジション・トラッキング・カメラ130により検知された位置情報に基づいて決定するのがよい。また、図2に示したように、センサ114の傾きに応じて、3次元仮想空間内の視線を決定するのがよい。仮想カメラ1は所定の視界角度を有しており、視線および視野角度に基づいて視界が決定されて視界画像が生成される。具体的には、仮想カメラ1からの視界の基準となる視線Lstdが視界画像の所定位置(例えば、中心点)に対応するように規定される。そして、視線Lstdを中心に水平方向(XZ平面方向)の視野角αが規定される。図5では、簡単のため、水平方向(XZ平面方向)の視野角αのみを示しており、垂直方向(Y軸方向)の視野角βは、ここでは示していない。このようにして、図4に示すような、3次元仮想空間の視界画像が生成される。
図6Aおよび図6Bは、図4に示したターゲット・オブジェクト30および誘導オブジェクト20,20の配置関係を、図5のような3次元仮想空間を垂直方向から見た概略平面図である。図6A(a)および図6A(b)に示すように、視線に追従する誘導オブジェクト20を配置する位置は、仮想カメラ1の位置、視線の方向上に設けた仮想視点10の位置、およびターゲット・オブジェクト30の位置に基づいて決定することができる。更に特定すれば、誘導オブジェクト20は、3次元仮想空間において、仮想カメラ1からの視線の方向、および仮想カメラ1からのターゲット・オブジェクト30への方向の間の位置に配置するのがよい。加えて、仮想カメラ1からターゲット・オブジェクトまでの距離と等距離となる位置に配置するのがよい。なお、図示のように、仮想視点10は、仮想カメラ1からの視線の方向の内、仮想カメラ1からターゲット・オブジェクトまでの距離と等距離となる位置に仮想的に設定するのがよい。
図6A(a)および図6A(b)では、仮想カメラ1の位置に関し、視線の方向からターゲット・オブジェクトの方向に向けて所定の角度φを成す位置に誘導オブジェクトを維持するように配置する。これにより、ユーザによるHMD動作による視線変化に応じて、誘導オブジェクトを追従させるように構成する。なお、図6A(a)では、3次元仮想空間において、仮想視点10とターゲット・オブジェクト30が十分離れている(角度θだけ離れている)。即ち、角度θが図5の水平視野角よりも大きい状態でターゲット・オブジェクト30が配置される。このため、図4(a)に示したように、HMDに表示される視界画像にはターゲット・オブジェクト30は表示されない。
図6A(a)の誘導オブジェクト20の表示にしたがってユーザは頭(HMD)を傾け、視線を図6A(b)の位置まで移動させる。即ち、仮想カメラ1に関する視線の方向とターゲット・オブジェクト30の間の角度がθからθ’まで小さくなる。引き続き、ユーザは、視界画像中の誘導オブジェクト20の表示にしたがって、更に頭(HMD)を傾けてθ’を小さくしようとする。しかしながら、図6A(c)のようにθ’’が所定の角度よりも小さくなる場合には、角度φがθ’’よりも大きくなり、もはや誘導オブジェクト20を表示する実益がない。この場合は、図4(b)に示したように、誘導オブジェクトをターゲット・オブジェクトの周囲の所定方向に(例えば垂直方向に所定の距離だけ離して)配置するのがよい。
このようなターゲット・オブジェクト30の周囲の所定方向に誘導オブジェクト20を配置するためのイベントは、θ’’が10度から30度の範囲内の所定角度に入ったことをトリガに発生させるのがよい。本発明者の実験によれば、当該10度から30度の角度範囲とするのがダイナミックな視覚効果をもたらすのに適切であると判明している。なお、上記所定角度は、10度から30度の範囲内であれば何れの角度でも設定可能である。
上記では、角度φは固定的なものとして説明したが、これに限定されない。即ち、仮想カメラ1に関する視線の方向とターゲット・オブジェクト30の間の角度θに応じて動的にφを変更してもよいし、ユーザのHMDの傾け動作に応じて、例えば動作の角速度や加速度等に応じて変更してもよい。
また、上記では、誘導オブジェクト20を仮想カメラ1からターゲット・オブジェクトまでの距離と等距離となる位置に配置しているがこれに限定されない。但し、図6B(a)に示すように、誘導オブジェクト20aを仮想カメラに近づけ過ぎると、仮想視点10と重なり、画面表示上邪魔になるため適切ではない。また、誘導オブジェクト20bを仮想カメラから遠ざけ過ぎると、画面表示上小さすぎてユーザは視認しづらくなる。このため、図6B(b)のように、仮想カメラからの距離に応じて、誘導オブジェクト20a’,20b’の大きさを動的に決定するのがよい。
図7Aおよび図7Bに、図6(a)から(c)へ移行する様子を立体的に示す。図7Aは図6(a)(および図4(a))に相当し、図7Bは図6(c)(および図4(b))に相当する。なお、これらは概念的に例示したものに過ぎない。誘導オブジェクト20およびターゲット・オブジェクト30は、実際は3次元のオブジェクトとして空間内に配置されることに留意すべきである。
図7Aでは、3次元仮想空間において、誘導オブジェクト20を円周平面上に配置する。即ち、誘導オブジェクト20は、仮想カメラ1の位置を中心とし、且つ仮想カメラ1からターゲット・オブジェクト30までを半径とする円周Cであって、視線と交差する(仮想視点10を有する)円周C上に配置する。このように誘導オブジェクト20を配置することにより、誘導オブジェクトが視線に追従して滑らかに3次元移動する様子を表現することができる。また、図7Bでは、一例として、仮想視点とターゲット・オブジェクトの間の角度θ’’が所定の角度範囲内に入ったため、誘導オブジェクト20’を3次元仮想空間の垂直方向に所定の距離だけ離して配置する。しかしながら、誘導オブジェクト20’の配置位置は、該誘導オブジェクトが視界の邪魔にならないよう、ターゲット・オブジェクトの周囲に配置するのであれば、何れの方向でもよいことに留意すべきである。この点、周囲に配置された別のオブジェクトとの関係において、配置位置を決定してもよい。
これより図8以降を参照して、本発明の実施形態により、視線誘導のためのコンピュータ・プログラムで実行される情報処理について説明する。図8は、本発明の実施形態による、視線誘導のためのコンピュータ・プログラムを実装するために、コンピュータ(制御回路部)120に機能させるコンポーネントの主要機能の構成を示したブロック図である。本発明の実施形態では、図8の各コンポーネントによる手段としてコンピュータ120を機能させる。つまり、コンピュータ120では、主に、センサ114からの入力を受け、該入力を処理してHMD(ディスプレイ)112への出力を行う。ここでの出力には、3次元仮想空間の視界画像を生成して表示することを含む。
具体的には、コンピュータ120は、主に、動き検知部210、視界決定部220、ターゲット特定部230、誘導オブジェクト配置部240、および視界画像生成部250を含む。また、仮想空間情報を格納した空間情報格納部260等の各種テーブルを参照・更新等することにより各種情報を処理するように構成される。
動き検知部210では、センサ114で測定された動き情報の入力に基づいて、ユーザの頭部に装着されたHMD110の各種動きデータを決定する。本発明の実施形態では、特に、HMDが具備する傾きセンサ(ジャイロ・センサ)114により経時的に検知される傾き(角度)情報、およびHMDを検知可能な位置センサ(ポジション・トラッキング・カメラ)130により経時的に検知される位置情報を決定する。
視界決定部220では、HMDの動きに従って、仮想カメラからの視線に基づく視界を決定する。具体的には、空間情報格納部260に格納された3次元仮想空間情報、並びに、動き検知部210で検知された傾き情報および位置情報に基づいて、図5に示したように3次元仮想空間に配置した仮想カメラの位置、方向、そして、該仮想カメラからの視界を決定する。なお、位置センサ130は任意としてよく、位置センサを使用しない場合は、仮想カメラは常に3次元仮想空間の中心点に配置するように構成される。
ターゲット特定部230では、空間情報格納部260に格納された3次元仮想空間情報に基づいて、3次元仮想空間に配置されたターゲット・オブジェクトの位置を特定する。当該ターゲット・オブジェクトは、視線を誘導する誘導先のターゲットである。また、ゲーム進行のシナリオ等に応じて、ターゲット・オブジェクトは予め順番と共に設定される。
誘導オブジェクト配置部240では、3次元仮想空間において、3次元誘導オブジェクトを、仮想カメラの位置、視線の方向、およびターゲット・オブジェクトの位置に基づいて決定される、視界内の位置に配置する。これにより、誘導オブジェクトを視線の動きに追従させるよう構成可能である。
視界画像生成部250では、HMDに表示するために、視界決定部220で決定した視界に対する360度パノラマの一部の視界画像を、仮想空間情報を用いて生成することができる。なお、視界画像について、2次元画像を左目用と右目用の2つを生成し、HMDにおいてこれら2つを重畳させることによって、ユーザには3次元画像の如くHMDに表示可能である。
なお図8において、様々な処理を行う機能ブロックとして記載される各コンポーネントは、ハードウェア的には、CPU、メモリ、その他の集積回路で構成することができ、ソフトウェア的には、メモリにロードされた各種プログラムなどによって実現される。したがって、これらの機能ブロックがハードウェア、ソフトウェア、又はそれらの組み合わせによって実現できることが当業者に理解されて然るべきである。
次に、図9および図10を参照して、本発明の実施形態による視線誘導に関連する処理フローについて説明する。図9に示すように、当該情報処理は、主に、HMD110とコンピュータ120の間の相互作用を通じて実施される。図9は、ユーザのHMD傾け動作と共に、視線誘導にしたがって3次元仮想空間における視界をユーザに変更させて、視界画像を生成および表示する一連の概略処理フローである。図10は、図9の処理の内、誘導オブジェクトを配置する処理(ステップS20−4)に関する詳細の処理フローである。
図9では、HMD110は、ステップS10−1のように、恒常的にセンサ114を用いてユーザ頭部の動きを検知する。これを受けて、コンピュータ120では、ステップS20−1では、動き検知部210によって、HMDの位置情報に基づいて3次元仮想空間内に配置される仮想カメラの位置を決定する。同時に、ステップS20−2では、同じく動き検知部210によって、HMDの動き(傾き情報)に従って仮想カメラの向き、即ち視線を決定する。引き続き、ステップS20−3では、視界決定部220により、仮想カメラからの視線、および仮想カメラの所定の視野角度(図5)に基づいて視界を決定する。
ステップS20−4では、ターゲット特定部230によって3次元空間に配置されたターゲット・オブジェクトを特定する。同時にステップS20−4では、誘導オブジェクト配置部240によって、該ターゲット・オブジェクトに向ける3次元の誘導オブジェクトを視界内の空間位置に配置する。なお、当該ステップS20−4の詳細は図10で後述する。
ステップS20−5では、HMD112に表示するために、視界画像生成部250により、視界に対する視界画像を、誘導オブジェクトを収容した形で生成する。具体的には、視界画像生成部230は、空間情報格納部280に格納した仮想空間情報を用いることによって、視界に対応する視界画像を生成することができる。次いで、ステップS10−2に進み、ステップS20−5で生成した視界画像をHMDのディスプレイ112に表示する。
上記ステップS10−1、S20−1からS20−5、およびS10−2が一連の基本処理ルーチンであり、アプリケーション実行中は、これらステップは基本的に繰り返し処理される。
図10に、ステップS20−4に関する詳細フローを示す。ステップS200−1では、ターゲット特定部230によって、3次元仮想空間内のターゲット・オブジェクトの位置を特定する。なお、ターゲット・オブジェクトは予めターゲットとされる順序と共に設定され、メモリにテーブルとして格納しておくのがよい。以降のステップは、誘導オブジェクト配置部240がその動作主体となる。
ステップS200−2では、仮想カメラの位置に関し、視線方向からターゲット・オブジェクト方向への角度θを決定する。そして、誘導オブジェクトの配置を決定するために、ステップS200−3でθが所定の各ωより大きいかを判定する。YESの場合は、ステップS200−4に進み、視線に追従する3次元の誘導オブジェクトを、仮想カメラの位置、視線の方向、およびターゲット・オブジェクトの位置に基づいて決定する。他方、NOの場合はステップS200−6に進み、誘導オブジェクトの配置変更により、誘導オブジェクトをターゲット・オブジェクトの周囲の所定方向に配置する。
より詳細には、ステップS200−4では、仮想カメラの位置を中心とし、ターゲット・オブジェクトまでの距離を半径とし、且つ、視線が交差する円周(図7Aの円周C)を決定する。引き続き、ステップS200−5では、視線方向からターゲット・オブジェクト方向へ角度φを成す円周上の点を視界領域内の誘導オブジェクト配置点として決定する。次いで、ステップS200−7で、決定した誘導オブジェクト配置点に3次元誘導オブジェクトを配置する。その際、誘導オブジェクトは3次元の指向性を有し、ターゲット・オブジェクト方向を指向するように配置するのがよい。
他方、ステップS200−6では、ターゲット・オブジェクトの周辺の所定の方向に、所定の距離だけ離れた場所を誘導オブジェクト配置点として決定する。例えば、図7Bに示したように、3次元仮想空間の垂直方向に所定の距離だけ離した位置を誘導オブジェクト配置点とするのがよい。次いで、上記同様、ステップS200−7で、決定した誘導オブジェクト配置点に3次元誘導オブジェクトを配置する。
本発明の実施形態による視線誘導のためのコンピュータ・プログラムによれば、3次元仮想空間において、視線に追従する3次元誘導オブジェクトを視界内に動的に配置可能とすることにより、ユーザの視線を適切に誘導することができ、視覚的な視線誘導効果を発揮させることができる。特に、3次元誘導オブジェクトは、3次元指向性を有することや様々な特性を有するように構成することにより、より効果的な視線誘導を可能とする。更に、所定の角度条件による視界変更を通じて、視線誘導をよりダイナミミックの視覚効果を有するように構成することが可能である。
以上、本発明の実施形態による視線誘導のためのコンピュータ・プログラムについていくつかの例示と共に説明してきたが、本発明は上記実施形態に限定されるものではない。特許請求の範囲に記載される本発明の趣旨及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。

Claims (11)

  1. ヘッドマウント・ディスプレイに接続されるコンピュータを、
    3次元仮想空間内のターゲット・オブジェクトの位置を特定する特定手段、
    ヘッドマウント・ディスプレイの動きに従って、仮想カメラからの視線に基づく視界を決定する視界決定手段、
    前記3次元仮想空間において、3次元の誘導オブジェクトを、前記仮想カメラの位置と前記視線の方向と前記ターゲット・オブジェクトの位置とに基づいて決定される、前記視界内の位置に配置する配置手段、
    前記3次元仮想空間の視界画像を生成して前記ヘッドマウント・ディスプレイに表示させる表示制御手段、
    として機能させ、
    前記配置手段が、更に、
    前記仮想カメラに関し、前記視線の方向と前記ターゲット・オブジェクトの方向との間の角度が所与の第1角の範囲外にある場合に、前記誘導オブジェクトを前記視線の方向と前記ターゲット・オブジェクトの方向との間に配置し、前記第1角の範囲内にある場合に、前記誘導オブジェクトを前記視線の方向と前記ターゲット・オブジェクトの方向との間から外れた位置に配置し、
    前記仮想カメラから前記誘導オブジェクトまでの距離に応じて前記誘導オブジェクトの大きさを動的に変化させる、視線誘導のためのコンピュータ・プログラム。
  2. 前記配置手段が、更に、
    前記3次元仮想空間において、前記誘導オブジェクトを、前記仮想カメラの位置を中心とし、且つ前記仮想カメラから前記ターゲット・オブジェクトまでを半径とする円周であって、前記視線と交差する円周上に配置する、請求項1記載のコンピュータ・プログラム。
  3. 前記配置手段が、更に、
    前記第1角の範囲内にある場合に、前記誘導オブジェクトを前記視線の方向と前記ターゲット・オブジェクトの方向との間から外れた位置で、且つ前記3次元仮想空間における垂直方向に配置する請求項1記載のコンピュータ・プログラム。
  4. 前記第1角が10度から30度までの角度範囲から設定される、請求項1から3のいずれか一項記載のコンピュータ・プログラム。
  5. 前記配置手段が、更に、
    前記仮想カメラの位置に関し、前記誘導オブジェクトが前記視線の方向と前記ターゲット・オブジェクトの方向との間にある場合に、前記視線の方向から前記ターゲット・オブジェクトの方向に向けて所与の第2角を成す位置に前記誘導オブジェクトを配置することを特徴とする、請求項1から4のいずれか一項記載のコンピュータ・プログラム。
  6. 前記誘導オブジェクトが、前記ターゲット・オブジェクトへの3次元の指向性を有する、請求項1から5のいずれか一項記載のコンピュータ・プログラム。
  7. 前記誘導オブジェクトが、前記仮想カメラに関し、前記視線の方向と前記ターゲット・オブジェクトの方向との間の角度に応じた第1特性を有する、請求項1から6のいずれか一項記載のコンピュータ・プログラム。
  8. 前記誘導オブジェクトが所定のモーションを有する、請求項1から7のいずれか一項記載のコンピュータ・プログラム。
  9. 前記誘導オブジェクトのモーションが、前記仮想カメラに関し、前記視線の方向と前記ターゲット・オブジェクトの方向との間の角度に応じた第2特性を有する、請求項8記載のコンピュータ・プログラム。
  10. ヘッドマウント・ディスプレイに接続されるコンピュータであって、
    3次元仮想空間内のターゲット・オブジェクトの位置を特定する特定手段と、
    前記ヘッドマウント・ディスプレイの動きに従って、仮想カメラからの視線に基づく視界を決定する視界決定手段と、
    前記3次元仮想空間において、3次元の誘導オブジェクトを、前記仮想カメラの位置と前記視線の方向と前記ターゲット・オブジェクトの位置とに基づいて決定される、前記視界内の位置に配置する配置手段と、
    前記3次元仮想空間の視界画像を生成して前記ヘッドマウント・ディスプレイに表示させる表示制御手段と、を備え、
    前記配置手段が、更に、
    前記仮想カメラに関し、前記視線の方向と前記ターゲット・オブジェクトの方向との間の角度が所与の第1角の範囲外にある場合に、前記誘導オブジェクトを前記視線の方向と前記ターゲット・オブジェクトの方向との間に配置し、前記第1角の範囲内にある場合に、前記誘導オブジェクトを前記視線の方向と前記ターゲット・オブジェクトの方向との間から外れた位置に配置し、
    前記仮想カメラから前記誘導オブジェクトまでの距離に応じて前記誘導オブジェクトの大きさを動的に変化させる、コンピュータ。
  11. 3次元仮想空間内のターゲット・オブジェクトの位置を特定するステップと、
    ヘッドマウント・ディスプレイの動きに従って、仮想カメラからの視線に基づく視界を決定する視界決定ステップと、
    前記3次元仮想空間において、3次元の誘導オブジェクトを、前記仮想カメラの位置と前記視線の方向と前記ターゲット・オブジェクトの位置とに基づいて決定される、前記視界内の位置に配置する配置ステップと、
    前記3次元仮想空間の視界画像を生成して前記ヘッドマウント・ディスプレイに表示させる表示制御ステップと、を含み、
    前記配置ステップが、更に、
    前記仮想カメラに関し、前記視線の方向と前記ターゲット・オブジェクトの方向との間の角度が所与の第1角の範囲外にある場合に、前記誘導オブジェクトを前記視線の方向と前記ターゲット・オブジェクトの方向との間に配置し、前記第1角の範囲内にある場合に、前記誘導オブジェクトを前記視線の方向と前記ターゲット・オブジェクトの方向との間から外れた位置に配置し、
    前記仮想カメラから前記誘導オブジェクトまでの距離に応じて前記誘導オブジェクトの大きさを動的に変化させる、方法。
JP2016110508A 2015-09-14 2016-06-01 視線誘導のためのコンピュータ・プログラム Active JP6960212B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016110508A JP6960212B2 (ja) 2015-09-14 2016-06-01 視線誘導のためのコンピュータ・プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015181073A JP5981006B1 (ja) 2015-09-14 2015-09-14 視線誘導のためのコンピュータ・プログラム
JP2016110508A JP6960212B2 (ja) 2015-09-14 2016-06-01 視線誘導のためのコンピュータ・プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015181073A Division JP5981006B1 (ja) 2015-09-14 2015-09-14 視線誘導のためのコンピュータ・プログラム

Publications (3)

Publication Number Publication Date
JP2017059212A JP2017059212A (ja) 2017-03-23
JP2017059212A5 JP2017059212A5 (ja) 2018-09-06
JP6960212B2 true JP6960212B2 (ja) 2021-11-05

Family

ID=58390764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110508A Active JP6960212B2 (ja) 2015-09-14 2016-06-01 視線誘導のためのコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP6960212B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200279110A1 (en) * 2017-09-15 2020-09-03 Sony Corporation Information processing apparatus, information processing method, and program
KR102628667B1 (ko) * 2021-09-23 2024-01-24 그리다텍 주식회사 태양계 공전 시스템을 모사한 vr 인터페이스 시스템
CN116983628A (zh) * 2022-01-04 2023-11-03 腾讯科技(深圳)有限公司 画面显示方法、装置、终端及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102052A (ja) * 1995-10-06 1997-04-15 Olympus Optical Co Ltd 立体画像表示装置
JP3890781B2 (ja) * 1997-10-30 2007-03-07 株式会社セガ コンピュータ読み取り可能な記憶媒体、ゲーム装置、及びゲームの画像表示方法
JP3717653B2 (ja) * 1998-01-20 2005-11-16 株式会社リコー 頭部搭載型画像表示装置
JP3431522B2 (ja) * 1998-11-17 2003-07-28 株式会社ナムコ ゲーム装置及び情報記憶媒体
JP3959354B2 (ja) * 2003-01-10 2007-08-15 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
JP4715353B2 (ja) * 2005-07-19 2011-07-06 株式会社セガ 画像処理装置、描画方法および描画プログラム
JP4463227B2 (ja) * 2006-03-15 2010-05-19 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP5622510B2 (ja) * 2010-10-01 2014-11-12 オリンパス株式会社 画像生成システム、プログラム及び情報記憶媒体
JP5532026B2 (ja) * 2011-08-10 2014-06-25 カシオ計算機株式会社 表示装置、表示方法及びプログラム
JP2013157797A (ja) * 2012-01-30 2013-08-15 Sony Corp 撮像装置、端末装置、情報処理装置、撮像システムおよび方法とプログラム
WO2013179424A1 (ja) * 2012-05-30 2013-12-05 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体
US20160055675A1 (en) * 2013-04-04 2016-02-25 Sony Corporation Information processing device, information processing method, and program
US9235051B2 (en) * 2013-06-18 2016-01-12 Microsoft Technology Licensing, Llc Multi-space connected virtual data objects
KR102119659B1 (ko) * 2013-09-23 2020-06-08 엘지전자 주식회사 영상표시장치 및 그것의 제어 방법
JP5981006B1 (ja) * 2015-09-14 2016-08-31 株式会社コロプラ 視線誘導のためのコンピュータ・プログラム

Also Published As

Publication number Publication date
JP2017059212A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP5981006B1 (ja) 視線誘導のためのコンピュータ・プログラム
US9721396B2 (en) Computer and computer system for controlling object manipulation in immersive virtual space
CN108780360B (zh) 虚拟现实导航
US10115235B2 (en) Method for controlling head mounted display, and system for implemeting the method
US10521028B2 (en) System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
US10573062B2 (en) Method and system for providing a virtual space
US9873048B2 (en) Method and system for adjusting a field of view region in a virtual space
US9741167B1 (en) Method and system for providing an image of a virtual space to a head mounted display
CN109643159A (zh) 在增强和/或虚拟现实环境中利用六自由度控制器操纵虚拟对象
CN107810465A (zh) 用于产生绘制表面的系统和方法
EP3248045A1 (en) Augmented reality field of view object follower
JP6110893B2 (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP6332652B1 (ja) 表示制御装置、及びプログラム
WO2016163183A1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP2017138973A (ja) 仮想空間の提供方法、およびプログラム
JP6960212B2 (ja) 視線誘導のためのコンピュータ・プログラム
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
CN112308981A (zh) 图像处理方法、装置、电子设备及存储介质
US10885319B2 (en) Posture control system
JP6535699B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
TWI620100B (zh) 虛擬實境移動畫面顯示方法、虛擬實境裝置及記錄媒體
Ericsson et al. Interaction and rendering techniques for handheld phantograms
JP2017033465A (ja) 方法、および、プログラム
JP2017004539A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP2024500740A (ja) オブジェクトの選択の方法及びシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20191002

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191018

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200825

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201006

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201215

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210421

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20210525

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210810

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210914

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R150 Certificate of patent or registration of utility model

Ref document number: 6960212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250