JP2016224823A - ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム - Google Patents

ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム Download PDF

Info

Publication number
JP2016224823A
JP2016224823A JP2015112591A JP2015112591A JP2016224823A JP 2016224823 A JP2016224823 A JP 2016224823A JP 2015112591 A JP2015112591 A JP 2015112591A JP 2015112591 A JP2015112591 A JP 2015112591A JP 2016224823 A JP2016224823 A JP 2016224823A
Authority
JP
Japan
Prior art keywords
viewpoint
display
head
rotation
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015112591A
Other languages
English (en)
Other versions
JP6250592B2 (ja
Inventor
正臣 西舘
Masaomi Nishidate
正臣 西舘
龍一 岡山
Ryuichi Okayama
龍一 岡山
圭介 藍
Keisuke Ai
圭介 藍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2015112591A priority Critical patent/JP6250592B2/ja
Priority to US15/157,806 priority patent/US10429925B2/en
Publication of JP2016224823A publication Critical patent/JP2016224823A/ja
Application granted granted Critical
Publication of JP6250592B2 publication Critical patent/JP6250592B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

【課題】仮想3次元空間内においてユーザから見て前方に配置されているように見えるオブジェクトを様々な角度から視覚する際のユーザの負担を軽減する。
【解決手段】検出部42は、仮想3次元空間に配置された視点からオブジェクトを見た様子を表す画像を表示させるヘッドマウントディスプレイの回転を検出する。表示制御部48は、検出部42による回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した視点からオブジェクトを見た様子を表す画像が表示されるよう制御する。
【選択図】図9

Description

本発明は、ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラムに関する。
加速度センサ等を備え、姿勢を変化させることにより表示内容を変化させることができる携帯型のゲームシステムやゲーム装置が知られている(特許文献1〜4参照)。特許文献1、2に記載されている技術では、視点の基本座標を傾きセンサによって検出される傾き方向とは逆方向に回転させることで3次元のゲーム空間が、ゲーム装置等の傾き連動して傾けられるかのような感覚をプレイヤに与えることができる。
また、ユーザが頭部に装着して、仮想3次元空間に配置された視点からオブジェクトを見た様子を表す画像を視覚等するためのヘッドマウントディスプレイ(HMD)が知られている。このようなHMDのなかには、ユーザの頭部の姿勢の変化に連動して仮想3次元空間に配置された視点の位置や視線方向が変化するものがある。例えば、ユーザが頭部を回転させずに動かすと、仮想3次元空間に配置された視点の視線方向は維持されたまま、頭部が動いた方向に視点の位置が移動する。また例えば、ユーザが頭部の位置を変えずに回転させると、仮想3次元空間に配置された視点の位置は維持されたまま、頭部が回転した向きに視線方向が回転する。
特開2003−334379号公報 特開2003−325974号公報 特開2006−68027号公報 特開2006−110382号公報
仮想3次元空間内においてユーザから見て前方に配置されているように見えるオブジェクトを様々な角度から視覚するためには、従来のHMDではユーザは当該オブジェクトの位置に相当する実空間内の位置を中心に頭部を様々な位置に旋回させる必要があった。例えば当該オブジェクトを反対側から視覚するためには、ユーザは当該オブジェクトの位置に相当する実空間内の位置の奥に回り込む必要があった。このように従来のHMDでは、ユーザから見て前方に配置されているように見える、仮想3次元空間に配置されたオブジェクトをあらゆる角度から視覚する際のユーザの負担は小さいとはいえなかった。
ここで特許文献1、2に記載の技術を、例えばHMDを装着している状況などといった頭部の姿勢に関わらずユーザの眼前に表示部が配置される状況に適用することが考えられる。しかし当該技術は、上述のように、視点の基本座標を傾きセンサによって検出される傾き方向とは逆方向に回転させる。そのため、当該技術を頭部の姿勢に関わらずユーザの眼前に表示部が配置される状況に適用してもユーザには違和感があった。
本発明は上記実情に鑑みてなされたものであって、その目的の一つは、仮想3次元空間内においてユーザから見て前方に配置されているように見えるオブジェクトを様々な角度から視覚する際のユーザの負担を軽減することにある。
上記課題を解決するために、本発明に係るヘッドマウントディスプレイは、仮想3次元空間に配置された視点からオブジェクトを見た様子を表す画像を表示させるヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの回転を検出する検出部と、前記検出部による回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御する表示制御部と、を含む。
本発明の一態様では、前記表示制御部は、前記検出部による回転の検出に応じて、注視点の位置及び前記オブジェクトまでの距離が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御する。
また、本発明の一態様では、前記検出部は、前記ヘッドマウントディスプレイの移動も検出し、前記注視点の位置は、前記検出部による移動の検出に応じて相対的に移動する。
この態様では、前記オブジェクトは、移動後の前記視点と前記オブジェクトとの距離の変化に応じて変化してもよい。
また、本発明の一態様では、前記表示制御部は、基準の相対位置から前記オブジェクトを見た様子が表示されるよう徐々に表示内容を変化させる。
また、本発明の一態様では、前記表示制御部は、制限操作を受けている期間は、前記検出部による回転の検出の有無に関わらず表示されている画像の変化を制限する。
また、本発明の一態様では、前記オブジェクトの面には、選択肢が配置されており、選択操作の受付に応じて、表示されている前記オブジェクトの面に配置されている選択肢に応じた処理を実行する処理実行部、をさらに含む。
また、本発明に係る情報処理装置は、仮想3次元空間に配置された視点からオブジェクトを見た様子を表す画像を表示させる情報処理装置であって、回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御する表示制御部、を含む。
また、本発明に係る表示制御方法は、仮想3次元空間に配置された視点から当該仮想3次元空間に配置されたオブジェクトを見た様子を表す画像を表示させる表示制御方法であって、回転を検出するステップと、回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御するステップと、を含む。
また、本発明に係るプログラムは、仮想3次元空間に配置された視点から当該仮想3次元空間に配置されたオブジェクトを見た様子を表す画像を表示させるコンピュータに、回転を検出する手順、回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御する手順、を実行させる。
本発明の一実施形態の全体構成の一例を示す図である。 本発明の一実施形態に係るヘッドマウントディスプレイの構成の一例を示す図である。 仮想3次元空間の一例を示す図である。 頭部の回転と表示内容の変化との関係の一例を示す図である。 仮想3次元空間の一例を示す図である。 頭部の移動の一例を示す図である。 仮想3次元空間の一例を示す図である。 頭部が移動する際の表示内容の変化の一例を示す図である。 本発明の一実施形態に係るヘッドマウントディスプレイで実装される機能の一例を示す機能ブロック図である。 本発明の一実施形態に係るヘッドマウントディスプレイにおいて行われる処理の流れの一例を示す図である。 頭部の移動の一例を示す図である。 仮想3次元空間の一例を示す図である。 仮想3次元空間の一例を示す図である。 頭部が移動する際の表示内容の変化の一例を示す図である。 視点とメニューオブジェクトとの間の距離に応じたメニューオブジェクトの変化、及び、視点が移動可能な範囲の制限の一例について説明する説明図である。 メニューオブジェクトの回転の一例を説明する説明図である。
以下、本発明の一実施形態について、図面を参照しながら説明する。
図1は、本発明の一実施形態の全体構成の一例を示す図である。図2は、本実施形態に係るヘッドマウントディスプレイ(HMD)10の構成の一例を示す図である。図1に示すように、本実施形態では、HMD10は、コントローラ12と通信可能になっている。そしてHMD10のユーザは、コントローラ12を操作することでHMD10に対する各種の操作を行うことができるようになっている。
図2に示すように、本実施形態に係るHMD10には、例えば、制御部20、記憶部22、通信部24、表示部26、センサ部28、が含まれる。
制御部20は、例えば記憶部22に記憶されるプログラムに従って動作するCPU等のプログラム制御デバイスである。
記憶部22は、例えばROMやRAM等の記憶素子などである。記憶部22には、制御部20によって実行されるプログラムなどが記憶される。
通信部24は、例えば無線LANポートなどといった通信インタフェースである。本実施形態に係る通信部24は、例えばコントローラ12から送信される操作信号を受信する。
表示部26は、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイであり、画像や映像などを表示させる。本実施形態では、図1に示すように、HMD10を装着するユーザの眼前に表示部26が配置されている。なお本実施形態に係る表示部26が、3次元映像を表示可能であってもよい。
センサ部28は、例えば加速度センサ、ジャイロセンサ、地磁気センサ、気圧センサ、などのセンサであり、HMD10の姿勢、回転量、移動量などを計測する。
本実施形態に係るセンサ部28は、HMD10の姿勢、回転量、移動量などの計測結果を所定のフレームレート(例えば、1/60秒間隔)で、制御部20に出力する。そして制御部20は、当該計測結果に基づいて、単位時間あたりのHMD10の移動量及び回転量、すなわちHMD10の速度及び角速度を特定する。このようにして本実施形態では、所定のフレームレートでHMD10の移動量及び回転量を特定できるようになっている。そして本実施形態では、特定された移動量及び回転量に基づいて、仮想3次元空間内の視点30の位置及び視線方向が以下に説明するように所定のフレームレートで変化する。
本実施形態に係るHMD10の表示部26は、図3に例示する仮想3次元空間に配置された視点30から、当該仮想3次元空間に配置されたオブジェクトを見た様子を表す画像を表示する。図3に例示する仮想3次元空間には、このようなオブジェクトの一例として、六面体であるメニューオブジェクト32が配置されている。そして本実施形態に係るメニューオブジェクト32の各面には、それぞれ「A」〜「F」のうちのいずれかのアルファベットが示された選択肢34が配置されている。ここでは例えば、メニューオブジェクト32の前面には「A」の選択肢34が、上面には「B」の選択肢34が、右側面には「C」の選択肢34が配置されていることとする。また図3には明示されていないが、メニューオブジェクト32の背面には「D」の選択肢34が、下面には「E」の選択肢34が、左側面には「F」の選択肢34が配置されていることとする。
そして本実施形態では例えば、初期状態では、図3に示すように、視線方向が「A」の選択肢34を向くよう視点30が仮想3次元空間内の位置P1に配置される。そのため本実施形態では例えば、初期状態では、表示部26には「A」の選択肢34が表示されることとなる。
また本実施形態では例えば、初期状態では、図3に示すように、メニューオブジェクト32の中心に注視点36が設定される。そして初期状態では、視点30の視線方向は注視点36を通るようになっている。ここでは例えば注視点36が位置P0に設定されていることとする。
なお、図3に示す仮想3次元空間では、初期状態における視線方向をX軸正方向、初期状態における視点30から見て右方向をY軸正方向、初期状態における視点30から見て上方向をZ軸正方向とする。
そして本実施形態では、HMD10を装着したユーザが頭部を回転させることで、表示される選択肢34を変更できるようになっている。また本実施形態では、ユーザによる選択操作に応じて、選択操作が行われた際に表示されている選択肢34に応じた処理、例えば、表示されている選択肢34に対応付けられるゲームプログラムの開始や設定画面の表示などが実行される。
本実施形態では、HMD10を装着したユーザが頭部を回転させると、回転の向きに相対的に視点30が旋回する。そして本実施形態では視点30が旋回する際に注視点36の位置及び視点30からメニューオブジェクト32までの距離が維持される。
ここで視点30が位置P1に配置されている際に、図4の(1)のA欄に示すようにユーザが下を向くように頭部を回転させたとする。この場合、図3に示すように視線方向が下を向くように視点30が経路R1に沿って位置P2まで旋回する。ここでは例えば、視点30は、XZ平面上を、図3における右から見て、すなわちY軸負方向に沿って見て時計回りに90度旋回することとなる。すると図4の(1)のB欄に示すように、表示部26に表示される選択肢34が「A」から「B」に変化する。
また視点30が位置P1に配置されている際に、図4の(2)のA欄に示すようにユーザが左を向くように頭部を回転させたとする。この場合、図3に示すように視線方向が左を向くように視点30が経路R2に沿って位置P3まで旋回する。ここでは例えば、視点30は、XY平面上を、図3における上から見て、すなわちZ軸負方向に沿って見て反時計回りに90度旋回することとなる。すると図4の(2)のB欄に示すように、表示部26に表示される選択肢34が「A」から「C」に変化する。
また視点30が位置P1に配置されている際に、図4の(3)のA欄に示すようにユーザが上から見て反時計回りにユーザが後ろを向くように頭部を回転させたとする。この場合、図3に示すように視線方向が後ろを向くように視点30が経路R2及び経路R3に沿って位置P4まで旋回する。ここでは例えば、視点30は、XY平面上を、図3における上から見て、すなわちZ軸負方向に沿って見て反時計回りに180度旋回することとなる。すると図4の(3)のB欄に示すように、表示部26に表示される選択肢34が「A」から「D」に変化する。
また視点30が位置P1に配置されている際に、図4の(4)のA欄に示すようにユーザが上を向くように頭部を回転させたとする。この場合、図3に示すように視線方向が上を向くように視点30が経路R4に沿って位置P5まで旋回する。ここでは例えば、視点30は、XZ平面上を、図3における右から見て、すなわちY軸負方向に沿って見て反時計回りに90度旋回することとなる。すると図4の(4)のB欄に示すように、表示部26に表示される選択肢34が「A」から「E」に変化する。
また視点30が位置P1に配置されている際に、図4の(5)のA欄に示すようにユーザが右を向くように頭部を回転させたとする。この場合、図3に示すように視線方向が右を向くように視点30が経路R5に沿って位置P6まで旋回する。ここでは例えば、視点30は、XY平面上を、図3における上から見て、すなわちZ軸負方向に沿って見て時計回りに90度旋回することとなる。すると図4の(5)のB欄に示すように、表示部26に表示される選択肢34が「A」から「F」に変化する。
また視点30が位置P1に配置されている際に、図4の(6)のA欄に示すようにユーザが上から見て時計回りにユーザが後ろを向くように頭部を回転させたとする。この場合、図3に示すように視線方向が後ろを向くように視点30が経路R5及び経路R6に沿って位置P4まで旋回する。ここでは例えば、視点30は、XY平面上を、図3における上から見て、すなわちZ軸負方向に沿って見て時計回りに180度旋回することとなる。すると図4の(6)のB欄に示すように、表示部26に表示される選択肢34が「A」から「D」に変化することとなる。
以上のように本実施形態では、HND10を装着したユーザの頭部の回転に応じて注視点36の位置が維持されたままユーザの頭部の回転の向きに相対的に視点が旋回する。そのため、ユーザから見て前方に配置されているように見える仮想3次元空間内に配置されたオブジェクトをユーザはあらゆる角度から無理なく視覚することができる。このようにして本実施形態によれば、ユーザから見て前方に配置されているように見える仮想3次元空間内に配置されたオブジェクトを視覚する際のユーザの負担が軽減されることとなる。
また本実施形態に係るHMD10は、ユーザの頭部の姿勢の変化に連動して仮想3次元空間に配置された視点の位置や視線方向が変化する従来のバーチャルリアリティ(VR)技術に係るHMDとは明らかに動作が異なる。そうであるにも関わらず、メニューオブジェクト32の位置に対応する実空間内における位置を中心に頭部を旋回させた際の本実施形態に係るHMD10における表示の変化は、従来のVR技術に係るHMDと同様となる。そのため従来のVR技術に係るHMDに慣れているユーザであっても本実施形態に係るHMD10を違和感なく使用できることとなる。
また本実施形態では、視点30が旋回する際に、注視点36の位置だけではなく、視点30からメニューオブジェクト32までの距離も維持される。そのため、視点30からメニューオブジェクト32までの距離が維持されない場合よりも、ユーザはメニューオブジェクト32をより無理なく視覚できることとなる。
なお、図5に示すように、ユーザの頭部の回転に応じて、ユーザの頭部の回転の向きに視点30が旋回する代わりに、メニューオブジェクト32が回転するようにしてもよい。またこの場合に、視点30及びメニューオブジェクト32の位置が維持されてもよい。この場合も、注視点の位置が維持されたまま、相対的には、視点30がユーザの頭部の回転の向きに旋回することとなる。要はメニューオブジェクト32の回転が表示されればよく、その際に視点30が旋回してもメニューオブジェクト32が回転しても表示としては等価である。
また、以上の説明では、ユーザの頭部が回転した角度と、視点30が旋回する角度は一致しているが、ユーザの頭部が回転した角度と、視点30が旋回する角度が一致しなくてもよい。例えば、ユーザの頭部が回転した角度の2倍の角度だけ、視点30が旋回するようにしてもよい。
また本実施形態では、HMD10を装着したユーザが頭部を左右に移動させると、頭部の移動の向きに相対的に視点30及び注視点36が移動する。なお視点30及び注視点36が移動する距離は、ユーザの頭部が移動する距離に比例するようにしてもよい。また本実施形態では、注視点36は視点30と同じ向きに同じ距離だけ移動する。ここでは例えば、図6に示すように、ユーザの頭部が実空間内における位置P7に配置されていることとする。そしてユーザの頭部が位置P7に配置されている際には、図7に示すように、視点30は位置P3に配置されていることとする。また視点30の視線方向は位置P0に設定されている注視点36を向いていることとする。そして表示部26には、図8の中央に示されているように、「C」の選択肢34が表示されていることとする。
図6に示すようにユーザの頭部が位置P7に配置されている際に、例えば、ユーザの頭部が経路R7に沿って位置P7から位置P8まで左に移動したとする。この場合、図7に示すように、視点30は、経路R9に沿って位置P3から位置P10まで左に移動する。そして注視点36は、経路R10に沿って位置P0から位置P11まで左に移動する。すると図8の左側に示すように、表示部26に表示されるメニューオブジェクト32が右に移動する。
また図6に示すようにユーザの頭部が位置P7に配置されている際に、例えば、ユーザの頭部が経路R8に沿って位置P7から位置P9まで右に移動したとする。この場合、図7に示すように、視点30は、経路R11に沿って位置P3から位置P12まで右に移動する。そして注視点36は、経路R12に沿って位置P0から位置P13まで右に移動する。すると図8の右側に示すように、表示部26に表示されるメニューオブジェクト32が左に移動する。
以上のようにして本実施形態では、ユーザが頭部を左右に動かすことで、視点30の位置を相対的に左右に移動させることができる。また同様にして、ユーザが頭部を前後又は上下に動かした際に、視点30の位置が相対的に前後又は上下に移動するようにしてもよい。また、視点30や注視点36の位置を移動させる代わりに、メニューオブジェクト32の位置を移動させるようにしてもよい。
なお本実施形態に係るHMD10が、ユーザが頭部を上下左右に動かした際に、その後に頭部を回転させるまでは、移動量に応じてメニューオブジェクト32の別の面が表示される上下左右移動モードとなるようにしてもよい。上下左右移動モードでは例えば所定の移動量より大きい上又は下への頭部の移動が行われる度に、表示されているメニューオブジェクト32の面が上又は下の隣の面に変化するようにしてもよい。また例えば所定の移動量より大きい左又は右への頭部の移動が行われる度に、表示されているメニューオブジェクト32の面が左又は右の隣の面に変化するようにしてもよい。そしてその後ユーザが頭部を回転させた際に、頭部の回転に応じて注視点36の位置が維持されたままユーザの頭部の回転の向きに相対的に視点が旋回する回転モードにHMD10が移行するようにしてもよい。
以下、本実施形態に係るHMD10の機能並びに本実施形態に係るHMD10で実行される処理についてさらに説明する。
図9は、本実施形態に係るHMD10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るHMD10で、図9に示す機能のすべてが実装される必要はなく、また、図13に示す機能以外の機能が実装されていても構わない。
図9に示すように、本実施形態に係るHMD10は、機能的には例えば、視点データ記憶部40、検出部42、視点制御部44、操作受付部46、表示制御部48、処理実行部50、を含む。視点データ記憶部40は、記憶部22を主として実装される。検出部42は、制御部20及びセンサ部28を主として実装される。視点制御部44、処理実行部50は、制御部20を主として実装される。操作受付部46は、通信部24を主として実装される。表示制御部48は、制御部20及び表示部26を主として実装される。
そして以上の機能は、コンピュータであるHMD10にインストールされた、以上の機能に対応する指令を含むプログラムを制御部20で実行することにより実装されている。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してHMD10に供給される。
視点データ記憶部40は、視点30の位置及び視線方向を示すデータを記憶する。本実施形態では例えば、視点データ記憶部40には、仮想3次元空間内における注視点36の位置の座標値を示す注視点位置データと、注視点36の位置を始点として視点30の位置を終点とするベクトルを示す視点ベクトルデータとが記憶されていることとする。このように注視点36の位置と注視点36の位置を始点として視点30の位置を終点とするベクトルとによって視点30の位置及び視線方向が管理されていても構わない。
検出部42は、本実施形態では例えば、HMD10の回転を検出する。また検出部42は、本実施形態では、HMD10の移動も検出する。検出部42は、本実施形態では例えば、センサ部28が出力する計測結果に基づいて、所定のフレームレートでHMD10の移動量及び回転量を検出する。ここでは例えば加速度センサの計測結果に基づいて移動量が特定され、ジャイロセンサの計測結果に基づいて回転量が特定される。
視点制御部44は、本実施形態では例えば、検出部42が検出した移動量及び回転量に基づいて、視点30の位置及び視線方向が変化するよう制御する。視点制御部44は、例えば、図3〜図5を参照して説明したように、HMD10の回転の検出に応じて、注視点36の位置が維持されたまま、検出された回転の向きに視点30を相対的に旋回させる。なおここで、視点制御部44は、注視点36の位置及び視点30とオブジェクトとの距離が維持されたまま、視点30を旋回させてもよい。また視点制御部44が、図6〜図8を参照して説明したように、HMD10の移動の検出に応じて、視点30が相対的に移動するよう制御してもよい。視点制御部44は、具体的には例えば、検出部42が検出した移動量及び回転量に基づいて、視点データ記憶部40に記憶されている注視点位置データが示す座標値及び視点ベクトルデータが示すベクトルを更新する。
操作受付部46は、本実施形態では例えば、コントローラ12に対するユーザの操作に応じて、当該操作に対応付けられる操作信号をコントローラ12から受け付ける。
表示制御部48は、本実施形態では例えば、検出部42による回転の検出に応じて、注視点36の位置が維持されたまま検出された回転の向きに相対的に旋回した視点30からオブジェクトを見た様子を表す画像が表示部26に表示されるよう制御する。本実施形態では例えば、視点制御部44によって位置や視線方向が制御された視点30からメニューオブジェクト32を見た様子を表す画像が表示部26に表示されることとなる。
処理実行部50は、本実施形態では例えば、上述したように、選択操作の受付に応じて、表示部26に表示されているオブジェクトの面に配置されている選択肢に応じた処理を実行する。
ここで、本実施形態に係るHMD10において所定のフレームレートで行われる表示制御処理の流れの一例を、図10に例示するフロー図を参照しながら説明する。図10に示す処理例では、仮想3次元空間にメニューオブジェクト32が配置されていることとする。
まず、検出部42が、直前のフレームから当該フレームまでの期間におけるHMD10の移動量及び回転量を特定する(S101)。
そして、視点制御部44が、S101に示す処理で特定された移動量及び回転量に基づいて、当該フレームにおける視点30及び注視点36の位置を決定する(S102)。
S102に示す処理では例えば、視点データ記憶部40に記憶されている注視点位置データが示す座標値及び視点ベクトルデータが示すベクトルが更新される。具体的には例えば、視点データ記憶部40に記憶されている注視点位置データが示す座標値は、S101に示す処理で特定された移動量の値に所定の係数を乗じた値を当該座標値に加算した値に更新される。また、視点データ記憶部40に記憶されている視点ベクトルデータが示すベクトルは、始点を中心に当該ベクトルをS101に示す処理で特定された回転量に応じて回転させた向きのベクトルに更新される。ここで視点ベクトルデータが示すベクトルが回転する角度が、例えば、S101に示す処理で特定された回転量が表す角度の所定倍の角度であってもよい。
そして、表示制御部48が、S102に示す処理で決定された視点30の位置からS102に示す処理で決定された注視点36の位置に向かって見た様子を表す画像を表示部26に表示させる(S103)。本処理例では、当該フレームにおける注視点36の位置の座標値は、S102に示す処理による更新後の注視点位置データが示す座標値に相当する。また当該フレームにおける視点30の位置の座標値は、S102に示す処理による更新後の注視点位置データが示す位置をS102に示す処理で更新された後の視点ベクトルデータが示すベクトルだけ移動させた位置の座標値に相当する。
そして本処理例では、上述したように、S101〜S103に示す処理が所定のフレームレートで繰り返し実行されることとなる。このようにして本実施形態では、頭部の回転や移動に追従して、表示部26に表示される画像が所定のフレームレートで更新されることとなる。
なお本実施形態において、視点30が前後に移動した際には、仮想3次元空間に配置されたオブジェクトが、移動後の視点30と仮想3次元空間に配置されたオブジェクトとの間の距離の変化に応じて変化してもよい。以下、視点30と仮想3次元空間に配置されたオブジェクトとの間の距離の変化に応じた当該オブジェクトの変化について説明する。
ここでは例えば、図11に示すように、ユーザの頭部が実空間内における位置P14に配置されていることとする。そしてユーザの頭部が位置P14に配置されている際には、図12及び図13に示すように、視点30は位置P3に配置されていることとする。また視点30の視線方向は位置P0に設定されている注視点36を向いていることとする。そして表示部26には、図14の中央に示されているように、「C」の選択肢34が表示されていることとする。
図11に示すようにユーザの頭部が位置P14に配置されている際に、例えば、ユーザの頭部が経路R13に沿って位置P14から位置P15まで前に移動したとする。この場合、図12に示すように、視点30は、経路R15に沿って位置P3から位置P17まで前に移動する。そして仮想3次元空間に配置されているメニューオブジェクト32は、図12に示すメニューオブジェクト60に変化する。すると図14の上側に示すように、表示部26にメニューオブジェクト60が表示されることとなる。
図12に示すメニューオブジェクト60は、メニューオブジェクト32と同様に六面体であり、各面には4つずつ選択肢62が配置されている。またメニューオブジェクト60の面は、メニューオブジェクト32のいずれかの面と対応付けられている。そして互いに対応付けられているメニューオブジェクト60の面とメニューオブジェクト32の面とは同じ向きを向いている。例えば、「A1」〜「A4」の選択肢62が配置されているメニューオブジェクト60の面は、「A」の選択肢34が配置されているメニューオブジェクト32の面に対応付けられる。そして「A1」〜「A4」の選択肢62が配置されているメニューオブジェクト60の面と、「A」の選択肢34が配置されているメニューオブジェクト32の面とは、同じ向きを向いている。また本実施形態では、メニューオブジェクト60に配置されている選択肢62は例えば、メニューオブジェクト32における対応する面の選択肢34のサブカテゴリとなっている。そして、表示されている選択肢62のいずれかを選択する操作に応じて、選択された選択肢62に応じた処理が実行されることとなる。
また図11に示すようにユーザの頭部が位置P14に配置されている際に、例えば、ユーザの頭部が経路R14に沿って位置P14から位置P16まで後ろに移動したとする。この場合、図13に示すように、視点30は、経路R16に沿って位置P3から位置P18まで後ろに移動する。そして仮想3次元空間に配置されているメニューオブジェクト32は、図13に示す3つのメニューオブジェクト64に変化する。すると図14の下側に示すように、表示部26にメニューオブジェクト64が表示されることとなる。このように仮想3次元空間に配置されているオブジェクトの数が、移動後の視点30と仮想3次元空間に配置されたオブジェクトとの間の距離の変化に応じて変化してもよい。
図13に示す3つのメニューオブジェクト64は、いずれも六面体である。そしてメニューオブジェクト64の各面には選択肢66が配置されている。そして本実施形態では、メニューオブジェクト64の面に配置されている選択肢66は例えば、メニューオブジェクト32における対応する面に配置されている選択肢34の上位カテゴリとなっている。そして、表示されているメニューオブジェクト64のいずれかを選択する操作に応じて、選択されたメニューオブジェクト64に配置されている選択肢66に応じた処理が実行されることとなる。
以上のようにすると、ユーザが頭部を前後に動かすことで、表示されるオブジェクトや選択可能な選択肢を変化させることが可能となる。
また視点30が移動可能な範囲が制限されても構わない。具体的には例えば、視点30とメニューオブジェクト32との間の距離が所定の範囲に制限されても構わない。
以下、視点30とメニューオブジェクト32との間の距離に応じたメニューオブジェクト32の変化、及び、視点30が移動可能な範囲の制限の一例について、図15を参照しながらさらに説明する。
以下の説明では、初期状態における視点30とメニューオブジェクト32との距離がd0であることとする。なお本実施形態では、視点30とメニューオブジェクト32との間の距離とは、視点30の位置とメニューオブジェクト32の代表点の位置との間の距離、例えば、視点30の位置とメニューオブジェクト32の中心の位置との間の距離を指すこととする。
ここで例えば、視点30が移動可能な範囲が、視点30とメニューオブジェクト32との間の距離がdmin以上dmax以下である図15に例示する視点移動可能範囲に制限されてもよい(ここでdmin<d0<dmax)。すなわち視点30とメニューオブジェクト32との間の距離がdminよりも短くならないよう、またdmaxよりも長くならないよう制御されても構わない。
また図15に示すように、本実施形態では、メニューオブジェクト32がメニューオブジェクト60やメニューオブジェクト64に変化する距離の範囲が設定されていてもよい。図15の例では、視点30とメニューオブジェクト32との距離がdmin以上d1以下である場合に、メニューオブジェクト32はメニューオブジェクト60に変化して、メニューオブジェクト60が表示される(ここでdmin<d1<d0)。また、視点30とメニューオブジェクト32との距離がd2以上dmax以下である場合に、メニューオブジェクト32はメニューオブジェクト64に変化して、メニューオブジェクト64が表示される(ここでd0<d2<dmax)。また、視点30とメニューオブジェクト32との距離がd1よりも長くd2よりも短い場合に、メニューオブジェクト32が表示される。
なお本実施形態において、HMD10が初期状態の姿勢となった際に、視点30の位置及び視線方向が初期状態となり、メニューオブジェクト32が表示されるようにしてもよい。
また、仮想3次元空間に配置されているオブジェクトを基準の相対位置、例えば、初期状態における相対位置から見た様子が表示されるよう徐々に表示内容を変化させてもよい。例えば、視点30が旋回した際に、視点30の旋回に追従して「A」の選択肢34が見えるようになる向きにメニューオブジェクト32が徐々に回転するようにしてもよい。
ここで図16を参照しながら、メニューオブジェクト32が徐々に回転する処理の一例について説明する。図16は、図3に示す仮想3次元空間を上から見た、すなわちZ軸負方向に沿って見た様子を示す図である。図16に示す例では視点30の位置座標の移動平均に基づいてメニューオブジェクト32の向きが決定される。ここでは例えば、図16に示すように、あるフレームにおいて特定された視点30の位置がPa(x1,y1,z1)であることとする。そして当該フレームの直前のフレームにおいて特定された視点30の位置がPb(x2,y2,z2)であることとする。同様に、当該フレームの2つ前のフレーム、3つ前のフレーム、4つ前のフレームにおいて特定された視点30の位置がそれぞれPc(x3,y3,z3)、Pd(x4,y4,z4)、Pe(x5,y5,z5)であることとする。そして、位置Pa、位置Pb、位置Pc、位置Pd、及び、位置Peの座標の平均が、メニューオブジェクト32の向きの基準となる位置Pfの座標として特定される。ここでは例えば、位置Pf((x1+x2+x3+x4+x5)/5,(y1+y2+y3+y4+y5)/5,(z1+z2+z3+z4+z5)/5)が特定される。そして例えば、メニューオブジェクト32の基準となる面である「A」の選択肢34が配置されている面が位置Pfとメニューオブジェクト32の中心の位置でもある注視点36の位置P0とを結ぶ線分に対して垂直になるようメニューオブジェクト32が回転する。
このようにすれば、ユーザがHMD10を回転させることで、メニューオブジェクト32を回転させることができることとなる。また同様にして、HMD10の移動に応じてメニューオブジェクト32が移動するようにしてもよい。
なお、メニューオブジェクト32が徐々に回転する処理は上述のものに限定されない。例えば、視点30の位置座標の移動平均に基づいてメニューオブジェクト32の向きが決定される必要はない。また例えば、注視点36の位置P0を中心とする円周上の位置が位置Pfとして特定されてもよい。
また例えば所定のボタンを押下する操作などといった制限操作をユーザが行っている期間は、HMD10が回転しても移動しても表示される画像が変化しないようにしてもよい。こうすれば、ユーザは表示内容を変化させずに頭部を回転させたり移動させたりすることができることとなる。そのため例えばユーザは、無理な体勢となっている場合に、表示内容を変化させずに自然な体勢に戻すことができることとなる。
また例えば、所定のボタンを押下する操作などといったリセット操作をユーザが行った際に、上述の初期状態などといった、基準の相対位置からオブジェクトを見た様子が表示される状態に表示内容が変化するようにしてもよい。
なお図9に示す視点制御部44が、図11〜図15を参照して説明したメニューオブジェクトの変化や図15を参照して説明したメニューオブジェクトの回転を実行するようにしてもよい。また視点制御部44が、図15を参照して説明したように、視点30とオブジェクトとの間の距離が所定の視点移動可能範囲に制限されるよう制御してもよい。
また表示制御部48が、制限操作を受けている期間は、検出部42による回転の検出の有無に関わらず表示部26に表示されている画像の変化を制限するようにしてもよい。
なお以上の内容は、表示部26に2次元画像が表示される場合にも3次元画像が表示される場合にも適用可能である。3次元画像が表示される場合には、左目用画像に対応付けられる視点30と右目用画像に対応付けられる視点30のそれぞれについて、上述の処理が実行されることとなる。
なお、本発明は上述の実施形態に限定されるものではない。
例えば本発明をHMD10以外の装置に適用してもよい。例えば、ユーザの眼前にディスプレイが配置されるようユーザに把持される携帯型のゲーム装置等のコンピュータに本発明を適用してもよい。またユーザが装着する筐体にはめ込まれることでディスプレイがユーザの眼前に配置されることとなる携帯型のコンピュータに本発明を適用してもよい。また例えば、エンタテインメント装置などといったHMD10と通信可能な情報処理装置が以上で説明した制御を行ってもよい。例えば、HMD10と通信可能な情報処理装置が、HMD10の回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した視点からオブジェクトを見た様子を表す画像が表示部26に表示されるよう制御してもよい。
10 ヘッドマウントディスプレイ(HMD)、12 コントローラ、20 制御部、22 記憶部、24 通信部、26 表示部、28 センサ部、30 視点、32 メニューオブジェクト、34 選択肢、36 注視点、40 視点データ記憶部、42 検出部、44 視点制御部、46 操作受付部、48 表示制御部、50 処理実行部、60 メニューオブジェクト、62 選択肢、64 メニューオブジェクト、66 選択肢。

Claims (10)

  1. 仮想3次元空間に配置された視点からオブジェクトを見た様子を表す画像を表示させるヘッドマウントディスプレイであって、
    前記ヘッドマウントディスプレイの回転を検出する検出部と、
    前記検出部による回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御する表示制御部と、
    を含むことを特徴とするヘッドマウントディスプレイ。
  2. 前記表示制御部は、前記検出部による回転の検出に応じて、注視点の位置及び前記オブジェクトまでの距離が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御する、
    ことを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3. 前記検出部は、前記ヘッドマウントディスプレイの移動も検出し、
    前記注視点の位置は、前記検出部による移動の検出に応じて相対的に移動する、
    ことを特徴とする請求項1又は2に記載のヘッドマウントディスプレイ。
  4. 前記オブジェクトは、移動後の前記視点と前記オブジェクトとの距離の変化に応じて変化する、
    ことを特徴とする請求項3に記載のヘッドマウントディスプレイ。
  5. 前記表示制御部は、基準の相対位置から前記オブジェクトを見た様子が表示されるよう徐々に表示内容を変化させる、
    ことを特徴とする請求項1から4のいずれか一項に記載のヘッドマウントディスプレイ。
  6. 前記表示制御部は、制限操作を受けている期間は、前記検出部による回転の検出の有無に関わらず表示されている画像の変化を制限する、
    ことを特徴とする請求項1から5のいずれか一項に記載のヘッドマウントディスプレイ。
  7. 前記オブジェクトの面には、選択肢が配置されており、
    選択操作の受付に応じて、表示されている前記オブジェクトの面に配置されている選択肢に応じた処理を実行する処理実行部、をさらに含む、
    ことを特徴とする請求項1から6のいずれか一項に記載のヘッドマウントディスプレイ。
  8. 仮想3次元空間に配置された視点からオブジェクトを見た様子を表す画像を表示させる情報処理装置であって、
    回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御する表示制御部、
    を含むことを特徴とする情報処理装置。
  9. 仮想3次元空間に配置された視点から当該仮想3次元空間に配置されたオブジェクトを見た様子を表す画像を表示させる表示制御方法であって、
    回転を検出するステップと、
    回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御するステップと、
    を含むことを特徴とする表示制御方法。
  10. 仮想3次元空間に配置された視点から当該仮想3次元空間に配置されたオブジェクトを見た様子を表す画像を表示させるコンピュータに、
    回転を検出する手順、
    回転の検出に応じて、注視点の位置が維持されたまま検出された回転の向きに相対的に旋回した前記視点から前記オブジェクトを見た様子を表す画像が表示されるよう制御する手順、
    を実行させることを特徴とするプログラム。
JP2015112591A 2015-06-02 2015-06-02 ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム Active JP6250592B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015112591A JP6250592B2 (ja) 2015-06-02 2015-06-02 ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム
US15/157,806 US10429925B2 (en) 2015-06-02 2016-05-18 Head-mounted display, information processing device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015112591A JP6250592B2 (ja) 2015-06-02 2015-06-02 ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016224823A true JP2016224823A (ja) 2016-12-28
JP6250592B2 JP6250592B2 (ja) 2017-12-20

Family

ID=57452340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015112591A Active JP6250592B2 (ja) 2015-06-02 2015-06-02 ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム

Country Status (2)

Country Link
US (1) US10429925B2 (ja)
JP (1) JP6250592B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6388270B1 (ja) * 2018-01-17 2018-09-12 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2018151855A (ja) * 2017-03-13 2018-09-27 株式会社コナミデジタルエンタテインメント 表示制御装置及びプログラム
JP2019022014A (ja) * 2017-07-13 2019-02-07 日本電信電話株式会社 画像提供方法、画像提供装置及びコンピュータプログラム
JP2019036122A (ja) * 2017-08-15 2019-03-07 株式会社コロプラ 情報処理方法、プログラム、およびコンピュータ
JP2019520618A (ja) * 2016-12-30 2019-07-18 グーグル エルエルシー 3d環境におけるコンテンツのレンダリング
JP2019125335A (ja) * 2018-08-06 2019-07-25 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2020024746A (ja) * 2019-11-05 2020-02-13 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2020129383A (ja) * 2019-11-05 2020-08-27 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
US10778893B2 (en) 2017-12-22 2020-09-15 Seiko Epson Corporation Detection device, display device and detection method
US10834323B2 (en) 2017-09-14 2020-11-10 Seiko Epson Corporation Electronic apparatus, motion sensor, position change detection program, and position change detection method
JP2022534269A (ja) * 2019-06-28 2022-07-28 上海交通大学 三次元点群に基づく初期視野角の制御と提示の方法及びシステム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10139901B2 (en) * 2016-07-05 2018-11-27 Immersv, Inc. Virtual reality distraction monitor
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
KR102625773B1 (ko) * 2017-01-04 2024-01-17 삼성전자주식회사 뷰 벡터별 다른 렌더링 품질을 갖는 영상을 생성하는 전자 장치
GB2579760B (en) * 2018-03-29 2023-03-22 Displaylink Uk Ltd Position error measurement in an extended reality mobile display device
US20190364256A1 (en) * 2018-05-25 2019-11-28 North Inc. Method and System for Dynamically Generating Scene-Based Display Content on a Wearable Heads-Up Display
US11178384B2 (en) * 2019-07-10 2021-11-16 Nintendo Co., Ltd. Information processing system, storage medium, information processing apparatus and information processing method
CN110244466B (zh) * 2019-07-11 2021-09-07 Oppo广东移动通信有限公司 增强现实眼镜及调节方法
US11899204B2 (en) 2021-06-09 2024-02-13 Snap Inc. Soft follow and pitch angle effects for VR/AR interface
US11644678B1 (en) * 2021-11-09 2023-05-09 Sony Interactive Entertainment Inc. Barometric pressure sensor arrays for detecting presence and motion of objects for tracking or triggering a response

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
JP2002163103A (ja) * 2000-11-29 2002-06-07 Mitsubishi Electric Corp 携帯情報端末及びメニュー表示方法
JP2004246712A (ja) * 2003-02-14 2004-09-02 Fuji Xerox Co Ltd オブジェクト階層構造俯瞰装置、方法およびプログラム
JP2013029958A (ja) * 2011-07-28 2013-02-07 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2014137646A (ja) * 2013-01-15 2014-07-28 Sharp Corp 表示装置、表示装置の制御方法、および、記録媒体
WO2014194135A1 (en) * 2013-05-30 2014-12-04 Oculus VR, Inc. Perception based predictive tracking for head mounted displays

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613048A (en) * 1993-08-03 1997-03-18 Apple Computer, Inc. Three-dimensional image synthesis using view interpolation
JP3597760B2 (ja) * 2000-07-13 2004-12-08 Necエレクトロニクス株式会社 スルーレート調整回路
US20020057438A1 (en) * 2000-11-13 2002-05-16 Decker Derek Edward Method and apparatus for capturing 3D surface and color thereon in real time
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
AU2012243431A1 (en) * 2011-04-11 2013-11-07 Bob And Ahmed Enterprises Pty Ltd. An adjustable food covering support device
KR102249577B1 (ko) * 2013-05-30 2021-05-07 찰스 안소니 스미스 Hud 객체 설계 및 방법
US9589384B1 (en) * 2014-11-26 2017-03-07 Amazon Technologies, Inc. Perspective-enabled linear entertainment content

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
JP2002163103A (ja) * 2000-11-29 2002-06-07 Mitsubishi Electric Corp 携帯情報端末及びメニュー表示方法
JP2004246712A (ja) * 2003-02-14 2004-09-02 Fuji Xerox Co Ltd オブジェクト階層構造俯瞰装置、方法およびプログラム
JP2013029958A (ja) * 2011-07-28 2013-02-07 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2014137646A (ja) * 2013-01-15 2014-07-28 Sharp Corp 表示装置、表示装置の制御方法、および、記録媒体
WO2014194135A1 (en) * 2013-05-30 2014-12-04 Oculus VR, Inc. Perception based predictive tracking for head mounted displays

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10621773B2 (en) 2016-12-30 2020-04-14 Google Llc Rendering content in a 3D environment
US11113863B2 (en) 2016-12-30 2021-09-07 Google Llc Rendering content in a 3D environment
JP2019520618A (ja) * 2016-12-30 2019-07-18 グーグル エルエルシー 3d環境におけるコンテンツのレンダリング
JP2020098618A (ja) * 2016-12-30 2020-06-25 グーグル エルエルシー 3d環境におけるコンテンツのレンダリング
JP2018151855A (ja) * 2017-03-13 2018-09-27 株式会社コナミデジタルエンタテインメント 表示制御装置及びプログラム
JP2019022014A (ja) * 2017-07-13 2019-02-07 日本電信電話株式会社 画像提供方法、画像提供装置及びコンピュータプログラム
JP2019036122A (ja) * 2017-08-15 2019-03-07 株式会社コロプラ 情報処理方法、プログラム、およびコンピュータ
US10834323B2 (en) 2017-09-14 2020-11-10 Seiko Epson Corporation Electronic apparatus, motion sensor, position change detection program, and position change detection method
US10778893B2 (en) 2017-12-22 2020-09-15 Seiko Epson Corporation Detection device, display device and detection method
JP6388270B1 (ja) * 2018-01-17 2018-09-12 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2019125169A (ja) * 2018-01-17 2019-07-25 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2019125335A (ja) * 2018-08-06 2019-07-25 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2022534269A (ja) * 2019-06-28 2022-07-28 上海交通大学 三次元点群に基づく初期視野角の制御と提示の方法及びシステム
JP7317401B2 (ja) 2019-06-28 2023-07-31 上海交通大学 三次元点群に基づく初期視野角の制御と提示の方法及びシステム
US11836882B2 (en) 2019-06-28 2023-12-05 Shanghai Jiao Tong University Three-dimensional point cloud-based initial viewing angle control and presentation method and system
JP2020024746A (ja) * 2019-11-05 2020-02-13 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2020129383A (ja) * 2019-11-05 2020-08-27 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム

Also Published As

Publication number Publication date
US20160357017A1 (en) 2016-12-08
US10429925B2 (en) 2019-10-01
JP6250592B2 (ja) 2017-12-20

Similar Documents

Publication Publication Date Title
JP6250592B2 (ja) ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム
US10096167B2 (en) Method for executing functions in a VR environment
EP3250983B1 (en) Method and system for receiving gesture input via virtual control objects
US9928650B2 (en) Computer program for directing line of sight
CN111696213B (zh) 图像生成装置、图像生成方法以及计算机可读介质
EP3087427A1 (en) Device, method, and system of providing extended display with head mounted display
JP6236691B1 (ja) 端末装置、及びプログラム
JP2017187952A (ja) 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
JP2017004356A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP6220937B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6117414B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP7307568B2 (ja) 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
JP2018005517A (ja) 端末装置、及びプログラム
JP2023121780A (ja) 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
JP2018038010A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP6284112B2 (ja) 端末装置、及びプログラム
JP6403843B1 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP2017049738A (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP2018029969A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
WO2023162668A1 (ja) 情報処理装置および床面高さ調整方法
JP6935921B2 (ja) 端末装置、及びプログラム
JP6332658B1 (ja) 表示制御装置、及びプログラム
JP6876639B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP6275809B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP6216851B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171122

R150 Certificate of patent or registration of utility model

Ref document number: 6250592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250