JP2017510877A - ヘッドマウントディスプレイにおけるメニューナビゲーション - Google Patents

ヘッドマウントディスプレイにおけるメニューナビゲーション Download PDF

Info

Publication number
JP2017510877A
JP2017510877A JP2016548227A JP2016548227A JP2017510877A JP 2017510877 A JP2017510877 A JP 2017510877A JP 2016548227 A JP2016548227 A JP 2016548227A JP 2016548227 A JP2016548227 A JP 2016548227A JP 2017510877 A JP2017510877 A JP 2017510877A
Authority
JP
Japan
Prior art keywords
focus
menu navigation
navigation element
fixed timer
menu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016548227A
Other languages
English (en)
Inventor
モラヴェッツ、ジャスティン
Original Assignee
ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー, ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー filed Critical ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Publication of JP2017510877A publication Critical patent/JP2017510877A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Abstract

【解決手段】ウェアラブルコンピューティング装置は、仮想現実環境を生成するヘッドマウントディスプレイ(HMD)を備える。位置データの生成及び追跡を通じて、1つ以上のメニューナビゲーション要素に対して焦点が追跡され得る。メニューナビゲーション要素の上に焦点が所定期間固定的に位置付けられた後、メニューナビゲーション要素に対応する処理が実行される。【選択図】図1

Description

本発明は、一般に、ヘッドマウントディスプレイ(head−mounted display:HMD)を備えたウェアラブル仮想現実(virtual reality:VR)コンピューティング装置に関する。より具体的には、本発明は、HMDの視野を利用してメニュー制御機能性を実施することに関する。
ウェアラブルVRシステムには、入力装置、センサ、検出器、画像表示装置及び無線通信部品などの様々な要素と共に、画像や音声の処理装置が一体化されている。画像ディスプレイ要素を着用者の目に近づけて置くことにより、人工画像を作成して、現実世界の視野に重畳し、あるいは独自の独特な現実感を創り出すことが可能である。このような画像ディスプレイ要素は、ヘッドマウントディスプレイ(HMD)とも呼ばれるシステムに組み込まれる。かかるディスプレイ要素のサイズや着用者の目までの距離に応じて、ディスプレイに提示された人工画像は、着用者の視野を満たすか、またはほぼ満たし得る。
HMDが組み込まれているVRシステムは、動かしやすく軽量であると共に、仮想環境との通信及び対話を行うことが可能である。しかしながら、このようなシステムには、一般に、これらが依然として仮想環境のナビゲーション用に別個のコントローラを使用する必要があるという欠陥がある。この意味では、ほとんどのHMDは、VR環境に入ることを可能にするゴーグルに過ぎない。当技術分野では、別個のコントローラ装置を導入せずにVR環境のナビゲーション及び制御を行うことが必要とされている。
本発明の実施形態は、ヘッドマウントディスプレイにおけるメニューナビゲーションシステム及びメニューナビゲーション方法を含む。ヘッドマウントディスプレイに関する位置データが生成され得る。焦点の位置が追跡され得る。焦点は、メニューナビゲーション要素の動作範囲内にあると判定され得る。メニューナビゲーション要素に対応する固定タイマーは、焦点がメニューナビゲーション要素の動作範囲内にあると判定されたときに所定期間をカウントダウンするように実行され得る。所定期間が終了すると、メニューナビゲーション要素に対応する機能が実施され得る。
ヘッドマウントディスプレイにおけるメニューナビゲーション方法が提供され得る。かかる方法は、ヘッドマウントディスプレイの位置データをセンサによって生成すること、メニューナビゲーション要素を含む仮想環境内でヘッドマウントディスプレイの焦点の位置を追跡すること、メニューナビゲーション要素の動作範囲内に焦点があると判定すること、メニューナビゲーション要素に対応する固定タイマーを実行することであって、メニューナビゲーション要素の動作範囲内に焦点があるときに固定タイマーが所定期間をカウントダウンすること、及び所定期間が終了したときにメニューナビゲーション要素の対応機能を実施すること、を含み得る。
ヘッドマウントディスプレイにおけるメニューナビゲーションシステムは、位置データを生成するジャイロスコープ、磁力計及び加速度計のうちの少なくとも1つと、メニューナビゲーション要素を含む仮想環境内に焦点を表示するために少なくとも1つのレンズを備えるヘッドマウントディスプレイと、処理装置であって、メモリに記憶された命令を実行することにより、位置データを処理して仮想環境内で焦点の位置を追跡すること、メニューナビゲーション要素の動作範囲内に焦点があると判定すること、メニューナビゲーション要素に対応する固定タイマーを実行することであって、メニューナビゲーション要素の動作範囲内に焦点があるときに固定タイマーが所定期間をカウントダウンすること、及び固定タイマーによって示される所定期間が終了すると、メニューナビゲーション要素に関連付けられた機能性を実行すること、を行う処理装置と、を備え得る。
本発明の別の実施形態は、プログラムが具現化された非一過性コンピュータ可読記憶媒体を提供する。プログラムは、ヘッドマウントディスプレイにおいてメニューナビゲーションを実行するように処理装置によって実行可能である。上記方法は、位置データを生成すること、焦点の位置を追跡すること、及びメニューナビゲーション要素の動作範囲内に焦点があると判定することを含む。メニューナビゲーション要素に対応する固定タイマーが実行される。メニューナビゲーション要素の対応機能は、固定タイマーが終了したときに実施される。
例示的なウェアラブルコンピューティング装置のブロック図である。 着用者を仮想現実環境に完全に没入させるHMDを示す図である。 現実世界の認識を保持しつつVR情報の生成を可能にするHMDを示す図である。 HMDのレンズディスプレイに表示させた例示的なナビゲーションメニューを示す図である。 ナビゲーションメニュー内の視覚要素を実行するために焦点を使用しているが、それによって仮想ボタンの対応動作が起動されていない様子を示す図である。 ナビゲーションメニュー内の視覚要素を実行するために焦点を使用し、それにより、焦点に関連付けられた領域と仮想ボタンとが対応機能を起動させている様子を示す図である。 ナビゲーションメニュー内の視覚要素を実行するために焦点を使用し、それにより、仮想ボタンの対応機能を焦点が直接起動させている様子を示す図である。 VR環境における例示的なメニュー選択方法を示す図である。
本発明の実施形態は、ヘッドマウントディスプレイにおけるメニューナビゲーションシステム及びメニューナビゲーション方法を含む。ヘッドマウントディスプレイに関する位置データが生成され得る。焦点の位置が追跡され得る。焦点は、メニューナビゲーション要素の動作範囲内にあると判定され得る。メニューナビゲーション要素に対応する固定タイマーは、焦点がメニューナビゲーション要素の動作範囲内にあると判定されたときに所定期間をカウントダウンするように実行され得る。所定期間が終了すると、メニューナビゲーション要素に対応する機能が実施され得る。
図1は、例示的なウェアラブル仮想現実システム100のブロック図である。外部コンピューティング装置110との通信において、ウェアラブル仮想現実システム100は、USBインターフェース120、無線通信インターフェース130、ジャイロスコープ140、加速度計150、磁力計160、データ記憶装置170、処理装置180及びヘッドマウントディスプレイ(HMD)200を備え得る。
ヘッドマウントディスプレイ(HMD)200を用いることにより、その着用者は、現実世界の環境、表示されたコンピュータ生成画像、またはこれら2つの組み合わせを観察することができる。いくつかの実施形態では、HMD200がシースルーディスプレイを備えてもよい。ウェアラブル仮想現実システム100の着用者は、かかる実施形態においてはHMD200を通して見ることが可能となり得るが、ウェアラブル仮想現実システム100があるにも関わらず、現実世界の環境の一部を観察してもよい。更なる実施形態のHMD200は、「拡張現実」の体験を提供するために、視野に重畳される画像を表示するように動作可能であってもよい。HMD200によって表示される画像の一部は、視野内の特定の対象物に関して重畳あるいは表示されてもよい。なお別の実施形態では、HMD200は完全な仮想環境であってもよく、それにより、ウェアラブル仮想現実システム100の着用者は、現実世界とのあらゆる視覚的な接触から隔離される。
表示画像には、グラフィックス、テキスト及び/または映像が含まれ得る。音声は、対応する音声装置を通じて提供され得る。HMDによって表示される画像は、対話型ユーザーインターフェースの一部であってもよく、メニュー、選択ボックス、ナビゲーションアイコン、あるいは、着用者がウェアラブルコンピューティング装置の機能を呼び出すかまたはウェアラブルコンピューティング装置と対話することを可能にする他のユーザーインターフェース機能を含んでもよい。HMD200のフォームファクタは、眼鏡、ゴーグル、ヘルメット、帽子、バイザー、ヘッドバンドのフォームファクタであってもよく、あるいは、着用者の頭部の上に、または着用者の頭部から支持可能ないくつかの他の形状のフォームファクタであってもよい。
着用者に仮想画像を表示するために、HMDは、ディスプレイパネルを照らす発光ダイオード(light−emitting diode:LED)などの光源を有する光学系を備え得る。ディスプレイパネルは、液晶ディスプレイパネル(LCD)を含み得る。ディスプレイパネルは、光源から光を空間的に変調することによって光パターンを生成し得る。さらに、画像形成部は、その光パターンから仮想画像を形成する。あるいは、ディスプレイパネルは、シリコン上液晶(liquid crystal on silicon:LCOS)であってもよく、それにより、液晶層はシリコンバックプレーンの上に位置し得る。
例示的な実施形態のHMDは、重畳しない立体3D画像を伴う7インチのスクリーンを備えており、それにより、左目が左側の余分の領域(extra area)を、右目が右側の余分の領域(extra area)をそれぞれ見る。HMDは、通常の人間の視覚を模倣するように試みるが、これは100%重複しているわけではない。例示的な実施形態の視野は、左右90度(対角110度)を超えており、それによって視界の全視野がほぼ満たされる。これにより、現実世界が完全に遮断されて、強い没入感覚が生じ得る。
実施形態は、1280×800(16:10のアスペクト比)を利用してもよく、これにより、実質的に640×800、すなわち片目当たり4:5のアスペクト比)が可能となる。両目間の重複部分を全く考慮しない実施形態では、合成後の水平解像度は、実質的に640を上回る。各目に対する表示画像はピンクッション型である。それにより、各目について球形のマップ画像が生成される。
HMD200は、外部コンピューティング装置110(単数または複数)と通信してもよい。外部コンピューティング装置110(単数または複数)には、アプリケーションサーバ、データベース、及び当技術分野において既知である他の外部コンピューティング要素が含まれる。かかる要素には、標準ハードウェアのコンピューティング要素(ネットワークインターフェースや媒体インターフェースなど)、非一過性コンピュータ可読記憶装置(メモリ)、及び命令を実行するかまたはメモリに記憶され得る情報にアクセスするための処理装置が含まれる。
場合によっては、ウェアラブル仮想現実システム100は、外部コンピューティング装置110(単数または複数)と物理的に接続されてもよい。こうした接続は、USBインターフェース120を介して実装され得る。USBインターフェース120は、USB準拠ケーブルを経由して外部コンピューティング装置110とデータを送受信するために使用され得る。また、USBインターフェース120を使用して、ウェアラブル仮想現実システム100に電力を供給してもよい。これにより、外部電源及びそれに関連する任意の電源ケーブルが不要となり得る。場合によっては、USBインターフェース120経由の電源を実現するために、更なる電源アダプタ(図示せず)が必要となり得る。なお、他の種類のインターフェースを使用してもよいため、USBへの言及は例示であることを理解すべきである。このようなインターフェースとしては、ファイヤーワイヤー(FireWire(登録商標))、ライトニング(Lightning)、及びHDMI(登録商標)やDVIなどの他のケーブル接続規格が含まれるが、これらに限定されることはない。
図1のウェアラブル仮想現実システム100は、無線通信インターフェース130を備える。無線通信インターフェース130を使用して、外部コンピューティング装置110(単数または複数)と無線通信してもよい。また、無線通信インターフェース130を使用して、他のウェアラブルコンピューティング装置100と通信してもよい。無線通信インターフェース130は、任意の数の無線通信規格を利用してもよい。これらの無線通信規格は、インターネットなどのパケットベースネットワークを介した双方向のデータ交換に対応している。例示的な通信規格としては、CDMA、GSM(登録商標)/GPRS、4Gセルラー、WiMAX、LTE及び802.11(WiFi(登録商標))が挙げられる。
ウェアラブル仮想現実システム100は、3次元軸ジャイロスコープ140、加速度計150及び磁力計160のうちの1つ以上を備え得る。ジャイロスコープ140は、角運動量の原則に基づいて方位を測定するために利用され得る。加速度計150は、加速の大きさ及び方向をベクトル量として検出するために使用され得る。この結果を使用して方位を検出することができる。これは、荷重の方向の変化により、重力または重力変化、及び振動、衝撃と相関する加速度、しかるべき加速度の変化によって抵抗体の落下を調製する。磁力計160は、ウェアラブル仮想現実システム100に関する磁場障害を識別するために使用され得る。磁力計160は、非接触入力または、カメラ無しのジェスチャ入力によって支援することができるだけでなく、GPS及びコンパスアプリケーション用に真北を識別するのを支援することができる。上述したものから生成されたデータを利用することにより、地球に対するドリフトを伴わない頭部の絶対方位の追跡を計算してもよい。遅延追従を約1000Hzで作動させて、応答時間を減少させると共に、知覚される現実感を増加させるようにしてもよい。ウェアラブル仮想現実システム100のディスプレイを調節して、個々のディスプレイを着用者の目のより遠くに、またはより近くに移動させるようにしてもよい。
ウェアラブル仮想現実システム100は、データ記憶装置170に記憶された非一過性コンピュータ可読命令を実行することによって作動し得る。この場合、処理装置180の動作を通じて実行がなされる。図1では、データ記憶装置170及び処理装置180がウェアラブル仮想現実システム100に存在するものとして示されているが、これらの要素は外部コンピューティング装置110(単数または複数)に配置されてもよく、あるいは、場合によっては、実行可能な動作をウェアラブル仮想現実システム100と外部コンピューティング装置110とに分散させてもよい。また、処理装置180とデータ記憶装置170の実行可能命令とを用いて、USBインターフェース120、無線インターフェース130、ジャイロスコープ140、加速度計150及び磁力計160の様々な態様を制御してもよい。
図2Aは、着用者を仮想現実環境に完全に没入させるHMD200を示す図である。図2Aは没入型のゴーグルとして示されているが、他のフォームファクタも可能であり、想定される。図2Aの要素の動作は、図2Bの背景で説明されるものと同様である。図2Aは、ヘッドマウント支持具210を含む。このヘッドマウント支持具210により、ウェアラブル仮想現実システム100(HMD200を含む)を着用者の頭部に取り付けることができる。HMD200は、レンズディスプレイ220A及び220Bをさらに備える。これらのレンズディスプレイは、上記のようにLCD構成またはLCOS構成であってよい。レンズディスプレイ220A及び220Bは、ウェアラブル仮想現実システム100の内蔵部品であってもよい。
ウェアラブル仮想現実システム100の製造業者は、図1に示したもののような構成要素を集積化できるようにしてもよく、各種構成要素の相互接続を内部的に統合できるようにしてもよい。他の構成要素をウェアラブル仮想現実システム100の外部に位置させて、外部コンピューティング装置110(単数または複数)へのアクセスまたは物理的接続をより迅速に行うことができるようにしてもよい。ウェアラブル仮想現実システム100の実施形態は、マイクロホンを備えることにより、ウェアラブル仮想現実システム100を利用している他の個人との音声通信、または当該システム100に対する何らかのハンズフリー制御を可能としてもよい。
図2Bは、現実世界の認識を保持しつつ仮想現実情報の生成を可能にするHMD200を示す図である。このような二重認識は、仮想環境の範囲内に着用者を完全に没入させない(すなわち、現実世界を依然として見ることができ、認識することができる)ことによって提供される。図2BのHMD200は単純なバンドとして示されているが、他のフォームファクタも可能であり、想定される。図2Bの要素の動作は、図2Aの背景で説明されるものと同様である。
図3は、HMD200のレンズディスプレイ200に表示させた例示的なナビゲーションメニュー300を示す図である。ナビゲーションメニュー300は、任意の種類の視覚要素を含み得る。このような視覚要素には、仮想ボタン310、スクロールバー320、キー330、またはユーザーから入力を受け取るためのその他の周知の要素が含まれる。ナビゲーションメニュー300は、1つ以上の制御命令に関して定められ得る。この制御命令は、仮想ウェアラブルシステム100上で実行されているソフトウェアアプリケーションを制御するためのものである。仮想ボタン310などの、ナビゲーションメニュー300の特定の視覚要素を特定の制御命令に関連付けてもよい。それにより、その仮想ボタンが作動すると、それ自体に関連付けられた制御命令が実行され得る。
上述したように、ウェアラブル仮想現実システム100は、軸ジャイロスコープ140、加速度計150及び磁力計160のうちの1つ以上を備える。前述の構成要素の1つ以上によって生成されたデータは、ナビゲーションメニュー300の1つ以上の視覚要素を選択または操作に変換され、HMD200によって表示され得る。例えば、ユーザーがウェアラブル仮想現実システム100を着用しつつ自身の頭部を動かすことにより、ジャイロスコープ140、加速度計150及び磁力計160を用いて空間内の地点を識別して、デスクトップコンピュータの背景で生成され得る2次元空間内のマウスポインタと同様の方法で、3次元空間内に焦点340を作成することができる。焦点またはポインタ340は、HDM200のレンズ220と向かい合うユーザーの目からの視線350に対応し得るが(図3の挿入図を参照)、必ずしもそのように対応するとは限らない。
ナビゲーションメニュー300の各種視覚要素の上に焦点340を合わせ、特定の視覚要素(例えば、仮想ボタン310)の上への焦点/ポインタ340の位置付けを特定期間保持することにより、焦点を合わせた要素の機能性が実行され得る。焦点340は、単に仮想ボタン310の上に追跡するのみでなくてもよく、その代わりに、既定期間(例えば、3秒)、仮想ボタン310または仮想ボタン310に関連付けられた領域の上に固定されたままであってもよい。この既定期間は、ソフトウェアアプリケーションの開発者によって設定されてもよく、あるいはユーザーの好みのオプションを通じて制御されてもよい。このオプションは、ウェアラブル仮想現実システム100またはアプリケーションソフトウェアにおいて、当該システム100のユーザーによって変更され得る。
図4A〜4Cは、ナビゲーションメニュー内の視覚要素を実行するために焦点を使用している様子を示す図である。具体的には、図4Aは、ナビゲーションメニュー内の要素310にまだ固定されていない焦点340を示している。このように、仮想ボタンの対応動作は、まだ起動されていない。図4Aに示すように、焦点340は、関連領域420を備える。関連領域420により、特定の点または当該点に関連付けられた領域の上に焦点340を保持する作用が拡張される。図4Aには円として示されているが、関連領域420は、正方形、長方形、または焦点340の有効範囲を拡張するその他の形状もしくは構成であってもよい。焦点340の関連領域420は、ユーザーにとって可視でもよく、半透明でもよく、あるいは不可視でもよい。可視または半透明である場合の関連領域420は、色付きであってもよい。このように色を付けることにより、レンズ220に表示された仮想環境の背景から当該領域を目立たせて、焦点340及び関連領域420の範囲をユーザーが明確に理解できるようにする。
仮想ボタン310は、焦点340の関連領域のように、関連領域(410)を備えてもよい。焦点340及びその関連領域420のように、この領域は、HMD200のレンズ220に表示される様に、仮想ボタン340または仮想環境に対して、異なる形状、サイズ、色、または可視度もしくは半透明度であってもよい。仮想ボタン310の関連領域410及び焦点340の関連領域420は、開発者、初期設定またはユーザー設定によってそれぞれ個別に制御されてもよい。このユーザー設定は、ユーザー設定メニュー(図示せず)を通じて変更され得る。制御可能な機能には、仮想メニュー300の機能を起動させるのに必要な上述の固定期間のみならず、形状、サイズ、可視度、半透明度が含まれる。
図4Bは、焦点420に関連付けられた領域420が仮想ボタン410と重複している様子を示している。これにより、ナビゲーションメニュー300内の視覚要素が実行され、仮想ボタン310の対応機能が起動する。図4Aと比較すると、図4Bは、焦点340の関連領域と仮想ボタン310の関連領域とが現時点で強調領域430に示すように重複していることを示している。強調領域は図4Bにおいて図式的に示されているが、これは説明を容易にするためである。強調領域430をレンズ220の上に表示させる必要はなく、このように表示させることを、ユーザー及び/またはアプリケーション開発者による構成に利用可能な設定としてもよい。焦点340の関連領域と仮想ボタン310の関連領域とが重複しているため、既定の固定時間の終了と仮想ボタン310の関連機能が実行される。この固定時間の通知は、内部時計機能によって制御され得る。この内部時計機能は、メニュー300の制御を担当するソフトウェアを処理装置に基づいて実行することによって実装され、データ記憶装置170に保持される。かかる内部時計機能は、既定期間からカウントダウンするように作動させてもよく、あるいは既定期間までカウントアップするように作動させてもよい。焦点340とメニューナビゲーションの要素310とが(またはそれらの関連領域410と420とが)重複している間のみこうしたカウントが発生するように設定されてもよい。このように、既定期間が終了する前に焦点340が離れた場合には、機能を起動させなくてもよい。
図4Cは、ナビゲーションメニュー内の視覚要素を実行するために焦点を使用し、それにより、仮想ボタンの対応機能を焦点が直接起動させている様子を示す図である。図4Bとは異なり、仮想ボタン310の関連領域410と焦点340の関連領域420とを利用していない。図4Cでは、焦点340は、仮想ボタン310の上に直接固定される。所望の固定期間が終了すると、ボタンの関連機能が実行される。
図5は、VR環境における例示的なメニュー選択方法500を示す図である。この方法は、メモリ170に記憶された命令を処理装置180によって実行することによって実施され得る。図5のメニュー選択方法500は、非一過性コンピュータ可読記憶媒体中の実行可能命令として具現化され得る。このような媒体には、CD、DVD、またはハードドライブなどの不揮発性メモリが含まれるが、これらに限定されることはない。記憶媒体の命令は、処理装置(または複数の処理装置)によって実行され得る。これにより、記憶媒体をホストするか、またはそれにアクセスするコンピューティング装置の様々なハードウェア構成要素に当該方法を実施させる。図5において特定されるステップ(及びその順序)は例示的であり、その実行順序を含むが、それに限定されない各種の代替例、均等物またはその派生例を含んでもよい。
ステップ510では、ウェアラブルVRシステム100の着用者の頭部の動きに基づいて位置データが生成され得る。位置データは、軸ジャイロスコープ140、加速度計150及び磁力計160のうちの1つ以上によって生成され得る。
前述の構成要素の1つ以上によって生成されたデータは、ステップ520にて、焦点またはポインタ340の位置データに変換され得る。焦点またはポインタ340の位置を、ナビゲーションメニュー300の1つ以上の視覚要素の背景で表示させてもよく、HMD200によって表示させてもよい。
ステップ530にて、焦点またはポインタ340がナビゲーションメニュー300のボタンまたは他の要素の上に現在位置しているかどうかに関して判定がなされる。ナビゲーションメニュー300の要素の上に位置していない焦点またはポインタ340の位置を分析することによって判定がなされた場合、焦点またはポインタに関連付けられた領域がナビゲーションメニュー300の要素の上に位置しているかどうかに関して、ステップ540で更なる判定がなされる。焦点またはポインタの関連領域がナビゲーションメニューの要素の上に位置していないとの判定がステップ540でなされた場合、焦点の関連領域が当該要素の関連領域と重複しているかどうかに関して、ステップ550でなお更なる判定がなされる。図4Aに示したように、ステップ550にて判定が行われなかった場合、ステップ510とステップ520とにおいて位置データの生成と焦点の位置の追跡とがそれぞれ継続する。
ステップ530での判定が(図4Cに対応するように)はいであるか、またはステップ540での判定が(図4Bに対応するように)はいである場合、ステップ560にて固定タイマーの実行が開始され、当該ボタンまたは他の要素に関連付けられた任意の機能性を呼び出すために焦点またはその関連領域がナビゲーションメニューの要素の上に所定期間留まっていたかどうかが決定される。所定の固定時間に達するまで固定タイマーがカウントガウン(またはカウントアップ)しているとき、並行して、ナビゲーションメニューに対する焦点またはその関連領域の移動があったどうかに関して、ステップ570で判定が連続してなされる。焦点または関連領域が変わり、ステップ530、540または550の判定が現時点で「いいえ」を(すなわち、移動レジスタを「はい」として)登録するようになった場合、固定タイマーは停止し、ステップ510と520とにおいて位置データの生成と焦点の追跡とがそれぞれ継続する。所望の固定時間の終了前に位置が変わることは、システム100のユーザーまたは着用者が、対応するメニュー機能を何も呼び出さないと意図することと相互関連している。
しかしながら、ステップ570にて、焦点の移動に関して判定が「いいえ」であった場合、ステップ580にて、所定期間の終了に関して、ステップ580でなお更なる判定がなされる。まだ所定期間がカウントアップもカウントダウンもされていない場合、ステップ560、570及び580からなるループが継続して、ついに固定期間が終了する。このとき、ナビゲーションメニューの対応機能性がステップ590で実行され、方法500が終了する。
本発明は、様々な装置を用いて動作可能となり得る適用例に実装されてもよい。非一過性コンピュータ可読記憶媒体は、実行用の中央演算処理装置(central processing unit:CPU)への命令の提供に関わる1つ以上の任意の媒体を指す。かかる媒体は、多くの形態をとることができる。このような形態には、光学ディスクまたは磁気ディスクなどの不揮発性媒体、及びダイナミックメモリなどの揮発性媒体が含まれるが、これらに限定されることはない。非一過性コンピュータ可読媒体の一般的な形態としては、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、その他の磁気媒体、CD−ROMディスク、デジタルビデオディスク(digital video disk:DVD)、その他の光媒体、RAM、PROM、EPROM、FLASHEPROM、及びその他のメモリチップまたはメモリカートリッジが挙げられる。
伝送媒体の様々な形態は、実行用のCPUに対する1つ以上の命令からなる1つ以上のシーケンスを伝達するのに必要とされ得る。バスはデータをシステムRAMに伝達し、CPUはそこから命令を読み出して実行する。システムRAMによって受け取られた命令は、CPUによる実行の前か後のいずれかにおいて、必要に応じて固定ディスクに記憶させることができる。加えて、記憶装置の様々な形態が、これを実装するために必要なネットワークインターフェース及びネットワークトポロジと共に実装されてもよい。
様々な実施態様について上記で説明してきたが、それらは単なる例示として提示されたものであり、限定的なものではないことを理解すべきである。これらの説明は、本発明の範囲を本明細書に記載された特定の形態に限定することを意図するものではない。従って、好ましい実施形態の広がり及び範囲は、上述した例示的な実施形態のいずれによっても限定されるべきではない。上記の説明は例示的であり、限定的ではないことを理解すべきである。逆に、本説明は、添付された特許請求の範囲に定められる本発明の思想及び範囲内に含まれ、当業者によって通常認められ得るような、かかる代替例、変形例及び均等物を対象とすることを目的とする。従って、本発明の範囲は、上記の説明を参照して決められるべきではなく、むしろ、添付された特許請求の範囲、及び均等物の全範囲を参照して決められるべきである。

Claims (20)

  1. ヘッドマウントディスプレイにおけるメニューナビゲーション方法であって、
    前記ヘッドマウントディスプレイの位置データを生成すること、
    前記ヘッドマウントディスプレイの焦点の位置を追跡することであって、前記焦点の前記位置がメニューナビゲーション要素を含む仮想環境内で追跡されること、
    前記メニューナビゲーション要素の動作範囲内に前記焦点があると判定すること、
    前記ナビゲーション要素に対応する固定タイマーを実行することであって、前記メニューナビゲーション要素の前記動作範囲内に前記焦点があるときに前記固定タイマーが所定期間をカウントダウンすること、及び
    前記固定タイマーによって示される様に前記所定期間が終了すると、前記メニューナビゲーション要素の対応機能を実施すること、を含む方法。
  2. 前記位置データを生成することは、ジャイロスコープからのデータを処理することを含む、請求項1に記載の方法。
  3. 位置データを生成することは、加速度計からのデータを処理することを含む、請求項1に記載の方法。
  4. 位置データを生成することは、磁力計からのデータを処理することを含む、請求項1に記載の方法。
  5. 前記焦点は、前記焦点の周囲に関連領域を備えており、前記メニューナビゲーションの前記動作範囲内に前記焦点があると判定することは、前記関連領域が前記メニューナビゲーション要素の前記動作範囲内にあると判定することを含む、請求項1に記載の方法。
  6. 前記メニューナビゲーション要素の前記動作範囲は、前記メニューナビゲーション要素の周囲に関連領域を備えており、前記メニューナビゲーションの前記動作範囲内に前記焦点があると判定することは、前記焦点が前記関連領域内にあると判定することを含む、請求項1に記載の方法。
  7. 前記焦点及び前記メニューナビゲーション要素は、関連領域をそれぞれ備えており、前記メニューナビゲーションの前記動作範囲内に前記焦点があると判定することは、前記焦点の前記関連領域が前記メニューナビゲーション要素の前記関連領域と重複していると判定することを含む、請求項1に記載の方法。
  8. 前記メニューナビゲーション要素に対応する前記固定タイマーを実行することは、前記固定タイマーが実行を開始してから前記焦点が前記動作範囲から移動したかどうかを判定することを含む、請求項1に記載の方法。
  9. 前記メニューナビゲーション要素に対応する前記固定タイマーを実行することは、前記焦点が前記メニューナビゲーション要素の前記動作範囲内に留まっていることを確認することをさらに含む、請求項8に記載の方法。
  10. 前記メニューナビゲーション要素に対応する前記固定タイマーを実行することは、前記焦点に関連付けられた領域が前記メニューナビゲーション要素の前記動作範囲内に留まっていることを確認することをさらに含む、請求項8に記載の方法。
  11. 前記メニューナビゲーション要素に対応する前記固定タイマーを実行することは、前記焦点に関連付けられた領域が前記メニューナビゲーション要素に関連付けられた領域と重複し続けていることを確認することをさらに含む、請求項8に記載の方法。
  12. 前記焦点の外観を前記固定タイマーの前記実行中に変えることをさらに含む、請求項1に記載の方法。
  13. 前記メニューナビゲーション要素の外観を前記固定タイマーの実行中に変えることをさらに含む、請求項1に記載の方法。
  14. 前記焦点に関連付けられた領域の外観を前記固定タイマーの実行中に変えることをさらに含む、請求項1に記載の方法。
  15. 前記メニューナビゲーション要素に関連付けられた領域の外観を前記固定タイマーの実行中に変えることをさらに含む、請求項1に記載の方法。
  16. 前記焦点と前記メニューナビゲーション要素との外観を前記固定タイマーの実行中に変えることをさらに含む、請求項1に記載の方法。
  17. 前記焦点と前記メニューナビゲーション要素に関連付けられた領域との外観を前記固定タイマーの実行中に変えることをさらに含む、請求項1に記載の方法。
  18. 前記焦点に関連付けられた領域と前記メニューナビゲーション要素との外観を前記固定タイマーの実行中に変えることをさらに含む、請求項1に記載の方法。
  19. プログラムが具現化された非一過性コンピュータ可読記憶媒体であって、前記プログラムは、ヘッドマウントディスプレイにおいてメニューナビゲーション方法を実行するように処理装置によって実行可能であり、前記メニューナビゲーション方法は、
    前記ヘッドマウントディスプレイの位置データを生成すること、
    前記ヘッドマウントディスプレイの焦点の位置を追跡することであって、前記焦点の前記位置がメニューナビゲーション要素を含む仮想環境内で追跡されること、
    前記メニューナビゲーション要素の動作範囲内に前記焦点があると判定すること、
    前記ナビゲーション要素に対応する固定タイマーを実行することであって、前記メニューナビゲーション要素の前記動作範囲内に前記焦点があるときに前記固定タイマーが所定期間をカウントダウンすること、及び
    前記固定タイマーによって示される様に前記所定期間が終了すると、前記ナビゲーション要素の対応機能を実施することを含む、非一過性コンピュータ可読記憶媒体。
  20. メニューナビゲーションシステムであって、
    位置データを生成するジャイロスコープ、磁力計及び加速度計のうちの少なくとも1つと、
    メニューナビゲーション要素を含む仮想環境内に焦点を表示するために少なくとも1つのレンズを備えるヘッドマウントディスプレイと、
    処理装置であって、メモリに記憶された命令を実行することにより、
    前記位置データを処理して前記仮想環境内で前記焦点の前記位置を追跡すること、
    前記メニューナビゲーション要素の動作範囲内に前記焦点があると判定すること、
    前記ナビゲーション要素に対応する固定タイマーを実行することであって、前記メニューナビゲーション要素の前記動作範囲内に前記焦点があるときに前記固定タイマーが所定期間をカウントダウンすること、及び
    前記固定タイマーによって示される様に前記所定期間が終了すると、前記メニューナビゲーション要素に関連付けられた機能性を実行すること、を行う前記処理装置と、
    を備えるシステム。
JP2016548227A 2014-01-25 2015-01-12 ヘッドマウントディスプレイにおけるメニューナビゲーション Pending JP2017510877A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461931582P 2014-01-25 2014-01-25
US61/931,582 2014-01-25
US14/283,032 2014-05-20
US14/283,032 US9588343B2 (en) 2014-01-25 2014-05-20 Menu navigation in a head-mounted display
PCT/US2015/010990 WO2015112359A1 (en) 2014-01-25 2015-01-12 Menu navigation in a head-mounted display

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018108517A Division JP6674703B2 (ja) 2014-01-25 2018-06-06 ヘッドマウントディスプレイにおけるメニューナビゲーション

Publications (1)

Publication Number Publication Date
JP2017510877A true JP2017510877A (ja) 2017-04-13

Family

ID=53678875

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016548227A Pending JP2017510877A (ja) 2014-01-25 2015-01-12 ヘッドマウントディスプレイにおけるメニューナビゲーション
JP2018108517A Active JP6674703B2 (ja) 2014-01-25 2018-06-06 ヘッドマウントディスプレイにおけるメニューナビゲーション
JP2020037787A Active JP7021274B2 (ja) 2014-01-25 2020-03-05 ヘッドマウントディスプレイにおけるメニューナビゲーション

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2018108517A Active JP6674703B2 (ja) 2014-01-25 2018-06-06 ヘッドマウントディスプレイにおけるメニューナビゲーション
JP2020037787A Active JP7021274B2 (ja) 2014-01-25 2020-03-05 ヘッドマウントディスプレイにおけるメニューナビゲーション

Country Status (10)

Country Link
US (4) US9588343B2 (ja)
EP (1) EP3097449A4 (ja)
JP (3) JP2017510877A (ja)
KR (3) KR102235410B1 (ja)
CN (1) CN106471420B (ja)
BR (1) BR112016017179A2 (ja)
CA (1) CA2937880C (ja)
MX (1) MX359046B (ja)
RU (1) RU2642545C1 (ja)
WO (1) WO2015112359A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010702A (ja) * 2017-10-25 2018-01-18 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
US11693476B2 (en) 2014-01-25 2023-07-04 Sony Interactive Entertainment LLC Menu navigation in a head-mounted display
US11809679B2 (en) 2013-03-15 2023-11-07 Sony Interactive Entertainment LLC Personal digital assistance and virtual reality

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9838506B1 (en) 2013-03-15 2017-12-05 Sony Interactive Entertainment America Llc Virtual reality universe representation changes viewing based upon client side parameters
US20140280502A1 (en) 2013-03-15 2014-09-18 John Cronin Crowd and cloud enabled virtual reality distributed location network
US20140280644A1 (en) 2013-03-15 2014-09-18 John Cronin Real time unified communications interaction of a predefined location in a virtual reality location
US20140280506A1 (en) 2013-03-15 2014-09-18 John Cronin Virtual reality enhanced through browser connections
US20140280503A1 (en) 2013-03-15 2014-09-18 John Cronin System and methods for effective virtual reality visitor interface
US20140280505A1 (en) 2013-03-15 2014-09-18 John Cronin Virtual reality interaction with 3d printing
US9437159B2 (en) 2014-01-25 2016-09-06 Sony Interactive Entertainment America Llc Environmental interrupt in a head-mounted display and utilization of non field of view real estate
US10585485B1 (en) 2014-11-10 2020-03-10 Amazon Technologies, Inc. Controlling content zoom level based on user head movement
KR102450416B1 (ko) * 2015-11-04 2022-10-05 삼성전자주식회사 전자 장치, 웨어러블 장치 및 전자 장치에서 디스플레이되는 객체를 제어하는 방법
US10586391B2 (en) 2016-05-31 2020-03-10 Accenture Global Solutions Limited Interactive virtual reality platforms
KR102632795B1 (ko) 2016-09-21 2024-02-02 삼성전자주식회사 컨텐츠와 연관된 네비게이터 표시 방법 및 이를 구현한 전자 장치
US20180096505A1 (en) 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US20180095635A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
CN106951153B (zh) * 2017-02-21 2020-11-20 联想(北京)有限公司 一种显示方法及电子设备
CN106924970B (zh) * 2017-03-08 2020-07-07 网易(杭州)网络有限公司 虚拟现实系统、基于虚拟现实的信息显示方法及装置
US11416600B2 (en) * 2017-04-24 2022-08-16 Siemens Aktiengesellschaft Unlocking passwords in augmented reality based on look
CN107368184B (zh) 2017-05-12 2020-04-14 阿里巴巴集团控股有限公司 一种虚拟现实场景中的密码输入方法和装置
US10747386B2 (en) 2017-06-01 2020-08-18 Samsung Electronics Co., Ltd. Systems and methods for window control in virtual reality environment
CN108010394B (zh) * 2017-12-20 2020-11-03 杭州埃欧哲建设工程咨询有限公司 一种基于vr的虚拟教学方法、控制终端、虚拟教学系统
WO2019135634A1 (en) 2018-01-05 2019-07-11 Samsung Electronics Co., Ltd. Method and apparatus to navigate a virtual content displayed by a virtual reality (vr) device
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
US11567627B2 (en) 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
US11157159B2 (en) 2018-06-07 2021-10-26 Magic Leap, Inc. Augmented reality scrollbar
CN114003123A (zh) * 2020-07-28 2022-02-01 华为技术有限公司 控件移动方法和电子设备
RU2747861C1 (ru) * 2020-09-17 2021-05-17 Общество с ограниченной ответственностью "МедВиар" Способ и система для ведения диалогов с виртуальными персонажами в виртуальной среде
US11183049B1 (en) * 2021-01-22 2021-11-23 International Business Machines Corporation Monitoring and instigating shifts in visual focus
US11720380B1 (en) 2022-05-18 2023-08-08 Bank Of America Corporation System and method for updating augmented reality navigation instructions based on a detected error
US11586286B1 (en) 2022-05-18 2023-02-21 Bank Of America Corporation System and method for navigating on an augmented reality display
KR102592197B1 (ko) 2023-05-18 2023-10-20 주식회사 미주산업 비전인식기반 조선기자재 철의장품 형상조립 및 용접 자동화 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222287A (ja) * 1997-02-10 1998-08-21 Sony Corp 情報入力装置
JPH1195971A (ja) * 1997-09-24 1999-04-09 Sharp Corp ユーザインタフェースシステム
JP2003280805A (ja) * 2002-03-26 2003-10-02 Gen Tec:Kk データ入力装置
US20100262933A1 (en) * 2009-04-14 2010-10-14 Samsung Electronics Co., Ltd. Method and apparatus of selecting an item
US20120154557A1 (en) * 2010-12-16 2012-06-21 Katie Stone Perez Comprehension and intent-based content for augmented reality displays
US20130125066A1 (en) * 2011-11-14 2013-05-16 Microsoft Corporation Adaptive Area Cursor

Family Cites Families (151)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3883237A (en) * 1972-08-03 1975-05-13 Gates Rubber Co Panoramic image reproducing apparatus
US5258785A (en) * 1991-06-25 1993-11-02 Dawkins Jr Douglas R Close-view data display implant for sporting eyewear
US5757358A (en) * 1992-03-31 1998-05-26 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for enhancing computer-user selection of computer-displayed objects through dynamic selection area and constant visual feedback
US5585871A (en) * 1995-05-26 1996-12-17 Linden; Harry Multi-function display apparatus
US8330812B2 (en) * 1995-05-30 2012-12-11 Simulated Percepts, Llc Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame
US6282362B1 (en) 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
JPH09167253A (ja) * 1995-12-14 1997-06-24 Olympus Optical Co Ltd 映像表示装置
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
GB2314664A (en) * 1996-06-27 1998-01-07 Sharp Kk Address generator,display and spatial light modulator
US5982555A (en) 1998-01-20 1999-11-09 University Of Washington Virtual retinal display with eye tracking
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6415316B1 (en) 1998-09-01 2002-07-02 Aidministrator Nederland B.V. Method and apparatus for implementing a web page diary
EP1116211A4 (en) * 1998-09-22 2001-11-21 Vega Vista Inc INTUITIVE CONTROL OF A PORTABLE DATA PRESENTATION SCREEN
US6345129B1 (en) * 1999-02-03 2002-02-05 Oren Aharon Wide-field scanning tv
US6315273B1 (en) * 1999-05-27 2001-11-13 Lionel Davies Gas and liquid contact apparatus: illuminated
US20020038456A1 (en) 2000-09-22 2002-03-28 Hansen Michael W. Method and system for the automatic production and distribution of media content using the internet
US20020083134A1 (en) 2000-12-22 2002-06-27 Bauer Kirk Wayne Method and system of collaborative browsing
US20020171690A1 (en) * 2001-05-15 2002-11-21 International Business Machines Corporation Method and system for scaling a graphical user interface (GUI) widget based on selection pointer proximity
US7100190B2 (en) 2001-06-05 2006-08-29 Honda Giken Kogyo Kabushiki Kaisha Automobile web cam and communications system incorporating a network of automobile web cams
US7970240B1 (en) 2001-12-17 2011-06-28 Google Inc. Method and apparatus for archiving and visualizing digital images
US7921357B2 (en) * 2002-05-23 2011-04-05 Lebow David G Highlighting comparison method
US8120624B2 (en) * 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2406131A1 (en) * 2002-09-30 2004-03-30 Idelix Software Inc. A graphical user interface using detail-in-context folding
US8458028B2 (en) 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
JP2004233867A (ja) * 2003-01-31 2004-08-19 Nikon Corp 画像表示装置
US9607092B2 (en) 2003-05-20 2017-03-28 Excalibur Ip, Llc Mapping method and system
US7467356B2 (en) 2003-07-25 2008-12-16 Three-B International Limited Graphical user interface for 3d virtual display browser using virtual display windows
US7667700B1 (en) 2004-03-05 2010-02-23 Hrl Laboratories, Llc System and method for navigating operating in a virtual environment
JP5008556B2 (ja) * 2004-06-03 2012-08-22 メイキング バーチャル ソリッド,エル.エル.シー. ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置
SE525826C2 (sv) * 2004-06-18 2005-05-10 Totalfoersvarets Forskningsins Interaktivt förfarande för att presentera information i en bild
SG155167A1 (en) 2004-08-03 2009-09-30 Silverbrook Res Pty Ltd Walk-up printing
US7949642B2 (en) 2004-10-12 2011-05-24 Wendy W Yang System and method for managing and presenting entity information
JP2006320706A (ja) * 2004-12-03 2006-11-30 Shinsedai Kk ボクシングゲーム方法、表示制御方法、位置決定方法、カーソル制御方法、消費エネルギー算出方法及びエクササイズ・システム
US7298378B1 (en) 2004-12-13 2007-11-20 Hagenbuch Andrew M Virtual reality universe realized as a distributed location network
EP1679577A1 (en) * 2005-01-10 2006-07-12 Tobii Technology AB Adaptive display of eye controllable objects
WO2006087709A1 (en) * 2005-02-17 2006-08-24 Lumus Ltd. Personal navigation system
US7933929B1 (en) 2005-06-27 2011-04-26 Google Inc. Network link for providing dynamic data layer in a geographic information system
WO2007027847A2 (en) 2005-09-01 2007-03-08 Geosim Systems Ltd. System and method for cost-effective, high-fidelity 3d-modeling of large-scale urban environments
US7529772B2 (en) 2005-09-27 2009-05-05 Scenera Technologies, Llc Method and system for associating user comments to a scene captured by a digital imaging device
US7836437B2 (en) 2006-02-10 2010-11-16 Microsoft Corporation Semantic annotations for virtual objects
US8725729B2 (en) * 2006-04-03 2014-05-13 Steven G. Lisa System, methods and applications for embedded internet searching and result display
US7928926B2 (en) 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
EP2078229A2 (en) * 2006-11-02 2009-07-15 Sensics, Inc. Systems and methods for a head-mounted display
US9555334B2 (en) 2006-12-13 2017-01-31 Qualcomm Incorporated System and method for managing virtual worlds mapped to real locations in a mobile-enabled massively multiplayer online role playing game (MMORPG)
US20080155019A1 (en) 2006-12-20 2008-06-26 Andrew Wallace System, apparatus and method to facilitate interactions between real world and proprietary environments
US8239487B1 (en) 2007-05-30 2012-08-07 Rocketon, Inc. Method and apparatus for promoting desired on-line activities using on-line games
US8583915B1 (en) 2007-05-31 2013-11-12 Bby Solutions, Inc. Security and authentication systems and methods for personalized portable devices and associated systems
US8600808B2 (en) 2007-06-07 2013-12-03 Qurio Holdings, Inc. Methods and systems of presenting advertisements in consumer-defined environments
US20090113349A1 (en) 2007-09-24 2009-04-30 Mark Zohar Facilitating electronic commerce via a 3d virtual environment
US20090106672A1 (en) 2007-10-18 2009-04-23 Sony Ericsson Mobile Communications Ab Virtual world avatar activity governed by person's real life activity
US20100259471A1 (en) 2007-11-16 2010-10-14 Nikon Corporation Control device, head-mount display device, program, and control method
US20090263777A1 (en) * 2007-11-19 2009-10-22 Kohn Arthur J Immersive interactive environment for asynchronous learning and entertainment
US20090271436A1 (en) 2008-04-23 2009-10-29 Josef Reisinger Techniques for Providing a Virtual-World Object Based on a Real-World Object Description
KR20100009947A (ko) * 2008-07-21 2010-01-29 삼성전자주식회사 가상 현실 서비스 간의 상호 연동을 위한 장치 및 방법
US9318026B2 (en) 2008-08-21 2016-04-19 Lincoln Global, Inc. Systems and methods providing an enhanced user experience in a real-time simulated virtual reality welding environment
US8108778B2 (en) 2008-09-30 2012-01-31 Yahoo! Inc. System and method for context enhanced mapping within a user interface
CA2674663A1 (en) * 2008-10-08 2010-04-08 Research In Motion Limited A method and handheld electronic device having dual mode touchscreen-based navigation
US20100102476A1 (en) 2008-10-29 2010-04-29 Higgins Michael H Method for manufacturing raised relief maps
US20100110069A1 (en) * 2008-10-31 2010-05-06 Sharp Laboratories Of America, Inc. System for rendering virtual see-through scenes
US9472014B2 (en) 2008-12-19 2016-10-18 International Business Machines Corporation Alternative representations of virtual content in a virtual universe
FR2942091A1 (fr) 2009-02-10 2010-08-13 Alcatel Lucent Communication multimedia dans un environnement virtuel
US20100208029A1 (en) * 2009-02-13 2010-08-19 Samsung Electronics Co., Ltd Mobile immersive display system
US20100238161A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
JP2011039438A (ja) 2009-08-18 2011-02-24 Fujitsu Ltd 電子機器および表示制御方法
US8392839B2 (en) 2009-08-27 2013-03-05 International Business Machines Corporation System and method for using partial teleportation or relocation in virtual worlds
US20110153435A1 (en) * 2009-09-17 2011-06-23 Lexos Media Inc. System and method of cursor-based content delivery
US9254438B2 (en) 2009-09-29 2016-02-09 International Business Machines Corporation Apparatus and method to transition between a media presentation and a virtual environment
US9256347B2 (en) 2009-09-29 2016-02-09 International Business Machines Corporation Routing a teleportation request based on compatibility with user contexts
US8175734B2 (en) 2009-10-08 2012-05-08 3D M. T. P. Ltd. Methods and system for enabling printing three-dimensional object models
BR112012017687A2 (pt) 2010-02-12 2016-04-05 Thomson Licensing método para reprodução de conteúdo sincronizado
KR20110094693A (ko) * 2010-02-17 2011-08-24 삼성전자주식회사 사용자 인터페이스 제공 장치 및 방법
US20110214071A1 (en) 2010-02-26 2011-09-01 University Of Southern California Information channels in mmogs
US20120194418A1 (en) * 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with user action control and event input based control of eyepiece application
US20140063054A1 (en) 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific control interface based on a connected external device type
US20120194552A1 (en) * 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with predictive control of external device based on event input
US20140063055A1 (en) 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific user interface and control interface based on a connected external device type
JP5223062B2 (ja) 2010-03-11 2013-06-26 株式会社ジオ技術研究所 3次元地図描画システム
JP5143856B2 (ja) 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
US8797380B2 (en) 2010-04-30 2014-08-05 Microsoft Corporation Accelerated instant replay for co-present and distributed meetings
US20110279445A1 (en) 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for presenting location-based content
US8694553B2 (en) 2010-06-07 2014-04-08 Gary Stephen Shuster Creation and use of virtual places
US20110313779A1 (en) 2010-06-17 2011-12-22 Microsoft Corporation Augmentation and correction of location based data through user feedback
US8521526B1 (en) 2010-07-28 2013-08-27 Google Inc. Disambiguation of a spoken query term
US9378296B2 (en) 2010-08-24 2016-06-28 International Business Machines Corporation Virtual world construction
US9316827B2 (en) * 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US9317133B2 (en) 2010-10-08 2016-04-19 Nokia Technologies Oy Method and apparatus for generating augmented reality content
US9632315B2 (en) * 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
KR20120046973A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 움직임 정보 생성 방법 및 장치
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
EP2649782A2 (en) 2010-12-10 2013-10-16 Yota Devices IPR Ltd Mobile device with user interface
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US8803912B1 (en) 2011-01-18 2014-08-12 Kenneth Peyton Fouts Systems and methods related to an interactive representative reality
US20120188148A1 (en) 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System
RU111703U1 (ru) 2011-02-08 2011-12-20 Федеральное агенство воздушного транспорта Федеральное государственное образовательное учреждение высшего профессионального образования "Московский государственный технический университет гражданской авиации" (МГТУГА) Тренажерный комплекс для обучения авиадиспетчеров диспетчерских пунктов руления, старта и посадки на реальном летном поле
EP2672880B1 (en) * 2011-02-09 2019-05-22 Apple Inc. Gaze detection in a 3d mapping environment
CN103460256B (zh) 2011-03-29 2016-09-14 高通股份有限公司 在扩增现实系统中将虚拟图像锚定到真实世界表面
US20120249480A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Interactive input system incorporating multi-angle reflecting structure
US9154826B2 (en) 2011-04-06 2015-10-06 Headwater Partners Ii Llc Distributing content and service launch objects to mobile devices
US9043325B1 (en) 2011-06-24 2015-05-26 Google Inc. Collecting useful user feedback about geographical entities
US9727132B2 (en) 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US8223024B1 (en) 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
US8847988B2 (en) 2011-09-30 2014-09-30 Microsoft Corporation Exercising applications for personal audio/visual system
US9128520B2 (en) 2011-09-30 2015-09-08 Microsoft Technology Licensing, Llc Service provision using personal audio/visual system
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US8970452B2 (en) * 2011-11-02 2015-03-03 Google Inc. Imaging method
US20130117707A1 (en) * 2011-11-08 2013-05-09 Google Inc. Velocity-Based Triggering
US9311883B2 (en) 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
US8866852B2 (en) * 2011-11-28 2014-10-21 Google Inc. Method and system for input detection
US9213185B1 (en) * 2012-01-06 2015-12-15 Google Inc. Display scaling based on movement of a head-mounted display
US8908914B2 (en) 2012-01-17 2014-12-09 Maxlinear, Inc. Method and system for map generation for location and navigation with user sharing/social networking
US20130191178A1 (en) 2012-01-25 2013-07-25 Predictive Edge Technologies, Llc System and method for secure registration, authentication, valuation and exchange of virtual goods and objects
US20130194389A1 (en) * 2012-01-31 2013-08-01 Ben Vaught Head-mounted display device to measure attentiveness
JP5880115B2 (ja) 2012-02-17 2016-03-08 ソニー株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法
US20130227017A1 (en) 2012-02-24 2013-08-29 Steven Antony Gahlings Location associated virtual interaction, virtual networking and virtual data management
US8737767B2 (en) 2012-02-28 2014-05-27 Disney Enterprises, Inc. Perceptually guided capture and stylization of 3D human figures
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US20130241805A1 (en) * 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US9096920B1 (en) * 2012-03-22 2015-08-04 Google Inc. User interface method
US20130263016A1 (en) 2012-03-27 2013-10-03 Nokia Corporation Method and apparatus for location tagged user interface for media sharing
US9122321B2 (en) * 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
JP2013258614A (ja) 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
US9389420B2 (en) * 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
TW201351963A (zh) 2012-06-15 2013-12-16 Hon Hai Prec Ind Co Ltd 虛擬環境中的影像播放方法及系統
US9219901B2 (en) 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display
US9669296B1 (en) 2012-07-31 2017-06-06 Niantic, Inc. Linking real world activities with a parallel reality game
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
US9007301B1 (en) * 2012-10-11 2015-04-14 Google Inc. User interface
US20150062114A1 (en) 2012-10-23 2015-03-05 Andrew Ofstad Displaying textual information related to geolocated images
US9710873B1 (en) 2012-10-26 2017-07-18 Amazon Technologies, Inc. Point of interest mapping
US20140164921A1 (en) 2012-12-07 2014-06-12 Robert Salinas Methods and Systems of Augmented Reality on Mobile Devices
US9607011B2 (en) 2012-12-19 2017-03-28 Intel Corporation Time-shifting image service
US9285951B2 (en) 2013-02-14 2016-03-15 Disney Enterprises, Inc. Avatar personalization in a virtual environment
US20140280644A1 (en) 2013-03-15 2014-09-18 John Cronin Real time unified communications interaction of a predefined location in a virtual reality location
US20140280505A1 (en) 2013-03-15 2014-09-18 John Cronin Virtual reality interaction with 3d printing
US20140280506A1 (en) 2013-03-15 2014-09-18 John Cronin Virtual reality enhanced through browser connections
US9838506B1 (en) 2013-03-15 2017-12-05 Sony Interactive Entertainment America Llc Virtual reality universe representation changes viewing based upon client side parameters
US20140280502A1 (en) 2013-03-15 2014-09-18 John Cronin Crowd and cloud enabled virtual reality distributed location network
US20140267581A1 (en) 2013-03-15 2014-09-18 John Cronin Real time virtual reality leveraging web cams and ip cams and web cam and ip cam networks
US20140280504A1 (en) 2013-03-15 2014-09-18 John Cronin Virtual reality universe representation changes viewing based upon client side parameters
US20140280503A1 (en) 2013-03-15 2014-09-18 John Cronin System and methods for effective virtual reality visitor interface
US9261959B1 (en) * 2013-03-28 2016-02-16 Google Inc. Input detection
US9874749B2 (en) * 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9329682B2 (en) * 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
US9563331B2 (en) * 2013-06-28 2017-02-07 Microsoft Technology Licensing, Llc Web-like hierarchical menu display configuration for a near-eye display
JP5825328B2 (ja) * 2013-11-07 2015-12-02 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
US9588343B2 (en) 2014-01-25 2017-03-07 Sony Interactive Entertainment America Llc Menu navigation in a head-mounted display
US9437159B2 (en) 2014-01-25 2016-09-06 Sony Interactive Entertainment America Llc Environmental interrupt in a head-mounted display and utilization of non field of view real estate
US9898078B2 (en) * 2015-01-12 2018-02-20 Dell Products, L.P. Immersive environment correction display and method
US20170090460A1 (en) 2015-09-25 2017-03-30 Microsoft Technology Licensing, Llc 3D Model Generation From Map Data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222287A (ja) * 1997-02-10 1998-08-21 Sony Corp 情報入力装置
JPH1195971A (ja) * 1997-09-24 1999-04-09 Sharp Corp ユーザインタフェースシステム
JP2003280805A (ja) * 2002-03-26 2003-10-02 Gen Tec:Kk データ入力装置
US20100262933A1 (en) * 2009-04-14 2010-10-14 Samsung Electronics Co., Ltd. Method and apparatus of selecting an item
US20120154557A1 (en) * 2010-12-16 2012-06-21 Katie Stone Perez Comprehension and intent-based content for augmented reality displays
JP2014504413A (ja) * 2010-12-16 2014-02-20 マイクロソフト コーポレーション 理解および意図に基づく拡張現実表示用コンテンツ
US20130125066A1 (en) * 2011-11-14 2013-05-16 Microsoft Corporation Adaptive Area Cursor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11809679B2 (en) 2013-03-15 2023-11-07 Sony Interactive Entertainment LLC Personal digital assistance and virtual reality
US11693476B2 (en) 2014-01-25 2023-07-04 Sony Interactive Entertainment LLC Menu navigation in a head-mounted display
JP2018010702A (ja) * 2017-10-25 2018-01-18 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム

Also Published As

Publication number Publication date
US11693476B2 (en) 2023-07-04
CA2937880C (en) 2018-01-23
WO2015112359A9 (en) 2016-11-10
MX2016009682A (es) 2017-07-05
EP3097449A4 (en) 2017-08-09
KR102390549B1 (ko) 2022-04-26
KR20160113614A (ko) 2016-09-30
JP6674703B2 (ja) 2020-04-01
MX359046B (es) 2018-09-13
US20210357028A1 (en) 2021-11-18
RU2642545C1 (ru) 2018-01-25
EP3097449A1 (en) 2016-11-30
KR102235410B1 (ko) 2021-04-02
BR112016017179A2 (pt) 2017-12-26
KR20210037746A (ko) 2021-04-06
JP2018190429A (ja) 2018-11-29
US20170242479A1 (en) 2017-08-24
US11036292B2 (en) 2021-06-15
CA2937880A1 (en) 2015-07-30
US10809798B2 (en) 2020-10-20
JP2020115352A (ja) 2020-07-30
JP7021274B2 (ja) 2022-02-16
WO2015112359A1 (en) 2015-07-30
KR102090075B1 (ko) 2020-03-17
KR20200029631A (ko) 2020-03-18
CN106471420A (zh) 2017-03-01
US20200379556A1 (en) 2020-12-03
CN106471420B (zh) 2019-04-23
US20150212322A1 (en) 2015-07-30
US9588343B2 (en) 2017-03-07

Similar Documents

Publication Publication Date Title
JP6674703B2 (ja) ヘッドマウントディスプレイにおけるメニューナビゲーション
US10096167B2 (en) Method for executing functions in a VR environment
US20160011724A1 (en) Hands-Free Selection Using a Ring-Based User-Interface
JP2017531222A (ja) ホログラフィックオブジェクトのためのスマート透明度
KR102650572B1 (ko) 전자 장치 및 그의 제어 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180206