JP7286828B2 - 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム - Google Patents
仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム Download PDFInfo
- Publication number
- JP7286828B2 JP7286828B2 JP2022022798A JP2022022798A JP7286828B2 JP 7286828 B2 JP7286828 B2 JP 7286828B2 JP 2022022798 A JP2022022798 A JP 2022022798A JP 2022022798 A JP2022022798 A JP 2022022798A JP 7286828 B2 JP7286828 B2 JP 7286828B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- display
- content
- degrees
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、例えば、以下を提供する。
(項目1)
主要コンテンツのユーザの視認に干渉せず、主要コンテンツを示すヘッドアップディスプレイ上の仮想現実環境内に付加的コンテンツを提示するための方法であって、
ヘッドアップディスプレイ内の仮想現実環境の第1の部分における表示のために、第1の主要コンテンツを生成するステップであって、前記第1の部分は、ユーザの第1の視野の前景領域に対応する、ステップと、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、第2の主要コンテンツおよび付加的コンテンツを生成するステップであって、前記第2の部分は、前記ユーザの第1の視野の周辺領域に対応する、ステップと、
前記ユーザの視線の中心の移動を検出するステップと、
前記視線の中心の移動に基づく前記ユーザの第2の視野を判定するステップと、
前記第2の部分が前記第2の視野の前景領域に対応することを判定するステップと、
前記第2の部分が前記第2の視野の前景領域に対応することの判定に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第3の部分に生成するステップであって、前記第3の部分は、前記第2の視野の周辺領域に対応する、ステップと、
を含む、方法。
(項目2)
前記視線の中心の移動を検出するステップは、前記ユーザの視線の中心を検出するステップを含む、項目1に記載の方法。
(項目3)
前記ユーザの視線の中心を検出するステップは、
光を前記ユーザの各眼に伝送するステップと、
前記ユーザの各眼の画像を収集するステップと、
各画像内において、前記ユーザの眼の中の反射の場所を検出するステップと、
前記ユーザの各瞳孔の場所を判定するステップと、
各瞳孔の場所と各反射の場所を比較するステップと、
各瞳孔の場所と各反射の場所の比較に基づいて、前記ユーザの各眼の視線点を判定するステップと、
前記ユーザの各眼の視線点間の中央点を判定することによって、前記視線の中心を判定するステップと、
を含む、項目2に記載の方法。
(項目4)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、加速度計を含み、前記ユーザの視線の中心の移動を検出するステップは、前記加速度計によって、前記ユーザの頭部の加速を検出するステップを含む、項目1に記載の方法。
(項目5)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、表示のために、前記付加的コンテンツを生成するステップは、表示のために、前記ユーザの物理的周囲のビデオを生成するステップを含む、項目1に記載の方法。
(項目6)
表示のために、前記付加的コンテンツを生成するステップは、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するステップを含む、項目1に記載の方法。
(項目7)
前記視線の中心の移動に基づく前記ユーザの第2の視野を判定するステップは、
前記視線の中心の移動に基づいて、新しい視線の中心を判定するステップと、
前記新しい視線の中心の左右に対して第1の度数内、前記新しい視線の中心の上方に第2の度数内、および前記新しい視線の中心の下方に第3の度数内にある領域を判定するステップと、
を含む、項目1に記載の方法。
(項目8)
前記第2の部分が前記第2の視野の前景領域に対応することを判定するステップは、前記第2の視野の前景領域を判定するステップを含み、前記第2の視野の前景領域を判定するステップは、
前記新しい視線の中心の左右に対して第4の度数内、前記新しい視線の上方に第5の度数内、および前記新しい視線の下方に第6の度数内の領域を判定するステップを含み、前記第4の数は、前記第1の数より小さく、前記第5の数は、前記第2の数より小さく、前記第6の数は、前記第3の数より小さい、項目7に記載の方法。
(項目9)
入力を前記ユーザから受信するステップと、
前記入力に応答して、表示のために、前記付加的コンテンツを前記第2の視野の前景領域に対応する前記仮想現実環境の部分に生成するステップと、
をさらに含む、項目1に記載の方法。
(項目10)
表示のために、前記付加的コンテンツを生成するステップは、
その間に前記ユーザの視線の中心が実質的に移動されなかった前記ユーザの視線の中心の移動後の期間を測定するステップと、
前記期間が閾値期間を上回ることを判定するステップと、
前記期間が前記閾値期間を上回ることの判定に応答して、表示のために、前記付加的コンテンツを生成するステップと、
を含む、項目1に記載の方法。
(項目11)
主要コンテンツのユーザの視認に干渉せず、主要コンテンツを示すヘッドアップディスプレイ上の仮想現実環境内に付加的コンテンツを提示するためのシステムであって、
制御回路であって、前記制御回路は、
ヘッドアップディスプレイ内の仮想現実環境の第1の部分における表示のために、第1の主要コンテンツを生成することであって、前記第1の部分は、ユーザの第1の視野の前景領域に対応する、ことと、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、第2の主要コンテンツおよび付加的コンテンツを生成することであって、前記第2の部分は、前記ユーザの第1の視野の周辺領域に対応する、ことと、
前記ユーザの視線の中心の移動に基づいて、前記ユーザの第2の視野を判定することと、
前記第2の部分が前記第2の視野の前景領域に対応することを判定することと、
前記第2の部分が前記第2の視野の前景領域に対応することの判定に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第3の部分に生成することであって、前記第3の部分は、前記第2の視野の周辺領域に対応する、ことと、
を行うように構成される、制御回路と、
前記ユーザの視線の中心の移動を検出するように構成される検出モジュールと、
を備える、システム。
(項目12)
前記検出モジュールはさらに、前記ユーザの視線の中心を検出することによって、前記視線の中心の移動を検出するように構成される、項目11に記載のシステム。
(項目13)
前記検出モジュールはさらに、前記ユーザの視線の中心を検出するとき、
光を前記ユーザの各眼に伝送することと、
前記ユーザの各眼の画像を収集することと、
各画像内において、前記ユーザの眼の中の反射の場所を検出することと、
前記ユーザの各瞳孔の場所を判定することと、
各瞳孔の場所と各反射の場所を比較することと、
各瞳孔の場所と各反射の場所の比較に基づいて、前記ユーザの各眼の視線点を判定することと、
前記ユーザの各眼の視線点間の中央点を判定することによって、前記視線の中心を判定することと、
を行うように構成される、項目12に記載のシステム。
(項目14)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、加速度計を含み、前記検出モジュールはさらに、前記ユーザの視線の中心の移動を検出するとき、前記加速度計によって、前記ユーザの頭部の加速を検出するように構成される、項目11に記載のシステム。
(項目15)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、前記制御回路はさらに、表示のために、前記付加的コンテンツを生成するとき、表示のために、前記ユーザの物理的周囲のビデオを生成するように構成される、項目11に記載のシステム。
(項目16)
前記制御回路はさらに、表示のために、前記付加的コンテンツを生成するとき、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するように構成される、項目11に記載のシステム。
(項目17)
前記制御回路はさらに、前記視線の中心の移動に基づく前記ユーザの第2の視野を判定するとき、
前記視線の中心の移動に基づいて、新しい視線の中心を判定することと、
前記新しい視線の中心の左右に対して第1の度数内、前記新しい視線の中心の上方に第2の度数内、および前記新しい視線の中心の下方に第3の度数内にある領域を判定することと、
を行うように構成される、項目11に記載のシステム。
(項目18)
前記制御回路はさらに、前記第2の部分が前記第2の視野の前景領域に対応することを判定するとき、前記第2の視野の前景領域を判定するように構成され、前記制御回路はさらに、前記第2の視野の前景領域を判定するとき、
前記新しい視線の中心の左右に対して第4の度数内、前記新しい視線の上方に第5の度数内、および前記新しい視線の下方に第6の度数内の領域を判定するように構成され、前記第4の数は、前記第1の数より小さく、前記第5の数は、前記第2の数より小さく、前記第6の数は、前記第3の数より小さい、項目17に記載のシステム。
(項目19)
ユーザインターフェースが、入力を前記ユーザから受信するように構成され、前記制御回路はさらに、前記入力に応答して、表示のために、前記付加的コンテンツを前記第2の視野の前景領域に対応する前記仮想現実環境の部分に生成するように構成される、項目11に記載のシステム。
(項目20)
前記制御回路はさらに、表示のために、前記付加的コンテンツを生成するとき、
その間に前記ユーザの視線の中心が実質的に移動されなかった前記ユーザの視線の中心の移動後の期間を測定することと、
前記期間が閾値期間を上回ることを判定することと、
前記期間が前記閾値期間を上回ることの判定に応答して、表示のために、前記付加的コンテンツを生成することと、
を行うように構成される、項目11に記載のシステム。
(項目21)
主要コンテンツのユーザの視認に干渉せず、主要コンテンツを示すヘッドアップディスプレイ上の仮想現実環境内に付加的コンテンツを提示するためのシステムであって、
ヘッドアップディスプレイ内の仮想現実環境の第1の部分における表示のために、第1の主要コンテンツを生成するための手段であって、前記第1の部分は、ユーザの第1の視野の前景領域に対応する、手段と、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、第2の主要コンテンツおよび付加的コンテンツを生成するための手段であって、前記第2の部分は、前記ユーザの第1の視野の周辺領域に対応する、手段と、
前記ユーザの視線の中心の移動を検出するための手段と、
前記視線の中心の移動に基づく前記ユーザの第2の視野を判定するための手段と、
前記第2の部分が前記第2の視野の前景領域に対応することを判定するための手段と、
前記第2の部分が前記第2の視野の前景領域に対応することの判定に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第3の部分に生成するための手段であって、前記第3の部分は、前記第2の視野の周辺領域に対応する、手段と、
を備える、システム。
(項目22)
前記視線の中心の移動を検出するための手段は、前記ユーザの視線の中心を検出するための手段を備える、項目21に記載のシステム。
(項目23)
前記ユーザの視線の中心を検出するための手段は、
光を前記ユーザの各眼に伝送するための手段と、
前記ユーザの各眼の画像を収集するための手段と、
各画像内において、前記ユーザの眼の中の反射の場所を検出するための手段と、
前記ユーザの各瞳孔の場所を判定するための手段と、
各瞳孔の場所と各反射の場所を比較するための手段と、
各瞳孔の場所と各反射の場所の比較に基づいて、前記ユーザの各眼の視線点を判定するための手段と、
前記ユーザの各眼の視線点間の中央点を判定することによって、前記視線の中心を判定するための手段と、
を備える、項目22に記載のシステム。
(項目24)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、加速度計を含み、前記ユーザの視線の中心の移動を検出するための手段は、前記加速度計によって、前記ユーザの頭部の加速を検出するための手段を備える、項目21に記載のシステム。
(項目25)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、表示のために、前記付加的コンテンツを生成するための手段は、表示のために、前記ユーザの物理的周囲のビデオを生成するための手段を備える、項目21に記載のシステム。
(項目26)
表示のために、前記付加的コンテンツを生成するための手段は、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するための手段を備える、項目21に記載のシステム。
(項目27)
前記視線の中心の移動に基づく前記ユーザの第2の視野を判定するための手段は、
前記視線の中心の移動に基づいて、新しい視線の中心を判定するための手段と、
前記新しい視線の中心の左右に対して第1の度数内、前記新しい視線の中心の上方に第2の度数内、および前記新しい視線の中心の下方に第3の度数内にある領域を判定するための手段と、
を備える、項目21に記載のシステム。
(項目28)
前記第2の部分が前記第2の視野の前景領域に対応することを判定するための手段は、前記第2の視野の前景領域を判定するための手段を備え、前記第2の視野の前景領域を判定するための手段は、
前記新しい視線の中心の左右に対して第4の度数内、前記新しい視線の上方に第5の度数内、および前記新しい視線の下方に第6の度数内の領域を判定するための手段を備え、前記第4の数は、前記第1の数より小さく、前記第5の数は、前記第2の数より小さく、前記第6の数は、前記第3の数より小さい、項目27に記載のシステム。
(項目29)
入力を前記ユーザから受信するための手段と、
前記入力に応答して、表示のために、前記付加的コンテンツを前記第2の視野の前景領域に対応する前記仮想現実環境の部分に生成するための手段と、
をさらに備える、項目21に記載のシステム。
(項目30)
表示のために、前記付加的コンテンツを生成するための手段は、
その間に前記ユーザの視線の中心が実質的に移動されなかった、前記ユーザの視線の中心の移動後の期間を測定するための手段と、
前記期間が閾値期間を上回ることを判定するための手段と、
前記期間が前記閾値期間を上回ることの判定に応答して、表示のために、前記付加的コンテンツを生成するための手段と、
を備える、項目21に記載のシステム。
(項目31)
主要コンテンツのユーザの視認に干渉せず、主要コンテンツを示すヘッドアップディスプレイ上の仮想現実環境内に付加的コンテンツを提示するための方法であって、
表示のために、制御回路を使用して、ヘッドアップディスプレイ内の仮想現実環境の第1の部分に、第1の主要コンテンツを生成するステップであって、前記第1の部分は、ユーザの第1の視野の前景領域に対応する、ステップと、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、第2の主要コンテンツおよび付加的コンテンツを生成するステップであって、前記第2の部分は、前記ユーザの第1の視野の周辺領域に対応する、ステップと、
前記ユーザの視線の中心の移動を検出するステップと、
前記視線の中心の移動に基づく前記ユーザの第2の視野を判定するステップと、
前記第2の部分が前記第2の視野の前景領域に対応することを判定するステップと、
前記第2の部分が前記第2の視野の前景領域に対応することの判定に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第3の部分に生成するステップであって、前記第3の部分は、前記第2の視野の周辺領域に対応する、ステップと、
を含む、方法。
(項目32)
前記視線の中心の移動を検出するステップは、前記ユーザの視線の中心を検出するステップを含む、項目31に記載の方法。
(項目33)
前記ユーザの視線の中心を検出するステップは、
光を前記ユーザの各眼に伝送するステップと、
前記ユーザの各眼の画像を収集するステップと、
各画像内において、前記ユーザの眼の中の反射の場所を検出するステップと、
前記ユーザの各瞳孔の場所を判定するステップと、
各瞳孔の場所と各反射の場所を比較するステップと、
各瞳孔の場所と各反射の場所の比較に基づいて、前記ユーザの各眼の視線点を判定するステップと、
前記ユーザの各眼の視線点間の中央点を判定することによって、前記視線の中心を判定するステップと、
を含む、項目32に記載の方法。
(項目34)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、加速度計を含み、前記ユーザの視線の中心の移動を検出するステップは、前記加速度計によって、前記ユーザの頭部の加速を検出するステップを含む、項目31-33のいずれかに記載の方法。
(項目35)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、表示のために、前記付加的コンテンツを生成するステップは、表示のために、前記ユーザの物理的周囲のビデオを生成するステップを含む、項目31-34のいずれかに記載の方法。
(項目36)
表示のために、前記付加的コンテンツを生成するステップは、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するステップを含む、項目31-35のいずれかに記載の方法。
(項目37)
前記視線の中心の移動に基づく前記ユーザの第2の視野を判定するステップは、
前記視線の中心の移動に基づいて、新しい視線の中心を判定するステップと、
前記新しい視線の中心の左右に対して第1の度数内、前記新しい視線の中心の上方に第2の度数内、および前記新しい視線の中心の下方に第3の度数内にある領域を判定するステップと、
を含む、項目31-36のいずれかに記載の方法。
(項目38)
前記第2の部分が前記第2の視野の前景領域に対応することを判定するステップは、前記第2の視野の前景領域を判定するステップを含み、前記第2の視野の前景領域を判定するステップは、
前記新しい視線の中心の左右に対して第4の度数内、前記新しい視線の上方に第5の度数内、および前記新しい視線の下方に第6の度数内の領域を判定するステップを含み、前記第4の数は、前記第1の数より小さく、前記第5の数は、前記第2の数より小さく、前記第6の数は、前記第3の数より小さい、項目37に記載の方法。
(項目39)
入力を前記ユーザから受信するステップと、
前記入力に応答して、表示のために、前記付加的コンテンツを前記第2の視野の前景領域に対応する前記仮想現実環境の部分に生成するステップと、
をさらに含む、項目31-38のいずれかに記載の方法。
(項目40)
表示のために、前記付加的コンテンツを生成するステップは、
その間に前記ユーザの視線の中心が実質的に移動されなかった、前記ユーザの視線の中心の移動後の期間を測定するステップと、
前記期間が閾値期間を上回ることを判定するステップと、
前記期間が前記閾値期間を上回ることの判定に応答して、表示のために、前記付加的コンテンツを生成するステップと、
を含む、項目31-39のいずれかに記載の方法。
(項目41)
主要コンテンツのユーザの視認に干渉せず、主要コンテンツを示すヘッドアップディスプレイ上の仮想現実環境内に付加的コンテンツを提示するためのその上にエンコードされた機械可読命令を備える非一過性機械可読媒体であって、前記命令は、
ヘッドアップディスプレイ内の仮想現実環境の第1の部分における表示のために、第1の主要コンテンツを生成するための命令であって、前記第1の部分は、ユーザの第1の視野の前景領域に対応する、命令と、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、第2の主要コンテンツおよび付加的コンテンツを生成するための命令であって、前記第2の部分は、前記ユーザの第1の視野の周辺領域に対応する、命令と、
前記ユーザの視線の中心の移動を検出するための命令と、
前記視線の中心の移動に基づく前記ユーザの第2の視野を判定するための命令と、
前記第2の部分が前記第2の視野の前景領域に対応することを判定するための命令と、
前記第2の部分が前記第2の視野の前景領域に対応することの判定に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第3の部分に生成するための命令であって、前記第3の部分は、前記第2の視野の周辺領域に対応する、命令と、
を備える、非一過性機械可読媒体。
(項目42)
前記視線の中心の移動を検出するための命令は、前記ユーザの視線の中心を検出するための命令を備える、項目41に記載の非一過性機械可読媒体。
(項目43)
前記ユーザの視線の中心を検出するための命令は、
光を前記ユーザの各眼に伝送するための命令と、
前記ユーザの各眼の画像を収集するための命令と、
各画像内において、前記ユーザの眼の中の反射の場所を検出するための命令と、
前記ユーザの各瞳孔の場所を判定するための命令と、
各瞳孔の場所と各反射の場所を比較するための命令と、
各瞳孔の場所と各反射の場所の比較に基づいて、前記ユーザの各眼の視線点を判定するための命令と、
前記ユーザの各眼の視線点間の中央点を判定することによって、前記視線の中心を判定するための命令と、
を備える、項目42に記載の非一過性機械可読媒体。
(項目44)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、加速度計を含み、前記ユーザの視線の中心の移動を検出するための命令は、前記加速度計によって、前記ユーザの頭部の加速を検出するための命令を備える、項目41に記載の非一過性機械可読媒体。
(項目45)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、表示のために、前記付加的コンテンツを生成するための命令は、表示のために、前記ユーザの物理的周囲のビデオを生成するための命令を備える、項目41に記載の非一過性機械可読媒体。
(項目46)
表示のために、前記付加的コンテンツを生成するための命令は、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するための命令を備える、項目41に記載の非一過性機械可読媒体。
(項目47)
前記視線の中心の移動に基づく前記ユーザの第2の視野を判定するための命令は、
前記視線の中心の移動に基づいて、新しい視線の中心を判定するための命令と、
前記新しい視線の中心の左右に対して第1の度数内、前記新しい視線の中心の上方に第2の度数内、および前記新しい視線の中心の下方に第3の度数内にある領域を判定するための命令と、
を備える、項目41に記載の非一過性機械可読媒体。
(項目48)
前記第2の部分が前記第2の視野の前景領域に対応することを判定するための命令は、前記第2の視野の前景領域を判定するための命令を備え、前記第2の視野の前景領域を判定するための命令は、
前記新しい視線の中心の左右に対して第4の度数内、前記新しい視線の上方に第5の度数内、および前記新しい視線の下方に第6の度数内の領域を判定するための命令を備え、前記第4の数は、前記第1の数より小さく、前記第5の数は、前記第2の数より小さく、前記第6の数は、前記第3の数より小さい、項目47に記載の非一過性機械可読媒体。
(項目49)
入力を前記ユーザから受信するための命令と、
前記入力に応答して、表示のために、前記付加的コンテンツを前記第2の視野の前景領域に対応する前記仮想現実環境の部分に生成するための命令と、
をさらに備える、項目41に記載の非一過性機械可読媒体。
(項目50)
表示のために、前記付加的コンテンツを生成するための命令は、
その間に前記ユーザの視線の中心が実質的に移動されなかった、前記ユーザの視線の中心の移動後の期間を測定するための命令と、
前記期間が閾値期間を上回ることを判定するための命令と、
前記期間が前記閾値期間を上回ることの判定に応答して、表示のために、前記付加的コンテンツを生成するための命令と、
を備える、項目41に記載の非一過性機械可読媒体。
(項目51)
ヘッドアップディスプレイ上のコンテンツの視認に干渉せず、ユーザがヘッドアップディスプレイ上の仮想現実環境を視認しながら、全身移動を行うことを可能にするための方法であって、
ヘッドアップディスプレイ内の仮想現実環境の第1の部分における表示のために、主要コンテンツを生成するステップであって、前記第1の部分は、ユーザの視野の前景領域に対応する、ステップと、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、付加的コンテンツを生成するステップであって、前記第2の部分は、前記ユーザの視野の周辺領域に対応する、ステップと、
前記ユーザの全身移動を検出するステップと、
前記全身移動の検出に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第1の部分に生成するステップと、
を含み、前記付加的コンテンツは、前記ユーザが前記全身移動を行うことを補助する、方法。
(項目52)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、表示のために、前記付加的コンテンツを生成するステップは、表示のために、前記ユーザの物理的周囲のビデオを生成するステップを含む、項目51に記載の方法。
(項目53)
表示のために、前記付加的コンテンツを生成するステップは、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するステップを含む、項目51に記載の方法。
(項目54)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、加速度計を含み、前記ユーザの全身移動を検出するステップは、前記加速度計によって、前記ユーザによって行われる第1の歩みを検出するステップを含む、項目51に記載の方法。
(項目55)
前記ユーザによって行われる第2の歩みを検出するステップと、
前記第2の歩みの検出に応答して、前記付加的コンテンツを拡大するステップと、
をさらに含む、項目54に記載の方法。
(項目56)
前記ユーザによって行われる第2の歩みを検出するステップと、
前記第2の歩みの検出に応答して、前記主要コンテンツの不透明度を減少させるステップおよび前記付加的コンテンツの不透明度を増加させるステップのうちの少なくとも1つを行うステップと、
をさらに含む、項目54に記載の方法。
(項目57)
入力を前記ユーザから受信するステップと、
前記入力に応答して、前記付加的コンテンツを前記ヘッドアップディスプレイから除去するステップと、
をさらに含む、項目51に記載の方法。
(項目58)
前記ユーザの全身移動を検出するステップは、前記ユーザの物理的周囲のビデオの変化を検出するステップを含む、項目52に記載の方法。
(項目59)
前記ユーザが実質的に定常であることを検出するステップと、
前記ユーザが実質的に定常であることの検出に応答して、表示のために、前記付加的コンテンツを前記ディスプレイの第3の部分に生成するステップと、
をさらに含む、項目51に記載の方法。
(項目60)
前記ユーザに、前記主要コンテンツの再生を停止するオプションを提示するステップをさらに含む、項目51に記載の方法。
(項目61)
ヘッドアップディスプレイ上のコンテンツの視認に干渉せず、ユーザがヘッドアップディスプレイ上の仮想現実環境を視認しながら、全身移動を行うことを可能にするためのシステムであって、
制御回路であって、前記制御回路は、
ヘッドアップディスプレイ内の仮想現実環境の第1の部分における表示のために、主要コンテンツを生成することであって、前記第1の部分は、ユーザの視野の前景領域に対応する、ことと、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、付加的コンテンツを生成することであって、前記第2の部分は、前記ユーザの視野の周辺領域に対応する、ことと、
全身移動の検出に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第1の部分に生成することと、
を行うように構成される、制御回路と、
前記ユーザの全身移動を検出するように構成される検出モジュールと、
を備え、前記付加的コンテンツは、前記ユーザが前記全身移動を行うことを補助する、システム。
(項目62)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、前記制御回路はさらに、表示のために、前記付加的コンテンツを生成するとき、表示のために、前記ユーザの物理的周囲のビデオを生成するように構成される、項目61に記載のシステム。
(項目63)
前記制御回路はさらに、表示のために、前記付加的コンテンツを生成するとき、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するように構成される、項目61に記載のシステム。
(項目64)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記検出モジュールは、前記頭部搭載型ディスプレイ内に含まれる加速度計を含み、前記検出モジュールはさらに、前記ユーザの全身移動を検出するとき、前記加速度計を使用して、前記ユーザによって行われる第1の歩みを検出するように構成される、項目61に記載のシステム。
(項目65)
前記検出モジュールはさらに、前記加速度計を使用して、前記ユーザによって行われる第2の歩みを検出するように構成され、前記制御回路はさらに、前記第2の歩みの検出に応答して、前記付加的コンテンツを拡大するように構成される、項目64に記載のシステム。
(項目66)
前記検出モジュールはさらに、前記加速度計を使用して、前記ユーザによって行われる第2の歩みを検出するように構成され、前記制御回路はさらに、前記第2の歩みの検出に応答して、前記主要コンテンツの不透明度を減少させるステップおよび前記付加的コンテンツの不透明度を増加させるステップのうちの少なくとも1つを行うように構成される、項目64に記載のシステム。
(項目67)
ユーザインターフェースが、入力を前記ユーザから受信するように構成され、前記制御回路はさらに、前記入力に応答して、前記付加的コンテンツを前記ヘッドアップディスプレイから除去するように構成される、項目61に記載のシステム。
(項目68)
前記検出モジュールはさらに、前記ユーザの全身移動を検出するとき、前記ユーザの物理的周囲のビデオの変化を検出するように構成される、項目62に記載のシステム。
(項目69)
前記検出モジュールはさらに、前記ユーザが実質的に定常であることを検出するように構成され、前記制御回路はさらに、前記ユーザが実質的に定常であることの検出に応答して、表示のために、前記付加的コンテンツを前記ディスプレイの第3の部分に生成するように構成される、項目61に記載のシステム。
(項目70)
ユーザインターフェースが、前記ユーザに、前記主要コンテンツの再生を停止するオプションを提示するように構成される、項目61に記載のシステム。
(項目71)
ヘッドアップディスプレイ上のコンテンツの視認に干渉せず、ユーザがヘッドアップディスプレイ上の仮想現実環境を視認しながら、全身移動を行うことを可能にするためのシステムであって、前記システムは、制御回路を備え、前記制御回路は、
ヘッドアップディスプレイ内の仮想現実環境の第1の部分に、主要コンテンツを表示させるための手段であって、前記第1の部分は、ユーザの視野の前景領域に対応する、手段と、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、付加的コンテンツを生成するための手段であって、前記第2の部分は、前記ユーザの視野の周辺領域に対応する手段と、
前記ユーザの全身移動を検出するための手段と、
前記全身移動の検出に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第1の部分に生成するための手段と、
を備え、前記付加的コンテンツは、前記ユーザが前記全身移動を行うことを補助する、システム。
(項目72)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、表示のために、前記付加的コンテンツを生成するための手段は、表示のために、前記ユーザの物理的周囲のビデオを生成するための手段を備える、項目71に記載のシステム。
(項目73)
表示のために、前記付加的コンテンツを生成するための手段は、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するための手段を備える、項目71に記載のシステム。
(項目74)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、加速度計を含み、前記ユーザの全身移動を検出するための手段は、前記加速度計によって、前記ユーザによって行われる第1の歩みを検出するための手段を備える、項目71に記載のシステム。
(項目75)
前記ユーザによって行われる第2の歩みを検出するための手段と、
前記第2の歩みの検出に応答して、前記付加的コンテンツを拡大するための手段と、
をさらに備える、項目74に記載のシステム。
(項目76)
前記ユーザによって行われる第2の歩みを検出するための手段と、
前記第2の歩みの検出に応答して、前記主要コンテンツの不透明度を減少させるステップおよび前記付加的コンテンツの不透明度を増加させるステップのうちの少なくとも1つを行うための手段と、
をさらに備える、項目74に記載のシステム。
(項目77)
入力を前記ユーザから受信するための手段と、
前記入力に応答して、前記付加的コンテンツを前記ヘッドアップディスプレイから除去するための手段と、
をさらに備える、項目71に記載のシステム。
(項目78)
前記ユーザの全身移動を検出するための手段は、前記ユーザの物理的周囲のビデオの変化を検出するための手段を備える、項目72に記載のシステム。
(項目79)
前記ユーザが実質的に定常であることを検出するための手段と、
前記ユーザが実質的に定常であることの検出に応答して、表示のために、前記付加的コンテンツを前記ディスプレイの第3の部分に生成するための手段と、
をさらに備える、項目71に記載のシステム。
(項目80)
前記ユーザに、前記主要コンテンツの再生を停止するオプションを提示するための手段をさらに備える、項目71に記載のシステム。
(項目81)
ヘッドアップディスプレイ上のコンテンツの視認に干渉せず、ユーザがヘッドアップディスプレイ上の仮想現実環境を視認しながら、全身移動を行うことを可能にするための方法であって、
表示のために、制御回路を使用して、ヘッドアップディスプレイ内の仮想現実環境の第1の部分に、主要コンテンツを生成するステップであって、前記第1の部分は、ユーザの視野の前景領域に対応する、ステップと、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、付加的コンテンツを生成するステップであって、前記第2の部分は、前記ユーザの視野の周辺領域に対応するステップと、
前記ユーザの全身移動を検出するステップと、
前記全身移動の検出に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第1の部分に生成するステップと、
を含み、前記付加的コンテンツは、前記ユーザが前記全身移動を行うことを補助する、方法。
(項目82)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、表示のために、前記付加的コンテンツを生成するステップは、表示のために、前記ユーザの物理的周囲のビデオを生成するステップを含む、項目81に記載の方法。
(項目83)
表示のために、前記付加的コンテンツを生成するステップは、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するステップを含む、項目81または82に記載の方法。
(項目84)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、加速度計を含み、前記ユーザの全身移動を検出するステップは、前記加速度計によって、前記ユーザによって行われる第1の歩みを検出するステップを含む、項目81-83のいずれかに記載の方法。
(項目85)
前記ユーザによって行われる第2の歩みを検出するステップと、
前記第2の歩みの検出に応答して、前記付加的コンテンツを拡大するステップと、
をさらに含む、項目84に記載の方法。
(項目86)
前記ユーザによって行われる第2の歩みを検出するステップと、
前記第2の歩みの検出に応答して、前記主要コンテンツの不透明度を減少させるステップおよび前記付加的コンテンツの不透明度を増加させるステップのうちの少なくとも1つを行うステップと、
をさらに含む、項目84に記載の方法。
(項目87)
入力を前記ユーザから受信するステップと、
前記入力に応答して、前記付加的コンテンツを前記ヘッドアップディスプレイから除去するステップと、
をさらに含む、項目81-86のいずれかに記載の方法。
(項目88)
前記ユーザの全身移動を検出するステップは、前記ユーザの物理的周囲のビデオの変化を検出するステップを含む、項目82に記載の方法。
(項目89)
前記ユーザが実質的に定常であることを検出するステップと、
前記ユーザが実質的に定常であることの検出に応答して、表示のために、前記付加的コンテンツを前記ディスプレイの第3の部分に生成するステップと、
をさらに含む、項目81-88のいずれかに記載の方法。
(項目90)
前記ユーザに、前記主要コンテンツの再生を停止するオプションを提示するステップをさらに含む、項目81-89のいずれかに記載の方法。
(項目91)
ヘッドアップディスプレイ上のコンテンツの視認に干渉せず、ユーザがヘッドアップディスプレイ上の仮想現実環境を視認しながら、全身移動を行うことを可能にするためのその上にエンコードされた機械可読命令を備える非一過性機械可読媒体であって、
ヘッドアップディスプレイ内の仮想現実環境の第1の部分における表示のために、主要コンテンツを生成するための命令であって、前記第1の部分は、ユーザの視野の前景領域に対応する、命令と、
前記ヘッドアップディスプレイ内の前記仮想現実環境の第2の部分における表示のために、付加的コンテンツを生成するための命令であって、前記第2の部分は、前記ユーザの視野の周辺領域に対応する命令と、
前記ユーザの全身移動を検出するための命令と、
前記全身移動の検出に応答して、表示のために、前記付加的コンテンツを前記仮想現実環境の第1の部分に生成するための命令と、
を備え、前記付加的コンテンツは、前記ユーザが前記全身移動を行うことを補助する、非一過性機械可読媒体。
(項目92)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、表示のために、前記付加的コンテンツを生成するための命令は、表示のために、前記ユーザの物理的周囲のビデオを生成するための命令を備える、項目91に記載の非一過性機械可読媒体。
(項目93)
表示のために、前記付加的コンテンツを生成するための命令は、表示のために、前記付加的コンテンツをピクチャインピクチャとして生成するための命令を備える、項目91に記載の非一過性機械可読媒体。
(項目94)
前記ヘッドアップディスプレイは、前記ユーザの頭部に物理的に結合される頭部搭載型ディスプレイであり、前記頭部搭載型ディスプレイは、加速度計を含み、前記ユーザの全身移動を検出するための命令は、前記加速度計によって、前記ユーザによって行われる第1の歩みを検出するための命令を備える、項目91に記載の非一過性機械可読媒体。
(項目95)
前記ユーザによって行われる第2の歩みを検出するための命令と、
前記第2の歩みの検出に応答して、前記付加的コンテンツを拡大するための命令と、
をさらに備える、項目94に記載の非一過性機械可読媒体。
(項目96)
前記ユーザによって行われる第2の歩みを検出するための命令と、
前記第2の歩みの検出に応答して、前記主要コンテンツの不透明度を減少させるステップおよび前記付加的コンテンツの不透明度を増加させるステップのうちの少なくとも1つを行うための命令と、
をさらに備える、項目94に記載の非一過性機械可読媒体。
(項目97)
入力を前記ユーザから受信するための命令と、
前記入力に応答して、前記付加的コンテンツを前記ヘッドアップディスプレイから除去するための命令と、
をさらに備える、項目91に記載の非一過性機械可読媒体。
(項目98)
前記ユーザの全身移動を検出するための命令は、前記ユーザの物理的周囲のビデオの変化を検出するための命令を備える、項目92に記載の非一過性機械可読媒体。
(項目99)
前記ユーザが実質的に定常であることを検出するための命令と、
前記ユーザが実質的に定常であることの検出に応答して、表示のために、前記付加的コンテンツを前記ディスプレイの第3の部分に生成するための命令と、
をさらに備える、項目91に記載の非一過性機械可読媒体。
(項目100)
前記ユーザに、前記主要コンテンツの再生を停止するオプションを提示するための命令をさらに備える、項目91に記載の非一過性機械可読媒体。
i5プロセッサおよびIntel Core i7プロセッサ)にわたって分散されてもよい。いくつかの実施形態では、制御回路604は、メモリ(すなわち、記憶装置608)内に記憶されるアプリケーションのための命令を実行する。具体的には、制御回路604は、アプリケーションによって、前述および後述の機能を行うように命令されてもよい。例えば、アプリケーションは、制御回路604に、表示を生成するための命令を提供してもよい。いくつかの実装では、制御回路604によって行われるいかなるアクションも、メディアガイドアプリケーションから受信した命令に基づいてもよい。
SIG, INC.によって所有される認証マークである。ユーザ機器デバイスはまた、通信ネットワーク714を介した間接的パスを通して、直接相互に通信してもよい。
Claims (8)
- 頭部搭載型ディスプレイ内の仮想現実環境においてユーザの視野の前景領域内に主要コンテンツを表示のために生成することと、
前記頭部搭載型ディスプレイ内の前記仮想現実環境において前記ユーザの前記視野の周辺領域内に付加的コンテンツを表示のために生成することと、
前記ユーザの視線の中心の移動を検出することと、
前記ユーザの前記視線の前記中心の前記移動を検出することに応答して、前記付加的コンテンツを以前に含んでいた前記仮想現実環境の一部を含む前記ユーザの新しい視野の前景領域を決定することと、前記決定することに応答して、前記ユーザの前記新しい視野の周辺領域内に前記付加的コンテンツを表示のために生成することと
を含む、方法。 - 前記ユーザの前記視線の前記中心を検出することは、
光を前記ユーザの各眼に伝送することと、
前記ユーザの各眼の画像を収集することと、
各画像において、前記ユーザの眼の中の反射の場所を検出することと、
前記ユーザの各瞳孔の場所を決定することと、
各瞳孔の場所と各反射の場所とを比較することと、
各瞳孔の場所と各反射の場所との比較に基づいて、前記ユーザの各眼の視線点を決定することと、
前記ユーザの各眼の視線点間の中央点を決定することによって、前記視線の前記中心を決定することと
を含む、請求項1に記載の方法。 - 前記頭部搭載型ディスプレイは、加速度計を含み、前記ユーザの前記視線の前記中心の移動を検出することは、前記加速度計が、前記ユーザの頭部の加速を検出することを含む、請求項1に記載の方法。
- 前記頭部搭載型ディスプレイは、前記ユーザの物理的周囲のビデオを前記頭部搭載型ディスプレイにフィードするカメラを含み、前記付加的コンテンツを表示のために生成する
ことは、前記ユーザの物理的周囲の前記ビデオを表示のために生成することを含む、請求項1に記載の方法。 - 前記付加的コンテンツを表示のために生成することは、前記付加的コンテンツをピクチャインピクチャとして表示のために生成することを含む、請求項1に記載の方法。
- ユーザ入力インターフェースから入力信号を受信することと、
前記入力信号に応答して、前記付加的コンテンツを前記ユーザの前記新しい視野の前記周辺領域から前記ユーザの前記視野の前記前景に移動することと
をさらに含む、請求項1に記載の方法。 - 前記付加的コンテンツを表示のために生成することは、
前記ユーザの視線の前記中心の移動後の期間を測定することであって、前記期間の間、前記ユーザの視線の前記中心が実質的に移動されない、ことと、
前記期間が閾値期間よりも大きいことを決定することと、
前記期間が前記閾値期間よりも大きいという決定に応答して、前記付加的コンテンツを表示のために生成することと
を含む、請求項1に記載の方法。 - 主要コンテンツをユーザが視認することに干渉することなく、前記主要コンテンツを示すヘッドアップディスプレイ上の仮想現実環境内に付加的コンテンツを提示するためのシステムであって、前記システムは、請求項1~7のいずれか一項に記載の方法を実行するように構成されている制御回路を備える、システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023068433A JP2023116433A (ja) | 2016-04-27 | 2023-04-19 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/140,272 US10025376B2 (en) | 2016-04-27 | 2016-04-27 | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment |
US15/140,249 US9851792B2 (en) | 2016-04-27 | 2016-04-27 | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment |
US15/140,272 | 2016-04-27 | ||
US15/140,249 | 2016-04-27 | ||
JP2020077500A JP7028909B2 (ja) | 2016-04-27 | 2020-04-24 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077500A Division JP7028909B2 (ja) | 2016-04-27 | 2020-04-24 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023068433A Division JP2023116433A (ja) | 2016-04-27 | 2023-04-19 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022078113A JP2022078113A (ja) | 2022-05-24 |
JP7286828B2 true JP7286828B2 (ja) | 2023-06-05 |
Family
ID=58692608
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018534061A Active JP6968800B2 (ja) | 2016-04-27 | 2017-04-26 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
JP2020077501A Active JP7027478B2 (ja) | 2016-04-27 | 2020-04-24 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
JP2020077500A Active JP7028909B2 (ja) | 2016-04-27 | 2020-04-24 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
JP2022022798A Active JP7286828B2 (ja) | 2016-04-27 | 2022-02-17 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
JP2023068433A Pending JP2023116433A (ja) | 2016-04-27 | 2023-04-19 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018534061A Active JP6968800B2 (ja) | 2016-04-27 | 2017-04-26 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
JP2020077501A Active JP7027478B2 (ja) | 2016-04-27 | 2020-04-24 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
JP2020077500A Active JP7028909B2 (ja) | 2016-04-27 | 2020-04-24 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023068433A Pending JP2023116433A (ja) | 2016-04-27 | 2023-04-19 | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム |
Country Status (6)
Country | Link |
---|---|
EP (3) | EP3457251A1 (ja) |
JP (5) | JP6968800B2 (ja) |
KR (2) | KR20230044556A (ja) |
AU (1) | AU2017255567A1 (ja) |
CA (1) | CA2999057C (ja) |
WO (1) | WO2017189699A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102539579B1 (ko) * | 2018-12-18 | 2023-06-05 | 삼성전자주식회사 | 정보의 표시 영역을 적응적으로 변경하기 위한 전자 장치 및 그의 동작 방법 |
TWI719483B (zh) | 2019-05-17 | 2021-02-21 | 雅得近顯股份有限公司 | 便利備忘操作系統 |
US11391945B2 (en) * | 2020-08-31 | 2022-07-19 | Sony Interactive Entertainment LLC | Automatic positioning of head-up display based on gaze tracking |
KR102524097B1 (ko) * | 2020-09-09 | 2023-04-21 | 한양대학교 산학협력단 | 안구 기반 개인화 헤드 마운티드 디스플레이 장치 및 그 제어 방법 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005303843A (ja) | 2004-04-14 | 2005-10-27 | Olympus Corp | 表示装置、撮像装置 |
JP2012205191A (ja) | 2011-03-28 | 2012-10-22 | Nippon Telegr & Teleph Corp <Ntt> | 映像付加情報表示制御装置およびその動作方法 |
JP2014137396A (ja) | 2013-01-15 | 2014-07-28 | Seiko Epson Corp | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム |
JP2015049883A (ja) | 2013-09-05 | 2015-03-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、画像表示システム |
JP2015069362A (ja) | 2013-09-27 | 2015-04-13 | 株式会社トヨタマップマスター | ヘッドマウントディスプレイ及びその制御方法、並びにヘッドマウントディスプレイを制御するためのコンピュータプログラム及びコンピュータプログラムを記録した記録媒体 |
WO2015111283A1 (ja) | 2014-01-23 | 2015-07-30 | ソニー株式会社 | 画像表示装置及び画像表示方法 |
WO2015163874A1 (en) | 2014-04-23 | 2015-10-29 | Nokia Corporation | Display of information on a head mounted display |
JP2015232783A (ja) | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
US20160025971A1 (en) | 2014-07-25 | 2016-01-28 | William M. Crow | Eyelid movement as user input |
JP2016039599A (ja) | 2014-08-11 | 2016-03-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
JP2016509705A (ja) | 2012-12-19 | 2016-03-31 | クアルコム,インコーポレイテッド | 視線追跡を使用して拡張現実を可能にする |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6239794B1 (en) | 1994-08-31 | 2001-05-29 | E Guide, Inc. | Method and system for simultaneously displaying a television program and information about the program |
US6388714B1 (en) | 1995-10-02 | 2002-05-14 | Starsight Telecast Inc | Interactive computer system for providing television schedule information |
US6177931B1 (en) | 1996-12-19 | 2001-01-23 | Index Systems, Inc. | Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information |
US6564378B1 (en) | 1997-12-08 | 2003-05-13 | United Video Properties, Inc. | Program guide system with browsing display |
CN1192603C (zh) | 1998-03-04 | 2005-03-09 | 联合视频制品公司 | 有目标广告的节目指南系统 |
CN1867068A (zh) | 1998-07-14 | 2006-11-22 | 联合视频制品公司 | 交互式电视节目导视系统及其方法 |
AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
DK1942668T3 (en) | 1998-07-17 | 2017-09-04 | Rovi Guides Inc | Interactive television program guide system with multiple devices in a household |
US7165098B1 (en) | 1998-11-10 | 2007-01-16 | United Video Properties, Inc. | On-line schedule system with personalization features |
CA3011879C (en) | 2001-02-21 | 2021-10-19 | Rovi Guides, Inc. | Systems and methods for interactive program guides with personal video recordng features |
US20100153885A1 (en) | 2005-12-29 | 2010-06-17 | Rovi Technologies Corporation | Systems and methods for interacting with advanced displays provided by an interactive media guidance application |
US9204050B2 (en) * | 2008-12-25 | 2015-12-01 | Panasonic Intellectual Property Management Co., Ltd. | Information displaying apparatus and information displaying method |
JP5654284B2 (ja) * | 2010-08-09 | 2015-01-14 | 東芝アルパイン・オートモティブテクノロジー株式会社 | 車両用ディスプレイ装置 |
CN107656615B (zh) * | 2011-05-06 | 2021-09-14 | 奇跃公司 | 大量同时远程数字呈现世界 |
US9389420B2 (en) * | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
US9219901B2 (en) * | 2012-06-19 | 2015-12-22 | Qualcomm Incorporated | Reactive user interface for head-mounted display |
JP5665140B2 (ja) * | 2012-08-17 | 2015-02-04 | Necソリューションイノベータ株式会社 | 入力装置、入力方法、及びプログラム |
JP6364735B2 (ja) * | 2013-10-04 | 2018-08-01 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 |
JP6089705B2 (ja) * | 2013-01-07 | 2017-03-08 | セイコーエプソン株式会社 | 表示装置、および、表示装置の制御方法 |
JP2014164537A (ja) * | 2013-02-26 | 2014-09-08 | Yasuaki Iwai | 仮想現実サービス提供システム、仮想現実サービス提供方法 |
KR20160016907A (ko) * | 2013-05-29 | 2016-02-15 | 미쓰비시덴키 가부시키가이샤 | 정보 표시 장치 |
US9908048B2 (en) * | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
JP5983547B2 (ja) * | 2013-07-02 | 2016-08-31 | 株式会社デンソー | ヘッドアップディスプレイ及びプログラム |
US9630105B2 (en) * | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
US9552060B2 (en) * | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
GB201404732D0 (en) * | 2014-03-17 | 2014-04-30 | Sony Comp Entertainment Europe | Virtual Reality |
US9798143B2 (en) * | 2014-08-11 | 2017-10-24 | Seiko Epson Corporation | Head mounted display, information system, control method for head mounted display, and computer program |
-
2017
- 2017-04-26 EP EP18179115.3A patent/EP3457251A1/en not_active Ceased
- 2017-04-26 CA CA2999057A patent/CA2999057C/en active Active
- 2017-04-26 JP JP2018534061A patent/JP6968800B2/ja active Active
- 2017-04-26 WO PCT/US2017/029593 patent/WO2017189699A1/en unknown
- 2017-04-26 KR KR1020237010112A patent/KR20230044556A/ko active IP Right Grant
- 2017-04-26 KR KR1020187018599A patent/KR20190002416A/ko not_active IP Right Cessation
- 2017-04-26 EP EP17722585.1A patent/EP3377962A1/en not_active Ceased
- 2017-04-26 AU AU2017255567A patent/AU2017255567A1/en not_active Abandoned
- 2017-04-26 EP EP19211666.3A patent/EP3650994A1/en active Pending
-
2020
- 2020-04-24 JP JP2020077501A patent/JP7027478B2/ja active Active
- 2020-04-24 JP JP2020077500A patent/JP7028909B2/ja active Active
-
2022
- 2022-02-17 JP JP2022022798A patent/JP7286828B2/ja active Active
-
2023
- 2023-04-19 JP JP2023068433A patent/JP2023116433A/ja active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005303843A (ja) | 2004-04-14 | 2005-10-27 | Olympus Corp | 表示装置、撮像装置 |
JP2012205191A (ja) | 2011-03-28 | 2012-10-22 | Nippon Telegr & Teleph Corp <Ntt> | 映像付加情報表示制御装置およびその動作方法 |
JP2016509705A (ja) | 2012-12-19 | 2016-03-31 | クアルコム,インコーポレイテッド | 視線追跡を使用して拡張現実を可能にする |
JP2014137396A (ja) | 2013-01-15 | 2014-07-28 | Seiko Epson Corp | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム |
JP2015049883A (ja) | 2013-09-05 | 2015-03-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、画像表示システム |
JP2015069362A (ja) | 2013-09-27 | 2015-04-13 | 株式会社トヨタマップマスター | ヘッドマウントディスプレイ及びその制御方法、並びにヘッドマウントディスプレイを制御するためのコンピュータプログラム及びコンピュータプログラムを記録した記録媒体 |
WO2015111283A1 (ja) | 2014-01-23 | 2015-07-30 | ソニー株式会社 | 画像表示装置及び画像表示方法 |
WO2015163874A1 (en) | 2014-04-23 | 2015-10-29 | Nokia Corporation | Display of information on a head mounted display |
JP2015232783A (ja) | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
US20160025971A1 (en) | 2014-07-25 | 2016-01-28 | William M. Crow | Eyelid movement as user input |
JP2016039599A (ja) | 2014-08-11 | 2016-03-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
Also Published As
Publication number | Publication date |
---|---|
AU2017255567A1 (en) | 2018-07-12 |
CA2999057C (en) | 2023-12-05 |
JP2020120410A (ja) | 2020-08-06 |
KR20190002416A (ko) | 2019-01-08 |
JP7027478B2 (ja) | 2022-03-01 |
KR20230044556A (ko) | 2023-04-04 |
JP6968800B2 (ja) | 2021-11-17 |
EP3457251A1 (en) | 2019-03-20 |
JP7028909B2 (ja) | 2022-03-02 |
EP3650994A1 (en) | 2020-05-13 |
WO2017189699A1 (en) | 2017-11-02 |
CA2999057A1 (en) | 2017-11-02 |
JP2019515361A (ja) | 2019-06-06 |
JP2022078113A (ja) | 2022-05-24 |
EP3377962A1 (en) | 2018-09-26 |
JP2020120411A (ja) | 2020-08-06 |
JP2023116433A (ja) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11353949B2 (en) | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment | |
US9851792B2 (en) | Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment | |
US11792476B2 (en) | System and methods for disambiguating an ambiguous entity in a search query based on the gaze of a user | |
US9229616B2 (en) | Methods and systems for arranging media objects on a display screen to compensate for user disabilities | |
JP7286828B2 (ja) | 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム | |
US9538251B2 (en) | Systems and methods for automatically enabling subtitles based on user activity | |
US11706493B2 (en) | Augmented reality content recommendation | |
JP2020120410A5 (ja) | ||
JP2020120411A5 (ja) | ||
US20150382064A1 (en) | Systems and methods for automatically setting up user preferences for enabling subtitles | |
US9729927B2 (en) | Systems and methods for generating shadows for a media guidance application based on content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7286828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |