JP2023507867A - 人工現実コンテンツの可変焦点ディスプレイを有する人工現実システム - Google Patents
人工現実コンテンツの可変焦点ディスプレイを有する人工現実システム Download PDFInfo
- Publication number
- JP2023507867A JP2023507867A JP2022522020A JP2022522020A JP2023507867A JP 2023507867 A JP2023507867 A JP 2023507867A JP 2022522020 A JP2022522020 A JP 2022522020A JP 2022522020 A JP2022522020 A JP 2022522020A JP 2023507867 A JP2023507867 A JP 2023507867A
- Authority
- JP
- Japan
- Prior art keywords
- user
- depth
- hmd
- artificial reality
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 59
- 210000001747 pupil Anatomy 0.000 claims description 96
- 230000033001 locomotion Effects 0.000 claims description 54
- 230000002093 peripheral effect Effects 0.000 description 81
- 230000015654 memory Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 20
- 238000009877 rendering Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 15
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 15
- 238000012545 processing Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 8
- 210000004087 cornea Anatomy 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 6
- 210000003813 thumb Anatomy 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 210000003811 finger Anatomy 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 210000004247 hand Anatomy 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000010897 surface acoustic wave method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000003278 mimic effect Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000004308 accommodation Effects 0.000 description 2
- 230000001143 conditioned effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012634 optical imaging Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/52—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
Abstract
本開示は、ユーザに人工現実コンテンツを提供するための人工現実システムおよび技術について記述する。たとえば、人工現実システムは、人工現実コンテンツを出力するように構成されているヘッドマウントディスプレイ(HMD)であって、ユーザの視線の焦点を示す画像データを取り込むように構成されている第2の画像取り込みデバイスのセット、およびユーザの焦点に基づいて修正可能である焦点距離を有する可変焦点ディスプレイを含むHMDを含む。加えて、このシステムは、現実世界の画像データ、および現実世界の画像データに関連付けられている奥行きデータに基づいて、ユーザの物理環境の3次元(3D)シーンを生成すること、ならびにユーザの焦点に基づいてHMDの可変焦点ディスプレイ上に表示するための物理環境の3Dシーンに対するオーバーレイとしての人工現実コンテンツを生成することを行うように構成されている奥行きエンジンを含む。【選択図】図6A
Description
本開示は全般に、拡張現実、複合現実、および/または仮想現実システムなど、人工現実システムに関する。
人工現実システムは、コンピュータゲーミング、健康および安全、産業、ならびに教育などの多くの分野における用途に伴って、ますます至る所に見られるようになっている。いくつかの例として、人工現実システムは、モバイルデバイス、ゲーミングコンソール、パーソナルコンピュータ、映画館、およびテーマパークに組み込まれている。一般に、人工現実は、ユーザへの提示の前に何らかの様式で調整された現実の一形態であり、これは、たとえば、仮想現実、拡張現実、複合現実、ハイブリッド現実、またはそれらの何らかの組合せおよび/もしくは派生物を含むことが可能である。
典型的な人工現実システムは、ユーザに対してコンテンツをレンダリングおよび表示するための1つまたは複数のデバイスを含む。一例として、人工現実システムは、ユーザに対して人工現実コンテンツを出力するように構成されている、ユーザによって装着されるヘッドマウントディスプレイ(HMD)を組み込むことが可能である。人工現実コンテンツは、システムによって生成されるコンテンツをもっぱら含むことが可能であり、または取り込まれたコンテンツ(たとえば、現実世界のビデオおよび/もしくは画像)と組み合わされた生成されたコンテンツを含むことが可能である。
全般に、本開示は、視覚的に正確な人工現実コンテンツをユーザに提供するように構成されている可変焦点ヘッドマウントディスプレイ(HMD)を含む人工現実システムについて記述する。たとえば、この人工現実システムは、どこをHMDのユーザが見ているかに基づいて、フレームごとに別々の焦点深度を伴って現実世界の画像データが再構築されるパススルーまたは複合現実(MR)体験を提供するために使用されることが可能である。可変焦点HMDと画像処理技術との組合せは、大きな被写界深度を伴って(たとえば、無限遠に焦点を合わせられて)現実世界の画像データが取り込まれて再構築される現在のパススルーシステムに比較して、よりリアルな3次元(3D)体験を提供すること、および輻輳/調節の競合を低減することが可能である。その他の例においては、可変焦点HMDおよび画像処理技術は、仮想現実(VR)体験または拡張現実体験を提供するために使用されることが可能である。
人工現実システムがパススルーまたはMR体験を提供する1つまたは複数の例においては、可変焦点HMDは、現実世界の画像データをカラー(たとえば、RGB)でかつ高い解像度で取り込むように構成されている少なくとも1つのパススルーカメラと、ユーザの瞳孔の動きを取り込むように構成されているアイトラッキングカメラと、HMDの接眼レンズ内の1つまたは複数のレンズに対して機械的に動くように構成されているディスプレイパネルとを含むことが可能である。加えて、可変焦点HMDは、パススルーカメラによって取り込まれた現実世界の画像データに対応する奥行きデータを取り込むように構成されている奥行きセンサおよび/またはデュアルもしくはステレオインサイドアウトカメラを含むことが可能である。いくつかの例においては、可変焦点HMDは、ユーザの目ごとに1つのインサイドアウトカメラを含むことが可能である。
開示されている技術によれば、ARシステムは、画像処理技術を実行して、取り込まれた奥行きデータを用いて現実世界のシーンの3次元メッシュを生成することと、パススルーカメラからの取り込まれた現実世界の画像データを用いて生成されたテクスチャデータを3次元メッシュ上に包みかけるかまたはオーバーレイして、真の奥行きを有するHMD上での表示用の仮想シーンを作成することとが可能である。
仮想シーンが生成されると、本明細書において記述されている技術は、ユーザが、仮想シーンに対応する現実世界の環境における特定のオブジェクトに焦点を合わせている間に体験することになる視覚効果を模倣するために、HMD上でユーザに対して仮想シーンがどのように表示されるかを修正する。たとえば、HMDの1つまたは複数のアイトラッキングカメラが、基準ポイントのセットに関するユーザの瞳孔の位置を含む焦点データを取り込むことが可能である。その焦点データを使用して、ARは、ユーザの識別された焦点に一致するようにリアルタイムまたはほぼリアルタイムで可変焦点ディスプレイの焦点を移動することが可能である。加えて、ARシステムは、HMDのユーザの識別された被写界深度の外側にある仮想シーンにおいて表されるオブジェクトをぼかすために、深度ぼけまたは焦点ぼけフィルタを適用するように構成されることが可能である。
いくつかの例においては、人工現実システムが、ユーザの物理環境を表す現実世界の画像データを取り込むように構成されている第1の画像取り込みデバイスと、人工現実コンテンツを出力するように構成されているヘッドマウントディスプレイ(HMD)であって、ユーザの視線の焦点を示す画像データを取り込むように構成されている第2の画像取り込みデバイスのセット、およびユーザの焦点に基づいて修正可能である焦点距離を有する可変焦点ディスプレイを含むHMDとを含む。加えて、この人工現実システムは、現実世界の画像データ、および現実世界の画像データに関連付けられている奥行きデータに基づいて、ユーザの物理環境の3次元(3D)シーンを生成すること、ならびにユーザの焦点に基づいてHMDの可変焦点ディスプレイ上に表示するための物理環境の3Dシーンに対するオーバーレイとしての人工現実コンテンツを生成することを行うように構成されている奥行きエンジンを含む。
いくつかの実施形態においては、第1の画像取り込みデバイスは、カラーでかつ高い解像度で現実世界の画像データを取り込むように構成されている少なくとも1つのパススルーカメラを含むことが可能である。
いくつかの実施形態においては、HMDは、奥行きエンジンを実行するように構成されている1つまたは複数のプロセッサを含むことが可能であり、それらの1つまたは複数のプロセッサは、少なくとも1つのパススルーカメラに近接して配置されている。
いくつかの実施形態においては、HMDはさらに、奥行きデータを生成するように構成されている奥行きセンサを含むことが可能であり、物理環境の3Dシーンを生成するために、奥行きエンジンは、奥行きデータを使用して、現実世界のシーンの3Dメッシュを生成することと、現実世界の画像データの少なくとも一部分を現実世界のシーンの3Dメッシュ上にオーバーレイすることとを行うように構成されている。
いくつかの実施形態においては、現実世界の画像データは、現実世界の画像データのストリームを表し、奥行きデータは、奥行きデータのストリームを表し、人工現実コンテンツを生成するために、奥行きエンジンはさらに、現実世界の画像データのストリーム、および奥行きデータのストリームを使用して、現実世界のシーンの3Dメッシュに対するHMDの位置および向きに基づいて、ほぼリアルタイムで人工現実コンテンツを生成するように構成されている。
いくつかの実施形態においては、第2の画像取り込みデバイスのセットは、基準ポイントの第1のセットに関するユーザの第1の瞳孔の位置を含む画像データの第1のセットを取り込むように構成されている第1のアイトラッキングカメラと、基準ポイントの第2のセットに関するユーザの第2の瞳孔の位置を含む画像データの第2のセットを取り込むように構成されている第2のアイトラッキングカメラとを含むことが可能であり、奥行きエンジンは、基準ポイントの第1のセットに関する第1の瞳孔の位置、および基準ポイントの第2のセットに関する第2の瞳孔の位置に基づいてユーザの焦点を特定するように構成されている。
いくつかの実施形態においては、このシステムはさらに、ある期間にわたる基準ポイントの第1のセットに関する第1の瞳孔の位置を追跡することと、その期間にわたる基準ポイントの第2のセットに関する第2の瞳孔の位置を追跡することと、その期間にわたる基準ポイントの第1のセットに関する第1の瞳孔の位置の動きに基づいて、基準ポイントの第1のセットに関する第1の瞳孔の位置の予想されるその後の動きを特定することと、その期間にわたる基準ポイントの第2のセットに関する第2の瞳孔の位置の動きに基づいて、基準ポイントの第2のセットに関する第2の瞳孔の位置の予想されるその後の動きを特定することとを行うように構成されている視線トラッカーを含むことが可能であり、奥行きエンジンはさらに、第1の瞳孔の位置の予想されるその後の動き、および第2の瞳孔の位置の予想されるその後の動きに基づいて、ユーザの予想されるその後の焦点を特定するように構成されている。
いくつかの実施形態においては、奥行きエンジンはさらに、ユーザの焦点に一致するように、ほぼリアルタイムで可変焦点ディスプレイに関する焦点距離を特定することと、特定された焦点距離を実現するためにレンズに対して移動するように可変焦点ディスプレイに指示することとを行うように構成されることが可能である。
いくつかの実施形態においては、HMDはさらに、レンズに対する可変焦点ディスプレイの位置を制御するように構成されているモータを含むことが可能であり、移動するように可変焦点ディスプレイに指示するために、奥行きエンジンは、特定された焦点距離を実現するためにレンズからある距離に可変焦点ディスプレイを配置するようにモータを制御するように構成されている。
いくつかの実施形態においては、画像データはさらに、ユーザの被写界深度を示し、人工現実コンテンツを生成するために、奥行きエンジンは、ユーザの被写界深度の外側にある人工現実コンテンツの部分をぼかすように構成されている。
いくつかの例においては、ある方法が、第1の画像取り込みデバイスによって、ユーザの物理環境を表す現実世界の画像データを取り込むことと、人工現実コンテンツを出力するように構成されているヘッドマウントディスプレイ(HMD)の第2の画像取り込みデバイスのセットによって、ユーザの視線の焦点を示す画像データを取り込むことと、HMDの奥行きエンジンによって、ユーザの焦点に基づいてHMDの可変焦点ディスプレイの焦点距離を修正することと、奥行きエンジンによって、ならびに現実世界の画像データ、および現実世界の画像データに関連付けられている奥行きデータに基づいて、ユーザの物理環境の3次元(3D)シーンを生成することと、奥行きエンジンによって、ユーザの焦点に基づいてHMDの可変焦点ディスプレイ上に表示するための物理環境の3Dシーンに対するオーバーレイとしての人工現実コンテンツを生成することとを含む。
いくつかの実施形態においては、第1の画像取り込みデバイスは、少なくとも1つのパススルーカメラを含むことが可能であり、この方法はさらに、パススルーカメラを使用して、カラーでかつ高い解像度で現実世界の画像データを取り込むことを含む。
いくつかの実施形態においては、この方法はさらに、HMDの1つまたは複数のプロセッサを使用して、奥行きエンジンを実行することを含むことが可能であり、1つまたは複数のプロセッサは、少なくとも1つのパススルーカメラに近接して配置されている。
いくつかの実施形態においては、この方法はさらに、奥行きセンサを使用して、奥行きデータを生成することを含むことが可能であり、物理環境の3Dシーンを生成することは、奥行きデータを使用して、現実世界のシーンの3Dメッシュを生成することと、現実世界の画像データの少なくとも一部分を現実世界のシーンの3Dメッシュ上にオーバーレイすることとを含む。
いくつかの実施形態においては、現実世界の画像データは、現実世界の画像データのストリームを表し、奥行きデータは、奥行きデータのストリームを表し、人工現実コンテンツを生成することは、現実世界の画像データのストリーム、および奥行きデータのストリームを使用して、現実世界のシーンの3Dメッシュに対するHMDの位置および向きに基づいて、ほぼリアルタイムで人工現実コンテンツを生成することを含む。
いくつかの実施形態においては、この方法はさらに、第2の画像取り込みデバイスのセットの第1のアイトラッキングカメラを使用して、基準ポイントの第1のセットに関するユーザの第1の瞳孔の位置を含む画像データの第1のセットを取り込むことと、第2の画像取り込みデバイスのセットの第2のアイトラッキングカメラを使用して、基準ポイントの第2のセットに関するユーザの第2の瞳孔の位置を含む第2の画像データのセットを取り込むことと、奥行きエンジンを使用して、基準ポイントの第1のセットに関する第1の瞳孔の位置、および基準ポイントの第2のセットに関する第2の瞳孔の位置に基づいてユーザの焦点を特定することとを含むことが可能である。
いくつかの実施形態においては、この方法はさらに、視線トラッカーを使用して、ある期間にわたる基準ポイントの第1のセットに関する第1の瞳孔の位置を追跡することと、視線トラッカーを使用して、その期間にわたる基準ポイントの第2のセットに関する第2の瞳孔の位置を追跡することと、その期間にわたる基準ポイントの第1のセットに関する第1の瞳孔の位置の動きに基づいて、基準ポイントの第1のセットに関する第1の瞳孔の位置の予想されるその後の動きを特定することと、その期間にわたる基準ポイントの第2のセットに関する第2の瞳孔の位置の動きに基づいて、基準ポイントの第2のセットに関する第2の瞳孔の位置の予想されるその後の動きを特定することと、奥行きエンジンを使用して、第1の瞳孔の位置の予想されるその後の動き、および第2の瞳孔の位置の予想されるその後の動きに基づいて、ユーザの予想されるその後の焦点を特定することとを含むことが可能である。
いくつかの実施形態においては、この方法はさらに、奥行きエンジンを使用して、ユーザの焦点に一致するように、ほぼリアルタイムで可変焦点ディスプレイに関する焦点距離を特定することと、奥行きエンジンによって、特定された焦点距離を実現するためにレンズに対して移動するように可変焦点ディスプレイに指示することとを含むことが可能である。
いくつかの実施形態においては、画像データはさらに、ユーザの被写界深度を示すことが可能であり、人工現実コンテンツを生成することは、ユーザの被写界深度の外側にある人工現実コンテンツの部分をぼかすことを含む。
いくつかの例においては、非一時的コンピュータ可読媒体が命令を含み、それらの命令は、実行されるときに、ユーザの物理環境を表す現実世界の画像データを取り込むことと、ユーザの視線の焦点を示す画像データを取り込むことと、ユーザの焦点に基づいて可変焦点ディスプレイの焦点距離を修正することと、現実世界の画像データ、および現実世界の画像データに関連付けられている奥行きデータに基づいて、ユーザの物理環境の3次元(3D)シーンを生成することと、ユーザの焦点に基づいてヘッドマウントディスプレイ(HMD)の可変焦点ディスプレイ上に表示するための物理環境の3Dシーンに対するオーバーレイとしての人工現実コンテンツを生成することとを1つまたは複数のプロセッサに行わせる。
本開示の1つまたは複数の例のさらなる詳細が、添付の図面において、および以降の記述において示されている。その他の特徴、目的、および利点は、記述および図面から、ならびに特許請求の範囲から明らかであろう。
図1Aは、本開示の1つまたは複数の技術による、仮想シーンをユーザに提示するための人工現実システム10を示す概念図である。図1Aの例においては、人工現実システム10は、ヘッドマウントディスプレイ(HMD)112、周辺デバイス136を含み、いくつかの例においては、1つまたは複数の外部センサ90および/またはコンソール106を含むことが可能である。
示されているように、HMD112は、典型的にはユーザ110によって装着され、人工現実コンテンツ122をユーザ110に提示するための可変焦点ディスプレイおよび光学アセンブリを含む。加えて、HMD112は、HMD112の動きを追跡するための1つまたは複数のセンサ(たとえば、加速度計)を含む。HMD112は、ユーザ110を取り巻く物理環境を表す画像データを取り込むための1つまたは複数の「インサイドアウト」画像取り込みデバイス138を含むことが可能である。追加として、または代替として、HMD112は、現実世界の画像データを取り込むように構成されている1つまたは複数の「パススルー」画像取り込みデバイス139を含むことが可能であり、それによって人工現実システム10は、HMD112を介して現実世界の画像データのうちの少なくともいくつかをユーザ110に渡すことが可能である。いくつかの例においては、パススルー画像取り込みデバイス139によって取り込まれた画像データの解像度は、インサイドアウト画像取り込みデバイス138によって取り込まれた画像データの解像度よりも大きい。パススルー画像取り込みデバイス139によって取り込まれた画像データは、インサイドアウト画像取り込みデバイス138によって取り込まれた白黒画像データに比べて、カラーで、かつより高い解像度で取り込まれた画像データを含むことが可能である。
いくつかの例においては、HMD112は、アイトラッキングカメラ140Aおよびアイトラッキングカメラ140B(総称して、「アイトラッキングカメラ140」)を含むことが可能である。アイトラッキングカメラ140のうちのそれぞれのアイトラッキングカメラは、基準ポイントのそれぞれのセットに関するユーザ110の瞳孔を示す画像データを取り込むことが可能である。たとえば、アイトラッキングカメラ140Aは、基準ポイントの第1のセットに関するユーザ110の第1の瞳孔の位置を示す画像データを取り込むことが可能であり、アイトラッキングカメラ140Bは、基準ポイントの第2のセットに関するユーザ110の第2の瞳孔の位置を示す画像データを取り込むことが可能である。基準ポイントの第1のセットに関する第1の瞳孔の位置、および基準ポイントの第2のセットに関する第2の瞳孔の位置は、ユーザ110の焦点および/またはユーザ110の被写界深度を示すことが可能であるので、アイトラッキングカメラ140によって取り込まれた画像データは、本明細書においては「焦点データ」と呼ばれる場合がある。いくつかの例においては、HMD112および/またはコンソール106上で実行する人工現実アプリケーションが、アイトラッキングカメラ140によって取り込まれた画像データに基づいて焦点データを生成するために視線追跡アルゴリズムおよび/またはニューラルネットワークを使用することが可能である。いくつかの例においては、焦点データは、アイトラッキングカメラ140によって取り込まれた画像データに加えて、またはその代わりに、その他の情報に基づいて生成されることが可能である。たとえば、人工現実アプリケーションは、ユーザ110が対話している1つまたは複数のオブジェクトに基づいてユーザ110の視線を特定することが可能である。
加えて、HMD112は、ユーザ110の現実世界の3次元(3D)の物理環境における1つまたは複数のポイントおよび/またはオブジェクトの奥行きを示す奥行きデータを収集する1つまたは複数の奥行きセンサを含むことが可能である。いくつかの例においては、奥行きセンサは、少なくとも2つのインサイドアウト画像取り込みデバイス138のセットを含むことが可能である。その他の例においては、奥行きセンサは、スタンドアロンの奥行きセンサデバイスを含むことが可能である。たとえば、奥行きデータは、コーナー152がコーナー154よりもユーザ110に近い(たとえば、コーナー152の奥行きがコーナー154の奥行きよりも小さい)ということを示す場合がある。人工現実システム10は、ヘッドマウントディスプレイとして示されているが、代替として、または追加として、ユーザ110に人工現実コンテンツ122を提示するためのメガネまたはその他のディスプレイデバイスを含むことが可能である。
この例においては、コンソール106は、ゲーミングコンソール、ワークステーション、デスクトップコンピュータ、またはラップトップなど、単一のコンピューティングデバイスとして示されている。その他の例においては、コンソール106は、分散コンピューティングネットワーク、データセンター、またはクラウドコンピューティングシステムなど、複数のコンピューティングデバイスにわたって分散されることが可能である。コンソール106、HMD112、およびセンサ90は、この例において示されているように、ネットワーク104を介して通信可能に結合されることが可能であり、ネットワーク104は、Wi-Fi、メッシュネットワーク、もしくは短距離ワイヤレス通信媒体など、有線もしくはワイヤレスのネットワーク、またはそれらの組合せであることが可能である。HMD112は、この例においては、コンソール106と通信状態にある、たとえば、コンソール106にテザリングされている、またはコンソール106とワイヤレス通信状態にあるものとして示されているが、いくつかの実施態様においては、HMD112は、スタンドアロンのモバイル人工現実システムとして動作する。
一般に、人工現実システム10は、現実世界の3D物理環境から取り込まれた情報を使用して、ユーザ110に対して表示するための人工現実コンテンツ122をレンダリングする。図1Aの例においては、ユーザ110は、HMD112および/またはコンソール106上で実行する人工現実アプリケーションによって構築およびレンダリングされた人工現実コンテンツ122を見る。いくつかの例においては、人工現実コンテンツ122は、複合現実および/または拡張現実を生み出すために現実世界の画像(たとえば、手132、周辺デバイス136、壁121)と仮想オブジェクト(たとえば、仮想コンテンツアイテム124、126および仮想ユーザインターフェース137)との混合物を含むことが可能である。いくつかの例においては、仮想コンテンツアイテム124、126は、人工現実コンテンツ122内の特定の位置にマップされること(たとえば、ピン留めされること、ロックされること、置かれること)が可能である。ある仮想コンテンツアイテムに関する位置は、たとえば、壁121または地球のうちの一方に対するものとして固定されることが可能である。ある仮想コンテンツアイテムに関する位置は、たとえば、周辺デバイス136またはユーザに対するものとして可変であり得る。いくつかの例においては、人工現実コンテンツ122内の仮想コンテンツアイテムの特定の位置は、現実世界の3D物理環境内の(たとえば、物理オブジェクトの表面上の)位置に関連付けられている。
この例においては、周辺デバイス136は、表面を有する物理的な現実世界のデバイスであり、その表面上に、人工現実システム10が仮想ユーザインターフェース137をオーバーレイする。周辺デバイス136は、1つまたは複数のプレゼンスセンシティブ表面を含むことが可能であり、そのプレゼンスセンシティブ表面は、そのプレゼンスセンシティブ表面の場所にタッチまたはホバリングする1つまたは複数のオブジェクト(たとえば、指、スタイラス)の存在を検知することによってユーザ入力を検知するためのものである。いくつかの例においては、周辺デバイス136は、出力ディスプレイを含むことが可能であり、その出力ディスプレイは、プレゼンスセンシティブディスプレイであることが可能である。いくつかの例においては、周辺デバイス136は、スマートフォン、タブレットコンピュータ、携帯情報端末(PDA)、またはその他のハンドヘルドデバイスであることが可能である。いくつかの例においては、周辺デバイス136は、スマートウォッチ、スマートリング、またはその他のウェアラブルデバイスであることが可能である。周辺デバイス136は、キオスクまたはその他の定置型のもしくは移動型のシステムの一部であることも可能である。周辺デバイス136は、コンテンツをスクリーンに出力するためのディスプレイデバイスを含むことが可能であり、または含まないことも可能である。
図1Aにおいて示されている例示的な人工現実体験においては、仮想コンテンツアイテム124、126は、壁121上の位置にマップされている。図1Aにおける例はまた、仮想コンテンツアイテム124が人工現実コンテンツ122内でのみ壁121上に部分的に現れているということを示しており、この仮想コンテンツが現実世界の物理環境には存在していないということを示している。仮想ユーザインターフェース137は、周辺デバイス136の表面にマップされている。結果として、人工現実システム10は、人工現実環境における周辺デバイス136の位置に対してロックされているユーザインターフェース位置に、人工現実コンテンツ122の一部としてHMD112において表示するための仮想ユーザインターフェース137をレンダリングする。図1Aは、仮想ユーザインターフェース137が人工現実コンテンツ122内でのみ周辺デバイス136上に現れているということを示しており、この仮想コンテンツが現実世界の3D物理環境には存在していないということを示している。
人工現実システム10は、1つまたは複数の仮想コンテンツアイテムを、仮想コンテンツアイテムの場所の少なくとも一部分がユーザ110の視野130内にあるという特定に応答してレンダリングすることが可能である。たとえば、人工現実システム10は、周辺デバイス136がユーザ110の視野130内にある場合にのみ、周辺デバイス136上に仮想ユーザインターフェース137をレンダリングすることが可能である。
動作中に、人工現実アプリケーションは、基準枠、典型的にはHMD112の視界に関するポーズ情報を追跡および算出することによって、ユーザ110に対して表示するための人工現実コンテンツ122を構築する。基準枠としてHMD112を使用して、およびHMD112の現在の推定されたポーズによって特定される現在の視野130に基づいて、人工現実アプリケーションは、3D人工現実コンテンツをレンダリングし、その3D人工現実コンテンツは、いくつかの例においては、少なくとも部分的に、ユーザ110の現実世界の3D物理環境上にオーバーレイされることが可能である。いくつかの例においては、人工現実アプリケーションは、HMD112の1つまたは複数の奥行きセンサによって取り込まれた奥行きデータを使用して、ユーザ110の物理的環境の3Dメッシュを生成することが可能である。いくつかの例においては、3Dメッシュは、データポイントのセットを含むことが可能であり、その場合、データポイントのセットのそれぞれのデータポイントの、データポイントのセットのそれぞれの他のデータポイントに対する場所が知られている。たとえば、3Dメッシュは、コーナー152を表す1つまたは複数のデータポイントが、コーナー154を表す1つまたは複数のデータポイントよりもユーザ110に近いということを示すことが可能である。3Dメッシュを生成した後に、人工現実アプリケーションは、ユーザ110の物理環境の3Dシーンを生成するために、パススルー画像取り込みデバイス139によって取り込まれた現実世界の画像データのうちの少なくともいくつかを3Dメッシュ上にオーバーレイすることが可能である。加えて、人工現実アプリケーションは、ユーザ110の焦点に基づいてHMD112の可変焦点ディスプレイ上に表示するための物理環境の3Dシーンに対するオーバーレイとしての人工現実コンテンツ122を生成することが可能である。
いくつかの例においては、人工現実アプリケーションは、動き情報およびユーザコマンドなど、HMD112から受信された感知されたデータを、そしていくつかの例においては、外部カメラなど、任意の外部センサ90からのデータを使用して、ユーザ110による動きおよび/またはユーザ110に関する特徴追跡情報など、現実世界の物理環境内の3D情報を取り込む。感知されたデータに基づいて、人工現実アプリケーションは、HMD112の基準枠に関する現在のポーズを特定することが可能であり、その現在のポーズに従って、人工現実コンテンツ122をレンダリングする。
人工現実アプリケーションは、ユーザのほぼリアルタイムの視線追跡(たとえば、アイトラッキングカメラ140によって収集される画像データの追跡)またはその他の条件によって特定されることが可能である、ユーザ110の現在の視野130に基づいて仮想コンテンツアイテムの生成およびレンダリングをトリガーすることが可能である。より具体的には、HMD112のパススルー画像取り込みデバイス139は、パススルー画像取り込みデバイス139の視野130内にある現実世界の3D物理環境におけるオブジェクトを表す画像データを取り込む。視野130は、典型的にはHMD112の視界に対応する。いくつかの例においては、人工現実アプリケーションは、複合現実および/または拡張現実を含む人工現実コンテンツ122を提示する。図1Aにおいて示されているように、人工現実アプリケーションは、人工現実コンテンツ122内のオブジェクト124、126などの仮想オブジェクトに沿った視野130内にあるユーザ110の周辺デバイス136、手132、および/または腕134の部分など、現実世界のオブジェクトの画像をレンダリングすることが可能である。その他の例においては、人工現実アプリケーションは、人工現実コンテンツ122内の視野130内にあるユーザ110の周辺デバイス136、手132、および/または腕134の部分の仮想表示をレンダリングすること(たとえば、現実世界のオブジェクトを仮想オブジェクトとしてレンダリングすること)が可能である。いずれの例においても、ユーザ110は、人工現実コンテンツ122内の視野130内にある自分の手132、腕134、周辺デバイス136、および/または任意のその他の現実世界のオブジェクトの部分を見ることが可能である。その他の例においては、人工現実アプリケーションは、ユーザの手132または腕134の表示をレンダリングしないことが可能である。
動作中に、人工現実アプリケーションは、HMD112のインサイドアウト画像取り込みデバイス138によって取り込まれた画像データ内でオブジェクト認識を実行して、周辺デバイス136、手132を識別し、これは、ユーザ110の個々の指もしくは親指および/または腕134の全部もしくは部分を任意選択で識別することを含む。さらに、人工現実アプリケーションは、時間のスライディングウィンドウにわたって周辺デバイス136、手132(手の特定の指を任意選択で含む)、および/または腕134の部分の位置、向き、および構成を追跡する。いくつかの例においては、周辺デバイス136は、周辺デバイス136の動きまたは向きを追跡するための1つまたは複数のセンサ(たとえば、加速度計)を含む。
上述されているように、人工現実システム10の複数のデバイスは、AR環境において連携して機能することが可能であり、その場合、それぞれのデバイスは、1つまたは複数の物理デバイス内の別々の物理的な電子デバイスおよび/または別々の集積回路(たとえば、SoC)であることが可能である。この例においては、周辺デバイス136は、HMD112と動作上でペアリングされて、人工現実システム10内で共同で動作して人工現実体験を提供する。たとえば、周辺デバイス136およびHMD112は、コプロセッシングデバイスとして互いと通信することが可能である。一例として、仮想環境において周辺デバイス136上にオーバーレイされている仮想ユーザインターフェース137の仮想ユーザインターフェース要素のうちの1つに対応する場所でユーザがユーザインターフェースジェスチャーを実行したときに、人工現実システム10は、ユーザインターフェースを検知し、HMD112にレンダリングされるアクションを実行する。
いくつかの例示的な実施態様においては、本明細書において記述されているように、周辺デバイス136およびHMD112はそれぞれ、コアプリケーションプロセッサ、センサアグリゲータ、ディスプレイコントローラなどとして動作するSoCなど、人工現実アプリケーションをサポートするように構成されている1つまたは複数のSoC集積回路を含むことが可能である。
いくつかの例においては、人工現実システム10の人工現実アプリケーションは、パススルー画像取り込みデバイス139によって取り込まれた現実世界の画像データおよびアイトラッキングカメラ140によって取り込まれた焦点データに基づいて、HMD112による表示のための人工現実コンテンツ122を生成するように構成されている。たとえば、人工現実アプリケーションは、アイトラッキングカメラ140によって取り込まれた焦点データに基づいてユーザ110の視線の焦点および/またはユーザ110の被写界深度を特定することが可能である。焦点データは、いくつかの例においては、基準ポイントの第1のセットに関するユーザ110の第1の瞳孔の位置を示す画像データ、および基準ポイントの第2のセットに関するユーザ110の第2の瞳孔の位置を示す画像データを表すことが可能である。人工現実アプリケーションは、基準ポイントの第1のセットに関する第1の瞳孔の位置、および基準ポイントの第2のセットに関する第2の瞳孔の位置に基づいてユーザ110の焦点を特定することが可能である。焦点とは、ユーザ110が焦点を合わせているポイントまたは平面を指すことが可能である。被写界深度は、画像において、またはユーザによって知覚されるシーンにおいて焦点が合っている(たとえば、鮮明に見えている)最も近いオブジェクトと最も遠いオブジェクトとの間における距離を指すことが可能である。本明細書において記述されているように、被写界深度はさらに、焦点の合っている最も近いオブジェクトとユーザとの間における距離、および焦点の合っている最も遠いオブジェクトとユーザとの間における距離を含むことが可能である。
追加として、または代替として、人工現実アプリケーションは、インサイドアウト画像取り込みデバイス138、パススルー画像取り込みデバイス139、奥行きプロジェクタセンサ、またはそれらの任意の組合せによって取り込まれた画像データに基づいてユーザ110の焦点を特定することが可能である。たとえば、人工現実アプリケーションは、人工現実コンテンツ122における1つまたは複数のオブジェクトとのユーザ対話を検知したことに基づいてユーザ110の焦点を特定することが可能である。たとえば、人工現実アプリケーションは、視野130内でユーザ110の手134が周辺デバイス136を保持していると特定することが可能である。人工現実アプリケーションは、視野130内でユーザ110が周辺デバイス136と対話しているということを識別したことに基づいて、ユーザ110の焦点が周辺デバイス136に近接していると特定することが可能である。いくつかの例においては、人工現実アプリケーションは、アイトラッキングカメラ140によって取り込まれた焦点データと、視野130内での1つまたは複数のオブジェクトとのユーザ対話の識別との両方に基づいてユーザ110の焦点を特定することが可能である。いくつかの例においては、人工現実アプリケーションは、アイトラッキングカメラ140によって取り込まれた焦点データに基づいてユーザ110の焦点を特定することが可能である。いくつかの例においては、人工現実アプリケーションは、視野130内での1つまたは複数のオブジェクトとのユーザ対話の識別に基づいてユーザ110の焦点を特定することが可能である。
いくつかの例においては、人工現実アプリケーションは、ユーザ110の1つまたは複数の瞳孔および/または角膜に関連している情報に基づいてユーザ110の焦点を特定することが可能である。たとえば、アイトラッキングカメラ140によって取り込まれる画像データは、ユーザ110の1つまたは複数の瞳孔および/または角膜に関連していることに関連している情報を含むことが可能である。いくつかの例においては、アイトラッキングカメラ140によって取り込まれる画像データは、ユーザ110の左瞳孔の中心の場所および/または右瞳孔の中心の場所を含むことが可能である。人工現実アプリケーションは、左瞳孔の中心の場所および/または右瞳孔の中心の場所に基づいてユーザ110の焦点を特定することが可能である。いくつかの場合においては、人工現実アプリケーションは、ユーザ110の瞳孔および/または角膜に関連しているその他の情報に基づいてユーザ110の焦点および/または視線方向を特定することが可能である。たとえば、人工現実アプリケーションは、左角膜の形状、右角膜の形状、または、左角膜もしくは右角膜の一方もしくは両方から反射された赤外光を示す情報に基づいてユーザ110の焦点および/または視線方向を特定することが可能である。
上述されているように、人工現実アプリケーションは、HMD112の1つまたは複数の奥行きセンサ(たとえば、インサイドアウト画像取り込みデバイス138)によって収集された奥行きデータに基づいて3Dメッシュを生成することが可能である。3Dメッシュは、データポイントのセットを含むことが可能であり、その場合、データポイントのセットのそれぞれのデータポイントの、データポイントのセットのそれぞれの他のデータポイントに対する場所が知られている。3Dメッシュは、ユーザ110の物理環境のトポグラフィーを表すことが可能である。たとえば、3Dメッシュは、ユーザ110の現実世界の物理環境内の1つまたは複数の物理オブジェクトおよび/またはポイント(たとえば、壁121、手132、腕134、周辺デバイス136、コーナー152、およびコーナー154)の場所のデジタル表示を含む。3Dメッシュは、たとえば、手132がコーナー152よりもユーザ110に近いということを示すことが可能である。加えて、いくつかの場合においては、3Dメッシュは、ユーザ110の現実世界の3D物理環境内の任意の2つ以上のオブジェクトまたはポイントの間における距離を示すことが可能である。人工現実アプリケーションは、ほぼリアルタイムで3Dメッシュを生成することが可能であり、それによって3Dメッシュは、ユーザ110の物理環境における変化を反映する。たとえば、ユーザ110が手132を動かした場合には、人工現実アプリケーションは、ほぼリアルタイムで手132の動きが分かるように3Dメッシュを更新することが可能である。人工現実アプリケーションは、パススルー画像取り込みデバイス139によって収集された現実世界の画像データの少なくとも一部分を3Dメッシュ上にオーバーレイすることによって3Dシーンを生成することが可能である。加えて、人工現実アプリケーションは、ユーザ110の検知された焦点に基づいて3Dシーンに対するオーバーレイとしての人工現実コンテンツ122を生成することが可能である。
3Dメッシュおよびアイトラッキングカメラ140は、人工現実アプリケーションが可変焦点体験をユーザ110に提供することを可能にすることができる。たとえば、人工現実アプリケーションは、ユーザ110の被写界深度を識別することが可能である。例として、被写界深度は、コーナー152を含む一方で、コーナー154、周辺デバイス136、手132、および腕134を除外することが可能である。次いで人工現実アプリケーションは、ユーザ110の被写界深度に一致するように、ほぼリアルタイムで人工現実コンテンツ122を生成することが可能である。言い換えれば、人工現実アプリケーションは、ユーザ110が被写界深度内のコーナー152およびその他のポイントを、鮮明である、または「焦点が合っている」として知覚する一方で、被写界深度の外側にあるコーナー154、周辺デバイス136、手132、腕134、およびその他のオブジェクトまたはポイントを、ぼやけている、または「焦点が合っていない」として知覚するように、人工現実コンテンツ122を生成することが可能である。3Dメッシュは、HMD112の位置に対する、人工現実コンテンツ122に含まれているそれぞれのオブジェクトの奥行きを示す。この方法においては、人工現実コンテンツ122を生成するために、人工現実アプリケーションは、人工現実コンテンツ122におけるオブジェクトを、3Dメッシュによって示されるそのオブジェクトの奥行きがユーザ110の検知された被写界深度内にあるかどうかに基づいて、ぼかすこと、またはぼかさないことが可能である。
いくつかの例においては、人工現実アプリケーションは、人工現実コンテンツ122内の1つまたは複数のオブジェクトに関するユーザ110の焦点を検知したことに基づいてインサイドアウト画像取り込みデバイス138およびその他の奥行きセンサを較正することが可能である。いくつかの例においては、人工現実アプリケーションは、コーナー152など、人工現実コンテンツ122におけるオブジェクトにユーザ110が焦点を合わせていると特定することが可能である。そのようなときに、人工現実アプリケーションは、ユーザ110がコーナー152に焦点を合わせている間のユーザ110の焦点を特定することが可能である。人工現実アプリケーションは、ユーザ110がコーナー152に焦点を合わせている間のユーザ110の焦点、および/またはユーザ110が人工現実コンテンツ122内の別のオブジェクトに焦点を合わせている間のユーザ110の焦点に基づいてインサイドアウト画像取り込みデバイス138を較正することが可能である。
HMD112は、ユーザ110の検知された焦点に基づいてHMD112の可変焦点ディスプレイの焦点距離を修正することが可能である。たとえば、人工現実アプリケーションは、アイトラッキングカメラ140によって収集された画像データに基づいてユーザ110の焦点を検知することが可能である。次いでHMD112は、ユーザ110の目に対してHMD112の可変焦点ディスプレイを移動することが可能である。たとえば、HMD112は、モータ(たとえば、電気モータ)を含む可変焦点ディスプレイ上でユーザ110に対して人工現実コンテンツ122を表示することが可能である。人工現実アプリケーションは、ユーザ110の検知された焦点に一致させるためにユーザ110の目に対してディスプレイパネルを移動するための命令を出力することが可能である。そのようなものとして、HMD112は、人工現実アプリケーションが可変焦点ディスプレイを移動することを可能にする機械式の可変焦点システムを実装することが可能である。人工現実アプリケーションは、ほぼリアルタイムでユーザ110の焦点を特定することが可能である。この方法においては、人工現実アプリケーションは、ユーザ110の検知された焦点に基づいて、ほぼリアルタイムで可変焦点ディスプレイの焦点距離を修正することが可能である。追加として、または代替として、HMD112は、1つまたは複数の撮像コンポーネントの性質を変える光学式の可変焦点システムを実装することが可能である。ユーザ110の特定された焦点に基づくHMD112の。
いくつかの例においては、人工現実アプリケーションは、アイトラッキングカメラ140によって収集された焦点データに基づいてユーザ110のその後の焦点を予測することが可能である。たとえば、人工現実アプリケーションは、ある期間にわたる基準ポイントの第1のセットに関するユーザ110の第1の瞳孔の位置を追跡すること、およびその期間にわたる基準ポイントの第2のセットに関するユーザ110の第2の瞳孔の位置を追跡することが可能である。続いて、人工現実アプリケーションは、その期間にわたる基準ポイントの第1のセットに関する第1の瞳孔の位置の動きに基づいて、基準ポイントの第1のセットに関する第1の瞳孔の位置の予想されるその後の動きを特定すること、およびその期間にわたる基準ポイントの第2のセットに関する第2の瞳孔の位置の動きに基づいて、基準ポイントの第2のセットに関する第2の瞳孔の位置の予想されるその後の動きを特定することが可能である。人工現実アプリケーションは、第1の瞳孔の位置の予想されるその後の動き、および第2の瞳孔の位置の予想されるその後の動きに基づいて、ユーザ110の予想されるその後の焦点を特定することが可能である。いくつかの例においては、人工現実アプリケーションは、人工現実コンテンツ122を生成すること、かつ/またはユーザ110の予想されるその後の焦点距離に基づいて可変焦点ディスプレイの焦点距離を修正することが可能である。追加として、または代替として、人工現実アプリケーションは、人工現実コンテンツ122を生成すること、かつ/またはユーザ110の予想されるその後の焦点およびユーザ110の現在の焦点の両方に基づいて可変焦点ディスプレイの焦点距離を修正することが可能である。
本明細書において記述されている1つまたは複数の技術は、実用的な用途を提供する1つまたは複数の技術的な改善を提供することが可能である。たとえば、1つまたは複数のアイトラッキングカメラ140によって取り込まれた焦点データを使用して、ユーザの焦点および被写界深度の一方または両方を特定することによって、人工現実アプリケーションは、仮想シーンを生成する上で焦点データを使用しない人工現実システムと比較して、HMD112によって表示される仮想シーン(たとえば、人工現実コンテンツ122)を改善することが可能である。言い換えれば、人工現実システム10は、ユーザ110の被写界深度内にあるオブジェクトに焦点を合わせるように人工現実コンテンツ122をカスタマイズして、人工現実システム10が現実世界の環境を模倣することを可能にすることができる。加えて、3次元メッシュは、HMD112によってユーザ110に対して表示される人工現実コンテンツ122のための基礎として役立つ、ユーザ110に近接している現実世界の環境の一部である1つまたは複数のオブジェクトの奥行きを示す情報を含むことが可能である。したがって、ユーザが人工現実コンテンツ122における1つまたは複数のオブジェクトに焦点を合わせる際に、HMD112は、ユーザ112の検知された焦点に基づいて可変焦点ディスプレイの焦点距離を修正することが可能である。
図1Bは、本開示の1つまたは複数の技術による、仮想環境を複数のユーザに提示するための人工現実システム20を示す概念図である。図1Aの人工現実システム10と同様に、いくつかの例においては、図1Bの人工現実システム20は、マルチユーザ人工現実環境内で仮想コンテンツアイテムを生成してレンダリングすることが可能である。人工現実システム20はまた、さまざまな例において、ユーザによる周辺デバイス136との1つまたは複数の特定の対話の検知に応答して、特定の仮想コンテンツアイテムおよび/またはグラフィカルユーザインターフェース要素を生成してユーザに対してレンダリングすることが可能である。
図1Bの例においては、人工現実システム20は、外部カメラ102Aおよび102B(総称して、「外部カメラ102」)、HMD112A~112C(総称して、「HMD112」)、コントローラ114Aおよび114B(総称して、「コントローラ114」)、コンソール106、およびセンサ90を含む。図1Bにおいて示されているように、人工現実システム20は、コンソール106および/またはHMD112上で実行する人工現実アプリケーションが、それぞれのユーザに関する対応する基準枠の現在の視界に基づいてユーザ110A~110C(総称して、「ユーザ110」)のそれぞれに人工現実コンテンツを提示するマルチユーザ環境に相当する。すなわち、この例においては、人工現実アプリケーションは、HMD112のうちのそれぞれに関する基準枠に関するポーズ情報を追跡および算出することによって人工現実コンテンツを構築する。人工現実システム20は、HMD112の対応する基準枠に関する更新されたポーズ情報を算出する際に使用する目的で、ユーザ110による動きなど、現実世界の環境内の3D情報、ならびに/またはユーザ110およびオブジェクト108に関する追跡情報を取り込むために、カメラ102、HMD112、およびコントローラ114から受信されたデータを使用する。一例として、人工現実アプリケーションは、HMD112Cに関して特定された現在の視界に基づいて、現実世界のオブジェクト108A~108B(総称して、「現実世界のオブジェクト108」)上に空間的にオーバーレイされた仮想オブジェクト128A~128B(総称して、「仮想オブジェクト128」)を有する人工現実コンテンツ122をレンダリングすることが可能である。さらに、HMD112Cの視点から、人工現実システム20は、ユーザ110A、110Bそれぞれに関する推定された位置に基づいてアバター120A、120Bをレンダリングする。HMD112Cは、図1のHMD112の例であることが可能である。
HMD112のうちのそれぞれは、人工現実システム20内で同時に動作する。図1Bの例においては、ユーザ110のうちのそれぞれが、人工現実アプリケーションにおける「プレーヤ」または「参加者」である場合があり、ユーザ110のうちのいずれかが、人工現実アプリケーションにおける「観客」または「観察者」である場合がある。HMD112Cは、ユーザ110Cの手132および/または腕134を追跡して、視野130内にある手132の部分を仮想の手132として人工現実コンテンツ122内にレンダリングすることによって、図1AのHMD112と実質的に同様に動作することが可能である。HMD112Bは、ユーザ110Bによって保持されているコントローラ114からユーザ入力を受け取ることが可能である。いくつかの例においては、コントローラ114Aおよび/または114Bは、図1Aの周辺デバイス136に対応すること、および図1Aの周辺デバイス136と実質的に同様に動作することが可能である。HMD112Aは、図1AのHMD112と実質的に同様に動作すること、およびユーザ110Aの手132A、132Bによって周辺デバイス136上で、または周辺デバイス136との間で実行されるジェスチャーの形態でのユーザ入力を受け取ることも可能である。HMD112Bは、ユーザ110Bによって保持されているコントローラ114からユーザ入力を受け取ることが可能である。コントローラ114は、Bluetoothなどの短距離ワイヤレス通信の近距離無線通信を使用して、有線通信リンクを使用して、またはその他のタイプの通信リンクを使用して、HMD112Bと通信状態にあることが可能である。
いくつかの例においては、人工現実システム20のコンソール106および/またはHMD112Cは、仮想コンテンツアイテム129(たとえば、GIF、写真、アプリケーション、ライブストリーム、ビデオ、テキスト、ウェブブラウザ、描画、アニメーション、3Dモデル、データファイル(2次元のおよび3次元のデータセットを含む)の表示、または任意のその他の可視メディア)を含む仮想表面を生成してレンダリングすることが可能であり、これは、仮想コンテンツアイテム129に関連付けられている壁121の部分がHMD112Cの視野130内に入ったときに、ユーザ110Cに対して表示される人工現実コンテンツ122上にオーバーレイされることが可能である。図1Bにおいて示されているように、HMD112Cの画像取り込みデバイス138を介して取り込まれた画像データに加えて、またはその代わりに、外部カメラ102からの入力データが使用されて、周辺デバイス136、および/または、ユーザ110Cの手132など、手の個々の指(親指以外の指、親指)および/または指どうし(親指以外の指、親指)の組合せの動きを含む、ユーザ110の手および腕の特定の動き、構成、位置、および/または向きを追跡および検知することが可能である。
いくつかの例においては、人工現実アプリケーションは、コンソール106上で稼働することが可能であり、外部カメラ102Aおよび102Bを利用して、手132Bの構成、位置、および/または向きを分析して、HMD112Aのユーザによって実行され得る入力ジェスチャーを識別することが可能である。同様に、HMD112Cは、画像取り込みデバイス138を利用して、周辺デバイス136および手132Cの構成、位置、および/または向きを分析して、HMD112Cのユーザによって実行され得るジェスチャーを入力することが可能である。いくつかの例においては、周辺デバイス136は、周辺デバイス136の動きまたは向きを追跡するための1つまたは複数のセンサ(たとえば、加速度計)を含む。人工現実アプリケーションは、図1Aに関して上述されているのと同様の様式で、そのようなジェスチャー、動き、および向きに応答して、仮想コンテンツアイテムおよび/またはUI要素をレンダリングすることが可能である。
外部カメラ102およびインサイドアウト画像取り込みデバイス138は、可視光スペクトル、赤外線スペクトル、またはその他のスペクトルでの画像を取り込むことが可能である。たとえば、オブジェクト、オブジェクトポーズ、およびジェスチャーを識別するための本明細書において記述されている画像処理は、赤外線画像、可視光スペクトル画像などを処理することを含むことが可能である。
人工現実システム20のデバイスは、AR環境において連携して機能することが可能である。たとえば、周辺デバイス136は、HMD112Cとペアリングされて、ARシステム20内で共同で動作する。同様に、コントローラ114は、HMD112Bとペアリングされて、ARシステム20内で共同で動作する。周辺デバイス136、HMD112、およびコントローラ114はそれぞれ、人工現実アプリケーションのための動作環境を可能にするように構成されている1つまたは複数のSoC集積回路を含むことが可能である。
いくつかの例においては、HMD112のうちのそれぞれのHMDは、1つまたは複数の画像取り込みデバイス、および1つまたは複数のアイトラッキングカメラを含む。たとえば、HMD112Cは、インサイドアウト画像取り込みデバイス138、パススルー画像取り込みデバイス139、およびアイトラッキングカメラ140A~140B(総称して、「アイトラッキングカメラ140)を含む。人工現実アプリケーションは、HMD112のうちの任意の1つまたは複数によって表示するための人工現実コンテンツを生成することが可能である。HMD112のうちのそれぞれは、図1のHMD112に関して記述されている任意の1つまたは複数の技術を実行することが可能である。
図2Aは、本開示の1つまたは複数の技術による、仮想シーンをユーザに提示するための例示的なHMD112および例示的な周辺デバイス136を示す概念図である。図2AのHMD112は、図1Aおよび図1BのHMD112のうちのいずれかの例であることが可能である。HMD112は、図1A、図1Bの人工現実システム10、20など、人工現実システムの一部であることが可能であり、または本明細書において記述されている技術を実施するように構成されているスタンドアロンの移動式の人工現実システムとして動作することが可能である。
この例においては、HMD112は、HMD112をユーザに固定するための前部剛体およびバンドを含む。加えて、HMD112は、人工現実コンテンツをユーザに提示するように構成されている内向きの可変焦点ディスプレイ203を含む。可変焦点ディスプレイ203は、液晶ディスプレイ(LCD)、量子ドットディスプレイ、ドットマトリックスディスプレイ、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、ブラウン管(CRT)ディスプレイ、e-ink、または、視覚出力を生成することが可能なモノクロ、カラー、もしくは任意のその他のタイプのディスプレイなど、任意の適切なディスプレイテクノロジーであることが可能である。いくつかの例においては、可変焦点ディスプレイは、ユーザのそれぞれの目に別々の画像を提供するための立体視ディスプレイである。いくつかの例においては、HMD112およびユーザの現在の視界に従って人工現実コンテンツをレンダリングするためにHMD112の位置および向きを追跡する際に、HMD112の前部剛体に対するディスプレイ203の既知の向きおよび位置が、基準枠(局所原点とも呼ばれる)として使用される。その他の例においては、HMD112は、メガネまたはゴーグルなど、その他のウェアラブルヘッドマウントディスプレイの形態を取ることが可能である。いくつかの例においては、HMD112は、ユーザの両方の目に順次または同時に画像を提供するための単一の可変焦点ディスプレイ203を含むことが可能である。いくつかの例においては、HMD112は、2つの可変焦点ディスプレイ、すなわち、ユーザ110の目ごとに1つの可変焦点ディスプレイを含むことが可能である。いくつかの例においては、HMD112は、ミニチュアプロジェクタによって生成された角度領域における画像を直接ユーザの目へ搬送するために使用される瞳孔複製導波路を含むことが可能である。
いくつかの例においては、ディスプレイ203は、軸204に沿ってHMD112内を移動することが可能である。たとえば、ディスプレイ203の動きは、ディスプレイ203をHMD112のユーザの目に対して近づけたり遠ざけたりするように構成されているモータ(たとえば、電気モータ)によって制御されることが可能である。ディスプレイ203を移動することによって、HMD112のユーザは、ディスプレイ203によって提示される人工現実コンテンツにユーザが焦点を合わせる方法を変えることが可能である。たとえば、ディスプレイ203をユーザの目に近づけること、またはディスプレイ203をユーザの目から遠ざけることによって、ディスプレイ203の焦点距離をユーザの焦点と一致させることが可能である。この方法においては、HMD112は、ディスプレイ203によって提示される人工現実コンテンツの焦点を変えるように構成されているので、HMD112は、可変焦点デバイスに相当することが可能である。
図2Aにおいてさらに示されているように、この例においては、HMD112はさらに、HMD112の現在の加速度を示すデータを出力する1つもしくは複数の加速度計(慣性測定ユニットもしくは「IMU」とも呼ばれる)、HMD112の場所を示すデータを出力するGPSセンサ、さまざまなオブジェクトからのHMD112の距離を示すデータを出力するレーダーもしくはソナー、または物理環境内のHMD112もしくはその他のオブジェクトの場所もしくは向きの表示を提供するその他のセンサなど、1つまたは複数のモーションセンサ206を含む。HMD112は、HMD112のユーザの現実世界の3D物理環境における1つまたは複数のポイントおよび/またはオブジェクトの奥行きを示す奥行きデータを収集することが可能である。いくつかの例においては、奥行きセンサ208が、奥行きデータを収集することが可能である。いくつかの例においては、インサイドアウト画像取り込みデバイス138が、画像データを収集することが可能である。
HMD112は、物理環境を表す画像データを取り込むように構成されている、ビデオカメラ、レーザースキャナ、ドップラーレーダースキャナ、奥行きスキャナ等など、統合されたインサイドアウト画像取り込みデバイス138Aおよび138B(総称して、「インサイドアウト画像取り込みデバイス138」)を含むことが可能である。より具体的には、インサイドアウト画像取り込みデバイス138は、典型的にはHMD112の視野と対応する、インサイドアウト画像取り込みデバイス138の視野130A、130B内にある物理環境におけるオブジェクト(周辺デバイス136および/または手132を含む)を表す画像データを取り込む。いくつかの例においては、インサイドアウト画像取り込みデバイス138のうちの2つ以上が、HMD112のユーザの現実世界の3D物理環境における1つまたは複数のポイントおよび/またはオブジェクトの奥行きを示す奥行きデータを収集することが可能である。この方法においては、インサイドアウト画像取り込みデバイス138は、奥行きセンサ208に相当することが可能である。その他のケースにおいては、インサイドアウト画像取り込みデバイス138および奥行きセンサ208は、別々のデバイスであることが可能である。
HMD112は、1つまたは複数のパススルー画像取り込みデバイス139を含むことが可能である。パススルー画像取り込みデバイス139は、現実世界の画像データをカラーで、かつインサイドアウト画像取り込みデバイス138よりも高い解像度で取り込んで、人工現実システムがHMD112を介してユーザに対して現実世界の画像データのうちの少なくともいくつかを表示することまたは「渡すこと」を可能にするように構成されることが可能である。言い換えれば、HMD112は、HMD112を使用していなければユーザが見ているであろう現実世界のシーンの1つまたは複数の要素、オブジェクト、および側面を含む仮想シーンをユーザに対して表示することが可能である。
HMD112は、内部制御ユニット210を含み、内部制御ユニット210は、内部電源と、1つまたは複数のプロセッサを有する1つまたは複数のプリント回路基板と、メモリと、感知されたデータを処理してディスプレイ203上に人工現実コンテンツを提示するためのプログラム可能な動作オペレーションを実行するための動作環境を提供するためのハードウェアとを含むことが可能である。制御ユニット210によって実行されるものとして本明細書において記述されている1つまたは複数の技術は、いくつかの例においては、コンソール106、周辺デバイス136、およびHMD112の任意の1つまたは組合せによって実行されることが可能である。
HMD112は、アイトラッキングカメラ140Aおよびアイトラッキングカメラ140B(総称して、「アイトラッキングカメラ140」)を含むことが可能である。アイトラッキングカメラ140のうちのそれぞれのアイトラッキングカメラは、基準ポイントのそれぞれのセットに関するHMD112のユーザの瞳孔を示す画像データを取り込むことが可能である。たとえば、アイトラッキングカメラ140Aは、基準ポイントの第1のセットに関するユーザの第1の瞳孔(たとえば、左瞳孔)の位置を示す画像データを取り込むことが可能であり、アイトラッキングカメラ140Bは、基準ポイントの第2のセットに関するユーザの第2の瞳孔(たとえば、右瞳孔)の位置を示す画像データを取り込むことが可能である。いくつかの例においては、基準ポイントの第1のセットに関する第1の瞳孔の位置、および基準ポイントの第2のセットに関する第2の瞳孔の位置は、ユーザの被写界深度(たとえば、焦点)を示すことが可能であるので、アイトラッキングカメラ140によって取り込まれた画像データは、焦点データに相当することが可能である。
被写界深度は、画像において、またはユーザによって知覚されるシーンにおいて焦点が合っている(たとえば、鮮明に見えている)最も近いオブジェクトと最も遠いオブジェクトとの間における距離を表すことが可能である。本明細書において記述されているように、被写界深度はさらに、焦点の合っている最も近いオブジェクトとユーザとの間における距離、および焦点の合っている最も遠いオブジェクトとユーザとの間における距離を含むことが可能である。たとえば、観察者にとって焦点が合っている最も近いオブジェクトが、観察者から10メートル離れていて、観察者にとって焦点が合っている最も遠いオブジェクトが、観察者から11.5メートル離れている場合には、観察者の焦点深度は、1.5メートルである。そのような例においては、10メートルよりも近いオブジェクト、および12メートルよりも遠いオブジェクトは、観察者にとってぼやけて見える場合があり、10メートルから12メートルまでの範囲内のオブジェクトは、観察者にとって鮮明に見える場合がある。いくつかの例においては、パススルー画像取り込みデバイス139によって取り込まれた画像データの被写界深度は、「対象までの距離」に比例することが可能であり、その距離は、パススルー画像取り込みデバイス139と、画像取り込みデバイス139が焦点を合わせているオブジェクトとの間における距離である。画像取り込みデバイス139が人工現実コンテンツ122内の周辺デバイスに焦点を合わせている場合においては、画像取り込みデバイス139によって取り込まれた画像データの被写界深度は、たとえば、画像取り込みデバイス139がコーナー154に焦点を合わせている場合におけるよりも小さいことが可能である。レンズの屈折力は、いくつかの場合においては、距離の関数であることも可能である。たとえば、レンズの屈折力は、レンズの焦点距離に反比例する。視度が、レンズの屈折力の測定単位である。
一例においては、制御ユニット210は、感知されたデータ(たとえば、画像取り込みデバイス102、インサイドアウト画像取り込みデバイス138、およびパススルー画像取り込みデバイス139のうちのいずれか1つまたは複数によって取り込まれた画像データ、ならびにGPSセンサからの位置情報)に基づいて、インサイドアウト画像取り込みデバイス138の視野130A、130B内に、または画像取り込みデバイス139の視野130C内に含まれている位置に関連付けられている1つまたは複数の仮想コンテンツアイテム(たとえば、図1Aの仮想コンテンツアイテム124、126)を生成して、ディスプレイ203上に表示するためにレンダリングするように構成されている。図1A~図1Bを参照しながら説明されているように、仮想コンテンツアイテムは、現実世界の環境内の位置に関連付けられることが可能であり、制御ユニット210は、仮想コンテンツ(またはその部分)に関連付けられている位置が現在の視野130A、130B内にあるという特定に応答して、ディスプレイ203上に表示するために仮想コンテンツアイテム(またはその部分)をレンダリングするように構成されることが可能である。
一例においては、制御ユニット210は、感知されたデータに基づいて、ユーザによって実行された特定のジェスチャーまたはジェスチャーの組合せを識別し、それに応答してアクションを実行するように構成されている。たとえば、1つの識別されたジェスチャーに応答して、制御ユニット210は、可変焦点ディスプレイ203上に表示するための特定のユーザインターフェースを生成して、周辺デバイス136の位置に対してロックされているユーザインターフェース位置にレンダリングすることが可能である。たとえば、制御ユニット210は、1つまたは複数のUI要素(たとえば、仮想ボタン)を含むユーザインターフェースを生成して、周辺デバイス136の表面220上に、または周辺デバイス136に近接して(たとえば、周辺デバイス136の上に、下に、もしくは隣に)レンダリングすることが可能である。制御ユニット210は、インサイドアウト画像取り込みデバイス138によって取り込まれた画像データ内でオブジェクト認識を実行して、周辺デバイス136、および/またはユーザの手132、指、親指、腕、もしくは別の部分を識別し、周辺デバイス136および/またはユーザの識別された部分の動き、位置、構成などを追跡して、ユーザによって実行された事前に定義されているジェスチャーを識別することが可能である。事前に定義されているジェスチャーを識別したことに応答して、制御ユニット210は、ユーザインターフェースに関連付けられているオプションセットからオプションを選択すること(たとえば、UIメニューからオプションを選択すること)、ジェスチャーを入力(たとえば、文字)へと変換すること、アプリケーションを起動すること、仮想コンテンツを操作すること(たとえば、仮想コンテンツアイテムを移動すること、回転させること)、仮想マーキングを生成してレンダリングすること、レーザーポインタを生成してレンダリングすること、またはコンテンツをその他の形で表示すること等など、何らかのアクションを取る。たとえば、制御ユニット210は、ユーザインターフェースを明らかにするための「トリガー」として指定された事前に定義されているジェスチャー(たとえば、周辺デバイスを横長のまたは水平の向き(図示せず)にすること)を検知したことに応答して、メニューなどのユーザインターフェースを動的に生成して提示することが可能である。いくつかの例においては、制御ユニット210は、レンダリングされたユーザインターフェースに関する、感知されたデータに基づくユーザ入力(たとえば、仮想UI要素上で実行されたタップするジェスチャー)を検知する。いくつかの例においては、制御ユニット210は、コンソール106など、外部デバイスからの指示に応答して、そのような機能を実行し、外部デバイスは、オブジェクト認識、動き追跡およびジェスチャー検知、またはそれらの任意の部分を実行することが可能である。
例として、制御ユニット210は、インサイドアウト画像取り込みデバイス138Aおよび138Bを利用して、周辺デバイス136、手132、および/または腕134の構成、位置、動き、および/または向きを分析して、周辺デバイス136に関してユーザによって実行され得るユーザインターフェースジェスチャー、選択ジェスチャー、スタンプを押すジェスチャー、平行移動ジェスチャー、回転ジェスチャー、描画ジェスチャー、指差しジェスチャーなどを識別することが可能である。制御ユニット210は、以降でさらに詳細に記述されているように、周辺デバイスに関してユーザによって実行されるユーザインターフェースジェスチャー、選択ジェスチャー、スタンプを押すジェスチャー、平行移動ジェスチャー、回転ジェスチャー、および描画ジェスチャーの検知に基づいてUIメニュー(UI要素を含む)をレンダリングし、ユーザがそのUIメニューとインターフェースを取ることを可能にすることができる。
一例においては、周辺デバイス136の表面220は、タッチおよび/またはホバリング入力を検知するために、容量性、導電性、抵抗性、音響、またはその他のテクノロジーを使用する表面など、プレゼンスセンシティブ表面である。いくつかの例においては、周辺デバイス136の表面220は、タッチスクリーン(たとえば、容量性タッチスクリーン、抵抗性タッチスクリーン、弾性表面波(SAW)タッチスクリーン、赤外線タッチスクリーン、光学イメージングタッチスクリーン、音響パルス認識タッチスクリーン、または任意のその他のタッチスクリーン)である。そのような例においては、周辺デバイス136は、表面220上にユーザインターフェースまたはその他の仮想要素(たとえば、仮想マーキング)をレンダリングし、表面220上でのユーザ入力(たとえば、タッチまたはホバリング入力)を検知することが可能である。その例においては、周辺デバイス136は、ワイヤレス通信リンク(たとえば、Wi-Fi、Bluetoothなどの短距離ワイヤレス通信の近距離無線通信)を使用して、有線通信リンク(図示せず)を使用して、またはその他のタイプの通信リンクを使用して、いかなる検知されたユーザ入力もHMD112(および/または図1Aのコンソール106)へ通信することが可能である。いくつかの例においては、周辺デバイスは、仮想コンテンツと対話するための(たとえば、仮想UI要素を選択するための、仮想UI要素をスクロールするための)1つまたは複数の入力デバイス(たとえば、ボタン、トラックボール、スクロールホイール)を含むことが可能である。
制御ユニット210は、ディスプレイ203によって提示される人工現実コンテンツを生成することが可能である。制御ユニット210が、ディスプレイ203によって提示される人工現実コンテンツを生成することが可能である1つの方法は、HMD112のユーザの被写界深度の外側にある人工現実コンテンツの1つまたは複数の部分をぼかすことである。3Dメッシュは、HMD112の位置に対する、人工現実コンテンツに含まれているそれぞれのオブジェクトの奥行きを示すことが可能である。この方法においては、人工現実コンテンツを生成するために、制御ユニット210は、人工現実コンテンツにおけるオブジェクトを、3Dメッシュによって示されるそのオブジェクトの奥行きがユーザの被写界深度内にあるかどうかに基づいて、ぼかすこと、またはぼかさないことが可能である。加えて、制御ユニット210は、可変焦点ディスプレイ203の焦点距離を修正するために可変焦点ディスプレイ203を軸204に沿って移動することが可能である。たとえば、HMD112は、可変焦点ディスプレイ203上でユーザに人工現実コンテンツを提示することが可能であり、可変焦点ディスプレイ203は、モータ(たとえば、電気モータ)に取り付けられている。制御ユニット210は、ユーザの検知された焦点を反映するために可変焦点ディスプレイ203を移動することが可能である。いくつかの例においては、ユーザの焦点は、アイトラッキングカメラ140によって取り込まれた画像データに基づいて、ほぼリアルタイムで特定されることが可能である。この方法においては、制御ユニット210は、ユーザの被写界深度に基づいて、および3Dメッシュによって識別される1つまたは複数のオブジェクトの場所に基づいて、ほぼリアルタイムで人工現実コンテンツを生成することが可能である。
図2Bは、本開示の1つまたは複数の技術による、別の例示的なHMD112を示す概念図である。図2Bにおいて示されているように、HMD112は、メガネの形態を取ることが可能である。図2AのHMD112は、図1Aおよび図1BのHMD112のうちのいずれかの例であることが可能である。HMD112は、図1A、図1Bの人工現実システム10、20など、人工現実システムの一部であることが可能であり、または本明細書において記述されている技術を実施するように構成されているスタンドアロンの移動式の人工現実システムとして動作することが可能である。
この例においては、HMD112は、HMD112がユーザの鼻に載っていることを可能にするためのブリッジと、ユーザの耳の上に延在してHMD112をユーザに固定するためのテンプル(または「アーム」)とを含むフロントフレームを含むメガネである。加えて、図2BのHMD112は、人工現実コンテンツをユーザに提示するように構成されている内向きの可変焦点ディスプレイ203Aおよび203B(総称して、「可変焦点ディスプレイ203」)を含む。可変焦点ディスプレイ203は、LCD、量子ドットディスプレイ、ドットマトリックスディスプレイ、LEDディスプレイ、OLEDディスプレイ、CRTディスプレイ、e-ink、または、視覚出力を生成することが可能なモノクロ、カラー、もしくは任意のその他のタイプのディスプレイなど、任意の適切なディスプレイテクノロジーであることが可能である。図2Bにおいて示されている例においては、可変焦点ディスプレイ203は、ユーザのそれぞれの目に別々の画像を提供するための立体視ディスプレイを形成する。いくつかの例においては、HMD112およびユーザの現在の視界に従って人工現実コンテンツをレンダリングするためにHMD112の位置および向きを追跡する際に、HMD112のフロントフレームに対するディスプレイ203の既知の向きおよび位置が、基準枠(局所原点とも呼ばれる)として使用される。いくつかの例においては、HMD112は、ミニチュアプロジェクタによって生成された角度領域における画像を直接ユーザの目へ搬送するために使用される瞳孔複製導波路を含むことが可能である。
図2Bにおいてさらに示されているように、この例においては、HMD112はさらに、HMD112の現在の加速度を示すデータを出力する1つもしくは複数の加速度計(慣性測定ユニットもしくは「IMU」とも呼ばれる)、HMD112の場所を示すデータを出力するGPSセンサ、さまざまなオブジェクトからのHMD112の距離を示すデータを出力するレーダーもしくはソナー、または物理環境内のHMD112もしくはその他のオブジェクトの場所もしくは向きの表示を提供するその他のセンサなど、1つまたは複数のモーションセンサ206を含む。HMD112は、HMD112のユーザの現実世界の3D物理環境における1つまたは複数のポイントおよび/またはオブジェクトの奥行きを示す奥行きデータを収集する1つまたは複数の奥行きセンサ208を含むことが可能である。その上、HMD112は、物理環境を表す画像データを出力するように構成されている、ビデオカメラ、レーザースキャナ、ドップラーレーダースキャナ、奥行きスキャナ等など、統合されたインサイドアウト画像取り込みデバイス138Aおよび138B(総称して、「インサイドアウト画像取り込みデバイス138」)を含むことが可能である。HMD112は、内部制御ユニット210を含み、内部制御ユニット210は、内部電源と、1つまたは複数のプロセッサを有する1つまたは複数のプリント回路基板と、メモリと、感知されたデータを処理してディスプレイ203上に人工現実コンテンツを提示するためのプログラム可能な動作を実行するための動作環境を提供するためのハードウェアとを含むことが可能である。
図2Aにおいて示されている例と同様に、制御ユニット210は、可変焦点ディスプレイ203によって提示される人工現実コンテンツを生成することが可能である。制御ユニット210は、HMD112のユーザの被写界深度の外側にある人工現実コンテンツの1つまたは複数の部分をぼかすことにより、ディスプレイ203によって提示される人工現実コンテンツを生成することが可能である。3Dメッシュは、HMD112の位置に対する、人工現実コンテンツに含まれているそれぞれのオブジェクトの奥行きを示すことが可能である。この方法においては、人工現実コンテンツを生成するために、制御ユニット210は、人工現実コンテンツにおけるオブジェクトを、3Dメッシュによって示されるそのオブジェクトの奥行きがユーザの被写界深度内にあるかどうかに基づいて、ぼかすこと、またはぼかさないことが可能である。制御ユニット210は、アイトラッキングカメラ140によって収集された画像データに基づいてユーザの被写界深度を特定することが可能である。
図3は、本開示の1つまたは複数の技術による、図1A、図1Bのマルチデバイス人工現実システム10、20のコンソール106、HMD112、および周辺デバイス136の例示的な実施態様を示すブロック図である。図3の例においては、コンソール106は、HMD112の可変焦点ディスプレイ203の焦点距離を設定して、HMD112によって表示される人工現実コンテンツについてのユーザの知覚に影響を与える。追加として、または代替として、コンソール106は、HMD112のユーザがユーザの焦点(たとえば、焦点距離および/または被写界深度)に基づいて現実世界の物理環境を知覚することになる方法を模倣するために、HMD112によって表示される人工現実コンテンツの部分をぼかすことが可能である。
この例においては、HMD112は、1つまたは複数のプロセッサ302およびメモリ304を含み、これらは、いくつかの例においては、オペレーティングシステム305を実行するためのコンピュータプラットフォームを提供し、オペレーティングシステム305は、たとえば、埋め込まれたリアルタイムマルチタスクオペレーティングシステム、またはその他のタイプのオペレーティングシステムであることが可能である。次いでオペレーティングシステム305は、アプリケーションエンジン340を含む1つまたは複数のソフトウェアコンポーネント307を実行するためのマルチタスク動作環境を提供する。図2Aおよび図2Bの例に関して論じられているように、プロセッサ302は、可変焦点ディスプレイ203、モーションセンサ206、奥行きセンサ208、インサイドアウト画像取り込みデバイス138、パススルー画像取り込みデバイス139、およびアイトラッキングカメラ140に結合されている。いくつかの例においては、プロセッサ302およびメモリ304は、別々の、個別のコンポーネントであることが可能である。その他の例においては、メモリ304は、単一の集積回路内でプロセッサ302と併置されているオンチップメモリであることが可能である。
一般に、コンソール106は、HMD112の可変焦点ディスプレイ203の焦点距離を設定するために、かつ/またはHMD112によって表示するための人工現実コンテンツを生成するために、カメラ102(図1B)、インサイドアウト画像取り込みデバイス138、パススルー画像取り込みデバイス139、およびアイトラッキングカメラ140のうちのいずれか1つまたは複数から受信された画像および追跡情報を処理するコンピューティングデバイスである。可変焦点ディスプレイ203は、モータ306に接続されることが可能であり、その場合、モータ306は、可変焦点ディスプレイ203の焦点距離を設定するために可変焦点ディスプレイ203を移動するように構成されている。いくつかの例においては、コンソール106は、ワークステーション、デスクトップコンピュータ、ラップトップ、またはゲーミングシステムなど、単一のコンピューティングデバイスである。いくつかの例においては、プロセッサ312および/またはメモリ314など、コンソール106の少なくとも一部分は、クラウドコンピューティングシステム、データセンター全体にわたって、または、インターネット、別のパブリックもしくはプライベート通信ネットワーク、たとえば、ブロードバンド、セルラー、Wi-Fi、および/もしくはコンピューティングシステム、サーバ、およびコンピューティングデバイスの間においてデータを伝送するためのその他のタイプの通信ネットワークなど、ネットワーク全体にわたって分散されることが可能である。
図3の例においては、コンソール106は、1つまたは複数のプロセッサ312およびメモリ314を含み、これらは、いくつかの例においては、オペレーティングシステム316を実行するためのコンピュータプラットフォームを提供し、オペレーティングシステム316は、たとえば、埋め込まれたリアルタイムマルチタスクオペレーティングシステム、またはその他のタイプのオペレーティングシステムであることが可能である。次いでオペレーティングシステム316は、1つまたは複数のソフトウェアアプリケーション317を実行するためのマルチタスク動作環境を提供する。プロセッサ312は、1つまたは複数のI/Oインターフェース315に結合されており、I/Oインターフェース315は、キーボード、ゲームコントローラ、ディスプレイデバイス、画像取り込みデバイス、HMD、周辺デバイス等など、外部デバイスと通信するための1つまたは複数のI/Oインターフェースを提供する。その上、1つまたは複数のI/Oインターフェース315は、ネットワーク104など、ネットワークと通信するための1つまたは複数の有線またはワイヤレスのネットワークインターフェースコントローラ(NIC)を含むことが可能である。
コンソール106のソフトウェアアプリケーション317は、全体的な人工現実アプリケーションを提供するように動作する。この例においては、ソフトウェアアプリケーション317は、アプリケーションエンジン320、レンダリングエンジン322、奥行きエンジン324、およびポーズトラッカー326を含む。
一般に、アプリケーションエンジン320は、人工現実アプリケーション、たとえば、電話会議アプリケーション、ゲーミングアプリケーション、ナビゲーションアプリケーション、教育アプリケーション、トレーニングまたはシミュレーションアプリケーションなどを提供および提示するための機能性を含む。アプリケーションエンジン320は、たとえば、コンソール106上で人工現実アプリケーションを実施するための1つまたは複数のソフトウェアパッケージ、ソフトウェアライブラリ、ハードウェアドライバ、および/またはアプリケーションプログラムインターフェース(API)を含むことが可能である。アプリケーションエンジン320による制御に応答して、レンダリングエンジン322は、HMD112のアプリケーションエンジン340によってユーザに対して表示するための3D人工現実コンテンツを生成することが可能である。
いくつかの例においては、アプリケーションエンジン320およびレンダリングエンジン322は、ポーズトラッカー326によって特定される、基準枠、典型的にはHMD112の視界に関する現在のポーズ情報に従って、ユーザ110に対して表示するための人工現実コンテンツを構築することが可能である。現在の視界に基づいて、レンダリングエンジン322は、3Dの人工現実コンテンツを構築し、その人工現実コンテンツは、いくつかのケースにおいては、少なくとも部分的に、ユーザ110の現実世界の3D環境上にオーバーレイされることが可能である。このプロセス中に、ポーズトラッカー326は、動き情報およびユーザコマンドなど、HMD112から受信された感知されたデータ、ならびに、いくつかの例においては、外部カメラなど、任意の外部センサ90(図1A、図1B)からのデータ上で動作して、ユーザ110による動きおよび/またはユーザ110に関する特徴追跡情報など、現実世界の環境内の3D情報を取り込む。感知されたデータに基づいて、ポーズトラッカー326は、HMD112の基準枠に関する現在のポーズを特定し、その現在のポーズに従って、ユーザ110に対して表示するために1つまたは複数のI/Oインターフェース315を介してHMD112へ通信するための人工現実コンテンツを構築する。
ポーズトラッカー326は、周辺デバイス136に関する現在のポーズを特定し、その現在のポーズに従って、いずれかのレンダリングされた仮想コンテンツに関連付けられている特定の機能性(たとえば、仮想コンテンツアイテムを配置すること、仮想コンテンツアイテムを操作すること、1つまたは複数の仮想マーキングを生成してレンダリングすること、レーザーポインタを生成してレンダリングすること)をトリガーすることが可能である。いくつかの例においては、ポーズトラッカー326は、仮想表面(たとえば、仮想ピンボード)に対応する物理的な位置にHMD112が近接しているかどうかを検知して、仮想コンテンツのレンダリングをトリガーする。
レンダリングエンジン322は、周辺デバイス136に関する現在のポーズに基づいて、人工現実環境における別のオブジェクトの位置に対してロックされることが可能である人工現実環境における仮想コンテンツをレンダリングするように構成されている。レンダリングエンジン322は、仮想コンテンツを、オブジェクトの位置に一致するようにスケーリングすること、回転させること、およびその他の形で変形することが可能であり、それによって仮想コンテンツは、人工現実環境において、オブジェクト上にまたはオブジェクトの近くにオーバーレイされているように見える。いくつかの例においては、レンダリングエンジン322は、画像取り込みデバイス138、139によって取り込まれた画像データに基づいて生成されたポーズデータおよび/または焦点データに基づいて、1つまたは複数の仮想レンダリングカメラをスライド、平行移動、またはその他の形で移動することが可能である。
いくつかの例においては、奥行きエンジン324は、現実世界の画像データ、および現実世界の画像データに関連付けられている奥行きデータに基づいて、HMD112のユーザ110の物理環境の3Dシーンを生成するように構成されている。現実世界の画像データは、HMD112のパススルー画像取り込みデバイス139によって取り込まれることが可能であり、そのパススルー画像取り込みデバイス139は、パススルーカメラに相当する。いくつかの例においては、奥行きデータは、HMD112の奥行きセンサ208によって取り込まれることが可能である。いくつかの例においては、奥行きデータは、HMD112のインサイドアウト画像取り込みデバイス138によって取り込まれることが可能であり、そのインサイドアウト画像取り込みデバイス138は、インサイドアウトカメラに相当する。奥行きエンジン324は、ユーザ110の焦点に基づいてHMDの可変焦点ディスプレイ上に表示するための物理環境の3Dシーンに対するオーバーレイとしての人工現実コンテンツ(たとえば、人工現実コンテンツ122)を生成することが可能である。いくつかの例においては、奥行きエンジン324は、アイトラッキングカメラ140によって取り込まれた画像データに基づいてユーザ110の焦点を特定することが可能である。
コンソール106は、この仮想ユーザインターフェースおよびその他の人工現実コンテンツを、通信チャネルを介して、HMD112において表示するためにHMD112へ出力することが可能である。レンダリングエンジン322は、周辺デバイス136に関するポーズ情報を受信して、ユーザインターフェースの位置およびポーズを、プレゼンスセンシティブ表面220のうちの1つの位置およびポーズなど、周辺デバイス136の位置およびポーズと一致するように継続的に更新する。
図3において示されている例においては、周辺デバイス136は、1つまたは複数のプロセッサ346およびメモリ344を含み、これらは、いくつかの例においては、オペレーティングシステム342を実行するためのコンピュータプラットフォームを提供し、オペレーティングシステム342は、たとえば、埋め込まれたリアルタイムマルチタスクオペレーティングシステム、またはその他のタイプのオペレーティングシステムであることが可能である。次いでオペレーティングシステム342は、1つまたは複数のソフトウェアコンポーネントを実行するためのマルチタスク動作環境を提供する。いくつかの例においては、周辺デバイス136は、1つまたは複数のプレゼンスセンシティブ表面220(たとえば、タッチおよび/またはホバリング入力を検知するために、容量性、導電性、抵抗性、音響、および/またはその他のテクノロジーを使用する1つまたは複数の表面)を含む。1つまたは複数の態様においては、周辺デバイス136は、プレゼンスセンシティブ表面220におけるタッチおよび/またはホバリング入力を検知し、その入力を(たとえば、プロセッサ346において)処理し、そのタッチおよび/またはホバリング入力を通信し、その入力に関する情報(その入力に関する場所情報を含む)をコンソール106および/またはHMD112へ通信するように構成されることが可能である。図2Aの例を参照しながら論じられているように、プレゼンスセンシティブ表面220は、タッチスクリーン(たとえば、容量性タッチスクリーン、抵抗性タッチスクリーン、弾性表面波(SAW)タッチスクリーン、赤外線タッチスクリーン、光学イメージングタッチスクリーン、音響パルス認識タッチスクリーン、または任意のその他のタッチスクリーン)を含むことが可能である。
図3においてさらに示されているように、この例においては、周辺デバイス136はさらに、周辺デバイス136の現在の加速度を示すデータを出力する1つもしくは複数の加速度計(IMUとも呼ばれる)、周辺デバイスの場所もしくは位置を示すデータを出力するGPSセンサ、さまざまなオブジェクトからの(たとえば、壁もしくはその他の表面からの)周辺デバイス136の距離を示すデータを出力するレーダーもしくはソナー、または物理環境内の周辺デバイスもしくはその他のオブジェクトの場所、位置、および/もしくは向きの表示を提供するその他のセンサなど、1つまたは複数のモーションセンサ348を含む。いくつかの例においては、プロセッサ346は、プレゼンスセンシティブ表面220およびモーションセンサ246に結合されている。いくつかの例においては、プロセッサ346およびメモリ344は、別々の、個別のコンポーネントであることが可能である。その他の例においては、メモリ344は、単一の集積回路内でプロセッサ346と併置されているオンチップメモリであることが可能である。1つまたは複数の態様においては、周辺デバイス136は、HMDと共存することが可能であり、いくつかの例においては、仮想環境においてHMDのための補助入力/出力デバイスとして動作することが可能である。いくつかの例においては、周辺デバイス136は、HMDの機能のうちのいくつかがオフロードされる先の人工現実コプロセッシングデバイスとして動作することが可能である。1つまたは複数の態様においては、周辺デバイス136は、スマートフォン、タブレット、またはその他のハンドヘルドデバイスであることが可能である。
いくつかの例においては、プロセッサ302、312、346のそれぞれは、マルチコアプロセッサ、コントローラ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または同等のディスクリートもしくは集積論理回路のうちの任意の1つまたは複数を含むことが可能である。メモリ304、314、344は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、プログラム可能読み取り専用メモリ(PROM)、消去可能プログラム可能読み取り専用メモリ(EPROM)、電子消去可能プログラム可能読み取り専用メモリ(EEPROM)、およびフラッシュメモリなど、データおよび実行可能なソフトウェア命令を格納するための任意の形態のメモリを含むことが可能である。
奥行きエンジン324は、パススルー画像取り込みデバイス139によって取り込まれた現実世界の画像データ、およびアイトラッキングカメラ140によって取り込まれた焦点データに基づいて、HMD112によって表示するための人工現実コンテンツを生成することが可能である。たとえば、奥行きエンジン324は、アイトラッキングカメラ140によって取り込まれた焦点データに基づいて、ユーザ110の焦点およびユーザ110の被写界深度のうちの一方または両方を特定するように構成されることが可能である。焦点データは、いくつかの例においては、基準ポイントの第1のセットに関するユーザの第1の瞳孔の位置を示す画像データ、および基準ポイントの第2のセットに関するユーザの第2の瞳孔の位置を示す画像データを表すことが可能である。奥行きエンジン324は、基準ポイントの第1のセットに関する第1の瞳孔の位置、および基準ポイントの第2のセットに関する第2の瞳孔の位置に基づいてユーザ110の焦点および/または被写界深度を特定することが可能である。
いくつかの例においては、奥行きエンジン324は、HMD112の奥行きセンサ208および/またはインサイドアウト画像取り込みデバイス138によって収集された奥行きデータに基づいて3Dメッシュを生成することが可能である。奥行きエンジン324は、パススルー画像取り込みデバイス139によって収集された現実世界の画像データの少なくとも一部分を3Dメッシュ上にオーバーレイすることによって人工現実コンテンツを生成することが可能である。3Dメッシュおよびアイトラッキングカメラ140は、奥行きエンジン324が可変焦点体験をHMD112のユーザに提供することを可能にすることができる。たとえば、奥行きエンジン324は、ユーザの検知された焦点に一致するように、ほぼリアルタイムでHMD112の可変焦点ディスプレイ203の焦点距離を設定することが可能である。追加として、または代替として、奥行きエンジン324は、ユーザの検知された被写界深度の外側にある、HMD112によって表示される人工現実コンテンツの部分をぼかすことが可能である。
図4は、本開示の1つまたは複数の技術による、図1A、図1Bの人工現実システムのHMD112によって仮想環境が生成される例を示すブロック図である。
この例においては、図3と同様に、HMD112は、1つまたは複数のプロセッサ302およびメモリ304を含み、これらは、いくつかの例においては、オペレーティングシステム305を実行するためのコンピュータプラットフォームを提供し、オペレーティングシステム305は、たとえば、埋め込まれたリアルタイムマルチタスクオペレーティングシステム、またはその他のタイプのオペレーティングシステムであることが可能である。次いでオペレーティングシステム305は、1つまたは複数のソフトウェアコンポーネント417を実行するためのマルチタスク動作環境を提供する。その上、プロセッサ302は、可変焦点ディスプレイ203、モーションセンサ206、インサイドアウト画像取り込みデバイス138、パススルー画像取り込みデバイス139、およびアイトラッキングカメラ140に結合されている。図4の例においては、ソフトウェアコンポーネント417は、全体的な人工現実アプリケーションを提供するように動作する。この例においては、ソフトウェアアプリケーション417は、アプリケーションエンジン440、レンダリングエンジン422、奥行きエンジン424、およびポーズトラッカー426を含む。さまざまな例において、ソフトウェアコンポーネント417は、図3のコンソール106の対応するコンポーネント(たとえば、それぞれ、アプリケーションエンジン320、レンダリングエンジン322、奥行きエンジン324、およびポーズトラッカー326)と同様に動作して、HMD112の可変焦点ディスプレイ203の焦点距離を設定するか、またはHMD112によって提供される人工現実コンテンツについてのユーザの知覚にその他の形で影響を与える。いくつかの例においては、HMD112は、周辺デバイス136などの1つまたは複数のその他のデバイスと通信することが可能である。
図5は、本開示の1つまたは複数の技術による、HMD560の例示的なコンポーネントを示す概念図である。HMD560は、図1A~図1B、図2A~図2B、および図3からのHMD112、112A、112B、および112Cのいずれかと実質的に同様に動作することが可能である。HMD560は、図5においては、HMD560の内部コンポーネントを例示しやすくするためにヘッドセットフォームファクタを有するものとして示されている。その他の例においては、HMD560は、メガネフォームファクタを含む別のフォームファクタを含むことが可能である。
HMD560は、接眼レンズ562A、562Bを含み、それらの接眼レンズにおいては、右接眼レンズ562Aは、ユーザの右目に画像を提示するように構成されており、左接眼レンズ562Bは、ユーザの左目に画像を提示するように構成されている。本明細書においては、「接眼レンズ」という用語は、許容可能な品質の画像がユーザの目に提示されることが可能である3次元の幾何学的なエリアを意味する。図5の例においては、接眼レンズ562A、562Bのそれぞれは、可変焦点ディスプレイ564A、564Bによって生成された画像を、ユーザがHMD560を装着しているときにユーザの目が配置されている接眼レンズ562A、562Bへ伝達するための撮像コンポーネント566A、566Bに結合されている可変焦点ディスプレイ564A、564Bを含む。撮像コンポーネント566A、566Bのそれぞれは、レンズ、ミラー、または、屈折(すなわち、集束)力を有する任意のその他の要素であることが可能である。撮像コンポーネント566A、566Bのそれぞれは、調節可能なまたは切り替え可能な屈折力を有する可変焦点光学素子を含むことが可能である。いくつかの例においては、可変焦点ディスプレイ564A、564Bは、撮像コンポーネント566A、566Bに対して方向590に可変焦点ディスプレイ564A、564Bを移動させるように構成されている1つまたは複数の電気モータに取り付けられることが可能である。たとえば、1つまたは複数の電気モータは、HMD560の焦点距離がユーザの検知された焦点と一致するように可変焦点ディスプレイ564A、564Bを移動することが可能である。いくつかの例においては、接眼レンズ562A、562Bは「アイカップ」と呼ばれる場合がある。
いくつかの例においては、HMD560は、ユーザの両方の目に順次または同時に画像を提供するための単一の可変焦点ディスプレイを含むことが可能である。その他の例においては、HMD560は、撮像コンポーネント566A、566Bを含まないことが可能であり、その代わりに、ミニチュアプロジェクタによって生成された角度領域における画像を直接ユーザの目へ搬送するために使用される瞳孔複製導波路を含むことが可能である。
接眼レンズ562A、562Bのそれぞれは、リアルタイムでユーザの目の位置および向きを追跡するためのアイトラッキングシステムを含むことが可能である。アイトラッキングシステムは、典型的には赤外光などの不可視光を用いて、ユーザの目を照らすための照明器567A、567Bのアレイと、可変焦点ディスプレイ564A、564Bからの可視光を透過しながらユーザの目およびユーザの顔の目領域によって散乱された赤外光を反射するためのホットミラー565A、565Bとを含むことが可能である。アイトラッキングシステムはまた、目の位置および向きを特定するために、瞳孔と、ユーザの目からの照明器567A、567Bの反射、いわゆる「グリント」とを伴うユーザの目の画像を検知するためのアイトラッキングカメラ584A、584Bを含む。本明細書においては、「目領域」という用語は、目を含むユーザの顔のエリアを示している。目領域は、角膜、虹彩、および瞳孔を有する目そのものを含む。HMD560は、ユーザを取り巻く物理環境を表す画像データを取り込むためのインサイドアウトカメラ582A、582Bを含む。いくつかの例においては、HMD560は、ホットミラー565A、565Bを含まないことが可能であり、ホットミラー565A、565Bなしでユーザの顔の目領域を取り込むように構成されているアイトラッキングカメラを含むことが可能である。
HMD560は、可変焦点ディスプレイ564A、564B、撮像コンポーネント566A、566B、照明器567A、567B、アイトラッキングカメラ584A、584B、およびインサイドアウトカメラ582A、582Bを含む、HMD560のその他のコンポーネントに結合されている制御ユニット580を含む。制御ユニット580は、図2からのHMD112の内部制御ユニット210と実質的に同様に動作することが可能である。たとえば、HMD560の動作中に、制御ユニット580は、可変焦点ディスプレイ564A、564Bによって表示されることになる画像を生成することが可能であり、照明器567A、567Bを励起し、対応するアイトラッキングカメラ584A、584Bから目領域の画像を入手し、ユーザの視線方向、両目の瞳孔位置からのユーザの両目の輻輳角、および入手された画像におけるグリント位置のうちの1つまたは複数を特定することが可能である。いくつかの例においては、アイトラッキングカメラ584A、584Bによって取り込まれた目領域の画像は、ユーザの被写界深度を示す情報を含むことが可能である。いくつかの例においては、輻輳角が特定されると、制御ユニット580は、輻輳/調節の競合、すなわち、目の輻輳角と目の集束距離との間における不一致を軽減するように撮像コンポーネント566A、566Bの焦点距離を調整することが可能である。いくつかの例においては、ユーザの被写界深度に基づいて人工現実コンテンツの焦点が設定されることが可能である。
いくつかの例においては、HMD580は、パススルーカメラ588の視野内にある現実世界の3D物理環境におけるオブジェクトを表す画像データを取り込むように構成されているパススルーカメラ588を含む。いくつかの例においては、奥行きエンジンは、物理環境の3Dシーンを作成するために、奥行きデータを使用して生成された3Dメッシュ上に、パススルーカメラ588によって取り込まれた画像データのうちの少なくともいくつかをオーバーレイすることが可能である。HMD360は、可変焦点ディスプレイ564A、564B上でユーザに対して物理環境の3Dシーンを表示することが可能である。
図6Aは、本開示の1つまたは複数の技術による、環境602内の焦点距離610および第1の被写界深度620を示す概念図である。観察者604は環境602を見ることが可能である。焦点距離610は、観察者604の目の位置612と、観察者604の焦点614との間における距離を表すことが可能である。加えて、観察者604の第1の被写界深度620は、第1の近い被写界深度ポイント622と、第1の遠い被写界深度ポイント624との間における距離を表すことが可能である。焦点514は、第1の被写界深度620内にある。図6Aにおいて見られるように、第1の被写界深度620の内側のオブジェクトは、焦点が合っている(たとえば、鮮明である)ように見え、第1の被写界深度620の外側のオブジェクトは、焦点が合っていない(たとえば、ぼやけている)ように見える。いくつかの例においては、観察者604は、環境602内で図1A~図4の例示的なHMD(たとえば、HMD112)を使用することが可能であり、その例示的なHMDは、環境602の少なくともいくらかを仮想現実コンテンツとして観察者604に提示することが可能である。観察者604は、環境602を表す仮想現実コンテンツを、観察者604が現実の環境602を知覚することになるのと同様の奥行き特性を有するものとして知覚することが可能である。
図6Bは、本開示の1つまたは複数の技術による、環境602内の図6Aの焦点距離610および第2の被写界深度640を示す概念図である。観察者604の第2の被写界深度640は、第2の近い被写界深度ポイント642と、第2の遠い被写界深度ポイント644との間における距離を表すことが可能である。焦点614は、第2の被写界深度640内にある。図6Bにおいて見られるように、第2の被写界深度640の内側のオブジェクトは、焦点が合っている(たとえば、鮮明である)ように見え、第2の被写界深度640の外側のオブジェクトは、焦点が合っていない(たとえば、ぼやけている)ように見える。第2の被写界深度640は、図6Aの第1の被写界深度620よりも大きい(たとえば、長い)。したがって、観察者604が第2の被写界深度640を使用して環境602を見る場合には、観察者604が第1の被写界深度620を使用して環境602を見る場合よりも、環境602のさらに多くのオブジェクトに焦点が合う。いくつかの例においては、観察者604は、環境602内で図1A~図4の例示的なHMD(たとえば、HMD112)を使用することが可能であり、その例示的なHMDは、環境602の少なくともいくらかを仮想現実コンテンツとして観察者604に提示することが可能である。観察者604は、環境602を表す仮想現実コンテンツを、観察者604が現実の環境602を知覚することになるのと同様の奥行き特性を有するものとして知覚することが可能である。
1つまたは複数のプロセッサによって実行される奥行きエンジン(たとえば、図3の奥行きエンジン324および/または図4の奥行きエンジン424)は、観察者604の検知された焦点に基づいてHMD112の可変焦点ディスプレイの焦点を設定することが可能である。たとえば、奥行きエンジンは、観察者604の検知された焦点に一致するようにHMD112の可変焦点ディスプレイの焦点距離を設定することが可能である。追加として、または代替として、奥行きエンジンは、ユーザがHMD112なしで環境602を知覚することになる方法を模倣するために、観察者604の検知された被写界深度に基づいて環境602内のオブジェクトをぼかすこと、またはぼかさないことが可能である。
図7は、本開示の1つまたは複数の技術による、人工現実コンテンツを提供するための例示的な動作を示す流れ図である。図7は、コンソール106、HMD112、および周辺デバイス136に関して記述されている。しかしながら、図7の技術は、コンソール106、HMD112、および周辺デバイス136のさまざまなコンポーネントによって、または追加のもしくは代替のデバイスによって実行されることが可能である。
第1の画像取り込みデバイスが、ユーザ110の物理環境を表す現実世界の画像データを取り込む(702)。たとえば、第1の画像取り込みデバイスは、現実世界の画像データを取り込むパススルーカメラに相当するHMD110のパススルー画像取り込みデバイス139を含むことが可能である。追加として、または代替として、第1の画像取り込みデバイスは、HMD112のその他の画像取り込みデバイス、および/またはHMD112によって含まれていないその他の画像取り込みデバイスを含むことが可能である。いくつかの場合においては、物理環境を表す現実世界の画像データは、パススルー画像取り込みデバイス139の視野130内にある。ユーザ(たとえば、ユーザ110)は、HMD112を装着することが可能であるので、パススルー画像取り込みデバイス139の視野は、ユーザ110がどこを見ているかに基づいて変わる可能性がある。
HMD112の第2の画像取り込みデバイスのセットが、ユーザ110の視線の焦点を示す画像データを取り込む(704)。いくつかの例においては、第2の画像取り込みデバイスのセットは、アイトラッキングカメラ140を含む。たとえば、アイトラッキングカメラ140Aは、基準ポイントの第1のセットに関するユーザ110の第1の瞳孔(たとえば、左瞳孔)の位置を示す画像データを取り込むことが可能であり、アイトラッキングカメラ140Bは、基準ポイントの第2のセットに関するユーザ110の第2の瞳孔(たとえば、右瞳孔)の位置を示す画像データを取り込むことが可能である。いくつかの例においては、基準ポイントの第1のセットに関する第1の瞳孔の位置、および基準ポイントの第2のセットに関する第2の瞳孔の位置は、ユーザ110の焦点およびユーザ110の被写界深度のうちの一方または両方を示すことが可能であるので、アイトラッキングカメラ140によって取り込まれた画像データは、焦点データに相当することが可能である。
HMD112は、第2の画像取り込みデバイスのセットによって取り込まれた画像データによって示されているユーザ110の焦点に基づいてHMD112の可変焦点ディスプレイ203の焦点距離を修正することが可能である(706)。たとえば、1つまたは複数のプロセッサによって実行される奥行きエンジン(たとえば、図3の奥行きエンジン324および/または図4の奥行きエンジン424)は、第2の画像取り込みデバイスのセットによって取り込まれた画像データに基づいてユーザ110の焦点を特定することが可能である。続いて、奥行きエンジンは、ユーザ110の焦点と一致するように可変焦点ディスプレイ203の焦点距離を設定するために、モータ(たとえば、電気モータ)に可変焦点ディスプレイ203を移動させることが可能である。
奥行きエンジンは、第1の画像取り込みデバイスによって取り込まれた現実世界の画像データ、および現実世界の画像データに関連付けられている奥行きデータに基づいて、ユーザ110の物理環境の3Dシーンを生成する(708)。奥行きデータは、いくつかの例においては、HMD112のインサイドアウト画像取り込みデバイス138および/または奥行きセンサ308を使用して取り込まれることが可能である。奥行きエンジンは、奥行きデータを使用してユーザ110の物理環境の3Dメッシュを生成することが可能である。3Dメッシュは、データポイントのセットを含むことが可能であり、その場合、データポイントのセットのそれぞれのデータポイントの、データポイントのセットのそれぞれの他のデータポイントに対する場所が知られている。たとえば、データポイントのセットは、ユーザ110の物理環境の少なくとも一部分のトポグラフィーを表すことが可能である。たとえば、3Dメッシュは、ユーザ110の物理環境内の1つまたは複数の物理オブジェクトおよび/またはポイント(たとえば、奥行きデータにおいて表されている1つまたは複数のポイントおよび/またはオブジェクトのうちの少なくともいくつか)の場所のデジタル表示を含む。奥行きエンジンは、3Dシーンを生成するために、現実世界の画像データのうちの少なくとも一部分を3Dメッシュ上にオーバーレイすることが可能である。
奥行きエンジンは、ユーザ110の検知された焦点に基づいてHMD112の可変焦点ディスプレイ203上に表示するための3Dシーンに対するオーバーレイとしての人工現実コンテンツ122を生成する(710)。3Dメッシュは、1つまたは複数のオブジェクトおよび/またはポイントの奥行きを表すデータを含むことが可能であり、現実世界の画像データは、それらの1つまたは複数のオブジェクトおよび/またはポイントのうちの少なくともいくつかを表す画像データを含むので、人工現実コンテンツは、そのようなオブジェクトおよび/またはポイントの外観および奥行きを反映するデータを含むことが可能である。奥行きエンジンは、リアルな可変焦点のパススルー体験をユーザ110に提供するために、ほぼリアルタイムで人工現実コンテンツ122を生成して可変焦点ディスプレイ203の焦点距離を修正することが可能である。
本明細書においてさまざまな例を介して記述されているように、本開示の技術は、人工現実システムを含むこと、または人工現実システムとともに実施されることが可能である。記述されているように、人工現実は、ユーザへの提示の前に何らかの様式で調整された現実の一形態であり、これは、たとえば、仮想現実(VR)、拡張現実、複合現実(MR)、ハイブリッド現実、またはそれらの何らかの組合せおよび/もしくは派生物を含むことが可能である。人工現実コンテンツは、完全に生成されたコンテンツ、または取り込まれたコンテンツ(たとえば、現実世界の写真)と組み合わされた生成されたコンテンツを含むことが可能である。人工現実コンテンツは、ビデオ、オーディオ、触覚フィードバック、またはそれらの何らかの組合せを含むことが可能であり、それらのいずれも、単一のチャネルで、または複数のチャネル(視聴者に対する3次元効果を生み出すステレオビデオなど)で提示されることが可能である。加えて、いくつかの実施形態においては、人工現実は、たとえば、人工現実におけるコンテンツを作成するために使用される、かつ/または人工現実において使用される(たとえば、人工現実においてアクティビティーを実行する)、アプリケーション、製品、付属物、サービス、またはそれらの何らかの組合せに関連付けられることが可能である。人工現実コンテンツを提供する人工現実システムは、ホストコンピュータシステムに接続されているHMD、スタンドアロンのHMD、モバイルデバイスもしくはコンピューティングシステム、または1人もしくは複数の視聴者に人工現実コンテンツを提供することが可能な任意のその他のハードウェアプラットフォームを含む、さまざまなプラットフォーム上で実施されることが可能である。
本開示において記述されている技術は、少なくとも部分的に、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実施されることが可能である。たとえば、記述されている技術のさまざまな態様は、1つまたは複数のマイクロプロセッサ、DSP、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または任意のその他の同等の統合ロジック回路もしくはディスクリートロジック回路、ならびにそのようなコンポーネントの任意の組合せを含む1つまたは複数のプロセッサ内に実装されることが可能である。「プロセッサ」または「処理回路」という用語は、一般には、単独での、もしくはその他の論理回路と組み合わせた前述の論理回路のうちのいずれか、または任意のその他の同等の回路を指すことが可能である。ハードウェアを含む制御ユニットが、本開示の技術のうちの1つまたは複数を実行することも可能である。
そのようなハードウェア、ソフトウェア、およびファームウェアは、本開示において記述されているさまざまな動作および機能をサポートするために、同じデバイス内に、または別々のデバイス内に実装されることが可能である。加えて、記述されているユニット、モジュール、またはコンポーネントのいずれも、個別であるが相互運用可能なロジックデバイスとして一緒にまたは別々に実装されることが可能である。モジュールまたはユニットとしてのさまざまな特徴の描写は、さまざまな機能上の側面を強調することを意図されており、そのようなモジュールまたはユニットが別々のハードウェアコンポーネントまたはソフトウェアコンポーネントによって実現されなければならないということを必ずしも意味するとは限らない。むしろ、1つまたは複数のモジュールまたはユニットに関連付けられている機能性は、別々のハードウェアコンポーネントもしくはソフトウェアコンポーネントによって実行されること、または共通のもしくは別々のハードウェアコンポーネントもしくはソフトウェアコンポーネント内に統合されることが可能である。
本開示において記述されている技術は、命令を含むコンピュータ可読媒体(コンピュータ可読記憶媒体など)において具体化またはエンコードされることも可能である。コンピュータ可読記憶媒体において埋め込まれているかまたはエンコードされている命令は、たとえば、それらの命令が実行されるときに、プログラマブルプロセッサ、またはその他のプロセッサに本方法を実行させることが可能である。コンピュータ可読記憶媒体は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、プログラム可能読み取り専用メモリ(PROM)、消去可能プログラム可能読み取り専用メモリ(EPROM)、電子消去可能プログラム可能読み取り専用メモリ(EEPROM)、フラッシュメモリ、ハードディスク、CD-ROM、フロッピーディスク、カセット、磁気メディア、光メディア、またはその他のコンピュータ可読媒体を含むことが可能である。
Claims (15)
- ユーザの物理環境を表す現実世界の画像データを取り込むように構成されている第1の画像取り込みデバイスと、
人工現実コンテンツを出力するように構成されているヘッドマウントディスプレイ(HMD)であって、
前記ユーザの視線の焦点を示す画像データを取り込むように構成されている第2の画像取り込みデバイスのセット、および
前記ユーザの前記焦点に基づいて修正可能である焦点距離を有する可変焦点ディスプレイを含むHMDと、
奥行きエンジンであって、
前記現実世界の画像データ、および前記現実世界の画像データに関連付けられている奥行きデータに基づいて、前記ユーザの前記物理環境の3次元(3D)シーンを生成すること、ならびに
前記ユーザの前記焦点に基づいて前記HMDの前記可変焦点ディスプレイ上に表示するための前記物理環境の前記3Dシーンに対するオーバーレイとしての人工現実コンテンツを生成すること
を行うように構成されている奥行きエンジンと
を含む人工現実システム。 - 前記第1の画像取り込みデバイスが、カラーでかつ高い解像度で前記現実世界の画像データを取り込むように構成されている少なくとも1つのパススルーカメラを含む、請求項1に記載のシステム。
- 前記HMDが、前記奥行きエンジンを実行するように構成されている1つまたは複数のプロセッサを含み、前記1つまたは複数のプロセッサが、前記少なくとも1つのパススルーカメラに近接して配置されている、請求項2に記載のシステム。
- 前記HMDがさらに、前記奥行きデータを生成するように構成されている奥行きセンサを含み、前記物理環境の前記3Dシーンを生成するために、前記奥行きエンジンが、
前記奥行きデータを使用して、現実世界のシーンの3Dメッシュを生成することと、
前記現実世界の画像データの少なくとも一部分を前記現実世界のシーンの前記3Dメッシュ上にオーバーレイすることとを行うように構成されている、請求項1から3のいずれか一項に記載のシステム。 - 前記現実世界の画像データが、現実世界の画像データのストリームを表し、前記奥行きデータが、奥行きデータのストリームを表し、前記人工現実コンテンツを生成するために、前記奥行きエンジンがさらに、
現実世界の画像データの前記ストリーム、および奥行きデータの前記ストリームを使用して、前記現実世界のシーンの前記3Dメッシュに対する前記HMDの位置および向きに基づいて、ほぼリアルタイムで前記人工現実コンテンツを生成する
ように構成されている、請求項4に記載のシステム。 - 第2の画像取り込みデバイスの前記セットが、
基準ポイントの第1のセットに関する前記ユーザの第1の瞳孔の位置を含む画像データの第1のセットを取り込むように構成されている第1のアイトラッキングカメラと、
基準ポイントの第2のセットに関する前記ユーザの第2の瞳孔の位置を含む画像データの第2のセットを取り込むように構成されている第2のアイトラッキングカメラと
を含み、前記奥行きエンジンが、
基準ポイントの前記第1のセットに関する前記第1の瞳孔の前記位置、および基準ポイントの前記第2のセットに関する前記第2の瞳孔の前記位置に基づいて前記ユーザの前記焦点を特定するように構成されており、前記システムが、好ましくはさらに、
ある期間にわたる基準ポイントの前記第1のセットに関する前記第1の瞳孔の前記位置を追跡することと、
前記期間にわたる基準ポイントの前記第2のセットに関する前記第2の瞳孔の前記位置を追跡することと、
前記期間にわたる基準ポイントの前記第1のセットに関する前記第1の瞳孔の前記位置の動きに基づいて、基準ポイントの前記第1のセットに関する前記第1の瞳孔の前記位置の予想されるその後の動きを特定することと、
前記期間にわたる基準ポイントの前記第2のセットに関する前記第2の瞳孔の前記位置の動きに基づいて、基準ポイントの前記第2のセットに関する前記第2の瞳孔の前記位置の予想されるその後の動きを特定することと
を行うように構成されている視線トラッカーを含み、
前記奥行きエンジンがさらに、前記第1の瞳孔の前記位置の前記予想されるその後の動き、および前記第2の瞳孔の前記位置の前記予想されるその後の動きに基づいて、前記ユーザの予想されるその後の焦点を特定するように構成されている、請求項1から5のいずれか一項に記載のシステム。 - 前記奥行きエンジンがさらに、
前記ユーザの前記焦点に一致するように、ほぼリアルタイムで前記可変焦点ディスプレイに関する前記焦点距離を特定することと、
特定された前記焦点距離を実現するためにレンズに対して移動するように前記可変焦点ディスプレイに指示することと
を行うように構成されており、好ましくは前記HMDがさらに、前記レンズに対する前記可変焦点ディスプレイの位置を制御するように構成されているモータを含み、移動するように前記可変焦点ディスプレイに指示するために、前記奥行きエンジンが、
特定された前記焦点距離を実現するために前記レンズからある距離に前記可変焦点ディスプレイを配置するように前記モータを制御する
ように構成されている、請求項1から6のいずれか一項に記載のシステム。 - 前記画像データがさらに、前記ユーザの被写界深度を示し、前記人工現実コンテンツを生成するために、前記奥行きエンジンが、
前記ユーザの前記被写界深度の外側にある前記人工現実コンテンツの部分をぼかす
ように構成されている、請求項1から7のいずれか一項に記載のシステム。 - 第1の画像取り込みデバイスによって、ユーザの物理環境を表す現実世界の画像データを取り込むことと、
人工現実コンテンツを出力するように構成されているヘッドマウントディスプレイ(HMD)の第2の画像取り込みデバイスのセットによって、前記ユーザの視線の焦点を示す画像データを取り込むことと、
前記HMDの奥行きエンジンによって、前記ユーザの前記焦点に基づいて前記HMDの可変焦点ディスプレイの焦点距離を修正することと、
前記奥行きエンジンによって、ならびに前記現実世界の画像データ、および前記現実世界の画像データに関連付けられている奥行きデータに基づいて、前記ユーザの前記物理環境の3次元(3D)シーンを生成することと、
前記奥行きエンジンによって、前記ユーザの前記焦点に基づいて前記HMDの前記可変焦点ディスプレイ上に表示するための前記物理環境の前記3Dシーンに対するオーバーレイとしての人工現実コンテンツを生成することと
を含む方法。 - 前記第1の画像取り込みデバイスが、少なくとも1つのパススルーカメラを含み、前記方法がさらに、前記パススルーカメラを使用して、カラーでかつ高い解像度で前記現実世界の画像データを取り込むことを含み、好ましくはさらに、前記HMDの1つまたは複数のプロセッサを使用して、前記奥行きエンジンを実行することを含み、前記1つまたは複数のプロセッサが、前記少なくとも1つのパススルーカメラに近接して配置されている、請求項9に記載の方法。
- 奥行きセンサを使用して、前記奥行きデータを生成することをさらに含み、前記物理環境の前記3Dシーンを生成することが、
前記奥行きデータを使用して、現実世界のシーンの3Dメッシュを生成することと、
前記現実世界の画像データの少なくとも一部分を前記現実世界のシーンの前記3Dメッシュ上にオーバーレイすることと
を含み、好ましくは、前記現実世界の画像データが、現実世界の画像データのストリームを表し、前記奥行きデータが、奥行きデータのストリームを表し、前記人工現実コンテンツを生成することが、
現実世界の画像データの前記ストリーム、および奥行きデータの前記ストリームを使用して、前記現実世界のシーンの前記3Dメッシュに対する前記HMDの位置および向きに基づいて、ほぼリアルタイムで前記人工現実コンテンツを生成すること
を含む、請求項9または請求項10に記載の方法。 - 第2の画像取り込みデバイスの前記セットの第1のアイトラッキングカメラを使用して、基準ポイントの第1のセットに関する前記ユーザの第1の瞳孔の位置を含む画像データの第1のセットを取り込むことと、
第2の画像取り込みデバイスの前記セットの第2のアイトラッキングカメラを使用して、基準ポイントの第2のセットに関する前記ユーザの第2の瞳孔の位置を含む第2の画像データのセットを取り込むことと、
前記奥行きエンジンを使用して、基準ポイントの前記第1のセットに関する前記第1の瞳孔の前記位置、および基準ポイントの前記第2のセットに関する前記第2の瞳孔の前記位置に基づいて前記ユーザの前記焦点を特定することと
をさらに含み、好ましくはさらに、
視線トラッカーを使用して、ある期間にわたる基準ポイントの前記第1のセットに関する前記第1の瞳孔の前記位置を追跡することと、
前記視線トラッカーを使用して、前記期間にわたる基準ポイントの前記第2のセットに関する前記第2の瞳孔の前記位置を追跡することと、
前記期間にわたる基準ポイントの前記第1のセットに関する前記第1の瞳孔の前記位置の動きに基づいて、基準ポイントの前記第1のセットに関する前記第1の瞳孔の前記位置の予想されるその後の動きを特定することと、
前記期間にわたる基準ポイントの前記第2のセットに関する前記第2の瞳孔の前記位置の動きに基づいて、基準ポイントの前記第2のセットに関する前記第2の瞳孔の前記位置の予想されるその後の動きを特定することと、
前記奥行きエンジンを使用して、前記第1の瞳孔の前記位置の前記予想されるその後の動き、および前記第2の瞳孔の前記位置の前記予想されるその後の動きに基づいて、前記ユーザの予想されるその後の焦点を特定することと
を含む、請求項9から11のいずれか一項に記載の方法。 - 前記奥行きエンジンを使用して、前記ユーザの前記焦点に一致するように、ほぼリアルタイムで前記可変焦点ディスプレイに関する前記焦点距離を特定することと、
前記奥行きエンジンによって、特定された前記焦点距離を実現するためにレンズに対して移動するように前記可変焦点ディスプレイに指示することと
をさらに含む、請求項9から12のいずれか一項に記載の方法。 - 前記画像データがさらに、前記ユーザの被写界深度を示し、前記人工現実コンテンツを生成することが、
前記ユーザの前記被写界深度の外側にある前記人工現実コンテンツの部分をぼかすことを含む、請求項9から13のいずれか一項に記載の方法。 - 命令を含む非一時的コンピュータ可読媒体であって、前記命令が、実行されるときに、
ユーザの物理環境を表す現実世界の画像データを取り込むことと、
前記ユーザの視線の焦点を示す画像データを取り込むことと、
前記ユーザの前記焦点に基づいて可変焦点ディスプレイの焦点距離を修正することと、
前記現実世界の画像データ、および前記現実世界の画像データに関連付けられている奥行きデータに基づいて、前記ユーザの前記物理環境の3次元(3D)シーンを生成することと、
前記ユーザの前記焦点に基づいてヘッドマウントディスプレイ(HMD)の前記可変焦点ディスプレイ上に表示するための前記物理環境の前記3Dシーンに対するオーバーレイとしての人工現実コンテンツを生成することと
を1つまたは複数のプロセッサに行わせる、非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/727,167 | 2019-12-26 | ||
US16/727,167 US11217024B2 (en) | 2019-12-26 | 2019-12-26 | Artificial reality system with varifocal display of artificial reality content |
PCT/US2020/058452 WO2021133465A1 (en) | 2019-12-26 | 2020-11-01 | Artificial reality system with varifocal display of artificial reality content |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023507867A true JP2023507867A (ja) | 2023-02-28 |
Family
ID=73544400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022522020A Pending JP2023507867A (ja) | 2019-12-26 | 2020-11-01 | 人工現実コンテンツの可変焦点ディスプレイを有する人工現実システム |
Country Status (6)
Country | Link |
---|---|
US (3) | US11217024B2 (ja) |
EP (1) | EP4081848A1 (ja) |
JP (1) | JP2023507867A (ja) |
KR (1) | KR20220120649A (ja) |
CN (1) | CN114730094A (ja) |
WO (1) | WO2021133465A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL308285A (en) * | 2013-03-11 | 2024-01-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
NZ712192A (en) | 2013-03-15 | 2018-11-30 | Magic Leap Inc | Display system and method |
US11363188B2 (en) * | 2020-06-17 | 2022-06-14 | Microsoft Technology Licensing, Llc | Motion-based operation of imaging devices |
CN115735175A (zh) * | 2020-06-29 | 2023-03-03 | 美国斯耐普公司 | 可共享注视响应观看的眼戴器 |
US20230025585A1 (en) * | 2021-07-21 | 2023-01-26 | Sony Interactive Entertainment Inc. | Augmented reality artificial intelligence enhance ways user perceive themselves |
US11768375B2 (en) * | 2021-09-03 | 2023-09-26 | Microsoft Technology Licensing, Llc | Control of variable-focus lenses in a mixed-reality device for presbyopes |
US20230152578A1 (en) * | 2021-11-15 | 2023-05-18 | Meta Platforms Technologies, Llc | Multi-view eye tracking system with a holographic optical element combiner |
US11488348B1 (en) * | 2021-12-09 | 2022-11-01 | Unity Technologies Sf | Computing virtual screen imagery based on a stage environment, camera position, and/or camera settings |
KR102524149B1 (ko) | 2022-09-05 | 2023-04-20 | 세종대학교산학협력단 | 가상세계 생성 방법 및 장치 |
JP2024058783A (ja) * | 2022-10-17 | 2024-04-30 | キヤノン株式会社 | 制御装置 |
CN118192081A (zh) * | 2022-12-13 | 2024-06-14 | 万有引力(宁波)电子科技有限公司 | 一种扩展现实显示装置及显示方法 |
US11769311B1 (en) * | 2023-02-23 | 2023-09-26 | Illuscio, Inc. | Systems and methods for editing three-dimensional image data with realistic camera and lens effects |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10317672B2 (en) | 2014-12-11 | 2019-06-11 | AdHawk Microsystems | Eye-tracking system and method therefor |
US10204451B2 (en) * | 2015-11-30 | 2019-02-12 | Microsoft Technology Licensing, Llc | Multi-optical surface optical design |
US10025060B2 (en) * | 2015-12-08 | 2018-07-17 | Oculus Vr, Llc | Focus adjusting virtual reality headset |
US10241569B2 (en) | 2015-12-08 | 2019-03-26 | Facebook Technologies, Llc | Focus adjustment method for a virtual reality headset |
CN109477966B (zh) * | 2016-02-18 | 2022-06-03 | 苹果公司 | 具有内-外位置跟踪、用户身体跟踪和环境跟踪的用于虚拟现实和混合现实的头戴式显示器 |
US20170287215A1 (en) * | 2016-03-29 | 2017-10-05 | Google Inc. | Pass-through camera user interface elements for virtual reality |
US10395428B2 (en) * | 2016-06-13 | 2019-08-27 | Sony Interactive Entertainment Inc. | HMD transitions for focusing on specific content in virtual-reality environments |
CN109690634A (zh) * | 2016-09-23 | 2019-04-26 | 苹果公司 | 增强现实显示器 |
US10382699B2 (en) | 2016-12-01 | 2019-08-13 | Varjo Technologies Oy | Imaging system and method of producing images for display apparatus |
US20180157320A1 (en) * | 2016-12-01 | 2018-06-07 | Oculus Vr, Llc | Air spaced optical assembly with integrated eye tracking |
US10610775B1 (en) * | 2017-01-04 | 2020-04-07 | Facebook Technologies, Llc | Actuation for a focus adjusting head mounted display |
CN110325895B (zh) * | 2017-02-21 | 2022-02-15 | 脸谱科技有限责任公司 | 聚焦调整多平面头戴式显示器 |
US10241329B2 (en) * | 2017-07-13 | 2019-03-26 | Google Llc | Varifocal aberration compensation for near-eye displays |
US10437065B2 (en) | 2017-10-03 | 2019-10-08 | Microsoft Technology Licensing, Llc | IPD correction and reprojection for accurate mixed reality object placement |
US10699485B2 (en) * | 2018-01-04 | 2020-06-30 | Universal City Studios Llc | Systems and methods for textual overlay in an amusement park environment |
US10319154B1 (en) * | 2018-07-20 | 2019-06-11 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for dynamic vision correction for in-focus viewing of real and virtual objects |
-
2019
- 2019-12-26 US US16/727,167 patent/US11217024B2/en active Active
-
2020
- 2020-11-01 EP EP20811921.4A patent/EP4081848A1/en active Pending
- 2020-11-01 JP JP2022522020A patent/JP2023507867A/ja active Pending
- 2020-11-01 KR KR1020227025773A patent/KR20220120649A/ko unknown
- 2020-11-01 CN CN202080080940.XA patent/CN114730094A/zh active Pending
- 2020-11-01 WO PCT/US2020/058452 patent/WO2021133465A1/en unknown
-
2022
- 2022-01-03 US US17/646,811 patent/US20220130124A1/en not_active Abandoned
-
2023
- 2023-10-09 US US18/483,214 patent/US20240037880A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220130124A1 (en) | 2022-04-28 |
US20210201580A1 (en) | 2021-07-01 |
KR20220120649A (ko) | 2022-08-30 |
CN114730094A (zh) | 2022-07-08 |
US20240037880A1 (en) | 2024-02-01 |
US11217024B2 (en) | 2022-01-04 |
WO2021133465A1 (en) | 2021-07-01 |
EP4081848A1 (en) | 2022-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11217024B2 (en) | Artificial reality system with varifocal display of artificial reality content | |
CN107111370B (zh) | 现实世界对象的虚拟表示 | |
CN107209386B (zh) | 增强现实视野对象跟随器 | |
CN110018736B (zh) | 人工现实中的经由近眼显示器界面的对象增强 | |
EP3000020B1 (en) | Hologram anchoring and dynamic positioning | |
JP2022502800A (ja) | 拡張現実のためのシステムおよび方法 | |
CN116438505A (zh) | 用于操纵环境中的对象的方法 | |
JP6558839B2 (ja) | 媒介現実 | |
US20130326364A1 (en) | Position relative hologram interactions | |
EP3759576B1 (en) | A high-speed staggered binocular eye tracking systems | |
US11579693B2 (en) | Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body | |
US20240085980A1 (en) | Eye tracking using alternate sampling | |
CN110895433B (zh) | 用于增强现实中用户交互的方法和装置 | |
US11743447B2 (en) | Gaze tracking apparatus and systems | |
US11237413B1 (en) | Multi-focal display based on polarization switches and geometric phase lenses | |
KR20240091224A (ko) | 사용자의 표현을 생성 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230922 |