JP2023505230A - 仮想、拡張、および複合現実システムおよび方法 - Google Patents

仮想、拡張、および複合現実システムおよび方法 Download PDF

Info

Publication number
JP2023505230A
JP2023505230A JP2022533463A JP2022533463A JP2023505230A JP 2023505230 A JP2023505230 A JP 2023505230A JP 2022533463 A JP2022533463 A JP 2022533463A JP 2022533463 A JP2022533463 A JP 2022533463A JP 2023505230 A JP2023505230 A JP 2023505230A
Authority
JP
Japan
Prior art keywords
user
depth
focus
display
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022533463A
Other languages
English (en)
Other versions
JPWO2021113540A5 (ja
Inventor
ロバート ブレイク テイラー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2023505230A publication Critical patent/JP2023505230A/ja
Publication of JPWO2021113540A5 publication Critical patent/JPWO2021113540A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

3次元(「3D」)ディスプレイデバイスのユーザの焦点深度を決定するための方法が、ユーザの第1の視線経路を追跡するステップを含む。本方法はまた、ユーザの第1の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために3Dデータを分析するステップを含む。本方法はさらに、1つのみの仮想オブジェクトが、ユーザの第1の視線経路と交差するとき、1つのみの仮想オブジェクトの深度をユーザの焦点深度として識別するステップを含む。

Description

(著作権表示)
本特許文書の開示の一部は、著作権保護を受けるべき資料を含有する。本著作権所有者は、本特許文書または本特許開示を誰が複写しても、それが特許商標局の特許ファイルまたは記録に現れる通りである限りでは異議はないが、その他の場合には、いかなる著作権も全て保有する。
本開示は、仮想現実、拡張現実、および複合現実結像、可視化、およびディスプレイシステムおよび方法に関する。特に、本開示は、視認者の焦点の深度を決定するための仮想現実、拡張現実、および複合現実結像、可視化、およびディスプレイシステムおよび方法に関する。
現代のコンピューティングおよびディスプレイ技術は、仮想現実(VR)、拡張現実(AR)、および複合現実(MR)システムの開発を促進している。VRシステムは、ユーザが体験するためのシミュレートされた環境を作成する。これは、頭部搭載型ディスプレイを通して、コンピュータ生成画像をユーザに提示することによって行われることができる。本画像は、感覚体験を作成し、これは、ユーザをシミュレートされた環境内に没入させる。VRシナリオは、典型的には、コンピュータ生成画像のみの提示を伴うのではなく、また、実際の実世界画像も含む。
ARシステムは、概して、実世界環境をシミュレートされた要素で補完する。例えば、ARシステムは、ユーザに、頭部搭載型ディスプレイを介して、周囲実世界環境のビューを提供してもよい。しかしながら、コンピュータ生成画像はまた、ディスプレイ上に提示され、実世界環境を向上させることもできる。本コンピュータ生成画像は、実世界環境にコンテキスト的に関連する、要素を含むことができる。そのような要素は、シミュレートされたテキスト、画像、オブジェクト等を含むことができる。MRシステムはまた、シミュレートされたオブジェクトを実世界環境の中に導入するが、これらのオブジェクトは、典型的には、ARシステムにおけるものを上回る相互作用度を特徴とする。シミュレートされた要素は、多くの場合、リアルタイムで双方向となることができる。
図1は、例示的AR/MR場面2を描写し、ユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム20を特徴とする、実世界公園設定6が見える。これらのアイテムに加え、コンピュータ生成画像もまた、ユーザに提示される。コンピュータ生成画像は、例えば、実世界プラットフォーム20上に立っている、ロボット像10と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ12とを含むことができるが、これらの要素12、10は、実際には、実世界環境内に存在しない。
種々の光学システムは、VR、AR、またはMRシナリオを表示するために、画像を種々の深度に生成する。
VR/AR/MRシステムは、ブレンドライトフィールドおよび離散ライトフィールドモードを含む、種々のディスプレイモードで動作することができる。ブレンドライトフィールドモード(「ブレンドモード」)では、ディスプレイが、2つまたはそれを上回る離散深度面に同時またはほぼ同時に表示される画像を含む、合成ライトフィールドを提示する。離散ライトフィールドモード(「離散モード」)では、ディスプレイが、単一深度面に表示される画像を含む、合成ライトフィールドを提示する。照明された深度面は、離散モードで制御可能である。いくつかのVR/AR/MRシステムは、視認者の焦点位置を決定するための眼追跡サブシステムを含む。そのようなシステムは、視認者の焦点位置に対応する深度面を照明することができる。
ヒトの視知覚系は、複雑であるため、他の仮想または実世界画像要素の中への仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、VR/AR/MR技術を生産することが困難である。3次元(「3D」)画像ディスプレイシステムは、輻輳・開散運動(vergence)-遠近調節(accommodation)衝突問題を被る。本問題は、2つの光学深度に関連する生物学的プロセスが、衝突する深度信号をユーザ/視認者の脳に送信するときに生じる。輻輳・開散運動は、光学軸(軸)とある距離における視認者の注意の対象のオブジェクトを整合させるように回転させるための視認者の眼の傾向に関連する。両眼システムでは、光学軸が交差する点は、「輻輳・開散運動点」と呼ばれ得る。輻輳・開散運動の間の視認者の眼の回転量は、視認者の脳によって、推定深度として解釈される。遠近調節は、ある距離における視認者の注意の対象のオブジェクトに合焦させるための視認者の眼の水晶体の傾向に関連する。輻輳・開散運動の間の視認者の眼の焦点は、視認者の脳によって、別の推定深度として解釈される。輻輳・開散運動および遠近調節信号が、視認者の脳によって、同一または類似推定深度として解釈されるとき、3D視認体験は、視認者にとって自然かつ快適である。他方で、輻輳・開散運動および遠近調節信号が、視認者の脳によって、実質的に異なる推定深度として解釈されるとき、3D視認体験は、視認者にとって準最適であって、不快感(眼精疲労、頭痛等)および疲労をもたらし得る。そのような問題は、輻輳・開散運動-遠近調節衝突として知られる。
ポータブルVR/AR/MRシステムはまた、サイズおよび可搬性問題点、バッテリ寿命問題点、システム過熱問題点、処理パワー、メモリ、帯域幅、データソース、コンポーネント待ち時間、および他のシステムおよび光学課題等の他の限界を有し、これは、VR/AR/MRシステム性能に悪影響を及ぼし得る。これらの他の限界は、自然な輻輳・開散運動および遠近調節のための3D画像レンダリング技法を実装するときに、考慮されなければならない。VR/AR/MRシステムのこれらのハードウェア関連制限に適応するために、多くの場合、ユーザ/視認者の焦点を決定することが有用である。いくつかのシステムが、ユーザ/視認者の焦点をユーザ/視認者の輻輳・開散運動点にマッピングするが、眼追跡ハードウェアおよび高速ユーザ/視認者眼移動における制限は、本方法を使用して、ユーザ/視認者の焦点の決定の正確度を低減させる。ユーザ/視認者の焦点を決定するステップは、VR/AR/MRシステムが限定されたハードウェアリソースを効果的に分配することを可能にする。特に、ユーザ/視認者の焦点の深度を決定することは、VR/AR/MRシステムが限定されるハードウェアリソースをユーザ/視認者の焦点と一致する特定の平面に指向することを可能にする。
ユーザ/視認者の焦点の深度を決定する1つの方法は、深度感知を使用して、視野全体の深度マップを生成し、次いで、視野の深度マップを使用して、ユーザ/視認者の焦点の深度を識別するために、眼追跡を使用することである。深度感知は、3次元(「3D」)空間(例えば、センサ)内の既知の点とオブジェクトの表面上の着目点(「POI」)との間の距離の決定である。深度感知はまた、表面上の複数のPOIの個別の距離を決定するステップが、表面のテクスチャを決定するため、テクスチャ感知としても知られる。深度またはテクスチャ感知は、複合現実システムを含む、多くのコンピュータ視覚システムのために有用である。深度マップを生成するステップは、ハードウェア(例えば、赤外線カメラおよび赤外線光プロジェクタ)および処理パワーの観点から、需要の高いプロセスであり得る。移動するVR/AR/MRシステムでは、深度マップは、処理パワー、メモリ、通信チャネル等の観点から、ある程度の犠牲を払って、持続的に更新される必要があるであろう。
例えば、輻輳・開散運動-遠近調節衝突を最小限にしながら、3D画像を視認者/ユーザにレンダリングおよび表示するためのユーザ/視認者の焦点の深度を決定するためのシステムおよび技法、およびそれを行いながら、ポータブルVR/AR/MRシステムの限定されたグラフィカル処理能力における需要を最小限にするためのシステムおよび技法を含む、画像データを処理し、画像を表示するための改良されたシステムおよび技法が、必要とされる。改良されたシステムおよび技法は、これらの問題点に対処するために必要とされる。本明細書に説明されるシステムおよび方法は、これらおよび他の課題に対処するように構成される。
必要とされるものは、旧来の技法および/または他の検討されるアプローチを改良するための技法または複数の技法である。本背景節に説明されるアプローチのうちのいくつかは、追求され得るアプローチであるが、必ずしも、以前に想起または追求されているアプローチではない。
一実施形態では、3次元(「3D」)ディスプレイデバイスのユーザの焦点深度を決定するための方法が、ユーザの第1の視線経路を追跡するステップを含む。本方法はまた、ユーザの第1の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために3Dデータを分析するステップを含む。方法はさらに、1つのみの仮想オブジェクトが、ユーザの第1の視線経路と交差するとき、1つのみの仮想オブジェクトの深度をユーザの焦点深度として識別するステップを含む。
1つまたはそれを上回る実施形態では、1つまたはそれを上回る仮想オブジェクトはそれぞれ、ユーザから個別の深度において表示される。複数の3Dデータを分析するステップは、3Dデータに対応する、深度セグメント化データを分析するステップを含んでもよい。本方法はまた、ユーザの輻輳・開散運動焦点深度を生成するために、輻輳・開散運動分析をユーザに実施するステップと、ユーザの焦点深度の正確度を改良するために、ユーザの輻輳・開散運動焦点深度を使用するステップとを含んでもよい。
1つまたはそれを上回る実施形態では、1つを上回る仮想オブジェクトが、ユーザの第1の視線経路と交差するとき、本方法はまた、ユーザの第2の視線経路を追跡するステップを含んでもよい。方法はまた、ユーザの第2の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するための3Dデータを分析するステップを含んでもよい。本方法はさらに、1つのみの仮想オブジェクトが、ユーザの第1の視線経路および第2の視線経路の両方と交差するとき、1つのみの2D画像フレームの深度をユーザの焦点深度として識別するステップを含んでもよい。
別の実施形態では、3次元(「3D」)ディスプレイデバイスのユーザの焦点深度を決定するための方法が、ユーザの第1の視線経路を追跡するステップを含む。本方法はまた、ユーザの第1の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために、ディスプレイデバイスによって表示される複数の2次元(「2D」)画像フレームを分析するステップを含む。本方法はさらに、複数の2D画像フレームの1つのみが、ユーザの第1の視線経路に沿って、仮想オブジェクトを含むとき、1つのみの2D画像フレームの深度をユーザの焦点深度として識別するステップを含む。
1つまたはそれを上回る実施形態では、複数の2D画像フレームはそれぞれ、ユーザから個別の深度において表示される。複数の2D画像フレームを分析するステップは、複数の2D画像フレームに対応する、深度セグメント化データを分析するステップを含んでもよい。本方法はまた、ユーザの輻輳・開散運動焦点深度を生成するために、輻輳・開散運動分析をユーザに実施するステップと、ユーザの焦点深度の正確度を改良するために、ユーザの輻輳・開散運動焦点深度を使用するステップとを含んでもよい。
1つまたはそれを上回る実施形態では、複数の2D画像フレームの1つを上回るものが、ユーザの第1の視線経路に沿って、仮想オブジェクトを含むとき、本方法はまた、ユーザの第2の視線経路を追跡するステップを含んでもよい。方法はまた、ユーザの第2の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために、ディスプレイデバイスによって表示される複数の2D画像フレームを分析するステップを含んでもよい。本方法はさらに、複数の2D画像フレームの1つのみが、ユーザの第1の視線経路および第2の視線経路の両方に沿って、仮想オブジェクトを含むとき、1つのみの2D画像フレームの深度をユーザの焦点深度として識別するステップを含んでもよい。
本特許または出願申請書は、カラーで作成された少なくとも1つの図面を含有する。カラー図面を伴う本特許または特許出願公開文書の複写物は、要求および必要な手数料の支払に応じて、特許庁によって提供されるであろう。
下記に説明される図面は、例証目的のためだけのものである。図面は、本開示の範囲を限定することを意図するものではない。本特許または出願申請書は、カラーで作成された少なくとも1つの図面を含有する。カラー図面を伴う本特許または特許出願公開文書の複写物は、必要な手数料の要求および支払に応じて、米国特許および商標局によって提供されるであろう。
図面は、本開示の種々の実施形態の設計および有用性を図示する。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して同様の参照番号によって表されることに留意されたい。本開示の種々の実施形態の列挙されたおよび他の利点および目的を取得する方法をより深く理解するために、本開示のさらなる詳細な説明が、付随の図面に図示される、その具体的実施形態を参照することによって与えられるであろう。これらの図面は、本開示の典型的実施形態のみを描写し、したがって、その範囲の限定と見なされるべきではないことを理解した上で、本開示は、付随の図面の使用を通して、付加的特異性および詳細を伴って説明および解説されるであろう。
図1は、例示的ARシステムを使用したAR/MR場面のユーザのビューを図示する。
図2-5は、いくつかの実施形態による、VR/AR/MRシステムを使用するユーザを図式的に描写する。 図2-5は、いくつかの実施形態による、VR/AR/MRシステムを使用するユーザを図式的に描写する。 図2-5は、いくつかの実施形態による、VR/AR/MRシステムを使用するユーザを図式的に描写する。 図2-5は、いくつかの実施形態による、VR/AR/MRシステムを使用するユーザを図式的に描写する。
図6は、いくつかの実施形態による、多面焦点システムの種々の平面を図式的に描写する。
図7は、いくつかの実施形態による、VR/AR/MRシステムを図式的に描写する。
図8Aおよび8Bは、いくつかの実施形態による、側面斜視図(図8A)および背面斜視図(図8B)からの、複数の仮想オブジェクトを含む、3D画像を図式的に描写する。
図9Aおよび9Bは、側面斜視図(図9A)および背面斜視図(図9B)からの、離散モードにおける表示のために単一深度面上に投影された複数の仮想オブジェクトを含む、3D画像を図式的に描写する。
図10Aは、いくつかの実施形態による、二重面ブレンドモードディスプレイシステムの近および遠遠近調節ゾーンおよび遠近調節重複ゾーンを図式的に描写する。
図10Bは、視認者からの距離とジオプタとの間の関係を図式的に描写する。
図11は、側面斜視図からの、離散モードにおける表示のために単一深度面上に投影された複数の仮想オブジェクトを含む、3D画像を図式的に描写する。
図12Aは、側面斜視図からの、離散モードにおける表示のために単一深度面上に投影された複数の仮想オブジェクトを含む、3D画像を図式的に描写する。
図12Bは、側面斜視図からの、ブレンドモードにおいて表示される複数の仮想深度面を伴う複数の仮想オブジェクトを含む、3D画像を図式的に描写する。
図13および14は、いくつかの実施形態による、背面斜視図(図13)および側面斜視図(図14)から、ユーザ/視認者の焦点面を決定するためのシステムおよび方法を図式的に描写する。 図13および14は、いくつかの実施形態による、背面斜視図(図13)および側面斜視図(図14)から、ユーザ/視認者の焦点面を決定するためのシステムおよび方法を図式的に描写する。
図15は、いくつかの実施形態による、背面斜視図から、離散モードにおける表示のために、単一の決定された深度面上にぼかされ、かつ投影された複数の仮想オブジェクトを含む、3D画像を図式的に描写する。
図16は、いくつかの実施形態による、ユーザ/視認者の焦点面を決定するための方法を図示する、フローチャートである。
図17は、いくつかの実施形態による、例証的コンピューティングシステムを図式的に描写する、ブロック図である。
詳細な説明
本開示の種々の実施形態は、単一実施形態または複数の実施形態における、仮想現実(VR)/拡張現実(AR)/複合現実(MR)のためのシステム、方法、および製造品を対象とする。本開示の他の目的、特徴、および利点は、発明を実施するための形態、図、および請求項に説明される。
種々の実施形態が、ここで、当業者が本開示を実践することを可能にするように、例証的実施例として提供される、図面を参照して詳細に説明されるであろう。着目すべきこととして、図および下記の実施例は、本開示の範囲を限定することを意味するものではない。本開示のある要素は、部分的または完全に、公知のコンポーネント(または方法またはプロセス)を使用して実装されてもよく、本開示の理解のために必要なそのような公知のコンポーネント(または方法またはプロセス)のそれらの部分のみが、説明され、そのような公知のコンポーネント(または方法またはプロセス)の他の部分の詳細な説明は、本開示を曖昧にしないように省略されるであろう。さらに、種々の実施形態は、例証として本明細書に参照されるコンポーネントの現在公知および将来的に公知となる均等物を包含する。
本開示による、実施形態は、多くの場合、既製のコンポーネントとカスタムコンポーネントの組み合わせに依拠する、VR/AR/MRシステムの実装の問題に対処する。ある場合には、既製のコンポーネントは、展開されることになるVR/AR/MRシステムのある所望の側面を実装するために必要とされる、特徴または性能特性の全てを保有していない。いくつかの実施形態は、展開されることになるVR/AR/MRシステムの所望の特徴または性能特性に適応するための能力を追加し、および/またはリソースを別の目的のために再利用するためのアプローチを対象とする。本明細書の付随の図および議論は、VR/AR/MRシステムのための例示的環境、本システム、方法、およびコンピュータプログラム製品を提示する。
頭部搭載型視聴覚ディスプレイシステムおよび3D画像レンダリングシステムは、AR/MRシステムから独立して実装されてもよいが、下記のいくつかの実施形態は、例証的目的のみのために、AR/MRシステムに関連して説明される。本明細書に説明される3D画像レンダリングおよびディスプレイシステムはまた、VRシステムと類似様式で使用されてもよい。
問題の概要およびソリューション
上記に説明されるように、VR/AR/MRシステムはまた、サイズおよび可搬性、バッテリ寿命、システム過熱、処理パワー、メモリ、帯域幅、データソース、コンポーネント待ち時間、および他のシステムおよび光学課題等の限界を有し、これは、VR/AR/MRシステム性能に悪影響を及ぼし得る。これらの限界は、グラフィカル処理および画像ディスプレイ需要の低減をもたらし、3D画像レンダリングおよびディスプレイを改良するための対抗課題となり得る。VR/AR/MRシステムは、ユーザ/視認者の焦点に対応する深度面を識別することによって、限定された処理およびディスプレイリソースをより効果的に展開することができる。しかしながら、ユーザ/視認者の焦点面を識別するために輻輳・開散運動のみを使用することは、十分に正確であり得ない。他方では、ユーザ/視認者の焦点面を識別する際に使用するための深度マップを生成するステップは、VR/AR/MRシステムへの処理およびハードウェア需要を追加し得る。
例えば、潜在的グラフィカル処理およびサイズ/可搬性問題点に起因して、VR/AR/MRシステム、特に、頭部装着型システムは、移動する仮想オブジェクト(すなわち、離散モード)の平滑表示のために、最小限のフレームレート(例えば、60Hz)において、カラー画像をフレームあたり1つの深度面にレンダリングおよび表示することが可能であるように、十分なコンポーネントのみを含み得る。離散モードで動作するそのようなVR/AR/MRシステムの実施例は、図8A-9Bに示される。図8Aに図式的に示されるように、3D画像は、種々の深度面に隣接して3つの仮想オブジェクト(近および遠立方体810、812および1つの円柱814)を含む(深度面0の近傍に隣接する近立方体810および遠深度面1に隣接する遠立方体812および円柱814)。いくつかの実施形態では、近深度面0は、約1.96ジオプタにあって、遠深度面1は、約0.67ジオプタにある。図8Bは、図8Aに示される3D画像の視認者の斜視図である。図8Bでは、ユーザ/視認者816の眼の追跡は、視認者の眼が近立方体810の場所と一致する輻輳・開散運動点818に輻輳することを示す。離散モードでは、単一深度面のみが、フレームあたり照明される(すなわち、画像がレンダリングおよび表示される)。図9Aに図式的に示されるように、輻輳・開散運動点818が、深度面0の近傍に隣接する、近立方体810の場所と一致するため、3D画像の全てのコンテンツ(すなわち、近および遠立方体810、812および円柱814)が、近深度面0上に投影される。図9Bは、そのコンテンツが近深度面0上に投影された後の3D画像の視認者の斜視図である。近深度面0のみが、照明され、視認者816の眼は、近深度面0に遠近調節する。上記に説明されるように、ユーザ/視認者の焦点とユーザ/視認者の輻輳・開散運動点との等化は、本重要なデータ点のあまり正確ではない決定をもたらし得る。
いくつかの実施形態では、単一深度面上への3D画像のコンテンツの全ての投影は、最小限の輻輳・開散運動-遠近調節衝突(例えば、最小限のユーザ不快感、眼精疲労、頭痛)のみを誘起する。これは、ヒトの脳が遠近調節と輻輳・開散運動との間で最大約0.75ジオプタの不整合を許容するであろうように、遠近調節および輻輳・開散運動の緩結合が存在するためである。図10Aに示されるように、本±0.75ジオプタ許容度は、近遠近調節ゾーン1010および遠遠近調節ゾーン1012に変換される。距離とジオプタとの間の逆関係のため、図10Bに示されるように、遠遠近調節ゾーン1012は、より近い遠近調節ゾーン1010より大きい。図10Aに描写される実施形態では、近深度面0および遠深度面1を用いることで、±0.75ジオプタ許容度はまた、遠近調節ゾーン重複1014内に該当するオブジェクト深度が、例えば、異なるスケールにおいて、異なる明度および/または色値等を伴って、近深度面0および遠深度面1の一方または両方に表示され得る、遠近調節ゾーン重複1014をもたらす。3D画像のコンテンツが全て、近遠近調節ゾーン1010または遠遠近調節ゾーン1012のいずれか内に位置し、視認者816の眼が、その深度面に輻輳する、実施形態では、その深度面上への3D画像のコンテンツの全ての投影は、最小限の輻輳・開散運動-遠近調節衝突のみを誘起する。
離散モードでの動作は、VR/AR/MRシステムが、そのハードウェア制限(例えば、処理、表示、メモリ、通信チャネル等)内で機能しながら、3D画像を送達することを可能にする。しかしながら、離散モードディスプレイは、システムリソース上の需要を最小限にしながら、照明されるべき単一の深度面の正確な識別を要求する。ブレンドモードで動作するVR/AR/MRシステムもまた、それらのリソースを、ユーザ/視認者の焦点に対応する、深度面に集中させることによって、システムリソース上の需要を低減させることができる。再び、ブレンドモードディスプレイのための本リソース節約方法は、ユーザ/視認者の焦点面の正確な識別を要求する。
本明細書に説明される実施形態は、種々のVR/AR/MRシステムと併用するための3D画像レンダリングおよびディスプレイシステムおよび方法を含む。これらの3D画像レンダリングおよびディスプレイシステムおよび方法は、消費されるシステムリソースを低減させながら、離散モードおよびブレンドモードディスプレイの両方において使用するためのユーザ/視認者の焦点に対応する、深度面を識別し、それによって、上記に説明される問題点の多くに対処する。
例証的VR、AR、および/またはMRシステム
続く説明は、それを用いて種々の3D画像レンダリングおよびディスプレイシステムの実施形態が実践され得る、例証的VR、AR、および/またはMRシステムに関する。しかしながら、実施形態はまた、他のタイプのディスプレイシステム(他のタイプのVR、AR、および/またはMRシステムを含む)における用途にも適しており、したがって、実施形態は、本明細書に開示される例証的システムのみに限定されないことを理解されたい。
本明細書に開示されるVR/AR/MRシステムは、コンピュータ生成画像(ビデオ/画像データ)をユーザに提示する、ディスプレイを含むことができる。いくつかの実施形態では、ディスプレイシステムは、ウェアラブルであって、これは、有利なこととして、より没入型のVR/AR/MR体験を提供し得る。VR、AR、および/またはMR仮想画像システム100の種々のコンポーネントが、図2-5に描写される。仮想画像生成システム100は、エンドユーザ50によって装着されるフレーム構造102と、ディスプレイサブシステム110がエンドユーザ50の眼の正面に位置付けられるように、フレーム構造102によって担持されるディスプレイサブシステム110と、スピーカ106がエンドユーザ50の外耳道に隣接して位置付けられる(随意に、別のスピーカ(図示せず)がエンドユーザ50の他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)ように、フレーム構造102によって担持されるスピーカ106とを含む。ディスプレイサブシステム110は、エンドユーザ50の眼に、高レベルの画質および3次元知覚を伴って、物理的現実に対する拡張として快適に知覚され、かつ2次元コンテンツを提示可能であり得る、光パターンを提示するように設計される。ディスプレイサブシステム110は、フレームのシーケンスを高周波数で提示し、単一コヒーレント場面の知覚を提供する。
図示される実施形態では、ディスプレイサブシステム110は、それを通してユーザが実オブジェクトから透明(または半透明)要素を介して直接光を視認することができる「光学シースルー」ディスプレイを採用する。透明要素は、多くの場合、「結合器」と称され、ディスプレイからの光を実世界のユーザの視野にわたって重畳する。この目的を達成するために、ディスプレイサブシステム110は、部分的に透明なディスプレイを含む。いくつかの実施形態では、透明ディスプレイは、電子的に制御されてもよい。いくつかの実施形態では、透明ディスプレイは、セグメント化された調光を含み、透明ディスプレイの1つまたはそれを上回る部分の透明度を制御してもよい。いくつかの実施形態では、透明ディスプレイは、大域的調光を含み、透明ディスプレイの全体の透明度を制御してもよい。ディスプレイは、エンドユーザ50の眼と周囲環境の間のエンドユーザ50の視野に位置付けられ、周囲環境からの直接光がディスプレイを通してエンドユーザ50の眼へ透過されるようなものである。
図示される実施形態では、画像投影アセンブリは、光を部分的に透明なディスプレイに提供し、それによって、周囲環境からの直接光と組み合わせ、ディスプレイからユーザ50の眼に透過される。投影サブシステムは、光ファイバ走査ベースの投影デバイスであってもよく、ディスプレイは、導波管ベースのディスプレイであってもよく、その中に投影サブシステムからの走査される光が、投入され、例えば、無限遠により近い単一光学視認距離において(例えば、腕の長さ)における画像、複数の離散光学視認距離または焦点面における画像、および/または複数の視認距離または焦点面にスタックされ、立体3Dオブジェクトを表す、画像層を生成する。ライトフィールド内のこれらの層は、ヒト視覚系にともに連続して現れるように十分に近接してスタックされてもよい(すなわち、一方の層は、隣接する層の乱信号円錐域内にある)。加えて、または代替として、写真要素(すなわち、サブ画像)が、2つまたはそれを上回る層を横断して混成され、それらの層がより疎らにスタックされる場合でも、ライトフィールド内の層間の遷移の知覚される連続性を増加させてもよい(すなわち、一方の層は隣接する層の乱信号円錐域外にある)。ディスプレイサブシステム110は、単眼または両眼用であってもよい。画像投影システムは、ブレンドモードを生成可能であり得るが、システム制限(例えば、電力、熱、速度等)は、画像投影システムをフレームあたり単一視認距離を伴う離散モードに制限し得る。
仮想画像生成システム100はまた、エンドユーザ50の頭部54の位置および移動および/またはエンドユーザ50の眼の位置および眼間距離を検出するために、フレーム構造102に搭載される1つまたはそれを上回るセンサ(図示せず)を含んでもよい。そのようなセンサは、画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープ)を含んでもよい。これらのセンサの多くは、その上にそれらが添着される、フレーム102が、ひいては、ユーザの頭部、眼、および耳に実質的に固定されるという仮定で動作する。仮想画像生成システム100はまた、ユーザの眼を追跡するために、1つまたはそれを上回るユーザに向いたカメラを含んでもよい。
仮想画像生成システム100はまた、ユーザ配向検出モジュールを含んでもよい。ユーザ配向モジュールは、エンドユーザ50の頭部54の瞬間位置を検出し(例えば、フレーム102に結合されるセンサを介して)、センサから受信された位置データに基づいて、エンドユーザ50の頭部54の位置を予測してもよい。エンドユーザ50の頭部54の瞬間位置の検出は、エンドユーザ50が見ている具体的実際のオブジェクトの決定を促進し、それによって、その実際のオブジェクトに関連して生成されるべき具体的仮想オブジェクトのインジケーションを提供し、さらに、仮想オブジェクトが表示されるべき位置のインジケーションを提供する。ユーザ配向モジュールはまた、センサから受信された追跡データに基づいて、エンドユーザ50の眼を追跡してもよい。
仮想画像生成システム100はまた、多種多様な形態のいずれかをとり得る、制御サブシステムを含んでもよい。制御サブシステムは、いくつかのコントローラ、例えば、1つまたはそれを上回るマイクロコントローラ、マイクロプロセッサまたは中央処理ユニット(CPU)、デジタル信号プロセッサ、グラフィック処理ユニット(GPU)、他の集積回路コントローラ、例えば、特定用途向け集積回路(ASIC)、ディスプレイブリッジチップ、ディスプレイコントローラ、プログラマブルゲートアレイ(PGA)、例えば、フィールドPGA(FPGA)、および/またはプログラマブル論理コントローラ(PLU)を含む。
仮想画像生成システム100の制御サブシステムは、中央処理ユニット(CPU)と、グラフィック処理ユニット(GPU)と、1つまたはそれを上回るフレームバッファと、3次元データを記憶するための3次元データベースとを含んでもよい。CPUは、全体的動作を制御し得る一方、GPUは、3次元データベース内に記憶される3次元データからフレームをレンダリングし(すなわち、3次元場面を2次元画像に変換し)、これらのフレームをフレームバッファ内に記憶し得る。1つまたはそれを上回る付加的集積回路が、フレームのフレームバッファの中への読込および/またはそこからの読取およびディスプレイサブシステム110の画像投影アセンブリの動作を制御してもよい。
仮想画像生成システム100の種々の処理コンポーネントは、分散型サブシステム内に物理的に含有されてもよい。例えば、図2-5に図示されるように、仮想画像生成システム100は、有線導線または無線コネクティビティ136等によって、ローカルディスプレイブリッジ142、ディスプレイサブシステム110、およびセンサに動作可能に結合される、ローカル処理およびデータモジュール130を含んでもよい。ローカル処理およびデータモジュール130は、フレーム構造102に固定して取り付けられる(図2)、ヘルメットまたは帽子56に固定して取り付けられる(図3)、エンドユーザ50の胴体58に除去可能に取り付けられる(図4)、またはベルト結合式構成においてエンドユーザ50の腰60に除去可能に取り付けられる(図5)等、種々の構成で搭載されてもよい。仮想画像生成システム100はまた、有線導線または無線コネクティビティ138、140等によって、ローカル処理およびデータモジュール130およびローカルディスプレイブリッジ142に動作可能に結合される、遠隔処理モジュール132および遠隔データリポジトリ134を含んでもよく、これらの遠隔モジュール132、134が、相互に動作可能に結合され、ローカル処理およびデータモジュール130およびローカルディスプレイブリッジ142に対してリソースとして利用可能であるようになる。
ローカル処理およびデータモジュール130およびローカルディスプレイブリッジ142はそれぞれ、電力効率的プロセッサまたはコントローラおよびフラッシュメモリ等のデジタルメモリを含んでもよく、その両方とも、センサから捕捉され、および/または可能性として処理または読出後、ディスプレイサブシステム110への通過のために、遠隔処理モジュール132および/または遠隔データリポジトリ134を使用して取得および/または処理されたデータの処理、キャッシュ、および記憶を補助するために利用されてもよい。遠隔処理モジュール132は、データおよび/または画像情報を分析および処理するように構成される、1つまたはそれを上回る比較的に強力なプロセッサまたはコントローラを含んでもよい。遠隔データリポジトリ134は、比較的に大規模なデジタルデータ記憶設備を含んでもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュール130およびローカルディスプレイブリッジ142において実施され、任意の遠隔モジュールからの完全に自律的な使用を可能にする。
前述の種々のコンポーネント間の結合136、138、140は、有線または光学通信を提供するための1つまたはそれを上回る有線インターフェースまたはポート、または無線通信を提供するためのRF、マイクロ波、およびIR等を介した1つまたはそれを上回る無線インターフェースまたはポートを含んでもよい。いくつかの実装では、全ての通信は、有線であってもよい一方、他の実装では、全ての通信は、無線であってもよい。なおもさらなる実装では、有線および無線通信の選択肢は、図2-5に図示されるものと異なってもよい。したがって、有線または無線通信の特定の選択肢は、限定と見なされるべきではない。
いくつかの実施形態では、ユーザ配向モジュールは、ローカル処理およびデータモジュール130および/またはローカルディスプレイブリッジ142内に含有される一方、CPUおよびGPUは、遠隔処理モジュール内に含有される。代替実施形態では、CPU、GPU、またはその一部は、ローカル処理およびデータモジュール130および/またはローカルディスプレイブリッジ142内に含有されてもよい。3Dデータベースは、遠隔データリポジトリ134と関連付けられる、またはローカルで配置されることができる。
いくつかのVR、AR、および/またはMRシステムは、個別の深度面から生じるように現れる画像を生成するための深度面情報を内蔵される、複数の体積位相ホログラム、表面レリーフホログラム、または光誘導光学要素を使用する。換言すると、回折パターンまたは回折光学要素(DOE)が、コリメート光(略平面波面を伴う光ビーム)がLOEに沿って実質的に全内部反射されるにつれて、複数の場所において回折パターンと交差し、ユーザの眼に向かって出射するように、光誘導光学要素(LOE、例えば、平面導波管)に内蔵される、またはその上にインプリント/エンボス加工され得る。DOEは、LOEからそれを通して出射する光が、輻輳され、特定の深度面から生じるように現れるように構成される。コリメート光は、光学集光レンズ(「集光器」)を使用して生成されてもよい。
例えば、第1のLOEは、光学無限遠深度面(0ジオプタ)から生じるように現れる、コリメート光を眼に送達するように構成されてもよい。別のLOEは、2メートル(1/2ジオプタ)の距離から生じるように現れる、コリメート光を送達するように構成されてもよい。さらに別のLOEは、1メートル(1ジオプタ)の距離から生じるように現れる、コリメート光を送達するように構成されてもよい。スタックされたLOEアセンブリを使用することによって、複数の深度面は、作成され得、各LOEは、特定の深度面から生じるように現れる画像を表示するように構成されることが理解され得る。スタックは、任意の数のLOEを含んでもよいことを理解されたい。しかしながら、少なくともN個のスタックされたLOEが、N個の深度面を生成するために要求される。さらに、N、2N、または3N個のスタックされたLOEが、RGBカラー画像をN個の深度面に生成するために使用されてもよい。
3D仮想コンテンツをユーザに提示するために、VR、AR、および/またはMRシステムは、ブレンドまたは離散モードのいずれかにおいて、Z方向に(すなわち、ユーザの眼から離れるように直交して)種々の深度面から生じるように現れるように、仮想コンテンツの画像をユーザの眼の中に投影する。換言すると、仮想コンテンツは、XおよびY方向において(すなわち、ユーザの眼の中心視軸に直交する2D平面において)変化し得るだけではなく、また、ユーザが、オブジェクトが非常に近距離または無限距離またはそれらの間の任意の距離にあるように知覚し得るように、Z方向においても変化すると考えられ得る。他の実施形態では、ユーザは、複数のオブジェクトを異なる深度面において同時に知覚し得る。例えば、ユーザには、ユーザから3メートル離れた距離における仮想鳥と、ユーザから腕の長さ(約1メートル)における仮想コーヒーカップとが同時に見え得る。代替として、ユーザには、仮想ドラゴンが、無限遠から現れ、ユーザに向かって走って来るのが見え得る。
多面焦点システムは、ブレンドまたは離散モードのいずれかにおいて、画像をユーザの眼からZ方向において個別の固定距離に位置する複数の深度面の一部または全部上に投影させることによって、可変深度の知覚を作成する。ここで図6を参照すると、多面焦点システムは、フレームを固定深度面150(例えば、図6に示される6つの深度面150)に表示し得ることを理解されたい。MRシステムは、任意の数の深度面150を含むことができるが、1つの例示的多面焦点システムは、6つの固定深度面150をZ方向に有する。仮想コンテンツを6つの深度面150のうちの1つまたはそれを上回るものに生成する際、3D知覚が、ユーザがユーザの眼から可変距離における1つまたはそれを上回る仮想オブジェクトを知覚するように作成される。ヒトの眼が、遠く離れているように現れるオブジェクトより距離がより近いオブジェクトに対して敏感であることを前提として、より多くの深度面150が、図6に示されるように、眼のより近くに生成される。他の実施形態では、深度面150は、相互から等距離だけ離れて設置されてもよい。
深度面位置150は、ジオプタで測定されてもよく、これは、メートルで測定された焦点距離の逆数と等しい、屈折力の単位である。例えば、いくつかの実施形態では、深度面DP1は、1/3ジオプタ離れてもよく、深度面DP2は、0.3ジオプタ離れてもよく、深度面DP3は、0.2ジオプタ離れてもよく、深度面DP4は、0.15ジオプタ離れてもよく、深度面DP5は、0.1ジオプタ離れてもよく、深度面DP6は、無限遠(すなわち、0ジオプタ離れている)を表してもよい。他の実施形態は、深度面150を他の距離/ジオプタに生成してもよいことを理解されたい。したがって、仮想コンテンツを方略的に設置された深度面150に生成する際、ユーザは、仮想オブジェクトを3次元で知覚することが可能である。例えば、ユーザは、別の仮想オブジェクトが、深度面DP6における無限遠に現れる間、第1の仮想オブジェクトが、深度面DP1に表示されるとき、近接しているように知覚し得る。代替として、仮想オブジェクトは、最初に、深度面DP6に表示され、次いで、仮想オブジェクトがユーザに非常に近接して現れるまで、深度面DP5等に表示されてもよい。上記の実施例は、例証的目的のために有意に簡略化されていることを理解されたい。別の実施形態では、全6つの深度面は、ユーザから離れた特定の焦点距離上に集中されてもよい。例えば、表示されることになる仮想コンテンツが、ユーザから0.5メートル離れたコーヒーカップである場合、全6つの深度面は、コーヒーカップの種々の断面に生成され、ユーザに、コーヒーカップの非常に粒度が高い3Dビューを与え得る。
いくつかの実施形態では、VR、AR、および/またはMRシステムは、多面焦点システムとして作用してもよい。換言すると、全6つのLOEが、6つの固定深度面から生じるように現れる画像が、高速で連続して生成され、光源が、画像情報を、LOE1、次いで、LOE2、次いで、LOE3等に急速に伝達するように、ほぼ同時に照明されてもよい。例えば、光学無限遠における空の画像を含む、所望の画像の一部が、時間1において投入されてもよく、光のコリメーションを留保するLOE(例えば、図6からの深度面DP6)が、利用されてもよい。次いで、より近い木の枝の画像が、時間2において投入されてもよく、10メートル離れた深度面(例えば、図6からの深度面DP5)から生じるように現れる画像を作成するように構成される、LOEが、利用されてもよい。次いで、ペンの画像が、時間3において投入されてもよく、1メートル離れた深度面から生じるように現れる画像を作成するように構成される、LOEが、利用されてもよい。本タイプのパラダイムは、ユーザの眼および脳(例えば、視覚野)が入力を全て同一画像の一部であるように知覚するように、高速時系列方式で繰り返されることができる。
ブレンドモードでは、そのような多面焦点システムは、ポータブルVR、AR、および/またはMRシステムにおいて達成可能であり得ない、ディスプレイおよびプロセッサ速度の観点から、システム要件を有する。これらのシステム制限を克服するために、ブレンドモードシステムは、ユーザ/視認者の焦点深度に隣接する画像をより明確に表示し得る一方、ディスプレイおよびプロセッサ速度の観点から、より低い犠牲を払って、不明確に他の画像を表示する。離散モードでは、そのような多面焦点システムは、ユーザ/視認者の焦点位置に対応する単一深度面への光学深度にかかわらず、全ての3D画像コンテンツを投影し得る。しかしながら、全ての離散モードディスプレイシステムは、ユーザ/視認者の焦点深度の識別を要求する。
VR、AR、および/またはMRシステムは、Z軸(すなわち、深度面)に沿って種々の場所から生じるように現れ、3D体験/シナリオのための画像を生成する、画像を投影してもよい(すなわち、光ビームを発散または収束させることによって)。本願で使用されるように、光ビームは、限定ではないが、光源から照射される光エネルギー(可視および不可視光エネルギーを含む)の指向性投影を含む。種々の深度面から生じるように現れる画像を生成することは、その画像のためのユーザの眼の輻輳・開散運動および遠近調節に準拠し、輻輳・開散運動-遠近調節衝突を最小限にまたは排除する。
ここで図7を参照すると、ARまたはMRシステム700の例示的実施形態(以降、「システム700」と称される)が、図示される。システム700は、スタックされた光誘導光学要素(以降、「LOE790」と称される)を使用する。システム700は、概して、1つまたはそれを上回る画像生成プロセッサ710と、1つまたはそれを上回る光源720と、1つまたはそれを上回るコントローラ/ディスプレイブリッジ(DB)730と、1つまたはそれを上回る空間光変調器(SLM)740と、多面焦点システムとして機能する、スタックされたLOE790の1つまたはそれを上回るセットとを含む。システム700はまた、眼追跡サブシステム750を含んでもよい。
画像生成プロセッサ710は、ユーザに表示されるべき仮想コンテンツを生成するように構成される。画像生成プロセッサ710は、仮想コンテンツと関連付けられる画像またはビデオを、3Dにおいてユーザに投影され得る、フォーマットに変換してもよい。例えば、3Dコンテンツを生成する際、仮想コンテンツは、特定の画像の部分が、特定の深度面に表示される一方、その他が、他の深度面に表示されるように、フォーマット化される必要があり得る。一実施形態では、画像は全て、特定の深度面に生成されてもよい。別の実施形態では、画像生成プロセッサ710は、ともに視認されると、仮想コンテンツがユーザの眼にコヒーレントかつ快適に現れるように、若干異なる画像を右および左眼に提供するようにプログラムされてもよい。
画像生成プロセッサ710はさらに、メモリ712と、GPU714と、CPU716と、画像生成および処理のための他の回路網とを含んでもよい。画像生成プロセッサ710は、システム700のユーザに提示されるべき所望の仮想コンテンツでプログラムされてもよい。いくつかの実施形態では、画像生成プロセッサ710は、システム700内に格納されてもよいことを理解されたい。他の実施形態では、画像生成プロセッサ710および他の回路網は、システム700に結合される、ベルトパック内に格納されてもよい。いくつかの実施形態では、画像生成プロセッサ710またはその1つまたはそれを上回るコンポーネントは、ローカル処理およびデータモジュール(例えば、ローカル処理およびデータモジュール130)の一部であってもよい。上記に述べられたように、ローカル処理およびデータモジュール130は、フレーム構造102に固定して取り付けられる(図2)、ヘルメットまたは帽子56に固定して取り付けられる(図3)、エンドユーザ50の胴体58に除去可能に取り付けられる(図4)、またはベルト結合式構成においてエンドユーザ50の腰部60に除去可能に取り付けられる(図5)等、種々の構成において搭載されてもよい。
画像生成プロセッサ710が、所望される仮想コンテンツと関連付けられる光を投影する、光源720と、1つまたはそれを上回る空間光変調器740とに動作可能に結合される。光源720は、コンパクトであって、かつ高分解能を有する。光源720は、コントローラ/DB730に動作可能に結合される。光源720は、種々の幾何学的構成に配置される、色特有LEDおよびレーザを含んでもよい。代替として、光源720は、各1つずつディスプレイの視野の具体的領域にリンクされる、同様の色のLEDまたはレーザを含んでもよい。別の実施形態では、光源720は、放出面積および位置のセグメント化のためのマスクオーバーレイを伴う、白熱灯または蛍光灯等の広域エミッタを含んでもよい。光源720は、直接、図2Bにおけるシステム700に接続されるが、光源720は、光ファイバ(図示せず)を介して、本システム700に接続されてもよい。本システム700はまた、光源720からの光をコリメートするように構成される、集光器(図示せず)を含んでもよい。
SLM740は、種々の例示的実施形態では、反射性(例えば、LCOS、FLCOS、DLP DMD、またはMEMSミラーシステム)、透過性(例えば、LCD)、または発光性(例えば、FSDまたはOLED)であってもよい。SLM740のタイプ(例えば、速度、サイズ等)は、3D知覚の作成を改良するように選択されることができる。より高いリフレッシュレートで動作されるDLP DMDが、定常システム700の中に容易に組み込まれ得るが、ウェアラブルシステム700は、より小さいサイズおよび電力のDLPを使用してもよい。DLPの電力は、3D深度面/焦点面が作成される方法を変化させる。画像生成プロセッサ710は、SLM740に動作可能に結合され、これは、光源720からの光を所望の仮想コンテンツでエンコーディングする。光源720からの光は、それがSLM740から反射する、そこから放出する、またはそれを通して通過するとき、画像情報でエンコーディングされてもよい。
SLM740からの光は、SLM740によって1つの深度面および/または色のために画像データでエンコーディングされた光ビームが、ユーザの眼への送達のために、単一LOE790に沿って事実上伝搬されるように、LOE790に指向される。各LOE790が、所望される深度面またはFOV角位置から生じるように現れる画像またはサブ画像をユーザの網膜上に投影するように構成される。光源720およびLOE790は、したがって、空間内の種々の深度面または位置から生じるように現れる、画像(同期して、コントローラ/DB730の制御下、SLM740によってエンコーディングされる)を選択的に投影することができる。光源720およびLOE790のそれぞれを使用して、十分に高フレームレート(例えば、60Hzの事実上完全体積フレームレートにおいて、6つの深度面に関して360Hz)において、画像を順次投影することによって、システム700は、3D画像内に同時に存在するように現れる、仮想オブジェクトの3D画像を種々の深度面に生成することができる。
コントローラ/DB730は、画像生成プロセッサ710、光源720、およびSLM740と通信し、それに動作可能に結合され、SLM740に、光源720からの光ビームを画像生成プロセッサ710からの適切な画像情報でエンコーディングするように命令することによって、画像の同期表示を協調させる。本システムは、画像生成プロセッサ710を含むが、コントローラ/DB730もまた、いくつかの実施形態では、例えば、メモリ712、GPU714、および/またはCPU716のプロセスを含む、少なくともいくつかの画像生成プロセスを実施してもよい。いくつかの実施形態では、コントローラ/DB730は、例えば、メモリ712、GPU714、および/またはCPU716等、画像生成プロセッサ710内に示される、1つまたはそれを上回るコンポーネントを含んでもよい
システム700はまた、ユーザの眼を追跡し、ユーザの輻輳・開散運動点およびユーザの眼毎の方向を決定するように構成される、眼追跡サブシステム750を含んでもよい。眼追跡サブシステム750はまた、画像をより効率的に生成し、および/または離散モードで(例えば、ユーザの輻輳・開散運動点および/またはユーザの眼毎の方向を使用して)画像を表示するために、ユーザ/視認者の焦点に対応する深度面を識別するように構成され得る。一実施形態では、システム700は、画像が、図9Aおよび9Bに示されるように、ユーザの焦点と一致する、所望の深度面に生成されるように、眼追跡サブシステム750からの入力に基づいて、離散モードにおいて、LOE790のサブセットを照明するように構成される。例えば、ユーザの焦点が、無限遠にある場合(例えば、ユーザの眼が相互に平行であり、他の要因が下記に説明される)、システム700は、画像が光学無限遠から生じるように現れるように、コリメートされた光をユーザの眼に送達するように構成される、LOE790を照明してもよい。別の実施例では、眼追跡サブシステム750が、ユーザの焦点が1メートル離れていることを決定する場合、その範囲内にほぼ合焦するように構成される、LOE790が、代わりに、照明されてもよい。深度範囲全体に近似する深度面が、ブレンドモードにおいて、同時に(またはほぼ同時に)照明される、実施形態では、眼追跡サブシステム750は、依然として、ユーザの焦点を識別することによって、より効率的な画像をレンダリングすることを有効にし得る。
例証的ユーザ/視認者焦点深度決定システムおよび方法
図12Aは、近および遠立方体810、812、および円柱814が、近深度面0に隣接する、近立方体810への視認者816の焦点を追跡することに応答して、近深度面0上に投影される、離散モードディスプレイを描写する。近深度面0への投影は、近深度面0より遠深度面1により近い、遠立方体812および円柱814に関してさえ、視認者に近深度面0への遠近調節をもたらす。離散モードで動作するために、本システムは、視認者816の焦点(「焦点面」)に対応する、深度面を識別または取得しなければならない。
図13および14は、システムを描写し、図16は、視認者816の焦点面を決定するための方法を描写する。ステップ1612では(図16参照)、ディスプレイシステム(例えば、その眼追跡サブシステム)は、視認者816の視線経路1350を追跡する(図13および14参照)。ディスプレイシステムは、視線経路1350を追跡するために、眼追跡サブシステム(上記に説明される)を使用してもよい。いくつかの実施形態では、ディスプレイシステムは、1つまたはそれを上回る視線経路を追跡する。例えば、ディスプレイシステムは、視認者816の左眼のみ、右眼のみ、または両眼のための視線経路を追跡してもよい。ステップ1614において、ディスプレイシステムは、視認者816の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために、3D画像データを分析する。視認者816の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために3D画像データを分析するステップは、3Dデータに対応する、深度セグメント化データを分析するステップを含んでもよい。ステップ1616において決定されるように、視認者816の視線経路と交差する、1つの仮想オブジェクトのみが存在する場合、ディスプレイシステムは、交点において交差する仮想オブジェクトの深度を、ステップ1618における視認者816の焦点面の深度として識別する。
特に、図13および14は、視認者816の視線経路1350が、近立方体810のみを交差することを示す。図14は、近立方体810が、1410の深度を有し、遠立方体812が、1412の深度を有し、円柱814が、1414の深度を有することを示す。図14はまた、本システムが、1つまたはそれを上回る深度1408において画像を投影することが可能であることを示す。本システムは、近立方体810が視認者816の視線経路1305と交差する仮想オブジェクトのみであることを決定しているため、本システムは、近立方体810の深度1410を視認者816の焦点面の深度として識別する。必要ではないが、視認者816の焦点面を決定するための本システムおよび方法は、仮想オブジェクト810、812、814が、すでに視認者816に表示されていると、より正確である。そのような実施形態では、視認者816の視線経路1350は、視認者816が、特定の仮想オブジェクト(例えば、近立方体810)に合焦する可能性が高いことを示す。
視認者の視線経路が1つを上回る仮想オブジェクトを交差する実施形態(すなわち、ステップ1616における「いいえ」)では、ディスプレイシステムは、ステップ1620-1626における随意の方法に沿って進んでもよい。ステップ1620において、ディスプレイシステムは、視認者の第2の視線経路を追跡する。いくつかの実施形態では、第1の視線経路は、ユーザの第1の眼と関連付けられ、第2の視線経路は、ユーザの第2の眼と関連付けられる。ステップ1622では、ディスプレイシステムは、視認者の第2の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために、3D画像データを分析する。ステップ1624において決定されるように、視認者の視線経路および第2の視線経路の両方を交差する1つのみの仮想オブジェクトが存在する場合、ディスプレイシステムは、ステップ1626において、交差する仮想オブジェクトの深度を視認者の焦点面の深度として識別する。
いくつかの実施形態では、ディスプレイシステムは、視認者の眼の輻輳・開散運動点を決定するために、眼追跡サブシステムを使用してもよい。次いで、ディスプレイシステムは、視認者の焦点面の深度のその識別を確認するために、決定された輻輳・開散運動点を使用してもよい。
離散ディスプレイモード実施形態では、ディスプレイシステムは、3D画像データに対応する仮想オブジェクトを表示するために、視認者の識別された焦点面(例えば、その深度)を使用してもよい。
図12Bは、いくつかの実施形態による、ブレンドモード合成ライトフィールドを描写する。ブレンドディスプレイモードでは、近および遠立方体810、812、および円柱814は、本システムの光学軸(「Z軸」)に沿って、近および遠立方体810、812および円柱814の個別の場所に隣接する、個別の仮想深度面1210、1212、1214上に「仮想的に投影される」。近および遠深度面0、1のみが、実際には、照明されるため、近および遠立方体810、812、および円柱814のみが、仮想的に投影される。上記に説明されるように、仮想深度面1210、1212、1214上への仮想投影は、近および遠深度面0、1上に投影されたサブ画像のスカラーブレンドを通して、シミュレートされる。仮想深度面1210、1212、1214のそれぞれに投影される2D画像のレンダリングは、その中にオブジェクトのブレンドを含んでもよい。
視認者の焦点面(例えば、その深度)の識別は、ブレンドディスプレイモードでオブジェクトを表示するために必要ではないが、視認者の焦点面を識別し、ブレンドモードディスプレイシステムがそのハードウェア制限(処理、表示、メモリ、通信チャネル等)内で動作することを可能にする。特に、視認者の焦点面が、ブレンドモードディスプレイシステムが、視認者の焦点面において仮想オブジェクトの表示のためにシステムリソースを効率的に分配することを可能にする場合である。
ブレンドディスプレイモードシステムに関して、本方法は、3Dデータを分析し、視認者816の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別する代わりに、ディスプレイシステムが、視認者816の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために、ブレンドモードディスプレイの2D画像フレームのみを分析し得るという点で、簡素化されることができる。これは、ディスプレイシステムがより少ないデータを分析することを可能にし、それによって、システム効率性を増加させ、システムリソース需要を低減させる。
上記の実施形態は、ユーザの深度/視認者の焦点を決定するための種々の異なる方法を含む。ユーザ/視認者の焦点深度を決定するステップは、ディスプレイシステムが焦点深度において離散ディスプレイモードでオブジェクトを投影することを可能にし、それによって、ディスプレイシステム上の需要を低減させる。そのような低減された需要は、ディスプレイおよびプロセッサ速度、電力、および熱生成を含む。ユーザ/視認者の焦点深度を決定するステップはまた、ディスプレイシステムが、システムリソースをユーザ/視認者の焦点面上の画像に分配しながら、ブレンドディスプレイモードでオブジェクトを投影することを可能にする。さらに、上記に説明されるユーザ/視認者焦点面決定ステップは、他の焦点面決定技法より効率的であり、速度、電力、および熱生成の観点から、プロセッサ性能を改良する。
システムアーキテクチャ概要
図17は、本開示の実施形態を実装するために好適な例証的コンピューティングシステム1700のブロック図である。コンピュータシステム1700は、情報を通信するためのバス1706または他の通信機構を含み、これは、プロセッサ1707、システムメモリ1708(例えば、RAM)、静的記憶デバイス1709(例えば、ROM)、ディスクドライブ1710(例えば、磁気または光学)、通信インターフェース1714(例えば、モデムまたはイーサネット(登録商標)カード)、ディスプレイ1711(例えば、CRTまたはLCD)、入力デバイス1712(例えば、キーボード)、およびカーソル制御等のサブシステムおよびデバイスを相互接続する。
本開示の一実施形態によると、コンピュータシステム1700は、プロセッサ1707がシステムメモリ1708内に含有される1つまたはそれを上回る命令の1つまたはそれを上回るシーケンスを実行することによって、具体的動作を実施する。そのような命令は、静的記憶デバイス1709またはディスクドライブ1710等の別のコンピュータ可読/使用可能媒体からシステムメモリ1708の中に読み込まれてもよい。代替実施形態では、有線回路網が、本開示を実装するために、ソフトウェア命令の代わりに、またはそれと組み合わせて使用されてもよい。したがって、本開示の実施形態は、ハードウェア回路網および/またはソフトウェアの任意の具体的組み合わせに限定されない。一実施形態では、用語「論理」は、本開示の全部または一部を実装するために使用される、ソフトウェアまたはハードウェアの任意の組み合わせを意味するものとする。
本明細書で使用されるような用語「コンピュータ可読媒体」または「コンピュータ使用可能媒体」は、実行のために命令をプロセッサ1707に提供する際に関わる、任意の媒体を指す。そのような媒体は、限定ではないが、不揮発性媒体および揮発性媒体を含む、多くの形態をとり得る。不揮発性媒体は、例えば、ディスクドライブ1710等の光学または磁気ディスクを含む。揮発性媒体は、システムメモリ1708等の動的メモリを含む。
一般的形態のコンピュータ可読媒体は、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、任意の他の磁気媒体、CD-ROM、任意の他の光学媒体、パンチカード、紙テープ、孔のパターンを伴う任意の他の物理的媒体、RAM、PROM、EPROM、FLASH-EPROM(例えば、NANDフラッシュ、NORフラッシュ)、任意の他のメモリチップまたはカートリッジ、またはそこからコンピュータが読み取ることができる、任意の他の媒体を含む。
本開示のある実施形態では、本開示を実践するための命令のシーケンスの実行は、単一コンピュータシステム1700によって実施される。本開示の他の実施形態によると、通信リンク1715(例えば、LAN、PTSN、または無線ネットワーク)によって結合される、2つまたはそれを上回るコンピュータシステム1700が、相互に協調して本開示を実践するために要求される、命令のシーケンスを実施してもよい。
コンピュータシステム1700は、通信リンク1715および通信インターフェース1714を通して、プログラム、すなわち、アプリケーションコードを含む、メッセージ、データ、および命令を伝送および受信してもよい。受信されたプログラムコードは、受信されるにつれて、プロセッサ1707によって実行され、および/またはディスクドライブ1710または後の実行のための他の不揮発性記憶装置内に記憶されてもよい。記憶媒体1731内のデータベース1732は、データインターフェース1733を介してシステム1700によってアクセス可能なデータを記憶するために使用されてもよい。
上記に説明されるブレンドモード実施形態は、2つの深度面(例えば、近および遠深度面)を含むが、他の実施形態は、2つを上回る深度面を含んでもよい。深度面の数を増加させることは、それを用いて仮想深度面がシミュレートされる、忠実性を増加させる。しかしながら、本忠実性の増加は、現在のポータブル3Dレンダリングおよびディスプレイシステムにおいて利用可能なリソースを超え得る、ハードウェアおよび処理需要の増加によって相殺される。
本開示のある側面、利点、および特徴が、本明細書に説明される。必ずしも、全てのそのような利点が、本開示の任意の特定の実施形態に従って達成され得るわけではないことを理解されたい。したがって、本開示は、必ずしも、本明細書に教示または提案され得るような他の利点を達成せずに、本明細書に教示されるような1つの利点または利点のグループを達成または最適化する様式において、具現化または実行されてもよい。
実施形態は、付随の図面に関連して説明されている。しかしながら、図は、正確な縮尺で描かれていないことを理解されたい。距離、角度等は、単に、例証的であって、必ずしも、図示されるデバイスの実際の寸法およびレイアウトに対する正確な関係を保つわけではない。加えて、前述の実施形態は、当業者が、本明細書に説明されるデバイス、本システム、方法、および同等物を作製および使用することを可能にするような詳細のレベルにおいて説明されている。様々な変形例も、可能性として考えられる。コンポーネント、要素、および/またはステップは、改変、追加、除去、または再配列されてもよい。
本明細書に説明されるデバイスおよび方法は、有利なこととして、少なくとも部分的に、例えば、コンピュータソフトウェア、ハードウェア、ファームウェア、またはソフトウェア、ハードウェア、およびファームウェアの任意の組み合わせを使用して実装されることができる。ソフトウェアモジュールは、本明細書に説明される機能を実施するために、コンピュータのメモリ内に記憶される、コンピュータ実行可能コードを含むことができる。いくつかの実施形態では、コンピュータ実行可能コードは、1つまたはそれを上回る汎用コンピュータによって実行される。しかしながら、当業者は、本開示に照らして、汎用コンピュータ上で実行されることになるソフトウェアを使用して実装され得る、任意のモジュールもまた、ハードウェア、ソフトウェア、またはファームウェアの異なる組み合わせを使用して実装されることができることを理解するであろう。例えば、そのようなモジュールは、完全に、集積回路の組み合わせを使用して、ハードウェア内に実装されることができる。代替として、または加えて、そのようなモジュールは、完全または部分的に、汎用コンピュータによってではなく、本明細書に説明される特定の機能を実施するように設計される、特殊コンピュータを使用して実装されることができる。加えて、少なくとも部分的に、コンピュータソフトウェアによって行われる、または行われ得る、方法が、説明される場合、そのような方法は、コンピュータまたは他の処理デバイスによって読み取られると、それに方法を行わせる、非一過性コンピュータ可読媒体上に提供され得ることを理解されたい。
ある実施形態が、明示的に説明されているが、他の実施形態も、本開示に基づいて、当業者に明白となるであろう。
本明細書に説明される種々のプロセッサおよび他の電子コンポーネントは、光を投影するための任意の光学システムと併用するために好適である。本明細書に説明される種々のプロセッサおよび他の電子コンポーネントはまた、音声コマンドを受信するための任意のオーディオシステムと併用するために好適である。
本開示の種々の例示的実施形態が、本明細書に説明される。これらの実施例は、非限定的意味で参照される。それらは、本開示のより広義に適用可能な側面を例証するために提供される。種々の変更が、説明される本開示に行われてもよく、本開示の真の精神および範囲から逸脱することなく、均等物が代用されてもよい。加えて、多くの修正が、特定の状況、材料、組成物、プロセス、プロセス作用、またはステップを本開示の目的、精神、または範囲に適合させるために行われてもよい。さらに、当業者によって理解されるであろうように、本明細書で説明および例証される個々の変形例はそれぞれ、本開示の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離される、またはそれらと組み合わせられる、離散コンポーネントおよび特徴を有する。全てのそのような修正は、本開示と関連付けられた請求項に記載の範囲内であることが意図される。
本開示は、本主題のデバイスを使用して実施され得る方法を含む。本方法は、そのような好適なデバイスを提供する行為を含んでもよい。そのような提供は、エンドユーザによって実施されてもよい。換言すると、「提供する」行為は、単に、エンドユーザが、本主題の方法において必要なデバイスを取得する、それにアクセスする、それに接近する、それを位置付ける、それを設定する、それをアクティブ化する、それに電源を入れる、または別様にそれを提供するように作用することを要求する。本明細書に列挙される方法は、論理的に可能な列挙されたイベントの任意の順序およびイベントの列挙された順序で行われてもよい。
本開示の例示的側面が、材料選択および製造に関する詳細とともに、上記に記載されている。本開示の他の詳細に関して、これらは、上記で参照された特許および刊行物に関連して理解され、概して、当業者によって公知である、または理解され得る。同じことが、一般または論理的に採用されるような付加的作用の観点から、本開示の方法ベースの側面に関しても当てはまり得る。
加えて、本開示は、随意に、種々の特徴を組み込む、いくつかの実施例を参照して説明されたが、本開示は、開示の各変形例に関して検討されるように説明または図示されるものに限定されるものではない。種々の変更が、説明される本開示に行われてもよく、均等物(本明細書に列挙されるか、またはある程度の簡潔目的のために含まれないかどうかにかかわらず)が、本開示の真の精神および範囲から逸脱することなく代用されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値および任意の他の述べられた値または述べられた範囲内の介在値が、本開示内に包含されるものと理解されたい。
また、説明される変形例の任意の随意の特徴は、独立して、または本明細書に説明される特徴のうちの任意の1つまたはそれを上回るものと組み合わせて、記載および請求され得ることが検討される。単数形項目の言及は、複数の同一項目が存在する可能性を含む。より具体的には、本明細書および本明細書に関連付けられた請求項で使用されるように、単数形「a」、「an」、「said」、および「the」は、別様に具体的に述べられない限り、複数の言及を含む。換言すると、冠詞の使用は、上記の説明および本開示と関連付けられる請求項における本主題の項目のうちの「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意の要素を除外するように起草され得ることに留意されたい。したがって、本文言は、請求項の要素の列挙と関連する「単に」、「のみ」、および同等物等の排他的専門用語の使用、または「消極的」限定の使用のための先行詞としての役割を果たすことが意図される。
そのような排他的専門用語を使用しなければ、本開示と関連付けられる請求項における用語「~を備える(comprising)」は、所与の数の要素がそのような請求項で列挙されるかどうかにかかわらず、任意の付加的要素の包含を可能にするものとする、または特徴の追加は、そのような請求項に記載される要素の性質を変換すると見なされ得る。本明細書で具体的に定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の正当性を維持しながら、可能な限り広い一般的に理解されている意味を与えられるべきである。
本開示の範疇は、提供される実施例および/または本明細書に限定されるべきではなく、むしろ、本開示と関連付けられた請求項の言語の範囲によってのみ限定されるべきである。
前述の明細書では、本開示は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本開示のより広義の精神および範囲から逸脱することなく、そこに行われてもよいことが明白であろう。例えば、前述のプロセスフローは、プロセスアクションの特定の順序を参照して説明される。しかしながら、説明されるプロセスアクションの多くの順序は、本開示の範囲または動作に影響を及ぼすことなく、変更されてもよい。明細書および図面は、故に、限定的意味ではなく、例証と見なされるべきである。

Claims (10)

  1. 3次元(「3D」)ディスプレイデバイスのユーザの焦点深度を決定するための方法であって、
    前記ユーザの第1の視線経路を追跡することと、
    前記ユーザの前記第1の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために3Dデータを分析することと、
    1つのみの仮想オブジェクトが、前記ユーザの前記第1の視線経路と交差するとき、前記1つのみの仮想オブジェクトの深度を前記ユーザの焦点深度として識別することと
    を含む、方法。
  2. 前記1つまたはそれを上回る仮想オブジェクトはそれぞれ、前記ユーザから個別の深度において表示される、請求項1に記載の方法。
  3. 前記複数の3Dデータを分析することは、3Dデータに対応する深度セグメント化データを分析することを含む、請求項1に記載の方法。
  4. 1つを上回る仮想オブジェクトが、前記ユーザの第1の視線経路と交差するとき、
    前記ユーザの第2の視線経路を追跡することと、
    前記ユーザの第2の視線経路に沿って、前記1つまたはそれを上回る仮想オブジェクトを識別するために3Dデータを分析することと、
    1つのみの仮想オブジェクトが、前記ユーザの第1の視線経路および第2の視線経路の両方と交差するとき、1つのみの2D画像フレームの深度を前記ユーザの焦点深度として識別することと
    をさらに含む、請求項1に記載の方法。
  5. 前記ユーザの輻輳・開散運動焦点深度を生成するために、輻輳・開散運動分析を前記ユーザに実施することと、
    前記ユーザの焦点深度の正確度を改良するために、前記ユーザの輻輳・開散運動焦点深度を使用することと
    をさらに含む、請求項1に記載の方法。
  6. 3次元(「3D」)ディスプレイデバイスのユーザの焦点深度を決定するための方法であって、
    前記ユーザの第1の視線経路を追跡することと、
    前記ユーザの前記第1の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために、前記ディスプレイデバイスによって表示される複数の2次元(「2D」)画像フレームを分析することと、
    前記複数の2D画像フレームの1つのみが、前記ユーザの第1の視線経路に沿って、仮想オブジェクトを含むとき、前記1つのみの2D画像フレームの深度を前記ユーザの焦点深度として識別することと
    を含む、方法。
  7. 前記複数の2D画像フレームはそれぞれ、前記ユーザから個別の深度において表示される、請求項6に記載の方法。
  8. 前記複数の2D画像フレームを分析することは、前記複数の2D画像フレームに対応する深度セグメント化データを分析することを含む、請求項6に記載の方法。
  9. 前記複数の2D画像フレームの1つを上回るものが、前記ユーザの第1の視線経路に沿って、仮想オブジェクトを含むとき、
    前記ユーザの第2の視線経路を追跡することと、
    前記ユーザの第2の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために、前記ディスプレイデバイスによって表示される前記複数の2D画像フレームを分析することと、
    前記複数の2D画像フレームの1つのみが、前記ユーザの第1の視線経路および第2の視線経路の両方に沿って、仮想オブジェクトを含むとき、前記1つのみの2D画像フレームの深度を前記ユーザの焦点深度として識別することと
    をさらに含む、請求項6に記載の方法。
  10. 前記ユーザの輻輳・開散運動焦点深度を生成するために、輻輳・開散運動分析を前記ユーザに実施することと、
    前記ユーザの焦点深度の正確度を改良するために、前記ユーザの輻輳・開散運動焦点深度を使用することと
    をさらに含む、請求項6に記載の方法。
JP2022533463A 2019-12-06 2020-12-03 仮想、拡張、および複合現実システムおよび方法 Pending JP2023505230A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962945027P 2019-12-06 2019-12-06
US62/945,027 2019-12-06
PCT/US2020/063155 WO2021113540A1 (en) 2019-12-06 2020-12-03 Virtual, augmented, and mixed reality systems and methods

Publications (2)

Publication Number Publication Date
JP2023505230A true JP2023505230A (ja) 2023-02-08
JPWO2021113540A5 JPWO2021113540A5 (ja) 2023-11-09

Family

ID=76210464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022533463A Pending JP2023505230A (ja) 2019-12-06 2020-12-03 仮想、拡張、および複合現実システムおよび方法

Country Status (5)

Country Link
US (2) US11662808B2 (ja)
EP (1) EP4070153A4 (ja)
JP (1) JP2023505230A (ja)
CN (1) CN114830011A (ja)
WO (1) WO2021113540A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115562496B (zh) * 2022-11-04 2023-12-15 浙江舜为科技有限公司 Xr设备及基于xr设备的字符输入方法和字符修改方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US11138793B2 (en) * 2014-03-14 2021-10-05 Magic Leap, Inc. Multi-depth plane display system with reduced switching between depth planes
KR101844883B1 (ko) * 2014-12-23 2018-04-03 메타 컴퍼니 관심 객체의 임의의 깊이에 있는 동일한 평면으로 시각적 조절과 시각적 수렴을 결합시키는 장치, 방법 및 시스템
US10241569B2 (en) * 2015-12-08 2019-03-26 Facebook Technologies, Llc Focus adjustment method for a virtual reality headset
US10025060B2 (en) * 2015-12-08 2018-07-17 Oculus Vr, Llc Focus adjusting virtual reality headset
EP3249497A1 (en) * 2016-05-24 2017-11-29 Harman Becker Automotive Systems GmbH Eye tracking
PL3494695T3 (pl) * 2016-08-04 2024-02-19 Dolby Laboratories Licensing Corporation Rozwiązania akomodacji-wergencji ze śledzeniem pojedynczej głębi
US10928638B2 (en) * 2016-10-31 2021-02-23 Dolby Laboratories Licensing Corporation Eyewear devices with focus tunable lenses
KR20240046291A (ko) * 2017-03-22 2024-04-08 매직 립, 인코포레이티드 디스플레이 시스템들을 위한 깊이 기반 포비티드 렌더링
GB2569574B (en) * 2017-12-20 2021-10-06 Sony Interactive Entertainment Inc Head-mountable apparatus and methods
CN112753037A (zh) * 2018-09-28 2021-05-04 苹果公司 传感器融合眼睛跟踪
CN109491508B (zh) 2018-11-27 2022-08-26 北京七鑫易维信息技术有限公司 一种确定注视对象的方法和装置
US11132056B2 (en) * 2019-12-04 2021-09-28 Facebook Technologies, Llc Predictive eye tracking systems and methods for foveated rendering for electronic displays

Also Published As

Publication number Publication date
EP4070153A1 (en) 2022-10-12
US20230251710A1 (en) 2023-08-10
EP4070153A4 (en) 2023-01-18
US20210173478A1 (en) 2021-06-10
US11662808B2 (en) 2023-05-30
CN114830011A (zh) 2022-07-29
WO2021113540A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
US11451882B2 (en) Cinematic mastering for virtual reality and augmented reality
CN110402425B (zh) 具有彩色虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
CN108369457B (zh) 用于混合现实的现实混合器
US20190122442A1 (en) Augmented Reality
CN110419061B (zh) 混合现实系统及使用该系统生成虚拟内容的方法
CN107710284B (zh) 用于在虚拟图像生成系统中更有效地显示文本的技术
JP7201869B1 (ja) 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成
US20240169489A1 (en) Virtual, augmented, and mixed reality systems and methods
US20230251710A1 (en) Virtual, augmented, and mixed reality systems and methods
US11818325B2 (en) Blended mode three dimensional display systems and methods
CN115512087A (zh) 使用在预定距离处的遮挡表面生成和修改人工现实环境

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231030

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240513