JP2022516270A - 制御システムおよびレンダリングパイプライン - Google Patents

制御システムおよびレンダリングパイプライン Download PDF

Info

Publication number
JP2022516270A
JP2022516270A JP2021538384A JP2021538384A JP2022516270A JP 2022516270 A JP2022516270 A JP 2022516270A JP 2021538384 A JP2021538384 A JP 2021538384A JP 2021538384 A JP2021538384 A JP 2021538384A JP 2022516270 A JP2022516270 A JP 2022516270A
Authority
JP
Japan
Prior art keywords
display
foveal
field
data
synthesizer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021538384A
Other languages
English (en)
Other versions
JPWO2020146288A5 (ja
JP7460637B2 (ja
Inventor
マシュー イーシュ,アーロン
ジョン グロス,アンドリュー
グァン,ベーカー
チア ニン タング,エドワード
ロジャー バッテル,ジョセフ
ザ サード.ウォーレン コーニーリアス ウェルチ
Original Assignee
エイヴギャント コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エイヴギャント コーポレイション filed Critical エイヴギャント コーポレイション
Publication of JP2022516270A publication Critical patent/JP2022516270A/ja
Publication of JPWO2020146288A5 publication Critical patent/JPWO2020146288A5/ja
Application granted granted Critical
Publication of JP7460637B2 publication Critical patent/JP7460637B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Abstract

システムは、フィールドディスプレイ用のフィールドテクスチャおよび操縦可能な中心窩ディスプレイ用の中心窩テクスチャをレンダリングするためのレンダリングエンジンと、フィールドテクスチャからフィールドディスプレイ用のフレームを生成するためのフィールド合成器および中心窩テクスチャから中心窩ディスプレイ用のフレームを生成する中心窩合成器を含む合成器と、を含む。システムはさらに、フィールドディスプレイおよび中心窩ディスプレイのデータのうちの1つ以上を含む提示されるものを順序付け、選択するように設計された合成マネージャを含む。【選択図】図1

Description

本発明は、ディスプレイ、より具体的には操縦可能なディスプレイに関する。
ニアアイディスプレイには、広い視野(FOV)にわたって高解像度で画像を表示するという競合する要件がある。仮想現実および拡張現実の多くの用途では、視野は90度より大きくする必要があり、理想的には両眼の視野は180度以上に及ぶ。同時に、ディスプレイの解像度は、仮想画像でピクセル化がほとんどまたはまったく知覚されないように、人間の視覚系の解像度と一致している必要がある。1つのシステムにおいて、これら2つの要件を組み合わせると、いくつかの課題が提示される。
さらに、視野全体にわたって十分に高い解像度で広いFOVの画像をユーザに投影できる光学システムも、タイミングの問題のために設計が困難である。
図のリスト
本発明は、限定ではなく例として、添付の図面の図に示され、図面において、同様の参照番号は、同様の要素を指す。
レンダリングエンジンを実装し得るシステムの一実施形態の概要イメージである。
レンダリングエンジンの一実施形態のブロック図である。
レンダリングエンジンおよび合成器システムの一実施形態のブロック図である。
レンダリングエンジンおよび合成器システムの一実施形態のフローチャートである。
中心窩マネージャの一実施形態の論理図である。
図5Aおよび図5Bはシステムにおける視線追跡およびミラー制御の一実施形態のフローチャートである。
タイミングアーキテクチャの実施形態を示すタイミング図である。
同期システムのタイミング図の一実施形態を示す。
レンダリングエンジンで使用され得るコンピュータシステムのブロック図である。
本出願は、中心窩で捉えるディスプレイを含むシステムのための制御システムおよびレンダリングパイプラインを開示する。中心窩ディスプレイは、一実施形態では、より小さく、より高い解像度の画像を表示するように位置付けることができる操縦可能なディスプレイであり、これは、概して、ユーザの網膜中心窩に一致するように位置付けられる。人間の眼は、中心窩ではるかに高い解像度を知覚し、解像度を知覚する能力は、その領域から離れると急速に低下する。したがって、より小さな視野(FOV)の高解像度ディスプレイを中心窩領域に向け、残りの視野をより低解像度のディスプレイでカバーすることで、FOV全体にわたって高解像度ディスプレイの知覚が提供される。「中心窩で捉えるディスプレイ」または「中心窩ディスプレイ」という用語が本出願で使用され、一実施形態では、ディスプレイは、ユーザの中心窩領域を対象とするが、他の実施形態では、開示される操縦可能なディスプレイは、ユーザの視野内の他の場所に位置付けられ得る。
一実施形態では、中心窩ディスプレイは、より広い視野にわたってより低い解像度のディスプレイを提供するフィールドディスプレイと対になっている。一実施形態では、中心窩ディスプレイの表示領域(位置およびサイズ)に対応する領域がフィールドディスプレイから切り取られ、中心窩ディスプレイとフィールドディスプレイとの間のエッジがブレンドされる。
そのような中心窩で捉える画像を実装する一実施形態は、参照により本明細書に組み込まれる、2019年12月24日に発行された米国特許第10,514,546号に記載されている。
このようなディスプレイを可能にするために、システムは、フィールドディスプレイによって表示される画像を、操縦可能なディスプレイによって表示される画像と、位置だけでなく、明るさおよびトーンも一致させなければならない。ユーザが知覚する不一致がある場合、それは、ユーザ体験を低下させるぼやけ、点滅、または他の光学的アーティファクトとして知覚される可能性がある。一実施形態における本制御システムおよびレンダリングパイプラインは、そのような同期されたプレゼンテーションの作成を可能にする。一実施形態では、フィールドディスプレイおよび中心窩ディスプレイのレンダリングは、非同期的であり得る。一実施形態では、それらは異なるフレームレートを有し得る。ただし、その要素のタイミングは、ユーザがプレゼンテーションをシームレスに知覚するようなタイミングである。この文脈において、「プレゼンテーション」という用語は、フィールドディスプレイと中心窩ディスプレイの組み合わせによって表示され得る、ユーザに表示される視覚画像または一連の画像の視聴者の知覚を示す。
レンダリング、データレート、およびパネル要件を同時に削減しながら、広い視野にわたって高解像度の画像をユーザに提示することができるシステムアーキテクチャにより、拡張および仮想現実システムの新しい用途が可能になる。
本発明の実施形態の以下の詳細な説明は、同様の参照記号が類似の要素を示し、本発明を実施する特定の実施形態を例示として示す添付の図面を参照する。これらの実施形態の説明は、当業者が本発明を実施することを可能にするのに十分詳細である。当業者であれば、他の実施形態を利用し得、本発明の範囲から逸脱することなく、論理的、機械的、電気的、機能的および他の変更を行い得ることを理解する。したがって、以下の詳細な説明は、限定的な意味で解釈されるべきではなく、本発明の範囲は、添付の特許請求の範囲によってのみ定義される。
図1は、フィールドディスプレイおよび中心窩ディスプレイを含むハイブリッドディスプレイの配置を示している。一実施形態では、フィールドディスプレイ110、115は、右眼115および左眼110のための別個のフィールドディスプレイであり得る。別の実施形態では、フィールドディスプレイ110、115は、両眼にわたる単一のディスプレイであり得る。
フィールドディスプレイ110、115は、切り欠き130、135を有し、中心窩ディスプレイ120、125は、その切り欠きに挿入される。一実施形態では、中心窩ディスプレイ120、125は、操縦可能であり、ユーザの視線に基づいて位置付けられる。一実施形態では、中心窩ディスプレイ120、125は、操縦可能であり、その位置は、シーンコンテンツ、環境要素、イベント、および/または他の要因に基づく。
フィールドディスプレイ110、115と中心窩ディスプレイ120、125との間にブレンディング140、145が存在する。ブレンディング140、145は、フィールドディスプレイ110、115と中心窩ディスプレイ120、125との間の遷移がスムーズであり、不快感を与えないことを確実にする。一実施形態では、ブレンディングは、アルファマスクベースのブレンディング、ディザリング、時間的マルチサンプルアンチエイリアシング、空間アンチエイリアシング、ぼかし、ならびに明るさ、色などの調整を含み得る。
一実施形態では、ブレンディング領域140、145は、サイズおよび/または形状が動的である。一実施形態では、中心窩領域120、125のサイズおよび/または形状は、調整可能であり得る。一実施形態では、中心窩領域120、125のサイズおよび/または形状は、シーンコンテンツ、ユーザの挙動、システムのオプトメカニカル特性、視野範囲全体にわたる視線追跡性能などを含む様々な要因のために変更され得る。
図2は、例示的な光学システム210、280および関連する処理システム240の一実施形態を示している。一実施形態では、処理システムは、プロセッサを含むコンピュータシステムに実装され得る。一実施形態では、処理システム240は、ディスプレイシステムの一部であり得る。別の実施形態では、処理システム240は、光学システムに対してローカルまたはリモートであり得る別個のシステムであり得る。
一実施形態では、ディスプレイ210、280は、ヘッドマウントディスプレイなどのウェアラブルデバイスに実装され得る。
操縦可能なディスプレイ画像は、右眼の操縦可能なディスプレイ220および左眼の操縦可能なディスプレイ230を介してユーザの眼に提示される。一実施形態では、操縦可能なディスプレイ220、230は、操縦可能なディスプレイ画像を、主にユーザの眼の視野の中心に向ける。別の実施形態では、操縦可能なディスプレイは、中心窩画像を、ユーザの眼の視野の中心以外の位置に置き得る。一実施形態では、その位置は、ユーザの頭の位置に対して固定され、1つ以上の環境要素に対して固定され、視線に対して固定され得る、など。一実施形態では、中心窩画像位置は、シーンコンテンツ、環境要素、イベント、および/または他の要因に基づき得る。一実施形態では、以下に説明するように、画像は異なる場所に向けられ得る。操縦可能なディスプレイ画像は、一実施形態では、限られた視野の高解像度画像である。
一実施形態では、操縦可能なディスプレイ画像は、可変解像度画像である。一実施形態では、可変解像度は、ディスプレイの中央で最も高い。一実施形態では、解像度の変化は、中心窩の中心からさらに離れて移動するにつれて低下する、ユーザの眼によって知覚される最大解像度の変化に対応する。一実施形態では、可変解像度画像は、中心に第1の最高解像度ゾーン、および中心から離れた1つ以上の低解像度ゾーンを有する離散的な解像度ゾーンを有する。一実施形態では、低解像度ゾーンは、最高解像度ゾーンと同心である。
一実施形態では、操縦可能なディスプレイは、多焦点ディスプレイであり得る。多焦点ディスプレイでは、一実施形態では、異なる焦点距離にある一連の画像が、ユーザが単一の多焦点画像を知覚するように十分に迅速に表示される。別の実施形態では、多焦点ディスプレイでは、画像は、複数の焦点距離で同時に投影される。いずれの場合も、複数の焦点距離を持つ画像は、単一の多焦点画像としてユーザに知覚される。
一実施形態では、右眼ディスプレイ220について以下に説明する要素は、左眼ディスプレイ230について複製される。右眼の画像は、第1のディスプレイ要素222を使用して作成される。一実施形態では、ディスプレイ要素は、デジタルマイクロミラーデバイス(DMD)である。一実施形態では、ディスプレイ要素222は、走査型マイクロミラーデバイスである。一実施形態では、ディスプレイ要素222は、走査型ファイバデバイスである。一実施形態では、ディスプレイ要素222は、有機発光ダイオード(OLED)である。一実施形態では、ディスプレイ要素222は、液晶オンシリコン(LCOS)パネルである。一実施形態では、ディスプレイ要素222は、液晶ディスプレイ(LCD)パネルである。一実施形態では、ディスプレイ要素222は、マイクロ発光ダイオード(μLED)パネルである。一実施形態では、ディスプレイ要素は、走査レーザーシステムである。現在使用されている、または将来開発される他のタイプのディスプレイ要素が、本システムで使用され得る。一実施形態では、左眼ディスプレイ230は、右眼ディスプレイと一致する。
一実施形態では、ディスプレイ要素222は、そのような要素の組み合わせ、またはユーザに表示するための高解像度画像を生成するために使用することができる代替的な要素を含み得る。以下の図3は、ディスプレイ要素のいくつかの実施形態をより詳細に考察される。
一実施形態では、第1のディスプレイ要素222は、眼鏡またはゴーグルなどのニアアイデバイスに位置している。一実施形態では、多焦点の操縦可能なディスプレイ210の場合、ディスプレイ220はまた、画像が表示されている間、多焦点ディスプレイの画像の1つ以上の部分に対して焦点距離を調整する焦点調整器223を含み得る。この調整は、一時的なもの、または位置に基づくものでもよい。一実施形態では、米国特許第10,187,634号に記載されているOPLEシステムを使用して、調整可能な多焦点ディスプレイのための焦点調整器223を実装し得る。
一実施形態では、操縦可能なディスプレイの焦点および視野は、中間光学要素224を使用して設定される。中間光学要素224は、レンズ、ミラー、ホログラフィック光学要素、および回折光学要素(DOE)を含み得るが、これらに限定されない。
一実施形態では、視野は、サイズおよび/または形状が調整可能であり得る。一実施形態では、中心窩領域のサイズおよび/または形状は、調整可能であり得る。一実施形態では、中心窩領域のサイズおよび/または形状は、シーンコンテンツ、ユーザの挙動、システムのオプトメカニカル特性、視野範囲全体にわたる視線追跡性能などを含む様々な要因のために変更され得る。
一実施形態では、単焦点ディスプレイの場合、ディスプレイ220によって表示される仮想画像の焦点は、無限遠に設定される。別の実施形態では、仮想画像の焦点は、無限遠よりも近くに設定される。一実施形態では、仮想画像の焦点を変更することができる。一実施形態では、上で考察されるように、仮想画像は、多焦点であり、同時に知覚される2つ以上の焦点距離を有する。
一実施形態では、操縦可能なディスプレイ画像は、主に、ユーザの眼の視野の中心に向けられる。上で考察されるように、システムは、代替的に、異なる位置に向けられ得る。操縦可能なディスプレイ画像の位置付けは、以下で考察されるように、視線追跡データ、シーンコンテンツ、環境要素、イベントなどに基づき得る。
一実施形態では、操縦可能なディスプレイ画像の視野(FOV)は、1度よりも大きい。一実施形態では、操縦可能なディスプレイ画像のFOVは、1度~20度である。一実施形態では、移動範囲は+/-20度であり、視野は20度であり、合計で60度の表示範囲となる。
一実施形態では、操縦可能なディスプレイ用に生成された画像データは、視線追跡の不正確さに対処するために画像の表示サイズよりも大きく、ユーザがブレンディングを知覚することができないように中心窩ディスプレイをフィールドディスプレイとブレンドするために必要な領域を提供し、および/または様々なタイプの眼球運動に対して操縦可能なディスプレイを再位置付けするためにかかる時間を考慮し得る。一実施形態では、操縦可能なディスプレイの視野のサイズは、5度より大きい。一実施形態のシステムは、ディスプレイシステムの待ち時間およびフレームの更新の間に発生し得るユーザの視線位置の変化、ならびに視線追跡システムの待ち時間、およびユーザの視線ベクトルがアイトラッカからの更新レポート間で変更できる量を考慮するように設計される。これらの態様を可能にするタイミングについては、以下でより詳しく考察される。
一実施形態では、システムは、20~220度の視野を有するフィールドディスプレイ画像を表示するために、フィールドディスプレイ280、または各眼に1つのフィールドディスプレイの対をさらに含む。一実施形態では、フィールドディスプレイは、より低い解像度のディスプレイである。一実施形態では、より低い解像度のディスプレイは、より低いピクセル密度、例えば、視野角あたりより少ないピクセル(PPD)を有するディスプレイを指す。この文脈でのPPDという用語は、ディスプレイの1度あたりの平均ピクセルを指す。いくつかの実施形態では、操縦可能なディスプレイは、1度ごとに可変の数のピクセルを有し得る。この実施形態では、操縦可能なディスプレイの外側にある操縦可能なディスプレイのPPDは、フィールドディスプレイのPPDよりも低くてもよい。しかしながら、一実施形態におけるディスプレイの1度あたりの平均ピクセルは、フィールドディスプレイよりも操縦可能なディスプレイの方が高い。いくつかの実施形態では、フィールドディスプレイがより大きいので、フィールドディスプレイには、操縦可能なディスプレイよりも総数の多いピクセルが存在し得る。
一実施形態では、フィールドディスプレイは、操縦可能なディスプレイよりも低い解像度でなくてもよい。一実施形態では、操縦可能なディスプレイとフィールドディスプレイとの間の違いは、より低い解像度に加えて、またはその代わりに、操作可能なディスプレイと比較して、より低い色深度、減少した色域、より低い色解像度、減少したコントラスト、欠如した多焦点アスペクト、異なるシャープネス、またはフィールドディスプレイでの画像の知覚品質を低下させる他のディスプレイの態様、のうちの1つ以上を含み得る。「低グレード」という用語は、フィールドディスプレイによって投影される画像の知覚品質が、操縦可能なディスプレイによって投影される画像の知覚品質よりも低いという、操縦可能なディスプレイとフィールドディスプレイとの違いを指すために使用される。
一実施形態では、操縦可能なディスプレイ画像は、1つ以上の位置付け要素226のセットを使用して位置付けられる。一実施形態では、位置付け要素226は、操縦可能なミラーを含む。一実施形態では、位置付け要素226は、曲面ミラー、フレネル反射器、回折要素のうちの1つ以上を含み得る。一実施形態では、回折要素は、表面レリーフ格子である。一実施形態では、回折要素は、ボリュームホログラムである。
投影アセンブリ227は、右眼ディスプレイ220からの画像を投影する。
一実施形態では、ディスプレイ220はまた、画像をユーザの眼に投影するためのコンバイナ228を含む。一実施形態では、コンバイナ228は、導波路を含む。一実施形態では、導波路は、多層導波路である。コンバイナ228は、操縦可能なディスプレイがユーザの眼に届くことを可能にする他の要素を含み得る。一実施形態では、コンバイナ228は、投影アセンブリ227からの操縦可能な画像とフィールドディスプレイ画像285とを組み合わせて、完全にまたは部分的に透明な光学システムを使用してハイブリッド画像をユーザに提示する。一実施形態では、コンバイナ228は、導波路を含む部分的に透明なシステムである。一実施形態では、この部分的に透明なシステムは、平坦であるか、または光強度を有することができる部分的なミラーを含む。一実施形態では、この部分的に透明なシステムは、回折光学要素を含む。一実施形態では、この部分的に透明なシステムは、ホログラフィック光学要素を含む。一実施形態では、この画像は、直視光学システムを介してユーザに提示される。一実施形態では、この部分的に透明なシステムは、光を反射または散乱させるための介在物を含む。
同様の要素のセットが、左眼の操縦可能なディスプレイ230に存在する。一実施形態では、右眼の操縦可能なディスプレイ220および左眼の操縦可能なディスプレイ230は一致している。別の実施形態では、それらは異なる要素を含み得る。一実施形態では、それらは、知覚的に一致するように、すなわち、ユーザがそれらは一致していると知覚するように、ユーザの眼に合わせて調整され得る。一実施形態では、左右のディスプレイ220、230は、従来知られているように、画像の奥行きの錯覚を作成または強化するために立体視を作成する。
一実施形態では、アイトラッカ242は、ユーザの視線ベクトル、例えば、眼が見ている場所を追跡する。一実施形態では、アイトラッカは、カメラベースの視線追跡システム242である。一実施形態では、カメラベースの視線追跡システム242は、ホログラフィック光学要素を含む。一実施形態では、視線追跡システム242は、受光センサを備えた赤外線走査型レーザーである。一実施形態では、赤外線走査型レーザーの視線追跡システム242は、ホログラフィック光学要素を含む。一実施形態では、視線追跡システム242は、オプティカルフローセンサである。他の視線追跡機構をアイトラッカ242に使用し得る。位置計算機245は、アイトラッカ242からのデータに基づいて、ユーザの視野の中心を決定する。一実施形態では、ユーザの視野の中心は、各眼について決定される。
一実施形態では、操縦可能なディスプレイ210の調整可能な位置付け要素226、236を使用して、アイトラッカ242からのデータに基づいて、右眼および左眼の操縦可能なディスプレイ220、230の位置を調整して、主にユーザの眼の視野の中心に向けて方向付けられるように画像を位置付ける。一実施形態では、調整可能な位置要素226、236を使用して、右眼および左眼の操縦可能なディスプレイ220、230を調整して、アイボックスまたは射出瞳をユーザの眼の視野の中心に向けて位置付ける。
一実施形態では、操縦可能なディスプレイ画像の位置は、位置要素226の1つであるミラーの角度を変更することによって調整される。一実施形態では、ミラーの角度は、電磁力を使用して変更される。一実施形態では、ミラーの角度は、静電力を使用して変更される。一実施形態では、ミラーの角度は、圧電力を使用して変更される。一実施形態では、位置要素226は、画像ソース、または画像を位置付けるために移動されるディスプレイ要素222である。別の実施形態では、中心窩画像は、ミラーを使用するのではなく、空間光変調器に実装されたコンピュータ生成ホログラムを使用して操縦される。「操縦」という言葉が使用されているが、一実施形態では、要素が物理的に移動されるわけではない。むしろ、位置要素226またはディスプレイ内の要素のうちの1つの反射特性は、ディスプレイ220、230の出力の場所を変更するように調整される。一実施形態では、これは、空間光変調器(SLM)を使用することによって達成される。
一実施形態では、追加のディスプレイ280は、通信ロジック270、290を介して処理システム240と通信する。一実施形態では、追加のディスプレイは、フィールドディスプレイ285を含む。一実施形態では、追加のディスプレイは、右眼および左眼用の別個のフィールドディスプレイ285を含む。一実施形態では、追加ディスプレイ280は、ユーザの両眼で見られる単一のフィールドディスプレイ285を含み得る。
一実施形態では、追加ディスプレイ280は、可変解像度を有し得る。一実施形態では、解像度は、眼によって知覚される最大解像度の低下に対応して、フィールドディスプレイ285の中心から離れる方向に低下する。
一実施形態では、追加ディスプレイ280は、マイクロLED(発光ダイオード)またはマイクロLEDアレイである。一実施形態では、追加ディスプレイ280は、OLED(有機LED)アレイである。一実施形態では、追加ディスプレイ280は、走査型レーザーを使用する。一実施形態では、追加ディスプレイ280は、LCD(液晶ディスプレイ)パネルである。一実施形態では、追加ディスプレイ280は、LCOS(液晶オンシリコン)ディスプレイである。一実施形態では、追加ディスプレイは、DLP(デジタルライトプロセッシング)ディスプレイである。
一実施形態では、フィールドディスプレイ285が別個のシステムである場合、同期信号発生器292を使用して、独立した操縦可能なディスプレイ210のディスプレイをフィールドディスプレイ285のディスプレイと同期させる。これについては、以下でより詳しく考察される。
一実施形態では、同期信号発生器292は、ディスプレイのプレゼンテーションを同期させる信号である。一実施形態では、同期信号発生器292は、調整可能なミラー、または操縦可能なディスプレイ210の他の位置付け要素226、236をフィールドディスプレイ285と同期させるために使用される。一実施形態では、同期信号発生器292は、操縦可能なディスプレイの投影アセンブリ227、237の一部である光源を一時的に無効にするために使用される高速遮断機構を制御する。これにより、ディスプレイ210、285の同期がもたらされる。このタイミングについては、以下でより詳しく説明する。
一実施形態では、追加ディスプレイ280は、遷移がスムーズであり、ユーザに知覚されないことを確実にするために、操縦可能なディスプレイ画像のエッジをフィールドディスプレイ画像とブレンドするためのブレンダシステム294を含む。
一実施形態では、フィールドディスプレイ画像は、完全にまたは部分的に透明な光学システムを使用してユーザに提示される。一実施形態では、コンバイナ228は、ユーザへのプレゼンテーションのために、操縦可能なディスプレイおよびフィールドディスプレイからの画像を組み合わせる。一実施形態では、コンバイナ228は、導波路光学システムを含む部分的に透明なシステムである。一実施形態では、この部分的に透明なシステムは、平坦であるか、または光強度を有することができる部分的なミラーを含む。一実施形態では、この部分的に透明なシステムは、回折光学要素を含む。一実施形態では、この画像は、直視光学システムを介してユーザに提示される。一実施形態では、この部分的に透明なシステムは、光を反射または散乱させるための介在物を含む。
追加ディスプレイ280の一実施形態では、ディスプレイサブシステムを使用して、周辺ディスプレイ288と呼ばれるモノビジョンの領域に画像を表示する。一実施形態では、周辺ディスプレイ288は、右眼および左眼のための2つの別個のディスプレイであり得る。別の実施形態では、片側にのみ周辺ディスプレイ288が存在し得る。
一実施形態では、周辺ディスプレイ288は、1つ以上の個別のLEDである。一実施形態では、周辺ディスプレイ288は、全画面ディスプレイではなく、インジケータ、警告機構、またはフィードバック機構として使用される。周辺ディスプレイ画像は、ユーザの注意を引くため、または情報を巧みに伝達するために使用され得る。例えば、周辺ディスプレイ288を使用して、ユーザが実世界のイベントに注意を払うべきであることをユーザに示し得、そうでなければ、ディスプレイシステム200を使用している間は気付かない場合がある。一実施形態では、そのような周辺ディスプレイ288の使用は、任意選択的であり、ユーザによって設定され得る。
一実施形態では、追加ディスプレイサブシステム280は、FOVまたは画像の焦点を操作するための中間光学要素を持たない。別の実施形態では、このサブシステム280は、中間光学要素を含む。一実施形態では、中間光学要素は、マイクロレンズアレイを含み得る。
操縦可能なディスプレイ210およびフィールドディスプレイ285によって表示される画像データは、処理システム240によって生成される。一実施形態では、処理システム240は、様々なサブシステムがシステムの全処理の異なる面を完了するように、分散されている。一実施形態では、処理システム240は、複数のプロセッサを含み得る。
一実施形態では、処理システム240は、アイトラッカ242を含む。一実施形態では、アイトラッカ242は、ユーザの視線ベクトル、例えば、眼が見ている場所を追跡する。一実施形態では、視線追跡システムは、カメラベースの視線追跡システム242である。あるいは、アイトラッカ242は、赤外線レーザーベースであり得る。位置計算機245は、アイトラッカ242からのデータに基づいて、ユーザの視野の中心を決定する。
一実施形態では、位置計算機245は、ずれ検出システム263からのデータをさらに使用する。一実施形態では、ずれ検出263は、ユーザの体に対するユーザの頭上のヘッドセット/ゴーグルの移動を検出して、計算された場所からユーザの眼の実際の場所を変位させるずれまたは他のシフトを識別する。一実施形態では、位置計算機245は、システムによって使用される計算された場所を調整して操縦可能なディスプレイを位置付けることによって、そのようなずれを補償し得る。一実施形態では、ずれ検出はまた、多焦点ディスプレイの操縦可能なディスプレイ210に視差を提供するようにディスプレイが調整されることを確実にするために使用される。
一実施形態における処理システム240は、操縦可能なディスプレイ220、230がそれらの目的の位置にあることを確実にするために、位置要素226、236の位置付けを検証する位置検証器247をさらに含む。一実施形態では、位置要素226、236は、中心窩ディスプレイを計算位置に設定し、次に、新しい標的位置が設定されるまで中心窩ディスプレイをその位置に維持する局所感知および制御機構を含む。一実施形態では、操縦可能な要素の位置は、光学的感知を使用して感知される。一実施形態では、操縦可能な要素の位置は、磁気位置要素を使用して感知される。一実施形態では、感知機構は、カメラであり得る。一実施形態では、感知機構は、ギアリングであり得る。感知機構は、光学要素の位置を決定することができる別のタイプのセンサであり得る。他の機構を使用して、操縦可能な要素の位置を局所的に感知し得る。
一実施形態では、中心窩位置検証器247は、中心窩ディスプレイの実際の位置が、位置要素226および236のための局所感知および制御機構から実際の位置データを取得し、それらを位置付け器265からの標的位置と比較することによって、操縦可能な画像ディスプレイが生成された位置に一致していることを検証する。一実施形態では、中心窩位置検証器247が、操縦可能なディスプレイの実際の位置が標的位置の精度閾値内にないことを報告する場合、処理システム240は、適切な画像データを提供するようにディスプレイを変更し得る。これについては、以下でより詳しく説明する。
一実施形態では、アイトラッカ242からのデータは、眼球運動分類器260によって使用されて、眼球運動の方向およびタイプを識別することに基づいて、ユーザの視線ベクトルがどこに移動するかを予測することができる。このデータは、位置付け器265によって使用されて、ユーザの視線ベクトルの次の位置に基づいて操縦可能なディスプレイ220、230を移動させ得る。一実施形態では、位置付け器265は、眼球運動分類および視線追跡などのユーザデータを利用して、ディスプレイ220、230を予測的に位置付け得る。一実施形態では、位置付け器265は、分類された眼球運動を使用して、ディスプレイの移動の時間を計り、ユーザによる移動の知覚を最小化させ得る。一実施形態では、位置付け器265は、ディスプレイ220、230の最適な位置付けを識別するために、表示されるフレーム内の次のデータに関するデータをさらに使用し得る。
一実施形態では、位置付け器265は、視線ベクトルによって示されない位置にディスプレイ220、230を位置付け得る。例えば、表示されたフレームデータに関連データが少量しかない場合(例えば、別の暗い画面に蝶が照らされている)、またはフレームの目的が、視聴者に視線を移動させてディスプレイの特定の場所を見るようにさせる場合である。位置の環境的または文脈的な他の理由が使用され得る。別の実施形態では、位置付け器265は、中心窩ディスプレイとフィールドディスプレイがうまくブレンドすることを確実にするために、または別の方法で視覚的アーティファクトを低減もしくは排除するために、操縦可能なディスプレイの位置を調整し得る。別の実施形態では、位置付け器265は、ディスプレイ画像をシーンの要素または他の外部特徴に一致させるように、操縦可能なディスプレイ210を再位置付けし得る。
処理システム240は、切り欠きロジック250をさらに含み得る。切り欠きロジック250は、操縦可能なディスプレイ220、230の場所を定義し、ディスプレイ場所情報を、関連するフィールドディスプレイ285に提供する。フィールドディスプレイ285は、このデータを使用して、操作可能なディスプレイに置き換えられたフィールドディスプレイの部分に対応するフィールドディスプレイの切り欠きを含むフィールドディスプレイ画像を生成する。代替的に、画像を「切り欠いて」もよく、すなわち画像全体をレンダリングしてもよく、画像の切り欠いた部分を表示する前に破棄してもよい。
切り欠きがあることで、操縦可能なディスプレイ画像とフィールドディスプレイ画像の間に干渉がないことを確実にする。一実施形態では、切り欠きがある場合、ブレンダロジック255は、切り欠きのエッジを、切り欠き領域内に位置付けられた操縦可能な画像のエッジとブレンドして、その遷移がスムーズであることを確実にする。
別の実施形態では、操縦可能なディスプレイ210を使用して、フィールド画像上にオーバーレイされたより明るい要素であるスプライトを表示し得る。そのような場合、一実施形態では、切り欠きロジック250もブレンダロジック255も使用されない。一実施形態では、切り欠きロジック250およびブレンダロジック255は、必要に応じて選択的にアクティブ化され得る。
一実施形態では、システムが操縦可能なディスプレイ210を動かしている間、ディスプレイ要素222および232は表示されない。一実施形態では、ディスプレイは、操縦可能なディスプレイへの光源を消すことによって、ユーザがディスプレイ220、230の移動、およびぼやけ、色割れ、明るさの点滅などの関連する視覚的アーティファクトを知覚するのを防ぐために表示されない。一実施形態では、右ディスプレイ220および左ディスプレイ230は、時間通りの移動のために非同期的に制御され得る。
図示されていない一実施形態では、操縦可能なディスプレイ210が表示されない場合、処理システム240は、フィールドディスプレイ塗りつぶしロジック256を使用して、フィールドディスプレイの切り欠き穴を埋めて、ユーザがディスプレイ内のアーティファクトまたは穴を知覚するのを防ぐ。一実施形態では、塗りつぶしデータは、もともとフィールドディスプレイおよび切り欠きのために生成されたデータに基づく。一実施形態では、塗りつぶしデータは、もともと操縦可能なディスプレイのために生成されたデータに基づく。一実施形態では、塗りつぶしデータは、フィールドディスプレイ285および操縦可能なディスプレイ210のために生成されたデータの混合である。一実施形態におけるフィールドディスプレイ塗りつぶしロジック256は、ぼかし、アンチエイリアシング、ディザリング、アルファブレンドなどを含む様々なフィルタリング技術を使用して、切り欠き穴が異なる表示ソースによって一時的に埋められていることをユーザが知覚しないように塗りつぶしデータを調整する。
一実施形態では、システムは、独立した非同期の追加ディスプレイ280と共に非同期の操縦可能なディスプレイ210を利用し得る。この場合、一実施形態では、スケジューラおよび同期ロジック272が、ディスプレイを同期させる。一実施形態では、独立した追加ディスプレイ280は、調整可能なミラー、または操縦可能なディスプレイ210の他の位置付け要素と同期している。これにより、ディスプレイが同期される。追加ディスプレイ280は、位置付けデータを受信し得る。このプロセスについては、以下でより詳しく説明する。別の実施形態では、追加ディスプレイ280および操縦可能なディスプレイ210は、同期的であり得る。このような構成では、スケジューラおよび同期ロジック272は、排除され得るか、またはそのロジックは、簡略化され得る。
一実施形態では、処理システム240は、光学歪み補正システム275を含み得る。光学歪み補正システム275は、画像を調整して、画像の中心からエッジに向かって増加する歪みを追加し得る。この意図的な歪みは、一実施形態では、ピクセルに歪みを補正させる。一実施形態では、光学歪み補正システム275は、画像の中心からエッジに移動する知覚サイズを増加させる。知覚される解像度のこの変化により、操縦可能なディスプレイ画像の同じ角度領域をカバーするために必要なピクセルが少なくなるため、必要な処理の量が削減される。一実施形態では、光学歪み補正システム275は、操縦可能なディスプレイ画像に適用される。一実施形態では、そのような光学歪みは、操縦可能なディスプレイ210と追加ディスプレイ280との間のブレンディングを助け得る。別の実施形態では、光学歪み補正システム275を含む操縦可能なディスプレイ210は、フィールドディスプレイなしで使用することができる。また、より簡単な光学設計を提供し、ブレンディングの処理を節約する。一実施形態では、そのような可変解像度の大きく歪んだ画像は、中心とエッジとのピクセルサイズの間に大きな比率を有する。このディスプレイの合計FOVは、非常に大きいものであり得る(180度など)。
一実施形態では、光学歪み補正システム275は、フィールドディスプレイおよび中心窩ディスプレイに補正を適用する。一実施形態では、フィールドディスプレイの場合、光学補正は、中心窩領域のマスクを作成し、これは、以下で考察されるように、タイミングに応じて、切り欠かれて、中心窩ディスプレイとブレンドされるか、または塗りつぶされる。光学歪み補正システム275は、一実施形態では、フィールド光学系の放射状歪み補正、および色補正を適用する。
一実施形態では、光学歪み補正システム275は、中心窩領域のエッジをブレンドし、フィールド光学系に放射状歪み補正を適用し、ミラー位置を補正するためにホモグラフィ変換を適用し、中心窩光学系に放射状歪み補正を適用し、色補正を適用する。一実施形態では、フィールド光学系および中心窩光学系に対する別個の放射状歪み補正の適用は、特有のものである。一実施形態では、フィールド光学系の放射状歪み補正は、ルックアップテーブルまたはスプラインフィットを使用して、ミラー(または他の位置要素)の位置に基づいて歪み補正を再中心化する。一実施形態では、ミラー位置を補正するホモグラフィ変換は、較正ステップからのルックアップテーブルまたはスプラインフィット係数を使用する。一実施形態では、ホモグラフィ補正は、RGB色によって行われる。
一実施形態では、ロールオフロジック277は、ディスプレイのエッジでロールオフを提供する。一実施形態におけるロールオフは、解像度ロールオフ(表示領域のエッジに向かって解像度を低下させること)を含み得る。一実施形態では、これは、光学歪み補正システム275による倍率で実装され得る。ロールオフは、一実施形態では、明るさおよび/またはコントラストのロールオフ(エッジに向かって明るさおよび/またはコントラストを低下させること)を含む。このようなロールオフは、ディスプレイのエッジの急激な変化を減らすように設計されている。一実施形態では、ロールオフは、「何もない」にロールオフするように設計され得、それは、完全な明るさ/コントラストからグレーもしくは黒または環境色に徐々に減少する。一実施形態では、ロールオフロジック277は、関連するフィールドディスプレイがない場合に、操縦可能なディスプレイ210によって使用され得る。一実施形態では、システムにフィールドディスプレイがある場合、ロールオフロジック277は、フィールドディスプレイ285の一部であり得る。
一実施形態では、操縦可能なディスプレイ210が多焦点ディスプレイである場合、焦点セレクタ267が、表示のための複数の焦点距離を識別し、各焦点距離に対して適切なディスプレイデータを生成する。一実施形態では、多焦点ディスプレイでは、時系列の画像のセットが異なる焦点距離で表示される。その系列の画像のセットは、高速で表示されるため、ユーザは、複数の焦点距離を持つ単一の画像として知覚する。
一実施形態では、デジタル補正システム252は、生成された画像データを補正して、多焦点ディスプレイに起因する歪みを調整する。一実施形態では、デジタル補正システム252は、操縦可能なディスプレイ210とフィールドディスプレイ285との間のブレンディングがシームレスなままとなるように、多焦点ディスプレイに対して各画像のサイズをさらに調整する。
図3は、コントローラおよびレンダリングパイプラインの一実施形態のブロック図である。一実施形態では、ユーザポーズ検出器315は、外部カメラ、ジャイロスコープなどの1つ以上のセンサ、動き検出器、および他のセンサのうちの1つ以上を含み得る。一実施形態では、ヘッドセット上の1つ以上のカメラおよび/またはセンサを、ユーザポーズ検出器315に使用し得る。これは、インサイドアウト追跡と呼ばれる。代替的に、または追加的に、ヘッドセットの一部ではないカメラおよび/またはセンサが、ユーザポーズ検出器315のために使用され得る。
一実施形態では、ユーザポーズ検出器315は、「相対」変化検出器および/または絶対ポーズ検出器を含み得る。「相対」変化検出器は、時間の経過に伴うポーズの変化を検出するが、絶対位置測定は、ユーザを3D空間に置く。ユーザポーズ検出器315からのデータは、割り込み発生器320、ならびにフィールドディスプレイレンダラ330、およびメタデータシステム390に渡される。
割り込み発生器320は、割り込みを生成し、これは、スケジューラ385によって使用されて、フィールドディスプレイレンダラ330および中心窩ディスプレイレンダラ340を制御する。割り込み発生器320は、ポーズ検出器315および視線検出器325からデータを受信する。入ってくるディスプレイ(シーン)データ322は、レンダラ330、340に渡される。ユーザの視線が動いた場合に中心窩ディスプレイデータを変更する必要があり得るので、視線検出器325はまた、スケジューラ385によって使用されて中心窩ディスプレイレンダラ340を制御するように割り込み発生器320に結合される。スケジューラ385はまた、他のトリガを使用して、中心窩ディスプレイレンダラ340を調整し得る。
視線検出器325からのデータもまた、合成マネージャ380に提供される。合成マネージャ380は、中心窩ディスプレイとフィールドディスプレイの組み合わせを管理して、シームレスな画像をユーザに提示する。一実施形態では、合成マネージャ380は、視線検出器325からのデータを使用して、中心窩ディスプレイの位置に対応するように、フィールドディスプレイ内の切り欠きの位置付けを可能にする。レンダラ330、340は、テクスチャをレンダリングする。一実施形態では、中心窩ディスプレイレンダラ340は、多焦点中心窩ディスプレイのために複数の深さをレンダリングする。
視線検出器325はまた、中心窩ディスプレイ365の位置付けを可能にする操縦可能なミラーまたは他の操縦可能な要素の移動を制御する位置検出器およびアクチュエータ350にデータを提供する。アクチュエータ350は、その要素を移動させて、中心窩ディスプレイ365を適切に位置付ける。中心窩検証器355は、中心窩ディスプレイ365の実際の位置が、画像がレンダリングされた目的の位置付けと一致していることを検証する。
一実施形態では、DLP/LCOS/レーザースキャナシステムベースの中心窩ディスプレイの場合、中心窩ディスプレイ365の要素の位置が正しくない場合、高速遮断要素370は、中心窩ディスプレイ365のための照明(LEDまたはレーザーまたは他の照明源)を遮断することができる。これにより、中心窩ディスプレイ365の表示が停止または消灯され、フィールドディスプレイ360のみが残る。
一実施形態では、発光ディスプレイ(例えば、uLEDまたはOLED)の場合、高速遮断要素370は、中心窩ディスプレイ365全体を消灯させ得る。一実施形態では、中心窩ディスプレイ365のディスプレイを停止することは、ブランク画像データをディスプレイ365に送信することを含む。
一実施形態では、高速遮断370はまた、データを合成マネージャ380に送信し、これは、高解像度の中心窩ディスプレイ365が使用できない間、フィールドディスプレイに対する切り欠きをオフにして、完全なフィールドディスプレイを残す。別の実施形態では、切り欠きは、塗りつぶしデータで埋められ得る。一実施形態では、フィールドディスプレイ360における切り欠きに対する塗りつぶしデータは、フィールドディスプレイ、中心窩ディスプレイ、またはフィールドディスプレイと中心窩ディスプレイの組み合わせのためにレンダリングされた画像データに基づき得る。
一実施形態では、合成マネージャ380は、中心窩検証器355からの情報に基づいて、フィールドディスプレイ360の切り欠きに表示するのに有効なデータを選択する。中心窩ディスプレイの位置が正しい場合、中心窩ディスプレイレンダラ340からの現在の中心窩テクスチャが使用される。
その位置の現在の中心窩テクスチャデータがない場合、一実施形態では、再投影されたフィールドディスプレイデータが使用され得る。場合によっては、以前の中心窩テクスチャデータが使用され得る。合成マネージャ380は、切り欠きが存在する場合、それを様々なソースからのデータの正確性および利用可能性に基づいて、データによって満たすことを確実にする。
レンダラ330、340からのデータは、それぞれの合成器335、345に送られる。一実施形態では、合成器335、345は、非同期的であり得る。一実施形態では、レンダラ330、340は、別個のクロック上にあり、合成器335、345とは異なる周波数で動作し得る。
フィールドディスプレイ360は、右眼および左眼のフィールド画像を表示し、中心窩ディスプレイ365は、右眼および左眼の中心窩画像を表示する。一実施形態では、上記のように、中心窩画像および/またはフィールド画像は、複数の焦点面または深さを有し得る。その実施形態では、合成器335、345によって生成されたフレームデータは、複数の焦点距離に関連付けられた一連の画像要素を含み得る。その順序は、時系列であり得る。別の実施形態では、焦点距離は、時間ではなく位置に基づき得る。一実施形態では、中心窩画像および/またはフィールド画像は、可変焦点を有し得る。
一実施形態では、シンクロナイザ375は、フィールドディスプレイおよび中心窩ディスプレイから非同期的に生成されたフレームデータが正しく整列されることを確実にする。一実施形態では、シンクロナイザ375は、グラフィック処理ユニットからのタイムスタンプを使用して、様々な時間領域を調和させる。一実施形態では、シンクロナイザ375は、システム内で最大の待ち時間でデバイスに同期して、レンダリングの決定を推進する。
一実施形態では、メタデータシステム390は、メタデータを生成し、それをレンダリングされたデータ、合成データ、および/またはフレームデータに添付することができる。このメタデータは、様々な方法で使用することができる。一実施形態では、メタデータを使用して、ディスプレイがオンになる直前に遅延更新または再投影を行うことができる。メタデータを使用して、フレームがレンダリングされたときから表示されようとしているときまでの視線、ポーズ、またはミラー位置の変化を考慮することができる。したがって、メタデータシステム390は、一実施形態では、ユーザポーズ検出器315、視線検出器325、位置検出器およびアクチュエータ350、ならびに中心窩ディスプレイレンダラ340を含む様々なシステムから、データを受信する。
上記のように、1つで実施形態では、合成器335、345は、レンダラ330、340とは異なる更新レートで実行される。中心窩ディスプレイレンダラ340は、中心窩/フィールド領域をオーバーレンダリングし、メタデータシステム390は、レンダリングされたコンテンツに関連する視線、ポーズ、および/またはミラー位置を表すメタデータにそれをタグ付けする。
中心窩データが表示される場合、中心窩ディスプレイ合成器345は、メタデータを最新のポーズ、視線、および/または位置の測定値と比較し、その差を使用して、オーバーレンダリングされたテクスチャの適切な部分を選択し、それを中心窩ディスプレイ365に送信する。
一実施形態では、メタデータシステム390を使用して、1つ以上の関心領域を示し得る。一実施形態では、シーン内のいくつかの点は、シーン内の他の点よりも高い関心領域としてスコアリングされる。これらの関心領域は、有効な注視点をメタデータでタグ付けされたものに制限するために使用され得る。
一実施形態では、メタデータシステム390を使用して、中心窩で捉えられたシーン内のいくつかの領域にタグを付け得る。
一実施形態では、メタデータシステム390は、ビデオコンテンツを再生するときに、フレームに次に入ってくる情報をスタンプするために使用され得る。これは、パイプラインに変更が生じているかどうかをシステムに通知するのに役立ち得る。
一実施形態では、メタデータは、操縦可能なディスプレイに対する操縦情報を含むことができるので、フレーム情報自体と同じ時間領域でミラー制御システムに送信することができる。
一実施形態では、メタデータは、ミラーの微補正にも使用され得る。
一実施形態では、メタデータシステム390は、眼球運動を追跡し続け、かつフレームがレンダリングされてから追跡した履歴データを使用して新しいミラー位置を送信し、および/または遅延更新としてフレーム内のデータをクロップする、局所相対アイトラッカの一部で使用され得る。
一実施形態では、メタデータシステム390は、シーン内のいくつかのオブジェクトに遅延更新の優先度を提供し得、例えば、オブジェクトが実世界のオブジェクトに固定される必要がある場合、シーンの残りの部分よりも優先される。
図4Aは、レンダリングエンジンおよび合成器システムの一実施形態のフローチャートである。システムは、レンダリングエンジン410およびダイレクトモード合成器450を含む。
一実施形態では、レンダリングエンジン410は、それ自体のタイムベースを有し、合成器450は、別個のタイムベースを有する。一実施形態では、合成器450は、2つのディスプレイ、フィールドディスプレイタイムベース(Vsync-Field)および中心窩ディスプレイタイムベース(Vsync-foveal)に対して別個のタイムベースを有する。これは、一実施形態では、要素のそれぞれが、別個のタイムベースを使用して、異なる速度およびリフレッシュレートで実行することができることを意味する。一実施形態では、別個のタイムベースを有するデータおよびディスプレイは、様々なディスプレイのプレゼンテーション同期を維持する同期ブロックを使用して同期させることができる。この文脈でのプレゼンテーション同期とは、2つのディスプレイから表示されたコンテンツが、ユーザによって同期されていると知覚されることを意味する。
一実施形態では、これはまた、レンダリングエンジン410および合成器システム450が異なる速度で動作することを可能にする。一実施形態では、合成器450は、レンダリングエンジンよりも高速である。一実施形態では、レンダリングエンジン410は、毎秒可変数のフレームで動作し、合成器450は、2つの異なるフレームレートで動作し、一方はフィールドディスプレイ用であり、もう一方は中心窩ディスプレイ用である。
別の実施形態では、合成器およびレンダリングシステムは、同期され、同じタイムベースで実行される。一実施形態では、すべてのディスプレイは、同期され、同じタイムベースで実行される。一実施形態では、ディスプレイは、それらが同期されたままであることを確実にするために同じクロックで動作する。一実施形態では、ディスプレイは、同じ更新レートで実行し得る。別の実施形態では、一方のディスプレイは、他方のディスプレイのレートの整数倍であるディスプレイ更新レートを有し得る。一実施形態では、一方のディスプレイは、他方のディスプレイの更新レートと非同期的であるディスプレイ更新レートを有し得る。一実施形態では、フィールドディスプレイおよび中心窩ディスプレイは、それぞれ、単一のより大きなディスプレイの一部である。
一実施形態では、レンダリングエンジン410は、データを連続的に処理する。レンダリングエンジン410は、レンダリングのために新しいディスプレイデータが受信される際に、レンダリングエンジンのタイムベースループ、レンダリングテクスチャ、および任意選択的に多焦点ディスプレイの深さによって駆動される。
一実施形態では、レンダリングエンジン410のステレオ投影行列は、割り込み駆動され、新しいポーズが検出されたときに割り込みを受信する。ポーズは、位置および向きを含む、3次元空間でのユーザの場所を定義する。一実施形態では、ポーズは、6つの自由度を有する。新しいポーズが検出されるたびに、割り込みは、レンダリングエンジン410のステレオ投影行列に送信される。
一実施形態では、割り込みは、フィールドディスプレイを定義する投影マトリクスの更新をトリガする。フィールドディスプレイの左右のディスプレイは、テクスチャにレンダリングされる。
一実施形態では、ステレオ投影行列への更新はまた、中心窩ビューポートへの更新をトリガする。中心窩ビューポートは、「中心窩領域」と見なされるフィールドディスプレイの領域であり、上で考察されるように、別個のディスプレイである中心窩ディスプレイによって高解像度でレンダリングされる。中心窩ビューポートが更新されると、中心窩ディスプレイの左右の画像/テクスチャおよび深度データの再レンダリングがトリガされる。中心窩の左/右のデータおよびフィールドの左/右のデータ、ならびにビューポートのデータは、ダイレクトモード合成器450に渡される。
いくつかの実施形態では、表示されたデータの変更、オペレーティングシステムレベルの変更、シーンコンテンツの変更、環境要素、イベント、および/または他のトリガを含む、様々な他のプロセスが中心窩ビューポートへの更新をトリガすることができる。一実施形態におけるそのようなトリガは、中心窩データのレンダリングを更新する。
新しいポーズによってトリガされることに加えて、レンダリングエンジン410は、中心窩状態マシン455からのデータに基づいて中心窩ビューポートの更新をトリガし得る。中心窩状態マシン455は、ユーザの視線ベクトルが変化したときにレンダリングエンジン410および合成器450をトリガして、中心窩ディスプレイが正しい位置に位置付けられ、高解像度画像を正しい位置に表示することを確実にするために使用される。
一実施形態では、スケジューラ440は、様々な要素を制御し、レンダリングキックオフを介して実際のレンダリングをトリガする。一実施形態では、スケジューラ440は、フィールド合成キックオフおよび中心窩合成キックオフからデータを受信する。
一実施形態では、合成器450はまた、新しいポーズが検出されたときの割り込みによってトリガされる。一実施形態では、フィールドディスプレイは、新しいポーズデータが受信されると、新しいテクスチャデータが受信されると、またはフィールドディスプレイVsync-Fieldに対してオフセットがあると、割り込まれる。合成器450は、レンダラ410からテクスチャおよび中心窩ビューポートデータを受信する。
一実施形態では、フィールドディスプレイタイムベースは、Vsync-Fieldであり、これは、一実施形態では、11ミリ秒(90Hz)の周期を有する。一実施形態では、その範囲は、60Hz~180Hzである。一実施形態では、新しいポーズが検出されると、または新しいレンダリングデータがレンダリングエンジン410から受信されると、レンダリングされたシーンは、現在のポーズに基づいて再投影される。
一実施形態では、中心窩マネージャ455は、中心窩ディスプレイを駆動し、視線ベクトルが変化したときに中心窩ディスプレイの位置およびコンテンツを更新するために使用される。中心窩マネージャ455はまた、視線ベクトルデータをスケジューラに、したがってフィールドディスプレイ合成器に提供するので、フィールドディスプレイ合成器は、中心窩ディスプレイの位置を知る。中心窩マネージャ455はさらに、このデータをスケジューラ440に提供する。
これにより、フィールドディスプレイ合成器は、中心窩ディスプレイの切り欠き用のフィールドディスプレイの適切な領域を識別し得る。一実施形態では、フィールドディスプレイデータは、中心窩ディスプレイが正しく位置付けられて表示する準備ができている場合、切り欠きされ、中心窩ディスプレイが正しく位置付けられていないか、または表示のための適切なデータがない場合、塗りつぶされる。フィールドディスプレイに切り欠きを位置付けるためのこのデータは、中心窩マネージャ455からのデータに基づく。
一実施形態では、レンズ補正が適用される。一実施形態では、レンズ補正は、歪みを補正するためにレンダリングパイプラインのソフトウェア補正を利用することによって単純化された光学系を可能にする。一実施形態では、システムは、動的歪みマップを使用し得る。一実施形態では、補正は、放射状歪み、ピンクッションバレル歪み、色収差、および他の歪みの補正を含み得る。次に、一実施形態では、フィールドフレームが圧縮される。
次に、一実施形態では、フィールドディスプレイスワップチェーンが更新される。一実施形態では、スワップチェーンは、フロントバッファおよびバックバッファを含む物理バッファである。一実施形態では、フィールド合成器は、バックバッファに書き込み、一方で、フロントバッファは、ディスプレイに送信される。一実施形態では、フィールド合成器は、ブランキング期間中に直接、フロントバッファに書き込む。別の実施形態では、スワップチェーンは、表示に使用される仮想フレームバッファである。別の実施形態では、別のタイプのバッファを使用し得、またはレンダリングされた画像を直接投影し得る。
一実施形態では、同期的ではなく同時に、中心窩ディスプレイは、割り込みを受信し、中心窩合成キックオフが合成器をトリガする。一実施形態では、中心窩ディスプレイは、フィールドディスプレイを駆動するVsync-Fieldと非同期であり得るVsync-fovealを使用する。複数の非同期サブシステムを備えたシステムでは、システムがグローバル同期を駆動するサブシステム(複数可)を決定し得る。一実施形態では、システム内で最大の待ち時間を有するディスプレイが、レンダリングの決定、および、その結果として得られる中心窩ディスプレイの再位置付け/更新を駆動する。別の実施形態では、フィールドディスプレイおよび中心窩ディスプレイ合成器は、同期的であり得、例えば、Vsync-fovealは、Vsync-Fieldと同じであり得る。別の実施形態では、フィールドディスプレイおよび中心窩ディスプレイは、単一のディスプレイの2つの部分であり得る。この場合、フィールドディスプレイおよび中心窩ディスプレイは、同じVsync信号を共有し得る。一実施形態では、単一のディスプレイは、2つの部分を有し得、ディスプレイのフィールド部分および中心窩部分は、互いに光学的に分離されている。一実施形態では、光学的分離は、黒色である領域であり得る。
中心窩マネージャ455は、レンダリングエンジン410から受信した中心窩レンダリングが有効であるかどうかを判定する。
中心窩レンダリング(一実施形態では、レンダリングエンジン410から受信した中心窩RGB、ビューポート、およびテクスチャを含む)は、中心窩データがレンダリングされた位置と現在の中心窩位置との間に変化がないか、またはわずかな違いしかない場合に有効である。中心窩レンダリングは、現在の中心窩データでレンダリングされた領域が中心窩ディスプレイの実際の位置と完全に、またはほぼ完全に重なっている場合に有効である。
一実施形態では、中心窩領域は、レンダリングエンジン410によってオーバーレンダリングされる。このオーバーレンダリングは、合成器がレンダラよりも高い周波数で動作している場合に役立ち、ミラーのわずかな移動の再現に使用することができる。一実施形態では、これは、不正確なミラー移動または視線追跡にいくらかの柔軟性を提供する。一実施形態では、オーバーレンダリングは、中心窩領域の最大50%であり得る。一実施形態では、オーバーレンダリングは、予想される眼球運動、例えば、予測的オーバーレンダリングに基づいて、非対称であり得る。一実施形態では、オーバーレンダリングされた領域を使用して、合成器が、ミラーのわずかな移動のためにシーンを再レンダリングすることなく、新しいシーンを合成することを可能にし得る。
一実施形態では、中心窩レンダリングが有効である場合、表示するための高速パスが使用される。
中心窩レンダリングが有効であり、データを表示する時間内に中心窩ディスプレイを正しく位置付けるためにミラー移動を延期する必要がない場合、現在の中心窩テクスチャがサンプリングされる。一実施形態では、システムは、歪み補正を適用し、中心窩フレームを圧縮する。
一実施形態では、歪み補正は、操縦可能なミラーまたはディスプレイ要素によって引き起こされる歪みのソフトウェア補正を提供する。これにより、光学系を簡素化することが可能になる。一実施形態では、歪みのソフトウェア補正は、ミラーまたは他の操縦可能なディスプレイ要素の移動に基づいて歪みの差を補正することができる。一実施形態では、歪みは、ミラー/要素が移動するにつれて変化する。フレームを圧縮する前にデータを事前にワープすることにより、システムは、ソフトウェア歪み補正を使用することができる。一実施形態では、システムは、ミラー/要素の位置付けに基づいて、画像の異なる部分に対して異なる補正を提供することができる。
一実施形態では、システムは、ミラー/要素の位置に基づいて、動的歪みマップを使用し得る。動的歪みマップを作成することにより、システムは、ミラー/要素の既知の位置に基づいて歪み補正を適用することができる。一実施形態では、動的歪みマップは、事前に計算され、ルックアップテーブルに基づいて適用され得る。別の実施形態では、動的歪みマップは、多項式スプラインまたは他の数学的モデルから連続的に評価され得る。
中心窩ディスプレイには、複数の歪みの原因が存在し得る。一実施形態では、ディスプレイパネルと操縦要素との間に光学部品が存在する。光学要素は、操縦位置に依存しない歪みをもたらす。このタイプの歪みは、プロジェクタ歪みと呼ぶことができる。一実施形態では、この歪みは、放射状である。一実施形態では、この歪みは、2D補間多項式、または別の2D関数によって記述され得る。この歪みの位置は、中心窩視野に対して固定されている。一実施形態では、ソフトウェア歪み補正を使用して、プロジェクタ歪みを補正することもできる。
操縦位置の変更は、ホモグラフィ行列で記述でき、かつ操縦位置に依存する変換を導入する。このタイプの歪みは、ホモグラフィ変換と呼ぶことができる。一実施形態では、ソフトウェア歪み補正を使用して、ホモグラフィ変換歪みを補正することもできる。
一実施形態では、操縦要素とユーザの眼との間に光学要素が存在する。これらの要素も歪みをもたらす。この歪みは、システムの操縦可能な全範囲に対して固定されており、システムが操縦される際に中心窩視野と共に移動しない。このタイプの歪みは、スキャン歪みと呼ぶことができる。一実施形態では、スキャン歪みは、放射状である。一実施形態では、この歪みは、2D補間多項式、または別の2D関数によって記述され得る。
これらの歪みの原因はそれぞれ、独自の補正で補正することができる。一実施形態では、歪みは、表示パネル上の座標を目的の画像上の座標に変換することによって数学的に補正される。一実施形態では、3つの歪みの原因すべてが存在し、プロジェクタの歪みの補正が最初に適用され、続いてホモグラフィ変換が適用される。ホモグラフィ変換は、中心窩ディスプレイパネルの回転のずれも補正する。一実施形態では、スキャン歪みの補正は最後に適用される。
一実施形態では、プロジェクタ歪みとスキャン歪みの両方をさらに複数の放射状歪みに分割することができる。これは、計算効率のため、または光学要素間のずれを考慮するために行われ得る。これらの歪み補正を適用できることにより、光学システムの設計上の制約を緩和することが可能である。一実施形態では、システムの全体の歪みは、中心窩視野のエッジで50%もの高さであり得、パネルの回転のずれは、最大180度であり得る。
一実施形態では、異なる焦点面に対して別個の画像補正が存在する。一実施形態では、画像補正には、歪み補正、色補正、明るさ/ケラレ補正、時間フィルタリング、ぼかし、およびディザリングが含まれる。一実施形態では、これらの補正のすべては、所与の焦点面への1回のパスで適用される。別の実施形態では、これらの補正のうちの1つ以上は、別個にまたは独立して適用される。
一実施形態では、中心窩ディスプレイが多焦点である場合、データは、中心窩ディスプレイの複数の焦点面の間で交互になる。
データは、スワップチェーンのために圧縮される。
次に、中心窩スワップチェーンまたは別のバッファが更新される。
レンダリングが有効であるかどうかの中心窩マネージャの判定に戻ると、中心窩レンダリングが有効であるが、ミラー移動が延期されている場合、一実施形態では、前の中心窩テクスチャがサンプリングされる。一実施形態では、中心窩画像を正しく表示するために必要な時間枠内にミラーが目的の位置に到達してそこに落ち着くことができないため、ミラー移動は延期され得る。一実施形態では、移動コマンドをトリガするイベント期限が見落とされるため、ミラー移動は延期され得る。
ミラー移動が延期されたため、ミラーの投影された新しい位置に基づく更新されたレンダリングは不正確である。したがって、前の中心窩テクスチャがサンプリングされ、フィールドディスプレイの切り欠き位置を、ミラーの遅延した移動に基づいた切り欠きの実際の場所に一致させる。
中心窩レンダリングが、限定されないが次のような様々な理由で有効な場合、ミラーの延期が発生する可能性がある。
更新された中心窩画像がユーザに表示されるときにミラー移動を合わせるためにミラー移動が延期されるパイプライン遅延;
ミラーは新しい位置移動の準備ができていない;
この時点でミラーを移動すると、ユーザの視覚的体験が低下する;
ミラーの位置を決定するために使用されているシーンのコンテンツであり、その対象のコンテンツが最新のレンダリングされた中心窩フレームと位置的に合っていない;
ユーザの視線が以前の場所に戻っている;
誤った視線の移動が検出された;
大きなサッカードが検出されており、システムが大きなミラー移動の準備をしている、またはミラー移動サイズを変更している;
ホストシステムが、ミラー移動メッセージをミラーに送信するタイミング期限を過ぎたことを検出する;
ミラーを移動すべきではないことを示す新しいポーズデータが到着している;
など。
レンダリングが有効であるが、ミラー移動が延期されると、サンプリングされた前の中心窩テクスチャが歪み補正に渡される。
中心窩マネージャが中心窩レンダリングは有効でないと判定した場合、中心窩レンダリングデータを使用することができず、画像を正しい場所に再レンダリングすべきであることを意味する。一実施形態では、レンダリングエンジンが中心窩画像を再レンダリングしなければならないので、これは低速経路と称される。一実施形態では、中心窩ディスプレイは、中心窩画像を表示するために、再投影されたフィールドテクスチャおよび中心窩テクスチャの一方または両方から再サンプリングし得る。一実施形態では、実際の中心窩領域がレンダリングされたデータと重ならない場合、システムは、中心窩ディスプレイをオフにして、フィールドディスプレイのみを利用し得る。一実施形態では、上で考察される高速LED遮断技術が使用される。
上記のように、合成されたフィールドディスプレイデータと中心窩ディスプレイデータの両方がフレームに圧縮される。一実施形態では、右および左の画像データは、単一のディスプレイフレームに圧縮される。一実施形態では、フレーム圧縮フォーマットは、様々であり得る。一実施形態では、フレーム圧縮は、左の画像と右の画像を単一のディスプレイフレームに圧縮し得る。一実施形態では、4つのデータセットすべて(フィールドディスプレイの左と右、中心窩ディスプレイの左と右)を単一のフレームに圧縮し得る。一実施形態では、各データセット(フィールドディスプレイの場合は左と右、中心窩ディスプレイの場合は左と右)は、独自の別個のフレームに圧縮される。
一実施形態では、システムは、フィールドディスプレイおよび中心窩ディスプレイの相対的なサイズを考慮するために、フレーム圧縮のためのカスタムインターレースを使用し得る。一実施形態では、中心窩ディスプレイは、720×720であり得、一方、フィールドディスプレイは、1280×720である。フレーム圧縮は、両方を含む2000×720フレームとして圧縮され得る。フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、システムオンチップ(SOC)、または他のプロセッサをディスプレイコントローラ内で使用して、表示用のフレームデータを解凍し得る。
一実施形態では、片眼用のフィールドディスプレイおよび中心窩ディスプレイは、それぞれ、単一のディスプレイの一部である。この場合、フィールドディスプレイ画像および中心窩ディスプレイ画像は、単一のより大きなフレームに圧縮し得、より大きなフレームは、ディスプレイパネルのサイズである。例えば、1つの眼用のディスプレイ全体は1280×720パネルであり得、フィールドディスプレイをパネルの左側の640×720セクションに圧縮し、中心窩ディスプレイをパネルの右側の640×720セクションに圧縮し得る。別の実施形態では、フィールドディスプレイと中心窩ディスプレイは、同じ解像度を有しない。別の実施形態では、フィールドディスプレイと中心窩ディスプレイの組み合わせは、ディスプレイパネル全体を使い果たさない。この実施形態では、一実施形態では、未使用のピクセルは、黒であるか、またはシステム内で光学的にブロックされ得、フィールドディスプレイと中心窩ディスプレイとの間の光学的分離を可能にする。一実施形態では、ディスプレイパネルの未使用部分は、物理的にブロックされ得る。これにより、コントラスト比が改善され得る。
使用され得るフレーム圧縮アプローチのいくつかは、次のものを含む。
フィールドのステレオ左/右色(1つのディスプレイフレームへの);
焦点面0の時間T0での中心窩のステレオ左/右色(1つのディスプレイフレームへの)を交互に中心窩ディスプレイに送信する;
焦点面1の時間T1での中心窩のステレオ左/右色(1つのディスプレイフレームへの)を交互に中心窩ディスプレイに送信する。
別の実施形態では、圧縮レベルは異なり得る。例えば、一実施形態では、すべてのレンダリングされたテクスチャ(色+深さ)が圧縮され、複数のディスプレイを備えた1つのデバイスに一緒に送信される(本質的に、深さから焦点面への変換を含むデバイス上で合成する)。別の実施形態では、すべての合成後のテクスチャが単一のフレームに圧縮され、1つのデバイスに送信される(デバイスは、解凍後にT0およびT1のフィールドおよび焦点面を順番に提示する)。別の実施形態では、上記の単一時間T0またはT1のすべての合成後のテクスチャは、1つのデバイスに一緒に送信され、ホストは順番に配列する。別の実施形態では、すべての中心窩テクスチャ(複数の平面の場合)は、一緒に圧縮され、時系列で送信されるのではなく、フィールドテクスチャは独立して送信され、デバイスは平面を順番に配列する。一実施形態では、ステレオ左/右のすべての焦点面のテクスチャは、すべて独立して送信される(本質的に圧縮なし)。一実施形態では、圧縮されたフレームデータは、フレーム全体のサブセットのみを含み得る。一実施形態では、フレームデータは、圧縮され得る。
図4Bは、中心窩マネージャ455の要素の一実施形態のブロック図である。中心窩領域プロセッサ460は、システムおよびミラーの機能および待ち時間を説明するシステムデータ495、ならびにVsyncまでの現在のミラー位置および時間を含む状態データ490、ならびにシステムの現在の状態を説明する他のデータを利用する。一実施形態では、中心窩領域プロセッサ460は、予測されたポーズロジック465から位置およびベクトルデータ、次のシーン(複数可)用シーンメタデータ475、および予測された視線システム467から視線ベクトルおよび眼球運動分類を受信する。中心窩領域プロセッサ460は、このデータを利用して、中心窩ビューポート480、およびミラー制御出力485を計算する。
一実施形態では、中心窩領域プロセッサ460は、リアルタイム入力を利用して、リアルタイム出力を生成する。しかしながら、中心窩領域プロセッサ460は、様々なデータ入力に基づく分析を利用して、中心窩ディスプレイがどこに向けられるべきかを決定することができる。一実施形態では、システムは、機械学習を使用して、中心窩ディスプレイに最適な位置およびデータを計算する。中心窩領域プロセッサ460は、高度なフィルタリングを使用して、状態データ、システムデータ、ならびに次のシーンデータ/予測される視線およびポーズデータを含む、利用可能なデータに基づいて、非生産的な移動を排除する。一実施形態では、高度なフィルタリングは、特定のユースケースに固有である。一実施形態では、高度なフィルタリングは、ユーザに固有のものである。一実施形態では、中心窩領域プロセッサは、アーティファクトを低減する/視覚的品質を最適化するために、何をどこに表示するかを決定し得る。中心窩ビューポート480、および関連するミラー制御出力485を決定する際に、中心窩領域プロセッサによって、ミラー移動の減少、眼精疲労の減少、および電力消費の減少などの他の要因も考慮に入れることができる。
一実施形態では、中心窩領域プロセッサ460は、将来、中心窩領域データを特定の場所に表示するなど、XYZを実行する要求を受信する。中心窩領域プロセッサ460は、上記の入力に基づいて、それが何をするか、例えば、時間A’までにX’Y’Z’を決定する。このデータは、レンダリングエンジンにフィードバックされ、X’Y’Z’データをレンダリングして、時間A’までに中心窩ディスプレイで利用できるようにする。
図5A~図5Bは、システムにおける視線追跡およびミラー制御の一実施形態のフローチャートである。図5Aは、ホストCPUおよびアイトラッカのフローの一実施形態を示し、一方、図5Bは、対応するヘッドセットマイクロコントローラユニット(MCU)およびミラー制御のフローの一実施形態を示している。
プロセスは、新しい視線追跡データが受信されたときにブロック505で開始する。ブロック510で、データは、フィルタリングされ、新しい視線ベクトルが計算される。
一実施形態では、次にデータが分析される。一実施形態では、眼球運動は分類される。一実施形態では、分類は、サッカードおよびスムーズな追跡などの移動を含み得る。一実施形態では、最後のミラー移動から経過した時間も分析され、システムは、ミラーが移動された場合にユーザ体験が低下するかどうかを決定する。
次に、システムは、ブロック515で、ミラーが移動された場合にユーザ体験が低下/改善されるかどうかに基づいて、ミラーを移動するかどうかを決定する。決定がミラーを移動しないことである場合、ブロック520で、プロセスは終了する。ミラーは移動されず、表示する新しいフレームは生成されない。
ブロック515で決定がミラーを移動することである場合、ブロック522でのプロセスは、ミラー移動を延期すべきかどうかを決定する。上で考察されるように、データの制限、物理的な制限、または他の理由により、ミラー移動が延期され得る。ブロック522で、プロセスが移動を延期することを決定した場合、ブロック524で、ミラー移動は、必要な期間延期される。一実施形態では、ミラー移動は、1つのフレームについて延期され得る。延期が終了した後、プロセスは、ブロック525に戻る。移動が延期されない場合、ブロック522で、プロセスは、ブロック525に直接続く。
ブロック525で、プロセスは、新しい中心窩領域データをレンダラに送信する。レンダラは、ブロック530で最新の中心窩領域をレンダリングする。これは、一実施形態では、ミラー移動と非同期に行われる。
移動命令が受信されると、一実施形態では、新しい中心窩領域データをレンダラに送信するのと並行して、システムは、ブロック535で、新しいミラー座標をヘッドセットに送信する。一実施形態では、ヘッドセットに送信されるデータは、宛先座標と共に、移動ミラーコマンドを含む。一実施形態では、データは、ミラー遅延の長さを指定するミラー移動延期データも含む。ミラー遅延は、ミラー移動が開始されるまでの時間である。一実施形態では、ミラー遅延はまた、中心窩ディスプレイが停止されるまでの時間を含む。この遅延は、移動延期時間と称することができる。
一実施形態では、位置およびミラー遅延(もしあれば)は、眼球運動分類および視線データに基づいて計算される。このデータは、ブロック537で、新しいミラー座標と共にヘッドセットMCUおよびミラー制御に送信される。一実施形態では、ミラー移動中に、中心窩ディスプレイは消灯される。
一実施形態では、ミラー移動が中心窩ディスプレイを一時的に利用できなくするので、ブロック540で、中心窩ディスプレイのための古い場所にあるフィールドディスプレイの穴が埋められる。一実施形態では、システムは、ミラー移動の大きさ、およびディスプレイプレゼンテーションの積み重ね回数に基づいて、埋めるフィールドディスプレイフレームの数を調べる。一実施形態では、ミラー移動および整定時間の長さは、ルックアップテーブルを使用して計算される。一実施形態では、ミラーの移動が、整定しきい値以内であり、したがって中心窩ディスプレイが使用可能であることを示す、ミラー整定信号が、このループを閉じるためにヘッドセットMCU(ブロック585を参照)から送り返され得る。
一実施形態では、ヘッドセットMCUおよびミラー制御に送信されるデータは、ミラーがその目的地に到達したときを定義する整定基準を含み、中心窩ディスプレイは、ユーザの体験を損なうことなく安全に表示することができる。一実施形態では、この整定基準は、位置精度データ、ならびにミラーが標的宛先の精度限界内になければならない時間を含む。
一実施形態では、整定基準は、動的に設定される。整定基準は、操縦移動のサイズ、視線検出器によって報告される視線変化のサイズ、シーン内のコンテンツなどに基づいて動的に決定され得る。
一実施形態では、フィールドディスプレイの穴を埋める時間の長さが0フレームである場合、フィールドディスプレイがフィールドディスプレイの穴を埋めることはなく、バイパスパスが使用され、ブロック542で、ブロック555に直接移行する。
一実施形態では、塗りつぶしデータは、レンダリングされたフィールドディスプレイデータ、レンダリングされた中心窩データ、前のフレームからの中心窩データ、再処理されたフィールドディスプレイデータ、または上記のタイプのデータの組み合わせであり得る。
一実施形態では、塗りつぶしは、ブロック545で、漸進的な明るさの充填および非充填を利用する。一実施形態では、塗りつぶしは、アンチエイリアシング、空間ディザリング、時間ディザリング、ぼかしなど、ブロック545で、1つ以上のフィルタリング方法を使用し得る。フィールドディスプレイを埋めるために使用される様々なフィルタリング方法は、低持続性ディスプレイにおける明るさの急激な変化によって引き起こされるフラッシュなど、塗りつぶしプロセス中の視覚的なアーティファクトを防ぐように設計される。一実施形態では、漸進的なブレンディングは、サッカードのマスキングがロールオフするときにサッカードの終わりに視覚的なアーティファクトを最小限に抑えるために利用される。
低持続性ディスプレイは、フレームのごく一部、例えば、11ミリ秒のフレームのうちの2ミリ秒でのみオンになり、これは、ヘッドマウントディスプレイのジャダーを防ぐことになる。低持続性フィールドディスプレイからのフラッシュが以前に表示された中心窩フレームに追加されて、眼がこの組み合わせを明るすぎると見なすため、中心窩フレームが表示された直後にフィールドディスプレイが塗りつぶされると、ジャダーによって不要なフラッシュが発生する可能性がある。一実施形態では、このフラッシュは、中心窩ディスプレイが遮断された後、第1のフレームのフィールドディスプレイを埋める明るさを減らすことによって軽減することができる。一実施形態では、その第1のフレームのフィールドディスプレイは、ほんの半分の明るさで埋められる。一実施形態では、フィールドディスプレイの明るさは、第1のフレームについて10~90%であり得る。一実施形態では、これは、ユーザが遷移中に均一な明るさを知覚することを意味する。一実施形態では、フィールドディスプレイの明るさは、切り欠きが塗りつぶされるときに、いくつかのフレームにわたって強められる。
ブロック550において、一実施形態では、プロセスは、ミラー移動に十分な時間が経過したかどうかを判定する。一実施形態では、この判定は、移動の時間を示すルックアップテーブルに基づいて行われる。そうでない場合、プロセスは、待機し続ける。一実施形態では、待機中、フィールドディスプレイは、上記のように切り欠きなしで表示される。
十分な時間が経過すると、ブロック555で、一実施形態では、プロセスは、生成された中心窩画像がミラーの宛先に対して正しいかどうかを判定する。そうでない場合、一実施形態では、プロセスは、前の中心窩フレームからのデータを使用する。別の実施形態では、フィールドデータを使用し得る。一実施形態では、どのデータが使用されるかは、中心窩ミラーの実際の位置に利用可能な最も正確なデータが何であるかに依存し、場所の不一致がないため、それが間違って現れることを確実にする。
中心窩画像が正しいと判定されると、ブロック560で、中心窩の穴が新しい場所でフィールドディスプレイから打ち抜かれる。一実施形態では、その「中心窩ディスプレイを有効にする」コマンドは、ブロック565でヘッドセットに送信される。一実施形態では、これらの2つの要素、ブロック560および565は非同期的である。図6のタイミング図は、より多くの詳細を提供する。
図5Bに目を向けると、ブロック570で、ヘッドセットMCUは、ブロック537で、ホストCPUおよびアイトラッカによって送信された移動ミラーコマンドを受信する。
ブロック571で、プロセスは、ブロック537で判定されるように、ミラー移動を延期すべきかどうかを判定する。その場合、提供されたデータに基づいて、ミラー移動と中心窩ディスプレイの表示が遅延される。
ブロック573では、一実施形態では、中心窩ディスプレイは表示されない。一実施形態では、中心窩ディスプレイの照明源が無効にされているため、中心窩ディスプレイは表示されない。中心窩ディスプレイの照明源を無効にすると、事実上、中心窩ディスプレイがオフになる。一実施形態では、中心窩ディスプレイは、ブランク(黒)フレームを送信することによってブランクにすることによって表示されなくてもよい。一実施形態では、中心窩ディスプレイ照明源を無効にするか、または黒いフレームを送信する代わりに、システムは、別の方法で中心窩ディスプレイを表示することを停止することができる。
一実施形態では、ブロック575で、中心窩ディスプレイが表示されないことを確実にするのに十分長く移動が遅延される。一実施形態では、遅延は、1.2ミリ秒である。一実施形態では、遅延は、4ミリ秒未満である。一実施形態では、「ミラー移動コマンド」を送信する際の遅延時間は、照明源がオフであることを確実にするのに十分であるため、遅延はない。
さらに、システムは、ブロック577で、一実施形態では、このミラー移動のためのミラー移動制御係数を調べる。これらのパラメータは、開始場所、移動のサイズ、および移動の方向に基づく。その方向は、移動の戻りばね力に影響を与える可能性があるため、一実施形態において関連している。一実施形態では、PID(比例、積分、微分)制御ループが使用される。ブロック580で、プロセスは、制御ループ係数を更新し、制御ループ内に新しい位置標的を設定する。その後、ミラー移動が始まる。
ブロック583で、移動が行われる。一実施形態では、使用される移動は、バンバン制御(bang-bang control)と称される、高速移動およびブレーキングである。一実施形態では、短いハードターンオンが移動を開始してノイズフロアを乗り越え、次に制御アルゴリズムが移動を引き継いでミラーを正しく位置付ける。一実施形態では、移動の終わりに、ミラーは残留振動を有し得る。
ブロック585で、プロセスは、ミラーが新しい標的宛先に整定したかどうかを判定する。一実施形態では、ミラーは、それがもはや移動していないか、または振動していないときに、整定したと見なされる。一実施形態では、ミラーは、最終位置に対する残りのミラー移動および不正確さが典型的な視聴者の視覚体験を低下させないときに、整定したと見なされる。一実施形態では、1~5分角の移動が整定したと見なされる。上で考察されるたように、一実施形態では、整定したミラーの閾値は、動的である。ミラーが整定すると、ブロック587で、プロセスは、「中心窩ディスプレイを有効にする」コマンドが受信されたかどうかを判定する。このコマンドは、ホストCPUおよびアイトラッカから受信され、上で考察されるブロック565で送信される。
そうである場合、ブロック580で、中心窩ディスプレイの照明源が有効にされる。この時点で、ユーザは、フィールドディスプレイの切り欠きに、正しく位置付けられた中心窩ディスプレイを備えたフィールドディスプレイを見る。
図5Aおよび図5Bは、操縦可能な中心窩ディスプレイの一実施形態における操縦制御のフローチャートである。当業者であれば、同じシステムを他の同様の実施形態に拡張する方法を理解するであろう。上記のように、一実施形態では、操縦可能な要素はミラーではない。一実施形態では、ホストCPUおよびアイトラッカは、ヘッドセットMCUおよびミラー制御と統合されている。
図6および図7は、タイミングアーキテクチャの実施形態を示すタイミング図である。
図6は、アイトラッカシステム、フィールドディスプレイ、中心窩ディスプレイ、中心窩ディスプレイフレームバッファ、および中心窩レンダリングウィンドウによって取られるアクションの相対的なタイミングを示すタイミング図の一実施形態を示している。さらに、ヘッドマウントディスプレイ(HMD)へのコマンドおよびユーザビューが示されている。
なお、コマンドの相対的なタイミングは、これらのシステム間の関係に基づいているが、一実施形態では、フィールドディスプレイと中心窩ディスプレイは、別個のクロック上にあり、同期されていない。
図6は、スムーズな追跡タイプの眼球運動について(アイトラッカシステムから)新しい視線ベクトルが報告された後の60ミリ秒の期間を示している。この図では、ミラー移動に9ミリ秒かかり、この間、フィールドフレーム0が表示され、パンチアウトが埋められ、中心窩フレームは表示されない。見てわかるように、時間21ミリ秒で中心窩LEDがオフになり、時間32ミリ秒で中心窩LEDが再びオンになり、ミラー移動が完了した後、ミラーが整定したと報告される。
図6は、フィールドディスプレイのデューティサイクルも示している。一実施形態では、フィールドディスプレイは、11ミリ秒のうち2ミリ秒の間点灯する(例えば、フィールドディスプレイが暗いときは9ミリ秒ある)。このタイプのデューティサイクルは、当技術分野ではディスプレイ用として知られている。一実施形態では、中心窩ディスプレイは、そのようなデューティサイクルなしで連続的に表示される。別の実施形態では、中心窩ディスプレイはまた、フィールドディスプレイが点灯されるのと同じ方法で、フレームの一部についてのみ点灯され得る。
一実施形態では、中心窩ディスプレイは、複数の深さを有し、例えば、それは、多焦点ディスプレイである。一実施形態では、そのような多焦点ディスプレイの場合、深さは順次表示され、例えば、フレーム0の場合、第1のフレーム部分は深さAであり、第2のフレーム部分は深さBである。なお、2つのフレーム深さのみが示されているが、多焦点ディスプレイは、3つ以上のフレーム深さを含み得る。多焦点ディスプレイの一実施形態では、フレーム0は深さAを表示し、フレーム1は深さBを表示する。
スムーズな追跡とは異なり、サッカードの移動のサイズは大きく変動する。したがって、移動は、複数のフレームに及び得る。これは、中心窩ディスプレイがない複数のフィールドフレームが存在し得ることを意味する。当業者であれば、より長い移動のために図6に示されるフレーム表示タイミングが延長されることを理解するであろう。
図7は、同期システムのタイミング図の一実施形態を示している。一実施形態では、システムは、同期され、すべてのサブシステムは、単一の統合コントローラがシステムのすべての要素を制御するシステムオンチップ上などで、同じタイムベースで実行される。一実施形態では、中心窩ディスプレイは、フレームごとにオフ期間を有する。一実施形態では、操縦可能な要素は、中心窩ディスプレイのオフ期間中に移動され、操縦可能な要素が移動されたときに典型的な視聴者の視覚体験の低下がないようにする。一実施形態では、上で考察されるように、フィールドディスプレイおよび中心窩ディスプレイは、それぞれ単一のより大きなディスプレイの一部である。
図7では、フィールドディスプレイおよび中心窩ディスプレイが同期してリフレッシュされている。さらに、中心窩ディスプレイにはブランキング期間がある。中心窩ディスプレイの操縦可能な要素を移動する必要がある場合、このブランキング期間中に移動する。図7の例では、22ミリ秒の時点で新しい視線位置が報告されている。操縦可能なディスプレイの中心窩ディスプレイおよびフィールドディスプレイが更新され、新しい視線位置が1フレーム、11ミリ秒、後で33ミリ秒で表示されている。この例では、フィールドディスプレイと中心窩ディスプレイの両方のフレームレートは、90Hzである。
同期ディスプレイはまた、フィールドディスプレイおよび中心窩ディスプレイを互いの整数倍で実行し得る。
図8は、レンダリングエンジンで使用され得るコンピュータシステムのブロック図である。当業者には明らかであろうが、様々なシステムアーキテクチャの他の代替的なシステムも使用され得る。
図8に示されるデータ処理システムは、情報を通信するためのバスまたは他の内部通信手段840と、情報を処理するためのバス840に結合された処理ユニット810と、を含む。処理ユニット810は、中央処理ユニット(CPU)、デジタル信号プロセッサ(DSP)、または別のタイプの処理ユニット810であり得る。
システムは、一実施形態では、プロセッサ810によって実行される情報および命令を記憶するためにバス840に結合されたランダムアクセスメモリ(RAM)または他の揮発性記憶デバイス820(メモリと称される)をさらに含む。メインメモリ820はまた、処理ユニット810による命令の実行中に一時変数または他の中間情報を記憶するために使用され得る。
システムはまた、一実施形態では、静的情報およびプロセッサ810の命令を記憶するためにバス840に結合された読み取り専用メモリ(ROM)850および/または静的記憶デバイス850を備える。一実施形態では、システムはまた、磁気ディスクもしくは光ディスクおよびその対応するディスクドライブなどのデータ記憶デバイス830、またはシステムに電力が供給されていないときにデータを記憶することができるフラッシュメモリもしくは他の記憶装置を含む。一実施形態では、データ記憶デバイス830は、情報および命令を記憶するためにバス840に結合されている。
システムはさらに、情報を出力するためにバス840を介してバス840に結合された陰極線管(CRT)または液晶ディスプレイ(LCD)などの出力デバイス870に結合され得る。出力デバイス870は、視覚出力デバイス、音声出力デバイス、および/または触覚出力デバイス(例えば、振動など)であり得る。
入力デバイス875は、バス860に結合され得る。入力デバイス875は、ユーザが情報およびコマンド選択を処理ユニット810に通信することを可能にするための、英数字および他のキーを含むキーボードなどの英数字入力デバイスであり得る。追加のユーザ入力デバイス880をさらに含めてもよい。そのようなユーザ入力デバイス880の1つは、マウス、トラックボール、スタイラス、カーソル方向キー、またはタッチスクリーンなどのカーソル制御デバイス880であり、方向情報およびコマンド選択を処理ユニット810に通信するために、ならびにディスプレイデバイス870上の移動を制御するために、バス860を介してバス840に結合され得る。
任意選択的にコンピュータシステム800に結合され得る別のデバイスは、ネットワークを介して分散システムの他のノードにアクセスするためのネットワークデバイス885である。通信デバイス885は、イーサネット、トークンリング、インターネット、またはワイドエリアネットワーク、パーソナルエリアネットワーク、ワイヤレスネットワーク、または他のデバイスにアクセスする他の方法に結合するために使用されるものなど、いくつかの市販のネットワーク周辺デバイスのいずれかを含み得る。通信デバイス885はさらに、ヌルモデム接続、またはコンピュータシステム800と外界との間の接続を提供する任意の他の機構であり得る。
なお、図8に示されるこのシステムのコンポーネントのいずれかまたはすべて、および関連するハードウェアが、本発明の様々な実施形態で使用され得る。
本発明を具体化する特定の機械は、特定の実装形態に従って様々な方法で構成され得ることが当業者によって理解されるであろう。本発明を実装する制御ロジックまたはソフトウェアは、メインメモリ820、大容量記憶デバイス830、またはプロセッサ810に局所的または遠隔的にアクセス可能な他の記憶媒体に記憶することができる。
本明細書に記載のシステム、方法、およびプロセスは、メインメモリ820に記憶されたソフトウェアまたは読み取り専用メモリ850として実装され、プロセッサ810によって実行され得ることが当業者には明らかであろう。この制御ロジックまたはソフトウェアはまた、コンピュータ可読プログラムコードが埋め込まれ、大容量記憶デバイス830によって可読であり、プロセッサ810を本明細書の方法および教示に従って動作させるためのコンピュータ可読媒体を含む製造品に内在し得る。
本発明はまた、上記のコンピュータハードウェアコンポーネントのサブセットを含むハンドヘルドまたはポータブルデバイスに具体化され得る。例えば、ハンドヘルドデバイスは、バス840、プロセッサ810、ならびにメモリ850および/または820のみを収容するように構成され得る。
ハンドヘルドデバイスは、ユーザが利用可能なオプションのセットから選択し得るボタンのセットまたは入力シグナリングコンポーネントを含むように構成され得る。これらは、入力デバイス#1 875または入力デバイス#2 880と見なすことができる。ハンドヘルドデバイスはまた、ハンドヘルドデバイスのユーザに情報を表示するための液晶ディスプレイ(LCD)またはディスプレイ要素マトリクスなどの出力デバイス870を含むように構成され得る。従来の方法を使用して、そのようなハンドヘルドデバイスを実装し得る。そのようなデバイスのための本発明の実装形態は、本明細書で提供される本発明の開示を考えると、当業者には明らかであろう。
本発明はまた、キオスクまたは車両など、上記のコンピュータハードウェアコンポーネントのサブセットを含む専用のアプライアンスに具体化され得る。例えば、アプライアンスは、処理ユニット810、データ記憶デバイス830、バス840、およびメモリ820を含み、入出力機構を含まないか、またはユーザが基本的な方法でデバイスと通信することを可能にする小さなタッチスクリーンなどの基本的な通信機構のみを含み得る。一般に、デバイスが専用であるほど、デバイスが機能するために存在する必要のある要素は少なくなる。一部のデバイスでは、ユーザとの通信は、タッチベースの画面または同様の機構を介して行われ得る。一実施形態では、デバイスは、いかなる直接の入力/出力信号を提供しなくてもよいが、ウェブサイトまたはネットワークデバイス885を介した他のネットワークベースの接続を介して構成およびアクセスされ得る。
コンピュータシステムとして実装された特定の機械の任意の構成が、特定の実装形態に従って使用され得ることが当業者によって理解されるであろう。本発明を実装する制御ロジックまたはソフトウェアは、プロセッサ810に局所的または遠隔的にアクセス可能な任意の機械可読媒体に記憶することができる。機械可読媒体は、機械(例えば、コンピュータ)によって可読な形式で情報を記憶するための任意の機構を含む。例えば、機械可読媒体には、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイス、または一時的もしくは永続的なデータ記憶に使用できる他の記憶媒体が含まれる。一実施形態では、制御ロジックは、電気的、光学的、音響的、または他の形態の伝搬信号(例えば、キャリア波、赤外線信号、デジタル信号など)などの送信可能なデータとして実装され得る。
前述の明細書では、本発明は、その特定の例示的な実施形態を参照して説明されてきた。しかしながら、添付の特許請求の範囲に記載されている本発明のより広い精神および範囲から逸脱することなく、様々な修正および変更を行うことができることは明らかであろう。したがって、明細書および図面は、限定的な意味ではなく、例示的な意味で見なされるべきである。

Claims (20)

  1. システムであって、
    第1のピクセル/度(PPD)の解像度を有し、かつ第1の視野を有する操縦可能なディスプレイ画像を位置付けるための中心窩ディスプレイと、
    前記第1の解像度よりも低いPPDを有する第2の解像度を有し、かつ前記第1の視野よりも広い第2の視野を有する、フィールドディスプレイ画像を提供するためのフィールドディスプレイと、
    前記フィールドディスプレイ用のフィールドテクスチャ、および前記中心窩ディスプレイ用の中心窩テクスチャをレンダリングするためのレンダリングエンジンと、
    前記フィールドテクスチャから前記フィールドディスプレイ用のフレームを生成するためのフィールド合成器と、前記中心窩テクスチャから前記中心窩ディスプレイ用のフレームを生成するための中心窩合成器と、を含む合成器と、
    前記フィールドディスプレイおよび前記中心窩ディスプレイの1つ以上のデータを含む提示されるものを順序付け、選択するように設計された合成マネージャと、を備える、システム。
  2. 前記中心窩ディスプレイが切り欠きを埋めるように位置付けられている場合、前記フィールドディスプレイから前記切り欠きをトリガするための前記合成マネージャをさらに備える、請求項1に記載のシステム。
  3. 前記フィールドディスプレイからの前記切り欠きが、
    現在の中心窩テクスチャデータ、
    以前の中心窩テクスチャデータ、および
    フィールドテクスチャデータ、からの1つ以上のデータで埋められる、請求項2に記載のシステム。
  4. 前記フィールドテクスチャデータが、再サンプリングされたフィールドテクスチャデータである、請求項3に記載のシステム。
  5. 前記レンダリングエンジンおよび前記合成器が、非同期的である、請求項1に記載のシステム。
  6. 中心窩合成器およびフィールド合成器が、非同期的である、請求項5に記載のシステム。
  7. 前記レンダリングエンジンおよび前記合成器が、同期的である、請求項1に記載のシステム。
  8. 前記中心窩ディスプレイが再位置付けされるべきであると判断すると、前記中心窩ディスプレイを移動させる前に、前記中心窩ディスプレイが整定された後の中心窩ディスプレイの前記移動および再有効化の前に、前記中心窩ディスプレイを高速停止させて、前記中心窩ディスプレイの迅速で小さな再位置付けを可能にすることをさらに含む、請求項1に記載のシステム。
  9. 前記中心窩ディスプレイが再位置付けされるべきであると判断すると、移動が延期されるべきであるかどうかを判断することと、前記移動を延期することと、をさらに含む、請求項8に記載のシステム。
  10. 前記移動が延期されるとき、前のフレームからの前記中心窩テクスチャが、表示のために再サンプリングされる、請求項9に記載のシステム。
  11. 前記合成器によって生成された前記フレームデータにメタデータを添付するためのメタデータシステムをさらに備え、前記メタデータが、前記中心窩画像のレンダリングに使用される、請求項1に記載のシステム。
  12. 前記メタデータが、ポーズ、視線、および/または位置の測定値を含み、前記合成器が、最新のポーズ、視線、および/または位置の間でさらに使用するためのものであり、前記メタデータが、前記中心窩テクスチャをクロップするためのものである、請求項8に記載のシステム。
  13. 前記操縦可能なディスプレイの光学スタックに歪み補正を提供するためのデジタル補正システムをさらに備える、請求項1に記載のシステム。
  14. システムであって、
    第1のタイムベースで、フィールドテクスチャおよび中心窩テクスチャをレンダリングするためのレンダリングエンジンと、
    前記フィールドテクスチャから、フィールドディスプレイ用のフレームを生成するためのフィールド合成器を含む合成器であって、前記フィールド合成器が、前記第1のタイムベースとは異なる第2のタイムベースを有する、合成器と、を備え、
    前記合成器が、中心窩ディスプレイ用のフレームを生成する中心窩合成器を含み、前記中心窩ディスプレイが、ユーザの中心窩領域に対して位置付けられ、かつ前記フィールドディスプレイの切り欠き領域に示される、システム。
  15. 前記中心窩ディスプレイの状態および前記中心窩ディスプレイに関連付けられた操縦可能な要素を追跡するための中心窩状態マシンをさらに備え、前記中心窩状態マシンが、前記フィールド合成器にデータを提供して、前記中心窩ディスプレイ領域を切り取るかまたは塗りつぶす、請求項14に記載のシステム。
  16. 前記中心窩領域の塗りつぶしが、ミラーが移動されたときに現在の中心窩テクスチャに基づき、前記ミラーの移動が延期された場合に以前の中心窩テクスチャに基づく、請求項15に記載のシステム。
  17. 前記中心窩ディスプレイの移動が、コンテンツ、関心領域、シーン内の高解像度コンテンツの領域、および/または眼球運動分類に基づくシステム動作による視線予測に基づく、請求項14に記載のシステム。
  18. 前記レンダリングエンジンが、前記中心窩領域のサイズをオーバーレンダリングして、再レンダリングすることなくミラーのわずかな移動を可能にする、請求項14に記載のシステム。
  19. 前記システム内の表示待ち時間を補償するために、前記中心窩ディスプレイのミラーの移動を延期するための合成マネージャをさらに備える、請求項14に記載のシステム。
  20. システムであって、
    第1の表示グレードを有し、かつ第1の視野を有する操縦可能なディスプレイ画像を位置付けるための中心窩ディスプレイと、
    前記第1の表示グレードよりも低いグレードを有する第2の表示グレードを有し、かつ前記第1の視野よりも広い第2の視野を有するフィールドディスプレイ画像を提供するためのフィールドディスプレイと、
    前記フィールドディスプレイ用のフィールドテクスチャおよび前記中心窩ディスプレイ用の中心窩テクスチャをレンダリングするためのレンダリングエンジンと、
    前記フィールドテクスチャから前記フィールドディスプレイ用のフレームを生成するためのフィールド合成器と、前記中心窩テクスチャから前記中心窩ディスプレイ用のフレームを生成するための中心窩合成器と、を含む合成器と、
    前記フィールドディスプレイおよび前記中心窩ディスプレイのデータのうちの1つ以上を含む提示されるものを順序付け、選択するように設計された合成マネージャと、を備える、システム。
JP2021538384A 2019-01-07 2020-01-06 制御システムおよびレンダリングパイプライン Active JP7460637B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962789511P 2019-01-07 2019-01-07
US62/789,511 2019-01-07
US201962847314P 2019-05-13 2019-05-13
US62/847,314 2019-05-13
PCT/US2020/012428 WO2020146288A1 (en) 2019-01-07 2020-01-06 Control system and rendering pipeline

Publications (3)

Publication Number Publication Date
JP2022516270A true JP2022516270A (ja) 2022-02-25
JPWO2020146288A5 JPWO2020146288A5 (ja) 2023-01-19
JP7460637B2 JP7460637B2 (ja) 2024-04-02

Family

ID=71403716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021538384A Active JP7460637B2 (ja) 2019-01-07 2020-01-06 制御システムおよびレンダリングパイプライン

Country Status (7)

Country Link
US (2) US11126261B2 (ja)
EP (1) EP3884338A4 (ja)
JP (1) JP7460637B2 (ja)
KR (2) KR20210111795A (ja)
CN (1) CN113412442A (ja)
CA (1) CA3125739A1 (ja)
WO (1) WO2020146288A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020146546A1 (en) 2019-01-08 2020-07-16 Avegant Corp. Sensor-based eye-tracking using a holographic optical element
US11159823B2 (en) * 2019-06-20 2021-10-26 At&T Intellectual Property I, L.P. Multi-viewport transcoding for volumetric video streaming
US11475545B2 (en) * 2020-05-28 2022-10-18 Nxp Usa, Inc. System and method for correcting geometric distortion in images
JP7468227B2 (ja) 2020-07-30 2024-04-16 セイコーエプソン株式会社 虚像表示装置
US20220310037A1 (en) * 2021-03-26 2022-09-29 Lightspace Technologies, SIA Method and system for reducing motion-to-photon latency in head-mounted display system
GB2615362B (en) * 2022-02-08 2024-03-13 Sony Interactive Entertainment Inc Image processing system and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08313843A (ja) * 1995-05-16 1996-11-29 Agency Of Ind Science & Technol 視線追従方式による広視野高解像度映像提示装置
JP2001281594A (ja) * 2000-03-30 2001-10-10 Denso Corp 網膜走査ディスプレイ装置及び光走査装置
JP2009182754A (ja) * 2008-01-31 2009-08-13 Sanyo Electric Co Ltd 画像処理装置
JP2017028510A (ja) * 2015-07-23 2017-02-02 日本放送協会 多視点映像生成装置及びそのプログラム、並びに、多視点映像生成システム
WO2018165484A1 (en) * 2017-03-08 2018-09-13 Ostendo Technologies, Inc. Compression methods and systems for near-eye displays
WO2018183405A1 (en) * 2017-03-27 2018-10-04 Avegant Corp. Steerable foveal display

Family Cites Families (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4924522A (en) 1987-08-26 1990-05-08 Ncr Corporation Method and apparatus for displaying a high resolution image on a low resolution CRT
US5035500A (en) 1988-08-12 1991-07-30 Rorabaugh Dale A Automated ocular perimetry, particularly kinetic perimetry
US6008781A (en) 1992-10-22 1999-12-28 Board Of Regents Of The University Of Washington Virtual retinal display
US8330812B2 (en) 1995-05-30 2012-12-11 Simulated Percepts, Llc Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame
US6204974B1 (en) 1996-10-08 2001-03-20 The Microoptical Corporation Compact image display system for eyeglasses or other head-borne frames
US6097353A (en) 1998-01-20 2000-08-01 University Of Washington Augmented retinal display with view tracking and data positioning
JP2003502711A (ja) 1999-06-21 2003-01-21 ザ マイクロオプティカル コーポレイション 軸から外れている光学設計を使用する接眼レンズ・ディスプレイ・レンズ・システム
NZ537849A (en) 2005-01-21 2007-09-28 Peter James Hilton Direct Retinal Display projecting a scanned optical beam via diverging and converging reflectors
JP4735234B2 (ja) 2005-12-19 2011-07-27 ブラザー工業株式会社 画像表示システム
US20080015553A1 (en) 2006-07-12 2008-01-17 Jaime Zacharias Steering laser treatment system and method of use
CN101589329B (zh) 2007-11-21 2011-10-12 松下电器产业株式会社 显示装置
IL196078A (en) 2007-12-20 2014-09-30 Raytheon Co Imaging system
US20100149073A1 (en) 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
US7786648B2 (en) 2008-08-18 2010-08-31 New Scale Technologies Semi-resonant driving systems and methods thereof
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
US20110141225A1 (en) 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama Imaging Based on Low-Res Images
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9632315B2 (en) 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US9513490B2 (en) 2011-01-10 2016-12-06 Eastman Kodak Company Three channel delivery of stereo images
BR112014005192A2 (pt) 2011-09-07 2017-03-21 Improved Vision Systems (I V S ) Ltd método e sistema para o tratamento de deficiência visual
US20130100176A1 (en) 2011-10-21 2013-04-25 Qualcomm Mems Technologies, Inc. Systems and methods for optimizing frame rate and resolution for displays
US8681426B2 (en) 2011-11-04 2014-03-25 Honeywell International Inc. Steerable near-to-eye display and steerable near-to-eye display system
JP5524254B2 (ja) 2012-02-14 2014-06-18 富士フイルム株式会社 ミラー駆動装置及びその制御方法
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US20130286053A1 (en) 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
US9788714B2 (en) 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
WO2014155288A2 (en) 2013-03-25 2014-10-02 Ecole Polytechnique Federale De Lausanne (Epfl) Method and apparatus for head worn display with multiple exit pupils
DE102013208625A1 (de) 2013-05-10 2014-11-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiapertur-projektionsdisplay und einzelbilderzeuger für ein solches
US10295338B2 (en) * 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
US9335548B1 (en) 2013-08-21 2016-05-10 Google Inc. Head-wearable display with collimated light source and beam steering mechanism
US11402629B2 (en) 2013-11-27 2022-08-02 Magic Leap, Inc. Separated pupil optical systems for virtual and augmented reality and methods for displaying images using same
JP2015132747A (ja) 2014-01-15 2015-07-23 セイコーエプソン株式会社 プロジェクター
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10068311B2 (en) * 2014-04-05 2018-09-04 Sony Interacive Entertainment LLC Varying effective resolution by screen location by changing active color sample count within multiple render targets
US9588408B1 (en) 2014-05-15 2017-03-07 Autofuss Methods and systems for projecting a target portion of an image at a higher resolution
US9874744B2 (en) 2014-06-25 2018-01-23 Thalmic Labs Inc. Systems, devices, and methods for wearable heads-up displays
KR102420313B1 (ko) 2014-06-30 2022-07-13 소니그룹주식회사 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 그리고 화상 처리 시스템
GB201417208D0 (en) 2014-09-30 2014-11-12 Ibvision Ltd Method Software And Apparatus For Testing A Patiants Visual Field
IL235073A (en) 2014-10-07 2016-02-29 Elbit Systems Ltd Head-mounted view of enlarged images that are locked on an object of interest
WO2016105521A1 (en) 2014-12-23 2016-06-30 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest
EP3237953A1 (en) 2014-12-26 2017-11-01 CY Vision Inc. Near-to-eye display device with variable resolution
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US10284118B2 (en) 2015-02-06 2019-05-07 New Scale Technologies, Inc. Two-axis angular pointing device and methods of use thereof
US10054797B2 (en) 2015-02-12 2018-08-21 Google Llc Combining a high resolution narrow field display and a mid resolution wide field display
US10078922B2 (en) 2015-03-11 2018-09-18 Oculus Vr, Llc Eye tracking for display resolution adjustment in a virtual reality system
US20160274365A1 (en) 2015-03-17 2016-09-22 Thalmic Labs Inc. Systems, devices, and methods for wearable heads-up displays with heterogeneous display quality
JP6520432B2 (ja) 2015-06-09 2019-05-29 セイコーエプソン株式会社 光学デバイスおよび画像表示装置
US10210844B2 (en) 2015-06-29 2019-02-19 Microsoft Technology Licensing, Llc Holographic near-eye display
WO2017025487A1 (en) 2015-08-07 2017-02-16 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH System and method for displaying a stream of images
US10545717B2 (en) 2015-10-08 2020-01-28 Pcms Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations
US10726619B2 (en) 2015-10-29 2020-07-28 Sony Interactive Entertainment Inc. Foveated geometry tessellation
US11109916B2 (en) 2015-11-09 2021-09-07 Digital Surgicals Pte Ltd Personalized hand-eye coordinated digital stereo microscopic systems and methods
WO2017112958A1 (en) 2015-12-24 2017-06-29 Meta Company Optical engine for creating wide-field of view fovea-based display
US20170255012A1 (en) 2016-03-04 2017-09-07 Sharp Kabushiki Kaisha Head mounted display using spatial light modulator to move the viewing zone
US20170255020A1 (en) 2016-03-04 2017-09-07 Sharp Kabushiki Kaisha Head mounted display with directional panel illumination unit
US10438400B2 (en) * 2016-03-08 2019-10-08 Nvidia Corporation Perceptually-based foveated rendering using a contrast-enhancing filter
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10460704B2 (en) 2016-04-01 2019-10-29 Movidius Limited Systems and methods for head-mounted display adapted to human visual mechanism
GB2553744B (en) * 2016-04-29 2018-09-05 Advanced Risc Mach Ltd Graphics processing systems
WO2018019831A1 (en) 2016-07-25 2018-02-01 Optotune Ag Optical device for enhancing resolution of an image using multistable states
US10255714B2 (en) 2016-08-24 2019-04-09 Disney Enterprises, Inc. System and method of gaze predictive rendering of a focal area of an animation
US9779478B1 (en) 2016-10-04 2017-10-03 Oculus Vr, Llc Rendering composite content on a head-mounted display including a high resolution inset
US10140695B2 (en) * 2016-10-04 2018-11-27 Facebook Technologies, Llc Head-mounted compound display including a high resolution inset
AU2017362344B2 (en) 2016-11-16 2023-09-28 Magic Leap, Inc. Multi-resolution display assembly for head-mounted display systems
US9711072B1 (en) 2016-12-01 2017-07-18 Varjo Technologies Oy Display apparatus and method of displaying using focus and context displays
US9711114B1 (en) 2016-12-01 2017-07-18 Varjo Technologies Oy Display apparatus and method of displaying using projectors
US11050364B2 (en) 2016-12-09 2021-06-29 New Scale Technologies, Inc. Semi-resonant motion devices and methods thereof
GB2560306B (en) 2017-03-01 2020-07-08 Sony Interactive Entertainment Inc Image processing
US20180269266A1 (en) * 2017-03-16 2018-09-20 Intel Corporation Foveated displays for virtual and augmented reality
JP7096836B2 (ja) 2017-03-22 2022-07-06 マジック リープ, インコーポレイテッド ディスプレイシステムのための深度ベース中心窩化レンダリング
US11209650B1 (en) 2018-09-06 2021-12-28 Facebook Technologies, Llc Waveguide based display with multiple coupling elements for artificial reality
US10866422B2 (en) 2019-02-21 2020-12-15 Microsoft Technology Licensing, Llc Micro LED display system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08313843A (ja) * 1995-05-16 1996-11-29 Agency Of Ind Science & Technol 視線追従方式による広視野高解像度映像提示装置
JP2001281594A (ja) * 2000-03-30 2001-10-10 Denso Corp 網膜走査ディスプレイ装置及び光走査装置
JP2009182754A (ja) * 2008-01-31 2009-08-13 Sanyo Electric Co Ltd 画像処理装置
JP2017028510A (ja) * 2015-07-23 2017-02-02 日本放送協会 多視点映像生成装置及びそのプログラム、並びに、多視点映像生成システム
WO2018165484A1 (en) * 2017-03-08 2018-09-13 Ostendo Technologies, Inc. Compression methods and systems for near-eye displays
WO2018183405A1 (en) * 2017-03-27 2018-10-04 Avegant Corp. Steerable foveal display

Also Published As

Publication number Publication date
US20200218346A1 (en) 2020-07-09
CN113412442A (zh) 2021-09-17
WO2020146288A1 (en) 2020-07-16
CA3125739A1 (en) 2020-07-16
EP3884338A4 (en) 2022-09-07
JP7460637B2 (ja) 2024-04-02
KR20240042166A (ko) 2024-04-01
EP3884338A1 (en) 2021-09-29
KR20210111795A (ko) 2021-09-13
US11650663B2 (en) 2023-05-16
US11126261B2 (en) 2021-09-21
US20220075448A1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
JP7460637B2 (ja) 制御システムおよびレンダリングパイプライン
US11656468B2 (en) Steerable high-resolution display having a foveal display and a field display with intermediate optics
US11127195B2 (en) Continuous time warp for virtual and augmented reality display systems and methods
AU2022201611B2 (en) Virtual, augmented, and mixed reality systems and methods
JP2008252731A (ja) 画像表示装置
JP4969684B2 (ja) 画像表示装置
NZ791691A (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods
NZ751028B2 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240321

R150 Certificate of patent or registration of utility model

Ref document number: 7460637

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150