JP6661832B2 - 眼の特徴付けのための反射波面分析に基づくフレームレンダリングを有するニアアイディスプレイ - Google Patents

眼の特徴付けのための反射波面分析に基づくフレームレンダリングを有するニアアイディスプレイ Download PDF

Info

Publication number
JP6661832B2
JP6661832B2 JP2019508179A JP2019508179A JP6661832B2 JP 6661832 B2 JP6661832 B2 JP 6661832B2 JP 2019508179 A JP2019508179 A JP 2019508179A JP 2019508179 A JP2019508179 A JP 2019508179A JP 6661832 B2 JP6661832 B2 JP 6661832B2
Authority
JP
Japan
Prior art keywords
eye
light
array
display
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019508179A
Other languages
English (en)
Other versions
JP2020503905A (ja
Inventor
ペロー,ジョン・ディ
リュル,パトリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2020503905A publication Critical patent/JP2020503905A/ja
Application granted granted Critical
Publication of JP6661832B2 publication Critical patent/JP6661832B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1015Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for wavefront analysis
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/12Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto
    • H01L31/125Composite devices with photosensitive elements and electroluminescent elements within one single body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Chemical & Material Sciences (AREA)
  • Composite Materials (AREA)
  • Eye Examination Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

背景
開示の分野
本発明は、一般にニアアイディスプレイに関し、より具体的に、コンピュータ計算のニアアイディスプレイのためのフレームレンダリングに関する。
関連技術の説明
3次元(3D)グラフィクスの実行的なディスプレイを提供するために、ヘッドマウントディスプレイ(HMD)およびその他のニアアイディスプレイシステムは、ニアアイライトフィールドディスプレイまたはその他のコンピュータ計算のディスプレイを利用することができる。一般に、ニアアイライトフィールドディスプレイは、1つまたは複数のディスプレイパネルと、当該1つまたは複数のディスプレイパネルに重畳する、小型レンズ、ピンホール、または、その他の光学系機構のアレイを用いる。レンダリングシステムは、要素画像のアレイをレンダリングし、各要素画像は、対応する視点または仮想カメラ位置からの対象物またはシーンの画像またはビューを表す。
一般に、要素画像の各アレイは、特定の焦点面を参照してレンダリングされ、ユーザの眼が実質的に収差を有さないという仮定に基づきレンダリングされる。しかし、ユーザの眼が屈折異常またはその他収差に影響される場合、表示されるイメージは、ぼやけるか歪められて見え得る。そのような問題を避けるため、ニアアイディスプレイデバイスは、ユーザが矯正的眼鏡を装着することを可能とするために設計されることができるが、典型的に、結果として生じるフォームファクタは、重量、慣性、および大きさの理由のために実用性がない。同様に、要素画像のアレイがレンダリングされる焦点面と、ユーザの眼の現在の調整状態とが一致しない場合、不一致の奥行き手掛りをもたらし、その結果、ユーザに対して認知疲労をもたらし、このためユーザエクスペリエンスを損ない得る。
図面の簡単な説明
添付の図面を参照することによって、本開示はよりよく理解されることができ、その多数の特徴および利点は、当業者に明らかとなるであろう。異なる図面における同じ参照符号の使用は、類似のまたは同一の項目を示す。
いくつかの実施形態に従う、波面歪み推計を介する眼の特徴付けに基づくライトフィールドフレームレンダリングを採用するニアアイディスプレイシステムを例示する図である。 いくつかの実施形態に従う、図1のニアアイディスプレイシステムのディスプレイパネルおよび重畳する小型レンズアレイをより詳細に例示する図である。 いくつかの実施形態に従う、波面歪み推計に基づきユーザの眼を特徴付けるための、および眼の特徴付けに基づきイメージレンダリング処理を制御するための方法を例示するフロー図である。 いくつかの実施形態に従う、眼の特徴付け処理中のディスプレイパネルおよび重畳する小型レンズアレイの断面図を例示する図である。 いくつかの実施形態に従う、ユーザの眼からの図2のディスプレイパネルによって投影された光スポットパターンの反射をキャプチャする画像を例示する図である。
詳細な説明
図1〜図5は、ニアアイディスプレイシステムにおいて波面歪み推計を使用したユーザの眼の特徴付けに基づく、改善された画像レンダリングのための例のシステムおよび技術を例示する。少なくとも1つの実施形態では、ユーザに没入型の仮想現実(VR)または拡張現実(AR)エクスペリエンスを提供するために、ニアアイディスプレイシステムは、ユーザに対してイメージのニアアイライトフィールドフレームを表示するための1つまたは複数のディスプレイパネルから構成されるコンピュータ計算ディスプレイを用いる。各ニアアイライトフィールドフレームは、要素画像のアレイで構成され、各要素画像は、異なる対応する視点からの対象物またはシーンのビューを表す。小型レンズのアレイは、各ディスプレイパネルに重畳し、要素画像のアレイをユーザに単一のオートステレオスコピック画像として提示するために動作する。
ARまたはVRビデオイメージをユーザに表示することに加えて、ディスプレイパネルはまた、波面歪み推計処理を介して一方または両方のユーザの眼の特徴付けを容易にする。この目的のため、少なくとも1つの実施形態では、ディスプレイパネルは、小型レンズアレイを通して眼に向かって光スポットのパターンを伝播するための投光素子(たとえば赤外(IR)光投影ダイオード)のアレイと、眼の構造からの光スポットパターンの反射をパターン反射画像としてキャプチャするための光検出素子(たとえばフォトダイオード)のアレイの両方を組み込む。
収差を有さない眼では、光スポットパターンの反射の結果として眼を出る波面は、完全に平坦であり、このため波面小型レンズアレイの小型レンズに真直に当たるであろう。結果として、反射された光スポットパターンのキャプチャされた画像における光スポットのパターンは、投光素子のアレイによって投影された光スポットパターン内の光スポットのパターンと合致するだろう。すなわち、完全な眼においては、完全に平坦な波面を仮定して、当該キャプチャされた反射されたパターンにおける光スポットの実際の位置は、対応する光スポットの予測される位置に合うだろう。対照的に、角膜、網膜、または眼の形状またはその他の眼の収差のうちの1つまたは複数における不完全性は、眼を出る波面を歪める。次いで、波面内のこれらの歪みは、波面の対応する光線が小型レンズアレイの対応する小型レンズに角度をなしてぶつかることを引き起こし、次いで対応する反射された光スポットの実際の位置が反射されたパターン画像における対応する予測される位置からずれることを引き起こす。
反射された光スポットの予測される位置からの実際の位置の変位の大きさは、対応する小型レンズにおける波面の位置領域の傾きに比例し、一方、変位角度は、この傾きの方向または角度に基づく。これらの原理を考慮して、ニアアイディスプレイシステムは、波面の形状を反射された光スポットの実際の/予測される位置変位から決定することができる。そしてニアアイディスプレイシステムは、いくつかのまたはすべての識別された波面歪み(すなわち、平坦な波面からの波面の形状の逸脱)をユーザの眼を特徴付けるために使用してもよい。このユーザの眼の特徴付けは、たとえば、ユーザの眼に存在する収差の識別、ユーザの眼の現在の調整状態の識別等を含むことができる。
ニアアイディスプレイシステムは、ディスプレイパネルにおいて表示されるべきライトフィールドフレームのシーケンスのためのレンダリング処理の1つまたは複数の態様を制御するために、眼の特徴付けを利用する。実例を示すために、いくつかの実施形態では、ニアアイディスプレイシステムは、ユーザの眼内において検出された収差を補正するために、ライトフィールドフレームのレンダリングを制御する。そのような方法では、ニアアイディスプレイシステムは、さもなければユーザが矯正目的のために眼鏡、コンタクトレンズ、またはその他の矯正レンズを装着することを要する眼の様々な不完全性に対する規範的な矯正を提供してもよく、このためユーザがニアアイディスプレイシステムを利用している間にそのような矯正レンズを装着する必要性を除去する。このため、ニアアイディスプレイシステムは、ユーザが使用中に眼鏡をかけることを容易にする必要性をもはや有さないので、ニアアイディスプレイシステムは、小型レンズアレイおよびディスプレイパネルをユーザの眼のより近くに配置する構成を実現でき、このため、より小さく軽量のフォームファクタをもたらす。別の例として、いくつかの実施形態では、ニアアイディスプレイシステムは、特定された焦点面に基づいてライトフィールドフレームをレンダリングし、ニアアイディスプレイシステムは、眼の現在の調整状態を決定するために眼の特徴付けを使用してもよく、この現在の調整状態からライトフィールドフレームの適切なレンダリングのための焦点面を選択してもよく、これにより、ユーザは現在の調整状態と一致したライトフィールドフレーム内の奥行き手掛りを提示され、このためユーザに対して没入型エクスペリエンスを効果的に有効にする。
図1は、少なくとも1つの実施形態に従う、眼の特徴付けに基づくグラフィクスレンダリングを組み込む、ニアアイディスプレイシステム100を例示する。例示される例では、ニアアイディスプレイシステム100は、コンピュータ計算ディスプレイサブシステム102と、レンダリングコンポーネント104と、ユーザの左眼を特徴付けるための眼の特徴付けコンポーネント106およびユーザの右眼を特徴付けるための眼の特徴付けコンポーネント108の一方または両方といった1つまたは複数の眼の特徴付けコンポーネントとを含む。コンピュータ計算ディスプレイサブシステム102は、装置114(たとえば、ゴーグル、眼鏡等)内に取り付けられる、左眼ディスプレイ110および右眼ディスプレイ112を含み、装置114は、ユーザの左眼と右眼それぞれの正面にディスプレイ110,112を配置する。
図2を簡単に参照して、少なくとも1つの実施形態に従うディスプレイ110の拡張図が図示される。ディスプレイ112は、同様に構成される。示されるように、ディスプレイ110は、ニアアイライトフィールドフレームのシーケンスまたは連続物(以降、参照の容易さのために「ライトフィールドフレーム」)を表示するために、少なくとも1つのディスプレイパネル118を含み、その各々は、要素画像のアレイを備える。参照の容易さのために、要素画像のアレイは、ここではライトフィールドフレームとも称され得る。ディスプレイ110は、ディスプレイパネル118に重畳する(一般的に「マイクロレンズ」とも称される)小型レンズ206のアレイ120をさらに含む。例示的に、小型レンズアレイ120内の小型レンズ206の数は、ライトフィールドフレーム内の要素画像の数に等しいが、その他の実施においては、小型レンズ206の数は、要素画像の数よりも多くても少なくてもよい。図1の例は、図示の容易さのために5×4の小型レンズ206のアレイ120を図示するが、典型的な実施において、ライトフィールドフレーム内の要素画像の数および小型レンズアレイ120内の小型レンズ206の数は、典型的にはるかにより多いということに留意すべきである。さらに、いくつかの実施形態では、ディスプレイ110,112の各々に対して別個のディスプレイパネル118が実装され、その他の実施形態では、左眼ディスプレイ110および右眼ディスプレイ112は、単一のディスプレイパネル118を共有し、ディスプレイパネル118の左半分は、左眼ディスプレイ110のために使用され、ディスプレイパネル118の右半分は、右眼ディスプレイ112のために使用される。
図2に示されるように、ディスプレイパネル118は、ディスプレイ素子204(たとえば、「ピクセル」)のアレイ202を実装し、各ディスプレイ素子204は、赤、緑、青、および白サブピクセルのセットといった1つまたは複数のカラーサブピクセルを備え、これらは、強度において制御され、これにより、それらの組み合わせられた光出力は、特定のカラーの単一の「ピクセル」として眼によって知覚される。このようにして、レンダリングコンポーネント104は、シーンのイメージを表すライトフィールドフレームのシーケンスをディスプレイするために、アレイ202を制御できる。
さらに、ここにより詳細に説明するように、ニアアイディスプレイシステム100は、小型レンズアレイ120を通してユーザの眼に光スポットパターンを投影し、小型レンズアレイ120を通して光スポットパターンの反射の画像をキャプチャし、これにより、収差の検出のために、調整状態の推計のために、またはその他の方法で眼を特徴付けるために、眼を分析する。少なくとも1つの実施形態では、ニアアイディスプレイシステム100は、ディスプレイパネル118を、光スポットパターンを投影するためと、結果として生じる反射された光スポットパターンの画像をキャプチャするためとの両方に使用する。この目的のため、ディスプレイパネル118はまた、作動されたときに、小型レンズアレイ120を介してユーザの眼に向かって光スポットパターンを投影する光投影素子のセットと、駆動されると、ユーザの眼から小型レンズアレイ120を通して投影された光スポットパターンの反射を表す画像を一緒にキャプチャする光検出素子のセットとを組み込む。
少なくとも1つの実施形態では、光投影素子のセットおよび光検出素子のセットは、ディスプレイ素子204のアレイ202内に組み込まれ、これによりディスプレイ素子204のサブセットは、光投影素子のセットのうちの1つの光投影素子を組み込み、ディスプレイ素子204のサブセットは、光検出素子のセットのうちの1つの光検出素子を組み込む。アレイ202のディスプレイ素子204のサブセットは、たとえば、ディスプレイ素子204−1として実施されてもよく、これは、拡大図208によって示されるように、赤(R)サブピクセル210、緑(G)サブピクセル212、青(B)サブピクセル214、および白(W)サブピクセル216といった、カラーサブピクセルのセットを含む。このサブセットのディスプレイ素子204−1は、投影された光スポットパターンの一部としてIR光を射出するように動作する赤外(IR)サブピクセル218(光投影素子の1つの実施形態)をさらに含む。IRサブピクセル218は、たとえば、IR投影垂直共振器面発光レーザ(VECSEL)、IR光投影ダイオード(LED)等として実施される。いくつかのまたはすべてのディスプレイ素子204−1は、ディスプレイパネル118上のIR光入射と、特に対応する光スポットパターン内のディスプレイ素子204−1のIRサブピクセル218によって投影されたIR光の反射とを検出するように動作するIR検出フォトダイオード(PD)220(光検出素子の1つの実施形態)をさらに含むことができる。さらに、アレイ202のディスプレイ素子204の別のサブセットは、ディスプレイ素子204−2として実施されてもよく、これは、拡大図221によって示されるように、赤サブピクセル222、緑サブピクセル224,226、青サブピクセル228、白サブピクセル230、および(光検出素子の1つとしての)IRフォトダイオード220といった、カラーサブピクセルのセットを含む。ディスプレイ素子204−1および204−2内のサブピクセルの構成および種類は、例にすぎず、その他のサブピクセルの構成、編成、および組み合わせが実施されてもよいことに留意すべきである。
IR投影能力を有するディスプレイ素子204−1は、特定のパターンにおいてアレイ202全体に分散され、これにより、ディスプレイ素子204−1のIRサブピクセル218が一緒に作動されるときに、結果として生じる投影されたIR光は、光スポットのパターン(たとえば、等間隔に配置されたスポットの長方形のまたはその他多角形グリッド)内に投影され、この例は、以下に図5を参照して説明される。さらに、以下に説明するように、ディスプレイ素子204−1は、小型レンズアレイ120の対応する小型レンズ206と同軸となるように配置され、これにより、投影されたIR光は、対応する小型レンズに真直にぶつかる。IR検出能力を有するディスプレイ素子204−1および204−2は、フォトダイオード220の位置に対応するディスプレイパネル118の領域上のIR光入射をキャプチャするために、これらのディスプレイ素子のフォトダイオード220が一緒に作動されることを可能とする方法でアレイ202全体に分散され、キャプチャの時間におけるこの入射IR光が主にユーザの眼から離れる投影されたIR光スポットパターンの反射で構成されるので、フォトダイオード220は、この反射されたIR光スポットパターンの画像をキャプチャするために一緒に動作する。こうして、この画像は、ここでは「反射されたスポットパターン画像」とも称され、この例は、図5を参照して以下に説明される。
再び図1を参照して、レンダリングコンポーネント104は、図示される中央処理ユニット(CPU)136およびグラフィックス処理ユニット(GPU)138,140といった1つまたは複数のプロセッサのセット、および1つまたは複数のプロセッサ136,138,140がここで説明される様々なタスクを行うよう操作するために、プロセッサ136,138,140によってアクセスされ実行されるソフトウェアプログラムまたはその他実行可能な命令を格納するための、システムメモリ142といった、1つまたは複数のストレージコンポーネントを含む。そのようなソフトウェアプログラムは、たとえば、以下に説明するようなライトフィールドフレームレンダリング処理のための実行可能な命令を備えるレンダリングプログラム144、並びにまた以下に説明されるような波面歪み分析に基づきユーザの眼の一方または両方を特徴付けるための実行可能な命令を備える眼の特徴付けプログラム146を含む。
動作において、レンダリングコンポーネント104は、レンダリング情報148をローカルまたはリモートコンテンツソース150から受信し、レンダリング情報148は、対象物またはシーン、すなわちディスプレイサブシステム102においてレンダリングされ表示されるべき被写イメージを表す、グラフィクスデータ、ビデオデータ、またはその他データを表す。レンダリングプログラム144を実行するために、CPU136は、レンダリング情報148を使用してGPU138,140への描画命令を送信し、次いで描画命令を利用して、任意の様々な既知のVR/ARコンピュータ計算/ライトフィールドレンダリング処理を使用し、左眼ディスプレイ110においてディスプレイするためのライトフィールドフレーム151のシリーズと右眼ディスプレイ112においてディスプレイするためのライトフィールドフレーム153のシリーズとを並列にレンダリングする。このレンダリング処理の一部として、CPU136は、慣性管理ユニット(IMU)154から姿勢情報152を受信してもよく、姿勢情報152は、ディスプレイサブシステム102の姿勢を表し、CPU136は、ライトフィールドフレーム151,153の1つまたは複数の対のレンダリングがその姿勢からの対象物またはシーンの視点を反映するように制御してもよい。
眼の特徴付けコンポーネント106,108は並列に動作し、ここで説明される波面歪み分析処理を使用してユーザの両眼を動的に特徴付け、決定される眼の特徴付けを左眼および右眼それぞれに対する眼の特徴付け情報156,158としてレンダリングコンポーネント104に提供する。特徴付け処理は、小型レンズアレイ120を通してユーザの眼にディスプレイパネル118からIR光スポットパターンを投影することと、そしてディスプレイパネルを介して反射された光パターンの画像キャプチャすることと、キャプチャされた画像内で反射される光スポットが予測される場所とキャプチャされた画像内で反射された光スポットが実際に位置された場所との間の変位を決定することとを含む。これらの変位は、ユーザの眼からの光スポットパターンの反射を表す波面内の歪みを表し、このため、眼の屈折収差、現在の調整状態、またはその他の特徴付けを識別するために使用されてもよく、これらは、対応する眼の特徴付け情報156,158のうちの1つに表される。
この動作を容易にするために、眼の特徴付けコンポーネント106は、制御コンポーネント160および画像解析コンポーネント162を実装する。制御コンポーネント160は、光スポットパターンを投影するために、ディスプレイパネル118の投光素子のセットの作動をトリガするように動作し、投影された光スポットパターンの結果として生じる反射を表す反射されたスポットパターン画像164をキャプチャするために、ディスプレイパネル118の光検出素子の作動をトリガするように動作する。画像解析コンポーネント162は、左眼を特徴付けるためにスポットパターン画像164を分析するように動作し、レンダリングコンポーネント104のための眼の特徴付け情報156を生成する。眼の特徴付けコンポーネント108は、同様に反射されたスポットパターン画像166をキャプチャし分析するための制御コンポーネントおよび画像解析コンポーネントから構成され、右眼のための眼の特徴付け情報158を生成する。制御コンポーネントおよび画像解析コンポーネントは、ハードウェア、プログラマブルロジック、ソフトウェアを実行するプロセッサ、またはそれらの組み合わせとして実装されてもよい。実例を示すために、1つの実施形態では、制御コンポーネント160は、少なくとも部分的にディスプレイパネル118のためのディスプレイ制御部(図示しない)のハードウェア内に実装され、画像解析コンポーネント162は、眼の特徴付けプログラム146の命令の対応するセットを実行する1つまたは複数のプロセッサ136,138,140によって実装される。
以下に詳細に説明されるように、レンダリングコンポーネント104は、一方または両方の眼の特徴付けコンポーネント106,108からの一方または両方の眼の特徴付け情報156,158を使用し、ライトフィールドフレーム151,153のシーケンスの生成においてライトフィールドフレームレンダリング処理の様々な態様を制御する。実例を示すために、眼の特徴付け情報156は、左眼内の1つまたは複数の収差を識別する情報を含んでもよく、このためCPU136は、これらの収差を補正するためにライトフィールドフレーム151のレンダリングを調節するようにGPU138の動作を制御してもよく、これによってユーザがニアアイディスプレイシステム100を使用している間に矯正レンズの装着をやめることを可能とする。別の例として、眼の特徴付け情報156は、眼の現在の調整状態を識別する情報を含んでもよく、レンダリングコンポーネント104は、これを、現在の調整状態と一致する焦点面のためのライトフィールドフレーム151をレンダリングするために使用してもよい。
図3は、ユーザの眼を特徴付け1つまたは複数のレンダリング動作をそれに従って制御するための、ニアアイディスプレイシステム100の動作の例の方法300を例示する。図示の容易さのために、方法300は、小型レンズアレイ120に重畳し、ユーザの眼404に面したA−A切断線(図2)に沿うディスプレイパネル118の断面図400,402を示す図4と、反射されたスポットパターン画像164の例を示す図5とを参照して説明される。さらに、方法300は、眼の特徴付けコンポーネント106を含む、左眼(眼404)に関するニアアイディスプレイシステム100の動作を特に参照して説明される。しかし、これと同じ方法が、眼の特徴付けコンポーネント108を有する右眼に対するニアアイディスプレイシステム100の動作に対して適用され得る。
図3に例示されるように、方法300は、並列に行われる、ブロック302,304,306,308によって表される眼の特徴付け処理と、ブロック310によって表されるライトフィールドフレームレンダリング処理との2つの処理を含む。始めに、眼の特徴付け処理に着目して、ブロック302において、制御コンポーネント160は、ディスプレイパネル118を制御し、図4の断面図400によって例示されるような小型レンズアレイ120を介して眼404に向けられた光スポットパターン内のIR光を射出するようにディスプレイパネル118のフォトダイオード220(図4内に例示されるフォトダイオード220−1,220−2,220−3,220−4を含む)をトリガする。光スポットパターンの発光と同時に、ブロック304において、制御コンポーネント160は、(光検出素子のセットとして)ディスプレイパネル118のフォトダイオード220を作動し、眼404から離れる投影された光スポットパターンの反射を表した、小型レンズアレイ120を介してディスプレイパネル118上に焦点を合わされた、反射されたスポットパターン画像164をキャプチャする。
断面図400によって例示されるように、例示的に光スポットパターン生成のために使用されるフォトダイオード220の各々は、対応する小型レンズ206の光学軸と実質的に同軸であり(たとえば、フォトダイオード220−1は、図4内の小型レンズ206−1の光学軸406軸と同軸であり)、こうして、フォトダイオード220によって投影されたIR光は、対応する小型レンズ206に真直にぶつかり、このため小型レンズアレイ120から眼404に向かって実質的に平坦な波面408として伝播される(すなわち、光スポットパターンは、眼404に向かって著しい歪みなしに伝播される)。
断面図402によって例示されるように、そのように伝播される光スポットパターンは、眼404の瞳孔、水晶体、角膜、網膜、およびその他構造にぶつかり、波面410によって表される反射された光スポットパターンとして、小型レンズアレイ120およびディスプレイパネルに向かって後方に反射される。理想的な眼では、収差がないことにより、反射された光スポットパターンは何らの歪みを有さず、このため波面410は、歪められない。そのような状況では、小型レンズアレイ120上に入射する歪められない反射された波面は、結果的に反射された光パターンの中のスポットを表す光線がディスプレイパネル118の予測される位置にぶつかることになる。実例を示すために、仮に眼404が収差のない理想的な眼だったとすれば、反射された波面410は、歪められず、このため結果的に(反射された光スポットパターン内の対応するスポットを表す)光線411,412,413,414は、予測される位置421,422,423,424それぞれにおいてディスプレイパネル118にぶつかる。
しかし、眼404といった現実の眼では、眼内の収差は、反射された光スポットパターン内の局部歪みをもたらし、すなわち、反射された波面410は、眼404内の収差によって歪められる。反射された波面410内の局所的な歪みは、波面410の歪められた領域が対応する小型レンズ206に真直というよりはむしろ角度をなしてぶつかることを引き起こし、結果として生じる光線は、ディスプレイパネル118に予測される位置とは異なる位置においてぶつかる。実例を示すために、断面図402において、眼404は、波面410を歪める収差を有し、これにより、小型レンズアレイ120によって伝播される実際の光線431,432,433,434は、対応する光線に対して予測される位置とは異なり得る、実際の位置441,442,443,444においてディスプレイパネル118にぶつかる。小型レンズアレイ120が瞳孔共役面であるので、波面410の形状は、眼404の瞳孔の形状を表し、キャプチャされた反射されたスポットパターン画像内の光スポットの実際の位置と予測される位置との間の線形変位の大きさは、対応する小型レンズ206にぶつかった波面410の局所領域の傾きに比例し、同時に、線形変位の方向は、波面410の局所領域の傾きの方向を表す。次いで波面410の局所領域の傾きの大きさおよび方向は、眼404に存在する任意の屈折収差並びに現在の調整状態を含む、眼404の特徴付けを表す。
実例を示すために、図5は、反射されたスポットパターン画像164の例を説明する。示されるように、反射されたスポットパターン画像164は、スポット(たとえば、スポット504)のアレイ502を備え、各スポットは、ブロック302において、光スポットパターンの伝播中に、眼404から反射された検出された光スポットの実際の位置を反映する。比較の目的のために、図5はまた、眼404内の任意の収差が存在しない場合の(すなわち、眼404が理想的な眼だった場合の)、スポットの予測される位置(たとえば、予測される位置508)のアレイ506を含む。図示されるように、ディスプレイパネル118の投光素子のアレイが規則的な等間隔パターンにおいて光スポットのパターンを投影するように配置されることを仮定して、予測される位置のアレイ506は、同様に規則的な等間隔パターンを表す。しかし、ユーザの眼404が理想的な眼であることはまず無いので、ユーザの眼404内の収差は、反射される波面410を歪め、このため、キャプチャされたスポットパターン画像164内の少なくともいくつかのスポットの実際の位置は、それらの予測される位置からずらされることになるだろう。実例を示すために拡張図510を参照して、眼404内の収差が波面410内の局所的な歪みを引き起こし、このことは次いで、(変位D(K1)とも付された)変位516の分だけその予測される位置514から変位される、実際の位置512において入射する対応する反射されたスポットをもたらす。別の例として、拡張図520によって示されるように、眼404内の同じまたは異なる収差が波面410内の局所的な歪みを引き起こし、このことは、(変位D(K2)とも付された)変位526の分だけその予測される位置524から変位される、実際の位置522において入射する反射されたスポットをもたらす。
そのため、反射されたスポットパターン画像164内の反射されたスポットの実際の位置、およびそれらの対応する予測される位置からのそれらの変位は、眼404のある特徴付けを表す。したがって、ブロック308において、画像解析コンポーネント162は、反射されたスポットパターン画像164内にキャプチャされた反射されたスポットの実際の位置と予測される位置との間の変位を分析し、眼404を特徴付け、決定された眼の特徴付けを表すデータをレンダリングコンポーネント104に眼の特徴付け情報156として提供する。
眼404の任意の様々な特徴付けが決定され得、そのような特徴付けを決定するために任意の様々な波面歪み分析処理が用いられ得る。実例を示すために、反射されたスポットパターン画像164が従来型のシャックハルトマン波面センサによってキャプチャされた歪められた波面に類似し得るので、そのような従来型のシャックハルトマン波面センサを使用して一般的に適用される任意の様々な既知の眼収差計技術(たとえば、Complete Ophthalmic AnalysisSystem、またはCOAS技術)は、眼404内の低次収差および/または高次収差を特徴付けるために、同様に適合され用いられてもよい。実例を示すために、上述のように、スポットの変位は、波面異常の局所的勾配に直接関連付けられ(Δx=f×[dW/dx])、このためスポット変位マップを空間的に統合することによって、画像解析コンポーネント162は、波面異常Wを(重要性の低い)いくらかの一定のオフセットにまで回復させることができる。波面異常の多項式展開における項は、異なる収差(たとえば焦点ぼけ、非点収差、球状等)に対応する。このため画像解析コンポーネント162は、測定された波面異常に多項式を当てはめ、ライトフィールドレンダリング内の、異なる収差の係数または相対重みを決定するか、波面異常の逆関数をエンコードすることができる。
別の例として、画像解析コンポーネント162は、眼404の現在の調整状態を決定するために、反射されたスポットパターン画像164内の変位を分析してもよい。上記の段落に概略された収差検出手法と同様に、調整状態は、波面異常の二次項(すなわちW=W_焦点ぼけ×r^2)である。そのため、非点収差は、x、y方向に沿って異なる量の焦点ぼけ、または二次係数を可能とする。
ブロック302,304,306,308によって表される眼の特徴付け処理は、任意の様々な方法でトリガされ得る。たとえば眼の特徴付け処理は、スタートアップ時においてユーザの眼内の収差を特徴付けるだめに一度トリガされ得、結果として生じる眼の特徴付け情報は、ニアアイディスプレイシステム100がリセットされるまで、または別のユーザがニアアイディスプレイシステム100を使用し始めるまで固定され得る。その他実施形態では、眼の特徴付け処理は、特に幾分かの頻度で変化することが予測される眼の現在の調整状態または眼のその他パラメータを特徴付けにおいて決定すること含む実装では、周期的にまたはその他の基準に基づき繰り返されてもよい。
眼の特徴付け処理と並列に、レンダリングコンポーネント104は、ブロック310によって表されるレンダリング処理を行い、これによって、左眼のためのディスプレイパネル118においてディスプレイするためのライトフィールドフレーム151のシリーズが生成される(また同様に、右眼のためのディスプレイのためにライトフィールドフレーム153のシリーズが生成される)。ライトフィールドフレームが生成され表示されるために、レンダリングコンポーネント104は、ライトフィールドフレームとしてユーザの対応する眼に表示されるべき画像コンテンツを識別する。少なくとも1つの実施形態では、レンダリングコンポーネント104は、ジャイロスコープ、加速度計、磁力計、全地球測位システム(GPS)センサ等といった姿勢に関連付けられた様々なセンサからのデータを表す姿勢情報152を受信し、姿勢情報152からディスプレイ110,112をユーザの眼の近くに取り付けるために使用された装置114(たとえば、HMD)の姿勢を決定する。この姿勢から、レンダリングプログラム144を実行するCPU136は、被写シーンまたは対象物の対応する現在の視点を決定することができ、この視点とレンダリング情報148として提供されるシーンまたは対象物のグラフィカルなおよび空間的な描写とから、その姿勢に対してレンダリングされるべきイメージを決定する。
少なくとも1つの実施形態では、プロセッサ136,138,140は、眼の特徴付け処理の現在のイタレーションのブロック308において生成される眼の特徴付け情報に基づき、このレンダリング処理を制御する。すなわち、ライトフィールドフレームは、レンダリングコンポーネント104によって、ユーザの眼の1つまたは複数の識別された特徴付けに基づきレンダリングされる。実例を示すために、眼404のための眼の特徴付け情報156が眼404内の識別された収差を表すデータを含むとき、レンダリングコンポーネント104は、ライトフィールドフレームのレンダリング151を、それが識別された収差を補正するように調節することができる。実例を示すために、波面異常(たとえば焦点ぼけ、調整状態)が測定された後に、ライトフィールドレンダリングを構成する要素画像間の相対的シフトの関係が画像解析コンポーネント164によって決定され(dx=d_レンズ×f_レンズ×φ、ここでW_焦点ぼけ=φ/2)、ライトフィールドフレームをレンダリングするときにレンダリングコンポーネント104によって実装され得る。より直接的に、ライトフィールドフレームのレンダリング中に、レンダリングコンポーネント104は、波面異常の逆関数をエンコードすることができる。
上述のように、眼の特徴付け情報は、眼404の現在の調整状態を含むことができる。現在の調整状態は、眼の光学システムの現在の光学的屈折力を反映し、このため、眼404の現在の焦点距離を表す。眼404に表示されるライトフィールド画像の焦点面とこの焦点距離との間の不一致は、ヒトの視力システムがこの不一致または矛盾を考慮するためにかなりの認知努力を費やすことを引き起こしかねず、このことは次いでユーザを疲労させかねない。したがって、そのような調整/焦点面不一致を最小化するために、少なくとも1つの実施形態では、レンダリングコンポーネント104は、眼の特徴付け情報156内に表される眼404の現在の調整状態を利用し、現在の調整状態と一致した焦点距離/焦点面を識別し、識別された焦点距離/焦点面に基づいて1つまたは複数のライトフィールドフレーム151の次のセットをレンダリングし、このため表示されるイメージは、眼404の現在の焦点距離により良好に合致し、これにより表示されるイメージを見ているユーザが費やす認知努力を削減させる。実例を示すために、眼の既知の調整状態がライトフィールドレンダリングを容易にし得る、少なくとも2つのシナリオが存在する。第1に、ライトフィールドディスプレイは、調整状態のダイナミックレンジを有し、それは、小型レンズのための被写界深度が与えられると、dφ=2c/(d_レンズ×f_レンズ)を同時に提示することができ、式中cは、システムの最小のスポット/ピクセルサイズである。この深度ダイナミックレンジと横方向の空間分解能との間にトレードオフが存在するため、調整レンジは、任意に大きくされることはできない。バリフォーカル技術(たとえば、LC光路差変調器、レンズディスプレイ距離変調)は、制限されたダイナミックレンジをユーザが焦点を合わせようと試みている平面に対してシフトするために使用されることができる。第2のシナリオは、レンダリングライトフィールド画像のためのコンピュータ計算の帯域幅要件に関連し、計算は、表されるN個の平面に線形的に比例し、このことは、モバイルプラットフォームまたは比較的制限された計算リソースを有する他のシステムにとって大きな課題である。このため、レンダリングコンポーネント104は、単一のz平面において各ライトフィールドフレームをレンダリングし得、バリフォーカルモダリティ(撮画手段)とは別個にまたはそれに合わせて、ライトフィールドレンダリングをその平面にシフトするために、測定された調整状態を使用し得る。
いくつかの実施形態では、上述の技術のある態様は、ソフトウェアを実行する処理システムの1つまたは複数のプロセッサによって実施されてもよい。ソフトウェアは、非一時的コンピュータ可読記憶媒体上に格納されるかそうでなければそこに有形に具現化された実行可能な命令の1つまたは複数のセットを備える。ソフトウェアは、1つまたは複数のプロセッサによって実行されると、当該1つまたは複数のプロセッサに上述の技術の1つまたは複数の態様を行わせるように操作するための、命令および特定のデータを含むことができる。非一時的コンピュータ可読記憶媒体は、例えば、磁気または光ディスク記憶装置、フラッシュメモリなどの固体記憶装置、キャッシュ、ランダムアクセスメモリ(RAM)、またはその他の1つまたは複数の不揮発性メモリ装置等を含むことができる。非一時的コンピュータ可読記憶媒体に記憶された実行可能な命令は、ソースコード、アセンブリ言語コード、オブジェクトコード、または1つまたは複数のプロセッサによって解釈されるかそうでなければ実行可能である他の命令フォーマットであり得る。
コンピュータ可読記憶媒体は、命令および/またはデータをコンピュータシステムに提供するために、コンピュータシステムによって使用中にアクセス可能な任意の記憶媒体または記憶媒体の組み合わせを含むことができる。そのような記憶媒体は、光媒体(例えばコンパクトディスク(CD)、デジタル多用途ディスク(DVD)、ブルーレイディスク)磁気媒体(例えばフロッピー(登録商標)ディスク、磁気テープ、または磁気ハードドライブ)揮発性メモリ(例えば、ランダムアクセスメモリ(RAM)またはキャッシュ)不揮発性メモリ(例えば、読み出し専用メモリ(ROM)またはフラッシュメモリ)、または微小電気機械システム(MEMS)ベースの記憶媒体を含むことができるが、これらに限定されない。コンピュータ可読記憶媒体は、コンピューティングシステムに埋め込まれるか(例えば、システムのRAMまたはROM)、コンピューティングシステムに固定的に取り付けられるか(例えば、磁気ハードドライブ)、コンピューティングシステムに取り外し可能に取り付けられるか(例えば、光ディスクまたはユニバーサルシリアルバス(USB)ベースのフラッシュメモリ)、有線または無線ネットワークを介してコンピュータシステムに結合され(例えば、ネットワークアクセス可能ストレージ(NAS))てもよい。
一般的な説明において上述されたすべての動作または要素が必須とされるわけではなく、特定の動作または装置の一部は必須ではなく、説明したものに加えて、1つ以上のさらに他の動作が実行され得、または1つ以上のさらに他の要素が含められ得る。さらにまた、動作が列挙される順序は、必ずしもそれらが実行される順序とは限らない。また、概念は、特定の実施形態を参照して説明された。しかし、当業者は、本開示の範囲から逸脱することなく、下記の特許請求の範囲に記載されるように、様々な修正および変更が可能であることを理解するであろう。したがって、本明細書および図面は、限定的な意味ではなく例示的な意味において考慮されるべきであり、そのような修正は、すべて本開示の範囲内に含まれることが意図される。
利益、他の利点、および問題に対する解決策は、特定の実施形態に関して上記で説明された。しかし、利益、利点、問題に対する解決策、および任意の利益、利点、解決策を生ずるかより顕著にし得る特徴は、任意のまたはすべての請求項の、決定的なまたは必須のまたは不可欠の機能の特徴として解釈されるべきではない。さらに、本明細書の教示の利益を享受する当業者にとって明らかなように、異なる均等の方法で本開示の主題を修正し実施することができるため、上記に開示した特定の実施形態は例示にすぎない。下記の特許請求の範囲に記載されているもの以外に、本明細書に示されている構造または設計の詳細に対する限定は意図されていない。したがって、上記に開示された特定の実施形態は、変更または変形されてもよく、そのような変形形態は、すべて開示された主題の範囲内にあると考えられることが明らかである。したがって、ここで求められる保護は、下記の特許請求の範囲に記載の通りである。

Claims (17)

  1. ニアアイディスプレイシステム(100)であって、
    小型レンズ(206)のアレイ(120)と、
    前記小型レンズのアレイに面したディスプレイパネル(118)とを備え、前記ディスプレイパネルは、
    投光素子(218)のアレイを備え、各投光素子は、前記小型レンズのアレイのうちの対応する小型レンズの軸と同軸であり、前記ディスプレイパネルはさらに、
    光検出素子(220)のアレイと、
    サブピクセル素子(210,212,214,216,222,224,226,228,230)のアレイと、
    光スポット(504)のパターン(506)をユーザの眼に向かって投影するために、および前記眼からの前記投影された光スポットのパターンの反射を表す画像(164)をキャプチャするように前記光検出素子のアレイを制御するために、前記ディスプレイパネルに結合され、前記投光素子のアレイを作動させるように構成される制御コンポーネント(160)と、
    前記キャプチャされた画像内の光スポットのうちの少なくともサブセットの予測される位置(514,524)と実際の位置(512,522)との間の変位(516,526)を決定し、前記変位に基づき前記眼を特徴付けるための分析コンポーネント(162)とを備える、ニアアイディスプレイシステム。
  2. 前記分析コンポーネントは、前記変位に基づき前記眼における屈折収差を検出することによって前記眼を特徴付けるためのものである、請求項1に記載のニアアイディスプレイシステム。
  3. 前記分析コンポーネントは、前記変位に基づき前記眼の調整状態を検出することによって前記眼を特徴付けるためのものである、請求項1に記載のニアアイディスプレイシステム。
  4. 前記ディスプレイパネルに結合され、前記サブピクセル素子のアレイを介して前記ユーザに表示するためのライトフィールドフレーム(153)のシーケンスをレンダリングするように構成されたレンダリングコンポーネント(104)をさらに備える、請求項1〜3のいずれかに記載のニアアイディスプレイシステム。
  5. 前記レンダリングコンポーネントは、前記眼の前記特徴付けに基づき前記ライトフィールドフレームのシーケンスのためのレンダリング処理の少なくとも1つの態様を調節するためのものである、請求項4に記載のニアアイディスプレイシステム。
  6. 前記分析コンポーネントは、前記変位に基づき前記眼の収差を検出することによって前記眼を特徴付けるためのものであり、
    前記レンダリングコンポーネントは、前記検出された収差を補正するように、前記ライトフィールドフレームのシーケンスをレンダリングするためのものである、請求項5に記載のニアアイディスプレイシステム。
  7. 前記分析コンポーネントは、前記変位に基づき前記眼の現在の調整状態を検出することによって前記眼を特徴付けるためのものであり、
    前記レンダリングコンポーネントは、前記ライトフィールドフレームのシーケンスを前記現在の調整状態から決定される焦点面に基づきレンダリングするためのものである、請求項5に記載のニアアイディスプレイシステム。
  8. 前記投光素子のアレイは、前記光スポットのパターンを赤外光スポットのパターンとして投影するように構成される、請求項1〜7のいずれかに記載のニアアイディスプレイシステム。
  9. 前記ディスプレイパネルは、ディスプレイ素子(204−1,204−2)のアレイ(202)を備え、各ディスプレイ素子(204−1,204−2)は、前記サブピクセル素子(210,212,214,216,222,224,226,228,230)のアレイのうちの少なくとも1つのサブピクセル素子を備え、前記ディスプレイ素子(204−1,204−2)のアレイのうちの少なくとも第1のサブセットの各ディスプレイ素子は、前記光検出素子のアレイのうちの1つの光検出素子(220)をさらに含み、前記ディスプレイ素子(204−1)のアレイのうちの少なくとも第2のサブセットの各ディスプレイ素子は、前記投光素子(218)のアレイのうちの1つの投光素子(218)をさらに含む、請求項8に記載のニアアイディスプレイシステム。
  10. 請求項1のニアアイディスプレイシステム(100)において実行される方法であって、
    小型レンズアレイ(202)を通してユーザの眼に向かってディスプレイパネル(118)の投光素子(218)のアレイから光スポット(504)のパターン(506)を投影することと、
    前記ディスプレイパネルの光検出素子(220)のアレイを介して、前記光スポットのパターンの前記眼からの反射を表す画像(164)をキャプチャすることと、
    前記画像の光スポットのうちの少なくともサブセットの各光スポットに対して、前記キャプチャされた画像内の前記光スポットの予測される位置(514,524)と実際の位置(512,522)との間の変位(516,526)を決定することと、
    前記光スポットの前記サブセットに対する前記変位に基づき、前記眼の1つまたは複数の特徴付けを決定することとを含む、方法。
  11. 前記眼の1つまたは複数の特徴付けを決定することは、前記変位に基づき前記眼における屈折収差を検出することを含む、請求項10に記載の方法。
  12. 前記眼の1つまたは複数の特徴付けを決定することは、前記変位に基づき前記眼の調整状態を検出することを含む、請求項10に記載の方法。
  13. 前記ディスプレイパネルを介して前記ユーザに表示するためのライトフィールドフレーム(153)のシーケンスをレンダリングすることをさらに含む、請求項10〜12のいずれかに記載の方法。
  14. 前記ライトフィールドフレームのシーケンスの前記レンダリングを、前記眼の前記特徴付けに基づき調節することをさらに含む、請求項13に記載の方法。
  15. 前記眼の1つまたは複数の特徴付けを決定することは、前記変位に基づき前記眼の収差を検出することを含み、
    前記レンダリングを調節することは、前記検出された収差を補正するように前記ライトフィールドフレームのシーケンスの前記レンダリングを制御することを含む、請求項14に記載の方法。
  16. 前記眼の1つまたは複数の特徴付けを決定することは、前記変位に基づき前記眼の現在の調整状態を検出することを含み、
    前記レンダリングを調節することは、前記現在の調整状態から決定される焦点面に基づき、前記ライトフィールドフレームのシーケンスの前記レンダリングを制御することを含む、請求項14に記載の方法。
  17. 前記光スポットのパターンを投影することは、赤外光スポットのパターンを投影することを含む、請求項10〜16のいずれかに記載の方法。
JP2019508179A 2017-06-15 2018-03-14 眼の特徴付けのための反射波面分析に基づくフレームレンダリングを有するニアアイディスプレイ Active JP6661832B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762520295P 2017-06-15 2017-06-15
US62/520,295 2017-06-15
US15/917,375 2018-03-09
US15/917,375 US10629105B2 (en) 2017-06-15 2018-03-09 Near-eye display with frame rendering based on reflected wavefront analysis for eye characterization
PCT/US2018/022440 WO2018231303A1 (en) 2017-06-15 2018-03-14 Near-eye display with frame rendering based on reflected wavefront analysis for eye characterization

Publications (2)

Publication Number Publication Date
JP2020503905A JP2020503905A (ja) 2020-02-06
JP6661832B2 true JP6661832B2 (ja) 2020-03-11

Family

ID=61906844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019508179A Active JP6661832B2 (ja) 2017-06-15 2018-03-14 眼の特徴付けのための反射波面分析に基づくフレームレンダリングを有するニアアイディスプレイ

Country Status (8)

Country Link
US (1) US10629105B2 (ja)
EP (1) EP3485632B1 (ja)
JP (1) JP6661832B2 (ja)
KR (1) KR102121513B1 (ja)
CN (1) CN109565554B (ja)
DE (1) DE202018101818U1 (ja)
TW (1) TWI661229B (ja)
WO (1) WO2018231303A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10694168B2 (en) * 2018-04-22 2020-06-23 Corephotonics Ltd. System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems
CN108965704B (zh) * 2018-07-19 2020-01-31 维沃移动通信有限公司 一种图像传感器、移动终端及图像拍摄方法
CN109633906A (zh) * 2019-01-02 2019-04-16 京东方科技集团股份有限公司 虚拟现实设备及其图像校正方法
US11458040B2 (en) * 2019-01-23 2022-10-04 Meta Platforms Technologies, Llc Corneal topography mapping with dense illumination
WO2020187828A1 (en) * 2019-03-15 2020-09-24 Realfiction Aps Directional oled display
KR20210143823A (ko) * 2019-03-20 2021-11-29 매튜 이. 워드 마이크로 led 어레이를 갖는 mems 구동 광학 패키지
JP2020154138A (ja) * 2019-03-20 2020-09-24 ソニー株式会社 画像表示装置
KR102099232B1 (ko) * 2019-07-03 2020-04-08 주식회사 레티널 소형 반사부를 이용한 카메라 모듈 및 이를 이용한 증강 현실용 광학 장치
KR20220030774A (ko) * 2020-09-03 2022-03-11 삼성전자주식회사 전자 장치 및 사용자의 시선 정보 획득 방법
CN114489310A (zh) * 2020-11-12 2022-05-13 海信视像科技股份有限公司 虚拟现实设备以及手柄定位方法
CN114545624A (zh) * 2020-11-25 2022-05-27 华为技术有限公司 近眼显示系统及近眼显示方法
US11950000B2 (en) 2022-09-07 2024-04-02 Microsoft Technology Licensing, Llc Resolution enhancement in spatial-frequency space

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529331B2 (en) 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US20030067476A1 (en) 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
FI114752B (fi) 2003-05-30 2004-12-15 Nokia Corp Valosähköinen elementti ja sellaisen käsittävä päätelaite
US7475989B2 (en) 2006-03-14 2009-01-13 Amo Manufacturing Usa, Llc Shack-Hartmann based integrated autorefraction and wavefront measurements of the eye
US8665202B2 (en) 2009-05-25 2014-03-04 Sharp Kabushiki Kaisha Active matrix substrate, liquid crystal panel, liquid crystal display device, and television receiver
US8670019B2 (en) 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
WO2012147702A1 (ja) * 2011-04-28 2012-11-01 シャープ株式会社 ヘッドマウントディスプレイ
WO2012163312A1 (de) 2011-05-31 2012-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bidirektionales display und ansteuerung desselben
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US9001030B2 (en) 2012-02-15 2015-04-07 Google Inc. Heads up display
CN103376551B (zh) 2012-04-23 2017-04-19 北京蚁视昂维科技有限公司 小孔投射式近眼显示器
US20130285885A1 (en) 2012-04-25 2013-10-31 Andreas G. Nowatzyk Head-mounted light-field display
US9841537B2 (en) * 2012-07-02 2017-12-12 Nvidia Corporation Near-eye microlens array displays
US20140362110A1 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US20160289647A1 (en) * 2013-10-31 2016-10-06 Washington State University Prokaryotic desaturases modified by directed evolution to reduce saturated and increase unsaturated fatty acids in eukaryotes
WO2015095737A2 (en) 2013-12-19 2015-06-25 The University Of North Carolina At Chapel Hill Optical see-through near-eye display using point light source backlight
US9459451B2 (en) 2013-12-26 2016-10-04 Microsoft Technology Licensing, Llc Eye tracking apparatus, method and system
US9993335B2 (en) 2014-01-08 2018-06-12 Spy Eye, Llc Variable resolution eye mounted displays
US10228562B2 (en) 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
US10469833B2 (en) * 2014-03-05 2019-11-05 The Arizona Board Of Regents On Behalf Of The University Of Arizona Wearable 3D augmented reality display with variable focus and/or object recognition
CN104914575B (zh) 2014-09-29 2017-11-14 北京蚁视科技有限公司 带有屈光度检测装置的微透镜阵列式近眼显示器
CN105717640B (zh) 2014-12-05 2018-03-30 北京蚁视科技有限公司 基于微透镜阵列的近眼显示器
US10247941B2 (en) 2015-01-19 2019-04-02 Magna Electronics Inc. Vehicle vision system with light field monitor
WO2016157486A1 (ja) * 2015-04-01 2016-10-06 フォーブ インコーポレーテッド ヘッドマウントディスプレイ
US10152906B2 (en) 2015-04-26 2018-12-11 Mems Start, Llc Near-eye display system and method
KR20160147636A (ko) 2015-06-15 2016-12-23 삼성전자주식회사 헤드 마운티드 디스플레이 장치
US10210844B2 (en) 2015-06-29 2019-02-19 Microsoft Technology Licensing, Llc Holographic near-eye display
US10451876B2 (en) * 2015-08-03 2019-10-22 Facebook Technologies, Llc Enhanced visual perception through distance-based ocular projection
CN105974589B (zh) * 2016-06-24 2019-08-16 上海彼茨信息科技有限公司 一种头戴式护目镜的近眼式显示器

Also Published As

Publication number Publication date
CN109565554A (zh) 2019-04-02
KR20190032572A (ko) 2019-03-27
US20180366045A1 (en) 2018-12-20
EP3485632B1 (en) 2019-10-02
US10629105B2 (en) 2020-04-21
EP3485632A1 (en) 2019-05-22
KR102121513B1 (ko) 2020-06-10
DE202018101818U1 (de) 2018-07-09
JP2020503905A (ja) 2020-02-06
WO2018231303A1 (en) 2018-12-20
TW201905537A (zh) 2019-02-01
TWI661229B (zh) 2019-06-01
CN109565554B (zh) 2021-05-25

Similar Documents

Publication Publication Date Title
JP6661832B2 (ja) 眼の特徴付けのための反射波面分析に基づくフレームレンダリングを有するニアアイディスプレイ
JP6423945B2 (ja) 表示装置、およびプロジェクタを用いた表示方法
US10419731B2 (en) Virtual image generator
US11733524B1 (en) Depth camera assembly based on near infra-red illuminator
US10409082B2 (en) Adjustable focal plane optical system
JP6718873B2 (ja) 仮想焦点フィードバック
US11435576B2 (en) Near-eye display with extended accommodation range adjustment
JP2020520475A (ja) アイトラッキングを介した拡張された有効なアイボックスを有するニアアイディスプレイ
KR102303809B1 (ko) 비평면 계산 디스플레이
JP2022514489A (ja) ハイパーボーカルビューポート(hvp)ディスプレイのための適応型ビューポート
US11435577B2 (en) Foveated projection system to produce ocular resolution near-eye displays
TW201907204A (zh) 用以在外部場景與虛擬影像之間對位的方法與系統
JP2023055715A (ja) 深度検知のためのプログラム可能回折光学素子を有するカメラアセンブリ
US20210344889A1 (en) Dynamic Focus 3D Display
CN115280218A (zh) 高分辨率液晶显示器
US10955677B1 (en) Scene camera
EP3961311A1 (en) Holographic display apparatus and operating method thereof
CN110325897B (zh) 具有扩展的调节范围调整的近眼显示器
JP7353625B2 (ja) 体積型ディスプレイ
JP2020021012A (ja) 画像処理装置、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190621

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190621

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200212

R150 Certificate of patent or registration of utility model

Ref document number: 6661832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250