JP2020523803A - 疎サンプリング超解像を用いたニアアイディスプレイ - Google Patents

疎サンプリング超解像を用いたニアアイディスプレイ Download PDF

Info

Publication number
JP2020523803A
JP2020523803A JP2019539894A JP2019539894A JP2020523803A JP 2020523803 A JP2020523803 A JP 2020523803A JP 2019539894 A JP2019539894 A JP 2019539894A JP 2019539894 A JP2019539894 A JP 2019539894A JP 2020523803 A JP2020523803 A JP 2020523803A
Authority
JP
Japan
Prior art keywords
array
image
elemental
display panel
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2019539894A
Other languages
English (en)
Inventor
ペロー,ジョン・ディ
リュル,パトリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2020523803A publication Critical patent/JP2020523803A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/005Diaphragms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Electroluminescent Light Sources (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ニアアイディスプレイシステム(100)は、要素画像のアレイ(122)を備えるニアアイ・ライトフィールドフレーム(120)を表示するためのディスプレイパネル(118)および一体型ライトフィールドフレームをユーザの眼(132)に提示するための小型レンズアレイ(124)を備える。システムは、ソース画像の疎サンプリング(202)に少なくとも部分的に基づいて要素画像のアレイ(122)を生成し、要素画像のアレイの各個々の要素内に含まれる画像データの重畳を減少させるレンダリングコンポーネント(104)を備える。ニアアイディスプレイシステム(100)の動作方法は、被写体の現在の視点の疎サンプリングに基づき一体型ライトフィールドフレーム(120)を形成する要素画像のアレイ(122)生成し、アレイの各個々の要素画像内に含まれる画像データの重畳を減少させることを含む。

Description

背景
3次元(3D)グラフィクスの実行的なディスプレイを提供するために、ヘッドマウントディスプレイ(HMD)および他のニアアイディスプレイシステムは、一体型ライトフィールドディスプレイまたは他のコンピュータ計算のディスプレイを利用することができる。一般に、一体型ライトフィールドディスプレイは、1つまたは複数のディスプレイパネルと、当該1つまたは複数のディスプレイパネルに重畳する、小型レンズ、ピンホール、または、他の光学系機構のアレイを用いる。レンダリングシステムは、要素画像のアレイをレンダリングし、各要素画像は、対応する視点または仮想カメラ位置からの対象物またはシーンの画像またはビューを表す。そのような一体型ライトフィールドディスプレイは、典型的に解像度と射出ひとみ距離(すなわち、ユーザの眼が完全な視野を得ることができる距離)との間のトレードオフを呈する。一体型ライトフィールドディスプレイを用いる従来のニアアイディスプレイシステムは典型的に、小型レンズプロジェクタアレイ内の重畳のために空間的解像度を犠牲にする。
図面の簡単な説明
本開示は、添付の図面を参照することによって、よりよく理解されることができ、その多数の特徴および利点は、当業者に明らかとなるであろう。異なる図面における同じ参照符号の使用は、類似のまたは同一の項目を示す。
いくつかの実施形態に従い増加されたディスプレイ解像度を提供するために姿勢検出および疎サンプリングを用いるニアアイディスプレイシステムを示す図である。 ニアアイディスプレイシステム内の従来のコンピュータ計算のディスプレイを示す図である。 いくつかの実施形態に従い図1のニアアイディスプレイシステム内で使用するための例示的な低フィルファクタディスプレイを示す図である。 いくつかの実施形態に従い図1のニアアイディスプレイシステム内で使用するための別の例示的な低フィルファクタディスプレイを示す図である。 いくつかの実施形態に従い図1のニアアイディスプレイシステム内で使用するための別の例示的な低フィルファクタディスプレイを示す図である。 いくつかの実施形態に従い図1のニアアイディスプレイシステム内の増加された解像度を有するライトフィールドフレームをレンダリングするための疎サンプリングの方法の例を示すフロー図である。 いくつかの実施形態に従いライトフィールドフレームをレンダリングするための疎サンプリング動作例を示す図である。 いくつかの実施形態に従いライトフィールド超解像の例を示す図である。
詳細な説明
図1〜図8は、ニアアイディスプレイシステム内の一体型ライトフィールドフレームの疎サンプリング超解像レンダリングのための例示的方法およびシステムを示す。少なくとも1つの実施形態では、ユーザに没入型の仮想現実(VR)または拡張現実(AR)エクスペリエンスを提供するために、ニアアイディスプレイシステムは、ユーザに対してイメージの一体型ライトフィールドフレームを表示するためのコンピュータ計算ディスプレイを用いる。各一体型ライトフィールドフレームは、要素画像のアレイで構成され、各要素画像は、異なる対応する視点からの対象物またはシーンのビューを表す。小型レンズのアレイは、ディスプレイパネルに重畳し、要素画像のアレイをユーザに単一のオートステレオスコピック画像として提示するために動作する。
コンピュータ計算ディスプレイの解像度が解像度と射出ひとみ距離(すなわち、ユーザの眼が完全な視野を得ることができる距離)との間のトレードオフを呈するので、一体型ライトフィールドディスプレイを用いるニアアイディスプレイシステムは典型的に、小型レンズプロジェクタアレイ内の重畳のために空間的解像度を犠牲にする。改善された解像度を提供するために、少なくとも1つの実施形態では、ここで説明されるニアアイディスプレイシステムは、低フィルファクタディスプレイの疎サンプリングを利用し、プロジェクタアレイ要素内の画像データ内の重畳を除去することによっていくらかの失われた解像度を復元する。例として、プロジェクタアレイ要素の各々は、ソース画像のわずかに異なるサブ領域をサンプリングするように構成され得、したがって互いに対して一意の画像データを有する。従って、ソース画像の疎サンプリングは、小型レンズプロジェクタアレイにおいて受信された画像データの重畳を減少させ、ニアアイシステムの減少した視距離(たとえば、10mm未満、従来のライトフィールドディスプレイの場合10〜40mmのレンズ焦点距離、従来の拡大鏡ディスプレイの場合40mm以上)から生じる失われた空間的解像度を復元するために、低フィルファクタディスプレイによって得られることができる。
図1は、少なくとも1つの実施形態に従い一体型ライトフィールドフレームの疎サンプリング超解像レンダリングを組み込んでいるニアアイディスプレイシステム100を例示する。例示される例では、ニアアイディスプレイシステム100は、コンピュータ計算ディスプレイサブシステム102と、レンダリングコンポーネント104とを含む。コンピュータ計算ディスプレイサブシステム102は、装置114(たとえば、ゴーグル、眼鏡等)内に取り付けられる、左眼ディスプレイ110および右眼ディスプレイ112を含み、装置114は、ユーザの左眼と右眼それぞれの正面にディスプレイ110,112を配置する。
ビュー116に示されるように、ディスプレイ110,112は、一体型ライトフィールドフレームのシーケンスまたは連続物(以降、参照の容易さのために「ライトフィールドフレーム」)を表示するために、少なくとも1つのディスプレイパネル118を含み、その各々は、要素画像122のアレイ120を備える。参照の容易さのために、要素画像122のアレイ120は、ここではライトフィールドフレームとも称され得る。ディスプレイ110,112の各々は、ディスプレイパネル118に重畳する(一般的に「マイクロレンズ」とも称される)小型レンズ126のアレイ124をさらに含む。典型的に、小型レンズアレイ124内の小型レンズ126の数は、アレイ120内の要素画像122の数に等しいが、他の実装においては、小型レンズ126の数は、要素画像122の数よりも多くても少なくてもよい。図1の例は、図示の容易さのために5×4の要素画像122のアレイおよび対応する5×4の小型レンズ126のアレイ120を図示するが、典型的な実装において、ライトフィールドフレーム120内の要素画像122の数および小型レンズアレイ124内の小型レンズ126の数は、典型的にはるかにより多いということに留意すべきである。さらに、いくつかの実施形態では、ディスプレイ110,112の各々に対して別個のディスプレイパネル118が実装され、他の実施形態では、左眼ディスプレイ110および右眼ディスプレイ112は、単一のディスプレイパネル118を共有し、ディスプレイパネル118の左半分は、左眼ディスプレイ110のために使用され、ディスプレイパネル118の右半分は、右眼ディスプレイ112のために使用される。
図1の断面図128は、ディスプレイパネル118に重畳する小型レンズアレイ124のA−A線に沿う断面図を例示し、小型レンズアレイ124は、小型レンズアレイ124がディスプレイ表面130とユーザの対応する眼132との間に配置されるようにディスプレイパネル118のディスプレイ表面130に重畳する。この構成では、各小型レンズ126は、ディスプレイ表面130の対応する領域を眼の瞳孔134上へと集束し、そのような各領域は、少なくとも部分的に1つまたは複数の隣接する領域と重畳する。このため、そのようなコンピュータ計算ディスプレイ構成では、要素画像122のアレイ120がディスプレイパネル118のディスプレイ表面130に表示され、小型レンズアレイ124を通して眼132によって視られると、ユーザは、要素画像122のアレイ120をシーンの単一の画像として知覚する。このため、ユーザの左眼および右眼の両方に対してその間に適切な視差が実装された状態でこの処理が並列に行われるときに、結果は、ユーザに対するオートステレオスコピック3次元(3D)イメージの提示である。
また図1に示されるように、レンダリングコンポーネント104は、図示される中央処理ユニット(CPU)136およびグラフィックス処理ユニット(GPU)138,140といった1つまたは複数のプロセッサの組、および1つまたは複数のプロセッサ136,138,140がここで説明される様々なタスクを行うよう操作するために、プロセッサ136,138,140によってアクセスされ実行されるソフトウェアプログラムまたは他の実行可能な命令を格納するための、システムメモリ142といった、1つまたは複数のストレージコンポーネントを含む。そのようなソフトウェアプログラムは、たとえば、以下に説明するような疎サンプリング処理のための実行可能な命令を備える。
動作において、レンダリングコンポーネント104は、レンダリング情報148をローカルまたはリモートコンテンツソース150から受信し、レンダリング情報148は、対象物またはシーン、すなわちディスプレイサブシステム102においてレンダリングされ表示されるべき被写イメージを表す、グラフィクスデータ、ビデオデータ、または他のデータを表す。レンダリングプログラム144を実行するために、CPU136は、レンダリング情報148を使用してGPU138,140への描画命令を送信し、次いで描画命令を利用して、任意の様々な既知のVR/ARコンピュータ計算/ライトフィールドレンダリング処理を使用し、左眼ディスプレイ110においてディスプレイするためのライトフィールドフレーム151のシリーズと右眼ディスプレイ112においてディスプレイするためのライトフィールドフレーム153のシリーズとを並列にレンダリングする。このレンダリング処理の一部として、CPU136は、慣性管理ユニット(IMU)154から姿勢情報150を受信してもよく、姿勢情報150は、ディスプレイサブシステム102の現在の姿勢を表し、CPU136は、ライトフィールドフレーム151,153の1つまたは複数の対のレンダリングが現在の姿勢からの対象物またはシーンの視点を反映するように制御し得る。
図2は、従来のコンピュータ計算ディスプレイの断面図200を例示する。小型レンズアレイ124の小型レンズ126の各々は、ユーザの眼(たとえば、図1の眼132)上への別個の「プロジェクタ」として機能し、各「プロジェクタ」は、要素画像122のアレイ120からディスプレイパネル118において表示される合成仮想画像202を形成する際に、1つまたは複数の隣接するプロジェクタと重畳する。この図に示されるように、アクティブ屈折面積(ここで「フィルファクタ」と称される)は、約100%である。すなわち、小型レンズアレイ124に向かって光を導く面積(すなわち、ディスプレイパネル118)の、任意の隙間を含む小型レンズアレイによって占有された総連続面積の比は、約100%である。
高フィルファクタを有するディスプレイは、仮想画像202からの複数の要素画像122内の重畳データを有する。例示のため、小型レンズ126−1は、画像データを仮想画像202の領域206に対応する要素画像122−2から受信する。同様に、小型レンズ126−2は、画像データを仮想画像202の領域206に対応する要素画像122−5から受信し、小型レンズ126−3は、画像データを仮想画像202の領域206に対応する要素画像122−8から受信する。従って、要素画像122−2,122−5,122−8から受信された画像データは、大量の重畳情報を有する。高フィルファクタを有する従来のディスプレイは、仮想画像平面上のいくつかの要素画像(たとえば、4〜6要素画像)をしばしば重畳する。この重畳は、同じファクタだけソース解像度の減少をもたらす(すなわち、4倍〜6倍の解像度における減少)。
解像度における減少部分は、より低いフィルファクタのディスプレイを使用して回復されることができる。図3は、いくつかの実施形態に従いニアアイディスプレイシステム100内で利用され得る低フィルファクタディスプレイの断面図300を例示する。小型レンズアレイ124の小型レンズ126の各々は、ユーザの眼(たとえば、図1の眼132)上への別個の「プロジェクタ」として機能し、各「プロジェクタ」は、要素画像122のアレイ120からディスプレイパネル118において表示される合成仮想画像202を形成する際に、1つまたは複数の隣接するプロジェクタと重畳する。この図に示されるように、フィルファクタは、約33%である。すなわち、小型レンズアレイ124に向かって光を導く面積(すなわち、ディスプレイパネル118の要素画像122を提示する発光素子)の、任意の隙間を含む小型レンズアレイによって占有された総連続面積の比は、約33%である。
図3において例示されるように、高フィルファクタディスプレイに対してより低いフィルファクタを有するディスプレイは、ソースデータの疎サンプリングを提供する。例示のため、図2の高フィルファクタディスプレイと同様に、小型レンズ126−1は、画像データを仮想画像202の領域206に対応する要素画像122−2から受信する。同様に、小型レンズ126−2は、画像データを仮想画像202の領域206に対応する要素画像122−5から受信し、小型レンズ126−3は、画像データを仮想画像202の領域206に対応する要素画像122−8から受信する。しかし、より低いフィルファクタのディスプレイは、小型レンズアレイ124において受信された画像データの重畳を減らすためにソース画像データのより離散的な帰属を可能とするより小さい発光素子を含む。
示されるように、例示のため、小型レンズ126−1は、画像データを仮想画像202の領域206内のサブ領域206−1に対応する要素画像122−2から受信する。小型レンズ126−2は、画像データを仮想画像202の領域206内のサブ領域206−2に対応する要素画像122−5から受信し、小型レンズ126−3は、画像データを仮想画像202の領域206内のサブ領域206−3に対応する要素画像122−8から受信する。従って、小型レンズ126−1,126−2,126−3のすべてがソース画像(すなわち、領域206)の同じ局所領域からサンプルを取得する一方、小型レンズ126は全く同じ場所内の画像データのサンプリングをしない。小型レンズ126−1,126−2,126−3の各々は、ソース画像のわずかに異なるサブ領域をサンプリングし、したがって互いに対して一意の画像データの強度値(すなわち、情報コンテンツ)を有する。従って、仮想画像202の疎サンプリングは、より低いフィルファクタのディスプレイによって得られることができ、小型レンズ126において受信された画像データの重畳を減少させ、失われた解像度を1/(フィルファクタ)の比によって回復する。たとえば、図3の約33%のフィルファクタのディスプレイは、仮想画像202の解像度を約3倍(すなわち、1/0.33フィルファクタ)増加させる。
さまざまな実施形態では、ディスプレイパネル118は、図3に例示されるような小さいフィルファクタを有して製造される発光素子を含むことができる。そのような発光素子は、たとえば、有機発光ダイオード(OLED)エミッタを含むことができる。しかし、そのような発光素子は、所与の単位面積あたりの電流密度およびフィルファクタ比に対して輝度出力に関して制限される可能性がある。換言すると、仮想画像解像度を増加させるためにフィルファクタを減少することによる疎サンプリングは、時にディスプレイパネル118の輝度を低下させるという結果を有する可能性がある。このより低い輝度は、少なくとも部分的には発光素子出力に対して利用可能な表面積がより小さい量であることによるものである。
図4は、いくつかの実施形態に従いニアアイディスプレイシステム100内で利用され得る低フィルファクタディスプレイのための構成を例示する。断面図400によって示されるように、小型レンズアレイ124の小型レンズ126の各々は、ユーザの眼(たとえば、図1の眼132)上への別個の「プロジェクタ」として機能し、各「プロジェクタ」は、要素画像のアレイから発光素子402によってディスプレイパネル118において表示される合成仮想画像202を形成する際に、1つまたは複数の隣接するプロジェクタと重畳する。この図に示されるように、アクティブ屈折面積(ここで「フィルファクタ」と称される)は、約100%である。すなわち、小型レンズアレイ124に向かって光を導く面積(すなわち、ディスプレイパネル118)の、任意の隙間を含む小型レンズアレイによって占有された総連続面積の比は、約100%である。
高フィルファクタを有する従来のディスプレイは、仮想画像平面上のいくつかの要素画像(たとえば、4〜6個の要素画像)をしばしば重畳する。高フィルファクタを有するディスプレイは、仮想画像202からの複数の要素画像122において重畳データを有する。従って、断面図400によって示されるように、この構成では、ピクセルアパーチャマスク404は、ディスプレイパネル118の光エミッタと小型レンズアレイ124との間に位置決めされる。ピクセルアパーチャマスク404は、ディスプレイパネル118のフィルファクタを実際に減らさないということが留意されるべきである。図2の構成と同様に、小型レンズアレイ124に向かって光を導く表面積は、約100%である。しかし、追加的なピクセルアパーチャマスク404は、小型レンズアレイ124において受信された光を狭め、画像データが発光素子402の面積の部分のみに帰属されることを可能とする。
たとえば、アパーチャ406の物理寸法に基づき、ピクセルアパーチャマスクを通過した、小型レンズ126−1において受信された光は、発光素子402−1のサブ領域408−1に帰属され得る。発光素子402−1のサブ領域408−1は、図3の要素画像122−2に類似し、仮想画像202の領域206内のサブ領域206−1に対応する。同様に基づくと、アパーチャ410を通過した、小型レンズ126−2において受信された光は、発光素子402−2のサブ領域408−2に帰属され得、アパーチャ412を通過した、小型レンズ126−3において受信された光は、発光素子402−3のサブ領域408−3に帰属され得る。これらのサブ領域408−2および408−3は、図3の要素画像122−5,122−8と類似し、仮想画像202の領域206内のサブ領域206−2,206−3それぞれに対応する。従って、ピクセルアパーチャマスク404は、ディスプレイパネル118の実際のフィルファクタを変化させることなく、「有効フィルファクタ」(すなわち、小型レンズ126の観点から経験されるフィルファクタ)を減少させることによってより大きい解像度を可能とし、これによって仮想画像202の空間的解像度を増加させつつ、出力される輝度を増加させるために(たとえば図3に対して)より大きいエミッタ表面積を維持する。
断面図400は、任意のピクセルアパーチャマスク404内のアパーチャの大きさおよび形状に関して詳細を提供しないということが留意されるべきである。当業者は、本開示の範囲から逸脱することなく、様々な大きさおよび形状の開口部が使用され得ることを認識するであろう。たとえば、実質的に正方形または長方形のアパーチャは、使用され得る。断面図400が、ピクセルアパーチャマスク404とディスプレイパネル118と小型レンズアレイ124との間の空間を例示するが、空間は、明確さおよび関係性の目的で提供されるということがさらに留意されるべきである。たとえば、さまざまな実施形態では、ピクセルアパーチャマスク404は、ディスプレイパネル118または小型レンズアレイ124と直接接触するように配置され得、または本開示の範囲から逸脱することなくディスプレイパネル118または小型レンズアレイ124と直接接触するガラス表面に適用され得る。
図5は、いくつかの実施形態に従いニアアイディスプレイシステム100内で利用され得る低フィルファクタディスプレイのための別の構成を例示する。断面図500によって示されるように、小型レンズアレイ124の小型レンズ126の各々は、ユーザの眼(たとえば、図1の眼132)上への別個の「プロジェクタ」として機能し、各「プロジェクタ」は、要素画像のアレイから発光素子402によってディスプレイパネル118において表示される合成仮想画像202を形成する際に、1つまたは複数の隣接するプロジェクタと重畳する。この図に示されるように、アクティブ屈折面積(ここで「フィルファクタ」と称される)は、約100%である。すなわち、小型レンズアレイ124に向かって光を導く面積(すなわち、ディスプレイパネル118)の、任意の隙間を含む小型レンズアレイによって占有された総連続面積の比は、約100%である。
高フィルファクタを有する従来のディスプレイは、仮想画像平面上のいくつかの要素画像(たとえば、4〜6個の要素画像)をしばしば重畳する。高フィルファクタを有するディスプレイは、仮想画像202からの複数の要素画像122における重畳データを有する。従って、断面図500によって示され、図4に関して説明されたように、ピクセルアパーチャマスク404は、ディスプレイパネル118の光エミッタと小型レンズアレイ124との間に位置決めされる。ピクセルアパーチャマスク404は、ディスプレイパネル118のフィルファクタを実際に減らさないということが留意されるべきである。図2の構成と同様に、小型レンズアレイ124に向かって光を導く表面積は、約100%である。しかし、追加的なピクセルアパーチャマスク404は、小型レンズアレイ124において受信された光を狭め、画像データが発光素子402の面積の部分のみに帰属されることを可能とする。
たとえば、アパーチャ406の物理寸法に基づき、ピクセルアパーチャマスクを通過した、小型レンズ126−1において受信された光は、発光素子402−1のサブ領域408−1に帰属され得る。発光素子402−1のサブ領域408−1は、図3の要素画像122−2に類似し、仮想画像202の領域206内のサブ領域206−1に対応する。同様に基づき、アパーチャ410を通過した、小型レンズ126−2において受信された光は、発光素子402−2のサブ領域408−2に帰属され得、アパーチャ412を通過した、小型レンズ126−3において受信された光は、発光素子402−3のサブ領域408−3に帰属され得る。これらのサブ領域408−2および408−3は、図3の要素画像122−5,122−8と類似し、仮想画像202の領域206内のサブ領域206−2,206−3それぞれに対応する。従って、ピクセルアパーチャマスク404は、ディスプレイパネル118の実際のフィルファクタを変化させることなく、「有効フィルファクタ」(すなわち、小型レンズ126の観点から経験されるフィルファクタ)を減少させることによってより大きい解像度を可能とし、これによって仮想画像202の空間的解像度を増加させ、同時に出力輝度を増加させるために(たとえば図3に対して)より大きいエミッタ表面積を維持する。
図4において例示された構成が図2の構成に対して出力輝度を増加させるための増加されたエミッタ表面積を提供するが、ピクセルアパーチャマスク404の存在は、輝度をηだけ増加させ、ここでη=NAlenslet/NAelem(NAlenslet=小型レンズのアパーチャ数およびNAelem=要素画像のアパーチャ数)ということが留意されるべきである。従って、図5の構成は、各発光素子402の正面に位置決めされたマイクロレンズ502をさらに含む。図5において例示されるように、マイクロレンズ502は、ディスプレイパネル118とピクセルアパーチャマスク404との間に配置され、これによりマイクロレンズ502は、アパーチャを通過した、発光素子402によって放出された光を集束するように構成される。従って、マイクロレンズ502をピクセルアパーチャマスク404と組み合わせることで、ディスプレイパネル118の実際のフィルファクタを変化させることなく、「有効フィルファクタ」(すなわち、小型レンズ126の観点で経験されるフィルファクタ)を減少させることによってより大きい解像度を可能とし、これによって仮想画像202の空間的解像度を増加させ、同時にマイクロレンズ502を使用して出力輝度および小型レンズ126への光スループットを増加させるために(たとえば、図3に対して)より大きいエミッタ表面積から放出される光を収束させる。
断面図500は、任意のピクセルアパーチャマスク404内のアパーチャの大きさおよび形状に関して詳細を提供しないということが留意されるべきである当業者は、本開示の範囲から逸脱することなく、様々な大きさおよび形状の開口部が使用され得ることを認識するであろう。たとえば、実質的に正方形または長方形のアパーチャは、使用され得る。断面図500が、ピクセルアパーチャマスク404とディスプレイパネル118と小型レンズアレイ124との間の空間を例示するが、空間は、明確さおよび関係性の目的で提供されるということがさらに留意されるべきである。たとえば、さまざまな実施形態では、ピクセルアパーチャマスク404は、ディスプレイパネル118または小型レンズアレイ124と直接接触するように配置され得、または本開示の範囲から逸脱することなくディスプレイパネル118または小型レンズアレイ124と直接接触するガラス表面に適用され得る。
図6は、いくつかの実施形態に従い高解像度ライトフィールドディスプレイを生成するための低フィルファクタディスプレイパネルを使用してライトフィールドフレームをレンダリングするためのニアアイディスプレイシステム100の動作方法600を例示する。方法600は、左眼ディスプレイ110または右眼ディスプレイ112のうちの1つのためのライトフィールドフレームのレンダリングおよび表示のための処理の1回の繰り返しを例示し、このため例示された処理は、ディスプレイ110,112の各々に対して反復して並列に行われ、異なる時点において各眼のためのライトフィールドフレームの異なるストリームまたはシーケンスを生成し表示し、このため3DのオートステレオスコピックVRまたはAR体験をユーザに提供する。
ライトフィールドフレームが生成され表示されるために、方法600は、ブロック602において開始し、レンダリングコンポーネント104は、ライトフィールドフレームとしてユーザの対応する眼に表示されるべき画像コンテンツを識別する。少なくとも1つの実施形態では、レンダリングコンポーネント104は、ジャイロスコープ、加速度計、磁力計、全地球測位システム(GPS)センサ等といった姿勢に関連付けられた様々なセンサからのデータを表すIMU情報152を受信し、IMU情報150からディスプレイ110,112をユーザの眼の近くに取り付けるために使用された装置114(たとえば、HMD)の現在の姿勢を決定する。このIMU情報152から、CPU136は、レンダリングプログラム144を実行して、被写シーンまたは対象物の対応する現在の視点を決定することができ、この視点とレンダリング情報148として提供されるシーンまたは対象物のグラフィカルなおよび空間的な描写とから、レンダリングされるべきイメージを決定する。
ブロック604において、レンダリングプログラム144は、CPU136を操作して、ソース物体(たとえば、図2の仮想画像202)を空間的ドメインにおいて疎にサンプリングし、ブロック602におけるレンダリングされるべきイメージの決定に基づき要素画像を生成する。上述のように、各要素画像は、ブロック602において決定されるような、対応する視点または仮想カメラ位置からの対象物またはシーンの画像またはビューを提示する。さまざまな実施形態では、ソース物体を疎サンプリングすることは、仮想画像平面内の他の要素画像内の画像データと重畳する各生成された要素画像内の画像データ量を最小化することを含む。
たとえば、今度は図7を参照して、表示のため仮想画像を疎にサンプリングするように構成される低フィルファクタディスプレイの断面図700の図(たとえば、図3の実施形態)が例示される。小型レンズアレイ124の小型レンズ126の各々は、ユーザの眼(たとえば、図1の眼132)上への別個の「プロジェクタ」として機能し、各「プロジェクタ」は、要素画像122からディスプレイパネル118において表示される合成仮想画像202を形成する際に、1つまたは複数の隣接するプロジェクタと重畳する。この図に示されるように、フィルファクタは、約33%である。すなわち、小型レンズアレイ124に向かって光を導く面積(すなわち、ディスプレイパネル118のピクセル122といった発光素子)の、任意の隙間を含む小型レンズアレイによって占有された総連続面積の比は、約33%である。
例示されるように、所与のパターンによって表されたピクセル122は、ソース仮想画像202の同じ局所領域(たとえば、局所領域204〜206のうちの1つ)からのサンプルである。しかし、ピクセル122は、完全に同じ場所においてサンプリングされず、したがって一意の強度値(すなわち情報コンテンツ)を有する。たとえば、ピクセル122−1は、サブ領域204−1の疎サンプリングに対応し、ピクセル122−4は、サブ領域204−2の疎サンプリングに対応する。両方のピクセル122−1および122−4は、両方とも同じ局所領域204においてサンプリングし、それらは、異なる眺望をキャプチャし、互いに対して一意の強度値を有する。さらに、例示されるように、ピクセル122−2は、サブ領域206−1の疎サンプリングに対応し、ピクセル122−3は、サブ領域208−1の疎サンプリングに対応する。従って、小型レンズ126−1を介する提示のためにピクセル122−1,122−2,122−3に基づきレンダリングされる要素画像は、(たとえば、3つの表示される小型レンズすべてがさまざまな小型レンズにおいて同じ仮想画像データの複数のコピーを受信する図2のディスプレイとは対照的に)たとえば、小型レンズ126−2を介する提示のためのピクセル122−4,122−5,122−6に基づきレンダリングされる要素画像に対して一意のデータを含む。
同様に、図4〜図5およびそれらに関連付けられた開示はまた、より大きい空間的解像度を有し、要素画像間の画像データにおける重畳が少ない要素画像の生成を説明する。代替的な実施形態では、レンダリングプログラム144は、CPU136を操作してソース物体(たとえば、図2の仮想画像202)を空間的ドメインにおいて疎にサンプリングさせ、仮想画像平面内の画像データ内の重畳を有さない要素画像を生成し、これによってシステムの効率を最大化する。GPUはその後、ブロック606においてライトフィールドフレームをレンダリングし、ユーザの眼132に表示するための対応するコンピュータ計算ディスプレイ110,112のうちの1つにライトフィールドフレームを提供する。追加的に、さまざまな実施形態では、ここで説明される疎サンプリングレンダリング動作は、可変焦点レンズと組み合わされ、表示されるイメージの解像度に追加的な改善を達成するために仮想画像平面をシフトし得る。
図8は、いくつかの実施形態に従うライトフィールド超解像の例を示す図である。ライトフィールドディスプレイを用いて、たとえば、ユーザの図1の眼132の網膜において知覚される画像は、複数の要素画像の合成である。要素画像の各々は、アレイ(たとえば、図1のアレイ124)内の小型レンズ(たとえば、図1の小型レンズ126)を通過し、重畳する合成画像を形成するために重畳する。例示されるように、要素画像802,804,806の網膜画像は、重畳サブピクセル要素(たとえば、赤サブピクセル810、青サブピクセル812、および緑サブピクセル814)を有する集合ライトフィールドピクセルグリッド808を形成するために重畳する。小型レンズアレイ124がピクセル格子グリッドと整列されるときに、サブピクセル要素の網膜画像は、示されるように重畳する。
いくつかの実施形態では、ディスプレイパネル118に対する小型レンズアレイ124の回転は、ライトフィールド超解像をもたらす。ディスプレイピクセル(すなわち、サンプルグリッド)が(たとえば、小型レンズアレイ124および/またはディスプレイパネル118のいずれかの回転を通して)小型レンズアレイ124に対して回転されるときに、隣接する要素画像の各々からのサブピクセルの仮想画像は、もはや完全に重畳しない。回転は、複合遷移(たとえば、サブピクセル位置のx軸遷移およびy軸遷移)であり、これによって網膜において知覚される仮想画像におけるずれを引き起こす。示されるように、回転は、1つの要素画像のピクセルグリッドの、その隣接するグリッドに対するx軸位置およびy軸位置におけるサブピクセルシフトとしてモデル化される。
いくつかの角度において、サブピクセルは、完全にインターリーブされる。例示されるように、回転後、要素画像816,818,820のピクセルグリッドは、1つの方向に半ピクセル、他の方向に半ピクセルの整数個だけ分離されるようになり、隣接する要素画像のピクセルのインターレーシングをもたらす。画像情報は、このため隣接する要素画像から(たとえばサブピクセルの間のディスプレイの非発光部分のため)合成網膜画像822の通常黒の面積へと向けられ、これによって1/N倍の解像度の増加を作成し、ここでNは同じピクセルで共有される要素画像の数(たとえば、冗長係数)を提示する。
図8の実施形態では、名目的に重畳するピクセルの仮想画像を半ピクセルピッチの距離だけお互いから離れて変位させることによって、得られる合成網膜画像822は、2倍増加された解像度を有する。追加的に知覚されるピクセルは、追加的な画像情報を提供する隣接する要素画像からの寄与である。たとえば、サブピクセル824は、2つの異なる要素画像から青サブピクセルおよび緑サブピクセルを重畳した結果である。
各方向に2つの要素画像を回転させる例示的文脈においてここに記載されるように、当業者は、より多くの要素画像が色チャネルに対する隙間を埋めるということを認識するだろう。小型レンズアレイ124に対してディスプレイパネル118をシフト回転することによる超解像は、1/(フィルファクタ)の係数によって解像度における増加のために拡張され得る。このため、ソース画像を再サンプルするために網膜上の回転された仮想サンプリンググリッドに従いレンダリング機能を調整することによって、サブピクセル要素の網膜画像が重畳する(たとえば、小型レンズアレイ124が、ピクセル格子グリッドと整列される)ときに対して、大きい解像度で冗長性の低い合成網膜画像が生成される。
他の実施形態では、サブピクセルのインターリーブによる超解像は、小型レンズ−ディスプレイ回転のためのx軸遷移およびy軸遷移の代わりに、小型レンズ−ディスプレイ距離(たとえば、図3の小型レンズアレイ124とディスプレイパネルとの間のz軸距離)をシフトすることによってまた達成され得る。インターリーブされた条件を達成するために、小型レンズ−ディスプレイ距離は、Δz=f ΔΦ’=fp/dNの量だけシフトされ、ここでΔΦ’=インターリーブされた状態から異常画像平面へのジオプタ距離、f=小型レンズ焦点長、p=ピクセルの大きさ、d=小型レンズアパーチャの大きさ、およびN=ライトフィールド冗長性ファクタ(たとえば、1/(フィルファクタ))である。インターリーブされた状態から異常画像平面へのジオプタ距離ΔΦ’は、式ΔΦ’=(p/N)/(d)によって表され、ここでp/N=光エミッタの大きさ、d=小型レンズアパーチャの大きさ、およびf=小型レンズ焦点長である。同様に、エイリアシングされた重畳条件(すなわち異常画像平面)間のジオプタ距離は、式ΔΦ=p/(d)によって表され、p=ピクセルの大きさ、d=小型レンズアパーチャの大きさ、f=小型レンズ焦点長である。
仮想画像のそのようなインターリーブされた条件内の奥行き範囲(たとえば、図3の仮想画像202)は、小型レンズ被写界深度または異常画像再構造の知覚を遮断する等のユーザの眼の調整範囲によって制限され、これは、p/(d)だけ離間され、ここでp=ピクセルの大きさ、d=小型レンズアパーチャの大きさ、およびf=小型レンズの焦点長である。理想的にη=NAlenslet/NAelem(すなわち、NAlenslet=小型レンズのアパーチャ数およびNAelem=要素画像のアパーチャ数)であるが、フィルファクタが1を超えることができず、ライトフィールドディスプレイ解像度がディスプレイパネル118のネイティブのディスプレイパネル解像度を超えることができないということを考慮すると、任意の値η<1は、解像度ゲインを産む。このようにして、小型レンズアレイ124とディスプレイパネル118との間の相対距離をシフトすることによって、大きい解像度の合成網膜画像が生成される。
いくつかの実施形態では、上述の技術のある局面は、ソフトウェアを実行する処理システムの1つまたは複数のプロセッサによって実施されてもよい。ソフトウェアは、非一時的コンピュータ可読記憶媒体上に格納されるかそうでなければそこに有形に具現化された実行可能な命令の1つまたは複数のセットを備える。ソフトウェアは、1つまたは複数のプロセッサによって実行されると、当該1つまたは複数のプロセッサに上述の技術の1つまたは複数の態様を行わせるように操作するための、命令および特定のデータを含むことができる。非一時的コンピュータ可読記憶媒体は、例えば、磁気または光ディスク記憶装置、フラッシュメモリなどの固体記憶装置、キャッシュ、ランダムアクセスメモリ(RAM)、または他の1つまたは複数の不揮発性メモリ装置等を含むことができる。非一時的コンピュータ可読記憶媒体に記憶された実行可能な命令は、ソースコード、アセンブリ言語コード、オブジェクトコード、または1つまたは複数のプロセッサによって解釈されるかそうでなければ実行可能である他の命令フォーマットであり得る。
コンピュータ可読記憶媒体は、命令および/またはデータをコンピュータシステムに提供するために、コンピュータシステムによって使用中にアクセス可能な任意の記憶媒体または記憶媒体の組み合わせを含むことができる。そのような記憶媒体は、光媒体(例えばコンパクトディスク(CD)、デジタル多用途ディスク(DVD)、ブルーレイディスク)磁気媒体(例えばフロッピー(登録商標)ディスク、磁気テープ、または磁気ハードドライブ)揮発性メモリ(例えば、ランダムアクセスメモリ(RAM)またはキャッシュ)不揮発性メモリ(例えば、読み出し専用メモリ(ROM)またはフラッシュメモリ)、または微小電気機械システム(MEMS)ベースの記憶媒体を含むことができるが、これらに限定されない。コンピュータ可読記憶媒体は、コンピューティングシステムに埋め込まれるか(例えば、システムのRAMまたはROM)、コンピューティングシステムに固定的に取り付けられるか(例えば、磁気ハードドライブ)、コンピューティングシステムに取り外し可能に取り付けられるか(例えば、光ディスクまたはユニバーサルシリアルバス(USB)ベースのフラッシュメモリ)、有線または無線ネットワークを介してコンピュータシステムに結合され(例えば、ネットワークアクセス可能ストレージ(NAS))てもよい。
一般的な説明において上述されたすべての動作または要素が必須とされるわけではなく、特定の動作またはデバイスの一部は必須ではなく、説明したものに加えて、1つ以上のさらに他の動作が実行され得、または1つ以上のさらに他の要素が含められる得る。さらにまた、動作が列挙される順序は、必ずしもそれらが実行される順序とは限らない。また、概念は、特定の実施形態を参照して説明された。しかし、当業者は、本開示の範囲から逸脱することなく、下記の特許請求の範囲に記載されるように、様々な修正および変更が可能であることを理解するであろう。したがって、本明細書および図面は、限定的な意味ではなく例示的な意味において考慮されるべきであり、そのような修正は、すべて本開示の範囲内に含まれることが意図される。
利益、他の利点、および問題に対する解決策は、特定の実施形態に関して上記で説明された。しかし、利益、利点、問題に対する解決策、および任意の利益、利点、解決策を生ずるかより顕著にし得る特徴は、任意のまたはすべての請求項の、決定的なまたは必須のまたは不可欠の機能の特徴として解釈されるべきではない。さらに、本明細書の教示の利益を享受する当業者にとって明らかなように、異なる均等の方法で本開示の主題を修正し実施することができるため、上記に開示した特定の実施形態は例示にすぎない。下記の特許請求の範囲に記載されているもの以外に、本明細書に示されている構造または設計の詳細に対する限定は意図されていない。したがって、上記に開示された特定の実施形態は、変更または変形されてもよく、そのような変形形態は、すべて開示された主題の範囲内にあると考えられることが明らかである。したがって、ここで求められる保護は、下記の特許請求の範囲に記載の通りである。

Claims (19)

  1. ニアアイディスプレイシステム(100)であって、
    ソース画像の疎サンプリングに少なくとも部分的に基づいて要素画像のアレイ(122)を生成し、前記要素画像のアレイ(122)の各個々の要素画像内に含まれる画像データの重畳を減少させるためのレンダリングコンポーネント(104)と、
    前記要素画像のアレイ(122)を含む一体型ライトフィールドフレーム(120)を表示するためのディスプレイパネル(118)と、
    前記一体型ライトフィールドフレーム(120)をユーザの眼(132)に提示するための小型レンズアレイ(124)とを備える、ニアアイディスプレイシステム。
  2. 前記ディスプレイパネル(118)と前記小型レンズアレイ(124)との間に配置されたピクセルアパーチャマスク(404)をさらに備え、前記ピクセルアパーチャマスク(404)は、前記ディスプレイパネル(118)の有効フィルファクタを前記ディスプレイの実際のフィルファクタに対して減少させるように構成されたアパーチャ(406,410,412)を含む、請求項1に記載のニアアイディスプレイシステム。
  3. 前記ピクセルアパーチャマスク(404)の前記アパーチャ(406,410,412)は、画像データを前記小型レンズアレイ(124)に伝達するために前記ディスプレイパネル(118)の各発光素子(402)の部分を露出させる、請求項2に記載のニアアイディスプレイシステム。
  4. 前記レンダリングコンポーネント(104)は、前記要素画像のアレイ(122)を、
    各発光素子(402)の前記露出された部分(408)に対応するソース画像の領域を識別することによって生成するためのものである、請求項3に記載のニアアイディスプレイシステム。
  5. 前記ディスプレイパネル(118)と前記ピクセルアパーチャマスク(404)との間に配置された複数のマイクロレンズ(502)をさらに備え、前記マイクロレンズ(502)は、前記小型レンズアレイ(124)への光スループットを増加させるように構成される、請求項2に記載のニアアイディスプレイシステム。
  6. 前記レンダリングコンポーネントは、前記要素画像のアレイ(122)を、
    前記アレイの各個々の要素画像が前記アレイ内のすべての他の要素画像に対して一意である一意の画像データを含むように前記要素画像のアレイ(122)を生成することによって、生成するためのものである、請求項1に記載のニアアイディスプレイシステム。
  7. 前記小型レンズアレイ(124)は、各個々の要素画像(802,804,806)からのピクセル(810,812,814)の仮想画像が前記アレイ内のすべての他の要素画像に対して平行移動されるように、前記ディスプレイパネル(118)に対して回転される、請求項1に記載のニアアイディスプレイシステム。
  8. 各個々の要素画像(816,818,820)からのピクセル(824)の前記仮想画像は、前記アレイ内の1つまたは複数の隣接する要素画像のピクセルの仮想画像間にインターリーブされる、請求項7に記載のニアアイディスプレイシステム。
  9. レンダリングシステムであって、
    少なくとも1つのプロセッサ(136,138,140)と、
    少なくとも1つの姿勢関連センサ(154)からのデータを受信するための入力とを備え、前記データは、ニアアイディスプレイパネル(118)に対する被写体の現在の視点を表し、前記レンダリングシステムはさらに、
    実行可能な命令の組を格納するためのストレージコンポーネント(142)を備え、前記実行可能な命令の組は、前記少なくとも1つのプロセッサに、前記被写体(202)の疎サンプリングに少なくとも部分的に基づいて要素画像のアレイ(122)を備える一体型ライトフィールドフレーム(120)をレンダリングさせ、前記要素画像のアレイの各個々の要素内に含まれる画像データの重畳を減少させるように構成される、レンダリングシステム。
  10. 前記実行可能な命令の組は、前記少なくとも1つのプロセッサに前記一体型ライトフィールドフレームを、
    前記被写体(202)の部分を前記ニアアイディスプレイパネル(118)の発光素子によって表示されるべき1つまたは複数の要素画像に帰属させることによって、レンダリングさせるように構成される、請求項9に記載のレンダリングシステム。
  11. 前記実行可能な命令の組は、前記少なくとも1つのプロセッサに前記一体型ライトフィールドフレームを、
    ピクセルアパーチャマスク(404)によって露出された前記発光素子(408)の各々の部分を決定することと、
    前記被写体(202)の部分を前記ニアアイディスプレイパネル(118)の前記発光素子(402)の前記露出された部分(408)によって表示されるべき1つまたは複数の要素画像に帰属させることによって、レンダリングさせるように構成される、請求項9に記載のレンダリングシステム。
  12. 前記実行可能な命令の組は、前記少なくとも1つのプロセッサに前記一体型ライトフィールドフレームを、
    前記アレイの各個々の要素画像が前記アレイ内のすべての他の要素画像に対して一意である一意の画像データを含むように、前記要素画像のアレイ(122)を生成することによって、レンダリングさせるように構成される、請求項9に記載のレンダリングシステム。
  13. 前記実行可能な命令の組は、前記少なくとも1つのプロセッサに前記一体型ライトフィールドフレームを、
    アレイ内の1つまたは複数の隣接する要素画像のピクセルの仮想画像間にインターリーブされたピクセル(824)の仮想画像を有する要素画像のアレイの各個々の要素画像(816,818,820)に基づき前記ソース物体(202)をサンプリングすることによって、レンダリングさせるように構成される、請求項9に記載のレンダリングシステム。
  14. ニアアイディスプレイシステムにおける方法であって、
    少なくとも1つの姿勢関連センサ(154)を使用して、前記ニアアイディスプレイシステム(100)のディスプレイパネルに対する被写体の現在の視点を決定することと、
    前記被写体の前記現在の視点の疎サンプリングに基づき一体型ライトフィールドフレーム(120)を形成する要素画像のアレイ(122)を生成し、前記アレイの各個々の要素画像内に含まれる画像データの重畳を減少させることと、
    前記要素画像のアレイ(122)を前記一体型ライトフィールドフレーム内の位置にレンダリングすることと、
    前記一体型ライトフィールドフレーム(120)を前記ディスプレイパネル(118)に表示することとを含む、方法。
  15. 前記要素画像のアレイを生成することは、
    ピクセルアパーチャマスク(404)内のアパーチャ(406,410,412)によって露出された前記ディスプレイパネル(118)の複数の発光素子(402)の各々の露出された部分(408)を識別することを含む、請求項14に記載の方法。
  16. 前記要素画像のアレイを生成することは、
    各発光素子(402)の前記露出された部分(408)に対応するソース画像(202)の領域を識別することを含む、請求項15に記載の方法。
  17. 前記一体型ライトフィールドフレームを前記ディスプレイパネルに表示することは、 前記ディスプレイパネル(118)と前記ピクセルアパーチャマスク(404)との間に配置されたマイクロレンズ(502)の組を使用して前記アパーチャ(406,410,412)を通過した前記要素画像のアレイを表す光を集束させることを含む、請求項15に記載の方法。
  18. 各個々の要素画像(802,804,806)からのピクセル(810,812,814)の仮想画像が前記アレイ内のすべての他の要素画像に対して平行移動されるように、前記ディスプレイパネル(118)に対して前記マイクロレンズ(502)の組を回転させることをさらに含む、請求項17に記載の方法。
  19. 前記ディスプレイパネル(118)に対して前記マイクロレンズ(502)の組を回転させることは、各個々の要素画像からのピクセル(824)の前記仮想画像を前記アレイ内の1つまたは複数の隣接する要素画像のピクセルの仮想画像の間にインターリーブする、請求項18に記載の方法。
JP2019539894A 2017-05-26 2018-02-15 疎サンプリング超解像を用いたニアアイディスプレイ Ceased JP2020523803A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762511561P 2017-05-26 2017-05-26
US62/511,561 2017-05-26
US15/897,611 US10764552B2 (en) 2017-05-26 2018-02-15 Near-eye display with sparse sampling super-resolution
PCT/US2018/018434 WO2018217253A1 (en) 2017-05-26 2018-02-15 Near-eye display with sparse sampling super-resolution
US15/897,611 2018-02-15

Publications (1)

Publication Number Publication Date
JP2020523803A true JP2020523803A (ja) 2020-08-06

Family

ID=61557341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019539894A Ceased JP2020523803A (ja) 2017-05-26 2018-02-15 疎サンプリング超解像を用いたニアアイディスプレイ

Country Status (6)

Country Link
US (1) US10764552B2 (ja)
JP (1) JP2020523803A (ja)
KR (1) KR102270131B1 (ja)
DE (1) DE202018101096U1 (ja)
TW (1) TWI670521B (ja)
WO (1) WO2018217253A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11119353B2 (en) 2017-06-01 2021-09-14 E-Vision Smart Optics, Inc. Switchable micro-lens array for augmented reality and mixed reality
US10466487B2 (en) 2017-06-01 2019-11-05 PogoTec, Inc. Releasably attachable augmented reality system for eyewear
US10634921B2 (en) 2017-06-01 2020-04-28 NewSight Reality, Inc. See-through near eye optical display
WO2018222892A1 (en) 2017-06-01 2018-12-06 Pogotec Inc. Releasably attachable augmented reality system for eyewear
US10634912B2 (en) 2017-06-01 2020-04-28 NewSight Reality, Inc. See-through near eye optical module
US11546575B2 (en) * 2018-03-22 2023-01-03 Arizona Board Of Regents On Behalf Of The University Of Arizona Methods of rendering light field images for integral-imaging-based light field display
US11698516B2 (en) * 2018-11-27 2023-07-11 National Taiwan University Head mounted display device and near-eye light field display device thereof
CN109870820B (zh) * 2019-03-26 2023-10-17 成都工业学院 针孔反射镜阵列集成成像增强现实装置及方法
CN110441918B (zh) * 2019-07-28 2024-04-05 成都航空职业技术学院 分辨率均匀的集成成像双视3d显示装置
CN110441915B (zh) * 2019-07-28 2024-05-28 北京龙翼风科技有限公司 基于矩形针孔阵列的集成成像3d显示装置
CN114175630A (zh) * 2019-07-28 2022-03-11 谷歌有限责任公司 利用注视点网格渲染沉浸式视频内容的方法、系统和介质
CN110426857B (zh) * 2019-07-28 2024-03-26 成都航空职业技术学院 基于渐变宽度矩形针孔阵列的集成成像3d显示装置
US11902500B2 (en) * 2019-08-09 2024-02-13 Light Field Lab, Inc. Light field display system based digital signage system
EP4123358A4 (en) 2020-03-19 2023-04-26 BOE Technology Group Co., Ltd. DISPLAY DEVICE AND ASSOCIATED DISPLAY METHOD
TWI775069B (zh) 2020-04-27 2022-08-21 宏碁股份有限公司 頭戴式顯示器
KR20230094581A (ko) * 2021-12-21 2023-06-28 삼성전자주식회사 라이트 필드 디스플레이
US11943417B2 (en) * 2022-07-13 2024-03-26 Huawei Technologies Co., Ltd. Three-dimensional integral-imaging light field display and optimization method therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070097277A1 (en) * 2005-11-03 2007-05-03 Qi Hong Head mounted display with eye accommodation
US20150177514A1 (en) * 2013-12-19 2015-06-25 Nvidia Corporation System, method, and computer program product for a pinlight see-through near-eye display
JP2015521298A (ja) * 2012-04-25 2015-07-27 マイクロソフト コーポレーション ヘッドマウントディスプレイに用いるための可動式ledアレイ及びマイクロレンズアレイに基づくライトフィールドプロジェクタ

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002131693A (ja) * 2000-10-26 2002-05-09 Mixed Reality Systems Laboratory Inc 画像観察装置
US7646450B2 (en) * 2005-12-29 2010-01-12 Lg Display Co., Ltd. Light emitting diode array, method of manufacturing the same, backlight assembly having the same, and LCD having the same
TWI432844B (zh) * 2009-02-17 2014-04-01 Au Optronics Corp 用於一薄型顯示器之導光裝置及該薄型顯示器
US8724000B2 (en) 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
US8493390B2 (en) 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
US9582922B2 (en) * 2013-05-17 2017-02-28 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display
US9519144B2 (en) * 2013-05-17 2016-12-13 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display having a defect
US9880325B2 (en) 2013-08-14 2018-01-30 Nvidia Corporation Hybrid optics for near-eye displays
IL291010B2 (en) * 2013-11-27 2024-01-01 Magic Leap Inc Virtual and augmented reality systems and methods
EP2958074A1 (en) 2014-06-17 2015-12-23 Thomson Licensing A method and a display device with pixel repartition optimization
RU2671298C2 (ru) * 2014-07-10 2018-10-30 Люсоспейс, Прожектош Энженария Лда Устройство отображения
CN106292139A (zh) * 2015-05-27 2017-01-04 鸿富锦精密工业(深圳)有限公司 背投显示系统
US10359629B2 (en) * 2015-08-03 2019-07-23 Facebook Technologies, Llc Ocular projection based on pupil position
KR102629584B1 (ko) * 2016-07-19 2024-01-25 삼성전자주식회사 빔 조향 백라이트 유닛 및 이를 포함하는 홀로그래픽 디스플레이 장치
US10623723B2 (en) * 2016-09-29 2020-04-14 Intel Corporation Hybrid stereo rendering for depth extension in dynamic light field displays

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070097277A1 (en) * 2005-11-03 2007-05-03 Qi Hong Head mounted display with eye accommodation
JP2015521298A (ja) * 2012-04-25 2015-07-27 マイクロソフト コーポレーション ヘッドマウントディスプレイに用いるための可動式ledアレイ及びマイクロレンズアレイに基づくライトフィールドプロジェクタ
US20150177514A1 (en) * 2013-12-19 2015-06-25 Nvidia Corporation System, method, and computer program product for a pinlight see-through near-eye display

Also Published As

Publication number Publication date
DE202018101096U1 (de) 2018-05-24
TWI670521B (zh) 2019-09-01
KR102270131B1 (ko) 2021-06-28
KR20190105648A (ko) 2019-09-17
WO2018217253A1 (en) 2018-11-29
US20180343434A1 (en) 2018-11-29
US10764552B2 (en) 2020-09-01
TW201908810A (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
JP2020523803A (ja) 疎サンプリング超解像を用いたニアアイディスプレイ
EP3631559A1 (en) Near-eye display with sparse sampling super-resolution
CN112639579B (zh) 用于增强现实装置的空间分辨的动态调暗
JP6886253B2 (ja) 複数のユーザのためのレンダリング方法及び装置
KR102303809B1 (ko) 비평면 계산 디스플레이
JP4033859B2 (ja) 立体画像表示方法
US20100033479A1 (en) Apparatus, method, and computer program product for displaying stereoscopic images
KR20160021968A (ko) 영상 처리 방법 및 장치
GB2560306A (en) Image processing
KR20190131021A (ko) 확장된 수용 범위 조정이 가능한 근거리 안구 디스플레이
US11181801B2 (en) Beam steering optics for virtual reality systems
JP2010113159A (ja) 立体画像表示装置および立体画像表示方法
US20240169489A1 (en) Virtual, augmented, and mixed reality systems and methods
JP2009147508A (ja) 立体視画像生成方法、その装置、及び立体視画像表示装置
US20150348321A1 (en) Augmented reality display device
EP3903278B1 (en) Device and method for enhancing images
KR101425321B1 (ko) 적응형 렌즈 어레이를 구비하는 3차원 집적 영상 디스플레이 시스템 및 적응형 렌즈 어레이에 대한 요소 영상 생성 방법
KR102272083B1 (ko) 홀로그램 광학 요소를 사용한 3차원 이미지 출력 방법 및 장치
KR101784208B1 (ko) 다수의 깊이 카메라를 이용한 3차원 디스플레이 시스템 및 방법
WO2020256767A1 (en) Method and apparatus for correcting lenticular distortion

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220329