JP7185331B2 - インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法 - Google Patents

インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法 Download PDF

Info

Publication number
JP7185331B2
JP7185331B2 JP2020551390A JP2020551390A JP7185331B2 JP 7185331 B2 JP7185331 B2 JP 7185331B2 JP 2020551390 A JP2020551390 A JP 2020551390A JP 2020551390 A JP2020551390 A JP 2020551390A JP 7185331 B2 JP7185331 B2 JP 7185331B2
Authority
JP
Japan
Prior art keywords
scene
depth
ini
virtual
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020551390A
Other languages
English (en)
Other versions
JP2021524052A (ja
Inventor
フア、ホン
ファン、ヘクン
Original Assignee
アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ filed Critical アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ
Publication of JP2021524052A publication Critical patent/JP2021524052A/ja
Application granted granted Critical
Publication of JP7185331B2 publication Critical patent/JP7185331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/10Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images using integral imaging methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

政府許認可権
本発明は、NSFによる認可を受けた登録番号1422653の下で政府の支援を受けて行われた。政府は、本発明において一定の権利を有する。
本発明は、ヘッドマウントディスプレイの分野に関し、より具体的には、排他的にではないが、インテグラルイメージング(integral imaging:InI)に基づくヘッドマウントディスプレイに関する。
ニアアイディスプレイ(near-to-eye display:NED)または頭部装着型ディスプレイ(head-worn display:HWD)としても一般的に知られているヘッドマウントディスプレイ(head-mounted display:HMD)は、近年、大きい関心を得ており、広範囲の消費者向けアプリケーションのための技術推進に対する多大な努力を刺激している。例えば、ユーザの物質世界の直接視野へのデジタル情報の光学重畳を可能にし、実世界へのシースルービジョンを維持する軽量の光学式シースルーHMD(optical see-through HMD:OST-HMD)は、拡張現実(augmented reality:AR)アプリケーションに対する技術を可能にする鍵の1つである。広視野(field-of-view:FOV)、没入型HMD(コンピュータが生成する仮想世界にユーザを没入させる)またはリモート操作による実世界の高解像度映像捕捉は、仮想現実(virtual reality:VR)アプリケーションに対する技術を可能にする鍵である。HMDは、ゲーム、シミュレーションおよび訓練、防衛、教育、並びに他の分野において無数のアプリケーションを見出している。
VRディスプレイとARディスプレイとの両方の開発に対する高い有望性および最近達成された多大な進歩にも関わらず、長時間のHMDの着用に関わる視覚的不快感を最小限に抑えることは、依然として未解決の課題である。視覚的不快感に対する主要な寄与要因の1つは、適正な焦点手がかり(調節手がかりおよび網膜像ぶれ効果を含む)をレンダリングする能力の不足による適合的眼球離反運動の不一致(vergence-accommodation conflict:VAC)である。HMDのVAC問題は、画像源が眼から固定距離に位置する2D平坦表面であるという事実に由来する。図1は、典型的な単眼HMDの概略レイアウトを示し、主に、画像源としての2Dマイクロディスプレイと、マイクロディスプレイ上でレンダリングされた画像を拡大し、眼から固定距離に現れる虚像を形成する接眼レンズとを含む。OST-HMDは、仮想ディスプレイの光学通路と実際のシーンの光学通路とを組み合わせるために眼の前に配置される光コンバイナ(例えば、ビームスプリッタ)を必要とする。従来のHMDは、単眼または両眼、シースルーまたは没入型に関わらず、虚像面に対応する距離以外の距離に現れる可能性があるデジタル情報に対する適正な焦点手がかりをレンダリングする能力が不足している。その結果、従来のHMDでは、自然な眼の調節反応および網膜ぼやけ効果を刺激することができない。HMDにおいて適正な焦点手がかりが欠如する問題によって、いくつかの視覚手がかりの不一致が起こる。例えば、従来の立体HMDでは、2つのわずかに異なる視線位置から観察される、両眼視差および3Dシーンの他の絵画的奥行き手がかりを伴う二次元(two-dimensional:2D)透視画像の対(それぞれの眼に対して1つずつ)によって、3D空間および形状の知覚が刺激される。したがって、従来の立体HMDは、調節手がかりおよび輻輳手がかりの不自然なデカップリングを強制する。調節深度に対する手がかりは、2D像面の奥行きによって決定され、3Dシーンの輻輳深度は、画像対によってレンダリングされる両眼視差によって決定される。ディスプレイによってレンダリングされる仮想オブジェクトに対する網膜像ぶれ手がかりは、自然なシーンによって作成されるものと一致しない。多くの研究により、従来のHMDにおける不適正にレンダリングされた焦点手がかりに関連するこれらの視覚手がかりの不一致は、様々な視覚的アーチファクトおよび視覚的性能の劣化に寄与する強力な裏付けとなる証拠が提供されている。
以前に提案されたいくつかの手法は、体積ディスプレイ、超多視点オート・ステレオスコピック・ディスプレイ、インテグラル・イメージング方式のディスプレイ、ホログラフィックディスプレイ、多焦点面ディスプレイ、および演算多層ディスプレイを含む従来のステレオスコピックディスプレイの欠点を克服することができる。それらの膨大なハードウェア複雑性により、これらの異なる表示方法の多くは、HMDシステムの実装に適さない。他方では、多焦点面ディスプレイ、インテグラルイメージング、および演算多層手法は、一般的に、ライトフィールドディスプレイであることを指し、ヘッドマウントアプリケーションに適している。HMDにおけるそれらの使用は、ヘッドマウント・ライトフィールド・ディスプレイと呼ばれる。
ヘッドマウント・ライトフィールド・ディスプレイは、異なる奥行きの3Dシーンの投影または3Dシーンによって放射され且つ異なる眼位から観察されると考えられる光線の方向のいずれかをサンプリングすることにより、真の3Dシーンをレンダリングする。それらのディスプレイは、適正なまたはほぼ適正な焦点手がかりをレンダリングし、従来のVRおよびARディスプレイの適合的眼球離反運動の不一致問題に対処することができる。例えば、インテグラルイメージング(InI)方式のディスプレイは、一見したところ3Dシーンによって放射され且つ異なる眼位から観察されると考えられる光線の方向を角度別にサンプリングすることにより、3Dシーンのライトフィールドを再構築する。図2に例示されるように、簡単なInI方式のディスプレイは、典型的には、表示パネルと、マイクロレンズアレイ(microlens array:MLA)またはピンホールアレイである2Dアレイとを含む。ディスプレイは、2D要素画像の組をレンダリングし、その各々は、3Dシーンの異なる視点を表す。要素画像の対応する画素によって放射された円錐状の光線束は交差して光を放射し、3D空間を占めるように見える3Dシーンの知覚を一体化して作り上げる。2Dアレイを使用したInI方式のディスプレイは、水平方向と垂直方向との両方における全方向視差情報を有する3D形状の再構築を可能にし、それが、一次元視差バリアまたは円筒状のレンチキュラーレンズを使用した水平視差のみを有する従来のオート・ステレオスコピック・ディスプレイとの主な違いである。1908年のLippmannによるその刊行物以来、InI方式の技法は、実際のシーンのライトフィールドの捕捉と、アイウェア・フリー・オート・ステレオスコピック・ディスプレイにおけるその使用との両方に対して幅広く探究されてきた。InI方式の技法は、低い横分解能および縦分解能、狭い被写界深度(depth of field:DOF)、並びに狭い視野角におけるその制限で知られている。他の全ての非ステレオスコピック3Dディスプレイ技法と比べて、InI技法の簡単な光学アーキテクチャは、HMDシステムと統合して着用可能なライトフィールドディスプレイを作成するという魅力を有する。
この出願の発明に関連する先行技術文献情報としては、以下のものがある(国際出願日以降国際段階で引用された文献及び他国に国内移行した際に引用された文献を含む)。
(先行技術文献)
(特許文献)
(特許文献1) 米国特許出願公開第2015/0201176号明細書
(特許文献2) 米国特許出願公開第2017/0078652号明細書
(特許文献3) 米国特許出願公開第2005/0179868号明細書
(非特許文献)
(非特許文献1) HUANG et al., "An integral-imaging-based head-mounted light field display using a tunable lens and aperture array." Journal of the Society for Information Display 017 Mar 1;25(3):200-7,(01.03.2017),Fig.3; pg 199,col 2; pg 200,col 2-pg 201,col 1
しかし、他のインテグラル・イメージング・ベースのディスプレイおよびイメージング技術のように、現在のInIベースのHMD方法は、いくつかの主要な制限、すなわち(1)狭い視野(対角線上で<30°)、(2)低い横分解能(視覚空間において約10分(角度))、(3)低い縦分解能(視覚空間において約0.5ディオプトリ)、(4)狭い被写界深度(DOF)(10分(角度)の分解能基準に対して約1ディオプトリ)、(5)クロストーク・フリー・ビューに対する限られたアイボックス(<5mm)、および(6)視野角の限られた分解能(1ビューあたり>20分(角度))に直面している。これらの制限は、高性能ソリューションとして技術を取り入れることに対する深刻な障害をもたらすだけでなく、調節および輻輳の矛盾問題に対処するための技術の効力を潜在的に弱める。
したがって、本開示は、上記で要約される最先端技術の性能限界のいくつかの態様を克服する、インテグラルイメージングに基づく高性能ヘッドマウント・ライトフィールド・ディスプレイの方法、設計および実施形態を詳述する。
本発明の1つの観点は、インテグラルイメージングに基づく高性能ヘッドマウントディスプレイ(HMD)に関連した方法を提供することであり、当該インテグラルイメージングにより、高い横分解能および縦分解能、広い被写界深度、クロストーク・フリー・アイボックス、および視野角の分解能の向上が達成される。この点に関連して、本発明は、インテグラルイメージング方式のライトフィールドディスプレイを使用してヘッドマウントディスプレイ(HMD)において3Dシーンのライトフィールド画像をレンダリングする方法であって、可変焦点素子と当該可変焦点素子と光学的に連通するマイクロディスプレイとを有するインテグラルイメージング(InI)光学素子を提供する工程であって、前記インテグラルイメージング(InI)光学素子は当該光学素子に関連する中央奥行き面(CDP)を有するものである、前記提供する工程と、画像データを前記マイクロディスプレイ上に表示する工程であって、前記画像データは、それぞれが前記3Dシーンの異なる視点を表す要素画像を有するものである、前記表示する工程と、前記中央奥行き面(CDP)の位置を調整するために前記可変焦点素子の焦点距離を設定する工程とを有する、方法を提供することができる。前記方法は、シミュレーションされた仮想カメラアレイを使用して前記3Dシーンをサンプリングする工程を含み、それにより、各仮想カメラによって前記3Dシーンの各対応部分が取得され、複数の要素画像が生成される。前記複数の要素画像は集合的に前記マイクロディスプレイ上に表示される画像データを構成することができる。前記インテグラルイメージング(InI)光学素子は、視覚空間において前記マイクロディスプレイと光学的共役面にある仮想中央奥行き面(CDP)を生成するように構成されてもよい。前記3Dシーンは対象の奥行(DOI:depth of interest)を有し、当該奥行を通して視軸に沿って延在する。前記3Dシーンはまた、対象の平均奥行(DOI)を有する。前記方法は、前記仮想中央奥行き面(CDP)の位置が前記3Dシーンの前記対象の平均奥行と一致するように前記前記可変焦点素子の焦点距離を設定する工程を含むことができる。
また、前記方法は、前記3Dシーンの前記対象の奥行(DOI)内において視軸に沿って配置された複数の奥行を選択する工程を含み、前記複数の奥行のうち選択された各奥行について、各仮想中央奥行き面(CDP)の位置が当該選択された各奥行と一致するように前記可変焦点素子の焦点距離を設定する工程を含み、それにより、前記複数の奥行のうち選択された各奥行と一致する、複数の仮想中央奥行き面(CDP)のうち選択された各仮想中央奥行き面(CDP)が生成される。前記複数の奥行のうち選択された各奥行について、前記方法は、当該選択された各奥行に関連付けられた前記3Dシーンの所定の部分を前記マイクロディスプレイ上に連続的に表示する工程を含むことができ、また、前記可変焦点素子の焦点距離を設定する工程を、前記マイクロディスプレイ上に連続的に表示するタイミングと同期させることができる。前記インテグラルイメージング(InI)光学素子はリレー群を含んでもよく、前記可変焦点素子は当該リレー群内に配置されている。このリレー群は、前記マイクロディスプレイによって生成されたライトフィールドを受け取って、選択された3Dシーンの光軸上に中間3Dシーンを生成するように構成されている。また前記リレー群は、前記中間3Dシーンの光軸に沿って位置調整されるように構成されている。前記マイクロディスプレイは、光学系の光軸に沿った選択的な位置において前記3Dシーンのライトフィールドを生成するように構成されていてもよく、前記リレー群は、前記選択された位置が当該リレー群と光学的に共役となる前記光軸上の所定の位置に配置される。また、前記インテグラルイメージング(InI)光学素子は、ヘッドマウントディスプレイ(HMD)システムのユーザの鑑賞用に前記中間3Dシーンを前記リレー群から前記光学系の射出瞳に対して画像化する接眼レンズを含むことができる。
さらなる観点において、本願発明は、インテグラルイメージング方式のライトフィールドディスプレイを使用してヘッドマウントディスプレイ(HMD)において3Dシーンのライトフィールド画像をレンダリングする方法であって、マイクロディスプレイを有するインテグラルイメージング(InI)光学素子を提供する工程であって、前記インテグラルイメージング(InI)光学素子は当該光学素子に関連する中央奥行き面(CDP)を有するものである、前記提供する工程と、シミュレーションされた仮想カメラアレイを使用して前記3Dシーンをサンプリングする工程を有し、それにより、各カメラによって前記3Dシーンの各対応部分が取得され、複数の要素画像が生成されるものであり、前記複数の要素画像は集合的に、前記マイクロディスプレイ上に表示される画像データを構成するものである、前記サンプリングする工程と、前記画像データを前記マイクロディスプレイ上に表示する工程とを有する方法を提供することができる。前記インテグラルイメージング(InI)光学素子は小型レンズからなるマイクロレンズアレイを含むことができ、前記3Dシーンをサンプリングする工程は、各仮想カメラの位置が前記マイクロレンズアレーの対応小型レンズの主光線方向とインテグラルイメージング(InI)光学素子の射出瞳との間の交差位置に対応するように位置付ける工程を含むことができる。各シミュレーションされた仮想カメラアレイの視軸は、インテグラルイメージング(InI)光学素子を通して観察される対応小型レンズの主光線の方向と一致する。さらに、前記3Dシーンをサンプリングする工程は、シミュレーションされた仮想センサーアレイを提供する工程を有し、各仮想センサーは、前記仮想カメラのうち1の選択された対応仮想カメラと光学的に連通して、シミュレーションされた仮想カメラ/センサーの対を提供するものであり、前記カメラ/センサーの各対の視野が前記マイクロレンズアレイの対応する各小型レンズの視野と一致するように前記カメラ/センサーの各対は離間して配置される。
本発明の例示的な実施形態の前述の概要および以下の詳細な説明は、添付の図面と併せて読み進めることでより理解できると考えられる。
図1は、接眼レンズが、マイクロディスプレイ上でレンダリングされた画像を拡大し、眼から固定された遠距離に現れる仮想ディスプレイを形成する従来の単眼HMDを概略的に示すものである。 図2は、インテグラルイメージングに基づくニアアイ・ライトフィールド・ディスプレイを概略的に示すものである。 図3Aは、本発明による高性能InI方式のヘッドマウント・ライトフィールド・ディスプレイの例示的な構成を概略的に示すものである。 図3Bは、本発明によるマイクロInIユニットの例示的な構成を概略的に示すものである。 図4A~4Dは、本発明による、アパーチャアレイ(図4A)、プログラマブル空間光変調器(図4B)、制御自在な指向性放射エンジン(controllable directional emissions engine)を有する表示源(図4C)、および例示的な制御自在な指向性放射エンジンとしての空間光変調器を有するバックライト源(図4D)を使用することにより、光線方向制御を提供するように構築されたマイクロInIユニットの例示的な構成を概略的に示すものである。 図4A~4Dは、本発明による、アパーチャアレイ(図4A)、プログラマブル空間光変調器(図4B)、制御自在な指向性放射エンジン(controllable directional emissions engine)を有する表示源(図4C)、および例示的な制御自在な指向性放射エンジンとしての空間光変調器を有するバックライト源(図4D)を使用することにより、光線方向制御を提供するように構築されたマイクロInIユニットの例示的な構成を概略的に示すものである。 図4A~4Dは、本発明による、アパーチャアレイ(図4A)、プログラマブル空間光変調器(図4B)、制御自在な指向性放射エンジン(controllable directional emissions engine)を有する表示源(図4C)、および例示的な制御自在な指向性放射エンジンとしての空間光変調器を有するバックライト源(図4D)を使用することにより、光線方向制御を提供するように構築されたマイクロInIユニットの例示的な構成を概略的に示すものである。 図4A~4Dは、本発明による、アパーチャアレイ(図4A)、プログラマブル空間光変調器(図4B)、制御自在な指向性放射エンジン(controllable directional emissions engine)を有する表示源(図4C)、および例示的な制御自在な指向性放射エンジンとしての空間光変調器を有するバックライト源(図4D)を使用することにより、光線方向制御を提供するように構築されたマイクロInIユニットの例示的な構成を概略的に示すものである。 図5は、本発明による、接眼レンズの射出瞳と共役な位置にVFE(可変焦点要素)が配置されたリレー群の例示的な構成を概略的に示すものである。 図6A~6Dは、本発明による、可変焦点リレー群の一部が接眼レンズに組み込まれた自由曲面導波路型プリズムを使用した光学式シースルーInI-HMD設計の例示的な構成を概略的に示すものであり、図6Aは、ディスプレイ光路レイアウトを示すものであり、図6Bは、シースルー・ビュー・レイアウトを示すものであり、図6Cは、拡張シースルービューのための導波路プリズムの区分化された裏面を示すものであり、図6Dは、導波路プリズムの裏面の正面図を示すものである。 図6A~6Dは、本発明による、可変焦点リレー群の一部が接眼レンズに組み込まれた自由曲面導波路型プリズムを使用した光学式シースルーInI-HMD設計の例示的な構成を概略的に示すものであり、図6Aは、ディスプレイ光路レイアウトを示すものであり、図6Bは、シースルー・ビュー・レイアウトを示すものであり、図6Cは、拡張シースルービューのための導波路プリズムの区分化された裏面を示すものであり、図6Dは、導波路プリズムの裏面の正面図を示すものである。 図6A~6Dは、本発明による、可変焦点リレー群の一部が接眼レンズに組み込まれた自由曲面導波路型プリズムを使用した光学式シースルーInI-HMD設計の例示的な構成を概略的に示すものであり、図6Aは、ディスプレイ光路レイアウトを示すものであり、図6Bは、シースルー・ビュー・レイアウトを示すものであり、図6Cは、拡張シースルービューのための導波路プリズムの区分化された裏面を示すものであり、図6Dは、導波路プリズムの裏面の正面図を示すものである。 図6A~6Dは、本発明による、可変焦点リレー群の一部が接眼レンズに組み込まれた自由曲面導波路型プリズムを使用した光学式シースルーInI-HMD設計の例示的な構成を概略的に示すものであり、図6Aは、ディスプレイ光路レイアウトを示すものであり、図6Bは、シースルー・ビュー・レイアウトを示すものであり、図6Cは、拡張シースルービューのための導波路プリズムの区分化された裏面を示すものであり、図6Dは、導波路プリズムの裏面の正面図を示すものである。 図7A~7Bは、本発明によるInI-HMD設計構成の2D光学レイアウトの例示的な構成を概略的に示すものであり、図7Aは、ライトフィールドディスプレイ光路を示すものであり、図7Bは、シースルー光路を示すものである。 図7A~7Bは、本発明によるInI-HMD設計構成の2D光学レイアウトの例示的な構成を概略的に示すものであり、図7Aは、ライトフィールドディスプレイ光路を示すものであり、図7Bは、シースルー光路を示すものである。 図8A~8Bは、軸上のフィールド(図8A)およびMLAの端部の近くの最も遠いMLA(マイクロレンズアレイ)要素のフィールド(図8B)に対する3ディオプトリの再構築された中央奥行き面(central depth plane:CDP)深度の変調伝達関数(modulation transfer function:MTF)プロットを示すものである。 図8A~8Bは、軸上のフィールド(図8A)およびMLAの端部の近くの最も遠いMLA(マイクロレンズアレイ)要素のフィールド(図8B)に対する3ディオプトリの再構築された中央奥行き面(central depth plane:CDP)深度の変調伝達関数(modulation transfer function:MTF)プロットを示すものである。 図9A~9Bは、MLAに対する軸上のフィールド(図9A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図9B)に対する2ディオプトリの再構築されたCDP深度のMTFプロットを示すものである。 図9A~9Bは、MLAに対する軸上のフィールド(図9A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図9B)に対する2ディオプトリの再構築されたCDP深度のMTFプロットを示すものである。 図10A~10Bは、MLAに対する軸上のフィールド(図10A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図10B)に対する0ディオプトリの再構築されたCDP深度のMTFプロットを示すものである。 図10A~10Bは、MLAに対する軸上のフィールド(図10A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図10B)に対する0ディオプトリの再構築されたCDP深度のMTFプロットを示すものである。 図11A~11Bは、MLAに対する軸上のフィールド(図11A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図11B)に対するCDPから0.25ディオプトリだけシフトされた再構築ポイントのMTFプロットを示すものである。 図11A~11Bは、MLAに対する軸上のフィールド(図11A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図11B)に対するCDPから0.25ディオプトリだけシフトされた再構築ポイントのMTFプロットを示すものである。 図12A~12Bは、MLAに対する軸上のフィールド(図12A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図12B)に対するCDPから0.5ディオプトリだけシフトされた再構築ポイントのMTFプロットを示すものである。 図12A~12Bは、MLAに対する軸上のフィールド(図12A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図12B)に対するCDPから0.5ディオプトリだけシフトされた再構築ポイントのMTFプロットを示すものである。 図13A~13Bは、MLAに対する軸上のフィールド(図13A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図13B)に対するCDPから0.75ディオプトリだけシフトされた再構築ポイントのMTFプロットを示すものである。 図13A~13Bは、MLAに対する軸上のフィールド(図13A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図13B)に対するCDPから0.75ディオプトリだけシフトされた再構築ポイントのMTFプロットを示すものである。 図14A~14Bは、MLAに対する軸上のフィールド(図14A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図14B)に対するCDPから1ディオプトリだけシフトされた再構築ポイントのMTFプロットを示すものである。 図14A~14Bは、MLAに対する軸上のフィールド(図14A)およびMLAの端部の近くの最も遠いMLA要素のフィールド(図14B)に対するCDPから1ディオプトリだけシフトされた再構築ポイントのMTFプロットを示すものである。 図15は、シースルー光路FOV65°×40°のMTFを示すものである。 図16は、本発明による、固定奥行モードで3Dシーンのライトフィールドをレンダリングする方法を概略的に示すものである。 図17Aは、マイクロディスプレイ上の要素画像(ELs)を示す。図17B~17Dは、本発明に基づいて作製されたHMDのプロトタイプによって取得された実世界標的および仮想標的の双方の画像を示し、当該HMDのプロトタイプは、図17Aの要素画像(ELs)について、カメラの焦点距離がそれぞれ1ディオプトリ(図17B)、0.5ディオプトリ(図17C)、3ディオプトリ(図17D)の固定奥行モードで動作された。 図18は、本発明による、可変奥行モードで3Dシーンのライトフィールドをレンダリングする方法を概略的に示すものである。 図19A、19Bは、本発明に基づいて作製されたHMDのプロトタイプによって取得された実世界標的および仮想標的の双方の画像を示し、当該HMDのプロトタイプは、仮想中央奥行き面(CDP)が3ディオプトリに設定されるとともに、カメラの焦点距離がそれぞれ3ディオプトリ(図19A)、0.5ディオプトリ(図19B)の可変奥行モードで動作された。 図20は、複数奥行モードで3Dシーンのライトフィールドをレンダリングする方法を概略的に示すものである。 図21A、21Bは、本発明に基づいて作製されたHMDのプロトタイプによって取得された実世界標的および仮想標的の双方の画像を示し、当該HMDのプロトタイプは、仮想中央奥行き面(CDP)が3ディオプトリに設定されるとともに、カメラの焦点距離がそれぞれ3ディオプトリ(図21A)、および0.5ディオプトリ(図21B)の複数奥行モードで動作された。
ここで、図を参照すると、図全体を通して同様の要素に同様に番号が付けられており、図3Aに示されるように、本発明によるHMDシステム100は、3つの主要なサブシステム、すなわちI)超小型InIユニット(マイクロInI)130と、II)リレー群120であって、内部に配置された、InIユニット130からライトフィールドを受け取るための可変焦点要素(VFE)122を有する、リレー群120と、III)リレー群120から調整された中間3Dシーンを受け取るための接眼レンズ光学部品110とを含む。図3Bに例示されるように、マイクロInIユニット130は、制約された視野ゾーンから見える3Dシーンの全方向視差ライトフィールドを再現することができ、全方向視差ライトフィールドは、水平視線方向と垂直視線方向との両方からの3Dシーンの視点の変化を提供する。制約された視野ゾーンは、光学的には、マイクロInIユニット130のアパーチャの制限に対応し、制約された視野ゾーンは、光学的には、表示システム100の射出瞳と共役であり、鑑賞者の眼は、再構築された3Dシーンを見るように置かれる。リレー群120はマイクロInIユニット130によって再構築された3Dシーンの中間像を生成し、その中央奥行き面(central depth plane:CDP)の位置は調整可能なようになっている。接眼レンズ110の倍率に応じて、CDPの位置は、光学的無限大(0ディオプトリ)~20cm(5ディオプトリ)の近さまで広がる大きい奥行き範囲で3Dシーンの知覚を生成するために、約0.5mm~数百ミリメートルの大きさまでの範囲で調整可能である。また、リレー群120は、再構築された3DシーンAOBの凹面の反転を容易にすることもできる。接眼レンズ光学部品110は、鑑賞者の眼に調整可能な3Dライトフィールドをリイメージングし、3Dライトフィールドの調整可能な奥行き範囲を数メートルの遠さから数センチメートルの近さまで間隔がある幅広い奥行き体積空間に拡大する。ビームスプリッタ機能を有する光学部品であるシースルーユニット(図示せず)は、接眼レンズ光学部品110と光学的に連通して、シースルービューが望ましい場合に現世界シーンを遮ることのない視野を光学的に可能にする。図3AのマイクロInIユニット130は、図3Bにさらに例示されるように、高解像度マイクロディスプレイおよびマイクロレンズアレイ(MLA)132を含む。MLA 132の小型レンズ133の焦点距離は、fMLAとして示され、マイクロディスプレイ134とMLA 132との間の間隙は、gとして示される。2D要素画像(それぞれ3DシーンAOBの異なる視点を表す)の組は、高解像度マイクロディスプレイ134上に表示することができる。MLA 132を通して、各要素画像は、空間的にインコヒーレントなオブジェクトとして機能し、要素画像の画素によって放射された円錐状の光線束は、交差して、光を放射して3D空間を占めるように見える3Dシーンの知覚を一体化して作り上げる。再構築されたミニチュアシーンの中央奥行き面(CDP)(z0の奥行き範囲)は、MLA 132から測定された距離lcdpに位置する。そのようなInIシステム130は、水平方向と垂直方向との両方における視差情報による3D表面形状AOBの再構築を可能にする。ユーザの観視のため、再構築された3Dシーンのライトフィールド(すなわち図3Bの曲線AOB)は、リレー群120を介して接眼レンズ光学部品110に光学的に結合することができる。分解能優先InIシステム(fMLA≠g)では、再構築された3Dシーンの中央奥行き面CDPは、マイクロディスプレイ134と光学的に共役であり、その位置は、
Figure 0007185331000001
によって与えられ、式中、MMLAは、マイクロInIユニット130の倍率であり、
Figure 0007185331000002
によって表現することができる。
図3A、4Aに示されるように、任意選択で、アパーチャアレイ136(MLA 132のピッチと整合する光線制御アパーチャのグループを含む)は、マイクロディスプレイ134とMLA 132との間に挿入することができる。各マイクロレンズ133に対応する小さいアパーチャは、望ましくない光線が隣接マイクロレンズ133に達することを阻止し、または近隣の要素画像からの光線がマイクロレンズ133に達することを阻止するとともに、意図された視野窓内の光線が光学部品を通して伝播し、アイボックスに達することを可能にする。例えば、アパーチャA1ブロックとアパーチャA2ブロックとの間の黒いゾーンは、ポイントP1からの破線の光線が、小型レンズMLA1に隣接するMLA2に達することを阻止する。阻止されたこれらの光線は、典型的には、InI表示システムにおいて観察される視野クロストークおよびゴースト像の主要な原因である。マイクロディスプレイ134からアパーチャアレイ136までの距離は、gaとして示され、アパーチャ開口部の直径は、paとして示され、
Figure 0007185331000003
によって制約され、式中、ga-maxおよびpa-maxは、それぞれ最大許容間隙およびアパーチャサイズであり、peiは、要素画像の寸法であり、pmlaは、MLA 132のピッチである。
固定アパーチャサイズを有するアパーチャアレイ136の使用における欠点の1つは、要素画像のサイズが変化した場合、各要素画像の端部の近くに位置する画素に対する光線を部分的に阻止する場合があることである。図4Aに例示されるように、小型レンズMLA1を通して伝播するはずのポイントP1からの光線のごく一部は、アパーチャA1とアパーチャA2との間の黒いゾーンによって阻止され、鑑賞者が各要素画像の端部の近くのポイントに対して画像明度の低減を観察するビネッティングのような効果を引き起こす。図4Bは、図4Aのものの代替の構成を示し、アパーチャアレイ136は、プログラマブル空間光変調器(spatial light modulator:SLM)135と交換され、その結果、各アパーチャのサイズおよび形状は、所望の光線の部分的阻止を回避するように動的に適応させることができる。図4Cは、本発明によるマイクロInIユニットの別の実施形態を示し、マイクロディスプレイ134およびアパーチャアレイ136は、制御自在な指向性放射を有する表示源131と交換され、発光方向は、各画素からの光線がそれらの対応するMLA小型レンズ133のみに達するように精密に制御することができる。図4Dは、そのような表示源131の1つの可能な構成を実証し、空間光変調器135は、非指向性放射を有するバックライト源138と、非自発光型マイクロディスプレイ137との間に挿入されている。空間光変調器135は、マイクロディスプレイ137に照射され、MLA 132に達する光線の円錐角をプログラムおよび制御するように設定することができる。
従来のInI方式の表示システムは、典型的には、3D再構築ポイントの奥行きがCDPの奥行きからシフトしているときの空間分解能の急速な劣化による限られた被写界深度(DOF)に直面する。例えば、3Dシーンの体積は、視覚空間における空間分解能を3分(角度)またはより良好に維持するために、0.5ディオプトリ未満に制限する必要がある。図3Aの例示的な構成においてなど、高空間分解能を維持しながらはるかに大きい3Dシーンの体積をレンダリングするため、電子制御される可変焦点要素122が内側に挟まれたリレー群120は、マイクロInI 130と接眼レンズ110との間に挿入される。例示的なVFE 122は、液体レンズ、液晶レンズ、可変鏡、または他の任意の調整可能な光学技術(電気的に調整可能な光学技術など)を含む。異なる電圧をVFE 122に印加することによってリレー群120のオプティカルパワーφRを動的に制御することにより、リレー群120は、マイクロInI 130によって生成された再構築されたミニチュア3Dシーンの中間像A'O'B'を形成する。リレーされた中間シーンの中央奥行き位置CDPは、接眼レンズ110に対して軸方向に(光軸に沿って)調整可能である。その結果、接眼レンズ110による拡大された3D仮想シーンの奥行き体積は、高い横分解能および縦分解能を維持しながら、非常に近く(例えば、5ディオプトリ)から非常に遠く(例えば、0ディオプトリ)に軸方向にシフトすることができる。
図5は、図3Aのリレー群120などの可変焦点リレー群120の例示的な構成を概略的に例示し、マイクロInIユニット130に隣接する前部レンズ群「前部リレー」126と、光学系の絞りとして機能する中間に位置するVFE光学部品122と、接眼レンズ110に隣接する後部レンズ群「後部リレー」124とを含む。リレー群120の複合パワーφRは、
Figure 0007185331000004
によって与えられ、式中、φ1、φVFE、およびφ2は、それぞれ前部レンズ群126、VFE 122、および後部レンズ群124のオプティカルパワーである。t1およびt2は、前部レンズ群126とVFE 122との間の間隔およびVFE 122と後部レンズ群124との間の間隔である。z0は、前部レンズ群と、マイクロInIユニット130によって再構築された3Dシーンとの間の軸方向距離である。リレーされた中間シーンの軸位置は、
Figure 0007185331000005
によって与えられる。
可変焦点リレー光学系の横倍率は、
Figure 0007185331000006
によって与えられる。
φeは、接眼レンズ110のオプティカルパワーであり、ZRCDPは、リレーされたCDPから接眼レンズ110までの距離であると想定すると、接眼レンズ110を通した再構築された3D仮想シーンの見かけのCDP位置は、
Figure 0007185331000007
によって与えられる。
接眼レンズ110を通した全光学系の横倍率は、
Figure 0007185331000008
によって与えられる。
接眼レンズ110を通した全光学系の視野(FOV)は、FOV=
Figure 0007185331000009
によって与えられ、式中、t3は、接眼レンズ110と後部リレーレンズ124との間の間隔であり、zxpは、射出瞳と接眼レンズ110との間の間隔であり、h0は、再構築されたシーンの画像高さであり、
uvfe=[(1-zxpφe)-(zxp+(1-zxpφe)t3)φ2]およびhvfe=[(1-zxpφe)-(zxp+(1-zxpφe)t3)φ2]-[(zxp+(1-zxpφe)t3)φ2+((1-zxpφe)-(zxp+(1-zxpφe)t3)φ2)]t2
をさらに定義する。
接眼レンズ110の射出瞳と光学的に共役であるようにVFE 122を設定すると((すなわちhvfe=0)、眼の入射瞳は、ディスプレイ134を見るように置かれ、hvfe=0を有し、FOVは、VFE 122のオプティカルパワーから独立している。式(9)の式は、
Figure 0007185331000010
に簡略化される。
図5に例示されるように、可変焦点リレー群120の好ましい実施形態は、VFE 122が接眼レンズ110の射出瞳と光学的に共役となるようにするために((すなわちhvfe=0)、前部リレー群26の後側焦点距離にVFE 122を配置すること(すなわちt1=1/φ1)である。この好ましい実施形態を用いると、式(4)によって与えられるリレー群120の複合パワーφRは、
Figure 0007185331000011
に簡略化される。
式(6)によって与えられる可変焦点リレー光学系の横倍率は、
Figure 0007185331000012
に簡略化される。また、式(8)によって与えられる全光学系の横倍率も簡略化される。
t1=1/φ1およびhvfe=0の場合、光学系のFOVは、
Figure 0007185331000013
にさらに簡略化される。
式(10)~(13)によって実証されるように、好ましい方法でのVFE 122の慎重な位置決めは、物体空間テレセントリシティのプロパティによる一定の主光線方向に起因して、リレー群120の複合オプティカルパワーがVFE 122のオプティカルパワーから独立して一定に維持されることを保証する。式(13)によってさらに実証されるように、接眼レンズ110を通したディスプレイの対する画角は、VFE 122のオプティカルパワーから独立して一定にさらに維持される。リレー群120に対して一定のオプティカルパワーを維持することは、CDPの焦点深度に関わらず、仮想的に再構築された3Dシーンが一定の視野を達成する上で役立つ。したがって、視線方向連動(gaze-contingent)または時間多重化モードにおけるシームまたはアーチファクトなしで、3Dシーンのはるかに大きい体積を仮想的に知覚することができる。注目すべき点は、t2=1/φ2が満たされる場合、式(12)によって与えられるリレー群120の横倍率を一定にさらに維持できることであり、それにより、可変焦点リレー群120は、ダブルテレセントリック光学系になる。
図3Aの接眼レンズ110は、多くの異なる形態を取ることができる。例えば、光学式シースルーHMDのコンパクトな光学設計を達成するため、ウェッジ形状の自由曲面プリズムを取り入れることができ、ウェッジ形状の自由曲面プリズムを通して、マイクロInIユニット130およびリレー群120によって再構築された3Dシーンは、拡大されて見られる。ARシステムに対するシースルー能力を可能にするため、自由曲面プリズムによって実世界シーンに導入された視軸偏位および望ましくない収差を補正するように、表面の1つがビームスプリッタコーティングでコーティングされた自由曲面補正レンズを自由曲面プリズム接眼レンズに取り付けることができる。
本発明の別の観点では、リレー群120の一部は、調整可能な中間3Dシーンが自由曲面接眼レンズの内側に形成されるように、自由曲面接眼レンズなどの接眼レンズ光学部品110に組み込むことができる。それに関連して、接眼レンズは、例えば、ウェッジ形状の自由曲面導波路型プリズムである。図6Aは、複数の自由曲面光学表面によって形成された自由曲面導波路のようなプリズム850の概念を概略的に例示する。射出瞳は、拡大された3Dシーンを見るために使用の眼が置かれる場所に位置する。設計では、VFE 122に続く従来のリレー群220の一部は、プリズム850に組み込まれ、「VFEを有するリレー群」とラベル付けされたボックス内に含まれる自由曲面導波路型プリズム850の上部851によって機能が果たされる。3Dポイント(例えば、A)から放射された光線は、最初に、リレー群220の最も近い光学要素126で屈折し、プリズム850内に透過し、中間像(例えば、A')を生成するために1または複数の自由曲面での反射が続く。中間像(例えば、A')の軸位置は、VFE 122によって調整可能である。後続の表面による複数の連続的な反射および出口表面855を通した最終的な屈折により、光線は、光学系の射出瞳に達することができる。異なる要素画像からの複数の光線束が存在するが、これらの光線束は、明らかに同じオブジェクトポイントから放射されたものであり、その束の各々は、オブジェクトの異なるビューを表し、射出瞳の異なる位置に入射する。これらの光線束は、眼の前に位置する仮想3Dポイント(例えば、「A」)を一体化して再構築する。複数の光学要素を必要とするよりむしろ、光学経路は、多面プリズム850内で自然に折り曲げられ、回転対称要素を使用した設計と比べて、光学部品の全体積および重量を実質的に低減する上で役立つ。従来のウェッジ形状の3面プリズムを使用した設計と比べて、導波路のような接眼レンズ設計は、リレー機能の一部を組み込み、スタンドアロンリレー群120を3面プリズムと組み合わせたものよりはるかにコンパクトな光学系を可能にする。コンパクト性の利点以外に、導波路のようなマルチフォールド接眼レンズ設計は、残りのリレー群およびマイクロInIユニットを水平方向においてこめかみ側の方に折り畳む能力を可能にするため、はるかに好ましいフォームファクタを提供する。マルチフォールドは、はるかに重量バランスの取れた光学系をもたらすのみならず、ウェッジ形状のプリズムを使用するよりも実質的に大きいシースルーFOVも可能にする。
ARシステムに対するシースルー能力を可能にするため、接眼レンズ部分としてマーク付けされた図6Aのプリズム850の裏面の下部853は、ビーム分割鏡としてコーティングすることができ、少なくとも2つの自由曲面光学表面を含む自由曲面補正レンズ840は、自由曲面プリズム850によって実世界シーンに導入された視軸偏位および望ましくない収差を補正するようにプリズム850の裏面に取り付けることができる。シースルー概略レイアウトは、図6Bに示される。仮想ライトフィールドからの光線は、プリズム850の裏面で反射し、実世界シーンからの光線は、自由曲面補正レンズ840およびプリズム850を通して透過する。自由曲面補正レンズ840の前面は、プリズム850の裏面の形状と整合する。自由曲面補正レンズ840の後面は、レンズがプリズム850と組み合わされる際に実世界シーンから光線に導入されるシフトおよび歪みを最小化するように最適化することができる。追加の補正レンズ「補正要素(compensator)」は、全光学系のフットプリントおよび重量を著しく増加することはない。
本発明の別の観点では、接眼レンズ部分としてマーク付けされた図6Aのプリズム850の裏面の下部853は、2つのセグメント、すなわちセグメント853-1およびセグメント853-2に分割することができる。図6Cに概略的に例示されるように、853-1のセグメントは、マイクロInIユニットによって生成されたライトフィールドを受け取る反射性または部分反射性の表面である。また、853-1のセグメント上のビーム分割鏡コーティングは、実世界シーンからの光線の透過も可能にする。セグメント853-2は、透過性または半透過性の表面であり、マイクロInIユニット130によって生成されたライトフィールドを受け取らず、実世界シーンからの光線のみを受け取る。図6Dは、プリズム850の裏面の正面図を概略的に例示する。2つの表面セグメント853-1および853-2は、マイクロInIユニット130によって再構築された3Dライトフィールドを受け取るために必要なアパーチャ窓の上方境界で交差し、2つの別個の自由曲面によって作ることができる。異なる光路を有する2つの別個のセグメント853-1、853-2への裏面853の下部の分割は、仮想ディスプレイ光路の制約を受け取ることなく、ディスプレイ光路のFOVを超えてシースルービューのFOVを実質的に拡大する能力を提供する。図6Cに示されるように、自由曲面補正レンズ840は、自由曲面プリズム850によって実世界シーンに導入された視軸偏位および望ましくない収差を補正するようにプリズム850の裏面に取り付けることができる。仮想ライトフィールドからの光線は、プリズム850の裏面のセグメント853-1で反射し、実世界シーンからの光線は、プリズム850のセグメント853-1および853-2と自由曲面補正レンズ840との両方を通して透過する。表面セグメント853-2は、自由曲面補正レンズ840と組み合わされる際にシースルービューの視覚的アーチファクトを最小化するように最適化することができる。自由曲面補正レンズ840の前面は、プリズム850の表面セグメント853-1および853-2の形状と整合する。自由曲面補正レンズ840の後面は、自由曲面補正レンズ840がプリズム850と組み合わされる際に実世界シーンから光線に導入されるシフトおよび歪みを最小化するように最適化することができる。
本発明のさらなる別の観点によれば、図7Aは、図6Aの概念的システムを具体化する物理的システム700の光学設計を概略的に例示する。図7Aは、ライトフィールドディスプレイ光路の2D光学レイアウトを例示し、図7Bは、シースルー光路の光学レイアウトを示す。ライトフィールドディスプレイの光学系700は、マイクロInIユニット、VFEを有するリレー群、および自由曲面導波路を含む。リレー群の一部は、導波路に組み込むことができる。マイクロInIユニットは、マイクロディスプレイS0、ピンホールアレイS1、およびマイクロレンズアレイS2を含む。リレー群は、4つのレンズと、市販のVFE(Optotune Inc.によるElectrical Lens EL10-30)と、2つの自由曲面(表面S19およびS20)とを含む。自由曲面導波路型プリズム900は、S19、S20、S21、およびS22としてそれぞれラベル付けされた複数の自由曲面光学表面によって形成することができる。本設計では、VFEに続く従来のリレー群の一部は、プリズム900に組み込むことができ、表面S19およびS20によって機能を果たすことができる。3Dポイント(例えば、A)から放射された光線は、最初に、プリズム900の表面S19で屈折し、中間像(例えば、A')を生成するために表面S20での反射が続く。中間像(例えば、A')の軸位置は、VFEによって調整可能である。表面S21'およびS22-1でのもう2つの連続的な反射並びに表面S21を通した最終的な屈折により、光線は、システム700の射出瞳に達することができる。異なる要素画像からの複数の光線束が存在するが、これらの光線束は、明らかに同じオブジェクトポイントから放射され、その各々は、オブジェクトの異なるビューを表し、射出瞳の異なる位置に入射する。これらの光線束は、眼の前に位置する仮想3Dポイントを一体化して再構築する。導波路の表面S21'で反射した光線は、全内部反射の条件を満たす必要がある。プリズム900の裏面S22-1、S22-2は、実世界シーンのビューを阻止する没入型HMDシステムを構築するために、ミラーコーティングでコーティングすることができる。或いは、表面S22-1は、図7Bに示されるように、補助レンズを使用した光学式シースルー能力が望ましい場合、ビームスプリッタコーティングでコーティングすることができる。
本明細書で開示される設計では、Z軸は、視線方向に沿い、Y軸は、左右の瞳孔を結ぶ方向と位置合わせされた水平方向に平行であり、およびX軸は、頭の向きと位置合わせされた垂直方向にあることに留意すべきである。その結果、全導波路システムは、水平(YOZ)平面に対して対称であり、光学表面(S19、S20、S21、およびS22)は、水平なY軸に沿って非共軸であり、且つ垂直なX軸を中心として回転する。光学経路は、水平なYOZ平面において折り曲げられる。この配置により、マイクロInIユニットおよび可変焦点リレー群は、ユーザの頭のこめかみ側に装着することができ、バランスの取れた人間工学的なシステムパッケージングを提供することができる。
表1は、図7Aのシステムの重要な性能仕様のいくつかを強調する。システム700は、3Dシーンの真の3Dライトフィールドをレンダリングする能力を提供し、35°の対角線のFOVに対しており、視覚空間において1つの画素あたり2分(角度)の高さの光分解能を達成する。その上、システム700は、単眼ディスプレイに対して約0.1ディオプトリの高い縦分解能を有し、0~5ディオプトリで調整可能な大きい奥行き範囲を提供する。その上、システム700は、約0.5/mm2の高いビュー密度(view density)を達成し、ビュー密度σは、射出瞳の単位面積あたりの一意のビューの数として定義され、
Figure 0007185331000014
によって与えられ、式中、Nは、ビューの総数であり、AXPは、表示システムの射出瞳の面積である。0.5/mm2のビュー密度は、0.2ディオプトリの距離に位置するオブジェクトに対する約1分(角度)の視野角分解能に等しい。クロストーク・フリー・ビューに対する射出瞳直径(ディスプレイのアイボックスとしても知られている)は、約6mmである。この実施形態では、射出瞳直径は、市販のVFEのアパーチャサイズによって制限され、別のより大きいアパーチャのVFEを取り入れる場合、増加することができる。最後に、システムは、大きいシースルーFOV(水平方向に65°および垂直方向に40°より大きい)を提供する。本発明者らのプロトタイプで利用されるマイクロディスプレイは、8μmのカラー画素および1920×1080の画素解像度を有する0.7インチ(約1.778cm)の有機発光ディスプレイ(organic light emitting display:OLED)(SonyによるECX335A)である。しかし、光学設計自体は、異なる寸法のOLEDパネルまたは他のタイプのマイクロディスプレイ(6μmより大きいカラー画素サイズを有する液晶ディスプレイなど)をサポートすることができる。
Figure 0007185331000015
表2~5では、光学表面データの形態で図7Aのシステム700の例示的な実装形態が提供される。表2は、ディスプレイ光路の基本的なパラメータを要約する(単位:mm)。表3~5は、非球面の光学表面を定義する最適化係数を提供する。
Figure 0007185331000016
6μmの小ささの画素を有する高解像度マイクロディスプレイは、高解像度の仮想再構築3D画像を達成するために取り入れられる。マイクロInIユニットに対するそのような高解像度画像を達成するため、具体的には、非球面によって形成されたマイクロレンズアレイ(MLA)を設計することができる。MLAの非球面の各々は、
Figure 0007185331000017
として説明することができ、式中、zは、局所x、y、z座標系のz軸に沿って測定された表面のサグ量(sag)であり、cは、頂点曲率であり、rは、半径方向距離であり、kは、円錐定数であり、A~Eは、それぞれ4次、6次、8次、10次、および12次変形係数である。MLAの材料は、PMMAである。表3は、表面S1およびS2に対する係数を提供する。
Figure 0007185331000018
シースルーFOVの拡大を可能にするため、自由曲面導波路型プリズム900は、表面S19、S20、S21/S21'、S22-1、S22-2とそれぞれラベル付けされた5つの自由曲面によって形成することができる。自由曲面補正レンズは、2つの自由曲面によって形成することができ、前面は、導波路プリズム900の表面S22-1およびS22-2と同じ表面仕様を共有し、裏面は、表面S23と示される。S22-1の表面セグメントは、マイクロInIユニットによって生成されたライトフィールドを受け取る反射性または部分反射性の表面である。また、S22-1のセグメント上のビーム分割鏡コーティングは、シースルー能力に対する実世界シーンからの光線の透過も可能にする。表面セグメントS22-2は、透過性または半透過性の表面であり、マイクロInIユニットによって生成されたライトフィールドを受け取らず、実世界シーンからの光線のみを受け取る。
S19、S20、S21/S21'、S22-1、S23を含む自由曲面は、
Figure 0007185331000019
として数学的に説明することができ、式中、zは、局所x、y、z座標系のz軸に沿って測定された自由曲面のサグ量であり、cは、頂点曲率(vertex curvature:CUY)であり、rは、半径方向距離であり、kは、円錐定数であり、およびCjは、xmynに対する係数である。導波路プリズムと補償レンズとの両方の材料は、PMMAである。表4~8は、S19~S21、S22-1、S23の表面に対する係数を提供し、表9は、各光学表面の表面基準を提供する。
設計プロセス中、表面セグメントS22-1に対する仕様は、マイクロInIユニット、リレーレンズ群、および表面S19、S20、S21/21'、S22-1から構成されるプリズム900を通したライトフィールドディスプレイ光路の最適化後に得られた。最初に、ライトフィールドディスプレイ光路に対して、表面S20およびS22-1の必要なアパーチャ寸法が決定された。次いで、表面S22-2が作成されたSolidworks(登録商標)などの3Dモデリングソフトウェアに表面S20、S21、S22-1がインポートされた。表面S22-2の形状は、次の要件、すなわち(1)ディスプレイ光路によって定義された表面S22-1に必要なアパーチャの上方境界線に沿ってまたは上方境界線の上方で表面S22-1と交差すること、(2)表面S22-2と表面S22-2との間の交差線に沿って、表面S22-2上の交点における表面傾斜がほぼ整合することであるが、等しくない場合、表面S22-1上のそれらの対応する点が、2つの表面がほぼ連続しているように見えることを保証し、それにより、整合する自由曲面補正レンズと組み合わされた際にシースルービューに対する視覚的アーチファクトが最小化されること、(3)表面S22-2が、ディスプレイ光路によって定義された表面S20に必要なアパーチャの下方境界線に沿ってまたは下方境界線の下方で表面S20と交差すること、(4)表面S21およびS22-2間の全体的な厚さが最小化されることを満たすことにより、モデリングソフトウェアにおいて作成された。最後に、閉鎖性の自由曲面導波路型プリズムを作成するため、表面S22-2の自由曲面形状は、表面S19、S20、S21/21'、S22-1と組み合わされた3Dモデリングソフトウェアにおいて得られる。図7Bは、上記で説明される方法を通して、実質的に拡大されたシースルーFOVを実証した。
Figure 0007185331000020
Figure 0007185331000021
Figure 0007185331000022
Figure 0007185331000023
Figure 0007185331000024
Figure 0007185331000025
Figure 0007185331000026
Figure 0007185331000027
Figure 0007185331000028
Figure 0007185331000029
Figure 0007185331000030
Figure 0007185331000031
Figure 0007185331000032
Figure 0007185331000033
Figure 0007185331000034
Figure 0007185331000035
設計プロセス中、3つの代表波長465nm、550nm、630nmが選択され、それらの波長は、選択されたOLEDマイクロディスプレイ内の青色、緑色および赤色エミッタのピーク発光スペクトルに対応する。MLAの合計で21個の小型レンズがサンプリングされ、各々は、9つの要素画像ポイントを表し、合計で189のフィールドサンプルになる。画質を評価するため、接眼レンズと同じ倍率を有する理想的なレンズがシステムの射出瞳(視野窓)に配置され、それにより最終的な画像に対して20.83lp/mmのカットオフ周波数が生じる(マイクロディスプレイの画素サイズによって制限される)。設計されたシステムの光学性能は、3つの設計波長に対する代表画角で評価された。調整可能なレンズVFEの倍率を変更することにより、光学性能の著しい変性をもたらすことなく、中央奥行き面を大きい範囲(例えば、0~3ディオプトリ)で軸方向にシフトすることができる。図8~10は、3、1、および0ディオプトリの深度でそれぞれ設定されたCDP上で再構築されたポイントに対する多色変調伝達関数(MTF)をプロットする。各CDP位置に対し、2組のMTFがプロットされ、1つは、軸上MLAに対応するフィールドに対するものであり、1つは、端部の近くの最も遠いMLAに対応するフィールドに対するものである。
他方では、特定の調整可能な状態に対して再構築画像が中央奥行き面からシフトされる際に3D再構築ポイントの画質がどのように劣化するかを評価することが等しく重要である。これは、調整可能なレンズの倍率を変更することなく、中央奥行き面をわずかな距離だけシフトすることによって評価することができる。図11~14は、CDPから0.25、0.5、0.75、および1ディオプトリだけそれぞれシフトされた再構築ポイントに対する多色MTFをプロットする。各深度に対し、2組のMTFがプロットされ、1つは、軸上MLAに対応するフィールドに対するものであり、1つは、端部の近くの最も遠いMLAに対応するフィールドに対するものである。
図15は、65°×40°のFOVに対する多色MTFをプロットする。FOV全体にわたり、シースルー光路は、30サイクル/度の周波数で50%を超える平均MTF値を達成し(20/20の正常視力に対応する)、60サイクル/度の周波数でほぼ20%の平均MTF値を達成した(20/10の視力または0.5分(角度)の視力に対応する)。
プロトタイプシステム(InI-HMDプロトタイプ)が、図7AのInI-HMD700、表1~9、および関連テキストから構築された。
本態様のさらなる側面として、本発明はインテグラルイメージング方式のライトフィールドディスプレイに関して、ライトフィールド画像を作成する方法を提供するものである。1つの例示的方法として、図16のフローチャートは、3D仮想シーン1603のライトフィールドの作成工程を示しており、ここで、InI-HMD光学系1600は、ディオプトリで測定される鑑賞者からの固定奥行(ZCDP)において、仮想中央奥行き面(CDP)1601を形成するものである(固定奥行モード・ライトフィールドディスプレイと呼ばれる)。仮想CDP1601は、可視空間におけるマイクロディスプレイ1601の光学共役面である。通常、CDP1609の奥行に位置する3D物体において、最高コントラストおよび解像能の3Dライトフィールドが再構築できる。
本発明の例示的固定奥行モード方法は、3D標的シーンのライトフィールド作成のため、鑑賞者の眼の位置に対して、InI-HMD光学系1600の仮想CDP1601の奥行を決定することから開始される。次に、IxJピンホールカメラで構成される仮想カメラアレー1604のシミュレーションが行われてもよい。アレー1604の各仮想カメラは、シミュレーションにおいて、各位置がマイクロレンズアレー(MLA)1606の対応小型レンズの主光線方向とInI-HMD光学系1600の射出瞳との間の交差位置に対応するように、並びに各仮想カメラの視軸がInI-HMD光学系を通して観察される対応小型レンズの主光線の方向と一致するように、配置される。シミュレーションされた仮想カメラアレー1604に対応するのが、IxJ仮想センサーで構成されるシミュレーションされた仮想カメラセンサーアレー1605である。各仮想センサーは、KxLのピクセル分解能を有していてもよい。仮想カメラの投影面1613は、InI-HMD光学系1600の仮想CDP1601の奥行に一致するように設定され、シミュレートされた仮想カメラアレー1604とセンサーアレー1605との間の距離(カメラ相当焦点距離(EFL)fとして周知)は、カメラ/センサーの各対の視野(FOV)がMLA1606の各小型レンズのFOVと一致するように設定される。仮想3Dシーン1603は、その基準として、シミュレーションされた仮想カメラアレー1604を用いて計算される。以下では、便宜上、ディオプトリで測定される3Dシーン物体の奥行Zは、鑑賞者との関係で、あるいは同様にシミュレーションされた仮想カメラアレー1604との関係で参照される。仮想カメラ1604とセンサー1605との各対は、3Dシーンの3Dライトフィールドにおける計算済み(作成済み)2D要素画像(EI)(シミュレーションされた仮想カメラ1604で見られる3Dシーンとは僅かに異なる視点を表す)に対応している。次に、斯かるEIはモザイク化され、マイクロディスプレイ1602用に、IKxJLのフル分解能ライトフィールド画像モザイク1607が作成されてもよい。(ここで注意されるべきは、要素1603、1604、1605、1607は、物理的ディスプレイ1602へ伝達されるデータを提供するためにコンピュータでシミュレーションされた非物理的要素であることである。)フル分解能の画像1607は、InI-HMD光学系1600のマイクロディスプレイ1602を通して表示される。再構築仮想3Dシーン1608が、鑑賞者の閲覧用として、InI-HMD光学系1600を通して奥行Zで再構築される。例えば、現在の例示的実施において、3Dコンピュータグラフィックに関する従来のレンダリングパイプライン(F.S. Hill, Jr., Computer Graphics Using OpenGL, 2nd Edition, Publisher: Prentice Hall, 1990など)の後、3D標的シーン1603の15x9要素画像アレー(各々125x125のカラーピクセルから成る)がシミュレーションされる。斯かるEIはモザイク化され、マイクロディスプレイ1602用に、1920x1080のフル分解能画像が作成されてもよい。
InI-HMDプロトタイプを用いて、ディスプレイシステム700、1600のCDP1609が鑑賞者から1ディオプトリの固定距離に設定されるように、同調可能レンズ122、S10~S16の光学倍率を固定する(従来のInI方式のHMDのディスプレイ特性をシミュレーションするため)ことにより、実証実験が実行された。(現在の固定奥行モード方法においては同調可能レンズは必要ないので、光学倍率は固定されていた。)固定奥行CDPモードでライトフィールド光学系1600の光学的性能を実証するため、鑑賞者またはInI-HMD光学系の射出瞳から3ディオプトリ、1ディオプトリ、および0.5ディオプトリ離れた位置に3つの奥行き面を有する仮想3D標的シーン1603が作成された(図17A)。各奥行き面において、異なる空間分解能(スネレンレターの個々のストロークまたはギャップに関して、3、6、および10分角)および方位(水平および垂直)、並びに奥行インジケータ(「3D」、「1D」、および「0.5D」)を有するスネレンレターEの3つのグループが作成された。画像は、図16との関連で上述された方法を用いて作成された。図17Aは、マイクロディスプレイ1602用に作成された仮想3Dシーン1601に関する11x5EIの例示的モザイク1607を示しているが、仮想CDP1601は1ディオプトリに設定された。焦点手がかりの定性評価のため、3つのスポーク分解能標的が、仮想3Dシーン1603の3つの奥行き面の対応奥行に物理的に配置された。2448x2448ピクセルの2/3インチカラーセンサーを有するカメラ(図示しない)および16mmレンズが、鑑賞者の位置に使用された。カメラシステムは、全体的に、ピクセル当たり0.75分角の空間分解能を示していたが、これはディスプレイ光学系1600の空間分解能よりも実質的に優れていた。カメラレンズの入射瞳直径は、人間の眼の入射瞳直径に似るように、約4mmに設定された。図17Bは、実世界シーンを重ね合わせた再構築仮想3Dシーンの取得画像を示しており、カメラは1ディオプトリに焦点が合わされていた。カメラの焦点面の同じ奥行に置かれた実際の標的(矢印で示されている)および仮想標的(箱型で示されている)だけが正確かつ明瞭に解像されていることが観察できたが、これはInI方式のHMD700、1600の機能が鑑賞者に正確な焦点手がかりを提供できることを示している。さらに、1ディオプトリ標的の上の行の最も小さいスネレンレターが解像されており、この能力は、プロトタイプの空間分解能が、設計された公称分解能3分角に一致することを示している。現在の固定レンズ焦点の構成において、カメラの焦点面とは異なる奥行にある仮想標的のEIが適切に収束しておらず、図17Bにおいてレターの複数のコピーが取得される原因となっていることがさらに観察できる。図17Cおよび17D(それぞれ0.5ディオプトリおよび3ディオプトリに焦点を合わせたカメラを用いて、同じ仮想および実際世界シーンを取得した画像を示す)に示されるように、対応する奥行に合わせるようにカメラの焦点を調整した場合には、斯かる標的は適切に収束可能である。カメラ焦点奥行に対応する標的は、それぞれ箱型の印が付されていた。しかし、CDP以外の奥行き面で再構築された標的のコントラストおよび分解能は、従来のInI方式のHMD同様、比較的小さくて限定されたDOF(自由度)で維持されていたに過ぎず、斯かる標的のEIが正確に収束し、カメラの焦点面と同じ奥行に位置していたとしても、奥行き面を超えると甚だしく質を低下させた。例えば、図17Cの取得画像は6分角までに対応するレターを解像できるが、図17Dの取得画像は10分角に対応するレターしか解像できず、EIの収束は正確でなくなり始める。
本発明の同調可能レンズ1811、122(図18、7A)の支援により、CDP1809の奥行は動的に調節可能である。斯かる機能により、本発明のシステム1800は2つの異なるモード、すなわち可変奥行モード(図18、19A~19B)および時分割多重化方式の複数奥行モード(図20、21A~21B)で操作可能である。可変奥行モードにおいて、CDP1809の奥行は、表示コンテンツの平均奥行または対象の奥行(DOI:depth of interest)に従って、適応的に変化させることが可能である。複数奥行モードにおいては、同調可能レンズ1810、122の倍率は、いくつかの個別のCDP奥行に対応するいくつかの状態間で迅速に切り替えが可能であり、ライトフィールドレンダリングは同期状態において同じ速度で更新されるものであり、切り替えがフリッカーフリーの速度で生じる場合には、異なる奥行のコンテンツが時分割多重化され、拡張体積として観察される。
可変奥行モードにおいて3D仮想シーンのライトフィールドをレンダリングする方法が、図18のフローチャートに示されている。可変奥行モードは、ディオプトリで測定される3D標的シーン1603の対象の奥行ZDOIを決定する(鑑賞者の関心点で決定されてもよいし、コンピュータアルゴリズムで特定されてもよい)ことにより開始される。鑑賞者の関心点は、HMDシステムで利用可能であれば視線追跡装置で決定されてもよいし、コンピュータマウスのような他のユーザ入力装置で決定されてもよい。あるいは、視線追跡装置や他の入力装置に依存する代わりに、コンピュータアルゴリズムが、関連付けられた奥行マップから得られる仮想3Dの平均奥行に基づいて、あるいは画像処理アルゴリズムによって検出される仮想3Dシーンの特徴点に基づいて、標的シーンの対象の奥行を特定してもよい。シーン1603の対象の奥行が決定されると、制御装置1812(PCなど)が電気制御信号Vを可変焦点リレー群1810のVFE素子に適用し、リレーされた中間ミニチュア3Dシーン1815とInI-HMD光学系1800との間の距離ZRCDP(V)(ディオプトリで測定される)を適応的に変化させる。その結果、ディオプトリで測定されるInI-HMD光学系1800の仮想CDP1801の奥行ZCDP(V)が、標的シーン1603の対象の奥行に一致するように適応的に設定される。シミュレーションされた仮想カメラアレー1604および仮想カメラセンサーアレー1605は、カメラ投影面1813が3Dシーン1603の対象の奥行と一致していると言う点を除けば、図16に示される固定奥行と類似のやり方で構成される。レンダリング方法の残りの部分は、図16との関連で考察された方法と同一である。
可変奥行モードを実証するため、ディスプレイ光学系1800のCDP1809が3ディオプトリの奥行へ設定されるように、同調可能レンズ1811の光学倍率が変更された。仮想カメラおよび仮想センサーアレー1604、1605は、ディスプレイ光学系1800の仮想CDP1801の調整奥行にマッチするように適合された。次に、EIは3ディオプトリおよび0.5ディオプトリの標的用に再レンダリングされ、カメラ投影面は3ディオプトリの奥行にマッチするように調整された。図19A、19BはHMDを通して取得された画像を示しており、鑑賞者の位置にあるカメラ(図示しない)はそれぞれ3ディオプトリおよび0.5ディオプトリに焦点を合わせている。システム1800は、同調可能レンズ1811の光学倍率を正確に調整することにより、並びにマイクロディスプレイ1602にコンテンツを再生することにより、3ディオプトリの奥行に位置する標的(図19A)並びに図17Bにおける1ディオプトリに位置する標的用に、3分角と同レベルの空間分解能および画質を維持することができた。しかし、可変奥行モードは、ディスプレイハードウェアのCDPによって示された特定の奥行の近傍の標的のみに高分解度ディスプレイを達成する。図19Bに示されるように、0.5ディオプトリの奥行の標的は、カメラが斯かる0.5ディオプトリの標的の奥行に焦点を合わせている場合でさえ、所定のCDPからさらに離れていると言う理由で、図17Cの場合よりもさらにひどく低下した分解能を示す。
本態様のさらなる観点として、3D仮想シーン2003のライトフィールドを作成するための本発明による複数奥行モード方法が、図20のフローチャートに示されている。複数奥行モードにおいて、ディオプトリで測定される視軸に沿って分布された3D標的シーン2003に関して、我々はまず、対象の複数の奥行ZDOI(n)を選択した(ここで、ZDOI(1)は鑑賞者にディオプトリで最も近い奥行き面2003-1と画定され、ZDOI(N)は最も遠い奥行き面2003-Nと画定される)。対象の複数の奥行の配置は複数の要因の制約を受ける可能性がある。最も重要な要因は、角分解能要求、被写界深度要求、眼の調節エラーにおける許容閾値、および縦分解能要求である。対象の奥行選択に影響を及ぼす可能性のある他の要因には、可変焦点VFE1811が許容する奥行範囲、および3Dシーン2003の奥行分布である。奥行き面の全数Nはハードウェア設計によって制約を受ける可能性がある。例えば、対象の異なる奥行が時系列的に作成される時分割多重化の実施においては、VFE1811、マイクロディスプレイ1602、およびグラフィックハードウェアの更新フレームレートは以下の式で与えられる。
Figure 0007185331000036
ここで、fはフリッカーフリービューに要求される閾値リフレッシュレートであり、fVFEは光学倍率変更用の電気信号に対するVFE1811の最大応答速度であり、fdisplayはマイクロディスプレイ1602の最大リフレッシュレートであり、fはグラフィックレンダリングハードウェアの最大フレームレートである。ハードウェアが複数の奥行き面を同時に作成できる条件で空間多重化が実施できるならば、奥行き面の数は増大可能である。配置および対象の奥行の数が決定されたならば、レンダリング方法の残りの部分は以下のように実施できる。対象の選択された奥行ZDOI(n)(n=1...N)の各々に関して、制御装置1812は、可変焦点リレー群1810のVFE素子1811へ電気制御信号V(n)を適用し、その結果、リレーされた中間ミニチュア3Dシーン2105とInI-HMD光学系1800との間の距離ZRIM(V)が適応的に変更される。その結果、InI-HMD光学系1800の仮想CDP2001の奥行は、対象の与えられた奥行ZDOI(n)(n=1...N)にそれが一致するように適応的に設定される。シミュレーションされた仮想カメラアレー1604および仮想カメラセンサーアレー1605は、図18に記載されているのと類似の方法で、すなわち例えばカメラ投影面1813が対象の奥行ZDOI(n)(n=1...N)2003-1、2003-Nに一致するように、構成されてもよい。対象の与えられた奥行に関して3Dシーン2003の2D要素画像をレンダリングするため、3Dシーン2003の奥行マップが作成され、その結果、鑑賞者との関係でシーン物体の奥行情報が取得される。我々は、全3Dシーン2003の2D要素画像をレンダリングする代わりに、以下の式で画定される奥行範囲に位置する2D要素画像だけをレンダリングするものである。
Figure 0007185331000037
ここで、ZDOI(n-1)-ZDOI(in)およびZDOI(n-1)-ZDOI(ni)は、対象の与えられた奥行とその隣接奥行き面との間のディオプトリ間隔を画定する。ZDOI(n-1)は、n=1の場合、ディスプレイ1602によってレンダリングされる最も近い奥行限界を画定し、ZDOI(n+1)は、n=Nの場合、ディスプレイ1602によってレンダリングされる最も遠い奥行限界を画定する。レンダリングされた2D要素画像は、固定奥行モードまたは可変奥行モードの場合と同じ方法で一緒にモザイク化され、その結果、フル分解能ライトフィールド画像の第n番フレームが作成され、それが次に更新のためマイクロディスプレイ1602へ送られる。同じレンダリング方法が対象の次の奥行でも繰り返され、N奥行き面の全てがレンダリングされるまでそれが継続される。上述の通り、N奥行き面の全てが、時系列的方法、同時進行方法、あるいは斯かる2つの方法のハイブリッドでレンダリングされてもよい。
図20の複数奥行モードを実証するため、我々は、2つの時間多重化奥行き面(1つは3ディオプトリに配置し、もう1つは0.5ディオプトリに配置)を実施することにした。ディスプレイ1800の仮想CDP2001が3ディオプトリと0.5ディオプトリに設定されるように、同調可能レンズVFE1811の光学倍率が、2つの異なる信号V1およびV2によって電気的に連続的に制御された。2つの仮想CDP配置の各々において、我々は、3ディオプトリと0.5ディオプトリに配置された2つの分解能標的を含む標的シーン2003用のEIを再レンダリングした。この簡単な例の場合、0.5ディオプトリCDP配置用にレンダリングされたEIは、0.5ディオプトリに配置された標的物体のみをレンダリングし、同様に、3ディオプトリCDP配置用にレンダリングされたEIは、3ディオプトリに配置された標的物体のみをレンダリングした。個別にレンダリングされたEIは約30Hzのフレームレートで時間多重化方法によって表示され、同期状態においては、ディスプレイ1602のCDP2009は、3ディオプトリの奥行と0.5ディオプトリの奥行との間で迅速に切り替えられた。30Hzのリフレックスレートが用いられたのは、OLEDマイクロディスプレイ1602のリフレッシュレートが最高60Hzという制限の故である。図21A、21Bは、カメラ(図示しない)が鑑賞者の場所に置かれ、3ディオプトリと0.5ディオプトリの奥行にそれぞれ焦点を合わせているHMDによって取得された画像を示している。仮想ディスプレイに沿って、2つのスポーク分解能標的が、レターの対応奥行に物理的に配置された。図21Aに示されるように、カメラが3ディオプトリの奥行近くに焦点を合わせた場合、奥行近くに置かれた仮想物体および実物の両方(左側のレターおよびスポーク)において焦点がしっかり合っているように見えるが、遠い物体(右側のレターおよびスポーク)は、予想通り、焦点が合っておらず、顕著にぼやけている。図21Bは、カメラの焦点が0.5ディオプトリの遠い奥行に切り替えられた場合を示している。遠い奥行にあるレターと近い奥行にあるレターの両方共、カメラの対応焦点において相対的に明瞭であることがはっきり観察できる。二重奥行モードでディスプレイを駆動することにより、システムは、約3ディオプトリもの大きい奥行分離を有して、標的の高分解能ディスプレイを達成し、しかも実際の対応物に匹敵する焦点手がかりをレンダリングした。
本発明のInI方式のライトフィールドレンダリング方法に関する可変奥行モードおよび複数奥行モードは、CDP1809、2009の奥行が、可変奥行モードにおいて、対象の奥行に従って適応的に変化するという特徴、あるいは複数奥行モードにおいて、いくつかの個別奥行間で急速に切り替えられるという特徴を共有している。しかし、その視覚効果および焦点手がかりに関する意味合いは顕著に異なっている。例えば、図19に示されるように、InI-HMDの可変奥行モード(図18)において、CDP1809から離れたコンテンツは、潜在的に分解能が低下してはいるが、ライトフィールドレンダリングの性質故に、正確なぼやけキューを有してレンダリングされるものである。一方、従来の可変焦点HMDにおいては、焦点面から離れたコンテンツは、人工的にぼやけさせない限り焦点奥行上のコンテンツと同じ高分解能を有してはいるが、その2Dレンダリングの性質上、適切な焦点手がかりを示さない。複数奥行モード(図20)においては、従来の多焦点面HMDのアプローチと比較した場合の重要な利点は、同じ奥行範囲において、正確な焦点手がかりを作成するのに必要な奥行切り替えの数がはるかに少ないことであるが、多焦点システムにおいては、物理的焦点面から離れたコンテンツ用に焦点手がかりを作成する場合、奥行ブレンディングが必要となる。InI方式のライトフィールドレンダリングにおいては、3ディオプトリの奥行範囲に必要なのは2つの焦点奥行だけであり、さらにこの場合に作成される焦点手がかりはより正確で連続的でもある。
本発明の斯かる利点および他の利点は、上記の明細書から当業者には明白であろう。従って、本発明の広範な発明概念から逸脱することなく、変更または修正が上述の実施形態においてなされ得ることを当業者は認識するであろう。従って、本発明は本明細書記載の特定の実施形態に限定されるものではなく、全ての変更および修正が、特許請求の範囲に説明される本発明の範囲内および要旨に含まれるように意図されているものであることは理解されるべきである。

Claims (9)

  1. インテグラルイメージング方式のライトフィールドディスプレイを使用してヘッドマウントディスプレイ(HMD)において3Dシーンのライトフィールド画像をレンダリングする方法であって、
    マイクロディスプレイと小型レンズからなるマイクロレンズアレイとを有するインテグラルイメージング(InI)光学素子を提供する工程であって、前記インテグラルイメージング(InI)光学素子は当該光学素子に関連する中央奥行き面(CDP)を有するものである、前記インテグラルイメージング(InI)光学素子を提供する工程と、
    前記インテグラルイメージング(InI)光学素子と光学的に連通する接眼レンズを提供する工程であって、前記接眼レンズおよび前記インテグラルイメージング(InI)光学素子によりインテグラルイメージング方式のヘッドマウントディスプレイ(InI-HMD)光学系が提供されるものである、前記接眼レンズを提供する工程と、
    シミュレーションされた仮想カメラアレイを使用して前記3Dシーンをサンプリングする工程であって、それにより、各カメラによって前記3Dシーンの各対応部分が取得され、複数の要素画像が生成されるものであり、前記複数の要素画像は集合的に、前記マイクロディスプレイ上に表示される画像データを構成するものである、前記3Dシーンをサンプリングする工程と、
    前記画像データを前記マイクロディスプレイ上に表示する工程と
    を有
    前記3Dシーンをサンプリングする工程は、各仮想カメラの位置が前記マイクロレンズアレイの対応小型レンズの主光線方向と前記インテグラルイメージング方式のヘッドマウントディスプレイ(InI-HMD)光学系の射出瞳との交差位置に対応するように各仮想カメラを位置付ける工程を有するものである、
    方法。
  2. 請求項1記載の方法において、
    可変焦点素子を有する前記インテグラルイメージング(InI)光学素子を提供する工程と
    前記画像データを前記マイクロディスプレイ上に表示する工程は、前記3Dシーンの異なる視点を表す要素画像を有する前記画像データを表示する工程を含むものである、前記表示する工程と、
    前記可変焦点素子により、リレーされた前記3Dシーンの中間像を提供する工程であって、前記中間像は、中間中央奥行き面(CDP)を有するものである、前記中間像を提供する工程と、
    前記中間中央奥行き面(CDP)の位置を調整するために前記可変焦点素子の焦点距離を設定する工程と
    を有する、方法。
  3. 請求項1または2記載の方法において、前記インテグラルイメージング(InI)光学素子は、視覚空間において前記マイクロディスプレイと光学的共役面にある仮想中央奥行き面(CDP)を生成するように構成されているものであり、
    前記3Dシーンは関心対象の奥行(DOI:depth of interest)を有し、当該奥行を通して視軸に沿って延在するものであり、
    前記3Dシーンは関心対象の平均奥行(DOI)を有し、
    当該方法は、前記仮想中央奥行き面(CDP)の位置が前記3Dシーンの前記関心対象の平均奥行と一致するように前記可変焦点素子の焦点距離を設定する工程を有するものである、
    方法。
  4. 請求項1または2記載の方法において、前記インテグラルイメージング(InI)光学素子は、視覚空間において前記マイクロディスプレイと光学的共役面にある仮想中央奥行き面(CDP)を生成するように構成されているものであり、
    前記3Dシーンは関心対象の奥行(DOI)を有し、当該奥行を通して視軸に沿って延在するものであり、当該方法は、前記3Dシーンの前記関心対象の奥行(DOI)内において視軸に沿って配置された複数の奥行を選択する工程と、
    前記複数の奥行のうち選択された各奥行について、各仮想中央奥行き面(CDP)の位置が当該選択された各奥行と一致するように前記可変焦点素子の焦点距離を設定する工程であって、それにより、前記複数の奥行のうち選択された各奥行と一致する、複数の仮想中央奥行き面(CDP)のうち選択された各仮想中央奥行き面(CDP)が生成されるものである、
    方法。
  5. 請求項4記載の方法において、前記複数の奥行のうち選択された各奥行について、当該選択された各奥行に関連付けられた前記3Dシーンの所定の部分を前記マイクロディスプレイ上に連続的に表示する工程を有し、前記可変焦点素子の焦点距離を設定する工程は、前記マイクロディスプレイ上に連続的に表示するタイミングと同期しているものである、方法。
  6. 請求項~5のいずれか1つに記載の方法において、前記インテグラルイメージング(InI)光学素子はリレー群を有し、前記可変焦点素子は当該リレー群内に配置されているものであり、
    前記リレー群は、前記マイクロディスプレイによって生成されたライトフィールドを受け取って、選択された3Dシーンの光軸上に前記3Dシーンの中間像を生成するように構成されているものであり、
    前記リレー群は、前記3Dシーンの中間像の光軸に沿って位置調整されるように構成されているものである、
    方法。
  7. 請求項6記載の方法において、前記マイクロディスプレイは、前記光学系の光軸に沿った選択的な位置において前記3Dシーンのライトフィールドを生成するように構成されているものであり、
    前記リレー群は、前記光学系の光軸に沿った前記選択された位置が当該リレー群と光学的に共役となる前記光軸上の所定の位置に配置されるものである、
    方法。
  8. 請求項記載の方法において、各シミュレーションされた仮想カメラアレイの視軸は、前記インテグラルイメージング(InI)光学素子を通して観察される対応小型レンズの主光線の方向と一致するものである、方法。
  9. 請求項8記載の方法において、前記3Dシーンをサンプリングする工程は、シミュレーションされた仮想センサーアレイを提供する工程を有し、
    各仮想センサーは、前記仮想カメラのうち1の選択された対応仮想カメラと光学的に連通して、シミュレーションされた仮想カメラ/センサーの対を提供するものであり、
    前記カメラ/センサーの各対の視野が前記マイクロレンズアレイの対応する各小型レンズの視野と一致するように前記カメラ/センサーの各対は離間して配置されるものである、
    方法。
JP2020551390A 2018-03-22 2018-03-22 インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法 Active JP7185331B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2018/023682 WO2019182592A1 (en) 2018-03-22 2018-03-22 Methods of rendering light field images for integral-imaging-based light filed display

Publications (2)

Publication Number Publication Date
JP2021524052A JP2021524052A (ja) 2021-09-09
JP7185331B2 true JP7185331B2 (ja) 2022-12-07

Family

ID=67987806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551390A Active JP7185331B2 (ja) 2018-03-22 2018-03-22 インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法

Country Status (5)

Country Link
US (1) US11546575B2 (ja)
EP (1) EP3769512A4 (ja)
JP (1) JP7185331B2 (ja)
CN (1) CN111869204B (ja)
WO (1) WO2019182592A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2712059A1 (en) 2008-01-22 2009-07-30 The Arizona Board Of Regents On Behalf Of The University Of Arizona Head-mounted projection display using reflective microdisplays
KR102616391B1 (ko) * 2018-06-18 2023-12-20 뉴저지 인스티튜트 오브 테크놀로지 양안 장애의 진단 평가 및 선별을 위한 방법, 시스템 및 장치
CN110703456B (zh) * 2019-11-08 2021-07-20 深圳英伦科技股份有限公司 大景深集成成像三维显示装置及方法
CN111427166B (zh) * 2020-03-31 2022-07-05 京东方科技集团股份有限公司 一种光场显示方法及系统、存储介质和显示面板
JP2022039297A (ja) * 2020-08-28 2022-03-10 セイコーエプソン株式会社 虚像表示装置及び光学ユニット
US11947134B2 (en) * 2021-01-22 2024-04-02 National Taiwan University Device of generating 3D light-field image
IL305779A (en) * 2021-03-09 2023-11-01 Univ Arizona Devices and methods for improving the performance of imaging-based integral light field displays using time division schemes
US20220311984A1 (en) * 2021-03-26 2022-09-29 Lightspace Technologies, SIA System and method for rendering three-dimensional image content
TWM621801U (zh) * 2021-08-16 2022-01-01 大立光電股份有限公司 頭戴裝置
WO2023064271A1 (en) * 2021-10-15 2023-04-20 Google Llc Curved see-through lightguide with intermediate focus
GB2613017A (en) * 2021-11-22 2023-05-24 Wayray Ag Optical system of augmented reality head-up display device with improved visual ergonomics
CN114157852B (zh) * 2021-11-30 2022-12-13 北京理工大学 一种基于旋转双棱镜的虚拟相机阵列三维成像方法及系统
CN116413911A (zh) * 2021-12-31 2023-07-11 北京耐德佳显示技术有限公司 一种超薄型镜片、使用其的虚像成像装置和近眼显示器
CN114500977A (zh) * 2022-01-22 2022-05-13 深圳市帝泰光电有限公司 视觉增强的智能穿戴设备及实现立体视觉换位的方法
TWI828063B (zh) * 2022-02-15 2024-01-01 國立陽明交通大學 光學顯示系統
US11943417B2 (en) * 2022-07-13 2024-03-26 Huawei Technologies Co., Ltd. Three-dimensional integral-imaging light field display and optimization method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013114527A1 (de) 2012-12-19 2014-06-26 Nvidia Corporation Augennahe Anzeige mit Mikrolinsen-Array
US20140347361A1 (en) 2013-03-15 2014-11-27 Ostendo Technologies, Inc. 3D Light Field Displays and Methods with Improved Viewing Angle, Depth and Resolution
JP2016045644A (ja) 2014-08-21 2016-04-04 日本放送協会 画像生成装置、画像生成方法、及びプログラム
JP2017518532A (ja) 2014-05-30 2017-07-06 マジック リープ, インコーポレイテッド 仮想および拡張現実のためのアドレス可能焦点を伴う自由形状光学システムを用いて立体視を表示する方法およびシステム
JP2018007110A (ja) 2016-07-05 2018-01-11 株式会社ニコン 表示装置およびスクリーン

Family Cites Families (170)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3493290A (en) 1966-01-14 1970-02-03 Mitre Corp Three-dimensional display
US3632184A (en) 1970-03-02 1972-01-04 Bell Telephone Labor Inc Three-dimensional display
JPS503354A (ja) 1973-05-11 1975-01-14
EP0066402B1 (en) 1981-05-29 1985-09-11 Gec Avionics Limited Night vision goggles
US4669810A (en) 1984-02-03 1987-06-02 Flight Dynamics, Inc. Head up display system
US4753522A (en) 1985-06-03 1988-06-28 Ricoh Company, Ltd. Plastic lens assembly for use in copying machines
US4863251A (en) 1987-03-13 1989-09-05 Xerox Corporation Double gauss lens for a raster input scanner
US5880888A (en) 1989-01-23 1999-03-09 Hughes Aircraft Company Helmet mounted display system
JPH02200074A (ja) 1989-01-30 1990-08-08 Nippon Hoso Kyokai <Nhk> イメージインテンシファイア付固体撮像装置
GB8916206D0 (en) 1989-07-14 1989-11-08 Marconi Gec Ltd Helmet systems
JP2692996B2 (ja) 1989-12-25 1997-12-17 オリンパス光学工業株式会社 結像レンズ
US5109469A (en) 1990-11-01 1992-04-28 Itt Corporation Phosphor screen for correcting luminous non-uniformity and method for making same
US5172275A (en) 1990-12-14 1992-12-15 Eastman Kodak Company Apochromatic relay lens systems suitable for use in a high definition telecine apparatus
WO1992018971A1 (en) 1991-04-22 1992-10-29 Evans & Sutherland Computer Corp. Head-mounted projection display system featuring beam splitter
DE69325607T2 (de) 1992-04-07 2000-04-06 Raytheon Co Breites spektrales Band virtuelles Bildanzeige optisches System
US6008781A (en) 1992-10-22 1999-12-28 Board Of Regents Of The University Of Washington Virtual retinal display
US5526183A (en) 1993-11-29 1996-06-11 Hughes Electronics Helmet visor display employing reflective, refractive and diffractive optical elements
US5416315A (en) 1994-01-24 1995-05-16 Night Vision General Partnership Visor-mounted night vision visor
US7262919B1 (en) 1994-06-13 2007-08-28 Canon Kabushiki Kaisha Head-up display device with curved optical surface having total reflection
US5621572A (en) 1994-08-24 1997-04-15 Fergason; James L. Optical system for a head mounted display using a retro-reflector and method of displaying an image
JPH08160345A (ja) 1994-12-05 1996-06-21 Olympus Optical Co Ltd 頭部装着式ディスプレイ装置
US5625495A (en) 1994-12-07 1997-04-29 U.S. Precision Lens Inc. Telecentric lens systems for forming an image of an object composed of pixels
JP3658034B2 (ja) 1995-02-28 2005-06-08 キヤノン株式会社 画像観察光学系及び撮像光学系
US5818632A (en) 1995-04-13 1998-10-06 Melles Griot, Inc Multi-element lens system
JP3599828B2 (ja) 1995-05-18 2004-12-08 オリンパス株式会社 光学装置
US6469683B1 (en) 1996-01-17 2002-10-22 Nippon Telegraph And Telephone Corporation Liquid crystal optical device
JP3556389B2 (ja) 1996-05-01 2004-08-18 日本電信電話株式会社 ヘッドマウントディスプレイ装置
JPH09218375A (ja) 1996-02-08 1997-08-19 Canon Inc 疲労判定方法及びそれを用いた観察装置
JPH09219832A (ja) 1996-02-13 1997-08-19 Olympus Optical Co Ltd 画像表示装置
US5959780A (en) 1996-04-15 1999-09-28 Olympus Optical Co., Ltd. Head-mounted display apparatus comprising a rotationally asymmetric surface
JP3758265B2 (ja) 1996-04-24 2006-03-22 ソニー株式会社 3次元画像表示方法とその表示装置
US5880711A (en) 1996-04-24 1999-03-09 Sony Corporation Three-dimensional image display method and its display apparatus
US6028606A (en) 1996-08-02 2000-02-22 The Board Of Trustees Of The Leland Stanford Junior University Camera simulation system
GB9618720D0 (en) 1996-09-07 1996-10-16 Philips Electronics Nv Electrical device comprising an array of pixels
JP3924348B2 (ja) 1996-11-05 2007-06-06 オリンパス株式会社 画像表示装置
US6034823A (en) 1997-02-07 2000-03-07 Olympus Optical Co., Ltd. Decentered prism optical system
US6760169B2 (en) 1997-05-07 2004-07-06 Olympus Corporation Prism optical element, image observation apparatus and image display apparatus
JPH10307263A (ja) 1997-05-07 1998-11-17 Olympus Optical Co Ltd プリズム光学素子及び像観察装置
DE69824440T2 (de) 1997-11-05 2005-06-23 Omd Devices L.L.C., Wilmington Fokusfehlerkorrekturgerät
EP0960351A1 (en) 1997-12-11 1999-12-01 Koninklijke Philips Electronics N.V. Image display device and head-mounted display comprising such a device
US6236521B1 (en) 1998-02-09 2001-05-22 Canon Kabushiki Kaisha Objective lens and image pickup device using the same
US6198577B1 (en) 1998-03-10 2001-03-06 Glaxo Wellcome, Inc. Doubly telecentric lens and imaging system for multiwell plates
JP3279265B2 (ja) 1998-03-26 2002-04-30 株式会社エム・アール・システム研究所 画像表示装置
US6704149B2 (en) 1998-04-21 2004-03-09 Minolta Co., Ltd. Lens optical system
JPH11326820A (ja) 1998-05-18 1999-11-26 Olympus Optical Co Ltd 観察光学系及びそれを用いた観察装置
JP2000075240A (ja) 1998-08-26 2000-03-14 Mr System Kenkyusho:Kk 複合表示装置
JP2000199853A (ja) 1998-10-26 2000-07-18 Olympus Optical Co Ltd 結像光学系及び観察光学系
US6281862B1 (en) 1998-11-09 2001-08-28 University Of Washington Scanned beam display with adjustable accommodation
JP2000171714A (ja) 1998-12-07 2000-06-23 Olympus Optical Co Ltd 結像光学系
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
JP4550184B2 (ja) 1999-07-02 2010-09-22 オリンパス株式会社 観察光学系
JP2000231060A (ja) 1999-02-12 2000-08-22 Olympus Optical Co Ltd 結像光学系
JP2000249974A (ja) 1999-03-02 2000-09-14 Canon Inc 表示装置及び立体表示装置
CN100339739C (zh) 1999-04-02 2007-09-26 奥林巴斯株式会社 观察光学系统及使用了该系统的图像显示装置
EP1054280A3 (en) 1999-05-20 2004-08-18 Konica Corporation Zoom lens
JP2001066543A (ja) 1999-08-25 2001-03-16 Canon Inc 複合光学装置
US6243199B1 (en) 1999-09-07 2001-06-05 Moxtek Broad band wire grid polarizing beam splitter for use in the visible wavelength region
JP3391342B2 (ja) 1999-10-29 2003-03-31 ミノルタ株式会社 撮像レンズ装置
JP2001145127A (ja) 1999-11-12 2001-05-25 Shunichi Suda 3次元画像表示装置
JP3854763B2 (ja) 1999-11-19 2006-12-06 キヤノン株式会社 画像表示装置
KR100360592B1 (ko) 1999-12-08 2002-11-13 동부전자 주식회사 반도체 장치 및 그 제조 방법
JP2001238229A (ja) 2000-02-21 2001-08-31 Nippon Hoso Kyokai <Nhk> 立体画像撮影装置及び立体画像表示装置並びに立体画像撮影表示システム
US20010048561A1 (en) 2000-08-24 2001-12-06 Heacock Gregory L. Virtual imaging system for small font text
KR100386725B1 (ko) 2000-07-31 2003-06-09 주식회사 대양이앤씨 헤드 마운트 디스플레이용 광학 시스템
JP4727025B2 (ja) 2000-08-01 2011-07-20 オリンパス株式会社 画像表示装置
JP3658295B2 (ja) 2000-08-09 2005-06-08 キヤノン株式会社 画像表示装置
US6873335B2 (en) 2000-09-07 2005-03-29 Actuality Systems, Inc. Graphics memory system for volumeric displays
JP4583569B2 (ja) 2000-09-22 2010-11-17 オリンパス株式会社 観察光学系および撮像光学系
JP4646374B2 (ja) 2000-09-29 2011-03-09 オリンパス株式会社 画像観察光学系
US6563648B2 (en) 2000-10-20 2003-05-13 Three-Five Systems, Inc. Compact wide field of view imaging system
JP2002148559A (ja) 2000-11-15 2002-05-22 Mixed Reality Systems Laboratory Inc 画像観察装置及びそれを用いた画像観察システム
JP4943580B2 (ja) 2000-12-25 2012-05-30 オリンパス株式会社 結像光学系
US20020114077A1 (en) 2001-01-23 2002-08-22 Bahram Javidi Integral three-dimensional imaging with digital reconstruction
JP3658330B2 (ja) 2001-02-21 2005-06-08 キヤノン株式会社 複合表示装置及びそれを用いたヘッドマウントディスプレイ装置
JP2002258208A (ja) 2001-03-01 2002-09-11 Mixed Reality Systems Laboratory Inc 光学素子及びそれを用いた複合表示装置
US6529331B2 (en) 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US6731434B1 (en) 2001-05-23 2004-05-04 University Of Central Florida Compact lens assembly for the teleportal augmented reality system
US6963454B1 (en) 2002-03-01 2005-11-08 Research Foundation Of The University Of Central Florida Head-mounted display by integration of phase-conjugate material
US6999239B1 (en) 2001-05-23 2006-02-14 Research Foundation Of The University Of Central Florida, Inc Head-mounted display by integration of phase-conjugate material
JP4751534B2 (ja) 2001-07-24 2011-08-17 大日本印刷株式会社 光学系及びそれを用いた装置
JP4129972B2 (ja) 2002-02-18 2008-08-06 オリンパス株式会社 偏心光学系
KR100509370B1 (ko) 2002-12-30 2005-08-19 삼성테크윈 주식회사 촬영 렌즈
DE10306578A1 (de) 2003-02-17 2004-08-26 Carl Zeiss Anzeigevorrichtung mit elektrooptischer Fokussierung
KR20050106480A (ko) 2003-03-05 2005-11-09 쓰리엠 이노베이티브 프로퍼티즈 컴파니 회절 렌즈
JP4035476B2 (ja) 2003-04-23 2008-01-23 キヤノン株式会社 走査光学系、走査型画像表示装置および画像表示システム
US7152977B2 (en) 2003-04-24 2006-12-26 Qubic Light Corporation Solid state light engine optical system
US7077523B2 (en) 2004-02-13 2006-07-18 Angstorm Inc. Three-dimensional display using variable focusing lens
US20070246641A1 (en) 2004-02-27 2007-10-25 Baun Kenneth W Night vision system with video screen
US7339737B2 (en) 2004-04-23 2008-03-04 Microvision, Inc. Beam multiplier that can be used as an exit-pupil expander and related system and method
AU2005269256B2 (en) 2004-08-03 2008-08-07 Silverbrook Research Pty Ltd Head mounted display with wave front modulator
US7542209B2 (en) 2004-09-01 2009-06-02 Optical Research Associates Compact head mounted display devices with tilted/decentered lens element
JP4639721B2 (ja) 2004-09-22 2011-02-23 株式会社ニコン 三次元映像表示装置
JP4560368B2 (ja) 2004-10-08 2010-10-13 キヤノン株式会社 眼検出装置および画像表示装置
US7249853B2 (en) 2005-04-13 2007-07-31 Eastman Kodak Company Unpolished optical element with periodic surface roughness
US7405881B2 (en) 2005-05-30 2008-07-29 Konica Minolta Holdings, Inc. Image display apparatus and head mount display
US7360905B2 (en) 2005-06-24 2008-04-22 Texas Instruments Incorporated Compact optical engine for very small personal projectors using LED illumination
WO2007019347A2 (en) 2005-08-08 2007-02-15 University Of Connecticut Depth and lateral size control of three-dimensional images in projection integral imaging
US20070109505A1 (en) 2005-10-05 2007-05-17 Matsushita Electric Industrial Co., Ltd. Projection three-dimensional display apparatus
JP2007101930A (ja) 2005-10-05 2007-04-19 Matsushita Electric Ind Co Ltd 立体像要素画像作成表示方法および立体像表示装置
US7522344B1 (en) 2005-12-14 2009-04-21 University Of Central Florida Research Foundation, Inc. Projection-based head-mounted display with eye-tracking capabilities
WO2007085682A1 (en) 2006-01-26 2007-08-02 Nokia Corporation Eye tracker device
KR101255209B1 (ko) 2006-05-04 2013-04-23 삼성전자주식회사 인터레이스 방식으로 영상을 디스플레이 하는 고해상도입체 영상 디스플레이 장치
US20070273983A1 (en) 2006-05-26 2007-11-29 Hebert Raymond T Devices, methods, and systems for image viewing
KR100961305B1 (ko) 2006-06-08 2010-06-04 가부시키가이샤 시마즈세이사쿠쇼 촬상장치
JP2006276884A (ja) 2006-06-16 2006-10-12 Olympus Corp 偏心プリズム光学系
US7515345B2 (en) 2006-10-09 2009-04-07 Drs Sensors & Targeting Systems, Inc. Compact objective lens assembly
WO2008089417A2 (en) 2007-01-18 2008-07-24 The Arizona Board Of Regents On Behalf Of The University Of Arizona A polarized head-mounted projection display
JP4906680B2 (ja) 2007-11-02 2012-03-28 キヤノン株式会社 画像表示装置
US20090168010A1 (en) 2007-12-27 2009-07-02 Igor Vinogradov Adaptive focusing using liquid crystal lens in electro-optical readers
CA2712059A1 (en) 2008-01-22 2009-07-30 The Arizona Board Of Regents On Behalf Of The University Of Arizona Head-mounted projection display using reflective microdisplays
JP5169253B2 (ja) 2008-01-29 2013-03-27 ブラザー工業株式会社 画像表示装置
FR2928034B1 (fr) 2008-02-26 2010-03-19 New Imaging Technologies Sas Capteur matriciel pour tube amplificateur de lumiere
JP5329882B2 (ja) 2008-09-17 2013-10-30 パイオニア株式会社 ディスプレイ装置
CN101359089B (zh) 2008-10-08 2010-08-11 北京理工大学 轻小型大视场自由曲面棱镜头盔显示器光学系统
JP5341462B2 (ja) 2008-10-14 2013-11-13 キヤノン株式会社 収差補正方法、画像処理装置および画像処理システム
JP5464839B2 (ja) 2008-10-31 2014-04-09 キヤノン株式会社 画像表示装置
CN101424788A (zh) 2008-12-09 2009-05-06 中国科学院长春光学精密机械与物理研究所 一种眼镜式头盔显示器光学系统
US8331032B2 (en) 2009-02-19 2012-12-11 Drs Rsta, Inc. Compact objective lens assembly for simultaneously imaging multiple spectral bands
WO2010123934A1 (en) 2009-04-20 2010-10-28 The Arizona Board Of Regents On Behalf Of The University Of Arizona Optical see-through free-form head-mounted display
US8441733B2 (en) 2009-04-24 2013-05-14 David Kessler Pupil-expanded volumetric display
GB0909126D0 (en) 2009-05-27 2009-07-01 Qinetiq Ltd Eye tracking apparatus
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
JP2011085769A (ja) 2009-10-15 2011-04-28 Canon Inc 撮像表示装置
EP3611555A1 (en) 2009-11-19 2020-02-19 eSight Corporation Image magnification on a head mounted display
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
KR20130000401A (ko) 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
CN102782562B (zh) 2010-04-30 2015-07-22 北京理工大学 宽视场高分辨率拼接式头盔显示装置
JP2013532467A (ja) 2010-07-16 2013-08-19 マックギル テクノロジー リミテッド 小出し装置
US20120013988A1 (en) 2010-07-16 2012-01-19 Hutchin Richard A Head mounted display having a panoramic field of view
US20120019557A1 (en) 2010-07-22 2012-01-26 Sony Ericsson Mobile Communications Ab Displaying augmented reality information
DE102010040030B4 (de) 2010-08-31 2017-02-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Objektiv und Bildaufnahmesystem
JP5603716B2 (ja) 2010-09-06 2014-10-08 オリンパス株式会社 プリズム光学系、プリズム光学系を用いた画像表示装置及び撮像装置
US8503087B1 (en) 2010-11-02 2013-08-06 Google Inc. Structured optical surface
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
EP2656135B1 (en) 2010-12-24 2022-05-04 Magic Leap, Inc. Freeform waveguide prism
US20120160302A1 (en) 2010-12-27 2012-06-28 Jeffrey Michael Citron Trough shaped fresnel reflector solar concentrator
DE112012001032T5 (de) 2011-02-28 2014-01-30 Osterhout Group, Inc. Lichtsteuerung in am Kopf zu tragenden Displays
TWI490587B (zh) 2011-04-12 2015-07-01 Ability Entpr Co Ltd 光學變焦鏡頭
US11640050B2 (en) 2011-10-19 2023-05-02 Epic Optix Inc. Microdisplay-based head-up display system
KR101931406B1 (ko) 2012-01-24 2018-12-20 더 아리조나 보드 오브 리전츠 온 비핼프 오브 더 유니버시티 오브 아리조나 컴팩트한 시선추적 기능의 헤드 탑재형 디스플레이
JP6111635B2 (ja) 2012-02-24 2017-04-12 セイコーエプソン株式会社 虚像表示装置
US8985803B2 (en) 2012-03-21 2015-03-24 Microsoft Technology Licensing, Llc Freeform-prism eyepiece with illumination waveguide
JP6056171B2 (ja) 2012-03-29 2017-01-11 富士通株式会社 立体画像表示装置及び方法
US20130285885A1 (en) 2012-04-25 2013-10-31 Andreas G. Nowatzyk Head-mounted light-field display
US20130286053A1 (en) 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
US20130300634A1 (en) 2012-05-09 2013-11-14 Nokia Corporation Method and apparatus for determining representations of displayed information based on focus distance
CN102739945B (zh) * 2012-05-24 2014-09-03 上海理工大学 光场成像装置及方法
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
DE102013001097A1 (de) 2012-08-10 2014-02-13 Johnson Controls Gmbh Head-up-Display und Verfahren zum Betrieb eines Head-up-Displays
JP6019918B2 (ja) 2012-08-17 2016-11-02 セイコーエプソン株式会社 虚像表示装置
JP2015534108A (ja) 2012-09-11 2015-11-26 マジック リープ, インコーポレイテッド 人間工学的な頭部搭載型ディスプレイデバイスおよび光学システム
EP2910022B1 (en) 2012-10-18 2023-07-12 The Arizona Board Of Regents On Behalf Of The University Of Arizona Stereoscopic displays with addressable focus cues
JP6221223B2 (ja) 2012-11-16 2017-11-01 セイコーエプソン株式会社 光学部材及び虚像表示装置
WO2014113455A1 (en) 2013-01-15 2014-07-24 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for generating an augmented scene display
US9201193B1 (en) 2013-02-18 2015-12-01 Exelis, Inc. Textured fiber optic coupled image intensified camera
US9405124B2 (en) 2013-04-09 2016-08-02 Massachusetts Institute Of Technology Methods and apparatus for light field projection
US9519144B2 (en) 2013-05-17 2016-12-13 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display having a defect
CN103605214A (zh) 2013-11-21 2014-02-26 深圳市华星光电技术有限公司 立体显示装置
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
US10274731B2 (en) 2013-12-19 2019-04-30 The University Of North Carolina At Chapel Hill Optical see-through near-eye display using point light source backlight
JP6264878B2 (ja) 2013-12-24 2018-01-24 セイコーエプソン株式会社 導光装置、虚像表示装置及び導光装置の製造方法
US10244223B2 (en) * 2014-01-10 2019-03-26 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3D imaging systems
EP3107476B1 (en) 2014-02-21 2024-04-24 The University of Akron Imaging and display system for guiding medical interventions
WO2015134740A1 (en) 2014-03-05 2015-09-11 Arizona Board Of Regents On Behalf Of The University Of Arizona Wearable 3d augmented reality display with variable focus and/or object recognition
WO2016033317A1 (en) 2014-08-29 2016-03-03 Arizona Board Of Regent On Behalf Of The University Of Arizona Ultra-compact head-up displays based on freeform waveguide
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
CA3033651C (en) 2016-08-12 2023-09-05 Arizona Board Of Regents On Behalf Of The University Of Arizona High-resolution freeform eyepiece design with a large exit pupil
US10764552B2 (en) * 2017-05-26 2020-09-01 Google Llc Near-eye display with sparse sampling super-resolution

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013114527A1 (de) 2012-12-19 2014-06-26 Nvidia Corporation Augennahe Anzeige mit Mikrolinsen-Array
US20140347361A1 (en) 2013-03-15 2014-11-27 Ostendo Technologies, Inc. 3D Light Field Displays and Methods with Improved Viewing Angle, Depth and Resolution
JP2017518532A (ja) 2014-05-30 2017-07-06 マジック リープ, インコーポレイテッド 仮想および拡張現実のためのアドレス可能焦点を伴う自由形状光学システムを用いて立体視を表示する方法およびシステム
JP2016045644A (ja) 2014-08-21 2016-04-04 日本放送協会 画像生成装置、画像生成方法、及びプログラム
JP2018007110A (ja) 2016-07-05 2018-01-11 株式会社ニコン 表示装置およびスクリーン

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Huan Deng, et al.,The Realization of Computer Generated Integral Imaging Based on Two Step Pickup Method,PHOTONICS AND OPTOELECTRONIC (SOPO),2010 SYMPOSIUM ON,IEEE,PISCATAWAY,NJ,USA,米国,2010年
Huang, et al.,An integral-imaging-based head-mounted light field display using a tunable lens and aperture array,Journal of the Society for Information Display,米国,2017年,25/3,200-207
Kim Cheoljoong ,et al.,Depth-enhanced integral imaging display system with time-multiplexed depth planes using a varifocal liquid lens array,PROCEEEDINGS OF SPIE,米国,2015年,Vol.9385,D-1 - D-7

Also Published As

Publication number Publication date
WO2019182592A1 (en) 2019-09-26
US20210014473A1 (en) 2021-01-14
WO2019182592A8 (en) 2020-09-17
US11546575B2 (en) 2023-01-03
EP3769512A4 (en) 2021-03-24
CN111869204A (zh) 2020-10-30
JP2021524052A (ja) 2021-09-09
EP3769512A1 (en) 2021-01-27
CN111869204B (zh) 2023-10-03

Similar Documents

Publication Publication Date Title
JP7185331B2 (ja) インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法
JP7185303B2 (ja) インテグラルイメージングおよびリレー光学部品を用いたヘッドマウント・ライトフィールド・ディスプレイ
JP7182796B2 (ja) インテグラルイメージングおよび導波路プリズムを用いたヘッドマウント・ライトフィールド・ディスプレイ
JP6829285B2 (ja) 仮想および拡張現実のためのアドレス可能焦点を伴う自由形状光学システムを用いて立体視を表示する方法およびシステム
JP2024001099A (ja) 拡大視野を伴う自由曲面プリズムおよびヘッドマウントディスプレイ
Yu et al. Modern Display Technology

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221117

R150 Certificate of patent or registration of utility model

Ref document number: 7185331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150