JP2019500649A - 拡張現実ニアアイウェアラブルディスプレイのためのシステム及び方法 - Google Patents

拡張現実ニアアイウェアラブルディスプレイのためのシステム及び方法 Download PDF

Info

Publication number
JP2019500649A
JP2019500649A JP2018531339A JP2018531339A JP2019500649A JP 2019500649 A JP2019500649 A JP 2019500649A JP 2018531339 A JP2018531339 A JP 2018531339A JP 2018531339 A JP2018531339 A JP 2018531339A JP 2019500649 A JP2019500649 A JP 2019500649A
Authority
JP
Japan
Prior art keywords
optical element
diffractive optical
partially reflective
eye
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018531339A
Other languages
English (en)
Other versions
JP2019500649A5 (ja
JP7074672B2 (ja
Inventor
カイ,ジンボ
エル−ゴロウリー,フセイン・エス
ジョンカー,レジナルド
メイアーズ,マーティ
チュアン,チー−リー
Original Assignee
オステンド・テクノロジーズ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オステンド・テクノロジーズ・インコーポレーテッド filed Critical オステンド・テクノロジーズ・インコーポレーテッド
Publication of JP2019500649A publication Critical patent/JP2019500649A/ja
Publication of JP2019500649A5 publication Critical patent/JP2019500649A5/ja
Application granted granted Critical
Publication of JP7074672B2 publication Critical patent/JP7074672B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/4205Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having a diffractive optical element [DOE] contributing to image formation, e.g. whereby modulation transfer function MTF or optical aberrations are relevant
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/18Diffraction gratings
    • G02B5/1842Gratings for image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)

Abstract

ウェアラブル拡張現実ディスプレイシステムを提供する。1つ又は複数の発光型ディスプレイ素子は、眼鏡フレームのブリッジ領域に埋め込まれる。レンズに、透過型回折光学素子及び部分反射型回折光学素子のセットを設ける。ディスプレイ出力をレンズ素子に向けて配向し、次に回折素子が上記出力を、視認者のアイボックスに向けて配向する。

Description

関連出願の相互参照
本出願は、2015年12月18日出願の米国仮特許出願第62/269,510号の優先権を主張するものであり、上記仮特許出願は、参照によりその全体が本出願に援用される。
本開示の一態様は、概してウェアラブル電子機器に関し、より詳細には拡張現実(augmented reality:AR)ニアアイウェアラブルディスプレイに関する。
ウェアラブル光学電子装置は、集積回路及びディスプレイのサイズ、並びに関連するコストが縮小するに従って、一般化している。ウェアラブル光学電子装置は、多数の市販、軍事及び消費者向け用途を有する。従来のニアアイウェアラブルディスプレイによる解決策は、ユーザの快適さ又は審美性を考慮しない、煩わしく低解像度のアプローチを使用することが多い。
本明細書中の実施形態は、添付の図面の図において、限定ではなく例示として図示されており、これらの図では、同様の参照番号は同様の要素を示す。本開示中における、本発明の「ある(an)」又は「一(one)」実施形態に対する言及は、必ずしも1つの同一の実施形態に対するものではなく、これらの言及は「少なくとも1つ(at least one)」を意味していることに留意されたい。また、図面を簡潔にし、また図面の総数を低減するために、ある1つの所与の図を用いて本発明の2つ以上の実施形態の特徴を図示する場合があり、また、ある1つの所与の実施形態にとって、このような図中の全ての要素が必要なわけではない場合がある。
図1は、本明細書中のある実施形態による、ニアアイディスプレイ眼鏡のブリッジ部分の両側に埋め込まれた2つのイメージャ又は光変調器を説明するための、及び上記2つのイメージャから生成され、眼鏡レンズによって2つのアイボックス(eye‐box)へと再配向された、光の光線進路(ray trace)を説明するための、後方等角図である。 図2A、2Bは、本明細書中のある実施形態による、ニアアイディスプレイの片側のイメージャから放出され、透過型回折光学素子(transmissive diffractive optical element:TDOE)によって眼鏡レンズへと配向され、続いて部分反射型回折光学素子(reflective diffractive optical element:RDOE)によって瞳孔へと反射され、網膜上に集束する光線を説明するための、光線進路の図である。 図3は、眼鏡フレームのブリッジ部分内に2つのイメージャが埋め込まれ、2つのイメージャから生成された光の光線進路が眼鏡レンズによって2つのアイボックスへと再配向される実施形態を説明するための、ARニアアイディスプレイの上面図である。 図4は、2つのイメージャが眼鏡フレームのブリッジ部分内に埋め込まれた実施形態を説明するための、ARニアアイディスプレイの側面図である。 図5は、本明細書中のある実施形態による、眼鏡フレームのブリッジ部分内に埋め込まれた2つのイメージャと、2つのイメージャから生成され、眼鏡レンズによって2つのアイボックスへと再配向された、光の光線進路とを説明するための、ARニアアイディスプレイの非透視等角断面図である。 図6は、本明細書中のある実施形態による、ARニアアイディスプレイの視認者が知覚する、形成された仮想画像の位置を示す光線進路を説明するための図である。 図7は、本明細書中のある実施形態による、ARニアアイディスプレイが形成する1対のアイボックスのサイズ及び位置を説明するための正面図である。 図8は、本明細書中のある実施形態による、イメージャが放出し、TDOEによってARニアアイディスプレイレンズへと配向され、続いてレンズ内に埋め込まれたRDOE層によって視認者のアイボックスへと反射される光線の光線進路を説明するための図である。 図9は、本明細書中の1つの例示的実施形態によるARニアアイディスプレイを説明するための概略図である。 図10は、本明細書中のある実施形態による、2つのイメージャが眼鏡フレームのブリッジ部分の両側に埋め込まれ、2つのイメージャがARニアアイディスプレイのアーム組立体に埋め込まれた実施形態を説明するため、及び上記4つのイメージャから生成され、眼鏡レンズによってARニアアイディスプレイの2つのアイボックスへと再配向された光の光線進路を説明するための、透視等角背面図である。 図11は、本明細書中のある実施形態による、眼鏡フレームのブリッジ部分内に埋め込まれた2つのイメージャ、及びARニアアイディスプレイのアーム組立体に埋め込まれた2つのイメージャ、及び上記4つのイメージャから生成され、眼鏡レンズによって2つのアイボックスへと再配向された光の光線進路を示す、1つの例示的実施形態によるARニアアイディスプレイを説明するための上面線図である。
これより、添付の図面を参照していくつかの実施形態を説明する。態様が明示的に定義されていない場合は常に、本開示の範囲は図示されている複数の部分のみに限定されず、これらの部分は単に説明を目的としたものである。また、数多くの詳細を記載するものの、いくつかの実施形態はこれらの詳細を用いずに実践され得ることが理解される。他の例では、公知の回路、構造及び技法は、本説明の理解を不明瞭にしないよう、詳細に示されていない。
本発明者らは、形状因子が小さく、また例えば美観上満足できるものである消費者向け眼鏡フレームでの使用に好適な、高解像度の拡張現実ニアアイウェアラブルディスプレイの必要を理解している。本明細書に記載の実施形態は、このような拡張現実ニアアイウェアラブルディスプレイを提供する。
本明細書中の実施形態は、1つ又は複数の発光型ディスプレイ素子(本明細書ではイメージャ又は光変調器と呼ばれる)を備えてよく、これらは一般的な眼鏡フレームのブリッジ又はフレームに埋め込むことができる。本明細書に記載の実施形態の1つ又は複数のレンズは、透過型回折光学素子(TDOE)及び部分反射型回折光学素子(RDOE)を備えてよい。ディスプレイ出力はレンズ素子に向かって配向され、次に回折素子が上記出力を視認者のアイボックスに向けて配向する。
一実施形態では、拡張現実(AR)ディスプレイシステム(本明細書ではARウェアラブルディスプレイと呼ばれる)を提供する能力を備えた、消費者向け眼鏡の一般的な(又は典型的な)見た目のセットとして構成できる、ニアアイウェアラブルディスプレイを開示する。一実施形態では、上記眼鏡は湾曲視認レンズを有する。
一実施形態では、本開示のARウェアラブルディスプレイは、眼鏡の通常の(又は典型的な)見た目のセットのフレームシャーシ内に埋め込まれた、1つ又は複数の発光型マイクロピクセル光変調器を使用し、上記マイクロピクセル光変調器は、独立してアドレス指定できるフルカラー発光型マイクロピクセルのアレイと、上記発光型マイクロピクセルアレイを駆動するよう構成された電子回路とを備える、光電子半導体デバイスであり、これらは全て、眼鏡フレーム内に埋め込むために十分に小さい体積の単一の半導体チップ又はパッケージ内に集積される。
本明細書中の実施形態は、上述の光変調式発光型ディスプレイ素子の使用に限定されないこと、並びにOLED又は好適な電気的及び光学的特徴を有する同様のディスプレイ素子といったいずれの様式の電子ディスプレイ素子を用いてよく、これらは本開示の実施形態に関するいずれの請求項の精神及び範囲内であることを明記しておく。
1つの例示的実施形態では、ARウェアラブルディスプレイ眼鏡のフレーム内に埋め込まれた発光型マイクロピクセル光変調器デバイスは、量子フォトニックイメージャ(Quantum Photonic Imager)、即ち「QPI(登録商標)」イメージャをベースとしてよい。QPI(登録商標)は、 Ostendo Technologies, Inc.の登録商標である。H. El‐Ghorouryらが2010年3月19日に出願した米国特許第8,049,231号を参照されたい。これは、高解像度GaN‐GaAs積層ピクセルアレイの背面に集積された電源及び論理回路を有し、またピクセル積層体の上部に直接集積された超小型光学部品層を有する、超小型発光型固体光放出構造体技術である。この形態のイメージャは、極めて小さな体積しか占有しない、高電力効率ディスプレイを形成する。
本明細書に記載の実施形態と共に使用するために好適な、例示的なQPIイメージャ(超小型発光型固体光放出ディスプレイ素子)としては、限定するものではないが、米国特許第7,623,560号;米国特許第7,829,902号;米国特許第8,567,960号;米国特許第7,767,479号;米国特許第8,049,231号;米国特許第8,243,770号に開示されているものが挙げられ、これらの特許はそれぞれ「Quantum Photonic Imagers and Methods of Fabrication Thereof」という名称であり、本出願人に譲渡されており、各特許の内容全体が参照により本出願に援用される。
上述のQPIイメージャは、全ての必要なディスプレイ駆動回路構成を含む単一の発光型ディスプレイデバイスにおいて、高い輝度、非常に高速の光の多色強度、及び空間変調能力を特徴とする。本明細書に記載の実施形態の文脈において、用語「イメージャ」及び「光変調器デバイス」は、発光型マイクロスケール固体光(solid state light:SSL)放出ピクセルのアレイを備える光電子デバイスを包含することを意図したものである。このようなデバイスのSSL放出ピクセルは、発光ダイオード(LED)、又はレーザダイオード(LD)、又は発光型マイクロスケールピクセルアレイがその上に形成された若しくは埋め込まれたCMOS回路内に内包された駆動回路構成によってそのオン・オフ状態が制御されるいずれの固体光放出構造体であってよい。
QPIイメージャの発光性マイクロスケールピクセルアレイ内のピクセルは、駆動CMOS回路構成によって空間、色、時間的に個々にアドレス指定可能であり、これによりQPIイメージャは、空間、色、時間的に変調された光を放出できる。QPIイメージャが放出する複数の色が、同一のピクセルアパーチャを共有すると有益である。QPIイメージャは、コリメートされた(又は非ランバート)光を、約±5°〜約±45°の発散角度で放出する。QPIイメージャの発光性アレイを構成するピクセルのサイズは典型的にはおよそ5〜20マイクロメートルであり、このデバイスの典型的な発光表面積は、およそ15〜150平方ミリメートルとなる。QPIイメージャは、その発光性ピクセルアレイと上記イメージャの物理的縁部との間に最小の間隙を備えるように設計でき、これにより、多数のQPIイメージャを傾斜させて、任意のサイズの表示領域を生成できる。
投影に関わる距離(投射距離)が比較的小さくなるため、QPIイメージャを用いて投影されたディスプレイを、大きな電力を必要とすることなく、極めて高輝度のものとすることができる。上述の米国特許のQPIイメージャの微小光学素子及び集束モジュールは明らかに、非直線状投影表面及び投射距離を考慮して設計される。当然のことながら、QPIイメージャを、イメージャ若しくは光変調器として、又はイメージャ若しくは光変調器内で使用することが理想的であるものの、本明細書中の実施形態はそのように限定されず、望ましい場合には、本開示のイメージャ若しくは光変調器として、又は本開示のイメージャ若しくは光変調器内で、他のイメージャを使用してもよい。
図1に示すように、少なくとも2つの発光型マイクロピクセル光変調器デバイス110a、110bを、眼鏡フレーム100のブリッジ部分内に埋め込んでよく、少なくとも1つの上記デバイスが各側に存在し、また各デバイスは、その発光アパーチャ光軸が、それぞれの側の眼鏡レンズ120a、120bに向かって配向されるように位置決めされる。
各光変調器デバイスの発光アパーチャは、発光型マイクロピクセル光変調器デバイスが眼鏡ブリッジ部分の体積範囲内に完全に埋め込まれた状態を維持しながら、マイクロピクセル光変調器の光軸を、それぞれの側の眼鏡レンズに向かって配向するのを補助する、光学「カバー」を含んでよい。一実施形態では、各光変調器デバイスに関連する光学カバーは、光変調器デバイス及びその光学カバーを眼鏡ブリッジ部分の体積範囲内に完全に埋め込むことができるよう、体積が小さい。一実施形態では、光変調器デバイスを眼鏡ブリッジ部分の体積範囲内に完全に埋め込むことができるような体積効率を達成するために、光学カバーを透過型回折光学素子(本明細書中では「TDOE」と呼ぶ)として提供してよい。光変調器デバイスを回折光学素子と組み合わせる、ここで議論される構成により、湾曲したレンズを有する眼鏡を備える拡張現実ウェアラブルディスプレイを提供できる。よって、顔に近接してフィットする眼鏡フレームを、拡張現実ニアアイデバイスとして提供できる。TDOE光学カバーを有する眼鏡フレームの一例を、図2A、2Bの例に示す。
図2A及び2Bに移ると、眼鏡フレーム100と同様、眼鏡フレーム200は、光学レンズ220及び光変調器デバイス210を含む。図2A、2Bの実施形態では、光変調器デバイス210の発光アパーチャは、光変調器210の光軸を眼鏡レンズ220に向けて配向するのを補助するための、TDOE光学カバー215を含む。TDOE260は、レンズ220の、眼球230に対面する表面に堆積される。光変調器210から放出された光は、光学カバー215によってTDOE260に向かって配向され、次に、レンズ220の、周囲のシーンに対面する表面内に埋め込まれた、反射型回折光学素子(RDOE)250によって、部分的に反射される。RDOE250は、放出された光を眼球230の瞳孔に向かって反射し、これを網膜上に集束させる。図6は、ある例示的実施形態による、眼鏡フレーム600を装着したARニアアイディスプレイの視認者が知覚する、形成された仮想画像610の位置を示す。眼鏡フレーム600は例えば、図1に示す眼鏡フレーム100又は図2A、2Bに示す眼鏡フレーム200であってよい。
図2A、2Bの実施形態に示すように、光学カバー215等のTDOE光学カバーは、各光変調器デバイス210(例えば110a、110b)に関連付けられる。TDOE光学カバー215は、各アレイ内の光変調器デバイス210の各ピクセルの主な光線を、所望の角度方向にマッピングするよう構成してよく、これにより、光変調器デバイスのピクセルから放出された主な光線は、レンズ220からの反射後に眼球230の中央を通過し、従って快適な視認に必要な瞳孔適合機能が達成される。このようにして、各光変調器デバイスから放出される光を、瞳孔に向かうように操作できる。図2A、2Bに示す光線は、可視光スペクトル内の様々な色を表し得る。
更に、各光変調器デバイス(例えば210)に関連付けられた本記載のTDOE光学カバー215は、光変調器デバイスの各ピクセルから放出された主な光線を、所望の方向にマッピングすることが望ましく、これによって、網膜に投影された仮想画像の歪みを、光学歪み及び収差に関して十分に補正する。
他の実施形態ではTDOE光学カバー215は任意であってよいことに留意されたい。例えば、光変調器デバイスの各ピクセルからの光錐が大きく、輝度のロールオフが許容可能なレベルである状況では、TDOE光学カバー215を省略してよい。
各光変調器デバイス210に関連付けられたTDOE光学カバー215は、表面レリーフ又は体積レリーフナノインプリント技法を用いて実現してよい。一実施形態では、TDOE薄膜を、フォトリソグラフィプロセスを用いて実現してよい。一実施形態では、TDOE光学カバーの厚さは10〜30マイクロメートル(例えば10、13、15、20又は30マイクロメートル)であってよい。一実施形態では、TDOE光学カバーは、ブラッグ格子(例えばファイバブラッグ格子)であってよい。一実施形態では、TDOEは、体積ホログラフィック格子を備える。一実施形態では、上記格子は複数の直線で構成される。一実施形態では、上記格子は直線状ではない。一実施形態では、上記格子によって生成される面は、平面ではない。例えば上記格子は、高次多項式からなってよい。一実施形態では、上記格子は均一でなく、傾斜している。例えば上記格子は局在化されていてよく、及び/又は自由形状であってよく、形状は、眼鏡レンズの曲率半径及びニアアイディスプレイの視野によって規定される。一実施形態では、上記格子の上部及び底部は対称である。一実施形態では、上記格子の複数の線は、レンズの視認面全体にわたって連続していない(例えば不均一である)。一実施形態では、TDOEは、眼鏡レンズの全表面を被覆しない。一実施形態では、上記格子の複数の線は、光学画像全体を横断しなくてよい。
少なくとも図1、2A、2B、9に示すように、眼鏡のフレーム及びレンズ(例えば100、200)は、ヒトの前頭部の曲率半径と同一形状であってよく、光学カバーを通して光変調器デバイスのピクセルから放出された主な光線が、ヒトの眼の瞳孔と略共軸となる所定の位置において、眼鏡の湾曲したレンズと交差できるよう、十分な曲率半径を有する。図2A、2Bの実施形態では、TDOE光学カバー215を通して光変調器デバイス210のピクセルから放出された光線は、眼鏡フレーム200の湾曲したレンズに入射し、ニアアイディスプレイ装着者の瞳孔を名目上組み込んだニアアイディスプレイ200の視認アイボックスに向かって反射される。
図2A、2Bの光線進路において更に示されているように、一実施形態では、ニアアイディスプレイのアイボックスの直径240は約16mmであってよく、これは、ディスプレイ装着者の瞳孔の公称位置に眼球のサッカード(即ちある点から別の点へと焦点を変化させる瞳孔の運動)のためのマージンを加えたものを収容するために十分なものである。図7は、例示的な一実施形態による、ARニアアイディスプレイによって形成される1対のアイボックス730a、730bのサイズ及び眼鏡フレーム200に対する位置を示す、眼鏡フレーム200の正面図である。
図3は、2つのイメージャを含む実施形態の上面図であり、イメージャ310a、310bがそれぞれ眼鏡フレーム300のブリッジの一部分に埋め込まれている。眼鏡フレーム300は、眼鏡フレーム100又は眼鏡フレーム200と同様であってよい。図4は、この実施形態の側面図を示し、各イメージャ310(それぞれ310a、310b)が眼鏡フレーム300のブリッジの一部分に埋め込まれている。図5は、一実施形態による、眼鏡フレームのブリッジの部分に埋め込まれた2つのイメージャ510a、510bの詳細な図であり、上記眼鏡フレームは眼鏡フレーム100、200又は300と同様であってよく、光の光線進路は視認者のアイボックス520a、520bへと配向される。
図8は、イメージャ810が放出する光の光線進路が、視認者の眼球に対面する表面上にTDOE層830を有するARニアアイディスプレイレンズ820に向かって配向される様子を示す。放出された光は次に、レンズ820内に埋め込まれたRDOE層840によって、視認者のアイボックスに向かって反射される。図8に示されている光線の束850(それぞれ850a、850b、850c)は、可視光スペクトル内の様々な色を表し得る。
一実施形態では、レンズ820、光変調器デバイス810、TDOE830、RDOE840は、光線の束(850a、850b、850c)がそれぞれ、図8に示されている略同一の地点で出会うように構成され、これにより眼が視野を増大させることができる。図8の実施形態では、光変調器810のピクセルの放出角度は平坦であり、従ってTDOE光学カバー(図2A、2Bに図示)が不要となっていると想定している。
図8は、光変調器デバイス810から放出された光のイメージング経路が眼鏡レンズ820と交差して眼へと戻る様子を示す。図8には、眼鏡レンズの前面を通って眼へと伝達される周囲環境からの光が図示されていない。これを補償するために、一実施形態では、上述のTDOE光学カバー830に加えて、眼鏡フレームは、眼鏡レンズ820の外側表面(例えば眼鏡レンズの、周囲環境に対面する表面)上に設けられた、別のTDOEを有する。この第2のTDOEは、第1のTDOE830の光学的相補物であってよい。例えば第2のTDOEは、第1のTDOE830とは逆の傾斜及び方向を有してよい。従って第2のTDOEは、レンズを通して伝達された光の光学的効果を打ち消すことができる。
再び図2A、2Bを参照すると、一実施形態では、眼鏡フレーム200に対する眼球230の寸法(例えば角度、長さ)も決定してよい。直径240を含むアイボックスの寸法も決定される。これらの寸法を、眼鏡フレームのブリッジ上の光変調器デバイスの位置、及び選択された画像倍率と共に用いて、視野を算出する。光変調器デバイスが放出した光線は眼球内へと配向されてコリメートされるものと仮定して、光線及び眼鏡の表面の方向を考慮する。一実施形態では、上述の基準を用いて、TDOE及びRDOEを設計するためのパラメータを算出する。一実施形態では、最適化アルゴリズムを用いて上記パラメータを算出する。一実施形態では、光線眼鏡レンズの視認領域全体にわたるTDOE又はRDOEの特徴を包含又はサンプリングするために、多数の光線を追跡し、各位置における特徴を算出する。
16mmのアイボックスを有する上述の例示的実施形態では、ニアアイディスプレイの全視野(field of view:FOV)はおよそ10°である。しかしながら、アイボックスのサイズを例えば8mmまで低減すると、ニアアイディスプレイのFOVは15°超まで増大する。なお、8mmのアイボックスは、ディスプレイ装着者の瞳孔の公称位置にサッカードを加えたものを収容するために十分な大きさである。
ニアアイディスプレイ眼鏡の湾曲したレンズの反射性の態様は、眼鏡の湾曲したレンズ内に、図8の例においてRDOE840によって、及び図2A、2Bの例においてRDOE250によって示される部分反射型回折光学素子(RDOE)薄膜を埋め込むことによって、実現できる。眼鏡の湾曲したレンズ内へのDOEの埋め込みは、眼鏡の湾曲したレンズの片側上をコーティングした後、ポリマーの保護薄層で更にコーティングされる薄膜として、DOEを提供することによって実現できる。一実施形態では、RDOE薄膜を、眼鏡の視認用レンズの外側表面(例えばレンズの、周囲環境又はシーンに対面する表面)上に設ける。
一実施形態では、ニアアイディスプレイの湾曲したレンズ内に埋め込まれたRDOE薄膜は、ニアアイディスプレイの湾曲したレンズを通して周囲環境を見ることができるようにするために十分な透過性を有し、これにより本実施形態のニアアイディスプレイは、AR性能を有する、光学的に「シースルーの」(optical see‐through:OST)拡張現実(AR)システムとなる。一実施形態では、RDOE薄膜は部分的に反射性である。一実施形態では、RDOEは30%の反射率特性を有してよい。一実施形態では、RDOEの反射率は20〜60%であってよい。RDOEの反射率特性が高すぎると、ニアアイディスプレイ装着者による周囲環境の視認が限定される場合があることに留意されたい。しかしながら、RDOEは、光変調器デバイスから放出された光を効果的に反射するために十分な大きさの反射率特性を有していなければならない。従って一実施形態では、体積格子として実装されたRDOEを、シースルー光経路に対しては略透過性であるまま、光変調器デバイスからの光経路内の高反射率部品として挙動するように構成できる。この構成により、周囲シーンの輝度の効率が高まり、ほとんど低下しないことが保証される。
ニアアイディスプレイの湾曲したレンズ内に埋め込まれたRDOE薄膜は、表面レリーフ又は体積レリーフナノインプリント技法を用いて実現してよい。一実施形態では、RDOE薄膜を、フォトリソグラフィプロセスを用いて実現してよい。一実施形態では、RDOE光学カバーの厚さは10〜30マイクロメートル(例えば10、13、15、20又は30マイクロメートル)であってよい。一実施形態では、RDOE光学カバーは、ブラッグ格子であってよい。一実施形態では、RDOEは、体積ホログラフィック格子を備える。一実施形態では、上記格子は複数の直線で構成される。一実施形態では、上記格子は直線状ではない。一実施形態では、上記格子によって生成される面は、平面ではない。例えば上記格子は、高次多項式からなってよい。一実施形態では、上記格子は均一でなく、傾斜している。例えば上記格子は局在化されていてよく、及び/又は自由形状であってよく、形状は、眼鏡レンズの曲率半径及びニアアイディスプレイの視野によって規定される。一実施形態では、上記格子の上部及び底部は対称である。一実施形態では、上記格子の複数の線は、レンズの視認面全体にわたって連続していない(例えば不均一である)。一実施形態では、RDOEは、眼鏡レンズの全表面を被覆しない。一実施形態では、上記格子の複数の線は、光学画像全体を横断しなくてよい。
光変調器デバイスから放出された光を装着者の眼に向かって配向するのに加えて、ニアアイディスプレイの湾曲したレンズ内に埋め込まれたRDOE薄膜は、ニアアイディスプレイ装着者が知覚する仮想画像の十分な補正を保証するために、光学的倍率及びチルト収差補正を提供してよい。
一実施形態では、ニアアイディスプレイの、ナノインプリントされたTDOE及びRDOE層は、広域光を回折させるよう設計される。一実施形態では、ニアアイディスプレイの、ナノインプリントされたTDOE及びRDOE層は、可視光スペクトルを包含する広域光を回折させるよう設計される。
DOEによって達成される回折角度は、典型的には波長に左右され、また、各光変調器デバイスに関連付けられたTDOE光学カバーを通って伝達される光、及びニアアイディスプレイの湾曲したレンズ内に埋め込まれたRDOEによって反射された光の、色分離を引き起こす。この色分離は、TDOE及びRDOEそれぞれを、可視スペクトルのある1つの部分帯域の光を回折させるよう設計された多層として実現することによって、緩和できる。
本明細書中の実施形態のニアアイディスプレイの新規の特徴は、TDOE及びRDOEを用いて互いの色分離を補償する点である。この色分離補償アプローチでは、TDOE及びRDOEの両方を、可視光スペクトルの中央の波長、およそ550nmの波長をベースとして設計し、そしてTDOEの回折軸を、RDOEの対向する軸内となるように整列させ、これにより、550nm未満の波長の光をTDOEによってある方向に回折させた後で、RDOEによって、上記550nmの光の角度と同一の角度に向かって戻るように回折させる。同様の効果が、550nm超の波長を有する光に関しても発生する。この光はまず、TDOEによって、上記550nmの光の反対側において回折させられ、その後RDOEによって、上記550nmの光の角度と同一の角度に向かって戻るように回折させられる。
本明細書中の実施形態のニアアイディスプレイの更なる新規の特徴は、光変調器デバイスを用いた補正をデジタル方式で実施して、色分離を補償するために、赤色及び青色ソース画像のデジタルワーピング及びスケーリングを利用する点である。
本明細書中の実施形態のARニアアイウェアラブルディスプレイは更に、ARニアアイウェアラブルディスプレイの各レンズの入力画像アパーチャに結合された少なくとも1つの画像ソース(又はイメージャ)を備え、各イメージャは、複数の多色ピクセルを備えるデジタル画像を生成でき、また、ARニアアイウェアラブルディスプレイのレンズの入力画像アパーチャの面積及び必要な発散角度に概ね一致する光出力アパーチャを有する。
1つ又は複数のイメージャを、ARニアアイウェアラブルディスプレイのレンズに光学的に結合することにより、単一ビュー画像又はマルチビュー光照射野画像を変調できる。ARウェアラブルディスプレイのレンズに光学的に結合されたイメージャは、ARウェアラブルディスプレイの視認者の視野を妨害する大きな突出を引き起こさずにレンズに結合できるよう、十分に小型である。
一実施形態では、ARウェアラブルディスプレイのレンズに光学的に結合されたイメージャは、これを発光タイプとし、ARウェアラブルディスプレイの装着者の視野を妨げる突出をもたらす嵩高い光学素子を備える光学的インタフェース(又はリレー)を必要とすることなく、その発光表面から直接、レンズの入力画像アパーチャの面積及び必要な発散角度と概ね一致する画像を生成できるようにすることにより、必須のコンパクトさを達成する。
ARウェアラブルディスプレイのレンズに光学的に結合されるイメージャは、約1〜15ルーメンの範囲内においてデジタル方式で制御可能な輝度を有するビデオ画像を生成するよう構成してよい。一実施形態では、ARウェアラブルディスプレイのレンズに光学的に結合されるイメージャは、ARウェアラブルディスプレイの小型構成内に実用上統合できる最小の電力消費で、約1〜15ルーメンの範囲内においてデジタル方式で制御可能な輝度を有するビデオ画像を生成するよう構成してよい。
イメージャの制御可能な輝度レベルを用いて、ARウェアラブルディスプレイの動作モードに適合した適切な輝度レベルを生成できる。ARウェアラブルディスプレイのレンズに光学的に結合されたイメージャは、(変調されて入力アパーチャに結合されるピクセルの数及び境界に関して)デジタル制御可能な画像サイズ及び形状を生成でき、この制御可能な画像サイズ及び形状を用いて、可変制御サイズ及び形状を有する画像を、ARウェアラブルディスプレイのレンズの出口アパーチャに結合させる。
一実施形態では、画像の輝度の均一性を、光変調器デバイスの励起によって制御してよい。
図10、11に移ると、これらの図は、2つのイメージャ1100a、1100bがブリッジ部分の両側に埋め込まれ、2つのイメージャ1200a、1200bがARニアアイディスプレイのアーム組立体に埋め込まれた、実施形態を示す。図10、11はまた、眼鏡レンズによってARニアアイディスプレイ1000の2つのアイボックス1300a、1300b内へと再配向される、上記4つのイメージャから生成された光の光線進路を示す。
よって、ARウェアラブルディスプレイのレンズに光学的に結合されたイメージャは、(上述のような)各レンズに対する少なくとも1つのイメージャ、又は各レンズの複数の入力画像アパーチャに連結された複数のイメージャとして構成してよく、後者に関して、各イメージャはレンズアパーチャの異なる領域に結合される。複数のイメージャを伴う実施形態では、複数のDOE特徴部分を用いてよく、例えば各イメージャに対して1つのDOEを用いてよい。これらのDOE特徴部分は、眼鏡レンズを覆う領域として分布してよく、又は空間的に重複若しくは混在していてもよい。
一実施形態では、ARニアアイウェアラブルディスプレイの各レンズの複数の入力画像アパーチャに結合された複数のイメージャ(それぞれレンズアパーチャの異なる領域に結合される)と、上記複数のイメージャからレンズの部分領域を通る光経路との使用により、異なるイメージャから放出された光を、異なる複数の方向から視認者の各瞳孔に集束させ、ここで各部分領域に関連するイメージャは好ましくは、異なる視線からのビュー(perspective view)を変調し、これによりARニアアイウェアラブルディスプレイにマルチビュー光照射野を表示させることができる。
ARニアアイウェアラブルディスプレイの各レンズの複数の入力画像アパーチャに結合された複数のマルチビュー光照射野イメージャの使用により、視認者の各瞳孔に十分な数のビュー(一実施形態では瞳孔1つに対して8〜12個のビュー(ただし少なくとも6つのビューが水平視差に沿っている))を提供する光照射野を、いわゆる「輻輳調節矛盾(vergence accommodation conflict:VAC)」効果(これは視認者の深刻な不快感を引き起こすものであり、また従来技術のニアアイ自動立体ディスプレイにおいて典型的に発生するものである)を実質的に排除する程度まで変調でき、従って本開示のARニアアイウェアラブルディスプレイをVACフリーディスプレイとすることができる。
ARニアアイウェアラブルディスプレイの各レンズの複数の入力画像アパーチャに結合された複数のイメージャの使用により、例えば1つの眼に対して100万ピクセルを実現するために、それぞれ500,000個の10マイクロメートルのピクセルを有する2つのイメージャを用いて、各ディスプレイレンズに光学的に結合されるイメージャの数を増加させることにより、又は例えば1つの眼に対して100万ピクセルという上述のものと同一のディスプレイ解像度を可能とするために、上述の例と同一の物理的サイズを有するものの100万個の5マイクロメートルのピクセルを有するイメージャを1つの眼に対して1つ用いて、イメージャのピクセルサイズを低減することにより、(視認者に対して表示されるピクセルの数という点で)ディスプレイの解像度を更に上昇させることができる。
ARニアアイウェアラブルディスプレイの各レンズの複数の入力画像アパーチャに結合された複数のイメージャの使用により、1つの眼に対する高いピクセル解像度によって、視認者の各瞳孔に対して十分な数のビューを変調できるようになり、これにより、視認者に対するデジタルホログラフィック画像を変調できる。
一実施形態によるARニアアイウェアラブルディスプレイは更に、1つの眼に対して少なくとも1つの眼追跡センサを備えてよく、この眼追跡センサの出力を用いて、各眼の角度位置(又は視角)、虹彩の直径、2つの瞳孔の間の距離を含むがこれらに限定されない、視認者の眼の複数の所定のパラメータが検出される。
一実施形態によるARニアアイウェアラブルディスプレイの眼追跡センサは、1つの眼に対してイメージングを行うようにそれぞれ位置決めされた1対のミニチュアカメラであってよい。一実施形態では、ARニアアイウェアラブルディスプレイの眼追跡センサは、眼鏡のブリッジ部分等、眼の視野(FOV)を妨げない位置に配置してよい。
一実施形態によるARニアアイウェアラブルディスプレイの眼追跡センサは、ARニアアイウェアラブルディスプレイの複数のディスプレイ部分領域にわたる輝度及び色均一性を検出するよう構成してよく、眼追跡センサが捕捉した画像を分析して、各ディスプレイ部分領域の輝度及び色が決定され、その後、決定された値を比較して、ARニアアイウェアラブルディスプレイの各レンズの複数の入力画像アパーチャに結合された複数のイメージャの輝度及び/又は色を、全ディスプレイアパーチャにわたる色及び輝度に従って調整することによって、所定の閾値、例えば10%以内で均一となるようにすることができる。
当業者は、本明細書において議論した実施形態の精神及び範囲から逸脱することなく、多数の改変及び修正を実施してよい。従って、図示されている実施形態は例示のみを目的として記載されていること、及び図示されている実施形態は、本明細書に記載の実施形態を、本出願に対する優先権を主張するいずれの後続の出願のいずれの請求項によって定義されるように限定するものとして解釈してはならないことを理解しなければならない。
例えば、いずれのこのような請求項の複数の要素がある特定の組み合わせで記載される場合があるという事実にもかかわらず、本開示の実施形態は、上で開示されている更に少ない、更に多い、又は異なる要素の他の組み合わせを、最初にはこのような組み合わせで請求されていない場合でさえ、含んでよいことを、はっきりと理解しなければならない。
様々な実施形態を説明するために本明細書中で使用される語句は、その一般的に定義された意味だけでなく、本明細書中での特別な定義によって、一般的に定義された意味を超える構造、材料、又は行為を含むものとして理解するべきである。従って、本明細書の文脈において、ある要素が2つ以上の意味を含むものとして理解できる場合、後続の請求項における上記要素の使用は、本明細書及びその語句自体がサポートするあらゆる可能な意味を包括するものとして理解しなければならない。
従って、本出願に対する優先権を主張するいずれの後続の出願のいずれの請求項の語句又は要素の定義は、逐語的に記載された要素の組み合わせだけでなく、略同一の結果を得るために略同一の方法で略同一の機能を実施するいずれの同等の構造、材料又は行為も含むものと定義するべきである。従ってこの意味において、以下の請求項中の要素のうちのいずれの1つに対して2つ以上の要素での置換を行うことができること、又はこのような請求項中の2つ以上の要素に対して単一の要素での置換を行うことができることが考えられる。
以上において、複数の要素が特定の組み合わせで作用するものとして説明されている場合があり、また以下でそのように請求されている場合があるが、請求されている組み合わせからの1つ又は複数の要素を、場合によっては上記組み合わせから削除できること、及びこのような請求されている組み合わせから部分組み合わせ又は部分組み合わせの変形例を導くことができることを、はっきりと理解されたい。
現時点で公知の又は将来考案される、いずれの以下で請求される主題からの、当業者から見て非現実的な変更は、同様にこのような請求項の範囲内であるものと明らかに考えられる。従って、現時点で又は将来において当業者に公知である明らかな置換は、定義されている要素の範囲内であるものとして定義される。
よって、本出願に対する優先権を主張するいずれの後続の出願のいずれの請求項は、以上で具体的に例示及び説明されたもの、概念的に同等であるもの、明確に置換可能なもの、及び本明細書に記載の実施形態の基本的着想を本質的に援用するものを含むものとして理解するべきである。

Claims (22)

  1. 拡張現実ディスプレイシステムであって:
    前記拡張現実ディスプレイシステムは、少なくとも1つの光学レンズ素子を備え;
    前記光学レンズ素子は、少なくとも1つの透過型回折光学素子と、少なくとも1つの部分反射型回折光学素子とを備え;
    前記拡張現実ディスプレイシステムはまた、光学画像を出力するよう構成された発光型ディスプレイデバイスを備え;
    前記発光型ディスプレイデバイス、前記透過型回折光学素子、及び前記部分反射型回折光学素子は、前記光学画像を視認者のアイボックスへと反射するよう構成される、拡張現実ディスプレイシステム。
  2. 前記発光型ディスプレイデバイスは、眼鏡フレームに埋め込まれる、請求項1に記載のシステム。
  3. 前記発光型ディスプレイデバイスは、前記眼鏡フレームのブリッジ領域に埋め込まれる、請求項2に記載のシステム。
  4. 前記部分反射型回折光学素子は、前記光学レンズ素子の、シーンに対面する表面に埋め込まれる、請求項1に記載のシステム。
  5. 前記部分反射型回折光学素子の反射率特性は20〜60%である、請求項1に記載のシステム。
  6. 前記透過型回折光学素子は、前記光学レンズ素子の、前記発光型ディスプレイデバイスに対面する表面上に堆積させられる、請求項1に記載のシステム。
  7. 前記透過型回折光学素子及び前記部分反射型回折光学素子は、薄膜を含む、請求項1に記載のシステム。
  8. 前記透過型回折光学素子及び前記部分反射型回折光学素子は、ブラッグ格子を含む、請求項1に記載のシステム。
  9. 前記透過型回折光学素子及び前記部分反射型回折光学素子は、体積ホログラフィック格子を含む、請求項1に記載のシステム。
  10. 前記透過型回折光学素子及び前記部分反射型回折光学素子は、前記光学レンズ素子の視認表面にわたって連続していない、傾斜した格子を含む、請求項1に記載のシステム。
  11. 前記透過型回折光学素子の光学的相補物である第2の透過型回折光学素子を更に備える、請求項1に記載のシステム。
  12. 前記眼鏡フレームのアームに埋め込まれた第2の発光型ディスプレイデバイスを更に備える、請求項2に記載のシステム。
  13. 眼の角度位置、虹彩直径、及び2つの瞳孔間の距離のうちの少なくとも1つを得るための、少なくとも1つの眼追跡センサを更に備える、請求項1に記載のシステム。
  14. 前記発光型ディスプレイデバイスは、第2の透過型回折光学素子を備える光学カバーを含む、請求項1に記載のシステム。
  15. 発光型ディスプレイデバイスによって、光学画像を光学レンズ素子に出力するステップであって、前記光学レンズ素子は、少なくとも1つの透過型回折光学素子と、少なくとも1つの部分反射型回折光学素子とを備える、ステップ;
    前記透過型回折光学素子によって、前記光学画像を前記部分反射型回折光学素子へと配向するステップ;及び
    前記部分反射型回折光学素子によって、前記光学画像を視認者のアイボックスへと反射するステップ
    を含む、拡張現実ディスプレイシステムを提供する方法。
  16. 前記透過型回折光学素子及び前記部分反射型回折光学素子は、表面レリーフナノインプリントプロセスにおいて画定される、請求項15に記載の方法。
  17. 前記透過型回折光学素子及び前記部分反射型回折光学素子は、体積レリーフナノインプリントプロセスにおいて画定される、請求項15に記載の方法。
  18. 前記部分反射型回折光学素子の反射率特性は20〜60%である、請求項15に記載の方法。
  19. 前記アイボックスの寸法を決定するステップ;並びに
    前記アイボックスの前記寸法及び選択された画像倍率に基づいて視野を算出するステップ
    を更に含む、請求項15に記載の方法。
  20. 第2の透過型回折光学素子によって、周囲環境からの光を前記部分反射型回折光学素子へと配向するステップを更に含み、
    前記第2の透過型回折光学素子は、前記透過型回折光学素子の光学的相補物である、請求項15に記載の方法。
  21. 第2の発光型ディスプレイデバイスによって、第2の光学画像を前記光学レンズ素子に出力するステップを更に含む、請求項15に記載の方法。
  22. 眼の角度位置、虹彩直径、及び2つの瞳孔間の距離のうちの少なくとも1つを追跡するステップを更に含む、請求項15に記載の方法。
JP2018531339A 2015-12-18 2016-12-19 拡張現実ニアアイウェアラブルディスプレイのためのシステム及び方法 Active JP7074672B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562269510P 2015-12-18 2015-12-18
US62/269,510 2015-12-18
US15/381,459 US10345594B2 (en) 2015-12-18 2016-12-16 Systems and methods for augmented near-eye wearable displays
US15/381,459 2016-12-16
PCT/US2016/067623 WO2017106873A1 (en) 2015-12-18 2016-12-19 Systems and methods for augmented near-eye wearable displays

Publications (3)

Publication Number Publication Date
JP2019500649A true JP2019500649A (ja) 2019-01-10
JP2019500649A5 JP2019500649A5 (ja) 2020-02-06
JP7074672B2 JP7074672B2 (ja) 2022-05-24

Family

ID=59057723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018531339A Active JP7074672B2 (ja) 2015-12-18 2016-12-19 拡張現実ニアアイウェアラブルディスプレイのためのシステム及び方法

Country Status (6)

Country Link
US (2) US10345594B2 (ja)
JP (1) JP7074672B2 (ja)
KR (1) KR20180094013A (ja)
CN (1) CN108604012B (ja)
TW (1) TWI720092B (ja)
WO (1) WO2017106873A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10073264B2 (en) 2007-08-03 2018-09-11 Lumus Ltd. Substrate-guide optical device
US10048499B2 (en) 2005-11-08 2018-08-14 Lumus Ltd. Polarizing optical system
KR102516124B1 (ko) * 2013-03-11 2023-03-29 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
NZ751593A (en) 2013-03-15 2020-01-31 Magic Leap Inc Display system and method
IL232197B (en) 2014-04-23 2018-04-30 Lumus Ltd Compact head-up display system
IL235642B (en) 2014-11-11 2021-08-31 Lumus Ltd A compact head-up display system is protected by an element with a super-thin structure
US10345594B2 (en) * 2015-12-18 2019-07-09 Ostendo Technologies, Inc. Systems and methods for augmented near-eye wearable displays
CN107272319A (zh) * 2016-04-07 2017-10-20 中强光电股份有限公司 投影装置以及影像投影方法
US10353202B2 (en) * 2016-06-09 2019-07-16 Microsoft Technology Licensing, Llc Wrapped waveguide with large field of view
KR102614047B1 (ko) * 2016-09-13 2023-12-15 삼성전자주식회사 플렉서블 디스플레이를 포함하는 전자 장치
US10133070B2 (en) 2016-10-09 2018-11-20 Lumus Ltd. Aperture multiplier using a rectangular waveguide
JP6829482B2 (ja) 2016-11-08 2021-02-10 ルムス エルティーディー. 光学遮断端部を備えた光ガイド装置およびその製造方法
TWI754010B (zh) 2017-02-22 2022-02-01 以色列商魯姆斯有限公司 導光光學組件
KR20230025946A (ko) 2017-03-22 2023-02-23 루머스 리미티드 중첩 파셋
IL251645B (en) 2017-04-06 2018-08-30 Lumus Ltd Waveguide and method of production
CN109116558B (zh) 2017-06-26 2020-04-07 京东方科技集团股份有限公司 增强现实眼镜
US10338400B2 (en) 2017-07-03 2019-07-02 Holovisions LLC Augmented reality eyewear with VAPE or wear technology
US10859834B2 (en) 2017-07-03 2020-12-08 Holovisions Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear
TWI770234B (zh) 2017-07-19 2022-07-11 以色列商魯姆斯有限公司 通過光導光學元件的矽基液晶照明器
US10551544B2 (en) 2018-01-21 2020-02-04 Lumus Ltd. Light-guide optical element with multiple-axis internal aperture expansion
IL259518B2 (en) 2018-05-22 2023-04-01 Lumus Ltd Optical system and method for improving light field uniformity
JP7417234B2 (ja) 2018-05-23 2024-01-18 ルムス エルティーディー. 部分的に反射する内部表面を備えた導光光学素子を含む光学システム
US11415812B2 (en) 2018-06-26 2022-08-16 Lumus Ltd. Compact collimating optical device and system
WO2020009251A1 (ko) * 2018-07-03 2020-01-09 광운대학교 산학협력단 반사형 홀로그래픽 광학 소자를 이용한 풀칼라 증강현실 구현장치
US11493768B2 (en) * 2018-07-17 2022-11-08 Ostendo Technologies, Inc. Augmented/virtual reality near eye display with edge imaging spectacle lens
US11347056B2 (en) * 2018-08-22 2022-05-31 Microsoft Technology Licensing, Llc Foveated color correction to improve color uniformity of head-mounted displays
CN116184666A (zh) 2018-09-09 2023-05-30 鲁姆斯有限公司 包括具有二维扩展的光导光学元件的光学系统
AU2020211092B2 (en) 2019-01-24 2023-05-11 Lumus Ltd. Optical systems including LOE with three stage expansion
CN109917908B (zh) * 2019-02-01 2023-03-24 谷东科技有限公司 一种ar眼镜的图像获取方法及系统
JP7398131B2 (ja) 2019-03-12 2023-12-14 ルムス エルティーディー. 画像プロジェクタ
WO2020261279A1 (en) 2019-06-27 2020-12-30 Lumus Ltd. Apparatus and methods for eye tracking based on eye imaging via a light-guide optical element
MX2022000009A (es) 2019-07-04 2022-02-23 Lumus Ltd Guia de ondas de imagenes con multiplicacion de haz simetrico.
CN112346558A (zh) 2019-08-06 2021-02-09 苹果公司 眼睛跟踪系统
US11360557B2 (en) 2019-08-06 2022-06-14 Apple Inc. Eye tracking system
KR20190106878A (ko) * 2019-08-28 2019-09-18 엘지전자 주식회사 전자 디바이스
BR112022009872A2 (pt) 2019-12-05 2022-08-09 Lumus Ltd Dispositivo óptico e método para fabricar um dispositivo óptico
IL290719B2 (en) 2019-12-08 2023-09-01 Lumus Ltd Optical systems with a compact image projector
CA3164587A1 (en) 2019-12-30 2021-07-08 Lumus Ltd. Optical systems including light-guide optical elements with two-dimensional expansion
CN115552171B (zh) 2020-05-24 2024-01-23 鲁姆斯有限公司 复合光导光学元件的制造方法以及光学结构
WO2022045707A1 (en) 2020-08-25 2022-03-03 Samsung Electronics Co., Ltd. Augmented reality device based on waveguide with holographic diffractive grating structure and apparatus for recording the holographic diffractive grating structure
DE202021104723U1 (de) 2020-09-11 2021-10-18 Lumus Ltd. An ein optisches Lichtleiterelement gekoppelter Bildprojektor
KR20220079199A (ko) 2020-12-04 2022-06-13 삼성전자주식회사 광 결합기 및 이를 포함하는 증강 현실 장치
TWI775240B (zh) * 2020-12-14 2022-08-21 台灣愛司帝科技股份有限公司 智慧型虛擬顯示裝置
CN114879359A (zh) * 2021-02-05 2022-08-09 华为技术有限公司 近眼显示设备
KR102620208B1 (ko) 2021-02-25 2023-12-29 루머스 리미티드 직사각형 도파관을 갖는 광 개구 증배기
CN113219667B (zh) * 2021-04-30 2022-07-22 歌尔股份有限公司 光学镜组和头戴显示设备
IL309966B1 (en) 2021-07-04 2024-03-01 Lumus Ltd Display with stacked light guide elements providing different parts of the field of view
US20240118545A1 (en) * 2021-08-20 2024-04-11 Prazen Co., Ltd. Augmented Reality Device
US11886008B2 (en) 2021-08-23 2024-01-30 Lumus Ltd. Methods of fabrication of compound light-guide optical elements having embedded coupling-in reflectors
US11817022B2 (en) * 2021-11-30 2023-11-14 Meta Platforms Technologies, Llc Correcting artifacts in tiled display assemblies for artificial reality headsets

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698281A (ja) * 1992-03-02 1994-04-08 Motorola Inc リモート知覚装置およびドライバ
JP2005331767A (ja) * 2004-05-20 2005-12-02 Sony Corp 画像表示装置

Family Cites Families (210)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4427912A (en) 1982-05-13 1984-01-24 Ausonics Pty. Ltd. Ultrasound transducer for enhancing signal reception in ultrasound equipment
US4757714A (en) 1986-09-25 1988-07-19 Insight, Inc. Speed sensor and head-mounted data display
CA2060322A1 (en) 1989-06-09 1990-12-10 John L. O'neal Biofeedback device for monitoring muscular movement
CA2030874C (en) 1989-11-30 1994-11-01 Ronald G. Hegg Dual-mirror virtual image display for vehicle instrument cluster
GB9116108D0 (en) * 1991-07-25 1991-11-06 Pilkington Perkin Elmer Ltd Improvements in or relating to displays
US5696521A (en) 1994-06-22 1997-12-09 Astounding Technologies (M) Sdn. Bhd. Video headset
US5544268A (en) 1994-09-09 1996-08-06 Deacon Research Display panel with electrically-controlled waveguide-routing
US5986811A (en) 1995-06-07 1999-11-16 Meso Scale Technologies Llp Method of and apparatus for generating a 3-D image from a 2-D image having a changeable focusing micro-lens array
US5619373A (en) 1995-06-07 1997-04-08 Hasbro, Inc. Optical system for a head mounted display
US5818359A (en) 1995-07-10 1998-10-06 Beach; Kirk Process and apparatus for computerizing translation of motion of subcutaneous body parts
US5886822A (en) 1996-10-08 1999-03-23 The Microoptical Corporation Image combining system for eyeglasses and face masks
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6764012B2 (en) 1997-02-10 2004-07-20 Symbol Technologies, Inc. Signaling arrangement for and method of signaling in a wireless local area network
US20020075232A1 (en) 1997-08-15 2002-06-20 Wolfgang Daum Data glove
US6151167A (en) 1998-08-05 2000-11-21 Microvision, Inc. Scanned display with dual signal fiber transmission
US6937221B2 (en) 1998-08-05 2005-08-30 Microvision, Inc. Scanned beam display
US6583772B1 (en) 1998-08-05 2003-06-24 Microvision, Inc. Linked scanner imaging system and method
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6147807A (en) 1999-05-04 2000-11-14 Honeywell, Inc. High brightness see-through head-mounted display
WO2000079327A1 (en) 1999-06-21 2000-12-28 The Microoptical Corporation Eyeglass display lens system employing off-axis optical design
US6433907B1 (en) 1999-08-05 2002-08-13 Microvision, Inc. Scanned display with plurality of scanning assemblies
US6525310B2 (en) 1999-08-05 2003-02-25 Microvision, Inc. Frequency tunable resonant scanner
US6515781B2 (en) 1999-08-05 2003-02-04 Microvision, Inc. Scanned imaging apparatus with switched feeds
US6924476B2 (en) 2002-11-25 2005-08-02 Microvision, Inc. Resonant beam scanner with raster pinch compensation
US6795221B1 (en) 1999-08-05 2004-09-21 Microvision, Inc. Scanned display with switched feeds and distortion correction
US6456438B1 (en) 1999-08-12 2002-09-24 Honeywell Inc. Variable immersion vignetting display
GB2360603A (en) 2000-03-20 2001-09-26 Cambridge 3D Display Ltd Planar optical waveguide and float glass process
NZ523079A (en) 2000-05-11 2004-04-30 Clothing Plus Oy Wearable projector and intelligent clothing
WO2001095027A2 (en) 2000-06-05 2001-12-13 Lumus Ltd. Substrate-guided optical beam expander
JP2004511864A (ja) 2000-09-22 2004-04-15 バダルネー、ジアド 作動装置
JP4436445B2 (ja) 2000-11-17 2010-03-24 キヤノン株式会社 在庫管理システム、在庫管理方法及びプログラム
US6724012B2 (en) 2000-12-14 2004-04-20 Semiconductor Energy Laboratory Co., Ltd. Display matrix with pixels having sensor and light emitting portions
US7193758B2 (en) 2001-02-06 2007-03-20 Microvision, Inc. Scanner and method for sweeping a beam across a target
WO2002077972A1 (en) 2001-03-27 2002-10-03 Rast Associates, Llc Head-worn, trimodal device to increase transcription accuracy in a voice recognition system and to process unvocalized speech
US7061450B2 (en) 2001-04-09 2006-06-13 Microvision, Inc. Electronically scanned beam display
JP4772204B2 (ja) 2001-04-13 2011-09-14 オリンパス株式会社 観察光学系
US6529331B2 (en) 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US6731434B1 (en) 2001-05-23 2004-05-04 University Of Central Florida Compact lens assembly for the teleportal augmented reality system
US20040125076A1 (en) 2001-06-08 2004-07-01 David Green Method and apparatus for human interface with a computer
US6666825B2 (en) 2001-07-05 2003-12-23 General Electric Company Ultrasound transducer for improving resolution in imaging system
US7072096B2 (en) 2001-12-14 2006-07-04 Digital Optics International, Corporation Uniform illumination system
US6719693B2 (en) 2002-03-29 2004-04-13 Becs Technology, Inc. Apparatus and system for real-time synthetic focus ultrasonic imaging
EP1508242B1 (en) 2002-05-17 2012-05-09 Microvision, Inc. Apparatus and method for sweeping an image beam in one dimension and bidirectionally sweeping an image beam in a second dimension
US6984208B2 (en) 2002-08-01 2006-01-10 The Hong Kong Polytechnic University Method and apparatus for sensing body gesture, posture and movement
US6747785B2 (en) 2002-10-24 2004-06-08 Hewlett-Packard Development Company, L.P. MEMS-actuated color light modulator and methods
US7071594B1 (en) 2002-11-04 2006-07-04 Microvision, Inc. MEMS scanner with dual magnetic and capacitive drive
US20040138935A1 (en) 2003-01-09 2004-07-15 Johnson Christopher D. Visualizing business analysis results
US7145722B2 (en) 2003-04-24 2006-12-05 Banpil Photonics, Inc. Optical filter and method of manufacturing thereof
AU2004258513B2 (en) 2003-07-03 2009-12-24 Holotouch, Inc. Holographic human-machine interfaces
GB2403814A (en) 2003-07-10 2005-01-12 Ocuity Ltd Directional display apparatus with birefringent lens structure
GB2403815A (en) 2003-07-10 2005-01-12 Ocuity Ltd Birefringent lens array structure
US7106519B2 (en) 2003-07-31 2006-09-12 Lucent Technologies Inc. Tunable micro-lens arrays
US7209538B2 (en) 2003-08-07 2007-04-24 Xoran Technologies, Inc. Intraoperative stereo imaging system
CN1898563B (zh) 2003-09-24 2011-11-23 肿瘤疗法科学股份有限公司 诊断乳腺癌的方法
US7232071B2 (en) 2003-11-14 2007-06-19 Microvision, Inc. Scanned beam imager
US6999238B2 (en) 2003-12-01 2006-02-14 Fujitsu Limited Tunable micro-lens array
GB0328904D0 (en) 2003-12-12 2004-01-14 Swan Thomas & Co Ltd Scarab
DE102005001417B4 (de) 2004-01-29 2009-06-25 Heidelberger Druckmaschinen Ag Projektionsflächenabhängige Anzeige-/Bedienvorrichtung
US7482730B2 (en) 2004-02-09 2009-01-27 Microvision, Inc. High performance MEMS scanner
US9652032B2 (en) 2004-03-02 2017-05-16 Brian T. Mitchell Simulated training environments based upon fixated objects in specified regions
US7724210B2 (en) 2004-05-07 2010-05-25 Microvision, Inc. Scanned light display system using large numerical aperture light source, method of using same, and method of making scanning mirror assemblies
US7486255B2 (en) 2004-07-21 2009-02-03 Microvision, Inc. Scanned beam system and method using a plurality of display zones
US7545571B2 (en) 2004-09-08 2009-06-09 Concurrent Technologies Corporation Wearable display system
US20060132383A1 (en) 2004-09-27 2006-06-22 Idc, Llc System and method for illuminating interferometric modulator display
US7619807B2 (en) 2004-11-08 2009-11-17 Angstrom, Inc. Micromirror array lens with optical surface profiles
US7747301B2 (en) 2005-03-30 2010-06-29 Skyline Biomedical, Inc. Apparatus and method for non-invasive and minimally-invasive sensing of parameters relating to blood
US7190508B2 (en) 2005-06-15 2007-03-13 Miradia Inc. Method and structure of patterning landing pad structures for spatial light modulators
US20070083120A1 (en) 2005-09-22 2007-04-12 Cain Charles A Pulsed cavitational ultrasound therapy
US8405618B2 (en) 2006-03-24 2013-03-26 Northwestern University Haptic device with indirect haptic feedback
US20070276658A1 (en) 2006-05-23 2007-11-29 Barry Grayson Douglass Apparatus and Method for Detecting Speech Using Acoustic Signals Outside the Audible Frequency Range
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
KR101426970B1 (ko) 2006-07-10 2014-08-06 소니 주식회사 렌즈 어레이
US9319741B2 (en) 2006-09-07 2016-04-19 Rateze Remote Mgmt Llc Finding devices in an entertainment system
US7804624B2 (en) 2006-11-30 2010-09-28 Honeywell International Inc. Image capture device
US7369321B1 (en) 2007-01-16 2008-05-06 University Of Central Florida Research Foundation, Inc. Variable-focus liquid lens
JP2010517090A (ja) 2007-01-25 2010-05-20 ローデンストック.ゲゼルシャフト.ミット.ベシュレンクテル.ハフツング データ反射のための眼鏡および眼鏡レンズ
WO2008118967A1 (en) 2007-03-26 2008-10-02 University Of Washington Smart sunglasses, helmet faceshields and goggles based on electrochromic polymers
US7623560B2 (en) 2007-09-27 2009-11-24 Ostendo Technologies, Inc. Quantum photonic imagers and methods of fabrication thereof
US8031172B2 (en) 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
WO2009062124A1 (en) 2007-11-09 2009-05-14 Wms Gaming, Inc. Interface for wagering game environments
WO2009065436A1 (en) 2007-11-19 2009-05-28 Nokia Corporation Input device
JP4958757B2 (ja) * 2007-12-13 2012-06-20 キヤノン株式会社 画像表示装置
US7791810B2 (en) 2007-12-21 2010-09-07 Microvision, Inc. Scanned beam display having high uniformity and diminished coherent artifacts
EP2248189A1 (en) 2008-02-12 2010-11-10 QUALCOMM MEMS Technologies, Inc. Dual layer thin film holographic solar concentrator/ collector
US7945338B2 (en) 2008-03-03 2011-05-17 Rockwell Automation Technologies, Inc. Automation human machine interface having virtual graphic controls
US8293354B2 (en) * 2008-04-09 2012-10-23 The Regents Of The University Of Michigan UV curable silsesquioxane resins for nanoprint lithography
US8447704B2 (en) 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
US7954953B2 (en) 2008-07-30 2011-06-07 Microvision, Inc. Scanned beam overlay projection
JP4858512B2 (ja) 2008-08-21 2012-01-18 ソニー株式会社 頭部装着型ディスプレイ
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8098265B2 (en) 2008-10-10 2012-01-17 Ostendo Technologies, Inc. Hierarchical multicolor primaries temporal multiplexing system
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8510244B2 (en) 2009-03-20 2013-08-13 ISC8 Inc. Apparatus comprising artificial neuronal assembly
US8107147B2 (en) 2009-03-27 2012-01-31 Microvision, Inc. Two-mirror scanning system
US20150138086A1 (en) 2009-04-02 2015-05-21 John S. Underkoffler Calibrating control device for use with spatial operating system
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
WO2010123934A1 (en) 2009-04-20 2010-10-28 The Arizona Board Of Regents On Behalf Of The University Of Arizona Optical see-through free-form head-mounted display
JP5852956B2 (ja) 2009-06-23 2016-02-03 シーリアル テクノロジーズ ソシエテ アノニムSeereal Technologies S.A. 2次元及び3次元の少なくともいずれかの画像コンテンツ提示用ディスプレイに用いられる光変調デバイス
JP5545076B2 (ja) * 2009-07-22 2014-07-09 ソニー株式会社 画像表示装置及び光学装置
JP4988016B2 (ja) 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
KR101647722B1 (ko) 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
AU2011220382A1 (en) 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
WO2011113066A1 (en) 2010-03-12 2011-09-15 The University Of North Carolina At Greensboro Methods and systems using integrated metabolomics and pharmacokinetics for multi-component drug evaluation
US9110505B2 (en) 2010-04-16 2015-08-18 Innovative Devices Inc. Wearable motion sensing computing interface
JP2011244425A (ja) 2010-04-23 2011-12-01 Canon Inc 電気機械変換装置及びその作製方法
CN102782562B (zh) 2010-04-30 2015-07-22 北京理工大学 宽视场高分辨率拼接式头盔显示装置
US9501145B2 (en) 2010-05-21 2016-11-22 Disney Enterprises, Inc. Electrovibration for touch surfaces
US9916006B2 (en) 2010-07-23 2018-03-13 Telepatheye Inc. Eye-wearable device user interface and method
US8743145B1 (en) 2010-08-26 2014-06-03 Amazon Technologies, Inc. Visual overlay for augmenting reality
DE102010040962A1 (de) 2010-09-17 2012-03-22 Carl Zeiss Ag Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US20120075196A1 (en) 2010-09-23 2012-03-29 Nokia Corporation Apparatus and method for user input
US20120075173A1 (en) 2010-09-23 2012-03-29 Nokia Corporation Apparatus and method for user input
US9632315B2 (en) 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
US9529191B2 (en) 2010-11-03 2016-12-27 Trex Enterprises Corporation Dynamic foveal vision display
KR101670927B1 (ko) 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
US20140049983A1 (en) 2010-11-18 2014-02-20 Anthony John Nichol Light emitting device comprising a lightguide film and aligned coupling lightguides
JP5659768B2 (ja) 2010-12-16 2015-01-28 凸版印刷株式会社 斜め電界液晶表示装置
KR101544524B1 (ko) 2010-12-16 2015-08-17 한국전자통신연구원 차량용 증강현실 디스플레이 시스템 및 차량용 증강현실 디스플레이 방법
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
KR101525336B1 (ko) 2011-01-06 2015-06-02 가부시키가이샤 히타치 메디코 초음파 탐촉자
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
US20120236201A1 (en) 2011-01-27 2012-09-20 In The Telling, Inc. Digital asset management, authoring, and presentation techniques
US20120195461A1 (en) 2011-01-31 2012-08-02 Qualcomm Incorporated Correlating areas on the physical object to areas on the phone screen
US20130169536A1 (en) 2011-02-17 2013-07-04 Orcam Technologies Ltd. Control of a wearable device
EP2691935A1 (en) 2011-03-29 2014-02-05 Qualcomm Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
US10061387B2 (en) 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
WO2012139241A1 (en) 2011-04-11 2012-10-18 Intel Corporation Hand gesture recognition system
US20120290943A1 (en) 2011-05-10 2012-11-15 Nokia Corporation Method and apparatus for distributively managing content between multiple users
US8912017B2 (en) 2011-05-10 2014-12-16 Ostendo Technologies, Inc. Semiconductor wafer bonding incorporating electrical and optical interconnects
US8508830B1 (en) 2011-05-13 2013-08-13 Google Inc. Quantum dot near-to-eye display
US8619049B2 (en) 2011-05-17 2013-12-31 Microsoft Corporation Monitoring interactions between two or more objects within an environment
US20120299962A1 (en) 2011-05-27 2012-11-29 Nokia Corporation Method and apparatus for collaborative augmented reality displays
KR101423536B1 (ko) 2011-06-14 2014-08-01 한국전자통신연구원 인쇄매체 기반 혼합현실 구현 장치 및 방법
US9218058B2 (en) 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
US20120326948A1 (en) 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
PT105814A (pt) 2011-07-14 2013-01-14 Yd Ynvisible S A Método para produção de partículas electrocrómicas e controlo das suas propriedades espectrais nir e vis
US8471967B2 (en) 2011-07-15 2013-06-25 Google Inc. Eyepiece for near-to-eye display with multi-reflectors
US8508851B2 (en) 2011-07-20 2013-08-13 Google Inc. Compact see-through display system
US9931230B2 (en) 2011-08-01 2018-04-03 George Mason University Artificial body part control system using ultrasonic imaging
WO2013032955A1 (en) 2011-08-26 2013-03-07 Reincloud Corporation Equipment, systems and methods for navigating through multiple reality models
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9672049B2 (en) 2011-09-22 2017-06-06 Qualcomm Incorporated Dynamic and configurable user interface
US20130083303A1 (en) 2011-10-04 2013-04-04 Palo Alto Research Center Incorporated Multi-Level Imaging Using Single-Pass Imaging System Having Spatial Light Modulator and Anamorphic Projection Optics
US8773599B2 (en) 2011-10-24 2014-07-08 Google Inc. Near-to-eye display with diffraction grating that bends and focuses light
US8279716B1 (en) 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
US8553910B1 (en) 2011-11-17 2013-10-08 Jianchun Dong Wearable computing device with behind-ear bone-conduction speaker
US8872853B2 (en) 2011-12-01 2014-10-28 Microsoft Corporation Virtual light in augmented reality
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
EP2802861A4 (en) 2012-01-11 2015-08-19 Hughes Howard Med Inst MULTIDIMENSIONAL IMAGING USING MULTI-ROOM MICROSCOPY
US8894484B2 (en) 2012-01-30 2014-11-25 Microsoft Corporation Multiplayer game invitation system
US20130225999A1 (en) 2012-02-29 2013-08-29 Toshiba Medical Systems Corporation Gesture commands user interface for ultrasound imaging systems
US20130286053A1 (en) 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
WO2013177111A1 (en) 2012-05-21 2013-11-28 Medplate Lifesciences Corporation Collapsible, shape memory alloy structures and methods for forming same
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
CN103546181A (zh) 2012-07-17 2014-01-29 高寿谦 可拆卸并可自由组合功能的穿戴式无线智能电子装置
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
US20140049417A1 (en) 2012-08-20 2014-02-20 Playtabase, LLC Wireless motion activated command transfer device, system, and method
US20140085177A1 (en) 2012-09-21 2014-03-27 Nokia Corporation Method and apparatus for responding to input based upon relative finger position
US10620902B2 (en) 2012-09-28 2020-04-14 Nokia Technologies Oy Method and apparatus for providing an indication regarding content presented to another user
US9921687B2 (en) 2012-10-02 2018-03-20 Autodesk, Inc. Always-available input through finger instrumentation
US10234941B2 (en) 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
KR20140052640A (ko) 2012-10-25 2014-05-07 삼성전자주식회사 커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템
JP6155448B2 (ja) 2012-11-01 2017-07-05 アイカム エルエルシー 3d撮像し、マッピングし、ネットワーク化しおよびインタフェースするための無線手首コンピューティングおよびコントロールするデバイスおよび方法
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US9274608B2 (en) 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
US9345609B2 (en) 2013-01-11 2016-05-24 Elwha Llc Position sensing active torso support
JP6010450B2 (ja) 2012-12-20 2016-10-19 浜松ホトニクス株式会社 光観察装置及び光観察方法
US20140176417A1 (en) 2012-12-21 2014-06-26 Ian A. Young Wearable projector for portable display
US8947783B2 (en) * 2013-01-02 2015-02-03 Google Inc. Optical combiner for near-eye display
US9057826B2 (en) * 2013-01-31 2015-06-16 Google Inc. See-through near-to-eye display with eye prescription
WO2014124173A1 (en) 2013-02-08 2014-08-14 Changello Enterprise Llc Force determination based on capacitive sensing
WO2014127126A1 (en) 2013-02-14 2014-08-21 New York University Handphone
US9223139B2 (en) 2013-02-15 2015-12-29 Google Inc. Cascading optics in optical combiners of head mounted displays
US20140301662A1 (en) 2013-03-17 2014-10-09 ISC8 Inc. Analysis, Labeling and Exploitation of Sensor Data in Real Time
US20140304646A1 (en) 2013-04-04 2014-10-09 Klip, Inc. Sliding side menu gui with menu items displaying indicia of updated content
US9405124B2 (en) 2013-04-09 2016-08-02 Massachusetts Institute Of Technology Methods and apparatus for light field projection
DE202014010839U1 (de) 2013-05-15 2016-11-16 Google Inc. Effizientes Einholen von Kartendaten während der Animation
US8725842B1 (en) 2013-07-11 2014-05-13 Khalid Al-Nasser Smart watch
US20140129207A1 (en) 2013-07-19 2014-05-08 Apex Technology Ventures, LLC Augmented Reality Language Translation
US9451162B2 (en) 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
US9164290B2 (en) 2013-11-06 2015-10-20 Microsoft Corporation Grating configurations for a tiled waveguide display
CN103558918B (zh) 2013-11-15 2016-07-27 上海威璞电子科技有限公司 在智能手表中实现手势识别技术的方法
KR102493498B1 (ko) 2013-11-27 2023-01-27 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
US9582034B2 (en) 2013-11-29 2017-02-28 Motiv, Inc. Wearable computing device
US9244539B2 (en) 2014-01-07 2016-01-26 Microsoft Technology Licensing, Llc Target positioning with gaze tracking
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US10554962B2 (en) 2014-02-07 2020-02-04 Samsung Electronics Co., Ltd. Multi-layer high transparency display for light field generation
JP2015184560A (ja) 2014-03-25 2015-10-22 ソニー株式会社 導光装置、画像表示装置及び表示装置
US9465215B2 (en) * 2014-03-28 2016-10-11 Google Inc. Lightguide with multiple in-coupling holograms for head wearable display
US20150323998A1 (en) 2014-05-06 2015-11-12 Qualcomm Incorporated Enhanced user interface for a wearable electronic device
CN103995354B (zh) * 2014-05-16 2016-05-04 北京理工大学 基于全息衍射光学元件的消色差的波导显示系统
CN104468578B (zh) 2014-12-10 2017-12-26 怀效宁 一种无线通讯的优先通讯系统和通讯方法
US10234952B2 (en) 2014-07-18 2019-03-19 Maxim Integrated Products, Inc. Wearable device for using human body as input mechanism
US9335602B2 (en) 2014-07-25 2016-05-10 Tintable Kibing Co., Ltd. Method for control of electrochromic device
CN104460992B (zh) 2014-11-20 2017-07-21 大连理工大学 一种使用红外线照射腕部韧带的手指运动检测装置及方法
US11166698B2 (en) 2015-01-30 2021-11-09 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus
US10295990B2 (en) 2015-05-18 2019-05-21 Milwaukee Electric Tool Corporation User interface for tool configuration and data capture
US10080950B2 (en) 2015-09-05 2018-09-25 Aspire Sports Inc. System of communication in a wearable device
US9898869B2 (en) 2015-09-09 2018-02-20 Microsoft Technology Licensing, Llc Tactile interaction in virtual environments
US10345594B2 (en) * 2015-12-18 2019-07-09 Ostendo Technologies, Inc. Systems and methods for augmented near-eye wearable displays
US10578882B2 (en) 2015-12-28 2020-03-03 Ostendo Technologies, Inc. Non-telecentric emissive micro-pixel array light modulators and methods of fabrication thereof
US10054503B2 (en) 2016-03-11 2018-08-21 Microsoft Technology Licensing, Llc Force sensor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698281A (ja) * 1992-03-02 1994-04-08 Motorola Inc リモート知覚装置およびドライバ
JP2005331767A (ja) * 2004-05-20 2005-12-02 Sony Corp 画像表示装置

Also Published As

Publication number Publication date
US20190331925A1 (en) 2019-10-31
US10585290B2 (en) 2020-03-10
CN108604012A (zh) 2018-09-28
US10345594B2 (en) 2019-07-09
US20170176755A1 (en) 2017-06-22
KR20180094013A (ko) 2018-08-22
WO2017106873A1 (en) 2017-06-22
CN108604012B (zh) 2021-12-31
JP7074672B2 (ja) 2022-05-24
TW201732369A (zh) 2017-09-16
TWI720092B (zh) 2021-03-01

Similar Documents

Publication Publication Date Title
JP7074672B2 (ja) 拡張現実ニアアイウェアラブルディスプレイのためのシステム及び方法
US11714284B2 (en) Display device including foveal and peripheral projectors
US10983350B2 (en) Augmented/virtual reality near-eye displays with edge imaging lens comprising a plurality of display devices
US20230400693A1 (en) Augmented reality display comprising eyepiece having a transparent emissive display
CN107771297B (zh) 用于虚拟和增强现实近眼显示器的自由曲面型纳米结构表面
JP5475083B2 (ja) 表示装置
US8503087B1 (en) Structured optical surface
US9442291B1 (en) Segmented diffractive optical elements for a head wearable display
TW202011080A (zh) 具有邊緣成像眼鏡透鏡之擴增/虛擬實境近眼顯示器
KR20190126410A (ko) 넓은 시야를 갖는 도파관 투사기를 위한 방법 및 시스템
US10282912B1 (en) Systems and methods to provide an interactive space over an expanded field-of-view with focal distance tuning
JP2017514172A (ja) ユーザの頭部上にフィット可能であると共に画像を生成するディスプレイ装置用の眼鏡レンズ
JP7093729B2 (ja) シースルー表示システム
US20230044063A1 (en) Ar headset with an improved displa
JP7025439B2 (ja) 分割射出瞳ヘッドアップディスプレイシステム及び方法
JP6675387B2 (ja) ユーザの頭部に配置可能であると共にイメージを生成する表示デバイス用の眼鏡レンズ、及びそのような眼鏡レンズを含む表示デバイス

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211027

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220512

R150 Certificate of patent or registration of utility model

Ref document number: 7074672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150