JP7482163B2 - 拡張現実ディスプレイシステム - Google Patents

拡張現実ディスプレイシステム Download PDF

Info

Publication number
JP7482163B2
JP7482163B2 JP2022035008A JP2022035008A JP7482163B2 JP 7482163 B2 JP7482163 B2 JP 7482163B2 JP 2022035008 A JP2022035008 A JP 2022035008A JP 2022035008 A JP2022035008 A JP 2022035008A JP 7482163 B2 JP7482163 B2 JP 7482163B2
Authority
JP
Japan
Prior art keywords
light
wearer
augmented reality
display system
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022035008A
Other languages
English (en)
Other versions
JP2022088420A (ja
Inventor
ユー. ロバイナ ナスターシャ
エリザベス サメック ニコル
マイケル リンク グレゴリー
ベーレンロッド マーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2022088420A publication Critical patent/JP2022088420A/ja
Priority to JP2023124302A priority Critical patent/JP2023159118A/ja
Application granted granted Critical
Publication of JP7482163B2 publication Critical patent/JP7482163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0005Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being of the fibre type
    • G02B6/0008Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being of the fibre type the light being emitted at the end of the fibre
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0081Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0013Means for improving the coupling-in of light from the light source into the light guide
    • G02B6/0015Means for improving the coupling-in of light from the light source into the light guide provided on the surface of the light guide or in the bulk of it
    • G02B6/0016Grooves, prisms, gratings, scattering particles or rough surfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0033Means for improving the coupling-out of light from the light guide
    • G02B6/0035Means for improving the coupling-out of light from the light guide provided on the surface of the light guide or in the bulk of it
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0066Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form characterised by the light source being coupled to the light guide
    • G02B6/0068Arrangements of plural sources, e.g. multi-colour light sources
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0075Arrangements of multiple light guides
    • G02B6/0076Stacked arrangements of multiple light guides of the same or different cross-sectional area
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0081Mechanical or electrical aspects of the light guide and light source in the lighting device peculiar to the adaptation to planar light guides, e.g. concerning packaging
    • G02B6/0086Positioning aspects
    • G02B6/0088Positioning aspects of the light guide or other optical sheets in the package
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

(参照による援用)
本願は、米国仮出願第62/433,767号,出願日2016年12月13日、発明の名称 “3D OBJECT RENDERING USING DETECTED FEATURES”からの35 U.S.C. § 119(e)のもとでの優先権を主張するものであり、該米国仮出願は、あらゆる目的のために、その全体が参照により本明細書中に援用される。本願は、さらに、以下の特許出願の各々の全体を参照により援用する:米国出願第14/555,585号(出願日2014年11月27日);米国出願第14/690,401号(出願日2015年4月18日);米国出願第14/212,961号(出願日2014年3月14日);米国出願第14/331,218号(出願日2014年7月14日);および米国出願第15/072,290号(出願日2016年3月16日)。
本開示は、仮想現実および拡張現実結像および可視化システムを含む、光学デバイスに関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式でユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴い、拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実または「MR」シナリオは、一種のARシナリオであって、典型的には、自然世界の中に統合され、それに応答する、仮想オブジェクトを伴う。例えば、MRシナリオでは、AR画像コンテンツは、実世界内のオブジェクトによってブロックされ得る、または別様にそれと相互作用するように知覚され得る。
図1を参照すると、拡張現実場面10が、描写され、AR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム30を特徴とする、実世界公園状設定20が見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム30上に立っているロボット像40と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ50等の「仮想コンテンツ」を「見ている」と知覚するが、これらの要素40、50は、実世界には存在しない。ヒトの視知覚系は、複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、AR技術の生成は、困難である。
本明細書に開示されるシステムおよび方法は、ARおよびVR技術に関連する種々の課題に対処する。
本明細書に説明される主題の1つ以上の実施形態の詳細は、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の詳細な説明のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
(実施例)
1.3Dコンテンツと実オブジェクトとを整合させるように構成される、拡張現実ディスプレイシステムであって、該システムは、
装着者上に搭載するように構成されるフレームと、
フレームに取り付けられ、画像を装着者の眼に指向するように構成される拡張現実ディスプレイと、
不可視光を放出することによって、オブジェクトの少なくとも一部分を照明するように構成される光源と、
該不可視光を使用して、該光源によって照明された該オブジェクトの該一部分を結像するように構成される光センサと、
処理回路であって、該処理回路は、不可視光の反射された部分を使用して形成される画像内の特徴の1つ以上の特性に基づいて、オブジェクトの場所、オブジェクトの配向、または両方に関する情報を決定するように構成される、処理回路と
を備える、システム。
2.不可視光の反射された部分を使用して形成される画像内の特徴は、眼に不可視である、実施例1に記載の拡張現実ディスプレイシステム。
3.不可視光は、赤外線光を備える、実施例1-2のいずれかに記載の拡張現実ディスプレイシステム。
4.光源によって放出される不可視光は、スポットをオブジェクトの該一部分上に形成するビームを備える、実施例1-3のいずれかに記載の拡張現実ディスプレイシステム。
5.光源によって放出される不可視光は、光パターンを備える、実施例1-3のいずれかに記載の拡張現実ディスプレイシステム。
6.該特性は、該特徴の場所を備える、実施例1-5のいずれかに記載の拡張現実ディスプレイシステム。
7.該特性は、該特徴の形状を備える、実施例1-6のいずれかに記載の拡張現実ディスプレイシステム。
8.該特性は、該特徴の配向を備える、実施例1-7のいずれかに記載の拡張現実ディスプレイシステム。
9.世界内の実オブジェクトの場所を検出するように構成される深度センサをさらに備える、実施例1-8のいずれかに記載の拡張現実ディスプレイシステム。
10.該処理回路は、放出された不可視光の分布と不可視光の反射された部分の分布との間の差異を決定するように構成される、実施例1-9のいずれかに記載の拡張現実ディスプレイシステム。
11.該処理回路は、決定された差異に基づいて、差異シグネチャを識別するように構成される、実施例10に記載の拡張現実ディスプレイシステム。
12.該処理回路は、実オブジェクトの場所および差異シグネチャの場所に基づいて、実オブジェクトの配向を決定するように構成される、実施例11に記載の拡張現実ディスプレイシステム。
13.該処理回路は、少なくとも部分的に、差異シグネチャの場所に基づいて、実オブジェクトの場所を決定するように構成される、実施例12に記載の拡張現実ディスプレイシステム。
14.フレーム上に配置される、接眼レンズをさらに備え、該接眼レンズの少なくとも一部分は、透明であり、該透明部分が、装着者の正面の環境からの光を装着者の眼に透過させ、装着者の正面の環境のビューを提供するように、装着者が該ディスプレイシステムを装着したときに装着者の眼の正面の場所に配置される、実施例1-13のいずれかに記載の拡張現実ディスプレイシステム。
15.拡張現実ディスプレイシステムであって、
装着者上に搭載するように構成されるフレームと、
フレームに取り付けられ、画像を装着者の眼に指向するように構成される拡張現実ディスプレイと、
装着者の視野内の実オブジェクトの表面をマッピングするように構成される深度センサと、
実オブジェクトの表面上に入射する少なくとも第1の波長における光を投影するように構成される光源と、
実オブジェクトの表面によって反射された光の一部分を使用して画像を形成するように構成される光検出器と、
処理回路であって、該処理回路は、少なくとも部分的に、光パターンの反射された部分に基づいて、光差異マーカを決定し、仮想オブジェクトを光差異マーカに対して固定変位でレンダリングするように構成される、処理回路と
を備える、拡張現実ディスプレイシステム。
16.仮想オブジェクトを光差異マーカに対して固定変位でレンダリングすることは、
初期時間において仮想オブジェクトを実オブジェクトに対してレンダリングするための初期場所を受信することと、
初期場所と光差異マーカとの間の距離に基づいて、固定変位を決定することと、
初期時間に続くある時間に光差異マーカの後続場所を検出することと、
仮想オブジェクトを光差異マーカの検出された後続場所に対して固定変位でレンダリングすることと
を含む、実施例15に記載の拡張現実ディスプレイシステム。
17.フレーム上に配置される接眼レンズをさらに備え、該接眼レンズの少なくとも一部分は、透明であり、該透明部分が、装着者の正面の環境からの光を装着者の眼に透過させ、装着者の正面の環境のビューを提供するように、装着者が該ディスプレイシステムを装着したときに装着者の眼の正面の場所に配置される、実施例15または16に記載の拡張現実ディスプレイシステム。
18.3Dコンテンツと実オブジェクトとを整合させるように構成される拡張現実ディスプレイシステムであって、該システムは、
装着者上に搭載するように構成されるフレームと、
フレームに取り付けられ、画像を装着者の眼に指向するように構成される拡張現実ディスプレイと、
装着者の視野内の実オブジェクトの表面をマッピングするように構成される深度センサと、
光を放出することによって、オブジェクトの少なくとも一部分を照明するように構成される光源と、
該放出された光を使用して該光源によって照明された該オブジェクトの該一部分を結像するように構成される光センサと、
処理回路であって、該処理回路は、該オブジェクトの該画像内の特徴の1つ以上の特性に基づいて、実オブジェクトの場所、実オブジェクトの配向、または両方に関する情報を決定するように構成される、処理回路と
を備える、システム。
19.光源によって放出される光は、スポットをオブジェクトの該一部分上に形成するビームを備える、実施例18に記載の拡張現実ディスプレイシステム。
20.光源によって放出される光は、光パターンを備える、実施例18に記載の拡張現実ディスプレイシステム。
21.該特性は、該特徴の場所を備える、実施例18-20のいずれかに記載の拡張現実ディスプレイシステム。
22.該特性は、該特徴の形状を備える、実施例18-21のいずれかに記載の拡張現実ディスプレイシステム。
23.該特性は、該特徴の配向を備える、実施例18-22のいずれかに記載の拡張現実ディスプレイシステム。
24.該処理回路は、放出された光の分布と該オブジェクトから反射された該放出された光の分布との間の差異を決定するように構成される、実施例18-23のいずれかに記載の拡張現実ディスプレイシステム。
25.該処理回路は、決定された差異に基づいて、光差異マーカを識別するように構成される、実施例24に記載の拡張現実ディスプレイシステム。
26.該処理回路は、実オブジェクトの場所および光差異マーカの場所に基づいて、実オブジェクトの配向を決定するように構成される、実施例25に記載の拡張現実ディスプレイシステム。
27.該処理回路は、少なくとも部分的に、光差異マーカの場所に基づいて、実オブジェクトの場所を決定するように構成される、実施例25または26に記載の拡張現実ディスプレイシステム。
28.該深度センサは、レーザまたは超音波距離計を備える、実施例18-27のいずれかに記載の拡張現実ディスプレイシステム。
29.該深度センサは、カメラを備える、実施例18-28のいずれかに記載の拡張現実ディスプレイシステム。
30.フレーム上に配置される接眼レンズをさらに備え、該接眼レンズの少なくとも一部分は、透明であり、該透明部分が、装着者の正面の環境からの光を装着者の眼に透過させ、装着者の正面の環境のビューを提供するように、装着者が該ディスプレイシステムを装着したときに装着者の眼の正面の場所に配置される、実施例18-29のいずれかに記載の拡張現実ディスプレイシステム。
31.該ディスプレイは、異なる画像コンテンツが異なる深度に位置するかのように、画像コンテンツをレンダリングするように構成される、前述の実施例のいずれかに記載の拡張現実ディスプレイシステム。
32.該ディスプレイは、該異なる深度を提供するための異なる屈折力を有する多屈折力光学要素を含む、実施例31に記載の拡張現実ディスプレイシステム。
図1は、ARデバイスを通した拡張現実(AR)のユーザのビューを図示する。
図2は、ウェアラブルディスプレイシステムの実施例を図示する。
図3は、ユーザのための3次元画像をシミュレートするための従来のディスプレイシステムを図示する。
図4は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。
図5A-5Cは、曲率半径と焦点半径との間の関係を図示する。
図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。
図7は、導波管によって出力された出射ビームの実施例を図示する。
図8は、スタックされた導波管アセンブリの実施例を図示し、各深度平面は、複数の異なる原色を使用して形成される画像を含む。
図9Aは、それぞれが内部結合光学要素を含む、スタックされた導波管のセットの実施例の断面側面図を図示する。
図9Bは、図9Aの複数のスタックされた導波管の実施例の斜視図を図示する。
図9Cは、図9Aおよび9Bの複数のスタックされた導波管の実施例の上下平面図を図示する。
図10は、マーカを使用して、世界内のオブジェクトの配向を追跡するように構成される、拡張現実ディスプレイシステムを図式的に図示する。
図11は、マーカを使用して、世界内のオブジェクトの配向を追跡する例示的方法を図示する。
ここで、同様の参照番号が全体を通して同様の部分を指す、図を参照する。本明細書に開示される実施形態は、概して、ディスプレイシステムを含む、光学システムを含むことを理解されたい。いくつかの実施形態では、ディスプレイシステムは、装着可能であって、これは、有利には、より没入型のVRまたはAR体験を提供し得る。例えば、1つ以上の導波管(例えば、導波管のスタック)を含有する、ディスプレイは、ユーザの眼または視認者の正面に位置付けられて装着されるように構成されてもよい。いくつかの実施形態では、2つの導波管(視認者の各眼に対して1つ)のスタックが、異なる画像を各眼に提供するために利用されてもよい。
(例示的ディスプレイシステム)
図2は、ウェアラブルディスプレイシステム60の実施例を図示する。ディスプレイシステム60は、ディスプレイ70と、そのディスプレイ70の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ70は、フレーム80に結合されてもよく、これは、ディスプレイシステムユーザまたは視認者90によって装着可能であって、ディスプレイ70をユーザ90の眼の正面に位置付けるように構成される。ディスプレイ70は、いくつかの実施形態では、アイウェアと見なされてもよい。いくつかの実施形態では、スピーカ100が、フレーム80に結合され、ユーザ90の外耳道に隣接して位置付けられるように構成される(いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供してもよい)。いくつかの実施形態では、ディスプレイシステムはまた、1つ以上のマイクロホン110または他のデバイスを含み、音を検出してもよい。いくつかの実施形態では、マイクロホンは、ユーザが、入力またはコマンドをシステム60に提供することを可能にするように構成され(例えば、音声メニューコマンドの選択、自然言語質問等)、および/または他の人物(例えば、類似ディスプレイシステムの他のユーザ)とのオーディオ通信を可能にしてもよい。マイクロホンはさらに、周辺センサとして構成され、オーディオデータ(例えば、ユーザおよび/または環境からの音)を収集してもよい。いくつかの実施形態では、ディスプレイシステムもまた、周辺センサ120aを含んでもよく、これは、フレーム80と別個であって、ユーザ90の身体(例えば、ユーザ90の頭部、胴体、四肢等上)に取り付けられてもよい。周辺センサ120aは、いくつかの実施形態では、ユーザ90の生理学的状態を特徴付けるデータを取得するように構成されてもよい。例えば、センサ120aは、電極であってもよい。
図2を継続して参照すると、ディスプレイ70は、有線導線または無線コネクティビティ等の通信リンク130によって、ローカルデータ処理モジュール140に動作可能に結合され、これは、フレーム80に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ90に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成で搭載されてもよい。同様に、センサ120aは、通信リンク120b、例えば、有線導線または無線コネクティビティによって、ローカルプロセッサおよびデータモジュール140に動作可能に結合されてもよい。ローカル処理およびデータモジュール140は、ハードウェアプロセッサおよび不揮発性メモリ(例えば、フラッシュメモリまたはハードディスクドライブ)等のデジタルメモリを備えてもよく、その両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、ジャイロスコープ、および/または本明細書に開示される他のセンサ等のセンサ(例えば、フレーム80に動作可能に結合される、または別様にユーザ90に取り付けられ得る)から捕捉されたデータ、および/またはb)場合によっては処理または読出後にディスプレイ70への通過のために、遠隔処理モジュール150および/または遠隔データリポジトリ160(仮想コンテンツに関連するデータを含む)を使用して取得および/または処理されたデータを含む。ローカル処理およびデータモジュール140は、これらの遠隔モジュール150、160が相互に動作可能に結合され、ローカル処理およびデータモジュール140に対するリソースとして利用可能であるように、有線または無線通信リンク等を介して、通信リンク170、180によって、遠隔処理モジュール150および遠隔データリポジトリ160に動作可能に結合されてもよい。いくつかの実施形態では、ローカル処理およびデータモジュール140は、画像捕捉デバイス、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープのうちの1つ以上のものを含んでもよい。いくつかの他の実施形態では、これらのセンサのうちの1つ以上のものは、フレーム80に取り付けられてもよい、または有線または無線通信経路によってローカル処理およびデータモジュール140と通信する、独立構造であってもよい。
図2を継続して参照すると、いくつかの実施形態では、遠隔処理モジュール150は、データおよび/または画像情報を分析および処理するように構成される、1つ以上のプロセッサを備えてもよい。いくつかの実施形態では、遠隔データリポジトリ160は、デジタルデータ記憶設備を備え得、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、遠隔データリポジトリ160は、情報、例えば、拡張現実コンテンツを生成するための情報をローカル処理およびデータモジュール140および/または遠隔処理モジュール150に提供する、1つ以上の遠隔サーバを含んでもよい。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュール内において実施され、遠隔モジュールからの完全に自律的な使用を可能にする。
「3次元」または「3-D」としての画像の知覚は、視認者の各眼への画像の若干異なる提示を提供することによって達成され得る。図3は、ユーザに関する3次元画像をシミュレートするための従来のディスプレイシステムを図示する。2つの明確に異なる画像190、200(各眼210、220に対して1つ)が、ユーザに出力される。画像190、200は、視認者の視線と平行な光学軸またはz-軸に沿って距離230だけ眼210、220から離間される。画像190、200は、平坦であって、眼210、220は、単一の遠近調節された状態をとることによって、画像上に合焦し得る。そのような3-Dディスプレイシステムは、ヒト視覚系に依拠し、画像190、200を組み合わせ、組み合わせられた画像の深度および/または尺度の知覚を提供する。
しかしながら、ヒト視覚系は、より複雑であって、深度の現実的知覚を提供することは、より困難であることを理解されたい。例えば、従来の「3-D」ディスプレイシステムの多くの視認者は、そのようなシステムが不快であることを見出す、または深度の感覚を全く知覚しない場合がある。理論によって限定されるわけではないが、オブジェクトの視認者は、輻輳・開散(vergence)と遠近調節(accmmodation)の組み合わせに起因して、オブジェクトを「3次元」として知覚し得ると考えられる。相互に対する2つの眼の輻輳・開散運動(すなわち、瞳孔が、相互に向かって、またはそこから離れるように移動し、眼の視線を収束させ、オブジェクトを固視するような眼の回転)は、眼の水晶体および瞳孔の合焦(または「遠近調節」)と緊密に関連付けられる。通常条件下、焦点を1つのオブジェクトから異なる距離における別のオブジェクトに変化させるための眼のレンズの焦点の変化または眼の遠近調節は、「遠近調節-輻輳・開散運動反射」および瞳孔拡張または収縮として知られる関係下、輻輳・開散運動の整合変化を自動的に同一距離に生じさせるであろう。同様に、輻輳・開散運動の変化は、通常条件下、水晶体形状および瞳孔サイズの遠近調節における整合変化を誘起するであろう。本明細書に記載されるように、多くの立体視または「3-D」ディスプレイシステムは、3次元視点がヒト視覚系によって知覚されるように、各眼への若干異なる提示(したがって、若干異なる画像)を使用して、場面を表示する。しかしながら、そのようなシステムは、とりわけ、単に、場面の異なる提示を提供するが、眼が全画像情報を単一の遠近調節された状態において視認すると、「遠近調節-輻輳・開散運動反射」に対抗して機能するため、多くの視認者にとって不快である。遠近調節と輻輳・開散運動との間のより優れた整合を提供するディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し、装着持続時間の増加、ひいては、診断および療法プロトコルへのコンプライアンスに寄与し得る。
図4は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。図4を参照すると、z-軸上の眼210、220からの種々の距離におけるオブジェクトは、それらのオブジェクトが合焦するように、眼210、220によって遠近調節される。眼210、220は、特定の遠近調節された状態をとり、オブジェクトをz-軸に沿った異なる距離に合焦させる。その結果、特定の遠近調節された状態は、特定の深度平面におけるオブジェクトまたはオブジェクトの一部が、眼がその深度平面に対して遠近調節された状態にあるとき、合焦するように、関連付けられた焦点距離を有する、深度平面240のうちの特定の1つと関連付けられると言え得る。いくつかの実施形態では、3次元画像は、眼210、220毎に、画像の異なる提示を提供することによって、また、深度平面のそれぞれに対応する画像の異なる提示を提供することによってシミュレートされてもよい。例証を明確にするために、別個であるように示されるが、眼210、220の視野は、例えば、z-軸に沿った距離が増加するにつれて、重複し得ることを理解されたい。加えて、例証を容易にするために、平坦であるように示されるが、深度平面の輪郭は、深度平面内の全ての特徴が特定の遠近調節された状態における眼と合焦するように、物理的空間内で湾曲され得ることを理解されたい。
オブジェクトと眼210または220との間の距離はまた、その眼によって視認されるようなそのオブジェクトからの光の発散の量を変化させ得る。図5A-5Cは、距離と光線の発散との間の関係を図示する。オブジェクトと眼210との間の距離は、減少距離R1、R2、およびR3の順序で表される。図5A-5Cに示されるように、光線は、オブジェクトまでの距離が減少するにつれてより発散する。距離が増加するにつれて、光線は、よりコリメートされる。換言すると、点(オブジェクトまたはオブジェクトの一部)によって生成されるライトフィールドは、点がユーザの眼から離れている距離の関数である、球状波面曲率を有すると言え得る。曲率は、オブジェクトと眼210との間の距離の減少に伴って増加する。その結果、異なる深度平面では、光線の発散度もまた、異なり、発散度は、深度平面と視認者の眼210との間の距離の減少に伴って増加する。単眼210のみが、例証を明確にするために、図5A-5Cおよび本明細書の他の図に図示されるが、眼210に関する議論は、視認者の両眼210および220に適用され得ることを理解されたい。
理論によって限定されるわけではないが、ヒトの眼は、典型的には、有限数の深度平面を解釈し、深度知覚を提供することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、眼にこれらの限定数の深度平面のそれぞれに対応する画像の異なる提示を提供することによって達成され得る。異なる提示は、視認者の眼によって別個に集束され、それによって、異なる深度平面上に位置する場面のための異なる画像特徴に合焦させるために要求される眼の遠近調節に基づいて、および/または焦点がずれている異なる深度平面上の異なる画像特徴の観察に基づいて、ユーザに深度合図を提供することに役立ててもよい。
図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ディスプレイシステム250は、複数の導波管270、280、290、300、310を使用して3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ260を含む。いくつかの実施形態では、ディスプレイシステム250は、図2のシステム60であって、図6は、そのシステム60のいくつかの部分をより詳細に図式的に示す。例えば、導波管アセンブリ260は、図2のディスプレイ70の一部であってもよい。ディスプレイシステム250は、いくつかの実施形態では、ライトフィールドディスプレイと見なされてもよいことを理解されたい。
図6を継続して参照すると、導波管アセンブリ260はまた、複数の特徴320、330、340、350を導波管の間に含んでもよい。いくつかの実施形態では、特徴320、330、340、350は、1つ以上のレンズであってもよい。導波管270、280、290、300、310および/または複数のレンズ320、330、340、350は、種々のレベルの波面曲率または光線発散を用いて画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度平面と関連付けられてもよく、その深度平面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス360、370、380、390、400は、導波管のための光源として機能してもよく、画像情報を導波管270、280、290、300、310の中に投入するために利用されてもよく、それぞれ、本明細書に説明されるように、眼210に向かった出力のために各個別の導波管を横断して入射光を分散させるように構成されてもよい。光は、画像投入デバイス360、370、380、390、400の出力表面410、420、430、440、450から出射し、導波管270、280、290、300、310の対応する入力表面460、470、480、490、500の中に投入される。いくつかの実施形態では、入力表面460、470、480、490、500はそれぞれ、対応する導波管の縁であってもよい、または対応する導波管の主要表面の一部(すなわち、世界510または視認者の眼210に直接面する導波管表面のうちの1つ)であってもよい。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、クローン化されたコリメートビームの全体場を出力してもよく、これは、特定の導波管と関連付けられた深度平面に対応する特定の角度(および発散量)において眼210に向かって指向される。いくつかの実施形態では、画像投入デバイス360、370、380、390、400のうちの単一の1つは、複数(例えば、3つ)の導波管270、280、290、300、310と関連付けられ、その中に光を投入してもよい。
いくつかの実施形態では、画像投入デバイス360、370、380、390、400はそれぞれ、それぞれが対応する導波管270、280、290、300、310の中への投入のための画像情報を生成する、離散ディスプレイである。いくつかの他の実施形態では、画像投入デバイス360、370、380、390、400は、例えば、画像情報を1つ以上の光学導管(光ファイバケーブル等)を介して画像投入デバイス360、370、380、390、400のそれぞれに送り得る、単一の多重化されたディスプレイの出力端である。画像投入デバイス360、370、380、390、400によって提供される画像情報は、異なる波長または色(例えば、本明細書に議論されるように、異なる原色)の光を含んでもよいことを理解されたい。
いくつかの実施形態では、導波管270、280、290、300、310の中に投入される光は、光プロジェクタシステム520によって提供され、これは、光モジュール530を備え、これは、発光ダイオード(LED)等の光エミッタを含んでもよい。光モジュール530からの光は、ビームスプリッタ550を介して、光変調器540、例えば、空間光変調器によって指向および修正されてもよい。光変調器540は、導波管270、280、290、300、310の中に投入される光の知覚される強度を変化させるように構成されてもよい。空間光変調器の実施例は、シリコン上液晶(LCOS)ディスプレイを含む、液晶ディスプレイ(LCD)を含む。
いくつかの実施形態では、ディスプレイシステム250は、光を種々のパターン(例えば、ラスタ走査、螺旋走査、リサジューパターン等)で1つ以上の導波管270、280、290、300、310の中に、最終的には、視認者の眼210に投影するように構成される、1つ以上の走査ファイバを備える、走査ファイバディスプレイであってもよい。いくつかの実施形態では、図示される画像投入デバイス360、370、380、390、400は、光を1つまたは複数の導波管270、280、290、300、310の中に投入するように構成される、単一走査ファイバまたは走査ファイバの束を図式的に表し得る。いくつかの他の実施形態では、図示される画像投入デバイス360、370、380、390、400は、複数の走査ファイバまたは走査ファイバの複数の束を図式的に表し得、これらのそれぞれが、光を導波管270、280、290、300、310のうちの関連付けられた1つの中に投入するように構成される。1つ以上の光ファイバは、光を光モジュール530から1つ以上の導波管270、280、290、300、310に伝送するように構成されてもよいことを理解されたい。1つ以上の介在光学構造が、走査ファイバ(1つまたは複数)と、1つ以上の導波管270、280、290、300、310との間に提供され、例えば、走査ファイバから出射する光を1つ以上の導波管270、280、290、300、310の中に再指向してもよいことを理解されたい。
コントローラ560は、画像投入デバイス360、370、380、390、400、光源530、および光変調器540の動作を含む、スタックされた導波管アセンブリ260のうちの1つ以上のものの動作を制御する。いくつかの実施形態では、コントローラ560は、ローカルデータ処理モジュール140の一部である。コントローラ560は、例えば、本明細書に開示される種々のスキームのいずれかに従って、導波管270、280、290、300、310への画像情報のタイミングおよびプロビジョニングを調整する、プログラミング(例えば、非一過性媒体内の命令)を含む。いくつかの実施形態では、コントローラは、単一の一体型デバイスまたは有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ560は、いくつかの実施形態では、処理モジュール140または150(図2)の一部であってもよい。
図6を継続して参照すると、導波管270、280、290、300、310は、全内部反射(TIR)によって、光を各個別の導波管内で伝搬させるように構成されてもよい。導波管270、280、290、300、310はそれぞれ、主要上部表面および主要底部表面およびそれらの主要上部表面と主要底部表面との間に延在する縁を伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管270、280、290、300、310はそれぞれ、光を再指向させ、各個別の導波管内で伝搬させ、導波管から画像情報を眼210に出力することによって、光を導波管から抽出するように構成される、外部結合光学要素570、580、590、600、610を含んでもよい。抽出された光はまた、外部結合光と称され得、光を外部結合する光学要素はまた、光抽出光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内で伝搬する光が光抽出光学要素に衝打する場所において出力され得る。外部結合光学要素570、580、590、600、610は、例えば、本明細書にさらに議論されるような回折光学特徴を含む、格子であってもよい。説明を容易にし、図面を明確にするために、導波管270、280、290、300、310の底部主要表面に配置されて図示されるが、いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、本明細書にさらに議論されるように、上部主要表面および/または底部主要表面に配置されてもよく、および/または導波管270、280、290、300、310の容積内に直接配置されてもよい。いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、透明基板に取り付けられ、導波管270、280、290、300、310を形成する、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管270、280、290、300、310は、モノリシック材料部品であってもよく、外部結合光学要素570、580、590、600、610は、その材料部品の表面上および/または内部に形成されてもよい。
図6を継続して参照すると、本明細書に議論されるように、各導波管270、280、290、300、310は、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管270は、眼210にコリメートされた光(そのような導波管270の中に投入された)を送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管280は、眼210に到達し得る前に、第1のレンズ350(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。そのような第1のレンズ350は、眼/脳が、その次の上方の導波管280から生じる光を光学無限遠から眼210に向かって内向きにより近い第1の焦点面から生じるように解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管290は、眼210に到達する前に、その出力光を第1のレンズ350および第2のレンズ340の両方を通して通過させる。第1のレンズ350および第2のレンズ340の組み合わせられた屈折力は、眼/脳が、第3の導波管290から生じる光が次の上方の導波管280からの光であったよりも光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるように解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。
他の導波管層300、310およびレンズ330、320も同様に構成され、スタック内の最高導波管310は、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ260の他側の世界510から生じる光を視認/解釈するとき、レンズ320、330、340、350のスタックを補償するために、補償レンズ層620が、スタックの上部に配置され、下方のレンズスタック320、330、340、350の集約力を補償してもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の外部結合光学要素およびレンズの集束側面は両方とも、静的であってもよい(すなわち、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。
いくつかの実施形態では、導波管270、280、290、300、310のうちの2つ以上のものは、同一の関連付けられた深度平面を有してもよい。例えば、複数の導波管270、280、290、300、310が、同一深度平面に設定される画像を出力するように構成されてもよい、または導波管270、280、290、300、310の複数のサブセットが、深度平面毎に1つのセットを伴う、同一の複数の深度平面に設定される画像を出力するように構成されてもよい。これは、それらの深度平面において拡張された視野を提供するようにタイル化された画像を形成する利点を提供し得る。
図6を継続して参照すると、外部結合光学要素570、580、590、600、610は、導波管と関連付けられた特定の深度平面のために、光をその個別の導波管から再指向し、かつこの光を適切な量の発散またはコリメーションを伴って出力するように構成されてもよい。その結果、異なる関連付けられた深度平面を有する導波管は、外部結合光学要素570、580、590、600、610の異なる構成を有してもよく、これは、関連付けられた深度平面に応じて、異なる発散量を伴う光を出力する。いくつかの実施形態では、光抽出光学要素570、580、590、600、610は、体積特徴または表面特徴であってもよく、これは、具体的角度において光を出力するように構成されてもよい。例えば、光抽出光学要素570、580、590、600、610は、体積ホログラム、表面ホログラム、および/または回折格子であってもよい。いくつかの実施形態では、特徴320、330、340、350は、レンズではなくてもよい。むしろ、それらは、単に、スペーサであってもよい(例えば、クラッディング層および/または空隙を形成するための構造)。
いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、回折パターンまたは「回折光学要素」(また、本明細書では、「DOE」とも称される)を形成する、回折特徴である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差点で眼210に向かって偏向される一方、残りが、TIRを介して導波管を通して移動し続けるように、十分に低回折効率を有する。画像情報を搬送する光は、したがって、複数の場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼210に向かって非常に均一パターンの出射放出となる。
いくつかの実施形態では、1つ以上のDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であってもよい。例えば、切替可能なDOEは、ポリマー分散液晶の層を備えてもよく、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に整合するように切り替えられてもよい(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに整合しない屈折率に切り替えられてもよい(その場合、パターンは、入射光を能動的に回折させる)。
いくつかの実施形態では、カメラアセンブリ630(例えば、可視光および赤外線光カメラを含む、デジタルカメラ)が、眼210および/または眼210の周囲の組織の画像を捕捉し、例えば、ユーザ入力を検出する、および/またはユーザの生理学的状態を監視するために提供されてもよい。本明細書で使用されるように、カメラは、任意の画像捕捉デバイスであってもよい。いくつかの実施形態では、カメラアセンブリ630は、画像捕捉デバイスと、光(例えば、赤外線光)を眼に投影し、該光が次いで、眼によって反射され、画像捕捉デバイスによって検出され得る、光源とを含んでもよい。いくつかの実施形態では、カメラアセンブリ630は、フレーム80(図2)に取り付けられてもよく、本明細書に議論されるように、カメラアセンブリ630からの画像情報を処理し、例えば、ユーザの生理学的状態に関する種々の決定を行い得る、処理モジュール140および/または150と電気通信してもよい。ユーザの生理学的状態に関する情報は、ユーザの挙動または感情状態を決定するために使用されてもよいことを理解されたい。そのような情報の実施例は、ユーザの移動および/またはユーザの顔の表情を含む。ユーザの挙動または感情状態は、次いで、挙動または感情状態と、生理学的状態と、環境または仮想コンテンツデータとの間の関係を決定するように、収集された環境および/または仮想コンテンツデータを用いて三角測量されてもよい。いくつかの実施形態では、1つのカメラアセンブリ630が、各眼に対して利用され、各眼を別個に監視してもよい。
ここで図7を参照すると、導波管によって出力された出射ビームの実施例が、示される。1つの導波管が図示されるが、導波管アセンブリ260(図6)内の他の導波管も同様に機能し得、導波管アセンブリ260は、複数の導波管を含むことを理解されたい。光640が、導波管270の入力表面460において導波管270の中に投入され、TIRによって導波管270内を伝搬する。光640がDOE570上に衝突する点では、光の一部は、導波管から出射ビーム650として出射する。出射ビーム650は、略平行として図示されるが、本明細書に議論されるように、また、導波管270と関連付けられた深度平面に応じて、ある角度(例えば、発散出射ビーム形成)において眼210に伝搬するように再指向されてもよい。略平行出射ビームは、眼210からの遠距離(例えば、光学無限遠)における深度平面に設定されるように現れる画像を形成するように光を外部結合する、外部結合光学要素を伴う、導波管を示し得ることを理解されたい。他の導波管または他の外部結合光学要素のセットは、より発散する、出射ビームパターンを出力してもよく、これは、眼210がより近い距離に遠近調節し、網膜に合焦させることを要求し、光学無限遠より眼210に近い距離からの光として脳によって解釈されるであろう。
いくつかの実施形態では、フルカラー画像が、原色、例えば、3つ以上の原色のそれぞれに画像をオーバーレイすることによって、各深度平面において形成されてもよい。図8は、スタックされた導波管アセンブリの実施例を図示し、各深度平面は、複数の異なる原色を使用して形成される画像を含む。図示される実施形態は、深度平面240a-240fを示すが、より多いまたはより少ない深度もまた、検討される。各深度平面は、第1の色Gの第1の画像、第2の色Rの第2の画像、および第3の色Bの第3の画像を含む、それと関連付けられた3つ以上の原色画像を有してもよい。異なる深度平面は、文字G、R、およびBに続くジオプタ(dpt)に関する異なる数字によって図に示される。単なる実施例として、これらの文字のそれぞれに続く数字は、ジオプタ(1/m)、すなわち、視認者からの深度平面の逆距離を示し、図中の各ボックスは、個々の原色画像を表す。いくつかの実施形態では、異なる波長の光の眼の集束における差異を考慮するために、異なる原色に関する深度平面の正確な場所は、変動してもよい。例えば、所与の深度平面に関する異なる原色画像は、ユーザからの異なる距離に対応する深度平面上に設置されてもよい。そのような配列は、視力およびユーザ快適性を増加させ得、および/または色収差を減少させ得る。
いくつかの実施形態では、各原色の光は、単一専用導波管によって出力されてもよく、その結果、各深度平面は、それと関連付けられた複数の導波管を有してもよい。そのような実施形態では、文字G、R、またはBを含む、図中の各ボックスは、個々の導波管を表すものと理解され得、3つの導波管は、深度平面毎に提供されてもよく、3つの原色画像が、深度平面毎に提供される。各深度平面と関連付けられた導波管は、本図面では、説明を容易にするために相互に隣接して示されるが、物理的デバイスでは、導波管は全て、レベル毎に1つの導波管を伴うスタックで配列されてもよいことを理解されたい。いくつかの他の実施形態では、複数の原色が、例えば、単一導波管のみが深度平面毎に提供され得るように、同一導波管によって出力されてもよい。
図8を継続して参照すると、いくつかの実施形態では、Gは、緑色であって、Rは、赤色であって、Bは、青色である。いくつかの他の実施形態では、マゼンタ色およびシアン色を含む、光の他の波長と関連付けられた他の色も、加えて使用されてもよい、または赤色、緑色、または青色のうちの1つ以上のものに取って代わってもよい。いくつかの実施形態では、特徴320、330、340、および350は、視認者の眼への周囲環境からの光を遮断または選択するように構成される、能動または受動光学フィルタであってもよい。
本開示全体を通した所与の光の色の言及は、その所与の色として視認者によって知覚される、光の波長の範囲内の1つ以上の波長の光を包含するものと理解されると理解されたい。例えば、赤色光は、約620~780nmの範囲内である1つ以上の波長の光を含んでもよく、緑色光は、約492~577nmの範囲内である1つ以上の波長の光を含んでもよく、青色光は、約435~493nmの範囲内である1つ以上の波長の光を含んでもよい。
いくつかの実施形態では、光源530(図6)は、視認者の視覚的知覚範囲外の1つ以上の波長の光、例えば、赤外線および/または紫外線波長の光を放出するように構成されてもよい。加えて、ディスプレイ250の導波管の内部結合、外部結合、および他の光再指向構造は、例えば、結像および/またはユーザ刺激用途のために、この光をディスプレイからユーザの眼210に向かって指向および放出するように構成されてもよい。
ここで図9Aを参照すると、いくつかの実施形態では、導波管に衝突する光は、その光を導波管の中に内部結合するために再指向される必要があり得る。内部結合光学要素が、光をその対応する導波管の中に再指向および内部結合するために使用されてもよい。図9Aは、それぞれが内部結合光学要素を含む、複数またはセット660のスタックされた導波管の実施例の断面側面図を図示する。導波管はそれぞれ、1つ以上の異なる波長または1つ以上の異なる波長範囲の光を出力するように構成されてもよい。スタック660は、スタック260(図6)に対応してもよく、スタック660の図示される導波管は、複数の導波管270、280、290、300、310の一部に対応してもよいが、画像投入デバイス360、370、380、390、400のうちの1つ以上のものからの光が、光が内部結合のために再指向されることを要求する位置から導波管の中に投入されることを理解されたい。
スタックされた導波管の図示されるセット660は、導波管670、680、および690を含む。各導波管は、関連付けられた内部結合光学要素(導波管上の光入力面積とも称され得る)を含み、例えば、内部結合光学要素700は、導波管670の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素710は、導波管680の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素720は、導波管690の主要表面(例えば、上側主要表面)上に配置される。いくつかの実施形態では、内部結合光学要素700、710、720のうちの1つ以上のものは、個別の導波管670、680、690の底部主要表面上に配置されてもよい(特に、1つ以上の内部結合光学要素は、反射性偏向光学要素である)。図示されるように、内部結合光学要素700、710、720は、その個別の導波管670、680、690の上側主要表面(または次の下側導波管の上部)上に配置されてもよく、特に、それらの内部結合光学要素は、透過性偏向光学要素である。いくつかの実施形態では、内部結合光学要素700、710、720は、個別の導波管670、680、690の本体内に配置されてもよい。いくつかの実施形態では、本明細書に議論されるように、内部結合光学要素700、710、720は、光の他の波長を透過しながら、光の1つ以上の波長を選択的に再指向するような波長選択的である。その個別の導波管670、680、690の片側または角に図示されるが、内部結合光学要素700、710、720は、いくつかの実施形態では、その個別の導波管670、680、690の他の面積内に配置されてもよいことを理解されたい。
図示されるように、内部結合光学要素700、710、720は、相互から側方にオフセットされてもよい。いくつかの実施形態では、各内部結合光学要素は、その光が別の内部結合光学要素を通して通過せずに、光を受信するようにオフセットされてもよい。例えば、各内部結合光学要素700、710、720は、図6に示されるように、光を異なる画像投入デバイス360、370、380、390、および400から受信するように構成されてもよく、光を内部結合光学要素700、710、720の他のものから実質的に受信しないように、他の内部結合光学要素700、710、720から分離されてもよい(例えば、側方に離間される)。
各導波管はまた、関連付けられた光分散要素を含み、例えば、光分散要素730は、導波管670の主要表面(例えば、上部主要表面)上に配置され、光分散要素740は、導波管680の主要表面(例えば、上部主要表面)上に配置され、光分散要素750は、導波管690の主要表面(例えば、上部主要表面)上に配置される。いくつかの他の実施形態では、光分散要素730、740、750は、それぞれ、関連付けられた導波管670、680、690の底部主要表面上に配置されてもよい。いくつかの他の実施形態では、光分散要素730、740、750は、それぞれ、関連付けられた導波管670、680、690の上部主要表面および底部主要表面の両方の上に配置されてもよい、または光分散要素730、740、750は、それぞれ、異なる関連付けられた導波管670、680、690内の上部主要表面および底部主要表面の異なるもの上に配置されてもよい。
導波管670、680、690は、例えば、材料のガス、液体、および/または固体層によって離間および分離されてもよい。例えば、図示されるように、層760aは、導波管670および680を分離してもよく、層760bは、導波管680および690を分離してもよい。いくつかの実施形態では、層760aおよび760bは、低屈折率材料(すなわち、導波管670、680、690の直近のものを形成する材料より低い屈折率を有する材料)から形成される。好ましくは、層760a、760bを形成する材料の屈折率は、導波管670、680、690を形成する材料の屈折率と比較して0.05以上であるかまたは0.10以下である。有利には、より低い屈折率層760a、760bは、導波管670、680、690を通して光の全内部反射(TIR)(例えば、各導波管の上部主要表面および底部主要表面の間のTIR)を促進する、クラッディング層として機能してもよい。いくつかの実施形態では、層760a、760bは、空気から形成される。図示されないが、導波管の図示されるセット660の上部および底部は、直近クラッディング層を含んでもよいことを理解されたい。
好ましくは、製造および他の考慮点を容易にするために、導波管670、680、690を形成する材料は、類似または同一であって、層760a、760bを形成する材料は、類似または同一である。いくつかの実施形態では、導波管670、680、690を形成する材料は、1つ以上の導波管間で異なってもよい、および/または層760a、760bを形成する材料は、依然として、前述の種々の屈折率関係を保持しながら、異なってもよい。
図9Aを継続して参照すると、光線770、780、790が、導波管のセット660に入射する。光線770、780、790は、1つ以上の画像投入デバイス360、370、380、390、400(図6)によって導波管670、680、690の中に投入されてもよいことを理解されたい。
いくつかの実施形態では、光線770、780、790は、異なる性質、例えば、異なる色に対応し得る、異なる波長または異なる波長範囲を有する。光線770、780、790はまた、内部結合光学要素700、710、720の側方場所に対応する異なる場所に側方に変位されてもよい。内部結合光学要素700、710、720はそれぞれ、光がTIRによって導波管670、680、690のうちの個別の1つを通して伝搬するように、入射光を偏向する。
例えば、内部結合光学要素700は、第1の波長または波長範囲を有する、光線770を偏向させるように構成されてもよい。同様に、透過された光線780は、第2の波長または波長範囲の光を偏向させるように構成される、内部結合光学要素710に衝突し、それによって偏向される。同様に、光線790は、第3の波長または波長範囲の光を選択的に偏向させるように構成される、内部結合光学要素720によって偏向される。
図9Aを継続して参照すると、偏向された光線770、780、790は、対応する導波管670、680、690を通して伝搬するように偏向される。すなわち、各導波管の内部結合光学要素700、710、720は、光をその対応する導波管670、680、690の中に偏向させ、光を対応する導波管の中に内部結合する。光線770、780、790は、光をTIRによって個別の導波管670、680、690を通して伝搬させる角度で偏向され、したがって、その中に誘導される。例えば、光線770、780、790の偏向は、ホログラフィック、回折、および/または反射方向転換特徴、反射体、またはミラー等の1つ以上の反射、回折、および/またはホログラフィック光学要素によって生じてもよい。偏向は、ある場合には、例えば、光導波路内で誘導されるように、光を方向転換または再指向するように構成される、1つ以上の格子および/またはホログラフィックおよび/または回折光学要素内の回折特徴等のマイクロ構造によって生じてもよい。光線770、780、790は、導波管の対応する光分散要素730、740、750に衝突するまで、その中で誘導されているTIRによって個別の導波管670、680、690を通して伝搬する。
ここで図9Bを参照すると、図9Aの複数のスタックされた導波管の実施例の斜視図が、図示される。前述のように、内部結合された光線770、780、790は、それぞれ、内部結合光学要素700、710、720によって偏向され、次いで、それぞれ、導波管670、680、690内でTIRによって伝搬し、誘導される。誘導された光線770、780、790は、次いで、それぞれ、光分散要素730、740、750に衝突する。光分散要素730、740、750は、ホログラフィック、回折、および/または反射方向転換特徴、反射体、またはミラー等の1つ以上の反射、回折、および/またはホログラフィック光学要素を備えてもよい。偏向は、ある場合には、例えば、光導波路を用いて誘導され得るように、光を方向転換または再指向するように構成される、1つ以上の格子および/またはホログラフィックおよび/または回折光学要素内の回折特徴等のマイクロ構造によって生じてもよい。光線770、780、790は、それらが偏向されるが、しかしながら、光線770、780、790が、依然として、導波管内で誘導される様式において、導波管の対応する光分散要素730、740、750上に衝突するまで、その中で誘導されているTIRによって、個別の導波管670、680、690を通して伝搬する。光分散要素730、740、750は、それぞれ、外部結合光学要素800、810、820に向かって伝搬するように、光線770、780、790を偏向させる。
外部結合光学要素800、810、820は、導波管内を誘導される光、例えば、光線770、780、790を導波管から外に視認者の眼に向かって指向するように構成される。外部結合光学要素800、810、820は、したがって、光が、導波管内で誘導されず、代わりに、そこから出射するように、全内部反射(TIR)の影響を低減させるために、導波管内を誘導される光、例えば、光線770、780、790を導波管の表面に対してより垂直な角度で偏向および再指向するように構成されてもよい。さらに、これらの外部結合光学要素800、810、820は、この光、例えば、光線770、780、790を視認者の眼に向かって偏向および再指向するように構成されてもよい。故に、外部結合光学要素800、810、820は、ホログラフィック、回折、および/または反射方向転換特徴、反射体、またはミラー等の1つ以上の反射、回折、および/またはホログラフィック光学要素を備えてもよい。偏向は、ある場合には、例えば、光導波路を用いて誘導されるように、光を方向転換または再指向するように構成される、1つ以上の格子および/またはホログラフィックおよび/または回折光学要素内の回折特徴等のマイクロ構造によって生じてもよい。光学要素800、810、820は、導波管から外にユーザの眼に向かって伝搬するように、光線770、780、790を反射、偏向、および/または回折するように構成されてもよい。
いくつかの実施形態では、光分散要素730、740、750は、直交瞳エクスパンダ(OPE)である。いくつかの実施形態では、OPEは、光を外部結合光学要素800、810、820に偏向または分散させることと、そして、ビームまたは複数のビームを複製し、外部結合光学要素に伝搬するより多数のビームを形成することとの両方を行う。ビームが、OPEに沿って進行するにつれて、ビームの一部は、ビームから分裂され、ビームに直交する方向、すなわち、外部結合光学要素800、810、820の方向に進行してもよい。OPE内のビームの直交分裂は、ビームの経路に沿ってOPEを通して繰り返し生じ得る。例えば、OPEは、一連の実質的に均一ビームレットが単一ビームから生産されるように、ビーム経路に沿って増加する反射率を有する格子を含んでもよい。いくつかの実施形態では、外部結合光学要素800、810、820は、光を視認者の眼210(図7)に指向させる、射出瞳(EP)または射出瞳エクスパンダ(EPE)である。OPEは、例えば、x方向に沿って、アイボックスの寸法を増加させるように構成されてもよく、EPEは、例えば、y方向に沿って、OPEの軸と交差する(例えば、直交する)軸においてアイボックスを増加させてもよい。
故に、図9Aおよび9Bを参照すると、いくつかの実施形態では、導波管のセット660は、原色毎に、導波管670、680、690と、内部結合光学要素700、710、720と、光分散要素(例えば、OPE)730、740、750と、外部結合光学要素(例えば、EPE)800、810、820とを含む。導波管670、680、690は、各1つの間に空隙および/またはクラッディング層を伴ってスタックされてもよい。内部結合光学要素700、710、720は、(異なる波長の光を受信する異なる内部結合光学要素を用いて)入射光をその個別の導波管の中に再指向または偏向させる。光は、次いで、個別の導波管670、680、690内にTIRをもたらすであろう角度で伝搬し、光は、その中で誘導される。示される実施例では、光線770(例えば、青色光)は、前述の様式において、第1の内部結合光学要素700によって偏光され、次いで、その中で誘導されている導波管内で伝搬し続け、外部結合光学要素(例えば、EPE)800に伝搬する複数の光線に複製される、光分散要素(例えば、OPE)730と相互作用する。光線780および790(例えば、それぞれ、緑色光および赤色光)は、導波管670を通して通過し、光線780は、内部結合光学要素710上に入射し、それによって偏向される。光線780は、次いで、TIRを介して、導波管680を辿ってバウンスし、外部結合光学要素(例えば、EPE)810に伝搬する複数の光線に複製される、その光分散要素(例えば、OPE)740に進むであろう。最後に、光線790(例えば、赤色光)は、導波管690を通して通過し、導波管690の内部結合光学要素720に衝突する。光内部結合光学要素720は、光線が、それが外部結合光学要素(例えば、EPE)820へとTIRによって伝搬する複数の光線に複製される、光分散要素(例えば、OPE)750へとTIRによって伝搬するように、光線790を偏向させる。外部結合光学要素820は、次いで、最後に、さらに複製され、光線790を視認者に外部結合し、視認者はまた、他の導波管670、680からの外部結合された光も受信する。
図9Cは、図9Aおよび9Bの複数のスタックされた導波管の実施例の上下平面図(または正面図)を図示する。図示されるように、導波管670、680、690は、各導波管の関連付けられた光分散要素730、740、750および関連付けられた外部結合光学要素800、810、820とともに、垂直に(例えば、x方向およびy方向に沿って)整合されてもよい。しかしながら、本明細書に議論されるように、内部結合光学要素700、710、720は、垂直に整合されない。むしろ、内部結合光学要素は、好ましくは、非重複する(例えば、本実施例における正面図の上下図に見られるように、x方向に沿って側方に離間される)。y方向等の他の方向における偏移もまた、採用されることができる。本非重複空間配列は、1対1ベースで異なる光源および/またはディスプレイ等の異なるリソースから異なる導波管の中への光の投入を促進し、それによって、具体的光源が具体的導波管に一意に結合されることを可能にする。いくつかの実施形態では、非重複の側方に空間的に分離される内部結合光学要素を含む、配列は、偏移瞳システムと称され得、これらの配列内の内部結合光学要素は、サブ瞳に対応し得る。
光を導波管から外に結合することに加え、外部結合光学要素800、810、820は、光が、遠距離またはより近い距離、深度、または深度平面においてオブジェクトから生じたかのように、光をコリメートまたは発散させ得る。コリメートされた光は、例えば、ビューから遠いオブジェクトからの光と一致する。増加して発散する光は、より近い、例えば、視認者の正面から5~10フィートまたは1~3フィートのオブジェクトからの光と一致する。眼の自然水晶体は、眼により近いオブジェクトを視認するとき、遠近調節し、脳は、本遠近調節を感知し得、これはまた、次いで、深度キューとしての役割を果たす。同様に、光をある量だけ発散させることによって、眼は、遠近調節し、オブジェクトがより近い距離にあると知覚するであろう。故に、外部結合光学要素800、810、820は、光が、遠距離または近距離、深度、または深度平面から発出されたかのように、光をコリメートまたは発散させるように構成されることができる。そのために、外部結合光学要素800、810、820は、屈折力を含んでもよい。例えば、外部結合光学要素800、810、820は、光を導波管から外に偏向または再指向することに加え、これらのホログラフィック、回折、および/または反射光学要素がさらに、光をコリメートまたは発散させる屈折力を含み得る、ホログラフィック、回折、および/または反射光学要素を含んでもよい。外部結合光学要素800、810、820は、代替として、または加えて、光をコリメートまたは発散させる屈折力を含む、屈折表面を含んでもよい。外部結合光学要素800、810、820は、したがって、例えば、回折またはホログラフィック方向転換特徴に加え、屈折力を提供する屈折表面を備えてもよい。そのような屈折表面はまた、外部結合光学要素800、810、820に加え、例えば、外部結合光学要素800、810、820の上部に含まれてもよい。ある実施形態では、例えば、光学要素、例えば、回折光学要素、ホログラフィック光学要素、屈折レンズ表面、または他の構造は、外部結合光学要素800、810、820に対して配置され、光のコリメーションまたは発散を生じさせる屈折力を提供してもよい。屈折表面を伴う層等の屈折力を伴う層または回折および/またはホログラフィック特徴を伴う層は、例えば、外部結合光学要素800、810、820に対して配置され、加えて、屈折力を提供し得る。屈折力を有する外部結合光学要素800、810、820と、屈折表面を伴う層等の屈折力を伴う付加的層または回折および/またはホログラフィック特徴を伴う層の両方からの寄与の組み合わせもまた、可能性として考えられる。
(例示的3Dコンテンツレンダリングシステムおよび方法)
種々の実装では、本明細書に説明される拡張現実システムおよび方法は、装着者の周囲の世界内の実オブジェクトと相互作用するように現れる、仮想オブジェクト等の仮想コンテンツをレンダリングするために使用されることができる。いくつかの実施形態では、深度センサが、装着者および/または装着者の身体部分の周囲の世界をマッピングするために使用されてもよく、拡張現実システムは、オブジェクトまたはグラフィック等の3D仮想コンテンツを世界内で検出された実オブジェクト上にレンダリングすることができる。一実施例では、仮想コンテンツは、装着者の手首上にレンダリングされた仮想腕時計であることができる。したがって、頭部搭載型拡張現実デバイスの装着者が、実腕時計を装着していない間、デバイスのディスプレイを通して装着者に表示される仮想腕時計は、装着者の手首上に位置するように現れることができる。別の実施例では、仮想コンテンツは、コーヒーカップの側面上に表示されるためのロゴまたは広告コンテンツ等の実オブジェクト上への表示のためのグラフィック設計であることができる。
仮想コンテンツと関連付けられた実オブジェクトの場所は、深度センサ等によって追跡されることができる。仮想コンテンツは、実オブジェクトの場所に基づいて決定された場所に表示されることができる。例えば、装着者が、仮想腕時計と関連付けられた手首を移動させるにつれて、デバイスは、腕時計が装着者の手首上に継続して現れるように、装着者に表示されるにつれて、仮想腕時計の場所を変化させることができる。しかしながら、既存の深度センサは、仮想コンテンツと関連付けられた実オブジェクトの配向を検出不可能である場合がある。例えば、上記に説明される装着者の手首またはコーヒーカップが、回転する場合、深度センサからの情報は、システムが実オブジェクトの異なる対称または略対称配向を区別することを可能にするためには不十分であり得る。したがって、深度センサは、実オブジェクトの場所を検出し得る間、本明細書に説明されるシステムは、実オブジェクトの特徴(時として、本明細書では、目印または基準特徴とも称される)の二次追跡を使用して、深度センサが検出することができない、より精密な場所および/または配向情報を識別し得る。
本明細書に説明される種々のシステムおよび方法は、拡張現実ディスプレイシステムが、オブジェクトの表面またはその近傍における可視または不可視マーカの光反射および/または散乱性質に基づいて、オブジェクトの場所および配向を追跡することを可能にし得る。いくつかの例示的実施形態では、拡張現実ディスプレイシステムは、深度センサを使用して、オブジェクトの位置を追跡し、オブジェクトの表面における特徴を識別し、オブジェクトに対する特徴の場所に基づいて、オブジェクトの配向を決定することができる。特徴(時として、本明細書では、基準特徴または基準とも称される)は、配向追跡の目的のために付加的マーカを別個に適用せずに、オブジェクトの配向が追跡され得るように、オブジェクトの既存の特徴であってもよい。より詳細に説明されるであろうように、特徴または基準は、赤外線または紫外線範囲内等の可視光または不可視光を使用して検出されてもよい。基準または特徴は、手首上の母斑またはコーヒーカップ内のシーム等の背景特徴、または手首、腕、または手上の1つ以上の静脈等の不可視特徴であってもよい。
ここで、本明細書に説明されるように、実オブジェクトの場所および配向を追跡するように構成される、例示的拡張現実ディスプレイシステム2010の種々のコンポーネントの概略図を示す、図10を参照する。いくつかの実施形態では、拡張現実ディスプレイシステムは、複合現実ディスプレイシステムであってもよい。示されるように、拡張現実ディスプレイシステム2010は、拡張現実コンテンツを拡張現実ディスプレイシステム2010の装着者の左眼2001および右眼2002に送達するように構成される、左導波管スタック2005および右導波管スタック2006を少なくとも部分的に包囲する、フレーム64を含む。本システムはさらに、深度センサ28と、光源26と、光検出器24とを含む。追跡システム22は、処理モジュール70を含むことができ、これは、深度センサ28、光検出器24、および/または光源26から受信されたデータを制御および/または分析することができる。深度センサ28、光検出器24、および/または光源26は、データリンク76、78を通して、処理モジュール70と通信することができる。
深度センサ28は、装着者の周囲の世界内の種々のオブジェクトの形状および場所を検出するように構成されることができる。例えば、深度センサ28によって検出されたオブジェクトは、装着者を囲繞する部屋内の壁、家具、および他のアイテム、装着者の近傍の他の人々または動物、木々、低木、自動車、建物、および同等物等の屋外オブジェクト、および/または腕、手、脚、および足等の装着者の身体の一部を含むことができる。種々の実施形態では、深度センサは、装着者から0.5メートル~4メートル、1メートル~3メートル、最大5メートルの距離範囲、または任意の他の範囲において、オブジェクトをマッピングする際に効果的であり得る。深度センサは、赤外線光、可視光、または同等物を使用して、深度を決定するように構成される、光学深度センサであることができる。種々の実施形態では、深度センサは、レーザ源、レーザ測距計、カメラ、超音波距離計、または他の距離感知、結像、および/またはマッピングデバイスのうちの1つ以上のものを含んでもよい。
光検出器24は、赤外線光、可視光、紫外線光、または他の範囲の電磁放射のうちの1つ以上のものを検出するように構成されることができる。同様に、光源26は、赤外線光、可視光、紫外線光、または他の範囲の電磁放射のうちの1つ以上のものを放出するように構成されてもよい。いくつかの実施形態では、光源26によって放出されるスペクトルの少なくとも一部は、光検出器24によって検出可能であろう。いくつかの設計では、光源26は、放出された放射の方向が拡張現実ディスプレイデバイス2010の配向から独立して制御され得るように、ジンバルまたは他の移動可能な搭載部上に搭載されることができる。光検出器24は、装着者の視野の少なくとも一部内の光の画像を取得するように構成される、カメラ等の結像デバイスであることができる。種々の実施形態では、各光検出器24は、カメラであることができ、光センサの2次元アレイを備えてもよい。いくつかの例示的実施形態では、光源26は、規定された波長範囲内の赤外線光を放出するように構成され、光検出器24は、光検出器24の視野内のオブジェクトによって反射された赤外線光を使用して赤外線画像を取得するように構成される、赤外線センサまたは赤外線光検出器を備える。
ある場合には、可視光では顕著ではない特徴は、赤外線光または紫外線光等の不可視光で照明されると、判別可能特徴を作成する。例えば、眼に解像不可能であり得る、静脈は、赤外線照明に応じて、赤外線カメラによって明確に解像可能となり得る。そのような静脈は、オブジェクトを識別し、その移動、その平行移動、および/または配向の変化を追跡するための基準として使用されてもよい。故に、オブジェクトを不可視光等の光で照明することは、そうでなければ不可視である特徴をカメラまたは結像センサによって検出させ得る。基準(または下記により完全に説明されるように、差異シグネチャ)と称され得る、これらの特徴の移動は、例えば、移動するオブジェクトに対する仮想コンテンツの設置が適切に設置され得るように、オブジェクトの移動が追跡されることを可能にし得る。静脈は、一実施例として使用されるが、他の特徴も、赤外線検出器を使用して、赤外線照明等の照明を用いて観察可能であり得る。例えば、皮膚の他の特徴も、オブジェクトの回転または配向の変化を含む、オブジェクトの移動を追跡するために、好適な波長(例えば、IRセンサ)に敏感なカメラを用いて、追跡され得る、特徴、マーカ、または基準を作成するように、IR光(またはUV光)を反射または吸収し得る。オブジェクトの移動および配向の変化が既知となると、仮想コンテンツは、正確に位置付けられ、配向されることができる。オブジェクトに追随する、またはオブジェクトに対して固定場所および/または配向を有するように設計される、そのような仮想コンテンツは、適切にレンダリングされることができる。同様に、仮想コンテンツの適切な視点も、提供されることができる。赤外線および紫外線光が、上記の実施例に議論されているが、可視および不可視の両方の光または電磁放射の他の波長も、使用されることができる。
ある場合には、照明は、グリッドまたはアレイ等のパターンを備えてもよい。加えて、表面上に投影されたパターンの画像は、処理モジュール70によって、光の放出されたパターンと比較され、放出および反射された光間の差異を決定してもよい。同様に、処理モジュール70は、画像内の局所的に一意の差異を識別するように構成されることができる。局所的に一意の差異は、周囲エリアと異なる反射率を有する、実オブジェクトの一部によって生じ得る。例えば、腕または手の母斑、黒子、静脈、瘢痕組織、または他の構造は、結像される波長範囲(例えば、赤外線またはUV)内において周囲組織の反射率と異なる、異なる反射率を有し得る。したがって、瘢痕組織の領域が、照射および結像されるエリア内に存在する場合、放出および反射された放射分布間の光の差異は、瘢痕組織領域の形状における異常領域を含み得る。本明細書では、差異シグネチャと称される、そのような特徴は、仮想コンテンツが、オブジェクトに対して適切に位置し、配向され得るように、オブジェクトを追跡するために使用されることができる。
図10および11をともに参照すると、検出された特徴を使用して、3Dオブジェクトの場所および/または配向を追跡する例示的方法1100が、ここで説明されるであろう。方法1100は、図2および10に描写されるウェアラブル拡張現実ディスプレイシステム60、2010等の本明細書に説明されるシステムのいずれかによって実装されてもよい。方法1100は、ブロック1110から開始し、そこで、仮想コンテンツが、受信される。一実施例では、仮想コンテンツは、腕時計の3Dレンダリングであることができ、これは、拡張現実ディスプレイシステム2010の装着者に可視の仮想腕時計として機能し得る。システム2010また、検出された実オブジェクトに対する仮想コンテンツの場所を受信する。例えば、システム2010は、自動的に、または装着者によるインジケーションに基づいてのいずれかにおいて、深度センサ28を使用して、装着者の手首を検出してもよい。仮想腕時計に関する場所は、自動的に決定されてもよい、またはジェスチャによって、または任意の好適な入力デバイスを使用して等、装着者によって示されてもよい。例えば、装着者は、仮想腕時計が、実世界手首腕時計のように、装着者の手首の周囲に配置されるように現れるように、仮想腕時計の位置を選択してもよい。別の実施例では、仮想コンテンツは、仮想名前タグまたはアイテム識別子、コーヒーカップ等の実オブジェクト上に表示されるための広告グラフィック、または実オブジェクトに添着されるように挙動するように意図される、任意の他のタイプの仮想コンテンツであってもよい。いったん仮想コンテンツの所望の場所が、実オブジェクトに対して決定されると、相対的場所が、選択される、位置合わせされる、または別様に最終決定されてもよい。仮想コンテンツおよび実オブジェクトに対するその場所が、受信された後、方法1100は、ブロック1120に継続する。
ブロック1120では、システム2010は、放射パターンを放出し、オブジェクト上に投影されたパターンの画像間の差異を決定する。本差異は、実オブジェクトの構造特徴に依存し、それを示し得る。差異は、例えば、オブジェクトの構造変動に起因して、吸収率、反射率、および/または散乱の変動を示し得る。本差異は、基準、差異シグネチャ、またはマーカとして使用され、移動および/または配向の変化を追跡し得る。放射パターンは、光源26によって放出され、テクスチャ化ライトフィールド、グリッド、または一連のドット、十字、円形、(例えば、同心円形または輪郭)、または他のパターン等の光パターンであってもよい。グリッド等のパターンが、上記に議論されるが、照明はまた、任意の形状(例えば、円形、正方形等)の実質的に均一照明またはスポットを備えてもよく、依然として、差異シグネチャまたはマーカが、取得され得る。放出された放射パターンは、赤外線光、紫外線光、または任意の他の好適な波長または波長の範囲等の可視光または不可視光を備えることができる。いくつかの実施形態では、赤外線または紫外線等の不可視波長範囲は、可視光パターンまたは可視光を投影させることによって装着者または他者の注意を逸らすことを回避するために望ましくあり得る。放射パターンの方向は、放射パターンの少なくとも一部が実オブジェクトの表面上に入射するように選択されてもよい。例えば、いくつかの構成では、光源は、ジンバル搭載部または他の回転段および/または傾斜され得る段等を介して、移動可能である。いくつかの実施形態では、放射は、仮想オブジェクトの受信された場所に直近の場所上に投影されてもよい。仮想腕時計の例示的実装では、放射は、装着者の手の甲または仮想腕時計の場所に隣接する装着者の前腕上に投影されてもよい。他の実施形態では、放射は、仮想オブジェクトの場所から離間された場所上に投影されてもよい。
放射パターンが、放出された後、放出された放射の一部は、実オブジェクトによって、拡張現実ディスプレイシステム2010に反射され得る。放出された放射の一部は、オブジェクトの表面の下方の外側表面または内部構造によって反射され得る。例えば、放射パターンが、ユーザの腕または手に指向される赤外線光パターンである場合、赤外線光の一部は、外側皮膚表面、皮膚の内部領域、および/または静脈または皮膚下の他の構造によって反射され得る。放射パターンの反射された部分は、光検出器24において検出されてもよい。例えば、光源26は、赤外線放射パターンを放出する、赤外線源であってもよく、光検出器24は、赤外線スペクトル内で画像を取得するように構成される、赤外線カメラであってもよい。したがって、放出された放射パターンの一部が、ディスプレイシステム2010に反射されると、光検出器24は、反射された光パターンの画像を取得することができる。
光差異シグネチャを決定するために、反射された光パターンの画像は、放出された放射パターンの分布と比較されることができる。光差異シグネチャの決定は、処理モジュール70または拡張現実ディスプレイシステム2010と関連付けられた任意の他のローカルまたは遠隔処理回路において生じることができる。処理モジュール70は、目印、マーカ、または基準として使用され得る、放出および反射された光パターン間の一意の差異を探すことができる。一意の差異が、放出および反射された光パターン間で見出される場合、差異は、記憶され、光差異シグネチャまたはマーカも、記録されることができる。ある場合には、一意の差異は、周囲エリアと異なる反射率を有する、実オブジェクトの一部、例えば、腕または手の母斑、黒子、静脈、瘢痕組織、または他の構造によって生じ得る。例えば、瘢痕組織の領域が、照射および結像されるエリア内に存在する場合、放出および反射された放射分布間の光差異は、目印または差異シグネチャとしての役割を果たし得る、瘢痕組織領域の形状における異常領域を含むことができる(皮膚、脂肪、含酸素血液、脱酸素血液等の種々のタイプの生物学的組織は、異なる赤外線吸収および散乱性質を有し得るため、放射パターンは、一意の差異が第1の波長で検出されることができない場合、光の複数の波長を含み得る)。光差異の検出可能および/または局所的に一意のサブ領域が、放出および反射された光パターン間に見出される場合、本差異は、光差異シグネチャとして記憶されることができる。目印または基準として使用され得る、一意の差異が、放出および反射された光パターンを比較した後に見出されない場合、ブロック1120は、放射パターンを実オブジェクト上の異なる位置、例えば、仮想オブジェクト場所の異なる部分に隣接する場所および/または仮想オブジェクト場所からさらに若干離間された場所に放出することによって、繰り返されることができる。目印として使用され得る、一意の差異が、識別され、光差異シグネチャまたはマーカとして記憶される場合、方法1100は、ブロック1130に継続する。
ブロック1130では、仮想コンテンツの場所が、光差異シグネチャ、目印、または「差異マーカ」に対して決定される。光差異シグネチャまたは目印または差異マーカの場所は、仮想コンテンツをレンダリングするための基準点としての役割を果たすことができる。変位が、次いで、仮想オブジェクトに関して基準点に対して決定されることができる。例えば、変位は、1次元以上における座標を含むことができる。いくつかの実施形態では、変位は、基準点として原点を有する、2次元または3次元座標系内の場所であることができる。したがって、同一の光差異シグネチャまたはマーカまたは目印が、再び検出されると、仮想コンテンツは、光差異シグネチャ、マーカ、または目印に対して同一場所にレンダリングされることができる。
いくつかの実装では、光差異シグネチャ、マーカ、または目印はさらに、深度センサ28によって検出可能な実世界内の物理的基準点と関連付けられてもよい。物理的基準点は、本明細書に説明される仮想腕時計実施例では、指または手首骨等の実オブジェクトの特徴であってもよい。光差異シグネチャ、マーカ、または目印に対する仮想オブジェクトの場所と同様に、物理的基準点に対する光差異シグネチャ、マーカ、または目印の場所も、1次元以上における座標を含むことができる。仮想オブジェクトと光差異マーカまたは目印との間および物理的基準点と光差異マーカまたは目印との間の変位は、同一または異なる基準フレームまたは座標系内に記録されることができる。
仮想コンテンツおよび物理的基準点の場所が、光差異マーカまたは目印に対して決定された後、システム2010は、深度センサ28を使用して、物理的基準点の場所を断続的または継続的に監視することができる。いくつかの実施形態では、深度センサ28は、実オブジェクトの場所および/または物理的基準点を継続的に監視するための光検出器24および光源26ほど電力および/または処理容量を要求し得ない。したがって、深度センサ28は、物理的基準点の場所を継続的に監視し得る一方、光源26および光検出器24による放射または放射パターンの放出および検出は、変化が物理的基準点の場所において検出されるとき、仮想コンテンツのフレームがリフレッシュされる必要があるとき、または任意の他の規則的または不規則的インターバルにおいて等、低頻度で利用されることができる。仮想コンテンツレンダリングの場所が、リフレッシュされるべきであるとき、方法1100は、ブロック1140に継続する。
ブロック1140では、放射または放射パターンが、再び、放出される。ブロック1140において放出される放射は、ブロック1120において放出される放射と同一分布(例えば、均一分布、スポット、パターン、テクスチャ、または同等物)であることができる。放射パターンの放射方向は、放出された放射パターンが、少なくとも部分的に、光差異シグネチャ、マーカ、または目印が、見出されることが予期される、実オブジェクトの領域上に入射するように、深度センサ28によって追跡されるような物理的基準点の場所に基づいて、決定されることができる。放射方向は、光源24をジンバルまたは他の移動可能な搭載プラットフォーム上で枢動または別様に移動させることによって選択されることができる。例えば、装着者の腕の実施例では、放出される放射パターンは、物理的基準点からの計算される変位に基づいて、光差異シグネチャ、マーカ、または目印と関連付けられた母斑、静脈、または他の特徴の場所に指向されることができる。放射または放射パターンは、ブロック1120を参照して上記に説明されるものと同一様式で光源24によって放出されることができる。放射または放射パターンが、放出された後、方法1100は、ブロック1150に継続する。
ブロック1150では、システム2010は、反射された放射分布またはパターンを取得し、反射された放射分布またはパターン内の差異シグネチャ、マーカ、または目印を位置特定する。反射された放射またはパターンは、光源24によって放出される1つ以上の波長の光を検出するように構成される、光検出器26によって検出および/または結像されることができる。差異が、次いで、放出された放射パターンと反射された放射パターンとの間で決定および/または計算され得る。記憶される光差異シグネチャまたはマーカまたは目印は、放出および反射された放射分布またはパターン間の差異と比較され、新しく反射された放射分布内の光差異シグネチャ、マーカ、または目印の存在を検証し、その場所を決定することができる。光差異シグネチャ、マーカ、または目印の場所は、次いで、仮想コンテンツがリフレッシュされると、仮想コンテンツのレンダリングのための基準点としての役割を果たすために記録されることができる。光差異マーカが、反射された放射分布または差異内で位置特定された後、方法1100は、ブロック1160に継続する。
ブロック1160では、仮想コンテンツが、光差異シグネチャ、マーカ、または目印の場所に対してレンダリングされる。仮想コンテンツをレンダリングするための場所は、光差異シグネチャ、マーカ、または目印とブロック1130において計算された仮想コンテンツとの間の変位に基づいて決定されることができる。以前に計算された同一変位を使用することによって、拡張現実ディスプレイシステム2010は、関連付けられた実オブジェクトに伴って移動するように現れる、仮想コンテンツを表示する利点を達成することができる。例えば、装着者の手上の母斑または静脈群によって生じる光差異シグネチャ、マーカ、または目印に対して同一変位において、仮想腕時計を繰り返しレンダリングすることによって、装着者が、手首を回転させる、または別様に、深度センサ28単独によって確実に検出されることができない様式において、手首の配向を改変する場合でも、仮想腕時計の面は、装着者の手首の上部側に隣接したままであるように現れることができる。仮想コンテンツが、光差異シグネチャ、マーカ、または目印に対してレンダリングされた後、方法1100は、ブロック1140に戻ることができ、そこで、ブロック1140-1160は、仮想コンテンツフレームがリフレッシュされるべきときは常に、必要に応じて、規則的または不規則的インターバルにおいて無限に繰り返されてもよい。例えば、方法1100は、物理的基準点の場所の変化が検出される任意の時間に、または毎秒、5回/秒、10回/秒、50回/秒、100回/秒、または任意の他の好適なインターバル等の規則的インターバルにおいて、ブロック1140に戻ることができる。いくつかの実施形態では、光源24は、差異マーカが再び位置特定されるべき度に、光の離散パルスを送信するのではなく、赤外線光等の放射光を持続的に投影するように構成されてもよい。
上記に議論されるように、光のパターンの照明に関して議論される、システム、デバイス、方法、およびプロセスは同様に、均一照明または円形スポット等の任意の形状のスポットの投影にも適用される。加えて、上記の議論は、マーカまたは目印の識別および使用を参照したが、複数のマーカまたは目印も、仮想画像コンテンツの追跡および設置を提供するために識別および使用されてもよい。
革新的側面が、種々の用途において実装される、またはそれと関連付けられてもよく、したがって、広範囲の変形例を含むことが検討される。例えば、EPEの形状、数、および/または屈折力における変形例が、検討される。本明細書に説明される構造、デバイス、および方法は、特に、拡張および/または仮想現実のために使用され得る、ウェアラブルディスプレイ(例えば、頭部搭載型ディスプレイ)等のディスプレイにおいて使用を見出し得る。より一般的には、説明される実施形態は、運動(ビデオ等)下にあるかまたは定常(静止画像等)下にあるかにかかわらず、かつテキストであるか、グラフィックであるか、または写真であるかにかかわらず、画像を表示するように構成され得る、任意のデバイス、装置、またはシステム内に実装されてもよい。しかしながら、説明される実施形態は、限定ではないが、携帯電話、マルチメディアインターネット対応セルラー電話、モバイルテレビ受信機、無線デバイス、スマートフォン、Bluetooth(登録商標)デバイス、携帯情報端末(PDA)、無線電子メール受信機、ハンドヘルドまたはポータブルコンピュータ、ネットブック、ノートブック、スマートブック、タブレット、プリンタ、コピー機、スキャナ、ファックスデバイス、全地球測位システム(GPS)受信機/ナビゲータ、カメラ、デジタルメディアプレーヤ(MP3プレーヤ等)、カムコーダ、ゲームコンソール、腕時計、置時計、計算機、テレビモニタ、フラットパネルディスプレイ、電子読取値デバイス(例えば、電子読取機)、コンピュータモニタ、自動ディスプレイ(オドメータおよび速度計ディスプレイ等を含む)、コックピット制御および/またはディスプレイ、カメラビューディスプレイ(車両内のリアカメラのディスプレイ等)、電子写真、電子広告板または標識、プロジェクタ、アーキテクチャ構造、電子レンジ、冷蔵庫、ステレオシステム、カセットレコーダまたはプレーヤ、DVDプレーヤ、CDプレーヤ、VCR、無線、ポータブルメモリチップ、洗濯機、乾燥機、洗濯乾燥機、パーキングメータ、頭部搭載型ディスプレイ、および種々の結像システム等の種々の電子デバイス内に含まれる、またはそれと関連付けられてもよいことが検討される。したがって、本教示は、図に描写される実施形態のみに限定されず、代わりに、当業者に容易に明白となるであろう広い可用性を有することを意図する。
本開示に説明される実施形態の種々の修正は、当業者に容易に明白となり得、本明細書に定義される一般的原理は、本開示の精神または範囲から逸脱することなく、他の実施形態に適用されてもよい。したがって、請求項は、本明細書に示される実施形態に限定されることを意図するものではなく、本明細書に開示される本開示、原理、および新規特徴と一致する最も広い範囲と見なされるべきである。単語「例示的」は、本明細書では、「実施例、事例、または例証としての役割を果たす」ことを意味するように排他的に使用される。「例示的」として本明細書に説明される任意の実施形態は、必ずしも、他の実施形態より好ましいまたは有利であるものとして解釈されない。加えて、当業者は、用語「上側」および「下側」、「上方」および「下方」等が、時として、図を説明する容易性のために使用され、適切に配向されたページ上の図の配向に対応する相対的位置を示し、本明細書に説明される構造の適切な配向をそれらの構造が実装される通りに反映しない場合があることを容易に理解するであろう。
別個の実施形態のコンテキストにおいて本明細書に説明されるある特徴はまた、単一実施形態において組み合わせて実装されることができる。逆に言えば、単一実施形態のコンテキストに説明される種々の特徴はまた、複数の実施形態において別個に、または任意の好適な副次的組み合わせにおいて実装されることもできる。さらに、特徴は、ある組み合わせにおいて作用するように上記に説明され、さらに、最初に、そのように請求され得るが、請求される組み合わせからの1つ以上の特徴は、ある場合には、組み合わせから外れることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。
同様に、動作は、特定の順序で図面に描写されるが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序でまたは連続的順序で実施されること、または、全ての図示される動作が実施されることを要求するものと理解されるべきではない。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的プロセス内に組み込まれることができる。例えば、1つ以上の付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実施形態における種々のシステムコンポーネントの分離は、全ての実施形態におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化されることができることを理解されたい。加えて、他の実施形態も、以下の請求項の範囲内である。ある場合には、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。
本発明の種々の例示的実施形態が、本明細書で説明される。非限定的意味で、これらの実施例を参照する。それらは、本発明のより広く適用可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、均等物が置換されてもよい。加えて、特定の状況、材料、組成物、プロセス、プロセスの行為またはステップを、本発明の目的、精神、または範囲に適合させるように、多くの修正が行われてもよい。さらに、当業者によって理解されるように、本明細書で説明および図示される個々の変形例はそれぞれ、離散コンポーネントおよび特徴を有し、これは、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離される、またはそれと組み合わせられてもよい。全てのそのような修正は、本開示と関連付けられる請求項の範囲内であることを目的としている。
本発明は、本デバイスを使用して行われ得る方法を含む。本方法は、そのような好適なデバイスを提供するという行為を含んでもよい。そのような提供は、エンドユーザによって行われてもよい。換言すれば、「提供する」行為は、単に、エンドユーザが、本方法において必須デバイスを提供するように、取得し、アクセスし、接近し、位置付けし、設定し、起動し、電源を入れ、または別様に作用することを要求する。本明細書で記載される方法は、論理的に可能である記載された事象の任意の順序で、および事象の記載された順序で実行されてもよい。
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関して、これらは、上記の参照された特許および公開に関連して理解されるとともに、概して、当業者によって把握または理解され得る。同じことが、一般的または理論的に採用されるような付加的な行為の観点から、本発明の方法ベースの側面に関して当てはまり得る。
加えて、本発明は、種々の特徴を随意に組み込む、いくつかの実施例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるように説明または指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、(本明細書に記載されるか、またはいくらか簡潔にするために含まれないかにかかわらず)均等物が置換されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定値または介在値が、本発明内に包含されることが理解される。
また、本明細書で説明される発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つ以上の特徴と組み合わせて、記載および請求され得ることが考慮される。単数形の項目の言及は、複数の同一項目が存在する可能性を含む。より具体的には、本明細書で、およびそれに関連付けられる請求項で使用されるように、「1つの(a、an)」、「前記(said、the)」という単数形は、特に別様に記述されない限り、複数の指示対象を含む。換言すると、冠詞の使用は、上記の説明および本開示と関連付けられる請求項で、対象項目の「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項要素の記載に関連する「だけ」、「のみ」、および同等物等のそのような排他的用語の使用、または「否定的」制限の使用のための先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示と関連付けられる請求項での「備える」という用語は、所与の数の要素がそのような請求項で列挙されているか、または特徴の追加がそのような請求項に記載されている要素の性質を変換すると見なされ得るかにかかわらず、任意の付加的な要素の包含を可能にするものとする。本明細書で特に定義される場合を除いて、本明細書で使用される全ての技術用語および科学用語は、請求項の有効性を維持しながら、可能な限り広義の一般的に理解されている意味を与えられるものである。
本発明の範疇は、提供される実施例および/または本明細書に限定されるものではなく、むしろ、本開示と関連付けられる請求項の範囲のみによって限定されるものとする。
本明細書は、例えば、以下の項目も提供する。
(項目1)
3Dコンテンツと実オブジェクトとを整合させるように構成される拡張現実ディスプレイシステムであって、前記システムは、
装着者上に搭載するように構成されるフレームと、
前記フレームに取り付けられ、画像を前記装着者の眼に指向するように構成される拡張現実ディスプレイと、
不可視光を放出することによって、前記オブジェクトの少なくとも一部分を照明するように構成される光源と、
前記不可視光を使用して、前記光源によって照明された前記オブジェクトの前記一部分を結像するように構成される光センサと、
処理回路であって、前記処理回路は、前記不可視光の反射された部分を使用して形成される前記画像内の特徴の1つ以上の特性に基づいて、前記オブジェクトの場所、前記オブジェクトの配向、または両方に関する情報を決定するように構成される、処理回路と
を備える、システム。
(項目2)
前記不可視光の反射された部分を使用して形成される前記画像内の特徴は、前記眼に不可視である、項目1に記載の拡張現実ディスプレイシステム。
(項目3)
前記不可視光は、赤外線光を備える、項目1-2のいずれかに記載の拡張現実ディスプレイシステム。
(項目4)
前記光源によって放出される不可視光は、スポットを前記オブジェクトの前記一部分上に形成するビームを備える、項目1-3のいずれかに記載の拡張現実ディスプレイシステム。
(項目5)
前記光源によって放出される不可視光は、光パターンを備える、項目1-3のいずれかに記載の拡張現実ディスプレイシステム。
(項目6)
前記特性は、前記特徴の場所を備える、項目1-5のいずれかに記載の拡張現実ディスプレイシステム。
(項目7)
前記特性は、前記特徴の形状を備える、項目1-6のいずれかに記載の拡張現実ディスプレイシステム。
(項目8)
前記特性は、前記特徴の配向を備える、項目1-7のいずれかに記載の拡張現実ディスプレイシステム。
(項目9)
世界内の実オブジェクトの場所を検出するように構成される深度センサをさらに備える、項目1-8のいずれかに記載の拡張現実ディスプレイシステム。
(項目10)
前記処理回路は、前記放出された不可視光の分布と前記不可視光の反射された部分の分布との間の差異を決定するように構成される、項目1-9のいずれかに記載の拡張現実ディスプレイシステム。
(項目11)
前記処理回路は、前記決定された差異に基づいて、差異シグネチャを識別するように構成される、項目10に記載の拡張現実ディスプレイシステム。
(項目12)
前記処理回路は、前記実オブジェクトの場所および前記差異シグネチャの場所に基づいて、前記実オブジェクトの配向を決定するように構成される、項目11に記載の拡張現実ディスプレイシステム。
(項目13)
前記処理回路は、少なくとも部分的に、前記差異シグネチャの場所に基づいて、前記実オブジェクトの場所を決定するように構成される、項目11に記載の拡張現実ディスプレイシステム。
(項目14)
前記フレーム上に配置される接眼レンズをさらに備え、前記接眼レンズの少なくとも一部分は、透明であり、前記透明部分が、前記装着者の正面の環境からの光を前記装着者の眼に透過させ、前記装着者の正面の環境のビューを提供するように、前記装着者が前記ディスプレイシステムを装着したときに前記装着者の眼の正面の場所に配置される、項目1-13のいずれかに記載の拡張現実ディスプレイシステム。
(項目15)
拡張現実ディスプレイシステムであって、
装着者上に搭載するように構成されるフレームと、
前記フレームに取り付けられ、画像を前記装着者の眼に指向するように構成される拡張現実ディスプレイと、
前記装着者の視野内の実オブジェクトの表面をマッピングするように構成される深度センサと、
前記実オブジェクトの表面上に入射する少なくとも第1の波長における光を投影するように構成される光源と、
前記実オブジェクトの表面によって反射された前記光の一部分を使用して画像を形成するように構成される光検出器と、
処理回路であって、前記処理回路は、少なくとも部分的に、光パターンの反射された部分に基づいて、光差異マーカを決定し、仮想オブジェクトを前記光差異マーカに対して固定変位でレンダリングするように構成される、処理回路と
を備える、拡張現実ディスプレイシステム。
(項目16)
前記仮想オブジェクトを前記光差異マーカに対して固定変位でレンダリングすることは、
初期時間において前記仮想オブジェクトを前記実オブジェクトに対してレンダリングするための初期場所を受信することと、
前記初期場所と前記光差異マーカとの間の距離に基づいて、前記固定変位を決定することと、
前記初期時間に続くある時間に前記光差異マーカの後続場所を検出することと、
前記仮想オブジェクトを前記光差異マーカの前記検出された後続場所に対して前記固定変位でレンダリングすることと
を含む、項目15に記載の拡張現実ディスプレイシステム。
(項目17)
前記フレーム上に配置される接眼レンズをさらに備え、前記接眼レンズの少なくとも一部分は、透明であり、前記透明部分が、前記装着者の正面の環境からの光を前記装着者の眼に透過させ、前記装着者の正面の環境のビューを提供するように、前記装着者が前記ディスプレイシステムを装着したときに前記装着者の眼の正面の場所に配置される、項目15または16に記載の拡張現実ディスプレイシステム。
(項目18)
3Dコンテンツと実オブジェクトとを整合させるように構成される拡張現実ディスプレイシステムであって、前記システムは、
装着者上に搭載するように構成されるフレームと、
前記フレームに取り付けられ、画像を前記装着者の眼に指向するように構成される拡張現実ディスプレイと、
前記装着者の視野内の実オブジェクトの表面をマッピングするように構成される深度センサと、
光を放出することによって、前記オブジェクトの少なくとも一部分を照明するように構成される光源と、
前記放出された光を使用して前記光源によって照明された前記オブジェクトの前記一部分を結像するように構成される光センサと、
処理回路であって、前記処理回路は、前記オブジェクトの前記画像内の特徴の1つ以上の特性に基づいて、前記実オブジェクトの場所、前記実オブジェクトの配向、または両方に関する情報を決定するように構成される、処理回路と
を備える、システム。
(項目19)
前記光源によって放出される光は、スポットを前記オブジェクトの前記一部分上に形成するビームを備える、項目18に記載の拡張現実ディスプレイシステム。
(項目20)
前記光源によって放出される光は、光パターンを備える、項目18に記載の拡張現実ディスプレイシステム。
(項目21)
前記特性は、前記特徴の場所を備える、項目18-20のいずれかに記載の拡張現実ディスプレイシステム。
(項目22)
前記特性は、前記特徴の形状を備える、項目18-21のいずれかに記載の拡張現実ディスプレイシステム。
(項目23)
前記特性は、前記特徴の配向を備える、項目18-22のいずれかに記載の拡張現実ディスプレイシステム。
(項目24)
前記処理回路は、前記放出された光の分布と前記オブジェクトから反射された前記放出された光の分布との間の差異を決定するように構成される、項目18-23のいずれかに記載の拡張現実ディスプレイシステム。
(項目25)
前記処理回路は、前記決定された差異に基づいて、光差異マーカを識別するように構成される、項目24に記載の拡張現実ディスプレイシステム。
(項目26)
前記処理回路は、少なくとも部分的に、前記光差異マーカの場所に基づいて、前記実オブジェクトの配向を決定するように構成される、項目25に記載の拡張現実ディスプレイシステム。
(項目27)
前記処理回路は、少なくとも部分的に、前記光差異マーカの場所に基づいて、前記実オブジェクトの場所を決定するように構成される、項目25または26に記載の拡張現実ディスプレイシステム。
(項目28)
前記深度センサは、レーザまたは超音波距離計を備える、項目18-27のいずれかに記載の拡張現実ディスプレイシステム。
(項目29)
前記深度センサは、カメラを備える、項目18-28のいずれかに記載の拡張現実ディスプレイシステム。
(項目30)
前記フレーム上に配置される接眼レンズをさらに備え、前記接眼レンズの少なくとも一部分は、透明であり、前記透明部分が、前記装着者の正面の環境からの光を前記装着者の眼に透過させ、前記装着者の正面の環境のビューを提供するように、前記装着者が前記ディスプレイシステムを装着したときに前記装着者の眼の正面の場所に配置される、項目18-29のいずれかに記載の拡張現実ディスプレイシステム。
(項目31)
前記ディスプレイは、異なる画像コンテンツが異なる深度に位置するかのように、画像コンテンツをレンダリングするように構成される、前記項目のいずれかに記載の拡張現実ディスプレイシステム。
(項目32)
前記ディスプレイは、前記異なる深度を提供するための異なる屈折力を有する多屈折力光学要素を含む、項目28に記載の拡張現実ディスプレイシステム。

Claims (4)

  1. 拡張現実ディスプレイシステムであって、
    装着者上に搭載するように構成されるフレームと、
    前記フレームに取り付けられる拡張現実ディスプレイであって、前記拡張現実ディスプレイは、視覚情報を表す光を前記装着者の眼に指向するように構成される、拡張現実ディスプレイと、
    前記フレーム上に配置される接眼レンズであって、前記接眼レンズの少なくとも一部分は、透明であり、かつ、前記透明部分が、前記装着者の正面の環境からの光を前記装着者の眼に透過させ、前記装着者の正面の環境のビューを提供するように、前記装着者が前記ディスプレイシステムを装着したときに前記装着者の眼の正面の場所に配置される、接眼レンズと、
    前記装着者の視野内の実オブジェクトの表面をマッピングするように構成される深度センサと、
    前記実オブジェクトの表面上に入射する少なくとも第1の波長における光を投影するように構成される光源と、
    前記実オブジェクトの表面によって反射された前記光の一部分を使用して前記実オブジェクトの画像を形成するように構成される結像デバイスと、
    処理回路と
    を備え、
    前記処理回路は、
    前記光源によって投影された前記光の分布と前記実オブジェクトから反射された前記光の分布との間の差異に基づいて光差異マーカを決定することと、
    前記接眼レンズが前記実オブジェクトと前記装着者の眼との間に配置されている間において、前記接眼レンズを通して前記実オブジェクトのビュー上に拡張現実コンテンツをレンダリングすることであって、前記拡張現実コンテンツは、前記光差異マーカに対する固定変位に仮想オブジェクトを含み、前記光差異マーカは、前記実オブジェクトの既存の特徴を含み、前記既存の特徴は、前記既存の特徴の周囲の前記実オブジェクトの他の部分とは異なる吸収率、反射率、および/または散乱を有する前記実オブジェクトの部分である、ことと、
    第1の頻度で周期的に前記深度センサを使用して前記実オブジェクトの場所または配向を監視することと、
    前記第1の頻度より低い頻度の第2の頻度で前記結像デバイスを使用して前記光差異マーカの場所を監視することと
    を実行するように構成される、拡張現実ディスプレイシステム。
  2. 前記仮想オブジェクトを前記光差異マーカに対して固定変位でレンダリングすることは、
    初期時間において前記仮想オブジェクトを前記実オブジェクトに対してレンダリングするための初期場所を受信することと、
    前記初期場所と前記光差異マーカとの間の距離に基づいて、前記固定変位を決定することと、
    前記初期時間に続くある時間に前記光差異マーカの後続場所を検出することと、
    前記仮想オブジェクトを前記光差異マーカの前記検出された後続場所に対して前記固定変位でレンダリングすることと
    を含む、請求項1に記載の拡張現実ディスプレイシステム。
  3. 前記ディスプレイシステムは、異なる画像コンテンツが異なる深度に位置するかのように、画像コンテンツをレンダリングするように構成される、請求項1~のいずれかに記載の拡張現実ディスプレイシステム。
  4. 前記接眼レンズは、前記異なる深度を提供するための異なる屈折力を有する多屈折力光学要素を含む、請求項に記載の拡張現実ディスプレイシステム。
JP2022035008A 2016-12-13 2022-03-08 拡張現実ディスプレイシステム Active JP7482163B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023124302A JP2023159118A (ja) 2016-12-13 2023-07-31 検出された特徴を用いた3dオブジェクトレンダリング

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662433767P 2016-12-13 2016-12-13
US62/433,767 2016-12-13
JP2019530207A JP7038713B2 (ja) 2016-12-13 2017-12-12 検出された特徴を用いた3dオブジェクトレンダリング
PCT/US2017/065850 WO2018111895A1 (en) 2016-12-13 2017-12-12 3d object rendering using detected features

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019530207A Division JP7038713B2 (ja) 2016-12-13 2017-12-12 検出された特徴を用いた3dオブジェクトレンダリング

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023124302A Division JP2023159118A (ja) 2016-12-13 2023-07-31 検出された特徴を用いた3dオブジェクトレンダリング

Publications (2)

Publication Number Publication Date
JP2022088420A JP2022088420A (ja) 2022-06-14
JP7482163B2 true JP7482163B2 (ja) 2024-05-13

Family

ID=62559186

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019530207A Active JP7038713B2 (ja) 2016-12-13 2017-12-12 検出された特徴を用いた3dオブジェクトレンダリング
JP2022035008A Active JP7482163B2 (ja) 2016-12-13 2022-03-08 拡張現実ディスプレイシステム
JP2023124302A Pending JP2023159118A (ja) 2016-12-13 2023-07-31 検出された特徴を用いた3dオブジェクトレンダリング

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019530207A Active JP7038713B2 (ja) 2016-12-13 2017-12-12 検出された特徴を用いた3dオブジェクトレンダリング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023124302A Pending JP2023159118A (ja) 2016-12-13 2023-07-31 検出された特徴を用いた3dオブジェクトレンダリング

Country Status (9)

Country Link
US (2) US10922887B2 (ja)
EP (1) EP3555865A4 (ja)
JP (3) JP7038713B2 (ja)
KR (2) KR102497707B1 (ja)
CN (2) CN110291565B (ja)
AU (1) AU2017375951B2 (ja)
CA (1) CA3046399A1 (ja)
IL (1) IL267117B (ja)
WO (1) WO2018111895A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3555865A4 (en) 2016-12-13 2020-07-08 Magic Leap, Inc. RENDERING OF 3D OBJECTS BY DETECTING CHARACTERISTICS
US10371896B2 (en) 2016-12-22 2019-08-06 Magic Leap, Inc. Color separation in planar waveguides using dichroic filters
CN111683584A (zh) 2017-12-15 2020-09-18 奇跃公司 用于增强现实显示系统的目镜
EP3528003A1 (en) * 2018-02-15 2019-08-21 Kinexon GmbH System and method estimating orientation from radio measurements
EP3857294A4 (en) * 2018-09-26 2022-06-08 Magic Leap, Inc. OPTICAL POWER DIFFRACTION OPTICAL ELEMENTS
EP3632517B1 (en) * 2018-10-05 2023-08-23 HTC Corporation Electronic apparatus
US11985440B2 (en) 2018-11-12 2024-05-14 Magic Leap, Inc. Depth based dynamic vision sensor
WO2020101892A1 (en) 2018-11-12 2020-05-22 Magic Leap, Inc. Patch tracking image sensor
US11809613B2 (en) 2018-11-12 2023-11-07 Magic Leap, Inc. Event-based camera with high-resolution frame output
US20220014689A1 (en) * 2018-11-13 2022-01-13 Magic Leap, Inc. Event-based ir camera
JP2022509083A (ja) 2018-11-20 2022-01-20 マジック リープ, インコーポレイテッド 拡張現実ディスプレイシステムのための接眼レンズ
US11889209B2 (en) 2019-02-07 2024-01-30 Magic Leap, Inc. Lightweight cross reality device with passive depth extraction
WO2021040106A1 (ko) * 2019-08-30 2021-03-04 엘지전자 주식회사 Ar 장치 및 그 제어 방법
KR20210035557A (ko) * 2019-09-24 2021-04-01 삼성전자주식회사 백라이트 유닛 및 이를 포함하는 홀로그래픽 디스플레이 장치
EP4058993A4 (en) 2019-12-06 2023-01-11 Guangdong Oppo Mobile Telecommunications Corp., Ltd. LIGHT SOURCE DETECTION FOR EXTENDED REALITY TECHNOLOGIES
US11176716B2 (en) * 2020-02-28 2021-11-16 Weta Digital Limited Multi-source image data synchronization
EP4154051A1 (en) 2020-05-22 2023-03-29 Magic Leap, Inc. Method and system for dual projector waveguide displays with wide field of view
KR102419290B1 (ko) 2020-08-12 2022-07-12 태나다 주식회사 동영상 데이터에 3차원 가상객체를 합성하는 방법 및 장치
EP4268007A1 (en) * 2020-12-23 2023-11-01 Magic Leap, Inc. Eyepiece imaging assemblies for a head mounted display

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218459A (ja) 2012-04-06 2013-10-24 Sony Corp 情報処理装置、情報処理方法及び情報処理システム
US20140285520A1 (en) 2013-03-22 2014-09-25 Industry-University Cooperation Foundation Hanyang University Wearable display device using augmented reality
US20160117860A1 (en) 2014-10-24 2016-04-28 Usens, Inc. System and method for immersive and interactive multimedia generation
WO2016118371A1 (en) 2015-01-20 2016-07-28 Microsoft Technology Licensing, Llc Mixed reality system

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
KR100542370B1 (ko) 2004-07-30 2006-01-11 한양대학교 산학협력단 보이지 않는 마커를 이용하는 비전기반 증강현실 시스템
JP2006050165A (ja) * 2004-08-03 2006-02-16 Olympus Corp 情報表示装置
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
EP2269533B1 (en) 2008-03-21 2021-05-05 Atsushi Takahashi Three-dimensional digital magnifier operation supporting system
KR101648201B1 (ko) 2009-11-04 2016-08-12 삼성전자주식회사 영상 센서 및 이의 제조 방법.
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
AU2011348122A1 (en) 2010-12-24 2013-07-11 Magic Leap Inc. An ergonomic head mounted display device and optical system
US8611601B2 (en) * 2011-03-08 2013-12-17 Bank Of America Corporation Dynamically indentifying individuals from a captured image
US8570372B2 (en) * 2011-04-29 2013-10-29 Austin Russell Three-dimensional imager and projection device
CA2835120C (en) 2011-05-06 2019-05-28 Magic Leap, Inc. Massive simultaneous remote digital presence world
US10795448B2 (en) 2011-09-29 2020-10-06 Magic Leap, Inc. Tactile glove for human-computer interaction
AU2012348348B2 (en) 2011-10-28 2017-03-30 Magic Leap, Inc. System and method for augmented and virtual reality
CN104067316B (zh) 2011-11-23 2017-10-27 奇跃公司 三维虚拟和增强现实显示系统
KR102223290B1 (ko) 2012-04-05 2021-03-04 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
US20140039309A1 (en) 2012-04-26 2014-02-06 Evena Medical, Inc. Vein imaging systems and methods
US20140046291A1 (en) 2012-04-26 2014-02-13 Evena Medical, Inc. Vein imaging systems and methods
US20130293530A1 (en) 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
US20150103096A1 (en) 2012-05-30 2015-04-16 Pioneer Corporation Display device, head mount display, calibration method, calibration program and recording medium
NZ702897A (en) 2012-06-11 2017-03-31 Magic Leap Inc Multiple depth plane three-dimensional display using a wave guide reflector array projector
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9898742B2 (en) * 2012-08-03 2018-02-20 Ebay Inc. Virtual dressing room
US9740006B2 (en) 2012-09-11 2017-08-22 Magic Leap, Inc. Ergonomic head mounted display device and optical system
US20140160162A1 (en) 2012-12-12 2014-06-12 Dhanushan Balachandreswaran Surface projection device for augmented reality
NZ710096A (en) 2013-01-15 2018-11-30 Magic Leap Inc Ultra-high resolution scanning fiber display
KR102387314B1 (ko) 2013-03-11 2022-04-14 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
CN105229719B (zh) 2013-03-15 2018-04-27 奇跃公司 显示系统和方法
EP2797313A1 (en) 2013-04-26 2014-10-29 Elvesjö, John Computer graphics presentation system and method
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
KR20230098359A (ko) 2013-10-16 2023-07-03 매직 립, 인코포레이티드 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들
US20150257735A1 (en) 2013-10-24 2015-09-17 Evena Medical, Inc. Systems and methods for displaying medical images
KR102378457B1 (ko) 2013-11-27 2022-03-23 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
JP2015125641A (ja) * 2013-12-26 2015-07-06 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
US9405122B2 (en) 2014-01-29 2016-08-02 Ricoh Co., Ltd Depth-disparity calibration of a binocular optical augmented reality system
KR102177133B1 (ko) 2014-01-31 2020-11-10 매직 립, 인코포레이티드 멀티-포컬 디스플레이 시스템 및 방법
CA2938264C (en) 2014-01-31 2020-09-22 Magic Leap, Inc. Multi-focal display system and method
US10691332B2 (en) * 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9552674B1 (en) * 2014-03-26 2017-01-24 A9.Com, Inc. Advertisement relevance
AU2015255652B2 (en) 2014-05-09 2018-03-29 Google Llc Systems and methods for using eye signals with secure mobile communications
US10061058B2 (en) * 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
NZ727350A (en) 2014-05-30 2020-08-28 Magic Leap Inc Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
JP6481269B2 (ja) * 2014-07-01 2019-03-13 富士通株式会社 出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置
US9733790B2 (en) * 2014-10-30 2017-08-15 Disney Enterprises, Inc. Haptic interface for population of a three-dimensional virtual environment
JP2016091348A (ja) * 2014-11-06 2016-05-23 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
US20160140761A1 (en) * 2014-11-19 2016-05-19 Microsoft Technology Licensing, Llc. Using depth information for drawing in augmented reality scenes
US9728010B2 (en) * 2014-12-30 2017-08-08 Microsoft Technology Licensing, Llc Virtual representations of real-world objects
KR102564748B1 (ko) 2015-03-16 2023-08-07 매직 립, 인코포레이티드 건강 질환 진단과 치료를 위한 방법 및 시스템
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
US10147218B2 (en) * 2016-09-29 2018-12-04 Sony Interactive Entertainment America, LLC System to identify and use markers for motion capture
EP3555865A4 (en) 2016-12-13 2020-07-08 Magic Leap, Inc. RENDERING OF 3D OBJECTS BY DETECTING CHARACTERISTICS

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218459A (ja) 2012-04-06 2013-10-24 Sony Corp 情報処理装置、情報処理方法及び情報処理システム
US20140285520A1 (en) 2013-03-22 2014-09-25 Industry-University Cooperation Foundation Hanyang University Wearable display device using augmented reality
US20160117860A1 (en) 2014-10-24 2016-04-28 Usens, Inc. System and method for immersive and interactive multimedia generation
WO2016118371A1 (en) 2015-01-20 2016-07-28 Microsoft Technology Licensing, Llc Mixed reality system

Also Published As

Publication number Publication date
US20210350623A1 (en) 2021-11-11
JP2020513590A (ja) 2020-05-14
KR20230022453A (ko) 2023-02-15
US10922887B2 (en) 2021-02-16
CN110291565A (zh) 2019-09-27
KR20190095334A (ko) 2019-08-14
JP2023159118A (ja) 2023-10-31
IL267117B (en) 2022-05-01
US11461982B2 (en) 2022-10-04
CN116778120A (zh) 2023-09-19
CA3046399A1 (en) 2018-06-21
JP2022088420A (ja) 2022-06-14
EP3555865A4 (en) 2020-07-08
EP3555865A1 (en) 2019-10-23
US20180182173A1 (en) 2018-06-28
AU2017375951B2 (en) 2022-02-10
JP7038713B2 (ja) 2022-03-18
AU2017375951A1 (en) 2019-06-20
IL267117A (en) 2019-08-29
KR102497707B1 (ko) 2023-02-08
WO2018111895A1 (en) 2018-06-21
CN110291565B (zh) 2023-06-30

Similar Documents

Publication Publication Date Title
JP7482163B2 (ja) 拡張現実ディスプレイシステム
US11391951B2 (en) Dual depth exit pupil expander
JP7212806B2 (ja) 仮想現実、拡張現実、および複合現実システムのための接眼レンズ
JP2021073511A (ja) 改良された回折格子構造を有する仮想および拡張現実システムおよび方法
IL274976B1 (en) Improved positioning for a display device
JP2021099523A (ja) 薄型ビームスプリッタ
US11662575B2 (en) Multi-depth exit pupil expander
CN117043658A (zh) 通过波导的眼睛跟踪器照明
US20230209032A1 (en) Detection, analysis and correction of disparities in a display system utilizing disparity sensing port
NZ795513A (en) 3D object rendering using detected features
US20230168506A1 (en) High efficiency optical assembly with folded optical path
TW202300987A (zh) 用於改善視場的頭戴式顯示器中的波導配置
WO2023044394A1 (en) Uv and visible light exit grating for eyepiece fabrication and operation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230413

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231012

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240111

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240426

R150 Certificate of patent or registration of utility model

Ref document number: 7482163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150