JP2020513590A - 3D object rendering using detected features - Google Patents

3D object rendering using detected features Download PDF

Info

Publication number
JP2020513590A
JP2020513590A JP2019530207A JP2019530207A JP2020513590A JP 2020513590 A JP2020513590 A JP 2020513590A JP 2019530207 A JP2019530207 A JP 2019530207A JP 2019530207 A JP2019530207 A JP 2019530207A JP 2020513590 A JP2020513590 A JP 2020513590A
Authority
JP
Japan
Prior art keywords
light
display system
augmented reality
reality display
wearer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019530207A
Other languages
Japanese (ja)
Other versions
JP7038713B2 (en
Inventor
ナスターシャ ユー. ロバイナ,
ナスターシャ ユー. ロバイナ,
ニコル エリザベス サメック,
ニコル エリザベス サメック,
グレゴリー マイケル リンク,
グレゴリー マイケル リンク,
マーク ベーレンロッド,
マーク ベーレンロッド,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2020513590A publication Critical patent/JP2020513590A/en
Priority to JP2022035008A priority Critical patent/JP2022088420A/en
Application granted granted Critical
Publication of JP7038713B2 publication Critical patent/JP7038713B2/en
Priority to JP2023124302A priority patent/JP2023159118A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0081Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0005Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being of the fibre type
    • G02B6/0008Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being of the fibre type the light being emitted at the end of the fibre
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0013Means for improving the coupling-in of light from the light source into the light guide
    • G02B6/0015Means for improving the coupling-in of light from the light source into the light guide provided on the surface of the light guide or in the bulk of it
    • G02B6/0016Grooves, prisms, gratings, scattering particles or rough surfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0033Means for improving the coupling-out of light from the light guide
    • G02B6/0035Means for improving the coupling-out of light from the light guide provided on the surface of the light guide or in the bulk of it
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0066Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form characterised by the light source being coupled to the light guide
    • G02B6/0068Arrangements of plural sources, e.g. multi-colour light sources
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0075Arrangements of multiple light guides
    • G02B6/0076Stacked arrangements of multiple light guides of the same or different cross-sectional area
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0081Mechanical or electrical aspects of the light guide and light source in the lighting device peculiar to the adaptation to planar light guides, e.g. concerning packaging
    • G02B6/0086Positioning aspects
    • G02B6/0088Positioning aspects of the light guide or other optical sheets in the package
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

拡張現実ディスプレイシステムは、3Dコンテンツと実オブジェクトとを整合させるための基準マーカを使用するように構成される。拡張現実ディスプレイシステムは、随意に、実オブジェクトの場所を検出するように構成される、深度センサを含むことができる。拡張現実ディスプレイシステムはまた、オブジェクトの少なくとも一部分を不可視光で照明するように構成される、光源と、不可視光の反射された部分を使用して画像を形成するように構成される、光センサとを含むことができる。ディスプレイシステムの処理回路は、放出された光と反射された光との間の差異に基づいて、場所マーカを識別し、実オブジェクトの場所および場所マーカの場所に基づいて、実オブジェクトの配向を決定することができる。The augmented reality display system is configured to use fiducial markers to align 3D content with real objects. The augmented reality display system can optionally include a depth sensor configured to detect the location of the real object. The augmented reality display system also includes a light source configured to illuminate at least a portion of the object with invisible light, and a light sensor configured to use the reflected portion of the invisible light to form an image. Can be included. The processing circuitry of the display system identifies the location marker based on the difference between the emitted light and the reflected light and determines the orientation of the real object based on the location of the real object and the location of the location marker. can do.

Description

(参照による援用)
本願は、米国仮出願第62/433,767号,出願日2016年12月13日、発明の名称 “3D OBJECT RENDERING USING DETECTED FEATURES”からの35 U.S.C. § 119(e)のもとでの優先権を主張するものであり、該米国仮出願は、あらゆる目的のために、その全体が参照により本明細書中に援用される。本願は、さらに、以下の特許出願の各々の全体を参照により援用する:米国出願第14/555,585号(出願日2014年11月27日);米国出願第14/690,401号(出願日2015年4月18日);米国出願第14/212,961号(出願日2014年3月14日);米国出願第14/331,218号(出願日2014年7月14日);および米国出願第15/072,290号(出願日2016年3月16日)。
(Incorporated by reference)
The present application discloses U.S. Provisional Application No. 62 / 433,767, filed December 13, 2016, entitled "3D OBJECT RENDING USING DETECTED FEATURES", 35 U.S.S. S. C. Claiming priority under §119 (e), which US provisional application is hereby incorporated by reference in its entirety for all purposes. The present application is further incorporated by reference in its entirety for each of the following patent applications: US Application No. 14 / 555,585 (filing date November 27, 2014); US Application No. 14 / 690,401 (application No. 14 / 212,961 (filing date March 14, 2014); US application No. 14 / 331,218 (filing date July 14, 2014); and US Application No. 15 / 072,290 (filing date March 16, 2016).

本開示は、仮想現実および拡張現実結像および可視化システムを含む、光学デバイスに関する。   The present disclosure relates to optical devices, including virtual reality and augmented reality imaging and visualization systems.

現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式でユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴い、拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実または「MR」シナリオは、一種のARシナリオであって、典型的には、自然世界の中に統合され、それに応答する、仮想オブジェクトを伴う。例えば、MRシナリオでは、AR画像コンテンツは、実世界内のオブジェクトによってブロックされ得る、または別様にそれと相互作用するように知覚され得る。   Modern computing and display technologies are driving the development of systems for so-called "virtual reality" or "augmented reality" experiences, where digitally reproduced images or parts thereof are real. Presented to the user in a manner that can be seen or so perceived. Virtual reality, or "VR," scenarios typically involve presentation of digital or virtual image information without transparency to other real-world visual inputs, augmented reality or "AR". Scenarios typically involve the presentation of digital or virtual image information as an extension to the visualization of the real world around the user. A mixed reality or "MR" scenario is a type of AR scenario that typically involves virtual objects integrated into and responsive to the natural world. For example, in an MR scenario, AR image content may be blocked by an object in the real world, or otherwise perceived to interact with it.

図1を参照すると、拡張現実場面10が、描写され、AR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム30を特徴とする、実世界公園状設定20が見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム30上に立っているロボット像40と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ50等の「仮想コンテンツ」を「見ている」と知覚するが、これらの要素40、50は、実世界には存在しない。ヒトの視知覚系は、複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、AR技術の生成は、困難である。   Referring to FIG. 1, an augmented reality scene 10 is depicted and a user of AR technology sees a real-world park setting 20, featuring people, trees, buildings in the background, and concrete platforms 30. In addition to these items, users of AR technology will also find "virtual" images of robots 40 standing on the real-world platform 30 and flying cartoon-like avatar characters 50, which look like bumblebee anthropomorphisms. Although we perceive "viewing" "content", these elements 40, 50 do not exist in the real world. The human visual perception system is complex and the generation of AR technology that facilitates a comfortable, natural-like, and rich presentation of virtual image elements among other virtual or real-world image elements is Have difficulty.

本明細書に開示されるシステムおよび方法は、ARおよびVR技術に関連する種々の課題に対処する。   The systems and methods disclosed herein address various challenges associated with AR and VR technologies.

本明細書に説明される主題の1つ以上の実施形態の詳細は、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の詳細な説明のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
(実施例)
1.3Dコンテンツと実オブジェクトとを整合させるように構成される、拡張現実ディスプレイシステムであって、該システムは、
装着者上に搭載するように構成されるフレームと、
フレームに取り付けられ、画像を装着者の眼に指向するように構成される拡張現実ディスプレイと、
不可視光を放出することによって、オブジェクトの少なくとも一部分を照明するように構成される光源と、
該不可視光を使用して、該光源によって照明された該オブジェクトの該一部分を結像するように構成される光センサと、
処理回路であって、該処理回路は、不可視光の反射された部分を使用して形成される画像内の特徴の1つ以上の特性に基づいて、オブジェクトの場所、オブジェクトの配向、または両方に関する情報を決定するように構成される、処理回路と
を備える、システム。
2.不可視光の反射された部分を使用して形成される画像内の特徴は、眼に不可視である、実施例1に記載の拡張現実ディスプレイシステム。
3.不可視光は、赤外線光を備える、実施例1−2のいずれかに記載の拡張現実ディスプレイシステム。
4.光源によって放出される不可視光は、スポットをオブジェクトの該一部分上に形成するビームを備える、実施例1−3のいずれかに記載の拡張現実ディスプレイシステム。
5.光源によって放出される不可視光は、光パターンを備える、実施例1−3のいずれかに記載の拡張現実ディスプレイシステム。
6.該特性は、該特徴の場所を備える、実施例1−5のいずれかに記載の拡張現実ディスプレイシステム。
7.該特性は、該特徴の形状を備える、実施例1−6のいずれかに記載の拡張現実ディスプレイシステム。
8.該特性は、該特徴の配向を備える、実施例1−7のいずれかに記載の拡張現実ディスプレイシステム。
9.世界内の実オブジェクトの場所を検出するように構成される深度センサをさらに備える、実施例1−8のいずれかに記載の拡張現実ディスプレイシステム。
10.該処理回路は、放出された不可視光の分布と不可視光の反射された部分の分布との間の差異を決定するように構成される、実施例1−9のいずれかに記載の拡張現実ディスプレイシステム。
11.該処理回路は、決定された差異に基づいて、差異シグネチャを識別するように構成される、実施例10に記載の拡張現実ディスプレイシステム。
12.該処理回路は、実オブジェクトの場所および差異シグネチャの場所に基づいて、実オブジェクトの配向を決定するように構成される、実施例11に記載の拡張現実ディスプレイシステム。
13.該処理回路は、少なくとも部分的に、差異シグネチャの場所に基づいて、実オブジェクトの場所を決定するように構成される、実施例12に記載の拡張現実ディスプレイシステム。
14.フレーム上に配置される、接眼レンズをさらに備え、該接眼レンズの少なくとも一部分は、透明であり、該透明部分が、装着者の正面の環境からの光を装着者の眼に透過させ、装着者の正面の環境のビューを提供するように、装着者が該ディスプレイシステムを装着したときに装着者の眼の正面の場所に配置される、実施例1−13のいずれかに記載の拡張現実ディスプレイシステム。
15.拡張現実ディスプレイシステムであって、
装着者上に搭載するように構成されるフレームと、
フレームに取り付けられ、画像を装着者の眼に指向するように構成される拡張現実ディスプレイと、
装着者の視野内の実オブジェクトの表面をマッピングするように構成される深度センサと、
実オブジェクトの表面上に入射する少なくとも第1の波長における光を投影するように構成される光源と、
実オブジェクトの表面によって反射された光の一部分を使用して画像を形成するように構成される光検出器と、
処理回路であって、該処理回路は、少なくとも部分的に、光パターンの反射された部分に基づいて、光差異マーカを決定し、仮想オブジェクトを光差異マーカに対して固定変位でレンダリングするように構成される、処理回路と
を備える、拡張現実ディスプレイシステム。
16.仮想オブジェクトを光差異マーカに対して固定変位でレンダリングすることは、
初期時間において仮想オブジェクトを実オブジェクトに対してレンダリングするための初期場所を受信することと、
初期場所と光差異マーカとの間の距離に基づいて、固定変位を決定することと、
初期時間に続くある時間に光差異マーカの後続場所を検出することと、
仮想オブジェクトを光差異マーカの検出された後続場所に対して固定変位でレンダリングすることと
を含む、実施例15に記載の拡張現実ディスプレイシステム。
17.フレーム上に配置される接眼レンズをさらに備え、該接眼レンズの少なくとも一部分は、透明であり、該透明部分が、装着者の正面の環境からの光を装着者の眼に透過させ、装着者の正面の環境のビューを提供するように、装着者が該ディスプレイシステムを装着したときに装着者の眼の正面の場所に配置される、実施例15または16に記載の拡張現実ディスプレイシステム。
18.3Dコンテンツと実オブジェクトとを整合させるように構成される拡張現実ディスプレイシステムであって、該システムは、
装着者上に搭載するように構成されるフレームと、
フレームに取り付けられ、画像を装着者の眼に指向するように構成される拡張現実ディスプレイと、
装着者の視野内の実オブジェクトの表面をマッピングするように構成される深度センサと、
光を放出することによって、オブジェクトの少なくとも一部分を照明するように構成される光源と、
該放出された光を使用して該光源によって照明された該オブジェクトの該一部分を結像するように構成される光センサと、
処理回路であって、該処理回路は、該オブジェクトの該画像内の特徴の1つ以上の特性に基づいて、実オブジェクトの場所、実オブジェクトの配向、または両方に関する情報を決定するように構成される、処理回路と
を備える、システム。
19.光源によって放出される光は、スポットをオブジェクトの該一部分上に形成するビームを備える、実施例18に記載の拡張現実ディスプレイシステム。
20.光源によって放出される光は、光パターンを備える、実施例18に記載の拡張現実ディスプレイシステム。
21.該特性は、該特徴の場所を備える、実施例18−20のいずれかに記載の拡張現実ディスプレイシステム。
22.該特性は、該特徴の形状を備える、実施例18−21のいずれかに記載の拡張現実ディスプレイシステム。
23.該特性は、該特徴の配向を備える、実施例18−22のいずれかに記載の拡張現実ディスプレイシステム。
24.該処理回路は、放出された光の分布と該オブジェクトから反射された該放出された光の分布との間の差異を決定するように構成される、実施例18−23のいずれかに記載の拡張現実ディスプレイシステム。
25.該処理回路は、決定された差異に基づいて、光差異マーカを識別するように構成される、実施例24に記載の拡張現実ディスプレイシステム。
26.該処理回路は、実オブジェクトの場所および光差異マーカの場所に基づいて、実オブジェクトの配向を決定するように構成される、実施例25に記載の拡張現実ディスプレイシステム。
27.該処理回路は、少なくとも部分的に、光差異マーカの場所に基づいて、実オブジェクトの場所を決定するように構成される、実施例25または26に記載の拡張現実ディスプレイシステム。
28.該深度センサは、レーザまたは超音波距離計を備える、実施例18−27のいずれかに記載の拡張現実ディスプレイシステム。
29.該深度センサは、カメラを備える、実施例18−28のいずれかに記載の拡張現実ディスプレイシステム。
30.フレーム上に配置される接眼レンズをさらに備え、該接眼レンズの少なくとも一部分は、透明であり、該透明部分が、装着者の正面の環境からの光を装着者の眼に透過させ、装着者の正面の環境のビューを提供するように、装着者が該ディスプレイシステムを装着したときに装着者の眼の正面の場所に配置される、実施例18−29のいずれかに記載の拡張現実ディスプレイシステム。
31.該ディスプレイは、異なる画像コンテンツが異なる深度に位置するかのように、画像コンテンツをレンダリングするように構成される、前述の実施例のいずれかに記載の拡張現実ディスプレイシステム。
32.該ディスプレイは、該異なる深度を提供するための異なる屈折力を有する多屈折力光学要素を含む、実施例31に記載の拡張現実ディスプレイシステム。
The details of one or more embodiments of the subject matter described in this specification are set forth in the accompanying drawings and the description below. Other features, aspects, and advantages will be apparent from the description, drawings, and claims. Neither this summary nor the following detailed description claims to define or limit the scope of the present subject matter.
(Example)
An augmented reality display system configured to match 1. 3D content with real objects, the system comprising:
A frame configured to be mounted on the wearer,
An augmented reality display attached to the frame and configured to direct the image to the wearer's eyes;
A light source configured to illuminate at least a portion of the object by emitting invisible light;
A light sensor configured to use the invisible light to image the portion of the object illuminated by the light source;
A processing circuit that relates to the location of an object, the orientation of an object, or both based on one or more characteristics of a feature in an image formed using a reflected portion of invisible light. A processing circuit configured to determine information.
2. The augmented reality display system of Example 1, wherein features in the image formed using the reflected portion of invisible light are invisible to the eye.
3. The augmented reality display system of any of Examples 1-2, wherein the invisible light comprises infrared light.
4. The augmented reality display system of any of Examples 1-3, wherein the invisible light emitted by the light source comprises a beam that forms a spot on the portion of the object.
5. The augmented reality display system of any of Examples 1-3, wherein the invisible light emitted by the light source comprises a light pattern.
6. The augmented reality display system of any of Examples 1-5, wherein the characteristic comprises the location of the feature.
7. The augmented reality display system of any of Examples 1-6, wherein the characteristic comprises the shape of the feature.
8. The augmented reality display system of any of Examples 1-7, wherein the characteristic comprises an orientation of the feature.
9. The augmented reality display system of any of Examples 1-8, further comprising a depth sensor configured to detect the location of real objects in the world.
10. Augmented reality display according to any of the examples 1-9, wherein the processing circuit is configured to determine the difference between the distribution of the emitted invisible light and the distribution of the reflected portion of the invisible light. system.
11. The augmented reality display system according to example 10, wherein the processing circuitry is configured to identify a difference signature based on the determined difference.
12. The augmented reality display system of Example 11, wherein the processing circuitry is configured to determine the orientation of the real object based on the location of the real object and the location of the difference signature.
13. The augmented reality display system of Example 12, wherein the processing circuitry is configured to determine a location of the real object based at least in part on the location of the difference signature.
14. The eyepiece is further disposed on the frame, at least a portion of the eyepiece is transparent, and the transparent portion transmits light from the environment in front of the wearer to the eye of the wearer, Augmented Reality Display according to any of Examples 1-13, which is positioned in front of the wearer's eye when the wearer wears the display system to provide a view of the frontal environment of the wearer. system.
15. An augmented reality display system,
A frame configured to be mounted on the wearer,
An augmented reality display attached to the frame and configured to direct the image to the wearer's eyes;
A depth sensor configured to map the surface of a real object within the wearer's field of view,
A light source configured to project light at at least a first wavelength incident on the surface of the real object;
A photodetector configured to form an image using a portion of the light reflected by the surface of the real object;
Processing circuit for determining a light difference marker based at least in part on the reflected portion of the light pattern and rendering the virtual object with a fixed displacement relative to the light difference marker. An augmented reality display system comprising: configured processing circuitry.
16. Rendering a virtual object with a fixed displacement to an optical difference marker
Receiving an initial location for rendering a virtual object to a real object at an initial time;
Determining a fixed displacement based on the distance between the initial location and the optical difference marker;
Detecting the subsequent location of the optical difference marker at a time following the initial time,
Rendering the virtual object with a fixed displacement relative to the detected subsequent location of the optical difference marker, the augmented reality display system according to example 15.
17. Further provided is an eyepiece arranged on the frame, at least a portion of the eyepiece being transparent, the transparent portion transmitting light from the environment in front of the wearer to the wearer's eye, 17. The augmented reality display system of example 15 or 16, which is placed in front of the wearer's eyes when the wearer wears the display system to provide a view of the frontal environment.
18. An augmented reality display system configured to align 3D content with real objects, the system comprising:
A frame configured to be mounted on the wearer,
An augmented reality display attached to the frame and configured to direct the image to the wearer's eyes;
A depth sensor configured to map the surface of a real object within the wearer's field of view,
A light source configured to illuminate at least a portion of the object by emitting light;
A light sensor configured to use the emitted light to image the portion of the object illuminated by the light source;
A processing circuit, the processing circuit being configured to determine information about a location of the real object, an orientation of the real object, or both based on one or more characteristics of features in the image of the object. And a processing circuit.
19. 19. The augmented reality display system of example 18, wherein the light emitted by the light source comprises a beam that forms a spot on the portion of the object.
20. The augmented reality display system of example 18, wherein the light emitted by the light source comprises a light pattern.
21. The augmented reality display system of any of Examples 18-20, wherein the characteristic comprises the location of the feature.
22. The augmented reality display system of any of Examples 18-21, wherein the characteristic comprises the shape of the feature.
23. The augmented reality display system of any of Examples 18-22, wherein the characteristic comprises an orientation of the feature.
24. The processing circuit of any of Examples 18-23, wherein the processing circuit is configured to determine a difference between the distribution of emitted light and the distribution of the emitted light reflected from the object. Augmented reality display system.
25. The augmented reality display system of Example 24, wherein the processing circuitry is configured to identify a light difference marker based on the determined difference.
26. The augmented reality display system of Example 25, wherein the processing circuitry is configured to determine the orientation of the real object based on the location of the real object and the location of the light difference marker.
27. 27. The augmented reality display system according to example 25 or 26, wherein the processing circuit is configured to determine the location of the real object based at least in part on the location of the light difference marker.
28. The augmented reality display system of any of Examples 18-27, wherein the depth sensor comprises a laser or an ultrasonic range finder.
29. The augmented reality display system of any of Examples 18-28, wherein the depth sensor comprises a camera.
30. Further provided is an eyepiece arranged on the frame, at least a portion of the eyepiece being transparent, the transparent portion transmitting light from the environment in front of the wearer to the wearer's eye, The augmented reality display system of any of Examples 18-29, which is positioned in front of the wearer's eyes when the wearer wears the display system to provide a view of the frontal environment. ..
31. Augmented reality display system according to any of the previous embodiments, wherein the display is configured to render image content as if the different image content were located at different depths.
32. The augmented reality display system according to example 31, wherein the display includes multi-power optical elements having different powers to provide the different depths.

図1は、ARデバイスを通した拡張現実(AR)のユーザのビューを図示する。FIG. 1 illustrates a view of an augmented reality (AR) user through an AR device.

図2は、ウェアラブルディスプレイシステムの実施例を図示する。FIG. 2 illustrates an embodiment of a wearable display system.

図3は、ユーザのための3次元画像をシミュレートするための従来のディスプレイシステムを図示する。FIG. 3 illustrates a conventional display system for simulating a three-dimensional image for a user.

図4は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。FIG. 4 illustrates aspects of an approach for simulating a three-dimensional image using multiple depth planes.

図5A−5Cは、曲率半径と焦点半径との間の関係を図示する。5A-5C illustrate the relationship between radius of curvature and focal radius.

図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。FIG. 6 illustrates an example of a waveguide stack for outputting image information to a user.

図7は、導波管によって出力された出射ビームの実施例を図示する。FIG. 7 illustrates an embodiment of the exit beam output by the waveguide.

図8は、スタックされた導波管アセンブリの実施例を図示し、各深度平面は、複数の異なる原色を使用して形成される画像を含む。FIG. 8 illustrates an example of stacked waveguide assemblies, each depth plane containing an image formed using a plurality of different primary colors.

図9Aは、それぞれが内部結合光学要素を含む、スタックされた導波管のセットの実施例の断面側面図を図示する。FIG. 9A illustrates a cross-sectional side view of an embodiment of a set of stacked waveguides, each including an incoupling optical element.

図9Bは、図9Aの複数のスタックされた導波管の実施例の斜視図を図示する。FIG. 9B illustrates a perspective view of the multiple stacked waveguide embodiment of FIG. 9A.

図9Cは、図9Aおよび9Bの複数のスタックされた導波管の実施例の上下平面図を図示する。FIG. 9C illustrates a top-down plan view of the multiple stacked waveguide embodiment of FIGS. 9A and 9B.

図10は、マーカを使用して、世界内のオブジェクトの配向を追跡するように構成される、拡張現実ディスプレイシステムを図式的に図示する。FIG. 10 schematically illustrates an augmented reality display system configured to track the orientation of objects in the world using markers.

図11は、マーカを使用して、世界内のオブジェクトの配向を追跡する例示的方法を図示する。FIG. 11 illustrates an exemplary method of using markers to track the orientation of an object in the world.

ここで、同様の参照番号が全体を通して同様の部分を指す、図を参照する。本明細書に開示される実施形態は、概して、ディスプレイシステムを含む、光学システムを含むことを理解されたい。いくつかの実施形態では、ディスプレイシステムは、装着可能であって、これは、有利には、より没入型のVRまたはAR体験を提供し得る。例えば、1つ以上の導波管(例えば、導波管のスタック)を含有する、ディスプレイは、ユーザの眼または視認者の正面に位置付けられて装着されるように構成されてもよい。いくつかの実施形態では、2つの導波管(視認者の各眼に対して1つ)のスタックが、異なる画像を各眼に提供するために利用されてもよい。
(例示的ディスプレイシステム)
Reference is now made to the figures, where like reference numerals refer to like parts throughout. It should be appreciated that the embodiments disclosed herein generally include optical systems, including display systems. In some embodiments, the display system is wearable, which may advantageously provide a more immersive VR or AR experience. For example, a display containing one or more waveguides (eg, a stack of waveguides) may be configured to be positioned and worn in front of the user's eye or viewer. In some embodiments, a stack of two waveguides (one for each eye of the viewer) may be utilized to provide a different image to each eye.
(Exemplary display system)

図2は、ウェアラブルディスプレイシステム60の実施例を図示する。ディスプレイシステム60は、ディスプレイ70と、そのディスプレイ70の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ70は、フレーム80に結合されてもよく、これは、ディスプレイシステムユーザまたは視認者90によって装着可能であって、ディスプレイ70をユーザ90の眼の正面に位置付けるように構成される。ディスプレイ70は、いくつかの実施形態では、アイウェアと見なされてもよい。いくつかの実施形態では、スピーカ100が、フレーム80に結合され、ユーザ90の外耳道に隣接して位置付けられるように構成される(いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供してもよい)。いくつかの実施形態では、ディスプレイシステムはまた、1つ以上のマイクロホン110または他のデバイスを含み、音を検出してもよい。いくつかの実施形態では、マイクロホンは、ユーザが、入力またはコマンドをシステム60に提供することを可能にするように構成され(例えば、音声メニューコマンドの選択、自然言語質問等)、および/または他の人物(例えば、類似ディスプレイシステムの他のユーザ)とのオーディオ通信を可能にしてもよい。マイクロホンはさらに、周辺センサとして構成され、オーディオデータ(例えば、ユーザおよび/または環境からの音)を収集してもよい。いくつかの実施形態では、ディスプレイシステムもまた、周辺センサ120aを含んでもよく、これは、フレーム80と別個であって、ユーザ90の身体(例えば、ユーザ90の頭部、胴体、四肢等上)に取り付けられてもよい。周辺センサ120aは、いくつかの実施形態では、ユーザ90の生理学的状態を特徴付けるデータを取得するように構成されてもよい。例えば、センサ120aは、電極であってもよい。   FIG. 2 illustrates an embodiment of wearable display system 60. The display system 60 includes a display 70 and various mechanical and electronic modules and systems for supporting the functions of the display 70. Display 70 may be coupled to frame 80, which is wearable by a display system user or viewer 90 and is configured to position display 70 in front of user 90's eye. The display 70 may be considered eyewear in some embodiments. In some embodiments, the speaker 100 is coupled to the frame 80 and is configured to be positioned adjacent to the ear canal of the user 90 (in some embodiments, another speaker not shown is the other of the users). Located adjacent to the ear canal of the earphone to provide stereo / mouldable sound control). In some embodiments, the display system may also include one or more microphones 110 or other devices to detect sound. In some embodiments, the microphone is configured to allow a user to provide input or commands to system 60 (eg, voice menu command selection, natural language question, etc.), and / or other. Audio communication with other people (eg, other users of similar display systems). The microphone may also be configured as a peripheral sensor to collect audio data (eg, sound from the user and / or the environment). In some embodiments, the display system may also include a peripheral sensor 120a, which is separate from the frame 80 and is on the body of the user 90 (eg, on the head, torso, limbs, etc. of the user 90). May be attached to. Perimeter sensor 120a, in some embodiments, may be configured to obtain data characterizing a physiological condition of user 90. For example, the sensor 120a may be an electrode.

図2を継続して参照すると、ディスプレイ70は、有線導線または無線コネクティビティ等の通信リンク130によって、ローカルデータ処理モジュール140に動作可能に結合され、これは、フレーム80に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ90に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成で搭載されてもよい。同様に、センサ120aは、通信リンク120b、例えば、有線導線または無線コネクティビティによって、ローカルプロセッサおよびデータモジュール140に動作可能に結合されてもよい。ローカル処理およびデータモジュール140は、ハードウェアプロセッサおよび不揮発性メモリ(例えば、フラッシュメモリまたはハードディスクドライブ)等のデジタルメモリを備えてもよく、その両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、ジャイロスコープ、および/または本明細書に開示される他のセンサ等のセンサ(例えば、フレーム80に動作可能に結合される、または別様にユーザ90に取り付けられ得る)から捕捉されたデータ、および/またはb)場合によっては処理または読出後にディスプレイ70への通過のために、遠隔処理モジュール150および/または遠隔データリポジトリ160(仮想コンテンツに関連するデータを含む)を使用して取得および/または処理されたデータを含む。ローカル処理およびデータモジュール140は、これらの遠隔モジュール150、160が相互に動作可能に結合され、ローカル処理およびデータモジュール140に対するリソースとして利用可能であるように、有線または無線通信リンク等を介して、通信リンク170、180によって、遠隔処理モジュール150および遠隔データリポジトリ160に動作可能に結合されてもよい。いくつかの実施形態では、ローカル処理およびデータモジュール140は、画像捕捉デバイス、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープのうちの1つ以上のものを含んでもよい。いくつかの他の実施形態では、これらのセンサのうちの1つ以上のものは、フレーム80に取り付けられてもよい、または有線または無線通信経路によってローカル処理およびデータモジュール140と通信する、独立構造であってもよい。   With continued reference to FIG. 2, the display 70 is operably coupled to a local data processing module 140 by a communication link 130, such as a wire or wireless connectivity, which is fixedly attached to a frame 80 by a user. Fixedly attached to a helmet or hat worn by the user, incorporated into headphones, or otherwise removably attached to the user 90 (eg, in a backpack configuration, in a belt-coupled configuration), etc. It may be mounted in a configuration. Similarly, the sensor 120a may be operably coupled to the local processor and data module 140 by a communication link 120b, such as a wired conductor or wireless connectivity. The local processing and data module 140 may include a digital memory, such as a hardware processor and non-volatile memory (eg, flash memory or hard disk drive), both of which assist in processing, caching, and storing data. Can be used for. The data may include: a) sensors such as image capture devices (such as cameras), microphones, inertial measurement units, accelerometers, compasses, GPS units, wireless devices, gyroscopes, and / or other sensors disclosed herein. For example, data captured from (which may be operably coupled to frame 80, or otherwise attached to user 90), and / or b) optionally for processing or readout, and then to display 70, Contains data that has been obtained and / or processed using remote processing module 150 and / or remote data repository 160 (including data related to virtual content). The local processing and data module 140 may be coupled via a wired or wireless communication link, etc. such that these remote modules 150, 160 are operably coupled to each other and available as resources to the local processing and data module 140. Communication links 170, 180 may be operatively coupled to remote processing module 150 and remote data repository 160. In some embodiments, the local processing and data module 140 includes one or more of an image capture device, a microphone, an inertial measurement unit, an accelerometer, a compass, a GPS unit, a wireless device, and / or a gyroscope. May be included. In some other embodiments, one or more of these sensors may be attached to frame 80 or stand alone structure that communicates with local processing and data module 140 via a wired or wireless communication path. May be

図2を継続して参照すると、いくつかの実施形態では、遠隔処理モジュール150は、データおよび/または画像情報を分析および処理するように構成される、1つ以上のプロセッサを備えてもよい。いくつかの実施形態では、遠隔データリポジトリ160は、デジタルデータ記憶設備を備え得、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、遠隔データリポジトリ160は、情報、例えば、拡張現実コンテンツを生成するための情報をローカル処理およびデータモジュール140および/または遠隔処理モジュール150に提供する、1つ以上の遠隔サーバを含んでもよい。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュール内において実施され、遠隔モジュールからの完全に自律的な使用を可能にする。   With continued reference to FIG. 2, in some embodiments remote processing module 150 may comprise one or more processors configured to analyze and process data and / or image information. In some embodiments, the remote data repository 160 may comprise digital data storage facilities, which may be available through the Internet or other networking configurations in a "cloud" resource configuration. In some embodiments, remote data repository 160 provides one or more remote servers that provide information to local processing and data module 140 and / or remote processing module 150, eg, information for generating augmented reality content. May be included. In some embodiments, all data is stored and all calculations are performed within the local processing and data modules, allowing for fully autonomous use from remote modules.

「3次元」または「3−D」としての画像の知覚は、視認者の各眼への画像の若干異なる提示を提供することによって達成され得る。図3は、ユーザに関する3次元画像をシミュレートするための従来のディスプレイシステムを図示する。2つの明確に異なる画像190、200(各眼210、220に対して1つ)が、ユーザに出力される。画像190、200は、視認者の視線と平行な光学軸またはz−軸に沿って距離230だけ眼210、220から離間される。画像190、200は、平坦であって、眼210、220は、単一の遠近調節された状態をとることによって、画像上に合焦し得る。そのような3−Dディスプレイシステムは、ヒト視覚系に依拠し、画像190、200を組み合わせ、組み合わせられた画像の深度および/または尺度の知覚を提供する。   Perception of an image as "3D" or "3-D" can be achieved by providing a slightly different presentation of the image to each eye of a viewer. FIG. 3 illustrates a conventional display system for simulating a three-dimensional image of a user. Two distinct images 190, 200 (one for each eye 210, 220) are output to the user. The images 190, 200 are separated from the eyes 210, 220 by a distance 230 along an optical axis or z-axis parallel to the line of sight of the viewer. The images 190, 200 are flat and the eyes 210, 220 can be focused on the images by taking a single accommodating state. Such a 3-D display system relies on the human visual system to combine images 190, 200 and provide depth and / or scale perception of the combined images.

しかしながら、ヒト視覚系は、より複雑であって、深度の現実的知覚を提供することは、より困難であることを理解されたい。例えば、従来の「3−D」ディスプレイシステムの多くの視認者は、そのようなシステムが不快であることを見出す、または深度の感覚を全く知覚しない場合がある。理論によって限定されるわけではないが、オブジェクトの視認者は、輻輳・開散(vergence)と遠近調節(accmmodation)の組み合わせに起因して、オブジェクトを「3次元」として知覚し得ると考えられる。相互に対する2つの眼の輻輳・開散運動(すなわち、瞳孔が、相互に向かって、またはそこから離れるように移動し、眼の視線を収束させ、オブジェクトを固視するような眼の回転)は、眼の水晶体および瞳孔の合焦(または「遠近調節」)と緊密に関連付けられる。通常条件下、焦点を1つのオブジェクトから異なる距離における別のオブジェクトに変化させるための眼のレンズの焦点の変化または眼の遠近調節は、「遠近調節−輻輳・開散運動反射」および瞳孔拡張または収縮として知られる関係下、輻輳・開散運動の整合変化を自動的に同一距離に生じさせるであろう。同様に、輻輳・開散運動の変化は、通常条件下、水晶体形状および瞳孔サイズの遠近調節における整合変化を誘起するであろう。本明細書に記載されるように、多くの立体視または「3−D」ディスプレイシステムは、3次元視点がヒト視覚系によって知覚されるように、各眼への若干異なる提示(したがって、若干異なる画像)を使用して、場面を表示する。しかしながら、そのようなシステムは、とりわけ、単に、場面の異なる提示を提供するが、眼が全画像情報を単一の遠近調節された状態において視認すると、「遠近調節−輻輳・開散運動反射」に対抗して機能するため、多くの視認者にとって不快である。遠近調節と輻輳・開散運動との間のより優れた整合を提供するディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し、装着持続時間の増加、ひいては、診断および療法プロトコルへのコンプライアンスに寄与し得る。   However, it should be appreciated that the human visual system is more complex and it is more difficult to provide a realistic perception of depth. For example, many viewers of conventional "3-D" display systems may find such systems uncomfortable or may not perceive a sense of depth at all. Without being limited by theory, it is believed that the viewer of the object may perceive the object as "three-dimensional" due to a combination of convergence / divergence (vergence) and accommodation. Convergence / divergence movements of the two eyes relative to each other (ie, the rotation of the eyes so that the pupils move towards or away from each other, converging the eyes' gaze and fixing the object) , Closely associated with the focusing (or “accommodation”) of the eye's lens and pupil. Under normal conditions, a change in the focus of the lens of the eye or an accommodation of the eye to change the focus from one object to another at a different distance is referred to as "accommodation-convergence / divergent motion reflex" and pupil dilation or Under a relationship known as contraction, it will automatically cause a consistent change in vergence-divergence movement at the same distance. Similarly, changes in vergence and divergence movements will induce matching changes in accommodation of lens shape and pupil size under normal conditions. As described herein, many stereoscopic or "3-D" display systems have slightly different presentations (and therefore slightly different) to each eye such that a three-dimensional perspective is perceived by the human visual system. Image) to display the scene. However, such a system, among other things, merely provides a different presentation of the scene, but when the eye sees all the image information in a single accommodating state, "accommodation-convergence-divergent motion reflex". It works against and is uncomfortable for many viewers. The display system, which provides a better match between accommodation and vergence / divergence movements, creates a more realistic and comfortable simulation of 3D images, increases wear duration and thus diagnostic and therapeutic protocols. Can contribute to compliance.

図4は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。図4を参照すると、z−軸上の眼210、220からの種々の距離におけるオブジェクトは、それらのオブジェクトが合焦するように、眼210、220によって遠近調節される。眼210、220は、特定の遠近調節された状態をとり、オブジェクトをz−軸に沿った異なる距離に合焦させる。その結果、特定の遠近調節された状態は、特定の深度平面におけるオブジェクトまたはオブジェクトの一部が、眼がその深度平面に対して遠近調節された状態にあるとき、合焦するように、関連付けられた焦点距離を有する、深度平面240のうちの特定の1つと関連付けられると言え得る。いくつかの実施形態では、3次元画像は、眼210、220毎に、画像の異なる提示を提供することによって、また、深度平面のそれぞれに対応する画像の異なる提示を提供することによってシミュレートされてもよい。例証を明確にするために、別個であるように示されるが、眼210、220の視野は、例えば、z−軸に沿った距離が増加するにつれて、重複し得ることを理解されたい。加えて、例証を容易にするために、平坦であるように示されるが、深度平面の輪郭は、深度平面内の全ての特徴が特定の遠近調節された状態における眼と合焦するように、物理的空間内で湾曲され得ることを理解されたい。   FIG. 4 illustrates aspects of an approach for simulating a three-dimensional image using multiple depth planes. Referring to FIG. 4, objects at various distances from the eyes 210, 220 on the z-axis are accommodated by the eyes 210, 220 so that they are in focus. The eyes 210, 220 assume a particular accommodation state to focus the object at different distances along the z-axis. As a result, a particular accommodating state is associated such that an object or part of an object in a particular depth plane is in focus when the eye is accommodating with respect to that depth plane. It can be said to be associated with a particular one of the depth planes 240, which has a different focal length. In some embodiments, a three-dimensional image is simulated by providing different presentations of images for each eye 210, 220 and by providing different presentations of images corresponding to each of the depth planes. You may. Although shown as separate for clarity of illustration, it should be understood that the fields of view of the eyes 210, 220 may overlap, for example, as the distance along the z-axis increases. In addition, although shown as flat for ease of illustration, the contours of the depth plane are such that all features in the depth plane are in focus with the eye in a particular accommodating state. It should be appreciated that it can be curved in physical space.

オブジェクトと眼210または220との間の距離はまた、その眼によって視認されるようなそのオブジェクトからの光の発散の量を変化させ得る。図5A−5Cは、距離と光線の発散との間の関係を図示する。オブジェクトと眼210との間の距離は、減少距離R1、R2、およびR3の順序で表される。図5A−5Cに示されるように、光線は、オブジェクトまでの距離が減少するにつれてより発散する。距離が増加するにつれて、光線は、よりコリメートされる。換言すると、点(オブジェクトまたはオブジェクトの一部)によって生成されるライトフィールドは、点がユーザの眼から離れている距離の関数である、球状波面曲率を有すると言え得る。曲率は、オブジェクトと眼210との間の距離の減少に伴って増加する。その結果、異なる深度平面では、光線の発散度もまた、異なり、発散度は、深度平面と視認者の眼210との間の距離の減少に伴って増加する。単眼210のみが、例証を明確にするために、図5A−5Cおよび本明細書の他の図に図示されるが、眼210に関する議論は、視認者の両眼210および220に適用され得ることを理解されたい。   The distance between the object and the eye 210 or 220 may also change the amount of light divergence from that object as seen by that eye. 5A-5C illustrate the relationship between distance and ray divergence. The distance between the object and the eye 210 is represented in the order of decreasing distances R1, R2, and R3. As shown in FIGS. 5A-5C, the rays diverge more as the distance to the object decreases. As the distance increases, the rays become more collimated. In other words, it can be said that the light field produced by a point (object or part of an object) has a spherical wavefront curvature that is a function of the distance the point is away from the user's eye. The curvature increases with decreasing distance between the object and the eye 210. As a result, at different depth planes, the divergence of the rays is also different, with the divergence increasing with decreasing distance between the depth plane and the viewer's eye 210. Although only the monocular 210 is illustrated in Figures 5A-5C and other figures herein for clarity of illustration, the discussion regarding the eye 210 may apply to both eyes 210 and 220 of the viewer. Please understand.

理論によって限定されるわけではないが、ヒトの眼は、典型的には、有限数の深度平面を解釈し、深度知覚を提供することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、眼にこれらの限定数の深度平面のそれぞれに対応する画像の異なる提示を提供することによって達成され得る。異なる提示は、視認者の眼によって別個に集束され、それによって、異なる深度平面上に位置する場面のための異なる画像特徴に合焦させるために要求される眼の遠近調節に基づいて、および/または焦点がずれている異なる深度平面上の異なる画像特徴の観察に基づいて、ユーザに深度合図を提供することに役立ててもよい。   Without being limited by theory, it is believed that the human eye is typically capable of interpreting a finite number of depth planes and providing depth perception. As a result, a highly plausible simulation of the perceived depth can be achieved by providing the eye with different presentations of images corresponding to each of these limited number of depth planes. Different presentations are separately focused by the viewer's eyes, thereby based on the eye accommodation required to focus on different image features for scenes located on different depth planes, and / or Or it may help to provide depth cues to the user based on the observation of different image features on different depth planes that are out of focus.

図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ディスプレイシステム250は、複数の導波管270、280、290、300、310を使用して3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ260を含む。いくつかの実施形態では、ディスプレイシステム250は、図2のシステム60であって、図6は、そのシステム60のいくつかの部分をより詳細に図式的に示す。例えば、導波管アセンブリ260は、図2のディスプレイ70の一部であってもよい。ディスプレイシステム250は、いくつかの実施形態では、ライトフィールドディスプレイと見なされてもよいことを理解されたい。   FIG. 6 illustrates an example of a waveguide stack for outputting image information to a user. Display system 250 is a stack of waveguides or stacked waveguides that can be utilized to provide three-dimensional perception to the eye / brain using multiple waveguides 270, 280, 290, 300, 310. Includes tube assembly 260. In some embodiments, the display system 250 is the system 60 of FIG. 2, and FIG. 6 schematically shows some portions of the system 60 in more detail. For example, the waveguide assembly 260 may be part of the display 70 of FIG. It should be appreciated that the display system 250 may be considered a light field display in some embodiments.

図6を継続して参照すると、導波管アセンブリ260はまた、複数の特徴320、330、340、350を導波管の間に含んでもよい。いくつかの実施形態では、特徴320、330、340、350は、1つ以上のレンズであってもよい。導波管270、280、290、300、310および/または複数のレンズ320、330、340、350は、種々のレベルの波面曲率または光線発散を用いて画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度平面と関連付けられてもよく、その深度平面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス360、370、380、390、400は、導波管のための光源として機能してもよく、画像情報を導波管270、280、290、300、310の中に投入するために利用されてもよく、それぞれ、本明細書に説明されるように、眼210に向かった出力のために各個別の導波管を横断して入射光を分散させるように構成されてもよい。光は、画像投入デバイス360、370、380、390、400の出力表面410、420、430、440、450から出射し、導波管270、280、290、300、310の対応する入力表面460、470、480、490、500の中に投入される。いくつかの実施形態では、入力表面460、470、480、490、500はそれぞれ、対応する導波管の縁であってもよい、または対応する導波管の主要表面の一部(すなわち、世界510または視認者の眼210に直接面する導波管表面のうちの1つ)であってもよい。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、クローン化されたコリメートビームの全体場を出力してもよく、これは、特定の導波管と関連付けられた深度平面に対応する特定の角度(および発散量)において眼210に向かって指向される。いくつかの実施形態では、画像投入デバイス360、370、380、390、400のうちの単一の1つは、複数(例えば、3つ)の導波管270、280、290、300、310と関連付けられ、その中に光を投入してもよい。   With continued reference to FIG. 6, the waveguide assembly 260 may also include a plurality of features 320, 330, 340, 350 between the waveguides. In some embodiments, the features 320, 330, 340, 350 may be one or more lenses. The waveguides 270, 280, 290, 300, 310 and / or the plurality of lenses 320, 330, 340, 350 are configured to transmit image information to the eye with varying levels of wavefront curvature or ray divergence. You may. Each waveguide level may be associated with a particular depth plane and may be configured to output image information corresponding to that depth plane. The image injecting devices 360, 370, 380, 390, 400 may serve as a light source for the waveguides and to inject image information into the waveguides 270, 280, 290, 300, 310. Each may be utilized and configured to disperse incident light across each individual waveguide for output towards the eye 210, as described herein. Light exits the output surfaces 410, 420, 430, 440, 450 of the image input devices 360, 370, 380, 390, 400 and the corresponding input surfaces 460 of the waveguides 270, 280, 290, 300, 310. 470, 480, 490, 500. In some embodiments, each of the input surfaces 460, 470, 480, 490, 500 may be the edge of the corresponding waveguide, or a portion of the corresponding major surface of the waveguide (ie, the world). 510 or one of the waveguide surfaces directly facing the viewer's eye 210). In some embodiments, a single beam of light (eg, a collimated beam) may be injected into each waveguide to output the entire field of the cloned collimated beam, which is , Directed towards the eye 210 at a particular angle (and divergence) corresponding to the depth plane associated with a particular waveguide. In some embodiments, a single one of the image injecting devices 360, 370, 380, 390, 400 may include multiple (eg, three) waveguides 270, 280, 290, 300, 310. It may be associated with and throw light into it.

いくつかの実施形態では、画像投入デバイス360、370、380、390、400はそれぞれ、それぞれが対応する導波管270、280、290、300、310の中への投入のための画像情報を生成する、離散ディスプレイである。いくつかの他の実施形態では、画像投入デバイス360、370、380、390、400は、例えば、画像情報を1つ以上の光学導管(光ファイバケーブル等)を介して画像投入デバイス360、370、380、390、400のそれぞれに送り得る、単一の多重化されたディスプレイの出力端である。画像投入デバイス360、370、380、390、400によって提供される画像情報は、異なる波長または色(例えば、本明細書に議論されるように、異なる原色)の光を含んでもよいことを理解されたい。   In some embodiments, the image injection devices 360, 370, 380, 390, 400 each generate image information for injection into their respective waveguides 270, 280, 290, 300, 310. Yes, it is a discrete display. In some other embodiments, the image input devices 360, 370, 380, 390, 400 may, for example, provide image information via one or more optical conduits (such as fiber optic cables). Output of a single multiplexed display that can be sent to each of 380, 390, 400. It is understood that the image information provided by the image injection devices 360, 370, 380, 390, 400 may include light of different wavelengths or colors (eg, different primary colors, as discussed herein). I want to.

いくつかの実施形態では、導波管270、280、290、300、310の中に投入される光は、光プロジェクタシステム520によって提供され、これは、光モジュール530を備え、これは、発光ダイオード(LED)等の光エミッタを含んでもよい。光モジュール530からの光は、ビームスプリッタ550を介して、光変調器540、例えば、空間光変調器によって指向および修正されてもよい。光変調器540は、導波管270、280、290、300、310の中に投入される光の知覚される強度を変化させるように構成されてもよい。空間光変調器の実施例は、シリコン上液晶(LCOS)ディスプレイを含む、液晶ディスプレイ(LCD)を含む。   In some embodiments, the light launched into the waveguides 270, 280, 290, 300, 310 is provided by a light projector system 520, which comprises a light module 530, which comprises a light emitting diode. It may include a light emitter such as (LED). Light from the light module 530 may be directed and modified by a light modulator 540, eg, a spatial light modulator, via a beam splitter 550. The light modulator 540 may be configured to change the perceived intensity of light injected into the waveguides 270, 280, 290, 300, 310. Examples of spatial light modulators include liquid crystal displays (LCDs), including liquid crystal on silicon (LCOS) displays.

いくつかの実施形態では、ディスプレイシステム250は、光を種々のパターン(例えば、ラスタ走査、螺旋走査、リサジューパターン等)で1つ以上の導波管270、280、290、300、310の中に、最終的には、視認者の眼210に投影するように構成される、1つ以上の走査ファイバを備える、走査ファイバディスプレイであってもよい。いくつかの実施形態では、図示される画像投入デバイス360、370、380、390、400は、光を1つまたは複数の導波管270、280、290、300、310の中に投入するように構成される、単一走査ファイバまたは走査ファイバの束を図式的に表し得る。いくつかの他の実施形態では、図示される画像投入デバイス360、370、380、390、400は、複数の走査ファイバまたは走査ファイバの複数の束を図式的に表し得、これらのそれぞれが、光を導波管270、280、290、300、310のうちの関連付けられた1つの中に投入するように構成される。1つ以上の光ファイバは、光を光モジュール530から1つ以上の導波管270、280、290、300、310に伝送するように構成されてもよいことを理解されたい。1つ以上の介在光学構造が、走査ファイバ(1つまたは複数)と、1つ以上の導波管270、280、290、300、310との間に提供され、例えば、走査ファイバから出射する光を1つ以上の導波管270、280、290、300、310の中に再指向してもよいことを理解されたい。   In some embodiments, the display system 250 directs light in various patterns (eg, raster scan, spiral scan, Lissajous pattern, etc.) into one or more waveguides 270, 280, 290, 300, 310. Finally, it may be a scanning fiber display comprising one or more scanning fibers configured to project into the viewer's eye 210. In some embodiments, the illustrated image injection device 360, 370, 380, 390, 400 is adapted to inject light into one or more waveguides 270, 280, 290, 300, 310. The configured single scan fiber or bundle of scan fibers may be represented diagrammatically. In some other embodiments, the illustrated image injection devices 360, 370, 380, 390, 400 may schematically represent a plurality of scanning fibers or a bundle of scanning fibers, each of which may be a light source. Is configured for injection into the associated one of the waveguides 270, 280, 290, 300, 310. It should be appreciated that the one or more optical fibers may be configured to transmit light from the optical module 530 to the one or more waveguides 270, 280, 290, 300, 310. One or more intervening optical structures are provided between the scanning fiber (s) and the one or more waveguides 270, 280, 290, 300, 310, eg, light exiting the scanning fibers. It should be appreciated that may be redirected into one or more waveguides 270, 280, 290, 300, 310.

コントローラ560は、画像投入デバイス360、370、380、390、400、光源530、および光変調器540の動作を含む、スタックされた導波管アセンブリ260のうちの1つ以上のものの動作を制御する。いくつかの実施形態では、コントローラ560は、ローカルデータ処理モジュール140の一部である。コントローラ560は、例えば、本明細書に開示される種々のスキームのいずれかに従って、導波管270、280、290、300、310への画像情報のタイミングおよびプロビジョニングを調整する、プログラミング(例えば、非一過性媒体内の命令)を含む。いくつかの実施形態では、コントローラは、単一の一体型デバイスまたは有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ560は、いくつかの実施形態では、処理モジュール140または150(図2)の一部であってもよい。   Controller 560 controls the operation of one or more of stacked waveguide assemblies 260, including the operation of image injection devices 360, 370, 380, 390, 400, light source 530, and light modulator 540. . In some embodiments, controller 560 is part of local data processing module 140. The controller 560 adjusts the timing and provision of image information to the waveguides 270, 280, 290, 300, 310, eg, according to any of the various schemes disclosed herein, programming (eg, non-compliant). Instructions in a transitory medium). In some embodiments, the controller may be a single integrated device or a distributed system connected by wired or wireless communication channels. Controller 560 may be part of processing module 140 or 150 (FIG. 2) in some embodiments.

図6を継続して参照すると、導波管270、280、290、300、310は、全内部反射(TIR)によって、光を各個別の導波管内で伝搬させるように構成されてもよい。導波管270、280、290、300、310はそれぞれ、主要上部表面および主要底部表面およびそれらの主要上部表面と主要底部表面との間に延在する縁を伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管270、280、290、300、310はそれぞれ、光を再指向させ、各個別の導波管内で伝搬させ、導波管から画像情報を眼210に出力することによって、光を導波管から抽出するように構成される、外部結合光学要素570、580、590、600、610を含んでもよい。抽出された光はまた、外部結合光と称され得、光を外部結合する光学要素はまた、光抽出光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内で伝搬する光が光抽出光学要素に衝打する場所において出力され得る。外部結合光学要素570、580、590、600、610は、例えば、本明細書にさらに議論されるような回折光学特徴を含む、格子であってもよい。説明を容易にし、図面を明確にするために、導波管270、280、290、300、310の底部主要表面に配置されて図示されるが、いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、本明細書にさらに議論されるように、上部主要表面および/または底部主要表面に配置されてもよく、および/または導波管270、280、290、300、310の容積内に直接配置されてもよい。いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、透明基板に取り付けられ、導波管270、280、290、300、310を形成する、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管270、280、290、300、310は、モノリシック材料部品であってもよく、外部結合光学要素570、580、590、600、610は、その材料部品の表面上および/または内部に形成されてもよい。   With continued reference to FIG. 6, the waveguides 270, 280, 290, 300, 310 may be configured to propagate light within each individual waveguide by total internal reflection (TIR). The waveguides 270, 280, 290, 300, 310 are each planar, or with another major top surface and major bottom surface and edges extending between those major top and bottom surfaces. It may have a shape (eg, curved). In the illustrated configuration, each of the waveguides 270, 280, 290, 300, 310 redirects light, propagates within each individual waveguide, and outputs image information from the waveguides to the eye 210. May include outcoupling optical elements 570, 580, 590, 600, 610 configured to extract light from the waveguide. The extracted light may also be referred to as outcoupling light, and the optical element that outcouples the light may also be referred to as light extraction optical element. The extracted beam of light may be output by the waveguide at a location where light propagating in the waveguide strikes the light extraction optical element. Outcoupling optical elements 570, 580, 590, 600, 610 may be, for example, gratings that include diffractive optical features as discussed further herein. For ease of explanation and for clarity of illustration, the waveguide 270, 280, 290, 300, 310 is shown positioned on the bottom major surface of the waveguide, but in some embodiments, the outcoupling optical element 570. , 580, 590, 600, 610 may be located on the top major surface and / or the bottom major surface, and / or the waveguides 270, 280, 290, 300, as discussed further herein. , 310 may be placed directly within the volume. In some embodiments, the outcoupling optical elements 570, 580, 590, 600, 610 are formed in layers of material that are attached to a transparent substrate to form the waveguides 270, 280, 290, 300, 310. May be done. In some other embodiments, the waveguide 270, 280, 290, 300, 310 may be a monolithic material component and the outcoupling optical element 570, 580, 590, 600, 610 may be a material component thereof. It may be formed on the surface of and / or inside.

図6を継続して参照すると、本明細書に議論されるように、各導波管270、280、290、300、310は、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管270は、眼210にコリメートされた光(そのような導波管270の中に投入された)を送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管280は、眼210に到達し得る前に、第1のレンズ350(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。そのような第1のレンズ350は、眼/脳が、その次の上方の導波管280から生じる光を光学無限遠から眼210に向かって内向きにより近い第1の焦点面から生じるように解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管290は、眼210に到達する前に、その出力光を第1のレンズ350および第2のレンズ340の両方を通して通過させる。第1のレンズ350および第2のレンズ340の組み合わせられた屈折力は、眼/脳が、第3の導波管290から生じる光が次の上方の導波管280からの光であったよりも光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるように解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。   With continued reference to FIG. 6, as discussed herein, each waveguide 270, 280, 290, 300, 310 outputs light to form an image corresponding to a particular depth plane. Is configured as follows. For example, the waveguide 270 proximate to the eye may be configured to deliver collimated light (cast into such a waveguide 270) to the eye 210. The collimated light may represent the optical infinity focal plane. The next upper waveguide 280 may be configured to deliver collimated light that passes through the first lens 350 (eg, a negative lens) before it can reach the eye 210. Such a first lens 350 interprets the eye / brain as the light emanating from the next upper waveguide 280 originates from a first focal plane closer inward from optical infinity toward the eye 210. To generate some convex wavefront curvature. Similarly, the third upper waveguide 290 passes its output light through both the first lens 350 and the second lens 340 before reaching the eye 210. The combined refracting power of the first lens 350 and the second lens 340 is such that the eye / brain was light coming from the third waveguide 290 next to light coming from the upper waveguide 280. It may be configured to generate another incremental amount of wavefront curvature to be interpreted as originating from a second focal plane that is closer inward from optical infinity towards the person.

他の導波管層300、310およびレンズ330、320も同様に構成され、スタック内の最高導波管310は、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ260の他側の世界510から生じる光を視認/解釈するとき、レンズ320、330、340、350のスタックを補償するために、補償レンズ層620が、スタックの上部に配置され、下方のレンズスタック320、330、340、350の集約力を補償してもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の外部結合光学要素およびレンズの集束側面は両方とも、静的であってもよい(すなわち、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。   The other waveguide layers 300, 310 and lenses 330, 320 are similarly configured, with the highest waveguide 310 in the stack having its output visible to the eye due to the aggregate focal power, which represents the focal plane closest to the person. Deliver through all of the lenses between and. A compensating lens layer 620 is provided on top of the stack to compensate for the stack of lenses 320, 330, 340, 350 when viewing / interpreting light originating from the other world 510 of the stacked waveguide assembly 260. It may be arranged to compensate for the collective power of the lower lens stack 320, 330, 340, 350. Such a configuration provides as many perceived focal planes as waveguide / lens pairs available. Both the outcoupling optical element of the waveguide and the focusing side of the lens may be static (ie, not dynamic or electroactive). In some alternative embodiments, one or both may be dynamic using electroactive features.

いくつかの実施形態では、導波管270、280、290、300、310のうちの2つ以上のものは、同一の関連付けられた深度平面を有してもよい。例えば、複数の導波管270、280、290、300、310が、同一深度平面に設定される画像を出力するように構成されてもよい、または導波管270、280、290、300、310の複数のサブセットが、深度平面毎に1つのセットを伴う、同一の複数の深度平面に設定される画像を出力するように構成されてもよい。これは、それらの深度平面において拡張された視野を提供するようにタイル化された画像を形成する利点を提供し得る。   In some embodiments, two or more of the waveguides 270, 280, 290, 300, 310 may have the same associated depth plane. For example, multiple waveguides 270, 280, 290, 300, 310 may be configured to output images set in the same depth plane, or waveguides 270, 280, 290, 300, 310. May be configured to output images set in the same depth plane, with one set per depth plane. This may provide the advantage of forming tiled images to provide an extended field of view in their depth plane.

図6を継続して参照すると、外部結合光学要素570、580、590、600、610は、導波管と関連付けられた特定の深度平面のために、光をその個別の導波管から再指向し、かつこの光を適切な量の発散またはコリメーションを伴って出力するように構成されてもよい。その結果、異なる関連付けられた深度平面を有する導波管は、外部結合光学要素570、580、590、600、610の異なる構成を有してもよく、これは、関連付けられた深度平面に応じて、異なる発散量を伴う光を出力する。いくつかの実施形態では、光抽出光学要素570、580、590、600、610は、体積特徴または表面特徴であってもよく、これは、具体的角度において光を出力するように構成されてもよい。例えば、光抽出光学要素570、580、590、600、610は、体積ホログラム、表面ホログラム、および/または回折格子であってもよい。いくつかの実施形態では、特徴320、330、340、350は、レンズではなくてもよい。むしろ、それらは、単に、スペーサであってもよい(例えば、クラッディング層および/または空隙を形成するための構造)。   Continuing to refer to FIG. 6, the outcoupling optical elements 570, 580, 590, 600, 610 redirect light from their individual waveguides due to the particular depth planes associated with the waveguides. And may be configured to output this light with an appropriate amount of divergence or collimation. As a result, waveguides with different associated depth planes may have different configurations of outcoupling optical elements 570, 580, 590, 600, 610, which, depending on the associated depth planes. , Outputs light with different divergence. In some embodiments, the light extraction optics 570, 580, 590, 600, 610 may be volumetric or surface features, which may be configured to output light at a specific angle. Good. For example, the light extraction optics 570, 580, 590, 600, 610 may be volume holograms, surface holograms, and / or diffraction gratings. In some embodiments, the features 320, 330, 340, 350 may not be lenses. Rather, they may simply be spacers (eg, structures for forming cladding layers and / or voids).

いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、回折パターンまたは「回折光学要素」(また、本明細書では、「DOE」とも称される)を形成する、回折特徴である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差点で眼210に向かって偏向される一方、残りが、TIRを介して導波管を通して移動し続けるように、十分に低回折効率を有する。画像情報を搬送する光は、したがって、複数の場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼210に向かって非常に均一パターンの出射放出となる。   In some embodiments, the outcoupling optical elements 570, 580, 590, 600, 610 form a diffraction pattern or “diffractive optical element” (also referred to herein as “DOE”), It is a diffraction feature. Preferably, the DOE is sufficiently low diffraction such that only a portion of the light of the beam is deflected towards the eye 210 at each DOE intersection, while the rest continue to travel through the waveguide through the TIR. Have efficiency. The light carrying the image information is thus split into several related exit beams that exit the waveguide at multiple locations, so that for this particular collimated beam bouncing within the waveguide, the eye There is a very uniform pattern of emission and emission towards 210.

いくつかの実施形態では、1つ以上のDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であってもよい。例えば、切替可能なDOEは、ポリマー分散液晶の層を備えてもよく、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に整合するように切り替えられてもよい(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに整合しない屈折率に切り替えられてもよい(その場合、パターンは、入射光を能動的に回折させる)。   In some embodiments, one or more DOEs may be switchable between an actively diffracting “on” state and a significantly non-diffracting “off” state. For example, the switchable DOE may comprise a layer of polymer dispersed liquid crystal, in which the microdroplets comprise a diffraction pattern in the host medium, the refractive index of the microdroplets being the refractive index of the host material. It may be switched to be substantially matched (in which case the pattern does not significantly diffract incident light), or the microdroplets may be switched to a refractive index that is not matched to that of the host medium (that. In that case, the pattern actively diffracts the incident light).

いくつかの実施形態では、カメラアセンブリ630(例えば、可視光および赤外線光カメラを含む、デジタルカメラ)が、眼210および/または眼210の周囲の組織の画像を捕捉し、例えば、ユーザ入力を検出する、および/またはユーザの生理学的状態を監視するために提供されてもよい。本明細書で使用されるように、カメラは、任意の画像捕捉デバイスであってもよい。いくつかの実施形態では、カメラアセンブリ630は、画像捕捉デバイスと、光(例えば、赤外線光)を眼に投影し、該光が次いで、眼によって反射され、画像捕捉デバイスによって検出され得る、光源とを含んでもよい。いくつかの実施形態では、カメラアセンブリ630は、フレーム80(図2)に取り付けられてもよく、本明細書に議論されるように、カメラアセンブリ630からの画像情報を処理し、例えば、ユーザの生理学的状態に関する種々の決定を行い得る、処理モジュール140および/または150と電気通信してもよい。ユーザの生理学的状態に関する情報は、ユーザの挙動または感情状態を決定するために使用されてもよいことを理解されたい。そのような情報の実施例は、ユーザの移動および/またはユーザの顔の表情を含む。ユーザの挙動または感情状態は、次いで、挙動または感情状態と、生理学的状態と、環境または仮想コンテンツデータとの間の関係を決定するように、収集された環境および/または仮想コンテンツデータを用いて三角測量されてもよい。いくつかの実施形態では、1つのカメラアセンブリ630が、各眼に対して利用され、各眼を別個に監視してもよい。   In some embodiments, a camera assembly 630 (eg, a digital camera, including visible and infrared light cameras) captures an image of the eye 210 and / or tissue surrounding the eye 210 and detects, for example, user input. And / or may be provided to monitor the physiological condition of the user. As used herein, a camera may be any image capture device. In some embodiments, the camera assembly 630 includes an image capture device and a light source that projects light (eg, infrared light) onto the eye, which light can then be reflected by the eye and detected by the image capture device. May be included. In some embodiments, the camera assembly 630 may be mounted on the frame 80 (FIG. 2) and processes image information from the camera assembly 630, as discussed herein, for example, to a user's. It may be in electrical communication with processing module 140 and / or 150, which may make various decisions regarding physiological conditions. It should be appreciated that information about the user's physiological state may be used to determine the user's behavior or emotional state. Examples of such information include movement of the user and / or facial expressions of the user. The user's behavior or emotional state is then determined using the collected environmental and / or virtual content data to determine a relationship between the behavioral or emotional state, the physiological state, and the environment or virtual content data. It may be triangulated. In some embodiments, one camera assembly 630 may be utilized for each eye and monitor each eye separately.

ここで図7を参照すると、導波管によって出力された出射ビームの実施例が、示される。1つの導波管が図示されるが、導波管アセンブリ260(図6)内の他の導波管も同様に機能し得、導波管アセンブリ260は、複数の導波管を含むことを理解されたい。光640が、導波管270の入力表面460において導波管270の中に投入され、TIRによって導波管270内を伝搬する。光640がDOE570上に衝突する点では、光の一部は、導波管から出射ビーム650として出射する。出射ビーム650は、略平行として図示されるが、本明細書に議論されるように、また、導波管270と関連付けられた深度平面に応じて、ある角度(例えば、発散出射ビーム形成)において眼210に伝搬するように再指向されてもよい。略平行出射ビームは、眼210からの遠距離(例えば、光学無限遠)における深度平面に設定されるように現れる画像を形成するように光を外部結合する、外部結合光学要素を伴う、導波管を示し得ることを理解されたい。他の導波管または他の外部結合光学要素のセットは、より発散する、出射ビームパターンを出力してもよく、これは、眼210がより近い距離に遠近調節し、網膜に合焦させることを要求し、光学無限遠より眼210に近い距離からの光として脳によって解釈されるであろう。   Referring now to FIG. 7, an example of an exit beam output by a waveguide is shown. Although one waveguide is shown, other waveguides within the waveguide assembly 260 (FIG. 6) may work as well, with the waveguide assembly 260 including multiple waveguides. I want you to understand. Light 640 is injected into the waveguide 270 at the input surface 460 of the waveguide 270 and propagates within the waveguide 270 by TIR. At the point where the light 640 strikes the DOE 570, some of the light exits the waveguide as an exit beam 650. The exit beam 650 is shown as generally parallel, but at an angle (eg, divergent exit beam formation), as discussed herein, and depending on the depth plane associated with the waveguide 270. It may be redirected to propagate to the eye 210. The substantially collimated output beam is a guided wave with an outcoupling optical element that outcouples the light to form an image that appears to be set in the depth plane at a far distance from the eye 210 (eg, optical infinity). It should be appreciated that the tube may be shown. Other waveguides or other sets of outcoupling optics may output a more divergent, exiting beam pattern that causes the eye 210 to adjust to a closer distance and focus on the retina. And will be interpreted by the brain as light from a distance closer to the eye 210 than optical infinity.

いくつかの実施形態では、フルカラー画像が、原色、例えば、3つ以上の原色のそれぞれに画像をオーバーレイすることによって、各深度平面において形成されてもよい。図8は、スタックされた導波管アセンブリの実施例を図示し、各深度平面は、複数の異なる原色を使用して形成される画像を含む。図示される実施形態は、深度平面240a−240fを示すが、より多いまたはより少ない深度もまた、検討される。各深度平面は、第1の色Gの第1の画像、第2の色Rの第2の画像、および第3の色Bの第3の画像を含む、それと関連付けられた3つ以上の原色画像を有してもよい。異なる深度平面は、文字G、R、およびBに続くジオプタ(dpt)に関する異なる数字によって図に示される。単なる実施例として、これらの文字のそれぞれに続く数字は、ジオプタ(1/m)、すなわち、視認者からの深度平面の逆距離を示し、図中の各ボックスは、個々の原色画像を表す。いくつかの実施形態では、異なる波長の光の眼の集束における差異を考慮するために、異なる原色に関する深度平面の正確な場所は、変動してもよい。例えば、所与の深度平面に関する異なる原色画像は、ユーザからの異なる距離に対応する深度平面上に設置されてもよい。そのような配列は、視力およびユーザ快適性を増加させ得、および/または色収差を減少させ得る。   In some embodiments, a full-color image may be formed in each depth plane by overlaying the image on a primary color, eg, each of three or more primary colors. FIG. 8 illustrates an example of stacked waveguide assemblies, each depth plane containing an image formed using a plurality of different primary colors. The illustrated embodiment shows depth planes 240a-240f, but more or less depth is also contemplated. Each depth plane includes three or more primary colors associated with it, including a first image of a first color G, a second image of a second color R, and a third image of a third color B. It may have an image. Different depth planes are indicated in the figure by different numbers for diopters (dpt) following the letters G, R and B. By way of example only, the number following each of these letters indicates the diopter (1 / m), ie the inverse distance of the depth plane from the viewer, and each box in the figure represents an individual primary color image. In some embodiments, the exact location of the depth plane for different primaries may vary to account for differences in the focusing of different wavelengths of light in the eye. For example, different primary color images for a given depth plane may be placed on the depth plane corresponding to different distances from the user. Such an arrangement may increase visual acuity and user comfort, and / or reduce chromatic aberration.

いくつかの実施形態では、各原色の光は、単一専用導波管によって出力されてもよく、その結果、各深度平面は、それと関連付けられた複数の導波管を有してもよい。そのような実施形態では、文字G、R、またはBを含む、図中の各ボックスは、個々の導波管を表すものと理解され得、3つの導波管は、深度平面毎に提供されてもよく、3つの原色画像が、深度平面毎に提供される。各深度平面と関連付けられた導波管は、本図面では、説明を容易にするために相互に隣接して示されるが、物理的デバイスでは、導波管は全て、レベル毎に1つの導波管を伴うスタックで配列されてもよいことを理解されたい。いくつかの他の実施形態では、複数の原色が、例えば、単一導波管のみが深度平面毎に提供され得るように、同一導波管によって出力されてもよい。   In some embodiments, each primary color light may be output by a single dedicated waveguide, so that each depth plane may have multiple waveguides associated with it. In such an embodiment, each box in the figure, including the letters G, R, or B, may be understood to represent an individual waveguide, three waveguides being provided per depth plane. Alternatively, three primary color images are provided per depth plane. Although the waveguides associated with each depth plane are shown adjacent to each other in this figure for ease of illustration, in a physical device all waveguides are one waveguide per level. It should be appreciated that they may be arranged in a stack with tubes. In some other embodiments, multiple primaries may be output by the same waveguide, eg, only a single waveguide may be provided per depth plane.

図8を継続して参照すると、いくつかの実施形態では、Gは、緑色であって、Rは、赤色であって、Bは、青色である。いくつかの他の実施形態では、マゼンタ色およびシアン色を含む、光の他の波長と関連付けられた他の色も、加えて使用されてもよい、または赤色、緑色、または青色のうちの1つ以上のものに取って代わってもよい。いくつかの実施形態では、特徴320、330、340、および350は、視認者の眼への周囲環境からの光を遮断または選択するように構成される、能動または受動光学フィルタであってもよい。   With continued reference to FIG. 8, in some embodiments G is green, R is red and B is blue. In some other embodiments, other colors associated with other wavelengths of light may also be used, including magenta and cyan, or one of red, green, or blue. May replace one or more. In some embodiments, the features 320, 330, 340, and 350 may be active or passive optical filters configured to block or select light from the ambient environment into the viewer's eyes. .

本開示全体を通した所与の光の色の言及は、その所与の色として視認者によって知覚される、光の波長の範囲内の1つ以上の波長の光を包含するものと理解されると理解されたい。例えば、赤色光は、約620〜780nmの範囲内である1つ以上の波長の光を含んでもよく、緑色光は、約492〜577nmの範囲内である1つ以上の波長の光を含んでもよく、青色光は、約435〜493nmの範囲内である1つ以上の波長の光を含んでもよい。   References to a given color of light throughout this disclosure are understood to include light of one or more wavelengths within the range of wavelengths of light perceived by a viewer as that given color. I want you to understand. For example, red light may include one or more wavelengths of light in the range of about 620-780 nm, and green light may include one or more wavelengths of light in the range of about 492-577 nm. Well, blue light may include light at one or more wavelengths that are in the range of about 435-493 nm.

いくつかの実施形態では、光源530(図6)は、視認者の視覚的知覚範囲外の1つ以上の波長の光、例えば、赤外線および/または紫外線波長の光を放出するように構成されてもよい。加えて、ディスプレイ250の導波管の内部結合、外部結合、および他の光再指向構造は、例えば、結像および/またはユーザ刺激用途のために、この光をディスプレイからユーザの眼210に向かって指向および放出するように構成されてもよい。   In some embodiments, the light source 530 (FIG. 6) is configured to emit light at one or more wavelengths outside the visual perception range of the viewer, eg, infrared and / or ultraviolet wavelengths. Good. In addition, the waveguide's internal coupling, external coupling, and other light redirecting structures of display 250 direct this light from the display to the user's eye 210, for example, for imaging and / or user stimulation applications. May be configured to direct and emit.

ここで図9Aを参照すると、いくつかの実施形態では、導波管に衝突する光は、その光を導波管の中に内部結合するために再指向される必要があり得る。内部結合光学要素が、光をその対応する導波管の中に再指向および内部結合するために使用されてもよい。図9Aは、それぞれが内部結合光学要素を含む、複数またはセット660のスタックされた導波管の実施例の断面側面図を図示する。導波管はそれぞれ、1つ以上の異なる波長または1つ以上の異なる波長範囲の光を出力するように構成されてもよい。スタック660は、スタック260(図6)に対応してもよく、スタック660の図示される導波管は、複数の導波管270、280、290、300、310の一部に対応してもよいが、画像投入デバイス360、370、380、390、400のうちの1つ以上のものからの光が、光が内部結合のために再指向されることを要求する位置から導波管の中に投入されることを理解されたい。   Referring now to FIG. 9A, in some embodiments, light impinging on the waveguide may need to be redirected in order to internally couple the light into the waveguide. In-coupling optical elements may be used to redirect and in-couple light into its corresponding waveguide. FIG. 9A illustrates a cross-sectional side view of an embodiment of a plurality or sets 660 of stacked waveguides, each including internal coupling optics. Each waveguide may be configured to output light at one or more different wavelengths or at one or more different wavelength ranges. The stack 660 may correspond to the stack 260 (FIG. 6), and the illustrated waveguides of the stack 660 may correspond to a portion of the plurality of waveguides 270, 280, 290, 300, 310. Good, but the light from one or more of the image injection devices 360, 370, 380, 390, 400 is in the waveguide from a position that requires that the light be redirected for internal coupling. Please understand that it will be put into.

スタックされた導波管の図示されるセット660は、導波管670、680、および690を含む。各導波管は、関連付けられた内部結合光学要素(導波管上の光入力面積とも称され得る)を含み、例えば、内部結合光学要素700は、導波管670の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素710は、導波管680の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素720は、導波管690の主要表面(例えば、上側主要表面)上に配置される。いくつかの実施形態では、内部結合光学要素700、710、720のうちの1つ以上のものは、個別の導波管670、680、690の底部主要表面上に配置されてもよい(特に、1つ以上の内部結合光学要素は、反射性偏向光学要素である)。図示されるように、内部結合光学要素700、710、720は、その個別の導波管670、680、690の上側主要表面(または次の下側導波管の上部)上に配置されてもよく、特に、それらの内部結合光学要素は、透過性偏向光学要素である。いくつかの実施形態では、内部結合光学要素700、710、720は、個別の導波管670、680、690の本体内に配置されてもよい。いくつかの実施形態では、本明細書に議論されるように、内部結合光学要素700、710、720は、光の他の波長を透過しながら、光の1つ以上の波長を選択的に再指向するような波長選択的である。その個別の導波管670、680、690の片側または角に図示されるが、内部結合光学要素700、710、720は、いくつかの実施形態では、その個別の導波管670、680、690の他の面積内に配置されてもよいことを理解されたい。   The illustrated set 660 of stacked waveguides includes waveguides 670, 680, and 690. Each waveguide includes an associated incoupling optical element (which may also be referred to as a light input area on the waveguide), for example, the incoupling optical element 700 includes a major surface (eg, upper side) of the waveguide 670. Inner coupling optical element 710 is disposed on a major surface of waveguide 680 (e.g., an upper major surface) and inner coupling optical element 720 is disposed on a major surface of waveguide 690 (eg, a major surface). , The upper major surface). In some embodiments, one or more of the incoupling optical elements 700, 710, 720 may be disposed on the bottom major surface of the individual waveguides 670, 680, 690 (specifically, The one or more incoupling optical elements are reflective polarizing optical elements). As shown, the incoupling optical elements 700, 710, 720 may also be disposed on the upper major surface of their respective waveguides 670, 680, 690 (or the top of the next lower waveguide). Well, in particular, those internally coupled optics are transmissive deflection optics. In some embodiments, the incoupling optical elements 700, 710, 720 may be located within the body of the individual waveguides 670, 680, 690. In some embodiments, as discussed herein, the incoupling optical elements 700, 710, 720 selectively re-transmit one or more wavelengths of light while transmitting other wavelengths of light. It is directional and wavelength selective. Although illustrated on one side or at a corner of the individual waveguides 670, 680, 690, the internal coupling optics 700, 710, 720 may, in some embodiments, be the individual waveguides 670, 680, 690. It is to be understood that it may be arranged in other areas of.

図示されるように、内部結合光学要素700、710、720は、相互から側方にオフセットされてもよい。いくつかの実施形態では、各内部結合光学要素は、その光が別の内部結合光学要素を通して通過せずに、光を受信するようにオフセットされてもよい。例えば、各内部結合光学要素700、710、720は、図6に示されるように、光を異なる画像投入デバイス360、370、380、390、および400から受信するように構成されてもよく、光を内部結合光学要素700、710、720の他のものから実質的に受信しないように、他の内部結合光学要素700、710、720から分離されてもよい(例えば、側方に離間される)。   As shown, the incoupling optical elements 700, 710, 720 may be laterally offset from each other. In some embodiments, each incoupling optical element may be offset to receive light without its light passing through another incoupling optical element. For example, each incoupling optical element 700, 710, 720 may be configured to receive light from different image injection devices 360, 370, 380, 390, and 400, as shown in FIG. May be separated from other internal coupling optical elements 700, 710, 720 (eg, laterally spaced) so as to not substantially receive from other internal coupling optical elements 700, 710, 720. ..

各導波管はまた、関連付けられた光分散要素を含み、例えば、光分散要素730は、導波管670の主要表面(例えば、上部主要表面)上に配置され、光分散要素740は、導波管680の主要表面(例えば、上部主要表面)上に配置され、光分散要素750は、導波管690の主要表面(例えば、上部主要表面)上に配置される。いくつかの他の実施形態では、光分散要素730、740、750は、それぞれ、関連付けられた導波管670、680、690の底部主要表面上に配置されてもよい。いくつかの他の実施形態では、光分散要素730、740、750は、それぞれ、関連付けられた導波管670、680、690の上部主要表面および底部主要表面の両方の上に配置されてもよい、または光分散要素730、740、750は、それぞれ、異なる関連付けられた導波管670、680、690内の上部主要表面および底部主要表面の異なるもの上に配置されてもよい。   Each waveguide also includes an associated light dispersive element, eg, light dispersive element 730 is disposed on a major surface (eg, upper major surface) of waveguide 670 and light dispersive element 740 is a light guide element. The light dispersive element 750 is disposed on a major surface (eg, upper major surface) of the waveguide 680 and the light dispersive element 750 is disposed on a major surface (eg, upper major surface) of the waveguide 690. In some other embodiments, the light dispersive elements 730, 740, 750 may be disposed on the bottom major surface of the associated waveguide 670, 680, 690, respectively. In some other embodiments, the light dispersive elements 730, 740, 750 may be disposed on both the top major surface and the bottom major surface of the associated waveguide 670, 680, 690, respectively. , Or light dispersive elements 730, 740, 750 may be disposed on different ones of the top and bottom major surfaces in different associated waveguides 670, 680, 690, respectively.

導波管670、680、690は、例えば、材料のガス、液体、および/または固体層によって離間および分離されてもよい。例えば、図示されるように、層760aは、導波管670および680を分離してもよく、層760bは、導波管680および690を分離してもよい。いくつかの実施形態では、層760aおよび760bは、低屈折率材料(すなわち、導波管670、680、690の直近のものを形成する材料より低い屈折率を有する材料)から形成される。好ましくは、層760a、760bを形成する材料の屈折率は、導波管670、680、690を形成する材料の屈折率と比較して0.05以上であるかまたは0.10以下である。有利には、より低い屈折率層760a、760bは、導波管670、680、690を通して光の全内部反射(TIR)(例えば、各導波管の上部主要表面および底部主要表面の間のTIR)を促進する、クラッディング層として機能してもよい。いくつかの実施形態では、層760a、760bは、空気から形成される。図示されないが、導波管の図示されるセット660の上部および底部は、直近クラッディング層を含んでもよいことを理解されたい。   The waveguides 670, 680, 690 may be separated and separated by, for example, a gas, liquid, and / or solid layer of material. For example, as shown, layer 760a may separate waveguides 670 and 680 and layer 760b may separate waveguides 680 and 690. In some embodiments, layers 760a and 760b are formed from a low index material (ie, a material having a lower index of refraction than the material forming the immediate vicinity of waveguides 670, 680, 690). Preferably, the index of refraction of the material forming layers 760a, 760b is greater than or equal to 0.05 or less than 0.10. Compared to the index of refraction of the material forming waveguides 670, 680, 690. Advantageously, the lower refractive index layers 760a, 760b provide total internal reflection (TIR) of light through the waveguides 670, 680, 690 (eg, TIR between the top and bottom major surfaces of each waveguide). ) May be used as a cladding layer. In some embodiments, layers 760a, 760b are formed from air. Although not shown, it should be understood that the top and bottom of the illustrated set of waveguides 660 may include the nearest cladding layer.

好ましくは、製造および他の考慮点を容易にするために、導波管670、680、690を形成する材料は、類似または同一であって、層760a、760bを形成する材料は、類似または同一である。いくつかの実施形態では、導波管670、680、690を形成する材料は、1つ以上の導波管間で異なってもよい、および/または層760a、760bを形成する材料は、依然として、前述の種々の屈折率関係を保持しながら、異なってもよい。   Preferably, the materials forming the waveguides 670, 680, 690 are similar or identical and the materials forming layers 760a, 760b are similar or identical for ease of manufacturing and other considerations. Is. In some embodiments, the material forming the waveguides 670, 680, 690 may differ between one or more waveguides, and / or the material forming layers 760a, 760b is still They may be different while retaining the various refractive index relationships mentioned above.

図9Aを継続して参照すると、光線770、780、790が、導波管のセット660に入射する。光線770、780、790は、1つ以上の画像投入デバイス360、370、380、390、400(図6)によって導波管670、680、690の中に投入されてもよいことを理解されたい。   With continued reference to FIG. 9A, rays 770, 780, 790 are incident on the set of waveguides 660. It should be appreciated that the light rays 770, 780, 790 may be launched into the waveguides 670, 680, 690 by one or more image launch devices 360, 370, 380, 390, 400 (FIG. 6). .

いくつかの実施形態では、光線770、780、790は、異なる性質、例えば、異なる色に対応し得る、異なる波長または異なる波長範囲を有する。光線770、780、790はまた、内部結合光学要素700、710、720の側方場所に対応する異なる場所に側方に変位されてもよい。内部結合光学要素700、710、720はそれぞれ、光がTIRによって導波管670、680、690のうちの個別の1つを通して伝搬するように、入射光を偏向する。   In some embodiments, the light rays 770, 780, 790 have different wavelengths or different wavelength ranges that may correspond to different properties, eg, different colors. The rays 770, 780, 790 may also be laterally displaced to different locations corresponding to the lateral locations of the incoupling optical elements 700, 710, 720. Each of the incoupling optical elements 700, 710, 720 deflects incident light such that the light propagates by TIR through a respective one of the waveguides 670, 680, 690.

例えば、内部結合光学要素700は、第1の波長または波長範囲を有する、光線770を偏向させるように構成されてもよい。同様に、透過された光線780は、第2の波長または波長範囲の光を偏向させるように構成される、内部結合光学要素710に衝突し、それによって偏向される。同様に、光線790は、第3の波長または波長範囲の光を選択的に偏向させるように構成される、内部結合光学要素720によって偏向される。   For example, the incoupling optical element 700 may be configured to deflect a light ray 770 having a first wavelength or wavelength range. Similarly, the transmitted light ray 780 impinges on and is deflected by the inner coupling optical element 710, which is configured to deflect light of the second wavelength or range of wavelengths. Similarly, light ray 790 is deflected by an incoupling optical element 720 that is configured to selectively deflect light at a third wavelength or range of wavelengths.

図9Aを継続して参照すると、偏向された光線770、780、790は、対応する導波管670、680、690を通して伝搬するように偏向される。すなわち、各導波管の内部結合光学要素700、710、720は、光をその対応する導波管670、680、690の中に偏向させ、光を対応する導波管の中に内部結合する。光線770、780、790は、光をTIRによって個別の導波管670、680、690を通して伝搬させる角度で偏向され、したがって、その中に誘導される。例えば、光線770、780、790の偏向は、ホログラフィック、回折、および/または反射方向転換特徴、反射体、またはミラー等の1つ以上の反射、回折、および/またはホログラフィック光学要素によって生じてもよい。偏向は、ある場合には、例えば、光導波路内で誘導されるように、光を方向転換または再指向するように構成される、1つ以上の格子および/またはホログラフィックおよび/または回折光学要素内の回折特徴等のマイクロ構造によって生じてもよい。光線770、780、790は、導波管の対応する光分散要素730、740、750に衝突するまで、その中で誘導されているTIRによって個別の導波管670、680、690を通して伝搬する。   With continued reference to FIG. 9A, the deflected rays 770, 780, 790 are deflected to propagate through the corresponding waveguides 670, 680, 690. That is, the incoupling optical element 700, 710, 720 of each waveguide deflects light into its corresponding waveguide 670, 680, 690 and incouples light into the corresponding waveguide. . Rays 770, 780, 790 are deflected at an angle that causes the light to propagate through the individual waveguides 670, 680, 690 by TIR, and thus are guided therein. For example, the deflection of light rays 770, 780, 790 may be caused by one or more reflective, diffractive, and / or holographic optical elements such as holographic, diffractive, and / or reflective turning features, reflectors, or mirrors. Good. The deflection may, in some cases, be one or more gratings and / or holographic and / or diffractive optical elements that are configured to redirect or redirect light, eg, to be guided in an optical waveguide. It may also be caused by microstructures such as diffractive features within. The rays 770, 780, 790 propagate through the individual waveguides 670, 680, 690 by the TIR guided therein until they strike the corresponding light dispersive elements 730, 740, 750 of the waveguide.

ここで図9Bを参照すると、図9Aの複数のスタックされた導波管の実施例の斜視図が、図示される。前述のように、内部結合された光線770、780、790は、それぞれ、内部結合光学要素700、710、720によって偏向され、次いで、それぞれ、導波管670、680、690内でTIRによって伝搬し、誘導される。誘導された光線770、780、790は、次いで、それぞれ、光分散要素730、740、750に衝突する。光分散要素730、740、750は、ホログラフィック、回折、および/または反射方向転換特徴、反射体、またはミラー等の1つ以上の反射、回折、および/またはホログラフィック光学要素を備えてもよい。偏向は、ある場合には、例えば、光導波路を用いて誘導され得るように、光を方向転換または再指向するように構成される、1つ以上の格子および/またはホログラフィックおよび/または回折光学要素内の回折特徴等のマイクロ構造によって生じてもよい。光線770、780、790は、それらが偏向されるが、しかしながら、光線770、780、790が、依然として、導波管内で誘導される様式において、導波管の対応する光分散要素730、740、750上に衝突するまで、その中で誘導されているTIRによって、個別の導波管670、680、690を通して伝搬する。光分散要素730、740、750は、それぞれ、外部結合光学要素800、810、820に向かって伝搬するように、光線770、780、790を偏向させる。   9B, a perspective view of the multiple stacked waveguide embodiment of FIG. 9A is illustrated. As described above, the incoupling rays 770, 780, 790 are respectively deflected by the incoupling optical elements 700, 710, 720 and then propagated by TIR in the waveguides 670, 680, 690, respectively. , Be induced. The guided light rays 770, 780, 790 then impinge on light dispersive elements 730, 740, 750, respectively. The light dispersive elements 730, 740, 750 may comprise one or more reflective, diffractive, and / or holographic optical elements such as holographic, diffractive, and / or reflective turning features, reflectors, or mirrors. . The deflection may, in some cases, be one or more gratings and / or holographic and / or diffractive optics configured to redirect or redirect light, for example, so that it can be guided using optical waveguides. It may be caused by microstructures such as diffractive features within the element. The rays 770, 780, 790 are deflected, but the rays 770, 780, 790 are still guided in the waveguide in a manner such that the corresponding light dispersive elements 730, 740, Until it hits 750, it propagates through the individual waveguides 670, 680, 690 by the TIR being guided therein. The light dispersive elements 730, 740, 750 deflect the light rays 770, 780, 790 to propagate toward the outcoupling optical elements 800, 810, 820, respectively.

外部結合光学要素800、810、820は、導波管内を誘導される光、例えば、光線770、780、790を導波管から外に視認者の眼に向かって指向するように構成される。外部結合光学要素800、810、820は、したがって、光が、導波管内で誘導されず、代わりに、そこから出射するように、全内部反射(TIR)の影響を低減させるために、導波管内を誘導される光、例えば、光線770、780、790を導波管の表面に対してより垂直な角度で偏向および再指向するように構成されてもよい。さらに、これらの外部結合光学要素800、810、820は、この光、例えば、光線770、780、790を視認者の眼に向かって偏向および再指向するように構成されてもよい。故に、外部結合光学要素800、810、820は、ホログラフィック、回折、および/または反射方向転換特徴、反射体、またはミラー等の1つ以上の反射、回折、および/またはホログラフィック光学要素を備えてもよい。偏向は、ある場合には、例えば、光導波路を用いて誘導されるように、光を方向転換または再指向するように構成される、1つ以上の格子および/またはホログラフィックおよび/または回折光学要素内の回折特徴等のマイクロ構造によって生じてもよい。光学要素800、810、820は、導波管から外にユーザの眼に向かって伝搬するように、光線770、780、790を反射、偏向、および/または回折するように構成されてもよい。   Outcoupling optical elements 800, 810, 820 are configured to direct light guided in the waveguide, eg, light rays 770, 780, 790, out of the waveguide and toward a viewer's eye. Outcoupling optical elements 800, 810, 820 thus guide the light in order to reduce the effects of total internal reflection (TIR) so that light is not guided in the waveguide and instead exits it. It may be configured to deflect and redirect light guided in the tube, eg, light rays 770, 780, 790 at angles more perpendicular to the surface of the waveguide. Further, these outcoupling optical elements 800, 810, 820 may be configured to deflect and redirect this light, eg, light rays 770, 780, 790, toward a viewer's eye. Thus, the outcoupling optical elements 800, 810, 820 comprise one or more reflective, diffractive, and / or holographic optical elements such as holographic, diffractive, and / or reflective turning features, reflectors, or mirrors. May be. The deflection may, in some cases, be one or more gratings and / or holographic and / or diffractive optics configured to redirect or redirect light, eg, as guided using an optical waveguide. It may be caused by microstructures such as diffractive features within the element. Optical elements 800, 810, 820 may be configured to reflect, deflect, and / or diffract rays 770, 780, 790 to propagate out of the waveguide towards the user's eye.

いくつかの実施形態では、光分散要素730、740、750は、直交瞳エクスパンダ(OPE)である。いくつかの実施形態では、OPEは、光を外部結合光学要素800、810、820に偏向または分散させることと、そして、ビームまたは複数のビームを複製し、外部結合光学要素に伝搬するより多数のビームを形成することとの両方を行う。ビームが、OPEに沿って進行するにつれて、ビームの一部は、ビームから分裂され、ビームに直交する方向、すなわち、外部結合光学要素800、810、820の方向に進行してもよい。OPE内のビームの直交分裂は、ビームの経路に沿ってOPEを通して繰り返し生じ得る。例えば、OPEは、一連の実質的に均一ビームレットが単一ビームから生産されるように、ビーム経路に沿って増加する反射率を有する格子を含んでもよい。いくつかの実施形態では、外部結合光学要素800、810、820は、光を視認者の眼210(図7)に指向させる、射出瞳(EP)または射出瞳エクスパンダ(EPE)である。OPEは、例えば、x方向に沿って、アイボックスの寸法を増加させるように構成されてもよく、EPEは、例えば、y方向に沿って、OPEの軸と交差する(例えば、直交する)軸においてアイボックスを増加させてもよい。   In some embodiments, the light dispersive elements 730, 740, 750 are orthogonal pupil expanders (OPEs). In some embodiments, OPE deflects or disperses light into outcoupling optical elements 800, 810, 820, and replicates the beam or beams into a larger number of beams that propagate to the outcoupling optical elements. Both forming the beam. As the beam travels along the OPE, a portion of the beam may be split from the beam and travel in a direction orthogonal to the beam, ie in the direction of the outcoupling optical elements 800, 810, 820. Orthogonal splitting of the beam within the OPE can occur repeatedly through the OPE along the path of the beam. For example, the OPE may include a grating with increasing reflectivity along the beam path such that a series of substantially uniform beamlets is produced from a single beam. In some embodiments, the outcoupling optical elements 800, 810, 820 are exit pupils (EP) or exit pupil expanders (EPE) that direct light to the viewer's eye 210 (FIG. 7). The OPE may be configured to increase the size of the eyebox, eg, along the x direction, and the EPE may be an axis that intersects (eg, is orthogonal to) the axis of the OPE, eg, along the y direction. The eye box may be increased in.

故に、図9Aおよび9Bを参照すると、いくつかの実施形態では、導波管のセット660は、原色毎に、導波管670、680、690と、内部結合光学要素700、710、720と、光分散要素(例えば、OPE)730、740、750と、外部結合光学要素(例えば、EPE)800、810、820とを含む。導波管670、680、690は、各1つの間に空隙および/またはクラッディング層を伴ってスタックされてもよい。内部結合光学要素700、710、720は、(異なる波長の光を受信する異なる内部結合光学要素を用いて)入射光をその個別の導波管の中に再指向または偏向させる。光は、次いで、個別の導波管670、680、690内にTIRをもたらすであろう角度で伝搬し、光は、その中で誘導される。示される実施例では、光線770(例えば、青色光)は、前述の様式において、第1の内部結合光学要素700によって偏光され、次いで、その中で誘導されている導波管内で伝搬し続け、外部結合光学要素(例えば、EPE)800に伝搬する複数の光線に複製される、光分散要素(例えば、OPE)730と相互作用する。光線780および790(例えば、それぞれ、緑色光および赤色光)は、導波管670を通して通過し、光線780は、内部結合光学要素710上に入射し、それによって偏向される。光線780は、次いで、TIRを介して、導波管680を辿ってバウンスし、外部結合光学要素(例えば、EPE)810に伝搬する複数の光線に複製される、その光分散要素(例えば、OPE)740に進むであろう。最後に、光線790(例えば、赤色光)は、導波管690を通して通過し、導波管690の内部結合光学要素720に衝突する。光内部結合光学要素720は、光線が、それが外部結合光学要素(例えば、EPE)820へとTIRによって伝搬する複数の光線に複製される、光分散要素(例えば、OPE)750へとTIRによって伝搬するように、光線790を偏向させる。外部結合光学要素820は、次いで、最後に、さらに複製され、光線790を視認者に外部結合し、視認者はまた、他の導波管670、680からの外部結合された光も受信する。   Thus, referring to FIGS. 9A and 9B, in some embodiments, the set of waveguides 660 includes, for each primary color, a waveguide 670, 680, 690 and an inner coupling optical element 700, 710, 720. It includes light dispersive elements (eg, OPE) 730, 740, 750 and outcoupling optical elements (eg, EPE) 800, 810, 820. The waveguides 670, 680, 690 may be stacked with a void and / or cladding layer between each one. The incoupling optics 700, 710, 720 redirect (or with different incoupling optics that receive different wavelengths of light) incident light into its respective waveguide. The light then propagates into the individual waveguides 670, 680, 690 at an angle that will result in TIR, and the light is guided therein. In the example shown, the light ray 770 (eg, blue light) is polarized by the first incoupling optical element 700 in the manner described above and then continues to propagate in the waveguide being guided therein, Interacts with a light dispersive element (eg, OPE) 730 that is replicated into multiple rays propagating to an outcoupling optical element (eg, EPE) 800. Light rays 780 and 790 (eg, green light and red light, respectively) pass through waveguide 670 and light ray 780 is incident on internal coupling optical element 710 and is deflected thereby. Ray 780 then bounces through waveguide 680 via TIR and is replicated into a plurality of rays that propagate to an outcoupling optical element (eg, EPE) 810, the light dispersive element (eg, OPE). ) Proceed to 740. Finally, the light ray 790 (eg, red light) passes through the waveguide 690 and strikes the internal coupling optical element 720 of the waveguide 690. The light incoupling optical element 720 is by TIR to a light dispersive element (eg, OPE) 750, where the light beam is replicated into a plurality of rays that it propagates by TIR to the outcoupling optical element (eg, EPE) 820. The light beam 790 is deflected to propagate. The outcoupling optics 820 are then finally further replicated to outcouple the light rays 790 to the viewer, who also receives the outcoupled light from the other waveguides 670, 680.

図9Cは、図9Aおよび9Bの複数のスタックされた導波管の実施例の上下平面図(または正面図)を図示する。図示されるように、導波管670、680、690は、各導波管の関連付けられた光分散要素730、740、750および関連付けられた外部結合光学要素800、810、820とともに、垂直に(例えば、x方向およびy方向に沿って)整合されてもよい。しかしながら、本明細書に議論されるように、内部結合光学要素700、710、720は、垂直に整合されない。むしろ、内部結合光学要素は、好ましくは、非重複する(例えば、本実施例における正面図の上下図に見られるように、x方向に沿って側方に離間される)。y方向等の他の方向における偏移もまた、採用されることができる。本非重複空間配列は、1対1ベースで異なる光源および/またはディスプレイ等の異なるリソースから異なる導波管の中への光の投入を促進し、それによって、具体的光源が具体的導波管に一意に結合されることを可能にする。いくつかの実施形態では、非重複の側方に空間的に分離される内部結合光学要素を含む、配列は、偏移瞳システムと称され得、これらの配列内の内部結合光学要素は、サブ瞳に対応し得る。   FIG. 9C illustrates a top-down plan view (or front view) of the multiple stacked waveguide embodiment of FIGS. 9A and 9B. As shown, the waveguides 670, 680, 690 are vertically (with associated light dispersive elements 730, 740, 750 of each waveguide and associated outcoupling optical elements 800, 810, 820). For example, they may be aligned (along the x and y directions). However, as discussed herein, the incoupling optical elements 700, 710, 720 are not vertically aligned. Rather, the incoupling optical elements are preferably non-overlapping (eg, laterally spaced along the x-direction, as seen in the top and bottom views of the front view in this example). Deviations in other directions, such as the y direction, can also be employed. The non-overlapping spatial arrangement facilitates the injection of light into different waveguides from different sources such as different light sources and / or displays on a one-to-one basis, whereby the specific light source can Allows to be uniquely bound to. In some embodiments, arrays that include non-overlapping laterally spatially separated internal coupling optical elements can be referred to as a shift pupil system, and the internal coupling optical elements within these arrays can be Can correspond to the eyes.

光を導波管から外に結合することに加え、外部結合光学要素800、810、820は、光が、遠距離またはより近い距離、深度、または深度平面においてオブジェクトから生じたかのように、光をコリメートまたは発散させ得る。コリメートされた光は、例えば、ビューから遠いオブジェクトからの光と一致する。増加して発散する光は、より近い、例えば、視認者の正面から5〜10フィートまたは1〜3フィートのオブジェクトからの光と一致する。眼の自然水晶体は、眼により近いオブジェクトを視認するとき、遠近調節し、脳は、本遠近調節を感知し得、これはまた、次いで、深度キューとしての役割を果たす。同様に、光をある量だけ発散させることによって、眼は、遠近調節し、オブジェクトがより近い距離にあると知覚するであろう。故に、外部結合光学要素800、810、820は、光が、遠距離または近距離、深度、または深度平面から発出されたかのように、光をコリメートまたは発散させるように構成されることができる。そのために、外部結合光学要素800、810、820は、屈折力を含んでもよい。例えば、外部結合光学要素800、810、820は、光を導波管から外に偏向または再指向することに加え、これらのホログラフィック、回折、および/または反射光学要素がさらに、光をコリメートまたは発散させる屈折力を含み得る、ホログラフィック、回折、および/または反射光学要素を含んでもよい。外部結合光学要素800、810、820は、代替として、または加えて、光をコリメートまたは発散させる屈折力を含む、屈折表面を含んでもよい。外部結合光学要素800、810、820は、したがって、例えば、回折またはホログラフィック方向転換特徴に加え、屈折力を提供する屈折表面を備えてもよい。そのような屈折表面はまた、外部結合光学要素800、810、820に加え、例えば、外部結合光学要素800、810、820の上部に含まれてもよい。ある実施形態では、例えば、光学要素、例えば、回折光学要素、ホログラフィック光学要素、屈折レンズ表面、または他の構造は、外部結合光学要素800、810、820に対して配置され、光のコリメーションまたは発散を生じさせる屈折力を提供してもよい。屈折表面を伴う層等の屈折力を伴う層または回折および/またはホログラフィック特徴を伴う層は、例えば、外部結合光学要素800、810、820に対して配置され、加えて、屈折力を提供し得る。屈折力を有する外部結合光学要素800、810、820と、屈折表面を伴う層等の屈折力を伴う付加的層または回折および/またはホログラフィック特徴を伴う層の両方からの寄与の組み合わせもまた、可能性として考えられる。   In addition to coupling light out of the waveguide, the outcoupling optical elements 800, 810, 820 also couple the light out as if it originated from an object at a far or closer distance, depth, or depth plane. It may be collimated or divergent. The collimated light matches, for example, light from an object far from the view. Increasingly diverging light matches light from objects that are closer, for example, 5-10 feet or 1-3 feet from the front of the viewer. The natural lens of the eye adjusts when it sees objects closer to the eye, and the brain may sense this accommodation, which in turn also serves as a depth cue. Similarly, by diverging a certain amount of light, the eye will adjust and perceive that the object is at a closer distance. Thus, the outcoupling optical elements 800, 810, 820 can be configured to collimate or diverge the light as if it emitted from a far or near distance, depth, or depth plane. To that end, the outcoupling optical elements 800, 810, 820 may include optical power. For example, the outcoupling optical elements 800, 810, 820, in addition to deflecting or redirecting light out of the waveguide, these holographic, diffractive, and / or reflective optical elements may further collimate or It may include holographic, diffractive, and / or reflective optical elements that may include diverging optical power. Outcoupling optical elements 800, 810, 820 may alternatively or in addition include refractive surfaces that include refractive power to collimate or diverge light. Outcoupling optical elements 800, 810, 820 may thus comprise, for example, diffractive or holographic turning features, as well as refractive surfaces that provide refractive power. Such a refractive surface may also be included in addition to the outcoupling optical elements 800, 810, 820, for example, on top of the outcoupling optical elements 800, 810, 820. In some embodiments, for example, an optical element, such as a diffractive optical element, a holographic optical element, a refractive lens surface, or other structure, is placed against the outcoupling optical element 800, 810, 820 to collimate or It may provide refractive power that causes divergence. A layer with refractive power or a layer with diffractive and / or holographic features, such as a layer with a refractive surface, is arranged, for example, with respect to the outcoupling optical elements 800, 810, 820 and additionally provides a refractive power. obtain. A combination of contributions from both the outcoupling optical elements 800, 810, 820 having refractive power and the additional layers with refractive power or layers with diffractive and / or holographic features, such as layers with refractive surfaces, is also provided. Considered as a possibility.

(例示的3Dコンテンツレンダリングシステムおよび方法)
種々の実装では、本明細書に説明される拡張現実システムおよび方法は、装着者の周囲の世界内の実オブジェクトと相互作用するように現れる、仮想オブジェクト等の仮想コンテンツをレンダリングするために使用されることができる。いくつかの実施形態では、深度センサが、装着者および/または装着者の身体部分の周囲の世界をマッピングするために使用されてもよく、拡張現実システムは、オブジェクトまたはグラフィック等の3D仮想コンテンツを世界内で検出された実オブジェクト上にレンダリングすることができる。一実施例では、仮想コンテンツは、装着者の手首上にレンダリングされた仮想腕時計であることができる。したがって、頭部搭載型拡張現実デバイスの装着者が、実腕時計を装着していない間、デバイスのディスプレイを通して装着者に表示される仮想腕時計は、装着者の手首上に位置するように現れることができる。別の実施例では、仮想コンテンツは、コーヒーカップの側面上に表示されるためのロゴまたは広告コンテンツ等の実オブジェクト上への表示のためのグラフィック設計であることができる。
(Exemplary 3D Content Rendering System and Method)
In various implementations, the augmented reality systems and methods described herein are used to render virtual content, such as virtual objects, that appear to interact with real objects in the world around the wearer. You can In some embodiments, a depth sensor may be used to map the world around the wearer and / or the wearer's body part and the augmented reality system renders 3D virtual content such as objects or graphics. It can be rendered on real objects found in the world. In one example, the virtual content can be a virtual wristwatch rendered on the wearer's wrist. Therefore, while the wearer of the head-mounted augmented reality device is not wearing the real wrist watch, the virtual wrist watch displayed to the wearer through the display of the device may appear to be located on the wearer's wrist. it can. In another example, the virtual content can be a graphic design for display on a real object such as a logo or advertising content to be displayed on the side of the coffee cup.

仮想コンテンツと関連付けられた実オブジェクトの場所は、深度センサ等によって追跡されることができる。仮想コンテンツは、実オブジェクトの場所に基づいて決定された場所に表示されることができる。例えば、装着者が、仮想腕時計と関連付けられた手首を移動させるにつれて、デバイスは、腕時計が装着者の手首上に継続して現れるように、装着者に表示されるにつれて、仮想腕時計の場所を変化させることができる。しかしながら、既存の深度センサは、仮想コンテンツと関連付けられた実オブジェクトの配向を検出不可能である場合がある。例えば、上記に説明される装着者の手首またはコーヒーカップが、回転する場合、深度センサからの情報は、システムが実オブジェクトの異なる対称または略対称配向を区別することを可能にするためには不十分であり得る。したがって、深度センサは、実オブジェクトの場所を検出し得る間、本明細書に説明されるシステムは、実オブジェクトの特徴(時として、本明細書では、目印または基準特徴とも称される)の二次追跡を使用して、深度センサが検出することができない、より精密な場所および/または配向情報を識別し得る。
本明細書に説明される種々のシステムおよび方法は、拡張現実ディスプレイシステムが、オブジェクトの表面またはその近傍における可視または不可視マーカの光反射および/または散乱性質に基づいて、オブジェクトの場所および配向を追跡することを可能にし得る。いくつかの例示的実施形態では、拡張現実ディスプレイシステムは、深度センサを使用して、オブジェクトの位置を追跡し、オブジェクトの表面における特徴を識別し、オブジェクトに対する特徴の場所に基づいて、オブジェクトの配向を決定することができる。特徴(時として、本明細書では、基準特徴または基準とも称される)は、配向追跡の目的のために付加的マーカを別個に適用せずに、オブジェクトの配向が追跡され得るように、オブジェクトの既存の特徴であってもよい。より詳細に説明されるであろうように、特徴または基準は、赤外線または紫外線範囲内等の可視光または不可視光を使用して検出されてもよい。基準または特徴は、手首上の母斑またはコーヒーカップ内のシーム等の背景特徴、または手首、腕、または手上の1つ以上の静脈等の不可視特徴であってもよい。
The location of the real object associated with the virtual content can be tracked by a depth sensor or the like. The virtual content can be displayed at a location determined based on the location of the real object. For example, as the wearer moves the wrist associated with the virtual watch, the device changes the location of the virtual watch as it is displayed to the wearer such that the watch continues to appear on the wearer's wrist. Can be made However, existing depth sensors may not be able to detect the orientation of the real object associated with the virtual content. For example, if the wearer's wrist or coffee cup described above rotates, the information from the depth sensor may not be sufficient to allow the system to distinguish between different symmetrical or near symmetrical orientations of real objects. Can be enough. Thus, while the depth sensor may detect the location of a real object, the system described herein provides two of the features of the real object (sometimes also referred to herein as landmarks or reference features). Sub-tracking may be used to identify more precise location and / or orientation information that the depth sensor cannot detect.
Various systems and methods described herein allow an augmented reality display system to track the location and orientation of an object based on the light reflection and / or scattering properties of visible or invisible markers at or near the surface of the object. May allow you to: In some exemplary embodiments, an augmented reality display system uses a depth sensor to track the position of an object, identify features on the surface of the object, and orient the object based on the location of the feature with respect to the object. Can be determined. A feature (sometimes referred to herein as a fiducial feature or fiducial) is an object so that its orientation can be tracked without applying additional markers separately for the purpose of orientation tracking. Existing features of As will be explained in more detail, the feature or fiducial may be detected using visible or invisible light, such as in the infrared or ultraviolet range. The reference or feature may be a background feature such as a nevus on the wrist or a seam in a coffee cup, or an invisible feature such as one or more veins on the wrist, arm, or hand.

ここで、本明細書に説明されるように、実オブジェクトの場所および配向を追跡するように構成される、例示的拡張現実ディスプレイシステム2010の種々のコンポーネントの概略図を示す、図10を参照する。いくつかの実施形態では、拡張現実ディスプレイシステムは、複合現実ディスプレイシステムであってもよい。示されるように、拡張現実ディスプレイシステム2010は、拡張現実コンテンツを拡張現実ディスプレイシステム2010の装着者の左眼2001および右眼2002に送達するように構成される、左導波管スタック2005および右導波管スタック2006を少なくとも部分的に包囲する、フレーム64を含む。本システムはさらに、深度センサ28と、光源26と、光検出器24とを含む。追跡システム22は、処理モジュール70を含むことができ、これは、深度センサ28、光検出器24、および/または光源26から受信されたデータを制御および/または分析することができる。深度センサ28、光検出器24、および/または光源26は、データリンク76、78を通して、処理モジュール70と通信することができる。   Reference is now made to FIG. 10, which shows a schematic diagram of various components of an exemplary augmented reality display system 2010 configured to track the location and orientation of real objects, as described herein. . In some embodiments, the augmented reality display system may be a mixed reality display system. As shown, the augmented reality display system 2010 is configured to deliver augmented reality content to a left eye 2001 and a right eye 2002 of a wearer of the augmented reality display system 2010, a left waveguide stack 2005 and a right guide. A frame 64 is included that at least partially surrounds the waveguide stack 2006. The system further includes a depth sensor 28, a light source 26, and a photodetector 24. Tracking system 22 may include a processing module 70, which may control and / or analyze data received from depth sensor 28, photodetector 24, and / or light source 26. Depth sensor 28, photodetector 24, and / or light source 26 can communicate with processing module 70 via data links 76, 78.

深度センサ28は、装着者の周囲の世界内の種々のオブジェクトの形状および場所を検出するように構成されることができる。例えば、深度センサ28によって検出されたオブジェクトは、装着者を囲繞する部屋内の壁、家具、および他のアイテム、装着者の近傍の他の人々または動物、木々、低木、自動車、建物、および同等物等の屋外オブジェクト、および/または腕、手、脚、および足等の装着者の身体の一部を含むことができる。種々の実施形態では、深度センサは、装着者から0.5メートル〜4メートル、1メートル〜3メートル、最大5メートルの距離範囲、または任意の他の範囲において、オブジェクトをマッピングする際に効果的であり得る。深度センサは、赤外線光、可視光、または同等物を使用して、深度を決定するように構成される、光学深度センサであることができる。種々の実施形態では、深度センサは、レーザ源、レーザ測距計、カメラ、超音波距離計、または他の距離感知、結像、および/またはマッピングデバイスのうちの1つ以上のものを含んでもよい。   Depth sensor 28 may be configured to detect the shape and location of various objects within the world around the wearer. For example, objects detected by the depth sensor 28 may include walls, furniture, and other items in the room surrounding the wearer, other people or animals near the wearer, trees, shrubs, cars, buildings, and the like. It may include outdoor objects such as objects and / or parts of the wearer's body such as arms, hands, legs, and feet. In various embodiments, the depth sensor is effective in mapping objects in a range of 0.5 meters to 4 meters from the wearer, 1 meter to 3 meters, up to 5 meters, or any other range. Can be The depth sensor can be an optical depth sensor configured to determine depth using infrared light, visible light, or the like. In various embodiments, the depth sensor may include one or more of a laser source, laser range finder, camera, ultrasonic range finder, or other range sensing, imaging, and / or mapping device. Good.

光検出器24は、赤外線光、可視光、紫外線光、または他の範囲の電磁放射のうちの1つ以上のものを検出するように構成されることができる。同様に、光源26は、赤外線光、可視光、紫外線光、または他の範囲の電磁放射のうちの1つ以上のものを放出するように構成されてもよい。いくつかの実施形態では、光源26によって放出されるスペクトルの少なくとも一部は、光検出器24によって検出可能であろう。いくつかの設計では、光源26は、放出された放射の方向が拡張現実ディスプレイデバイス2010の配向から独立して制御され得るように、ジンバルまたは他の移動可能な搭載部上に搭載されることができる。光検出器24は、装着者の視野の少なくとも一部内の光の画像を取得するように構成される、カメラ等の結像デバイスであることができる。種々の実施形態では、各光検出器24は、カメラであることができ、光センサの2次元アレイを備えてもよい。いくつかの例示的実施形態では、光源26は、規定された波長範囲内の赤外線光を放出するように構成され、光検出器24は、光検出器24の視野内のオブジェクトによって反射された赤外線光を使用して赤外線画像を取得するように構成される、赤外線センサまたは赤外線光検出器を備える。   The photodetector 24 can be configured to detect one or more of infrared light, visible light, ultraviolet light, or other range of electromagnetic radiation. Similarly, the light source 26 may be configured to emit one or more of infrared light, visible light, ultraviolet light, or other range of electromagnetic radiation. In some embodiments, at least a portion of the spectrum emitted by light source 26 will be detectable by photodetector 24. In some designs, the light source 26 may be mounted on a gimbal or other moveable mount so that the direction of emitted radiation can be controlled independently of the orientation of the augmented reality display device 2010. it can. The photodetector 24 can be an imaging device, such as a camera, configured to capture an image of light within at least a portion of the wearer's field of view. In various embodiments, each photodetector 24 can be a camera and may comprise a two dimensional array of photosensors. In some exemplary embodiments, the light source 26 is configured to emit infrared light within a defined wavelength range and the photodetector 24 includes infrared light reflected by an object within the field of view of the photodetector 24. An infrared sensor or infrared light detector is provided that is configured to use light to acquire an infrared image.

ある場合には、可視光では顕著ではない特徴は、赤外線光または紫外線光等の不可視光で照明されると、判別可能特徴を作成する。例えば、眼に解像不可能であり得る、静脈は、赤外線照明に応じて、赤外線カメラによって明確に解像可能となり得る。そのような静脈は、オブジェクトを識別し、その移動、その平行移動、および/または配向の変化を追跡するための基準として使用されてもよい。故に、オブジェクトを不可視光等の光で照明することは、そうでなければ不可視である特徴をカメラまたは結像センサによって検出させ得る。基準(または下記により完全に説明されるように、差異シグネチャ)と称され得る、これらの特徴の移動は、例えば、移動するオブジェクトに対する仮想コンテンツの設置が適切に設置され得るように、オブジェクトの移動が追跡されることを可能にし得る。静脈は、一実施例として使用されるが、他の特徴も、赤外線検出器を使用して、赤外線照明等の照明を用いて観察可能であり得る。例えば、皮膚の他の特徴も、オブジェクトの回転または配向の変化を含む、オブジェクトの移動を追跡するために、好適な波長(例えば、IRセンサ)に敏感なカメラを用いて、追跡され得る、特徴、マーカ、または基準を作成するように、IR光(またはUV光)を反射または吸収し得る。オブジェクトの移動および配向の変化が既知となると、仮想コンテンツは、正確に位置付けられ、配向されることができる。オブジェクトに追随する、またはオブジェクトに対して固定場所および/または配向を有するように設計される、そのような仮想コンテンツは、適切にレンダリングされることができる。同様に、仮想コンテンツの適切な視点も、提供されることができる。赤外線および紫外線光が、上記の実施例に議論されているが、可視および不可視の両方の光または電磁放射の他の波長も、使用されることができる。   In some cases, features that are not noticeable in visible light produce distinguishable features when illuminated with invisible light such as infrared light or ultraviolet light. For example, veins, which may not be resolvable to the eye, may be clearly resolvable by an infrared camera in response to infrared illumination. Such veins may be used as a reference to identify the object and track its movements, its translations, and / or changes in orientation. Therefore, illuminating an object with light, such as invisible light, can cause otherwise invisible features to be detected by a camera or imaging sensor. Movement of these features, which may be referred to as criteria (or difference signatures, as more fully described below), may include movement of objects such that placement of virtual content with respect to moving objects may be properly placed. Can be tracked. The vein is used as an example, but other features may also be observable using illumination, such as infrared illumination, using an infrared detector. Other features of the skin, for example, may also be tracked using a camera sensitive to suitable wavelengths (eg, IR sensors) to track movement of the object, including changes in rotation or orientation of the object. , IR light (or UV light) may be reflected or absorbed to create a marker, or fiducial. Once the movement and orientation changes of the object are known, the virtual content can be accurately positioned and oriented. Such virtual content that follows the object or is designed to have a fixed location and / or orientation with respect to the object can be rendered appropriately. Similarly, an appropriate view of virtual content can also be provided. Infrared and ultraviolet light are discussed in the examples above, but both visible and invisible light or other wavelengths of electromagnetic radiation can be used.

ある場合には、照明は、グリッドまたはアレイ等のパターンを備えてもよい。加えて、表面上に投影されたパターンの画像は、処理モジュール70によって、光の放出されたパターンと比較され、放出および反射された光間の差異を決定してもよい。同様に、処理モジュール70は、画像内の局所的に一意の差異を識別するように構成されることができる。局所的に一意の差異は、周囲エリアと異なる反射率を有する、実オブジェクトの一部によって生じ得る。例えば、腕または手の母斑、黒子、静脈、瘢痕組織、または他の構造は、結像される波長範囲(例えば、赤外線またはUV)内において周囲組織の反射率と異なる、異なる反射率を有し得る。したがって、瘢痕組織の領域が、照射および結像されるエリア内に存在する場合、放出および反射された放射分布間の光の差異は、瘢痕組織領域の形状における異常領域を含み得る。本明細書では、差異シグネチャと称される、そのような特徴は、仮想コンテンツが、オブジェクトに対して適切に位置し、配向され得るように、オブジェクトを追跡するために使用されることができる。   In some cases, the illumination may comprise a pattern such as a grid or array. In addition, the image of the pattern projected onto the surface may be compared by the processing module 70 to the emitted pattern of light to determine the difference between the emitted and reflected light. Similarly, the processing module 70 can be configured to identify locally unique differences within the image. The locally unique difference may be caused by the portion of the real object that has a different reflectivity than the surrounding area. For example, a nevus of the arm or hand, lentis, veins, scar tissue, or other structure may have a different reflectance within the imaged wavelength range (eg, infrared or UV) that is different from the reflectance of the surrounding tissue. You can Thus, if an area of scar tissue is present in the illuminated and imaged area, the light difference between the emitted and reflected radiation distributions may include an abnormal area in the shape of the scar tissue area. Such features, referred to herein as difference signatures, can be used to track an object so that the virtual content can be properly located and oriented with respect to the object.

図10および11をともに参照すると、検出された特徴を使用して、3Dオブジェクトの場所および/または配向を追跡する例示的方法1100が、ここで説明されるであろう。方法1100は、図2および10に描写されるウェアラブル拡張現実ディスプレイシステム60、2010等の本明細書に説明されるシステムのいずれかによって実装されてもよい。方法1100は、ブロック1110から開始し、そこで、仮想コンテンツが、受信される。一実施例では、仮想コンテンツは、腕時計の3Dレンダリングであることができ、これは、拡張現実ディスプレイシステム2010の装着者に可視の仮想腕時計として機能し得る。システム2010また、検出された実オブジェクトに対する仮想コンテンツの場所を受信する。例えば、システム2010は、自動的に、または装着者によるインジケーションに基づいてのいずれかにおいて、深度センサ28を使用して、装着者の手首を検出してもよい。仮想腕時計に関する場所は、自動的に決定されてもよい、またはジェスチャによって、または任意の好適な入力デバイスを使用して等、装着者によって示されてもよい。例えば、装着者は、仮想腕時計が、実世界手首腕時計のように、装着者の手首の周囲に配置されるように現れるように、仮想腕時計の位置を選択してもよい。別の実施例では、仮想コンテンツは、仮想名前タグまたはアイテム識別子、コーヒーカップ等の実オブジェクト上に表示されるための広告グラフィック、または実オブジェクトに添着されるように挙動するように意図される、任意の他のタイプの仮想コンテンツであってもよい。いったん仮想コンテンツの所望の場所が、実オブジェクトに対して決定されると、相対的場所が、選択される、位置合わせされる、または別様に最終決定されてもよい。仮想コンテンツおよび実オブジェクトに対するその場所が、受信された後、方法1100は、ブロック1120に継続する。   With reference to both FIGS. 10 and 11, an exemplary method 1100 of tracking the location and / or orientation of a 3D object using detected features will be described herein. Method 1100 may be implemented by any of the systems described herein, such as the wearable augmented reality display systems 60, 2010 depicted in FIGS. 2 and 10. The method 1100 begins at block 1110, where virtual content is received. In one example, the virtual content can be a 3D rendering of a watch, which can act as a virtual watch visible to the wearer of the augmented reality display system 2010. The system 2010 also receives the location of the virtual content for the detected real object. For example, the system 2010 may use the depth sensor 28 to detect the wearer's wrist, either automatically or based on an indication by the wearer. The location for the virtual watch may be determined automatically or may be indicated by the wearer, such as by a gesture or using any suitable input device. For example, the wearer may select the position of the virtual watch so that the virtual watch appears to be placed around the wearer's wrist, much like a real-world wrist watch. In another example, the virtual content is intended to behave as if attached to a virtual name tag or item identifier, an advertising graphic to be displayed on a real object such as a coffee cup, or a real object. It may be any other type of virtual content. Once the desired location of the virtual content is determined with respect to the real object, the relative location may be selected, aligned, or otherwise finalized. After the virtual content and its location for the real object are received, the method 1100 continues at block 1120.

ブロック1120では、システム2010は、放射パターンを放出し、オブジェクト上に投影されたパターンの画像間の差異を決定する。本差異は、実オブジェクトの構造特徴に依存し、それを示し得る。差異は、例えば、オブジェクトの構造変動に起因して、吸収率、反射率、および/または散乱の変動を示し得る。本差異は、基準、差異シグネチャ、またはマーカとして使用され、移動および/または配向の変化を追跡し得る。放射パターンは、光源26によって放出され、テクスチャ化ライトフィールド、グリッド、または一連のドット、十字、円形、(例えば、同心円形または輪郭)、または他のパターン等の光パターンであってもよい。グリッド等のパターンが、上記に議論されるが、照明はまた、任意の形状(例えば、円形、正方形等)の実質的に均一照明またはスポットを備えてもよく、依然として、差異シグネチャまたはマーカが、取得され得る。放出された放射パターンは、赤外線光、紫外線光、または任意の他の好適な波長または波長の範囲等の可視光または不可視光を備えることができる。いくつかの実施形態では、赤外線または紫外線等の不可視波長範囲は、可視光パターンまたは可視光を投影させることによって装着者または他者の注意を逸らすことを回避するために望ましくあり得る。放射パターンの方向は、放射パターンの少なくとも一部が実オブジェクトの表面上に入射するように選択されてもよい。例えば、いくつかの構成では、光源は、ジンバル搭載部または他の回転段および/または傾斜され得る段等を介して、移動可能である。いくつかの実施形態では、放射は、仮想オブジェクトの受信された場所に直近の場所上に投影されてもよい。仮想腕時計の例示的実装では、放射は、装着者の手の甲または仮想腕時計の場所に隣接する装着者の前腕上に投影されてもよい。他の実施形態では、放射は、仮想オブジェクトの場所から離間された場所上に投影されてもよい。   At block 1120, the system 2010 emits a radiation pattern and determines a difference between images of the pattern projected on the object. This difference depends on the structural features of the real object and may indicate it. Differences may indicate variations in absorptance, reflectance, and / or scattering due to, for example, structural variations in the object. This difference can be used as a reference, difference signature, or marker to track movement and / or orientation changes. The radiation pattern is emitted by the light source 26 and may be a light pattern such as a textured light field, a grid, or a series of dots, crosses, circles (eg concentric circles or contours), or other patterns. Although patterns such as grids are discussed above, the illumination may also comprise substantially uniform illumination or spots of any shape (eg, circular, square, etc.) and still the difference signature or marker Can be acquired. The emitted radiation pattern can comprise visible or invisible light, such as infrared light, ultraviolet light, or any other suitable wavelength or range of wavelengths. In some embodiments, invisible wavelength ranges such as infrared or ultraviolet may be desirable to avoid distracting the wearer or others by projecting a visible light pattern or light. The direction of the radiation pattern may be selected such that at least part of the radiation pattern is incident on the surface of the real object. For example, in some configurations, the light source is moveable, such as via a gimbal mount or other rotating stage and / or a stage that may be tilted. In some embodiments, the radiation may be projected onto a location closest to the virtual object's received location. In an exemplary implementation of a virtual watch, the radiation may be projected onto the back of the wearer's hand or the wearer's forearm adjacent to the location of the virtual watch. In other embodiments, the radiation may be projected onto a location spaced from the location of the virtual object.

放射パターンが、放出された後、放出された放射の一部は、実オブジェクトによって、拡張現実ディスプレイシステム2010に反射され得る。放出された放射の一部は、オブジェクトの表面の下方の外側表面または内部構造によって反射され得る。例えば、放射パターンが、ユーザの腕または手に指向される赤外線光パターンである場合、赤外線光の一部は、外側皮膚表面、皮膚の内部領域、および/または静脈または皮膚下の他の構造によって反射され得る。放射パターンの反射された部分は、光検出器24において検出されてもよい。例えば、光源26は、赤外線放射パターンを放出する、赤外線源であってもよく、光検出器24は、赤外線スペクトル内で画像を取得するように構成される、赤外線カメラであってもよい。したがって、放出された放射パターンの一部が、ディスプレイシステム2010に反射されると、光検出器24は、反射された光パターンの画像を取得することができる。   After the radiation pattern is emitted, a portion of the emitted radiation may be reflected by the real object into the augmented reality display system 2010. A portion of the emitted radiation may be reflected by an outer surface or internal structure below the surface of the object. For example, if the radiation pattern is an infrared light pattern directed at the user's arm or hand, some of the infrared light may be transmitted by the outer skin surface, the inner area of the skin, and / or veins or other structures under the skin. Can be reflected. The reflected portion of the radiation pattern may be detected at photodetector 24. For example, the light source 26 may be an infrared source that emits an infrared radiation pattern, and the photodetector 24 may be an infrared camera configured to acquire an image within the infrared spectrum. Therefore, when a portion of the emitted radiation pattern is reflected by the display system 2010, the photodetector 24 can obtain an image of the reflected light pattern.

光差異シグネチャを決定するために、反射された光パターンの画像は、放出された放射パターンの分布と比較されることができる。光差異シグネチャの決定は、処理モジュール70または拡張現実ディスプレイシステム2010と関連付けられた任意の他のローカルまたは遠隔処理回路において生じることができる。処理モジュール70は、目印、マーカ、または基準として使用され得る、放出および反射された光パターン間の一意の差異を探すことができる。一意の差異が、放出および反射された光パターン間で見出される場合、差異は、記憶され、光差異シグネチャまたはマーカも、記録されることができる。ある場合には、一意の差異は、周囲エリアと異なる反射率を有する、実オブジェクトの一部、例えば、腕または手の母斑、黒子、静脈、瘢痕組織、または他の構造によって生じ得る。例えば、瘢痕組織の領域が、照射および結像されるエリア内に存在する場合、放出および反射された放射分布間の光差異は、目印または差異シグネチャとしての役割を果たし得る、瘢痕組織領域の形状における異常領域を含むことができる(皮膚、脂肪、含酸素血液、脱酸素血液等の種々のタイプの生物学的組織は、異なる赤外線吸収および散乱性質を有し得るため、放射パターンは、一意の差異が第1の波長で検出されることができない場合、光の複数の波長を含み得る)。光差異の検出可能および/または局所的に一意のサブ領域が、放出および反射された光パターン間に見出される場合、本差異は、光差異シグネチャとして記憶されることができる。目印または基準として使用され得る、一意の差異が、放出および反射された光パターンを比較した後に見出されない場合、ブロック1120は、放射パターンを実オブジェクト上の異なる位置、例えば、仮想オブジェクト場所の異なる部分に隣接する場所および/または仮想オブジェクト場所からさらに若干離間された場所に放出することによって、繰り返されることができる。目印として使用され得る、一意の差異が、識別され、光差異シグネチャまたはマーカとして記憶される場合、方法1100は、ブロック1130に継続する。   The image of the reflected light pattern can be compared to the distribution of the emitted radiation pattern to determine the light difference signature. The determination of the optical difference signature can occur in the processing module 70 or any other local or remote processing circuitry associated with the augmented reality display system 2010. The processing module 70 can look for unique differences between the emitted and reflected light patterns that can be used as landmarks, markers, or fiducials. If a unique difference is found between the emitted and reflected light patterns, the difference is stored and the light difference signature or marker can also be recorded. In some cases, the unique difference may be caused by a portion of the real object that has a different reflectance than the surrounding area, such as a nevus of the arm or hand, a mole, a vein, scar tissue, or other structure. For example, if an area of scar tissue is present within the area to be illuminated and imaged, the optical difference between the emitted and reflected radiation distributions may serve as a landmark or difference signature. The radiation pattern is unique because various types of biological tissue, such as skin, fat, oxygenated blood, deoxygenated blood, etc., may have different infrared absorption and scattering properties. If the difference cannot be detected at the first wavelength, it may include multiple wavelengths of light). If a detectable and / or locally unique sub-region of a light difference is found between the emitted and reflected light patterns, this difference can be stored as a light difference signature. If no unique difference is found after comparing the emitted and reflected light patterns, which can be used as a landmark or reference, the block 1120 directs the emission pattern to different locations on the real object, eg, different virtual object locations. It can be repeated by emitting to a location adjacent to the portion and / or to a location that is slightly further away from the virtual object location. If the unique difference, which may be used as a landmark, is identified and stored as an optical difference signature or marker, method 1100 continues at block 1130.

ブロック1130では、仮想コンテンツの場所が、光差異シグネチャ、目印、または「差異マーカ」に対して決定される。光差異シグネチャまたは目印または差異マーカの場所は、仮想コンテンツをレンダリングするための基準点としての役割を果たすことができる。変位が、次いで、仮想オブジェクトに関して基準点に対して決定されることができる。例えば、変位は、1次元以上における座標を含むことができる。いくつかの実施形態では、変位は、基準点として原点を有する、2次元または3次元座標系内の場所であることができる。したがって、同一の光差異シグネチャまたはマーカまたは目印が、再び検出されると、仮想コンテンツは、光差異シグネチャ、マーカ、または目印に対して同一場所にレンダリングされることができる。   At block 1130, the location of the virtual content is determined for the optical difference signature, landmark, or “difference marker”. The location of the light difference signature or landmark or difference marker can serve as a reference point for rendering the virtual content. The displacement can then be determined with respect to the reference point with respect to the virtual object. For example, the displacement can include coordinates in one or more dimensions. In some embodiments, the displacement can be a location in a 2D or 3D coordinate system with the origin as a reference point. Thus, if the same optical difference signature or marker or landmark is detected again, the virtual content can be rendered in the same place for the optical difference signature, marker or landmark.

いくつかの実装では、光差異シグネチャ、マーカ、または目印はさらに、深度センサ28によって検出可能な実世界内の物理的基準点と関連付けられてもよい。物理的基準点は、本明細書に説明される仮想腕時計実施例では、指または手首骨等の実オブジェクトの特徴であってもよい。光差異シグネチャ、マーカ、または目印に対する仮想オブジェクトの場所と同様に、物理的基準点に対する光差異シグネチャ、マーカ、または目印の場所も、1次元以上における座標を含むことができる。仮想オブジェクトと光差異マーカまたは目印との間および物理的基準点と光差異マーカまたは目印との間の変位は、同一または異なる基準フレームまたは座標系内に記録されることができる。   In some implementations, the optical difference signature, marker, or landmark may also be associated with a physical reference point in the real world that can be detected by the depth sensor 28. The physical reference point may be a feature of a real object, such as a finger or wrist bone, in the virtual wristwatch embodiment described herein. The location of the optical difference signature, marker, or landmark, relative to the physical reference point, as well as the location of the virtual object for the optical difference signature, marker, or landmark, can include coordinates in one or more dimensions. The displacements between the virtual object and the light difference markers or landmarks and between the physical reference points and the light difference markers or landmarks can be recorded in the same or different reference frames or coordinate systems.

仮想コンテンツおよび物理的基準点の場所が、光差異マーカまたは目印に対して決定された後、システム2010は、深度センサ28を使用して、物理的基準点の場所を断続的または継続的に監視することができる。いくつかの実施形態では、深度センサ28は、実オブジェクトの場所および/または物理的基準点を継続的に監視するための光検出器24および光源26ほど電力および/または処理容量を要求し得ない。したがって、深度センサ28は、物理的基準点の場所を継続的に監視し得る一方、光源26および光検出器24による放射または放射パターンの放出および検出は、変化が物理的基準点の場所において検出されるとき、仮想コンテンツのフレームがリフレッシュされる必要があるとき、または任意の他の規則的または不規則的インターバルにおいて等、低頻度で利用されることができる。仮想コンテンツレンダリングの場所が、リフレッシュされるべきであるとき、方法1100は、ブロック1140に継続する。
ブロック1140では、放射または放射パターンが、再び、放出される。ブロック1140において放出される放射は、ブロック1120において放出される放射と同一分布(例えば、均一分布、スポット、パターン、テクスチャ、または同等物)であることができる。放射パターンの放射方向は、放出された放射パターンが、少なくとも部分的に、光差異シグネチャ、マーカ、または目印が、見出されることが予期される、実オブジェクトの領域上に入射するように、深度センサ28によって追跡されるような物理的基準点の場所に基づいて、決定されることができる。放射方向は、光源24をジンバルまたは他の移動可能な搭載プラットフォーム上で枢動または別様に移動させることによって選択されることができる。例えば、装着者の腕の実施例では、放出される放射パターンは、物理的基準点からの計算される変位に基づいて、光差異シグネチャ、マーカ、または目印と関連付けられた母斑、静脈、または他の特徴の場所に指向されることができる。放射または放射パターンは、ブロック1120を参照して上記に説明されるものと同一様式で光源24によって放出されることができる。放射または放射パターンが、放出された後、方法1100は、ブロック1150に継続する。
After the virtual content and physical reference point locations have been determined for the light difference markers or landmarks, the system 2010 uses the depth sensor 28 to intermittently or continuously monitor the physical reference point locations. can do. In some embodiments, the depth sensor 28 may require less power and / or processing capacity than the photodetector 24 and the light source 26 for continuously monitoring the location and / or physical reference points of real objects. .. Thus, the depth sensor 28 may continuously monitor the location of the physical reference point, while the emission and detection of the radiation or radiation pattern by the light source 26 and the photodetector 24 detects changes at the location of the physical reference point. Can be used infrequently, such as when a frame of virtual content needs to be refreshed, or at any other regular or irregular interval. The method 1100 continues at block 1140 when the virtual content rendering location is to be refreshed.
At block 1140, the radiation or radiation pattern is emitted again. The radiation emitted at block 1140 can be co-distributed (eg, uniform distribution, spots, patterns, textures, or equivalent) with the radiation emitted at block 1120. The direction of radiation of the radiation pattern is such that the emitted radiation pattern is at least partially incident on the area of the real object where the optical difference signature, marker, or landmark is expected to be found. It can be determined based on the location of the physical reference point as tracked by 28. The radiation direction can be selected by pivoting or otherwise moving the light source 24 on a gimbal or other movable mounting platform. For example, in an embodiment of the wearer's arm, the emitted radiation pattern is based on a calculated displacement from a physical reference point, which is a nevus, vein, or nevus associated with an optical difference signature, marker, or landmark. It can be directed to other feature locations. The radiation or radiation pattern can be emitted by the light source 24 in the same manner as described above with reference to block 1120. After the radiation or radiation pattern is emitted, the method 1100 continues at block 1150.

ブロック1150では、システム2010は、反射された放射分布またはパターンを取得し、反射された放射分布またはパターン内の差異シグネチャ、マーカ、または目印を位置特定する。反射された放射またはパターンは、光源24によって放出される1つ以上の波長の光を検出するように構成される、光検出器26によって検出および/または結像されることができる。差異が、次いで、放出された放射パターンと反射された放射パターンとの間で決定および/または計算され得る。記憶される光差異シグネチャまたはマーカまたは目印は、放出および反射された放射分布またはパターン間の差異と比較され、新しく反射された放射分布内の光差異シグネチャ、マーカ、または目印の存在を検証し、その場所を決定することができる。光差異シグネチャ、マーカ、または目印の場所は、次いで、仮想コンテンツがリフレッシュされると、仮想コンテンツのレンダリングのための基準点としての役割を果たすために記録されることができる。光差異マーカが、反射された放射分布または差異内で位置特定された後、方法1100は、ブロック1160に継続する。   At block 1150, the system 2010 obtains the reflected radiation distribution or pattern and locates the difference signature, marker, or landmark within the reflected radiation distribution or pattern. The reflected radiation or pattern can be detected and / or imaged by a photodetector 26 that is configured to detect light of one or more wavelengths emitted by the light source 24. Differences can then be determined and / or calculated between the emitted and reflected radiation patterns. The stored optical difference signature or marker or landmark is compared to the difference between the emitted and reflected radiation distribution or pattern to verify the presence of the optical difference signature, marker or landmark in the newly reflected radiation distribution, You can determine its location. The location of the light difference signature, marker, or landmark can then be recorded when the virtual content is refreshed to serve as a reference point for the rendering of the virtual content. After the light difference marker is located within the reflected radiation distribution or difference, the method 1100 continues at block 1160.

ブロック1160では、仮想コンテンツが、光差異シグネチャ、マーカ、または目印の場所に対してレンダリングされる。仮想コンテンツをレンダリングするための場所は、光差異シグネチャ、マーカ、または目印とブロック1130において計算された仮想コンテンツとの間の変位に基づいて決定されることができる。以前に計算された同一変位を使用することによって、拡張現実ディスプレイシステム2010は、関連付けられた実オブジェクトに伴って移動するように現れる、仮想コンテンツを表示する利点を達成することができる。例えば、装着者の手上の母斑または静脈群によって生じる光差異シグネチャ、マーカ、または目印に対して同一変位において、仮想腕時計を繰り返しレンダリングすることによって、装着者が、手首を回転させる、または別様に、深度センサ28単独によって確実に検出されることができない様式において、手首の配向を改変する場合でも、仮想腕時計の面は、装着者の手首の上部側に隣接したままであるように現れることができる。仮想コンテンツが、光差異シグネチャ、マーカ、または目印に対してレンダリングされた後、方法1100は、ブロック1140に戻ることができ、そこで、ブロック1140−1160は、仮想コンテンツフレームがリフレッシュされるべきときは常に、必要に応じて、規則的または不規則的インターバルにおいて無限に繰り返されてもよい。例えば、方法1100は、物理的基準点の場所の変化が検出される任意の時間に、または毎秒、5回/秒、10回/秒、50回/秒、100回/秒、または任意の他の好適なインターバル等の規則的インターバルにおいて、ブロック1140に戻ることができる。いくつかの実施形態では、光源24は、差異マーカが再び位置特定されるべき度に、光の離散パルスを送信するのではなく、赤外線光等の放射光を持続的に投影するように構成されてもよい。
上記に議論されるように、光のパターンの照明に関して議論される、システム、デバイス、方法、およびプロセスは同様に、均一照明または円形スポット等の任意の形状のスポットの投影にも適用される。加えて、上記の議論は、マーカまたは目印の識別および使用を参照したが、複数のマーカまたは目印も、仮想画像コンテンツの追跡および設置を提供するために識別および使用されてもよい。
At block 1160, the virtual content is rendered to the location of the light difference signature, marker, or landmark. The location for rendering the virtual content may be determined based on the displacement between the optical difference signature, the marker, or the landmark and the virtual content calculated at block 1130. By using the same displacement calculated previously, the augmented reality display system 2010 can achieve the advantage of displaying virtual content that appears to move with the associated real object. For example, by repeatedly rendering a virtual wristwatch at the same displacement relative to a light difference signature, marker, or landmark caused by a nevus or vein group on the wearer's hand, the wearer rotates his wrist, or another Thus, even if the orientation of the wrist is modified, the face of the virtual wristwatch appears to remain adjacent to the upper side of the wearer's wrist in a manner that cannot be reliably detected by the depth sensor 28 alone. be able to. After the virtual content is rendered to the optical difference signature, marker, or landmark, the method 1100 can return to block 1140, where blocks 1140-1160 indicate when the virtual content frame should be refreshed. It may always be repeated indefinitely at regular or irregular intervals, if desired. For example, the method 1100 can be performed at any time when a change in physical reference point location is detected, or every second, 5 times / second, 10 times / second, 50 times / second, 100 times / second, or any other. At regular intervals, such as the preferred intervals of, the block 1140 may be returned to. In some embodiments, the light source 24 is configured to continuously project an emitted light, such as infrared light, rather than transmitting discrete pulses of light each time the difference marker is to be relocated. May be.
As discussed above, the systems, devices, methods, and processes discussed with respect to illuminating patterns of light also apply to projection of spots of any shape, such as uniform illumination or circular spots. In addition, although the above discussion referred to the identification and use of markers or landmarks, multiple markers or landmarks may also be identified and used to provide tracking and placement of virtual image content.

革新的側面が、種々の用途において実装される、またはそれと関連付けられてもよく、したがって、広範囲の変形例を含むことが検討される。例えば、EPEの形状、数、および/または屈折力における変形例が、検討される。本明細書に説明される構造、デバイス、および方法は、特に、拡張および/または仮想現実のために使用され得る、ウェアラブルディスプレイ(例えば、頭部搭載型ディスプレイ)等のディスプレイにおいて使用を見出し得る。より一般的には、説明される実施形態は、運動(ビデオ等)下にあるかまたは定常(静止画像等)下にあるかにかかわらず、かつテキストであるか、グラフィックであるか、または写真であるかにかかわらず、画像を表示するように構成され得る、任意のデバイス、装置、またはシステム内に実装されてもよい。しかしながら、説明される実施形態は、限定ではないが、携帯電話、マルチメディアインターネット対応セルラー電話、モバイルテレビ受信機、無線デバイス、スマートフォン、Bluetooth(登録商標)デバイス、携帯情報端末(PDA)、無線電子メール受信機、ハンドヘルドまたはポータブルコンピュータ、ネットブック、ノートブック、スマートブック、タブレット、プリンタ、コピー機、スキャナ、ファックスデバイス、全地球測位システム(GPS)受信機/ナビゲータ、カメラ、デジタルメディアプレーヤ(MP3プレーヤ等)、カムコーダ、ゲームコンソール、腕時計、置時計、計算機、テレビモニタ、フラットパネルディスプレイ、電子読取値デバイス(例えば、電子読取機)、コンピュータモニタ、自動ディスプレイ(オドメータおよび速度計ディスプレイ等を含む)、コックピット制御および/またはディスプレイ、カメラビューディスプレイ(車両内のリアカメラのディスプレイ等)、電子写真、電子広告板または標識、プロジェクタ、アーキテクチャ構造、電子レンジ、冷蔵庫、ステレオシステム、カセットレコーダまたはプレーヤ、DVDプレーヤ、CDプレーヤ、VCR、無線、ポータブルメモリチップ、洗濯機、乾燥機、洗濯乾燥機、パーキングメータ、頭部搭載型ディスプレイ、および種々の結像システム等の種々の電子デバイス内に含まれる、またはそれと関連付けられてもよいことが検討される。したがって、本教示は、図に描写される実施形態のみに限定されず、代わりに、当業者に容易に明白となるであろう広い可用性を有することを意図する。   Innovative aspects may be implemented in or associated with various applications and are therefore considered to include a wide variety of variations. For example, variations in EPE shape, number, and / or refractive power are considered. The structures, devices, and methods described herein may find use in displays, such as wearable displays (eg, head-mounted displays), that may be used for augmentation and / or virtual reality, among others. More generally, the described embodiments, whether under motion (such as video) or stationary (such as still images), are textual, graphic, or photographic. , Or may be implemented in any device, apparatus, or system that may be configured to display images. However, the described embodiments include, but are not limited to, mobile phones, multimedia internet enabled cellular phones, mobile television receivers, wireless devices, smartphones, Bluetooth® devices, personal digital assistants (PDAs), wireless electronic devices. Email receivers, handheld or portable computers, netbooks, notebooks, smartbooks, tablets, printers, copiers, scanners, fax devices, Global Positioning System (GPS) receivers / navigators, cameras, digital media players (MP3 players) Etc.), camcorders, game consoles, watches, table clocks, calculators, TV monitors, flat panel displays, electronic reading devices (eg electronic readers), computer monitors, automatic displays. B (including odometer and speedometer display, etc.), cockpit control and / or display, camera view display (display of rear camera in vehicle, etc.), electronic photograph, electronic billboard or sign, projector, architectural structure, microwave oven, Refrigerator, stereo system, cassette recorder or player, DVD player, CD player, VCR, wireless, portable memory chip, washing machine, dryer, washer / dryer, parking meter, head-mounted display, and various imaging systems It is contemplated that it may be included in or associated with various electronic devices of the. Thus, the present teachings are not limited to only the embodiments depicted in the figures, but are instead intended to have broad availability, as will be readily apparent to those skilled in the art.

本開示に説明される実施形態の種々の修正は、当業者に容易に明白となり得、本明細書に定義される一般的原理は、本開示の精神または範囲から逸脱することなく、他の実施形態に適用されてもよい。したがって、請求項は、本明細書に示される実施形態に限定されることを意図するものではなく、本明細書に開示される本開示、原理、および新規特徴と一致する最も広い範囲と見なされるべきである。単語「例示的」は、本明細書では、「実施例、事例、または例証としての役割を果たす」ことを意味するように排他的に使用される。「例示的」として本明細書に説明される任意の実施形態は、必ずしも、他の実施形態より好ましいまたは有利であるものとして解釈されない。加えて、当業者は、用語「上側」および「下側」、「上方」および「下方」等が、時として、図を説明する容易性のために使用され、適切に配向されたページ上の図の配向に対応する相対的位置を示し、本明細書に説明される構造の適切な配向をそれらの構造が実装される通りに反映しない場合があることを容易に理解するであろう。   Various modifications of the embodiments described in this disclosure will be readily apparent to those skilled in the art, and the general principles defined herein may be practiced in other implementations without departing from the spirit or scope of the disclosure. It may be applied to the form. Therefore, the claims are not intended to be limited to the embodiments presented herein and are considered to be the broadest consistent with the disclosure, principles, and novel features disclosed herein. Should be. The word "exemplary" is used exclusively herein to mean "serving as an example, instance, or illustration." Any embodiment described herein as "exemplary" is not necessarily to be construed as preferred or advantageous over other embodiments. In addition, those skilled in the art will recognize that the terms "upper" and "lower", "upper" and "lower", etc. are sometimes used for ease of illustration and on properly oriented pages. It will be readily understood that relative positions corresponding to the orientations of the figures are shown and may not reflect the proper orientation of the structures described herein as they are implemented.

別個の実施形態のコンテキストにおいて本明細書に説明されるある特徴はまた、単一実施形態において組み合わせて実装されることができる。逆に言えば、単一実施形態のコンテキストに説明される種々の特徴はまた、複数の実施形態において別個に、または任意の好適な副次的組み合わせにおいて実装されることもできる。さらに、特徴は、ある組み合わせにおいて作用するように上記に説明され、さらに、最初に、そのように請求され得るが、請求される組み合わせからの1つ以上の特徴は、ある場合には、組み合わせから外れることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。   Certain features that are described in this specification in the context of separate embodiments can also be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment can also be implemented in multiple embodiments separately or in any suitable subcombination. Further, features are described above as operating in some combinations, and further, although initially claimed as such, one or more features from the claimed combination may, in some cases, come from the combination. The combinations that can be deviated and claimed may be sub-combinations or variations of sub-combinations.

同様に、動作は、特定の順序で図面に描写されるが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序でまたは連続的順序で実施されること、または、全ての図示される動作が実施されることを要求するものと理解されるべきではない。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的プロセス内に組み込まれることができる。例えば、1つ以上の付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実施形態における種々のシステムコンポーネントの分離は、全ての実施形態におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化されることができることを理解されたい。加えて、他の実施形態も、以下の請求項の範囲内である。ある場合には、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。   Similarly, although acts are depicted in the drawings in a particular order, this may be done in the particular order in which such acts are shown or in a sequential order to achieve the desired result, or , Should not be understood to require that all illustrated acts be performed. Moreover, the drawings may diagrammatically depict one or more exemplary processes in the form of flowcharts. However, other operations not depicted may also be incorporated within the exemplary process illustrated graphically. For example, one or more additional acts may be performed before, after, concurrently with, or during any of the depicted acts. In some situations, multitasking and parallel processing may be advantageous. Furthermore, the separation of various system components in the embodiments described above should not be understood as requiring such separation in all embodiments, and the described program components and systems generally It should be appreciated that they can be integrated together in a single software product or packaged in multiple software products. In addition, other embodiments are within the scope of the following claims. In some cases, the actions recited in the claims may be performed in a different order and still achieve desirable results.

本発明の種々の例示的実施形態が、本明細書で説明される。非限定的意味で、これらの実施例を参照する。それらは、本発明のより広く適用可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、均等物が置換されてもよい。加えて、特定の状況、材料、組成物、プロセス、プロセスの行為またはステップを、本発明の目的、精神、または範囲に適合させるように、多くの修正が行われてもよい。さらに、当業者によって理解されるように、本明細書で説明および図示される個々の変形例はそれぞれ、離散コンポーネントおよび特徴を有し、これは、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離される、またはそれと組み合わせられてもよい。全てのそのような修正は、本開示と関連付けられる請求項の範囲内であることを目的としている。   Various exemplary embodiments of the invention are described herein. In a non-limiting sense, reference is made to these examples. They are provided to illustrate the broader applicable aspects of the invention. Various changes may be made to the invention described and equivalents may be substituted without departing from the true spirit and scope of the invention. In addition, many modifications may be made to adapt a particular situation, material, composition of matter, process, process act or step, to the objective, spirit or scope of the present invention. Moreover, as will be appreciated by one of skill in the art, each individual variation described and illustrated herein has discrete components and features, which do not depart from the scope or spirit of the invention. It may be easily separated from, or combined with, the features of any of some other embodiments. All such modifications are intended to be within the scope of the claims associated with this disclosure.

本発明は、本デバイスを使用して行われ得る方法を含む。本方法は、そのような好適なデバイスを提供するという行為を含んでもよい。そのような提供は、エンドユーザによって行われてもよい。換言すれば、「提供する」行為は、単に、エンドユーザが、本方法において必須デバイスを提供するように、取得し、アクセスし、接近し、位置付けし、設定し、起動し、電源を入れ、または別様に作用することを要求する。本明細書で記載される方法は、論理的に可能である記載された事象の任意の順序で、および事象の記載された順序で実行されてもよい。 The present invention includes methods that may be performed using the device. The method may include the act of providing such a suitable device. Such provision may be done by the end user. In other words, the act of "providing" simply means that the end user obtains, accesses, approaches, positions, configures, activates, turns on, and so on, to provide the required devices in the method. Or demand to act differently. The methods described herein may be performed in any order of the recited events that is logically possible and in the recited order of events.

本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関して、これらは、上記の参照された特許および公開に関連して理解されるとともに、概して、当業者によって把握または理解され得る。同じことが、一般的または理論的に採用されるような付加的な行為の観点から、本発明の方法ベースの側面に関して当てはまり得る。   Exemplary aspects of the invention are described above, along with details regarding material selection and manufacturing. With respect to other details of the invention, these are understood in relation to the above referenced patents and publications, and may generally be grasped or understood by those skilled in the art. The same may be true with respect to the method-based aspects of the invention in terms of additional acts as commonly or theoretically employed.

加えて、本発明は、種々の特徴を随意に組み込む、いくつかの実施例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるように説明または指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、(本明細書に記載されるか、またはいくらか簡潔にするために含まれないかにかかわらず)均等物が置換されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定値または介在値が、本発明内に包含されることが理解される。   In addition, while the present invention has been described with reference to several embodiments, which optionally incorporate various features, the present invention is described or indicated as considered with respect to each variation of the invention. It is not limited to one. Various modifications may be made to the invention as described and without departing from the true spirit and scope of the invention (either described herein or included for the sake of somewhat simplicity). Equivalents (whether or not) may be substituted. In addition, where a range of values is provided, all intervening values between the upper and lower limits of the range, and any other stated or intervening value within the specified range, are encompassed within the invention. Be understood.

また、本明細書で説明される発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つ以上の特徴と組み合わせて、記載および請求され得ることが考慮される。単数形の項目の言及は、複数の同一項目が存在する可能性を含む。より具体的には、本明細書で、およびそれに関連付けられる請求項で使用されるように、「1つの(a、an)」、「前記(said、the)」という単数形は、特に別様に記述されない限り、複数の指示対象を含む。換言すると、冠詞の使用は、上記の説明および本開示と関連付けられる請求項で、対象項目の「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項要素の記載に関連する「だけ」、「のみ」、および同等物等のそのような排他的用語の使用、または「否定的」制限の使用のための先行詞としての機能を果たすことを目的としている。   Also, any optional feature of the variations of the invention described herein, either independently, or in combination with any one or more of the features described herein, is described. And that it may be billed. Reference to a singular item includes the possibility that there are plural of the same items present. More specifically, as used herein and in the claims associated therewith, the singular forms "a, an", "said, the" are particularly different. Unless otherwise noted, includes multiple referents. In other words, the use of articles allows for "at least one" of the subject item in the above description and claims associated with this disclosure. Further, it is noted that such claims may be drafted to exclude any optional element. Accordingly, this description is used as an antecedent for the use of such exclusive terms, such as "only", "only", and the like, or the use of "negative" restrictions, in connection with the description of the claim elements. The purpose is to fulfill the function of.

そのような排他的用語を使用することなく、本開示と関連付けられる請求項での「備える」という用語は、所与の数の要素がそのような請求項で列挙されているか、または特徴の追加がそのような請求項に記載されている要素の性質を変換すると見なされ得るかにかかわらず、任意の付加的な要素の包含を可能にするものとする。本明細書で特に定義される場合を除いて、本明細書で使用される全ての技術用語および科学用語は、請求項の有効性を維持しながら、可能な限り広義の一般的に理解されている意味を与えられるものである。   The term “comprising”, in a claim associated with this disclosure, without the use of such exclusive terms, refers to a given number of elements being recited in such claim or the addition of features. Shall allow the inclusion of any additional element (s) regardless of whether they may be considered to transform the nature of the elements recited in such claims. Unless defined otherwise herein, all technical and scientific terms used herein have the broadest possible general understanding while maintaining the validity of the claims. Is given the meaning of being.

本発明の範疇は、提供される実施例および/または本明細書に限定されるものではなく、むしろ、本開示と関連付けられる請求項の範囲のみによって限定されるものとする。   The scope of the present invention should not be limited to the examples provided and / or the specification, but rather should be limited only by the scope of the claims associated with this disclosure.

Claims (32)

3Dコンテンツと実オブジェクトとを整合させるように構成される拡張現実ディスプレイシステムであって、前記システムは、
装着者上に搭載するように構成されるフレームと、
前記フレームに取り付けられ、画像を前記装着者の眼に指向するように構成される拡張現実ディスプレイと、
不可視光を放出することによって、前記オブジェクトの少なくとも一部分を照明するように構成される光源と、
前記不可視光を使用して、前記光源によって照明された前記オブジェクトの前記一部分を結像するように構成される光センサと、
処理回路であって、前記処理回路は、前記不可視光の反射された部分を使用して形成される前記画像内の特徴の1つ以上の特性に基づいて、前記オブジェクトの場所、前記オブジェクトの配向、または両方に関する情報を決定するように構成される、処理回路と
を備える、システム。
An augmented reality display system configured to align 3D content with real objects, the system comprising:
A frame configured to be mounted on the wearer,
An augmented reality display attached to the frame and configured to direct an image to the wearer's eyes;
A light source configured to illuminate at least a portion of the object by emitting invisible light;
A photosensor configured to image the portion of the object illuminated by the light source using the invisible light;
A processing circuit, wherein the processing circuit is based on one or more characteristics of features in the image formed using the reflected portion of the invisible light, the location of the object, the orientation of the object. , And processing circuitry configured to determine information about both or both.
前記不可視光の反射された部分を使用して形成される前記画像内の特徴は、前記眼に不可視である、請求項1に記載の拡張現実ディスプレイシステム。   The augmented reality display system of claim 1, wherein features in the image formed using the reflected portion of the invisible light are invisible to the eye. 前記不可視光は、赤外線光を備える、請求項1−2のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of claim 1-2, wherein the invisible light comprises infrared light. 前記光源によって放出される不可視光は、スポットを前記オブジェクトの前記一部分上に形成するビームを備える、請求項1−3のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of claims 1-3, wherein the invisible light emitted by the light source comprises a beam that forms a spot on the portion of the object. 前記光源によって放出される不可視光は、光パターンを備える、請求項1−3のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of claims 1-3, wherein the invisible light emitted by the light source comprises a light pattern. 前記特性は、前記特徴の場所を備える、請求項1−5のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of claims 1-5, wherein the characteristic comprises a location of the feature. 前記特性は、前記特徴の形状を備える、請求項1−6のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of claims 1-6, wherein the characteristic comprises a shape of the feature. 前記特性は、前記特徴の配向を備える、請求項1−7のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of claims 1-7, wherein the characteristic comprises an orientation of the feature. 世界内の実オブジェクトの場所を検出するように構成される深度センサをさらに備える、請求項1−8のいずれかに記載の拡張現実ディスプレイシステム。   9. The augmented reality display system of any of claims 1-8, further comprising a depth sensor configured to detect the location of real objects in the world. 前記処理回路は、前記放出された不可視光の分布と前記不可視光の反射された部分の分布との間の差異を決定するように構成される、請求項1−9のいずれかに記載の拡張現実ディスプレイシステム。   10. The extension according to any of claims 1-9, wherein the processing circuit is configured to determine a difference between the distribution of the emitted invisible light and the distribution of the reflected portion of the invisible light. Reality display system. 前記処理回路は、前記決定された差異に基づいて、差異シグネチャを識別するように構成される、請求項10に記載の拡張現実ディスプレイシステム。   The augmented reality display system of claim 10, wherein the processing circuitry is configured to identify a difference signature based on the determined difference. 前記処理回路は、前記実オブジェクトの場所および前記差異シグネチャの場所に基づいて、前記実オブジェクトの配向を決定するように構成される、請求項11に記載の拡張現実ディスプレイシステム。   The augmented reality display system of claim 11, wherein the processing circuitry is configured to determine an orientation of the real object based on the location of the real object and the location of the difference signature. 前記処理回路は、少なくとも部分的に、前記差異シグネチャの場所に基づいて、前記実オブジェクトの場所を決定するように構成される、請求項11に記載の拡張現実ディスプレイシステム。   The augmented reality display system of claim 11, wherein the processing circuitry is configured, at least in part, to determine the location of the real object based on the location of the difference signature. 前記フレーム上に配置される接眼レンズをさらに備え、前記接眼レンズの少なくとも一部分は、透明であり、前記透明部分が、前記装着者の正面の環境からの光を前記装着者の眼に透過させ、前記装着者の正面の環境のビューを提供するように、前記装着者が前記ディスプレイシステムを装着したときに前記装着者の眼の正面の場所に配置される、請求項1−13のいずれかに記載の拡張現実ディスプレイシステム。   Further comprising an eyepiece arranged on the frame, at least a portion of the eyepiece is transparent, the transparent portion transmits light from the environment in front of the wearer to the wearer's eyes, 14. Any of claims 1-13, wherein the wearer is positioned in front of the wearer's eyes when wearing the display system to provide a view of the wearer's frontal environment. The described augmented reality display system. 拡張現実ディスプレイシステムであって、
装着者上に搭載するように構成されるフレームと、
前記フレームに取り付けられ、画像を前記装着者の眼に指向するように構成される拡張現実ディスプレイと、
前記装着者の視野内の実オブジェクトの表面をマッピングするように構成される深度センサと、
前記実オブジェクトの表面上に入射する少なくとも第1の波長における光を投影するように構成される光源と、
前記実オブジェクトの表面によって反射された前記光の一部分を使用して画像を形成するように構成される光検出器と、
処理回路であって、前記処理回路は、少なくとも部分的に、光パターンの反射された部分に基づいて、光差異マーカを決定し、仮想オブジェクトを前記光差異マーカに対して固定変位でレンダリングするように構成される、処理回路と
を備える、拡張現実ディスプレイシステム。
An augmented reality display system,
A frame configured to be mounted on the wearer,
An augmented reality display attached to the frame and configured to direct an image to the wearer's eyes;
A depth sensor configured to map the surface of a real object within the wearer's field of view;
A light source configured to project light at at least a first wavelength incident on the surface of the real object;
A photodetector configured to form an image using a portion of the light reflected by the surface of the real object;
Processing circuit for determining a light difference marker based at least in part on the reflected portion of the light pattern and rendering a virtual object with a fixed displacement relative to the light difference marker. An augmented reality display system comprising:
前記仮想オブジェクトを前記光差異マーカに対して固定変位でレンダリングすることは、
初期時間において前記仮想オブジェクトを前記実オブジェクトに対してレンダリングするための初期場所を受信することと、
前記初期場所と前記光差異マーカとの間の距離に基づいて、前記固定変位を決定することと、
前記初期時間に続くある時間に前記光差異マーカの後続場所を検出することと、
前記仮想オブジェクトを前記光差異マーカの前記検出された後続場所に対して前記固定変位でレンダリングすることと
を含む、請求項15に記載の拡張現実ディスプレイシステム。
Rendering the virtual object with a fixed displacement with respect to the optical difference marker,
Receiving an initial location for rendering the virtual object to the real object at an initial time;
Determining the fixed displacement based on a distance between the initial location and the optical difference marker;
Detecting a subsequent location of the light difference marker at a time following the initial time;
16. Rendering the virtual object at the fixed displacement with respect to the detected subsequent location of the light difference marker.
前記フレーム上に配置される接眼レンズをさらに備え、前記接眼レンズの少なくとも一部分は、透明であり、前記透明部分が、前記装着者の正面の環境からの光を前記装着者の眼に透過させ、前記装着者の正面の環境のビューを提供するように、前記装着者が前記ディスプレイシステムを装着したときに前記装着者の眼の正面の場所に配置される、請求項15または16に記載の拡張現実ディスプレイシステム。   Further comprising an eyepiece arranged on the frame, at least a portion of the eyepiece is transparent, the transparent portion transmits light from the environment in front of the wearer to the wearer's eyes, 17. The extension of claim 15 or 16 positioned at a location in front of the wearer's eyes when the wearer wears the display system to provide a view of the wearer's front environment. Reality display system. 3Dコンテンツと実オブジェクトとを整合させるように構成される拡張現実ディスプレイシステムであって、前記システムは、
装着者上に搭載するように構成されるフレームと、
前記フレームに取り付けられ、画像を前記装着者の眼に指向するように構成される拡張現実ディスプレイと、
前記装着者の視野内の実オブジェクトの表面をマッピングするように構成される深度センサと、
光を放出することによって、前記オブジェクトの少なくとも一部分を照明するように構成される光源と、
前記放出された光を使用して前記光源によって照明された前記オブジェクトの前記一部分を結像するように構成される光センサと、
処理回路であって、前記処理回路は、前記オブジェクトの前記画像内の特徴の1つ以上の特性に基づいて、前記実オブジェクトの場所、前記実オブジェクトの配向、または両方に関する情報を決定するように構成される、処理回路と
を備える、システム。
An augmented reality display system configured to align 3D content with real objects, the system comprising:
A frame configured to be mounted on the wearer,
An augmented reality display attached to the frame and configured to direct an image to the wearer's eyes;
A depth sensor configured to map the surface of a real object within the wearer's field of view;
A light source configured to illuminate at least a portion of the object by emitting light;
A light sensor configured to use the emitted light to image the portion of the object illuminated by the light source;
Processing circuitry for determining information about the location of the real object, the orientation of the real object, or both based on one or more characteristics of features in the image of the object. And a processing circuit configured.
前記光源によって放出される光は、スポットを前記オブジェクトの前記一部分上に形成するビームを備える、請求項18に記載の拡張現実ディスプレイシステム。   19. The augmented reality display system of claim 18, wherein the light emitted by the light source comprises a beam that forms a spot on the portion of the object. 前記光源によって放出される光は、光パターンを備える、請求項18に記載の拡張現実ディスプレイシステム。   19. The augmented reality display system of claim 18, wherein the light emitted by the light source comprises a light pattern. 前記特性は、前記特徴の場所を備える、請求項18−20のいずれかに記載の拡張現実ディスプレイシステム。   21. The augmented reality display system of any of claims 18-20, wherein the characteristic comprises the location of the feature. 前記特性は、前記特徴の形状を備える、請求項18−21のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of claims 18-21, wherein the characteristic comprises a shape of the feature. 前記特性は、前記特徴の配向を備える、請求項18−22のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of claims 18-22, wherein the characteristic comprises an orientation of the feature. 前記処理回路は、前記放出された光の分布と前記オブジェクトから反射された前記放出された光の分布との間の差異を決定するように構成される、請求項18−23のいずれかに記載の拡張現実ディスプレイシステム。   24. Any of claims 18-23, wherein the processing circuit is configured to determine a difference between the distribution of the emitted light and the distribution of the emitted light reflected from the object. Augmented reality display system. 前記処理回路は、前記決定された差異に基づいて、光差異マーカを識別するように構成される、請求項24に記載の拡張現実ディスプレイシステム。   The augmented reality display system of claim 24, wherein the processing circuitry is configured to identify a light difference marker based on the determined difference. 前記処理回路は、少なくとも部分的に、前記光差異マーカの場所に基づいて、前記実オブジェクトの配向を決定するように構成される、請求項25に記載の拡張現実ディスプレイシステム。   26. The augmented reality display system of claim 25, wherein the processing circuitry is configured, at least in part, to determine an orientation of the real object based on the location of the light difference marker. 前記処理回路は、少なくとも部分的に、前記光差異マーカの場所に基づいて、前記実オブジェクトの場所を決定するように構成される、請求項25または26に記載の拡張現実ディスプレイシステム。   27. The augmented reality display system of claim 25 or 26, wherein the processing circuitry is configured to determine the location of the real object based at least in part on the location of the light difference marker. 前記深度センサは、レーザまたは超音波距離計を備える、請求項18−27のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of claims 18-27, wherein the depth sensor comprises a laser or an ultrasonic range finder. 前記深度センサは、カメラを備える、請求項18−28のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of claims 18-28, wherein the depth sensor comprises a camera. 前記フレーム上に配置される接眼レンズをさらに備え、前記接眼レンズの少なくとも一部分は、透明であり、前記透明部分が、前記装着者の正面の環境からの光を前記装着者の眼に透過させ、前記装着者の正面の環境のビューを提供するように、前記装着者が前記ディスプレイシステムを装着したときに前記装着者の眼の正面の場所に配置される、請求項18−29のいずれかに記載の拡張現実ディスプレイシステム。   Further comprising an eyepiece arranged on the frame, at least a portion of the eyepiece is transparent, the transparent portion transmits light from the environment in front of the wearer to the wearer's eyes, 30. Any of claims 18-29, positioned at a location in front of the wearer's eyes when the wearer wears the display system so as to provide a view of the wearer's frontal environment. The described augmented reality display system. 前記ディスプレイは、異なる画像コンテンツが異なる深度に位置するかのように、画像コンテンツをレンダリングするように構成される、前記請求項のいずれかに記載の拡張現実ディスプレイシステム。   The augmented reality display system of any of the preceding claims, wherein the display is configured to render image content as if the different image content were located at different depths. 前記ディスプレイは、前記異なる深度を提供するための異なる屈折力を有する多屈折力光学要素を含む、請求項28に記載の拡張現実ディスプレイシステム。   29. The augmented reality display system of claim 28, wherein the display includes multi-power optical elements having different powers to provide the different depths.
JP2019530207A 2016-12-13 2017-12-12 3D object rendering with detected features Active JP7038713B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022035008A JP2022088420A (en) 2016-12-13 2022-03-08 3d object rendering using detected features
JP2023124302A JP2023159118A (en) 2016-12-13 2023-07-31 3D object rendering using detected features

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662433767P 2016-12-13 2016-12-13
US62/433,767 2016-12-13
PCT/US2017/065850 WO2018111895A1 (en) 2016-12-13 2017-12-12 3d object rendering using detected features

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022035008A Division JP2022088420A (en) 2016-12-13 2022-03-08 3d object rendering using detected features

Publications (2)

Publication Number Publication Date
JP2020513590A true JP2020513590A (en) 2020-05-14
JP7038713B2 JP7038713B2 (en) 2022-03-18

Family

ID=62559186

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019530207A Active JP7038713B2 (en) 2016-12-13 2017-12-12 3D object rendering with detected features
JP2022035008A Pending JP2022088420A (en) 2016-12-13 2022-03-08 3d object rendering using detected features
JP2023124302A Pending JP2023159118A (en) 2016-12-13 2023-07-31 3D object rendering using detected features

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022035008A Pending JP2022088420A (en) 2016-12-13 2022-03-08 3d object rendering using detected features
JP2023124302A Pending JP2023159118A (en) 2016-12-13 2023-07-31 3D object rendering using detected features

Country Status (9)

Country Link
US (2) US10922887B2 (en)
EP (1) EP3555865A4 (en)
JP (3) JP7038713B2 (en)
KR (2) KR20230022453A (en)
CN (2) CN110291565B (en)
AU (1) AU2017375951B2 (en)
CA (1) CA3046399A1 (en)
IL (1) IL267117B (en)
WO (1) WO2018111895A1 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10922887B2 (en) 2016-12-13 2021-02-16 Magic Leap, Inc. 3D object rendering using detected features
US10371896B2 (en) 2016-12-22 2019-08-06 Magic Leap, Inc. Color separation in planar waveguides using dichroic filters
EP3528003A1 (en) * 2018-02-15 2019-08-21 Kinexon GmbH System and method estimating orientation from radio measurements
CN113168009A (en) * 2018-09-26 2021-07-23 奇跃公司 Diffractive optical element with optical power
US11892642B2 (en) * 2018-10-05 2024-02-06 Htc Corporation Electronic apparatus
WO2020101895A1 (en) 2018-11-12 2020-05-22 Magic Leap, Inc. Event-based camera with high-resolution frame output
US11902677B2 (en) 2018-11-12 2024-02-13 Magic Leap, Inc. Patch tracking image sensor
US20220014689A1 (en) * 2018-11-13 2022-01-13 Magic Leap, Inc. Event-based ir camera
JP2022509083A (en) 2018-11-20 2022-01-20 マジック リープ, インコーポレイテッド Eyepieces for augmented reality display systems
EP3922010A4 (en) 2019-02-07 2022-10-26 Magic Leap, Inc. Lightweight cross reality device with passive depth extraction
WO2021040106A1 (en) * 2019-08-30 2021-03-04 엘지전자 주식회사 Ar device and control method therefor
KR20210035557A (en) * 2019-09-24 2021-04-01 삼성전자주식회사 Backlight unit and holographic display apparatus including the same
EP4058993A4 (en) * 2019-12-06 2023-01-11 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Light source detection for extended reality technologies
US11176716B2 (en) * 2020-02-28 2021-11-16 Weta Digital Limited Multi-source image data synchronization
JP2023526430A (en) 2020-05-22 2023-06-21 マジック リープ, インコーポレイテッド Method and system for dual projector waveguide display with wide field of view
KR102419290B1 (en) 2020-08-12 2022-07-12 태나다 주식회사 Method and Apparatus for synthesizing 3-dimensional virtual object to video data
US20240073401A1 (en) * 2020-12-23 2024-02-29 Magic Leap, Inc. Eyepiece imaging assemblies for a head mounted display

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050165A (en) * 2004-08-03 2006-02-16 Olympus Corp Information display apparatus
JP2008508591A (en) * 2004-07-30 2008-03-21 インダストリー ユニバーシティー コーポレーション ファウンデーション ハンヤン ユニバーシティー Vision-based augmented reality system using markers invisible to the naked eye
US20120274745A1 (en) * 2011-04-29 2012-11-01 Austin Russell Three-dimensional imager and projection device
WO2013179427A1 (en) * 2012-05-30 2013-12-05 パイオニア株式会社 Display device, head-mounted display, calibration method, calibration program, and recording medium
JP2015125641A (en) * 2013-12-26 2015-07-06 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
KR101189550B1 (en) 2008-03-21 2012-10-11 아츠시 타카하시 Three-dimensional digital magnifier operation supporting system
KR101648201B1 (en) 2009-11-04 2016-08-12 삼성전자주식회사 Image sensor and for manufacturing the same
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
WO2012088478A1 (en) 2010-12-24 2012-06-28 Chunyu Gao An ergonomic head mounted display device and optical system
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
US8611601B2 (en) * 2011-03-08 2013-12-17 Bank Of America Corporation Dynamically indentifying individuals from a captured image
AU2012253797B2 (en) 2011-05-06 2017-06-22 Magic Leap, Inc. Massive simultaneous remote digital presence world
EP2760363A4 (en) 2011-09-29 2015-06-24 Magic Leap Inc Tactile glove for human-computer interaction
EP3974041A1 (en) 2011-10-28 2022-03-30 Magic Leap, Inc. System and method for augmented and virtual reality
KR102376368B1 (en) 2011-11-23 2022-03-17 매직 립, 인코포레이티드 Three dimensional virtual and augmented reality display system
EP2841991B1 (en) 2012-04-05 2020-01-08 Magic Leap, Inc. Wide-field of view (fov) imaging devices with active foveation capability
JP5912059B2 (en) * 2012-04-06 2016-04-27 ソニー株式会社 Information processing apparatus, information processing method, and information processing system
US20140039309A1 (en) 2012-04-26 2014-02-06 Evena Medical, Inc. Vein imaging systems and methods
US20140046291A1 (en) 2012-04-26 2014-02-13 Evena Medical, Inc. Vein imaging systems and methods
US20130293530A1 (en) 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
CN104737061B (en) 2012-06-11 2018-01-16 奇跃公司 Use more depth plane three dimensional displays of the waveguided reflector arrays projector
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9898742B2 (en) * 2012-08-03 2018-02-20 Ebay Inc. Virtual dressing room
KR20150054967A (en) 2012-09-11 2015-05-20 매직 립, 인코포레이티드 Ergonomic head mounted display device and optical system
US20140160162A1 (en) * 2012-12-12 2014-06-12 Dhanushan Balachandreswaran Surface projection device for augmented reality
KR102141992B1 (en) 2013-01-15 2020-08-06 매직 립, 인코포레이티드 Ultra-high resolution scanning fiber display
JP6499154B2 (en) 2013-03-11 2019-04-10 マジック リープ, インコーポレイテッドMagic Leap,Inc. Systems and methods for augmented and virtual reality
KR102271727B1 (en) 2013-03-15 2021-06-30 매직 립, 인코포레이티드 Display system and method
US20140285520A1 (en) * 2013-03-22 2014-09-25 Industry-University Cooperation Foundation Hanyang University Wearable display device using augmented reality
EP2797313A1 (en) 2013-04-26 2014-10-29 Elvesjö, John Computer graphics presentation system and method
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) * 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
KR102462848B1 (en) 2013-10-16 2022-11-03 매직 립, 인코포레이티드 Virtual or augmented reality headsets having adjustable interpupillary distance
US20150257735A1 (en) 2013-10-24 2015-09-17 Evena Medical, Inc. Systems and methods for displaying medical images
CN107219628B (en) 2013-11-27 2020-05-01 奇跃公司 Virtual and augmented reality systems and methods
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
US9405122B2 (en) * 2014-01-29 2016-08-02 Ricoh Co., Ltd Depth-disparity calibration of a binocular optical augmented reality system
CN106461955B (en) 2014-01-31 2019-08-13 奇跃公司 The method for showing augmented reality
KR102207799B1 (en) 2014-01-31 2021-01-26 매직 립, 인코포레이티드 Multi-focal display system and method
US10691332B2 (en) * 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9552674B1 (en) * 2014-03-26 2017-01-24 A9.Com, Inc. Advertisement relevance
KR20170046108A (en) 2014-05-09 2017-04-28 아이플루언스, 인크. Systems and methods for using eye signals with secure mobile communications
US10061058B2 (en) * 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
NZ764905A (en) 2014-05-30 2022-05-27 Magic Leap Inc Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
JP6481269B2 (en) * 2014-07-01 2019-03-13 富士通株式会社 Output control method, image processing apparatus, output control program, and information processing apparatus
WO2016064435A1 (en) * 2014-10-24 2016-04-28 Usens, Inc. System and method for immersive and interactive multimedia generation
US9733790B2 (en) * 2014-10-30 2017-08-15 Disney Enterprises, Inc. Haptic interface for population of a three-dimensional virtual environment
JP2016091348A (en) * 2014-11-06 2016-05-23 セイコーエプソン株式会社 Head-mounted display device and control method for the same as well as computer program
US20160140761A1 (en) * 2014-11-19 2016-05-19 Microsoft Technology Licensing, Llc. Using depth information for drawing in augmented reality scenes
US9728010B2 (en) * 2014-12-30 2017-08-08 Microsoft Technology Licensing, Llc Virtual representations of real-world objects
US9846968B2 (en) * 2015-01-20 2017-12-19 Microsoft Technology Licensing, Llc Holographic bird's eye view camera
NZ773820A (en) 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
US10147218B2 (en) * 2016-09-29 2018-12-04 Sony Interactive Entertainment America, LLC System to identify and use markers for motion capture
US10922887B2 (en) 2016-12-13 2021-02-16 Magic Leap, Inc. 3D object rendering using detected features

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008508591A (en) * 2004-07-30 2008-03-21 インダストリー ユニバーシティー コーポレーション ファウンデーション ハンヤン ユニバーシティー Vision-based augmented reality system using markers invisible to the naked eye
JP2006050165A (en) * 2004-08-03 2006-02-16 Olympus Corp Information display apparatus
US20120274745A1 (en) * 2011-04-29 2012-11-01 Austin Russell Three-dimensional imager and projection device
WO2013179427A1 (en) * 2012-05-30 2013-12-05 パイオニア株式会社 Display device, head-mounted display, calibration method, calibration program, and recording medium
JP2015125641A (en) * 2013-12-26 2015-07-06 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program

Also Published As

Publication number Publication date
WO2018111895A1 (en) 2018-06-21
AU2017375951A1 (en) 2019-06-20
KR20190095334A (en) 2019-08-14
JP2023159118A (en) 2023-10-31
IL267117A (en) 2019-08-29
JP7038713B2 (en) 2022-03-18
EP3555865A1 (en) 2019-10-23
US20210350623A1 (en) 2021-11-11
US20180182173A1 (en) 2018-06-28
AU2017375951B2 (en) 2022-02-10
EP3555865A4 (en) 2020-07-08
US11461982B2 (en) 2022-10-04
CN110291565A (en) 2019-09-27
CN116778120A (en) 2023-09-19
IL267117B (en) 2022-05-01
CA3046399A1 (en) 2018-06-21
JP2022088420A (en) 2022-06-14
CN110291565B (en) 2023-06-30
KR20230022453A (en) 2023-02-15
US10922887B2 (en) 2021-02-16
KR102497707B1 (en) 2023-02-08

Similar Documents

Publication Publication Date Title
US11461982B2 (en) 3D object rendering using detected features
US11391951B2 (en) Dual depth exit pupil expander
AU2017207827B2 (en) Beam angle sensor in virtual/augmented reality system
JP7174794B2 (en) thin beam splitter
KR101912958B1 (en) Automatic variable virtual focus for augmented reality displays
JP2021073511A (en) Virtual and augmented reality systems and methods having improved diffractive grating structures
IL274976B1 (en) Enhanced pose determination for display device
JP2020502567A (en) System and method for manipulating light from an ambient light source
CN117043658A (en) Eye tracker illumination through a waveguide
US20230209032A1 (en) Detection, analysis and correction of disparities in a display system utilizing disparity sensing port
US20230168506A1 (en) High efficiency optical assembly with folded optical path
NZ795513A (en) 3D object rendering using detected features
US20230258938A1 (en) Display systems with waveguide configuration to mitigate rainbow effect
TW202300987A (en) Waveguide configurations in a head-mounted display (hmd) for improved field of view (fov)
CN117242390A (en) Waveguide configuration for improving field of view (FOV) in Head Mounted Display (HMD)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220308

R150 Certificate of patent or registration of utility model

Ref document number: 7038713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150