JP2020514926A - Depth-based foveated rendering for display systems - Google Patents

Depth-based foveated rendering for display systems Download PDF

Info

Publication number
JP2020514926A
JP2020514926A JP2019552200A JP2019552200A JP2020514926A JP 2020514926 A JP2020514926 A JP 2020514926A JP 2019552200 A JP2019552200 A JP 2019552200A JP 2019552200 A JP2019552200 A JP 2019552200A JP 2020514926 A JP2020514926 A JP 2020514926A
Authority
JP
Japan
Prior art keywords
display system
light
user
resolution
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019552200A
Other languages
Japanese (ja)
Other versions
JP7096836B2 (en
JP2020514926A5 (en
Inventor
イヴァン リー チェン ヨー,
イヴァン リー チェン ヨー,
ライオネル アーネスト エドウィン,
ライオネル アーネスト エドウィン,
ヴァイブハブ マトゥール,
ヴァイブハブ マトゥール,
ティモシー マーク ダルリンプル,
ティモシー マーク ダルリンプル,
ジェイソン シェーファー,
ジェイソン シェーファー,
クリントン カーライル,
クリントン カーライル,
フイ−チュアン チェン,
フイ−チュアン チェン,
チュルウ オ,
チュルウ オ,
フィリップ プレマイスラー,
フィリップ プレマイスラー,
シャオヤン ジャン,
シャオヤン ジャン,
アダム シー. カールソン,
アダム シー. カールソン,
ニコル エリザベス サメック,
ニコル エリザベス サメック,
ナスターシャ ユー. ロバイナ,
ナスターシャ ユー. ロバイナ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2020514926A publication Critical patent/JP2020514926A/en
Publication of JP2020514926A5 publication Critical patent/JP2020514926A5/ja
Priority to JP2022087594A priority Critical patent/JP7329105B2/en
Application granted granted Critical
Publication of JP7096836B2 publication Critical patent/JP7096836B2/en
Priority to JP2023118193A priority patent/JP2023126616A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Holo Graphy (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Generation (AREA)

Abstract

ディスプレイシステムにおける深度ベースの中心窩化レンダリングのための方法およびシステムが、開示される。ディスプレイシステムは、異なる波面発散を使用して仮想コンテンツを複数の深度平面上に提供するように構成される、拡張現実ディスプレイシステムであってもよい。いくつかの実施形態は、検出されたセンサ情報に基づいてディスプレイシステムのユーザの眼配向を監視するステップを含む。固視点が眼配向に基づいて決定され、固視点は視野に対する3次元場所を表す。提示するための仮想オブジェクトの場所情報が取得され、場所情報は、仮想オブジェクトの3次元位置を示す。少なくとも1つの仮想オブジェクトの分解能が、少なくとも1つの仮想オブジェクトと固視点の近接度に基づいて調節される。仮想オブジェクトは、ディスプレイシステムによってユーザに提示され少なくとも1つの仮想オブジェクトは、調節された分解能に従ってレンダリングされる。A method and system for depth-based foveated rendering in a display system is disclosed. The display system may be an augmented reality display system configured to provide virtual content on multiple depth planes using different wavefront divergence. Some embodiments include monitoring the eye orientation of a user of the display system based on the detected sensor information. The fixation point is determined based on the eye orientation, and the fixation point represents a three-dimensional place with respect to the visual field. The location information of the virtual object for presentation is acquired, and the location information indicates the three-dimensional position of the virtual object. The resolution of the at least one virtual object is adjusted based on the proximity of the at least one virtual object and the fixation point. The virtual object is presented to the user by the display system and the at least one virtual object is rendered according to the adjusted resolution.

Description

(優先権主張)
本願は、米国仮出願第62/644,365号(出願日2018年3月16日)、米国仮出願第62/475,012号(出願日2017年3月22日)、米国仮出願第62/486,407号(出願日2017年4月17日)、および米国仮出願第62/539,934号(出願日2017年8月1日)に対する優先権を主張するものである。上記特許出願は、あらゆる目的のためにそれらの全体が参照により本明細書中に援用される。
(Priority claim)
This application is US provisional application No. 62 / 644,365 (filing date March 16, 2018), US provisional application No. 62 / 475,012 (filing date March 22, 2017), US provisional application No. 62. / 486,407 (filing date April 17, 2017) and US provisional application No. 62 / 539,934 (filing date August 1, 2017). The above patent applications are hereby incorporated by reference in their entireties for all purposes.

(参照により援用)
本願は、以下の特許出願および公開の各々の全体を参照により援用するものである:米国出願第14/555,585号(出願日2014年11月27日)、米国公開2015/0205126号として2015年7月23日に公開;米国出願第14/690,401号(出願日2015年4月18日), 米国公開第2015/0302652号として2015年10月22日に公開;米国出願第14/212,961号(出願日2014年3月14日)、現在は2016年8月16日発行の米国特許9,417,452号;米国出願第14/331,218号(出願日2014年7月14日)、米国公開第2015/0309263号として2015年10月29日に公開;米国出願第15/902,927号(出願日2018年2月22日);米国仮出願第62/475,012号(出願日2017年3月22日);および米国仮出願第62/539,934号(出願日2017年8月1日)。
(Incorporated by reference)
This application is incorporated by reference in its entirety for each of the following patent applications and publications: US Application No. 14 / 555,585 (filing date November 27, 2014), US Publication No. 2015/0205126 as 2015. Published on July 23, 2014; US application No. 14 / 690,401 (filed on April 18, 2015), published on October 22, 2015 as US publication No. 2015/0302652; US application No. 14 / No. 212,961 (filing date March 14, 2014), currently issued on August 16, 2016, US Pat. No. 9,417,452; US application No. 14 / 331,218 (filing date July 2014) 14), published on October 29, 2015 as US Publication No. 2015/0309263; US Application No. 15 / 902,927 (filing date February 22, 2018); US Provisional Application No. 62 / 475,012. No. (filing date March 22, 2017); and US provisional application No. 62 / 539,934 (filing date August 1, 2017).

本開示は、拡張現実結像および可視化システムを含む、ディスプレイシステムに関する。   The present disclosure relates to display systems, including augmented reality imaging and visualization systems.

現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式でユーザに提示される。仮想現実または「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴い、拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実または「MR」シナリオは、一種のARシナリオであって、典型的には、自然世界の中に統合され、それに応答する、仮想オブジェクトを伴う。例えば、MRシナリオは、実世界内のオブジェクトによってブロックされて見える、または別様にそれと相互作用するように知覚される、AR画像コンテンツを含んでもよい。   Modern computing and display technologies are driving the development of systems for so-called "virtual reality" or "augmented reality" experiences, where digitally reproduced images or parts thereof are real. Presented to the user in a manner that can be seen or so perceived. Virtual reality or “VR” scenarios typically involve the presentation of digital or virtual image information without transparency to other real world visual inputs, while augmented reality or “AR” scenarios , Typically with the presentation of digital or virtual image information as an extension to the visualization of the real world around the user. A mixed reality or "MR" scenario is a type of AR scenario that typically involves virtual objects integrated into and responsive to the natural world. For example, an MR scenario may include AR image content that appears to be blocked by an object in the real world, or otherwise perceived as interacting with it.

図1を参照すると、拡張現実場面10が、描写されている。AR技術のユーザには、人々、木々、背景における建物、コンクリートプラットフォーム30を特徴とする、実世界公園状設定20が見える。ユーザはまた、実世界プラットフォーム30上に立っているロボット像40と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ50等の「仮想コンテンツ」を「見ている」と知覚する。これらの要素50、40は、実世界には存在しないという点で、「仮想」である。ヒトの視知覚系は、複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、AR技術の生産は、困難である。   Referring to FIG. 1, an augmented reality scene 10 is depicted. Users of AR technology see a real-world park setting 20, featuring people, trees, buildings in the background, and concrete platforms 30. The user also "sees" the virtual image 40 of the robot image 40 standing on the real-world platform 30 and the flying cartoon avatar character 50, which looks like a bumblebee anthropomorphic. Perceive. These elements 50, 40 are "virtual" in that they do not exist in the real world. The human visual perception system is complex and facilitates the comfortable, natural-like, and rich presentation of virtual image elements among other virtual or real-world image elements. Have difficulty.

本明細書に開示されるシステムおよび方法は、ARまたはVR技術に関連する種々の課題に対処する。   The systems and methods disclosed herein address various issues associated with AR or VR technology.

いくつかの実施形態によると、システムは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、動作を実施させる命令を記憶する、1つ以上のコンピュータ記憶媒体とを備える。動作は、1つ以上のセンサを介して検出された情報に基づいて、ユーザの眼移動を監視するステップを含む。ユーザの眼が固視している固視点が、眼移動に基づいて決定され、固視点は、ユーザの視野内の3次元場所である。動作は、ユーザに提示するための1つ以上の仮想オブジェクトと関連付けられた場所情報を取得するステップを含み、場所情報は、仮想オブジェクトの3次元位置を示す。動作はまた、少なくとも部分的に、少なくとも1つの仮想オブジェクトと固視点の近接度に基づいて、少なくとも1つの仮想オブジェクトの分解能を調節するステップを含む。動作はまた、ユーザに、ディスプレイを介して、仮想オブジェクトの提示をもたらすステップを含み、少なくとも1つの仮想オブジェクトは、調節された分解能に従ってレンダリングされる。   According to some embodiments, a system includes one or more processors and one or more computers storing instructions that, when executed by the one or more processors, cause the one or more processors to perform operations. And a storage medium. The operations include monitoring eye movements of the user based on information detected via the one or more sensors. The fixation point that the user's eye is fixing is determined based on the eye movement, and the fixation point is a three-dimensional place in the user's visual field. The act includes obtaining location information associated with one or more virtual objects for presentation to a user, where the location information indicates a three-dimensional position of the virtual object. The act of also includes adjusting the resolution of the at least one virtual object based at least in part on the proximity of the fixation point to the at least one virtual object. The act of includes also providing to the user, via the display, a presentation of the virtual object, the at least one virtual object being rendered according to the adjusted resolution.

いくつかの実施形態によると、ディスプレイシステムは、仮想コンテンツをユーザに提示するように構成される、ディスプレイデバイスと、1つ以上のプロセッサと、システムによって実行されると、システムに動作を実施させる命令を記憶する、1つ以上のコンピュータ記憶媒体とを備える。動作は、ユーザの眼移動と関連付けられた情報を監視するステップを含む。ディスプレイデバイスのディスプレイ錐台内の固視点が、監視される情報に基づいて、決定され、固視点は、ユーザの眼によって固視されている、3次元場所を示す。動作はまた、決定された固視点に基づいて、仮想コンテンツをディスプレイ錐台内の3次元場所に提示するステップを含み、仮想コンテンツは、固視点からの仮想コンテンツの近接度に基づいて、分解能を調節される。   According to some embodiments, a display system is configured to present virtual content to a user, a display device, one or more processors, and instructions for causing the system to perform operations when executed by the system. And one or more computer storage media for storing The act includes monitoring information associated with the user's eye movements. A fixation point within the display frustum of the display device is determined based on the monitored information, the fixation point indicating a three-dimensional location being fixed by the user's eye. The act of also includes presenting the virtual content to a three-dimensional location within the display frustum based on the determined fixation point, the virtual content providing a resolution based on the proximity of the virtual content from the fixation point. Adjusted.

いくつかの他の実施形態によると、方法は、1つ以上のセンサを介して検出された情報に基づいて、ディスプレイデバイスのユーザの眼配向を監視するステップを含む。ユーザの眼が固視している固視点が、眼配向に基づいて決定され、固視点は、ユーザの視野内の3次元場所である。ユーザに提示するための1つ以上の仮想オブジェクトと関連付けられた場所情報が、取得され、場所情報は、仮想オブジェクトの3次元位置を示す。少なくとも1つの仮想オブジェクトの分解能が、少なくとも部分的に、少なくとも1つの仮想オブジェクトと固視点の近接度に基づいて、調節される。本方法はまた、ユーザに、ディスプレイを介して、仮想オブジェクトの提示をもたらすステップを含み、少なくとも1つの仮想オブジェクトは、調節された分解能に従ってレンダリングされる。   According to some other embodiments, the method includes monitoring the eye orientation of the user of the display device based on the information detected via the one or more sensors. The fixation point that the user's eye is fixing is determined based on the eye orientation, and the fixation point is a three-dimensional place in the user's visual field. Place information associated with one or more virtual objects for presentation to a user is obtained, where the place information indicates a three-dimensional position of the virtual object. The resolution of the at least one virtual object is adjusted, at least in part, based on the proximity of the at least one virtual object and the fixation point. The method also includes providing to the user via the display a presentation of the virtual object, the at least one virtual object being rendered according to the adjusted resolution.

いくつかの実施形態によると、ディスプレイシステムは、ユーザの頭部上に搭載されるように構成される、フレームと、光を出力し、画像を形成するように構成される、光変調システムと、フレームに取り付けられ、光変調システムからの光を受光し、光を1つ以上の導波管の表面を横断して出力するように構成される、1つ以上の導波管とを備える。本システムはまた、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、種々の動作を実施させる命令を記憶する、1つ以上のコンピュータ記憶媒体とを備える。動作は、ユーザの眼の網膜に到達する光の量を決定するステップと、網膜に到達する光の量に基づいて、ユーザに提示されることになる仮想コンテンツの分解能を調節するステップとを含む。   According to some embodiments, a display system comprises a frame configured to be mounted on a user's head and a light modulation system configured to output light and form an image. One or more waveguides mounted to the frame and configured to receive light from the light modulation system and output the light across the surface of the one or more waveguides. The system also includes one or more processors and one or more computer storage media that, when executed by the one or more processors, store instructions that cause the one or more processors to perform various operations. Prepare The act includes determining the amount of light reaching the retina of the user's eye and adjusting the resolution of the virtual content to be presented to the user based on the amount of light reaching the retina. ..

いくつかの他の実施形態によると、ディスプレイシステムは、1つ以上のプロセッサと、命令を記憶する、1つ以上のコンピュータ記憶媒体とを備える。命令が、1つ以上のプロセッサによって実行されると、それらは、1つ以上のプロセッサに、種々の動作を実施させる。動作は、ディスプレイシステムのユーザの眼の網膜に到達する光の量を決定するステップと、網膜に到達する光の量に基づいて、ユーザに提示されることになる仮想コンテンツの分解能を調節するステップとを含む。   According to some other embodiments, a display system comprises one or more processors and one or more computer storage media storing instructions. When instructions are executed by one or more processors, they cause the one or more processors to perform various operations. The act of determining the amount of light reaching the retina of the user's eye of the display system and adjusting the resolution of the virtual content to be presented to the user based on the amount of light reaching the retina. Including and

いくつかの実施形態によると、方法は、1つ以上のプロセッサおよび頭部搭載可能ディスプレイを備える、ディスプレイシステムによって実施される。本方法は、ディスプレイシステムのユーザの眼の網膜に到達する光の量を決定するステップと、網膜に到達する光の量に基づいて、ユーザに提示されることになる仮想コンテンツの分解能を調節するステップとを含む。   According to some embodiments the method is implemented by a display system comprising one or more processors and a head mountable display. The method determines the amount of light reaching the retina of the user's eye of the display system and adjusts the resolution of the virtual content to be presented to the user based on the amount of light reaching the retina. And steps.

いくつかの他の実施形態によると、ディスプレイシステムは、ユーザの頭部上に搭載されるように構成される、フレームと、光変調システムと、1つ以上の導波管と、1つ以上のプロセッサと、命令を記憶する、1つ以上のコンピュータ記憶媒体とを備える。光変調システムは、光を出力し、画像を形成するように構成される。1つ以上の導波管は、フレームに取り付けられ、光変調システムからの光を受光し、光を1つ以上の導波管の表面を横断して出力するように構成される。1つ以上のコンピュータ記憶媒体は、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、種々の動作を実施させる、命令を記憶する。動作は、ユーザ固視点からの仮想コンテンツの近接度と、原色画像の色とに基づいて、仮想コンテンツを形成する原色画像の分解能を調節するステップを含む。原色画像のうちの少なくとも1つは、別の色の原色画像と分解能が異なる。   According to some other embodiments, a display system is configured to be mounted on a user's head, a frame, a light modulation system, one or more waveguides, and one or more A processor and one or more computer storage media storing instructions are included. The light modulation system is configured to output light and form an image. The one or more waveguides are mounted to the frame and are configured to receive light from the light modulation system and output the light across the surface of the one or more waveguides. One or more computer storage media store instructions that, when executed by one or more processors, cause the one or more processors to perform various operations. The operation includes adjusting the resolution of the primary color image forming the virtual content based on the proximity of the virtual content from the user's perspective and the color of the primary color image. At least one of the primary color images has a different resolution from the primary color image of another color.

さらに他の実施形態によると、ディスプレイシステムは、1つ以上のプロセッサと、命令を記憶する、1つ以上のコンピュータ記憶媒体とを備える。命令が、1つ以上のプロセッサによって実行されると、それらは、1つ以上のプロセッサに、種々の動作を実施させる。動作は、ユーザ固視点からの仮想コンテンツの近接度と、原色画像の色とに基づいて、仮想コンテンツを形成する原色画像の分解能を調節するステップを含み、原色画像のうちの少なくとも1つは、別の色の原色画像と分解能が異なる。   According to yet another embodiment, a display system comprises one or more processors and one or more computer storage media storing instructions. When instructions are executed by one or more processors, they cause the one or more processors to perform various operations. The act includes adjusting the resolution of the primary color images forming the virtual content based on the proximity of the virtual content from the user's perspective and the color of the primary color image, at least one of the primary color images comprising: The resolution is different from the primary color image of another color.

いくつかの他の実施形態によると、方法は、1つ以上のプロセッサと、頭部搭載可能ディスプレイとを備える、ディスプレイシステムによって実施される。本方法は、ユーザ固視点からの仮想コンテンツの近接度と、原色画像の色とに基づいて、仮想コンテンツを形成する原色画像の分解能を調節するステップを含み、原色画像のうちの少なくとも1つは、別の色の原色画像と分解能が異なる。   According to some other embodiments, the method is implemented by a display system comprising one or more processors and a head mountable display. The method includes adjusting the resolution of the primary color images forming the virtual content based on the proximity of the virtual content from the user fixation point and the color of the primary color image, at least one of the primary color images being , The resolution is different from the primary color image of another color.

さらに他の実施形態によると、ディスプレイシステムは、第1の画像ストリームおよび第2の画像ストリームを提供するための空間光変調器を備える、画像源と、視認アセンブリと、画像源と通信する、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、種々の動作を実施させる命令を記憶する、1つ以上のコンピュータ記憶媒体とを備える。視認アセンブリは、第1および第2の画像ストリームを画像源から受信し、第1および第2の画像ストリームをユーザに出力するための光誘導光学系を備える。1つ以上のプロセッサによって実施される種々の動作は、画像源に、第1の画像ストリームを視認アセンブリに出力させるステップであって、第1の画像ストリームによって形成される画像は、第1のピクセル密度を有する、ステップと、画像源に、第2の画像ストリームを視認アセンブリに出力させるステップとを含む。第2の画像ストリームによって形成される画像は、第1のピクセル密度を上回る、第2のピクセル密度を有し、第1の画像ストリームによって提供される画像の部分に対応する。第2の画像ストリームによって形成される画像は、第1の画像ストリームによって提供される視野の対応する部分を覆う。   According to yet another embodiment, a display system is in communication with an image source, a viewing assembly, and an image source comprising a spatial light modulator for providing a first image stream and a second image stream. One or more processors and one or more computer storage media that store instructions that, when executed by one or more processors, cause the one or more processors to perform various operations. The viewing assembly comprises light guiding optics for receiving the first and second image streams from the image source and outputting the first and second image streams to a user. Various operations performed by the one or more processors include causing an image source to output a first image stream to a viewing assembly, wherein the image formed by the first image stream is a first pixel. Having a density, and causing the image source to output a second image stream to a viewing assembly. The image formed by the second image stream has a second pixel density that is greater than the first pixel density and corresponds to the portion of the image provided by the first image stream. The image formed by the second image stream covers the corresponding portion of the field of view provided by the first image stream.

いくつかの実施形態によると、ウェアラブルディスプレイシステムは、円偏光掌性依存拡大率を伴う、無限焦点拡大レンズを含んでもよい。無限焦点拡大レンズは、第1の固定焦点距離レンズ要素と、入射円偏光の第1の掌性のための正の屈折力を呈し、かつ入射円偏光の第2の掌性のための負の屈折力を呈する、第1の幾何学的位相レンズと、第2の幾何学的位相レンズとを含んでもよい。   According to some embodiments, the wearable display system may include an afocal magnifying lens with circular polarization handedness dependent magnification. The afocal magnifying lens exhibits positive refractive power for the first fixed focal length lens element and the first handedness of the incident circularly polarized light and negative power for the second handedness of the incident circularly polarized light. It may include a first geometric phase lens and a second geometric phase lens that exhibit refractive power.

いくつかの他の実施形態によると、ウェアラブル画像プロジェクタのための光学サブシステムは、偏光選択的反射体と、偏光選択的反射体を中心として位置付けられる、4つのレンズ要素のセットとを含んでもよい。   According to some other embodiments, an optical subsystem for a wearable image projector may include a polarization selective reflector and a set of four lens elements centered on the polarization selective reflector. ..

いくつかの他の実施形態による、画像をユーザの眼に投影させるためのディスプレイシステムは、接眼レンズを含んでもよい。接眼レンズは、導波管と、導波管に光学的に結合される、内部結合格子とを含んでもよい。ディスプレイシステムはさらに、第1の画像ストリームと関連付けられた第1の光ビームを投影するように構成される、第1の画像源を含んでもよい。第1の画像ストリームは、第1の視野を有してもよく、内部結合格子の第1の表面上に入射してもよい。第1の光ビームの一部は、第1の画像ストリームをユーザの眼に対して固定位置に位置付けるために、内部結合格子によって、導波管の中に結合されてもよい。ディスプレイシステムはさらに、第2の画像ストリームと関連付けられた第2の光ビームを投影するように構成される、第2の画像源を含んでもよい。第2の画像ストリームは、第1の視野より狭い、第2の視野を有してもよい。ディスプレイシステムはさらに、走査ミラーを含んでもよく、第2の光ビームが、その第1の表面と反対の内部結合格子の第2の表面上に入射するように、第2の光ビームを受光し、反射させるように構成されてもよい。第2の光ビームの一部は、内部結合格子によって、導波管の中に結合されてもよい。ディスプレイシステムはさらに、ユーザの眼の移動を検出するように構成される、眼視線トラッカと、眼視線トラッカおよび走査ミラーと通信する、制御回路とを含んでもよい。制御回路は、第2の画像ストリームの位置が、ユーザの眼の検出された移動に従って移動されるように、走査ミラーを位置付けるように構成されてもよい。   A display system for projecting an image onto a user's eye, according to some other embodiments, may include an eyepiece. The eyepiece may include a waveguide and an incoupling grating that is optically coupled to the waveguide. The display system may further include a first image source configured to project a first light beam associated with the first image stream. The first image stream may have a first field of view and may be incident on the first surface of the incoupling grating. A portion of the first light beam may be coupled into the waveguide by an incoupling grating to position the first image stream in a fixed position relative to the user's eye. The display system may further include a second image source configured to project a second light beam associated with the second image stream. The second image stream may have a second field of view that is narrower than the first field of view. The display system may further include a scanning mirror for receiving the second light beam such that the second light beam is incident on the second surface of the incoupling grating opposite the first surface thereof. , May be configured to reflect. A portion of the second light beam may be coupled into the waveguide by an incoupling grating. The display system may further include an eye gaze tracker configured to detect movement of the user's eye and a control circuit in communication with the eye gaze tracker and the scanning mirror. The control circuit may be configured to position the scanning mirror such that the position of the second image stream is moved according to the detected movement of the user's eye.

いくつかの他の実施形態によると、画像をユーザの眼に投影させるためのディスプレイシステムは、接眼レンズを含んでもよい。接眼レンズは、導波管と、導波管に光学的に結合される、内部結合格子とを含んでもよい。ディスプレイシステムはさらに、第1の偏光における第1の画像ストリームと関連付けられた第1の光ビームと、第1の偏光と異なる第2の偏光における第2の画像ストリームと関連付けられた第2の光ビームとを投影するように構成される、画像源を含んでもよい。第1の画像ストリームは、第1の視野を有してもよく、第2の画像ストリームは、第1の視野より狭い、第2の視野を有してもよい。第1の光ビームおよび第2の光ビームは、多重化されてもよい。ディスプレイシステムはさらに、第1の光ビームを受光し、第1の光学経路に沿って反射させ、第2の光ビームを受光し、第2の光学経路に沿って透過させるように構成される、偏光ビームスプリッタを含んでもよい。ディスプレイシステムはさらに、第1の光学経路に沿って位置付けられ、第1の光ビームが、内部結合格子の第1の表面上に入射するように、第1の光ビームを受光し、反射させるように構成される、第1の光学反射体を含んでもよい。第1の光ビームの一部は、第1の画像ストリームをユーザの眼に対して固定位置に位置付けるために、内部結合格子によって、導波管の中に結合されてもよい。ディスプレイシステムはさらに、第2の光学経路に沿って配置され、第2の光ビームを受光し、反射させるように構成される、走査ミラーと、走査ミラーの下流の第2の光学経路に沿って位置付けられる、第2の光学反射体とを含んでもよい。第2の光学反射体は、第2の光ビームが、その第1の表面と反対の内部結合格子の第2の表面上に入射するように、第2の光ビームを受光し、反射させるように構成されてもよい。第2の光ビームの一部は、内部結合格子によって、導波管の中に結合されてもよい。ディスプレイシステムはさらに、ユーザの眼の移動を検出するように構成される、眼視線トラッカと、眼視線トラッカおよび走査ミラーと通信する、制御回路とを含んでもよい。制御回路は、第2の画像ストリームの位置が、ユーザの眼の検出された移動に従って移動されるように、走査ミラーを位置付けるように構成されてもよい。   According to some other embodiments, a display system for projecting an image on a user's eye may include an eyepiece. The eyepiece may include a waveguide and an incoupling grating that is optically coupled to the waveguide. The display system further includes a first light beam associated with the first image stream at the first polarization and a second light beam associated with the second image stream at a second polarization different from the first polarization. An image source may be included that is configured to project the beam. The first image stream may have a first field of view and the second image stream may have a second field of view that is narrower than the first field of view. The first light beam and the second light beam may be multiplexed. The display system is further configured to receive the first light beam, reflect it along the first optical path, receive the second light beam, and transmit it along the second optical path. A polarizing beam splitter may be included. The display system is further positioned along the first optical path to receive and reflect the first light beam such that the first light beam is incident on the first surface of the incoupling grating. The first optical reflector may be included. A portion of the first light beam may be coupled into the waveguide by an incoupling grating to position the first image stream in a fixed position relative to the user's eye. The display system further includes a scan mirror disposed along the second optical path and configured to receive and reflect the second light beam, and a second optical path downstream of the scan mirror. A second optical reflector that is positioned. The second optical reflector receives and reflects the second light beam such that the second light beam is incident on the second surface of the incoupling grating opposite the first surface thereof. May be configured as. A portion of the second light beam may be coupled into the waveguide by an incoupling grating. The display system may further include an eye gaze tracker configured to detect movement of the user's eye and a control circuit in communication with the eye gaze tracker and the scanning mirror. The control circuit may be configured to position the scanning mirror such that the position of the second image stream is moved according to the detected movement of the user's eye.

いくつかの他の実施形態によると、画像をユーザの眼に投影させるためのディスプレイシステムは、導波管と、第1の偏光における第1の画像ストリームと関連付けられた第1の光ビームと、第1の偏光と異なる第2の偏光における第2の画像ストリームと関連付けられた第2の光ビームとを投影するように構成される、画像源とを含んでもよい。第1の画像ストリームは、第1の視野を有してもよく、第2の画像ストリームは、第1の視野より狭い、第2の視野を有する。第1の光ビームおよび第2の光ビームは、多重化されてもよい。ディスプレイシステムはさらに、第1の光ビームを受光し、第1の光学経路に沿って反射させ、第2の光ビームを受光し、第2の光学経路に沿って透過させるように構成される、偏光ビームスプリッタを含んでもよい。ディスプレイシステムはさらに、第1の光学経路に沿って、導波管の第1の表面に隣接して位置付けられる、第1の内部結合プリズムを含んでもよい。第1の内部結合プリズムは、第1の画像ストリームをユーザの眼に対して固定位置に位置付けるために、第1の光ビームの一部を導波管の中に結合するように構成されてもよい。ディスプレイシステムはさらに、第2の光学経路に沿って配置され、第2の光ビームを受光し、反射させるように構成される、走査ミラーを含んでもよい。ディスプレイシステムはさらに、走査ミラーの下流の第2の光学経路に沿って、導波管の第1の表面と反対の導波管の第2の表面に隣接して位置付けられる、第2の内部結合プリズムを含んでもよい。第2の内部結合プリズムは、第2の光ビームの一部を導波管の中に結合するように構成されてもよい。ディスプレイシステムはさらに、ユーザの眼の移動を検出するように構成される、眼視線トラッカと、眼視線トラッカおよび走査ミラーと通信する、制御回路とを含んでもよい。制御回路は、第2の画像ストリームの位置が、ユーザの眼の検出された移動に従って移動されるように、走査ミラーを位置付けるように構成されてもよい。   According to some other embodiments, a display system for projecting an image onto a user's eye comprises a waveguide and a first light beam associated with a first image stream in a first polarization. An image source configured to project a second light stream associated with a second image stream in a second polarization different from the first polarization. The first image stream may have a first field of view and the second image stream has a second field of view that is narrower than the first field of view. The first light beam and the second light beam may be multiplexed. The display system is further configured to receive the first light beam, reflect it along the first optical path, receive the second light beam, and transmit it along the second optical path. A polarizing beam splitter may be included. The display system may further include a first incoupling prism positioned along the first optical path and adjacent the first surface of the waveguide. The first incoupling prism may also be configured to couple a portion of the first light beam into the waveguide to position the first image stream in a fixed position relative to the user's eye. Good. The display system may further include a scanning mirror disposed along the second optical path and configured to receive and reflect the second light beam. The display system further includes a second incoupling positioned adjacent the second surface of the waveguide opposite the first surface of the waveguide along a second optical path downstream of the scanning mirror. It may include a prism. The second incoupling prism may be configured to couple a portion of the second light beam into the waveguide. The display system may further include an eye gaze tracker configured to detect movement of the user's eye, and control circuitry in communication with the eye gaze tracker and the scanning mirror. The control circuit may be configured to position the scanning mirror such that the position of the second image stream is moved according to the detected movement of the user's eye.

ある実施形態によると、画像をユーザの眼に投影させるためのディスプレイシステムは、画像源を含む。画像源は、第1の偏光における第1の画像ストリームと関連付けられた第1の光ビームと、第1の偏光と異なる第2の偏光における第2の画像ストリームと関連付けられた第2の光ビームとを投影するように構成されることができる。第1の画像ストリームは、第1の視野を有することができ、第2の画像ストリームは、第1の視野より狭い、第2の視野を有することができる。第1の光ビームおよび第2の光ビームは、多重化されることができる。ディスプレイシステムはさらに、偏光ビームスプリッタを含むことができる。偏光ビームスプリッタは、第1の画像ストリームをユーザの眼に対して固定位置に位置付けるために、第1の光ビームを受光し、第1の光学経路に沿って視認アセンブリに向かって反射させ、第2の光ビームを受光し、第2の光学経路に沿って透過させるように構成されることができる。ディスプレイシステムはさらに、第2の光学経路に沿って配置され、第2の光ビームを受光し、視認アセンブリに向かって反射させるように構成される、走査するミラーを含むことができる。ディスプレイシステムはさらに、ユーザの眼の移動を検出するように構成される、眼視線トラッカと、眼視線トラッカおよび走査ミラーと通信する、制御回路とを含むことができる。制御回路は、第2の画像ストリームの位置が、ユーザの眼の検出された移動に従って移動されるように、走査ミラーを位置付けるように構成されることができる。   According to one embodiment, a display system for projecting an image onto a user's eye includes an image source. The image source includes a first light beam associated with a first image stream in a first polarization and a second light beam associated with a second image stream in a second polarization different from the first polarization. And can be configured to project. The first image stream may have a first field of view and the second image stream may have a second field of view that is narrower than the first field of view. The first light beam and the second light beam can be multiplexed. The display system can further include a polarizing beamsplitter. The polarizing beam splitter receives the first light beam and reflects it toward the viewing assembly along a first optical path to position the first image stream in a fixed position relative to the user's eye. It may be configured to receive two light beams and transmit them along the second optical path. The display system may further include a scanning mirror disposed along the second optical path and configured to receive the second light beam and reflect it toward the viewing assembly. The display system can further include an eye gaze tracker configured to detect movement of the user's eye, and control circuitry in communication with the eye gaze tracker and the scanning mirror. The control circuit may be configured to position the scanning mirror such that the position of the second image stream is moved according to the detected movement of the user's eye.

別の実施形態によると、画像をユーザの眼に投影させるためのディスプレイシステムは、画像源を含む。画像源は、第1の画像ストリームと関連付けられた第1の光ビームと、第2の画像ストリームと関連付けられた第2の光ビームとを投影するように構成されることができる。第1の画像ストリームは、第1の視野を有することができ、第2の画像ストリームは、第1の視野より狭い、第2の視野を有することができる。第1の光ビームおよび第2の光ビームは、多重化されることができる。ディスプレイシステムはさらに、第1の画像ストリームおよび第2の画像ストリームを投影させるために、第1の光ビームおよび第2の光ビームを受光し、視認アセンブリに向かって反射させるように構成される、走査ミラーを含むことができる。ディスプレイシステムはさらに、ユーザの眼の移動を検出するように構成される、眼視線トラッカと、眼視線トラッカおよび走査ミラーと通信する、制御回路とを含むことができる。制御回路は、第1の画像ストリームの位置および第2の画像ストリームの位置が、ユーザの眼の検出された移動に従って移動されるように、走査ミラーを位置付けるように構成されることができる。ディスプレイシステムはさらに、第1の光ビームおよび第2の光ビームの光学経路内に配置される、切替可能光学要素を含むことができる。切替可能光学要素は、第1の光ビームが第1の角度拡大率によって角度的に拡大されるように、第1の光ビームのための第1の状態に切り替えられ、第2の光ビームが第1の角度拡大率未満である第2の角度拡大率によって角度的に増幅されるように、第2の光ビームのための第2の状態に切り替えられるように構成されることができる。   According to another embodiment, a display system for projecting an image onto a user's eye includes an image source. The image source may be configured to project a first light beam associated with the first image stream and a second light beam associated with the second image stream. The first image stream may have a first field of view and the second image stream may have a second field of view that is narrower than the first field of view. The first light beam and the second light beam can be multiplexed. The display system is further configured to receive the first light beam and the second light beam and project them toward the viewing assembly to project the first image stream and the second image stream. A scanning mirror can be included. The display system can further include an eye gaze tracker configured to detect movement of the user's eye, and control circuitry in communication with the eye gaze tracker and the scanning mirror. The control circuit can be configured to position the scanning mirror such that the position of the first image stream and the position of the second image stream are moved according to the detected movement of the user's eye. The display system can further include switchable optical elements disposed in the optical paths of the first light beam and the second light beam. The switchable optical element is switched to a first state for the first light beam such that the first light beam is angularly expanded by the first angular expansion factor, and the second light beam is It can be configured to be switched to a second state for the second light beam so as to be angularly amplified by a second angular magnification that is less than the first angular magnification.

図1は、ARデバイスを通した拡張現実(AR)のユーザのビューを図示する。FIG. 1 illustrates a view of an augmented reality (AR) user through an AR device.

図2は、ユーザのための3次元画像をシミュレートするための従来のディスプレイシステムを図示する。FIG. 2 illustrates a conventional display system for simulating a three-dimensional image for a user.

図3A−3Cは、曲率半径と焦点半径との間の関係を図示する。3A-3C illustrate the relationship between radius of curvature and radius of focus.

図4Aは、ヒト視覚系の遠近調節(accmmodation)−輻輳・開散運動(vergence)応答の表現を図示する。FIG. 4A illustrates a representation of the accumodation-convergence / divergence movement response of the human visual system.

図4Bは、一対のユーザの眼の異なる遠近調節状態および輻輳・開散運動状態の実施例を図示する。FIG. 4B illustrates an example of different accommodation and vergence / divergence movements of the eyes of a pair of users.

図4Cは、ディスプレイシステムを介してコンテンツを視認するユーザの上下図の表現の実施例を図示する。FIG. 4C illustrates an example of a top and bottom representation of a user viewing content via a display system.

図4Dは、ディスプレイシステムを介してコンテンツを視認するユーザの上下図の表現の別の実施例を図示する。FIG. 4D illustrates another example of a top and bottom representation of a user viewing content via a display system.

図5は、波面発散を修正することによって3次元画像をシミュレートするためのアプローチの側面を図示する。FIG. 5 illustrates aspects of an approach for simulating a three-dimensional image by modifying the wavefront divergence.

図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。FIG. 6 illustrates an example of a waveguide stack for outputting image information to a user.

図7は、導波管によって出力された出射ビームの実施例を図示する。FIG. 7 illustrates an embodiment of the exit beam output by the waveguide.

図8は、スタックされた導波管アセンブリの実施例を図示し、各深度平面は、複数の異なる原色を使用して形成される画像を含む。FIG. 8 illustrates an example of stacked waveguide assemblies, each depth plane containing an image formed using a plurality of different primary colors.

図9Aは、それぞれ、内部結合光学要素を含む、スタックされた導波管のセットの実施例の断面側面図を図示する。FIG. 9A illustrates a cross-sectional side view of an example of a set of stacked waveguides, each including an incoupling optical element.

図9Bは、図9Aの複数のスタックされた導波管の実施例の斜視図を図示する。FIG. 9B illustrates a perspective view of the multiple stacked waveguide embodiment of FIG. 9A.

図9Cは、図9Aおよび9Bの複数のスタックされた導波管の実施例の上下平面図を図示する。FIG. 9C illustrates a top-down plan view of the multiple stacked waveguide embodiment of FIGS. 9A and 9B.

図9Dは、ウェアラブルディスプレイシステムの実施例を図示する。FIG. 9D illustrates an example of a wearable display system.

図10Aは、ディスプレイシステムを介してコンテンツを視認するユーザの上下図の表現の実施例を図示する。FIG. 10A illustrates an example of a top-bottom representation of a user viewing content via a display system.

図10Bは、ディスプレイシステムを介してコンテンツを視認するユーザの上下図の表現の別の実施例を図示する。FIG. 10B illustrates another example of a top-bottom representation of a user viewing content via a display system.

図10Cは、ディスプレイシステムを介してコンテンツを視認するユーザの上下図の表現のさらに別の実施例を図示する。FIG. 10C illustrates yet another example of a top-bottom representation of a user viewing content via a display system.

図10Dは、例示的ディスプレイシステムのブロック図である。FIG. 10D is a block diagram of an exemplary display system.

図11A1は、3次元固視点追跡に基づく、異なる分解能調節ゾーン内の分解能における調節の上下図の表現の実施例を図示する。FIG. 11A1 illustrates an example of a top-down representation of adjustments at resolutions within different resolution adjustment zones based on 3D fixation tracking.

図11A2は、ゾーンのサイズおよび数が変化するにつれた異なる時間における、分解能調節ゾーンの上下図の表現の実施例を図示する。FIG. 11A2 illustrates an example of a top and bottom representation of the resolution adjustment zone at different times as the size and number of zones change.

図11Bは、図11A1の分解能調節ゾーンの一部の3次元表現の実施例を図示する。FIG. 11B illustrates an example of a three-dimensional representation of a portion of the resolution adjustment zone of FIG. 11A1.

図11Cは、分解能調節ゾーンのための構成の別の実施例を図示する。FIG. 11C illustrates another example of a configuration for the resolution adjustment zone.

図11Dは、図11Cの分解能調節ゾーンの3次元表現の実施例を図示する。FIG. 11D illustrates an example of a three-dimensional representation of the resolution adjustment zone of FIG. 11C.

図11Eは、図11Cの分解能調節ゾーンの3次元表現の別の実施例を図示する。11E illustrates another example of a three-dimensional representation of the resolution adjustment zone of FIG. 11C.

図12A−12Cは、3次元固視点との近接度に従ってコンテンツの分解能を調節するためのプロセスの実施例の略図を示す。12A-12C show schematic diagrams of an example of a process for adjusting the resolution of content according to proximity to a 3D fixation point. 図12A−12Cは、3次元固視点との近接度に従ってコンテンツの分解能を調節するためのプロセスの実施例の略図を示す。12A-12C show schematic diagrams of an example of a process for adjusting the resolution of content according to proximity to a 3D fixation point. 図12A−12Cは、3次元固視点との近接度に従ってコンテンツの分解能を調節するためのプロセスの実施例の略図を示す。12A-12C show schematic diagrams of an example of a process for adjusting the resolution of content according to proximity with a three-dimensional fixation point.

図13は、ユーザの通視線と整合される複数の仮想オブジェクトを視認するユーザの表現の実施例を図示する。FIG. 13 illustrates an example of a representation of a user viewing a plurality of virtual objects that are aligned with the user's line of sight.

図14は、ユーザの視線との角度近接度に基づいて仮想コンテンツを調節するためのプロセスの実施例の略図である。FIG. 14 is a schematic diagram of an example of a process for adjusting virtual content based on angular proximity to a user's line of sight.

図15は、ユーザの眼の網膜の表現の実施例を図示する。FIG. 15 illustrates an example of a representation of the retina of the user's eye.

図16は、図15の網膜を横断した分解能および桿体および錐体密度の実施例を図式的に図示する。FIG. 16 schematically illustrates an example of trans-retinal resolution and rod and cone density of FIG.

図17は、瞳孔サイズとユーザの眼上に入射する光の量との間の関係の実施例を図式的に図示する。FIG. 17 diagrammatically illustrates an example of the relationship between pupil size and the amount of light incident on the user's eye.

図18は、ユーザの眼上に入射する光の量に基づいて仮想コンテンツを調節するためのプロセスの実施例の略図である。FIG. 18 is a schematic diagram of an example of a process for adjusting virtual content based on the amount of light incident on a user's eye.

図19は、眼上に入射する光の量が変化するにつれたユーザの眼によって検出可能な分解能の変化の実施例を図式的に図示する。FIG. 19 diagrammatically illustrates an example of the change in resolution detectable by the user's eye as the amount of light incident on the eye changes.

図20は、異なるレベルの照明における異なる色の光に対する眼の感度における差異の実施例を図式的に図示する。FIG. 20 schematically illustrates an example of the difference in the sensitivity of the eye to different colors of light at different levels of illumination.

図21は、複数の原色画像を使用して形成される仮想コンテンツを調節するためのプロセスの実施例の略図であって、分解能調節は、原色画像の色に基づいて行われる。FIG. 21 is a schematic diagram of an embodiment of a process for adjusting virtual content formed using multiple primary color images, where resolution adjustment is based on the colors of the primary color images.

図22A−22Cは、ユーザの眼上に入射する光の量が減少するにつれて変化するコントラスト感度の実施例を図示する。22A-22C illustrate examples of contrast sensitivity that change as the amount of light incident on a user's eye decreases.

図23は、ユーザの眼の視神経および周辺盲点の表現の実施例を図示する。FIG. 23 illustrates an example representation of the optic nerve and peripheral blind spots of the user's eye.

図24は、ヒトの眼に関する例示的単眼視野を示す。FIG. 24 shows an exemplary monocular field of view for the human eye.

図25Aは、仮想コンテンツをユーザに提供するように構成される、例示的ウェアラブルディスプレイデバイスを示す。FIG. 25A illustrates an exemplary wearable display device configured to provide virtual content to a user.

図25Bは、拡張現実システムを描写する、ブロック図である。FIG. 25B is a block diagram depicting an augmented reality system.

図25Cは、デジタルまたは仮想画像を視認者に提示するために使用され得る、視認光学アセンブリ(VOA)内の光経路を図式的に図示する。FIG. 25C schematically illustrates a light path within a viewing optics assembly (VOA) that may be used to present a digital or virtual image to a viewer.

図26A−26Dは、使用されることになる例示的レンダリング視点および2つの例示的眼配向毎にARシステム内で生産されることになるライトフィールドを図示する。26A-26D illustrate exemplary rendering viewpoints that will be used and the light fields that will be produced in the AR system for every two exemplary eye orientations. 図26A−26Dは、使用されることになる例示的レンダリング視点および2つの例示的眼配向毎にARシステム内で生産されることになるライトフィールドを図示する。26A-26D illustrate exemplary rendering viewpoints that will be used and the light fields that will be produced in the AR system for every two exemplary eye orientations. 図26A−26Dは、使用されることになる例示的レンダリング視点および2つの例示的眼配向毎にARシステム内で生産されることになるライトフィールドを図示する。26A-26D illustrate exemplary rendering viewpoints that will be used and the light fields that will be produced in the AR system for every two exemplary eye orientations. 図26A−26Dは、使用されることになる例示的レンダリング視点および2つの例示的眼配向毎にARシステム内で生産されることになるライトフィールドを図示する。26A-26D illustrate exemplary rendering viewpoints that will be used and the light fields that will be produced in the AR system for every two exemplary eye orientations.

図26E−26Fは、ユーザに提示され得る画像の例示的構成を図式的に図示する。26E-26F schematically illustrate exemplary configurations of images that may be presented to a user. 図26E−26Fは、ユーザに提示され得る画像の例示的構成を図式的に図示する。26E-26F schematically illustrate exemplary configurations of images that may be presented to a user.

図26G−26Hは、ユーザに提示され得る画像の例示的構成を図式的に図示する。26G-26H schematically illustrate exemplary configurations of images that may be presented to a user. 図26G−26Hは、ユーザに提示され得る画像の例示的構成を図式的に図示する。26G-26H schematically illustrate exemplary configurations of images that may be presented to a user.

図27は、図25に示されるようなウェアラブルディスプレイデバイス内のディスプレイのうちの1つ上にオーバーレイされる、図24に示されるような視野および動眼視野を図示する。FIG. 27 illustrates a visual field and an ocular visual field as shown in FIG. 24 overlaid on one of the displays in a wearable display device as shown in FIG.

図28A−28Bは、図26A−26Dに説明される原理のうちのいくつかを図示する。28A-28B illustrate some of the principles described in FIGS. 26A-26D. 図28A−28Bは、図26A−26Dに説明される原理のうちのいくつかを図示する。28A-28B illustrate some of the principles described in FIGS. 26A-26D.

図28C−28Dは、ユーザに提示され得るいくつかの例示的画像を図示する。28C-28D illustrate some example images that may be presented to a user. 図28C−28Dは、ユーザに提示され得るいくつかの例示的画像を図示する。28C-28D illustrate some example images that may be presented to a user.

図28Eは、例示的高FOV低分解能画像フレームを図示する。FIG. 28E illustrates an exemplary high FOV low resolution image frame.

図28Fは、例示的低FOV高分解能画像フレームを図示する。FIG. 28F illustrates an exemplary low FOV high resolution image frame.

図29Aは、ディスプレイシステムの簡略化されたブロック図を示す。FIG. 29A shows a simplified block diagram of a display system.

図29Bは、拡張現実(AR)システムの断面図を図式的に図示する。FIG. 29B schematically illustrates a cross-sectional view of an augmented reality (AR) system.

図30A−30Bは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。30A-30B schematically illustrate a display system for projecting an image stream onto a user's eye. 図30A−30Bは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。30A-30B schematically illustrate a display system for projecting an image stream onto a user's eye.

図30Cは、拡張現実(AR)システムの断面図を図式的に図示する。FIG. 30C schematically illustrates a cross-sectional view of an augmented reality (AR) system.

図30Dは、ディスプレイシステムの簡略化されたブロック図を示す。FIG. 30D shows a simplified block diagram of a display system.

図31Aは、図30A−30Bに図示されるディスプレイシステム内の第1の中継レンズアセンブリの動作原理を図式的に図示する。FIG. 31A schematically illustrates the operating principle of the first relay lens assembly in the display system illustrated in FIGS. 30A-30B.

図31Bは、図30A−30Bに図示されるディスプレイシステム内の第2の中継レンズアセンブリの動作原理を図式的に図示する。31B schematically illustrates the operating principle of the second relay lens assembly in the display system illustrated in FIGS. 30A-30B.

図31C−31Dは、ディスプレイシステムを図式的に図示する。31C-31D schematically illustrate a display system. 図31C−31Dは、ディスプレイシステムを図式的に図示する。31C-31D schematically illustrate a display system.

図32A−32Cは、ディスプレイシステムを図式的に図示する。32A-32C schematically illustrate a display system. 図32A−32Cは、ディスプレイシステムを図式的に図示する。32A-32C schematically illustrate a display system. 図32A−32Cは、ディスプレイシステムを図式的に図示する。32A-32C schematically illustrate a display system.

図33A−33Bは、ディスプレイシステムを図式的に図示する。33A-33B schematically illustrate a display system. 図33A−33Bは、ディスプレイシステムを図式的に図示する。33A-33B schematically illustrate a display system.

図34A−34Bは、ディスプレイシステムを図式的に図示する。34A-34B schematically illustrate a display system. 図34A−34Bは、ディスプレイシステムを図式的に図示する。34A-34B schematically illustrate a display system.

図35は、ディスプレイシステムを図式的に図示する。FIG. 35 schematically illustrates a display system.

図36Aは、拡張現実接眼ディスプレイシステムを図式的に図示する。FIG. 36A schematically illustrates an augmented reality eyepiece display system.

図36Bは、別の拡張現実接眼ディスプレイシステムを図式的に図示する。FIG. 36B schematically illustrates another augmented reality eyepiece display system.

図37Aは、2倍率無限焦点拡大レンズの略図である。FIG. 37A is a schematic diagram of a 2x afocal magnifying lens.

図37Bは、二重焦点拡大無限焦点拡大レンズの略図である。FIG. 37B is a schematic diagram of a bifocal magnifying afocal magnifying lens.

図38A−38Bは、ユーザに提示され得る画像の例示的構成を図式的に図示する。38A-38B schematically illustrate exemplary configurations of images that may be presented to a user.

図39A−39Bは、ユーザに提示され得るいくつかの例示的画像を図示する。39A-39B illustrate some example images that may be presented to a user. 図39A−39Bは、ユーザに提示され得るいくつかの例示的画像を図示する。39A-39B illustrate some example images that may be presented to a user.

図40A−40Dは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。40A-40D schematically illustrate a display system for projecting an image stream onto a user's eye. 図40A−40Dは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。40A-40D schematically illustrate a display system for projecting an image stream onto a user's eye. 図40A−40Dは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。40A-40D schematically illustrate a display system for projecting an image stream onto a user's eye. 図40A−40Dは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。40A-40D schematically illustrate a display system for projecting an image stream onto a user's eye.

図41A−41Dは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。41A-41D schematically illustrate a display system for projecting an image stream onto a user's eye. 図41A−41Dは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。41A-41D schematically illustrate a display system for projecting an image stream onto a user's eye. 図41A−41Dは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。41A-41D schematically illustrate a display system for projecting an image stream onto a user's eye. 図41A−41Dは、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。41A-41D schematically illustrate a display system for projecting an image stream onto a user's eye.

図42は、時分割多重化される、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームのための例示的フレーム構造を図示する。FIG. 42 illustrates an exemplary frame structure for high FOV low resolution image streams and low FOV high resolution image streams that are time division multiplexed.

図43は、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。FIG. 43 schematically illustrates a display system for projecting an image stream onto a user's eye.

図44は、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。FIG. 44 schematically illustrates a display system for projecting an image stream onto a user's eye.

図45は、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。FIG. 45 schematically illustrates a display system for projecting an image stream onto a user's eye.

図46は、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。FIG. 46 schematically illustrates a display system for projecting an image stream onto a user's eye.

図47は、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。FIG. 47 schematically illustrates a display system for projecting an image stream onto a user's eye.

図48は、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。FIG. 48 schematically illustrates a display system for projecting an image stream onto a user's eye.

図49は、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。FIG. 49 schematically illustrates a display system for projecting an image stream onto a user's eye.

図50は、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。FIG. 50 schematically illustrates a display system for projecting an image stream onto a user's eye, according to some embodiments.

図51は、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。FIG. 51 schematically illustrates a display system for projecting an image stream onto a user's eye, according to some embodiments.

図52A−52Bは、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。52A-52B schematically illustrate a display system for projecting an image stream onto a user's eye, according to some embodiments. 図52A−52Bは、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。52A-52B schematically illustrate a display system for projecting an image stream onto a user's eye, according to some embodiments.

図53A−53Bは、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。53A-53B schematically illustrate a display system for projecting an image stream onto a user's eye, according to some embodiments. 図53A−53Bは、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステムを図式的に図示する。53A-53B schematically illustrate a display system for projecting an image stream onto a user's eye, according to some embodiments.

拡張および仮想ディスプレイシステムのための仮想コンテンツをレンダリングすることは、算出上集約的である。とりわけ、算出強度は、望ましくないことに、大量のメモリを使用し、長待ち時間を生じさせ得、および/または高コストおよび/または高エネルギー消費を有し得る、強力な処理ユニットの使用を要求し得る。   Rendering virtual content for augmentation and virtual display systems is computationally intensive. Among other things, calculated strength undesirably requires the use of powerful processing units that can use large amounts of memory, can result in long latencies, and / or can have high costs and / or high energy consumption. You can

いくつかの実施形態では、方法およびシステムは、ユーザの眼の固視点から離れた場所に位置付けられる仮想コンテンツの分解能を低減させることによって、メモリおよび処理時間等の算出リソースを節約する。例えば、システムは、ユーザの眼の固視点またはそれに近接する仮想コンテンツを相対的高(例えば、最高)分解能でレンダリングし得る一方、固視点から離れた仮想コンテンツに関しては、1つ以上のより低い分解能を利用する。仮想コンテンツは、仮想コンテンツを複数の異なる深度(例えば、2つ以上の深度平面等の複数の異なる深度平面)上に表示し得る、ディスプレイシステムによって提示され、分解能における低減は、好ましくは、少なくともz−軸に沿って生じ、z−軸は、深度軸(ユーザから離れた距離に対応する)である。いくつかの実施形態では、分解能低減は、z−軸とxおよびy軸の一方または両方に沿って生じ、x−軸は、側方軸であって、y−軸は、垂直軸である。   In some embodiments, the methods and systems save computing resources such as memory and processing time by reducing the resolution of virtual content that is located away from the fixation point of the user's eye. For example, the system may render virtual content at or near the fixation point of the user's eye at a relatively high (eg, highest) resolution, while for virtual content away from the fixation point, one or more lower resolutions. To use. The virtual content is presented by a display system that may display the virtual content on multiple different depths (eg, multiple different depth planes, such as two or more depth planes), the reduction in resolution preferably being at least z. Occurring along the-axis, the z-axis is the depth axis (corresponding to the distance away from the user). In some embodiments, the resolution reduction occurs along the z-axis and one or both of the x and y axes, where the x-axis is the lateral axis and the y-axis is the vertical axis.

仮想コンテンツの適切な分解能を決定することは、3次元空間内のユーザの眼の固視点を決定するステップを含み得る。例えば、固視点は、その上にユーザの眼が固視される、ユーザの視野内のx、y、z座標であり得る。ディスプレイシステムは、分解能における差異を有する仮想オブジェクトを提示するように構成されてもよく、分解能は、仮想オブジェクトと固視点の近接度の減少に伴って減少し、換言すると、分解能は、固視点からの距離の増加に伴って減少する。   Determining an appropriate resolution of the virtual content may include determining a fixation point of the user's eye in the three-dimensional space. For example, the fixation point may be the x, y, z coordinates within the user's field of view over which the user's eye is fixed. The display system may be configured to present virtual objects that have a difference in resolution, with the resolution decreasing with decreasing proximity of the virtual object and the fixation point, in other words, the resolution from the fixation point. Decreases with increasing distance.

本明細書に議論されるように、ディスプレイシステムは、仮想オブジェクトをディスプレイシステムのディスプレイ錐台内に提示してもよく、仮想オブジェクトは、異なる深度平面上に提示されることが可能である。いくつかの実施形態では、ディスプレイ錐台は、ディスプレイシステムによって提供される視野であって、それにわたって、ディスプレイシステムは、仮想コンテンツをディスプレイシステムのユーザに提示するように構成される。ディスプレイシステムは、仮想コンテンツ(例えば、仮想オブジェクト、グラフィック、テキスト等)を提示し得る、1つ以上の導波管を含む、頭部搭載型ディスプレイシステムであってもよく、1つ以上の導波管は、異なる波面発散および/または異なる深度平面に対応する(例えば、ユーザからの特定の距離に対応する)異なる双眼相違を伴う光を出力するように構成される。各眼は、関連付けられた1つ以上の導波管を有してもよいことを理解されたい。異なる波面発散および/または異なる双眼相違を使用して、ディスプレイシステムは、第1の仮想オブジェクトをユーザの視野内の第1の深度に位置するように現れさせる一方、第2の仮想オブジェクトをユーザの視野内の第2の深度に位置するように現れさせ得る。いくつかの実施形態では、固視点の深度平面またはその近接深度平面が、決定され得、他の深度平面上のコンテンツの分解能は、それらの深度平面から固視点が配置される深度平面までの距離に基づいて低減され得る。本明細書の仮想コンテンツの深度(z−軸上のユーザからの仮想コンテンツの距離)の言及は、ユーザに見られることが意図されるような仮想コンテンツの見掛け深度を指すことを理解されたい。いくつかの実施形態では、仮想オブジェクトの深度は、仮想オブジェクトのものに類似する波面発散および/または双眼相違を有する、実オブジェクトのユーザからの距離と理解され得る。   As discussed herein, the display system may present virtual objects within the display frustum of the display system, and virtual objects may be presented on different depth planes. In some embodiments, the display frustum is the field of view provided by the display system over which the display system is configured to present virtual content to a user of the display system. The display system may be a head-mounted display system that includes one or more waveguides capable of presenting virtual content (eg, virtual objects, graphics, text, etc.) and one or more waveguides. The tube is configured to output light with different binocular differences corresponding to different wavefront divergence and / or different depth planes (eg, corresponding to a particular distance from the user). It should be appreciated that each eye may have one or more waveguides associated with it. Using different wavefront divergence and / or different binocular divergence, the display system causes the first virtual object to appear to be located at the first depth within the user's field of view while the second virtual object is displayed by the user. It may appear to be located at a second depth within the field of view. In some embodiments, the depth plane of the fixation point or its adjacent depth plane may be determined, and the resolution of the content on other depth planes is the distance from those depth planes to the depth plane where the fixation point is located. Can be reduced based on It should be understood that references herein to virtual content depth (distance of virtual content from the user on the z-axis) refers to the apparent depth of the virtual content as it is intended to be viewed by the user. In some embodiments, the depth of a virtual object may be understood as the distance from the user of a real object that has a wavefront divergence and / or binocular dissimilarity to that of the virtual object.

仮想オブジェクトと固視点の近接度は、種々の測定によって決定され得、その非限定的実施例は、固視点と仮想オブジェクトとの間の距離の決定、固視点によって占有される分解能調節ゾーンに対する仮想オブジェクトによって占有される分解能調節ゾーンの決定(ユーザの視野が、下記に説明されるように、分解能調節ゾーンに細分割される、実施形態において)、および仮想オブジェクトとユーザの固視点の角度近接度の決定を含むことを理解されたい。近接度はまた、上記の技法の組み合わせを使用して決定されてもよい。例えば、第1のゾーン(仮想オブジェクトが位置する)と第2のゾーン(固視点が位置する)の距離および/または角度近接度が、近接度を決定するために使用されてもよい。これらの種々の測定は、下記にさらに議論される。   The proximity of the virtual object to the fixation point may be determined by various measurements, non-limiting examples of which include determining the distance between the fixation point and the virtual object, virtual to the resolution adjustment zone occupied by the fixation point. Determining the resolution adjustment zone occupied by the object (in an embodiment, the user's field of view is subdivided into resolution adjustment zones, as described below), and the angular proximity of the virtual object and the user's fixation point. Should be understood to include the decision of Proximity may also be determined using a combination of the above techniques. For example, the distance and / or angular proximity of the first zone (where the virtual object is located) and the second zone (where the fixation point is located) may be used to determine the proximity. These various measurements are discussed further below.

いくつかの実施形態では、固視点を決定するステップは、ユーザの眼の固視点を予期し、予期される固視点を仮想コンテンツの分解能を決定するための固視点として利用するステップを含んでもよい。例えば、ディスプレイシステムは、ユーザの眼がそのコンテンツを固視するであろう予期に伴って、特定のコンテンツを比較的に高分解能でレンダリングしてもよい。実施例として、ヒト視覚系は、場面の急変(例えば、突然の運動、輝度の変化等)に敏感であり得ることを理解されたい。いくつかの実施形態では、ディスプレイシステムは、仮想コンテンツが、ユーザの眼にそれを固視させるであろうタイプ(例えば、他の仮想および実オブジェクトが静止している場面内に運動を伴う)であることを決定し、次いで、ユーザの眼が、続いて、その仮想コンテンツに合焦するであろう予期に伴って、その仮想コンテンツを高分解能でレンダリングしてもよい。   In some embodiments, determining the fixation point may include anticipating the fixation point of the user's eye and utilizing the expected fixation point as the fixation point for determining the resolution of the virtual content. .. For example, the display system may render the particular content at a relatively high resolution, with the expectation that the user's eyes will gaze at the content. As an example, it should be appreciated that the human visual system may be sensitive to sudden changes in the scene (eg, sudden movements, changes in brightness, etc.). In some embodiments, the display system is of a type in which virtual content will cause the user's eyes to fixate it (eg, with motion in a scene where other virtual and real objects are stationary). If so, then the user's eyes may then render the virtual content in high resolution, with the expectation that it will be in focus.

上記に述べられたように、いくつかの実施形態では、決定された固視点から仮想オブジェクトまでの距離は、3次元内に延在する距離に対応し得る。実施例として、決定された固視点とユーザから同一深度(例えば、同一深度平面)上に位置するが、固視点から水平にまたは縦方向に位置する、第1の仮想オブジェクトも同様に、第2の仮想オブジェクトが決定された固視点からより遠い深度(例えば、より遠い深度平面)に位置するため、分解能において同様に低減されてもよい。その結果、異なる分解能は、固視点からの異なる距離と関連付けられ得る。   As mentioned above, in some embodiments, the determined fixation point-to-virtual object distance may correspond to a distance extending in three dimensions. As an example, the first virtual object, which is located at the same depth (for example, the same depth plane) from the determined fixation point and the user, but which is positioned horizontally or vertically from the fixation point, is also the second virtual object. Since the virtual objects of are located at a greater depth (eg, a farther depth plane) from the determined fixation point, they may be similarly reduced in resolution. As a result, different resolutions may be associated with different distances from the fixation point.

いくつかの実施形態では、ユーザの周囲の環境は、空間の体積(本明細書では、分解能調節ゾーンとも称される)に分割されてもよく、同一分解能調節ゾーン内の仮想オブジェクトの分解能は、類似する。分解能調節ゾーンは、本明細書に説明されるように、恣意的3次元形状、例えば、立方体、または他の3次元多角形形状、または湾曲3次元形状を有してもよい。いくつかの実施形態では、全ての分解能調節ゾーンは、類似形状、例えば、直方体または球状を有する。いくつかの他の実施形態では、異なる分解能調節ゾーンは、異なる形状またはサイズを有してもよい(例えば、体積の形状および/またはサイズは、固視点からの距離に伴って変化し得る)。   In some embodiments, the environment around the user may be divided into a volume of space (also referred to herein as a resolution adjustment zone), and the resolution of virtual objects within the same resolution adjustment zone is Similar. The resolution adjustment zone may have an arbitrary three-dimensional shape, such as a cube, or other three-dimensional polygonal shape, or a curved three-dimensional shape, as described herein. In some embodiments, all resolution adjustment zones have a similar shape, eg, a cuboid or a sphere. In some other embodiments, different resolution adjustment zones may have different shapes or sizes (eg, the shape and / or size of the volume may change with distance from the fixation point).

いくつかの実施形態では、分解能調節ゾーンは、ユーザの視野の一部である。例えば、ユーザの視野は、分解能調節ゾーンを形成する空間の体積に分離され得る。いくつかの実施形態では、各深度平面は、1つ以上の連続的空間の体積、すなわち、1つ以上の分解能調節ゾーンに細分割され得る。いくつかの実施形態では、各分解能調節ゾーンは、ユーザからの深度の特定の範囲(例えば、深度平面値+/−ある分散であって、分散の実施例は、0.66dpt、0.50dpt、0.33dpt、または0.25dptを含む)と、特定の側方および特定の垂直距離とを包含し得る。決定された固視点と同一分解能調節ゾーン内に位置する仮想オブジェクトは、高(例えば、完全)分解能で提示(例えば、レンダリング)され得る一方、固視点の分解能調節ゾーン外の空間の体積に位置する仮想オブジェクトは、固視点の空間の体積からの体積の距離に従って、より低い分解能でレンダリングされ得る。いくつかの実施形態では、各分解能調節ゾーンは、特定の分解能(例えば、完全分解能に対する分解能における特定の低減)を割り当てられ得、所与のゾーン内に入る仮想コンテンツは、そのゾーンのための関連付けられた分解能でレンダリングされ得る。いくつかの実施形態では、ある体積と固視点によって占有される体積との間の距離が、決定され得、分解能は、本距離に基づいて設定され得る。   In some embodiments, the resolution adjustment zone is part of the user's field of view. For example, the user's field of view may be separated into volumes of space that form a resolution adjustment zone. In some embodiments, each depth plane may be subdivided into one or more continuous spatial volumes, ie, one or more resolution adjustment zones. In some embodiments, each resolution adjustment zone is a specific range of depth from the user (eg, a depth plane value +/− some variance, examples of variance being 0.66 dpt, 0.50 dpt, (Including 0.33 dpt, or 0.25 dpt) and certain lateral and certain vertical distances. A virtual object located in the same resolution adjustment zone as the determined fixation point can be presented (eg, rendered) with high (eg, full) resolution, while being located in a volume of space outside the fixation adjustment zone. The virtual object may be rendered at a lower resolution according to the distance of the volume from the volume of the space of the fixation point. In some embodiments, each resolution adjustment zone may be assigned a particular resolution (eg, a particular reduction in resolution over full resolution), and virtual content falling within a given zone is associated with that zone. Can be rendered with a given resolution. In some embodiments, the distance between a volume and the volume occupied by the fixation point can be determined and the resolution can be set based on this distance.

有利には、ユーザの視野を分割するために利用される、分解能調節ゾーンの数およびサイズは、ユーザの決定された固視点における信頼度に従って修正され得る。例えば、各空間の体積と関連付けられたサイズは、ユーザの視線が3次元空間内の精密な点上に輻輳していることの信頼度に基づいて増加または減少されてもよい。固視点における信頼度が、高い場合、ディスプレイシステムは、あるコンパクト分解能調節ゾーン内の仮想オブジェクトのみを相対的高分解能(固視点を含む、コンパクト分解能調節ゾーン)で提示し得る一方、他の仮想オブジェクトの分解能を低減させ、したがって、処理電力を節約する。しかしながら、信頼度が、低い場合、ディスプレイシステムは、各空間の体積がより多数の仮想オブジェクトを固視点の空間の体積内に包含するように、各空間の体積のサイズを増加させ得る(例えば、体積の全体的数を低減させる)。体積のサイズおよび形状は、ディスプレイシステムの生産の間、例えば、固視点を決定するためのシステムにおいて予期される公差に基づいて、固定されてもよい、および/またはユーザの特性、ユーザの環境、および/または固視点を決定するためのシステムのための公差を変更するソフトウェアの変更に応じて、現場で調節または設定されてもよいことを理解されたい。   Advantageously, the number and size of resolution adjustment zones utilized to segment the user's field of view can be modified according to the confidence in the user's determined fixation point. For example, the size associated with the volume of each space may be increased or decreased based on the confidence that the user's line of sight is converging on a precise point in three-dimensional space. If the reliability at the fixation point is high, the display system may present only virtual objects within a certain compact resolution adjustment zone at a relatively high resolution (compact resolution adjustment zone including the fixation point) while other virtual objects. , And thus save processing power. However, if the confidence is low, the display system may increase the size of the volume of each space so that the volume of each space contains more virtual objects within the volume of the fixation space (eg, Reduce the overall number of volumes). The size and shape of the volume may be fixed during the production of the display system, for example based on the tolerances expected in the system for determining the fixation point, and / or the characteristics of the user, the environment of the user, It should be appreciated that it may be adjusted or set in the field in response to changes in software that change the tolerances for the system for determining the fixation point and / or fixation.

分解能に対するユーザの感度は、固視点からの距離に伴って減少し得ることを理解されたい。その結果、完全分解能コンテンツが固視点に提示されることを確実にすることによって、および固視点が位置する場所に関する誤差の許容差を可能にすることによって、分解能における低減の知覚能力が、低減または排除され、それによって、そのような高分解能ディスプレイのためのコンテンツを提示するために典型的に要求される算出リソースを利用せずに、高分解能ディスプレイの知覚を提供し得る。   It should be appreciated that the user's sensitivity to resolution may decrease with distance from the fixation point. As a result, the perceptual ability of the reduction in resolution is reduced or reduced by ensuring that full resolution content is presented to the fixation point, and by allowing for error tolerances as to where the fixation point is located. It may be eliminated, thereby providing the perception of high resolution displays without utilizing the computational resources typically required to present content for such high resolution displays.

いくつかの実施形態では、仮想オブジェクトと固視点の近接度は、仮想オブジェクトとユーザの視線の角度近接度に基づいて決定されてもよく、仮想オブジェクトの分解能は、角度近接度が減少するにつれて減少し得る。いくつかの実施形態では、これは、ユーザから異なる深度に位置する仮想オブジェクトが類似分解能で提示される結果をもたらし得る。例えば、ユーザの決定された固視点に対応する場所における第1の仮想オブジェクトは、第2の仮想オブジェクトの正面に位置し得る(例えば、深度がユーザにより近い)。第2の仮想オブジェクトは、ユーザの視線に沿ってあって、したがって、同様に、ユーザの眼が分解能の変化に最も敏感なユーザの中心窩上に入るであろうため、第2の仮想オブジェクトは、随意に、第1の仮想オブジェクトと類似(例えば、同一)分解能で提示されてもよい。随意に、第2の仮想オブジェクトは、分解能において低減され、第2の仮想オブジェクトがユーザからより遠い(例えば、より遠い深度平面上に位置する)ことを表し得る、ぼかしプロセスを介して、さらに調節されてもよい(例えば、ガウスぼかしカーネルが、第2の仮想オブジェクトとともに畳み込まれてもよい)。   In some embodiments, the proximity of the virtual object and the fixation point may be determined based on the angular proximity of the virtual object and the user's line of sight, and the resolution of the virtual object decreases as the angular proximity decreases. You can In some embodiments, this may result in virtual objects located at different depths being presented to the user at similar resolutions. For example, the first virtual object at a location corresponding to the user's determined fixation point may be located in front of the second virtual object (eg, the depth is closer to the user). The second virtual object is along the line of sight of the user, and thus similarly the user's eye will be on the fovea of the user most sensitive to the change in resolution, so the second virtual object is , May optionally be presented at a resolution similar (eg, the same) as the first virtual object. Optionally, the second virtual object is reduced in resolution and may be further adjusted via a blurring process, which may represent that the second virtual object is further from the user (eg, located on a farther depth plane). (Eg, a Gaussian blur kernel may be convolved with the second virtual object).

分解能における低減は、仮想コンテンツがディスプレイシステムによって提示される方法に基づいて変動し得る。いくつかの実施形態では、本明細書では可変焦点ディスプレイシステムと称される、第1の例示的ディスプレイシステムは、仮想コンテンツを異なる深度平面上に提示し得、全てのコンテンツ(例えば、仮想オブジェクト)は、例えば、ユーザに提示されるフレーム毎に、一度に、同一深度平面に提示される(例えば、同一導波管を介して)。すなわち、可変焦点ディスプレイシステムは、単一深度平面(例えば、ユーザの固視点に基づいて、複数の深度平面から選択される、または特定の提示される仮想オブジェクトの深度に基づいて選択される)を一度に利用し、コンテンツを提示してもよく、深度平面を後続フレーム内で変化させてもよい(例えば、異なる深度平面を選択する)。いくつかの他の実施形態では、本明細書では多焦点ディスプレイシステムと称される、第2の例示的ディスプレイシステムは、仮想コンテンツを異なる深度平面上に提示してもよく、コンテンツは、同時に、複数の深度平面上に表示される。本明細書にさらに説明されるであろうように、可変焦点ディスプレイシステムは、随意に、単一フレームバッファを利用してもよく、第2の仮想オブジェクトをぼかすステップに関する上記の実施例に関して、第2の仮想オブジェクトは、単一フレームバッファからのユーザへの提示に先立ってぼかされてもよい。対照的に、多焦点ディスプレイシステムは、第2の仮想オブジェクトを、第1の仮想オブジェクトからより遠い深度上(例えば、より遠い深度平面上)に、随意に、低減された分解能において提示してもよく、第2の仮想オブジェクトは、ぼかされているようにユーザに現れ得る(例えば、第2の仮想オブジェクトは、さらなる処理を伴わずに、ユーザの眼の自然物理学に基づいてぼかされるであろう)。   The reduction in resolution may vary based on how the virtual content is presented by the display system. In some embodiments, a first exemplary display system, referred to herein as a variable focus display system, may present virtual content on different depth planes and all content (eg, virtual objects). Are presented in the same depth plane at one time, for example, every frame presented to the user (eg, via the same waveguide). That is, a variable focus display system may have a single depth plane (eg, selected from multiple depth planes based on the user's fixation point, or based on the depth of a particular presented virtual object). It may be used at one time to present content, and the depth plane may change in subsequent frames (eg, select a different depth plane). In some other embodiments, a second exemplary display system, referred to herein as a multifocal display system, may present virtual content on different depth planes, the content being simultaneously Displayed on multiple depth planes. As will be further described herein, the variable focus display system may optionally utilize a single frame buffer, with respect to the above example of blurring the second virtual object The two virtual objects may be blurred prior to presentation to the user from the single frame buffer. In contrast, a multifocal display system may also present a second virtual object on a depth farther from the first virtual object (eg, on a depth plane further away), optionally at a reduced resolution. Often, the second virtual object may appear to the user as being blurred (eg, the second virtual object may be blurred based on the natural physics of the user's eye without further processing. Ah).

本明細書に開示されるように、ディスプレイシステムは、決定された固視点またはその近傍における仮想オブジェクトを比較的に高(例えば、完全)分解能で提示してもよく、固視点からより遠い仮想オブジェクトを低減された分解能で提示してもよい。好ましくは、比較的に高分解能は、ユーザの視野内の仮想オブジェクトの提示のための最高分解能である。比較的に高分解能は、ディスプレイシステムの最大分解能、ユーザ選択可能分解能、仮想オブジェクトを提示する具体的コンピューティングハードウェアに基づく分解能等であってもよい。   As disclosed herein, a display system may present virtual objects at or near a determined fixation point with relatively high (eg, full) resolution, and virtual objects further from the fixation point. May be presented with reduced resolution. Preferably, the relatively high resolution is the highest resolution for the presentation of virtual objects within the user's field of view. The relatively high resolution may be the maximum resolution of the display system, a user-selectable resolution, a resolution based on the specific computing hardware presenting the virtual object, etc.

仮想オブジェクトの分解能を調節するステップは、仮想オブジェクトの提示の品質を改変するための仮想オブジェクトに対する任意の修正を含んでもよいことを理解されたい。そのような修正は、グラフィック処理ユニット(GPU)のグラフィックパイプライン内の1つ以上の点における品質を調節するステップを含め、仮想オブジェクトのポリゴンカウントを調節するステップ、仮想オブジェクトを生成するために利用されるプリミティブを調節するステップ(例えば、プリミティブの形状を調節するステップ、例えば、プリミティブを三角形メッシュから四辺形メッシュに調節するステップ等)、仮想オブジェクト上で実施される動作を調節するステップ(例えば、シェーダ動作)、テクスチャ情報を調節するステップ、色分解能、または深度を調節するステップ、レンダリングサイクルの数またはフレームレートを調節するステップ等のうちの1つ以上のものを含んでもよい。   It should be appreciated that adjusting the resolution of the virtual object may include any modification to the virtual object to alter the presentation quality of the virtual object. Such modifications include adjusting the polygon count of the virtual object, including adjusting the quality at one or more points in the graphics pipeline of the graphics processing unit (GPU), utilized to generate the virtual object. Adjusting the primitives that are performed (eg, adjusting the shape of the primitives, eg, adjusting the primitives from a triangular mesh to a quadrilateral mesh, etc.), adjusting the operations performed on the virtual object (eg, Shader operation), adjusting texture information, adjusting color resolution or depth, adjusting the number of rendering cycles or frame rate, and the like.

いくつかの実施形態では、xおよびy−軸上では、固視点から離れる仮想コンテンツの分解能の変化は、概して、ユーザの眼の網膜内の光受容体の分布の変化を追跡し得る。例えば、世界および仮想コンテンツのビューは、網膜の異なる部分がユーザの視野の異なる部分にマッピングされ得るように、網膜上に結像されてもよいことを理解されたい。有利には、ユーザの視野を横断した仮想コンテンツの分解能は、概して、網膜を横断した対応する光受容体(桿体または錐体)の密度を追跡し得る。いくつかの実施形態では、固視点から離れた分解能低減は、概して、網膜を横断した錐体の密度における低減を追跡し得る。いくつかの他の実施形態では、固視点から離れた分解能低減は、概して、網膜を横断した桿体の密度における低減を追跡し得る。いくつかの実施形態では、固視点から離れた分解能低減の傾向は、網膜を横断した桿体および/または錐体の密度における低減の傾向の±50%、±30%、±20%、または±10%以内であり得る。   In some embodiments, on the x and y-axes, changes in resolution of virtual content away from the fixation point may generally track changes in distribution of photoreceptors within the retina of the user's eye. For example, it should be appreciated that views of the world and virtual content may be imaged on the retina such that different parts of the retina may be mapped to different parts of the user's field of view. Advantageously, the resolution of virtual content across the user's field of view may generally track the density of corresponding photoreceptors (rods or cones) across the retina. In some embodiments, the resolution reduction away from the fixation point may generally track the reduction in cone density across the retina. In some other embodiments, resolution reduction away from fixation may generally track reductions in rod density across the retina. In some embodiments, the tendency for resolution reduction away from the fixation point is ± 50%, ± 30%, ± 20%, or ± of the tendency for reduction in rod and / or cone density across the retina. It can be within 10%.

桿体および錐体は、異なるレベルの入射において活性である。例えば、錐体は、比較的に明るい条件下で活性である一方、桿体は、比較的に低光量条件下で活性である。その結果、分解能における低減が、概して、網膜を横断した桿体または錐体の密度を追跡する、いくつかの実施形態では、ディスプレイシステムは、網膜上に入射する光の量を決定するように構成されてもよい。本光の量に基づいて、分解能における適切な調節が、行われ得る。例えば、分解能における低減は、概して、低光量条件下における網膜を横断した桿体の密度の変化を追跡し得る一方、分解能における低減は、概して、明るい条件下における錐体の密度の変化を追跡し得る。その結果、いくつかの実施形態では、ディスプレイシステムは、網膜上に入射する光の量に基づいて、画像分解能における低減のプロファイルを変化させるように構成されてもよい。   Rods and cones are active at different levels of incidence. For example, cones are active under relatively bright conditions, while rods are active under relatively low light conditions. As a result, the reduction in resolution generally tracks the density of rods or cones across the retina, and in some embodiments, the display system is configured to determine the amount of light incident on the retina. May be done. Based on the amount of this light, an appropriate adjustment in resolution can be made. For example, reductions in resolution generally track changes in rod density across the retina under low light conditions, while reductions in resolution generally track changes in cone density under bright conditions. obtain. As a result, in some embodiments, the display system may be configured to change the profile of reduction in image resolution based on the amount of light incident on the retina.

微細な詳細を分解するヒトの眼の能力は、網膜内の桿体または錐体の密度に正比例しない場合があることを理解されたい。いくつかの実施形態では、ユーザの視野を横断した仮想コンテンツの分解能の変化は、概して、微細な詳細を分解する眼の能力の変化を追跡する。上記に述べられたように、仮想コンテンツの分解能の変化の進度は、網膜に到達する光の量に伴って変動し得る。   It is to be appreciated that the human eye's ability to resolve subtle details may not be directly proportional to the density of rods or cones within the retina. In some embodiments, changes in resolution of virtual content across the user's field of view generally track changes in the ability of the eye to resolve fine details. As mentioned above, the rate of change of resolution of virtual content may vary with the amount of light reaching the retina.

いくつかの実施形態では、網膜に到達する光の量は、ディスプレイデバイス上に搭載されるセンサ上に入射する周囲光の量を検出することによって決定されてもよい。いくつかの実施形態では、網膜に到達する光の量を決定するステップはまた、ディスプレイデバイスによってユーザに出力された光の量によって決定するステップを含んでもよい。さらに他の実施形態では、網膜に到達する光の量は、ユーザの眼を結像し、瞳孔サイズを決定することによって決定されてもよい。瞳孔サイズは、網膜に到達する光の量に関連するため、瞳孔サイズを決定することは、網膜に到達する光の量が外挿されることを可能にする。   In some embodiments, the amount of light reaching the retina may be determined by detecting the amount of ambient light incident on a sensor mounted on the display device. In some embodiments, determining the amount of light reaching the retina may also include determining the amount of light output by the display device to the user. In yet another embodiment, the amount of light reaching the retina may be determined by imaging the user's eyes and determining the pupil size. Since pupil size is related to the amount of light reaching the retina, determining pupil size allows the amount of light reaching the retina to be extrapolated.

フルカラー仮想コンテンツは、全体として、フルカラーの知覚を提供する、複数の原色画像によって形成され得ることを理解されたい。ヒトの眼は、異なる波長または光の色に対して異なる感度を有し得る。いくつかの実施形態では、固視点との近接度に基づいて変化することに加え、仮想コンテンツの分解能の変化は、ディスプレイシステムによって提示される原色画像の色に基づいて変動し得る。例えば、原色画像が、赤色、緑色、および青色画像を備える場合、緑色原色画像は、青色原色画像より高い分解能を有し得る、赤色原色画像より高い分解能を有し得る。いくつかの実施形態では、異なるレベルの入射光における異なる色に対する眼の感度の変化を考慮するために、網膜に到達する光の量が、決定されてもよく、所与の原色画像のための分解能調節もまた、網膜に到達する光の量の決定に基づいて変動し得る。   It should be appreciated that full-color virtual content may be formed by a plurality of primary color images that together provide a full-color perception. The human eye can have different sensitivities to different wavelengths or colors of light. In some embodiments, in addition to changing based on proximity to the fixation point, the change in resolution of the virtual content may change based on the color of the primary color image presented by the display system. For example, if the primary color images comprise red, green, and blue images, the green primary color image may have higher resolution than the red primary color image, which may have higher resolution than the blue primary color image. In some embodiments, the amount of light reaching the retina may be determined to account for changes in the eye's sensitivity to different colors at different levels of incident light, for a given primary color image. Resolution adjustments can also vary based on determining the amount of light reaching the retina.

眼のコントラスト感度もまた、網膜上に入射する光の量に基づいて変動し得ることを理解されたい。いくつかの実施形態では、仮想コンテンツ内のコントラストにおける階調のサイズまたは総数は、網膜に到達する光の量に基づいて変動し得る。いくつかの実施形態では、仮想コンテンツを形成する画像のコントラスト比は、網膜上に入射する光の量に基づいて変動し得、コントラスト比は、光の量の減少に伴って減少する。   It should be appreciated that the contrast sensitivity of the eye may also vary based on the amount of light incident on the retina. In some embodiments, the size or total number of tones in the contrast within the virtual content may vary based on the amount of light reaching the retina. In some embodiments, the contrast ratio of the image forming the virtual content may vary based on the amount of light incident on the retina, the contrast ratio decreasing with decreasing amount of light.

いくつかの実施形態では、ユーザの視野のある部分は、任意の仮想コンテンツを提供されない場合がある。例えば、ディスプレイシステムは、所与の眼の視神経および/または周辺盲点によって生じる盲点内には、仮想コンテンツを提供しないように構成されてもよい。   In some embodiments, some portion of the user's field of view may not be provided with any virtual content. For example, the display system may be configured to not provide virtual content within the blind spots caused by the optic nerve and / or peripheral blind spots of a given eye.

本明細書に議論されるように、ディスプレイシステムは、高分解能コンテンツをユーザの視野の一部内に、より低い分解能コンテンツをユーザの視野の別の部分内に表示するように構成されてもよい。高分解能コンテンツは、より低い分解能コンテンツより高いピクセル密度を有し得ることを理解されたい。いくつかの環境では、ディスプレイシステムは、高分解能および低分解能画像を効果的に重畳することによって、そのような高および低分解能コンテンツを提供するように構成されてもよい。例えば、システムは、視野全体に及ぶ低分解能画像を表示し、次いで、視野の小部分に及ぶ高分解能画像を表示してもよく、高分解能画像は、低分解能画像の対応する部分と同一場所に位置する。高および低分解能画像は、光を適切な角度に出力し、それらの画像が占有する視野の量を決定する、異なる光学系を通してルーティングされ得る。   As discussed herein, a display system may be configured to display high resolution content in one portion of the user's field of view and lower resolution content in another portion of the user's field of view. It should be appreciated that high resolution content may have a higher pixel density than lower resolution content. In some circumstances, the display system may be configured to provide such high and low resolution content by effectively superimposing high resolution and low resolution images. For example, the system may display a low resolution image that spans the entire field of view and then displays a high resolution image that spans a small portion of the field of view, where the high resolution image is co-located with the corresponding portion of the low resolution image. To position. High and low resolution images can be routed through different optics that output light at appropriate angles and determine the amount of field of view they occupy.

いくつかの実施形態では、単一空間光変調器(SLM)が、光を画像情報でエンコードするために使用されてもよく、ビームスプリッタまたは光学スイッチが、SLMからの単一光流を2つのストリームに分割するために使用されてもよく、1つのストリームは、低分解能画像のための光学系を通して伝搬し、第2のストリームは、高分解能画像のための光学系を通して伝搬する。いくつかの他の実施形態では、画像情報でエンコードされた光の偏光は、選択的に切り替えられ、異なる偏光の光のための異なる角度拡大率を効果的に提供し、それによって、高および低分解能画像を提供する、光学系を通して通過されてもよい。   In some embodiments, a single spatial light modulator (SLM) may be used to encode the light with image information and a beam splitter or optical switch may be used to split the single light stream from the SLM into two. It may be used to split into streams, one stream propagating through the optics for the low resolution image and a second stream propagating through the optics for the high resolution image. In some other embodiments, the polarization of the light encoded with the image information is selectively switched, effectively providing different angular magnification factors for light of different polarizations, thereby increasing high and low. It may be passed through an optical system that provides a resolution image.

有利には、本明細書に開示される種々の実施形態は、コンテンツをディスプレイシステム上に提供するための処理電力の要件を低減させる。処理電力のより大きい割当は、ユーザの3次元固視点に近接する仮想オブジェクトに費やされ得る一方、より遠い仮想オブジェクトのための処理電力は、低減され得るため、ディスプレイシステムのための全体的要求される処理電力は、低減され、したがって、処理コンポーネントのサイズ、処理コンポーネントによって生成された熱、およびディスプレイシステムのためのエネルギー要件(例えば、ディスプレイシステムは、随意に、バッテリ給電され、より低い容量バッテリを要求し、および/または所与のバッテリのために、より長い持続時間にわたって動作し得る)のうちの1つ以上のものを低減させ得る。したがって、本明細書に説明される実施形態は、拡張または仮想現実ディスプレイシステムから生じる技術的問題に対処する。加えて、説明される技法は、ユーザへの提示に応じて、グラフィカルコンテンツが、基本的に異なるように提示される(例えば、分解能が修正される)一方、グラフィカルコンテンツが、同一であるようにユーザに現れ得るように、グラフィカルコンテンツを操作する。したがって、ディスプレイシステムは、ユーザがその周囲環境を見渡すにつれて、グラフィカルコンテンツを変換しながら、視覚的忠実性を保ち、処理電力を節約する。   Advantageously, the various embodiments disclosed herein reduce the processing power requirements for providing content on a display system. A larger allocation of processing power may be spent on virtual objects closer to the user's 3D fixation point, while processing power for distant virtual objects may be reduced, thus reducing the overall demand for the display system. Processing power is reduced, and thus the size of the processing component, the heat generated by the processing component, and the energy requirements for the display system (eg, the display system is optionally battery powered and a lower capacity battery). , And / or may operate for longer durations for a given battery). Thus, the embodiments described herein address the technical issues arising from augmented or virtual reality display systems. In addition, the described techniques ensure that the graphical content is presented differently (eg, the resolution is modified) in response to the presentation to the user, while the graphical content is the same. Manipulate the graphical content as it appears to the user. Thus, the display system preserves visual fidelity and saves processing power while translating graphical content as the user overlooks its surroundings.

ディスプレイシステムは、拡張現実ディスプレイシステムまたは仮想現実ディスプレイシステムの一部であってもよいことを理解されたい。一実施例として、ディスプレイシステムのディスプレイは、透過性であってもよく、ユーザが、画像、ビデオ、相互作用等の形態で仮想コンテンツをユーザに提供しながら、実世界を視認することを可能にしてもよい。別の実施例として、ディスプレイシステムは、ユーザの実世界のビューをブロックしてもよく、仮想現実画像、ビデオ、相互作用等が、ユーザに提示されてもよい。   It should be appreciated that the display system may be part of an augmented reality display system or a virtual reality display system. As an example, the display of the display system may be transparent, allowing the user to see the real world while providing virtual content to the user in the form of images, videos, interactions, etc. You may. As another example, the display system may block the user's real-world view and virtual reality images, videos, interactions, etc. may be presented to the user.

ここで、図面を参照するが、同様の参照番号は、全体を通して同様の部分を指す。   Referring now to the drawings, like reference numbers refer to like parts throughout.

図2は、ユーザのための3次元画像をシミュレートするための従来のディスプレイシステムを図示する。ユーザの眼は、離間されており、空間内の実オブジェクトを見ているとき、各眼は、オブジェクトの若干異なるビューを有し、オブジェクトの画像を各眼の網膜上の異なる場所に形成し得ることを理解されたい。これは、両眼視差と称され得、ヒト視覚系によって、深度の知覚を提供するために利用され得る。従来のディスプレイシステムは、仮想オブジェクトが所望の深度における実オブジェクトであるように各眼によって見えるであろう仮想オブジェクトのビューに対応する、眼210、220毎に1つの同一仮想オブジェクトの若干異なるビューを伴う2つの明確に異なる画像190、200を提示することによって、両眼視差をシミュレートする。これらの画像は、ユーザの視覚系が深度の知覚を導出するために解釈し得る、両眼キューを提供する。   FIG. 2 illustrates a conventional display system for simulating a three-dimensional image for a user. The user's eyes are spaced and when looking at a real object in space, each eye has a slightly different view of the object and may form an image of the object at different locations on the retina of each eye. Please understand that. This may be referred to as binocular parallax and may be utilized by the human visual system to provide depth perception. Conventional display systems provide slightly different views of the same virtual object for each eye 210, 220, corresponding to the view of the virtual object that each virtual eye would see as if it were a real object at the desired depth. Binocular disparity is simulated by presenting two distinctly different images 190, 200 with it. These images provide binocular cues that the user's visual system can interpret to derive the perception of depth.

図2を継続して参照すると、画像190、200は、z−軸上で距離230だけ眼210、220から離間される。z−軸は、その眼が視認者の直前の光学無限遠におけるオブジェクトを固視している状態の視認者の光学軸と平行である。画像190、200は、平坦であって、眼210、220から固定距離にある。それぞれ、眼210、220に提示される画像内の仮想オブジェクトの若干異なるビューに基づいて、眼は、必然的に、オブジェクトの画像が眼のそれぞれの網膜上の対応する点に来て、単一両眼視を維持するように回転し得る。本回転は、眼210、220のそれぞれの視線を仮想オブジェクトが存在するように知覚される空間内の点上に収束させ得る。その結果、3次元画像の提供は、従来、ユーザの眼210、220の輻輳・開散運動を操作し得、ヒト視覚系が深度の知覚を提供するように解釈する、両眼キューを提供することを伴う。   With continued reference to FIG. 2, the images 190, 200 are separated from the eyes 210, 220 by a distance 230 on the z-axis. The z-axis is parallel to the optical axis of the viewer with his eyes gazing at the object at optical infinity immediately in front of him. The images 190, 200 are flat and at a fixed distance from the eyes 210, 220. Based on the slightly different views of the virtual object in the images presented to the eyes 210, 220, respectively, the eye will inevitably come to a single point when the image of the object comes to the corresponding point on each retina of the eye. It can rotate to maintain binocular vision. This rotation may focus the line of sight of each eye 210, 220 onto a point in space where the virtual object is perceived as being present. As a result, the provision of three-dimensional images conventionally provides binocular cues that can manipulate the vergence and divergence movements of the user's eyes 210, 220, which the human visual system interprets to provide depth perception. With that.

しかしながら、深度の現実的かつ快適な知覚の生成は、困難である。眼からの異なる距離におけるオブジェクトからの光は、異なる発散量を伴う波面を有することを理解されたい。図3A−3Cは、距離と光線の発散との間の関係を図示する。オブジェクトと眼210との間の距離は、減少距離R1、R2、およびR3の順序で表される。図3A−3Cに示されるように、光線は、オブジェクトまでの距離が減少するにつれてより発散する。逆に言えば、距離が増加するにつれて、光線は、よりコリメートされる。換言すると、点(オブジェクトまたはオブジェクトの一部)によって生成されるライトフィールドは、点がユーザの眼から離れている距離の関数である、球状波面曲率を有すると言え得る。単眼210のみが、例証を明確にするために、図3A−3Cおよび本明細書の種々の他の図に図示されるが、眼210に関する議論は、視認者の両眼210および220に適用され得る。   However, generating a realistic and comfortable perception of depth is difficult. It should be appreciated that light from an object at different distances from the eye will have wavefronts with different amounts of divergence. 3A-3C illustrate the relationship between distance and ray divergence. The distance between the object and the eye 210 is represented in the order of decreasing distances R1, R2, and R3. As shown in FIGS. 3A-3C, the rays become more divergent as the distance to the object decreases. Conversely, as the distance increases, the rays become more collimated. In other words, the light field produced by a point (object or part of an object) can be said to have a spherical wavefront curvature, which is a function of the distance the point is away from the user's eye. Although only monocular 210 is illustrated in FIGS. 3A-3C and various other figures herein for clarity of illustration, the discussion regarding eye 210 applies to both eyes 210 and 220 of the viewer. obtain.

図3A−3Cを継続して参照すると、視認者の眼が固視しているオブジェクトからの光は、異なる波面発散度を有し得る。異なる波面発散量に起因して、光は、眼の水晶体によって異なるように集束され得、これは、ひいては、水晶体に、異なる形状をとり、集束された画像を眼の網膜上に形成することを要求し得る。集束された画像が、網膜上に形成されない場合、結果として生じる網膜ぼかしは、集束された画像が網膜上に形成されるまで、眼の水晶体の形状に変化を生じさせる、遠近調節のためのキューとして作用する。例えば、遠近調節のためのキューは、眼の水晶体を囲繞する毛様筋の弛緩または収縮をトリガし、それによって、レンズを保持する低靱帯に印加される力を変調し、したがって、固視されている画像の網膜ぼかしが排除または最小限にされるまで、眼の水晶体の形状を変化させ、それによって、固視されているオブジェクトの集束された画像を眼の網膜(例えば、中心窩)上に形成し得る。眼の水晶体が形状を変化させるプロセスは、遠近調節と称され得、固視されているオブジェクトの集束された画像を眼の網膜(例えば、中心窩)上に形成するために要求される眼の水晶体の形状は、遠近調節状態と称され得る。   With continued reference to FIGS. 3A-3C, light from an object that the viewer's eye is gazing at may have different wavefront divergence. Due to the different wavefront divergence, light can be focused differently by the crystalline lens of the eye, which in turn causes the crystalline lens to assume different shapes and form a focused image on the retina of the eye. You can request. If the focused image is not formed on the retina, the resulting retinal blurring is a cue for accommodation that causes a change in the shape of the lens of the eye until a focused image is formed on the retina. Acts as. For example, accommodation cues trigger relaxation or contraction of the ciliary muscles that surround the lens of the eye, thereby modulating the force applied to the low ligament that holds the lens, and thus the fixation. Changing the shape of the lens of the eye until the retinal blurring of the image being viewed is eliminated or minimized, thereby providing a focused image of the object being fixed on the retina of the eye (eg, the fovea). Can be formed into. The process by which the lens of the eye changes shape can be referred to as accommodation and is required to form a focused image of the object being fixed on the retina (eg, fovea) of the eye. The shape of the lens may be referred to as accommodation.

ここで図4Aを参照すると、ヒト視覚系の遠近調節−輻輳・開散運動応答の表現が、図示される。オブジェクトを固視するための眼の移動は、眼にオブジェクトからの光を受信させ、光は、画像を眼の網膜のそれぞれ上に形成する。網膜上に形成される画像内の網膜ぼかしの存在は、遠近調節のためのキューを提供し得、網膜上の画像の相対的場所は、輻輳・開散運動のためのキューを提供し得る。遠近調節するためのキューは、遠近調節を生じさせ、眼の水晶体がオブジェクトの集束された画像を眼の網膜(例えば、中心窩)上に形成する特定の遠近調節状態をとる結果をもたらす。一方、輻輳・開散運動のためのキューは、各眼の各網膜上に形成される画像が単一両眼視を維持する対応する網膜点にあるように、輻輳・開散運動移動(眼の回転)を生じさせる。これらの位置では、眼は、特定の輻輳・開散運動状態をとっていると言え得る。図4Aを継続して参照すると、遠近調節は、眼が特定の遠近調節状態を達成するプロセスであると理解され得、輻輳・開散運動は、眼が特定の輻輳・開散運動状態を達成するプロセスであると理解され得る。図4Aに示されるように、眼の遠近調節および輻輳・開散運動状態は、ユーザが別のオブジェクトを固視する場合、変化し得る。例えば、遠近調節された状態は、ユーザがz−軸上の異なる深度における新しいオブジェクトを固視する場合、変化し得る。   Referring now to FIG. 4A, a representation of the accommodation-convergence-divergence motor response of the human visual system is illustrated. Movement of the eye to fixate the object causes the eye to receive light from the object, which forms an image on each of the retinas of the eye. The presence of retinal blur in the image formed on the retina may provide cues for accommodation and the relative location of the image on the retina may provide cues for vergence and divergence movements. The cues for accommodating produce accommodative effects that result in a particular accommodative condition in which the lens of the eye forms a focused image of the object on the retina (eg, fovea) of the eye. On the other hand, the cue for vergence / divergence movement is such that the image formed on each retina of each eye is located at the corresponding retinal point that maintains a single binocular vision. Rotation). At these positions, it can be said that the eye is in a specific vergence / divergence movement state. With continued reference to FIG. 4A, accommodation can be understood as the process by which the eye achieves a particular accommodation state, and vergence-divergence movement is where the eye achieves a particular convergence-divergence movement state. Can be understood as a process of doing. As shown in FIG. 4A, the accommodation and vergence / divergence movement states of the eye may change when the user gazes at another object. For example, the accommodation state may change if the user is gazing at a new object at a different depth on the z-axis.

理論によって限定されるわけではないが、オブジェクトの視認者は、輻輳・開散運動および遠近調節の組み合わせに起因して、オブジェクトを「3次元」であると知覚し得ると考えられる。前述のように、2つの眼の相互に対する輻輳・開散運動移動(例えば、瞳孔が相互に向かって、またはそこから移動し、眼の視線を収束させ、オブジェクトを固視するような眼の回転)は、眼の水晶体の遠近調節と密接に関連付けられる。通常条件下では、眼の水晶体の形状を変化させ、1つのオブジェクトから異なる距離における別のオブジェクトに焦点を変化させることは、自動的に、「遠近調節−輻輳・開散運動反射」として知られる関係下、同一距離まで輻輳・開散運動における整合する変化を生じさせるであろう。同様に、輻輳・開散運動における変化は、通常条件下、水晶体形状における整合する変化をトリガするであろう。   Without being limited by theory, it is believed that the viewer of the object may perceive the object as "three-dimensional" due to the combination of vergence / divergence movement and accommodation. As described above, the convergence / divergence movement of the two eyes relative to each other (for example, the rotation of the eyes such that the pupils move toward or away from each other to converge the eye's line of sight and fix the object). ) Is closely associated with accommodation of the lens of the eye. Under normal conditions, changing the shape of the lens of the eye and changing the focus from one object to another at different distances is automatically known as "accommodation-convergence / divergent motion reflex". In relation, it will cause consistent changes in vergence / divergence movements to the same distance. Similarly, changes in vergence-divergence movements will trigger consistent changes in lens shape under normal conditions.

ここで図4Bを参照すると、眼の異なる遠近調節および輻輳・開散運動状態の実施例が、図示される。対の眼222aは、光学無限遠におけるオブジェクトを固視する一方、対の眼222bは、光学無限遠未満におけるオブジェクト221を固視する。着目すべきこととして、各対の眼の輻輳・開散運動状態は、異なり、対の眼222aは、まっすぐ指向される一方、対の眼222は、オブジェクト221上に収束する。各対の眼222aおよび222bを形成する眼の遠近調節状態もまた、水晶体210a、220aの異なる形状によって表されるように異なる。   Referring now to FIG. 4B, an example of different accommodation and vergence-divergence movement states of the eye is illustrated. The pair of eyes 222a gazes at the object at optical infinity, while the pair of eyes 222b gazes at the object 221 below optical infinity. It should be noted that the vergence / divergence movement states of each pair of eyes are different, and the pair of eyes 222a are directed straight, while the pair of eyes 222 converge on the object 221. The accommodation states of the eyes forming each pair of eyes 222a and 222b are also different, as represented by the different shapes of lenses 210a, 220a.

望ましくないことに、従来の「3−D」ディスプレイシステムの多くのユーザは、これらのディスプレイにおける遠近調節と輻輳・開散運動状態との間の不整合に起因して、そのような従来のシステムを不快であると見出す、または奥行感を全く知覚しない場合がある。前述のように、多くの立体視または「3−D」ディスプレイシステムは、若干異なる画像を各眼に提供することによって、場面を表示する。そのようなシステムは、それらが、とりわけ、単に、場面の異なる提示を提供し、眼の輻輳・開散運動状態に変化を生じさせるが、それらの眼の遠近調節状態に対応する変化を伴わないため、多くの視認者にとって不快である。むしろ、画像は、眼が全ての画像情報を単一遠近調節状態において視認するように、ディスプレイによって眼から固定距離に示される。そのような配列は、遠近調節状態における整合する変化を伴わずに輻輳・開散運動状態に変化を生じさせることによって、「遠近調節−輻輳・開散運動反射」に逆らう。本不整合は、視認者不快感を生じさせると考えられる。遠近調節と輻輳・開散運動との間のより良好な整合を提供する、ディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し得る。   Undesirably, many users of conventional "3-D" display systems find such conventional systems due to the mismatch between accommodation and vergence / divergence motion states in these displays. May be found uncomfortable or may not perceive a sense of depth at all. As mentioned above, many stereoscopic or "3-D" display systems display a scene by providing each eye with a slightly different image. Such systems provide, among other things, merely different presentations of the scene, causing changes in the vergence and divergence movement states of the eye, but without corresponding changes in their accommodation state. Therefore, it is uncomfortable for many viewers. Rather, the image is presented at a fixed distance from the eye by the display so that the eye sees all image information in a single accommodation state. Such an arrangement defeats the "accommodation-convergence-divergence reflex" by causing a change in vergence-divergence-motion state without a matching change in accommodation. This inconsistency is considered to cause viewer discomfort. Providing a better match between accommodation and vergence-divergence movement, a display system can form a more realistic and comfortable simulation of a three-dimensional image.

理論によって限定されるわけではないが、ヒトの眼は、典型的には、有限数の深度平面を解釈し、深度知覚を提供することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、眼にこれらの限定数の深度平面のそれぞれに対応する画像の異なる提示を提供することによって達成され得る。いくつかの実施形態では、異なる提示は、輻輳・開散運動のためのキューおよび遠近調節するための整合するキューの両方を提供し、それによって、生理学的に正しい遠近調節−輻輳・開散運動整合を提供してもよい。   Without being limited by theory, it is believed that the human eye is typically capable of interpreting a finite number of depth planes and providing depth perception. As a result, a highly plausible simulation of the perceived depth can be achieved by providing the eye with different presentations of images corresponding to each of these limited number of depth planes. In some embodiments, different presentations provide both cues for vergence and divergence movements and matching cues for accommodation, thereby providing physiologically correct accommodation-convergence and divergence movements. Matching may be provided.

図4Bを継続して参照すると、眼210、220からの空間内の異なる距離に対応する、2つの深度平面240が、図示される。所与の深度平面240に関して、輻輳・開散運動キューが、眼210、220毎に適切に異なる視点の画像を表示することによって提供されてもよい。加えて、所与の深度平面240に関して、各眼210、220に提供される画像を形成する光は、その深度平面240の距離におけるある点によって生成されたライトフィールドに対応する波面発散を有してもよい。   With continued reference to FIG. 4B, two depth planes 240 are illustrated, corresponding to different distances in space from the eyes 210, 220. For a given depth plane 240, vergence and divergence movement cues may be provided by displaying images from different viewpoints for each eye 210, 220 as appropriate. In addition, for a given depth plane 240, the light forming the image provided to each eye 210, 220 has a wavefront divergence corresponding to the light field produced by a point at that depth plane 240 distance. May be.

図示される実施形態では、点221を含有する、深度平面240のz−軸に沿った距離は、1mである。本明細書で使用されるように、z−軸に沿った距離または深度は、ユーザの眼の射出瞳に位置するゼロ点を用いて測定されてもよい。したがって、1mの深度に位置する深度平面240は、それらの眼の光学軸上のユーザの眼の射出瞳から1m離れた距離に対応する。近似値として、z−軸に沿った深度または距離は、ユーザの眼の正面のディスプレイ(例えば、導波管の表面)から測定され、デバイスと眼が光学無限遠に向かって指向される状態におけるユーザの眼の射出瞳との間の距離に関する値が加えられてもよい。その値は、瞳距離と呼ばれ、ユーザの眼の射出瞳と眼の正面のユーザによって装着されるディスプレイとの間の距離に対応し得る。実際は、瞳距離に関する値は、概して、全ての視認者に関して使用される、正規化された値であってもよい。例えば、瞳距離は、20mmであると仮定され得、1mの深度における深度平面は、ディスプレイの正面の980mmの距離にあり得る。   In the illustrated embodiment, the distance along the z-axis of the depth plane 240 that contains the point 221 is 1 m. As used herein, distance or depth along the z-axis may be measured with a zero point located at the exit pupil of the user's eye. Therefore, the depth plane 240 located at a depth of 1 m corresponds to a distance 1 m away from the exit pupil of the user's eye on the optical axis of those eyes. As an approximation, the depth or distance along the z-axis is measured from the display in front of the user's eye (eg, the surface of the waveguide), and with the device and eye oriented toward optical infinity. A value for the distance to the exit pupil of the user's eye may be added. That value is called the pupil distance and may correspond to the distance between the exit pupil of the user's eye and the display worn by the user in front of the eye. In practice, the value for pupil distance may generally be a normalized value used for all viewers. For example, the pupil distance may be assumed to be 20 mm and the depth plane at a depth of 1 m may be at a distance of 980 mm in front of the display.

ここで図4Cおよび4Dを参照すると、整合遠近調節−輻輳・開散運動距離および不整合遠近調節−輻輳・開散運動距離の実施例が、それぞれ、図示される。図4Cに図示されるように、ディスプレイシステムは、仮想オブジェクトの画像を各眼210、220に提供してもよい。画像は、眼210、220に、眼が深度平面240上の点15上に収束する、輻輳・開散運動状態をとらせ得る。加えて、画像は、その深度平面240における実オブジェクトに対応する波面曲率を有する光によって形成され得る。その結果、眼210、220は、画像がそれらの眼の網膜上に合焦された遠近調節状態をとる。したがって、ユーザは、仮想オブジェクトを深度平面240上の点15にあるように知覚し得る。   4C and 4D, examples of matched accommodation-convergence-divergence kinematics and mismatched accommodation-convergence-divergence kinematics are illustrated, respectively. As shown in FIG. 4C, the display system may provide an image of the virtual object to each eye 210, 220. The image may cause the eyes 210, 220 to assume a vergence-divergence motion state in which the eyes converge on the point 15 on the depth plane 240. In addition, the image may be formed by light having a wavefront curvature corresponding to the real object in its depth plane 240. As a result, the eyes 210, 220 are in an accommodative state with the image focused on the retinas of their eyes. Thus, the user may perceive the virtual object as being at point 15 on the depth plane 240.

眼210、220の遠近調節および輻輳・開散運動状態のそれぞれは、z−軸上の特定の距離と関連付けられることを理解されたい。例えば、眼210、220からの特定の距離におけるオブジェクトは、それらの眼に、オブジェクトの距離に基づいて、特定の遠近調節状態をとらせる。特定の遠近調節状態と関連付けられた距離は、遠近調節距離Aと称され得る。同様に、眼、特に、輻輳・開散運動状態または相互に対する位置と関連付けられた特定の輻輳・開散運動距離Vも、存在する。遠近調節距離および輻輳・開散運動距離が整合する場合、遠近調節と輻輳・開散運動との間の関係は、生理学的に正しいと言え得る。これは、視認者のために最も快適なシナリオと見なされる。 It should be appreciated that each of the accommodation and vergence / divergence movement states of the eye 210, 220 is associated with a particular distance on the z-axis. For example, an object at a particular distance from the eyes 210, 220 will cause those eyes to assume a particular accommodation state based on the distance of the object. The distance associated with a particular accommodation state may be referred to as the accommodation distance A d . Similarly, there are also specific vergence-divergence movement distances V d associated with the eyes, in particular vergence-divergence movement states or positions with respect to each other. If the accommodation distance and vergence / divergence movement distance are matched, the relationship between accommodation and vergence / divergence movement may be said to be physiologically correct. This is considered the most comfortable scenario for the viewer.

しかしながら、立体視ディスプレイでは、遠近調節距離および輻輳・開散運動距離は、常時、整合しない場合がある。例えば、図4Dに図示されるように、眼210、220に表示される画像は、深度平面240に対応する波面発散を伴って表示され得、眼210、220は、その深度平面上の点15a、15bが合焦する、特定の遠近調節状態をとり得る。しかしながら、眼210、220に表示される画像は、眼210、220を深度平面240上に位置しない点15上に収束させる、輻輳・開散運動のためのキューを提供し得る。その結果、いくつかの実施形態では、遠近調節距離は、ユーザの特定の参照点(例えば、眼210、220の射出瞳)から深度平面240までの距離に対応する一方、輻輳・開散運動距離は、その参照点から点15までのより大きい距離に対応する。したがって、遠近調節距離は、輻輳・開散運動距離と異なり、遠近調節−輻輳・開散運動不整合が存在する。そのような不整合は、望ましくないと見なされ、不快感をユーザに生じさせ得る。不整合は、距離(例えば、V−A)に対応し、ジオプタ(長さの逆数1/mの単位)を使用して特徴付けられ得ることを理解されたい。例えば、1.75ジオプタのVおよび1.25ジオプタのAまたは1.25ジオプタのVおよび1.75ジオプタのAは、0.5ジオプタの遠近調節−輻輳・開散運動不整合を提供するであろう。 However, in a stereoscopic display, the accommodation distance and the convergence / divergence movement distance may not always match. For example, as illustrated in FIG. 4D, the image displayed on the eye 210, 220 may be displayed with a wavefront divergence corresponding to the depth plane 240, which eye 210, 220 may point 15a on the depth plane. , 15b may be in focus, a particular accommodation state. However, the images displayed on the eyes 210, 220 may provide cues for vergence and divergence movements that cause the eyes 210, 220 to converge on a point 15 that is not located on the depth plane 240. As a result, in some embodiments, the accommodation distance corresponds to the distance from the user's particular reference point (eg, the exit pupil of the eye 210, 220) to the depth plane 240 while the convergence / divergence movement distance. Corresponds to a larger distance from that reference point to point 15. Therefore, the accommodation distance differs from the convergence / divergence movement distance, and there is a accommodation-convergence / divergence movement mismatch. Such inconsistencies are considered undesirable and can cause discomfort to the user. It should be appreciated that the mismatch corresponds to the distance (eg, V d −A d ) and can be characterized using diopters (units of reciprocal length 1 / m). For example, 1.75 V d and 1.25 diopters of A d or 1.25 V d and 1.75 diopters of A d diopter diopters is 0.5 accommodation diopter - Congestion & divergence movement mismatch Will provide.

いくつかの実施形態では、同一参照点が遠近調節距離および輻輳・開散運動距離のために利用される限り、眼210、220の射出瞳以外の参照点が、遠近調節−輻輳・開散運動不整合を決定するための距離を決定するために利用されてもよいことを理解されたい。例えば、距離は、角膜から深度平面まで、網膜から深度平面まで、接眼レンズ(例えば、ディスプレイデバイスの導波管)から深度平面まで等で測定され得る。   In some embodiments, reference points other than the exit pupil of the eyes 210, 220 may have accommodation-convergence / divergence movements, as long as the same reference points are utilized for accommodation and convergence / divergence movement distances. It should be appreciated that it may be utilized to determine the distance to determine the mismatch. For example, the distance may be measured from the cornea to the depth plane, the retina to the depth plane, the eyepiece (eg, the waveguide of the display device) to the depth plane, and so on.

理論によって限定されるわけではないが、ユーザは、不整合自体が有意な不快感を生じさせずに、依然として、最大約0.25ジオプタ、最大約0.33ジオプタ、および最大約0.5ジオプタの遠近調節−輻輳・開散運動不整合が生理学的に正しいとして知覚し得ると考えられる。いくつかの実施形態では、本明細書に開示されるディスプレイシステム(例えば、ディスプレイシステム250、図6)は、約0.5ジオプタまたはそれ未満の遠近調節−輻輳・開散運動不整合を有する画像を視認者に提示する。いくつかの他の実施形態では、ディスプレイシステムによって提供される画像の遠近調節−輻輳・開散運動不整合は、約0.33ジオプタまたはそれ未満である。さらに他の実施形態では、ディスプレイシステムによって提供される画像の遠近調節−輻輳・開散運動不整合は、約0.25ジオプタまたはそれ未満であって、約0.1ジオプタまたはそれ未満を含む。   Without being limited by theory, the user may still find that the inconsistency itself does not cause significant discomfort, and still up to about 0.25 diopters, up to about 0.33 diopters, and up to about 0.5 diopters. It is considered that the accommodation-convergence / divergence movement misalignment can be perceived as physiologically correct. In some embodiments, a display system disclosed herein (e.g., display system 250, FIG. 6) provides an image with accommodation-convergence / divergence motion misalignment of about 0.5 diopters or less. To the viewer. In some other embodiments, the accommodation-convergence / divergence movement mismatch of the image provided by the display system is about 0.33 diopters or less. In yet another embodiment, the accommodation-convergence / divergence motion mismatch of the image provided by the display system is about 0.25 diopters or less and includes about 0.1 diopters or less.

図5は、波面発散を修正することによって、3次元画像をシミュレートするためのアプローチの側面を図示する。ディスプレイシステムは、画像情報でエンコードされた光770を受信し、その光をユーザの眼210に出力するように構成される、導波管270を含む。導波管270は、所望の深度平面240上のある点によって生成されたライトフィールドの波面発散に対応する定義された波面発散量を伴って光650を出力してもよい。いくつかの実施形態では、同一量の波面発散が、その深度平面上に提示される全てのオブジェクトのために提供される。加えて、ユーザの他方の眼は、類似導波管からの画像情報を提供され得るように図示されるであろう。   FIG. 5 illustrates aspects of an approach for simulating a three-dimensional image by modifying the wavefront divergence. The display system includes a waveguide 270 that is configured to receive light 770 encoded with image information and output the light to the user's eye 210. The waveguide 270 may output light 650 with a defined amount of wavefront divergence corresponding to the wavefront divergence of the light field produced by a point on the desired depth plane 240. In some embodiments, the same amount of wavefront divergence is provided for all objects presented on that depth plane. In addition, the other eye of the user will be illustrated so that it can be provided with image information from a similar waveguide.

いくつかの実施形態では、単一導波管が、単一または限定数の深度平面に対応する設定された波面発散量を伴う光を出力するように構成されてもよく、および/または導波管は、限定された範囲の波長の光を出力するように構成されてもよい。その結果、いくつかの実施形態では、複数またはスタックの導波管が、異なる深度平面のための異なる波面発散量を提供し、および/または異なる範囲の波長の光を出力するために利用されてもよい。本明細書で使用されるように、深度平面は、平坦または湾曲表面の輪郭に追従し得ることを理解されたい。いくつかの実施形態では、便宜上、深度平面は、平坦表面の輪郭に追従し得る。   In some embodiments, a single waveguide may be configured to output light with a set wavefront divergence corresponding to a single or limited number of depth planes, and / or waveguides. The tube may be configured to output light in a limited range of wavelengths. As a result, in some embodiments, multiple or stack waveguides are utilized to provide different wavefront divergence for different depth planes and / or to output different ranges of wavelengths of light. Good. It should be appreciated that as used herein, the depth plane may follow the contours of flat or curved surfaces. In some embodiments, for convenience, the depth plane may follow the contours of a flat surface.

図6は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ディスプレイシステム250は、複数の導波管270、280、290、300、310を使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ260を含む。ディスプレイシステム250は、いくつかの実施形態では、ライトフィールドディスプレイと見なされてもよいことを理解されたい。加えて、導波管アセンブリ260はまた、接眼レンズとも称され得る。   FIG. 6 illustrates an example of a waveguide stack for outputting image information to a user. The display system 250 uses a plurality of waveguides 270, 280, 290, 300, 310 to provide a stack of waveguides or stacked guides that can be utilized to provide three-dimensional perception to the eye / brain. A wave tube assembly 260 is included. It should be appreciated that the display system 250 may be considered a light field display in some embodiments. In addition, the waveguide assembly 260 may also be referred to as an eyepiece.

いくつかの実施形態では、ディスプレイシステム250は、輻輳・開散運動するための実質的に連続キューおよび遠近調節するための複数の離散キューを提供するように構成されてもよい。輻輳・開散運動のためのキューは、異なる画像をユーザの眼のそれぞれに表示することによって提供されてもよく、遠近調節のためのキューは、選択可能離散量の波面発散を伴う画像を形成する光を出力することによって提供されてもよい。換言すると、ディスプレイシステム250は、可変レベルの波面発散を伴う光を出力するように構成されてもよい。いくつかの実施形態では、波面発散の各離散レベルは、特定の深度平面に対応し、導波管270、280、290、300、310のうちの特定の1つによって提供されてもよい。   In some embodiments, the display system 250 may be configured to provide a substantially continuous cue for vergence and divergence movements and a plurality of discrete cues for accommodation. Cues for vergence and divergence movements may be provided by displaying different images on each of the user's eyes, and cues for accommodation form images with selectable discrete amounts of wavefront divergence. May be provided by outputting light that does. In other words, the display system 250 may be configured to output light with a variable level of wavefront divergence. In some embodiments, each discrete level of wavefront divergence corresponds to a particular depth plane and may be provided by a particular one of the waveguides 270, 280, 290, 300, 310.

図6を継続して参照すると、導波管アセンブリ260はまた、複数の特徴320、330、340、350を導波管間に含んでもよい。いくつかの実施形態では、特徴320、330、340、350は、1つ以上のレンズであってもよい。導波管270、280、290、300、310および/または複数のレンズ320、330、340、350は、種々のレベルの波面曲率または光線発散を用いて画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度平面と関連付けられてもよく、その深度平面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス360、370、380、390、400は、導波管のための光源として機能してもよく、画像情報を導波管270、280、290、300、310の中に投入するために利用されてもよく、それぞれ、本明細書に説明されるように、眼210に向かって出力のために各個別の導波管を横断して入射光を分散させるように構成されてもよい。光は、画像投入デバイス360、370、380、390、400の出力表面410、420、430、440、450から出射し、導波管270、280、290、300、310の対応する入力表面460、470、480、490、500の中に投入される。いくつかの実施形態では、入力表面460、470、480、490、500はそれぞれ、対応する導波管の縁であってもよい、または対応する導波管の主要表面の一部(すなわち、世界510または視認者の眼210に直接面する導波管表面のうちの1つ)であってもよい。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、特定の導波管と関連付けられた深度平面に対応する特定の角度(および発散量)において眼210に向かって指向される、クローン化されたコリメートビームの全体場を出力してもよい。いくつかの実施形態では、画像投入デバイス360、370、380、390、400のうちの単一の1つは、複数(例えば、3つ)の導波管270、280、290、300、310と関連付けられ、その中に光を投入してもよい。   With continued reference to FIG. 6, the waveguide assembly 260 may also include a plurality of features 320, 330, 340, 350 between the waveguides. In some embodiments, the features 320, 330, 340, 350 may be one or more lenses. The waveguides 270, 280, 290, 300, 310 and / or the plurality of lenses 320, 330, 340, 350 are configured to transmit image information to the eye with varying levels of wavefront curvature or ray divergence. May be. Each waveguide level may be associated with a particular depth plane and may be configured to output image information corresponding to that depth plane. The image injecting devices 360, 370, 380, 390, 400 may function as a light source for the waveguide, and in order to inject image information into the waveguide 270, 280, 290, 300, 310. Each may be utilized and may be configured to disperse incident light across each individual waveguide for output towards the eye 210, as described herein. Light exits the output surfaces 410, 420, 430, 440, 450 of the image input devices 360, 370, 380, 390, 400 and the corresponding input surfaces 460 of the waveguides 270, 280, 290, 300, 310. 470, 480, 490, 500. In some embodiments, each of the input surfaces 460, 470, 480, 490, 500 may be the edge of the corresponding waveguide, or a portion of the corresponding major surface of the waveguide (ie, the world). 510 or one of the waveguide surfaces directly facing the viewer's eye 210). In some embodiments, a single beam of light (eg, a collimated beam) is launched into each waveguide and corresponds to a particular angle (( And the divergence) may be output toward the eye 210 and output the entire field of the cloned collimated beam. In some embodiments, a single one of the image injecting devices 360, 370, 380, 390, 400 may include multiple (eg, three) waveguides 270, 280, 290, 300, 310. It may be associated with and throw light into it.

いくつかの実施形態では、画像投入デバイス360、370、380、390、400はそれぞれ、それぞれ対応する導波管270、280、290、300、310の中への投入のための画像情報を生成する、離散ディスプレイである。いくつかの他の実施形態では、画像投入デバイス360、370、380、390、400は、例えば、画像情報を1つ以上の光学導管(光ファイバケーブル等)を介して、画像投入デバイス360、370、380、390、400のそれぞれに送り得る、単一の多重化されたディスプレイの出力端である。画像投入デバイス360、370、380、390、400によって提供される画像情報は、異なる波長または色(例えば、本明細書に議論されるように、異なる原色)の光を含んでもよいことを理解されたい。   In some embodiments, the image injection devices 360, 370, 380, 390, 400 each generate image information for injection into a corresponding waveguide 270, 280, 290, 300, 310, respectively. , A discrete display. In some other embodiments, the image input devices 360, 370, 380, 390, 400 may transfer the image information, eg, via one or more optical conduits (such as fiber optic cables), to the image input devices 360, 370. , 380, 390, 400, respectively, at the output of a single multiplexed display. It is understood that the image information provided by the image injection devices 360, 370, 380, 390, 400 may include light of different wavelengths or colors (eg, different primary colors, as discussed herein). I want to.

いくつかの実施形態では、導波管270、280、290、300、310の中に投入される光は、光プロジェクタシステム520によって提供され、これは、光モジュール530を備え、これは、発光ダイオード(LED)等の光エミッタを含んでもよい。光モジュール530からの光は、ビームスプリッタ550を介して、光変調器540、例えば、空間光変調器によって指向および修正されてもよい。光変調器540は、導波管270、280、290、300、310の中に投入される光の知覚される強度を変化させ、光を画像情報でエンコードするように構成されてもよい。空間光変調器の実施例は、液晶ディスプレイ(LCD)を含み、シリコン上液晶(LCOS)ディスプレイを含む。画像投入デバイス360、370、380、390、400は、図式的に図示され、いくつかの実施形態では、これらの画像投入デバイスは、光を導波管270、280、290、300、310の関連付けられたものの中に出力するように構成される、共通投影システム内の異なる光経路および場所を表し得ることを理解されたい。いくつかの実施形態では、導波管アセンブリ260の導波管は、導波管の中に投入された光をユーザの眼に中継しながら、理想的レンズとして機能し得る。本概念では、オブジェクトは、空間光変調器540であってもよく、画像は、深度平面上の画像であってもよい。   In some embodiments, the light launched into the waveguides 270, 280, 290, 300, 310 is provided by a light projector system 520, which comprises a light module 530, which comprises a light emitting diode. It may include a light emitter such as an (LED). Light from the light module 530 may be directed and modified by the light modulator 540, eg, a spatial light modulator, via the beam splitter 550. The light modulator 540 may be configured to change the perceived intensity of light injected into the waveguides 270, 280, 290, 300, 310 and encode the light with image information. Examples of spatial light modulators include liquid crystal displays (LCDs), including liquid crystal on silicon (LCOS) displays. Image injection devices 360, 370, 380, 390, 400 are schematically illustrated and, in some embodiments, these image injection devices associate light with waveguides 270, 280, 290, 300, 310. It is to be understood that different light paths and locations within the common projection system that are configured to output into the same can be represented. In some embodiments, the waveguide of the waveguide assembly 260 can act as an ideal lens while relaying the light injected into the waveguide to the user's eye. In the present concept, the object may be the spatial light modulator 540 and the image may be an image on the depth plane.

いくつかの実施形態では、ディスプレイシステム250は、光を種々のパターン(例えば、ラスタ走査、螺旋走査、リサジューパターン等)で1つ以上の導波管270、280、290、300、310の中に、最終的には、視認者の眼210に投影するように構成される、1つ以上の走査ファイバを備える、走査ファイバディスプレイであってもよい。いくつかの実施形態では、図示される画像投入デバイス360、370、380、390、400は、光を1つまたは複数の導波管270、280、290、300、310の中に投入するように構成される、単一走査ファイバまたは走査ファイバの束を図式的に表し得る。いくつかの他の実施形態では、図示される画像投入デバイス360、370、380、390、400は、複数の走査ファイバまたは走査ファイバの複数の束を図式的に表し得、それぞれ、光を導波管270、280、290、300、310のうちの関連付けられた1つの中に投入するように構成される。1つ以上の光ファイバは、光を光モジュール530から1つ以上の導波管270、280、290、300、310に伝送するように構成されてもよいことを理解されたい。1つ以上の介在光学構造が、走査ファイバまたは複数のファイバと、1つ以上の導波管270、280、290、300、310との間に提供され、例えば、走査ファイバから出射する光を1つ以上の導波管270、280、290、300、310の中に再指向してもよいことを理解されたい。   In some embodiments, the display system 250 directs light in various patterns (eg, raster scan, spiral scan, Lissajous pattern, etc.) into one or more waveguides 270, 280, 290, 300, 310. Finally, it may be a scanning fiber display comprising one or more scanning fibers configured to project into the viewer's eye 210. In some embodiments, the illustrated image injection device 360, 370, 380, 390, 400 is adapted to inject light into one or more waveguides 270, 280, 290, 300, 310. The configured single scan fiber or bundle of scan fibers may be represented diagrammatically. In some other embodiments, the illustrated image injection device 360, 370, 380, 390, 400 may schematically represent a plurality of scanning fibers or a bundle of scanning fibers, each guiding light. Configured for loading into an associated one of tubes 270, 280, 290, 300, 310. It should be appreciated that the one or more optical fibers may be configured to transmit light from the optical module 530 to the one or more waveguides 270, 280, 290, 300, 310. One or more intervening optical structures are provided between the scanning fiber or fibers and the one or more waveguides 270, 280, 290, 300, 310 to, for example, direct light exiting the scanning fiber. It should be appreciated that one or more waveguides 270, 280, 290, 300, 310 may be redirected.

コントローラ560は、画像投入デバイス360、370、380、390、400、光源530、および光モジュール540の動作を含む、スタックされた導波管アセンブリ260のうちの1つ以上のものの動作を制御する。いくつかの実施形態では、コントローラ560は、ローカルデータ処理モジュール140の一部である。コントローラ560は、例えば、本明細書に開示される種々のスキームのいずれかに従って、導波管270、280、290、300、310への画像情報のタイミングおよびプロビジョニングを調整する、プログラミング(例えば、非一過性媒体内の命令)を含む。いくつかの実施形態では、コントローラは、単一一体型デバイスまたは有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ560は、いくつかの実施形態では、処理モジュール140または150(図9D)の一部であってもよい。   The controller 560 controls the operation of one or more of the stacked waveguide assemblies 260, including the operation of the image injection devices 360, 370, 380, 390, 400, the light source 530, and the light module 540. In some embodiments, controller 560 is part of local data processing module 140. The controller 560 adjusts the timing and provision of image information to the waveguides 270, 280, 290, 300, 310, eg, according to any of the various schemes disclosed herein, programming (eg, non-compliant). Instructions in a transitory medium). In some embodiments, the controller may be a single integrated device or a distributed system connected by wired or wireless communication channels. Controller 560 may be part of processing module 140 or 150 (FIG. 9D) in some embodiments.

図6を継続して参照すると、導波管270、280、290、300、310は、全内部反射(TIR)によって各個別の導波管内で光を伝搬するように構成されてもよい。導波管270、280、290、300、310はそれぞれ、主要な上部および底部表面およびそれらの主要上部表面と底部表面との間に延在する縁を伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管270、280、290、300、310はそれぞれ、光を再指向させ、各個別の導波管内で伝搬させ、導波管から画像情報を眼210に出力することによって、光を導波管から抽出するように構成される、外部結合光学要素570、580、590、600、610を含んでもよい。抽出された光はまた、外部結合光と称され得、外部結合光学要素はまた、光抽出光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内を伝搬する光が光抽出光学要素に衝打する場所において出力され得る。外部結合光学要素570、580、590、600、610は、例えば、本明細書にさらに議論されるような回折光学特徴を含む、格子であってもよい。説明を容易にし、図面を明確にするために、導波管270、280、290、300、310の底部主要表面に配置されて図示されるが、いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、本明細書にさらに議論されるように、上部および/または底部主要表面に配置されてもよく、および/または導波管270、280、290、300、310の容積内に直接配置されてもよい。いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、透明基板に取り付けられ、導波管270、280、290、300、310を形成する、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管270、280、290、300、310は、材料のモノリシック部品であってもよく、外部結合光学要素570、580、590、600、610は、その材料部品の表面上および/または内部に形成されてもよい。   With continued reference to FIG. 6, the waveguides 270, 280, 290, 300, 310 may be configured to propagate light within each individual waveguide by total internal reflection (TIR). Each of the waveguides 270, 280, 290, 300, 310 is planar or otherwise shaped with major top and bottom surfaces and edges extending between those major top and bottom surfaces ( For example, it may have a curvature. In the illustrated configuration, each of the waveguides 270, 280, 290, 300, 310 redirects light, propagates within each individual waveguide, and outputs image information from the waveguides to the eye 210. May include outcoupling optical elements 570, 580, 590, 600, 610 configured to extract light from the waveguide. The extracted light may also be referred to as outcoupling light and the outcoupling optical element may also be referred to as light extraction optical element. The extracted beam of light may be output by the waveguide at a location where the light propagating in the waveguide strikes the light extraction optical element. Outcoupling optical elements 570, 580, 590, 600, 610 may be, for example, gratings that include diffractive optical features as discussed further herein. For ease of illustration and clarity of illustration, the waveguide 270, 280, 290, 300, 310 is shown positioned on the bottom major surface of the waveguide, although in some embodiments the outcoupling optical element 570 is shown. , 580, 590, 600, 610 may be located on the top and / or bottom major surfaces, and / or waveguides 270, 280, 290, 300, 310, as discussed further herein. May be placed directly in the volume of the. In some embodiments, the outcoupling optical elements 570, 580, 590, 600, 610 are formed in layers of material that are attached to a transparent substrate and form the waveguides 270, 280, 290, 300, 310. May be done. In some other embodiments, the waveguides 270, 280, 290, 300, 310 may be monolithic pieces of material and the outcoupling optical elements 570, 580, 590, 600, 610 may be made of that material. It may be formed on and / or inside the component.

図6を継続して参照すると、本明細書に議論されるように、各導波管270、280、290、300、310は、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管270は、眼210にコリメートされた光(そのような導波管270の中に投入された)を送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管280は、眼210に到達し得る前に、第1のレンズ350(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。そのような第1のレンズ350は、眼/脳が、その次の上方の導波管280から生じる光を光学無限遠から眼210に向かって内向きにより近い第1の焦点面から生じるように解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管290は、眼210に到達する前に、その出力光を第1の350および第2の340レンズの両方を通して通過させる。第1の350および第2の340レンズの組み合わせられた屈折力は、眼/脳が、第3の導波管290から生じる光が次の上方の導波管280からの光であった光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるように解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。   With continued reference to FIG. 6, as discussed herein, each waveguide 270, 280, 290, 300, 310 outputs light to form an image corresponding to a particular depth plane. Is configured as follows. For example, the waveguide 270 proximate to the eye may be configured to deliver collimated light (cast into such a waveguide 270) to the eye 210. The collimated light may represent the optical infinity focal plane. The next upper waveguide 280 may be configured to deliver collimated light that passes through the first lens 350 (eg, a negative lens) before it can reach the eye 210. Such a first lens 350 is interpreted such that the eye / brain then emits the light emanating from the upper waveguide 280 from a first focal plane closer inward from optical infinity toward the eye 210. To generate some convex wavefront curvature. Similarly, the third upper waveguide 290 allows its output light to pass through both the first 350 and second 340 lenses before reaching the eye 210. The combined optical power of the first 350 and second 340 lenses is such that the eye / brain is optical infinity where the light emanating from the third waveguide 290 was the light from the next upper waveguide 280. It may be configured to generate another incremental amount of wavefront curvature to be interpreted as originating from a second focal plane that is closer inward toward the person from a distance.

他の導波管層300、310およびレンズ330、320も同様に構成され、スタック内の最高導波管310は、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ260の他側の世界510から生じる光を視認/解釈するとき、レンズ320、330、340、350のスタックを補償するために、補償レンズ層620が、スタックの上部に配置され、下方のレンズスタック320、330、340、350の集約力を補償してもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の外部結合光学要素およびレンズの集束側面は両方とも、静的であってもよい(すなわち、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。   The other waveguide layers 300, 310 and lenses 330, 320 are similarly configured, with the highest waveguide 310 in the stack having its output visible to the eye due to the aggregate focal power, which represents the focal plane closest to the person. Deliver through all of the lenses between and. A compensating lens layer 620 is provided on top of the stack to compensate for the stack of lenses 320, 330, 340, 350 when viewing / interpreting light originating from the other world 510 of the stacked waveguide assembly 260. It may be arranged to compensate for the collective power of the lower lens stack 320, 330, 340, 350. Such a configuration provides as many perceived focal planes as waveguide / lens pairs available. Both the outcoupling optical element of the waveguide and the focusing side of the lens may be static (ie, not dynamic or electroactive). In some alternative embodiments, one or both may be dynamic using electroactive features.

いくつかの実施形態では、導波管270、280、290、300、310のうちの2つ以上のものは、同一の関連付けられた深度平面を有してもよい。例えば、複数の導波管270、280、290、300、310が、同一深度平面に設定される画像を出力するように構成されてもよい、または導波管270、280、290、300、310の複数のサブセットが、深度平面毎に1つのセットを伴う、同一の複数の深度平面に設定される画像を出力するように構成されてもよい。これは、それらの深度平面において拡張された視野を提供するようにタイル化された画像を形成する利点を提供し得る。   In some embodiments, two or more of the waveguides 270, 280, 290, 300, 310 may have the same associated depth plane. For example, multiple waveguides 270, 280, 290, 300, 310 may be configured to output images set in the same depth plane, or waveguides 270, 280, 290, 300, 310. May be configured to output images set in the same depth plane, with one set per depth plane. This may provide the advantage of forming tiled images to provide an extended field of view in their depth plane.

図6を継続して参照すると、外部結合光学要素570、580、590、600、610は、導波管と関連付けられた特定の深度平面のために、光をその個別の導波管から再指向し、かつ本光を適切な量の発散またはコリメーションを伴って出力するように構成されてもよい。その結果、異なる関連付けられた深度平面を有する導波管は、外部結合光学要素570、580、590、600、610の異なる構成を有してもよく、これは、関連付けられた深度平面に応じて、異なる量の発散を伴う光を出力する。いくつかの実施形態では、光抽出光学要素570、580、590、600、610は、体積または表面特徴であってもよく、これは、具体的角度で光を出力するように構成されてもよい。例えば、光抽出光学要素570、580、590、600、610は、体積ホログラム、表面ホログラム、および/または回折格子であってもよい。いくつかの実施形態では、特徴320、330、340、350は、レンズではなくてもよい。むしろ、それらは、単に、スペーサであってもよい(例えば、クラッディング層および/または空隙を形成するための構造)。       With continued reference to FIG. 6, the outcoupling optical elements 570, 580, 590, 600, 610 redirect light from their individual waveguides due to the particular depth planes associated with the waveguides. In addition, the main light may be output with an appropriate amount of divergence or collimation. As a result, waveguides with different associated depth planes may have different configurations of outcoupling optical elements 570, 580, 590, 600, 610, which, depending on the associated depth planes. , Outputs light with different amounts of divergence. In some embodiments, the light extraction optics 570, 580, 590, 600, 610 may be volume or surface features, which may be configured to output light at a specific angle. . For example, the light extraction optics 570, 580, 590, 600, 610 may be volume holograms, surface holograms, and / or diffraction gratings. In some embodiments, the features 320, 330, 340, 350 may not be lenses. Rather, they may simply be spacers (eg, structures for forming cladding layers and / or voids).

いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、回折パターンを形成する回折特徴または「回折光学要素」(また、本明細書では、「DOE」とも称される)である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差点を用いて眼210に向かって偏向される一方、残りがTIRを介して、導波管を通して移動し続けるように、十分に低回折効率を有する。画像情報を搬送する光は、したがって、様々な場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼210に向かって非常に均一なパターンの出射放出となる。   In some embodiments, the outcoupling optical elements 570, 580, 590, 600, 610 are diffractive features or “diffractive optical elements” (also referred to herein as “DOEs”) that form a diffraction pattern. ). Preferably, the DOE is sufficient such that only a portion of the light in the beam is deflected towards the eye 210 using each DOE intersection, while the rest continue to travel through the waveguide through the TIR. Has low diffraction efficiency. The light carrying the image information is thus split into several related exit beams that exit the waveguide at various locations, so that for this particular collimated beam bouncing in the waveguide There is a very uniform pattern of emission and emission towards 210.

いくつかの実施形態では、1つ以上のDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であってもよい。例えば、切替可能DOEは、ポリマー分散液晶の層を備えてもよく、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に整合するように切り替えられてもよい(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに整合しない屈折率に切り替えられてもよい(その場合、パターンは、入射光を能動的に回折させる)。   In some embodiments, one or more DOEs may be switchable between an actively diffracting “on” state and a significantly non-diffracting “off” state. For example, the switchable DOE may comprise a layer of polymer dispersed liquid crystal, in which the microdroplets comprise a diffraction pattern in the host medium, the refractive index of the microdroplets being substantially that of the host material. May be switched to match (in which case the pattern does not significantly diffract incident light) or the microdroplets may be switched to a refractive index that does not match that of the host medium (in which case). , The pattern actively diffracts the incident light).

いくつかの実施形態では、カメラアセンブリ630(例えば、可視光および赤外線光カメラを含む、デジタルカメラ)が、眼210および/または眼210の周囲の組織の画像を捕捉し、例えば、ユーザ入力を検出する、および/またはユーザの生理学的状態を監視するために提供されてもよい。本明細書で使用されるように、カメラは、任意の画像捕捉デバイスであってもよい。いくつかの実施形態では、カメラアセンブリ630は、画像捕捉デバイスと、光(例えば、赤外線光)を眼に投影し、次いで、眼によって反射され、画像捕捉デバイスによって検出され得る、光源とを含んでもよい。いくつかの実施形態では、カメラアセンブリ630は、フレーム80(図9D)に取り付けられてもよく、カメラアセンブリ630からの画像情報を処理し得る、処理モジュール140および/または150と電気通信してもよい。いくつかの実施形態では、1つのカメラアセンブリ630が、眼毎に利用され、各眼を別個に監視してもよい。   In some embodiments, a camera assembly 630 (eg, a digital camera, including visible and infrared light cameras) captures an image of the eye 210 and / or tissue surrounding the eye 210 and detects, for example, user input. And / or may be provided to monitor the physiological condition of the user. As used herein, a camera may be any image capture device. In some embodiments, the camera assembly 630 also includes an image capture device and a light source that projects light (eg, infrared light) onto the eye, which can then be reflected by the eye and detected by the image capture device. Good. In some embodiments, the camera assembly 630 may be mounted on the frame 80 (FIG. 9D) and is also in electrical communication with a processing module 140 and / or 150 that may process image information from the camera assembly 630. Good. In some embodiments, one camera assembly 630 may be utilized for each eye and monitor each eye separately.

ここで図7を参照すると、導波管によって出力された出射ビームの実施例が、示される。1つの導波管が図示されるが、導波管アセンブリ260(図6)内の他の導波管も同様に機能し得、導波管アセンブリ260は、複数の導波管を含むことを理解されたい。光640が、導波管270の入力表面460において導波管270の中に投入され、TIRによって導波管270内を伝搬する。光640がDOE570上に衝突する点では、光の一部は、導波管から出射ビーム650として出射する。出射ビーム650は、略平行として図示されるが、本明細書に議論されるように、また、導波管270と関連付けられた深度平面に応じて、ある角度(例えば、発散出射ビーム形成)において眼210に伝搬するように再指向されてもよい。略平行出射ビームは、眼210からの遠距離(例えば、光学無限遠)における深度平面に設定されるように現れる画像を形成するように光を外部結合する、外部結合光学要素を伴う導波管を示し得ることを理解されたい。他の導波管または他の外部結合光学要素のセットは、より発散する、出射ビームパターンを出力してもよく、これは、眼210がより近い距離に遠近調節し、網膜に合焦させることを要求し、光学無限遠より眼210に近い距離からの光として脳によって解釈されるであろう。   Referring now to FIG. 7, an example of an exit beam output by a waveguide is shown. Although one waveguide is shown, other waveguides within the waveguide assembly 260 (FIG. 6) may work as well, with the waveguide assembly 260 including multiple waveguides. I want you to understand. Light 640 is injected into the waveguide 270 at the input surface 460 of the waveguide 270 and propagates within the waveguide 270 by TIR. At the point where the light 640 strikes the DOE 570, some of the light exits the waveguide as an exit beam 650. The exit beam 650 is shown as being substantially parallel, but at an angle (eg, divergent exit beam formation), as discussed herein, and depending on the depth plane associated with the waveguide 270. It may be redirected to propagate to the eye 210. The substantially collimated output beam is a waveguide with outcoupling optics that outcouples the light to form an image that appears to be set in the depth plane at a far distance from the eye 210 (eg, optical infinity). It should be understood that can be shown. Other waveguides or sets of other outcoupling optics may output a more divergent, exiting beam pattern that causes the eye 210 to adjust to a closer distance and focus on the retina. And will be interpreted by the brain as light from a distance closer to the eye 210 than optical infinity.

いくつかの実施形態では、フルカラー画像が、原色、例えば、3つ以上の原色のそれぞれに画像をオーバーレイすることによって、各深度平面において形成されてもよい。図8は、スタックされた導波管アセンブリの実施例を図示し、各深度平面は、複数の異なる原色を使用して形成される画像を含む。図示される実施形態は、深度平面240a−240fを示すが、より多いまたはより少ない深度もまた、検討される。各深度平面は、第1の色Gの第1の画像、第2の色Rの第2の画像、および第3の色Bの第3の画像を含む、それと関連付けられた3つ以上の原色画像を有してもよい。異なる深度平面は、文字G、R、およびBに続くジオプタ(dpt)に関する異なる数字によって図示される。単なる実施例として、これらの文字のそれぞれに続く数字は、ジオプタ(1/m)、すなわち、視認者からの深度平面の逆距離を示し、図中の各ボックスは、個々の原色画像を表す。いくつかの実施形態では、異なる波長の光の眼の集束における差異を考慮するために、異なる原色に関する深度平面の正確な場所は、変動してもよい。例えば、所与の深度平面に関する異なる原色画像は、ユーザからの異なる距離に対応する深度平面上に設置されてもよい。そのような配列は、視力およびユーザ快適性を増加させ得、および/または色収差を減少させ得る。   In some embodiments, a full color image may be formed in each depth plane by overlaying the image on a primary color, eg, each of three or more primary colors. FIG. 8 illustrates an example of stacked waveguide assemblies, each depth plane containing an image formed using a plurality of different primary colors. The illustrated embodiment shows depth planes 240a-240f, but more or less depth is also contemplated. Each depth plane includes three or more primary colors associated with it, including a first image of a first color G, a second image of a second color R, and a third image of a third color B. It may have an image. Different depth planes are illustrated by different numbers for diopters (dpt) following the letters G, R, and B. By way of example only, the number following each of these letters indicates the diopter (1 / m), ie the inverse distance of the depth plane from the viewer, and each box in the figure represents an individual primary color image. In some embodiments, the exact location of the depth plane for different primaries may vary to account for differences in the focusing of different wavelengths of light by the eye. For example, different primary color images for a given depth plane may be placed on the depth plane corresponding to different distances from the user. Such an arrangement may increase visual acuity and user comfort, and / or reduce chromatic aberration.

いくつかの実施形態では、各原色の光は、単一専用導波管によって出力されてもよく、その結果、各深度平面は、それと関連付けられた複数の導波管を有してもよい。そのような実施形態では、文字G、R、またはBを含む、図中の各ボックスは、個々の導波管を表すものと理解され得、3つの導波管は、深度平面毎に提供されてもよく、3つの原色画像が、深度平面毎に提供される。各深度平面と関連付けられた導波管は、本図面では、説明を容易にするために相互に隣接して示されるが、物理的デバイスでは、導波管は全て、レベル毎に1つの導波管を伴うスタックで配列されてもよいことを理解されたい。いくつかの他の実施形態では、複数の原色が、例えば、単一導波管のみが深度平面毎に提供され得るように、同一導波管によって出力されてもよい。   In some embodiments, each primary color light may be output by a single dedicated waveguide, so that each depth plane may have multiple waveguides associated with it. In such an embodiment, each box in the figure, including the letters G, R, or B, may be understood to represent an individual waveguide, three waveguides being provided per depth plane. Alternatively, three primary color images are provided per depth plane. Although the waveguides associated with each depth plane are shown adjacent to each other in this figure for ease of illustration, in a physical device all waveguides are one waveguide per level. It should be appreciated that they may be arranged in a stack with tubes. In some other embodiments, multiple primaries may be output by the same waveguide, eg, only a single waveguide may be provided per depth plane.

図8を継続して参照すると、いくつかの実施形態では、Gは、緑色であって、Rは、赤色であって、Bは、青色である。いくつかの他の実施形態では、マゼンタ色およびシアン色を含む、光の他の波長と関連付けられた他の色も、赤色、緑色、または青色のうちの1つ以上のものに加えて使用されてもよい、またはそれらに取って代わってもよい。   With continued reference to FIG. 8, in some embodiments G is green, R is red and B is blue. In some other embodiments, other colors associated with other wavelengths of light, including magenta and cyan, are also used in addition to one or more of red, green, or blue. Or may replace them.

本開示全体を通した所与の光の色の言及は、その所与の色として視認者によって知覚される、光の波長の範囲内の1つ以上の波長の光を包含するものと理解されると理解されたい。例えば、赤色光は、約620〜780nmの範囲内である1つ以上の波長の光を含んでもよく、緑色光は、約492〜577nmの範囲内である1つ以上の波長の光を含んでもよく、青色光は、約435〜493nmの範囲内である1つ以上の波長の光を含んでもよい。   References to a given color of light throughout this disclosure are understood to include light of one or more wavelengths within the range of wavelengths of light perceived by a viewer as that given color. I want you to understand. For example, red light may include one or more wavelengths of light in the range of about 620-780 nm, and green light may include one or more wavelengths of light in the range of about 492-577 nm. Well, blue light may include light at one or more wavelengths that are in the range of about 435-493 nm.

いくつかの実施形態では、光源530(図6)は、視認者の視覚的知覚範囲外の1つ以上の波長、例えば、赤外線および/または紫外線波長の光を放出するように構成されてもよい。加えて、ディスプレイ250の導波管の内部結合、外部結合、および他の光再指向構造は、例えば、結像および/またはユーザ刺激用途のために、本光をディスプレイからユーザの眼210に向かって指向および放出するように構成されてもよい。   In some embodiments, the light source 530 (FIG. 6) may be configured to emit light at one or more wavelengths outside the visual perception range of the viewer, eg, infrared and / or ultraviolet wavelengths. . In addition, internal coupling, external coupling, and other light redirecting structures of the waveguides of display 250 direct this light from the display to the user's eye 210, for example, for imaging and / or user stimulation applications. May be configured to direct and emit.

ここで図9Aを参照すると、いくつかの実施形態では、導波管に衝突する光は、その光を導波管の中に内部結合するために再指向される必要があり得る。内部結合光学要素が、光をその対応する導波管の中に再指向および内部結合するために使用されてもよい。図9Aは、それぞれ、内部結合光学要素を含む、複数またはセット660のスタックされた導波管の実施例の断面側面図を図示する。導波管はそれぞれ、1つまたはそれを上回る異なる波長または1つまたはそれを上回る異なる波長範囲の光を出力するように構成されてもよい。スタック660は、スタック260(図6)に対応してもよく、スタック660の図示される導波管は、複数の導波管270、280、290、300、310の一部に対応してもよいが、画像投入デバイス360、370、380、390、400のうちの1つ以上のものからの光が、光が内部結合のために再指向されることを要求する位置から導波管の中に投入されることを理解されたい。   Referring now to FIG. 9A, in some embodiments, light impinging on the waveguide may need to be redirected in order to internally couple the light into the waveguide. In-coupling optical elements may be used to redirect and in-couple light into its corresponding waveguide. FIG. 9A illustrates a cross-sectional side view of an embodiment of a plurality or sets 660 of stacked waveguides, each including an incoupling optical element. The waveguides may each be configured to output light at one or more different wavelengths or one or more different wavelength ranges. The stack 660 may correspond to the stack 260 (FIG. 6), and the illustrated waveguides of the stack 660 may correspond to a portion of the plurality of waveguides 270, 280, 290, 300, 310. Good, but the light from one or more of the image injection devices 360, 370, 380, 390, 400 is in the waveguide from a position that requires that the light be redirected for internal coupling. Please understand that it will be put into.

スタックされた導波管の図示されるセット660は、導波管670、680、および690を含む。各導波管は、関連付けられた内部結合光学要素(導波管上の光入力面積とも称され得る)を含み、例えば、内部結合光学要素700は、導波管670の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素710は、導波管680の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素720は、導波管690の主要表面(例えば、上側主要表面)上に配置される。いくつかの実施形態では、内部結合光学要素700、710、720のうちの1つ以上のものは、個別の導波管670、680、690の底部主要表面上に配置されてもよい(特に、1つ以上の内部結合光学要素は、反射性偏向光学要素である)。図示されるように、内部結合光学要素700、710、720は、その個別の導波管670、680、690の上側主要表面(または次の下側導波管の上部)上に配置されてもよく、特に、それらの内部結合光学要素は、透過性偏向光学要素である。いくつかの実施形態では、内部結合光学要素700、710、720は、個別の導波管670、680、690の本体内に配置されてもよい。いくつかの実施形態では、本明細書に議論されるように、内部結合光学要素700、710、720は、他の光の波長を透過しながら、1つ以上の光の波長を選択的に再指向するような波長選択的である。その個別の導波管670、680、690の片側または角に図示されるが、内部結合光学要素700、710、720は、いくつかの実施形態では、その個別の導波管670、680、690の他の面積内に配置されてもよいことを理解されたい。   The illustrated set 660 of stacked waveguides includes waveguides 670, 680, and 690. Each waveguide includes an associated incoupling optical element (which may also be referred to as a light input area on the waveguide), for example, the incoupling optical element 700 includes a major surface (eg, upper side) of the waveguide 670. Inner coupling optical element 710 is disposed on a major surface of waveguide 680 and inner coupling optical element 720 is disposed on a major surface of waveguide 680 (eg, upper major surface). , The upper major surface). In some embodiments, one or more of the incoupling optical elements 700, 710, 720 may be located on the bottom major surface of the individual waveguides 670, 680, 690 (specifically, The one or more incoupling optical elements are reflective polarizing optical elements). As shown, the incoupling optical elements 700, 710, 720 may also be disposed on the upper major surface of their respective waveguides 670, 680, 690 (or the top of the next lower waveguide). Well, in particular, those internally coupled optics are transmissive deflection optics. In some embodiments, the incoupling optical elements 700, 710, 720 may be located within the body of individual waveguides 670, 680, 690. In some embodiments, as discussed herein, the incoupling optical elements 700, 710, 720 selectively re-transmit one or more wavelengths of light while transmitting other wavelengths of light. It is directional and wavelength selective. Although illustrated on one side or at a corner of the individual waveguides 670, 680, 690, the internal coupling optics 700, 710, 720 may, in some embodiments, be the individual waveguides 670, 680, 690. It is to be understood that it may be arranged in other areas of.

図示されるように、内部結合光学要素700、710、720は、相互から側方にオフセットされてもよい。いくつかの実施形態では、各内部結合光学要素は、その光が別の内部結合光学要素を通して通過せずに、光を受信するようにオフセットされてもよい。例えば、各内部結合光学要素700、710、720は、図6に示されるように、光を異なる画像投入デバイス360、370、380、390、および400から受信するように構成されてもよく、光を内部結合光学要素700、710、720の他のものから実質的に受信しないように、他の内部結合光学要素700、710、720から分離されてもよい(例えば、側方に離間される)。   As shown, the incoupling optical elements 700, 710, 720 may be laterally offset from each other. In some embodiments, each incoupling optical element may be offset to receive light without its light passing through another incoupling optical element. For example, each incoupling optical element 700, 710, 720 may be configured to receive light from different image injection devices 360, 370, 380, 390, and 400, as shown in FIG. May be separated from other internal coupling optical elements 700, 710, 720 (eg, laterally spaced) so as to not substantially receive from other internal coupling optical elements 700, 710, 720. ..

各導波管はまた、関連付けられた光分散要素を含み、例えば、光分散要素730は、導波管670の主要表面(例えば、上部主要表面)上に配置され、光分散要素740は、導波管680の主要表面(例えば、上部主要表面)上に配置され、光分散要素750は、導波管690の主要表面(例えば、上部主要表面)上に配置される。いくつかの他の実施形態では、光分散要素730、740、750は、それぞれ、関連付けられた導波管670、680、690の底部主要表面上に配置されてもよい。いくつかの他の実施形態では、光分散要素730、740、750は、それぞれ、関連付けられた導波管670、680、690の上部および底部両方の主要表面上に配置されてもよい、または光分散要素730、740、750は、それぞれ、異なる関連付けられた導波管670、680、690内の上部および底部主要表面の異なるもの上に配置されてもよい。   Each waveguide also includes an associated light dispersive element, eg, light dispersive element 730 is disposed on a major surface (eg, upper major surface) of waveguide 670 and light dispersive element 740 is a light guide element. The light dispersive element 750 is disposed on a major surface (eg, upper major surface) of the waveguide 680 and the light dispersive element 750 is disposed on a major surface (eg, upper major surface) of the waveguide 690. In some other embodiments, the light dispersive elements 730, 740, 750 may be disposed on the bottom major surface of the associated waveguide 670, 680, 690, respectively. In some other embodiments, the light dispersive elements 730, 740, 750 may be disposed on both the top and bottom major surfaces of the associated waveguide 670, 680, 690, respectively, or the light The dispersive elements 730, 740, 750 may be disposed on different ones of the top and bottom major surfaces in different associated waveguides 670, 680, 690, respectively.

導波管670、680、690は、例えば、材料のガス、液体、および/または固体層によって離間および分離されてもよい。例えば、図示されるように、層760aは、導波管670および680を分離してもよく、層760bは、導波管680および690を分離してもよい。いくつかの実施形態では、層760aおよび760bは、低屈折率材料(すなわち、導波管670、680、690の直近のものを形成する材料より低い屈折率を有する材料)から形成される。好ましくは、層760a、760bを形成する材料の屈折率は、導波管670、680、690を形成する材料の屈折率を0.05またはそれを上回って、または0.10またはそれを下回る。有利には、より低い屈折率層760a、760bは、導波管670、680、690を通して光の全内部反射(TIR)(例えば、各導波管の上部および底部主要表面間のTIR)を促進する、クラッディング層として機能してもよい。いくつかの実施形態では、層760a、760bは、空気から形成される。図示されないが、導波管の図示されるセット660の上部および底部は、直近クラッディング層を含んでもよいことを理解されたい。   The waveguides 670, 680, 690 may be separated and separated by, for example, a gas, liquid, and / or solid layer of material. For example, as shown, layer 760a may separate waveguides 670 and 680 and layer 760b may separate waveguides 680 and 690. In some embodiments, layers 760a and 760b are formed from a low index material (ie, a material having a lower index of refraction than the material forming the immediate vicinity of waveguides 670, 680, 690). Preferably, the refractive index of the material forming layers 760a, 760b is 0.05 or more, or 0.10 or less than the refractive index of the material forming waveguides 670, 680, 690. Advantageously, the lower refractive index layers 760a, 760b promote total internal reflection (TIR) of light through the waveguides 670, 680, 690 (eg, TIR between the top and bottom major surfaces of each waveguide). It may also function as a cladding layer. In some embodiments, layers 760a, 760b are formed from air. Although not shown, it should be understood that the top and bottom of the illustrated set of waveguides 660 may include the nearest cladding layer.

好ましくは、製造および他の考慮点を容易にするために、導波管670、680、690を形成する材料は、類似または同一であって、層760a、760bを形成する材料は、類似または同一である。いくつかの実施形態では、導波管670、680、690を形成する材料は、1つ以上の導波管間で異なってもよい、および/または層760a、760bを形成する材料は、依然として、前述の種々の屈折率関係を保持しながら、異なってもよい。   Preferably, the materials forming the waveguides 670, 680, 690 are similar or identical and the materials forming layers 760a, 760b are similar or identical for ease of manufacturing and other considerations. Is. In some embodiments, the material forming the waveguides 670, 680, 690 may differ between one or more waveguides, and / or the material forming layers 760a, 760b is still They may be different while retaining the various refractive index relationships mentioned above.

図9Aを継続して参照すると、光線770、780、790が、導波管のセット660に入射する。光線770、780、790は、1つ以上の画像投入デバイス360、370、380、390、400(図6)によって導波管670、680、690の中に投入されてもよいことを理解されたい。   With continued reference to FIG. 9A, rays 770, 780, 790 are incident on the set of waveguides 660. It should be appreciated that the light rays 770, 780, 790 may be launched into the waveguides 670, 680, 690 by one or more image launch devices 360, 370, 380, 390, 400 (FIG. 6). .

いくつかの実施形態では、光線770、780、790は、異なる色に対応し得る、異なる性質、例えば、異なる波長または異なる波長範囲を有する。内部結合光学要素700、710、720はそれぞれ、光が、TIRによって、導波管670、680、690のうちの個別の1つを通して伝搬するように、入射光を偏向させる。いくつかの実施形態では、内部結合光学要素700、710、720はそれぞれ、他の波長を下層導波管および関連付けられた内部結合光学要素に透過させながら、1つ以上の特定の光の波長を選択的に偏向させる。   In some embodiments, the light rays 770, 780, 790 have different properties, such as different wavelengths or different wavelength ranges, which may correspond to different colors. Each of the incoupling optical elements 700, 710, 720 deflects incident light such that the light propagates by TIR through a respective one of the waveguides 670, 680, 690. In some embodiments, each of the incoupling optical elements 700, 710, 720 transmits one or more particular wavelengths of light while transmitting another wavelength to the underlying waveguide and associated incoupling optical elements. Selectively deflect.

例えば、内部結合光学要素700は、それぞれ、異なる第2および第3の波長または波長範囲を有する、光線780および790を透過させながら、第1の波長または波長範囲を有する、光線770を偏向させるように構成されてもよい。透過された光線780は、第2の波長または波長範囲の光を偏向させるように構成される、内部結合光学要素710に衝突し、それによって偏向される。光線790は、第3の波長または波長範囲の光を選択的に偏向させるように構成される、内部結合光学要素720によって偏向される。   For example, the incoupling optical element 700 may be configured to deflect a light ray 770 having a first wavelength or wavelength range while transmitting light rays 780 and 790 having different second and third wavelengths or wavelength ranges, respectively. May be configured as. The transmitted light ray 780 impinges on and is deflected by the incoupling optical element 710, which is configured to deflect light of the second wavelength or range of wavelengths. Light ray 790 is deflected by an incoupling optical element 720 that is configured to selectively deflect light at a third wavelength or range of wavelengths.

図9Aを継続して参照すると、偏向された光線770、780、790は、対応する導波管670、680、690を通して伝搬するように偏向される。すなわち、各導波管の内部結合光学要素700、710、720は、光をその対応する導波管670、680、690の中に偏向させ、光を対応する導波管の中に内部結合する。光線770、780、790は、光をTIRによって個別の導波管670、680、690を通して伝搬させる角度で偏向される。光線770、780、790は、導波管の対応する光分散要素730、740、750に衝突するまで、TIRによって個別の導波管670、680、690を通して伝搬する。   With continued reference to FIG. 9A, the deflected light rays 770, 780, 790 are deflected to propagate through the corresponding waveguides 670, 680, 690. That is, the incoupling optical element 700, 710, 720 of each waveguide deflects light into its corresponding waveguide 670, 680, 690 and incouples light into the corresponding waveguide. . Rays 770, 780, 790 are deflected at an angle that causes the light to propagate through the individual waveguides 670, 680, 690 by TIR. The rays 770, 780, 790 propagate through the individual waveguides 670, 680, 690 by TIR until they strike the corresponding light dispersive elements 730, 740, 750 of the waveguide.

ここで図9Bを参照すると、図9Aの複数のスタックされた導波管の実施例の斜視図が、図示される。前述のように、内部結合された光線770、780、790は、それぞれ、内部結合光学要素700、710、720によって偏向され、次いで、それぞれ、導波管670、680、690内でTIRによって伝搬する。光線770、780、790は、次いで、それぞれ、光分散要素730、740、750に衝突する。光分散要素730、740、750は、それぞれ、外部結合光学要素800、810、820に向かって伝搬するように、光線770、780、790を偏向させる。   9B, a perspective view of the multiple stacked waveguide embodiment of FIG. 9A is illustrated. As previously described, the incoupling rays 770, 780, 790 are respectively deflected by the incoupling optical elements 700, 710, 720 and then propagated by TIR in the waveguides 670, 680, 690, respectively. . Rays 770, 780, 790 then impinge on light dispersive elements 730, 740, 750, respectively. The light dispersive elements 730, 740, 750 deflect the light rays 770, 780, 790 to propagate toward the outcoupling optical elements 800, 810, 820, respectively.

いくつかの実施形態では、光分散要素730、740、750は、直交瞳エクスパンダ(OPE)である。いくつかの実施形態では、OPEは、光を外部結合光学要素800、810、820に偏向または分散し、いくつかの実施形態では、また、外部結合光学要素に伝搬するにつれて、本光のビームまたはスポットサイズを増加させ得る。いくつかの実施形態では、光分散要素730、740、750は、省略されてもよく、内部結合光学要素700、710、720は、光を直接外部結合光学要素800、810、820に偏向させるように構成されてもよい。例えば、図9Aを参照すると、光分散要素730、740、750は、それぞれ、外部結合光学要素800、810、820と置換されてもよい。いくつかの実施形態では、外部結合光学要素800、810、820は、光を視認者の眼210(図7)に指向させる、射出瞳(EP)または射出瞳エクスパンダ(EPE)である。OPEは、少なくとも1つの軸においてアイボックスの寸法を増加させるように構成されてもよく、EPEは、OPEの軸と交差する、例えば、直交する軸においてアイボックスを増加させてもよいことを理解されたい。例えば、各OPEは、光の残りの部分が導波管を辿って伝搬し続けることを可能にしながら、OPEに衝打する光の一部を同一導波管のEPEに再指向するように構成されてもよい。OPEへの衝突に応じて、再び、残りの光の別の部分は、EPEに再指向され、その部分の残りの部分は、導波管等を辿ってさらに伝搬し続ける。同様に、EPEへの衝打に応じて、衝突光の一部は、導波管からユーザに向かって指向され、その光の残りの部分は、EPに再び衝打するまで、導波管を通して伝搬し続け、その時点で、衝突する光の別の部分は、導波管から指向される等となる。その結果、内部結合された光の単一ビームは、その光の一部がOPEまたはEPEによって再指向される度に、「複製」され、それによって、図6に示されるように、クローン化された光のビーム野を形成し得る。いくつかの実施形態では、OPEおよび/またはEPEは、光のビームのサイズを修正するように構成されてもよい。   In some embodiments, the light dispersive elements 730, 740, 750 are orthogonal pupil expanders (OPEs). In some embodiments, the OPE deflects or disperses light into the outcoupling optical elements 800, 810, 820, and in some embodiments also as a beam of light of the present light as it propagates to the outcoupling optical elements. The spot size can be increased. In some embodiments, the light dispersive elements 730, 740, 750 may be omitted and the inner coupling optical elements 700, 710, 720 direct the light directly to the outer coupling optical elements 800, 810, 820. May be configured as. For example, referring to FIG. 9A, light dispersive elements 730, 740, 750 may be replaced with outcoupling optical elements 800, 810, 820, respectively. In some embodiments, the outcoupling optical elements 800, 810, 820 are exit pupils (EP) or exit pupil expanders (EPE) that direct light to the viewer's eye 210 (FIG. 7). It is understood that the OPE may be configured to increase the size of the eyebox in at least one axis and the EPE may increase the eyebox in an axis that intersects, eg, is orthogonal to, the axis of the OPE. I want to be done. For example, each OPE is configured to redirect a portion of the light that strikes the OPE into the EPE of the same waveguide, while allowing the rest of the light to continue to propagate through the waveguide. May be done. In response to the impact on the OPE, another portion of the remaining light is redirected back to the EPE and the remaining portion of that portion continues to propagate further down the waveguide or the like. Similarly, in response to the strike on the EPE, some of the impinging light is directed from the waveguide towards the user, and the rest of the light passes through the waveguide until it strikes the EP again. It continues to propagate, at which point another portion of the impinging light is directed from the waveguide, and so on. As a result, a single beam of internally coupled light is "replicated" each time a portion of that light is redirected by the OPE or EPE, thereby being cloned, as shown in FIG. Can form a beam field of light. In some embodiments, the OPE and / or EPE may be configured to modify the size of the beam of light.

故に、図9Aおよび9Bを参照すると、いくつかの実施形態では、導波管のセット660は、原色毎に、導波管670、680、690と、内部結合光学要素700、710、720と、光分散要素(例えば、OPE)730、740、750と、外部結合光学要素(例えば、EP)800、810、820とを含む。導波管670、680、690は、各1つの間に空隙/クラッディング層を伴ってスタックされてもよい。内部結合光学要素700、710、720は、(異なる波長の光を受信する異なる内部結合光学要素を用いて)入射光をその導波管の中に再指向または偏向させる。光は、次いで、個別の導波管670、680、690内にTIRをもたらすであろう角度で伝搬する。示される実施例では、光線770(例えば、青色光)は、前述の様式において、第1の内部結合光学要素700によって偏光され、次いで、導波管を辿ってバウンスし続け、光分散要素(例えば、OPE)730、次いで、外部結合光学要素(例えば、EP)800と相互作用する。光線780および790(例えば、それぞれ、緑色および赤色光)は、導波管670を通して通過し、光線780は、内部結合光学要素710上に衝突し、それによって偏向される。光線780は、次いで、TIRを介して、導波管680を辿ってバウンスし、その光分散要素(例えば、OPE)740、次いで、外部結合光学要素(例えば、EP)810に進むであろう。最後に、光線790(例えば、赤色光)は、導波管690を通して通過し、導波管690の光内部結合光学要素720に衝突する。光内部結合光学要素720は、光線が、TIRによって、光分散要素(例えば、OPE)750、次いで、外部結合光学要素(例えば、EP)820に伝搬するように、光線790を偏向させる。外部結合光学要素820は、次いで、最後に、光線790を視認者に外部結合し、視認者はまた、他の導波管670、680からの外部結合した光も受信する。   Thus, referring to FIGS. 9A and 9B, in some embodiments, the set of waveguides 660 includes, for each primary color, a waveguide 670, 680, 690 and an inner coupling optical element 700, 710, 720. It includes light dispersive elements (eg OPE) 730, 740, 750 and outcoupling optical elements (eg EP) 800, 810, 820. The waveguides 670, 680, 690 may be stacked with a void / cladding layer between each one. The incoupling optics 700, 710, 720 redirect (or with different incoupling optics that receive different wavelengths of light) the incident light into its waveguide. The light then propagates into the individual waveguides 670, 680, 690 at an angle that will result in TIR. In the example shown, the light ray 770 (eg, blue light) is polarized by the first incoupling optical element 700 in the manner described above, and then continues to bounce through the waveguide to disperse the light dispersing element (eg, blue light). , OPE) 730, and then outcoupling optics (eg, EP) 800. Rays 780 and 790 (eg, green and red light, respectively) pass through waveguide 670, and ray 780 impinges on and is deflected by incoupling optical element 710. Ray 780 will then bounce through TIR through waveguide 680 to its light dispersive element (eg, OPE) 740 and then outcoupling optical element (eg, EP) 810. Finally, light ray 790 (eg, red light) passes through waveguide 690 and impinges on optical incoupling optical element 720 of waveguide 690. The light incoupling optical element 720 deflects the light ray 790 so that it propagates by TIR to the light dispersive element (eg, OPE) 750 and then to the outcoupling optical element (eg, EP) 820. Outcoupling optics 820 then finally outcouples light ray 790 to the viewer, who also receives the outcoupled light from other waveguides 670, 680.

図9Cは、図9Aおよび9Bの複数のスタックされた導波管の実施例の上下平面図を図示する。図示されるように、導波管670、680、690は、各導波管の関連付けられた光分散要素730、740、750および関連付けられた外部結合光学要素800、810、820とともに、垂直に整合されてもよい。しかしながら、本明細書に議論されるように、内部結合光学要素700、710、720は、垂直に整合されない。むしろ、内部結合光学要素は、好ましくは、非重複する(例えば、上下図に見られるように、側方に離間される)。本明細書でさらに議論されるように、本非重複空間配列は、1対1ベースで異なるリソースから異なる導波管の中への光の投入を促進し、それによって、具体的光源が具体的導波管に一意に結合されることを可能にする。いくつかの実施形態では、非重複の空間的に分離される内部結合光学要素を含む、配列は、偏移瞳システムと称され得、これらの配列内の内部結合光学要素は、サブ瞳に対応し得る。   FIG. 9C illustrates a top-down plan view of the multiple stacked waveguide embodiment of FIGS. 9A and 9B. As shown, the waveguides 670, 680, 690 are vertically aligned with their associated light dispersive elements 730, 740, 750 and their associated outcoupling optical elements 800, 810, 820. May be done. However, as discussed herein, the incoupling optical elements 700, 710, 720 are not vertically aligned. Rather, the incoupling optical elements are preferably non-overlapping (eg, laterally spaced, as seen in the top and bottom views). As discussed further herein, the present non-overlapping spatial arrangement facilitates the injection of light from different resources into different waveguides on a 1: 1 basis, thereby allowing specific light sources to be specific. Allows to be uniquely coupled to the waveguide. In some embodiments, arrays that include non-overlapping, spatially separated, internally coupled optical elements can be referred to as a shift pupil system, where the internally coupled optical elements in these arrays correspond to sub-pupils. You can

図9Dは、本明細書に開示される種々の導波管および関連システムが統合され得る、ウェアラブルディスプレイシステム60の実施例を図示する。いくつかの実施形態では、ディスプレイシステム60は、図6のシステム250であって、図6は、そのシステム60のいくつかの部分をより詳細に図式的に示す。例えば、図6の導波管アセンブリ260は、ディスプレイ70の一部であってもよい。   FIG. 9D illustrates an example of a wearable display system 60 in which the various waveguides and related systems disclosed herein can be integrated. In some embodiments, the display system 60 is the system 250 of FIG. 6, which schematically illustrates some portions of the system 60 in more detail. For example, the waveguide assembly 260 of FIG. 6 may be part of the display 70.

図9Dを継続して参照すると、ディスプレイシステム60は、ディスプレイ70と、そのディスプレイ70の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ70は、フレーム80に結合されてもよく、これは、ディスプレイシステムユーザまたは視認者90によって装着可能であって、ディスプレイ70をユーザ90の眼の正面に位置付けるように構成される。ディスプレイ70は、いくつかの実施形態では、接眼レンズと見なされ得る。いくつかの実施形態では、スピーカ100が、フレーム80に結合され、ユーザ90の外耳道に隣接して位置付けられるように構成される(いくつかの実施形態では、示されない別のスピーカも、随意に、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供してもよい)。ディスプレイシステム60はまた、1つ以上のマイクロホン110または他のデバイスを含み、音を検出してもよい。いくつかの実施形態では、マイクロホンは、ユーザが入力またはコマンドをシステム60に提供することを可能にするように構成され(例えば、音声メニューコマンドの選択、自然言語質問等)、および/または他の人物(例えば、類似ディスプレイシステムの他のユーザ)とのオーディオ通信を可能にしてもよい。マイクロホンはさらに、周辺センサとして構成され、オーディオデータ(例えば、ユーザおよび/または環境からの音)を収集してもよい。いくつかの実施形態では、ディスプレイシステム60はさらに、光、オブジェクト、刺激、人々、動物、場所、またはユーザの周囲の世界の他の側面を検出するように構成される、1つ以上の外向きに指向される環境センサ112を含んでもよい。例えば、環境センサ112は、1つ以上のカメラを含んでもよく、これは、例えば、ユーザ90の通常の視野の少なくとも一部に類似する画像を捕捉するように外向きに面して位置してもよい。いくつかの実施形態では、ディスプレイシステムはまた、周辺センサ120aを含んでもよく、これは、フレーム80と別個であって、ユーザ90の身体(例えば、ユーザ90の頭部、胴体、四肢等)上に取り付けられてもよい。周辺センサ120aは、いくつかの実施形態では、ユーザ90の生理学的状態を特徴付けるデータを入手するように構成されてもよい。例えば、センサ120aは、電極であってもよい。   With continued reference to FIG. 9D, display system 60 includes a display 70 and various mechanical and electronic modules and systems for supporting the functions of display 70. Display 70 may be coupled to frame 80, which is wearable by a display system user or viewer 90 and is configured to position display 70 in front of user 90's eye. The display 70 may be considered an eyepiece in some embodiments. In some embodiments, the speaker 100 is coupled to the frame 80 and is configured to be positioned adjacent to the ear canal of the user 90 (in some embodiments, another speaker not shown is also optional). Located adjacent to the user's other ear canal and may provide stereo / mouldable sound control). Display system 60 may also include one or more microphones 110 or other devices to detect sound. In some embodiments, the microphone is configured to allow a user to provide input or commands to system 60 (eg, voice menu command selection, natural language question, etc.), and / or other Audio communication with a person (eg, another user of a similar display system) may be enabled. The microphone may also be configured as a peripheral sensor to collect audio data (eg, sound from the user and / or the environment). In some embodiments, the display system 60 is further configured to detect light, objects, stimuli, people, animals, places, or other aspects of the world around the user, one or more outward facing. May include an environment sensor 112 directed at. For example, the environmental sensor 112 may include one or more cameras, which are located outward facing to capture an image similar to, for example, at least a portion of the user's 90 normal field of view. Good. In some embodiments, the display system may also include a peripheral sensor 120a, which is separate from the frame 80 and on the body of the user 90 (eg, the head, torso, extremities, etc. of the user 90). May be attached to. Peripheral sensor 120a may be configured, in some embodiments, to obtain data characterizing a physiological condition of user 90. For example, the sensor 120a may be an electrode.

図9Dを継続して参照すると、ディスプレイ70は、有線導線または無線コネクティビティ等の通信リンク130によって、ローカルデータ処理モジュール140に動作可能に結合され、これは、フレーム80を固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子を固定して取り付けられる、ヘッドホン内に埋設される、または別様にユーザ90に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成において搭載されてもよい。同様に、センサ120aは、通信リンク120b、例えば、有線導線または無線コネクティビティによって、ローカルデータ処理モジュール140に動作可能に結合されてもよい。ローカル処理およびデータモジュール140は、ハードウェアプロセッサおよび不揮発性メモリ(例えば、フラッシュメモリまたはハードディスクドライブ)等のデジタルメモリを備えてもよく、両方とも、データの処理、キャッシュ、および記憶を補助するために利用されてもよい。随意に、ローカル処理およびデータモジュール140は、1つ以上の中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、専用処理ハードウェア等を含んでもよい。データは、a)センサ(画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、ジャイロスコープ、および/または本明細書に開示される他のセンサ(例えば、フレーム80に動作可能に結合される、または別様にユーザ90に取り付けられ得る))から捕捉された、および/またはb)可能性として処理または読出後にディスプレイ70への通過のための遠隔処理モジュール150および/または遠隔データリポジトリ160(仮想コンテンツに関連するデータを含む)を使用して取得および/または処理されたデータを含んでもよい。ローカル処理およびデータモジュール140は、これらの遠隔モジュール150、160が相互に動作可能に結合され、ローカル処理およびデータモジュール140に対するリソースとして利用可能であるように、有線または無線通信リンクを介して等、通信リンク170、180によって、遠隔処理モジュール150および遠隔データリポジトリ160に動作可能に結合されてもよい。いくつかの実施形態では、ローカル処理およびデータモジュール140は、画像捕捉デバイス、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープのうちの1つ以上のものを含んでもよい。いくつかの他の実施形態では、これらのセンサのうちの1つまたはそれを上回るものは、フレーム80に取り付けられてもよい、または有線または無線通信経路によってローカル処理およびデータモジュール140と通信する、独立構造であってもよい。   With continued reference to FIG. 9D, the display 70 is operably coupled to the local data processing module 140 by a communication link 130, such as a wire or wireless connectivity, which is fixedly mounted to the frame 80 by a user. Fixedly attached to a helmet or hat worn by the user, embedded in headphones, or otherwise removably attached to the user 90 (eg, in a backpack configuration, in a belt-coupled configuration), etc. May be mounted in the above configuration. Similarly, the sensor 120a may be operably coupled to the local data processing module 140 by a communication link 120b, such as a wired conductor or wireless connectivity. The local processing and data module 140 may include a digital memory, such as a hardware processor and non-volatile memory (eg, flash memory or hard disk drive), both to assist in processing, caching, and storing data. May be used. Optionally, local processing and data module 140 may include one or more central processing units (CPUs), graphics processing units (GPUs), dedicated processing hardware, etc. The data may be a) sensors (image capture devices (such as cameras), microphones, inertial measurement units, accelerometers, compasses, GPS units, wireless devices, gyroscopes, and / or other sensors disclosed herein (eg, , Operably coupled to the frame 80, or otherwise attachable to the user 90) captured), and / or b) remote processing for passage to the display 70, possibly after processing or readout. It may include data obtained and / or processed using the module 150 and / or the remote data repository 160 (including data related to virtual content). The local processing and data module 140 is coupled such that these remote modules 150, 160 are operably coupled to each other and are available as resources to the local processing and data module 140, such as via a wired or wireless communication link, etc. Communication links 170, 180 may be operatively coupled to remote processing module 150 and remote data repository 160. In some embodiments, the local processing and data module 140 includes one or more of an image capture device, a microphone, an inertial measurement unit, an accelerometer, a compass, a GPS unit, a wireless device, and / or a gyroscope. May be included. In some other embodiments, one or more of these sensors may be attached to frame 80 or communicate with local processing and data module 140 via a wired or wireless communication path. It may be an independent structure.

図9Dを継続して参照すると、いくつかの実施形態では、遠隔処理モジュール150は、データおよび/または画像情報を分析および処理するように構成される、1つ以上のプロセッサを備えてもよく、例えば、1つ以上の中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、専用処理ハードウェア等を含む。いくつかの実施形態では、遠隔データリポジトリ160は、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であり得る、デジタルデータ記憶設備を備えてもよい。いくつかの実施形態では、遠隔データリポジトリ160は、1つ以上の遠隔サーバを含んでもよく、これは、情報、例えば、拡張現実コンテンツをローカル処理およびデータモジュール140および/または遠隔処理モジュール150に生成するための情報を提供する。いくつかの実施形態では、全てのデータは、記憶され、全ての算出は、ローカル処理およびデータモジュール内で行われ、遠隔モジュールからの完全に自律的使用を可能にする。随意に、CPU、GPU等を含む、外部システム(例えば、1つ以上のプロセッサ、1つ以上のコンピュータのシステム)が、処理(例えば、画像情報を生成する、データを処理する)の少なくとも一部を実施し、例えば、無線または有線接続を介して、情報をモジュール140、150、160に提供し、情報をそこから受信してもよい。

I. 深度情報に基づく品質調節
With continued reference to FIG. 9D, in some embodiments the remote processing module 150 may comprise one or more processors configured to analyze and process data and / or image information, For example, it includes one or more central processing units (CPU), graphics processing units (GPU), dedicated processing hardware, and the like. In some embodiments, remote data repository 160 may comprise digital data storage facilities that may be available through the Internet or other networking configurations in a “cloud” resource configuration. In some embodiments, remote data repository 160 may include one or more remote servers that generate information, eg, augmented reality content, to local processing and data module 140 and / or remote processing module 150. Provide information to do so. In some embodiments, all data is stored and all calculations are done within the local processing and data modules, allowing full autonomous use from remote modules. At least part of a process (eg, generating image information, processing data) by an external system (eg, one or more processors, one or more computer systems), optionally including a CPU, GPU, etc. May be implemented to provide information to and receive information from modules 140, 150, 160, eg, via a wireless or wired connection.

I. Quality control based on depth information

本明細書に説明されるように、種々の実施形態による、ディスプレイシステム(例えば、図9Dのディスプレイシステム60等の拡張現実ディスプレイシステム)は、例えば、ユーザの眼を監視することによって、ユーザの3次元固視点を決定してもよい。固視点は、(1)x−軸(例えば、側方軸)、(2)y−軸(例えば、垂直軸)、および(3)z−軸(例えば、点の深度、例えば、ユーザからの深度)に沿った空間内の点の場所を示し得る。いくつかの実施形態では、ディスプレイシステムは、カメラ、センサ等を利用して、ユーザの眼(例えば、各眼の瞳孔、角膜等)を監視し、各眼の視線を決定してもよい。各眼の視線は、概して、眼の水晶体を通したその眼の網膜の中心から延在するベクトルであると理解され得る。例えば、ベクトルは、概して、眼の水晶体を通した黄斑の中心(例えば、中心窩)から延在し得る。ディスプレイシステムは、眼と関連付けられたベクトルが交差する場所を決定するように構成されてもよく、本交点は、眼の固視点であると理解され得る。換言すると、固視点は、ユーザの眼が輻輳している3次元空間内の場所であり得る。いくつかの実施形態では、ディスプレイシステムは、例えば、高速移動(例えば、サッケード、マイクロサッケード)の間、ユーザの眼のわずかな移動をフィルタリングしてもよく、眼が3次元空間内のある場所を固視していることを決定することに応じて、固視点を更新してもよい。例えば、ディスプレイシステムは、閾値持続時間未満にわたってある点を固視している眼の移動を無視するように構成されてもよい。   As described herein, a display system (eg, an augmented reality display system such as the display system 60 of FIG. 9D), according to various embodiments, can be used to monitor the user's eyes, eg, by monitoring the user's eyes. The dimensional fixation point may be determined. The fixation point is (1) x-axis (eg, lateral axis), (2) y-axis (eg, vertical axis), and (3) z-axis (eg, point depth, eg, from the user. It may indicate the location of the point in space along the depth. In some embodiments, the display system may utilize cameras, sensors, etc. to monitor the user's eyes (eg, the pupil of each eye, the cornea, etc.) and determine the line of sight of each eye. The line of sight of each eye can be generally understood to be a vector extending from the center of the retina of the eye through the lens of the eye. For example, the vector may generally extend from the center of the macula (eg, the fovea) through the lens of the eye. The display system may be configured to determine where the vector associated with the eye intersects, and this point of intersection may be understood to be the fixation point of the eye. In other words, the fixation point may be a place in the three-dimensional space where the user's eyes are converging. In some embodiments, the display system may filter slight movements of the user's eye, such as during fast movements (eg, saccades, microsaccades), such that the eye may occupy a location in three-dimensional space. The fixation point may be updated in response to determining the fixation. For example, the display system may be configured to ignore eye movements that are gazing at a point for less than a threshold duration.

仮想オブジェクトまたはコンテンツ等のディスプレイシステムによって提示される、コンテンツの分解能は、本明細書に議論されるように、固視点との近接度に基づいて調節されてもよい。ディスプレイシステムは、仮想オブジェクトの3次元空間内の場所に関する情報をその中に記憶してもよい、そこへのアクセスを有してもよいことを理解されたい。仮想オブジェクトの既知の場所に基づいて、所与の仮想オブジェクトと固視点の近接度が、決定されてもよい。例えば、仮想オブジェクトと固視点の近接度は、(1)ユーザの固視点からの仮想オブジェクトの3次元距離、(2)ディスプレイシステムのディスプレイ錐台が分解能調節ゾーンに分割される場合、固視点が位置する分解能調節ゾーンに対する、仮想オブジェクトが位置する分解能調節ゾーン、(3)仮想オブジェクトとユーザの視線との間の角度分離のうちの1つ以上のものを決定することによって決定されてもよい。固視点のより近くに近接する仮想コンテンツは、固視点からより遠いコンテンツより高い分解能で提示されてもよい。いくつかの実施形態では、仮想コンテンツの分解能は、仮想コンテンツが固視点に対して配置される深度平面または固視点が配置される深度平面の近接度に応じて変化する。いくつかの実施形態では、分解能に対する調節は、1つ以上のグラフィック処理ユニット、例えば、モジュール140、150(図9D)のうちの1つ以上のもの内に含まれるレンダリングエンジン等のレンダリングエンジンによって行われてもよい。   The resolution of the content presented by the display system, such as virtual objects or content, may be adjusted based on proximity to the fixation point, as discussed herein. It is to be appreciated that the display system may have access to, where information about the virtual object's location in three-dimensional space may be stored. The proximity of a given virtual object to the fixation point may be determined based on the known location of the virtual object. For example, the proximity between the virtual object and the fixation point is (1) the three-dimensional distance of the virtual object from the fixation point of the user, and (2) when the display frustum of the display system is divided into resolution adjustment zones. It may be determined by determining one or more of (3) the angular separation between the virtual object and the user's line of sight, relative to the resolution adjustment zone in which the virtual object is located. Virtual content closer to the fixation point may be presented with a higher resolution than content farther from the fixation point. In some embodiments, the resolution of the virtual content varies depending on the depth plane in which the virtual content is located with respect to the fixation point or the proximity of the depth plane in which the fixation point is arranged. In some embodiments, adjustments to resolution are made by a rendering engine, such as a rendering engine included in one or more graphics processing units, eg, one or more of modules 140, 150 (FIG. 9D). You may break.

図10Aは、ディスプレイシステム(例えば、ディスプレイシステム60、図9D)によって提示されるコンテンツ(例えば、ディスプレイ錐台1004内に含まれるコンテンツ)を視認するユーザの上下図の表現の実施例を図示する。表現は、ユーザの眼210、220と、眼210、220の固視点1006の決定とを含む。図示されるように、各眼の視線は、ベクトル(例えば、ベクトル1003A、1003B)として表され、ディスプレイシステムは、例えば、それらのベクトルが眼210、22の正面で収束する場所を決定することによって、固視点1006を検出している。図示される実施例では、固視点1006は、ディスプレイシステムによって提示される第1の仮想オブジェクト1008Aの場所と一致する。眼追跡のためのシステムおよび方法の実施例は、2015年4月18日に出願された米国特許出願第14/690,401号(あらゆる目的のために、参照することによって組み込まれる)および添付の付録に見出され得る。例えば、眼追跡システムおよび方法は、少なくとも、付録の図25−27に説明されており、少なくとも部分的に、本明細書に説明されるように、眼追跡のため、および/または固視点を決定するために利用されることができる。   FIG. 10A illustrates an example of a top-bottom representation of a user viewing content (eg, content contained within display frustum 1004) presented by a display system (eg, display system 60, FIG. 9D). The representation includes the eyes 210, 220 of the user and the determination of the fixation point 1006 of the eyes 210, 220. As shown, the line of sight of each eye is represented as a vector (eg, vector 1003A, 1003B), and the display system may, for example, determine where those vectors converge in front of the eyes 210, 22. , Fixation point 1006 is detected. In the illustrated example, the fixation point 1006 corresponds to the location of the first virtual object 1008A presented by the display system. Examples of systems and methods for eye tracking are described in US patent application Ser. No. 14 / 690,401, filed Apr. 18, 2015 (incorporated by reference for all purposes) and the accompanying Can be found in the Appendix. For example, eye tracking systems and methods are described at least in Figures 25-27 of the Appendix and, at least in part, as described herein, for eye tracking and / or determining fixation points. Can be used to:

図10Aを継続して参照すると、第2の仮想オブジェクト1008Bもまた、ディスプレイシステムによって、ディスプレイ錐台1004内に提示される。視認者によって見られるようなこれらの仮想オブジェクト1008A、1008Bのビューは、レンダリングされたフレーム1010内に示される。レンダリングされたフレーム1010は、第1の分解能でレンダリングされた第1の仮想オブジェクト1008Aを含んでもよい一方、固視点1006から離れて位置する、第2の仮想オブジェクト1008Bは、第2のより低い分解能でレンダリングされる。具体的には、第2の仮想オブジェクト1008Bは、第1の仮想オブジェクト1008Aより深い深度にあって、その側面に向かって位置することが決定され得る。例えば、ディスプレイシステムが、本明細書に議論されるように、第2の仮想オブジェクト1008Bの深度を決定してもよい、または随意に、仮想コンテンツと関連付けられたコンテンツプロバイダが、ディスプレイシステムがその仮想オブジェクトをレンダリングするために利用し得る、仮想オブジェクトの深度を示してもよい。したがって、固視点1006は、上記に説明されるように、ユーザが見ている空間内の3次元場所を説明し、第2の仮想オブジェクト1008Bは、ユーザからより遠い深度に位置するとともに、固視点1006から側方に変位されていることが決定され得る。   With continued reference to FIG. 10A, the second virtual object 1008B is also presented by the display system in the display frustum 1004. A view of these virtual objects 1008A, 1008B as seen by a viewer is shown in rendered frame 1010. The rendered frame 1010 may include a first virtual object 1008A rendered at a first resolution, while a second virtual object 1008B located away from the fixation point 1006 has a second lower resolution. Rendered with. Specifically, it may be determined that the second virtual object 1008B is at a deeper depth than the first virtual object 1008A and is positioned toward the side surface thereof. For example, the display system may determine the depth of the second virtual object 1008B, as discussed herein, or, optionally, the content provider associated with the virtual content determines that the display system is virtual. It may indicate the depth of the virtual object that may be used to render the object. Thus, the fixation point 1006 describes the three-dimensional location in space that the user is looking at, as described above, and the second virtual object 1008B is located at a depth further from the user and It can be determined that it is displaced laterally from 1006.

理論によって限定されるわけではないが、ユーザの眼210、220が、第1の仮想オブジェクト1008Aを見ている状態では、第1の仮想オブジェクト1008Aの画像は、ユーザの中心窩に入り得る一方、第2の仮想オブジェクト1008Bの画像は、中心窩に入らないと考えられる。その結果、第2の仮想オブジェクト1008Bは、その第2の仮想オブジェクト1008Bに対するヒト視覚系のより低い感度に起因して、ディスプレイシステムの知覚される画質に有意な影響を伴わずに、分解能が低減されてもよい。加えて、より低い分解能は、有利には、画像を提供するために要求される算出負荷を低減させる。本明細書に議論されるように、第2の仮想オブジェクト1008Bがレンダリングされる、分解能は、固視点1006との近接度に基づいてもよく、分解能における低減(例えば、第1の仮想オブジェクト1008Aの分解能に対する)は、固視点1006と仮想オブジェクト1008Aとの間の近接度の減少(または距離の増加)に伴って、増加し得る。いくつかの実施形態では、分解能の減少率は、ヒトの眼内の錐体の密度の低減率または中心窩から離れるにつれた視力降下に準拠してもよい。   Without being limited by theory, with the user's eyes 210, 220 looking at the first virtual object 1008A, an image of the first virtual object 1008A may enter the fovea of the user, while The image of the second virtual object 1008B is considered not to enter the fovea. As a result, the second virtual object 1008B has reduced resolution without a significant impact on the perceived image quality of the display system due to the lower sensitivity of the human visual system to the second virtual object 1008B. May be done. In addition, the lower resolution advantageously reduces the computational load required to provide the image. As discussed herein, the second virtual object 1008B is rendered, the resolution may be based on proximity to the fixation point 1006, and a reduction in resolution (eg, of the first virtual object 1008A). (With respect to resolution) may increase with decreasing proximity (or increasing distance) between fixation point 1006 and virtual object 1008A. In some embodiments, the rate of decrease in resolution may be based on the rate of decrease in the density of cones in the human eye or the loss of visual acuity with distance from the fovea.

ディスプレイシステムによって提示される種々の仮想オブジェクトの分解能は、固視点が場所を変化させるにつれて動的に変動し得ることを理解されたい。例えば、図10Bは、ディスプレイシステムによって提示されるコンテンツを視認するユーザの上下図の表現の別の実施例を図示する。図10Bに図示されるように、ユーザは、ユーザが第1の仮想オブジェクト1008Aに合焦していた図10Aと比較して、ここでは、第2の仮想オブジェクト1008Bに合焦している。ユーザの視線1003A、1003Bを監視することによって、ディスプレイシステムは、眼210、220が第2の仮想オブジェクト1008B上に輻輳していることを決定し、その場所を新しい固視点1006として設定する。   It should be appreciated that the resolution of the various virtual objects presented by the display system may change dynamically as the fixation point changes location. For example, FIG. 10B illustrates another example of a top-bottom representation of a user viewing content presented by a display system. As illustrated in FIG. 10B, the user is now focused on the second virtual object 1008B, as compared to FIG. 10A where the user was focused on the first virtual object 1008A. By monitoring the user's gaze 1003A, 1003B, the display system determines that the eyes 210, 220 are congested on the second virtual object 1008B and sets the location as a new fixation point 1006.

固視点1006の場所の本変化を検出することに応じて、ディスプレイシステムは、ここで、レンダリングされたフレーム1010に示されるように、第2の仮想オブジェクト1008Bを第1の仮想オブジェクト1008Aより高い分解能でレンダリングする。好ましくは、ディスプレイシステムは、ユーザの視線1003A、1003Bを十分に高周波数で監視し、第1の仮想オブジェクト1008Aおよび第2の仮想オブジェクト1008Bの分解能における遷移がユーザに実質的に知覚不能であるように、仮想オブジェクトの分解能を十分に迅速に変化させる。   In response to detecting this change in the location of fixation point 1006, the display system now renders the second virtual object 1008B a higher resolution than the first virtual object 1008A, as shown in rendered frame 1010. Render with. Preferably, the display system monitors the user's gaze 1003A, 1003B at a sufficiently high frequency so that the transitions in the resolution of the first virtual object 1008A and the second virtual object 1008B are substantially imperceptible to the user. In addition, the resolution of the virtual object is changed sufficiently quickly.

図10Cは、ディスプレイシステム(例えば、ディスプレイシステム60、図9D)を介してコンテンツを視認するユーザの上下図の表現の別の実施例を図示する。実施例では、ユーザの視野1004は、固視点1006とともに図示される。3つの仮想オブジェクトが、図示され、第1の仮想オブジェクト1012Aは、第2の仮想オブジェクト1012Bまたは第3の仮想オブジェクト1012Cより固視点1006の近くに近接する。同様に、第2の仮想オブジェクト1012Bは、第3の仮想オブジェクト1012Cより固視点1006の近くに近接するように図示される。したがって、仮想オブジェクト1012A−1012Cが、ユーザに提示されると、ディスプレイシステムは、第1の仮想オブジェクト1012Aをレンダリングするステップが、第2の仮想オブジェクト1012Bより大きなリソース配分を与えられ(例えば、オブジェクト1012Aが、より高い分解能でレンダリングされる)、第2の仮想オブジェクト1012Bが、第3の仮想オブジェクト1012Cより大きいリソース配分を受けるように、リソースを配分し得る。第3の仮想オブジェクト1012Cは、随意に、視野1004外にあるため、全くレンダリングされなくてもよい。   FIG. 10C illustrates another example of a top-bottom representation of a user viewing content via a display system (eg, display system 60, FIG. 9D). In the illustrative example, the user's field of view 1004 is illustrated with fixation point 1006. Three virtual objects are shown, with the first virtual object 1012A being closer to the fixation point 1006 than the second virtual object 1012B or the third virtual object 1012C. Similarly, the second virtual object 1012B is shown closer to the fixation point 1006 than the third virtual object 1012C. Thus, when virtual objects 1012A-1012C are presented to the user, the display system is provided with a step of rendering the first virtual object 1012A with a greater resource allocation than the second virtual object 1012B (eg, object 1012A). , But the second virtual object 1012B receives a larger resource allocation than the third virtual object 1012C. The third virtual object 1012C may optionally be outside the field of view 1004 and therefore not rendered at all.

分解能調節ゾーンが、図10Cの実施例に図示され、ゾーンは、深度および側方軸に沿って説明される楕円形(例えば、円形)である。図示されるように、固視点1006は、中心ゾーン1014Aの内側にあって、第1の仮想オブジェクト1012Aは、ゾーン1014B、1014C間かつユーザの中心窩視の円錐1004a内に延在する。第1の仮想オブジェクト1012Aは、したがって、ゾーン1014Bまたは1014Cと関連付けられた分解能でユーザに提示されてもよく、または随意に、ゾーン1014B内のオブジェクト1012Aの一部が、ゾーン1014Bの分解能に従って提示されてもよく、ゾーン1014C内の残りの部分は、ゾーン1014Cの分解能に従って提示されてもよい。例えば、ゾーンが最大(例えば、最高)分解能から低減された分解能を割り当てられる、ある実施形態では、第1の仮想オブジェクト1012Aは、割り当てられた分解能で提示されてもよい。随意に、第1の仮想オブジェクト1012Aは、分解能(例えば、ディスプレイシステムは、それを横断して第1の仮想オブジェクト1012Aが延在する任意のゾーンと関連付けられた最高分解能で表示するようにプログラムされてもよい)または分解能の中心傾向の測定値(例えば、測定値は、オブジェクト1012Aがゾーン1014B、1014C内に位置する範囲に従って加重され得る)のいずれかで提示されてもよい。図10Cを継続して参照すると、固視点1006からの異なる距離における分解能調節ゾーンは、異なる形状を有してもよいことを理解されたい。例えば、ゾーン1014Cは、ゾーン1014A−1014Cと異なる形状を有し、視野1004の輪郭に準拠してもよい。いくつかの他の実施形態では、ゾーン1014A−1014Cのうちの1つ以上のものは、ゾーン1014A−1014Cの1つ以上のその他と異なる形状を有してもよい。   The resolution adjustment zone is illustrated in the example of FIG. 10C, where the zone is elliptical (eg, circular) described along the depth and lateral axes. As shown, the fixation point 1006 is inside the central zone 1014A and the first virtual object 1012A extends between the zones 1014B, 1014C and within the foveal cone 1004a of the user. The first virtual object 1012A may thus be presented to the user at the resolution associated with the zone 1014B or 1014C, or optionally, a portion of the object 1012A within the zone 1014B may be presented according to the resolution of the zone 1014B. The rest of the zone 1014C may be presented according to the resolution of the zone 1014C. For example, in some embodiments where the zone is assigned a reduced resolution from the maximum (eg, highest) resolution, the first virtual object 1012A may be presented at the assigned resolution. Optionally, the first virtual object 1012A is programmed to display at a resolution (eg, the display system is at the highest resolution associated with any zone across which the first virtual object 1012A extends). May be present) or a measure of the central tendency of resolution (eg, the measure may be weighted according to the extent to which object 1012A is located within zones 1014B, 1014C). With continued reference to FIG. 10C, it should be appreciated that the resolution adjustment zones at different distances from the fixation point 1006 may have different shapes. For example, zone 1014C may have a different shape than zones 1014A-1014C and conform to the contour of field of view 1004. In some other embodiments, one or more of zones 1014A-1014C may have a different shape than one or more of zones 1014A-1014C.

図10Dは、例示的ディスプレイシステムのブロック図である。例示的ディスプレイシステム(例えば、ディスプレイシステム60、図9D)は、拡張現実ディスプレイシステムおよび/または複合現実ディスプレイシステムであってもよく、これは、本明細書に説明されるように、ユーザの固視点に従って、レンダリングハードウェアリソースの使用を調節することができる。例えば、図10Cに関して上記に説明されるように、レンダリングハードウェアリソース1021は、ユーザの固視点に従って調節されることができる。リソースアービタ1020が、そのようなリソース1021の使用を調整するために実装されてもよく、例えば、アービタ1020は、リソース1021を仮想オブジェクトをユーザに提示するステップと関連付けられた特定のアプリケーションプロセス1022に配分することができる。リソースアービタ1020および/またはレンダリングハードウェアリソース1021は、随意に、ディスプレイシステム60のローカル処理およびデータモジュール140(例えば、図9Dに図示されるように)および/または遠隔処理モジュール150内に含まれてもよい。例えば、レンダリングハードウェアリソース1021は、グラフィック処理ユニット(GPU)を備えてもよく、これは、図9Dに関して上記に説明されるように、モジュール140および/またはモジュール150内に含まれてもよい。   FIG. 10D is a block diagram of an exemplary display system. The exemplary display system (eg, display system 60, FIG. 9D) may be an augmented reality display system and / or a mixed reality display system, which, as described herein, has a user's perspective. Accordingly, the usage of rendering hardware resources can be adjusted. For example, as described above with respect to FIG. 10C, rendering hardware resources 1021 can be adjusted according to the user's fixation point. A resource arbiter 1020 may be implemented to coordinate the use of such resources 1021; for example, the arbiter 1020 may direct the resource 1021 to a particular application process 1022 associated with presenting a virtual object to a user. Can be distributed. Resource arbiter 1020 and / or rendering hardware resources 1021 are optionally included within local processing and data module 140 of display system 60 (eg, as shown in FIG. 9D) and / or remote processing module 150. Good. For example, rendering hardware resource 1021 may comprise a graphics processing unit (GPU), which may be included in module 140 and / or module 150, as described above with respect to FIG. 9D.

リソース1021を調節する実施例として、図10Cに関して、第1のアプリケーションプロセスと関連付けられた第1の仮想オブジェクト1012Aは、第2のアプリケーションプロセスと関連付けられた第2の仮想オブジェクト1012Bより多くのリソース1021の割当を配分されることができる。アプリケーションプロセス1022と関連付けられた仮想オブジェクトは、配分されるリソース1021に基づいてレンダリングされ、最終フレームバッファ1028の中に合成される(例えば、合成器1026によって)ことになるフレームバッファ1024内に含まれることができる。最終フレームバッファ1028は、次いで、ディスプレイハードウェア1030、例えば、図9Dに図示されるディスプレイ70によって提示されることができ、レンダリングされた仮想オブジェクトは、分解能が調節される。   As an example of adjusting resource 1021, with respect to FIG. 10C, a first virtual object 1012A associated with a first application process has more resources 1021 than a second virtual object 1012B associated with a second application process. Can be apportioned. The virtual objects associated with the application process 1022 are rendered based on the allocated resources 1021 and included in the frame buffer 1024 that will be composited (eg, by the compositor 1026) into the final frame buffer 1028. be able to. The final frame buffer 1028 can then be presented by the display hardware 1030, eg, the display 70 illustrated in FIG. 9D, and the rendered virtual object is resolution adjusted.

本明細書に開示されるように、仮想オブジェクトの分解能は、仮想オブジェクトと固視点の近接度に基づいて決定されてもよい。いくつかの実施形態では、分解能は、仮想オブジェクトと固視点との間の距離の関数として修正されてもよい。いくつかの実施形態では、修正は、離散ステップにおいて生じてもよい。すなわち、類似修正が、特定の体積またはゾーン内に配置される全ての仮想オブジェクトに適用されてもよい。図11A1は、3次元固視点追跡に基づく、異なる分解能調節ゾーン内の分解能における調節の上下図の表現の実施例を図示する。ディスプレイシステムは、ディスプレイ錐台を複数の体積または分解能調節ゾーンに分割し、これらのゾーンに対応する離散ステップにおいて、分解能を修正してもよい。したがって、いくつかの実施形態では、仮想コンテンツの分解能における調節を決定するために、ディスプレイシステムは、空間の体積(以降、分解能調節ゾーンと称される)を説明する情報および分解能調節の各空間の体積への割当を利用してもよい。図示されるように、ディスプレイシステムによって提供される視野(例えば、ディスプレイのディスプレイ錐台)は、複数の異なるゾーンに分離され、それぞれ、ユーザからの深度の範囲(例えば、深度範囲1102A−1102E)を包含する。いくつかの実施形態では、各深度範囲1102A−1102Eは、ディスプレイシステムによって提示され得る、単一の関連付けられた深度平面を有する。図11A1を継続して参照すると、5つのゾーンが、ユーザからの各識別された深度の範囲を包含し、側方方向に沿って連続する。図示される例示的上下図では、視野は、25のゾーンのグリッド1100に分割される。各ゾーンは、仮想コンテンツがユーザのために設置され得る、実世界空間の体積を表す。   As disclosed herein, the resolution of the virtual object may be determined based on the proximity of the virtual object and the fixation point. In some embodiments, the resolution may be modified as a function of the distance between the virtual object and the fixation point. In some embodiments, the modification may occur in discrete steps. That is, similar modifications may be applied to all virtual objects located within a particular volume or zone. FIG. 11A1 illustrates an example of a top-down representation of adjustments at resolutions within different resolution adjustment zones based on 3D fixation tracking. The display system may divide the display frustum into a plurality of volume or resolution adjustment zones and modify the resolution in discrete steps corresponding to these zones. Thus, in some embodiments, in order to determine the adjustment in the resolution of the virtual content, the display system provides information describing the volume of space (hereinafter referred to as the resolution adjustment zone) and each space of the resolution adjustment. Allocation to volume may be used. As shown, the field of view provided by the display system (eg, the display frustum of the display) is separated into a plurality of different zones, each of which spans a range of depth from the user (eg, depth range 1102A-1102E). Include. In some embodiments, each depth range 1102A-1102E has a single associated depth plane that can be presented by the display system. With continued reference to FIG. 11A1, five zones are contiguous along the lateral direction, encompassing each identified depth range from the user. In the exemplary top and bottom views shown, the field of view is divided into a grid 1100 of 25 zones. Each zone represents a volume of real world space in which virtual content may be installed for a user.

ゾーンはまた、図示されるグリッド1100が垂直方向に沿った1つの断面を表すように理解され得るように、本垂直方向に(例えば、示されないy−軸に沿って)延在してもよいことを理解されたい。いくつかの実施形態では、複数のゾーンはまた、垂直方向にも提供される。例えば、深度範囲あたり5つの垂直ゾーン、すなわち、合計125の分解能調節ゾーンが、存在してもよい。3次元に延在するそのようなゾーンの実施例は、図11Bに図示され、下記に説明される。   The zones may also extend in the present vertical direction (eg, along the y-axis, not shown), so that the illustrated grid 1100 may be understood to represent one cross-section along the vertical direction. Please understand that. In some embodiments, multiple zones are also provided in the vertical direction. For example, there may be 5 vertical zones per depth range, or a total of 125 resolution adjustment zones. An example of such a zone extending in three dimensions is illustrated in FIG. 11B and described below.

図11A1を継続して参照すると、ユーザの眼210、220は、グリッド1100内の特定の固視点1006を固視する。ディスプレイシステムは、固視点1006の場所および固視点1006が位置するゾーンを決定してもよい。ディスプレイシステムは、仮想コンテンツと固視点1006の近接度に基づいて、コンテンツの分解能を調節してもよく、これは、仮想コンテンツと固視点1006が位置するゾーンの近接度を決定するステップを含んでもよい。実施例として、固視点1006が位置するゾーン内に含まれるコンテンツに関して、分解能は、特定のポリゴンカウント、実施例では、10,000ポリゴンに設定されてもよい。固視点1006からの距離に基づいて、残りのゾーン内に含まれるコンテンツは、適宜、調節されてもよい。例えば、固視点1006を含むゾーンに隣接するゾーン内に含まれるコンテンツは、より低い分解能(例えば、1,000ポリゴン)でレンダリングされてもよい。図11A1の実施例は、本明細書に説明されるように、実施例として、ポリゴンカウントを調節するステップを図示するが、分解能を調節するステップは、提示されるコンテンツの分解能に対して他の修正を行うステップを包含してもよい。例えば、分解能における調節は、ポリゴンカウントを調節するステップ、仮想オブジェクトを生成するために利用されるプリミティブを調節するステップ(例えば、プリミティブの形状を調節するステップ、例えば、プリミティブを三角形メッシュから四辺形メッシュに調節するステップ等)、仮想オブジェクト上で実施される動作を調節するステップ(例えば、シェーダ動作)、テクスチャ情報を調節するステップ、色分解能、または深度を調節するステップ、レンダリングサイクルの数またはフレームレートを調節するステップ、およびグラフィック処理ユニット(GPU)のグラフィックパイプライン内の1つ以上の点における品質を調節するステップのうちの1つ以上のものを含んでもよい。   With continued reference to FIG. 11A1, the user's eyes 210, 220 gaze at a particular fixation point 1006 within the grid 1100. The display system may determine the location of fixation point 1006 and the zone in which fixation point 1006 is located. The display system may adjust the resolution of the content based on the proximity of the virtual content and the fixation point 1006, which may include determining the proximity of the zone in which the virtual content and the fixation point 1006 are located. Good. As an example, for content contained within the zone in which fixation point 1006 is located, the resolution may be set to a particular polygon count, in the example 10,000 polygons. Based on the distance from the fixation point 1006, the content contained in the remaining zones may be adjusted accordingly. For example, content contained within a zone adjacent to the zone containing fixation point 1006 may be rendered at a lower resolution (eg, 1,000 polygons). The example of FIG. 11A1 illustrates, as an example, the step of adjusting the polygon count, as described herein, although the step of adjusting the resolution may be other than the resolution of the presented content. The step of making a correction may be included. For example, adjustments in resolution include adjusting polygon counts, adjusting primitives used to create virtual objects (eg, adjusting the shape of primitives, eg, changing a primitive from a triangular mesh to a quadrilateral mesh). Etc.), adjusting the actions performed on the virtual object (eg, shader actions), adjusting texture information, adjusting color resolution, or depth, the number of rendering cycles or frame rate. And one or more of adjusting quality at one or more points in a graphics pipeline of a graphics processing unit (GPU).

加えて、図11A1の実施例は、異なる分解能調節ゾーン内のポリゴンカウントにおける差異の特定の実施例を提供するが、ポリゴンの他の絶対数および固視点1006からの距離に伴った分解能の他の変化率も、検討される。例えば、固視点1006からの分解能の降下は、固視点1006からの深度および側方距離を中心として対称な降下率に基づき得るが、他の降下関係もまた、利用されてもよい。例えば、固視点1006からの側方距離が、固視点1006からの深度距離に対する分解能におけるより大きな降下と関連付けられてもよい。さらに、グリッド内に含まれる各ゾーンのサイズ(例えば、ゾーンの空間の体積のサイズ)は、随意に、異なってもよい(例えば、ゾーンは、中心窩軸から半径方向に変動してもよい)。いくつかの実施形態では、降下は、割り当てられた分解能を有する離散ゾーンまたは固視点1006を含有するゾーンとの分解能関係が利用されないように、固視点1006から連続してもよい。例えば、固視点1006から特定のゾーン1108(例えば、コンテンツが100ポリゴンの分解能でレンダリングされる、ゾーン)までの降下は、固視点1006からグリッドの縁(例えば、特定のゾーン1108の縁)まで連続降下であるように修正されてもよい。上記の考慮点のそれぞれはまた、垂直方向に延在するゾーンにも適用されることを理解されたい。   In addition, the example of FIG. 11A1 provides a specific example of the difference in polygon counts within different resolution adjustment zones, but other absolute numbers of polygons and other resolutions with distance from fixation point 1006. The rate of change is also considered. For example, the resolution drop from the fixation point 1006 may be based on a descent rate that is symmetrical about the depth and lateral distance from the fixation point 1006, although other descent relationships may also be utilized. For example, the lateral distance from the fixation point 1006 may be associated with a greater drop in resolution with respect to the depth distance from the fixation point 1006. Further, the size of each zone contained within the grid (eg, the size of the volume of space in the zone) may optionally be different (eg, the zones may vary radially from the foveal axis). .. In some embodiments, the descent may continue from fixation point 1006 such that a resolution relationship with a discrete zone having an assigned resolution or a zone containing fixation point 1006 is not utilized. For example, the descent from the fixation point 1006 to a particular zone 1108 (eg, the zone in which the content is rendered at a resolution of 100 polygons) is continuous from the fixation point 1006 to the edge of the grid (eg, the edge of the specific zone 1108). It may be modified to be a descent. It should be appreciated that each of the above considerations also applies to the vertically extending zones.

いくつかの実施形態では、グリッド内に含まれるゾーンの数およびサイズは、ユーザの固視点1006の決定と関連付けられた信頼度に基づいてもよい。例えば、信頼度は、ユーザの眼が固視点1006を固視していた時間量に基づいてもよく、より短い時間量は、より低い信頼度と関連付けられる。例えば、ディスプレイシステムは、ユーザの眼を特定のサンプリングレート(例えば、30Hz、60Hz、120Hz、1kHz)で監視してもよく、連続サンプルが、ユーザが、概して、固視点1006を維持していることを示すため、固視点1006における信頼度を増加させ得る。随意に、固視の特定の閾値が、利用されてもよく、例えば、特定の持続時間(例えば、100〜300ミリ秒)にわたる、同一、または類似、固視点における固視は、高信頼度と関連付けられ得る一方、特定の持続時間未満は、より低い信頼度と関連付けられ得る。同様に、ユーザの固視点の決定に影響を及ぼし得る、散瞳等の眼内の変動は、ディスプレイシステムに信頼度を低減させ得る。ディスプレイシステムは、カメラ結像デバイス(例えば、カメラアセンブリ630、図6)等のセンサを用いて、眼を監視してもよいことを理解されたい。随意に、ディスプレイシステムは、センサの組み合わせを利用して、ユーザの眼視線を決定してもよい(例えば、眼からの赤外線反射を検出し、瞳孔を識別するために利用される、赤外線センサ、眼の虹彩を検出するために利用される、可視光結像デバイス等、異なる眼視線決定プロセスが、利用されてもよい)。ディスプレイシステムは、複数の眼視線決定プロセスが一致するとき、信頼度を増加させ得、それらが不一致である場合、信頼度レベルを減少させ得る。同様に、片眼のみの視線決定プロセスを行う、ディスプレイシステムに関して、各眼視線決定プロセスは、特定の信頼度レベルと関連付けられてもよく(例えば、一方の決定プロセスは、他方より正確と見なされ得る)、分解能調節ゾーンのサイズは、少なくとも部分的に、実装されているプロセスに基づいて選択されてもよい。   In some embodiments, the number and size of zones included in the grid may be based on the confidence level associated with the determination of the user's fixation point 1006. For example, the confidence level may be based on the amount of time the user's eye was gazing at the fixation point 1006, with a shorter amount of time associated with a lower confidence level. For example, the display system may monitor the user's eyes at a particular sampling rate (eg, 30 Hz, 60 Hz, 120 Hz, 1 kHz), and the continuous samples indicate that the user generally maintains a fixation point 1006. , The reliability at the fixation point 1006 can be increased. Optionally, a particular threshold of fixation may be utilized, for example, fixation at the same or similar fixation point over a specific duration (e.g., 100-300 ms) may be considered reliable. While less than a certain duration may be associated, less confidence may be associated. Similarly, intraocular variations such as mydriasis, which can affect the user's fixation point determination, can reduce the reliability of the display system. It should be appreciated that the display system may use sensors such as a camera imaging device (eg, camera assembly 630, FIG. 6) to monitor the eye. Optionally, the display system may utilize a combination of sensors to determine the eye gaze of the user (eg, an infrared sensor utilized to detect infrared reflections from the eye and identify the pupil, Different eye gaze determination processes may be utilized, such as a visible light imaging device utilized to detect the iris of the eye). The display system may increase the confidence level when the eye gaze determination processes are in agreement and may reduce the confidence level when they are inconsistent. Similarly, for display systems that perform a gaze determination process for only one eye, each gaze determination process may be associated with a particular confidence level (eg, one decision process is considered more accurate than the other). Obtained), the size of the resolution adjustment zone may be selected based, at least in part, on the process being implemented.

いくつかの実施形態では、ディスプレイシステムは、固視点1006の更新毎に、ゾーンの数を増加または減少させてもよい。例えば、固視点1006と関連付けられた信頼度が増加するにつれて、より多くのゾーンが、利用されてもよく、信頼度が減少するにつれて、より少ないゾーンが、利用されてもよい。図11A2は、ゾーンのサイズおよび数が変化するにつれた異なる時間における、分解能調節ゾーンの上下図の表現の実施例を図示する。時間t=1では、上下図に見られるように、ユーザの視野は、ゾーンの初期セットに分割されてもよい。時間t=2では、固視点1006の場所における信頼度は、増加し、ディスプレイシステムはまた、固視点1006によって占有され、高分解能でレンダリングされる、ゾーンのサイズを減少させてもよい。随意に、図示されるように、他のゾーンのサイズもまた、減少してもよい。時間t=3では、固視点1006の場所における信頼度が、減少し、ディスプレイシステムはまた、固視点1006によって占有され、高分解能でレンダリングされる、ゾーンのサイズを増加させてもよい。随意に、図示されるように、他のゾーンのサイズもまた、増加してもよい。複数のゾーンはまた、y−軸に延在してもよく、ゾーンのサイズおよび数における類似増加または減少はまた、その軸上で制定されてもよいことを理解されたい。例えば、y−軸上に垂直に延在するゾーンのサイズは、信頼度の増加に伴って減少してもよい一方、サイズは、信頼度の減少に伴って増加してもよい。随意に、ディスプレイシステムは、ディスプレイシステムによってユーザに提示されるフレーム毎に、固視点1006の信頼度を決定してもよく、t=1、t=2、およびt=3は、異なるフレームを表してもよい。より多くのゾーンを割り当てることは、算出電力の増加を要求し得る(例えば、ディスプレイシステムは、より多くのコンテンツの分解能を調節する、コンテンツが含まれるゾーンを識別する等の必要があり得る)ため、ディスプレイシステムは、ゾーン数における増加によってもたらされる要求される算出電力における増加と、コンテンツの分解能における潜在的減少によってもたらされる算出電力の節約との平衡をとってもよい。   In some embodiments, the display system may increase or decrease the number of zones with each update of the fixation point 1006. For example, as the confidence associated with fixation point 1006 increases, more zones may be utilized, and as the confidence decreases, fewer zones may be utilized. FIG. 11A2 illustrates an example of a top and bottom representation of the resolution adjustment zone at different times as the size and number of zones change. At time t = 1, the user's field of view may be divided into an initial set of zones, as seen in the top and bottom figures. At time t = 2, the confidence at the location of fixation point 1006 increases and the display system may also decrease the size of the zone occupied by fixation point 1006 and rendered at high resolution. Optionally, as shown, the size of other zones may also be reduced. At time t = 3, the confidence at the location of fixation point 1006 decreases and the display system may also increase the size of the zone occupied by fixation point 1006 and rendered at high resolution. Optionally, the size of other zones may also be increased, as shown. It should be appreciated that multiple zones may also extend in the y-axis and similar increases or decreases in zone size and number may also be established on that axis. For example, the size of a zone extending vertically on the y-axis may decrease with increasing confidence, while the size may increase with decreasing confidence. Optionally, the display system may determine the confidence level of fixation point 1006 for each frame presented to the user by the display system, where t = 1, t = 2, and t = 3 represent different frames. May be. Assigning more zones may require an increase in calculated power (eg, a display system may need to adjust the resolution of more content, identify zones that contain content, etc.) , The display system may balance the increase in required calculated power provided by the increase in the number of zones with the savings in calculated power provided by the potential decrease in content resolution.

再び図11A1を参照すると、グリッドは、固視点1006がグリッドの中心(例えば、重心)に位置するように設定され得るという意味において、動的に変化し得る。したがって、ディスプレイシステムは、固視点1006がグリッドの頂点上に位置すると決定される、縁ケースを回避し得る。例えば、ユーザの眼が、回転し、次いで、空間内の異なる3次元場所を固視するにつれて、グリッドは、同様に、ユーザの視線に伴って移動されてもよい。   Referring again to FIG. 11A1, the grid can change dynamically in the sense that the fixation point 1006 can be set to be located at the center of the grid (eg, the center of gravity). Therefore, the display system may avoid the edge case, where the fixation point 1006 is determined to be located on the apex of the grid. For example, as the user's eyes rotate and then gaze at different three-dimensional locations in space, the grid may also move with the user's line of sight.

図11B−11Eは、種々の分解能調節ゾーン構成の実施例を図示する。図示されない、分解能調節ゾーンの付加的形状および構成が、利用されてもよく、実施例は、包括的であると見なされるべきではない。加えて、いくつかの図面では、ユーザの眼210、220は、例証の容易性および明確性のために、種々の分解能調節ゾーンから離間されて図示され得る。全てのこれらの図面に関して、眼210、220は、ゾーンの境界またはその中に配置され得ることを理解されたい(例えば、図11A1参照)。   11B-11E illustrate examples of various resolution adjustment zone configurations. Additional shapes and configurations of resolution adjustment zones, not shown, may be utilized and the embodiments should not be considered to be comprehensive. In addition, in some figures, the user's eyes 210, 220 may be shown separated from the various resolution adjustment zones for ease of illustration and clarity. With respect to all these figures, it should be appreciated that the eyes 210, 220 may be located at or within the boundaries of the zones (see, eg, FIG. 11A1).

図11Bは、図11A1の分解能調節ゾーンの一部の3次元表現の実施例を図示する。図11A1は、図11Bの3次元表現の平面11A1−11A1に沿って得られた断面図を図示すると理解され得、図11Bは、例証を明確にするために、図11A1の分解能調節ゾーンのうちのいくつかを省略していることを理解されたい。図11A1を継続して参照すると、ディスプレイシステムによって提供される視野は、27のゾーンに分離される。すなわち、視野は、3つの深度範囲1102B−1102Dに分離され、各深度範囲において、深度範囲において側方および垂直に延在する、3×3グリッドのゾーンが、含まれる。   FIG. 11B illustrates an example of a three-dimensional representation of a portion of the resolution adjustment zone of FIG. 11A1. 11A1 may be understood to illustrate a cross-sectional view taken along the plane 11A1-11A1 of the three-dimensional representation of FIG. 11B, and FIG. 11B illustrates one of the resolution adjustment zones of FIG. Please note that some of the are omitted. With continued reference to FIG. 11A1, the field of view provided by the display system is separated into 27 zones. That is, the field of view is divided into three depth ranges 1102B-1102D, each depth range including a 3 × 3 grid of zones extending laterally and vertically in the depth range.

決定された固視点1006は、視野の中心に位置するゾーン内にあるように図示される。固視点1006を含むゾーンの外側のゾーン内に位置する、仮想オブジェクトは、本明細書に議論されるように、固視点1006ゾーンからの距離に従って、分解能が低減されてもよい。ゾーンは、側方および垂直に延在するため、分解能における低減は、固視点の分解能調節ゾーンからの側方、垂直、および深度軸(それぞれ、x、y、およびz−軸)上の距離に基づいて生じることができる。例えば、いくつかの実施形態では、ゾーン1108に位置する仮想オブジェクトは、図11A1に示されるように、側方距離に従って分解能が低減されることができる(例えば、ゾーン1108は、固視点1006を含むゾーンとユーザの視野の同一垂直部分を含み、同一深度平面上にあり得る)。   The determined fixation point 1006 is illustrated as being in a zone located in the center of the field of view. Virtual objects located in a zone outside the zone containing the fixation point 1006 may have reduced resolution according to distance from the fixation point 1006 zone, as discussed herein. Since the zones extend laterally and vertically, the reduction in resolution is at distances on the lateral, vertical, and depth axes (x, y, and z-axis, respectively) from the fixation point's resolution adjustment zone. Can occur based on. For example, in some embodiments, virtual objects located in zone 1108 can have reduced resolution according to lateral distance, as shown in FIG. 11A1 (eg, zone 1108 includes fixation point 1006). Zone and the same vertical portion of the user's field of view, and may be on the same depth plane).

上記と同様に、かつ下記の図11C−11Eに説明されるゾーンと同様に、ユーザの固視点は、随意に、ゾーンの中心(例えば、重心)に位置するように維持されることができる、またはゾーンは、ユーザの視野に対して固定されることができ、ユーザの固視点は、ゾーンのいずれか内に位置することができる。   Similar to the above, and similarly to the zones described below in FIGS. 11C-11E, the user's fixation point can optionally be maintained to be located at the center (eg, center of gravity) of the zone, Alternatively, the zones can be fixed with respect to the user's field of view and the user's fixation point can be located within any of the zones.

図11Cは、分解能調節ゾーンのための構成の別の実施例を図示する。実施例では、ディスプレイシステムによって提供される視野は、それぞれ、空間の特定の3次元体積を包含する、楕円形のゾーンに分離されるように図示される。図11A1と同様に、各ゾーン(例えば、ゾーン1112A−112D)は、側方および深度寸法に沿って延在する。いくつかの実施形態では、各ゾーンはまた、ユーザの垂直視野の少なくとも一部を包含するように延在する。固視点1006は、ゾーンの中心(例えば、ゾーン1112A内)にあるように図示される。ゾーン1112Aの外側のゾーン内に位置する、仮想オブジェクトは、ゾーン1112Aからの距離に従って、例えば、本明細書に説明される技法に従って、分解能が低減されてもよい。例えば、ゾーン1112Aの外側の各ゾーンは、特定の分解能を割り当てられることができる、または降下率が、分解能における低減を決定するために利用されることができる。ゾーン1112Dは、ゾーン1110Aから最も遠いゾーンとして図示され、分解能における低減は、ゾーン1112D内で最大であり得る。   FIG. 11C illustrates another example of a configuration for the resolution adjustment zone. In the example, the fields of view provided by the display system are each illustrated as being separated into elliptical zones that encompass a particular three-dimensional volume of space. Similar to FIG. 11A1, each zone (eg, zones 1112A-112D) extends along the lateral and depth dimensions. In some embodiments, each zone also extends to encompass at least a portion of the user's vertical field of view. The fixation point 1006 is illustrated as being at the center of the zone (eg, within zone 1112A). Virtual objects located within a zone outside zone 1112A may have reduced resolution according to distance from zone 1112A, for example, according to the techniques described herein. For example, each zone outside zone 1112A can be assigned a particular resolution, or the rate of descent can be utilized to determine the reduction in resolution. Zone 1112D is illustrated as the zone furthest from zone 1110A, and the reduction in resolution may be greatest within zone 1112D.

図11Dは、図11Cの分解能調節ゾーンの3次元表現の実施例を図示し、図11Cは、平面11C−11Cに沿って得られた断面図を示す。本実施例では、ディスプレイシステムによって提供される視野は、それぞれ、空間の3次元体積を包含する、楕円体のゾーンに分離されるように図示される。ユーザの固視点1006は、ユーザの視野の重心に図示され、ゾーン1112A内に位置する。随意に、図11Dは、図11Cの各楕円形が楕円体に変換された状態を表し得る。いくつかの実施形態では、深度および側方方向に沿った図11Cのゾーン1112Aのサイズは、XおよびZ軸に沿った図11Dのゾーン1112Aの主軸のサイズを定義することができる。種々のゾーンは、同心球体または楕円体を形成してもよい。   FIG. 11D illustrates an example of a three-dimensional representation of the resolution adjustment zone of FIG. 11C, and FIG. 11C shows a cross-sectional view taken along the plane 11C-11C. In this example, the fields of view provided by the display system are each illustrated as being separated into ellipsoidal zones that encompass a three-dimensional volume of space. The user's fixation point 1006 is illustrated in the center of gravity of the user's field of view and is located within zone 1112A. Optionally, FIG. 11D may represent each ellipse of FIG. 11C transformed into an ellipsoid. In some embodiments, the size of zone 1112A of FIG. 11C along the depth and lateral directions can define the size of the major axis of zone 1112A of FIG. 11D along the X and Z axes. The various zones may form concentric spheres or ellipsoids.

図11Eは、図11Cの分解能調節ゾーンの3次元表現の別の実施例を図示し、図11Cは、平面11C−11Cに沿って得られた断面図を示す。ディスプレイシステムによって提供される視野は、スタックされたレベルの類似同心ゾーンに分離されるように図示される。例えば、図11Eは、図11Cの楕円形が、垂直方向に沿って延在され、円筒形を作成する様子を表し得る。円筒形は、次いで、各円筒形がユーザの垂直視野の一部を包含するように、垂直方向に分離され得る。したがって、図11Eは、円筒形の9つのゾーンを図示する。各ゾーンは、加えて、任意の内部ゾーンを除外する(例えば、楕円体1112Bは、楕円体1112Aによって包含される空間の体積を除外する、空間の体積を包含するであろう)。実施例では、固視点1006は、中心ゾーン1110A内にあるように図示され、中心ゾーン1110Aの外側に位置する、仮想オブジェクトは、本明細書に説明される技法に従って、分解能が低減されることができる。   11E illustrates another example of a three-dimensional representation of the resolution adjustment zone of FIG. 11C, and FIG. 11C illustrates a cross-sectional view taken along the plane 11C-11C. The field of view provided by the display system is illustrated as being separated into stacked levels of similar concentric zones. For example, FIG. 11E can represent how the ellipse of FIG. 11C is extended along a vertical direction to create a cylinder. The cylinders may then be vertically separated such that each cylinder covers a portion of the user's vertical field of view. Therefore, FIG. 11E illustrates nine zones of cylindrical shape. Each zone additionally excludes any interior zone (eg, ellipsoid 1112B will exclude the volume of space encompassed by ellipsoid 1112A, will include the volume of space). In an example, fixation point 1006 is illustrated as being within central zone 1110A, and virtual objects located outside central zone 1110A may have reduced resolution in accordance with the techniques described herein. it can.

図12Aは、3次元固視点との近接度に従って、コンテンツの分解能を調節するための例示的プロセス1200のフローチャートを図示する。便宜上、プロセス1200は、ディスプレイシステム(例えば、ウェアラブルディスプレイシステム60であって、これは、処理ハードウェアおよびソフトウェアを含んでもよく、随意に、情報を1つ以上のコンピュータまたは他の処理の外部システムに提供し、例えば、処理を外部システムにオフロードし、情報を外部システムから受信してもよい)によって実施されるように説明され得る。   FIG. 12A illustrates a flowchart of an exemplary process 1200 for adjusting the resolution of content according to proximity with a 3D fixation point. For convenience, the process 1200 may be a display system (eg, wearable display system 60, which may include processing hardware and software, and optionally sends information to one or more computers or other external processing systems. May be provided, for example, processing may be offloaded to an external system and information may be received from the external system).

ブロック1202では、ディスプレイシステムは、ユーザの3次元固視点を決定する。上記に説明されるように、ディスプレイシステムは、センサを含み、ユーザの眼と関連付けられた情報(例えば、眼の配向)を監視してもよい。センサの非包括的リストは、赤外線センサ、紫外線センサ、可視波長光センサを含む。センサは、随意に、赤外線、紫外線、および/または可視光をユーザの眼上に出力し、ユーザの眼からの出力された光の反射を決定してもよい。実施例として、赤外線光は、赤外線光エミッタおよび赤外線光センサによって出力されてもよい。光エミッタを含み得る、センサは、図6の結像デバイス630に対応してもよいことを理解されたい。   At block 1202, the display system determines the user's 3D fixation point. As explained above, the display system may include sensors to monitor information associated with the user's eyes (eg, eye orientation). The non-exhaustive list of sensors includes infrared sensors, ultraviolet sensors, visible wavelength light sensors. The sensor may optionally output infrared, ultraviolet, and / or visible light on the user's eye to determine the reflection of the output light from the user's eye. As an example, infrared light may be output by an infrared light emitter and an infrared light sensor. It should be appreciated that the sensor, which may include a light emitter, may correspond to the imaging device 630 of FIG.

ディスプレイシステムは、センサを利用して、各眼と関連付けられた視線(例えば、中心窩から眼の水晶体を通して延在するようなユーザの眼から延在するベクトル)および各眼の視線の交点を決定してもよい。例えば、ディスプレイシステムは、赤外線光をユーザの眼上に出力してもよく、眼からの反射(例えば、角膜反射)が、監視されてもよい。眼の瞳孔中心(例えば、ディスプレイシステムは、例えば、赤外線結像を通して、瞳孔の重心を決定してもよい)と眼からの反射との間のベクトルが、眼の視線を決定するために使用されてもよい。視線の交点は、3次元固視点として、決定および割り当てられてもよい。固視点は、したがって、コンテンツが完全または最大分解能でレンダリングされることになる、場所を示し得る。例えば、決定された視線に基づいて、ディスプレイシステムは、ユーザが固視している空間内の3次元場所を三角測量してもよい。随意に、ディスプレイシステムは、固視点を決定するとき、ディスプレイシステムと関連付けられた配向情報(例えば、3次元空間内のディスプレイシステムの配向を説明する情報)を利用してもよい。   The display system utilizes sensors to determine the line of sight associated with each eye (eg, a vector extending from the user's eye such as extending from the fovea through the lens of the eye) and the line of sight of each eye. You may. For example, the display system may output infrared light onto the user's eye and the reflection from the eye (eg, corneal reflection) may be monitored. The vector between the eye's pupil center (eg, the display system may determine the center of gravity of the pupil, eg, through infrared imaging) and the reflection from the eye is used to determine the eye's line of sight. You may. The line of sight intersection may be determined and assigned as a three-dimensional fixation point. The fixation point may thus indicate where the content will be rendered at full or full resolution. For example, based on the determined line of sight, the display system may triangulate a three-dimensional location in the space in which the user is gazing. Optionally, the display system may utilize orientation information associated with the display system (eg, information describing the orientation of the display system in three-dimensional space) when determining the fixation point.

ブロック1204では、ディスプレイシステムは、ディスプレイシステムによってユーザに提示されている、または提示されることになる、コンテンツと関連付けられた場所情報を取得する。ユーザへの提示のために、コンテンツをレンダリングすることに先立って(例えば、上記に説明されるように、導波管の出力を介して)、ディスプレイシステムは、ユーザに提示されることになるコンテンツと関連付けられた場所情報を取得してもよい。例えば、上記に説明されるように、仮想コンテンツは、コンテンツが実世界に位置するように現れるように、ユーザに提示されてもよい(例えば、コンテンツは、ユーザの視野内の異なる深度に位置してもよい)。ディスプレイシステムは、周囲環境内の任意の仮想コンテンツの場所を知らせ得る、本周囲環境の3次元マップを含む、またはそこへのアクセスを有してもよいことを理解されたい。本マップを参照すると、ディスプレイシステムは、ユーザの視野内の仮想コンテンツの3次元場所(例えば、図10A−10Bに図示されるように、ディスプレイ錐台内の場所)を規定する情報にアクセスし、それを提供してもよい。   At block 1204, the display system obtains location information associated with the content that is being or will be presented to the user by the display system. Prior to rendering the content for presentation to the user (eg, via the output of the waveguide, as described above), the display system determines the content to be presented to the user. You may acquire the location information linked | related with. For example, as described above, virtual content may be presented to a user such that the content appears to be located in the real world (eg, the content may be located at different depths within the user's field of view). May be). It should be appreciated that the display system may include, or have access to, a three-dimensional map of the present environment, which may signal the location of any virtual content within the environment. Referring to this map, the display system accesses information defining the three-dimensional location of the virtual content within the user's field of view (eg, within the display frustum, as illustrated in FIGS. 10A-10B), You may provide it.

ブロック1206では、ディスプレイシステムは、ユーザに表示されることになる仮想コンテンツの分解能を調節する。ディスプレイシステムは、3次元固視点とのその近接度に基づいて、コンテンツの分解能を調節する。例えば、ユーザへの提示のためにコンテンツをレンダリングする、処理デバイス(例えば、中央処理ユニット、グラフィック処理ユニット)によって実装されるレンダリングエンジン等のレンダリングエンジンは、コンテンツをレンダリングする際に投資されるリソースを調節してもよい(例えば、レンダリングエンジンは、コンテンツの分解能を調節してもよい)。   At block 1206, the display system adjusts the resolution of the virtual content that will be displayed to the user. The display system adjusts the resolution of the content based on its proximity to the 3D fixation point. A rendering engine, such as a rendering engine implemented by a processing device (eg, a central processing unit, a graphics processing unit), that renders content for presentation to a user, allocates the resources invested in rendering the content. May be adjusted (eg, the rendering engine may adjust the resolution of the content).

ディスプレイシステムは、ユーザに提示されることになるコンテンツとユーザの固視点との間の3次元空間内の距離を決定してもよく、決定された距離に基づいて、コンテンツの分解能を低減させてもよい。低減は、降下率、例えば、距離とコンテンツの分解能を相関させる、連続関数に従って、決定されてもよく、ディスプレイシステムは、連続関数に基づいて、分解能を取得し、コンテンツをレンダリングしてもよい。随意に、ディスプレイシステムは、コンテンツの重心から固視点までの距離を決定してもよく、距離に基づいて、コンテンツをある分解能でレンダリングしてもよい。随意に、ディスプレイシステムは、固視点までの種々の部分の距離に従って、同一コンテンツの部分を異なる分解能でレンダリングしてもよい(例えば、ディスプレイシステムは、コンテンツを部分に分離してもよく、より近い部分と比較して、より遠い部分を低減された分解能でレンダリングしてもよい)。   The display system may determine a distance in a three-dimensional space between the content to be presented to the user and the user's fixation point, and based on the determined distance, reduce the resolution of the content. Good. The reduction may be determined according to a continuous function that correlates the resolution of the content with the rate of descent, for example, the display system may obtain the resolution and render the content based on the continuous function. Optionally, the display system may determine the distance from the center of gravity of the content to the fixation point and may render the content at a certain resolution based on the distance. Optionally, the display system may render portions of the same content at different resolutions according to the distances of the various portions to the fixation point (eg, the display system may separate the content into portions, closer to each other). The farther part may be rendered with reduced resolution compared to the part).

いくつかの実施形態では、ディスプレイシステムは、ユーザの視野(例えば、ディスプレイ錐台に対応する)をゾーンに分離するために使用可能な情報にアクセスしてもよく、各ゾーンは、コンテンツが含まれ得る、空間の体積を表す。アクセスされる情報、例えば、図11A1に図示されるグリッドは、各ゾーン内に含まれることになるコンテンツをレンダリングするときに利用するための特定の分解能を示してもよく、3次元固視点は、グリッドの中心に設定される。加えて、グリッドは、コンテンツをレンダリングするときに利用するための分解能における降下率を示してもよい。複数のゾーン内に含まれるコンテンツ(例えば、2つのゾーンによって要求される3次元空間内に位置するコンテンツ)に関して、ディスプレイシステムは、随意に、コンテンツの分解能を調節し、単一ゾーンに対応させてもよい、または随意に、その部分が位置する対応するゾーンに従って、コンテンツの分解能を調節してもよい。   In some embodiments, the display system may access information that may be used to separate a user's field of view (eg, corresponding to a display frustum) into zones, each zone containing content. Represents the volume of space obtained. The information accessed, eg, the grid illustrated in FIG. 11A1, may indicate a particular resolution to utilize when rendering the content that will be contained within each zone. Set at the center of the grid. In addition, the grid may show the rate of descent in resolution for use when rendering the content. For content contained in multiple zones (eg, content located in the three-dimensional space required by the two zones), the display system optionally adjusts the resolution of the content to accommodate a single zone. Or optionally, the resolution of the content may be adjusted according to the corresponding zone in which the portion is located.

コンテンツの分解能を設定するとき、ディスプレイシステムは、固視点に位置する(例えば、固視点と同一ゾーン内の)コンテンツを完全または最大分解能でレンダリングする。最大分解能は、コンテンツが、閾値(例えば、60Hz、120Hz)を上回るリフレッシュレートでユーザに提示されることを確実にし、随意に、コンテンツが、輻輳・開散運動率(例えば、60msを上回る)を上回り、遠近調節時間(例えば、20ms〜100ms)を上回る速度で更新され、分解能の変化の知覚能力を低減させることを確実にしながら、ディスプレイシステムのハードウェアおよび/またはソフトウェアがレンダリングすることが可能である、最大値に基づいてもよい。ディスプレイシステムは、例えば、ディスプレイシステムが各フレームをレンダリングすることに先立って、ディスプレイシステムの利用可能なリソースに基づいて、最大分解能を動的に修正してもよい。例えば、より多くのコンテンツが、ユーザに提示されることになるにつれて、コンテンツの最大分解能は、減少され、ディスプレイシステムが、レンダリングされたコンテンツのフレームを分解能の変化の知覚能力を低減させるために所望される閾値率を上回って提示し得ることを確実にしてもよい。ディスプレイシステムは、随意に、コンテンツが提示されている、1秒あたりフレームを監視してもよく、固視点からの距離に基づいて、最大分解能を調節および/または分解能降下率を調節し、提示される1秒あたりフレームが閾値率を下回らないことを確実にしてもよい。実施例として、ディスプレイシステムは、固視点のゾーンに位置する第1の仮想オブジェクト等のコンテンツを最大分解能でレンダリングしてもよい。第1の仮想オブジェクトの最大分解能を低減させ、1秒あたりフレームが特定の閾値を上回ったままであることを確実にする代わりに、ディスプレイシステムは、距離に基づいて、分解能の降下率を動的に増加させてもよい。このように、ディスプレイシステムは、固視点のゾーンの外側の各ゾーンに割り当てられる分解能を調節してもよい。随意に、ディスプレイシステムは、固視点のゾーンの外側の各ゾーン内で使用され得る、最小分解能を設定してもよく、最小分解能を超えるであろう場合、最大分解能を調節してもよい(例えば、ディスプレイシステムが、コンテンツの分解能を最小値を下回って低減させ、閾値率を維持する必要がある場合、ディスプレイシステムは、最大分解能を低減させてもよい)。同様に、ディスプレイシステムは、固視点のゾーンの外側のゾーン内のコンテンツの分解能を低減させずに、最大分解能を低減させてもよい。随意に、ディスプレイシステムのユーザは、固視点に近接して位置するコンテンツが他のコンテンツより選好を与えられることを好むかどうかを示してもよい。   When setting the content resolution, the display system renders the content located at the fixation point (eg, in the same zone as the fixation point) at full or full resolution. The maximum resolution ensures that the content is presented to the user at a refresh rate above a threshold (eg, 60 Hz, 120 Hz), and optionally, the content exceeds the congestion / divergence motion rate (eg, above 60 ms). The display system hardware and / or software is capable of rendering while ensuring that it is updated at a faster rate than the accommodation time (eg, 20 ms to 100 ms) and reduces the perceptibility of changes in resolution. There may be a maximum value. The display system may dynamically modify the maximum resolution based on the display system's available resources, for example, prior to the display system rendering each frame. For example, as more content is to be presented to the user, the maximum resolution of the content is reduced and the display system desires frames of rendered content to reduce the perceptibility of changes in resolution. It may be ensured that the rate of presentation may be exceeded. The display system may optionally monitor the frames per second at which the content is being presented and adjust the maximum resolution and / or the rate of resolution drop based on the distance from the fixation point to be presented. It may be ensured that the frames per second do not fall below the threshold rate. As an example, the display system may render the content, such as the first virtual object located in the fixation zone, at full resolution. Instead of reducing the maximum resolution of the first virtual object and ensuring that frames per second remain above a certain threshold, the display system dynamically scales the rate of resolution decrease based on distance. May be increased. In this way, the display system may adjust the resolution assigned to each zone outside the fixation zone. Optionally, the display system may set a minimum resolution that may be used within each zone outside the fixation zone and may adjust the maximum resolution if the minimum resolution would be exceeded (eg, , The display system may reduce the maximum resolution if it needs to reduce the resolution of the content below a minimum value and maintain a threshold rate). Similarly, the display system may reduce the maximum resolution without reducing the resolution of content in zones outside the fixation zone. Optionally, the user of the display system may indicate whether content located near the fixation point prefers to be favored over other content.

いくつかの実施形態では、図13−14に関して下記により詳細に説明されるように、ディスプレイシステムは、随意に、コンテンツとユーザの視線の角度近接度を利用して、コンテンツの分解能を調節してもよい。例えば、特定のコンテンツが、特定のコンテンツがユーザの眼の中心窩に入るであろうように、固視点が位置するゾーンの外側であるが、ユーザの視線の閾値近接度内に位置する場合、ディスプレイシステムは、特定のコンテンツをより高い分解能(例えば、最大分解能または図11A1に図示されるグリッドに示されるものを上回る分解能)でレンダリングさせてもよい。随意に、ディスプレイシステムは、特定のコンテンツの分解能を低減させ、ぼかしプロセス(例えば、ガウスぼかし)を特定のコンテンツに適用してもよい。このように、特定のコンテンツは、より低い分解能でレンダリングされる一方、ぼかされ、特定のコンテンツが、例えば、固視点よりユーザからより遠いことを表してもよい。加えて、ぼかしは、より低い分解能の知覚能力を低減させ得る(例えば、ぼかしは、より低い分解能に起因するピクセルサイズの増加の知覚能力を低減させ得る)。   In some embodiments, the display system optionally utilizes the angular proximity of the content and the user's line of sight to adjust the resolution of the content, as described in more detail below with respect to FIGS. 13-14. Good. For example, if the particular content is outside the zone in which the fixation point is located, but within the threshold proximity of the user's line of sight, such that the particular content would enter the fovea of the user's eye, The display system may cause certain content to be rendered at a higher resolution (eg, maximum resolution or greater than that shown in the grid illustrated in FIG. 11A1). Optionally, the display system may reduce the resolution of the particular content and apply a blurring process (eg, Gaussian blur) to the particular content. In this way, the particular content may be rendered blurry while being rendered at a lower resolution, indicating that the particular content is further from the user than the fixation point, for example. In addition, blurring may reduce the perceptual power of lower resolution (eg, blurring may reduce the perceptual power of increased pixel size due to lower resolution).

仮想コンテンツを提示するステップと関連付けられた例示的動作が、図12B−12Cに図示される(例えば、レンダリングパイプライン)。図12Bの実施例では、3次元場面が、本明細書に説明されるように行われる分解能に対する調節を伴わずに、ユーザに提示される。図12Cでは、分解能に対する調節が、本明細書に説明されるように、固視点情報に従って実施される。例えば、以下の調節のうちの1つ以上のもの、すなわち、頂点動作複雑性を低減させるステップ、詳細の平面充填レベルを低減させるステップ、幾何学形状生成を低減させるステップ、複数のピクセルのピクセル動作複雑性/集約を低減させるステップ等が、実施されることができる。調節は、図示されるように、有利には、仮想コンテンツを提示するためのパイプライン内の異なるステップで実施されることができ、仮想コンテンツを提示するために利用される特定のソフトウェアおよび/またはハードウェアに従って最適化されることができる。図12Cに記載される忠実性ゾーンは、分解能調節ゾーンであることを理解されたい。   Exemplary operations associated with presenting virtual content are illustrated in FIGS. 12B-12C (eg, a rendering pipeline). In the example of FIG. 12B, a three-dimensional scene is presented to the user without any adjustment to resolution made as described herein. In FIG. 12C, adjustments to resolution are performed according to fixation point information, as described herein. For example, one or more of the following adjustments: reducing vertex motion complexity, reducing planar fill level of detail, reducing geometry generation, pixel motion of multiple pixels. Steps such as reducing complexity / aggregation can be implemented. The adjustment may advantageously be performed at different steps in the pipeline for presenting virtual content, as shown, and may depend on the particular software and / or software utilized to present the virtual content. It can be optimized according to the hardware. It should be appreciated that the fidelity zone described in Figure 12C is a resolution adjustment zone.

再び図12Aを参照すると、ディスプレイシステムは、ブロック1208において、調節されたコンテンツをユーザに提示する。上記に説明されるように、ディスプレイシステムは、3次元固視点との近接度に基づいて、コンテンツの分解能を調節している。続いて、ディスプレイシステムは、レンダリングされたコンテンツを関連付けられた場所においてユーザに提示する。いくつかの実施形態では、ディスプレイシステムは、レンダリングされることになるコンテンツのフレーム毎に、プロセス1200を実施してもよい、またはユーザがその固視点を調節するにつれて、コンテンツの分解能を調節してもよい。   Referring again to FIG. 12A, the display system presents the adjusted content to the user at block 1208. As explained above, the display system adjusts the resolution of the content based on the proximity to the 3D fixation point. The display system then presents the rendered content to the user at the associated location. In some embodiments, the display system may perform process 1200 for each frame of content to be rendered, or adjust the resolution of the content as the user adjusts its fixation point. Good.

上記に述べられたように、いくつかの実施形態では、仮想オブジェクトは、ユーザの通視線内にある一方、また、異なる深度に提示されてもよい。図13は、ユーザの通視線と整合される複数の仮想オブジェクトを視認するユーザの表現の実施例を図示する。例示的表現は、ユーザの視野(例えば、ディスプレイシステムのディスプレイ錐台1004)とともに、ユーザの眼210、220の視線1003A、1003Bを含み、これは、第1の仮想オブジェクト1008A上の固視点に固視される。   As mentioned above, in some embodiments virtual objects may be presented at different depths while still in line-of-sight of the user. FIG. 13 illustrates an example of a representation of a user viewing a plurality of virtual objects that are aligned with the user's line of sight. The exemplary representation includes the line of sight 1003A, 1003B of the user's eye 210, 220 along with the user's field of view (eg, display frustum 1004 of the display system), which is fixed at the fixation point on the first virtual object 1008A. To be seen.

図示されるように、第2の仮想オブジェクト1008Bは、第2の仮想オブジェクト1008Bが、ユーザの中心窩に入る(例えば、眼のいずれかの少なくとも1つの中心窩に入る)であろうように、ユーザの視線(例えば、視線ベクトル1003A、1003Bの一方または両方)の角度近接度内にある。例えば、フレーム1110をレンダリングすることに応じて、第2の仮想オブジェクト1008Bは、第1の仮想オブジェクト1008Aの背後(例えば、そこからより深い知覚される深度)に位置する。中心窩は、最高視力を有する網膜の部分であることを理解されたい。第2の仮想オブジェクト1008Bは、ユーザの中心窩に入るであろうため、第2の仮想オブジェクト1008Bの分解能が、低減される(例えば、少なくとも図11A1に関して上記に説明されるように、低減される)場合、ユーザは、分解能における低減を知覚し得る。分解能における知覚可能低減を回避するために、ディスプレイシステムは、(1)第2の仮想オブジェクト1008Bを第1の仮想オブジェクト1008Aと同一分解能で、または第1の仮想オブジェクト1008Aの閾値分解能内でレンダリングさせる、および/または(2)第2の仮想オブジェクト1008Bを低減された分解能でレンダリングさせ(例えば、図11A1に示されるように)、ユーザへの提示に先立って、ぼかしを第2の仮想オブジェクトに適用させてもよい。理論によって限定されるわけではないが、ぼかしは、深度キューを提供しながら、分解能における低減をマスクし得る。   As shown, the second virtual object 1008B may be such that the second virtual object 1008B will enter the fovea of the user (eg, enter at least one fovea of any of the eyes). It is within the angular proximity of the user's line of sight (eg, one or both of the line-of-sight vectors 1003A, 1003B). For example, in response to rendering frame 1110, second virtual object 1008B is located behind (eg, deeper perceived depth from) first virtual object 1008A. It should be understood that the fovea is the part of the retina that has the highest visual acuity. Since the second virtual object 1008B will enter the fovea of the user, the resolution of the second virtual object 1008B is reduced (eg, at least as described above with respect to FIG. 11A1). ), The user may perceive a reduction in resolution. To avoid a perceptible reduction in resolution, the display system causes (1) the second virtual object 1008B to render at the same resolution as the first virtual object 1008A or within the threshold resolution of the first virtual object 1008A. , And / or (2) render the second virtual object 1008B with reduced resolution (eg, as shown in FIG. 11A1) and apply blur to the second virtual object prior to presentation to the user. You may let me. Without being limited by theory, blur may mask the reduction in resolution while providing depth cues.

図14は、ユーザの視線からの角度距離に基づいて仮想コンテンツを調節するためのプロセス1400の実施例のフローチャートである。便宜上、プロセス1400は、ディスプレイシステム(例えば、ウェアラブルディスプレイシステム60であって、これは、処理ハードウェアおよびソフトウェアを含んでもよく、随意に、情報を1つ以上のコンピュータまたは他の処理ユニットの外部システムに提供し、例えば、処理を外部システムにオフロードし、情報を外部システムから受信してもよい)によって実施されるように説明されるであろう。例示的プロセス1400では、ディスプレイシステムは、各フレームが同一深度平面上に提示され、随意に、提示されることになる全てのコンテンツを単一フレームバッファの中に畳み込ませる、可変焦点ディスプレイシステムであって、すなわち、可変焦点ディスプレイシステムは、仮想コンテンツを一度に1つの深度平面上に提示する。   FIG. 14 is a flow chart of an example of a process 1400 for adjusting virtual content based on an angular distance from a user's line of sight. For convenience, the process 1400 may include a display system (eg, a wearable display system 60, which may include processing hardware and software, and, optionally, information that is external to one or more computers or other processing units. May be provided to an external system and information may be received from the external system). In the exemplary process 1400, the display system is a variable focus display system in which each frame is presented on the same depth plane, optionally convolving all content to be presented into a single frame buffer. That is, the variable focus display system presents virtual content on one depth plane at a time.

ディスプレイシステムは、ユーザの3次元固視点を決定し(ブロック1402)、提示されるコンテンツと関連付けられた場所情報を取得する(ブロック1404)。ブロック1402および1404は、それぞれ、図12Aのブロック1202および1204に対応してもよい。図12Aを参照して上記に説明されるように、ディスプレイシステムは、ユーザの眼移動(例えば、眼配向)を監視し、ユーザの固視点を決定する。ディスプレイシステムは、提示されることになるコンテンツの場所情報(例えば、次のフレーム内の)を取得してもよく、続いて、コンテンツの分解能を調節してもよい。   The display system determines the user's 3D fixation point (block 1402) and obtains location information associated with the content to be presented (block 1404). Blocks 1402 and 1404 may correspond to blocks 1202 and 1204 of FIG. 12A, respectively. As described above with reference to FIG. 12A, the display system monitors the user's eye movement (eg, eye orientation) and determines the user's fixation point. The display system may obtain location information (eg, in the next frame) of the content to be presented, and then adjust the resolution of the content.

図14を継続して参照すると、ディスプレイシステムは、分解能が低減されることになり、ユーザの視線からの閾値角度距離内に位置する、コンテンツを決定する(ブロック1406)。ディスプレイシステムは、固視点からのコンテンツの近接度に起因して分解能が低減されることになる(例えば、コンテンツが固視点より深い深度に位置する)が、ユーザの中心窩に入る(例えば、ユーザの視線からの閾値角度以内に入る)であろう、コンテンツを識別する。コンテンツは、ユーザの中心窩に入るであろうため、ユーザは、本明細書に説明される3次元固視点中心窩化レンダリングによるように、分解能における低減を知覚することが可能であり得る。コンテンツブロック1406は、図12Cに図示されるブロック、特に、セクション「GPU」で識別されたブロックを実施するステップを含んでもよいことを理解されたい。   With continued reference to FIG. 14, the display system will have reduced resolution and determines content that is located within a threshold angular distance from the user's line of sight (block 1406). The display system will have reduced resolution due to the proximity of the content from the fixation point (eg, the content is located deeper than the fixation point) but will enter the fovea of the user (eg, the user). Content that would be within a threshold angle from the user's line of sight). Since the content will enter the fovea of the user, the user may be able to perceive a reduction in resolution, such as with the three-dimensional fixation-point foveated rendering described herein. It should be appreciated that the content block 1406 may include implementing the blocks illustrated in FIG. 12C, particularly the blocks identified in section “GPU”.

その結果、ブロック1408では、ディスプレイシステムは、随意に、決定されたコンテンツをより高い分解能でレンダリングさせてもよい。ディスプレイシステムは、完全分解能(例えば、固視点または固視点と同一ゾーンまたは空間の体積内に位置するコンテンツと同一分解能)となるように、またはそうでなければコンテンツに割り当てられるであろう低減された分解能(例えば、ブロック1406に説明されるように)を上回るように、決定されたコンテンツの分解能を調節してもよい。   As a result, at block 1408, the display system may optionally cause the determined content to be rendered at a higher resolution. The display system is reduced to be at full resolution (eg, the same resolution as the fixation point or content located in the same zone or volume of space as the fixation point, or otherwise assigned to the content). The resolution of the determined content may be adjusted to exceed the resolution (eg, as described in block 1406).

ブロック1410では、ディスプレイシステムは、随意に、コンテンツの分解能を低減させてもよく、ユーザへの提示に先立って、コンテンツをぼかしてもよい。上記に説明されるように、可変焦点ディスプレイシステムは、単一ディスプレイバッファを利用して、コンテンツをユーザに提示してもよい。可変焦点ディスプレイシステムは、全てのコンテンツを同一深度平面に提示するため、可変焦点ディスプレイシステムは、同一ディスプレイバッファを利用して、コンテンツを、例えば、レンダリングエンジンから出力してもよい。   At block 1410, the display system may optionally reduce the resolution of the content and may blur the content prior to presentation to the user. As explained above, variable focus display systems may utilize a single display buffer to present content to the user. Since the variable focus display system presents all content in the same depth plane, the variable focus display system may utilize the same display buffer to output the content from, for example, a rendering engine.

随意に、ディスプレイシステムは、各深度バッファが1つ以上の深度平面を割り当てられる、初期深度バッファを利用してもよく、初期深度バッファを組み合わせて、ディスプレイバッファを取得してもよい。図13の例証を参照すると、第1の深度バッファは、第1の仮想オブジェクト1306を含んでもよい一方、第2の深度バッファは、第2の仮想オブジェクト1308を含んでもよい。ディスプレイシステムは、次いで、ぼかしプロセスを第2の深度バッファまたは第2の深度バッファ内に含まれる特定のコンテンツに適用してもよい(例えば、ディスプレイシステムは、ぼかしプロセスを第2の仮想コンテンツ1308に適用するが、同一深度平面上であるが、ユーザの視線からより遠い角度距離に位置する、他のコンテンツには適用しなくてもよい)。ぼかしプロセスを実施後、ディスプレイシステムは、第1の深度バッファおよび第2の深度バッファを組み合わせ(例えば、ディスプレイシステムは、オクルージョンを追加し、例えば、第1の仮想オブジェクト1306によるオクルージョンに起因して不可視の第2の仮想オブジェクト1308の部分を除去してもよい)、ディスプレイバッファを取得してもよい。   Optionally, the display system may utilize an initial depth buffer, where each depth buffer is assigned one or more depth planes, and may combine the initial depth buffers to obtain the display buffer. Referring to the illustration of FIG. 13, the first depth buffer may include a first virtual object 1306, while the second depth buffer may include a second virtual object 1308. The display system may then apply the blurring process to the second depth buffer or specific content contained within the second depth buffer (eg, the display system may apply the blurring process to the second virtual content 1308). Apply, but need not apply to other content that is on the same depth plane but at a greater angular distance from the user's line of sight). After performing the blurring process, the display system combines the first depth buffer and the second depth buffer (eg, the display system adds occlusion and is invisible, eg, due to occlusion by the first virtual object 1306). Part of the second virtual object 1308 may be removed), and the display buffer may be obtained.

例示的ぼかしプロセスは、ディスプレイシステムが、ぼかしと関連付けられたカーネルの畳み込み(例えば、ガウスカーネル、破壊効果を再現するため等の円形カーネル、ボックスぼかし等)をコンテンツに実施するステップを含んでもよい。このように、分解能における低減は、マスクされ得る一方、分解能を低減させることから生じる処理の節約は、維持され得る。随意に、ぼかしプロセスと関連付けられた強度(例えば、コンテンツがぼかされる程度)は、ユーザの固視点とコンテンツとの間の深度における差異および/またはコンテンツとユーザの視線の角度近接度に基づいてもよい。例えば、ぼかしの程度は、ユーザの視線との近接度の増加に伴って増加してもよい。   An exemplary blurring process may include the display system performing a convolution of the kernel associated with the blurring (eg, a Gaussian kernel, a circular kernel such as to reproduce a destructive effect, a box blur, etc.) on the content. In this way, the reduction in resolution may be masked, while the processing savings resulting from reducing resolution may be maintained. Optionally, the intensity (eg, the degree to which the content is blurred) associated with the blurring process is also based on the difference in depth between the user's fixation point and the content and / or the angular proximity of the content to the user's line of sight. Good. For example, the degree of blurring may increase as the degree of proximity to the user's line of sight increases.

いくつかの実施形態では、ディスプレイシステムは、ディスプレイシステムのハードウェアおよび/またはソフトウェアに従って、ブロック1408または1410の特徴を利用してもよい。例えば、特定のハードウェア(例えば、グラフィック処理ユニット)は、ハードウェアの性能に対する閾値に到達せずに、ぼかしプロセスをハードウェア内で実施することが可能であり得る。本特定のハードウェアに関して、ディスプレイシステムは、コンテンツの分解能を低減させ、次いで、コンテンツをぼかすように構成されてもよい。しかしながら、他のハードウェアは、ぼかしプロセスを実施するには低速であり得、コンテンツをより高い分解能でレンダリングすることは、より高い性能をもたらし得る。本他のハードウェアに関して、ディスプレイシステムは、コンテンツをより高い分解能でレンダリングするように構成され得る。さらに、コンテンツをより高い分解能またはぼかしを伴ってより低い分解能でレンダリングするかどうかの決定は、表示されることになるコンテンツのタイプに依存し得る。例えば、ディスプレイシステムは、テキストをより高い分解能でレンダリングする一方、形状をより低い分解能でレンダリングし、ぼかすように構成されてもよい。   In some embodiments, the display system may utilize the features of blocks 1408 or 1410 according to the display system hardware and / or software. For example, certain hardware (eg, a graphics processing unit) may be able to perform the blurring process in hardware without reaching a threshold on the performance of the hardware. With this particular hardware, the display system may be configured to reduce the resolution of the content and then blur the content. However, other hardware may be slow to perform the blurring process and rendering the content at a higher resolution may result in higher performance. With respect to this other hardware, the display system may be configured to render the content at a higher resolution. Furthermore, the decision whether to render the content at higher resolution or lower resolution with blurring may depend on the type of content to be displayed. For example, the display system may be configured to render text at a higher resolution while rendering shapes at a lower resolution and blur.

図14を継続して参照すると、ブロック1412では、ディスプレイシステムは、コンテンツをユーザに提示する。ディスプレイシステムは、調節されたコンテンツを、例えば、上記に説明されるように、同一ディスプレイバッファからユーザに提示してもよい。

II. 周囲照明レベルに基づく分解能調節
With continued reference to FIG. 14, at block 1412, the display system presents the content to the user. The display system may present the adjusted content to the user from the same display buffer, for example, as described above.

II. Resolution adjustment based on ambient lighting level

z−軸に沿った分解能における低減に加えて、またはその代替として、分解能における低減を伴って仮想コンテンツを提示するための種々の他のスキームが、いくつかの実施形態では、実装されてもよい。有利には、本明細書に記載のように、仮想コンテンツのいくつかの側面は、比較的に高分解能で提示されてもよく、ある他の側面は、比較的に低分解能で提示されてもよく、これは、ディスプレイシステムによる算出およびエネルギーリソースの使用を低減させ得る一方、好ましくは、仮想コンテンツの知覚される画質に殆ど影響を及ぼさない。   In addition to, or as an alternative to, a reduction in resolution along the z-axis, various other schemes for presenting virtual content with a reduction in resolution may be implemented in some embodiments. .. Advantageously, some aspects of the virtual content may be presented with a relatively high resolution and some other aspects may be presented with a relatively low resolution, as described herein. Often, this may reduce the calculation and energy resource usage by the display system, while preferably having little impact on the perceived image quality of the virtual content.

ここで図15を参照すると、ユーザの眼の網膜の表現の実施例が、図示される。図示される図は、その網膜の視軸に沿って頭部を上にして視認されるときに見られるような網膜1500を示す。網膜1500は、周辺エリア1530によって囲繞される中心窩1510を含む。中心窩1510内には、視軸と交差する、小窩1520がある。   Referring now to FIG. 15, an example of a representation of the retina of the user's eye is illustrated. The view shown shows a retina 1500 as seen when viewed head-up along the visual axis of the retina. Retina 1500 includes fovea 1510 surrounded by peripheral area 1530. Within fovea 1510 is fovea 1520, which intersects the visual axis.

網膜は、2つのタイプの光受容体、すなわち、桿体および錐体を含むことを理解されたい。加えて、網膜を横断したこれらの光受容体の分布は、変動し、網膜を横断した異なる桿体および錐体密度を提供する。   It is to be understood that the retina contains two types of photoreceptors, rods and cones. In addition, the distribution of these photoreceptors across the retina fluctuates, providing different rod and cone densities across the retina.

ここで図16を参照すると、図15の網膜1500の分解能およびそれを横断した桿体および錐体密度の実施例が、図式的に図示される。x−軸は、視軸が網膜と交差する点に対する偏心度を示す。ページ上の右方向は、鼻方向であって、ページ上の左方向は、こめかみ方向である。図示されるように、ヒトの眼の分解能は、網膜内の光受容体(桿体および錐体)の密度と大まかに相関する。その結果、いくつかの実施形態では、xおよびy−軸上(例えば、所与の深度平面上)の仮想コンテンツの分解能(例えば、空間分解能)における低減またはテーパは、錐体密度、桿体密度、または桿体および錐体密度の集合の網膜を横断した低減に実質的に追従し得る。例えば、ユーザの視野を横断した固視点から離れるにつれた分解能低減の傾向は、網膜の対応する部分にわたる光受容体密度(例えば、錐体密度、桿体密度、または桿体および錐体密度の集合)の変化における傾向の±50%、±30%、±20%、または±10%以内であり得る。いくつかの実施形態では、固視点から離れるにつれた分解能における低減は、段階的であって、密度変化に実質的に追従する。いくつかの他の実施形態では、分解能における低減は、ステップ(例えば、1つのステップ、2つのステップ等)において生じ得る。例えば、2つのステップ、すなわち、小窩と相関される視野の最高分解能領域、中心窩と相関される中分解能領域、および周辺エリアと相関されるより低い分解能領域が、存在し得る。   Referring now to FIG. 16, an example of the retina 1500 resolution and rod and cone densities across it of FIG. 15 is schematically illustrated. The x-axis shows the eccentricity with respect to the point where the visual axis intersects the retina. The right direction on the page is the nose direction, and the left direction on the page is the temple direction. As shown, the resolution of the human eye roughly correlates with the density of photoreceptors (rods and cones) within the retina. As a result, in some embodiments, the reduction or taper in the resolution (eg, spatial resolution) of the virtual content on the x and y-axes (eg, on a given depth plane) results in cone density, rod density. , Or may substantially follow the reduction of rod and cone density clusters across the retina. For example, the tendency for resolution reduction with distance from a fixation point across the user's field of view is to show photoreceptor density (eg, cone density, rod density, or a collection of rod and cone densities) over a corresponding portion of the retina. ) Change within ± 50%, ± 30%, ± 20%, or ± 10%. In some embodiments, the reduction in resolution with distance from the fixation point is gradual and substantially follows the density change. In some other embodiments, the reduction in resolution may occur in steps (eg, one step, two steps, etc.). For example, there may be two steps: the highest resolution region of the field of view that is correlated with the foveola, the medium resolution region that is correlated with the fovea, and the lower resolution region that is correlated with the peripheral area.

図16を継続して参照すると、異なる光受容体は、異なる光条件下、例えば、異なる周囲照明レベルでは、異なるレベルの活性を有することを理解されたい。その結果、光受容体の密度に追従する分解能における低減は、いくつかの照明レベルでは、ユーザに顕著に知覚可能ではない場合があるが、他の照明レベルでは、知覚可能であり得ることが可能性として考えられる。その結果、いくつかの実施形態では、x、y、またはz−軸に沿った仮想コンテンツの分解能における低減は、外部光条件を参照して設定されてもよい。   With continued reference to FIG. 16, it should be understood that different photoreceptors have different levels of activity under different light conditions, eg, different ambient lighting levels. As a result, the reduction in resolution that follows the density of photoreceptors may not be noticeable to the user at some lighting levels, but may be noticeable at other lighting levels. Considered as sex. As a result, in some embodiments, the reduction in resolution of virtual content along the x, y, or z-axis may be set with reference to external light conditions.

例えば、眼の視覚挙動は、光条件に基づいて、3つのモードに分割され得る。3つのモードは、明所視、薄明視、および暗所視である。明所視は、典型的には、明るい条件、例えば、約10〜10cd/mを含む、約3cd/m以上の周囲光または照明レベルで生じる。明所視では、錐体が、主に、活性である。暗所視では、桿体が、主に、活性である。薄明視では、桿体および錐体の両方が、活性であり得る。本明細書で使用されるように、周囲光条件または照明レベルは、ユーザの眼およびその網膜が暴露される、光の量を指す。 For example, the visual behavior of the eye can be divided into three modes based on light conditions. The three modes are photopic, mesopic, and scotopic. Photopic typically bright conditions, including, for example, about 10~10 8 cd / m 2, occurs at about 3 cd / m 2 or more ambient light or illumination level. In photopic the cones are predominantly active. In scotopic vision, the rods are predominantly active. In mesopic vision, both rods and cones can be active. As used herein, ambient light conditions or lighting levels refer to the amount of light that the user's eye and its retina are exposed to.

薄明視は、典型的には、より低い光条件、例えば、約10−3〜100.5cd/mの照明レベル下で生じる。錐体および桿体の両方が、薄明視内の少なくともいくつかの照明レベルでは活性であって、桿体または錐体の優勢は、周囲照明レベルが増加または減少するかどうかに応じて、経時的に変化する。眼がより明るい環境に適合するにつれて、より多くの錐体が、桿体と比較して活性化され、他方では、眼が暗い環境に適合するにつれて、より多くの桿体が、錐体と比較して活性化される。 Mesopic vision typically occurs under lower light conditions, eg, illumination levels of about 10 −3 to 10 0.5 cd / m 2 . Both cones and rods are active at at least some illumination levels within mesopic vision, and the rod or cone predominance increases over time, depending on whether ambient illumination levels increase or decrease. Changes to. As the eye adapts to a brighter environment, more cones are activated compared to the rod, while as the eye adapts to a darker environment, more rods compare to the cone. And is activated.

暗所視は、典型的には、照明レベルが明所視に関する照明レベル未満である、光条件下で生じる。例えば、暗所視は、約10−3〜10−6cd/mを含む、約10−2cd/mまたはそれ未満または約10−3cd/mまたはそれ未満の照明レベルで生じ得る。桿体が、主に、暗所視において活性である。明所視、薄明視、および暗所視に関して本明細書に記載される照明レベルは、実施例であることを理解されたい。いくつかの実施形態では、視覚のタイプのそれぞれと関連付けられた照明レベルは、ユーザ選好および/またはユーザが属するグループ(例えば、性別、年齢、民族性、視覚的異常の存在等に基づいて)のためのカスタマイズに基づいて恣意的に割り当てられてもよい。 Scotopic vision typically occurs under light conditions where the illumination level is less than that for photopic vision. For example, scotopic vision occurs at illumination levels of about 10 −2 cd / m 2 or less, including about 10 −3 to 10 −6 cd / m 2 or about 10 −3 cd / m 2 or less. obtain. The rods are mainly active in scotopic vision. It should be understood that the illumination levels described herein for photopic, mesopic, and scotopic vision are examples. In some embodiments, the lighting level associated with each of the types of vision is based on user preferences and / or groups to which the user belongs (eg, based on gender, age, ethnicity, presence of visual abnormalities, etc.). May be arbitrarily assigned based on customizations.

いくつかの実施形態では、ユーザにおいて活性である視覚のタイプ(明所視、薄明視、または暗所視)は、周囲照明レベルの測定に基づいて決定されてもよい。例えば、ディスプレイシステムは、外向きに面したカメラ112(図9D)等の光センサを使用して、周囲照明レベルを測定するように構成されてもよい。いくつかの実施形態では、ディスプレイシステムは、別のセンサまたはデバイスと通信してもよく、これは、周囲照明レベルに関する情報を提供する。   In some embodiments, the type of vision that is active in the user (photopic, mesopic, or scotopic) may be determined based on measurements of ambient lighting levels. For example, the display system may be configured to use a photosensor, such as an outward facing camera 112 (FIG. 9D), to measure ambient lighting levels. In some embodiments, the display system may be in communication with another sensor or device, which provides information about ambient lighting levels.

頭部搭載型ディスプレイシステムは、外向きに面したカメラが眼上に衝突する光の量を正確に反映させる輝度レベルを与え得ないように、周囲光の一部を遮断または減衰させてもよいことを理解されたい。加えて、ディスプレイシステムはまた、光を眼に投影させ、仮想コンテンツを提供する際、眼が暴露される照明レベルを改変し得る、光源となる。いくつかの他の実施形態では、内向きに面したカメラが、輝度レベルを決定するために利用されてもよい。例えば、輝度レベルは、瞳孔のサイズと大まかに相関される。図17は、瞳孔サイズとユーザの眼上に入射する光の量との間の関係の実施例を図式的に図示する。x−軸は、輝度に関する値を示し、y−軸は、瞳孔エリアに関する値を示す。その結果、ディスプレイシステムは、ユーザの瞳孔エリアを決定し、次いで、本瞳孔エリアに基づいて、輝度を外挿するように構成されてもよい。例えば、ディスプレイシステムは、内向きに面したカメラ500(図6)を使用して、ユーザの眼210の画像を捕捉し、次いで、画像を分析し、瞳孔エリアまたは瞳孔エリアを示す他のメトリック(例えば、瞳孔直径または幅)を決定するように構成されてもよい。例えば、カメラによって捕捉された画像内の眼210の瞳孔によって占有されるエリアが、決定され、次いで、カメラの光学系によって生じる任意のスケーリング係数に関して補正されてもよい。有利には、瞳孔エリアを使用して、輝度レベルを決定するステップは、一部の周囲光を遮断する、ディスプレイによって生じる周囲輝度レベルにおける低減と、また、ディスプレイ自体の光出力による輝度レベルへの寄与との両方を効果的に考慮し得る。   Head mounted display systems may block or attenuate some of the ambient light so that the outward facing camera may not provide a brightness level that accurately reflects the amount of light impinging on the eye. Please understand that. In addition, the display system is also a light source that can project light onto the eye and modify the illumination level to which the eye is exposed when providing virtual content. In some other embodiments, an inward facing camera may be utilized to determine the brightness level. For example, the brightness level is roughly correlated with the size of the pupil. FIG. 17 diagrammatically illustrates an example of the relationship between pupil size and the amount of light incident on the user's eye. The x-axis shows values for luminance and the y-axis shows values for the pupil area. As a result, the display system may be configured to determine the user's pupil area and then extrapolate the brightness based on the present pupil area. For example, the display system may use an inward facing camera 500 (FIG. 6) to capture an image of the user's eye 210 and then analyze the image to determine the pupil area or other metric indicating the pupil area ( For example, it may be configured to determine the pupil diameter or width). For example, the area occupied by the pupil of the eye 210 in the image captured by the camera may be determined and then corrected for any scaling factors caused by the camera optics. Advantageously, using the pupil area, the step of determining the brightness level comprises blocking some ambient light, a reduction in the ambient brightness level caused by the display and also to the brightness level due to the light output of the display itself. Both contributions can be effectively considered.

図17を継続して参照すると、ディスプレイシステムは、決定された瞳孔エリアに基づいて、ユーザの眼が、明所視、薄明視、または暗所視モードにあるかどうかを決定するように構成されてもよい。例えば、ディスプレイシステムは、メモリ内に、特定の瞳孔エリアに関して予期される視覚モードを規定するテーブルまたは他の記憶される情報を常駐させてもよい。実施例として、図17に示されるグラフと一致して、ディスプレイシステムは、約3mmまたはそれ未満の瞳孔エリアを明所視を示す、3mmまたはそれを上回って最大約38mmの瞳孔エリアを薄明視を示す、38mmを上回る瞳孔エリアを暗所視を示すとカテゴリ化してもよい。これらの輝度値および関連付けられた視覚モードは、実施例であって、他の値が、代用されてもよいことを理解されたい。例えば、異なる値が、ユーザからの入力に応答して、異なるユーザに適用されてもよい、または異なる値が、ユーザが入り得る特定のカテゴリ(例えば、性別、年齢、民族性、視覚的異常の存在等)に基づいて適用されてもよい。加えて、ディスプレイシステムは、必ずしも、具体的視覚モードを識別するわけではないことを理解されたい。むしろ、ディスプレイシステムは、単に、特定の測定された瞳孔エリアと特定の分解能レベルまたは調節を関連付けるように構成されてもよい。 With continued reference to FIG. 17, the display system is configured to determine whether the user's eyes are in photopic, mesopic, or scotopic mode based on the determined pupil area. May be. For example, the display system may reside in memory with a table or other stored information that defines the expected visual mode for a particular pupil area. As an example, consistent with the graph shown in FIG. 17, the display system exhibits photopic vision of a pupil area of about 3 mm 2 or less, with a pupil area of up to about 38 mm 2 of 3 mm 2 or more. Pupillary areas larger than 38 mm 2 that show mesopic vision may be categorized as showing scotopic vision. It should be appreciated that these brightness values and associated visual modes are examples and other values may be substituted. For example, different values may be applied to different users in response to input from the user, or different values may result in particular categories (eg, gender, age, ethnicity, visual abnormalities) in which the user may fall. It may be applied based on existence). In addition, it should be appreciated that the display system does not necessarily identify the particular visual mode. Rather, the display system may simply be configured to associate a particular measured pupil area with a particular resolution level or adjustment.

いくつかの実施形態では、内向きに面したカメラ510(図6)および外向きに面したカメラ112(図9D)の両方からの入力が、輝度レベルを決定するために利用されてもよい。例えば、ディスプレイシステムは、カメラ510および112を使用して決定された輝度レベルの平均(加重された平均を含む)をとるように構成されてもよい。上記に述べられたように、カメラ510を使用して決定された輝度レベルは、そのカメラ510を使用してユーザの眼を結像することに基づいて、ユーザの眼の瞳孔エリアのサイズから外挿されてもよい。   In some embodiments, inputs from both the inward facing camera 510 (FIG. 6) and the outward facing camera 112 (FIG. 9D) may be utilized to determine the brightness level. For example, the display system may be configured to take an average (including a weighted average) of brightness levels determined using cameras 510 and 112. As mentioned above, the brightness level determined using the camera 510 is based on the imaging of the user's eye using the camera 510 to deviate from the size of the pupil area of the user's eye. May be inserted.

桿体および錐体は、異なるレベルの視力および色およびコントラストに対する異なる感度を有することを理解されたい。その結果、周囲輝度レベルは、桿体および/または錐体が活性であるかどうかに影響するため、異なる周囲輝度レベルにおいて、視力および色およびコントラストに対する感度における差異が存在する。有利には、視力および色およびコントラストに対する感度における光レベル差異は、分解能を低減させるための付加的基礎を提供するように適用されてもよく、これは、上記に説明されるように(例えば、図12Aおよび14に関して)、固視点に基づく分解能の変化と併せて利用されてもよい、または固視点に基づく分解能の変化を具体的に行わなくても、別個に利用されてもよい。   It should be appreciated that rods and cones have different levels of visual acuity and different sensitivities to color and contrast. As a result, there is a difference in visual acuity and sensitivity to color and contrast at different ambient brightness levels, as the ambient brightness level affects whether the rods and / or cones are active. Advantageously, light level differences in visual acuity and sensitivity to color and contrast may be applied to provide an additional basis for reducing resolution, which is described above (e.g., 12A and 14) may be utilized in conjunction with fixation-based resolution changes, or may be utilized separately without specific fixation-based resolution changes.

ここで図18を参照すると、ユーザの眼上に入射する光の量に基づいて仮想コンテンツを調節するためのプロセス1800の実施例の略図が、示される。便宜上、プロセスは、ディスプレイシステム(例えば、ウェアラブルディスプレイシステム60(図9D)であって、これは、処理ハードウェアおよびソフトウェアを含んでもよく、随意に、情報を1つ以上のコンピュータまたは他の処理ユニットの外部システムに提供し、例えば、処理を外部システムにオフロードし、情報を外部システムから受信してもよい)によって実施されるように説明され得る。   Referring now to FIG. 18, a schematic diagram of an example of a process 1800 for adjusting virtual content based on the amount of light incident on a user's eye is shown. For convenience, the process is a display system (eg, wearable display system 60 (FIG. 9D), which may include processing hardware and software, and, optionally, information to one or more computers or other processing units. May be provided to an external system, for example, processing may be offloaded to the external system, and information may be received from the external system).

ブロック1810では、ディスプレイシステムは、網膜に到達する光の量を決定する。好ましくは、本決定は、網膜上に衝突する光の直接測定ではなく、網膜に到達する光の量の推定である。本推定は、本明細書に議論されるように、輝度レベルを決定するために開示される方法を使用して行われてもよい。例えば、輝度レベルは、網膜に到達する光の量に対応するように仮定されてもよい。結果として、網膜に到達する光の量を決定するステップは、ユーザの瞳孔のサイズを決定するステップおよび/またはディスプレイデバイス上の外向きに面したカメラ等の光を検出するように構成されるセンサを使用して周囲輝度レベルを決定するステップを含んでもよい。   At block 1810, the display system determines the amount of light reaching the retina. Preferably, the decision is an estimate of the amount of light reaching the retina, rather than a direct measurement of light impinging on the retina. This estimation may be performed using the disclosed method for determining the brightness level, as discussed herein. For example, the brightness level may be assumed to correspond to the amount of light reaching the retina. As a result, the step of determining the amount of light reaching the retina is the step of determining the size of the user's pupil and / or a sensor configured to detect light such as an outward facing camera on the display device. May be used to determine the ambient brightness level.

ブロック1820では、ディスプレイシステムは、ブロック1810において網膜に到達することが見出される光の量に基づいて、ユーザに提示されることになる仮想コンテンツの分解能を調節する。いくつかの実施形態では、仮想コンテンツの分解能を調節するステップは、空間分解能、色深度、および仮想コンテンツの光強度分解能のうちの1つ以上のものを調節するステップを含む。ヒト視覚系は、明所視照明レベル下において、最大の視力および空間分解能、色、および光強度に関する感度を有することを理解されたい。空間分解能、色、および光強度における差異を知覚する能力は、薄明視照明レベル下では、減少し、暗所視照明レベル下では、さらに減少する。   At block 1820, the display system adjusts the resolution of the virtual content to be presented to the user based on the amount of light found to reach the retina at block 1810. In some embodiments, adjusting the resolution of the virtual content comprises adjusting one or more of spatial resolution, color depth, and light intensity resolution of the virtual content. It is to be understood that the human visual system has maximum visual and spatial resolution, color, and light intensity sensitivity under photopic illumination levels. The ability to perceive differences in spatial resolution, color, and light intensity is diminished under mesopic illumination levels and further diminished under scotopic illumination levels.

その結果、いくつかの実施形態では、存在する光の量が、明所視に関するレベルに対応することが見出される場合、仮想オブジェクトは、完全または高空間分解能でレンダリングされてもよい(薄明視または暗所視のために利用されるであろう、空間分解能と比較して)。存在する光の量が、薄明視レベルに関するレベルに対応することが見出される場合、仮想オブジェクトは、明所視照明レベル下の仮想オブジェクトのために利用される空間分解能と比較して、低減された空間分解能でレンダリングされてもよい。光の量が、暗所視レベルに対応することが見出される場合、仮想オブジェクトは、薄明視または明所視照明レベル下で使用されるものより低い空間分解能でレンダリングされてもよい。空間分解能は、本明細書に説明されるように、例えば、ポリゴンの数を低減させること等によって調節されてもよい。   As a result, in some embodiments, a virtual object may be rendered with full or high spatial resolution if the amount of light present corresponds to a level for photopic vision (mesopic or (Compare spatial resolution, which will be used for scotopic vision). If the amount of light present is found to correspond to the level for mesopic vision level, the virtual object was reduced compared to the spatial resolution utilized for the virtual object under the photopic illumination level. It may be rendered with spatial resolution. If the amount of light is found to correspond to the scotopic level, the virtual object may be rendered with a lower spatial resolution than that used under mesopic or photopic illumination levels. The spatial resolution may be adjusted, for example, by reducing the number of polygons, etc., as described herein.

色深度またはビット深度も同様に、照明レベルに応じて調節されてもよく、最高色深度は、明所視照明レベル下で使用され、中間色深度は、薄明視照明レベル下で使用され、最低色深度は、暗所視照明レベル下で使用される。色深度は、ピクセルの色成分毎に使用されるビットの数を変化させることによって調節されてもよく、より少ないビットは、より低い色深度に匹敵することを理解されたい。   The color depth or bit depth may likewise be adjusted according to the lighting level, the highest color depth used under photopic lighting level, the intermediate color depth used under mesopic lighting level, the lowest color Depth is used under scotopic illumination levels. It should be appreciated that the color depth may be adjusted by varying the number of bits used per color component of the pixel, with fewer bits comparable to lower color depth.

同様に、理論によって限定されるわけではないが、光強度における階調は、照明レベルが、明所視から、薄明視、暗所視照明レベルへと進行するにつれて、より大きくなると考えられる。換言すると、ヒト視覚系は、周囲照明レベルが減少するにつれて、光強度におけるより小さい差異を判別することが可能であると考えられる。いくつかの実施形態では、ディスプレイシステムは、照明レベルが、明所視から、薄明視、暗所視照明レベルに進行するにつれて、光強度におけるより少ない階調を表示するように構成されてもよい。その結果、光強度レベルにおける最大数の階調は、明所視照明レベル下で提示され、より少ない階調は、薄明視照明レベル下で提示され、さらにより少ない階調は、暗所視照明レベル下で提示される。   Similarly, although not limited by theory, it is believed that the gradation in light intensity is greater as the illumination level progresses from photopic to mesopic to scotopic illumination levels. In other words, it is believed that the human visual system is able to discriminate smaller differences in light intensity as ambient lighting levels decrease. In some embodiments, the display system may be configured to display fewer gradations in light intensity as the illumination level progresses from photopic to mesopic, scotopic illumination levels. .. As a result, the maximum number of tones in the light intensity level is presented under the photopic illumination level, less tones are presented under the mesopic illumination level, and even less tones are in the scotopic illumination. Presented below the level.

加えて、いくつかの実施形態では、ディスプレイシステムは、ユーザが知覚可能なものより多数の光強度における階調を提供することが可能であり得る。これの実施例は、図22a−22cに図示され、下記にさらに議論される。例えば、ディスプレイシステムは、所与の画像ピクセルに関して、256の異なるレベルの強度を表示可能であり得るが、ユーザは、より少ない数のレベル、例えば、64のレベルのみを知覚可能であり得る。本インスタンスでは、複数の可能性として考えられる光強度レベルが、知覚可能な光強度レベルのうちの単一の1つ内に包摂される。例えば、ディスプレイシステムは、4つの異なる光強度レベルを表示することが可能であり得るが、ユーザは、4つ全てを類似しているように知覚し得る。複数の可能性として考えられる光強度がユーザによって同一であるように知覚される、そのような状況では、ディスプレイシステムは、類似であるように知覚されるこれらの値から、表示のために、最低強度値を選択するように構成されてもよい。その結果、ディスプレイシステムは、より低い強度を利用し、それによって、ディスプレイを照明するために使用される電力の量を低減させ、所望の光強度を達成することが可能であり得る。これは、空間光変調器の個々のピクセル自体が有機および無機LED等の光エミッタである、ディスプレイシステムにおいて特定の利点を有し得る。いくつかの実施形態では、階調の数は、周囲照明レベルの減少に伴って減少し、ディスプレイシステムは、より多数の可能性として考えられる光強度レベルをともにグループ化し、最低光強度のグループを表示するように構成される。   Additionally, in some embodiments, the display system may be capable of providing gray levels at more light intensities than are perceivable by the user. An example of this is illustrated in Figures 22a-22c and discussed further below. For example, a display system may be able to display 256 different levels of intensity for a given image pixel, but a user may only be able to perceive a smaller number of levels, for example 64 levels. In this instance, multiple possible light intensity levels are subsumed within a single one of the perceptible light intensity levels. For example, the display system may be capable of displaying four different light intensity levels, but the user may perceive all four as similar. In such a situation, where multiple possible light intensities are perceived by the user to be the same, in such a situation, the display system may choose from these values perceived to be similar to the lowest It may be configured to select the intensity value. As a result, the display system may be able to utilize lower intensity, thereby reducing the amount of power used to illuminate the display and achieving the desired light intensity. This may have particular advantages in display systems where the individual pixels of the spatial light modulator are themselves light emitters such as organic and inorganic LEDs. In some embodiments, the number of gray levels decreases with decreasing ambient lighting levels, and the display system groups together a larger number of possible light intensity levels, with a group of lowest light intensities. Configured to display.

表示されることになる仮想コンテンツに関して、空間分解能、色深度、および光強度分解能のうちの1つ、2つ、または3つ全てが、ユーザに指向される光条件(ユーザの網膜に到達する光の量)に基づいて変化されてもよいことを理解されたい。光条件に基づく、空間分解能、色深度、および/または光強度分解能に対するこれらの調節は、本明細書に開示されるように、ユーザの眼の固視点からの距離に基づいて分解能に対する調節を行わずに、仮想コンテンツ全体に行われてもよい。いくつかの他の実施形態では、光条件に基づく空間分解能、色深度、および/または光強度分解能に対する調節は、固視点からの距離に基づく分解能に対する調節と併せて行われてもよい(例えば、図12Aおよび14参照)。いくつかの実施形態では、分解能が、固視点からの距離に伴って減少する場合、所与の平面上(xおよびy−軸上)の減少のプロファイルは、好ましくは、網膜の対応する部分を横断した錐体密度の変化のプロファイルに合致する。   With respect to the virtual content to be displayed, one, two, or all three of spatial resolution, color depth, and light intensity resolution are directed to the user in light conditions (light reaching the user's retina. It should be understood that it may be varied based on the amount of). These adjustments to spatial resolution, color depth, and / or light intensity resolution based on light conditions, as disclosed herein, make adjustments to resolution based on distance from the fixation point of the user's eye. Instead, it may be performed on the entire virtual content. In some other embodiments, adjustments to spatial resolution, color depth, and / or light intensity resolution based on light conditions may be made in conjunction with adjustments to resolution based on distance from a fixation point (eg, See Figures 12A and 14). In some embodiments, if the resolution decreases with distance from the fixation point, the profile of the decrease on a given plane (on the x and y-axes) preferably corresponds to the corresponding portion of the retina. The profile of crossing cone density changes is fitted.

いくつかの実施形態では、本明細書に記載のように、空間分解能、色深度、および/または光強度分解能に対する調節は、好ましくは、所与の時間に活性である視覚のモード(明所視、薄明視、または暗所視)に結び付けられる。これらの調節は、視覚のモードが変化する場合、動的に変化してもよい。例えば、ユーザが、明所視から暗所視に進行すると、分解能は、本明細書に議論されるように、減少し得る。逆に言えば、ユーザが、暗所視から薄明視に進行すると、仮想コンテンツの分解能は、増加し得る。分解能に対する調節を特定の視覚のモードに結び付けることは、ユーザがその特定のモードにあるという具体的決定を要求しないことを理解されたい。むしろ、ディスプレイシステムは、単に、特定の周囲照明レベルまたは瞳孔サイズの範囲と、空間分解能、色深度、または光強度分解能にかかわらず、特定の分解能を関連付けるように構成されてもよい。加えて、分解能調節は、好ましくは、本明細書に議論されるように、3つのレベルの光条件(3つの視覚のモードに対応する)に結び付けられるが、いくつかの実施形態では、分解能調節は、2つのレベルの光条件または3つを上回るレベルの光条件に結び付けられてもよい。   In some embodiments, adjustments to spatial resolution, color depth, and / or light intensity resolution, as described herein, are preferably modes of vision that are active at a given time (photopic vision). , Mesopic, or scotopic). These adjustments may change dynamically as the mode of vision changes. For example, as the user progresses from photopic to scotopic vision, resolution may decrease, as discussed herein. Conversely, as the user progresses from scotopic to mesopic vision, the resolution of the virtual content may increase. It should be appreciated that coupling resolution adjustments to a particular mode of vision does not require the user to make a specific determination to be in that particular mode. Rather, the display system may simply be configured to associate a particular ambient illumination level or range of pupil sizes with a particular resolution regardless of spatial resolution, color depth, or light intensity resolution. In addition, the resolution adjustment is preferably tied to three levels of light conditions (corresponding to the three modes of vision) as discussed herein, although in some embodiments the resolution adjustment is May be tied to two levels of light conditions or more than three levels of light conditions.

また、分解能調節は、リアルタイムで(例えば、周囲光条件が変化するにつれて)生じてもよい、または設定された持続時間にわたって、遅延され、仮想コンテンツに対する分解能調節が行われる前に、ヒト視覚系が既存の光条件に適合することを可能にしてもよいことを理解されたい。理論によって限定されるわけではないが、ヒト視覚系は、異なる照明レベルに適合するために、ある時間周期を要求し、時間周期は、照明レベルが減少するにつれて増加すると考えられる。その結果、いくつかの実施形態では、照明レベルを変化させることに起因する、分解能における調節は、ユーザが設定された時間量にわたって特定の照明レベルに暴露される(例えば、実質的に持続的に暴露される)まで行われない。例えば、設定された時間量は、5分、10分、15分、または20分であってもよい。   Also, the resolution adjustment may occur in real time (eg, as the ambient light conditions change), or may be delayed for a set duration to allow the human visual system to see before the resolution adjustment is made to the virtual content. It should be appreciated that it may be possible to accommodate existing light conditions. Without being limited by theory, it is believed that the human visual system requires a certain period of time to adapt to different lighting levels, which increases as the lighting level decreases. As a result, in some embodiments, the adjustment in resolution due to changing the illumination level is exposed to the particular illumination level for a user-set amount of time (eg, substantially persistently). Not exposed until exposed). For example, the set amount of time may be 5 minutes, 10 minutes, 15 minutes, or 20 minutes.

図18を継続して参照すると、ブロック1830では、仮想コンテンツが、ユーザに提示される。本仮想コンテンツの提示は、本明細書に議論されるように、例えば、図12Aのブロック1208または図14のブロック1412におけるように行われてもよい。   With continued reference to FIG. 18, at block 1830, virtual content is presented to the user. Presentation of the virtual content may occur as discussed herein, eg, as in block 1208 of FIG. 12A or block 1412 of FIG.

ここで図19を参照すると、眼上に入射する光の量が変化するにつれたユーザの眼によって検出可能な分解能の変化の実施例が、図式的に図示される。本図は、異なる視覚モード下における空間分解能に対するヒト視覚系の感度の実施例を図示する。暗所視は、低光量領域1910内で生じ、薄明視は、中光領域1920内で生じ、明所視は、明るい光領域1930内で生じる。示されるように、空間分解能に対する感度は、周囲照明レベルが減少するにつれて実質的に減少する。いくつかの実施形態では、図18に関して上記に議論される、空間分解能に対する調節は、図示される曲線の輪郭に対応する。例えば、明所視または暗所視モードにおける所与の光レベルに関して、仮想コンテンツは、y−軸上に示される分解能値を満たすまたは超えるために十分な空間分解能でレンダリングされる。   Referring now to FIG. 19, an example of a change in resolution detectable by the user's eye as the amount of light incident on the eye changes is schematically illustrated. This figure illustrates an example of the sensitivity of the human visual system to spatial resolution under different visual modes. Scotopic vision occurs in the low light region 1910, mesopic vision occurs in the mid-light region 1920, and photopic vision occurs in the bright light region 1930. As shown, the sensitivity to spatial resolution decreases substantially as the ambient illumination level decreases. In some embodiments, the adjustments to spatial resolution discussed above with respect to FIG. 18 correspond to the contours of the curves shown. For example, for a given light level in photopic or scotopic mode, virtual content is rendered with sufficient spatial resolution to meet or exceed the resolution values shown on the y-axis.

ここで図20を参照すると、異なる光受容体が、異なる波長または色の光を知覚するために使用され得ることを理解されたい。図20は、異なるレベルの照明における異なる色の光に対する眼の感度における差異の実施例を図式的に図示する。x−軸上の持続時間における差異は、特定の視覚のモードが活性化されるように、ヒト視覚系が特定の周囲照明レベルに適合するために典型的に必要とされる時間量の反映である。着目すべきこととして、暗所視および薄明視の一部に対応する周囲照明レベルでは、赤色光のための光受容体は、もはや活性ではなくなり得る一方、青色光のための光受容体が、最低光条件下で活性である。赤色、緑色、および青色光は、フルカラー画像を形成するためにディスプレイシステム内で原色として最も典型的に使用される色に対応することを理解されたい(例えば、図8−9Bに関して本明細書に議論されるように)。いくつかの実施形態では、ディスプレイシステムは、周囲照明レベルに応じて、異なる色の画像のレンダリングを変動させるように構成されてもよい。   Referring now to FIG. 20, it should be appreciated that different photoreceptors may be used to perceive light of different wavelengths or colors. FIG. 20 schematically illustrates an example of the difference in the sensitivity of the eye to different colors of light at different levels of illumination. The difference in duration on the x-axis is a reflection of the amount of time the human visual system typically requires to adapt to a particular ambient lighting level so that a particular mode of vision is activated. is there. It should be noted that at ambient lighting levels corresponding to scotopic and mesopic vision, photoreceptors for red light may no longer be active, while photoreceptors for blue light may Active under minimal light conditions. It should be appreciated that red, green, and blue light correspond to the colors most typically used as primary colors in display systems to form full-color images (e.g., herein with respect to Figures 8-9B. As discussed). In some embodiments, the display system may be configured to vary the rendering of different color images depending on the ambient lighting level.

ここで図21を参照すると、複数の原色画像を使用して形成される仮想コンテンツを調節するためのプロセス2100の実施例の略図が、示され、分解能調節は、原色画像の色に基づいて行われる。ブロック2110では、ディスプレイシステムは、複数の原色画像を使用して、提示されることになる仮想コンテンツを提供する。これらは、図8−9Bに関して議論されるように、異なる導波管に指向されることになる異なる原色の異なる画像であってもよい。その結果、いくつかの実施形態では、異なる原色の画像のストリームがそれぞれ、別個にレンダリングされてもよい。複数の原色画像を使用して、提示されることになる仮想コンテンツを提供するステップは、異なる原色の画像ストリームを出力し、フルカラー画像を形成する、ディスプレイシステムを利用するステップを含んでもよい。   Referring now to FIG. 21, a schematic diagram of an example of a process 2100 for adjusting virtual content formed using multiple primary color images is shown, wherein the resolution adjustment is based on the colors of the primary color images. Be seen. At block 2110, the display system uses the plurality of primary color images to provide virtual content to be presented. These may be different images of different primary colors that will be directed to different waveguides, as discussed with respect to Figures 8-9B. As a result, in some embodiments, each stream of images of different primary colors may be rendered separately. The step of providing virtual content to be presented using multiple primary color images may include utilizing a display system to output image streams of different primary colors to form a full color image.

ブロック2120では、ディスプレイシステムは、その色に基づいて、原色画像の分解能を調節してもよい。例えば、ディスプレイシステムは、分解能調節のために、これらの原色のうちの1つの色画像を選択してもよい。例えば、選択は、図18のブロック1810に関して上記に説明されるように、照明レベルの決定に基づいて行われてもよい。図19に示されるように、いくつかの原色は、いくつかの照明レベルでは、ユーザによって知覚されない場合がある。ディスプレイシステムは、照明レベルおよびそれらのレベルにおいて不可視な原色に関する情報をその中に記憶していてもよい。照明レベルとそれらのレベルにおいて不可視な原色との間に合致が存在する場合、その原色の画像が、調節のために選択されてもよい。いくつかの環境では、1つの調節は、周囲照明レベルが、ユーザがその色を知覚することが予期されないようなものである場合、単に、その原色画像をレンダリングまたは表示しないことであってもよい。例えば、暗所視照明レベル下では、ディスプレイシステムは、原色赤色の画像をレンダリングするまたは表示しないように構成されてもよい。   At block 2120, the display system may adjust the resolution of the primary color image based on the color. For example, the display system may select a color image of one of these primary colors for resolution adjustment. For example, the selection may be based on a lighting level determination, as described above with respect to block 1810 of FIG. As shown in FIG. 19, some primary colors may not be perceived by the user at some lighting levels. The display system may have stored therein information about the illumination levels and the primary colors invisible at those levels. If there is a match between the illumination levels and the invisible primaries at those levels, the image of that primaries may be selected for adjustment. In some circumstances, one adjustment may simply be to not render or display the primary color image if the ambient lighting level is such that the user is not expected to perceive the color. .. For example, under scotopic illumination levels, the display system may be configured to render or not display the primary color red image.

図21を継続して参照すると、ブロック2130では、仮想コンテンツが、ユーザに提示される。仮想コンテンツの提示は、本明細書に議論されるように、例えば、図12Aのブロック1208または図14のブロック1412におけるように、行われてもよい。   With continued reference to FIG. 21, at block 2130, virtual content is presented to the user. Presentation of virtual content may occur as discussed herein, for example, as in block 1208 of FIG. 12A or block 1412 of FIG.

ここで図22A−22Cを参照すると、上記に議論されるように、理論によって限定されるわけではないが、光強度における階調を知覚するヒト視覚系の能力は、周囲照明レベルに伴って変化すると考えられる。図22A−22Cは、ユーザの眼上に入射する光の量が減少するにつれて変化するコントラスト感度の実施例を示す。例えば、図22Aは、明所視光条件下におけるコントラスト感度を示すと理解され得、図22Bは、薄明視光条件下におけるコントラスト感度を示すと理解され得、図22Cは、暗所視光条件下におけるコントラスト感度を示すと理解され得る。図22Aは、階調2110から2110への進行2100を示し、上の高光強度から下の低光強度に進む。同様に、図22Bは、階調2110から2110への進行2102を示し、高光強度から低光強度に進む。同様に、図22Cは、階調2110から2110への進行2104を示し、高光強度から低光強度に進む。ボックス2120、2130、2140は、ユーザによって同一であるように知覚される、強度階調のグループを示す。これらのグループのサイズは、図示されるように、周囲照明レベルの減少に伴って増加することが予期される。その結果、図18に関して上記に説明されるように、いくつかの実施形態では、ディスプレイシステムは、各グループ内(例えば、ボックス2120、2130、2140のそれぞれ内)の最低強度値を使用するように構成されてもよい。 22A-22C, as discussed above, and without being limited by theory, the human visual system's ability to perceive gray scales in light intensity varies with ambient lighting level. It is thought that. 22A-22C show examples of contrast sensitivity that change as the amount of light incident on a user's eye decreases. For example, FIG. 22A may be understood to show contrast sensitivity under photopic conditions, FIG. 22B may be understood to show contrast sensitivity under mesopic conditions, and FIG. 22C shows scotopic conditions. It can be understood to indicate the contrast sensitivity below. FIG. 22A shows a progression 2100 from grayscale 2110 1 to 2110 i , going from high light intensity at the top to low light intensity at the bottom. Similarly, FIG. 22B shows progression 2102 from grayscale 2110 1 to 2110 i , going from high light intensity to low light intensity. Similarly, FIG. 22C shows a progression 2104 from grayscale 2110 1 to 2110 i , going from high light intensity to low light intensity. Boxes 2120, 2130, 2140 indicate groups of intensity gradations that are perceived as identical by the user. The size of these groups is expected to increase with decreasing ambient lighting levels, as shown. As a result, as described above with respect to FIG. 18, in some embodiments, the display system may use the lowest intensity value within each group (eg, within each of the boxes 2120, 2130, 2140). It may be configured.

ここで図23を参照すると、ユーザの眼の視神経および周辺盲点の表現の実施例が、図示される。いくつかの実施形態では、本明細書に開示される分解能調節のいずれかに加えて、またはその代替として、ディスプレイシステムは、コンテンツがユーザによって知覚可能であることが予期されない種々の場所にコンテンツをレンダリングすることを控えるように構成されてもよい。図23は、それぞれ、左および右眼210および210を図示する。各眼は、個別の光学軸1003Aおよび1003Bと、視神経2300および2300とを有する。視神経2300Lおよび2300がそれぞれ、その個別の眼210および210に接触する点には、盲点が存在する。これらの盲点は、視認者に光線2302および2302の方向におけるコンテンツが見えないように妨げる。加えて、各眼の周縁には、コンテンツが反対の眼によって見えることができない領域が存在する。例えば、左周辺領域P内のコンテンツは、左眼210によって見られ得るが、右眼210によっては見られない。他方では、右周辺領域P内のコンテンツは、右眼210によって見られ得るが、左眼210によっては見られない。その結果、いくつかの実施形態では、ディスプレイシステムは、各眼210および210の盲点にマッピングされるであろうコンテンツ、例えば、光線2302および2302上に入るコンテンツをレンダリングすることを省略するように構成されてもよい。加えて、または代替として、いくつかの実施形態では、ディスプレイシステムは、そのコンテンツが右周辺領域P内に入る場合、コンテンツを左眼210にレンダリングすることを省略するように構成されてもよく、および/またはディスプレイシステムは、そのコンテンツが左周辺領域P内に入る場合、コンテンツを右眼210にレンダリングすることを省略するように構成されてもよい。盲点および/または周辺領域の場所は、例えば、ユーザの母集団に関する平均に基づいて、事前に設定されてもよく、および/または種々の場所に表示されるコンテンツを使用した試験および仮想オブジェクトが可視であるかどうかを示すユーザからの入力によって特定のユーザに関して調整および較正されてもよいことを理解されたい。

III. 異なる分解能を有するコンテンツを提供するための複数の画像ストリーム
Referring now to FIG. 23, an example of a representation of the optic nerve and peripheral blind spots of the user's eye is illustrated. In some embodiments, in addition to, or as an alternative to, any of the resolution adjustments disclosed herein, the display system displays the content in various locations where the content is not expected to be perceivable by the user. It may be configured to refrain from rendering. FIG. 23 illustrates left and right eyes 210 L and 210 R , respectively. Each eye has a separate optical axis 1003A and 1003B and optic nerves 2300 L and 2300 R. Each optic nerve 2300L and 2300 R is, its point of contact to the individual eye 210 L and 210 R are blind spots are present. These blind spots prevent the viewer from seeing the content in the direction of rays 2302 L and 2302 R. In addition, there is a region at the periphery of each eye where the content cannot be seen by the opposite eye. For example, content in the left peripheral region P L may be seen by the left eye 210 L but not by the right eye 210 R. On the other hand, the content of the right peripheral region P R is can be seen by the right eye 210 R, not seen by the left eye 210 L. As a result, in some embodiments, the display system skips rendering content that would be mapped to the blind spots of each eye 210 L and 210 R , eg, content that falls on rays 2302 L and 2302 R. May be configured to do so. As addition or alternatively, in some embodiments, the display system, if the content falls right peripheral region P L, be configured to omit rendering the content on the left-eye 210 L Well and / or the display system may be configured to skip rendering the content to the right eye 210 R if the content falls within the left peripheral region P L. The location of blind spots and / or surrounding areas may be preset, for example, based on an average of the user's population, and / or test and virtual objects using content displayed in various locations are visible. It should be appreciated that the input from the user indicating whether or not may be adjusted and calibrated for the particular user.

III. Multiple image streams to provide content with different resolutions

いくつかの実施形態では、高および低空間分解能領域を有する、中心窩化画像が、それぞれ、異なる分解能(例えば、異なる知覚されたピクセル密度)を有する、空間的に重複する2つ以上の画像ストリームによって形成されてもよい。例えば、画像ストリームのうちの1つ、例えば、低分解能画像ストリームは、広視野を有する画像を形成してもよく、画像ストリームの別のもの、例えば、高分解能画像ストリームは、狭視野を有する画像を形成してもよい。狭視野画像および広視野画像は、類似コンテンツを含有してもよいが、異なる分解能またはピクセル密度でユーザによって見られる。これらの画像は、相互にオーバーレイされてもよい(例えば、視認者が画像が同時に提示されていると知覚するように、空間内の同一場所を同時にまたは時間的に近接して占有する)。したがって、視認者は、高分解能を有する集約画像をその視野の制約された部分において、低分解能画像をその視野のより大きい部分にわたって受信し得る。好ましくは、本明細書に議論されるように、高分解能部分は、ユーザの眼の中心窩視領域にマップされる一方、低分解能部分は、ユーザの眼の周辺視覚領域にマップされる。したがって、画像の高分解能部分と低分解能部分との間の分解能における差異は、好ましくは、ユーザに容易に知覚不能である。   In some embodiments, the foveated images having high and low spatial resolution regions each have two or more spatially overlapping image streams, each having a different resolution (eg, different perceived pixel density). May be formed by. For example, one of the image streams, eg, a low resolution image stream, may form an image having a wide field of view, and another of the image streams, eg, a high resolution image stream, an image having a narrow field of view. May be formed. Narrow-field images and wide-field images may contain similar content, but are viewed by the user at different resolutions or pixel densities. These images may be overlaid on top of each other (eg, occupy the same place in space at the same time or in close proximity in time so that the viewer perceives the images to be presented simultaneously). Thus, a viewer may receive an aggregate image with high resolution in a constrained portion of its field of view and a low resolution image over a larger portion of its field of view. Preferably, as discussed herein, the high resolution portion is mapped to the foveal vision area of the user's eye while the low resolution portion is mapped to the peripheral vision area of the user's eye. Therefore, the difference in resolution between the high and low resolution portions of the image is preferably not easily perceptible to the user.

いくつかの環境では、高および低分解能画像を表示するためのディスプレイシステムは、同一空間光変調器を利用して、両画像を形成する。したがって、空間光変調器は、固定サイズおよび密度のピクセルを有する。固定サイズおよび密度のピクセルを伴う、ディスプレイシステムでは、角度視野(FOV)の増加は、例えば、Lagrange不変量によって左右されるように、空間または角度分解能を犠牲にして生じる。例えば、固定数のピクセルを有するSLMが、高および低分解能画像の両方を形成するために使用される場合、それらのピクセルを視野全体横断して拡散させることは、それらのピクセルを総視野の小部分に制約することより低い見掛け分解能を伴う画像を提供するであろう。すなわち、高分解能画像のピクセル密度は、低分解能画像のピクセル密度より高い。その結果、概して、FOVと角度分解能との間には、逆相関が存在する。FOVおよび角度分解能は、画像可視性および品質に影響を及ぼすため、本トレードオフは、ARまたはVRシステムにおけるユーザ体験および最終達成可能FOVおよび角度分解能に関する制約を課す。本明細書の議論から明白となるであろうように、いくつかの実施形態では、用語「分解能」は、「角度分解能」を指すために使用されてもよい。   In some environments, display systems for displaying high and low resolution images utilize the same spatial light modulator to form both images. Therefore, spatial light modulators have pixels of fixed size and density. In display systems with fixed size and density pixels, the increase in angular field of view (FOV) occurs at the expense of spatial or angular resolution, eg, as dictated by the Lagrange invariant. For example, if an SLM with a fixed number of pixels is used to form both high and low resolution images, diffusing those pixels across the entire field of view means that they are small in the total field of view. Constraining parts will provide an image with a lower apparent resolution. That is, the pixel density of the high resolution image is higher than the pixel density of the low resolution image. As a result, there is generally an inverse correlation between FOV and angular resolution. Since FOV and angular resolution affect image visibility and quality, this tradeoff imposes constraints on user experience and final achievable FOV and angular resolution in AR or VR systems. As will be apparent from the discussion herein, in some embodiments the term "resolution" may be used to refer to "angular resolution".

頭部搭載型ディスプレイデバイスまたはウェアラブルディスプレイデバイスは、仮想コンテンツを直接ユーザの眼の中に投影させることによって、没入型のユーザ体験を提供するように構成されることができる。広FOV画像をFOVを横断して均一に高分解能で提供することは、有益であり得るが、ヒト視覚系の生理学的限界は、ユーザが、ユーザの視野の周辺領域内に位置付けられる高分解能画像を鑑賞または認知さえしないように妨げ得る。本周辺領域内の高分解能画像を知覚不能であることは、2つのタイプの光受容体、すなわち、桿体細胞および錐体細胞を含有する、ヒトの眼の網膜の特性によって生じる。錐体は、鋭敏(詳細)な視覚により関与する。桿体および錐体は、ヒトの眼内に異なるように分散される。錐体細胞の最高濃度は、中心窩(すなわち、網膜の中心)内に見出される一方、桿体細胞の最高濃度は、中心窩を直接囲繞する領域(すなわち、網膜の周縁)内に見出される。桿体細胞および錐体細胞の本非均一分布のため、中心窩は、鋭敏な中心視(中心窩視とも呼ばれる)に関与する。視力は、中心窩からの距離が増加するにつれて減少する。   Head-mounted or wearable display devices can be configured to provide an immersive user experience by projecting virtual content directly into the user's eyes. Providing a wide FOV image uniformly with high resolution across the FOV can be beneficial, but the physiological limitations of the human visual system are that the high resolution image that the user positions within the peripheral region of the user's field of view. Can prevent you from viewing or even recognizing. The imperceptibility of high-resolution images in this peripheral region is caused by the characteristics of the human eye retina, which contains two types of photoreceptors, rod cells and cone cells. The cone is more involved in sensitive (detailed) vision. The rods and cones are differently distributed within the human eye. The highest concentration of pyramidal cells is found in the fovea (ie, the center of the retina), while the highest concentration of rod cells is found in the area directly surrounding the fovea (ie, the periphery of the retina). Due to this non-uniform distribution of rod and cone cells, the fovea is involved in sharp central vision (also called foveal vision). Visual acuity decreases with increasing distance from the fovea.

ARまたはVR用途に関して、ヘッドセットは、概して、一度に1人のユーザによって装着される。ヘッドセットは、高分解能コンテンツの表示をユーザによって現在合焦されている広視野内の領域に限定することによって、画像の広視野ストリームの全ての詳細を一度に知覚することのユーザの無能力を利用するように構成されることができる。このように、ヘッドセットはそうでなければ高分解能コンテンツを視野全体を横断して生成するために要求されるであろう、処理電力の必要なく、ユーザに、画像の高分解能広FOVストリームの出現を提供することができる。ユーザに提示される画像のストリームは、多くの形態をとることができ、概して、画像ストリームと称されるであろう。例えば、画像ストリームは、同一画像をユーザに持続的に表示することによって、静的画像を示すことができる、または異なる画像のストリームを表示することによって、運動を示すことができる。いくつかの実施形態では、ヘッドセットは、1つを上回る画像ストリームを同時に表示するように構成されることができ、異なる画像ストリームは、異なる角度分解能を有することができ、ユーザのFOVの異なる領域を横断して延在することができる。ARシステムと関連付けられた画像ストリームは、ARシステムが仮想コンテンツと実世界コンテンツを混合するように設計されるため、コンテンツをそれが割り当てられる特定の領域を横断して全体的に表示し得ないことに留意されたい。   For AR or VR applications, the headset is typically worn by one user at a time. The headset limits the display of high-resolution content to the area within the wide field of view that is currently in focus by the user, thereby eliminating the user's inability to perceive all the details of the wide field stream of the image at one time. Can be configured to utilize. In this way, the headset allows the user to see a high resolution wide FOV stream of images without the need for processing power, which would otherwise be required to produce high resolution content across the entire field of view. Can be provided. The stream of images presented to the user can take many forms and will generally be referred to as an image stream. For example, the image stream can show static images by persistently displaying the same image to the user, or it can show motion by displaying a different stream of images. In some embodiments, the headset can be configured to display more than one image stream simultaneously, different image streams can have different angular resolutions, and different regions of the user's FOV. Can extend across. The image stream associated with the AR system is designed such that the AR system is designed to mix virtual content with real-world content, so that the content cannot be displayed generally across the particular area to which it is assigned. Please note.

いくつかの実施形態によると、第1の画像ストリームおよび第2の画像ストリームは、2つの画像ストリームが同時に表示されるように現れるように、ユーザに同時にまたは高速で連続して提示されることができる。第1の画像ストリームは、ユーザの視覚を包含し、没入体験をユーザに喚起し得る、広FOVおよび低分解能を有することができる。第2の画像ストリームによって被覆されるFOVの瞬間部分に対応する、第1の画像ストリームの一部は、いくつかの実施形態では、オフにされてもよい。第2の画像ストリームは、眼視線追跡技法を使用してリアルタイムで決定されるようなユーザの現在の固視点に従って第1の画像ストリームの境界内に動的に表示され得る、狭FOVおよび高分解能を有することができる。言い換えると、第2の画像ストリームは、第2の画像ストリームがユーザの中心窩視を持続的に被覆するように、ユーザの眼視線が変化するにつれて、偏移されることができる。いくつかの実施形態では、第1の画像ストリームは、第2の画像ストリームが第1の画像ストリームに対して偏移されるにつれて、固定位置においてユーザに提示される。いくつかの他の実施形態では、第1の画像ストリームおよび第2の画像ストリームは両方とも、ユーザの現在の固視点に従って偏移される。   According to some embodiments, the first image stream and the second image stream may be presented to the user at the same time or in rapid succession such that the two image streams appear to be displayed simultaneously. it can. The first image stream can have a wide FOV and a low resolution that can encompass the user's vision and evoke an immersive experience for the user. The portion of the first image stream that corresponds to the instantaneous portion of the FOV covered by the second image stream may be turned off in some embodiments. The second image stream may be dynamically displayed within the boundaries of the first image stream according to the user's current fixation point as determined in real time using eye gaze tracking techniques, a narrow FOV and high resolution. Can have. In other words, the second image stream can be shifted as the eye gaze of the user changes so that the second image stream permanently covers the fovea of the user. In some embodiments, the first image stream is presented to the user at a fixed location as the second image stream is offset with respect to the first image stream. In some other embodiments, both the first image stream and the second image stream are shifted according to the user's current fixation point.

第2の画像ストリームのコンテンツは、第1の画像ストリームより高い分解能を伴う、第1の画像ストリームのコンテンツのサブセットを含むことができ、第1の画像ストリーム上にオーバーレイされ、それに対して適切に整合されることができる。より高い分解能の第2の画像ストリームは、ユーザの中心窩視内で第1の画像ストリームの部分にオーバーレイするため、より高い分解能画像ストリームを含むエリア内の変調伝達関数(MTF)は、増加される。いくつかの実施形態では、第2の画像ストリームによってオーバーレイされた第1の画像ストリームのコンテンツのサブセットは、オフにされる、またはより低い強度で提示されることができる。このように、ユーザは、広FOVおよび高分解能の両方を有するように、第1の画像ストリームおよび第2の画像ストリームの組み合わせを知覚することができる。そのようなディスプレイシステムは、いくつかの利点を与えることができる。例えば、ディスプレイシステムは、より優れたユーザ体験を提供しながら、比較的に小形状因子を有し、コンピューティングリソースおよびコンピューティング電力を節約することができる。   The content of the second image stream may include a subset of the content of the first image stream with a higher resolution than the first image stream, overlaid on the first image stream and appropriately for it. Can be aligned. Since the higher resolution second image stream overlays a portion of the first image stream within the fovea of the user, the modulation transfer function (MTF) in the area containing the higher resolution image stream is increased. It In some embodiments, the subset of content of the first image stream overlaid by the second image stream may be turned off or presented at a lower intensity. In this way, the user can perceive the combination of the first image stream and the second image stream to have both wide FOV and high resolution. Such a display system can offer several advantages. For example, a display system may have a relatively small form factor, while saving a computing resource and computing power, while providing a better user experience.

ある実施形態では、第1の画像ストリームおよび第2の画像ストリームの境界領域内の光強度は、意図される画像明度を下回る値までテーパ状になり、第1の画像ストリームおよび第2の画像ストリームの境界領域は、重複される。重複エリアでは、2つの画像ストリームに起因する光強度の和は、比較的に一定であって、意図される画像明度と等しくなり得る。第1の画像ストリーム側から第2の画像ストリーム側までの重複領域を横断すると、MTFは、第1の画像ストリームのMTFに等しいまたはより近い第1の値から、第2の画像ストリームのMTFに等しいまたはより近い第2の値まで変化する。このように、ある状況ではユーザに知覚可能であり得る、鮮明な境界を2つの画像ストリームによって供給される領域間に作成することを回避することが可能である。   In an embodiment, the light intensity in the boundary region of the first image stream and the second image stream tapers to a value below the intended image brightness, the first image stream and the second image stream. The border areas of are overlapped. In the overlapping area, the sum of the light intensities due to the two image streams can be relatively constant and equal to the intended image brightness. Upon traversing the overlap region from the first image stream side to the second image stream side, the MTF is changed from a first value equal to or closer to the MTF of the first image stream to an MTF of the second image stream. Change to a second value that is equal or closer. In this way, it is possible to avoid creating sharp boundaries between the regions served by the two image streams, which in some situations may be perceptible to the user.

いくつかの実施形態によると、第1の画像ストリームと関連付けられた第1の光ビームおよび第2の画像ストリームと関連付けられた第2の光ビームは、ある多重化方法を使用して、合成光ビームに多重化されることができる。例えば、時分割多重化、偏光分割多重化、波長分割多重化、および同等物が、種々の実施形態によると、使用されることができる。合成光ビームは、合成光ビームを2つの別個の光学経路に多重化解除する役割を果たす、1つ以上の光学要素に指向されることができる。例えば、偏光ビームスプリッタ(PBS)またはダイクロイックビームスプリッタ等のビームスプリッタまたは光学切替要素が、使用される多重化の方法に応じて、合成光ビームを分離するために使用されることができる。いったん分離されると、第1の画像ストリームと関連付けられた第1の光ビームおよび第2の画像ストリームと関連付けられた第2の光ビームは、その個別の光学経路を通してルーティングされ、最終的には、出力としてユーザに提供されることができる。   According to some embodiments, the first light beam associated with the first image stream and the second light beam associated with the second image stream are combined into a combined light beam using a multiplexing method. Can be multiplexed into the beam. For example, time division multiplexing, polarization division multiplexing, wavelength division multiplexing, and the like can be used, according to various embodiments. The combined light beam can be directed to one or more optical elements that serve to demultiplex the combined light beam into two separate optical paths. For example, a beam splitter or optical switching element such as a polarizing beam splitter (PBS) or a dichroic beam splitter can be used to split the combined light beam, depending on the method of multiplexing used. Once separated, the first light beam associated with the first image stream and the second light beam associated with the second image stream are routed through their separate optical paths and ultimately , Can be provided to the user as output.

いくつかの実施形態によると、第1の画像ストリームと関連付けられた第1の光ビームは、第1の画像ストリームが、より広いFOVおよびより低い角度分解能を提示されるように(不変量によって左右されるように)、第1の光学経路内の光学要素によって角度的に拡大されることができる一方、第2の画像ストリームと関連付けられた第2の光ビームは、角度的に拡大されない、拡大解除される、または第1の画像ストリームと関連付けられた第1の光ビームに適用される拡大の量未満の量だけ拡大される。このように、第2の画像ストリームは、第1の画像ストリームより狭いFOVおよびより高い角度分解能を提示されることができる(不変量によって左右されるように)。   According to some embodiments, the first light beam associated with the first image stream causes the first image stream to be presented with a wider FOV and lower angular resolution (dependent on the invariant. As described above), the second light beam associated with the second image stream may be angularly expanded by an optical element in the first optical path, while the second light beam is not expanded angularly. It is expanded or expanded by an amount less than the amount of expansion applied to the first light beam associated with the first image stream. In this way, the second image stream can be presented with a narrower FOV and higher angular resolution than the first image stream (as influenced by the invariant).

図24は、2次元角度空間内のヒトの眼に関する例示的単眼視野3002の外周界を描写する、視野略図を示す。図24に示されるように、視野略図のこめかみ−鼻および下−上軸は、その中に単眼視野3002の外周界がマッピングされる、2次元角度空間を定義する役割を果たす。このように、図24の視野略図は、ヒトの眼に関する「Goldmann」視野マップまたはプロットの均等物またはそれに類似すると見なされ得る。こめかみ−鼻および下−上軸の描写される配列によって示されるように、図24に示される視野略図は、ヒトの左眼に関する視野略図を表す。視野は、人物毎に若干変動し得るが、描写される視野は、多くのヒトがその左眼で視認することが可能である内容に近似する。右眼の例示的単眼視野の外周界を描写する、視野略図は、単眼視野3002のこめかみ−鼻軸および外周界が、下−上軸を中心として鏡映された図24の視野略図のバージョンのものに類似し得るということになる。   FIG. 24 shows a field schematic depicting the outer perimeter of an exemplary monocular field of view 3002 for a human eye in a two-dimensional angular space. As shown in FIG. 24, the temple-nose and inferior-upper axes of the field-of-view schematic serve to define a two-dimensional angular space into which the outer perimeter of monocular field of view 3002 is mapped. Thus, the view schematic of FIG. 24 may be considered equivalent to or similar to the “Goldmann” view map or plot for the human eye. The field schematic shown in FIG. 24 represents the field schematic for the human left eye, as shown by the depicted arrangement of the temple-nose and inferior-upper axis. The field of view may vary slightly from person to person, but the depicted field of view approximates what many humans can see with their left eye. A field schematic, depicting the outer perimeter of the exemplary monocular field of view of the right eye, is of the version of the field schematic of FIG. 24 with the temple-nasal axis and outer perimeter of the monocular field of view 3002 mirrored about the lower-upper axis. It can be similar to one.

図24の視野略図はさらに、ヒトの眼に関する例示的動眼視野3004の外周界を描写し、これは、人物が固視し得る角度空間内の単眼視野30022の一部を表す。加えて、図24の視野略図はまた、ヒトの眼に関する例示的中心窩野3006の外周界を描写し、これは、所与の時点におけるヒトの眼の中心窩の直接ビュー内の角度空間における単眼視野3002の一部を表す。描写されるように、人物の中心窩野3006は、動眼視野3004内の任意の場所で移動し得る。角度空間内の中心窩野3006外の単眼視野3002の部分は、本明細書では、人物の視野の周辺領域と称され得る。中心窩野3006外の高レベルの詳細を区別するヒトの眼の能力は、非常に限定されるため、低減された分解能画像を中心窩野3006外で表示することは、認知される可能性が低く、ディスプレイのためのコンテンツを生成することに関与する処理コンポーネントのための電力消耗に関する実質的節約を可能にすることができる。   The field schematic of FIG. 24 further depicts the outer perimeter of an exemplary moving eye field of view 3004 for the human eye, which represents a portion of the monocular field of view 30022 in angular space that a person may fix. In addition, the view schematic of FIG. 24 also depicts the perimeter of an exemplary foveal field 3006 for the human eye, which is in angular space within a direct view of the fovea of the human eye at a given time. A part of the monocular visual field 3002 is shown. As depicted, a person's foveal area 3006 can move anywhere within the ocular visual field 3004. The portion of monocular field of view 3002 outside central fovea 3006 in angular space may be referred to herein as the peripheral region of the human field of view. Displaying reduced resolution images outside the fovea 3006 may be perceptible because the human eye's ability to distinguish high levels of detail outside the fovea 3006 is very limited. Low, it may allow substantial savings in power consumption for processing components involved in generating content for a display.

図25Aは、いくつかの実施形態による、仮想コンテンツをユーザに提供するように構成される、例示的ウェアラブルディスプレイデバイス4050を示す。ウェアラブルディスプレイデバイス4050は、フレーム4054によって支持される、主要なディスプレイ4052を含む。フレーム4054は、つるのアーム4006の形態をとる取付部材を使用して、ユーザの頭部に取り付けられることができる。   FIG. 25A illustrates an exemplary wearable display device 4050 configured to provide virtual content to a user, according to some embodiments. Wearable display device 4050 includes a main display 4052 supported by a frame 4054. The frame 4054 can be attached to the user's head using attachment members in the form of temple arms 4006.

ここで図25Bを参照すると、仮想コンテンツをユーザに提供するように構成される、ARシステムの例示的実施形態が、ここで説明されるであろう。いくつかの実施形態では、図25BのARシステムは、図25Aのウェアラブルディスプレイデバイス4050が属する、システムを表し得る。図25BのARシステムは、スタックされた光誘導光学系要素アセンブリ4000を使用し、概して、画像生成プロセッサ4010と、光源4020と、コントローラ4030と、空間光変調器(「SLM」)4040と、投入光学システム4060と、複数の平面焦点システムとして機能する、少なくとも1セットのスタックされた接眼レンズ層または光誘導光学系要素(「LOE」、例えば、平面導波管)4000とを含む。本システムはまた、眼追跡サブシステム4070を含んでもよい。他の実施形態は、複数のセットのスタックされたLOE4000を有してもよいが、以下の開示は、図25Bの例示的実施形態に焦点を当てるであろうことを理解されたい。   25B, an exemplary embodiment of an AR system configured to provide virtual content to a user will now be described. In some embodiments, the AR system of FIG. 25B may represent the system to which the wearable display device 4050 of FIG. 25A belongs. The AR system of FIG. 25B uses a stacked light guiding optics element assembly 4000 and generally includes an image generation processor 4010, a light source 4020, a controller 4030, and a spatial light modulator (“SLM”) 4040. It includes an optical system 4060 and at least one set of stacked eyepiece layers or light guiding optics elements (“LOE”, eg, planar waveguide) 4000 that act as a plurality of planar focusing systems. The system may also include an eye tracking subsystem 4070. It should be appreciated that other embodiments may have multiple sets of stacked LOE 4000s, but the following disclosure will focus on the exemplary embodiment of FIG. 25B.

画像生成プロセッサ4010は、ユーザに表示されることになる仮想コンテンツを生成するように構成される。画像生成プロセッサは、仮想コンテンツと関連付けられた画像またはビデオを、3−Dにおいてユーザに投影されることができるフォーマットに変換してもよい。例えば、3−Dコンテンツを生成する際、仮想コンテンツは、特定の画像の部分が、特定の深度平面に表示される一方、その他が、他の深度平面に表示されるように、フォーマットされる必要があり得る。一実施形態では、画像は全て、特定の深度平面に生成されてもよい。別の実施形態では、画像生成プロセッサは、ともに視認されると、仮想コンテンツがコヒーレントかつ快適にユーザの眼に現れるように、若干異なる画像を右および左眼210に提供するようにプログラムされてもよい。   The image generation processor 4010 is configured to generate virtual content that will be displayed to the user. The image generation processor may convert the image or video associated with the virtual content into a format that can be projected to the user in 3-D. For example, when generating 3-D content, the virtual content needs to be formatted such that certain portions of the image are displayed in certain depth planes while others are displayed in other depth planes. Can be. In one embodiment, the images may all be generated in a particular depth plane. In another embodiment, the image generation processor may be programmed to provide slightly different images to the right and left eyes 210 so that the virtual content, when viewed together, appears coherently and comfortably to the user's eyes. Good.

画像生成プロセッサ4010はさらに、メモリ4012と、GPU4014と、CPU4016と、画像生成および処理のための他の回路とを含んでもよい。画像生成プロセッサ4010は、図25BのARシステムのユーザに提示されることになる所望の仮想コンテンツで、プログラムされてもよい。いくつかの実施形態では、画像生成プロセッサ4010は、ウェアラブルARシステム内に格納されてもよいことを理解されたい。他の実施形態では、画像生成プロセッサ4010および他の回路は、ウェアラブル光学系に結合される、ベルトパック内に格納されてもよい。画像生成プロセッサ4010は、所望の仮想コンテンツと関連付けられた光を投影する、光源4020と、1つ以上の空間光変調器(下記に説明される)とに動作可能に結合される。   Image generation processor 4010 may further include memory 4012, GPU 4014, CPU 4016, and other circuitry for image generation and processing. The image generation processor 4010 may be programmed with the desired virtual content to be presented to the user of the AR system of Figure 25B. It should be appreciated that in some embodiments, the image generation processor 4010 may be stored within a wearable AR system. In other embodiments, the image generation processor 4010 and other circuitry may be stored in a belt pack, which is coupled to wearable optics. The image generation processor 4010 is operably coupled to a light source 4020 and one or more spatial light modulators (described below) that project light associated with the desired virtual content.

光源4020は、コンパクトであって、高分解能を有する。光源4020は、コントローラ4030(下記に説明される)に動作可能に結合される、複数の空間的に分離されるサブ光源4022を含む。例えば、光源4020は、種々の幾何学的構成内に配置される、色特有LEDおよびレーザを含んでもよい。代替として、光源4020は、同様の色のLEDまたはレーザを含んでもよく、それぞれ1つが、ディスプレイの視野の具体的領域に連結される。別の実施形態では、光源4020は、白熱灯または蛍光灯等の広エリアエミッタを備えてもよく、マスクが、放出エリアおよび位置のセグメント化のためにオーバーレイする。サブ光源4022は、直接、図2Bでは、図2BのARシステムに接続されるが、サブ光源222は、光ファイバの遠位端(サブ光源4022から離れる)が相互から空間的に分離される限り、光ファイバ(図示せず)を介して、システムに接続されてもよい。本システムはまた、光源4020からの光をコリメートするように構成される、集光器(図示せず)を含んでもよい。   The light source 4020 is compact and has high resolution. The light source 4020 includes a plurality of spatially separated sub-light sources 4022 operably coupled to a controller 4030 (described below). For example, light source 4020 may include color-specific LEDs and lasers arranged in various geometric configurations. Alternatively, light source 4020 may include LEDs or lasers of similar color, one each coupled to a specific area of the display's field of view. In another embodiment, the light source 4020 may comprise a wide area emitter, such as an incandescent or fluorescent lamp, with a mask overlaying for segmentation of the emission area and location. The sub-light source 4022 is directly connected to the AR system of FIG. 2B in FIG. 2B, but as long as the distal ends of the optical fibers (away from the sub-light source 4022) are spatially separated from each other. , May be connected to the system via an optical fiber (not shown). The system may also include a collector (not shown) configured to collimate the light from light source 4020.

SLM4040は、種々の例示的実施形態では、反射性(例えば、DLP DMD、MEMSミラーシステム、LCOS、またはFLCOS)、透過性(例えば、LCD)、または発光性(例えば、FSDまたはOLED)であってもよい。空間光変調器のタイプ(例えば、速度、サイズ等)は、3−D知覚の作成を改良するように選択されることができる。より高いリフレッシュレートで動作する、DLP DMDは、定常ARシステムの中に容易に組み込まれ得るが、ウェアラブルARシステムは、典型的には、より小さいサイズおよび電力のDLPを使用する。DLPの電力は、3−D深度平面/焦点面が作成される方法を変化させる。画像生成プロセッサ4010は、SLM4040に動作可能に結合され、これは、光源4020からの光を所望の仮想コンテンツでエンコードする。光源4020からの光は、SLM4040から反射する、そこから放出する、またはそれを通して通過すると、画像情報でエンコードされてもよい。   The SLM 4040 may be reflective (eg, DLP DMD, MEMS mirror system, LCOS, or FLCOS), transmissive (eg, LCD), or emissive (eg, FSD or OLED) in various exemplary embodiments. Good. The type of spatial light modulator (eg, speed, size, etc.) can be selected to improve the creation of 3-D perception. While DLP DMDs operating at higher refresh rates can be easily incorporated into stationary AR systems, wearable AR systems typically use smaller size and power DLPs. The power of the DLP changes the way the 3-D depth plane / focal plane is created. The image generation processor 4010 is operably coupled to the SLM 4040, which encodes the light from the light source 4020 with the desired virtual content. Light from light source 4020 may be encoded with image information as it reflects from, exits from, or passes through SLM 4040.

図25Bに戻って参照すると、ARシステムはまた、光源4020(すなわち、複数の空間的に分離されるサブ光源4022)およびSLM4040からの光をLOEアセンブリ4000に指向するように構成される、投入光学システム4060を含む。投入光学システム4060は、光をLOEアセンブリ4000の中に指向するように構成される、1つ以上のレンズを含んでもよい。投入光学システム4060は、光源4020のサブ光源4022から空間的に分離され、明確に異なるビームに対応する、LOE4000に隣接する空間的に分離され、明確に異なる瞳孔を形成するように構成される(投入光学システム4060から出射するビームの個別の集光点に)。投入光学システム4060は、瞳孔が相互から空間的に変位されるように構成される。いくつかの実施形態では、投入光学システム4060は、XおよびY方向においてのみ、ビームを空間的に変位させるように構成される。そのような実施形態では、瞳孔は、1つのX、Y平面内に形成される。他の実施形態では、投入光学システム4060は、X、Y、およびZ方向において、ビームを空間的に変位させるように構成される。   Referring back to FIG. 25B, the AR system also includes input optics configured to direct light from light source 4020 (ie, a plurality of spatially separated sub-light sources 4022) and SLM 4040 to LOE assembly 4000. Includes system 4060. Input optics system 4060 may include one or more lenses configured to direct light into LOE assembly 4000. The injection optics system 4060 is spatially separated from the sub-light source 4022 of the light source 4020 and is configured to form a spatially separated and distinct pupil adjacent to the LOE 4000, corresponding to distinctly different beams ( To the individual focus points of the beam exiting the injection optics system 4060). Input optics system 4060 is configured such that the pupils are spatially displaced from each other. In some embodiments, the input optics system 4060 is configured to spatially displace the beam only in the X and Y directions. In such an embodiment, the pupil is formed in one X, Y plane. In other embodiments, input optics system 4060 is configured to spatially displace the beam in the X, Y, and Z directions.

光ビームの空間分離は、明確に異なるビームおよび瞳孔を形成し、これは、各内部結合格子が、主に、1つのみの明確に異なるビーム(またはビームのグループ)によってアドレス指定(例えば、交差または衝突)されるように、明確に異なるビーム経路内の内部結合格子の設置を可能にする。これは、ひいては、LOEアセンブリ4000の個別のLOE4000の中への空間的に分離される光ビームの入射を促進する一方、複数のものの他のサブ光源4022からの他の光ビームの入射(すなわち、クロストーク)を最小限にする。特定のサブ光源4022からの光ビームは、その上の内部結合格子(図25Bには図示せず、図24−26参照)を通して、個別のLOE4000に入射する。個別のLOE4000の内部結合格子は、各空間的に分離される光ビームが、1つのLOE4000の内部結合格子とのみ交差するように、複数のサブ光源4022からの空間的に分離される光ビームと相互作用するように構成される。したがって、各空間的に分離される光ビームは、主に、1つのLOE4000に入射する。故に、SLM4040によってサブ光源4022のそれぞれからの光ビーム上にエンコードされた画像データは、ユーザの眼210への送達のために、単一LOE4000に沿って効果的に伝搬されることができる。   The spatial separation of the light beams forms distinctly different beams and pupils, which means that each incoupling grating is primarily addressed (eg, intersected) by only one distinctly distinct beam (or group of beams). Or impingement), allowing the installation of internally coupled gratings in distinctly different beam paths. This, in turn, facilitates the incidence of spatially separated light beams into the individual LOE 4000s of LOE assembly 4000 while the incidence of other light beams from other sub-sources 4022 of the plurality (ie, Crosstalk) to a minimum. A light beam from a particular sub-light source 4022 is incident on an individual LOE 4000 through an internal coupling grating (not shown in FIG. 25B, see FIGS. 24-26) above it. The individual LOE4000 internal coupling gratings are spatially separated from the plurality of sub-light sources 4022 such that each spatially separated light beam intersects only one LOE4000 internal coupling grating. Configured to interact. Therefore, each spatially separated light beam is mainly incident on one LOE4000. Thus, the image data encoded by the SLM 4040 onto the light beam from each of the sub-light sources 4022 can be effectively propagated along a single LOE 4000 for delivery to the user's eye 210.

各LOE4000は、次いで、所望の深度平面またはFOV角位置から生じるように現れる画像またはサブ画像をユーザの網膜上に投影するように構成される。個別の複数のLOE4000およびサブ光源4022は、したがって、空間内の種々の深度平面または位置から生じるように現れる、画像(コントローラ4030の制御下、SLM4040によって同期してエンコードされた)を選択的に投影することができる。個別の複数のLOE4000およびサブ光源4022のそれぞれを使用して、十分に高フレームレート(例えば、60Hzの有効完全体積フレームレートにおける6つの深度平面に関して360Hz)で、画像を順次投影させることによって、図25Bのシステムは、3−D画像内に同時に存在するように現れる、仮想オブジェクトの3−D画像を種々の深度平面に生成することができる。   Each LOE 4000 is then configured to project an image or sub-image that appears to arise from the desired depth plane or FOV angular position onto the user's retina. The individual LOE 4000s and sub-light sources 4022 thus selectively project images (synchronously encoded by the SLM 4040 under the control of the controller 4030) that appear to arise from different depth planes or positions in space. can do. By sequentially projecting the image at each of a plurality of individual LOE 4000s and sub-light sources 4022 at a sufficiently high frame rate (eg, 360Hz for 6 depth planes at an effective full volume frame rate of 60Hz). The 25B system can generate 3-D images of virtual objects in various depth planes that appear to be present simultaneously in the 3-D image.

コントローラ4030は、画像生成プロセッサ4010、光源4020(サブ光源4022)、およびSLM4040と通信し、それに動作可能に結合され、SLM4040に、サブ光源4022からの光ビームを画像生成プロセッサ4010からの適切な画像情報でエンコードするように命令することによって、画像の同期表示を協調させる。   The controller 4030 is in communication with and operably coupled to the image generation processor 4010, the light source 4020 (sub-light source 4022), and the SLM 4040 to direct the SLM 4040 the light beam from the sub-light source 4022 to the appropriate image from the image generation processor 4010. Coordinate the synchronized display of images by instructing them to encode with information.

ARシステムはまた、ユーザの眼4002を追跡し、ユーザの焦点を決定するように構成される、随意の眼追跡サブシステム4070を含む。一実施形態では、サブ光源4022のサブセットのみが、下記に議論されるように、眼追跡サブシステムからの入力に基づいて、アクティブ化され、LOE4000のサブセットを照明してもよい。眼追跡サブシステム4070からの入力に基づいて、特定のLOE4000に対応する1つ以上のサブ光源4022が、画像がユーザの焦点/遠近調節と一致する所望の深度平面に生成されるように、アクティブ化されてもよい。例えば、ユーザの眼210が、相互に平行である場合、図25BのARシステムは、画像が光学無限遠から生じるように現れるように、コリメートされた光をユーザの眼に送達するように構成される、LOE4000に対応するサブ光源4022をアクティブ化してもよい。別の実施例では、眼追跡サブシステム4070が、ユーザの焦点が1メートル離れていることを決定する場合、ほぼその範囲内に合焦するように構成される、LOE4000に対応するサブ光源4022が、代わりに、アクティブ化されてもよい。本特定の実施形態では、サブ光源4022の1つのみのグループが、任意の所与の時間にアクティブ化される一方、他のサブ光源4020は、非アクティブ化され、電力を節約することを理解されたい。   The AR system also includes an optional eye tracking subsystem 4070 configured to track the user's eye 4002 and determine the user's focus. In one embodiment, only a subset of sub-light sources 4022 may be activated and illuminate a subset of LOE 4000s based on input from the eye tracking subsystem, as discussed below. Based on input from the eye tracking subsystem 4070, one or more sub-light sources 4022 corresponding to a particular LOE 4000 are active so that an image is generated in the desired depth plane that matches the user's focus / accommodation. It may be embodied. For example, if the user's eyes 210 are parallel to each other, the AR system of FIG. 25B is configured to deliver collimated light to the user's eyes so that the image appears to arise from optical infinity. , LOE4000 corresponding sub-light source 4022 may be activated. In another example, if the eye tracking subsystem 4070 determines that the user's focus is 1 meter away, then there is a sub-light source 4022 corresponding to the LOE4000 that is configured to focus approximately within that range. Alternatively, it may be activated. It is understood that in this particular embodiment, only one group of sub-light sources 4022 is activated at any given time, while the other sub-light sources 4020 are deactivated, saving power. I want to be done.

図25Cは、いくつかの実施形態による、デジタルまたは仮想画像を視認者に提示するために使用され得る、例示的視認光学アセンブリ(VOA)内の光経路を図式的に図示する。いくつかの実施形態では、VOAは、図25Aに描写されるようなウェアラブルディスプレイデバイス4050に類似するシステム内に組み込まれ得る。VOAは、プロジェクタ4001と、視認者の眼の周囲に装着され得る、接眼レンズ200とを含む。接眼レンズ4000は、例えば、図25Bを参照して上記に説明されるようなLOE4000に対応してもよい。いくつかの実施形態では、プロジェクタ4001は、赤色LEDのグループと、緑色LEDのグループと、青色LEDのグループとを含んでもよい。例えば、プロジェクタ201は、ある実施形態によると、2つの赤色LEDと、2つの緑色LEDと、2つの青色LEDとを含んでもよい。いくつかの実施例では、図25Cに描写されるようなプロジェクタ4001およびそのコンポーネント(例えば、LED光源、反射コリメータ、LCoS SLM、およびプロジェクタ中継)は、図25Bを参照して上記に説明されるような光源4020、サブ光源4022、SLM4040、および投入光学システム4060のうちの1つ以上のものの機能性を表すまたは提供してもよい。接眼レンズ4000は、1つ以上の接眼レンズ層を含んでもよく、それぞれ、図25Bを参照して上記に説明されるようなLOE4000のうちの1つを表し得る。接眼レンズ4000の各接眼レンズ層は、個別の所望の深度平面またはFOV角位置から生じるように現れる画像またはサブ画像を視認者の眼の網膜上に投影するように構成されてもよい。   FIG. 25C schematically illustrates a light path within an exemplary viewing optics assembly (VOA) that may be used to present a digital or virtual image to a viewer, according to some embodiments. In some embodiments, VOAs may be incorporated into a system similar to wearable display device 4050 as depicted in Figure 25A. The VOA includes a projector 4001 and an eyepiece 200 that may be worn around the eyes of a viewer. Eyepiece 4000 may, for example, correspond to LOE4000 as described above with reference to Figure 25B. In some embodiments, projector 4001 may include a group of red LEDs, a group of green LEDs, and a group of blue LEDs. For example, projector 201 may include two red LEDs, two green LEDs, and two blue LEDs, according to some embodiments. In some implementations, the projector 4001 and its components (eg, LED light source, reflective collimator, LCoS SLM, and projector relay) as depicted in FIG. 25C are described above with reference to FIG. 25B. Optional light source 4020, sub-light source 4022, SLM 4040, and input optical system 4060 may represent or provide functionality of one or more of the following. Eyepiece 4000 may include one or more eyepiece layers, each of which may represent one of LOE 4000s as described above with reference to FIG. 25B. Each eyepiece layer of eyepiece 4000 may be configured to project an image or sub-image that appears to result from an individual desired depth plane or FOV angular position onto the retina of the viewer's eye.

一実施形態では、接眼レンズ4000は、3つの原色、すなわち、赤色、緑色、および青色毎に1つの接眼レンズ層の3つの接眼レンズ層を含む。例えば、本実施形態では、接眼レンズ4000の各接眼レンズ層は、光学無限遠深度平面(0ジオプタ)から生じるように現れる、コリメートされた光を眼に送達するように構成されてもよい。別の実施形態では、接眼レンズ4000は、6つの接眼レンズ層、すなわち、仮想画像を1つの深度平面に形成するために構成される3つの原色毎に1セットの接眼レンズ層と、仮想画像を別の深度平面に形成するために構成される3つの原色毎に別のセットの接眼レンズ層とを含んでもよい。例えば、本実施形態では、接眼レンズ4000の1セットの接眼レンズ層内の各接眼レンズ層は、光学無限遠深度平面(0ジオプタ)から生じるように現れる、コリメートされた光を眼に送達するように構成されてもよい一方、接眼レンズ4000の別のセットの接眼レンズ層内の各接眼レンズ層は、2メートルの距離(0.5ジオプタ)から生じるように現れる、コリメートされた光を眼に送達するように構成されてもよい。他の実施形態では、接眼レンズ4000は、3つ以上の異なる深度平面のための3つの原色毎に、3つ以上の接眼レンズ層を含んでもよい。例えば、そのような実施形態では、さらに別のセットの接眼レンズ層がそれぞれ、1メートルの距離(1ジオプタ)から生じるように現れる、コリメートされた光を送達するように構成されてもよい。   In one embodiment, the eyepiece 4000 includes three eyepiece layers, one for each of the three primary colors, red, green, and blue. For example, in this embodiment, each eyepiece layer of eyepiece 4000 may be configured to deliver collimated light to the eye, appearing to originate from an optical infinity depth plane (0 diopters). In another embodiment, the eyepiece 4000 includes six eyepiece layers, one set for each three primary colors configured to form a virtual image in one depth plane, and a virtual image. A separate set of eyepiece layers may be included for each of the three primary colors configured to form in different depth planes. For example, in this embodiment, each eyepiece layer within the set of eyepiece layers of eyepiece 4000 is designed to deliver collimated light to the eye, appearing to originate from the optical infinity depth plane (0 diopters). While each eyepiece layer in another set of eyepiece layers of eyepiece 4000 may be configured to a collimated light that appears to originate from a distance of 2 meters (0.5 diopters). It may be configured to deliver. In other embodiments, eyepiece 4000 may include more than two eyepiece layers for every three primary colors for more than two different depth planes. For example, in such embodiments, yet another set of eyepiece layers may each be configured to deliver collimated light that appears to originate from a distance of 1 meter (1 diopter).

各接眼レンズ層は、平面導波管を備え、内部結合格子4007と、直交瞳エクスパンダ(OPE)領域4008と、射出瞳エクスパンダ(EPE)領域4009とを含んでもよい。内部結合格子、直交瞳拡張、および射出瞳拡張についてのさらなる詳細は、米国特許出願第14/555,585号および米国特許出願第14/726,424号(その内容は、参照することによって、全体として記載される場合と同様に、その全体として明示的かつ完全に本明細書に組み込まれる)に説明される。依然として、図25Cを参照すると、プロジェクタ4001は、画像光を接眼レンズ層4000内の内部結合格子4007上に投影する。内部結合格子4007は、プロジェクタ4001からの画像光を導波管の中に結合し、OPE領域4008に向かう方向に伝搬させる。導波管は、全内部反射(TIR)によって、画像光を水平方向に伝搬する。接眼レンズ層4000のOPE領域4008はまた、導波管内を伝搬する画像光の一部を結合し、EPE領域4009に向かって再指向する、回折要素を含む。より具体的には、コリメートされた光は、TIRによって、導波管に沿って水平に(すなわち、図25Cの図に対して)伝搬し、そうすることによって、OPE領域4008の回折要素と繰り返し交差する。いくつかの実施例では、OPE領域4008の回折要素は、比較的に低回折効率を有する。これは、OPE領域4008の回折要素との交点の各点において、ある割合(例えば、10%)の光をEPE領域4009に向かって垂直下向きに回折させ、TIRを介して、ある割合の光を導波管に沿って水平にそのオリジナル軌道上で継続させる。このように、OPE領域4008の回折要素との交点の各点において、付加的光が、EPE領域4009に向かって下向きに回折される。入射光を複数の外部結合されるセットに分割することによって、光の射出瞳は、OPE領域4008の回折要素によって、水平に拡張される。OPE領域4008から外部結合される、拡張された光は、EPE領域4009に入射する。   Each eyepiece layer comprises a planar waveguide and may include an internal coupling grating 4007, an orthogonal pupil expander (OPE) region 4008, and an exit pupil expander (EPE) region 4009. Further details regarding in-coupling gratings, orthogonal pupil expansion, and exit pupil expansion can be found in US patent application Ser. No. 14 / 555,585 and US patent application Ser. No. 14 / 726,424, the contents of which are As expressly incorporated herein by reference in its entirety). Still referring to FIG. 25C, projector 4001 projects image light onto incoupling grating 4007 in eyepiece layer 4000. The internal coupling grating 4007 couples the image light from the projector 4001 into the waveguide and propagates it in the direction toward the OPE region 4008. The waveguide propagates the image light in the horizontal direction by total internal reflection (TIR). The OPE region 4008 of the eyepiece layer 4000 also includes a diffractive element that combines a portion of the image light propagating in the waveguide and redirects it towards the EPE region 4009. More specifically, the collimated light propagates by the TIR horizontally along the waveguide (ie, relative to the view of FIG. 25C), thereby repeating the diffractive elements of the OPE region 4008. Cross. In some embodiments, the diffractive elements of OPE region 4008 have a relatively low diffraction efficiency. This means that at each point of intersection with the diffractive element of the OPE region 4008, a certain percentage (eg, 10%) of light is diffracted vertically downward toward the EPE region 4009, and a certain percentage of light is passed through the TIR. Continue on its original orbit horizontally along the waveguide. Thus, at each point of intersection of the OPE region 4008 with the diffractive element, additional light is diffracted downward toward the EPE region 4009. By splitting the incident light into multiple outcoupled sets, the exit pupil of the light is extended horizontally by the diffractive elements of the OPE region 4008. The expanded light that is outcoupled from the OPE region 4008 enters the EPE region 4009.

接眼レンズ層4000のEPE領域4009もまた、導波管内を伝搬する画像光の一部を結合し、視認者の眼210に向かって再指向する、回折要素を含む。EPE領域4009に入射する光は、TIRによって、導波管に沿って垂直に(すなわち、図25Cの図に対して)伝搬する。伝搬する光とEPE領域4009の回折要素との間の交点の各点では、ある割合の光は、導波管の隣接する面に向かって回折され、光が、TIRから逃散し、導波管の面から出現し、視認者の眼210に向かって伝搬することを可能にする。本方式では、プロジェクタ4001によって投影された画像は、視認者の眼210によって視認され得る。いくつかの実施形態では、EPE領域4009の回折要素は、線形回折格子および半径方向対称回折レンズの総和である、位相プロファイルを有するように設計または構成されてもよい。EPE領域4009の回折要素の半径方向対称レンズ側面は、加えて、ある焦点レベルを回折される光に付与し、個々のビームの光波面を成形する(例えば、曲率を付与する)ことと、ビームを設計される焦点レベルに合致するある角度で操向することとの両方を行う。EPE領域4009の回折要素によって外部結合される各光のビームは、視認者の正面に位置付けられる、個別の集光点まで幾何学的に延在し得、個別の集光点に半径の中心を伴う、凸面波面プロファイルを付与され、画像または仮想オブジェクトを所与の焦点面に生産し得る。   The EPE region 4009 of the eyepiece layer 4000 also includes diffractive elements that combine some of the image light propagating in the waveguide and redirect it towards the viewer's eye 210. Light incident on EPE region 4009 propagates vertically along the waveguide (ie, relative to the view of FIG. 25C) by TIR. At each point of intersection between the propagating light and the diffractive elements of the EPE region 4009, a percentage of the light is diffracted towards the adjacent face of the waveguide, causing the light to escape the TIR and Emerging from the surface of the eye and allowing it to propagate towards the viewer's eye 210. In this method, the image projected by the projector 4001 can be visually recognized by the eyes 210 of the viewer. In some embodiments, the diffractive elements of EPE region 4009 may be designed or configured to have a phase profile that is the sum of a linear grating and a radially symmetric diffractive lens. Radially symmetric lens sides of the diffractive elements of the EPE region 4009 additionally impart a focus level to the diffracted light, shaping the optical wavefront of the individual beams (eg, imparting curvature), and And steering at an angle that matches the designed focus level. Each beam of light that is outcoupled by the diffractive elements of the EPE region 4009 may extend geometrically to an individual focal point, located in front of the viewer, and centered on a radius of the individual focal point. With an accompanying convex wavefront profile, an image or virtual object may be produced at a given focal plane.

そのような視認光学アセンブリおよび他の類似設定の説明はさらに、米国特許出願第14/331,218号、米国特許出願第15/146,296号、および米国特許出願第14/555,585号(その全てが参照することによってその全体として本明細書に組み込まれる)に提供される。いくつかの実施形態では、例示的VOAは、図25Cを参照して上記に述べられ、参照することによって本明細書に組み込まれる、特許出願のいずれかに説明される、1つ以上のコンポーネントを含む、および/またはその形態をとってもよいということになる。

IV. 複数の光学経路を使用した高視野および高分解能中心窩化ディスプレイ
Descriptions of such viewing optics assemblies and other similar settings are further provided in US patent application Ser. No. 14 / 331,218, US patent application Ser. No. 15 / 146,296, and US patent application Ser. No. 14 / 555,585 ( All of which are incorporated herein by reference in their entirety). In some embodiments, an exemplary VOA includes one or more components described in any of the patent applications described above with reference to FIG. 25C and incorporated herein by reference. It may be included and / or may take the form thereof.

IV. High field of view and high resolution foveated display using multiple optical paths

図26A−26Dは、使用されることになる例示的レンダリング視点および2つの例示的眼配向毎にARシステム内で生産されることになるライトフィールドを図示する。図26Aでは、視認者の眼210は、接眼レンズ5000に対して第1の様式で配向される。いくつかの実施形態では、接眼レンズ5000は、図25Bおよび25Cを参照して上記に説明されるように、LOEのスタックまたは接眼レンズ4000に類似してもよい。より具体的には、本実施例では、視認者の眼210は、視認者が比較的に直進方向に接眼レンズ5000を見ることが可能であり得るように配向される。いくつかの実施例では、図25Bを参照して上記に説明されるようなARシステムに類似し得る、接眼レンズ5000が属する、ARシステムは、視認者のFOV内に位置付けられる1つ以上の深度平面上に、視認者の眼210の正面の1つ以上の距離において、仮想コンテンツを提示するための1つ以上の動作を実施してもよい。   26A-26D illustrate exemplary rendering viewpoints that will be used and the light fields that will be produced in the AR system for every two exemplary eye orientations. In FIG. 26A, the viewer's eye 210 is oriented in a first manner with respect to the eyepiece 5000. In some embodiments, eyepiece 5000 may be similar to a stack of LOEs or eyepiece 4000, as described above with reference to FIGS. 25B and 25C. More specifically, in this example, the viewer's eye 210 is oriented so that the viewer may be able to see the eyepiece 5000 in a relatively straight-ahead direction. In some embodiments, the AR system, to which the eyepiece 5000 belongs, may be similar to the AR system as described above with reference to FIG. One or more actions for presenting virtual content may be performed on the plane at one or more distances in front of the viewer's eyes 210.

ARシステムは、視認者の頭部の位置および配向に基づいて、レンダリング空間内の視点を決定してもよく、そこから、視認者は、仮想オブジェクト等のレンダリング空間の3−D仮想コンテンツを視認する。図29Aを参照して下記にさらに詳細に説明されるように、いくつかの実施形態では、そのようなARシステムは、1つ以上のセンサを含み、これらの1つ以上のセンサからのデータを活用し、視認者の頭部の位置および/または配向を決定してもよい。ARシステムは、図25Bを参照して上記に説明される、眼追跡サブシステム4070の1つ以上のコンポーネント等の1つ以上の眼追跡コンポーネントに加え、そのような1つ以上のセンサを含んでもよい。そのようなデータを用いることで、ARシステムは、実世界内の視認者の頭部の位置および配向を3D仮想環境内の特定の場所および特定の角位置に効果的にマッピングし、3D仮想環境内の特定の場所に位置付けられ、3D仮想環境内の特定の場所に対する3D仮想環境内の特定の角位置に配向される、仮想カメラを作成し、仮想カメラによって捕捉されるであろうような視認者のための仮想コンテンツをレンダリングし得る。実世界と仮想世界のマッピングプロセスについて議論するさらなる詳細は、「SELECTING VIRTUAL OBJECTS IN A THREE−DIMENSIONAL SPACE」と題された米国特許出願第15/296,869号(あらゆる目的のために、参照することによってその全体として本明細書に明示的に組み込まれる)に提供される。   The AR system may determine the viewpoint in the rendering space based on the position and orientation of the viewer's head, from which the viewer views 3-D virtual content in the rendering space, such as virtual objects. To do. As described in more detail below with reference to FIG. 29A, in some embodiments, such an AR system includes one or more sensors and collects data from these one or more sensors. May be utilized to determine the position and / or orientation of the viewer's head. The AR system may include one or more eye tracking components, such as one or more components of the eye tracking subsystem 4070 described above with reference to FIG. 25B, as well as one or more such sensors. Good. Using such data, the AR system effectively maps the position and orientation of the viewer's head in the real world to specific locations and specific angular positions within the 3D virtual environment. Creating a virtual camera positioned at a specific location within the 3D virtual environment and oriented at a specific angular position within the 3D virtual environment relative to a specific location within the 3D virtual environment, such as viewing as would be captured by the virtual camera Virtual content for a person may be rendered. For more details on discussing the real-world and virtual-world mapping process, see US Patent Application No. 15 / 296,869 entitled "SELECTING VIRUAL OBJECTS IN A THREE-DIMENSIONAL SPACE" (for all purposes, see Are hereby incorporated by reference in their entirety).

いくつかの実施例では、ARシステムは、視認者の眼および/または眼窩が、相互から物理的に分離され、したがって、異なる場所に一貫して位置付けられるにつれて、1つのそのような頭追跡仮想カメラを視認者の左眼または眼窩のために、別のそのような頭部追跡仮想カメラを視認者の右眼または眼窩のために、作成または動的に再位置付けおよび/または再配向し得る。視認者の左眼または眼窩と関連付けられた頭部追跡仮想カメラの視点からレンダリングされた仮想コンテンツは、図25A−25Cを参照して上記に説明されるもの等のウェアラブルディスプレイデバイスの左側上の接眼レンズを通して視認者に提示され得、視認者の右眼または眼窩と関連付けられた頭部追跡仮想カメラの視点からレンダリングされた仮想コンテンツは、ウェアラブルディスプレイデバイスの右側上の接眼レンズを通して視認者に提示され得るということになる。頭部追跡仮想カメラは、視認者の頭部の現在の位置および配向に関する情報に基づいて、眼または眼窩毎に、作成および/または動的に再位置付けされ得るが、そのような頭部追跡仮想カメラの位置および配向は、視認者の個別の眼窩または視認者の頭部に対する視認者の各眼の位置または配向のいずれにも依存しなくてもよい。レンダリングプロセスにおける仮想カメラの作成、調節、および使用について議論するさらなる詳細は、「METHODS AND SYSTEMS FOR DETECTING AND COMBINING STRUCTUAL FEATURES IN 3D RECONSTRUCTION」と題された米国特許出願第15/274,823号(あらゆる目的のために、参照することによってその全体として本明細書に明示的に組み込まれる)に提供される。   In some embodiments, the AR system may provide one such head-tracking virtual camera as the viewer's eyes and / or orbits are physically separated from each other and thus consistently located at different locations. May be created or dynamically repositioned and / or reoriented for the viewer's left eye or orbit, and another such head-tracking virtual camera for the viewer's right eye or orbit. Virtual content rendered from the perspective of a head-tracking virtual camera associated with the viewer's left eye or orbit is an eyepiece on the left side of a wearable display device such as those described above with reference to FIGS. 25A-25C. Virtual content that may be presented to the viewer through the lens and rendered from the perspective of the head tracking virtual camera associated with the viewer's right eye or orbit is presented to the viewer through the eyepiece on the right side of the wearable display device. You will get it. Head-tracking virtual cameras may be created and / or dynamically repositioned for each eye or orbit based on information about the current position and orientation of the viewer's head. The position and orientation of the camera may be independent of either the individual eye sockets of the viewer or the position or orientation of each eye of the viewer relative to the viewer's head. Further details discussing the creation, adjustment, and use of virtual cameras in the rendering process can be found in US patent application Ser. Are hereby incorporated by reference in their entirety).

図26AのARシステムは、そのような頭部追跡仮想カメラを作成または動的に再位置付けおよび/または再配向し、仮想コンテンツを頭部追跡仮想カメラの視点(視点5010)からレンダリングし、仮想コンテンツのレンダリングを表す光を、接眼レンズ5000を通して、視認者の眼210の網膜上に投影し得る。図26Aに示されるように、頭部追跡レンダリング視点5010は、対角線上に、水平に、および/または垂直に、±θ310角度単位の領域に及ぶ、FOVを提供してもよい。下記にさらに詳細に説明されるように、いくつかの実施形態では、頭部追跡レンダリング視点5010は、比較的に広FOVを提供し得る。そのような実施形態では、ARシステムはまた、眼または眼窩毎に、頭部追跡仮想カメラと異なる、かつそれに加えた、別の仮想カメラを作成または動的に再位置付けおよび/または再配向してもよい。図26Aの実施例では、ARシステムは、頭部追跡仮想カメラ5010の視点からの仮想コンテンツとともに、レンダリング空間内の別の仮想カメラの視点からの仮想コンテンツをレンダリングおよび提示してもよい。 The AR system of FIG. 26A creates or dynamically repositions and / or reorients such a head-tracking virtual camera and renders virtual content from the head-tracking virtual camera's viewpoint (viewpoint 5010). Of light can be projected through the eyepiece 5000 onto the retina of the viewer's eye 210. As shown in FIG. 26A, head-tracking rendering viewpoint 5010 may provide a FOV diagonally, horizontally, and / or vertically spanning an area of ± θ 310 angular units. As described in further detail below, in some embodiments the head-tracking rendering viewpoint 5010 may provide a relatively wide FOV. In such an embodiment, the AR system also creates or dynamically repositions and / or reorients another virtual camera for each eye or orbit that is different from and in addition to the head tracking virtual camera. Good. In the example of FIG. 26A, the AR system may render and present virtual content from the perspective of another virtual camera in the rendering space along with virtual content from the perspective of head tracking virtual camera 5010.

例えば、そのような実施形態では、図26AのARシステムは、視認者の眼210の現在の視線に基づいて、そのような中心窩追跡仮想カメラを作成または動的に再位置付けおよび/または再配向してもよい。図29Aを参照して下記にさらに詳細に説明されるように、いくつかの実施例では、そのようなARシステムは、図25Bを参照して上記に説明される、眼追跡サブシステム4070の1つ以上のコンポーネント等の1つ以上の眼追跡コンポーネントを含み、視認者の現在の視線、視認者の頭部に対する視認者の眼210の現在の位置および/または配向、および同等物を決定してもよい。そのようなデータを用いることで、図26AのARシステムは、そのような中心窩追跡仮想カメラを作成または動的に再位置付けおよび/または再配向し、仮想コンテンツを中心窩追跡仮想カメラの視点(視点5020A)からレンダリングし、視点5020Aからレンダリングされるような仮想コンテンツを表す光を、接眼レンズ5000を通して、視認者の眼210の中心窩上に投影し得る。   For example, in such an embodiment, the AR system of FIG. 26A may create or dynamically reposition and / or reorient such a foveal tracking virtual camera based on the current line of sight of the viewer's eye 210. You may. As will be described in more detail below with reference to FIG. 29A, in some embodiments such an AR system is one of the eye tracking subsystems 4070 described above with reference to FIG. 25B. One or more eye tracking components, such as one or more components, to determine the current line of sight of the viewer, the current position and / or orientation of the viewer's eye 210 relative to the viewer's head, and the like. Good. Using such data, the AR system of FIG. 26A creates or dynamically repositions and / or reorients such a foveal tracking virtual camera, and virtual content is viewed from the foveal tracking virtual camera's viewpoint ( Light that is rendered from viewpoint 5020A) and that represents virtual content as rendered from viewpoint 5020A may be projected through eyepiece 5000 onto the fovea of viewer's eye 210.

図26Aに示されるように、中心窩追跡レンダリング視点5020Aは、頭部追跡レンダリング視点5010のものより狭いFOVを提供し得る。このように、中心窩追跡レンダリング視点5020AのFOVは、頭部追跡レンダリング視点5010のFOVの円錐形サブ空間を占有するように見られ得る。すなわち、中心窩追跡レンダリング視点5020AのFOVは、頭部追跡レンダリング視点5010のFOVのサブ野であり得る。例えば、図26Aに示されるよう、中心窩追跡レンダリング視点320Aは、頭部追跡レンダリング視点5010のFOVと中心窩追跡レンダリング視点5020Aとの間の関係が、−θ310≦−θ320A≦θ320A≦θ310によって与えられるように、対角線上に、水平に、および/または垂直に、±θ320A角度単位の領域に及ぶFOVを提供してもよい。いくつかの実施例では、頭部追跡レンダリング視点5010のFOVは、少なくとも視認者の動眼視野と同程度の広さであり得、これは、本実施例では、視認者の頭部が所与の位置および配向に保持されるときに視認者の眼210が固視し得る、総円錐形空間となるであろう。したがって、これらの実施例では、頭部追跡仮想カメラおよび中心窩追跡仮想カメラは、レンダリング空間内の実質的に同一場所に位置付けられてもよい、または両仮想カメラが、視認者の頭部の位置および/または配向が変化すると、レンダリング空間内を連動して線形および/または角度的に平行移動され得るように、相互から固定距離にあるレンダリング空間内の場所に位置付けられてもよい。例えば、頭部追跡仮想カメラは、視認者の眼210の回転中心に対応する、レンダリング空間内の場所に位置付けられてもよい一方、中心窩追跡仮想カメラは、回転中心と角膜との間の視認者の眼210の領域に対応する、レンダリング空間内の場所に位置付けられてもよい。実際、2つの仮想カメラ間のユークリッド距離は、視認者の眼210または別の剛性体の2つの具体的領域間のユークリッド距離が、常時、実質的に一定のままであり得るように同じように、レンダリング空間内で平行移動されるとき、実質的に一定のままであり得る。 As shown in FIG. 26A, foveal tracking rendering viewpoint 5020A may provide a narrower FOV than that of head tracking rendering viewpoint 5010. Thus, the FOV of fovea tracking rendering viewpoint 5020A can be seen to occupy the conical subspace of the FOV of head tracking rendering viewpoint 5010. That is, the FOV of fovea tracking rendering viewpoint 5020A may be a subfield of the FOV of head tracking rendering viewpoint 5010. For example, as shown in FIG. 26A, in the foveal tracking rendering viewpoint 320A, the relationship between the FOV of the head tracking rendering viewpoint 5010 and the foveal tracking rendering viewpoint 5020A is −θ 310 ≦ −θ 320A ≦ θ 320A ≦ The FOV may be provided diagonally, horizontally, and / or vertically, as provided by θ 310 , spanning an area of ± θ 320 A angular units. In some embodiments, the FOV of the head-tracking rendering viewpoint 5010 may be at least as wide as the visual field of the viewer's eye, which, in this embodiment, is given by the viewer's head. There will be a total conical space that the viewer's eye 210 can fix when held in position and orientation. Thus, in these examples, the head-tracking virtual camera and the foveal-tracking virtual camera may be positioned at substantially the same location in the rendering space, or both virtual cameras may be positioned at the position of the viewer's head. It may be located at a location in the rendering space that is a fixed distance from one another so that as the orientation and / or orientation changes, it can be translated linearly and / or angularly in the rendering space. For example, the head-tracking virtual camera may be located at a location in rendering space that corresponds to the center of rotation of the viewer's eye 210, while the fovea-tracking virtual camera provides a view between the center of rotation and the cornea. It may be located at a location in rendering space that corresponds to the area of the human eye 210. In fact, the Euclidean distance between two virtual cameras is similar, such that the Euclidean distance between two specific areas of the viewer's eye 210 or another rigid body may remain substantially constant at all times. , May remain substantially constant when translated in rendering space.

そのような一対の仮想カメラ内の各仮想カメラ間の空間関係は、ARシステムの使用全体を通して、レンダリング空間内で実質的に固定されたままであり得るが、しかしながら、これらの実施例では、中心窩追跡仮想カメラの配向は、視認者がその眼210を回転させると、頭部追跡仮想カメラに対して変動し得る。このように、中心窩追跡仮想カメラのFOVによって占有される、頭部追跡仮想カメラのFOVの円錐形サブ空間は、視認者がその眼210を回転させるにつれて動的に変化し得る。   The spatial relationship between each virtual camera within such a pair of virtual cameras may remain substantially fixed in the rendering space throughout the use of the AR system, however, in these embodiments, in the fovea The orientation of the tracking virtual camera may change with respect to the head tracking virtual camera as the viewer rotates his eye 210. Thus, the conical subspace of the FOV of the head tracking virtual camera occupied by the FOV of the foveal tracking virtual camera may change dynamically as the viewer rotates his or her eye 210.

さらに、中心窩追跡レンダリング視点5020A内に入る、仮想オブジェクトおよび他のコンテンツは、ARシステムによって、比較的に高分解能においてレンダリングおよび提示され得る。より具体的には、中心窩追跡仮想カメラのFOV内の仮想コンテンツがレンダリングおよび提示される、分解能は、頭部追跡仮想カメラのFOV内の仮想コンテンツがレンダリングおよび提示される、分解能より高くあり得る。このように、接眼レンズ5000によって外部結合され、視認者の眼210の網膜上に投影される、所与のライトフィールドの最高分解能サブ野は、視認者の眼210の中心窩に到達するものであり得る。   Further, virtual objects and other content falling within the foveal tracking rendering viewpoint 5020A can be rendered and presented at relatively high resolution by the AR system. More specifically, the virtual content in the FOV of the foveal tracking virtual camera is rendered and presented, and the resolution may be higher than the resolution in which the virtual content in the FOV of the head tracking virtual camera is rendered and presented. .. Thus, the highest resolution subfield of a given light field, which is externally coupled by the eyepiece 5000 and projected onto the retina of the viewer's eye 210, is that which reaches the fovea of the viewer's eye 210. possible.

図3Bは、視認者の眼210が、図26Aに描写され、それを参照して上記に説明されるような第1の様式で配向される間、接眼レンズ5000によって外部結合され、視認者の眼210の網膜上に投影される、例示的ライトフィールド5030Aを図示する。ライトフィールド5030Aは、上記に述べられた対の仮想カメラによってレンダリング空間内で捕捉されるであろうような仮想コンテンツを表す、種々の角度光成分を含んでもよい。図26A以降を参照して下記にさらに詳細に説明されるように、頭部追跡仮想カメラによってレンダリング空間内で捕捉されるであろうような仮想コンテンツを表す光および中心窩追跡仮想カメラによってレンダリング空間内で捕捉されるであろうような仮想コンテンツを表す光は、種々の異なる多重化スキームのいずれかに従って、ARシステムによって多重化されてもよい。そのような多重化スキームの採用は、少なくともいくつかのインスタンスでは、ARシステムが、より大きな効率を伴って動作し、および/またはより少ない物理的空間を占有することを可能にし得る。   FIG. 3B shows that the viewer's eye 210 is externally coupled by the eyepiece 5000 while the viewer's eye 210 is oriented in a first manner as depicted in FIG. 26A and described above with reference to the viewer's eye 210. 5 illustrates an exemplary light field 5030A projected onto the retina of eye 210. Light field 5030A may include various angular light components that represent virtual content as would be captured in rendering space by the pair of virtual cameras described above. As described in more detail below with reference to Figures 26A et seq., A rendering space with a light and fovea tracking virtual camera representing virtual content as would be captured in the rendering space by the head tracking virtual camera. Light representing virtual content as would be captured in may be multiplexed by the AR system according to any of a variety of different multiplexing schemes. The adoption of such a multiplexing scheme may allow, in at least some instances, AR systems to operate with greater efficiency and / or occupy less physical space.

依然として、図26Bを参照すると、頭部追跡仮想カメラによってレンダリング空間内で捕捉されるであろうような仮想コンテンツ(例えば、頭部追跡レンダリング視点5010内に入る、仮想オブジェクトおよび他のコンテンツ)を表す、ライトフィールド5030Aの角度光成分は、視認者の眼210に対して−θ310〜+θ310角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得る。同様に、中心窩追跡仮想カメラによってレンダリング空間内で捕捉されるであろうような仮想コンテンツ(例えば、中心窩追跡レンダリング視点5020A内に入る、仮想オブジェクトおよび他のコンテンツ)を表す、ライトフィールド5030Aの角度光成分は、視認者の眼210に対して−θ320A〜+θ320A角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得る。中心窩追跡レンダリング視点5020Aと関連付けられたそのような角度光成分がライトフィールド5030A内で生じる、−θ320Aおよび+θ320A角度単位間の間隔は、頭部追跡レンダリング視点5010と関連付けられた角度光成分がライトフィールド5030A内で生じる、−θ310および+θ310角度単位間の間隔より規則性が高くあり得る。このように、中心窩追跡レンダリング視点5020Aと関連付けられた仮想コンテンツが視認者にレンダリングおよび提示され得る、分解能は、頭部追跡レンダリング視点5010と関連付けられた仮想コンテンツが視認者にレンダリングおよび提示され得る、分解能より高くあり得る。 Still referring to FIG. 26B, it depicts virtual content as it would be captured in rendering space by a head-tracking virtual camera (eg, virtual objects and other content falling within head-tracking rendering viewpoint 5010). , Light field 5030A may include what is to be projected onto the retina of the viewer's eye 210 at an angle ranging from −θ 310 to + θ 310 angular units with respect to the viewer's eye 210. Similarly, a lightfield 5030A representing virtual content (eg, virtual objects and other content falling within the foveal tracking rendering viewpoint 5020A) as would be captured in rendering space by the foveal tracking virtual camera. Angular light components may include those that will be projected onto the retina of the viewer's eye 210 at angles ranging from −θ 320A to + θ 320A angular units relative to the viewer's eye 210. Such angular light components associated with foveal tracking rendering viewpoint 5020A occur within light field 5030A, and the spacing between the -θ 320A and + θ 320A angular units is the angular light component associated with head tracking rendering viewpoint 5010. Can occur in the light field 5030A and can be more regular than the spacing between the −θ 310 and + θ 310 angular units. Thus, the virtual content associated with the foveal tracking rendering viewpoint 5020A may be rendered and presented to the viewer, the resolution may be the virtual content associated with the head tracking rendering viewpoint 5010 rendered and presented to the viewer. , Can be higher than resolution.

いくつかの実施形態では、ライトフィールド5030A内で生じる、頭部追跡レンダリング視点5010と関連付けられた角度光成分はさらに、視認者の眼210に対して−θ320A〜+θ320A角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得る。そのような実施形態では、頭部追跡レンダリング視点5010と関連付けられたそのような角度光成分がライトフィールド5030A内で生じる、−θ320Aおよび+θ320A角度単位間の間隔は、中心窩追跡レンダリング視点5020Aと関連付けられた角度光成分がライトフィールド5030A内で生じる、−θ320Aおよび+θ320A角度単位間の間隔より規則性が低くなり得る。他の実施形態では、ライトフィールド5030A内で生じる、頭部追跡レンダリング視点5010と関連付けられた角度光成分は、視認者の眼210に対して−θ320A〜+θ320A角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを除外し得る。したがって、これらの他の実施形態では、ライトフィールド5030A内で生じる、頭部追跡レンダリング視点5010と関連付けられた角度光成分は、−θ310〜−θ320A角度単位の角度またはθ320A〜θ310の角度で視認者の眼210の網膜上に投影されることになるものであり得る。 In some embodiments, the angular light component associated with the head-tracking rendering viewpoint 5010 occurring within the light field 5030A is further at an angle relative to the viewer's eye 210 ranging from −θ 320A to + θ 320A angular units. It may include what will be projected onto the retina of the viewer's eye 210. In such an embodiment, such angular light components associated with head-tracking rendering viewpoint 5010 occur within light field 5030A such that the spacing between −θ 320A and + θ 320A angular units is foveal tracking rendering viewpoint 5020A. May be less regular than the spacing between the-[Theta] 320A and + [Theta] 320A angular units, where the angular light component associated with occurs in the light field 5030A. In another embodiment, the angular light component associated with the head-tracking rendering viewpoint 5010 that occurs within the light field 5030A is at an angle relative to the viewer's eye 210 at an angle ranging from −θ 320A to + θ 320A angular units. That would be projected onto the retina of the human eye 210. Thus, in these other embodiments, the angular light components associated with head-tracking rendering viewpoint 5010 that occur in light field 5030A are -θ 310 to −θ 320A angular units of angles or θ 320A to θ 310 . It may be what is to be projected onto the retina of the viewer's eye 210 at an angle.

図26Cでは、視認者の眼210は、視認者の眼210が図26A−26Bにおいて接眼レンズ5000に対して配向される第1の様式と異なる、第2の様式で接眼レンズ5000に対して配向される。実施例の目的のために、図26C−26Dにおける視認者の頭部の位置および配向は、図26A−26Bを参照して上記に説明されるような視認者の頭部の位置および配向と同一であるように取り扱われ得る。したがって、図26A−26Bおよび図26C−26Dは、それぞれ、第1および第2の時系列段階において、上記に述べられた視認者およびARシステムを表し得る。より具体的には、本実施例では、視認者の眼210は、図26A−26Bに描写されるように、比較的直進配向から中心がずれて回転されている。   In FIG. 26C, the viewer's eye 210 is oriented with respect to the eyepiece 5000 in a second manner, which is different from the first manner in which the viewer's eye 210 is oriented with respect to the eyepiece 5000 in FIGS. 26A-26B. To be done. For purposes of example, the position and orientation of the viewer's head in FIGS. 26C-26D is the same as the position and orientation of the viewer's head as described above with reference to FIGS. 26A-26B. Can be treated as. Thus, FIGS. 26A-26B and 26C-26D may represent the viewer and AR system described above in the first and second time series stages, respectively. More specifically, in this example, the viewer's eye 210 has been rotated off center from a relatively straight orientation, as depicted in FIGS. 26A-26B.

第1の段階から第2の段階への遷移の際、図26CのARシステムは、視認者の頭部姿勢(例えば、位置および配向)が変化していないため、図26A−26Bを参照して上記に説明されるように、例えば、頭部追跡仮想カメラを同一位置および配向に維持するように機能し得る。したがって、図26C−26Dに描写される第2の段階では、ARシステムは、仮想コンテンツを頭部追跡仮想カメラの視点(すなわち、頭部追跡レンダリング視点5010)からレンダリングし、仮想コンテンツのレンダリングを表す光を、接眼レンズ5000を通して、視認者の眼210の網膜上に投影し得る。頭部追跡レンダリング視点5010は、図26A−26Dの第1および第2の時系列段階全体を通して、静的または比較的に静的なままであり得るが、第1の段階から第2の段階への遷移の際、ARシステムは、第1の段階から第2の段階への視認者の眼210の視線の変化に基づいて、レンダリング空間内の中心窩追跡仮想カメラの配向を調節するように機能し得る。すなわち、ARシステムは、第2の段階において採用されるような中心窩追跡仮想カメラが、中心窩追跡レンダリング視点5020Aと異なる中心窩追跡レンダリング視点5020Cを提供するように、中心窩追跡レンダリング視点5020Aを提供するために第1の段階において採用されるような中心窩追跡仮想カメラを置換または再配向してもよい。第2の段階では、ARシステムはまた、中心窩追跡仮想カメラ視点5020Cの視点から仮想コンテンツをレンダリングし、仮想コンテンツのレンダリングを表す光を、接眼レンズ5000を通して、視認者の眼201の中心窩上に投影し得るということになる。   During the transition from the first stage to the second stage, the AR system of FIG. 26C does not change the viewer's head pose (eg, position and orientation), so refer to FIGS. 26A-26B. As explained above, for example, it may function to keep the head tracking virtual camera in the same position and orientation. Thus, in the second stage depicted in FIGS. 26C-26D, the AR system renders virtual content from the viewpoint of the head-tracking virtual camera (ie, head-tracking rendering viewpoint 5010), representing rendering of the virtual content. Light may be projected through the eyepiece 5000 onto the retina of the viewer's eye 210. Head tracking rendering viewpoint 5010 may remain static or relatively static throughout the first and second time series stages of FIGS. 26A-26D, but from the first stage to the second stage. During the transition, the AR system functions to adjust the orientation of the foveal tracking virtual camera in the rendering space based on the change in the line of sight of the viewer's eye 210 from the first stage to the second stage. You can That is, the AR system provides a foveal tracking rendering viewpoint 5020A such that a foveal tracking virtual camera as employed in the second stage provides a foveal tracking rendering viewpoint 5020C that is different from the foveal tracking rendering viewpoint 5020A. The foveal tracking virtual camera as employed in the first stage may be replaced or reoriented to provide. In the second stage, the AR system also renders the virtual content from the viewpoint of the foveal tracking virtual camera viewpoint 5020C and emits light representative of the rendering of the virtual content through the eyepiece 5000 onto the fovea of the viewer's eye 201. Can be projected onto.

図26C−26Dの実施例では、中心窩追跡レンダリング視点5020Cは、中心窩追跡レンダリング視点5020Aのものと異なる、頭部追跡レンダリング視点5010の円錐形サブ空間を占有し得る。例えば、図26Cに示されるように、中心窩追跡レンダリング視点5020Cは、中心窩追跡レンダリング視点5020AのFOVからθ320C角度単位変位され、対角線上に、水平に、および/または垂直に、±θ320A角度単位の領域に及ぶ、FOVを提供し得る。すなわち、中心窩追跡レンダリング視点5020Cは、対角線上に、水平に、および/または垂直に、θ320C±θ320A角度単位の領域に及ぶ、FOVを提供し得る。 26C-26D, the foveal tracking rendering viewpoint 5020C may occupy a conical subspace of the head tracking rendering viewpoint 5010 that differs from that of the foveal tracking rendering viewpoint 5020A. For example, as shown in FIG. 26C, the foveal tracking rendering viewpoint 5020C is displaced from the FOV of the foveal tracking rendering viewpoint 5020A by θ 320C angular units, diagonally, horizontally, and / or vertically ± θ 320A. An FOV can be provided that spans an area in angular units. That is, the foveal tracking rendering viewpoint 5020C may provide a FOV diagonally, horizontally, and / or vertically spanning an area of θ 320C ± θ 320A angular units.

図26Dは、視認者の眼201が、図26Cに描写され、それを参照して上記に説明されるような第2の様式で配向される間、接眼レンズ5000によって外部結合され、視認者の眼201の網膜上に投影される、例示的ライトフィールド5030Cを図示する。ライトフィールド5030Cは、頭部追跡レンダリング視点5010および中心窩追跡レンダリング視点5020Cからレンダリング空間内で捕捉されるであろうような仮想コンテンツを表す、種々の角度光成分を含み得る。頭部追跡レンダリング視点5010からレンダリング空間内で捕捉されるであろうような仮想コンテンツを表す、ライトフィールド5030Cの角度光成分は、視認者の眼210に対して−θ310〜+θ310角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得る。しかしながら、図26A−26Bを参照して上記に説明されるように、第1の段階からの出発の際、中心窩追跡仮想カメラによってレンダリング空間内で捕捉されるであろうような仮想コンテンツ(例えば、中心窩追跡レンダリング視点5020C内に入る、仮想オブジェクトおよび他のコンテンツ)を表す、ライトフィールド5030Cの角度光成分は、視認者の眼210に対してθ320C−θ320A角度単位〜θ320C+θ320A角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得る。 FIG. 26D shows that the viewer's eye 201 is externally coupled by the eyepiece 5000 while the viewer's eye 201 is oriented in a second manner as depicted in FIG. 26C and described above with reference to it. 5 illustrates an exemplary light field 5030C projected onto the retina of eye 201. The light field 5030C may include various angular light components that represent virtual content as it would be captured in rendering space from the head-tracking rendering viewpoint 5010 and the foveal-tracking rendering viewpoint 5020C. The angular light component of the light field 5030C, which represents the virtual content as it would be captured in the rendering space from the head-tracking rendering viewpoint 5010, is -θ 310 to + θ 310 angular units to the viewer's eye 210. It may include what would be projected onto the retina of the viewer's eye 210 at a range of angles. However, as described above with reference to FIGS. 26A-26B, upon departure from the first phase, virtual content such as would be captured in the rendering space by the foveal tracking virtual camera (eg, The angular light component of the light field 5030C, which represents a virtual object and other content that falls within the foveal tracking rendering viewpoint 5020C, is θ 320C −θ 320A angular units to θ 320C + θ 320A relative to the viewer's eye 210. It may include what will be projected onto the retina of the viewer's eye 210 at angles spanning angular units.

中心窩追跡レンダリング視点320Cと関連付けられたそのような角度光成分がライトフィールド5030C内で生じる、θ320C−θ320A角度単位とθ320C+θ320A角度単位との間の間隔は、頭部追跡レンダリング視点5010と関連付けられた角度光成分がライトフィールド5030C内で生じる、−θ310および+θ310角度単位間の間隔より高くなり得る。このように、中心窩追跡レンダリング視点5020Cと関連付けられた仮想コンテンツが視認者にレンダリングおよび提示され得る、分解能は、着目すべきこととして、視認者の眼210に対して−θ320A〜+θ320A角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになる、角度光成分によって表される仮想コンテンツを含む、頭部追跡レンダリング視点5010と関連付けられた仮想コンテンツが視認者にレンダリングおよび提示され得る、分解能より高くなり得る。 The spacing between the θ 320C −θ 320A angular units and the θ 320C + θ 320A angular units at which such angular light components associated with the foveal tracking rendering viewpoint 320C occur within the light field 5030C is the head tracking rendering viewpoint. The angular light component associated with 5010 may be higher than the spacing between-[Theta] 310 and + [Theta] 310 angular units occurring in light field 5030C. Thus, the resolution with which virtual content associated with the foveal tracking rendering viewpoint 5020C can be rendered and presented to the viewer is noted that the resolution is -θ 320A to + θ 320A with respect to the viewer's eye 210. Virtual content associated with the head-tracking rendering viewpoint 5010 is rendered to the viewer, including virtual content represented by the angular light component that will be projected onto the retina of the viewer's eye 210 at unity angles. And can be presented and can be higher than the resolution.

いくつかの実施形態では、ライトフィールド5030C内で生じる、頭部追跡レンダリング視点5010と関連付けられた角度光成分はさらに、視認者の眼210に対してθ320C−θ320A角度単位〜θ320C+θ320A角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得る。そのような実施形態では、頭部追跡レンダリング視点310と関連付けられたそのような角度光成分がライトフィールド5030C内で生じる、−θ320C−θ320A角度単位とθ320C+θ320A角度単位間の間隔は、中心窩追跡レンダリング視点5020Cと関連付けられた角度光成分がライトフィールド5030C内で生じる、θ320C−θ320A角度単位とθ320C+θ320A角度単位との間の間隔より低い規則性が低くなり得る。他の実施形態では、ライトフィールド5030C内で生じる、頭部追跡レンダリング視点5010と関連付けられた角度光成分は、視認者の眼210に対してθ320C−θ320A角度単位〜θ320C+θ320A角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを除外し得る。したがって、これらの他の実施形態では、ライトフィールド5030C内で生じる、頭部追跡レンダリング視点5010と関連付けられた角度光成分は、−θ310〜θ320C−θ320A角度単位の角度およびθ320C+θ320A角度〜θ310角度単位の角度単位または角度で視認者の眼210の網膜上に投影されることになるものであり得る。 In some embodiments, the angular light component associated with the head-tracking rendering viewpoint 5010 that occurs in the light field 5030C is further coupled to the viewer's eye 210 in terms of θ 320C −θ 320A angular units to θ 320C + θ 320A. It may include what will be projected onto the retina of the viewer's eye 210 at angles spanning angular units. In such an embodiment, the spacing between −θ 320C −θ 320A angular units and θ 320C + θ 320A angular units, such angular light components associated with head-tracking rendering viewpoint 310 occur within light field 5030C. , The angular light component associated with the foveal tracking rendering viewpoint 5020C occurs within the light field 5030C and may be less regular than the spacing between the θ 320C −θ 320A and θ 320C + θ 320A angular units. In another embodiment, the angular light component associated with the head-tracking rendering viewpoint 5010 occurring in the light field 5030C is θ 320C −θ 320A angular units to θ 320C + θ 320A angular units relative to the viewer's eye 210. What would be projected onto the retina of the viewer's eye 210 at angles ranging up to may be excluded. Thus, in these other embodiments, occur within the light field 5030C, angle light component associated with the head tracker rendering viewpoint 5010, -θ 310320C320A angle unit angle and theta 320C + theta 320A The angle may be projected onto the retina of the viewer's eye 210 in angular units or angles of θ ~ 310 angular units.

図26E−26Fは、いくつかの実施形態による、ユーザに提示され得る画像の例示的構成を図式的に図示する。図26E−26Fにおけるグリッド正方形は、図24を参照して上記に説明されるような視野3002、3004、および3006が、2次元角度空間に定義される、像点を図式的に表すことに留意されたい。広FOVを有する、低分解能の第1の画像ストリーム5010Eは、静的場所に表示されることができる。広FOVを有する、低分解能の第1の画像ストリーム5010Eは、レンダリング空間内に静的位置および配向を有する第1の仮想カメラによって捕捉されるであろうような仮想コンテンツの1つ以上の画像を表すことができる。例えば、低分解能の第1の画像ストリーム5010Eは、図26A−26Dを参照して上記に説明される頭部追跡仮想カメラ等の頭部追跡仮想カメラによって捕捉されるであろうような仮想コンテンツの1つ以上の画像を表すことができる。第1の画像ストリーム5010Eは、ユーザの視覚を包含し、没入体験をユーザに喚起することができる。   26E-26F schematically illustrate exemplary configurations of images that may be presented to a user, according to some embodiments. Note that the grid squares in FIGS. 26E-26F graphically represent image points where fields of view 3002, 3004, and 3006 as described above with reference to FIG. 24 are defined in a two-dimensional angular space. I want to be done. A low resolution first image stream 5010E having a wide FOV can be displayed at a static location. A low resolution first image stream 5010E having a wide FOV displays one or more images of virtual content as would be captured by a first virtual camera having a static position and orientation in rendering space. Can be represented. For example, the low resolution first image stream 5010E is of virtual content as would be captured by a head tracking virtual camera, such as the head tracking virtual camera described above with reference to FIGS. 26A-26D. One or more images can be represented. The first image stream 5010E may include the user's vision and evoke an immersive experience for the user.

比較的に狭いFOVを有する、高分解能の第2の画像ストリーム5020Eは、第1の画像ストリーム5010Eの境界内に表示されることができる。いくつかの実施例では、第2の画像ストリーム5020Eは、眼視線追跡技法を使用して取得されるデータに基づいて、ユーザの現在の固視点と一致する角位置に対してリアルタイムで動的に調節され得る、レンダリング空間内にある配向を有する第2の異なる仮想カメラによって捕捉されるであろうような仮想コンテンツの1つ以上の画像を表すことができる。これらの実施例では、高分解能の第2の画像ストリーム5020Eは、図26A−26Dを参照して上記に説明される中心窩追跡仮想カメラ等の中心窩追跡仮想カメラによって捕捉されるであろうような仮想コンテンツの1つ以上の画像を表すことができる。言い換えると、そこから第2の画像ストリーム5020Eによって表される仮想コンテンツの1つ以上の画像が捕捉される、レンダリング空間内の視点は、第2の画像ストリーム5020Eと関連付けられた視点がユーザの中心窩視と持続的に整合されるように、ユーザの眼視線が変化するにつれて再配向されることができる。   A high resolution second image stream 5020E having a relatively narrow FOV can be displayed within the boundaries of the first image stream 5010E. In some embodiments, the second image stream 5020E is dynamically generated in real-time with respect to an angular position that matches the user's current fixation point based on data obtained using eye-tracking techniques. One or more images of the virtual content as they would be captured by a second different virtual camera with an orientation that is adjustable in rendering space may be represented. In these examples, the high resolution second image stream 5020E would be captured by a foveal tracking virtual camera, such as the foveal tracking virtual camera described above with reference to FIGS. 26A-26D. One or more images of different virtual content can be represented. In other words, the viewpoint in rendering space from which one or more images of the virtual content represented by the second image stream 5020E is captured is such that the viewpoint associated with the second image stream 5020E is centered on the user. It can be reoriented as the user's gaze changes so as to be permanently aligned with the fovea.

例えば、第2の画像ストリーム5020Eは、ユーザの眼視線が、図26Eに図示されるように、第1の位置に固視されると、レンダリング空間の第1の領域内に位置する仮想コンテンツを包含することができる。ユーザの眼視線が、第1の位置と異なる第2の位置に移動するにつれて、第2の画像ストリーム5020Eと関連付けられた視点は、調節されることができるように、第2の画像ストリーム5020Eが、図26Fに図示されるように、レンダリング空間の第2の領域内に位置する仮想コンテンツを包含することができる。いくつかの実施形態では、第1の画像ストリーム5010Eは、広FOVであるが、疎密グリッドによって示されるように、低角度分解能を有する。第2の画像ストリーム5020Eは、狭FOVであるが、稠密グリッドによって示されるように、高角度分解能を有する。   For example, the second image stream 5020E includes virtual content located in the first region of the rendering space when the user's gaze is fixed in the first position, as illustrated in FIG. 26E. Can be included. As the user's line of sight moves to a second position that is different from the first position, the viewpoint associated with the second image stream 5020E can be adjusted so that the second image stream 5020E is adjusted. , And may include virtual content located in a second region of the rendering space, as illustrated in FIG. 26F. In some embodiments, the first image stream 5010E is a wide FOV, but has low angular resolution, as indicated by the sparse grid. The second image stream 5020E is a narrow FOV, but has high angular resolution, as shown by the dense grid.

図26Gは、いくつかの他の実施形態による、ユーザに提示され得る画像の例示的構成を図式的に図示する。図26E−26Fのように、図26Gにおけるグリッド正方形は、2次元角度空間内で定義される、像点を図式的に表す。図26E−26Fに図示される構成と同様に、広FOVを有する低分解能の第1の画像ストリーム5010Gは、頭部追跡レンダリング視点から視認されるような仮想コンテンツを包含する一方、狭FOVを有する高分解能の第2の画像ストリーム5020Gは、ユーザの現在の固視点と一致するように動的に再配向され得る、中心窩追跡レンダリング視点から視認されるような仮想コンテンツを包含する。ここでは、第1の画像ストリーム5010Gと関連付けられたFOVの外周界は、丸みを帯びた角を伴う長方形境界を形成することができ、第2の画像ストリーム5020Gと関連付けられたFOVの外周界は、円形境界を形成することができる。   FIG. 26G schematically illustrates an exemplary arrangement of images that may be presented to a user, according to some other embodiments. As in FIGS. 26E-26F, the grid squares in FIG. 26G graphically represent image points defined in two-dimensional angular space. Similar to the configuration illustrated in FIGS. 26E-26F, a low resolution first image stream 5010G having a wide FOV contains virtual content as viewed from a head-tracking rendering perspective, while having a narrow FOV. The high resolution second image stream 5020G contains virtual content as viewed from the foveal tracking rendering viewpoint, which may be dynamically reoriented to match the user's current fixation point. Here, the perimeter of the FOV associated with the first image stream 5010G can form a rectangular boundary with rounded corners, and the perimeter of the FOV associated with the second image stream 5020G is , Circular boundaries can be formed.

図26Hは、さらにいくつかの他の実施形態による、ユーザに提示され得る画像の例示的構成を図式的に図示する。図26E−26Gのように、図26Hにおけるグリッド正方形は、2次元角度空間内に定義される像点を図式的に表す。ここでは、第1の画像ストリーム5010Hと関連付けられたFOVの外周界および第2の画像ストリーム5020Hと関連付けられたFOVの外周界の両方が、円形境界を形成することができる。いくつかの他の実施形態では、第1の画像ストリーム5010Hと関連付けられたFOVの外周界および第2の画像ストリーム5020Hと関連付けられたFOVの外周界の一方または両方が、楕円形境界または他の形状を形成することができる。いくつかの実施形態では、図26HのARシステムの画像源は、所定のパターンで走査され、所望の境界形状を伴って、第1の画像ストリーム5010Hおよび第2の画像ストリーム5020Hのための光ビームを提供し得る、走査ファイバを含んでもよい。   FIG. 26H schematically illustrates an exemplary arrangement of images that may be presented to a user in accordance with some other embodiments. As in Figures 26E-26G, the grid squares in Figure 26H graphically represent image points defined in two-dimensional angular space. Here, both the outer perimeter of the FOV associated with the first image stream 5010H and the outer perimeter of the FOV associated with the second image stream 5020H can form a circular boundary. In some other embodiments, one or both of the perimeter of the FOV associated with the first image stream 5010H and the perimeter of the FOV associated with the second image stream 5020H is an elliptical boundary or other. A shape can be formed. In some embodiments, the image source of the AR system of FIG. 26H is scanned in a predetermined pattern to produce a light beam for the first image stream 5010H and the second image stream 5020H with the desired boundary shape. May be included, which may include a scanning fiber.

図27は、図25Aに示されるようなウェアラブルディスプレイデバイス4050内のディスプレイ4052のうちの1つ上にオーバーレイされる、図24に示されるような視野3002および動眼視野3004を図示する。いくつかの実施形態によると、図26E−26Fに図示される広FOVおよび低分解能の第1の画像ストリーム5010Eは、ディスプレイ4052のエリア全体を横断して表示されることができる(第1の画像ストリーム5010Eの比較的に低分解能は、疎密グリッドを伴って図示される)一方、狭FOVおよび高分解能の第2の画像ストリーム5020Eは、ユーザの現在の中心窩化領域3006に表示されることができる(第2の画像ストリーム5020Eの比較的に高分解能は、稠密グリッドを伴って図示される)。図27では、第1の画像ストリーム5010Eおよび第2の画像ストリーム5020Eは、ディスプレイ4052の「平面」に表示されるように図示されるが、シースルー拡張現実(AR)ディスプレイシステムでは、第1の画像ストリーム5010Eおよび第2の画像ストリーム5020Eはまた、ある角度視野内のライトフィールドとしてユーザに提示されることができる。そのようなARディスプレイシステムは、ユーザの正面のある距離(例えば、2メートル)に「浮遊」しているように現れる、ディスプレイ平面を生産することができる。ディスプレイ平面は、眼鏡よりはるかに大きいように現れることができる。本浮遊距離ディスプレイは、実世界に関する情報にオーバーレイするために使用される。   FIG. 27 illustrates a field of view 3002 and an eye view 3004 as shown in FIG. 24 overlaid on one of the displays 4052 in a wearable display device 4050 as shown in FIG. 25A. According to some embodiments, the wide FOV and low resolution first image stream 5010E illustrated in FIGS. 26E-26F can be displayed across the entire area of the display 4052 (first image). The relatively low resolution of stream 5010E is shown with a sparse and dense grid), while the narrow FOV and high resolution second image stream 5020E may be displayed in the user's current foveated region 3006. Yes (the relatively high resolution of the second image stream 5020E is shown with a dense grid). In FIG. 27, the first image stream 5010E and the second image stream 5020E are shown as being displayed in the “plane” of the display 4052, but in a see-through augmented reality (AR) display system, the first image stream The stream 5010E and the second image stream 5020E can also be presented to the user as a light field within an angular field of view. Such AR display systems can produce a display plane that appears to be "floating" at some distance in front of the user (eg, 2 meters). The display plane can appear much larger than the eyeglasses. This floating distance display is used to overlay information about the real world.

図28A−28Bは、いくつかの実施形態による、ユーザに提示され得る例示的仮想コンテンツを使用して、図26A−26Dに説明される原理のうちのいくつかを図示する。したがって、図28A−28Bは、それぞれ、第1および第2の時系列段階における視認者およびARシステムを表し得る。さらに、図28A−28Bに示されるコンポーネントの一部または全部は、図26A−26Dを参照して上記に説明されるようなコンポーネントと同一または少なくとも類似してもよい。   28A-28B illustrate some of the principles described in FIGS. 26A-26D using example virtual content that may be presented to a user, according to some embodiments. Thus, FIGS. 28A-28B may represent a viewer and an AR system at the first and second time series stages, respectively. Further, some or all of the components shown in FIGS. 28A-28B may be the same or at least similar to the components as described above with reference to FIGS. 26A-26D.

図28A−28BのARシステムは、図26A−26Dを参照して上記に説明される頭部追跡仮想カメラに類似する頭部追跡仮想カメラを作成または動的に再位置付けおよび/または再配向し、仮想コンテンツを頭部追跡仮想カメラの視点からレンダリングし、仮想コンテンツのレンダリングを表す光を、接眼レンズ6000を通して、視認者の眼210の網膜上に投影し得る。図28A−28BのARシステムはまた、図26A−26Dを参照して上記に説明される中心窩追跡仮想カメラに類似する中心窩追跡仮想カメラを作成または動的に再位置付けおよび/または再配向し、仮想コンテンツを中心窩追跡仮想カメラの視点からレンダリングし、仮想コンテンツのレンダリングを表す光を、接眼レンズ400を通して、視認者の眼210の中心窩上に投影し得る。図28A−28Bに示されるように、そのような仮想コンテンツは、3−D仮想オブジェクト6011、6012、および6013を含んでもよい。いくつかの実施例では、図28A−28BのARシステムは、頭部追跡レンダリング視点に関してすぐ上で説明された動作のうちの1つ以上のものと、中心窩追跡レンダリング視点に関してすぐ上で説明された動作のうちの1つ以上のものを同時に実施してもよい。他の実施例では、図28A−28BのARシステムは、そのような動作を高速で連続して実施してもよい。   The AR system of FIGS. 28A-28B creates or dynamically repositions and / or reorients a head tracking virtual camera similar to the head tracking virtual cameras described above with reference to FIGS. 26A-26D, Virtual content may be rendered from the perspective of a head-tracking virtual camera, and light representative of the rendering of the virtual content may be projected through the eyepiece 6000 onto the retina of the viewer's eye 210. The AR system of FIGS. 28A-28B also creates or dynamically repositions and / or reorients a foveal tracking virtual camera similar to that described above with reference to FIGS. 26A-26D. , Virtual content may be rendered from the perspective of the foveal tracking virtual camera, and light representative of the rendering of the virtual content may be projected through the eyepiece 400 onto the fovea of the viewer's eye 210. As shown in FIGS. 28A-28B, such virtual content may include 3-D virtual objects 6011, 6012, and 6013. In some implementations, the AR system of FIGS. 28A-28B may be described with respect to one or more of the operations described immediately above with respect to the head-tracking rendering viewpoint, and the foveal tracking rendering viewpoint. One or more of these actions may be performed simultaneously. In other embodiments, the AR system of FIGS. 28A-28B may perform such operations at high speed and continuously.

本実施例では、図28A−28BにおけるARシステムによって採用される、頭部追跡レンダリング視点のFOVは、対角線上に、水平に、および/または垂直に、仮想オブジェクト6011、6012、および6013のそれぞれを包含するために十分に広い角度空間であり得る。実施例の目的のために、視認者の頭部の位置および配向は、頭部追跡レンダリング視点の位置および配向が2つの段階全体を通して同一のままであるように、それぞれ、図28Aおよび28Bに描写されるような第1および第2の段階全体を通して静的であるように取り扱われ得る。ARシステムによって採用される頭部追跡レンダリング視点のFOVが、仮想オブジェクト6011−6013を包含するために十分に広いために、少なくとも、対角線上に、水平に、および/または垂直に、α+ζ角度単位の範囲に及ばなければならない。より具体的には、図28A−28Bの実施例では、仮想オブジェクト6011、6012、および6013は、それぞれ、α−β、γ+δ、およびζ−ε角度単位範囲に及び得ることが分かる。   In this example, the FOV of the head-tracking rendering viewpoint employed by the AR system in FIGS. 28A-28B is to diagonally, horizontally, and / or vertically each of virtual objects 6011, 6012, and 6013. It can be an angular space wide enough to contain. For purposes of example, the position and orientation of the viewer's head are depicted in FIGS. 28A and 28B, respectively, such that the position and orientation of the head tracking rendering viewpoint remains the same throughout the two stages, respectively. May be treated as static throughout the first and second stages as described. The FOV of the head-tracking rendering viewpoint employed by the AR system is wide enough to contain the virtual objects 6011-6013 so that it is at least diagonally, horizontally, and / or vertically in α + ζ angle units. Must reach the range. More specifically, it can be seen that in the example of FIGS. 28A-28B, virtual objects 6011, 6012, and 6013 can span α-β, γ + δ, and ζ-ε angle unit ranges, respectively.

図28Aでは、視認者の眼210は、視認者が比較的に直進方向において接眼レンズ6000を見ることが可能であり得るように、接眼レンズ6000に対して第1の様式で配向される。図28Aにおける視認者の眼210の配向は、例えば、図26A−26Bを参照して上記に説明されるような視認者の眼210の配向と同一または類似し得、感知コンポーネントおよび/または本明細書に説明される技法のうちの1つ以上のものを使用して、ARシステムよって決定されてもよい。したがって、図28Aに描写される段階では、ARシステムは、それぞれ、頭部追跡および中心窩追跡レンダリング視点5010および5020Aのものに類似する相対的位置および配向における、頭部追跡および中心窩追跡レンダリング視点を採用してもよい。図28Aの特定の実施例では、ARシステムによって採用される中心窩追跡レンダリング視点のFOVは、例えば、仮想オブジェクト6012を包含し得るが、仮想オブジェクト6011および6013のいずれも包含し得ない。図28Aでは、ARシステムは、中心窩追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6012を高解像度でレンダリングし得、頭部追跡仮想カメラの視点から捕捉されたであろうような仮想オブジェクト6011および6013をより低い解像度でレンダリングし得るということになる。加えて、ARシステムは、仮想オブジェクト6011、6012、および6013のそのようなレンダリングを表す光を、接眼レンズ6000を通して、視認者の眼210の網膜上に投影してもよい。いくつかの実施形態では、ARシステムはまた、頭部追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6012をより低い解像度でレンダリングし得る。   In FIG. 28A, the viewer's eye 210 is oriented in a first manner with respect to the eyepiece 6000 so that the viewer may be able to see the eyepiece 6000 in a relatively straight-ahead direction. The orientation of the viewer's eye 210 in FIG. 28A may be the same or similar to the orientation of the viewer's eye 210, eg, as described above with reference to FIGS. It may be determined by the AR system using one or more of the techniques described in the book. Thus, at the stage depicted in FIG. 28A, the AR system is configured for head tracking and foveal tracking rendering viewpoints at relative positions and orientations similar to those of head tracking and foveal tracking rendering viewpoints 5010 and 5020A, respectively. May be adopted. In the particular example of FIG. 28A, the foveal tracking rendering viewpoint FOV employed by the AR system may include, for example, virtual object 6012, but not both virtual objects 6011 and 6013. In FIG. 28A, the AR system may have rendered a high resolution virtual object 6012 as would be captured from the foveal tracking virtual camera perspective and would have been captured from the head tracking virtual camera perspective. Virtual objects 6011 and 6013 can be rendered at a lower resolution. In addition, the AR system may project light representing such a rendering of virtual objects 6011, 6012, and 6013 through eyepiece 6000 onto the retina of viewer's eye 210. In some embodiments, the AR system may also render a lower resolution virtual object 6012 as it would be captured from the perspective of the head-tracking virtual camera.

図28Aはまた、接眼レンズ6000によって外部結合され、視認者の眼210の網膜上に投影される、例示的ライトフィールド6030Aを図示する。ライトフィールド6030Aは、上記に述べられた仮想オブジェクト6011、6012、および6013のレンダリングのうちの1つ以上のものを表す、種々の角度光成分を含み得る。例えば、頭部追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6011を表す、ライトフィールド6030Aの角度光成分は、視認者の眼210に対して−α〜−β角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得、頭部追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6013を表す、ライトフィールド6030Aの角度光成分は、視認者の眼210に対してε〜ζ角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得る。同様に、中心窩追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6012を表す、ライトフィールド6030Aの角度光成分は、視認者の眼210に対して−γ〜δ角度単位に及ぶ角度で視認者の眼210の中心窩上に投影されることになるものを含み得る。したがって、仮想オブジェクト6012を表すライトフィールド6030Aの成分(すなわち、視認者の眼210に対して−γ〜δ角度単位に及ぶ角度で投影されることになる成分)は、仮想オブジェクト6011または6013を表す、ライトフィールド6030Aの成分(すなわち、視認者の眼210に対して−α〜−βまたはε〜ζ角度単位に及ぶ角度で投影されることになる成分)より角度空間内で稠密に分散され得る。このように、仮想オブジェクト6012が視認者にレンダリングおよび提示され得る、分解能は、仮想オブジェクト6011または6013が視認者にレンダリングおよび提示され得る、分解能より高くなり得る。   FIG. 28A also illustrates an exemplary light field 6030A, which is externally coupled by the eyepiece 6000 and projected onto the retina of the viewer's eye 210. Light field 6030A may include various angular light components that represent one or more of the renderings of virtual objects 6011, 6012, and 6013 described above. For example, the angular light component of the light field 6030A, which represents a virtual object 6011 as it would be captured from the perspective of a head-tracking virtual camera, spans −α to −β angular units with respect to the viewer's eye 210. The angular light of the light field 6030A, which may include what would be projected onto the retina of the viewer's eye 210 at an angle, and represents a virtual object 6013 as would be captured from the perspective of the head tracking virtual camera. The components may include those that will be projected onto the retina of the viewer's eye 210 at angles that range from ε to ζ angular units relative to the viewer's eye 210. Similarly, the angular light component of the light field 6030A, representing the virtual object 6012 as it would be captured from the perspective of the foveal tracking virtual camera, spans −γ to δ angular units with respect to the viewer's eye 210. It may include what would be projected onto the fovea of the viewer's eye 210 at an angle. Therefore, the component of the light field 6030A representing the virtual object 6012 (that is, the component that will be projected at an angle ranging from −γ to δ angular units with respect to the viewer's eye 210) represents the virtual object 6011 or 6013. , Light field 6030A components (i.e., components that will be projected to the viewer's eye 210 at angles ranging from-[alpha] to-[beta] or [epsilon] to [zeta] angle units) more densely dispersed in angular space. .. As such, the resolution with which the virtual object 6012 can be rendered and presented to the viewer can be higher than the resolution with which the virtual object 6011 or 6013 can be rendered and presented to the viewer.

図28Bでは、視認者の眼210は、視認者の眼210が図28Aにおいて接眼レンズ6000に対して配向される第1の様式と異なる第2の様式において、接眼レンズ6000に対して配向される。図28Bにおける視認者の眼210の配向は、例えば、図26C−26Dを参照して上記に説明されるような視認者の眼210の配向と同一または類似し得、感知コンポーネントおよび/または本明細書に説明される技法のうちの1つ以上のものを使用して、ARシステムによって決定されてもよい。したがって、図28Bに描写される段階では、ARシステムは、それぞれ、頭部追跡および中心窩追跡レンダリング視点5010および5020Cのものに類似する相対的位置および配向において、頭部追跡および中心窩追跡レンダリング視点を採用してもよい。図28Bの特定の実施例では、ARシステムによって採用される中心窩追跡レンダリング視点のFOVは、例えば、仮想オブジェクト6013を包含し得るが、仮想オブジェクト6011および6012のいずれも包含し得ない。図28Bでは、ARシステムは、中心窩追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6013を高解像度でレンダリングし得、頭部追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6011および6012をより低い解像度でレンダリングし得るということになる。加えて、ARシステムは、仮想オブジェクト6011、6012、および6013のそのようなレンダリングを表す光を、接眼レンズ6000を通して、視認者の眼210の網膜上に投影してもよい。いくつかの実施形態では、ARシステムはまた、頭部追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6013をより低い解像度でレンダリングしてもよい。   28B, the viewer's eye 210 is oriented relative to the eyepiece 6000 in a second manner, which is different from the first manner in which the viewer's eye 210 is oriented relative to the eyepiece 6000 in FIG. 28A. . The orientation of the viewer's eye 210 in FIG. 28B may be the same or similar to the orientation of the viewer's eye 210, eg, as described above with reference to FIGS. 26C-26D, and may include sensing components and / or the present specification. It may be determined by the AR system using one or more of the techniques described in the text. Thus, at the stage depicted in FIG. 28B, the AR system is performing a head-tracking and foveal-tracking rendering viewpoint at relative positions and orientations similar to those of the head-tracking and foveal-tracking rendering viewpoints 5010 and 5020C, respectively. May be adopted. In the particular example of FIG. 28B, the foveal tracking rendering viewpoint FOV employed by the AR system may include, for example, virtual object 6013, but not both virtual objects 6011 and 6012. In FIG. 28B, the AR system may render a virtual object 6013 at high resolution as would be captured from the foveal tracking virtual camera perspective, and would be captured from the head tracking virtual camera perspective. Virtual objects 6011 and 6012 can be rendered at a lower resolution. In addition, the AR system may project light representing such a rendering of virtual objects 6011, 6012, and 6013 through eyepiece 6000 onto the retina of viewer's eye 210. In some embodiments, the AR system may also render a lower resolution virtual object 6013 as would be captured from the perspective of the head tracking virtual camera.

図28Bはまた、接眼レンズ6000によって外部結合され、視認者の眼210の網膜上に投影される、例示的ライトフィールド6030Bを図示する。ライトフィールド6030Bは、上記に述べられた仮想オブジェクト6011、6012、および6013のレンダリングのうちの1つ以上のものを表す、種々の角度光成分を含み得る。例えば、頭部追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6011を表す、ライトフィールド6030Bの角度光成分は、視認者の眼210に対して−α〜−β角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得、頭部追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6012を表す、ライトフィールド6030Bの角度光成分は、視認者の眼210に対して−γ〜δ角度単位に及ぶ角度で視認者の眼210の網膜上に投影されることになるものを含み得る。同様に、中心窩追跡仮想カメラの視点から捕捉されるであろうような仮想オブジェクト6013を表す、ライトフィールド6030Bの角度光成分は、視認者の眼210に対してε〜ζ角度単位に及ぶ角度で視認者の眼210の中心窩上に投影されることになるものを含み得る。したがって、仮想オブジェクト6013を表す、ライトフィールド6030Bの成分(すなわち、視認者の眼210に対してε〜ζ角度単位に及ぶ角度で投影されることになる成分)は、仮想オブジェクト6011または6012を表す、ライトフィールド6030Aの成分(すなわち、視認者の眼210に対して−α〜−βまたは−γ〜δ角度単位に及ぶ角度で投影されることになる成分)より角度空間内で稠密に分散され得る。このように、仮想オブジェクト6013が視認者にレンダリングおよび提示され得る、分解能は、仮想オブジェクト6011または6012が視認者にレンダリングおよび提示され得る、分解能より高くなり得る。実際、図28Aの段階から図28Bの段階では、それを参照して本明細書に説明されるARシステムは、段階間の視認者の眼402の視線の変化に従って、そこから仮想コンテンツが高分解能で視認され得る視点を効果的に再配向している。   28B also illustrates an exemplary light field 6030B, which is externally coupled by the eyepiece 6000 and projected onto the retina of the viewer's eye 210. Light field 6030B may include various angular light components that represent one or more of the renderings of virtual objects 6011, 6012, and 6013 described above. For example, the angular light component of the light field 6030B, representing the virtual object 6011 as it would be captured from the perspective of the head-tracking virtual camera, spans -α to -β angular units with respect to the viewer's eye 210. Angular light of the light field 6030B, which may include what would be projected onto the retina of the viewer's eye 210 at an angle, and represents a virtual object 6012 as would be captured from the perspective of the head tracking virtual camera. The components may include those that will be projected onto the retina of the viewer's eye 210 at angles ranging from −γ to δ angular units with respect to the viewer's eye 210. Similarly, the angular light component of the light field 6030B, which represents the virtual object 6013 as it would be captured from the perspective of the foveal tracking virtual camera, has an angle ranging from ε to ζ angular units relative to the viewer's eye 210. , Which would be projected onto the fovea of the viewer's eye 210. Therefore, the component of the light field 6030B that represents the virtual object 6013 (that is, the component that will be projected at an angle ranging from ε to ζ angle units to the viewer's eye 210) represents the virtual object 6011 or 6012. , The component of the light field 6030A (ie, the component that is projected at an angle ranging from −α to −β or −γ to δ angular units with respect to the viewer's eye 210) is more densely dispersed in angular space. obtain. As such, the resolution with which the virtual object 6013 can be rendered and presented to the viewer can be higher than the resolution with which the virtual object 6011 or 6012 can be rendered and presented to the viewer. In fact, in the steps of FIGS. 28A to 28B, the AR system described herein with reference to it changes the visual line of sight of the eye 402 of the viewer between steps, from which the virtual content has high resolution. Effectively reorienting the viewable point.

図28C−28Fは、いくつかの実施形態による、ユーザに提示され得るいくつかの例示的画像を使用して、図3E−3Fに説明される原理のうちのいくつかを図示する。いくつかの実施例では、図28C−28Fに描写される画像および/または画像ストリームのうちの1つ以上のものは、図25Bを参照して上記に説明される深度平面のうちの1つ以上のもの等、特定の深度平面に表示されることになる2次元画像またはその一部を表してもよい。すなわち、そのような画像および/または画像ストリームは、ユーザから固定距離における少なくとも1つの2次元表面上に投影された3−D仮想コンテンツを表してもよい。そのような実施例では、そのような画像および/または画像ストリームは、図26A−26Dおよび28A−28Bを参照して上記に説明されるものに類似するある角度視野を伴う1つ以上のライトフィールドとして、ユーザに提示されてもよいことを理解されたい。   28C-28F illustrate some of the principles described in FIGS. 3E-3F using some example images that may be presented to a user, according to some embodiments. In some embodiments, one or more of the images and / or image streams depicted in FIGS. 28C-28F may include one or more of the depth planes described above with reference to FIG. 25B. May represent a two-dimensional image or part thereof to be displayed in a particular depth plane. That is, such images and / or image streams may represent 3-D virtual content projected onto at least one two-dimensional surface at a fixed distance from the user. In such an embodiment, such images and / or image streams may include one or more light fields with some angular field of view similar to those described above with reference to FIGS. 26A-26D and 28A-28B. It should be understood that may be presented to the user as

描写されるように、第1の画像ストリーム6010は、木を含む。図28Cによって表される第1の時間周期の間、眼追跡センサは、ユーザの眼視線(すなわち、中心窩視)が、木の幹を含む、木の第1の領域6010−1内に合焦されていることを決定することができる。ユーザの眼視線が第1の領域6010−1に合焦されていることを決定することに応答して、第1の画像ストリーム6010の第1の領域6010−1と関連付けられた高分解能画像を含む、第2の画像ストリーム6020が、第1の画像ストリーム6010の表示と同時に、第1の領域410−1内に位置付けられることができる。第1の画像ストリーム410は、図28Cに図示されるように、第2の画像ストリーム6020より低い分解能を有し得る。   As depicted, the first image stream 6010 includes trees. During the first time period represented by FIG. 28C, the eye tracking sensor causes the eye gaze of the user (ie, foveal vision) to fit within the first region 6010-1 of the tree, which includes the trunk of the tree. You can determine that you are being irritated. Responsive to determining that the user's line of sight is in focus in the first region 6010-1, the high resolution image associated with the first region 6010-1 of the first image stream 6010 is displayed. A second image stream 6020, including, can be positioned within the first region 410-1 at the same time as the display of the first image stream 6010. The first image stream 410 may have a lower resolution than the second image stream 6020, as illustrated in Figure 28C.

図28Dによって表される、第2の時間周期の間、眼追跡センサは、ユーザの眼視線が、図28Dに図示されるように、木の枝を含む、木の第2の領域6010−2に移動したことを決定することができる。故に、第2の画像ストリーム420は、第2の領域6010−2に偏移され、そのコンテンツを変化させ、第1の画像ストリーム6010の第2の領域6010−2内のコンテンツに対応させることができる。より高い分解能の第2の画像ストリーム6020は、ユーザの中心窩視内の第1の画像ストリーム6010の部分にオーバーレイするため、第2の画像ストリーム6020を囲繞する第1の画像ストリーム6010のより低い分解能の部分は、ユーザによって知覚または認知され得ない。このように、ユーザは、広FOVおよび高分解能の両方を有するような第1の画像ストリーム6010および第2の画像ストリーム6020の組み合わせを知覚し得る。そのようなディスプレイシステムは、いくつかの利点を与えることができる。例えば、ディスプレイシステムは、より優れたユーザ体験を提供しながら、比較的に小形状因子を維持し、算出リソース要件を比較的に低く保つことができる。小形状因子および低算出リソース要件は、デバイスが高分解能画像をディスプレイの限定された領域内に生成することのみ必要とすることに起因し得る。   During the second period of time, represented by FIG. 28D, the eye tracking sensor causes the eye gaze of the user to include a second region 6010-2 of the tree, where the user's line of sight includes tree branches, as illustrated in FIG. 28D. You can decide that you have moved to. Therefore, the second image stream 420 may be shifted to the second region 6010-2, changing its content to correspond to the content in the second region 6010-2 of the first image stream 6010. it can. The higher resolution second image stream 6020 overlays a portion of the first image stream 6010 within the fovea view of the user, thus lowering the first image stream 6010 surrounding the second image stream 6020. The portion of resolution cannot be perceived or perceived by the user. In this way, the user may perceive a combination of the first image stream 6010 and the second image stream 6020 as having both wide FOV and high resolution. Such a display system can offer several advantages. For example, a display system may maintain a relatively small form factor and keep computational resource requirements relatively low while providing a better user experience. The small form factor and low computational resource requirements may be due to the device only needing to generate high resolution images within a limited area of the display.

第2の画像ストリーム6020は、同時にまたは高速で連続して、第1の画像ストリーム6010上にオーバーレイされることができる。上記に議論されるように、いくつかの実施形態では、第2の画像ストリーム6020によってオーバーレイされた第1の画像ストリーム6010のコンテンツのサブセットは、より均一明度およびより良好な分解能知覚のために、オフにされる、またはより低い強度で提示されることができる。また、いくつかの実施形態では、第2の画像ストリーム6020と関連付けられた第2の画像ストリームは、第1の画像ストリーム6010と関連付けられた第1の画像ストリームと他の点において異なり得ることに留意されたい。例えば、第2の画像ストリームの色分解能は、第1の画像ストリームの色分解能より高くあり得る。第2の画像ストリームのリフレッシュレートもまた、第1の画像ストリームのリフレッシュレートより高くあり得る。   The second image stream 6020 can be overlaid on the first image stream 6010, either simultaneously or in rapid succession. As discussed above, in some embodiments, the subset of content of the first image stream 6010 overlaid by the second image stream 6020 may have a more uniform brightness and a better resolution perception. It can be turned off or presented at a lower intensity. Also, in some embodiments, the second image stream associated with the second image stream 6020 may otherwise differ from the first image stream associated with the first image stream 6010. Please note. For example, the color resolution of the second image stream may be higher than the color resolution of the first image stream. The refresh rate of the second image stream may also be higher than the refresh rate of the first image stream.

図28Eは、いくつかの実施形態による、例示的高FOV低分解能画像フレーム(すなわち、第1の画像ストリーム)を図示し、図28Fは、例示的低FOV高分解能画像フレーム(すなわち、第2の画像ストリーム)を図示する。図28Eに図示されるように、低FOV高分解能画像フレームによってオーバーレイされるであろう、高FOV低分解能画像フレームの領域6030は、仮想コンテンツを欠き得る。領域6030に対応する高FOV画像の部分を省略することによって、2つの画像内の若干の差異から生じる任意の画像ぼけまたは不鮮明化は、回避され得る。低FOV高分解能画像フレームのコンテンツ(例えば、図28Fに図示されるような)は、領域6030に対応するコンテンツの高分解能バージョンを含むことができる。   28E illustrates an exemplary high FOV low resolution image frame (ie, first image stream), and FIG. 28F illustrates an exemplary low FOV high resolution image frame (ie, second image stream), according to some embodiments. Image stream). As illustrated in FIG. 28E, region 6030 of the high FOV low resolution image frame that would be overlaid by the low FOV high resolution image frame may lack virtual content. By omitting the portion of the high FOV image corresponding to region 6030, any image blurring or blurring that results from slight differences in the two images can be avoided. The content of the low FOV high resolution image frame (eg, as illustrated in FIG. 28F) may include a high resolution version of the content corresponding to region 6030.

図29Aは、いくつかの実施形態による、ディスプレイシステム7000Aの簡略化されたブロック図を示す。ディスプレイシステム7000Aは、ユーザの頭部の位置および移動およびユーザの眼位置および眼球間距離を検出するための1つ以上のセンサ7002を含むことができる。そのようなセンサは、画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、ジャイロスコープ、および同等物を含んでもよい。拡張現実システムでは、1つ以上のセンサ7002は、頭部装着型フレーム上に搭載されることができる。   FIG. 29A shows a simplified block diagram of a display system 7000A, according to some embodiments. The display system 7000A can include one or more sensors 7002 for detecting the position and movement of the user's head and the position of the user's eyes and the distance between the eyes. Such sensors may include image capture devices (such as cameras), microphones, inertial measurement units, accelerometers, compasses, GPS units, wireless devices, gyroscopes, and the like. In an augmented reality system, one or more sensors 7002 can be mounted on a head mounted frame.

例えば、いくつかの実装では、ディスプレイシステム7000Aの1つ以上のセンサ7002は、頭部装着型変換器システムの一部であって、1つ以上の慣性変換器を含み、ユーザの頭部の移動を示す慣性測定値を捕捉してもよい。したがって、これらの実装では、1つ以上のセンサ7002は、ユーザの頭部移動についての情報を感知、測定、または収集するために使用されてもよい。例えば、そのようなものは、ユーザの頭部の測定移動、速度、加速、および/または位置を検出するために使用されてもよい。   For example, in some implementations, the one or more sensors 7002 of the display system 7000A are part of a head-mounted transducer system and include one or more inertial transducers to move the user's head. An inertial measurement value indicative of may be captured. Thus, in these implementations, one or more sensors 7002 may be used to sense, measure, or collect information about the user's head movements. For example, such may be used to detect measured movements, velocities, accelerations, and / or positions of the user's head.

いくつかの実施形態では、1つ以上のセンサ7002は、ユーザが位置する環境についての情報を捕捉するために使用され得る、1つ以上の前方に面したカメラを含むことができる。前方に面したカメラは、その環境およびその環境内の具体的オブジェクトに対するユーザの距離および配向を示す情報を捕捉するために使用されてもよい。頭部に装着されると、前方に面したカメラは、特に、ユーザが位置する環境およびその環境内の具体的オブジェクトに対するユーザの頭部の距離および配向を示す情報を捕捉するために好適である。前方に面したカメラは、頭部移動、頭部移動の速度、および加速を検出するために採用されることができる。前方に面したカメラはまた、例えば、少なくとも部分的に、ユーザの頭部の配向に基づいて、ユーザの注意の中心を検出または推測するために採用されることができる。配向は、任意の方向(例えば、ユーザの基準フレームに対して上下左右)において検出されてもよい。   In some embodiments, one or more sensors 7002 can include one or more front-facing cameras that can be used to capture information about the environment in which the user is located. A front facing camera may be used to capture information indicative of the user's distance and orientation to the environment and specific objects within the environment. When worn on the head, the front-facing camera is particularly suitable for capturing information indicative of the distance and orientation of the user's head with respect to the environment in which the user is located and specific objects within that environment. . A front-facing camera can be employed to detect head movement, speed of head movement, and acceleration. The front-facing camera can also be employed to detect or infer a center of user attention, for example, based at least in part on the orientation of the user's head. The orientation may be detected in any direction (eg, up, down, left and right with respect to the user's reference frame).

1つ以上のセンサ7002はまた、一対の後ろ向きに面したカメラを含み、ユーザの眼の移動、瞬目、および焦点深度を追跡することができる。そのような眼追跡情報は、例えば、光をユーザの眼に投影させ、その投影された光の少なくとも一部の戻りまたは反射を検出することによって、判別されることができる。眼追跡デバイスについて議論するさらなる詳細は、「DISPLAY SYSTEM AND METHOD」と題された米国仮特許出願第61/801,219号、「METHODS AND SYSTEM FOR CREATING FOCAL PLANES IN VIRTUAL AND AUGMENTED REALITY」と題された米国仮特許出願第62/005,834号、「SYSTEM AND METHOD FOR AUGMENTED AND VIRTUAL REALITY」と題された米国仮特許出願第61/776,771号、および「METHOD AND SYSTEM FOR EYE TRACKING USING SPECKLE PATTERNS」と題された米国仮特許出願第62/420,292号(参照することによって明示的に本明細書に組み込まれる)に提供される。   One or more sensors 7002 may also include a pair of rear-facing cameras to track user eye movements, blinks, and depth of focus. Such eye tracking information can be determined, for example, by projecting light on the user's eye and detecting the return or reflection of at least a portion of the projected light. Further details on discussing eye tracking devices are provided in US Provisional Patent Application No. 61 / 801,219 entitled "DISPLAY SYSTEM AND METHOD", entitled "METHODS AND SYSTEM FOR CREATING FOCAL PLANES IN VIRTUAL AND AUGMENTED". US Provisional Patent Application No. 62 / 005,834, US Provisional Patent Application No. 61 / 776,771 entitled "SYSTEM AND METHOD FOR AUGMENTED AND VIRTUAL REALITY", and "METHOD AND SYSTEM FOR EYE TRACKING RINGS USING". US Provisional Patent Application No. 62 / 420,292, which is expressly incorporated herein by reference.

ディスプレイシステム7000Aはさらに、1つ以上のセンサ7002に通信可能に結合される、ユーザ配向決定モジュール7004を含むことができる。ユーザ配向決定モジュール7004は、データを1つ以上のセンサ7002から受信し、そのようなデータを使用して、ユーザの頭部姿勢、角膜位置、瞳孔間距離、および同等物を決定する。ユーザ配向決定モジュール7004は、ユーザの頭部の瞬間位置を検出し、1つ以上のセンサ7002から受信された位置データに基づいて、ユーザの頭部の位置を予測してもよい。ユーザ配向決定モジュール7004はまた、1つ以上のセンサ7002から受信された追跡データに基づいて、ユーザの眼を追跡する。   Display system 7000A can further include a user orientation determination module 7004, which is communicatively coupled to one or more sensors 7002. User orientation determination module 7004 receives data from one or more sensors 7002 and uses such data to determine a user's head pose, corneal position, interpupillary distance, and the like. The user orientation determination module 7004 may detect the instantaneous position of the user's head and predict the position of the user's head based on position data received from one or more sensors 7002. The user orientation determination module 7004 also tracks the user's eyes based on tracking data received from one or more sensors 7002.

ディスプレイシステム7000Aはさらに、多種多様な形態のいずれかをとり得る、制御サブシステムを含んでもよい。制御サブシステムは、いくつかのコントローラ、例えば、1つ以上のマイクロコントローラ、マイクロプロセッサまたは中央処理ユニット(CPU)、デジタル信号プロセッサ、グラフィック処理ユニット(GPU)、特定用途向け集積回路(ASIC)等の他の集積回路コントローラ、プログラマブルゲートアレイ(PGAS)、例えば、フィールドPGAS(FPGAS)、および/またはプログラマブル論理コントローラ(PLU)を含む。   Display system 7000A may further include a control subsystem, which may take any of a wide variety of forms. The control subsystem may be a number of controllers, such as one or more microcontrollers, microprocessors or central processing units (CPUs), digital signal processors, graphics processing units (GPUs), application specific integrated circuits (ASICs), etc. It includes other integrated circuit controllers, programmable gate arrays (PGAS), eg, field PGAS (FPGAS), and / or programmable logic controller (PLU).

図29Aに描写される実施例では、ディスプレイシステム7000Aは、中央処理ユニット(CPU)7010と、グラフィック処理ユニット(GPU)7020と、フレームバッファ7042および7044とを含む。要するに、下記にさらに詳細に説明されるように、CPU7010は、全体的動作を制御する一方、GPU7020は、フレームをデータベース7030内に記憶される3次元データからレンダリングし(すなわち、3次元場面を2次元画像に変換する)、これらのフレームをフレームバッファ7042および7044内に記憶する。図示されないが、1つ以上の付加的集積回路が、フレームバッファ7042および7044の中へのフレームの読込および/またはそこからの読取と、画像多重化サブシステム7060、中心窩追跡ビーム操向コンポーネント7080、および同等物のコンポーネント等のディスプレイシステム7000Aの1つ以上の他のコンポーネントの動作とを制御してもよい。フレームバッファ542および544の中へのフレームの読込および/またはそこからの読取は、動的アドレス指定を採用してもよく、例えば、フレームは、オーバーレンダリングされる。ディスプレイシステム7000Aはさらに、読取専用メモリ(ROM)およびランダムアクセスメモリ(RAM)を備える。ディスプレイシステム7000Aはさらに、3次元データベース7030を備え、そこから、GPU7020は、フレームをレンダリングするための1つ以上の場面の3次元データにアクセスすることができる。   In the example depicted in FIG. 29A, display system 7000A includes a central processing unit (CPU) 7010, a graphics processing unit (GPU) 7020, and frame buffers 7042 and 7044. In essence, as described in more detail below, CPU 7010 controls overall operation, while GPU 7020 renders frames from 3D data stored in database 7030 (ie, 3D scene These frames are stored in frame buffers 7042 and 7044. Although not shown, one or more additional integrated circuits read and / or read frames from and into frame buffers 7042 and 7044, image multiplexing subsystem 7060, foveal tracking beam steering component 7080. , And the like, and the operation of one or more other components of display system 7000A, such as equivalent components. Reading frames into and / or from frame buffers 542 and 544 may employ dynamic addressing, eg, the frames are overrendered. Display system 7000A further comprises read only memory (ROM) and random access memory (RAM). Display system 7000A further comprises a three-dimensional database 7030 from which GPU 7020 can access three-dimensional data of one or more scenes for rendering a frame.

CPU7010は、高FOV低分解能レンダリング視点決定モジュール7012と、低FOV高分解能レンダリング視点決定モジュール7014とを含むことができる。いくつかの実施形態では、ユーザ配向決定モジュール7004は、CPU7010の一部であることができる。   The CPU 7010 may include a high FOV low resolution rendering viewpoint determination module 7012 and a low FOV high resolution rendering viewpoint determination module 7014. In some embodiments, user orientation determination module 7004 can be part of CPU 7010.

高FOV低分解能レンダリング視点決定モジュール7012は、ユーザ配向決定モジュールによって出力されたデータを、そこから高FOV低分解能画像が知覚されることになる、3D空間内の場所および角度とマッピングするための論理を含むことができる。すなわち、CPU7010は、ユーザ配向決定モジュール7004から受信されたデータに基づいて、任意の所与の時間に、ユーザの頭部に対して固定される仮想カメラの視点を決定する。図26A−26Dおよび28A−28Bを参照して上記に説明される実施例のコンテキスト内では、高FOV低分解能レンダリング視点決定モジュール7012は、ユーザ配向決定モジュール7004によって示されるような頭部位置および配向を監視し、適宜、レンダリング空間内の少なくとも頭部追跡仮想カメラの位置および配向を制御する役割を果たし得る。   The high FOV low resolution rendering viewpoint determination module 7012 is a logic for mapping the data output by the user orientation determination module to locations and angles in 3D space from which the high FOV low resolution image will be perceived. Can be included. That is, the CPU 7010 determines the viewpoint of the virtual camera fixed with respect to the user's head at any given time based on the data received from the user orientation determination module 7004. In the context of the embodiments described above with reference to FIGS. 26A-26D and 28A-28B, the high FOV low resolution rendering viewpoint determination module 7012 is configured to determine the head position and orientation as shown by the user orientation determination module 7004. May be responsible for controlling the position and orientation of at least the head tracking virtual camera in the rendering space.

低FOV高分解能レンダリング視点決定モジュール7014は、ユーザ配向決定モジュールによって出力されたデータ(例えば、ユーザの視線および中心窩場所を示すデータ)を、そこから低FOV高分解能画像が知覚されることになる、3D空間内の場所および角度とマッピングするための論理を含むことができる。すなわち、CPU7010は、ユーザ配向決定モジュール7004から受信されたデータに基づいて、任意の所与の時間に、ユーザの中心窩に対して固定される仮想カメラの視点を決定する。図26A−26Dおよび28A−28Bを参照して上記に説明される実施例のコンテキスト内では、低FOV高分解能レンダリング視点決定モジュール7014は、ユーザ配向決定モジュール7004によって示されるような眼視線を監視し、適宜、レンダリング空間内の少なくとも中心窩追跡仮想カメラの位置および配向を制御する役割を果たし得る。   The low FOV high resolution rendering viewpoint determination module 7014 will output the data output by the user orientation determination module (eg, data indicating the user's gaze and foveal location) from which a low FOV high resolution image will be perceived. Logic may be included to map to locations and angles in 3D space. That is, the CPU 7010 determines the viewpoint of the virtual camera that is fixed with respect to the fovea of the user at any given time based on the data received from the user orientation determination module 7004. In the context of the embodiments described above with reference to FIGS. 26A-26D and 28A-28B, the low FOV high resolution rendering viewpoint determination module 7014 monitors eye gaze as illustrated by the user orientation determination module 7004. Optionally, it may serve to control the position and orientation of at least the foveal tracking virtual camera in the rendering space.

ディスプレイシステム7000Aはさらに、グラフィック処理ユニット(GPU)7020と、データベース7030とを含むことができる。データベース7030は、3D仮想コンテンツを記憶することができる。GPU7020は、フレームをレンダリングするために、データベース7030内に記憶される3D仮想コンテンツにアクセスすることができる。GPU7020は、CPU7010によって決定され、出力として提供されるように、ユーザの中心窩に対して固定される仮想カメラの視点(例えば、中心窩追跡レンダリング視点)から、仮想コンテンツのフレームを低FOVおよび高分解能でレンダリングすることができる。GPU7020はまた、CPU7010によって決定され、出力として提供されるように、ユーザの頭部に対して固定される仮想カメラの視点(例えば、頭部追跡/非中心窩化視点)から、仮想コンテンツのフレームを高FOVおよび低分解能でレンダリングすることができる。レンダリングプロセスにおける仮想カメラの作成、調節、および使用について議論するさらなる詳細は、「METHODS AND SYSTEMS FOR DETECTING AND COMBINING STRUCTURAL FEATURES IN 3D RECONSTRUCTION」と題された米国特許出願第15/274,823号(あらゆる目的のために、参照することによってその全体として本明細書に明示的に組み込まれる)に提供される。   Display system 7000A may further include a graphics processing unit (GPU) 7020 and a database 7030. The database 7030 can store 3D virtual content. The GPU 7020 can access the 3D virtual content stored in the database 7030 to render the frame. The GPU 7020 determines the frame of virtual content to be low FOV and high from a virtual camera perspective (eg, foveal tracking rendering perspective) that is fixed relative to the user's fovea as determined by the CPU 7010 and provided as output. It can be rendered with resolution. The GPU 7020 also determines the frame of virtual content from the perspective of the virtual camera (eg, head tracking / non-fovealized perspective) that is fixed relative to the user's head as determined by the CPU 7010 and provided as output. Can be rendered with high FOV and low resolution. Further details discussing the creation, adjustment, and use of virtual cameras in the rendering process can be found in US patent application Ser. Are hereby incorporated by reference in their entirety).

仮想コンテンツの高FOV低分解能でレンダリングされるフレームは、高FOV低分解能でレンダリングされるフレームのバッファ7042内に記憶されることができる。同様に、仮想コンテンツの低FOV高分解能でレンダリングされるフレームは、低FOV高分解能でレンダリングされるフレームのバッファ7044内に記憶されることができる。いくつかの実施形態では、高FOV低分解能でレンダリングされるフレームのバッファ7042および低FOV高分解能でレンダリングされるフレームのバッファ7044は、GPU7020の一部であることができる。   Frames rendered at high FOV low resolution of virtual content may be stored in a buffer 7042 of frames rendered at high FOV low resolution. Similarly, low FOV high resolution rendered frames of virtual content can be stored in a buffer 7044 of low FOV high resolution rendered frames. In some embodiments, high FOV low resolution rendered frame buffer 7042 and low FOV high resolution rendered frame buffer 7044 may be part of GPU 7020.

ディスプレイシステム7000Aはさらに、画像多重化サブシステム7060と、画像多重化サブシステム7060に通信可能に結合される、画像多重化サブシステムコントローラ7050とを含むことができる。画像多重化サブシステム7060は、図30A−30Bを参照して下記にさらに詳細に実質的に説明されるように、画像源7062と、高FOV低分解能画像フレームおよび低FOV高分解能画像フレームを多重化するための多重化コンポーネント7064とを含むことができる。画像源7062は、例えば、ファイバ走査コンポーネント、シリコン上液晶(LCoS)、MEMS走査ミラー、および同等物と組み合わせた光源を含むことができる。多重化コンポーネント7064は、偏光回転子、切替可能光学、液晶アレイ、可変焦点レンズ、および同等物等の光学要素を含むことができる。多重化コンポーネント7064は、画像源7062の内部または外部にあることができる。   Display system 7000A may further include an image multiplexing subsystem 7060 and an image multiplexing subsystem controller 7050 communicatively coupled to image multiplexing subsystem 7060. Image multiplexing subsystem 7060 multiplexes image source 7062 with a high FOV low resolution image frame and a low FOV high resolution image frame, as substantially described in further detail below with reference to FIGS. 30A-30B. And a multiplexing component 7064 for multiplexing. The image source 7062 can include, for example, a light source in combination with fiber scanning components, liquid crystal on silicon (LCoS), MEMS scanning mirrors, and the like. Multiplexing component 7064 can include optical elements such as polarization rotators, switchable optics, liquid crystal arrays, variable focus lenses, and the like. The multiplexing component 7064 can be internal or external to the image source 7062.

画像多重化サブシステムコントローラ7050は、画像多重化サブシステム7060、高FOV低分解能でレンダリングされるフレームのバッファ7042、および低FOV高分解能でレンダリングされるフレームのバッファ7044に通信可能に結合される。制御回路は、上記に議論されるように、適切な画像コンテンツが各レンダリング視点から提示されるように、制御信号を画像源562に送信することができる。画像多重化サブシステムコントローラ7050はまた、多重化された画像ストリームをもたらすように、画像源7062と併せて、多重化コンポーネント7064を制御することができる。   Image multiplexing subsystem controller 7050 is communicatively coupled to image multiplexing subsystem 7060, high FOV low resolution rendered frame buffer 7042, and low FOV high resolution rendered frame buffer 7044. The control circuitry may send control signals to the image source 562 so that the appropriate image content is presented from each rendering perspective, as discussed above. The image multiplexing subsystem controller 7050 can also control the multiplexing component 7064 in conjunction with the image source 7062 to provide a multiplexed image stream.

ディスプレイシステム7000Aはさらに、中心窩追跡ビーム操向コンポーネント7080と、中心窩追跡ビーム操向コンポーネント7080に通信可能および/または動作可能に結合される、中心窩追跡コントローラ7070とを含むことができる。中心窩追跡コントローラ7070は、CPU7010から、ユーザの中心窩の位置に関する出力データ(例えば、低FOV高分解能レンダリング視点決定モジュール7014および/またはユーザ配向決定モジュール7004によって決定されるような)を受信し、そのようなデータを使用して、中心窩追跡ビーム操向コンポーネント7080の位置を制御することができる。中心窩追跡ビーム操向コンポーネント7080は、多重化された画像ストリームの低FOV高分解能部分(画像源7062および多重化コンポーネント7064によって生産された)をユーザの中心窩に向かって動的に操向または別様に指向する役割を果たすことができる。画像ストリームのそのような低FOV高分解能部分は、例えば、中心窩追跡仮想カメラの視点から捕捉されるであろうような仮想コンテンツを表し得る。   Display system 7000A may further include a foveal tracking beam steering component 7080 and a foveal tracking controller 7070 communicatively and / or operably coupled to foveal tracking beam steering component 7080. Foveal tracking controller 7070 receives output data (eg, as determined by low FOV high resolution rendering perspective determination module 7014 and / or user orientation determination module 7004) from CPU 7010 regarding the location of the fovea of the user, Such data can be used to control the position of the foveal tracking beam steering component 7080. The foveal tracking beam steering component 7080 dynamically steers the low FOV high resolution portion of the multiplexed image stream (produced by the image source 7062 and the multiplexing component 7064) towards the user's fovea. It can play a different role. Such a low FOV high resolution portion of the image stream may represent, for example, virtual content as would be captured from the perspective of the foveal tracking virtual camera.

ディスプレイシステム7000Aはまた、コンピュータ可読命令、データベース、およびCPU7010、GPU7020、および/または1つ以上の他のモジュールまたはディスプレイシステム7000Aのコントローラによって使用可能な他の情報を記憶するための記憶媒体を含むことができる。ディスプレイシステム7000Aはさらに、ユーザがディスプレイシステムとの相互作用のために使用し得る、ボタン等の入力−出力(I/O)インターフェースを含むことができる。ディスプレイシステム7000Aはまた、ディスプレイシステム7000Aの別の部分またはインターネットとの無線通信のための無線アンテナを含むことができる。   Display system 7000A also includes computer-readable instructions, a database, and a storage medium for storing CPU 7010, GPU 7020, and / or one or more other modules or other information usable by the controller of display system 7000A. You can Display system 7000A may further include input-output (I / O) interfaces, such as buttons, that a user may use for interaction with the display system. Display system 7000A may also include a wireless antenna for wireless communication with another portion of display system 7000A or the Internet.

図29Bは、いくつかの実施形態による、ARシステム7000Bの断面図を図式的に図示する。ARシステム7000Bは、いくつかの実施形態によると、図29Aを参照して上記に説明されるように、ディスプレイシステム7000Aのコンポーネントのうちの少なくともいくつかを組み込むことができ、図25Aに示されるように、ウェアラブルディスプレイデバイス4050内のディスプレイ4052のうちの1つの中に嵌合されることができる。例えば、ARシステム7000Bは、画像多重化サブシステム560を含むことができ、これは、画像源7062と、1つ以上の多重化コンポーネントとを含むことができる。加えて、ARシステム7000Bはまた、中心窩追跡ビーム操向コンポーネント7080を含むことができ、これは、本実施例ではMEMS走査ミラー等の電気機械的光学デバイスであってもよい。ディスプレイシステム7000Aのように、画像多重化サブシステム7060は、画像多重化サブシステムコントローラに通信可能および/または動作可能に結合されてもよく、中心窩追跡ビーム操向コンポーネント7080は、中心窩追跡コントローラに通信可能および/または動作可能に結合されてもよい。ARシステム7000Bはさらに、1つ以上の内部結合格子(ICG)7007と、1つ以上の接眼レンズ7008とを含むことができる。各内部結合格子7007は、第1の光ビームおよび第2の光ビームを個別の接眼レンズ7008の中に結合するように構成されることができる。各接眼レンズ7008は、第1の光ビームおよび第2の光ビームをユーザの眼の中に外部結合するための外部結合格子を含むことができる。内部結合格子7007および接眼レンズ7008は、本明細書では、「視認アセンブリ」と称され得る。本明細書に開示される種々の内部結合格子(ICG)は、図9A−9Cの内部結合光学要素700、710、720に対応してもよいことを理解されたい。   FIG. 29B schematically illustrates a cross-sectional view of an AR system 7000B, according to some embodiments. AR system 7000B, according to some embodiments, can incorporate at least some of the components of display system 7000A, as described above with reference to FIG. 29A, as shown in FIG. 25A. In addition, the wearable display device 4050 can be fitted into one of the displays 4052. For example, AR system 7000B can include an image multiplexing subsystem 560, which can include image source 7062 and one or more multiplexing components. In addition, the AR system 7000B can also include a foveal tracking beam steering component 7080, which in this example may be an electromechanical optical device such as a MEMS scanning mirror. Like the display system 7000A, the image multiplexing subsystem 7060 may be communicatively and / or operably coupled to an image multiplexing subsystem controller, wherein the foveal tracking beam steering component 7080 includes a foveal tracking controller. May be communicatively and / or operably coupled to. The AR system 7000B can further include one or more incoupling gratings (ICG) 7007 and one or more eyepieces 7008. Each incoupling grating 7007 can be configured to couple the first light beam and the second light beam into a separate eyepiece 7008. Each eyepiece 7008 can include an outcoupling grating for outcoupling the first light beam and the second light beam into the user's eye. The incoupling grating 7007 and the eyepiece 7008 may be referred to herein as the "visual assembly." It should be appreciated that various incoupling gratings (ICGs) disclosed herein may correspond to the incoupling optical elements 700, 710, 720 of FIGS. 9A-9C.

図30A−30Bは、いくつかの実施形態による、画像をユーザの眼に投影させるためのディスプレイシステム8000を図式的に図示する。ディスプレイシステム8000は、画像源8010を含む。画像源8010は、図30Aに示されるように、第1の画像ストリームと関連付けられた第1の光ビーム8052を投影し、図30Bに示されるように、第2の画像ストリームと関連付けられた第2の光ビーム8054を投影するように構成されることができる。第1の光ビーム8052および第2の光ビーム8054は、概略光線として、図30A−30Bに描写され、これは、正確な光線をトレースする光線を表すことを意図するものではないことに留意されたい。第1の光ビーム8052は、角度的に拡大され、より広いFOVを被覆し、より低い角度の分解能画像ストリームをもたらすことができる。第2の光ビーム8054は、図26A−26Fおよび28A−28Dを参照して上記に議論されるように、より高い角度分解能を伴う、より狭いFOVを有することができる。   30A-30B schematically illustrate a display system 8000 for projecting an image onto a user's eye, according to some embodiments. Display system 8000 includes an image source 8010. Image source 8010 projects a first light beam 8052 associated with a first image stream as shown in FIG. 30A and a second light beam associated with a second image stream as shown in FIG. 30B. It can be configured to project two light beams 8054. It is noted that the first light beam 8052 and the second light beam 8054 are depicted in FIGS. 30A-30B as schematic rays, which are not intended to represent rays that trace exact rays. I want to. The first light beam 8052 can be angularly expanded to cover a wider FOV, resulting in a lower angle resolution image stream. The second light beam 8054 can have a narrower FOV with higher angular resolution, as discussed above with reference to FIGS. 26A-26F and 28A-28D.

画像源8010は、種々の実施形態によると、シリコン上液晶(LCoSまたはLCOS)ディスプレイ(また、空間光変調器とも称され得る)、走査ファイバ、または走査ミラーを含んでもよい。例えば、画像源8010は、制御信号に応答して、光ファイバを所定のパターンで走査する、走査デバイスを含んでもよい。所定のパターンは、長方形または円形形状等のある所望の画像形状に対応し得る。   The image source 8010 may include a liquid crystal on silicon (LCoS or LCOS) display (also referred to as a spatial light modulator), a scanning fiber, or a scanning mirror, according to various embodiments. For example, the image source 8010 may include a scanning device that scans the optical fiber in a predetermined pattern in response to the control signal. The predetermined pattern may correspond to some desired image shape, such as a rectangular or circular shape.

いくつかの実施形態によると、第1の画像ストリームと関連付けられた第1の光ビーム8052および第2の画像ストリームと関連付けられた第2の光ビーム8054は、多重化され、画像源8010によって、合成光ビームとして出力されることができる。例えば、偏光分割多重化、時分割多重化、波長分割多重化、および同等物が、第1の画像ストリームと関連付けられた光ビームおよび第2の画像ストリームと関連付けられた光ビームを多重化するために使用されることができる。   According to some embodiments, the first light beam 8052 associated with the first image stream and the second light beam 8054 associated with the second image stream are multiplexed by the image source 8010. It can be output as a combined light beam. For example, polarization division multiplexing, time division multiplexing, wavelength division multiplexing, and the like, for multiplexing a light beam associated with a first image stream and a light beam associated with a second image stream. Can be used for.

偏光分割多重化が使用される、実施形態では、第1の光ビーム8052は、第1の偏光状態にあることができ、第2の光ビーム8054は、第1の偏光状態と異なる第2の偏光状態にあることができる。例えば、第1の偏光状態は、第1の方向に配向される線形偏光であることができ、第2の偏光状態は、第1の方向に直交する第2の方向に配向される線形偏光であることができる。いくつかの他の実施形態では、第1の偏光状態は、左回り円偏光であることができ、第2の偏光状態は、右回り円偏光であることができる、またはその逆であることができる。第1の光ビーム8052および第2の光ビーム8054は、同時にまたは順次、画像源8010によって投影されることができる。   In an embodiment where polarization division multiplexing is used, the first light beam 8052 can be in a first polarization state and the second light beam 8054 can be in a second polarization state different from the first polarization state. It can be in a polarized state. For example, the first polarization state can be linear polarization oriented in a first direction and the second polarization state can be linear polarization oriented in a second direction orthogonal to the first direction. Can be In some other embodiments, the first polarization state can be left-hand circular polarization and the second polarization state can be right-hand circular polarization, or vice versa. it can. The first light beam 8052 and the second light beam 8054 can be projected by the image source 8010 simultaneously or sequentially.

ディスプレイシステム8000はさらに、いくつかの実施形態によると、第1の光ビーム8052を第2の光ビーム8054から多重化解除するように構成される、偏光ビームスプリッタ(PBS)8030を含むことができる。偏光ビームスプリッタ8030は、図30Aに図示されるように、第1の光ビーム8052を第1の光学経路に沿って視認アセンブリに向かって反射させ、図30Bに図示されるように、第2の光ビーム8054を第2の光学経路に沿って透過させるように構成されることができる。   The display system 8000 can further include a polarizing beamsplitter (PBS) 8030 configured to demultiplex the first light beam 8052 from the second light beam 8054, according to some embodiments. . The polarizing beam splitter 8030 reflects a first light beam 8052 along a first optical path toward a viewing assembly, as shown in FIG. 30A, and a second beam of light, as shown in FIG. 30B. The light beam 8054 can be configured to be transmitted along the second optical path.

偏光ビームスプリッタ8030の代替もまた、光ビームを多重化解除するために使用されてもよい。実施例として、限定ではないが、図30Aおよび30Bの偏光ビームスプリッタ8030を含む、本明細書に説明されるビームスプリッタは、液晶の切替可能反射体等の切替可能反射体と置換される、またはそれとともに実装されてもよい。そのような切替可能反射体を伴う実施形態では、本明細書に開示される全ての他の側面が、適用され、偏光ビームスプリッタが切替可能反射体によって置換されることを除き、類似し得る。実施例として、図53Aの切替可能反射体50042等の切替可能反射体は、制御信号に応答して、反射状態と透過状態との間で切り替わり得る。切替可能反射体の切替を協調させることによって、切替可能反射体は、光ビームを多重化解除するように動作し得る。実施例として、切替可能反射体は、第1の光ビームが切替可能反射体上に入射すると、随時、反射性にされてもよく、第2の光ビームが切替可能反射体上に入射すると、随時、透過性にされ、したがって、第1および第2の光ビームの多重化解除を可能にし得る。いくつかの実施形態では、切替可能反射体は、光ビーム8052、8054に対してある角度(例えば、45°角度)に位置付けられてもよい。その結果、透過性状態では、光ビーム8052、8054のうちの一方は、切替可能反射体を通して透過され、反射性状態では、光ビーム8054、8052の他方は、反射体を通して透過された光ビームと異なる方向に、切替可能反射体から離れるように進行するように反射される。   An alternative to polarizing beam splitter 8030 may also be used to demultiplex the light beam. By way of example, beam splitters described herein, including but not limited to the polarizing beam splitter 8030 of FIGS. 30A and 30B, are replaced with switchable reflectors, such as liquid crystal switchable reflectors, or It may be implemented with it. In embodiments with such a switchable reflector, all other aspects disclosed herein may apply, except that the polarizing beam splitter is replaced by a switchable reflector. As an example, a switchable reflector such as switchable reflector 50042 of FIG. 53A can switch between a reflective state and a transmissive state in response to a control signal. By coordinating the switching of the switchable reflectors, the switchable reflectors can operate to demultiplex the light beam. As an example, the switchable reflector may be made reflective at any time when the first light beam is incident on the switchable reflector, and when the second light beam is incident on the switchable reflector, From time to time it may be made transparent, thus allowing demultiplexing of the first and second light beams. In some embodiments, the switchable reflector may be positioned at an angle (eg, a 45 ° angle) with respect to the light beams 8052, 8054. As a result, in the transmissive state one of the light beams 8052, 8054 is transmitted through the switchable reflector and in the reflective state the other of the light beams 8054, 8052 is the same as the light beam transmitted through the reflector. It is reflected as it travels away from the switchable reflector in different directions.

図30Bを参照すると、ディスプレイシステム8000はさらに、第2の光学経路に沿って偏光ビームスプリッタ8030の下流に位置付けられる、走査ミラー8060を含むことができる。走査ミラー8060は、ユーザの眼に投影されることになる第2の光ビーム8054を視認アセンブリに向かって反射させるように構成される。いくつかの実施形態によると、走査ミラー8060は、第2の画像ストリームを動的に投影させるために、ユーザの眼の固視位置に基づいて制御されることができる。例えば、走査ミラー8060は、制御回路を介して、ユーザの眼移動を追跡する眼視線トラッカと電気通信することができる。制御回路は、第2の光ビーム8054が、第2の画像ストリームをユーザの中心窩視を被覆すると決定された領域に投影するように、制御信号を送信し、ユーザの現在の固視点に基づいて、走査ミラー8060を傾斜および/または平行移動させることができる。いくつかの実施形態では、走査ミラー8060は、2自由度を伴う(すなわち、2つの独立角度で走査されることが可能である)、微小電気機械システム(MEMS)スキャナであることができる。   Referring to FIG. 30B, the display system 8000 can further include a scanning mirror 8060 positioned downstream of the polarizing beam splitter 8030 along the second optical path. Scanning mirror 8060 is configured to reflect a second light beam 8054, which is to be projected to the user's eye, toward a viewing assembly. According to some embodiments, the scanning mirror 8060 may be controlled based on the fixation position of the user's eye to dynamically project the second image stream. For example, the scanning mirror 8060 can be in electrical communication with an eye gaze tracker that tracks user eye movements via a control circuit. The control circuitry sends a control signal to cause the second light beam 8054 to project the second image stream onto an area determined to cover the fovea of the user, and based on the user's current fixation point. Scanning mirror 8060 can be tilted and / or translated. In some embodiments, the scanning mirror 8060 can be a microelectromechanical system (MEMS) scanner with two degrees of freedom (ie, it can be scanned in two independent angles).

いくつかの他の実施形態では、走査ミラー8060を使用する代わりに、ディスプレイシステム8000は、固定ミラーを使用することができる。第2の画像ストリームの位置を制御するステップは、第3の光学レンズ8046を横方向に変位させることによって達成されることができる(下記の第3の光学レンズ8046の説明参照)。例えば、第3の光学レンズ8046は、矢印によって示されるように上下におよびページの向こう側およびこちら側に向けて変位され、第2の画像ストリームの位置を2次元で偏移させることができる。   In some other embodiments, instead of using scan mirror 8060, display system 8000 can use fixed mirrors. The step of controlling the position of the second image stream can be accomplished by laterally displacing the third optical lens 8046 (see description of the third optical lens 8046 below). For example, the third optical lens 8046 can be displaced up and down and towards and away from the page, as indicated by the arrow, to shift the position of the second image stream in two dimensions.

いくつかの実施形態では、ディスプレイシステム8000はさらに、偏光ビームスプリッタ8030と走査ミラー8060との間に位置付けられる、偏光回転子8022を含むことができる。偏光回転子8022は、第2の光ビームが、視認アセンブリに入射するにつれて、第1の光ビーム8052のものとほぼ同一偏光を有し得るように、第2の光ビーム8054の偏光を回転させるように構成されることができる。偏光回転子8022は、例えば、半波長板を含むことができる。   In some embodiments, the display system 8000 can further include a polarization rotator 8022 positioned between the polarizing beam splitter 8030 and the scanning mirror 8060. The polarization rotator 8022 rotates the polarization of the second light beam 8054 so that the second light beam may have substantially the same polarization as that of the first light beam 8052 as it enters the viewing assembly. Can be configured as. The polarization rotator 8022 can include, for example, a half wave plate.

いくつかの実施形態では、ディスプレイシステム8000はさらに、第1の光学経路のための第1の中継レンズアセンブリと、第2の光学経路のための第2の中継レンズアセンブリとを含むことができる。第1の中継レンズアセンブリは、画像源8010と偏光ビームスプリッタ8030との間に配置される、第1の光学レンズ8042と、第1の光学経路に沿って偏光ビームスプリッタ8030の下流に配置される、第2の光学レンズ8044とを含むことができる。第2の中継レンズアセンブリは、第1の光学レンズ8042と第2の光学経路に沿って偏光ビームスプリッタ8030の下流に配置される、第3の光学レンズ8046とを含むことができる。   In some embodiments, the display system 8000 can further include a first relay lens assembly for the first optical path and a second relay lens assembly for the second optical path. A first relay lens assembly is disposed between the image source 8010 and the polarizing beam splitter 8030, and a first optical lens 8042 is disposed downstream of the polarizing beam splitter 8030 along a first optical path. , A second optical lens 8044. The second relay lens assembly can include a first optical lens 8042 and a third optical lens 8046 disposed downstream of the polarizing beam splitter 8030 along the second optical path.

図30Cは、いくつかの実施形態による、拡張現実(AR)システムの断面図を図式的に図示する。ARシステムは、いくつかの実施形態によると、図25Aに示されるように、ウェアラブルディスプレイデバイス4050内のディスプレイ4052のうちの1つの中に嵌合されることができる。ARシステムは、第1の画像ストリームと関連付けられた第1の光ビームおよび第2の画像ストリームと関連付けられた第2の光ビームを投影させるための光プロジェクタ8000を含むことができる。光プロジェクタ8000は、図30A−30Bに図示されるディスプレイシステムに類似することができる。ARシステムはさらに、1つ以上の内部結合格子(ICG)8070と、1つ以上の接眼レンズ8080とを含むことができる。各内部結合格子8070は、第1の光ビームおよび第2の光ビームを個別の接眼レンズ8080の中に結合するように構成されることができる。各接眼レンズ8080は、第1の光ビームおよび第2の光ビームをユーザの眼の中に外部結合するための外部結合格子を含むことができる。内部結合格子8070および接眼レンズ8080は、本明細書では、「視認アセンブリ」と称され得る。   FIG. 30C schematically illustrates a cross-sectional view of an augmented reality (AR) system, according to some embodiments. The AR system, according to some embodiments, can be fitted into one of the displays 4052 within the wearable display device 4050, as shown in FIG. 25A. The AR system can include a light projector 8000 for projecting a first light beam associated with the first image stream and a second light beam associated with the second image stream. Light projector 8000 can be similar to the display system illustrated in FIGS. 30A-30B. The AR system can further include one or more internal coupling grating (ICG) 8070 and one or more eyepieces 8080. Each incoupling grating 8070 can be configured to couple the first light beam and the second light beam into a separate eyepiece 8080. Each eyepiece 8080 can include an outcoupling grating for outcoupling the first light beam and the second light beam into the user's eye. The incoupling grating 8070 and the eyepiece 8080 may be referred to herein as the "visual assembly."

図30Dは、いくつかの実施形態による、ディスプレイシステムの簡略化されたブロック図を示す。ディスプレイシステムは、図30A−30Cを参照して上記に実質的に説明されるように、画像源8010と、走査ミラー8060とを含むことができる。ディスプレイシステムはまた、眼視線トラッカ8071と、制御回路8081とを含むことができる。制御回路8081は、画像源8010と、走査ミラー8060と、眼視線トラッカ8071とに通信可能に結合されることができる。制御回路8081は、第2の光ビーム8054が、第2の画像ストリームをユーザの中心窩視を被覆すると決定された領域に投影するように、眼視線トラッカ8071によって決定されるようなユーザの現在の固視点に基づいて、制御信号を送信し、走査ミラー8060を傾斜および/または平行移動させることができる。制御回路8081はまた、上記に議論されるように、適切な画像コンテンツが、第1の画像ストリームおよび第2の画像ストリームに提示されるように、制御信号を画像源8010に送信することができる。ディスプレイシステムはまた、中央処理ユニット(CPU)8096と、グラフィック処理ユニット(GPU)8098と、コンピュータ可読命令、データベース、および制御回路8081、CPU8096、およびGPU8098によって使用可能な他の情報を記憶するための記憶媒体8090とを含むことができる。ディスプレイシステムはさらに、ユーザがディスプレイシステムとの相互作用のために使用し得る、ボタン等の入力−出力(I/O)インターフェース8092を含むことができる。ディスプレイシステムはまた、ディスプレイシステムの別の部分またはインターネットとの無線通信のための無線アンテナ8094を含むことができる。ディスプレイシステムはまた、カメラ等の他のセンサを含むことができる。   FIG. 30D shows a simplified block diagram of a display system, according to some embodiments. The display system can include an image source 8010 and a scanning mirror 8060, substantially as described above with reference to FIGS. 30A-30C. The display system can also include an eye gaze tracker 8071 and a control circuit 8081. The control circuit 8081 can be communicatively coupled to the image source 8010, the scanning mirror 8060, and the eye gaze tracker 8071. The control circuit 8081 controls the current state of the user as determined by the eye gaze tracker 8071 so that the second light beam 8054 projects the second image stream into the area determined to cover the fovea of the user. A control signal may be sent to tilt and / or translate the scanning mirror 8060 based on the fixation point. The control circuit 8081 can also send control signals to the image source 8010 so that the appropriate image content is presented to the first image stream and the second image stream, as discussed above. .. The display system also stores a central processing unit (CPU) 8096, a graphics processing unit (GPU) 8098, computer readable instructions, a database, and control circuitry 8081, a CPU 8096, and other information usable by the GPU 8098. A storage medium 8090 can be included. The display system can further include an input-output (I / O) interface 8092, such as a button, that a user can use to interact with the display system. The display system may also include a wireless antenna 8094 for wireless communication with another part of the display system or the Internet. The display system may also include other sensors such as cameras.

図31Aは、いくつかの実施形態による、第1の中継レンズアセンブリの動作原理を図式的に図示する。第1の中継レンズアセンブリは、望遠鏡に類似する様式で動作することができる。第1の画像ストリームと関連付けられたコリメートされた第1の光ビーム8052が、入射角θで第1の光学レンズ8042上に入射し、第1の光学レンズ8042によって、ほぼ第1の光学レンズ8042の焦点面に位置する実像点Pに集束される。実像点Pはまた、ほぼ第2の光学レンズ8044の焦点面に位置する。したがって、実像点Pから放出される第1の光ビーム8052は、第2の光学レンズ80044によってコリメートされ、θの伝達角で第2の光学レンズ8044から出射する。 FIG. 31A schematically illustrates the operating principle of a first relay lens assembly, according to some embodiments. The first relay lens assembly can operate in a manner similar to a telescope. A collimated first light beam 8052 associated with the first image stream is incident on the first optical lens 8042 at an angle of incidence θ A , and the first optical lens 8042 causes the first optical lens 8042 to approximate the first optical lens. It is focused on the real image point P 0 located at the focal plane of 8042. The real image point P 0 is also located approximately at the focal plane of the second optical lens 8044. Therefore, the first light beam 8052 emitted from the real image point P 0 is collimated by the second optical lens 80044 and exits from the second optical lens 8044 at a transmission angle of θ B.

θとθの比率は、第1の角度拡大率Mを引き起こし得、
である。第1の角度拡大率Mの大きさは、第1の光学レンズ8042fの焦点距離と第2の光学レンズ8044fの焦点距離の比率とほぼ等しくあり得る。したがって、
である。いくつかの実施形態では、第1の中継レンズアセンブリは、第1の角度拡大率Mの大きさが、例えば、
を有することによって、1を上回るように構成される。したがって、再び図30Aを参照すると、第1の画像ストリームと関連付けられたコリメートされた第1の光ビーム8052は、第2の光学レンズ8044から出射するにつれて、第1の中継レンズアセンブリによって角度的に拡大されることができ、これは、次いで、比較的に広い第1の視野FOVを伴う第1の画像ストリームを提示するために、視認アセンブリに投影される。
The ratio of θ B and θ A may cause a first angular magnification factor M 1 .
Is. The magnitude of the first angular magnification M 1 may be approximately equal to the ratio of the focal length of the first optical lens 8042f A and the focal length of the second optical lens 8044f B. Therefore,
Is. In some embodiments, the first relay lens assembly has a magnitude of the first angular magnification M 1 of, for example,
Is configured to exceed 1. Thus, referring again to FIG. 30A, the collimated first light beam 8052 associated with the first image stream is angularly output by the first relay lens assembly as it exits the second optical lens 8044. It can be magnified, which is then projected onto the viewing assembly to present a first image stream with a relatively wide first field of view FOV 1 .

図31Bは、いくつかの実施形態による、第2の中継レンズアセンブリの動作原理を図式的に図示する。第2の中継レンズアセンブリもまた、望遠鏡と類似様式で動作することができる。第2の画像ストリームと関連付けられたコリメートされた第2の光ビーム8054は、入射角θで第1の光学レンズ8042上に入射し、第1の光学レンズ8042によって、ほぼ第1の光学レンズ8042の焦点面に位置する実像点Pに集束される。実像点Pはまた、ほぼ第3の光学レンズ8046の焦点面に位置する。したがって、実像点Pから放出される第2の光ビーム8054は、第3の光学レンズ8046によってコリメートされ、伝達角θで第3の光学レンズ8046から出射する。 FIG. 31B schematically illustrates the operating principle of a second relay lens assembly, according to some embodiments. The second relay lens assembly can also operate in a manner similar to a telescope. The collimated second light beam 8054 associated with the second image stream is incident on the first optical lens 8042 at an angle of incidence θ A , and the first optical lens 8042 causes the first optical lens 8042 to approximate the first optical lens. It is focused on the real image point P 0 located at the focal plane of 8042. The real image point P 0 is also located approximately at the focal plane of the third optical lens 8046. Therefore, the second light beam 8054 emitted from the real image point P 0 is collimated by the third optical lens 8046 and exits from the third optical lens 8046 at the transmission angle θ C.

θとθの比率は、第2の角度拡大率Mを引き起こし得、
である。第2の角度拡大率Mの大きさは、第1の光学レンズ8042fの焦点距離と第3の光学レンズ644fの焦点距離の比率とほぼ等しくあり得る。したがって、
である。第2のレンズアセンブリは、第2の角度拡大率Mの大きさが第1の角度拡大率M未満であるように構成されることができる。いくつかの実施形態では、第2の角度拡大率Mは、例えば、
を有することによって、1の値(すなわち、無拡大)または1未満(すなわち、拡大解除)を有することができる。したがって、再び図30Bを参照すると、第2の画像ストリームと関連付けられたコリメートされた第2の光ビーム8054は、第3の光学レンズ8046から出射するにつれて、第2の視野FOVを有することができ、第2の視野FOVは、第1の画像ストリームと関連付けられた第1の光ビーム8052の第1の視野FOV未満である。
The ratio of θ C and θ A may give rise to a second angular magnification factor M 2 .
Is. The magnitude of the second angular magnification factor M 2 may be approximately equal to the ratio of the focal length of the first optical lens 8042f A and the focal length of the third optical lens 644f C. Therefore,
Is. The second lens assembly can be configured such that the magnitude of the second angular magnification factor M 2 is less than the first angular magnification factor M 1 . In some embodiments, the second angular magnification factor M 2 is, for example,
By having a value of 1 (ie no magnification) or less than 1 (ie demagnification). Thus, referring again to FIG. 30B, the collimated second light beam 8054 associated with the second image stream may have a second field of view FOV 2 as it exits the third optical lens 8046. Yes, the second field of view FOV 2 is less than the first field of view FOV 1 of the first light beam 8052 associated with the first image stream.

図31Aでは、コリメートされた第1の光ビーム8052は、第1の光学レンズ8042上に入射する際、初期ビーム幅wを有し、第2の光学レンズ8044から出射する際、最終ビーム幅wを有し、最終ビーム幅wは、初期ビーム幅wより狭いことに留意されたい。また、図31Bでは、コリメートされた第2の光ビーム8054は、第1の光学レンズ8042上に入射する際、初期ビーム幅wを有し、第3の光学レンズ8046から出射する際、最終ビーム幅wを有し、最終ビーム幅wは、初期ビーム幅wとほぼ同一であることに留意されたい。言い換えると、第2の光ビーム8054の最終ビーム幅wは、第1の光ビーム8052の最終ビーム幅wより広い。より広いビーム幅は、眼によって知覚される、より鮮明な角度分解能をもたらすであろう。これは、ガウスビーム物理学によって説明されることができ、より広いビームウェストを伴うコリメートされたビームは、無限遠までの伝搬にわたって、より低い角度発散を有する。したがって、FOVを増加させることは、ビーム幅を低減させ得、故に、角度分解能を低減させ得、これは、Lagrange不変量と一致する。 In FIG. 31A, the collimated first light beam 8052 has an initial beam width w A when it is incident on the first optical lens 8042 and a final beam width when it exits the second optical lens 8044. has a w B, the final beam width w B it is noted that the narrower than the initial beam width w a. Also, in FIG. 31B, the collimated second light beam 8054 has an initial beam width w A when it is incident on the first optical lens 8042 and a final beam width when it exits the third optical lens 8046. has a beam width w C, final beam width w C it should be noted that it is approximately the same as the initial beam width w a. In other words, the final beam width w C of the second light beam 8054 is wider than the final beam width w B of the first light beam 8052. The wider beamwidth will result in a sharper angular resolution perceived by the eye. This can be explained by Gaussian beam physics, where collimated beams with wider beam waists have lower angular divergence over propagation to infinity. Therefore, increasing the FOV may reduce the beamwidth and hence the angular resolution, which is consistent with the Lagrange invariant.

いくつかの実施形態では、第1の角度拡大率Mは、約3の大きさを有することができ、第2の角度拡大率Mは、約1の大きさを有することができる。図30A−30Bを参照すると、第1の画像ストリームと関連付けられたコリメートされた第1の光ビーム8052および第2の画像ストリームと関連付けられたコリメートされた第2の光ビーム8054は、画像源8010によって投影された約20度の同一初期FOVを有すると仮定する。第2の光学レンズ644から出射するコリメートされた第1の光ビーム8052は、約60度の第1の視野FOVを有することができる一方、第3の光学レンズ8046から出射するコリメートされた第2の光ビーム654は、約20度の第2の視野FOVを有することができる。いくつかの実施形態では、第1のFOVは、約30度〜約90度に及ぶことができ、第2のFOVは、約10度〜約30度に及ぶことができる。 In some embodiments, the first angular magnification factor M 1 can have a magnitude of about 3 and the second angular magnification factor M 2 can have a magnitude of about 1. 30A-30B, a collimated first light beam 8052 associated with a first image stream and a collimated second light beam 8054 associated with a second image stream are image sources 8010. Suppose we have the same initial FOV of about 20 degrees projected by. The collimated first light beam 8052 exiting the second optical lens 644 may have a first field of view FOV 1 of about 60 degrees, while the collimated first light beam 8052 exits the third optical lens 8046. The second light beam 654 may have a second field of view FOV 2 of about 20 degrees. In some embodiments, the first FOV can range from about 30 degrees to about 90 degrees and the second FOV can range from about 10 degrees to about 30 degrees.

図28C−28Dに図示されるように、第2の画像ストリーム6020は、第1の画像ストリーム6010の部分の高分解能バージョンであることができ、広FOVおよび低分解能の第1の画像ストリーム6010上にオーバーレイされ、それに対して適切に整合される。第2の画像ストリーム6020のコンテンツは、第2の画像ストリーム6020のコンテンツが、第2の画像ストリーム6020によってオーバーレイされた第1の画像ストリーム6010の部分に対応するように、第2の画像ストリームが第1の画像ストリーム6010に対して偏移するにつれて変化する。第2の画像ストリーム6020は、ユーザの中心窩視を持続的に被覆するため、ユーザは、広FOVおよび高分解能の両方を有する合成画像ストリームとして、第1の画像ストリーム6010および第2の画像ストリーム6020の組み合わせを知覚することができる。   As illustrated in FIGS. 28C-28D, the second image stream 6020 can be a high resolution version of a portion of the first image stream 6010, on the wide FOV and low resolution first image stream 6010. Is overlaid on and properly matched to. The content of the second image stream 6020 is such that the content of the second image stream 6020 corresponds to the portion of the first image stream 6010 overlaid by the second image stream 6020. It changes as it shifts with respect to the first image stream 6010. Since the second image stream 6020 continuously covers the fovea of the user, the user can view the first image stream 6010 and the second image stream as a composite image stream with both wide FOV and high resolution. 6020 combinations can be perceived.

図31C−31Dは、いくつかの他の実施形態による、ディスプレイシステム10000を図式的に図示する。ディスプレイシステム10000は、画像源9010と、ビームスプリッタ9030とを含む。画像源9010は、第1の画像ストリームと関連付けられた第1の光ビーム8052と、第2の画像ストリームと関連付けられた第2の光ビーム8054とを提供することができる。第1の光ビーム8052および第2の光ビーム8054は、時分割多重化、偏光分割多重化、波長分割多重化、または同等物が行われることができる。ビームスプリッタ9030は、デマルチプレクサとしての役割を果たし、それぞれ、図31Cおよび31Dに描写されるように、第1の光ビーム8052および第2の光ビーム8054を第1の光学経路および第2の光学経路に向かって分離することができる。   31C-31D schematically illustrate a display system 10000 according to some other embodiments. Display system 10000 includes an image source 9010 and a beam splitter 9030. The image source 9010 can provide a first light beam 8052 associated with the first image stream and a second light beam 8054 associated with the second image stream. The first light beam 8052 and the second light beam 8054 can be time division multiplexed, polarization division multiplexed, wavelength division multiplexed, or the like. Beamsplitter 9030 acts as a demultiplexer, directing first light beam 8052 and second light beam 8054 into a first optical path and a second optical beam as depicted in FIGS. 31C and 31D, respectively. It can be separated towards the path.

ディスプレイシステム10000はまた、第1の光学経路に沿ってビームスプリッタ9030の下流に配置される、第1の光学レンズ9042と、第2の光学レンズ9044とを含むことができる。第1の光学レンズ9042および第2の光学レンズ9044の組み合わせは、第1の光ビーム8052のための第1の中継レンズアセンブリとしての役割を果たすことができる。いくつかの実施形態では、第1の中継レンズアセンブリは、図31Aに関して上記に説明されるように、1を上回る、第1の光ビーム8052のための角度拡大率を提供することができる。   The display system 10000 can also include a first optical lens 9042 and a second optical lens 9044 disposed downstream of the beam splitter 9030 along the first optical path. The combination of the first optical lens 9042 and the second optical lens 9044 can serve as a first relay lens assembly for the first light beam 8052. In some embodiments, the first relay lens assembly can provide an angular magnification factor for the first light beam 8052 of greater than 1, as described above with respect to FIG. 31A.

ディスプレイシステム10000はまた、第2の光学経路に沿ってビームスプリッタ9030の下流に配置される、第3の光学レンズ9045と、第4の光学レンズ9046とを含むことができる。第3の光学レンズ9045および第4の光学レンズ9046の組み合わせは、第2の光ビーム8054のための第2の中継レンズアセンブリとしての役割を果たすことができる。いくつかの実施形態では、第2の中継レンズアセンブリは、図31Bに関して上記に説明されるように、実質的に1または1未満である、第2の光ビーム8054のための角度拡大率を提供することができる。   The display system 10000 can also include a third optical lens 9045 and a fourth optical lens 9046 disposed downstream of the beamsplitter 9030 along the second optical path. The combination of the third optical lens 9045 and the fourth optical lens 9046 can serve as a second relay lens assembly for the second light beam 8054. In some embodiments, the second relay lens assembly provides an angular magnification factor for the second light beam 8054 that is substantially 1 or less than 1 as described above with respect to FIG. 31B. can do.

ディスプレイシステム10000はまた、第2の光学経路に沿って第2の中継レンズアセンブリの下流に位置付けられる、走査ミラー9060を含むことができる。走査ミラー9060は、ユーザの眼に投影されることになる第2の光ビーム8054を視認アセンブリに向かって反射させるように構成される。いくつかの実施形態によると、走査ミラー9060は、第2の画像ストリームを動的に投影させるために、ユーザの眼の固定位置に基づいて制御されることができる。   Display system 10000 can also include a scanning mirror 9060 positioned downstream of the second relay lens assembly along the second optical path. Scanning mirror 9060 is configured to reflect a second light beam 8054, which is to be projected to the user's eye, toward a viewing assembly. According to some embodiments, the scanning mirror 9060 can be controlled based on the fixed position of the user's eye to dynamically project the second image stream.

ディスプレイシステム10000はまた、第2の光学経路に沿って走査ミラー9060の下流に配置される、第5の光学レンズ9047と、第6の光学レンズ9048とを含むことができる。第5の光学レンズ9047および第6の光学レンズ9048の組み合わせは、第2の光ビーム8054のための第3の中継レンズアセンブリとしての役割を果たすことができる。いくつかの実施形態では、第3の中継レンズアセンブリは、図31Bに関して上記に説明されるように、実質的に1または1未満である、第2の光ビーム8054のための角度拡大率を提供することができる。   The display system 10000 can also include a fifth optical lens 9047 and a sixth optical lens 9048 disposed downstream of the scan mirror 9060 along the second optical path. The combination of the fifth optical lens 9047 and the sixth optical lens 9048 can serve as a third relay lens assembly for the second light beam 8054. In some embodiments, the third relay lens assembly provides an angular magnification factor for the second light beam 8054 that is substantially 1 or less than 1 as described above with respect to FIG. 31B. can do.

いくつかの実施形態では、ディスプレイシステム10000はまた、偏光器9080と、切替偏光回転子9090とを含むことができる。画像源9010は、非偏光第1の光ビーム8052と、非偏光第2の光ビーム8054とを提供することができ、これは、時分割多重化される。第1の光ビーム652および第2の光ビーム654は、偏光器9080を通して通過後、偏光され得る。切替偏光回転子9090は、第1の光ビーム8052および第2の光ビーム8054の時分割多重化と同期して動作されることができる。例えば、切替偏光回転子9090は、第1の光ビーム8052の偏光が、切替回転子9090を通して通過後、不変である一方、第2の光ビーム8054の偏光が、切替偏光回転子9090を通して通過後、90度回転される、またはその逆となるように、動作されることができる。したがって、第1の光ビーム8052は、偏光ビームスプリッタ9030によって、図31Cに図示されるように、第1の光学経路に沿って反射されることができ、第2の光ビーム8054は、偏光ビームスプリッタ9030によって、図31Dに図示されるように、第2の光学経路に沿って透過されることができる。   In some embodiments, the display system 10000 can also include a polarizer 9080 and a switching polarization rotator 9090. Image source 9010 can provide an unpolarized first light beam 8052 and an unpolarized second light beam 8054, which are time division multiplexed. First light beam 652 and second light beam 654 may be polarized after passing through polarizer 9080. The switching polarization rotator 9090 can be operated synchronously with the time division multiplexing of the first light beam 8052 and the second light beam 8054. For example, the switching polarization rotator 9090 is such that the polarization of the first light beam 8052 is unchanged after passing through the switching rotator 9090, while the polarization of the second light beam 8054 is passing through the switching polarization rotator 9090. , Rotated 90 degrees, or vice versa. Thus, the first light beam 8052 can be reflected by the polarizing beam splitter 9030 along the first optical path, as illustrated in FIG. 31C, and the second light beam 8054 can be polarized light. The splitter 9030 may allow transmission along the second optical path, as illustrated in FIG. 31D.

図32A−32Cは、いくつかの他の実施形態による、ディスプレイシステム10000を図式的に図示する。いくつかの実施例では、ディスプレイシステム10000の1つ以上のコンポーネントは、図31C−31Dを参照して上記に説明されるようなディスプレイシステムの1つ以上のコンポーネントと同一または類似してもよい。ディスプレイシステム10000は、いくつかの実施例では、それぞれ、図31C−31Dを参照して上記に説明されるようなディスプレイシステムの要素9010、9030、9042、9044、9045、9046、9047、9048、9060、9080、および9090と同一または類似し得る、画像源10010と、ビームスプリッタ10030と、第1の光学レンズ10042と、第2の光学レンズ10044と、第3の光学レンズ10045と、第4の光学レンズ10046と、第5の光学レンズ10047と、第6の光学レンズ10048と、走査ミラー10060と、偏光器10080と、切替偏光回転子10090とを含む。   32A-32C schematically illustrate a display system 10000 according to some other embodiments. In some examples, one or more components of display system 10000 may be the same or similar to one or more components of a display system as described above with reference to FIGS. 31C-31D. The display system 10000, in some embodiments, respectively includes elements 9010, 9030, 9042, 9044, 9045, 9046, 9047, 9048, 9060 of the display system as described above with reference to FIGS. 31C-31D, respectively. , 9080, and 9090, which may be the same as or similar to image source 10010, beam splitter 10030, first optical lens 10042, second optical lens 10044, third optical lens 10045, and fourth optical lens 10045. It includes a lens 10046, a fifth optical lens 10047, a sixth optical lens 10048, a scanning mirror 10060, a polarizer 10080, and a switching polarization rotator 10090.

より具体的には、図32A−32Cは、3つの異なる段階のそれぞれにおける、ディスプレイシステム10000を図示する。3つの段階のそれぞれでは、画像源10010は、頭部追跡仮想カメラの視点から捕捉されるであろうような仮想コンテンツを表す角度ライトフィールド成分の範囲と、中心窩追跡仮想カメラの視点から捕捉されるであろうような仮想コンテンツを表す角度ライトフィールド成分の範囲とを出力することができる。2セットの角度ライトフィールド成分は、例えば、時分割多重化、偏光分割多重化、波長分割多重化、または同等物を行われてもよい。したがって、頭部追跡仮想カメラと関連付けられた角度ライトフィールド成分は、偏光ビームスプリッタ10030によって、第1の光学経路に沿って、第1および第2の光学レンズ10042および10044を通して上向きに転換されることができ、中心窩追跡仮想カメラと関連付けられた角度ライトフィールド成分は、偏光ビームスプリッタ10030を通して、第2の光学経路に沿って、第3および第4の光学レンズ10045および10046を通して、走査ミラー10060に向かって通過し、第5および第6の光学レンズ10047および10048を通して上向きに反射されることができる。   More specifically, FIGS. 32A-32C illustrate display system 10000 in each of three different stages. In each of the three stages, the image source 10010 is captured from the perspective of the foveal tracking virtual camera, and the range of angular light field components that represent virtual content as would be captured from the perspective of the head tracking virtual camera. And a range of angular light field components representing the virtual content as would be output. The two sets of angular light field components may be time division multiplexed, polarization division multiplexed, wavelength division multiplexed, or the like, for example. Therefore, the angular light field component associated with the head-tracking virtual camera is redirected upward by the polarizing beamsplitter 10030 along the first optical path through the first and second optical lenses 10042 and 10044. And the angular light field component associated with the foveal tracking virtual camera is passed through polarizing beam splitter 10030, along a second optical path, through third and fourth optical lenses 10045 and 10046 to scanning mirror 10060. Can be passed through and reflected upward through the fifth and sixth optical lenses 10047 and 10048.

頭部追跡仮想カメラと関連付けられた角度ライトフィールド成分によって表される仮想コンテンツは、画像源10010から上流に比較的に低分解能でレンダリングされ得る一方、中心窩追跡仮想カメラと関連付けられた角度ライトフィールド成分によって表される仮想コンテンツは、画像源10010から上流に比較的に高分解能でレンダリングされ得る。また、図32A−32Cに示されるように、ディスプレイシステム10000は、それぞれ、高FOVおよび低FOVライトフィールドとして、頭部追跡レンダリング視点と関連付けられた角度ライトフィールド成分と、中心窩追跡レンダリング視点と関連付けられた角度ライトフィールド成分とを出力するように構成されてもよい。図32A−32Cのそれぞれでは、第1の光学経路に沿って伝搬するライトフィールド成分は、光10052の比較的に広円錐として、ディスプレイシステム10000によって出力される。   The virtual content represented by the angular light field component associated with the head tracking virtual camera may be rendered at a relatively low resolution upstream from the image source 10010, while the angular light field associated with the foveal tracking virtual camera. The virtual content represented by the components can be rendered at relatively high resolution upstream from the image source 10010. Also, as shown in FIGS. 32A-32C, the display system 10000 associates an angular light field component associated with a head-tracking rendering viewpoint and a foveal tracking rendering viewpoint as a high FOV and low FOV light field, respectively. And an output angular light field component. In each of FIGS. 32A-32C, the light field component propagating along the first optical path is output by the display system 10000 as a relatively wide cone of light 10052.

図32Aに描写される段階では、走査ミラー10060は、第1の位置にある。したがって、偏光ビームスプリッタ10030を通して通過し、第2の光学経路に沿って伝搬する、ライトフィールド成分は、ディスプレイシステム10000によって、角度空間の実質的に中心領域に及ぶ光10054Aの比較的に狭い円錐として出力されることが分かる。図28A−28Bを参照して上記に説明される実施例のコンテキスト内では、ディスプレイシステム10000は、例えば、ユーザの眼が図28Aにおける視認者の眼210のものに類似する様式で配向されると、走査ミラー10060を図32Aに示される第1の位置に設置し得る。このように、光成分10054Aは、仮想オブジェクト6012等の仮想コンテンツをレンダリング空間の比較的に中心領域に表し得る。図28A−28Bの実施例に付け加えて、光10052の比較的に広円錐は、例えば、仮想オブジェクト6011および6013等の仮想コンテンツをレンダリング空間の中心からずれた領域内に含んでもよい。いくつかの実施例では、光10052の比較的に広円錐はさらに、光成分10054Aによって表されるようなものであるが、より低い分解能における、同一仮想コンテンツを表す、光成分を含んでもよい。   At the stage depicted in FIG. 32A, scan mirror 10060 is in the first position. Thus, the light field component passing through the polarizing beam splitter 10030 and propagating along the second optical path is displayed by the display system 10000 as a relatively narrow cone of light 10054A that spans substantially the central region of the angular space. You can see that it is output. In the context of the embodiments described above with reference to FIGS. 28A-28B, display system 10000 may be configured such that, for example, a user's eye is oriented in a manner similar to that of viewer's eye 210 in FIG. 28A. , Scan mirror 10060 may be installed in the first position shown in FIG. 32A. As such, the light component 10054A may represent virtual content, such as virtual object 6012, in a relatively central region of the rendering space. 28A-28B, the relatively wide cone of light 10052 may include virtual content, such as virtual objects 6011 and 6013, in an off-center region of the rendering space. In some embodiments, the relatively broad cone of light 10052 may also include light components, such as represented by light component 10054A, but representing the same virtual content at a lower resolution.

図32Bに描写される段階では、走査ミラー10060は、第1の位置と異なる第2の位置にある。したがって、偏光ビームスプリッタ10030を通して通過し、第2の光学経路に沿って伝搬する、ライトフィールド成分は、ディスプレイシステム10000によって、角度空間の1つの実質的に中心からずれた領域に及ぶ光10054Bの比較的に狭い円錐として出力されることが分かる。図28A−28Bを参照して上記に説明される実施例のコンテキスト内では、ディスプレイシステム10000は、例えば、視認者が仮想オブジェクト6011を見ている間、ユーザの眼が視認者の眼210のものに類似する様式で配向されると、走査ミラー10060を図32Bに示される第2の位置に設置し得る。このように、光成分10054Bは、仮想オブジェクト6011等の仮想コンテンツをレンダリング空間の1つの比較的に中心からずれた領域内に表し得る。図28A−28Bの実施例に付け加えて、光10052の比較的に広円錐は、例えば、仮想オブジェクト6013等の仮想コンテンツをレンダリング空間の他の中心からずれた領域内に、仮想オブジェクト6012等の仮想コンテンツをレンダリング空間の中心領域内に含んでもよい。いくつかの実施例では、光10052の比較的に広円錐はさらに、光成分10054Bによって表されるようなものであるが、より低い分解能における、同一仮想コンテンツを表す。光成分を含んでもよい。   At the stage depicted in FIG. 32B, the scanning mirror 10060 is in a second position different from the first position. Thus, the light field component passing through the polarizing beamsplitter 10030 and propagating along the second optical path is compared by the display system 10000 with the light 10054B spanning one substantially off-centered region of angular space. It can be seen that the output is a narrow cone. In the context of the embodiments described above with reference to FIGS. 28A-28B, the display system 10000 may be such that the user's eye is the viewer's eye 210 while the viewer is looking at the virtual object 6011, for example. When oriented in a manner similar to, scan mirror 10060 may be placed in the second position shown in FIG. 32B. Thus, light component 10054B may represent virtual content, such as virtual object 6011, within one relatively off-center region of rendering space. In addition to the embodiments of FIGS. 28A-28B, the relatively wide cone of light 10052 allows virtual content, such as virtual object 6013, to appear within regions off-center of virtual content, such as virtual object 6013, in the rendering space. Content may be included within the central region of the rendering space. In some embodiments, the relatively wide cone of light 10052 further represents the same virtual content, such as represented by light component 10054B, but at a lower resolution. It may include a light component.

図32Cに描写される段階では、走査ミラー10060は、第1および第2の位置と異なる第3の位置にある。したがって、偏光ビームスプリッタ10030を通して通過し、第2の光学経路に沿って伝搬する、ライトフィールド成分は、ディスプレイシステム10000によって、角度空間の別の異なる実質的に中心からずれた領域に及ぶ光10054Cの比較的に狭い円錐として出力されることが分かる。図28A−28Bを参照して上記に説明される実施例のコンテキスト内では、ディスプレイシステム10000は、例えば、ユーザの眼が図28Bにおける視認者の眼210のものに類似する様式で配向されると、走査ミラー10060を図32Cに示される第2の位置に設置し得る。このように、光成分10054Cは、仮想オブジェクト6013等の仮想コンテンツをレンダリング空間の他の比較的に中心からずれた領域に表し得る。図28A−28Bの実施例に付け加えて、光10052の比較的に広円錐は、例えば、仮想オブジェクト6011等の仮想コンテンツを図32Bを参照して上記に説明されるレンダリング空間の中心からずれた領域内に、仮想オブジェクト6012等の仮想コンテンツをレンダリング空間の中心領域内に含んでもよい。いくつかの実施例では、光10052の比較的に広円錐はさらに、光コンポーネント10054Cによって表されるようなものであるが、より低い分解能における、同一仮想コンテンツを表す、光成分を含んでもよい。   At the stage depicted in FIG. 32C, the scanning mirror 10060 is in a third position different from the first and second positions. Thus, the light field component passing through the polarizing beam splitter 10030 and propagating along the second optical path of the light 10054C is spread by the display system 10000 to another different substantially decentered region of the angular space. It can be seen that the output is as a relatively narrow cone. In the context of the embodiments described above with reference to FIGS. 28A-28B, display system 10000 may be configured such that, for example, a user's eye is oriented in a manner similar to that of viewer's eye 210 in FIG. 28B. , Scan mirror 10060 may be installed in the second position shown in FIG. 32C. As such, light component 10054C may represent virtual content, such as virtual object 6013, in another relatively off-center region of the rendering space. In addition to the embodiments of FIGS. 28A-28B, the relatively wide cone of light 10052 causes the virtual content, such as virtual object 6011, to be offset from the center of the rendering space described above with reference to FIG. 32B. Virtual content such as virtual object 6012 may be included within the central region of the rendering space. In some embodiments, the relatively wide cone of light 10052 may also include light components, such as represented by light component 10054C, but representing the same virtual content at a lower resolution.

図33A−33Bは、いくつかの実施形態による、第1の画像ストリームおよび第2の画像ストリームを提示するためのディスプレイシステム11000を図式的に図示し、時分割多重化が、第1の画像ストリームと関連付けられた第1の光ビーム8052および第2の画像ストリームと関連付けられた第2の光ビーム8054を多重化するために使用される。ディスプレイシステム11000は、ディスプレイシステム8000に類似する。画像源11010は、時分割多重化された第1の光ビーム8052および第2の光ビーム8054を提供するように構成されることができる。第1の光ビーム8052および第2の光ビーム8054は、画像源8010から出力されたものと同一偏光状態にあることができる。第1の光ビーム8052および第2の光ビーム8054は、概略光線として、図33A−33Bに描写され、これは、正確な光線をトレースした光線を表すことを意図するものではないことに留意されたい。   33A-33B schematically illustrate a display system 11000 for presenting a first image stream and a second image stream, where time division multiplexing is performed on the first image stream, according to some embodiments. Used to multiplex a first light beam 8052 associated with a second light beam 8054 associated with a second image stream. Display system 11000 is similar to display system 8000. The image source 11010 can be configured to provide a time division multiplexed first light beam 8052 and a second light beam 8054. The first light beam 8052 and the second light beam 8054 can be in the same polarization state as that output from the image source 8010. It is noted that first light beam 8052 and second light beam 8054 are depicted in FIGS. 33A-33B as schematic rays, which are not intended to represent the exact ray traced rays. I want to.

ディスプレイシステム11000はさらに、切替偏光回転子11020を含むことができ、その動作は、第1の光ビーム8052および第2の光ビーム8054の時分割多重化と同期されることができる。例えば、切替偏光回転子11020は、第1の光ビーム8052の偏光が、切替回転子11020を通して通過後、不変である一方、第2の光ビーム8054の偏光が、切替偏光回転子11020を通して通過後、90度回転される、またはその逆となるように動作されることができる。したがって、第1の光ビーム8052は、偏光ビームスプリッタ8030によって、図33Aに図示されるように、第1の光学経路に沿って反射されることができ、第2の光ビーム8054は、偏光ビームスプリッタ8030によって、図33Bに図示されるように、第2の光学経路に沿って透過されることができる。   The display system 11000 can further include a switching polarization rotator 11020, the operation of which can be synchronized with time division multiplexing of the first light beam 8052 and the second light beam 8054. For example, the switching polarization rotator 11020 is such that the polarization of the first light beam 8052 is unchanged after passing through the switching rotator 11020, while the polarization of the second light beam 8054 is passing through the switching polarization rotator 11020. , Rotated 90 degrees, or vice versa. Accordingly, the first light beam 8052 can be reflected by the polarizing beam splitter 8030 along the first optical path, as illustrated in FIG. 33A, and the second light beam 8054 can be polarized light. The splitter 8030 may allow transmission along the second optical path, as illustrated in Figure 33B.

いくつかの他の実施形態では、切替偏光回転子11020は、画像源11010の一部であることができる。そのような場合、第1の光ビーム8052および第2の光ビーム8054は、順次放出され、画像源8010から投影された第1の光ビーム8052は、第1の方向に偏光され、画像源8010から投影された第2の光ビーム8054は、第2の方向に偏光されるであろう。   In some other embodiments, the switching polarization rotator 11020 can be part of the image source 11010. In such a case, the first light beam 8052 and the second light beam 8054 are sequentially emitted, and the first light beam 8052 projected from the image source 8010 is polarized in the first direction and the image source 8010. The second light beam 8054 projected from will be polarized in the second direction.

いくつかの実施形態によると、第1の画像ストリームと関連付けられた第1の光ビーム8052および第2の画像ストリームと関連付けられた第2の光ビーム8054が、時分割多重化される場合、切替可能ミラーが、図30A−30B、31C−31D、および33A−33Bに示される偏光ビームスプリッタ8030の代わりに使用されることができる。切替可能ミラーの切替は、第1の光ビーム8052および第2の光ビーム8054の時分割多重化と同期されることができる。例えば、切替可能ミラーは、ミラーが、図30A、31C、および33Aに図示されるように、第1の光ビーム8052を第1の光学経路に沿って反射させるように動作するように、第1の光ビーム8052のために第1の状態に切り替えられ、透明光学要素が、図30B、31D、および33Bに図示されるように、第2の光ビーム8054を第2の光学経路に沿って透過させるように動作するように、第2の光ビーム8054のために第2の状態に切り替えられることができる。   According to some embodiments, switching a first light beam 8052 associated with a first image stream and a second light beam 8054 associated with a second image stream when time division multiplexed. Possible mirrors can be used in place of the polarizing beam splitter 8030 shown in FIGS. 30A-30B, 31C-31D, and 33A-33B. Switching of the switchable mirror can be synchronized with time division multiplexing of the first light beam 8052 and the second light beam 8054. For example, the switchable mirror may have a first mirror such that the mirror operates to reflect a first light beam 8052 along a first optical path, as illustrated in FIGS. 30A, 31C, and 33A. Of the second light beam 8054 is switched to a first state for transmission of the second light beam 8054 along the second optical path as shown in FIGS. 30B, 31D, and 33B. The second state can be switched for the second light beam 8054 to operate as to.

いくつかの実施形態によると、波長分割多重化は、第1の画像ストリームと関連付けられた第1の光ビームおよび第2の画像ストリームと関連付けられた第2の光ビームを多重化するために使用されることができる。例えば、第1の光ビームは、赤色、緑色、および青色光における、第1のセットの波長範囲内の光から成ることができ、第2の光ビームは、赤色、緑色、および青色光における、第2のセットの波長範囲内の光から成ることができる。2セットの波長範囲は、相互に対して偏移されることができるが、第2のセットの波長範囲の合成は、第1のセットの波長範囲の合成によって生産された白色光と実質的に同一である、白色光を生産する。   According to some embodiments, wavelength division multiplexing is used to multiplex a first light beam associated with a first image stream and a second light beam associated with a second image stream. Can be done. For example, the first light beam can consist of light within the first set of wavelength ranges for red, green, and blue light, and the second light beam for red, green, and blue light, It can consist of light within the second set of wavelength ranges. The two sets of wavelength ranges can be offset with respect to each other, but the combination of the second set of wavelength ranges is substantially the same as the white light produced by the combination of the first set of wavelength ranges. It produces the same, white light.

波長分割多重化が使用される場合、ディスプレイシステムは、偏光ビームスプリッタに取って代わり、第1の画像ストリームと関連付けられた第1の光ビームおよび第2の画像ストリームと関連付けられた第2の光ビームを分離する、ダイクロイックビームスプリッタを含むことができる。例えば、ダイクロイックビームスプリッタは、第1のセットの波長範囲のための高反射率値および低透過率値と、第2のセットの波長範囲のための低反射率値および高透過率値とを有するように構成されることができる。いくつかの実施形態では、第1の光ビームおよび第2の光ビームは、切替可能偏光回転子の必要なく、並行して投影されることができる。   When wavelength division multiplexing is used, the display system replaces the polarizing beamsplitter and includes a first light beam associated with the first image stream and a second light beam associated with the second image stream. A dichroic beamsplitter may be included to separate the beams. For example, a dichroic beam splitter has high reflectance and low transmittance values for a first set of wavelength ranges and low reflectance and high transmittance values for a second set of wavelength ranges. Can be configured as. In some embodiments, the first light beam and the second light beam can be projected in parallel without the need for a switchable polarization rotator.

図34A−34Bは、いくつかの他の実施形態による、ディスプレイシステム12000を図式的に図示する。ディスプレイシステム12000は、画像源12010を含む。画像源12010は、図34Aに図示されるような第1の画像ストリームと関連付けられた第1の光ビーム12052と、図34Bに図示されるような第2の画像ストリームと関連付けられた第2の光ビーム12054とを投影するように構成されることができる。第1の画像ストリームは、図26E−26Fを参照して上記に議論されるように、広FOVおよび低分解能画像ストリームであることができ、第2の画像ストリームは、狭FOVおよび高分解能画像ストリームであることができる。第1の光ビーム12052および第2の光ビーム12054は、例えば、偏光分割多重化、時分割多重化、波長分割多重化、および同等物を使用して、多重化されることができる。図34A−34Bでは、第1の光ビーム12052および第2の光ビーム12054は、概略光線として描写され、これは、正確な光線をトレースした光線を表すことを意図するものではない。   34A-34B schematically illustrate a display system 12000 according to some other embodiments. Display system 12000 includes an image source 12010. Image source 12010 includes a first light beam 12052 associated with a first image stream as illustrated in FIG. 34A and a second light beam 12052 associated with a second image stream as illustrated in FIG. 34B. The light beam 12054 can be configured to project. The first image stream can be a wide FOV and low resolution image stream and the second image stream can be a narrow FOV and high resolution image stream, as discussed above with reference to FIGS. 26E-26F. Can be The first light beam 12052 and the second light beam 12054 can be multiplexed using, for example, polarization division multiplexing, time division multiplexing, wavelength division multiplexing, and the like. In FIGS. 34A-34B, the first light beam 12052 and the second light beam 12054 are depicted as schematic rays, which are not intended to represent exact ray traced rays.

ディスプレイシステム12000はさらに、いくつかの実施形態によると、第1の光ビーム12052および第2の光ビーム12054を多重化解除するように構成される、ビームスプリッタ12030を含むことができる。例えば、ビームスプリッタ12030は、偏光ビームスプリッタ(PBS)またはダイクロイックビームスプリッタであることができる。ビームスプリッタ12030は、図34Aに図示されるように、第1の光ビーム12052を第1の光学経路に沿って反射させ、図34Bに図示されるように、第2の光ビーム12054を第2の光学経路に沿って透過させるように構成されることができる。   The display system 12000 may further include a beam splitter 12030 configured to demultiplex the first light beam 12052 and the second light beam 12054, according to some embodiments. For example, the beam splitter 12030 can be a polarizing beam splitter (PBS) or a dichroic beam splitter. The beamsplitter 12030 reflects the first light beam 12052 along the first optical path as shown in FIG. 34A and the second light beam 12054 as the second light beam 12054 as shown in FIG. 34B. Can be configured to transmit along the optical path of the.

ディスプレイシステム12000はさらに、切替可能光学要素12040を含むことができる。切替可能光学要素12040は、単一要素として図示されるが、切替可能中継レンズアセンブリとして機能する、一対のサブ切替可能光学要素も含むことができる。各サブ切替可能光学要素は、第1の屈折力を伴う光学レンズとして動作するように、第1の状態に切り替えられる、または第1の屈折力と異なる第2の屈折力を伴う光学レンズとして動作するように、第2の状態に切り替えられることができる。したがって、切替可能光学要素12040は、サブ切替可能光学要素が、図34Aに図示されるように、第1の状態に切り替えられると、第1の角度拡大率を、サブ切替可能光学要素が、図34Bに図示されるように、第1の状態に切り替えられると、第1の角度拡大率と異なる第2の角度拡大率を提供することができる。   Display system 12000 can further include switchable optical element 12040. Switchable optical element 12040 is shown as a single element, but can also include a pair of sub-switchable optical elements that function as a switchable relay lens assembly. Each sub-switchable optical element is switched to a first state or operates as an optical lens with a second optical power different from the first optical power so that it operates as an optical lens with a first optical power. The second state can be switched to, Therefore, the switchable optical element 12040 is configured such that when the sub-switchable optical element is switched to the first state, as shown in FIG. As illustrated at 34B, when switched to the first state, a second angular magnification ratio different from the first angular magnification ratio can be provided.

各サブ切替可能光学要素は、例えば、液晶可変焦点レンズ、同調可能回折レンズ、または変形可能レンズを含む、多くの形態をとることができる。一般に、形状または構成を変化させ、その屈折力を調節するように構成され得る、任意のレンズが、適用され得る。いくつかの実施形態では、各サブ切替可能光学要素は、第1の偏光を伴う光のための第1の屈折力と、第2の偏光を伴う光のための第1の屈折力と実質的に異なる第2の屈折力とを有する、多焦点複屈折レンズであることができる。例えば、多焦点複屈折レンズは、ポリマーが通常の屈折率nおよび余剰屈折率nを呈するように、定義された条件下におけるポリマーを伸展させることによる配向プロセスによって複屈折にされている、ポリマーを備えることができる。 Each sub-switchable optical element can take many forms, including, for example, a liquid crystal variable focus lens, a tunable diffractive lens, or a deformable lens. In general, any lens that can be configured to change shape or configuration and adjust its refractive power may be applied. In some embodiments, each sub-switchable optical element has substantially a first optical power for light with a first polarization and a first optical power for light with a second polarization. Can be a multifocal birefringent lens having a different second power. For example, multifocal birefringent lens, such that the polymer exhibits a normal refractive index n o and the surplus refractive index n e, is the birefringence by the orientation process by which stretch the polymer under the conditions defined, A polymer can be included.

第1の光ビーム12052および第2の光ビーム12054が時分割多重化される場合、切替可能光学要素12040の切替は、各サブ切替可能光学要素が、図34Aに図示されるように、第1の光ビーム12052のための第1の屈折力を伴う光学レンズとして動作し、図34Bに図示されるように、第2の光ビーム12054のための第2の屈折力を伴う光学レンズとして動作するように、第1の光ビーム12052および第2の光ビーム12054の時分割多重化と同期されることができる。したがって、第1の画像ストリームと関連付けられた第1の光ビーム12052は、切替可能光学要素12040から出射するにつれて、切替可能光学要素12040によって角度的に拡大されることができ、続いて、比較的に広い第1の視野FOVを伴う第1の画像ストリームを提示するために、視認アセンブリに投影されることができる。 When the first light beam 12052 and the second light beam 12054 are time division multiplexed, the switching of the switchable optical element 12040 is performed by each sub-switchable optical element as shown in FIG. 34A. Acts as an optical lens with a first optical power for the light beam 12052 of FIG. 34, and acts as an optical lens with a second optical power for the second light beam 12054 as illustrated in FIG. 34B. Thus, the time division multiplexing of the first light beam 12052 and the second light beam 12054 can be synchronized. Thus, the first light beam 12052 associated with the first image stream can be angularly expanded by the switchable optical element 12040 as it exits the switchable optical element 12040, and subsequently relatively. Can be projected onto the viewing assembly to present a first image stream with a wide first field of view FOV 1 .

ディスプレイシステム12000はさらに、図34Bに図示されるように、第2の光学経路に沿ってビームスプリッタ12030から下流に位置付けられる、第1のミラー12060を含むことができる。第1のミラー12060は、第2の光ビーム12054をビームスプリッタ12030に向かって逆反射させることができ、これは、続いて、ビームスプリッタ12030によって、第2のミラー12070に向かって反射させることができる。   The display system 12000 can further include a first mirror 12060 positioned downstream from the beamsplitter 12030 along a second optical path, as illustrated in FIG. 34B. The first mirror 12060 can retroreflect the second light beam 12054 toward the beam splitter 12030, which in turn can be reflected by the beam splitter 12030 toward the second mirror 12070. it can.

第2のミラー12070は、図34Bに図示されるように、ビームスプリッタ12030の下方に位置付けられる。第2のミラー12070は、第2の光ビーム12054をビームスプリッタ12030に向かって逆反射させることができ、これは、続いて、ビームスプリッタ12030によって、切替可能光学要素12040に向かって透過されることができる。上記に説明されるように、各サブ切替可能光学要素は、第2の光ビーム12054のための第2の屈折力を伴う光学レンズとして動作し得るように、第2の状態に切り替えられることができる。第2の屈折力は、第1の状態と関連付けられた第1の屈折力未満または実質的にゼロまたは負であることができる。したがって、第2の光ビーム12054は、切替可能光学要素12040から出射するにつれて、第1の光ビーム12052未満の量だけ角度的に拡大される、または拡大されない、または拡大解除されることができる。したがって、第2の光ビーム12054は、続いて、比較的に狭い第2の視野FOVを伴う第2の画像ストリームを提示するために、視認アセンブリに投影されることができる。 The second mirror 12070 is positioned below the beamsplitter 12030 as illustrated in Figure 34B. The second mirror 12070 may retroreflect the second light beam 12054 toward the beam splitter 12030, which is subsequently transmitted by the beam splitter 12030 toward the switchable optical element 12040. You can As explained above, each sub-switchable optical element can be switched to a second state so that it can operate as an optical lens with a second optical power for the second light beam 12054. it can. The second optical power can be less than or substantially zero or negative in relation to the first optical power associated with the first state. Thus, the second light beam 12054 can be angularly expanded, unexpanded, or de-expanded by an amount less than the first light beam 12052 as it exits the switchable optical element 12040. Thus, the second light beam 12054 can subsequently be projected onto the viewing assembly to present a second image stream with a relatively narrow second field of view FOV 2 .

いくつかの実施形態では、第2のミラー12070は、図34Bに図示されるように、2つの方向に傾斜され得る、2D MEMSスキャナ等の2次元(2D)走査ミラー(すなわち、2回転自由度を伴う走査ミラー)として構成されることができる。第2のミラー12070を傾斜させることは、第2の光ビーム12054が第2の画像ストリームをユーザの中心窩視に投影し得るように、ユーザの眼の固視位置に基づいて制御されることができる。いくつかの他の実施形態では、第2のミラー12070は、固定ミラーであることができ、第1のミラー12060は、2D走査ミラーであることができる。いくつかのさらなる実施形態では、第1のミラーは、第1の方向に傾斜され得る、1次元(1D)走査ミラー(すなわち、1回転自由度を伴う走査ミラー)であることができ、第2のミラーは、第2の方向に傾斜され得る、1D走査ミラーであることができる。   In some embodiments, the second mirror 12070 may be tilted in two directions, as illustrated in FIG. 34B, a two-dimensional (2D) scanning mirror (ie, two rotational degrees of freedom), such as a 2D MEMS scanner. Scanning mirror). Tilting the second mirror 12070 is controlled based on the fixation position of the user's eye so that the second light beam 12054 can project the second image stream into the fovea of the user. You can In some other embodiments, the second mirror 12070 can be a fixed mirror and the first mirror 12060 can be a 2D scanning mirror. In some further embodiments, the first mirror can be a one-dimensional (1D) scanning mirror (ie, a scanning mirror with one rotational degree of freedom) that can be tilted in a first direction, and a second Can be a 1D scanning mirror that can be tilted in a second direction.

図35は、いくつかの他の実施形態による、ディスプレイシステム13000を図式的に図示する。ディスプレイシステム13000は、画像源13010を含む。画像源13010は、第1の画像ストリームと関連付けられた第1の光ビームを右回り円偏光(RHCP)において、第2の画像ストリームと関連付けられた第2の光ビームを左回り円偏光(LHCP)(またはその逆)において提供するように構成されることができる。   FIG. 35 schematically illustrates a display system 13000 according to some other embodiments. Display system 13000 includes an image source 13010. The image source 13010 outputs a first light beam associated with the first image stream in right-hand circular polarization (RHCP) and a second light beam associated with the second image stream in left-hand circular polarization (LHCP). ) (Or vice versa).

ディスプレイシステム13000はさらに、第1の光ビームおよび第2の光ビームを多重化解除するように構成される、ビームスプリッタ13030を含むことができる。例えば、ビームスプリッタ13030は、右回り円偏光第1の光ビームを反射させ、左回り円偏光第2の光ビームを透過させる、液晶材料を備えることができる。   Display system 13000 can further include a beam splitter 13030 configured to demultiplex the first light beam and the second light beam. For example, the beam splitter 13030 can comprise a liquid crystal material that reflects a right-handed circularly polarized first light beam and transmits a left-handed circularly polarized second light beam.

ディスプレイシステム13000はさらに、第1の切替可能光学要素13042と、第2の切替可能光学要素13044とを含むことができ、その組み合わせは、中継レンズアセンブリとしての役割を果たすことができる。第1の切替可能光学要素13042および第2の切替可能光学要素13044はそれぞれ、右回り円偏光のための第1の焦点距離fRHCPと、左回り円偏光のための第2の焦点距離fLHCPとを有するように、液晶材料を備えることができる。したがって、第1の切替可能光学要素13042および第2の切替可能光学要素13044の組み合わせは、第1の角度拡大率を第1の光ビームに、第1の角度拡大率と異なる第2の角度拡大率を第2の光ビームに提供することができる。例えば、第1の角度拡大率は、1を上回ることができ、第2の角度拡大率は、1と等しいまたは1未満であることができる。 The display system 13000 can further include a first switchable optical element 13042 and a second switchable optical element 13044, the combination of which can serve as a relay lens assembly. The first switchable optical element 13042 and the second switchable optical element 13044 each have a first focal length f RHCP for right-handed circularly polarized light and a second focal length f LHCP for left-handed circularly polarized light. And a liquid crystal material can be provided. Therefore, the combination of the first switchable optical element 13042 and the second switchable optical element 13044 results in a first angular magnification factor for the first light beam and a second angular magnification factor different from the first angular magnification factor. A rate can be provided for the second light beam. For example, the first angular magnification can be greater than 1 and the second angular magnification can be equal to or less than 1.

図36Aは、いくつかの実施形態による、拡張現実接眼ディスプレイシステム14000を図式的に図示する。図36Aは、片眼210のためのディスプレイシステム14000の一部を示す。実際は、第2のそのようなシステムが、ユーザの他方の眼のために提供されるであろう。2つのそのようなシステムは、実施形態によると、拡張現実眼鏡内に組み込まれる。図36Aを参照すると、赤色レーザダイオード14002は、赤色レーザコリメートレンズ14004を通して、赤色−緑色−青色(RGB)ダイクロイックコンバイナ立方体14008の赤色光入力面14006の中に光学的に結合される。緑色レーザダイオード14010は、緑色レーザコリメートレンズ14012を通して、RGBダイクロイックコンバイナ立方体14008の緑色光入力面14014の中に光学的に結合される。同様に、青色レーザダイオード14016は、青色レーザコリメートレンズ14018を通して、RGBダイクロイックコンバイナ立方体14008の青色光入力面14020の中に光学的に結合される。RGBダイクロイックコンバイナ立方体14008は、出力面14022を有する。RGBダイクロイックコンバイナ立方体14008は、赤色レーザダイオード14002からの光を出力面14022を通して反射させるように、45度に設定された赤色反射ダイクロイックミラー(短波長通過ミラー)14024を含む。RGBダイクロイックコンバイナ立方体14008はまた、青色レーザダイオード14016からの光を出力面14022に反射させるように、135度に設定された(赤色反射ダイクロイックミラー14024と垂直に)青色反射ダイクロイックミラー(長波長通過ミラー)14026を含む。緑色レーザダイオード14010からの光は、赤色反射ダイクロイックミラー14024および青色反射ダイクロイックミラー14026を通して出力面14022に通過する(それによって透過される)。赤色反射ダイクロイックミラー14024および青色反射ダイクロイックミラー14026は、薄膜光学干渉フィルムとして実装されることができる。   FIG. 36A schematically illustrates an augmented reality eyepiece display system 14000 according to some embodiments. FIG. 36A shows a portion of display system 14000 for one eye 210. In fact, a second such system would be provided for the other eye of the user. Two such systems, according to embodiments, are incorporated into augmented reality glasses. Referring to FIG. 36A, a red laser diode 14002 is optically coupled into a red light input surface 14006 of a red-green-blue (RGB) dichroic combiner cube 14008 through a red laser collimating lens 14004. The green laser diode 14010 is optically coupled into the green light input surface 14014 of the RGB dichroic combiner cube 14008 through the green laser collimating lens 14012. Similarly, the blue laser diode 14016 is optically coupled into the blue light input surface 14020 of the RGB dichroic combiner cube 14008 through the blue laser collimating lens 14018. The RGB dichroic combiner cube 14008 has an output surface 14022. The RGB dichroic combiner cube 14008 includes a red reflective dichroic mirror (short wavelength pass mirror) 14024 set at 45 degrees to reflect light from the red laser diode 14002 through the output surface 14022. The RGB dichroic combiner cube 14008 also has a blue reflective dichroic mirror (long wavelength pass mirror) set at 135 degrees (perpendicular to the red reflective dichroic mirror 14024) to reflect light from the blue laser diode 14016 to the output surface 14022. ) 14026. Light from the green laser diode 14010 passes (is transmitted) through the red reflective dichroic mirror 14024 and the blue reflective dichroic mirror 14026 to the output surface 14022. The red reflective dichroic mirror 14024 and the blue reflective dichroic mirror 14026 can be implemented as thin film optical interference films.

赤色、緑色、および青色レーザダイオード14002、14010、14016は、赤色、青色、および緑色チャネル画像情報で別個に変調される。ユーザの網膜の中心窩に指向されることになる画像情報が出力される、第1の周期と、画像情報がユーザの網膜のより大きい部分に指向されることになる、後続周期とを含む、サイクルが、順次繰り返される。第1の周期においてユーザの網膜に指向される画像情報と、サイクルの後続周期の間にユーザの網膜に指向される画像情報との間には、ある程度の角度重複が存在し得る。言い換えると、ユーザの眼のある部分は、両周期の間、光を受光し得る。鮮明な境界を達成することを試みるのではなく、テーパ状強度によって特徴付けられる重複境界が、使用されてもよい。前述の機能性を達成するための光学配列は、下記に説明されるであろう。   Red, green, and blue laser diodes 14002, 14010, 14016 are separately modulated with red, blue, and green channel image information. Including a first cycle at which image information will be directed to the fovea of the user's retina and a subsequent cycle at which the image information will be directed to a larger portion of the user's retina. The cycle is repeated sequentially. There may be some degree of angular overlap between the image information directed to the user's retina in the first cycle and the image information directed to the user's retina during subsequent cycles of the cycle. In other words, some parts of the user's eyes may receive light during both cycles. Rather than attempting to achieve sharp boundaries, overlapping boundaries characterized by tapered strength may be used. An optical arrangement for achieving the above functionality will be described below.

ダイクロイックコンバイナ立方体14008は、赤色、青色、および緑色成分を含む、コリメートされたビーム14028を出力する。コリメートされたビーム14028は、第1の2自由度画像走査ミラー14030上に入射する。画像走査ミラー14030は、2自由度の回転を有し、所定の角度範囲内の角度に配向されることができる。画像走査ミラー14030の各配向は、事実上、画像空間内の角度座標に対応する。画像走査ミラー14030の配向は、画像を、最終的には、ユーザの眼に提示するように、画像情報に基づいて、赤色、緑色、および青色レーザダイオード14002、14010、14016の変調と協調して走査される。   The dichroic combiner cube 14008 outputs a collimated beam 14028 that includes red, blue, and green components. The collimated beam 14028 is incident on the first two degree of freedom image scanning mirror 14030. The image scanning mirror 14030 has two degrees of freedom rotation and can be oriented at an angle within a predetermined angular range. Each orientation of image scanning mirror 14030 effectively corresponds to an angular coordinate in image space. The orientation of the image scanning mirror 14030 cooperates with the modulation of the red, green, and blue laser diodes 14002, 14010, 14016 based on the image information so as to present the image ultimately to the user's eye. To be scanned.

画像走査ミラー14030によって偏向される光は、第1の中継レンズ要素14032を通して、偏光回転スイッチ14034に結合される。代替として、偏光回転スイッチは、レーザダイオード14002、14010、14016のより近くに位置し得る。偏光回転スイッチ14034は、電子機器(図36Aには図示せず)によって電気的に制御される。偏光回転スイッチ14034は、液晶偏光回転スイッチとして実装されることができる。偏光回転スイッチ14034は、レーザダイオード14002、14010、14016によって出力され、偏光を改変せずに、コリメートレンズ14004、14012、14018およびRGBダイクロイックコンバイナ立方体14008を通して伝達される、具体的線形偏光の光を受光する。偏光回転スイッチ14034は、外部電気信号の制御下、その偏光を改変せずに入射光を通過させるか、または光の偏光を90度回転させるかのいずれかを行う。   The light deflected by the image scanning mirror 14030 is coupled to the polarization rotation switch 14034 through the first relay lens element 14032. Alternatively, the polarization rotation switch may be located closer to the laser diodes 14002, 14010, 14016. The polarization rotation switch 14034 is electrically controlled by an electronic device (not shown in FIG. 36A). The polarization rotation switch 14034 can be implemented as a liquid crystal polarization rotation switch. The polarization rotation switch 14034 receives light of a specific linear polarization output by the laser diodes 14002, 14010, 14016 and transmitted through the collimating lenses 14004, 14012, 14018 and the RGB dichroic combiner cube 14008 without modifying the polarization. To do. The polarization rotation switch 14034 either passes the incident light without modifying its polarization or rotates the polarization of the light by 90 degrees under the control of an external electrical signal.

偏光回転スイッチ14034から出射する光は、偏光ビームスプリッタ(PBS)14036に結合される。PBS14036は、その中に、PBS14036を横断して対角線上に配列される、偏光選択的反射体14038を内蔵している。偏光選択的反射体14038は、平行金属伝導性ライン(図36Aでは不可視)のアレイを含む、タイプであることができる。金属伝導性ラインと平行に偏光された(すなわち、電場方向を有する)光は、反射され、伝導性金属ラインと垂直に偏光された光は、透過される。図36Aに示される実施形態の場合、伝導性金属ラインは、図面シートの平面と垂直に配向されると仮定される。そのような配向を用いることで、偏光選択的反射体14038は、S−偏光を反射させ、P−偏光を透過させるであろう。   The light emitted from the polarization rotation switch 14034 is coupled to the polarization beam splitter (PBS) 14036. The PBS 14036 incorporates therein a polarization selective reflector 14038 diagonally arranged across the PBS 14036. The polarization selective reflector 14038 can be of a type that includes an array of parallel metal conductive lines (not visible in Figure 36A). Light polarized parallel to the metal conductive line (ie, having an electric field direction) is reflected and light polarized perpendicular to the conductive metal line is transmitted. For the embodiment shown in Figure 36A, the conductive metal lines are assumed to be oriented perpendicular to the plane of the drawing sheet. Using such an orientation, the polarization selective reflector 14038 will reflect S-polarized light and transmit P-polarized light.

偏光回転スイッチ14034が、P−偏光を出力する状態にある、第1の場合を検討すると、そのようなP−偏光は、偏光選択的反射体14038を通して、かつPBS14036を通して通過し、第1の4分の1波長板(QWP)14040に全体的に到達するであろう。第1のQWP14040は、P−偏光を右円偏光(RHCP)光に変換するように配向される。(代替として、第1のQWPは、P−偏光をLHCPに変換するように配向され得、これは、図36Aの残りの説明を検討後、明白であるように、下記に説明される他のコンポーネントへの変更もまた、行われるであろう。)第1のQWP14040を通して通過後、光は、第2の中継レンズ要素14042に到達するであろう。第1の中継レンズ要素14032および第2の中継レンズ要素14042は、等倍率無限焦点複合レンズである。画像走査ミラー14030は、第1の中継レンズ要素14032の焦点距離と等しい距離だけ第1の中継レンズ要素14032から離間されることに留意されたい。第2の中継レンズ要素14032は、光(最初に、コリメートレンズ14004、14012、14018によってコリメートされた光)を再コリメートするであろう。また、第2の中継レンズ要素14042から伝搬する光は、第2の中継レンズ要素14042の焦点距離だけ第2の中継レンズ要素14042から離間される点P1の近傍の光学軸OAを交差するであろうことに留意されたい。図36Aに示される実施形態では、第1の中継レンズ要素14032および第2の中継レンズ要素14042は、同一焦点距離を有する。   Considering the first case, in which the polarization rotation switch 14034 is in the state of outputting P-polarized light, such P-polarized light passes through the polarization-selective reflector 14038 and through the PBS 14036 to the first four. A quarter wave plate (QWP) 14040 will generally be reached. The first QWP 14040 is oriented to convert P-polarized light into right circularly polarized (RHCP) light. (Alternatively, the first QWP may be oriented to convert P-polarized light into LHCP, which, as will be apparent after reviewing the remaining description of FIG. Changes to the components will also be made.) After passing through the first QWP 14040, the light will reach the second relay lens element 14042. The first relay lens element 14032 and the second relay lens element 14042 are equal magnification afocal compound lenses. It should be noted that the image scanning mirror 14030 is spaced from the first relay lens element 14032 by a distance equal to the focal length of the first relay lens element 14032. The second relay lens element 14032 will re-collimate the light (first collimated by the collimating lenses 14004, 14012, 14018). Further, the light propagating from the second relay lens element 14042 intersects the optical axis OA near the point P1 separated from the second relay lens element 14042 by the focal length of the second relay lens element 14042. Please note that In the embodiment shown in FIG. 36A, the first relay lens element 14032 and the second relay lens element 14042 have the same focal length.

第2の中継レンズ要素14042から出射後、光は、2倍率無限焦点拡大レンズ14048の第1のグループ14046の第1のグループの正の屈折レンズ14044上に入射するであろう。第1のグループの正の屈折レンズ14044に加え、第1のグループ14046はまた、第1のグループの幾何学的位相レンズ14050を含む。第1のグループの幾何学的位相レンズ14050を通して通過後、光は、第2のグループの正の屈折レンズ14054と、第2のグループの幾何学的位相レンズ14056とを含む、第2のグループ14052を通して通過する。幾何学的位相レンズ14050、14056は、パターン整合された液晶材料を含む。幾何学的位相レンズ(「偏光指向平坦レンズ」としても知られる)は、Edmund Optics(Barrington, New Jersey)から利用可能である。幾何学的位相レンズ14050、14056は、それらが、その掌性に合致する掌性(RHまたはLH)を有する円偏光のための正のレンズであって、かつ反対掌性の円偏光のための負のレンズである、性質を有する。幾何学的位相レンズはまた、光を透過させる際、それらが、円偏光の掌性を逆転させる、性質を有する。図36Aに示される実施形態では、幾何学的位相レンズ14050、14056は、右回りである。本システムは、左回り幾何学的位相レンズとの使用に適応するように修正され得ることに留意されたい。   After exiting the second relay lens element 14042, the light will be incident on the first group of positive refraction lenses 14044 of the first group 14046 of 2x afocal magnifying lens 14048. In addition to the first group of positive refractive lenses 14044, the first group 14046 also includes a first group of geometric phase lenses 14050. After passing through the first group of geometrical phase lenses 14050, the light includes a second group of positive refractive lenses 14054 and a second group of geometrical phase lenses 14056, a second group 14052. Pass through. The geometric phase lenses 14050, 14056 include pattern-matched liquid crystal material. Geometric phase lenses (also known as "polarization-oriented flat lenses") are available from Edmund Optics (Barrington, New Jersey). Geometric phase lenses 14050, 14056 are positive lenses for circularly polarized light in which they have a handedness (RH or LH) that matches their handedness, and for circularly polarized light of opposite handedness. It has the property of being a negative lens. Geometric phase lenses also have the property that when transmitting light, they reverse the handedness of circularly polarized light. In the embodiment shown in FIG. 36A, the geometric phase lenses 14050, 14056 are clockwise. Note that the system may be modified to accommodate use with counterclockwise geometric phase lenses.

動作時、RHCP光が第1のグループ14046を通して通過されると、第1のグループの幾何学的位相レンズ14050は、第1のグループ14046の正の屈折力が、第1のグループの屈折レンズ14044単独の正の屈折力未満であって、第1のグループ14046が、第1のグループ14046の主平面から図36Aに示される点FRHCPまでの距離とほぼ等しい焦点距離を有するであろうように、負のレンズとして作用するであろう。第1のグループの幾何学的位相レンズ14050を通して伝搬することは、光を左円偏光(LHCP)状態に変換するであろう。LHCP状態の光に関して、第2のグループの幾何学的位相レンズ14056は、正の屈折力を有し、したがって、第2のグループ14052の正の屈折力は、第2のグループの正の屈折レンズ14054単独の正の屈折力を上回るであろう。この場合、第2のグループ14052の焦点距離もまた、第2のグループ14052の主平面から点FRHCPまでの距離と等しく、添字「RHCP」は、拡大レンズ14048に入射する光の偏光状態を指す。点FRHCPは、第1のグループ14046より第2のグループ14052に近いため、2倍率無限焦点拡大レンズ14048は、第2の中継レンズ要素14042から受光されたRHCP光のための拡大レンズ(1を上回る拡大率を有する)となるであろう。 In operation, when RHCP light is passed through the first group 14046, the first group of geometric phase lenses 14050 has a positive refractive power of the first group 14046 and a first group of refractive lenses 14044. As a single positive power less than the first group 14046 would have a focal length approximately equal to the distance from the principal plane of the first group 14046 to the point F RHCP shown in FIG. 36A. , Will act as a negative lens. Propagating through the first group of geometric phase lenses 14050 will convert the light to the left circularly polarized (LHCP) state. For light in the LHCP state, the second group of geometric phase lenses 14056 has a positive refractive power, and thus the positive power of the second group 14052 has a positive refractive power of the second group. It would exceed the positive refractive power of 14054 alone. In this case, the focal length of the second group 14052 is also equal to the distance from the principal plane of the second group 14052 to the point F RHCP , and the subscript “RHCP” refers to the polarization state of the light incident on the magnifying lens 14048. .. Since the point F RHCP is closer to the second group 14052 than the first group 14046, the 2 × afocal magnifying lens 14048 defines a magnifying lens (1 for the RHCP light received from the second relay lens element 14042). Will have a higher expansion rate).

ここで、偏光回転スイッチ14034がS−偏光を出力する状態にある、第2の場合を検討すると、そのようなS−偏光は、偏光選択的反射体14038によって、公称上90度反射され、次いで、第2のQWP14058を通して通過し、その後、第3の中継レンズ要素14060を通して通過し、これは、光を固定ミラー14062に向かって偏向させる。S−偏光に関して、第1の中継レンズ要素14032は、第3の中継レンズ要素14060と組み合わせて、等倍率無限焦点中継系を形成することに留意されたい。固定ミラー14062は、光を第3の中継レンズ要素14060および第2のQWP14058を通して逆反射させ、符号を変化させるが、光学軸OAに対する光ビームの角度の絶対値を変化させない。最初に、第2のQWP14058を通して通過後、S−偏光は、特定の掌性の円偏光に変換される(第2のQWP14058の高速および低速軸の配向を選定することによって、RHCPまたはLHCPのいずれかとなるように選定されることができる)。固定ミラー14062による反射に応じて、円偏光の掌性は、逆転される。2回目として、第2のQWPを通した通過に応じて、S−偏光された円偏光は、P−偏光に変換され(一時的に)、これは、次いで、偏光選択的反射体14038を通して通過する。   Considering now the second case, in which the polarization rotation switch 14034 is in the state of outputting S-polarized light, such S-polarized light is reflected nominally 90 degrees by the polarization selective reflector 14038, and then , Through a second QWP 14058 and then through a third relay lens element 14060, which causes the light to be deflected towards a fixed mirror 14062. Note that for S-polarization, the first relay lens element 14032 is combined with the third relay lens element 14060 to form a unit magnification afocal relay system. The fixed mirror 14062 retroreflects the light through the third relay lens element 14060 and the second QWP 14058 and changes the sign, but does not change the absolute value of the angle of the light beam with respect to the optical axis OA. First, after passing through the second QWP 14058, the S-polarized light is converted into circularly polarized light of a particular handedness (either RHCP or LHCP by choosing the fast and slow axis orientations of the second QWP 14058. Can be selected to be). In response to the reflection by the fixed mirror 14062, the handedness of circularly polarized light is reversed. As a second pass, in response to passing through the second QWP, the S-polarized circularly polarized light is converted (temporarily) to P-polarized light, which then passes through polarization selective reflector 14038. To do.

偏光選択的反射体14038を通して通過後、光は、第3のQWP14064および第4の中継レンズ要素14066を通して通過し、中心窩追跡ミラー14068に指向される。システム14000では、画像走査ミラー14030、固定ミラー14060、および中心窩追跡ミラー14068は、それぞれ、中継レンズ要素14032、14066、14060の焦点距離だけ中継レンズ要素14032、14066、14060から離間され、QWP14040、14058、14064は、中継レンズ要素14032、14042、14060、14066後に位置付けられるため、QWP14040、14058、14064上に入射する光の角度は、比較的に低く、これは、QWP14040、14058、14064の改良された性能につながる。代替実施形態によると、眼移動の2つの角度自由度(例えば、方位角および仰角)を追跡する、単一中心窩追跡ミラー1268を有するのではなく、固定ミラー14062が、第2の中心窩追跡ミラー(図示せず)と置換されることができ、2つの中心窩追跡ミラーのうちの1つは、眼移動の1自由度を追跡するために使用されることができ、第2の中心窩追跡ミラーは、眼移動の第2の自由度を追跡するために使用されることができる。そのような代替では、単一自由度中心窩追跡ミラーが、使用されてもよい。再び図36Aを参照すると、第3の中継レンズ要素14060は、第4の中継レンズ要素14066と組み合わせて、等倍率無限焦点中継を形成する。中心窩追跡ミラー14068は、ユーザの眼210の中心窩(図示せず)を追跡するために、画像走査ミラー14030によって生産された光ビーム14028の偏向を追加し、それによって、画像走査ミラー14030によって生産されたビーム角度の立体角範囲全体の平均角度を軸外に偏向させることができる。眼追跡カメラ14098は、ユーザの眼210の眼視線を追跡する。眼追跡カメラ14098は、中心窩追跡制御システム14097に結合される。眼追跡カメラ14098は、眼視線を示す、情報を出力し、これは、中心窩追跡制御システム14097に入力される。中心窩追跡制御システム14097は、中心窩追跡ミラー14068に駆動可能に結合される。眼追跡カメラ14098から受信された眼視線情報に基づいて、中心窩追跡制御システム14097は、中心窩追跡ミラー14068を配向し、ユーザの眼の中心窩14099を追跡するために、信号を中心窩追跡ミラー14068に出力する。中心窩追跡制御システム14097は、画像処理を使用して、ユーザの眼視線を決定し、信号を生成し、眼視線に基づいて、中心窩追跡ミラーを制御することができる。   After passing through the polarization selective reflector 14038, the light passes through the third QWP 14064 and the fourth relay lens element 14066 and is directed to the foveal tracking mirror 14068. In system 14000, image scanning mirror 14030, fixed mirror 14060, and foveal tracking mirror 14068 are spaced from relay lens elements 14032, 14066, 14060 by focal lengths of relay lens elements 14032, 14066, 14060, respectively, and QWP 14040, 14058. , 14064 are positioned after the relay lens elements 14032, 14042, 14060, 14066, so the angle of light incident on the QWPs 14040, 14058, 14064 is relatively low, which is an improvement of the QWPs 14040, 14058, 14064. It leads to performance. According to an alternative embodiment, rather than having a single foveal tracking mirror 1268 that tracks the two angular degrees of freedom of eye movement (eg, azimuth and elevation), the fixed mirror 14062 has a second foveal tracking. A mirror (not shown) can be substituted, one of the two foveal tracking mirrors can be used to track one degree of freedom of eye movement, and a second fovea can be used. The tracking mirror can be used to track the second degree of freedom of eye movement. In such an alternative, a single degree of freedom foveal tracking mirror may be used. Referring again to FIG. 36A, the third relay lens element 14060, in combination with the fourth relay lens element 14066, forms an afocal afocal relay. Foveal tracking mirror 14068 adds deflection of light beam 14028 produced by image scanning mirror 14030 to track the fovea (not shown) of user's eye 210, thereby causing image scanning mirror 14030 to The average angle over the solid angle range of the produced beam angle can be deflected off-axis. The eye tracking camera 14098 tracks the line of sight of the user's eye 210. Eye tracking camera 14098 is coupled to fovea tracking control system 14097. The eye-tracking camera 14098 outputs information, which indicates the line of sight of the eye, which is input to the foveal tracking control system 14097. The foveal tracking control system 14097 is drivingly coupled to the foveal tracking mirror 14068. Based on the eye gaze information received from the eye tracking camera 14098, the foveal tracking control system 14097 directs the foveal tracking mirror 14068 to track the signal to track the fovea 14099 of the user's eye. Output to the mirror 14068. The foveal tracking control system 14097 can use image processing to determine the eye gaze of the user, generate a signal, and control the foveal tracking mirror based on the eye gaze.

中心窩追跡ミラー14068によって反射された後、光は、第4の中継レンズ要素14066および第3のQWP14064を通して逆通過する。第3のQWP14064を通した光の第1の通過は、光を円偏光に変換し、中心窩追跡ミラー14068による反射は、円偏光の掌性を逆転させ、第3のQWP14064を通した第2の通過は、光をS−偏光状態に逆変換する。光は、ここでS−偏光されるため、偏光選択的反射体14038によって反射され、公称上90度、第1のQWP14040に向かって偏向される。第1のQWP14040は、S−偏光を左円偏光(LHCP)に変換する。光は、次いで、第2の中継レンズ要素14042を通して通過する。第4の中継レンズ要素14066は、第2の中継レンズ要素14042と組み合わせて、等倍率無限焦点複合レンズを形成する。中継レンズ要素14032、14042、14060、14066は、偏光選択的ミラー14038の中心を中心として90度間隔で対称的に設置される。概して連続する(光伝搬の順序で)中継レンズ要素14032、14042、14060、14066は、等倍率無限焦点中継系を形成する。共焦点であるように位置付けられる、連続中継レンズ要素は、PBS14036を横断した中間に共通焦点を共有する。中継レンズ要素14032、14042、14060、14066は、非限定的実施例として、非球面レンズ、無収差レンズ、ハイブリッド屈折および回折レンズおよび無彩色レンズ、例えば、回折レンズとともに屈折レンズを含む、複合レンズを含むことができる。本説明で使用されるように、「中継レンズ要素」は、単一レンズまたは複合レンズを含む。   After being reflected by the foveal tracking mirror 14068, the light passes back through the fourth relay lens element 14066 and the third QWP 14064. The first pass of the light through the third QWP 14064 converts the light into circularly polarized light, and the reflection by the foveal tracking mirror 14068 reverses the handedness of the circularly polarized light, resulting in a second pass through the third QWP 14064. Passes the light back into the S-polarized state. The light is now S-polarized so that it is reflected by the polarization selective reflector 14038 and is deflected nominally 90 degrees towards the first QWP 14040. The first QWP 14040 converts S-polarized light into left circularly polarized light (LHCP). The light then passes through the second relay lens element 14042. The fourth relay lens element 14066 is combined with the second relay lens element 14042 to form an afocal afocal compound lens. The relay lens elements 14032, 14042, 14060, 14066 are symmetrically installed at 90-degree intervals around the center of the polarization selective mirror 14038. The generally continuous (in the order of light propagation) relay lens elements 14032, 14042, 14060, 14066 form an afocal afocal relay system. The continuous relay lens elements, positioned to be confocal, share a common focus in the middle across PBS 14036. The relay lens elements 14032, 14042, 14060, 14066 include, by way of non-limiting example, compound lenses including aspheric lenses, aplanatic lenses, hybrid refractive and diffractive lenses and achromatic lenses, eg, refractive lenses with diffractive lenses. Can be included. As used in this description, "relay lens element" includes a single lens or a compound lens.

LHCP光に関して、第1のグループの幾何学的位相レンズ14050は、正の屈折力を有し、これは、第1のグループ14046の屈折力を増加させる。LHCPに関して、第1のグループ14044の焦点距離は、第1のグループ14044の主平面から点FLHCPまでの距離と等しい。第1のグループの幾何学的位相レンズ14050を通した通過に応じて、LHCP光は、RHCP光に変換される。続いて、光は、第2のグループ14052を通して通過する。RHCP光に関して、第2のグループの幾何学的位相レンズ14056は、第2のグループ14052の正の屈折力が、第2のグループの正の屈折レンズ14054単独の屈折力より低いであろうように、負の屈折力を有する。RHCP光に関して、第2のグループ14052は、第2のグループ14052の主平面から点FLHCPまでの距離と等しい焦点距離を有する。故に、2倍率無限焦点拡大レンズ14048に入射するLHCP光に関して、2倍率無限焦点拡大レンズ14048は、1未満の拡大率を伴う、拡大解除レンズとしての役割を果たす。したがって、中心窩追跡ミラー14068によって偏向される、画像走査ミラー14030によって生産された光ビーム方向の立体角範囲は、ユーザの視線が偏移されるにつれてユーザの中心窩を追跡する、低減された角度範囲を被覆するように拡大解除される。入射RHCPに関して、2倍率無限焦点拡大レンズ14048は、1を上回る拡大率を有することを思い出されたい。1を上回る拡大率は、中心窩外のユーザの網膜の部分に対応するより広い視野を提供するために使用される。 For LHCP light, the first group of geometric phase lenses 14050 has a positive optical power, which increases the optical power of the first group 14046. For LHCP, the focal length of the first group 14044 is equal to the distance from the principal plane of the first group 14044 to the point F LHCP . Upon passing through the first group of geometric phase lenses 14050, the LHCP light is converted to RHCP light. Subsequently, the light passes through the second group 14052. For RHCP light, the second group of geometric phase lenses 14056 is such that the positive power of the second group 14052 will be lower than the power of the second group of positive refractive lenses 14054 alone. It has a negative refractive power. Respect RHCP light, the second group 14052 has a focal length equal to the distance from the principal plane of the second group 14052 to point F LHCP. Therefore, for LHCP light entering the 2x afocal magnifying lens 14048, the 2x afocal magnifying lens 14048 acts as a demagnifying lens with a magnifying power of less than 1. Thus, the solid angle range in the direction of the light beam produced by the image scanning mirror 14030, which is deflected by the foveal tracking mirror 14068, is a reduced angle that tracks the fovea of the user as the user's line of sight is shifted. Unexpanded to cover the area. Recall that for incident RHCP, the 2X afocal magnifying lens 14048 has a magnifying power greater than one. A magnification of greater than 1 is used to provide a wider field of view corresponding to the portion of the user's retina outside the fovea.

ある実施形態では、第2のグループ14052は、第1のグループ14046の鏡像であって、その場合、第1のグループの幾何学的位相レンズ14050および第2のグループの幾何学的位相レンズ14056は、同じであって、第1のグループの正の屈折レンズ14044および第2のグループの正の屈折レンズ14054は、同じである。屈折レンズ14044、14054が、異なる屈折力の表面を有する場合、それらは、2倍率無限焦点拡大レンズ14048の鏡像対称性を維持するために、同一屈折力の表面が相互に面するように位置付けられ得る。この場合、各グループ14046、14052は、幾何学的位相レンズ14050、14056が、正のまたは負のレンズとして作用するかどうかに応じて、2つの異なる主平面を有することができるが、それでもなお、2つのグループ14046、14052は、LHCPまたはRHCP光が拡大レンズ14048に入射するかどうかにかかわらず、拡大レンズ14048の無限焦点拡大率を維持するために、2つのグループ14046、14052の共焦点関係を維持する固定距離において相互から離間され得る。   In certain embodiments, the second group 14052 is a mirror image of the first group 14046, where the first group of geometric phase lenses 14050 and the second group of geometric phase lenses 14056 are , And the first group of positive refractive lenses 14044 and the second group of positive refractive lenses 14054 are the same. If the refractive lenses 14044, 14054 have surfaces of different refractive power, they are positioned such that surfaces of the same refractive power face each other to maintain the mirror image symmetry of the 2X afocal magnifying lens 14048. obtain. In this case, each group 14046, 14052 may have two different principal planes, depending on whether the geometric phase lens 14050, 14056 acts as a positive or negative lens, but nevertheless The two groups 14046, 14052 have a confocal relationship between the two groups 14046, 14052 to maintain the afocal magnification of the magnifying lens 14048 regardless of whether LHCP or RHCP light is incident on the magnifying lens 14048. They may be separated from each other by a fixed distance that they maintain.

第1の接眼レンズ導波管14070と、第2の接眼レンズ導波管14072と、第3の接眼レンズ導波管14074とを含む、3つの拡張現実眼鏡接眼レンズ導波管のセットが、2倍率無限焦点拡大レンズ14048の第2のグループ14052を越えて位置付けられ、それに光学的に結合される(示されるように、自由空間を通して)。重なり関係に配置される、3つの接眼レンズ導波管14070、14072、14074が、示されるが、代替として、異なる数の接眼レンズ導波管も、提供される。例えば、各セットが、異なる波面曲率(異なる仮想画像距離に対応する)を出射光に付与するように構成される、3つの接眼レンズ導波管の複数のセットが、提供されてもよい。3つの接眼レンズ導波管14070、14072、14074は、それぞれ、第1の光内部結合要素14076と、第2の光内部結合要素14078と、第3の光内部結合要素14080とを含む、3つの光内部結合要素14076、14078、14080を提供される。それぞれ3つの接眼レンズ導波管14070、14072、14074は、光を特定の色チャネル、例えば、赤色、緑色、または青色光内で伝達するように構成されることができる。加えて、内部結合要素14076、14078、14080はそれぞれ、1つの色チャネル内の光のみをその関連付けられた接眼レンズ導波管14070、14072、14074の中に結合するように、波長選択的であることができる。内部結合要素14076、14078、14080は、例えば、コレステリック液晶材料から作製される回折格子等、例えば、スペクトル的に選択的反射回折格子を備えることができる。そのようなコレステリック液晶材料は、ある螺旋ピッチを有し、これは、スペクトル反射率帯域を決定する。内部結合要素はそれぞれ、例えば、2つの重畳される層のコレステリック液晶材料を含むことができ、一方は、LHCP光を反射させ、他方は、RHCP光を反射させる。回折格子は、概して、あるプロファイルピッチを有し、これは、光偏向角度を決定する。内部結合要素14076、14078、14080が、回折格子として実装される場合、各格子の格子プロファイルピッチは、光が関連付けられた接眼レンズ導波管14070、14072、14074に関する全内部反射のための臨界角を上回る角度に回折されるように、内部結合されることになる関連付けられた光の波長に照らして好適に選択される。第1、第2、および第3の接眼レンズ導波管14070、14072、14074はそれぞれ、第1の射出瞳エクスパンダ(EPE)14082と、第2のEPE14084と、第3のEPE14086とを含む。EPE14082、14084、14086は、透過性および/または反射性回折格子として実装されてもよい。EPE14082、14084、14086は、光が、内部結合要素14076、14078、14080の横方向範囲と比較して、比較的に広域にわたって、導波管14070、14072、14074から出射するように、導波管14070、14072、14074内を伝搬する光を導波管14070、14072、14074から外に漸次的に結合する。図36Aでは不可視の直交瞳エクスパンダ(OPE)もまた、接眼レンズ導波管14070、14072、14074上に提供され、EPE14082、14084、14086の背後に位置することができる。OPEは、接眼レンズ導波管14070、14072、14074内を伝搬する内部結合要素14076、14078、14080からの光をEPE14082、14084、14086に向かって偏向させる役割を果たす。OPEは、内部結合要素14076、14078、14080から発出する光の経路内に位置してもよく、EPE14082、14084、14086は、内部結合要素14076、14078、14080から発出する光の経路外にあってもよいが、OPEは、内部結合要素14076、14078、14080からの光をEPE14082、14084に向かって偏向させ得る。   There are two sets of three augmented reality glasses eyepiece waveguides, including a first eyepiece waveguide 14070, a second eyepiece waveguide 14072, and a third eyepiece waveguide 14074. Positioned beyond a second group 14052 of magnification afocal magnifying lenses 14048 and optically coupled thereto (through free space, as shown). Although three eyepiece waveguides 14070, 14072, 14074 are shown arranged in an overlapping relationship, as an alternative, a different number of eyepiece waveguides are also provided. For example, multiple sets of three eyepiece waveguides may be provided, each set configured to impart a different wavefront curvature (corresponding to a different virtual image distance) to the outgoing light. The three eyepiece waveguides 14070, 14072, 14074 each include three optical incoupling elements 14076, a second optical incoupling element 14078, and a third optical incoupling element 14080. Optical incoupling elements 14076, 14078, 14080 are provided. Each of the three eyepiece waveguides 14070, 14072, 14074 can be configured to transmit light within a particular color channel, eg, red, green, or blue light. In addition, the inner coupling elements 14076, 14078, 14080 are each wavelength selective so as to couple only the light in one color channel into its associated eyepiece waveguide 14070, 14072, 14074. be able to. The internal coupling elements 14076, 14078, 14080 can comprise, for example, a spectrally selective reflective diffraction grating, such as a diffraction grating made from a cholesteric liquid crystal material. Such cholesteric liquid crystal materials have a certain helix pitch, which determines the spectral reflectance band. The internal coupling elements may each comprise, for example, two overlapping layers of cholesteric liquid crystal material, one reflecting LHCP light and the other reflecting RHCP light. Gratings generally have a certain profile pitch, which determines the light deflection angle. When the internal coupling elements 14076, 14078, 14080 are implemented as diffraction gratings, the grating profile pitch of each grating is the critical angle for total internal reflection with respect to the eyepiece waveguide 14070, 14072, 14074 with which the light is associated. Is preferably selected in light of the wavelength of the associated light to be internally coupled so that it is diffracted to an angle greater than. The first, second, and third eyepiece waveguides 14070, 14072, 14074 each include a first exit pupil expander (EPE) 14082, a second EPE 14084, and a third EPE 14086. EPEs 14082, 14084, 14086 may be implemented as transmissive and / or reflective diffraction gratings. The EPEs 14082, 14084, 14086 guide the light out of the waveguides 14070, 14072, 14074 over a relatively wide area as compared to the lateral extent of the internal coupling elements 14076, 14078, 14080. Light propagating in 14070, 14072, 14074 is progressively coupled out of the waveguides 14070, 14072, 14074. An orthogonal pupil expander (OPE), invisible in FIG. 36A, is also provided on the eyepiece waveguides 14070, 14072, 14074 and can be located behind the EPEs 14082, 14084, 14086. The OPE serves to deflect light from the internal coupling elements 14076, 14078, 14080 propagating in the eyepiece waveguides 14070, 14072, 14074 towards the EPEs 14082, 14084, 14086. The OPE may be located in the path of light emanating from the inner coupling elements 14076, 14078, 14080 and the EPE 14082, 14084, 14086 may be outside the path of light emanating from the inner coupling elements 14076, 14078, 14080. However, the OPE may deflect light from the internal coupling elements 14076, 14078, 14080 towards the EPEs 14082, 14084.

代替実施形態によると、第1の中継レンズ要素14032は、第2の14042、第3の14060、および第4の14066中継レンズ要素より長い焦点距離を有し、より長い焦点距離と等しい距離だけ、PBS14036の中心から離間される(PBS14036の屈折率を考慮して)。この場合、より長い焦点距離の第1の中継レンズ要素14032は、第2の中継レンズ14042と組み合わせて、1:1を上回る角度拡大率を非中心窩追跡光に付与し、より長い焦点距離第1の中継レンズ要素14032は、第3の中継レンズ要素14060と組み合わせて、1:1を上回る角度拡大率を中心窩追跡光に付与する。2倍率無限焦点拡大レンズ14048は、中心窩追跡光を拡大解除し、非中心窩追跡光を拡大するであろうことを思い出されたい。したがって、第1の中継レンズ要素14032の焦点距離を変化させることは、2倍率無限焦点拡大レンズ14048の設計の対称性を妨げずに、システム14000内で達成される拡大率を設定するために使用され得る、別の設計自由度を提供する。非対称性性を2倍率無限焦点拡大レンズ14048の設計の中に導入することは、別の可能性として考えられる代替である。   According to an alternative embodiment, the first relay lens element 14032 has a longer focal length than the second 14042, third 14060, and fourth 14066 relay lens elements, a distance equal to the longer focal length, It is spaced from the center of PBS 14036 (taking into account the refractive index of PBS 14036). In this case, the longer focal length first relay lens element 14032, in combination with the second relay lens 14042, imparts an angular magnifying power of greater than 1: 1 to the non-foveal tracking light and a longer focal length first relay lens element 14032. The first relay lens element 14032, in combination with the third relay lens element 14060, imparts an angular magnification of greater than 1: 1 to the foveal tracking light. Recall that the 2x afocal magnifying lens 14048 will demagnify the foveal tracking light and magnify the non-foveal tracking light. Therefore, varying the focal length of the first relay lens element 14032 can be used to set the magnification achieved within the system 14000 without disturbing the symmetry of the design of the 2X afocal magnifying lens 14048. Provides another degree of design freedom that can be achieved. Introducing asymmetry into the design of the 2x afocal magnifying lens 14048 is another possible alternative.

代替実施形態によると、幾何学的位相レンズ14050、14056の代わりに、他のタイプの二重状態レンズが、使用される。1つの代替例によると、能動的駆動されるエレクトロウェッティング液体レンズが、使用されてもよい。その通常軸が、通常軸に合致し、異常軸がと平行に偏光された光のためのレンズ屈折力を呈する、材料から作製される、回折光学の上層の具体的方向に整合される、液晶を含む、別の代替レンズが、使用されてもよい。後者の場合、第1のQWP14040は、レンズの異方性性能が、中心窩追跡光と非中心窩追跡光との間の線形偏光差に依存するであろうため、排除され得る。   According to alternative embodiments, other types of dual state lenses are used instead of the geometric phase lenses 14050, 14056. According to one alternative, actively driven electrowetting liquid lenses may be used. A liquid crystal, whose normal axis is aligned with the normal axis and whose extraordinary axis exhibits lens power for light polarized parallel to, made of a material, aligned with a specific direction of the upper layer of diffractive optics. Other alternative lenses may be used, including. In the latter case, the first QWP 14040 can be eliminated because the anisotropic performance of the lens will depend on the linear polarization difference between the foveal and non-foveal tracking light.

画像走査ミラー14030の各配向は、偏光回転スイッチ14034が非中心窩追跡P−偏光を透過させるように構成されるとき、画像空間内のある角度座標に対応する。偏光回転スイッチ14034が、中心窩追跡される、S−偏光を出力するように構成されるとき、画像走査ミラー14030の配向は、中心窩追跡ミラー14068の配向と組み合わせて、画像空間内の角度座標を決定する。画像走査ミラーおよび中心窩追跡ミラー14068の配向によって決定された光ビーム伝搬の角度は、2倍率無限焦点拡大レンズ14048の拡大率によって、随意に、中継レンズ14032、14042、14060、14066の相対的焦点距離によって決定された拡大率によって乗算される。角度画像空間内に定義されるピクセルの有効サイズは、レーザダイオード14002、14010、14016の変調率および画像走査ミラー14030の運動の角速度の逆数に比例する。画像走査ミラー14030の運動が正弦波であり得る限りにおいて、レーザダイオード14002、14010、14016の変調率は、ピクセルサイズ変動を低減または排除するために、画像走査ミラー14030の角速度に反比例するようにされてもよい。中心窩追跡および非中心窩追跡領域の両方が、レーザダイオード14002、14010、14016のために生成されているとき、レーザダイオード14002、14010、14010の完全な潜在的変調率(利用可能なレーザの特性によって限定される)が、使用されることができ(少なくとも視野内のある点に関して)、画像走査ミラーの完全角度範囲は、比較的に小立体角範囲に対する、中心窩追跡領域のために生産された画像の分解能画像が、より広い視野のために生産された画像の分解能より高くなり得る(より小さいピクセルサイズ)ように、使用されることができる。   Each orientation of image scanning mirror 14030 corresponds to an angular coordinate in image space when polarization rotation switch 14034 is configured to transmit non-foveal tracking P-polarized light. When the polarization rotation switch 14034 is configured to output foveal-tracked, S-polarized light, the orientation of the image scanning mirror 14030 is combined with the orientation of the foveal tracking mirror 14068 to obtain angular coordinates in image space. To decide. The angle of light beam propagation determined by the orientation of the image scanning mirror and the fovea tracking mirror 14068 is optionally dependent on the magnification of the 2x afocal magnifying lens 14048 and, optionally, the relative focus of the relay lenses 14032, 14042, 14060, 14066. It is multiplied by the magnification factor determined by the distance. The effective size of a pixel defined in the angular image space is proportional to the modulation rate of the laser diodes 14002, 14010, 14016 and the reciprocal of the angular velocity of the movement of the image scanning mirror 14030. To the extent that the movement of the image scanning mirror 14030 can be sinusoidal, the modulation rate of the laser diodes 14002, 14010, 14016 is made inversely proportional to the angular velocity of the image scanning mirror 14030 to reduce or eliminate pixel size variations. May be. When both foveal and non-foveal tracking regions are generated for laser diodes 14002, 14010, 14016, the full potential modulation factor of laser diodes 14002, 14010, 14010 (characteristics of available lasers). Can be used (at least with respect to some point in the field of view), but the full angular range of the image scanning mirror is produced for the foveal tracking region, relative to the relatively small solid angle range. The resolution of the image can be used so that the resolution image can be higher (smaller pixel size) than the resolution of the image produced for a wider field of view.

ある実施形態によると、システム14000が使用される、拡張現実システムでは、仮想コンテンツは、実世界上に重畳され、これは、接眼レンズ導波管14070、14072、14074を通して、ユーザに可視となる。仮想コンテンツは、(例えば、無生物オブジェクト、人々、動物、ロボット等の)3Dモデルとして定義される。3Dモデルは、3D座標系内に位置付けられ、配向される。拡張現実システムでは、例えば、慣性測定ユニット(IMU)および/またはビジュアルオドメトリの提供を通して、前述の3D座標系は、拡張現実システムのユーザの実世界環境(慣性基準フレーム)に位置合わせされるように維持される。ゲームエンジンは、システム14000(およびユーザの他方の眼のための同様のシステム)を介したユーザへの出力のため、3Dモデルの左眼画像および右眼画像をレンダリングするために、その位置および配向を考慮して、3Dモデルを処理する。3Dモデルがユーザの環境に固定される座標系内に定義される限りにおいて、かつユーザがその頭部(拡張現実眼鏡を担持する)を環境内で移動および方向転換させ得る限りにおいて、左眼画像および右眼画像のレンダリングは、ユーザの頭部移動および方向転換を考慮するように更新される。したがって、例えば、仮想書籍が、実テーブル上に静置して表示され、ユーザが、その頭部を10度左に回転させる場合、IMUまたはビジュアルオドメトリサブシステム(図示せず)からの回転の情報に応答して、ゲームエンジンは、書籍が、ユーザの頭部回転にかかわらず、その位置を維持するように現れるように、左および右画像を更新し、システム14000によって出力されている仮想書籍の画像を10度右に偏移させるであろう。本場合では、中心窩を越えて延在する網膜のより広い部分のための画像と、中心窩を含む、網膜のより限定された部分のための画像とが、偏光回転スイッチ14034を使用して、システム14000を通して時間多重化される。画像は、偏光回転スイッチ14034の動作と同期して、ゲームエンジンによって生成および出力される。上記に述べられたように、ゲームエンジンは、左眼画像および右眼画像を生成する。ゲームエンジンはまた、より狭いFOV左中心窩および右中心窩画像を生成し、これは、偏光回転スイッチ14034が、中心窩追跡ミラー14068を使用して中心窩追跡されたS−偏光を出力するように構成されるときに出力される。上記に議論されるように、そのような中心窩追跡画像は、LHCP光に変換され、2倍率無限焦点拡大レンズ14048によって拡大解除される。そのような拡大解除は、角度範囲を、中心窩(または少なくともその一部)を含む、狭範囲に限定する。拡大解除は、ピクセルサイズを低減させ、それによって、中心窩追跡画像のための角度分解能を増加させる。   In an augmented reality system, in which system 14000 is used, according to an embodiment, virtual content is superimposed on the real world, which is visible to the user through eyepiece waveguides 14070, 14072, 14074. Virtual content is defined as a 3D model (eg, inanimate objects, people, animals, robots, etc.). The 3D model is located and oriented within the 3D coordinate system. In augmented reality systems, for example, through the provision of inertial measurement units (IMUs) and / or visual odometry, the aforementioned 3D coordinate system is aligned with the real world environment (inertia frame of reference) of the user of the augmented reality system. Maintained. The game engine uses its position and orientation to render the left and right eye images of the 3D model for output to the user via system 14000 (and a similar system for the user's other eye). To process the 3D model. A left-eye image, as long as the 3D model is defined in a coordinate system that is fixed to the user's environment, and as long as the user can move and turn its head (carrying augmented reality glasses) in the environment. And the rendering of the right eye image is updated to take into account user head movements and turns. Thus, for example, if a virtual book is displayed stationary on a real table and the user rotates their head 10 degrees to the left, information about the rotation from the IMU or visual odometry subsystem (not shown). In response, the game engine updates the left and right images so that the book appears to maintain its position regardless of the user's head rotation, and the virtual book output by the system 14000. The image will be shifted 10 degrees to the right. In this case, an image for a wider portion of the retina that extends beyond the fovea and an image for a more limited portion of the retina, including the fovea, using polarization rotation switch 14034. , Time multiplexed through system 14000. The image is generated and output by the game engine in synchronization with the operation of the polarization rotation switch 14034. As mentioned above, the game engine produces a left eye image and a right eye image. The game engine also produces narrower FOV left and right fovea images, which causes polarization rotation switch 14034 to output fovea-tracked S-polarization using fovea tracking mirror 14068. Output when configured to. As discussed above, such foveal tracking images are converted to LHCP light and demagnified by a 2x afocal magnifying lens 14048. Such demagnification limits the angular range to a narrow range that includes the fovea (or at least a portion thereof). Demagnification reduces the pixel size, thereby increasing the angular resolution for foveal tracking images.

図37Aは、一実施形態による、図36Aに示される拡張現実接眼ディスプレイシステムにおいて使用される、2倍率無限焦点拡大レンズ14048の略図である。   37A is a schematic illustration of a 2X afocal magnifying lens 14048 used in the augmented reality eyepiece display system shown in FIG. 36A, according to one embodiment.

図37Bは、他の実施形態による、無限焦点拡大レンズ14048の代わりに、図36Aに示される拡張現実接眼ディスプレイシステム14000において使用され得る、二重焦点拡大無限焦点拡大レンズ15000の略図である。無限焦点拡大レンズ15000は、正の屈折レンズ15004と、第1の幾何学的位相レンズ15006とを含む、レンズグループ15002を含む。無限焦点拡大レンズ15000はさらに、第1のレンズグループ15002からある距離に離間される、第2の幾何学的位相レンズ15008を含む。第1の幾何学的位相レンズ15006および第2の幾何学的位相レンズ15008は、反対掌性を有する。幾何学的位相レンズの掌性に合致する掌性を有する光に関して、幾何学的位相レンズは、正のレンズとして作用し、幾何学的位相レンズの掌性と反対の掌性を有する光に関して、幾何学的位相レンズは、負のレンズとして作用する。加えて、幾何学的位相レンズを通して伝搬することに応じて、光の掌性は、逆転される。故に、第1の幾何学的位相レンズ15006が、正のレンズとして作用すると、第2の幾何学的位相レンズ15008もまた、正のレンズとして作用し、第1の幾何学的位相レンズ15006が、負のレンズとして作用すると、第2の幾何学的位相レンズ15008もまた、負のレンズとして作用するであろう。第1の幾何学的位相レンズ15006が、負のレンズとして作用すると、レンズグループ15002は、正の屈折レンズ15004単独の焦点距離より長い焦点距離を有するであろう。第1の幾何学的位相レンズ15006が、正のレンズとして作用すると、レンズグループ15002は、正の屈折レンズ15004単独の焦点距離より短い焦点距離を有するであろう。   FIG. 37B is a schematic illustration of a bifocal magnifying afocal magnifying lens 15000 that may be used in the augmented reality eyepiece display system 14000 shown in FIG. 36A instead of the afocal magnifying lens 14048, according to another embodiment. The afocal magnifying lens 15000 includes a lens group 15002 that includes a positive refractive lens 15004 and a first geometric phase lens 15006. The afocal magnifying lens 15000 further includes a second geometric phase lens 15008 spaced a distance from the first lens group 15002. The first geometric phase lens 15006 and the second geometric phase lens 15008 have antipodal properties. For light having a handedness that matches the handedness of the geometric phase lens, the geometrical phase lens acts as a positive lens and for light having a handedness opposite to that of the geometrical phase lens, The geometric phase lens acts as a negative lens. In addition, in response to propagating through the geometric phase lens, the handedness of the light is reversed. Therefore, when the first geometric phase lens 15006 acts as a positive lens, the second geometric phase lens 15008 also acts as a positive lens, and the first geometric phase lens 15006 becomes Acting as a negative lens, the second geometric phase lens 15008 will also act as a negative lens. If the first geometric phase lens 15006 acts as a negative lens, the lens group 15002 will have a longer focal length than that of the positive refractive lens 15004 alone. If the first geometric phase lens 15006 acts as a positive lens, the lens group 15002 will have a focal length that is shorter than the focal length of the positive refractive lens 15004 alone.

図36Aに示される拡張現実接眼ディスプレイシステム14000では、偏光スイッチ14034によって出力されたP−偏光は、直接、PBS14036を通して通過し、中心窩追跡されず、第1のQWP14040によって、RHCP光に変換される一方、偏光回転スイッチ14034から出力されたS−偏光は、中心窩追跡ミラー14068によって反射され、最終的に、LHCP光に変換されるようにルーティングされることを思い出されたい。   In the augmented reality eyepiece display system 14000 shown in FIG. 36A, the P-polarized light output by polarization switch 14034 passes directly through PBS 14036, is not foveated, and is converted to RHCP light by first QWP 14040. Recall, on the other hand, the S-polarized light output from the polarization rotation switch 14034 is reflected by the foveal tracking mirror 14068 and ultimately routed for conversion to LHCP light.

図37Bに示される実施形態は、第1の幾何学的位相レンズ15006が、左回りであって、第2の幾何学的位相レンズ15008が、右回りであるという仮定を用いて、さらに説明されるであろう。さらに、図36Aに示されるシステム14000の場合のように、LHCP光は、中心窩追跡され、RHCPは、中心窩追跡されない光であって、より広いFOV(網膜のより広い部分)のための画像毎に変調された光を搬送すると仮定される。LHCP光に関して、第1の幾何学的位相レンズ15006は、正のレンズとして作用し、レンズグループ15002は、レンズグループ15002から焦点FLHCPまでの距離に対応する、比較的に短焦点距離を有する。光を透過させる際、第1の幾何学的位相レンズ15006は、LHCP光をRHCP光に変換し、これに関して、第2の幾何学的位相レンズ15008は、正の屈折力と、第2の幾何学的位相レンズ15008から点FLHCPまでの距離と等しい焦点距離とを有する。この場合、無限焦点拡大レンズ15000は、Keplerian無限焦点拡大レンズを形成する。正の屈折レンズ15004の焦点距離の適切な選択(下記にさらに説明されるであろうように)によって、第1の幾何学的位相レンズ15006および第2の幾何学的位相レンズ15008は、すなわち、Keplerian構成における無限焦点拡大レンズ15000の拡大率は、約1:1または別の所望の値となるように選定されることができる。例えば、画像走査ミラー14030が、+/−10度の走査範囲の光学角度を有すると仮定すると、そのような角度範囲は、網膜の中心窩領域を実質的に被覆することができる。 The embodiment shown in FIG. 37B is further described using the assumption that the first geometric phase lens 15006 is counterclockwise and the second geometric phase lens 15008 is clockwise. Will Further, as in the system 14000 shown in FIG. 36A, the LHCP light is fovea-tracked and the RHCP is non-fovea-tracked light, which is the image for a wider FOV (larger portion of the retina). It is assumed to carry modulated light for each. For LHCP light, the first geometric phase lens 15006 acts as a positive lens and the lens group 15002 has a relatively short focal length, which corresponds to the distance from the lens group 15002 to the focus F LHCP . In transmitting light, the first geometric phase lens 15006 converts LHCP light into RHCP light, in which the second geometric phase lens 15008 has a positive refractive power and a second geometric phase lens 15008. Has a focal length equal to the distance from the optical phase lens 15008 to the point F LHCP . In this case, the afocal magnifying lens 15000 forms a Keplerian afocal magnifying lens. By proper selection of the focal length of the positive refractive lens 15004 (as will be described further below), the first geometric phase lens 15006 and the second geometric phase lens 15008 are: The magnification of the afocal magnifying lens 15000 in the Keplerian configuration can be chosen to be about 1: 1 or another desired value. For example, assuming image scanning mirror 14030 has an optical angle in the scan range of +/- 10 degrees, such a range of angles may substantially cover the foveal region of the retina.

無限焦点拡大レンズ15000に入射するRHCP光に関して、第1の幾何学的位相レンズ15006は、負の屈折力を有し、レンズグループ15002は、レンズグループ15002から点FRHCPまでの距離に対応する、比較的により長い焦点距離を有する。第1の幾何学的位相レンズ15006は、RHCP光をLHCP光に変換し、これに関して、第2の幾何学的位相レンズ15008は、第2の幾何学的位相レンズ15008から点FRHCPまでの距離に対応する、負の焦点距離を有する。この場合、無限焦点拡大レンズ15000は、Galilean無限焦点拡大レンズとして構成され、1:1を実質的に上回る、例えば、3:1の拡大率を有することができる。したがって、無限焦点拡大レンズに入射するRHCP光(中心窩追跡されない)は、画像毎に変調された光を中心窩を越える網膜のより大きい部分(LHCP光によって照明された部分と比較して)に提供することができる。システム14000、15000は、RHCPおよびLHCP光の役割を逆転させるように構成されることができることに留意されたい。 For RHCP light entering the afocal magnifying lens 15000, the first geometric phase lens 15006 has a negative refractive power and the lens group 15002 corresponds to the distance from the lens group 15002 to the point F RHCP . It has a relatively longer focal length. The first geometric phase lens 15006 converts the RHCP light into LHCP light, in which respect the second geometric phase lens 15008 measures the distance from the second geometric phase lens 15008 to the point F RHCP. With a negative focal length. In this case, the afocal magnifying lens 15000 can be configured as a Galilean afocal magnifying lens and have a magnifying power substantially greater than 1: 1 eg 3: 1. Therefore, the RHCP light that is incident on the afocal magnifying lens (which is not foveal tracked) causes the image-modulated light to reach a larger portion of the retina beyond the fovea (compared to the area illuminated by the LHCP light). Can be provided. Note that the systems 14000, 15000 can be configured to reverse the role of RHCP and LHCP light.

正の屈折レンズ15004の所与の焦点距離および第1の幾何学的位相レンズ15004の焦点距離の所与の大きさに関して、レンズグループ15002は、入射光の掌性(上記に説明されるように)に応じて、レンズグループ15002から点FLHCPおよびFRHCPまでの距離と等しい2つの焦点距離のうちの1つを有するであろう。第2の幾何学的位相レンズ15008は、FLHCPとFRHCPとの間の中間点を中心として位置付けられるべきであって、第2の幾何学的位相レンズ15008の焦点距離は、FLHCPとFRHCPとの間の距離のほぼ中間に設定されるべきである。Keplerian構成の拡大率は、点FLHCPから第2の幾何学的位相レンズ15008までの距離によって除算される、レンズグループ15002から点FLHCPまでの距離のマイナスの比率にほぼ等しい。Galilean構成の拡大率は、第2の幾何学的位相レンズ15008から点FRHCPまでの距離によって除算される、レンズグループ15002から点FRHCPまでの距離の比率とほぼ等しい。 For a given focal length of the positive refracting lens 15004 and a given magnitude of the focal length of the first geometric phase lens 15004, the lens group 15002 has the palmity of the incident light (as described above). ), According to), one of two focal lengths equal to the distance from the lens group 15002 to the points F LHCP and F RHCP . The second geometric phase lens 15008 should be centered on the midpoint between F LHCP and F RHCP, and the focal length of the second geometric phase lens 15008 is F LHCP and F LHCP It should be set approximately in the middle of the distance to RHCP . The magnification factor of the Keplerian configuration is approximately equal to the negative ratio of the distance from the lens group 15002 to the point F LHCP divided by the distance from the point F LHCP to the second geometric phase lens 15008. The magnification of the Galilean configuration is approximately equal to the ratio of the distance from the lens group 15002 to the point F RHCP divided by the distance from the second geometric phase lens 15008 to the point F RHCP .

2倍率無限焦点拡大レンズ14048、15000は、非限定的実施例として、望遠鏡、双眼鏡、カメラ、および顕微鏡を含む、他のタイプの光学デバイスにおいても使用されることができる。実画像が形成されることになる、システムでは、無限焦点拡大レンズs14048、15000は、付加的光学要素(例えば、レンズ、凸面ミラー)と組み合わせて使用されることができる。   The 2X afocal magnifying lens 14048, 15000 can also be used in other types of optical devices, including, by way of non-limiting example, telescopes, binoculars, cameras, and microscopes. In a system where a real image is to be formed, afocal magnifying lenses s14048, 15000 can be used in combination with additional optical elements (eg lenses, convex mirrors).

図36Aを参照すると、代替実施形態によると、固定ミラー14062は、第2の画像走査ミラーと置換され、レーザダイオードと、コリメートレンズと、RGBダイクロイック組み合わせ立方体とを含む、第2のサブシステム(図36Aに示されるもののような)が、RGB画像変調光を第2の走査ミラーに提供するために使用されることができる。第2のサブシステムおよび第2の走査ミラーは、中心窩追跡光を提供するため専用であろう。この場合、偏光回転スイッチ14034および第2のQWP14058は、省かれることができ、中心窩追跡および非中心窩追跡光の両方が、同時に生産されることができる。そのような代替の全てでは、レーザダイオードは、P−偏光をPBS14036の中に投入するように配向されるであろう。   Referring to FIG. 36A, according to an alternative embodiment, the fixed mirror 14062 is replaced with a second image scanning mirror and includes a laser diode, a collimating lens, and an RGB dichroic combination cube (FIG. 36A). 36A) can be used to provide RGB image modulated light to the second scanning mirror. The second subsystem and the second scanning mirror would be dedicated to provide foveal tracking light. In this case, the polarization rotation switch 14034 and the second QWP 14058 can be omitted and both foveal and non-foveal tracking light can be produced at the same time. In all such alternatives, the laser diode would be oriented to inject P-polarized light into PBS 14036.

図36Bは、別の拡張現実接眼ディスプレイシステム14000Bを図式的に図示する。システム14000Bが、図36Aに示されるシステム14000と共通するある側面を有するという点で、図36Bに示される実施形態の以下の説明は、差異に焦点を当てるであろう。システム14000Bでは、2倍率無限焦点拡大レンズ14048、第2のQWP14058、および偏光回転スイッチ14034は、排除される。より長い焦点距離の第1の中継レンズ要素14032Bが、第1の中継レンズ要素14032Bおよび第2の中継レンズ要素14042の組み合わせが、走査ミラー14030によって走査される光の角度視野を拡大するように使用される。走査ミラー14030は、システム14000Bの完全視野からFOVの高分解能中心窩追跡部分を差し引いた部分を被覆するために使用される。第2の走査ミラー14030は、第1の中継レンズ要素14032Bの焦点距離と等しい第1の中継レンズ要素14032Bからの距離に設置されることができる。第1のRGB光エンジン14095は、P−偏光を出力するように構成され、偏光回転スイッチ14034の不在下では、走査ミラー14030によって走査される光は、第1の中継レンズ要素14032Bおよび第2の中継レンズ要素14042通して結合されるであろう。   FIG. 36B schematically illustrates another augmented reality eyepiece display system 14000B. The following description of the embodiment shown in FIG. 36B will focus on the differences in that system 14000B has certain aspects in common with system 14000 shown in FIG. 36A. In system 14000B, the 2x afocal magnifying lens 14048, the second QWP 14058, and the polarization rotation switch 14034 are eliminated. A longer focal length first relay lens element 14032B is used such that the combination of the first relay lens element 14032B and the second relay lens element 14042 increases the angular field of view of the light scanned by the scanning mirror 14030. To be done. Scanning mirror 14030 is used to cover the full field of view of system 14000B minus the high resolution foveal tracking of the FOV. The second scanning mirror 14030 can be installed at a distance from the first relay lens element 14032B that is equal to the focal length of the first relay lens element 14032B. The first RGB light engine 14095 is configured to output P-polarized light, and in the absence of the polarization rotation switch 14034, the light scanned by the scanning mirror 14030 is the first relay lens element 14032B and the second relay lens element 14032B. It will be coupled through the relay lens element 14042.

システム14000(図36A)において使用される固定ミラー14062は、第2の走査ミラー14030Bと置換される。第2の原色(例えば、赤色−青色−緑色(RGB))光エンジン14096は、第1の原色(例えば、赤色−青色−緑色(RGB))14095を補完する。第2のRGB光エンジン14095は、コリメートレンズ14004B、14012B、14018Bおよび第2のRGBダイクロイックコンバイナ立方体14008Bを通して、第2の走査ミラー14030Bに結合される、第2の赤色、緑色、および青色レーザダイオード14002B、14010B、14016Bを含む。第2のRGB光エンジン14096の付加的要素は、上記に説明される、第1のRGB光エンジン14095の要素に対応し、共通数値部分と、追加される添え字‘B’とを有する、参照番号で標識される。第2のRGB光エンジン14096によって出力され、第2の走査ミラー14030によって角度的に走査される、P−偏光は、第3の中継レンズ要素14060および第4の中継レンズ要素14066によって形成される無限焦点中継系を通して、中心窩追跡ミラー14068に光学的に結合され、中心窩追跡ミラーに到達する際、第3のQWP14064を通して通過する。中心窩追跡ミラー14068によって角度的に偏移されることに応じて、光は、第4の中継レンズ要素14066および第3のQWP14068を通して逆反射され、ここで、その偏光状態がS−偏光に変化され、偏光選択的ミラーによって、第1のQWP14040および第2の中継レンズ要素14042に向かって反射され、その後、内部結合要素14076、14078、14080に衝突する。第1および第2のRGB光エンジン14095、14096は、赤色、青色、および緑色以外のまたはそれに加え、原色の色を利用してもよいことを理解されたい。   The fixed mirror 14062 used in the system 14000 (FIG. 36A) replaces the second scanning mirror 14030B. A second primary color (eg, red-blue-green (RGB)) light engine 14096 complements a first primary color (eg, red-blue-green (RGB)) 14095. The second RGB light engine 14095 is coupled to a second scanning mirror 14030B through a collimating lens 14004B, 14012B, 14018B and a second RGB dichroic combiner cube 14008B to a second red, green, and blue laser diode 14002B. , 14010B, 14016B. The additional elements of the second RGB light engine 14096 correspond to the elements of the first RGB light engine 14095 described above and have a common numerical part and an additional subscript'B ', see Be labeled with a number. The P-polarized light output by the second RGB light engine 14096 and angularly scanned by the second scanning mirror 14030 is infinite formed by the third relay lens element 14060 and the fourth relay lens element 14066. It is optically coupled to the foveal tracking mirror 14068 through a focus relay system and passes through a third QWP 14064 as it reaches the foveal tracking mirror. In response to being angularly displaced by the foveal tracking mirror 14068, light is retroreflected through the fourth relay lens element 14066 and the third QWP 14068, where its polarization state changes to S-polarization. And is reflected by the polarization-selective mirror towards the first QWP 14040 and the second relay lens element 14042 and then impinges on the inner coupling elements 14076, 14078, 14080. It should be appreciated that the first and second RGB light engines 14095, 14096 may utilize primary colors other than or in addition to red, blue, and green.

拡張現実接眼ディスプレイシステム14000Bは、中心窩追跡高分解能画像および非中心窩追跡のより広い視野画像を同時に出力することが可能である。より高い分解能の中心窩追跡画像とより広い視野画像を時間多重化する必要性(図36Aに示されるシステムの場合のように)を回避することによって、システム14000Bは、より高いフレームレートをより容易に達成することが可能である。

V. 眼視線に伴う視野全体の追跡
The augmented reality eyepiece display system 14000B is capable of simultaneously outputting a foveal tracking high resolution image and a non-foveal tracking wider field of view image. By avoiding the need to time multiplex higher resolution foveal tracking images and wider field-of-view images (as is the case for the system shown in FIG. 36A), system 14000B makes higher frame rates easier. Can be achieved.

V. Tracking the entire visual field with eye gaze

いくつかの実施形態によると、図26E−26Fに図示されるように、第1の画像ストリームを静的位置に提示する代わりに、第1の画像ストリームおよび第2の画像ストリームの両方は、ユーザの現在の固視点に従って、動的に偏移されることができる。図38A−38Bは、いくつかの実施形態による、ユーザに提示され得る画像の例示的構成を図式的に図示する。図38Aは、第2の画像ストリーム16020が第1の画像ストリーム16010の中心に実質的に位置付けられ得る方法を示す。いくつかの実施形態では、第2の画像ストリーム16020を第1の画像ストリームの中心からオフセットすることが望ましくあり得る。例えば、ユーザの視野は、鼻方向よりこめかみ方向において遠くに延在するため、第2の画像ストリーム16020を第1の画像ストリームの鼻側に向かってオフセットさせることが望ましくあり得る。動作の間、第1および第2の画像ストリームは、図38Bに示されるように、眼視線追跡技法を使用してリアルタイムで決定されるようなユーザの現在の固視点に従って、持続的に偏移されることができる。すなわち、第1の画像ストリーム16010および第2の画像ストリーム16020は、ユーザが、通常、両画像ストリームの中心を直接見ているように、連動して偏移されることができる。図38A−38Bにおけるグリッド正方形は、図24を参照して上記に説明されるように、2次元角度空間内に定義されるような視野3002、3004および3006のように、像点を図式的に表すことに留意されたい。   According to some embodiments, as shown in FIGS. 26E-26F, instead of presenting the first image stream in a static position, both the first image stream and the second image stream may be Can be dynamically shifted according to the current fixation point of. 38A-38B schematically illustrate exemplary configurations of images that may be presented to a user, according to some embodiments. FIG. 38A illustrates how the second image stream 16020 can be substantially centered in the first image stream 16010. In some embodiments, it may be desirable to offset the second image stream 16020 from the center of the first image stream. For example, it may be desirable to offset the second image stream 16020 toward the nose side of the first image stream because the user's field of view extends further in the temple direction than in the nose direction. During operation, the first and second image streams are continuously shifted according to the user's current fixation point as determined in real time using eye gaze tracking techniques, as shown in FIG. 38B. Can be done. That is, the first image stream 16010 and the second image stream 16020 can be interlockedly shifted such that the user is typically looking directly at the center of both image streams. The grid squares in FIGS. 38A-38B graphically depict image points, such as fields of view 3002, 3004, and 3006 as defined in two-dimensional angular space, as described above with reference to FIG. Note that it represents.

図26A−26Bに描写される実施形態と同様に、第2の画像ストリーム16020は、第1の画像ストリーム16010の境界内に表示され得る比較的に狭FOVを有する、高分解能画像ストリームを表す。いくつかの実施形態では、第2の画像ストリーム16020は、眼視線追跡技法を使用して取得されるデータに基づいて、ユーザの現在の固視点と一致する角位置にリアルタイムで動的に調節され得る、レンダリング空間内にある配向を有する、第2の異なる仮想カメラによって捕捉されるであろうような仮想コンテンツの1つ以上の画像を表すことができる。これらの実施例では、高分解能の第2の画像ストリーム16020は、図26A−26Dを参照して上記に説明される中心窩追跡仮想カメラ等の中心窩追跡仮想カメラによって捕捉されるであろうような仮想コンテンツの1つ以上の画像を表すことができる。言い換えると、第2の画像ストリーム16020によって表される仮想コンテンツの1つ以上の画像が捕捉される、レンダリング空間内の視点は、第2の画像ストリーム5020Eと関連付けられた視点が、ユーザの中心窩視と持続的に整合されるように、ユーザの眼視線が変化するにつれて再配向されることができる。   Similar to the embodiment depicted in FIGS. 26A-26B, the second image stream 16020 represents a high resolution image stream having a relatively narrow FOV that may be displayed within the boundaries of the first image stream 16010. In some embodiments, the second image stream 16020 is dynamically adjusted in real-time to an angular position that matches the user's current fixation point based on data obtained using eye gaze tracking techniques. One or more images of virtual content that may be captured by a second, different virtual camera having an orientation that is in the rendering space may be represented. In these examples, the high resolution second image stream 16020 would be captured by a foveal tracking virtual camera, such as the foveal tracking virtual camera described above with reference to FIGS. 26A-26D. One or more images of different virtual content can be represented. In other words, the viewpoint in rendering space at which one or more images of the virtual content represented by the second image stream 16020 is captured is that the viewpoint associated with the second image stream 5020E is the fovea of the user. It can be reoriented as the eye gaze of the user changes so as to be permanently aligned with the eye.

例えば、第2の画像ストリーム16020は、ユーザの眼視線が図38Aに図示されるような第1の位置に固視されると、レンダリング空間の第1の領域内に位置する仮想コンテンツを包含することができる。ユーザの眼視線が、第1の位置と異なる第2の位置に移動するにつれて、第2の画像ストリーム16020と関連付けられた視点は、第2の画像ストリーム16020が、図38Bに図示されるように、レンダリング空間の第2の領域内に位置する仮想コンテンツを包含し得るように、調節されることができる。いくつかの実施形態では、第1の画像ストリーム16010は、疎密グリッドによって示されるように、広FOVであるが、低角度分解能を有する。第2の画像ストリーム16020は、稠密グリッドによって示されるように、狭FOVであるが、高角度分解能を有する。   For example, the second image stream 16020 contains virtual content located within the first region of the rendering space when the user's gaze is fixed in the first position as illustrated in FIG. 38A. be able to. As the user's line of sight moves to a second position that is different from the first position, the viewpoint associated with the second image stream 16020 is such that the second image stream 16020 is as illustrated in FIG. 38B. , Can be adjusted to include virtual content located within the second region of the rendering space. In some embodiments, the first image stream 16010 has a wide FOV, but low angular resolution, as indicated by the sparse grid. The second image stream 16020 is a narrow FOV, but with high angular resolution, as shown by the dense grid.

図39A−39Bは、いくつかの実施形態による、ユーザに提示され得るいくつかの例示的画像を使用して、図38A−38Bに説明される原理のうちのいくつかを図示する。いくつかの実施例では、図39A−39Bに描写される画像および/または画像ストリームのうちの1つ以上のものは、図25Bを参照して上記に説明される深度平面のうちの1つ以上のもの等の特定の深度平面に表示されることになる、2次元画像またはその一部を表し得る。すなわち、そのような画像および/または画像ストリームは、ユーザから固定距離において少なくとも1つの2次元表面上に投影された3−D仮想コンテンツを表し得る。そのような実施例では、そのような画像および/または画像ストリームは、図26A−26Dおよび28A−28Bを参照して上記に説明されるものに類似する、ある角度視野を伴う1つ以上のライトフィールドとしてユーザに提示され得ることを理解されたい。   39A-39B illustrate some of the principles described in FIGS. 38A-38B using some example images that may be presented to a user, according to some embodiments. In some embodiments, one or more of the images and / or image streams depicted in FIGS. 39A-39B may include one or more of the depth planes described above with reference to FIG. 25B. May represent a two-dimensional image or part thereof to be displayed in a particular depth plane, such as That is, such images and / or image streams may represent 3-D virtual content projected onto at least one two-dimensional surface at a fixed distance from the user. In such an embodiment, such images and / or image streams may include one or more lights with an angular field of view similar to those described above with reference to FIGS. 26A-26D and 28A-28B. It should be appreciated that it may be presented to the user as a field.

描写されるように、第1の画像ストリーム17010のコンテンツは、木の一部を含む。図39Aによって表される第1の時間周期の間、眼追跡センサは、ユーザの眼視線(すなわち、中心窩視)が視認可能領域17000内の第1の領域17010−1に合焦していることを決定することができる。本実施例では、第1の領域17010−1は、より低い木の枝を含む。第2の画像ストリーム17020は、第1の領域17010−1内に位置付けられ、第1の画像ストリームより高い分解能を有することができる。第1および第2の画像ストリームは、並行して、または高速で連続して、ユーザの現在の眼視線に対応すると決定された位置に表示されることができる。   As depicted, the content of the first image stream 17010 comprises a portion of a tree. During the first time period represented by FIG. 39A, the eye tracking sensor focuses the user's line of sight (ie, foveal vision) on the first region 17010-1 within the viewable region 17000. You can decide that. In this example, the first area 17010-1 includes the branches of the lower tree. The second image stream 17020 may be located within the first region 17010-1 and have a higher resolution than the first image stream. The first and second image streams can be displayed in parallel or at high speed in succession at positions determined to correspond to the user's current eye gaze.

図39Bによって表される第2の時間周期の間、ユーザの眼視線が、上方の木の枝に対応する、視認可能領域1500内の第2の領域17010−2に偏移したことが検出されることができる。描写されるように、第2の時間周期の間、第1および第2の画像ストリームの位置およびコンテンツは、第2の領域17010−2に対応するように変化する。第1の画像ストリーム17010および第2の画像ストリーム17020の両方のコンテンツは、木の第2の領域17010−2を含むことができる。第1および第2の画像ストリームは、並行して、または高速で連続して、表示されることができる。ユーザの眼視線のさらに検出された移動は、第1および第2の画像ストリームの両方がユーザの現在の眼視線と整合されたまま保たれる同一様式で適応されることができる。   During the second time period represented by FIG. 39B, it has been detected that the user's line of sight has shifted to a second region 17010-2 within the viewable region 1500, corresponding to the upper tree branch. You can As depicted, during the second time period, the position and content of the first and second image streams change to correspond to the second region 17010-2. The content of both the first image stream 17010 and the second image stream 17020 can include a second region 17010-2 of the tree. The first and second image streams can be displayed in parallel or at high speed in succession. The further detected movement of the user's line of sight can be adapted in the same manner so that both the first and second image streams remain aligned with the user's current line of sight.

図28C−28Dに図示される実施形態と同様に、より高い分解能の第2の画像ストリーム17020は、ユーザの中心窩視内の第1の画像ストリーム17010の部分にオーバーレイするため、より低い分解能の第1の画像ストリーム17010は、ユーザによって知覚または認知され得ない。さらに、広視野を有する、第1の画像ストリーム17010は、ユーザの視覚の実質的部分を包含し得るため、ユーザは、ライトフィールドディスプレイの境界を完全に知覚しないように防止され得る。したがって、本技法は、より没入型の体験をユーザに提供することができる。   Similar to the embodiment illustrated in FIGS. 28C-28D, the higher resolution second image stream 17020 overlays a portion of the first image stream 17010 within the fovea view of the user, thus lower resolution. The first image stream 17010 cannot be perceived or perceived by the user. In addition, the first image stream 17010, which has a wide field of view, may encompass a substantial portion of the user's vision, thus preventing the user from completely perceiving the boundaries of the light field display. Therefore, the present technique may provide a more immersive experience to the user.

図40A−40Dは、いくつかの実施形態による、画像をユーザの眼に投影させるためのディスプレイシステム18000を図式的に図示する。ディスプレイシステム18000は、画像源18010を含む。画像源18010は、第1の画像ストリームと関連付けられた第1の光ビーム18052と、第2の画像ストリームと関連付けられた第2の光ビーム18054とを投影するように構成されることができる。第1の画像ストリームは、図38A−38Bを参照して上記に議論されるように、広FOVおよび低分解能画像ストリームであることができ、第2の画像ストリームは、狭FOVおよび高分解能画像ストリームであることができる。いくつかの実施形態では、第1の光ビーム18052および第2の光ビーム18054は、時分割多重化、偏光分割多重化、波長分割多重化、または同等物を行われることができる。   40A-40D schematically illustrate a display system 18000 for projecting an image onto a user's eye, according to some embodiments. Display system 18000 includes an image source 18010. The image source 18010 can be configured to project a first light beam 18052 associated with the first image stream and a second light beam 18054 associated with the second image stream. The first image stream can be a wide FOV and low resolution image stream and the second image stream can be a narrow FOV and high resolution image stream, as discussed above with reference to FIGS. 38A-38B. Can be In some embodiments, the first light beam 18052 and the second light beam 18054 can be time division multiplexed, polarization division multiplexed, wavelength division multiplexed, or the like.

ディスプレイシステム18000はさらに、第1の光ビーム18052および第2の光ビーム18054を反射させるように構成される、2D走査ミラー18020を含むことができる。いくつかの実施形態では、2D走査ミラー18020は、第1の光ビーム18052および第2の光ビーム18054の両方が、それぞれ、第1の画像ストリームおよび第2の画像ストリームをユーザの中心窩視に投影し得るように、ユーザの眼の固視位置に基づいて、2つの方向に傾斜されたことができる。   The display system 18000 can further include a 2D scanning mirror 18020 configured to reflect the first light beam 18052 and the second light beam 18054. In some embodiments, the 2D scanning mirror 18020 allows the first light beam 18052 and the second light beam 18054 to respectively focus the first image stream and the second image stream into a user's foveal view. As can be projected, it can be tilted in two directions based on the fixation position of the user's eye.

ディスプレイシステム18000はさらに、切替可能光学要素18040を含むことができる。切替可能光学要素18040は、単一要素として図示されるが、切替可能中継レンズアセンブリとして機能する、一対のサブ切替可能光学要素を含むことができる。各サブ切替可能光学要素は、図40Aおよび40Cに図示されるように、第1の屈折力を伴う光学レンズとして動作するように、第1の状態に切り替えられる、または図40Bおよび40Dに図示されるように、第1の屈折力と異なる第2の屈折力を伴う光学レンズとして動作するように、第2の状態に切り替えられることができる。各サブ切替可能光学要素は、種々の実施形態によると、例えば、液晶可変焦点レンズ、同調可能回折レンズ、変形可能レンズ、または多焦点複屈折レンズであることができる。   Display system 18000 can further include switchable optical element 18040. Switchable optical element 18040 is shown as a single element, but can include a pair of sub-switchable optical elements that function as a switchable relay lens assembly. Each sub-switchable optical element is switched to a first state to operate as an optical lens with a first optical power, as illustrated in FIGS. 40A and 40C, or illustrated in FIGS. 40B and 40D. Thus, the second state can be switched to operate as an optical lens with a second optical power different from the first optical power. Each sub-switchable optical element can be, for example, a liquid crystal variable focus lens, a tunable diffractive lens, a deformable lens, or a multifocal birefringent lens, according to various embodiments.

第1の光ビーム18052および第2の光ビーム18054が、時分割多重化される場合、切替可能光学要素18040および走査ミラー18020は、以下のように動作することができる。ユーザの眼視線が、第1の時間周期の間、第1の位置に固視されると仮定する。走査ミラー18020は、図40Aおよび40Bに図示されるように、第1の時間周期の間、第1の光ビーム18052および第2の光ビーム18054が、第1の位置に向かって指向されるように、第1の配向にあることができる。画像源18010が第1の光ビーム18052を出力する、第1の時間周期の第1の時間スロット(段階A)の間、切替可能光学要素18040は、図40Aに図示されるように、第1の屈折力を伴う光学レンズとして動作する、第1の状態に切り替えられることができる。画像源18010が第2の光ビーム18054を出力する、第1の時間周期の第2の時間スロット(段階A)の間、切替可能光学要素18040は、図40Bに図示されるように、第2の屈折力を伴う光学レンズとして動作する、第2の状態に切り替えられることができる。したがって、第1の光ビーム18052は、第1の光ビーム18052が、第2の光ビーム18054によって提示される第2の画像ストリームのものより広いFOVを伴う第1の画像ストリームを提示することができるように、第2の光ビーム18054より角度的に拡大される。 When the first light beam 18052 and the second light beam 18054 are time division multiplexed, the switchable optical element 18040 and the scan mirror 18020 can operate as follows. It is assumed that the user's gaze is fixed at the first position during the first time period. Scanning mirror 18020 is configured to direct first light beam 18052 and second light beam 18054 toward a first position during a first period of time, as illustrated in FIGS. 40A and 40B. And in a first orientation. During the first time slot of the first time period (stage A 1 ), at which the image source 18010 outputs the first light beam 18052, the switchable optical element 18040 is switched to the first as shown in FIG. 40A. It can be switched to a first state, acting as an optical lens with a refractive power of 1. During the second time slot (stage A 2 ) of the first time period, when the image source 18010 outputs the second light beam 18054, the switchable optical element 18040 is switched to the first time period as shown in FIG. 40B. It can be switched to a second state, acting as an optical lens with a refractive power of 2. Thus, the first light beam 18052 may present a first image stream with a wider FOV than the second image stream presented by the second light beam 18054. The second light beam 18054 is angularly expanded so that it can.

ここで、ユーザの眼視線が、第2の時間周期の間、第1の位置から第2の位置に移動したと仮定する。走査ミラー18020は、図40Cおよび40Dに図示されるように、第2の時間周期の間、第1の光ビーム18052および第2の光ビーム18054が、第2の位置に向かって指向されるように、第2の配向にあることができる。画像源18010が第1の光ビーム18052を出力する、第2の時間周期の第1の時間スロット(段階B)の間、切替可能光学要素18040は、図40Cに図示されるように、第1の屈折力を伴う光学レンズとして動作する、第1の状態に切り替えられることができる。画像源18010が第2の光ビーム18054を出力する、第2の時間周期の第2の時間スロット(段階B)の間、切替可能光学要素18040は、図40Dに図示されるように、第2の屈折力を伴う光学レンズとして動作する、第2の状態に切り替えられることができる。 Here, it is assumed that the line of sight of the user has moved from the first position to the second position during the second time period. Scanning mirror 18020 is configured to direct first light beam 18052 and second light beam 18054 toward a second position during a second period of time, as illustrated in FIGS. 40C and 40D. And in a second orientation. During the first time slot of the second time period (stage B 1 ) when the image source 18010 outputs the first light beam 18052, the switchable optical element 18040 is switched to the first time slot as shown in FIG. 40C. It can be switched to a first state, acting as an optical lens with a refractive power of 1. Image source 18010 outputs a second light beam 18 054, between the second second time slot of the time period (Step B 2), switchable optical element 18040, as illustrated in Figure 40D, the It can be switched to a second state, acting as an optical lens with a refractive power of 2.

第1の光ビーム18052および第2の光ビーム18054が、偏光分割多重化される場合、切替可能光学要素18040は、図40Aおよび40Cに図示されるように、第1の光ビーム18052のための第1の屈折力を伴う光学レンズとして動作し、図40Bおよび40Dに図示されるように、第2の光ビーム18054のための第2の屈折力を伴う光学レンズとして動作するように、多焦点複屈折レンズを備えることができる。   When the first light beam 18052 and the second light beam 18054 are polarization division multiplexed, the switchable optical element 18040 is for the first light beam 18052 as illustrated in FIGS. 40A and 40C. Acting as an optical lens with a first optical power, and as a optical lens with a second optical power for a second light beam 18054, as shown in FIGS. 40B and 40D, is multifocal. A birefringent lens can be included.

第1の光ビーム18052および第2の光ビーム18054が、波長分割多重化される場合、切替可能光学要素18040は、図40Aおよび40Cに図示されるように、第1の光ビーム18052のための第1の屈折力を伴う光学レンズとして動作し、図40Bおよび40Dに図示されるように、第2の光ビーム18054のための第2の屈折力を伴う光学レンズとして動作するように、波長依存多焦点レンズを備えることができる。   When the first light beam 18052 and the second light beam 18054 are wavelength division multiplexed, the switchable optical element 18040 is for the first light beam 18052 as illustrated in FIGS. 40A and 40C. Wavelength dependent to act as an optical lens with a first optical power, and as an optical lens with a second optical power for a second light beam 18054, as illustrated in FIGS. 40B and 40D. A multifocal lens can be provided.

図41A−41Dは、いくつかの他の実施形態による、画像をユーザの眼に投影させるためのディスプレイシステム19000を図式的に図示する。ディスプレイシステム19000は、ディスプレイシステム18000に類似することができるが、切替可能光学要素18040は、走査ミラー18020の表面上に配置されることができる。例えば、切替可能光学要素18040は、走査ミラー18020の表面上に層化された1つ以上の基板であることができる。   41A-41D schematically illustrate a display system 19000 for projecting an image onto a user's eye according to some other embodiments. Display system 19000 can be similar to display system 18000, but switchable optical element 18040 can be disposed on the surface of scan mirror 18020. For example, switchable optical element 18040 can be one or more substrates layered on the surface of scan mirror 18020.

いくつかのさらなる実施形態では、切替可能光学要素18040は、ディスプレイシステム19000内の他の場所に位置付けられることができる。例えば、画像源18010と走査ミラー18020との間に位置付けられることができる。   In some further embodiments, switchable optical element 18040 can be located elsewhere within display system 19000. For example, it can be positioned between the image source 18010 and the scanning mirror 18020.

いくつかの他の実施形態では、偏光ビームスプリッタまたはダイクロイックビームスプリッタは、第1の光ビーム18052および第2の光ビーム18054を2つの別個の光学経路に多重化解除するために使用されることができるが、両光学経路は、走査ミラー18020の反射表面と交差する。   In some other embodiments, a polarizing beamsplitter or dichroic beamsplitter may be used to demultiplex the first light beam 18052 and the second light beam 18054 into two separate optical paths. Although, both optical paths intersect the reflective surface of scan mirror 18020.

他の実施形態では、2つを上回る画像ストリームが、ユーザの固視点からユーザの周辺視覚への分解能における遷移が、外観上、より段階的であるように、ユーザに提示されることができる。例えば、中FOVおよび中分解能を有する、第3の画像ストリームが、第1の画像ストリームおよび第2の画像ストリームに加え、提示されることができる。そのような場合、付加的中継レンズアセンブリおよび/または走査ミラーが、付加的画像ストリームのための付加的光学経路を提供するために利用されることができる。

VI. 時間多重化スキーム
In other embodiments, more than two image streams may be presented to the user such that the transition in resolution from the user's fixation point to the user's peripheral vision is more gradual in appearance. For example, a third image stream having a medium FOV and medium resolution can be presented in addition to the first image stream and the second image stream. In such cases, additional relay lens assemblies and / or scanning mirrors can be utilized to provide additional optical paths for additional image streams.

VI. Time multiplexing scheme

いくつかの実施形態では、高FOV低分解能画像ストリーム(すなわち、第1の画像ストリーム)および低FOV高分解能画像ストリーム(すなわち、第2の画像ストリーム)は、時分割多重化されることができる。   In some embodiments, the high FOV low resolution image stream (ie, the first image stream) and the low FOV high resolution image stream (ie, the second image stream) can be time division multiplexed.

図42は、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームと併用するために好適な例示的時分割多重化パターンを図示する、グラフを示す。図示されるように、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームは、交互時間スロットに配分される。例えば、各時間スロットは、持続時間中の約85分の1秒であり得る。したがって、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームはそれぞれ、約42.5Hzのリフレッシュレートを有し得る。いくつかの実施形態では、低FOV高分解能画像ストリームのライトフィールドに対応する角度領域は、高FOV低分解能画像ストリームに対応するライトフィールドの角度領域の一部に重複し、重複された角度領域における有効リフレッシュレートを約85Hz(すなわち、各個々の画像ストリームのリフレッシュレートの2倍)にする。   FIG. 42 shows a graph illustrating an exemplary time division multiplexing pattern suitable for use with the high FOV low resolution image stream and the low FOV high resolution image stream. As shown, the high FOV low resolution image stream and the low FOV high resolution image stream are distributed in alternating time slots. For example, each time slot may be approximately 1 / 85th of a second in duration. Thus, the high FOV low resolution image stream and the low FOV high resolution image stream may each have a refresh rate of about 42.5 Hz. In some embodiments, the angular region corresponding to the light field of the low FOV high resolution image stream overlaps a portion of the angular region of the light field corresponding to the high FOV low resolution image stream, and in the overlapped angular region. Make the effective refresh rate about 85 Hz (ie, twice the refresh rate of each individual image stream).

いくつかの他の実施形態では、高FOV低分解能画像ストリームのための時間スロットおよび低FOV高分解能画像ストリームのための時間スロットは、異なる持続時間を有することができる。例えば、高FOV低分解能画像ストリームのための各時間スロットは、85分の1秒より長い持続時間を有することができ、低FOV高分解能画像ストリームのための各時間スロットは、85分の1秒より短い持続時間を有することができる、またはその逆であることができる。   In some other embodiments, the time slots for the high FOV low resolution image stream and the time slots for the low FOV high resolution image stream can have different durations. For example, each time slot for a high FOV low resolution image stream can have a duration greater than 1 / 85th of a second, and each time slot for a low FOV high resolution image stream can be a 1 / 85th of a second. It can have a shorter duration, or vice versa.

図43は、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステム21000を図式的に図示する。ディスプレイシステム21000は、図30A−30Bに図示されるようなディスプレイシステム8000と共通するいくつかの要素を共有し得る。本理由から、図30A−30Bに関連するそれらの共通要素についての説明は、ここでも同様に適用可能である。画像源21002は、第1の偏光状態における高FOV低分解能画像ストリームと、第2の偏光状態における低FOV高分解能画像ストリームとを同時に提供するように構成されることができる。例えば、第1の偏光状態は、第1の方向における線形偏光であることができ、第2の偏光状態は、第1の方向に直交する第2の方向における線形偏光であることができる、または代替として、第1の偏光状態は、左回り円偏光であることができ、第2の偏光状態は、右回り円偏光であることができる。図30A−30Bに図示されるディスプレイシステム8000と同様に、ディスプレイシステム21000は、画像源(例えば、画像源21002)によって投影された光ビームを、第1の光学経路に沿って伝搬する高FOV低分解能画像ストリームと関連付けられた第1の光ビームと、第2の光学経路に沿って伝搬する低FOV高分解能画像ストリームと関連付けられた第2の光ビームとに分離するための偏光ビームスプリッタ21004を含む。   FIG. 43 schematically illustrates a display system 21000 for projecting an image stream onto a user's eye, according to some embodiments. Display system 21000 may share some elements in common with display system 8000 as illustrated in FIGS. 30A-30B. For this reason, the discussion of those common elements associated with Figures 30A-30B is equally applicable here. Image source 21002 can be configured to simultaneously provide a high FOV low resolution image stream in a first polarization state and a low FOV high resolution image stream in a second polarization state. For example, the first polarization state can be linear polarization in a first direction and the second polarization state can be linear polarization in a second direction orthogonal to the first direction, or Alternatively, the first polarization state can be left-hand circular polarization and the second polarization state can be right-hand circular polarization. Similar to the display system 8000 illustrated in FIGS. 30A-30B, the display system 21000 includes a high FOV low that propagates a light beam projected by an image source (eg, image source 21002) along a first optical path. A polarizing beam splitter 21004 for separating a first light beam associated with the resolution image stream and a second light beam associated with the low FOV high resolution image stream propagating along the second optical path. Including.

図30A−30Bに図示されるディスプレイシステムと同様に、ディスプレイシステム21000は、画像源21002とビームスプリッタ21004との間に位置付けられる、第1の光学レンズ(レンズA)と、第1の光学経路に沿ってビームスプリッタ21004の下流に位置付けられる、第2の光学レンズ(レンズB)と、第2の光学経路に沿ってビームスプリッタ21004の下流に位置付けられる、第3の光学レンズ(レンズC)とを含むことができる。いくつかの実施形態では、図30A−30Bおよび31A−31Bに関して上記に説明されるように、第1の光学レンズ(レンズA)および第2の光学レンズ(レンズB)の組み合わせは、1を上回る、第1の光ビームのための角度拡大率を提供することができ、第1の光学レンズ(レンズA)および第3の光学レンズ(レンズC)の組み合わせは、1と実質的に等しいまたは1未満である、第2の光ビームのための角度拡大率を提供することができる。したがって、第1の光ビームは、第2の光ビームによって投影されたものより広いFOVを有する、画像ストリームを投影することができる。   Similar to the display system illustrated in FIGS. 30A-30B, display system 21000 includes a first optical lens (lens A) positioned between image source 21002 and beamsplitter 21004, and a first optical path. A second optical lens (lens B) positioned downstream of the beam splitter 21004 along and a third optical lens (lens C) positioned downstream of the beam splitter 21004 along a second optical path. Can be included. In some embodiments, the combination of the first optical lens (lens A) and the second optical lens (lens B) is greater than 1, as described above with respect to FIGS. 30A-30B and 31A-31B. , A combination of the first optical lens (lens A) and the third optical lens (lens C) can provide an angular magnification for the first light beam and is substantially equal to or 1 An angular magnification factor for the second light beam that is less than can be provided. Therefore, the first light beam can project an image stream having a wider FOV than that projected by the second light beam.

図30A−30Bに図示されるディスプレイシステム8000と同様に、ディスプレイシステム21000はまた、低FOV高分解能画像ストリームと関連付けられた第2の光ビームを動的に投影させるために、ユーザの眼の固視位置に基づいて制御され得る、走査ミラー(例えば、MEMSミラー)の形態をとり得る、中心窩トラッカ21006を含む。   Similar to the display system 8000 illustrated in FIGS. 30A-30B, the display system 21000 also fixes the eye of the user to dynamically project a second light beam associated with the low FOV high resolution image stream. Includes a fovea tracker 21006, which may take the form of a scanning mirror (eg, a MEMS mirror), which may be controlled based on viewing position.

ディスプレイシステム21000はまた、接眼レンズ21008に結合される、第1の内部結合格子(ICG)21010と、第2のICG21020とを含むことができる。接眼レンズ21008は、光をその中に伝搬するように構成される、導波管プレートであることができる。第1のICG21010および第2のICG21020はそれぞれ、その上に入射する光の一部を接眼レンズ21008の中に回折するように構成される、回折光学要素(DOE)であることができる。第1のICG21010は、高FOV低分解能画像ストリームと関連付けられた第1の光ビームの一部を接眼レンズ21008の中に結合するために、第1の光学経路に沿って位置付けられることができる。第2のICG21020は、低FOV高分解能画像ストリームと関連付けられた第2の光ビームの一部を接眼レンズ21008の中に結合するために、第2の光学経路に沿って位置付けられることができる。   The display system 21000 can also include a first incoupling grating (ICG) 21010 and a second ICG 21020 coupled to the eyepiece 21008. The eyepiece 21008 can be a waveguide plate configured to propagate light therein. Each of the first ICG 21010 and the second ICG 21020 can be a diffractive optical element (DOE) configured to diffract a portion of light incident thereon into an eyepiece 21008. The first ICG 21010 can be positioned along the first optical path to couple a portion of the first light beam associated with the high FOV low resolution image stream into the eyepiece 21008. The second ICG 21020 can be positioned along the second optical path to couple a portion of the second light beam associated with the low FOV high resolution image stream into the eyepiece 21008.

ディスプレイシステム21000はまた、第1の切替可能シャッタ21030と、第2の切替可能シャッタ21040とを含むことができる。第1の切替可能シャッタ21030は、第2の光学レンズ(レンズB)と第1のICG21010との間の第1の光学経路に沿って位置付けられる。第2の切替可能シャッタ21040は、中心窩トラッカと第2のICG21020との間の第2の光学経路に沿って位置付けられる。第1の切替可能シャッタ21030および第2の切替可能シャッタ21040の動作は、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームが、時分割多重化シーケンス(例えば、図42に図示されるように)に従って時分割多重化されるように、相互に同期されることができる。第1の切替可能シャッタ21030は、高FOV低分解能画像と関連付けられた第1の時間スロットに対応するある時間周期にわたって、開放され、低FOV高分解能画像ストリームと関連付けられた第2の時間スロットの間、閉鎖されることができる。同様に、第2の切替可能シャッタ21040は、第2の時間スロットの間、開放され、第1の時間スロットの間、閉鎖される。   The display system 21000 can also include a first switchable shutter 21030 and a second switchable shutter 21040. The first switchable shutter 21030 is positioned along a first optical path between the second optical lens (lens B) and the first ICG 21010. The second switchable shutter 21040 is positioned along a second optical path between the fovea tracker and the second ICG 21020. The operation of the first switchable shutter 21030 and the second switchable shutter 21040 is such that the high FOV low resolution image stream and the low FOV high resolution image stream are time-division multiplexed sequences (eg, as illustrated in FIG. 42). ), They can be synchronized with each other so that they are time division multiplexed according to The first switchable shutter 21030 is open for a period of time corresponding to the first time slot associated with the high FOV low resolution image and of the second time slot associated with the low FOV high resolution image stream. Can be closed for a while. Similarly, the second switchable shutter 21040 is open during the second time slot and closed during the first time slot.

したがって、高FOV低分解能画像ストリームは、第1の時間スロットの間(例えば、第1の切替可能シャッタ21030が開放されるとき)、第1のICG21010を用いて、接眼レンズ21008の中に結合され、低FOV高分解能画像ストリームは、第2の時間スロットの間(例えば、第2の切替可能シャッタ21040が開放されるとき)、第2のICG21020を用いて、接眼レンズ21008の中に結合される。いったん高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームが、接眼レンズ21008の中に結合されると、それらは、ユーザの眼の中に誘導および外部結合されてもよい(例えば、外部結合格子によって)。   Thus, the high FOV low resolution image stream is combined into the eyepiece 21008 using the first ICG 21010 during the first time slot (eg, when the first switchable shutter 21030 is opened). , The low FOV high resolution image stream is combined into an eyepiece 21008 using a second ICG 21020 during a second time slot (eg, when the second switchable shutter 21040 is opened). .. Once the high FOV low resolution image stream and the low FOV high resolution image stream are combined into the eyepiece 21008, they may be guided and outcoupled into the user's eye (eg, an outcoupling grid). By).

図44は、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステム22000を図式的に図示する。ディスプレイシステム22000は、図30A−30Bに図示されるディスプレイシステム8000と共通するいくつかの要素を共有し得る。図30A−30Bに関連するそれらの要素についての説明は、ここでも同様に適用可能である。画像源22002によって提供される高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームは、時分割多重化されることができ、所与の偏光された状態にあることができる。   FIG. 44 schematically illustrates a display system 22000 for projecting an image stream onto a user's eye, according to some embodiments. Display system 22000 may share some elements in common with display system 8000 illustrated in FIGS. 30A-30B. The discussion of those elements in relation to Figures 30A-30B is equally applicable here. The high FOV low resolution image stream and the low FOV high resolution image stream provided by image source 22002 can be time division multiplexed and can be in a given polarized state.

ディスプレイシステム22000は、切替可能偏光回転子22010(例えば、半波の遅延を伴う、強誘電性液晶(FLC)セル)を含むことができる。切替可能偏光回転子22010の動作は、切替可能偏光回転子22010が、高FOV低分解能画像ストリームの偏光を回転させず(または非常に小量だけ回転させ)、低FOV高分解能画像ストリームの偏光を約90度回転させる(すなわち、位相偏移πを導入する)、またはその逆であるように、時分割多重化(例えば、図42に図示されるように)において高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームのフレームレートと同期されるように電子的にプログラムされることができる。したがって、切替可能偏光回転子22010を通して通過後、高FOV低分解能画像ストリームの偏光は、低FOV高分解能画像ストリームの偏光に直交し得る。例えば、高FOV低分解能画像ストリームは、s−偏光されることができ、低FOV高分解能画像ストリームは、p−偏光されることができる、またはその逆であることができる。他の実施形態では、高FOV低分解能画像ストリームは、左回り円偏光であることができ、低FOV高分解能画像ストリームは、右回り円偏光であることができる、またはその逆であることができる。   The display system 22000 can include a switchable polarization rotator 22010 (eg, a ferroelectric liquid crystal (FLC) cell with half-wave delay). The operation of the switchable polarization rotator 22010 is such that the switchable polarization rotator 22010 does not rotate the polarization of the high FOV low resolution image stream (or rotates it by a very small amount), but does not rotate the polarization of the low FOV high resolution image stream. A high FOV low resolution image stream and low in time division multiplexing (eg, as shown in FIG. 42), such that it rotates about 90 degrees (ie, introduces a phase shift π) or vice versa. It can be electronically programmed to be synchronized with the frame rate of the FOV high resolution image stream. Therefore, after passing through the switchable polarization rotator 22010, the polarization of the high FOV low resolution image stream may be orthogonal to the polarization of the low FOV high resolution image stream. For example, a high FOV low resolution image stream can be s-polarized, a low FOV high resolution image stream can be p-polarized, or vice versa. In other embodiments, the high FOV low resolution image stream can be left-hand circularly polarized and the low FOV high resolution image stream can be right-handed circularly polarized or vice versa. ..

ディスプレイシステム22000は、光ビームを、第1の光学経路に沿って第1のICG21010に向かって伝搬する、高FOV低分解能画像ストリームと関連付けられた第1の光ビームと、第2の光学経路に沿って第2のICG21020に向かって伝搬する低FOV高分解能画像ストリームと関連付けられた第2の光ビームとに分離するために、偏光ビームスプリッタ22004を含むことができる。   The display system 22000 propagates a light beam along a first optical path towards a first ICG 21010, a first light beam associated with a high FOV low resolution image stream, and a second optical path. A polarizing beamsplitter 22004 may be included for splitting into a second light beam associated with a low FOV high resolution image stream that propagates toward the second ICG 21020.

ディスプレイシステム22000はまた、2つの光学経路のうちの1つに沿って、例えば、図44に図示されるように、第2の光学経路に沿って位置付けられる、静的偏光回転子22020を含むことができる。静的偏光回転子22020は、2つの画像ストリームが、それぞれ、第1のICG21010および第2のICG21020に入射するにつれて、実質的に同一偏光を有し得るように、低FOV高分解能画像ストリームおよび高FOV低分解能画像ストリームのうちの1つの偏光を回転させるように構成されることができる。これは、第1のICG21010および第2のICG21020が、ある偏光に関してより高い回折効率を有するように設計される場合、有利であり得る。静的偏光回転子22020は、例えば、半波長板であることができる。   The display system 22000 also includes a static polarization rotator 22020 positioned along one of the two optical paths, eg, along the second optical path, as illustrated in FIG. You can The static polarization rotator 22020 has a low FOV high resolution image stream and a high resolution image stream so that the two image streams may have substantially the same polarization as they enter the first ICG 21010 and the second ICG 21020, respectively. It can be configured to rotate the polarization of one of the FOV low resolution image streams. This may be advantageous if the first ICG 21010 and the second ICG 21020 are designed to have higher diffraction efficiency for certain polarizations. The static polarization rotator 22020 can be, for example, a half wave plate.

図45は、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステム23000を図式的に図示する。ディスプレイシステム23000は、図30A−30Bに図示されるディスプレイシステム8000と共通するいくつかの要素を共有し得る。図30A−30Bに関連するそれらの要素についての説明は、ここでも同様に適用可能である。画像源23002は、時分割多重化される、高FOV低分解能画像ストリームおよび低FOVおよび高分解能画像ストリームを提供するように構成されることができる。   FIG. 45 schematically illustrates a display system 23000 for projecting an image stream onto a user's eye, according to some embodiments. Display system 23000 may share some elements in common with display system 8000 illustrated in FIGS. 30A-30B. The discussion of those elements in relation to Figures 30A-30B is equally applicable here. Image source 23002 can be configured to provide time-division multiplexed high FOV low resolution image streams and low FOV and high resolution image streams.

ここでは、ビームスプリッタの代わりに、ディスプレイシステム23000は、切替可能反射体23004を含む。切替可能反射体23004は、入射光ビームが反射される、反射モードと、入射光ビームが透過される、透過モードとに切り替えられることができる。切替可能反射体は、ガラスまたはプラスチック等の基板ホスト媒体に内蔵される液晶を備える、電気活性反射体を含んでもよい。印加される電流の関数として屈折率を変化させる、液晶もまた、使用されてもよい。代替として、ニオブ酸リチウムが、液晶の代わりに、電気活性反射材料として利用されてもよい。切替可能反射体23004の動作は、切替可能反射体23004が、高FOV低分解能画像ストリームが到着すると、反射モードになって、低FOV高分解能画像ストリームが到着すると、透過モードになるように、時分割多重化(例えば、図42に図示されるように)における高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームのフレームレートと同期されるように電子的にプログラムされることができる。したがって、高FOV低分解能画像ストリームは、切替可能反射体23004によって、第1の光学経路に沿って、第1のICG21010に向かって反射されることができ、低FOV高分解能画像ストリームは、切替可能反射体23004によって、第2の光学経路に沿って第2のICG21020に向かって透過されることができる。   Here, instead of a beam splitter, the display system 23000 includes a switchable reflector 23004. The switchable reflector 23004 can be switched between a reflective mode in which the incident light beam is reflected and a transmissive mode in which the incident light beam is transmitted. Switchable reflectors may include electroactive reflectors with liquid crystals embedded in a substrate host medium such as glass or plastic. Liquid crystals that change their index of refraction as a function of applied current may also be used. Alternatively, lithium niobate may be utilized as the electroactive reflective material instead of the liquid crystal. The operation of the switchable reflector 23004 is such that the switchable reflector 23004 is in reflective mode when a high FOV low resolution image stream arrives and in transmissive mode when a low FOV high resolution image stream arrives. It can be electronically programmed to be synchronized with the frame rate of the high FOV low resolution image stream and the low FOV high resolution image stream in split multiplexing (eg, as shown in FIG. 42). Thus, the high FOV low resolution image stream can be reflected by the switchable reflector 23004 along the first optical path towards the first ICG 21010 and the low FOV high resolution image stream can be switched. The reflector 23004 may allow transmission along the second optical path towards the second ICG 21020.

代替として、切替可能反射体23004は、第1のセットの波長範囲内の光を反射させ、第2のセットの波長範囲内の光を透過させるように構成される、ダイクロイックミラーによって置換されることができる。画像源23002は、第1のセットの波長範囲内の高FOV低分解能画像ストリームと、第2のセットの波長範囲内の低FOV高分解能画像ストリームとを提供するように構成されることができる。例えば、第1のセットの波長範囲は、赤色、緑色、および青色(RGB)色に対応し得、第2のセットの波長範囲は、第1のセットの波長範囲のものと異なる色相内のRGB色に対応し得る。いくつかの実施形態では、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームは、例えば、図42に図示されるように、時分割多重化される。いくつかの他の実施形態では、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームは、同時に提示される。

VII. 偏光多重化スキーム
Alternatively, the switchable reflector 23004 is replaced by a dichroic mirror configured to reflect light within a first set of wavelength ranges and transmit light within a second set of wavelength ranges. You can The image source 23002 can be configured to provide a high FOV low resolution image stream in the first set of wavelength ranges and a low FOV high resolution image stream in the second set of wavelength ranges. For example, the first set of wavelength ranges may correspond to red, green, and blue (RGB) colors, and the second set of wavelength ranges includes RGB in a different hue than that of the first set of wavelength ranges. Can correspond to color. In some embodiments, the high FOV low resolution image stream and the low FOV high resolution image stream are time division multiplexed, eg, as illustrated in FIG. In some other embodiments, the high FOV low resolution image stream and the low FOV high resolution image stream are presented simultaneously.

VII. Polarization multiplexing scheme

いくつかの実施形態では、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームは、偏光分割多重化されることができる。画像源は、第1の偏光における高FOV低分解能画像ストリームを提供するための第1のセットのRGBレーザと、第1の偏光と異なる第2の偏光における低FOV高分解能画像ストリームを提供するための第2のセットのRGBレーザとを含むことができる。例えば、高FOV低分解能画像ストリームは、s−偏光されことができ、低FOV高分解能画像ストリームは、p−偏光されることができ、またはその逆であることができる。代替として、高FOV低分解能画像ストリームは、左回り円偏光されることができ、低FOV高分解能画像ストリームは、右回り円偏光されることができる、またはその逆であることができる。   In some embodiments, the high FOV low resolution image stream and the low FOV high resolution image stream can be polarization division multiplexed. The image source provides a first set of RGB lasers for providing a high FOV low resolution image stream in a first polarization and a low FOV high resolution image stream in a second polarization different from the first polarization. Second set of RGB lasers. For example, the high FOV low resolution image stream can be s-polarized, the low FOV high resolution image stream can be p-polarized, or vice versa. Alternatively, the high FOV low resolution image stream can be left-handed circularly polarized and the low FOV high resolution image stream can be right-handed circularly polarized or vice versa.

図46は、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステム25000を図式的に図示する。ディスプレイシステム25000は、図30A−30Bに図示されるディスプレイシステム8000と共通するいくつかの要素を共有し得る。図30A−30Bに関連するそれらの要素についての説明は、ここでも同様に適用可能である。画像源25002は、上記に議論されるように、偏光分割多重化される、高FOV低分解能画像ストリームおよび低FOVおよび高分解能画像ストリームを提供するように構成されることができる。   FIG. 46 schematically illustrates a display system 25000 for projecting an image stream onto a user's eye, according to some embodiments. Display system 25000 may share some elements in common with display system 8000 illustrated in FIGS. 30A-30B. The discussion of those elements in relation to Figures 30A-30B is equally applicable here. Image source 25002 can be configured to provide polarization division multiplexed high FOV low resolution image streams and low FOV and high resolution image streams, as discussed above.

ディスプレイシステム25000は、光ビームを、第1の光学経路に沿って第1のICG21010に向かって伝搬する、高FOV低分解能画像ストリームと関連付けられた第1の光ビームと、第2の光学経路に沿って第2のICG21020に向かって伝搬する、低FOV高分解能画像ストリームと関連付けられた第2の光ビームとに分離するための偏光ビームスプリッタ25004を含むことができる。   The display system 25000 propagates a light beam along a first optical path towards a first ICG 21010, a first light beam associated with a high FOV low resolution image stream, and a second optical path. A polarizing beam splitter 25004 may be included for splitting into a second light beam associated with a low FOV high resolution image stream that propagates along the second ICG 21020.

ディスプレイシステム25000はまた、2つの光学経路のうちの1つに沿って、例えば、図46に図示されるように、第2の光学経路に沿って位置付けられる、静的偏光回転子25020を含むことができる。静的偏光回転子25020は、2つの画像ストリームが、それぞれ、第1のICG21010および第2のICG21020に入射するにつれて、実質的に同一偏光を有し得るように、低FOV高分解能画像ストリームおよび高FOV低分解能画像ストリームのうちの1つの偏光を回転させるように構成されることができる。これは、第1のICG21010および第2のICG21020が、ある偏光に関してより高い回折効率を有するように設計される場合、有利であり得る。静的偏光回転子25020は、例えば、半波長板であることができる。

VIII. 接眼レンズと反対側の中に投影された画像を内部結合するための光学アーキテクチャ
Display system 25000 also includes a static polarization rotator 25020 positioned along one of the two optical paths, eg, along the second optical path, as illustrated in FIG. You can The static polarization rotator 25020 has a low FOV high resolution image stream and a high resolution so that the two image streams can have substantially the same polarization as they enter the first ICG 21010 and the second ICG 21020, respectively. It can be configured to rotate the polarization of one of the FOV low resolution image streams. This may be advantageous if the first ICG 21010 and the second ICG 21020 are designed to have higher diffraction efficiency for certain polarizations. The static polarization rotator 25020 can be, for example, a half wave plate.

VIII. Optical architecture for internal coupling of images projected into the opposite side of the eyepiece

いくつかの実施形態では、相互から側方に分離される2つのICG(すなわち、別個の瞳を有する)を有する代わりに、ディスプレイシステムは、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームが、同一ICG(すなわち、単一瞳を有する)の反対側上に入射するように構成されることができる。   In some embodiments, instead of having two ICGs (i.e., having separate pupils) laterally separated from each other, the display system provides a high FOV low resolution image stream and a low FOV high resolution image stream. , Can be configured to be incident on opposite sides of the same ICG (ie, having a single pupil).

図47は、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステム26000を図式的に図示する。ディスプレイシステム26000は、高FOV低分解能画像ストリームを提供するように構成される、第1の画像源26002to、低FOV高分解能画像ストリームを提供するように構成される、第2の画像源26004とを含むことができる。   FIG. 47 schematically illustrates a display system 26000 for projecting an image stream onto a user's eye, according to some embodiments. The display system 26000 includes a first image source 26002to configured to provide a high FOV low resolution image stream and a second image source 26004 configured to provide a low FOV high resolution image stream. Can be included.

ディスプレイシステム26000はまた、高FOV低分解能画像ストリームの第1の光学経路に沿って位置付けられる、第1の光学レンズ(レンズA)と、第2の光学レンズ(レンズB)とを含むことができる。いくつかの実施形態では、第1の光学レンズおよび第2の光学レンズの組み合わせは、高FOV低分解能画像ストリームと関連付けられた第1の光ビームのための1を上回る角度拡大率を提供し、それによって、第1の光ビームのためのより広いFOVをもたらすことができる。   Display system 26000 may also include a first optical lens (lens A) and a second optical lens (lens B) positioned along the first optical path of the high FOV low resolution image stream. .. In some embodiments, the combination of the first optical lens and the second optical lens provides an angular magnification of greater than 1 for the first light beam associated with the high FOV low resolution image stream, Thereby, a wider FOV for the first light beam can be provided.

ディスプレイシステム26000はまた、接眼レンズ26008と、接眼レンズ26008に結合される、内部結合格子(ICG)26010とを含む。接眼レンズ26008は、光をその中に伝搬するように構成される、導波管プレートであることができる。ICG26010は、その上に入射する光の一部を接眼レンズ26008の中に回折するように構成される、回折光学要素であることができる。高FOV低分解能画像ストリームと関連付けられた第1の光ビームが、ICG26010の第1の表面26010−1上に入射するにつれて、第1の光ビームの一部は、反射モード(例えば、一次反射)において、接眼レンズ26008の中に回折され、これは、次いで、続いて、接眼レンズ26008を通して伝搬され、ユーザの眼に向かって外部結合され得る。   Display system 26000 also includes an eyepiece 26008 and an incoupling grating (ICG) 26010 coupled to eyepiece 26008. The eyepiece 26008 can be a waveguide plate configured to propagate light therein. The ICG 26010 can be a diffractive optical element configured to diffract a portion of the light incident on it into the eyepiece 26008. As the first light beam associated with the high FOV low resolution image stream is incident on the first surface 26010-1 of the ICG 26010, a portion of the first light beam is reflected in a reflective mode (eg, first order reflection). At, the light is diffracted into the eyepiece 26008, which can then be subsequently propagated through the eyepiece 26008 and outcoupled towards the user's eye.

ディスプレイシステム26000はまた、低FOV高分解能画像ストリームの第2の光学経路に沿って位置付けられる、第3の光学レンズ(レンズC)と、第4の光学レンズ(レンズD)とを含むことができる。いくつかの実施形態では、第3の光学レンズおよび第4の光学レンズの組み合わせは、低FOV高分解能画像ストリームと関連付けられた第2の光ビームのための1と実質的に等しいまたは1未満の角度拡大率を提供することができる。したがって、第2の光ビームは、第1の光ビームのものより狭いFOVを有してもよい。   The display system 26000 can also include a third optical lens (lens C) and a fourth optical lens (lens D) positioned along the second optical path of the low FOV high resolution image stream. .. In some embodiments, the combination of the third optical lens and the fourth optical lens is substantially equal to or less than 1 for the second light beam associated with the low FOV high resolution image stream. The angular magnification can be provided. Therefore, the second light beam may have a narrower FOV than that of the first light beam.

ディスプレイシステム26000はさらに、低FOVおよび高分解能画像ストリームと関連付けられた第2の光ビームを動的に投影させるために、ユーザの眼の固視位置に基づいて制御され得る、走査ミラー(例えば、MEMSミラー)等の中心窩トラッカ26006を含むことができる。   The display system 26000 may further be controlled based on the eye fixation position of the user's eye to dynamically project a second light beam associated with a low FOV and high resolution image stream, a scanning mirror (eg, A fovea tracker 26006, such as a MEMS mirror) can be included.

低FOV高分解能画像ストリームと関連付けられた第2の光ビームは、第1の表面26010−2と反対のICG26010の第2の表面26010−1上に入射し得る。第2の光ビームの一部は、透過モード(例えば、一次透過)において、接眼レンズ2408の中に回折されることができ、これは、次いで、続いて、接眼レンズ26008を通して伝搬され、ユーザの眼に向かって外部結合され得る。   The second light beam associated with the low FOV high resolution image stream may be incident on the second surface 26010-1 of the ICG 26010 opposite the first surface 26010-2. A portion of the second light beam can be diffracted in transmission mode (eg, first-order transmission) into eyepiece 2408, which is then subsequently propagated through eyepiece 26008 to the user's eye. Can be externally coupled towards the eye.

上記に説明されるように、ディスプレイシステム26000は、図43−46に図示されるように、2つの別個のICGの代わりに、単一ICG26010を使用する。これは、接眼レンズの設計を簡略化することができる。   As explained above, the display system 26000 uses a single ICG 26010 instead of two separate ICGs, as illustrated in Figures 43-46. This can simplify the design of the eyepiece.

図48は、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステム27000を図式的に図示する。ディスプレイシステム27000は、図30A−30Bに図示されるディスプレイシステム8000と共通するいくつかの要素を共有し得る。図30A−30Bに関連するそれらの要素についての説明は、ここでも同様に適用可能である。ディスプレイシステム27000は、時分割多重化される、高FOV低分解能画像ストリームおよび低FOVおよび高分解能画像ストリームを提供するように構成される、画像源27002を含むことができる。いくつかの実施形態では、画像源27002は、ピコプロジェクタの形態をとることができる。   FIG. 48 schematically illustrates a display system 27000 for projecting an image stream onto a user's eye, according to some embodiments. Display system 27000 may share some elements in common with display system 8000 illustrated in FIGS. 30A-30B. The discussion of those elements in relation to Figures 30A-30B is equally applicable here. The display system 27000 can include an image source 27002 configured to provide a high FOV low resolution image stream and a low FOV and high resolution image stream that are time division multiplexed. In some embodiments, the image source 27002 can take the form of a pico projector.

ディスプレイシステム27000は、画像源27002の下流に位置付けられ、高FOV低分解能画像ストリームおよび低FOVおよび高分解能画像ストリームを非偏光状態から、S−偏光およびP−偏光またはRHCPおよびLHCP偏光状態等の偏光された状態に変換するように構成される、偏光器27010を含むことができる。   The display system 27000 is positioned downstream of the image source 27002 and routes the high FOV low resolution image stream and the low FOV and high resolution image stream from the unpolarized state to the S-polarized and P-polarized or polarized states such as RHCP and LHCP polarized states. A polarizer 27010 may be included that is configured to convert to a closed state.

ディスプレイシステム27000はさらに、偏光器27010の下流に位置付けられる、切替可能偏光回転子27020を含むことができる。切替可能偏光回転子27020の動作は、切替可能偏光回転子27020が、高FOV低分解能画像ストリームの偏光を回転させず(または非常に小量だけ回転させ)、低FOV高分解能画像ストリームの偏光を約90度回転させる(すなわち、位相偏移πを導入する)、またはその逆であるように、時分割多重化において高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームのフレームレートと同期されるように電子的にプログラムされることができる。したがって、切替可能偏光回転子27020を通して通過後、高FOV低分解能画像ストリームの偏光は、低FOV高分解能画像ストリームの偏光に直交し得る。例えば、高FOV低分解能画像ストリームは、s−偏光されることができ、低FOV高分解能画像ストリームは、p−偏光されることができる、またはその逆であることができる。他の実施形態では、高FOV低分解能画像ストリームは、左回り円偏光されることができ、低FOV高分解能画像ストリームは、右回り円偏光されることができる、またはその逆であることができる。   Display system 27000 may further include a switchable polarization rotator 27020 positioned downstream of polarizer 27010. The operation of the switchable polarization rotator 27020 is such that the switchable polarization rotator 27020 does not rotate the polarization of the high FOV low resolution image stream (or rotates it by a very small amount) and does not rotate the polarization of the low FOV high resolution image stream. Synchronized with the frame rate of the high FOV low resolution image stream and the low FOV high resolution image stream in time division multiplexing such that it rotates about 90 degrees (ie, introduces a phase shift π) or vice versa. Can be programmed electronically. Thus, after passing through the switchable polarization rotator 27020, the polarization of the high FOV low resolution image stream may be orthogonal to the polarization of the low FOV high resolution image stream. For example, a high FOV low resolution image stream can be s-polarized, a low FOV high resolution image stream can be p-polarized, or vice versa. In other embodiments, the high FOV low resolution image stream can be left-handed circularly polarized and the low FOV high resolution image stream can be right-handed circularly polarized or vice versa. .

ディスプレイシステム27000はさらに、高FOV低分解能画像ストリームを第1の光学経路に沿って反射させ、低FOV高分解能画像ストリームを第2の光学経路に沿って透過させるように構成される、偏光ビームスプリッタ27004を含む。   The display system 27000 is further configured to polarize the high FOV low resolution image stream along a first optical path and transmit the low FOV high resolution image stream along a second optical path. Including 27004.

ディスプレイシステム27000はさらに、偏光ビームスプリッタ27004の正面に位置付けられる、第1の光学レンズ(レンズA)と、第1の光学経路に沿って偏光ビームスプリッタ27004の下流に位置付けられる、第2の光学レンズ(レンズB)と、第2の光学経路に沿ってビームスプリッタ27004の下流に位置付けられる、第3の光学レンズ(レンズC)とを含むことができる。いくつかの実施形態では、図30A−30Bおよび31A−31Cに関して上記に説明されるように、第1の光学レンズ(レンズA)および第2の光学レンズ(レンズB)の組み合わせは、1を上回る、高FOV低分解能画像ストリームのための角度拡大率を提供することができ、第1の光学レンズ(レンズA)および第3の光学レンズ(レンズC)の組み合わせは、1と実質的に等しいまたは1未満である、低FOV高分解能画像ストリームのための角度拡大率を提供することができる。したがって、高FOV低分解能画像ストリームは、低FOV高分解能画像ストリームによって投影されたものより広いFOVを伴って、ユーザの眼に投影され得る。   Display system 27000 further includes a first optical lens (lens A) positioned in front of polarizing beam splitter 27004 and a second optical lens positioned downstream of polarizing beam splitter 27004 along a first optical path. (Lens B) and a third optical lens (lens C) positioned downstream of the beam splitter 27004 along the second optical path. In some embodiments, the combination of the first optical lens (lens A) and the second optical lens (lens B) is greater than 1, as described above with respect to FIGS. 30A-30B and 31A-31C. , A high FOV low resolution image stream can be provided with an angular magnification and the combination of the first optical lens (lens A) and the third optical lens (lens C) is substantially equal to 1 or An angular magnification factor for a low FOV high resolution image stream that is less than 1 can be provided. Thus, the high FOV low resolution image stream may be projected on the user's eye with a wider FOV than that projected by the low FOV high resolution image stream.

ディスプレイシステム27000はさらに、低FOVおよび高分解能画像ストリームと関連付けられた第2の光ビームを動的に投影させるために、ユーザの眼の固視位置に基づいて制御され得る、走査ミラー(例えば、MEMSミラー)等の中心窩トラッカ27006を含むことができる。   The display system 27000 may further be controlled based on a user's eye fixation position to dynamically project a second light beam associated with a low FOV and high resolution image stream, such as a scanning mirror (eg, A fovea tracker 27006, such as a MEMS mirror) can be included.

ディスプレイシステム27000はさらに、接眼レンズ27008と、接眼レンズ27008に結合される、内部結合格子(ICG)27050とを含むことができる。接眼レンズ27008は、光をその中に伝搬するように構成される、導波管プレートであることができる。ICG27050は、その上に入射する光の一部を接眼レンズ27008の中に回折するように構成される、回折光学要素であることができる。   The display system 27000 can further include an eyepiece 27008 and an internal coupling grating (ICG) 27050 coupled to the eyepiece 27008. The eyepiece 27008 can be a waveguide plate configured to propagate light therein. The ICG 27050 can be a diffractive optical element configured to diffract a portion of the light incident on it into the eyepiece 27008.

ディスプレイシステム27000はさらに、第1の光学経路に沿って第2の光学レンズ(レンズB)の下流に位置付けられる、第1の反射体27030を含むことができる。第1の反射体27030は、高FOV低分解能画像ストリームをICG27050に向かって反射させるように構成されることができる。高FOV低分解能画像ストリームと関連付けられた第1の光ビームが、ICG27050の第1の表面27050−1上に入射するにつれて、第1の光ビームの一部は、透過モード(例えば、一次透過)において、接眼レンズ27008の中に回折され、これは、続いて、接眼レンズ27008を通して伝搬し、ユーザの眼に向かって外部結合され得る。   The display system 27000 can further include a first reflector 27030 positioned downstream of the second optical lens (Lens B) along the first optical path. The first reflector 27030 can be configured to reflect the high FOV low resolution image stream towards the ICG 27050. As the first light beam associated with the high FOV low resolution image stream is incident on the first surface 27050-1 of the ICG 27050, a portion of the first light beam is transmitted in a transmission mode (eg, primary transmission). At, the light is diffracted into the eyepiece 27008, which subsequently propagates through the eyepiece 27008 and can be outcoupled towards the user's eye.

ディスプレイシステム27000はさらに、第2の光学経路に沿って中心窩トラッカ27006の下流に位置付けられる、第2の反射体27040を含むことができる。第2の反射体27040は、低FOV高分解能画像ストリームをICG27050に向かって反射させるように構成されることができる。低FOV高分解能画像ストリームと関連付けられた第2の光ビームが、第1の表面27050−1と反対のICG27050の第2の表面27050−2上に入射するにつれて、第2の光ビームの一部は、反射モード(例えば、一次反射)において、接眼レンズ27008の中に回折され、これは、続いて、接眼レンズ27008を通して伝搬し、ユーザの眼に向かって外部結合され得る。   Display system 27000 may further include a second reflector 27040 positioned downstream of fovea tracker 27006 along a second optical path. The second reflector 27040 may be configured to reflect the low FOV high resolution image stream towards the ICG 27050. A portion of the second light beam as the second light beam associated with the low FOV high resolution image stream is incident on the second surface 27050-2 of ICG 27050 opposite the first surface 27050-1. Is diffracted into the eyepiece 27008 in a reflective mode (eg, first order reflection), which subsequently propagates through the eyepiece 27008 and can be outcoupled towards the user's eye.

図49は、いくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステム28000を図式的に図示する。ディスプレイシステム28000は、ディスプレイシステム27000に類似するが、ICGを含まない。代わりに、ディスプレイシステム28000は、高FOV低分解能画像ストリームを接眼レンズ27008の中に結合するための第1の内部結合プリズム28030(ディスプレイシステム27000内の第1の反射体27030の代わりに)と、低FOV高分解能画像ストリームを接眼レンズ27008の中に結合するための第2の内部結合プリズム28040(ディスプレイシステム27000内の第2の反射体27040の代わりに)とを含む。第1の内部結合プリズム28030の屈折率および第2の内部結合プリズム28040の屈折率は、高FOV低分解能画像ストリームと関連付けられた第1の光ビーム内に含有されるある割合の屈折力および低FOV高分解能画像ストリームと関連付けられた第2の光ビーム内に含有されるある割合の屈折力が、それぞれ、第1の内部結合プリズム28030および第2の内部結合プリズム28040によって、接眼レンズ27008の中に結合されるように、接眼レンズ27008の屈折率に対して好適に選択されることができる。

IX. 重複光学経路を使用した高視野および高分解能中心窩化ディスプレイ
FIG. 49 schematically illustrates a display system 28000 for projecting an image stream onto a user's eye, according to some embodiments. Display system 28000 is similar to display system 27000, but does not include an ICG. Instead, the display system 28000 includes a first internal coupling prism 28030 (instead of the first reflector 27030 in the display system 27000) for coupling the high FOV low resolution image stream into the eyepiece 27008. A second internal coupling prism 28040 (instead of the second reflector 27040 in the display system 27000) for coupling the low FOV high resolution image stream into the eyepiece 27008. The index of refraction of the first incoupling prism 28030 and the index of refraction of the second incoupling prism 28040 are such that a percentage of the optical power contained in the first light beam associated with the high FOV low resolution image stream and a low power. A proportion of the optical power contained in the second light beam associated with the FOV high resolution image stream is reflected in the eyepiece 27008 by the first inner coupling prism 28030 and the second inner coupling prism 28040, respectively. Can be suitably selected for the index of refraction of the eyepiece 27008.

IX. High field of view and high resolution foveated display using overlapping optical paths

いくつかの実施形態では、ディスプレイシステムは、合成画像ストリームを異なる方向に伝搬する2つの画像ストリームに分離するために、PBSを利用せず、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームが、接眼レンズに提供されるように構成されてもよい。むしろ、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームは、画像源から接眼レンズまで実質的に同一経路をとってもよく、これは、PBSを取り除き得る。これは、ディスプレイシステムのためのコンパクト形状因子を提供する利点を有し得る。   In some embodiments, the display system does not utilize a PBS to separate the composite image stream into two image streams that propagate in different directions, and a high FOV low resolution image stream and a low FOV high resolution image stream are provided. , May be configured to be provided in an eyepiece. Rather, the high FOV low resolution image stream and the low FOV high resolution image stream may take substantially the same path from the image source to the eyepiece, which may eliminate the PBS. This can have the advantage of providing a compact form factor for display systems.

図50は、画像ストリームをユーザの眼に投影させるためのディスプレイシステム50000を図式的に図示する。ディスプレイシステム50000は、画像情報を含有する変調された光を提供するように構成される、画像源50002を含んでもよい。いくつかの実施形態では、画像源50002は、第1の画像ストリームからのフレームを第2のストリームのフレームでインターリービングすること等によって、時間多重化された様式において、高FOV低分解能画像を提示するために使用される、第1の画像ストリームと、低FOV高分解能画像ストリームを提示するために使用される、第2の画像ストリームとを提供してもよい。   FIG. 50 schematically illustrates a display system 50000 for projecting an image stream onto a user's eye. Display system 50000 may include an image source 50002 configured to provide modulated light containing image information. In some embodiments, the image source 50002 presents the high FOV low resolution image in a time multiplexed manner, such as by interleaving frames from the first image stream with frames of the second stream. And a second image stream used to present the low FOV high resolution image stream.

ディスプレイシステム50000はまた、可変光学系50004を含んでもよい。いくつかの実施形態では、可変光学系50004は、低FOV高分解能画像ストリームと関連付けられた光線50020のためのものと異なる高FOV低分解能画像ストリームと関連付けられた光線50030のための角度拡大率を提供し、それによって、高FOV低分解能画像ストリームの導波管50010から外への投影を可能にし、低FOV高分解能画像ストリームによって投影されたものより広いFOVを提供し得る。内部結合された光がICG50006上に入射する、角度の範囲は、好ましくは、導波管50010からのその光を外部結合する際、保存されることを理解されたい。したがって、広範囲の角度でICG50006上に入射する内部結合された光はまた、外部結合される際、広範囲の角度で導波管50010から離れるように伝搬し、それによって、高FOVおよびより角度拡大率を提供する。逆に言えば、比較的に狭範囲の角度でICG50006上に入射する光もまた、外部結合される際、狭範囲の角度で導波管50010から離れるように伝搬し、それによって、低FOVおよび低角度拡大率を提供する。   Display system 50000 may also include variable optics 50004. In some embodiments, the variable optics 50004 provides an angular magnification factor for a ray 50030 associated with a high FOV low resolution image stream that is different from a ray 5020 associated with a low FOV high resolution image stream. A high FOV low resolution image stream, thereby enabling the projection of the high FOV low resolution image stream out of the waveguide 50010 and providing a wider FOV than that projected by the low FOV high resolution image stream. It should be appreciated that the range of angles at which the incoupling light is incident on the ICG50006 is preferably preserved in outcoupling that light from the waveguide 50010. Thus, internally coupled light incident on the ICG50006 at a wide range of angles also propagates away from the waveguide 50010 at a wide range of angles when it is outcoupled, thereby resulting in a high FOV and more angular magnification. I will provide a. Conversely, light incident on the ICG50006 at a relatively narrow range of angles also propagates away from the waveguide 50010 at a narrow range of angles when outcoupled, thereby providing a low FOV and Provides low angle magnification.

加えて、適切なレベルの角度拡大率を選択するために、可変光学系50004は、低FOV高分解能画像ストリームと関連付けられた光と異なる光学性質を有するように、高FOV低分解能画像ストリームと関連付けられた光を改変してもよい。好ましくは、可変光学系50004の機能および各画像ストリームの光の性質は、光の関連性質を変化させることが、可変光学系50004によって提供される屈折力および焦点距離を変化させるように整合される。例えば、高FOV低分解能画像ストリームは、第1の偏光を有してもよく、低FOV低分解能画像ストリームは、第2の偏光を有してもよい。好ましくは、可変光学系50004は、所望の屈折力が、特定の関連付けられた偏光の光を提供することによって選択され得るように、それを通して伝搬する光の異なる偏光のために異なる屈折力および異なる焦点距離を提供するように構成される。第1の偏光は、右円偏光(RHCP)、左円偏光(LFCP)、S−偏光、P−偏光、別の偏光タイプ、または非偏光であってもよい。第2の偏光は、第1の偏光と異なる限り、右円偏光(RHCP)、左円偏光(LFCP)、S−偏光、P−偏光、別の偏光タイプ、または非偏光であってもよい。いくつかの好ましい実施形態では、第1の偏光は、右円偏光(RHCP)および左円偏光(LFCP)のうちの一方であって、第2の偏光は、左円偏光(LFCP)および右円偏光(RHCP)の他方である。   In addition, in order to select the appropriate level of angular magnification, the variable optics 50004 associates with the high FOV low resolution image stream so that it has different optical properties than the light associated with the low FOV high resolution image stream. The emitted light may be modified. Preferably, the function of the variable optics 50004 and the light properties of each image stream are matched such that changing the relevant properties of the light changes the refractive power and focal length provided by the variable optics 50004. .. For example, the high FOV low resolution image stream may have a first polarization and the low FOV low resolution image stream may have a second polarization. Preferably, the variable optics 50004 has different optical powers and different due to the different polarizations of the light propagating therethrough such that the desired optical power can be selected by providing light of a particular associated polarization. It is configured to provide a focal length. The first polarized light may be right circularly polarized light (RHCP), left circularly polarized light (LFCP), S-polarized light, P-polarized light, another polarization type, or unpolarized light. The second polarized light may be right circularly polarized (RHCP), left circularly polarized (LFCP), S-polarized, P-polarized, another polarization type, or unpolarized as long as it is different from the first polarized. In some preferred embodiments, the first polarization is one of right circular polarization (RHCP) and left circular polarization (LFCP) and the second polarization is left circular polarization (LFCP) and right circular. It is the other of the polarized light (RHCP).

いくつかの実施形態では、可変光学系50004の動作は、時分割多重化において、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームのフレームレートと同期されるように電子的にプログラムされてもよい。いくつかの実施形態では、高FOVストリームの画像フレームは、その所望の偏光および角度拡大率を与えられ、ICG50006を介して導波管50010に結合する一方、低FOVストリームのインターリーブされたフレームは、その所望の拡大および偏光を与えられ、最初に、ICG50006を通して通過し、ミラー50008に通過され、ユーザの固視点に標的化され、次いで、ICG50006を介して導波管50010に結合される。   In some embodiments, the operation of variable optics 50004 may be electronically programmed to be synchronized with the frame rate of the high FOV low resolution image stream and the low FOV high resolution image stream in time division multiplexing. Good. In some embodiments, the high FOV stream image frame is given its desired polarization and angular magnification and couples to the waveguide 50010 via the ICG50006, while the low FOV stream interleaved frame is Given its desired magnification and polarization, it is first passed through ICG 50006, passed through mirror 50008, targeted to the user's fixation point, and then coupled through ICG 50006 to waveguide 50010.

ディスプレイシステム50000はまた、接眼レンズ50010と、接眼レンズ50010に結合される、偏光に敏感な内部結合格子(ICG)50006とを含む。接眼レンズ50010は、例えば、全内部反射によって、光をその中に伝搬するように構成される、導波管、例えば、プレートであってもよい。偏光に敏感なICG50006は、その上に入射する光の一部を接眼レンズ50010の中に回折するように構成される、偏光に敏感な回折光学要素であってもよい。いくつかの実施形態では、ICG50006は、特定の偏光を有する入射光が、優先的に、接眼レンズ50010の中に回折される一方、少なくとも1つの他の偏光の入射光が、ICG50006を通して通過するという点で、偏光に敏感であり得る。接眼レンズ50010の中に結合せず、ICG50006を通して通過する、光は、ミラー50008に向かって指向され得、これは、MEMSミラーであり得、入射光の偏光を切り替えるように構成され得る。第1の実施例として、偏光に敏感なICG50006は、右円偏光(RHCP)を有する光を導波管の中に結合する一方、左円偏光(LHCP)を有する光をミラー50008に向かって通過させ得る。第2の実施例として、偏光に敏感なICG50006は、LHCPを有する光を導波管の中に結合する一方、RHCPを有する光をミラー50008に向かって通過させ得る。   The display system 50000 also includes an eyepiece 50010 and a polarization sensitive internal coupling grating (ICG) 50006 coupled to the eyepiece 50010. The eyepiece 50010 may be a waveguide, eg, plate, configured to propagate light therein, eg, by total internal reflection. The polarization sensitive ICG 50006 may be a polarization sensitive diffractive optical element configured to diffract a portion of the light incident upon it into the eyepiece 50010. In some embodiments, the ICG50006 is configured such that incident light having a particular polarization is preferentially diffracted into the eyepiece 50010, while at least one other polarized incident light passes through the ICG50006. In that respect, it may be polarization sensitive. Light that does not couple into the eyepiece 50010 and passes through the ICG 50006 may be directed towards a mirror 50008, which may be a MEMS mirror and configured to switch the polarization of the incident light. As a first example, a polarization sensitive ICG 50006 couples light with right circular polarization (RHCP) into a waveguide while passing light with left circular polarization (LHCP) towards mirror 500008. Can be done. As a second example, a polarization sensitive ICG 50006 may couple light with LHCP into a waveguide while allowing light with RHCP to pass towards mirror 500008.

少なくともいくつかの実施形態では、ミラー50008から反射された光は、ICG50006に向かって指向されてもよい。加えて、ミラー50008からの光の反射は、反射された光が、ICG50006によって回折され、接眼レンズ50010の中に結合されることになる所望の偏光を有するように、光の偏光を改変し得る(例えば、光の偏光をRHCPからLHCPに、その逆も同様に反転させる)。実施例として、ICG50006が、RHCPを有する光を接眼レンズ50010の中に結合するように構成される場合、高FOVストリームと関連付けられた光は、可変光学系50004によって、RHCPを与えられ、次いで、接眼レンズ50010の中に結合され得る。そのような実施例では、低FOVストリームと関連付けられた光は、LHCP光が、次いで、外部結合を接眼レンズ50001の中に結合せずに、ICG50006を通して通過し得、代わりに、ミラー50008に向かって指向され得るように、可変光学系50004によって、LHCPを与えられ得る。ミラー50008からのLHCP光の反射は、光の偏光をRHCPに反転させ得る。次いで、現時点でRHCPの光が、ICG500062に衝打すると、ICG50006によって、接眼レンズ50010の中に結合され得る。類似実施例は、ICG50006がLHCPを接眼レンズ50010の中に結合するように構成されるときにも適用される。   In at least some embodiments, the light reflected from mirror 50008 may be directed towards ICG50006. Additionally, reflection of light from mirror 500008 may modify the polarization of the light such that the reflected light has a desired polarization that will be diffracted by ICG50006 and coupled into eyepiece 50010. (For example, the polarization of light is reversed from RHCP to LHCP and vice versa). As an example, if ICG 50006 is configured to couple light with RHCP into eyepiece 50010, the light associated with the high FOV stream is given RHCP by variable optics 50004, and then It may be coupled into the eyepiece 50010. In such an embodiment, the light associated with the low FOV stream may pass through the ICG50006 without the LHCP light then coupling outcoupling into the eyepiece 50001, and instead toward mirror 500008. LHCP may be provided by the variable optics 50004 so that it can be directed. Reflection of LHCP light from mirror 50008 can reverse the polarization of the light to RHCP. The now RHCP light may then strike the ICG 500062 and be coupled into the eyepiece 50010 by the ICG 50006. A similar embodiment applies when ICG50006 is configured to couple LHCP into eyepiece 50010.

本明細書に開示されるように、ミラー50008は、移動可能なミラー、例えば、走査ミラーであってもよく、中心窩トラッカとして機能してもよい。また、本明細書で議論されるように、ミラー50008は、ユーザの眼の決定された固視位置に基づいて、制御および移動/傾斜されてもよい。ミラー50008の傾斜は、反射された光を異なる場所において導波管500010の中に内部結合させ、それによって、光をまた、ユーザの眼の中心窩の場所に対応する異なる場所において外部結合させ得る。   As disclosed herein, mirror 500008 may be a moveable mirror, eg, a scanning mirror, and may act as a foveal tracker. Mirror 50008 may also be controlled and moved / tilted based on the determined fixation position of the user's eye, as discussed herein. The tilting of the mirror 50008 may cause the reflected light to be internally coupled into the waveguide 500010 at different locations, thereby also coupling the light out at different locations corresponding to the location of the fovea of the user's eye. .

図50を継続して参照すると、光源50002は、時間多重化された様式において、高FOV低分解能(HFLR)画像ストリームと、低FOV高分解能(LFHR)画像ストリームとを生産してもよい。加えて、可変光学系50004は、HFLR画像ストリームが、偏光に敏感なICG50006によって、導波管50010の中に結合されるように、HFLR画像ストリームを改変し、特定の偏光(等RHCP)(および関連付けられた角度拡大率)を持たせ得る。可変光学系は、LFHR画像ストリームを改変し、異なる偏光(等LHCP)および関連付けられた角度拡大率を持たせ得る。その結果、LFHR画像ストリームは、偏光に敏感なICG50006を通して通過し、ミラー50008から反射し(偏光をRHCPに反転させ、LFHR画像をユーザの固視位置に標的化する)、次いで、ICG50006によって、導波管50010の中に結合される。   With continued reference to FIG. 50, the light source 50002 may produce a high FOV low resolution (HFLR) image stream and a low FOV high resolution (LFHR) image stream in a time multiplexed manner. In addition, the variable optics 50004 modifies the HFLR image stream such that the HFLR image stream is coupled into the waveguide 50010 by the polarization-sensitive ICG 50006 to provide a specific polarization (equal RHCP) (and Associated angular magnification). Variable optics may modify the LFHR image stream to have different polarizations (equal LHCP) and associated angular magnification. As a result, the LFHR image stream passes through the polarization sensitive ICG50006, reflects from mirror 500008 (inverts the polarization to RHCP and targets the LFHR image to the user's fixation position) and then guided by ICG50006. Coupled into wave tube 50010.

随意に、光の偏光状態を切り替えるための少なくとも1つのデバイスが、画像源50002とICG50006との間の光学経路内に挿入されてもよい。   Optionally, at least one device for switching the polarization state of light may be inserted in the optical path between image source 50002 and ICG50006.

図51は、可変光学系50004の実装の実施例を図示する。図51に示されるように、可変光学系50004は、偏光器50012と、切替可能4分の1波長板(QWP)50013と、レンズ50014と、回折波長板レンズ50015と、回折波長板レンズ50016と、レンズ500017とから形成されてもよい。これは、単に、可変光学系50004の1つの可能性として考えられる実装である。   FIG. 51 illustrates an example implementation of the variable optics 50004. As shown in FIG. 51, the variable optical system 50004 includes a polarizer 50012, a switchable quarter-wave plate (QWP) 50013, a lens 50014, a diffractive wave plate lens 50015, and a diffractive wave plate lens 50016. , Lens 500017. This is simply one possible implementation of variable optics 50004.

偏光器50012は、光源50002からの高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームを、非偏光状態から、S−偏光およびP−偏光またはRHCPおよびLHCP偏光状態等の偏光された状態に変換するように構成されてもよい。   Polarizer 50012 converts the high FOV low resolution image stream and low FOV high resolution image stream from light source 50002 from unpolarized states to polarized states such as S-polarized and P-polarized or RHCP and LHCP polarized states. May be configured to do so.

切替可能QWP50013は、偏光器50012から偏光された光を(1)右円偏光(RHCP)または(2)左円偏光(LHCP)のいずれかに変換するように構成されてもよい。   The switchable QWP 50013 may be configured to convert the light polarized from the polarizer 50012 into either (1) right circularly polarized light (RHCP) or (2) left circularly polarized light (LHCP).

QWP50013から出射後、光は、レンズ50014および回折波長板レンズ50015上に入射してもよい。回折波長板レンズ50015は、パターン整合された液晶材料を含む、幾何学的位相レンズであってもよい。回折波長板レンズ50015は、その掌性に合致する掌性(RHまたはLH)を有する円偏光のための正の屈折力を有してもよく(例えば、正のレンズである)、反対掌性の円偏光のための負の屈折力を有してもよい(例えば、負のレンズである)。回折波長板レンズ50015はまた、円偏光の掌性を逆転させる、性質を有してもよい。したがって、回折波長板レンズ50015が、右回りであって、RHCP光をレンズ500014から受光する場合、回折波長板レンズ50015は、正のレンズとして作用し、光は、回折波長板レンズ50015を通して通過後、左回りとなるであろう。   After exiting from QWP50013, the light may be incident on lens 50014 and diffractive waveplate lens 50015. The diffractive waveplate lens 50015 may be a geometric phase lens that includes a pattern-matched liquid crystal material. The diffractive waveplate lens 50015 may have a positive refractive power for circularly polarized light having a handedness (RH or LH) that matches its handedness (eg, is a positive lens), and antipodality. May have a negative refractive power for circularly polarized light (eg, a negative lens). The diffractive waveplate lens 50015 may also have the property of reversing the handedness of circularly polarized light. Therefore, when the diffractive wave plate lens 50015 is clockwise and receives the RHCP light from the lens 500014, the diffractive wave plate lens 50015 acts as a positive lens and the light passes through the diffractive wave plate lens 50015. , It will be counterclockwise.

回折波長板レンズ50015から出射後、光は、回折波長板レンズ50016、次いで、レンズ50017上に入射するであろう。回折波長板レンズ50016は、回折波長板レンズ50015のものに類似する様式で動作してもよい。加えて、回折波長板レンズ50016の掌性は、少なくともいくつかの実施形態では、回折波長板レンズ50015のものに合致してもよい。そのような配列を用いることで、回折波長板レンズ50016の屈折力は、回折波長板レンズ50015のものと反対となるであろう。したがって、切替可能QWP50013が、光に回折波長板レンズ50015に合致する偏光を提供する、ある実施例では、レンズ50015は、正の屈折力を有し、また、光の掌性を逆転させるであろう。次いで、後続回折波長板レンズ50016が、光を受光すると、レンズ50015は、その掌性が逆転された後、光を受光するにつれて、負の屈折力を有するであろう。   After exiting the diffractive wave plate lens 50015, the light will be incident on the diffractive wave plate lens 50016 and then on the lens 50017. Diffractive wave plate lens 50016 may operate in a manner similar to that of diffractive wave plate lens 50015. In addition, the handedness of diffractive wave plate lens 50016 may match that of diffractive wave plate lens 50015, in at least some embodiments. By using such an array, the refractive power of the diffractive waveplate lens 50016 will be opposite to that of the diffractive waveplate lens 50015. Therefore, the switchable QWP 50013 provides light with a polarization that matches the diffractive waveplate lens 50015. In one embodiment, the lens 50015 has a positive refractive power and also reverses the chirality of the light. Let's do it. Then, when the subsequent diffractive waveplate lens 50016 receives light, the lens 50015 will have a negative refractive power as it receives light after its handedness is reversed.

図51に示されるタイプの配列を用いることで、可変光学系50004は、切替可能QWP50013が、回折波長板レンズ50015の掌性に合致する光を提供すると、第1の角度拡大率を提供してもよく(例えば、レンズ50015が、正の屈折力を提供する一方、レンズ50016が、負の屈折力を提供するように)、切替可能QWP50013が、反対掌性の光を提供すると、第2の角度拡大率を提供してもよい(例えば、レンズ50015が、負の屈折力を提供する一方、レンズ50016が、正の屈折力を提供するように)。他の実施形態では、2つの回折波長板レンズ50015および50016の掌性は、異なり得る。   Using an arrangement of the type shown in FIG. 51, tunable optics 50004 provides a first angular magnification factor when switchable QWP 50013 provides light that matches the palm of diffractive waveplate lens 50015. Alternatively (eg, lens 50015 provides positive power while lens 50016 provides negative power), switchable QWP50013 provides light of opposite handedness when the switchable QWP50013 provides light of the opposite hand. Angular magnification may be provided (eg, lens 50015 provides negative refractive power while lens 50016 provides positive refractive power). In other embodiments, the handedness of the two diffractive waveplate lenses 50015 and 50016 may be different.

ここで図52A−52Bを参照すると、実施例ICG構成に関する付加的詳細が、提供される。例えば、偏光に敏感なICGは、光が入射するICGの側に応じて、優先的に、光を特定の側方方向に指向し得ることを理解されたい。例えば、図52Aを参照すると、下方からICG50006上に入射する光は、ページの左に再指向される。しかしながら、上方からICG50006上に入射する光は、望ましくないことに、導波管のエリアから離れるように、ページの右に向かって指向され、そこから光が視認者に外部結合されるであろう。いくつかの実施形態では、所望の方向に伝搬するように、光を内部結合するために、異なるICGが、異なる方向または導波管50010の側からの光入射のために使用されてもよい。   52A-52B, additional details regarding example ICG configurations are provided. For example, it should be appreciated that a polarization sensitive ICG may preferentially direct light in a particular lateral direction depending on which side of the ICG the light is incident on. For example, referring to FIG. 52A, light incident on ICG 50006 from below is redirected to the left of the page. However, light incident on the ICG50006 from above would be undesirably directed towards the right of the page, away from the area of the waveguide, from which the light would be outcoupled to the viewer. .. In some embodiments, different ICGs may be used for light incidence from different directions or from the side of the waveguide 50010 to incoupling the light so that it propagates in the desired direction.

例えば、いくつかの実施形態では、ディスプレイシステムは、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームが一対の偏光に敏感な内部結合格子(ICG)50006および50040を使用して、導波管50010(接眼レンズであってもよい)の中に結合されるように構成されてもよい。そのような配列は、例えば、下方から(図50−53Bの視点において)ICGに衝打する光が、所望の側方方向(左)において、導波管50010の中に結合される一方、上方からICGに衝打する光が、反対方向(右)において導波管50010の中に結合される場合、有益であり得る。内部結合格子(ICG)格子についてのさらなる詳細は、米国特許出願第15/902,927号(その内容は、参照することによって、全体として記載される場合と同様に、その全体として明示的かつ完全に本明細書に組み込まれる)に説明される。   For example, in some embodiments, a display system uses a waveguide with a high FOV low resolution image stream and a low FOV high resolution image stream using a pair of polarization sensitive inductively coupled gratings (ICG) 50006 and 50040. 50010 (which may be an eyepiece). Such an arrangement is, for example, such that light that strikes the ICG from below (in the perspective of FIGS. 50-53B) is coupled into the waveguide 50010 in the desired lateral direction (left), while above. It may be beneficial if light that strikes the ICG from is coupled into the waveguide 50010 in the opposite direction (right). Further details on In-Coupled Gratings (ICGs) can be found in US patent application Ser. No. 15 / 902,927, the contents of which are expressly and completely in their entirety as if set forth by reference in their entirety. Incorporated herein by reference).

図52A−52Bは、本発明のいくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステム52000を図式的に図示し、これは、2つのICG50006および50040を含んでもよい。いくつかの実施形態では、ICG50006および50040は両方とも、同一偏光タイプの光を導波管50010の中に結合するように構成されてもよい。実施例として、ICG50006および50040はそれぞれ、左円偏光(LHCP)を有する光を導波管50010の中に結合する一方、右円偏光(RHCP)を有する光を通過させ得る。代替として、偏光は、入れ替えられてもよい。   52A-52B schematically illustrate a display system 52000 for projecting an image stream onto a user's eye, which may include two ICGs 50006 and 50040, according to some embodiments of the present invention. In some embodiments, both ICG50006 and 50040 may be configured to couple light of the same polarization type into waveguide 50010. As an example, each of ICG 50006 and 50040 may couple light having left circular polarization (LHCP) into waveguide 50010 while allowing light having right circular polarization (RHCP) to pass. Alternatively, the polarizations may be interchanged.

図52Aに示されるように、図50−51に示されるもの等の光学要素は、左回り円偏光(LHCP)を有する、高FOV低分解能画像ストリーム50030を提供してもよい。光50030は、ICG50006上に入射してもよい。光50030は、LHCPであって、ICG50006は、LHCP光を導波管50010の中に結合するように構成されるため、光は、ICG50006によって、導波管50010の中に結合される。   As shown in FIG. 52A, optical elements such as those shown in FIGS. 50-51 may provide a high FOV low resolution image stream 50030 with left-handed circular polarization (LHCP). Light 50030 may be incident on ICG 50006. The light 50030 is LHCP and the ICG 50006 is configured to couple the LHCP light into the waveguide 50010 so that the light is coupled into the waveguide 50010 by the ICG 50006.

図52Bに示されるように、図50−51に示されるもの等の光学要素は、右回り円偏光(RHCP)を有する低FOV高分解能画像ストリーム50020を提供してもよい(時間多重化された様式において、図52Aの画像ストリームとインターリーブされてもよい)。光50020は、ICG50006上に入射してもよい。しかしながら、光50020は、RHCPであって、ICG50006は、LHCP光のみを導波管50010の中に結合するように構成されるため、光50020は、ICG50006を通して通過する。ICG50040は同様に、LHCP光のみを導波管50010の中に結合するように構成されてもよく、したがって、光はまた、ICG50040を通して通過してもよい。両ICGを通して通過後、光50020は、ユーザの固視点に基づいて特定の配向にあり得る(種々の節において本明細書に議論されるように)、移動可能なミラー50008上に入射してもよい。ミラー50008から反射後、光50020の偏光は、反転されてもよく、したがって、光は、ここでLHCPとなる。次いで、光50020は、ICG50040上に入射してもよく、これは、現時点でLHCPの光50020を導波管50010の中に結合してもよい。   As shown in FIG. 52B, optical elements such as those shown in FIGS. 50-51 may provide a low FOV high resolution image stream 50020 with right-handed circular polarization (RHCP) (time multiplexed). 52A, may be interleaved with the image stream of FIG. 52A). Light 50020 may be incident on ICG50006. However, light 50020 is RHCP and ICG 50006 is configured to couple only LHCP light into waveguide 50010, so light 50020 passes through ICG 50006. ICG50040 may also be configured to couple only LHCP light into waveguide 50010, and thus light may also pass through ICG50040. After passing through both ICGs, light 50020 may also be in a particular orientation based on the user's fixation point (as discussed herein in various sections), and may also be incident on movable mirror 500008. Good. After reflection from mirror 500008, the polarization of light 50020 may be inverted, so the light now becomes LHCP. Light 50020 may then be incident on ICG 50040, which may currently couple LHCP light 50020 into waveguide 50010.

いくつかの実施形態では、ディスプレイシステムは、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームが、同一偏光を有する光によって形成されるように構成されてもよい。その結果、両画像ストリームは、そのICGの同一側上に入射することに応じて、同一ICGによって内部結合され得る。   In some embodiments, the display system may be configured such that the high FOV low resolution image stream and the low FOV high resolution image stream are formed by light having the same polarization. As a result, both image streams may be internally combined by the same ICG in response to being incident on the same side of the ICG.

図53A−53Bは、本発明のいくつかの実施形態による、画像ストリームをユーザの眼に投影させるためのディスプレイシステム53000を図式的に図示し、これは、単一ICG50006と、切替可能反射体50042とを含んでもよい。切替可能反射体50042は、十分に高レートで、実質的透過状態と実質的反射状態との間で切り替える、液晶ベースの平面デバイスであってもよい。すなわち、切替可能反射体50042の切替レートは、好ましくは、高FOV低分解能画像ストリームおよび低FOV高分解能画像ストリームのインターリーブされたフレームとの協調を可能にするために十分に高い。例えば、切替可能反射体50042は、好ましくは、高および低FOV分解能画像ストリームが切り替えられるにつれて、少なくとも同一レートで反射性状態と透過性状態との間で切り替えることが可能である。   53A-53B schematically illustrate a display system 53000 for projecting an image stream to a user's eye, which includes a single ICG 50006 and a switchable reflector 50042, according to some embodiments of the present invention. And may be included. The switchable reflector 50042 may be a liquid crystal based planar device that switches between a substantially transmissive state and a substantially reflective state at a sufficiently high rate. That is, the switch rate of switchable reflector 50042 is preferably high enough to allow coordination with interleaved frames of high FOV low resolution image streams and low FOV high resolution image streams. For example, switchable reflector 50042 is preferably capable of switching between a reflective state and a transmissive state at least at the same rate as the high and low FOV resolution image streams are switched.

図53Aに示されるように、ICG50006は、高FOV低分解能画像ストリーム50030を図50−51に示されるもの等の光学要素から受光してもよい。実施例として、画像ストリームは、左回り円偏光(LHCP)を有してもよい。画像ストリーム50030の光は、ICG50006上に入射してもよい。しかしながら、ICG50006は、RHCP光を結合し、LHCP光を通過させるように構成されてもよい。したがって、LHCP光50030は、ICG50006を通して通過し得る。光は、次いで、その反射状態に構成され得る(システムが高FOV低分解能画像ストリーム50030を投影させる間)切替可能反射体50042上に入射してもよい。したがって、画像ストリーム50030の光は、切替可能反射体50042から反射し、それによって、その偏光の掌性を逆転させてもよい。切替可能反射体50042、50030から反射後、光は、再び、ICG50006上に入射してもよく、ICG50006は、現時点でRHCPの光50030を導波管50010の中に結合してもよい。   As shown in FIG. 53A, the ICG50006 may receive the high FOV low resolution image stream 50030 from optical elements such as those shown in FIGS. 50-51. As an example, the image stream may have left-handed circular polarization (LHCP). The light of image stream 50030 may be incident on ICG 50006. However, the ICG50006 may be configured to combine RHCP light and pass LHCP light. Therefore, LHCP light 50030 may pass through ICG 50006. The light may then be incident on the switchable reflector 50042 (while the system is projecting the high FOV low resolution image stream 50030), which may be configured into its reflective state. Accordingly, the light of image stream 50030 may be reflected from switchable reflector 50042, thereby reversing the handedness of its polarization. After reflection from the switchable reflectors 50042, 50030, the light may again be incident on the ICG50006, which may now couple the RHCP light 50030 into the waveguide 50010.

図53Bに示されるように、図50−51に示されるもの等の光学要素は、左回り円偏光(LHCP)を有する低FOV高分解能画像ストリーム50020を提供してもよい。本配列は、低FOV画像ストリーム50020の偏光が高FOV画像ストリーム50030の偏光に合致するという点で、若干異なる。そのような配列は、図50−51に示される可変光学系50004の修正を使用して達成されてもよい。実施例として、付加的偏光器、例えば、切替可能偏光器が、レンズ50017とICG50006との間に提供されてもよい。   As shown in FIG. 53B, optical elements such as those shown in FIGS. 50-51 may provide a low FOV high resolution image stream 50020 with left-handed circular polarization (LHCP). This arrangement differs slightly in that the polarization of the low FOV image stream 50020 matches the polarization of the high FOV image stream 50030. Such an arrangement may be achieved using a modification of the variable optics 50004 shown in Figures 50-51. By way of example, an additional polariser, eg a switchable polariser, may be provided between the lens 50017 and the ICG 50006.

図53Bにおける低FOV高分解能LHCP光50020に戻ると、光50020は、ICG50006上に入射する。しかしながら、ICG50006は、RHCPを導波管50010の中に結合するように構成される。したがって、光50020は、ICG50006を通して通過する。光50020は、次いで、その透過状態にあるように構成され得る(システムが低FOV高分解能光50020を投影させる間)、切替可能反射体50042上に入射する。したがって、光は、切替可能反射体50042を通して通過し、ミラー50008上に入射し、随意に、ミラー50008によって、ユーザの固視点上に標的化され得る(種々の節において本明細書に議論されるように)。ミラー50008から反射後、光50020の偏光は、反転されてもよく、したがって、光は、ここでRHCPとなる。次いで、光50020は、ICG50006上に入射してもよく、これは、現時点でRHCPの光50020を導波管50010の中に結合してもよい。ミラー50008は、中心窩追跡を提供するように構成されてもよく、および/またはウェアラブル光学50004(図50−51)の異なる焦点距離を考慮して、ICG50006から十分に離間され、集束された画像を提供し得ることを理解されたい。   Returning to the low FOV high resolution LHCP light 50020 in FIG. 53B, the light 50020 is incident on the ICG 50006. However, the ICG50006 is configured to couple the RHCP into the waveguide 50010. Therefore, light 50020 passes through ICG50006. Light 50020 may then be configured to be in its transmissive state (while the system projects low FOV high resolution light 50020) and is incident on switchable reflector 50042. Thus, light may pass through the switchable reflector 50042, impinge on the mirror 50008, and optionally be targeted by the mirror 50008 onto the user's fixation point (discussed herein in various sections. like). After reflection from mirror 500008, the polarization of light 50020 may be inverted, so the light now becomes RHCP. The light 50020 may then be incident on the ICG 50006, which may currently couple the RHCP light 50020 into the waveguide 50010. Mirror 50008 may be configured to provide foveal tracking, and / or allow for different focal lengths of wearable optics 50004 (FIGS. 50-51) to provide a well-focused image that is well spaced from ICG50006. It should be appreciated that

説明される実施形態の種々の側面、実施形態、実装、または特徴は、別個に、または任意の組み合わせにおいて使用されることができる。説明される実施形態の種々の側面は、ソフトウェア、ハードウェア、またはハードウェアおよびソフトウェアの組み合わせによって実装されることができる。説明される実施形態はまた、製造動作を制御するためのコンピュータ可読媒体上のコンピュータ可読コードとして、または製造ラインを制御するためのコンピュータ可読媒体上のコンピュータ可読コードとして、具現化されることができる。コンピュータ可読媒体は、その後、コンピュータシステムによって読み取られ得るデータを記憶し得る、任意のデータ記憶デバイスである。コンピュータ可読媒体の実施例は、読取専用メモリ、ランダムアクセスメモリ、CD−ROM、HDD、DVD、磁気テープ、および光学データ記憶デバイスを含む。コンピュータ可読媒体はまた、コンピュータ可読コードが分散方式において記憶および実行されるように、ネットワーク結合されたコンピュータシステムを経由して分散されることができる。   The various aspects, embodiments, implementations or features of the described embodiments can be used separately or in any combination. Various aspects of the described embodiments can be implemented in software, hardware, or a combination of hardware and software. The described embodiments can also be embodied as computer readable code on a computer readable medium for controlling manufacturing operations or as computer readable code on a computer readable medium for controlling a manufacturing line. .. A computer-readable medium is any data storage device that can store data that can then be read by a computer system. Examples of computer readable media include read only memory, random access memory, CD-ROM, HDD, DVD, magnetic tape, and optical data storage devices. Computer readable media can also be distributed via network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

前述の説明は、解説の目的のために、説明される実施形態の徹底的な理解を提供するために具体的名称を使用した。しかしながら、具体的詳細は、説明される実施形態を実践するために要求されないことが当業者に明白となるであろう。したがって、具体的実施形態の前述の説明は、例証および説明の目的のために提示される。それらは、包括的であること、または説明される実施形態を開示される精密な形態に限定することを意図していない。多くの修正および変形例が、上記の教示に照らして、可能性として考えられることが当業者に明白となるであろう。   The foregoing description, for purposes of explanation, used specific nomenclature to provide a thorough understanding of the described embodiments. However, it will be apparent to one skilled in the art that specific details are not required to practice the described embodiments. Accordingly, the foregoing description of specific embodiments is presented for purposes of illustration and description. They are not intended to be exhaustive or to limit the described embodiments to the precise forms disclosed. It will be apparent to those skilled in the art that many modifications and variations are possible in light of the above teaching.

また、本明細書に説明される、および/または図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得ることを理解されたい。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。   Also, each of the processes, methods, and algorithms described herein and / or depicted in the figures each comprise one or more physical computing devices configured to execute specific and specific computer instructions. It is to be understood that it may be embodied in a code module executed by an embedded system, a hardware computer processor, application specific circuitry, and / or electronic hardware, and thereby fully or partially automated. For example, a computing system may include a general purpose computer (eg, a server) or special purpose computer, special purpose circuit, etc. programmed with specific computer instructions. Code modules can be written in a programming language that can be compiled and linked into an executable program, installed in a dynamically linked library, or interpreted. In some implementations, particular acts and methods may be implemented by circuitry that is specific to a given function.

さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つまたはそれを上回る物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。   In addition, the functional implementations of the present disclosure are sufficiently mathematical, computer, or technically complex that application-specific hardware (using appropriate specialized executable instructions) or One or more physical computing devices may need to implement functionality, for example, due to the amount or complexity of the calculations involved or to provide results in substantially real time. For example, a video may include many frames, each frame having millions of pixels, and specifically programmed computer hardware to achieve the desired image processing task or The video data needs to be processed to provide the application.

コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。いくつかの実施形態では、非一過性コンピュータ可読媒体は、ローカル処理およびデータモジュール(140)、遠隔処理モジュール(150)、および遠隔データリポジトリ(160)のうちの1つ以上のものの一部であってもよい。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。   The code module or any type of data may be a hard drive, solid state memory, random access memory (RAM), read only memory (ROM), optical disk, volatile or non-volatile storage, combinations of the same, and / or It may be stored on any type of non-transitory computer readable medium, such as physical computer storage, including equivalents. In some embodiments, the non-transitory computer readable medium is part of one or more of a local processing and data module (140), a remote processing module (150), and a remote data repository (160). It may be. The method and module (or data) may also be produced as a data signal (eg, a carrier wave or other analog or digital propagated signal) generated on a variety of computer readable transmission media, including wireless and wire / cable based media. (As part) and may take various forms (eg, as part of a single or multiplexed analog signal, or as multiple discrete digital packets or frames). The results of the disclosed processes or process steps may be persistently or otherwise stored in non-transitory tangible computer storage of any type, or may be communicated via a computer-readable transmission medium.

本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つまたはそれを上回る実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されてもよい。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそれから除去され得る。さらに、本実施形態に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実施形態においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。   Any process, block, state, step or functionality in the flow diagrams described herein and / or depicted in the accompanying figures refers to a specific function (eg, logic or arithmetic) in the process or It is to be understood as potentially representing a code module, segment, or portion of code that contains one or more executable instructions for implementing steps. The various processes, blocks, states, steps, or functionalities may be combined, rearranged, added, deleted, modified, or otherwise illustrative examples provided herein. May be changed from In some embodiments, additional or different computing systems or code modules may implement some or all of the functionality described herein. The methods and processes described herein are also not limited to any particular sequence, and the blocks, steps or states associated therewith may be in any other suitable sequence, for example consecutively or in parallel. , Or in some other manner. Tasks or events may be added to or removed from the disclosed exemplary embodiments. Furthermore, the separation of various system components in the implementations described in this embodiment is for the purpose of illustration and should not be understood as requiring such separation in all embodiments. It is to be appreciated that the program components, methods, and systems described can generally be integrated together in a single computer product or packaged in multiple computer products.

前述の明細書では、本発明は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本発明のより広義の精神および範囲から逸脱することなくそこに行われ得ることが明白となるであろう。明細書および図面は、故に、限定的意味ではなく、例証と見なされるべきである。   In the preceding specification, the present invention has been described with reference to specific embodiments thereof. It will be apparent, however, that various modifications and changes can be made therein without departing from the broader spirit and scope of the invention. The specification and drawings are, accordingly, to be regarded in an illustrative rather than a restrictive sense.

実際、本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されないことを理解されたい。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。   Indeed, the systems and methods of the present disclosure each have several innovative aspects, no single one of which is solely responsible for, or required for, the desirable attributes disclosed herein. I want you to understand. The various features and processes described above can be used independently of each other or can be combined in various ways. All possible combinations and subcombinations are intended to fall within the scope of the present disclosure.

別個の実施形態の文脈において本明細書に説明されるある特徴はまた、単一の実施形態における組み合わせにおいて実装されてもよい。逆に、単一の実施形態の文脈において説明される種々の特徴もまた、複数の実施形態において別個に、または任意の好適な副次的組み合わせにおいて実装されてもよい。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除されてもよく、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要または必須ではない。   Certain features that are described in this specification in the context of separate embodiments can also be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment can also be implemented in multiple embodiments separately or in any suitable subcombination. Furthermore, although features are described above as operating in some combinations and may be initially claimed as such, one or more features from the claimed combination may, in some cases, be a combination. The claimed combinations may be directed to sub-combinations or variations of sub-combinations. No single feature or group of features is necessary or required for every embodiment.

とりわけ、「〜できる(can)」、「〜し得る(could)」、「〜し得る(might)」、「〜し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図されることを理解されたい。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つまたはそれを上回る実施形態に対していかようにも要求されること、または1つまたはそれを上回る実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「〜を備える」、「〜を含む」、「〜を有する」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つ以上の」または「少なくとも1つ」を意味するように解釈されるべきである。同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つ以上の付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実施形態における種々のシステムコンポーネントの分離は、全ての実施形態におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。   In particular, "can", "could", "might", "may", "e.g." and the like. Etc., as used herein, unless stated otherwise specifically, or otherwise understood within the context in which they are used, generally refer to certain features, elements, It should be understood that while including and / or steps, other embodiments are intended to convey that they do not. Accordingly, such conditional statements generally require that features, elements, and / or steps are required for one or more embodiments, or for one or more embodiments. Necessarily involves logic to determine whether these features, elements, and / or steps are included or should be performed in any particular embodiment, with or without author input or prompting. It is not intended to suggest inclusion in. The terms "comprising," "including," "having," and equivalents are synonymous and are used in a non-limiting manner, and include additional elements, features, acts, acts, etc. Do not exclude. Also, the term "or" is used in its inclusive sense (and not in its exclusive meaning), and thus, for example, when used to connect a list of elements, the term "or" Means one, some, or all of the elements in the list. In addition, the articles "a", "an", and "the" as used in this application and the appended claims, unless otherwise specified, are "one or more" or "at least one." Should be interpreted to mean. Similarly, although acts may be depicted in the figures in a particular order, this may be performed in the particular order in which such acts are shown or in a sequential order to achieve the desired result, or It should be appreciated that not all illustrated acts need be performed. Moreover, the drawings may diagrammatically depict one or more exemplary processes in the form of flowcharts. However, other acts not depicted may also be incorporated within the illustrative methods and processes illustrated graphically. For example, one or more additional acts may be performed before, after, concurrently with, or during any of the depicted acts. Additionally, operations may be reordered or reordered in other implementations. In some situations, multitasking and parallel processing may be advantageous. Furthermore, the separation of various system components in the embodiments described above should not be understood as requiring such separation in all embodiments, and the described program components and systems generally It should be appreciated that they may be integrated together in a single software product or packaged in multiple software products. In addition, other implementations are within the scope of the following claims. In some cases, the actions recited in the claims may be performed in a different order and still achieve desirable results.

故に、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。   Therefore, the claims are not intended to be limited to the implementations shown herein and should be given the broadest scope consistent with the disclosure, principles, and novel features disclosed herein. is there.

Claims (128)

システムであって、前記システムは、1つ以上のプロセッサと、1つ以上のコンピュータ記憶媒体とを備え、前記1つ以上のコンピュータ記憶媒体は、命令を記憶しており、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
1つ以上のセンサを介して検出された情報に基づいて、ユーザの眼移動を監視することと、
前記眼移動に基づいて、前記ユーザの眼が固視している固視点を決定することであって、前記固視点は、前記ユーザの視野内の3次元場所である、ことと、
ユーザに提示するための1つ以上の仮想オブジェクトと関連付けられた場所情報を取得することであって、前記場所情報は、仮想オブジェクトの3次元位置を示す、ことと、
少なくとも部分的に、前記少なくとも1つの仮想オブジェクトと前記固視点の近接度に基づいて、少なくとも1つの仮想オブジェクトの分解能を調節することと、
ディスプレイデバイスを介して、ユーザに、前記1つ以上の仮想オブジェクトの提示をもたらすことであって、前記少なくとも1つの仮想オブジェクトは、前記個別の調節された分解能に従ってレンダリングされる、ことと
を含む動作を実施させる、システム。
A system, wherein the system comprises one or more processors and one or more computer storage media, the one or more computer storage media storing instructions, the instructions comprising: When executed by one or more processors, the one or more processors
Monitoring user eye movements based on information detected via one or more sensors;
Determining a fixation point on which the user's eye is gazing based on the eye movement, wherein the fixation point is a three-dimensional place in the user's visual field;
Obtaining location information associated with one or more virtual objects for presentation to a user, the location information indicating a three-dimensional position of the virtual object;
Adjusting the resolution of at least one virtual object based at least in part on the proximity of the at least one virtual object and the fixation point;
Providing a presentation of the one or more virtual objects to a user via a display device, the at least one virtual object being rendered according to the individually adjusted resolution. A system that implements
仮想オブジェクトの分解能を調節することは、前記仮想オブジェクトの提示品質を低減させることを含む、請求項1に記載のシステム。   The system of claim 1, wherein adjusting the resolution of the virtual object comprises reducing the presentation quality of the virtual object. 前記仮想オブジェクトの提示品質を低減させることは、前記仮想オブジェクトのポリゴンカウントを低減させること、前記仮想オブジェクトを生成するために利用されるプリミティブを調節すること、前記仮想オブジェクト上で実施される動作を調節すること、テクスチャ情報を調節すること、色分解能、または深度を調節すること、およびレンダリングサイクルの数またはフレームレートを調節することのうちの1つ以上のものを含む、請求項2に記載のシステム。   Reducing the presentation quality of the virtual object includes reducing the polygon count of the virtual object, adjusting the primitives used to generate the virtual object, and performing the actions performed on the virtual object. 3. The method of claim 2, comprising one or more of adjusting, adjusting texture information, adjusting color resolution, or depth, and adjusting the number of rendering cycles or frame rate. system. 前記視野は、前記ディスプレイデバイスのディスプレイ錐台に対応する、請求項1に記載のシステム。   The system of claim 1, wherein the field of view corresponds to a display frustum of the display device. 前記視野は、複数のゾーンを備え、各ゾーンは、仮想オブジェクトが前記ディスプレイデバイスによって提示され得る前記視野内の空間の体積を表し、
前記ゾーンは、前記視野内の初期深度から前記視野内の終了深度まで延在し、
前記固視点からの前記1つ以上の仮想オブジェクトの近接度は、前記仮想オブジェクトが提示されることになる第1のゾーンを前記固視点が位置する第2のゾーンから分離する距離に対応する、
請求項1に記載のシステム。
The field of view comprises a plurality of zones, each zone representing a volume of space within the field of view in which a virtual object may be presented by the display device,
The zone extends from an initial depth in the field of view to an end depth in the field of view,
The proximity of the one or more virtual objects from the fixation point corresponds to a distance separating a first zone in which the virtual object is to be presented from a second zone in which the fixation point is located,
The system of claim 1.
前記少なくとも1つの仮想オブジェクトの分解能を調節することは、前記少なくとも1つの仮想オブジェクトに最初に割り当てられる分解能から分解能を低減させることを含み、前記近接度は、前記第1のゾーンを前記第2のゾーンから分離するゾーンの総数に対応する、請求項5に記載のシステム。   Adjusting the resolution of the at least one virtual object comprises reducing the resolution from a resolution initially assigned to the at least one virtual object, the proximity measuring the first zone to the second zone. The system of claim 5, corresponding to the total number of zones that separate from the zones. 前記固視点が位置する第2のゾーンは、最大分解能を割り当てられ、残りのゾーンは、それぞれ、1つ以上の降下率に従って、前記最大分解能から低減された分解能を割り当てられる、請求項5に記載のシステム。   The second zone in which the fixation point is located is assigned a maximum resolution, and the remaining zones are each assigned a resolution reduced from the maximum resolution according to one or more descent rates. System of. 前記動作はさらに、
ユーザ網膜錐体密度プロファイルを提供すること
を含み、
個々の深度平面上の降下率は、前記ユーザ網膜錐体密度プロファイル内の錐体密度の降下率に実質的に準拠する、請求項5に記載のシステム。
The operation further includes
Providing a user retinal cone density profile,
6. The system of claim 5, wherein a rate of descent on an individual depth plane substantially conforms to a rate of descent of cone density within the user retinal cone density profile.
前記ゾーンは、3次元多角形形状を有する、請求項5に記載のシステム。   The system of claim 5, wherein the zone has a three-dimensional polygonal shape. 前記ゾーンは、同心楕円体である、請求項5に記載のシステム。   The system of claim 5, wherein the zones are concentric ellipsoids. 前記ゾーンの形状は、前記第2のゾーンまでの距離に伴って変動する、請求項5に記載のシステム。   The system of claim 5, wherein the shape of the zone varies with the distance to the second zone. 前記ディスプレイデバイスをさらに備え、前記ディスプレイデバイスは、
ディスプレイエリアを形成し、周囲環境のビューを前記ディスプレイエリアを通して提供する複数のスタックされた導波管であって、前記複数の導波管の少なくともいくつかの導波管は、他の導波管と異なる波面発散を伴う光を出力するように構成される、複数のスタックされた導波管
を備える、請求項1に記載のシステム。
Further comprising the display device, wherein the display device is
A plurality of stacked waveguides forming a display area and providing a view of the ambient environment through the display area, at least some of the waveguides of the plurality of waveguides being other waveguides. The system of claim 1, comprising a plurality of stacked waveguides configured to output light with different wavefront divergence.
前記固視点からより遠い深度に提示されることになり、前記ユーザの視線の閾値角距離内であることが決定される、第1の仮想オブジェクトに関して、前記動作はさらに、
前記第1の仮想オブジェクトと前記固視点の近接度に基づいて、前記第1の仮想オブジェクトの分解能を調節することと、
ユーザへの前記第1の仮想オブジェクトの提示の間、前記第1の仮想オブジェクトをぼかさせることと、
を含む、請求項1に記載のシステム。
With respect to the first virtual object, which is to be presented at a depth farther from the fixation point and is determined to be within a threshold angular distance of the user's line of sight, the operation further comprises:
Adjusting the resolution of the first virtual object based on the degree of proximity between the first virtual object and the fixation point;
Blurring the first virtual object during presentation of the first virtual object to a user;
The system of claim 1, comprising:
前記第1の仮想オブジェクトをぼかさせることは、
ガウスぼかしカーネルの畳み込みを実施することであって、前記第1の仮想オブジェクトは、 前記調節された分解能に従ってレンダリングされる、ことと、
前記ディスプレイデバイスを介して、前記畳み込みの結果をユーザに提示することと、
を含む、請求項13に記載のシステム。
Blurring the first virtual object includes:
Performing a Gaussian blur kernel convolution, wherein the first virtual object is rendered according to the adjusted resolution;
Presenting the result of the convolution to the user via the display device;
14. The system of claim 13, comprising:
前記1つ以上のセンサは、前記ユーザの眼の視線方向を検出するように構成される、赤外線センサ、紫外線センサ、および可視波長光結像デバイスのうちの1つ以上のものを備える、請求項1に記載のシステム。   The one or more sensors comprise one or more of an infrared sensor, an ultraviolet sensor, and a visible wavelength light imaging device configured to detect a line-of-sight direction of the user's eye. The system according to 1. ディスプレイシステムであって、前記ディスプレイシステムは、
仮想コンテンツをユーザに提示するように構成されるディスプレイデバイスと、
1つ以上のプロセッサと、
1つ以上のコンピュータ記憶媒体であって、前記1つ以上のコンピュータ記憶媒体は、命令を記憶しており、前記命令は、前記システムによって実行されると、前記システムに、
前記ユーザの眼移動と関連付けられた情報を監視することと、
前記監視される情報に基づいて、前記ディスプレイデバイスのディスプレイ錐台内の固視点を決定することであって、前記固視点は、前記ユーザの眼によって固視されている3次元場所を示す、ことと、
前記決定された固視点に基づいて、仮想コンテンツを前記ディスプレイ錐台内の3次元場所に提示することであって、前記仮想コンテンツは、前記固視点からの前記仮想コンテンツの近接度に基づいて、分解能を調節される、ことと、
を含む動作を実施させる、1つ以上のコンピュータ記憶媒体と
を備える、システム。
A display system, wherein the display system comprises:
A display device configured to present virtual content to a user,
One or more processors,
One or more computer storage media, the one or more computer storage media storing instructions, wherein the instructions when executed by the system include:
Monitoring information associated with the user's eye movements;
Determining a fixation point within a display frustum of the display device based on the monitored information, the fixation point indicating a three-dimensional location being fixed by the eye of the user. When,
Presenting virtual content to a three-dimensional location within the display frustum based on the determined fixation point, wherein the virtual content is based on proximity of the virtual content from the fixation point, That the resolution is adjusted,
One or more computer storage media causing the operation to be performed.
前記動作はさらに、
前記ディスプレイデバイスによって、1つ以上のプロセッサを備える外部システムに、前記決定された固視点を提供することと、
前記ディスプレイデバイスによって、前記外部システムから、提示のために、レンダリングされた仮想コンテンツを受信することであって、前記仮想コンテンツは、前記固視点からの前記仮想コンテンツの個別の近接度に基づく分解能でレンダリングされる、ことと、
を含む、請求項16に記載のシステム。
The operation further includes
Providing the determined fixation point to an external system comprising one or more processors by the display device;
Receiving, by the display device, from the external system rendered virtual content for presentation, the virtual content at a resolution based on the individual proximity of the virtual content from the fixation point. To be rendered,
17. The system of claim 16, comprising:
前記固視点からの近接度に基づいて、特定の仮想コンテンツの分解能を調節することは、
前記近接度に基づいて、最大分解能における低減を決定することであって、前記低減は、降下率に基づく、ことと、
前記決定された低減に基づいて、前記特定の仮想コンテンツの分解能を調節することと
を含む、請求項16に記載のシステム。
Adjusting the resolution of a particular virtual content based on the proximity from the fixation point includes:
Determining a reduction in maximum resolution based on the proximity, the reduction being based on a rate of descent;
Adjusting the resolution of the particular virtual content based on the determined reduction.
前記ディスプレイデバイスは、複数の導波管を備え、各導波管は、前記仮想コンテンツの3次元場所に基づいて、個別の深度と関連付けられた仮想コンテンツを提示する、請求項16に記載のシステム。   17. The system of claim 16, wherein the display device comprises a plurality of waveguides, each waveguide presenting virtual content associated with an individual depth based on a three-dimensional location of the virtual content. .. 前記ディスプレイデバイスは、前記固視点に対する中心窩化結像に基づいて、仮想コンテンツを提示し、前記中心窩化結像は、(1)前記固視点および(2)仮想コンテンツと関連付けられた深度情報を組み込む、請求項16に記載のシステム。   The display device presents virtual content based on foveated imaging for the fixation point, the foveated imaging being (1) depth information associated with the fixation point and (2) virtual content. 17. The system of claim 16 incorporating the. 方法であって、
1つ以上のプロセッサのシステムによって、
1つ以上のセンサを介して検出された情報に基づいて、ディスプレイデバイスのユーザの眼配向を監視することと、
前記眼配向に基づいて、前記ユーザの眼が固視している固視点を決定することであって、前記固視点は、前記ユーザの視野に対する3次元場所を表す、ことと、
ユーザに提示するための1つ以上の仮想オブジェクトと関連付けられた場所情報を取得することであって、前記場所情報は、仮想オブジェクトの3次元位置を示す、ことと、
少なくとも部分的に、前記少なくとも1つの仮想オブジェクトから前記固視点までの個別の近接度に基づいて、少なくとも1つの仮想オブジェクトの分解能を調節することと、
前記ディスプレイデバイスを介して、ユーザに、前記1つ以上の仮想オブジェクトの提示をもたらすことであって、前記少なくとも1つの仮想オブジェクトは、前記個別の調節された分解能に従ってレンダリングされる、ことと
を含む、方法。
Method,
With a system of one or more processors,
Monitoring the eye orientation of the user of the display device based on information detected via the one or more sensors;
Determining a fixation point that the user's eye is gazing based on the eye orientation, the fixation point representing a three-dimensional location relative to the user's field of view;
Obtaining location information associated with one or more virtual objects for presentation to a user, the location information indicating a three-dimensional position of the virtual object;
Adjusting the resolution of the at least one virtual object based at least in part on the individual proximity from the at least one virtual object to the fixation point;
Providing a presentation of the one or more virtual objects to a user via the display device, wherein the at least one virtual object is rendered according to the individual adjusted resolutions. ,Method.
仮想オブジェクトの分解能を調節することは、最大可能提示品質に対して前記仮想オブジェクトの提示品質を低減させることを含む、請求項21に記載の方法。   22. The method of claim 21, wherein adjusting the resolution of the virtual object comprises reducing the presentation quality of the virtual object relative to a maximum possible presentation quality. 前記仮想オブジェクトの提示品質を低減させることは、前記仮想オブジェクトのポリゴンカウントを低減させること、前記仮想オブジェクトと関連付けられたプリミティブを低減させること、または前記仮想オブジェクトと関連付けられたテクスチャ情報を低減させることを含む、請求項22に記載の方法。   Reducing the presentation quality of the virtual object reducing the polygon count of the virtual object, reducing the primitives associated with the virtual object, or reducing the texture information associated with the virtual object. 23. The method of claim 22, comprising: 前記固視点は、前記ディスプレイデバイスを介してユーザに提示されるフレーム毎に決定される、請求項21に記載の方法。   22. The method of claim 21, wherein the fixation point is determined for each frame presented to a user via the display device. 前記視野は、ゾーンを備え、各ゾーンは、仮想オブジェクトが提示され得る前記視野内の空間の体積を表し、
前記ゾーンは、少なくとも、前記視野内の初期深度から前記視野内の終了深度まで延在し、
前記固視点からの仮想オブジェクトの近接度は、前記固視点が位置する第2のゾーンに対する前記仮想オブジェクトが提示されることになる第1のゾーンに基づいて決定される、請求項21に記載の方法。
The field of view comprises zones, each zone representing a volume of space within the field of view in which a virtual object may be presented,
The zone extends at least from an initial depth within the field of view to an end depth within the field of view;
22. The proximity of a virtual object from the fixation point is determined based on a first zone in which the virtual object will be presented to a second zone in which the fixation point is located. Method.
センサは、赤外線センサ、紫外線センサ、および可視波長光結像デバイスのうちの1つ以上のものを備える、請求項21に記載の方法。   22. The method of claim 21, wherein the sensor comprises one or more of an infrared sensor, an ultraviolet sensor, and a visible wavelength light imaging device. ディスプレイシステムであって、
ユーザの頭部上に搭載されるように構成されるフレームと、
光を出力し、画像を形成するように構成される光変調システムと、
前記フレームに取り付けられ、前記光変調システムからの光を受光し、前記光を1つ以上の導波管の表面を横断して出力するように構成される1つ以上の導波管と、
1つ以上のプロセッサと、
1つ以上のコンピュータ記憶媒体であって、前記1つ以上のコンピュータ記憶媒体は、命令を記憶しており、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
前記ユーザの眼の網膜に到達する光の量を決定することと、
前記網膜に到達する光の量に基づいて、ユーザに提示されることになる仮想コンテンツの分解能を調節することと
を含む動作を実施させる、1つ以上のコンピュータ記憶媒体と
を備える、ディスプレイシステム。
A display system,
A frame configured to be mounted on the user's head,
A light modulation system configured to output light and form an image,
One or more waveguides mounted to the frame and configured to receive light from the light modulation system and output the light across the surface of the one or more waveguides;
One or more processors,
One or more computer storage media, wherein the one or more computer storage media store instructions, the instructions being executed by the one or more processors. To
Determining the amount of light reaching the retina of the user's eye;
Adjusting the resolution of the virtual content to be presented to the user based on the amount of light reaching the retina, and one or more computer storage media.
周囲照明レベルを測定するように構成される外向きに指向されるカメラをさらに備え、前記網膜に到達する光の量を決定することは、前記周囲照明レベルを測定することを含む、請求項27に記載のディスプレイシステム。   28. The method further comprising an outwardly directed camera configured to measure ambient lighting levels, and determining the amount of light reaching the retina comprises measuring the ambient lighting levels. Display system according to. 前記網膜に到達する光の量を決定することはさらに、前記導波管によって前記ユーザの眼に出力された光の量を決定することを含む、請求項28に記載のディスプレイシステム。   29. The display system of claim 28, wherein determining the amount of light reaching the retina further comprises determining the amount of light output by the waveguide to the user's eye. 前記動作はさらに、
ユーザ固視点を決定することと、
前記仮想コンテンツの場所情報を取得することであって、前記場所情報は、前記仮想コンテンツの3次元位置を示す、ことと
を含み、前記仮想コンテンツの分解能を調節することは、前記仮想コンテンツと前記固視点の近接度に基づいて、前記仮想コンテンツの分解能を変動させることを含む、請求項27に記載のディスプレイシステム。
The operation further includes
Determining the user fixation point,
Acquiring the location information of the virtual content, wherein the location information indicates a three-dimensional position of the virtual content, and adjusting the resolution of the virtual content includes: 28. The display system of claim 27, comprising varying resolution of the virtual content based on proximity of fixation points.
前記仮想コンテンツの分解能を調節することは、前記ユーザから離れるように延在する深度軸上の前記仮想コンテンツと前記固視点の近接度に基づいて、前記仮想コンテンツの分解能を変動させることを含む、請求項30に記載のディスプレイシステム。   Adjusting the resolution of the virtual content includes varying the resolution of the virtual content based on the proximity of the fixation point and the virtual content on a depth axis extending away from the user, The display system according to claim 30. 前記1つ以上の導波管は、導波管のスタックを備え、前記導波管のスタックの導波管のうちの少なくともいくつかは、前記導波管のスタックの他の導波管と異なる波面発散量を提供する、請求項27に記載のディスプレイシステム。   The one or more waveguides comprises a stack of waveguides, at least some of the waveguides of the stack of waveguides are different from other waveguides of the stack of waveguides. 28. The display system of claim 27, which provides a wavefront divergence amount. 前記1つ以上の導波管は、
内部結合回折光学要素と、
外部結合回折光学要素と、
前記内部結合回折光学要素からの光を前記外部結合回折光学要素に指向するように構成される光分散要素と
を備える、請求項27に記載のディスプレイシステム。
The one or more waveguides are
An internally coupled diffractive optical element,
An externally coupled diffractive optical element,
30. A light dispersive element configured to direct light from the incoupling diffractive optical element to the outcoupling diffractive optical element.
ディスプレイシステムであって、
1つ以上のプロセッサと、
1つ以上のコンピュータ記憶媒体であって、前記1つ以上のコンピュータ記憶媒体は、命令を記憶しており、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
前記ディスプレイシステムのユーザの眼の網膜に到達する光の量を決定することと、
前記網膜に到達する光の量に基づいて、ユーザに提示されることになる仮想コンテンツの分解能を調節することと
を含む動作を実施させる、1つ以上のコンピュータ記憶媒体と
を備える、ディスプレイシステム。
A display system,
One or more processors,
One or more computer storage media, wherein the one or more computer storage media store instructions, the instructions being executed by the one or more processors. To
Determining the amount of light reaching the retina of the user's eye of the display system;
Adjusting the resolution of the virtual content to be presented to the user based on the amount of light reaching the retina, and one or more computer storage media.
前記網膜に到達する光の量を決定することは、周囲照明レベルを決定することを含む、請求項34に記載のディスプレイシステム。   35. The display system of claim 34, wherein determining the amount of light that reaches the retina comprises determining ambient lighting level. 前記網膜に到達する光の量を決定することは、前記仮想コンテンツを表示するために前記ディスプレイシステムによって出力される光の量を決定することを含む、請求項35に記載のディスプレイシステム。   36. The display system of claim 35, wherein determining the amount of light reaching the retina comprises determining the amount of light output by the display system to display the virtual content. 前記網膜に到達する光の量を決定することは、前記ユーザの眼の瞳孔のサイズを決定することを含む、請求項34に記載のディスプレイシステム。   35. The display system of claim 34, wherein determining the amount of light that reaches the retina comprises determining a size of a pupil of the user's eye. 前記仮想コンテンツの分解能を調節することは、前記ユーザ固視点からの前記仮想コンテンツの距離の増加に伴って、前記仮想コンテンツの分解能を減少させることを含む、請求項34に記載のディスプレイシステム。   The display system of claim 34, wherein adjusting the resolution of the virtual content comprises decreasing the resolution of the virtual content as the distance of the virtual content from the user fixation point increases. 前記分解能を減少させる傾向は、前記ユーザの網膜内の錐体密度を減少させる傾向に実質的に類似する、請求項38に記載のディスプレイシステム。   39. The display system of claim 38, wherein the tendency to reduce resolution is substantially similar to the tendency to reduce cone density in the user's retina. ユーザ視野内の最大分解能のゾーンは、前記ユーザの眼の小窩に対応する点上に心合され、
ユーザ視野内の前記仮想コンテンツの分解能は、前記点の+/−20°外側に配置される仮想コンテンツに関して減少する、
請求項39に記載のディスプレイシステム。
The zone of maximum resolution within the user's field of view is centered on a point corresponding to the fossa of the user's eye,
The resolution of the virtual content in the user's field of view is reduced for virtual content located +/− 20 ° outside the point,
The display system according to claim 39.
前記分解能を減少させることは、前記網膜に到達する光の全てのレベルのポリゴンカウントを減少させることを含む、請求項38に記載のディスプレイシステム。   39. The display system of claim 38, wherein reducing the resolution comprises reducing polygon counts of all levels of light reaching the retina. 前記分解能を調節することは、前記分解能を2つの分解能レベルのうちの1つに設定することを含む、請求項38に記載のディスプレイシステム。   39. The display system of claim 38, wherein adjusting the resolution comprises setting the resolution to one of two resolution levels. 前記仮想コンテンツの分解能を調節することは、前記網膜に到達する光の量の減少に伴って、色深度およびコントラスト比の一方または両方を減少させることを含む、請求項42に記載のディスプレイシステム。   43. The display system of claim 42, wherein adjusting the resolution of the virtual content comprises reducing one or both of color depth and contrast ratio with decreasing amount of light reaching the retina. 前記動作はさらに、
前記光の量が、明所視、薄明視、または暗所視照明レベルに対応するかどうかを決定することを含み、
前記仮想コンテンツの分解能を調節することは、前記照明レベルが、明所視、薄明視、または暗所視照明レベルに対応するかどうかに基づいて、前記分解能を設定することを含む、請求項34に記載のディスプレイシステム。
The operation further includes
Determining whether the amount of light corresponds to a photopic, mesopic, or scotopic illumination level;
35. Adjusting the resolution of the virtual content comprises setting the resolution based on whether the lighting level corresponds to a photopic, mesopic, or scotopic lighting level. Display system according to.
前記仮想コンテンツの分解能を調節することは、暗所視照明レベルにおいて、単色を使用して、前記仮想コンテンツを表示することを含む、請求項34に記載のディスプレイシステム。   35. The display system of claim 34, wherein adjusting the resolution of the virtual content comprises displaying the virtual content using monochrome in a scotopic lighting level. 前記仮想コンテンツの分解能を調節することは、前記眼の網膜に到達する光の量が減少するにつれて、前記仮想コンテンツを形成する画像のコントラスト比を減少させることを含む、請求項34に記載のディスプレイシステム。   35. A display as claimed in claim 34, wherein adjusting the resolution of the virtual content comprises decreasing the contrast ratio of the images forming the virtual content as the amount of light reaching the retina of the eye decreases. system. 前記動作はさらに、
仮想コンテンツを複数の原色において提供すること
を含み、
前記仮想コンテンツの分解能を調節することは、異なる原色に関する異なる分解能を提供することを含む、請求項34に記載のディスプレイシステム。
The operation further includes
Providing virtual content in multiple primary colors,
35. The display system of claim 34, wherein adjusting the resolution of the virtual content comprises providing different resolutions for different primary colors.
前記動作はさらに、前記眼の視神経盲点に対応する仮想コンテンツのレンダリングを防止することを含む、請求項34に記載のディスプレイシステム。   35. The display system of claim 34, wherein the act of further comprises preventing rendering of virtual content corresponding to an optic nerve blind spot in the eye. 前記仮想コンテンツの分解能を調節することは、前記ユーザの眼毎の反対周辺領域内に位置する仮想コンテンツのレンダリングを防止することを含み、前記反対周辺領域は、前記眼が配置される前記ユーザの側と反対の前記ユーザの側上にある、請求項34に記載のディスプレイシステム。   Adjusting the resolution of the virtual content includes preventing rendering of virtual content located in opposite peripheral regions for each of the user's eyes, the opposite peripheral region of the user being positioned with the eyes. 35. The display system of claim 34, which is on the side of the user opposite the side. 前記動作はさらに、ディスプレイデバイスを介して、ユーザに、前記仮想コンテンツの提示をもたらすことを含み、前記仮想コンテンツは、関連付けられた調節された分解能に従ってレンダリングされる、請求項34に記載のディスプレイシステム。   35. The display system of claim 34, wherein the act further comprises providing a presentation of the virtual content to a user via a display device, the virtual content being rendered according to an associated adjusted resolution. .. 1つ以上のプロセッサと、頭部搭載可能ディスプレイとを備えるディスプレイシステムによって実施される方法であって、前記方法は、
前記ディスプレイシステムのユーザの眼の網膜に到達する光の量を決定することと、
前記網膜に到達する光の量に基づいて、ユーザに提示されることになる仮想コンテンツの分解能を調節することと
を含む、方法。
A method implemented by a display system comprising one or more processors and a head mountable display, the method comprising:
Determining the amount of light reaching the retina of the user's eye of the display system;
Adjusting the resolution of the virtual content to be presented to the user based on the amount of light reaching the retina.
ディスプレイシステムであって、
ユーザの頭部上に搭載されるように構成されるフレームと、
光を出力し、画像を形成するように構成される光変調システムと、
前記フレームに取り付けられ、前記光変調システムからの光を受光し、前記光を1つ以上の導波管の表面を横断して出力するように構成される1つ以上の導波管と、
1つ以上のプロセッサと、
1つ以上のコンピュータ記憶媒体であって、前記1つ以上のコンピュータ記憶媒体は、命令を記憶しており、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
ユーザ固視点からの前記仮想コンテンツの近接度と、
前記原色画像の色であって、前記原色画像のうちの少なくとも1つは、別の色の原色画像と分解能が異なる、前記原色画像の色と
に基づいて、仮想コンテンツを形成する原色画像の分解能を調節することを含む動作を実施させる、1つ以上のコンピュータ記憶媒体と
を備える、ディスプレイシステム。
A display system,
A frame configured to be mounted on the user's head,
A light modulation system configured to output light and form an image,
One or more waveguides mounted to the frame and configured to receive light from the light modulation system and output the light across the surface of the one or more waveguides;
One or more processors,
One or more computer storage media, wherein the one or more computer storage media store instructions, the instructions being executed by the one or more processors. To
Proximity of the virtual content from the user's perspective,
The resolution of the primary color image forming the virtual content based on the color of the primary color image, wherein at least one of the primary color images has a different resolution from the primary color image of another color. One or more computer storage media that perform operations including adjusting the display system.
前記仮想コンテンツの分解能を調節することは、前記ユーザから離れるように延在する深度軸上の前記仮想コンテンツと前記固視点の近接度に基づいて、前記仮想コンテンツの分解能を変動させることを含む、請求項52に記載のディスプレイシステム。   Adjusting the resolution of the virtual content includes varying the resolution of the virtual content based on the proximity of the fixation point and the virtual content on a depth axis extending away from the user, 53. The display system of claim 52. 前記1つ以上の導波管は、導波管のスタックを備え、前記導波管のスタックの導波管のうちの少なくともいくつかは、前記導波管のスタックの他の導波管と異なる波面発散量を提供する、請求項52に記載のディスプレイシステム。   The one or more waveguides comprises a stack of waveguides, at least some of the waveguides of the stack of waveguides are different from other waveguides of the stack of waveguides. 53. The display system of claim 52, which provides a wavefront divergence amount. 前記1つ以上の導波管は、
内部結合回折光学要素と、
外部結合回折光学要素と、
前記内部結合回折光学要素からの光を前記外部結合回折光学要素に指向するように構成される、光分散要素と、
を備える、請求項52に記載のディスプレイシステム。
The one or more waveguides are
An internally coupled diffractive optical element,
An externally coupled diffractive optical element,
A light dispersive element configured to direct light from the inner coupled diffractive optical element to the outer coupled diffractive optical element;
53. The display system of claim 52, comprising.
ディスプレイシステムであって、
1つ以上のプロセッサと、
1つ以上のコンピュータ記憶媒体であって、前記1つ以上のコンピュータ記憶媒体は、命令を記憶しており、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
ユーザ固視点からの前記仮想コンテンツの近接度と、
前記原色画像の色であって、前記原色画像のうちの少なくとも1つは、別の色の原色画像と分解能が異なる、前記原色画像の色と
に基づいて、仮想コンテンツを形成する原色画像の分解能を調節することを含む動作を実施させる、1つ以上のコンピュータ記憶媒体と
を備える、ディスプレイシステム。
A display system,
One or more processors,
One or more computer storage media, wherein the one or more computer storage media store instructions, the instructions being executed by the one or more processors. To
Proximity of the virtual content from the user's perspective,
The resolution of the primary color image forming the virtual content based on the color of the primary color image, wherein at least one of the primary color images has a different resolution from the primary color image of another color. One or more computer storage media that perform operations including adjusting the display system.
前記分解能は、少なくとも色深度に対応する、請求項56に記載のディスプレイシステム。   57. The display system of claim 56, wherein the resolution corresponds to at least color depth. 前記分解能は、少なくともポリゴンカウントに対応する、請求項56に記載のディスプレイシステム。   57. The display system of claim 56, wherein the resolution corresponds to at least polygon count. 前記原色画像は、赤色原色画像、緑色原色画像、および青色原色画像を備え、
前記緑色原色画像は、前記赤色または前記青色原色画像より高い分解能を有する、
請求項56に記載のディスプレイシステム。
The primary color image comprises a red primary color image, a green primary color image, and a blue primary color image,
The green primary color image has a higher resolution than the red or blue primary color image,
A display system according to claim 56.
前記赤色原色画像は、前記青色原色画像より高い分解能を有する、請求項59に記載のディスプレイシステム。   60. The display system of claim 59, wherein the red primary color image has a higher resolution than the blue primary color image. 前記仮想コンテンツの分解能を調節することは、周囲光および前記仮想コンテンツを表示するために前記ディスプレイシステムによって出力された光の一方または両方の減少に伴って、前記仮想コンテンツを形成する画像のコントラスト比を減少させることを含む、請求項56に記載のディスプレイシステム。   Adjusting the resolution of the virtual content comprises reducing the contrast ratio of the images forming the virtual content with a decrease in one or both of ambient light and light output by the display system to display the virtual content. 57. The display system of claim 56, comprising: 前記動作はさらに、前記ディスプレイシステムのユーザの眼の視神経盲点に対応する仮想コンテンツのレンダリングを防止することを含む、請求項56に記載のディスプレイシステム。   57. The display system of claim 56, wherein the act further comprises preventing rendering of virtual content corresponding to an optic nerve blind spot in an eye of a user of the display system. 前記仮想コンテンツの分解能を調節することは、前記ユーザの眼毎の反対周辺領域内に位置する仮想コンテンツのレンダリングを防止することを含み、前記反対周辺領域は、前記眼が配置される前記ユーザの側と反対の前記ユーザの側上にある、請求項56に記載のディスプレイシステム。   Adjusting the resolution of the virtual content includes preventing rendering of virtual content located in opposite peripheral regions for each of the user's eyes, the opposite peripheral region of the user being positioned with the eyes. 57. The display system of claim 56, which is on the side of the user opposite the side. 前記動作はさらに、ディスプレイデバイスを介して、ユーザに、前記仮想コンテンツの提示をもたらすことを含み、前記仮想コンテンツは、関連付けられた調節された分解能に従ってレンダリングされる、請求項56に記載のディスプレイシステム。   57. The display system of claim 56, wherein the act of further comprises providing a presentation of the virtual content to a user via a display device, the virtual content being rendered according to an associated adjusted resolution. .. 1つ以上のプロセッサと、頭部搭載可能ディスプレイとを備える、ディスプレイシステムによって実施される方法であって、前記方法は、
ユーザ固視点からの前記仮想コンテンツの近接度と、
前記原色画像の色であって、前記原色画像のうちの少なくとも1つは、別の色の原色画像と分解能が異なる、前記原色画像の色と
に基づいて、仮想コンテンツを形成する原色画像の分解能を調節することを含む、方法。
A method implemented by a display system comprising one or more processors and a head mountable display, the method comprising:
Proximity of the virtual content from the user's perspective,
The resolution of the primary color image forming the virtual content based on the color of the primary color image, wherein at least one of the primary color images has a different resolution from the primary color image of another color. Adjusting the method.
ディスプレイシステムであって、
第1の画像ストリームおよび第2の画像ストリームを提供するための空間光変調器を備える画像源と、
前記第1および第2の画像ストリームを前記画像源から受信し、前記第1および第2の画像ストリームをユーザに出力するための光誘導光学系を備える視認アセンブリと、
前記画像源と通信する1つ以上のプロセッサと、
1つ以上のコンピュータ記憶媒体であって、前記1つ以上のコンピュータ記憶媒体は、命令を記憶しており、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
前記画像源に、前記第1の画像ストリームを前記視認アセンブリに出力させることであって、前記第1の画像ストリームによって形成される画像は、第1のピクセル密度を有する、ことと、
前記画像源に、前記第2の画像ストリームを前記視認アセンブリに出力させることであって、前記第2の画像ストリームによって形成される画像は、前記第1のピクセル密度を上回る第2のピクセル密度を有する、ことと
を含む動作を実施させ、
前記第2の画像ストリームによって形成される画像は、前記第1の画像ストリームによって提供される画像の部分に対応し、
前記第2の画像ストリームによって形成される画像は、前記第1の画像ストリームによって提供される視野の対応する部分を覆う、1つ以上のコンピュータ記憶媒体と
を備える、ディスプレイシステム。
A display system,
An image source comprising a spatial light modulator for providing a first image stream and a second image stream;
A viewing assembly including light guiding optics for receiving the first and second image streams from the image source and outputting the first and second image streams to a user.
One or more processors in communication with the image source;
One or more computer storage media, wherein the one or more computer storage media store instructions, the instructions being executed by the one or more processors. To
Causing the image source to output the first image stream to the viewing assembly, the image formed by the first image stream having a first pixel density;
Causing the image source to output the second image stream to the viewing assembly, wherein the image formed by the second image stream has a second pixel density greater than the first pixel density. Have an action including
The image formed by the second image stream corresponds to a portion of the image provided by the first image stream,
The image formed by the second image stream comprises one or more computer storage media covering a corresponding portion of the field of view provided by the first image stream.
前記動作はさらに、前記第1の画像に対する前記第2の画像の場所を改変することを含む、請求項66に記載のディスプレイシステム。   67. The display system of claim 66, wherein the act further comprises modifying a location of the second image with respect to the first image. 前記動作はさらに、前記第2の画像のサイズを経時的に改変することを含む、請求項67に記載のディスプレイシステム。   68. The display system of claim 67, wherein the act further comprises modifying the size of the second image over time. 前記ユーザの眼の配向の変化を検出するように構成される眼視線トラッカをさらに備え、
前記動作は、前記ユーザの眼の配向の検出された変化に従って、前記第1の画像に対する前記第2の画像の場所を改変することを含む、
請求項67に記載のディスプレイシステム。
Further comprising an eye gaze tracker configured to detect a change in orientation of the user's eye,
The act includes modifying a location of the second image relative to the first image according to a detected change in orientation of the user's eye.
The display system of claim 67.
前記画像源と前記視認アセンブリとの間の前記第2の画像ストリームの経路内の走査ミラー
をさらに備え、
前記動作はさらに、前記走査ミラーの配向を調節し、前記第1の画像に対する前記第2の画像の画像の場所を改変することを含む、請求項69に記載のディスプレイシステム。
A scan mirror in the path of the second image stream between the image source and the viewing assembly;
70. The display system of claim 69, wherein the act further comprises adjusting an orientation of the scanning mirror to alter an image location of the second image with respect to the first image.
前記視認アセンブリは、接眼レンズを備え、前記接眼レンズは、
光を前記導波管に内部結合するように構成される内部結合格子を備える導波管を備える、請求項66に記載のディスプレイシステム。
The viewing assembly includes an eyepiece, and the eyepiece includes
67. The display system of claim 66, comprising a waveguide with an incoupling grating configured to incouple light into the waveguide.
前記内部結合格子は、液晶の偏光に敏感な内部結合格子である、請求項71に記載のディスプレイシステム。   72. The display system of claim 71, wherein the in-coupling grating is a liquid crystal polarization sensitive in-coupling grating. 前記導波管は、光を前記導波管に内部結合するように構成される他の内部結合格子を備え、前記他の内部結合格子は、前記導波管の前記内部結合格子と異なる表面に沿って配置される、請求項71に記載のディスプレイシステム。   The waveguide comprises another incoupling grating configured to incouple light into the waveguide, the other incoupling grating on a surface of the waveguide different from the incoupling grating. 72. The display system of claim 71 disposed along. 前記内部結合格子および前記他の内部結合格子は両方とも、前記第2の画像ストリームの光学経路内にあり、
前記内部結合格子および前記他の内部結合格子は、第1の偏光を有する前記第2の画像ストリームに対して透過性であり、
前記他の内部結合格子から離間され、かつそれに面したミラーをさらに備え、前記ミラーは、前記第2の画像ストリームを前記他の内部結合格子に向かって反射させながら、また、前記第2の画像ストリームの光の偏光を第2の偏光に変化させるように構成され、前記他の内部結合格子は、前記第2の偏光の光を内部結合するように構成される、
請求項73に記載のディスプレイシステム。
Both the incoupling grating and the other incoupling grating are in the optical path of the second image stream,
The incoupling grating and the other incoupling grating are transparent to the second image stream having a first polarization,
Further comprising a mirror spaced from and facing the other in-coupling grating, the mirror reflecting the second image stream towards the other in-coupling grating, and also the second image. Configured to change the polarization of the light in the stream to a second polarization, and the other incoupling grating is configured to incouple the light of the second polarization.
A display system according to claim 73.
前記導波管は、光を前記導波管に内部結合するように構成される他の内部結合格子を備え、前記他の内部結合格子は、前記内部結合格子と前記導波管の同一表面に沿って配置され、前記内部結合格子は、前記第2の画像ストリームの経路内に配置され、前記他の内部結合格子は、前記第1の画像ストリームの経路内に配置される、請求項71に記載のディスプレイシステム。   The waveguide comprises another incoupling grating configured to internally couple light into the waveguide, the other incoupling grating being on the same surface of the incoupling grating and the waveguide. 72. Along a line, the incoupling grids are located in the path of the second image stream, and the other incoupling grids are located in the path of the first image stream. Display system described. 光を異なる方向に伝搬する複数の画像ストリームに分割するためのビーム分割光学系をさらに備える、請求項66に記載のディスプレイシステム。   67. The display system of claim 66, further comprising beam splitting optics for splitting light into multiple image streams propagating in different directions. 前記ビーム分割光学系は、偏光ビームスプリッタである、請求項76に記載のディスプレイシステム。
前記ビーム分割光学系は、切替可能反射体であり、前記切替可能反射体は、反射性状態と透過性状態との間で選択的に切替可能である、請求項76に記載のディスプレイシステム。
77. The display system of claim 76, wherein the beam splitting optics is a polarizing beam splitter.
77. The display system of claim 76, wherein the beam splitting optics is a switchable reflector, and the switchable reflector is selectively switchable between a reflective state and a transmissive state.
画像をユーザの眼に投影させるためのディスプレイシステムであって、前記ディスプレイシステムは、
画像源であって、前記画像源は、第1の偏光における第1の画像ストリームと関連付けられた第1の光ビームと、前記第1の偏光と異なる第2の偏光における第2の画像ストリームと関連付けられた第2の光ビームとを投影するように構成され、前記第1の画像ストリームは、第1の視野を有し、前記第2の画像ストリームは、前記第1の視野より狭い第2の視野を有し、前記第1の光ビームおよび前記第2の光ビームは、多重化される、画像源と、
偏光ビームスプリッタであって、前記偏光ビームスプリッタは、
前記第1の画像ストリームを前記ユーザの眼に対して固定位置に位置付けるために、前記第1の光ビームを受光し、第1の光学経路に沿って視認アセンブリに向かって反射させることと、
前記第2の光ビームを受光し、第2の光学経路に沿って透過させることと
を行うように構成される、偏光ビームスプリッタと、
前記第2の光学経路に沿って配置され、前記第2の光ビームを受光し、前記視認アセンブリに向かって反射させるように構成される、走査ミラーと、
前記ユーザの眼の移動を検出するように構成される眼視線トラッカと、
前記眼視線トラッカおよび前記走査ミラーと通信する制御回路であって、前記制御回路は、前記第2の画像ストリームの位置が、前記ユーザの眼の検出された移動に従って移動されるように、前記走査ミラーを位置付けるように構成される、制御回路と
を備える、ディスプレイシステム。
A display system for projecting an image onto a user's eye, said display system comprising:
An image source, the image source comprising a first light beam associated with a first image stream in a first polarization, and a second image stream in a second polarization different from the first polarization. A second image stream configured to project an associated second light beam, the first image stream having a first field of view and the second image stream being narrower than the first field of view. An image source, the first light beam and the second light beam having a field of view of
A polarization beam splitter, wherein the polarization beam splitter is
Receiving the first beam of light and reflecting it toward a viewing assembly along a first optical path to position the first image stream in a fixed position relative to the user's eye;
A polarization beam splitter configured to receive the second light beam and transmit the second light beam along a second optical path;
A scanning mirror disposed along the second optical path and configured to receive the second light beam and reflect it toward the viewing assembly;
An eye gaze tracker configured to detect movement of the user's eyes,
A control circuit in communication with the eye gaze tracker and the scanning mirror, wherein the control circuit performs the scanning so that the position of the second image stream is moved according to the detected movement of the user's eye. A display system configured to position the mirror.
前記第1の画像ストリームは、第1の角度分解能を有し、前記第2の画像ストリームは、前記第1の角度分解能より高い第2の角度分解能を有する、請求項78に記載のディスプレイシステム。   79. The display system of claim 78, wherein the first image stream has a first angular resolution and the second image stream has a second angular resolution that is higher than the first angular resolution. 前記第2の画像ストリームのコンテンツは、前記第1の画像ストリームのコンテンツの一部を備える、請求項78に記載のディスプレイシステム。   79. The display system of claim 78, wherein the content of the second image stream comprises a portion of the content of the first image stream. 前記第2の画像ストリームのコンテンツは、前記第2の画像ストリームのコンテンツが、前記第2の画像ストリームによってオーバーレイされた前記第1の画像ストリームの部分に対応するように、前記第2の画像ストリームが前記第1の画像ストリームに対して移動するにつれて変化する、請求項80に記載のディスプレイシステム。   The content of the second image stream is such that the content of the second image stream corresponds to the portion of the first image stream overlaid by the second image stream. 81. The display system of claim 80, which varies as it moves with respect to the first image stream. 前記第1の偏光および前記第2の偏光はそれぞれ、線形偏光であり、前記第2の偏光は、前記第1の偏光に直交する、請求項78に記載のディスプレイシステム。   79. The display system of claim 78, wherein the first polarized light and the second polarized light are each linearly polarized light, and the second polarized light is orthogonal to the first polarized light. 第1の角度拡大率を前記第1の光ビームに提供するように構成される第1の中継レンズアセンブリをさらに備える、請求項78に記載のディスプレイシステム。   79. The display system of claim 78, further comprising a first relay lens assembly configured to provide a first angular magnification factor to the first light beam. 第2の角度拡大率を前記第2の光ビームに提供するように構成される第2の中継レンズアセンブリであって、前記第2の角度拡大率は、前記第1の角度拡大率と異なる、第2の中継レンズアセンブリ
をさらに備える、請求項83に記載のディスプレイシステム。
A second relay lens assembly configured to provide a second angular magnification to the second light beam, wherein the second angular magnification is different from the first angular magnification. 84. The display system of claim 83, further comprising a second relay lens assembly.
前記第1の角度拡大率は、1を上回り、前記第2の角度拡大率は、1以下である、請求項84に記載のディスプレイシステム。   85. The display system of claim 84, wherein the first angular magnification is greater than 1 and the second angular magnification is 1 or less. 前記第1の中継レンズアセンブリは、前記画像源と前記偏光ビームスプリッタとの間に位置付けられる第1の光学レンズと、前記第1の光学経路に沿って位置付けられる第2の光学レンズとを備え、前記第1の光学レンズの焦点距離と前記第2の光学レンズの焦点距離の比率は、1を上回る、請求項84に記載のディスプレイシステム。   The first relay lens assembly comprises a first optical lens positioned between the image source and the polarizing beam splitter, and a second optical lens positioned along the first optical path, 85. The display system of claim 84, wherein the ratio of the focal length of the first optical lens and the focal length of the second optical lens is greater than 1. 前記第2の中継レンズアセンブリは、前記第1の光学レンズと、前記第2の光学経路に沿って位置付けられる、第3の光学レンズとを備え、前記第1の光学レンズの焦点距離と前記第3の光学レンズの焦点距離の比率は、1以下である、請求項86に記載のディスプレイシステム。   The second relay lens assembly comprises the first optical lens and a third optical lens positioned along the second optical path, the focal length of the first optical lens and the first optical lens 87. The display system of claim 86, wherein the ratio of the focal lengths of the 3 optical lenses is 1 or less. 前記第1の光ビームおよび前記第2の光ビームは、時分割多重化され、
前記画像源は、切替偏光回転子を備え、前記切替偏光回転子は、前記第1の偏光における第1の光ビームと、前記第2の偏光における第2の光ビームとを提供するように構成される、請求項78に記載のディスプレイシステム。
The first light beam and the second light beam are time division multiplexed,
The image source comprises a switched polarization rotator, the switched polarization rotator being configured to provide a first light beam at the first polarization and a second light beam at the second polarization. 79. The display system according to claim 78, wherein:
前記第1の光ビームおよび前記第2の光ビームは、偏光分割多重化される、請求項78に記載のディスプレイシステム。   79. The display system of claim 78, wherein the first light beam and the second light beam are polarization division multiplexed. 画像をユーザの眼に投影させるためのディスプレイシステムであって、前記ディスプレイシステムは、
第1の画像ストリームと関連付けられた第1の光ビームと、第2の画像ストリームと関連付けられた第2の光ビームとを投影するように構成される画像源であって、前記第1の画像ストリームは、第1の視野を有し、前記第2の画像ストリームは、前記第1の視野より狭い第2の視野を有し、前記第1の光ビームおよび前記第2の光ビームは、多重化される、画像源と、
前記第1の画像ストリームおよび前記第2の画像ストリームを投影させるために、前記第1の光ビームおよび前記第2の光ビームを受光し、視認アセンブリに向かって反射させるように構成される走査ミラーと、
前記ユーザの眼の移動を検出するように構成される眼視線トラッカと、
前記眼視線トラッカおよび前記走査ミラーと通信する制御回路であって、前記制御回路は、前記第1の画像ストリームの位置および前記第2の画像ストリームの位置が、前記ユーザの眼の検出された移動に従って移動されるように、前記走査ミラーを位置付けるように構成される、制御回路と、
前記第1の光ビームおよび前記第2の光ビームの光学経路内に配置される切替可能光学要素であって、前記切替可能光学要素は、前記第1の光ビームが第1の角度拡大率によって角度的に拡大されるように、前記第1の光ビームのための第1の状態に切り替えられ、前記第2の光ビームが前記第1の角度拡大率未満である第2の角度拡大率によって角度的に増幅されるように、前記第2の光ビームのための第2の状態に切り替えられるように構成される、切替可能光学要素と
を備える、ディスプレイシステム。
A display system for projecting an image onto a user's eye, said display system comprising:
An image source configured to project a first light beam associated with a first image stream and a second light beam associated with a second image stream, the first image comprising: The stream has a first field of view, the second image stream has a second field of view that is narrower than the first field of view, and the first light beam and the second light beam are multiplexed. Image source,
A scanning mirror configured to receive the first light beam and the second light beam and reflect them towards a viewing assembly to project the first image stream and the second image stream. When,
An eye gaze tracker configured to detect movement of the user's eyes,
A control circuit in communication with the eye gaze tracker and the scanning mirror, wherein the control circuit detects the detected movement of the eye of the user such that the position of the first image stream and the position of the second image stream. A control circuit configured to position the scanning mirror to be moved according to
A switchable optical element disposed in an optical path of the first light beam and the second light beam, wherein the switchable optical element is configured such that the first light beam has a first angular magnification factor. By a second angular magnification factor that is switched to a first state for the first light beam so that the second light beam is less than the first angular magnification factor so as to be angularly magnified. A switchable optical element configured to be switched to a second state for the second light beam so as to be angularly amplified.
前記第1の光ビームおよび前記第2の光ビームは、時分割多重化され、前記切替可能光学要素は、電気的に切替可能な液晶レンズを備える、請求項90に記載のディスプレイシステム。   91. The display system of claim 90, wherein the first light beam and the second light beam are time division multiplexed and the switchable optical element comprises an electrically switchable liquid crystal lens. 前記第1の光ビームおよび前記第2の光ビームは、偏光分割多重化され、前記切替可能光学要素は、多焦点複屈折レンズを備える、請求項90に記載のディスプレイシステム。   91. The display system of claim 90, wherein the first light beam and the second light beam are polarization division multiplexed and the switchable optical element comprises a multifocal birefringent lens. 前記多焦点複屈折レンズは、複屈折ポリマーを備える、請求項92に記載のディスプレイシステム。   93. The display system of claim 92, wherein the multifocal birefringent lens comprises a birefringent polymer. 前記切替可能光学要素は、前記走査ミラーの下流に配置される、請求項90に記載のディスプレイシステム。   91. The display system of claim 90, wherein the switchable optical element is located downstream of the scan mirror. 前記切替可能光学要素は、前記走査ミラーの表面上に配置される、請求項90に記載のディスプレイシステム。   91. The display system of claim 90, wherein the switchable optical element is located on the surface of the scanning mirror. 前記切替可能光学要素は、前記画像源と前記走査ミラーとの間に配置される、請求項90に記載のディスプレイシステム。   91. The display system of claim 90, wherein the switchable optical element is located between the image source and the scanning mirror. 前記第1の角度拡大率は、1を上回り、前記第2の角度拡大率は、約1である、請求項90に記載のディスプレイシステム。   91. The display system of claim 90, wherein the first angular magnification is greater than 1 and the second angular magnification is about 1. ウェアラブルディスプレイシステムであって、
円偏光掌性依存拡大率を伴う無限焦点拡大レンズであって、前記無限焦点拡大レンズは、
第1の固定焦点距離レンズ要素と、
入射円偏光の第1の掌性のための正の屈折力を呈し、かつ入射円偏光の第2の掌性のための負の屈折力を呈する、第1の幾何学的位相レンズと、
第2の幾何学的位相レンズと
を備える、無限焦点拡大レンズ
を備える、ウェアラブルディスプレイシステム。
A wearable display system,
An afocal magnifying lens with circular polarization handedness dependent magnifying power, wherein the afocal magnifying lens is
A first fixed focal length lens element,
A first geometric phase lens exhibiting a positive refractive power for the first handedness of incident circularly polarized light and a negative power for the second handedness of the incident circularly polarized light;
A wearable display system comprising an afocal magnifying lens, comprising: a second geometric phase lens;
光を透過させる際、前記第1の幾何学的位相レンズは、円偏光掌性を逆転させ、
前記第2の幾何学的位相レンズは、前記円偏光の第1の掌性のための負の屈折力を呈し、前記円偏光の第2の掌性のための正の屈折力を呈する、
請求項98に記載のウェアラブルディスプレイシステム。
When transmitting light, the first geometric phase lens reverses the circular polarization chirality,
The second geometric phase lens exhibits a negative refractive power for the first handedness of the circularly polarized light and a positive refractive power for the second handedness of the circularly polarized light,
The wearable display system according to claim 98.
第2の固定焦点距離レンズをさらに備え、前記第2の幾何学的位相レンズは、前記円偏光の第1の掌性のための正の屈折力を呈し、前記円偏光の第2の掌性のための負の屈折力を呈する、請求項98に記載のウェアラブルディスプレイシステム。   A second fixed focal length lens is further included, wherein the second geometric phase lens exhibits a positive refractive power for the first handedness of the circularly polarized light, and the second handedness of the circularly polarized light. 99. The wearable display system of claim 98, exhibiting negative refractive power for. 光を透過させる際、前記第1の幾何学的位相レンズは、円偏光掌性を逆転させる、請求項98に記載のウェアラブルディスプレイシステム。   99. The wearable display system of claim 98, wherein the first geometric phase lens reverses circular polarization chirality when transmitting light. 前記第1の固定焦点距離レンズ要素および前記第1の幾何学的位相レンズをレンズグループとして見なすと、前記第1の掌性を有する光に関して、前記レンズグループは、第1のグループの正の焦点距離を有し、前記第2の掌性を有する光に関して、前記レンズグループは、第2のグループの正の焦点距離を有し、前記第1のグループの正の焦点距離は、前記第2のグループの正の焦点距離を超える、請求項98に記載のウェアラブルディスプレイシステム。   Considering the first fixed focal length lens element and the first geometric phase lens as a lens group, for the light having the first handedness, the lens group has a positive focus of the first group. For light having a distance and having the second handedness, the lens group has a positive focal length of the second group and the positive focal length of the first group has a positive focal length of the second group. 99. The wearable display system of claim 98, wherein the positive focal length of the group is exceeded. 前記無限焦点拡大レンズに光学的に結合される偏光回転子であって、前記偏光回転子は、偏光を受光し、第1の線形偏光または第2の線形偏光の光を選択的に出力するように構成される、偏光回転子と、
前記偏光回転子と前記無限焦点拡大レンズとの間の第1の波長板であって、前記第1の波長板は、前記第1の線形偏光の光を前記第1の掌性の円偏光に変換し、前記第2の線形偏光の光を前記第2の掌性の円偏光に変換するように構成される、第1の波長板と
をさらに備える、請求項98に記載のウェアラブルディスプレイシステム。
A polarization rotator optically coupled to the afocal magnifying lens, the polarization rotator receiving polarized light and selectively outputting first linearly polarized light or second linearly polarized light. A polarization rotator,
A first wave plate between the polarization rotator and the afocal magnifying lens, wherein the first wave plate converts the first linearly polarized light into the first handed circularly polarized light. 100. The wearable display system of claim 98, further comprising: a first waveplate configured to convert and convert the second linearly polarized light to the second handed circularly polarized light.
前記第1の線形偏光の光のための前記偏光回転子と前記第1の波長板との間の第1の光学経路と、
前記第2の線形偏光の光のための前記偏光回転子と前記第1の波長板との間の第2の光学経路と
を含む、請求項103に記載のウェアラブルディスプレイシステム。
A first optical path between the polarization rotator and the first wave plate for light of the first linearly polarized light;
105. The wearable display system of claim 103, comprising: a second optical path between the polarization rotator and the first waveplate for the second linearly polarized light.
前記第1の光学経路および前記第2の光学経路のうちの少なくとも1つは、操向可能ミラーを含む、請求項104に記載のウェアラブルディスプレイシステム。   105. The wearable display system of claim 104, wherein at least one of the first optical path and the second optical path comprises a steerable mirror. 前記第1の光学経路および前記第2の光学経路はそれぞれ、複数の中継レンズ要素の少なくともサブセットを含む、請求項104に記載のウェアラブルディスプレイシステム。   105. The wearable display system of claim 104, wherein the first optical path and the second optical path each include at least a subset of a plurality of relay lens elements. 前記第1の光学経路および前記第2の光学経路のそれぞれ内では、前記複数の中継レンズ要素の連続対が、無限焦点複合レンズを形成する、請求項103に記載のウェアラブルディスプレイシステム。   104. The wearable display system of claim 103, wherein a continuous pair of relay lens elements in each of the first optical path and the second optical path forms an afocal compound lens. 前記第1の光学経路は、偏光選択的反射体に交差し、前記第2の光学経路は、前記偏光選択的反射体に交差する、請求項104に記載のウェアラブルディスプレイシステム。   105. The wearable display system of claim 104, wherein the first optical path intersects a polarization selective reflector and the second optical path intersects the polarization selective reflector. 前記第1の光学経路および前記第2の光学経路はそれぞれ、4つの中継レンズ要素の少なくともサブセットを含み、前記4つの中継レンズ要素は、前記偏光選択的反射体を中心として位置付けられる、請求項108に記載のウェアラブルディスプレイシステム。   109. The first optical path and the second optical path each include at least a subset of four relay lens elements, the four relay lens elements positioned about the polarization selective reflector. Wearable display system according to. 前記第1の光学経路は、第1の方向において、前記偏光選択的反射体に交差し、前記第2の光学経路は、第2の方向において、前記偏光選択的反射体に交差する、請求項108に記載のウェアラブルディスプレイシステム。   The first optical path intersects the polarization-selective reflector in a first direction, and the second optical path intersects the polarization-selective reflector in a second direction. 108. A wearable display system according to 108. 前記第1の光学経路および前記第2の光学経路のうちの少なくとも1つは、第2の波長板と、第3の波長板とを含む、請求項108に記載のウェアラブルディスプレイシステム。   109. The wearable display system of claim 108, wherein at least one of the first optical path and the second optical path includes a second wave plate and a third wave plate. ウェアラブル画像プロジェクタのための光学サブシステムであって、
偏光選択的反射体と、
前記偏光選択的反射体を中心として位置付けられる4つのレンズ要素のセットと
を備える、光学サブシステム。
An optical subsystem for a wearable image projector, comprising:
A polarization-selective reflector,
A set of four lens elements centered around the polarization-selective reflector.
前記4つのレンズ要素のセットの各連続対は、前記サブシステムを通した少なくとも1つの光学経路に沿って、無限焦点複合レンズを形成する、請求項112に記載の光学サブシステム。   113. The optical subsystem of claim 112, wherein each successive pair of the set of four lens elements forms an afocal compound lens along at least one optical path through the subsystem. 前記偏光選択的反射体および前記4つのレンズ要素のセットに光学的に結合される偏光回転スイッチをさらに備える、請求項112に記載の光学サブシステム。   113. The optical subsystem of claim 112, further comprising a polarization rotation switch optically coupled to the polarization selective reflector and the set of four lens elements. 前記偏光選択的反射体を中心として位置付けられる複数の波長板をさらに備える、請求項114に記載の光学サブシステム。   115. The optical subsystem of claim 114, further comprising a plurality of wave plates centered about the polarization selective reflector. 前記複数の波長板はそれぞれ、前記4つの中継レンズ要素のセットのうちの1つと前記偏光選択的反射体との間に位置付けられる、請求項115に記載の光学サブシステム。   116. The optical subsystem of claim 115, wherein each of the plurality of waveplates is positioned between one of the set of four relay lens elements and the polarization selective reflector. 前記複数の波長板は、3つの波長板を含む、請求項115に記載の光学サブシステム。   116. The optical subsystem of claim 115, wherein the plurality of wave plates comprises three wave plates. 前記偏光選択的反射体から前記4つの中継レンズのセットの第1のものと反対側上に位置付けられる中心窩追跡ミラーをさらに備える、請求項115に記載の光学サブシステム。   116. The optical subsystem of claim 115, further comprising a fovea tracking mirror positioned on the opposite side of the polarization selective reflector from the first of the set of four relay lenses. 前記偏光選択的反射体から前記4つの中継レンズのセットの第2のものと反対側上に位置付けられる画像走査ミラーをさらに備える、請求項118に記載の光学サブシステム。   119. The optical subsystem of claim 118, further comprising an image scanning mirror positioned on the opposite side of the polarization selective reflector from the second of the set of four relay lenses. 前記画像走査ミラーに光学的に結合される光ビーム源をさらに備える、請求項119に記載の光学サブシステム。   120. The optical subsystem of claim 119, further comprising a light beam source optically coupled to the image scanning mirror. 前記光ビーム源は、ダイクロイック反射体と、前記ダイクロイック反射体によって反射された第1の色の光を放出する第1のレーザダイオードと、前記ダイクロイック反射体によって透過された第2の色の光を放出する第2のレーザダイオードとを備える、請求項120に記載の光学サブシステム。   The light beam source includes a dichroic reflector, a first laser diode that emits light of a first color reflected by the dichroic reflector, and a light of a second color transmitted by the dichroic reflector. 121. The optical subsystem of claim 120, comprising an emitting second laser diode. 画像をユーザの眼に投影させるためのディスプレイシステムであって、前記ディスプレイシステムは、
接眼レンズであって、前記接眼レンズは、
導波管と、
前記導波管に光学的に結合される内部結合格子と
を含む、接眼レンズと、
第1の画像ストリームと関連付けられた第1の光ビームを投影するように構成される第1の画像源であって、前記第1の画像ストリームは、前記内部結合格子の第1の表面上に入射する第1の視野を有し、前記第1の光ビームの一部は、前記第1の画像ストリームを前記ユーザの眼に対して固定位置に位置付けるために、前記内部結合格子によって、前記導波管の中に結合される、第1の画像源と、
第2の画像ストリームと関連付けられた第2の光ビームを投影するように構成される第2の画像源であって、前記第2の画像ストリームは、前記第1の視野より狭い第2の視野を有する、第2の画像源と、
走査ミラーであって、前記走査ミラーは、前記第2の光ビームが、その前記第1の表面と反対の前記内部結合格子の第2の表面上に入射するように、前記第2の光ビームを受光し、反射させるように構成され、前記第2の光ビームの一部は、前記内部結合格子によって、前記導波管の中に結合される、走査ミラーと、
前記ユーザの眼の移動を検出するように構成される眼視線トラッカと、
前記眼視線トラッカおよび前記走査ミラーと通信する制御回路であって、前記制御回路は、前記第2の画像ストリームの位置が、前記ユーザの眼の検出された移動に従って移動されるように、前記走査ミラーを位置付けるように構成される、制御回路と
を備える、ディスプレイシステム。
A display system for projecting an image onto a user's eye, said display system comprising:
An eyepiece, wherein the eyepiece is
A waveguide,
An eyepiece, including an incoupling grating optically coupled to the waveguide;
A first image source configured to project a first light beam associated with a first image stream, the first image stream being on a first surface of the incoupling grating. A portion of the first light beam having a first field of incidence is guided by the incoupling grating to position the first image stream in a fixed position relative to the user's eye. A first image source coupled into the wave tube;
A second image source configured to project a second light beam associated with a second image stream, the second image stream having a second field of view narrower than the first field of view. A second image source having
A scanning mirror, wherein the second light beam is such that the second light beam is incident on a second surface of the incoupling grating opposite to the first surface thereof. A scanning mirror configured to receive and reflect a portion of the second light beam into the waveguide by the incoupling grating;
An eye gaze tracker configured to detect movement of the user's eyes,
A control circuit in communication with the eye gaze tracker and the scanning mirror, wherein the control circuit performs the scanning so that the position of the second image stream is moved according to the detected movement of the user's eye. A display system configured to position the mirror.
第1のレンズアセンブリをさらに備え、前記第1のレンズアセンブリは、前記第1の光ビームの第1の光学経路に沿って位置付けられ、第1の角度拡大率を前記第1の光ビームに提供するように構成される、請求項122に記載のディスプレイシステム。   Further comprising a first lens assembly, wherein the first lens assembly is positioned along a first optical path of the first light beam and provides a first angular magnification to the first light beam. 123. The display system of claim 122, configured to: 第2のレンズアセンブリをさらに備え、前記第2のレンズアセンブリは、前記第2の光ビームの第2の光学経路に沿って位置付けられ、第2の角度拡大率を前記第2の光ビームに提供するように構成され、前記第2の角度拡大率は、前記第1の角度拡大率と異なる、請求項123に記載のディスプレイシステム。   A second lens assembly is further provided, the second lens assembly being positioned along a second optical path of the second light beam to provide a second angular magnification to the second light beam. 124. The display system of claim 123, wherein the second angular magnification factor is different from the first angular magnification factor. 前記第1の角度拡大率は、1を上回り、前記第2の角度拡大率は、1以下である、請求項124に記載のディスプレイシステム。   125. The display system of claim 124, wherein the first angular magnification factor is greater than 1 and the second angular magnification factor is 1 or less. 前記第1の画像ストリームは、第1の角度分解能を有し、前記第2の画像ストリームは、前記第1の角度分解能より高い第2の角度分解能を有する、請求項122に記載のディスプレイシステム。   123. The display system of claim 122, wherein the first image stream has a first angular resolution and the second image stream has a second angular resolution that is higher than the first angular resolution. 画像をユーザの眼に投影させるためのディスプレイシステムであって、前記ディスプレイシステムは、
接眼レンズであって、前記接眼レンズは、
導波管と、
前記導波管に光学的に結合される内部結合格子と
を含む、接眼レンズと、
画像源であって、前記画像源は、第1の偏光における第1の画像ストリームと関連付けられた第1の光ビームと、前記第1の偏光と異なる第2の偏光における第2の画像ストリームと関連付けられた第2の光ビームとを投影するように構成され、前記第1の画像ストリームは、第1の視野を有し、前記第2の画像ストリームは、前記第1の視野より狭い第2の視野を有し、前記第1の光ビームおよび前記第2の光ビームは、多重化される、画像源と、
偏光ビームスプリッタであって、前記偏光ビームスプリッタは、
前記第1の光ビームを受光し、第1の光学経路に沿って反射させることと、
前記第2の光ビームを受光し、第2の光学経路に沿って透過させることと
を行うように構成される、偏光ビームスプリッタと、
第1の光学反射体であって、前記第1の光学反射体は、前記第1の光学経路に沿って位置付けられ、前記第1の光ビームが、前記内部結合格子の第1の表面上に入射するように、前記第1の光ビームを受光し、反射させるように構成され、前記第1の光ビームの一部は、前記第1の画像ストリームを前記ユーザの眼に対して固定位置に位置付けるために、前記内部結合格子によって、前記導波管の中に結合される、第1の光学反射体と、
前記第2の光学経路に沿って配置され、前記第2の光ビームを受光し、反射させるように構成される走査ミラーと、
第2の光学反射体であって、前記第2の光学反射体は、前記走査ミラーの下流の前記第2の光学経路に沿って位置付けられ、前記第2の光学反射体は、前記第2の光ビームが、その前記第1の表面と反対の前記内部結合格子の第2の表面上に入射するように、前記第2の光ビームを受光し、反射させるように構成され、前記第2の光ビームの一部は、前記内部結合格子によって、前記導波管の中に結合される、第2の光学反射体と、
前記ユーザの眼の移動を検出するように構成される眼視線トラッカと、
前記眼視線トラッカおよび前記走査ミラーと通信する制御回路であって、前記制御回路は、前記第2の画像ストリームの位置が、前記ユーザの眼の検出された移動に従って移動されるように、前記走査ミラーを位置付けるように構成される、制御回路と
を備える、ディスプレイシステム。
A display system for projecting an image onto a user's eye, said display system comprising:
An eyepiece, wherein the eyepiece is
A waveguide,
An eyepiece, including an incoupling grating optically coupled to the waveguide;
An image source, the image source comprising a first light beam associated with a first image stream in a first polarization, and a second image stream in a second polarization different from the first polarization. A second image stream configured to project an associated second light beam, the first image stream having a first field of view and the second image stream being narrower than the first field of view. An image source, the first light beam and the second light beam having a field of view of
A polarization beam splitter, wherein the polarization beam splitter is
Receiving the first light beam and reflecting it along a first optical path;
A polarization beam splitter configured to receive the second light beam and transmit the second light beam along a second optical path;
A first optical reflector, wherein the first optical reflector is positioned along the first optical path and the first light beam is on the first surface of the incoupling grating. Configured to receive and reflect the first light beam for incidence, a portion of the first light beam directing the first image stream to a fixed position relative to the user's eye. A first optical reflector coupled into the waveguide by the incoupling grating for positioning;
A scanning mirror disposed along the second optical path and configured to receive and reflect the second light beam;
A second optical reflector, wherein the second optical reflector is positioned along the second optical path downstream of the scanning mirror, and the second optical reflector is the second optical reflector. Configured to receive and reflect the second light beam such that the light beam is incident on a second surface of the incoupling grating opposite the first surface thereof. A second optical reflector in which a portion of the light beam is coupled into the waveguide by the incoupling grating;
An eye gaze tracker configured to detect movement of the user's eyes,
A control circuit in communication with the eye gaze tracker and the scanning mirror, wherein the control circuit performs the scanning so that the position of the second image stream is moved according to the detected movement of the user's eye. A display system configured to position the mirror.
画像をユーザの眼に投影させるためのディスプレイシステムであって、前記ディスプレイシステムは、
導波管と、
画像源であって、前記画像源は、第1の偏光における第1の画像ストリームと関連付けられた第1の光ビームと、前記第1の偏光と異なる第2の偏光における第2の画像ストリームと関連付けられた第2の光ビームとを投影するように構成され、前記第1の画像ストリームは、第1の視野を有し、前記第2の画像ストリームは、前記第1の視野より狭い第2の視野を有し、前記第1の光ビームおよび前記第2の光ビームは、多重化される、画像源と、
偏光ビームスプリッタであって、前記偏光ビームスプリッタは、
前記第1の光ビームを受光し、第1の光学経路に沿って反射させることと、
前記第2の光ビームを受光し、第2の光学経路に沿って透過させることと
を行うように構成される、偏光ビームスプリッタと、
前記第1の光学経路に沿って、前記導波管の第1の表面に隣接して位置付けられる第1の内部結合プリズムであって、前記第1の内部結合プリズムは、前記第1の画像ストリームを前記ユーザの眼に対して固定位置に位置付けるために、前記第1の光ビームの一部を前記導波管の中に結合するように構成される、第1の内部結合プリズムと、
前記第2の光学経路に沿って配置され、前記第2の光ビームを受光し、反射させるように構成される走査ミラーと、
前記走査ミラーの下流の前記第2の光学経路に沿って、前記導波管の前記第1の表面と反対の前記導波管の第2の表面に隣接して位置付けられる第2の内部結合プリズムであって、前記第2の内部結合プリズムは、前記第2の光ビームの一部を前記導波管の中に結合するように構成される、第2の内部結合プリズムと、
前記ユーザの眼の移動を検出するように構成される眼視線トラッカと、
前記眼視線トラッカおよび前記走査ミラーと通信する制御回路であって、前記制御回路は、前記第2の画像ストリームの位置が、前記ユーザの眼の検出された移動に従って移動されるように、前記走査ミラーを位置付けるように構成される、制御回路と
を備える、ディスプレイシステム。
A display system for projecting an image onto a user's eye, said display system comprising:
A waveguide,
An image source, the image source comprising a first light beam associated with a first image stream in a first polarization, and a second image stream in a second polarization different from the first polarization. A second image stream configured to project an associated second light beam, the first image stream having a first field of view and the second image stream being narrower than the first field of view. An image source, the first light beam and the second light beam having a field of view of
A polarization beam splitter, wherein the polarization beam splitter is
Receiving the first light beam and reflecting it along a first optical path;
A polarization beam splitter configured to receive the second light beam and transmit the second light beam along a second optical path;
A first incoupling prism positioned along the first optical path and adjacent a first surface of the waveguide, the first incoupling prism being the first image stream. A first incoupling prism configured to couple a portion of the first light beam into the waveguide for locating a fixed position with respect to the user's eye;
A scanning mirror disposed along the second optical path and configured to receive and reflect the second light beam;
A second incoupling prism positioned adjacent the second surface of the waveguide opposite the first surface of the waveguide along the second optical path downstream of the scanning mirror. Wherein the second incoupling prism is configured to couple a portion of the second light beam into the waveguide;
An eye gaze tracker configured to detect movement of the user's eyes,
A control circuit in communication with the eye gaze tracker and the scanning mirror, wherein the control circuit performs the scanning so that the position of the second image stream is moved according to the detected movement of the user's eye. A display system configured to position the mirror.
JP2019552200A 2017-03-22 2018-03-21 Depth-based foveal rendering for display systems Active JP7096836B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022087594A JP7329105B2 (en) 2017-03-22 2022-05-30 Depth-Based Foveated Rendering for Display Systems
JP2023118193A JP2023126616A (en) 2017-03-22 2023-07-20 Depth-based foveated rendering for display system

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201762475012P 2017-03-22 2017-03-22
US62/475,012 2017-03-22
US201762486407P 2017-04-17 2017-04-17
US62/486,407 2017-04-17
US201762539934P 2017-08-01 2017-08-01
US62/539,934 2017-08-01
US201862644365P 2018-03-16 2018-03-16
US62/644,365 2018-03-16
PCT/US2018/023619 WO2018175625A1 (en) 2017-03-22 2018-03-21 Depth based foveated rendering for display systems

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022087594A Division JP7329105B2 (en) 2017-03-22 2022-05-30 Depth-Based Foveated Rendering for Display Systems

Publications (3)

Publication Number Publication Date
JP2020514926A true JP2020514926A (en) 2020-05-21
JP2020514926A5 JP2020514926A5 (en) 2021-04-30
JP7096836B2 JP7096836B2 (en) 2022-07-06

Family

ID=63582451

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019552200A Active JP7096836B2 (en) 2017-03-22 2018-03-21 Depth-based foveal rendering for display systems
JP2022087594A Active JP7329105B2 (en) 2017-03-22 2022-05-30 Depth-Based Foveated Rendering for Display Systems
JP2023118193A Pending JP2023126616A (en) 2017-03-22 2023-07-20 Depth-based foveated rendering for display system

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022087594A Active JP7329105B2 (en) 2017-03-22 2022-05-30 Depth-Based Foveated Rendering for Display Systems
JP2023118193A Pending JP2023126616A (en) 2017-03-22 2023-07-20 Depth-based foveated rendering for display system

Country Status (9)

Country Link
US (2) US11644669B2 (en)
EP (2) EP4411519A2 (en)
JP (3) JP7096836B2 (en)
KR (3) KR102524006B1 (en)
CN (2) CN110679147B (en)
AU (1) AU2018239511A1 (en)
CA (1) CA3057109A1 (en)
IL (2) IL300511A (en)
WO (1) WO2018175625A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7011746B1 (en) 2021-05-31 2022-01-27 株式会社バーチャルキャスト Content distribution system, content distribution method, and content distribution program

Families Citing this family (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11726332B2 (en) 2009-04-27 2023-08-15 Digilens Inc. Diffractive projection apparatus
US9933684B2 (en) * 2012-11-16 2018-04-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration
CN107873086B (en) 2015-01-12 2020-03-20 迪吉伦斯公司 Environmentally isolated waveguide display
US9632226B2 (en) 2015-02-12 2017-04-25 Digilens Inc. Waveguide grating device
US10634881B2 (en) * 2015-03-26 2020-04-28 Kent State University Compact non-mechanical zoom lens having focal lengths dependent upon left- or right-handedness of circularly polarized light
WO2017060665A1 (en) 2015-10-05 2017-04-13 Milan Momcilo Popovich Waveguide display
GB2553744B (en) 2016-04-29 2018-09-05 Advanced Risc Mach Ltd Graphics processing systems
US10268268B1 (en) 2016-09-02 2019-04-23 Facebook Technologies, Llc Waveguide integrated eye tracking
KR20190082303A (en) 2016-11-18 2019-07-09 매직 립, 인코포레이티드 Waveguide Optical Multiplexer Using Crossed Gratings
US10168531B1 (en) 2017-01-04 2019-01-01 Facebook Technologies, Llc Lightfield waveguide integrated eye tracking
WO2018129398A1 (en) 2017-01-05 2018-07-12 Digilens, Inc. Wearable heads up displays
US10904514B2 (en) 2017-02-09 2021-01-26 Facebook Technologies, Llc Polarization illumination using acousto-optic structured light in 3D depth sensing
KR102524006B1 (en) 2017-03-22 2023-04-20 매직 립, 인코포레이티드 Depth-Based Foveated Rendering for Display Systems
KR102578929B1 (en) * 2017-03-27 2023-09-15 아브간트 코포레이션 Steerable foveal display
US10685430B2 (en) * 2017-05-10 2020-06-16 Babylon VR Inc. System and methods for generating an optimized 3D model
US10914957B1 (en) 2017-05-30 2021-02-09 Apple Inc. Video compression methods and apparatus
US10613413B1 (en) 2017-05-31 2020-04-07 Facebook Technologies, Llc Ultra-wide field-of-view scanning devices for depth sensing
US10181200B1 (en) 2017-06-28 2019-01-15 Facebook Technologies, Llc Circularly polarized illumination and detection for depth sensing
US10574973B2 (en) 2017-09-06 2020-02-25 Facebook Technologies, Llc Non-mechanical beam steering for depth sensing
CN109511004B (en) * 2017-09-14 2023-09-01 中兴通讯股份有限公司 Video processing method and device
WO2019082510A1 (en) * 2017-10-23 2019-05-02 ソニー株式会社 Display control device, head mount display, display control method, and computer program
US10650579B2 (en) * 2017-11-30 2020-05-12 Microsoft Technology Licensing, Llc Systems and methods of distance-based shaders for procedurally generated graphics
US10401657B2 (en) * 2018-01-05 2019-09-03 Intel Corporation Head mount displays for mixed reality
AU2019232746A1 (en) 2018-03-07 2020-08-20 Magic Leap, Inc. Adaptive lens assemblies including polarization-selective lens stacks for augmented reality display
US20190285891A1 (en) 2018-03-15 2019-09-19 Oculus Vr, Llc Image quality of pancharatnam berry phase components using polarizers
US11175508B2 (en) 2018-03-15 2021-11-16 Facebook Technologies, Llc Display device with varifocal optical assembly
US11175507B2 (en) 2018-03-15 2021-11-16 Facebook Technologies, Llc Polarization-sensitive components in optical systems for large pupil acceptance angles
US11846779B2 (en) 2018-03-15 2023-12-19 Meta Platforms Technologies, Llc Display device with varifocal optical assembly
CN112136094A (en) 2018-03-16 2020-12-25 奇跃公司 Depth-based foveated rendering for display systems
US10714050B2 (en) 2018-03-21 2020-07-14 Daqri, Llc Reducing latency in augmented reality (AR) displays
WO2019191778A1 (en) * 2018-03-30 2019-10-03 The Regents Of The University Of California Photonic beam steering and applications for optical communications
US10642049B2 (en) * 2018-04-25 2020-05-05 Apple Inc. Head-mounted device with active optical foveation
DE102018110644B4 (en) * 2018-05-03 2024-02-15 Carl Zeiss Meditec Ag Digital microscope and digital microscopy method
GB2573543B (en) 2018-05-09 2021-10-27 Advanced Risc Mach Ltd Graphics Processing
US11494988B2 (en) * 2018-05-22 2022-11-08 Agilent Technologies, Inc. Method and system for implementing augmented reality (AR)-based assistance within work environment
US10419738B1 (en) 2018-06-14 2019-09-17 Telefonaktiebolaget Lm Ericsson (Publ) System and method for providing 360° immersive video based on gaze vector information
US10527854B1 (en) * 2018-06-18 2020-01-07 Facebook Technologies, Llc Illumination source for a waveguide display
US10841662B2 (en) 2018-07-27 2020-11-17 Telefonaktiebolaget Lm Ericsson (Publ) System and method for inserting advertisement content in 360° immersive video
US10712837B1 (en) * 2018-07-30 2020-07-14 David Douglas Using geo-registered tools to manipulate three-dimensional medical images
KR102546321B1 (en) * 2018-07-30 2023-06-21 삼성전자주식회사 3-dimensional image display device and method
KR20200021670A (en) * 2018-08-21 2020-03-02 삼성전자주식회사 Wearable device and controlling method thereof
US10757389B2 (en) 2018-10-01 2020-08-25 Telefonaktiebolaget Lm Ericsson (Publ) Client optimization for providing quality control in 360° immersive video during pause
WO2020082002A1 (en) 2018-10-19 2020-04-23 Magic Leap, Inc. Method and system for reducing line separation artifacts in interlaced image projection
US10775617B2 (en) * 2018-10-24 2020-09-15 Google Llc Eye tracked lens for increased screen resolution
US12020368B1 (en) * 2018-11-02 2024-06-25 Meta Platforms Technologies, Llc Pixel replication and interpolation for foveated rendering in a display engine
US11582441B2 (en) 2018-12-04 2023-02-14 Maxell, Ltd. Head mounted display apparatus
EP3891546A4 (en) 2018-12-07 2022-08-24 Avegant Corp. Steerable positioning element
EP3894938A4 (en) 2018-12-11 2022-08-24 Digilens Inc. Methods and apparatuses for providing a single grating layer color holographic waveguide display
WO2020122128A1 (en) * 2018-12-11 2020-06-18 富士フイルム株式会社 Light guide element, image display device, and sensing device
US10634907B1 (en) * 2018-12-19 2020-04-28 Facebook Technologies, Llc Eye tracking based on polarization volume grating
CN113490873A (en) 2018-12-28 2021-10-08 奇跃公司 Variable pixel density display system with mechanically actuated image projector
EP3884338A4 (en) 2019-01-07 2022-09-07 Avegant Corp. Control system and rendering pipeline
CN109767466B (en) * 2019-01-10 2021-07-13 深圳看到科技有限公司 Picture rendering method and device, terminal and corresponding storage medium
US11175513B2 (en) * 2019-01-22 2021-11-16 Varjo Technologies Oy Display apparatuses and methods employing waveguides and opacity masks
CN113614783A (en) 2019-01-25 2021-11-05 奇跃公司 Eye tracking using images with different exposure times
US11271143B2 (en) 2019-01-29 2022-03-08 Osram Opto Semiconductors Gmbh μ-LED, μ-LED device, display and method for the same
US11302248B2 (en) 2019-01-29 2022-04-12 Osram Opto Semiconductors Gmbh U-led, u-led device, display and method for the same
US11610868B2 (en) 2019-01-29 2023-03-21 Osram Opto Semiconductors Gmbh μ-LED, μ-LED device, display and method for the same
US11156759B2 (en) * 2019-01-29 2021-10-26 Osram Opto Semiconductors Gmbh μ-LED, μ-LED device, display and method for the same
DE102019201766A1 (en) * 2019-02-12 2020-08-13 Robert Bosch Gmbh Projection device for data glasses, method for displaying image information by means of a projection device and control device
GB201903708D0 (en) * 2019-03-19 2019-05-01 Wave Optics Ltd Improved angular uniformity waveguide for augmented or virtual reality
CN110139028B (en) * 2019-03-25 2020-07-07 华为技术有限公司 Image processing method and head-mounted display device
US10725304B1 (en) * 2019-03-28 2020-07-28 Facebook Technologies, Llc Compensatory image during swift-eye movement
US10554940B1 (en) 2019-03-29 2020-02-04 Razmik Ghazaryan Method and apparatus for a variable-resolution screen
CA3134149A1 (en) 2019-03-29 2020-10-08 Avegant Corp. Steerable hybrid display using a waveguide
US10466489B1 (en) 2019-03-29 2019-11-05 Razmik Ghazaryan Methods and apparatus for a variable-resolution screen
US11284053B2 (en) 2019-03-29 2022-03-22 Razmik Ghazaryan Head-mounted display and projection screen
US11538852B2 (en) 2019-04-23 2022-12-27 Osram Opto Semiconductors Gmbh μ-LED, μ-LED device, display and method for the same
CN110244839B (en) * 2019-05-20 2022-11-18 联想(上海)信息技术有限公司 Control method, electronic device, and storage medium
WO2020236827A1 (en) 2019-05-20 2020-11-26 Magic Leap, Inc. Systems and techniques for estimating eye pose
US11383731B2 (en) * 2019-06-04 2022-07-12 Lg Electronics Inc. Image output device
WO2020257469A1 (en) * 2019-06-20 2020-12-24 Magic Leap, Inc. Eyepieces for augmented reality display system
US20200413032A1 (en) * 2019-06-27 2020-12-31 Texas Instruments Incorporated Methods and apparatus to render 3d content within a moveable region of display screen
US11009766B2 (en) * 2019-06-28 2021-05-18 Intel Corporation Foveated virtual reality near eye displays
EP3997512A4 (en) * 2019-07-12 2022-09-14 Magic Leap, Inc. Methods and systems for augmented reality display with dynamic field of view
WO2021010772A1 (en) * 2019-07-18 2021-01-21 삼성전자(주) Image display device capable of expressing multiple depth
CN112241068A (en) 2019-07-18 2021-01-19 三星电子株式会社 Image display device capable of multi-depth expression
US11113880B1 (en) * 2019-07-22 2021-09-07 Facebook Technologies, Llc System and method for optimizing the rendering of dynamically generated geometry
US20220142473A1 (en) 2019-07-26 2022-05-12 North Inc. Method and system for automatic pupil detection
KR102582407B1 (en) * 2019-07-28 2023-09-26 구글 엘엘씨 Methods, systems, and media for rendering immersive video content with foveated meshes
US11106912B1 (en) 2019-08-05 2021-08-31 Genetec Inc. Method and system for video content analysis
WO2021035482A1 (en) * 2019-08-26 2021-03-04 京东方科技集团股份有限公司 Optical display system and method, and display device
KR20220054386A (en) 2019-08-29 2022-05-02 디지렌즈 인코포레이티드. Vacuum Bragg grating and manufacturing method thereof
US11029755B2 (en) 2019-08-30 2021-06-08 Shopify Inc. Using prediction information with light fields
US11430175B2 (en) 2019-08-30 2022-08-30 Shopify Inc. Virtual object areas using light fields
EP4025990A1 (en) 2019-09-05 2022-07-13 Dolby Laboratories Licensing Corporation Viewer synchronized illumination sensing
TWI723938B (en) 2019-09-12 2021-04-01 英錡科技股份有限公司 Laser projecting device and light-combining lens
CN114026603B (en) * 2019-09-23 2023-06-13 苹果公司 Rendering computer-generated real text
US11240488B2 (en) 2019-09-24 2022-02-01 Facebook Technologies, Llc Volumetric display including liquid crystal-based lenses
CN111178191B (en) * 2019-11-11 2022-01-11 贝壳找房(北京)科技有限公司 Information playing method and device, computer readable storage medium and electronic equipment
CN113966482A (en) * 2019-11-22 2022-01-21 苹果公司 Display system having a plurality of light paths for performing a recess
US12046166B2 (en) * 2019-11-26 2024-07-23 Telefonaktiebolaget Lm Ericsson (Publ) Supply of multi-layer extended reality images to a user
EP4070153A4 (en) * 2019-12-06 2023-01-18 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
CN110927973A (en) * 2019-12-16 2020-03-27 Oppo广东移动通信有限公司 Display device
US20230027493A1 (en) * 2020-01-03 2023-01-26 Digilens Inc. Modular Waveguide Displays and Related Applications
US11624921B2 (en) 2020-01-06 2023-04-11 Avegant Corp. Head mounted system with color specific modulation
US20230341526A1 (en) * 2020-01-07 2023-10-26 Baraja Pty Ltd Adaptive spatial estimation system
CN111309144B (en) * 2020-01-20 2022-02-01 北京津发科技股份有限公司 Method and device for identifying injection behavior in three-dimensional space and storage medium
US11625848B2 (en) * 2020-01-30 2023-04-11 Unity Technologies Sf Apparatus for multi-angle screen coverage analysis
CN111338591B (en) 2020-02-25 2022-04-12 京东方科技集团股份有限公司 Virtual reality display equipment and display method
CN113325947A (en) * 2020-02-28 2021-08-31 北京七鑫易维信息技术有限公司 Display method, display device, terminal equipment and storage medium
US11823343B1 (en) * 2020-03-26 2023-11-21 Apple Inc. Method and device for modifying content according to various simulation characteristics
EP4088449B1 (en) * 2020-04-20 2024-08-14 Lumus Ltd. Near-eye display with enhanced laser efficiency and eye safety
CN111553972B (en) * 2020-04-27 2023-06-30 北京百度网讯科技有限公司 Method, apparatus, device and storage medium for rendering augmented reality data
EP4154051A4 (en) * 2020-05-22 2024-08-14 Magic Leap Inc Method and system for dual projector waveguide displays with wide field of view
US11543666B2 (en) * 2020-05-22 2023-01-03 Magic Leap, Inc. Augmented and virtual reality display systems with correlated in-coupling and out-coupling optical regions for efficient light utilization in at least one waveguide
KR20210156613A (en) 2020-06-18 2021-12-27 삼성전자주식회사 Augmented reality glass and operating method thereof
KR20220008118A (en) * 2020-07-13 2022-01-20 삼성전자주식회사 Electronic device and method for displaying differently brightness of virtual objects
WO2022015647A2 (en) * 2020-07-13 2022-01-20 Perdix Systems Llc Optical systems with multiple light engines for foveation
US11998275B2 (en) 2020-07-15 2024-06-04 Magic Leap, Inc. Eye tracking using aspheric cornea model
CN115390256A (en) * 2020-07-24 2022-11-25 闪耀现实(无锡)科技有限公司 Augmented reality display device and equipment thereof
WO2022020262A1 (en) * 2020-07-24 2022-01-27 Perdix Systems Llc Optical system having light sources with a power-saving mode
TWI779336B (en) * 2020-08-24 2022-10-01 宏碁股份有限公司 Display system and method of displaying autostereoscopic image
EP4217831A1 (en) * 2020-09-22 2023-08-02 Apple Inc. Attention-driven rendering for computer-generated objects
CN112285915B (en) * 2020-10-26 2023-07-18 腾讯科技(深圳)有限公司 Augmented reality assembly and microscope
US11297332B1 (en) 2020-10-30 2022-04-05 Capital One Services, Llc Gaze-tracking-based image downscaling for multi-party video communication
EP4252062A1 (en) * 2020-11-30 2023-10-04 Apple Inc. Display systems having imaging capabilities
CN112634461A (en) * 2020-12-18 2021-04-09 上海影创信息科技有限公司 Method and system for enhancing reality of afterglow area
US11523095B2 (en) * 2020-12-21 2022-12-06 Infineon Technologies Ag Mems mirror-based extended reality projection with eye-tracking
US20220210905A1 (en) * 2020-12-30 2022-06-30 Samsung Electronics Co., Ltd. Electronic device including heat dissipation structure
KR20220126584A (en) * 2021-03-09 2022-09-16 삼성전자주식회사 Camera system of mobile device
CN113177434A (en) * 2021-03-30 2021-07-27 青岛小鸟看看科技有限公司 Virtual reality system fixation rendering method and system based on monocular tracking
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
FR3121505B1 (en) * 2021-04-01 2023-03-31 Thales Sa ADJUSTABLE MAGNIFICATION OBSERVATION SYSTEM
US12092820B2 (en) * 2021-04-16 2024-09-17 Nvidia Corporation Holographic virtual reality display
US12075018B2 (en) * 2021-04-21 2024-08-27 Microsoft Technology Licensing, Llc Distributed virtual reality
DE102021205700B4 (en) * 2021-06-07 2023-07-06 Siemens Healthcare Gmbh Presentation device for displaying an augmented reality and method for providing an augmented reality
CN113393516B (en) * 2021-06-17 2022-05-24 贝壳找房(北京)科技有限公司 Method and apparatus for breaking up virtual objects in an AR scene
US20230314805A1 (en) * 2021-06-29 2023-10-05 Hes Ip Holdings, Llc Optic system for head wearable devices
CN113467619B (en) * 2021-07-21 2023-07-14 腾讯科技(深圳)有限公司 Picture display method and device, storage medium and electronic equipment
CN113599818B (en) * 2021-08-16 2023-07-21 北京字跳网络技术有限公司 Vegetation rendering method and device, electronic equipment and readable storage medium
JP2024531153A (en) * 2021-08-23 2024-08-29 ビュージックス コーポレーション Double-sided waveguide
WO2023060414A1 (en) * 2021-10-12 2023-04-20 Citrix Systems, Inc. Adjustable magnifier for virtual desktop
US12026831B2 (en) 2021-10-27 2024-07-02 Samsung Electronics Co., Ltd. Electronic device and method for spatial mapping using the same
KR20230060315A (en) * 2021-10-27 2023-05-04 삼성전자주식회사 Electronic device and method for spatial mapping using the same
US11501410B1 (en) * 2022-03-22 2022-11-15 Illuscio, Inc. Systems and methods for dynamically rendering three-dimensional images with varying detail to emulate human vision
WO2023195597A1 (en) * 2022-04-08 2023-10-12 엘지전자 주식회사 Device for providing immersive content and method for providing immersive content
US20240126376A1 (en) * 2022-07-15 2024-04-18 Hes Ip Holdings, Llc Computing system with head wearable display
KR20240083570A (en) 2022-12-05 2024-06-12 국립부경대학교 산학협력단 Apparatus and Method for Controlling Adaptive Foveated Display for Eyewear Devices
US20240212090A1 (en) * 2022-12-22 2024-06-27 Valve Corporation Dual detail encoding in a distributed system
WO2024138467A1 (en) * 2022-12-28 2024-07-04 Intel Corporation Ar display system based on multi-view cameras and viewport tracking
CN116528065B (en) * 2023-06-30 2023-09-26 深圳臻像科技有限公司 Efficient virtual scene content light field acquisition and generation method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017500605A (en) * 2013-11-27 2017-01-05 マジック リープ, インコーポレイテッド Virtual and augmented reality systems and methods
WO2017031246A1 (en) * 2015-08-18 2017-02-23 Magic Leap, Inc. Virtual and augmented reality systems and methods

Family Cites Families (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
AU4211000A (en) * 1999-04-08 2000-11-14 New York University Extremely high resolution foveated display
US10742965B2 (en) 2001-01-23 2020-08-11 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US9781408B1 (en) 2001-01-23 2017-10-03 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US20030067476A1 (en) 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
US7499594B2 (en) 2002-04-15 2009-03-03 At&T Intellectual Property 1, L.P. Multi-resolution predictive foveation for bandwidth reduction of moving images
US7872635B2 (en) 2003-05-15 2011-01-18 Optimetrics, Inc. Foveated display eye-tracking system and method
US20050232530A1 (en) 2004-04-01 2005-10-20 Jason Kekas Electronically controlled volume phase grating devices, systems and fabrication methods
USD514570S1 (en) 2004-06-24 2006-02-07 Microsoft Corporation Region of a fingerprint scanning device with an illuminated ring
US7173619B2 (en) 2004-07-08 2007-02-06 Microsoft Corporation Matching digital information flow to a human perception system
JP2006337997A (en) 2005-05-02 2006-12-14 Semiconductor Energy Lab Co Ltd Display device
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
US11320571B2 (en) 2012-11-16 2022-05-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view with uniform light extraction
JP2011085829A (en) 2009-10-19 2011-04-28 Nikon Corp Head-mounted display
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
CA2822978C (en) 2010-12-24 2019-02-19 Hong Hua An ergonomic head mounted display device and optical system
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
CN103635891B (en) 2011-05-06 2017-10-27 奇跃公司 The world is presented in a large amount of digital remotes simultaneously
JP2012252091A (en) 2011-06-01 2012-12-20 Sony Corp Display apparatus
KR20140057594A (en) 2011-09-08 2014-05-13 인텔 코오퍼레이션 Interactive screen viewing
EP2760363A4 (en) 2011-09-29 2015-06-24 Magic Leap Inc Tactile glove for human-computer interaction
CN104011788B (en) 2011-10-28 2016-11-16 奇跃公司 For strengthening and the system and method for virtual reality
KR102440195B1 (en) 2011-11-23 2022-09-02 매직 립, 인코포레이티드 Three dimensional virtual and augmented reality display system
BR112014024941A2 (en) 2012-04-05 2017-09-19 Magic Leap Inc Active Focusing Wide-field Imaging Device
US20130300635A1 (en) * 2012-05-09 2013-11-14 Nokia Corporation Method and apparatus for providing focus correction of displayed information
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
CN104737061B (en) 2012-06-11 2018-01-16 奇跃公司 Use more depth plane three dimensional displays of the waveguided reflector arrays projector
JP2015534108A (en) 2012-09-11 2015-11-26 マジック リープ, インコーポレイテッド Ergonomic head mounted display device and optical system
US20140092006A1 (en) 2012-09-28 2014-04-03 Joshua Boelter Device and method for modifying rendering based on viewer focus area from eye tracking
IL283193B (en) 2013-01-15 2022-08-01 Magic Leap Inc System for scanning electromagnetic imaging radiation
IL313175A (en) 2013-03-11 2024-07-01 Magic Leap Inc System and method for augmented and virtual reality
NZ735754A (en) 2013-03-15 2019-04-26 Magic Leap Inc Display system and method
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
IL295157B2 (en) 2013-10-16 2023-10-01 Magic Leap Inc Virtual or augmented reality headsets having adjustable interpupillary distance
US11402629B2 (en) 2013-11-27 2022-08-02 Magic Leap, Inc. Separated pupil optical systems for virtual and augmented reality and methods for displaying images using same
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
CN111552079B (en) 2014-01-31 2022-04-15 奇跃公司 Multi-focus display system and method
NZ722904A (en) 2014-01-31 2020-05-29 Magic Leap Inc Multi-focal display system and method
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10564714B2 (en) * 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
AU2015297036B2 (en) 2014-05-09 2017-09-28 Google Llc Systems and methods for discerning eye signals and continuous biometric identification
USD759657S1 (en) 2014-05-19 2016-06-21 Microsoft Corporation Connector with illumination region
CA3124368C (en) 2014-05-30 2023-04-25 Magic Leap, Inc. Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
CN112987307B (en) 2014-05-30 2022-06-28 奇跃公司 Method and system for generating focal planes in virtual and augmented reality
USD752529S1 (en) 2014-06-09 2016-03-29 Comcast Cable Communications, Llc Electronic housing with illuminated region
EP3123215B1 (en) 2014-07-31 2023-03-29 ImagineOptix Corporation Bragg liquid crystal polarization gratings
US9552062B2 (en) * 2014-09-05 2017-01-24 Echostar Uk Holdings Limited Gaze-based security
US20160077338A1 (en) * 2014-09-16 2016-03-17 Steven John Robbins Compact Projection Light Engine For A Diffractive Waveguide Display
US9760167B2 (en) 2014-11-07 2017-09-12 Eye Labs, LLC Visual stabilization system for head-mounted displays
US10176639B2 (en) 2014-11-27 2019-01-08 Magic Leap, Inc. Virtual/augmented reality system having dynamic region resolution
US10154194B2 (en) * 2014-12-31 2018-12-11 Logan Gilpin Video capturing and formatting system
JP6819031B2 (en) 2015-01-23 2021-01-27 株式会社リコー Head-mounted display device, display method
EP4173550A1 (en) 2015-03-16 2023-05-03 Magic Leap, Inc. Diagnosing and treating health ailments
JP2016191845A (en) * 2015-03-31 2016-11-10 ソニー株式会社 Information processor, information processing method and program
JP2016202716A (en) 2015-04-24 2016-12-08 株式会社コーエーテクモゲームス Program and recording medium
CN104935909B (en) * 2015-05-14 2017-02-22 清华大学深圳研究生院 Multi-image super-resolution method based on depth information
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
US10043281B2 (en) 2015-06-14 2018-08-07 Sony Interactive Entertainment Inc. Apparatus and method for estimating eye gaze location
US10210844B2 (en) * 2015-06-29 2019-02-19 Microsoft Technology Licensing, Llc Holographic near-eye display
EP3332554B1 (en) * 2015-08-07 2022-07-06 Apple Inc. System and method for displaying a stream of images
IL291685B2 (en) 2015-09-25 2023-09-01 Magic Leap Inc Methods and systems for detecting and combining structural features in 3d reconstruction
KR102701209B1 (en) 2015-10-20 2024-08-29 매직 립, 인코포레이티드 Selecting virtual objects in a three-dimensional space
USD805734S1 (en) 2016-03-04 2017-12-26 Nike, Inc. Shirt
USD794288S1 (en) 2016-03-11 2017-08-15 Nike, Inc. Shoe with illuminable sole light sequence
WO2017168038A1 (en) 2016-03-31 2017-10-05 Umbra Software Oy Virtual reality streaming
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US9721393B1 (en) 2016-04-29 2017-08-01 Immersive Enterprises, LLC Method for processing and delivering virtual reality content to a user
US20170373459A1 (en) 2016-06-27 2017-12-28 University Of Central Florida Research Foundation, Inc. Volume polarization grating, methods of making, and applications
US11551602B2 (en) 2016-09-01 2023-01-10 Innovega Inc. Non-uniform resolution, large field-of-view headworn display
WO2018057660A2 (en) 2016-09-20 2018-03-29 Apple Inc. Augmented reality system
EP3537950A4 (en) 2016-11-10 2019-10-30 Magic Leap, Inc. Method and system for eye tracking using speckle patterns
IL301297B2 (en) 2016-11-16 2024-08-01 Magic Leap Inc Multi-resolution display assembly for head-mounted display systems
KR102524006B1 (en) 2017-03-22 2023-04-20 매직 립, 인코포레이티드 Depth-Based Foveated Rendering for Display Systems
KR102578929B1 (en) 2017-03-27 2023-09-15 아브간트 코포레이션 Steerable foveal display
US10861142B2 (en) 2017-07-21 2020-12-08 Apple Inc. Gaze direction-based adaptive pre-filtering of video data
CN112136094A (en) 2018-03-16 2020-12-25 奇跃公司 Depth-based foveated rendering for display systems
WO2020033875A1 (en) 2018-08-10 2020-02-13 Compound Photonics Limited Apparatus, systems, and methods for foveated display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017500605A (en) * 2013-11-27 2017-01-05 マジック リープ, インコーポレイテッド Virtual and augmented reality systems and methods
WO2017031246A1 (en) * 2015-08-18 2017-02-23 Magic Leap, Inc. Virtual and augmented reality systems and methods

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7011746B1 (en) 2021-05-31 2022-01-27 株式会社バーチャルキャスト Content distribution system, content distribution method, and content distribution program
JP2022183943A (en) * 2021-05-31 2022-12-13 株式会社バーチャルキャスト Content distribution system, content distribution method and content distribution program

Also Published As

Publication number Publication date
JP7096836B2 (en) 2022-07-06
KR102524006B1 (en) 2023-04-20
KR20230056067A (en) 2023-04-26
JP2022118025A (en) 2022-08-12
CN114578562A (en) 2022-06-03
IL269386B1 (en) 2023-03-01
KR20190130147A (en) 2019-11-21
IL300511A (en) 2023-04-01
CA3057109A1 (en) 2018-09-27
CN110679147B (en) 2022-03-08
CN110679147A (en) 2020-01-10
KR20240046291A (en) 2024-04-08
KR102653388B1 (en) 2024-04-01
WO2018175625A1 (en) 2018-09-27
EP3603058A1 (en) 2020-02-05
JP7329105B2 (en) 2023-08-17
IL269386A (en) 2019-11-28
US11644669B2 (en) 2023-05-09
US20180275410A1 (en) 2018-09-27
JP2023126616A (en) 2023-09-07
US20230251492A1 (en) 2023-08-10
EP4411519A2 (en) 2024-08-07
IL269386B2 (en) 2023-07-01
AU2018239511A1 (en) 2019-10-17
EP3603058B1 (en) 2024-07-03
EP3603058A4 (en) 2020-12-30

Similar Documents

Publication Publication Date Title
JP7329105B2 (en) Depth-Based Foveated Rendering for Display Systems
US11710469B2 (en) Depth based foveated rendering for display systems
JP7228581B2 (en) Augmented reality display with eyepiece having transparent emissive display
KR102550587B1 (en) Virtual and augmented reality systems and methods
CN107110479B (en) Light projector using acousto-optic control device
JP2020024454A (en) Methods and system for creating focal planes in virtual and augmented reality
JP2021517664A (en) Tilt array-based display
WO2020159883A1 (en) Display system having 1-dimensional pixel array with scanning mirror

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220624

R150 Certificate of patent or registration of utility model

Ref document number: 7096836

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150