JP7273940B2 - 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム - Google Patents

深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム Download PDF

Info

Publication number
JP7273940B2
JP7273940B2 JP2021212125A JP2021212125A JP7273940B2 JP 7273940 B2 JP7273940 B2 JP 7273940B2 JP 2021212125 A JP2021212125 A JP 2021212125A JP 2021212125 A JP2021212125 A JP 2021212125A JP 7273940 B2 JP7273940 B2 JP 7273940B2
Authority
JP
Japan
Prior art keywords
depth
virtual object
user
cues
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021212125A
Other languages
English (en)
Other versions
JP2022033232A5 (ja
JP2022033232A (ja
Inventor
エリザベス サメック ニコル
ユー. ロバイナ ナスターシャ
エム. ハリセス クリストファー
ベーレンロッド マーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2022033232A publication Critical patent/JP2022033232A/ja
Publication of JP2022033232A5 publication Critical patent/JP2022033232A5/ja
Priority to JP2023074418A priority Critical patent/JP2023109774A/ja
Application granted granted Critical
Publication of JP7273940B2 publication Critical patent/JP7273940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0013Means for improving the coupling-in of light from the light source into the light guide
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0033Means for improving the coupling-out of light from the light guide
    • G02B6/0035Means for improving the coupling-out of light from the light guide provided on the surface of the light guide or in the bulk of it
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0033Means for improving the coupling-out of light from the light guide
    • G02B6/005Means for improving the coupling-out of light from the light guide provided by one optical element, or plurality thereof, placed on the light output side of the light guide
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0075Arrangements of multiple light guides
    • G02B6/0076Stacked arrangements of multiple light guides of the same or different cross-sectional area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Description

(関連出願の引用)
本願は、米国特許法§119(e)に基づき、米国仮出願第62/294,147号(2016年2月11日出願、名称「AUGMENTED REALITY SYSTEMS AND METHODS UTILIZING VIEWER REFLECTIONS」)、米国仮出願第62/366,533号(2016年7月25日出願、名称「AUGMENTED REALITY SYSTEMS AND METHODS UTILIZING REFLECTIONS」)、米国仮出願第62/440,336号(2016年12月29日出願、名称「AUGMENTED REALITY SYSTEMS AND METHODS UTILIZING REFLECTIONS」)、米国仮出願第62/445,630号(2017年1月12日出願、名称「AUGMENTED REALITY SYSTEMS AND METHODS UTILIZING REFLECTIONS」)、米国仮出願第62/366,599号(2016年7月25日出願、名称「IMAGING MODIFICATION,DISPLAY AND VISUALIZATION USING AUGMENTED AND VIRTUAL REALITY EYEWEAR」)、米国仮出願第62/396,071号(2016年7月16日出願、名称「IMAGING MODIFICATION,DISPLAY AND VISUALIZATION USING AUGMENTED AND VIRTUAL REALITY EYEWEAR」)、および米国仮出願第62/440,332号(2016年12月29日出願、名称「IMAGING MODIFICATION,DISPLAY AND VISUALIZATION USING AUGMENTED AND VIRTUAL REALITY EYEWEAR」)の優先権に対する利益を主張し、上記出願の各々は、あらゆる目的のために参照により本明細書に引用される。
加えて、本願は、以下の特許出願の各々の全体を参照により引用する:米国特許出願第14/555,585号(2014年11月27日出願)、米国特許出願第14/690,401号(2015年4月18日出願)、米国特許出願第14/212,961号(2014年3月14日出願)、および米国特許出願第14/331,218号(2014年7月14日出願)。
(分野)
本開示は、拡張現実結像および可視化システムを含むディスプレイシステムに関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、もしくはそのように知覚され得る様式でユーザに提示される。仮想現実または「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴い、拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実または「MR」シナリオは、一種のARシナリオであり、典型的には、自然世界の中に統合され、それに応答する、仮想オブジェクトを伴う。例えば、MRシナリオは、実世界内のオブジェクトによってブロックされて見えるか、または別様にそれと相互作用するように知覚されるAR画像コンテンツを含み得る。
図1を参照すると、拡張現実場面10が、描写されている。AR技術のユーザは、背景における人々、木々、建物を特徴とする実世界公園状設定20と、コンクリートプラットフォーム30とを見る。ユーザは、実世界プラットフォーム30上に立っているロボット像40、および、マルハナバチの擬人化のように見える飛んでいる漫画のようなアバタキャラクタ50等の「仮想コンテンツ」も「見ている」と知覚する。これらの要素50、40は、実世界には存在しないという点で、「仮想」である。ヒトの視知覚系は、複雑であり、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進するAR技術の生成は、困難である。
本明細書に開示されるシステムおよび方法は、ARまたはVR技術に関連する種々の課題に対処する。
いくつかの非限定的実施形態は、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに動作を行わせる命令を記憶している1つ以上のコンピュータ記憶媒体とを備えているシステムを含む。動作は、ユーザの眼の凝視点を決定することであって、凝視点は、ユーザの視野内の3次元場所である、ことと、ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、第1の仮想オブジェクトは、関連付けられたユーザからの深度を有する、ことと、第1の仮想オブジェクトの1つ以上の深度キューを調節し、第1の仮想オブジェクトの深度キューと凝視点のための深度キューとの間の差異を低減させることと、ディスプレイデバイスを介して、調節された1つ以上の深度キューを用いて、第1の仮想オブジェクトのユーザへの提示を生じさせることとを含む。
いくつかの他の実施形態では、ディスプレイシステムが、提供される。ディスプレイシステムは、仮想オブジェクトをユーザに提示するように構成されているディスプレイデバイスであって、各仮想オブジェクトは、複数の深度平面の1つ以上の深度平面上にある、ディスプレイデバイスと、1つ以上のプロセッサと、ディスプレイシステムによって実行されると、ディスプレイシステムに、動作を行わせる、命令を記憶している1つ以上のコンピュータ記憶媒体とを備えている。動作は、ユーザの眼移動に関連付けられた情報を監視することと、監視される情報に基づいて、ユーザの眼の凝視点を決定することであって、各凝視点は、経時的に追跡されたユーザの眼によって凝視されている3次元場所を示す、ことと、決定された凝視点に基づいて、少なくとも1つの仮想オブジェクトが、決定された凝視点が閾値メトリックを上回って含まれる深度平面領域に対応する同一深度平面上に表示されるように、少なくとも1つの仮想オブジェクトを調節することとを含む。決定された凝視点は、少なくとも1つの仮想オブジェクトを調節する前に、閾値メトリックを上回って深度平面領域内にあるように決定される。
方法の実施形態が、説明される。方法は、1つ以上のプロセッサを備えているシステムによって行われる。方法は、ユーザの眼の凝視点を決定することであって、凝視点は、ユーザの視野内の3次元場所である、ことと、ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、第1の仮想オブジェクトは、関連付けられたユーザからの深度を有する、ことと、第1の仮想オブジェクトの1つ以上の深度キューを調節し、第1の仮想オブジェクトの深度キューと凝視点のための深度キューとの間の差異を低減させることと、ディスプレイデバイスを介して、調節された1つ以上の深度キューを用いて、第1の仮想オブジェクトのユーザへの提示を生じさせることとを含む。
本発明は、例えば、以下を提供する。
(項目1)
1つ以上のプロセッサと命令を記憶している1つ以上のコンピュータ記憶媒体とを備えているシステムであって、前記命令は、前記1つ以上のプロセッサによって実行されると、
ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、関連付けられた前記ユーザからの深度を有する、ことと、
前記第1の仮想オブジェクトの1つ以上の深度キューを調節し、前記第1の仮想オブジェクトの深度キューと前記凝視点のための深度キューとの間の差異を低減させることと、
ディスプレイデバイスを介して、前記調節された1つ以上の深度キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
を含む動作を前記1つ以上のプロセッサに行わせる、システム。
(項目2)
前記深度キューは、サイズ、遠近調節キュー、および/または両眼キューを備えている、項目1に記載のシステム。
(項目3)
1つ以上の深度キューを調節することは、前記調節された1つ以上の深度キューに対応する深度平面を前記凝視点の深度平面と合致させることを含む、項目1に記載のシステム。
(項目4)
前記動作は、前記ユーザが、閾値頻度を上回る頻度で、前記第1の仮想オブジェクトと第2のオブジェクトとの間で凝視点を交互させていることを決定することをさらに含み、
前記凝視点は、前記第2のオブジェクトの3次元場所と一致し、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、項目3に記載のシステム。
(項目5)
前記動作は、ユーザ選好の指示に基づいて、または、前記第1の仮想オブジェクトが第1の仮想オブジェクトに関連付けられた深度と異なる深度を有する第2のオブジェクトよりも少なく凝視されていることの決定に基づいて、前記第1の仮想オブジェクトのための1つ以上の深度キューが調節されるべきことを識別することをさらに含み、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、項目1に記載のシステム。
(項目6)
前記1つ以上の深度キューを調節することは、遠近調節キューを調節することを含み、前記動作は、
前記調節された遠近調節キューを用いた前記第1の仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
閾値を超える前記遠近調節・両眼離反運動不整合に応答して、両眼キューを調節することと
をさらに含む、項目1に記載のシステム。
(項目7)
前記ディスプレイデバイスをさらに備え、前記ディスプレイデバイスは、複数のスタックされた導波管を備え、
前記複数のスタックされた導波管は、ディスプレイエリアを形成し、前記ディスプレイエリアを通して周囲環境のビューを提供し、前記複数の導波管のうちの少なくともいくつかの導波管は、他の導波管と異なる波面発散を伴う光を出力するように構成され、各導波管は、深度平面に関連付けられている、項目1に記載のシステム。
(項目8)
1つ以上の深度キューを調節することは、前記第1の仮想オブジェクトを形成するための光を出力する導波管を変えることを含む、項目7に記載のシステム。
(項目9)
ディスプレイシステムであって、前記ディスプレイシステムは、
仮想オブジェクトをユーザに提示するように構成されているディスプレイデバイスであって、各仮想オブジェクトは、複数の深度平面の1つ以上の深度平面上にある、ディスプレイデバイスと、
1つ以上のプロセッサと、
命令を記憶している1つ以上のコンピュータ記憶媒体と
を備え、
前記命令は、前記ディスプレイシステムによって実行されると、
前記ユーザの眼移動に関連付けられた情報を監視することと、
前記監視される情報に基づいて、前記ユーザの眼の凝視点を決定することであって、各凝視点は、前記ユーザの眼によって凝視されている3次元場所を示し、経時的に追跡される、ことと、
前記決定された凝視点に基づいて、少なくとも1つの仮想オブジェクトを調節することと
を含む動作を前記ディスプレイシステムに行わせ、
前記少なくとも1つの仮想オブジェクトは、前記決定された凝視点が含まれる深度平面領域に対応する同一深度平面上に表示され、前記決定された凝視点は、閾値メトリックを上回って前記深度平面領域内に含まれるように決定されている、ディスプレイシステム。
(項目10)
前記ユーザが閾値メトリックを上回って凝視している凝視点は、特定の仮想オブジェクトの場所に対応している、項目9に記載のディスプレイシステム。
(項目11)
前記動作は、少なくとも1つの仮想オブジェクトが前記特定のオブジェクトより少なく凝視されていることの決定に基づいて、前記少なくとも1つの仮想オブジェクトが調節されるべきことを識別することをさらに含む、項目10に記載のディスプレイシステム。
(項目12)
前記ユーザが閾値メトリックを上回って凝視している前記凝視点は、実世界オブジェクトの場所に対応している、項目9に記載のディスプレイシステム。
(項目13)
前記少なくとも1つの仮想オブジェクトを調節することは、遠近調節キューおよび両眼キューの一方または両方を調節することを含む、項目9に記載のディスプレイシステム。
(項目14)
前記遠近調節キューは、調節されており、前記動作は、
前記調節された遠近調節キューを用いた前記少なくとも1つの仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
閾値を超える前記遠近調節・両眼離反運動不整合に応答して、両眼キューを調節することと
をさらに含む、項目13に記載のディスプレイシステム。
(項目15)
閾値メトリックは、閾値時間量または閾値頻度を備えている、項目9に記載のディスプレイシステム。
(項目16)
方法であって、前記方法は、
1つ以上のプロセッサを備えているシステムによって、
ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、関連付けられた前記ユーザからの深度を有する、ことと、
前記第1の仮想オブジェクトの1つ以上の深度キューを調節し、前記第1の仮想オブジェクトの深度キューと前記凝視点のための深度キューとの間の差異を低減させることと、
ディスプレイデバイスを介して、前記調節された1つ以上の深度キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
を含む、方法。
(項目17)
1つ以上の深度キューを調節することは、前記調節された1つ以上の深度キューに対応する深度平面を前記凝視点の深度平面と合致させることを含む、項目15に記載の方法。
(項目18)
前記ユーザが、閾値頻度を上回る頻度で、前記第1の仮想オブジェクトと第2のオブジェクトとの間で凝視点を交互させていることを決定することであって、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、ことと、
前記1つ以上の深度キューを調節することと
をさらに含む、項目15に記載の方法。
(項目19)
前記1つ以上の深度キューを調節することは、遠近調節キューを調節することを含み、前記動作は、
前記調節された遠近調節キューを用いた前記第1の仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
閾値を超える前記遠近調節・両眼離反運動不整合に応答して、両眼キューを調節することと
をさらに含む、項目15に記載の方法。
(項目20)
前記ディスプレイデバイスは、複数のスタックされた導波管を備え、
前記複数のスタックされた導波管は、ディスプレイエリアを形成し、前記ディスプレイエリアを通して周囲環境のビューを提供し、前記複数の導波管のうちの少なくともいくつかの導波管は、他の導波管と異なる波面発散を伴う光を出力するように構成され、各導波管は、深度平面に関連付けられており、
1つ以上の深度キューを調節することは、前記第1の仮想オブジェクトを形成するための光を出力する導波管を変えることを含む、項目15に記載の方法。
図1は、ARデバイスを通した拡張現実(AR)のユーザのビューを図示する。
図2は、ウェアラブルディスプレイシステムの例を図示する。
図3は、ユーザのための3次元画像をシミュレートするための従来のディスプレイシステムを図示する。
図4は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。
図5A-5Cは、曲率半径と焦点半径との間の関係を図示する。
図6は、画像情報をユーザに出力するための導波管スタックの例を図示する。
図7は、導波管によって出力された出射ビームの例を図示する。
図8は、スタックされた導波管アセンブリの例を図示し、各深度平面は、複数の異なる原色を使用して形成される画像を含む。
図9Aは、それぞれ、内部結合光学要素を含む、スタックされた導波管の組の断面側面図の例を図示する。
図9Bは、図9Aの複数のスタックされた導波管の例の斜視図を図示する。
図9Cは、図9Aおよび9Bの複数のスタックされた導波管の例の見下げ平面図を図示する。
図10Aは、ディスプレイシステムによって提示されるコンテンツを視認するユーザの表現の例を図示する。
図10Bは、コンテンツを視認するユーザの表現の別の例を図示する。
図11は、ディスプレイシステムのユーザの視野の表現を図示する。
図12は、仮想オブジェクトに関連付けられた知覚される深度平面を調節するための例示的プロセスのフローチャートを図示する。
図13は、仮想オブジェクトに関連付けられた知覚される深度平面を調節するための別の例示的プロセスのフローチャートを図示する。
図14は、仮想オブジェクトに関連付けられた遠近調節キューおよび両眼キューを調節するための例示的プロセスのフローチャートを図示する。
拡張現実ディスプレイシステムは、仮想コンテンツをユーザ(または視認者)に提示し得、仮想コンテンツは、ユーザの視野内の空間内の3次元場所に位置するように見える。仮想コンテンツは、仮想オブジェクトとも称され得、それは、ディスプレイシステムによってユーザに提示され得る画像、グラフィック、および他の視覚的コンテンツを含み得る。ディスプレイシステムは、ユーザの視点から、各仮想オブジェクトが3次元場所に関連付けられ得るように、異なる仮想オブジェクトをユーザから異なる深度または距離において提示し得る。3次元場所は、水平軸上の位置、垂直軸上の位置、およびユーザから離れる深度軸上の位置に対応し得る。ユーザが、近傍の仮想オブジェクトの視認から、例えば、より遠い仮想オブジェクトの視認に、またはその逆に切り替えるとき、両眼離反運動および/または遠近調節における変化が、生じ得る。以下により詳細に説明されるように、両眼離反運動は、ユーザの眼の方向性移動に関し、遠近調節は、眼の水晶体および瞳孔(光を眼の網膜上に集中させる役割を果たし得る)における変化に関する。
いくつかの実施形態では、ユーザが異なる仮想オブジェクトまたは仮想オブジェクトと実オブジェクトとの組み合わせを視認するとき、ユーザの視覚系が遠近調節を変化させ、および/または両眼離反運動を変化させる範囲を限定するように仮想オブジェクトの提示を調節するための技法が、提供される。例えば、仮想オブジェクトの提示は、仮想オブジェクトのための1つ以上の深度キューと他の仮想オブジェクトまたは実オブジェクトのための対応する深度キューとの間の差異が低減させられるように調節され得る。例えば、仮想オブジェクトのための1つ以上の深度キューは、ユーザが見ている他の仮想オブジェクトまたは実オブジェクトのための対応する深度キューに類似するように調節され得る。深度キューは、遠近調節キューおよび/または両眼キューを含み得る。説明されるであろうように、仮想オブジェクトの遠近調節キューを調節することは、ディスプレイシステムによってユーザに出力されている光の波面発散を調節することを含み得、両眼キューを調節することは、ユーザの各眼に提供されている仮想オブジェクトのビューを調節する(例えば、両眼視差を調節する)ことを含み得る。仮想オブジェクトのビューを調節することは、仮想オブジェクトの両眼分離提示を調節することを含む。いくつかの実施形態では、ユーザは、異なる深度で提示されている2つの仮想オブジェクトの視認間で切り替え、切り替え後、各仮想オブジェクトのためにその遠近調節応答を変化させる必要なく、仮想オブジェクトの各々を快適に視認し得る。
本明細書に説明される技法を利用して、仮想コンテンツの知覚される提示品質は、改良され得る。例えば、異なる深度平面間でコンテンツを切り替えることによって生じるフリッカ等の知覚可能視覚的アーチファクトは、特に、ある拡張現実ディスプレイシステム、例えば、本明細書でさらに説明されるような可変焦点ディスプレイシステムが利用されるとき、低減させられ得る。別の例として、仮想オブジェクトと別の仮想または実オブジェクトとの間の凝視の高速切り替えは、ユーザがそれらのオブジェクト間で遠近調節を変化させる必要性を低減させることによって促進され得る。例えば、遠近調節における変化は、ユーザの眼が焦点を合わせるので、ある知覚可能時間量を要し得、この知覚可能時間量は、例えば、ユーザが2つのオブジェクト間でその注意を繰り返し切り替えるので、情報を吸収するユーザの能力を減速させることによって、ユーザ体験を損なわせ得る。この減速は、例えば、迅速ユーザ反応が競合プレーの基礎であるゲーム等の状況では、望ましくないこともある。他の状況の例は、マルチタスクおよび/または高レベルの注意を要求する高速環境、例えば、手術室を含む。
可変焦点ディスプレイシステムに関して、そのようなシステムは、仮想コンテンツを個別的な深度平面に提示し得、全ての仮想コンテンツは、ユーザに提示される各フレームに対して同一深度平面に提示される(例えば、一度に1つのみの深度平面が活性であるか、または画像情報を出力する)ことを理解されたい。説明されるであろうように、可変焦点ディスプレイシステムは、ユーザが凝視している3次元凝視点を決定し得、凝視点に基づいて、全ての仮想コンテンツを提示すべき深度平面を選択し得る。凝視点を決定する例として、ディスプレイシステムは、ユーザの眼の向きおよび/または形状を監視し、眼の各々の決定された視線が交差する3次元場所を決定し得る。ディスプレイシステムは、ユーザが特定の3次元場所に提示されている特定の仮想オブジェクト視認していることを決定し得、ディスプレイシステムは、全ての仮想コンテンツをその3次元場所に対応する深度平面に提示し得る。このように、ディスプレイシステムは、特定の仮想オブジェクト、随意に、他の仮想コンテンツが、ユーザに焦点が合うことを確実にし得る。仮想コンテンツを次に選択された深度平面に提示するとき、知覚可能フリッカは、例として、ディスプレイシステムが仮想コンテンツを次に選択された深度平面に提示し、再び、前の深度平面に戻るように切り替えるとき導入され得る。例えば、ユーザが、次の凝視点を凝視するようにその眼を修正すると、ディスプレイシステムは、次の深度平面を選択し、仮想コンテンツを次の提示されるフレームにおいて提示し得る。凝視点を決定することにおける誤差、および/または、深度平面間の界面近傍の凝視点は、深度平面間を行ったり来たりする望ましくない切り替え、および/または、ランダムな切り替えを生じさせ得る。図11に関して以下に説明されるであろうように、各深度平面は、ユーザからの特定の範囲の深度を包含し得、それによって、深度平面は、ユーザの眼が凝視している3次元場所に従って選択され得る。
仮想コンテンツを個別的な深度平面に提示するために、ディスプレイシステムは、異なる深度平面に対応する異なる波面発散を伴う光を出力するように構成される1つ以上の導波管を含み得る。異なる波面発散を使用して、異なる遠近調節キューが、ユーザに提供され得、ディスプレイシステムは、第1の仮想オブジェクトがユーザの視野内の第1の深度に位置しているように見えるようにする一方、第2の仮想オブジェクトがユーザの視野内の第2の深度に位置しているように見えるようにし得る(異なる波面発散を有する光を使用して)。加えて、ディスプレイシステムは、異なる画像をユーザの各眼に提示し得る。例えば、ディスプレイシステムは、仮想オブジェクトの若干異なるビューを各眼に提示する両眼ディスプレイであり得、各ビューは、所与の深度平面における各それぞれの眼による仮想オブジェクトのビューに対応する。すなわち、ディスプレイシステムは、深度が、部分的に、両眼視差を通して表され得るように、仮想オブジェクトの両眼分離提示を眼に提供し得る。したがって、仮想オブジェクトは、出力波面発散と各眼に提供される異なる仮想オブジェクトのビューとに基づいて、異なる深度に存在するようにユーザによって知覚され得る。
可変焦点ディスプレイシステムは、上で説明されるように、したがって、各フレームに対して、特定の波面発散(特定の深度平面に対応する)を使用して、全ての仮想コンテンツを提示し得る。ユーザが、その凝視点を修正すると、異なる波面発散を有する光が、選択され、他の仮想コンテンツを他の深度平面上に提示し得る。異なる深度平面上の2つのオブジェクト間で凝視点を切り替えているユーザは、深度平面間で高速かつ反復切り替えを生じさせ得、それは、異なる深度平面が異なる時間に活性になるので、フリッカとしてユーザによって知覚され得ることを理解されたい。加えて、本明細書に記載されるように、その眼の遠近調節が変化するので、ユーザによるコンテンツの視認に一時的遅延が存在し得る。
本明細書に説明される技法は、有利には、深度平面切り替え、および/または、ユーザの遠近調節におけるディスプレイシステム開始変化によって生じるフリッカ、および/または、コンテンツを視認することにおける遅延の発生を低減させるために利用され得る。ディスプレイシステムが種々の仮想オブジェクトが3次元空間内に設置され得る場所を示すマップまたはデータベースへのアクセスを有し得ることを理解されたい。いくつかの実施形態では、ディスプレイシステムは、ユーザが、第1の仮想オブジェクトを視認することと、第1の仮想オブジェクトと異なる深度平面に位置する(例えば、より遠いまたはより近い)(1)第2の仮想オブジェクトまたは(2)実世界オブジェクトのいずれかを視認することとの間で切り替えていることを決定し得る。そして、ディスプレイシステムは、オブジェクトが同一深度平面に提示されるようにし得る。例えば、ディスプレイシステムは、ユーザが第1の仮想オブジェクトまたは第2の仮想オブジェクトを凝視しているかどうかにかかわらず、同一または類似波面発散を用いて、第1の仮想オブジェクトおよび第2の仮想オブジェクトが出力されるようにし得る(例えば、同一導波管を介して提示される)。加えて、ディスプレイシステムは、実世界オブジェクトの深度に関連付けられた波面発散を用いて、第1の仮想オブジェクトが出力されるようにし得る。いくつかの他の実施形態では、ディスプレイシステムは、仮想コンテンツを出力する前に、まず、ユーザが凝視している深度平面を決定し、ディスプレイシステムのマップによって示されている深度平面を修正し得る。
いくつかの実施形態では、ディスプレイシステムは、各眼に提供される仮想オブジェクトのビューを保持しながら(例えば、調節しない)、仮想オブジェクトが、別の仮想オブジェクトまたは実オブジェクトと同一波面発散を用いて(同一深度平面に対応する)提示されるように、出力波面発散を調節することによって、ユーザの遠近調節応答における切り替えを低減させ得る。理論によって限定されるわけではないが、仮想オブジェクトのビューは、修正されないので、3次元空間内で知覚される場所は、両眼キュー(例えば、両眼視差)に基づいて保存され得る。その結果、知覚される3次元場所は、遠近調節における変化を回避しながら、維持され得る。しかしながら、説明されるであろうように、各眼に提示される仮想オブジェクトの同一ビューを保持しながら、仮想オブジェクトの波面発散を修正することは、修正される波面発散に関連付けられた知覚される深度と、両眼視差に関連付けられた知覚される深度との間の不整合に起因して、負の生理学的応答(例えば、頭痛、眼精疲労、疲労等)をもたらし得る。特定の波面発散に関連付けられた知覚される深度(例えば、ジオプタ単位)と両眼視差に関連付けられた知覚される深度(例えば、ジオプタ単位)とが、ディスプレイシステムによって決定され得、これらの2つの値間の不整合が、遠近調節・両眼離反運動不整合を決定するために計算され得る。いくつかの実施形態では、ディスプレイシステムは、不整合が閾値(例えば、0.33ジオプタ)を上回る場合、追加のアクションを行い得る(出力波面発散の修正に加え)。例として、ディスプレイシステムは、波面発散に関連付けられた深度平面に対応するように、両眼視差を調節し得、例えば、各眼に提供される仮想オブジェクトのビューを修正し得る。
随意に、ディスプレイシステムは、仮想オブジェクトの波面発散を修正せずに、仮想オブジェクトの両眼視差を調節し得る。すなわち、ユーザが仮想オブジェクトに対して遠近調節する頻度を制限するように波面発散を調節するディスプレイシステムとは対照的に、ディスプレイシステムは、仮想オブジェクトが他のオブジェクトと同一または類似深度平面にあるように知覚されるように、両眼視差を調節し得る。
可変焦点ディスプレイシステムが、上記部分に説明されたが、多焦点ディスプレイシステム等の本明細書で参照される他のディスプレイシステムも、利用され得る。多焦点ディスプレイシステムは、コンテンツが、ユーザに提示される各フレームに対して、同時に複数の深度平面上に表示されるように、複数の異なる深度平面に関連付けられた波面発散を伴う光を同時に出力し得る。多焦点ディスプレイシステムは、仮想オブジェクトを同一フレームにおいて異なる深度平面に提示し得るので、多焦点ディスプレイシステムは、ユーザがそのビューを異なる仮想オブジェクトに切り替えるとき、ある視覚的アーチファクト(例えば、フリッカ)を導入することを回避し得る。しかしながら、仮想オブジェクトが提示されるべき深度平面を調節すること等、本明細書に説明される技法を利用して、遠近調節を変化させる必要性は、上での説明に一致して低減させられ得る。
ディスプレイシステムは、拡張現実ディスプレイシステムまたは仮想現実ディスプレイシステムの一部であり得ることを理解されたい。一例として、ディスプレイシステムは、透過性であり得、画像、ビデオ、相互作用等の形態で仮想コンテンツをユーザに提供しながら、ユーザが実世界を視認することを可能にし得る。別の例として、ディスプレイシステムは、ユーザの実世界のビューをブロックし得、仮想現実画像、ビデオ、相互作用等が、ユーザに提示され得る。
本明細書に説明される種々の実施形態が、有利には、種々の状況に提供され得ることも理解されたい。例として、本明細書に開示される技法およびシステムは、ヘルスケア状況に適用され得、仮想オブジェクトは、実オブジェクトと併せて視認され得る。例えば、外科医は、ディスプレイシステムを装着しながら、現実の患者に手術を行い得る。ディスプレイシステムは、有利には、心拍数情報等、医療情報を外科医に提示し得る。ディスプレイシステムは、外科医がその責務を果たしながら、外科医が患者と医療情報との間で遠近調節を切り替える必要性を回避し得るように、医療情報が患者に最も近い深度平面上に提示されるようにし得る。別の例として、ユーザは、ディスプレイシステムを装着しながら、レースカーの運転ゲームをプレーし得る。ディスプレイシステムは、ユーザの車の内部および車の外部(例えば、道路、競合者の車)等、仮想コンテンツを提示し得る。ディスプレイシステムは、車の外部または競合者の車と同一深度平面上に提示されるべきスピードメータ等の特定の仮想コンテンツ(例えば、車のフロントガラスを通した視野)を調節し得る。このように、ユーザは、車のダッシュボードを見て、スピードメータを視認する度に、スピードメータへの遠近調節を変化させる必要性を回避しながら、容易かつ迅速に、そのスピードを視認し得る。加えて、フリッカは、ユーザがスピードメータを視認するときに排除され得、それは、そうでなければ、ゲームのプレーに悪影響を及ぼし得る。
ここで、図を参照する。
図2は、ウェアラブルディスプレイシステム60の例を図示する。ディスプレイシステム60は、ディスプレイ70と、そのディスプレイ70の機能をサポートするための種々の機械的および電子モジュールならびにシステムとを含む。ディスプレイ70は、フレーム80に結合され得、フレーム80は、ディスプレイシステムユーザまたは視認者90によって装着可能であり、ディスプレイ70をユーザ90の眼の正面に位置付けるように構成される。ディスプレイ70は、いくつかの実施形態におけるアイウェアと見なされ得る。いくつかの実施形態では、スピーカ100が、フレーム80に結合され、ユーザ90の外耳道に隣接して位置付けられるように構成される(いくつかの実施形態では、示されない別のスピーカが、随意に、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供し得る)。ディスプレイシステムは、1つ以上のマイクロホン110または他のデバイスも含み、音を検出し得る。いくつかの実施形態では、マイクロホンは、ユーザが、入力またはコマンドをシステム60に提供することを可能にするように構成され(例えば、音声メニューコマンドの選択、自然言語質問等)、および/または、他の人物(例えば、類似ディスプレイシステムの他のユーザ)とのオーディオ通信を可能にし得る。マイクロホンは、周辺センサとしてさらに構成され、オーディオデータ(例えば、ユーザおよび/または環境からの音)を収集し得る。いくつかの実施形態では、ディスプレイシステムは、周辺センサ120aも含み得、周辺センサ120aは、フレーム80と別個であり、ユーザ90の身体(例えば、ユーザ90の頭部、胴体、四肢等上)に取り付けられ得る。周辺センサ120aは、いくつかの実施形態では、ユーザ90の生理学的状態を特徴付けるデータを取得するように構成され得る。例えば、センサ120aは、電極であり得る。
図2を継続して参照すると、ディスプレイ70は、有線導線または無線接続性等の通信リンク130によって、ローカルデータ処理モジュール140に動作可能に結合され、ローカルデータ処理モジュール140は、フレーム80を固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子を固定して取り付けられる構成、ヘッドホン内に埋設される構成、または別様にユーザ90に除去可能に取り付けられる構成(例えば、リュック式構成、ベルト結合式構成において)等、種々の構成で搭載され得る。同様に、センサ120aは、通信リンク120b、例えば、有線導線または無線接続性によって、ローカルデータ処理モジュール140に動作可能に結合され得る。ローカル処理およびデータモジュール140は、ハードウェアプロセッサと不揮発性メモリ(例えば、フラッシュメモリまたはハードディスクドライブ)等のデジタルメモリとを備え得、両方は、データの処理、キャッシュ、および記憶を補助するために利用され得る。随意に、ローカル処理およびデータモジュール140は、1つ以上の中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、専用処理ハードウェア等を含み得る。データは、a)センサ(画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、ジャイロスコープ、および/または本明細書に開示される他のセンサ(例えば、フレーム80に動作可能に結合されるか、または別様にユーザ90に取り付けられ得る))から捕捉されたデータ、および/または、b)可能性として処理または読み出し後のディスプレイ70への移動のために、遠隔処理モジュール150および/または遠隔データリポジトリ160(仮想コンテンツに関連するデータを含む)を使用して取得および/または処理されたデータを含む。ローカル処理およびデータモジュール140は、有線または無線通信リンクを介して等、通信リンク170、180によって、遠隔処理モジュール150および遠隔データリポジトリ160に動作可能に結合され得、それによって、これらの遠隔モジュール150、160は、互いに動作可能に結合され、ローカル処理およびデータモジュール140に対するリソースとして利用可能である。いくつかの実施形態では、ローカル処理およびデータモジュール140は、画像捕捉デバイス、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープのうちの1つ以上のものを含み得る。いくつかの他の実施形態では、これらのセンサのうちの1つ以上のものは、フレーム80に取り付けられ得るか、または有線もしくは無線通信経路によってローカル処理およびデータモジュール140と通信する独立構造であり得る。
図2を継続して参照すると、いくつかの実施形態では、遠隔処理モジュール150は、例えば、1つ以上の中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、専用処理ハードウェア等を含む、データおよび/または画像情報を分析ならびに処理するように構成される1つ以上のプロセッサを備え得る。いくつかの実施形態では、遠隔データリポジトリ160は、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であり得るデジタルデータ記憶設備を備え得る。いくつかの実施形態では、遠隔データリポジトリ160は、1つ以上の遠隔サーバを含み得、それらは、情報、例えば、拡張現実コンテンツをローカル処理およびデータモジュール140および/または遠隔処理モジュール150に生成するための情報を提供する。いくつかの実施形態では、全てのデータが、記憶され、全ての計算は、ローカル処理およびデータモジュール内で行われ、遠隔モジュールからの完全に自律的使用を可能にする。随意に、CPU、GPU等を含む、外部システム(例えば、1つ以上のプロセッサのシステム、1つ以上のコンピュータ)は、処理の少なくとも一部を行い(例えば、画像情報を生成する、データを処理する)、例えば、無線または有線接続を介して、情報をモジュール140、150、160に提供し、そこから情報を受信し得る。
ここで図3を参照すると、「3次元」または「3-D」としての画像の知覚は、視認者の各眼への画像の若干異なる提示を提供することによって達成され得る。図3は、ユーザのための3次元画像をシミュレートするための従来のディスプレイシステムを図示する。2つの異なる画像190、200(各眼210、220のために1つ)が、両眼キューを提供するためにユーザに出力され、ユーザの視覚系は、それを解釈し、深度の知覚を導出する。画像190、200は、視認者の視線と平行な光学軸またはz-軸に沿って距離230だけ眼210、220から間隔を置かれる。画像190、200は、平坦であり、眼210、220は、単一の遠近調節された状態をとることによって、画像上に焦点を合わせ得る。そのような3-Dディスプレイシステムは、ヒト視覚系に頼って画像190、200を組み合わせ、組み合わせられた画像に対する深度および/または規模の知覚を提供する。
しかしながら、ヒト視覚系は、より複雑であり、深度の現実的知覚を提供することは、より困難であることを理解されたい。例えば、従来の「3-D」ディスプレイシステムの多くの視認者は、そのようなシステムが不快であることを見出すか、または深度の感覚を全く知覚しないこともある。理論によって限定されるわけではないが、オブジェクトの視認者は、両眼離反運動および遠近調節の組み合わせに起因して、オブジェクトを「3次元」として知覚し得ると考えられる。互いに対する2つの眼の両眼離反運動の移動(例えば、瞳孔が、眼の視線を収束させ、オブジェクトを凝視させるための互いに向かって、またはそこから離れるように移動する、眼の回転)は、眼の水晶体および瞳孔の焦点合わせ(または「遠近調節」)と密接に関連付けられる。通常条件下では、異なる距離における1つのオブジェクトから別のオブジェクトに焦点を変化させるために眼の水晶体の焦点を変化させること、または眼を遠近調節することは、「遠近調節-両眼離反運動反射」ならびに瞳孔拡張または収縮として知られる関係下、同じ距離までの両眼離反運動における整合変化を自動的に生じさせるであろう。同様に、両眼離反運動における変化は、正常条件下では、水晶体形状および瞳孔サイズの遠近調節における整合変化を誘起するであろう。本明細書に記載されるように、多くの立体視または「3-D」ディスプレイシステムは、3次元視点がヒト視覚系によって知覚されるように、各眼への若干異なる提示(したがって、若干異なる画像)を使用して、場面を表示する。しかしながら、そのようなシステムは、とりわけ、単に、場面の異なる提示を提供するが、眼は、全画像情報を単一の遠近調節された状態において視認し、「遠近調節-両眼離反運動反射」に対抗して機能するので、多くの視認者にとって不快である。遠近調節と両眼離反運動との間のより優れた整合を提供するディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し得る。
図4は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。図4を参照すると、z-軸上の眼210、220からの種々の距離におけるオブジェクトは、それらのオブジェクトが焦点が合うように、眼210、220によって遠近調節される。眼210、220は、特定の遠近調節された状態をとり、z-軸に沿って異なる距離におけるオブジェクトに焦点を合わせる。その結果、特定の遠近調節された状態は、関連付けられた焦点距離を有する深度平面240のうちの特定の1つに関連付けられていると言え、特定の深度平面におけるオブジェクトまたはオブジェクトの一部は、眼がその深度平面のための遠近調節された状態にあるとき焦点が合う。いくつかの実施形態では、3次元画像は、眼210、220の各々のための画像の異なる提示を提供することによってシミュレートされ得、深度平面の各々に対応する画像の異なる提示を提供することによってもシミュレートされ得る。例証を明確にするために、別個であるように示されるが、眼210、220の視野は、例えば、z-軸に沿った距離が増加するにつれて重複し得ることを理解されたい。加えて、例証を容易にするために、平坦として示されるが、深度平面の輪郭は、深度平面内の全ての特徴が特定の遠近調節された状態における眼で焦点が合うように、物理的空間内で湾曲され得ることを理解されたい。
オブジェクトと眼210または220との間の距離は、その眼によって視認されるようなそのオブジェクトからの光の発散の量も変化させ得る。図5A-5Cは、距離と光線の発散との間の関係を図示する。オブジェクトと眼210との間の距離は、減少する距離R1、R2、およびR3の順序で表される。図5A-5Cに示されるように、光線は、オブジェクトまでの距離が減少するにつれてより発散する。距離が増加するにつれて、光線は、よりコリメートされる。換言すると、点(オブジェクトまたはオブジェクトの一部)によって生成される光場は、点がユーザの眼から離れている距離の関数である球状波面曲率を有すると言え得る。曲率は、オブジェクトと眼210との間の距離の減少に伴って増加する。その結果、異なる深度平面では、光線の発散度も、異なり、発散度は、深度平面と視認者の眼210との間の距離の減少に伴って増加する。単眼210のみが、例証を明確にするために、図5A-5Cおよび本明細書の種々の他の図に図示されるが、眼210に関する議論は、視認者の両眼210および220に適用され得ることを理解されたい。
理論によって限定されるわけではないが、ヒトの眼は、典型的には、有限数の深度平面を解釈し、深度知覚を提供することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、眼にこれらの限定数の深度平面の各々に対応する画像の異なる提示を提供することによって達成され得る。異なる提示は、視認者の眼によって別個に焦点を合わせられ、それによって、異なる深度平面上に位置する場面のための異なる画像特徴に焦点を合わせるために要求される眼の遠近調節に基づいて、および/または、焦点がずれている異なる深度平面上の異なる画像特徴を観察することに基づいて、ユーザに深度キューを提供することに役立ち得る。
図6は、画像情報をユーザに出力するための導波管スタックの例を図示する。ディスプレイシステム250は、複数の導波管270、280、290、300、310を使用して3次元知覚を眼/脳に提供するために利用され得る導波管のスタックまたはスタックされた導波管アセンブリ260を含む。いくつかの実施形態では、ディスプレイシステム250は、図2のシステム60であり、図6は、そのシステム60のいくつかの部分をより詳細に概略的に示す。例えば、導波管アセンブリ260は、図2のディスプレイ70の一部であり得る。ディスプレイシステム250は、いくつかの実施形態では、明視野ディスプレイと見なされ得ることを理解されたい。
図6を継続して参照すると、導波管アセンブリ260は、複数の特徴320、330、340、350を導波管間に含み得る。いくつかの実施形態では、特徴320、330、340、350は、1つ以上のレンズであり得る。導波管270、280、290、300、310および/または複数のレンズ320、330、340、350は、種々のレベルの波面曲率または光線発散を用いて画像情報を眼に送信するように構成され得る。各導波管レベルは、特定の深度平面に関連付けられ得、その深度平面に対応する画像情報を出力するように構成され得る。画像投入デバイス360、370、380、390、400は、導波管のための光源として機能し得、画像情報を導波管270、280、290、300、310の中に投入するために利用され得、各々は、本明細書に説明されるように、眼210に向かう出力のために、各それぞれの導波管を通る入射光を分配するように構成され得る。光は、画像投入デバイス360、370、380、390、400の出力表面410、420、430、440、450から出射し、導波管270、280、290、300、310の対応する入力表面460、470、480、490、500の中に投入される。いくつかの実施形態では、入力表面460、470、480、490、500の各々は、対応する導波管の縁であり得るか、または対応する導波管の主要表面の一部(すなわち、世界510または視認者の眼210に直接面する導波管表面のうちの1つ)であり得る。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、クローン化されたコリメートビームの全体場を出力し得、クローン化されたコリメートビームは、特定の導波管に関連付けられた深度平面に対応する特定の角度(および発散量)において眼210の方に向かわせられる。いくつかの実施形態では、画像投入デバイス360、370、380、390、400のうちの単一のものが、複数(例えば、3つ)の導波管270、280、290、300、310に関連付けられ、それらの中に光を投入し得る。
いくつかの実施形態では、画像投入デバイス360、370、380、390、400は、各々が対応する導波管270、280、290、300、310の中への投入のために画像情報を生成する個別的なディスプレイである。いくつかの他の実施形態では、画像投入デバイス360、370、380、390、400は、例えば、画像情報を1つ以上の光学導管(光ファイバケーブル等)を介して画像投入デバイス360、370、380、390、400の各々に送り得る単一の多重化されたディスプレイの出力端である。画像投入デバイス360、370、380、390、400によって提供される画像情報は、異なる波長または色(例えば、本明細書に議論されるように、異なる原色)の光を含み得ることを理解されたい。
いくつかの実施形態では、導波管270、280、290、300、310の中に投入される光は、光プロジェクタシステム520によって提供され、それは、光モジュール530を備え、それは、発光ダイオード(LED)等の光エミッタを含み得る。光モジュール530からの光は、ビームスプリッタ550を介して、光変調器540、例えば、空間光変調器に向かわせられ、それによって修正され得る。光変調器540は、導波管270、280、290、300、310の中に投入される光の知覚される強度を変化させるように構成され得る。空間光変調器の例は、液晶ディスプレイ(LCD)を含み、シリコン上液晶(LCOS)ディスプレイを含む。
いくつかの実施形態では、ディスプレイシステム250は、光を種々のパターン(例えば、ラスタ走査、螺旋走査、リサジューパターン等)で1つ以上の導波管270、280、290、300、310の中に、最終的には、視認者の眼210に投影するように構成される1つ以上の走査ファイバを備えている走査ファイバディスプレイであり得る。いくつかの実施形態では、図示される画像投入デバイス360、370、380、390、400は、光を1つまたは複数の導波管270、280、290、300、310の中に投入するように構成される単一走査ファイバまたは走査ファイバの束を図式的に表し得る。いくつかの他の実施形態では、図示される画像投入デバイス360、370、380、390、400は、複数の走査ファイバまたは走査ファイバの複数の束を図式的に表し得、各々は、光を導波管270、280、290、300、310のうちの関連付けられた1つの中に投入するように構成される。1つ以上の光ファイバは、光を光モジュール530から1つ以上の導波管270、280、290、300、310に伝送するように構成され得ることを理解されたい。1つ以上の介在光学構造が、走査ファイバまたは複数のファイバと、1つ以上の導波管270、280、290、300、310との間に提供され、例えば、走査ファイバから出射する光を1つ以上の導波管270、280、290、300、310の中に向け直し得ることを理解されたい。
コントローラ560は、画像投入デバイス360、370、380、390、400、光源530、および光モジュール540の動作を含むスタックされた導波管アセンブリ260のうちの1つ以上のものの動作を制御する。いくつかの実施形態では、コントローラ560は、ローカルデータ処理モジュール140の一部である。コントローラ560は、例えば、本明細書に開示される種々のスキームのいずれかに従って、導波管270、280、290、300、310への画像情報のタイミングおよびプロビジョニングを調整するプログラミング(例えば、非一過性媒体内の命令)を含む。いくつかの実施形態では、コントローラは、単一一体型デバイスまたは有線もしくは無線通信チャネルによって接続される分散型システムであり得る。コントローラ560は、いくつかの実施形態では、処理モジュール140または150(図2)の一部であり得る。
図6を継続して参照すると、導波管270、280、290、300、310は、全内部反射(TIR)によって各それぞれの導波管内で光を伝搬するように構成され得る。導波管270、280、290、300、310の各々は、主要な上部および底部表面ならびにそれらの主要上部表面と底部表面との間に延びている縁を伴う平面であるか、または別の形状(例えば、湾曲)を有し得る。図示される構成では、導波管270、280、290、300、310の各々は、各それぞれの導波管内で伝搬する光を導波管から向け直し、画像情報を眼210に出力することによって、光を導波管から外へ抽出するように構成される外部結合光学要素570、580、590、600、610を含み得る。抽出された光は、外部結合光とも称され得、外部結合光学要素は、光抽出光学要素とも称され得る。抽出された光のビームは、導波管内を伝搬する光が光抽出光学要素に衝突する場所において導波管によって出力され得る。外部結合光学要素570、580、590、600、610は、例えば、本明細書にさらに議論されるような回折光学特徴を含む格子であり得る。説明の容易性および図面の明確性のために、導波管270、280、290、300、310の底部主要表面に配置されて図示されるが、いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、本明細書にさらに議論されるように、上部および/または底部主要表面に配置され得、ならびに/もしくは導波管270、280、290、300、310の体積内に直接配置され得る。いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、透明基板に取り付けられ、導波管270、280、290、300、310を形成する材料の層内に形成され得る。いくつかの他の実施形態では、導波管270、280、290、300、310は、材料のモノリシック部品であり得、外部結合光学要素570、580、590、600、610は、材料のその部品の表面上および/またはその内部に形成され得る。
図6を継続して参照すると、本明細書に議論されるように、各導波管270、280、290、300、310は、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管270は、眼210にコリメートされた光(そのような導波管270の中に投入された)を送達するように構成され得る。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管280は、眼210に到達し得る前に、第1のレンズ350(例えば、負のレンズ)を通過するコリメートされた光を送出するように構成され得る。そのような第1のレンズ350は、眼/脳が、その次の上方の導波管280から生じる光を光学無限遠から眼210に向かって内側により近い第1の焦点面から生じるように解釈するように、若干の凸面波面曲率を生成するように構成され得る。同様に、第3の上方の導波管290は、眼210に到達する前に、その出力光を第1の350および第2の340レンズの両方を通過させる。第1の350および第2の340レンズの組み合わせられた屈折力は、眼/脳が、第3の導波管290から生じる光が次の上方の導波管280からの光よりも光学無限遠から人物に向かって内側にさらにより近い第2の焦点面から生じるように解釈するように、別の漸増量の波面曲率を生成するように構成され得る。
他の導波管層300、310およびレンズ330、320も同様に構成され、スタック内の最高導波管310は、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ260の他側の世界510から生じる光を視認/解釈するとき、レンズ320、330、340、350のスタックを補償するために、補償レンズ層620が、スタックの上部に配置され、下方のレンズスタック320、330、340、350の集約力を補償し得る。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の外部結合光学要素およびレンズの焦点合わせ側面の両方は、静的であり得る(すなわち、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方は、電気活性特徴を使用して動的であり得る。
いくつかの実施形態では、導波管270、280、290、300、310のうちの2つ以上のものは、同一の関連付けられた深度平面を有し得る。例えば、複数の導波管270、280、290、300、310が、同一深度平面に設定される画像を出力するように構成され得るか、または導波管270、280、290、300、310の複数の一部が、各深度平面に対して1つの組で、同一の複数の深度平面に設定される画像を出力するように構成され得る。これは、それらの深度平面において拡張された視野を提供するようにタイル化された画像を形成する利点を提供し得る。
図6を継続して参照すると、外部結合光学要素570、580、590、600、610は、導波管に関連付けられた特定の深度平面のために、光をそれらのそれぞれの導波管から向け直し、この光を適切な量の発散またはコリメーションを伴って出力するように構成され得る。その結果、異なる関連付けられた深度平面を有する導波管は、外部結合光学要素570、580、590、600、610の異なる構成を有し得、それらは、関連付けられた深度平面に応じて、異なる量の発散を伴う光を出力する。いくつかの実施形態では、光抽出光学要素570、580、590、600、610は、体積または表面特徴であり得、それらは、特定の角度において光を出力するように構成され得る。例えば、光抽出光学要素570、580、590、600、610は、体積ホログラム、表面ホログラム、および/または回折格子であり得る。いくつかの実施形態では、特徴320、330、340、350は、レンズではないこともある。むしろ、それらは、単に、スペーサ(例えば、クラッディング層および/または空隙を形成するための構造)であり得る。
いくつかの実施形態では、外部結合光学要素570、580、590、600、610は、回折パターンまたは「回折光学要素」(また、本明細書では、「DOE」とも称される)を形成する、回折特徴である。好ましくは、DOEは、ビームの光の一部のみがDOEの交差点ごとに眼210に向かって偏向させられる一方、残りがTIRを介して導波管を通して移動し続けるように、十分に低回折効率を有する。画像情報を搬送する光は、したがって、様々な場所において導波管から出射するいくつかの関連出射ビームに分割され、その結果は、導波管内で跳ね返るこの特定のコリメートされたビームに対して、眼210に向かって非常に均一なパターンの出射放出である。
いくつかの実施形態では、1つ以上のDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切り替え可能であり得る。例えば、切り替え可能なDOEは、ポリマー分散液晶の層を備え得、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に合致するように切り替えられ得るか(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のそれに合致しない屈折率に切り替えられ得る(その場合、パターンは、入射光を能動的に回折する)。
いくつかの実施形態では、カメラアセンブリ630(例えば、可視光および赤外線光カメラを含む、デジタルカメラ)が、眼210および/または眼210の周囲の組織の画像を捕捉し、例えば、ユーザ入力を検出するために、および/またはユーザの生理学的状態を監視するために提供され得る。本明細書で使用されるように、カメラは、任意の画像捕捉デバイスであり得る。いくつかの実施形態では、カメラアセンブリ630は、画像捕捉デバイスと、光(例えば、赤外線光)を眼に投影するための光源とを含み得、次いで、光は、眼によって反射され、画像捕捉デバイスによって検出され得る。いくつかの実施形態では、カメラアセンブリ630は、フレーム80(図2)に取り付けられ得、カメラアセンブリ630からの画像情報を処理し得る処理モジュール140および/または150と電気通信し得る。いくつかの実施形態では、1つのカメラアセンブリ630が、各眼のために利用され、各眼を別個に監視し得る。
いくつかの実施形態では、内向きのカメラは、ユーザの眼の遠近調節応答または遠近調節状態を検出し、ユーザにその遠近調節応答を変化させることを要求せずに、ディスプレイコンテンツをユーザに表示するようにも構成され得る。随意に、内向きのカメラは、ユーザの眼の各々の遠近調節応答または遠近調節状態を検出するように構成され得る。表示されるコンテンツは、アラート、メニューアイテム、または他のコンテンツを含み得、それらは、その眼が焦点を合わせられている深度に関係なく、ユーザに明確に見えることが有益であり得る。いくつかの実施形態では、ディスプレイシステム80は、ユーザの眼内の水晶体の形状変化を検出し、ユーザの眼が焦点を合わせられている対象を決定するように構成され得、順に、ディスプレイシステム80は、対応する適切な深度キューを用いて(例えば、特定の深度平面のための適切な分解能、詳細、色飽和、コントラスト等を用いて)、表示される画像を適切な深度平面上にレンダリングし得る。
ここで図7を参照すると、導波管によって出力された出射ビームの例が、示される。1つの導波管が図示されるが、導波管アセンブリ260(図6)内の他の導波管も同様に機能し得、導波管アセンブリ260は、複数の導波管を含むことを理解されたい。光640が、導波管270の入力表面460において導波管270の中に投入され、TIRによって導波管270内を伝搬する。光640がDOE570上に衝突する点では、光の一部は、導波管から出射ビーム650として出射する。出射ビーム650は、略平行として図示されるが、本明細書に議論されるように、それらは、導波管270に関連付けられた深度平面に応じて、ある角度(例えば、発散出射ビームを形成する)において眼210に伝搬するように向け直され得る。略平行出射ビームは、眼210からの遠距離(例えば、光学無限遠)における深度平面に設定されるように見える画像を形成するように光を外部結合する外部結合光学要素を伴う導波管を示し得ることを理解されたい。他の導波管または他の外部結合光学要素の組は、より発散する出射ビームパターンを出力し得、それは、眼210がより近い距離に遠近調節し、網膜に焦点を合わせることを要求し、光学無限遠より眼210に近い距離からの光として脳によって解釈されるであろう。
いくつかの実施形態では、フルカラー画像が、原色、例えば、3つ以上の原色の各々に画像をオーバーレイすることによって、各深度平面において形成され得る。図8は、スタックされた導波管アセンブリの例を図示し、各深度平面は、複数の異なる原色を使用して形成される画像を含む。図示される実施形態は、深度平面240a-240fを示すが、より多いまたはより少ない深度も、検討される。各深度平面は、第1の色Gの第1の画像、第2の色Rの第2の画像、および第3の色Bの第3の画像を含むそれに関連付けられた3つ以上の原色画像を有し得る。異なる深度平面は、文字G、R、およびBに続くジオプタに関する異なる数字によって図に示される。単なる例として、これらの文字の各々に続く数字は、ジオプタ(1/m)、すなわち、視認者からの深度平面の逆距離を示し、図中の各ボックスは、個々の原色画像を表す。いくつかの実施形態では、異なる波長の光の眼の焦点合わせにおける差異を考慮するために、異なる原色に対する深度平面の正確な場所は、変動し得る。例えば、所与の深度平面に関する異なる原色画像は、ユーザからの異なる距離に対応する深度平面上に設置され得る。そのような配置は、視力およびユーザ快適性を増加させ得、および/または色収差を減少させ得る。
いくつかの実施形態では、各原色の光は、単一専用導波管によって出力され得、その結果、各深度平面は、それに関連付けられた複数の導波管を有し得る。そのような実施形態では、文字G、R、またはBを含む図中の各ボックスは、個々の導波管を表すものと理解され得、3つの導波管は、深度平面毎に提供され得、3つの原色画像が、深度平面毎に提供される。各深度平面に関連付けられた導波管は、この図面では、説明を容易にするために互いに隣接して示されるが、物理的デバイスでは、導波管は全て、レベル毎に1つの導波管を伴うスタックで配置され得ることを理解されたい。いくつかの他の実施形態では、複数の原色が、例えば、単一導波管のみが深度平面毎に提供され得るように、同一導波管によって出力され得る。
図8を継続して参照すると、いくつかの実施形態では、Gは、緑色であり、Rは、赤色であり、Bは、青色である。いくつかの他の実施形態では、マゼンタ色およびシアン色を含む光の他の波長に関連付けられた他の色も、赤色、緑色、もしくは青色のうちの1つ以上のものに加えて使用され得るか、またはそれらに取って代わり得る。
本開示全体を通した所与の光の色の言及は、その所与の色として視認者によって知覚される、光の波長の範囲内の1つ以上の波長の光を包含するものと理解されると理解されたい。例えば、赤色光は、約620~780nmの範囲内である1つ以上の波長の光を含み得、緑色光は、約492~577nmの範囲内である1つ以上の波長の光を含み得、青色光は、約435~493nmの範囲内である1つ以上の波長の光を含み得る。
いくつかの実施形態では、光源530(図6)は、視認者の視覚的知覚範囲外の1つ以上の波長、例えば、赤外線および/または紫外線波長の光を放出するように構成され得る。加えて、ディスプレイ250の導波管の内部結合、外部結合、および他の光向け直し構造は、例えば、結像および/またはユーザ刺激用途のために、この光をディスプレイからユーザの眼210に向かわせるように、および放出するように構成され得る。
ここで図9Aを参照すると、いくつかの実施形態では、導波管に衝突する光は、その光を導波管の中に内部結合するために向け直される必要があり得る。内部結合光学要素が、光をその対応する導波管の中に向け直し、内部結合するために使用され得る。図9Aは、各々が内部結合光学要素を含む複数または組660のスタックされた導波管の例の断面側面図を図示する。導波管の各々は、1つ以上の異なる波長または1つ以上の異なる波長範囲の光を出力するように構成され得る。スタック660は、スタック260(図6)に対応し得、スタック660の図示される導波管は、複数の導波管270、280、290、300、310の一部に対応し得るが、画像投入デバイス360、370、380、390、400のうちの1つ以上のものからの光が、光が内部結合のために向け直されることを要求する位置から導波管の中に投入されることを理解されたい。
図示されるスタックされた導波管の組660は、導波管670、680、および690を含む。各導波管は、関連付けられた内部結合光学要素(導波管上の光入力エリアとも称され得る)を含み、例えば、内部結合光学要素700は、導波管670の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素710は、導波管680の主要表面(例えば、上側主要表面)上に配置され、内部結合光学要素720は、導波管690の主要表面(例えば、上側主要表面)上に配置される。いくつかの実施形態では、内部結合光学要素700、710、720のうちの1つ以上のものは、それぞれの導波管670、680、690の底部主要表面上に配置され得る(特に、1つ以上の内部結合光学要素は、反射性偏向光学要素である場合)。図示されるように、内部結合光学要素700、710、720は、それらのそれぞれの導波管670、680、690の上側主要表面(または次の下側導波管の上部)上に配置され得、特に、それらの内部結合光学要素は、透過性偏向光学要素である。いくつかの実施形態では、内部結合光学要素700、710、720は、それぞれの導波管670、680、690の本体内に配置され得る。いくつかの実施形態では、本明細書に議論されるように、内部結合光学要素700、710、720は、他の光の波長を透過するが、1つ以上の光の波長を選択的に向け直すような波長選択的である。それらのそれぞれの導波管670、680、690の片側または角に図示されるが、内部結合光学要素700、710、720は、いくつかの実施形態では、それらのそれぞれの導波管670、680、690の他のエリア内に配置され得ることを理解されたい。
図示されるように、内部結合光学要素700、710、720は、互いから側方にオフセットされ得る。いくつかの実施形態では、各内部結合光学要素は、その光が別の内部結合光学要素を通過せずに、光を受信するようにオフセットされ得る。例えば、各内部結合光学要素700、710、720は、図6に示されるように、光を異なる画像投入デバイス360、370、380、390、および400から受信するように構成され得、光を内部結合光学要素700、710、720の他のものから実質的に受信しないように、他の内部結合光学要素700、710、720から分離され得る(例えば、側方に間隔を置かれる)。
各導波管は、関連付けられた光分配要素も含み、例えば、光分配要素730は、導波管670の主要表面(例えば、上部主要表面)上に配置され、光分配要素740は、導波管680の主要表面(例えば、上部主要表面)上に配置され、光分配要素750は、導波管690の主要表面(例えば、上部主要表面)上に配置される。いくつかの他の実施形態では、光分配要素730、740、750は、それぞれ、関連付けられた導波管670、680、690の底部主要表面上に配置され得る。いくつかの他の実施形態では、光分配要素730、740、750は、それぞれ、関連付けられた導波管670、680、690の上部および底部両方の主要表面上に配置され得るか、または光分配要素730、740、750は、それぞれ、異なる関連付けられた導波管670、680、690内の上部および底部主要表面の異なるもの上に配置され得る。
導波管670、680、690は、例えば、材料のガス、液体および/または固体層によって間隔を置かれ、分離され得る。例えば、図示されるように、層760aは、導波管670と680とを分離し得、層760bは、導波管680と690とを分離し得る。いくつかの実施形態では、層760aおよび760bは、低屈折率材料(すなわち、導波管670、680、690の直接隣接するものを形成する材料より低い屈折率を有する材料)から形成される。好ましくは、層760a、760bを形成する材料の屈折率は、導波管670、680、690を形成する材料の屈折率を0.05もしくはそれを上回り、または0.10もしくはそれを下回る。有利には、より低い屈折率層760a、760bは、導波管670、680、690を通して光の全内部反射(TIR)(例えば、各導波管の上部および底部主要表面間のTIR)を促進するクラッディング層として機能し得る。いくつかの実施形態では、層760a、760bは、空気から形成される。図示されないが、導波管の図示される組660の上部および底部は、直近クラッディング層を含み得ることを理解されたい。
好ましくは、製造および他の考慮点を容易にするために、導波管670、680、690を形成する材料は、類似または同一であり、層760a、760bを形成する材料は、類似または同一である。いくつかの実施形態では、導波管670、680、690を形成する材料は、1つ以上の導波管間で異なり得、および/または層760a、760bを形成する材料は、依然として、前述の種々の屈折率関係を保持しながら、異なり得る。
図9Aを継続して参照すると、光線770、780、790が、導波管の組660に入射する。光線770、780、790は、1つ以上の画像投入デバイス360、370、380、390、400(図6)によって導波管670、680、690の中に投入され得ることを理解されたい。
いくつかの実施形態では、光線770、780、790は、異なる色に対応し得る、異なる性質、例えば、異なる波長または異なる波長範囲を有する。内部結合光学要素700、710、720の各々は、光が、TIRによって、導波管670、680、690のうちの各々の1つを通して伝搬するように、入射光を偏向させる。いくつかの実施形態では、内部結合光学要素700、710、720の各々は、他の波長を下層導波管および関連付けられた内部結合光学要素に透過させながら、1つ以上の特定の光の波長を選択的に偏向させる。
例えば、内部結合光学要素700は、異なる第2および第3の波長または波長範囲を有する光線780および790を透過させながら、第1の波長または波長範囲を有する光線770を選択的に偏向させるように構成され得る。透過された光線780は、第2の波長または波長範囲の光を選択的に偏向させるように構成される内部結合光学要素710に衝突し、それによって偏向させられる。光線790は、第3の波長または波長範囲の光を選択的に偏向させるように構成される、内部結合光学要素720によって偏向させられる。
図9Aを継続して参照すると、偏向させられた光線770、780、790は、対応する導波管670、680、690を通して伝搬するように偏向させられる。すなわち、各導波管の内部結合光学要素700、710、720は、光をその対応する導波管670、680、690の中に偏向させ、光を対応する導波管の中に内部結合する。光線770、780、790は、光にTIRによってそれぞれの導波管670、680、690を通して伝搬させる角度で偏向させられる。光線770、780、790は、導波管の対応する光分配要素730、740、750に衝突するまで、TIRによってそれぞれの導波管670、680、690を通して伝搬する。
ここで図9Bを参照すると、図9Aの複数のスタックされた導波管の例の斜視図が、図示される。前述のように、内部結合される光線770、780、790は、それぞれ、内部結合光学要素700、710、720によって偏向させられ、次いで、それぞれ、導波管670、680、690内でTIRによって伝搬する。光線770、780、790は、次いで、それぞれ、光分配要素730、740、750に衝突する。光分配要素730、740、750は、それぞれ、外部結合光学要素800、810、820に向かって伝搬するように、光線770、780、790を偏向させる。
いくつかの実施形態では、光分配要素730、740、750は、直交瞳エクスパンダ(OPE)である。いくつかの実施形態では、OPEは、光を外部結合光学要素800、810、820に偏向させ、または分配し、いくつかの実施形態では、光が外部結合光学要素に伝搬するにつれて、この光のビームまたはスポットサイズを増加させ得る。いくつかの実施形態では、光分配要素730、740、750は、省略され得、内部結合光学要素700、710、720は、光を直接外部結合光学要素800、810、820に偏向させるように構成され得る。例えば、図9Aを参照すると、光分配要素730、740、750は、それぞれ、外部結合光学要素800、810、820と置換され得る。いくつかの実施形態では、外部結合光学要素800、810、820は、光を視認者の眼210(図7)に向かわせる射出瞳(EP)または射出瞳エクスパンダ(EPE)である。OPEは、少なくとも1つの軸においてアイボックスの寸法を増加させるように構成され得、EPEは、OPEの軸と交差する、例えば、直交する軸においてアイボックスを増加させ得ることを理解されたい。例えば、各OPEは、光の残りの部分が導波管を辿って伝搬し続けることを可能にしながら、OPEに衝突する光の一部を同一導波管のEPEに向け直すように構成され得る。再びOPEに衝突すると、残りの光の別の部分は、EPEに向け直され、その部分の残りの部分は、導波管等を辿ってさらに伝搬し続ける。同様に、EPEに衝突すると、衝突光の一部は、導波管からユーザの方に向かわせられ、その光の残りの部分は、EPに再び衝突するまで、導波管を通して伝搬し続け、その時点で、衝突する光の別の部分は、導波管から向かわせられる等。その結果、内部結合された光の単一ビームは、その光の一部がOPEまたはEPEによって向け直される度に、「複製」され、それによって、図6に示されるように、クローン化された光のビーム野を形成し得る。いくつかの実施形態では、OPEおよび/またはEPEは、光のビームのサイズを修正するように構成され得る。
故に、図9Aおよび9Bを参照すると、いくつかの実施形態では、導波管の組660は、各原色のために、導波管670、680、690と、内部結合光学要素700、710、720と、光分配要素(例えば、OPE)730、740、750と、外部結合光学要素(例えば、EP)800、810、820とを含む。導波管670、680、690は、各導波管の間に空隙/クラッディング層を伴ってスタックされ得る。内部結合光学要素700、710、720は、(異なる波長の光を受信する異なる内部結合光学要素を用いて)入射光をその導波管の中に向け直し、または偏向させる。光は、次いで、それぞれの導波670、680、690内にTIRをもたらすであろう角度で伝搬する。示される例では、光線770(例えば、青色光)は、前述の様式において、第1の内部結合光学要素700によって偏光され、次いで、導波管を辿って跳ね返り続け、光分配要素(例えば、OPE)730、次いで、外部結合光学要素(例えば、EP)800と相互作用する。光線780および790(例えば、それぞれ、緑色および赤色光)は、導波管670を通過し、光線780は、内部結合光学要素710上に入射し、それによって偏向させられる。光線780は、次いで、TIRを介して、導波管680を辿って跳ね返り、その光分配要素(例えば、OPE)740、次いで、外部結合光学要素(例えば、EP)810に進むであろう。最後に、光線790(例えば、赤色光)は、導波管690を通過し、導波管690の光内部結合光学要素720に衝突する。光内部結合光学要素720は、光線が、TIRによって、光分配要素(例えば、OPE)750、次いで、外部結合光学要素(例えば、EP)820に伝搬するように、光線790を偏向させる。外部結合光学要素820は、次いで、最後に、光線790を視認者に外部結合し、視認者は、他の導波管670、680からの外部結合した光も受信する。
図9Cは、図9Aおよび9Bの複数のスタックされた導波管の例の見下げ平面図を図示する。図示されるように、導波管670、680、690は、各導波管の関連付けられた光分配要素730、740、750および関連付けられた外部結合光学要素800、810、820とともに、垂直に整列させられ得る。しかしながら、本明細書に議論されるように、内部結合光学要素700、710、720は、垂直に整列させられない。むしろ、内部結合光学要素は、好ましくは、非重複する(例えば、見下げ図に見られるように、側方に間隔を置かれる)。本明細書でさらに議論されるように、この非重複空間配置は、1対1ベースで異なるリソースから異なる導波管の中への光の投入を促進し、それによって、特定の光源が特定の導波管に固有に結合されることを可能にする。いくつかの実施形態では、非重複の空間的に分離される内部結合光学要素を含む配置は、シフトされた瞳システムと称され得、これらの配置内の内部結合光学要素は、サブ瞳に対応し得る。
本明細書に説明されるように、種々の実施形態による、ディスプレイシステム(例えば、図2のディスプレイシステム80等の拡張現実ディスプレイシステム)は、仮想オブジェクトが提示されるべき深度を調節し得る。上で説明されるように、第1の深度において提示されるべき仮想オブジェクトは、第2の仮想オブジェクトが提示されるべき、または実オブジェクトが存在する第2の深度に対応するように調節され得る。異なる深度は、ディスプレイシステムが仮想オブジェクトを設置するように構成される異なる深度平面に対応し得ることを理解されたい。いくつかの実施形態では、ディスプレイシステムのユーザは、したがって、遠近調節を変化させる必要なく、および/または2つのオブジェクトが異なる深度平面上にあることを知覚せずに、第1の仮想オブジェクトおよび第2の仮想または実オブジェクトの視認間を切り替え得る。深度を調節することは、遠近調節キューを調節すること(例えば、波面発散を調節すること)および両眼キューを調節すること(例えば、ユーザの各眼に提供されている仮想オブジェクトの各々のビューを調節すること)の一方または両方を含み得る。
ディスプレイシステムは、ユーザの3次元凝視点を決定することに基づいて、仮想オブジェクトと実オブジェクトとの間でユーザが焦点を切り替えていることを決定し得る。例えば、ディスプレイシステムは、決定された凝視点に提示されている仮想オブジェクト間でユーザが凝視点を切り替えていることを決定し得る。凝視点は、(1)x-軸(例えば、側方軸)、(2)y-軸(例えば、垂直軸)、および(3)z-軸(例えば、点の深度、例えば、ユーザからの深度)に沿った空間内の点の場所を示し得る。いくつかの実施形態では、ディスプレイシステムは、カメラ(例えば、図6のセンサ630)等のセンサを利用し、ユーザの眼(例えば、各眼の瞳孔および/または角膜等)を監視し、各眼の視線を決定し得る。各眼の視線は、眼の水晶体を通して中心窩から延びているベクトルであると理解され得る。ディスプレイシステムは、眼に関連付けられたベクトルが交差する場所を外挿するように構成され得、この交差点は、眼の凝視点であると理解され得る。換言すると、凝視点は、ユーザの両眼が近づきつつある3次元空間内の場所であり得る。いくつかの実施形態では、ディスプレイシステムは、例えば、高速移動中のユーザの眼のわずかな移動(例えば、断続性運動、微小断続性運動)をフィルタ処理し得、眼が3次元空間内の場所を凝視していることを決定すると、凝視点を更新し得る。例えば、ディスプレイシステムは、閾値持続時間未満において点を凝視している眼の移動を無視し、および/または不随意眼移動(例えば、瞬目)を無視するように構成され得る。
ここで図10Aを参照すると、例は、ディスプレイシステム(例えば、ディスプレイシステム80、図2)によって提示されるユーザが視認するコンテンツ(例えば、ユーザの視野1004を表すディスプレイ錐台内に含まれるコンテンツ)の表現を図示する。表現は、ユーザの眼1002を含み、コンテンツは、第1の仮想オブジェクト1006(例えば、書籍)と、第2の仮想オブジェクト1008(例えば、木)とを含む。例として、ユーザは、第1の仮想オブジェクト1006(例えば、書籍またはテキストの表現が、ユーザに提示されるように見え得る)に説明されている木について読んでおり、ユーザが、第1の仮想オブジェクト1006を読むにつれて、木の異なる表現が、提示され得る。加えて、書籍1006は、随意に、実世界オブジェクト(例えば、実際の書籍)であり得、ユーザが書籍1006を読むにつれて、ディスプレイシステムは、書籍1006に説明される木に対応する異なる木をユーザに提示し得る。第1の仮想オブジェクト1006または第1の実世界オブジェクトと第2の仮想オブジェクト1008とは、以降、それぞれ、第1のオブジェクトおよび第2のオブジェクトと称されるであろう。
図示されるように、第1のオブジェクト1006および第2のオブジェクト1008は、ディスプレイシステムが仮想コンテンツを提示するように構成される深度平面であり得る異なる深度平面に関連付けられ得る。いくつかの実施形態では、第2のオブジェクト1008の知覚される深度は、第1のオブジェクト1006の知覚される深度基づいて調節されるか、またはその逆である。例として、ユーザが、第1のオブジェクト1006を凝視していると決定される場合、仮想コンテンツは、深度平面Bに提示され得る。代替として、ユーザが第2のオブジェクト1008を凝視していると決定される場合、仮想コンテンツは、深度平面Cに提示され得る。上で説明されるように、ディスプレイシステム(例えば、可変焦点ディスプレイシステム)は、ユーザに提示される各フレームに対して、全ての仮想コンテンツを同一深度平面に提示し得る。例えば、ディスプレイシステムは、各フレームに対して、同一導波管(例えば、導波管270、280、290、300、310のうちの1つ、図6)を介して、全ての仮想コンテンツを出力し得る。図11に関して以下に説明されるであろうように、各深度平面は、ユーザからのある範囲の深度に関連付けられ得る。ディスプレイシステムは、したがって、ユーザの3次元凝視点を決定し、凝視点に関連付けられた深度に基づいて、深度平面を選択し得る。例えば、深度範囲1009は、深度平面Cに関連付けられ、それによって、深度範囲1009内に含まれる深度に提示される仮想オブジェクトに対して、ユーザによって凝視されると、仮想オブジェクトが深度平面Cに提示される。図10Aは、4つの例示的深度平面(例えば、深度平面A-D)を図示するが、他の深度平面の数が、利用され得る(例えば、2、3、または4以上の深度平面)。
図10A-10Bの例証は、平面境界を有するように深度平面を図示するが、深度平面のサイズおよび形状は、図示されるものと異なり得ることを理解されたい。例えば、本明細書に説明される深度平面は、湾曲され得る。
図10Aおよび1010Aに表される例示的シナリオを継続して参照すると、ユーザは、第1のオブジェクト1006を視認する。例えば、ユーザは、その眼1002をその第1のオブジェクト1006に固定し得る。ディスプレイシステムは、眼1002の凝視点を決定し、凝視点が第1のオブジェクト1006の場所に対応することを決定し得る。第1のオブジェクト1006を視認後、ユーザは、次いで、表現1010Bに示されるように、第2のオブジェクト1008を凝視し得る。この例では、ディスプレイシステムは、仮想コンテンツ、例えば、第1のオブジェクト1006を第2のオブジェクト1008に関連付けられた異なる深度平面に提示し続け得る。
上で説明されるように、第1のオブジェクト1006は、随意に、実世界オブジェクトであり得る。このシナリオでは、ディスプレイシステムは、ユーザが深度平面B(例えば、この例では、第1のオブジェクト1006によって表され得る実世界オブジェクトに対応する)に関連付けられた3次元空間内の場所を凝視していることを決定し得る。ディスプレイシステムは、仮想コンテンツを第2のオブジェクト1008として深度Cに関連付けられた深度平面に提示し得る(例えば、第2のオブジェクト1008は、深度平面Cに提示され得る)。
両オブジェクトが、仮想オブジェクトである場合、ユーザが第1のオブジェクト1006と第2のオブジェクト1004との間で凝視点を交互させるにつれて、ディスプレイシステムは、典型的には、第1のオブジェクト1006または第2のオブジェクト1008が凝視されているかどうかに応じて、仮想コンテンツが提示される深度平面を変化させることが要求され得る。同様に、ユーザの眼1002は、コンテンツが深度平面Bと深度平面Cとの間で切り替わるにつれて、遠近調節を変化させることが要求される。本明細書に記載されるように、いくつかの状況では、深度平面間の切り替えは、ユーザの遠近調節応答が異なる深度平面に調節するにつれて、コンテンツを知覚することにおいて、望ましくなく、フリッカおよび/または一時的遅延を生じさせ得る。
有利には、いくつかの実施形態では、ディスプレイシステムは、仮想オブジェクトが提示される深度平面を修正し得、本修正は、深度平面間のディスプレイシステムの切り替えおよび/またはユーザの遠近調節応答の切り替えを低減させ得る。図10Bは、コンテンツを視認するユーザの表現の別の例を図示する。図示されるように、第2のオブジェクト1008は、第1のオブジェクト1006と同一深度平面に関連付けられるように調節されている。例えば、第1のオブジェクト1006および第2のオブジェクト1008は両方とも、深度平面Bに関連付けられ、またはその上に設置される。いくつかの実施形態では、光が、ユーザに出力され、第1のオブジェクト1006または第2のオブジェクト1008のいずれかに関する画像情報を提供するとき、波面発散は、同一となるであろう。したがって、ユーザの眼1002は、仮想オブジェクト1006、1008間で焦点を切り替えるとき、遠近調節を変化させることを要求されることを回避し得る。
第2のオブジェクト1008に関連付けられた深度平面が、第1のオブジェクト1006に対応するように調節されている間、ディスプレイシステムは、ユーザの各々の眼1002に提示される第2のオブジェクト1008のビュー(例えば、両眼分離提示および立体視から決定されるような知覚される深度)を維持し得る(例えば、調節しない)。例えば、図10Aに図示されるように、第2のオブジェクト1008(例えば、木)は、第1のオブジェクト1006より深度が遠くに位置付けられる。第2のオブジェクト1008は、第2のオブジェクト1008を表す光の波面発散が修正されるように調節され得る(例えば、遠近調節キューが調節される)。しかしながら、第2のオブジェクト1008は、依然として、両眼視差を介して、第1のオブジェクト1006からの深度においてより遠くに位置するように知覚され得る(例えば、両眼キューは、維持され得る)。本明細書で使用されるように、遠近調節キューを調節することは、仮想オブジェクトのユーザのビューを形成するための画像情報を提供する光の波面発散を変化させることを伴い、両眼キューを調節することは、視認者の片眼または両眼に提示される仮想オブジェクトのビューを変化させることを伴うことを理解されたい。両眼キューを保持しながら、遠近調節キューを調節することは、両眼視差が第1の深度をユーザに示す一方、波面発散が第2の深度をユーザに示すように、遠近調節-両眼離反運動不整合をもたらし得る。この不整合が、閾値(例えば、0.33ジオプタ以上、0.5ジオプタ以上)を超える場合、負の生理学的応答が、ユーザによって遭遇され得る(例えば、頭痛)。
随意に、ディスプレイシステムは、不整合が閾値を超えることを決定し得、さらに、第2のオブジェクト1008および/または第1のオブジェクト1006に対する両眼キューを調節し得る。例として、ディスプレイシステムによってユーザの各眼に提供されている第2のオブジェクト1008のビューは、深度平面Bと同一または類似深度に見えるであろうような第2のオブジェクト1008のビューに対応するように調節され得る(両眼キューが調節され得る)。すなわち、第2のオブジェクト1008は、第1のオブジェクト1006とユーザから同一または類似深度に位置するように知覚されるであろう。これは、知覚可能修正を第2のオブジェクト1008の3次元場所内に導入し得るが、負の生理学的応答における低減は、有利となり得る。随意に、第2のオブジェクト1008の知覚されるサイズは、第2のオブジェクト1008が移動したように見える知覚される距離に従って調節され得る。例えば、図10Aに図示されるように、第2のオブジェクト1008は、最初に、第1のオブジェクト1006からより遠くにあるように提示された(例えば、少なくとも部分的に、両眼視差に基づいて)。したがって、第2のオブジェクト1008がユーザのより近くに位置するように知覚されるように、両眼キューが調節される場合、ディスプレイシステムは、類似サイズであるように知覚されるように、第2の仮想オブジェクト1008をスケーリングし得る。例えば、ディスプレイシステムは、ユーザの視野1004の同一量(例えば、体積および/または面積)を占めるように、第2の仮想オブジェクト1008をスケーリングし得る。別の例として、ディスプレイシステムは、ユーザの眼の角度分解能に合致するように、第2の仮想オブジェクト1008をスケーリングし得る。例えば、テキストのフォントサイズは、ユーザからより遠くに移動させられた書籍に対して増加させられることができる。
随意に、ディスプレイシステムは、不整合が閾値を超えることを決定し得、不整合が閾値未満またはそれと等しくなるように、第2のオブジェクト1008の両眼キューを調節し得る。すなわち、第1の仮想オブジェクト1006と同一深度に対応するように両眼キュー(例えば、各眼に提供されているオブジェクト1008のビュー)を修正することとは対照的に、ディスプレイシステムは、不整合が単に閾値未満であるように、両眼キューを修正し得る。これは、第2のオブジェクト1008が、ユーザに深度がより近くあるように知覚されるが、第1のオブジェクト1006と同一深度であるように突然知覚されないという効果を有し得る。
ディスプレイシステムは、随意に、閾値メトリックを上回って、例えば、閾値回数を上回って、閾値頻度を上回る頻度で、および/または閾値持続時間を上回って、第1のオブジェクト1006と第2のオブジェクト1008との間でユーザが切り替えていることを決定すると、第2のオブジェクト1008の深度を調節し得る。例えば、ユーザが、第1のオブジェクト1006を定期的に凝視し、第2のオブジェクト1008を稀に凝視するか、または散発的に凝視する場合、ディスプレイシステムは、第2のオブジェクト1008に関連付けられた深度平面を調節しないことを決定し得る。一方、例として、ユーザが、数秒または数分の長さにわたって、第1のオブジェクト1006と第2のオブジェクト1008との間で前後に凝視する場合、ディスプレイシステムは、第1および第2のオブジェクトを共通深度に設置し得る。
その共通深度は、種々の基準に基づいて選択され得る。例えば、第1のオブジェクト1006が、実オブジェクト(例えば、書籍)であり、第2のオブジェクト1008が、仮想オブジェクトである場合、ディスプレイシステムは、随意に、第2のオブジェクト1008に関連付けられた深度平面を調節し得る(例えば、調節された深度平面は、深度平面Bであり得る)。いくつかの実施形態では、第1のオブジェクト1006および第2のオブジェクト1008は両方とも、仮想オブジェクトであり得、両オブジェクトを設置すべき深度平面に関する決定が、ユーザが主に凝視している深度平面に基づいて行われ得る。例えば、決定は、ユーザが各仮想オブジェクトを凝視する時間量に基づき得る。例えば、ユーザが、第1のオブジェクト1006の凝視により多くの時間量を費やす場合、ディスプレイシステムは、第2のオブジェクトが深度平面B上に設置されるように、第2のオブジェクト1008に関連付けられた深度平面を調節し得る。いくつかの実施形態では、ディスプレイシステムは、ユーザの選好を示す情報を取得し得る。例えば、ユーザは、第2のオブジェクト1008を主要仮想オブジェクトであると見なすことを示し得、したがって、第1のオブジェクト1006に関連付けられた深度平面が、これが第2のオブジェクト1008の深度平面に対応するように調節され得る。随意に、特定のタイプの仮想オブジェクトが、深度調節のために利用可能ではないものとして識別され得る。例として、テキストまたは細かい詳細を含む仮想オブジェクトは、その現在の深度平面を維持し得る一方、他の仮想オブジェクトが、調節される。
随意に、深度キューを調節することに加え、ディスプレイシステムは、例えば、第2の仮想オブジェクト1008が場所内でシフトされるように、第2の仮想オブジェクト1008の場所を調節し得る。いくつかの実施形態では、ユーザは、第2の仮想オブジェクト1008が位置すべき場所を示し得る。例えば、外科医であるユーザは、医療情報の形態における仮想コンテンツが患者に対して特定の場所に表示されることを好み得る。外科医は、手のジェスチャ、音声入力、トーテム等の入力を使用して、この特定の場所を示し得る。例えば、ディスプレイシステムは、手のジェスチャを特定の場所を示すこととして認識し得、ディスプレイシステムは、特定の場所にあるように知覚されるように、第2の仮想オブジェクト1008の場所を調節し得る。
図11は、ディスプレイシステムのユーザの視野1100の表現を図示し、種々の深度平面の調整をさらに図示する。視野1100は、第1の深度平面1102および第2の深度平面1104の表現を含む。図示されるように、深度の範囲(例えば、各深度平面に関連付けられた体積)が、各深度平面に対応するように図示される。例えば、深度平面2の近位範囲は、深度1106Aから深度1106Bまで延びている。範囲1106A-1106B内の深度に提示されるべき仮想オブジェクトは、深度平面2(また、参照番号1104として識別される)に提示され得る。例として、仮想オブジェクトは、深度平面2に関連付けられた導波管を介して出力され得る。加えて、範囲1106A-1106B内の深度に提示されるべき任意の仮想オブジェクトの波面発散は、同一であり、したがって、深度平面2に関連付けられ得る。図10Aに関して上で説明されるように、深度平面のサイズおよび形状は、図11に図示されるものと異なり得る。例えば、深度平面を定義する体積は、湾曲形状を有し得る。
上で説明されるように、ディスプレイシステムは、ユーザの凝視点を決定し得る。凝視点が、範囲1106A-1106B内にある場合、ディスプレイシステムは、深度平面2に関連付けられた波面発散を用いて、仮想コンテンツを提示し得る。ユーザが、次いで、深度平面1に関連付けられた範囲内にある場所を凝視する場合、ディスプレイシステムは、深度平面1に関連付けられた波面発散を用いて、コンテンツを提示する。上で説明されるように、ディスプレイシステムは、ユーザに提示されている任意のフレームに対して、単一深度平面が利用されるように、可変焦点ディスプレイシステムであり得る。例えば、1つの導波管が、利用され、各フレームに対して、全ての仮想コンテンツを出力し得る。
いくつかの実施形態では、本明細書に説明されるように、ディスプレイシステムは、特定の仮想オブジェクトを提示すべき深度平面を調節し得る。このように、ディスプレイシステムは、仮想コンテンツを提示するために選択された深度平面が修正される必要がある範囲を限定し得る。例として、第1のオブジェクトは、深度平面1体積1108に提示され得、第2のオブジェクトは、深度平面2体積1109に提示され得る。ここで説明される技法を利用しない場合、ユーザが、第1のオブジェクトを凝視しているとき、ディスプレイシステムは、第1のオブジェクトおよび第2のオブジェクトを深度平面2 1104上に提示し得る(例えば、深度平面2 1104に関連付けられた同一導波管を介して)。続いて、ユーザが、第2のオブジェクトに凝視点を切り替えると、ディスプレイは、深度平面1 1102を介して、第1のオブジェクトおよび第2のオブジェクトを提示し得る。対照的に、いくつかの実施形態では、ユーザが、第1のオブジェクトと第2のオブジェクトとの間で凝視点を変化させるとき、両オブジェクトは、同一深度平面上に設置され得る。すなわち、第1のオブジェクトまたは第2のオブジェクトのいずれかに関連付けられた深度平面は、深度平面2 1104または深度平面1 1102のいずれかが両オブジェクトに関連付けられ得るように、調節され得る。
図12は、仮想オブジェクトに関連付けられた深度平面を調節するための例示的プロセス1200のフローチャートを図示する。便宜上、プロセス1200は、ディスプレイシステム(例えば、ウェアラブルディスプレイシステム60)によって行われるように説明され、それは、処理ハードウェアおよびソフトウェアを含み得、随意に、情報を1つ以上のコンピュータまたは他の処理の外部システムに提供し、例えば、処理を外部システムにオフロードし、情報を外部システムから受信し得る。
ブロック1202では、ディスプレイシステムは、ユーザの眼の3次元凝視点を監視する。上で説明されるように、ディスプレイシステムは、ユーザの眼に関連付けられた情報(例えば、眼の向き)を監視するためのセンサを含み得る。センサの非包括的リストは、赤外線センサ、紫外線センサ、および可視波長光センサを含む。センサは、随意に、赤外線、紫外線、可視光、および/または偏光光をユーザの眼上に出力し、ユーザの眼からの出力された光の反射を決定し得る。例として、赤外線光は、赤外線光エミッタおよび赤外線光センサによって出力され得る。光エミッタを含み得る、センサは、図6の結像デバイス630に対応し得ることを理解されたい。
ディスプレイシステムは、センサを利用して、各眼に関連付けられた視線(例えば、眼の水晶体を通して中心窩から延びているようなユーザの眼から延びているベクトル)と、各眼の視線の交差点とを決定することによって、ユーザの凝視を追跡し得る。例えば、ディスプレイシステムは、赤外線光をユーザの眼上に出力し得、眼からの反射(例えば、角膜反射)が、監視され得る。眼の瞳孔中心と(例えば、ディスプレイシステムは、例えば、赤外線結像を通して、瞳孔の重心を決定し得る)眼からの反射との間のベクトルが、眼の視線を決定するために使用され得る。視線の交差点は、したがって、3次元凝視点として割り当てられ得る。随意に、ディスプレイシステムは、凝視点を決定するとき、ディスプレイシステムに関連付けられた向き情報(例えば、3次元空間内のディスプレイシステムの向きを説明する情報)を利用し得る。
ディスプレイシステムは、ユーザが視認しているオブジェクトを追跡するために決定された凝視点を監視し得る。例えば、ディスプレイシステムは、第1の仮想オブジェクトが提示される3次元場所に対応する決定された3次元凝視点に基づいて、ユーザが第1の仮想オブジェクトを視認していることを決定し得る。加えて、ディスプレイシステムは、ユーザが仮想オブジェクトに対応しない場所を凝視していることを決定し得、実世界オブジェクトが凝視点に位置する可能性が高いことを決定し得る。
ブロック1204では、ディスプレイシステムは、ユーザへの提示のための仮想オブジェクトに関連付けられた場所情報を得る。ユーザへの提示のための仮想オブジェクトのレンダリングに先立って(例えば、上で説明されるように、導波管の出力を介して)、ディスプレイシステムは、仮想オブジェクトに関連付けられた3次元場所情報を取得し得る。例えば、上で説明されるように、仮想オブジェクトは、コンテンツが実世界内に位置するように現れるように、ユーザに提示され得る(例えば、コンテンツは、ユーザの視野内の異なる深度平面に配置され得る)。ディスプレイシステムは、周囲環境内の任意の仮想コンテンツの意図される場所を含むこの周囲環境の3次元マップを含み得るか、またはそこへのアクセスを有し得ることを理解されたい。このマップを参照すると、ディスプレイシステムは、ユーザの視野内の仮想コンテンツの3次元場所(例えば、図10A-10Bに図示されるように、ディスプレイ錐台内の場所)を規定する情報にアクセスし、それを提供し得る。
上で説明されるように、仮想オブジェクトに関する場所情報は、3次元場所を含み得る。3次元場所に基づいて、仮想オブジェクトは、ユーザが、仮想オブジェクトを凝視する場合、特定の深度平面が、ユーザが凝視を切り替えるまで、各フレームに対して、全ての仮想コンテンツを提示するために利用され得るように、特定の深度平面に関連付けられ得る(例えば、図11に図示および説明されるように)。
ブロック1206では、ディスプレイシステムは、仮想オブジェクトに関連付けられた深度平面を調節する。図10A-10Bに関して上で説明されるように、ディスプレイシステムは、ユーザが、閾値メトリックを上回って、例えば、閾値回数を上回って、または閾値頻度を上回る頻度で、2つ以上の凝視点間で切り替えていることを決定し得る。例えば、ユーザは、30秒、1分、数分毎に1回等、第1の凝視点と第2の凝視点との間で切り替え得る。第1の凝視点および第2の凝視点が、例えば、図11に図示されるように、異なる深度平面に関連付けられる場合であり、凝視点が、異なる深度平面体積内に位置する場合、ディスプレイシステムは、ユーザが凝視点間で切り替える度に、異なる深度平面に関するコンテンツを提示することが要求され得る(例えば、本明細書に説明される技法を利用しない場合)。
ディスプレイシステムは、したがって、仮想オブジェクトに関連付けられた深度平面を調節し得る。本明細書に説明されるように、これは、仮想オブジェクトをユーザが同様に凝視している別のオブジェクト(例えば、仮想オブジェクト、実世界オブジェクト)の深度平面に関連付けることを含み得る。すなわち、仮想オブジェクトに関連付けられた遠近調節キュー(例えば、波面発散)が、異なる深度平面に対応するように調節され得る。ディスプレイシステムは、得られる場所情報を利用して、仮想オブジェクトの3次元場所を決定し得、場所情報を調節された深度平面で更新し得る。上で説明されるように、ディスプレイシステムは、仮想オブジェクトを選択し、仮想オブジェクトが凝視されている頻度に従って調節し得る。例えば、ユーザが、第2の仮想オブジェクトより多く第1の仮想オブジェクトを凝視している場合、ディスプレイシステムは、第1の仮想オブジェクトがすでに提示されている深度平面上に提示されるように、第2の仮想オブジェクトを調節し得る。
加えて、いくつかの実施形態では、ディスプレイシステムは、調節されるべき仮想オブジェクトの指示を取得し得る。例として、ユーザは、他の仮想オブジェクトが調節され、特定の仮想オブジェクトがその関連付けられた深度平面に留まるように、特定の仮想オブジェクトが所与の調節に対する選好が与えられるべきことを示し得る。別の例として、移動している(例えば、閾値比率より高速で移動している)仮想オブジェクトが、例えば、非凝視オブジェクトによって生じる注意散漫を減少させるための所与の選好であり得る。随意に、ディスプレイシステムは、調節されるべきではない仮想オブジェクトの指示を取得し得る。さらに、ディスプレイシステムは、随意に、調節が行われてもそれらが同一深度平面に提示されるように、ユーザにリンクされ、焦点が合ったままである、仮想オブジェクトの指示を取得し得る。例えば、ディスプレイシステムは、5つの仮想オブジェクトを提示し得、5つの仮想オブジェクトのうちの2つが焦点が合ったままであることを確実にし得る(例えば、2つの仮想オブジェクトは、同一深度平面に提示され得る)。
ブロック1208では、ディスプレイシステムは、調節されたコンテンツをユーザに提示する。例えば、調節された仮想オブジェクトは、調節された波面発散を用いて、ユーザに出力され得る。すなわち、ユーザが、仮想オブジェクトを凝視する場合、仮想オブジェクトは、そのオリジナル深度平面(周囲環境のディスプレイシステムのマップによって示されるように)ではなく、調節された深度平面に対応する波面発散を用いて、ユーザに出力され得る。波面発散の調節の例は、異なる導波管が異なる量の波面発散を伴う光を出力する、仮想オブジェクトが表示されるべき特定の導波管を調節することである。
図13は、仮想オブジェクトに関連付けられた深度平面を調節するための別の例示的プロセス1300のフローチャートを図示する。便宜上、プロセス1300は、ディスプレイシステム(例えば、ウェアラブルディスプレイシステム60)によって行われるように説明され得、それは、処理ハードウェアおよびソフトウェアを含み得、随意に、情報を1つ以上のコンピュータまたは他の処理の外部システムに提供し、例えば、処理を外部システムにオフロードし、情報を外部システムから受信し得る。
ブロック1302では、ディスプレイシステムは、3次元凝視点を監視し、ブロック1304では、ディスプレイシステムは、提示されるコンテンツに関連付けられた場所情報を得る(それぞれ、ブロック1202、1204(図12)に類似する)。ブロック1306では、ディスプレイシステムは、仮想オブジェクトに関連付けられた深度平面を調節する。図12(例えば、ブロック1206)に関して上で説明されるように、ディスプレイシステムは、仮想オブジェクトと異なる深度平面を関連付け、それによって、仮想オブジェクトに関連付けられた遠近調節キューを調節し得る。対照的に、ブロック1306では、ディスプレイシステムは、両眼キューを調節し、仮想オブジェクトの知覚される深度を調節し得る。すなわち、ディスプレイシステムは、ユーザの各眼に提供される仮想オブジェクトのビューを調節し得、そのような調節は、両眼分離提示を通した仮想コンテンツの両眼視差の調節を伴い得る。このように、仮想オブジェクトは、他の仮想コンテンツと同一もしくは類似深度または仮想オブジェクトのオリジナル深度と異なる深度に提示されるように現れることができる。ディスプレイシステムは、次いで、図12に関してブロック1208のために上で説明されるように、ブロック1308において、調節されたコンテンツをユーザに提示する。
図14は、仮想オブジェクトに関連付けられた遠近調節キューおよび両眼キューを調節するための例示的プロセスのフローチャートを図示する。便宜上、プロセス1300は、ディスプレイシステム(例えば、ウェアラブルディスプレイシステム60)によって行われるように説明され得、それは、処理ハードウェアおよびソフトウェアを含み得、随意に、情報を1つ以上のコンピュータまたは他の処理の外部システムに提供し、例えば、処理を外部システムにオフロードし、情報を外部システムから受信し得る。
ブロック1402では、ディスプレイシステムは、ブロック1202、1204(図12)に関して前述のように、調節されるべき仮想オブジェクトの指示を得る。上で説明されるように、特定の仮想オブジェクトまたは1つ以上の仮想オブジェクトの提示は、関連付けられた深度平面に対して調節され得る。
ブロック1404では、仮想オブジェクトに関連付けられた遠近調節キューが、調節される。本明細書に説明されるように、仮想オブジェクトに関連付けられた深度平面が、ディスプレイシステムのマップによって示される深度平面に対して調節され得る。いくつかの実施形態では、仮想オブジェクトの波面発散が、ユーザが同様に凝視している1つ以上の他の仮想オブジェクトと同一であるように調節され得る。深度平面を調節することは、波面発散を調節するので、両眼視差を利用することによって、仮想オブジェクトは、ユーザによって、同一の調節されていない3次元場所にあるように知覚され得る。例えば、ディスプレイシステムは、例えば、同一両眼分離提示を維持することによって、仮想オブジェクトの波面発散を調節せずに提示されるであろうものと同一仮想オブジェクトのビューをユーザの各眼に提示し得る。したがって、出力光の波面発散が調節される場合でも、ユーザは、空間内の同一3次元場所において仮想オブジェクトを知覚するであろう(例えば、両眼視差に起因して)。上で説明されるように、両眼キュー(例えば、ユーザに提供される仮想オブジェクトのビュー)ではなく、波面発散を調節することは、知覚可能不整合をユーザに導入し得る。
有利には、いくつかの実施形態では、ディスプレイシステムは、ブロック1406において、それらの両眼キューが上記の遠近調節キューにおける変化に一致するように、仮想オブジェクトに関連付けられた両眼キューを調節する。両眼離反運動と遠近調節との間の不整合を低減させるために、例えば、ディスプレイシステムは、ユーザの各眼に提示される仮想オブジェクトのビューを調節し得る。例えば、深度がユーザのより近くにあるように知覚されるように、仮想オブジェクトに関連付けられた遠近調節キューが調節される場合、ディスプレイシステムは、同様に、そのより近い深度に対応するように両眼キューを調節し得る。図10A-10Bに関して上で説明されるように、ディスプレイシステムは、閾値メトリックを上回って、例えば、閾値回数を上回って、または閾値頻度を上回ってユーザが2つ以上の凝視点間で切り替えていることの決定後、両眼キューの調節を実装し得る。
ブロック1408では、調節された仮想コンテンツが、ユーザに提示される。遠近調節キューおよび両眼キューの両方が調節されているので、仮想コンテンツは、更新された深度に対応する3次元空間内の新しい場所に位置するように知覚されるであろう。仮想コンテンツは、新しい場所において知覚されるであろうため、随意に、ディスプレイシステムは、新しい場所に対応するように仮想コンテンツに関連付けられた場所情報を更新し得る。
本明細書に説明される、ならびに/または図に描写されるプロセス、方法、およびアルゴリズムの各々は、具体的かつ特定のコンピュータ命令を実行するように構成される1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/もしくは電子ハードウェアによって実行されるコードモジュールにおいて具現化され、それによって完全もしくは部分的に自動化され得ることを理解されたい。例えば、コンピューティングシステムは、具体的コンピュータ命令でプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ、動的リンクライブラリ内にインストールされ得るか、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特定の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるので、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つ以上の物理的コンピューティングデバイスは、例えば、関与する計算の量もしくは複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、無作為アクセスメモリ(RAM)、読み取り専用メモリ(ROM)、光学ディスク、揮発性もしくは不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ読み取り可能な媒体上に記憶され得る。いくつかの実施形態では、非一過性コンピュータ読み取り可能な媒体は、ローカル処理およびデータモジュール(140)、遠隔処理モジュール(150)、および遠隔データリポジトリ(160)のうちの1つ以上のものの一部であり得る。方法およびモジュール(またはデータ)は、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ読み取り可能な伝送媒体上で生成されたデータ信号としても(例えば、搬送波または他のアナログもしくはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一もしくは多重化アナログ信号の一部として、または複数の個別的なデジタルパケットもしくはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的もしくは別様に記憶され得るか、またはコンピュータ読み取り可能な伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、もしくは機能性は、プロセスにおいて具体的機能(例えば、論理もしくは算術)またはステップを実装するための1つ以上の実行可能命令を含むコードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられ、再配置され、追加され、削除され、修正され、または別様に本明細書に提供される例証的例から変更され得る。いくつかの実施形態では、追加のまたは異なるコンピューティングシステムもしくはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスは、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることもできる。タスクまたはイベントが、開示される例示的実施形態に追加され、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実施形態においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品において一緒に統合され、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。
前述の明細書では、本発明は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本発明のより広義の精神および範囲から逸脱することなくそこに行われ得ることが明白であろう。明細書および図面は、故に、限定的意味ではなく、例証と見なされるべきである。
実際、本開示のシステムおよび方法の各々は、いくつかの革新的側面を有し、それらのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与せず、またはそのために要求されないことを理解されたい。上で説明される種々の特徴およびプロセスは、互いに独立して使用され得るか、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。
別個の実施形態の文脈において本明細書に説明されるある特徴はまた、単一の実施形態における組み合わせにおいて実装され得る。逆に、単一の実施形態の文脈において説明される種々の特徴も、複数の実施形態において別個に、または任意の好適な副次的組み合わせにおいて実装され得る。さらに、特徴がある組み合わせにおいて作用するものとして上で説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除され得、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変動を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要もしくは必須ではない。
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.)」等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図されることを理解されたい。したがって、そのような条件文は、概して、特徴、要素、および/もしくはステップが、1つ以上の実施形態に対していかようにも要求されること、または1つ以上の実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/もしくはステップが任意の特定の実施形態において含まれるか、もしくは実施されるべきかどうかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「~を備えている」、「~を含む」、「~を有する」、および同等物は、同義語であり、非限定的方式で包括的に使用され、追加の要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つ以上の」または「少なくとも1つ」を意味するように解釈されるべきである。同様に、動作は、特定の順序で図面に描写され得るが、それは、望ましい結果を達成するために、そのような動作が示される特定の順序で、もしくは連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つ以上の追加の動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配置される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上で説明される実施形態における種々のシステムコンポーネントの分離は、全ての実施形態におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合されるか、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。
故に、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。

Claims (18)

  1. 1つ以上のプロセッサと、命令を記憶している1つ以上のコンピュータ記憶媒体とを備えているシステムであって、前記命令は、前記1つ以上のプロセッサによって実行されると、
    ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
    前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、ディスプレイデバイスを介して、前記ユーザからの深度に関連付けられた深度キューを用いて提示されるように構成されており、前記深度キューは、遠近調節キューを備えている、ことと、
    前記凝視点の1つ以上の遠近調節キューに対応するように前記第1の仮想オブジェクトの1つ以上の遠近調節キューを調節することであって、前記凝視点は、前記第1の仮想オブジェクトに関連付けられた深度と異なる深度を有する第2のオブジェクトに対応し、調節することは、他の仮想オブジェクトが前記第2のオブジェクトと同一深度にあるように調節されるようにするためのユーザ入力の指示、または、前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定に基づき、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、ことと、
    ディスプレイデバイスを介して、前記調節された1つ以上の遠近調節キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
    を含む動作を前記1つ以上のプロセッサに行わせる、システム。
  2. 前記ディスプレイデバイスは、複数のスタックされた導波管を備え、各々が、ディスプレイエリアを有し、前記ディスプレイエリアを通して周囲環境のビューを提供し、前記複数の導波管のうちの少なくともいくつかの導波管は、他の導波管と異なる波面発散を伴う光を出力するように構成され、異なる波面発散量が、異なる深度平面に対応する、請求項1に記載のシステム。
  3. 1つ以上の遠近調節キューを調節することは、前記第1の仮想オブジェクトを形成するための光を出力する導波管を変えることを含む、請求項2に記載のシステム。
  4. 前記深度キューは、サイズキューおよび/または両眼キューをさらに備えている、請求項1に記載のシステム。
  5. 前記動作は、
    前記調節された遠近調節キューを用いた前記第1の仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
    閾値を超える前記遠近調節・両眼離反運動不整合に応答して、1つ以上の両眼キューを調節することと
    をさらに含む、請求項4に記載のシステム。
  6. 前記両眼キューの調節は、前記ユーザからの前記第1の仮想オブジェクトの知覚された深度における調節を生じさせ、前記動作は、前記第1の仮想オブジェクトの1つ以上のサイズキューを調節することをさらに含む、請求項5に記載のシステム。
  7. 前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定は、前記第1の仮想オブジェクトおよび前記第2のオブジェクトが凝視されているそれぞれの時間量に基づく、請求項1に記載のシステム。
  8. 前記第1の仮想オブジェクトの場所は、前記ユーザ入力の指示に基づいて調節され、前記指示を受信することは、1つ以上の手のジェスチャを含むユーザ入力を受信することを含む、請求項1に記載のシステム。
  9. 前記1つ以上の手のジェスチャは、特定の3次元場所を示し、前記第1の仮想オブジェクトの前記深度キューは、前記特定の3次元場所に対応するように調節される、請求項に記載のシステム。
  10. 方法であって、
    1つ以上のプロセッサを備えているシステムによって、
    ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
    前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、ディスプレイデバイスを介して、前記ユーザからの深度に関連付けられた深度キューを用いて提示されるように構成されており、前記深度キューは、遠近調節キューを備えている、ことと、
    前記凝視点の1つ以上の遠近調節キューに対応するように前記第1の仮想オブジェクトの1つ以上の遠近調節キューを調節することであって、前記凝視点は、前記第1の仮想オブジェクトに関連付けられた深度と異なる深度を有する第2のオブジェクトに対応し、調節することは、他の仮想オブジェクトが前記第2のオブジェクトと同一深度にあるように調節されるようにするためのユーザ入力の指示、または、前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定に基づき、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、ことと、
    ディスプレイデバイスを介して、前記調節された1つ以上の遠近調節キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
    を実行することを含む、方法。
  11. 前記ディスプレイデバイスは、複数のスタックされた導波管を備え、1つ以上の遠近調節キューを調節することは、前記第1の仮想オブジェクトを形成するための光を出力する導波管を変えることを含、前記複数の導波管のうちの少なくともいくつかの導波管は、他の導波管と異なる波面発散を伴う光を出力するように構成され、異なる波面発散量が、異なる深度平面に対応する、請求項10に記載の方法。
  12. 前記深度キューは、サイズキューおよび/または両眼キューをさらに備えている、請求項10に記載の方法。
  13. 前記方法は、
    前記調節された遠近調節キューを用いた前記第1の仮想オブジェクトの提示に関連付けられた遠近調節・両眼離反運動不整合を決定することと、
    閾値を超える前記遠近調節・両眼離反運動不整合に応答して、1つ以上の両眼キューを調節することと
    をさらに含む、請求項12に記載の方法。
  14. 前記両眼キューの調節は、前記ユーザからの前記第1の仮想オブジェクトの知覚された深度における調節を生じさせ、前記方法は、前記第1の仮想オブジェクトの1つ以上のサイズキューを調節することをさらに含む、請求項13に記載の方法。
  15. 前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定は、前記第1の仮想オブジェクトおよび前記第2のオブジェクトが凝視されているそれぞれの時間量に基づく、請求項10に記載の方法。
  16. 前記第1の仮想オブジェクトの場所は、前記ユーザ入力の指示に基づいて調節され、前記指示を受信することは、1つ以上の手のジェスチャを含むユーザ入力を受信することを含む、請求項10に記載の方法。
  17. 前記1つ以上の手のジェスチャは、特定の3次元場所を示し、前記第1の仮想オブジェクトの前記深度キューは、前記特定の3次元場所に対応するように調節される、請求項16に記載の方法。
  18. 命令を記憶している非一過性コンピュータ記憶媒体であって、前記命令は、1つ以上のコンピュータのシステムによって実行されると、
    ユーザの眼の凝視点を決定することであって、前記凝視点は、前記ユーザの視野内の3次元場所である、ことと、
    前記ユーザに提示すべき第1の仮想オブジェクトに関連付けられた場所情報を得ることであって、前記第1の仮想オブジェクトは、ディスプレイデバイスを介して、前記ユーザからの深度に関連付けられた深度キューを用いて提示されるように構成されており、前記深度キューは、遠近調節キューを備えている、ことと、
    前記凝視点の1つ以上の遠近調節キューに対応するように前記第1の仮想オブジェクトの1つ以上の遠近調節キューを調節することであって、前記凝視点は、前記第1の仮想オブジェクトに関連付けられた深度と異なる深度を有する第2のオブジェクトに対応し、調節することは、他の仮想オブジェクトが前記第2のオブジェクトと同一深度にあるように調節されるようにするためのユーザ入力の指示、または、前記第1の仮想オブジェクトが前記第2のオブジェクトよりも少なく凝視されていることの決定に基づき、前記第2のオブジェクトは、仮想オブジェクトまたは実世界オブジェクトである、ことと、
    ディスプレイデバイスを介して、前記調節された1つ以上の遠近調節キューを用いて、前記第1の仮想オブジェクトの前記ユーザへの提示を生じさせることと
    を含む動作を前記1つ以上のコンピュータに行わせる、非一過性コンピュータ記憶媒体。
JP2021212125A 2016-02-11 2021-12-27 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム Active JP7273940B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023074418A JP2023109774A (ja) 2016-02-11 2023-04-28 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム

Applications Claiming Priority (16)

Application Number Priority Date Filing Date Title
US201662294147P 2016-02-11 2016-02-11
US62/294,147 2016-02-11
US201662366599P 2016-07-25 2016-07-25
US201662366533P 2016-07-25 2016-07-25
US62/366,599 2016-07-25
US62/366,533 2016-07-25
US201662396071P 2016-09-16 2016-09-16
US62/396,071 2016-09-16
US201662440336P 2016-12-29 2016-12-29
US201662440332P 2016-12-29 2016-12-29
US62/440,336 2016-12-29
US62/440,332 2016-12-29
US201762445630P 2017-01-12 2017-01-12
US62/445,630 2017-01-12
PCT/US2017/017505 WO2017139667A1 (en) 2016-02-11 2017-02-10 Multi-depth plane display system with reduced switching between depth planes
JP2018540761A JP7089475B2 (ja) 2016-02-11 2017-02-10 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018540761A Division JP7089475B2 (ja) 2016-02-11 2017-02-10 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023074418A Division JP2023109774A (ja) 2016-02-11 2023-04-28 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム

Publications (3)

Publication Number Publication Date
JP2022033232A JP2022033232A (ja) 2022-02-28
JP2022033232A5 JP2022033232A5 (ja) 2022-04-01
JP7273940B2 true JP7273940B2 (ja) 2023-05-15

Family

ID=59563501

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018540761A Active JP7089475B2 (ja) 2016-02-11 2017-02-10 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム
JP2021212125A Active JP7273940B2 (ja) 2016-02-11 2021-12-27 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム
JP2023074418A Pending JP2023109774A (ja) 2016-02-11 2023-04-28 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018540761A Active JP7089475B2 (ja) 2016-02-11 2017-02-10 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023074418A Pending JP2023109774A (ja) 2016-02-11 2023-04-28 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム

Country Status (10)

Country Link
US (1) US20220028175A1 (ja)
EP (1) EP3414899A4 (ja)
JP (3) JP7089475B2 (ja)
KR (3) KR102503155B1 (ja)
CN (2) CN113225547A (ja)
AU (2) AU2017217972B2 (ja)
CA (1) CA3014189A1 (ja)
IL (2) IL260939B2 (ja)
NZ (2) NZ744822A (ja)
WO (1) WO2017139667A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138793B2 (en) 2014-03-14 2021-10-05 Magic Leap, Inc. Multi-depth plane display system with reduced switching between depth planes
CN109074785B (zh) 2016-03-04 2022-05-10 奇跃公司 减少用电的显示系统以及用于减少显示系统的用电的方法
KR20180122726A (ko) 2016-03-25 2018-11-13 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
IL295059A (en) 2016-10-05 2022-09-01 Magic Leap Inc A blind eye test for mixed reality calibration
KR102170123B1 (ko) 2016-12-14 2020-10-26 주식회사 엘지화학 차광막이 형성되어 있는 도파관 및 이의 제조방법
US10373936B2 (en) * 2017-08-22 2019-08-06 Facebook Technologies, Llc Pixel elements including light emitters of variable heights
CN107835403B (zh) * 2017-10-20 2020-06-26 华为技术有限公司 一种以3d视差效果显示的方法及装置
EP4354207A2 (en) 2018-01-17 2024-04-17 Magic Leap, Inc. Eye center of rotation determination, depth plane selection, and render camera positioning in display systems
JP7291708B2 (ja) 2018-01-17 2023-06-15 マジック リープ, インコーポレイテッド ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
US10284753B1 (en) 2018-07-03 2019-05-07 Sony Corporation Virtual reality media content generation in multi-layer structure based on depth of field
WO2020018938A1 (en) 2018-07-19 2020-01-23 Magic Leap, Inc. Content interaction driven by eye metrics
WO2020023542A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Display systems and methods for determining registration between a display and eyes of a user
CN109803133B (zh) * 2019-03-15 2023-04-11 京东方科技集团股份有限公司 一种图像处理方法及装置、显示装置
CN111726602B (zh) * 2019-03-22 2022-04-22 舜宇光学(浙江)研究院有限公司 异视场角摄像-显像系统的匹配方法及其系统和计算系统
CN117590582A (zh) 2019-04-11 2024-02-23 三星电子株式会社 头戴式显示设备及其操作方法
CN110244839B (zh) * 2019-05-20 2022-11-18 联想(上海)信息技术有限公司 控制方法、电子设备和存储介质
US11089282B2 (en) * 2019-05-23 2021-08-10 Magic Leap, Inc. Blended mode three dimensional display systems and methods
US11726318B2 (en) 2019-12-10 2023-08-15 Magic Leap, Inc. Increased depth of field for mixed-reality display
EP4162343A1 (en) * 2020-06-05 2023-04-12 Magic Leap, Inc. Enhanced eye tracking techniques based on neural network analysis of images
CN113419350B (zh) * 2021-06-18 2023-05-23 深圳市腾讯计算机系统有限公司 虚拟现实显示设备、画面呈现方法、装置及存储介质
CN113426110B (zh) * 2021-06-24 2023-11-17 腾讯科技(上海)有限公司 虚拟角色交互方法、装置、计算机设备和存储介质
CN115251827B (zh) * 2022-09-26 2022-12-30 广东视明科技发展有限公司 基于虚实结合的深度知觉评估方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064760A (ja) 2009-09-15 2011-03-31 Nippon Seiki Co Ltd 車両用表示装置
WO2014158633A1 (en) 2013-03-14 2014-10-02 Qualcomm Incorporated User interface for a head mounted display
JP2015005972A (ja) 2013-05-22 2015-01-08 株式会社テレパシーホールディングス 撮影画像のプライバシー保護機能を有するウェアラブルデバイス及びその制御方法並びに画像共有システム
US20150178939A1 (en) 2013-11-27 2015-06-25 Magic Leap, Inc. Virtual and augmented reality systems and methods
WO2015184412A1 (en) 2014-05-30 2015-12-03 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3298082B2 (ja) * 1994-12-13 2002-07-02 日本電信電話株式会社 ヘッドマウントディスプレィ装置
JP3651204B2 (ja) * 1996-12-18 2005-05-25 トヨタ自動車株式会社 立体画像表示装置、立体画像表示方法及び記録媒体
JP3882273B2 (ja) * 1997-06-03 2007-02-14 日産自動車株式会社 両眼立体視表示装置
JPH11109279A (ja) * 1997-10-03 1999-04-23 Minolta Co Ltd 映像表示装置
AU2002361572A1 (en) * 2001-10-19 2003-04-28 University Of North Carolina At Chape Hill Methods and systems for dynamic virtual convergence and head mountable display
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
US20150097772A1 (en) * 2012-01-06 2015-04-09 Thad Eugene Starner Gaze Signal Based on Physical Characteristics of the Eye
CN103472909B (zh) * 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
WO2013156333A1 (en) * 2012-04-19 2013-10-24 Thomson Licensing Method and device for correcting distortion errors due to accommodation effect in stereoscopic display
CN107817555A (zh) * 2012-06-11 2018-03-20 奇跃公司 使用波导反射器阵列投射器的多深度平面三维显示器
US9310611B2 (en) * 2012-09-18 2016-04-12 Qualcomm Incorporated Methods and systems for making the use of head-mounted displays less obvious to non-users
US20140092006A1 (en) * 2012-09-28 2014-04-03 Joshua Boelter Device and method for modifying rendering based on viewer focus area from eye tracking
US9619911B2 (en) * 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
US10533850B2 (en) * 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
JP5825328B2 (ja) * 2013-11-07 2015-12-02 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
NZ720610A (en) * 2013-11-27 2020-04-24 Magic Leap Inc Virtual and augmented reality systems and methods
US9857591B2 (en) * 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
US9313481B2 (en) * 2014-02-19 2016-04-12 Microsoft Technology Licensing, Llc Stereoscopic display responsive to focal-point shift
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064760A (ja) 2009-09-15 2011-03-31 Nippon Seiki Co Ltd 車両用表示装置
WO2014158633A1 (en) 2013-03-14 2014-10-02 Qualcomm Incorporated User interface for a head mounted display
JP2015005972A (ja) 2013-05-22 2015-01-08 株式会社テレパシーホールディングス 撮影画像のプライバシー保護機能を有するウェアラブルデバイス及びその制御方法並びに画像共有システム
US20150178939A1 (en) 2013-11-27 2015-06-25 Magic Leap, Inc. Virtual and augmented reality systems and methods
WO2015184412A1 (en) 2014-05-30 2015-12-03 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality

Also Published As

Publication number Publication date
EP3414899A4 (en) 2019-11-06
CN108886612A (zh) 2018-11-23
CN108886612B (zh) 2021-05-25
NZ744822A (en) 2020-01-31
JP2019507902A (ja) 2019-03-22
WO2017139667A1 (en) 2017-08-17
CN113225547A (zh) 2021-08-06
CA3014189A1 (en) 2017-08-17
KR20180111988A (ko) 2018-10-11
KR102503155B1 (ko) 2023-02-22
KR20230030030A (ko) 2023-03-03
NZ758505A (en) 2021-07-30
IL260939A (ja) 2018-09-20
JP2023109774A (ja) 2023-08-08
KR20230144666A (ko) 2023-10-16
IL260939B2 (en) 2023-10-01
AU2017217972B2 (en) 2022-02-10
JP7089475B2 (ja) 2022-06-22
AU2017217972A1 (en) 2018-08-16
JP2022033232A (ja) 2022-02-28
KR102587841B1 (ko) 2023-10-10
IL260939B1 (en) 2023-06-01
AU2022203090A1 (en) 2022-05-26
EP3414899A1 (en) 2018-12-19
IL302656A (en) 2023-07-01
US20220028175A1 (en) 2022-01-27

Similar Documents

Publication Publication Date Title
JP7273940B2 (ja) 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム
US11138793B2 (en) Multi-depth plane display system with reduced switching between depth planes
JP7398507B2 (ja) 仮想および拡張現実システムおよび方法
JP7171849B2 (ja) 可変焦点レンズ要素を用いた拡張現実システムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R150 Certificate of patent or registration of utility model

Ref document number: 7273940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150