JP2021511723A - 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け - Google Patents

眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け Download PDF

Info

Publication number
JP2021511723A
JP2021511723A JP2020539042A JP2020539042A JP2021511723A JP 2021511723 A JP2021511723 A JP 2021511723A JP 2020539042 A JP2020539042 A JP 2020539042A JP 2020539042 A JP2020539042 A JP 2020539042A JP 2021511723 A JP2021511723 A JP 2021511723A
Authority
JP
Japan
Prior art keywords
eye
user
display system
electronic device
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020539042A
Other languages
English (en)
Other versions
JP7390297B2 (ja
JPWO2019143844A5 (ja
Inventor
サミュエル エー. ミラー,
サミュエル エー. ミラー,
ロメシュ アガルワル,
ロメシュ アガルワル,
ライオネル アーネスト エドウィン,
ライオネル アーネスト エドウィン,
イヴァン リー チェン ヨー,
イヴァン リー チェン ヨー,
ダニエル ファーマー,
ダニエル ファーマー,
セルゲイ フョードロヴィチ プロクシュキン,
セルゲイ フョードロヴィチ プロクシュキン,
ヨナタン ムンク,
ヨナタン ムンク,
エドウィン ジョセフ セルカー,
エドウィン ジョセフ セルカー,
ブラッドリー ヴィンセント スチュアート,
ブラッドリー ヴィンセント スチュアート,
ジェフリー スコット ソマーズ,
ジェフリー スコット ソマーズ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021511723A publication Critical patent/JP2021511723A/ja
Publication of JPWO2019143844A5 publication Critical patent/JPWO2019143844A5/ja
Priority to JP2023140017A priority Critical patent/JP2023160877A/ja
Application granted granted Critical
Publication of JP7390297B2 publication Critical patent/JP7390297B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/111Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0081Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/40Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images giving the observer of a single two-dimensional [2D] image a perception of depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model

Abstract

ディスプレイシステムは、異なる量の発散およびコリメーションにおいて、光をユーザの眼に投影し、仮想画像コンテンツを表示するように構成される、頭部搭載型ディスプレイを含むことができる。ディスプレイシステムは、ユーザの眼を結像する、内向きに面した結像システムと、内向きに面した結像システムと通信し、ユーザの眼の回転中心の推定値を取得するように構成される、処理電子機器とを含むことができる。ディスプレイシステムは、該眼の回転中心の決定された位置に位置付けられる仮想レンダリングカメラを用いて、画像コンテンツをレンダリングしてもよい。

Description

(関連出願の相互参照)
本願は、「EYE CENTER OF ROTATION DETERMINATION, DEPTH PLANE SELECTION, AND RENDER CAMERA POSITIONING IN DISPLAY SYSTEMS」と題され、2018年1月17日に出願された、米国仮特許出願第62/618559号の優先権を主張する。本願はさらに、「EYE CENTER OF ROTATION DETERMINATION, DEPTH PLANE SELECTION, AND RENDER CAMERA POSITIONING IN DISPLAY SYSTEMS」と題され、2018年7月24日に出願された、米国仮特許出願第62/702849号の優先権を主張する。上記の出願はそれぞれ、参照することによってその全体として本明細書に組み込まれる。
本願はさらに、「IRIS BOUNDARY ESTIMATION USING CORNEA CURVATURE」と題され、2018年1月18日に公開された、米国特許公開第2018/0018515号を参照することによって組み込む。
本開示は、ディスプレイシステム、仮想現実、および拡張現実結像および可視化システムに関し、より具体的には、部分的に、ユーザの瞳孔間距離に基づく、深度平面選択に関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」、「拡張現実」、または「複合現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式でユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実または「MR」は、物理的および仮想オブジェクトが、共存し、リアルタイムで相互作用する、新しい環境を生成するための実世界と仮想世界の融合に関連する。結論から述べると、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、VR、AR、またはMR技術の生産は、困難である。本明細書に開示されるシステムおよび方法は、VR、AR、およびMR技術に関連する種々の課題に対処する。
複合現実システムにおける深度平面選択の種々の実施例が、開示される。
ディスプレイシステムは、光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成されることができる。ユーザの眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し得る。ディスプレイシステムは、ユーザの頭部上に支持されるように構成される、フレームと、フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの1つにおいて、光をユーザの眼に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の回転中心の推定値を取得するように構成される、処理電子機器とを含むことができる。
光をユーザの片眼または両眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示する、下記に列挙される実施例等のディスプレイシステムの種々の実施例が、本明細書に説明される。
実施例1:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、該光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、
ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、
ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の回転中心の推定値を取得するように構成される、処理電子機器と、
を備える、ディスプレイシステム。
実施例2:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該1つ以上の眼追跡カメラは、該1つ以上の光源からの光を使用して、該眼の画像を形成する、実施例1に記載のディスプレイシステム。
実施例3:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、実施例1または2に記載のディスプレイシステム。
実施例4:該1つ以上の光源は、赤外線光エミッタを備える、実施例1または3に記載のディスプレイシステム。
実施例5:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の場所を決定するように構成される、実施例1−4のいずれかに記載のディスプレイシステム。
実施例6:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該角膜球体の曲率中心の場所を決定するように構成される、実施例1−5のいずれかに記載のディスプレイシステム。
実施例7:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜球体の曲率中心の場所を決定するように構成される、実施例5に記載のディスプレイシステム。
実施例8:該1つ以上の眼追跡カメラは、該眼の瞳孔を結像するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例9:該処理電子機器は、該瞳孔の中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例10:該処理電子機器は、該虹彩と該瞳孔との間の境界の少なくとも一部を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例11:該処理電子機器は、該虹彩と該瞳孔との間の境界の中心を決定するように構成される、実施例10に記載のディスプレイシステム。
実施例12:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例13:該処理電子機器は、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例14:該処理電子機器は、3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、実施例12に記載のディスプレイシステム。
実施例15:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例16:該処理電子機器は、該角膜の曲率中心に基づいて、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例17:該処理電子機器は、該角膜の曲率中心および該光学軸の場所および配向に基づいて、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例18:該処理電子機器は、該角膜の曲率中心から該光学軸に沿った特定の距離を平行移動させることによって、該眼の回転中心の場所を決定するように構成される、実施例17に記載のディスプレイシステム。
実施例19:該曲率中心から該回転中心までの特定の距離は、4.0mm〜6.0mmである、実施例18に記載のディスプレイシステム。
実施例20:該曲率中心から該回転中心までの特定の距離は、約4.7mmである、実施例18または19に記載のディスプレイシステム。
実施例21:該特定の距離は、固定される、実施例18または19に記載のディスプレイシステム。
実施例22:該処理電子機器は、少なくとも、該1つ以上の眼追跡カメラを用いて以前に取得された該眼の1つ以上の画像に基づいて、特定の距離を決定するように構成される、実施例18または19に記載のディスプレイシステム。
実施例23:該処理電子機器は、該光学軸の場所および配向に基づいて、該光学軸からオフセットされた該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例24:該処理電子機器は、該光学軸に対する角回転に基づいて、該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例25:該処理電子機器は、該光学軸に対する4.0°〜6.5°の角回転に基づいて、該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例26:該処理電子機器は、該光学軸に対する約5.2°の角回転に基づいて、該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例27:該処理電子機器は、少なくとも、該1つ以上の眼追跡カメラを用いて以前に取得された該眼の1つ以上の画像に基づいて、該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例28:該処理電子機器は、該眼が回転している期間にわたって、該光学軸または視軸の場所の複数の決定に基づいて、該眼の回転中心を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例29:該処理電子機器は、該眼が回転している期間にわたって、該光学軸または視軸の場所の複数の決定の交差、収束、または近接近の領域を識別することによって、該回転中心を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例30:該処理電子機器は、該ユーザの左および右眼に関する該光学軸の場所および配向の決定に基づいて、ユーザの左および右眼が注視している、該ユーザの輻輳・開散運動(vergence)距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例31:該処理電子機器は、該ユーザの左および右眼に関する該視軸の場所および配向の決定に基づいて、ユーザの左および右眼が注視している、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例32:該処理電子機器は、該ユーザの左および右眼に関する該視軸の交差、収束、または近接近の領域を識別することに基づいて、ユーザの左および右眼が注視している、輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例33:該処理電子機器は、該左および右眼に関する視軸を水平平面上に投影し、該水平平面上への該左および右眼に関する視軸の投影の交差、収束、または近接近の領域を識別することによって、ユーザの左および右眼が注視している、輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例34:該処理電子機器は、該輻輳・開散運動距離の決定に基づいて、画像コンテンツを投影するための発散およびコリメーションのうちの少なくとも1つの相対的量を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例35:該処理電子機器は、該フレーム上の電子機器を含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例36:該処理電子機器は、該フレーム上の電子機器と、該フレームから遠隔の場所に配置される、電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例37:該処理電子機器は、該フレーム上の電子機器と、ベルトパック上の電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例38:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記実施例のいずれかに記載のディスプレイシステム。
実施例39:該頭部搭載型ディスプレイは、第1の発散量において、ユーザの正面の環境の一部からの光を受け取り、第1の発散量に実質的に類似する、第2の発散量を伴って、ユーザの眼の正面の環境の一部からの光をユーザの眼に透過させる、上記実施例のいずれかに記載のディスプレイシステム。
実施例40:処理電子機器は、複数の推定される回転中心位置をフィルタリングする、平均する、カルマンフィルタを適用する、またはそれらの任意の組み合わせによって、回転中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例41:該処理電子機器は、該ユーザの眼の回転中心の決定された位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例42:該処理電子機器は、レンダリングカメラを該回転中心において使用し、仮想画像を該眼に提示されるようにレンダリングするように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例43:該処理電子機器は、該眼の網膜より該回転中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、レンダリングカメラを使用するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例44:該処理電子機器は、該眼の回転中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、レンダリングカメラを使用するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例45:該処理電子機器は、レンダリングカメラを該回転中心において使用し、仮想画像を該眼に提示されるようにレンダリングするように構成され、該レンダリングカメラは、該眼の回転中心に開口を伴ってモデル化される、上記実施例のいずれかに記載のディスプレイシステム。
実施例46:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、該光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、
ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、
ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、処理電子機器は、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の視点中心の位置推定値を取得するように構成され、該視点中心は、該眼の瞳孔の近位にあるかまたは該角膜と該眼の瞳孔との間にあると推定される、処理電子機器と、
を備え、該処理電子機器は、該視点中心に位置するレンダリングカメラによってレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、ディスプレイシステム。
実施例47:該処理電子機器は、網膜より該視点中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例48:該処理電子機器は、眼の回転中心より該視点中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例49:該処理電子機器は、該視点中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例50:該視点中心は、該眼の瞳孔に位置しない、上記実施例のいずれかに記載のディスプレイシステム。
実施例51:処理電子機器は、ユーザの眼姿勢の推定値を経時的に取得するように構成され、処理電子機器は、少なくとも部分的に、ユーザの眼姿勢に基づいて、レンダリングカメラの位置を調節する、上記実施例のいずれかに記載のディスプレイシステム。
実施例52:処理電子機器は、該ユーザの眼姿勢を経時的に追跡するように構成され、レンダリングカメラの位置は、該ユーザの眼姿勢の経時的変化に応答して、経時的に調節される、上記実施例のいずれかに記載のディスプレイシステム。
実施例53:処理電子機器は、複数の推定される視点中心位置をフィルタリングすることによって、視点中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例54:処理電子機器は、複数の推定される視点中心位置を平均し、および/またはカルマンフィルタを適用することによって、視点中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例55:視点中心は、該ユーザの眼の前房内の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例56:視点中心は、該ユーザの眼の該瞳孔の正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例57:視点中心は、該ユーザの眼の該瞳孔の1.0mm〜2.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例58:視点中心は、該ユーザの眼の該瞳孔の約1.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例59:視点中心は、該ユーザの眼の該瞳孔の0.25mm〜1.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例60:視点中心は、該ユーザの眼の該瞳孔の0.5mm〜1.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例61:視点中心は、該ユーザの眼の該瞳孔の0.25mm〜0.5mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例62:視点中心は、該眼の光学軸に沿ってあり、該処理電子機器はさらに、該眼の光学軸の位置推定値を取得することによって、視点中心の位置推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例63:視点中心は、該眼の光学軸に沿って、該眼の角膜の外側表面と瞳孔との間の位置にあって、該処理電子機器はさらに、該眼の光学軸の位置推定値を取得することによって、視点中心の位置推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例64:視点中心は、該眼の光学軸に沿って、該眼の角膜の外側表面と瞳孔との間の位置にあって、該処理電子機器はさらに、該眼の光学軸の位置推定値および該眼の回転中心の位置推定値、該眼の角膜、該眼の虹彩、該眼の網膜、および該眼の瞳孔、またはそれらの任意の組み合わせを取得することによって、視点中心の位置推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例65:該処理電子機器は、該フレーム上の電子機器を含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例66:該処理電子機器は、該フレーム上の電子機器と、該フレームから遠隔の場所に配置される、電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例67:該処理電子機器は、該フレーム上の電子機器と、ベルトパック上の電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例68:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記実施例のいずれかに記載のディスプレイシステム。
実施例69:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該1つ以上の眼追跡カメラは、該1つ以上の光源からの光を使用して、該眼の画像を捕捉する、上記実施例のいずれかに記載のディスプレイシステム。
実施例70:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例71:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも3つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例72:該1つ以上の光源は、赤外線光エミッタを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例73:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の曲率中心の位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例74:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の曲率中心の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例75:該1つ以上の眼−追跡カメラはさらに、該ユーザの眼の瞳孔を結像するように構成され、該処理電子機器はさらに、少なくとも、1つ以上の眼追跡カメラからの該瞳孔の画像に基づいて、該眼の瞳孔の位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例76:該1つ以上の眼−追跡カメラはさらに、該ユーザの眼の瞳孔を結像するように構成され、該処理電子機器はさらに、少なくとも、1つ以上の眼追跡カメラからの該瞳孔の画像に基づいて、該眼の瞳孔の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例77:該1つ以上の眼−追跡カメラはさらに、該ユーザの眼の瞳孔を結像するように構成され、該処理電子機器はさらに、該角膜の曲率中心の位置に基づいて、かつ1つ以上の眼追跡カメラからの該瞳孔の画像に基づいて、該眼の瞳孔の位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例78:該処理電子機器は、該角膜の曲率中心の3次元位置に基づいて、かつ該瞳孔の3次元位置に基づいて、該眼の光学軸を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例79:該処理電子機器は、光学軸に基づいて、該眼の視軸を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例80:該処理電子機器は、該角膜の曲率中心、該瞳孔、または両方のうちの少なくとも1つの光学軸および3次元位置に基づいて、該眼の視軸を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例81:該処理電子機器は、該角膜の曲率中心の3次元位置に基づいて、該眼の回転中心の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例82:該処理電子機器は、該角膜の曲率中心の3次元位置に基づいて、かつ該光学軸に基づいて、該眼の回転中心の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例83:該処理電子機器は、少なくとも、該眼の回転中心の3次元位置に基づいて、該ユーザの該眼と対眼との間の距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例84:該処理電子機器は、少なくとも、該眼の回転中心の3次元位置に基づいて、該ユーザの該眼と対眼との間の瞳孔間距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例85:該処理電子機器は、少なくとも、該眼の光学軸に基づいて、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例86:該処理電子機器は、少なくとも、該ユーザの該眼の光学軸および対眼の決定された光学軸に基づいて、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例87:該処理電子機器は、少なくとも、該ユーザの該眼の視軸および対眼の決定された視軸に基づいて、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例88:該ディスプレイは、コリメートされた光を該ユーザの眼の中に投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例89:該ディスプレイは、第1の期間において、画像ピクセルに対応するコリメートされた光を該ユーザの眼の中に投影し、第2の期間において、該画像ピクセルに対応する発散光を該ユーザの眼の中に投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例90:該ディスプレイは、第1の期間において、第1の発散量を有する、画像ピクセルに対応する光を該ユーザの眼の中に投影し、第2の期間において、第1の発散量を上回る第2の発散量を有する、該画像ピクセルに対応する光を該ユーザの眼の中に投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例91:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムにおいて、仮想画像コンテンツをレンダリングする方法であって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
該ユーザの眼を結像し、該眼の移動を追跡するように構成される、1つ以上の眼追跡カメラを用いて、該眼の回転中心の位置を決定するステップと、
レンダリングエンジンを用いて、該眼の回転中心におけるレンダリングカメラを用いて、仮想画像コンテンツをレンダリングするステップであって、該レンダリングカメラは、仮想画像を該眼に提示されるようにレンダリングするように構成される、ステップと、
頭部搭載型ディスプレイを用いて、仮想画像コンテンツが異なる深度から異なる期間において生じるように現れるように、異なる量の発散において、光を該ユーザの眼の中に投影し、レンダリングされた仮想画像コンテンツをユーザの視野に表示するステップと、
を含む、方法。
実施例92:該レンダリングカメラは、該眼の網膜より該回転中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、上記実施例のいずれかに記載の方法。
実施例93:該レンダリングカメラは、該回転中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、上記実施例のいずれかに記載の方法。
実施例94:該レンダリングカメラは、該眼の回転中心における開口を用いてモデル化される、上記実施例のいずれかに記載の方法。
実施例95:該レンダリングカメラは、開口、レンズ、および検出器を用いてモデル化される、上記実施例のいずれかに記載の方法。
実施例96:該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該虹彩または瞳孔のうちの少なくとも1つの決定された位置との間の線に沿った位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例97:
1つ以上の眼追跡カメラを用いて、該ユーザの眼の視点中心の位置を決定するステップであって、該ユーザの眼の視点中心は、該ユーザの眼の瞳孔から約1.0mm未満に位置する、ステップと、
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップと、
をさらに含み、該レンダリングカメラは、該ユーザの眼の視点中心の決定された位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例98:
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップをさらに含み、該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該ユーザの眼の視点中心の決定された位置との間の線に沿った位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例99:
1つ以上の眼追跡カメラと通信する、処理電子機器を用いて、該ユーザの眼の視点中心の決定された位置の時間に伴う変化の測定値を決定するステップと、
処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値を超えることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップであって、レンダリングカメラは、該眼の回転中心の決定された位置に開口を有する、ステップと、
をさらに含む、上記実施例のいずれかに記載の方法。
実施例100:
処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、レンダリングカメラは、該眼の視点中心の決定された位置に開口を有し、第1の閾値は、該ユーザの眼の視点中心の決定された位置における第2の閾値より高いレベルの時間に伴う変化を示す、上記実施例のいずれかに記載の方法。
実施例101:
処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、レンダリングカメラは、該眼の視点中心の決定された位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例102:
処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値と第2の閾値との間にあることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該眼の視点中心の決定された位置との間の線に沿った点に開口を有する、上記実施例のいずれかに記載の方法。
実施例103:
該ディスプレイの少なくとも一部であって、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、ユーザの眼の正面の場所に配置される、部分を用いて、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例104:
1つ以上の眼追跡カメラを用いて、該虹彩、瞳孔、または水晶体のうちの少なくとも1つの位置を決定するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例105:
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップをさらに含み、該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該虹彩または瞳孔のうちの少なくとも1つの決定された位置との間の線に沿った位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示するように構成される、上記実施例のいずれかに記載の方法。
実施例106:
1つ以上の眼追跡カメラを用いて、該ユーザの眼の視点中心の位置を決定するステップであって、該ユーザの眼の視点中心は、該ユーザの眼の瞳孔から約1.0mm未満に位置する、ステップと、
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップであって、該レンダリングカメラは、該ユーザの眼の視点中心の決定された位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示するように構成される、ステップと、
をさらに含む、上記実施例のいずれかに記載の方法。
実施例107:
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップをさらに含み、該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該ユーザの眼の視点中心の決定された位置との間の線に沿った位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示するように構成される、上記実施例のいずれかに記載の方法。
実施例108:
1つ以上の眼追跡カメラと通信する、処理電子機器を用いて、該ユーザの眼の視点中心の決定された位置の時間に伴う変化の測定値を決定するステップと、
処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値を超えることが決定される場合、レンダリングエンジンに、該眼の回転中心の決定された位置に開口を有するカメラによって捕捉されたかのように、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップと、
をさらに含む、上記実施例のいずれかに記載の方法。
実施例109:
処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、該眼の視点中心の決定された位置に開口を有するカメラによって捕捉されたかのように、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、第1の閾値は、該ユーザの眼の視点中心の決定された位置における第2の閾値より高いレベルの時間に伴う変化を示す、上記実施例のいずれかに記載の方法。
実施例110:
処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、該眼の視点中心の決定された位置に開口を有するカメラによって捕捉されたかのように、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例111:
処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値と第2の閾値との間にあることが決定される場合、レンダリングエンジンに、(i)該眼の回転中心の決定された位置と(ii)該眼の視点中心の決定された位置との間の線に沿った点に開口を有するカメラによって捕捉されたかのように、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例112:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、異なる量の発散において、光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れ、該頭部搭載型ディスプレイは、第1の発散量を有する光を、第1の期間において、該ユーザの眼の中に投影するように構成され、第2の発散量を有する光を、第2の期間において、該ユーザの眼の中に投影するように構成され、第1の発散量は、第2の発散量と異なる、頭部搭載型ディスプレイと、
ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、
ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の回転中心の推定値を取得し、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該ユーザの輻輳・開散運動距離の推定値を取得し、該ユーザの推定される輻輳・開散運動距離に基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、処理電子機器と、
を備える、ディスプレイシステム。
実施例113:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記実施例のいずれかに記載のディスプレイシステム。
実施例114:該処理電子機器はさらに、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の瞬目を検出するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例115:該処理電子機器はさらに、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼のサッカードを検出するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例116:該処理電子機器は、該ユーザの決定された輻輳・開散運動距離に基づいて、かつ処理電子機器が該眼の瞬目を検出したかどうかに基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例117:該処理電子機器は、該ユーザの決定された輻輳・開散運動距離に基づいて、かつ処理電子機器が該眼のサッカードを検出したかどうかに基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例118:該処理電子機器は、該ユーザの決定された輻輳・開散運動距離に基づいて、かつ処理電子機器がサッカードまたは該眼の瞬目のうちの少なくとも1つを検出したかどうかに基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例119:該第1の発散量は、第1の範囲内の輻輳・開散運動距離と関連付けられ、該第2の発散量は、第2の範囲内の輻輳・開散運動距離と関連付けられる、上記実施例のいずれかに記載のディスプレイシステム。
実施例120:該第1の発散量は、第1の範囲内の輻輳・開散運動距離と関連付けられ、該第2の発散量は、第2の範囲内の輻輳・開散運動距離と関連付けられ、第1および第2の範囲は、重複するが、等しくない、上記実施例のいずれかに記載のディスプレイシステム。
実施例121:該処理電子機器は、該ユーザの輻輳・開散運動距離が、第1の範囲外にあって、第2の範囲内にあることの決定に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例122:該処理電子機器は、該ユーザの輻輳・開散運動距離が、第2の範囲外にあって、第1の範囲内にあることの決定に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例123:該処理電子機器は、該ユーザの輻輳・開散運動距離が、第1の範囲外にあって、第2の範囲内にあることの決定、また、該眼の瞬目の検出に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例124:該処理電子機器は、該ユーザの輻輳・開散運動距離が、第1の範囲外にあって、第2の範囲内にあることの決定、また、該眼のサッカードの検出に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例125:該処理電子機器は、該ユーザの輻輳・開散運動距離が、所定の期間より長い時間にわたって、第1の範囲外にあって、第2の範囲内にあったことの決定に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例126:該処理電子機器は、該ユーザの輻輳・開散運動距離が、少なくとも10秒の所定の期間より長い時間にわたって、第1の範囲外にあって、第2の範囲内にあったことの決定に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例127:該頭部搭載型ディスプレイは、第1の発散量を有する光を投影するように構成される、第1のディスプレイ要素と、第2の発散量を有する光を投影するように構成される、第2のディスプレイ要素とを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例128:該ディスプレイは、ディスプレイが、第1のディスプレイ要素のうちの1つのみを使用して、複数のシーケンシャルフレームと関連付けられた光を投影するように構成される、離散ディスプレイモードにおいて、光を該ユーザの眼の中に投影し、仮想画像コンテンツを表示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例129:該ディスプレイは、ディスプレイが、フレーム毎に、第1および第2のディスプレイ要素の両方を使用して、複数のシーケンシャルフレームと関連付けられた光を投影するように構成される、混成ディスプレイモードにおいて、光を該ユーザの眼の中に投影し、仮想画像コンテンツを表示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例130:該ディスプレイは、ディスプレイが、フレーム毎に、第1および第2のディスプレイ要素の両方を使用して、複数のシーケンシャルフレームと関連付けられた光を投影するように構成される、混成ディスプレイモードにおいて、光を該ユーザの眼の中に投影し、仮想画像コンテンツを表示するように構成され、混成ディスプレイモードでは、ディスプレイは、第1および第2のディスプレイ要素を使用して、第1の発散量と第2の発散量との間の所与の発散量を有するようにユーザによって知覚される、光を投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例131:該ディスプレイは、ディスプレイが、フレーム毎に、第1および第2のディスプレイ要素の両方を使用して、複数のシーケンシャルフレームと関連付けられた光を投影するように構成される、多焦点ディスプレイモードにおいて、光を該ユーザの眼の中に投影し、仮想画像コンテンツを表示するように構成され、多焦点ディスプレイモードでは、ディスプレイは、第3の発散量において、第1の仮想画像コンテンツと関連付けられた光を投影し、第4の発散量において、第2の仮想画像コンテンツと関連付けられた光を投影するように構成され、第3の発散量は、第4の発散量と異なる、上記実施例のいずれかに記載のディスプレイシステム。
実施例132:第3および第4の発散量はそれぞれ、第1の発散量と第2の発散量との間にある、上記実施例のいずれかに記載のディスプレイシステム。
実施例133:第3および第4の発散量のうちの少なくとも1つは、第1の発散量と第2の発散量との間にある、上記実施例のいずれかに記載のディスプレイシステム。
実施例134:第3および第4の発散量は、それぞれ、第1および第2の発散量と等しい、上記実施例のいずれかに記載のディスプレイシステム。
実施例135:ディスプレイは、第1の仮想画像と関連付けられた光をユーザの視野の第1の領域内に投影し、第2の仮想画像と関連付けられた光をユーザの視野の第2の領域内に投影するように構成され、第1および第2の領域は、異なる、上記実施例のいずれかに記載のディスプレイシステム。
実施例136:ディスプレイは、第1の仮想画像と関連付けられた光をユーザの視野の第1の領域内に投影し、第2の仮想画像と関連付けられた光をユーザの視野の第2の領域内に投影するように構成され、第1および第2の領域は、重複しない、上記実施例のいずれかに記載のディスプレイシステム。
実施例137:光をユーザの左および右眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼はそれぞれ、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、光を該ユーザの左および右眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、ユーザの左および右眼からの異なる距離から異なる期間において生じるように現れる、頭部搭載型ディスプレイと、
ユーザの左眼を結像するように構成される、第1の眼追跡カメラと、
ユーザの右眼を結像するように構成される、第2の眼追跡カメラと、
ディスプレイおよび第1および第2の眼追跡カメラと通信する、処理電子機器であって、該第1および第2の眼追跡カメラを用いて取得された該左および右眼の画像に基づいて、ユーザの左眼と右眼との間の瞳孔間距離の推定値を取得するように構成される、処理電子機器と、
を備える、ディスプレイシステム。
実施例138:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該1つ以上の眼追跡カメラは、該1つ以上の光源からの光を使用して、該眼の画像を形成する、上記実施例のいずれかに記載のディスプレイシステム。
実施例139:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例140:該1つ以上の光源は、赤外線光エミッタを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例141:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例142:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該角膜球体の曲率中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例143:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜球体の曲率中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例144:該1つ以上の眼追跡カメラは、該眼の瞳孔を結像するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例145:該処理電子機器は、該瞳孔の中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例146:該処理電子機器は、該虹彩と該瞳孔との間の境界の少なくとも一部を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例147:該処理電子機器は、該虹彩と該瞳孔との間の境界の中心を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例148:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例149:該処理電子機器は、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例150:該処理電子機器は、3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例151:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例152:該処理電子機器は、該角膜の曲率中心に基づいて、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例153:該処理電子機器は、該角膜の曲率中心および該光学軸の場所および配向に基づいて、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例154:該処理電子機器は、該角膜の曲率中心から該光学軸に沿った特定の距離を平行移動させることによって、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例155:光をユーザの左および右眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムにおいて、仮想画像コンテンツをレンダリングする方法であって、該眼はそれぞれ、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
該ユーザの眼を結像し、該眼の移動を追跡するように構成される、1つ以上の眼追跡カメラを用いて、該左眼の回転中心の位置および該右眼の回転中心の位置を決定するステップと、
1つ以上の眼追跡カメラと通信する、処理電子機器を用いて、該左および右眼の回転中心の決定された位置に基づいて、該ユーザの瞳孔間距離を推定するステップと、
1つ以上の眼追跡カメラを用いて、現在の左眼姿勢および現在の右眼姿勢を決定するステップと、
処理電子機器を用いて、該推定される瞳孔間距離と該決定された現在の左眼姿勢および該決定された現在の右眼姿勢を比較することによって、該ユーザの現在の輻輳・開散運動距離を推定するステップと、
を含む、方法。
実施例156:該現在の左および右眼姿勢を決定するステップは、1つ以上の眼追跡カメラを用いて、該ユーザの左眼の該瞳孔の位置および該ユーザの右眼の該瞳孔の位置を推定するステップを含む、上記実施例のいずれかに記載の方法。
実施例157:該現在の左および右眼姿勢を決定するステップは、1つ以上の眼追跡カメラを用いて、該ユーザの左眼の該角膜の位置および該ユーザの右眼の該角膜の位置を推定するステップを含む、上記実施例のいずれかに記載の方法。
実施例158:該現在の左および右眼姿勢を決定するステップは、1つ以上の眼追跡カメラを用いて、該ユーザの左眼の該虹彩の位置および該ユーザの右眼の該虹彩の位置を推定するステップを含む、上記実施例のいずれかに記載の方法。
実施例159:該現在の左および右眼姿勢を決定するステップは、1つ以上の眼追跡カメラを用いて、該ユーザの左眼の該水晶体の位置および該ユーザの右眼の該水晶体の位置を推定するステップを含む、上記実施例のいずれかに記載の方法。
実施例160:該ユーザの現在の輻輳・開散運動距離を推定するステップは、
処理電子機器を用いて、該ユーザの左および右眼の該虹彩の位置間の距離を推定するステップと、
処理電子機器を用いて、該推定される瞳孔間距離と該ユーザの左および右眼の該虹彩の位置間の推定される距離の比較に基づいて、該ユーザの現在の輻輳・開散運動距離を推定するステップと、
を含む、上記実施例のいずれかに記載の方法。
実施例161:頭部搭載型ディスプレイを用いて、仮想画像コンテンツが異なる深度から異なる期間において生じるように現れるように、異なる量の発散において、光を該ユーザの眼の中に投影し、レンダリングされた仮想画像コンテンツをユーザの視野に表示するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例162:該ディスプレイの少なくとも一部であって、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、ユーザの眼の正面の場所に配置される、部分を用いて、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例163:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、該光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、
ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、
ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の回転中心の位置推定値を取得するように構成され、該画像に基づいて、該眼の光学軸の方向推定値を取得するように構成される、処理電子機器と、
を備え、該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に6.0mm〜13.0mm離れるように、該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、ディスプレイシステム。
実施例164:該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に7.0mm〜12.0mm離れて該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例165:該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に8.0mm〜11.0mm離れて該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例166:該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に9.0mm〜10.0mm離れて該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例167:該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に9.5mm〜10.0mm離れて該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例168:該処理電子機器は、光学軸に沿って配置され、約9.7mm該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例169:該処理電子機器は、該フレーム上の電子機器を含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例170:該処理電子機器は、該フレーム上の電子機器と、該フレームから遠隔の場所に配置される、電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例171:該処理電子機器は、該フレーム上の電子機器と、ベルトパック上の電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例172:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記実施例のいずれかに記載のディスプレイシステム。
実施例173:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該1つ以上の眼追跡カメラは、該1つ以上の光源からの光を使用して、該眼の画像を捕捉する、上記実施例のいずれかに記載のディスプレイシステム。
実施例174:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例175:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも3つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例176:該1つ以上の光源は、赤外線光エミッタを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例177:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、該光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、
ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、
ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器と、
を備え、該処理電子機器は、眼の瞳孔に位置するかまたは眼の瞳孔と角膜との間に位置する、レンダリングカメラによってレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、ディスプレイシステム。
実施例178:レンダリングカメラは、該ユーザの眼の該瞳孔の1.0mm〜2.0mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例179:レンダリングカメラは、該ユーザの眼の該瞳孔の約1.0mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例180:レンダリングカメラは、該ユーザの眼の該瞳孔の0.25mm〜1.0mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例181:レンダリングカメラは、該ユーザの眼の該瞳孔の0.5mm〜1.0mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例182:レンダリングカメラは、該ユーザの眼の該瞳孔の0.25mm〜0.5mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例183:レンダリングカメラは、眼の瞳孔に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例184:レンダリングカメラは、眼の瞳孔に位置しない、上記実施例のいずれかに記載のディスプレイシステム。
実施例185:カメラは、ピンホールカメラを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例186:開口は、ピンホールカメラのピンホールを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例187:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムにおいて、仮想画像コンテンツをレンダリングする方法であって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
該ユーザの眼を結像するように構成される、1つ以上の眼カメラを用いて、該1つ以上のカメラを用いた該眼の結像に基づいて、位置を決定するステップと、
レンダリングエンジンを用いて、該決定された位置に基づく場所におけるレンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップであって、該レンダリングカメラは、仮想画像を該眼に提示されるようにレンダリングするように構成される、ステップと、
頭部搭載型ディスプレイを用いて、光を該ユーザの眼の中に投影し、レンダリングされた仮想画像コンテンツをユーザの視野に表示するステップと、
を含む、方法。
実施例188:該位置は、該眼の回転中心である、上記実施例のいずれかに記載の方法。
実施例189:該レンダリングカメラの場所は、該眼の回転中心にある、上記実施例のいずれかに記載の方法。
実施例190:該位置は、該眼の視点中心である、上記実施例のいずれかに記載の方法。
実施例191:該レンダリングカメラの場所は、該眼の視点中心にある、上記実施例のいずれかに記載の方法。
実施例192:該レンダリングカメラは、該眼の網膜より該回転中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、上記実施例のいずれかに記載の方法。
実施例193:該レンダリングカメラは、該回転中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、上記実施例のいずれかに記載の方法。
実施例194:該レンダリングカメラは、該眼の回転中心における開口を用いてモデル化される、上記実施例のいずれかに記載の方法。
実施例195:該レンダリングカメラは、開口、レンズ、および検出器を用いてモデル化される、上記実施例のいずれかに記載の方法。
実施例196:該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該虹彩または瞳孔のうちの少なくとも1つの決定された位置との間の線に沿った位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例197:
1つ以上のカメラを用いて、該ユーザの眼の視点中心の位置を決定するステップであって、該ユーザの眼の視点中心は、該ユーザの眼の瞳孔から約1.0mm未満に位置する、ステップと、
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップと、
をさらに含み、レンダリングカメラは、該ユーザの眼の視点中心の決定された位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例198:
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップをさらに含み、該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該ユーザの眼の視点中心の決定された位置との間の線に沿った位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例199:
1つ以上のカメラと通信する、処理電子機器を用いて、該ユーザの眼の視点中心の決定された位置の時間に伴う変化の測定値を決定するステップと、
処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値を超えることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップであって、レンダリングカメラは、該眼の回転中心の決定された位置に開口を有する、ステップと、
をさらに含む、上記実施例のいずれかに記載の方法。
実施例200:
処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、レンダリングカメラは、該眼の視点中心の決定された位置に開口を有し、第1の閾値は、該ユーザの眼の視点中心の決定された位置における第2の閾値より高いレベルの時間に伴う変化を示す、上記実施例のいずれかに記載の方法。
実施例201:
処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、レンダリングカメラは、該眼の視点中心の決定された位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例202:
処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値と第2の閾値との間にあることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該眼の視点中心の決定された位置との間の線に沿った点に開口を有する、上記実施例のいずれかに記載の方法。
実施例203:
該ディスプレイの少なくとも一部であって、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、ユーザの眼の正面の場所に配置される、部分を用いて、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例204:
1つ以上のカメラを用いて、該虹彩、瞳孔、または水晶体のうちの少なくとも1つの位置を決定するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例205:
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップをさらに含み、該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該虹彩または瞳孔のうちの少なくとも1つの決定された位置との間の線に沿った位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示するように構成される、上記実施例のいずれかに記載の方法。
実施例206:
1つ以上のカメラを用いて、該ユーザの眼の視点中心の位置を決定するステップであって、該ユーザの眼の視点中心は、該ユーザの眼の瞳孔から約1.0mm未満に位置する、ステップと、
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップであって、該レンダリングカメラは、該ユーザの眼の視点中心の決定された位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示するように構成される、ステップと、
をさらに含む、上記実施例のいずれかに記載の方法。
実施例207:
レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップをさらに含み、該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該ユーザの眼の視点中心の決定された位置との間の線に沿った位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示するように構成される、上記実施例のいずれかに記載の方法。
実施例208:該頭部搭載型ディスプレイを用いて、光を該ユーザの眼の中に投影し、レンダリングされた仮想画像コンテンツをユーザの視野に表示するステップは、仮想画像コンテンツが異なる深度から異なる期間において生じるように現れるように、異なる量の発散において、光を該ユーザの眼の中に投影し、レンダリングされた仮想画像コンテンツをユーザの視野に表示するステップを含む、上記実施例のいずれかに記載の方法。
実施例209:該異なる量の発散は、ゼロ発散を含む、上記実施例のいずれかに記載の方法。
実施例210:該異なる量の発散は、コリメーションを含む、上記実施例のいずれかに記載の方法。
実施例211:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成される、ディスプレイと、
ユーザの眼を結像するように構成される、1つ以上のカメラと、
ディスプレイおよび1つ以上のカメラと通信する、処理電子機器であって、該1つ以上のカメラを用いて取得された該眼の画像に基づいて、該眼の位置を取得するように構成される、処理電子機器と、
を備え、該処理電子機器は、該決定された位置に基づく場所に位置する、レンダリングカメラによってレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、ディスプレイシステム。
実施例212:該位置は、該眼の回転中心の推定値である、上記実施例のいずれかに記載のディスプレイシステム。
実施例213:該レンダリングカメラの場所は、該眼の推定される回転中心にある、上記実施例のいずれかに記載のディスプレイシステム。
実施例214:該位置は、該眼の視点中心の推定値である、上記実施例のいずれかに記載のディスプレイシステム。
実施例215:該レンダリングカメラの場所は、該眼の推定される視点中心にある、上記実施例のいずれかに記載のディスプレイシステム。
実施例216:該処理電子機器は、該眼の網膜より該視点中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例217:該処理電子機器は、該網膜より該回転中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例218:該処理電子機器は、該回転中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例219:該処理電子機器は、該視点中心より該回転中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例220:該処理電子機器は、網膜より該視点中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例221:該処理電子機器は、眼の回転中心より該視点中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例222:該処理電子機器は、該視点中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例223:該視点中心は、該眼の瞳孔に位置しない、上記実施例のいずれかに記載のディスプレイシステム。
実施例224:処理電子機器は、ユーザの眼姿勢の推定値を経時的に取得するように構成され、処理電子機器は、少なくとも部分的に、ユーザの眼姿勢に基づいて、レンダリングカメラの位置を調節する、上記実施例のいずれかに記載のディスプレイシステム。
実施例225:処理電子機器は、該ユーザの眼姿勢を経時的に追跡するように構成され、レンダリングカメラの位置は、該ユーザの眼姿勢の経時的変化に応答して、経時的に調節される、上記実施例のいずれかに記載のディスプレイシステム。
実施例226:処理電子機器は、複数の推定される視点中心位置をフィルタリングすることによって、視点中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例227:処理電子機器は、複数の推定される視点中心位置を平均し、および/またはカルマンフィルタを適用することによって、視点中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例228:視点中心は、該ユーザの眼の前房内の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例229:視点中心は、該ユーザの眼の該瞳孔の正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例230:視点中心は、該ユーザの眼の該瞳孔の1.0mm〜2.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例231:視点中心は、該ユーザの眼の該瞳孔の約1.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例232:視点中心は、該ユーザの眼の該瞳孔の0.25mm〜1.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例233:視点中心は、該ユーザの眼の該瞳孔の0.5mm〜1.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例234:視点中心は、該ユーザの眼の該瞳孔の0.25mm〜0.5mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例235:視点中心は、該眼の光学軸に沿ってあり、該処理電子機器はさらに、該眼の光学軸の位置推定値を取得することによって、視点中心の位置推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例236:視点中心は、該眼の光学軸に沿って、該眼の角膜の外側表面と瞳孔との間の位置にあって、該処理電子機器はさらに、該眼の光学軸の位置推定値を取得することによって、視点中心の位置推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例237:視点中心は、該眼の光学軸に沿って、該眼の角膜の外側表面と瞳孔との間の位置にあって、該処理電子機器はさらに、該眼の光学軸の位置推定値および該眼の回転中心の位置推定値、該眼の角膜、該眼の虹彩、該眼の網膜、および該眼の瞳孔、またはそれらの任意の組み合わせを取得することによって、視点中心の位置推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例238:該処理電子機器は、該フレーム上の電子機器を含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例239:該処理電子機器は、該フレーム上の電子機器と、該フレームから遠隔の場所に配置される、電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例240:該処理電子機器は、該フレーム上の電子機器と、ベルトパック上の電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例241:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記実施例のいずれかに記載のディスプレイシステム。
実施例242:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該1つ以上のカメラは、該1つ以上の光源からの光を使用して、該眼の画像を捕捉する、上記実施例のいずれかに記載のディスプレイシステム。
実施例243:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例244:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも3つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例245:該1つ以上の光源は、赤外線光エミッタを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例246:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の曲率中心の位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例247:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の曲率中心の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例248:該1つ以上のカメラはさらに、該ユーザの眼の瞳孔を結像するように構成され、該処理電子機器はさらに、少なくとも、1つ以上のカメラからの該瞳孔の画像に基づいて、該眼の瞳孔の位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例249:該1つ以上のカメラはさらに、該ユーザの眼の瞳孔を結像するように構成され、該処理電子機器はさらに、少なくとも、1つ以上のカメラからの該瞳孔の画像に基づいて、該眼の瞳孔の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例250:該1つ以上のカメラはさらに、該ユーザの眼の瞳孔を結像するように構成され、該処理電子機器はさらに、該角膜の曲率中心の位置に基づいて、かつ1つ以上のカメラからの該瞳孔の画像に基づいて、該眼の瞳孔の位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例251:該処理電子機器は、該角膜の曲率中心の3次元位置に基づいて、かつ該瞳孔の3次元位置に基づいて、該眼の光学軸を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例252:該処理電子機器は、光学軸に基づいて、該眼の視軸を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例253:該処理電子機器は、該角膜の曲率中心、該瞳孔、または両方のうちの少なくとも1つの光学軸および3次元位置に基づいて、該眼の視軸を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例254:該処理電子機器は、該角膜の曲率中心の3次元位置に基づいて、該眼の回転中心の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例255:該処理電子機器は、該角膜の曲率中心の3次元位置に基づいて、かつ該光学軸に基づいて、該眼の回転中心の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例256:該処理電子機器は、少なくとも、該眼の回転中心の3次元位置に基づいて、該ユーザの該眼と対眼との間の距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例257:該処理電子機器は、少なくとも、該眼の回転中心の3次元位置に基づいて、該ユーザの該眼と対眼との間の瞳孔間距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例258:該処理電子機器は、少なくとも、該眼の光学軸に基づいて、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例259:該処理電子機器は、少なくとも、該ユーザの該眼の光学軸および対眼の決定された光学軸に基づいて、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例260:該処理電子機器は、少なくとも、該ユーザの該眼の視軸および対眼の決定された視軸に基づいて、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例261:該ディスプレイは、コリメートされた光を該ユーザの眼の中に投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例262:該ディスプレイは、第1の期間において、画像ピクセルに対応するコリメートされた光を該ユーザの眼の中に投影し、第2の期間において、該画像ピクセルに対応する発散光を該ユーザの眼の中に投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例263:該ディスプレイは、第1の期間において、第1の発散量を有する、画像ピクセルに対応する光を該ユーザの眼の中に投影し、第2の期間において、第1の発散量を上回る第2の発散量を有する、該画像ピクセルに対応する光を該ユーザの眼の中に投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例264:視点中心は、該眼の瞳孔の近位にあると推定される、上記実施例のいずれかに記載のディスプレイシステム。
実施例265:視点中心は、該角膜と該眼の瞳孔との間にあると推定される、上記実施例のいずれかに記載のディスプレイシステム。
実施例266:該ディスプレイは、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、上記実施例のいずれかに記載のディスプレイシステム。
実施例267:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜とを有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、該光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、
ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、
ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、
1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、ユーザの眼の水晶体、瞳孔、および角膜を通して延在する、光学軸の位置および配向推定値を取得し、
該眼の光学軸に位置合わせされる、レンダリング空間内のある軸に沿った特定の場所を識別し、
レンダリング空間内の特定の場所に位置する仮想レンダリングカメラによってレンダリングされるように、該仮想画像コンテンツを該ユーザの眼に提示する、
ように構成される、処理電子機器と、
を備える、ディスプレイシステム。
実施例268:該頭部搭載型ディスプレイは、第1の発散量を有する光を、第1の期間において、該ユーザの眼の中に投影するように構成され、第2の発散量を有する光を、第2の期間において、該ユーザの眼の中に投影するように構成され、第1の発散量は、第2の発散量と異なり、処理電子機器はさらに、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該ユーザの輻輳・開散運動距離の推定値を取得し、該ユーザの推定される輻輳・開散運動距離に基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、実施例267に記載のディスプレイシステム。
実施例269:該頭部搭載型ディスプレイは、第1の発散量を有する光を、第1の期間において、該ユーザの眼の中に投影するように構成され、第2の発散量を有する光を、第2の期間において、該ユーザの眼の中に投影するように構成され、第1の発散量は、第2の発散量と異なり、処理電子機器はさらに、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該ユーザの輻輳・開散運動距離の推定値を取得し、該ユーザの推定される輻輳・開散運動距離に基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、実施例267に記載のディスプレイシステム。
実施例270:処理電子機器はさらに、1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の回転中心が位置すると推定される、光学軸に沿った位置を決定するように構成され、
処理電子機器は、該眼の回転中心が位置すると推定される該光学軸に沿った位置に基づいて、該眼の光学軸に位置合わせされるレンダリング空間内の軸に沿った特定の場所を識別するように構成される、
実施例267に記載のディスプレイシステム。
実施例271:レンダリング空間内の軸に沿った特定の場所は、レンダリング空間内の視差偏移が低減されると決定される、レンダリング空間内の軸に沿った場所を備える、実施例267に記載のディスプレイシステム。
実施例272:レンダリング空間内の軸に沿った特定の場所は、レンダリング空間内の視差偏移が最小限にされると決定される、レンダリング空間内の軸に沿った場所を備える、実施例267に記載のディスプレイシステム。
実施例273:該処理電子機器は、該1つ以上の眼追跡カメラによって取得された該眼の画像に基づいて、該眼が回転している期間にわたって、ユーザの眼の複数の視線方向の決定に基づいて、該眼の回転中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例274:該処理電子機器は、該眼が回転している期間にわたって、該1つ以上の眼追跡カメラを用いて取得された画像内のユーザの眼の瞳孔、虹彩、または角膜輪部のうちの1つ以上のものの形状の変動量に基づいて、該視線方向を決定するように構成される、実施例273に記載のディスプレイシステム。
実施例275:該処理電子機器は、該1つ以上の眼追跡カメラを用いて取得されたユーザの眼の画像上の複数の空間場所に基づいて、位置のアレイを決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例276:該位置のアレイは、楕円の少なくとも一部に対応する、実施例275に記載のディスプレイシステム。
実施例277:該処理電子機器は、曲線をユーザの眼の画像上の複数の空間場所に適合させることによって、該位置のアレイを決定するように構成される、実施例275または276のいずれかに記載のディスプレイシステム。
実施例278:該曲線は、楕円を備える、実施例277に記載のディスプレイシステム。
実施例279:該画像上の複数の空間場所は、該画像内の該ユーザの眼の角膜輪部上の空間場所を備える、実施例275−278のいずれかに記載のディスプレイシステム。
実施例280:該画像上の複数の空間場所は、該画像内の該ユーザの眼の虹彩と強膜との間の境界上の空間場所を備える、実施例275−279のいずれかに記載のディスプレイシステム。
実施例281:該画像上の複数の空間場所は、該1つ以上の眼追跡カメラを用いて取得された該画像内の該ユーザの眼の角膜と強膜との間の境界上の空間場所を備える、実施例275−279のいずれかに記載のディスプレイシステム。
実施例282:該処理電子機器は、該位置のアレイの第1の側上の場所から該位置のアレイを通して該位置のアレイの第2の反対側まで延在する、複数の線形経路を決定するように構成される、実施例275−281のいずれかに記載のディスプレイシステム。
実施例283:該処理電子機器は、該複数の線形経路に基づいて、円形領域を決定するように構成され、該円形領域は、半径Rを有する、実施例282に記載のディスプレイシステム。
実施例284:該半径Rは、角膜輪部の平均半径に対応する、実施例283に記載のディスプレイシステム。
実施例285:該半径Rは、ユーザの眼の角膜輪部の測定された半径に対応する、実施例283に記載のディスプレイシステム。
実施例286:該半径Rは、瞳孔の平均半径に対応する、実施例283に記載のディスプレイシステム。
実施例287:該半径Rは、ユーザの眼の瞳孔の測定された半径に対応する、実施例283に記載のディスプレイシステム。
実施例288:該処理電子機器は、該円形領域の中心部分を通る法線の場所および方向を決定するように構成される、実施例282−287のいずれかに記載のディスプレイシステム。
実施例289:該処理電子機器は、該1つ以上の眼追跡カメラを用いて以前に取得された該眼の複数の画像に基づいて、個別の円形領域の中心部分を通る複数の法線の個別の場所および方向を決定するように構成される、実施例282−288のいずれかに記載のディスプレイシステム。
実施例290:該処理電子機器は、該複数の法線が収束または交差する、位置を決定するように構成される、実施例289に記載のディスプレイシステム。
実施例291:該処理電子機器は、該眼が回転している期間にわたって取得されたユーザの眼の画像に基づいて決定される、該法線の複数のものの交差、収束、または近接近の領域を識別することによって、該ユーザの眼の回転中心の推定値を取得するように構成される、実施例289に記載のディスプレイシステム。
実施例292:該処理電子機器は、該眼が回転している期間にわたって取得されたユーザの眼の画像に基づいて決定される、該複数の法線の複数のものの場所および方向に基づいて、該ユーザの眼の回転中心の推定値を取得するように構成される、実施例289に記載のディスプレイシステム。
実施例293:該アレイ位置の第1の側上の場所は、該1つ以上の眼追跡カメラのうちの1つの座標系の原点に対応する、実施例282−292のいずれかに記載のディスプレイシステム。
実施例294:処理電子機器は、複数の推定される回転中心位置をフィルタリングする、平均する、カルマンフィルタを適用する、またはそれらの任意の組み合わせによって、回転中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
光を1つ以上のユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示する、下記に列挙される付加的実施例等のディスプレイシステムの種々の付加的実施例が、本明細書に説明される。
付加的実施例1:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
ユーザの眼を結像するように構成される、内向きに面した結像システムと、
内向きに面した結像システムと通信する、処理電子機器であって、処理電子機器は、該内向きに面した結像システムを用いて取得された該眼の複数の画像に基づいて、該眼の回転中心の推定値を取得するように構成され、回転中心の計算される値における変動量を決定し、該変動量に基づいて、回転中心の統計的に決定された推定値を選択するように構成される、処理電子機器と、
を備える、ディスプレイシステム。
付加的実施例2:低減された変動量が、該統計的に決定された回転中心を識別するために使用される、付加的実施例1に記載のディスプレイシステム。
付加的実施例3:回転中心の第1のセットの推定値が、回転中心を計算するために使用されるパラメータの第1の値に基づいて計算され、第1の変動量が、該第1のセットの推定値から決定される、付加的実施例1または2に記載のディスプレイシステム。
付加的実施例4:回転中心の第2のセットの推定値が、該パラメータの第2の値に基づいて計算され、第2の変動量が、該第2のセットの推定値から決定される、付加的実施例3に記載のディスプレイシステム。
付加的実施例5:該第1および第2の変動量は、比較され、低減された変動量を有するセットを決定し、該回転中心の統計的に決定された推定値の決定は、本比較に基づく、付加的実施例4に記載のディスプレイシステム。
付加的実施例6:回転中心の複数のセットの値が、パラメータの複数の個別の値および異なる個別のセットに関して決定された個別の変動量に基づいて計算される、付加的実施例1または2に記載のディスプレイシステム。
付加的実施例7:個別の変動量は、比較され、低減された変動量を有するセットを決定し、該回転中心の統計的に決定された推定値の決定は、該比較に基づく、付加的実施例6に記載のディスプレイシステム。
付加的実施例8:最低変動量を有する該セットに関するパラメータの値が、該回転中心の統計的に決定された推定値を計算する際に使用される、付加的実施例6または7に記載のディスプレイシステム。
付加的実施例9:最低変動量を有する該セットが、回転中心の統計的に決定された推定値を計算する際に使用される、付加的実施例6、7、または8に記載のディスプレイシステム。
付加的実施例10:該パラメータは、該角膜の曲率中心から該回転中心までの距離を備える、付加的実施例3−9のいずれかに記載のディスプレイシステム。
付加的実施例11:該パラメータは、該角膜の曲率中心から該回転中心までの光学軸に沿った距離を備える、付加的実施例3−9のいずれかに記載のディスプレイシステム。
付加的実施例12:該変動量は、分散量および/または標準偏差を備える、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例13:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該内向きに面した結像システムは、該1つ以上の光源からの光を使用して、該眼の画像を形成する、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例14:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、付加的実施例13に記載のディスプレイシステム。
付加的実施例15:該1つ以上の光源は、赤外線光エミッタを備える、付加的実施例13または14に記載のディスプレイシステム。
付加的実施例16:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の場所を決定するように構成される、付加的実施例13−15のいずれかに記載のディスプレイシステム。
付加的実施例17:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該角膜球体の曲率中心の場所を決定するように構成される、付加的実施例13−16のいずれかに記載のディスプレイシステム。
付加的実施例18:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜球体の曲率中心の場所を決定するように構成される、付加的実施例17に記載のディスプレイシステム。
付加的実施例19:該内向きに面した結像システムは、該眼の瞳孔を結像するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例20:該処理電子機器は、該瞳孔の中心の場所を決定するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例21:該処理電子機器は、該虹彩と該瞳孔との間の境界の少なくとも一部を決定するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例22:該処理電子機器は、該虹彩と該瞳孔との間の境界の中心を決定するように構成される、付加的実施例21に記載のディスプレイシステム。
付加的実施例23:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所を決定するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例24:該処理電子機器は、該光学軸の場所および配向を決定するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例25:該処理電子機器は、3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、付加的実施例24に記載のディスプレイシステム。
付加的実施例26:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例27:該処理電子機器は、該角膜の曲率中心に基づいて、該眼の回転中心の場所を決定するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例28:該処理電子機器は、該角膜の曲率中心および該光学軸の場所および配向に基づいて、該眼の回転中心の場所を決定するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例29:該処理電子機器は、該角膜の曲率中心から該光学軸に沿った特定の距離を平行移動させることによって、該眼の回転中心の場所を決定するように構成される、付加的実施例28に記載のディスプレイシステム。
付加的実施例30:該曲率中心から該回転中心までの特定の距離は、4.0mm〜6.0mmである、付加的実施例29に記載のディスプレイシステム。
付加的実施例31:該曲率中心から該回転中心までの特定の距離は、約4.7mmである、付加的実施例29または30に記載のディスプレイシステム。
付加的実施例32:該処理電子機器は、少なくとも、該内向きに面した結像システムを用いて以前に取得された該眼の1つ以上の画像に基づいて、特定の距離を決定するように構成される、付加的実施例20または30に記載のディスプレイシステム。
付加的実施例33:該処理電子機器は、該フレーム上の電子機器を含む、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例34:該処理電子機器は、該フレーム上の電子機器と、該フレームから遠隔の場所に配置される、電子機器とを含む、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例35:該処理電子機器は、該フレーム上の電子機器と、ベルトパック上の電子機器とを含む、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例36:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例37:該頭部搭載型ディスプレイは、第1の発散量において、ユーザの眼の正面の環境の一部からの光を受け取り、第1の発散量に実質的に類似する、第2の発散量を伴って、ユーザの眼の正面の環境の一部からの光をユーザの眼に透過させる、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例38:処理電子機器は、複数の推定される回転中心位置をフィルタリングする、平均する、カルマンフィルタを適用する、またはそれらの任意の組み合わせによって、回転中心の推定値を取得するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例39:該処理電子機器は、該ユーザの眼の回転中心の決定された位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例40:該処理電子機器は、レンダリングカメラを該回転中心において使用し、仮想画像を該眼に提示されるようにレンダリングするように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例41:該処理電子機器は、該眼の網膜より該回転中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、レンダリングカメラを使用するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例42:該処理電子機器は、該眼の回転中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、レンダリングカメラを使用するように構成される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例43:該処理電子機器は、レンダリングカメラを該回転中心において使用し、仮想画像を該眼に提示されるようにレンダリングするように構成され、該レンダリングカメラは、該眼の回転中心に開口を伴ってモデル化される、上記付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例44:該処理電子機器は、較正プロシージャの間、該変動量に基づいて、回転中心の統計的に決定された推定値を選択するように構成される、付加的実施例1−9のいずれかに記載のディスプレイシステム。
付加的実施例45:該処理電子機器は、該1つ以上の眼追跡カメラによって取得された該眼の画像に基づいて、該眼が回転している期間にわたって、ユーザの眼の複数の視線方向の決定に基づいて、該眼の回転中心の推定値を取得するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例46:該処理電子機器は、該眼が回転している期間にわたって、該1つ以上の眼追跡カメラを用いて取得された画像内のユーザの眼の瞳孔、虹彩、または角膜輪部のうちの1つ以上のものの形状の変動量に基づいて、該視線方向を決定するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例47:該処理電子機器は、該1つ以上の眼追跡カメラを用いて取得されたユーザの眼の画像上の複数の空間場所に基づいて、位置のアレイを決定するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例48:該位置のアレイは、楕円の少なくとも一部に対応する、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例49:該処理電子機器は、曲線をユーザの眼の画像上の複数の空間場所に適合させることによって、該位置のアレイを決定するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例50:該曲線は、楕円を備える、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例51:該画像上の複数の空間場所は、該画像内の該ユーザの眼の角膜輪部上の空間場所を備える、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例52:該画像上の複数の空間場所は、該画像内の該ユーザの眼の虹彩と強膜との間の境界上の空間場所を備える、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例53:該画像上の複数の空間場所は、該1つ以上の眼追跡カメラを用いて取得された該画像内の該ユーザの眼の角膜と強膜との間の境界上の空間場所を備える、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例54:該処理電子機器は、該位置のアレイの第1の側上の場所から該位置のアレイを通して該位置のアレイの第2の反対側まで延在する、複数の線形経路を決定するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例55:該処理電子機器は、該複数の線形経路に基づいて、円形領域を決定するように構成され、該円形領域は、半径Rを有する、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例56:該半径Rは、角膜輪部の平均半径に対応する、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例57:該半径Rは、ユーザの眼の角膜輪部の測定された半径に対応する、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例58:該半径Rは、瞳孔の平均半径に対応する、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例59:該半径Rは、ユーザの眼の瞳孔の測定された半径に対応する、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例60:該処理電子機器は、該円形領域の中心部分を通る法線の場所および方向を決定するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例61:該処理電子機器は、該1つ以上の眼追跡カメラを用いて以前に取得された該眼の複数の画像に基づいて、個別の円形領域の中心部分を通る複数の法線の個別の場所および方向を決定するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例62:該処理電子機器は、該複数の法線が収束または交差する、位置を決定するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例63:該処理電子機器は、該眼が回転している期間にわたって取得されたユーザの眼の画像に基づいて決定される、該法線の複数のものの交差、収束、または近接近の領域を識別することによって、該ユーザの眼の回転中心の推定値を取得するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例64:該処理電子機器は、該眼が回転している期間にわたって取得されたユーザの眼の画像に基づいて決定される、該複数の法線の複数のものの場所および方向に基づいて、該ユーザの眼の回転中心の推定値を取得するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例65:該アレイ位置の第1の側上の場所は、該1つ以上の眼追跡カメラのうちの1つの座標系の原点に対応する、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
付加的実施例66:処理電子機器は、複数の推定される回転中心位置をフィルタリングする、平均する、カルマンフィルタを適用する、またはそれらの任意の組み合わせによって、回転中心の推定値を取得するように構成される、上記実施例または付加的実施例のいずれかに記載のディスプレイシステム。
上記の実施例または付加的実施例のいずれかは、組み合わせられることができる。加えて、上記の実施例または付加的実施例のいずれかは、頭部搭載型ディスプレイと統合されることができる。加えて、上記の実施例または付加的実施例のいずれかは、単一深度平面および/または1つ以上の可変深度平面を用いて実装されることができる(例えば、経時的に変動する遠近調節(accommodation)キューを提供する、可変集束力を伴う、1つ以上の要素)。
さらに、限定ではないが、解剖学的、光学的、および幾何学的特徴、場所、および配向等の種々の値、パラメータを決定するための装置および方法が、本明細書に開示される。そのようなパラメータの実施例は、例えば、眼の回転中心、角膜の曲率中心、瞳孔の中心、瞳孔の境界、虹彩の中心、虹彩の境界、角膜輪部の境界、眼の光学軸、眼の視軸、視点中心を含むが、これらに限定されない。本明細書に列挙されるようなそのような値、パラメータ等の決定は、その推定値を含み、必ずしも、実際の値と精密に一致する必要はない。例えば、眼の回転中心、角膜の曲率中心、瞳孔または虹彩の中心または境界、角膜輪部の境界、眼の光学軸、眼の視軸、視点中心等の決定は、推定値、近似値、またはそれに近い値であって、実際の(例えば、解剖学的、光学的、または幾何学的)値またはパラメータと同一ではなくてもよい。ある場合には、例えば、二乗平均平方根推定技法が、そのような値の推定値を取得するために使用される。実施例として、本明細書に説明されるある技法は、光線またはベクトルが交差する、場所または点を識別することに関する。しかしながら、そのような光線またはベクトルは、交差しなくてもよい。本実施例では、場所または点は、推定されてもよい。例えば、場所または点は、二乗平均平方根または他の推定技法に基づいて決定されてもよい(例えば、場所または点は、光線またはベクトルに近いまたは最も近いものであるように推定されてもよい)。他のプロセスもまた、近似値を推定する、または別様に、実際の値と一致しない場合がある値を提供するために使用されてもよい。故に、用語「〜を決定する」および「〜を推定する」または「決定される」および「推定される」は、本明細書では、同義的に使用される。そのような決定された値の参照は、したがって、推定値、近似値、または実際の値に近い値を含み得る。故に、上記または本明細書のいずれかの場所のパラメータまたは値の決定の参照は、実際の値に精密に限定されるべきではなく、推定値、近似値、またはそれに値に近い値を含んでもよい。
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の発明を実施するための形態のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
図1は、人物によって視認されるある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。
図2は、ウェアラブルシステムの実施例を図式的に図示する。
図3は、ウェアラブルシステムの例示的コンポーネントを図式的に図示する。
図4は、画像情報をユーザに出力するためのウェアラブルデバイスの導波管スタックの実施例を図式的に図示する。
図5は、眼の実施例を図式的に図示する。
図5Aは、眼の眼姿勢を決定するための例示的座標系を図式的に図示する。
図6は、眼追跡システムを含む、ウェアラブルシステムの概略図である。
図7Aは、眼追跡システムを含み得る、ウェアラブルシステムのブロック図である。
図7Bは、ウェアラブルシステム内のレンダリングコントローラのブロック図である。
図8Aは、眼の角膜球面を示す、眼の概略図である。
図8Bは、眼追跡カメラによって検出される、例示的角膜閃光を図示する。
図8C−8Eは、ウェアラブルシステム内の眼追跡モジュールを用いてユーザの角膜中心を位置特定する、例示的段階を図示する。 図8C−8Eは、ウェアラブルシステム内の眼追跡モジュールを用いてユーザの角膜中心を位置特定する、例示的段階を図示する。 図8C−8Eは、ウェアラブルシステム内の眼追跡モジュールを用いてユーザの角膜中心を位置特定する、例示的段階を図示する。
図9A−9Cは、眼追跡画像の座標系の例示的正規化を図示する。 図9A−9Cは、眼追跡画像の座標系の例示的正規化を図示する。 図9A−9Cは、眼追跡画像の座標系の例示的正規化を図示する。
図9D−9Gは、ウェアラブルシステム内の眼追跡モジュールを用いてユーザの瞳孔中心を位置特定する、例示的段階を図示する。 図9D−9Gは、ウェアラブルシステム内の眼追跡モジュールを用いてユーザの瞳孔中心を位置特定する、例示的段階を図示する。 図9D−9Gは、ウェアラブルシステム内の眼追跡モジュールを用いてユーザの瞳孔中心を位置特定する、例示的段階を図示する。 図9D−9Gは、ウェアラブルシステム内の眼追跡モジュールを用いてユーザの瞳孔中心を位置特定する、例示的段階を図示する。
図9Hは、角膜屈折を考慮することおよび角膜屈折を考慮しないことの両方に由来する瞳孔中心の例示的な計算される場所を図示する。
図9I−9Mは、異なる計算された瞳孔中心に基づいて計算された眼の回転中心の例示的実験変動量を図示する。 図9I−9Mは、異なる計算された瞳孔中心に基づいて計算された眼の回転中心の例示的実験変動量を図示する。 図9I−9Mは、異なる計算された瞳孔中心に基づいて計算された眼の回転中心の例示的実験変動量を図示する。 図9I−9Mは、異なる計算された瞳孔中心に基づいて計算された眼の回転中心の例示的実験変動量を図示する。 図9I−9Mは、異なる計算された瞳孔中心に基づいて計算された眼の回転中心の例示的実験変動量を図示する。
図10は、眼の光学軸および視軸および眼の回転中心を含む、眼の実施例を図示する。
図11は、コンテンツをレンダリングする際、眼追跡を使用して、ウェアラブルデバイス内の位置合わせに関するフィードバックを提供するための方法の実施例のプロセスフロー図である。
図12は、ウェアラブルシステムがユーザの眼移動に応答して深度平面を切り替え得る方法を図示する、例示的グラフのセットである。
図13は、ある仮想オブジェクトが1つ以上の深度平面に深度が離散化され得る、複合現実システムを描写する。
図14Aおよび14Bは、複合現実システムが、単一深度平面を使用して仮想オブジェクトを表示する、実施例を図示する。 図14Aおよび14Bは、複合現実システムが、単一深度平面を使用して仮想オブジェクトを表示する、実施例を図示する。
図14Cおよび14Dは、複合現実システムが、2つの隣接する深度平面を使用して、仮想オブジェクトを表示し、2つの隣接する深度平面間の遠近調節キューを生成する、実施例を図示する。 図14Cおよび14Dは、複合現実システムが、2つの隣接する深度平面を使用して、仮想オブジェクトを表示し、2つの隣接する深度平面間の遠近調節キューを生成する、実施例を図示する。
図14Eおよび14Fは、複合現実システムが、2つ以上の深度平面を使用して、仮想オブジェクトを表示し、2つ以上の遠近調節キューを同時に生成する、実施例を図示する。 図14Eおよび14Fは、複合現実システムが、2つ以上の深度平面を使用して、仮想オブジェクトを表示し、2つ以上の遠近調節キューを同時に生成する、実施例を図示する。
図15Aは、複合現実システムが、視点中心不整合の存在下、図14Aおよび14Bの様式において、仮想オブジェクトを表示する、実施例を図示する。
図15Bは、複合現実システムが、視点中心不整合の存在下、図14Cおよび14Dの様式において、仮想オブジェクトを表示する、実施例を図示する。
図15Cは、複合現実システムが、視点中心不整合の存在下、図14Eおよび14Fの様式において、仮想オブジェクトを表示する、実施例を図示する。
図16Aおよび16Bは、レンダリングカメラのピンホールが、眼の視点中心またはほぼ眼の瞳孔と整合される、実施例を図示する。 図16Aおよび16Bは、レンダリングカメラのピンホールが、眼の視点中心またはほぼ眼の瞳孔と整合される、実施例を図示する。
図16Cは、レンダリングカメラのピンホールが、眼の視点中心またはほぼ眼の瞳孔と整合される、別の実施例を図示する。
図17Aおよび17Bは、レンダリングカメラのピンホールが、眼の回転中心と整合される、実施例を図示する。 図17Aおよび17Bは、レンダリングカメラのピンホールが、眼の回転中心と整合される、実施例を図示する。
図17Cは、レンダリングカメラのピンホールが、眼の回転中心と整合される、別の実施例を図示する。
図18Aおよび18Bは、ユーザの視点中心に関連する眼追跡データを図示する、例示的グラフのセットである。 図18Aおよび18Bは、ユーザの視点中心に関連する眼追跡データを図示する、例示的グラフのセットである。
図18Cは、レンダリングカメラ位置が眼追跡データの関数として変動し得る方法を図示する、例示的グラフである。
図18Dは、眼追跡データの関数として利用され得る、種々のレンダリングカメラ位置を図示する、ユーザの眼の概略図である。
図19は、本明細書に説明される種々の技法に従って、CoRの推定値を決定するために使用される、ユーザの眼(例えば、角膜輪部)の画像上に投影された楕円の使用のグラフィカル表現を図示する。光線が、投影楕円を通してトレースされ、円形が適合される、円錐を形成し得る。ある実装では、1つまたは円形を通る法線が、CoRを推定するために使用されることができる。
図20は、眼の角膜輪部に基づいて眼の回転中心を決定するための例示的プロセスのフローチャートである。
図21Aは、ユーザの第1の視線に基づいて決定された、ユーザの角膜輪部の画像上に投影された第1の楕円(以降、「投影楕円」と称される)を図示する。円形が適合される、円錐を形成する、投影楕円を通る光線が、示される。
図21Bは、ユーザの眼の第2の視線に基づいて決定された、第2の投影楕円を図示する。第2の円錐およびそこに適合される円形もまた、示される。
図21Cは、ユーザの眼の第3の視線に基づいて決定された、第3の投影楕円を図示する。第3の円錐およびそこに適合される円形もまた、示される。
図21Dは、上記に説明されるような投影楕円を使用して取得される円形に基づいて、回転中心を決定するステップを図示する。
図22は、2つの点光源と、開口と、レンズと、投影画面とを含む、光学システムを図示する。
図23Aは、第1の段階における光学システムの実施形態を図示する。
図23Bは、第2の段階における光学システムを図示する。
図24Aは、第1の段階における光学システムの別の実施形態を図示する。
図24Bは、第2の段階における光学システムを図示する。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図されない。
ここで、図面を参照するが、同様の参照番号は、全体を通して同様の部分を指す。別様に示されない限り、図面は、概略であって、必ずしも、正確な縮尺で描かれていない。
ウェアラブルシステムの3Dディスプレイの実施例
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2Dまたは3D仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムの少なくとも一部は、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイス上に実装されることができる。ウェアラブルデバイスは、ARデバイス(ARD)と同義的に使用されることができる。さらに、本開示の目的のために、用語「AR」は、用語「MR」と同義的に使用される。
図1は、人物によって視認される、ある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。図1では、MR場面100が、描写され、MR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム120を特徴とする、実世界公園状設定110が見える。これらのアイテムに加え、MR技術のユーザはまた、実世界プラットフォーム120上に立っているロボット像130と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ140とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
3Dディスプレイが、真の深度感覚、より具体的には、表面深度のシミュレートされた感覚を生成するために、ディスプレイの視野内の点毎に、その仮想深度に対応する遠近調節応答を生成することが望ましくあり得る。ディスプレイ点に対する遠近調節応答が、収束および立体視の両眼深度キューによって決定されるようなその点の仮想深度に対応しない場合、ヒトの眼は、遠近調節衝突を体験し、不安定な結像、有害な眼精疲労、頭痛、および遠近調節情報の不在下では、表面深度のほぼ完全な欠如をもたらし得る。
VR、AR、およびMR体験は、複数の深度平面に対応する画像が視認者に提供されるディスプレイを有する、ディスプレイシステムによって提供されることができる。画像は、深度平面毎に異なってもよく(例えば、場面またはオブジェクトの若干異なる提示を提供する)、視認者の眼によって別個に集束され、それによって、異なる深度平面上に位置する場面に関する異なる画像特徴に合焦させるために要求される眼の遠近調節に基づいて、または合焦からずれている異なる深度平面上の異なる画像特徴を観察することに基づいて、ユーザに深度キューを提供することに役立ち得る。本明細書のいずれかに議論されるように、そのような深度キューは、信用できる深度の知覚を提供する。
図2は、ウェアラブルシステム200の実施例を図示し、これは、AR/VR/MR場面を提供するように構成されることができる。ウェアラブルシステム200はまた、ARシステム200と称され得る。ウェアラブルシステム200は、ディスプレイ220と、ディスプレイ220の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ220は、ユーザ、装着者、または視認者210によって装着可能である、フレーム230に結合されてもよい。ディスプレイ220は、ユーザ210の眼の正面に位置付けられることができる。ディスプレイ220は、AR/VR/MRコンテンツをユーザに提示することができる。ディスプレイ220は、ユーザの頭部上に装着される、頭部搭載型ディスプレイ(HMD)を備えることができる。
いくつかの実施形態では、スピーカ240が、フレーム230に結合され、ユーザの外耳道に隣接して位置付けられる(いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音響制御を提供する)。ディスプレイ220は、環境からオーディオストリームを検出し、周囲音を捕捉するために、オーディオセンサ(例えば、マイクロホン)232を含むことができる。いくつかの実施形態では、示されない1つ以上の他のオーディオセンサが、ステレオ音受信を提供するために位置付けられる。ステレオ音受信は、音源の場所を決定するために使用されることができる。ウェアラブルシステム200は、音声または発話認識をオーディオストリームに実施することができる。
ウェアラブルシステム200は、ユーザの周囲の環境内の世界を観察する、外向きに面した結像システム464(図4に示される)を含むことができる。ウェアラブルシステム200はまた、ユーザの眼移動を追跡し得る、内向きに面した結像システム462(図4に示される)を含むことができる。内向きに面した結像システムは、一方の眼の移動または両方の眼の移動のいずれかを追跡することができる。内向きに面した結像システム462は、フレーム230に取り付けられてもよく、内向きに面した結像システムによって入手された画像情報を処理し、例えば、ユーザ210の眼の瞳孔直径または配向、眼の移動、または眼姿勢を決定し得る、処理モジュール260または270と電気通信してもよい。内向きに面した結像システム462は、1つ以上のカメラを含んでもよい。例えば、少なくとも1つのカメラは、各眼を結像するために使用されてもよい。カメラによって入手された画像は、眼毎に、別個に、瞳孔サイズまたは眼姿勢を決定し、それによって、各眼への画像情報の提示がその眼に対して動的に調整されることを可能にするために使用されてもよい。
実施例として、ウェアラブルシステム200は、外向きに面した結像システム464または内向きに面した結像システム462を使用して、ユーザの姿勢の画像を入手することができる。画像は、静止画像、ビデオのフレーム、またはビデオであってもよい。
ディスプレイ220は、有線導線または無線接続等によって、フレーム230に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ210に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成において搭載され得る、ローカルデータ処理モジュール260に動作可能に結合されることができる(250)。
ローカル処理およびデータモジュール260は、ハードウェアプロセッサおよび不揮発性メモリ(例えば、フラッシュメモリ)等のデジタルメモリを備えてもよく、その両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、a)画像捕捉デバイス(例えば、内向きに面した結像システムまたは外向きに面した結像システム内のカメラ)、オーディオセンサ(例えば、マイクロホン)、慣性測定ユニット(IMU)、加速度計、コンパス、全地球測位システム(GPS)ユニット、無線デバイス、またはジャイロスコープ等の(例えば、フレーム230に動作可能に結合される、または別様にユーザ210に取り付けられ得る)センサから捕捉されるデータ、または、b)場合によっては処理または読出後にディスプレイ220への通過のために、遠隔処理モジュール270または遠隔データリポジトリ280を使用して入手または処理されるデータを含んでもよい。ローカル処理およびデータモジュール260は、これらの遠隔モジュールがローカル処理およびデータモジュール260へのリソースとして利用可能であるように、有線または無線通信リンク等を介して、通信リンク262または264によって遠隔処理モジュール270または遠隔データリポジトリ280に動作可能に結合されてもよい。加えて、遠隔処理モジュール280および遠隔データリポジトリ280は、相互に動作可能に結合されてもよい。
いくつかの実施形態では、遠隔処理モジュール270は、データまたは画像情報を分析および処理するように構成される、1つ以上のプロセッサを備えてもよい。いくつかの実施形態では、遠隔データリポジトリ280は、デジタルデータ記憶設備を備え得、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュールにおいて実施され、遠隔モジュールからの完全に自律的な使用を可能にする。
ウェアラブルシステムの例示的コンポーネント
図3は、ウェアラブルシステムの例示的コンポーネントを図式的に図示する。図3は、ウェアラブルシステム200を示し、これは、ディスプレイ220と、フレーム230とを含むことができる。引き伸ばし図202は、ウェアラブルシステム200の種々のコンポーネントを図式的に図示する。ある実装では、図3に図示されるコンポーネントのうちの1つ以上のものは、ディスプレイ220の一部であることができる。種々のコンポーネントは、単独で、または組み合わせて、ウェアラブルシステム200のユーザまたはユーザの環境と関連付けられた種々のデータ(例えば、聴覚的または視覚的データ等)を収集することができる。他の実施形態は、ウェアラブルシステムが使用される用途に応じて、付加的またはより少ないコンポーネントを有してもよいことを理解されたい。なお、図3は、種々のコンポーネントのうちのいくつかと、ウェアラブルシステムを通して収集、分析、および記憶され得る、データのタイプの基本概念とを提供する。
図3は、例示的ウェアラブルシステム200を示し、これは、ディスプレイ220を含むことができる。ディスプレイ220は、ユーザの頭部、またはフレーム230に対応する、筐体またはフレーム230に搭載され得る、ディスプレイレンズ226を備えることができる。ディスプレイレンズ226は、筐体230によって、ユーザの眼302、304の正面に位置付けられる、1つ以上の透明ミラーを備えてもよく、投影された光338を眼302、304の中にバウンスさせ、ビーム成形を促進しながら、また、ローカル環境からの少なくとも一部の光の透過を可能にするように構成されてもよい。投影された光ビーム338の波面は、投影された光の所望の焦点距離と一致するように屈曲または集束されてもよい。図示されるように、2つの広視野マシンビジョンカメラ316(世界カメラとも称される)が、筐体230に結合され、ユーザの周囲の環境を結像することができる。これらのカメラ316は、二重捕捉式可視光/非可視(例えば、赤外線)光カメラであることができる。カメラ316は、図4に示される外向きに面した結像システム464の一部であってもよい。世界カメラ316によって入手された画像は、姿勢プロセッサ336によって処理されることができる。例えば、姿勢プロセッサ336は、1つ以上のオブジェクト認識装置708(例えば、図7に示される)を実装し、ユーザまたはユーザの環境内の別の人物の姿勢を識別する、またはユーザの環境内の物理的オブジェクトを識別することができる。
図3を継続して参照すると、光338を眼302、304の中に投影するように構成される、ディスプレイミラーおよび光学系を伴う、一対の走査式レーザ成形波面(例えば、深度のために)光投影モジュールが、示される。描写される図はまた、ユーザの眼302、304を追跡し、レンダリングおよびユーザ入力をサポート可能であるように構成される、赤外線光源326(発光ダイオード「LED」等)とペアリングされる、2つの小型赤外線カメラ324を示す。カメラ324は、図4に示される、内向きに面した結像システム462の一部であってもよい。ウェアラブルシステム200はさらに、センサアセンブリ339を特徴とすることができ、これは、X、Y、およびZ軸加速度計能力および磁気コンパスおよびX、Y、およびZ軸ジャイロスコープ能力を備え、好ましくは、200Hz等の比較的に高周波数でデータを提供し得る。センサアセンブリ339は、図2Aを参照して説明される、IMUの一部であってもよい。描写されるシステム200はまた、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、またはARMプロセッサ(高度縮小命令セット機械)等の頭部姿勢プロセッサ336を備えることができ、これは、リアルタイムまたは近リアルタイムユーザ頭部姿勢を捕捉デバイス316から出力された広視野画像情報から計算するように構成されてもよい。頭部姿勢プロセッサ336は、ハードウェアプロセッサであることができ、図2Aに示されるローカル処理およびデータモジュール260の一部として実装されることができる。
ウェアラブルシステムはまた、1つ以上の深度センサ234を含むことができる。深度センサ234は、環境内のオブジェクトとウェアラブルデバイスとの間の距離を測定するように構成されることができる。深度センサ234は、レーザスキャナ(例えば、LIDAR)、超音波深度センサ、または深度感知カメラを含んでもよい。カメラ316が深度感知能力を有する、ある実装では、カメラ316はまた、深度センサ234と見なされ得る。
また、示されるのは、デジタルまたはアナログ処理を実行し、姿勢をセンサアセンブリ339からのジャイロスコープ、コンパス、または加速度計データから導出するように構成される、プロセッサ332である。プロセッサ332は、図2に示される、ローカル処理およびデータモジュール260の一部であってもよい。ウェアラブルシステム200はまた、図3に示されるように、例えば、GPS337(全地球測位システム)等の測位システムを含み、姿勢および測位分析を補助することができる。加えて、GPSはさらに、ユーザの環境についての遠隔ベース(例えば、クラウドベース)の情報を提供してもよい。本情報は、ユーザの環境内のオブジェクトまたは情報を認識するために使用されてもよい。
ウェアラブルシステムは、GPS337および遠隔コンピューティングシステム(例えば、遠隔処理モジュール270、別のユーザのARD等)によって入手されたデータを組み合わせてもよく、これは、ユーザの環境についてのより多くの情報を提供することができる。一実施例として、ウェアラブルシステムは、GPSデータに基づいて、ユーザの場所を決定し、ユーザの場所と関連付けられた仮想オブジェクトを含む、世界マップを読み出すことができる(例えば、遠隔処理モジュール270と通信することによって)。別の実施例として、ウェアラブルシステム200は、世界カメラ316(図4に示される外向きに面した結像システム464の一部であってもよい)を使用して、環境を監視することができる。世界カメラ316によって入手された画像に基づいて、ウェアラブルシステム200は、環境内のオブジェクトを検出することができる(例えば、図7に示される1つ以上のオブジェクト認識装置708を使用することによって)。ウェアラブルシステムはさらに、GPS337によって入手されたデータを使用して、キャラクタを解釈することができる。
ウェアラブルシステム200はまた、レンダリングエンジン334を備えてもよく、これは、世界のユーザのビューのために、ユーザにローカルなレンダリング情報を提供し、スキャナの動作およびユーザの眼の中への結像を促進するように構成されることができる。レンダリングエンジン334は、ハードウェアプロセッサ(例えば、中央処理ユニットまたはグラフィック処理ユニット等)によって実装されてもよい。いくつかの実施形態では、レンダリングエンジンは、ローカル処理およびデータモジュール260の一部である。レンダリングエンジン334は、ウェアラブルシステム200の他のコンポーネントに通信可能に結合されることができる(例えば、有線または無線リンクを介して)。例えば、レンダリングエンジン334は、通信リンク274を介して、眼カメラ324に結合され、通信リンク272を介して、投影サブシステム318(網膜走査ディスプレイに類似する様式において、走査レーザ配列を介して、光をユーザの眼302、304の中に投影することができる)に結合されることができる。レンダリングエンジン334はまた、それぞれ、リンク276および294を介して、例えば、センサ姿勢プロセッサ332および画像姿勢プロセッサ336等の他の処理ユニットと通信することができる。
カメラ324(例えば、小型赤外線カメラ)は、眼姿勢を追跡し、レンダリングおよびユーザ入力をサポートするために利用されてもよい。いくつかの例示的眼姿勢は、ユーザが見ている場所または合焦させている深度(眼の輻輳・開散運動を用いて推定されてもよい)を含んでもよい。GPS337、ジャイロスコープ、コンパス、および加速度計339は、大まかなまたは高速の姿勢推定を提供するために利用されてもよい。カメラ316のうちの1つ以上のものは、画像および姿勢を入手することができ、これは、関連付けられたクラウドコンピューティングリソースからのデータと併せて、ローカル環境をマッピングし、ユーザビューを他者と共有するために利用されてもよい。
図3に描写される例示的コンポーネントは、例証目的のためだけのものである。複数のセンサおよび他の機能モジュールが、例証および説明の容易性のために、ともに示される。いくつかの実施形態は、これらのセンサまたはモジュールの1つのみまたはサブセットを含んでもよい。さらに、これらのコンポーネントの場所は、図3に描写される位置に限定されない。いくつかのコンポーネントは、ベルト搭載型コンポーネント、ハンドヘルドコンポーネント、またはヘルメットコンポーネント等、他のコンポーネント内に搭載または格納されてもよい。一実施例として、画像姿勢プロセッサ336、センサ姿勢プロセッサ332、およびレンダリングエンジン334は、ベルトパック内に位置付けられ、超広帯域、Wi−Fi、Bluetooth(登録商標)等の無線通信を介して、または有線通信を介して、ウェアラブルシステムの他のコンポーネントと通信するように構成されてもよい。描写される筐体230は、好ましくは、ユーザによって頭部搭載可能かつ装着可能である。しかしながら、ウェアラブルシステム200のいくつかのコンポーネントは、ユーザの身体の他の部分に装着されてもよい。例えば、スピーカ240が、ユーザの耳の中に挿入され、音をユーザに提供してもよい。
ユーザの眼302、304の中への光338の投影に関して、いくつかの実施形態では、カメラ324は、一般に、眼の焦点の位置または「焦点深度」と一致する、ユーザの眼の中心が幾何学的に輻輳・開散される場所を測定するために利用されてもよい。眼が輻輳・開散する全ての点の3次元表面は、「単視軌跡」と称され得る。焦点距離は、有限数の深度をとり得る、または無限に変動し得る。輻輳・開散運動距離から投影された光は、対象の眼302、304に集束されるように現れる一方、輻輳・開散運動距離の正面または背後の光は、ぼかされる。本開示のウェアラブルデバイスおよび他のディスプレイシステムの実施例はまた、米国特許公開第2016/0270656号(参照することによってその全体として本明細書に組み込まれる)に説明される。
ヒト視覚系は、複雑であって、深度の現実的知覚を提供することは、困難である。オブジェクトの視認者は、輻輳・開散運動移動と遠近調節の組み合わせに起因して、オブジェクトを3次元として知覚し得る。相互に対する2つの眼の輻輳・開散運動移動(例えば、瞳孔が、相互に向かって、またはそこから離れるように移動し、眼の視線を収束させ、オブジェクトを固視するような瞳孔の回転)は、眼の水晶体の合焦(または「遠近調節」)と緊密に関連付けられる。通常条件下、焦点を1つのオブジェクトから異なる距離における別のオブジェクトに変化させるための眼のレンズの焦点の変化または眼の遠近調節は、「遠近調節−輻輳・開散運動反射」として知られる関係下、輻輳・開散運動の整合変化を自動的に同一距離に生じさせるであろう。同様に、輻輳・開散運動の変化は、通常条件下、遠近調節の整合変化を誘起するであろう。遠近調節と輻輳・開散運動との間のより良好な整合を提供するディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し得る。
さらに、約0.7ミリメートル未満のビーム直径を伴う、空間的にコヒーレントな光は、眼が合焦している場所にかかわらず、ヒトの眼によって正しく解決され得る。したがって、適切な焦点深度の錯覚を作成するために、眼の輻輳・開散運動が、カメラ324を用いて追跡されてもよく、レンダリングエンジン334および投影サブシステム318は、単視軌跡上またはそれに近接する全てのオブジェクトを合焦させてレンダリングし、全ての他のオブジェクトを可変程度に焦点をずらしてレンダリングするために利用されてもよい(例えば、意図的に作成されたぼけを使用して)。好ましくは、システム220は、ユーザに、約60フレーム/秒以上のフレームレートでレンダリングする。上記に説明されるように、好ましくは、カメラ324は、眼追跡のために利用されてもよく、ソフトウェアは、輻輳・開散運動幾何学形状だけではなく、また、ユーザ入力としての役割を果たすための焦点場所キューも取り上げるように構成されてもよい。好ましくは、そのようなディスプレイシステムは、昼間または夜間の使用のために好適な明度およびコントラストを用いて構成される。
いくつかの実施形態では、ディスプレイシステムは、好ましくは、視覚的オブジェクト整合のために約20ミリ秒未満の待ち時間、約0.1度未満の角度整合、および約1弧分(arc minute)の分解能を有し、これは、理論によって限定されるわけではないが、ヒトの眼のほぼ限界であると考えられる。ディスプレイシステム220は、位置特定システムと統合されてもよく、これは、GPS要素、光学追跡、コンパス、加速度計、または他のデータソースを伴い、位置および姿勢決定を補助し得る。位置特定情報は、関連世界のユーザのビュー内における正確なレンダリングを促進するために利用されてもよい(例えば、そのような情報は、眼鏡が実世界に対する場所を把握することを促進するであろう)。
いくつかの実施形態では、ウェアラブルシステム200は、ユーザの眼の遠近調節に基づいて、1つ以上の仮想画像を表示するように構成される。ユーザに画像が投影されている場所に合焦させるように強制する、従来の3Dディスプレイアプローチと異なり、いくつかの実施形態では、ウェアラブルシステムは、投影された仮想コンテンツの焦点を自動的に変動させ、ユーザに提示される1つ以上の画像のより快適な視認を可能にするように構成される。例えば、ユーザの眼が、1mの現在の焦点を有する場合、画像は、ユーザの焦点と一致するように投影されてもよい。ユーザが、焦点を3mに偏移させる場合、画像は、新しい焦点と一致するように投影される。したがって、ユーザに所定の焦点を強制するのではなく、いくつかの実施形態のウェアラブルシステム200は、ユーザの眼がより自然な様式において機能することを可能にする。
そのようなウェアラブルシステム200は、仮想現実デバイスに対して典型的に観察される、眼精疲労、頭痛、および他の生理学的症状の発生率を排除または低減させ得る。これを達成するために、ウェアラブルシステム200の種々の実施形態は、1つ以上の可変焦点要素(VFE)を通して、仮想画像を可変焦点距離に投影するように構成される。1つ以上の実施形態では、3D知覚は、画像をユーザから離れた固定された焦点面に投影する、多平面焦点システムを通して達成されてもよい。他の実施形態は、可変平面焦点を採用し、焦点面は、ユーザの焦点の現在の状態と一致するように、z−方向に往復して移動される。
多平面焦点システムおよび可変平面焦点システムの両方において、ウェアラブルシステム200は、眼追跡を採用し、ユーザの眼の輻輳・開散運動を決定し、ユーザの現在の焦点を決定し、仮想画像を決定された焦点に投影してもよい。他の実施形態では、ウェアラブルシステム200は、ファイバスキャナまたは他の光生成源を通して、網膜を横断して、可変焦点の光ビームをラスタパターンで可変に投影する、光変調器を備える。したがって、画像を可変焦点距離に投影するウェアラブルシステム200のディスプレイの能力は、ユーザがオブジェクトを3Dにおいて視認するための遠近調節を容易にするだけではなく、また、米国特許公開第2016/0270656号(参照することによってその全体として本明細書に組み込まれる)にさらに説明されるように、ユーザの眼球異常を補償するために使用されてもよい。いくつかの他の実施形態では、空間光変調器は、種々の光学コンポーネントを通して、画像をユーザに投影してもよい。例えば、以下にさらに説明されるように、空間光変調器は、画像を1つ以上の導波管上に投影してもよく、これは、次いで、画像をユーザに伝送する。
導波管スタックアセンブリ
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、4400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、そのウェアラブルシステム200のいくつかの部分をより詳細に概略的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
図4を継続して参照すると、導波管アセンブリ480はまた、複数の特徴458、456、454、452を導波管間に含んでもよい。いくつかの実施形態では、特徴458、456、454、452は、レンズであってもよい。他の実施形態では、特徴458、456、454、452は、レンズではなくてもよい。むしろ、それらは、単に、スペーサであってもよい(例えば、空気間隙を形成するためのクラッディング層または構造)。
導波管432b、434b、436b、438b、440bまたは複数のレンズ458、456、454、452は、種々のレベルの波面曲率または光線発散を用いて、画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度平面と関連付けられてもよく、その深度平面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス420、422、424、426、428は、それぞれ、眼410に向かって出力するために、各個別の導波管を横断して入射光を分散させるように構成され得る、導波管440b、438b、436b、434b、432bの中に画像情報を投入するために利用されてもよい。光は、画像投入デバイス420、422、424、426、428の出力表面から出射し、導波管440b、438b、436b、434b、432bの対応する入力縁の中に投入される。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、特定の導波管と関連付けられた深度平面に対応する特定の角度(および発散量)において眼410に向かって指向される、クローン化されたコリメートビームの場全体を出力してもよい。
いくつかの実施形態では、画像投入デバイス420、422、424、426、428は、それぞれ、それぞれの対応する導波管440b、438b、436b、434b、432bの中への投入のための画像情報を生成する、離散ディスプレイである。いくつかの他の実施形態では、画像投入デバイス420、422、424、426、428は、例えば、画像情報を1つ以上の光学導管(光ファイバケーブル等)を介して、画像投入デバイス420、422、424、426、428のそれぞれに送り得る、単一の多重化されたディスプレイの出力端である。
コントローラ460が、スタックされた導波管アセンブリ480および画像投入デバイス420、422、424、426、428の動作を制御する。コントローラ460は、導波管440b、438b、436b、434b、432bへの画像情報のタイミングおよび提供を調整する、プログラミング(例えば、非一過性コンピュータ可読媒体内の命令)を含む。いくつかの実施形態では、コントローラ460は、単一一体型デバイスであってもよいかまたは有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ460は、いくつかの実施形態では、処理モジュール260または270(図2に図示される)の一部であってもよい。
導波管440b、438b、436b、434b、432bは、全内部反射(TIR)によって各個別の導波管内で光を伝搬するように構成されてもよい。導波管440b、438b、436b、434b、432bはそれぞれ、主要上部表面および主要底部表面およびそれらの主要上部表面と主要底部表面との間に延在する縁を伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管440b、438b、436b、434b、432bはそれぞれ、光を再指向させ、各個別の導波管内で伝搬させ、導波管から画像情報を眼410に出力することによって、光を導波管から抽出するように構成される、光抽出光学要素440a、438a、436a、434a、432aを含んでもよい。抽出された光はまた、外部結合光と称され得、光抽出光学要素はまた、外部結合光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内で伝搬する光が光再指向要素に衝打する場所において出力される。光抽出光学要素(440a、438a、436a、434a、432a)は、例えば、反射または回折光学特徴であってもよい。説明を容易にし、図面を明確にするために、導波管440b、438b、436b、434b、432bの底部主要表面に配置されて図示されるが、いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、上部主要表面または底部主要表面に配置されてもよい、または導波管440b、438b、436b、434b、432bの容積内に直接配置されてもよい。いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、透明基板に取り付けられ、導波管440b、438b、436b、434b、432bを形成する、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管440b、438b、436b、434b、432bは、モノリシック材料部品であってもよく、光抽出光学要素440a、438a、436a、434a、432aは、その材料部品の表面上および/または内部に形成されてもよい。
図4を継続して参照すると、本明細書に議論されるように、各導波管440b、438b、436b、434b、432bは、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管432bは、そのような導波管432bの中に投入されるにつれて、コリメートされた光を眼410に送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管434bは、眼410に到達し得る前に、第1のレンズ452(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。第1のレンズ452は、眼/脳が、その次の上方の導波管434bから生じる光を光学無限遠から眼410に向かって内向きにより近い第1の焦点面から生じるように解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管436bは、眼410に到達する前に、その出力光を第1のレンズ452および第2のレンズ454の両方を通して通過させる。第1および第2のレンズ452および454の組み合わせられた屈折力は、眼/脳が、第3の導波管436bから生じる光が次の上方の導波管434bからの光であったよりも光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるように解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。
他の導波管層(例えば、導波管438b、440b)およびレンズ(例えば、レンズ456、458)も同様に構成され、スタック内の最高導波管440bを用いて、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ480の他側の世界470から生じる光を視認/解釈するとき、レンズ458、456、454、452のスタックを補償するために、補償レンズ層430が、スタックの上部に配置され、下方のレンズスタック458、456、454、452の集約力を補償してもよい。(補償レンズ層430およびスタックされた導波管アセンブリ480は、全体として、世界470から生じる光が、最初にスタックされた導波管アセンブリ480によって受け取られたときに光が有していたものと実質的に同一レベルの発散(またはコリメーション)で眼410に伝達されるように構成され得る。)そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の光抽出光学要素およびレンズの集束側面は両方とも、静的であってもよい(例えば、動的ではないまたは電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。
図4を継続して参照すると、光抽出光学要素440a、438a、436a、434a、432aは、導波管と関連付けられた特定の深度平面のために、光をその個別の導波管から再指向し、かつ本光を適切な量の発散またはコリメーションを伴って出力するように構成されてもよい。その結果、異なる関連付けられた深度平面を有する導波管は、関連付けられた深度平面に応じて、異なる量の発散を伴う光を出力する、異なる構成の光抽出光学要素を有してもよい。いくつかの実施形態では、本明細書に議論されるように、光抽出光学要素440a、438a、436a、434a、432aは、光を具体的角度で出力するように構成され得る、立体特徴または表面特徴であってもよい。例えば、光抽出光学要素440a、438a、436a、434a、432aは、体積ホログラム、表面ホログラム、および/または回折格子であってもよい。回折格子等の光抽出光学要素は、2015年6月25日に公開された米国特許公開第2015/0178939号(参照することによってその全体として本明細書に組み込まれる)に説明される。
いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、回折パターンを形成する回折特徴または「回折光学要素」(本明細書では、「DOE」とも称される)である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差部で眼410に向かって偏向される一方、残りが、全内部反射を介して、導波管を通して移動し続けるように、比較的に低回折効率を有する。画像情報を搬送する光は、したがって、複数の場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼304に向かって非常に均一なパターンの出射放出となり得る。
いくつかの実施形態では、1つ以上のDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であってもよい。例えば、切替可能なDOEは、ポリマー分散液晶の層を備えてもよく、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に整合するように切り替えられてもよい(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに整合しない屈折率に切り替えられてもよい(その場合、パターンは、入射光を能動的に回折させる)。
いくつかの実施形態では、深度平面または被写界深度の数および分布は、視認者の眼の瞳孔サイズまたは配向に基づいて、動的に変動されてもよい。被写界深度は、視認者の瞳孔サイズと反比例して変化してもよい。その結果、視認者の眼の瞳孔のサイズが減少するにつれて、被写界深度は、その平面の場所が眼の焦点深度を越えるため判別不能である1つの平面が、判別可能となり、瞳孔サイズの低減および被写界深度の相当する増加に伴って、より合焦して現れ得るように増加する。同様に、異なる画像を視認者に提示するために使用される、離間される深度平面の数は、減少された瞳孔サイズに伴って減少されてもよい。例えば、視認者は、一方の深度平面から他方の深度平面への眼の遠近調節を調節せずに、第1の深度平面および第2の深度平面の両方の詳細を1つの瞳孔サイズにおいて明確に知覚することが可能ではない場合がある。しかしながら、これらの2つの深度平面は、同時に、遠近調節を変化させずに、別の瞳孔サイズにおいてユーザに合焦するには十分であり得る。
いくつかの実施形態では、ディスプレイシステムは、瞳孔サイズまたは配向の決定に基づいて、または特定の瞳孔サイズまたは配向を示す電気信号の受信に応じて、画像情報を受信する導波管の数を変動させてもよい。例えば、ユーザの眼が、2つの導波管と関連付けられた2つの深度平面間を区別不能である場合、コントローラ460(ローカル処理およびデータモジュール260の実施形態であり得る)は、これらの導波管のうちの1つへの画像情報の提供を停止するように構成またはプログラムされることができる。有利には、これは、システムへの処理負担を低減させ、それによって、システムの応答性を増加させ得る。導波管のためのDOEがオンおよびオフ状態間で切替可能である実施形態では、DOEは、導波管が画像情報を受信するとき、オフ状態に切り替えられてもよい。
いくつかの実施形態では、出射ビームに視認者の眼の直径未満の直径を有するという条件を満たさせることが望ましくあり得る。しかしながら、本条件を満たすことは、視認者の瞳孔のサイズの変動性に照らして、困難であり得る。いくつかの実施形態では、本条件は、視認者の瞳孔のサイズの決定に応答して出射ビームのサイズを変動させることによって、広範囲の瞳孔サイズにわたって満たされる。例えば、瞳孔サイズが減少するにつれて、出射ビームのサイズもまた、減少し得る。いくつかの実施形態では、出射ビームサイズは、可変開口を使用して変動されてもよい。
ウェアラブルシステム400は、世界470の一部を結像する、外向きに面した結像システム464(例えば、デジタルカメラ)を含むことができる。世界470の本部分は、世界カメラの視野(FOV)と称され得、結像システム464は、時として、FOVカメラとも称される。世界カメラのFOVは、視認者210のFOVと同一である場合とそうではない場合があり、これは、視認者210が所与の時間に知覚する、世界470の一部を包含する。例えば、いくつかの状況では、世界カメラのFOVは、ウェアラブルシステム400の視認者210の視野より大きくあり得る。視認者による視認または結像のために利用可能な領域全体は、動眼視野(FOR)と称され得る。FORは、装着者が、その身体、頭部、または眼を移動させ、空間内の実質的に任意の方向を知覚し得るため、ウェアラブルシステム400を囲繞する4πステラジアンの立体角を含んでもよい。他のコンテキストでは、装着者の移動は、より抑制されてもよく、それに応じて、装着者のFORは、より小さい立体角に接し得る。外向きに面した結像システム464から得られた画像は、ユーザによって行われるジェスチャ(例えば、手または指のジェスチャ)を追跡し、ユーザの正面における世界470内のオブジェクトを検出する等のために、使用されることができる。
ウェアラブルシステム400は、オーディオセンサ232、例えば、マイクロホンを含み、周囲音を捕捉することができる。上記に説明されるように、いくつかの実施形態では、1つ以上の他のオーディオセンサが、発話源の場所の決定に有用なステレオ音受信を提供するために位置付けられることができる。オーディオセンサ232は、別の実施例として、指向性マイクロホンを備えることができ、これはまた、オーディオ源が位置する場所に関するそのような有用な指向性情報を提供することができる。ウェアラブルシステム400は、発話源を位置特定する際、または特定の瞬間におけるアクティブスピーカを決定するために等、外向きに面した結像システム464およびオーディオセンサ230の両方からの情報を使用することができる。例えば、ウェアラブルシステム400は、単独で、またはスピーカの反射された画像(例えば、鏡に見られるように)と組み合わせて、音声認識を使用して、スピーカの識別を決定することができる。別の実施例として、ウェアラブルシステム400は、指向性マイクロホンから入手された音に基づいて、環境内のスピーカの位置を決定することができる。ウェアラブルシステム400は、発話認識アルゴリズムを用いて、スピーカの位置から生じる音を解析し、発話のコンテンツを決定し、音声認識技法を使用して、スピーカの識別(例えば、名前または他の人口統計情報)を決定することができる。
ウェアラブルシステム400はまた、眼移動および顔移動等のユーザの移動を観察する、内向きに面した結像システム466(例えば、デジタルカメラ)を含むことができる。内向きに面した結像システム466は、眼410の画像を捕捉し、眼304の瞳孔のサイズおよび/または配向を決定するために使用されてもよい。内向きに面した結像システム466は、ユーザが見ている方向(例えば、眼姿勢)を決定する際に使用するため、またはユーザのバイオメトリック識別のため(例えば、虹彩識別を介して)、画像を得るために使用されることができる。いくつかの実施形態では、少なくとも1つのカメラが、眼毎に、独立して、各眼の瞳孔サイズまたは眼姿勢を別個に決定し、それによって、各眼への画像情報の提示がその眼に対して動的に調整されることを可能にするために利用されてもよい。いくつかの他の実施形態では、単一眼410のみの瞳孔直径または配向(例えば、対の眼あたり単一カメラのみを使用して)が、決定され、ユーザの両眼に関して類似すると仮定された。内向きに面した結像システム466によって得られる画像は、ユーザに提示されるべきオーディオまたは視覚的コンテンツを決定するためにウェアラブルシステム400によって使用され得る、ユーザの眼姿勢または気分を決定するために分析されてもよい。ウェアラブルシステム400はまた、IMU、加速度計、ジャイロスコープ等のセンサを使用して、頭部姿勢(例えば、頭部位置または頭部配向)を決定してもよい。
ウェアラブルシステム400は、ユーザが、コマンドをコントローラ460に入力し、ウェアラブルシステム400と相互作用し得る、ユーザ入力デバイス466を含むことができる。例えば、ユーザ入力デバイス466は、トラックパッド、タッチスクリーン、ジョイスティック、多自由度(DOF)コントローラ、容量感知デバイス、ゲームコントローラ、キーボード、マウス、指向性パッド(Dパッド)、ワンド、触知デバイス、トーテム(例えば、仮想ユーザ入力デバイスとして機能する)等を含むことができる。マルチDOFコントローラは、コントローラの一部または全部の可能性として考えられる平行移動(例えば、左/右、前方/後方、または上/下)または回転(例えば、ヨー、ピッチ、またはロール)におけるユーザ入力を感知することができる。平行移動をサポートする、マルチDOFコントローラは、3DOFと称され得る一方、平行移動および回転をサポートする、マルチDOFコントローラは、6DOFと称され得る。ある場合には、ユーザは、指(例えば、親指)を使用して、タッチセンサ式入力デバイスを押下またはその上でスワイプし、入力をウェアラブルシステム400に提供してもよい(例えば、ユーザ入力をウェアラブルシステム400によって提供されるユーザインターフェースに提供するために)。ユーザ入力デバイス466は、ウェアラブルシステム400の使用の間、ユーザの手によって保持されてもよい。ユーザ入力デバイス466は、ウェアラブルシステム400と有線または無線通信することができる。
ウェアラブルシステムの他のコンポーネント
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つ以上の触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力またはテクスチャの触覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトまたはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、例えば、ユーザによって操作可能であって、ウェアラブルシステムへの入力またはそれとの相互作用を可能にする、1つ以上の物理的オブジェクトを含んでもよい。これらの物理的オブジェクトは、本明細書では、トーテムと称され得る。いくつかのトーテムは、例えば、金属またはプラスチック片、壁、テーブルの表面等、無生物オブジェクトの形態をとってもよい。ある実装では、トーテムは、実際には、いかなる物理的入力構造(例えば、キー、トリガ、ジョイスティック、トラックボール、ロッカスイッチ)も有していなくてもよい。代わりに、トーテムは、単に、物理的表面を提供してもよく、ウェアラブルシステムは、ユーザにトーテムの1つ以上の表面上にあるように見えるように、ユーザインターフェースをレンダリングしてもよい。例えば、ウェアラブルシステムは、トーテムの1つ以上の表面上に常駐するように見えるように、コンピュータキーボードおよびトラックパッドの画像をレンダリングしてもよい。例えば、ウェアラブルシステムは、トーテムとしての役割を果たす、アルミニウムの薄い長方形プレートの表面上に見えるように、仮想コンピュータキーボードおよび仮想トラックパッドをレンダリングしてもよい。長方形プレート自体は、いかなる物理的キーまたはトラックパッドまたはセンサも有していない。しかしながら、ウェアラブルシステムは、仮想キーボードまたは仮想トラックパッドを介して行われた選択または入力として、長方形プレートを用いたユーザ操作または相互作用またはタッチを検出し得る。ユーザ入力デバイス466(図4に示される)は、トラックパッド、タッチパッド、トリガ、ジョイスティック、トラックボール、ロッカまたは仮想スイッチ、マウス、キーボード、多自由度コントローラ、または別の物理的入力デバイスを含み得る、トーテムの実施形態であってもよい。ユーザは、単独で、または姿勢と組み合わせて、トーテムを使用し、ウェアラブルシステムまたは他のユーザと相互作用してもよい。
本開示のウェアラブルデバイス、HMD、およびディスプレイシステムと使用可能な触知デバイスおよびトーテムの実施例は、米国特許公開第2015/0016777号(参照することによってその全体として本明細書に組み込まれる)に説明される。
眼画像の実施例
図5は、眼瞼504と、強膜508(「白眼」)と、虹彩512と、瞳孔516とを伴う、眼500の画像を図示する。曲線516aは、瞳孔516と虹彩512との間の瞳孔境界を示し、曲線512aは、虹彩512と強膜508との間の辺縁境界を示す。眼瞼504は、上側眼瞼504aと、下側眼瞼504bとを含む。眼500は、自然静置姿勢(例えば、ユーザの顔および視線の両方が、ユーザの真正面の遠距離オブジェクトに向かうであろうように配向される)に図示される。眼500の自然静置姿勢は、自然静置姿勢(例えば、図5に示される眼500に関しては、すぐ面外)にあって、本実施例では、瞳孔516内に中心合わせされるときの眼500の表面に直交する方向である、自然静置方向520によって示され得る。
眼500が、異なるオブジェクトに向かって見るように移動するにつれて、眼姿勢は、自然静置方向520に対して変化するであろう。現在の眼姿勢は、眼の表面に直交する(かつ瞳孔516内に中心合わせされる)方向であるが、眼が現在指向されているオブジェクトに向かって配向される、眼姿勢方向524を参照して決定されることができる。図5Aに示される例示的座標系を参照すると、眼500の姿勢は、両方とも眼の自然静置方向520に対する、眼の眼姿勢方向524の方位角偏向および天頂偏向を示す、2つの角度パラメータとして表され得る。例証目的のために、これらの角度パラメータは、θ(基点方位角から決定される、方位角偏向)およびφ(時として、極性偏向とも称される、天頂偏向)として表され得る。いくつかの実装では、眼姿勢方向524の周囲の眼の角度ロールが、眼姿勢の決定に含まれることができ、角度ロールは、以下の分析に含まれることができる。他の実装では、眼姿勢を決定するための他の技法が、例えば、ピッチ、ヨー、および随意に、ロール系が、使用されることができる。
眼画像は、任意の適切なプロセスを使用して、例えば、画像を1つ以上のシーケンシャルフレームから抽出し得る、ビデオ処理アルゴリズムを使用して、ビデオから取得されることができる。眼の姿勢は、種々の眼追跡技法を使用して、眼画像から決定されることができる。例えば、眼姿勢は、提供される光源に及ぼす角膜のレンズ効果を検討することによって決定されることができる。任意の好適な眼追跡技法が、本明細書に説明される眼瞼形状推定技法において眼姿勢を決定するために使用されることができる。
眼追跡システムの実施例
図6は、眼追跡システムを含む、ウェアラブルシステム600の概略図を図示する。ウェアラブルシステム600は、少なくともいくつかの実施形態では、頭部搭載型ユニット602内に位置するコンポーネントと、非頭部搭載型ユニット604内に位置するコンポーネントとを含む。非頭部搭載型ユニット604は、実施例として、ベルト搭載型コンポーネント、ハンドヘルドコンポーネント、リュック内のコンポーネント、遠隔コンポーネント等であってもよい。ウェアラブルシステム600のコンポーネントのうちのいくつかを非頭部搭載型ユニット604内に組み込むことは、頭部搭載型ユニット602のサイズ、重量、複雑性、およびコストを低減させることに役立ち得る。いくつかの実装では、頭部搭載型ユニット602および/または非頭部搭載型604の1つ以上のコンポーネントによって実施されているように説明される機能性の一部または全部は、ウェアラブルシステム600内のいずれかの場所に含まれる1つ以上のコンポーネントを用いて提供されてもよい。例えば、頭部搭載型ユニット602のCPU612と関連して下記に説明される機能性の一部または全部は、非頭部搭載型ユニット604のCPU616を用いて提供されてもよく、その逆も同様である。いくつかの実施例では、そのような機能性の一部または全部は、ウェアラブルシステム600の周辺デバイスを用いて提供されてもよい。さらに、いくつかの実装では、そのような機能性の一部または全部は、図2を参照して上記に説明されたものに類似する様式において、1つ以上のクラウドコンピューティングデバイスまたは他の遠隔に位置するコンピューティングデバイスを用いて提供されてもよい。
図6に示されるように、ウェアラブルシステム600は、ユーザの眼610の画像を捕捉する、カメラ324を含む、眼追跡システムを含むことができる。所望に応じて、眼追跡システムはまた、光源326aおよび326b(発光ダイオード「LED」等)を含んでもよい。光源326aおよび326bは、閃光(例えば、カメラ324によって捕捉された眼の画像内に現れる、ユーザの眼からの反射)を生成し得る。カメラ324に対する光源326aおよび326bの位置は、既知であり得、その結果、カメラ324によって捕捉された画像内の閃光の位置が、ユーザの眼を追跡する際に使用されてもよい(図7−11に関連して下記により詳細に議論されるであろうように)。少なくとも一実施形態では、1つの光源326と、ユーザの眼610の片方と関連付けられた1つのカメラ324とが存在してもよい。別の実施形態では、1つの光源326と、ユーザの眼610のそれぞれと関連付けられた1つのカメラ324とが存在してもよい。さらに他の実施形態では、1つ以上のカメラ324と、ユーザの眼610の一方またはそれぞれと関連付けられた1つ以上の光源326とが存在してもよい。具体的実施例として、2つの光源326aおよび326bと、ユーザの眼610のそれぞれと関連付けられた1つ以上のカメラ324とが存在してもよい。別の実施例として、光源326aおよび326b等の3つ以上の光源と、ユーザの眼610のそれぞれと関連付けられた1つ以上のカメラ324とが存在してもよい。
眼追跡モジュール614は、画像を眼追跡カメラ324から受信してもよく、画像を分析し、種々の情報を抽出してもよい。実施例として、眼追跡モジュール614は、ユーザの眼姿勢、眼追跡カメラ324(および頭部搭載型ユニット602)に対するユーザの眼の3次元位置、合焦されているユーザの眼610の一方または両方の方向、ユーザの輻輳・開散運動深度(例えば、ユーザが合焦しているユーザからの深度)、ユーザの瞳孔の位置、ユーザの角膜および角膜球面の位置、ユーザの眼のそれぞれの回転中心、およびユーザの眼のそれぞれの視点の中心を検出してもよい。眼追跡モジュール614は、図7−11に関連して下記に説明される技法を使用して、そのような情報を抽出してもよい。図6に示されるように、眼追跡モジュール614は、頭部搭載型ユニット602内のCPU612を使用して実装される、ソフトウェアモジュールであってもよい。
眼追跡モジュール614からのデータは、ウェアラブルシステム内の他のコンポーネントに提供されてもよい。実施例として、そのようなデータは、ライトフィールドレンダリングコントローラ618および位置合わせオブザーバ620のためのソフトウェアモジュールを含む、CPU616等の非頭部搭載型ユニット604内のコンポーネントに伝送されてもよい。
レンダリングコントローラ618は、レンダリングエンジン622(例えば、GPU620内のソフトウェアモジュールであり得、画像をディスプレイ220に提供し得る、レンダリングエンジン)によって、眼追跡モジュール614からの情報を使用して、ユーザに表示される画像を調節してもよい。実施例として、レンダリングコントローラ618は、ユーザの回転中心または視点の中心に基づいて、ユーザに表示される画像を調節してもよい。特に、レンダリングコントローラ618は、ユーザの視点の中心に関する情報を使用して、レンダリングカメラをシミュレートしてもよく(例えば、ユーザの視点からの画像の収集をシミュレートする)、シミュレートされたレンダリングカメラに基づいて、ユーザに表示される画像を調節してもよい。
時として、「ピンホール透視投影カメラ」(または単に、「透視投影カメラ」)または「仮想ピンホールカメラ」(または単に、「仮想カメラ」)とも称される、「レンダリングカメラ」は、可能性として、仮想世界内のオブジェクトのデータベースからの仮想画像コンテンツをレンダリングする際に使用するためのシミュレートされたカメラである。オブジェクトは、ユーザまたは装着者に対する、および可能性として、ユーザまたは装着者を囲繞する環境内の実オブジェクトに対する、場所および配向を有してもよい。言い換えると、レンダリングカメラは、そこからユーザまたは装着者がレンダリング空間の3D仮想コンテンツ(例えば、仮想オブジェクト)を視認すべきである、レンダリング空間内の視点を表し得る。レンダリングカメラは、レンダリングエンジンによって管理され、該眼に提示されるべき仮想オブジェクトのデータベースに基づいて、仮想画像をレンダリングしてもよい。仮想画像は、ユーザまたは装着者の視点から撮影されたかのようにレンダリングされ得る。例えば、仮想画像は、固有のパラメータの具体的セット(例えば、焦点距離、カメラピクセルサイズ、主点座標、歪/歪曲パラメータ等)と、付帯パラメータの具体的セット(例えば、仮想世界に対する平行移動成分および回転成分)とを有する、ピンホールカメラ(「レンダリングカメラ」に対応する)によって捕捉されたかのようにレンダリングされ得る。仮想画像は、レンダリングカメラの位置および配向(例えば、レンダリングカメラの付帯パラメータ)を有する、そのようなカメラの視点から撮影される。システムは、固有のおよび付帯レンダリングカメラパラメータを定義および/または調節し得るということになる。例えば、システムは、仮想画像が、ユーザまたは装着者の視点からであるように現れる画像を提供するように、ユーザまたは装着者の眼に対する具体的場所を有する、カメラの視点から捕捉されたかのようにレンダリングされるように、特定のセットの付帯レンダリングカメラパラメータを定義してもよい。システムは、後に、該具体的場所との位置合わせを維持するように、付帯レンダリングカメラパラメータをオンザフライで動的に調節してもよい。同様に、固有のレンダリングカメラパラメータも、定義され、経時的に動的に調節されてもよい。いくつかの実装では、画像は、開口(例えば、ピンホール)をユーザまたは装着者の眼に対する具体的場所(視点の中心または回転中心または他の場所等)に有するカメラの視点から捕捉されたかのようにレンダリングされる。
いくつかの実施形態では、システムは、ユーザの眼が、相互から物理的に分離され、したがって、一貫して異なる場所に位置付けられるにつれて、ユーザの左眼のための1つのレンダリングカメラおよびユーザの右眼のために別のレンダリングカメラを作成または動的に再位置付および/または再配向してもよい。少なくともいくつかの実装では、視認者の左眼と関連付けられたレンダリングカメラの視点からレンダリングされた仮想コンテンツは、頭部搭載型ディスプレイ(例えば、頭部搭載型ユニット602)の左側の接眼レンズを通してユーザに提示され得、ユーザの右眼と関連付けられたレンダリングカメラの視点からレンダリングされた仮想コンテンツは、そのような頭部搭載型ディスプレイの右側の接眼レンズを通してユーザに提示され得るということになる。レンダリングプロセスにおけるレンダリングカメラの作成、調節、および使用について議論するさらなる詳細は、「METHODS AND SYSTEMS FOR DETECTING AND COMBINING STRUCTURAL FEATURES IN 3D RECONSTRUCTION」と題された米国特許出願第15/274,823号(あらゆる目的のために、参照することによってその全体として本明細書に明示的に組み込まれる)に提供される。
いくつかの実施例では、システム600の1つ以上のモジュール(またはコンポーネント)(例えば、ライトフィールドレンダリングコントローラ618、レンダリングエンジン620等)は、ユーザの頭部および眼の位置および配向(例えば、それぞれ、頭部姿勢および眼追跡データに基づいて決定されるように)に基づいて、レンダリング空間内のレンダリングカメラの位置および配向を決定してもよい。すなわち、システム600は、事実上、ユーザの頭部および眼の位置および配向を3D仮想環境内の特定の場所および角位置にマッピングし、レンダリングカメラを3D仮想環境内の特定の場所および角位置に設置および配向し、レンダリングカメラによって捕捉され得るにつれて、仮想コンテンツをユーザのためにレンダリングし得る。実世界/仮想世界マッピングプロセスについて議論するさらなる詳細は、「SELECTING VIRTUAL OBJECTS IN A THREE−DIMENSIONAL SPACE」と題された米国特許出願第15/296,869号(あらゆる目的のために、参照することによってその全体として本明細書に明示的に組み込まれる)に提供される。実施例として、レンダリングコントローラ618は、画像が、画像を表示するために任意の所与の時間に利用される深度平面(または複数の深度平面)を選択することによって表示される、深度を調節してもよい。いくつかの実装では、そのような深度平面切替は、1つ以上の固有のレンダリングカメラパラメータの調節を通して、行われてもよい。例えば、ライトフィールドレンダリングコントローラ618は、深度平面切替または調節を実行するとき、レンダリングカメラの焦点距離を調節してもよい。下記にさらに詳細に説明されるように、深度平面は、ユーザの決定された輻輳・開散運動または固視深度に基づいて、切り替えられてもよい。
位置合わせオブザーバ620は、眼追跡モジュール614からの情報を使用して、頭部搭載型ユニット602がユーザの頭部上に適切に位置付けられているかどうかを識別してもよい。実施例として、眼追跡モジュール614は、カメラ324に対するユーザの眼の3次元位置を示す、ユーザの眼の回転中心の位置等の眼場所情報を提供してもよく、頭部搭載型ユニット602および眼追跡モジュール614は、場所情報を使用して、ディスプレイ220がユーザの視野内に適切に整合されているかどうか、または頭部搭載型ユニット602(またはヘッドセット)が滑脱している、または別様にユーザの眼と不整合状態であるかどうかを決定してもよい。実施例として、位置合わせオブザーバ620は、頭部搭載型ユニット602が、ユーザの鼻梁から滑脱しており、したがって、ディスプレイ220をユーザの眼から離れさせ、そこから下方に移動させている(望ましくあり得ない)かどうか、頭部搭載型ユニット602が、ユーザの鼻梁の上方に移動しており、したがって、ディスプレイ220をユーザの眼により近づけ、そこから上方に移動させているかどうか、頭部搭載型ユニット602が、ユーザの鼻梁に対して左または右に偏移されているかどうか、頭部搭載型ユニット602が、ユーザの鼻梁の上方に持ち上げられているかどうか、または頭部搭載型ユニット602が、これらまたは他の方法において、所望の位置または位置の範囲から離れて移動されているかどうかを決定することが可能であり得る。一般に、位置合わせオブザーバ620は、一般に、頭部搭載型ユニット602、特に、ディスプレイ220が、ユーザの眼の正面に適切に位置付けられているかどうかを決定することが可能であり得る。言い換えると、位置合わせオブザーバ620は、ディスプレイシステム220内の左ディスプレイが、ユーザの左眼と適切に整合されており、ディスプレイシステム220内の右ディスプレイが、ユーザの右眼と適切に整合されているかどうかを決定し得る。位置合わせオブザーバ620は、頭部搭載型ユニット602が、ユーザの眼に対する位置および/または配向の所望の範囲内に位置付けられ、配向されているかどうかを決定することによって、頭部搭載型ユニット602が適切に位置付けられているかどうかを決定してもよい。
少なくともいくつかの実施形態では、位置合わせオブザーバ620は、アラート、メッセージ、または他のコンテンツの形態におけるユーザフィードバックを生成してもよい。そのようなフィードバックは、ユーザに提供され、ユーザに、頭部搭載型ユニット602の任意の不整合を、不整合を補正する方法に関する随意のフィードバック(頭部搭載型ユニット602を特定の様式において調節するための提案等)とともに知らせてもよい。
位置合わせオブザーバ620によって利用され得る、例示的位置合わせ観察およびフィードバック技法は、2017年9月27日に出願された、米国特許出願第15/717,747号(弁理士整理番号MLEAP.052A2)および2018年3月16日に出願された、米国仮特許出願第62/644,321号(弁理士整理番号MLEAP.195PR)(両方とも、参照することによってその全体として本明細書に組み込まれる)に説明される。
眼追跡モジュールの実施例
例示的眼追跡モジュール614の詳細なブロック図が、図7Aに示される。図7Aに示されるように、眼追跡モジュール614は、種々の異なるサブモジュールを含んでもよく、種々の異なる出力を提供してもよく、ユーザの眼を追跡する際に、種々の利用可能なデータを利用してもよい。実施例として、眼追跡モジュール614は、光源326および頭部搭載型ユニット602に対する眼追跡カメラ324の幾何学的配列、ユーザの角膜曲率の中心とユーザの眼の平均回転中心との間の約4.7mmの典型的距離またはユーザの回転中心と視点の中心との間の典型的距離等の仮定された眼寸法704、および特定のユーザの瞳孔間距離等のユーザ毎の較正データ706等の眼追跡の付帯性質および固有性質を含む、利用可能なデータを利用してもよい。眼追跡モジュール614によって採用され得る、付帯性質、固有性質、および他の情報の付加的実施例は、2017年4月26日に出願された、米国特許出願第15/497,726号(弁理士整理番号MLEAP.023A7)号(参照することによってその全体として本明細書に組み込まれる)に説明される。
画像前処理モジュール710は、画像を眼カメラ324等の眼カメラから受信してもよく、1つ以上の前処理(例えば、調整)動作を受信された画像上に実施してもよい。実施例として、画像前処理モジュール710は、ガウスぼけを画像に適用してもよい、画像をより低い分解能にダウンサンプリングしてもよい、アンシャープマスクを適用してもよい、縁シャープニングアルゴリズムを適用してもよい、または後の検出、位置特定、および眼カメラ324からの画像内の閃光、瞳孔、または他の特徴の標識化を補助する、他の好適なフィルタを適用してもよい。画像前処理モジュール710は、高周波数雑音を瞳孔境界516a(図5参照)等から除去し、それによって瞳孔および閃光決定を妨害し得る雑音を除去し得る、オープンフィルタ等の低域通過フィルタまたは形態学的フィルタを適用してもよい。画像前処理モジュール710は、前処理された画像を瞳孔識別モジュール712および閃光検出および標識化モジュール714に出力してもよい。
瞳孔識別モジュール712は、前処理された画像を画像前処理モジュール710から受信してもよく、ユーザの瞳孔を含む、それらの画像の領域を識別してもよい。瞳孔識別モジュール712は、いくつかの実施形態では、カメラ324からの眼追跡画像内のユーザの瞳孔の位置の座標、すなわち、中心または重心の座標を決定してもよい。少なくともいくつかの実施形態では、瞳孔識別モジュール712は、眼追跡画像内の輪郭(例えば、瞳孔虹彩境界の輪郭)を識別し、輪郭モーメント(例えば、質量中心)を識別し、スターバースト瞳孔検出および/またはCanny縁検出アルゴリズムを適用し、強度値に基づいて外れ値を除外し、サブピクセル境界点を識別し、眼カメラ歪曲(例えば、眼カメラ324によって捕捉された画像内の歪曲)を補正し、ランダムサンプルコンセンサス(RANSAC)反復アルゴリズムを適用し、楕円形を眼追跡画像内の境界に適合させ、追跡フィルタを画像に適用し、ユーザの瞳孔重心のサブピクセル画像座標を識別してもよい。瞳孔識別モジュール712は、ユーザの瞳孔を示すと識別された前処理画像モジュール712の領域を示し得る、瞳孔識別データを、閃光検出および標識化モジュール714に出力してもよい。瞳孔識別モジュール712は、各眼追跡画像内のユーザの瞳孔の2D座標(例えば、ユーザの瞳孔の重心の2D座標)を閃光検出モジュール714に提供してもよい。少なくともいくつかの実施形態では、瞳孔識別モジュール712はまた、同一種類の瞳孔識別データを座標系正規化モジュール718に提供してもよい。
瞳孔識別モジュール712によって利用され得る、瞳孔検出技法は、2017年2月23日に公開された米国特許公開第2017/0053165号および2017年2月23日に公開された米国特許公開第2017/0053166号(それぞれ、参照することによってその全体として本明細書に組み込まれる)に説明される。
閃光検出および標識化モジュール714は、前処理された画像をモジュール710から、瞳孔識別データをモジュール712から受信してもよい。閃光検出モジュール714は、本データを使用して、閃光(すなわち、光源326からの光のユーザの眼からの反射)をユーザの瞳孔を示す前処理された画像の領域内で検出および/または識別してもよい。実施例として、閃光検出モジュール714は、ユーザの瞳孔の近傍にある、時として、本明細書では、「ブロブ」または局所強度最大値とも称される、眼追跡画像内の明るい領域を検索してもよい。少なくともいくつかの実施形態では、閃光検出モジュール714は、瞳孔楕円形を再スケーリング(例えば、拡大)し、付加的閃光を包含してもよい。閃光検出モジュール714は、サイズおよび/または強度によって、閃光をフィルタリングしてもよい。閃光検出モジュール714はまた、眼追跡画像内の閃光のそれぞれの2D位置を決定してもよい。少なくともいくつかの実施例では、閃光検出モジュール714は、瞳孔−閃光ベクトルとも称され得る、ユーザの瞳孔に対する閃光の2D位置を決定してもよい。閃光検出および標識化モジュール714は、閃光を標識化し、標識された閃光を伴う前処理画像を3D角膜中心推定モジュール716に出力してもよい。閃光検出および標識化モジュール714はまた、モジュール710からの前処理された画像およびモジュール712からの瞳孔識別データ等のデータを伝えてもよい。いくつかの実装では、閃光検出および標識化モジュール714は、各識別された閃光を生産した(例えば、赤外線光源326aおよび326bを含む、システムの複数の光源の中の)光源を決定してもよい。これらの実施例では、閃光検出および標識化モジュール714は、閃光を関連付けられた光源を識別する情報で標識化し、標識された閃光を伴う前処理画像を3D角膜中心推定モジュール716に出力してもよい。
モジュール712および714等のモジュールによって実施されるような瞳孔および閃光検出は、任意の好適な技法を使用することができる。実施例として、縁検出が、眼画像に適用され、閃光および瞳孔を識別することができる。縁検出は、種々の縁検出器、縁検出アルゴリズム、またはフィルタによって適用されることができる。例えば、Canny縁検出器が、画像に適用され、画像の線等の縁を検出することができる。縁は、局所最大導関数に対応する、線に沿って位置する点を含んでもよい。例えば、瞳孔境界516a(図5参照)が、Canny縁検出器を使用して、位置特定されることができる。瞳孔の場所が決定されると、種々の画像処理技法が、瞳孔116の「姿勢」を検出するために使用されることができる。眼画像の眼姿勢の決定は、眼画像の眼姿勢の検出とも称され得る。姿勢は、視線、向いている方向、または眼の配向とも称され得る。例えば、瞳孔は、オブジェクトに向かって左を見ている場合があり、瞳孔の姿勢は、左向き姿勢として分類され得る。他の方法も、瞳孔または閃光の場所を検出するために使用されることができる。例えば、同心リングが、Canny縁検出器を使用した眼画像内に位置し得る。別の実施例として、積分微分演算子が、瞳孔または虹彩の角膜または輪部の境界を見出すために使用されてもよい。例えば、Daugman積分微分演算子、Hough変換、または他の虹彩セグメント化技法が、瞳孔または虹彩の境界を推定する、曲線を返すために使用されることができる。
3D角膜中心推定モジュール716は、検出された閃光データおよび瞳孔識別データを含む、前処理された画像を、モジュール710、712、714から受信してもよい。3D角膜中心推定モジュール716は、これらのデータを使用して、ユーザの角膜の3D位置を推定してもよい。いくつかの実施形態では、3D角膜中心推定モジュール716は、眼の角膜曲率またはユーザの角膜球面の中心、例えば、概して、ユーザの角膜と同延の表面部分を有する、想像上の球面の中心の3D位置を推定してもよい。3D角膜中心推定モジュール716は、角膜球面および/またはユーザの角膜の推定された3D座標を示すデータを、座標系正規化モジュール718、光学軸決定モジュール722、および/またはライトフィールドレンダリングコントローラ618に提供してもよい。3D角膜中心推定モジュール716の動作のさらなる詳細は、図8A−8Eに関連して本明細書に提供される。3D角膜中心推定モジュール716および本開示のウェアラブルシステム内の他のモジュールによって利用され得る、角膜または角膜球面等の眼特徴の位置を推定するための技法は、2017年4月26日に出願された、米国特許出願第15/497,726号(弁理士整理番号MLEAP.023A7)(参照することによってその全体として本明細書に組み込まれる)に議論される。
座標系正規化モジュール718は、随意に、(その破線輪郭によって示されるように)眼追跡モジュール614内に含まれてもよい。座標系正規化モジュール718は、ユーザの角膜の中心(および/またはユーザの角膜球面の中心)の推定された3D座標を示すデータを、3D角膜中心推定モジュール716から受信してもよく、また、データを他のモジュールから受信してもよい。座標系正規化モジュール718は、眼カメラ座標系を正規化してもよく、これは、ウェアラブルデバイスの滑脱(例えば、位置合わせオブザーバ620によって識別され得る、ユーザの頭部上のその正常静置位置からの頭部搭載型コンポーネントの滑脱)を補償することに役立ち得る。座標系正規化モジュール718は、座標系を回転させ、座標系のz−軸(例えば、輻輳・開散運動深度軸)と角膜中心(例えば、3D角膜中心推定モジュール716によって示されるように)を整合させてもよく、カメラ中心(例えば、座標系の原点)を30mm等の角膜中心から離れた所定の距離に平行移動させてもよい(例えば、モジュール718は、眼カメラ324が所定の距離より近くまたは遠くにあるように決定されるかどうかに応じて、眼追跡画像を拡大または収縮し得る)。本正規化プロセスを用いることで、眼追跡モジュール614は、比較的に、ユーザの頭部上に位置付けられるヘッドセットの変動から独立して、眼追跡データ内の一貫した配向および距離を確立することが可能であり得る。座標系正規化モジュール718は、角膜(および/または角膜球面)の中心の3D座標、瞳孔識別データ、および前処理された眼追跡画像を3D瞳孔中心ロケータモジュール720に提供してもよい。座標系正規化モジュール718の動作のさらなる詳細は、図9A−9Cに関連して本明細書に提供される。
3D瞳孔中心ロケータモジュール720は、正規化または非正規化座標系内において、ユーザの角膜(および/または角膜球面)の中心の3D座標、瞳孔場所データ、および前処理された眼追跡画像を含む、データを受信してもよい。3D瞳孔中心ロケータモジュール720は、そのようなデータを分析して、正規化または非正規化眼カメラ座標系内のユーザの瞳孔の中心の3D座標を決定してもよい。3D瞳孔中心ロケータモジュール720は、瞳孔重心の2D位置(モジュール712によって決定されるように)、角膜中心の3D位置(モジュール716によって決定されるように)、典型的ユーザの角膜球面のサイズおよび角膜中心から瞳孔中心までの典型的距離等の仮定された眼寸法704、および角膜の屈折率(空気の屈折率に対する)等の眼の光学性質、または任意のこれらの組み合わせに基づいて、3次元におけるユーザの瞳孔の場所を決定してもよい。3D瞳孔中心ロケータモジュール720の動作のさらなる詳細は、図9D−9Gに関連して本明細書に提供される。3D瞳孔中心ロケータモジュール720および本開示のウェアラブルシステム内の他のモジュールによって利用され得る、瞳孔等の眼特徴の位置を推定するための技法は、2017年4月26日に出願された、米国特許出願第15/497,726(弁理士整理番号MLEAP.023A7)号(参照することによってその全体として本明細書に組み込まれる)に議論される。
光学軸決定モジュール722は、ユーザの角膜およびユーザの瞳孔の中心の3D座標を示すデータを、モジュール716および720から受信してもよい。そのようなデータに基づいて、光学軸決定モジュール722は、角膜中心の位置から(例えば、角膜球面の中心から)、ユーザの眼の光学軸を定義し得る、ユーザの瞳孔の中心までのベクトルを識別してもよい。光学軸決定モジュール722は、実施例として、ユーザの光学軸を規定する出力をモジュール724、728、730、および732に提供してもよい。
回転中心(CoR)推定モジュール724は、ユーザの眼の光学軸のパラメータを含むデータ(例えば、頭部搭載型ユニット602に対して既知の関係を伴う座標系内の光学軸の方向を示すデータ)を、モジュール722から受信してもよい。例えば、CoR推定モジュール724は、ユーザの眼の回転中心を推定し得る。回転中心は、ユーザの眼が左、右、上、および/または下に回転するとき、その周囲でユーザの眼が回転する点を示し得る。眼が、単点の周囲で完璧に回転し得ない場合でも、単点が十分であり得ると仮定する。少なくともいくつかの実施形態では、CoR推定モジュール724は、瞳孔の中心(モジュール720によって識別される)または角膜の曲率中心(モジュール716によって識別されるように)から網膜に向かって光学軸(モジュール722によって識別される)に沿って特定の距離だけ移動させることによって、眼の回転中心を推定し得る。本特定の距離は、仮定された眼寸法704であってもよい。一実施例として、角膜の曲率中心とCoRとの間の特定の距離は、約4.7mmであってもよい。本距離は、ユーザの年齢、性別、視覚処方箋、他の関連特性等を含む、任意の関連データに基づいて、特定のユーザのために変動され得る。角膜の曲率中心とCoRとの間の距離に関する推定値としての4.7mmの値の付加的議論は、本願の一部を形成する、付属(第III章)に提供される。
少なくともいくつかの実施形態では、CoR推定モジュール724は、ユーザの眼のそれぞれの回転中心のその推定値を経時的に精緻化してもよい。実施例として、時間が経過するにつれて、ユーザは、最終的に、その眼を回転させ(他の場所、より近く、より遠くの何らかのもの、またはある時に左、右、上、または下を見るため)、その眼のそれぞれの光学軸において偏移させるであろう。CoR推定モジュール724は、次いで、モジュール722によって識別される2つ(以上の)光学軸を分析し、それらの光学軸の交点の3D点を位置特定してもよい。CoR推定モジュール724は、次いで、その交点の3D点にある回転中心を決定してもよい。そのような技法は、経時的に改良する正確度を伴う、回転中心の推定値を提供し得る。
種々の技法が、CoR推定モジュール724および左および右眼の決定されたCoR位置の正確度を増加させるために採用されてもよい。実施例として、CoR推定モジュール724は、種々の異なる眼姿勢に関して経時的に決定された光学軸の交点の平均点を見出すことによって、CoRを推定してもよい。付加的実施例として、モジュール724は、推定されたCoR位置を経時的にフィルタリングまたは平均化してもよく、推定されたCoR位置の移動平均を経時的に計算してもよく、および/またはカルマンフィルタおよび眼および眼追跡システムの既知の動態を適用し、CoR位置を経時的に推定してもよい。いくつかの実装では、最小二乗アプローチが、光学軸の交点の1つ以上の点を決定するためにとられ得る。そのような実装では、システムは、所与の時点において、所与のセットの光学軸までの二乗距離の和が光学軸の交差の点として低減または最小限にされる、場所を識別し得る。具体的実施例として、モジュール724は、決定されたCoRが、ユーザに関する眼追跡データが取得されるにつれて、仮定されたCoR位置(例えば、眼の角膜曲率の中心の4.7mm背後)からユーザの眼内の若干異なる場所に経時的にゆっくりと移り、それによって、CoR位置のユーザ毎精緻化を可能にし得るように、光学軸交点の決定された点および仮定されたCoR位置(眼の角膜曲率の中心から4.7mm等)の加重平均を計算してもよい。
理想的条件下では、HMDに対するユーザの眼の真のCoRの3D位置は、ユーザがその眼を移動させるにつれて(例えば、ユーザの眼がその回転中心の周囲で回転するにつれて)、無視可能であるまたは最小限の量だけ経時的に変化するはずである。言い換えると、眼移動の所与のセットに関して、(HMDに対する)ユーザの眼の真のCoRの3D位置は、仮説上、ユーザの眼の光学軸に沿った任意の他の点ほど経時的に変動しないはずである。したがって、光学軸に沿った点がユーザの眼の真のCoRから離れるほど、その3D位置は、ユーザがその眼を移動させるにつれて、より多くの変動量または分散量を経時的に呈するであろうということになる。いくつかの実施形態では、CoR推定モジュール724および/または眼追跡モジュール614の他のサブモジュールは、本統計的関係を利用して、CoR推定正確度を改良してもよい。そのような実施形態では、CoR推定モジュール724および/または眼追跡モジュール614の他のサブモジュールは、低変動量(例えば、低分散量または標準偏差)を有する、そのCoR推定値の変動量を識別することによって、CoR 3D位置のその推定値を経時的に精緻化してもよい。
第1の実施例として、CoR推定モジュール724が、複数の異なる光学軸の交点(それぞれ、異なる方向を見ているユーザと関連付けられる)に基づいて、CoRを推定する実施形態では、CoR推定モジュール724は、共通オフセットを光学軸のそれぞれの方向に導入し(例えば、各軸をある均一量だけ偏移させる)、オフセットされた光学軸が、低変動量、例えば、低分散量または標準偏差を有する交点において相互に交差するかどうかを決定することによって、本統計的関係(真のCoRは、低分散量を有するはずである)を利用してもよい。これは、光学軸の方向の計算におけるわずかな体系的誤差を補正し、CoRの推定される位置が真のCoRにより近くなるように精緻化することに役立ち得る。
第2の実施例として、CoR推定モジュール724が、光学軸(または他の軸)に沿って特定の距離(例えば、角膜の曲率中心とCoRとの間の距離等)だけ移動させることによって、CoRを推定する、実施形態では、システムは、推定されるCoR位置の変動量、例えば、分散量および/または標準偏差を低減または最小限にするような様式において、角膜の曲率中心とCoRとの間の特定の距離を経時的に変動させる、最適化する、調整する、または別様に調節してもよい(例えば、異なる時間において捕捉された眼の大規模な画像のグループに関して)。例えば、CoR推定モジュール724が、最初に、4.7mmの特定の距離値(角膜の曲率中心から、光学軸に沿って)を使用し、CoR位置推定値を取得するが、所与のユーザの眼の真のCoRが、眼の角膜曲率の中心の4.9mm背後に位置付けられ得る(光学軸に沿って)場合、CoR推定モジュール724によって取得されるCoR位置推定値の初期セットは、比較的に高量の変動量、例えば、分散量または標準偏差を呈し得る。そのような比較的に高量の変動量(例えば、分散量または標準偏差)の検出に応答して、CoR推定モジュール724は、より低量の変動量(例えば、分散量または標準偏差)を有する、光学軸に沿った1つ以上の点を探索および識別してもよく、最低変動量(例えば、分散量または標準偏差)を有する、4.9mm距離を識別してもよく、したがって、利用される特定の距離値を4.9mmに調節してもよい。
CoR推定モジュール724は、現在のCoR推定値が比較的に高量の変動量(例えば、分散量または標準偏差)を有することを検出するに応答して、より低い変動量(例えば、分散量および/または標準偏差)を有する、代替CoR推定値を探索してもよい、または初期CoR推定値を取得後、当然のように、より低い変動量(例えば、分散量または標準偏差)を有する、代替CoR推定値を探索してもよい。いくつかの実施例では、そのような最適化/調節は、経時的に徐々に発生してもよい一方、他の実施例では、そのような最適化/調節は、初期ユーザ較正セッションの間に行われることができる。そのようなプロシージャが較正プロシージャの間に行われる、実施例では、CoR推定モジュール724は、最初に、任意の仮定される特定の距離に賛同/遵守しなくてもよく、むしろ、眼追跡データのセットを経時的に収集し、統計的分析を眼追跡データのセット上で実施し、統計的分析に基づいて、最も少ない可能性として考えられる量(例えば、大域的最小値)の変動量(例えば、分散量または標準偏差)を伴うCoR位置推定値をもたらす、特定の距離値を決定してもよい。
上記に説明される統計的関係(例えば、真のCoRは、低分散量または標準偏差を有するはずである)および瞳孔位置を決定する際に角膜屈折を考慮することの有意性の付加的議論は、本願の一部を形成する、付属(第III章)に提供される。
瞳孔間距離(IPD)推定モジュール726は、ユーザの左および右眼の回転中心の推定された3D位置を示すデータを、CoR推定モジュール724から受信してもよい。IPD推定モジュール726は、次いで、ユーザの左および右眼の回転中心間の3D距離を測定することによって、ユーザのIPDを推定してもよい。一般に、ユーザの左眼の推定されたCoRとユーザの右眼の推定されたCoRとの間の距離は、ユーザが光学無限遠を見ている(例えば、ユーザの眼の光学軸が相互に略平行である)とき、ユーザの瞳孔の中心間の距離と概ね等しくあり得、これは、瞳孔間距離(IPD)の典型的定義である。ユーザのIPDは、ウェアラブルシステム内の種々のコンポーネントおよびモジュールによって使用されてもよい。実施例として、ユーザのIPDは、位置合わせオブザーバ620に提供され、ウェアラブルデバイスがユーザの眼と整合されている程度(例えば、左および右ディスプレイレンズが、ユーザのIPDに従って適切に離間されているかどうか)を査定する際に使用されてもよい。別の実施例として、ユーザのIPDは、輻輳・開散運動深度推定モジュール728に提供され、ユーザの輻輳・開散運動深度を決定する際に使用されてもよい。モジュール726は、CoR推定モジュール724に関連して議論されるもの等の種々の技法を採用し、推定されたIPDの正確度を増加させてもよい。実施例として、IPD推定モジュール724は、正確な様式におけるユーザのIPDの推定の一部として、フィルタリング、経時的平均、仮定されたIPD距離を含む、加重平均、カルマンフィルタ等を適用してもよい。
輻輳・開散運動深度推定モジュール728は、データを眼追跡モジュール614内の種々のモジュールおよびサブモジュール(図7Aに関連して示されるように)から受信してもよい。特に、輻輳・開散運動深度推定モジュール728は、瞳孔中心の推定された3D位置(例えば、上記に説明されるモジュール720によって提供されるように)、光学軸の1つ以上の決定されたパラメータ(例えば、上記に説明されるモジュール722によって提供されるように)、回転中心の推定された3D位置(例えば、上記に説明されるモジュール724によって提供されるように)、推定されたIPD(例えば、回転中心の推定された3D位置間のユークリッド距離)(例えば、上記に説明されるモジュール726によって提供されるように)、および/または光学軸および/または視軸の1つ以上の決定されたパラメータ(例えば、下記に説明されるモジュール722および/またはモジュール730によって提供されるように)を示すデータを採用してもよい。輻輳・開散運動深度推定モジュール728は、ユーザの眼が合焦されるユーザからの距離であり得る、ユーザの輻輳・開散運動深度の測定値を検出または別様に取得してもよい。実施例として、ユーザが、彼らの正面から3フィートのオブジェクトを見ているとき、ユーザの左および右眼は、3フィートの輻輳・開散運動深度を有する一方、ユーザが遠距離の景観を見ている(例えば、ユーザの眼の光学軸が、ユーザの瞳孔の中心間の距離が、ユーザの左および右眼の回転中心間の距離と概ね等しくあり得るように、相互に略平行である)とき、ユーザの左および右眼は、無限遠の輻輳・開散運動深度を有する。いくつかの実装では、輻輳・開散運動深度推定モジュール728は、ユーザの瞳孔の推定された中心(例えば、モジュール720によって提供されるように)を示すデータを利用し、ユーザの瞳孔の推定された中心間の3D距離を決定してもよい。輻輳・開散運動深度推定モジュール728は、瞳孔中心間のそのような決定された3D距離と推定されたIPD(例えば、回転中心の推定された3D位置間のユークリッド距離)(例えば、上記に説明されるモジュール726によって示されるように)を比較することによって、輻輳・開散運動深度の測定値を取得してもよい。瞳孔中心間の3D距離および推定されたIPDに加え、輻輳・開散運動深度推定モジュール728は、既知の、仮定された、推定された、および/または決定された幾何学形状を利用して、輻輳・開散運動深度を計算してもよい。実施例として、モジュール728は、瞳孔中心間の3D距離、推定されたIPD、および三角法計算における3D CoR位置を組み合わせて、ユーザの輻輳・開散運動深度を推定(例えば、決定)してもよい。実際、推定されたIPDに対する瞳孔中心間のそのような決定された3D距離の評価は、光学無限遠に対するユーザの現在の輻輳・開散運動深度の測定値を示す役割を果たし得る。いくつかの実施例では、輻輳・開散運動深度推定モジュール728は、単に、輻輳・開散運動深度のそのような測定値を取得する目的のために、ユーザの瞳孔の推定された中心間の推定された3D距離を示すデータを受信する、またはそれにアクセスしてもよい。いくつかの実施形態では、輻輳・開散運動深度推定モジュール728は、ユーザの左および右光学軸を比較することによって、輻輳・開散運動深度を推定してもよい。特に、輻輳・開散運動深度推定モジュール728は、ユーザの左および右光学軸が交差する(または水平平面等の平面上のユーザの左および右光学軸の投影が交差する)、ユーザからの距離を位置特定することによって、輻輳・開散運動深度を推定してもよい。モジュール728は、ゼロ深度をユーザの左および右光学軸がユーザのIPDによって分離される深度であると設定することによって、本計算において、ユーザのIPDを利用してもよい。少なくともいくつかの実施形態では、輻輳・開散運動深度推定モジュール728は、眼追跡データを、既知のまたは導出された空間関係とともに三角測量することによって、輻輳・開散運動深度を決定してもよい。
いくつかの実施形態では、輻輳・開散運動深度推定モジュール728は、ユーザが合焦している距離のより正確なインジケーションを提供し得る、ユーザの視軸の交点に基づいて(その光学軸の代わりに)、ユーザの輻輳・開散運動深度を推定してもよい。少なくともいくつかの実施形態では、眼追跡モジュール614は、光学軸/視軸マッピングモジュール730を含んでもよい。図10に関連してさらに詳細に議論されるように、ユーザの光学軸および視軸は、概して、整合されない。視軸は、それに沿って人物が見ている軸である一方、光学軸は、その人物の水晶体および瞳孔の中心によって定義され、人物の網膜の中心を通して進み得る。特に、ユーザの視軸は、概して、ユーザの網膜の中心からオフセットされ、それによって、異なる光学および視軸をもたらし得る、ユーザの中心窩の場所によって定義される。これらの実施形態のうちの少なくともいくつかでは、眼追跡モジュール614は、光学軸/視軸マッピングモジュール730を含んでもよい。光学軸/視軸マッピングモジュール730は、ユーザの光学軸と視軸との間の差異を補正し、輻輳・開散運動深度推定モジュール728およびライトフィールドレンダリングコントローラ618等のウェアラブルシステム内の他のコンポーネントに対するユーザの視軸に関する情報を提供してもよい。いくつかの実施例では、モジュール730は、光学軸と視軸との間の内向きの(鼻側に、ユーザの鼻に向かって)約5.2°の典型的オフセットを含む、仮定された眼寸法704を使用してもよい。言い換えると、モジュール730は、ユーザの左および右光学軸の方向を推定するために、ユーザの左光学軸を5.2°鼻に向かって(鼻側に)右に、ユーザの右光学軸を5.2°鼻に向かって(鼻側に)左に偏移させ得る。他の実施例では、モジュール730は、光学軸(例えば、上記に説明されるモジュール722によって示されるように)を視軸にマッピングする際、ユーザ毎較正データ706を利用してもよい。付加的実施例として、モジュール730は、ユーザの光学軸を鼻側に4.0°〜6.5°、4.5°〜6.0°、5.0°〜5.4°等、またはこれらの値のいずれかによって形成される任意の範囲だけ偏移させてもよい。いくつかの配列では、モジュール730は、少なくとも部分的に、その年齢、性別、視覚処方箋、または他の関連特性等の特定のユーザの特性に基づいて、偏移を適用してもよく、および/または少なくとも部分的に、特定のユーザのための較正プロセス(例えば、特定のユーザの光学軸−視軸オフセットを決定するため)に基づいて、偏移を適用してもよい。少なくともいくつかの実施形態では、モジュール730はまた、左および右光学軸の原点を偏移させ、ユーザのCoRの代わりに、ユーザのCoP(モジュール732によって決定されるように)に対応させてもよい。
随意の視点中心(CoP)推定モジュール732が、提供されるとき、ユーザの左および右視点中心(CoP)の場所を推定してもよい。CoPは、ウェアラブルシステムのための有用な場所であって、少なくともいくつかの実施形態では、瞳孔の真正面の位置であり得る。少なくともいくつかの実施形態では、CoP推定モジュール732は、ユーザの瞳孔中心の3D場所、ユーザの角膜曲率の中心の3D場所、またはそのような好適なデータ、またはそれらの任意の組み合わせに基づいて、ユーザの左および右視点中心の場所を推定してもよい。実施例として、ユーザのCoPは、角膜曲率の中心の正面の約5.01mm(例えば、角膜球面中心から、眼の角膜に向かい、光学軸に沿った方向に5.01mm)にあり得、光学軸または視軸に沿ってユーザの角膜の外側表面の約2.97mm背後にあり得る。ユーザの視点中心は、その瞳孔の中心の真正面にあり得る。実施例として、ユーザのCoPは、ユーザの瞳孔から約2.0mm未満、ユーザの瞳孔から約1.0mm未満、またはユーザの瞳孔から約0.5mm未満、またはこれらの値のいずれか間の任意の範囲であり得る。別の実施例として、視点中心は、眼の前房内の場所に対応し得る。他の実施例として、CoPは、1.0mm〜2.0mm、約1.0mm、0.25mm〜1.0mm、0.5mm〜1.0mm、または0.25mm〜0.5mmにあり得る。
(レンダリングカメラのピンホールの潜在的に望ましい位置およびユーザの眼内の解剖学的位置としての)本明細書に説明される視点中心は、望ましくない視差偏移を低減および/または排除する役割を果たす、位置であり得る。特に、ユーザの眼の光学系は、レンズの正面のピンホールが画面上に投影することによって形成される理論的システムにほぼ概ね匹敵し、ピンホール、レンズ、および画面は、それぞれ、ユーザの瞳孔/虹彩、水晶体、および網膜に概ね対応する。さらに、ユーザの眼から異なる距離における2つの点光源(またはオブジェクト)が、ピンホールの開口部を中心として厳密に回転する(例えば、ピンホールの開口部からのその個別の距離と等しい曲率半径に沿って回転される)とき、殆どまたは全く視差偏移が存在しないことが望ましくあり得る。したがって、CoPは、眼の瞳孔の中心に位置するはずであると考えられるであろう(およびそのようなCoPが、いくつかの実施形態では、使用されてもよい)。しかしながら、ヒトの眼は、水晶体および瞳孔のピンホールに加え、付加的屈折力を網膜に向かって伝搬する光に付与する、角膜を含む。したがって、本段落に説明される理論的システム内のピンホールの解剖学的均等物は、ユーザの眼の角膜の外側表面とユーザの眼の瞳孔または虹彩の中心との間に位置付けられる、ユーザの眼の領域であり得る。例えば、ピンホールの解剖学的均等物は、ユーザの眼の前房内の領域に対応し得る。本明細書で議論される種々の理由から、CoPをユーザの眼の前房内のそのような位置に設定することが所望され得る。CoPの導出および有意性は、図22−24Bに関して下記により詳細に説明される。
上記に議論されるように、眼追跡モジュール614は、左および右眼回転中心(CoR)の推定された3D位置、輻輳・開散運動深度、左および右眼光学軸、ユーザの眼の3D位置、ユーザの角膜曲率の左および右中心の3D位置、ユーザの左および右瞳孔中心の3D位置、ユーザの左および右視点中心の3D位置、ユーザのIPD等のデータを、ウェアラブルシステム内のライトフィールドレンダリングコントローラ618および位置合わせオブザーバ620等の他のコンポーネントに提供してもよい。眼追跡モジュール614はまた、ユーザの眼の他の側面と関連付けられたデータを検出および生成する、他のサブモジュールを含んでもよい。実施例として、眼追跡モジュール614は、ユーザが瞬目する度に、フラグまたは他のアラートを提供する、瞬目検出モジュールと、ユーザの眼がサッカードする(例えば、焦点を別の点に迅速に偏移させる)度に、フラグまたは他のアラートを提供する、サッカード検出モジュールとを含んでもよい。
レンダリングコントローラの実施例
例示的ライトフィールドレンダリングコントローラ618の詳細なブロック図が、図7Bに示される。図6および7Bに示されるように、レンダリングコントローラ618は、眼追跡情報を眼追跡モジュール614から受信してもよく、出力をレンダリングエンジン622に提供してもよく、これは、ウェアラブルシステムのユーザによって視認するために表示されるべき画像を生成し得る。実施例として、レンダリングコントローラ618は、輻輳・開散運動深度、左および右眼回転中心(および/または視点中心)、および瞬目データ、サッカードデータ等の他の眼データを受信してもよい。
深度平面選択モジュール750は、輻輳・開散運動深度情報および他の眼データを受信してもよく、そのようなデータに基づいて、レンダリングエンジン622に、特定の深度平面(例えば、特定の遠近調節または焦点距離)を伴うコンテンツをユーザに伝達させてもよい。図4に関連して議論されるように、ウェアラブルシステムは、それぞれ、可変レベルの波面曲率を伴う画像情報を伝達する、複数の導波管によって形成される、複数の離散深度平面を含んでもよい。いくつかの実施形態では、ウェアラブルシステムは、経時的に変動するレベルの波面曲率を伴う画像情報を伝達する、光学要素等の1つ以上の可変深度平面を含んでもよい。これらおよび他の実施形態では、深度平面選択モジュール750が、レンダリングエンジン622に、部分的に、ユーザの輻輳・開散運動深度に基づいて、コンテンツを選択された深度においてユーザに伝達させてもよい(例えば、レンダリングエンジン622に、ディスプレイ220に深度平面を切り替えるように指示させる)。少なくともいくつかの実施形態では、深度平面選択モジュール750およびレンダリングエンジン622は、コンテンツを異なる深度にレンダリングし、また、深度平面選択データを生成し、および/またはディスプレイ220等のディスプレイハードウェアに提供してもよい。ディスプレイ220等のディスプレイハードウェアは、深度平面選択モジュール750およびレンダリングエンジン622等のモジュールによって生成および/または提供される深度平面選択データ(制御信号であり得る)に応答して、電気深度平面切替を実施してもよい。
一般に、深度平面選択モジュール750が、ユーザが正確な遠近調節キューを提供されるように、ユーザの現在の輻輳・開散運動深度に合致する深度平面を選択することが望ましくあり得る。しかしながら、また、慎重かつ目立たない様式において深度平面を切り替えることが望ましくあり得る。実施例として、深度平面間の過剰な切替を回避することが望ましくあり得、および/または瞬目または眼サッカードの間等のユーザが切替に気付く可能性が低い時間に深度平面を切り替えることが望ましくあり得る。
ヒステリシス帯交差検出モジュール752は、特に、ユーザの輻輳・開散運動深度が2つの深度平面間の中点または遷移点で変動するとき、深度平面間の過剰な切替を回避することに役立ち得る。特に、モジュール752は、深度平面選択モジュール750に、ヒステリシスを深度平面のその選択に呈させてもよい。実施例として、モジュール752は、深度平面選択モジュール750に、ユーザの輻輳・開散運動深度が第1の閾値を通過した後のみ、第1のより遠い深度平面から第2のより近い深度平面に切り替えさせてもよい。同様に、モジュール752は、深度平面選択モジュール750に(ひいては、ディスプレイ220等のディスプレイに指示し得る)、ユーザの輻輳・開散運動深度が第1の閾値よりユーザから遠い第2の閾値を通過した後のみ、第1のより遠い深度平面に切り替えさせてもよい。第1の閾値と第2の閾値との間の重複領域では、モジュール750は、深度平面選択モジュール750に、いずれかの深度平面が選択された深度平面として現在選択されているように維持させ、したがって、深度平面間の過剰な切替を回避してもよい。
眼球イベント検出モジュール750は、他の眼データを図7Aの眼追跡モジュール614から受信してもよく、深度平面選択モジュール750に、眼球イベントが生じるまで、いくつかの深度平面切替を遅延させてもよい。実施例として、眼球イベント検出モジュール750は、深度平面選択モジュール750に、ユーザ瞬目が検出されるまで、計画された深度平面切替を遅延させてもよく、眼追跡モジュール614内の瞬目検出コンポーネントから、ユーザが現在瞬目していることを示す、データを受信してもよく、それに応答して、深度平面選択モジュール750に、瞬目イベントの間、計画された深度平面切替を実行させてもよい(モジュール750に、瞬目イベントの間、ディスプレイ220に深度平面切替を実行するように指示させることによって等)。少なくともいくつかの実施形態では、ウェアラブルシステムは、ユーザが偏移を知覚する可能性が低いように、瞬目イベントの間、コンテンツを新しい深度平面上に偏移させることが可能であり得る。別の実施例として、眼球イベント検出モジュール750は、眼サッカードが検出されるまで、計画された深度平面切替を遅延させてもよい。眼瞬目に関連して議論されるように、そのような配列は、深度平面の離散偏移を促進し得る。
所望に応じて、深度平面選択モジュール750は、眼球イベントの不在下であっても、深度平面切替を実行する前に、限定された期間にわたってのみ、計画された深度平面切替を遅延させてもよい。同様に、深度平面選択モジュール750は、眼球イベントの不在下であっても、ユーザの輻輳・開散運動深度が、現在選択されている深度平面外に実質的にあるとき(例えば、ユーザの輻輳・開散運動深度が、深度平面切替のための通常閾値を超える所定の閾値を超えたとき)、深度平面切替を実行してもよい。これらの配列は、眼球イベント検出モジュール754が、深度平面切替を無限に遅延させず、大遠近調節誤差が存在するとき、深度平面切替を遅延させないことを確実にすることに役立ち得る。深度平面選択モジュール750の動作およびモジュールが深度平面切替のタイミングを合わせ得る方法のさらなる詳細は、図12に関連して本明細書に提供される。
レンダリングカメラコントローラ758は、ユーザの左および右眼の場所を示す情報を、レンダリングエンジン622に提供してもよい。レンダリングエンジン622は、次いで、カメラをユーザの左および右眼の位置においてシミュレートし、シミュレートされたカメラの視点に基づいて、コンテンツを生成することによって、コンテンツを生成してもよい。上記に議論されるように、レンダリングカメラは、可能性として、仮想世界内のオブジェクトのデータベースから仮想画像コンテンツをレンダリングする際に使用するためのシミュレートされたカメラである。オブジェクトは、ユーザまたは装着者に対する、可能性として、ユーザまたは装着者を囲繞する環境内の実オブジェクトに対する、場所および配向を有してもよい。レンダリングカメラは、レンダリングエンジン内に含まれ、該眼に提示されるべき仮想オブジェクトのデータベースに基づいて、仮想画像をレンダリングしてもよい。仮想画像は、ユーザまたは装着者の視点から撮影されたかのようにレンダリングされてもよい。例えば、仮想画像は、仮想世界内のオブジェクトを視認する、開口、レンズ、および検出器を有する、カメラ(「レンダリングカメラ」に対応する)によって捕捉されたかのようにレンダリングされてもよい。仮想画像は、「レンダリングカメラ」の位置を有する、そのようなカメラの視点から撮影される。例えば、仮想画像は、ユーザまたは装着者の視点からであるように現れる画像を提供するように、ユーザまたは装着者の眼に対する具体的場所を有する、カメラの視点から捕捉されたかのようにレンダリングされてもよい。いくつかの実装では、画像は、ユーザまたは装着者の眼に対する具体的場所(本明細書に議論されるような視点中心または回転中心または他の場所等)に開口を有するカメラの視点から捕捉されたかのようにレンダリングされる。
レンダリングカメラコントローラ758は、CoR推定モジュール724によって決定された左および右眼回転中心(CoR)に基づいて、および/またはCoP推定モジュール732によって決定された左および右眼視点中心(CoP)に基づいて、左および右カメラの位置を決定してもよい。いくつかの実施形態では、レンダリングカメラコントローラ758は、種々の要因に基づいて、CoR場所とCoP場所との間で切り替えてもよい。実施例として、レンダリングカメラコントローラ758は、種々のモードでは、レンダリングカメラをCoR場所に常時位置合わせする、レンダリングカメラをCoP場所に常時位置合わせする、種々の要因に基づいて、経時的に、CoR場所へのレンダリングカメラの位置合わせとCoP場所へのレンダリングカメラの位置合わせとの間でトグルする、または離散的に切り替える、または種々の要因に基づいて、経時的に、CoR場所とCoP場所との間で光学軸(または視軸)に沿った異なる位置の範囲のいずれかにレンダリングカメラを動的に位置合わせしてもよい。CoRおよびCoP位置は、随意に、平滑フィルタ756を通して通過し得(レンダリングカメラ位置付けのための前述のモードのいずれかにおいて)、これは、CoRおよびCoP場所を経時的に平均し、これらの位置における雑音を低減させ、シミュレートされたレンダリングカメラをレンダリングする際のジッタを防止し得る。
少なくともいくつかの実施形態では、レンダリングカメラは、眼追跡モジュール614によって識別される推定されたCoRまたはCoPの位置に配置されるピンホールを伴うピンホールカメラとしてシミュレートされてもよい。CoPは、CoRからオフセットされるため、レンダリングカメラの位置がユーザのCoPに基づくときは常時、レンダリングカメラおよびそのピンホールの両方の場所が、ユーザの眼が回転するにつれて偏移する(例えば、図16Aおよび16Bに示されるようなレンダリングカメラが眼回転に伴って線形に平行移動する方法参照)。対照的に、レンダリングカメラの位置が、ユーザのCoRに基づくときは常時、レンダリングカメラのピンホールの場所は、眼回転に伴って移動しないが、レンダリングカメラ(ピンホールの背後)は、いくつかの実施形態では、眼回転に伴って移動し得る。レンダリングカメラの位置がユーザのCoRに基づく、他の実施形態では、レンダリングカメラは、ユーザの眼に伴って移動(すなわち、回転)しなくてもよい(例えば、図17Aおよび17Bに描写されるようなレンダリングカメラが眼回転に伴って移動または線形に平行移動しない方法参照)。
眼追跡システムを用いてユーザの角膜を位置特定する実施例
図8Aは、眼の角膜球面を示す、眼の概略図である。図8Aに示されるように、ユーザの眼810は、角膜812と、瞳孔822と、水晶体820とを有し得る。角膜812は、角膜球面814によって示される、略球状形状を有し得る。角膜球面814は、角膜中心とも称される、中心点816と、半径818とを有し得る。ユーザの眼の半球状角膜は、角膜中心816の周囲に湾曲し得る。
図8B−8Eは、3D角膜中心推定モジュール716および眼追跡モジュール614を使用してユーザの角膜中心816を位置特定する、実施例を図示する。
図8Bに示されるように、3D角膜中心推定モジュール716は、角膜閃光854を含む、眼追跡画像852を受信してもよい。3D角膜中心推定モジュール716は、次いで、光線856を眼カメラ座標系内に投射するために、眼カメラ座標系850内において、眼カメラ324および光源326の既知の3D位置(眼追跡付帯性質および固有性質データベース702、仮定された眼寸法データベース704、および/またはユーザ毎較正データ706内のデータに基づき得る)をシミュレートしてもよい。少なくともいくつかの実施形態では、眼カメラ座標系850は、その原点を眼追跡カメラ324の3D位置に有してもよい。
図8Cでは、3D角膜中心推定モジュール716は、第1の位置における角膜球面814a(データベース704からの仮定された眼寸法に基づき得る)および角膜曲率中心816aをシミュレートする。3D角膜中心推定モジュール716は、次いで、角膜球面814aが光を光源326から閃光位置854に適切に反射させるであろうかどうかをチェックしてもよい。図8Cに示されるように、第1の位置は、光線860aが光源326と交差しないため、合致しない。
図8Dと同様に、3D角膜中心推定モジュール716は、第2の位置における角膜球面814bおよび角膜曲率中心816bをシミュレートする。3D角膜中心推定モジュール716は、次いで、角膜球面814bが、光を光源326から閃光位置854に適切に反射させるかどうかをチェックする。図8Dに示されるように、第2の位置もまた、合致しない。
図8Eに示されるように、3D角膜中心推定モジュール716は、最終的に、角膜球面の正しい位置が角膜球面814cおよび角膜曲率中心816cであることを決定することが可能である。3D角膜中心推定モジュール716は、源326からの光が、角膜球面から適切に反射し、カメラ324によって画像852上の閃光854の正しい場所に結像されるであろうことをチェックすることによって、図示される位置が正しいことを確認する。本配列、および光源326、カメラ324の既知の3D位置、およびカメラの光学性質(焦点距離等)を用いることで、3D角膜中心推定モジュール716は、角膜の曲率の中心816の3D場所(ウェアラブルシステムに対する)を決定し得る。
少なくとも図8C−8Eに関連して本明細書に説明されるプロセスは、事実上、ユーザの角膜中心の3D位置を識別するための反復、繰り返し、または最適化プロセスであり得る。したがって、複数の技法(例えば、反復、最適化技法等)のいずれかが、効率的かつ迅速に選別する、または可能性として考えられる位置の検索空間を低減させるために使用されてもよい。さらに、いくつかの実施形態では、システムは、光源326等の2つ、3つ、4つ、またはそれよりも多くの光源を含んでもよく、これらの光源の全てのうちのいくつかは、異なる位置に配置され、画像852上の異なる位置に位置する、閃光854等の複数の閃光および異なる原点および方向を有する、光線856等の複数の光線をもたらしてもよい。そのような実施形態は、モジュール716が、閃光および光線の一部または全部がその個別の光源と画像852上のその個別の位置との間に適切に反射される結果をもたらす、角膜位置を識別することを模索し得るため、3D角膜中心推定モジュール716の正確度を向上させ得る。言い換えると、これらの実施形態では、光源の一部または全部の位置が、図8B−8Eの3D角膜位置決定(例えば、反復、最適化技法等)プロセスに依拠し得る。いくつかの実装では、システムは、最適化プロセスを実施する前に、それに沿って角膜の中心が常駐する、ベクトルまたは光線(すなわち、2D角膜中心位置)を決定してもよい。そのような実装では、3D角膜中心推定モジュール716は、そのようなベクトルに沿って、角膜位置のみを検索し得、これは、最適化プロセスを実施するとき、算出および/または時間の節約を提供する役割を果たし得る。これらの実装のうちの少なくともいくつかでは、そのようなベクトルを決定する前に、システムは、最初に、(i)眼カメラ座標系850の原点と、第1の光源(例えば、光源326a)と、第1の光源によって生産された第1の閃光(例えば、閃光854a)との間の第1の平面を定義し、(ii)眼カメラ座標系850の原点と、第2の光源(例えば、光源326b)と、第2の光源によって生産された第2の閃光(例えば、閃光854b)との間の第2の平面を定義してもよい。システムは、次いで、単に、第1の平面および第2の平面のクロス積を計算し、それに沿って角膜の中心が常駐する、ベクトルまたは光線(すなわち、2D角膜中心位置)を決定し得る。
眼追跡画像の座標系を正規化する実施例
図9A−9Cは、図7Aの座標系正規化モジュール718等のウェアラブルシステム内のコンポーネントによる、眼追跡画像の座標系の例示的正規化を図示する。ユーザの瞳孔場所に対する眼追跡画像の座標系の正規化は、ユーザの顔に対するウェアラブルシステムの滑脱(例えば、ヘッドセット滑脱)を補償し得、そのような正規化は、眼追跡画像とユーザの眼との間の一貫した配向および距離を確立し得る。
図9Aに示されるように、座標系正規化モジュール718は、ユーザの角膜の回転中心の推定された3D座標900を受信してもよく、画像852等の非正規化眼追跡画像を受信してもよい。眼追跡画像852および座標900は、実施例として、眼追跡カメラ324の場所に基づく、非正規化座標系850内にあってもよい。
第1の正規化ステップとして、座標系正規化モジュール718は、図9Bに示されるように、座標系のz−軸(例えば、輻輳・開散運動深度軸)が座標系の原点と角膜曲率中心座標900との間のベクトルと整合され得るように、座標系850を回転座標系902へと回転させてもよい。特に、座標系正規化モジュール718は、ユーザの角膜曲率中心の座標900が回転画像904の平面に対して法線方向となるまで、眼追跡画像850を回転眼追跡画像904へと回転させてもよい。
第2の正規化ステップとして、座標系正規化モジュール718は、図9Cに示されるように、角膜曲率中心座標900が正規化された座標系910の原点から標準的正規化された距離906にあるように、回転座標系902を正規化された座標系910へと平行移動させてもよい。特に、座標系正規化モジュール718は、回転眼追跡画像904を正規化された眼追跡画像912へと平行移動させてもよい。少なくともいくつかの実施形態では、標準的な正規化された距離906は、約30ミリメートルであってもよい。所望に応じて、第2の正規化ステップは、第1の正規化ステップに先立って実施されてもよい。
眼追跡システムを用いてユーザの瞳孔重心を位置特定する実施例
図9D−9Gは、3D瞳孔中心ロケータモジュール720および眼追跡モジュール614を使用してユーザの瞳孔中心(例えば、図8Aに示されるように、ユーザの瞳孔822の中心)を位置特定する、実施例を図示する。
図9Dに示されるように、3D瞳孔中心ロケータモジュール720は、瞳孔重心913(例えば、瞳孔識別モジュール712によって識別されるようなユーザの瞳孔の中心)を含む、正規化された眼追跡画像912を受信してもよい。3D瞳孔中心ロケータモジュール720は、次いで、眼カメラ324の正規化された3D位置910をシミュレートし、瞳孔重心913を通して、光線914を正規化された座標系910内に投射してもよい。
図9Eでは、3D瞳孔中心ロケータモジュール720は、3D角膜中心推定モジュール716からのデータに基づいて(および図8B−8Eに関連してより詳細に議論されるように)、曲率中心900を有する角膜球面901等の角膜球面をシミュレートしてもよい。実施例として、角膜球面901は、図8Eに関連して識別された曲率中心816cの場所に基づいて、および図9A−9Cの正規化プロセスに基づいて、正規化された座標系910内に位置付けられてもよい。加えて、3D瞳孔中心ロケータモジュール720は、図9Eに示されるように、光線914(例えば、正規化された座標系910の原点とユーザの瞳孔の正規化された場所との間の光線)とシミュレートされた角膜との間の第1の交点916を識別してもよい。
図9Fに示されるように、3D瞳孔中心ロケータモジュール720は、角膜球面901に基づいて、瞳孔球面918を決定してもよい。瞳孔球面918は、角膜球面901と共通曲率中心を共有するが、より小さい半径を有し得る。3D瞳孔中心ロケータモジュール720は、角膜中心と瞳孔中心との間の距離に基づいて、角膜中心900と瞳孔球面918との間の距離(例えば、瞳孔球面918の半径)を決定してもよい。いくつかの実施形態では、瞳孔中心と角膜曲率中心との間の距離は、図7Aの仮定された眼寸法704から、眼追跡付帯性質および固有性質データベース702から、および/またはユーザ毎較正データ706から決定されてもよい。他の実施形態では、瞳孔中心と角膜曲率中心との間の距離は、図7Aのユーザ毎較正データ706から決定されてもよい。
図9Gに示されるように、3D瞳孔中心ロケータモジュール720は、種々の入力に基づいて、ユーザの瞳孔中心の3D座標を位置特定してもよい。実施例として、3D瞳孔中心ロケータモジュール720は、瞳孔球面918の3D座標および半径、シミュレートされた角膜球面901と正規化された眼追跡画像912内の瞳孔重心913と関連付けられた光線914との間の交点916の3D座標、角膜の屈折率に関する情報、および空気の屈折率等の他の関連情報(眼追跡付帯性質および固有性質データベース702内に記憶されてもよい)を利用して、ユーザの瞳孔の中心の3D座標を決定してもよい。特に、3D瞳孔中心ロケータモジュール720は、シミュレーションにおいて、空気(約1.00の第1の屈折率における)と角膜材料(約1.38の第2の屈折率における)との間の屈折差に基づいて、光線916を屈折された光線922へと屈曲させてもよい。角膜によって生じる屈折を考慮後、3D瞳孔中心ロケータモジュール720は、屈折された光線922と瞳孔球面918との間の第1の交点920の3D座標を決定してもよい。3D瞳孔中心ロケータモジュール720は、ユーザの瞳孔中心920が屈折された光線922と瞳孔球面918との間のおおよそ第1の交点920に位置することを決定してもよい。本配列を用いることで、3D瞳孔中心ロケータモジュール720は、瞳孔中心920の3D場所(ウェアラブルシステムに対する)を正規化された座標系910内で決定し得る。所望に応じて、ウェアラブルシステムは、瞳孔中心920の座標をオリジナル眼カメラ座標系850へと正規化解除することができる。瞳孔中心920は、角膜曲率中心900とともに使用され、とりわけ、光学軸決定モジュール722を使用して、ユーザの光学軸と、輻輳・開散運動深度推定モジュール728によって、ユーザの輻輳・開散運動深度とを決定してもよい。
角膜屈折の考慮は、可能性として、図9Eに示されるように、光線914(すなわち、正規化された座標系910の原点とユーザの瞳孔の正規化された場所との間の光線)とシミュレートされた角膜との間の第1の交点916に基づくものより安定した決定された瞳孔位置をもたらし得る。これは、部分的に、算出することがより単純であるが、第1の交点916は、眼の物理的特徴に対応し得ず、したがって、固定体として眼とともに移動し得ないため、当てはまる。対照的に、角膜屈折を考慮した瞳孔中心920の計算は、視認角度の結果として、依然として、ある変動量が存在する場合でも、眼の物理的瞳孔位置により良好に対応し得る。種々の実装では、したがって、眼の光学軸の決定は、したがって、光線914とシミュレートされた角膜との間の第1の交点916ではなく、真の瞳孔中心の計算を伴い得る。
角膜の屈折を含むことにおける顕著な利点は、回転中心(CoR)が眼の光学軸に沿った角膜中心からの固定距離における点として推定されるときに生じる。特に、瞳孔位置を決定する際に角膜屈折を含むことは、眼の異なる配向に関する回転中心を計算する際の変動を有意に低減させ得る。例えば、変動は、ヘッドセットの再搭載の間等、眼が全体として、再搭載の際、ヘッドセットに対して異なるように配向され得るため、眼が全体としてカメラ座標フレーム内で移動するときに生じ得る。瞳孔中心920は、眼の物理的瞳孔位置により良好に対応するため、眼が全体としてカメラ座標フレーム内で移動するとき、CoRに殆ど変動が存在し得ない。有利には、角膜表面の屈折を含むことは、ヘッドセットがユーザの頭部上で交換されるときを決定する際に潜在的に使用され得る、より安定しかつ正確なCoRをもたらし得る、より正しいレンダリングカメラ設置を可能にし得る、他の新規視線追跡アルゴリズムを可能にし得る、またはそれらの任意の組み合わせであり得る。加えて、眼の安定し、徐々に変化する特徴としてのCoRは、潜在的に、マルチフレームカルマンタイプ時間フィルタによって追跡され、他の用途のための幾何学的基準場所を提供し得る。図9Hは、角膜屈折を含むことおよび角膜屈折を含まないことに由来する瞳孔中心の例示的な計算された場所を図示する。瞳孔中心が、角膜屈折の影響を含まずに計算されるとき、外部瞳孔960が、結果として生じ得る。外部瞳孔中心960は、図9Eに示されるように光線914(すなわち、正規化された座標系910の原点とユーザの瞳孔の正規化された場所との間の光線)とシミュレートされた角膜との間の第1の交点916に対応し得る。瞳孔中心が、角膜屈折を考慮して計算されると、屈折された瞳孔中心962が、結果として生じ得る。屈折された瞳孔中心962は、図9Gに示されるように、瞳孔中心920に対応し得る。外部瞳孔中心960および屈折された瞳孔中心962の異なる場所は、角膜中心964から眼の光学軸に沿った固定距離として決定されるように、眼の回転中心の異なる計算をもたらし得る。例えば、外部瞳孔中心960は、外部回転中心968をもたらし得る。外部回転中心968は、屈折された瞳孔中心962から計算される回転中心966から有意に変動し得る。
図9I−9Lは、400超のデータセットの収集を使用して計算された異なる瞳孔中心に基づく、眼の計算された回転中心の例示的実験変動量を図示する。選択されたデータは、明白なパイプライン失敗例を除外するために、4つの閃光および有効瞳孔中心(すなわち、3つのx、y、z座標成分の全てがゼロと等しくない)を有する、フレームのみとした。異なる回転中心(CoR)から角膜曲率中心までの距離値(R)が、検討され、R=4.7mmがほぼ最適平均結果を与えることが見出された。しかしながら、具体的ユーザ距離値は、CoR座標のさらに小さい変動量を提供するようにも調節されることができる。
図9Iは、異なる瞳孔中心のx、y、およびz座標の3次元グラフおよび上記に説明されるデータセットに関する異なる瞳孔中心を使用して計算された対応するCoRを図示する。図9Jは、XY投影における図9Iのデータを図示する。クラスタ970は、外部瞳孔中心960に関する座標に対応し、クラスタ972は、正しい屈折された瞳孔中心962に関する座標に対応し、クラスタ974は、角膜場所(例えば、3次元角膜中心場所)に対応し、クラスタ978は、正しい屈折された瞳孔中心962を使用したCoRに対応し、クラスタ980は、外部瞳孔中心960を使用したCoRに対応する。クラスタ978は、クラスタ980より、サイズが、具体的には、x方向に小さく、屈折された瞳孔中心962を使用したCoRでは、外部瞳孔中心960を使用したCoRより少ない変動量を示す。
Figure 2021511723
表1から分かるように、CoRのx−成分の標準偏差(またはΣ)は、外部瞳孔中心960のときと比較して、屈折された瞳孔中心962が計算のために使用されたとき、約半分に低減された。総3次元標準偏差(Σ3d)もまた、屈折された瞳孔中心962の使用で有意に低減された。
図9Kおよび9Lは、それぞれ、400超のデータセットの集合に関するCoRから角膜曲率中心までの距離の関数として、平均値および中央値CoR標準偏差を図示する。グラフ991Lおよび991Rは、それぞれ、左および右眼に関するCoRから角膜曲率中心距離の関数として、平均値3次元CoR標準偏差(Σ3d)を図示する。グラフ992Lおよび992Rは、それぞれ、左および右眼に関するCoRから角膜曲率中心距離の中央値3次元CoR標準偏差(Σ3d)を図示する。曲線982Aは、総左眼平均値Σ3dに対応し、曲線982Bは、総右眼平均値Σ3dに対応し、曲線982Cは、総左眼中央値Σ3dに対応し、曲線982Dは、総右眼中央値Σ3dに対応する。曲線984A−Dは、種々のΣ3dのx−成分に対応し、曲線990A−Dは、種々のΣ3dのy−成分に対応し、曲線986A−Dは、種々のΣ3dのz−成分に対応する。
図9Mは、Σ3dの最小値を提供するCoRから角膜までの距離の値として、ユーザデータセット毎に個々に計算される最適半径の例示的分布を図示する。分布の平均値は、R=4.9mmであることが見出され、標準偏差は、1.5mmであった。非常に小半径(R 約1mm)を伴うユーザは、非常に不良な視線追跡を伴う例であると見出され、したがって、除外される必要があった。
光学軸と視軸との間の差異の実施例
図7Aの光学軸/視軸マッピングモジュール730に関連して議論されるように、ユーザの光学軸および視軸は、部分的に、ユーザの視軸がその中心窩によって定義され、中心窩が概して人物の網膜の中心にないことに起因して、概して、整合されない。したがって、人物が、特定のオブジェクトに集中することを所望するとき、人物は、その視軸をそのオブジェクトと整合させ、その光学軸(その瞳孔の中心およびその角膜の曲率中心によって定義される)が、実際には、そのオブジェクトから若干オフセットされる間、オブジェクトからの光がその中心窩上に当たることを確実にする。図10は、眼の光学軸1002と、眼の視軸1004と、これらの軸間のオフセットとを図示する、眼1000の実施例である。加えて、図10は、眼の瞳孔中心1006と、眼の角膜曲率の中心1008と、眼の平均回転中心(CoR)1010とを図示する。少なくともいくつかの母集団では、眼の角膜曲率の中心1008は、寸法1012によって示されるように、眼の平均回転中心(CoR)1010の正面の約4.7mmにあり得る。加えて、眼の視点中心1014は、眼の角膜曲率の中心1008の正面の約5.01mm、ユーザの角膜の外側表面1016の約2.97mm背後、および/またはユーザの瞳孔中心1006の真正面(例えば、眼1000の前房内の場所に対応する)にあり得る。付加的実施例として、寸法1012は、3.0mm〜7.0mm、4.0〜6.0mm、4.5〜5.0mm、または4.6〜4.8mm、またはこれらの範囲のいずれか内の任意の値と任意の値との間の任意の範囲であってもよい。眼の視点中心(CoP)1014は、少なくともいくつかの実施形態では、レンダリングカメラをCoPに位置合わせすることが、視差アーチファクトを低減または排除することに役立ち得るため、ウェアラブルシステムのための有用な場所であり得る。
図10はまた、それとレンダリングカメラのピンホールが整合され得る、ヒトの眼1000内のそのような場所を図示する。図10に示されるように、レンダリングカメラのピンホールは、ヒトの眼1000の(a)瞳孔または虹彩1006の中心および(b)角膜曲率の中心1008の両方より角膜の外側表面に近い、ヒトの眼1000の光学軸1002または視軸1004に沿った場所1014と位置合わせされてもよい。例えば、図10に示されるように、レンダリングカメラのピンホールは、角膜1016の外側表面から後方に約2.97ミリメートルおよび角膜曲率の中心1008から前方に約5.01ミリメートルにある、ヒトの眼1000の光学軸1002に沿った場所1014と位置合わせされてもよい。レンダリングカメラのピンホールの場所1014および/またはそれに対して場所1014が対応するヒトの眼1000の解剖学的領域は、ヒトの眼1000の視点中心を表すと見なされ得る。図10に示されるようなヒトの眼1000の光学軸1002は、角膜曲率の中心1008および瞳孔または虹彩1006の中心を通る最短線を表す。ヒトの眼1000の視軸1004は、ヒトの眼1000の中心窩から瞳孔または虹彩1006の中心まで延在する線を表すため、光学軸1002と異なる。
コンテンツをレンダリングし、眼追跡に基づいて位置合わせをチェックする例示的プロセス
図11は、コンテンツをレンダリングする際、眼追跡を使用して、ウェアラブルデバイス内の位置合わせに関するフィードバックを提供するための例示的方法1100のプロセスフロー図である。方法1100は、本明細書に説明されるウェアラブルシステムによって実施されてもよい。方法1100の実施形態は、ウェアラブルシステムによって、コンテンツをレンダリングし、眼追跡システムからのデータに基づいて、位置合わせ(例えば、ユーザとのウェアラブルデバイスのフィット感)に関するフィードバックを提供するために使用されることができる。
ブロック1110では、ウェアラブルシステムは、ユーザの片眼または両眼の画像を捕捉してもよい。ウェアラブルシステムは、少なくとも図3の実施例に示されるように、1つ以上の眼カメラ324を使用して、眼画像を捕捉してもよい。所望に応じて、ウェアラブルシステムはまた、IR光をユーザの眼上で光輝させ、対応する閃光を眼カメラ324によって捕捉された眼画像内に生産するように構成される、1つ以上の光源326を含んでもよい。本明細書に議論されるように、閃光は、眼追跡モジュール614によって、眼が見ている場所を含む、ユーザの眼についての種々の情報を導出するために使用されてもよい。
ブロック1120では、ウェアラブルシステムは、ブロック1110において捕捉された眼画像内で閃光および瞳孔を検出してもよい。実施例として、ブロック1120は、閃光検出および標識化モジュール714によって、眼画像を処理し、眼画像内の閃光の2次元位置を識別するステップと、瞳孔識別モジュール712によって、眼画像を処理し、眼画像内の瞳孔の2次元位置を識別するステップとを含んでもよい。
ブロック1130では、ウェアラブルシステムは、ウェアラブルシステムに対するユーザの左および右角膜の3次元位置を推定してもよい。実施例として、ウェアラブルシステムは、ユーザの左および右角膜の曲率中心の位置およびそれらの曲率中心とユーザの左および右角膜との間の距離を推定してもよい。ブロック1130は、少なくとも図7Aおよび8A−8Eに関連して本明細書に説明されるように、曲率中心の位置を識別する3D角膜中心推定モジュール716を伴ってもよい。
ブロック1140では、ウェアラブルシステムは、ウェアラブルシステムに対するユーザの左および右瞳孔中心の3次元位置を推定してもよい。実施例として、ウェアラブルシステムおよび3D瞳孔中心ロケータモジュール720は、特に、少なくとも図7Aおよび9D−9Gに関連して説明されるように、ブロック1140の一部として、ユーザの左および右瞳孔中心の位置を推定してもよい。
ブロック1150では、ウェアラブルシステムは、ウェアラブルシステムに対するユーザの左および右中心または回転(CoR)の3次元位置を推定してもよい。実施例として、ウェアラブルシステムおよびCoR推定モジュール724は、特に、少なくとも図7Aおよび10に関連して説明されるように、ユーザの左および右眼に関するCoRの位置を推定してもよい。特定の実施例として、ウェアラブルシステムは、角膜の曲率中心から網膜に向かう光学軸に沿って逆行することによって、眼のCoRを見出し得る。
ブロック1160では、ウェアラブルシステムは、ユーザのIPD、輻輳・開散運動深度、視点中心(CoP)、光学軸、視軸、および他の所望の属性を眼追跡データから推定してもよい。実施例として、ブロック1160の一部として、IPD推定モジュール726は、左および右CoRの3D位置を比較することによって、ユーザのIPDを推定してもよく、輻輳・開散運動深度推定モジュール728は、左光学軸と右光学軸の交点(または交点の近く)または左視軸と右視軸の交点を見出すことによって、ユーザの深度を推定してもよく、光学軸決定モジュール722は、左および右光学軸を経時的に識別してもよく、光学軸/視軸マッピングモジュール730は、左および右視軸を経時的に識別してもよく、CoP推定モジュール732は、左および右視点中心を識別してもよい。
ブロック1170では、ウェアラブルシステムは、コンテンツをレンダリングしてもよく、随意に、ブロック1120−1160において識別された眼追跡データに部分的に基づいて、位置合わせに関するフィードバック(例えば、ユーザの頭部とのウェアラブルシステムのフィット感)を提供してもよい。実施例として、ウェアラブルシステムは、ライトフィールドレンダリングコントローラ618(図7B)およびレンダリングエンジン622に関連して議論されるように、レンダリングカメラのための好適な場所を識別し、次いで、レンダリングカメラの場所に基づいて、ユーザのためのコンテンツを生成してもよい。別の実施例として、ウェアラブルシステムは、位置合わせオブザーバ620に関連して議論されるように、ユーザに適切にフィットされているか、またはユーザに対するその適切な場所から滑脱しているかどうかを決定してもよく、デバイスのフィット感が調節の必要があるかどうかを示す、随意のフィードバックをユーザに提供してもよい。いくつかの実施形態では、ウェアラブルシステムは、不適切なまたはずれた位置合わせの影響を低減させる、最小限にする、または補償する試みにおいて、不適切なまたは準理想的位置合わせに基づいて、レンダリングされたコンテンツを調節してもよい。
ユーザの眼移動に応答してコンテンツをレンダリングする例示的グラフ
図12は、ウェアラブルシステムが、ユーザの眼移動に応答して深度平面を切り替え得る方法を図示する、例示的グラフ1200a−1200jのセットを含む。図4および7に関連して本明細書に議論されるように、ウェアラブルシステムは、複数の深度平面を含んでもよく、種々の深度平面は、異なるシミュレートされた深度において、または異なる遠近調節キューを伴って(例えば、種々のレベルの波面曲率または光線発散を伴って)、コンテンツをユーザに提示するように構成される。実施例として、ウェアラブルシステムは、第1の深度の範囲をシミュレートするように構成される、第1の深度平面と、第2の深度の範囲をシミュレートするように構成される、第2の深度平面とを含んでもよく、これらの2つの範囲は、望ましくは、重複し、切替の際のヒステリシスを促進し得るが、第2の深度の範囲は、概して、ユーザからより長い距離に延在してもよい。そのような実施形態では、ウェアラブルシステムは、ユーザの輻輳・開散運動深度、サッカード移動、および瞬目を追跡し、過剰な深度平面切替、過剰な遠近調節−輻輳・開散運動不整合、および遠近調節−輻輳・開散運動不整合の過剰な周期を回避し、深度平面切替の可視性を低減させることを模索する(例えば、瞬目およびサッカードの間、深度平面を偏移させることによって)様式において、第1の深度平面と第2の深度平面との間で切り替え得る。
グラフ1200aは、ユーザの輻輳・開散運動深度の実施例を経時的に図示する。グラフ1200bは、ユーザのサッカード信号または眼移動の速度の実施例を経時的に図示する。
グラフ1200cは、眼追跡モジュール614によって生成された輻輳・開散運動深度データ、特に、輻輳・開散運動深度推定モジュール728によって生成されたデータを図示し得る。グラフ1200c−1200hに示されるように、眼追跡データは、眼追跡モジュール614内において、約60Hzのレートでサンプリングされ得る。グラフ1200bと1200cとの間に示されるように、眼追跡モジュール614内の眼追跡データは、ユーザの実際の眼移動から遅延1202だけ遅れ得る。実施例として、時間tでは、ユーザの輻輳・開散運動深度は、ヒステリシス閾値1210aを交差し得るが、ヒステリシス帯域交差検出モジュール752は、遅延1202後の時間tまで、イベントを認識し得ない。
グラフ1200cはまた、ヒステリシス帯域内の種々の閾値1210a、1210b、1210cを図示し、これは、第1の深度平面と第2の深度平面(例えば、図12における深度平面#1および#0)との間の遷移と関連付けられ得る。いくつかの実施形態では、ウェアラブルシステムは、ユーザの輻輳・開散運動深度が閾値1210bを上回る度に、深度平面#1を用いてコンテンツを表示し、ユーザの輻輳・開散運動深度が閾値1210b未満となる度に深度平面#0を用いてコンテンツを表示しようとし得る。しかしながら、過剰な切替を回避するために、ウェアラブルシステムは、ヒステリシスを実装し得、それによって、ウェアラブルシステムは、ユーザの輻輳・開散運動深度が外側閾値1210cを超えるまで、深度平面#1から深度平面#0に切り替わらないであろう。同様に、ウェアラブルシステムは、ユーザの輻輳・開散運動深度が外側閾値1210aを超えるまで、深度平面#0から深度平面#1に切り替わらないであろう。
グラフ1200dは、ユーザの輻輳・開散運動深度が、概して、深度平面#1と関連付けられる体積、または概して、深度平面#2と関連付けられた体積内にあるかどうか(例えば、ユーザの輻輳・開散運動深度が閾値1210bを上回るまたはそれ未満であるかどうか)を示す、深度平面選択モジュール750またはヒステリシス帯域交差検出モジュール752によって生成され得る、内部フラグを図示する。
グラフ1200eは、ユーザの輻輳・開散運動深度が閾値1210aまたは1210c等の外側閾値を超えるかどうかを示す、深度平面セクションモジュール750またはヒステリシス帯域交差検出モジュール752によって生成され得る、内部ヒステリシス帯域フラグを図示する。特に、グラフ1200eは、ユーザの輻輳・開散運動深度が、ヒステリシス帯域を完全に交差し、アクティブ深度平面の体積の外側の領域の中に(例えば、アクティブ深度平面以外の深度平面と関連付けられた領域の中に)入り込み、したがって、潜在的に、望ましくない遠近調節−輻輳・開散運動不整合(AVM)につながるかどうかを示す、フラグを図示する。
グラフ1200fは、ユーザの輻輳・開散運動が、所定の時間を上回ってアクティブ深度平面の体積の外側にあったかどうかを示す、深度平面選択モジュール750またはヒステリシス帯域交差検出モジュール752によって生成され得る、内部AVMフラグを図示する。AVMフラグは、したがって、ユーザが、ほぼ過剰または過剰な期間にわたって、望ましくない遠近調節−輻輳・開散運動不整合を受けていた可能性があるときを識別し得る。加えて、または代替として、内部AVMフラグはまた、ユーザの輻輳・開散運動が、アクティブ深度平面の体積を超えて所定の距離に及んだ、したがって、潜在的に過剰な遠近調節−輻輳・開散運動不整合をもたらしたかどうかを示し得る。言い換えると、AVMフラグは、ユーザの輻輳・開散運動が、閾値1210aおよび1210cよりも閾値1210bからさらに付加的閾値だけ超えているときを示し得る。
グラフ1200gは、眼球イベント検出モジュール754によって生成され得る、内部瞬目フラグを図示し、これは、ユーザが、瞬目した、または瞬目しているときを決定し得る。本明細書に記載されるように、ユーザの瞬目に応じて、深度平面を切り替え、ユーザが平面の深度の切替を知覚する尤度を低減させることが所望され得る。
グラフ1200hは、深度平面選択モジュール750からの例示的出力を図示する。特に、グラフ1200hは、深度平面選択モジュール750が、経時的に変化し得る、選択された深度平面を利用するための命令を、レンダリングエンジン622(図6参照)等のレンダリングエンジンに出力し得ることを示す。
グラフ1200iおよび1200jは、レンダリングエンジン622が深度平面を切り替えることによる遅延と、新しい画像フレームと関連付けられた光を新しい深度平面内に提供し、深度平面の変化をもたらす必要があり得る、ディスプレイ220による遅延とを含む、ウェアラブルシステム内に存在し得る、遅延を図示する。
ここで、種々の時間(t−t10)におけるグラフ1200a−1200jに図示される、イベントを参照する。
時間tの周囲のある時点において、ユーザの輻輳・開散運動深度は、閾値1210aを超え、これは、ヒステリシス閾値外となり得る。画像捕捉および信号処理と関連付けられた遅延後、ウェアラブルシステムは、グラフ1200eに示されるように、ユーザの輻輳・開散運動深度がヒステリシス帯域内にあることを示す、信号を生成し得る。グラフ1200eの実施例では、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、ユーザの輻輳・開散運動深度が閾値1210aを超えることに連動して、約時間tにおいてヒステリシス帯域を超えたことのフラグを提示し得る。
ユーザの輻輳・開散運動深度は、時間tから約時間tまで減少し続け得、その後、増加し得る。
時間tでは、ユーザの輻輳・開散運動深度は、閾値1210bを超え得、これは、深度平面#1および#0等の2つの深度平面間の中点であり得る。処理遅延1202後、眼追跡モジュール614は、グラフ1200dに図示されるように、内部フラグを改変し、ユーザの輻輳・開散運動深度が、概して、深度平面#1と関連付けられる、体積から、概して、深度平面#0と関連付けられる体積へと移動したことを示し得る。
時間tでは、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、グラフ1200aに示されるように、ユーザの輻輳・開散運動深度が、ヒステリシス帯域を通して全体的に移動し、外側閾値1210cを超えたことを決定し得る。その結果、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、グラフ1200eに示されるように、ユーザの輻輳・開散運動深度がヒステリシス帯域外にあることを示す、信号を生成し得る。少なくともいくつかの実施形態では、ライトフィールドレンダリングコントローラ618の1つ以上のモジュール(例えば、深度平面選択モジュール750)は、ユーザの輻輳・開散運動深度がそれらの2つの深度平面間のヒステリシス帯域外にあるときのみ、第1の深度平面と第2の深度平面との間で切り替え得る。
少なくともいくつかの実施形態では、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、時間tにおいて、深度平面を切り替えるように構成されてもよい。特に、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、輻輳・開散運動深度が、現在選択されている深度平面(グラフ1200hによって示されるような深度平面#1)の体積から別の深度平面(深度平面#0)の体積へと移動し、ヒステリシス帯域を全体的に超えることの決定に基づいて、深度平面を切り替えるように構成されてもよい。言い換えると、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、ヒステリシス帯域を超え(グラフ1200eが高である)、不整合の時間または大きさに基づく遠近調節−輻輳・開散運動不整合が検出される(グラフ1200fが高である)度に、深度平面切替を実装し得る。そのような実施形態では、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、レンダリングエンジン622に他の深度平面(深度平面#0)に切り替えるように命令する信号をレンダリングエンジン622に提供し得る。しかしながら、図12の実施例では、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、少なくとも1つの他の条件が満たされるまで、深度平面切替を遅延させるように構成されてもよい。これらの付加的条件は、実施例として、瞬目条件、遠近調節−輻輳・開散運動不整合タイムアウト条件、および遠近調節−輻輳・開散運動大きさ条件を含んでもよい。
時間tにおいて、図12の実施例では、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、深度平面を切り替えるように構成されてもよい。特に、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、ユーザの輻輳・開散運動が、所定の閾値時間より長い時間にわたって、深度平面#0と関連付けられた体積内にあった(随意に、また、その期間にわたって、ヒステリシス帯域にあった)ことを決定し得る。所定の閾値時間の実施例は、5秒、10秒、20秒、30秒、1分、および90秒、およびこれらの値のいずれか間の任意の範囲を含む。そのような決定に応じて、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、グラフ1200fに示されるように、AVMフラグを生成し、グラフ1200hに示されるように、レンダリングエンジン622に深度平面#0に切り替えるように指示し得る。いくつかの実施形態では、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、ユーザの輻輳・開散運動深度が現在の選択された深度体積から閾値距離を上回って検出される場合、AVMフラグを生成し、レンダリングエンジン622に深度平面を切り替えるように指示し得る。
時間tでは、遅延1204後、レンダリングエンジン622は、コンテンツを新しく選択された深度平面#0にレンダリングすることを開始し得る。レンダリングおよびディスプレイ220を通したユーザへの光の伝達と関連付けられた遅延1206後、ディスプレイ220は、時間tまでに、新しく選択された深度平面#0に完全に切り替えられ得る。
したがって、グラフ1200a−jは、時間tおよびとtとの間において、システムが、ユーザの輻輳・開散運動が、所定の期間を上回る時間にわたって、前の深度体積から離れて移動した後、ユーザの変化する輻輳・開散運動に応答し得、深度平面を切り替え得る方法を図示する。グラフ1200a−jは、時間tとt10との間において、システムが、所定の期間に先立ち得る、ユーザの変化する輻輳・開散運動に応答し得、ユーザの瞬目の検出に応じて、深度平面を切り替え得る方法を図示し得る。
時間tでは、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、ユーザの輻輳・開散運動深度が深度平面#0と#1との間のヒステリシス領域に進入した(例えば、ユーザの輻輳・開散運動深度が外側閾値1210cを超えた)ことを検出し得る。それに応答して、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、グラフ1200eに示されるように、ヒステリシスフラグを改変し得る。
時間tでは、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、ユーザの輻輳・開散運動深度が閾値1210bを超え、概して、深度平面#0と関連付けられる、体積から、概して、深度平面#1と関連付けられる体積へと移動したことを検出し得る。したがって、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、グラフ1200dに示されるように、深度体積フラグを改変し得る。
時間tでは、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、ユーザの輻輳・開散運動深度が、閾値1210aを超え、ヒステリシス体積から、概して、深度平面#1と排他的に関連付けられる体積へと移動したことを検出し得る。それに応答して、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、グラフ1200eに示されるように、ヒステリシスフラグを改変し得る。
時間t10の周囲では、ユーザは、瞬目し得、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、その瞬目を検出し得る。一実施例として、眼球イベント検出モジュール754は、ユーザの瞬目を検出してもよい。それに応答して、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、グラフ1200hに示されるように、瞬目フラグを生成し得る。少なくともいくつかの実施形態では、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、ヒステリシス帯域を超え(グラフ1200eが高である)、瞬目が検出される(グラフ1200gが高である)度に、深度平面切替を実装し得る。したがって、ライトフィールドレンダリングコントローラ618の1つ以上のモジュールは、レンダリングエンジン622に、時間t10において、深度平面を切り替えるように命令し得る。
複数の深度平面を有する複合現実システムにおける例示的レンダリングモード
複合現実システムでは、コンピュータ生成(レンダリングされた)場面が、実および仮想オブジェクトが空間的に整合される(ユーザの視点から)ように、ヒトの眼に伝達され得る。ユーザに実オブジェクトと仮想オブジェクトとの間の空間整合の視知覚を提供するために、そこからコンピュータ生成場面がレンダリングおよび提示される、視点は、好ましくは、ユーザの眼の視点(例えば、位置および配向)に対応し得る。実施例として、ユーザは、「実世界」フレーム(その中に実オブジェクトが存在する)および「レンダリング世界」フレーム(その中に仮想オブジェクトが存在する)が相互に正確に整合されるとき、実および仮想オブジェクトが望ましい様式において空間的に整合されていると知覚し得る。
図2のディスプレイ220を含む、ウェアラブルシステム200等のデジタルライトフィールドディスプレイデバイスは、3D仮想コンテンツ(仮想オブジェクト)を表す、ライトフィールドが、1つ以上の深度平面を使用して、ユーザに種々の深度で提供され得る、複合現実システムの実施例である。深度平面は、その上に、仮想コンテンツが、投影または表示され、仮想ピクセルに変換され、ユーザに提供され得る、ユーザから可変距離における、1つ以上の仮想画面と比較され得る。したがって、複合現実システムは、ユーザから可変距離に位置する1つ以上の透明浮遊画面を有するシステムに対する光学的均等物であり得る。このように、デジタル化されたライトフィールドは、ユーザの虹彩を通して、その網膜上に投影され、3D仮想コンテンツの画像が、形成される(例えば、ユーザは、3D仮想コンテンツの画像を知覚する)。
図13は、仮想オブジェクトを含む、3D仮想コンテンツを表すライトフィールドが、ユーザおよびウェアラブルデバイスから離間される仮想画面を種々の距離においてシミュレートする、ウェアラブルデバイス上の光学構造であり得る、1つ以上の深度平面を使用して、ユーザの眼に提供される、複合現実システム1300を示す。複合現実システム1300は、図3のディスプレイ220またはその一部等の頭部装着型デジタルライトフィールドディスプレイデバイスの接眼レンズを表し得る、接眼レンズ1310を含んでもよい。そのようなシステムは、3D仮想オブジェクト1330を表すライトフィールドを、接眼レンズ1310を通して、ユーザの眼1302の網膜1303上に投影するように構成されてもよい。
図13はまた、その上に仮想オブジェクト1330および他の仮想コンテンツが、投影または表示され、仮想ピクセルに変換され得る、深度平面1321−1323を示す。図13に描写される特定の実施例では、仮想オブジェクト1330は、深度平面1322上に投影され、それによって、仮想ピクセル1332に変換される。その結果、接眼レンズ1310(例えば、ディスプレイ220)によって生成された光は、仮想オブジェクト1330が深度平面1322のユーザからの距離に位置する物理的ディスプレイまたはプロジェクタ画面上に提供されるかのように、遠近調節キューをユーザの眼1302に提供し得る。頭部装着型デジタルディスプレイデバイスは、仮想ピクセル1332を表す、デジタル化されたライトフィールドを生成してもよく、そのようなライトフィールドを、接眼レンズ1310を通して、ユーザの眼1302の網膜1303上に投影してもよい。
下記により詳細に議論されるであろうように、異なるレンダリングモードが、複合現実システム(図13における複合現実システム1300等)において採用され、異なるコンテンツのために、および/または異なる期間において、異なる眼遠近調節キューをユーザの視野を横断して提供してもよい。実施例として、複合現実システムは、仮想オブジェクトが、単一深度平面を使用して、一度に表示される(図14A−14Bに示されるように)、離散可変焦点モードを採用してもよく、仮想オブジェクトが、2つの隣接する深度平面を使用して表示され、遠近調節キューを2つの深度平面間に生成する(図14C−14Dに示されるように)、混成可変焦点モードを採用してもよく、そして仮想オブジェクトが、2つ以上の深度平面を使用して表示され、2つ以上の遠近調節キューを同時に生成する(図14E−14Fに示されるように)、多焦点モードを採用してもよい。一般に、複合現実システムは、動作の間、種々の条件に応答して、これらと他のレンダリングモードとの間で切り替わり得る。実施例として、複合現実システムは、第1の種類のコンテンツ(単一深度に提供され得るテキスト等)を表示するとき、第1のレンダリングモード(離散可変焦点モード等)を利用してもよく、第2の種類のコンテンツ(種々の深度に同時に提供され得るコンテンツ等)を表示するとき、第2の異なるレンダリングモード(多焦点モード等)を利用してもよい。少なくともいくつかの実施形態では、図6のライトフィールドレンダリングコントローラ618は、本明細書に議論されるように、種々の入力および条件に基づいて、任意の所与の時間に採用される、レンダリングモードを選択するように構成されてもよい。
単一深度平面レンダリングモード(離散可変焦点モード)
図14Aおよび14Bに図示されるように、本明細書に説明されるウェアラブルシステムは、本明細書では、単一深度平面レンダリングモードと称され、離散可変焦点モードとも称される、モードでは、一度に単一深度平面を使用して、仮想現実オブジェクトをレンダリングすることができる。離散可変焦点モードでは、ウェアラブルシステムは、現在レンダリングされている仮想オブジェクトの全てを表示するために、ディスプレイの視野(FOV)全体を横断して、単一深度平面を利用してもよい(それらのオブジェクトのうちのいくつかが、その深度平面と関連付けられたもの以外の深度に配置される場合でも)。言い換えると、ウェアラブルシステムは、FOV全体を横断して、単一焦点または遠近調節キューを提供してもよい。当然ながら、ウェアラブルシステムは、コンテンツをレンダリングするために使用される深度平面を経時的に切り替え、したがって、レンダリングされる仮想コンテンツの遠近調節キューを経時的に改変してもよい(ユーザ輻輳・開散運動深度、仮想コンテンツの深度、および本明細書により詳細に議論されるような他の事実の変化に応答して)。一般に、離散可変焦点モードでは、1つのみの深度平面が、任意のある時間において、複合現実システムによって採用される。
図14A−14Bは、それぞれ、離散可変焦点モードで動作し、コンテンツをユーザの眼1402に提示する、複合現実システム1400Aの上面および側面/等角図を示す。図14A−14Bはまた、その上に仮想コンテンツが、投影され、仮想ピクセルに変換され得る、深度平面1421、1422、および1423を示す。離散可変焦点モードで動作する間、仮想コンテンツは、所与の時間において、深度平面1421−1423のうちの1つ上にのみ投影され得る。図14A−14Bの実施例では、複合現実システム1400Aは、仮想コンテンツが、深度平面1422上に投影されるが、深度平面1421または1423のいずれ上にも投影されない、状態に切り替えられている。示されるように、深度平面1422上に投影された仮想コンテンツは、仮想ピクセル1432Aに変換される。
図4、6、7A、7B、および12に関連してより詳細に議論されるように、全てのピクセルをその上に設置するための深度(例えば、仮想コンテンツがその上に投影されるべき深度平面)の選択肢および深度平面間の切替のタイミングは、眼追跡および仮想コンテンツ情報に基づいてもよい。実施例として、ウェアラブルシステムは、離散可変焦点モードで動作する間、ユーザの輻輳・開散運動深度に基づいて、ユーザの輻輳・開散運動深度に基づくが、トリガイベントまで遅延される深度平面切替を伴って(例えば、図12に関連して議論されるように、所定のAVM不整合タイムアウト後、ユーザ瞬目またはサッカードに応じて等)、仮想コンテンツの深度に基づいて、そして仮想コンテンツの深度に基づくが、トリガイベントまで遅延される深度平面切替を伴って(例えば、図12に関連して議論されるように、所定のAVM不整合タイムアウト後、ユーザ瞬目またはサッカードに応じて等)、または任意のこれらの組み合わせに基づいて、アクティブである深度平面を切り替えてもよい。少なくともいくつかの実施形態では、深度平面選択モジュール750、ヒステリシス帯域交差検出モジュール752、および眼球イベント検出モジュール754のうちの1つ以上のものは、個々に、または組み合わせて、所望の深度平面切替スキームを実装するように構成されてもよい。
混成深度平面レンダリングモード(混成可変焦点モード)
図14Cおよび14Dに図示されるように、本明細書に説明されるウェアラブルシステムは、2つの隣接する深度平面を使用して、仮想現実オブジェクトをレンダリングし、深度平面間にある、遠近調節または焦点キューを生成することができる。いくつかの実施形態では、本混成可変焦点モードは、ウェアラブルシステムが、遠近調節または焦点キューを、ウェアラブルシステム内の深度平面のセットによって提供される深度を含め、その間の任意の距離に生成することを可能にし得る。言い換えると、システムが、3つの深度平面を含む場合、そのうちの第1のものは、1フィートの遠近調節キューを提供し、第2のものは、10フィートの遠近調節キューを提供し、第3のものは、光学無限遠の遠近調節キューを提供し、ウェアラブルシステムは、第1の平面の1フィート深度から第3の深度平面の光学無限遠深度までの任意の場所において、ユーザに遠近調節キューを提供することが可能であり得る。
図14C−14Dは、混成可変焦点モードで動作し、コンテンツをユーザの眼1402に提示する、複合現実システム1400Cの上面および側面/等角図を示す。複合現実システム1400Cは、例えば、図14A−14Bを参照して上記に説明されるような複合現実システム1400Aと同一アーキテクチャを有してもよい。混成可変焦点モードで動作する間、仮想コンテンツは、遠近調節キューを平面間に生成するように、任意の所与の時点において、同時に、深度平面1421−1423のうちの2つ以上のもの上に投影されることができる。図14C−14Dの実施例では、複合現実システム1400Cは、仮想コンテンツが深度平面1421および1422上に投影される、状態に切り替えられている。示されるように、深度平面1421および1422上に投影された仮想コンテンツは、それぞれ、仮想ピクセルセット1431Cおよび1432Cに変換される。仮想ピクセルセット1431Cおよび1432Cは、ともに混成し、その相対的強度に基づいて、深度平面1421と1422との間のある場所において、ユーザに遠近調節キューを提供し得る。
混成可変焦点モードでは、ウェアラブルシステムは、ディスプレイのFOVを横断して、全てのピクセルに関して同一焦点または遠近調節キューを提供してもよく、本遠近調節キューは、任意の対の隣接する深度平面の深度間で連続的に可変であってもよい。ウェアラブルシステムは、2つの深度平面間のピクセル強度を混成することによって、連続的に可変の遠近調節キューを達成し得る。実施例として、ウェアラブルシステムは、仮想オブジェクトを深度平面1421および1421の両方にレンダリングすることによって、深度平面1422と1421との間の遠近調節キューを有する、仮想オブジェクトを表示してもよい。仮想オブジェクトが深度平面1421の深度により近い、さらなる実施例では、ウェアラブルシステムは、平面1421の深度において、平面1422の深度より強い光強度(例えば、明度)で、仮想オブジェクトをレンダリングしてもよい。そのような配列では、2つの深度平面からの光は、ユーザが、深度平面1421の近傍にある(但し、依然として、平面1421と1422との間にある)遠近調節キューを有するように、仮想オブジェクトを知覚するように混成し得る。
混成可変焦点モードでは、ウェアラブルシステムは、所望の遠近調節キューを提供するために混成すべき隣接する深度平面を選択するように構成される。しかしながら、遠近調節キューは、明度を連続的に変動させることによって、平面間で連続的に変動し得るため、深度平面切替のタイミングは、離散可変焦点モードにおけるほど有意ではなくなり得る。したがって、ウェアラブルシステムは、ユーザ瞬目、サッカード、またはAVMタイムアウト等のトリガイベントを待機せずに、対の隣接する深度平面を形成する、2つの深度平面を切り替えるように構成されてもよい。代わりに、ウェアラブルシステムは、所望に応じて、ユーザの輻輳・開散運動深度、仮想コンテンツの深度、またはこれらおよび他の入力の組み合わせに応答して、経時的に、提供される遠近調節キューと、利用される深度平面とを平滑に変動させてもよい。
複数の深度平面レンダリングモード(多焦点モード)
図14Eおよび14Fに図示されるように、本明細書に説明されるウェアラブルシステムは、多焦点モードにおいて、2つ以上の深度平面を使用して、仮想現実オブジェクトをレンダリングし、2つ以上の遠近調節キューを同時に生成することができる。言い換えると、所与のフレーム内の仮想コンテンツは、複数の深度を横断して、同時に提示されてもよい。実施例として、多焦点モードは、混成可変焦点モードに関連して説明される様式において、2つ以上の深度平面を使用して、第1の混成遠近調節キューを提供する、2つ以上の深度平面を使用して、第2の混成遠近調節キューを提供する、単一深度平面を使用して、第3の遠近調節キューを提供する、第2の単一深度平面を使用して、第4の遠近調節キューを提供する、またはこれらおよび他の焦点モードの組み合わせを使用して、種々の遠近調節キューを提供することを含んでもよい。
図14E−14Fは、多焦点モードで動作し、コンテンツをユーザの眼1402に提示する、複合現実システム1400Eの上面および側面/等角図を示す。複合現実システム1400Eは、例えば、図14A−14Dを参照して上記に説明されるような複合現実システム1400Aおよび/または1400Cと同一アーキテクチャを有してもよい。多焦点モードで動作する間、仮想コンテンツは、2つ以上の異なる焦点キューを生成するように、任意の所与の時点において、同時に、深度平面1421−1423のうちの2つ以上のもの上に投影されることができる。図14E−14Fの実施例では、仮想コンテンツは、同時に、深度平面1421、1422、および1423上に投影される。示されるように、深度平面1421−1423上に投影された仮想コンテンツは、仮想ピクセルセット1431E−1433Eに変換される。
一般に、ウェアラブルシステムは、多焦点モードで動作する間(または混成可変焦点モードで動作する間)、混成および非混成遠近調節キューを提供することができる。図14Fに示されるように、深度平面1421および1422は、深度平面1421上のピクセル1431Eおよび深度平面1422上のピクセル1432Eを使用して、コンテンツ1450に混成遠近調節キューを提供するように構成されてもよく、深度平面1422上のピクセル1432Fおよび深度平面1423上のピクセル1433Fを使用して、コンテンツ1452に異なる混成遠近調節キューを提供するように構成されてもよく、深度平面1423上のピクセル1433Gを使用して、コンテンツ1454に非混成遠近調節キューを提供するように構成されてもよい。混成コンテンツ1452は、ユーザの視点の深度寸法を横断して伸展し、したがって、仮想ピクセル1433Fとしてレンダリングされた深度平面1423と関連付けられた深度における部分と、仮想ピクセル1432Fとしてレンダリングされた深度平面1422と関連付けられた異なる深度における付加的部分とを含む、コンテンツを含んでもよい。実施例として、混成コンテンツ1542は、仮想ピクセル1432Fが、深度軸と垂直な平面において、仮想ピクセル1433Fと重複しないように、非重複コンテンツを含んでもよい。他の実施形態では、混成コンテンツ1452は、重複および混成する仮想ピクセル1433Fおよび1432Fによってレンダリングされる、平面1422と1423との間の深度における、コンテンツを含んでもよい。重複および混成するピクセル1433Fおよび1432Fは、ピクセル1433Fおよび1432Fの相対的強度を変動させ、深度平面1422に向かって、または深度平面1422に向かって、見掛け深度を偏移させることを含んでもよい。実施例として、ピクセル1433Fを暗化させ、ピクセル1432Fを増幅または明化させることは、ユーザ知覚深度を深度平面1422に向かって偏移させる効果を有し得る。さらに、重複ピクセルは、重複および混成ピクセルが所望の強度を有するように(重複されるピクセルが、ディスプレイ内のその位置における光への複数の深度平面の寄与に起因して、過剰に明るく現れることを防止するため)、非重複ピクセルと異なる強度を有してもよい(概して、より低い強度であり得る)。これらは、単なる例証的実施例であって、一般に、ウェアラブルシステムは、混成および非混成遠近調節キューの任意の所望の組み合わせを提示してもよい。
混成可変焦点モードに関連して議論されるように、深度平面切替のタイミングは、そのような切替が離散可変焦点モードである場合ほど、混成可変焦点モードおよび多焦点モード等の可変遠近調節キューを伴うモードでは、有意ではなくなり得る。したがって、ウェアラブルシステムは、ユーザ瞬目、サッカード、またはAVMタイムアウト等のトリガイベントを待機せずに、多焦点モードにおいて、アクティブである深度平面を切り替えるように構成されてもよい。代わりに、ウェアラブルシステムは、所望に応じて、ユーザの輻輳・開散運動深度、仮想コンテンツの深度、またはこれらおよび他の入力の組み合わせに応答して、経時的に、提供される遠近調節キューと、利用される深度平面とを平滑に変動させてもよい。しかしながら、他の実装では、ユーザ瞬目、サッカード、またはAVMタイムアウト等のトリガイベントが、利用されてもよい。
種々のレンダリングモードにおける視点中心不整合の影響
1つ以上の深度平面上に投影されるとき、世界および実世界の両方をレンダリングするために決定され得る、特定の視点中心(CoP)から、3D仮想コンテンツをレンダリングおよび視認することが望ましくあり得る。コンテンツが、レンダリング世界内の適切な視点中心からレンダリングされるとき、各仮想画面のピクセルは、具体的位置および配向を含み得る、実世界内の適切な視点中心から観察されるときの3D仮想コンテンツとして正確に現れ得る。しかしながら、同一コンテンツが、レンダリング世界内の異なる位置からレンダリングされる、または実世界内の異なる位置から視認される場合、3D仮想コンテンツは、そのような3D仮想コンテンツの画像に正確に類似し得ない。本レンダリングフレームワークは、ピンホールカメラモデルを使用して表されることができ、CoPは、3D仮想コンテンツの投影を正しく捕捉するような様式において、レンダリング世界(例えば、3Dレンダリング空間)内に位置付けられ、配向される、「仮想」または「レンダリング」ピンホールカメラとして表される。CoPに関連する付加的詳細は、図22−24Bに関して下記に説明される一方、図15A−15Cおよび下記に提供される対応する説明は、種々の例示的レンダリングモード毎に、CoP正確度および/または精度が複合現実システム性能に及ぼし得る影響をさらに実証する。
動作時、ユーザの眼の網膜上に投影される、デジタル化されたライトフィールドは、(レンダリング世界フレーム内の)仮想ピンホールカメラの視点および(実世界フレーム内の)ユーザの視点が整合されない場合、アーチファクトを含有する、または他の問題となる特性を呈する、3D仮想コンテンツの画像を形成する役割を果たし得る。1つの深度平面が採用される、単純シナリオに関して、仮想ピンホールカメラとユーザの視点との間の不整合は、3D仮想コンテンツの画像をユーザのFOV内の正しくない(意図されない)場所に形成する、デジタル化されたライトフィールドをもたらし得る。図14A−14Fを参照して上記に説明される焦点モードのいずれかが採用されるシナリオ等、2つ以上の深度平面が採用される、シナリオに関して、仮想ピンホールカメラとユーザの視点との間の不整合は、場所間で飛び跳ねる、または飛び出るように現れる、および/または亀裂および/または転位等の視覚的アーチファクトを含む、3D仮想コンテンツの画像を形成する、デジタル化されたライトフィールドをもたらし得る。より具体的には、上記に述べられた焦点モードのうちの任意の1つで動作する、複合現実システム内のそのような不整合の発生は、1つの深度平面上で平面化されている(または深度平面間で混成されている)3D仮想コンテンツを別の深度平面上で平面化されている(または深度平面間で混成されている)3D仮想コンテンツに対して不適切に偏移させる、視差偏移を導入する役割を果たし得る。
CoP不整合の実施例として、図15Aは、離散可変焦点モードで動作し、CoP不整合の存在下、コンテンツをユーザの眼1502に提示する、複合現実システム1500Aを示す。図13を参照して上記に説明されるような複合現実システム1300のように、複合現実システム1500Aは、接眼レンズ1510を含み、これは、15D仮想オブジェクト1530を表すライトフィールドを、接眼レンズ1510を通して、ユーザの眼1502の網膜1503上に投影するように構成される、頭部装着型デジタルライトフィールドディスプレイデバイスまたはその一部のものを表し得る。図15Aはまた、その上に仮想オブジェクト1530が投影され、仮想ピクセルに変換され得る、深度平面1521−1523を示す。図15Aに描写される特定の実施例では、複合現実システム1500Aは、離散可変焦点モード(例えば、図14A−14Bを参照して上記に説明されたものに類似する様式において)で動作し、第1の時点における、深度平面1522上への仮想オブジェクト1530の投影から、第2の後続時点における、深度平面1523上への仮想オブジェクト1530の投影に切り替える。したがって、仮想オブジェクト1530は第1の時点において、深度平面1522上に投影され、仮想ピクセル1532Aに変換され、次いで、第2の時点において、深度平面1523上に投影され、仮想ピクセル1533Aに変換される。複合現実システム1500Aは、第1の時点において、仮想ピクセル1532Aを表すデジタル化されたライトフィールドを生成し、接眼レンズ1510を通して、ユーザの眼1502の網膜1503上に投影し得、第2の時点において、仮想ピクセル1533Aを表すデジタル化されたライトフィールドを生成し、接眼レンズ1510を通して、ユーザの眼1502の網膜1503上に投影し得るということになる。
図15Aの実施例では、CoP不整合(例えば、仮想カメラの視点とユーザの眼1502の正しい視点との間の不整合)が存在するため、第1の時点と第2の時点との間で、ユーザの眼1502の網膜1503上に形成される仮想オブジェクト1530の画像を知覚的に変化させることが所望されない場合があるが(新しい遠近調節キューを提供する以外)、視差偏移が、複合現実システム1500Aが、ユーザのFOV内の仮想オブジェクト1530の知覚される場所を変化させる役割を果たし得る、深度平面を切り替えるにつれて、生じ得る。図15Aはさらに、それぞれ、第1および第2の時点においてユーザの眼1502の網膜1503上に形成される、仮想オブジェクト1530の画像を表す、例示的網膜画像1534Aおよび1534Aを示す。図15Aは、それぞれ、第1および第2の時点においてユーザの眼1502の網膜1503上に形成される仮想オブジェクト1530の画像を表す、網膜画像1534Aおよび1534Aのその描写における、本偏移を実証する。したがって、複合現実システム1500Aが、深度平面1522の使用から深度平面1523の使用に切り替えると、仮想オブジェクト1530は、「飛び跳ねる」、「飛び出す」、または別様に、ユーザのFOV内で場所を急速に偏移させるように現れ得る。図15Aは、画像ジャンプ1536として、本偏移を図示する。特に、図15Aは、網膜画像1534Aは、網膜画像1534Aから右上に偏移され得、したがって、ユーザは、仮想オブジェクト1530が、深度平面切替の間、ジャンプ1536に沿って飛び跳ねるように知覚し得る方法を図示する。
同様に、図15Bは、混成可変焦点モードで動作し、CoP不整合の存在下、コンテンツをユーザの眼1502に提示する、複合現実システム1500Bを示す。複合現実システム1500Bは、例えば、図15Aを参照して上記に説明されるような複合現実システム1500Aと同一アーキテクチャを有してもよい。図15Bに描写される特定の実施例では、複合現実システム1500Cは、混成可変焦点モードで動作し(例えば、図14C−14Dを参照して上記に説明されたものに類似する様式において)、仮想オブジェクト1530を、それぞれ、仮想ピクセルセット1532Bおよび1533Bに変換するように、同時に、仮想オブジェクト1530を深度平面1522および1523上に投影する。このように、仮想ピクセルセット1522Bおよび1533Bの強度は、遠近調節キューを深度平面1522と1523との間に生成するように、混成され得る。複合現実システム1500Bは、仮想ピクセルセット1532Bおよび1533Bを表すデジタル化されたライトフィールドを生成し、接眼レンズ1510を通して、ユーザの眼1502の網膜1503上に投影し、網膜画像1534Bを形成し得る。図15Aを参照して上記に説明されるものに類似する理由(例えば、CoP不整合によって生じる視差偏移)から、仮想ピクセルセット1532Bおよび1533Bは、ユーザの眼1502に対して相互に適切に整合されず、したがって、仮想オブジェクト1530は、網膜画像1534Bでは、視覚的アーチファクトを伴って歪曲されている/隠されている。特に、図15Bは、仮想コンテンツ1530が意図される画像1538として知覚されるはずであった方法と、CoP不整合が第1および第2の画像アーチファクト1540Aおよび1540B(例えば、網膜画像1534B内の点刻(stippled)領域)を作成する方法とを図示する。
同様に、図15Cは、混成可変焦点モードで動作し、CoP不整合の存在下、コンテンツをユーザの眼1502に提示する、複合現実システム1500Cを示す。複合現実システム1500Cは、例えば、図15A−15Bを参照して上記に説明されるような複合現実システム1500Aおよび/または1500Bと同一アーキテクチャを有してもよい。図15Cに描写される特定の実施例では、複合現実システム1500Cは、混成可変焦点モードで動作し(例えば、図14E−14Fを参照して上記に説明されたものに類似する様式において)、同時に、仮想オブジェクト1530の1つの部分を深度平面1522上に投影し、仮想オブジェクト1530の別の部分を深度平面1523上に投影する。したがって、深度平面1522上に投影される、仮想オブジェクト1530の部分は、仮想ピクセルセット1532Cに変換される一方、深度平面1523上に投影される、仮想オブジェクト1530の部分は、仮想ピクセルセット1533Cに変換される。このように、仮想ピクセルセット1532Cおよび1533Cは、異なる焦点キューを提供してもよい。複合現実システム1500Cは、仮想ピクセルセット1532Cおよび1533Cを表すデジタル化されたライトフィールドを生成し、接眼レンズ1510を通して、ユーザの眼1502の網膜1503上に投影し、網膜画像1534Cを形成し得る。図15Aおよび15Bを参照して上記に説明されるものに類似する理由(例えば、CoP不整合によって生じる視差偏移)から、仮想ピクセルセット1532Cおよび1533Cは、ユーザの眼1502に対して相互に適切に整合されず、したがって、仮想オブジェクト1530は、網膜画像1534Cでは、亀裂されて(例えば、仮想オブジェクト1530の2つの対応する部分間の継目において分離されて)現れる。特に、仮想オブジェクト1530は、網膜画像1534Cに示されるように、アーチファクト1542の転位を有し得る。
実際、仮想カメラの視点とユーザの眼の視点(ユーザの眼の位置/光学構成に対応する)の正しい整合は、比較的に高知覚品質のグラフィックを提示する、デジタルライトフィールドディスプレイデバイスの能力に重要であり得る。いくつかの実施例では、特定の仮想カメラ視点が、デジタルライトフィールドディスプレイデバイスにおいて活用されてもよく、仮想カメラがディスプレイ+眼の光学系の有効開口の中心に位置付けられる、視点に対応してもよい。
眼視点位置は、眼の有効入射瞳の位置(概して、本明細書では、眼「CoP」と称される)に対応してもよく、これは、光学軸に沿った角膜曲率の中心の約5.01ミリメートル正面にある。レンダリングカメラのピンホールとそのような場所との間の適切な整合を維持するために、システムは、実世界およびユーザの眼視点についての情報を取得してもよい。いくつかの実施例では、そのような情報は、ユーザの眼の測定から推測されることができる。そのような測定は、眼追跡モジュール614によって取得されてもよい。眼のCoPの位置は、現在の光学軸または視軸に沿って、図10の位置1008等の角膜中心位置から約5.01ミリメートルの場所まで(眼の外側表面または角膜に向かって)進める、または移動させることによって、計算または別様に推測されてもよい。したがって、ユーザのCoPは、ウェアラブルデバイスが、ユーザの顔に対して移動する場合(したがって、位置合わせオブザーバ620からの情報が、ユーザのCoPを識別する際に利用されてもよい)、変化し得る、および/またはユーザがそのFOVの異なる部分を見る(その光学軸または視軸を変化させ、したがって、その眼のCoPを変化させる)につれてもまた、変化し得る。
複合現実システム内のレンダリングカメラモードの実施例
図16A−17Bに図示されるように、ウェアラブルシステムは、瞳孔レンダリングカメラモード、回転中心(CoR)レンダリングカメラモード、およびハイブリッド瞳孔−CoRレンダリングカメラモードを含む、異なるレンダリングカメラモードを利用してもよい。加えて、これらのレンダリングカメラモードはそれぞれ、図13−15Cに関連して本明細書に説明されるディスプレイ焦点モードのそれぞれと併用されてもよい。少なくともいくつかの実施形態では、ライトフィールドレンダリングコントローラ618が、任意の特定の時間において利用すべきレンダリングカメラモードを選択するように構成されてもよく、眼追跡データ、特に、眼追跡データの品質等の好適なデータに基づいて、そのような選択を行なってもよい。実施例として、ウェアラブルシステム内のライトフィールドレンダリングコントローラ618または他のモジュールは、瞳孔レンダリングカメラモードを選択してもよい、または眼追跡データが、比較的に安定し、ウェアラブルシステムが、低ジッタまたは雑音を伴うCoPの場所を識別することが可能となる度に、ハイブリッドレンダリングカメラモードをユーザのCoPに向かってバイアスしてもよい。対照的に、追跡データが、限定される、または雑音が多い場合、ライトフィールドレンダリングコントローラ618は、CoRレンダリングカメラモードを選択する、またはハイブリッドレンダリングカメラモードをユーザのCoRに向かってバイアスするように構成されてもよい。ライトフィールドレンダリングコントローラ618は、選択されたレンダリングカメラモードに従って、左および右カメラ位置をリアルタイムで決定してもよく(例えば、レンダリングカメラコントローラ758を用いて)、左および右カメラ位置(および選択されたレンダリングカメラモード)を示すデータをレンダリングエンジン622に提供してもよい。
瞳孔レンダリングカメラモード
瞳孔レンダリングカメラモードでは、レンダリングカメラのピンホールカメラ(例えば、レンダリングエンジン622が特定のユーザの視点のためのコンテンツを生成する際に使用し得る、シミュレートされたカメラ位置)は、常時、推定されるユーザのCoPの位置に追従され得る(例えば、上記に説明されるモジュール732によって示されるように)。特に、右眼レンダリングカメラのピンホールカメラは、ユーザの右眼CoPに追従され得る一方、左眼レンダリングカメラのピンホールカメラは、ユーザの左眼CoPに追従され得る。したがって、ディスプレイによって提示される仮想画像コンテンツは、(例えば、眼の前房内の)瞳孔の真正面にある、CoPの場所の視点を有する。
図16A−16Bは、ライブ瞳孔モード(例えば、瞳孔レンダリングカメラモード)に対して追跡されるピンホールカメラで動作する、システム1600Aを示す。システム1600Aは、接眼レンズ1610を含み、それを通して、眼1602は、深度平面1621、1622、および1623のうちの1つ以上のもの上に投影された仮想コンテンツを視認することができる。図16A−16Bはさらに、眼1602のCoPに位置付けられる、レンダリングカメラ1630を示す。眼1602は、図16Aにおける接眼レンズ1610に対しては、第1の姿勢にあって、図16Bにおける接眼レンズ1610に対しては、第2の異なる姿勢にあることが分かる。したがって、さらに、レンダリングカメラ1630は、図16Aでは、1つの位置(例えば、図16Aにおける眼1602のCoPに対応する位置)にあって、図16Bでは、別の異なる位置(例えば、図16Bにおける眼1602のCoPに対応する位置)にあることが分かる。
ピンホールレンダリングカメラが瞳孔に対してリアルタイムで追跡されることで、ピンホールレンダリングカメラと瞳孔との間のピンホールカメラの絶対位置(および配向)および相対位置(および相対的配向)は、確率論的に経時的に変化する。本モードにおける視覚は、眼追跡からの瞳孔位置が、雑音が多い、および/または十分にフィルタリングされない場合、ジッタが多くなり得る。常時、レンダリングカメラのピンホールを眼のCoPの実際の位置に追従させることは、ディスプレイに対する全ての瞳孔移動、例えば、(滑脱およびIPDのような)低周波数変化および眼の回転からの高周波数変化の両方を考慮するように試みる。これは、高周波数動態をレンダリングシステムの中に導入し、望ましくない時間的アーチファクト(ジッタ/ジャンプ)をもたらし得る。
図16Cは、レンダリングカメラのピンホールが、眼の視点中心またはほぼ眼の瞳孔と整合される、別の実施例を図示する。描写されるように、片眼のためのユーザの瞳孔は、位置A(点164)から位置B(点1642)に移動し得る。仮想オブジェクト1644を表示する、光学接眼レンズに関して、ある屈折力を前提として、定常に現れることが意図される仮想オブジェクト1644は、3Dにおいて、瞳孔位置に基づいて、仮想オブジェクト投影Aを表す位置1646または仮想オブジェクト投影Bを表す位置1648のいずれかに投影されるであろう(レンダリングカメラが瞳孔を座標フレームとして使用するように構成されると仮定する)。投影が、それによって投影するための2つの場所を有することを前提として、頭部座標に変換される瞳孔座標を使用することは、ユーザの眼が移動するにつれて、ジッタを定常仮想コンテンツに生じさせるであろう。本レンダリングカメラプロトコルは、ビュー依存ディスプレイまたは投影システムとも称され得る。
回転中心(CoR)レンダリングカメラモード
CoRレンダリングカメラモードでは、レンダリングカメラのピンホールカメラ(例えば、レンダリングエンジン622が特定のユーザの視点のためのコンテンツを生成する際に使用し得る、シミュレートされたカメラ位置)が、ユーザの回転中心(例えば、図10に示されるようなCoR1010)の位置に追従され得る。左および右眼回転中心は、CoR推定モジュール724と関連付けて上記に説明されるもののうちの1つ以上のもの等、図7Aの眼追跡モジュール614を参照して上記に説明される動作のうちの1つ以上のものの実行を通して推定されてもよい。レンダリングカメラをユーザのCoRに位置付けることによって、ウェアラブルシステムは、周縁における潜在的空間アーチファクト(例えば、小視差誘発拡大/縮小飛出)と引き換えに、時間的アーチファクト(特に、マイクロサッカード移動の間、深刻であり得る、ライブ瞳孔モードに対して追跡されるピンホールカメラ内の眼追跡遅れから生じるジッタ)を回避し得る。本アプローチは、レンダリングカメラ場所(眼視点)と眼が中心窩で捉えている(例えば、合焦している)対象との間の関係が、眼鏡が眼球中心に対して定常である間、常時、固定されるという事実を利用する。すなわち、場面は、本モードでは、画像が、常時、眼の配向または移動方法にかかわらず、中心窩を完璧に補正するが、周縁に向かって、概して、位置合わせがずれるように、事前にレンダリングされてもよい。レンダリングカメラが眼のCoRにアンカされることで、ライトフィールドは、中心窩に正しく提示されるであろう(例えば、中心窩では、世界との位置合わせまたは飛出が存在しない)が、周縁には、誤差を含んでもよい(例えば、回転中心(CoR)は、視点中心(CoP)ではないため、したがって、視差偏移を受けにくくはない)。有利には、周縁におけるそのような誤差は、眼視力が急速に減弱するため、FOV内のいずれかの場所における誤差/アーチファクトよりもはるかに顕著ではなくなり得る。
例えば、図17A−17Bは、CoRモードに固定されたピンホールカメラで動作する、システム1700Aを示す。図16A−16Bを参照して上記に説明されるシステム1600Aのように、システム1700Aは、接眼レンズ1710を含み、それを通して眼1702は、深度平面1721、1722、および1723のうちの1つ以上のもの上に投影された仮想コンテンツを視認することができる。図17A−17Bはさらに、眼1702の推定されるCoRに位置付けられる、レンダリングカメラ1730を示す。眼1702は、図17Aでは、接眼レンズ1710に対して第1の姿勢にあって、図17Bでは、接眼レンズ1710に対して第2の姿勢にあることが分かる。レンダリングカメラ1730は、CoRが眼姿勢の変化に伴って変化しないため、図17Aおよび17Bのそれぞれ(例えば、眼の1702の推定されるCoR)では、同一位置にあることが分かる。
少なくともいくつかの実施形態では、レンダリングカメラ1730は、多視点レンダリングカメラ1730を備えてもよく、これは、例えば、回転中心(CoR)を中心として半径方向に分散されるレンダリングカメラのアレイを眼1702のCoPから眼1702の回転中心までの距離と等しい距離(例えば、半径)に備え得る。したがって、眼1702のCoPは、いくつかの異なる姿勢のそれぞれにおいて、アレイ内の少なくとも1つのレンダリングカメラと整合または略整合され得る。そのような実施形態では、ライトフィールドレンダリングコントローラ618が、ユーザの現在の姿勢(例えば、ユーザの現在の光学軸または瞳孔場所)に基づいて、特定のレンダリングカメラを半径方向に分散されたアレイから選択してもよい、または、単に、半径方向に分散されたアレイ内の複数のレンダリングカメラ(または半径方向に分散されたアレイ内の全てのレンダリングカメラ)を同時に採用してもよい。したがって、レンダリングコントローラ618は、ユーザのCoPと実質的に整合および配向されるレンダリングカメラを選択してもよい。
図17Cは、レンダリングカメラのピンホールが眼の回転中心と整合される、別の実施例を図示する。いくつかの実施形態では、カメラレンダリングフレームが、例えば、眼球の回転中心における、全ての瞳孔位置を包含する、点1740に位置付けられる。仮想オブジェクト投影カメラレンダリングエリア1742は、瞳孔位置A(点1640)および位置B(点1642)にかかわらず、一貫し得る。頭部座標は、カメラレンダリングフレームに変換される。いくつかの実施形態では、画像ワーピングが、画像に適用され、眼位置の変化を考慮してもよいが、これは、依然として、同一位置にレンダリングするため、ジッタは、低減または最小限にされる。本レンダリングカメラプロトコルは、ビュー独立ディスプレイまたは投影システムとも称され得る。
ハイブリッド瞳孔−CoRレンダリングカメラモード
ハイブリッド瞳孔−CoRレンダリングカメラモードでは、レンダリングカメラのピンホールカメラは、瞳孔(CoP)位置、CoR位置、またはCoP位置とCoR位置との間の線上の任意の位置に位置してもよい。その線に沿った特定のレンダリングカメラの位置は、眼追跡データの変化に応答して、経時的に変動し得る。実施例として、ライトフィールドレンダリングコントローラ618は、下記により詳細に議論されるように、眼追跡データの性質および品質を分析し、レンダリングカメラをユーザのCoP、ユーザのCoR、またはその間のある場所に位置させるかどうかを決定してもよい。
いくつかの実施形態では、システムは、眼追跡データの決定された標準偏差(または統計的分散量の他の測定値)に基づいて、ピンホールカメラの場所を変化させてもよい。例えば、システムは、収集されている眼追跡データが比較的に雑音が多い(したがって、「ジッタ」等の実質的時間的アーチファクトをもたらす可能性が高い)ことの決定に応答して、ピンホールカメラを回転中心(CoR)またはその近傍に位置付けることを選んでもよい。ピンホールカメラをCoRまたはその近傍に位置付けることは、ジッタおよび他の時間的アーチファクトを低減させることに役立ち得る。加えて、システムは、収集されている眼追跡データが比較的に安定している(したがって、ジッタ等の実質的時間的アーチファクトをもたらす可能性が低い)ことの決定に応答して、ピンホールカメラを視点中心(CoP)またはその近傍に位置付けることを選んでもよい。ピンホールカメラをCoPまたはその近傍に位置付けることは、例えば、図22−24Bに関して下記に説明されるように、視差誘発(空間)アーチファクトを低減させることに役立ち得る。いくつかの実施例では、システムは、単に、これらの2つの離散場所(CoRおよびCoP)間でトグルしてもよい。付加的議論に関しては、付属(第IおよびII章)を参照されたい。また、関連議論に関しては、図10および15A−17Bを参照して上記に提供される説明を参照されたい。他の実施例では、システムは、ピンホールカメラをCoRとCoP(いくつかの実装では、平均ユーザに関して、相互から概ね9.71mm離れて位置付けられ得る)との間の光学軸に沿った異なる場所の範囲のいずれかに位置付けてもよい。これらの実施例では、システムは、ピンホールカメラを眼追跡データの決定された標準偏差と連動して眼の光学軸に沿って「摺動させる」(またはその場所を平行移動させる)と見なされ得る。眼追跡データの標準偏差が、比較的に高いとき、システムは、ピンホールカメラをCoRまで摺動させてもよい。対照的に、眼追跡データの標準偏差が、比較的に低いとき、システムは、ピンホールカメラをCoPまで摺動させてもよい。システムは、レンダリングカメラのピンホールを光学および/または視軸に沿った方向にユーザのCoRの正面のある距離(網膜から離れるように)に位置付けてもよい。実施例として、レンダリングカメラのピンホール(開口)は、6.0mm〜13.0mm、7.0mm〜12.0mm、8.0mm〜11.0mm、9.0mm〜10.0mm、9.5mm〜10.0mm、約9.7mm、約9.71mm、またはユーザのCoR正面の他の好適な距離に位置付けられてもよい。
図18A−18Dは、例証的眼追跡データの実施例と、システムが眼追跡データに応答してレンダリングカメラを経時的に再配置し得る方法とを提供する。
図18Aのグラフ1800aは、眼追跡システム内の雑音のレベルおよびユーザの眼の移動の速度を示し得る、未加工眼追跡データの実施例を提供する。y−軸の単位は、度/秒における眼角速度(例えば、度/秒におけるユーザの光学軸方向の変化)であり得る。グラフ1800aに示されるように、ユーザの眼の雑音および/または移動は、実質的に異なる速度に伴うユーザのCoPの場所における移動に経時的に寄与し得る。
図18Bのグラフ1800bは、図18Aの眼追跡データの分散量の実施例を提供する。実施例として、グラフ1800bは、グラフ1800aの指数関数的に加重された移動標準偏差であってもよい。一般に、眼追跡データの分散量の任意の測定値が、レンダリングコントローラ618によって、レンダリングカメラを位置させるべき場所を決定する際に使用されてもよい。閾値1810によって示されるように、ユーザの瞳孔またはCoPの位置における分散量(例えば、雑音、変動性、速度等)が高くなる度に、システムは、レンダリングカメラをCoRに位置付けてもよい。対照的に、閾値1820によって示されるように、ユーザの瞳孔またはCoPの位置における分散量が低くなる度に、システムは、レンダリングカメラをCoPに位置付けてもよい。分散量の中間領域では、システムは、レンダリングカメラをCoRとCoPとの間に位置付けてもよい。実施例として、システムは、時間A、D、およびEでは、レンダリングカメラをCoRとCoPとの間に設置し得、時間Bでは、レンダリングカメラをCoRに設置し得、時間Cでは、レンダリングカメラをCoPに設置し得る。いくつかの実施形態では、レンダリングカメラ位置は、眼追跡データの関数として(例えば、決定されたCoPデータ内の雑音または速度の関数として)、CoR位置とCoP位置との間で摺動してもよい。
図18Cのグラフ1800cは、CoRとCoPとの間のレンダリングカメラの位置が図18Aおよび18Bの例示的データを前提として変動し得る、方法を図示する。グラフ1800cに示されるように、レンダリングカメラは、時間Aでは、光学軸に沿ってCoP位置に向かう(かつCoR位置から離れる)方向の約48%にあってもよく、時間Bでは、CoR位置に位置してもよく、時間Cでは、CoP位置に位置してもよく、時間Dでは、CoR位置の近傍に(CoR位置から約18%離れるように)位置してもよく、時間Eでは、CoP位置の近傍に(CoR位置から約88%離れるように)位置してもよい。
時間A−Eにおけるユーザの眼1802に対するレンダリングカメラの位置は、図18Dの略図に図示される。特に、位置Dは、CoRであってもよく、CoP場所が、急速に移動する、または雑音が多い(例えば、望ましくないことにジッタが多い)とき、使用されてもよく、位置Dは、CoRのすぐ外側にあってもよく、CoP場所データが、若干ジッタが少ないときに使用されてもよく、位置Dは、CoR位置とCoP位置との間の中間にあってもよく、CoP場所データが若干改良されるときに使用されてもよく、位置Dは、CoP位置の間近にあってもよく、CoPデータが、レンダリングカメラをCoPに位置付けるためにほぼ十分であるときに使用されてもよく、位置Dは、CoPにあって、CoPデータが十分に安定しているときに使用されてもよい。一般に、レンダリングカメラは、CoPとCoRとの間の任意の点に位置してもよく、変動する眼追跡データに応答して、これらの位置間を経時的に平滑に移動されてもよい。いくつかの実装では、レンダリングカメラ位置は、ユーザの決定された輻輳・開散運動に基づいて、CoPとCoRとの間で調節されてもよい。例えば、ユーザの輻輳・開散運動または固視深度が、図12を参照して上記に説明されたもの等のヒステリシス閾値が位置付けられる空間内の場所に対して深度平面が位置付けられる、空間内の場所から偏移するにつれて、システムは、レンダリングカメラの位置をCoPに向かって偏移させ得る。このように、CoPは、視差誘発アーチファクトを低減または最小限にするように、ユーザの輻輳・開散運動がヒステリシス閾値を超えたことの決定に応答して、システムによって実行され得る、深度平面切替の間、レンダリングカメラ場所として利用されてもよい。同様に、そのような実装では、ユーザの輻輳・開散運動または固視深度が、深度平面が位置付けられる空間内場所に対してヒステリシス閾値が位置付けられる、空間内場所から偏移するにつれて、システムは、レンダリングカメラの位置をCoRに向かって偏移させ得る。上記に説明されるように、システムは、深度平面を切り替える、または別様に調節するとき、レンダリングカメラの焦点距離を調節してもよい。したがって、いくつかの実施例では、システムは、ユーザの決定された輻輳・開散運動の関数として、レンダリングカメラの位置および焦点距離の両方を調節してもよい。
角膜輪部投影に基づいて回転中心を決定する
例えば、少なくとも図7Aに関して、かつ本明細書のいずれかにおいて、上記に説明されるように、回転中心または「CoR」が、ユーザの眼に関して決定されてもよい。回転中心は、本明細書に説明されるように、その周囲でユーザの眼が回転する、点を示し得る。故に、ある場合には、ユーザの眼が回転すると、眼(例えば、眼球)内に点(例えば、CoR)が存在し得、これは、実質的に固定される。上記に議論されるように、CoRを決定するために、光学軸および/または視軸の場所および配向の推定値が、眼追跡カメラまたは他のカメラによって取得される画像を使用して、異なる視線方向のための眼に関して計算されてもよい。これらの異なる光学軸または視軸の交点は、眼に関する回転中心の場所を推定するために使用されてもよい。代替として、上記に説明されるようなモジュール(例えば、CoR推定モジュール724)は、推定される眼寸法を利用してもよい。例えば、モジュールは、角膜の曲率中心を使用して、光学軸に沿って曲率中心から網膜に向かって特定の距離にあるものとしてCoRを推定してもよい。ある場合には、本特定の距離は、約4.7mmであってもよい。CoRの推定値を決定する他の方法も、可能性として、採用されてもよい。
上記に議論されるように、種々の実装では、眼のCoRは、例えば、仮想コンテンツのレンダリングおよび提示をユーザに知らせ得る。実施例として、レンダリングエンジン(例えば、エンジン622)は、ディスプレイを用いてユーザによって視認されるとき、仮想コンテンツが適切な視点にあるように、ユーザの眼に位置付けられるカメラのシミュレーションを介して、仮想コンテンツを生成してもよい(例えば、ユーザの眼に位置するカメラが仮想コンテンツを生成したかのように)。これらの位置を決定するために、各眼の決定されたCoRが、利用されてもよい。例えば、特定のカメラは、決定されたCoRの位置またはその近傍またはCoRの場所を使用して決定された場所に配置されるピンホールを用いて、ピンホールカメラとしてシミュレートされてもよい。したがって、決定されたCoRの正確度の増加は、仮想コンテンツの提示、対応して、視認に対する技術的利点を提供し得る。
上記で参照されるように、種々の方法が、眼の回転中心の場所の推定値を決定するために利用されてもよい。図19−21Dに関して下記により詳細に説明されるように、例えば、ユーザの眼の角膜輪部が、眼のCoRを正確に決定するために利用されてもよい。角膜輪部の実施例として、図5は、曲線512aを図示し、これは、例示的眼500の辺縁境界を示す。有利には、辺縁境界は、眼の画像内で迅速に明白となり得る。例えば、曲線512aの境界は、縁検出技法に従って識別されてもよい。虹彩と関連付けられた色は、強膜のものと実質的に明確に異なり得るため、境界は、曲線512aにおける突然の差異に起因して識別され得る。別の実施例として、RANSAC、機械学習技法等の技法が、角膜輪部の境界に対応する曲線512aを決定するために利用されてもよい。辺縁境界を識別すること等の角膜輪部を識別することの付加的実施例は、米国特許公開第2018/0018515号(参照することによって本明細書に組み込まれる)に説明される。
ある実装では、楕円が、ユーザの角膜輪部の画像(以降、「投影楕円」と称される)上に投影されてもよい。投影楕円は、したがって、ユーザの角膜輪部の境界に適合する、楕円を表し得る。本明細書に説明されるように、画像前処理モジュール710は、分析のために、ユーザの眼の画像を取得してもよい。これらの取得された画像は、したがって、個別の投影楕円を決定するために利用されてもよい。各画像は、一意の配向における眼の表現を含み得る(例えば、視線は、異なる方向あり得る)ため、投影楕円は、実施例として、故に、眼の連続画像間で明確に異なり得る。説明されるであろうように、例えば、少なくとも図21A−21Dでは、連続画像から決定された1つ以上の投影楕円が、使用されてもよい。楕円における差異は、眼のCoRを決定する(例えば、推定する)際に有用であり得る。
実施例として、光線の円錐等の円錐が、カメラ点(例えば、上記に説明されるようなピンホールカメラ)からユーザの眼の画像と関連付けられた投影楕円を通して延在するように、投影されてもよい。例えば、図19および図21A−21Cを参照されたい。円錐の円形断面は、画像と関連付けられると識別され得る。これらの円形断面1906、1908の実施例は、図19に図示される。いくつかの実装では、円形断面は、円錐の固有値/固有ベクトル分解を使用して決定されてもよいが、円形断面を識別するための他のアプローチが、使用されてもよい。しかしながら、いくつかの実装では、円形断面の中心の場所を提供する、ベクトルが、例えば、決定されてもよい。
円形断面のうちの1つが、次いで、画像のために選択されてもよい。例えば、円形断面のうちの1つは、(例えば、仮想コンテンツに向かう)ユーザの眼の視線に対応してもよい。選択された円形断面に対して法線方向のベクトル(以降、「法線ベクトル」と称される)が、決定されてもよい。例えば、ベクトルに対して法線方向であり得る、法線ベクトルはまた、選択された円形断面の中心の場所を提供する。
上記に説明される実施例では、眼の2つ以上の画像(例えば、連続画像)が、分析されてもよい。眼の各画像は、上記に説明されるように、明確に異なる配向(例えば、明確に異なる眼姿勢)における眼を表し得る。円形断面が、画像毎に選択され、比較して、CoRを決定してもよい。例えば、CoRは、画像に関して決定された法線ベクトルの交点として決定されてもよい。図21Dに関する実施例として、CoRは、点2122であり得る。いくつかの実施形態では、各法線ベクトルは、個別の画像から決定されるような眼の光学軸に対応し得る。したがって、上記の図7Aに説明されるように、CoRは、異なる眼姿勢に関して決定された光学軸の交点として決定され得る。
図19は、本明細書に説明される技法に従う、投影楕円1902のグラフィカル表現を図示する。上記に説明されるように、カメラは、カメラ点1910に位置するピンホールカメラであるようにシミュレートされ得る。カメラ点1910は、したがって、1つ以上の眼追跡カメラの座標系の原点を表し得る。ユーザの眼の画像が、(例えば、モジュール710を介して)取得され、画像に対応する像面1904が、識別され得る。像面1904は、したがって、ユーザの眼の結像された表現を含み得る。ユーザの角膜輪部の境界に対応する投影楕円1902が、像面1904上で決定され得る。
光線1912A−Dをカメラ点1910から投影楕円1902の境界を通して延在させることを介して形成される、円錐1912が、次いで、識別され得る。種々の実装では、円形断面は、円錐1912の長さに沿って決定されてもよい。示される実施例では、円形断面は、光線の円錐と交差し、それによって境界される、周を有する。円形断面は、図20を参照して説明されるであろうように、円形断面の具体的半径に基づいて、一意に決定され得る。例えば、同一半径を伴う、第1の円形断面1906および第2の円形断面1908が、図示される。いくつかの実施形態では、CoRを精緻化することに関して下記に説明されるであろうように、角膜輪部半径は、2次元CoRを決定するとき、把握、仮定、または考慮され得ない。実施例として、半径は、多数のユーザを横断した角膜輪部の平均半径、ユーザの角膜輪部の画像に基づいてユーザのために決定された半径を表し得る、または恣意的一定値を表し得る。固有ベクトル分解が、随意に、実施されてもよく、円錐1912の主軸1914が、識別されてもよい。図19に図示されるように、主軸1914は、投影楕円1902の幾何学的中心を通してカメラ点1910まで延在するように図示される。
第1のベクトル1916が、決定され得、これは、第1の円形断面1906の中心を通して通過する。同様に、第2のベクトル1918が、決定され得、これは、第2の円形断面1908を通して通過する。例えば、これらのベクトル1916−1918は、円錐1912の固有ベクトル分解に基づいて決定されてもよい。円形断面1906、1908が、明確にされてもよい。したがって、円形断面のうちの1つは、結像される眼と関連付けられた視線により良好に対応すると識別され得る。例えば、円形断面1906、1908のいずれも、所与の半径に関して数学的に許容可能であり得るが、円形断面のうちの1つは、眼の実際の視線に対応し得る。したがって、円形断面のうちの1つは、眼のCoRの推定値を決定する際に利用するために選択されてもよい。
図20に関して下記により詳細に説明されるように、選択された円形断面に対して法線方向の法線ベクトルが、決定されてもよい。例えば、法線ベクトルは、第1の円形断面1906または第2の円形断面1908のいずれかに対して法線方向であってもよい。法線ベクトルは、いくつかの画像に関して決定されてもよい。法線ベクトル間の3次元空間内の交点が、次いで、眼のCoRに対応すると識別され得る。交点の実施例は、交点2122に関して図21Dに図示される。ある場合には、法線ベクトルがともに近づく領域および関連付けられた場所が、例えば、法線ベクトルが1つの点において交差しない場合、CoRの推定値として捉えられる。いくつかの実装では、二乗平方アプローチが、交点のそのような点の推定値を取得するためにとられてもよい。そのような実装では、システムは、法線ベクトルまでの二乗距離の和が低減または最小限にされる場所を交差の点として識別してもよい。
有利には、いくつかの実施形態では、1つ以上の技法が、上記に説明される推定されるCoRを精緻化するために利用されてもよい。例えば、CoRの3次元場所は、精緻化されてもよい。本実施例では、精緻化されたCoRは、眼のCoRのより正確な表現であり得る。実施例として、CoRを精緻化するために、第1のベクトル1916および第2のベクトル1918によって定義された平面(本明細書では、「投影平面」と称される)が、識別されてもよい。例えば、図19を参照されたい。本投影平面は、円錐1912の主軸1914を含んでもよい。したがって、投影平面は、投影楕円1902の幾何学的中心を含んでもよい(例えば、それを通して通過する)。加えて、投影平面は、カメラ点1910を含んでもよい(例えば、それを通して通過する)。説明されるであろうように、投影平面はさらに、眼のCoRを含んでもよい(例えば、それを通して通過する)。
2つ以上の投影平面が、利用されてもよい。例えば、これらの投影平面は、ユーザの眼の連続画像から決定されてもよい。本実施例では、2つ以上の投影平面間の交点が、識別されてもよい。上記に説明されるように、各投影平面は、カメラ点1910を含み得るため、交点から形成される結果として生じる線は、したがって、カメラ点1910から延在してもよい。結果として生じる線と像面1904の交点は、したがって、像面1904上のCoRの2次元場所を表し得る。CoR(例えば、上記に説明される3次元CoR)を精緻化するために、結果として生じる線と法線ベクトルの交点が、識別されてもよい。交点は、したがって、精緻化されたCoRとして割り当てられ得る。随意に、精緻化されたCoRは、法線ベクトルの交点または収束に近接する点に基づく結果として生じる線に沿った点と識別され得る。例えば、(例えば、二乗平均平方根プロセスに従って)法線ベクトルまたはその交点または収束に最も近い、結果として生じる線上の点は、精緻化されたCoRとして割り当てられ得る。上記に述べられたように、いくつかの実施例では、二乗平方方法はまた、そのような点の推定に採用されてもよい。
図20は、眼の角膜輪部に基づいて眼の回転中心(CoR)を決定するための、例示的プロセス2000のフローチャートである。便宜上、プロセス2000は、1つ以上のプロセッサまたは処理要素のディスプレイシステムによって実施されるように説明されるであろう。
ブロック2002では、ディスプレイシステムは、ユーザの眼の画像を取得する。少なくとも図7Aに関して上記に説明されるように、ディスプレイシステムは、1つ以上のカメラまたは他の結像システムを介して、ユーザの眼の画像を取得してもよい。
ブロック2004では、ディスプレイシステムは、ユーザの眼の角膜輪部に基づいて、円錐を形成する投影楕円を決定する。投影楕円を決定するために、ユーザの眼の角膜輪部(例えば、図5に図示される辺縁境界512)が、取得された画像内で識別されてもよい。理論によって制約されるわけではないが、辺縁境界は、異なる技法に従って識別されてもよい。実施例として、縁検出スキームが、強膜と虹彩との間の縁を識別するために利用されてもよい。本実施例では、縁は、辺縁境界を表し得る。別の実施例として、機械学習モデルが、辺縁境界を標識化するように訓練されてもよい(例えば、ニューラルネットワーク)。投影楕円は、ある場合には、ディスプレイシステムが辺縁境界に近似する(例えば、実質的に近似する)と決定する、楕円であってもよい。
しかしながら、図21Aに図示されるように、取得される画像は、角膜輪部の全体を含まない場合がある。例えば、ユーザの眼の瞼眼が、角膜輪部の一部をオクルードし得る。図21Aの実施例では、角膜輪部の上側および下側部分は、オクルードされる。ディスプレイシステムは、したがって、投影楕円(例えば、長半径および短半径)を推定し得る。随意に、投影楕円を推定するために、ディスプレイシステムは、角膜輪部の可視部分に基づいて、楕円を適合させ得る。例えば、ディスプレイシステムは、画像内で可視の角膜輪部の境界に基づいて、長半径および短半径を識別してもよい。随意に、投影楕円を推定するために、ディスプレイシステムは、角膜輪部と関連付けられた平均情報を利用してもよい。例えば、辺縁境界の左および最右部分が、可視である場合、ディスプレイシステムは、平均角膜輪部の長半径と短半径との間の平均比率を利用してもよい。随意に、ディスプレイシステムは、ユーザの角膜輪部の以前に取得された画像を利用して、角膜輪部の寸法を識別してもよい。
図19に説明されるように、光線が、カメラ点(例えば、画像を取得した結像システムと関連付けられたピンホールカメラ、カメラの開口等)から投影楕円境界を通して延在されてもよい。例えば、図21Aは、カメラ点から個別の場所を通して投影楕円境界に沿って延在されている、12の例示的光線を図示する。これらの延在される光線は、したがって、円錐を形成し得る。いくつかの実施形態では、円錐は、楕円錐であってもよい。円錐の円形断面は、選択され(例えば、上記に説明されるように)、法線ベクトルが、円形断面に基づいて識別されてもよい。そのような法線ベクトルおよび/または円形断面を識別するための異なる技法が、採用されてもよい。技法の実施例は、下記により詳細に説明される。
任意の特定の科学または数学的理論に賛同するわけではないが、いくつかの実装では、上記に説明される投影楕円は、以下の方程式に従って説明され得る。
Figure 2021511723
式中、5つの係数(例えば、a、b、c、d、e、f)が、以下のように定義される。
Figure 2021511723
上記に説明される投影楕円方程式は、同次座標
Figure 2021511723
に従って、以下のように記述され得る。
Figure 2021511723
上記で識別される円錐行列、
Figure 2021511723
は、以下のように定義され得る。
Figure 2021511723
ディスプレイシステムは、固有のカメラパラメータ(例えば、固有のカメラパラメータ行列)に従って、上記の識別された方程式を調節してもよい。したがって、円錐方程式は、以下のように表され得る。
Figure 2021511723
ブロック2006では、ディスプレイシステムは、円錐の選択された円形断面と関連付けられたベクトルを決定する。ブロック2004に説明されるように、投影楕円の境界を通してカメラ点から延在する光線によって形成される円錐が、決定されてもよい。いくつかの実装では、円形断面と関連付けられたベクトルを決定するために、ディスプレイシステムは、円錐の固有値および固有ベクトルを決定してもよい。例えば、円錐「C」が、直交行列および対角行列に分解され得る。
Figure 2021511723
ディスプレイシステムは、残りの2つの固有値のものと反対の符号を伴う固有値「λ」(例えば、対角行列「D」から)を選択してもよい。対応する固有ベクトルが、次いで、円錐の主軸に対応すると決定され得る(例えば、図19に図示される主軸1914)。主軸は、対応する固有ベクトル(下記では、eと称される)に基づくものとして表され得る。
Figure 2021511723
ディスプレイシステムは、2つの残りの固有値の絶対値に従って、2つの残りの固有値から、最小固有値を識別してもよい。本最小固有値は、「λ」と称され得、残りの固有値は、「λ」と称され得る。
ディスプレイシステムは、次いで、以下を決定してもよい。
Figure 2021511723
図19に説明されるように、円錐の2つの円形断面が、決定されてもよい。例えば、いくつかの実装では、具体的2つの円形断面は、規定された半径に基づいて決定されてもよい。半径は、実施例として角膜輪部と関連付けられた半径を表し得る(例えば、上記に説明されるように)。
いくつかの実装では、円形断面は、少なくとも部分的に、上記に説明される固有ベクトル分解に基づくベクトルに従って定義されてもよい。ベクトルは、円形断面のそれぞれの中心を通して延在する、ベクトルを表し得る。例えば、ベクトルcおよびcが、対応する法線ベクトルnおよびnとともに決定されてもよい。
Figure 2021511723
ディスプレイシステムは、円形断面のうちの1つを選択する。例えば、ディスプレイシステムは、眼の視線に対応する、ベクトルペア[c,n]または[c,n]のうちの1つを選択してもよい。本実施例では、ディスプレイシステムは、ユーザが仮想ディスプレイ(例えば、仮想コンテンツ)を見ていることに対応する、関連付けられた円形断面を決定してもよい。実施例として、ディスプレイシステムは、対応する法線ベクトルを利用して、仮想コンテンツにおける法線ベクトル点を識別してもよい。したがって、曖昧性解消が、ディスプレイシステムを使用して実施され得る。いくつかの実施形態では、2次元CoR(例えば、下記に説明されるように)を利用すること等の他のスキームが、ベクトルペアの中から選択するために利用されてもよい。しかしながら、他の方法も、投影楕円、円錐、円錐を通る円形断面、円形断面に関する法線ベクトルのうちの任意の1つ以上のものを決定する、または断面および/または関連付けられた法線ベクトルを選択するために使用されてもよい。上記に議論される数学的方法の変形例が、使用されてもよい、またはそのような数学的方法は、使用される必要がない。種々の他の方法が、採用されてもよい。
ブロック2008に下記に関して説明されるであろうように、ディスプレイシステムは、選択されたベクトルペアを利用して、眼のCoRを決定してもよい。例えば、ディスプレイシステムは、1つ以上の連続画像から選択される他のベクトルペアと組み合わせて、選択されたベクトルペアを利用して、CoRを決定してもよい。
ブロック2008では、ディスプレイシステムは、眼のCoRを決定する。上記のブロック2002−2006に説明されるように、ディスプレイシステムは、ユーザの眼の画像内に表されるようなユーザの角膜輪部に基づいて、法線ベクトルを決定してもよい。例えば、法線ベクトルは、ユーザの眼の光学軸を表し得る。ブロック2006に説明されるように、ディスプレイシステムは、例えば、ベクトルペア[c,n]等のベクトルペアを決定してもよい。眼のCoRを決定するために、ディスプレイシステムは、個別のユーザの眼の画像から決定された2つ以上の法線ベクトルを利用してもよい。例えば、2つ以上の画像は、(例えば、ある周期性に従って取得される)ユーザの眼の連続画像であってもよい。別の実施例として、2つ以上の画像は、閾値時間を空けて撮影される画像を表し得る。図20の実施例では、ディスプレイシステムは、随意に、閾値数の画像の受信に応じて、ブロック2008を実施してもよい。例えば、ブロック2002−2006に説明される画像は、閾値数の画像の最後の画像を表してもよい。他のアプローチも、可能性として考えられる。有利には、ディスプレイシステムは、下記に説明されるであろうように、周期的に、決定されたCoRを精緻化および更新してもよい。
上記の議論と同様に、画像毎に、ディスプレイシステムは、選択された円形断面の中心の場所を提供する、ベクトルを決定してもよい。ディスプレイシステムはまた、選択された円形断面に対して法線方向の法線ベクトルを決定してもよい。法線ベクトルは、実施例として、眼の光学軸を表し得る。例えば、法線ベクトルは、画像内に表される眼姿勢に従って、眼の変動する光学軸を識別してもよい。
CoRを決定するために、ディスプレイシステムは、法線ベクトルが、交差、収束、または近接近する、例えば、ベクトルの大部分が、交差、収束、または近接近する、または平均して、ベクトルが、交差、収束、または近接近する、場所(例えば、3次元場所)を識別してもよい。例えば、二乗平均平方根プロセスが、採用されてもよい。したがって、図7Aに説明されるように、識別された場所は、光学軸が交差する場所を表し得る。本交点は、眼のCoRとして割り当てられてもよい。いくつかの実装では、角膜輪部円形の中心からCoRまでの距離が、決定され、将来的使用のために記憶されてもよい。これらの実装のうちの少なくともいくつかでは、システムは、そのような距離を特定のユーザと関連付けて記憶し、後に、その特定のユーザに関するCoRを決定するために、記憶された距離に依拠してもよい(例えば、角膜輪部の中心から離れた記憶された距離である、法線ベクトルに沿った位置を識別することによって)。同様に、いくつかの実施形態では、CoRは、角膜輪部の中心から離れた仮定された距離である、法線ベクトルに沿った位置を識別することによって決定されてもよい。これらの実施形態では、そのような仮定された距離は、母集団平均または他の所定の値に対応してもよい。
ユーザの眼の新しい画像が、受信されるにつれて、ディスプレイシステムは、CoRを精緻化してもよい。例えば、ディスプレイシステムは、個別の画像(例えば、閾値数の画像の個別のグループ)に基づいて、1つ以上の新しいCoRを決定してもよい。ディスプレイシステムは、次いで、新しいCoRに基づいて、CoRを精緻化してもよい。実施例として、ディスプレイシステムは、CoRの二乗平均平方根を算出してもよい。随意に、ディスプレイシステムは、全ての取得された画像または閾値数を利用して、CoRを継続的に更新してもよい。例えば、ディスプレイシステムは、最初に、2つ以上の画像を利用して、CoRを決定してもよい。新しい画像が、受信されるにつれて、ディスプレイシステムは、受信された画像の全てまたは閾値数を用いて、プロセス2000を実施してもよい。画像の数の増加、したがって、決定された法線ベクトルの数の増加に伴って、CoRの正確度は、増加され得る。他のアプローチも、可能性として考えられる。
図21Aは、ユーザの眼の第1の視線に基づいて決定された、第1の投影楕円2100を図示する。上記に説明されるように、ユーザの眼の画像が、取得されてもよい。画像に基づいて、眼の角膜輪部の境界が、決定されてもよい。図示されるように、第1の投影楕円2100は、角膜輪部の境界に基づいて、像面2112内で決定されている。図示される実施例では、境界に沿った点が、識別される。円錐2104を形成する光線は、カメラ点2102から境界に沿った点を通して延在するように図示される。円形断面2106は、例えば、図20に説明されるように決定されており、円形断面2106の中心2108が、図21Aにおいて識別されている。
図19−20に説明されるように、円錐2104からの2つの円形が、所与の半径に関して決定され得る。図21A−21Dの実施例では、円形のうちの1つが、選択されてもよい。例えば、上記に説明されるように、円形のうちの1つは、ユーザによって視認されている仮想ディスプレイ(例えば、仮想コンテンツ)に向いている視線に対応し得る。円形の中心2108から延在するのは、ベクトル2110である。ベクトルは、したがって、図20に関して上記に説明される法線ベクトルnまたはnのうちの1つを表し得る。
図21Bは、ユーザの眼の第2の視線に基づいて決定された、第2の投影楕円2114を図示する。本実施例では、図21Aに説明される画像に続く画像が、取得される。上記と同様に、第2の投影楕円2114が、像面2112内で識別される。加えて、ベクトル2116が、決定されている。
図21Cは、ユーザの眼の第3の視線に基づいて決定された、第3の投影楕円2118を図示する。本実施例では、図21A−21Bに説明される画像に続く画像が、取得される。上記と同様に、第3の投影楕円2118が、像面2112内で識別される。加えて、ベクトル2120が、決定されている。
図21Dは、決定されたベクトル2110、2116、2120に基づいて、回転中心(CoR)を推定するステップを図示する。ディスプレイシステムは、決定されたベクトルを利用して、ベクトルが交差する、点を識別する。例えば、ディスプレイシステムは、ベクトルが点2122において交差することを決定している。交点2122を決定するために、ディスプレイシステムは、随意に、既知の物理的情報を利用してもよい。例えば、カメラ点2102とユーザの眼との間の距離が、採用されてもよい。代替として、または加えて、法線が近接近または収束するように現れる、例えば、ベクトルの大部分が、交差、収束、または近接近する、または平均して、ベクトルが、交差、収束、または近接近する、交点または場所が、決定されてもよい。ディスプレイシステムは、次いで、法線が近接近または収束するように現れる、交点2122、または、例えば、ベクトルの大部分が、交差、収束、または近接近する、または平均して、ベクトルが、交差、収束、または近接近する、交点または場所を、眼のCoRとして割り当て得る。
図19−21Dに関して上記に説明されるように、ユーザの眼の画像が、眼のCoRの推定値を決定するために利用されてもよい。付加的変形例および技法が、採用され、本開示の範囲内であり得る。実施例として、ディスプレイシステムは、眼の回転および/または移動の間、ユーザの眼の画像に基づいて、眼のCoRを決定してもよい。眼の眼の幾何学的側面における変動量の分析を通して、ディスプレイシステムは、CoRを識別してもよい。例えば、ディスプレイシステムは、画像内で表されるような眼の光学軸を識別してもよい。ディスプレイシステムは、光学軸を利用して、CoRを決定してもよい。したがって、ユーザの眼の幾何学的側面を利用して、眼のCoRの推定値を決定する、付加的技法および変形例が、採用されてもよい。
実施例として、ディスプレイシステムは、ユーザの眼の画像と関連付けられた位置のアレイを決定してもよい。位置のアレイは、画像上の空間場所に対応してもよい。例示的空間場所は、ユーザの眼の一部(例えば、角膜輪部、瞳孔、虹彩等)と関連付けられてもよい。したがって、いくつかの実装では、位置のアレイは、一部の極限値に適合されてもよい。一部の極限値は、ユーザの眼の一部に関して決定される、曲線(例えば、上記に説明される投影楕円)と関連付けられてもよい。いくつかの実装では、ディスプレイシステムは、同一点から位置のアレイを通して延在する、線形経路を識別してもよい。上記に説明されるように、線形経路(例えば、光線)は、カメラ点から延在してもよい。線形経路は、円錐を形成し得、円錐の特定の円形断面が、選択されてもよい。例えば、特定の断面は、ある半径(例えば、平均角膜輪部またはユーザの角膜輪部の半径、平均瞳孔またはユーザの瞳孔の半径等)を有し得る。特定の断面に対して法線方向のベクトルが、識別されてもよい。ディスプレイシステムは、法線ベクトルの複数のものの交点を決定し、次いで、交点をCoRとして割り当ててもよい。いくつかの実装では、2つ以上の光学軸および/または他のベクトル間の交点の3D点を決定するための技法のうちの1つ以上のものが、図7Aを参照して上記に説明されるように、図19−21Dを参照して本明細書に説明される法線ベクトル間の交点の3D点を決定するために活用されてもよい。同様に、いくつかの実施形態では、複数の推定されるCoR位置または他の3D位置を平均する、および/またはフィルタ(例えば、カルマンタイプフィルタ)を適用するための技法のうちの1つ以上のものが、図7Aを参照して上記に説明されるように、図19−21Dを参照して本明細書に説明されるCoR推定値を決定および/または精緻化するために活用されてもよい。変形例および他の方法も、採用されてもよい。
付加的例示的技法を利用して回転中心(CoR)を精緻化する
図20−21に説明されるように、ディスプレイシステムは、眼のCoRを、複数のベクトルが交差、収束、または近接近する、場所(例えば、3次元場所)(例えば、ベクトル2110、2116、2120)として決定してもよい。代替として、または加えて、ディスプレイシステムは、1つ以上の他の技法に従って、決定されたCoRを精緻化してもよい。例えば、図19−20に説明されるように、ベクトルcおよびc(例えば、ベクトル1916、1918)が、投影楕円(例えば、楕円1902)を通して延在する光線を介して形成される、円錐(例えば、円錐1912)から決定されてもよい。これらのベクトルは、投影平面を形成し得る。複数の画像を利用することに関して上記と同様に、ディスプレイシステムは、2つ以上の画像に関して投影平面を決定してもよい。
決定されたCoRを精緻化するために、ディスプレイシステムは、決定された投影平面を利用してもよい。例えば、いくつかの実装では、ディスプレイシステムは、(例えば、3次元空間内の)投影平面の交点を決定してもよい。投影平面の交点は、実施例として、線をもたらし得る。加えて、本線は、カメラ点(例えば、点1910)を通して通過し得、そこから、投影平面と関連付けられた円錐が、延在する。CoRを精緻化するために、ディスプレイシステムは、本結果として生じる線が交差する、像面(例えば、像面1904)内の点を識別してもよい。ディスプレイシステムは、次いで、本点を像面上の2次元CoRとして割り当て得る。図19に説明されるように、ディスプレイシステムは、(例えば、3次元空間内の)結果として生じる線に沿って2次元CoRを調節してもよい。例えば、精緻化されたCoRは、法線ベクトル(例えば、ベクトル2110、2116、2120)の交点に近いまたは最も近い結果として生じる線に沿った場所として割り当てられてもよい。
随意に、ディスプレイシステムは、以下の技法に従って、眼のCoRを精緻化してもよい。ユーザの眼の異なる画像(例えば、連続画像)が、取得されてもよい。画像毎に、ディスプレイシステムは、ベクトルcおよびcと像面(例えば、像面1904)の交点を決定してもよい。ディスプレイシステムは、次いで、(1)ベクトルcと像面の交点と(2)ベクトルcと像面の交点との間の線を接続してもよい。したがって、線は、ベクトルcおよびcによって定義されるような投影平面と像面の交点を表し得る。画像は、したがって、個別の線と関連付けられ得、ディスプレイシステムは、線との像面内の点の近接度に基づいて、2次元CoRを決定してもよい。例えば、ディスプレイシステムは、二乗平均平方根(RMS)プロセス(例えば、ランダムサンプル共有項に基づいて)を実施し、2次元CoRを決定してもよい。上記と同様に、ディスプレイシステムは、2次元CoRおよびカメラ点を接続する線に沿って2次元CoRを調節することによってCoRを精緻化してもよい(例えば、図20−21に説明されるように)。
上記の実施例に関して、ディスプレイシステムは、随意に、画像毎に、ベクトルcおよびcのうちの1つを選択してもよい。例えば、ディスプレイシステムは、眼の視線に基づいて、ベクトルcおよびcのうちの1つを選択してもよい。別の実施例として、ディスプレイは、像面との個別のベクトル交点に基づいて、ベクトルcおよびcのうちの1つを選択してもよい。本実施例では、2次元CoRのものにより近い、像面と交差するベクトル(例えば、上記に説明されるように)が、選択されてもよい。ディスプレイシステムは、次いで、各選択されたベクトルが像面と交差する、点を決定してもよい。上記と同様に、ディスプレイシステムは、次いで、決定された交点との像面内の点の近接度に基づいて、2次元CoRを決定してもよい。例えば、RMSプロセスが、利用されてもよい。
瞳孔投影に基づいて回転中心(CoR)を決定する
眼の角膜輪部を利用することに関連する図19−21Dにおける上記の説明と同様に、瞳孔が、代替として、または加えて、眼のCoRを決定するために利用されてもよい。例えば、投影楕円が、ユーザの眼の画像内に含まれる瞳孔に関して決定されてもよい。瞳孔は、ユーザの角膜の表面の背後に位置するため、光は、表面において屈折され得る。しかしながら、そのような屈折の主要な効果は、屈折されていない瞳孔に対する瞳孔から延在する法線ベクトルの回転であり得る。角膜の屈折効果は、本明細書に議論されるように、瞳孔の屈折ベースの場所を決定するために考慮され得る。非限定的実施例として、瞳孔中心の屈折ベースの場所はまた、上記に説明される技法に従って決定されると、投影平面と一致し得る。ディスプレイシステムは、本明細書に説明されるように、ユーザの瞳孔の画像を利用して、屈折平面を決定してもよい。したがって、ディスプレイシステムは、本明細書に説明されるように、ユーザの瞳孔の画像を利用して、投影平面を決定してもよい。例えば、CoR光線(または「眼球中心光線」)が、角膜輪部に関して上記に説明されたように、瞳孔に関して同一方法で見出され得る。瞳孔に関する屈折効果を含むことは、実施例として、CoR光線計算を変化させ得ない。次いで、固定された(例えば、平均)瞳孔半径を使用して、ディスプレイシステムは、円形断面およびその対応する法線(例えば、上記に説明されるように)を見出し得る。
ディスプレイシステムは、次いで、角膜輪部に基づいてCoRを決定するための上記に説明される方法と同様に、瞳孔に基づいて眼のCoRを決定してもよい。例えば、楕円が、瞳孔画像に適合されてもよい。光線の円錐が、楕円を通して投影されてもよい。円形断面が、円錐に適合されてもよい。複数の画像を使用して取得された複数の断面を通る法線が、使用および考慮されてもよく、それらの法線の交点または収束が、識別されてもよい。CoRの推定値が、そこから取得されてもよい。投影平面の使用等、本明細書に説明される他の方法を含む、他の方法も、CoRの推定値を決定するために採用されてもよい。
視点中心(CoP)分析/導出
ピンホールカメラモデルでは、視点中心(CoP)は、ピンホールカメラの開口と見なされ得る。本CoPの例示的性質は、オブジェクト角度空間の原点でもあり得るということである。したがって、本原点を参照した実施例として、ピンホールから同一角度にある、オブジェクトは、同一ピクセルにマッピング(例えば、重複)されるであろう。別の実施例として、場面が、CoPを中心として厳密に回転される場合、投影された画像は、平行移動し、場面内のオブジェクトは、視差偏移を被らないであろう。
本明細書に説明されるシステムおよび技術を開発する際、2つの仮説が、展開および試験された。第1の仮説は、主平面の中心がCoPであることであって、第2の仮説は、開口の中心がCoPであることであった。主平面は、実施例として、入射光線が屈折に起因して屈曲すると見なされ得る平面を表し得る。説明されるであろうように、開口の中心がCoPであることが決定され得る。例えば、図22、23Aー23B、および24A−24Bは、下記のその対応する説明とともに、これらの2つの仮説の試験と関連付けられた分析に関して有益であり得る。
図22は、2つの点光源2201および2202と、開口2204と、レンズ2206と、投影画面2208とを含む、光学システム2200を図示する。本実施例では、光学システム2200の開口2204、レンズ2206、および投影画面2208は、ヒトの眼の解剖学的特徴を表す、またはそれに少なくとも機能的に類似し得る。例えば、光学システム2200の開口2204、レンズ2206、および投影画面2208は、それぞれ、瞳孔、水晶体、および網膜に対応し得る。
図22では、第1の点光源2201によって放出される光線が、第1の点光源2201から投影画面2208に向かって延在する実線として表される一方、第2の点光源2202によって放出される光線は、第2の点光源2202から投影画面2208に向かって延在する点線として表される。2つの点光源2201および2202のそれぞれから放出される光の一部は、開口2204およびレンズ2206を通して伝搬し、最終的に、投影画面2208に衝打し、入射光線パターン2210を形成し得る。
図23Aは、2つの点光源2301および2302と、開口2304と、レンズ2306と、投影画面2308とを含む、第1の段階(例えば、段階「A」)における光学システム2300を図示する。光学システム2300は、例えば、図22を参照して上記でさらに詳細に説明されるような光学システム2200と、構築および機能上、同じまたは類似し得る。より具体的には、光学システム2300は、前述の第1の仮説が試験され得るように、主平面の中心がCoPとして定義される、図22を参照して上記でさらに詳細に説明されるような光学システム2200の特定の実装を表し得る。レンズ2306は、光学システム2300内の主平面を定義する役割を果たし得るため、本実施例におけるCoPは、レンズ中心2307に対応し得るということになる。
2つの前述の実装に関する光学システム2300の評価は、前述の第1の仮説が真または偽であるかどうかに関して有益であり得る。すなわち、前述の第1の仮説が真であるために、投影画面2308上に投影される画像(例えば、入射光線パターン)は、2つの点光源2301および2302が、レンズ中心2307を中心として厳密に回転される(例えば、それぞれ、曲率半径2311および2312に沿って回転される)とき、任意の視差偏移を受けず、単に、平行移動を被るべきである。再び図22を参照すると、これは、2つの点光源2301および2302が、それぞれ、曲率半径2311および2312に沿った任意の点の対に対して厳密に回転されるとき、投影画面2308上に投影される画像が、入射光線パターン2210の平行移動されたバージョンのように見える(例えば、画像が、投影画面2308上の若干異なる場所に形成される)べきであることを意味する。
図23Bは、2つの点光源2301および2302が、それぞれ、曲率半径2311および2312に沿ったレンズ中心2307を中心として厳密に回転され、厳密に回転された点光源2301’および2302’となっている、第2の段階(例えば、段階「B」)における光学システム2300を図示する。2つの厳密に回転された点光源2301’および2302’のそれぞれから放出される光の一部は、開口2304およびレンズ2306を通して伝搬し、最終的に、投影画面2308に衝打し、入射光線パターン2310を形成することが分かる。
しかしながら、入射光線パターン2310の検討に応じて、また、第1の厳密に回転された点光源2301’から生じる入射光線パターン2310の光線と、第2の厳密に回転された点光源2302’から生じる入射光線パターン2310の光線との間の(例えば、投影画面2310上の)相対的位置は、偏移していることが分かる。再び図22を参照すると、さらに、図23Bにもたらされた入射光線パターン2310は、入射光線パターン2210の平行移動されたバージョンに類似して現れないことに留意され得る。言い換えると、レンズ中心2307を中心とする2つの点光源2301および2302の厳密な回転が、視差偏移をもたらしたことになる。本理由から、レンズ中心2307は、CoPのための非好適場所と見なされ得る。したがって、図22、23A、および23Bおよびその付随する分析は、前述の第1の仮説が偽であることを事実上実証していることになり得る。
図24Aは、2つの点光源2401および2402と、開口2404と、レンズ2406と、投影画面2408とを含む、第1の段階(例えば、段階「A」)における光学システム2400を図示する。光学システム2400は、例えば、図23Aおよび23Bを参照して上記に説明されるものとほぼ同じように、図22を参照して上記でさらに詳細に説明されるような光学システム2200と、構築および機能上、同じまたは類似し得る。より具体的には、光学システム2400は、前述の第2の仮説が試験され得るように、開口中心2407がCoPとして定義される、図22を参照して上記でさらに詳細に説明されるような光学システム2200の特定の実装を表し得る。
図23Aおよび23Bを参照して上記に説明されるような光学システム2300の評価と同様に、光学システム2400の評価は、前述の第2の仮説が真または偽であるかどうかに関して有益であり得る。すなわち、前述の第2の仮説が真であるために、投影画面2408上に投影される画像(例えば、入射光線パターン)は、2つの点光源2401および2402が開口中心2407を中心として厳密に回転される(例えば、それぞれ、曲率半径2411および2412に沿って回転される)とき、任意の視差偏移を受けず、単に、平行移動を被るべきである。
図24Bは、2つの点光源2401および2402が、それぞれ、曲率半径2411および2412に沿った開口中心2407を中心として厳密に回転され、厳密に回転された点光源2401’および2402’となっている、第2の段階(例えば、段階「B」)における光学システム2400を図示する。2つの厳密に回転された点光源2401’および2402’からの光の一部は、投影画面2408に衝打し、図22を参照して上記に説明されるような入射光線パターン2210の平行移動されたバージョンに類似して現れる、入射光線パターン2410を形成することを理解されたい。すなわち、投影画面2408に対する入射光線パターン2410の位置は、投影画面2208に対する入射光線パターン2210のものと異なり得るが、第1の厳密に回転された点光源2401’から生じる入射光線パターン2410の光線と、第2の厳密に回転された点光源2402’から生じる入射光線パターン2410の光線との間の(例えば、投影画面2310上の)相対的位置は、偏移して現れていない。したがって、開口中心2407を中心とした2つの点光源2401および2402の厳密な回転は、視差偏移をもたらすように現れない。2つの前述の含意が、本実施例では、合致されていると考えられることを前提として、開口中心2407は、CoPのための好適場所と見なされ得る。したがって、図22、24A、および24Bおよびその付随する分析は、前述の第2の仮説が真であることを事実上実証していることになり得る。
したがって、いくつかの実施形態では、レンダリング世界内のCoP(例えば、レンダリングカメラのピンホールの場所)と、開口中心2407の解剖学的均等物である、(実世界内の)ユーザの眼の一部を整合させることが望ましくあり得る。ヒトの眼はさらに、角膜(付加的屈折力を網膜に向かって伝搬する光に付与する)をさらに含むため、開口中心2407の解剖学的均等物は、ユーザの眼の瞳孔または虹彩の中心に対応し得ないが、代わりに、ユーザの眼の角膜の外側表面とユーザの眼の瞳孔または虹彩の中心との間に位置付けられる、ユーザの眼の領域に対応し得る。例えば、開口中心2407の解剖学的均等物は、ユーザの眼の前房内の領域に対応し得る。
眼追跡が利用不可能であるときの実施例
いくつかの実施形態では、眼追跡は、提供されない場合がある、または一時的に利用不可能である場合がある。実施例として、眼追跡カメラ324または光源326が、曇る、損傷される、またはユーザによって無効にされる、環境の照明条件が、眼追跡を著しく困難にし得る、ウェアラブルシステムが、眼追跡を妨害するように不適切にフィットされ得る、ユーザが、睇視している、または容易に追跡されない眼の状態を有し得ること等が、挙げられる。そのようなとき、ウェアラブルシステムは、眼追跡データの不在下、レンダリングカメラを位置付け、深度平面を選択するための種々の方略に依拠するように構成されてもよい。
レンダリングカメラに関して、ウェアラブルシステムは、ユーザの瞳孔が、数秒または典型的瞬眼より長い時間等、所定の閾値より長い時間にわたって検出されない場合、レンダリングカメラをデフォルト位置に位置付けてもよい。ウェアラブルシステムは、過減衰発振器モデルに追従し得る平滑な移動において、レンダリングカメラをデフォルト位置に移動させてもよい。デフォルト位置は、特定のユーザに対するウェアラブルシステムの較正プロセスの一部として決定されてもよい。デフォルト位置は、ユーザの左および右眼の回転中心であってもよい。これらは、単なる例証的実施例である。
深度平面に関して、ウェアラブルシステムは、前述で議論されたようなユーザの輻輳・開散運動深度とは対照的に、仮想コンテンツの深度に基づいて、遠近調節キューを提供してもよい。いくつかの実施形態では、ウェアラブルシステムは、ユーザが見ている可能性が高い場所を推定する情報を受け取ってもよく、取得してもよく、または決定してもよく、合致する遠近調節キューを提供してもよい。実施例として、ウェアラブルシステムは、ビデオクリップ等、ユーザが合焦している可能性が高いコンテンツを表示している場合があり、ユーザがコンテンツを見ていると仮定してもよく、コンテンツを深度平面(または混成深度平面)上に提供し、そのコンテンツの深度に合致する、遠近調節キューを提供してもよい。
周囲環境内のオブジェクトを検出するためのコンピュータビジョン
上記に議論されるように、ディスプレイシステムは、ユーザを囲繞する環境内のオブジェクトまたはその性質を検出するように構成されてもよい。検出は、本明細書に議論されるように、種々の環境センサ(例えば、カメラ、オーディオセンサ、温度センサ等)を含む、種々の技法を使用して遂行されてもよい。
いくつかの実施形態では、環境内に存在するオブジェクトは、コンピュータビジョン技法を使用して、検出されてもよい。例えば、本明細書に開示されるように、ディスプレイシステムの前向きに面したカメラは、周囲環境を結像するように構成されてもよく、ディスプレイシステムは、画像分析を画像上で実施し、周囲環境内のオブジェクトの存在を決定するように構成されてもよい。ディスプレイシステムは、外向きに面した結像システムによって入手された画像を分析し、場面再構成、イベント検出、ビデオ追跡、オブジェクト認識、オブジェクト姿勢推定、学習、インデックス化、運動推定、または画像復元等を実施してもよい。他の実施例として、ディスプレイシステムは、顔および/または眼認識を実施し、ユーザの視野内の顔および/またはヒトの眼の存在および場所を決定するように構成されてもよい。1つ以上のコンピュータビジョンアルゴリズムが、これらのタスクを実施するために使用されてもよい。コンピュータビジョンアルゴリズムの非限定的実施例は、スケール不変特徴変換(SIFT)、スピードアップロバスト特徴(SURF)、配向FASTおよび回転BRIEF(ORB)、バイナリロバスト不変スケーラブルキーポイント(BRISK)、高速網膜キーポイント(FREAK)、Viola−Jonesアルゴリズム、Eigenfacesアプローチ、Lucas−Kanadeアルゴリズム、Horn−Schunkアルゴリズム、Mean−shiftアルゴリズム、視覚的同時位置推定およびマッピング(vSLAM)技法、シーケンシャルベイズ推定器(例えば、カルマンフィルタ、拡張カルマンフィルタ等)、バンドル調節、適応閾値化(および他の閾値化技法)、反復最近傍点(ICP)、セミグローバルマッチング(SGM)、セミグローバルブロックマッチング(SGBM)、特徴点ヒストグラム、種々の機械学習アルゴリズム(例えば、サポートベクトルマシン、k最近傍アルゴリズム、単純ベイズ、ニューラルネットワーク(畳み込みまたは深層ニューラルネットワークを含む)、または他の教師あり/教師なしモデル等)等を含む。
これらのコンピュータビジョン技法のうちの1つ以上のものはまた、他の環境センサ(例えば、マイクロホン等)から入手されたデータと併用され、センサによって検出されたオブジェクトの種々の性質を検出および決定してもよい。
本明細書に議論されるように、周囲環境内のオブジェクトは、1つ以上の基準に基づいて、検出されてもよい。ディスプレイシステムが、コンピュータビジョンアルゴリズムを使用して、または1つ以上のセンサアセンブリ(ディスプレイシステムの一部である場合とそうではない場合がある)から受信されたデータを使用して、周囲環境内の基準の存在または不在を検出するとき、ディスプレイシステムは、次いで、オブジェクトの存在を信号伝達してもよい。
機械学習
種々の機械学習アルゴリズムは、周囲環境内のオブジェクトの存在を識別するように学習するために使用されてもよい。いったん訓練されると、機械学習アルゴリズムは、ディスプレイシステムによって記憶されてもよい。機械学習アルゴリズムのいくつかの実施例は、教師ありまたは教師なし機械学習アルゴリズムを含み得、回帰アルゴリズム(例えば、通常の最小2乗回帰等)、インスタンスベースのアルゴリズム(例えば、学習ベクトル量子化等)、決定ツリーアルゴリズム(例えば、分類および回帰ツリー等)、ベイズアルゴリズム(例えば、単純ベイズ等)、クラスタリングアルゴリズム(例えば、k−平均クラスタリング等)、関連付けルール学習アルゴリズム(例えば、アプリオリアルゴリズム等)、人工ニューラルネットワークアルゴリズム(例えば、Perceptron等)、深層学習アルゴリズム(例えば、Deep Boltzmann Machine、すなわち、深層ニューラルネットワーク等)、次元削減アルゴリズム(例えば、主成分分析等)、アンサンブルアルゴリズム(例えば、Stacked Gneralization等)、または他の機械学習アルゴリズムを含む。いくつかの実施形態では、個々のモデルは、個々のデータセットのためにカスタマイズされてもよい。例えば、ウェアラブルデバイスは、ベースモデルを生成または記憶してもよい。ベースモデルは、開始点として使用され、データタイプ(例えば、特定のユーザ)、データセット(例えば、取得される付加的画像のセット)、条件付き状況、または他の変形例に特有の付加的モデルを生成してもよい。いくつかの実施形態では、ディスプレイシステムは、複数の技法を利用して、集約されたデータの分析のためのモデルを生成するように構成されることができる。他の技法は、事前に定義された閾値またはデータ値を使用することを含んでもよい。
オブジェクトを検出するための基準は、1つ以上の閾値条件を含んでもよい。環境センサによって入手されたデータの分析が、閾値条件に達したことを示す場合、ディスプレイシステムは、周囲環境内のオブジェクトの存在の検出を示す信号を提供してもよい。閾値条件は、定量的および/または定質的測定値を伴ってもよい。例えば、閾値条件は、反射および/またはオブジェクトが環境内に存在する尤度と関連付けられたスコアまたはパーセンテージを含んでもよい。ディスプレイシステムは、環境センサのデータから計算されるスコアと閾値スコアを比較してもよい。スコアが、閾値レベルより高い場合、ディスプレイシステムは、反射および/またはオブジェクトの存在を検出し得る。いくつかの他の実施形態では、ディスプレイシステムは、スコアが閾値より低い場合、環境内のオブジェクトの存在を信号伝達してもよい。いくつかの実施形態では、閾値条件は、ユーザの感情状態および/またはユーザの周囲環境との相互作用に基づいて決定されてもよい。
いくつかの実施形態では、閾値条件、機械学習アルゴリズム、またはコンピュータビジョンアルゴリズムは、具体的コンテキストのために特殊化されてもよい。例えば、診断コンテキストでは、コンピュータビジョンアルゴリズムは、刺激に対するある応答を検出するために特殊化されてもよい。別の実施例として、ディスプレイシステムは、本明細書に議論されるように、顔認識アルゴリズムおよび/またはイベントトレーシングアルゴリズムを実行し、刺激に対するユーザの反応を感知してもよい。
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得ることを理解されたい。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つ以上の物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。いくつかの実施形態では、非一過性コンピュータ可読媒体は、ローカル処理およびデータモジュール(140)、遠隔処理モジュール(150)、遠隔データリポジトリ(160)のうちの1つ以上のものの一部であってもよい。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つ以上の実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されてもよい。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
他の考慮点
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つ以上の物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、動画またはビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つ以上の実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されることができる。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線または無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要または必須ではない。
とりわけ、「〜できる(can)」、「〜し得る(could)」、「〜し得る(might)」、「〜し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つ以上の実施形態に対していかようにも要求されること、または1つ以上の実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「〜を備える」、「〜を含む」、「〜を有する」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つ以上の」または「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「〜のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図されない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つ以上の付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成し得る。
光をユーザの片眼または両眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示する、下記に列挙される実施例等のディスプレイシステムの種々の実施例が、本明細書に説明される。
実施例1:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、ユーザの頭部上に支持されるように構成される、フレームと、フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、該光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の回転中心の推定値を取得するように構成される、処理電子機器とを備える、ディスプレイシステム。
実施例2:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該1つ以上の眼追跡カメラは、該1つ以上の光源からの光を使用して、該眼の画像を形成する、実施例1に記載のディスプレイシステム。
実施例3:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、実施例1または2に記載のディスプレイシステム。
実施例4:該1つ以上の光源は、赤外線光エミッタを備える、実施例1または3に記載のディスプレイシステム。
実施例5:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の場所を決定するように構成される、実施例1−4のいずれかに記載のディスプレイシステム。
実施例6:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該角膜球体の曲率中心の場所を決定するように構成される、実施例1−5のいずれかに記載のディスプレイシステム。
実施例7:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜球体の曲率中心の場所を決定するように構成される、実施例5に記載のディスプレイシステム。
実施例8:該1つ以上の眼追跡カメラは、該眼の瞳孔を結像するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例9:該処理電子機器は、該瞳孔の中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例10:該処理電子機器は、該虹彩と該瞳孔との間の境界の少なくとも一部を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例11:該処理電子機器は、該虹彩と該瞳孔との間の境界の中心を決定するように構成される、実施例10に記載のディスプレイシステム。
実施例12:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例13:該処理電子機器は、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例14:該処理電子機器は、3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、実施例12に記載のディスプレイシステム。
実施例15:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例16:該処理電子機器は、該角膜の曲率中心に基づいて、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例17:該処理電子機器は、該角膜の曲率中心および該光学軸の場所および配向に基づいて、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例18:該処理電子機器は、該角膜の曲率中心から該光学軸に沿った特定の距離を平行移動させることによって、該眼の回転中心の場所を決定するように構成される、実施例17に記載のディスプレイシステム。
実施例19:該曲率中心から該回転中心までの特定の距離は、4.0mm〜6.0mmである、実施例18に記載のディスプレイシステム。
実施例20:該曲率中心から該回転中心までの特定の距離は、約4.7mmである、実施例18または19に記載のディスプレイシステム。
実施例21:該特定の距離は、固定される、実施例18または19に記載のディスプレイシステム。
実施例22:該処理電子機器は、少なくとも、該1つ以上の眼追跡カメラを用いて以前に取得された該眼の1つ以上の画像に基づいて、特定の距離を決定するように構成される、実施例18または19に記載のディスプレイシステム。
実施例23:該処理電子機器は、該光学軸の場所および配向に基づいて、該光学軸からオフセットされた該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例24:該処理電子機器は、該光学軸に対する角回転に基づいて、該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例25:該処理電子機器は、該光学軸に対する4.0°〜6.5°の角回転に基づいて、該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例26:該処理電子機器は、該光学軸に対する約5.2°の角回転に基づいて、該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例27:該処理電子機器は、該1つ以上の眼追跡カメラを用いて以前に取得された該眼の少なくとも1つ以上の画像に基づいて、該視軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例28:該処理電子機器は、該眼が回転している期間にわたって、該光学軸または視軸の場所の複数の決定に基づいて、該眼の回転中心を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例29:該処理電子機器は、該眼が回転している期間にわたって、該光学軸または視軸の場所の複数の決定の交差の領域を識別することによって、該回転中心を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例30:該処理電子機器は、該ユーザの左および右眼に関する該光学軸の場所および配向の決定に基づいて、ユーザの左および右眼が注視している、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例31:該処理電子機器は、該ユーザの左および右眼に関する該視軸の場所および配向の決定に基づいて、ユーザの左および右眼が注視している、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例32:該処理電子機器は、該ユーザの左および右眼に関する該視軸の交差の領域を識別することに基づいて、ユーザの左および右眼が注視している、輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例33:該処理電子機器は、該左および右眼に関する視軸を水平平面上に投影し、該左および右眼に関する視軸の水平平面上への該投影の交差の領域を識別することによって、ユーザの左および右眼が注視している、輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例34:該処理電子機器は、該輻輳・開散運動距離の決定に基づいて、画像コンテンツを投影するための発散およびコリメーションのうちの少なくとも1つの相対的量を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例35:該処理電子機器は、該フレーム上の電子機器を含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例36:該処理電子機器は、該フレーム上の電子機器と、該フレームから遠隔の場所に配置される、電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例37:該処理電子機器は、該フレーム上の電子機器と、ベルトパック上の電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例38:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記実施例のいずれかに記載のディスプレイシステム。
実施例39:該頭部搭載型ディスプレイは、第1の発散量において、ユーザの正面の環境の一部からの光を受け取り、第1の発散量に実質的に類似する、第2の発散量を伴って、ユーザの眼の正面の環境の一部からの光をユーザの眼に透過させる、上記実施例のいずれかに記載のディスプレイシステム。
実施例40:処理電子機器は、複数の推定される回転中心位置をフィルタリングする、平均する、カルマンフィルタを適用する、またはそれらの任意の組み合わせによって、回転中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例41:該処理電子機器は、該ユーザの眼の回転中心の決定された位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例42:該処理電子機器は、レンダリングカメラを該回転中心において使用し、仮想画像を該眼に提示されるようにレンダリングするように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例43:該処理電子機器は、該眼の網膜より該回転中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、レンダリングカメラを使用するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例44:該処理電子機器は、該眼の回転中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、レンダリングカメラを使用するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例45:該処理電子機器は、レンダリングカメラを該回転中心において使用し、仮想画像を該眼に提示されるようにレンダリングするように構成され、該レンダリングカメラは、該眼の回転中心に開口を伴ってモデル化される、上記実施例のいずれかに記載のディスプレイシステム。
実施例46:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、ユーザの頭部上に支持されるように構成される、フレームと、フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、該光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、処理電子機器は、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の視点中心の位置推定値を取得するように構成され、該視点中心は、該眼の瞳孔の近位にあるかまたは該角膜と該眼の瞳孔との間にあると推定される、処理電子機器とを備え、該処理電子機器は、該視点中心に位置するレンダリングカメラによってレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、ディスプレイシステム。
実施例47:該処理電子機器は、網膜より該視点中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例48:該処理電子機器は、眼の回転中心より該視点中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例49:該処理電子機器は、該視点中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例50:該視点中心は、該眼の瞳孔に位置しない、上記実施例のいずれかに記載のディスプレイシステム。
実施例51:処理電子機器は、ユーザの眼姿勢の推定値を経時的に取得するように構成され、処理電子機器は、少なくとも部分的に、ユーザの眼姿勢に基づいて、レンダリングカメラの位置を調節する、上記実施例のいずれかに記載のディスプレイシステム。
実施例52:処理電子機器は、該ユーザの眼姿勢を経時的に追跡するように構成され、レンダリングカメラの位置は、該ユーザの眼姿勢の経時的変化に応答して、経時的に調節される、上記実施例のいずれかに記載のディスプレイシステム。
実施例53:処理電子機器は、複数の推定される視点中心位置をフィルタリングすることによって、視点中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例54:処理電子機器は、複数の推定される視点中心位置を平均し、および/またはカルマンフィルタを適用することによって、視点中心の推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例55:視点中心は、該ユーザの眼の前房内の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例56:視点中心は、該ユーザの眼の該瞳孔の正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例57:視点中心は、該ユーザの眼の該瞳孔の1.0mm〜2.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例58:視点中心は、該ユーザの眼の該瞳孔の約1.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例59:視点中心は、該ユーザの眼の該瞳孔の0.25mm〜1.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例60:視点中心は、該ユーザの眼の該瞳孔の0.5mm〜1.0mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例61:視点中心は、該ユーザの眼の該瞳孔の0.25mm〜0.5mm正面の位置を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例62:視点中心は、該眼の光学軸に沿ってあり、該処理電子機器はさらに、該眼の光学軸の位置推定値を取得することによって、視点中心の位置推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例63:視点中心は、該眼の光学軸に沿って、該眼の角膜の外側表面と瞳孔との間の位置にあって、該処理電子機器はさらに、該眼の光学軸の位置推定値を取得することによって、視点中心の位置推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例64:視点中心は、該眼の光学軸に沿って、該眼の角膜の外側表面と瞳孔との間の位置にあって、該処理電子機器はさらに、該眼の光学軸の位置推定値および該眼の回転中心の位置推定値、該眼の角膜、該眼の虹彩、該眼の網膜、および該眼の瞳孔、またはそれらの任意の組み合わせを取得することによって、視点中心の位置推定値を取得するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例65:該処理電子機器は、該フレーム上の電子機器を含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例66:該処理電子機器は、該フレーム上の電子機器と、該フレームから遠隔の場所に配置される、電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例67:該処理電子機器は、該フレーム上の電子機器と、ベルトパック上の電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例68:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記実施例のいずれかに記載のディスプレイシステム。
実施例69:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該1つ以上の眼追跡カメラは、該1つ以上の光源からの光を使用して、該眼の画像を捕捉する、上記実施例のいずれかに記載のディスプレイシステム。
実施例70:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例71:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも3つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例72:該1つ以上の光源は、赤外線光エミッタを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例73:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の曲率中心の位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例74:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の曲率中心の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例75:該1つ以上の眼−追跡カメラはさらに、該ユーザの眼の瞳孔を結像するように構成され、該処理電子機器はさらに、少なくとも、1つ以上の眼追跡カメラからの該瞳孔の画像に基づいて、該眼の瞳孔の位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例76:該1つ以上の眼−追跡カメラはさらに、該ユーザの眼の瞳孔を結像するように構成され、該処理電子機器はさらに、少なくとも、1つ以上の眼追跡カメラからの該瞳孔の画像に基づいて、該眼の瞳孔の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例77:該1つ以上の眼−追跡カメラはさらに、該ユーザの眼の瞳孔を結像するように構成され、該処理電子機器はさらに、該角膜の曲率中心の位置に基づいて、かつ1つ以上の眼追跡カメラからの該瞳孔の画像に基づいて、該眼の瞳孔の位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例78:該処理電子機器は、該角膜の曲率中心の3次元位置に基づいて、かつ該瞳孔の3次元位置に基づいて、該眼の光学軸を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例79:該処理電子機器は、光学軸に基づいて、該眼の視軸を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例80:該処理電子機器は、該角膜の曲率中心、該瞳孔、または両方のうちの少なくとも1つの光学軸および3次元位置に基づいて、該眼の視軸を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例81:該処理電子機器は、該角膜の曲率中心の3次元位置に基づいて、該眼の回転中心の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例82:該処理電子機器は、該角膜の曲率中心の3次元位置に基づいて、かつ該光学軸に基づいて、該眼の回転中心の3次元位置を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例83:該処理電子機器は、少なくとも、該眼の回転中心の3次元位置に基づいて、該ユーザの該眼と対眼との間の距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例84:該処理電子機器は、少なくとも、該眼の回転中心の3次元位置に基づいて、該ユーザの該眼と対眼との間の瞳孔間距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例85:該処理電子機器は、少なくとも、該眼の光学軸に基づいて、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例86:該処理電子機器は、少なくとも、該ユーザの該眼の光学軸および対眼の決定された光学軸に基づいて、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例87:該処理電子機器は、少なくとも、該ユーザの該眼の視軸および対眼の決定された視軸に基づいて、該ユーザの輻輳・開散運動距離を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例88:該ディスプレイは、コリメートされた光を該ユーザの眼の中に投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例89:該ディスプレイは、第1の期間において、画像ピクセルに対応するコリメートされた光を該ユーザの眼の中に投影し、第2の期間において、該画像ピクセルに対応する発散光を該ユーザの眼の中に投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例90:該ディスプレイは、第1の期間において、第1の発散量を有する、画像ピクセルに対応する光を該ユーザの眼の中に投影し、第2の期間において、第1の発散量を上回る第2の発散量を有する、該画像ピクセルに対応する光を該ユーザの眼の中に投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例91:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムにおいて、仮想画像コンテンツをレンダリングする方法であって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、該ユーザの眼を結像し、該眼の移動を追跡するように構成される、1つ以上の眼追跡カメラを用いて、該眼の回転中心の位置を決定するステップと、レンダリングエンジンを用いて、該眼の回転中心におけるレンダリングカメラを用いて、仮想画像コンテンツをレンダリングするステップであって、該レンダリングカメラは、仮想画像を該眼に提示されるようにレンダリングするように構成される、ステップと、頭部搭載型ディスプレイを用いて、仮想画像コンテンツが異なる深度から異なる期間において生じるように現れるように、異なる量の発散において、光を該ユーザの眼の中に投影し、レンダリングされた仮想画像コンテンツをユーザの視野に表示するステップとを含む、方法。
実施例92:該レンダリングカメラは、該眼の網膜より該回転中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、上記実施例のいずれかに記載の方法。
実施例93:該レンダリングカメラは、該回転中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示されるようにレンダリングするように構成される、上記実施例のいずれかに記載の方法。
実施例94:該レンダリングカメラは、該眼の回転中心における開口を用いてモデル化される、上記実施例のいずれかに記載の方法。
実施例95:該レンダリングカメラは、開口、レンズ、および検出器を用いてモデル化される、上記実施例のいずれかに記載の方法。
実施例96:該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該虹彩または瞳孔のうちの少なくとも1つの決定された位置との間の線に沿った位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例97:1つ以上の眼追跡カメラを用いて、該ユーザの眼の視点中心の位置を決定するステップであって、該ユーザの眼の視点中心は、該ユーザの眼の瞳孔から約1.0mm未満に位置する、ステップと、レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップとをさらに含み、該レンダリングカメラは、該ユーザの眼の視点中心の決定された位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例98:レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップをさらに含み、該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該ユーザの眼の視点中心の決定された位置との間の線に沿った位置に開口を有する、上記実施例のいずれかに記載の方法。
実施例99:1つ以上の眼追跡カメラと通信する、処理電子機器を用いて、該ユーザの眼の視点中心の決定された位置の時間に伴う変化の測定値を決定するステップと、処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値を超えることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップであって、レンダリングカメラは、該眼の回転中心の決定された位置に開口を有する、ステップとをさらに含む、上記実施例のいずれかに記載の方法。
実施例100:処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、レンダリングカメラは、該眼の視点中心の決定された位置に開口を有し、第1の閾値は、該ユーザの眼の視点中心の決定された位置における第2の閾値より高いレベルの時間に伴う変化を示す、上記実施例のいずれかに記載の方法。
実施例101:処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、レンダリングカメラは、該眼の視点中心の決定された位置に開口を有する上記実施例のいずれかに記載の方法。
実施例102:処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値と第2の閾値との間にあることが決定される場合、レンダリングエンジンに、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該眼の視点中心の決定された位置との間の線に沿った点に開口を有する、上記実施例のいずれかに記載の方法。
実施例103:該ディスプレイの少なくとも一部であって、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、ユーザの眼の正面の場所に配置される、部分を用いて、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例104:1つ以上の眼追跡カメラを用いて、該虹彩、瞳孔、または水晶体のうちの少なくとも1つの位置を決定するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例105:レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップをさらに含み、該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該虹彩または瞳孔のうちの少なくとも1つの決定された位置との間の線に沿った位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示するように構成される、上記実施例のいずれかに記載の方法。
実施例106:1つ以上の眼追跡カメラを用いて、該ユーザの眼の視点中心の位置を決定するステップであって、該ユーザの眼の視点中心は、該ユーザの眼の瞳孔から約1.0mm未満に位置する、ステップと、レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップであって、該レンダリングカメラは、該ユーザの眼の視点中心の決定された位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示するように構成される、ステップとをさらに含む、上記実施例のいずれかに記載の方法。
実施例107:レンダリングエンジンを用いて、レンダリングカメラを用いて仮想画像コンテンツをレンダリングするステップをさらに含み、該レンダリングカメラは、(i)該眼の回転中心の決定された位置と(ii)該ユーザの眼の視点中心の決定された位置との間の線に沿った位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる、仮想画像を該眼に提示するように構成される、上記実施例のいずれかに記載の方法。
実施例108:1つ以上の眼追跡カメラと通信する、処理電子機器を用いて、該ユーザの眼の視点中心の決定された位置の時間に伴う変化の測定値を決定するステップと、処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値を超えることが決定される場合、レンダリングエンジンに、該眼の回転中心の決定された位置に開口を有するカメラによって捕捉されたかのように、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップとをさらに含む、上記実施例のいずれかに記載の方法。
実施例109:処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、該眼の視点中心の決定された位置に開口を有するカメラによって捕捉されたかのように、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含み、第1の閾値は、該ユーザの眼の視点中心の決定された位置における第2の閾値より高いレベルの時間に伴う変化を示す、上記実施例のいずれかに記載の方法。
実施例110:処理電子機器を用いて、時間に伴う変化の測定値が第2の閾値を下回ることが決定される場合、レンダリングエンジンに、該眼の視点中心の決定された位置に開口を有するカメラによって捕捉されたかのように、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例111:処理電子機器を用いて、時間に伴う変化の測定値が第1の閾値と第2の閾値との間にあることが決定される場合、レンダリングエンジンに、(i)該眼の回転中心の決定された位置と(ii)該眼の視点中心の決定された位置との間の線に沿った点に開口を有するカメラによって捕捉されたかのように、レンダリングカメラを用いて仮想コンテンツをレンダリングするように指示するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例112:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、ユーザの頭部上に支持されるように構成される、フレームと、フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、異なる量の発散において、光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れ、該頭部搭載型ディスプレイは、第1の発散量を有する光を、第1の期間において、該ユーザの眼の中に投影するように構成され、第2の発散量を有する光を、第2の期間において、該ユーザの眼の中に投影するように構成され、第1の発散量は、第2の発散量と異なる、頭部搭載型ディスプレイと、ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の回転中心の推定値を取得し、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該ユーザの輻輳・開散運動距離の推定値を取得し、該ユーザの推定される輻輳・開散運動距離に基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、処理電子機器とを備える、ディスプレイシステム。
実施例113:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記実施例のいずれかに記載のディスプレイシステム。
実施例114:該処理電子機器はさらに、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の瞬目を検出するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例115:該処理電子機器はさらに、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼のサッカードを検出するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例116:該処理電子機器は、該ユーザの決定された輻輳・開散運動距離に基づいて、かつ処理電子機器が該眼の瞬目を検出したかどうかに基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例117:該処理電子機器は、該ユーザの決定された輻輳・開散運動距離に基づいて、かつ処理電子機器が該眼のサッカードを検出したかどうかに基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例118:該処理電子機器は、該ユーザの決定された輻輳・開散運動距離に基づいて、かつ処理電子機器がサッカードまたは該眼の瞬目のうちの少なくとも1つを検出したかどうかに基づいて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例119:該第1の発散量は、第1の範囲内の輻輳・開散運動距離と関連付けられ、該第2の発散量は、第2の範囲内の輻輳・開散運動距離と関連付けられる、上記実施例のいずれかに記載のディスプレイシステム。
実施例120:該第1の発散量は、第1の範囲内の輻輳・開散運動距離と関連付けられ、該第2の発散量は、第2の範囲内の輻輳・開散運動距離と関連付けられ、第1および第2の範囲は、重複するが、等しくない、上記実施例のいずれかに記載のディスプレイシステム。
実施例121:該処理電子機器は、該ユーザの輻輳・開散運動距離が、第1の範囲外にあって、第2の範囲内にあることの決定に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例122:該処理電子機器は、該ユーザの輻輳・開散運動距離が、第2の範囲外にあって、第1の範囲内にあることの決定に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例123:該処理電子機器は、該ユーザの輻輳・開散運動距離が、第1の範囲外にあって、第2の範囲内にあることの決定、また、該眼の瞬目の検出に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例124:該処理電子機器は、該ユーザの輻輳・開散運動距離が、第1の範囲外にあって、第2の範囲内にあることの決定、また、該眼のサッカードの検出に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例125:該処理電子機器は、該ユーザの輻輳・開散運動距離が、所定の期間より長い時間にわたって、第1の範囲外にあって、第2の範囲内にあったことの決定に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例126:該処理電子機器は、該ユーザの輻輳・開散運動距離が、少なくとも10秒の所定の期間より長い時間にわたって、第1の範囲外にあって、第2の範囲内にあったことの決定に応じて、第1の発散量における該ユーザの眼の中への光の投影から第2の発散量における該ユーザの眼の中への光の投影に偏移させるように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例127:該頭部搭載型ディスプレイは、第1の発散量を有する光を投影するように構成される、第1のディスプレイ要素と、第2の発散量を有する光を投影するように構成される、第2のディスプレイ要素とを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例128:該ディスプレイは、ディスプレイが、第1のディスプレイ要素のうちの1つのみを使用して、複数のシーケンシャルフレームと関連付けられた光を投影するように構成される、離散ディスプレイモードにおいて、光を該ユーザの眼の中に投影し、仮想画像コンテンツを表示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例129:該ディスプレイは、ディスプレイが、フレーム毎に、第1および第2のディスプレイ要素の両方を使用して、複数のシーケンシャルフレームと関連付けられた光を投影するように構成される、混成ディスプレイモードにおいて、光を該ユーザの眼の中に投影し、仮想画像コンテンツを表示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例130:該ディスプレイは、ディスプレイが、フレーム毎に、第1および第2のディスプレイ要素の両方を使用して、複数のシーケンシャルフレームと関連付けられた光を投影するように構成される、混成ディスプレイモードにおいて、光を該ユーザの眼の中に投影し、仮想画像コンテンツを表示するように構成され、混成ディスプレイモードでは、ディスプレイは、第1および第2のディスプレイ要素を使用して、第1の発散量と第2の発散量との間の所与の発散量を有するようにユーザによって知覚される、光を投影するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例131:該ディスプレイは、ディスプレイが、フレーム毎に、第1および第2のディスプレイ要素の両方を使用して、複数のシーケンシャルフレームと関連付けられた光を投影するように構成される、多焦点ディスプレイモードにおいて、光を該ユーザの眼の中に投影し、仮想画像コンテンツを表示するように構成され、多焦点ディスプレイモードでは、ディスプレイは、第3の発散量において、第1の仮想画像コンテンツと関連付けられた光を投影し、第4の発散量において、第2の仮想画像コンテンツと関連付けられた光を投影するように構成され、第3の発散量は、第4の発散量と異なる、上記実施例のいずれかに記載のディスプレイシステム。
実施例132:第3および第4の発散量はそれぞれ、第1の発散量と第2の発散量との間にある、上記実施例のいずれかに記載のディスプレイシステム。
実施例133:第3および第4の発散量のうちの少なくとも1つは、第1の発散量と第2の発散量との間にある、上記実施例のいずれかに記載のディスプレイシステム。
実施例134:第3および第4の発散量は、それぞれ、第1および第2の発散量と等しい、上記実施例のいずれかに記載のディスプレイシステム。
実施例135:ディスプレイは、第1の仮想画像と関連付けられた光をユーザの視野の第1の領域内に投影し、第2の仮想画像と関連付けられた光をユーザの視野の第2の領域内に投影するように構成され、第1および第2の領域は、異なる、上記実施例のいずれかに記載のディスプレイシステム。
実施例136:ディスプレイは、第1の仮想画像と関連付けられた光をユーザの視野の第1の領域内に投影し、第2の仮想画像と関連付けられた光をユーザの視野の第2の領域内に投影するように構成され、第1および第2の領域は、重複しない、上記実施例のいずれかに記載のディスプレイシステム。
実施例137:光をユーザの左および右眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼はそれぞれ、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、ユーザの頭部上に支持されるように構成される、フレームと、フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、光を該ユーザの左および右眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、ユーザの左および右眼からの異なる距離から異なる期間において生じるように現れる、頭部搭載型ディスプレイと、ユーザの左眼を結像するように構成される、第1の眼追跡カメラと、ユーザの右眼を結像するように構成される、第2の眼追跡カメラと、ディスプレイおよび第1および第2の眼追跡カメラと通信する、処理電子機器であって、該第1および第2の眼追跡カメラを用いて取得された該左および右眼の画像に基づいて、ユーザの左眼と右眼との間の瞳孔間距離の推定値を取得するように構成される、処理電子機器とを備える、ディスプレイシステム。
実施例138:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該1つ以上の眼追跡カメラは、該1つ以上の光源からの光を使用して、該眼の画像を形成する、上記実施例のいずれかに記載のディスプレイシステム。
実施例139:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例140:該1つ以上の光源は、赤外線光エミッタを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例141:該1つ以上の光源は、1つ以上の閃光を該眼上に形成し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例142:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該角膜球体の曲率中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例143:該角膜は、それと関連付けられた、曲率中心を有する、角膜球体を有し、該処理電子機器は、該1つ以上の閃光に基づいて、該角膜球体の曲率中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例144:該1つ以上の眼追跡カメラは、該眼の瞳孔を結像するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例145:該処理電子機器は、該瞳孔の中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例146:該処理電子機器は、該虹彩と該瞳孔との間の境界の少なくとも一部を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例147:該処理電子機器は、該虹彩と該瞳孔との間の境界の中心を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例148:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例149:該処理電子機器は、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例150:該処理電子機器は、3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例151:該処理電子機器は、該角膜の曲率中心に対する3次元空間内の該瞳孔の中心の場所に基づいて、該光学軸の場所および配向を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例152:該処理電子機器は、該角膜の曲率中心に基づいて、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例153:該処理電子機器は、該角膜の曲率中心および該光学軸の場所および配向に基づいて、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例154:該処理電子機器は、該角膜の曲率中心から該光学軸に沿った特定の距離を平行移動させることによって、該眼の回転中心の場所を決定するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例155:光をユーザの左および右眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムにおいて、仮想画像コンテンツをレンダリングする方法であって、該眼はそれぞれ、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、該ユーザの眼を結像し、該眼の移動を追跡するように構成される、1つ以上の眼追跡カメラを用いて、該左眼の回転中心の位置および該右眼の回転中心の位置を決定するステップと、1つ以上の眼追跡カメラと通信する、処理電子機器を用いて、該左および右眼の回転中心の決定された位置に基づいて、該ユーザの瞳孔間距離を推定するステップと、1つ以上の眼追跡カメラを用いて、現在の左眼姿勢および現在の右眼姿勢を決定するステップと、処理電子機器を用いて、該推定される瞳孔間距離と該決定された現在の左眼姿勢および該決定された現在の右眼姿勢を比較することによって、該ユーザの現在の輻輳・開散運動距離を推定するステップとを含む、方法。
実施例156:該現在の左および右眼姿勢を決定するステップは、1つ以上の眼追跡カメラを用いて、該ユーザの左眼の該瞳孔の位置および該ユーザの右眼の該瞳孔の位置を推定するステップを含む、上記実施例のいずれかに記載の方法。
実施例157:該現在の左および右眼姿勢を決定するステップは、1つ以上の眼追跡カメラを用いて、該ユーザの左眼の該角膜の位置および該ユーザの右眼の該角膜の位置を推定するステップを含む、上記実施例のいずれかに記載の方法。
実施例158:該現在の左および右眼姿勢を決定するステップは、1つ以上の眼追跡カメラを用いて、該ユーザの左眼の該虹彩の位置および該ユーザの右眼の該虹彩の位置を推定するステップを含む、上記実施例のいずれかに記載の方法。
実施例159:該現在の左および右眼姿勢を決定するステップは、1つ以上の眼追跡カメラを用いて、該ユーザの左眼の該水晶体の位置および該ユーザの右眼の該水晶体の位置を推定するステップを含む、上記実施例のいずれかに記載の方法。
実施例160:該ユーザの現在の輻輳・開散運動距離を推定するステップは、処理電子機器を用いて、該ユーザの左および右眼の該虹彩の位置間の距離を推定するステップと、処理電子機器を用いて、該推定される瞳孔間距離と該ユーザの左および右眼の該虹彩の位置間の推定される距離の比較に基づいて、該ユーザの現在の輻輳・開散運動距離を推定するステップとを含む、上記実施例のいずれかに記載の方法。
実施例161:頭部搭載型ディスプレイを用いて、仮想画像コンテンツが異なる深度から異なる期間において生じるように現れるように、異なる量の発散において、光を該ユーザの眼の中に投影し、レンダリングされた仮想画像コンテンツをユーザの視野に表示するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例162:該ディスプレイの少なくとも一部であって、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、ユーザの眼の正面の場所に配置される、部分を用いて、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するステップをさらに含む、上記実施例のいずれかに記載の方法。
実施例163:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、ユーザの頭部上に支持されるように構成される、フレームと、フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、該光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、該1つ以上の眼追跡カメラを用いて取得された該眼の画像に基づいて、該眼の回転中心の位置推定値を取得するように構成され、該画像に基づいて、該眼の光学軸の方向推定値を取得するように構成される、処理電子機器とを備え、該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に6.0mm〜13.0mm離れるように、該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、ディスプレイシステム。
実施例164:該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に7.0mm〜12.0mm離れて該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例165:該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に8.0mm〜11.0mm離れて該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例166:該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に9.0mm〜10.0mm離れて該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例167:該処理電子機器は、光学軸に沿って配置され、該網膜からある方向に9.5mm〜10.0mm離れて該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例168:該処理電子機器は、光学軸に沿って配置され、約9.7mm該眼の回転中心の推定される位置から離間される、開口を有するカメラによって捕捉されたかのようにレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、上記実施例のいずれかに記載のディスプレイシステム。
実施例169:該処理電子機器は、該フレーム上の電子機器を含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例170:該処理電子機器は、該フレーム上の電子機器と、該フレームから遠隔の場所に配置される、電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例171:該処理電子機器は、該フレーム上の電子機器と、ベルトパック上の電子機器とを含む、上記実施例のいずれかに記載のディスプレイシステム。
実施例172:該ディスプレイの少なくとも一部は、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、ユーザの眼の正面の場所に配置される、上記実施例のいずれかに記載のディスプレイシステム。
実施例173:該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、1つ以上の光源をさらに備え、該1つ以上の眼追跡カメラは、該1つ以上の光源からの光を使用して、該眼の画像を捕捉する、上記実施例のいずれかに記載のディスプレイシステム。
実施例174:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも2つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例175:該1つ以上の光源は、該ユーザの眼に対して該フレーム上に配置され、該ユーザの眼を照明する、少なくとも3つの光源を備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例176:該1つ以上の光源は、赤外線光エミッタを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例177:光をユーザの眼に投影し、仮想画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、該眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、該水晶体、瞳孔、および角膜を通して延在する、光学軸とを有し、ユーザの頭部上に支持されるように構成される、フレームと、フレーム上に配置される、頭部搭載型ディスプレイであって、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、該光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、したがって、表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、ディスプレイと、ユーザの眼を結像するように構成される、1つ以上の眼追跡カメラと、ディスプレイおよび1つ以上の眼追跡カメラと通信する、処理電子機器であって、眼の瞳孔に位置するかまたは眼の瞳孔と角膜との間に位置する開口を有するレンダリングカメラによってレンダリングされる、該仮想画像コンテンツを該ユーザの眼に提示するように構成される、処理電子機器とを備える、ディスプレイシステム。
実施例178:レンダリングカメラの開口は、該ユーザの眼の該瞳孔の1.0mm〜2.0mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例179:レンダリングカメラの開口は、該ユーザの眼の該瞳孔の約1.0mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例180:レンダリングカメラの開口は、該ユーザの眼の該瞳孔の0.25mm〜1.0mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例181:レンダリングカメラの開口は、該ユーザの眼の該瞳孔の0.5mm〜1.0mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例182:レンダリングカメラの開口は、該ユーザの眼の該瞳孔の0.25mm〜0.5mm正面の位置に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例183:レンダリングカメラの開口は、眼の瞳孔に位置する、上記実施例のいずれかに記載のディスプレイシステム。
実施例184:レンダリングカメラの開口は、眼の瞳孔に位置しない、上記実施例のいずれかに記載のディスプレイシステム。
実施例185:カメラは、ピンホールカメラを備える、上記実施例のいずれかに記載のディスプレイシステム。
実施例186:開口は、ピンホールカメラのピンホールを備える、上記実施例のいずれかに記載のディスプレイシステム。
上記の実施例または付加的実施例のいずれかは、組み合わせられることができる。加えて、上記の実施例または付加的実施例のいずれかは、頭部搭載型ディスプレイと統合されることができる。加えて、上記の実施例または付加的実施例のいずれかは、単一深度平面および/または1つ以上の可変深度平面を用いて実装されることができる(例えば、経時的に変動する遠近調節キューを提供する、可変集束力を伴う、1つ以上の要素)。
さらに、限定ではないが、解剖学的、光学的、および幾何学的特徴、場所、および配向等の種々の値、パラメータを決定するための装置および方法が、本明細書に開示される。そのようなパラメータの実施例は、例えば、眼の回転中心、角膜の曲率中心、瞳孔の中心、瞳孔の境界、虹彩の中心、虹彩の境界、角膜輪部の境界、眼の光学軸、眼の視軸、視点中心を含むが、これらに限定されない。本明細書に列挙されるようなそのような値、パラメータ等の決定は、その推定値を含み、必ずしも、実際の値と精密に一致する必要はない。例えば、眼の回転中心、角膜の曲率中心、瞳孔または虹彩の中心または境界、角膜輪部の境界、眼の光学軸、眼の視軸、視点中心等の決定は、推定値、近似値、またはそれに近い値であって、実際の(例えば、解剖学的、光学的、または幾何学的)値またはパラメータと同一ではなくてもよい。ある場合には、例えば、二乗平均平方根推定技法が、そのような値の推定値を取得するために使用される。実施例として、本明細書に説明されるある技法は、光線またはベクトルが交差する、場所または点を識別することに関する。しかしながら、そのような光線またはベクトルは、交差しなくてもよい。本実施例では、場所または点は、推定されてもよい。例えば、場所または点は、二乗平均平方根または他の推定技法に基づいて決定されてもよい(例えば、場所または点は、光線またはベクトルに近いまたは最も近いものであるように推定されてもよい)。他のプロセスもまた、近似値を推定する、または別様に、実際の値と一致しない場合がある値を提供するために使用されてもよい。故に、用語「〜を決定する」および「〜を推定する」または「決定される」および「推定される」は、本明細書では、同義的に使用される。そのような決定された値の参照は、したがって、推定値、近似値、または実際の値に近い値を含み得る。故に、上記または本明細書のいずれかの場所のパラメータまたは値の決定の参照は、実際の値に精密に限定されるべきではなく、推定値、近似値、またはそれに値に近い値を含んでもよい。

Claims (77)

  1. ディスプレイシステムであって、前記ディスプレイシステムは、光をユーザの眼に投影し、仮想画像コンテンツを前記ユーザの視野内に表示するように構成され、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記ディスプレイシステムは、
    前記ユーザの頭部上に支持されるように構成されるフレームと、
    前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、光を前記ユーザの眼の中に投影し、仮想画像コンテンツを前記ユーザの視野に表示するように構成され、これにより、前記表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、頭部搭載型ディスプレイと、
    前記ユーザの眼を結像するように構成される1つ以上の眼追跡カメラと、
    前記ディスプレイおよび前記1つ以上の眼追跡カメラと通信する処理電子機器であって、前記処理電子機器は、前記1つ以上の眼追跡カメラを用いて取得された前記眼の画像に基づいて、前記眼の回転中心の推定値を取得するように構成される、処理電子機器と
    を備える、ディスプレイシステム。
  2. 1つ以上の光源をさらに備え、前記1つ以上の光源は、前記ユーザの眼に対して前記フレーム上に配置され、前記ユーザの眼を照明し、前記1つ以上の眼追跡カメラは、前記1つ以上の光源からの光を使用して、前記眼の画像を形成する、請求項1に記載のディスプレイシステム。
  3. 前記1つ以上の光源は、少なくとも2つの光源を備え、前記少なくとも2つの光源は、前記ユーザの眼に対して前記フレーム上に配置され、前記ユーザの眼を照明する、請求項2に記載のディスプレイシステム。
  4. 前記1つ以上の光源は、赤外線光エミッタを備える、請求項3に記載のディスプレイシステム。
  5. 前記1つ以上の光源は、1つ以上の閃光を前記眼上に形成し、前記処理電子機器は、前記1つ以上の閃光に基づいて、前記角膜の場所を決定するように構成される、請求項2に記載のディスプレイシステム。
  6. 前記角膜は、それと関連付けられた角膜球体を有し、前記角膜球体は、曲率中心を有し、前記処理電子機器は、前記1つ以上の閃光に基づいて、前記角膜球体の曲率中心の場所を決定するように構成される、請求項5に記載のディスプレイシステム。
  7. 前記角膜は、それと関連付けられた角膜球体を有し、前記角膜球体は、曲率中心を有し、前記処理電子機器は、前記角膜球体の曲率中心の場所を決定するように構成される、請求項1に記載のディスプレイシステム。
  8. 前記1つ以上の眼追跡カメラは、前記眼の瞳孔を結像するように構成される、請求項1に記載のディスプレイシステム。
  9. 前記処理電子機器は、前記瞳孔の中心の場所を決定するように構成される、請求項1に記載のディスプレイシステム。
  10. 前記処理電子機器は、前記虹彩と前記瞳孔との間の境界の少なくとも一部を決定するように構成される、請求項1に記載のディスプレイシステム。
  11. 前記処理電子機器は、前記虹彩と前記瞳孔との間の境界の中心を決定するように構成される、請求項10に記載のディスプレイシステム。
  12. 前記処理電子機器は、前記角膜の曲率中心に対する3次元空間内の前記瞳孔の中心の場所を決定するように構成される、請求項1に記載のディスプレイシステム。
  13. 前記処理電子機器は、3次元空間内の前記瞳孔の中心の場所に基づいて、前記光学軸の場所および配向を決定するように構成される、請求項12に記載のディスプレイシステム。
  14. 前記処理電子機器は、前記光学軸の場所および配向を決定するように構成される、請求項1に記載のディスプレイシステム。
  15. 前記処理電子機器は、前記角膜の曲率中心に対する3次元空間内の前記瞳孔の中心の場所に基づいて、前記光学軸の場所および配向を決定するように構成される、請求項14に記載のディスプレイシステム。
  16. 前記処理電子機器は、前記角膜の曲率中心に基づいて、前記眼の回転中心の場所を決定するように構成される、請求項1に記載のディスプレイシステム。
  17. 前記処理電子機器は、前記角膜の曲率中心および前記光学軸の場所および配向に基づいて、前記眼の回転中心の場所を決定するように構成される、請求項1に記載のディスプレイシステム。
  18. 前記処理電子機器は、前記角膜の曲率中心から前記光学軸に沿った特定の距離を平行移動させることによって、前記眼の回転中心の場所を決定するように構成される、請求項17に記載のディスプレイシステム。
  19. 前記曲率中心から前記回転中心までの特定の距離は、4.0mm〜6.0mmである、請求項18に記載のディスプレイシステム。
  20. 前記曲率中心から前記回転中心までの特定の距離は、約4.7mmである、請求項18に記載のディスプレイシステム。
  21. 前記特定の距離は、固定される、請求項18に記載のディスプレイシステム。
  22. 前記処理電子機器は、少なくとも、前記1つ以上の眼追跡カメラを用いて以前に取得された前記眼の1つ以上の画像に基づいて、前記特定の距離を決定するように構成される、請求項18に記載のディスプレイシステム。
  23. 前記処理電子機器は、前記光学軸の場所および配向に基づいて、前記光学軸からオフセットされた視軸の場所および配向を決定するように構成される、請求項1に記載のディスプレイシステム。
  24. 前記処理電子機器は、前記光学軸に対する角回転に基づいて、視軸の場所および配向を決定するように構成される、請求項1に記載のディスプレイシステム。
  25. 前記処理電子機器は、前記光学軸に対する4.0°〜6.5°の角回転に基づいて、視軸の場所および配向を決定するように構成される、請求項1に記載のディスプレイシステム。
  26. 前記処理電子機器は、前記光学軸に対する約5.2°の角回転に基づいて、視軸の場所および配向を決定するように構成される、請求項1に記載のディスプレイシステム。
  27. 前記処理電子機器は、少なくとも、前記1つ以上の眼追跡カメラを用いて以前に取得された前記眼の1つ以上の画像に基づいて、視軸の場所および配向を決定するように構成される、請求項1に記載のディスプレイシステム。
  28. 前記処理電子機器は、前記眼が回転している期間にわたって、前記光学軸または視軸の場所の複数の決定に基づいて、前記眼の回転中心を決定するように構成される、請求項1に記載のディスプレイシステム。
  29. 前記処理電子機器は、前記眼が回転している期間にわたって、前記光学軸または視軸の場所の複数の決定の交差の領域を識別することによって、前記眼の回転中心を決定するように構成される、請求項1に記載のディスプレイシステム。
  30. 前記処理電子機器は、前記ユーザの左および右眼に関する光学軸の場所および配向の決定に基づいて、前記ユーザの左および右眼が注視している前記ユーザの輻輳・開散運動距離を決定するように構成される、請求項1に記載のディスプレイシステム。
  31. 前記処理電子機器は、前記ユーザの左および右眼に関する視軸の場所および配向の決定に基づいて、前記ユーザの左および右眼が注視している前記ユーザの輻輳・開散運動距離を決定するように構成される、請求項1に記載のディスプレイシステム。
  32. 前記処理電子機器は、前記ユーザの左および右眼に関する視軸の交差の領域を識別することに基づいて、前記ユーザの左および右眼が注視している輻輳・開散運動距離を決定するように構成される、請求項1に記載のディスプレイシステム。
  33. 前記処理電子機器は、前記左および右眼に関する視軸を水平平面上に投影し、前記水平平面上における前記左および右眼に関する視軸の投影の交差の領域を識別することによって、前記ユーザの左および右眼が注視している輻輳・開散運動距離を決定するように構成される、請求項1に記載のディスプレイシステム。
  34. 前記処理電子機器は、前記ユーザの輻輳・開散運動距離の決定に基づいて、画像コンテンツを投影するための発散およびコリメーションのうちの少なくとも1つの相対的量を決定するように構成される、請求項1に記載のディスプレイシステム。
  35. 前記処理電子機器は、前記フレーム上の電子機器を含む、請求項1に記載のディスプレイシステム。
  36. 前記処理電子機器は、前記フレーム上の電子機器と、前記フレームから遠隔の場所に配置される電子機器とを含む、請求項1に記載のディスプレイシステム。
  37. 前記処理電子機器は、前記フレーム上の電子機器と、ベルトパック上の電子機器とを含む、請求項1に記載のディスプレイシステム。
  38. 前記ディスプレイの少なくとも一部は、透明であり、前記ユーザが前記頭部搭載型ディスプレイを装着すると、前記透明部分が、前記ユーザおよび前記頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、前記ユーザおよび前記頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、前記ユーザの眼の正面の場所に配置される、請求項1に記載のディスプレイシステム。
  39. 前記頭部搭載型ディスプレイは、第1の発散量において、前記ユーザの正面の環境の一部からの光を受け取り、前記第1の発散量に実質的に類似する第2の発散量を伴って、前記ユーザの正面の環境の一部からの光をユーザの眼に透過させる、請求項1に記載のディスプレイシステム。
  40. 前記処理電子機器は、複数の推定される回転中心位置をフィルタリングする、平均する、カルマンフィルタを適用する、またはそれらの任意の組み合わせによって、前記回転中心の推定値を取得するように構成される、請求項1に記載のディスプレイシステム。
  41. 前記処理電子機器は、前記ユーザの眼の回転中心の決定された位置に開口を有するカメラによって捕捉されたかのようにレンダリングされる前記仮想画像コンテンツを前記ユーザの眼に提示するように構成される、請求項1に記載のディスプレイシステム。
  42. 前記処理電子機器は、レンダリングカメラを前記回転中心において使用し、仮想画像を前記眼に提示されるようにレンダリングするように構成される、請求項1に記載のディスプレイシステム。
  43. 前記処理電子機器は、前記眼の網膜より前記回転中心に近い開口を有するカメラによって捕捉されたかのようにレンダリングされる仮想画像を前記眼に提示されるようにレンダリングするように構成されるレンダリングカメラを使用するように構成される、請求項1に記載のディスプレイシステム。
  44. 前記処理電子機器は、前記眼の回転中心に開口を有するカメラによって捕捉されたかのようにレンダリングされる仮想画像を前記眼に提示されるようにレンダリングするように構成されるレンダリングカメラを使用するように構成される、請求項1に記載のディスプレイシステム。
  45. 前記処理電子機器は、レンダリングカメラを前記回転中心において使用し、仮想画像を前記眼に提示されるようにレンダリングするように構成され、前記レンダリングカメラは、前記眼の回転中心に開口を伴ってモデル化される、請求項1に記載のディスプレイシステム。
  46. 前記処理電子機器は、前記1つ以上の眼追跡カメラによって取得された前記眼の画像に基づいて、前記眼が回転している期間にわたって、前記ユーザの眼の複数の視線方向の決定に基づいて、前記眼の回転中心の推定値を取得するように構成される、請求項1に記載のディスプレイシステム。
  47. 前記処理電子機器は、前記眼が回転している期間にわたって、前記1つ以上の眼追跡カメラを用いて取得された画像内の前記ユーザの眼の瞳孔、虹彩、または角膜輪部のうちの1つ以上のものの形状の変動量に基づいて、前記視線方向を決定するように構成される、請求項46に記載のディスプレイシステム。
  48. 前記処理電子機器は、前記1つ以上の眼追跡カメラを用いて取得された前記ユーザの眼の画像上の複数の空間場所に基づいて、位置のアレイを決定するように構成される、請求項1に記載のディスプレイシステム。
  49. 前記位置のアレイは、楕円の少なくとも一部に対応する、請求項48に記載のディスプレイシステム。
  50. 前記処理電子機器は、曲線を前記ユーザの眼の画像上の複数の空間場所に適合させることによって、前記位置のアレイを決定するように構成される、請求項48に記載のディスプレイシステム。
  51. 前記曲線は、楕円を備える、請求項50に記載のディスプレイシステム。
  52. 前記画像上の複数の空間場所は、前記画像内の前記ユーザの眼の前記角膜輪部上の空間場所を備える、請求項49に記載のディスプレイシステム。
  53. 前記画像上の複数の空間場所は、前記画像内の前記ユーザの眼の前記虹彩と強膜との間の境界上の空間場所を備える、請求項49に記載のディスプレイシステム。
  54. 前記画像上の複数の空間場所は、前記1つ以上の眼追跡カメラを用いて取得された前記画像内の前記ユーザの眼の前記角膜と前記強膜との間の境界上の空間場所を備える、請求項49に記載のディスプレイシステム。
  55. 前記処理電子機器は、前記位置のアレイの第1の側上の場所から前記位置のアレイを通して前記位置のアレイの第2の反対側まで延在する複数の線形経路を決定するように構成される、請求項49に記載のディスプレイシステム。
  56. 前記処理電子機器は、前記複数の線形経路に基づいて、円形領域を決定するように構成され、前記円形領域は、半径Rを有する、請求項55に記載のディスプレイシステム。
  57. 前記半径Rは、角膜輪部の平均半径に対応する、請求項56に記載のディスプレイシステム。
  58. 前記半径Rは、前記ユーザの眼の角膜輪部の測定された半径に対応する、請求項56に記載のディスプレイシステム。
  59. 前記半径Rは、瞳孔の平均半径に対応する、請求項56に記載のディスプレイシステム。
  60. 前記半径Rは、前記ユーザの眼の瞳孔の測定された半径に対応する、請求項56に記載のディスプレイシステム。
  61. 前記処理電子機器は、前記円形領域の中心部分を通る法線の場所および方向を決定するように構成される、請求項56に記載のディスプレイシステム。
  62. 前記処理電子機器は、前記1つ以上の眼追跡カメラを用いて以前に取得された前記眼の複数の画像に基づいて、個別の円形領域の中心部分を通る複数の法線の個別の場所および方向を決定するように構成される、請求項56に記載のディスプレイシステム。
  63. 前記処理電子機器は、前記複数の法線が収束または交差する位置を決定するように構成される、請求項62に記載のディスプレイシステム。
  64. 前記処理電子機器は、前記眼が回転している期間にわたって取得された前記ユーザの眼の画像に基づいて決定される前記法線の複数のものの交差の領域を識別することによって、前記ユーザの眼の回転中心の推定値を取得するように構成される、請求項62に記載のディスプレイシステム。
  65. 前記処理電子機器は、前記眼が回転している期間にわたって取得された前記ユーザの眼の画像に基づいて決定される前記複数の法線の複数のものの場所および方向に基づいて、前記ユーザの眼の回転中心の推定値を取得するように構成される、請求項62に記載のディスプレイシステム。
  66. 前記アレイ位置の前記第1の側上の場所は、前記1つ以上の眼追跡カメラのうちの1つの座標系の原点に対応する、請求項55に記載のディスプレイシステム。
  67. ディスプレイシステムであって、前記ディスプレイシステムは、光をユーザの眼に投影し、仮想画像コンテンツを前記ユーザの視野内に表示するように構成され、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記ディスプレイシステムは、
    前記ユーザの頭部上に支持されるように構成されるフレームと、
    前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、光を前記ユーザの眼の中に投影し、仮想画像コンテンツを前記ユーザの視野に表示するように構成され、これにより、前記表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、頭部搭載型ディスプレイと、
    前記ユーザの眼を結像するように構成される1つ以上の眼追跡カメラと、
    前記ディスプレイおよび前記1つ以上の眼追跡カメラと通信する処理電子機器であって、前記処理電子機器は、前記1つ以上の眼追跡カメラを用いて取得された前記眼の画像に基づいて、前記眼の視点中心の位置推定値を取得するように構成され、前記視点中心は、前記眼の瞳孔の近位にあるかまたは前記角膜と前記眼の瞳孔との間にあると推定される、処理電子機器と
    を備え、
    前記処理電子機器は、前記視点中心に位置するレンダリングカメラによってレンダリングされる前記仮想画像コンテンツを前記ユーザの眼に提示するように構成される、ディスプレイシステム。
  68. 光をユーザの眼に投影し、前記仮想画像コンテンツを前記ユーザの視野内に表示するように構成されるディスプレイシステムにおいて、仮想画像コンテンツをレンダリングする方法であって、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記方法は、
    前記ユーザの眼を結像し、前記眼の移動を追跡するように構成される1つ以上の眼追跡カメラを用いて、前記眼の回転中心の位置を決定することと、
    レンダリングエンジンを用いて、前記眼の回転中心におけるレンダリングカメラを用いて、仮想画像コンテンツをレンダリングすることであって、前記レンダリングカメラは、仮想画像を前記眼に提示されるようにレンダリングするように構成される、ことと、
    頭部搭載型ディスプレイを用いて、前記仮想画像コンテンツが異なる深度から異なる期間において生じるように現れるように、異なる量の発散において、光を前記ユーザの眼の中に投影し、前記レンダリングされた仮想画像コンテンツをユーザの視野に表示することと
    を含む、方法。
  69. ディスプレイシステムであって、前記ディスプレイシステムは、光をユーザの眼に投影し、仮想画像コンテンツを前記ユーザの視野内に表示するように構成され、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記ディスプレイシステムは、
    前記ユーザの頭部上に支持されるように構成されるフレームと、
    前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、異なる量の発散において、光を前記ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、これにより、前記表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れ、前記頭部搭載型ディスプレイは、第1の発散量を有する光を、第1の期間において、前記ユーザの眼の中に投影するように構成され、第2の発散量を有する光を、第2の期間において、前記ユーザの眼の中に投影するように構成され、前記第1の発散量は、前記第2の発散量と異なる、頭部搭載型ディスプレイと、
    前記ユーザの眼を結像するように構成される1つ以上の眼追跡カメラと、
    前記ディスプレイおよび前記1つ以上の眼追跡カメラと通信する処理電子機器であって、前記処理電子機器は、前記1つ以上の眼追跡カメラを用いて取得された前記眼の画像に基づいて、前記眼の回転中心の推定値を取得し、前記1つ以上の眼追跡カメラを用いて取得された前記眼の画像に基づいて、前記ユーザの輻輳・開散運動距離の推定値を取得し、前記ユーザの推定される輻輳・開散運動距離に基づいて、前記第1の発散量における前記ユーザの眼の中への光の投影から前記第2の発散量における前記ユーザの眼の中への光の投影に偏移させるように構成される、処理電子機器と
    を備える、ディスプレイシステム。
  70. ディスプレイシステムであって、前記ディスプレイシステムは、光をユーザの左および右眼に投影し、仮想画像コンテンツを前記ユーザの視野内に表示するように構成され、前記眼はそれぞれ、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記ディスプレイシステムは、
    前記ユーザの頭部上に支持されるように構成されるフレームと、
    前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、光を前記ユーザの左および右眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、これにより、前記表示される仮想画像コンテンツは、前記ユーザの左および右眼からの異なる距離から異なる期間において生じるように現れる、頭部搭載型ディスプレイと、
    前記ユーザの左眼を結像するように構成される第1の眼追跡カメラと、
    前記ユーザの右眼を結像するように構成される第2の眼追跡カメラと、
    前記ディスプレイおよび前記第1および第2の眼追跡カメラと通信する処理電子機器であって、前記処理電子機器は、前記第1および第2の眼追跡カメラを用いて取得された前記左および右眼の画像に基づいて、前記ユーザの左眼と右眼との間の瞳孔間距離の推定値を取得するように構成される、処理電子機器と
    を備える、ディスプレイシステム。
  71. 光をユーザの左および右眼に投影し、前記仮想画像コンテンツを前記ユーザの視野内に表示するように構成されるディスプレイシステムにおいて、仮想画像コンテンツをレンダリングする方法であって、前記眼はそれぞれ、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記方法は、
    前記ユーザの眼を結像し、前記眼の移動を追跡するように構成される1つ以上の眼追跡カメラを用いて、前記左眼の回転中心の位置および前記右眼の回転中心の位置を決定することと、
    前記1つ以上の眼追跡カメラと通信する処理電子機器を用いて、前記左および右眼の回転中心の決定された位置に基づいて、前記ユーザの瞳孔間距離を推定することと、
    前記1つ以上の眼追跡カメラを用いて、現在の左眼姿勢および現在の右眼姿勢を決定することと、
    前記処理電子機器を用いて、前記推定される瞳孔間距離と前記決定された現在の左眼姿勢および前記決定された現在の右眼姿勢を比較することによって、前記ユーザの現在の輻輳・開散運動距離を推定することと
    を含む、方法。
  72. ディスプレイシステムであって、前記ディスプレイシステムは、光をユーザの眼に投影し、仮想画像コンテンツを前記ユーザの視野内に表示するように構成され、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記ディスプレイシステムは、
    前記ユーザの頭部上に支持されるように構成されるフレームと、
    前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、光を前記ユーザの眼の中に投影し、仮想画像コンテンツを前記ユーザの視野に表示するように構成され、これにより、前記表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、頭部搭載型ディスプレイと、
    前記ユーザの眼を結像するように構成される1つ以上の眼追跡カメラと、
    前記ディスプレイおよび前記1つ以上の眼追跡カメラと通信する処理電子機器であって、前記処理電子機器は、前記1つ以上の眼追跡カメラを用いて取得された前記眼の画像に基づいて、前記眼の回転中心の位置推定値を取得するように構成され、前記画像に基づいて、前記眼の光学軸の方向推定値を取得するように構成される、処理電子機器と
    を備え、
    前記処理電子機器は、前記光学軸に沿って配置され、前記網膜からある方向に6.0mm〜13.0mm離れるように、前記眼の回転中心の推定される位置から離間される開口を有するカメラによって捕捉されたかのようにレンダリングされる前記仮想画像コンテンツを前記ユーザの眼に提示するように構成される、ディスプレイシステム。
  73. ディスプレイシステムであって、前記ディスプレイシステムは、光をユーザの眼に投影し、仮想画像コンテンツを前記ユーザの視野内に表示するように構成され、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記ディスプレイシステムは、
    前記ユーザの頭部上に支持されるように構成されるフレームと、
    前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、光を前記ユーザの眼の中に投影し、仮想画像コンテンツを前記ユーザの視野に表示するように構成され、これにより、前記表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、頭部搭載型ディスプレイと、
    前記ユーザの眼を結像するように構成される1つ以上の眼追跡カメラと、
    前記ディスプレイおよび前記1つ以上の眼追跡カメラと通信する処理電子機器と
    を備え、
    前記処理電子機器は、前記眼の瞳孔に位置するかまたは前記眼の前記瞳孔と前記角膜との間に位置するレンダリングカメラによってレンダリングされる前記仮想画像コンテンツを前記ユーザの眼に提示するように構成される、ディスプレイシステム。
  74. ディスプレイシステムであって、前記ディスプレイシステムは、光をユーザの眼に投影し、仮想画像コンテンツを前記ユーザの視野内に表示するように構成され、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記ディスプレイシステムは、
    前記ユーザの頭部上に支持されるように構成されるフレームと、
    前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、光を前記ユーザの眼の中に投影し、仮想画像コンテンツを前記ユーザの視野に表示するように構成され、前記ディスプレイの少なくとも一部は、透明であり、前記ユーザが前記フレームを装着すると、前記透明部分が、前記ユーザおよび前記頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、前記ユーザおよび前記頭部搭載型ディスプレイの正面の環境の一部のビューを提供するように、前記ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
    前記ユーザの眼を結像するように構成される内向きに面した結像システムと、
    前記内向きに面した結像システムと通信する処理電子機器であって、前記処理電子機器は、前記内向きに面した結像システムを用いて取得された前記眼の複数の画像に基づいて、前記眼の回転中心の推定値を取得するように構成され、前記処理電子機器は、回転中心の計算される値における変動量を決定し、前記変動量に基づいて、回転中心の統計的に決定された推定値を選択するように構成される、処理電子機器と
    を備える、ディスプレイシステム。
  75. 光をユーザの眼に投影し、前記仮想画像コンテンツを前記ユーザの視野内に表示するように構成されるディスプレイシステムにおいて、仮想画像コンテンツをレンダリングする方法であって、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記方法は、
    前記ユーザの眼を結像するように構成される1つ以上の眼カメラを用いて、前記1つ以上のカメラを用いた前記眼の結像に基づいて、位置を決定することと、
    レンダリングエンジンを用いて、前記決定された位置に基づく場所におけるレンダリングカメラを用いて仮想画像コンテンツをレンダリングすることであって、前記レンダリングカメラは、仮想画像を前記眼に提示されるようにレンダリングするように構成される、ことと、
    頭部搭載型ディスプレイを用いて、光を前記ユーザの眼の中に投影し、前記レンダリングされた仮想画像コンテンツをユーザの視野に表示することと
    を含む、方法。
  76. ディスプレイシステムであって、前記ディスプレイシステムは、光をユーザの眼に投影し、仮想画像コンテンツを前記ユーザの視野内に表示するように構成され、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜と、光学軸とを有し、前記光学軸は、前記水晶体、瞳孔、および角膜を通して延在し、前記ディスプレイシステムは、
    前記ユーザの頭部上に支持されるように構成されるフレームと、
    前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、光を前記ユーザの眼の中に投影し、仮想画像コンテンツを前記ユーザの視野に表示するように構成される、頭部搭載型ディスプレイと、
    前記ユーザの眼を結像するように構成される1つ以上のカメラと、
    前記ディスプレイおよび前記1つ以上のカメラと通信する処理電子機器であって、前記処理電子機器は、前記1つ以上のカメラを用いて取得された前記眼の画像に基づいて、前記眼の位置を取得するように構成される、処理電子機器と
    を備え、
    前記処理電子機器は、前記決定された位置に基づく場所に位置するレンダリングカメラによってレンダリングされる前記仮想画像コンテンツを前記ユーザの眼に提示するように構成される、ディスプレイシステム。
  77. ディスプレイシステムであって、前記ディスプレイシステムは、光をユーザの眼に投影し、仮想画像コンテンツを前記ユーザの視野内に表示するように構成され、前記眼は、角膜と、虹彩と、瞳孔と、水晶体と、網膜とを有し、前記ディスプレイシステムは、
    前記ユーザの頭部上に支持されるように構成されるフレームと、
    前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、異なる量の発散およびコリメーションのうちの少なくとも1つにおいて、光を前記ユーザの眼の中に投影し、仮想画像コンテンツを前記ユーザの視野に表示するように構成され、これにより、前記表示される仮想画像コンテンツは、異なる深度から異なる期間において生じるように現れる、頭部搭載型ディスプレイと、
    前記ユーザの眼を結像するように構成される1つ以上の眼追跡カメラと、
    前記ディスプレイおよび前記1つ以上の眼追跡カメラと通信する処理電子機器であって、前記処理電子機器は、
    前記1つ以上の眼追跡カメラを用いて取得された前記眼の画像に基づいて、前記ユーザの眼の水晶体、瞳孔、および角膜を通して延在する光学軸の位置および配向推定値を取得することと、
    前記眼の光学軸に位置合わせされる、レンダリング空間内のある軸に沿った特定の場所を識別することと、
    レンダリング空間内の前記特定の場所に位置する仮想レンダリングカメラによってレンダリングされるように、前記仮想画像コンテンツを前記ユーザの眼に提示することと
    を行うように構成される、処理電子機器と
    を備える、ディスプレイシステム。
JP2020539042A 2018-01-17 2019-01-17 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け Active JP7390297B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023140017A JP2023160877A (ja) 2018-01-17 2023-08-30 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862618559P 2018-01-17 2018-01-17
US62/618,559 2018-01-17
US201862702849P 2018-07-24 2018-07-24
US62/702,849 2018-07-24
PCT/US2019/014052 WO2019143844A1 (en) 2018-01-17 2019-01-17 Eye center of rotation determination, depth plane selection, and render camera positioning in display systems

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023140017A Division JP2023160877A (ja) 2018-01-17 2023-08-30 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け

Publications (3)

Publication Number Publication Date
JP2021511723A true JP2021511723A (ja) 2021-05-06
JPWO2019143844A5 JPWO2019143844A5 (ja) 2022-01-18
JP7390297B2 JP7390297B2 (ja) 2023-12-01

Family

ID=67301157

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020539042A Active JP7390297B2 (ja) 2018-01-17 2019-01-17 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け
JP2023140017A Pending JP2023160877A (ja) 2018-01-17 2023-08-30 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023140017A Pending JP2023160877A (ja) 2018-01-17 2023-08-30 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け

Country Status (9)

Country Link
US (4) US11112863B2 (ja)
EP (2) EP3741109B1 (ja)
JP (2) JP7390297B2 (ja)
KR (1) KR20200110367A (ja)
CN (1) CN111869200A (ja)
AU (1) AU2019209930B2 (ja)
CA (1) CA3087333A1 (ja)
IL (2) IL275822B2 (ja)
WO (1) WO2019143844A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11154203B2 (en) * 2015-06-14 2021-10-26 Facense Ltd. Detecting fever from images and temperatures
WO2019143864A1 (en) * 2018-01-17 2019-07-25 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
AU2019209930B2 (en) 2018-01-17 2023-08-03 Magic Leap, Inc. Eye center of rotation determination, depth plane selection, and render camera positioning in display systems
US11093208B2 (en) * 2018-02-16 2021-08-17 Valve Corporation Using detected pupil location to align optical components of a head-mounted display
EP4339899A2 (en) 2018-07-13 2024-03-20 Magic Leap, Inc. Systems and methods for display binocular deformation compensation
US11966055B2 (en) 2018-07-19 2024-04-23 Magic Leap, Inc. Content interaction driven by eye metrics
CN112689869A (zh) 2018-07-24 2021-04-20 奇跃公司 用于确定显示器与用户的眼睛之间的配准的显示系统和方法
JP2021536592A (ja) 2018-08-31 2021-12-27 マジック リープ, インコーポレイテッドMagic Leap, Inc. 拡張現実デバイスのための空間的に分解された動的調光
CN111124103A (zh) * 2018-10-31 2020-05-08 托比股份公司 检测头戴式装置的重新定位
JP2022517207A (ja) 2019-01-11 2022-03-07 マジック リープ, インコーポレイテッド 種々の深度における仮想コンテンツの時間多重化された表示
US11334154B2 (en) 2019-01-25 2022-05-17 Magic Leap, Inc. Eye-tracking using images having different exposure times
GB2582657B (en) * 2019-03-29 2021-09-15 Sony Interactive Entertainment Inc User tracking system using a camera mounted on the user and an external camera
WO2020236827A1 (en) 2019-05-20 2020-11-26 Magic Leap, Inc. Systems and techniques for estimating eye pose
CN114424147A (zh) 2019-07-16 2022-04-29 奇跃公司 利用一个或多个眼睛跟踪相机确定眼睛旋转中心
US11836410B2 (en) * 2019-08-06 2023-12-05 Universal City Studios Llc Interactive headgear
US10972719B1 (en) * 2019-11-11 2021-04-06 Nvidia Corporation Head-mounted display having an image sensor array
JP6725121B1 (ja) * 2019-11-13 2020-07-15 株式会社スワローインキュベート 視線検出方法、視線検出装置、及び制御プログラム
WO2021108327A1 (en) * 2019-11-26 2021-06-03 Magic Leap, Inc. Enhanced eye tracking for augmented or virtual reality display systems
US11228745B2 (en) * 2019-11-26 2022-01-18 Varjo Technologies Oy Display apparatus and method of correcting image distortion therefor
US11269181B2 (en) 2019-12-09 2022-03-08 Magic Leap, Inc. Systems and methods for operating a head-mounted display system based on user identity
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
US11410387B1 (en) 2020-01-17 2022-08-09 Facebook Technologies, Llc. Systems, methods, and media for generating visualization of physical environment in artificial reality
US11210860B2 (en) 2020-01-27 2021-12-28 Facebook Technologies, Llc. Systems, methods, and media for visualizing occluded physical objects reconstructed in artificial reality
US11200745B2 (en) 2020-01-27 2021-12-14 Facebook Technologies, Llc. Systems, methods, and media for automatically triggering real-time visualization of physical environment in artificial reality
US10950034B1 (en) 2020-01-27 2021-03-16 Facebook Technologies, Llc Systems, methods, and media for generating visualization of physical environment in artificial reality
US11113891B2 (en) * 2020-01-27 2021-09-07 Facebook Technologies, Llc Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality
JP2023512238A (ja) 2020-01-31 2023-03-24 マジック リープ, インコーポレイテッド 眼球運動測定査定のための拡張および仮想現実ディスプレイシステム
US11451758B1 (en) 2020-02-12 2022-09-20 Meta Platforms Technologies, Llc Systems, methods, and media for colorizing grayscale images
US11509865B2 (en) * 2020-05-12 2022-11-22 True Meeting Inc Touchups, denoising and makeup related to a 3D virtual conference
KR20230026398A (ko) 2020-06-12 2023-02-24 유니버시티 오브 워싱턴 근안 디스플레이들에서의 눈 추적
JP2023536064A (ja) * 2020-07-23 2023-08-23 マジック リープ, インコーポレイテッド 交互サンプリングを使用した眼追跡
US11836287B1 (en) * 2020-09-22 2023-12-05 Apple Inc. Light pattern-based alignment for retinal eye tracking
EP3985483A1 (en) 2020-10-19 2022-04-20 Carl Zeiss Vision International GmbH Computer-implemented method for determining a position of a center of rotation of an eye using a mobile device, mobile device and computer program
CN112489138B (zh) * 2020-12-02 2024-02-20 中国船舶集团有限公司第七一六研究所 一种基于可穿戴式装备的目标态势信息智能获取系统
GB2606346B (en) * 2021-04-28 2023-10-25 Sony Interactive Entertainment Inc System and method of head mounted display personalisation
CN113538655B (zh) * 2021-06-23 2023-08-04 聚好看科技股份有限公司 一种虚拟人脸的生成方法及设备
US20230082420A1 (en) * 2021-09-13 2023-03-16 Qualcomm Incorporated Display of digital media content on physical surface
US11861805B2 (en) 2021-09-22 2024-01-02 Sony Group Corporation Eyeball positioning for 3D head modeling
US20230119633A1 (en) * 2021-10-20 2023-04-20 Microsoft Technology Licensing, Llc Enhanced eye tracking systems utilizing joint biological and hardware estimations
WO2023102500A1 (en) * 2021-12-01 2023-06-08 Magic Leap, Inc. Methods for controlling performance of extended reality display systems
KR20230113871A (ko) 2022-01-24 2023-08-01 (주) 해피론이엔지 발포폴리에틸렌메시를 이용한 건축물 층간소음방지 시공방법 및 구조.
KR102623083B1 (ko) 2022-05-02 2024-01-10 (주) 해피론이엔지 공명공간을 제거한 1차 몰탈 타설식 소음방지 시공공법 및 시공구조
US20230396752A1 (en) * 2022-06-03 2023-12-07 Apple Inc. Electronic Device that Displays Virtual Objects

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150189266A1 (en) * 2013-01-24 2015-07-02 Yuchen Zhou Method and apparatus to project image on retina at various focal depths utilizing flexible substrate containing optical array
WO2016129156A1 (ja) * 2015-02-13 2016-08-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (140)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3166179B2 (ja) 1991-01-22 2001-05-14 キヤノン株式会社 視線検出装置
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US5844656A (en) * 1996-11-07 1998-12-01 Xybernaut Corporation Head mounted display with adjustment components
JPH11155152A (ja) 1997-11-21 1999-06-08 Canon Inc 三次元形状情報入力方法及び装置及び画像入力装置
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
TW487892B (en) * 1999-08-31 2002-05-21 Shimadzu Corp Head display
US6529331B2 (en) 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US6771423B2 (en) * 2001-05-07 2004-08-03 Richard Geist Head-mounted virtual display apparatus with a near-eye light deflecting element in the peripheral field of view
US20030030597A1 (en) * 2001-08-13 2003-02-13 Geist Richard Edwin Virtual display apparatus for mobile activities
JP2003307774A (ja) 2002-04-17 2003-10-31 Canon Inc 視線検出機能付き光学機器
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
US8248458B2 (en) * 2004-08-06 2012-08-21 University Of Washington Through Its Center For Commercialization Variable fixation viewing distance scanned light displays
US20060250322A1 (en) * 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
WO2006125185A2 (en) * 2005-05-19 2006-11-23 The Johns Hopkins University Wireless scleral search coil including systems for measuring eye movement and methods related thereto
ES2341285T3 (es) 2005-07-19 2010-06-17 Nektar Therapeutics Metodo para preparar maleimidas polimericas.
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
JP4379409B2 (ja) 2005-11-08 2009-12-09 ソニー株式会社 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
US20070273983A1 (en) 2006-05-26 2007-11-29 Hebert Raymond T Devices, methods, and systems for image viewing
US7542210B2 (en) * 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
EP2078229A2 (en) * 2006-11-02 2009-07-15 Sensics, Inc. Systems and methods for a head-mounted display
US8066372B2 (en) 2007-10-23 2011-11-29 Mcgill University Binocular vision assessment and/or therapy
IL196078A (en) * 2007-12-20 2014-09-30 Raytheon Co Imaging system
US8223113B2 (en) 2007-12-26 2012-07-17 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with variable delay
US20100149073A1 (en) 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
DE102009010467A1 (de) * 2009-02-26 2010-09-09 Carl Zeiss Vision Gmbh Verfahren und Vorrichtung zur Bestimmung der Augendrehpunktlage
US20190302882A1 (en) 2009-04-01 2019-10-03 Tobii Ab Visual display with illuminators for gaze tracking
WO2011018655A2 (en) * 2009-08-13 2011-02-17 Bae Systems Plc Head up display system
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US20120212484A1 (en) 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content placement using distance and location information
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
KR101997845B1 (ko) 2010-12-24 2019-10-01 매직 립, 인코포레이티드 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
CN107656615B (zh) 2011-05-06 2021-09-14 奇跃公司 大量同时远程数字呈现世界
KR101824501B1 (ko) * 2011-05-19 2018-02-01 삼성전자 주식회사 헤드 마운트 디스플레이 장치의 이미지 표시 제어 장치 및 방법
US20130022220A1 (en) 2011-07-20 2013-01-24 Google Inc. Wearable Computing Device with Indirect Bone-Conduction Speaker
US8629815B2 (en) * 2011-08-09 2014-01-14 Google Inc. Laser alignment of binocular head mounted display
CA2750287C (en) * 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9213163B2 (en) 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
US9025252B2 (en) 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
EP2760363A4 (en) 2011-09-29 2015-06-24 Magic Leap Inc TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION
US20130083003A1 (en) 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
US8879801B2 (en) * 2011-10-03 2014-11-04 Qualcomm Incorporated Image-based head position tracking method and system
US8988467B2 (en) 2011-10-13 2015-03-24 Microsoft Technology Licensing, Llc Touchscreen selection visual feedback
EP2583618B1 (en) 2011-10-22 2017-12-06 Alcon Pharmaceuticals Ltd. Apparatus for monitoring one or more parameters of the eye
EP3666352B1 (en) 2011-10-28 2021-12-01 Magic Leap, Inc. Method and device for augmented and virtual reality
US8752963B2 (en) * 2011-11-04 2014-06-17 Microsoft Corporation See-through display brightness control
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8611015B2 (en) * 2011-11-22 2013-12-17 Google Inc. User interface
CN104094197B (zh) * 2012-02-06 2018-05-11 索尼爱立信移动通讯股份有限公司 利用投影仪的注视追踪
JP6028357B2 (ja) 2012-03-22 2016-11-16 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
KR102028732B1 (ko) 2012-04-05 2019-10-04 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
US20130286053A1 (en) * 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
US20130285885A1 (en) * 2012-04-25 2013-10-31 Andreas G. Nowatzyk Head-mounted light-field display
US9514538B2 (en) * 2012-05-25 2016-12-06 National University Corporation Shizuoka University Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
US9001427B2 (en) 2012-05-30 2015-04-07 Microsoft Technology Licensing, Llc Customized head-mounted display device
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US20130339433A1 (en) 2012-06-15 2013-12-19 Duke University Method and apparatus for content rating using reaction sensing
US9317971B2 (en) 2012-06-29 2016-04-19 Microsoft Technology Licensing, Llc Mechanism to give holographic objects saliency in multiple spaces
KR20150054967A (ko) 2012-09-11 2015-05-20 매직 립, 인코포레이티드 인체공학적 헤드 마운티드 디스플레이 디바이스 및 광학 시스템
US8860634B2 (en) 2012-10-11 2014-10-14 Sony Computer Entertainment Europe Limited Head mountable display
US20140146394A1 (en) * 2012-11-28 2014-05-29 Nigel David Tout Peripheral display for a near-eye display device
WO2014113506A1 (en) 2013-01-15 2014-07-24 Magic Leap, Inc. Ultra-high resolution scanning fiber display
US9727991B2 (en) * 2013-03-01 2017-08-08 Microsoft Technology Licensing, Llc Foveated image rendering
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
US9618747B2 (en) * 2013-03-13 2017-04-11 Jason Villmer Head mounted display for viewing and creating a media file including omnidirectional image data and corresponding audio data
KR102271198B1 (ko) 2013-03-15 2021-06-29 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US9264803B1 (en) 2013-06-05 2016-02-16 Google Inc. Using sounds for determining a worn state of a wearable computing device
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
US20140375540A1 (en) * 2013-06-24 2014-12-25 Nathan Ackerman System for optimal eye fit of headset display device
CN105492957B (zh) 2013-06-27 2019-09-24 Cy 视觉公司 采用成对眼镜形式的图像显示设备
US10345903B2 (en) 2013-07-30 2019-07-09 Microsoft Technology Licensing, Llc Feedback for optic positioning in display devices
US10073518B2 (en) 2013-08-19 2018-09-11 Qualcomm Incorporated Automatic calibration of eye tracking for optical see-through head mounted display
EP4321915A3 (en) 2013-10-16 2024-05-01 Magic Leap, Inc. Virtual or augmented reality headsets having adjustable interpupillary distance
CN107219628B (zh) 2013-11-27 2020-05-01 奇跃公司 虚拟和增强现实系统与方法
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
US8958158B1 (en) 2013-12-03 2015-02-17 Google Inc. On-head detection for head-mounted display
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
CN110376743B (zh) 2014-01-31 2022-03-04 奇跃公司 多焦点显示系统和方法
KR102207799B1 (ko) 2014-01-31 2021-01-26 매직 립, 인코포레이티드 멀티-포컬 디스플레이 시스템 및 방법
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US11138793B2 (en) 2014-03-14 2021-10-05 Magic Leap, Inc. Multi-depth plane display system with reduced switching between depth planes
US9529428B1 (en) 2014-03-28 2016-12-27 Amazon Technologies, Inc. Using head movement to adjust focus on content of a display
IL231862A (en) 2014-04-01 2015-04-30 Superfish Ltd Image representation using a neural network
AU2015297035B2 (en) 2014-05-09 2018-06-28 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR102193052B1 (ko) 2014-05-30 2020-12-18 매직 립, 인코포레이티드 가상 또는 증강 현실 장치로 가상 콘텐츠 디스플레이를 생성하기 위한 방법들 및 시스템들
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9719871B2 (en) 2014-08-09 2017-08-01 Google Inc. Detecting a state of a wearable device
US9626936B2 (en) * 2014-08-21 2017-04-18 Microsoft Technology Licensing, Llc Dimming module for augmented and virtual reality
US9808185B2 (en) 2014-09-23 2017-11-07 Fitbit, Inc. Movement measure generation in a wearable electronic device
US20160131902A1 (en) 2014-11-12 2016-05-12 Anthony J. Ambrus System for automatic eye tracking calibration of head mounted display device
US9704038B2 (en) 2015-01-07 2017-07-11 Microsoft Technology Licensing, Llc Eye tracking
US9681804B2 (en) * 2015-01-12 2017-06-20 X Development Llc Hybrid lens system for head wearable display
JP6887953B2 (ja) 2015-03-16 2021-06-16 マジック リープ,インコーポレイティド 健康を損う疾病を診断して治療する方法及びシステム
JP6483514B2 (ja) 2015-04-28 2019-03-13 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
WO2016203654A1 (ja) 2015-06-19 2016-12-22 日立マクセル株式会社 ヘッドマウントディスプレイ装置およびそれを用いた視覚補助方法
US20170285343A1 (en) * 2015-07-13 2017-10-05 Mikhail Belenkii Head worn display with foveal and retinal display
CN112836664A (zh) 2015-08-21 2021-05-25 奇跃公司 使用眼睛姿态测量的眼睑形状估计
CN108135467A (zh) 2015-08-21 2018-06-08 奇跃公司 眼睑形状估计
CN108292040B (zh) 2015-09-30 2020-11-06 索尼互动娱乐股份有限公司 优化头戴式显示器屏幕上的内容定位的方法
JP6831840B2 (ja) 2015-10-20 2021-02-17 マジック リープ, インコーポレイテッドMagic Leap,Inc. 3次元空間内の仮想オブジェクトの選択
US10338677B2 (en) * 2015-10-28 2019-07-02 Microsoft Technology Licensing, Llc Adjusting image frames based on tracking motion of eyes
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US9983709B2 (en) * 2015-11-02 2018-05-29 Oculus Vr, Llc Eye tracking using structured light
KR20170051013A (ko) 2015-11-02 2017-05-11 엘지전자 주식회사 테더링 형 hmd 및 그 hmd의 제어 방법
WO2017079333A1 (en) 2015-11-04 2017-05-11 Magic Leap, Inc. Light field display metrology
US10025060B2 (en) 2015-12-08 2018-07-17 Oculus Vr, Llc Focus adjusting virtual reality headset
EP3400478B1 (en) 2016-01-07 2023-08-16 Magic Leap, Inc. Virtual and augmented reality systems and methods having unequal numbers of component color images distributed across depth planes
KR102567431B1 (ko) 2016-01-19 2023-08-14 매직 립, 인코포레이티드 눈 이미지 수집, 선택 및 결합
IL302656A (en) 2016-02-11 2023-07-01 Magic Leap Inc Multi-depth planar display system with limited change between depth planes
US10115205B2 (en) 2016-03-11 2018-10-30 Facebook Technologies, Llc Eye tracking system with single point calibration
US10908279B2 (en) * 2016-03-11 2021-02-02 Facebook Technologies, Llc Ultrasound/radar for eye tracking
CN113589529A (zh) 2016-03-25 2021-11-02 奇跃公司 虚拟和增强现实系统和方法
JP2019519859A (ja) * 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド 視線追跡を実行するシステム及び方法
US10139644B2 (en) 2016-07-01 2018-11-27 Tilt Five, Inc Head mounted projection display with multilayer beam splitter and color correction
CN114495249A (zh) 2016-07-14 2022-05-13 奇跃公司 使用角膜曲率的虹膜边界估计
US10409368B2 (en) * 2016-07-27 2019-09-10 Fove, Inc. Eye-gaze detection system, displacement detection method, and displacement detection program
US10425636B2 (en) * 2016-10-03 2019-09-24 Microsoft Technology Licensing, Llc Automatic detection and correction of binocular misalignment in a display device
EP3305176A1 (en) * 2016-10-04 2018-04-11 Essilor International Method for determining a geometrical parameter of an eye of a subject
WO2018067357A2 (en) 2016-10-05 2018-04-12 Magic Leap, Inc. Periocular test for mixed reality calibration
GB2557175A (en) 2016-11-17 2018-06-20 Nokia Technologies Oy Method for multi-camera device
US10395111B2 (en) * 2016-12-01 2019-08-27 Varjo Technologies Oy Gaze-tracking system and method
SG11201907370XA (en) * 2017-02-12 2019-09-27 Lemnis Tech Pte Ltd Methods, devices and systems for focus adjustment of displays
US11494986B2 (en) 2017-04-20 2022-11-08 Samsung Electronics Co., Ltd. System and method for two dimensional application usage in three dimensional virtual reality environment
EP3420887A1 (en) * 2017-06-30 2019-01-02 Essilor International Method for determining the position of the eye rotation center of the eye of a subject, and associated device
CN109752849B (zh) * 2017-11-03 2021-05-18 宏达国际电子股份有限公司 头戴式显示装置
CN109752848B (zh) * 2017-11-06 2021-08-17 宏达国际电子股份有限公司 头戴式显示装置
US11112613B2 (en) * 2017-12-18 2021-09-07 Facebook Technologies, Llc Integrated augmented reality head-mounted display for pupil steering
WO2019143864A1 (en) 2018-01-17 2019-07-25 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
AU2019209930B2 (en) * 2018-01-17 2023-08-03 Magic Leap, Inc. Eye center of rotation determination, depth plane selection, and render camera positioning in display systems
US11145096B2 (en) 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
CN112689869A (zh) 2018-07-24 2021-04-20 奇跃公司 用于确定显示器与用户的眼睛之间的配准的显示系统和方法
CN114424147A (zh) 2019-07-16 2022-04-29 奇跃公司 利用一个或多个眼睛跟踪相机确定眼睛旋转中心
KR20230040346A (ko) 2020-07-15 2023-03-22 매직 립, 인코포레이티드 비구면 각막 모델을 사용한 눈 추적

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150189266A1 (en) * 2013-01-24 2015-07-02 Yuchen Zhou Method and apparatus to project image on retina at various focal depths utilizing flexible substrate containing optical array
WO2016129156A1 (ja) * 2015-02-13 2016-08-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP7390297B2 (ja) 2023-12-01
CN111869200A (zh) 2020-10-30
EP4354207A2 (en) 2024-04-17
IL275822A (en) 2020-08-31
US20190243448A1 (en) 2019-08-08
WO2019143844A9 (en) 2019-09-12
KR20200110367A (ko) 2020-09-23
US20240108217A1 (en) 2024-04-04
US11883104B2 (en) 2024-01-30
EP3741109A4 (en) 2021-11-24
US20210105456A1 (en) 2021-04-08
IL275822B2 (en) 2024-02-01
US11112863B2 (en) 2021-09-07
AU2019209930A8 (en) 2020-08-27
AU2019209930B2 (en) 2023-08-03
IL275822B1 (en) 2023-10-01
EP3741109A1 (en) 2020-11-25
JP2023160877A (ja) 2023-11-02
US20220057862A1 (en) 2022-02-24
CA3087333A1 (en) 2019-07-25
US11290706B2 (en) 2022-03-29
IL305833A (en) 2023-11-01
EP3741109B1 (en) 2024-04-24
AU2019209930A1 (en) 2020-07-09
WO2019143844A1 (en) 2019-07-25

Similar Documents

Publication Publication Date Title
JP7390297B2 (ja) 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け
JP7291708B2 (ja) ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
JP7443332B2 (ja) ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択
JP7415077B2 (ja) ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
JP7456995B2 (ja) 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法
JP2022540675A (ja) 1つ以上の眼追跡カメラを用いた眼回転中心の決定
JP2023504207A (ja) ユーザ識別に基づいて頭部搭載型ディスプレイシステムを動作させるためのシステムおよび方法
JP2023534213A (ja) 非球面角膜モデルを使用した眼追跡

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R150 Certificate of patent or registration of utility model

Ref document number: 7390297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150