JP2021532464A - 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法 - Google Patents
左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法 Download PDFInfo
- Publication number
- JP2021532464A JP2021532464A JP2021502899A JP2021502899A JP2021532464A JP 2021532464 A JP2021532464 A JP 2021532464A JP 2021502899 A JP2021502899 A JP 2021502899A JP 2021502899 A JP2021502899 A JP 2021502899A JP 2021532464 A JP2021532464 A JP 2021532464A
- Authority
- JP
- Japan
- Prior art keywords
- user
- eye
- display
- head
- horizontal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000001508 eye Anatomy 0.000 title claims abstract description 777
- 238000000034 method Methods 0.000 title claims description 121
- 239000003550 marker Substances 0.000 claims abstract description 127
- 230000003190 augmentative effect Effects 0.000 claims description 69
- 238000003384 imaging method Methods 0.000 claims description 48
- 230000004308 accommodation Effects 0.000 claims description 21
- 230000004438 eyesight Effects 0.000 claims description 17
- 230000003068 static effect Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 12
- 230000001174 ascending effect Effects 0.000 claims description 3
- 238000009877 rendering Methods 0.000 abstract description 107
- 210000003128 head Anatomy 0.000 abstract description 32
- 230000000694 effects Effects 0.000 abstract description 4
- 210000001747 pupil Anatomy 0.000 description 121
- 230000003287 optical effect Effects 0.000 description 88
- 230000008569 process Effects 0.000 description 45
- 230000033001 locomotion Effects 0.000 description 43
- 238000004422 calculation algorithm Methods 0.000 description 38
- 230000000007 visual effect Effects 0.000 description 37
- 210000004087 cornea Anatomy 0.000 description 35
- 210000000695 crystalline len Anatomy 0.000 description 31
- 238000001514 detection method Methods 0.000 description 31
- 230000036544 posture Effects 0.000 description 31
- 238000012545 processing Methods 0.000 description 31
- 238000010606 normalization Methods 0.000 description 26
- 210000000554 iris Anatomy 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 239000006185 dispersion Substances 0.000 description 12
- 238000000605 extraction Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000004418 eye rotation Effects 0.000 description 9
- 230000005484 gravity Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 210000001525 retina Anatomy 0.000 description 8
- 230000029777 axis specification Effects 0.000 description 7
- 238000002372 labelling Methods 0.000 description 7
- 230000001902 propagating effect Effects 0.000 description 7
- 230000008447 perception Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 230000035807 sensation Effects 0.000 description 6
- 238000000926 separation method Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000001052 transient effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 210000000744 eyelid Anatomy 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 210000002159 anterior chamber Anatomy 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 208000003464 asthenopia Diseases 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 206010019233 Headaches Diseases 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 210000000873 fovea centralis Anatomy 0.000 description 3
- 231100000869 headache Toxicity 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 230000000284 resting effect Effects 0.000 description 3
- 230000004434 saccadic eye movement Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 210000003786 sclera Anatomy 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241001589086 Bellapiscis medius Species 0.000 description 1
- 241000284156 Clerodendrum quadriloculare Species 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 208000002111 Eye Abnormalities Diseases 0.000 description 1
- 206010052143 Ocular discomfort Diseases 0.000 description 1
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 208000036366 Sensation of pressure Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- WABPQHHGFIMREM-UHFFFAOYSA-N lead(0) Chemical compound [Pb] WABPQHHGFIMREM-UHFFFAOYSA-N 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005297 material degradation process Methods 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 238000013386 optimize process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/0001—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
- G02B6/0011—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
- G02B6/0075—Arrangements of multiple light guides
- G02B6/0076—Stacked arrangements of multiple light guides of the same or different cross-sectional area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0606—Manual adjustment
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0693—Calibration of display systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2356/00—Detection of the display position w.r.t. other display screens
Abstract
Description
本願は、参照することによって、以下の特許出願、すなわち、2018年8月3日に出願された米国仮出願第62/714,649号、2019年7月17日に出願された米国仮出願第62/875,474号、2019年7月17日に出願された米国特許出願第16/251,017号、および2019年7月23日に出願されたPCT出願第PCT/US2019/043096号のそれぞれの全体を組み込む。
拡張現実システムであって、
光をユーザに出力することによって仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、
ユーザの眼の画像を捕捉するように構成される、結像デバイスと、
頭部搭載型ディスプレイおよび結像デバイスに通信可能に結合される、少なくとも1つのプロセッサであって、
左眼ディスプレイを用いて、左眼整合マーカを提供し、
右眼ディスプレイを用いて、右眼整合マーカを提供し、
ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節し、
受信されたユーザ入力に基づいて、左眼および右眼ディスプレイのうちの少なくとも1つ内の画像コンテンツを垂直に調節する、
ように構成される、少なくとも1つのプロセッサと、
を備える、システム。
プロセッサは、
頭部搭載型ディスプレイシステムがユーザの左および右眼に対して水平であるかどうかを決定し、
ユーザに、左眼ディスプレイを用いて左眼整合マーカを提供する前に、頭部搭載型ディスプレイシステムがユーザの左および右眼に対して水平であるかどうかに関するフィードバックを提供する、
ように構成される、実施例1に記載の拡張現実システム。
プロセッサは、ユーザに、ユーザの左および右眼に対する頭部搭載型ディスプレイの配向に関連して変化する配向を有する、水平マーカを提示することによって、頭部搭載型ディスプレイがユーザの左および右眼に対して水平であるかどうかに関するフィードバックを提供するように構成される、実施例1に記載の拡張現実システム。
眼追跡システムをさらに備え、プロセッサは、眼追跡システムからの眼追跡データに基づいて、頭部搭載型ディスプレイシステムがユーザの左および右眼に対して水平であるかどうかを決定するように構成される、実施例1に記載の拡張現実システム。
眼追跡システムをさらに備え、プロセッサはさらに、眼追跡システムからの眼追跡データに基づいて、ユーザの左眼と右眼との間に延在する、ユーザの眼球間軸を決定するように構成される、実施例1に記載の拡張現実システム。
プロセッサはさらに、ユーザの眼球間軸に対する眼追跡システムの配向を決定することによって、頭部搭載型ディスプレイシステムがユーザの左および右眼に対して水平であるかどうかを決定するように構成される、実施例5に記載の拡張現実システム。
プロセッサは、ユーザに、ユーザの眼球間軸に対する眼追跡システムの配向に関連して変化する配向を有する、水平マーカを提示することによって、頭部搭載型ディスプレイがユーザの左および右眼に対して水平であるかどうかに関するフィードバックを提供するように構成される、実施例5に記載の拡張現実システム。
プロセッサは、ユーザに、頭部搭載型ディスプレイの配向と関連付けられる静的水平マーカを提示し、眼球間軸の配向と関連付けられる動的水平マーカを提示することによって、頭部搭載型ディスプレイがユーザの左および右眼に対して水平であるかどうかに関するフィードバックを提供するように構成され、動的水平マーカは、眼球間軸の配向が頭部搭載型ディスプレイに対して変化するにつれて、静的水平マーカに対して移動する、実施例5に記載の拡張現実システム。
動的水平マーカは、頭部搭載型ディスプレイが眼球間軸に対して水平であるとき、静的水平マーカとマージする、実施例8に記載の拡張現実システム。
左眼整合マーカは、第1の水平線を備え、右眼整合マーカは、第2の水平線を備える、実施例1に記載の拡張現実システム。
プロセッサは、第1および第2の水平線のうちの少なくとも1つを上昇または降下させるためのユーザ入力の形態において、ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節するように構成される、実施例10に記載の拡張現実システム。
プロセッサは、第1および第2の水平線がユーザの視点から水平になるまで、第1および第2の水平線のうちの少なくとも1つを上昇または降下させるためのユーザ入力の形態において、ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節するように構成される、実施例10に記載の拡張現実システム。
頭部搭載型ディスプレイは、世界からの光をユーザの左眼の中に通過させるように構成される、第1の導波管スタックと、世界からの光をユーザの右眼の中に通過させるように構成される、第2の導波管スタックとを備え、各導波管スタックは、複数の導波管を備える、実施例1に記載の拡張現実システム。
頭部搭載型ディスプレイは、世界からの光をユーザの左眼の中に通過させるように構成される、第1の導波管スタックと、世界からの光をユーザの右眼の中に通過させるように構成される、第2の導波管スタックとを備え、
各導波管スタックは、複数の導波管を備え、その導波管スタックの1つ以上の導波管は、ユーザに、その導波管スタックの1つ以上の他の導波管と異なる量の波面発散を伴う光を出力するように構成され、
異なる量の波面発散は、眼による異なる遠近調節と関連付けられ、
異なる量の波面発散を伴う出力された光は、仮想オブジェクトをユーザから離れた異なる知覚される深度に形成する、
実施例1に記載の拡張現実システム。
ユーザの左および右眼を用いて、頭部搭載型ディスプレイシステムの左眼ディスプレイおよび右眼ディスプレイの表示されるコンテンツを垂直に整合させるための方法であって、
左眼ディスプレイを用いて、左眼整合マーカを提供するステップと、
右眼ディスプレイを用いて、右眼整合マーカを提供するステップと、
ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節するステップと、
受信されたユーザ入力に基づいて、左眼および右眼ディスプレイのうちの少なくとも1つ内の画像コンテンツを垂直に調節するステップと、
を含む、方法。
ユーザの左および右眼に対する頭部搭載型ディスプレイシステムの水平度を決定するステップと、
左または右眼整合マーカを提供する前に、ユーザに、頭部搭載型ディスプレイシステムがユーザの左および右眼に対して水平であるかどうかに関するフィードバックを提供するステップと、
をさらに含む、実施例15に記載の方法。
頭部搭載型ディスプレイシステムは、眼追跡システムを備え、ユーザの左および右眼に対する頭部搭載型ディスプレイシステムの水平度を決定するステップは、眼追跡システムを利用して、ユーザの左眼と右眼との間に延在する、ユーザの眼球間軸を決定し、眼球間軸に対する頭部搭載型ディスプレイシステムの水平度を決定するステップを含む、実施例15に記載の方法。
眼追跡システムを利用して、ユーザの眼球間軸を決定するステップは、
眼追跡システムを用いて、ユーザの左眼の回転中心を決定するステップと、
眼追跡システムを用いて、ユーザの右眼の回転中心を決定するステップと、
ユーザの左および右眼の回転中心間に延在する線の位置を決定するステップであって、線は、眼球間軸を構成する、ステップと、
を含む、実施例17に記載の方法。
左眼整合マーカを提供するステップは、左眼ディスプレイを用いて、第1の垂直整合マーカおよび第1の水平整合マーカを提供するステップを含み、右眼整合マーカを提供するステップは、右眼ディスプレイを用いて、第2の垂直整合マーカおよび第2の水平整合マーカを提供するステップを含む、実施例15に記載の方法。
ユーザによって視認されると、第1および第2の垂直整合マーカは、ユーザの視覚内でともに融合し、第1および第2の水平整合マーカは、ユーザの視覚内で融合されないままである、実施例19に記載の方法。
左眼および右眼整合マーカのうちの少なくとも1つを調節するためのユーザ入力を受信するステップは、第1および第2の水平整合マーカのうちの少なくとも1つを垂直に移動させるためのユーザ入力を受信するステップを含む、実施例19に記載の方法。
左眼および右眼整合マーカのうちの少なくとも1つを調節するためのユーザ入力を受信するステップは、第1および第2の水平整合マーカがユーザの視覚内で相互に垂直に整合されるまで、第1および第2の水平整合マーカのうちの少なくとも1つを垂直に移動させるためのユーザ入力を受信するステップを含む、実施例19に記載の方法。
ユーザが所与の閾値時間にわたって頭部搭載型ディスプレイシステムを装着していることを決定するステップと、
をさらに含む、実施例15に記載の方法。
拡張現実システムであって、
光をユーザに出力することによって仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイであって、仮想コンテンツをユーザの左眼に提示するように構成される、左眼ディスプレイと、仮想コンテンツをユーザの右眼に提示するように構成される、右眼ディスプレイとを備える、頭部搭載型ディスプレイと、
頭部搭載型ディスプレイに通信可能に結合される、少なくとも1つのプロセッサであって、
左眼ディスプレイを用いて、左眼整合マーカを提供し、
右眼ディスプレイを用いて、右眼整合マーカを提供し、
ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節し、
受信されたユーザ入力に基づいて、左眼および右眼ディスプレイのうちの少なくとも1つ内の画像コンテンツを垂直に調節する、
ように構成される、少なくとも1つのプロセッサと、
を備える、拡張現実システム。
左眼整合マーカは、第1の水平線を備え、右眼整合マーカは、第2の水平線を備える、実施例24に記載の拡張現実システム。
プロセッサは、第1および第2の水平線のうちの少なくとも1つを上昇または降下させるためのユーザ入力の形態において、ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節するように構成される、実施例25に記載の拡張現実システム。
プロセッサは、第1および第2の水平線がユーザの視点から水平になるまで、第1および第2の水平線のうちの少なくとも1つを上昇または降下させるためのユーザ入力の形態において、ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節するように構成される、実施例25に記載の拡張現実システム。
左眼ディスプレイは、世界からの光をユーザの左眼の中に通過させるように構成される、第1の導波管スタックを備え、右眼ディスプレイは、世界からの光をユーザの右眼の中に通過させるように構成される、第2の導波管スタックを備え、各導波管スタックは、複数の導波管を備える、実施例24に記載の拡張現実システム。
左眼ディスプレイは、世界からの光をユーザの左眼の中に通過させるように構成される、第1の導波管スタックを備え、右眼ディスプレイは、世界からの光をユーザの右眼の中に通過させるように構成される、第2の導波管スタックを備え、
各導波管スタックは、複数の導波管を備え、その導波管スタックの1つ以上の導波管は、ユーザに、その導波管スタックの1つ以上の他の導波管と異なる量の波面発散を伴う光を出力するように構成され、
異なる量の波面発散は、眼による異なる遠近調節(accommodation)と関連付けられ、
異なる量の波面発散を伴う出力された光は、仮想オブジェクトをユーザから離れた異なる知覚される深度に形成する、
実施例24に記載の拡張現実システム。
左眼ディスプレイおよび右眼ディスプレイを用いて、それぞれ、左眼整合マーカおよび右眼整合マーカを提供するために、少なくとも1つのプロセッサは、
左眼ディスプレイを用いて、第1の垂直整合マーカおよび第1の水平整合マーカを提供し、
右眼ディスプレイを用いて、第2の垂直整合マーカおよび第2の水平整合マーカを提供する、
ように構成される、実施例24に記載の拡張現実システム。
ユーザによって視認されると、第1および第2の垂直整合マーカは、ユーザの視覚内でともに融合し、第1および第2の水平整合マーカは、ユーザの視覚内で融合されないままである、実施例30に記載の拡張現実システム。
ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節するために、少なくとも1つのプロセッサは、
第1および第2の水平整合マーカのうちの少なくとも1つを垂直に移動させるためのユーザ入力を受信するように構成される、実施例30に記載の拡張現実システム。
ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節するために、少なくとも1つのプロセッサは、
第1および第2の水平整合マーカがユーザの視覚内で相互に垂直に整合されるまで、第1および第2の水平整合マーカのうちの少なくとも1つを垂直に移動させるためのユーザ入力を受信するように構成される、実施例30に記載の拡張現実システム。
少なくとも1つのプロセッサはさらに、
左眼整合マーカを提示するための第1の垂直位置を選択し、
右眼整合マーカを提示するための第2の垂直位置を選択する、
ように構成され、左眼ディスプレイおよび右眼ディスプレイを用いて、それぞれ、左眼整合マーカおよび右眼整合マーカを提供するために、少なくとも1つのプロセッサは、
左眼ディスプレイを用いて、左眼整合マーカを第1の垂直位置に提供し、
右眼ディスプレイを用いて、右眼整合マーカを第2の垂直位置に提供する、
ように構成される、実施例24に記載の拡張現実システム。
左眼整合マーカを提示するための第1の垂直位置を選択し、右眼整合マーカを提示するための第2の垂直位置を選択するために、少なくとも1つのプロセッサは、
擬似または準ランダムに、左眼整合マーカを提示するための第1の垂直位置を選択し、
擬似または準ランダムに、右眼整合マーカを提示するための第2の垂直位置を選択する、
ように構成される、実施例24に記載の拡張現実システム。
受信されたユーザ入力に基づいて、左眼および右眼ディスプレイのうちの少なくとも1つ内の画像コンテンツを垂直に調節するために、少なくとも1つのプロセッサは、
受信されたユーザ入力、選択された第1の垂直位置、および選択された第2の垂直位置に基づいて、左眼および右眼ディスプレイのうちの少なくとも1つ内の画像コンテンツを垂直に調節するように構成される、実施例24に記載の拡張現実システム。
受信されたユーザ入力に基づいて、左眼および右眼ディスプレイのうちの少なくとも1つ内の画像コンテンツを垂直に調節するために、少なくとも1つのプロセッサは、
左眼ディスプレイと関連付けられる第1のレンダリングカメラおよび右眼ディスプレイと関連付けられる第2のレンダリングカメラのうちの少なくとも1つの1つ以上の付帯パラメータを調節するように構成される、実施例24に記載の拡張現実システム。
1つ以上の付帯パラメータは、位置および配向のうちの少なくとも1つを含む、実施例37に記載の拡張現実システム。
ユーザの眼の画像を捕捉するように構成される、結像システムをさらに備え、
少なくとも1つのプロセッサは、結像システムに通信可能に結合され、少なくとも1つのプロセッサはさらに、
少なくとも部分的に、結像システムによって捕捉された1つ以上の画像に基づいて、頭部搭載型ディスプレイがユーザの左および右眼に対して水平であるかどうかを決定するように構成される、実施例24に記載の拡張現実システム。
少なくとも1つのプロセッサは、頭部搭載型ディスプレイがユーザの左および右眼に対して水平であることの決定に応答して、左眼ディスプレイおよび右眼ディスプレイを用いて、それぞれ、左眼整合マーカおよび右眼整合マーカを提供するように構成される、実施例39に記載の拡張現実システム。
左眼ディスプレイは、第1の導波管スタックを備え、右眼ディスプレイは、第2の導波管スタックを備え、そのそれぞれは、光をユーザに出力するように構成される、複数の導波管を備え、
左眼ディスプレイおよび右眼ディスプレイを用いて、それぞれ、左眼整合マーカおよび右眼整合マーカを提供するために、少なくとも1つのプロセッサは、
第1の導波管スタック内の複数の導波管のうちの単一のものを用いて、左眼整合マーカを提供し、
第2の導波管スタック内の複数の導波管のうちの単一のものを用いて、右眼整合マーカを提供する、
ように構成される、実施例24に記載の拡張現実システム。
拡張現実システムであって、
光をユーザに出力することによって仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、
ユーザの眼の画像を捕捉するように構成される、結像システムと、
頭部搭載型ディスプレイおよび結像システムに通信可能に結合される、少なくとも1つのプロセッサであって、
少なくとも部分的に、結像システムによって捕捉された1つ以上の画像に基づいて、ユーザの左眼と右眼との間に延在する、ユーザの眼球間軸を決定し、
ユーザの眼球間軸に対する頭部搭載型ディスプレイの配向を決定し、
ユーザに、ユーザの眼球間軸に対する頭部搭載型ディスプレイの決定された配向に基づいて、フィードバックを提供する、
ように構成される、少なくとも1つのプロセッサと、
を備える、拡張現実システム。
ユーザに、ユーザの眼球間軸に対する頭部搭載型ディスプレイの決定された配向に基づいて、フィードバックを提供するために、少なくとも1つのプロセッサは、
ユーザの左および右眼に対する頭部搭載型ディスプレイの決定された配向に関連して変化する配向を有する、水平マーカを提示するように構成される、実施例42に記載の拡張現実システム。
ユーザに、ユーザの眼球間軸に対する頭部搭載型ディスプレイの決定された配向に基づいて、フィードバックを提供するために、少なくとも1つのプロセッサは、
頭部搭載型ディスプレイの配向と関連付けられる、静的水平マーカを提示し、
眼球間軸の配向と関連付けられる、動的水平マーカを提示し、動的水平マーカは、眼球間軸の配向が頭部搭載型ディスプレイに対して変化するにつれて、静的水平マーカに対して移動する、
ように構成される、実施例42に記載の拡張現実システム。
動的水平マーカは、頭部搭載型ディスプレイが眼球間軸に対して水平であるとき、静的水平マーカとマージする、実施例44に記載の拡張現実システム。
少なくとも部分的に、結像システムによって捕捉された1つ以上の画像に基づいて、ユーザの左眼と右眼との間に延在する、ユーザの眼球間軸を決定するために、少なくとも1つのプロセッサは、
少なくとも部分的に、結像システムによって捕捉されたユーザの左眼の1つ以上の画像に基づいて、ユーザの左眼の回転中心を決定し、
少なくとも部分的に、結像システムによって捕捉されたユーザの右眼の1つ以上の画像に基づいて、ユーザの右眼の回転中心を決定し、
ユーザの左および右眼の回転中心間に延在する、線の位置を決定し、線は、ユーザの眼球間軸を構成する、
ように構成される、実施例42に記載の拡張現実システム。
少なくとも1つのプロセッサはさらに、
ユーザが少なくとも閾値時間量にわたって頭部搭載型ディスプレイを装着しているかどうかを決定するように構成され、
少なくとも1つのプロセッサは、ユーザが少なくとも閾値時間量にわたって頭部搭載型ディスプレイを装着していることの決定に応答して、少なくとも部分的に、結像システムによって捕捉された1つ以上の画像に基づいて、ユーザの左眼と右眼との間に延在する、ユーザの眼球間軸を決定するように構成される、
実施例42に記載の拡張現実システム。
少なくとも1つのプロセッサはさらに、
ユーザの眼球間軸に対する頭部搭載型ディスプレイの決定された配向に基づいて、頭部搭載型ディスプレイがユーザの左および右眼に対して水平であるかどうかを決定するように構成される、実施例42に記載の拡張現実システム。
少なくとも1つのプロセッサはさらに、頭部搭載型ディスプレイがユーザの左および右眼に対して水平であることの決定に応答して、
頭部搭載型ディスプレイの左眼ディスプレイを用いて、左眼整合マーカを提供し、
頭部搭載型ディスプレイの右眼ディスプレイを用いて、右眼整合マーカを提供し、
ユーザ入力を受信し、左眼および右眼整合マーカのうちの少なくとも1つを調節し、
受信されたユーザ入力に基づいて、左眼および右眼ディスプレイのうちの少なくとも1つ内の画像コンテンツを垂直に調節する、
ように構成される、実施例46に記載の拡張現実システム。
ユーザに、ユーザの眼球間軸に対する頭部搭載型ディスプレイの決定された配向に基づいて、フィードバックを提供するために、少なくとも1つのプロセッサは、
(ウェアラブルシステムの3Dディスプレイの実施例)
(ウェアラブルシステムの例示的コンポーネント)
(導波管スタックアセンブリ)
(ウェアラブルシステムの他のコンポーネント)
(眼画像の実施例)
(眼追跡システムの実施例)
(眼追跡モジュールの実施例)
(レンダリングコントローラの実施例)
(位置合わせオブザーバの実施例)
(眼追跡システムを用いてユーザの角膜を位置特定する実施例)
(眼追跡画像の座標系を正規化する実施例)
(眼追跡システムを用いてユーザの瞳孔重心を位置特定する実施例)
(光学軸と視軸との間の差異の実施例)
(コンテンツをレンダリングし、眼追跡に基づいて位置合わせをチェックする例示的プロセス)
(デバイス位置合わせの概要)
(位置合わせ座標系の実施例)
(左および右眼ディスプレイをユーザの頭部上で垂直に整合させる実施例)
(左および右眼ディスプレイをユーザの頭部上で垂直に整合させる例示的プロセス)
(周囲環境内のオブジェクトを検出するためのコンピュータビジョン)
(機械学習)
(他の考慮点)
Claims (23)
- 拡張現実システムであって、
光をユーザに出力することによって仮想コンテンツを提示するように構成される頭部搭載型ディスプレイと、
前記ユーザの眼の画像を捕捉するように構成される結像デバイスと、
前記頭部搭載型ディスプレイおよび前記結像デバイスに通信可能に結合される少なくとも1つのプロセッサであって、前記少なくとも1つのプロセッサは、
左眼ディスプレイを用いて、左眼整合マーカを提供することと、
右眼ディスプレイを用いて、右眼整合マーカを提供することと、
ユーザ入力を受信し、前記左眼整合マーカおよび前記右眼整合マーカのうちの少なくとも1つを調節することと、
前記受信されたユーザ入力に基づいて、前記左眼ディスプレイおよび右眼ディスプレイのうちの少なくとも1つ内の画像コンテンツを垂直に調節することと
を行うように構成される、少なくとも1つのプロセッサと
を備える、拡張現実システム。 - 前記プロセッサは、
前記頭部搭載型ディスプレイシステムがユーザの左眼および右眼に対して水平であるかどうかを決定することと、
前記左眼整合マーカまたは右眼整合マーカを提供する前に、前記ユーザに、前記頭部搭載型ディスプレイシステムがユーザの左眼および右眼に対して水平であるかどうかに関するフィードバックを提供することと
を行うように構成される、請求項1に記載の拡張現実システム。 - 前記プロセッサは、前記ユーザに、ユーザの左眼および右眼に対する前記頭部搭載型ディスプレイの配向に関連して変化する配向を有する水平マーカを提示することによって、前記頭部搭載型ディスプレイがユーザの左眼および右眼に対して水平であるかどうかに関するフィードバックを提供するように構成される、請求項1に記載の拡張現実システム。
- 眼追跡システムをさらに備え、前記プロセッサは、前記眼追跡システムからの眼追跡データに基づいて、前記頭部搭載型ディスプレイシステムがユーザの左眼および右眼に対して水平であるかどうかを決定するように構成される、請求項1に記載の拡張現実システム。
- 眼追跡システムをさらに備え、前記プロセッサはさらに、前記眼追跡システムからの眼追跡データに基づいて、前記ユーザの左眼と右眼との間に延在する前記ユーザの眼球間軸を決定するように構成される、請求項1に記載の拡張現実システム。
- 前記プロセッサはさらに、前記ユーザの眼球間軸に対する前記眼追跡システムの配向を決定することによって、前記頭部搭載型ディスプレイシステムがユーザの左眼および右眼に対して水平であるかどうかを決定するように構成される、請求項5に記載の拡張現実システム。
- 前記プロセッサは、前記ユーザに、前記ユーザの眼球間軸に対する前記眼追跡システムの配向に関連して変化する配向を有する水平マーカを提示することによって、前記頭部搭載型ディスプレイがユーザの左眼および右眼に対して水平であるかどうかに関するフィードバックを提供するように構成される、請求項5に記載の拡張現実システム。
- 前記プロセッサは、前記ユーザに、前記頭部搭載型ディスプレイの配向と関連付けられる静的水平マーカを提示し、前記眼球間軸の配向と関連付けられる動的水平マーカを提示することによって、前記頭部搭載型ディスプレイがユーザの左眼および右眼に対して水平であるかどうかに関するフィードバックを提供するように構成され、前記動的水平マーカは、前記眼球間軸の配向が前記頭部搭載型ディスプレイに対して変化するにつれて、前記静的水平マーカに対して移動する、請求項5に記載の拡張現実システム。
- 前記動的水平マーカは、前記頭部搭載型ディスプレイが前記眼球間軸に対して水平であるとき、前記静的水平マーカとマージする、請求項8に記載の拡張現実システム。
- 前記左眼整合マーカは、第1の水平線を備え、前記右眼整合マーカは、第2の水平線を備える、請求項1に記載の拡張現実システム。
- 前記プロセッサは、前記第1および第2の水平線のうちの少なくとも1つを上昇または降下させるためのユーザ入力の形態において、ユーザ入力を受信し、前記左眼整合マーカおよび右眼整合マーカのうちの少なくとも1つを調節するように構成される、請求項10に記載の拡張現実システム。
- 前記プロセッサは、前記第1および第2の水平線が前記ユーザの視点から水平になるまで、前記第1および第2の水平線のうちの少なくとも1つを上昇または降下させるためのユーザ入力の形態において、ユーザ入力を受信し、前記左眼整合マーカおよび右眼整合マーカのうちの少なくとも1つを調節するように構成される、請求項10に記載の拡張現実システム。
- 前記頭部搭載型ディスプレイは、前記世界からの光を前記ユーザの左眼の中に通過させるように構成される第1の導波管スタックと、前記世界からの光を前記ユーザの右眼の中に通過させるように構成される第2の導波管スタックとを備え、各導波管スタックは、複数の導波管を備える、請求項1に記載の拡張現実システム。
- 前記頭部搭載型ディスプレイは、前記世界からの光を前記ユーザの左眼の中に通過させるように構成される第1の導波管スタックと、前記世界からの光を前記ユーザの右眼の中に通過させるように構成される第2の導波管スタックとを備え、
各導波管スタックは、複数の導波管を備え、その導波管スタックの1つ以上の導波管は、ユーザに、その導波管スタックの1つ以上の他の導波管と異なる量の波面発散を伴う光を出力するように構成され、
異なる量の波面発散は、前記眼による異なる遠近調節と関連付けられ、
前記異なる量の波面発散を伴う出力された光は、仮想オブジェクトを前記ユーザから離れた異なる知覚される深度に形成する、
請求項1に記載の拡張現実システム。 - ユーザの左眼および右眼を用いて、頭部搭載型ディスプレイシステムの左眼ディスプレイおよび右眼ディスプレイの表示されるコンテンツを垂直に整合させるための方法であって、前記方法は、
前記左眼ディスプレイを用いて、左眼整合マーカを提供することと、
前記右眼ディスプレイを用いて、右眼整合マーカを提供することと、
ユーザ入力を受信し、前記左眼整合マーカおよび前記右眼整合マーカのうちの少なくとも1つを調節することと、
前記受信されたユーザ入力に基づいて、前記左眼ディスプレイおよび右眼ディスプレイのうちの少なくとも1つ内の画像コンテンツを垂直に調節することと
を含む、方法。 - ユーザの左眼および右眼に対する前記頭部搭載型ディスプレイシステムの水平度を決定することと、
前記左眼整合マーカまたは右眼整合マーカを提供する前に、前記ユーザに、前記頭部搭載型ディスプレイシステムがユーザの左眼および右眼に対して水平であるかどうかに関するフィードバックを提供することと
をさらに含む、請求項15に記載の方法。 - 前記頭部搭載型ディスプレイシステムは、眼追跡システムを備え、ユーザの左眼および右眼に対する前記頭部搭載型ディスプレイシステムの水平度を決定することは、前記眼追跡システムを利用して、前記ユーザの左眼と右眼との間に延在する前記ユーザの眼球間軸を決定し、前記眼球間軸に対する前記頭部搭載型ディスプレイシステムの水平度を決定することを含む、請求項15に記載の方法。
- 前記眼追跡システムを利用して、前記ユーザの眼球間軸を決定することは、
前記眼追跡システムを用いて、前記ユーザの左眼の回転中心を決定することと、
前記眼追跡システムを用いて、前記ユーザの右眼の回転中心を決定することと、
前記ユーザの左眼および右眼の回転中心間に延在する線の位置を決定することであって、前記線は、前記眼球間軸を構成する、ことと
を含む、請求項17に記載の方法。 - 前記左眼整合マーカを提供することは、前記左眼ディスプレイを用いて、第1の垂直整合マーカおよび第1の水平整合マーカを提供することを含み、前記右眼整合マーカを提供することは、前記右眼ディスプレイを用いて、第2の垂直整合マーカおよび第2の水平整合マーカを提供することを含む、請求項15に記載の方法。
- ユーザによって視認されると、前記第1および第2の垂直整合マーカは、前記ユーザの視覚内でともに融合し、前記第1および第2の水平整合マーカは、前記ユーザの視覚内で融合されないままである、請求項19に記載の方法。
- 前記左眼整合マーカおよび右眼整合マーカのうちの少なくとも1つを調節するためのユーザ入力を受信することは、前記第1および第2の水平整合マーカのうちの少なくとも1つを垂直に移動させるためのユーザ入力を受信することを含む、請求項19に記載の方法。
- 前記左眼整合マーカおよび右眼整合マーカのうちの少なくとも1つを調節するためのユーザ入力を受信することは、前記第1および第2の水平整合マーカが前記ユーザの視覚内で相互に垂直に整合されるまで、前記第1および第2の水平整合マーカのうちの少なくとも1つを垂直に移動させるためのユーザ入力を受信することを含む、請求項19に記載の方法。
- 前記ユーザが所与の閾値時間にわたって前記頭部搭載型ディスプレイシステムを装着していることを決定することと、
前記ユーザが所与の閾値時間にわたって前記頭部搭載型ディスプレイシステムを装着していることの決定に応答して、前記頭部搭載型ディスプレイシステムの水平度を決定することを実施することと
をさらに含む、請求項15に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862702865P | 2018-07-24 | 2018-07-24 | |
US62/702,865 | 2018-07-24 | ||
PCT/US2019/043302 WO2020023672A1 (en) | 2018-07-24 | 2019-07-24 | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021532464A true JP2021532464A (ja) | 2021-11-25 |
JPWO2020023672A5 JPWO2020023672A5 (ja) | 2022-08-01 |
JP7456995B2 JP7456995B2 (ja) | 2024-03-27 |
Family
ID=69181195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021502899A Active JP7456995B2 (ja) | 2018-07-24 | 2019-07-24 | 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11422620B2 (ja) |
EP (1) | EP3827585A4 (ja) |
JP (1) | JP7456995B2 (ja) |
CN (1) | CN112655204A (ja) |
WO (1) | WO2020023672A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11181977B2 (en) * | 2017-11-17 | 2021-11-23 | Dolby Laboratories Licensing Corporation | Slippage compensation in eye tracking |
WO2020023672A1 (en) * | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes |
GB2588774A (en) * | 2019-11-05 | 2021-05-12 | Arspectra Sarl | Augmented reality headset for medical imaging |
CN113010125B (zh) | 2019-12-20 | 2024-03-19 | 托比股份公司 | 方法、计算机程序产品和双目式头戴装置控制器 |
GB2597533B (en) * | 2020-07-28 | 2022-11-23 | Sony Interactive Entertainment Inc | Gaze tracking system and method |
US20230119633A1 (en) * | 2021-10-20 | 2023-04-20 | Microsoft Technology Licensing, Llc | Enhanced eye tracking systems utilizing joint biological and hardware estimations |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221235A (ja) * | 2010-04-08 | 2011-11-04 | Sony Corp | 頭部装着型ディスプレイにおける光学的位置調整方法 |
WO2012172719A1 (ja) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
WO2014017348A1 (ja) * | 2012-07-24 | 2014-01-30 | ソニー株式会社 | 画像表示装置および画像表示方法 |
WO2018067357A2 (en) * | 2016-10-05 | 2018-04-12 | Magic Leap, Inc. | Periocular test for mixed reality calibration |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US6684007B2 (en) * | 1998-10-09 | 2004-01-27 | Fujitsu Limited | Optical coupling structures and the fabrication processes |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
KR101997845B1 (ko) | 2010-12-24 | 2019-10-01 | 매직 립, 인코포레이티드 | 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템 |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CN107656615B (zh) | 2011-05-06 | 2021-09-14 | 奇跃公司 | 大量同时远程数字呈现世界 |
EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
EP3666352B1 (en) | 2011-10-28 | 2021-12-01 | Magic Leap, Inc. | Method and device for augmented and virtual reality |
US9116545B1 (en) * | 2012-03-21 | 2015-08-25 | Hayes Solos Raffle | Input detection |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
KR20150054967A (ko) | 2012-09-11 | 2015-05-20 | 매직 립, 인코포레이티드 | 인체공학적 헤드 마운티드 디스플레이 디바이스 및 광학 시스템 |
US20140240842A1 (en) * | 2013-02-22 | 2014-08-28 | Ian Nguyen | Alignment-insensitive image input coupling |
KR102271198B1 (ko) | 2013-03-15 | 2021-06-29 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US20140375540A1 (en) | 2013-06-24 | 2014-12-25 | Nathan Ackerman | System for optimal eye fit of headset display device |
US9094677B1 (en) * | 2013-07-25 | 2015-07-28 | Google Inc. | Head mounted display device with automated positioning |
EP4321915A3 (en) | 2013-10-16 | 2024-05-01 | Magic Leap, Inc. | Virtual or augmented reality headsets having adjustable interpupillary distance |
CN107219628B (zh) | 2013-11-27 | 2020-05-01 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
US20150193980A1 (en) * | 2014-01-06 | 2015-07-09 | Qualcomm Incorporated | Calibration of augmented reality (ar) optical see-through display using shape-based alignment |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US20160187651A1 (en) * | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
AU2015297035B2 (en) | 2014-05-09 | 2018-06-28 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
TWI577172B (zh) | 2014-09-10 | 2017-04-01 | 鈺立微電子股份有限公司 | 影像校正系統和立體照相機的校正方法 |
JP6887953B2 (ja) * | 2015-03-16 | 2021-06-16 | マジック リープ,インコーポレイティド | 健康を損う疾病を診断して治療する方法及びシステム |
US10271042B2 (en) * | 2015-05-29 | 2019-04-23 | Seeing Machines Limited | Calibration of a head mounted eye tracking system |
WO2017079333A1 (en) | 2015-11-04 | 2017-05-11 | Magic Leap, Inc. | Light field display metrology |
AU2017246901B2 (en) * | 2016-04-08 | 2022-06-02 | Magic Leap, Inc. | Augmented reality systems and methods with variable focus lens elements |
US10133071B2 (en) * | 2016-09-28 | 2018-11-20 | Intel Corporation | Replaceable optical element for near eye display |
US10521662B2 (en) * | 2018-01-12 | 2019-12-31 | Microsoft Technology Licensing, Llc | Unguided passive biometric enrollment |
WO2020023672A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes |
US11042034B2 (en) * | 2018-12-27 | 2021-06-22 | Facebook Technologies, Llc | Head mounted display calibration using portable docking station with calibration target |
US10650785B1 (en) * | 2019-02-21 | 2020-05-12 | Microsoft Technology Licensing, Llc | Color management of display device |
US11099384B2 (en) * | 2019-03-27 | 2021-08-24 | Lenovo (Singapore) Pte. Ltd. | Adjusting display settings of a head-mounted display |
US10678059B1 (en) * | 2019-04-02 | 2020-06-09 | Microsoft Technology Licensing, Llc | Concealed shock protector for head-mounted device display |
US20220082739A1 (en) * | 2020-09-17 | 2022-03-17 | Facebook Technologies, Llc | Techniques for manufacturing variable etch depth gratings using gray-tone lithography |
-
2019
- 2019-07-24 WO PCT/US2019/043302 patent/WO2020023672A1/en unknown
- 2019-07-24 US US17/258,083 patent/US11422620B2/en active Active
- 2019-07-24 EP EP19840270.3A patent/EP3827585A4/en active Pending
- 2019-07-24 JP JP2021502899A patent/JP7456995B2/ja active Active
- 2019-07-24 CN CN201980058118.0A patent/CN112655204A/zh active Pending
-
2022
- 2022-08-18 US US17/890,998 patent/US11822718B2/en active Active
-
2023
- 2023-10-13 US US18/486,848 patent/US20240036645A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221235A (ja) * | 2010-04-08 | 2011-11-04 | Sony Corp | 頭部装着型ディスプレイにおける光学的位置調整方法 |
WO2012172719A1 (ja) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
WO2014017348A1 (ja) * | 2012-07-24 | 2014-01-30 | ソニー株式会社 | 画像表示装置および画像表示方法 |
WO2018067357A2 (en) * | 2016-10-05 | 2018-04-12 | Magic Leap, Inc. | Periocular test for mixed reality calibration |
Also Published As
Publication number | Publication date |
---|---|
EP3827585A1 (en) | 2021-06-02 |
US11822718B2 (en) | 2023-11-21 |
EP3827585A4 (en) | 2022-04-27 |
US20220391013A1 (en) | 2022-12-08 |
US20210181840A1 (en) | 2021-06-17 |
US20240036645A1 (en) | 2024-02-01 |
US11422620B2 (en) | 2022-08-23 |
WO2020023672A1 (en) | 2020-01-30 |
CN112655204A (zh) | 2021-04-13 |
JP7456995B2 (ja) | 2024-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7415077B2 (ja) | ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法 | |
JP7443332B2 (ja) | ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択 | |
JP7291708B2 (ja) | ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法 | |
JP2021511723A (ja) | 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け | |
JP2022523021A (ja) | 異なる露光時間を有する画像を使用した眼追跡 | |
JP7456995B2 (ja) | 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法 | |
CN115053270A (zh) | 用于基于用户身份来操作头戴式显示系统的系统和方法 | |
CN114424147A (zh) | 利用一个或多个眼睛跟踪相机确定眼睛旋转中心 | |
CN116033864A (zh) | 使用非球形角膜模型的眼睛跟踪 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220722 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230727 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7456995 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |