JP7431246B2 - 異なる露光時間を有する画像を使用した眼追跡 - Google Patents
異なる露光時間を有する画像を使用した眼追跡 Download PDFInfo
- Publication number
- JP7431246B2 JP7431246B2 JP2021542152A JP2021542152A JP7431246B2 JP 7431246 B2 JP7431246 B2 JP 7431246B2 JP 2021542152 A JP2021542152 A JP 2021542152A JP 2021542152 A JP2021542152 A JP 2021542152A JP 7431246 B2 JP7431246 B2 JP 7431246B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- flash
- display system
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000001508 eye Anatomy 0.000 claims description 573
- 206010034962 Photopsia Diseases 0.000 claims description 54
- 210000004087 cornea Anatomy 0.000 claims description 46
- 230000036961 partial effect Effects 0.000 claims description 12
- 238000000034 method Methods 0.000 description 129
- 210000001747 pupil Anatomy 0.000 description 125
- 230000033001 locomotion Effects 0.000 description 91
- 238000009877 rendering Methods 0.000 description 91
- 230000003287 optical effect Effects 0.000 description 87
- 238000012545 processing Methods 0.000 description 47
- 229910000065 phosphene Inorganic materials 0.000 description 45
- 238000003384 imaging method Methods 0.000 description 39
- 238000001514 detection method Methods 0.000 description 35
- XYFCBTPGUUZFHI-UHFFFAOYSA-N Phosphine Chemical group P XYFCBTPGUUZFHI-UHFFFAOYSA-N 0.000 description 34
- 210000000695 crystalline len Anatomy 0.000 description 33
- 210000000554 iris Anatomy 0.000 description 32
- 230000008569 process Effects 0.000 description 25
- 230000004434 saccadic eye movement Effects 0.000 description 25
- 230000000007 visual effect Effects 0.000 description 22
- 238000000605 extraction Methods 0.000 description 16
- 210000003128 head Anatomy 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 13
- 230000004308 accommodation Effects 0.000 description 12
- 238000002372 labelling Methods 0.000 description 12
- 230000036544 posture Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 210000000744 eyelid Anatomy 0.000 description 10
- 230000002829 reductive effect Effects 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 8
- 238000010606 normalization Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 7
- 230000004424 eye movement Effects 0.000 description 7
- 230000000284 resting effect Effects 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 238000003863 fast low-angle shot imaging Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 210000001525 retina Anatomy 0.000 description 6
- 229920006395 saturated elastomer Polymers 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000029777 axis specification Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000011514 reflex Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000002350 accommodative effect Effects 0.000 description 3
- 210000002159 anterior chamber Anatomy 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 210000003786 sclera Anatomy 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000014616 translation Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 231100000869 headache Toxicity 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 241000284156 Clerodendrum quadriloculare Species 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000001711 saccadic effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Eye Examination Apparatus (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
本願は、参照することによってその全体として本明細書に組み込まれる、2019年1月25日に出願され、「EYE-TRACKING USING IMAGES HAVING DIFFERENT EXPOSURE TIMES」と題された、米国特許出願第62/797,072号の優先権の利益を主張する。
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブルディスプレイシステムであって、
頭部搭載型ディスプレイであって、前記頭部搭載型ディスプレイは、光を前記頭部搭載型ディスプレイの装着者の眼に出力することによって、仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、
少なくとも1つの光源であって、前記少なくとも1つの光源は、光を前記装着者の眼に向かって指向するように構成される、少なくとも1つの光源と、
少なくとも1つの眼追跡カメラであって、前記少なくとも1つの眼追跡カメラは、
前記装着者の眼の第1の画像であって、前記装着者の眼の第1の画像は、第1のフレームレートおよび第1の露光時間において捕捉される、前記装着者の眼の第1の画像と、
前記装着者の眼の第2の画像であって、前記装着者の眼の第2の画像は、前記第1のフレームレート以上の第2のフレームレートと、前記第1の露光時間未満の第2の露光時間とにおいて捕捉される、前記装着者の眼の第2の画像と
を捕捉するように構成される、少なくとも1つの眼追跡カメラと、
前記頭部搭載型ディスプレイおよび前記少なくとも1つの眼追跡カメラに通信可能に結合される少なくとも1つのハードウェアプロセッサであって、前記少なくとも1つのハードウェアプロセッサは、
前記第1の画像を分析し、前記眼の瞳孔中心を決定することと、
前記第2の画像を分析し、前記眼からの前記光源の反射の位置を決定することと、
前記瞳孔中心および前記反射の位置から、前記眼の視線方向を決定することと、
前記視線方向および前の視線方向データから、将来的視線時間における前記眼の将来的視線方向を推定することと、
前記頭部搭載型ディスプレイに、少なくとも部分的に、前記将来的視線方向に基づいて、前記将来的視線時間に、前記仮想コンテンツを提示させることと
を行うようにプログラムされる、少なくとも1つのハードウェアプロセッサと
を備える、ウェアラブルディスプレイシステム。
(項目2)
前記少なくとも1つの光源は、少なくとも1つの赤外線光源を備える、項目1に記載のウェアラブルディスプレイシステム。
(項目3)
前記少なくとも1つのハードウェアプロセッサは、前記第1の画像または前記第2の画像を分析し、前記装着者の眼の回転中心または目線中心を決定するようにプログラムされる、項目1または項目2に記載のウェアラブルディスプレイシステム。
(項目4)
前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、閾値を前記第2の画像に適用する、前記第2の画像内の非最大値を識別する、または前記第2の画像内の非最大値を抑制または除去するようにプログラムされる、項目1-3のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目5)
前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、少なくとも部分的に、前記第2の画像からの前の画像内の前記光源の反射の位置に基づいて、前記第2の画像からの現在の画像内の前記光源の反射のための検索領域を識別するようにプログラムされる、項目1-4のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目6)
前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、
前記少なくとも1つの光源の複数の反射の共通速度を決定することと、
前記少なくとも1つの光源の反射の速度が、閾値量を上回って前記共通速度と異なるかどうかを決定することと
を行うようにプログラムされる、項目1-5のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目7)
前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、前記光源の反射が前記眼の角膜の非球状部分からであるかどうかを決定するようにプログラムされる、項目1-6のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目8)
前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、前記光源の反射の少なくとも部分的オクルージョンの存在を識別するようにプログラムされる、項目1-7のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目9)
前記少なくとも1つのハードウェアプロセッサは、少なくとも部分的に、前記光源の反射の位置および閃光-瞳孔関係に基づいて、前記瞳孔中心の推定される位置を決定するようにプログラムされる、項目1-8のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目10)
前記閃光-瞳孔関係は、閃光位置と瞳孔中心位置との間の線形関係を含む、項目9に記載のウェアラブルディスプレイシステム。
(項目11)
前記第1の露光時間は、200μs~1,200μsの範囲内である、項目1-10のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目12)
前記第1のフレームレートは、10フレーム/秒~60フレーム/秒の範囲内である、項目1-11のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目13)
前記第2の露光時間は、5μs~100μsの範囲内である、項目1-12のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目14)
前記第2のフレームレートは、100フレーム/秒~1,000フレーム/秒の範囲内である、項目1-13のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目15)
前記第1の露光時間対前記第2の露光時間の比は、5~50の範囲内である、項目1-14のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目16)
前記第2のフレームレート対前記第1のフレームレートの比は、1~100の範囲内である、項目1-15のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目17)
前記将来的視線時間は、5ms~100msの範囲内である、項目1-16のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目18)
前記少なくとも1つのハードウェアプロセッサは、
第1のハードウェアプロセッサであって、前記第1のハードウェアプロセッサは、前記ウェアラブルディスプレイシステムの非頭部搭載型コンポーネント上に配置される、第1のハードウェアプロセッサと、
第2のハードウェアプロセッサであって、前記第2のハードウェアプロセッサは、前記頭部搭載型ディスプレイ内または前記頭部搭載型ディスプレイ上に配置される、第2のハードウェアプロセッサと
を備え、
前記第1のハードウェアプロセッサは、前記第1の画像を分析するために利用され、
前記第2のハードウェアプロセッサは、前記第2の画像を分析するために利用される、
項目1-17のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目19)
前記第2のハードウェアプロセッサは、前記第2の画像のそれぞれの少なくとも一部を記憶するように構成されるメモリバッファを含み、またはそれと関連付けられ、前記第2のハードウェアプロセッサは、前記眼からの前記光源の反射の位置の決定後、前記第2の画像のそれぞれの少なくとも一部を削除するようにプログラムされる、項目18に記載のウェアラブルディスプレイシステム。
(項目20)
前記少なくとも1つのハードウェアプロセッサは、前記第1の画像と前記第2の画像を組み合わせないようにプログラムされる、項目1-19のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目21)
眼追跡のための方法であって、前記方法は、
眼追跡カメラを介して、第1のフレームレートおよび第1の露光時間において、眼の第1の画像を捕捉することと、
前記眼追跡カメラを介して、前記第1のフレームレート以上の第2のフレームレートと、前記第1の露光時間未満の第2の露光時間とにおいて、前記眼の第2の画像を捕捉することと、
少なくとも、前記第1の画像から、前記眼の瞳孔中心を決定することと、
少なくとも、前記第2の画像から、前記眼からの光源の反射の位置を決定することと、
前記瞳孔中心および前記反射の位置から、前記眼の視線方向を決定することと
を含む、方法。
(項目22)
ディスプレイに、少なくとも部分的に、前記視線方向に基づいて、仮想コンテンツをレンダリングさせることをさらに含む、項目21に記載の方法。
(項目23)
少なくとも部分的に、前記視線方向および前の視線方向データに基づいて、将来的視線時間における将来的視線方向を推定することをさらに含む、項目21または項目22に記載の方法。
(項目24)
ディスプレイに、少なくとも部分的に、前記将来的視線方向に基づいて、仮想コンテンツをレンダリングさせることをさらに含む、項目23に記載の方法。
(項目25)
前記第1の露光時間は、200μs~1,200μsの範囲内である、項目21-24のいずれか1項に記載の方法。
(項目26)
前記第1のフレームレートは、10フレーム/秒~60フレーム/秒の範囲内である、項目21-25のいずれか1項に記載の方法。
(項目27)
前記第2の露光時間は、5μs~100μsの範囲内である、項目21-26のいずれか1項に記載の方法。
(項目28)
前記第2のフレームレートは、100フレーム/秒~1,000フレーム/秒の範囲内である、項目21-27のいずれか1項に記載の方法。
(項目29)
前記第1の露光時間対前記第2の露光時間の比は、5~50の範囲内である、項目21-28のいずれか1項に記載の方法。
(項目30)
前記第2のフレームレート対前記第1のフレームレートの比は、1~100の範囲内である、項目21-29のいずれか1項に記載の方法。
(項目31)
ウェアラブルディスプレイシステムであって、
頭部搭載型ディスプレイであって、前記頭部搭載型ディスプレイは、光を前記頭部搭載型ディスプレイの装着者の眼に出力することによって、仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、
光源であって、前記光源は、光を前記装着者の眼に向かって指向するように構成される、光源と、
眼追跡カメラであって、前記眼追跡カメラは、前記装着者の眼の画像を捕捉するように構成され、前記眼追跡カメラは、交互に、
第1の露光時間において、第1の画像を捕捉することと、
前記第1の露光時間未満の第2の露光時間において、第2の画像を捕捉することと
を行うように構成される、眼追跡カメラと、
複数の電子ハードウェアコンポーネントであって、そのうちの少なくとも1つは、前記頭部搭載型ディスプレイ、前記眼追跡カメラ、および前記複数の電子ハードウェアコンポーネント内の少なくとも1つの他の電子ハードウェアコンポーネントに通信可能に結合されるハードウェアプロセッサを備え、前記ハードウェアプロセッサは、
前記眼追跡カメラによって前記第1の露光時間において捕捉された前記装着者の眼の各第1の画像を受信し、前記少なくとも1つの他の電子ハードウェアコンポーネントに中継することと、
前記眼追跡カメラによって前記第2の露光時間において捕捉された前記装着者の眼の各第2の画像のピクセルを受信し、バッファに記憶することと、
前記バッファ内に記憶されたピクセルを分析し、前記光源の反射が、前記眼追跡カメラによって前記第2の露光時間において捕捉された前記装着者の眼の各第2の画像内に存在する場所を識別することと、
前記場所を示す場所データを前記少なくとも1つの他の電子ハードウェアコンポーネントに伝送することと
を行うようにプログラムされる、複数の電子ハードウェアコンポーネントと
を備え、
前記少なくとも1つの他の電子ハードウェアコンポーネントは、
前記眼追跡カメラによって前記第1の露光時間において捕捉された前記装着者の眼の各第1の画像を分析し、前記眼の瞳孔中心の場所を識別することと、
前記瞳孔中心の場所および前記ハードウェアプロセッサから受信された場所データから、前記装着者の眼の視線方向を決定することと
を行うように構成される、ウェアラブルディスプレイシステム。
(項目32)
前記第1の露光時間は、200μs~1,200μsの範囲内である、項目31に記載のウェアラブルディスプレイシステム。
(項目33)
前記第2の露光時間は、5μs~100μsの範囲内である、項目31または項目32に記載のウェアラブルディスプレイシステム。
(項目34)
前記眼追跡カメラは、10フレーム/秒~60フレーム/秒の範囲内である第1のフレームレートにおいて、前記第1の画像を捕捉するように構成される、項目31-33のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目35)
前記眼追跡カメラは、100フレーム/秒~1,000フレーム/秒の範囲内である第2のフレームレートにおいて、前記第2の画像を捕捉するように構成される、項目31-34のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目36)
前記第1の露光時間対前記第2の露光時間の比は、5~50の範囲内である、項目31-35のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目37)
前記少なくとも1つの他の電子ハードウェアコンポーネントは、前記ウェアラブルディスプレイシステムの非頭部搭載型コンポーネント内または前記非頭部搭載型コンポーネント上に配置される、項目31-36のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目38)
前記非頭部搭載型コンポーネントは、ベルトパックを備える、項目37に記載のウェアラブルディスプレイシステム。
(項目39)
前記眼の各第2の画像のピクセルは、各第2の画像のピクセルの全てより少ないピクセルを含む、項目31-38のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目40)
前記ピクセルは、n×mのピクセルのアレイを含み、nおよびmはそれぞれ、1~20の範囲内の整数である、項目31-39のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目41)
前記複数の電子ハードウェアコンポーネントはさらに、
前記視線方向および前の視線方向データから、将来的視線時間における前記眼の将来的視線方向を推定することと、
前記頭部搭載型ディスプレイに、少なくとも部分的に、前記将来的視線方向に基づいて、前記将来的視線時間に、仮想コンテンツを提示させることと
を行うように構成される、項目31-40のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目42)
前記ハードウェアプロセッサは、閾値を前記バッファ内に記憶されたピクセルに適用する、前記バッファ内に記憶されたピクセル内の非最大値を識別する、または前記バッファ内に記憶されたピクセル内の非最大値を抑制または除去するようにプログラムされる、項目31-41のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目43)
前記ハードウェアプロセッサは、
前記光源の反射の共通速度を決定することと、
前記光源の反射の速度が閾値量を上回って前記共通速度と異なるかどうかを決定することと
を行うようにプログラムされる、項目31-42のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目44)
前記ハードウェアプロセッサは、前記光源の反射の場所が前記眼の角膜の非球状部分からであるかどうかを決定するようにプログラムされる、項目31-43のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目45)
前記ハードウェアプロセッサは、前記光源の反射の少なくとも部分的オクルージョンの存在を識別するようにプログラムされる、項目31-44のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目46)
前記少なくとも1つの他の電子ハードウェアコンポーネントは、少なくとも部分的に、前記光源の反射の場所および閃光-瞳孔関係に基づいて、前記瞳孔中心の場所を識別するようにプログラムされる、項目31-45のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目47)
前記第2のハードウェアプロセッサは、閃光を識別し、前記閃光に関する閃光位置情報を前記第1のハードウェアプロセッサに提供するように構成される、項目18-20のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目48)
前記第1のハードウェアプロセッサは、視線を前記閃光位置から決定するように構成される、項目47に記載のウェアラブルディスプレイシステム。
(項目49)
前記第2のハードウェアプロセッサは、閃光候補を識別し、前記閃光候補に関する位置情報を前記第1のハードウェアプロセッサに提供するように構成される、項目18-20のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目50)
前記第1のハードウェアプロセッサは、前記閃光候補のサブセットを識別し、前記閃光候補のサブセットを使用して、1つ以上の動作を実施するように構成される、項目49に記載のウェアラブルディスプレイシステム。
(項目51)
前記第1のハードウェアプロセッサは、前記閃光候補に基づいて、視線を決定するように構成される、項目50に記載のウェアラブルディスプレイシステム。
(項目52)
前記ハードウェアプロセッサは、閃光候補および前記閃光候補の関連付けられる場所を識別し、前記閃光候補の場所を示す場所データを前記少なくとも1つの他の電子ハードウェアコンポーネントに伝送するようにプログラムされる、項目31-46のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目53)
前記少なくとも1つの他の電子ハードウェアコンポーネントは、前記閃光候補のサブセットを識別し、前記閃光候補のサブセットを使用して、1つ以上の動作を実施するように構成される、項目52に記載のウェアラブルディスプレイシステム。
(項目54)
前記少なくとも1つの他の電子ハードウェアコンポーネントは、前記装着者の眼の視線方向を前記閃光候補のサブセットから決定するように構成される、項目53に記載のウェアラブルディスプレイシステム。
(概要)
(ウェアラブルシステムの3Dディスプレイの実施例)
(ウェアラブルシステムの例示的コンポーネント)
(導波管スタックアセンブリ)
(眼画像の実施例)
(眼追跡システムの実施例)
(眼追跡モジュールの実施例)
(眼追跡システムを用いた閃光の位置特定の実施例)
(異なる露光時間を用いた複数の画像を使用した眼結像)
(多重露光時間眼結像のためのフレームレート)
(閃光運動検出器)
(例示的閃光-瞳孔運動関係)
(中心窩化レンダリングのための視線予測)
(眼追跡のための例示的方法)
(付加的実施例)
(パートI)
ウェアラブルディスプレイシステムであって、光を頭部搭載型ディスプレイの装着者の眼に出力することによって、仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、光を装着者の眼に向かって指向するように構成される、光源と、第1のフレームレートおよび第1の露光時間において捕捉される、装着者の眼の第1の画像と、第1のフレームレート以上の第2のフレームレートと、第1の露光時間未満の第2の露光時間とにおいて捕捉される、装着者の眼の第2の画像とを捕捉するように構成される、眼追跡カメラと、頭部搭載型ディスプレイおよび眼追跡カメラに通信可能に結合される、ハードウェアプロセッサであって、第1の画像を分析し、眼の瞳孔中心を決定し、第2の画像を分析し、眼からの光源の反射の位置を決定し、瞳孔中心および反射の位置から、眼の視線方向を決定し、視線方向および前の視線方向データから、将来的視線時間における将来的眼の視線方向を推定し、頭部搭載型ディスプレイに、少なくとも部分的に、将来的視線方向に基づいて、将来的視線時間に、仮想コンテンツを提示させるようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルディスプレイシステム。
光源は、赤外線光源を備える、ウェアラブルディスプレイ実施例1に記載のシステム。
ハードウェアプロセッサは、第1の画像または第2の画像を分析し、装着者の眼の回転中心または目線中心を決定するようにプログラムされる、実施例1または実施例2に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、ハードウェアプロセッサは、閾値を第2の画像に適用する、第2の画像内の非最大値を識別する、または第2の画像内の非最大値を抑制または除去するようにプログラムされる、実施例1-3のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、ハードウェアプロセッサは、少なくとも部分的に、第2の画像からの前の画像内の光源の反射の位置に基づいて、第2の画像からの現在の画像内の光源の反射のための検索領域を識別するようにプログラムされる、実施例1-4のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、ハードウェアプロセッサは、複数の光源の反射の共通速度を決定し、光源の反射の速度が閾値量を上回って共通速度と異なるかどうかを決定するようにプログラムされる、実施例1-5のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、ハードウェアプロセッサは、光源の反射が眼の角膜の非球状部分からであるかどうかを決定するようにプログラムされる、実施例1-6のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、ハードウェアプロセッサは、光源の反射の少なくとも部分的オクルージョンの存在を識別するようにプログラムされる、実施例1-7のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、少なくとも部分的に、光源の反射の位置および閃光-瞳孔関係に基づいて、瞳孔中心の推定される位置を決定するようにプログラムされる、実施例1-8のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
閃光-瞳孔関係は、閃光位置と瞳孔中心位置との間の線形関係を含む、実施例9に記載のウェアラブルディスプレイシステム。
第1の露光時間は、200μs~1,200μsの範囲内である、実施例1-10のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第1のフレームレートは、10フレーム/秒~60フレーム/秒の範囲内である、実施例1-11のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の露光時間は、5μs~100μsの範囲内である、実施例1-12のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2のフレームレートは、100フレーム/秒~1,000フレーム/秒の範囲内である、実施例1-13のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第1の露光時間対第2の露光時間の比は、5~50の範囲内である、実施例1-14のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2のフレームレート対第1のフレームレートの比は、1~100の範囲内である、実施例1-15のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
将来的視線時間は、5ms~100msの範囲内である、実施例1-16のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、ウェアラブルディスプレイシステムの非頭部搭載型コンポーネント上に配置される、第1のハードウェアプロセッサと、頭部搭載型ディスプレイ内または該頭部搭載型ディスプレイ上に配置される、第2のハードウェアプロセッサとを備え、第1のハードウェアプロセッサは、第1の画像を分析するために利用され、第2のハードウェアプロセッサは、第2の画像を分析するために利用される、実施例1-17のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2のハードウェアプロセッサは、第2の画像のそれぞれの少なくとも一部を記憶するように構成される、メモリバッファを含み、またはそれと関連付けられ、第2のハードウェアプロセッサは、眼からの光源の反射の位置の決定後、第2の画像のそれぞれの少なくとも一部を削除するようにプログラムされる、実施例18に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、第1の画像と第2の画像を組み合わせないようにプログラムされる、実施例1-19のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
眼追跡のための方法であって、眼追跡カメラによって、第1のフレームレートおよび第1の露光時間において、第1の眼の画像を捕捉するステップと、眼追跡カメラによって、第1のフレームレート以上の第2のフレームレートと、第1の露光時間未満の第2の露光時間とにおいて、第2の眼の画像を捕捉するステップと、少なくとも、第1の画像から、眼の瞳孔中心を決定するステップと、少なくとも、第2の画像から、眼からの光源の反射の位置を決定するステップと、瞳孔中心および反射の位置から、眼の視線方向を決定するステップとを含む、方法。
ディスプレイに、少なくとも部分的に、視線方向に基づいて、仮想コンテンツをレンダリングさせるステップをさらに含む、実施例21に記載の方法。
少なくとも部分的に、視線方向および前の視線方向データに基づいて、将来的視線時間における将来的視線方向を推定するステップをさらに含む、実施例21または実施例22に記載の方法。
ディスプレイに、少なくとも部分的に、将来的視線方向に基づいて、仮想コンテンツをレンダリングさせるステップをさらに含む、実施例23に記載の方法。
第1の露光時間は、200μs~1,200μsの範囲内である、実施例21-24のうちのいずれか1項に記載の方法。
第1のフレームレートは、10フレーム/秒~60フレーム/秒の範囲内である、実施例21-25のうちのいずれか1項に記載の方法。
第2の露光時間は、5μs~100μsの範囲内である、実施例21-26のうちのいずれか1項に記載の方法。
第2のフレームレートは、100フレーム/秒~1,000フレーム/秒の範囲内である、実施例21-27のうちのいずれか1項に記載の方法。
第1の露光時間対第2の露光時間の比は、5~50の範囲内である、実施例21-28のうちのいずれか1項に記載の方法。
第2のフレームレート対第1のフレームレートの比は、1~100の範囲内である、実施例21-29のうちのいずれか1項に記載の方法。
ウェアラブルディスプレイシステムであって、光を頭部搭載型ディスプレイの装着者の眼に出力することによって、仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、光を装着者の眼に向かって指向するように構成される、光源と、装着者の眼の画像を捕捉するように構成される、眼追跡カメラであって、交互に、第1の露光時間において、第1の画像を捕捉し、第1の露光時間未満の第2の露光時間において、第2の画像を捕捉するように構成される、眼追跡カメラと、複数の電子ハードウェアコンポーネントであって、そのうちの少なくとも1つは、頭部搭載型ディスプレイ、眼追跡カメラ、および複数の電子ハードウェアコンポーネント内の少なくとも1つの他の電子ハードウェアコンポーネントに通信可能に結合される、ハードウェアプロセッサを備え、ハードウェアプロセッサは、眼追跡カメラによって第1の露光時間において捕捉された装着者の眼の各第1の画像を受信し、少なくとも1つの他の電子ハードウェアコンポーネントに中継し、眼追跡カメラによって第2の露光時間において捕捉された装着者の眼の各第2の画像のピクセルを受信し、バッファに記憶し、バッファ内に記憶されたピクセルを分析し、光源の反射が、眼追跡カメラによって第2の露光時間において捕捉された装着者の眼の各第2の画像内に存在する、場所を識別し、場所を示す場所データを少なくとも1つの他の電子ハードウェアコンポーネントに伝送するようにプログラムされる、複数の電子ハードウェアコンポーネントとを備え、少なくとも1つの他の電子ハードウェアコンポーネントは、眼追跡カメラによって第1の露光時間において捕捉された装着者の眼の各第1の画像を分析し、眼の瞳孔中心の場所を識別し、瞳孔中心の場所およびハードウェアプロセッサから受信された場所データから、装着者の眼の視線方向を決定するように構成される、システムウェアラブルディスプレイ。
第1の露光時間は、200μs~1,200μsの範囲内である、実施例31に記載のウェアラブルディスプレイシステム。
第2の露光時間は、5μs~100μsの範囲内である、実施例31または実施例32に記載のウェアラブルディスプレイシステム。
眼追跡カメラは、10フレーム/秒~60フレーム/秒の範囲内である、第1のフレームレートにおいて、第1の画像を捕捉するように構成される、実施例31-33のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
眼追跡カメラは、100フレーム/秒~1,000フレーム/秒の範囲内である、第2のフレームレートにおいて、第2の画像を捕捉するように構成される、実施例31-34のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第1の露光時間対第2の露光時間の比は、5~50の範囲内である、実施例31-35のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
少なくとも1つの他の電子ハードウェアコンポーネントは、ウェアラブルディスプレイシステムの非頭部搭載型コンポーネント内または該非頭部搭載型コンポーネント上に配置される、実施例31-36のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
非頭部搭載型コンポーネントは、ベルトパックを備える、実施例37に記載のウェアラブルディスプレイシステム。
眼の各第2の画像のピクセルは、各第2の画像の全てより少ないピクセルを含む、実施例31-38のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ピクセルは、n×mのピクセルのアレイを含み、nおよびmはそれぞれ、1~20の範囲内の整数である、実施例31-39のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
複数の電子ハードウェアコンポーネントはさらに、視線方向および前の視線方向データから、将来的視線時間における将来的眼の視線方向を推定し、頭部搭載型ディスプレイに、少なくとも部分的に、将来的視線方向に基づいて、将来的視線時間に、仮想コンテンツを提示させるように構成される、実施例31-40のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、閾値をバッファ内に記憶されたピクセルに適用する、バッファ内に記憶されたピクセル内の非最大値を識別する、またはバッファ内に記憶されたピクセル内の非最大値を抑制または除去するようにプログラムされる、実施例31-41のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、光源の反射の共通速度を決定し、光源の反射の速度が閾値量を上回って共通速度と異なるかどうかを決定するようにプログラムされる、実施例31-42のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、光源の反射の場所が眼の角膜の非球状部分からであるかどうかを決定するようにプログラムされる、実施例31-43のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、光源の反射の少なくとも部分的オクルージョンの存在を識別するようにプログラムされる、実施例31-44のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
少なくとも1つの他の電子ハードウェアコンポーネントは、少なくとも部分的に、光源の反射の場所および閃光-瞳孔関係に基づいて、瞳孔中心の場所を識別するようにプログラムされる、実施例31-45のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2のハードウェアプロセッサは、閃光を識別し、該閃光に関する閃光位置情報を第1のハードウェアプロセッサに提供するように構成される、実施例18-20のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
該第1のハードウェアプロセッサは、視線を該閃光位置から決定するように構成される、実施例47に記載のウェアラブルディスプレイシステム。
第2のハードウェアプロセッサは、閃光候補を識別し、該閃光候補に関する位置情報を第1のハードウェアプロセッサに提供するように構成される、実施例18-20のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
該第1のハードウェアプロセッサは、該閃光候補のサブセットを識別し、該閃光候補のサブセットを使用して、1つ以上の動作を実施するように構成される、実施例49に記載のウェアラブルディスプレイシステム。
該第1のハードウェアプロセッサは、該閃光候補に基づいて、視線を決定するように構成される、実施例50に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、閃光候補および該閃光候補の関連付けられる場所を識別し、閃光候補の場所を示す場所データを少なくとも1つの他の電子ハードウェアコンポーネントに伝送するようにプログラムされる、実施例31-46のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
該少なくとも1つの他の電子ハードウェアコンポーネントは、該閃光候補のサブセットを識別し、該閃光候補のサブセットを使用して、1つ以上の動作を実施するように構成される、実施例52に記載のウェアラブルディスプレイシステム。
該少なくとも1つの他の電子ハードウェアコンポーネントは、装着者の眼の視線方向を該閃光候補のサブセットから決定するように構成される、実施例53に記載のウェアラブルディスプレイシステム。
(パートII)
ウェアラブルディスプレイシステムであって、
光を頭部搭載型ディスプレイの装着者の眼に出力することによって、仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、
光を装着者の眼に向かって指向するように構成される、少なくとも1つの光源と、
第1のフレームレートおよび第1の露光時間において捕捉される、装着者の眼の第1の画像と、
第1のフレームレート以上の第2のフレームレートと、第1の露光時間未満の第2の露光時間とにおいて捕捉される、装着者の眼の第2の画像と、
を捕捉するように構成される、少なくとも1つの眼追跡カメラと、
頭部搭載型ディスプレイおよび少なくとも1つの眼追跡カメラに通信可能に結合される、少なくとも1つのハードウェアプロセッサであって、
第1の画像を分析し、眼の瞳孔中心を決定し、
第2の画像を分析し、眼からの光源の反射の位置を決定し、
瞳孔中心および反射の位置から、眼の視線方向を決定し、
視線方向および前の視線方向データから、将来的視線時間における将来的眼の視線方向を推定し、
頭部搭載型ディスプレイに、少なくとも部分的に、将来的視線方向に基づいて、将来的視線時間に、仮想コンテンツを提示させる、
ようにプログラムされる、少なくとも1つのハードウェアプロセッサと、
を備える、ウェアラブルディスプレイシステム。
少なくとも1つの光源は、少なくとも1つの赤外線光源を備える、実施例1に記載のウェアラブルディスプレイシステム。
少なくとも1つのハードウェアプロセッサは、第1の画像または第2の画像を分析し、装着者の眼の回転中心または目線中心を決定するようにプログラムされる、実施例1または実施例2に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、少なくとも1つのハードウェアプロセッサは、閾値を第2の画像に適用する、第2の画像内の非最大値を識別する、または第2の画像内の非最大値を抑制または除去するようにプログラムされる、実施例1-3のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、少なくとも1つのハードウェアプロセッサは、少なくとも部分的に、第2の画像からの前の画像内の光源の反射の位置に基づいて、第2の画像からの現在の画像内の光源の反射のための検索領域を識別するようにプログラムされる、実施例1-4のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、少なくとも1つのハードウェアプロセッサは、
ようにプログラムされる、実施例1-5のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、少なくとも1つのハードウェアプロセッサは、光源の反射が眼の角膜の非球状部分からであるかどうかを決定するようにプログラムされる、実施例1-6のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の画像を分析するために、少なくとも1つのハードウェアプロセッサは、光源の反射の少なくとも部分的オクルージョンの存在を識別するようにプログラムされる、実施例1-7のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
少なくとも1つのハードウェアプロセッサは、少なくとも部分的に、光源の反射の位置および閃光-瞳孔関係に基づいて、瞳孔中心の推定される位置を決定するようにプログラムされる、実施例1-8のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
閃光-瞳孔関係は、閃光位置と瞳孔中心位置との間の線形関係を含む、実施例9に記載のウェアラブルディスプレイシステム。
第1の露光時間は、200μs~1,200μsの範囲内である、実施例1-10のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第1のフレームレートは、10フレーム/秒~60フレーム/秒の範囲内である、実施例1-11のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2の露光時間は、5μs~100μsの範囲内である、実施例1-12のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2のフレームレートは、100フレーム/秒~1,000フレーム/秒の範囲内である、実施例1-13のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第1の露光時間対第2の露光時間の比は、5~50の範囲内である、実施例1-14のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2のフレームレート対第1のフレームレートの比は、1~100の範囲内である、実施例1-15のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
将来的視線時間は、5ms~100msの範囲内である、実施例1-16のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
少なくとも1つのハードウェアプロセッサは、
ウェアラブルディスプレイシステムの非頭部搭載型コンポーネント上に配置される、第1のハードウェアプロセッサと、
頭部搭載型ディスプレイ内または該頭部搭載型ディスプレイ上に配置される、第2のハードウェアプロセッサと、
を備え、
第1のハードウェアプロセッサは、第1の画像を分析するために利用され、
第2のハードウェアプロセッサは、第2の画像を分析するために利用される、
実施例1-17のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2のハードウェアプロセッサは、第2の画像のそれぞれの少なくとも一部を記憶するように構成される、メモリバッファを含み、またはそれと関連付けられ、第2のハードウェアプロセッサは、眼からの光源の反射の位置の決定後、第2の画像のそれぞれの少なくとも一部を削除するようにプログラムされる、実施例18に記載のウェアラブルディスプレイシステム。
少なくとも1つのハードウェアプロセッサは、第1の画像と第2の画像を組み合わせないようにプログラムされる、実施例1-19のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
眼追跡のための方法であって、
眼追跡カメラを介して、第1のフレームレートおよび第1の露光時間において、眼の第1の画像を捕捉するステップと、
眼追跡カメラを介して、第1のフレームレート以上の第2のフレームレートと、第1の露光時間未満の第2の露光時間とにおいて、眼の第2の画像を捕捉するステップと、
少なくとも、第1の画像から、眼の瞳孔中心を決定するステップと、
少なくとも、第2の画像から、眼からの光源の反射の位置を決定するステップと、
瞳孔中心および反射の位置から、眼の視線方向を決定するステップと、
を含む、方法。
ディスプレイに、少なくとも部分的に、視線方向に基づいて、仮想コンテンツをレンダリングさせるステップをさらに含む、実施例21に記載の方法。
少なくとも部分的に、視線方向および前の視線方向データに基づいて、将来的視線時間における将来的視線方向を推定するステップをさらに含む、実施例21または実施例22に記載の方法。
ディスプレイに、少なくとも部分的に、将来的視線方向に基づいて、仮想コンテンツをレンダリングさせるステップをさらに含む、実施例23に記載の方法。
第1の露光時間は、200μs~1,200μsの範囲内である、実施例21-24のうちのいずれか1項に記載の方法。
第1のフレームレートは、10フレーム/秒~60フレーム/秒の範囲内である、実施例21-25のうちのいずれか1項に記載の方法。
第2の露光時間は、5μs~100μsの範囲内である、実施例21-26のうちのいずれか1項に記載の方法。
第2のフレームレートは、100フレーム/秒~1,000フレーム/秒の範囲内である、実施例21-27のうちのいずれか1項に記載の方法。
第1の露光時間対第2の露光時間の比は、5~50の範囲内である、実施例21-28のうちのいずれか1項に記載の方法。
第2のフレームレート対第1のフレームレートの比は、1~100の範囲内である、実施例21-29のうちのいずれか1項に記載の方法。
ウェアラブルディスプレイシステムであって、
光を頭部搭載型ディスプレイの装着者の眼に出力することによって、仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、
光を装着者の眼に向かって指向するように構成される、光源と、
装着者の眼の画像を捕捉するように構成される、眼追跡カメラであって、交互に、
第1の露光時間において、第1の画像を捕捉し、
第1の露光時間未満の第2の露光時間において、第2の画像を捕捉する、
ように構成される、眼追跡カメラと、
複数の電子ハードウェアコンポーネントであって、そのうちの少なくとも1つは、頭部搭載型ディスプレイ、眼追跡カメラ、および複数の電子ハードウェアコンポーネント内の少なくとも1つの他の電子ハードウェアコンポーネントに通信可能に結合される、ハードウェアプロセッサを備え、ハードウェアプロセッサは、
眼追跡カメラによって第1の露光時間において捕捉された装着者の眼の各第1の画像を受信し、少なくとも1つの他の電子ハードウェアコンポーネントに中継し、
眼追跡カメラによって第2の露光時間において捕捉された装着者の眼の各第2の画像のピクセルを受信し、バッファに記憶し、
バッファ内に記憶されたピクセルを分析し、光源の反射が、眼追跡カメラによって第2の露光時間において捕捉された装着者の眼の各第2の画像内に存在する、場所を識別し、
場所を示す場所データを少なくとも1つの他の電子ハードウェアコンポーネントに伝送する、
ようにプログラムされる、複数の電子ハードウェアコンポーネントと、
を備え、
少なくとも1つの他の電子ハードウェアコンポーネントは、
眼追跡カメラによって第1の露光時間において捕捉された装着者の眼の各第1の画像を分析し、眼の瞳孔中心の場所を識別し、
瞳孔中心の場所およびハードウェアプロセッサから受信された場所データから、装着者の眼の視線方向を決定する、
ように構成される、ウェアラブルディスプレイシステム。
第1の露光時間は、200μs~1,200μsの範囲内である、実施例31に記載のウェアラブルディスプレイシステム。
第2の露光時間は、5μs~100μsの範囲内である、実施例31または実施例32に記載のウェアラブルディスプレイシステム。
眼追跡カメラは、10フレーム/秒~60フレーム/秒の範囲内である、第1のフレームレートにおいて、第1の画像を捕捉するように構成される、実施例31-33のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
眼追跡カメラは、100フレーム/秒~1,000フレーム/秒の範囲内である、第2のフレームレートにおいて、第2の画像を捕捉するように構成される、実施例31-34のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第1の露光時間対第2の露光時間の比は、5~50の範囲内である、実施例31-35のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
少なくとも1つの他の電子ハードウェアコンポーネントは、ウェアラブルディスプレイシステムの非頭部搭載型コンポーネント内または該非頭部搭載型コンポーネント上に配置される、実施例31-36のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
非頭部搭載型コンポーネントは、ベルトパックを備える、実施例37に記載のウェアラブルディスプレイシステム。
眼の各第2の画像のピクセルは、各第2の画像の全てより少ないピクセルを含む、実施例31-38のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ピクセルは、n×mのピクセルのアレイを含み、nおよびmはそれぞれ、1~20の範囲内の整数である、実施例31-39のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
複数の電子ハードウェアコンポーネントはさらに、
視線方向および前の視線方向データから、将来的視線時間における将来的眼の視線方向を推定し、
頭部搭載型ディスプレイに、少なくとも部分的に、将来的視線方向に基づいて、将来的視線時間に、仮想コンテンツを提示させる、
ように構成される、実施例31-40のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、閾値をバッファ内に記憶されたピクセルに適用する、バッファ内に記憶されたピクセル内の非最大値を識別する、またはバッファ内に記憶されたピクセル内の非最大値を抑制または除去するようにプログラムされる、実施例31-41のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、
光源の反射の共通速度を決定し、
光源の反射の速度が閾値量を上回って共通速度と異なるかどうかを決定する、
ようにプログラムされる、実施例31-42のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、光源の反射の場所が眼の角膜の非球状部分からであるかどうかを決定するようにプログラムされる、実施例31-43のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、光源の反射の少なくとも部分的オクルージョンの存在を識別するようにプログラムされる、実施例31-44のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
少なくとも1つの他の電子ハードウェアコンポーネントは、少なくとも部分的に、光源の反射の場所および閃光-瞳孔関係に基づいて、瞳孔中心の場所を識別するようにプログラムされる、実施例31-45のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
第2のハードウェアプロセッサは、閃光を識別し、該閃光に関する閃光位置情報を第1のハードウェアプロセッサに提供するように構成される、実施例18-20のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
該第1のハードウェアプロセッサは、視線を該閃光位置から決定するように構成される、実施例47に記載のウェアラブルディスプレイシステム。
第2のハードウェアプロセッサは、閃光候補を識別し、該閃光候補に関する位置情報を第1のハードウェアプロセッサに提供するように構成される、実施例18-20のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
該第1のハードウェアプロセッサは、該閃光候補のサブセットを識別し、該閃光候補のサブセットを使用して、1つ以上の動作を実施するように構成される、実施例49に記載のウェアラブルディスプレイシステム。
該第1のハードウェアプロセッサは、該閃光候補に基づいて、視線を決定するように構成される、実施例50に記載のウェアラブルディスプレイシステム。
ハードウェアプロセッサは、閃光候補および該閃光候補の関連付けられる場所を識別し、閃光候補の場所を示す場所データを少なくとも1つの他の電子ハードウェアコンポーネントに伝送するようにプログラムされる、実施例31-46のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
該少なくとも1つの他の電子ハードウェアコンポーネントは、該閃光候補のサブセットを識別し、該閃光候補のサブセットを使用して、1つ以上の動作を実施するように構成される、実施例52に記載のウェアラブルディスプレイシステム。
該少なくとも1つの他の電子ハードウェアコンポーネントは、装着者の眼の視線方向を該閃光候補のサブセットから決定するように構成される、実施例53に記載のウェアラブルディスプレイシステム。
該少なくとも1つの眼追跡カメラは、1つの眼追跡カメラを備える、実施例1-20および47-51のいずれかに記載のウェアラブルディスプレイシステム。
該少なくとも1つの光源は、複数の光源を備える、実施例1-20、47-51、および55のいずれかに記載のウェアラブルディスプレイシステム。
(付加的考慮点)
Claims (20)
- ウェアラブルディスプレイシステムであって、
頭部搭載型ディスプレイであって、前記頭部搭載型ディスプレイは、光を前記頭部搭載型ディスプレイの装着者の眼に出力することによって、仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、
少なくとも1つの光源であって、前記少なくとも1つの光源は、光を前記装着者の眼に向かって指向するように構成される、少なくとも1つの光源と、
少なくとも1つの眼追跡カメラであって、前記少なくとも1つの眼追跡カメラは、
前記装着者の眼の第1の画像であって、前記装着者の眼の第1の画像は、第1のフレームレートおよび第1の露光時間において捕捉される、前記装着者の眼の第1の画像と、
前記装着者の眼の第2の画像であって、前記装着者の眼の第2の画像は、前記第1のフレームレート以上の第2のフレームレートと、前記第1の露光時間未満の第2の露光時間とにおいて捕捉される、前記装着者の眼の第2の画像と
を捕捉するように構成される、少なくとも1つの眼追跡カメラと、
前記頭部搭載型ディスプレイおよび前記少なくとも1つの眼追跡カメラに通信可能に結合される少なくとも1つのハードウェアプロセッサであって、前記少なくとも1つのハードウェアプロセッサは、
前記第1の画像を分析し、前記眼の瞳孔中心を決定することと、
前記第2の画像を分析し、前記眼からの前記光源の反射の位置を決定することと、
前記瞳孔中心および前記反射の位置から、前記眼の視線方向を決定することと、
前記視線方向および前の視線方向データから、将来的視線時間における前記眼の将来的視線方向を推定することと、
前記頭部搭載型ディスプレイに、前記将来的視線方向に少なくとも部分的に基づいて、前記将来的視線時間に、前記仮想コンテンツを提示させることと
を行うようにプログラムされる、少なくとも1つのハードウェアプロセッサと
を備える、ウェアラブルディスプレイシステム。 - 前記少なくとも1つの光源は、少なくとも1つの赤外線光源を備える、請求項1に記載のウェアラブルディスプレイシステム。
- 前記少なくとも1つのハードウェアプロセッサは、前記第1の画像または前記第2の画像を分析し、前記装着者の眼の回転中心または目線中心を決定するようにプログラムされる、請求項1または請求項2に記載のウェアラブルディスプレイシステム。
- 前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、閾値を前記第2の画像に適用する、前記第2の画像内の非最大値を識別する、または前記第2の画像内の非最大値を抑制または除去するようにプログラムされる、請求項1-3のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、前記第2の画像からの前の画像内の前記光源の反射の位置に少なくとも部分的に基づいて、前記第2の画像からの現在の画像内の前記光源の反射のための検索領域を識別するようにプログラムされる、請求項1-4のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、
前記少なくとも1つの光源の複数の反射の共通速度を決定することと、
前記少なくとも1つの光源の反射の速度が、閾値量を上回って前記共通速度と異なるかどうかを決定することと
を行うようにプログラムされる、請求項1-5のいずれか1項に記載のウェアラブルディスプレイシステム。 - 前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、前記光源の反射が前記眼の角膜の非球状部分からであるかどうかを決定するようにプログラムされる、請求項1-6のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記第2の画像を分析するために、前記少なくとも1つのハードウェアプロセッサは、前記光源の反射の少なくとも部分的オクルージョンの存在を識別するようにプログラムされる、請求項1-7のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記少なくとも1つのハードウェアプロセッサは、前記光源の反射の位置および閃光-瞳孔関係に少なくとも部分的に基づいて、前記瞳孔中心の推定される位置を決定するようにプログラムされる、請求項1-8のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記閃光-瞳孔関係は、閃光位置と瞳孔中心位置との間の線形関係を含む、請求項9に記載のウェアラブルディスプレイシステム。
- 前記第1の露光時間は、200μs~1,200μsの範囲内である、請求項1-10のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記第1のフレームレートは、10フレーム/秒~60フレーム/秒の範囲内である、請求項1-11のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記第2の露光時間は、5μs~100μsの範囲内である、請求項1-12のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記第2のフレームレートは、100フレーム/秒~1,000フレーム/秒の範囲内である、請求項1-13のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記第1の露光時間対前記第2の露光時間の比は、5~50の範囲内である、請求項1-14のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記第2のフレームレート対前記第1のフレームレートの比は、1~100の範囲内である、請求項1-15のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記将来的視線時間は、5ms~100msの範囲内である、請求項1-16のいずれか1項に記載のウェアラブルディスプレイシステム。
- 前記少なくとも1つのハードウェアプロセッサは、
第1のハードウェアプロセッサであって、前記第1のハードウェアプロセッサは、前記ウェアラブルディスプレイシステムの非頭部搭載型コンポーネント上に配置される、第1のハードウェアプロセッサと、
第2のハードウェアプロセッサであって、前記第2のハードウェアプロセッサは、前記頭部搭載型ディスプレイ内または前記頭部搭載型ディスプレイ上に配置される、第2のハードウェアプロセッサと
を備え、
前記第1のハードウェアプロセッサは、前記第1の画像を分析するために利用され、
前記第2のハードウェアプロセッサは、前記第2の画像を分析するために利用される、
請求項1-17のいずれか1項に記載のウェアラブルディスプレイシステム。 - 前記第2のハードウェアプロセッサは、前記第2の画像のそれぞれの少なくとも一部を記憶するように構成されるメモリバッファを含み、またはそれと関連付けられ、前記第2のハードウェアプロセッサは、前記眼からの前記光源の反射の位置の決定後、前記第2の画像のそれぞれの少なくとも一部を削除するようにプログラムされる、請求項18に記載のウェアラブルディスプレイシステム。
- 前記少なくとも1つのハードウェアプロセッサは、前記第1の画像と前記第2の画像を組み合わせないようにプログラムされる、請求項1-19のいずれか1項に記載のウェアラブルディスプレイシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024014027A JP2024036459A (ja) | 2019-01-25 | 2024-02-01 | 異なる露光時間を有する画像を使用した眼追跡 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962797072P | 2019-01-25 | 2019-01-25 | |
US62/797,072 | 2019-01-25 | ||
PCT/US2020/014824 WO2020154524A1 (en) | 2019-01-25 | 2020-01-23 | Eye-tracking using images having different exposure times |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024014027A Division JP2024036459A (ja) | 2019-01-25 | 2024-02-01 | 異なる露光時間を有する画像を使用した眼追跡 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022523021A JP2022523021A (ja) | 2022-04-21 |
JPWO2020154524A5 JPWO2020154524A5 (ja) | 2023-01-25 |
JP7431246B2 true JP7431246B2 (ja) | 2024-02-14 |
Family
ID=71733636
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542152A Active JP7431246B2 (ja) | 2019-01-25 | 2020-01-23 | 異なる露光時間を有する画像を使用した眼追跡 |
JP2024014027A Pending JP2024036459A (ja) | 2019-01-25 | 2024-02-01 | 異なる露光時間を有する画像を使用した眼追跡 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024014027A Pending JP2024036459A (ja) | 2019-01-25 | 2024-02-01 | 異なる露光時間を有する画像を使用した眼追跡 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11334154B2 (ja) |
EP (1) | EP3914997A4 (ja) |
JP (2) | JP7431246B2 (ja) |
CN (1) | CN113614783A (ja) |
WO (1) | WO2020154524A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3914997A4 (en) | 2019-01-25 | 2022-10-12 | Magic Leap, Inc. | OCULOMETRY USING IMAGES WITH DIFFERENT EXPOSURE TIMES |
CN111757089A (zh) * | 2019-03-29 | 2020-10-09 | 托比股份公司 | 利用眼睛的瞳孔增强调节来渲染图像的方法和系统 |
EP3973347A4 (en) | 2019-05-20 | 2023-05-31 | Magic Leap, Inc. | EYE POSITION ESTIMATION SYSTEMS AND TECHNIQUES |
US11302291B1 (en) * | 2019-11-27 | 2022-04-12 | Amazon Technologies, Inc. | Device agnostic user interface generation |
US10871825B1 (en) * | 2019-12-04 | 2020-12-22 | Facebook Technologies, Llc | Predictive eye tracking systems and methods for variable focus electronic displays |
US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
US11568610B2 (en) | 2020-05-12 | 2023-01-31 | Magic Leap, Inc. | Privacy preserving expression generation for augmented or virtual reality client applications |
JP2023539962A (ja) | 2020-08-14 | 2023-09-21 | ヒーズ アイピー ホールディングス エルエルシー | リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法 |
EP4073572A1 (en) | 2020-09-03 | 2022-10-19 | HES IP Holdings, LLC | Systems and methods for improving binocular vision |
CN116507949A (zh) * | 2020-09-22 | 2023-07-28 | 苹果公司 | 使用多区透镜的闪光分析 |
GB2598953A (en) * | 2020-09-22 | 2022-03-23 | Sony Interactive Entertainment Inc | Head mounted display |
CN112153306B (zh) * | 2020-09-30 | 2022-02-25 | 深圳市商汤科技有限公司 | 图像采集系统、方法、装置、电子设备及可穿戴设备 |
EP4206755A4 (en) * | 2020-10-05 | 2024-03-06 | Sony Group Corp | VISION DETECTION DEVICE AND DISPLAY DEVICE |
US11593962B2 (en) | 2020-12-29 | 2023-02-28 | Tobii Ab | Eye gaze tracking system, associated methods and computer programs |
US20220358670A1 (en) * | 2021-05-04 | 2022-11-10 | Varjo Technologies Oy | Tracking method for image generation, a computer program product and a computer system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008029701A (ja) | 2006-07-31 | 2008-02-14 | National Univ Corp Shizuoka Univ | 瞳孔を検出する方法及び装置 |
JP2016116835A (ja) | 2014-09-23 | 2016-06-30 | ジーエヌ オトメトリックス エー/エスGN Otometrics A/S | 眼球運動を測定する頭部装着可能デバイス |
JP2017526078A (ja) | 2014-05-09 | 2017-09-07 | グーグル インコーポレイテッド | 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法 |
WO2018030515A1 (ja) | 2016-08-12 | 2018-02-15 | 国立大学法人静岡大学 | 視線検出装置 |
WO2018164104A1 (ja) | 2017-03-08 | 2018-09-13 | 国立大学法人静岡大学 | 眼部画像処理装置 |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20110170061A1 (en) | 2010-01-08 | 2011-07-14 | Gordon Gary B | Gaze Point Tracking Using Polarized Light |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CN107179607B (zh) | 2010-12-24 | 2019-12-13 | 奇跃公司 | 人体工程学头戴式显示设备和光学系统 |
CA3035118C (en) | 2011-05-06 | 2022-01-04 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
AU2012348348B2 (en) | 2011-10-28 | 2017-03-30 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US8971570B1 (en) | 2011-11-04 | 2015-03-03 | Google Inc. | Dual LED usage for glint detection |
US9851563B2 (en) | 2012-04-05 | 2017-12-26 | Magic Leap, Inc. | Wide-field of view (FOV) imaging devices with active foveation capability |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
EP2696259B1 (en) | 2012-08-09 | 2021-10-13 | Tobii AB | Fast wake-up in a gaze tracking system |
AU2013315607A1 (en) | 2012-09-11 | 2015-04-02 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
CA2898283C (en) | 2013-01-15 | 2021-05-11 | Magic Leap, Inc. | Ultra-high resolution scanning fiber display |
KR102270699B1 (ko) | 2013-03-11 | 2021-06-28 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
WO2014144526A2 (en) | 2013-03-15 | 2014-09-18 | Magic Leap, Inc. | Display system and method |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10310597B2 (en) * | 2013-09-03 | 2019-06-04 | Tobii Ab | Portable eye tracking device |
JP6479785B2 (ja) | 2013-10-16 | 2019-03-06 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 調節可能な瞳孔間距離を有する仮想または拡張現実ヘッドセット |
US10175478B2 (en) | 2014-05-30 | 2019-01-08 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
CN107219628B (zh) | 2013-11-27 | 2020-05-01 | 奇跃公司 | 虚拟和增强现实系统与方法 |
CN105814584B (zh) * | 2013-12-09 | 2019-03-08 | Smi创新传感技术有限公司 | 用于操作眼睛跟踪设备的方法和用于提供主动功率管理的眼睛跟踪设备 |
US10386636B2 (en) | 2014-01-31 | 2019-08-20 | Magic Leap, Inc. | Multi-focal display system and method |
NZ722904A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
US9886630B2 (en) | 2014-02-21 | 2018-02-06 | Tobii Ab | Apparatus and method for robust eye/gaze tracking |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
NZ773815A (en) | 2015-03-16 | 2022-07-01 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
JP7029961B2 (ja) | 2015-05-19 | 2022-03-04 | マジック リープ, インコーポレイテッド | セミグローバルシャッタイメージャ |
IL283014B (en) | 2015-08-21 | 2022-07-01 | Magic Leap Inc | Assessment of eyelid shape |
US10146997B2 (en) | 2015-08-21 | 2018-12-04 | Magic Leap, Inc. | Eyelid shape estimation using eye pose measurement |
US10192528B2 (en) | 2016-03-31 | 2019-01-29 | Sony Interactive Entertainment Inc. | Real-time user adaptive foveated rendering |
EP3484343B1 (en) | 2016-07-14 | 2024-01-10 | Magic Leap, Inc. | Iris boundary estimation using cornea curvature |
KR102269065B1 (ko) | 2016-10-05 | 2021-06-24 | 매직 립, 인코포레이티드 | 혼합 현실 교정을 위한 안구주위 테스트 |
IL308136A (en) | 2016-11-10 | 2023-12-01 | Magic Leap Inc | Method and system for multiple F number lenses |
IL296495B1 (en) | 2016-12-23 | 2024-03-01 | Magic Leap Inc | Techniques for configuring settings for a content capture device |
WO2018175344A1 (en) | 2017-03-21 | 2018-09-27 | Magic Leap, Inc. | Depth sensing techniques for virtual, augmented, and mixed reality systems |
EP3603058A4 (en) | 2017-03-22 | 2020-12-30 | Magic Leap, Inc. | DEPTH-BASED FOVEA REPRESENTATION FOR DISPLAY SYSTEMS |
JP7308830B2 (ja) | 2017-12-13 | 2023-07-14 | マジック リープ, インコーポレイテッド | コンピュータビジョンアプリケーションのためのグロバールシャッタピクセル回路および方法 |
CA3088116A1 (en) | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
EP4354207A2 (en) | 2018-01-17 | 2024-04-17 | Magic Leap, Inc. | Eye center of rotation determination, depth plane selection, and render camera positioning in display systems |
EP3914997A4 (en) * | 2019-01-25 | 2022-10-12 | Magic Leap, Inc. | OCULOMETRY USING IMAGES WITH DIFFERENT EXPOSURE TIMES |
-
2020
- 2020-01-23 EP EP20744497.7A patent/EP3914997A4/en active Pending
- 2020-01-23 US US16/751,076 patent/US11334154B2/en active Active
- 2020-01-23 WO PCT/US2020/014824 patent/WO2020154524A1/en unknown
- 2020-01-23 CN CN202080023527.XA patent/CN113614783A/zh active Pending
- 2020-01-23 JP JP2021542152A patent/JP7431246B2/ja active Active
-
2022
- 2022-05-13 US US17/744,506 patent/US11762462B2/en active Active
-
2024
- 2024-02-01 JP JP2024014027A patent/JP2024036459A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008029701A (ja) | 2006-07-31 | 2008-02-14 | National Univ Corp Shizuoka Univ | 瞳孔を検出する方法及び装置 |
JP2017526078A (ja) | 2014-05-09 | 2017-09-07 | グーグル インコーポレイテッド | 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法 |
JP2016116835A (ja) | 2014-09-23 | 2016-06-30 | ジーエヌ オトメトリックス エー/エスGN Otometrics A/S | 眼球運動を測定する頭部装着可能デバイス |
WO2018030515A1 (ja) | 2016-08-12 | 2018-02-15 | 国立大学法人静岡大学 | 視線検出装置 |
WO2018164104A1 (ja) | 2017-03-08 | 2018-09-13 | 国立大学法人静岡大学 | 眼部画像処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US11762462B2 (en) | 2023-09-19 |
EP3914997A4 (en) | 2022-10-12 |
JP2022523021A (ja) | 2022-04-21 |
US11334154B2 (en) | 2022-05-17 |
WO2020154524A1 (en) | 2020-07-30 |
CN113614783A (zh) | 2021-11-05 |
EP3914997A1 (en) | 2021-12-01 |
US20220269344A1 (en) | 2022-08-25 |
JP2024036459A (ja) | 2024-03-15 |
US20200241635A1 (en) | 2020-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7431246B2 (ja) | 異なる露光時間を有する画像を使用した眼追跡 | |
JP7423659B2 (ja) | 眼姿勢を推定するためのシステムおよび技法 | |
JP7415077B2 (ja) | ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法 | |
JP7443332B2 (ja) | ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択 | |
JP7390297B2 (ja) | 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け | |
EP3740847B1 (en) | Display systems and methods for determining registration between a display and a user's eyes | |
JP7456995B2 (ja) | 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法 | |
US11868525B2 (en) | Eye center of rotation determination with one or more eye tracking cameras | |
US20240085980A1 (en) | Eye tracking using alternate sampling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7431246 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |