JP7436600B2 - 眼追跡のための個人化されたニューラルネットワーク - Google Patents
眼追跡のための個人化されたニューラルネットワーク Download PDFInfo
- Publication number
- JP7436600B2 JP7436600B2 JP2022166262A JP2022166262A JP7436600B2 JP 7436600 B2 JP7436600 B2 JP 7436600B2 JP 2022166262 A JP2022166262 A JP 2022166262A JP 2022166262 A JP2022166262 A JP 2022166262A JP 7436600 B2 JP7436600 B2 JP 7436600B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- user
- retraining
- neural network
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 255
- 210000001508 eye Anatomy 0.000 claims description 845
- 238000000034 method Methods 0.000 claims description 148
- 238000012549 training Methods 0.000 claims description 129
- 238000003860 storage Methods 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 12
- 230000003190 augmentative effect Effects 0.000 claims description 11
- 230000000977 initiatory effect Effects 0.000 claims 6
- 230000033001 locomotion Effects 0.000 description 71
- 230000036544 posture Effects 0.000 description 55
- 238000009826 distribution Methods 0.000 description 51
- 238000003384 imaging method Methods 0.000 description 37
- 238000012545 processing Methods 0.000 description 36
- 230000003287 optical effect Effects 0.000 description 31
- 210000001747 pupil Anatomy 0.000 description 31
- 230000008569 process Effects 0.000 description 27
- 238000005315 distribution function Methods 0.000 description 23
- 210000000695 crystalline len Anatomy 0.000 description 20
- 238000000605 extraction Methods 0.000 description 15
- 238000010606 normalization Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 230000004913 activation Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 210000003128 head Anatomy 0.000 description 10
- 210000003811 finger Anatomy 0.000 description 9
- 238000011176 pooling Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000009849 deactivation Effects 0.000 description 8
- 239000000463 material Substances 0.000 description 8
- 230000004308 accommodation Effects 0.000 description 7
- 230000002350 accommodative effect Effects 0.000 description 7
- 239000000835 fiber Substances 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 230000000284 resting effect Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 239000000872 buffer Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 101710094863 Acireductone dioxygenase Proteins 0.000 description 2
- 241000256837 Apidae Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013529 biological neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000005253 cladding Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 210000003786 sclera Anatomy 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 125000006850 spacer group Chemical group 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0185—Displaying image at variable distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- Medicines That Contain Protein Lipid Enzymes And Other Medicines (AREA)
- Position Input By Displaying (AREA)
Description
本願は、その内容が参照することによってその全体として本明細書に組み込まれる、2017年9月20日に出願され、「PERSONALIZED NEURAL NETWORK FOR EYE TRACKING」と題された、米国仮出願第62/560,898号の優先権の利益を主張する。
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブルディスプレイシステムであって、前記ウェアラブルディスプレイシステムは、
画像捕捉デバイスであって、前記画像捕捉デバイスは、ユーザの眼の複数の再訓練用眼画像を捕捉するように構成される、画像捕捉デバイスと、
ディスプレイと、
非一過性コンピュータ可読記憶媒体であって、前記非一過性コンピュータ可読記憶媒体は、
前記複数の再訓練用眼画像と、
眼追跡のためのニューラルネットワークと
を記憶するように構成される、非一過性コンピュータ可読記憶媒体と、
ハードウェアプロセッサであって、前記ハードウェアプロセッサは、前記画像捕捉デバイス、前記ディスプレイ、および前記非一過性コンピュータ可読記憶媒体と通信し、前記ハードウェアプロセッサは、前記実行可能命令によって、
前記画像捕捉デバイスによって捕捉された前記複数の再訓練用眼画像を受信することであって、
前記複数の再訓練用眼画像の再訓練用眼画像は、前記ディスプレイの表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、前記画像捕捉デバイスによって捕捉される、ことと、
再訓練用入力データおよび対応する再訓練用標的出力データを備える再訓練セットを生成することであって、
前記再訓練用入力データは、前記再訓練用眼画像を備え、
前記対応する再訓練用標的出力データは、前記表示場所に関連する前記再訓練用眼画像内の前記ユーザの眼の眼姿勢を備える、ことと、
前記再訓練セットを使用して眼追跡のためのニューラルネットワークから再訓練される再訓練されたニューラルネットワークを取得することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルディスプレイシステム。
(項目2)
前記再訓練されたニューラルネットワークを取得するために、前記ハードウェアプロセッサは、少なくとも、
前記再訓練セットを使用して、前記眼追跡のためのニューラルネットワークを再訓練し、前記再訓練されたニューラルネットワークを生成する
ようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目3)
前記再訓練されたニューラルネットワークを取得するために、前記ハードウェアプロセッサは、少なくとも、
前記再訓練セットを遠隔システムに伝送することと、
前記再訓練されたニューラルネットワークを前記遠隔システムから受信することと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。(項目4)
前記遠隔システムは、クラウドコンピューティングシステムを備える、項目3に記載のウェアラブルディスプレイシステム。
(項目5)
前記ユーザの複数の再訓練用眼画像を受信するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
UIデバイスを前記ディスプレイ上の表示場所においてユーザに表示することと、
前記UIデバイスに対する前記UIイベントの発生を決定することと、
前記再訓練用眼画像を前記画像捕捉デバイスから受信することと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目6)
前記ハードウェアプロセッサはさらに、前記実行可能命令によって、
前記表示場所を使用して、前記再訓練用眼画像内の前記眼の眼姿勢を決定する
ようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目7)
前記再訓練用画像内の前記眼の眼姿勢は、前記表示場所を備える、項目6に記載のウェアラブルディスプレイシステム。
(項目8)
前記ユーザの複数の再訓練用眼画像を受信するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練用眼画像に基づいて、第2の複数の第2の再訓練用眼画像を生成することと、
前記表示場所および確率分布関数を使用して、前記第2の複数の第2の再訓練用眼画像の第2の再訓練用眼画像内の前記眼の眼姿勢を決定することと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目9)
前記ユーザの複数の再訓練用眼画像を受信するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
前記ユーザの眼の複数の眼画像を前記画像捕捉デバイスから受信することであって、
前記複数の眼画像の第1の眼画像は、前記ディスプレイの表示場所においてユーザに示される前記UIデバイスに対する前記UIイベントが生じると、前記ユーザデバイスによって捕捉される、ことと、
前記表示場所から、前記UIイベントに先立った前記ユーザの運動に沿って遡って、前記運動の開始まで、前記UIデバイスの投影された表示場所を決定することと、
前記投影された表示場所および前記運動の開始時に捕捉された前記複数の眼画像の第2の眼画像内の前記UIデバイスの第2の表示場所が閾値距離内にあることを決定することと、
前記第2の眼画像から前記第1の眼画像までの前記複数の眼画像の眼画像を備える前記再訓練用入力データを生成することであって、
前記対応する再訓練用標的出力データは、前記眼画像内の前記UIデバイスの表示場所に関連する前記眼画像の各眼画像内の前記ユーザの眼の眼姿勢を備える、ことと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目10)
前記眼の眼姿勢は、前記表示場所である、項目1に記載のウェアラブルディスプレイシステム。
(項目11)
ハードウェアプロセッサはさらに、前記実行可能命令によって、少なくとも、前記UIデバイスの表示場所を使用して、前記眼の眼姿勢を決定するようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目12)
前記再訓練セットを生成するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練用眼画像内の前記眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域内にあることを決定することと、
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することと、
前記分布確率に関連する含有確率において前記再訓練用眼画像を備える前記再訓練用入力データを生成することと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目13)
前記ハードウェアプロセッサはさらに、前記実行可能命令によって、少なくとも、
訓練用入力データおよび対応する訓練用標的出力データを備える訓練セットを使用して、前記眼追跡のためのニューラルネットワークを訓練することであって、
前記訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、
前記対応する訓練用標的出力データは、前記訓練用の複数の訓練用眼画像内の前記複数のユーザの眼の眼姿勢を備える、ことと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目14)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の少なくとも1つの訓練用眼画像を備える、項目13に記載のウェアラブルディスプレイシステム。
(項目15)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の訓練用眼画像を備えない、項目13に記載のウェアラブルディスプレイシステム。
(項目16)
前記眼追跡のためのニューラルネットワークを再訓練するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練されるニューラルネットワークの加重を前記ニューラルネットワークの加重で初期化する
ようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目17)
前記ハードウェアプロセッサは、前記実行可能命令によって、前記ユーザデバイスに、
前記ユーザの眼画像を前記画像捕捉デバイスから受信することと、
前記再訓練されたニューラルネットワークを使用して、前記眼画像内の前記ユーザの眼姿勢を決定することと
を行わせるようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目18)
眼追跡のためのニューラルネットワークを再訓練するためのシステムであって、前記システムは、
実行可能命令を記憶するコンピュータ可読メモリと、
1つ以上のプロセッサであって、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、
ユーザの眼の複数の再訓練用眼画像を受信することであって、
前記複数の再訓練用眼画像の再訓練用眼画像は、ユーザデバイスの表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、捕捉される、ことと、
再訓練用入力データおよび対応する再訓練用標的出力データを備える再訓練セットを生成することであって、
前記再訓練用入力データは、前記再訓練用眼画像を備え、
前記対応する再訓練用標的出力データは、前記表示場所に関連する前記再訓練用眼画像内の前記ユーザの眼の眼姿勢を備える、ことと、
前記再訓練セットを使用して、眼追跡のためのニューラルネットワークを再訓練し、再訓練されたニューラルネットワークを生成することと
を行うようにプログラムされる、1つ以上のプロセッサと
を備える、システム。
(項目19)
前記ユーザの複数の再訓練用眼画像を受信するために、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、前記ユーザデバイスに、
ディスプレイを使用して、UIデバイスを前記表示場所においてユーザに表示することと、
前記UIデバイスに対する前記UIイベントの発生を決定することと、
結像システムを使用して、前記再訓練用眼画像を捕捉することと、
前記再訓練用眼画像を前記システムに伝送することと
を行わせるようにプログラムされる、項目18に記載のシステム。
(項目20)
前記ユーザの複数の再訓練用眼画像を受信するために、前記1つ以上のプロセッサはさらに、前記実行可能命令によって、少なくとも、
前記表示場所を使用して、前記再訓練用眼画像内の前記眼の眼姿勢を決定する
ようにプログラムされる、項目19に記載のシステム。
(項目21)
前記再訓練用画像内の前記眼の眼姿勢は、前記表示場所を備える、項目20に記載のシステム。
(項目22)
前記ユーザの複数の再訓練用眼画像を受信するために、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練用眼画像に基づいて、第2の複数の第2の再訓練用眼画像を生成することと、
前記表示場所および確率分布関数を使用して、前記第2の複数の第2の再訓練用眼画像の第2の再訓練用眼画像内の前記眼の眼姿勢を決定することと
を行うようにプログラムされる、項目19に記載のシステム。
(項目23)
前記ユーザの複数の再訓練用眼画像を受信するために、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、
前記ユーザの眼の複数の眼画像を受信することであって、
前記複数の眼画像の第1の眼画像は、前記ユーザデバイスの表示場所においてユーザに示される前記UIデバイスに対する前記UIイベントが生じると、前記ユーザデバイスによって捕捉される、ことと、
前記表示場所から、前記UIイベントに先立った前記ユーザの運動に沿って遡って、前記運動の開始まで、前記UIデバイスの投影された表示場所を決定することと、
前記投影された表示場所および前記運動の開始時に捕捉された前記複数の眼画像の第2の眼画像内の前記UIデバイスの第2の表示場所が閾値距離内にあることを決定することと、
前記第2の眼画像から前記第1の眼画像までの前記複数の眼画像の眼画像を備える前記再訓練用入力データを生成することであって、
前記対応する再訓練用標的出力データは、前記眼画像内の前記UIデバイスの表示場所に関連する前記眼画像の各眼画像内の前記ユーザの眼の眼姿勢を備える、ことと
を行うようにプログラムされる、項目18に記載のシステム。
(項目24)
前記眼の眼姿勢は、前記表示場所である、項目18に記載のシステム。
(項目25)
前記1つ以上のプロセッサはさらに、前記実行可能命令によって、少なくとも、前記UIデバイスの表示場所を使用して、前記眼の眼姿勢を決定するようにプログラムされる、項目18に記載のシステム。
(項目26)
前記再訓練セットを生成するために、前記1つ以上のプロセッサは、前記実行可能命令
によって、少なくとも、
前記再訓練用眼画像内の前記眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域内にあることを決定することと、
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することと、
前記分布確率に関連する含有確率において前記再訓練用眼画像を備える前記再訓練用入力データを生成することと
を行うようにプログラムされる、項目18に記載のシステム。
(項目27)
前記1つ以上のプロセッサはさらに、前記実行可能命令によって、少なくとも、
訓練用入力データおよび対応する訓練用標的出力データを備える訓練セットを使用して、前記眼追跡のためのニューラルネットワークを訓練することであって、
前記訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、
前記対応する訓練用標的出力データは、前記訓練用の複数の訓練用眼画像内の前記複数のユーザの眼の眼姿勢を備える、こと
を行うようにプログラムされる、項目18に記載のシステム。
(項目28)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の少なくとも1つの訓練用眼画像を備える、項目27に記載のシステム。
(項目29)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の訓練用眼画像を備えない、項目27に記載のシステム。
(項目30)
前記眼追跡のためのニューラルネットワークを再訓練するために、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練されるニューラルネットワークの加重を前記ニューラルネットワークの加重で初期化する
ようにプログラムされる、項目18に記載のシステム。
(項目31)
前記1つ以上のプロセッサは、前記実行可能命令によって、前記ユーザデバイスに、
前記ユーザの眼画像を捕捉することと、
前記再訓練されたニューラルネットワークを使用して、前記眼画像内の前記ユーザの眼姿勢を決定することと
を行わせるようにプログラムされる、項目18に記載のシステム。
(項目32)
ニューラルネットワークを再訓練するための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
ユーザの眼の複数の再訓練用眼画像を受信することであって、
前記複数の再訓練用眼画像の再訓練用眼画像は、表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、捕捉される、ことと、
再訓練用入力データおよび対応する再訓練用標的出力データを備える再訓練セットを生成することであって、
前記再訓練用入力データは、前記再訓練用眼画像を備え、
前記対応する再訓練用標的出力データは、前記表示場所に関連する前記再訓練用眼画像内の前記ユーザの眼の眼姿勢を備える、ことと、
前記再訓練セットを使用して、ニューラルネットワークを再訓練し、再訓練されたニューラルネットワークを生成することと
を含む、方法。
(項目33)
前記ユーザの複数の再訓練用眼画像を受信することは、
ディスプレイを使用して、前記UIデバイスを前記表示場所においてユーザに表示することと、
前記UIデバイスに対する前記UIイベントの発生を決定することと、
結像システムを使用して、前記再訓練用眼画像を捕捉することと
を含む、項目32に記載の方法。
(項目34)
前記ユーザの複数の再訓練用眼画像を受信することはさらに、
前記再訓練用眼画像に基づいて、第2の複数の第2の再訓練用眼画像を生成することと、
前記表示場所および確率分布関数を使用して、前記第2の複数の第2の再訓練用眼画像の第2の再訓練用眼画像内の前記眼の眼姿勢を決定することと
を含む、項目33に記載の方法。
(項目35)
前記確率分布関数は、前記UIデバイスの所定の確率分布を備える、項目34に記載の方法。
(項目36)
前記UIデバイスは、第1のコンポーネントおよび第2のコンポーネントを備え、前記確率分布関数は、前記第1のコンポーネントに対する分布確率の分布関数および前記第2のコンポーネントに対する第2の確率分布関数の組み合わせられた確率分布を備える、項目34に記載の方法。
(項目37)
前記UIデバイスの第1のコンポーネントは、グラフィカルUIデバイスを備え、前記UIデバイスの第2のコンポーネントは、前記グラフィカルUIデバイスのテキスト説明を備える、項目36に記載の方法。
(項目38)
前記ユーザの複数の再訓練用眼画像を受信することは、
前記ユーザの眼の複数の眼画像を受信することであって、
前記複数の眼画像の第1の眼画像は、前記表示場所において、前記ユーザに示されるUIデバイスに対する前記UIイベントが生じると、捕捉される、ことと、
前記表示場所から、前記UIイベントに先立った運動に沿って遡って、前記運動の開始まで、前記UIデバイスの投影された表示場所を決定することと、
前記投影された表示場所および前記運動の開始時に捕捉された前記複数の眼画像の第2の眼画像内の前記UIデバイスの第2の表示場所が閾値距離内にあることを決定することと、
前記第2の眼画像から前記第1の眼画像までの前記複数の眼画像の眼画像を備える前記再訓練用入力データを生成することであって、
前記対応する再訓練用標的出力データは、前記眼画像内の前記UIデバイスの表示場所に関連する前記眼画像の各眼画像内の前記ユーザの眼の眼姿勢を備える、ことと
を含む、項目32に記載の方法。
(項目39)
前記運動は、角運動を備える、項目38に記載の方法。
(項目40)
前記運動は、均一運動を備える、項目38に記載の方法。
(項目41)
前記UIイベントに先立った前記運動の存在を決定することをさらに含む、項目38に記載の方法。
(項目42)
前記第2の眼画像から前記第1の眼画像までの前記眼画像内の運動に伴って前記ユーザの眼が平滑に移動することを決定することをさらに含む、項目38に記載の方法。
(項目43)
前記眼が平滑に移動することを決定することは、
前記ニューラルネットワークを使用して、前記眼画像内で前記運動に伴って前記ユーザの眼が平滑に移動することを決定すること
を含む、項目42に記載の方法。
(項目44)
前記眼が平滑に移動することを決定することは、
前記眼画像内の前記ユーザの眼の眼姿勢が前記運動に伴って平滑に移動することを決定すること
を含む、項目42に記載の方法。
(項目45)
前記眼の眼姿勢は、前記表示場所である、項目32に記載の方法。
(項目46)
前記UIデバイスの表示場所を使用して、前記眼の眼姿勢を決定することをさらに含む、項目32に記載の方法。
(項目47)
前記眼の眼姿勢を決定することは、前記UIデバイスの表示場所、前記眼の場所、またはそれらの組み合わせを使用して、前記眼の眼姿勢を決定することを含む、項目46に記載の方法。
(項目48)
前記再訓練セットを生成することは、
前記再訓練用眼画像内の前記眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域内にあることを決定することと、
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することと、
前記分布確率に関連する含有確率において前記再訓練用眼画像を備える前記再訓練用入力データを生成することと
を含む、項目32に記載の方法。
(項目49)
前記含有確率は、前記分布確率に反比例する、項目48に記載の方法。
(項目50)
前記第1の眼姿勢領域は、第1の天頂範囲および第1の方位角範囲内にある、項目48に記載の方法。
(項目51)
前記眼の眼姿勢が前記第1の眼姿勢領域内にあることを決定することは、
前記再訓練用眼画像内の前記眼の眼姿勢が、前記複数の眼姿勢領域の第1の眼姿勢領域または第2の眼姿勢領域内にあることを決定すること
を含む、項目48に記載の方法。
(項目52)
前記第1の眼姿勢領域は、第1の天頂範囲および第1の方位角範囲内にあり、
前記第2の眼姿勢領域は、第2の天頂範囲および第2の方位角範囲内にあり、
前記第1の天頂範囲内の数および前記第2の天頂範囲内の数の和はゼロである、前記第1の方位角範囲内の数および前記第2の方位角範囲内の数の和はゼロである、またはそれらの組み合わせである、項目51に記載の方法。
(項目53)
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することは、前記複数の再訓練用眼画像の再訓練用眼画像が捕捉されるときにユーザに示されるUIデバイスの表示場所の分布が、前記複数の眼姿勢領域の眼姿勢領域内にあることを決定することを含み、
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することは、UIデバイスの表示場所の分布を使用して、前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することを含む、項目48に記載の方法。
(項目54)
訓練用入力データおよび対応する訓練用標的出力データを備える訓練セットを使用して、前記ニューラルネットワークを訓練することをさらに含み、
前記訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、
前記対応する訓練用標的出力データは、前記訓練用の複数の訓練用眼画像内の前記複数のユーザの眼の眼姿勢を備える、項目32に記載の方法。
(項目55)
前記複数のユーザは、多数のユーザを備える、項目54に記載の方法。
(項目56)
前記眼の眼姿勢は、前記眼の多様な眼姿勢を備える、項目54に記載の方法。
(項目57)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の少なくとも1つの訓練用眼画像を備える、項目54に記載の方法。
(項目58)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の訓練用眼画像を備えない、項目32に記載の方法。
(項目59)
前記ニューラルネットワークを再訓練することは、前記再訓練セットを使用して、前記ニューラルネットワークを再訓練し、眼追跡のための再訓練されたニューラルネットワークを生成することを含む、項目32に記載の方法。
(項目60)
前記ニューラルネットワークを再訓練することは、前記再訓練セットを使用して、前記ニューラルネットワークを再訓練し、バイオメトリック用途のための再訓練されたニューラルネットワークを生成することを含む、項目32に記載の方法。
(項目61)
前記バイオメトリック用途は、虹彩識別を備える、項目60に記載の方法。
(項目62)
前記ニューラルネットワークを再訓練することは、前記再訓練されるニューラルネットワークの加重を前記ニューラルネットワークの加重で初期化することを含む、項目32に記載の方法。
(項目63)
前記ユーザの眼画像を受信することと、
前記再訓練されたニューラルネットワークを使用して、前記眼画像内の前記ユーザの眼姿勢を決定することと
をさらに含む、項目32に記載の方法。
(項目64)
前記UIイベントは、前記UIデバイスの複数の状態のうちの状態に対応する、項目32に記載の方法。
(項目65)
前記複数の状態は、前記UIデバイスのアクティブ化または非アクティブ化を備える、項目64に記載の方法。
(項目66)
前記UIデバイスは、ArUco、ボタン、アップダウン、スピナー、ピッカー、ラジオボタン、ラジオボタンリスト、チェックボックス、ピクチャボックス、チェックボックスリスト、ドロップダウンリスト、ドロップダウンメニュー、選択リスト、リストボックス、コンボボックス、テキストボックス、スライダ、リンク、キーボードキー、スイッチ、スライダ、タッチ表面、またはそれらの組み合わせを備える、項目32に記載の方法。
(項目67)
前記UIイベントは、前記UIデバイスおよびポインタに対して生じる、項目32に記載の方法。
(項目68)
前記ポインタは、ユーザと関連付けられたオブジェクトまたは前記ユーザの一部を備える、項目67に記載の方法。
(項目69)
前記ユーザと関連付けられたオブジェクトは、ポインタ、ペン、鉛筆、マーカ、ハイライター、またはそれらの組み合わせを備え、前記ユーザの一部は、前記ユーザの指を備える、項目68に記載の方法。
ニューラルネットワーク(NN)を訓練するプロセスは、ネットワークに入力データおよび対応する標的出力データの両方を提示するステップを伴う。例示的入力および標的出力の両方を含む、本データは、訓練セットと称され得る。訓練プロセスを通して、ネットワークの加重は、ネットワークの出力が、訓練セットからの特定の入力データを前提として、その特定の入力データに対応する標的出力に合致するようになる(例えば、可能な限り、望ましい限り、または実践的である限り、近似的に)ように、漸次的または反復的に適合され得る。
訓練セットを使用するためのシステムおよび方法である。いくつかの実装では、深層ニューラルネットワーク(DNN)等のNNは、最初に、大規模母集団(例えば、ヒト母集団を含む、動物母集団)からの眼画像を含む、訓練セットを使用して、眼追跡の(例えば、眼移動を追跡する、または視線方向を追跡する)ために訓練されることができる。訓練セットは、数百人、数千人、またはそれを上回る個人から収集された訓練データを含むことができる。
カル処理モジュール1124を使用して)、NN108を再訓練することができる。別の実施例として、遠隔処理モジュール(例えば、図11における遠隔処理モジュール1128)およびNN再訓練システム120の一方または両方が、NN108を再訓練する際に関わることができる。再訓練の速さを改良するために、再訓練されるNN124の加重は、いくつかの実装では、有利には、再訓練プロセスの開始時の訓練されたNN108の加重に設定されることができる。
図2は、眼瞼204、強膜208(眼の「白眼」)、虹彩212、および瞳孔216を伴う、眼200の画像を図示する。例えば、図1におけるARD104の内向きに向いた結像システムを使用して捕捉された眼画像が、NN108を再訓練するために使用され、再訓練されたNN124を生成することができる。眼画像は、任意の適切なプロセスを使用して、例えば、画像を1つ以上のシーケンシャルフレームから抽出し得る、ビデオ処理アルゴリズムを使用して、ビデオから取得されることができる。いくつかの実施形態では、再訓練されたNN124は、再訓練されたNN108を使用して、眼画像内の眼200の眼姿勢を決定するために使用されることができる。
かって配向される、眼姿勢方向220を参照して決定されることができる。図2Aに示される例示的座標系を参照すると、眼200の姿勢は、両方とも眼の自然静置方向220に対する、眼の眼姿勢方向224の方位角偏向および天頂偏向を示す、2つの角度パラメータとして表され得る。例証目的のために、これらの角度パラメータは、θ(基点方位角から決定される、方位角偏向)およびφ(時として、極性偏向とも称される、天頂偏向)として表され得る。いくつかの実装では、眼姿勢方向224の周囲の眼の角度ロールが、眼姿勢の決定内に含まれることができる。他の実装では、眼姿勢を決定するための他の技法、例えば、ピッチ、ヨー、および随意に、ロール系が、使用されることができる。
図1は、眼追跡のためのニューラルネットワークを再訓練するために、眼画像を収集する一実施形態を図式的に図示する。いくつかの実施形態では、NN108は、最初に、あるクラスとして、全般的ユーザの眼移動を追跡するように訓練されることができる。例えば、NN108は、最初に、ARD製造業者によって、多くの方向を見ている多くの個人を含む、訓練セット上で訓練されることができる。本明細書に開示されるシステムおよび方法は、NN108を再訓練し、再訓練されたNN124を生成することによって、特定のユーザ(または5人または10人のユーザ等のユーザのグループ)の場合に関するNN108の性能を改良することができる。例えば、NN108を含む、ARD104の製造業者は、いったん製造および流通されると、ARD104を購入するであろう人物について把握し得ない。
ザのために構成されることができる。いったん再訓練セットの十分な数のデータ点が収集されると、NN108は、次いで、再訓練セットを使用して、再訓練または精緻化されることができる。本プロセスは、繰り返される場合とそうではない場合がある。
含有することができる。別の実施例として、再訓練セットの集合要素は、ユーザの各眼の画像と、仮想UIデバイスの1つ以上の場所(例えば、ARD104は、2つのディスプレイを含むことができ、仮想UIデバイスは、ディスプレイ上の2つの異なる場所に表示されることができる)とを含有することができる。集合要素は、加えて、UIイベント(例えば、WIMP「クリック」イベント)の正確な場所等の補助情報を含むことができる。UIイベントの場所は、仮想UIデバイスの場所と明確に異なり得る。UIイベントの場所は、UIイベントが生じるときに仮想UIデバイス上に位置するポインタ(例えば、指またはスタイラス)の場所であることができ、これは、仮想UIデバイスの場所と明確に異なり得る。
。いくつかの実施形態では、セッションの間のユーザの一部または全部の眼画像(またはユーザに関連する他のデータ)が、再訓練セットに追加されることができる。セッションは、識別(ID)検証(例えば、虹彩識別による)またはある他のイベント(例えば、パスワードまたは個人識別番号(PIN)の打ち込み)とARD104が任意の信頼性がある手段によってARD104がユーザから除去されたことを検出した瞬間との間の時間周期を指し得る。再訓練セットは、セッション内で捕捉された眼の画像の一部または全部またはセッション開始時に捕捉された眼画像を含むことができる。
図3は、眼画像を収集または捕捉し、収集された眼画像を使用して、ニューラルネットワークを再訓練する、例証的方法300のフロー図を示す。ARDは、UIイベントが生じると、ユーザの眼画像を捕捉することができる。例えば、図1におけるARD104は、ユーザインターフェース(UI)イベントが生じると、ユーザの図1における眼画像112または図2における眼200の画像を捕捉することができる。システムは、捕捉された眼画像と、UIイベントが生じるときの仮想UIデバイスの場所とを使用して、NNを再訓練し、再訓練されたNNを生成することができる。例えば、図1におけるNN再訓練システム120は、捕捉された眼画像112と、UIイベントが生じ、眼画像112が捕捉されたときの仮想UIデバイス116の場所とを使用して、NN108を再訓練し、再訓練されたNN124を生成することができる。
、再訓練用眼画像内の眼の眼姿勢を決定するステップを含むことができる。例えば、再訓練用眼画像内の眼の眼姿勢は、仮想UIデバイスの表示場所であることができる、または仮想UIデバイスの表示場所を使用して決定されることができる。眼の眼姿勢を決定するステップは、仮想UIデバイスの表示場所、眼の場所、またはそれらの組み合わせを使用して、眼の眼姿勢を決定するステップを含むことができる。例えば、眼の眼姿勢は、仮想UIデバイスの表示場所と眼の場所との間に形成されるベクトルによって表されることができる。
とができる。例えば、図11におけるウェアラブルディスプレイ1100のローカル処理モジュール1124または遠隔処理モジュール1128は、再訓練されたNNを実装することができ、再訓練されたNNを使用して、内向きに向いた結像システムによって捕捉された眼画像内のユーザの眼姿勢を決定することができる。
ユーザが、その眼をユーザインターフェース(UI)デバイスに向けるとき、眼は、デバイス上のある特定の場所に正確に向いていない場合がある。例えば、一部のユーザは、その眼を仮想UIデバイスの正確な中心に向け得る。別の実施例として、他のユーザは、その眼を仮想UIデバイスの角(例えば、最も近い角)に向け得る。さらに別の実施例として、一部のユーザは、その眼を仮想UIデバイスのある予測不能領域(例えば、ボタン上のテキスト内の文字の一部)等の仮想UIデバイスのある他の部分上に固定させ得る。本明細書に開示されるシステムおよび方法は、中心指示をとらずに生成される再訓練セットを用いて、NNを再訓練することができる。
びテキストコンポーネントの確率分布関数をまとめることによって決定されることができる。
ARDのディスプレイは、異なる眼姿勢領域に対応する、複数の領域を含むことができる。例えば、ディスプレイ(例えば、図11における頭部搭載型ディスプレイシステム1100のディスプレイ1108)は、いくつかの眼姿勢領域(例えば、2、3、4、5、6、9、12、18、24、36、49、64、128、256、1,000、またはそれを上回る)と関連付けられることができる。図6は、異なる眼姿勢領域に対応するディスプレイのいくつかの領域を伴う、拡張現実デバイスの例示的ディスプレイ600を図示する。ディスプレイ600は、25の領域604r11-604r55を含む。ディスプレイ600および眼姿勢領域は、同一または異なるサイズまたは形状(長方形、正方形、円形、三角形、卵形、または菱形等)を有することができる。眼姿勢領域は、その眼姿勢領域を装着者の眼姿勢の角度空間の観点から規定する、2次元実座標空間
または2次元正整数座標空間
の接続されたサブセットと見なされ得る。例えば、眼姿勢領域は、方位角偏向(基点方位角から測定される)における特定のθminと特定のθmaxとの間および天頂偏向(極性偏向とも称される)における特定のφminと特定のφmaxとの間にあることができる。
中に投影されることができる。
式中、q(θ,φ)は、方位角(θ)および天頂角度(φ)と関連付けられたビン内の任意の仮想UIデバイス(または特定の仮想UIデバイスまたは特定のタイプの仮想UIデバイス)の正規化された確率を示す。
図7は、ニューラルネットワークを再訓練するための眼画像を収集するときに観察される、UIイベントの密度正規化を実施する、例証的方法のフロー図を示す。ARDは、ユーザインターフェース(UI)イベントが生じると、ユーザの眼画像を捕捉することができる。例えば、図1におけるARD104は、ユーザインターフェースイベントが生じると、ユーザの眼画像112または図2における眼200の画像を捕捉することができる。再訓練セットが、ある表示場所における仮想UIデバイスに対するUIイベントが生じるときに捕捉された眼画像を含むかどうかは、ディスプレイの異なる領域または異なる眼姿勢領域内のUIデバイスの分布を使用して決定されることができる。図1におけるARD104またはNN再訓練システム120は、ディスプレイの異なる領域または眼姿勢領域内のUIデバイスの分布を使用して、再訓練セットを生成することができる。
バイスおよび第2のUIデバイスは、同一または異なることができる(例えば、ボタンまたはスライダ)。第1のUIイベントおよび第2のUIイベントは、同一タイプまたは異なるタイプのUIイベント(例えば、クリックまたはタッチ)であることができる。
ディスプレイエリアの縁の近傍のイベントは、稀であることが予期され得る。例えば、ARDのユーザは、物理的デバイスとの相互作用と同様に、仮想UIデバイスと相互作用する前に、その頭部をそれに向かって方向転換させる傾向にあり得る。UIイベントの時点で、仮想UIデバイスは、中心に位置することができる。しかしながら、ユーザは、本種類の頭部旋回の前およびその間、中心に位置しない仮想UIデバイスを固視する傾向を有し得る。本明細書に開示されるシステムおよび方法は、そのような頭部旋回をUIイベントから遡って追跡することによって、再訓練セットを生成することができる。
、検出され、視野内のデバイスから生じた可能性がある場合、検証が、NN(例えば、眼追跡のための訓練されたNN108)を使用して行われ、運動の間、ユーザの眼が運動に伴って平滑に掃引されていた(例えば、旋回の間、絶えず固視が何らかのもの上に存在しているかのように)ことを検証することができる。例えば、眼画像820a、820b内のユーザの眼824の運動が、訓練されたNNを使用して決定されることができる。そのような平滑掃引が決定される場合、ユーザは、最終的にアクティブ化または作動させる、仮想UIデバイスを固視していたと見なされ得る。再訓練セットは、再訓練用入力データと、対応する再訓練用標的出力データとを含むことができる。再訓練用入力データは、眼画像820a、820bを含むことができる。対応する再訓練用標的出力データは、UIイベント時の仮想UIデバイス804の場所と、仮想UIデバイスの投影された場所(例えば、投影された場所808p)とを含むことができる。
図9は、UIデバイスに対する眼視線の逆追跡の例証的方法のフロー図を示す。ARD(例えば、図1におけるARD104)は、眼視線の逆追跡のための方法900を実施することができる。ブロック904では、ユーザの眼の複数の眼画像が、受信されることができる。例えば、図8におけるユーザの眼824の眼画像820a、820bが、受信されることができる。複数の眼画像の第1の眼画像が、第1の表示場所においてユーザに示されるUIデバイスに対するUIイベントが生じると、捕捉されることができる。例えば、図8に示されるように、眼画像820aは、表示場所808aにおける仮想UIデバイス804に対するUIイベントが生じると、捕捉される。
トが、生成されることができる。各眼画像は、UIデバイスの表示場所と関連付けられることができる。例えば、再訓練セットは、再訓練用入力データとして、時間=-Nにおける運動の開始時に捕捉された眼画像820bから時間=0においてUIイベントが生じたときに捕捉された眼画像820aまでの眼画像を含むことができる。再訓練セットは、対応する再訓練用標的出力データとして、表示場所808a、投影された場所808p、および表示場所808aと投影された場所808pとの間の投影された場所を含むことができる。
深層ニューラルネットワーク(DNN)等のニューラルネットワーク(NN)の層は、線形または非線形変換をその入力に適用し、その出力を生成することができる。深層ニューラルネットワーク層は、正規化層、畳み込み層、ソフトサイン層、正規化線形層、連結層、プーリング層、再帰層、インセプション様層、または任意のそれらの組み合わせであることができる。正規化層は、例えば、L2正規化を用いて、その入力の明度を正規化し、その出力を生成することができる。正規化層は、例えば、相互に対して一度に複数の画像の明度を正規化し、複数の正規化された画像をその出力として生成することができる。明度を正規化するための非限定的例示的方法は、ローカルコントラスト正規化(LCN)またはローカル応答正規化(LRN)を含む。ローカルコントラスト正規化は、平均値ゼロおよび分散1(または他の値の平均値および分散)を有するようにピクセル毎に画像のローカル領域を正規化することによって、画像のコントラストを非線形に正規化することができる。ローカル応答正規化は、平均値ゼロおよび分散1(または他の値の平均値および分散)を有するように、画像をローカル入力領域にわたって正規化することができる。正規化層は、訓練プロセスを加速させ得る。
層およびPReLU層等の正規化線形層、連結層、プーリング層、または任意のそれらの組み合わせのうちの1つ以上のものを含むことができる。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、それらが現実であるように見える、またはそのように知覚され得る様式において、ユーザに提示される。仮想現実「VR」シナリオは、典型的には、他の実際の実世界視覚的入力に対して透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴う、拡張現実「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてデジタルまたは仮想画像情報の提示を伴う、または複合現実「MR」シナリオは、典型的には、実および仮想世界の融合を伴い、新しい環境を生成し、物理的および仮想オブジェクトが、共存し、リアルタイムで相互作用する。結論からいうと、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、VR、AR、またはMRの生成は、困難である。本明細書に開示される、システムおよび方法は、VR、AR、およびMR技術に関連する種々の課題に対処する。
オブジェクトを伴う、拡張現実シナリオの例証を描写する。図10は、拡張現実場面1000を描写し、AR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム1020を特徴とする、実世界公園状設定1010が見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム1020上に立っているロボット像1030と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ1040(例えば、マルハナバチ)とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
図11は、VR、AR、またはMR体験をディスプレイシステム装着者または視認者1104に提示するために使用され得る、ウェアラブルディスプレイシステム1100の実施例を図示する。ウェアラブルディスプレイシステム1100は、本明細書に説明される用途または実施例のいずれかを実施するようにプログラムされてもよい。ディスプレイシステム1100は、ディスプレイ1108と、ディスプレイ1108の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ1108は、ディスプレイシステムユーザ、装着者、または視認者1104によって装着可能であって、ディスプレイ1108を装着者1104の眼の正面に位置付けるように構成される、フレーム1112に結合されてもよい。ディスプレイ1108は、ライトフィールドディスプレイであってもよい。いくつかの実施形態では、スピーカ1116が、フレーム1112に結合され、ユーザの外耳道に隣接して位置付けられる。いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する。ディスプレイ1108は、有線導線または無線コネクティビティ等によって、フレーム1112に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ1104に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成において搭載され得る、ローカルデータ処理モジュール1124に動作可能に結合される1120。
の耳の近傍に)搭載されることができる。そのような実施形態では、ディスプレイ1108は、光を装着者の眼からカメラに向かって反射させる、材料でコーティングされてもよい。光は、虹彩特徴が赤外線画像内で顕著であるため、赤外線光であってもよい。
着者の手によるジェスチャ(例えば、実または仮想オブジェクトの取上、賛成または反対の信号伝達(例えば、「親指を上に向ける」または「親指を下に向ける」)等)、およびウェアラブルディスプレイシステムを認識してもよい。
には、有限数の深度平面を解釈し、深度知覚を提供することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、眼にこれらの限定数の深度平面のそれぞれに対応する画像の異なる提示を提供することによって達成され得る。
図13は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ディスプレイシステム1300は、複数の導波管1320a-1320eを使用して、3次元知覚を眼1310または脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ1305を含む。いくつかの実施形態では、ディスプレイシステム1300は、図11のシステム1100に対応してもよく、図13は、そのシステム1100のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ1305は、図11のディスプレイ1108の中に統合されてもよい。
56と通信してもよい。内向きに向いた結像システム1352(例えば、デジタルカメラ)は、眼1310の画像を捕捉し、例えば、眼1310の瞳孔のサイズおよび/または配向を決定するために使用されることができる。外向きに向いた結像システム1354は、世界1358の一部を結像するために使用されることができる。ユーザは、ユーザ入力デバイス1356を介して、コマンドをコントローラ1350に入力し、ディスプレイシステム1300と相互作用することができる。
ク1330a-1330dの集約力を補償してもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管1320a-1320eの光抽出光学要素1360a-1360eおよびレンズ1330a-1330dの集束側面は両方とも、静的であってもよい(例えば、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。
メラ)は、眼移動および顔移動等、ユーザの移動を観察することができる。内向きに向いた結像システム1352は、眼1310の画像を捕捉し、眼1310の瞳孔のサイズおよび/または配向を決定するために使用されてもよい。内向きに向いた結像システム1352は、ユーザが見ている方向(例えば、眼姿勢)を決定する際に使用するため、またはユーザのバイオメトリック識別のため(例えば、虹彩識別を介して)の画像を得るために使用されることができる。内向きに向いた結像システム1352によって得られる画像は、ユーザに提示されるべきオーディオまたは視覚的コンテンツを決定するためにディスプレイシステム1300によって使用され得る、ユーザの眼姿勢および/または気分を決定するために分析されてもよい。ディスプレイシステム1300はまた、慣性測定ユニット(IMU)、加速度計、ジャイロスコープ等のセンサを使用して、頭部姿勢(例えば、頭部位置または頭部配向)を決定してもよい。頭部の姿勢は、単独で、または眼姿勢と組み合わせて、支え追跡と相互作用する、および/またはオーディオコンテンツを提示するために使用されてもよい。
は、可変開口を使用して変動されてもよい。
0a-1320eに類似することができる。光学システムは、分散導波管装置を採用し、光を第1の軸(図15の図では、垂直またはY-軸)に沿って中継し、第1の軸(例えば、Y-軸)に沿って光の有効射出瞳を拡張させてもよい。分散導波管装置は、例えば、分散平面導波管1512と、分散平面導波管1512と関連付けられた少なくとも1つのDOE1516(二重破線によって図示される)とを含んでもよい。分散平面導波管1512は、少なくともいくつかの点において、それと異なる配向を有する一次平面導波管1504と類似または同じであってもよい。同様に、少なくとも1つのDOE1516は、少なくともいくつかの点において、DOE1508と類似または同じであってもよい。例えば、分散平面導波管1512および/またはDOE1516は、それぞれ、一次平面導波管1504および/またはDOE1508と同一材料から成ってもよい。図15に示される光学システムは、図11に示されるウェアラブルディスプレイシステム1100の中に統合されることができる。
1516と繰り返し交差する。DOE1516は、好ましくは、低回折効率を有する。これは、光の一部(例えば、10%)をDOE1516との交差点の各点においてより大きい一次平面導波管1504の縁に向かって回折させ、光の一部をTIRを介して分散平面導波管1512の長さを辿ってそのオリジナル軌道上で継続させる。
第1の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ユーザの眼の複数の再訓練用眼画像を捕捉するように構成される、画像捕捉デバイスと、ディスプレイと、複数の再訓練用眼画像と、眼追跡のためのニューラルネットワークとを記憶するように構成される、非一過性コンピュータ可読記憶媒体と、画像捕捉デバイス、ディスプレイ、および非一過性コンピュータ可読記憶媒体と通信する、ハードウェアプロセッサであって、実行可能命令によって、画像捕捉デバイスによって捕捉された、および/または非一過性コンピュータ可読記憶媒体から受信された(画像捕捉デバイスによって捕捉され得る)、複数の再訓練用眼画像を受信し、複数の再訓練用眼画像の再訓練用眼画像は、ディスプレイの表示場所においてユーザに示されるUIデ
バイスに対するユーザインターフェース(UI)イベントが生じると、画像捕捉デバイスによって捕捉され、再訓練用入力データおよび対応する再訓練用標的出力データを備える、再訓練セットを生成し、再訓練用入力データは、再訓練用眼画像を備え、対応する再訓練用標的出力データは、表示場所に関連する再訓練用眼画像内のユーザの眼の眼姿勢を備え、再訓練セットを使用して眼追跡のためのニューラルネットワークから再訓練される、再訓練されたニューラルネットワークを取得するようにプログラムされる、ハードウェアプロセッサとを備える。
えるようにプログラムされる、側面1-4のいずれか1項に記載のウェアラブルディスプレイシステム。
ーラルネットワークを生成するようにプログラムされる、1つ以上のプロセッサとを備える。
て、眼追跡のためのニューラルネットワークを訓練し、訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、対応する訓練用標的出力データは、訓練用の複数の訓練用眼画像内の複数のユーザの眼の眼姿勢を備えるようにプログラムされる、側面18-26のいずれか1項に記載のシステム。
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされる、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。
Claims (15)
- コンピューティングシステムであって、
ディスプレイデバイスと、
ソフトウェア命令を記憶するように構成された非一過性コンピュータ可読記憶媒体と、
ハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記ディスプレイデバイスを介してユーザの視野内に仮想コンテンツとしてレンダリングされるユーザインターフェースの特定の部分との前記ユーザのユーザ相互作用に基づいてユーザインターフェースイベントを検出することと、
前記ユーザインターフェースイベントの間または直後に入手される前記ユーザの眼の1つ以上の画像を識別することであって、前記画像は、前記ユーザインターフェースの前記特定の部分に指向されている前記ユーザの眼姿勢を反映する、ことと、
前記ユーザの眼画像に基づいて、ユーザの眼姿勢を検出するように構成されたニューラルネットワークの更新を開始することであって、前記ニューラルネットワークは、前記ユーザの眼姿勢を反映する前記1つ以上の画像と、前記ユーザインターフェースの前記特定の部分とに基づいて更新される、ことと
を前記コンピューティングシステムに行わせるために、前記ソフトウェア命令を実行するように構成され、
前記更新されたニューラルネットワークは、前記ユーザの眼姿勢を検出するために個人化される、コンピューティングシステム。 - 前記ニューラルネットワークは、前記ユーザ以外の個人からの複数の訓練用画像に基づいてユーザの眼姿勢を検出するように訓練される、請求項1に記載のコンピューティングシステム。
- 前記ユーザインターフェースイベントは、ユーザインターフェース要素の選択を備え、前記ユーザインターフェースの前記特定の部分は、前記ユーザインターフェース要素の場所を備える、請求項1に記載のコンピューティングシステム。
- 前記ニューラルネットワークの更新を開始することは、前記ユーザの前記眼の前記1つ以上の画像と、前記ユーザインターフェースの関連付けられた特定の部分とを、前記ニューラルネットワークを更新するように構成された遠隔サーバに伝送することを含む、請求項1に記載のコンピューティングシステム。
- 前記ソフトウェア命令は、
前記ディスプレイデバイス上にレンダリングされる1つ以上のユーザインターフェースの特定の部分とのユーザ相互作用に基づいて付加的ユーザインターフェースイベントを検出することと、
各検出された付加的ユーザインターフェースイベントに対して、前記付加的ユーザインターフェースイベントの間または直後に入手される前記ユーザの前記眼の1つ以上の画像を識別することと、
付加的ユーザインターフェースイベントの1つ以上のセットと、前記ユーザの前記眼の対応する1つ以上の画像とに基づいて前記更新されたニューラルネットワークを周期的に最適化することと
を前記コンピューティングシステムに行わせるようにさらに構成され、
前記最適化されたニューラルネットワークは、前記ユーザの眼姿勢を検出するためにさらに個人化される、請求項1に記載のコンピューティングシステム。 - 前記コンピューティングシステムは、ウェアラブル拡張現実ヘッドセットを備え、前記ユーザインターフェースは、3次元環境中にレンダリングされる、請求項1に記載のコンピューティングシステム。
- 前記ディスプレイデバイスは、左ディスプレイと、右ディスプレイとを備える、請求項6に記載のコンピューティングシステム。
- コンピューティングシステムによって実施されるコンピュータ化された方法であって、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、前記コンピュータ化された方法を実施するために、前記コンピューティングシステムによって実行可能なソフトウェア命令を記憶する1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記コンピュータ化された方法は、
ディスプレイデバイスを介してユーザの視野内に仮想コンテンツとしてレンダリングされるユーザインターフェースの特定の部分とのユーザ相互作用に基づいてユーザインターフェースイベントを検出することと、
前記ユーザインターフェースイベントの間または直後に入手される前記ユーザの眼の1つ以上の画像を識別することであって、前記画像は、前記ユーザインターフェースの前記特定の部分に指向されている眼姿勢を反映する、ことと、
前記ユーザの眼画像に基づいて、ユーザの眼姿勢を検出するように構成されたニューラルネットワークの更新を開始することであって、前記ニューラルネットワークは、前記ユーザの眼姿勢を反映する前記1つ以上の画像と、前記ユーザインターフェースの前記特定の部分とに基づいて更新される、ことと
を含み、
前記更新されたニューラルネットワークは、前記ユーザの眼姿勢を検出するために個人化される、コンピュータ化された方法。 - 前記ニューラルネットワークは、前記ユーザ以外の個人からの複数の訓練用画像に基づいてユーザの眼姿勢を検出するように訓練される、請求項8に記載のコンピュータ化された方法。
- 前記ユーザインターフェースイベントは、ユーザインターフェース要素の選択を備え、前記ユーザインターフェースの前記特定の部分は、前記ユーザインターフェース要素の場所を備える、請求項8に記載のコンピュータ化された方法。
- 前記ニューラルネットワークの更新を開始することは、前記ユーザの前記眼の前記1つ以上の画像と、前記ユーザインターフェースの関連付けられた特定の部分とを、前記ニューラルネットワークを更新するように構成された遠隔サーバに伝送することを含む、請求項8に記載のコンピュータ化された方法。
- ソフトウェア命令が記憶された非一過性コンピュータ可読媒体であって、前記ソフトウェア命令は、
ディスプレイデバイスを介してユーザの視野内に仮想コンテンツとしてレンダリングされるユーザインターフェースの特定の部分とのユーザ相互作用に基づいてユーザインターフェースイベントを検出することと、
前記ユーザインターフェースイベントの間または直後に入手される前記ユーザの眼の1つ以上の画像を識別することであって、前記画像は、前記ユーザインターフェースの前記特定の部分に指向されている前記ユーザの眼姿勢を反映する、ことと、
前記ユーザの眼画像に基づいて、ユーザの眼姿勢を検出するように構成されたニューラルネットワークの更新を開始することであって、前記ニューラルネットワークは、前記ユーザの眼姿勢を反映する前記1つ以上の画像と、前記ユーザインターフェースの前記特定の部分とに基づいて更新される、ことと
を含む動作をコンピューティングシステムに実施させるために、ハードウェアコンピュータプロセッサによって実行可能であり、
前記更新されたニューラルネットワークは、前記ユーザの眼姿勢を検出するために個人化される、非一過性コンピュータ可読媒体。 - 前記ニューラルネットワークは、前記ユーザ以外の個人からの複数の訓練用画像に基づいてユーザの眼姿勢を検出するように訓練される、請求項12に記載の非一過性コンピュータ可読媒体。
- 前記ユーザインターフェースイベントは、ユーザインターフェース要素の選択を備え、前記ユーザインターフェースの前記特定の部分は、前記ユーザインターフェース要素の場所を備える、請求項12に記載の非一過性コンピュータ可読媒体。
- 前記ニューラルネットワークの更新を開始することは、前記ユーザの前記眼の前記1つ以上の画像と、前記ユーザインターフェースの関連付けられた特定の部分とを、前記ニューラルネットワークを更新するように構成された遠隔サーバに伝送することを含む、請求項12に記載の非一過性コンピュータ可読媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762560898P | 2017-09-20 | 2017-09-20 | |
US62/560,898 | 2017-09-20 | ||
PCT/US2018/051461 WO2019060283A1 (en) | 2017-09-20 | 2018-09-18 | PERSONALIZED NEURONAL FOLLOW-UP NETWORK |
JP2019571212A JP7162020B2 (ja) | 2017-09-20 | 2018-09-18 | 眼追跡のための個人化されたニューラルネットワーク |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571212A Division JP7162020B2 (ja) | 2017-09-20 | 2018-09-18 | 眼追跡のための個人化されたニューラルネットワーク |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023011664A JP2023011664A (ja) | 2023-01-24 |
JP7436600B2 true JP7436600B2 (ja) | 2024-02-21 |
Family
ID=65720554
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571212A Active JP7162020B2 (ja) | 2017-09-20 | 2018-09-18 | 眼追跡のための個人化されたニューラルネットワーク |
JP2022166262A Active JP7436600B2 (ja) | 2017-09-20 | 2022-10-17 | 眼追跡のための個人化されたニューラルネットワーク |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571212A Active JP7162020B2 (ja) | 2017-09-20 | 2018-09-18 | 眼追跡のための個人化されたニューラルネットワーク |
Country Status (9)
Country | Link |
---|---|
US (3) | US10719951B2 (ja) |
EP (1) | EP3685313A4 (ja) |
JP (2) | JP7162020B2 (ja) |
KR (1) | KR20200055704A (ja) |
CN (1) | CN111033524A (ja) |
AU (1) | AU2018337653A1 (ja) |
CA (1) | CA3068481A1 (ja) |
IL (2) | IL272289B (ja) |
WO (1) | WO2019060283A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019054598A1 (ko) * | 2017-09-13 | 2019-03-21 | 주식회사 비주얼캠프 | 시선 추적 방법 및 이를 수행하기 위한 사용자 단말 |
CN111033524A (zh) * | 2017-09-20 | 2020-04-17 | 奇跃公司 | 用于眼睛跟踪的个性化神经网络 |
US11556741B2 (en) | 2018-02-09 | 2023-01-17 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters using a neural network |
US11194161B2 (en) | 2018-02-09 | 2021-12-07 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
US11393251B2 (en) | 2018-02-09 | 2022-07-19 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
US11755902B2 (en) * | 2018-06-01 | 2023-09-12 | The Charles Stark Draper Laboratory, Inc. | Co-adaptation for learning and control of devices |
WO2019237085A1 (en) | 2018-06-08 | 2019-12-12 | Vulcan Inc. | Session-based information exchange |
US20190378334A1 (en) | 2018-06-08 | 2019-12-12 | Vulcan Inc. | Augmented reality portal-based applications |
US10996831B2 (en) * | 2018-06-29 | 2021-05-04 | Vulcan Inc. | Augmented reality cursors |
US11853390B1 (en) * | 2018-08-03 | 2023-12-26 | Amazon Technologies, Inc. | Virtual/augmented reality data evaluation |
US11537202B2 (en) | 2019-01-16 | 2022-12-27 | Pupil Labs Gmbh | Methods for generating calibration data for head-wearable devices and eye tracking system |
US11966929B2 (en) * | 2019-02-05 | 2024-04-23 | Infilect Technologies Private Limited | System and method for quantifying brand visibility and compliance metrics for a brand |
EP3979896A1 (en) | 2019-06-05 | 2022-04-13 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters |
US11908129B2 (en) | 2019-12-27 | 2024-02-20 | iAlyze, LLC | Impairment analysis systems and related methods |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
CN111367405A (zh) * | 2020-02-17 | 2020-07-03 | 深圳岱仕科技有限公司 | 头戴显示设备的调整方法、装置、计算机设备及存储介质 |
US10996753B1 (en) | 2020-04-07 | 2021-05-04 | Eyetech Digital Systems, Inc. | Multi-mode eye-tracking with independently operable illuminators |
US11921917B2 (en) | 2020-04-07 | 2024-03-05 | Eyetech Digital Systems, Inc. | Compact eye-tracking camera systems and methods |
CN112598728B (zh) * | 2020-12-23 | 2024-02-13 | 极米科技股份有限公司 | 投影仪姿态估计、梯形校正方法、装置、投影仪及介质 |
WO2022251703A2 (en) * | 2021-05-28 | 2022-12-01 | Blinktbi, Inc. | Systems and methods for eyelid localization |
US20230053464A1 (en) * | 2021-08-19 | 2023-02-23 | Data-Core Systems, Inc. | Systems, Methods, and Devices for Automatically Converting Explanation of Benefits (EOB) Printable Documents into Electronic Format using Artificial Intelligence Techniques |
US12002290B2 (en) | 2022-02-25 | 2024-06-04 | Eyetech Digital Systems, Inc. | Systems and methods for hybrid edge/cloud processing of eye-tracking image data |
WO2024117524A1 (ko) * | 2022-12-02 | 2024-06-06 | 삼성전자주식회사 | 미디어 콘텐트를 표시하기 위한 전자 장치 및 그 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030020755A1 (en) | 1997-04-30 | 2003-01-30 | Lemelson Jerome H. | System and methods for controlling automatic scrolling of information on a display or screen |
JP2008502990A (ja) | 2004-06-18 | 2008-01-31 | トビイ テクノロジー アーベー | 視線追跡に基づいてコンピュータ装置を制御するための装置、方法及びコンピュータプログラム |
US9207760B1 (en) | 2012-09-28 | 2015-12-08 | Google Inc. | Input detection |
Family Cites Families (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL98622A (en) * | 1991-06-25 | 1996-10-31 | Scitex Corp Ltd | Method and device for using neural networks in figure work |
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US7768380B2 (en) * | 1994-05-09 | 2010-08-03 | Automotive Technologies International, Inc. | Security system control for monitoring vehicular compartments |
US5583795A (en) | 1995-03-17 | 1996-12-10 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for measuring eye gaze and fixation duration, and method therefor |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
JP3361980B2 (ja) * | 1997-12-12 | 2003-01-07 | 株式会社東芝 | 視線検出装置及びその方法 |
EP1483909B1 (en) | 2002-03-13 | 2010-04-28 | Imax Corporation | Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data |
US8098901B2 (en) | 2005-01-26 | 2012-01-17 | Honeywell International Inc. | Standoff iris recognition system |
KR20050025927A (ko) | 2003-09-08 | 2005-03-14 | 유웅덕 | 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
US7248720B2 (en) | 2004-10-21 | 2007-07-24 | Retica Systems, Inc. | Method and system for generating a combined retina/iris pattern biometric |
US7549743B2 (en) * | 2005-01-06 | 2009-06-23 | University Of Rochester | Systems and methods for improving visual discrimination |
US20070052672A1 (en) | 2005-09-08 | 2007-03-08 | Swisscom Mobile Ag | Communication device, system and method |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
JP4824420B2 (ja) | 2006-02-07 | 2011-11-30 | アイテック株式会社 | 視線ベクトル検出方法及び同装置 |
US7970179B2 (en) | 2006-09-25 | 2011-06-28 | Identix Incorporated | Iris data extraction |
US8363783B2 (en) | 2007-06-04 | 2013-01-29 | Oraya Therapeutics, Inc. | Method and device for ocular alignment and coupling of ocular structures |
JP5088024B2 (ja) | 2007-07-11 | 2012-12-05 | 沖電気工業株式会社 | 試供品配布システム、試供品配布情報サーバ、試供品配布方法及び試供品配布情報処理プログラム |
US20090129591A1 (en) | 2007-11-21 | 2009-05-21 | Hayes Gregory A | Techniques for Securing Document Content in Print and Electronic Form |
US8098891B2 (en) | 2007-11-29 | 2012-01-17 | Nec Laboratories America, Inc. | Efficient multi-hypothesis multi-human 3D tracking in crowded scenes |
US8064653B2 (en) | 2007-11-29 | 2011-11-22 | Viewdle, Inc. | Method and system of person identification by facial image |
US8411910B2 (en) | 2008-04-17 | 2013-04-02 | Biometricore, Inc. | Computationally efficient feature extraction and matching iris recognition |
US8341100B2 (en) | 2008-07-03 | 2012-12-25 | Nec Laboratories America, Inc. | Epithelial layer detector and related methods |
WO2010129074A1 (en) | 2009-01-14 | 2010-11-11 | Indiana University Research & Technology Corporation | System and method for identifying a person with reference to a sclera image |
US8374404B2 (en) | 2009-02-13 | 2013-02-12 | Raytheon Company | Iris recognition using hyper-spectral signatures |
US20100232654A1 (en) | 2009-03-11 | 2010-09-16 | Harris Corporation | Method for reconstructing iris scans through novel inpainting techniques and mosaicing of partial collections |
WO2011091326A1 (en) | 2010-01-22 | 2011-07-28 | Optimedica Corporation | Apparatus for automated placement of scanned laser capsulorhexis incisions |
US8345984B2 (en) | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
US20150309316A1 (en) | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US9691289B2 (en) * | 2010-12-22 | 2017-06-27 | Brightstar Learning | Monotonous game-like task to promote effortless automatic recognition of sight words |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CA2822978C (en) | 2010-12-24 | 2019-02-19 | Hong Hua | An ergonomic head mounted display device and optical system |
CN103635891B (zh) | 2011-05-06 | 2017-10-27 | 奇跃公司 | 大量同时远程数字呈现世界 |
EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
US20130159939A1 (en) | 2011-10-12 | 2013-06-20 | Qualcomm Incorporated | Authenticated gesture recognition |
EP2587341B1 (en) * | 2011-10-27 | 2017-01-04 | Tobii AB | Power management in an eye-tracking system |
CN104011788B (zh) | 2011-10-28 | 2016-11-16 | 奇跃公司 | 用于增强和虚拟现实的系统和方法 |
KR102440195B1 (ko) | 2011-11-23 | 2022-09-02 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
US10540008B2 (en) * | 2012-01-04 | 2020-01-21 | Tobii Ab | System for gaze interaction |
BR112014024941A2 (pt) | 2012-04-05 | 2017-09-19 | Magic Leap Inc | dispositivo de imagem de campo de visão amplo com capacidade de focalização ativa |
CN104737061B (zh) | 2012-06-11 | 2018-01-16 | 奇跃公司 | 使用波导反射器阵列投射器的多深度平面三维显示器 |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9141916B1 (en) | 2012-06-29 | 2015-09-22 | Google Inc. | Using embedding functions with a deep network |
US9262680B2 (en) | 2012-07-31 | 2016-02-16 | Japan Science And Technology Agency | Point-of-gaze detection device, point-of-gaze detecting method, personal parameter calculating device, personal parameter calculating method, program, and computer-readable storage medium |
US8369595B1 (en) | 2012-08-10 | 2013-02-05 | EyeVerify LLC | Texture features for biometric authentication |
JP2015534108A (ja) | 2012-09-11 | 2015-11-26 | マジック リープ, インコーポレイテッド | 人間工学的な頭部搭載型ディスプレイデバイスおよび光学システム |
JP2014092940A (ja) | 2012-11-02 | 2014-05-19 | Sony Corp | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
US9195890B2 (en) | 2012-12-10 | 2015-11-24 | Sri International | Iris biometric matching system |
IL283193B (en) | 2013-01-15 | 2022-08-01 | Magic Leap Inc | A system for scanning electromagnetic imaging radiation |
US10231614B2 (en) * | 2014-07-08 | 2019-03-19 | Wesley W. O. Krueger | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
IL313175A (en) | 2013-03-11 | 2024-07-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
US9147154B2 (en) | 2013-03-13 | 2015-09-29 | Google Inc. | Classifying resources using a deep network |
NZ735754A (en) | 2013-03-15 | 2019-04-26 | Magic Leap Inc | Display system and method |
EP2790126B1 (en) * | 2013-04-08 | 2016-06-01 | Cogisen SRL | Method for gaze tracking |
WO2014182769A1 (en) | 2013-05-07 | 2014-11-13 | The Johns Hopkins University | Automated and non-mydriatic fundus-perimetry camera for irreversible eye diseases |
US9275308B2 (en) | 2013-05-31 | 2016-03-01 | Google Inc. | Object detection using deep neural networks |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US20140380249A1 (en) | 2013-06-25 | 2014-12-25 | Apple Inc. | Visual recognition of gestures |
CN103431840B (zh) | 2013-07-31 | 2016-01-20 | 北京智谷睿拓技术服务有限公司 | 眼睛光学参数检测系统及方法 |
US10025982B2 (en) | 2013-10-08 | 2018-07-17 | Princeton Identity, Inc. | Collecting and targeting marketing data and information based upon iris identification |
KR20150041453A (ko) | 2013-10-08 | 2015-04-16 | 엘지전자 주식회사 | 안경형 영상표시장치 및 그것의 제어방법 |
IL295157B2 (en) | 2013-10-16 | 2023-10-01 | Magic Leap Inc | An augmented or virtual reality head device with intrapupillary distance adjustment |
US9202144B2 (en) | 2013-10-30 | 2015-12-01 | Nec Laboratories America, Inc. | Regionlets with shift invariant neural patterns for object detection |
US10095917B2 (en) | 2013-11-04 | 2018-10-09 | Facebook, Inc. | Systems and methods for facial representation |
JP6236296B2 (ja) | 2013-11-14 | 2017-11-22 | 株式会社デンソーアイティーラボラトリ | 学習装置、学習プログラム、及び学習方法 |
CN107315249B (zh) | 2013-11-27 | 2021-08-17 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
US9430829B2 (en) | 2014-01-30 | 2016-08-30 | Case Western Reserve University | Automatic detection of mitosis using handcrafted and convolutional neural network features |
CN111552079B (zh) | 2014-01-31 | 2022-04-15 | 奇跃公司 | 多焦点显示系统和方法 |
NZ722904A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
IL231862A (en) | 2014-04-01 | 2015-04-30 | Superfish Ltd | Image representation using a neural network |
WO2015161307A1 (en) * | 2014-04-18 | 2015-10-22 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
WO2015164807A1 (en) | 2014-04-25 | 2015-10-29 | Texas State University | Detection of brain injury and subject state with eye movement biometrics |
AU2015297036B2 (en) | 2014-05-09 | 2017-09-28 | Google Llc | Systems and methods for discerning eye signals and continuous biometric identification |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
CA3124368C (en) | 2014-05-30 | 2023-04-25 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
EP3699736B1 (en) * | 2014-06-14 | 2023-03-29 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9330329B2 (en) | 2014-07-09 | 2016-05-03 | Ditto Labs, Inc. | Systems, methods, and devices for image matching and object recognition in images using minimal feature points |
WO2016013269A1 (ja) | 2014-07-22 | 2016-01-28 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
US9536293B2 (en) | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
KR102216126B1 (ko) | 2014-07-31 | 2021-02-16 | 삼성전자주식회사 | 정맥 인증을 이용하여 동작하는 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법 |
US20160034811A1 (en) | 2014-07-31 | 2016-02-04 | Apple Inc. | Efficient generation of complementary acoustic models for performing automatic speech recognition system combination |
US9659384B2 (en) | 2014-10-03 | 2017-05-23 | EyeEm Mobile GmbH. | Systems, methods, and computer program products for searching and sorting images by aesthetic quality |
WO2016054779A1 (en) | 2014-10-09 | 2016-04-14 | Microsoft Technology Licensing, Llc | Spatial pyramid pooling networks for image processing |
EP3161728B1 (en) | 2014-10-10 | 2023-05-17 | Beijing Kuangshi Technology Co., Ltd. | Hierarchical interlinked multi-scale convolutional network for image parsing |
CN104299245B (zh) * | 2014-10-13 | 2017-12-26 | 深圳先进技术研究院 | 基于神经网络的增强现实跟踪方法 |
KR102276339B1 (ko) | 2014-12-09 | 2021-07-12 | 삼성전자주식회사 | Cnn의 근사화를 위한 학습 장치 및 방법 |
CN115879519A (zh) | 2014-12-24 | 2023-03-31 | 渊慧科技有限公司 | 增强神经网络以生成附加输出 |
US10686984B1 (en) * | 2015-02-13 | 2020-06-16 | Waylens, Inc. | Connected camera system |
WO2016145379A1 (en) | 2015-03-12 | 2016-09-15 | William Marsh Rice University | Automated Compilation of Probabilistic Task Description into Executable Neural Network Specification |
US9678664B2 (en) | 2015-04-10 | 2017-06-13 | Google Inc. | Neural network for keyboard input decoding |
CN107438866B (zh) | 2015-05-13 | 2020-12-01 | 谷歌公司 | 深度立体:学习从现实世界形象预测新视图 |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
EP3337385A4 (en) | 2015-08-21 | 2019-04-03 | Magic Leap, Inc. | ESTIMATING THE SHAPE OF A EYEWEAR USING THE MEASUREMENT OF THE POSITION OF THE EYE |
US9767565B2 (en) | 2015-08-26 | 2017-09-19 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
JP6678930B2 (ja) | 2015-08-31 | 2020-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 分類モデルを学習する方法、コンピュータ・システムおよびコンピュータ・プログラム |
US10120454B2 (en) * | 2015-09-04 | 2018-11-06 | Eyesight Mobile Technologies Ltd. | Gesture recognition control device |
US20170161506A1 (en) | 2015-12-07 | 2017-06-08 | Dell Products L.P. | Information Handling System Encrypted Image Display Through Secondary Device |
US10419747B2 (en) * | 2015-12-22 | 2019-09-17 | Google Llc | System and methods for performing electronic display stabilization via retained lightfield rendering |
US10225511B1 (en) * | 2015-12-30 | 2019-03-05 | Google Llc | Low power framework for controlling image sensor mode in a mobile image capture device |
US10303246B2 (en) * | 2016-01-20 | 2019-05-28 | North Inc. | Systems, devices, and methods for proximity-based eye tracking |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
US10255529B2 (en) * | 2016-03-11 | 2019-04-09 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
US10423830B2 (en) | 2016-04-22 | 2019-09-24 | Intel Corporation | Eye contact correction in real time using neural network based machine learning |
CN114495249A (zh) | 2016-07-14 | 2022-05-13 | 奇跃公司 | 使用角膜曲率的虹膜边界估计 |
US10922393B2 (en) | 2016-07-14 | 2021-02-16 | Magic Leap, Inc. | Deep neural network for iris identification |
CN109923500B (zh) | 2016-08-22 | 2022-01-04 | 奇跃公司 | 具有深度学习传感器的增强现实显示装置 |
RU2016138608A (ru) | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | Нейронная сеть для сегментации изображения глаза и оценки качества изображения |
CN110073359B (zh) | 2016-10-04 | 2023-04-04 | 奇跃公司 | 用于卷积神经网络的有效数据布局 |
WO2018093796A1 (en) | 2016-11-15 | 2018-05-24 | Magic Leap, Inc. | Deep learning system for cuboid detection |
US10650432B1 (en) * | 2016-11-28 | 2020-05-12 | Amazon Technologies, Inc. | Recommendation system using improved neural network |
US10757328B2 (en) * | 2016-12-23 | 2020-08-25 | Microsoft Technology Licensing, Llc | Eye tracking using video information and electrooculography information |
JP6929953B2 (ja) | 2017-03-17 | 2021-09-01 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 部屋レイアウト推定方法および技法 |
CN111033524A (zh) | 2017-09-20 | 2020-04-17 | 奇跃公司 | 用于眼睛跟踪的个性化神经网络 |
-
2018
- 2018-09-18 CN CN201880052812.7A patent/CN111033524A/zh active Pending
- 2018-09-18 EP EP18857922.1A patent/EP3685313A4/en active Pending
- 2018-09-18 CA CA3068481A patent/CA3068481A1/en active Pending
- 2018-09-18 KR KR1020207004193A patent/KR20200055704A/ko not_active Application Discontinuation
- 2018-09-18 WO PCT/US2018/051461 patent/WO2019060283A1/en unknown
- 2018-09-18 IL IL272289A patent/IL272289B/en unknown
- 2018-09-18 IL IL294197A patent/IL294197A/en unknown
- 2018-09-18 US US16/134,600 patent/US10719951B2/en active Active
- 2018-09-18 JP JP2019571212A patent/JP7162020B2/ja active Active
- 2018-09-18 AU AU2018337653A patent/AU2018337653A1/en not_active Abandoned
-
2020
- 2020-05-21 US US16/880,752 patent/US10977820B2/en active Active
-
2021
- 2021-04-02 US US17/221,250 patent/US20210327085A1/en active Pending
-
2022
- 2022-10-17 JP JP2022166262A patent/JP7436600B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030020755A1 (en) | 1997-04-30 | 2003-01-30 | Lemelson Jerome H. | System and methods for controlling automatic scrolling of information on a display or screen |
JP2008502990A (ja) | 2004-06-18 | 2008-01-31 | トビイ テクノロジー アーベー | 視線追跡に基づいてコンピュータ装置を制御するための装置、方法及びコンピュータプログラム |
US9207760B1 (en) | 2012-09-28 | 2015-12-08 | Google Inc. | Input detection |
Non-Patent Citations (1)
Title |
---|
SESIN, A. et al.,Adaptive eye-gaze tracking using neural-network-based user profiles to assist people with motor disability,Journal of Rehabilitation Research & Development [online],2008年,Vol. 45, No. 6,pp. 801-817,[検索日 2023.08.07], インターネット:<URL:https://digitalcommons.fiu.edu/cgi/viewcontent.cgi?article=1025&context=ece_fac> |
Also Published As
Publication number | Publication date |
---|---|
AU2018337653A1 (en) | 2020-01-16 |
IL294197A (en) | 2022-08-01 |
US10719951B2 (en) | 2020-07-21 |
JP7162020B2 (ja) | 2022-10-27 |
US20190087973A1 (en) | 2019-03-21 |
US20200286251A1 (en) | 2020-09-10 |
JP2023011664A (ja) | 2023-01-24 |
IL272289A (en) | 2020-03-31 |
KR20200055704A (ko) | 2020-05-21 |
US10977820B2 (en) | 2021-04-13 |
EP3685313A1 (en) | 2020-07-29 |
EP3685313A4 (en) | 2021-06-09 |
US20210327085A1 (en) | 2021-10-21 |
CA3068481A1 (en) | 2019-03-28 |
WO2019060283A1 (en) | 2019-03-28 |
IL272289B (en) | 2022-08-01 |
CN111033524A (zh) | 2020-04-17 |
JP2020537202A (ja) | 2020-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7436600B2 (ja) | 眼追跡のための個人化されたニューラルネットワーク | |
JP7198383B2 (ja) | ユーザインターフェースデバイスの表現を用いたニューラルネットワークの訓練 | |
JP7186844B2 (ja) | ウェアラブルデバイスによる顔モデル捕捉 | |
JP7543466B2 (ja) | 眼追跡較正技術 | |
JP7307119B2 (ja) | 完全な顔画像の眼球周囲およびオーディオ合成 | |
JP2019502223A (ja) | 眼画像の収集、選択および組み合わせ | |
US20240312158A1 (en) | Object interactivity in virtual space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230814 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7436600 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |