JP6865175B2 - 実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法 - Google Patents
実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法 Download PDFInfo
- Publication number
- JP6865175B2 JP6865175B2 JP2017556858A JP2017556858A JP6865175B2 JP 6865175 B2 JP6865175 B2 JP 6865175B2 JP 2017556858 A JP2017556858 A JP 2017556858A JP 2017556858 A JP2017556858 A JP 2017556858A JP 6865175 B2 JP6865175 B2 JP 6865175B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- keyboard
- key
- display
- eyes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 270
- 230000000007 visual effect Effects 0.000 title description 292
- 210000001508 eye Anatomy 0.000 claims description 583
- 230000004424 eye movement Effects 0.000 claims description 328
- 230000033001 locomotion Effects 0.000 claims description 148
- 230000003565 oculomotor Effects 0.000 claims description 138
- 230000006870 function Effects 0.000 claims description 124
- 238000001514 detection method Methods 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 20
- 230000002093 peripheral effect Effects 0.000 claims description 15
- 238000012986 modification Methods 0.000 claims description 5
- 230000004048 modification Effects 0.000 claims description 5
- 238000012790 confirmation Methods 0.000 claims description 4
- 102000014150 Interferons Human genes 0.000 claims 3
- 108010050904 Interferons Proteins 0.000 claims 3
- 229940079322 interferon Drugs 0.000 claims 3
- 230000035939 shock Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 83
- 230000008859 change Effects 0.000 description 44
- 238000005259 measurement Methods 0.000 description 42
- 238000012546 transfer Methods 0.000 description 39
- 230000000694 effects Effects 0.000 description 38
- 210000003811 finger Anatomy 0.000 description 37
- 210000003128 head Anatomy 0.000 description 30
- 230000001629 suppression Effects 0.000 description 30
- 210000004027 cell Anatomy 0.000 description 29
- 230000009471 action Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 25
- 230000004913 activation Effects 0.000 description 24
- 238000001994 activation Methods 0.000 description 24
- 230000003190 augmentative effect Effects 0.000 description 24
- 239000011159 matrix material Substances 0.000 description 24
- 230000004397 blinking Effects 0.000 description 23
- 230000001149 cognitive effect Effects 0.000 description 23
- 230000002829 reductive effect Effects 0.000 description 23
- 230000001965 increasing effect Effects 0.000 description 21
- 238000009877 rendering Methods 0.000 description 21
- 230000007246 mechanism Effects 0.000 description 20
- 241000699666 Mus <mouse, genus> Species 0.000 description 18
- 230000004886 head movement Effects 0.000 description 16
- 210000004247 hand Anatomy 0.000 description 15
- 230000006854 communication Effects 0.000 description 14
- 210000001747 pupil Anatomy 0.000 description 14
- 201000004569 Blindness Diseases 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 13
- 230000019771 cognition Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 13
- 238000013479 data entry Methods 0.000 description 13
- 230000003993 interaction Effects 0.000 description 13
- 230000015654 memory Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 13
- 238000003825 pressing Methods 0.000 description 13
- 239000003086 colorant Substances 0.000 description 11
- 238000013507 mapping Methods 0.000 description 11
- 230000005043 peripheral vision Effects 0.000 description 11
- 210000001525 retina Anatomy 0.000 description 11
- 230000008901 benefit Effects 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 230000001720 vestibular Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000012937 correction Methods 0.000 description 9
- 239000003607 modifier Substances 0.000 description 9
- 230000035945 sensitivity Effects 0.000 description 9
- 230000007704 transition Effects 0.000 description 9
- 241000282412 Homo Species 0.000 description 8
- 238000013459 approach Methods 0.000 description 8
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 210000000744 eyelid Anatomy 0.000 description 8
- 230000001976 improved effect Effects 0.000 description 8
- 230000001537 neural effect Effects 0.000 description 8
- 230000004461 rapid eye movement Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000009977 dual effect Effects 0.000 description 7
- 230000004438 eyesight Effects 0.000 description 7
- 238000012935 Averaging Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000009467 reduction Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 210000003205 muscle Anatomy 0.000 description 5
- 230000002269 spontaneous effect Effects 0.000 description 5
- 230000003213 activating effect Effects 0.000 description 4
- 238000012152 algorithmic method Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000006998 cognitive state Effects 0.000 description 4
- 210000000695 crystalline len Anatomy 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 210000002589 oculomotor nerve Anatomy 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 208000001692 Esotropia Diseases 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 3
- 208000004350 Strabismus Diseases 0.000 description 3
- 206010044565 Tremor Diseases 0.000 description 3
- 208000003464 asthenopia Diseases 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000011248 coating agent Substances 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000011049 filling Methods 0.000 description 3
- 230000005021 gait Effects 0.000 description 3
- 238000007429 general method Methods 0.000 description 3
- 230000035479 physiological effects, processes and functions Effects 0.000 description 3
- 230000035790 physiological processes and functions Effects 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 239000011324 bead Substances 0.000 description 2
- 210000003169 central nervous system Anatomy 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000000720 eyelash Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000001328 optic nerve Anatomy 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 108091008695 photoreceptors Proteins 0.000 description 2
- 238000006116 polymerization reaction Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000035484 reaction time Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000001373 regressive effect Effects 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000006886 spatial memory Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000036962 time dependent Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000010981 turquoise Substances 0.000 description 2
- 238000001429 visible spectrum Methods 0.000 description 2
- 230000002747 voluntary effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- RDEIXVOBVLKYNT-VQBXQJRRSA-N (2r,3r,4r,5r)-2-[(1s,2s,3r,4s,6r)-4,6-diamino-3-[(2r,3r,6s)-3-amino-6-(1-aminoethyl)oxan-2-yl]oxy-2-hydroxycyclohexyl]oxy-5-methyl-4-(methylamino)oxane-3,5-diol;(2r,3r,4r,5r)-2-[(1s,2s,3r,4s,6r)-4,6-diamino-3-[(2r,3r,6s)-3-amino-6-(aminomethyl)oxan-2-yl]o Chemical compound OS(O)(=O)=O.O1C[C@@](O)(C)[C@H](NC)[C@@H](O)[C@H]1O[C@@H]1[C@@H](O)[C@H](O[C@@H]2[C@@H](CC[C@@H](CN)O2)N)[C@@H](N)C[C@H]1N.O1C[C@@](O)(C)[C@H](NC)[C@@H](O)[C@H]1O[C@@H]1[C@@H](O)[C@H](O[C@@H]2[C@@H](CC[C@H](O2)C(C)N)N)[C@@H](N)C[C@H]1N.O1[C@H](C(C)NC)CC[C@@H](N)[C@H]1O[C@H]1[C@H](O)[C@@H](O[C@@H]2[C@@H]([C@@H](NC)[C@@](C)(O)CO2)O)[C@H](N)C[C@@H]1N RDEIXVOBVLKYNT-VQBXQJRRSA-N 0.000 description 1
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010002953 Aphonia Diseases 0.000 description 1
- 101100272279 Beauveria bassiana Beas gene Proteins 0.000 description 1
- 238000006873 Coates reaction Methods 0.000 description 1
- 206010057315 Daydreaming Diseases 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 208000003098 Ganglion Cysts Diseases 0.000 description 1
- 241000668842 Lepidosaphes gloverii Species 0.000 description 1
- 206010025421 Macule Diseases 0.000 description 1
- 241000124008 Mammalia Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 241000590419 Polygonia interrogationis Species 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 208000005400 Synovial Cyst Diseases 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 210000000617 arm Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000003592 biomimetic effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000001638 cerebellum Anatomy 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 231100000895 deafness Toxicity 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000002224 dissection Methods 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000004384 eye physiology Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000011010 flushing procedure Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000000873 fovea centralis Anatomy 0.000 description 1
- 210000002149 gonad Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000009474 immediate action Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000004301 light adaptation Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000037191 muscle physiology Effects 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000004126 nerve fiber Anatomy 0.000 description 1
- 230000004751 neurological system process Effects 0.000 description 1
- 230000002232 neuromuscular Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 229910052698 phosphorus Inorganic materials 0.000 description 1
- 239000011574 phosphorus Substances 0.000 description 1
- 230000004962 physiological condition Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001711 saccadic effect Effects 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Description
本願は、2015年8月15日に提出された同時係属米国仮出願第62/025707号、2015年11月6日に提出された同時係属米国仮出願第62/252347号、および2016年4月7日に提出された同時係属米国仮出願第62/319751号の優先権を主張し、2014年5月9日に提出された米国仮出願第61/991435号、2014年7月13日に提出された米国仮出願第62/023940号、2014年7月22日に提出された米国仮出願第62/027774号、2014年7月22日に提出された米国仮出願第62/027777号、2014年8月19日に提出された米国仮出願第62/038984号、2014年8月19日に提出された米国仮出願第62/039001号、2014年9月4日に提出された米国仮出願第62/046072号、2014年11月4日に提出された米国仮出願第62/074920号、および2014年11月4日に提出された米国仮出願第62/074927号の優先権を出張する、全てが2015年5月9日に提出された同時係属米国特許出願第14/708234号、第14/708241号および第14/708229号の一部継続出願であり、これらの出願の全体が参照により本明細書に組み込まれる。
この特許文書の開示の一部には、著作権保護の対象となるものが含まれている。著作権者は、米国特許商標庁の特許ファイルまたは記録に掲載された特許文書または特許開示の複製に対しては異議を唱えないが、その他の場合、すべての著作権を留保する。著作権保護は、以下の明細書および図面に記載されているソフトウェア、スクリーンショットおよびデータに適用し、すべての権利が留保される。
本発明は、一般的に、任意の補助的な入力サポートと共に、主にユーザの視線を用いて、ユーザの意図を識別する(DIU:Discerning the Intent of a User)ことによって、コンピュータ装置および他の装置を制御し且つコンピュータ装置および他の装置と対話するためのシステムおよび方法に関する。このシステムは、人間-機械インターフェイス(HMI)分野、装着型コンピュータ分野、人間生理学分野、画像処理分野、および深層学習分野の技術を利用する。このシステムは、目立たない頭部装着型視線追跡装置および/または遠隔視線追跡ハードウェア内に実装することができる。頭部装着型視線追跡装置および/または遠隔視線追跡ハードウェアは、必要に応じて、頭部装着型ディスプレイ(HMD)、遠隔ディスプレイおよび/または他の装着可能なセンサまたはアクチュエータを備えることができる。このシステムは、ローカルコンピュータ装置またはリモートコンピュータ装置を制御し、ローカルコンピュータ装置またはリモートコンピュータ装置と対話するための、使い易く、直観的で適応性のある入力メカニズムをユーザに提供することができる。
コンピュータマウス、ジョイスティックおよびその他の手動追跡装置は、人間と機械との対話中に、位置情報を指定するためのユビキタスツールである。装着型コンピュータの出現によって、例えば、一般的に適切な操作を行うために静止面を必要とする巨大且つ目立つ装置は、身体に装着するように設計された装置の携帯性と合わない。
上記に鑑み、本発明は、実質的に1つ以上の意図的な眼球運動に基づいて、1人以上のユーザの様々な意図または操作目的を実質的に連続的に識別するためのシステムおよび方法を提供する。
楽譜の新しい部分を表示するステップと含む。
視覚信号中のタイミングの考察
眼球運動を解読することによってユーザの意図を識別するために、アルゴリズムフィルタは、眼球の神経筋制御における生理制約(例えば、動きの範囲、最大速度、水平軸および垂直軸に沿った動きの差)と、急速眼球運動および瞬きに起因する視覚情報の認知処理における中断とを考慮する必要がある。視界の認知処理における中断は、衝動性動眼中に大きな動きボケなくまたは瞬き中に停止(すなわち、短期間の暗闇)なく、環境を観察するために必要である。人間は、衝動性動眼および瞬き中に網膜信号の視覚処理を抑制することによって、このような中断を回避する。これらの神経処理は、各々衝動性動眼抑制(saccadic suppression)および瞬き抑制(blink suppression)として呼ばれる。
短い距離の衝動性動眼は、ターゲットをオーバーシュートし、(約5°を超える)長い距離の衝動性動眼は、ターゲットをアンダーシュートする傾向がある。通常、長い距離の衝動性動眼は、ターゲット距離の90%をカバーし、矯正的な衝動性動眼は、10%をカバーする。求心性衝動性動眼は、遠心性衝動性動眼より精確である傾向がある。アンダーシュートまたはオーバーシュートの後に行われた矯正的な衝動性動眼は、長い待機時間または短い待機時間で待機することがある。矯正的な衝動性動眼を迅速に実行することができ(すなわち、動的アンダーシュートまたはオーバーシュート)、または数百ミリ秒で待機させることもできる(すなわち、滑降アンダーシュートまたはオーバーシュート)。ターゲットの特性、主に輝度は、矯正的な衝動性動眼の待機時間に影響を与えることができる。輝度が中心窩閾値を下回る場合、待機時間は、大幅に増加することがある。
衝動性動眼中に視線が目標位置に到着した後に生じた減衰振動を含み、衝動性動眼抑制中に、目標オブジェクトの認知が不可能である。したがって、例示的な実施形態において、意図を伝えるように設計された衝動性動眼において、目標オブジェクトの認知が意図を伝えるための必須要素ではない場合、減衰振動が発生している時間が意図を伝えるための必須要素ではない。換言すれば、認知を必要とする場合、認知時間(200〜250ミリ秒)並びに衝動性動眼中に視線が目標位置に到着した後にユーザが機能的に失明になる減衰振動時間(50〜60ミリ秒)は、意図を伝えるための意図的な眼球運動の速度を制限する。認知が必要ではない場合、両方の期間も必要しない。
前述したように、視覚信号言語において、滑動性追跡眼球運動を用いて、特定の追跡オブジェクトを視覚的に追跡することによって、N個のオブジェクトから1つのオブジェクトの選択を行うことができる。このメカニズムによって、限られた選択数(典型的には2〜8)で、比較的少数の逐次選択シーケンス(典型的には1から数個までのシーケンス)を行う場合、視覚信号の形成中に、特定の眼球運動の「流れ」が特に効果的である。シーケンスおよび/または選択の数の最大値は、滑動性追跡眼球運動に基づくメカニズムの使用を制限するものではなく、快適で効率的な使用に関する提案である。
ディスプレイのエッジの近くにターゲットを配置することによって表示領域内の選択可能なターゲットの数を最大化する方法は、2015年5月9日に出願され、「実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号を行うためのシステムおよび方法」と題された米国出願第14/708234号に記載されている。当該出願の全体が参照により本明細書に組み込まれる。この一般的な方法は、ターゲットを任意の表示領域の外側に完全にまたは少なくとも部分的に配置することによって拡張することができる。
表示および視覚信号のために拡張された視野を利用できるときに、N個の選択のうち1つを選択することを、1回の眼球運動(すなわち、1回の衝動性動眼)で1つの選択を行う方法に変更することができる。SSSSは、クラスタ内に配置された選択セットを利用して、選択肢に注視してから、視線を移動して次の選択を実行することができる新しいクラスタに注視することによって、1つのクラスタ内の特定の項目を選択することができ、選択行動を示すことができる。
他の例示的な実施形態において、(一般的に、記憶誘導型衝動性動眼によって選択された)作動ターゲットをディスプレイ上の通常の位置から別の位置に移動することによって、行われた選択に関するある特徴または性質を示すことが望ましい場合がある。追加的にまたは代替的に、(2つ以上のターゲットから)特定のターゲットの選択が作動だけでなく、N個のオブジェクトから1つのオブジェクトの選択を示す複数の作動ターゲットを表示してもよい。
最も一般的なケースにおいて、視覚信号言語は、眼球運動の追跡を使用して、1つ以上のディスプレイ上の実在オブジェクトおよび仮想オブジェクトの任意の組み合わせを有するユーザの意図を特定することができる。1つ以上のディスプレイ上の仮想オブジェクトの位置を含む特性は、ネットワークを介して接続されたリモートプロセッサ、サーバまたはストレージ設備と同様に、装置またはこの装置を含むシステムに知られてもよい。したがって、装置は、1つ以上の仮想オブジェクトに向けられた眼球運動に意味を容易に割り当てることができる。
例示的な実施形態において、これは、1つ以上の割り当て可能な「スタート」オブジェクトの理解につながる。換言すれば、実世界の環境内の1つ以上のオブジェクトは、永続的または一時的に、1つ以上の「スタート」アイコンとして使用することができる。ディスプレイを使用する場合、特定された実在オブジェクトへの機能の割当は、ユーザが視覚的な補強、信号、アクチベーションまたはディスプレイ生成の遷移グラフィックスの有無に拘わらず、実在オブジェクトを見ることを含む視覚信号言語に適合する。
視覚信号言語は、単一の「スタート」位置または作動位置に制限されない。更なる実施形態において、異なる位置に位置する複数の「スタート」アイコンまたは作動ターゲットに、異なる操作を割り当てることができる。これによって、ユーザは、「スタート」位置に注視するときに、作動に加えて、N個の作動ターゲットから1つのオブジェクトを素早く選択することができる。
前述したように、「連続」入力範囲に基づいてユーザ入力を指定する(例えば、スピーカ音量を制御する)ために、滑動性追跡眼球運動を使用して、ユーザが選択可能な時間および/または距離に亘ってオブジェクトを追跡することができる。更なる例示的な実施形態において、衝動性動眼を用いて、連続範囲または「目盛り」から選択を行うことができる。目盛りは、任意種類のグラフィック表現である。ユーザは、視線を用いて表示された目盛りの全範囲から(任意数の可能な位置から)特定の位置を指定することに基づいて、入力を指定することができる。具体的には、選択を特定するように、表示された目盛りの最下位値および最上位値の位置に対して、注視位置を決定することができる。
更なる例示的な実施形態において、ユーザ選択中のフィードバックは、表示された目盛りまたは他の目盛り表現に関連するもの以外のモダリティを用いて行われてもよい。例えば、音声ボリュームを調整する場合、音量の選択を支援するために、選択処理中に(指定のレベルで)サウンドを生成することができる。更なる例として、表示された画像の明るさ、色、色相、透明度、明暗度、サイズ、詳細レベルおよび/または形状は、選択処理中にユーザによって行われた選択に対して、比例、反比例または非線形の態様で変更することができる。
ギャップ効果は、視覚信号言語内でユーザのやり取りを加速するための基本ツールとして使用される。前述したように、衝動性動眼の結果として見られようとしているオブジェクトは、視界から取り除かれ、ユーザの視線を「解放」することによって、(オブジェクトをユーザの視界に残す場合よりも)速く他のオブジェクトを見ることができる。適切な時間でディスプレイ上の仮想オブジェクトを除去すると、ギャップ効果が生じることができる。
コーテシ(courtesy)は、全ての対話式および/または所謂「スマート」装置の共通事項である。多くの場合、例えばビジネス事情および社会事情によって、ユーザは、緊急通信以外の全てのサービスを一時停止することによって、着信電話またはデータの受信を制限したい場合がある。しかしながら、日常生活中、ビジネス事情および社会事情の前に、装置を「コーテシ」モードまたは「サイレンス」モードに設置することを容易に忘れてしまうことがある。これらの事情が終わったときに、同様に、装置を通常操作に戻すことを忘れてしまうこともある。
場合によって、他の活動に関係なく、ユーザの注意を特定の情報またはイベントに引く必要がある。例えば、装置ユーザまたは他人に即時の害を与える可能性がある場合(例えば、ユーザの環境における所謂「アクティブシューティング」状況、建物固有の火災警報など)、装置ユーザを警告する必要性がある。装置ユーザの視線に関する知識は、ユーザの注意を引き、状況に関連する情報を提供するプロセスを支援することができる。
(事前の確認または認証なく)装着型コンピュータ装置で初期接続を有効化する場合、関連するネットワークアドレス(例:URLアドレス、MACアドレス、IPアドレス)、または電子通信を行うための他の種類および/またはプロトコルを有する装着型コンピュータ装置に視聴者をリングする時に、問題が生じることがある。顔認識などの方法によって視聴者を特定できる場合、(プライバシー設定に基づいて許可された場合)個人に関連する装置または「アドレス」をデータベースから取り出すことができる。しかしながら、ユーザまたはハードウェア認識がない場合、互いに近接しているユーザの装置間の明確な接続またはリンクを自動的に開始する方法はない。
人と人の間の対面会話は、日常生活に遍在する。相互視線は、会話の開始および維持、並びに「誰が何を言ったか」の特定および登録という点で、対面会話に不可欠な役割を果たしている。
1.ユーザが一度も会ったことがない場合、(本明細書に記載されているように、プライバシーが考慮されていると仮定して)、他のユーザに関する情報を装置着用者に表示することによって、接続を許可することができる。
2.ユーザが以前に会ったことがある場合、再接続に必要な情報(例えば、名前、以前に会った時間など)を表示することによって、接続を許可することができる。
3.相互視線を行う間に会話または他の情報を交換した場合、交換に関する記憶情報(例えば、音声、画像、テキスト)は、相互視線を行う間に発生したものとしてタグ付けされる。これは、情報検索中にコンテキストの提供を支援することができる。
4.複数のユーザ間の会話または対話において、相互視線を記録しておよび/または対話中に情報(例えば、音声、画像、テキスト)にタグ付けることができる。これらのデータは、データセット内の「誰が何を言ったか」という問題に対処する共に、各ユーザの関心のある話題またはユーザグループの興味のある話題の識別を支援することができる。
視覚信号は、人間-機械インターフェイス(HMI)対話、特に装着型および/またはモバイルコンピュータ状況において強力であるが、HMI対話の1つ以上の他のモダリティと組み合わせられると、その有用性を大幅に拡張することができる。例えば、一般的には、視覚信号を音声コマンドおよび/または意図的な眼球運動を知らせるおよび/または強調するための点頭などの補足動作に混ぜることが「快適」である。意図的な眼球運動は、衝動性動眼、一連の衝動性動眼、両眼離反運動、前庭性眼球運動、または滑動性追跡眼球運動を含み得る。
このような精度および制御の違いを認識して、視覚信号ユーザインターフェイスは、目が「一番できること」をするようにし、他のモダリティの機能を考慮するマルチモーダル入力を利用する。例えば、ディスプレイの広い領域をカバーする眼球運動を含むシーン捜索は、目によって最もよく行われる。その後、眼球運動によって指示された場合または高精度装置(例えば、コンピュータマウス、トラックボール、デジタルペン)上で動きが検出された場合、高精度装置からの入力が制御を引き継ぐことができる。
1.速度。目は、指、手、腕または他の身体の部分よりも、大きな円弧距離を速く通過することができる。
上述した実施形態において、例えば、感知した意図に基づいて、2つ以上の入力メカニズムを切り替えることによって、視覚信号を他の形態の機械制御と共に使用することができる。更なる実施形態において、視覚信号が他の入力の機能を「調整」または強化することを可能にすることによって、快適で直感的な方法でマルチモーダル制御を大きく拡張することができる。このようにして、異なる形態のマルチモーダル制御の威力を同時に利用することができる。
視覚的選択および/またはフィードバックを装置ユーザに提供する際に、マルチモーダル制御に特別な配慮が必要である。常に全ての可能なマルチモーダル選択を提供することは、インターフェイスを体験するユーザに混乱を与えてしまう。
視覚信号の特定の応用は、音楽の読取、演奏および/または視聴を含む。物理またはタッチスクリーン世界において、音楽家は、物理的な捲りまたはスクリーンスワイプを用いてページを捲るために、楽譜ページの終わりに演奏を一時停止しなければならない。このことは、演奏中に望ましくない一時停止を引き起こし、音楽の連続性および流れを乱す可能性がある。
多くのコンピュータ装置のオペレーティングシステムに利用されている普遍的機能または作業は、情報ブロックを1つの位置またはアプリケーションから、別の位置またはアプリケーションに転送することである。情報の種類は、文字、単語または単語群、数字または数字群、写真、図面、音声ファイル、ビデオ、機能または用途を表すアイコン、フォルダまたは他の情報のクラスタ表現などを含むことができる。視覚信号言語を用いてこのような情報を転送することを可能にする例示的な方法は、「スクラッチパッド」の使用である。「スクラッチパッド」は、視覚信号プロセス中に複数の機能を果たすことができる。スクラッチパッドは、1)転送または保管のために、データを整理することができ、2)データの一部を分けることができ、3)必要に応じて、データをある種類から別の種類に変換する(例えば、音声をテキストに変換する)ことができ、4)データセットを保存および検索するための保管リポジトリとして機能することができ、および5)転送プロセスを指示し且つ動作させる中心位置として機能することができる。
1.ユーザは、格納された情報のアーカイブ表現(例えば、サムネイル)を分けるために、必要に応じて、スクロールアップ603および/またはスクロールダウン604を行うことができる。スクロールは、「取出」領域602から「スクロールアップ」領域603または「スクロールダウン」領域604のいずれかに視線を移動する衝動性動眼を実行し、その後、「取出」領域602に視線を戻すことを含む。ユーザの視線が「スクロールアップ」領域603または「スクロールダウン」領域604に停留する場合、隣接する「取出」領域が中心窩視野内にあり、ユーザが見ることができるため、スクロールは、繰り返される。
2.便宜上、スクラッチパッドから分けられ、不要になった項目は、スクラッチパッドから削除されてもよい。削除は、例えば、「取出」領域602をバイパスして、視線を「スクロールアップ」領域603から「スクロールダウン」領域604に移動するまたはその逆の衝動性動眼を行うことによって、達成することができる。削除操作を行った後、削除された項目が領域603のものであるかまたは領域604のものであるかに応じて、「取出」領域に表示される項目は、スクラッチパッドの「アップ」リストまたは「ダウン」リストの次の項目になる。
3.スクラッチパッドから所望の項目を分けた後、ユーザは、項目を挿入するためのディスプレイ領域を捜索することができる。挿入位置は、例えば、ワードプロセッサまたはテキストメッセージ内の位置、スプレッドシート内のセル、ウェブページ内の位置などであり得る。視線を所望の挿入位置606から「取出」領域602に移動することによって、取り出しを完了する。
視覚信号言語は、位置および/または方向を迅速且つ/または反復的に指定する必要がある場合、および/または他の身体部分による制御、例えば、手によるジョイスティックまたはコンピュータマウスの制御などを減らすまたは無くすことが望ましい場合に、特に有用である。1つ以上のカメラを搭載したドローン(すなわち、無人飛行器)または他の遠隔制御乗り物(例えば、ボート、潜水艦)の飛行および/または遠隔測定(telemetry)は、このような例である。
更なる例示的な実施形態において、視線制御および視覚信号言語の要素を用いて乗り物を運転しているときに、特別な配慮を与えなければならない。乗り物は、自動車、トラック、重機、ボート、雪上車、全地形万能車などを含む。命を脅かす潜在的な状況を避けるために、視覚指示に加えて、短時間の中断しかできない運転者の視線を用いて、運転環境を探査しなければならないという特別な配慮がある。
虹彩認証および他の手段に基づいて装置着用者を特定する方法は、2015年5月9日に出願され、「視覚信号の特定および連続生体認証を行うためのシステムおよび方法」と題された特許出願第14/708241号に記載されている。当該出願の全体は、参照により本明細書に組み込まれる。多くのセキュアアプリケーションは、文書、フォーム、契約または他のデータセットと、特定される装置着用者との関連付けを要求する。これらのアプリケーションは、法律、財務、ライセンス、セキュリティ、告知同意、医療などの幅広い分野を含む。
仮想現実ディスプレイ、拡張現実感ディスプレイ、複合現実ディスプレイ、および他のヘッドマウントディスプレイシステムは、仮想ディスプレイ「壁」または拡張デスクトップを投影するメカニズムを提供する。これらの壁または有効面は、大きな仮想表示領域を含み、「壁」の1つの領域は、装置着用者がいつでも見ることができるように投影される。しかしながら、装置ユーザを完全に囲む可能性のある仮想ディスプレイの全ての領域は、表示および対話のためにプログラムに従って維持される。仮想壁または仮想面は、任意のサイズ、装置着用者の実感距離、形状、または曲率を有してもよい。アプリケーションは、改良されたワークステーション環境、対話型表示および娯楽を含む。
ヘッドセット装置(例えば、仮想現実ディスプレイ、拡張現実ディスプレイまたはヘッドアップディスプレイ)と共にキーボードを使用する場合、ヘッドセット装置および/または任意の付属品は、キーボードに対するビューを物理的に制限または妨げる可能性がある。例えば、仮想現実装置は、現実世界に対する全てのビューを完全にブロックする。このことは、一般的にキーボードの使用を妨げる。その理由は、多くのユーザが、入力する時にまたは機能に関連するキーを押す時に、両手を見る必要がある。所謂「ブラインドタッチ」できる人でさえ、タイピングを行う前に、手を(キーボードの)適切な位置に置いているか否かを一般的に目で確認することがある。
例示的な実施形態において、「視線入力」とは、(ユーザの片目または両目で)キーボードまたは他の選択マトリクスを見ることによって、文字および/または他の記号を入力することを意味する。キーボードまたは選択マトリクスは、実在(すなわち、物理的なオブジェクト)または仮想(すなわち、ディスプレイの一部として投影されるオブジェクト)であってもよい。視線入力の基本は、認知負荷を最小限に抑えながら、意図的な眼球運動を用いて、ユーザの意図をできるだけ迅速に伝えることができる文字および他の記号の入力である。
深部神経回路網を含む機械学習技術は、眼球運動のコースを(事前に)予測または予想するだけでなく、視覚信号および他の眼球運動の意図の識別に特に有用である。装置着用者の意図を予測および識別する方法は、2015年5月9日に出願され、「実在オブジェクトおよび仮想オブジェクトと対話するための生体力学的に基づく視覚信号用のシステムおよび方法」と題された特許出願第14/708234号に記載されている。当該出願の全体は、参照により本明細書に組み込まれる。開示され方法において、眼球運動の最近の履歴が、バッファに入れられ、神経ネットワークの入力(例えば、先入れ先出し)として使用される。
追加の例示的な実施形態において、「仮想ボタン」または物理ボタンは、装置着用者の視野内の任意の認識可能な表面上に表示され、「仮想的に押される」または作動されることができる。「仮想ボタン」は、標準的なキーボード、数字パッド、壁スイッチなどに見られる機能と同様の機能を行うことができ、視覚信号言語内のターゲットアイコンに関連する補助機能を行うことができる。さらに、入力は、例えば、スピーカ音量を選択するための入力として使用される「スライダ」のように、連続的に可変であってもよい。仮想ボタンおよび/またはつまみの要素は、制御面を移動させる能力または(制御面に対して)装置ユーザを移動させる能力を含む。制御面の画像認識を使用する場合、仮想ボタンおよび他のつまみの位置は、制御面に対して不動のままであってもよい。
装着型コンピュータ装置、ポータブルコンピュータ装置および固定型コンピュータ装置において、装置ユーザに着信情報を通知するための一般的な方法は、着信情報をディスプレイ内のサムネイル、タイトル、メッセージの最初の数個の単語および/または他の視覚表示に一時的に重合することである。これらのものは、一般的に、表示装置上の固定位置(例えば、右上角)に形成され、ユーザに周知である。通知は、例えば、着信テキストメッセージ、電話メッセージ、電子メール、警告、目覚通知、カレンダイベント、更新サービス、データストリーム(例えば、天気、株式市場レポート、GPSの位置)の重要な変更を含むことができる。本発明のシステムおよび方法を用いて、これらのコンピュータ装置は、時間依存方式で、ディスプレイ上の領域に時間依存情報を「共有」することができる。
多数の条件は、視覚信号(例えば、衝動性動眼、滑動性追跡眼球運動)言語要素を正確に生成するためのユーザの能力に影響を与えることができる。同様に、多数の条件は、眼球運動を精確に測定し、識別するための装置の能力に影響を与えることができる。場合によって、例えば、でこぼこ道路で運転をするとき、バスまたは自転車に乗っるとき、ボートを操縦しているとき、スキーをしているとき、走っているとき、単に歩いているときに、ユーザおよび装置性能の両が影響を受ける可能性もある。
視覚信号言語に関する殆どの記述は、様々な操作を選択して行うプロセスに集中しているが、いわゆる不注意な作動(IA)の回避も検討する必要がある。IAは、装置着用者の意図しない操作の実行を引き起こす1つ以上の眼球運動から生じる。例えば、IAは、選択シーケンスと重複し、選択シーケンスとして解釈される実在オブジェクトを見ることに関わる眼球運動から生じることがある。別の例は、ユーザの注意が意図的な視線選択および/または作動シーケンスの特徴を模倣する注意分散な眼球運動を生成する、ユーザに「叫ぶ」オブジェクトを表示することを含む。
視覚解像度(visual resolution)は、画面(例えば、モニタ、HMD、タブレット)上に表示されたオブジェクト(例えば、テキスト、記号、スプレッドシートのセル)の特徴サイズを決定するための基準として頻繁に使用される。注視解像度(gaze resolution、すなわち、視線方向に基づいて位置を特定する能力)は、一般的に視覚解像度よりも少なくとも1桁低い。これによって、ユーザの視覚解像度内にあるが、ユーザの注視解像度よりも小さいサイズを有する特徴またはオブジェクトから、視覚信号により1つ以上の位置を選択しなければならない場合、特定の視覚信号言語方法が必要とされる。この状況は、例えば、スプレッドシート内のセルを編集する場合、1次元リストまたは2次元アイコン列にオブジェクトを挿入する場合、または文字列内の単語を置換する場合に発生する。
更なる例示的な実施形態において、鋭敏な視覚解像度と比較的に低い視線追跡解像度との間の不一致の問題に対処するために、重合されたマーカおよび補助入力を測定される注視位置に結合することによって、ユーザ選択および/作動を効率的に行うことができる。補助入力は、N個の選択肢から1つの選択肢を指定することができる任意の装置、例えば、キーボード、キーパッド、コンピュータマウス、トラックボール、音声認識用いて特定されたキーワードのうち1つ、スイッチ、点頭、指ジェスチャーまたはハンドジェスチャーなどであってもよい。
較正の重要要素は、片目または両目の1つ以上の特徴(例えば、瞳孔、角膜輪部)の位置を、ディスプレイ(例えば、HMD、モバイル装置、リモートモニタ)上の注視位置、または装置ユーザの実際の環境内の注視位置に変換するためのマッピングスキーム(例えば、1つ以上の数学関数、ルックアップテーブル、補間方法)を形成することである。較正スキームは、照明源、基準物および/または頭部装着装置上のカメラの既知の相対位置または測定の相対位置に加えて、片目または両目の解剖モデルに基づくことができる。集団平均、装置ユーザの既知特徴(例えば、年齢、民族起源)に基づいた推定、(例えば、較正手順中に)測定された装置着用者の特性、またはこれらのスキームの組み合わせに基づいて、この解剖モデルのパラメータを選定することができる。
式中、f(t)は、追跡パターン(例えば、連珠形、円、長方形)を定義する式である。上述した拡大領域内のオブジェクトの追跡と同様に、ターゲットの速度は、滑動性追跡眼球運動、一連の短い追跡衝動性動眼、またはこれらの2つの組み合わせを用いて追跡できるように制限される。
したがって、目の測定位置を注視位置にマッピングするために使用される最適パラメータに加えて、システム遅延Δtは、最初に不明である。例示的な実施形態において、初期の曲線近似を行うために、システム平均値に基づいて、初期値(例えば、30ミリ秒)をΔtに割り当てることができる。これによって、取得された目の位置座標(xi,yi)と初期ターゲット位置座標(xt,yt)との間の曲線近似を行うことができる。必要に応じて、マッピングされた目の位置座標(xi,yi)を図32に示された追跡パターンに重合することができる。マッピングされた例示的な座標位置は、×(722)によって示される。
1.図33に示すように、垂直ラインの右側の「L」733aおよびラインの左側の「R」733bの総数を最小化するように、水平位置(すなわち、垂直ライン735)を計算することができる。この位置は、左優位眼および右優位眼を区別するための閾値として使用される。
2.左目および右目の選択ターゲットが遷移ゾーン内にある場合、左目マッピングおよび右目マッピングの両方を計算することができる。いずれかを選択する場合、選択された操作を行うことができる。このスキームは、不注意な作動をわずかに増加する可能性がある。
3.左眼較正および右眼較正の両方に基づいた平均位置を使用してもよい。
4.左目および右目のマッピングによって示された領域における較正中に左眼の較正位置および右眼の較正位置の重み付けが「L」および「R」位置の分布に依存する場合、重み付け平均を使用することができる。
所謂「光軸」が「視軸」と異なることは、当該技術分野において周知である。光軸は、光が角膜、瞳孔および水晶体の中心を通って、曲げずに、網膜を含む眼の後壁に到達する線である。視力(およびその後の認知)の中心である黄斑および中心窩は、この光軸から平均5°で鼻側に変位するため、精確な視線追跡を行うために、視軸を光軸から区別することが不可欠である。
1)装置着用者の近くにキーボードがある場合、方向矢印(または他のキー)を繰り返して押すことによって、左、右、上、下の移動を示すことができる。
2)目または頭部装着装置タッチ感応領域(またはタブレットまたは携帯電話などの他のタッチ感応面)に、移動機能(左、右、上、下)を割り当てることができる。
3)装置着用者は、頭部動作(すなわち、回転、傾き、またはその両方)を用いてオブジェクトを「動かす」ことができる。必要に応じて、移動の度合いは、(例えば、加速度計またはシーンカメラの動きを用いて測定された)頭部動作の度合いに比例することができる。
4)「左」、「右」、「上」または「下」の発話などの音声コマンドを用いて、近視野オブジェクトおよび/または遠視野オブジェクトを整列することができる。
観察者が見ている中央の表示領域に投影された最高解像度の画像に視線追跡を組み合わせる技術は、当該技術分野において周知である。観察者が直接に見ていない領域に低解像度の画像を投影することによって、全体のユーザ表示を生成するための帯域幅が低減される。殆どの実施形態において、視野の周辺領域には、オブジェクトは、より低い空間解像度および/またはより少ない細部の投影で表示される。いくつかの実施例において、シーン中心の高解像度領域と周辺の低解像度領域との間に中間解像度領域が存在する。これによって、最大80%の帯域の節約を実現した。
生理学的に、人間の視覚情報の処理は、まず、網膜内の神経節細胞のレベルで始まる。これらの細胞は、中央領域の光受容体と環状の周囲領域の光受容体とに当たる光の差が存在する場合に、ニューロンが興奮する所謂「中央−周囲受容野」パターン内に配置される。この構成によって、その後に脳に送信されるエッジの位置(すなわち、所定のレベルを超える空間的な勾配)を検出することができる。
多くのHMI(人間-機械インターフェイス)システムの基本要素は、オブジェクトのクラスタまたはグループを指定し、オブジェクトと対話する機能に関与する。このようなオブジェクトの例は、データファイル、アプリケーション、画像、機能を表すアイコン、名前、住所、電話番号、テキスト内の単語、ハイパーリンク、ビデオ、録音、外面などの集合を含む。現行システムにおいて、典型的なスクリーンに基づくGUI(グラフィカルユーザインターフェイス)は、ユーザが(例えば、タッチスクリーンまたはコンピュータマウスを用いて)画面上で、クラスタ内の所望のオブジェクトの表現を含む1つ以上のほぼ矩形領域を指定することを可能にすることによって、クラスタのグループ化を処理する。操作は、例えば、クラスタ内の全てのオブジェクトまたは機能に対して同時に実行されてもよい。
Claims (28)
- 検出装置を用いて、ユーザの片目または両目の眼球運動に少なくとも部分的に基づいて、前記ユーザの意図を伝えるためのグラフィカルユーザインターフェイスを提供するための方法であって、
前記検出装置を用いて、前記ユーザの片目または両目が第1キーボード上の第1キーに向けられていることを特定するステップと、
前記検出装置を用いて、前記ユーザの片目または両目が前記第1キーから、所定の距離内にない、前記第1キーボードと同じ組のキーを有する第2キーボード上の第2キーに向けられた第1の1つまたは複数の衝動性動眼を特定するステップと、
前記検出装置を用いて、前記第1の1つまたは複数の衝動性動眼に対する前記第2キーの位置に向かう第1の1つまたは複数の補正された衝動性動眼が前記第2キーの位置から前記所定の距離内で完了したことを確認するステップと、
前記ユーザによる前記第2キーの認識を待たずに、前記第1キーおよび前記第2キーの一方または両方に関連する操作を行うステップとを含む、方法。 - 前記第2キーボードは、ディスプレイ上に投影された仮想キーボードと、物理オブジェクトとのうち一方である、請求項1に記載の方法。
- 前記操作は、前記第1キーに関連する文字を一連の文字に連結することを含む、請求項1または2に記載の方法。
- 前記第1キーに関連する文字を連結することは、単語、句、文および数字からなるグループのうちの一つを形成する、請求項3に記載の方法。
- 前記第1キーボードおよび前記第2キーボードは、ディスプレイ上で互いに隣接して表示される仮想キーボードである、請求項1〜4のいずれかに記載の方法。
- 前記第1キーボードおよび前記第2キーボードは、1つ又は複数の数字、文字、単語、句、選択、メディアグリフ、または特殊記号を含む複数のキーを含む、請求項1〜5のいずれかに記載の方法。
- 前記操作は、前記第1キーに割り当てられた記号をディスプレイに表示されるフィールドに追加することを含む、請求項1〜6のいずれかに記載の方法。
- 前記検出装置を用いて、前記ユーザの片目または両目が前記第2キーボードに向けられている時に前記第2キーを特定するステップと、
前記検出装置を用いて、前記ユーザの片目または両目が前記第2キーから前記第1キーボードの第3キーに向けられた第2の1つまたは複数の衝動性動眼を特定するステップと、
前記検出装置を用いて、前記第2の1つまたは複数の衝動性動眼に対する第2の1つ又は複数の衝動性動眼が前記第1キーボードの前記第3キーから所定の距離内で完了したことを確認するステップと、
前記ユーザによる前記第1キーボードの前記第3キーの認識を待たずに、前記第3キーおよび前記第2キーのうちの一つ又は両方に関連する第2操作を行うステップとをさらに含む、請求項1〜7のいずれかに記載の方法。 - 前記操作は、前記第1キーに少なくとも部分的に基づいて、前記第2キーボードのキー上に形成された記号を修正することを含む、請求項8に記載の方法。
- 前記第2キーボードのキー上に形成された記号の修正は、前記第1キー上に形成された記号に関連付けられない記号を前記第2キーボードの前記キーから省くことを含む、請求項9に記載の方法。
- 前記操作は、前記第1キーに少なくとも部分的に基づいて、前記第2キーボードのキー上に提示されるシンボルを修正することを含む、請求項8に記載の方法。
- 前記第2キーは、作動ターゲットである、請求項1〜11のいずれかに記載の方法。
- 前記第2キーは、前記ユーザの傍中心窩視界および周辺視界のうち一方に位置する、請求項1〜12のいずれかに記載の方法。
- 前記第1キーは、ディスプレイ上に表示された仮想キーボードに位置し、
前記第2キーは、前記ディスプレイ上に表示されていない前記ユーザの視野に位置する、請求項1〜13のいずれかに記載の方法。 - 前記操作は、前記ユーザによる更なる操作に関係なく、前記第1の1つまたは複数の衝動性動眼に対する前記1つまたは複数の補正された衝動性動眼が、前記第1キーから、前記第2キーの前記位置からの所定の距離内に完了したことを確認した直後に行われる、請求項1〜14のいずれかに記載の方法。
- 前記ユーザの一方または両方の目が前記第1キーボードの前記第1キーに向けられた時を前記検出装置で識別した後に、前記第2キーボード上の前記第2キーの最も頻繁に使用される特徴の輝度を変更することをさらに含む、請求項1〜15のいずれかに記載の方法。
- 前記第2キーボードは、前記第1キーボードと同じ組のキーを同じレイアウトで有しており、
前記第2キーボードは、前記第1キーボードに隣接しており、同じ向きにある、請求項1〜16のいずれかに記載の方法。 - 第1キーボード、第2キーボードおよび検出装置を用いて、ユーザの片目または両目の眼球運動に少なくとも部分的に基づいて、前記ユーザの意図を伝えるためのグラフィカルユーザインターフェイスを提供するための方法であって、
前記検出装置を用いて、前記ユーザの片目または両目が前記第1または第2キーボード上の第1キーの位置から所定の距離内に向けられていることを特定するステップを備え、前記第1キーボードまたは前記第2キーボードの少なくとも一つのキーは、単一の衝動性動眼を用いてアクティブになる一方、前記第1キーボードまたは前記第2キーボードの他のキーは、二つの衝動性動眼を用いてアクティブになり、前記第2キーボードは前記ユーザの両目に対して前記第1キーボードの垂直に隣接して同じ方向に配置されており、前記第2キーボードは、前記第1キーボードと同じレイアウトで同じキーの組を有しており、前記第1キーボードおよび前記第2キーボードのうちの1つまたは複数の最も頻繁に使用されるキーは、前記第1キーボードおよび前記第2キーボードの複数の行のうちの1または複数の中央の行を占めており、
前記検出装置を用いて、前記ユーザの片目または両目が前記キーボード上の前記第1キーから、所定の距離内にない、前記第1または第2のキーボード上の第2キーに向けられた第1の1つまたは複数の衝動性動眼を特定するステップと、
前記検出装置を用いて、前記1つまたは複数の衝動性動眼に対する前記第2キーの位置に向かう、1または複数の補正された衝動性動眼が前記第2キーの前記位置から所定の距離内で完了したことを確認するステップと、
前記第1キーおよび前記第2キーの一方または両方に関連する操作を行うステップとを含む、方法。 - 前記操作は、前記ユーザによる前記第2キーの認識を待たずに行われる、請求項18に記載の方法。
- 前記操作は、前記第1キーに関連する文字を、格納された一連の文字に連結することを含む、請求項18に記載の方法。
- 前記第1キーに関連する文字を連結することは、単語、文および数字からなるグループのうちの一つを形成する、請求項20に記載の方法。
- 前記第1キーボードおよび前記第2キーボードのうちの少なくとも一つは、前記グラフィカルユーザインターフェイス上に投影される、請求項18〜21のいずれかに記載の方法。
- 前記第1キーボードおよび前記第2キーボードは、当該キーボードのうちの1つの少なくとも1つのキーに関連付けられる頻繁に使用される機能に対するオフディスプレイ修飾ターゲットを含み、前記方法は、
前記ユーザの一方または両方の目が前記第1または第2のキーボード上の前記第1キーの位置から所定の距離内にあるとき、前記検出装置で識別した後に、前記第1または第2のキーボード上の前記第2キーの最も頻繁に使用される特徴の輝度を変更することをさらに含む、請求項18〜22のいずれかに記載の方法。 - ユーザの片眼または両眼の動きに少なくとも部分的に基づいてユーザの意図を決定するグラフィカルユーザインターフェイスであって、
少なくとも第1キーボードを表示するように構成されたプロジェクタと、
検出装置とを備え、前記検出装置は、
ユーザの片目または両目が第1キーボードの第1キーに向けられたときを識別するように構成されており、前記第1キーボードの少なくとも1つのキーは、単一の断続的な目の動きを使用して起動可能であり、前記第1キーボードの他のキーは、2つの断続的な目の動きを使用して起動可能であり、
前記第1キーから、予め定められた距離内にない、第2キーボードの第2キーに向かう前記ユーザの片目または両目の第1の1つまたは複数の断続性運動を識別し、
前記第1の1つまたは複数の断続性運動について前記第2キーの位置に向かう1つまたは複数の修正された断続性運動が、前記第2キーの位置から所定の距離以内に完了したことを確認するように構成されており、
プロセッサを備え、前記プロセッサは、前記ユーザによる第2キーの知覚を待つことなく、前記第1の1つまたは複数の断続性運動について前記1つまたは複数の修正された断続性運動が、前記第2キーの位置から前記所定の距離以内に完了したという確認に応答して、前記第1キーおよび前記第2キーの一方または両方に関連付けられた動作を実行するように構成されている、グラフィカルユーザインターフェイス。 - 前記プロセッサが実行するように構成された動作は、前記第1キーに関連付けられた文字を一連の文字に連結することを含む、請求項24に記載のグラフィカルユーザインターフェイス。
- 前記第1キーボードおよび第2キーボードは、数字、文字、単語、フレーズ、選択、メディアグリフ、または特別文字の表現のうちの1つまたは複数を含む複数のキーを含む、請求項24または25に記載のグラフィカルユーザインターフェイス。
- 前記第1キーボードおよび第2キーボードは、同一のレイアウトを有する仮想キーボードである、請求項24〜26のいずれかに記載のグラフィカルユーザインターフェイス。
- 前記検出装置は
前記ユーザの片目または両目が前記第2キーボードに向けられたときに前記第2キーを識別し、
前記第2キーから前記第1キーボードの第3キーに向かう、前記ユーザの片目または両目の第2の1つまたは複数の断続性運動を識別し、
前記第2の1つまたは複数の断続性運動に対する第2の1つまたは複数の修正された断続性運動が、前記第1キーボードの前記第3キーから指定された距離内で完了したことを確認するように構成されており、
前記プロセッサは、前記ユーザによる前記第1キーボードの前記第3キーの知覚を待つことなく、前記第2の1つまたは複数の断続性運動に対する前記第2の1つまたは複数の修正された断続性運動が、前記第1キーボードの前記第3キーから前記指定された距離内で完了したという確認に応答して、前記第3キーおよび前記第2キーの一方または両方に関連付けられた動作を実行するように構成されている、請求項24〜27のいずれかに記載のグラフィカルユーザインターフェイス。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562205707P | 2015-08-15 | 2015-08-15 | |
US62/205,707 | 2015-08-15 | ||
US201562252347P | 2015-11-06 | 2015-11-06 | |
US62/252,347 | 2015-11-06 | ||
US201662319751P | 2016-04-07 | 2016-04-07 | |
US62/319,751 | 2016-04-07 | ||
PCT/US2016/047105 WO2017031089A1 (en) | 2015-08-15 | 2016-08-15 | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018530798A JP2018530798A (ja) | 2018-10-18 |
JP2018530798A5 JP2018530798A5 (ja) | 2020-07-02 |
JP6865175B2 true JP6865175B2 (ja) | 2021-04-28 |
Family
ID=58051236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017556858A Active JP6865175B2 (ja) | 2015-08-15 | 2016-08-15 | 実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
EP (1) | EP3335096B1 (ja) |
JP (1) | JP6865175B2 (ja) |
KR (1) | KR102196975B1 (ja) |
CN (1) | CN108351685B (ja) |
DE (1) | DE112016003719T5 (ja) |
GB (1) | GB2561455B (ja) |
WO (1) | WO2017031089A1 (ja) |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10489577B2 (en) * | 2016-08-11 | 2019-11-26 | Onenigma LLC | Identifying one or more users based on typing pattern and/or behavior |
US10627900B2 (en) | 2017-03-23 | 2020-04-21 | Google Llc | Eye-signal augmented control |
US10216260B2 (en) * | 2017-03-27 | 2019-02-26 | Microsoft Technology Licensing, Llc | Selective rendering of sparse peripheral displays based on element saliency |
GB2561852A (en) * | 2017-04-25 | 2018-10-31 | Bae Systems Plc | Watercraft |
CA3061410C (en) | 2017-04-25 | 2023-03-21 | Bae Systems Plc | Watercraft |
GB2561882A (en) * | 2017-04-27 | 2018-10-31 | Nokia Technologies Oy | Virtual reality viewport adaption |
AU2018277842A1 (en) * | 2017-05-31 | 2019-12-19 | Magic Leap, Inc. | Eye tracking calibration techniques |
GB2563276B (en) * | 2017-06-09 | 2021-12-01 | Advanced Risc Mach Ltd | Virtual reality systems |
JP7081599B2 (ja) * | 2017-07-27 | 2022-06-07 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
KR20220100102A (ko) | 2017-09-29 | 2022-07-14 | 애플 인크. | 시선-기반 사용자 상호작용 |
CN109697000B (zh) * | 2017-10-24 | 2022-09-16 | 阿里巴巴集团控股有限公司 | 资源分配方法及相关设备、显示方法及相关设备 |
US10484530B2 (en) * | 2017-11-07 | 2019-11-19 | Google Llc | Sensor based component activation |
AU2018367510A1 (en) * | 2017-11-14 | 2020-06-25 | Vivid Vision, Inc. | Systems and methods for visual field analysis |
EP3716220B1 (en) * | 2017-11-20 | 2024-02-21 | Rakuten Group, Inc. | Information processing device, information processing method, and information processing program |
EP3724855A4 (en) | 2017-12-14 | 2022-01-12 | Magic Leap, Inc. | CONTEXT-BASED REPRESENTATION OF VIRTUAL AVATARS |
WO2019144196A1 (en) * | 2018-01-25 | 2019-08-01 | Psykinetic Pty Ltd | Eye-typing method, system and computer readable medium |
FR3077900B1 (fr) * | 2018-02-12 | 2020-01-17 | Thales | Vision peripherique dans une interface homme-machine |
US11314396B2 (en) | 2018-05-09 | 2022-04-26 | Apple Inc. | Selecting a text input field using eye gaze |
US11604661B2 (en) * | 2018-06-03 | 2023-03-14 | Apple Inc. | Determining relevant information based on third party information and user interactions |
WO2019245543A1 (en) | 2018-06-20 | 2019-12-26 | Hewlett-Packard Development Company, L.P. | Alerts of mixed reality devices |
EP3750141A4 (en) * | 2018-06-20 | 2021-09-15 | Hewlett-Packard Development Company, L.P. | WARNINGS FROM DEVICES OF MIXED REALITY |
DE102018210824B4 (de) * | 2018-07-02 | 2023-02-09 | Audi Ag | Verfahren und System zur Ausleuchtung eines Bereichs in einer Umgebung eines Fahrzeugs |
US10581940B1 (en) * | 2018-08-20 | 2020-03-03 | Dell Products, L.P. | Head-mounted devices (HMDs) discovery in co-located virtual, augmented, and mixed reality (xR) applications |
US10616565B2 (en) * | 2018-08-21 | 2020-04-07 | The Boeing Company | System and method for foveated simulation |
KR20200029785A (ko) * | 2018-09-11 | 2020-03-19 | 삼성전자주식회사 | 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치 |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
WO2020076300A1 (en) * | 2018-10-09 | 2020-04-16 | Hewlett-Packard Development Company, L.P. | Selecting a display with machine learning |
US11894125B2 (en) | 2018-10-17 | 2024-02-06 | Google Llc | Processing fundus camera images using machine learning models trained using other modalities |
CN111281762A (zh) * | 2018-12-07 | 2020-06-16 | 广州幻境科技有限公司 | 一种视力康复训练方法及系统 |
CN109324417A (zh) * | 2018-12-13 | 2019-02-12 | 宜视智能科技(苏州)有限公司 | 助视器及其控制方法、计算机存储介质 |
CN109799838B (zh) * | 2018-12-21 | 2022-04-15 | 金季春 | 一种训练方法和系统 |
US11514602B2 (en) | 2018-12-25 | 2022-11-29 | Samsung Electronics Co., Ltd. | Method and apparatus for gaze estimation |
KR102237659B1 (ko) * | 2019-02-21 | 2021-04-08 | 한국과학기술원 | 입력 방법 및 이를 수행하는 장치들 |
CN109917914B (zh) * | 2019-03-05 | 2022-06-17 | 河海大学常州校区 | 基于视野位置的交互界面分析与优化方法 |
JP7215246B2 (ja) * | 2019-03-08 | 2023-01-31 | 株式会社Jvcケンウッド | 表示装置、表示方法、及び表示プログラム |
EP3709263A1 (en) * | 2019-03-14 | 2020-09-16 | Siemens Healthcare GmbH | Method and system for monitoring a biological process |
CN111766939A (zh) * | 2019-03-15 | 2020-10-13 | 苹果公司 | 在光学透传显示器上的注意力方向 |
WO2020209171A1 (ja) * | 2019-04-09 | 2020-10-15 | オムロン株式会社 | 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム |
US11228810B1 (en) | 2019-04-22 | 2022-01-18 | Matan Arazi | System, method, and program product for interactively prompting user decisions |
WO2020241863A1 (ja) * | 2019-05-30 | 2020-12-03 | 京セラ株式会社 | ヘッドアップディスプレイシステムおよび移動体 |
US10997773B2 (en) | 2019-06-13 | 2021-05-04 | Facebook Technologies, Llc | Dynamic tiling for foveated rendering |
US10976816B2 (en) * | 2019-06-25 | 2021-04-13 | Microsoft Technology Licensing, Llc | Using eye tracking to hide virtual reality scene changes in plain sight |
US10901502B2 (en) * | 2019-06-27 | 2021-01-26 | Facebook, Inc. | Reducing head mounted display power consumption and heat generation through predictive rendering of content |
CN110399930B (zh) * | 2019-07-29 | 2021-09-03 | 北京七鑫易维信息技术有限公司 | 一种数据处理方法及系统 |
KR102313622B1 (ko) | 2019-08-21 | 2021-10-19 | 한국과학기술연구원 | 생체신호 기반 아바타 제어시스템 및 방법 |
CN110703916B (zh) * | 2019-09-30 | 2023-05-09 | 恒信东方文化股份有限公司 | 一种三维建模方法及其系统 |
CA3058447A1 (en) * | 2019-10-10 | 2021-04-10 | Spacecard Inc. | A system for generating and displaying interactive mixed-reality video on mobile devices |
KR102128894B1 (ko) * | 2019-10-10 | 2020-07-01 | 주식회사 메디씽큐 | 스마트 안경의 시선 트래킹 시스템 및 그 방법 |
US11430414B2 (en) * | 2019-10-17 | 2022-08-30 | Microsoft Technology Licensing, Llc | Eye gaze control of magnification user interface |
CN110956082B (zh) * | 2019-10-17 | 2023-03-24 | 江苏科技大学 | 基于深度学习的人脸关键点检测方法和检测系统 |
TWI734259B (zh) * | 2019-11-14 | 2021-07-21 | 雲想科技股份有限公司 | 電子簽章認證裝置及其方法 |
US11176637B2 (en) | 2019-12-03 | 2021-11-16 | Facebook Technologies, Llc | Foveated rendering using eye motion |
ES2961614T3 (es) * | 2019-12-17 | 2024-03-12 | John Cockerill Defense SA | Sistema inteligente para el control de funciones en una torreta de un vehículo de combate |
US11526159B2 (en) * | 2020-02-14 | 2022-12-13 | Rockwell Automation Technologies, Inc. | Augmented reality human machine interface testing |
CN111443796B (zh) * | 2020-03-10 | 2023-04-28 | 维沃移动通信有限公司 | 一种信息处理方法及装置 |
WO2021194487A1 (en) * | 2020-03-25 | 2021-09-30 | Hewlett-Packard Development Company, L.P. | Head-related transfer functions with antropometric measurements |
CN111861900A (zh) * | 2020-06-05 | 2020-10-30 | 北京迈格威科技有限公司 | 视频抠像降噪方法和装置 |
CN111930234A (zh) * | 2020-08-05 | 2020-11-13 | 西安闻泰电子科技有限公司 | 基于眼睛控制的输入方法、装置、电子设备及存储介质 |
DE102020210173A1 (de) | 2020-08-11 | 2022-02-17 | Volkswagen Aktiengesellschaft | Verfahren sowie System zur Unterstützung eines Fahrers eines Fahrzeuges bei Engstellen in einem Fahrweg des Fahrzeuges |
KR102495213B1 (ko) * | 2020-11-05 | 2023-02-07 | 한국전자통신연구원 | 증강 현실 기반의 스크린 스포츠 체험 장치 및 방법 |
CA3206042A1 (en) | 2021-01-22 | 2022-07-28 | Sarah Nancy STAAB | Visual data management system and method |
CN112952838B (zh) * | 2021-01-29 | 2023-08-11 | 中国电力科学研究院有限公司 | 一种基于眼动设备的潮流智能分析方法及装置 |
CN112906346B (zh) * | 2021-02-09 | 2023-07-04 | 江苏徐工工程机械研究院有限公司 | 一种工程机械显示器字符大小设计系统及方法 |
US11769134B2 (en) * | 2021-03-22 | 2023-09-26 | International Business Machines Corporation | Multi-user interactive ad shopping using wearable device gestures |
WO2022265654A1 (en) * | 2021-06-18 | 2022-12-22 | Hewlett-Packard Development Company, L.P. | Image analysis to switch audio devices |
US20230030433A1 (en) * | 2021-07-27 | 2023-02-02 | App-Pop-Up Inc. | System and method for adding and simultaneously displaying auxiliary content to main content displayed via a graphical user interface (gui) |
CN114115230B (zh) * | 2021-10-25 | 2023-10-03 | 武汉理工大学 | 人机协同的船舶远程驾驶控制方法、系统、装置及介质 |
KR102655829B1 (ko) * | 2021-11-08 | 2024-04-08 | 엄태경 | 자세 교정용 모니터 및 이의 조절 방법 |
WO2023104286A1 (en) * | 2021-12-07 | 2023-06-15 | Ericsson | Rendering of virtual keyboards in virtual environments |
CN114265501B (zh) * | 2021-12-22 | 2024-01-26 | 南京紫金体育产业股份有限公司 | 一种运动场景动态识别系统 |
JP2023115808A (ja) | 2022-02-08 | 2023-08-21 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、および記録媒体 |
CN114420131B (zh) * | 2022-03-16 | 2022-05-31 | 云天智能信息(深圳)有限公司 | 低弱视力智能语音辅助识别系统 |
US11620000B1 (en) * | 2022-03-31 | 2023-04-04 | Microsoft Technology Licensing, Llc | Controlled invocation of a precision input mode |
EP4258085A1 (de) * | 2022-04-04 | 2023-10-11 | Deutsche Telekom AG | Steuerung eines cursors bei der nutzung virtueller bildschirme |
CN115686292B (zh) * | 2023-01-03 | 2023-07-25 | 京东方艺云(杭州)科技有限公司 | 一种信息显示的方法、装置、电子设备及存储介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4737040A (en) * | 1985-02-15 | 1988-04-12 | Moon Tag Y | Keyboard device and method for entering Japanese language text utilizing Romaji character notation |
CA2126142A1 (en) * | 1994-06-17 | 1995-12-18 | David Alexander Kahn | Visual communications apparatus |
US7438414B2 (en) * | 2005-07-28 | 2008-10-21 | Outland Research, Llc | Gaze discriminating electronic control apparatus, system, method and computer program product |
EP1943583B1 (en) | 2005-10-28 | 2019-04-10 | Tobii AB | Eye tracker with visual feedback |
US8487775B2 (en) * | 2006-06-11 | 2013-07-16 | Volvo Technology Corporation | Method and apparatus for determining and analyzing a location of visual interest |
FR2912274B1 (fr) * | 2007-02-02 | 2009-10-16 | Binocle Sarl | Procede de commande a partir d'un signal oculaire volontaire, notamment pour une prise de vues |
US8717292B2 (en) * | 2007-08-07 | 2014-05-06 | Osaka Electro-Communication University | Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium |
WO2010118292A1 (en) * | 2009-04-09 | 2010-10-14 | Dynavox Systems, Llc | Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods |
US9213405B2 (en) | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
US8885877B2 (en) * | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
US8994522B2 (en) * | 2011-05-26 | 2015-03-31 | General Motors Llc | Human-machine interface (HMI) auto-steer based upon-likelihood to exceed eye glance guidelines |
US9766700B2 (en) * | 2011-12-14 | 2017-09-19 | Intel Corporation | Gaze activated content transfer system |
KR101850035B1 (ko) * | 2012-05-02 | 2018-04-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
WO2013169237A1 (en) | 2012-05-09 | 2013-11-14 | Intel Corporation | Eye tracking based selective accentuation of portions of a display |
US8917238B2 (en) * | 2012-06-28 | 2014-12-23 | Microsoft Corporation | Eye-typing term recognition |
CN103631365B (zh) * | 2012-08-22 | 2016-12-21 | 中国移动通信集团公司 | 一种终端输入控制方法及装置 |
US9176581B2 (en) * | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
KR20140073730A (ko) * | 2012-12-06 | 2014-06-17 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기 제어방법 |
US20140173407A1 (en) * | 2012-12-17 | 2014-06-19 | Empire Technology Development Llc | Progressively triggered auto-fill |
KR20160005013A (ko) * | 2013-03-01 | 2016-01-13 | 토비 에이비 | 지연 워프 시선 상호작용 |
US10025378B2 (en) * | 2013-06-25 | 2018-07-17 | Microsoft Technology Licensing, Llc | Selecting user interface elements via position signal |
SG11201602944YA (en) | 2013-10-17 | 2016-05-30 | Childrens Healthcare Atlanta Inc | Methods for assessing infant and child development via eye tracking |
KR20160109443A (ko) * | 2015-03-11 | 2016-09-21 | 주식회사 비주얼캠프 | 시선 추적을 이용한 디스플레이 장치 및 방법 |
KR101857466B1 (ko) * | 2017-06-16 | 2018-05-15 | 주식회사 비주얼캠프 | 헤드 마운트 디스플레이 및 그 캘리브레이션 방법 |
-
2016
- 2016-08-15 EP EP16837677.0A patent/EP3335096B1/en active Active
- 2016-08-15 KR KR1020177031497A patent/KR102196975B1/ko active IP Right Grant
- 2016-08-15 JP JP2017556858A patent/JP6865175B2/ja active Active
- 2016-08-15 WO PCT/US2016/047105 patent/WO2017031089A1/en active Application Filing
- 2016-08-15 CN CN201680031080.4A patent/CN108351685B/zh active Active
- 2016-08-15 DE DE112016003719.8T patent/DE112016003719T5/de not_active Ceased
- 2016-08-15 GB GB1803620.2A patent/GB2561455B/en active Active
Also Published As
Publication number | Publication date |
---|---|
GB2561455B (en) | 2022-05-18 |
CN108351685B (zh) | 2022-07-08 |
DE112016003719T5 (de) | 2018-05-09 |
KR20180083252A (ko) | 2018-07-20 |
WO2017031089A1 (en) | 2017-02-23 |
GB201803620D0 (en) | 2018-04-18 |
EP3335096B1 (en) | 2022-10-05 |
JP2018530798A (ja) | 2018-10-18 |
GB2561455A (en) | 2018-10-17 |
EP3335096A4 (en) | 2019-03-06 |
EP3335096A1 (en) | 2018-06-20 |
CN108351685A (zh) | 2018-07-31 |
KR102196975B1 (ko) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6865175B2 (ja) | 実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法 | |
US10564714B2 (en) | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects | |
US11747618B2 (en) | Systems and methods for sign language recognition | |
CN112507799B (zh) | 基于眼动注视点引导的图像识别方法、mr眼镜及介质 | |
US11899735B2 (en) | Systems and methods for altering display parameters for users with epilepsy | |
Ding | User-generated vocabularies on Assistive/Access Technology | |
US20230259265A1 (en) | Devices, methods, and graphical user interfaces for navigating and inputting or revising content | |
US20230401795A1 (en) | Extended reality based digital assistant interactions | |
US20240103676A1 (en) | Methods for interacting with user interfaces based on attention | |
Ward | Testing methods to shift visual attention from wearable head-up displays to real-world locations | |
WO2022238936A2 (en) | Systems and methods for making websites accessible |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180831 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20180926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190805 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190805 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200515 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200520 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6865175 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |