KR20170047195A - Systems and methods for discerning eye signals and continuous biometric identification - Google Patents
Systems and methods for discerning eye signals and continuous biometric identification Download PDFInfo
- Publication number
- KR20170047195A KR20170047195A KR1020167034652A KR20167034652A KR20170047195A KR 20170047195 A KR20170047195 A KR 20170047195A KR 1020167034652 A KR1020167034652 A KR 1020167034652A KR 20167034652 A KR20167034652 A KR 20167034652A KR 20170047195 A KR20170047195 A KR 20170047195A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- iris
- headgear
- images
- eye
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 209
- 210000001508 eye Anatomy 0.000 claims abstract description 174
- 238000012545 processing Methods 0.000 claims abstract description 59
- 238000012795 verification Methods 0.000 claims abstract description 15
- 230000009471 action Effects 0.000 claims description 44
- 210000003128 head Anatomy 0.000 claims description 17
- 238000005286 illumination Methods 0.000 claims description 17
- 230000000007 visual effect Effects 0.000 claims description 17
- 230000033001 locomotion Effects 0.000 claims description 12
- 239000002131 composite material Substances 0.000 claims description 11
- 230000002085 persistent effect Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000013475 authorization Methods 0.000 claims description 3
- 150000001875 compounds Chemical class 0.000 claims 4
- 238000005259 measurement Methods 0.000 abstract description 19
- 230000006870 function Effects 0.000 abstract description 14
- 238000012937 correction Methods 0.000 abstract description 3
- 210000000554 iris Anatomy 0.000 description 156
- 230000008569 process Effects 0.000 description 52
- 238000004891 communication Methods 0.000 description 26
- 230000006854 communication Effects 0.000 description 26
- 238000012360 testing method Methods 0.000 description 25
- 230000005540 biological transmission Effects 0.000 description 21
- 210000001747 pupil Anatomy 0.000 description 18
- 210000000744 eyelid Anatomy 0.000 description 17
- 230000006399 behavior Effects 0.000 description 14
- 230000001815 facial effect Effects 0.000 description 14
- 230000003993 interaction Effects 0.000 description 12
- 210000003786 sclera Anatomy 0.000 description 12
- 230000002996 emotional effect Effects 0.000 description 11
- 230000004044 response Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 210000000720 eyelash Anatomy 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000012790 confirmation Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 230000004424 eye movement Effects 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000003190 augmentative effect Effects 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 7
- 230000001149 cognitive effect Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 230000008451 emotion Effects 0.000 description 6
- 210000000887 face Anatomy 0.000 description 6
- 230000008602 contraction Effects 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 5
- 230000004438 eyesight Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000012216 screening Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000001994 activation Methods 0.000 description 4
- 210000004204 blood vessel Anatomy 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 230000000977 initiatory effect Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 210000003205 muscle Anatomy 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000012384 transportation and delivery Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000002565 electrocardiography Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 210000001232 limbus corneae Anatomy 0.000 description 3
- 230000001711 saccadic effect Effects 0.000 description 3
- 230000002269 spontaneous effect Effects 0.000 description 3
- 230000000153 supplemental effect Effects 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 239000011449 brick Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 230000006397 emotional response Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 210000001097 facial muscle Anatomy 0.000 description 2
- 230000012010 growth Effects 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 208000016339 iris pattern Diseases 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000004459 microsaccades Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004570 mortar (masonry) Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000006461 physiological response Effects 0.000 description 2
- 239000000049 pigment Substances 0.000 description 2
- 238000002106 pulse oximetry Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 210000003491 skin Anatomy 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 210000005166 vasculature Anatomy 0.000 description 2
- 201000009487 Amblyopia Diseases 0.000 description 1
- 208000002177 Cataract Diseases 0.000 description 1
- 208000032538 Depersonalisation Diseases 0.000 description 1
- 208000027534 Emotional disease Diseases 0.000 description 1
- 208000001692 Esotropia Diseases 0.000 description 1
- 230000005355 Hall effect Effects 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 206010034912 Phobia Diseases 0.000 description 1
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 201000002154 Pterygium Diseases 0.000 description 1
- 208000004350 Strabismus Diseases 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 238000005299 abrasion Methods 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 208000013715 atelosteogenesis type I Diseases 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000006998 cognitive state Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 210000000795 conjunctiva Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000012553 document review Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001973 epigenetic effect Effects 0.000 description 1
- 206010015037 epilepsy Diseases 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005755 formation reaction Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003116 impacting effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000004579 marble Substances 0.000 description 1
- 238000000968 medical method and process Methods 0.000 description 1
- 230000006993 memory improvement Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 239000002159 nanocrystal Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003472 neutralizing effect Effects 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 208000019899 phobic disease Diseases 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 201000004768 pinguecula Diseases 0.000 description 1
- 231100000572 poisoning Toxicity 0.000 description 1
- 230000000607 poisoning effect Effects 0.000 description 1
- 208000028173 post-traumatic stress disease Diseases 0.000 description 1
- 230000035935 pregnancy Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000010344 pupil dilation Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000004439 pupillary reactions Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000000275 quality assurance Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000004434 saccadic eye movement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000007781 signaling event Effects 0.000 description 1
- 230000005586 smoking cessation Effects 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 238000012358 sourcing Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 210000005070 sphincter Anatomy 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
- 230000004580 weight loss Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/316—User authentication by observing the pattern of computer usage, e.g. typical user behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G06K9/00597—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/44504—Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
- H04W12/065—Continuous authentication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/30—Security of mobile devices; Security of mobile applications
- H04W12/33—Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Abstract
안구 신호를 실시간으로 이용하여 개인에 대한 실질적으로 지속적인 생체 인증(substantially continuous biometric identification: CBID)을 제공하기 위한 장치들, 시스템들 및 방법들이 제공된다. 상기 장치는 착용가능한 컴퓨팅 디바이스 내에 포함되며, 여기서 하나의 눈 또는 2개의 눈들을 향해 지향된 하나 이상의 카메라들을 이용한 홍채 인식에 기초하여 및/또는 다른 생리학적, 해부학적 및/또는 거동적 측정들에 기초하여, 디바이스 착용자의 신원확인이 수행된다. 디바이스 사용자 신원의 검증은 보안 정보의 디스플레이를 가능 혹은 불가능하게 하는데 이용될 수 있다. 또한, 신원 검증은 원격 프로세싱 유닛들에 의한 적절한 보안 측정들을 판별하기 위하여 디바이스로부터 전송되는 정보 내에 포함될 수 있다. 상기 장치는 시야 보정, 헤드-마운트된 디스플레이, 장면 카메라(들)을 이용하여 주변 환경을 보기, 마이크로폰을 통한 오디오 데이터 녹음 및/또는 다른 감지 장비를 포함하는 다른 기능들을 수행하는 착용가능한 컴퓨팅 디바이스에 통합될 수 있다. Devices, systems and methods are provided for providing substantially continuous biometric identification (CBID) to an individual using eye signals in real time. The apparatus is comprised in a wearable computing device, wherein the device is based on iris recognition using one or more cameras directed towards one eye or two eyes and / or other physiological, anatomical and / or dynamic measurements The identification of the wearer of the device is performed. Verification of the device user identity can be used to enable or disable the display of security information. The identity verification may also be included in the information transmitted from the device to determine appropriate security measures by the remote processing units. The apparatus can be used in a wearable computing device that performs other functions, including field of view correction, head-mounted display, view of the environment using the scene camera (s), audio data recording via a microphone, and / Can be integrated.
Description
일반적으로, 본 발명은 실질적으로 지속적인 생체 인증(continuous biometric identification: CBID), 안구 추적(eye-tracking), 및 개인에 의한 실시간 안구-신호 제어(eye-signal control)를 위한 시스템들 및 방법들에 관한 발명이다. CBID는 생체측정-기반의 인증, 암호화, 및 사이버 보안 분야에 속한 기술들을 이용하며, 그리고 눈에 띄지 않는(unobtrusive) 프로세서(들) 내에서 구현되는데, 눈에 띄지 않는 프로세서(들)은 머리-장착 디스플레이(head-mounted display), 원격 디스플레이, 안구 추적 카메라들, 디바이스 착용자의 주변환경을 보여주는 장면 카메라(scene camera), 및/또는 다른 웨어러블 센서들에 관련될 수 있다. CBID는, 시스템 오브 시스템(SoS) 아키텍처 내에서 홍채 코드 판별 단계, 다른 생체 피처들의 식별 단계, 그리고 네트워크 디바이스들과의 보안 인터페이스들을 이용하여, 디바이스 사용자의 신원을 고의적으로 왜곡하는 시도들 및 부주의한 신원 도난과 관련된 보안 문제점들을 해결할 수 있다. In general, the present invention relates to systems and methods for continuous biometric identification (CBID), eye-tracking, and real-time eye-signal control by an individual . The CBID utilizes technologies belonging to the field of biometric-based authentication, encryption, and cybersecurity, and is implemented within the unobtrusive processor (s), where the inconspicuous processor (s) A head-mounted display, a remote display, eye tracking cameras, a scene camera showing the environment of the wearer of the device, and / or other wearable sensors. The CBID may be used in attempts to deliberately distort the identity of a device user using the iris code identification step within the System of System (SoS) architecture, the identification phase of other biometric features, and security interfaces with network devices, Security problems related to identity theft can be solved.
인터넷 및 컴퓨팅/통신 디바이스들의 광범위한 사용은 정보의 전자적인 보급에 있어서 폭발적인 성장을 가져왔다. 하지만, 보안 정보의 수신인(들)에 대한 검증가능한 제어는, 사이버 보안 분야에서 중대한 문제점을 남기고 있다. 또한, 정보의 수신인들은 민감한 정보의 소스들이 또한 될 수 있는데, 여기서는 이러한 소스의 신원에 대한 실시간 지식이 중요한 보안 이슈가 될 수 있다. 이러한 상황의 일례는, 온라인 구매를 수행하는 프로세스 동안, 신용카드 정보(또는 계좌 정보)를 입력하는 개인의 신원에 대한 지식이다. 보안 정보의 수신인들 혹은 소스들을 원격으로 식별하는데 통상적으로 이용되는 오늘날의 기술들은 속임수(deception)에 매우 취약하다. 미국에서, 신원 도용은 매년 대략 1500만 명의 개인에게 영향을 미치며, 추정되는 금융 충격은 500억불에 달한다. The widespread use of the Internet and computing / communication devices has led to explosive growth in electronic dissemination of information. However, verifiable control over the recipient (s) of the security information presents a significant problem in the cyber security field. Also, recipients of information can also be sources of sensitive information, where real-time knowledge of the identity of such sources can be an important security issue. An example of such a situation is knowledge of the identity of an individual entering credit card information (or account information) during the process of performing an online purchase. Today's technologies that are commonly used to remotely identify recipients or sources of security information are very vulnerable to deception. In the United States, identity theft affects roughly 15 million individuals each year, with an estimated financial impact of $ 50 billion.
인터넷으로부터 정보를 수신하는 컴퓨터 또는 텔레커뮤니케이션 디바이스는 소위 IP(즉, 인터넷 프로토콜) 어드레스 및/또는 중앙 처리 유닛들(CPU) 또는 펌웨어 내에 통상적으로 내장되는 식별 코드들에 의해서 식별되는 것이 일반적이다. 비록, IP 어드레스들 및/또는 내장된 디바이스 신원이, 정보를 수신 혹은 전송하는 장치를 식별하는데 이용될 수 있지만, IP 어드레스는 디바이스의 사용자(들)을 검증가능하게 식별하지 못한다. Computers or telecommunications devices that receive information from the Internet are typically identified by so-called IP (i.e., Internet Protocol) addresses and / or identification codes that are typically embedded within central processing units (CPUs) or firmware. Although the IP addresses and / or the embedded device identity may be used to identify the device that is receiving or transmitting information, the IP address does not identify the user (s) of the device in a verifiable manner.
디바이스를 개인 사용자와 관련시키고자 하는 체계들은 통상적으로, 패스워드들, 보안 질문들, 및/또는 이력 레코드("트랙커" 또는 "쿠키" 등의 용어들에 의해서 참조됨)를 채용한다. 하지만, 이러한 체계들은 예컨, 사용자가 일단 "로그인" 했으면, 용이하게 회피될 수 있다. 이것은, 디바이스가 분실 혹은 도난되는 경우 또는 정보의 의도된 수신인 이외의 다른 사람에 의해서 디바이스에 대한 액세스가 획득되는 경우에는, 매우 중요한 문제가 될 수 있다. 또한, 체계들은 진정한 신원 및/또는 특정한 머신의 IP 및/또는 하드웨어 내장된 어드레스를 마스킹 혹은 숨기도록 존재한다. Systems that attempt to associate a device with an individual user typically employ passwords, security questions, and / or history records (referred to by terms such as "tracker" or "cookie"). However, these schemes can be easily avoided, for example, once the user has "logged in" This can be a very significant issue if the device is lost or stolen, or if access to the device is obtained by someone other than the intended recipient of the information. In addition, the schemes exist to mask or hide the true identity and / or the IP and / or hardware embedded address of a particular machine.
사용자의 신원을 검증하고자 하는 가장 통상적인 사이버 보안 방법들은 패스워드들 및/또는 보안 질문들을 채용한다. 일단, 패스워드가 입력되거나 및/또는 보안 질문들이 답변되면, 사용자들을 바꾸는 것이 가능하며, 이는 보안 체계의 역할을 무력화시킨다. 또한, 패스워드들을 부정하게 획득하거나 및/또는 보안 질문들에 부정하게 답변하는데 채용될 수 있는 매우 많은 수의 방법들이 존재한다. 이들 부정한 방법들은, 패스워드 입력 동안에 키스트로크들을 가로채거나; 가족 이름들, 장소들, 애완동물들, 또는 간단한 문자숫자 배열, 등의 인자들에 기초하여 패스워드를 추측하거나(guess); 패킷들이 인터넷을 통해 전송될 때 패킷들 내에 포함된 정보를 해독하거나(퍼블릭, 무선 전송은 특히나 취약한 액세스 포인트이다); 통상적으로 사용되는 일련의 패스워드들을 이용한 자동화된 시퀀싱(automated sequencing); 내포된 악성코드(malware)를 통한 패스워드의 획득; 패스워드 입력을 요구하는 합법적인 웹 사이트인 척하는 것(posing); 그리고 소위 피싱사기(phishing)의 다른 형태들을 포함할 수 있다. The most common cyber security methods for verifying a user's identity employ passwords and / or security questions. Once a password is entered and / or security questions are answered, it is possible to change users, which disables the role of the security system. There are also numerous ways in which passwords may be employed to obtain fraudulently and / or to answer fraudulently to security questions. These fraudulent methods intercept keystrokes during password entry; Guess passwords based on factors such as family names, places, pets, or simple alphanumeric arrangement; Decode information contained in packets when packets are transmitted over the Internet (public, wireless transmissions are particularly vulnerable access points); Automated sequencing using a set of commonly used passwords; Acquiring passwords via embedded malware; Pretending to be a legitimate website that requires a password; And other forms of so-called phishing phishing.
사용자 인증을 위한 생체측정 체계들(biometric schemes)은, 개인을 고유하게 식별할 수 있는 머신-기반의 방법으로서 점점 더 보편화되고 있다. 생체 인증(biometric identification)은 개인마다 고유한 신체적, 유전적, 생리학적(physiological), 및/또는 행동적(behavioral) 속성들을 감지하는 것을 포함한다. 실질적으로 지속적인(substantially continuous), 실시간 생체 인증은, 고속의, 비-침입적(non-intrusive), 및 비-침투적(non-invasive)인 기법을 요구한다. Biometric schemes for user authentication are becoming increasingly popular as a machine-based method for uniquely identifying individuals. Biometric identification involves sensing physical, genetic, physiological, and / or behavioral attributes that are unique to an individual. Real-time, real-time biometric authentication requires fast, non-intrusive, and non-invasive techniques.
생체 인증 기술의 일례로서, 미국등록특허 US 8,432,252호는, 개인을 식별하기 위하여 손가락을 시각적으로 스캔하고 그리고 지문의 인식에 기초하여 보안 통신을 가능케하거나 중단시키는 디바이스를 기술한다. 손가락 스캔에 기초하는 인증 기술들을 이용하는 많은 특허들이 미국등록특허 US 8,432,252호의 출원인에게 허여되었다. 자동 안면 인식, 음성 인식, 및 서명 인식은 또 다른 생체 인식 방법들의 기초이다. 하지만, 일반적으로 이들 기법들은 눈에 띄지 않는(unobtrusive) 방식으로 실질적으로 지속적인 사용자 인증을 제공하지 않으며 그리고 보안 피처들을 무력화시키는 상대적으로 간단한 방법들에 취약하다. As an example of a biometric authentication technique, U.S. Patent No. 8,432,252 describes a device that visually scans a finger to identify an individual and enables or disables secure communication based on fingerprint recognition. A number of patents utilizing authentication techniques based on finger scans have been granted to the applicants of USP 8,432,252. Automatic facial recognition, speech recognition, and signature recognition are the basis of other biometric methods. However, in general these techniques do not provide substantially continuous user authentication in an unobtrusive manner and are vulnerable to relatively simple methods of disabling security features.
예를 들어, 대부분의 경우에 있어서, 이러한 생체측정 디바이스들은 스캔할 때에 개인을 긍정적으로(positively) 식별할 수 있다. 하지만, 이에 후속하여 별도의 개인이 보안 정보를 수신하거나 또는 보안 정보의 소스가 되는 것이 가능하다. 심지어, 스캔 시에도, 보안 정보를 디스플레이 및/또는 입력하는데 이용되는 디바이스들은 사용자 인증을 위한 사용자들에게 직접 접속되지 않는 것이 일반적이다. 예를 들어, 별개의 개인이 키보드 입력들을 수행하고 있는 동안에, 자동 안면 인식이 행해질 수 있다. 사용자의 진정한 신원을 무력화시키는 이들 상대적으로 간단한 방법들은, 그 또는 그녀의 신원을 고의적으로 숨기거나 혹은 전송하기 위하여 생체측정적으로 인증되었던 개인에게 잠재적인 이득이 있는 경우에 특히 문제가 된다. For example, in most cases, these biometric devices can positively identify an individual when scanning. However, subsequent to this, it is possible for a separate individual to receive the security information or to become the source of the security information. Even at the time of a scan, devices used to display and / or input security information are generally not directly connected to users for user authentication. For example, automatic face recognition may be performed while a separate individual is performing keyboard input. These relatively simple methods of neutralizing a user's true identity are particularly problematic when there is a potential benefit to an individual who has been biometrically authenticated to intentionally hide or transmit his or her identity.
정보의 수신인이 진정한 신원을 고의적으로 위장하기를 원할 수 있는 상황의 일례는, 온라인 학업 시험들(online scholastic examinations)의 원격 관리이다. 이 경우, 시험 성적의 최종적인 수신인이 모든 보안 과제들을 해결하고, 반면에 별도의 개인이 실제 시험 문제들을 풀 수도 있다. 대학원 입학시험(Graduate Record Examination: GRE), 경영대학원 입학시험(Graduate Management Admissions Test: GMAT), 의과대학원 입학시험(Medical College Admissions Test: MCAT), 및 다른 전문적인 승진 시험들의 관리 동안에, 복잡한 신원 스와핑 제도들(sophisticated identity swapping schemes)이 정기적으로 보고된다. 학업 및 다른 형태들의 시험의 원격 관리와 관련된 보안 문제들은, 점점 더 중요해질 것이라 예측되는데, 이는 교육 및 다른 지식-기반 서비스 제공자들이 온라인 공개 수업(Massive Open Online Course: MOOC), 원격 교육(distance-learning), 및 평가 포맷(assessment formats)을 사용하는 쪽으로 점점 더 많이 이동하고 있기 때문이다. One example of a situation where a recipient of information may want to deliberately camouflage a true identity is the remote management of online scholastic examinations. In this case, the final recipient of the test scores solves all security challenges, while a separate individual may solve the actual exam questions. During management of Graduate Record Examination (GRE), Graduate Management Admissions Test (GMAT), Medical College Admissions Test (MCAT), and other professional promotion tests, complex identity swapping Sophisticated identity swapping schemes are regularly reported. Security issues related to remote management of academic and other types of examinations are expected to become increasingly important because educational and other knowledge-based service providers are increasingly looking for MOOC, distance- learning, and assessment formats that are being used in the future.
홍채 인식은 현재 가장 안전한 생체 인증 기술들 중 하나로 간주된다. 홍채는 후생적 형질 피처(epigenetic phenotypic feature)인 미세한 구조를 보여주며, 이는 배아 임신(embryonic gestation) 동안에 랜덤 요소로 성장된다. 따라서, DNA 지문과 달리, 유전적으로 똑같은 쌍둥이(인구의 대략 1% 임)일지라도, 완전하게 고유한 홍채 색소들(iris pigments) 및 구조들을 갖는다. 홍채의 후생적 성질의 또 다른 증거는, 비록 사람의 우측 및 좌측(유전적으로 동일함) 눈들이 유사한 구조 및 색상을 갖고 있는 것처럼 보이지만, 개인의 좌우측 눈의 세부 조직(textural detail)은 명확히 구별된다라는 점이다. Iris recognition is now considered one of the safest biometric technologies. The iris shows a fine structure, which is an epigenetic phenotypic feature, which grows as a random element during embryonic gestation. Thus, unlike DNA fingerprints, they have completely unique iris pigments and structures, even if they are genetically identical twins (approximately 1% of the population). Another evidence of the welfare nature of the iris is that although the right and left (genetically identical) eyes of humans appear to have similar structures and colors, the textural detail of the individual left and right eyes is clearly distinct .
비록, 홍채가 비-침투적(non-invasively)으로 보여질 수 있지만, 이것은 양호하게 보호되는 기관(즉, 안구) 내에 존재하며, 지문과 달리, 일반적으로 손상 및 마모로부터 보호된다. 안구 내의 미세 구조 및 색소를 바꿀 수 있는 몇몇 의료 방법들이 존재하기는 하지만, 홍채 조직은 일반적으로 수 십년의 시간이 지나도 놀랍만큼 안정적으로 남아있는다(예컨대, 얼굴 피처들과는 달리). Although the iris can be seen non-invasively, it is in a well-protected organ (i.e., the eye) and, unlike a fingerprint, is generally protected from damage and abrasion. Although there are several medical methods that can change the microstructure and pigment in the eye, iris tissue generally remains surprisingly stable (e.g., unlike face features) over time, usually over a period of decades.
존 더그먼(John Daugman)은 캠브리지 대학에 있었을 때 홍채 인식 알고리즘을 처음 개발하였다. 오늘날 이용되고 있는 상업적으로 개발된 대부분의 홍채 인식 시스템들은, 더그먼의 알고리즘을 이용한다(예컨대, 미국 등록특허 US 5,291,560)에 개시된 바와 같이). 상업적으로 이용가능한 홍채 인식 시스템들(예컨대, Iris ID Systems Inc., BI2 Technologies, IrisGuard Inc., Eyelock Corp.)은 일반적으로 휴대용 또는 받침대에 장착된 디바이스들을 이용하며 그리고 홍채와 카메라 사이에서 10cm 에서 최대 수 미터까지의 거리에서 작동한다. John Daugman first developed the iris recognition algorithm when he was at Cambridge University. Most commercially-developed iris recognition systems currently in use utilize Dougman's algorithm (e.g., as disclosed in U.S. Pat. No. 5,291,560). Commercially available iris recognition systems (e.g., Iris ID Systems Inc., BI2 Technologies, IrisGuard Inc., Eyelock Corp.) typically utilize portable or pedestal mounted devices and provide a maximum distance of 10 cm It works at distances up to several meters.
더그만은, 실시간 비디오 조건들을 이용하여 수집된 홍채 이미지들에 기초하는 2 차원 가버 웨이블릿(Gabor wavelet)(즉, 짧게 샘플링된 프리에 변환의 특별한 케이스) 계수들을 개발 및 적용하였다. 데카르트 좌표(Cartesian coordinates) 기반의 이미지들을 극 좌표로 변환하고 그리고 2-D 가버 필터들(Gabor filters)을 작은 영역들에 적용함으로써, 복소수 내적(complex dot product)이 계산되는데, 이는 주로 위상 각도를 반영한다. 전체 광 진폭에 대한 민감도 부족(즉, 이미지 휘도, 콘트라스트, 등등)은 비디오 레코딩 조건들을의 변동들을 무시하는데 도움을 준다. Still further developed and applied a two-dimensional Gabor wavelet (i.e., a special case of short sampled Frie transform) coefficients based on iris images collected using real-time video conditions. Complex dot products are computed by transforming images based on Cartesian coordinates to polar coordinates and applying 2-D Gabor filters to small areas, Reflect. Lack of sensitivity to the overall light amplitude (i.e., image brightness, contrast, etc.) helps to ignore variations in video recording conditions.
서로 다른 영역들로부터의 내적들의 최상위 비트들(most significant bits)은 소위 홍채의 코드로 조합되는바, 이하에서는 "홍채코드(irisCode)"로 지칭한다. 대부분의 통상적으로 구현되는 홍채코드는 각각의 영역으로부터 2 비트를 사용하여 2048 비트(즉, 256 바이트) 값을 생성하는데, 이는 수 백만명들 중에서 고유한 개인을 식별할 수 있다. 홍채코드들을 계산하는 알고리즘들은 CPU-기반 디바이스들 내의 소프트웨어 및 하드웨어 내장된 펌웨어 둘다로서 코딩된다. The most significant bits of inner products from different regions are combined into a so-called iris code, hereinafter referred to as "irisCode ". Most commonly implemented iris codes use 2 bits from each region to produce a 2048 bit (i.e., 256 byte) value, which can identify a unique individual from millions of people. The algorithms for calculating iris codes are coded as both software and hardware embedded firmware in CPU-based devices.
오늘날, 홍채 패턴에 기초한 식별을 위해 170개 나라의 6천만명 이상의 개인이 등록되어 있다. 인도 정부는, 10억명 이상인 전체 인구의 홍채 스캔 및 지문을 현재 기록하고 있다. 이러한 기술들을 활용하고 있는 회사들 및 정부 기구들은, IBM, 파나소닉, LG, 사노프(Sarnoff), 런던 히드로 공항(버밍험 공항, 개트윅 공항, 맨체스터 공항도), IrisAccess(대한민국), IrisPass (일본), CanPass (캐나다 넥서스 시스템), 아프간 송환 프로그램(Afghan repatriation program), 및 미국 국방부의 억류자 관리 프로그램(United States Department of Defense detainee population management program)을 포함한다. Today, more than 60 million individuals in 170 countries are registered for identification based on iris patterns. The Government of India is currently recording iris scans and fingerprints of the entire population of more than one billion people. Companies and government organizations that are leveraging these technologies are IBM, Panasonic, LG, Sarnoff, London Heathrow (Birmingham Airport, Gatwick Airport, Manchester Airport), IrisAccess (Korea), IrisPass (Japan) , The CanPass (Canada Nexus System), the Afghan repatriation program, and the United States Department of Defense detainee population management program.
홍채는, 2개의 대향하는 근육들(괄약근 돌기 및 확장근 돌기)의 수축에 의해서만 변경되는 잘-정의된 기하학적 형상을 가지며, 상기 2개의 근육들은 동공의 지름을 제어한다. 따라서, 이러한 균일성 및 안정성은, 통상적인 이미지 품질을 이용하고, 그리고 머리 기울기 및 움직임에 대한 대비를 포함하여, 109.6 분의 1 (즉, 40억 분의 1) 이라는 전례없이 낮은 오류 매치율(false match rate)을 보여준다.The iris has a well-defined geometric shape that changes only by contraction of two opposing muscles (sphincter protrusions and expansive projections), and the two muscles control the diameter of the pupil. Thus, such uniformity and stability can be achieved by using conventional image quality and by providing an unprecedentedly low error match rate of 10 9.6 (i.e., one quarter billion), including contrast to head tilt and motion (false match rate).
비록, 본 발명에 대한 최상의 이해는 본 명세서를 숙독함으로써 얻어질 것이지만, 본 요약은 본 발명에 따른 시스템들 및 방법들의 몇몇 신규하고 유용한 피처들을 독자들이 숙지할 수 있게하기 위한 것이다. 물론, 본 요약은 본 명세서의 시스템들 및 방법들의 모든 피처들의 완벽한 설명이 될 것으로 의도된 것이 아닐 뿐만 아니라, 본 출원의 발명의 상세한 설명 말미에 제시되는 청구범위를 임의의 방식으로 제한하고자 의도된 것도 아니다. Although the best understanding of the present invention will be obtained by reading this specification, this summary is intended to enable the reader to understand some novel and useful features of the systems and methods according to the present invention. Of course, this Summary is not intended to be a complete description of all features of the systems and methods herein, but is in no way intended to limit the scope of the claims set forth at the end of the specification of the present application It is not.
일실시예에 따르면, 적어도 하나의 이미저(imager)에 연결된 적어도 하나의 프로세서를 포함하는 헤드 마운트된 디바이스를 위한 장치들, 시스템들, 및 방법들이 제공되는바, 여기서 하나 이상의 이미저들은 사용자의 눈의 향해 지향되고, 프로세서는 실질적으로, 지속적으로, 동시적으로, 및/또는 주기적으로 눈 시선 평가를 결정하도록 구성되며, 상기 이미저는 눈의 하나 이상의 특징있는 피처들을 검출하고; 사용자의 안면 피처들, 음성 혹은 홍채 데이터를 포함하는 사용자의 생체측정 데이터를 판별하며, 여기서 생체측정 데이터는 적어도 헤드 마운트된 디바이스, 연결된 디바이스, 무선 디바이스 및 원격 서버의 액세스 및 제어를 위하여 사용자의 식별 및 인증을 위해 이용된다. According to one embodiment, devices, systems, and methods are provided for a head mounted device that includes at least one processor coupled to at least one imager, wherein one or more imagers are Wherein the processor is configured to substantially, continuously, simultaneously, and / or periodically determine an eye-gaze evaluation, the imager detecting one or more characteristic features of the eye; Determining biometric data of a user including facial features of the user, voice or iris data, wherein the biometric data includes at least a user identification for access and control of at least a head mounted device, a connected device, a wireless device and a remote server And authentication.
다른 실시예에 따르면, 디바이스 사용자의 실질적으로 지속적인 생체 인증(CBID)을 위한 장치들, 시스템들 및 방법들이 제공된다. 상기 장치는 실질적으로 눈에 띄지않게 헤드기어 상에 마운트될 수 있으며, 상기 장치는 통상적인 안경 프레임들 내에 내장 혹은 부착되거나 또는 소위 구글 글래스(구글의 등록상표)로 알려진 것들과 같은 웨어러블 컴퓨팅 디바이스 내에 배치된다. 보다 상세하게는, 예시적인 실시예는 디바이스 착용자의 하나 이상의 홍채들을 조명할 수 있는(바람직하다면) 하나 이상의 조명 소스들, 디바이스 착용자의 하나 이상의 안구들을 보도록 직접 지향된 하나 이상의 마이크로-카메라들, 광 투과 매커니즘 혹은 반사 시스템, 및 프로세싱 유닛을 포함하며, 프로세싱 유닛은 1) 디바이스 착용자의 신원을 판별하도록 눈의 이미지들을 분석하고; 및/또는 2) 눈의 이미지들을 디바이스 착용자의 신원을 판별하는 다른 프로세싱 유닛으로 전송한다. According to another embodiment, devices, systems and methods are provided for a device user's substantially persistent biometric authentication (CBID). The device may be mounted substantially inconspicuously on the headgear, and the device may be embedded within or attached to conventional eyeglass frames or may be mounted within wearable computing devices such as those known as so-called Google Glass (registered trademark of Google) . More specifically, the illustrative embodiment includes one or more illumination sources (if desired) capable of illuminating one or more irises of the wearer of the device, one or more micro-cameras directed directly to view one or more eyeballs of the wearer of the device, A transmission mechanism or a reflection system, and a processing unit, the processing unit comprising: 1) analyzing images of the eye to determine the identity of the wearer of the device; And / or 2) sends the images of the eye to another processing unit that determines the identity of the wearer of the device.
본 명세서에서, 컴퓨팅 디바이스와 상호작용하도록 의도되는 자발적인 눈의 움직임들은 "안구 신호(eye signals)"라 지칭된다. In this specification, spontaneous eye movements intended to interact with a computing device are referred to as "eye signals ".
또한, 생체 인증 정보(예컨대, 홍채코드) 및 CBID와 관련된 모든 정보는 보안성을 갖도록 전송되어야만 하며, 통신 단계들은 헤드셋 디바이스와의 무선 통신들을 포함할 수 있다. CBID 기반의 통신들은 2015년 5월 9일자로 출원되고 발명의 명칭이 "Systems and Methods for Using Eye Signals with Secure Mobile Communications" 인 미국 출원(출원번호 14/708,229)에 개시된 방식으로 보안성있게 수행된다. In addition, all information related to the biometric authentication information (e.g., iris code) and CBID must be transmitted with security, and the communication steps may include wireless communications with the headset device. CBID-based communications are securely performed in a manner that was filed on May 9, 2015 and is disclosed in a US application (Application No. 14 / 708,229) entitled " Systems and Methods for Using Eye Signals with Secure Mobile Communications & .
제 1 실시예에 따르면, 실질적으로, 지속적으로, 주기적으로, 및/또는 요청에 따라 웨어러블 디바이스를 이용하여 홍채 인식을 수행하는 장치들, 시스템들 및 방법들이 제공된다. According to a first embodiment, devices, systems and methods are provided for performing iris recognition using a wearable device substantially, continuously, periodically, and / or upon request.
다른 실시예에 따르면, 헤드 마운트된 디바이스를 착용한 사용자의 진정한 신원을 확립할 수 있는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that can establish the true identity of a user wearing a head mounted device.
다른 실시예에 따르면, 거동적 생체측정을 통해 사용자의 진정한 신원을 확립할 수 있는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided for establishing a true identity of a user through dynamic biometric measurements.
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 토큰이 필요없는 보안을 위한 용이하고, 간단하고, 및/또는 직관적인 방법들 및 시스템들을 사용자에게 제공하는데, 토큰은 적어도 하나의 패스워드 및 물리적 디바이스를 포함하고, 물리적 디바이스는 크레디트 카드, 키 폽(key fob), 혹은 다른 물리적 토큰을 포함한다. According to another embodiment, devices, systems and methods are provided, which provide users with easy, simple, and / or intuitive methods and systems for security that do not require a token, A password, and a physical device, and the physical device includes a credit card, a key fob, or other physical token.
다른 실시예에 따르면, 디바이스 착용자의 검증된 생체 인증이 있는 경우에만 안구 신호들이 수행되는 것을 허용하는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that allow ocular signals to be performed only when there is a verified biometric of the wearer of the device.
다른 실시예에 따르면, 사용자 신원 사기 및 신원 절도를 방지할 수 있는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that are capable of preventing user identity fraud and identity theft.
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 단일 사용자, 다수의 사용자들, 및 웨어러블 디바이스의 모든 사용자들에 의한 무제한 액세스 중 적어도 하나를 위해 디바이스 보안의 다중 레벨들을 확립하는 필터들을 이용한다. According to another embodiment, devices, systems and methods are provided that establish multiple levels of device security for at least one of a single user, a plurality of users, and unlimited access by all users of the wearable device Lt; / RTI >
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 교육적 목적, 법적 목적, 라이센싱 목적, 및 서비스들의 배달 목적 중 적어도 하나를 위해 사용자들을 인증하도록 헤드 마운트된 디바이스를 사용한다. According to another embodiment, devices, systems and methods are provided that use a head mounted device to authenticate users for at least one of educational, legal, licensing, and delivery purposes of services.
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 보안 룸, 제한 구역, 자동차, 비행기, 및 선박 중 적어도 하나에 대한 액세스를 허용하기 위해 사용자들을 인증하도록 헤드 마운트된 디바이스를 이용한다 According to another embodiment, devices, systems and methods are provided, which include a head mounted device to authenticate users to allow access to at least one of a security room, a restricted area, a car, an airplane, Use
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 여기서는 디바이스 착용자에 의해서 보여지고 인지되는 실제 및 가상 객체 둘다의 이미지들이, 후속 참조를 위해, 퍼스널 증가 메모리(personal augmented memory: PAM) 형태로서 저장 혹은 태그될 수 있다. According to another embodiment, devices, systems and methods are provided, wherein images of both real and virtual objects viewed and recognized by a device wearer are stored in a personal augmented memory (PAM) ) Form. ≪ / RTI >
다른 실시예에 따르면, 문서 혹은 데이터의 소스를 검증될 수 있게 주석첨가하도록(verifiably annotate) 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that use a head mounted device to verifiably annotate the source of the document or data.
다른 실시예에 따르면, 문서들 혹은 데이터가 식별된 개인에 의해서 검사되었음 또는 핸들링되었음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices, systems and methods are provided that use head-mounted devices to annotate documents or data so that they can be verified or handled by an identified individual.
다른 실시예에 따르면, 실제 혹은 가상 객체가 식별된 개인에 의해서 검사되었음 또는 핸들링되었음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices, systems and methods are provided that use a head-mounted device to annotate an actual or virtual object to be verifiably verified or handled by an identified individual.
다른 실시예에 따르면, 쓰기(wiriting), 시그니처, 또는 다른 손으로 쓴 정보가 식별된 개인에 의해서 생성, 수정, 혹은 리뷰되었음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices using head-mounted devices to annotate such that wiriting, signature, or other handwritten information can be verified to be generated, modified, or reviewed by the identified individual, And methods are provided.
다른 실시예에 따르면, 식별된 개인이 말하였음 또는 청각 정보를 청취했음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices, systems and methods are provided that use a head-mounted device to be annotated so that the identified individual has spoken or verified that he / she has listened to the audible information.
다른 실시예에 따르면, 객체에 대한 응시 및 헤드 마운트된 디바이스에 의해서 인지가능한 일부 물리적 액션들을 포함하는 행위를 식별된 개인이 수행하였음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices that use head-mounted devices to annotate to be verifiable that an identified person has performed an act of including an action on an object and including some physical actions perceptible by the head- Systems, and methods are provided.
다른 실시예에 따르면, 감금된, 가석방된(parole), 보호관찰된(probation), 금지 명령(restraining order)을 받은, 또는 법원에 의해서 거동이 부과된, 식별된 개인의 행위들, 거동, 수행, 혹은 생체측정을 검증될 수 있게 모니터링, 제한, 제어, 혹은 임팩팅하기 위한 목적으로 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, the behaviors, behaviors, and performances of identified individuals who are imprisoned, parole, probation, restraining order, or acted upon by a court , Or devices, systems and methods that use head-mounted devices for monitoring, limiting, controlling, or impacting biometrics to be verifiable.
다른 실시예에 따르면, 그 당시에 혹은 일정 기간 동안 알콜, 마약, 혹은 다른 물질의 영향을 받은 의심받는 개인의 중독 상태를 검증가능하게 평가할 목적으로 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices, systems and methods using head-mounted devices for the purpose of verifiably assessing the poisoning status of suspect individuals affected by alcohol, drugs, or other substances at the time or for a period of time Are provided.
다른 실시예에 따르면, 테스팅, 처치, 또는 약 혹은 다른 처방의 연구를 위한 감독되는 의료 행위에 참가한 식별된 개인의 생체측정 반응 혹은 다른 측정들을 검증가능하게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, a device using a head mounted device for verifiably annotating a biometric response or other measurements of an identified individual participating in a supervised medical act for testing, treatment, or study of a drug or other prescription Systems, and methods are provided.
다른 실시예에 따르면, 구매의 인증을 위한 목적으로 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공되는바, 여기서 인증된 구매는 온-라인 구매 보안을 위한 것 및 오프-라인 구매 보안을 위한 것이며, 여기서 오프-라인은 소매점(retail establishment) 또는 객체가 구입되기를 원하는 임의의 위치를 포함한다. According to another embodiment, devices, systems and methods are provided for using a head mounted device for authentication of a purchase, wherein the authorized purchase is for on-line purchase security and off- Where the off-line includes a retail establishment or any location where the object is desired to be purchased.
다른 실시예에 따르면, 식별된 개인 이외의 다른 그 어떤 개인에게는 데이터를 보는 것이 허용되지 않도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that use a head mounted device such that no other person than the identified individual is allowed to view the data.
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 외부로 지향된 프로세서에 연결된 제 2 이미저를 포함하는 헤드 마운트된 디바이스를 사용하며, 상기 제 2 이미저는 프로세서에 의해서 디코딩될 수 있는 코드를 검출하고, 상기 코드는 바코드 및 QR 코드 중 하나이며, 프로세서는 제품에 관한 정보를 나타내는 데이터를 디코딩한다. According to another embodiment, devices, systems and methods are provided that use a head mounted device comprising a second imager coupled to an externally directed processor, the second imager being decoded by a processor And the code is one of a bar code and a QR code, and the processor decodes data representing information about the product.
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 외부로 지향된 프로세서에 연결된 제 2 이미저를 포함하는 헤드 마운트된 디바이스를 사용하며, 상기 제 2 이미저는 이미지 인식을 이용하여 상기 프로세서에 의해서 식별될 수 있는 객체를 검출하고, 그리고 상기 프로세서는 제품에 대한 정보를 제시한다. According to another embodiment, devices, systems and methods are provided which use a head mounted device comprising a second imager connected to an externally oriented processor, the second imager utilizing image recognition To detect an object that can be identified by the processor, and the processor presents information about the product.
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 인증된 사용자가 제품을 보안성있게 구매하는 것을 허용하도록 제품에 관한 정보를 이용한다. According to another embodiment, devices, systems and methods are provided, which use information about the product to allow an authenticated user to securely purchase the product.
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 여기서 식별된 디바이스 착용자에 의해서 실제로 보여지는 모니터의 영역 내의 정보는 (실시간으로) 높은 공간적 해상도로 디스플레이되거나 높은 시간적 빈도들(temporal frequencies) 업데이트될 수 있는 반면에, 주변 영역들(즉, 디바이스 착용자에 의해서 보여지지 않는 영역들)은 낮은 공간적 해상도로 디스플레이되고 그리고 낮은 빈도로 업데이트될 수 있다. According to another embodiment, devices, systems and methods are provided, wherein information in the area of the monitor actually seen by the identified device wearer is displayed (in real time) at a high spatial resolution or at high temporal frequencies frequencies) may be updated, while peripheral areas (i.e. areas not visible by the device wearer) may be displayed at a lower spatial resolution and updated at lower frequencies.
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 여기서 식별된 디바이스 착용자에 의해서 실제로 보여지는 모니터의 영역 내의 정보가 (실시간으로) 더 높은 공간적 해상도로 디스플레이되고 및/또는 낮은 공간적 해상도에서 디스플레이되고 및/또는 낮은 빈도로 업데이트되는 주변 영역들(즉, 디바이스 착용자에 의해서 보여지지 않는) 보다 더 높은 시간적 빈도들로 업데이트 될 때, 낮은 해상도 영역들 내의 특정 영역 혹은 영역들 또는 특정 객체 혹은 객체들은 낮은 공간적 해상도 영역들 보다 더 높은 공간적 해상도로 디스플레이되거나 및/또는 더 높은 빈도들로 업데이트될 수 있다. 예를 들어, 눈과 같은 안면 피처들은, 고-해상도의 포베이트 렌더링(foveated rendering) 동안에 포빌 영역(foveal area) 외부로 렌더링될 때, 더 높은 해상도로 표시될 수 있다. According to another embodiment, devices, systems and methods are provided, wherein information in the area of the monitor actually seen by the identified device wearer is displayed (in real time) at a higher spatial resolution and / When updated with higher temporal frequencies than the surrounding regions (i.e., not seen by the device wearer) that are displayed at a higher resolution and / or updated at a lower frequency, certain regions or regions within lower resolution regions, Or objects may be displayed with a higher spatial resolution than the lower spatial resolution regions and / or updated with higher frequencies. For example, facial features such as the eye can be displayed at a higher resolution when rendered outside the foveal area during high-resolution foveated rendering.
다른 실시예에 따르면, 상호 응시에 의해서 일 엔티티가 다른 엔티티와 보안 통신 채널을 시작할 수 있게 하는 장치들, 시스템들 및 방법들이 제공되는바, 여기서 통신 채널의 보안성은 통신 이전에 확립될 수 있으며 그리고 통신 동안에 지속적으로 혹은 간헐적으로 재검증될 수 있다. According to another embodiment, devices, systems and methods are provided for enabling one entity to initiate a secure communication channel with another entity by interrogation, wherein the security of the communication channel can be established prior to communication, It can be re-verified continuously or intermittently during communication.
다른 실시예에 따르면, 액션이 일어나게 야기하도록 당사자들 간의 조화를 위한 보안 프로토콜들을 가능케하는 장치들, 시스템들 및 방법들이 제공되는바, 이에 따라 각 당사자는 그들의 신원들이 CBID로 지속적으로 검증되고 있는 시간 동안에 소정 액션을 수행한다. In accordance with another embodiment, devices, systems and methods are provided that enable security protocols for coordination between parties to cause an action to occur, such that each party is able to determine the time at which their identity is being continuously verified with the CBID Lt; / RTI >
다른 실시예에 따르면, 선택된 정보를 상호 응시에 기초하여 교환하고자 하는 하나 이상의 식별된 개인들의 바램에 대하여 개인에게 경보하는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided for alerting an individual to the desire of one or more identified individuals to exchange selected information based on a cross-examination.
다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 장면 카메라 데이터 및/또는 오디오 데이터와 일시적으로 결부된 응시 데이터의 프라이버시를 유지하는 보안 수단을 가능케한다. According to another embodiment, devices, systems and methods are provided, which enable security measures to maintain the privacy of the scene data and / or the temporal data associated with the audio data.
본 명세서에 제공된 장치들, 시스템들 및 방법들의 양상들 및 어플리케이션들은 다음의 도면들 및 예시적인 실시예들의 상세한 설명에서 서술된다. Aspects and applications of the devices, systems and methods provided herein are described in the following drawings and detailed description of exemplary embodiments.
본 발명에 대한 보다 완벽한 이해는 다음의 예시적인 도면들과 함께 고려될 때 발명의 상세한 설명을 참조함에 의해서 얻어질 수 있다. 도면들에서, 유사한 참조 번호들은 유사한 구성요소들 혹은 행위들을 나타낸다. 현재 예시적인 실시예들은 도면들을 참조하여 설명된다.
도1은 디바이스의 착용자를 식별하기 위한 시스템의 예시적인 실시예의 기초 요소들에 대한 도면이다.
도2는 디바이스 착용자의 신원을 판별하는데 이용되는 예시적인 단계들을 보여준다.
도3은 디바이스 착용자 식별 상태를 실질적으로 지속적으로 유도하는데 이용되는 예시적인 논리를 보여주는 순서도이다.
도4는 디바이스 착용자 신원에 기초하여 보안 정보를 뷰잉 및 생성을 제어하기 위한 회로의 일실시예에 대한 도면이다.
도5는 단일 홍채에서 다수의 조명 소스들 및 다수의 카메라 포인팅의 위치들의 일례를 예시한 투시도이다.
도6은 멀티-카메라 이미징 시스템의 일실시예를 도시한다.
도7은 네트워크와 헤드웨어(headwear) 통신하는 일례를 도시한다.
도8은 온라인, 보안 구매를 수행하기 위한 예시적인 단계들의 순서도이다.
도9a 및 도9b는 헤드 장착형 디스플레이를 예시하며, 여기서 도9b는 시야 방패(sight shield)를 예시하며, 이는 디바이스 착용자 이외의 누군가가 디스플레이의 내용을 보는 것을 방지한다. A more complete understanding of the present invention may be obtained by reference to the following detailed description of the invention when considered in conjunction with the following exemplary drawings. In the drawings, like reference numbers indicate like elements or acts. Exemplary embodiments are now described with reference to the drawings.
1 is a diagram of the basic elements of an exemplary embodiment of a system for identifying a wearer of a device.
Figure 2 shows exemplary steps used to determine the identity of the wearer of the device.
Figure 3 is a flow chart illustrating exemplary logic used to substantially continuously derive a device wearer identification status.
4 is a diagram of one embodiment of a circuit for controlling viewing and generating security information based on a device wearer identity.
5 is a perspective view illustrating an example of locations of multiple illumination sources and multiple camera pointing in a single iris.
Figure 6 illustrates one embodiment of a multi-camera imaging system.
Figure 7 shows an example of headwear communication with a network.
8 is a flowchart of exemplary steps for performing an on-line, secure purchase.
Figures 9A and 9B illustrate a head mounted display wherein Figure 9B illustrates a sight shield, which prevents anyone but the wearer of the device from viewing the contents of the display.
다음의 상세한 설명에서는, 설명을 위한 목적으로, 많은 세부 내용들이 서술되는데, 이는 예시적인 실시예들의 다양한 양상들의 대한 철저한 이해를 제공하기 위한 것이다. 하지만, 해당 기술분야의 당업자라면, 상기 장치들, 시스템들, 및 방법들은 이들 특정 세부 내용들이 없이도 실시될 수도 있음을 이해할 것이다. 또한, 다른 실시예들도 이용될 수 있으며 그리고 본 명세서의 장치들, 시스템들, 및 방법들의 범위를 벗어남이 없이도 구조적인 및 기능적인 변경들이 가해질 수도 있다. 다른 일례들에서는, 예시적인 실시예들을 애매하게 만드는 것을 회피하기 위하여, 공지된 구조들 및 디바이스들이 보다 일반적으로 도시 또는 논의된다. 많은 경우들에 있어서, 동작 설명은 당업자가 다양한 형태들을 구현할 수 있을 정도로 충분하며, 특히 동작이 소프트웨어에서 구현되는 경우에 그러하다. 다음을 유의해야 하는 바, 개시된 실시예들이 적용될 수 있는 수 많은 서로 다른 및 대안적인 구성들, 디바이스들 및 기술들이 존재한다. 실시예들의 전체 범위는 다음에 서술되는 일례들만으로 한정되지 않는다. In the following detailed description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of various aspects of the exemplary embodiments. However, those skilled in the art will appreciate that the devices, systems, and methods may be practiced without these specific details. In addition, other embodiments may be utilized and structural and functional changes may be made without departing from the scope of the devices, systems, and methods herein. In other instances, well-known structures and devices are shown or discussed more generally in order to avoid obscuring the exemplary embodiments. In many instances, the operational description is sufficient to enable those skilled in the art to implement various aspects, particularly when the operation is implemented in software. It should be noted that there are numerous different and alternative configurations, devices, and techniques to which the disclosed embodiments may be applied. The full scope of embodiments is not limited to the examples described below.
예시된 실시예들의 다음의 일례들에서, 명세서의 일부를 구성하는 첨부된 도면들이 참조되며, 본 명세서에서는 다양한 실시예들이 일례로서 예시된다. In the following examples of illustrated embodiments, reference is made to the accompanying drawings, which form a part hereof, and in which is shown by way of example various embodiments.
홍채 인식 시스템(Iris Recognition System)Iris Recognition System
오늘날 대부분의 홍채 인식 시스템은 홍채와 카메라 사이에서 10cm 에서 20cm까지의 거리 범위에서 동작한다(3 내지 10미터까지의 먼 거리를 목표로 연구들이 진행되고 있음). 본 발명의 시스템은 눈에 띄지 않는(unobtrusive) 헤드웨어와 관련된 대략 20 내지 30 밀리미터(20-30 mm)의 상대적으로 짧은 거리에서 홍채 인식을 실질적으로 지속적으로 수행할 수 있다. Today, most iris recognition systems operate at distances from 10 cm to 20 cm between the iris and the camera (studies are under way aiming for distances of up to 3 to 10 meters). The system of the present invention is capable of substantially continuously performing iris recognition at relatively short distances of approximately 20 to 30 millimeters (20-30 mm) associated with unobtrusive headwear.
이러한 짧은 거리들에 대해, 일반적인 이미지 해상도는 적절한 조명이 있다면 현재의 상업적인 홍채 인식 디바이스들에 의해서 이용되는 거리들에서 기록된 이미지 품질과 대등하거나 또는 이들 뛰어넘을 수 있다. 하지만, 실질적인 스큐(skew)를 포함하는 공간 수차(spatial aberrations)가, 마이크로-렌즈 및/또는 홍채-추적 마이크로-카메라들에 부착된 다른 광학기기들에 의해서 생성될 수 있다. 공간 수차는, 홍채 및 안구 영역 내의 다른 구조들의 이미지들을 왜곡할 수 있다.For these short distances, a typical image resolution may equal or exceed the image quality recorded at the distances used by current commercial iris recognition devices if adequate illumination is available. However, spatial aberrations, including substantial skew, can be generated by micro-lenses and / or other optics attached to iris-tracking micro-cameras. Spatial aberration can distort images of other structures within the iris and eye region.
공간 수차는 "타겟"(즉, 의도된 수신인에 속한다라는 확인)과 디바이스-사용자 인증 홍채코드 둘다를 계산하는 짧은 초점거리 플랫폼(short focal distance platform)을 사용함으로써, 홍채 인식 알고리즘 내에서 처리될 수 있다. 이것은, 이들이 비교될 때 홍채코드들 사이에서 일관성을 유지한다. The spatial aberration can be processed within the iris recognition algorithm by using a short focal distance platform that computes both the device-user authenticated iris code and the " target "(i.e., have. This maintains consistency between iris codes when they are compared.
홍채 인식은 또한, 홍채의 축 상의 이미지들(on-axis images of iris)(즉, 안구 표면에 수직하게 보여지며 그리고 홍채 및/또는 동공에 중점을 둔 이미지)을 획득할 수 있는 능력에 의존한다. 여러 각도들(즉, 오프-축:off-axis)에서 보았을 때, 홍채의 피처들은 왜곡될 수 있으며 따라서 정보의 손실을 야기할 수 있다. 이것은 카메라가 눈에 띄지 않게(unobtrusive) 배치되며 그리고 헤드웨어 내에서 안구에 매우 가깝게 배치되는 둘다인 경우, 특히 문제가 될 수 있다. 안구의 정상적인 움직임 동안, 홍채는 눈에 띄지 않는(unobtrusive) 카메라의 시야 각도에 관하여 축을 벗어나(off-axis) 이동할 수 있으며, 이는 홍채코드들을 생성할 수 있는 능력의 손실을 야기할 수 있는데, 홍채코드들은 타겟 홍채코드와 매우 엄격한 기준으로 비교될 수 있다.Iris recognition also depends on the ability to acquire on-axis images of iris (i.e., images that are viewed perpendicular to the eye surface and that focus on iris and / or pupil) . When viewed at various angles (i.e., off-axis), the features of the iris can be distorted and thus cause loss of information. This can be especially problematic if the camera is unobtrusive and both are placed very close to the eyeball in the headwear. During normal movement of the eye, the iris may move off-axis with respect to the viewing angle of the unobtrusive camera, which may result in the loss of the ability to generate iris codes, The codes can be compared with the target iris code on a very strict basis.
이러한 상황을 취급하기 위한 예시적인 실시예들에서, 시스템은 덜 엄격한 홍채 인식과 결합된 온-축 모드(on-axis mode)에서 홍채가 보여질 수 있는 경우 높은 엄격성(high stringency)의 홍채 인식을 사용할 수 있으며 및/또는 카메라에 의해 보여지는 방향에 대하여 홍채가 오프-축으로 포인팅되는 경우 상기 영역 내의 안구의 다른 구조들의 피처 인식을 사용할 수 있다.In exemplary embodiments for handling this situation, the system can be used for high-stringency iris recognition when iris can be seen in on-axis mode combined with less rigorous iris recognition And / or feature recognition of other structures of the eye within the region if the iris is pointed off-axis with respect to the direction viewed by the camera.
오프-축 기간들 동안에 추적되는 피처들은 다음에 보다 상세히 서술되지만, 공막(sclera)의 형상, 공막 내의 혈관들의 패턴들 및 위치들, 눈꺼풀의 형상들 및/또는 속눈썹들의 위치들을 포함할 수 있다. 홍채와 달리, 이들 피처들은 일생 동안에 변할 수 있다. 하지만, 이러한 피처들은 디바이스를 착용하는 하나의 세션의 시간 경과에 대해서는 심각하게 변하지 않는다. The features tracked during off-axis periods are described in more detail below, but may include shapes of sclera, patterns and locations of blood vessels in the sclera, shapes of eyelids, and / or positions of eyelashes. Unlike iris, these features can change over a lifetime. However, these features do not change significantly over the time course of one session of wearing the device.
따라서, 정상 동작 동안, 디바이스를 초기에 착용하고 그리고 그 이후에 적어도 주기적으로 고-엄격성의 홍채코드를 등록하도록 사용자는 카메라쪽으로 곧바로 직시할 수 있다. 원하는 보안 레벨에 따라, 정확도 및 가버(Gabor) 계수들 뿐만 아니라 차이점 혹은 해밍 거리의 측정(즉, 동일한 거리인 2개의 벡터들 0s 및 1s 사이의 차이에 대한 측정)이 넓은 범위의 엄격함들로 조절될 수 있다. 고-엄격성 홍채코드들을 이용한 등록들 사이의 시간들에서, 실질적으로 지속적인 사용자 신원을 보장하기 위하여, 안구 영역 내의 및 주위의 피처들이 추적된다. 이와 유사하게, 디바이스의 착용자의 신원을 알고 있을 때의 이미지들과 비교되는, 안구 주위의 기록된 피처들의 이미지들 내에서의 매치 정도를 위한 임계값이, 원하는 보안 레벨에 따라 조절될 수 있다. Thus, during normal operation, the user can directly face the camera to wear the device initially and then at least periodically register the high-rigidity iris code thereafter. Depending on the desired security level, accuracy and Gabor coefficients as well as differences or measurements of the Hamming distance (i.e., the measurement of the difference between the two vectors 0s and 1s, which are the same distance), can be adjusted to a wide range of severities . At times between registrations with high-strict iris codes, features within and around the eye region are tracked to ensure a substantially continuous user identity. Similarly, the threshold for the degree of match in the images of the recorded features around the eye, compared with the images when the identity of the wearer of the device is known, can be adjusted according to the desired security level.
예를 들어 국가에 입국할 때 개인을 식별(또는 추방)하기 위해 이용되는 상업적으로 이용가능한 시스템들과 비교하여, 본 발명의 시스템은 다음의 의문을 해결할 수 있다: 임의의 소정 시간에서, 헤드웨어를 착용한 개인의 홍채의 특징들이, 하나의(즉, 타겟) 개인의 홍채에 대한 가버 계수-기반의 묘사와 매칭되는가? 기술적으로는, 이것은, 수 백만개의 홍채 패턴들을 보유한 데이터 베이스 내에서 홍채 이미지가 매칭하는지 혹은 매치를 제공하지 않는지를 증명하는 것보다 훨씬 덜 어려울 수 있다. For example, in comparison with commercially available systems used to identify (or expel) individuals when entering the country, the system of the present invention can solve the following questions: At any given time, Of the iris of an individual wearing the same iris is matched with a representation of the iris of one (i.e., target) individual iris? Technically, this can be much less difficult than proving that the iris image matches or does not provide a match in the database with millions of iris patterns.
CBID 시스템은 헤드웨어 내에서 구현될 수 있는데, 헤드웨어는 머리-장착형 디스플레이, 안구-추적, 및/또는 디바이스의 착용자의 환경을 보여주는 하나 이상의 장면 카메라들을 포함한다. 장면(scene) 카메라들은 "장면" 정보를 캡춰하는 센서들을 포함할 수 있으며, 장면 정보는 가령, RF 또는 IR 파장에서의 에너지와 같이, 그렇지 않으면 착용자에 의해서 알아볼 수 없을 것이다. 헤드웨어는 또한 다른 센서들 가령, 마이크로폰, 가속도계, 터치 패드, 주변 빛 검출기, 갈바닉 피부 센서, 써모미터(thermometer), 펄스 산소농도계(pulse oximeter), 뇌파 검사장치(electroencephalograph: EEG), 근전도 검사장치(electromyograph: EMG)), 심전도 검사장치(electrocardiography: EKG), 심박 변화율 감지 로컬 헤드웨어 포지셔닝 시스템(heart rate variability (HRV) sensing local headwear positioning system), 글로벌 포지셔닝 시스템(GPS), 및/또는 구조적인 완전성(structural integrity) 및/또는 헤드웨어 디바이스의 성능을 측정하는 전자 부품들을 포함할 수 있다. 이러한 착용가능한 센서들로부터 실질적으로 지속적으로 획득된 데이터는 사용자 식별 코드들로 태그될 수 있는데, 이는 정보 소스의 긍정적인 식별을 보장하기 위한 것이다. The CBID system may be implemented in headwear, which includes one or more scene cameras that show the wearer's environment of the head-mounted display, eye-tracking, and / or device. Scene cameras may include sensors for capturing "scene" information, such as energy at the RF or IR wavelength, otherwise the scene information would not be recognizable by the wearer. The headwear may also include other sensors such as a microphone, an accelerometer, a touchpad, an ambient light detector, a galvanic skin sensor, a thermometer, a pulse oximeter, an electroencephalograph (EEG) (EMG), electrocardiography (EKG), heart rate variability (HRV) sensing local headwear positioning system, global positioning system (GPS), and / Electronic components that measure structural integrity and / or performance of a headwear device. Data that is substantially continuously acquired from these wearable sensors can be tagged with user identification codes to ensure positive identification of the information source.
지속적인 생체 인증(Continuous Biometric Identification: CBID)Continuous Biometric Identification (CBID)
도1은 CBID 시스템(100)의 요소들의 예시적인 실시예를 보여주며, 이는 홍채 조명 소스들(130, 135, 140), 홍채(115) 및/또는 안구의 다른 피처들을 보도록 지향된 카메라(125), 및 프로세싱 유닛(165)을 포함한다. 해부학적으로, 홍채(115)는 동공(145)을 둘러싸며, 그리고 그 자신은 공막(150)(sclera) 또는 혈관들 및 다른 식별가능한 마커들을 포함하는 안구의 백색 영역에 의해 둘러싸인다. 주기적으로, 눈꺼풀들(105, 110)은 눈 깜박임 동안 또는 자발적인 눈 감음 동안에 홍채(115) 및 공막(150)의 시야를 방해한다. Figure 1 shows an exemplary embodiment of the elements of the
프로세싱 유닛(165)은 홍채코드들 및/또는 안구의 이미지들을 생성할 수 있으며 그리고 통신 링크(155)를 통해 보안 정보의 소스 및/또는 수신기인(또는 기능적으로 연결된) 원격 프로세싱 유닛(160)으로 전송할 수 있다. 헤드웨어 디바이스(600)(도5) 상에 마운트된 프로세싱 유닛(165)과 원격 프로세싱 유닛(160) 사이의 통신 링크(155)를 통한 전송들은 암호화될 수 있으며 그리고 유선 및 무선 전송 방법들(155) 둘다의 조합을 채용할 수 있다. 실질적으로 지속적인 긍정적인(positive) 식별의 존재 혹은 부존재에 따라, 원격 프로세싱 유닛(160)은 보안 정보의 프로세싱 및/또는 전송을 허용하거나 숨기기 위한 단계들을 수행할 수 있다. The
조명 소스들(130, 135, 140)은 적외선 또는 근적외선 LED 또는 유기 LED(OLED)일 수 있다. 조명 소스들(130, 135, 140)의 강도는, US 8,890,946에 개시된 바와 같이, 카메라(125)의 시야 내에서 감지되는 타겟 휘도 레벨들에 기초하여 제어될 있다. The illumination sources 130, 135, 140 may be infrared or near infrared LEDs or organic LEDs (OLEDs). The intensity of the
마이크로-카메라(125)는 전하결합소자(CCD) 또는 상보적 금속 산화물 반도체(CMOS) 기술들에 기초하여 전자기 방사의 감지를 포함할 수 있는바, 이하에서는 이미저(imager)라 지칭한다. 마이크로-렌즈(120)는 안구의 영역으로부터의 전자기 방사를 카메라(125)의 감지 영역 상에 포커싱한다. The micro-camera 125 may include sensing of electromagnetic radiation based on charge coupled devices (CCD) or complementary metal oxide semiconductor (CMOS) techniques, hereinafter referred to as an imager. The micro-lens 120 focuses the electromagnetic radiation from the region of the eyeball onto the sensing area of the
프로세싱 유닛(165)은 필드-프로그램어블 게이트 어레이(FPGA), 마이크로컴퓨터, 마이크로콘트롤러, 주문형 반도체(ASIC) 또는 다른 컴퓨팅 디바이스가 될 수 있다. 프로세싱 유닛(165)은 단일 디바이스가 될 수 있으며 또는 프로세싱 기능들은 개별 물리적 디바이스들의 조립체에 의해서 수행될 수도 있다. The
도2는 디바이스 사용자를 식별하는 단계들의 예시적인 실시예를 도시한다. 홍채(115)의 영역을 포함하는 이미지(200)는, 해당 기술분야에 공지된 소위 "프레임 그래빙(frame grabbing)" 기법들을 이용하여 디지털화된다(프로세스 205). 디지털화된 이미지(200) 내의 가장 큰 검은 영역의 위치에 기초하여 및/또는 동공(145)과 홍채(115) 사이의 경계(250)에 대한 수학적인 표현들의 중심을 식별함으로써, 동공(145)의 중심이 판별된다(프로세스 210). 동공(145)의 검은 영역과 홍채의 덜 검은, 대리석 색깔(marbled) 영역 사이의 천이에 기초하여, 홍채의 내부 에지(250)가 판별될 수 있다(프로세스 215). 홍채(115)는 대략적으로 원형이라는 해부학적 지식과 함께, 홍채(115)의 대리석 색깔 또는 구조화된 영역과 공막(sclera)(150)의 흰색 영역 사이에서의 천이에 기초하여, 홍채의 외부 에지(즉, 각막윤부:limbus)(245)가 판별된다(프로세스 215). 일반적으로, 홍채(115)의 내부 에지(250) 및 외부 에지(245)는, 동공(145)의 중심에서 안구의 표면에 수직이 아닌 각도들로부터 보여질 때, 카메라 이미지들(200)에서 타원형으로 보일 수 있다. 따라서, 홍채(115)의 내부 및 외부 에지(250, 245)에 대해서 추적된 일반적인 형상들은 대략적으로 타원형이다. 홍채코드들의 상세한 구성은, 홍채(115)의 원 모양으로부터의 전형적인 편차들을 해결해야만 한다(특히, 홍채와 공막(245) 사이의 경계).Figure 2 shows an exemplary embodiment of steps for identifying a device user. The
다음으로, 홍채(115)의 내부 에지(250)와 외부 에지(245) 사이에 위치한 상기 이미지(200) 내의 픽셀들에게 가버 변환 계산(Gabor transformation calculation )(프로세스 220)이 적용된다. 다음으로, 가버 변환의 계수들은 소위 "홍채코드"로 조립되는바(프로세스 225), 여기서 가장 통상적으로 이용되는 2048-비트 홍채코드는, 홍채(115)의 각 영역에서의 가버 변환 계산들의 2개의 최상위 비트들로부터 조립된다. 몇몇 경우에 있어서, 홍채(115)의 영역은, 부분적인 눈꺼풀(105, 110) 닫힘, 그림자(240) 또는 속눈썹(235)로 인하여 모호해질 수도 있다. 이러한 누락 또는 불명확한 정보를 해결하고자, 엄격한 기준이 홍채코드에 연관될 수 있다(프로세스 230). Next, a Gabor transformation calculation (process 220) is applied to the pixels in the
홍채코드를 통해 디바이스 착용자의 신원이 판별되면, 홍채(115)를 둘러싼 영역의 이미지가 디바이스 착용자에 속한 것으로서, 저장 및 등록된다. 상기 이미지는 안구가 돌아다님에 따라 홍채코드가 더 이상 계산될 수 없는 조건들 하에서 비교 기준으로서 후속으로 이용될 수 있다. 홍채(115)의 이미지는 그림자들(240), 눈꺼풀(105, 110) 또는 속눈썹(235)으로 인한 차단 때문에, 또는 홍채(115)가 카메라(125)의 중앙 시야에 비하여 충분하게 축을 이탈했기 때문에, 모호해질 수 있다. 이러한 조건들이 발생하면, 기준 이미지 내의 구별되는 피처들이, 디바이스 착용자의 신원을 실질적으로 지속적으로 판별하는데 이용될 수 있다. 이들 피처들은 공막(150), 공막(150) 내의 혈관들의 위치들 및 패턴들, 눈꺼풀(105, 110)의 형상, 속눈썹(235)의 위치 및 형상, 뿐만 아니라 보충적인 생체 측정들(즉, 생리학적인 및 해부학적인 측정들)을 포함할 수 있는바, 이에 대해서는 후술될 것이다.If the identity of the device wearer is determined via the iris code, the image of the area surrounding the
도3은 소정 시간에서 디바이스의 착용자가 긍정적으로 식별되는지의 여부를 판별하기 위한 실질적으로 지속적인 결정 프로세스를 예시한 순서도이다. 이러한 결정 프로세스는 홍채-추적 카메라(125)로부터 이미지를 획득함으로서 개시되고(프로세스 300) 그리고 홍채코드에 대한 계산을 시도한다. 카메라 이미지들을 디지털화하기 위한 방법들 및 홍채코드들의 계산은 도2에 보다 상세히 서술되며, 그리고 예를 들어, US 5,291, 560에 개시된 바와 같이 당업계에 공지되어 있다. 다음 단계(프로세스 305)는 실행가능한(viable) 홍채코드가 결정되었는지의 여부를 판별하는 것이다. 실행불가능한(non-viable) 홍채코드의 이유들은, 부분적으로 감겨진 눈꺼풀, 완전히 감겨진 눈꺼풀(즉, 자발적인 눈 감음 혹은 비자발적인 눈 깜박임), 홍채(115)를 모호하게 하는 그림자(240), 대략 믹대(rod) 형상의 영역들을 모호하게 하는 속눈썹, 및/또는 카메라(125)의 시야의 중앙으로부터 충분히 떨어지도록 회전된 홍채(115)를 포함한다. 3 is a flow chart illustrating a substantially continuous decision process for determining whether a wearer of the device is positively identified at a predetermined time. This determination process is initiated (process 300) by acquiring an image from the iris-tracking
만일, 실행가능한 홍채코드가 계산될 수 있다면, 이것은 의도된 또는 타겟 디바이스 사용자의 기결정된 홍채코드와 비교된다(프로세스 310). 이러한 비교의 엄격성은, 디바이스 사용자 보안의 원하는 레벨에 따라 조절될 수 있다. 만일, 착용자의 신원과의 긍정적인(positive) 매치가 있다면, 상기 긍정적인 매치의 시간은 프리-러닝 클럭(free-running clock)(335)으로부터 획득되는 현재 시간으로 설정되며(프로세스 315), 눈 주위의 영역 내의 피처들은 타겟 디바이스 사용자의 것으로 저장 및 등록되며(프로세스 320), 긍정적인 식별 상태의 불린(Boolean) 표시자는 "참(true)"으로 설정된다(프로세스 345). If an executable iris code can be computed, it is compared to the predetermined iris code of the intended or target device user (process 310). The severity of this comparison can be adjusted according to the desired level of device user security. If there is a positive match with the wearer's identity, the time of the positive match is set to the current time obtained from the free-running clock 335 (process 315) The features in the surrounding area are stored and registered as the target device user (process 320) and the Boolean indicator of the positive identification status is set to "true" (process 345).
만일, 홍채코드가 계산될 수 없다면(프로세스 305), 홍채코드가 연장된 기간에 대하여 이용불가능했는지를 판별하기 위해 체크가 수행된다(프로세스 325). 만일, 홍채코드가 최근에 판별되었다면, 눈 주위의 영역의 이미지 내의 피처들이 긍정적인 식별(프로세스 345)의 시간들에서 저장된 이미지들과 비교된다. 만일, 이들 피처들의 충분한 매치가 있다면, 긍정적인 식별의 불린(Boolean) 표시자는 "참(true)" 상태를 유지하며 그리고 새로운 이미지가 획득된다. If the iris code can not be calculated (process 305), a check is performed (process 325) to determine if the iris code was unavailable for an extended period of time. If the iris code has been recently determined, the features in the image of the area around the eye are compared with the stored images at times of positive identification (process 345). If there is a sufficient match of these features, the Boolean indicator of positive identification remains "true" and a new image is acquired.
만일, 새롭게 판별된 홍채코드가 의도된 디바이스 착용자의 그것과 매치하지 않는다면(프로세스 325), 또는 홍채코드가 소정 시간 동안 계산되지 않았고(프로세스 330) 그리고 눈 주위의 피처들의 불충분한 매치가 있다면(프로세스 340); 프리-러닝 클럭에 의해서 등록된 현재 시간(프로세스 330)과 긍정적인 식별의 가장 최근 시간 사이의 차이값이 계산된다. 만일, 이러한 차이값이 기결정된 임계 시간보다 크다라고 판별되면, 긍정적인 식별 상태의 불린(Boolean) 표시자는 "거짓(false)"으로 설정된다(프로세스 340). If the newly identified iris code does not match that of the intended wearer of the device (process 325), or if the iris code is not calculated for a predetermined time (process 330) and there are insufficient matches of features around the eye 340); The difference between the current time registered by the pre-running clock (process 330) and the most recent time of positive identification is calculated. If it is determined that this difference value is greater than the predetermined threshold time, the Boolean indicator of the positive identification state is set to "false" (process 340).
기결정된 임계 시간은, 가령, 디바이스 착용자의 "정상적인" 눈깜박임 동안에 사용자를 긍정적으로 식별하도록, 짧은 기간들의 불능(inability)을 허용하는 값으로 조절된다. 따라서, 본 명세서에서 사용되는 바와 같은, "지속적으로" 및 "실질적으로 지속적으로" 라는 판단은, 사용자를 긍정적으로 식별하기 위하여, 이러한 짧은 기간들의 불능을 포함할 수 있다. 일반적으로, 임계 시간은 0.1초(즉, 빠른 눈깜박거림의 지속기간)에서 10초 사이의 값으로 설정되며, 여기서 후자의 값은 최소 보안이며, 이는디바이스 착용자가 헤드웨어로부터 벗어나 곳을 짧은 기간들 동안 볼수 있게 한다. 전형적인 임계값은 0.3초이다, The predetermined threshold time is adjusted to a value that allows the inability of short periods, for example, to positively identify the user during a "normal" eye flicker of the wearer of the device. Thus, the determinations "continuously" and "substantially continuous ", as used herein, may include the inability of these short periods to positively identify the user. In general, the threshold time is set to a value between 0.1 seconds (i.e., the duration of a fast blink) to 10 seconds, where the latter value is minimum security, So that you can see them while you are there. A typical threshold is 0.3 seconds,
신규 이미지가 획득되면(프로세스 300), 전체적인 결정 프로세스가 반복되어, 실질적으로 지속적인 식별을 제공한다. 사용자 식별 상태는 시스템과 관련된 모든 전송들에 첨부될 수 있다(프로세스 345). 대안적으로, 홍채(115)의 이미지들은 외부 프로세싱 유닛으로 전송될 수 있으며 그리고 디바이스 착용자가 긍정적으로 식별되는지의 여부를 판별하기 위한 결정 프로세스는 원격으로 실행될 수 있다. Once the new image is acquired (process 300), the overall decision process is repeated to provide a substantially continuous identification. The user identification state may be attached to all transmissions related to the system (process 345). Alternatively, the images of the
도4는 디스플레이(710) 및/또는 외부 디바이스를 통한 보안 정보(155)의 전송을 제어하는 어플리케이션들 동안의 예시적인 실시예이다. 홍채 및/또는 안구의 영역 내의 피처들의 이미지들은 카메라(125)에 의해서 실질적으로 지속적으로 획득되며 그리고 이들 이미지들 내에서의 매치의 정도에 기초하여, 실질적으로 지속적인 디바이스 착용자 식별 상태가 프로세싱 유닛(165)에 의해서 판별된다. 디바이스 착용자 식별 상태는 통신 링크(155)를 통해 외부 프로세싱 유닛으로 전송된다. 이후, 임의 개수의 다른 프로세싱 유닛들(400)은 실질적으로 지속적으로 검증된 개인에 의해서 보안 정보가 디스플레이(710) 및 시청되게 할 수 있다. 4 is an exemplary embodiment during applications that control the transmission of
생체 인증은 하나 이상의 시간들(즉, 세션들) 동안에 발생할 수 있거나, 또는 사용자 검증을 요구하는 안구-신호 제어 프로세스 이전, 동안, 또는 이후인 시간들의 임의의 조합에서 발생할 수 있다. 예를 들어, 시험을 치르는 개인은 시험 기간 이전 및 이후 둘다에서, 생체 인증을 야기하는 안구 신호 커맨드 시퀀스를 실행할 것을 요구받을 수 있다. 온라인 구매는, 거래를 야기하는 안구-신호 시퀀스와 동시에 뿐만 아니라, 거래가 수행되기 전에(예컨대, 거래의 총 비용에 대한 사전-인증 단계가 발생할 수도 있는 시간 동안에) 인증을 요구할 수 있다. 안구-신호 제어들, 그리고 가능하면 다른 제어들을 이용하여 보안 법적 문서를 판독하는 것은, 반복된 생체 인증을 요구할 수 있는데, 이는 판독 프로세스 동안에 이용되는 모든 안구 신호들에 동기화된다. The biometric authentication may occur during one or more times (i.e., sessions), or may occur in any combination of times before, during, or after the eye-signal control process requiring user verification. For example, an individual who is taking a test may be required to perform an ocular signal command sequence that causes biometric authentication, both before and after the test period. Online purchases may require authentication not only simultaneously with the eye-to-signal sequence causing the transaction, but also before the transaction is performed (e.g., during a pre-authentication phase for the total cost of the transaction). Reading the security document using eye-signal controls, and possibly other controls, may require repeated biometric authentication, which is synchronized to all of the eye signals used during the reading process.
보충적인 생체 측정들(Supplementary Biometric Measures)Supplementary Biometric Measures
또 다른 실시예는 개인의 신원 및 기능적 상태(functional state) 둘다를 실질적으로 지속적으로 더 모니터링하기 위하여 해부학적인 및 생리학적인 피처들의 사용을 포함한다. 안구 신호들의 정확한 추적을 위하여, 눈의 해부학적 피처들의 형상들, 치수들, 및/또는 상대적인 공간적 위치들이 헤드웨어 디바이스에게 알려져야만 한다. 따라서, 정상 동작 동안, 이들 피처들은 일반적으로 디바이스에게 이용가능한바, 왜냐하면 이들은 정확한 안구 추적을 생성하는데 이용되는 조정 계수들 중 많은 것을 위한 설립 기초를 형성하기 때문이다. 이와 함께, 이들은 또한, 디바이스 착용자의 신원을 검증(실질적으로 지속적으로)하는데도 사용될 수 있다. 이것은 가령, 눈 깜박임 동안, 홍채가 속눈썹들 또는 다른 구조물들에 의해서 모호해질 때, 및/또는 하나 또는 2개의 눈들을 바라보는 카메라(들)로부터 떨어진 곳을 홍채가 포인팅할 때 등과 같이 홍채코드들이 지속적으로 이용가능하지 않은 기간들 동안에 특히나 유용하다. 사용자 신원의 구성요소들이 될 수 있는 이러한 해부학적 피처들의 일례들은 다음을 포함한다.Yet another embodiment includes the use of anatomical and physiological features to substantially continuously and continuously monitor both an individual's identity and a functional state. For accurate tracking of ocular signals, the shapes, dimensions, and / or relative spatial positions of the eye's anatomical features must be known to the headwear device. Thus, during normal operation, these features are generally available to devices, since they form the foundations for many of the adjustment factors used to generate accurate eye tracking. In addition, they can also be used to verify (substantially continuously) the identity of the wearer of the device. This can be achieved, for example, during iris flickering, when the iris is ambiguous by eyelashes or other structures, and / or when the iris is pointing away from the camera (s) looking at one or two eyes It is particularly useful during periods of inactivity that are not continuously available. Examples of such anatomical features that may be components of the user identity include:
● 각막 반경(corneal radius)(형상이 타원체가 될 수 있으므로 2차(second-order) 파라미터들을 포함함)Corneal radius (including second-order parameters because the shape may be ellipsoidal)
● 동공 깊이Pupil depth
● 안구 지름Eyeball diameter
● 각막윤부 지름(limbus radius)● limbus radius
● 광 축 및 시각적 축 사이의 오프셋● Offset between optical and visual axes
● 인조 렌즈 파라미터(synthetic lens parameter)(수정체를 인조 렌즈로 대체하기 위한 백내장 수술은 미국에서 1 년에 270만번 수행된다). • Synthetic lens parameters (cataract surgery to replace lenses with artificial lenses is performed 2.7 million times a year in the US).
● 결막황반(pinguecula)(눈의 햐안(공막) 부분의 결막을 두껍게 하는 황반), 익상편(pterygium)(웨지-형상의 성장), 사시(strabismus)(crossed eyes), 약시(amblyopia)(lazy eye) 등의 다양한 질환들● pinguecula (a macular thickening of the conjunctiva of the eye's sclera), pterygium (wedge-shaped growth), strabismus (crossed eyes), amblyopia (lazy eye ) And various diseases
● 일반적인 눈꺼풀 위치● Normal eyelid position
● 속눈썹 두께, 밀도, 색상, 범위, 길이● Eyelash thickness, density, color, range, length
● 안구 열극 형상 및 측정치(eye fissure shape and measurements )● eye fissure shape and measurements
● 카메라의 시야에 따른 눈썹 헤어, 구조, 위치, 색상, ● Eyebrow according to the field of view of the camera hair, structure, position, color,
● 카메라의 시야에 따른 눈꺼풀의 피부 구성(skin composition) 및 주변 조직● Skin composition and surrounding tissues of the eyelids according to the camera's field of view
또 다른 해부학적 팩터들 가령, 코의 사이즈 및 형상(일반적으로 디바이스가 머리 상에 어떻게 놓여있는지에 영향을 받으며 따라서 눈에 대한 카메라들 및 조명 소스들의 위치들에 영향을 미친다)이 존재하는데 이들은, 사용자 식별 목적으로는 덜 유용하다. There are other anatomical factors, such as the size and shape of the nose (which is generally influenced by how the device lies on the head, thus affecting the positions of the cameras and illumination sources relative to the eye) It is less useful for user identification purposes.
하지만, 카메라들과 눈의 피처들 사이의 거리들의 측정치들(다시한번 말하면, 디바이스가 코 위에 어떻게 놓여있는지에 크게 영향을 받음)은, 예를 들어, 디바이스가 머리로부터 제거되었는지의 여부를 판별하는데 이용될 수 있다. 만일, 디바이스가 머리로부터 제거되었다면, 디바이스가 헤드 상에 다시 놓여지고 그리고 고-엄격성(예컨대, 매칭된 홍채코드)의 인증 절차가 실행될 때까지, 고 보안성의 행위들 및 거래들을 디바이스가 행하는 것을 금지하는 표시자가 설정될 수 있다. However, the measurements of the distances between the cameras and the eye features (again, largely influenced by how the device lies on the nose), for example, determines whether the device has been removed from the head Can be used. If the device has been removed from the head, then the device is put back on the head and the device performs high security behaviors and transactions until a high-rigidity (e.g., matched iris code) authentication procedure is performed A prohibiting indicator can be set.
또한, 디바이스에 의해서 측정되는 생리학적인 응답들은, 개인의 신분증명(identification) 또는 "시그너처(signature)" 내의 고유 식별자들의 성분들이 될 수 있다. 디바이스에 의해서 측정되며, 따라서 사용자 신원의 성분들이 될 수 있는 생리학적 피처들의 일례들은 다음을 포함한다. In addition, the physiological responses measured by the device may be components of unique identifiers in an individual's identification or "signature ". Examples of physiological features that are measured by a device and thus can be components of a user identity include:
● 빛의 변화들에 응답하는(이는 디바이스 착용자의 연령에 매우 의존함) 또는 특정한 자극(빛, 감정적 응답, 인지 부하(cognitive load))에 응답하는 동공의 수축 또는 확장의 정도 • The degree of contraction or expansion of the pupil in response to changes in light (which is highly dependent on the age of the wearer of the device) or a specific stimulus (light, emotional response, cognitive load)
● 빛의 변화에 응답하는 동공 수축 혹은 확장의 속도(rate) The pupil contraction or expansion rate in response to changes in light (rate)
● 동공이 수축 또는 확장할 때의 동공의 수평 및 수직 변위들Horizontal and vertical displacements of the pupil as the pupil contracts or expands
● 자발적인 단속성 운동들(voluntary saccadic movements)의 범위 및 속도● Scope and speed of voluntary saccadic movements
● 마이크로 단속운동(micro-saccade)의 범위, 빈도, 및 속도 The range, frequency, and speed of micro-saccades
● 안구 떨림(tremors), 드리프트들, 및 다른 안구 운동들의 정도, 존재, 범위, 빈도, 및 패턴The degree, presence, extent, frequency, and pattern of tremors, drifts, and other eye movements
● 이향운동 안구 움직임들(vergence eye movements) 사이의 상관 정도(2 개의 눈들이 모니터링될 때)The degree of correlation between vergence eye movements (when two eyes are monitored)
● 디바이스 착용자가 새로운 타겟을 식별 및 추적하는 속도● The speed at which device wearers identify and track new targets
● 주파수, 속도, 지속기간, 발생 등의 깜박임 거동● Flicker behavior such as frequency, speed, duration,
● 사용자가 안구 신호들을 수행하는 방식, 이는 안구-제어를 위한 문법 또는 상호작용 모델의 일부일 수 있음● How the user performs eye signals, which may be part of the grammar or interaction model for eye-control
● 시각적 자극, 생체측정 데이터, 및 위치, 시간, 활동성(activity), 신체 또는 인지 상태 및 의지(physical or cognitive state and intent)를 포함하는 다른 데이터 관점에서의 안구 신호들 Eye signals in terms of visual stimulus, biometric data, and other data including location, time, activity, physical or cognitive state and intent,
● 눈꺼풀 및 주변 피부 조직의 움직임, 안면 근육 활동 부호화 체계(Facial Actions Coding System: FACS) 내에 카탈로그화된 보여질수 있는 피부, 근육 및 움직임들에 아마 기초할 수도 있음Maybe based on the movements of the eyelids and surrounding skin tissue, the skin, muscles and movements that are cataloged in the Facial Actions Coding System (FACS).
● 디바이스 착용자의 "경험"에 관련된 다양한 파라미터들(초보 사용자와 비교하여)● Various parameters related to the "experience" of the wearer of the device (compared to novice users)
상기 리스트의 후단 피처들, 디바이스 착용자 경험은, "생리학적" 측정으로 엄격하게 분류되지 않을 수도 있다. 경험은 디바이스에 의해서 유지되는 계수들의 클러스터 내에서 반영되는바, 이는 디바이스와 함께 소모된 시간, 주시 시간들(fixation times), 반응 시간들의 히스토리, 다양한 데이터 타입들의 맥락화(contextualization) 및 디바이스 착용자에 의한 의도하지않은 선택들(즉, 나중에 보정된)의 빈도에 주로 기초하여 사용자의 "경험"을 반영한다. 디바이스에 의해서 이용되는 이러한 데이터들의 하나의 일례는, 안구 신호들의 부드러운 추격 동안에, 소위 "아이무버(eyemovers)"(즉, N개 중 1을 선택하도록(make a 1 of N selection), 사용자에게 그들의 눈(들)을 움직이도록 촉구하는 타겟들)의 속도를 조절하는 것이다. The back end features of the list, the device wearer experience, may not be strictly classified as "physiological" measurements. The experience is reflected in the cluster of coefficients maintained by the device, which includes the time consumed with the device, fixation times, the history of the reaction times, the contextualization of the various data types, Reflects the user ' s ' experience ' mainly based on the frequency of unintended selections (i.e., corrected later). One example of such data used by the device is the so-called "eyemovers" (i.e., make a 1 of N selection) The targets which urge the eye (s) to move).
사용자 경험은, 물체를 측량하거나 또는 문자를 읽는 것 등의 행동들을 수행할 때에 측정될 수 있는 다수의 거동적 특징들의 일례이다. 이들 거동적 생체측정들(behavioral biometrics) 또는 행위들을 수행하는 "스타일"은 과거 경험, 익숙함(familiarity), 흥미(interest), 기타 등등의 팩터들에 기초할 수 있다. 일부 거동적 특징들은 해부학적 및 생리학적 영향들(influences)을 포함할 수 있다. 비유로서, 개인의 걸음걸이(gait)는 이러한 행위의 큰 규모의 일례이다. 안구 신호들의 경우에 있어서, 정확한 부착점들(exact attachment points) 및 각각의 눈을 콘트롤하는 6개의 근육들의 수축력은 안구 운동의 거동적 생체측정(behavioral biometrics)에 영향을 미칠 수 있다. The user experience is an example of a number of dynamic features that can be measured when performing actions such as measuring an object or reading a character. These "behavioral biometrics" or "styles" that perform actions can be based on factors such as past experience, familiarity, interest, and so on. Some hyperactive features may include anatomical and physiological influences. As a parable, the gait of an individual is a large-scale example of such an act. In the case of ocular signals, the exact attachment points and the contraction force of the six muscles controlling each eye can affect behavioral biometrics of eye movements.
실제 및 가상 객체들과 상호작용하기 위한 생체역학-기반의 안구 신호들을 위한 시스템들 및 방법들(Systems and Methods for Biomechanically-Based Eye Signals for Interacting with Real and Virtual Objects)에 서술된 바와 같이, 안구 신호들을 분류하는 방법 중 하나는 개인의 안구 운동 특징들을 알아차리도록 훈련된 신경 네트워크들의 적용이다. 특정한 운동 특징들 뿐만 아니라 사용자 경험도, 개인을 식별하는데 이용될 수 있다(즉, 유추에 의한, 개인의 "눈-걸음걸이(eye-gait)"). As described in Systems and Methods for Biomechanically-Based Eye Signals for Interacting with Real and Virtual Objects for interacting with real and virtual objects, One of the ways to classify neurons is the application of neural networks trained to recognize the characteristics of an individual's eye movement. User experience as well as specific motor characteristics can be used to identify an individual (ie, an "eye-gait" of an individual, by analogy).
가령, 일란성 쌍생아를 구별하는 것과 같은 일부 경우들에서, 일부 해부학적 피처들의 독특한 변이들은 생체 인증에 실제로 이용되기에는 너무 미세할 수도 있지만, 이들 해부학적, 생리학적, 및/또는 거동적 피처들은 개인들에게 고유하다. For example, in some cases, such as identifying identical twins, unique variations of some anatomical features may be too small to be actually used for biometric authentication, but these anatomical, physiological, and / .
이러한 단점들을 감안하면, 이것은 구별력을 제공하는 독립 피처들의 조합이다. Given these shortcomings, this is a combination of independent features that provide differentiation power.
만일, 각막윤부(limbus)의 지름에 대한 측정이 개인들을 10개의 그룹들 중 하나로 일관되게(즉, 반복적으로) 분류할 수 있는 분해능을 가지며 그리고 대규모 단속성 운동들(large saccadic movements) 동안에 획득된 최대 속도(각막 윤부 지름에 종속되는 것은 아니라고 가정하자)가 개인들을 15개의 그룹들 중 하나로 더 분류할 수 있다면, 개인을 식별함에 있어서, 이들 2개의 독립적인 측정들의 조합된 파워는 150(10*15)개 중 하나이다. 독립적인 및 구별되는 피처들의 곱셈 성질(multiplicative nature)은 개인들을 구별하는데 상당한 파워를 제공한다. If the measurement of the diameter of the limbus is a resolution that can consistently (i. E., Iteratively) classify individuals into one of ten groups and that is obtained during large saccadic movements If the maximum velocity (assuming that it is not dependent on the corneal limbus diameter) can further categorize individuals into one of 15 groups, in identifying an individual, the combined power of these two independent measurements is 150 (10 * 15). The multiplicative nature of the independent and distinct features provides considerable power to distinguish individuals.
특히, 홍채 인증이 이용될 수 없는 시간들 동안에(예컨대, 눈꺼풀, 속눈썹에 의해서 홍채가 모호해지거나, 또는 초점을 벗어난 경우), 해부학적인, 생리학적인, 및 거동적 파라미터들이 사용자 인증의 지속성을 유지하는데 이용될 수 있다. 또한, 많은 어플리케이션들에서, 디바이스는 착용자의 특징들이, 한명의, 신원확인된 개인의 특징들과 매칭하는지 또는 적은 숫자의 알려진 개인들의 멤버인지를 판별할 것을 요구받는다. 이것은 예를 들어, 많은 수의 개인들 중 한 사람이 디바이스 착용으로부터 배제될 수 있는지의 여부를 식별하는 것보다, 훨씬 간단한 분류 프로세스이다. 하나 이상의 해부학적, 생리학적, 또는 거동적 측정값들에서의 편차는, 디바이스 사용자가 바뀌었음을 나타낼 수 있다.In particular, anatomical, physiological, and dynamic parameters maintain the persistence of user authentication during periods when iris authentication is not available (e.g., when the iris is obscured by the eyelids, eyelashes, or out of focus) Can be used. In addition, in many applications, the device is required to determine whether the wearer's features match one, identified person's characteristics, or a small number of known individuals. This is a much simpler sorting process than, for example, identifying whether one of a large number of individuals can be excluded from wearing a device. A deviation in one or more anatomical, physiological, or dynamic measurements may indicate that the device user has changed.
이러한 신원확인 특징들은 또한, 다른 보안 토큰들, 가령, 정보 토큰들(패스워드), 물리적 토큰들(키), 생성된 토큰들(스피치, 제스처, 글씨쓰기), 다른 생체측정 토큰들(지문, 음문), 기타 등등과 조합될 수 있다. These identification features may also include other security tokens, such as information tokens (passwords), physical tokens (keys), generated tokens (speech, gestures, ), And the like.
본 명세서의 시스템들 및 방법들의 또 다른 예시적인 실시예는 개인 사용자와 관련된 보정 파라미터(calibration parameter)들을 찾아내고 검색하도록 홍채 인식을 이용하는 것을 포함한다. 모르는 또는 새로운 디바이스 사용자가 디바이스를 그/그녀의 머리에 착용할 때, 보정 파라미터들을 알지 못하는 것이 일반적이다. 눈을 바라보는 카메라의 일반적인 방향으로 응시하도록 사용자에게 지시하거나 또는 정상적인 안구 운동들 동안 하나 이상의 카메라들이 홍채를 바라보게 하는 프로세스를 통해, 초기 홍채코드가 생성될 수 있다. Another exemplary embodiment of the systems and methods herein includes using iris recognition to find and retrieve calibration parameters associated with an individual user. It is common for unknown or new device users to know the calibration parameters when they wear the device on his / her head. An initial iris code may be generated through a process that directs the user to gaze in the general direction of the camera looking at the eye, or through a process in which one or more cameras look at the iris during normal eye movements.
다수 카메라 구성들(Multiple Camera Configurations)Multiple Camera Configurations
안구의 정상 움직임 동안 홍채의 일부분들이 모호해질 수도 있는 경우, 하나의 카메라에 의해서 서로 다른 시간들에서 찍은 홍채 이미지들의 부분들 및/또는 다수의 카메라들을 이용하여 서로 다른 방향들로부터 본 홍채 이미지들을 "함께 스티치(stitch together)" 하는 것이 유용할 수 있다. 눈을 보기 위하여 다수의 카메라들을 이용하는 것이 도5 및 도6에 예시된다. Iris images seen from different directions using portions of iris images taken at different times by one camera and / or multiple cameras when the iris portions may be ambiguous during the normal movement of the eye are referred to as " Stitch together "may be useful. The use of multiple cameras to view the eyes is illustrated in Figures 5 and 6.
대안적으로, 홍채코드들 자신들은(즉, 세그멘테이션 프로세스 다음으로 계산된), 홍채의 서로 다른 이미지들로부터 "함께 스티치"될 수도 있다. 다시 한번 설명하면, 이들 이미지들은 서로 다른 시간들에서 취해질 수도 있으며, 또는 서로 다른 카메라들에 의해서 또는 서로 다른 시간들 및 카메라 각도들의 조합들로 취해질 수 있다. 이러한 접근법의 구성요소로서, 다수의 이미지들 내에서 성공적으로 보여지는 홍채의 일부분들은 평균화될 수 있는바(홍채코드를 계산하기 이전에 또는 이후에), 이는 신뢰성(reliability)을 향상시키고 및/또는 이미지 잡음의 영향들 방지하기 위한 것이다. Alternatively, the iris codes themselves may be "stitched together " from different images of the iris (i.e., computed after the segmentation process). Again, these images may be taken at different times, or taken by different cameras or at different times and combinations of camera angles. As an element of this approach, portions of the iris that are successfully seen in a plurality of images can be averaged (before or after calculating the iris code), which improves reliability and / To prevent the effects of image noise.
눈에 띄지 않는(unobtrusive) CBID에 관련된 문제점들 중 하나는, 눈을 지향하도록 된 카메라(들)이 일반적으로 눈의 시각적 혹은 광학적 축 중 어느 하나와 비교하여 오프-축(off-axis)이라는 사실과 관련이 있다. 이것은 홍채의 "오프-축" 뷰(view)를 야기한다. 또한, 정상적인 안구-신호 기능들 동안에 안구가 움직이기 때문에, 홍채가 "오프-축" 되는 정도가 변한다. 만일, 사용자가 소정 방향을 보고 있는 중일 때 홍채 템플릿(iris template)이 등록된다면, 홍채 템플릿이 등록되었던 방향으로부터 눈이 회전하기 때문에, 동일한 홍채를 식별하는 것이 점점 더 어려워질 것이다. One of the problems associated with unobtrusive CBID is the fact that the camera (s) that are aimed at the eye are generally off-axis relative to either the visual or optical axis of the eye . This causes an "off-axis" view of the iris. Also, since the eye moves during normal eye-to-eye functions, the degree to which the iris is "off-axis" changes. If the iris template is registered while the user is looking in a certain direction, it will become increasingly difficult to identify the same iris because the eyes rotate from the direction in which the iris template was registered.
"오프-축" 에 대한 하나의 해결책은 서로 다른 시야 각도들에서 눈을 관찰하는 다수의 카메라들을 이용하는 것이다. 임의의 소정 시간에서, 온-축(on-axis)에 가장 가까운 카메라로부터 이미지들이 선택될 수 있는데, 온-축은 예를 들어, 가장 원형인(매우 타원형인 것에 비하여) 내부 및 외부 홍채 경계들에 기초하여 파악될 수 있다. 정상 동작들 동안에 안구가 움직이기 때문에 가장 "온-축"인 카메라는 변할 수 있다. One solution to the "off-axis" is to use multiple cameras that observe the eye at different viewing angles. At any given time, images may be selected from the camera closest to the on-axis, such that the on-axis may be selected, for example, at the inner and outer iris boundaries (relative to being very oval) Can be grasped. The camera that is most "on-axis" may change because the eye moves during normal operations.
이러한 문제점에 대한 또 다른 해결책은 서로 다른 시야 각도들(viewing angles)에서 수집된, 개인에 대한 다수의 홍채 템플릿들을 저장하는 것이다. Another solution to this problem is to store multiple iris templates for an individual, collected at different viewing angles.
안구 추적의 결과로서, 사용자의 시야 방향은 알고 있기 때문에, 다음과 같은 것이 가능하다; 1) 다수의, 알고 있는 시야 방향들에서의 홍채코드들을 저장하고 그리고 2) 이에 후속하여, 알려진 시야 방향들에서 임의의 시간에 수집된 홍채코드들을, 동일한 혹은 가장 가까운 시야 방향에서 수집 및 등록된 홍채코드들과 비교한다.As a result of eye tracking, since the user's view direction is known, it is possible to: 1) store iris codes in a plurality of known viewing directions, and 2) thereafter, collect iris codes collected at any time in known viewing directions in the same or nearest viewing directions, Compare with iris codes.
오프-축 뷰잉(off-axis viewing)의 정도는, 다수의 카메라들 및/또는 다수의 홍채코드들을 사용하여 감소될 수 있다. 온-축에 가장 가까운 카메라로부터 이미지들을 선택함으로써, 홍채의 모스트 다이렉트 뷰(most direct view)가 획득될 수 있다. 알려진 개인들로부터 홍채코드들을 등록하고 개인의 신원을 실시간으로 등록하는 것 둘다는, 가장 온-축인 카메라의 이미지들에 기초할 수 있는데, 이는 신원확인 강건성(identification robustness)을 개선하기 위한 것이다. The degree of off-axis viewing can be reduced using multiple cameras and / or multiple iris codes. By selecting images from the camera closest to the on-axis, a most direct view of the iris can be obtained. Both registering iris codes from known individuals and registering the identity of an individual in real time can be based on images of the most on-axis camera, which is to improve identification robustness.
이와 유사하게, 이들 체계들 모두는, 템플릿을 등록하거나 신원확인을 위해 홍채코드를 실시간으로 계산하기 전에, 온-축이 되도록 홍채의 이미지를 수치적으로(numerically) "회전" 시키는 것과 일치한다. 많은 안구-추적 체계들에서, 광 축과 뷰잉 카메라의 방향 사이의 각도는, 시선 방향(gaze direction)을 계산하기 위하여 알려져야만 한다. 이것은 회전 변환을 적용하기 위한 키 계수들(key coefficients)을 제공하며, 이는 동공(혹은 각막윤부)의 중심에 수직인 축을 따라 보여지는 것처럼, 눈의 이미지가 보여지게 한다. Similarly, all of these schemes are consistent with numerically "rotating" the image of the iris to be on-axis before registering the template or calculating the iris code in real time for identification. In many eye-tracking systems, the angle between the optical axis and the direction of the viewing camera must be known in order to calculate the gaze direction. This provides key coefficients for applying a rotational transformation, which allows the image of the eye to be seen as seen along an axis perpendicular to the center of the pupil (or corneal limbus).
이들 홍채코드들은 원하는 뷰들을 수용하는 통상적인 렌즈들 또는 홀로그램(holographic) 렌즈들을 이용하여 수집될 수 있다. 또한, 홍채코드들이 수집될 수 있는데, 눈의 이미지들은 하나 이상의 반사 표면들에서 반사된다. 이러한 표면들은 하나의, 대형 반사 표면 또는 다수의 반사 표면들(즉, 다수의 마이크로-미러들) 주위에 설계될 수 있다. 이들 미러-기반 시스템들은, 통상적인 반사 표면들의 형태이거나 또는 광 시스템의 물리적 특징들(예컨대, 무게, 사이즈)을 최소화하도록 설계된 소위(so-called) 자유-형태 광 경로(free-form optical pathway) 내에 있을 수도 있다. 또한, 이들은 가시 파장들의 빛에서 뷰들을 방해함이 없이 CBID를 가능케하도록, 선택된 파장들의 빛을 반사시킬 수 있다(예컨대, 소위 "핫 미러"). 자유-형태 옵틱스 설계는, 광 축 또는 광 축 부근에서 눈을 볼수 있는 능력을 유지하면서도, 안경류(eyewear)의 에지를 따라 카메라들이 눈에 띄지 않게(unobtrusively) 배치될 수 있게 한다. 눈(들)의 이미지들은 하나 이상의 검출기들(예컨대, 포토다이오드)에 의해서 대안적으로 수집될 수 있는바, 여기서 공간적인 선택 및 해상도는, 스위처블 브래그 그레이팅-기반(switchable Bragg gratings-based: SBG)의 디바이스에서 찾아볼 수 있는 것들과 같은 스위칭가능한 표면들에 의해서 제어된다. These iris codes may be collected using conventional lenses or holographic lenses to accommodate the desired views. Also, iris codes may be collected, wherein the images of the eye are reflected at one or more of the reflective surfaces. These surfaces can be designed around a single, large reflective surface or multiple reflective surfaces (i.e., multiple micro-mirrors). These mirror-based systems may be of the so-called free-form optical pathway, which is in the form of conventional reflective surfaces or designed to minimize the physical characteristics (e.g., weight, size) Lt; / RTI > They can also reflect light of selected wavelengths (e.g., a so-called "hot mirror") to enable CBID without disturbing views in the light of visible wavelengths. The free-form optics design allows cameras to be positioned unobtrusively along the edge of the eyewear, while maintaining the ability to see around the optical axis or optical axis. The images of the eye (s) may alternatively be collected by one or more detectors (e.g., photodiodes), wherein the spatial selection and resolution is based on switchable Bragg gratings-based: SBG Quot;) < / RTI > devices.
도5는 예시적인 시스템(600)을 도시하는바, 이는 다수의 조명 소스들(130, 135, 140) 및 다수의 카메라들(125)을 위한 배치 장소들을 예시한다. 이들 조명 소스들(130, 135, 140) 및 카메라들(125) 둘다는, 홍채(115), 중앙 동공(145) 및 주변의 공막(150)을 포함하는 하나의 눈의 영역을 향해 지향된다. 하나의 광 소스(400)와 비교하여, 다수의 조명 소스들(130, 135, 140)의 사용은, 디바이스 착용자에 의한 더 넓은 범위의 안구 운동들에 대해서 보다 양호하게 조명되는 홍채(115)를 보장하며, 그림자(240)를 만드는 경향들을 감소시킨다. 다수의 카메라들(125)의 사용은, 디바이스 착용자에 의한 더 넓은 범위의 시야 각도들에 대해서 온-축(on-axis) 홍채를 촬영할 능력을 향상시키며, 그리고 보다 예각인 각도들(more acute angles)에서 카메라-기반의 촬영으로부터 야기되는 홍채 이미지들의 왜곡을 감소시킨다. 5 illustrates an
카메라들은 또한, 눈들의 뷰들(views of eyes), 안구 피처들, 눈꺼풀, 속눈썹, 눈썹, 주변 피부, 및 안면 근육들을 캡춰하도록 구성될 수 있는바, 따라서 관심있는 영역들은, 장면들의 접경하지 않은(non-contiguous) 모음으로서 또는 함께 스티치된 인접 영역들로서, 개별적으로, 인접하게(adjacently) 보여질 수 있다. 다수의 카메라들은 카메라들에 의해서 보여지는 영역들을 조명하도록 구성된 다수의 LED들 또는 조명 소스들에 의해서 지원될 수 있다. 눈들, 동공들, 피처들, 눈꺼풀들, 눈썹들, 및 피부에 대한 캡춰는, 온-스크린 디스플레이로부터의 자극 또는 사용자의 환경 내에서의 자극에 대한 감정적 응답(emotional response)을 측정하는데 이용될 수 있다. 이것은 예를 들어, 개인간의 통신(interpersonal communication)을 위해, 시선 방향과 관련된 감정적 반응에 대한 연구들을 위해, 그리고 게임들에서의 감정-기반의 상호작용을 위해 이용될 수 있다. 카메라들에 의해 측정되는 플레이어의 시선 방향들 사이의 관련성은, 다른 안면 정보와 결합되어, 사용자의 감정 상태를 정의하도록 해석될 수 있다. 게임 또는 엔터테인먼트 체험(entertainment experience)의 배우들은, 사용자 눈, 안면, 머리, 손, 몸, 및 생체측정 거동과 동기화되어, 행위 및 사용자로부터 멀어지는 또는 사용자로 향하는 시선 방향과 함께 반응할 수 있는바, 이는 렌더링된 안면 피처들, 몸, 및 안구-거동을 통해 감정을 소통하며, 캐릭터/사용자의 감정적 교감들 및 상호작용들의 변동성이 있는, 그리고 동적인 레벨을 자극한다. 이들 배우들은 인공 지능형 캐릭터들일 수 있으며 또는 이들은 원격 인간 캐릭터들에 대한 아바타들일 수도 있으며, 그리고 사용자는 원격 아바타에 의해서 또한 표현될 수도 있다. The cameras may also be configured to capture the views of eyes, eye features, eyelids, eyelashes, eyebrows, surrounding skin, and facial muscles, non-contiguous vowels, or adjoining regions stitched together. The plurality of cameras may be supported by a plurality of LEDs or illumination sources configured to illuminate areas viewed by the cameras. Capture for eyes, pupils, features, eyelids, eyebrows, and skin can be used to measure emotional response to stimulation from the on-screen display or stimulation within the user's environment have. This can be used, for example, for interpersonal communication, for emotional reactions related to the gaze direction, and for emotion-based interactions in games. The association between the gaze directions of the players measured by the cameras can be combined with other facial information to be interpreted to define the emotional state of the user. Actors of a game or entertainment experience may be synchronized with the user's eyes, facial, head, hand, body, and biometric behavior, reacting with behavior and away from the user or with the direction of the gaze towards the user, This communicates emotions through rendered facial features, body, and eye-movement, and stimulates the volatile and dynamic levels of emotional expressions and interactions of the character / user. These actors may be artificial intelligence characters, or they may be avatars for remote human characters, and the user may also be represented by a remote avatar.
도5에 예시된 시스템(600)의 경우, 구성요소들은 한 쌍의 안경(eyeglass) 프레임들 내에 마운트된다. 도5는 좌측 눈을 향해 지향되는 안경의 좌측 반쪽만이 도시되는데, 이는 간략함을 위한 것이다. In the case of the
안경 프레임들은 노즈 피스(nose piece)(510)와 이어 스템(ear stem)(515)을 활용하여 머리에 착용된다. 본 일례에서, 온-보드 프로세싱 유닛(165)은 좌측 이어 스템(515) 내에 배치된다. 비록, 본 도면에는 도시되어 있지 않지만, 디바이스에 전원을 공급하는 배터리 팩은 예를 들어 우측 이어 스템에 마운트될 수 있다. 비록, 본 도면에는 잘 보이지 않지만, 옵션적으로는, 프레임 상의 장면 카메라가 디바이스 착용자의 환경을 보는데 이용될 수 있다. 비록, 본 도면에는 도시되어 있지 않지만, 선택적으로는, 사용자의 눈(들)에 대한 하나 이상의 디스플레이 제공 모노쿨라 또는 스테레오(monocular or stereo) 이미저리(imagery)가 상기 프레임에 마운트될 수도 있다. 상기 프레임은 사용자의 실제 세계에 대한 뷰를 증강시키는 이미지, 오프 축에서 제공되거나 혹은 사용자의 다이렉트 시선에 있지 않은 이미지, 또는 가상의 실제감을 생성하는 몰입형 이미지(immersive imagery creating virtual reality)를 제공하는 디스플레이(들)을 포함할 수 있다. The eyeglass frames are worn on the head using a
다수 카메라들의 예시적인 구성이 도6에 예시된다. 다수의 카메라들(2000a-f)은, 상부 눈꺼풀(105), 하부 눈꺼풀(110), 및 임의의 차단 속눈썹들(236)을 포함하는 방해물들을 눈의 다수의 뷰들을 통해 회피할 수 있다. 서로 다른 각도들에서 보여질 때(즉, 서로 다른 카메라들에 의해서 관찰되면), 특정 방해물(예컨대, 도6의 속눈썹 236)에 의해서 차단되는 영역들이 다르다. 이러한 조건들하에서, 눈의 표면의 전체 표현들(full representations)은, 서로 다른 카메라들로부터의 이미지들을 이용하여 수집된 이미지들로부터 정보를 추출 혹은 함께 스티칭함으로써, 재건설될 수 있다. 눈의 다른 뷰들을 갖는 서로 다른 카메라들은 중첩되는 또는 중첩되지 않는 시야를 가질 수 있다. 또한, 서로 다른 카메라들은 서로 다른 렌즈들, 광학 필터들, 프레임 레이트들, 또는 해상도를 가질 수 있다. 또한 2D 혹은 3D 이미지 카메라들의 믹스가 존재할 수 있다. 카메라 혹은 카메라들(2000a-f)의 임의의 조합은 언제나 가능할 수 있다(예컨대, 파워 온 및 기능 동안). 샘플링 조건들의 범위 하에서 수집된 이미지들에 대한 액세스는, 홍채 인식, 동공 인식, 피처 인식, 및 안구-신호 인식의 강건성(robustness)을 향상시킨다. An exemplary configuration of multiple cameras is illustrated in FIG. The plurality of
또한, 다수 카메라들의 사용은, 안구의 3-차원 뷰들을 형성하는데 이용될 수 있다. 안구 내의 3 차원 구조들을 보기위한 대안적인 방법은, 공간 위상 이미징(spatial phased imaging)이다. 안구 내의 구조들의 형상들, 사이즈들, 및 위치들을 판별하는 방법들에 상관없이, 이들의 3 차원 형태학(morphology)에 대한 지식은, 시선 추적의 해상도, 편의성(convenience)(예컨대, 조정을 위한 요건들이 감소함), 및 강건성을 증가시킬 수 있다. In addition, the use of multiple cameras can be used to form three-dimensional views of the eye. An alternative method for viewing three-dimensional structures in the eye is spatial phased imaging. Regardless of the ways in which the shapes, sizes, and positions of structures in the eye are determined, their knowledge of the three-dimensional morphology can be used to determine the resolution, convenience (e.g., , And toughness can be increased.
양 눈을 향해 지향된 다수-카메라들(즉, 각각의 눈은 다수의 카메라들에 의해서 보여짐)은, 양안전도(vergence) 측정의 정확도를 더욱 증가시킨다. 양안전도는 문자그대로 안구-신호 제어에 추가적인 디멘젼을 부가한다. 예를 들어, 양안전도를 사용함으로써, 선택 패널들의 서로 다른 층들에 있는 아이콘들이 디바이스 착용자에 의해서 특정될 수 있다. Many-cameras (i.e., each eye viewed by multiple cameras) directed toward both eyes further increase the accuracy of both vergence measurements. Binocular conduction literally adds an additional dimension to eye-signal control. For example, by using binocular conduction, icons in different layers of select panels can be specified by the wearer of the device.
넓은 각도 범위에서 실질적으로 동시에 눈을 보는 다수의 카메라들은 또한, 눈꺼풀, 피부, 눈썹, 및 심지어 안면 근육들의 일부분을 포함하는 주변 피처들의 움직임을 관찰하는데 이용될 수 있다. 이들 피처들에서의 움직임들은 감정 상태를 포함하는 또 다른 사용자 컨디션들을 추출하는데 이용될 수 있다. 예시적인 실시예에서, 감정 상태들을 나타내는 다른 안구 측정들은 동공 확장, 렌즈 형상 및 심박수를 포함한다. 추가적인 실시예들에서는, 하나 이상의 카메라들을 이용하여, 눈의 혈관구조(vasculature) 특히, 공막 내의 혈관구조의 이미지들에서 작은 팽창들 및 수축들의 비율을 판별함으로써, 사용자의 심박수를 판별하는 것이 가능하다. A number of cameras that simultaneously observe substantially at wide angle ranges can also be used to observe the movement of surrounding features, including eyelids, skin, eyebrows, and even portions of facial muscles. The movements in these features can be used to extract other user conditions including the emotional state. In an exemplary embodiment, other ocular measurements indicative of emotional states include pupil dilation, lens shape, and heart rate. In further embodiments, it is possible to determine the heart rate of a user by using one or more cameras to determine the ratio of small expansions and contractions in images of the vasculature of the eye, in particular of the vasculature within the sclera .
감정 상태를 포함하는 사용자 컨디션의 판별Determination of user conditions including emotional states
디바이스 사용자 컨디션들 및 감정 상태들을 판별하기 위하여 추가적인 센서들을 헤드웨어에 부가할 수 있다. 실질적으로 지속적으로 모니터링된 데이터의 일례들은, 맥박산소측정(pulse oximetry), 전기 피부 저항(galvanic skin resistance), EEG, ECG, 및 온도 센서를 포함한다. Additional sensors may be added to the headware to determine device user conditions and emotional states. Examples of substantially continuously monitored data include pulse oximetry, galvanic skin resistance, EEG, ECG, and temperature sensors.
사용자 감정에 대한 디바이스 지식은, 신원확인을 위해 이용될 수 있을 뿐만 아니라 넓은 범위의 어플리케이션들을 조절(regulate)하는데 이용될 수 있다. 감정은 게이밍에 대한 특히, 파워풀한 부속 입력(powerful adjunctive input)이 될 수 있다. 예를 들어, 사용자에 의한 공포 혹은 스트레스에 대한 게임의 응답은 게이밍 프로세스에 연관된 태스크들을 용이하게 할 수 있다. 다른 한편으로, 다중-사용자 게임 내에서 표현된 스트레스는 패배(defeat)를 트리거하는데 이용될 있다. "실제" 사람의 감정들의 반영들은 아바타에 접속될 수 있으며, 여기서 아바터의 액션들 및 응답들은 감정 상태에 의해서 영향을 받는다. The device knowledge of user emotions can be used for identity verification as well as for regulating a wide range of applications. Emotion can be a powerful adjunctive input, especially for gaming. For example, a game's response to fear or stress by a user may facilitate tasks associated with the gaming process. On the other hand, the stress expressed in a multi-user game may be used to trigger a defeat. Reflections of "real" human emotions can be connected to the avatar, where actions and responses of the avatar are influenced by emotional states.
사용자 감정에 대한 지식이 가치있을 수 있는 다른 영역은, 합성 안면 표현들(synthetic facial expressions)의 생성을 수반하는 회의(conferencing) 분야이다. 텔레콘퍼런싱 동안에 비디오 스트리밍을 전송하는 것에 비하여, 하나 이상의 합성 얼굴을 생성하고 보여주는 것은 회의 장소들 간에서 요구되는 대역폭을 크게 감소시킬 수 있다. 합성 얼굴들을 보는 것과 관련되어 발생되는 문제점은 적절한 안면 표현들의 부재이다. 이것은 시청자들(viewers)의 일부에 "불편한" 감정을 생성하는 경향이 있다. 회의 콘텐트의 소스인 개인의 감정 상태(및 진정한 신원)에 대한 지식은, 보다 적절하고 그리고 동적인 합성 열굴 표현들이 생성될 수 있게 한다. 감정 상태들은(원하는 대로) 임의 개수의 수신인들 혹은 수신인들의 서브세트에 제한되거나 또는 폭넓게 브로드캐스트될 수 있다. Another area where knowledge of user emotion can be valuable is the field of conferencing, which involves the generation of synthetic facial expressions. Compared to transmitting video streaming during teleconferencing, creating and showing one or more composite faces can greatly reduce the bandwidth required between meeting locations. The problem that arises with regard to viewing composite faces is the absence of proper facial expressions. This tends to create "uncomfortable" feelings in some of the viewers. Knowledge of the emotional state (and true identity) of the individual, which is the source of the meeting content, allows for more appropriate and dynamic synthetic pyramid expressions to be generated. Emotional states may be limited or broadly broadcast to any number of recipients (or as desired) or to a subset of recipients.
합성 얼굴들 혹은 아바타들을 통해 재연되는 대인 상호작용들(interpersonal interactions)에서, 상호작용들을 한 쌍의 개인들 혹은 작은 그룹으로 분리하는 것이 또한 가능하다(심지어, 다른 아바타들의 "가상의" 존재 내에서). 이것은 특히 게이밍 및 텔레컨퍼런싱 어플리케이션들 둘다에서 유용하다. 방안에서의 개인들 간의 실제 대화와 유사하게, 동시에 발생하는 다수의 가상 대화들이 일어날 수 있는바, 예를들어, 실제 참가자들의 신원 또는 지리적 위치들에 제한됨이 없이, "가상의 눈 맞춤(virtual eye-to-eye contact)"을 포함하여, 다수의 가상 대화들이 일어날 수 있다. In interpersonal interactions replayed through synthetic faces or avatars, it is also possible to separate interactions into a pair of individuals or small groups (even in the "virtual" presence of other avatars ). This is particularly useful in both gaming and teleconferencing applications. Similar to the actual conversation between individuals in a room, multiple simultaneous virtual conversations can occur, for example, without limitation to the identity or geographical locations of the actual participants, such as "virtual eye quot; -to-eye contact ", < / RTI >
인지 부하(cognitive load)는 많은 감정 상태들에 대한 주요 기여자이다. 소정의 조명 조건들 하에서, 동공 지름은 인지 부하를 매우 반영한다. 따라서, 조명 조건들을 알고 있다면(조명 조건들은 장면 카메라 이미지들에서 관찰되는 전체적인 강도 레벨으로부터 평가될 수 있음), 동공 지름에서의 변화들을 관찰함으로써, 실질적으로 지속적으로 인지 부하를 평가하는 것이 가능하다. 감정 상태에 대한 지식과 유사하게, 입력으로서 인지 부하를 포함시키는 것은, 게임, 콘퍼런싱, 문서 리뷰의 속도(pace), 시험 문제들의 난이도의 비율 및/또는 레벨, 광고 유효성에 대한 평가, 외상후 스트레스 장애(post-traumatic stress disorder)를 포함하는 의학적 평가들, 이미지들을 보았을 때의 심리학적인 평가들(psychological assessments), 기타 등등을 포함하는 넓은 범위의 응용예들을 갖는다. Cognitive load is a major contributor to many emotional states. Under certain lighting conditions, the pupil diameter highly reflects the cognitive load. Thus, if the illumination conditions are known (the illumination conditions can be evaluated from the overall intensity level observed in the scene camera images), it is possible to evaluate the cognitive load substantially continuously by observing changes in the pupil diameter. Similar to the knowledge of the emotional state, including cognitive load as input may include game, conferencing, pace of document review, rate and / or level of difficulty of test questions, evaluation of ad effectiveness, Medical assessments including post-traumatic stress disorder, psychological assessments when viewing images, and so on.
눈을 보기 위한 다수의 카메라들과 결합되어 하나 이상의 장면 카메라들을 사용하는 것(즉, 사용자의 주변환경을 보는 것)은, 몰입형 환경(immersive environment)을 위한 보다 큰 가능성을 제공할 수 있다. 예를 들어, 게임 조작들에 있어서, 디바이스 착용자의 주변환경은, 아바타들의 주변환경(들) 내에 또는 게임 공간 내의 플레이어들의 다른 표현들 내에 투영될 수 있다. "실제 세계"에서의 머리의 움직임들 및/또는 객체들을 보는 것은, 가상 환경 으로 변환(translate)될 수 있다. 실제 및 가상 환경들의 변환은 3차원 "동굴(cave)" 투영 시스템 내의 디바이스 착용자에게 특히 효과적이지만, 대형의 디스플레이 스크린 혹은 다수의 디스플레이 스크린들을 이용하여 유사한 효과들이 획득될 수 있다. Using one or more scene cameras in combination with multiple cameras for viewing the eyes (i.e., viewing the user's environment) can provide greater possibilities for an immersive environment. For example, in game operations, the wearer's surroundings may be projected within the ambient environment (s) of the avatars or within other representations of the players in the game space. Viewing head movements and / or objects in the "real world" can be translated into a virtual environment. The conversion of real and virtual environments is particularly effective for device wearers within a three-dimensional "cave" projection system, but similar effects can be obtained using large display screens or multiple display screens.
다수의 장면 카메라들을 이용한 "주변환경적 콘텍스트(environmental context)"의 생성은 증가된 사용자 만족, 안전, 성능 향상, 기타 등등을 제공할 수 있다. 예를 들면, 관찰 중인 장소들을 하나 이상의 선택된 회의 참가자들에 의해서 실시간으로 보기 위하여, 회의 동안 이미지들의 방향을 조절하는 것이 가능하다. 개인(특히, 회의 참가자)이 무엇에 초점을 맞추고 있느니를 아는 것은, 상기 개인이 뭘 전달하고자 하는지를 해석하는데 큰 도움이 된다. 이와 반대로, 하나 이상의 청중 멤버들이 제공 중인 컨텐츠에 관심이 있는 것처럼 보이지 않음이 명백하다면, 이것은 컨텐츠를 변경할 단서가 된다. The creation of an "environmental context" using multiple scene cameras can provide increased user satisfaction, safety, performance enhancement, and so on. For example, it is possible to adjust the orientation of images during a meeting to view the places being viewed in real time by one or more selected conference participants. Knowing what an individual (especially a conference participant) is focusing on is a great help in interpreting what the person wants to convey. Conversely, if it is clear that one or more audience members do not appear to be interested in the content being served, then this is the clue to change the content.
CBID-기반의 안구-신호 디바이스 설정CBID-based eye-signal device setup
어플리케이션(들)에 따라, CBID-기반의 안구-신호 디바이스의 기능들이 수 많은 설정들에서 구현될 수 있다. 프로세싱 및/또는 인증은 자체-포함될 수 있거나 및/또는 원격으로 수행될 수도 있다. 인증이 아웃고잉 데이터에 적용될 수 있으며 및/또는 인커밍 데이터의 흐름을 제한할 수 있다. 디바이스 동작은 한명의 사람 또는 사람들의 그룹에 제한될 수 있으며 또는 제한이 없을 수도 있다. 디바이스 동작은 소정의 동작 조건들 하에서만 태스크들을 수행하도록 더 제한될 수 있다. 정보의 디스플레이는 디바이스 사용자 이외의 모든 사람들에게 숨겨질 수 있으며 또는 모든 사람들이 볼 수도 있다. 인증은 사용자 요청인 경우에만 적용될 수도 있으며 또는 일부 혹은 모든 데이터에 자동으로 적용될 수 있다. 다른 디바이스들의 안구 신호 제어는 개인에게, 개인들의 그룹에 국한될 수 있는 또는 제한이 없을 수도 있다. Depending on the application (s), the functions of the CBID-based eye-signal device can be implemented in a number of settings. The processing and / or authentication may be self-contained and / or performed remotely. Authentication can be applied to the outgoing data and / or the flow of incoming data can be limited. Device operations may be limited to one person or group of people, or may be unlimited. The device operation may be further limited to perform tasks only under certain operating conditions. The display of information can be hidden by everyone except the user of the device, or it can be viewed by everyone. Authentication may be applied only if it is a user request, or it may be automatically applied to some or all data. The eye signal control of other devices may or may not be limited to an individual, a group of individuals.
다음의 테이블은 설정들의 분류들의 일부 및 각각의 일례들을 열거한다. 안구 신호 디바이스 설정들을 설명하는데 이용되는 정의들 및 약어들은 다음과 같다.The following table lists some of the classifications of the settings and their respective examples. Definitions and abbreviations used to describe eye signal device settings are as follows.
IC - 홍채코드(irisCode): 생체 인증을 위해 홍채 내의 후생적 패턴들을 비교가능한 비트-패턴들로 수량화하도록 패턴 인식 기술들을 눈의 이미지들에 적용한 결과물. IC - iris code (irisCode): The result of applying pattern recognition techniques to images of the eye to quantify the welfare patterns in the iris into comparable bit - patterns for biometric authentication.
EIC - 암호화된(encrypted IC): 홍채의 오리지널 이미지 또는 임의의 다른 홍채-기반의 파생 파라미터로 역설계될 수 없도록 암호화된 홍채코드EIC - encrypted IC: an iris code encrypted so that it can not be back engineered with the original image of the iris or any other iris-based derived parameter
TEIC - 타겟 EIC: 식별된 EIC, 여기서 눈의 이미지로부터 계산된 IC와의 매칭은 관련성을 나타내며 따라서 우호적인 생체 인증을 나타낸다.TEIC - Target EIC: The identified EIC, where the matching with the IC calculated from the image of the eye is relevant and therefore represents a friendly biometric.
CBID - 지속적인 생체 인증: 생체 인증의 반복되는 프로세스, 이는 헤드셋 디바이스 상에서 수행될 수 있거나 또는 EIC들 혹은 하나 또는 양 눈의 이미지들을 원격 프로세서로 전송함으로서 원격으로 수행될 수 있다. CBID는 고정된 속도로(예컨대, 초당 30번) 또는 비동기화 속도(예컨대, 디바이스가 이동되고 그리고 재-마운트될 때만다)로 발생할 수 있다. CBID - Continuous biometric authentication: a biometric authentication iterative process, which can be performed on a headset device or remotely by sending EICs or images of one or both eyes to a remote processor. The CBID may occur at a fixed rate (e.g., 30 times per second) or asynchronous rate (e.g., only when the device is moved and re-mounted).
UUID - 범용 고유 식별자(universally unique identifier): 헤드셋 디바이스들을 포함하는 임의의 프로세싱 디바이스를 위한 펌웨어-인코딩된 고유 식별자(예컨대, 숫자 코드). UUID - universally unique identifier: A firmware-encoded unique identifier (e.g., a numeric code) for any processing device containing headset devices.
GPS - 글로벌 포지셔닝 시스템: 지구의 표면 인근의 임의의 곳에 있는 디바이스의 위치를 판별할 수 있는 위성-기반의 네비게이션 시스템. GPS - Global positioning system: A satellite-based navigation system that can determine the location of a device anywhere near the Earth's surface.
Determines if the user is on a no-fly list
"보기만 할것(eyes-only" viewing)"By a single individual
"Eyes-only" viewing "
사용자는 데이터 세트의 아무것도, 전부 또는 일부를 볼수 있다Confirmation of whether a data set (e.g., text) has been transmitted to a particular CBID user ' s display (e.g., monitor, phone, tablet)
The user can see any, all or part of the data set
Unlock / access other devices
연장된 개인 메모리With mutual identification
Extended Personal Memory
Local device control
Controls the home heater by the identified adult (ie, not the child)
전술한 테이블은 EICs의 전송 및 비교를 언급하고 있지만, 몇몇 경우들에 있어서 눈들의 이미지들을 ICs 로 그리고 후속으로는 EICs 로 변환하는 것이 알고리즘적으로 가능하다. 따라서, CBID는 홍채들의 이미지들, ICs, EICs, 또는 다른 유도된 파라미터들을 포함하는 정보의 비교들 및/또는 교환을 등가적으로 포함할 수 있다. 이와 유사하게, 생체측정 비교들을 위해 이용되는 데이터베이스들은 동등하게(식별을 위해서), ICs, EICs, 눈들의 이미지들, 얼굴(눈 포함)들의 이미지들, 홍채들의 이미지들, 눈의 해부학적 피처들, 소위 "언-폴디드(unfolded)"(즉, 극 좌표계로 표현된) 홍채 이미지들, 공막 내의 혈관들, 각막윤부, 또는 또 다른 캡춰된 혹은 유도된 파라미터들을 포함하는 눈의 다른 피처들의 이미지들을 포함한다. 따라서, EICs를 교환 혹은 비교하는 것은, 생체 인증을 위하여 임의의 다른 유도된 데이터 세트들을 교환 혹은 비교하는 것을 또한 지칭한다. While the above table refers to transmission and comparison of EICs, in some cases it is algorithmically possible to convert the images of the eyes to ICs and subsequently to EICs. Thus, the CBID may equivalently include comparisons and / or exchanges of information including images of iris, ICs, EICs, or other derived parameters. Similarly, the databases used for biometric comparisons are equally (for identification), ICs, EICs, images of eyes, images of faces (including eyes), images of irises, , Images of other features of the eye, including so-called "unfolded" (i.e., represented in polar coordinates), veins in the sclera, corneal limbus, or other captured or derived parameters . Thus, exchanging or comparing EICs also refers to exchanging or comparing any other derived data sets for biometric authentication.
홍채코드가 계산되면, 이것은 공지된 홍채코드들 및/또는 보충적인 생체측정들의 데이터베이스 내에서의 검색에 이용될 수 있다. 홍채코드(및 다른 측정들)의 매칭이 발견되면, 관련된 보정 팩터들(calibration factors) 및 다른 정보(사용자 이름, 나이, 성별, 등등)가 안구 추적 및 다른 동작들 동안에 이용되기 위해 헤드셋 디바이스로 다시 전송될 수 있다. 이러한 검색은 다수의 서로 다른 플랫폼 설정들에서 수행될 수 있다. Once the iris code is calculated, it can be used for searching in the database of known iris codes and / or supplementary biometric measurements. Once a match of the iris code (and other measurements) is found, the associated calibration factors and other information (user name, age, sex, etc.) are returned to the headset device for use during eye tracking and other actions Lt; / RTI > This search can be performed in a number of different platform configurations.
● 예를 들어, 헤드셋은 복수의(일반적으로는 적은 수의) 홍채코드들 및 보정 세트들(calibration sets)을 자체적으로 포함할 수 있는바, 따라서 가족의 임의의 멤버가 헤드셋을 이용할 수 있다. 홍채코드 생성, 검색, 및 매칭은 전적으로 헤드셋 상에서 수행된다. For example, a headset may itself include a plurality of (typically a small number of) iris codes and calibration sets, so that any member of the family can use the headset. The iris code generation, retrieval, and matching are performed entirely on the headset.
● 홍채코드 또는 홍채 이미지는 식별 및 매칭을 위해 특정한 원격 프로세서로 전송될 수 있다. 상기 프로세서는 예를 들어, 가정, 사업체, 학교, 극장 혹은 지리적 위치에서 헤드웨어 디바이스들의 세트를 서비스할 수 있다. An iris code or iris image may be sent to a specific remote processor for identification and matching. The processor may serve a set of headwear devices, for example, at home, business, school, theater or geographical location.
● 홍채코드 또는 홍채 이미지는 식별 및 매칭을 위해 클라우드로 전송될 수 있다. 식별된 사람의 데이터 세트들에 대한 클라우드-기반의 검색은, 개인과 관련된 보정 및 다른 데이터가 어디에서 언제든지 이용되는 임의의 헤드셋 디바이스를 위해 이용될 수 있게 한다. 보정 및 다른 데이터의 도움을 받지않는 검색(unaided retrieval)은, 사용자에게 임의의 웨어러블 디바이스의 "인스턴트 온(instant on)" 피처처럼 보일 것이다. 이러한 설정에 대한 전체적인 데이터 흐름이 도7에 도시된다. • An iris code or iris image can be sent to the cloud for identification and matching. A cloud-based search for the identified person's data sets makes it possible for personalized calibration and other data to be used for any headset device that is used anywhere and at any time. The unaided retrieval of the correction and other data will appear to the user as an "instant on" feature of any wearable device. The overall data flow for this setting is shown in FIG.
사용자 식별이 일단 확립되면, 하나의 디바이스 폼 팩터 상에서 수집된 보정 세트(calibration set)를 다른 디바이스 폼 팩터에 적용하는 것도 또한 가능하다. 예를 들어, 디바이스의 설계가 업그레이드되고 그리고 헤드셋 내의 카메라(들) 및 조명 소스(들)의 위치 및/또는 방위가 상기 업그레이드에 의해 영향을 받는다면, 오래된 및 업그레이드된 디바이스들 간의 알려진 변위들(displacements)이 보정 세트들에 부가될 수 있다. 이것은 동일하거나 또는 다른 폼 팩터들을 가질 수도 있는 다수의 웨어러블 디바이스들 사이에서 사용자가 하나의 보정 세트를 활용할 수 있게 한다. Once user identification is established, it is also possible to apply the calibration set collected on one device form factor to another device form factor. For example, if the design of the device is upgraded and the position and / or orientation of the camera (s) and illumination source (s) in the headset are affected by the upgrade, then known displacements displacements may be added to the calibration sets. This allows the user to utilize a single set of corrections between multiple wearable devices that may have the same or different form factors.
추가적인 실시예들에서, CBID는, Systems and Methods for Biomechanically-based Eye Signals for Interacting with Real and Virtual Objects 에 서술된 "안구 신호들" 또는 안구-신호 제어들을 가능 혹은 불가능하게 하는데 이용될 수 있다. 모든 안구 신호들 또는 안구 신호들의 서브세트의 성능은 CBID의 존재에 따라 만들어질 수 있다. 이러한 안구 신호들은 디바이스 착용자의 하나의 눈 혹은 2개의 눈들만으로 만들어진 안구 신호들 뿐마 아니라 실제 세계 혹은 다른 가상 객체들과의 상호작용이 있는 경우의 안구 신호들을 포함할 수 있다. 예를 들어, 안구 신호들은 디바이스 착용자의 손가락에 의해서 만들어진 제스처를 디바이스 사용자에 의해서 보는 것을(외부로 지향된 장면 카메라들을 이용하여) 포함할 수 있다. 이러한 제스처들은 CBID 조건들 하에서 배타적으로 유효해질 수 있다(즉, 행동을 초래한다).In further embodiments, the CBID can be used to enable or disable "eye signals" or eye-signal controls as described in Systems and Methods for Biomechanically-based Eye Signals for Interacting with Real and Virtual Objects. The performance of a subset of all eye signals or eye signals may be made according to the presence of the CBID. These eye signals may include eye signals made only by one or two eyes of the wearer of the device as well as eye signals in the case of interaction with the real world or other virtual objects. For example, eye signals may include looking at a gesture made by a finger of the wearer of the device (using outwardly directed scene cameras) by the device user. These gestures may be exclusively valid under the CBID conditions (i. E., Result in behavior).
또 다른 실시예에서, CBID-가능(CBID-enabled)) 액션들은, 식별된 개인(들)이 있는 시간들 또는 다른 식별된 객체들이 하나 이상의 장면 카메라들의 시야 내에 존재하는 시간들로 제한될 수 있다. 안면 인식, 객체 인식, 및/또는 다른 식별 형태들이, 디바이스 착용자 및 하나 이상의 다른, 식별된 개인들을 포함하는 이러한 객체들의 코-로케이션(co-location)을 검증하는데 이용될 수 있다. 액션들은 예를 들어, 이들 개인들의 존재에서만 수행되도록 제한될 수 있다. In yet another embodiment, CBID-enabled) actions may be limited to times when the identified individual (s) or other identified objects are within the field of view of one or more scene cameras . Face recognition, object recognition, and / or other identification types can be used to verify the co-location of these objects, including the wearer of the device and one or more other, identified individuals. Actions may be limited to being performed only in the presence of these individuals, for example.
대안적으로는, 하나 이상의 다른 개인들의 존재 및/또는 승인이, 개인(들)이 착용한 또 다른 CBID-기반 디바이스에 의해서 수행될 수 있다. 이 경우, 개인(들)은 다른 디바이스-식별된 개인들과 함께 코-로케이트될 수 있으며, 또는 디바이스들 사이에서 직접적으로 전송된 인증(선택적으로는 데이터 전송 디바이스들을 개재시키는 것을 포함하여) 또는 보다 중앙집중화된(예컨대, 클라우드-기반의) 인증 서비스들을 통해 전송된 인증과 함께 원격으로 위치(remotely located)할 수도 있다. 코-로컬라이즈드(co-localized) 개인들의 경우, 인증 자격들(authentication credentials)의 전송은 바람직하게는, 근접장 통신(near field communication: NFC)으로 더 제한될 수 있다(즉 다른 데이터 전송 디바이스들의 사용은 배제한다). Alternatively, the presence and / or approval of one or more other individuals may be performed by another CBID-based device worn by the individual (s). In this case, the individual (s) may be co-located with other device-identified individuals, or they may be authenticated (including intervening data transmission devices) directly transmitted between the devices Or remotely located with authentication sent via more centralized (e.g., cloud-based) authentication services. In the case of co-localized individuals, the transmission of authentication credentials may preferably be further limited to near field communication (NFC) Use is excluded).
이와 반대로, 디바이스 착용자의 주변환경 내에서의 인증되지 않은 개인의 존재 및/또는 액션의 수행 동안에 존재하지 않도록 특별히 지정된 하나 이상의 식별된 개인들은, 디바이스가 임의의 액션 또는 가능한 액션들의 서브세트를 수행하는 것을 금지할 수 있다. 이러한 금지는 특정 헤드셋 디바이스들(예컨대, 전송 동안에 UUID에 의해서 식별된), 카메라들, 마이크로폰들, 적대적 출현(hostile appearance)(예컨대, 군사적 혹은 치안 유지 상황들에서), 기타 등등을 포함하는 임의의 객체들의 존재를 주변환경에서 배제하도록 확장될 수 있다. In contrast, one or more identified individuals specifically designated to be absent during the performance of an action and / or the presence of an unauthenticated individual within the wearer ' s perimeter environment may be used by the device to perform any action or subset of possible actions Can be prohibited. This prohibition may be applied to any of a variety of wireless devices including certain headset devices (e.g., identified by a UUID during transmission), cameras, microphones, hostile appearance (e.g., in military or policing situations) Can be extended to exclude the presence of objects from the surrounding environment.
이와 유사하게, 액션의 수행 및/또는 디바이스 착용자의 주변환경 내에서 객체(사람을 포함)의 존재는, 능력을 일시적으로 또는 영구적으로 폐지하는 원인이 될 수 있으며, CBID에 기초한 액션들을 향기롭게 하는 권한을 폐지하는 원인이 될 수 있다. 폐지(revocation)는 또한 원격 소스로부터의 명령들에 기초하여 수행될 수 있는데, 원격 소스는 예를 들어, 사기 행위들(fraudulent activities)이 수행되었는지 또는 수행 중인지를 판별할 수 있다. 인증자격들을 철회하는 것은, 개인, 개인들의 그룹, 디바이스, 특정 기능 또는 기능들의 그룹으로 제한될 수 있다. Similarly, the performance of an action and / or the presence of an object (including a person) in the environment of the wearer of the device may cause the capability to be temporarily or permanently abolished, and the ability to fragrant CBID- May be the cause of the abolition. Revocation can also be performed based on commands from a remote source, which can determine, for example, whether fraudulent activities are being performed or are being performed. Revocation of authentication credentials may be limited to individuals, groups of individuals, devices, certain functions or groups of functions.
CBID-가능한, 보안 구매 거래들(CBID-Enabled, Secure Purchasing Transactions)CBID-Enabled, Secure Purchasing Transactions (CBID-Enabled)
보안 쇼핑의 또 다른 일례에서, 디바이스 착용자의 신원에 대한 실시간 지식은, 각각의 물품(item)이 선택 및 구매될 때마다 금융 세부사항들(financial particulars)이 전자적으로 교환될 수 있게 한다. 이것은, 각각의 거래 혹은 거래들의 그룹에 대하여, 패스워드들, 보안 질문들, 혹은 계좌 정보를 반복적으로 입력할 필요를 제거한다. 결과적으로, 이러한 즉각적인 구매 시스템은 소위 온라인 쇼핑 "카트들"에 연관된 프로세스들을 제거하는데, 왜냐하면 계좌 정보를 입력하기 위한 목적으로 물품들을 모을(cluster) 필요가 없기 때문이다(도8 참조). 오직 고객의 편의를 위하여, 온라인 쇼핑 세션 동안에 구매된 물품들의 그룹들이 클러스터로 취급될 수 있으며 또는 구매자에게 요약될 수 있다. In another example of secure shopping, the real-time knowledge of the identity of the wearer of the device allows financial particulars to be electronically exchanged each time an item is selected and purchased. This eliminates the need to repeatedly enter passwords, security questions, or account information for each transaction or group of transactions. As a result, this immediate purchasing system eliminates the processes associated with so-called online shopping "carts " because there is no need to cluster the items for the purpose of entering account information (see FIG. 8). For customer convenience only, groups of items purchased during the online shopping session may be treated as clusters or summarized to the buyer.
도8은 CBID-인가된 온라인 구매를 수행하는 단계들의 시퀀스를 예시한다(온라인 "카트"에 물품들을 모을 필요가 없음). 구매될 물품이 식별되는 때(2900), 구매하고자 하는 소망을 나타내도록 안구 신호(2910)가 실행될 수 있다. 구매될 물품이 확인되면(2910), CBID-기반의 홍채코드(2930)가 인증된 구매자들에 속하는 홍채코드들의 데이터베이스(2940)와 비교된다(2950). 매칭이 판별된다면(2950)(그리고 충분한 자금, 허가들 등이 이용가능하다면), 구매 거래가 수행된다(2960). 이후, 디바이스 착용자는 추가 물품들(2900)에 대한 쇼핑을 계속할 수 있으며, 구매 프로세스는 임의 횟수만큼 반복될 수 있다. FIG. 8 illustrates a sequence of steps for performing a CBID-authorized online purchase (it is not necessary to collect items in an online "cart "). When an item to be purchased is identified 2900, an
다른 실시예에 따르면, 보안성을 강화하고 그리고 소위 "브릭 앤 모르타르(brick and mortar)" 소매 아울렛(retail outlets)에서의 간소화된 쇼핑(streamline shopping)을 강화하기 위한 시스템들 및 방법들이 제공된다. 이 경우, 디바이스 착용자의 주변환경을 보도록 헤드웨어 디바이스에 마운트된 카메라가, 구매의 관심 대상이 될 수 있는 객체들을 식별하는데 이용될 수 있다. 이러한 식별은, 구매가능한 물품들에 통상적으로 붙어있는 바코드 또는 quick-response(QR) 코드에 기초할 수 있다. 이러한 객체 식별은 해당 기술분야에 잘 알려진 이미지 프로세싱 방법들을 이용한다. According to another embodiment, systems and methods are provided for enhancing security and for enhancing streamline shopping in so-called "brick and mortar" retail outlets. In this case, a camera mounted on the headwear device may be used to identify objects that may be of interest to purchase, so as to view the environment of the wearer of the device. This identification may be based on a bar code or quick-response (QR) code typically attached to commercially available items. Such object identification uses image processing methods well known in the art.
제안된 구입 가격을 포함하는 물품에 대한 정보는 소매 아울렛에 관련된 프로세싱 유닛에 의해서 생성될 수 있다. 이러한 정보는 인근의 모니터들에 또는 디바이스 착용자와 관련된 헤드-마운트된 디스플레이에 표시될 수 있다. 만일 고객이 소저의 물품을 구매하기를 원한다면, CBID-기반의 거래가 고객에 의해서 개시될 수 있다. 이러한 거래들은 가게 전체에 걸쳐서 반복적으로 일어날 수 있다. 배달된 물품들과 거래 기록 사이에서의 매칭은, 상기 물품들이 고객에 의해서 상점으로부터 검증될 수 있게(verifiably) 제거되게 할 수 있다. CBID-기반의 소매점 구매들은 계산대 혹은 금전출납기가 필요없게 한다. 많은 경우들에 있어서, 구매 프로세스 동안의 자동화된, 실시간 정보의 디스플레이는 또한, 잠재적인 고객들을 도와주기 위한 가게 점원들의 필요성을 감소시킨다. Information about the article containing the proposed purchase price can be generated by the processing unit associated with the retail outlet. This information may be displayed on nearby monitors or on a head-mounted display associated with the device wearer. A CBID-based transaction may be initiated by the customer if the customer wishes to purchase the item's goods. These transactions can happen repeatedly throughout the store. A match between the delivered items and the transaction record may cause the items to be verifiably removed by the customer from the store. CBID-based retail purchases eliminate the need for cash registers or cashiers. In many cases, the display of automated, real-time information during the purchasing process also reduces the need for store clerks to help potential customers.
CBID 접근법의 특정한 예시적인 구현예는 안구-신호 방법들 또는 프로세스들을 이용한 "통로에서 구매(buy at the aisle)" 이며, 이는 "룩 투 바이(look to buy)" 이라고 지칭된다. 이 경우, 구매 프로세스는 물품과 관련된 식별 심볼(예컨대, 바코드, QR 코드) 또는 구매될 물품의 객체 식별자를 응시하고, 그리고 구매 활성화 시퀀스를 실행하는 것으로 구성된다. 식별 심볼들은 물품 또는 그것의 포장에 물리적으로 부착될 수 있으며, 또는 물품과 관련된 사이나지(signage)에 있을 수도 있다(예를 들어, 통 안에 있는 벌크 물품들과 관련하여). 구매 활성화 시퀀스는 다음의 단계들의 임의의 조합을 포함할 수 있다. A particular exemplary implementation of the CBID approach is "buy at the aisle" using eye-signal methods or processes, which is referred to as "look-to-buy ". In this case, the purchasing process consists of looking up an identification symbol (e.g., bar code, QR code) associated with the item or an object identifier of the article to be purchased, and executing a purchase activation sequence. The identification symbols may be physically attached to the article or its packaging, or may be in a signage associated with the article (e.g., in connection with bulk articles in the barrel). The purchase activation sequence may include any combination of the following steps.
● 식별 심볼(들) 또는 객체 인식(object recognition)을 인덱스로 디코딩하며 상기 인덱스는 물품에 대한 정보를 데이터베이스로부터 검색하는데 이용된다. Decode the identification symbol (s) or object recognition with an index, which is used to retrieve information about the item from the database.
● 상기 물품에 대한 가격을 포함하는 정보를 (HMD 또는 원격 디스플레이 디바이스 상에) 디스플레이한다. Display information (on the HMD or remote display device) containing the price for the item.
● 안구 신호들 및/또는 다른 상호작용 수단들을 이용하여, 선택적으로는, 구매자가 원하는 임의의 추가적인 정보(예컨대, 세부사항들, 유사한 물품들의 이용가능성, 품질보증 정보)를 선택 및 공급한다. (E. G., Availability of similar items, quality assurance information) desired by the buyer using eye signals and / or other interacting means.
● 선택적으로는, 가격을 협상한다. Optionally negotiate price.
● 구매가 요청되었음을 안구 신호 시퀀스를 이용하여 표시한다. ● Use the eye signal sequence to indicate that a purchase has been requested.
● 식별된 디바이스 사용자가 인증되었으며 그리고 구매를 하기에 충분한 자금을 갖고 있음을, CBID를 이용하여 보장한다. ● Ensure that the identified device user is authenticated and has sufficient funds to make purchases using CBID.
● 보안 텔레커뮤니케이션을 이용하여 구매 프로세스를 실행한다. ● Execute the purchasing process using secure telecommunications.
● 구매가 완료되었다라는 사용자 피드백을 제공한다. ● Provide user feedback that the purchase is complete.
● 상기 물품을 텔리(tally) 또는 상점으로부터 내보내질 수 있는 물품들의 "가상 카트"에 부가한다. ● Add the article to a "tally" or "virtual cart" of articles that can be exported from the store.
● 유사한 단계들을 이용하여 추가 구매를 수행한다. • Perform additional purchases using similar steps.
● 실제 물품들 또는 이들의 등가물들이 가까운 미래에 내보내지거나 혹은 배달될 수 있도록, 상점으로부터 물품을 물리적으로 내보내거나 또는 구매된 물품에 가상으로 "태그" 한다. • physically "out" or "physically" export the item from the store so that the actual items or their equivalents can be exported or delivered in the near future.
● 임의의 금전 등록기(cash register) 없이, 가게로부터 내보내질 물품들에 대한 허가가 시각적인 검사에 의해서 혹은 자동적으로(예컨대, RFID 방법을 이용하여) 검증될 수 있으며, 이는 모든 물리적인 물품들이 가상 구매 카트에 있는 물품들과 매칭되는 것을 보장한다. ● Permissions for goods to be exported from the store can be verified by visual inspection or automatically (eg, using the RFID method), without any cash register, Ensure that the items in the cart are matched.
이러한 "룩 투 바이(look to buy)" 프로세스는 다음과 같은 장점들을 갖는다. This "look to buy" process has the following advantages.
● 물품을 응시하면 이용가능한 상세한 정보가 디스플레이를 통해 제공되므로, 가게 점원들과 상호작용할 필요성이 크게 감소하며, 이는 가게 점원들에 대한 필요성을 감소하거나 일소할 수 있다. ● The ability to interact with store clerks is greatly reduced since the available detailed information is provided through the display, which can reduce or eliminate the need for store clerks.
● 구매 정보가 중앙 데이터베이스에서 저장 및 액세스되므로, 가격 등과 같은 중요 요소들이 즉각적으로 조정될 수 있으며, 심지어 물품마다(item-by-item basis) 구매자와 협상될 수도 있다. • Purchasing information is stored and accessed in a central database, so that key elements such as pricing can be adjusted immediately and even negotiated with the buyer on an item-by-item basis.
● 구매 프로세스를 실행하기 위한 소매 인프라스트럭처(retail infrastructure)(즉, 하드웨어)가 최소화되거나 또는 존재하지 않을 수도 있다(왜냐하면, 구매자가 주요 하드웨어를 공급하기 때문에). 이와 유사하게, 소매 하드웨어 유지관리 또는 업그레이드가 필요없다. • The retail infrastructure (ie, hardware) to implement the purchasing process may be minimized or non-existent (because the buyer supplies key hardware). Similarly, no retail hardware maintenance or upgrades are required.
● "룩 투 바이(look to buy)" 구매들의 경우, 금전 등록기 또는 계산대(이들을 운영하는 종업원들을 포함하여)가 필요없다. • For "look-to-buy" purchases, there is no need for a cash register or checkout counter (including those who run them).
● 구매자에 의해서 물품이 특별하게 응시(specifically viewed)될 때에 구매가 이루어지므로, 유사하게 바라보거나 또는 기능할 수도 있는 물품들에 관한 애매모호함이 존재하지 않는다. There is no ambiguity about items that may look or function similarly, since purchases are made when the goods are specifically viewed by the purchaser.
● 구매된 모든 물품들이 개별적으로 식별되기 때문에, 인벤토리 제어(inventory control)가 완전 자동화될 수 있다. ● Since all purchased items are individually identified, inventory control can be fully automated.
● "룩 투 바이" 는 또한, 전통적인 소매 구매 방법과 함께 공존할 수 있다. • "Look to Buy" can also co-exist with traditional retail purchasing methods.
"룩 투 바이"의 보다 일반화된 일례는 "세계가 너의 상점(world is your store)" 이다. 이 경우, 객체 인식이 이용되어 구매할 물품들이 식별되며, 이들은 사용자의 주변환경 내에 그냥(simply) 보여진다. 이것은 안구 신호들 및 사용자의 주변환경에서의 시선 추적을 이용하여 특별하게 관찰되는 객체들에 기반될 수 있다. 일례로서, 상점 안의 드레스 또는 다른 사람이 입고 있는 드레스가 관찰된다면, 객체 인식을 이용하여, 상기 드레스를 구매하기 위한 하나 이상의 온라인 소스들이 식별될 수 있으며, 이후 실제 세계에서 이와 같이 보여진 객체, 표지판 상에 묘사된 것, 또는 디스플레이 상에 보여지는 것(예를 들어, 텔레비젼 광고 동안에)에 대한 인식에 주로 기초하여 즉각적인 구매가 이루어질 수 있다. A more generalized example of "Look To Buy" is "world is your store". In this case, object recognition is used to identify the items to purchase and they are simply shown in the user's surroundings. This can be based on eye signals and objects that are specifically observed using eye tracking in the user's environment. As an example, if a dress in a shop or a dress worn by another person is observed, one or more online sources for purchasing the dress can be identified using object recognition, and then the object, An instant purchase can be made mainly based on the perception of what is depicted on the display, or what is shown on the display (e.g., during a television commercial).
"세계가 너의 상점(world is your store)" 구매는, 온라인 구매와 유사한 방식으로 진행될 수 있다. 주요한 차이점은, 구매될 객체의 세부사항(specification)이 객체 인식에 기초하여 만들어지는 점이며, 선택적으로는 객체에 부착된 임의의 식별 태그(예컨대, 바코드, QR 코드)를 응시 및 등록함에 의해서 증강될 수 있다. 또한, 이러한 세부사항은 선택적으로는, 디바이스 사용자와의 상호작용에 의해서 도움을 받을 수 있다. 예를 들어, 객체의 중요 부분이 관찰되지 않았다면, 객체의 신원을 보다 완전하게 그리고 고유하게 알아내기 위하여, 사용자는 객체들을 볼 수 있으며 그리고 객체들과 상호작용할 수 있다. 일례로서, 드레스의 구매는, 원래는 전면이 보여졌던 드레스의 후면을 볼 필요가 있을 수 있다. 사용자는 상호작용형 프로세스(interactive process)를 통하여 후면을 보도록 조언을 받을 수 있다. 텍스트, 그래픽 정보, 지시 정보, 혹은 사용자의 시야 내에서 덧대어진 "증강 현실" 정보를 사용자에게 제공하는 상호작용형 대화(interactive dialogue)는, 사용자의 결정 프로세스를 용이하게 할 수 있는바, 이는 물질들, 능력들, 성능들, 품질, 순위들(ratings), 친구들에 의한 사용후기, 가격, 선적 시기, 기타 등등과 관련된 안구 신호들을 통해 정보를 상호작용적으로 제공한다. 또한, 이러한 대화는 사용자 신원, 특정 정보에 관한 사용자 행위들의 블록 트랙킹(block tracking), 기타 등등을 검증하기 위하여, 실질적으로 지속적인 혹은 간헐적인 사용자 인증을 요구받을 수 있다. 또한, 상기 구매는, 신원, 과거 거동들, 성능, 선호사항들, 및 욕구들, 가령 디바이스 사용자의 드레스 사이즈 기타 등등과 관련되는 개인적인 기초 정보의 데이터베이스에 대한 액세스를 포함할 수 있다. 온라인 구매들 동안에서 처럼, 구매(들)을 위한 인증은 CBID에 기초한다. 물건(들)은 사용자와 관련된 주소로 배송될 수 있다. "World is your store" purchases can be processed in a similar way to online purchases. The main difference is that the specification of the object to be purchased is made on the basis of object recognition and can optionally be enhanced by staring and registering any identification tag (e.g., bar code, QR code) . In addition, these details may optionally be assisted by interaction with the device user. For example, if an important part of an object has not been observed, the user can see and interact with the objects to more completely and uniquely identify the identity of the object. As an example, purchasing a dress may need to look at the back of the dress where the front was originally seen. The user can be advised to look at the rear through an interactive process. An interactive dialogue that provides the user with text, graphical information, directional information, or "augmented reality" information padded within the user's field of view can facilitate the user's decision process, Interactively provide information through ocular signals associated with the capabilities, abilities, performance, quality, ratings, reviews by friends, prices, timing of shipment, and so on. In addition, such conversations may be subject to a substantially continuous or intermittent user authentication in order to verify user identity, block tracking of user actions on specific information, and so on. The purchase may also include access to a database of personal basic information related to identity, past behavior, performance, preferences, and desires, such as a device user's dress size, and so on. As during online purchases, the authentication for the purchase (s) is based on the CBID. The item (s) may be shipped to an address associated with the user.
대안적으로는, 장소들 혹은 개인들에 대한 자동 인식에 기초하여 배송 위치들이 또한 특정될 수도 있다. 예를 들어,디바이스 사용자에 의해서 보여지고 있는 사람과 연관있는 개인 주소로 배송이 이루어질 수 있다. 또한, 디바이스 착용자와 관련된 장소에 대한 인식 혹은 세부사항(예컨대, GPS를 이용한)에 기초하여, 배송이 특정될 수 있다. 장소 인식은 예를 들어, 거리 표지판 혹은 빌딩에 대한 객체 인식에 기초할 수 있다.Alternatively, delivery locations may also be specified based on automatic recognition of locations or individuals. For example, a delivery can be made to a personal address associated with the person being viewed by the device user. Delivery can also be specified based on the perception or details of the location associated with the wearer of the device (e.g., using GPS). Place recognition can be based, for example, on object recognition for street signs or buildings.
다른 CBID-가능한 보안 어플리케이션들(Other CBID-Enabled Secure Applications)Other CBID-Enabled Secure Applications
또 다른 실시예에 따르면, 중요한 정보가 원치않는 수신자들에 가는 것을 방지하면서, 디바이스 착용자와 보안 정보의 소스 사이에서 보안 데이터의 교환을 제어하는 장치,시스템 및 방법들이 제공된다. 전송된 데이터에 대한 액세스를 획득하고자 시도하는 최고 레벨들의 전문성에서, 잠재적인 공격 매커니즘은 CBID 시스템과 보안 서버 사이의 양-방향 통신을 모방하기를 시도하는 것이 될 것이다. 이러한 이유로, CBID 시스템과 임이의 원격 컴퓨터 사의 통신들은 암호화된다. 암호 키는 제조된 각각의 헤드웨어 시스템, 타겟 홍채코드에 할당되는 고유 식별 코드를 포함할 수 있으며, 그리고 시간/사용-감지형이 될 수 있다. 전술한 바와 같이, CBID 시스템 내의 암호 및 암호-해독 프로세스들은 또한 하드웨어 요소들를 포함할 수 있는데, 이들 하드웨어 요소들은 액세스하기 어려우며, 전송된 데이터의 보안성을 더욱 증가시킨다. According to yet another embodiment, apparatus, systems and methods are provided for controlling the exchange of secure data between a device wearer and a source of security information, while preventing sensitive information from going to unwanted recipients. In the highest level of expertise attempting to gain access to the transmitted data, the potential attack mechanism will attempt to mimic the bi-directional communication between the CBID system and the security server. For this reason, the communications of the remote computer with the CBID system are encrypted. The cryptographic key may comprise a respective headware system manufactured, a unique identification code assigned to the target iris code, and may be time / use-sensitive. As described above, the encryption and decryption processes within the CBID system may also include hardware components that are difficult to access and further increase the security of the transmitted data.
안구-신호 제어 시퀀스들이 인증(authentication)을 이용하는 행동들의 일례들은 현금 자동 입출금기(ATM)로부터 현금을 인출하는 것, 온라인 구매들을 하는 것, 신원에 의해서 확인 안구-신호 시퀀스를 이용하여 서명될 수 있는 전자 서명들을 필요로 하는 문서들, 온라인, 개인, 그룹, 혹은 또 다른 테스팅 중 임의 형태의 테스팅 동안에 신원 검증 요건들(identity verification requirements)을 준수하는 것, 가령, 전문 운전, 조종(piloting) 또는 다른 운송수단 등과 같은 여러 형태의 고용을 위하여 신원과 결부된 성능 요건들(performance requirements)을 준수하는 것, 구두로 제공되거나 또는 사용자에 의해서 읽혀진 통보받은 동의(consent)에 대한 수신확인(confirming acknowledgement)(이에 따라 판독 동안의 단속성 행동(saccadic activity) 동안에 실질적으로 지속적인 신원 확인이 발생한다), 임의의 법적 구속력이 있는 합의를 수신확인하는 것, 임상 시험(clinical trial) 또는 다른 의학 연구, 처치 혹은 테스트 프로그램을 위해 데이터를 수집하는 동안에 신원 검증 요건들을 준수하는 것, 독서, 체크-인, 수행을 요구하는 임의의 법원-명령된 행위 동안에 또는 가석방(parole), 보호관찰(probation), 혹은 감옥 또는 다른 형태의 수용시설 내의 죄수들에 의한 거동 동안에 신원 검증 요건들을 준수하는 것, 정부에서 모니터링하는 직원들, 에이전트들, 또는 운수보안국(Transportation Security Administration) 훈련 혹은 활동들, 전투 또는 정보 교육 활동들(intelligence training activities), 인구조사 훈련 혹은 활동들(census training or activities)을 포함하는 업무들의 수행 동안에 모니터링 혹은 테스트되는 군인들에 대한 신원 검증 요건들을 준수하는 것, 사용자가 핸드라이팅 프로세스의 캡춰와 연관되는 안구-신호들을 사용하는 사례들을 포함하는 핸드라이팅(handwriting) 동안에 신원을 확인하는 것, 안구-신호 개시 및 상호작용을 포함하는 경쟁적인 혹은 전문적인 비디오 게임 플레이 동안에 신원을 확인하는 것, 체중 감량, 스포츠 훈련, 공포증 극복, 웅변, 금연, 재활 프로그램을 포함하는 개인적인 자기-개발 프로그램 동안에 신원을 확인하는 것, 정보에 대한 안구-신호 구동 캡춰 혹은 레코딩 동안에 신원을 태그하는 것(상기 정보에 대한 개인 신원 확인된 후속 액세스를 위해), 검증될 수 있게 식별가능한(verifiably identifiable) 당사자들이 정보 공유를 선택하는 상호 응시(mutual gaze)의 사례들과 관련된 정보 공유에 참여하도록 신원을 확인하는 것을 포함할 수 있다. Examples of behaviors in which eye-signal control sequences utilize authentication include withdrawing cash from ATMs, making online purchases, verifying by identity, using eye-signal sequences, Compliance with identity verification requirements during any type of testing of documents requiring electronic signatures, online, personal, group, or other testing, for example, professional driving, piloting or other Compliance with the performance requirements associated with the identity for various forms of employment, such as transportation, etc., confirmation acknowledgment of the consent received orally or read by the user Thereby, a substantially continuous identification occurs during the saccadic activity during the reading. ), Acknowledging any legally binding agreements, observing identity verification requirements while collecting data for clinical trials or other medical research, treatment or testing programs, reading, checking-in , Any court requiring action - to comply with identity verification requirements during an ordered act or during a behavior by a parole, probation, or prisoner in prison or other form of receiving facility; Including, but not limited to, monitoring staff, agents, or Transportation Security Administration training or activities, combat or intelligence training activities, or census training or activities. Compliance with identity verification requirements for soldiers monitored or tested during the performance of the Identification during handwriting, including instances of using eye-signals associated with capture of the process, identification during competing or professional video game play involving eye-signal initiation and interaction, Identifying during a personal self-development program that includes identifying, weight loss, sports training, phobia overcome, speechlessness, smoking cessation, rehabilitation programs, tagging the identity during eye- (For personally identifiable follow-up access to the information), verifiably identifiable Participants in information sharing related to cases of mutual gaze in which the parties choose to share information ≪ / RTI >
또 다른 실시예에 따르면, 컴퓨팅 디바이스들에 대한 통상적인 패스워드-기반의 액세스를 대체하거나 혹은 증강시키는 장치들, 시스템들, 및 방법들이 제공된다. 이러한 시스템은 패스워드 및/또는 보안 질문들에 비하여, 우수한 보안성을 제공할 수 있다. 이것은, 사용자 신원(즉, 개인별로 완전히 고유함)에 대한 생체측정의 본질로 인한 결과일 뿐만 아니라, 자체 완비된 시스템(self-contained system) 내에서 실질적으로 지속적으로 디바이스 착용자를 완벽하게 모니터링할 수 있는 능력으로 인한 결과이다. 상기 시스템은, 대략 매초 마다, 또는 가능하다면, 안구 신호의 형성들 또는 실제 혹은 가상 환경에서 생물 혹은 무생물 엔티티들 및 행위들을 관찰하는 것을 포함하는 다른 안구-활동들 동안의, 단속 운동들(saccades), 마이크로 단속 운동들(micro-saccades) 동안에 충분히 재-검증할 수 있을 정도로 빠른 샘플링 레이트들을 포함하는 임의의 원하는 빈도로, 디바이스 착용자의 신원을 실질적으로 지속적으로 재-검증하도록 설계된다. 패스워드 입력 다음에 사용자가 (공공연하게, 또는 의도치 않게) 대체될 수도 있는 전통적인 패스워드 입력과 달리, CBID 기반의 컴퓨터 액세스 시스템은 우호적인 디바이스-착용자의 신원이 손실되면 그 즉시 보안 동작들을 중단시킬 수 있다. According to yet another embodiment, devices, systems, and methods are provided for replacing or augmenting conventional password-based access to computing devices. Such a system can provide superior security compared to password and / or security questions. This is not only a result of the nature of the biometrics of the user identity (i. E., Completely unique to the individual), but also the ability to seamlessly monitor the device wearer substantially continuously within its self- contained system It is the result of the ability. The system may be adapted to perform saccades during different eye-activations, including observing biological or inanimate entities and behaviors, approximately every second or, if possible, in formations of the ocular signal or in a real or virtual environment. , And is designed to substantially re-verify the identity of the wearer of the device substantially at any desired frequency, including sampling rates that are sufficiently high to be re-verifiable during micro-saccades. Unlike traditional password input, which may be replaced by a user (either openly or unintentionally) after entering a password, the CBID-based computer access system can immediately stop security operations if a friendly device-wearer's identity is lost have.
또 다른 실시예에 따르면, 소위 "디지털" 혹은 "전자" 서명들의 보안성 및 편의성을 향상시키는 장치들, 시스템들 및 방법들이 제공된다. 전자 서명들은 1) 메시지 혹은 문서의 소스는 알고있는 전송자로부터 온 것이다, 2) 전송자는 메시지 전송을 나중에 부인할 수 없다, 및/또는 3) 메시지는 수송 중에 변경되지 않았다라는 것을 나타내기 위해 다양한 암호화 기술들을 사용한다. CBID-기반의 디지털 서명의 생성은, 메시지의 진정한 소스로서 고유한 개인을 검증할 수 있는 추적가능한(traceable) 방법을 제공한다. 디지털 서명의 일례들은 간단한 생체 인증, 아티팩트(artifact)를 형성하기 위한 가령, 타이핑, 글쓰기(writing), 말하기(speaking) 등의 개인에 대한 임의 형태의 생산적인 창작물(productive creation)을 포함하며, 그 결과 사용자의 시선은 실질적으로 지속적인 생체 인증과 동시에, 생산 행위에 포커싱될 수 있다. According to yet another embodiment, devices, systems and methods are provided that enhance the security and convenience of so-called "digital" or "electronic" signatures. The digital signatures are used to indicate that 1) the source of the message or document is from a known sender, 2) the sender can not deny the message transmission at a later time, and / or 3) Lt; / RTI > The generation of a CBID-based digital signature provides a traceable way to verify a unique individual as a true source of the message. One example of a digital signature includes any form of productive creation for an individual, such as simple biometrics, typing, writing, speaking to form an artifact, As a result, the user's gaze can be focused on the production behavior, as well as the substantially continuous biometric authentication.
또한, 디바이스의 착용자의 신원을 실질적으로 지속적인 검증하는 것은, 추적가능한 문서들의 연속적인 시리즈가 생성될 수 있게 한다. 만일, 이러한 전자적으로 서명된 문서들이 법적 구속력이 있는 것으로 받아들여진다면, 법적 문서들을 빠르게 교환할 수 있는 능력은, 많은 전문적인 서비스 제공자들이 그들의 서비스들 중 더 많은 것이 온라인에서 안전하게 수행될 수 있게 한다. 이러한 서비스 제공자들의 일례들은, 금융 자문가들, 보험 회사들, 법률가들, 원격 진료 기반의 의료 진단들 및 처방들과 관련된 의사들 및 부동산 세일즈를 포함한다. In addition, verifying substantially the identity of the wearer of the device allows a continuous series of traceable documents to be generated. If these electronically signed documents are accepted as legally binding, the ability to quickly exchange legal documents allows many professional service providers to ensure that more of their services are performed securely online . Examples of such service providers include financial advisers, insurance companies, lawyers, physicians related to telemedicine-based medical diagnostics and prescriptions, and real estate sales.
통신 링크(155)는 유선 이더넷 또는 가령, IEEE 802.11에 서술된 통신 프로토콜들, 블루투스, 지그비(Zigbee) 등의 무선 기술들 그리고 LTE, GSM, CDMA, 및 GPPRS 등과 같은 모바일 폰 통신 프로토콜들을 포함할 수 있다. 통상적으로는, 다수의 통신 매체들 및 프로토콜들이, 착용자 신원 상태 및 다른 데이터를 원격의 보안 프로세싱 유닛으로 전송하는데 연관될 수 있다. 예를 들어, 헤드웨어 디바이스 및 로컬 라우터 사이에서는 무선 통신(예컨대, IEEE 802.11)이 이용될 수 있으며, 로컬 라우터는 소위 트위스트-페어 유선 시스템(twisted-pair wired system)을 통해 패킷들을 전송하며, 트위스트-페어 유선 시스템은 광 섬유 케이블을 통해 멀리 떨어져 있는 중앙 수신 프로세싱 유닛(예컨대, 서버 시스템)으로 데이터를 전송한다. The
일부 어플리케이션들에서는, 외부 프로세싱 유닛으로의 보안(즉, 암호화된) 정보의 단방향 소싱과 결부되어, 디바이스 착용자의 신원에 대한 검증을 요구한다. 온라인 구매를 하기 위하여 신용 카드 혹은 계좌 정보를 입력하는 것은 이러한 모드의 예시적인 어플리케이션이다. 다른 어플리케이션들은 디바이스 착용자의 우호적인 신원확인이 존재하는 때에만 배타적으로 보안 정보를 수신할 것을 요구할 수 있다. 기밀인(classified), 판독-전용 문서들의 디스플레이가 이러한 모드의 예시적인 어플리케이션이다. 다른 어플리케이션들은 디바이스 착용자의 우호적인 신원확인이 존재하는 경우 양 방향에서의 보안 전송을 요구할 수 있다. 질의된 질문들 및 학업 시험에 대한 사용자 응답들 둘다를 보호하고자 하는 것이 이러한 모드의 예시적인 어플리케이션이다. Some applications require verification of the identity of the wearer of the device, coupled with unidirectional sourcing of secure (i.e., encrypted) information to the external processing unit. Entering a credit card or account information to make an online purchase is an exemplary application of this mode. Other applications may require exclusively to receive security information only when there is a friendly identity verification of the wearer of the device. The display of classified, read-only documents is an exemplary application of this mode. Other applications may require secure transmission in both directions if there is a friendly identification of the wearer of the device. It is an exemplary application of this mode to protect both questioned questions and user responses to academic tests.
또 다른 실시예로서, 보안 정보의 수신인들을 한정된 수의 식별된 개인들로 제한하는 시스템들 및 방법들이 제공된다. 예를 들어, 독점적인 사업 문서들이 식별된 개인들의 그룹에 배포되는 것이 바람직할 수 있다(수신인들의 일부에 대해서 상기 문서가 기록 혹은 저장될 가능성들이 없이). 이 경우, 문서들은 암호화된 방식으로 전송되며, 이와 함께 내장 디바이스 및 디바이스 착용자들의 홍채코드들 및/또는 특정한 헤드웨어 시스템들에 링크된 암호-해독 키들이 동봉된다. 우호적인 CBID가 존재하고 그리고 또한 선택적으로는 개별적인 시야 차단기(아래 참조)가 제자리에 있는 경우에, 제한된 개수의 수신 사용자들/시스템들 내에서만 문서 암호-해제가 가능할 것이다. In yet another embodiment, systems and methods are provided for restricting recipients of security information to a limited number of identified individuals. For example, it may be desirable to distribute proprietary business documents to a group of identified individuals (without the possibility of the document being recorded or stored for some of the recipients). In this case, the documents are transmitted in an encrypted manner, along with enclosed iris codes of embedded device and device wearers and / or decryption keys linked to specific headware systems. It will be possible to decrypt documents only within a limited number of receiving users / systems if there is a friendly CBID and also optionally if the individual field of view breaker (see below) is in place.
또 다른 실시예로서, CBID는 식별된 개인(또는 개인들의 그룹)에 의한 행위들의 수행을 검증가능하게 문서화하는데 이용될 수 있다. 이 경우, 특정한 데이터 세트를 읽거나 및/또는 볼 때, 디바이스 착용자의 시야의 일반적인 방향으로 지향된 장면 카메라들에 의해서 캡춰된 비디오 시퀀스들 및/또는 마이크로폰에 의해서 녹음된 오디오 시퀀스들이 기록된다. 이들 데이터에는, 디바이스 착용자에 대한 실질적으로 지속적인 신원확인과 타임-스탬프들이 첨부된다. 이후, 시퀀스들은 행위(예컨대, 읽기, 보기 등등)가 수행되었고 그리고 누가 이를 수행했는가 라는 사실에 대한 문서적 증거로서, 짧은 기간 동안 혹은 연장된 기간 동안(필요에 따라) 원격으로 획득될 수도 또는 헤드웨어 디바이스 내에서 획득될 수도 있다. In yet another embodiment, the CBID may be used to verifiably document the performance of behaviors by the identified individual (or group of individuals). In this case, when reading and / or viewing a particular set of data, the video sequences captured by the scene cameras oriented in the general orientation of the device wearer's field of view and / or the audio sequences recorded by the microphone are recorded. These data are accompanied by substantially continuous identification and time-stamps on the wearer of the device. Thereafter, the sequences may be obtained remotely (as needed) for a short period of time or for an extended period of time as documented evidence of the fact that the action (e.g., reading, viewing, etc.) Lt; / RTI > device.
이러한 실시예들에 대한 어플리케이션들의 일례들은, 고가의 물질들(가령, 다이아몬드)을 취급하는 것, 조립 라인 검사들을 개선하는 것(예컨대, 결함있는 아이템이 제거되었는지), 훈련 프로세스들(예컨대, 운전자 교육), 의료적 절차들(예컨대, 수술 동안에 수행되는 단계들), 재앙적 이벤트들(catastrophic events)(예컨대, 충돌에 연루된 운전자의 신원), 또는 적절한 개인에 의해서 완벽하게 수행될 것이 요구되는 검사들(예컨대, 조종사에 의한 비행 전 검사), 등등의 행위들 동안에 개인들의 신원들을 검증가능하게 문서화하는 것을 포함한다. Examples of applications for these embodiments include, but are not limited to, handling expensive materials (e.g., diamonds), improving assembly line checks (e.g., if a defective item has been removed), training processes (E.g., education), medical procedures (e.g., steps performed during surgery), catastrophic events (e.g., the identity of the driver involved in the collision) (E. G., Pre-flight testing by a pilot), and so forth. ≪ / RTI >
어플리케이션들의 다른 일례들은, 유명인(celebrities), 프로 운동 선수, 프로 비디오 게이머, 획기적인 수술을 집도하는 외과의, 또는 행위를 수행하는 다른 전문가들이 실질적으로 지속적인 또는 간헐적인 인증과 함께, 전문가의 시선이 캡춰됨과 아울러 이와 동시에 장면 카메라 레코딩 혹은 가상 디스플레이 레코딩을 수행하는 것이다. 결과적인 "시선-캐스트(gaze-cast)"(즉, 원형 혹은 관련된 객체들 혹은 영역들에 포커싱되는 형태의 사용자의 시선이 동시에 중첩되는 외부 비디오의 레코딩)는 인증될 수 있으며 그리고 재미, 기술 개발, 혹은 다른 사용을 위해 개인들에게 판매, 라이선스, 혹은 대여될 수 있다. Other examples of applications include capturing the eyes of a professional with virtually continuous or intermittent authentication, such as celebrities, professional athletes, professional video gamers, surgical surgeons performing surgeries, or other professionals performing acts And simultaneously performs scene camera recording or virtual display recording. The resulting "gaze-cast" (i.e., recording of an external video in which the user's gaze in the form of being focused on the original or related objects or areas is simultaneously superimposed) , Or sold, licensed, or rented to individuals for other uses.
보안성의 정도(Degrees of Security)Degrees of Security
다른 실시예들에서, 시스템들 및 방법들은 극도의 보안이 요구되는 상황을 포함하는 넓은 범위의 보안 레벨들로 조절될 수 있다. 극도의 보안 레벨들은 예를 들어, 고 가치 시설물(예컨대, 핵 비축 시설) 또는 비밀 작전들에 대한 액세스를 획득하기 위하여 군사 어플리케이션들 동안에 적용될 수 있다. 이러한 극도의 보안 케이스들에서, 상기 시스템은 홍채의 이미지 혹은 추출된 안구를 홍채 추적 카메라의 시야 내에 배치하는 것 등의 복잡한 속임수 시도들을 방어해야하만 한다. 이러한 시도들에 대항하는 수단들의 일례로서, 눈의 생리학적인 반응들이 모니터링될 수 있다. In other embodiments, the systems and methods may be adjusted to a wide range of security levels, including situations where extreme security is desired. Extreme security levels may be applied during military applications, for example, to obtain access to high value facilities (e.g. nuclear stockpiles) or covert operations. In these extreme security cases, the system must defend complex cheating attempts, such as placing an image of the iris or an extracted eye within the field of view of the iris tracking camera. As an example of the means against these attempts, the physiological responses of the eye can be monitored.
보안 프로토콜들은 잠금해제, 활성화, 또는 이벤트를 인증하기 위하여, 소정 액션 또는 일련의 안구 신호들에 다수의 개인들이 관련될 것을 요구할 수 있다. CBID 및 안구 추적을 구비한 HMDs 를 착용한 개인들은, 이벤트를 개시하기 위해서는, 인증된 병렬, 직렬, 혹은 상호관련된 액션들을 수행하는 것을 포함하는 보안 프로토콜에 따라야 한다. Security protocols may require multiple individuals to be associated with a given action or series of eye signals to unlock, activate, or authenticate an event. Individuals wearing HMDs with CBID and eye tracking must follow a security protocol that involves performing authenticated parallel, serial, or interrelated actions to initiate an event.
이러한 높은 보안 레벨을 갖는 실시예들에서, 보안-기반 측정들(security-based measurements)은 주변환경이 안전하다는 하나의 신뢰 측정(single measure of confidence)으로 합병될 수 있다. In embodiments having such a high security level, security-based measurements may be merged into a single measure of confidence that the surrounding environment is secure.
복합 보안 인덱스(Composite Security Index: CSI) 같은 것이 이용되어, 보안 정보가 디스플레이될 것인지 및/또는 신뢰할만 것으로 간주될 수 있는지를 평가할 수 있다. 예를 들어, CSI의 감소는 추가적인 보안 질문들 또는 "더미" 정보가 디바이스 사용자 반응들을 추가로 테스트하게 할 수 있다. 만일, CSI가 지속적으로 떨어진다면, 다양한 추가 단계들이 취해질 수 있는데, 여기서 예를 들어 CBID 플랫폼은, 원격의 보안 서버에 의해서, 디바이스 착용자의 주변환경에 관한 비디오 및/또는 오디오를 전송할 것을 요구받을 수 있다. 원하는 보안 레벨에 따라, CSI에 기여하는 성분들이 좁게 혹은 넓게 선택될 수 있다. CSI 성분들은 다음 중 하나 이상을 포함할 수 있다. A composite security index (CSI) may be used to assess whether the security information is to be displayed and / or trusted. For example, a reduction in CSI may cause additional security questions or "dummy" information to further test device user responses. If the CSI continuously drops, various additional steps may be taken where, for example, the CBID platform may be requested by a remote security server to transmit video and / or audio about the wearer ' have. Depending on the desired security level, the components contributing to CSI may be selected narrowly or broadly. The CSI components may include one or more of the following.
a. 실시간 홍채 스캔들과 관련된 식별 계수들의 매칭 정도(엄격성 기준을 포함하여), a. The degree of matching (including strictness criteria) of identification coefficients associated with real-time iris scans,
b. 높은 엄격성(즉, on-axis) 홍채 인식 이후에 경과된 시간,b. Highly strict (i.e., on-axis) elapsed time after iris recognition,
c. 오프-축(off-axis) 응시 동안 눈 주위의 영역들과의 패턴 매칭의 신뢰성의 정도, c. The degree of reliability of pattern matching with areas around the eye during an off-axis gaze,
d. 홍채들의 지오미트리, 포지션, 및 움직임을 포함하는 안구 생체측정(ocular biometrics), d. Ocular biometrics including geometry, position, and motion of iris,
e. 디스플레이와 관련된 방향을 바라보면서 디바이스 착용자가 소비한 시간(및 일관성), e. Looking at the direction associated with the display, the time (and consistency) spent by the device wearer,
f. 눈 깜박임(즉, 눈꺼풀이 홍채를 커버하는 짧은 기간)들의 존재, 빈도, 및 속도, f. The presence, frequency, and velocity of eye flicker (i.e., the short duration that the eyelids cover the iris)
g. 헤드웨어 디바이스의 구조적 무결성을 판별하는 센서들의 출력g. Outputs of sensors that determine the structural integrity of the headwear device
h. 헤드-업 디스플레이 또는 인근의 디스플레이 모니터 상의 정보(예컨대, 질문들)의 디스플레이 시간과 비교되는, 디바이스 착용자 피드백 응답들에 관련되어 경과된 시간 측정치,h. An elapsed time measurement associated with device wearer feedback responses, which is compared to the display time of the information (e.g., questions) on the head-up display or nearby display monitor,
i. 주변 광 조건들의 변화들, 동공 반응들이 이러한 변화들에 대해 정상 범위 내인지를 포함함, i. Changes in ambient light conditions, including pupil responses within the normal range for these changes,
j. 랜덤한 간격으로 헤드웨어 시스템에 의해서 유발되는(조명을 조절함으로써) 동공 대광 반사(pupillary light reflexes)의 타이밍, j. The timing of pupillary light reflections (by adjusting the illumination) caused by the headware system at random intervals,
k. 장면 카메라에 의해서 보여지는 이미지들이 예측된 환경과 일반적으로 일치하는지의 여부(예컨대, 디스플레이 모니터를 보는 것 대(versus) 헤드웨어를 변경하기 위한 명백한 시도), k. Whether the images viewed by the scene camera are generally consistent with the predicted environment (e.g., an obvious attempt to change the head monitor versus viewing the display monitor)
l. 마이크로폰에 의해서 모니터링된 사운드들이 예측된 환경과 일반적으로 일치하는지의 여부l. Whether the sounds monitored by the microphone are generally consistent with the predicted environment
m. 장면 카메라에 의해서 후속으로 보여지는 이미지들과 비교하여 보안 정보 소스로부터 기원하고 그리고 인근의 모니터 상에 디스플레이되는 코딩된 비디오 패턴들의 매칭의 정도m. The degree of matching of coded video patterns originating from a security information source and displayed on a nearby monitor, as compared to images subsequently viewed by the scene camera
n. 디바이스 착용자만이 알고있는 식별 코드들의 입력(그리고 이는 시간-민감형일 수 있음).n. Input of identification codes known only to the wearer of the device (and which may be time-sensitive).
전술한 생체측정 항목 f 및 j 를 사용하는 일례는, 눈을 향하고 있는 카메라가, CBID 시스템을 속이려는 시도로서 사기꾼 사진(imposter photograph), 콘택트 렌즈, 또는 심지어 소유자로부터 외과수술적으로 제거된 눈(섬뜩함) 형태인 눈의 복제물 대신에, 인증받고자 하는 사용자의 살아있는 진짜 눈을 정말로 보고 있는 것인지를 보장하기 위한 것이 될 수 있다. An example of using biometric items f and j described above is that a camera that is aimed at the eyes may not be able to detect an imposter photograph, a contact lens, or even an eye that has been surgically removed from the owner Instead of a replica of the eye in the form of an eerie, it can be to ensure that you are really seeing the real eyes of the user you want to be authenticated.
추가적인 실시예에서, 안구 신호 판별 및 인증은, 시스템 아키텍처의 최하위 레벨들 내에서 로직 및 기능이 유지되게 식별 및 인증 방법들을 실리콘 내에 건설함으로써 공격자들을 방해하도록 설계된 커스텀 빌트 실리콘(custom-built silicon)(주문형 반도체 ASIC을 포함함) 내에서 수행된다. 이것은, 디바이스의 프로그램가능한 소프트웨어를 변경하는 것에 기반하는 보안 공격들을 방어하는데 도움을 준다. 또한, 방법들은 이러한 저-레벨 시스템 아키텍처 내에 펌웨어 혹은 하드웨어 인코딩된 명령들을 암호화하는데 이용가능하다. In a further embodiment, ocular signal discrimination and authentication is custom-built silicon (i. E., Designed to interfere with attackers by constructing identification and authentication methods in silicon so that logic and functionality remain within the lowest levels of the system architecture) Custom semiconductor ASIC). This helps defend against security attacks based on changing the device's programmable software. Moreover, methods are available for encrypting firmware or hardware encoded instructions within such low-level system architecture.
식별된 개인에 의한 "눈으로만" 보기("Eyes Only" Viewing by an Identified Individual)"Eyes Only" Viewing by an Identified Individual ("
또 다른 실시예에 따르면, 누구든지 다른 사람에게 보여주기 위하여 보안 콘텐트를 기록 혹은 저장할 가능성이 없이, 보안 정보의 수신을, 한명의 실질적으로 지속적으로 식별되는 개인만으로 한정하기 위한 시스템들 및 방법들이 제공된다. 예를 들어, 온-라인 시험들의 원격 관리 동안, 시험받는 사람이 시험 문제들을 읽어야 할 필요가 있다. 하지만, 만일, 다른 개인 혹은 레코딩 디바이스(예컨대, 도1의 카메라 125)가 시험 문제를 다른 사람들에게 누설할 의도를 가지고 시험 문제들을 저장 혹은 옮겨적기 위하여 시험 문제를 볼 수 있는 방법이 있었던 경우, 동일한(혹은 유사한) 시험에 대한 시험 관리의 무결성은, 다음에 시험 보는 다른 사람들에 대해서는 훼손될 수 있다. According to yet another embodiment, systems and methods are provided for confining the receipt of security information to only one substantially persistent identified individual, without the possibility of anyone recording or storing secure content for presentation to others . For example, during the remote management of on-line tests, the test recipient needs to read the test questions. However, if there was a way for another person or recording device (e.g.,
이러한 어플리케이션들을 위하여, CBID 시스템은 헤드-마운트된 디스플레이와 함께 구현될 수 있다. 하나 이상의 시야 차단기들이 디스플레이 주위에 배치되는데, 이는 디스플레이가 디바이스 착용자에게만 보이도록 능력을 제한하기 위한 것이다. 이러한 구성의 키 양상은, 실질적으로 지속적인 사용자 식별 및 보안 정보의 디스플레이 둘다가 동일한 디바이스 내에서 수행된다라는 사실이다. 보안 정보는 우호적인 CBID가 확립된 때에만 디스플레이되며, 이는 다른 개인이 보안 콘텐트를 보는 것을 불가능하게 만든다. 헤드 마운트된 디스플레이와 디바이스 착용자의 눈 사이의 광 경로 상에 배치된 임의의 객체는 CBID를 파괴한다. For these applications, the CBID system can be implemented with a head-mounted display. One or more field-of-view breakers are placed around the display, in order to limit the ability of the display to be visible only to the wearer of the device. The key aspect of this configuration is the fact that both substantially continuous user identification and display of security information are performed within the same device. Security information is displayed only when a friendly CBID is established, which makes it impossible for other individuals to view security content. Any object placed on the light path between the head mounted display and the eye of the wearer of the device destroys the CBID.
추가적인 실시예들에서는, 시야 차단기들이 제자리에 있는지를 보장하고 그리고 CBID 시스템의 구성요소들이 조작(temper with)되지 않았음을 보장하는 센서들을 추가함으로써, 추가적인 보안 레벨들이 확립될 수 있다. 이를 구현하는 상대적으로 간단한 방법은, 상기 시스템의 모든 구조적 및 전자적 요소들을 통해 직렬로 연장되는 전도성 경로들을 부가하는 것이다. 조작되거나 또는 임의의 시스템 요소가 제거되면, 전기적 연속성이 깨어지며, 따라서 이는 시스템에 의해서 감지될 수 있다. 이러한 정보누출의 결과, 우호적인 CBID가 디스에이블될 것이며 및/또는 정보누출에 대한 표시가 보안 정보 서버로 전송될 것이다. In additional embodiments, additional security levels can be established by ensuring that the field-of-view breakers are in place and by adding sensors that ensure that the components of the CBID system are not tempered. A relatively simple way to implement this is to add in series conductive paths through all the structural and electronic components of the system. If manipulated or any system element is removed, the electrical continuity is broken and thus can be detected by the system. As a result of this information leak, the friendly CBID will be disabled and / or an indication of an information leak will be sent to the security information server.
또한, 헤드 마운트된 디스플레이를 둘러싸는 시야 차단기의 구조적 무결성은 가령, 콘택트 스위치, 푸시 버튼 스위치, 홀 효과(hall effect) 스위치, 반사형 광전지(reflective photocells), 및/또는 용량성 센서들 등의 넓은 범위의 전자 부품들에 의해서 감지될 수 있다. 시야 차단기는 이중-사용(dual-use)을 위해 제작될 수 있는바, 예컨대 이것은 비-보안 어플리케이션들 동안에는 눈에 띄지 않으며(unobtrusive), 따라서 헤드 마운트 디스플레이가 씨 쓰루 모드(see through mode)(즉, 차단기가 제거된 상태) 또는 높은 보안성을 갖는 "개인 뷰어(individual viewer)" 모드(즉, 시야 차단기가 부착된) 둘다에서 사용될 수 있게 한다. The structural integrity of the field-of-view interrupter surrounding the head-mounted display can also be used for a wide range of applications including, for example, contact switches, push button switches, hall effect switches, reflective photocells, and / Lt; / RTI > range of electronic components. The field-of-view breaker may be made for dual-use, for example, it may be unobtrusive during non-security applications, so that the head-mounted display is in a see through mode , A state in which the breaker is removed) or a high security "individual viewer" mode (i.e., with a visual breaker attached).
극도의 보안성이 요구되는 다른 실시예에서, 헤드 마운트된 디스플레이는 영구적으로 제자리에 배치되는 고도의 조작-방지용 시야 차단기를 구비하도록 제작될 수 있다. 극도의 보안성이 요구되는 또 다른 실시예에서, 헤드 마운트된 디스플레이는 부가된 혹은 통합된 전기변색(electrochromic) 물질층을 포함할 수 있는데, 상기 전기변색 물질층의 투명도는 전자적으로 제어될 수 있다. In another embodiment where extreme security is required, the head mounted display may be fabricated with a highly manipulated-view field-of-view breaker that is permanently disposed in place. In another embodiment where extreme security is required, the head mounted display may include a layer of added or integrated electrochromic material, wherein the transparency of the electrochromic material layer may be electronically controlled .
또한, 도7을 참조하면, 원격 프로세싱 유닛(160)과 정보를 디스플레이하는데 이용되는 디바이스(400)는, 서로 소정 거리만큼 떨어져 있으며 그리고 보안(예컨대, 암호화된) 통신 링크(155)를 필요로 하는 별도의 디바이스들이 될 수 있다. 대안적으로, 상기 원격 프로세싱 유닛(160)과 디스플레이 디바이스(400)는 단일 패키지 내에 통합될 수 있다. 프로세싱 및 디스플레이 능력들이 통합된 이러한 디바이스들의 일례들은, 우호적인 사용자 식별이 있는 경우에만 보안 데이터를 암호해제하도록 소프트웨어가 코딩될 수 있는 랩탑 컴퓨터, 테블릿, 및 모바일 폰이다. 7, the
도9a 및 도9b는 예시적인 시스템이 아이웨어(eyewear) 디바이스(500) 내에 통합된 것을 도시하며, 아이웨어 디바이스(500)는 헤드-마운트 디스플레이(505)(헤드-업 디스플레이, HUD, 레티날 디스플레이, 가상 현실 안경, 증강 현실 안경, 또는 스마트 안경 등의 다른 다양한 이름들로 지칭되기도 함)를 포함한다. 도9a에 도시된 바와 같이, 상기 시스템은 가시 혹은 근적외선 광 소스(400)를 포함하는데, 이는 홍채(115)의 영역을 조명한다. 홍채(115) 및 눈의 영역 내의 피처들의 이미지들을 수집하기 위해 카메라(125)가 이용된다. 상기 디스플레이는 구조화된 빛(즉, 디스플레이 이미지를 구성하는)이 망막(52) 상에 반사 혹은 투영되도록 구성된다. 상기 아이웨어 디바이스는 노즈 피스(nose piece)(510)와 이어 스템(ear stem)(515)을 포함하는데, 이는 상기 시스템이 통상적인 안경과 유사한 방식으로 착용될 수 있게 한다. CBID 시스템(100)은 아이웨어 디바이스 내에 통합될 수 있으며 또는 웨어러블 컴퓨팅 혹은 아이웨어 디바이스에 대한 액세서리로 제작될 수도 있다. 9A and 9B illustrate an exemplary system integrated into an
도9a의 경우, 디스플레이(505)는 주변환경들을 보기 위하여 디바이스 착용자가 투영된 이미지를 지나쳐서 볼 수 있도록 구성된다. 도9b에서는, 디바이스 착용자를 제외한 그 어떤 개인(또는 비디오 시스템)도 웨어러블 디스플레이(505)의 콘텐트를 볼수 없도록, 시야 차단기(520)가 전략적으로 배치된다. 그 결과, 디바이스 착용자는 디스플레이(505)를 보는데 사용되는 동일한 눈으로는, 주변환경을 볼 수 없다. 이러한 구성은 디스플레이(505)의 콘텐트가 옮겨적어지거나 또는 기록되는 것을 방지한다. 시야 차단기(520)가 제 자리에 있는지의 여부 및/또는 시야 차단기(520)의 은폐(concealment) 기능을 무력화시키기 위한 시도들이 있었는지의 여부를 검출하기 위하여, 스위치(525) 및/또는 다른 감지 요소들이 이용될 수 있다. In the case of FIG. 9A, the
전술한 바와 같은 "기계적인" 시야 차단기에 대한 대안으로서, 다른 예시적인 실시예는 콘텐트가 디스플레이되는 곳(즉, 눈을 향하는 곳)과 외부 환경 사이의 영역에서 헤드 업 디스플레이(혹은, 눈 인근의 다른 디스플레이 디바이스)의 투명도를 전자적으로 제어하는 것을 이용한다. 이것은 마치 "전자 셔터" 처럼 작용하며, 외부 환경에 있는 임의의 사람 혹은 레코딩 디바이스가 디스플레이의 콘텐트를 볼 수 있는지 없는지를 제어할 수 있다. 광 투명도 혹은 전자변색에 대한 전자적 제어는 수 많은 매커니즘들에 의해서 구현될 수 있는데, 이러한 매커니즘들은 액정(즉, LCD 디바이스들에서 이용되는 동일한 원리들), 부유 입자 디바이스들(suspended particle devices: SPDs), 나노크리스탈(nanocrystals) 및 소위 "스마트 안경"에서 종종 이용되는 다른 매커니즘들을 포함할 수 있다. As an alternative to the "mechanical" field-of-view breaker as described above, other exemplary embodiments may include a head-up display (or a near-eye display) in the area between where the content is displayed Lt; / RTI > and other display devices). It acts like an "electronic shutter" and can control whether any person or recording device in the external environment can see the content of the display or not. Electronic controls for optical transparency or electronic discoloration can be implemented by a number of mechanisms, including liquid crystals (i.e., the same principles used in LCD devices), suspended particle devices (SPDs) , Nanocrystals, and other mechanisms often used in so-called "smart glasses ".
방금 설명된 착탈가능한 기계적인 차단기와 유사하게, HUD 주위의 물질(들)의 불투명도를 조절하는 것은, 디바이스 착용자(도9b 참조) 이외의 그 누구에 의해서도 디스플레이의 콘텐트가 보여지는 것을 방지한다. 이러한 전자 제어의 주요한 장점은, 불투명도를 제어하는 디바이스 자체의 능력인바, 예를 들어, 보안 정보가 디스플레이되는 중임을 상기 디바이스가 알 때에만 광 투과를 차단할 수 있다. 보안 모드에 있지 않은 경우, HUD는 정상 디스플레이 모드에서 동작할 수 있는바, 정상 디스플레이 모드에서 사용자는 디스플레이 "너머로(beyond)" 실제 주변환경을 볼 수 있다. 보안 모드인 경우(즉, 불투명한 경우), 사용자는 디스플레이 너머로 외부 세계를 볼 수 없으며 그리고 보다 중요하게는, 외부 환경에 있는 그 누구도 디스플레이의 콘텐트를 볼 수 없다. 디스플레이 기능을 수행하는 구성요소들과 차단 기능을 수행하는 구성요소들이 결합되어 하나의 구조를 형성하는 경우(상기 하나의 구조는 기능을 파괴함이 없이는 분리시킬 수 없음), 이러한 전략이 특히 유용할 수 있다. Controlling the opacity of the material (s) around the HUD, similar to the detachable mechanical circuit breaker just described, prevents the display's content from being seen by anyone other than the wearer of the device (see Figure 9b). The main advantage of this electronic control is the capability of the device itself to control opacity, for example, it can block light transmission only when the device knows that security information is being displayed. If not in secure mode, the HUD can operate in normal display mode, so that in normal display mode, the user can see the actual environment "beyond" the display. In the secure mode (i.e., opaque), the user can not see the outside world beyond the display, and more importantly, no one in the outside environment can see the content of the display. When the components performing the display function and the components performing the blocking function are combined to form a structure (the structure can not be separated without destroying the function), this strategy is particularly useful .
추가적인 동작 모드로서, 광-차단 혹은 불투명 모드는 또한, 외부 세계로부터의 간섭 광을 최소화하는데 이용될 수 있는데, 이는 HUD 내에서 미세 디테일(fine detail)을 보는 것을 향상시키기 위한 것이다. 예를 들어, 미세한, 검은 혹은 낮은 콘트라스트 구조들을 갖는 사진이 디스플레이될 때, 주변환경으로부터의 간섭 광(즉, 소위 "잡음")이 차단되는 경우, 이들 구조들은 디바이스 착용자에 의해서 보다 잘 보여질 수 있다. 불투명도의 전자적 제어는, 이러한 형태의 제어를 자동으로(즉, 디스플레이 콘텐트에 따라) 혹은 사용자 제어 하에서 수행되게 할 수 있다. As an additional mode of operation, the light-blocking or opaque mode can also be used to minimize interference light from the outside world, which is intended to improve the viewing of fine detail in the HUD. For example, when pictures with fine, black, or low contrast structures are displayed, when interfering light (i.e., so-called "noise") from the surrounding environment is blocked, these structures can be better seen by the device wearer have. Electronic control of opacity can allow this type of control to be performed automatically (i.e., depending on the display content) or under user control.
본 실시예에 대한 추가적인 개선안으로서, HUD의 특정 영역들(전체 디스플레이 영역이 아니라)의 불투명도를 제어하는 것도 또한 가능하다. 이와 같은 공간적으로 접근가능한 불투명도 제어에서, 디바이스는 특정 보안 정보 주위의 하나 이상의 영역들만을 차단할 수 있다. 예를 들어, 계좌 번호 혹은 사용자 패스워드 주위의 영역은 외부 시선으로부터 차단될 수 있는 반면에, 사용자는 상기 보안 영역들 이외의 영역들에서 외부 세계를 계속해서 볼 수 있다. 불투명도에 대한 접근가능한 공간적인 제어는, 유사한 매커니즘들이 LCD 프로젝션 디바이스들에서 이용되고 있는 LCD 기술들(백라이트가 없는)에 특히 적합하다(그리고 전자 업계에서 잘 개발되어 있다), As a further refinement to this embodiment, it is also possible to control the opacity of certain areas of the HUD (not the entire display area). In such spatially accessible opacity control, the device may block only one or more areas around specific security information. For example, an area around the account number or user password may be blocked from the outside line, while the user may continue to view the outside world in areas other than the security areas. Accessible spatial control over opacity is particularly well suited (and well developed in the electronics industry) for LCD technologies (backlit-free) where similar mechanisms are being used in LCD projection devices,
보안 개인 증강 메모리(Secure Personal Augmented Memory: PAM)Secure Personal Augmented Memory (PAM)
식별된 디바이스 착용자의 장기(long-term) 메모리로 매체를 전자적으로 향상시키기 위한 구성요소로서 안구 추적을 활용하는 시스템이다. PAM 저장 및 검색은 완벽하게 호환가능한 정보 양상들(completely interchangeable information modalities)(이미지들, 오디오, 비디오, 텍스트, 아이콘, 기타 등등)을 포함할 수 있다. 다음은 PAM을 위한 3개의 전반적인 단계들이다. Is a system that utilizes eye tracking as a component for electronically enhancing the medium with a long-term memory of the wearer of the identified device. PAM storage and retrieval may include completely interchangeable information modalities (images, audio, video, text, icons, etc.). The following are three overall steps for PAM.
1. 개인에게 중요한, 추적가능한(trackable) 객체들을 식별한다. 1. Identify trackable objects that are important to the individual.
2. 하나 이상의 식별된 추적가능한 객체들 또는 속성들을 포함하는 데이터 세트들과 결부하여, 다중-양상들의 동적인, 히스토리컬 아카이브(archive)를 유지한다. 2. Keeping a dynamic, historical archive of multiple-aspects, in conjunction with data sets containing one or more identified trackable objects or attributes.
3. 추적가능한 객체 사양(들) 또는 속성(들)의 임의의 모드에 기초하여 하나 이상이 데이터 세트들을 식별 및 검색한다. 3. Identify and retrieve one or more data sets based on any mode of traceable object specification (s) or attribute (s).
PAM의 첫번째 단계는, 추적가능한 객체들(식별된 개인에게 "중요한" 것임)의 기록들을 생성하는 것이다. 이들 추적가능한 객체들은, 이미지, 오디오 클립, 비디오 클립, 텍스트, 아이콘, 태그(예컨대, 가격, 제조자), 위치-기반으로 태그된 맵 상의 객체, 기타 등등을 포함하는 다양한 모드들에 있을 수 있다. 추적가능한 각각의 객체와 관련된 서로 다른 저장 모드들 모두를 결합하도록 변환 알고리즘들이 이용될 수 있다. 예를 들어, 이미지 인식은 하나 이상의 이미지들 내에서 객체들을 식별(예컨대, 텍스트로 변환)하는데 이용될 수 있고, 음성 인식은 오디오를 텍스트로 변환하는데 이용될 수 있으며, 텍스트-to-음성 인식은 텍스트를 음성으로 변환하는데 이용될 수 있고, 아이콘은 특정 개체 또는 개체들의 그룹과 연관될 수 있으며, 기타 등등이다. 또한, 시선에 의해서 표상되는 관심영역들은, 장면 프로세싱 요건들을 감소시키고 그리고 관련된 사용자-식별된 객체들만으로 정보를 식별하도록, 관심 영역과 결부되거나, 공존하는 홍채코드-기반의 인증과 결부될 수 있다. The first step in PAM is to create records of traceable objects (which are "important" to the identified individual). These trackable objects can be in various modes including images, audio clips, video clips, text, icons, tags (e.g., price, manufacturer), objects on a location-based tagged map, Transformation algorithms can be used to combine all of the different storage modes associated with each trackable object. For example, image recognition can be used to identify (e.g., convert to text) objects within one or more images, speech recognition can be used to convert audio to text, and text-to- The text may be used to convert the speech to speech, the icon may be associated with a particular entity or group of entities, and so on. In addition, the regions of interest represented by the line of sight can be associated with iris code-based authentication associated with, or coexisting with, the region of interest, to reduce scene processing requirements and identify information with only relevant user-identified objects.
필요한 경우, 정보의 추가적인 변환들이 적용될 수 있다. 예를 들어, 텍스트 또는 오디오는 하나의 언어에서 다른 언어로 변환될 수 있다. 이미지 인식은 특정 객체들을 식별하는 것으로 확장될 수 있다. 예를 들어, 자동차를 식별하는 알고리즘들은, 디바이스 착용자의 특정한 자동차(들)을 더 식별하도록 구성될 수 있다. 객체의 가격 및 물리적인 특징들(물질들, 설계 피처들, 등등)은 보관 알고리즘들(archival algorithms)에서 식별 및 포함될 수 있다. If necessary, further transformations of information can be applied. For example, text or audio can be converted from one language to another. Image recognition can be extended to identifying specific objects. For example, the algorithms for identifying the vehicle may be configured to further identify the specific vehicle (s) of the wearer of the device. The price and physical characteristics (materials, design features, etc.) of an object can be identified and included in archival algorithms.
개별 사용자들은 임의 개수의 개인화된(personalized), 추적가능한 객체들을 생성할 수 있다. 대부분 공통적으로, 시선 추적(gaze tracking)이 이용되어, 한 사람의 환경에서 보여지고 있는 객체들을 식별한다. 또한, 추적가능한 이미지 객체들은, 다운로드된 이미지들 혹은 사진들(예컨대, 도로 표지판, 에펠탑 등등)로부터 식별될 수 있는데, 여기서 관찰 중인 객체들을 식별하는데 다시 한번, 시선 추적이 이용된다. 보여진 객체들은, 예를 들어, 이미지 인식에 기초하여 식별 및 인덱스화될 수 있다. 다른 양상들(예컨대, 음성 구절(voice phrase))도 후속 검색을 위하여 유사하게 분류되고(예컨대, 인식되고) 그리고 인덱스화될 수 있다. Individual users can create any number of personalized, traceable objects. Most commonly, gaze tracking is used to identify objects that are being viewed in a single environment. Traceable image objects may also be identified from downloaded images or photographs (e.g., road signs, Eiffel Tower, etc.), where gaze tracking is once again used to identify the objects being viewed. The objects shown can be identified and indexed, for example, based on image recognition. Other aspects (e.g., voice phrases) may be similarly categorized (e.g., recognized) and indexed for subsequent searches.
PAM의 두번째 단계는, 이미지, 비디오, 텍스트, 오디오, 기타 등등을 포함할 수 있는 이들의 관련된 양상들에 따라, 보여진 객체들에 대한 인덱스화된, 검색가능한 히스토리컬 아카이브(archive)를 동적으로 부가 및 유지하는 것을 포함한다. 추가적인 객체 "속성들(attributes)"을 정의하도록, 기록 생성 당시에 이용가능한 추가적인 정보도 또한 저장될 수 있다. 이것은 예를 들어, 생성 날짜 및 시간, 데이터 세트를 생성한 사용자 및/또는 디바이스, 지리적 위치, 다른 식별된 개인들의 존재, 기타 등등을 포함할 수 있다. The second stage of PAM dynamically adds an indexed, searchable historical archive of the objects shown, according to their associated aspects, which may include images, video, text, audio, ≪ / RTI > Additional information available at the time of creation of the record may also be stored to define additional object "attributes ". This may include, for example, the date and time of creation, the user and / or device that created the data set, the geographic location, the presence of other identified individuals, and so on.
임의 횟수 반복될 수도 있는 마지막 단계로서, 인덱스화된 객체들 및 이들의 관련 데이터에 대한 검색은, 예를 들어, 상기 객체 혹은 유사한 객체를 보는 것(viewing)에 기초할 수 있다. 정보 검색을 위한 기준은 예를 들어, 음성 인식, 텍스트의 한 부분, 특정 객체와 관련된 아이콘, 또는 객체들의 분류, 기타 등등을 포함할 수 있다. 추가적인 실시예들에서, 초기에 정보를 저장하는데 이용되는 정보 모드는, 데이터 아카이브로부터 정보를 검색하는데 이용되는 모드와 매칭될 필요는 없다. As a final step that may be repeated any number of times, a search for indexed objects and their associated data may be based, for example, on viewing the object or similar object. Criteria for information retrieval may include, for example, voice recognition, a portion of text, an icon associated with a particular object, or a classification of objects, etc. In further embodiments, the information mode initially used to store information need not match the mode used to retrieve the information from the data archive.
예를 들어, 지갑의 이미지가 GPS-기반 위치에서 특정 지갑을 식별하는데 이용될 수 있다. 지갑에 대한 데이터 검색은, "내 지갑 어디 있어?" 와 같은 구두 문의(verbal query)에 응답하여 수행될 수 있다. 지갑에 대해서 검색된 후속 정보는, 디바이스 사용자의 현재 위치와 관련하여 지갑의 위치를 보여주는 지향성 맵(directional map)(즉, 다른 데이터 형태임)의 형태를 취할 수 있다. For example, an image of a wallet can be used to identify a particular wallet at a GPS-based location. Data retrieval for wallet, "Where's my wallet?" In response to a verbal query such as < / RTI > Subsequent information retrieved for the purse may take the form of a directional map (i.e., other data type) that shows the location of the purse in relation to the current location of the device user.
특정한, 원하는 데이터 세트에 대한 검색은, 객체들의 속성에 기초하여 더 분리될 수 있다. 전술한 바와 같이, 속성들은, 객체에 대하여 저장된 보충적인 정보를 포함한다. 만일, 속성들이 위치, 날짜/시간, 및 가격을 포함한다면, PAM 시스템은 다음과 같은 질문에 응답할 수 있다: "지난 화요일에 백화점에서 내가 본 가장 싼 셔츠가 뭐지?"The search for a particular, desired data set can be further separated based on the attributes of the objects. As described above, the attributes include supplemental information stored for the object. If the attributes include location, date / time, and price, the PAM system can answer the following questions: "What is the cheapest shirt I saw at the department store last Tuesday?"
만일, 2 이상의 데이터 세트들이 검색 기준과 매칭된다면, 디바이스 사용자는 1) 임의의 모드를 이용한 추가적인 입력에 기초하여 더 분리하던가(예컨대, 객체를 더 가깝게 본다던지, 단어들을 말하던지, 속성들을 특정하던지, 기타 등등) 또는 2) 가능한 원하는 데이터 세트들의 간략한 묘사들(thumbnail sketches)(예를 들면, 역 연대순(reverse chronological order)으로)을 디스플레이할 수 있다. If two or more data sets match the search criteria, then the device user can either: 1) separate further based on additional input using any mode (e.g., see closer to the object, speak the words, , Etc.) or 2) thumbnail sketches of possible desired data sets (e.g., in reverse chronological order).
PAM을 이용하는 또 다른 예시적인 시나리오는, 새롭게 본 객체(가령, 책상 서랍 열쇠들의 세트)에 대한 추적을 지속할 수 있는 능력이다. 디바이스 사용자는 열쇠들을 바라보고 그리고 "내 책상 서랍 열쇠들임" 이라고 말함으로써 시작할 수 있다. 열쇠들이 보여질 때마다, 상기 열쇠들이 보여진 장소 및 시간을 포함하는 데이터 세트가 저장된다. 나중에, "내 책상 열쇠가 어디 있지?" 라고 질문 받는 경우, 상기 디바이스는 열쇠들이 있는 장소 및 열쇠들을 마지막으로 본 시간을 포함하는 이미지와 함께 응답할 수 있다. Another exemplary scenario using PAM is the ability to continue tracking newly viewed objects (e.g., a set of desk drawer keys). Device users can start by looking at the keys and saying "My desk drawer keys". Each time the keys are viewed, a data set is stored that contains the location and time at which the keys were viewed. Later, "Where is my desk key?" The device may respond with an image containing the location where the keys are located and the last time the keys were viewed.
PAM 데이터 저장을 트리거링하는 초기 이벤트가 "가상 객체"인, PAM의 또 다른 일례로서, 사용자는 온라인 이미지 혹은 그 사람의 비디오 형태로서 일 개인을 볼 수 있다. 상기 사람은 온라인 정보를 통하여 또는 볼 때에 이름을 언급함으로써(예컨대, "짐 스미스"), 식별될 수 있다. 다음으로 사용자는 임의의 다른 원하는 속성들(나이, 직업 등등)을 언급할 수 있다. 상기 개인을 직접 볼때마다 혹은 가상으로 볼때마다 후속 데이터 세트들이 첨부될 수 있다. 나중에, 사용자는 다음과 같은 질문을 할 수 있다: "내가 짐 스미스를 마지막으로 본게 언제지?" 또한, 상기 디바이스는 그가 장면 카메라에 보여질 때마다 짐 스미스를 식별할 수 있다. As another example of PAM, where the initial event triggering PAM data storage is a "virtual object ", a user can view an individual as an online image or a person's video form. The person can be identified through online information or by mentioning the name (e.g., "Jim Smith") when viewed. Next, the user may mention any other desired attributes (age, occupation, etc.). Subsequent data sets may be attached whenever the individual is viewed directly or whenever viewed in a virtual manner. Later, the user may ask: "When was the last time I saw Jim Smith?" In addition, the device can identify Jim Smith whenever he is viewed on a scene camera.
PAM 사용의 다른 일례는 개인의 자동차을 바라보고 그리고 "내 차" 라고 말함으로써 개시된다. 자동차가 주차되면, 자동차가 식별되며 그리고 자동차의 최근의 이미지들 및 위치를 포함하는 데이터 세트가 생성되다. 나중에, 상기 디바이스는 스크린 상의 아이콘에 응답할 수 있는데 상기 아이콘은 다음과 같은 질문에 대한 답을 나타낸다: "내 차가 어디 있지?"Another example of using PAM is initiated by looking at an individual's car and saying "my car". When the car is parked, the car is identified and a data set is generated that includes the latest images and location of the car. Later, the device can respond to an icon on the screen, which answers the question: "Where is my car?"
만일, "너무 많은 정보"가 이용가능해지면, 디바이스 사용자는 특정 데이터 세트들 및/또는 타겟 객체들을 "잊어버리도록(forget)" 매커니즘들을 통합할 수도 있다. 예를 들어, 데이터 생성 시간은 가령, 특정 열쇠 꾸러미 혹은 자동차의 과거의 위치들과 같은, 오래된 항목들을 "잊어버리는"데 이용될 수 있다. 서로 다른 기준들이 서로 다른 추적가능한 객체들에 지정될 수 있다. If "too much information" becomes available, the device user may incorporate certain data sets and / or forgetting mechanisms on the target objects. For example, the data generation time can be used to "forget " old items, such as a particular key package or a car's past locations. Different criteria can be assigned to different traceable objects.
정보 저장 및 정보 검색 둘다는 CBID에 기초할 수 있다. 데이터 세트들은 웨어러블 디바이스 상에, 원격 프로세서 내에 존재할 수 있으며, 및/또는 클라우드-기반의 시스템들을 통해 분산될 수도 있다. 보관 위치(archival location)에 관계없이, 이러한 데이터의 저장 및 검색 둘다는, PAM의 CBID 소스로 한정될 수 있거나 또는 PAM의 CBID 소스에 의해서 인증된 개인들의 그룹으로 한정될 수 있다. CBID를 이용하면, 정보를 개인으로 분리하는 것은, 하나의 디바이스가 다수의 개인들에 의해서 착용되는 경우라 하여도, 그 개인만으로 한정될 수 있다. Both information storage and information retrieval can be based on CBID. The data sets may reside on a wearable device, in a remote processor, and / or distributed over cloud-based systems. Regardless of the archival location, both the storage and retrieval of such data may be confined to the CBID source of the PAM, or may be limited to a group of individuals authenticated by the CBID source of the PAM. With CBID, separating information into individuals can be limited to that individual, even if one device is worn by many individuals.
실제 및 가상 객체들과 상호작용하기 위한 생체역학-기반의 안구 신호들을 위한 시스템들 및 방법들(Systems and Methods for Biomechanically-Based Eye Signals for Interacting with Real and Virtual Objects)에 서술된 바와 같이, As described in Systems and Methods for Biomechanically-Based Eye Signals for Real and Virtual Objects for interacting with real and virtual objects,
안구 신호들(특히, 머신 학습 기법들과 연관된 안구 신호들)은 사용자의 의도(intent)를 파악하는데 이용될 수 있다. Eye signals (in particular, eye signals associated with machine learning techniques) can be used to determine a user's intent.
이러한 방법들을 이용하면, PAM-기반의 정보가 검색될 수 있으며 그리도 디바이스 착용자에게 "제안(suggest)"될 수 있다. 이것은 보다 추상적인(abstract) 데이터 검색 방법(특정한 질문들을 해결하는 것에 비하여)이다. 하지만, 디바이스는 주변환경에서 보여지는 객체들, 주어진 질문들, 하루 중 시간, 지리적 위치, 인식된 단어들, 기타 등등에 기초하여 보관된 데이터를 제시할 수 있다. 또한, 미래의 "제안들"은 디바이스 착용자가 "제안들"을 받아들였는지 혹은 거절했는지의 여부에 기초하는 머신 학습 접근법들에 대한 변경들에 기초할 수 있다. Using these methods, PAM-based information can be retrieved and can also be "suggested" to the device wearer. This is a more abstract data retrieval method (as opposed to solving certain questions). However, the device can present the archived data based on objects seen in the environment, given questions, time of day, geographic location, recognized words, and so on. Future "proposals" may also be based on changes to machine learning approaches based on whether the device wearer has accepted or rejected "suggestions ".
보안 인간 대 인간(들) 통신(아이커넥트)(Secure Human-to-Human(s) Communications (EyeConnect)Secure Human-to-Human (s) Communications (EyeConnect)
하나의 종으로서(as a species), 사업적으로 또는 사회적으로든지 간에 사람을 만나는 경우 공통적인 연관성이 있거나 또는 관심 영역을 공유하게 되면, 우리는 소통에 열중한다. 통신을 할지, 언제, 어떻게, 무엇에 대해 통신을 할지를 결정하는 프로세스는 본질적으로 비효율적이며 그리고 종종 사교적이지 못하다(frequently socially awkward). 또한, 인간의 기억은 불완전하며 그리고 우리는 과거의 만남들에서의 세부 사항들(가령, 이름 또는 지난 번 만남의 주제)을 우리가 잊어버린 개인들을 종종 마주치게 된다. 우리 모두는 이러한 만남들로부터 야기되는 사회적 어색함에 민감하며, 그 정도는 사회적 담론(social discourse)을 방해한다. When we meet people, whether as a species, business or social, we have a common connection or share a domain of interest, and we are engaged in communication. The process of determining whether to communicate, when, how, and what to communicate with is inherently inefficient and often socially awkward. Also, human memory is imperfect and we often encounter individuals who have forgotten details of past encounters (eg, names or topics of last encounter). All of us are sensitive to the social awkwardness that arises from these encounters, and that degree hinders social discourse.
"아이커넥트(EyeConnect)"라 지칭되는 프로세스 및 어플리케이션은 웨어러블 컴퓨팅 사용자들을 위한 방법으로서, 명시적으로 선택되고 양호하게 제어되는 보안 및 프라이버시 레벨을 유지하면서도, 서로 다른 레벨들의 인간 관계를 향상시키고 그리고 보다 효율적으로 만들기 위한 방법이다. 아이커넥트는 간단한, 상호간의, 눈 맞춤(eye contact)이 있으면, 서로의 시력(eyesight) 내에 있는 개인들 사이에서 개선된 연결 및 통신을 제공한다. CBID-기반의 아이커넥트는 예를 들어, 보안 및 프라이버시 레벨들이 확립되어 있는 CBID 등록된 개인들 사이에서 연결들을 확립함으로써 개인의 프라이버시를 제공한다. Processes and applications, referred to as "EyeConnect, " are a method for wearable computing users who, while maintaining the explicitly selected and well-controlled security and privacy levels, It is a way to make it efficient. EyeConnect provides improved connectivity and communication among individuals within each other's eyesight, with simple, mutual eye contact. CBID-based iConnect provides privacy for individuals by establishing connections between CBID registered individuals, for example, where security and privacy levels are established.
이러한 어플리케이션을 위한 실시예들의 일례들은 다음을 포함한다. Examples of embodiments for such applications include the following.
1. 서로 알고는 있으나 지난 번 만남들의 세부사항을 잊어버린 사람들의 경우, 아이커넥트는 잊어버린 이름을 첫번째 시선 교환 시에 즉시 제공하며 그리고 직접 만남(in-person encounter)을 지원할 수 있는, 전후관계에 맞는 관련 정보를 매끄럽게 제공한다. 1. For those who know each other but have forgotten the details of their last meeting, EyeConnect will provide the forgotten name immediately upon the first eye change and will be able to provide context for the in-person encounter To provide relevant information smoothly.
2. 사업적, 교육적, 정치적, 사회적 이벤트들에서 또는 다른 장소에서 처음 만난 사람들의 경우; 의미있고, 관련있고, 결실이 있는 연결들은 대부분 운에 맡겨지며 그리고 발전되기에는 시간이 소요된다. 비록, 개인들 사이의 연결들을 자동화하거나 또는 향상시키기 위한 시스템들 및 절차들이 오늘날 존재하고는 있지만, 이들은 비효율적이고, 부정확하고, 애매모호하며, 그리고 때때로는 어색하거나 또는 기존의 소통 흐름 및 사회적 교류에 지장을 줄 수도 있다. 아이커넥트는 이러한 만남들에서 새로운 연결들을 확립함에 있어서 안전한 레벨의 효율성 및 우아함을 가능케한다. 2. For those who first met at business, educational, political, social events or at other places; Meaningful, relevant, and fruitful connections are often left to luck and take time to develop. Although systems and procedures for automating or enhancing connections between individuals exist today, they are ineffective, inaccurate, ambiguous, and sometimes awkward, or in an existing communication flow and social exchange. It can also hinder. IConnect enables secure levels of efficiency and elegance in establishing new connections in these meetings.
3. 개인(즉, CBID에 등록된 제3자)의 소개를 통해 처음 만난 사람들의 경우, 아이커넥트는 전후관계적으로 관련성 있는 정보의 교환을 촉진하며, 아울러 관련된 공통 연결들, 경험들, 관심사항들, 기타 등등의 개인적 교류를 강화시킨다. 3. For those who first met through the introduction of an individual (ie, a third party registered with the CBID), iConnect facilitates the exchange of relevant information in a contextual context, Issues, and so on.
4. 사업 혹은 소셜 교류를 위해 모인 개인들의 그룹의 경우, 아이커넥트는 정보 공유를 목적으로 동적으로 형성된 그룹 내에 개인들을 부가 및 포함시키는 것을 용이하게 한다. 4. For a group of individuals gathered for business or social exchange, iConnect facilitates the inclusion and inclusion of individuals in dynamically formed groups for the purpose of information sharing.
아이커넥트를 따라 교환될 수 있는 정보의 양상의 범위는 또한 아이커넥트의 가치를 확대시킨다. 시각적인 정보가 즉각적으로 및 별개로 디스플레이(예컨대, HUD) 상에 공유될 뿐만 아니라. 멀리에서 시선을 교환한 2명의 개인들 사이에서 확립될 수 있는 즉각적인(instant) "전화통화" 로서 청각적인 정보(aural information)도 교환될 수 있다. 이것은 소정의 보안 어플리케이션들, 소셜 상황들(예컨대, 파티, 바 현장(bar-scene))에서 유용할 수 있으며 그리고 사람들이 서로 자리를 잡으며(spot one another) 그리고 멀리서 대화하기를 원하는 다른 모임들에서 유용할 수 있다. The range of information aspects that can be exchanged along the iConnect also extends the value of iConnect. Not only visual information is shared immediately and separately on the display (e.g., the HUD). Aural information can also be exchanged as an instant "phone call" that can be established between two individuals who have exchanged their gaze in the distance. This may be useful in certain security applications, social situations (eg, party, bar-scene), and may be useful in other groups that want to spot one another and communicate remotely It can be useful.
예시적인 실시예들에서, 아이커넥트는 안면 인식 또는 다른 객체 인식 소프트웨어에 대한 그 어떤 금지도 존중하면서, 이들 기능들을 수행한다. 그렇긴 하지만, 아이커넥트와 관련된 아키텍처는, 웨어러블 카메라들의 시야 내의 있는 사람들에 대한 자동화된 인식의 이러한 최종적인 허용(eventual allowance)을 고려한다. 사실, CBID는, 카메라 이미지들을 획득하는 개인의 신원이 이들 이미지들과 관련이 있음을 보장함으로써 및/또는 이러한 행위들이 발생하는 중임을 촬영당하는 사람에게 통보하는데 상기 신원이 이용됨을 보장함으로써, 프라이버시 문제들을 경감하는데 도움을 줄 수 있다. CBID는, 이미지 취득자의 신원에 기초하여, 개인이 이러한 이미지들을 허용한 경우에만, 카메라 이미지들의 저장 및/또는 전송을 허용 또는 금지할 수 있다. 또한, 취득된 임의의 이미지들과 식별된 디바이스 사용자와의 관련성이, 부적절한 이미지들의 취득을 단념시키는 역할을 해야만 한다. 반복되는 위반자들은, 이미지 및 비디오 파일들에 저장되는 그들의 신원들에 기초하여 식별될 수 있어야 한다. In the exemplary embodiments, EyeConnect performs these functions while respecting any prohibitions on facial recognition or other object recognition software. However, the architecture associated with EyeConnect takes into account this eventual allowance of automated recognition of people in view of wearable cameras. In fact, the CBID ensures that the identity of the person obtaining the camera images is associated with these images and / or by ensuring that the identity is used to notify the person being photographed that these actions are taking place, Can help alleviate them. The CBID may allow or prohibit the storage and / or transmission of camera images only if the individual allows such images, based on the identity of the image acquirer. In addition, the relevance of the acquired arbitrary images to the identified device user must also serve to dissuade acquisition of inappropriate images. Repeated offenders must be identifiable based on their identities stored in image and video files.
또한, 아이커넥트 어플리케이션은 지오-로케이션을 지원하며 그리고 밀접한 관계의 개인들(proximity-relevant individuals)의 단방향 혹은 쌍방향 정보 교환을 제공한다. 다른 예시적인 실시예에서, 2명의 아이커넥트 사용자들은, 이들이 연결되어야 하는지 혹은 이미 연결되어 있는지를 결정하도록, 잠시동안 서로를 응시한다. 활성화를 위한 서로의 눈들에서의 이들 상호간의 응시는 동시에 발생하며 그리고 지오-로케이션은 "스파크(Spark)"를 생성한다. 만일, 2명의 사용자들이 이미 아이커넥트된 것이 아니고 그리고 충분한 공통성(commonality)을 갖는다면, 상기 스파크가 점화되며(Ignite), 그리고 사용자들은 개인적인, 입문 대화(personal, introductory conversation)를 지원하도록 전후관계를 고려한 적절한 정보와 함께 즉각적인 "연결 경보(Connect Alert)"를 수신한다. In addition, the iConnect application supports geo-location and provides unidirectional or bi-directional information exchange of proximity-relevant individuals. In another exemplary embodiment, the two iConnect users stare at each other for a while to determine if they should be connected or already connected. These mutual gazes in each other's eyes for activation occur at the same time, and geo-location generates a "spark. &Quot; If the two users are not already child connected and have sufficient commonality, then the spark will ignite and users will be able to use contextual relationships to support personal, introductory conversation. And receives an immediate "Connect Alert" with the appropriate information considered.
한 사람의 눈들로, 연결 경보 다음에 디스플레이와 즉각적으로 상호작용함으로써, 연결된 한 쌍의 사용자들은 서로에 대한 선택 정보를 부라우징할 수 있다. 이것은 서로 간의 물리적인 대화에 참여하기 전에, 도중에, 또는 이후에 발생할 수 있다. 또한, 아이커넥트는, 연결 경보를 통해 초기에 공유되는 것을 넘어서, 어느 일 측의 사용자가 제공하기로 결정한, 추가적인 정보의 공유 및 전송을 용이하게 한다. By one person's eyes, by instantly interacting with the display after a connection alert, a connected pair of users can bridify selection information for each other. This can occur before, during, or after participating in a physical conversation with each other. In addition, the iConnect facilitates the sharing and transmission of additional information beyond what is initially shared through a connection alert, which one user has decided to provide.
아이커넥트를 지원하는 2개의 중요한(key) 요소들이 존재한다. 1) 사용자의 "페르소나(Persona)"와 2) 사용자의 "이벤트 프로파일들(Event Profiles)" 이 그것이다. 사용자의 페르소나는 수동으로 입력될 수도 있으며, 페이스북(Facebook) 혹은 링크드인(Linkedln)과 같은 링크된 계정들로부터의 정보로 자동을 채워질 수도 있으며, 및/또는 사용자의 온라인 풋프린트(online footprint)로부터의 다른 정보에 기초할 수도 있다. 페르소나 데이터는 이름, 목표, 관심사항, 직업, 고용주, 가족 구성원, 동료, 전화번호, 취미, 거주지, 좋아하는 스포츠 팀, 좋아하는 음악, 기타 등등과 같은 정보를 포함한다. There are two key elements that support iConnect. 1) the user's "Persona" and 2) the user's "Event Profiles". The user's persona may be entered manually, filled in automatically with information from linked accounts, such as Facebook or Linkedln, and / or the user's online footprint, Or other information from the < / RTI > Persona data includes information such as name, goals, interests, jobs, employers, family members, colleagues, phone numbers, hobbies, habits, favorite sports teams, favorite music,
사용자의 이벤트 프로파일들은 매칭 및 공유 둘다를 용이하게 하는 정보를 포함한다. 사용자는 사용자의 페르소나로부터의 데이터로 채워지는 필드들을 구비한, 표준화된 이벤트 템플릿들(standardized Event Templates)의 세트에서 시작하여 이벤트 프로파일들을 확립한다. 이벤트 프로파일들은 자동으로 또는 수동으로 채워질 수 있다. "스파크"(즉, 동시발생한, 로컬, 교환된 시선)에 후속하여, 아이커넥트는, "점화(Ignite)"를 할 것인지 그리고 연결 경보를 생성할 것인지를 결정하기 위해, 2명의 사용자들의 액티브 이벤트 프로파일들로부터의 데이터를 비교한다. 선택된 주제들 내에서의 공통성, 연결 이득들(connection interests)에 기초하는 임계값들 및/또는 다른 팩터들이 이용되어 점화가 언제 일어나야하는지를 결정한다. 매칭을 평가하기 위한 정보를 제공하는 것 이외에도, 각각의 이벤트 프로파일들은 또한, 어떤 정보가 연결 경보에서 공유되어야 할지를 정확하게 특정한다. 이와 같이, 이벤트 프로파일들은 점화가 일어나야할지의 여부를 결정하는데 이용될 뿐만 아니라, 어떤 입문 정보(introductory information)가 자동적으로 공유되어야 할지를 결정하는데 사용된다. The user's event profiles include information that facilitates both matching and sharing. The user establishes event profiles, starting from a set of standardized event templates, with fields filled with data from the user's persona. Event profiles can be populated automatically or manually. Following an "spark" (i.e., a coincident, local, interchanged line of sight), the iConnect will send two active users ' events Compare the data from the profiles. Commonality within the selected topics, thresholds based on connection interests, and / or other factors are used to determine when the ignition should occur. In addition to providing information for evaluating a match, each event profile also accurately specifies what information should be shared in the connection alert. Thus, event profiles are used not only to determine whether or not an ignition should occur, but also to determine which introductory information should be automatically shared.
표준화된 이벤트 프로파일 템플릿들의 세트는 사업 회의, 파티, 바-현장(bar-scene), 수업, 사무실(office place), 휴가, 거리-현장(street-scene), 스포츠 이벤트, 해변-현장(beach-scene), 교회, 판매 회의, 기타 등등과 같은 이벤트들에서 이용될 수 있다. 각각의 템플릿은 사용자 또는 사용자들의 그룹에 의해서 주문 제작될 수도 있으며, 새로운 이벤트 템플릿들이 아이커넥트 사용자 커뮤니티 내에서 생성 및 공유될 수 있다. A set of standardized event profile templates can be used for business meetings, parties, bar-scenes, classes, office places, vacations, street-scenes, sporting events, beach- scenes, churches, sales meetings, and so on. Each template may be customized by a user or group of users, and new event templates may be created and shared within the iConnect user community.
또한, 디바이스 사용자는 넓은 범위의 그날 그날의 조건들(day-to-day conditions)을 충족시키도록, 임의 개수의 커스텀화된 프로파일들을 유지할 수 있다. 예를 들어, 사용자는 다음의 상황들을 커버하기 위한 프로파일들을 유지할 수 있다: 일반적인 사업, 다수의 특정한 사업 회의들 및 다른 이벤트들, 교육적 이벤트들, 취미 모임들, 소셜 상호작용들, 교회, 기타 등등. 서로 다른 상황들에 대해서 서로 다른 프로파일들을 유지함으로써, 정보의 보급이 매우 세밀하게 제어될 수 있으며 그리고 가족, 친구들, 친한 친구들, 사업 동료들, 친한 사업 동료들, 선생님들, 관심사항을 공유하는 개인들, 기타 등등과 같은 그룹에 적합한 방식으로 미리 계획될 수 있다. In addition, a device user can maintain any number of customized profiles to meet a wide range of day-to-day conditions. For example, a user may maintain profiles to cover the following situations: general business, a number of specific business meetings and other events, educational events, hobbies, social interactions, churches, etc. . By maintaining different profiles for different situations, the dissemination of information can be controlled very finely and can be controlled by family, friends, close friends, business associates, close business associates, teachers, And the like, in a manner suitable for the group.
하나의 상황에서 다른 하나의 상황으로 넘어가는 것은, 1) 명시적(사용자가 디바이스에게 상황이 바뀌었음을 통보함) 또는 2) 암시적(디바이스가 서로 다른 상황들을 인식함)이 될 수 있다. 상황적 조건들(situational conditions)에 대한 인식은, 여러 팩터들에 대한 고려에 기초할 수 있는바, 이러한 여러 팩터들은, 안면 인식, (친숙한) 객체 인식(예컨대, 집 안에 있는 객체들), 특징적인 행위들에 대한 인식(예컨대, 스포츠 이벤트에서, 골프를 치는 것), 지오-로케이션(예컨대, 공항, 병원), 사이나지(signage), 사용자의 달력에 스케줄링된 이벤트들, 디바이스에 의해서 최근에 수행된 다른 행위들(예컨대, 회의 참석, 호텔 투숙), 음악의 존재(예컨대, 콘서트), 기타 등등을 포함할 수 있다. 몇몇 상황들에서, Moving from one situation to another can be either 1) explicit (the user notifies the device that the situation has changed) or 2) implicit (the device recognizes different situations). Recognition of situational conditions can be based on consideration of several factors such as facial recognition, (familiar) object recognition (e.g., objects in the house), features (E.g., sports events, golfing), geo-locations (e.g., airports, hospitals), signage, events scheduled on the user's calendar, (E. G., Meeting attendance, hotel stay), presence of music (e. G., Concert), and so on. In some situations,
2 이상의 프로파일들이 동시에 유효할 수도 있다(예컨대, 취미 및 소셜 행위들이 동시에 취해짐). 이 경우, 교환은, 임의의 적용가능한 프로파일 내에서의 허가들에 기초할 수 있다. 또한, 교환은, 관심사항들 및/또는 특정 조건들(예컨대, 특정 시간대 내에서, 같은 도시에 살았음)의 중첩 정도와 같은 다른 팩터들에 기초하여 "조건적(conditional)"이 될 수도 있다. Two or more profiles may be valid at the same time (e.g., hobbies and social actions are taken at the same time). In this case, the exchange may be based on permissions in any applicable profile. In addition, the exchange may be "conditional" based on other factors such as the degree of overlap of interests and / or certain conditions (e.g., within a particular time zone, living in the same city) .
상호작용의 모든 레벨들에서, 정보의 교환은, 참가자들의 확립된 신원 및 정보 교환을 위한 이들의 미리-확립된 프라이버시 레벨에 기초한다. 예를 들어, CBID를 이용하여, 침입자가 일시적으로 셋 다운된 디바이스를 맞바꿈하거나 혹은 집어들고, 그리고 개인적인, 디바이스-소유자의 아이커넥트 정보를 제 3 자에게 전송하는 것은 불가능할 것이다. At all levels of interaction, the exchange of information is based on the participants' established identity and their pre-established privacy level for the exchange of information. For example, using the CBID, it would be impossible for an intruder to swap or pick up a device that was temporarily set down and to transfer personal, device-owner's childconnect information to a third party.
또 다른 실시예로서, 아이커넥트를 통해 과거에 만난 적이 있는 2명의 사용자들 혹은 아이커넥트의 네트워크 내에서 서로 아는 사람들(acquaintances)로서 서로 연결되었던 2명의 사용자들은 이름을 기억하지 못하는 당황스러움에 두번 다시 직면하지 않을 것이다. 아이커넥트는 "보이지 않는 이름-태그" 및 그 이상을 제공한다. 2명의 이전 지인들은, 이름 기억 및 이전 만남들에 대한 완전한 전후맥락 둘다의 도움으로, 즉시 다시 알게된다(re-acquaint). 이것은 과거의 미팅 이벤트들, 장소들, 시간들, 공유된 정보, 및 심지어 과거의 만남 당시에 혹은 그후에 로그인된 보충 정보의 리마인더들을 포함한다.In another embodiment, two users who have previously met through the iConnect or two users who were connected to each other as acquaintances in the network of iConnect have been reassembled twice in an embarrassment of not remembering their names You will not face it. IConnect provides "invisible name-tags" and more. Two older acquaintances re-acquaint immediately with the help of both name memory and complete post-war contexts of previous encounters. This includes past meeting events, places, times, shared information, and even reminders of supplemental information logged in at or after the previous encounter.
또한, 아이커넥트는 전후관계에 맞는 관련 정보(contextually relevant information)의 즉각적인 제시와 함께, 연결된 개인들에 대한 인스턴트 온라인 검색의 결과들을 제공한다. 이러한 만남에서의 사용자들 둘다는, 평지에 있으며(on level ground), 그리고 아이커넥트에서 제공하는 무해하고(innocuous) 풍부한 기억 향상으로 인하여 안심이 된다. The iConnect also provides instant online search results for connected individuals, with immediate presentation of contextually relevant information. Both of these users at the meeting are on level ground and are relieved by the innocuous rich memory improvements offered by iConnect.
또 다른 실시예에서, 2 이상의 아이커넥트된 개인들 사이에서 중첩되는 관심사항들은 식별 및 디스플레이될 수 있다. 이러한 관심사항들은 에 과거 미팅들의 히스토리컬 콘텍스트 및 식별된 주제들에 대한 정보 교환들에 배치될 수 있다. In yet another embodiment, overlapping interests between two or more eye linked individuals can be identified and displayed. These concerns can be placed in the historical context of past meetings and information exchanges on identified topics.
예시된 실시예들을 도와주기 위한 시나리오로서, 디바이스 사용자 1(U1)는 사용자 2(U2)를 회의에서 만난다. 이들은 만난 적이 없지만, 둘다 과거에 동일한 회사에서 근무했으며 많은 사람들을 공통으로 알고 있다. 이들은 회의에 참석하기 전에 아이커넥트를 위해 그들의 사업-회의 이벤트 프로파일들을 로딩하였다. 이러한 이벤트 프로파일은 회의에 참석하기 위한 그들 각각의 개인적 목표, 이들의 직업 이력들, 이전 직장들에서 친했던 동료들의 이름들을 포함할 뿐만 아니라, 그들이아이커넥션들을 스파킹하는데 관련이 있다라고 보는 다른 정보를 포함한다. 이들은 또한 각각, 그들의 선호 취미들, 그들의 부인들 및 자식들의 이름들, 자녀가 다니는 학교, 및 보다 개인적인 레벨에서 연결을 생산할 수 있는 다른 개인적인 데이터를 포함하도록, 그들의 사업-회의 이벤트 프로파일을 구성하였다. U1은 그의 직업적 백그라운드(professional background)에 관해서만 정보 공유를 허용하도록 자신의 사업-회의 이벤트 템플릿을 설정하였다. U2의 설정은 모든 매칭 항목들의 공유를 허용한다. As a scenario for helping the illustrated embodiments, device user 1 (U1) meets user 2 (U2) at the conference. They have never met, but both have worked in the same company in the past and know many people in common. They loaded their business-meeting event profiles for iConnect before attending the meeting. These event profiles not only contain their personal goals for attending the meeting, their career histories, the names of colleagues who were familiar with their previous work, as well as other information that they consider relevant for sparking child connections . They also organized their business-meeting event profiles to include their preferred hobbies, their wives and children's names, their children's school, and other personal data that could produce connections at a more personal level. U1 has set up his business-meeting event template to allow information sharing only on his professional background. The setting of U2 allows sharing of all matching items.
아이커넥트를 활성화시킨 채로, 점심 대기줄에 서 있으면서, 이들이 연결될 것인지를 알아보도록, 이들은 수 초 동안 서로를 응시한다. 그들의 웨어러블 디바이스들 각각은 연결 경보를 디스플레이한다. 이들 둘다는 회사에서 과거에 오버랩됨을 판독하며 그리고 U1은 자신의 자녀와 U2의 자녀가 같은 학교에 다님을 알아낸다. 이들은 또한, 각자가 회의에 무엇때문에 참석했는지를 알게되며 그리고 그들의 프로파일로부터 선택적으로 공유되는 다른 정보를 아이-스크롤(eye-scroll)한다. 이후, 이들은 대화에 참여하고, 공통 관심 영역들을 즉시 공유하며 그리고 회의에 대한 그들의 목적을 열심히 설명한다. 이들은 아이커넥트 어플리케이션을 통해 증명서들(credentials)을 교환하며 그리고 만날 약속을 잡는다. 수 분 동안에 이들은 그들의 초기 연결을 마무리지으며 그리고 다른 참석자들과의 아이커넥트를 위해 자리를 옮긴다. With the EyeConnect active, they stare at each other for a few seconds, standing on the waiting line and seeing if they will be connected. Each of their wearable devices displays a connection alert. Both read that the company has past overlap and U1 finds out that their child and U2's children are in the same school. They also know what each person attended in the meeting and eye-scroll other information that is optionally shared from their profile. Later, they engage in conversations, instantly share common areas of interest, and work hard to explain their purpose for the meeting. They exchange credentials through the iConnect application and make appointments to meet. In a matter of minutes, they finish their initial connection and move to a child connect with other attendees.
다른 실시예들을 설명하기 위하여 상기 시나리오를 확장하면, U2 와의 만남 동안에, U1은 또한 사용자 3(U3)과 간략하게 아이커넥트된다. 나중에, U1은 파티에서 U3을 발견하며 그리고 그/그녀가 낯이 익다고 생각한다. U3과 U1은 서로를 응시하며, 스파크를 발생시키고, 그리고 아이커넥트는 U3과 U1이 이미 아이커넥트되었음을 알려준다. 파티 이벤트 프로파일 보다 지인 프로파일(Acquaintance Profile)이 우선시되며, 그리고 아이노우유(EyeKnowU) 경보가 U3과 U1 각각에 대해 생성된다. U1은 U3의 이름, 이들이 만났던 다른 이벤트에 대한 주석, 및 U3가 그 이벤트에서 공유했었던 정보를 알 수 있다. U1은 현재의 파티 이벤트에 대하여, 새로운 매치와 함께, 점화(Ignition)가 있음을 주목하며(note) 그리고 아이-시그널링(eye-signaling)을 통해 상기 파티에 대한 연결 경보를 볼 것을 선택한다. U1은 파티 콘텍스트에 대하여 U3에 의해서 제공되는 몇몇 추가 정보를 보며 그리고 U3도 또한 조종사임에 주목한다. U3도 동일한 것에 주목한다. 이들은 서로 반갑게 만나며, 이들의 과거의 만남을 확인하며(acknowledge), 그리고 비행에 관한 이들의 열정에 관하여 토론하기 시작한다. Extending the scenario to illustrate other embodiments, during the encounter with U2, U1 is also briefly associated with user 3 (U3). Later, U1 finds U3 at the party and thinks he / she is familiar. U3 and U1 stare at each other, generate a spark, and EyeConnect tells U3 and U1 that they are already in the eye connection. The Acquaintance Profile takes precedence over the Party Event Profile, and EyeKnowU alerts are generated for U3 and U1, respectively. U1 can know the name of U3, the annotations to other events they met, and the information that U3 shared in the event. U1 notices that there is an ignition with a new match for the current party event and chooses to view the connection alert for the party via eye-signaling. U1 looks at some additional information provided by U3 for the party context, and U3 is also a pilot. Note that U3 is the same. They meet with each other, acknowledge their past encounters, and begin to discuss their passion for flight.
아이커넥트 서비스는 안면 인식을 다른 개인들의 이미지들에 선택적으로 적용할 수 있다. 시야 내에 있는 사람들에 대한 정보를 부정하게(surreptitiously) 제공하는 것을 방지하기 위한 단계들이 취해질 수 있는바, 특히, 이러한 기능에 대한 금지가 있는 상황들에서 그러하다. 2명의 사람들이 서로를 동시에 응시할 때, 아이커넥트의 안구 추적 소프트웨어는 웨어러블 장면 카메라와 함께 작동하여, 사용자가 사용을 허용한 정보로부터 얻어진 스파크 이벤트를 정의한다. 예를 들어, 전술한 일례에서, U1의 아이커넥트 어플리케이션 내에 있는 안구 추적 소프트웨어는, U1이 다른 사람의 눈들을 응시하고 있음을 주목한다(note). U2의 아이커넥트 소프트웨어도 U2가 다른 사람의 눈들을 응시하고 있음을 동시에 주목한다. 각각은, 응시되고 있는 사람의 얼굴에 대한 일시적인, 일회용(disposable) 사진을 찍는바, 따라서 U2는 U1의 얼굴을 캡춰하고, U1은 U2의 얼굴을 캡춰한다. 매칭을 위해 각각의 얼굴로부터 안면 피처들이 추출될 수 있으며 그리고 상기 이미지는 사용자 확인을 위해 보관된다. The EyeConnect service can selectively apply face recognition to images of other individuals. Steps can be taken to prevent providing surreptitiously information about people within sight, especially in situations where there is a prohibition on these functions. When two people gaze at each other at the same time, EyeConnect's eye tracking software works in conjunction with a wearable scene camera to define spark events derived from information the user has allowed to use. For example, in the above example, eye tracking software in U1's EyeConnect application notes that U1 is staring at another person's eyes. U2's EyeConnect software also notes that U2 is staring at someone's eyes. Each takes a temporary, disposable picture of the face of the person being examined, so U2 captures the face of U1, and U1 captures the face of U2. Facial features may be extracted from each face for matching and the image is retained for user verification.
각각의 이미지는 시간 및 지리적 위치가 스탬프되며, 그리고 스파크-테스팅을 위해 서버로 전송된다. U2의 이미지가 U1의 시간, 얼굴 및 위치(아이커넥트에 등록할 때에 U1에 의해서 아이커넥트에 제공된 U1 얼굴의 미리-저장된 이미지를 이용하여)와 매칭되고, 그리고 U1의 이미지가 U2의 시간, 얼굴 및 위치에 매칭되는 경우, 서버는 U1 및 U2 사이에서 "스파크"를 선언한다. 연결 경보의 일부로서, 이들에게는 각각 오리지널 이미지가 확인을 위해 제공된다. 선택적으로는, 각 사용자의 페르소나 이미지가 또한 요청 사용자(soliciting user)와 공유될 수 있다. Each image is stamped with time and geographical location, and sent to the server for spark-testing. The image of U2 is matched with the time, face and location of U1 (using a pre-stored image of the U1 face provided to the eyeconnect by U1 when registering with the eyeconnect), and the image of U1 matches the time of U2, The server declares a "spark" between U1 and U2. As part of the connection alert, they are each provided with an original image for verification. Optionally, the persona image of each user may also be shared with a soliciting user.
다음으로 서버는 개인들의 프라이버시를 존중하여, 캡춰된 일시적인 이미지들 및 추출된 안면 피처들을 폐기하며 그리고 이들의 이벤트 프로파일 정보를 이용하여 "공통성의 임계값(threshold of commonality)"을 스크린한다. 연결 임계값을 넘어섰다라고 추정되면, 상기 서버는 이들 사이에서 "커넥션"을 선언하며 그리고 상호 연결 경보가 생성되고, 그들의 이벤트 프로파일들에 명시된 바와 같은 정보가 공유된다. The server then honors the privacy of the individuals, discards the captured temporary images and extracted facial features, and screens their "threshold of commonality " using their event profile information. If it is assumed that the connection threshold has been exceeded, the server declares a "connection" between them and an interconnect alarm is generated and the information as specified in their event profiles is shared.
예외적인 핸들링 및 추가 피처들Exceptional handling and additional features
전력 소모 및 이용가능한 대역폭은 모든 웨어러블 디바이스들에 대한 아주 흔한 이슈들이다. 아이커넥트(EyeConnect)가 가능한 경우, 정의된 사용자 시야(field-of-view: FOV) 내에서 예를 들어, 1초 또는 다른 바람직한 기간들 동안 시선-추적(gaze-tracking)이 수행될 수 있다. 캡춰된 시선들 각각에 대하여, 웨어러블 카메라의 FOV 내의 제한된 관심영역(area-of-interest: AOI) 상에 응시점(gaze point)이 맵핑된다. 아이커넥트 어플리케이션은 이러한 AOI 내에서 얼굴을 찾는다. 만일, 얼굴이 발견되고 그리고 상기 얼굴이 헤드웨어 디바이스를 착용한 것처럼 보인다면, 상기 사용자가 상호 응시(mutual gaze)에 참여하는지의 여부를 판별하기 위해서, 상기 얼굴의 이미지는 아이커넥트 클라우드로 전송될 수 있다. 감소된 전력 소모를 유지하면서도, 수용가능한 디바이스 레이턴시에 대한 많은 최적화 기회들이 존재하는바, 이는 안구-개시 연결 요청들(eye-initiated Connect requests), 다른 액티브 아이커넥트 사용자들의 근접성에 관하여 액티브 아이커넥트 사용자에게 전송되는 푸시 또는 풀 지오-로케이션 데이터(pushed or pulled geo-location data), 헤드웨어 디바이스들을 착용한 얼굴들에 대한 이미지 프로세싱을 최적화하는 방법들을 포함한다. Power consumption and available bandwidth are very common issues for all wearable devices. If EyeConnect is possible, gaze-tracking can be performed within a defined field-of-view (FOV), for example, for one second or other desirable periods. For each captured line of sight, a gaze point is mapped onto a limited area-of-interest (AOI) in the FOV of the wearable camera. The iConnect application looks for faces in these AOIs. If a face is found and the face appears to wear a headwear device, the image of the face is transmitted to the eyeconnect cloud to determine whether the user participates in a mutual gaze . There are many optimization opportunities for acceptable device latency while maintaining reduced power consumption because of eye-initiated Connect requests, the proximity of other active eyeconnect users, Or pushed or pulled geo-location data sent to the headwear device, methods for optimizing image processing for faces wearing headwear devices.
또 다른 예시적인 실시예로서, 아이커넥트는 웨어러블 컴퓨터 상의 큰 FOV 내에서, 감소된 정확도 또는 신원 및/또는 추적의 손실로부터 야기되는 우아한 성능저하(graceful degradation of performance)와 함께, 낮은-정확도의 허용오차(tolerance)로 동작하도록 설계되며, 또는 심지어 일시적으로 안구-추적이 작동불가일 수도 있다. 시선 추적 기술은 이미지 중에서 하나의 얼굴을 선택하는데 도움을 준다. 또한, 한 쌍의 사용자들에 대한 선택은, 시간 및 지오데이터 스탬핑(time- and geo location- stamping)에 의해서 스크린된다. As yet another exemplary embodiment, the iConnect is capable of providing low-accuracy tolerance along with graceful degradation of performance resulting from reduced accuracy or loss of identity and / or tracking within a large FOV on a wearable computer. It may be designed to operate with tolerance, or even temporary eye tracking may be inoperable. Eye tracking technology helps to select one face from among images. In addition, the selection for a pair of users is screened by time and geo location-stamping.
앞서 서술한 바와 같이, 아이커넥트는 사용자의 시선에 기초하여 관심영역(AOI)을 추출한다. AOI의 사이즈는 추정된 시선 정확도에 의해서 결정된다. 예를 들어, ±10도의 응시점 정확도(±10 degree gaze point accuracy)는 이미지 분석을 위해 20+ 도 반경의 AOI (20+ degree radius AOI)를 요구할 수 있다. 만일, 시스템이 시선 추적에 대한 전부 손실(total loss)을 경험한다면, AOI는 장면 카메라의 전체 FOV 가 될 것이다. 이러한 것은, 상호-응시형 디바이스-착용 얼굴(mutually-gazing device-wearing face)을 식별하기 위해 더 많은 프로세싱 파워를 요구할 것이다 As described above, the eyeconnect extracts the area of interest (AOI) based on the user's line of sight. The size of the AOI is determined by the estimated eye line accuracy. For example, a ± 10 degree gaze point accuracy of ± 10 degrees may require a 20+ degree radius AOI for a 20+ degree radius for image analysis. If the system experiences total loss of eye tracking, AOI will be the overall FOV of the scene camera. This would require more processing power to identify a mutually-gazing device-wearing face
상호 응시자들(mutual-gazers)의 스크리닝 및 인식은, 디바이스-착용 개인들을 시작적으로 스크린하는 컴퓨터 비전(CV) 방법들을 이용하여 또한 향상될 수 있다. 디바이스들은 가령, 하나 이상의 외부 지향 적외선(IR) LED(들) 및/또는 디바이스 및/또는 사용자들에 부착된 특정한 인식가능한 패턴들(예컨대, 가시광선 혹은 적외선)과 같은, 콘트롤된 시각적 정보를 통해 이러한 CV 방법들을 도울 수 있다. IR LED는 IR-기반의 안구 추적 또는 다른 디바이스들과의 충돌을 회피하도록 또는 특정 개인을 식별하도록(특정한 변조 패턴들을 인코딩함으로써) 모듈화될 수 있다. 다른 형태들의 변조된/구별가능한(modulated/distinguishing) 정보 교환이 또한 포함될 수 있다. Screening and recognition of mutual-gazers may also be enhanced using computer vision (CV) methods that screen device-wear individuals on an ongoing basis. The devices may be controlled via controlled visual information, such as, for example, one or more external directed infrared (IR) LEDs and / or certain recognizable patterns (e.g., visible light or infrared) attached to the device and / These CV methods can help. IR LEDs can be modularized (by encoding specific modulation patterns) to avoid IR-based eye tracking or collisions with other devices or to identify a particular individual. Other types of modulated / distinguishing information exchange may also be included.
또 다른 예시적인 실시예로서, 비록 드물기는 하지만, 여러 명의 동시성, 함께 위치된(co-located), 아이커넥트 사용자들 사이에서 발생할 수 있는 잠재적인 오류연결들(misconnections)의 문제점들을 고려하자, 디바이스를 착용하고 있으며 아이커넥트가 활성화된 4명의 사용자들을 고려하자. Ul과 U2는 나란히 앉아 있으며 U3와 U4는 서로 옆에 앉아있다(Ul and U2 are sitting side-by-side, and U3 and U4 are sitting next to one another). U1과 U3이 연결을 바라면서 응시에 참여하며, 그리고 U2 및 U4도 또한 서로를 바라본다. 만일, 정확도가 부정확하다면, 시스템은, U1과 U4가 서로 응시한다라고 생각할 수 있으며 그리고 U2와 U3이 서로 응시한다라고 생각할 수 있다. 이 경우, 상기 시스템은 이러한 문제점을 해결하기 위한 여러 매커니즘들을 제공할 수 있다. As another exemplary embodiment, consider the problems of potential concurrent misconnections between the iConnect users, which are rarely co-located with multiple concurrent devices Let's consider four users who are wearing an iConnect and are active. Ul and U2 sit side by side and U3 and U4 sit next to each other (Ul and U2 are sitting side-by-side, and U3 and U4 are sitting next to one another). U1 and U3 join the gaze in hopes of a connection, and U2 and U4 also look at each other. If the accuracy is incorrect, the system may think that U1 and U4 stare at each other and think that U2 and U3 stare at each other. In this case, the system can provide various mechanisms for solving such a problem.
1. 아이커넥트는 에러의 가능성을 주목할 수 있으며 그리고 사용자들에게 경보를 발령할 수 있다. 1. EyeConnect can notice the possibility of errors and alert users.
2. 아이커넥트는 최적의 추측을 만들 수 있으며 그리고 이용가능한 용이한 보정과 함께 확인을 요청할 수 있다. 2. The iConnect can make optimal guesses and request confirmation with easy calibration available.
3. 아이커넥트는 잠재적인 타겟 개인들 사이에서 각각의 사용자가 선택할 것을 요청할 수 있다. 3. The iConnect can ask each potential user to choose between potential target individuals.
다음을 상기해야 하는바, 2명의 사용자들이 서로를 바라보면, 각 사용자의 얼굴을 찍은 스냅샷이 일시적으로 유지되는데, 이는 2명의 사용자들이 실제로 서로를 바라보고 있는지를 검증하기 위한 정보를 제공하기 위한 것이다. 앞서 암시된 바와 같이, 이러한 스냅샷의 이용가능성 및 적절한 시간에서의 제공은 의도된 연결들을 위한 확신을 제공할 수 있다. 상기 스냅샷 혹은 타겟의 페르소나로부터의 기존 이미지가 이러한 목적을 위해 이용될 수 있다. It should be recalled that when two users look at each other, a snapshot of each user's face is temporarily maintained, which provides information for verifying that two users are actually looking at each other will be. As previously indicated, the availability of these snapshots and the provision at the appropriate time can provide confidence for the intended connections. Existing images from the snapshot or the persona of the target may be used for this purpose.
정확성이 하나의 추가적인 디바이스-착용 아이커넥트 사용자로부터 시선을 더 멀리 유도하는 본 일례의 변형예들은 또한, 사용자 인터페이스 내의 적절한 정보와 결부된 대형 AOI의 더 많은 프로세싱의 조합으로 해결될 수 있다. 거짓-양성(false-positives) 또는 거짓-음성(false-negatives) 여부에 관계없이, 잠재적인 오류 발생률은, 안구 추적 정확도가 감소하고 그리고 아이커넥트 사용자들이 많을수록 증가한다. These exemplary variations, where accuracy leads to further eye contact from one additional device-worn eye-connect user, can also be addressed with a combination of more processing of large AOI combined with appropriate information in the user interface. Regardless of false-positives or false-negatives, the potential rate of error increases with decreasing eye-tracking accuracy and with more EyeConnect users.
다음의 것들은 추가적인 예시적 피처들이며, 이들 중 하나 이상이 아이커넥트 시스템들에 포함될 수 있다: The following are additional exemplary features, and one or more of them may be included in the iConnect systems:
1. 아이 토크(EyeTalk)- 아이커넥트는 "음성 연결"을 지원한다. 1. EyeTalk - EyeConnect supports "voice connection".
2. 지리적 위치 메타 데이터- 시각적으로 제공되는 빠른 정보, 상기 정보는 a) 근접한 지인들(부근 사람들에게 알려진), b) 근접한, 연결을 개방한 잠재적인 아이커넥트 사용자들(이들을 어디에서 찾아야하는지, 왜 연결되어야 하는지, 기타 등등에 대한 가이던스를 포함하여), 및 c) 이름 리마인더들 및 픽처들의 리스트을 포함하는 용이한 연결들에 관한 것이다. 2. Geographic location metadata - Quick information that is visually provided, this information includes: a) proximity contacts (known to nearby people), b) potential iConnect users who are close to the connection (where to find them, Why it should be connected, etc.), and c) easy reminders that include a list of name reminders and pictures.
3. 아이노트들(EyeNotes)- 지인들에 대한 메모들로서, 이는 음성으로 옮길 수 있으며(voice-transcribed), 텍스트로서 부가될 수 있고, 또는 페이스북, 링크드인 등에 스크린된 액세스에 기초한다. 3. EyeNotes - notes to acquaintances, which can be voice-transcribed, added as text, or based on screened access to Facebook, LinkedIn, and so on.
4. 프리-이벤트 연결들(Pre-Event Connections)- 사용자가 이벤트 프로파일들을 로딩하고 그리고 이벤트를 위한 시간 및 장소를 특정하자마자 연결경보들이 또한 허용될 수 있다. 4. Pre-Event Connections - Connection alerts can also be allowed as soon as the user loads the event profiles and specifies the time and location for the event.
5. 아이-시그널링이 없는 동작- 지리적 위치를 포함하는 임의의 식별 형태에 기초하는 사람들에 대한 일반적인 정보.5. Eye-No Signaling Actions - General information about people based on any form of identification, including geographic location.
6. 유니스파크(UniSpark)- 그들의 페르소나 또는 이벤트 정보에 매칭 및/또는 액세스를 허용하기로 사전 동의한(opted-in) 다른 디바이스 착용 개인들의 안구-신호 선택. 예를 들어, 사용자 1(U1)은, 아이커넥트를 통해 요청 사용자(soliciting user)와의 매칭(단방향 혹은 양방향 공유)을 허용하기로 사전 동의한 다른 디바이스 착용 개인인 사용자 2(U2)를 응시할 수 있다. 매치가 발생하면, U1은 U2에 대한 정보와 함께 연결경보(ConnectionAlert)를 수신한다. U2도 선택적으로는 연결경보를 수신할 수 있다. 아이커넥트가 U2에 대하여 활성이고 그리고 U2가 비-응시 경보들(non-gaze Alerts)를 인에이블했다면, U2는 시선없는 연결 경보(Gazeless Connection Alert)를 인에이블한다. 만일, U2가 아이커넥트를 구동하고 있지 않다면, U2는 요청, 매칭 사용자들로부터의 로그인된 연결 경보 정보와 함께 확립된 임의의 연결들에 대한 후속 리포트를 수신할 수 있다. 6. UniSpark - Eye-signal selection of other device wearers who opted-in to allow matching and / or access to their persona or event information. For example, user 1 (U1) may take user 2 (U2), another device wearer who has previously agreed to allow matching (one-way or two-way sharing) with a soliciting user via an iConnect . When a match occurs, U1 receives a connection alert (ConnectionAlert) along with information about U2. U2 can also optionally receive a connection alert. If the eyeconnect is active for U2 and U2 has enabled non-gaze alerts, U2 enables a Gazeless Connection Alert. If U2 is not driving the iConnect, U2 may receive a subsequent report on any of the established connections with the request, the logged connection alert information from the matching users.
7. 애니스팟(AnySpot)- 안면 인식이 허용되는 장소들, 시간들, 및/또는 상황들에서, 디바이스 사용자는 사용자가 웨어러블 컴퓨팅/아이커넥트를 사용하고 있는지의 여부에 관계없이, 정보를 획득하기 위해, 임의의 얼굴을 검색할 수 있다. 안면 인식을 이용하여, 디바이스 사용자는 그들이 바라보는 각각의 개인에 관한 그들 자신의 연락처들을 포함하여, 임의의 소스로부터 임의의 이용가능한 정보를 수신한다. 아이커넥트는 정보의 AR 프리젠테이션을 포함하는, 디스플레이-기반의 정보를 제공하는바, 단방향 정보 액세스(리콜, 노트들, 기타 등등을 포함) 및 양방향 정보 교환을 지원한다. 7. AnySpot - In places, times, and / or situations where facial recognition is allowed, the device user will be able to acquire information regardless of whether the user is using wearable computing / For that, you can search for any face. Using facial recognition, device users receive any available information from any source, including their own contacts for each individual they see. IConnect provides display-based information, including AR presentations of information, and supports unidirectional information access (including recalls, notes, etc.) and two-way information exchange.
다음의 내용은 각 설정 내의 특징적인 요소들과 함께, 추가적인 예시적인 연결 설정들의 리스트이다. 모든 구현예들은 CBID-기반이 될 수 있으며 그리고 콘택트 렌즈들, 폰들, 및/또는 외부 카메라들 뿐만 아니라 안구 추적, 및 비-증강 현실/가상 현실, 증강 현실, 및 가상 현실 상황들을 위한 디스플레이를 수용할 수 있다. The following is a list of additional exemplary connection settings, along with the characteristic elements in each setting. All implementations may be CBID-based and may accommodate displays for eye tracking, and non-augmented reality / virtual reality, augmented reality, and virtual reality situations as well as contact lenses, pawns, and / can do.
선택적으로는 대화에 의해 도움을 받는 시선-도움 객체 인식(Gaze-Assisted Object Identification Optionally Assisted by Dialogue)Optionally, the Gaze-Assisted Object Identification Optionally Assisted by Dialogue
정지 화상 또는 빠르게 변하는 일련의 이미지들로부터 객체를 식별하는 컴퓨터 비전(vision) 기술들은 상당한 프로세싱 능력, 논-로컬(non-local) 프로세싱을 위한 고 대역폭의 이미지 데이터 전송, 높은 해상도의 디지털 이미지(imagery), 비-실시간 프로세싱, 및 한정된 프로세싱 능력, 카메라 해상도, 전송 속도, 배터리 파워 및/또는 메모리에 의해서 제약을 받는 웨어러블, 카메라-장비된 컴퓨터 상에서의 유의미한, 범용의, 즉각적인 객체 식별에 도움을 주는 다른 구성요소들의 소정의 조합을 요구하는 것이 일반적이다. 안구 추적 기술 분야에서의 최근의 발전은, 저-전력, 낮은-프로세싱, 자체 완비된(self-contained) 웨어러블 기술의 전개를 가능케하였다. 상기 기술은 효율적이고, 집중되며, 그리고 별개(즉, 프라이빗)이다. 장면 내에서, 빠르게 변하는 일련의 이미지들에 대하여 관심 영역을 특정하기 위하여 인간의 인지 선택(human cognitive selection)을 추가하는 것은, 서로 다른 콘텍스트들에서 객체를 시각적으로 식별하는데 필요한 리소스들을 극적으로 감소시킬 수 있다. 또한, 컴퓨터 비전 검색 동안에 지능형 교환(intelligent interchange)을 가능케하는 시각적 피드백 시스템이 바람직한바, 이는 유동적으로, 직관적으로, 그리고 빠르게 인간의 인지 프로세싱과 머신 프로세싱을 병합하여, 웨어러블 컴퓨터가 한정된 리소스들로 콘텍스트들에 대하여 객체들을 식별할 수 있게 한다. Computer vision techniques for identifying objects from a still image or a series of rapidly changing images can be used for a wide range of applications including significant processing capabilities, high bandwidth image data transmission for non-local processing, ), Non-real-time processing, and wearable, camera-equipped computers that are limited by limited processing capabilities, camera resolution, transmission speed, battery power and / It is common to require some combination of different components. Recent developments in the field of eye tracking technology have enabled the development of low-power, low-processing, self-contained wearable technologies. The technique is efficient, focused, and distinct (i.e., private). Within the scene, adding a human cognitive selection to specify a region of interest for a rapidly changing series of images dramatically reduces the resources needed to visually identify the object in different contexts . It is also desirable to have a visual feedback system that enables intelligent interchange during a computer vision search, which combines human cognitive processing and machine processing fluidly, intuitively, and rapidly so that the wearable computer can access the context To identify the objects.
소프트웨어와 사용자 사이의 "대화(dialogue)"는 객체 식별을 확인하는데 이용될 수 있거나 또는 객체 식별에 기여할 수 있다. 확인이 되면, 객체들은 아이커넥션들 및 정보 공유를 위해 이용될 수 있다. A "dialogue " between the software and the user can be used to confirm object identification or can contribute to object identification. Once confirmed, objects can be used for eye connections and information sharing.
개인 정보의 구조화된 교환(Structured Exchange of Personal Information)Structured Exchange of Personal Information
선택적 정보 공유를 허용 및 용이하게 하기 위한 페르소나-기반의 매칭은 다음을 포함할 수 있다: 디스플레이가 있거나 없는 웨어러블 컴퓨터 시스템의 실시간 이용, 근접성(지리적 위치) 및 특정 공유를 위한 이벤트-기반의 프로파일들. 공유하고자 하는 다른 표시들은 상호 응시, 일방 응시(one way gaze), 악수(hand shake), 및/또는 다른 신호들(예컨대, 보디 랭귀지) 또는 제스처를 포함한다. 시스템들은 로컬 혹은 원격 정보 관리, 스크리닝, 및/또는 사용자-특정 정보의 전송을 포함할 수 있다. 또한, 시스템들은 커뮤니티 공유, 개선(refinement), 및 특정한 스크리닝 기준(screening criteria) 및 공유 기준(sharing criteria)을 포함할 수 있는 이벤트 프로파일 속성들의 평가를 포함할 수 있다. Persona-based matching to allow and facilitate selective information sharing may include: real-time use of wearable computer systems with or without displays, proximity (geographic location), and event-based profiles for specific sharing . Other indications to share include cross gazing, one way gaze, handshake, and / or other signals (e.g., body language) or gestures. The systems may include local or remote information management, screening, and / or transmission of user-specific information. In addition, the systems may include community sharing, refinement, and evaluation of event profile attributes that may include specific screening criteria and sharing criteria.
관련성을 결정하기 위한 이벤트 기반의 정보 선택(Event-Based Selection of Information to Determine Relevance)Event-Based Selection of Information to Determine Relevance (Determine Relevance)
개인적/상호작용 관계(personal/interaction relationships)의 관련성을 판별하기 위해 이벤트 필터들이 이용될 수 있다. 이들은 사용자-로딩가능한(user-loadable), 칼렌다-로딩가능한(calendar-loadable), 알고리즘들에 의해서 생성되는 필터들, 상호적으로 또는 협동적으로 선택되는, 및/또는 동적으로 로딩되는 기준을 포함할 수 있다. 동적인 필터들이 이벤트 전에, 중간에, 후에 로딩될 수 있다. Event filters can be used to determine the relevance of personal / interaction relationships. These include user-loadable, calendar-loadable, filters generated by algorithms, mutually or collaboratively selected, and / or dynamically loaded criteria can do. Dynamic filters can be loaded before, during, and after an event.
동시 응시를 통한 참여된 당사자들의 개인적 판별(Private Determination of Engaged Parties through Simultaneous Gaze)In this paper, we propose a methodology for identifying individual participating parties through simultaneous gazing (Engaged Parties through Simultaneous Gaze)
시스템은 웨어러블 디바이스를 이용하여 서로를 응시하는 개인들의 이미지들을 비교할 수 있다. 시스템은 이벤트 프로파일들, 타임 스탬프들, 및/또는 지리적 위치를 이용할 수 있으며; 그리고 안면 인식 소프트웨어를 회피할 수 있다(일시적인 또는 선험적(priori) 이미지들을 제외하고). 상기 시스템은 다른 스크리닝 방법으로서, "디바이스들을 착용한" 사용자들의 식별(identification)을 포함할 수 있다. 이를 위한 방법들은: 웨어러블 디바이스들을 구분하는 컴퓨터 비전, 상호 응시를 추구/참가하는 사용자, IR, 및/또는 다른 디바이스가 아이커넥트 액티브로 보일 때의 디바이스들 간의 다른 시그널링 프로토콜들을 포함할 수 있다. The system can use wearable devices to compare images of individuals gazing at each other. The system may utilize event profiles, timestamps, and / or geographic location; And facial recognition software can be avoided (except for temporary or priori images). The system may be an alternative screening method, which may include an identification of users who "wear the devices. &Quot; Methods for this may include: computer vision to identify wearable devices, users seeking / participating in a cross-reference, IR, and / or other signaling protocols between devices when another device looks eye active.
이벤트 개시를 위한 상호 응시-기반의 프로토콜(Mutual Gaze-Based Protocol for Event Initiation) Mutual Gaze-Based Protocol for Event Initiation
다수의 서로 다른 기준들 및 경험칙(heuristics)이 이용될 수 있다. 응시-기반 이벤트들을 시작 및 확장(또는 반대로, 프라이버시를 유지함)하는데 이용될 수 있다. 이들 중 중요한 것은, 이벤트를 개시하기 위한 동시 아이 콘택을 검출하는 것이다. 다른 기준은 웨어러블 시스템, 카메라 기반의 회의 시스템, 1:1 응시, 1:n 응시, n:m 응시(정보 공유를 위한 이벤트의 그룹 개시), 큰 그룹 내에서의 1:1 프라이빗 공유, 참가자들의 더 큰 그룹 내에서의 1:n 프라이빗 공유, 및/또는 아이-콘택을 정의하기 위한 임계 시간의 존재를 포함한다. 또한, 기준들은 다른 액션들이 수반되는지의 여부에 의존할 수 있는바, 상기 다른 액션들은 이벤트 자격을 얻기 위한 추가적인 스크리닝, 이벤트가 소정 유형의 콘트롤을 야기할 수 있는지(예컨대, 이벤트 등록, 정보의 변경), 이벤트가 정보의 일 당사자로부터 다른 당사자로의 일 방향 전송 또는 당사자들 간의 양 방향 전송을 야기할 수 있는지, 및/또는 액션이 실시간인지 혹은 지연되는지를 포함한다. A number of different criteria and heuristics can be used. And may be used to initiate and expand (or vice versa, maintain privacy) admission-based events. Of these, it is important to detect simultaneous eye contacts for initiating an event. Other standards include wearable systems, camera-based conferencing systems, 1: 1 staging, 1: n staging, n: m staging (grouping of events for information sharing), 1: 1 private sharing within large groups, 1: n private sharing within a larger group, and / or the presence of a critical time to define an eye-contact. In addition, the criteria may depend on whether other actions are involved, such as additional screening to obtain event qualification, whether the event can cause some type of control (e.g., event registration, change of information ), Whether the event can cause one-way transfer of information from one party to another, or two-way transfer between the parties, and / or whether the action is real-time or delayed.
동시 로케이션 및 맵핑을 위한 데이터의 공통 응시 기여(Common Gaze Contribution of Data for Simultaneous Location and Mapping)Common Gaze Contribution of Data for Simultaneous Location and Mapping (Simultaneous Location and Mapping)
사용자 응시는 안내를 통해 사용자들 사이에서 조화 및 지향될 수 있으며 그리고 웨어러블 디스플레이들로부터 피드백될 수 있다. 디스플레이들은 디바이스에 인-라인(in-line)될 수 있거나 또는 페리페럴(peripheral)될 수 있다. 예를 들어, 다수의 사용자들의 응시는 운동장 스크린을 향할 수 있다. 특정 방향에서 포커싱되는 확인 및/또는 분석은 다수의 지리적 위치에 있는 사용자들로부터 결정될 수 있다. The user's gazing can be coordinated and directed among the users through guidance and can be fed back from the wearable displays. The displays may be in-line or peripheral to the device. For example, the gaze of multiple users may be directed to a playground screen. Confirmation and / or analysis focused in a particular direction may be determined from users at multiple geographic locations.
다수 모드 정보 교환의 공통 시선 개시(Common Gaze Initiation of Multi-Modal Information Exchange)Common Gaze Initiation of Multi-Mode Information Exchange < RTI ID = 0.0 >
아이커넥션들은 정보 교환의 다른 양상들을 포함할 수 있는바, 시각적 정보 교환(예컨대, 비디오 혹은 이미지들) 또는 실시간 음성 정보 교환이 그것이다. Eye connections may include other aspects of information exchange, such as visual information exchange (e.g., video or images) or real-time voice information exchange.
편의를 위해, 동작들은 다양한 상호연결된 기능 블록들 또는 별개의 소프트웨어 모듈들로 설명된다. 하지만, 반드시 이럴 필요는 없으며, 그리고 이들 기능 블록들 혹은 모듈들이 하나의 논리 디바이스, 프로그램 혹은 불분명한 바운더리들을 갖는 동작으로 동등하게 취합되는 경우들이 있을 수 있다. 임의의 경우에 있어서, 기능 블록들 및 소프트웨어 모듈들 혹은 서술된 피처들은 자체적으로, 또는 하드웨어 혹은 소프트웨어적으로 다른 동작들과 조합되어 구현될 수 있다. For convenience, operations are described with various interconnected functional blocks or separate software modules. However, this is not necessarily the case, and there may be instances where these functional blocks or modules are equally combined into one logical device, program, or operation with obscure boundaries. In any case, the functional blocks and software modules or the described features may be implemented on their own or in combination with other operations, either hardware or software.
예시적인 실시예들의 전술한 내용 설명 및 서술을 위한 목적으로 제공되었다. 개시된 바로 그 형태만으로 본 발명을 한정하고자 의도된 것이 아니다. 본 명세서에 서술된 실시예들의 많은 변형예들 및 수정예들이 앞선 내용을 참조하면 해당 기술분야의 당업자에게 자명할 것이다. The foregoing description of the exemplary embodiments has been presented for the purpose of illustration and description. It is not intended to limit the invention to the exact form just described. Many modifications and variations of the embodiments described herein will be apparent to those skilled in the art having referred to the foregoing description.
또한, 대표적인 실시예들을 서술함에 있어서, 본 명세서는 특정한 단계들의 시퀀스로서 방법 및/또는 프로세스를 표현할 수도 있다. 하지만, 상기 방법 혹은 프로세스가 본원에 서술된 단계들의 특정 순서에 의존하지 않는 한, 상기 방법 혹은 프로세스는 서술된 단계들의 특정 시퀀스로 제한되지 않아야 한다. 해당 기술분야의 당업자에게 이해되는 바와 같이, 단계들의 다른 시퀀스들도 또한 가능하다. 따라서, 본 명세서에 서술된 단계들의 특정한 순서는 청구범위에 대한 제한들로서 해석되지 않아야 한다. Further, in describing exemplary embodiments, the present disclosure may represent a method and / or process as a sequence of specific steps. However, the method or process should not be limited to the specific sequence of steps described, so long as the method or process does not depend on the specific sequence of steps described herein. Other sequences of steps are also possible, as will be understood by those skilled in the art. Accordingly, the specific order of steps described herein should not be construed as limitations on the claims.
임의의 실시예에서 개시된 요소들 또는 구성요소들은 특정 실시예에 대한 예시일 뿐이며 다른 실시예들과 조합되어 사용될 수도 있음을 유의해야 한다. It should be noted that the elements or components disclosed in any embodiment are illustrative only of specific embodiments and may be used in combination with other embodiments.
본 발명의 원리들이 예시적인 실시예에서 서술 및 예시되었으며, 이러한 원리들을 벗어남이 없이도 본 발명이 구성 및 세부사항에 있어서 수정될 수 있음은 자명할 것이다. 청구범위는 이들 모든 수정예들 및 변형예들을 포괄하도록 의도된다. It is to be understood that the principles of the invention have been described and illustrated in the exemplary embodiments, and that the invention may be modified in construction and detail without departing from such principles. The claims are intended to cover all such modifications and variations.
Claims (50)
사용자의 머리에 착용되도록 구성된 헤드기어(headgear);
상기 헤드기어에 마운트된 복수의 카메라들, 상기 복수의 카메라들은 눈의 움직임을 모니터링하기 위해 상기 헤드기어가 착용될 때 서로 다른 각도들로부터 상기 사용자의 눈을 향해 지향되며;
검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛, 상기 프로세싱 유닛은,
상기 눈의 홍채를 식별하도록 상기 카메라들로부터의 하나 이상의 이미지들을 분석하고;
상기 하나 이상의 이미지들에 기초하여, 상기 홍채의 원하는 뷰(view)를 제공하는 제 1 카메라를 상기 복수의 카메라들로부터 선택하고;
상기 홍채의 피처들을 식별하도록 상기 제 1 카메라로부터의 이미지를 분석하고;
상기 홍채의 피처들에 적어도 일부 기초하여 상기 사용자를 식별하고; 그리고
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 것을 특징으로 하는 생체 인증을 제공하는 시스템. A system for providing a substantially persistent biometric authentication for a user,
A headgear configured to be worn on a user's head;
A plurality of cameras mounted on the headgear, the plurality of cameras being directed from the different angles toward the eyes of the user when the headgear is worn to monitor movement of the eyes;
A processing unit operatively connected to a detector and an electronic display,
Analyze one or more images from the cameras to identify the iris of the eye;
Select a first camera from the plurality of cameras based on the one or more images, the first camera providing a desired view of the iris;
Analyze an image from the first camera to identify features of the iris;
Identify the user based at least in part on features of the iris; And
And when the identity of the user is confirmed, permitting the user to perform one or more actions.
상기 눈의 홍채를 식별하도록 상기 카메라들로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 하나 이상의 이미지들에 기초하여, 상기 홍채의 원하는 뷰(view)를 제공하는 제 1 카메라를 상기 복수의 카메라들로부터 선택하는 단계;
상기 홍채의 피처들을 식별하도록 상기 제 1 카메라로부터의 이미지를 분석하는 단계;
상기 홍채의 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계; 및
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. A method of providing a substantially continuous biometric authentication for a user wearing a headgear, the headgear comprising a plurality of cameras directed from the different angles towards the user's eye,
Analyzing one or more images from the cameras to identify the iris of the eye;
Selecting a first camera from the plurality of cameras based on the one or more images, the first camera providing a desired view of the iris;
Analyzing an image from the first camera to identify features of the iris;
Identifying the user based at least in part on features of the iris; And
Allowing the user to perform one or more actions when the identity of the user is confirmed
The biometric authentication method comprising the steps of:
상기 제 1 카메라는, 상기 제 1 카메라로부터의 이미지들에서 식별된 홍채의 형상에 적어도 일부 기초하여 선택되는 것을 특징으로 하는 생체 인증을 제공하는 방법. 3. The method of claim 2,
Wherein the first camera is selected based at least in part on the shape of the iris identified in the images from the first camera.
상기 제 1 카메라는, 상기 제 1 카메라로부터의 이미지들에서 식별된 홍채의 상기 형상이 다른 카메라들로부터의 이미지들에서 식별된 홍채의 형상 보다 실질적으로 원형에 더 가깝다는 것에 적어도 일부 기초하여 선택되는 것을 특징으로 하는 생체 인증을 제공하는 방법. The method of claim 3,
The first camera is selected based at least in part on the fact that the shape of the iris identified in the images from the first camera is substantially closer to a circle than the shape of the iris identified in images from other cameras The biometric authentication method comprising:
상기 제 1 카메라는, 상기 제 1 카메라로부터의 이미지들에서의 조명 콘트라스트(lighting contrast)에 적어도 일부 기초하여 선택되는 것을 특징으로 하는 생체 인증을 제공하는 방법. 3. The method of claim 2,
Wherein the first camera is selected based at least in part on lighting contrast in the images from the first camera.
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가한 이후에,
상기 홍채의 피처들을 식별하도록 상기 제 1 카메라로부터의 다른 이미지를 분석하고; 그리고
상기 다른 이미지로부터의 상기 홍채의 피처들에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 것
을 더 포함하는 생체 인증을 제공하는 방법. The method according to claim 1,
After allowing the user to perform one or more actions,
Analyze another image from the first camera to identify features of the iris; And
Identifying the user's identity based at least in part on features of the iris from the other image
The biometric authentication method further comprising:
상기 단계들은 실질적으로 지속적으로 반복되는 것을 특징으로 하는 생체 인증을 제공하는 방법. The method according to claim 6,
Wherein the steps are substantially continuously repeated. ≪ Desc / Clms Page number 19 >
상기 단계들은 주기적으로 반복되는 것을 특징으로 하는 생체 인증을 제공하는 방법. The method according to claim 6,
Wherein the steps are repeated periodically.
수행되기 전에 신원 확인을 요구하는 기결정된 행위가 상기 사용자에 의해서 선택되는 때에 상기 단계들이 반복되는 것을 특징으로 하는 생체 인증을 제공하는 방법. The method according to claim 6,
Characterized in that the steps are repeated when a pre-determined action requiring identification is performed by the user before being performed.
상기 사용자를 식별하는데 필요한 최소 엄격성 임계값(minimum stringency threshold)을 충족하도록, 상기 홍채의 충분히 큰 부분이 상기 이미지로부터 식별될 수 있기 때문에, 상기 제 1 카메라가 선택되는 것을 특징으로 하는 생체 인증을 제공하는 시스템. The method according to claim 1,
Characterized in that the first camera is selected because a sufficiently large portion of the iris can be identified from the image so as to meet a minimum stringency threshold required to identify the user Providing system.
사용자의 머리에 착용되도록 구성된 헤드기어(headgear);
상기 헤드기어에 마운트된 복수의 카메라들, 상기 복수의 카메라들은 눈의 움직임을 모니터링하기 위해 상기 헤드기어가 착용될 때 서로 다른 각도들로부터 상기 사용자의 눈을 향해 지향되며;
검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛, 상기 프로세싱 유닛은,
상기 눈의 홍채를 식별하도록 상기 카메라들로부터의 하나 이상의 이미지들을 분석하고;
상기 복수의 카메라들 중 상기 홍채의 원하는 뷰(view)들을 제공하는 여러 카메라들로부터의 이미지들을 선택하고;
상기 선택된 이미지들로부터 복합 홍채코드(composite irisCode)를 생성하고;
상기 복합 홍채코드에 적어도 일부 기초하여 상기 사용자를 식별하고; 그리고
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 것을 특징으로 하는 생체 인증을 제공하는 시스템. A system for providing a substantially persistent biometric authentication for a user,
A headgear configured to be worn on a user's head;
A plurality of cameras mounted on the headgear, the plurality of cameras being directed from the different angles toward the eyes of the user when the headgear is worn to monitor movement of the eyes;
A processing unit operatively connected to a detector and an electronic display,
Analyze one or more images from the cameras to identify the iris of the eye;
Select images from various cameras providing desired views of the iris among the plurality of cameras;
Generate a composite iris code from the selected images;
Identify the user based at least in part on the composite iris code; And
And when the identity of the user is confirmed, permitting the user to perform one or more actions.
상기 눈의 홍채를 식별하도록 상기 카메라들로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 복수의 카메라들 중 상기 홍채의 원하는 뷰(view)들을 제공하는 여러 카메라들로부터의 이미지들을 선택하는 단계;
상기 선택된 이미지들로부터 복합 홍채코드(composite irisCode)를 생성하는 단계;
상기 복합 홍채코드에 적어도 일부 기초하여 상기 사용자를 식별하는 단계; 및
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. A method of providing a substantially continuous biometric authentication for a user wearing a headgear, the headgear comprising a plurality of cameras directed from the different angles towards the user's eye,
Analyzing one or more images from the cameras to identify the iris of the eye;
Selecting images from various cameras providing desired views of the iris among the plurality of cameras;
Generating a composite iris code from the selected images;
Identifying the user based at least in part on the compound iris code; And
Allowing the user to perform one or more actions when the identity of the user is confirmed
The biometric authentication method comprising the steps of:
상기 선택된 이미지들은 다수의 각도들로부터 상기 홍채의 이미지들을 제공하고, 그리고 상기 복합 홍채코드를 생성하는 단계는, 상기 선택된 이미지들로부터 홍채의 일부분들을 선택하고 그리고 상기 홍채의 일부분들을 상기 홍채에 대한 복합 이미지로 조합하는 단계를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 13. The method of claim 12,
Wherein the selected images provide images of the iris from a plurality of angles, and wherein generating the composite iris code comprises: selecting portions of the iris from the selected images and outputting the portions of the iris to the iris And combining the biometric information with a composite image for the biometric authentication.
상기 홍채의 일부분들을 조합하기 전에, 상기 선택된 이미지들 내의 홍채의 이미지들을 공통 축(common axis)에 정렬시키도록, 상기 선택된 이미지들 중 하나 이상을 회전시키는 단계를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 13. The method of claim 12,
Further comprising rotating one or more of the selected images to align the images of the iris in the selected images on a common axis before combining the portions of the iris. How to provide authentication.
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계 이후에,
상기 카메라들로부터 추가 이미지들을 분석하는 단계;
상기 추가 이미지들로부터 새로운 복합 홍채코드(new composite irisCode)를 생성하는 단계;
상기 새로운 복합 홍채코드에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 13. The method of claim 12,
After allowing the user to perform one or more actions,
Analyzing additional images from the cameras;
Generating a new composite iris code from the additional images;
Confirming the identity of the user based at least in part on the new compound iris code
The biometric authentication method further comprising:
상기 카메라로부터의 복수의 이미지들을 분석하는 단계;
상기 복수의 이미지들에 기초하여 복합 홍채코드를 생성하는 단계
상기 복합 홍채코드에 적어도 일부 기초하여 상기 사용자를 식별하는 단계; 및
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. CLAIMS What is claimed is: 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear comprising a camera directed towards a user's eye,
Analyzing a plurality of images from the camera;
Generating a composite iris code based on the plurality of images
Identifying the user based at least in part on the compound iris code; And
Allowing the user to perform one or more actions when the identity of the user is confirmed
The biometric authentication method comprising the steps of:
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계 이후에,
상기 카메라로부터 추가 이미지들을 분석하는 단계;
상기 추가 이미지들로부터 새로운 복합 홍채코드를 생성하는 단계;
상기 새로운 복합 홍채코드에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 17. The method of claim 16,
After allowing the user to perform one or more actions,
Analyzing additional images from the camera;
Generating a new composite iris code from the additional images;
Confirming the identity of the user based at least in part on the new compound iris code
The biometric authentication method further comprising:
사용자의 머리에 착용되도록 구성된 헤드기어;
상기 헤드기어에 마운트된 검출기, 상기 검출기는 상기 헤드기어가 착용될 때 상기 사용자의 눈을 향해 지향되며;
상기 헤드기어에 마운트된 디스플레이, 상기 디스플레이는 상기 헤드기어가 착용될 때 상기 사용자에 의해 보여질 수 있으며; 그리고
상기 검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛, 상기 프로세싱 유닛은,
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하고;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하고;
상기 사용자의 신원이 확인되면 상기 디스플레이를 통해 상기 사용자가 하나 이상의 행위들을 수행하는 것을 허가하고; 그리고
상기 디스플레이 상에서 상기 사용자에게 제공되는 정보의 보안성을 보존하도록 상기 디스플레이의 불투명도(opacity)를 변경하는 것을 특징으로 하는 생체 인증을 제공하는 시스템. A system for providing a substantially persistent biometric authentication for a user,
A head gear configured to be worn on a user's head;
A detector mounted on the headgear, the detector being oriented towards the user's eye when the headgear is worn;
A display mounted on the headgear, the display being visible to the user when the headgear is worn; And
A processing unit operatively connected to the detector and the electronic display,
Analyze one or more images from the detector to identify features of the iris of the eye;
Identify the user based at least in part on the features of the iris;
Allow the user to perform one or more actions via the display when the identity of the user is confirmed; And
And changes the opacity of the display to preserve the security of information provided to the user on the display.
상기 프로세싱 유닛은 보안 정보가 제공되는 상기 디스플레이 상의 하나 이상의 영역들을 식별하고 그리고 상기 보안 정보가 제공되는 동안에는 상기 영역들이 실질적으로 불투명해지도록 상기 영역들을 변경(modify)하는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 19. The method of claim 18,
Wherein the processing unit identifies one or more areas on the display where security information is provided and modifies the areas so that the areas become substantially opaque while the security information is provided System.
상기 사용자의 신원이 미리결정된 임계 보안 허가(predetermined threshold security authorization)와 관련되는 경우, 상기 프로세싱 유닛은 상기 디스플레이 상에 후속으로 제공되는 보안 정보를 보호하도록 전체 디스플레이를 실질적으로 불투명하게 만드는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 19. The method of claim 18,
Wherein if the identity of the user is associated with a predetermined threshold security authorization, the processing unit makes the entire display substantially opaque to protect subsequent security information on the display A system that provides biometric authentication.
상기 눈의 홍채의 피처들을 식별하도록 상기 카메라로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계;
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계;
그 후에, 상기 사용자가 상기 헤드기어를 여전히 착용하고 있는지를 확인하기 위해 추가 분석을 수행하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. CLAIMS What is claimed is: 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear comprising a camera directed towards a user's eye,
Analyzing one or more images from the camera to identify features of the iris of the eye;
Identifying the user based at least in part on the features of the iris;
Authorizing the user to perform one or more actions when the identity of the user is confirmed;
Thereafter, performing further analysis to ensure that the user is still wearing the headgear
The biometric authentication method comprising the steps of:
상기 추가 분석은,
상기 사용자의 눈이 상기 하나 이상의 이미지들 내에 남아있는지를 확인하기 위해, 상기 카메라로부터의 하나 이상의 이미지들을 분석하는 것을 포함하는 생체 인증을 제공하는 방법. 22. The method of claim 21,
Said further analysis,
And analyzing one or more images from the camera to verify that the user's eye remains within the one or more images.
상기 추가 분석은,
상기 사용자의 눈이 상기 하나 이상의 이미지들 내에서 활성인 채로 남아있는지를 확인하기 위해, 상기 카메라로부터의 하나 이상의 이미지들을 분석하는 것을 포함하는 생체 인증을 제공하는 방법. 23. The method of claim 22,
Said further analysis,
And analyzing one or more images from the camera to verify that the user's eye remains active within the one or more images.
상기 추가 분석은,
초기 인증 보다는 낮은 엄격도에서 상기 눈의 홍채의 피처들을 식별하기 위해, 상기 카메라로부터의 하나 이상의 이미지들을 분석하는 것을 포함하는 생체 인증을 제공하는 방법. 22. The method of claim 21,
Said further analysis,
And analyzing one or more images from the camera to identify features of the iris of the eye at a lower degree of severity than the initial authentication.
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계 이후에,
상기 홍채의 피처들을 식별하도록 하나 이상의 추가 이미지들을 분석하는 단계; 및
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 단계
를 한 번 이상 수행하는 것을 더 포함하는 생체 인증을 제공하는 방법. 22. The method of claim 21,
After allowing the user to perform one or more actions,
Analyzing one or more additional images to identify features of the iris; And
Confirming the identity of the user based at least in part on the features of the iris
RTI ID = 0.0 > 1, < / RTI >
a) 실질적으로 지속적으로; b) 주기적으로; 및 c) 수행되기 전에 신원 확인을 요구하는 기결정된 행위가 상기 사용자에 의해서 선택되는 때 중 하나 이상에서 제25항의 단계들이 수행되는 것을 특징으로 하는 생체 인증을 제공하는 방법. 26. The method of claim 25,
a) substantially continuous; b) periodically; And c) a predetermined action is selected by the user requesting identification before being performed. ≪ Desc / Clms Page number 24 >
상기 헤드기어로부터의 상기 하나 이상의 이미지들을 통신하는 단계, 상기 분석, 식별 및 허가하는 단계들은 상기 헤드기어로부터 원격 위치에서 수행되고, 상기 원격 위치로부터 상기 헤드기어로 허가가 통신되며; 그리고
상기 헤드기어를 이용하여 하나 이상의 허가된 액션들을 수행하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 27. The method according to any one of claims 21 to 26,
Communicating the one or more images from the headgear, the steps of analyzing, identifying and authorizing are performed at a remote location from the headgear and a permission is communicated from the remote location to the headgear; And
Performing one or more authorized actions using the headgear
The biometric authentication method further comprising:
상기 분석, 식별 및 허가하는 단계들 중 하나 이상은 상기 헤드기어 상의 프로세싱 유닛에 의해서 수행되며, 상기 방법은 상기 분석, 식별 및 허가하는 단계들 중 나머지를 수행하도록 원격 위치의 프로세싱 유닛과 통신하는 단계를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 27. The method according to any one of claims 21 to 26,
Wherein at least one of the steps of analyzing, identifying and authorizing is performed by a processing unit on the headgear, the method comprising communicating with a processing unit at a remote location to perform the remainder of the analyzing, identifying and authorizing steps The biometric authentication method further comprising:
상기 분석, 식별 및 허가하는 단계들은 상기 헤드기어 상의 프로세싱 유닛에 의해서 수행되는 것을 특징으로 하는 생체 인증을 제공하는 방법. 27. The method according to any one of claims 21 to 26,
Wherein the steps of analyzing, identifying and authorizing are performed by a processing unit on the headgear.
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계;
상기 사용자의 신원이 확인되면 상기 디스플레이를 통해 상기 사용자가 하나 이상의 행위들을 수행하는 것을 허가하는 단계; 및
상기 디스플레이 상에서 상기 사용자에게 제공되는 정보의 보안성을 보존하도록 상기 디스플레이의 불투명도(opacity)를 변경하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. CLAIMS 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear comprising a detector directed towards a user's eye,
Analyzing one or more images from the detector to identify features of the iris of the eye;
Identifying the user based at least in part on the features of the iris;
Allowing the user to perform one or more actions via the display when the identity of the user is confirmed; And
Changing the opacity of the display to preserve the security of information provided to the user on the display
The biometric authentication method comprising the steps of:
사용자의 머리에 착용되도록 구성된 헤드기어;
상기 헤드기어에 마운트된 검출기, 상기 검출기는 상기 헤드기어가 착용될 때 상기 사용자의 눈을 향해 지향되며;
상기 헤드기어에 마운트된 디스플레이, 상기 디스플레이는 상기 헤드기어가 착용될 때 상기 사용자에 의해 보여질 수 있으며;
상기 헤드기어에 마운트가능한 시야 차단기(sight shield), 상기 시야 차단기는 상기 디스플레이 상에 제공된 정보가 상기 디스플레이 너머에서(beyond) 보여질 수 있는 것을 방지하도록, 상기 디스플레이를 적어도 일부 커버하며;
상기 검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛
을 포함하고, 상기 프로세싱 유닛은,
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하고;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하고; 그리고
상기 사용자의 신원이 확인되면 및 상기 시야 차단기가 상기 헤드기어에 마운트됨이 확인되면, 상기 디스플레이를 통해 상기 사용자가 정보에 액세스하는 것을 허가하는 것을 특징으로 하는 생체 인증을 제공하는 시스템. A system for providing a substantially persistent biometric authentication for a user,
A head gear configured to be worn on a user's head;
A detector mounted on the headgear, the detector being oriented towards the user's eye when the headgear is worn;
A display mounted on the headgear, the display being visible to the user when the headgear is worn;
A sight shield mountable to the headgear, the field shield covering at least a portion of the display to prevent information provided on the display from being visible beyond the display;
A processor unit operatively connected to the detector and the electronic display,
Wherein the processing unit comprises:
Analyze one or more images from the detector to identify features of the iris of the eye;
Identify the user based at least in part on the features of the iris; And
And when the identity of the user is confirmed and when it is confirmed that the visual field breaker is mounted on the headgear, the user is allowed to access the information via the display.
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계;
상기 디스플레이 상에 제공된 정보가 상기 디스플레이 너머에서(beyond) 보여질 수 있는 것을 방지하도록 상기 디스플레이를 적어도 일부 커버하는 시야 차단기가 상기 헤드기어에 마운트되었는지 여부를 검출하는 단계; 및
상기 사용자의 신원이 확인되면 및 상기 시야 차단기가 상기 헤드기어에 마운트됨이 확인되면, 상기 디스플레이를 통해 상기 사용자가 정보에 액세스하는 것을 허가하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. CLAIMS 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear, the headgear comprising a detector directed towards the user ' s eye,
Analyzing one or more images from the detector to identify features of the iris of the eye;
Identifying the user based at least in part on the features of the iris;
Detecting whether a visual field breaker covering at least a portion of the display is mounted on the headgear to prevent that information provided on the display can be seen beyond the display; And
When the identity of the user is confirmed and when it is confirmed that the visual field breaker is mounted on the headgear, allowing the user to access the information via the display
The biometric authentication method comprising the steps of:
상기 시야 차단기가 상기 헤드기어로부터 제거되었음을 검출하는 단계; 및
상기 시야 차단기가 상기 헤드기어로부터 제거되는 경우, 보안 정보가 상기 디스플레이 상에 제공됨을 금지시키는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 33. The method of claim 32,
Detecting that the visual field breaker has been removed from the headgear; And
Prohibiting security information from being provided on the display when the visual field breaker is removed from the headgear
The biometric authentication method further comprising:
상기 시야 차단기가 상기 헤드기어로부터 제거되었음을 검출하는 단계; 및
상기 시야 차단기가 상기 헤드기어로부터 제거되는 경우, 상기 사용자의 권한을 취소하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 33. The method of claim 32,
Detecting that the visual field breaker has been removed from the headgear; And
Canceling the authority of the user when the visual field breaker is removed from the headgear
The biometric authentication method further comprising:
사용자의 머리에 착용되도록 구성된 헤드기어;
상기 헤드기어에 마운트된 검출기, 상기 검출기는 상기 헤드기어가 착용될 때 상기 사용자의 눈을 향해 지향되며; 그리고
상기 검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛
을 포함하고, 상기 프로세싱 유닛은,
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하고;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하고; 그리고
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 것을 특징으로 하는 생체 인증을 제공하는 시스템. A system for providing a substantially persistent biometric authentication for a user,
A head gear configured to be worn on a user's head;
A detector mounted on the headgear, the detector being oriented towards the user's eye when the headgear is worn; And
A processor unit operatively connected to the detector and the electronic display,
Wherein the processing unit comprises:
Analyze one or more images from the detector to identify features of the iris of the eye;
Identify the user based at least in part on the features of the iris; And
And when the identity of the user is confirmed, permitting the user to perform one or more actions.
상기 프로세싱 유닛에 동작가능하게 관련되는 디스플레이를 더 포함하고,
상기 프로세싱 유닛은, 상기 사용자가 상기 디스플레이를 통해 하나 이상의 액션들을 수행하는 것을 허가하도록 구성되는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 36. The method of claim 35,
Further comprising a display operatively associated with the processing unit,
Wherein the processing unit is configured to permit the user to perform one or more actions via the display.
상기 디스플레이는 상기 헤드기어에 마운트되며, 상기 디스플레이는 상기 헤드기어가 착용될 때 상기 사용자에 의해 보여질 수 있는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 37. The method of claim 36,
Wherein the display is mounted on the headgear and the display can be viewed by the user when the headgear is worn.
상기 디스플레이는 상기 헤드기어로부터 떨어져 있으며, 상기 시스템은 상기 헤드기어에 마운트된 장면 카메라(scene camera)를 더 포함하고, 그리고 상기 디스플레이가 상기 사용자의 전면에 위치할 때 상기 장면 카메라의 시야 내에 상기 디스플레이가 있도록, 상기 장면 카메라가 지향되는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 37. The method of claim 36,
Wherein the display is remote from the headgear and the system further comprises a scene camera mounted on the headgear and wherein when the display is located in front of the user, Wherein the scene camera is oriented so that the scene camera is oriented in such a way that the scene camera is oriented.
상기 프로세싱 유닛은 상기 헤드기어에 마운트된 프로세서를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 36. The method of claim 35,
Wherein the processing unit comprises a processor mounted on the headgear.
상기 헤드기어 상의 무선 송수신기를 더 포함하고, 그리고 상기 프로세싱 유닛은 상기 헤드기어로부터 떨어져 있는 프로세서를 포함하며, 상기 프로세서는 상기 무선 송수신기를 통해 상기 검출기 및 디스플레이에 무선으로 접속되는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 36. The method of claim 35,
Further comprising a wireless transceiver on the headgear, and wherein the processing unit includes a processor remote from the headgear, the processor being wirelessly connected to the detector and the display via the wireless transceiver. / RTI >
상기 검출기는 상기 헤드기어에 마운트된 하나 이상의 카메라들을 포함하는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 36. The method of claim 35,
Wherein the detector comprises one or more cameras mounted on the headgear.
상기 헤드기어에 마운트된 하나 이상의 조명 소스들을 더 포함하며, 상기 조명 소스들은 상기 헤드기어가 착용될 때 상기 눈을 향해 지향되는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 36. The method of claim 35,
Further comprising one or more illumination sources mounted on the headgear, wherein the illumination sources are directed towards the eye when the headgear is worn.
상기 프로세싱 유닛은 또한, 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가한 이후에,
상기 홍채의 피처들을 식별하도록 하나 이상의 추가 이미지들을 분석하고; 그리고
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 것을 한 번 이상 수행하는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 36. The method of claim 35,
The processing unit may also, after allowing the user to perform one or more actions,
Analyze one or more additional images to identify features of the iris; And
Wherein the verification of the identity of the user is performed at least once based on at least a portion of the features of the iris.
상기 프로세싱 유닛은,
a) 실질적으로 지속적으로; b) 주기적으로; 또는 c) 수행되기 전에 신원 확인을 요구하는 기결정된 행위가 상기 사용자에 의해서 선택되는 때에,
상기 단계들을 반복하도록 구성되는 것을 특징으로 하는 생체 인증을 제공하는 시스템. 44. The method of claim 43,
The processing unit comprising:
a) substantially continuous; b) periodically; Or c) when a predetermined action that requires identification before being performed is selected by the user,
And to repeat the steps.
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계; 및
상기 사용자의 신원이 확인되면 상기 디스플레이를 통해 상기 사용자가 하나 이상의 행위들을 수행하는 것을 허가하는 단계
를 포함하는 생체 인증을 제공하는 방법. CLAIMS 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear comprising a detector directed towards a user's eye,
Analyzing one or more images from the detector to identify features of the iris of the eye;
Identifying the user based at least in part on the features of the iris; And
Allowing the user to perform one or more actions via the display when the identity of the user is confirmed
The biometric authentication method comprising:
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계 이후에,
상기 홍채의 피처들을 식별하도록 하나 이상의 추가 이미지들을 분석하는 단계; 및
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 단계
를 한 번 이상 수행하는 것을 더 포함하는 생체 인증을 제공하는 방법. 46. The method of claim 45,
After allowing the user to perform one or more actions,
Analyzing one or more additional images to identify features of the iris; And
Confirming the identity of the user based at least in part on the features of the iris
RTI ID = 0.0 > 1, < / RTI >
a) 실질적으로 지속적으로; b) 주기적으로; 및 c) 수행되기 전에 신원 확인을 요구하는 기결정된 행위가 상기 사용자에 의해서 선택되는 때 중 하나 이상에서 제46항의 단계들이 수행되는 것을 특징으로 하는 생체 인증을 제공하는 방법. 47. The method of claim 46,
a) substantially continuous; b) periodically; And c) a predetermined action is selected by the user requesting identification before being performed. ≪ Desc / Clms Page number 24 >
상기 헤드기어로부터의 상기 하나 이상의 이미지들을 통신하는 단계, 상기 분석, 식별 및 허가하는 단계들은 상기 헤드기어로부터 원격 위치에서 수행되고, 상기 원격 위치로부터 상기 헤드기어로 허가가 통신되며; 그리고
상기 헤드기어를 이용하여 하나 이상의 허가된 액션들을 수행하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 48. The method according to any one of claims 45 to 47,
Communicating the one or more images from the headgear, the steps of analyzing, identifying and authorizing are performed at a remote location from the headgear and a permission is communicated from the remote location to the headgear; And
Performing one or more authorized actions using the headgear
The biometric authentication method further comprising:
상기 분석, 식별 및 허가하는 단계들 중 하나 이상은 상기 헤드기어 상의 프로세싱 유닛에 의해서 수행되며, 상기 방법은 상기 분석, 식별 및 허가하는 단계들 중 나머지를 수행하도록 원격 위치의 프로세싱 유닛과 통신하는 단계를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법. 48. The method according to any one of claims 45 to 47,
Wherein at least one of the steps of analyzing, identifying and authorizing is performed by a processing unit on the headgear, the method comprising communicating with a processing unit at a remote location to perform the remainder of the analyzing, identifying and authorizing steps The biometric authentication method further comprising:
상기 분석, 식별 및 허가하는 단계들은 상기 헤드기어 상의 프로세싱 유닛에 의해서 수행되는 것을 특징으로 하는 생체 인증을 제공하는 방법. 48. The method according to any one of claims 45 to 47,
Wherein the steps of analyzing, identifying and authorizing are performed by a processing unit on the headgear.
Applications Claiming Priority (19)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461991435P | 2014-05-09 | 2014-05-09 | |
US61/991,435 | 2014-05-09 | ||
US201462023940P | 2014-07-13 | 2014-07-13 | |
US62/023,940 | 2014-07-13 | ||
US201462027774P | 2014-07-22 | 2014-07-22 | |
US201462027777P | 2014-07-22 | 2014-07-22 | |
US62/027,774 | 2014-07-22 | ||
US62/027,777 | 2014-07-22 | ||
US201462038984P | 2014-08-19 | 2014-08-19 | |
US201462039001P | 2014-08-19 | 2014-08-19 | |
US62/039,001 | 2014-08-19 | ||
US62/038,984 | 2014-08-19 | ||
US201462046072P | 2014-09-04 | 2014-09-04 | |
US62/046,072 | 2014-09-04 | ||
US201462074920P | 2014-11-04 | 2014-11-04 | |
US201462074927P | 2014-11-04 | 2014-11-04 | |
US62/074,920 | 2014-11-04 | ||
US62/074,927 | 2014-11-04 | ||
PCT/US2015/030052 WO2016018488A2 (en) | 2014-05-09 | 2015-05-09 | Systems and methods for discerning eye signals and continuous biometric identification |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207030953A Division KR20200127267A (en) | 2014-05-09 | 2015-05-09 | Systems and methods for discerning eye signals and continuous biometric identification |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170047195A true KR20170047195A (en) | 2017-05-04 |
KR102173699B1 KR102173699B1 (en) | 2020-11-03 |
Family
ID=54368077
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167034652A KR102173699B1 (en) | 2014-05-09 | 2015-05-09 | Systems and methods for discerning eye signals and continuous biometric identification |
KR1020207030953A KR20200127267A (en) | 2014-05-09 | 2015-05-09 | Systems and methods for discerning eye signals and continuous biometric identification |
KR1020167034649A KR102230172B1 (en) | 2014-05-09 | 2015-05-09 | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
KR1020167034651A KR20170046108A (en) | 2014-05-09 | 2015-05-09 | Systems and methods for using eye signals with secure mobile communications |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207030953A KR20200127267A (en) | 2014-05-09 | 2015-05-09 | Systems and methods for discerning eye signals and continuous biometric identification |
KR1020167034649A KR102230172B1 (en) | 2014-05-09 | 2015-05-09 | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
KR1020167034651A KR20170046108A (en) | 2014-05-09 | 2015-05-09 | Systems and methods for using eye signals with secure mobile communications |
Country Status (7)
Country | Link |
---|---|
US (7) | US20150324568A1 (en) |
EP (3) | EP3140719B1 (en) |
JP (3) | JP6550460B2 (en) |
KR (4) | KR102173699B1 (en) |
CN (3) | CN106537290B (en) |
AU (3) | AU2015297035B2 (en) |
WO (3) | WO2015172124A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190015650A (en) * | 2017-08-03 | 2019-02-14 | 주식회사 에스지엠 | Authentication system using bio-information and screen golf system using the same |
WO2019164290A1 (en) * | 2018-02-23 | 2019-08-29 | Samsung Electronics Co., Ltd. | Method of biometric authenticating using plurality of camera with different field of view and electronic apparatus thereof |
WO2019221325A1 (en) * | 2018-05-14 | 2019-11-21 | 한국과학기술원 | System for continuous authentication by using pupillary response |
KR20200004666A (en) | 2018-07-04 | 2020-01-14 | 주식회사 링크트리 | Biometric information authentication system using machine learning and block chain and its method |
US11537701B2 (en) | 2020-04-01 | 2022-12-27 | Toyota Motor North America, Inc. | Transport related n-factor authentication |
US11651404B2 (en) | 2021-08-31 | 2023-05-16 | Kyndryl, Inc. | Virtual shopping assistant |
Families Citing this family (852)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9823737B2 (en) * | 2008-04-07 | 2017-11-21 | Mohammad A Mazed | Augmented reality personal assistant apparatus |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
TWI439960B (en) | 2010-04-07 | 2014-06-01 | Apple Inc | Avatar editing environment |
US10463248B2 (en) * | 2011-03-02 | 2019-11-05 | Brien Holden Vision Institute Limited | Systems, methods, and devices for measuring eye movement and pupil response |
WO2013148557A1 (en) | 2012-03-26 | 2013-10-03 | New York University | Methods and kits for assessing central nervous system integrity |
US10716469B2 (en) | 2013-01-25 | 2020-07-21 | Wesley W. O. Krueger | Ocular-performance-based head impact measurement applied to rotationally-centered impact mitigation systems and methods |
US10231614B2 (en) | 2014-07-08 | 2019-03-19 | Wesley W. O. Krueger | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
US11490809B2 (en) | 2013-01-25 | 2022-11-08 | Wesley W. O. Krueger | Ocular parameter-based head impact measurement using a face shield |
US10602927B2 (en) | 2013-01-25 | 2020-03-31 | Wesley W. O. Krueger | Ocular-performance-based head impact measurement using a faceguard |
US11504051B2 (en) | 2013-01-25 | 2022-11-22 | Wesley W. O. Krueger | Systems and methods for observing eye and head information to measure ocular parameters and determine human health status |
US9788714B2 (en) | 2014-07-08 | 2017-10-17 | Iarmourholdings, Inc. | Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance |
US11389059B2 (en) | 2013-01-25 | 2022-07-19 | Wesley W. O. Krueger | Ocular-performance-based head impact measurement using a faceguard |
KR102516577B1 (en) | 2013-02-07 | 2023-04-03 | 애플 인크. | Voice trigger for a digital assistant |
US10895908B2 (en) | 2013-03-04 | 2021-01-19 | Tobii Ab | Targeting saccade landing prediction using visual history |
US9665171B1 (en) | 2013-03-04 | 2017-05-30 | Tobii Ab | Gaze and saccade based graphical manipulation |
US11714487B2 (en) | 2013-03-04 | 2023-08-01 | Tobii Ab | Gaze and smooth pursuit based continuous foveal adjustment |
US9898081B2 (en) | 2013-03-04 | 2018-02-20 | Tobii Ab | Gaze and saccade based graphical manipulation |
US10082870B2 (en) * | 2013-03-04 | 2018-09-25 | Tobii Ab | Gaze and saccade based graphical manipulation |
AU2014281725B2 (en) | 2013-06-17 | 2019-10-10 | New York University | Methods and kits for assessing neurological and ophthalmic function and localizing neurological lesions |
US10884493B2 (en) | 2013-06-20 | 2021-01-05 | Uday Parshionikar | Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions |
KR101882594B1 (en) | 2013-09-03 | 2018-07-26 | 토비 에이비 | Portable eye tracking device |
US10686972B2 (en) | 2013-09-03 | 2020-06-16 | Tobii Ab | Gaze assisted field of view control |
US10310597B2 (en) * | 2013-09-03 | 2019-06-04 | Tobii Ab | Portable eye tracking device |
US9958939B2 (en) * | 2013-10-31 | 2018-05-01 | Sync-Think, Inc. | System and method for dynamic content delivery based on gaze analytics |
JP2015114865A (en) * | 2013-12-12 | 2015-06-22 | ソニー株式会社 | Information processor, relay computer, information processing system, and information processing program |
EP3090322A4 (en) * | 2013-12-31 | 2017-07-19 | Eyefluence, Inc. | Systems and methods for gaze-based media selection and editing |
US20150228119A1 (en) | 2014-02-11 | 2015-08-13 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20160019715A1 (en) * | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9852545B2 (en) | 2014-02-11 | 2017-12-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US10430985B2 (en) | 2014-03-14 | 2019-10-01 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
US11138793B2 (en) | 2014-03-14 | 2021-10-05 | Magic Leap, Inc. | Multi-depth plane display system with reduced switching between depth planes |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US10424103B2 (en) * | 2014-04-29 | 2019-09-24 | Microsoft Technology Licensing, Llc | Display device viewer gaze attraction |
US10564714B2 (en) | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
KR102173699B1 (en) | 2014-05-09 | 2020-11-03 | 아이플루언스, 인크. | Systems and methods for discerning eye signals and continuous biometric identification |
US9706910B1 (en) * | 2014-05-29 | 2017-07-18 | Vivid Vision, Inc. | Interactive system for vision assessment and correction |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9880401B2 (en) * | 2014-06-13 | 2018-01-30 | Verily Life Sciences Llc | Method, device and system for accessing an eye-mountable device with a user interface |
WO2015194135A1 (en) * | 2014-06-19 | 2015-12-23 | 日本電気株式会社 | Authentication device, authentication system, authentication method, and program storage medium |
DE102014211823A1 (en) * | 2014-06-20 | 2015-12-24 | Robert Bosch Gmbh | Procedure for personal identification |
KR102266195B1 (en) * | 2014-06-20 | 2021-06-17 | 삼성전자주식회사 | Apparatus and method for providing information associated with object |
US9269328B2 (en) * | 2014-06-24 | 2016-02-23 | Google Inc. | Efficient frame rendering |
US9817959B2 (en) * | 2014-06-27 | 2017-11-14 | Intel Corporation | Wearable electronic devices |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9961307B1 (en) * | 2014-06-30 | 2018-05-01 | Lee S. Weinblatt | Eyeglass recorder with multiple scene cameras and saccadic motion detection |
ES2964604T3 (en) * | 2014-07-07 | 2024-04-08 | Attenti Electronic Monitoring Ltd | Tamper-proof self-administered drug screening |
KR101645087B1 (en) * | 2014-07-10 | 2016-08-02 | 아이리텍 잉크 | High security set using hand attached-type wearable device for iris recognition with wearing detection sensor and control method of the same set |
US10540907B2 (en) * | 2014-07-31 | 2020-01-21 | Intelligent Technologies International, Inc. | Biometric identification headpiece system for test taking |
US11013441B2 (en) | 2014-08-04 | 2021-05-25 | New York University | Methods and kits for diagnosing, assessing or quantitating drug use, drug abuse and narcosis, internuclear ophthalmoplegia, attention deficit hyperactivity disorder (ADHD), chronic traumatic encephalopathy, schizophrenia spectrum disorders and alcohol consumption |
US9829708B1 (en) * | 2014-08-19 | 2017-11-28 | Boston Incubator Center, LLC | Method and apparatus of wearable eye pointing system |
HK1203120A2 (en) * | 2014-08-26 | 2015-10-16 | 高平 | A gait monitor and a method of monitoring the gait of a person |
US10425814B2 (en) | 2014-09-24 | 2019-09-24 | Princeton Identity, Inc. | Control of wireless communication device capability in a mobile device with a biometric key |
WO2016054092A1 (en) | 2014-09-29 | 2016-04-07 | Magic Leap, Inc. | Architectures and methods for outputting different wavelength light out of waveguides |
US9898868B2 (en) * | 2014-11-06 | 2018-02-20 | Seiko Epson Corporation | Display device, method of controlling the same, and program |
GB2532438B (en) * | 2014-11-18 | 2019-05-08 | Eshare Ltd | Apparatus, method and system for determining a viewed status of a document |
WO2016089592A1 (en) | 2014-12-03 | 2016-06-09 | Sri Internaitonal | System and method for mobile device biometric add-on |
JPWO2016088415A1 (en) * | 2014-12-05 | 2017-09-14 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
KR102139795B1 (en) * | 2014-12-15 | 2020-07-31 | 삼성전자주식회사 | Method for updating biometric feature pattern and the electronic device therefor |
US10013620B1 (en) * | 2015-01-13 | 2018-07-03 | State Farm Mutual Automobile Insurance Company | Apparatuses, systems and methods for compressing image data that is representative of a series of digital images |
US10878775B2 (en) | 2015-02-17 | 2020-12-29 | Mentor Acquisition One, Llc | See-through computer display systems |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
US9652035B2 (en) * | 2015-02-23 | 2017-05-16 | International Business Machines Corporation | Interfacing via heads-up display using eye contact |
EP3062142B1 (en) | 2015-02-26 | 2018-10-03 | Nokia Technologies OY | Apparatus for a near-eye display |
USD779556S1 (en) * | 2015-02-27 | 2017-02-21 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with an icon |
US9836663B2 (en) * | 2015-03-05 | 2017-12-05 | Samsung Electronics Co., Ltd. | User authenticating method and head mounted device supporting the same |
KR102634148B1 (en) | 2015-03-16 | 2024-02-05 | 매직 립, 인코포레이티드 | Methods and system for diagnosing and treating health ailments |
US10921896B2 (en) * | 2015-03-16 | 2021-02-16 | Facebook Technologies, Llc | Device interaction in augmented reality |
IN2015CH01313A (en) * | 2015-03-17 | 2015-04-10 | Wipro Ltd | |
KR101648017B1 (en) * | 2015-03-23 | 2016-08-12 | 현대자동차주식회사 | Display apparatus, vehicle and display method |
CN106155288B (en) * | 2015-04-10 | 2019-02-12 | 北京智谷睿拓技术服务有限公司 | Information acquisition method, information acquisition device and user equipment |
US10305895B2 (en) * | 2015-04-14 | 2019-05-28 | Blubox Security, Inc. | Multi-factor and multi-mode biometric physical access control device |
WO2016183020A1 (en) | 2015-05-11 | 2016-11-17 | Magic Leap, Inc. | Devices, methods and systems for biometric user recognition utilizing neural networks |
US10254544B1 (en) * | 2015-05-13 | 2019-04-09 | Rockwell Collins, Inc. | Head tracking accuracy and reducing latency in dynamic environments |
US9860452B2 (en) * | 2015-05-13 | 2018-01-02 | Lenovo (Singapore) Pte. Ltd. | Usage of first camera to determine parameter for action associated with second camera |
US20160358181A1 (en) * | 2015-05-14 | 2016-12-08 | Magic Leap, Inc. | Augmented reality systems and methods for tracking biometric data |
US20200321107A1 (en) * | 2015-05-19 | 2020-10-08 | Iryou Jyouhou Gijyutu Kenkyusyo Corporation | Integrated multi-facility electronic medical record system |
AU2016264503B2 (en) * | 2015-05-20 | 2021-10-28 | Magic Leap, Inc. | Tilt shift iris imaging |
US9716834B2 (en) * | 2015-05-20 | 2017-07-25 | Panasonic Intellectual Property Management Co., Ltd. | Image display device and image processing device |
US10937064B2 (en) * | 2015-06-08 | 2021-03-02 | Samsung Electronics Co.. Ltd. | Method and apparatus for providing content |
IN2015CH02866A (en) * | 2015-06-09 | 2015-07-17 | Wipro Ltd | |
RU2601169C1 (en) * | 2015-06-11 | 2016-10-27 | Виталий Витальевич Аверьянов | Method and device for interaction with virtual objects |
JP6553418B2 (en) * | 2015-06-12 | 2019-07-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Display control method, display control device and control program |
US20160366317A1 (en) * | 2015-06-12 | 2016-12-15 | Delta ID Inc. | Apparatuses and methods for image based biometric recognition |
US10076250B2 (en) | 2015-06-14 | 2018-09-18 | Facense Ltd. | Detecting physiological responses based on multispectral data from head-mounted cameras |
US10076270B2 (en) | 2015-06-14 | 2018-09-18 | Facense Ltd. | Detecting physiological responses while accounting for touching the face |
US10085685B2 (en) | 2015-06-14 | 2018-10-02 | Facense Ltd. | Selecting triggers of an allergic reaction based on nasal temperatures |
US10523852B2 (en) | 2015-06-14 | 2019-12-31 | Facense Ltd. | Wearable inward-facing camera utilizing the Scheimpflug principle |
US10080861B2 (en) | 2015-06-14 | 2018-09-25 | Facense Ltd. | Breathing biofeedback eyeglasses |
US10045726B2 (en) | 2015-06-14 | 2018-08-14 | Facense Ltd. | Selecting a stressor based on thermal measurements of the face |
US10136852B2 (en) | 2015-06-14 | 2018-11-27 | Facense Ltd. | Detecting an allergic reaction from nasal temperatures |
US10159411B2 (en) | 2015-06-14 | 2018-12-25 | Facense Ltd. | Detecting irregular physiological responses during exposure to sensitive data |
US10045737B2 (en) | 2015-06-14 | 2018-08-14 | Facense Ltd. | Clip-on device with inward-facing cameras |
US9968264B2 (en) | 2015-06-14 | 2018-05-15 | Facense Ltd. | Detecting physiological responses based on thermal asymmetry of the face |
US10136856B2 (en) | 2016-06-27 | 2018-11-27 | Facense Ltd. | Wearable respiration measurements system |
US10154810B2 (en) | 2015-06-14 | 2018-12-18 | Facense Ltd. | Security system that detects atypical behavior |
US10130308B2 (en) | 2015-06-14 | 2018-11-20 | Facense Ltd. | Calculating respiratory parameters from thermal measurements |
US10045699B2 (en) | 2015-06-14 | 2018-08-14 | Facense Ltd. | Determining a state of a user based on thermal measurements of the forehead |
US10130299B2 (en) | 2015-06-14 | 2018-11-20 | Facense Ltd. | Neurofeedback eyeglasses |
US10216981B2 (en) | 2015-06-14 | 2019-02-26 | Facense Ltd. | Eyeglasses that measure facial skin color changes |
US10064559B2 (en) | 2015-06-14 | 2018-09-04 | Facense Ltd. | Identification of the dominant nostril using thermal measurements |
US10151636B2 (en) | 2015-06-14 | 2018-12-11 | Facense Ltd. | Eyeglasses having inward-facing and outward-facing thermal cameras |
US10092232B2 (en) | 2015-06-14 | 2018-10-09 | Facense Ltd. | User state selection based on the shape of the exhale stream |
US10130261B2 (en) | 2015-06-14 | 2018-11-20 | Facense Ltd. | Detecting physiological responses while taking into account consumption of confounding substances |
US10113913B2 (en) | 2015-10-03 | 2018-10-30 | Facense Ltd. | Systems for collecting thermal measurements of the face |
DE102016110902A1 (en) * | 2015-06-14 | 2016-12-15 | Facense Ltd. | Head-mounted devices for recording thermal readings |
US10299717B2 (en) | 2015-06-14 | 2019-05-28 | Facense Ltd. | Detecting stress based on thermal measurements of the face |
EP4249965A3 (en) | 2015-06-15 | 2023-12-27 | Magic Leap, Inc. | Display system with optical elements for in-coupling multiplexed light streams |
US10554758B2 (en) | 2015-06-15 | 2020-02-04 | Blub0X Security, Inc. | Web-cloud hosted unified physical security system |
US10043487B2 (en) * | 2015-06-24 | 2018-08-07 | Samsung Electronics Co., Ltd. | Apparatus and method for split screen display on mobile device |
US10685488B1 (en) * | 2015-07-17 | 2020-06-16 | Naveen Kumar | Systems and methods for computer assisted operation |
CN104966359B (en) * | 2015-07-20 | 2018-01-30 | 京东方科技集团股份有限公司 | anti-theft alarm system and method |
TWI570638B (en) * | 2015-07-29 | 2017-02-11 | 財團法人資訊工業策進會 | Gaze analysis method and apparatus |
CN107787472A (en) * | 2015-08-04 | 2018-03-09 | 谷歌有限责任公司 | For staring interactive hovering behavior in virtual reality |
US10178150B2 (en) * | 2015-08-07 | 2019-01-08 | International Business Machines Corporation | Eye contact-based information transfer |
CN108140259B (en) | 2015-08-18 | 2022-06-14 | 奇跃公司 | Virtual and augmented reality systems and methods |
CA2996039A1 (en) | 2015-08-21 | 2017-03-02 | Magic Leap, Inc. | Eyelid shape estimation using eye pose measurement |
CN105184246B (en) * | 2015-08-28 | 2020-05-19 | 北京旷视科技有限公司 | Living body detection method and living body detection system |
US10223160B2 (en) * | 2015-08-31 | 2019-03-05 | Ayla Networks, Inc. | Compact schedules for resource-constrained devices |
AU2015261614A1 (en) * | 2015-09-04 | 2017-03-23 | Musigma Business Solutions Pvt. Ltd. | Analytics system and method |
US9857871B2 (en) | 2015-09-04 | 2018-01-02 | Sony Interactive Entertainment Inc. | Apparatus and method for dynamic graphics rendering based on saccade detection |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US20170200316A1 (en) * | 2015-09-10 | 2017-07-13 | Sphere Optics Company, Llc | Advertising system for virtual reality environments |
US10681489B2 (en) | 2015-09-16 | 2020-06-09 | Magic Leap, Inc. | Head pose mixing of audio files |
IN2015DE02924A (en) * | 2015-09-16 | 2015-10-23 | Hcl Technologies Ltd | |
JP6684559B2 (en) * | 2015-09-16 | 2020-04-22 | 株式会社バンダイナムコエンターテインメント | Program and image generation device |
US9858706B2 (en) * | 2015-09-22 | 2018-01-02 | Facebook, Inc. | Systems and methods for content streaming |
US10096130B2 (en) | 2015-09-22 | 2018-10-09 | Facebook, Inc. | Systems and methods for content streaming |
CA2999261C (en) | 2015-09-23 | 2022-10-18 | Magic Leap, Inc. | Eye imaging with an off-axis imager |
CN108762496B (en) * | 2015-09-24 | 2020-12-18 | 联想(北京)有限公司 | Information processing method and electronic equipment |
EP3274878A1 (en) | 2015-09-28 | 2018-01-31 | Google LLC | Sharing images and image albums over a communication network |
USD791787S1 (en) * | 2015-09-28 | 2017-07-11 | Google Inc. | Display screen with a transitional graphical user interface for a photo album |
US20170090588A1 (en) * | 2015-09-29 | 2017-03-30 | Kabushiki Kaisha Toshiba | Electronic device and method |
US9635167B2 (en) * | 2015-09-29 | 2017-04-25 | Paypal, Inc. | Conversation assistance system |
EP3349424B1 (en) * | 2015-10-08 | 2021-03-03 | Huawei Technologies Co., Ltd. | Method for protecting privacy information and terminal device |
EP3156880A1 (en) * | 2015-10-14 | 2017-04-19 | Ecole Nationale de l'Aviation Civile | Zoom effect in gaze tracking interface |
CN114140867A (en) | 2015-10-16 | 2022-03-04 | 奇跃公司 | Eye pose recognition using eye features |
EP3365724B1 (en) | 2015-10-20 | 2021-05-05 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
US10466780B1 (en) * | 2015-10-26 | 2019-11-05 | Pillantas | Systems and methods for eye tracking calibration, eye vergence gestures for interface control, and visual aids therefor |
US10338677B2 (en) * | 2015-10-28 | 2019-07-02 | Microsoft Technology Licensing, Llc | Adjusting image frames based on tracking motion of eyes |
US10831922B1 (en) * | 2015-10-30 | 2020-11-10 | United Services Automobile Association (Usaa) | System and method for access control |
JP7210280B2 (en) | 2015-11-04 | 2023-01-23 | マジック リープ, インコーポレイテッド | Light field display measurement |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11231544B2 (en) | 2015-11-06 | 2022-01-25 | Magic Leap, Inc. | Metasurfaces for redirecting light and methods for fabricating |
CN113769369A (en) * | 2015-11-19 | 2021-12-10 | 天使集团股份有限公司 | Management system for table game and game chip |
US10061552B2 (en) * | 2015-11-25 | 2018-08-28 | International Business Machines Corporation | Identifying the positioning in a multiple display grid |
CN105528577B (en) * | 2015-12-04 | 2019-02-12 | 深圳大学 | Recognition methods based on intelligent glasses |
US10097443B2 (en) * | 2015-12-16 | 2018-10-09 | Fluke Corporation | System and method for secure communications between a computer test tool and a cloud-based server |
US9703374B1 (en) * | 2015-12-16 | 2017-07-11 | Google, Inc. | In-cell gaze tracking for near-eye display |
CN108369451B (en) * | 2015-12-18 | 2021-10-29 | 索尼公司 | Information processing apparatus, information processing method, and computer-readable storage medium |
US10102358B2 (en) * | 2015-12-29 | 2018-10-16 | Sensory, Incorporated | Face-controlled liveness verification |
CN105892642A (en) * | 2015-12-31 | 2016-08-24 | 乐视移动智能信息技术(北京)有限公司 | Method and device for controlling terminal according to eye movement |
WO2017113757A1 (en) * | 2015-12-31 | 2017-07-06 | 北京小鸟看看科技有限公司 | Method of laying out surrounding interface, methods of switching content and switching list in three-dimensional immersive environment |
CN106940766A (en) * | 2016-01-04 | 2017-07-11 | 由田新技股份有限公司 | Sight line track authentication system and method |
JP6231585B2 (en) * | 2016-01-05 | 2017-11-15 | 株式会社Qdレーザ | Image projection device |
KR102466996B1 (en) * | 2016-01-06 | 2022-11-14 | 삼성전자주식회사 | Method and apparatus for predicting eye position |
WO2017120372A1 (en) | 2016-01-07 | 2017-07-13 | Magic Leap, Inc. | Virtual and augmented reality systems and methods having unequal numbers of component color images distributed across depth planes |
JP2017123050A (en) * | 2016-01-07 | 2017-07-13 | ソニー株式会社 | Information processor, information processing method, program, and server |
JP2019506694A (en) | 2016-01-12 | 2019-03-07 | プリンストン・アイデンティティー・インコーポレーテッド | Biometric analysis system and method |
CN113156650A (en) | 2016-01-19 | 2021-07-23 | 奇跃公司 | Augmented reality system and method using images |
WO2017127366A1 (en) * | 2016-01-19 | 2017-07-27 | Magic Leap, Inc. | Eye image collection, selection, and combination |
CN108885352B (en) | 2016-01-29 | 2021-11-23 | 奇跃公司 | Display of three-dimensional images |
US10169560B2 (en) * | 2016-02-04 | 2019-01-01 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Stimuli-based authentication |
KR101729434B1 (en) * | 2016-02-16 | 2017-04-24 | 주식회사 시큐브 | Space division segment block and its dynamic movement tracking based manual signature authentication system and method thereof |
US10591728B2 (en) | 2016-03-02 | 2020-03-17 | Mentor Acquisition One, Llc | Optical systems for head-worn computers |
US10129510B2 (en) | 2016-02-18 | 2018-11-13 | Samsung Electronics Co., Ltd. | Initiating human-machine interaction based on visual attention |
CN108700275B (en) | 2016-02-24 | 2022-05-31 | 奇跃公司 | Low profile interconnect for light emitter |
KR20180114162A (en) | 2016-02-24 | 2018-10-17 | 매직 립, 인코포레이티드 | Polarizing beam splitter with low light leakage |
WO2017147534A1 (en) | 2016-02-26 | 2017-08-31 | Magic Leap, Inc. | Display system having a plurality of light pipes for a plurality of light emitters |
EP3420601B1 (en) | 2016-02-26 | 2023-08-02 | Magic Leap, Inc. | Optical system |
US10667981B2 (en) | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
KR20180117181A (en) | 2016-03-01 | 2018-10-26 | 매직 립, 인코포레이티드 | A reflective switching device for inputting light of different wavelengths into waveguides |
AU2017225977C1 (en) | 2016-03-04 | 2023-08-03 | Magic Leap, Inc. | Current drain reduction in AR/VR display systems |
US10089453B2 (en) | 2016-03-07 | 2018-10-02 | Magic Leap, Inc. | Blue light adjustment for biometric identification |
CA3015658A1 (en) | 2016-03-11 | 2017-09-14 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
WO2017156486A1 (en) * | 2016-03-11 | 2017-09-14 | Oculus Vr, Llc | Corneal sphere tracking for generating an eye model |
US10115205B2 (en) | 2016-03-11 | 2018-10-30 | Facebook Technologies, Llc | Eye tracking system with single point calibration |
US10579708B1 (en) * | 2016-03-22 | 2020-03-03 | Massachusetts Mutual Life Insurance Company | Systems and methods for improving workflow efficiency and for electronic record population utilizing intelligent input systems |
EP3779740B1 (en) * | 2016-03-22 | 2021-12-08 | Magic Leap, Inc. | Head mounted display system configured to exchange biometric information |
US10306311B1 (en) | 2016-03-24 | 2019-05-28 | Massachusetts Mutual Life Insurance Company | Intelligent and context aware reading systems |
US10360254B1 (en) | 2016-03-24 | 2019-07-23 | Massachusetts Mutual Life Insurance Company | Intelligent and context aware reading systems |
AU2017238847A1 (en) | 2016-03-25 | 2018-10-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
JP6728863B2 (en) * | 2016-03-25 | 2020-07-22 | 富士ゼロックス株式会社 | Information processing system |
US10372205B2 (en) | 2016-03-31 | 2019-08-06 | Sony Interactive Entertainment Inc. | Reducing rendering computation and power consumption by detecting saccades and blinks |
US10192528B2 (en) | 2016-03-31 | 2019-01-29 | Sony Interactive Entertainment Inc. | Real-time user adaptive foveated rendering |
WO2017172695A1 (en) | 2016-03-31 | 2017-10-05 | Princeton Identity, Inc. | Systems and methods of biometric anaysis with adaptive trigger |
US10088898B2 (en) | 2016-03-31 | 2018-10-02 | Verizon Patent And Licensing Inc. | Methods and systems for determining an effectiveness of content in an immersive virtual reality world |
CN114995594A (en) | 2016-03-31 | 2022-09-02 | 奇跃公司 | Interaction with 3D virtual objects using gestures and multi-DOF controllers |
US10169846B2 (en) | 2016-03-31 | 2019-01-01 | Sony Interactive Entertainment Inc. | Selective peripheral vision filtering in a foveated rendering system |
US10401952B2 (en) | 2016-03-31 | 2019-09-03 | Sony Interactive Entertainment Inc. | Reducing rendering computation and power consumption by detecting saccades and blinks |
US10366296B2 (en) | 2016-03-31 | 2019-07-30 | Princeton Identity, Inc. | Biometric enrollment systems and methods |
US10733275B1 (en) * | 2016-04-01 | 2020-08-04 | Massachusetts Mutual Life Insurance Company | Access control through head imaging and biometric authentication |
JP6923552B2 (en) | 2016-04-08 | 2021-08-18 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Augmented reality systems and methods with varifocal lens elements |
US20170291723A1 (en) * | 2016-04-11 | 2017-10-12 | Honeywell International Inc. | System and method for validating flight checklist items for maintenance and inspection applications |
KR20230098916A (en) | 2016-04-21 | 2023-07-04 | 매직 립, 인코포레이티드 | Visual aura around field of view |
KR101904889B1 (en) * | 2016-04-21 | 2018-10-05 | 주식회사 비주얼캠프 | Display apparatus and method and system for input processing therof |
AU2017257549B2 (en) | 2016-04-26 | 2021-09-09 | Magic Leap, Inc. | Electromagnetic tracking with augmented reality systems |
CN105897428B (en) * | 2016-04-28 | 2019-06-25 | 武汉大学 | A kind of real-time video safety communication system and method based on iris recognition |
NZ747834A (en) | 2016-05-06 | 2023-06-30 | Magic Leap Inc | Metasurfaces with asymmetric gratings for redirecting light and methods for fabricating |
JP7021110B2 (en) | 2016-05-09 | 2022-02-16 | マジック リープ, インコーポレイテッド | Augmented reality systems and methods for user health analysis |
EP3455766A4 (en) | 2016-05-10 | 2019-11-27 | National ICT Australia Limited | Authenticating a user |
US9904058B2 (en) | 2016-05-12 | 2018-02-27 | Magic Leap, Inc. | Distributed light manipulation over imaging waveguide |
EP3459071B1 (en) | 2016-05-20 | 2022-05-11 | Magic Leap, Inc. | Contextual awareness of user interface menus |
US10065658B2 (en) * | 2016-05-23 | 2018-09-04 | International Business Machines Corporation | Bias of physical controllers in a system |
US20180249941A1 (en) * | 2016-05-24 | 2018-09-06 | neuroFit, Inc. | Oculometric Neurological Examination (ONE) Appliance |
JP6563596B2 (en) * | 2016-05-25 | 2019-08-21 | 株式会社ソニー・インタラクティブエンタテインメント | Image processing apparatus, image processing method, and program |
US10037080B2 (en) * | 2016-05-31 | 2018-07-31 | Paypal, Inc. | User physical attribute based device and content management system |
USD796551S1 (en) * | 2016-06-03 | 2017-09-05 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with icon |
AU2017273737B2 (en) | 2016-06-03 | 2022-05-05 | Magic Leap, Inc. | Augmented reality identity verification |
US11108708B2 (en) | 2016-06-06 | 2021-08-31 | Global Tel*Link Corporation | Personalized chatbots for inmates |
CN106056092B (en) * | 2016-06-08 | 2019-08-20 | 华南理工大学 | The gaze estimation method for headset equipment based on iris and pupil |
WO2017213753A1 (en) | 2016-06-10 | 2017-12-14 | Magic Leap, Inc. | Integrating point source for texture projecting bulb |
US10009536B2 (en) | 2016-06-12 | 2018-06-26 | Apple Inc. | Applying a simulated optical effect based on data received from multiple camera sensors |
US10339659B2 (en) * | 2016-06-13 | 2019-07-02 | International Business Machines Corporation | System, method, and recording medium for workforce performance management |
EP3751396A1 (en) * | 2016-06-16 | 2020-12-16 | Apple Inc. | Method and system for providing eye tracking based information about a user behavior, client device, server and computer program product |
US10565287B2 (en) * | 2016-06-17 | 2020-02-18 | International Business Machines Corporation | Web content layout engine instance sharing across mobile devices |
EP3472828B1 (en) | 2016-06-20 | 2022-08-10 | Magic Leap, Inc. | Augmented reality display system for evaluation and modification of neurological conditions, including visual processing and perception conditions |
CN106200905B (en) * | 2016-06-27 | 2019-03-29 | 联想(北京)有限公司 | Information processing method and electronic equipment |
CN109643373B (en) | 2016-06-30 | 2023-06-27 | 奇跃公司 | Estimating pose in 3D space |
US11354863B2 (en) * | 2016-06-30 | 2022-06-07 | Honeywell International Inc. | Systems and methods for immersive and collaborative video surveillance |
US10200262B1 (en) * | 2016-07-08 | 2019-02-05 | Splunk Inc. | Continuous anomaly detection service |
US10146609B1 (en) | 2016-07-08 | 2018-12-04 | Splunk Inc. | Configuration of continuous anomaly detection service |
US10769854B2 (en) | 2016-07-12 | 2020-09-08 | Tyco Fire & Security Gmbh | Holographic technology implemented security solution |
KR102648770B1 (en) * | 2016-07-14 | 2024-03-15 | 매직 립, 인코포레이티드 | Deep neural network for iris identification |
EP3484343B1 (en) * | 2016-07-14 | 2024-01-10 | Magic Leap, Inc. | Iris boundary estimation using cornea curvature |
CN117793564A (en) | 2016-07-22 | 2024-03-29 | 索尼公司 | Image processing system, image sensor, and image processing method |
KR102412525B1 (en) | 2016-07-25 | 2022-06-23 | 매직 립, 인코포레이티드 | Optical Field Processor System |
KR20230133940A (en) | 2016-07-25 | 2023-09-19 | 매직 립, 인코포레이티드 | Imaging modification, display and visualization using augmented and virtual reality eyewear |
EP4138339A1 (en) | 2016-07-29 | 2023-02-22 | Magic Leap, Inc. | Secure exchange of cryptographically signed records |
US11642071B2 (en) | 2016-08-02 | 2023-05-09 | New York University | Methods and kits for assessing neurological function and localizing neurological lesions |
US9844321B1 (en) * | 2016-08-04 | 2017-12-19 | Novartis Ag | Enhanced ophthalmic surgical experience using a virtual reality head-mounted display |
US10417495B1 (en) * | 2016-08-08 | 2019-09-17 | Google Llc | Systems and methods for determining biometric information |
JP6795683B2 (en) | 2016-08-11 | 2020-12-02 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Automatic placement of virtual objects in 3D space |
IL292025B2 (en) | 2016-08-12 | 2023-12-01 | Magic Leap Inc | Word flow annotation |
NZ750551A (en) | 2016-08-22 | 2023-05-26 | Magic Leap Inc | Multi-layer diffractive eyepiece |
EP3500911B1 (en) * | 2016-08-22 | 2023-09-27 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
US10835120B2 (en) * | 2016-08-23 | 2020-11-17 | Welch Allyn, Inc. | Extended medical test system |
CN106899567B (en) | 2016-08-24 | 2019-12-13 | 阿里巴巴集团控股有限公司 | User body checking method, device and system |
JP6559359B2 (en) * | 2016-09-01 | 2019-08-14 | 三菱電機株式会社 | Gesture determination device, gesture operation device, and gesture determination method |
DE102016116770A1 (en) * | 2016-09-07 | 2018-03-08 | Bundesdruckerei Gmbh | Data glasses for the cryptographic signing of image data |
US10650621B1 (en) | 2016-09-13 | 2020-05-12 | Iocurrents, Inc. | Interfacing with a vehicular controller area network |
KR20210060676A (en) | 2016-09-13 | 2021-05-26 | 매직 립, 인코포레이티드 | Sensory eyewear |
US10230719B2 (en) * | 2016-09-19 | 2019-03-12 | Intel Corporation | Head mounted secure display system |
US10210320B2 (en) * | 2016-09-21 | 2019-02-19 | Lextron Systems, Inc. | System and method for secure 5-D user identification |
AU2017332030B2 (en) | 2016-09-21 | 2022-02-03 | Magic Leap, Inc. | Systems and methods for optical systems with exit pupil expander |
IL307292A (en) | 2016-09-22 | 2023-11-01 | Magic Leap Inc | Augmented reality spectroscopy |
EP3504610A1 (en) | 2016-09-22 | 2019-07-03 | Apple Inc. | Postponing the state change of an information affecting the graphical user interface until during the conditon of inattentiveness |
WO2018058063A1 (en) | 2016-09-26 | 2018-03-29 | Magic Leap, Inc. | Calibration of magnetic and optical sensors in a virtual reality or augmented reality display system |
US10750560B2 (en) | 2016-09-27 | 2020-08-18 | Extreme Networks, Inc. | IoT device management using multi-protocol infrastructure network devices |
CA3037047A1 (en) | 2016-09-28 | 2018-04-05 | Magic Leap, Inc. | Face model capture by a wearable device |
RU2016138608A (en) | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | NEURAL NETWORK FOR SEGMENTING THE EYE IMAGE AND ASSESSING THE QUALITY OF THE IMAGE |
US10430042B2 (en) * | 2016-09-30 | 2019-10-01 | Sony Interactive Entertainment Inc. | Interaction context-based virtual reality |
US10863902B2 (en) | 2016-10-03 | 2020-12-15 | Oculogica Inc. | Method for detecting glaucoma |
CA3038967A1 (en) | 2016-10-04 | 2018-04-12 | Magic Leap, Inc. | Efficient data layouts for convolutional neural networks |
JP7090601B2 (en) | 2016-10-05 | 2022-06-24 | マジック リープ, インコーポレイテッド | Peripheral test for mixed reality calibration |
CN107018121B (en) * | 2016-10-13 | 2021-07-20 | 创新先进技术有限公司 | User identity authentication method and device |
US10925479B2 (en) * | 2016-10-13 | 2021-02-23 | Ronald Michael Kurtz | Networked system of mobile communication platforms for nonpharmacologic constriction of a pupil |
CN106997239A (en) | 2016-10-13 | 2017-08-01 | 阿里巴巴集团控股有限公司 | Service implementation method and device based on virtual reality scenario |
US9769166B1 (en) * | 2016-10-19 | 2017-09-19 | International Business Machines Corporation | Wearable sensor based system for person identification |
US10201274B2 (en) * | 2016-10-20 | 2019-02-12 | Oculogica Inc | Eye tracking system with biometric identification |
JP7128179B2 (en) | 2016-10-21 | 2022-08-30 | マジック リープ, インコーポレイテッド | Systems and methods for presenting image content on multiple depth planes by providing multiple intra-pupillary suggestive views |
US10660517B2 (en) | 2016-11-08 | 2020-05-26 | International Business Machines Corporation | Age estimation using feature of eye movement |
US20180125405A1 (en) * | 2016-11-08 | 2018-05-10 | International Business Machines Corporation | Mental state estimation using feature of eye movement |
US11074325B1 (en) * | 2016-11-09 | 2021-07-27 | Wells Fargo Bank, N.A. | Systems and methods for dynamic bio-behavioral authentication |
EP4202840A1 (en) | 2016-11-11 | 2023-06-28 | Magic Leap, Inc. | Periocular and audio synthesis of a full face image |
US11011140B2 (en) * | 2016-11-14 | 2021-05-18 | Huawei Technologies Co., Ltd. | Image rendering method and apparatus, and VR device |
ES2936390T3 (en) * | 2016-11-14 | 2023-03-16 | Mastercard International Inc | Biometric-based document signature method |
CA3043352A1 (en) | 2016-11-15 | 2018-05-24 | Magic Leap, Inc. | Deep learning system for cuboid detection |
IL266595B (en) | 2016-11-16 | 2022-08-01 | Magic Leap Inc | Thermal management systems for wearable components |
US10867445B1 (en) * | 2016-11-16 | 2020-12-15 | Amazon Technologies, Inc. | Content segmentation and navigation |
CA3042553C (en) * | 2016-11-16 | 2024-01-02 | Magic Leap, Inc. | Mixed reality system with reduced power rendering |
CN115639642A (en) | 2016-11-18 | 2023-01-24 | 奇跃公司 | Waveguide optical multiplexer using crossed gratings |
IL303676B1 (en) | 2016-11-18 | 2024-02-01 | Magic Leap Inc | Spatially variable liquid crystal diffraction gratings |
US11067860B2 (en) | 2016-11-18 | 2021-07-20 | Magic Leap, Inc. | Liquid crystal diffractive devices with nano-scale pattern and methods of manufacturing the same |
AU2017363081B2 (en) | 2016-11-18 | 2022-01-13 | Magic Leap, Inc. | Multilayer liquid crystal diffractive gratings for redirecting light of wide incident angle ranges |
US20180144554A1 (en) | 2016-11-18 | 2018-05-24 | Eyedaptic, LLC | Systems for augmented reality visual aids and tools |
WO2018094285A1 (en) * | 2016-11-18 | 2018-05-24 | Eyedaptic, LLC | Improved systems for augmented reality visual aids and tools |
CN206301289U (en) * | 2016-11-29 | 2017-07-04 | 阿里巴巴集团控股有限公司 | VR terminal devices |
CN107066079A (en) | 2016-11-29 | 2017-08-18 | 阿里巴巴集团控股有限公司 | Service implementation method and device based on virtual reality scenario |
KR20180061956A (en) * | 2016-11-30 | 2018-06-08 | 삼성전자주식회사 | Method and apparatus for estimating eye location |
US10531220B2 (en) | 2016-12-05 | 2020-01-07 | Magic Leap, Inc. | Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems |
KR20230070318A (en) | 2016-12-05 | 2023-05-22 | 매직 립, 인코포레이티드 | Virual user input controls in a mixed reality environment |
WO2018106963A1 (en) | 2016-12-08 | 2018-06-14 | Magic Leap, Inc. | Diffractive devices based on cholesteric liquid crystal |
US10796147B1 (en) * | 2016-12-12 | 2020-10-06 | Keith Hanna | Method and apparatus for improving the match performance and user convenience of biometric systems that use images of the human eye |
KR102491442B1 (en) | 2016-12-13 | 2023-01-20 | 매직 립, 인코포레이티드 | Augmented and Virtual Reality Eyewear, Systems, and Methods for Delivering Polarized Light and Determining Glucose Levels |
CN110291565B (en) | 2016-12-13 | 2023-06-30 | 奇跃公司 | Augmented reality display system |
KR102550742B1 (en) | 2016-12-14 | 2023-06-30 | 매직 립, 인코포레이티드 | Patterning of liquid crystals using soft-imprint replication of surface alignment patterns |
IL308598A (en) | 2016-12-22 | 2024-01-01 | Magic Leap Inc | Systems and methods for manipulating light from ambient light sources |
US10885676B2 (en) | 2016-12-27 | 2021-01-05 | Samsung Electronics Co., Ltd. | Method and apparatus for modifying display settings in virtual/augmented reality |
US10746999B2 (en) | 2016-12-28 | 2020-08-18 | Magic Leap, Inc. | Dual depth exit pupil expander |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
CN117251053A (en) | 2016-12-29 | 2023-12-19 | 奇跃公司 | Automatic control of wearable display device based on external conditions |
US10853775B1 (en) * | 2016-12-29 | 2020-12-01 | Wells Fargo Bank, N.A. | Computing systems for proximity-based fees |
EP4300160A2 (en) | 2016-12-30 | 2024-01-03 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
EP4122897A1 (en) | 2017-01-05 | 2023-01-25 | Magic Leap, Inc. | Patterning of high refractive index glasses by plasma etching |
CA3051239C (en) | 2017-01-23 | 2023-12-19 | Magic Leap, Inc. | Eyepiece for virtual, augmented, or mixed reality systems |
IL268115B2 (en) | 2017-01-27 | 2024-01-01 | Magic Leap Inc | Antireflection coatings for metasurfaces |
CA3051414A1 (en) | 2017-01-27 | 2018-08-02 | Magic Leap, Inc. | Diffraction gratings formed by metasurfaces having differently oriented nanobeams |
US10404804B2 (en) * | 2017-01-30 | 2019-09-03 | Global Tel*Link Corporation | System and method for personalized virtual reality experience in a controlled environment |
US10140773B2 (en) * | 2017-02-01 | 2018-11-27 | Accenture Global Solutions Limited | Rendering virtual objects in 3D environments |
US10824703B1 (en) * | 2017-02-01 | 2020-11-03 | United Services Automobile Association (Usaa) | Authentication based on motion and biometric data |
US10416769B2 (en) * | 2017-02-14 | 2019-09-17 | Microsoft Technology Licensing, Llc | Physical haptic feedback system with spatial warping |
US11347054B2 (en) | 2017-02-16 | 2022-05-31 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10485420B2 (en) * | 2017-02-17 | 2019-11-26 | Analog Devices Global Unlimited Company | Eye gaze tracking |
US11141095B2 (en) | 2017-02-17 | 2021-10-12 | Oculogica Inc. | Method and system for detecting concussion |
US20180239422A1 (en) * | 2017-02-17 | 2018-08-23 | International Business Machines Corporation | Tracking eye movements with a smart device |
KR102601052B1 (en) | 2017-02-23 | 2023-11-09 | 매직 립, 인코포레이티드 | Display system with variable power reflector |
CN106980983A (en) | 2017-02-23 | 2017-07-25 | 阿里巴巴集团控股有限公司 | Service authentication method and device based on virtual reality scenario |
CN106873159A (en) | 2017-02-27 | 2017-06-20 | 阿里巴巴集团控股有限公司 | Virtual reality helmet |
CN106932905A (en) | 2017-02-27 | 2017-07-07 | 阿里巴巴集团控股有限公司 | Virtual reality helmet |
CN106932904A (en) | 2017-02-27 | 2017-07-07 | 阿里巴巴集团控股有限公司 | Virtual reality helmet |
CN106873158A (en) * | 2017-02-27 | 2017-06-20 | 阿里巴巴集团控股有限公司 | Virtual reality helmet |
US10866633B2 (en) | 2017-02-28 | 2020-12-15 | Microsoft Technology Licensing, Llc | Signing with your eyes |
US10683100B2 (en) | 2017-03-06 | 2020-06-16 | Bell Helicopter Textron Inc. | Pilot and passenger seat |
JP7057893B2 (en) * | 2017-03-07 | 2022-04-21 | マツダ株式会社 | Visual condition judgment device |
US10568573B2 (en) * | 2017-03-07 | 2020-02-25 | Sony Interactive Entertainment LLC | Mitigation of head-mounted-display impact via biometric sensors and language processing |
US10628994B2 (en) * | 2017-03-07 | 2020-04-21 | Google Llc | Reducing visually induced motion sickness in head mounted display systems |
US10169973B2 (en) | 2017-03-08 | 2019-01-01 | International Business Machines Corporation | Discontinuing display of virtual content and providing alerts based on hazardous physical obstructions |
EP3376367A1 (en) * | 2017-03-13 | 2018-09-19 | Siemens Aktiengesellschaft | Acknowledgement of the transfer of a good |
IL268586B2 (en) | 2017-03-14 | 2023-09-01 | Magic Leap Inc | Waveguides with light absorbing films and processes for forming the same |
US10657838B2 (en) | 2017-03-15 | 2020-05-19 | International Business Machines Corporation | System and method to teach and evaluate image grading performance using prior learned expert knowledge base |
CN107122642A (en) * | 2017-03-15 | 2017-09-01 | 阿里巴巴集团控股有限公司 | Identity identifying method and device based on reality environment |
KR102302725B1 (en) | 2017-03-17 | 2021-09-14 | 매직 립, 인코포레이티드 | Room Layout Estimation Methods and Techniques |
CA3056900A1 (en) | 2017-03-21 | 2018-09-27 | Magic Leap, Inc. | Methods, devices, and systems for illuminating spatial light modulators |
KR20230130770A (en) | 2017-03-21 | 2023-09-12 | 매직 립, 인코포레이티드 | Eye-imaging apparatus using diffractive optical elements |
KR20190126408A (en) | 2017-03-21 | 2019-11-11 | 매직 립, 인코포레이티드 | Stacked waveguides with different diffraction gratings for the combined field of view |
EP3602176A4 (en) | 2017-03-21 | 2020-12-02 | Magic Leap, Inc. | Low-profile beam splitter |
CA3057136A1 (en) | 2017-03-21 | 2018-09-27 | Magic Leap, Inc. | Display system with spatial light modulator illumination for divided pupils |
EP3603055B1 (en) | 2017-03-21 | 2022-03-02 | Magic Leap, Inc. | Depth sensing techniques for virtual, augmented, and mixed reality systems |
AU2018239511A1 (en) | 2017-03-22 | 2019-10-17 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
IL269432B2 (en) * | 2017-03-24 | 2023-10-01 | Magic Leap Inc | Accumulation and confidence assignment of iris codes |
US10410349B2 (en) * | 2017-03-27 | 2019-09-10 | Microsoft Technology Licensing, Llc | Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power |
WO2018183390A1 (en) | 2017-03-28 | 2018-10-04 | Magic Leap, Inc. | Augmeted reality system with spatialized audio tied to user manipulated virtual object |
CN107391983B (en) | 2017-03-31 | 2020-10-16 | 创新先进技术有限公司 | Information processing method and device based on Internet of things |
CN106990843B (en) * | 2017-04-01 | 2021-01-08 | 维沃移动通信有限公司 | Parameter calibration method of eye tracking system and electronic equipment |
US10607096B2 (en) | 2017-04-04 | 2020-03-31 | Princeton Identity, Inc. | Z-dimension user feedback biometric system |
US10609025B2 (en) * | 2017-04-06 | 2020-03-31 | Htc Corporation | System and method for providing simulated environment |
EP3610359B1 (en) * | 2017-04-14 | 2023-09-20 | Magic Leap, Inc. | Multimodal eye tracking |
US10401954B2 (en) | 2017-04-17 | 2019-09-03 | Intel Corporation | Sensory enhanced augmented reality and virtual reality device |
US10242486B2 (en) * | 2017-04-17 | 2019-03-26 | Intel Corporation | Augmented reality and virtual reality feedback enhancement system, apparatus and method |
CN107097227B (en) * | 2017-04-17 | 2019-12-06 | 北京航空航天大学 | human-computer cooperation robot system |
KR102629577B1 (en) | 2017-04-18 | 2024-01-24 | 매직 립, 인코포레이티드 | Waveguides having reflective layers formed by reflective flowable materials |
KR102652922B1 (en) | 2017-04-19 | 2024-03-29 | 매직 립, 인코포레이티드 | Multimodal mission execution and text editing for wearable systems |
US10564733B2 (en) | 2017-04-21 | 2020-02-18 | Htc Corporation | Operating method of tracking system, controller, tracking system, and non-transitory computer readable storage medium |
US10620779B2 (en) * | 2017-04-24 | 2020-04-14 | Microsoft Technology Licensing, Llc | Navigating a holographic image |
EP3616110A1 (en) * | 2017-04-24 | 2020-03-04 | Siemens Aktiengesellschaft | Unlocking passwords in augmented reality based on look |
WO2018201067A1 (en) | 2017-04-27 | 2018-11-01 | Magic Leap, Inc. | Light-emitting user input device |
US10397594B2 (en) | 2017-04-28 | 2019-08-27 | Hewlett Packard Enterprise Development Lp | Real-time processing of IoT data |
KR20180123354A (en) * | 2017-05-08 | 2018-11-16 | 엘지전자 주식회사 | User interface apparatus for vehicle and Vehicle |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | Low-latency intelligent automated assistant |
TWI669657B (en) * | 2017-05-17 | 2019-08-21 | 宏碁股份有限公司 | Host,head-mounted display,portable device,virtual reality system having adaptive controlling function and controlling method thereof |
US10432728B2 (en) | 2017-05-17 | 2019-10-01 | Google Llc | Automatic image sharing with designated users over a communication network |
CN110832441B (en) | 2017-05-19 | 2023-12-26 | 奇跃公司 | Keyboard for virtual, augmented and mixed reality display systems |
EP3631734B1 (en) | 2017-05-22 | 2021-08-18 | Magic Leap, Inc. | Pairing with companion device |
GB2563004A (en) * | 2017-05-23 | 2018-12-05 | Nokia Technologies Oy | Methods and apparatuses for handling visual virtual reality content |
US10339334B2 (en) * | 2017-05-25 | 2019-07-02 | Ca, Inc. | Augmented reality captcha |
CN107224292B (en) * | 2017-05-27 | 2019-12-31 | 西南交通大学 | Method and system for testing attention span of dispatcher |
CN116666814A (en) | 2017-05-30 | 2023-08-29 | 奇跃公司 | Power supply assembly with fan assembly for electronic device |
DE102017111933A1 (en) * | 2017-05-31 | 2018-12-06 | Krohne Messtechnik Gmbh | Method for secure communication with a process measuring field measuring device and corresponding field measuring device |
EP4123425A1 (en) | 2017-05-31 | 2023-01-25 | Magic Leap, Inc. | Eye tracking calibration techniques |
US10242476B2 (en) * | 2017-05-31 | 2019-03-26 | Verizon Patent and Licensong Inc. | Methods and systems for dynamically representing, within a virtual reality data stream being presented to a user, a proxy object that corresponds to an object in the real-world environment of the user |
WO2018222897A1 (en) * | 2017-06-01 | 2018-12-06 | University Of Washington | Smartphone-based digital pupillometer |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
US10528794B2 (en) * | 2017-06-05 | 2020-01-07 | Motorola Solutions, Inc. | System and method for tailoring an electronic digital assistant inquiry response as a function of previously detected user ingestion of related video information |
US10657401B2 (en) | 2017-06-06 | 2020-05-19 | Microsoft Technology Licensing, Llc | Biometric object spoof detection based on image intensity variations |
EP3413226A1 (en) * | 2017-06-07 | 2018-12-12 | Gemalto Sa | Method for authenticating a user and corresponding device and system |
US10853918B2 (en) * | 2017-06-09 | 2020-12-01 | Sony Interactive Entertainment Inc. | Foveal adaptation of temporal anti-aliasing |
WO2018231784A1 (en) | 2017-06-12 | 2018-12-20 | Magic Leap, Inc. | Augmented reality display having multi-element adaptive lens for changing depth planes |
CN107633196A (en) * | 2017-06-14 | 2018-01-26 | 电子科技大学 | A kind of eyeball moving projection scheme based on convolutional neural networks |
US10810773B2 (en) * | 2017-06-14 | 2020-10-20 | Dell Products, L.P. | Headset display control based upon a user's pupil state |
US10620710B2 (en) * | 2017-06-15 | 2020-04-14 | Microsoft Technology Licensing, Llc | Displacement oriented interaction in computer-mediated reality |
WO2019005622A1 (en) | 2017-06-30 | 2019-01-03 | Pcms Holdings, Inc. | Method and apparatus for generating and displaying 360-degree video based on eye tracking and physiological measurements |
US10482229B2 (en) * | 2017-06-30 | 2019-11-19 | Wipro Limited | Method of providing content access permission to a user and a device thereof |
US20190012552A1 (en) * | 2017-07-06 | 2019-01-10 | Yves Lambert | Hidden driver monitoring |
US10573071B2 (en) | 2017-07-07 | 2020-02-25 | Nvidia Corporation | Path planning for virtual reality locomotion |
US10573061B2 (en) | 2017-07-07 | 2020-02-25 | Nvidia Corporation | Saccadic redirection for virtual reality locomotion |
US10319151B2 (en) * | 2017-07-07 | 2019-06-11 | Motorola Solutions, Inc. | Device and method for hierarchical object recognition |
US20190012835A1 (en) * | 2017-07-07 | 2019-01-10 | Microsoft Technology Licensing, Llc | Driving an Image Capture System to Serve Plural Image-Consuming Processes |
US20190012841A1 (en) | 2017-07-09 | 2019-01-10 | Eyedaptic, Inc. | Artificial intelligence enhanced system for adaptive control driven ar/vr visual aids |
US10908680B1 (en) | 2017-07-12 | 2021-02-02 | Magic Leap, Inc. | Pose estimation using electromagnetic tracking |
US10691945B2 (en) | 2017-07-14 | 2020-06-23 | International Business Machines Corporation | Altering virtual content based on the presence of hazardous physical obstructions |
KR102368661B1 (en) | 2017-07-26 | 2022-02-28 | 매직 립, 인코포레이티드 | Training a neural network using representations of user interface devices |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
WO2019023032A1 (en) | 2017-07-26 | 2019-01-31 | Princeton Identity, Inc. | Biometric security systems and methods |
US11073904B2 (en) * | 2017-07-26 | 2021-07-27 | Microsoft Technology Licensing, Llc | Intelligent user interface element selection using eye-gaze |
US11237691B2 (en) * | 2017-07-26 | 2022-02-01 | Microsoft Technology Licensing, Llc | Intelligent response using eye gaze |
US11355023B2 (en) * | 2017-07-27 | 2022-06-07 | Kennesaw State University Research And Service Foundation, Inc. | System and method for intervention with attention deficient disorders |
CN107360424B (en) * | 2017-07-28 | 2019-10-25 | 深圳岚锋创视网络科技有限公司 | A kind of bit rate control method based on video encoder, device and video server |
JP7398962B2 (en) | 2017-07-28 | 2023-12-15 | マジック リープ, インコーポレイテッド | Fan assembly for displaying images |
US10748340B1 (en) * | 2017-07-31 | 2020-08-18 | Apple Inc. | Electronic device with coordinated camera and display operation |
US11587419B2 (en) * | 2017-08-04 | 2023-02-21 | Toyota Research Institute, Inc. | Methods and systems providing an intelligent camera system |
TWI642030B (en) * | 2017-08-09 | 2018-11-21 | 宏碁股份有限公司 | Visual utility analytic method and related eye tracking device and system |
EP3443883B1 (en) * | 2017-08-14 | 2020-07-29 | Carl Zeiss Vision International GmbH | Method and devices for performing eye-related measurements |
WO2019036533A1 (en) * | 2017-08-16 | 2019-02-21 | Veritaz Inc. | Personal display headset for mitigating user access to disallowed resources |
US20190057694A1 (en) * | 2017-08-17 | 2019-02-21 | Dolby International Ab | Speech/Dialog Enhancement Controlled by Pupillometry |
CN107610235B (en) * | 2017-08-21 | 2020-11-10 | 北京精密机电控制设备研究所 | Mobile platform navigation method and device based on deep learning |
CN109426710A (en) * | 2017-08-22 | 2019-03-05 | 上海荆虹电子科技有限公司 | A kind of electronics iris seal implementation method, system and Electronic Signature equipment |
JP2020532031A (en) | 2017-08-23 | 2020-11-05 | ニューラブル インコーポレイテッド | Brain-computer interface with high-speed optotype tracking |
KR102577681B1 (en) * | 2017-08-23 | 2023-09-14 | 한국전자통신연구원 | Apparatus for self-quantification service |
US10313315B2 (en) * | 2017-08-25 | 2019-06-04 | Bank Of America Corporation | Ensuring information security in data transfers by utilizing proximity keys |
US11145124B2 (en) | 2017-08-30 | 2021-10-12 | Ronald H. Winston | System and method for rendering virtual reality interactions |
US10521661B2 (en) | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
CA3071819A1 (en) | 2017-09-01 | 2019-03-07 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
JP6953247B2 (en) * | 2017-09-08 | 2021-10-27 | ラピスセミコンダクタ株式会社 | Goggles type display device, line-of-sight detection method and line-of-sight detection system |
CN114403802A (en) | 2017-09-13 | 2022-04-29 | 奥库洛吉卡公司 | Eye tracking system |
WO2019060298A1 (en) | 2017-09-19 | 2019-03-28 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement |
WO2019060283A1 (en) | 2017-09-20 | 2019-03-28 | Magic Leap, Inc. | Personalized neural network for eye tracking |
EP4296753A2 (en) | 2017-09-21 | 2023-12-27 | Magic Leap, Inc. | Augmented reality display with waveguide configured to capture images of eye and/or environment |
KR102481884B1 (en) | 2017-09-22 | 2022-12-28 | 삼성전자주식회사 | Method and apparatus for displaying a virtual image |
EP3688513A1 (en) * | 2017-09-25 | 2020-08-05 | Continental Automotive GmbH | Head-up display |
IL307639A (en) | 2017-09-27 | 2023-12-01 | Magic Leap Inc | Near eye 3d display with separate phase and amplitude modulators |
US10929993B2 (en) * | 2017-09-29 | 2021-02-23 | L'oreal | Automated imaging system for evaluating the curl of a keratinous substrate |
EP3466338A1 (en) * | 2017-10-03 | 2019-04-10 | Tata Consultancy Services Limited | Cognitive load estimation based on pupil dilation |
WO2019069171A1 (en) * | 2017-10-06 | 2019-04-11 | Novartis Ag | Tracking movement of an eye within a tracking range |
AU2018348229A1 (en) | 2017-10-11 | 2020-04-23 | Magic Leap, Inc. | Augmented reality display comprising eyepiece having a transparent emissive display |
US10712899B2 (en) * | 2017-10-17 | 2020-07-14 | Microsoft Technology Licensing, Llc | Human-machine interface tethered to a user position in a three-dimensional VR or AR environment |
CN111373419A (en) | 2017-10-26 | 2020-07-03 | 奇跃公司 | Gradient normalization system and method for adaptive loss balancing in deep multitask networks |
JP7260538B2 (en) | 2017-10-26 | 2023-04-18 | マジック リープ, インコーポレイテッド | Broadband Adaptive Lens Assembly for Augmented Reality Displays |
AU2018354330A1 (en) | 2017-10-26 | 2020-05-14 | Magic Leap, Inc. | Augmented reality display having liquid crystal variable focus element and roll-to-roll method and apparatus for forming the same |
JP7116166B2 (en) | 2017-10-27 | 2022-08-09 | マジック リープ, インコーポレイテッド | Virtual reticles for augmented reality systems |
US10492725B2 (en) * | 2017-10-29 | 2019-12-03 | Orlando Efrain Abreu Oramas | Method and system of facilitating monitoring of an individual based on at least one wearable device |
US10984508B2 (en) | 2017-10-31 | 2021-04-20 | Eyedaptic, Inc. | Demonstration devices and methods for enhancement for low vision users and systems improvements |
US20190129174A1 (en) * | 2017-10-31 | 2019-05-02 | Google Llc | Multi-perspective eye-tracking for vr/ar systems |
CN108038884B (en) | 2017-11-01 | 2020-12-11 | 北京七鑫易维信息技术有限公司 | Calibration method, calibration device, storage medium and processor |
US11410564B2 (en) | 2017-11-07 | 2022-08-09 | The Board Of Trustees Of The University Of Illinois | System and method for creating immersive interactive application |
US11175736B2 (en) | 2017-11-10 | 2021-11-16 | South Dakota Board Of Regents | Apparatus, systems and methods for using pupillometry parameters for assisted communication |
JP7213241B2 (en) | 2017-11-14 | 2023-01-26 | マジック リープ, インコーポレイテッド | Meta-learning for Multitask Learning on Neural Networks |
CN109799899B (en) * | 2017-11-17 | 2021-10-22 | 腾讯科技(深圳)有限公司 | Interaction control method and device, storage medium and computer equipment |
US10395624B2 (en) | 2017-11-21 | 2019-08-27 | Nvidia Corporation | Adjusting an angular sampling rate during rendering utilizing gaze information |
US10586360B2 (en) | 2017-11-21 | 2020-03-10 | International Business Machines Corporation | Changing view order of augmented reality objects based on user gaze |
US20190156447A1 (en) * | 2017-11-21 | 2019-05-23 | Lorenzo Curci | Flight Logging and Resource Management System |
US11282133B2 (en) | 2017-11-21 | 2022-03-22 | International Business Machines Corporation | Augmented reality product comparison |
CN107968937B (en) * | 2017-11-30 | 2018-08-17 | 泰州腾翔信息科技有限公司 | A kind of system for alleviating eyeball fatigue |
US10656706B2 (en) * | 2017-12-04 | 2020-05-19 | International Business Machines Corporation | Modifying a computer-based interaction based on eye gaze |
CN109871674A (en) * | 2017-12-04 | 2019-06-11 | 上海聚虹光电科技有限公司 | VR or AR equipment subregion operating right management method |
US11717686B2 (en) | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
CN109870873B (en) * | 2017-12-05 | 2022-04-22 | 青岛海信激光显示股份有限公司 | Wavelength conversion device, light source device and projection system |
KR20190067433A (en) * | 2017-12-07 | 2019-06-17 | 주식회사 비주얼캠프 | Method for providing text-reading based reward advertisement service and user terminal for executing the same |
CN111448497B (en) | 2017-12-10 | 2023-08-04 | 奇跃公司 | Antireflective coating on optical waveguides |
KR102045743B1 (en) * | 2017-12-11 | 2019-11-18 | 상명대학교산학협력단 | Device and method for periocular biometric authentication in wearable display device |
AU2018383595A1 (en) | 2017-12-11 | 2020-06-11 | Magic Leap, Inc. | Waveguide illuminator |
US11333902B2 (en) * | 2017-12-12 | 2022-05-17 | RaayonNova LLC | Smart contact lens with embedded display and image focusing system |
CN107992896A (en) * | 2017-12-13 | 2018-05-04 | 东南大学 | A kind of scientific concept evaluating method that tracer technique is moved based on eye |
CN111656406A (en) | 2017-12-14 | 2020-09-11 | 奇跃公司 | Context-based rendering of virtual avatars |
JP7431157B2 (en) | 2017-12-15 | 2024-02-14 | マジック リープ, インコーポレイテッド | Improved pose determination for display devices |
US10852547B2 (en) | 2017-12-15 | 2020-12-01 | Magic Leap, Inc. | Eyepieces for augmented reality display system |
CN108108019B (en) * | 2017-12-15 | 2021-03-19 | 歌尔光学科技有限公司 | Virtual reality equipment and display method thereof |
CN115826240A (en) | 2017-12-20 | 2023-03-21 | 奇跃公司 | Insert for augmented reality viewing apparatus |
JP7171727B2 (en) | 2017-12-20 | 2022-11-15 | ビュージックス コーポレーション | Augmented reality display system |
WO2019133997A1 (en) | 2017-12-31 | 2019-07-04 | Neuroenhancement Lab, LLC | System and method for neuroenhancement to enhance emotional response |
US10916060B2 (en) | 2018-01-04 | 2021-02-09 | Magic Leap, Inc. | Optical elements based on polymeric structures incorporating inorganic materials |
CN110022454B (en) * | 2018-01-10 | 2021-02-23 | 华为技术有限公司 | Method for identifying identity in video conference and related equipment |
US10360419B1 (en) * | 2018-01-15 | 2019-07-23 | Universal City Studios Llc | Interactive systems and methods with tracking devices |
WO2019143844A1 (en) | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Eye center of rotation determination, depth plane selection, and render camera positioning in display systems |
EP4339692A2 (en) | 2018-01-17 | 2024-03-20 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
KR20200108888A (en) * | 2018-01-18 | 2020-09-21 | 뉴레이블 인크. | Brain-computer interface with adaptations for fast, accurate, and intuitive user interactions |
US10853674B2 (en) | 2018-01-23 | 2020-12-01 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining a gaze target based on a virtual eye position |
US10817068B2 (en) * | 2018-01-23 | 2020-10-27 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction |
US10706300B2 (en) * | 2018-01-23 | 2020-07-07 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction |
US11567627B2 (en) * | 2018-01-30 | 2023-01-31 | Magic Leap, Inc. | Eclipse cursor for virtual content in mixed reality displays |
US10540941B2 (en) | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
CN110120229A (en) * | 2018-02-05 | 2019-08-13 | 北京三星通信技术研究有限公司 | The processing method and relevant device of Virtual Reality audio signal |
US11533272B1 (en) * | 2018-02-06 | 2022-12-20 | Amesite Inc. | Computer based education methods and apparatus |
CN108337430A (en) * | 2018-02-07 | 2018-07-27 | 北京联合大学 | 360 degree without dead angle intelligent glasses |
US11556741B2 (en) | 2018-02-09 | 2023-01-17 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters using a neural network |
EP3749172B1 (en) | 2018-02-09 | 2022-03-30 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters |
EP3750028B1 (en) | 2018-02-09 | 2022-10-19 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters |
CN108764007A (en) * | 2018-02-10 | 2018-11-06 | 集智学园(北京)科技有限公司 | Based on OCR with text analysis technique to the measurement method of attention |
US11048785B2 (en) * | 2018-02-14 | 2021-06-29 | Samsung Electronics Co., Ltd | Method and apparatus of performing authentication |
US10726765B2 (en) | 2018-02-15 | 2020-07-28 | Valve Corporation | Using tracking of display device to control image display |
US20190253700A1 (en) | 2018-02-15 | 2019-08-15 | Tobii Ab | Systems and methods for calibrating image sensors in wearable apparatuses |
US10735649B2 (en) | 2018-02-22 | 2020-08-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods using display system control information embedded in image data |
CN108537111A (en) | 2018-02-26 | 2018-09-14 | 阿里巴巴集团控股有限公司 | A kind of method, apparatus and equipment of In vivo detection |
CN111771231A (en) | 2018-02-27 | 2020-10-13 | 奇跃公司 | Matching mesh for avatars |
WO2019168723A1 (en) | 2018-02-28 | 2019-09-06 | Magic Leap, Inc. | Head scan alignment using ocular registration |
WO2019172503A1 (en) * | 2018-03-05 | 2019-09-12 | 고려대학교 산학협력단 | Device for visual field defect evaluation via eye tracking, method for visual field defect evaluation using same, and computer-readable storage medium |
CN108491072B (en) * | 2018-03-05 | 2020-01-21 | 京东方科技集团股份有限公司 | Virtual reality interaction method and device |
EP3762765A4 (en) | 2018-03-05 | 2021-12-08 | Magic Leap, Inc. | Display system with low-latency pupil tracker |
US11563885B2 (en) | 2018-03-06 | 2023-01-24 | Eyedaptic, Inc. | Adaptive system for autonomous machine learning and control in wearable augmented reality and virtual reality visual aids |
CA3139648A1 (en) | 2018-03-07 | 2019-09-12 | Magic Leap, Inc. | Visual tracking of peripheral devices |
AU2019232746A1 (en) | 2018-03-07 | 2020-08-20 | Magic Leap, Inc. | Adaptive lens assemblies including polarization-selective lens stacks for augmented reality display |
CN111886533A (en) | 2018-03-12 | 2020-11-03 | 奇跃公司 | Inclined array based display |
US10528133B2 (en) * | 2018-03-13 | 2020-01-07 | Facebook Technologies, Llc | Bracelet in a distributed artificial reality system |
US10878620B2 (en) | 2018-03-14 | 2020-12-29 | Magic Leap, Inc. | Display systems and methods for clipping content to increase viewing comfort |
US10747312B2 (en) * | 2018-03-14 | 2020-08-18 | Apple Inc. | Image enhancement devices with gaze tracking |
US10755676B2 (en) | 2018-03-15 | 2020-08-25 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
WO2019177870A1 (en) | 2018-03-15 | 2019-09-19 | Magic Leap, Inc. | Animating virtual avatar facial movements |
WO2019178566A1 (en) | 2018-03-16 | 2019-09-19 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
WO2019177869A1 (en) | 2018-03-16 | 2019-09-19 | Magic Leap, Inc. | Facial expressions from eye-tracking cameras |
US11480467B2 (en) | 2018-03-21 | 2022-10-25 | Magic Leap, Inc. | Augmented reality system and method for spectroscopic analysis |
JP6583460B2 (en) * | 2018-03-23 | 2019-10-02 | 株式会社セガゲームス | Authentication system |
CN108416322B (en) * | 2018-03-27 | 2019-05-17 | 吉林大学 | Visual action identification method in a kind of Virtual assemble seat type operation |
JP7118697B2 (en) | 2018-03-30 | 2022-08-16 | 株式会社Preferred Networks | Point-of-regard estimation processing device, point-of-regard estimation model generation device, point-of-regard estimation processing system, point-of-regard estimation processing method, program, and point-of-regard estimation model |
EP3776027A4 (en) | 2018-04-02 | 2021-12-29 | Magic Leap, Inc. | Waveguides with integrated optical elements and methods of making the same |
WO2019195193A1 (en) | 2018-04-02 | 2019-10-10 | Magic Leap, Inc. | Waveguides having integrated spacers, waveguides having edge absorbers, and methods for making the same |
CN112041716A (en) | 2018-04-02 | 2020-12-04 | 奇跃公司 | Hybrid polymer waveguide and method for manufacturing hybrid polymer waveguide |
WO2019204164A1 (en) | 2018-04-16 | 2019-10-24 | Magic Leap, Inc. | Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters |
CN108459720B (en) * | 2018-04-19 | 2023-11-21 | 京东方科技集团股份有限公司 | Video control device and method for controlling terminal by using video control device |
US11067805B2 (en) | 2018-04-19 | 2021-07-20 | Magic Leap, Inc. | Systems and methods for operating a display system based on user perceptibility |
US11364361B2 (en) | 2018-04-20 | 2022-06-21 | Neuroenhancement Lab, LLC | System and method for inducing sleep by transplanting mental states |
WO2019209431A1 (en) | 2018-04-23 | 2019-10-31 | Magic Leap, Inc. | Avatar facial expression representation in multidimensional space |
US11257268B2 (en) | 2018-05-01 | 2022-02-22 | Magic Leap, Inc. | Avatar animation using Markov decision process policies |
WO2019213220A1 (en) | 2018-05-03 | 2019-11-07 | Magic Leap, Inc. | Using 3d scans of a physical subject to determine positions and orientations of joints for a virtual character |
EP4343499A2 (en) * | 2018-05-04 | 2024-03-27 | Google LLC | Adapting automated assistant based on detected mouth movement and/or gaze |
JP7277569B2 (en) | 2018-05-04 | 2023-05-19 | グーグル エルエルシー | Invoke automation assistant functions based on detected gestures and gazes |
KR102512446B1 (en) | 2018-05-04 | 2023-03-22 | 구글 엘엘씨 | Hot-word free adaptation of automated assistant function(s) |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
DK201870374A1 (en) | 2018-05-07 | 2019-12-04 | Apple Inc. | Avatar creation user interface |
JP7099036B2 (en) * | 2018-05-07 | 2022-07-12 | オムロン株式会社 | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program |
KR102637122B1 (en) * | 2018-05-07 | 2024-02-16 | 애플 인크. | Creative camera |
WO2019217903A1 (en) * | 2018-05-11 | 2019-11-14 | Visionairy Health, Inc. | Automated screening of medical data |
US11262839B2 (en) | 2018-05-17 | 2022-03-01 | Sony Interactive Entertainment Inc. | Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment |
US10942564B2 (en) * | 2018-05-17 | 2021-03-09 | Sony Interactive Entertainment Inc. | Dynamic graphics rendering based on predicted saccade landing point |
US11282255B2 (en) | 2018-05-21 | 2022-03-22 | Magic Leap, Inc. | Generating textured polygon strip hair from strand-based hair for a virtual character |
CN108763394B (en) * | 2018-05-21 | 2021-11-23 | 浙江工业大学 | Multi-user eye movement tracking data visualization method and system for collaborative interaction |
US11210835B2 (en) | 2018-05-22 | 2021-12-28 | Magic Leap, Inc. | Computer generated hair groom transfer tool |
EP3797404A4 (en) | 2018-05-22 | 2022-02-16 | Magic Leap, Inc. | Skeletal systems for animating virtual avatars |
EP3797345A4 (en) | 2018-05-22 | 2022-03-09 | Magic Leap, Inc. | Transmodal input fusion for a wearable system |
WO2019226865A1 (en) | 2018-05-25 | 2019-11-28 | Magic Leap, Inc. | Compression of dynamic unstructured point clouds |
CN108854064B (en) * | 2018-05-25 | 2023-03-28 | 深圳市腾讯网络信息技术有限公司 | Interaction control method and device, computer readable medium and electronic equipment |
CN108416341B (en) * | 2018-05-25 | 2023-11-21 | 重庆青腾致汇科技有限公司 | Novel biological recognition system |
CN117631307A (en) | 2018-05-29 | 2024-03-01 | 爱达扩视眼镜公司 | Hybrid perspective augmented reality system and method for low vision users |
WO2019232282A1 (en) | 2018-05-30 | 2019-12-05 | Magic Leap, Inc. | Compact variable focus configurations |
EP3803450A4 (en) | 2018-05-31 | 2021-08-18 | Magic Leap, Inc. | Radar head pose localization |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10509467B1 (en) * | 2018-06-01 | 2019-12-17 | Facebook Technologies, Llc | Determining fixation of a user's eyes from images of portions of the user's face enclosed by a head mounted display |
US10360304B1 (en) * | 2018-06-04 | 2019-07-23 | Imageous, Inc. | Natural language processing interface-enabled building conditions control system |
EP3804306B1 (en) | 2018-06-05 | 2023-12-27 | Magic Leap, Inc. | Homography transformation matrices based temperature calibration of a viewing system |
US11238143B2 (en) * | 2018-06-05 | 2022-02-01 | Google Llc | Method and system for authenticating a user on a wearable heads-up display |
US11157159B2 (en) | 2018-06-07 | 2021-10-26 | Magic Leap, Inc. | Augmented reality scrollbar |
JP7421505B2 (en) | 2018-06-08 | 2024-01-24 | マジック リープ, インコーポレイテッド | Augmented reality viewer with automated surface selection and content orientation placement |
WO2019238230A1 (en) * | 2018-06-14 | 2019-12-19 | Brainlab Ag | Registration of an anatomical body part by detecting a finger pose |
WO2019237175A1 (en) * | 2018-06-14 | 2019-12-19 | Integrity Advocate Inc. | Method and system for assessing participants |
WO2019241575A1 (en) | 2018-06-15 | 2019-12-19 | Magic Leap, Inc. | Wide field-of-view polarization switches with liquid crystal optical elements with pretilt |
CN108962182A (en) * | 2018-06-15 | 2018-12-07 | 广东康云多维视觉智能科技有限公司 | 3-D image display device and its implementation based on eyeball tracking |
WO2019246058A1 (en) | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device |
JP7378431B2 (en) | 2018-06-18 | 2023-11-13 | マジック リープ, インコーポレイテッド | Augmented reality display with frame modulation functionality |
WO2019246044A1 (en) | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Head-mounted display systems with power saving functionality |
EP3806710A4 (en) * | 2018-06-18 | 2022-03-30 | New Jersey Institute of Technology | Method, system and apparatus for diagnostic assessment and screening of binocular dysfunctions |
JP7214986B2 (en) * | 2018-06-25 | 2023-01-31 | 日本電信電話株式会社 | Reflectivity determination device, reflectivity determination method, and program |
CN112262373A (en) * | 2018-06-26 | 2021-01-22 | 苹果公司 | View-based breakpoints |
US11151793B2 (en) | 2018-06-26 | 2021-10-19 | Magic Leap, Inc. | Waypoint creation in map detection |
US11669726B2 (en) | 2018-07-02 | 2023-06-06 | Magic Leap, Inc. | Methods and systems for interpolation of disparate inputs |
WO2020010097A1 (en) | 2018-07-02 | 2020-01-09 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11510027B2 (en) | 2018-07-03 | 2022-11-22 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
WO2020009670A1 (en) * | 2018-07-04 | 2020-01-09 | Solmaz Gumruk Musavirligi A.S. | A method using artificial neural networks to find a unique harmonized system code from given texts and system for implementing the same |
JP7407748B2 (en) | 2018-07-05 | 2024-01-04 | マジック リープ, インコーポレイテッド | Waveguide-based illumination for head-mounted display systems |
WO2020014311A1 (en) * | 2018-07-10 | 2020-01-16 | Carrier Corporation | Applying image analytics and machine learning to lock systems in hotels |
WO2020018592A1 (en) | 2018-07-17 | 2020-01-23 | Methodical Mind, Llc. | Graphical user interface system |
US10863812B2 (en) | 2018-07-18 | 2020-12-15 | L'oreal | Makeup compact with eye tracking for guidance of makeup application |
US10795435B2 (en) | 2018-07-19 | 2020-10-06 | Samsung Electronics Co., Ltd. | System and method for hybrid eye tracker |
US10884492B2 (en) | 2018-07-20 | 2021-01-05 | Avegant Corp. | Relative position based eye-tracking system |
US11320899B2 (en) | 2018-07-23 | 2022-05-03 | Magic Leap, Inc. | Deep predictor recurrent neural network for head pose prediction |
US11627587B2 (en) | 2018-07-23 | 2023-04-11 | Magic Leap, Inc. | Coexistence interference avoidance between two different radios operating in the same band |
USD918176S1 (en) | 2018-07-24 | 2021-05-04 | Magic Leap, Inc. | Totem controller having an illumination region |
WO2020023404A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Flicker mitigation when toggling eyepiece display illumination in augmented reality systems |
WO2020023672A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes |
JP7426982B2 (en) | 2018-07-24 | 2024-02-02 | マジック リープ, インコーポレイテッド | Temperature-dependent calibration of movement sensing devices |
EP3827294A4 (en) | 2018-07-24 | 2022-04-20 | Magic Leap, Inc. | Diffractive optical elements with mitigation of rebounce-induced light loss and related systems and methods |
USD930614S1 (en) | 2018-07-24 | 2021-09-14 | Magic Leap, Inc. | Totem controller having an illumination region |
US11624929B2 (en) | 2018-07-24 | 2023-04-11 | Magic Leap, Inc. | Viewing device with dust seal integration |
EP3827426A4 (en) | 2018-07-24 | 2022-07-27 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and eyes of a user |
USD924204S1 (en) | 2018-07-24 | 2021-07-06 | Magic Leap, Inc. | Totem controller having an illumination region |
JP7459050B2 (en) | 2018-07-27 | 2024-04-01 | マジック リープ, インコーポレイテッド | Pose space dimension reduction for pose space deformation of virtual characters |
US11112862B2 (en) | 2018-08-02 | 2021-09-07 | Magic Leap, Inc. | Viewing system with interpupillary distance compensation based on head motion |
JP7438188B2 (en) | 2018-08-03 | 2024-02-26 | マジック リープ, インコーポレイテッド | Unfused pose-based drift correction of fused poses of totems in user interaction systems |
EP3830674A4 (en) | 2018-08-03 | 2022-04-20 | Magic Leap, Inc. | Depth plane selection for multi-depth plane display systems by user categorization |
US11012659B2 (en) * | 2018-08-07 | 2021-05-18 | International Business Machines Corporation | Intelligent illumination and sound control in an internet of things (IoT) computing environment |
CN109165939A (en) * | 2018-08-23 | 2019-01-08 | 唐剑虹 | Block chain VR hardware wallet based on biological identification technology |
US11880441B2 (en) | 2018-08-26 | 2024-01-23 | The Research Foundation For The State University Of New York | System and method for inter-individual discrimination based on oculomotor kinematics |
DE102018214976A1 (en) * | 2018-09-04 | 2020-03-05 | Robert Bosch Gmbh | Method for controlling a multimedia device and computer program and device therefor |
GB2576910B (en) * | 2018-09-06 | 2021-10-20 | Sony Interactive Entertainment Inc | User profile generating system and method |
CN109145566A (en) | 2018-09-08 | 2019-01-04 | 太若科技(北京)有限公司 | Method, apparatus and AR glasses based on blinkpunkt information unlock AR glasses |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | User interfaces for simulated depth effects |
EP3849410A4 (en) | 2018-09-14 | 2022-11-02 | Neuroenhancement Lab, LLC | System and method of improving sleep |
CN112639687A (en) * | 2018-09-17 | 2021-04-09 | 脸谱科技有限责任公司 | Eye tracking using reverse biased light emitting diode devices |
USD950567S1 (en) | 2018-09-18 | 2022-05-03 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
USD934873S1 (en) | 2018-09-18 | 2021-11-02 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
USD955396S1 (en) | 2018-09-18 | 2022-06-21 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
USD934872S1 (en) | 2018-09-18 | 2021-11-02 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
US20200089855A1 (en) * | 2018-09-19 | 2020-03-19 | XRSpace CO., LTD. | Method of Password Authentication by Eye Tracking in Virtual Reality System |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
WO2020068819A1 (en) | 2018-09-24 | 2020-04-02 | Eyedaptic, Inc. | Enhanced autonomous hands-free control in electronic visual aids |
US11733523B2 (en) | 2018-09-26 | 2023-08-22 | Magic Leap, Inc. | Diffractive optical elements with optical power |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US10645294B1 (en) | 2019-05-06 | 2020-05-05 | Apple Inc. | User interfaces for capturing and managing visual media |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US11119573B2 (en) * | 2018-09-28 | 2021-09-14 | Apple Inc. | Pupil modulation as a cognitive control signal |
US11055388B2 (en) * | 2018-10-08 | 2021-07-06 | Advanced New Technologies Co., Ltd. | Passive affective and knowledge-based authentication through eye movement tracking |
CN111083299A (en) * | 2018-10-18 | 2020-04-28 | 富士施乐株式会社 | Information processing apparatus and storage medium |
EP3866690A4 (en) * | 2018-10-19 | 2022-07-27 | Emory University | Systems and methods for automated passive assessment of visuospatial memory and/or salience |
CN109040604B (en) * | 2018-10-23 | 2020-09-15 | Oppo广东移动通信有限公司 | Shot image processing method and device, storage medium and mobile terminal |
WO2020086356A2 (en) | 2018-10-26 | 2020-04-30 | Magic Leap, Inc. | Ambient electromagnetic distortion correction for electromagnetic tracking |
CN111127537A (en) * | 2018-10-29 | 2020-05-08 | 托比股份公司 | Method and apparatus for detecting shadows in a head mounted device |
CN109376666B (en) | 2018-10-29 | 2022-01-25 | 百度在线网络技术(北京)有限公司 | Commodity selling method and device, selling machine and storage medium |
SE542887C2 (en) * | 2018-10-31 | 2020-08-11 | Tobii Ab | Gaze tracking using mapping of pupil center position |
WO2020089724A1 (en) | 2018-11-01 | 2020-05-07 | 3M Innovative Properties Company | Device, user, or server registration and verification |
US10417497B1 (en) | 2018-11-09 | 2019-09-17 | Qwake Technologies | Cognitive load reducing platform for first responders |
US10896492B2 (en) | 2018-11-09 | 2021-01-19 | Qwake Technologies, Llc | Cognitive load reducing platform having image edge enhancement |
US11890494B2 (en) | 2018-11-09 | 2024-02-06 | Qwake Technologies, Inc. | Retrofittable mask mount system for cognitive load reducing platform |
US10833945B2 (en) * | 2018-11-13 | 2020-11-10 | International Business Machines Corporation | Managing downloading of content |
CN113272821A (en) | 2018-11-15 | 2021-08-17 | 奇跃公司 | Deep neural network attitude estimation system |
EP3881279A4 (en) | 2018-11-16 | 2022-08-17 | Magic Leap, Inc. | Image size triggered clarification to maintain image sharpness |
EP3884337A4 (en) | 2018-11-20 | 2022-08-17 | Magic Leap, Inc. | Eyepieces for augmented reality display system |
WO2020107022A1 (en) * | 2018-11-23 | 2020-05-28 | Slingshot Aerospace, Inc. | Signal processing workflow engine incorporating graphical user interface for space situational awareness |
CN109683704B (en) * | 2018-11-29 | 2022-01-28 | 武汉中地地科传媒文化有限责任公司 | AR interface interaction method and AR display equipment |
WO2020112561A1 (en) | 2018-11-30 | 2020-06-04 | Magic Leap, Inc. | Multi-modal hand location and orientation for avatar movement |
CN111277857B (en) * | 2018-12-04 | 2021-04-13 | 清华大学 | Streaming media scheduling method and device |
CN109799838B (en) * | 2018-12-21 | 2022-04-15 | 金季春 | Training method and system |
US11443515B2 (en) * | 2018-12-21 | 2022-09-13 | Ambient AI, Inc. | Systems and methods for machine learning enhanced intelligent building access endpoint security monitoring and management |
WO2020132941A1 (en) * | 2018-12-26 | 2020-07-02 | 中国科学院深圳先进技术研究院 | Identification method and related device |
JP2022516256A (en) | 2018-12-28 | 2022-02-25 | マジック リープ, インコーポレイテッド | Extended and virtual reality display system with shared display for left and right eyes |
EP3903143A4 (en) | 2018-12-28 | 2022-10-12 | Magic Leap, Inc. | Variable pixel density display system with mechanically-actuated image projector |
US11139071B2 (en) * | 2018-12-31 | 2021-10-05 | Cerner Innovation, Inc. | Virtual augmentation of clinical care environments |
EP3912013A1 (en) | 2019-01-16 | 2021-11-24 | Pupil Labs GmbH | Methods for generating calibration data for head-wearable devices and eye tracking system |
US11036043B2 (en) * | 2019-01-17 | 2021-06-15 | Advanced New Technologies Co., Ltd. | Identity authentication using lens features |
US11107261B2 (en) | 2019-01-18 | 2021-08-31 | Apple Inc. | Virtual avatar animation based on facial feature movement |
US11458040B2 (en) | 2019-01-23 | 2022-10-04 | Meta Platforms Technologies, Llc | Corneal topography mapping with dense illumination |
WO2020154524A1 (en) | 2019-01-25 | 2020-07-30 | Magic Leap, Inc. | Eye-tracking using images having different exposure times |
CN109828734A (en) * | 2019-01-29 | 2019-05-31 | 深圳市海派通讯科技有限公司 | Intelligent terminal shows screen control method, system and storage medium |
EP3921720A4 (en) | 2019-02-06 | 2022-06-29 | Magic Leap, Inc. | Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors |
KR102246408B1 (en) * | 2019-02-14 | 2021-05-18 | 엔에이치엔 주식회사 | Method for providing similar products based on deep-learning |
CN109919065A (en) * | 2019-02-26 | 2019-06-21 | 浪潮金融信息技术有限公司 | A method of focus is obtained on the screen using eyeball tracking technology |
US11138302B2 (en) * | 2019-02-27 | 2021-10-05 | International Business Machines Corporation | Access control using multi-authentication factors |
KR102190527B1 (en) * | 2019-02-28 | 2020-12-14 | 현대모비스 주식회사 | Apparatus and method for automatic synthesizing images |
US11287657B2 (en) | 2019-02-28 | 2022-03-29 | Magic Leap, Inc. | Display system and method for providing variable accommodation cues using multiple intra-pupil parallax views formed by light emitter arrays |
RU2715300C1 (en) * | 2019-03-12 | 2020-02-26 | Алексей Федорович Хорошев | Method of creating object conformity information and information about it |
JP2022523852A (en) | 2019-03-12 | 2022-04-26 | マジック リープ, インコーポレイテッド | Aligning local content between first and second augmented reality viewers |
CN110059232B (en) * | 2019-03-15 | 2021-05-07 | 杭州电子科技大学 | Data visualization method based on user experience measurement |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
CN110011985A (en) | 2019-03-19 | 2019-07-12 | 阿里巴巴集团控股有限公司 | For operating the method and system of internet of things equipment |
CN113841006A (en) | 2019-03-20 | 2021-12-24 | 奇跃公司 | System for providing illumination to an eye |
US11099384B2 (en) * | 2019-03-27 | 2021-08-24 | Lenovo (Singapore) Pte. Ltd. | Adjusting display settings of a head-mounted display |
US11644897B2 (en) | 2019-04-01 | 2023-05-09 | Evolution Optiks Limited | User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same |
WO2020201999A2 (en) * | 2019-04-01 | 2020-10-08 | Evolution Optiks Limited | Pupil tracking system and method, and digital display device and digital image rendering system and method using same |
USD916892S1 (en) * | 2019-04-09 | 2021-04-20 | Google Llc | Display screen or portion thereof with graphical user interface with icon |
TWI754806B (en) * | 2019-04-09 | 2022-02-11 | 栗永徽 | System and method for locating iris using deep learning |
CN114008514A (en) | 2019-04-15 | 2022-02-01 | 奇跃公司 | Sensor fusion for electromagnetic tracking |
CN110060678B (en) * | 2019-04-16 | 2021-09-14 | 深圳欧博思智能科技有限公司 | Virtual role control method based on intelligent device and intelligent device |
JP7060544B6 (en) * | 2019-04-26 | 2022-05-23 | 塁 佐藤 | Exercise equipment |
JP2022530900A (en) | 2019-05-01 | 2022-07-04 | マジック リープ, インコーポレイテッド | Content provisioning system and method |
CN111897411A (en) * | 2019-05-05 | 2020-11-06 | Oppo广东移动通信有限公司 | Interaction method and device based on atmospheric optical communication and wearable device |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
SE543144C2 (en) * | 2019-05-15 | 2020-10-13 | Tobii Ab | Method and system for dwell-less, hands-free interaction with a selectable object |
EP3973347A4 (en) | 2019-05-20 | 2023-05-31 | Magic Leap, Inc. | Systems and techniques for estimating eye pose |
WO2020236993A1 (en) | 2019-05-21 | 2020-11-26 | Magic Leap, Inc. | Hand pose estimation |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
EP3977183A4 (en) | 2019-05-24 | 2022-08-31 | Magic Leap, Inc. | Variable focus assemblies |
JP7357081B2 (en) | 2019-05-28 | 2023-10-05 | マジック リープ, インコーポレイテッド | Thermal management system for portable electronic devices |
USD962981S1 (en) | 2019-05-29 | 2022-09-06 | Magic Leap, Inc. | Display screen or portion thereof with animated scrollbar graphical user interface |
JP6830981B2 (en) * | 2019-05-29 | 2021-02-17 | 株式会社東芝 | Wearable device and display method |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US10885173B2 (en) | 2019-06-04 | 2021-01-05 | Nant Holdings Ip, Llc | Content authentication and validation via multi-factor digital tokens, systems, and methods |
EP3979896A1 (en) | 2019-06-05 | 2022-04-13 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters |
CN110338748B (en) * | 2019-06-13 | 2022-03-08 | 宁波明星科技发展有限公司 | Method for quickly positioning vision value, storage medium, terminal and vision detector |
CN114286962A (en) | 2019-06-20 | 2022-04-05 | 奇跃公司 | Eyepiece for augmented reality display system |
CN114270312A (en) | 2019-06-21 | 2022-04-01 | 奇跃公司 | Secure authorization via modal windows |
EP3987329A4 (en) | 2019-06-24 | 2023-10-11 | Magic Leap, Inc. | Waveguides having integral spacers and related systems and methods |
US10976816B2 (en) * | 2019-06-25 | 2021-04-13 | Microsoft Technology Licensing, Llc | Using eye tracking to hide virtual reality scene changes in plain sight |
US11307650B1 (en) * | 2019-06-25 | 2022-04-19 | Apple Inc. | Modifying virtual content to invoke a target user state |
US10901502B2 (en) * | 2019-06-27 | 2021-01-26 | Facebook, Inc. | Reducing head mounted display power consumption and heat generation through predictive rendering of content |
US11379610B2 (en) * | 2019-07-10 | 2022-07-05 | Blackberry Limited | Methods and devices for automatically encrypting files |
US11029805B2 (en) | 2019-07-10 | 2021-06-08 | Magic Leap, Inc. | Real-time preview of connectable objects in a physically-modeled virtual space |
TW202103646A (en) * | 2019-07-15 | 2021-02-01 | 美商外科劇院股份有限公司 | Augmented reality system and method for tele-proctoring a surgical procedure |
EP3999940A4 (en) | 2019-07-16 | 2023-07-26 | Magic Leap, Inc. | Eye center of rotation determination with one or more eye tracking cameras |
US11460616B2 (en) | 2019-07-19 | 2022-10-04 | Magic Leap, Inc. | Method of fabricating diffraction gratings |
CN114502991A (en) | 2019-07-19 | 2022-05-13 | 奇跃公司 | Display device with diffraction grating having reduced polarization sensitivity |
US11907417B2 (en) | 2019-07-25 | 2024-02-20 | Tectus Corporation | Glance and reveal within a virtual environment |
JP2022542363A (en) | 2019-07-26 | 2022-10-03 | マジック リープ, インコーポレイテッド | Systems and methods for augmented reality |
US11354805B2 (en) | 2019-07-30 | 2022-06-07 | Apple Inc. | Utilization of luminance changes to determine user characteristics |
EP4009851A1 (en) * | 2019-08-06 | 2022-06-15 | Alcon Inc. | Scene camera systems and methods for vitreoretinal surgery |
CN110572632A (en) * | 2019-08-15 | 2019-12-13 | 中国人民解放军军事科学院国防科技创新研究院 | Augmented reality display system, helmet and method based on sight tracking |
US11263634B2 (en) | 2019-08-16 | 2022-03-01 | Advanced New Technologies Co., Ltd. | Payment method and device |
US11380065B2 (en) * | 2019-08-20 | 2022-07-05 | Red Pacs, Llc | Advanced head display unit for fire fighters |
WO2021041990A1 (en) | 2019-08-28 | 2021-03-04 | Qwake Technologies, Llc | Wearable assisted perception module for navigation and communication in hazardous environments |
US11282297B2 (en) * | 2019-09-10 | 2022-03-22 | Blue Planet Training, Inc. | System and method for visual analysis of emotional coherence in videos |
JP7420926B2 (en) | 2019-09-11 | 2024-01-23 | マジック リープ, インコーポレイテッド | Display device with a diffraction grating with reduced polarization sensitivity |
US11295309B2 (en) * | 2019-09-13 | 2022-04-05 | International Business Machines Corporation | Eye contact based financial transaction |
US11010980B2 (en) | 2019-09-25 | 2021-05-18 | International Business Machines Corporation | Augmented interface distraction reduction |
US11354910B2 (en) * | 2019-09-27 | 2022-06-07 | Ncr Corporation | Frictionless authentication and monitoring |
US11601693B2 (en) | 2019-09-30 | 2023-03-07 | Kyndryl, Inc. | Automatic adaptation of digital content |
CN110751064B (en) * | 2019-09-30 | 2022-06-24 | 四川大学 | Blink frequency analysis method and system based on image processing |
US20210097436A1 (en) * | 2019-10-01 | 2021-04-01 | Kelley S. Weiland | Automated system for generating properly tagged training data for and verifying the efficacy of artificial intelligence algorithms |
US11436655B2 (en) * | 2019-10-01 | 2022-09-06 | Ebay Inc. | Different action user-interface components in a comparison view |
US11276246B2 (en) | 2019-10-02 | 2022-03-15 | Magic Leap, Inc. | Color space mapping for intuitive surface normal visualization |
US11176757B2 (en) | 2019-10-02 | 2021-11-16 | Magic Leap, Inc. | Mission driven virtual character for user interaction |
KR102128894B1 (en) * | 2019-10-10 | 2020-07-01 | 주식회사 메디씽큐 | A method and system for eyesight sensing of medical smart goggles |
CN110837294B (en) * | 2019-10-14 | 2023-12-12 | 成都西山居世游科技有限公司 | Facial expression control method and system based on eyeball tracking |
JP7423248B2 (en) * | 2019-10-23 | 2024-01-29 | キヤノン株式会社 | Electronic devices, control methods for electronic devices, programs and storage media |
US11662807B2 (en) * | 2020-01-06 | 2023-05-30 | Tectus Corporation | Eye-tracking user interface for virtual tool control |
US10901505B1 (en) | 2019-10-24 | 2021-01-26 | Tectus Corporation | Eye-based activation and tool selection systems and methods |
US10607077B1 (en) * | 2019-10-28 | 2020-03-31 | EyeVerify Inc. | Identity authentication using an inlier neural network |
CN110745000B (en) * | 2019-10-29 | 2021-09-28 | 上海天马有机发光显示技术有限公司 | Vehicle instrument and display method thereof, and vehicle speed monitoring display system |
CN110727352A (en) * | 2019-10-31 | 2020-01-24 | 哈雷医用(广州)智能技术有限公司 | Electronic product with depression improving effect and control method thereof |
US11830318B2 (en) | 2019-10-31 | 2023-11-28 | 8 Bit Development Inc. | Method of authenticating a consumer or user in virtual reality, thereby enabling access to controlled environments |
TWI731461B (en) * | 2019-11-01 | 2021-06-21 | 宏碁股份有限公司 | Identification method of real face and identification device using the same |
US10795984B1 (en) | 2019-11-01 | 2020-10-06 | Capital One Services, Llc | Active locking mechanism using machine learning |
WO2021092211A1 (en) * | 2019-11-05 | 2021-05-14 | The Regents Of The University Of Colorado, A Body Corporate | Systems and methods to probe ocular structures |
US11493989B2 (en) | 2019-11-08 | 2022-11-08 | Magic Leap, Inc. | Modes of user interaction |
EP4055423A4 (en) | 2019-11-08 | 2024-01-10 | Magic Leap Inc | Metasurfaces with light-redirecting structures including multiple materials and methods for fabricating |
USD982593S1 (en) | 2019-11-08 | 2023-04-04 | Magic Leap, Inc. | Portion of a display screen with animated ray |
WO2021097323A1 (en) | 2019-11-15 | 2021-05-20 | Magic Leap, Inc. | A viewing system for use in a surgical environment |
CN114945947A (en) | 2019-11-18 | 2022-08-26 | 奇跃公司 | Universal world mapping and positioning |
EP4062229A4 (en) | 2019-11-22 | 2024-01-03 | Magic Leap Inc | Method and system for patterning a liquid crystal layer |
US11665379B2 (en) * | 2019-11-26 | 2023-05-30 | Photo Sensitive Cinema (PSC) | Rendering image content as time-spaced frames |
CN114761859A (en) | 2019-11-26 | 2022-07-15 | 奇跃公司 | Augmented eye tracking for augmented or virtual reality display systems |
US11273341B2 (en) * | 2019-11-27 | 2022-03-15 | Ready 2 Perform Technology LLC | Interactive visualization system for biomechanical assessment |
US10871825B1 (en) * | 2019-12-04 | 2020-12-22 | Facebook Technologies, Llc | Predictive eye tracking systems and methods for variable focus electronic displays |
CN112904997B (en) * | 2019-12-04 | 2023-05-26 | Oppo广东移动通信有限公司 | Equipment control method and related product |
CN114746796A (en) | 2019-12-06 | 2022-07-12 | 奇跃公司 | Dynamic browser stage |
WO2021113309A1 (en) | 2019-12-06 | 2021-06-10 | Magic Leap, Inc. | Encoding stereo splash screen in static image |
USD941307S1 (en) | 2019-12-09 | 2022-01-18 | Magic Leap, Inc. | Portion of a display screen with graphical user interface for guiding graphics |
USD952673S1 (en) | 2019-12-09 | 2022-05-24 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD941353S1 (en) | 2019-12-09 | 2022-01-18 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD940748S1 (en) | 2019-12-09 | 2022-01-11 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD940189S1 (en) | 2019-12-09 | 2022-01-04 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD940749S1 (en) | 2019-12-09 | 2022-01-11 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
US11288876B2 (en) | 2019-12-13 | 2022-03-29 | Magic Leap, Inc. | Enhanced techniques for volumetric stage mapping based on calibration object |
US11928632B2 (en) * | 2019-12-19 | 2024-03-12 | Senseye, Inc. | Ocular system for deception detection |
CN113010066B (en) * | 2019-12-20 | 2022-11-11 | 华为技术有限公司 | Display parameter determination method and device |
US20210192853A1 (en) * | 2019-12-20 | 2021-06-24 | Abdul Zalil | Method and system for wireless transmission of audio/video media content to a display device |
CN111091595B (en) * | 2019-12-23 | 2023-06-02 | 吉林省广播电视研究所(吉林省广播电视局科技信息中心) | Strabismus three-dimensional mapping method and system |
CN111159678B (en) * | 2019-12-26 | 2023-08-18 | 联想(北京)有限公司 | Identity recognition method, device and storage medium |
CN111292850A (en) * | 2020-01-22 | 2020-06-16 | 福建中医药大学 | ADHD children attention intelligent rehabilitation system |
US11294461B2 (en) | 2020-01-24 | 2022-04-05 | Magic Leap, Inc. | Content movement and interaction using a single controller |
US11340695B2 (en) | 2020-01-24 | 2022-05-24 | Magic Leap, Inc. | Converting a 2D positional input into a 3D point in space |
USD948562S1 (en) | 2020-01-27 | 2022-04-12 | Magic Leap, Inc. | Portion of a display screen with avatar |
CN115004128A (en) | 2020-01-27 | 2022-09-02 | 奇跃公司 | Functional enhancement of user input device based on gaze timer |
WO2021154558A1 (en) | 2020-01-27 | 2021-08-05 | Magic Leap, Inc. | Augmented reality map curation |
USD948574S1 (en) | 2020-01-27 | 2022-04-12 | Magic Leap, Inc. | Portion of a display screen with a set of avatars |
EP4097684A4 (en) | 2020-01-27 | 2024-02-14 | Magic Leap Inc | Enhanced state control for anchor-based cross reality applications |
USD949200S1 (en) | 2020-01-27 | 2022-04-19 | Magic Leap, Inc. | Portion of a display screen with a set of avatars |
WO2021154646A1 (en) | 2020-01-27 | 2021-08-05 | Magic Leap, Inc. | Neutral avatars |
USD936704S1 (en) | 2020-01-27 | 2021-11-23 | Magic Leap, Inc. | Portion of a display screen with avatar |
US11487356B2 (en) | 2020-01-31 | 2022-11-01 | Magic Leap, Inc. | Augmented and virtual reality display systems for oculometric assessments |
CN111402100A (en) * | 2020-02-03 | 2020-07-10 | 重庆特斯联智慧科技股份有限公司 | Population registration method and system realized through target tracking |
CN111880662A (en) * | 2020-02-06 | 2020-11-03 | 北京师范大学 | Eye movement control system applied to interactive map |
CN111880663A (en) * | 2020-02-06 | 2020-11-03 | 北京师范大学 | Eye movement control method and device applied to interactive map |
US11538199B2 (en) * | 2020-02-07 | 2022-12-27 | Lenovo (Singapore) Pte. Ltd. | Displaying a window in an augmented reality view |
JP7455985B2 (en) | 2020-02-10 | 2024-03-26 | マジック リープ, インコーポレイテッド | Body-centered content positioning for 3D containers in mixed reality environments |
US11709363B1 (en) | 2020-02-10 | 2023-07-25 | Avegant Corp. | Waveguide illumination of a spatial light modulator |
WO2021163354A1 (en) | 2020-02-14 | 2021-08-19 | Magic Leap, Inc. | Virtual object movement speed curve for virtual and augmented reality display systems |
US11016656B1 (en) * | 2020-02-14 | 2021-05-25 | International Business Machines Corporation | Fault recognition self-learning graphical user interface |
US11300784B2 (en) * | 2020-02-21 | 2022-04-12 | Fotonation Limited | Multi-perspective eye acquisition |
WO2021173566A1 (en) | 2020-02-26 | 2021-09-02 | Magic Leap, Inc. | Procedural electron beam lithography |
WO2021174062A1 (en) | 2020-02-28 | 2021-09-02 | Magic Leap, Inc. | Method of fabricating molds for forming eyepieces with integrated spacers |
KR102379350B1 (en) * | 2020-03-02 | 2022-03-28 | 주식회사 비주얼캠프 | Method for page turn and computing device for executing the method |
US11262588B2 (en) | 2020-03-10 | 2022-03-01 | Magic Leap, Inc. | Spectator view of virtual and physical objects |
KR102359602B1 (en) * | 2020-03-10 | 2022-02-08 | 한국과학기술원 | Method for inputting the gaze for display and apparatuses performing the same |
EP3883235A1 (en) | 2020-03-17 | 2021-09-22 | Aptiv Technologies Limited | Camera control modules and methods |
EP4121813A4 (en) | 2020-03-20 | 2024-01-17 | Magic Leap Inc | Systems and methods for retinal imaging and tracking |
EP4127793A1 (en) | 2020-03-25 | 2023-02-08 | Magic Leap, Inc. | Optical device with one-way mirror |
CN111383313B (en) * | 2020-03-31 | 2023-05-12 | 歌尔股份有限公司 | Virtual model rendering method, device, equipment and readable storage medium |
WO2021202783A1 (en) | 2020-04-03 | 2021-10-07 | Magic Leap, Inc. | Avatar customization for optimal gaze discrimination |
US11604354B2 (en) | 2020-04-03 | 2023-03-14 | Magic Leap, Inc. | Wearable display systems with nanowire LED micro-displays |
US11536970B1 (en) * | 2020-04-07 | 2022-12-27 | Google Llc | Tracking of item of interest using wearable heads up display |
US11587388B2 (en) | 2020-04-22 | 2023-02-21 | Igt | Determining a player's emotional state using player gaze movement at gaming devices |
US11950022B1 (en) | 2020-04-24 | 2024-04-02 | Apple Inc. | Head-mounted devices with forward facing cameras |
CN111399659B (en) * | 2020-04-24 | 2022-03-08 | Oppo广东移动通信有限公司 | Interface display method and related device |
DK202070625A1 (en) | 2020-05-11 | 2022-01-04 | Apple Inc | User interfaces related to time |
US11921998B2 (en) | 2020-05-11 | 2024-03-05 | Apple Inc. | Editing features of an avatar |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
CN116194821A (en) | 2020-05-22 | 2023-05-30 | 奇跃公司 | Augmented and virtual reality display system with associated in-and out-coupling optical zones |
US11615205B2 (en) * | 2020-05-28 | 2023-03-28 | Bank Of America Corporation | Intelligent dynamic data masking on display screens based on viewer proximity |
US11195490B1 (en) * | 2020-05-29 | 2021-12-07 | International Business Machines Corporation | Smart contact lens with adjustable light transmittance |
US11054973B1 (en) | 2020-06-01 | 2021-07-06 | Apple Inc. | User interfaces for managing media |
WO2021247435A1 (en) | 2020-06-05 | 2021-12-09 | Magic Leap, Inc. | Enhanced eye tracking techniques based on neural network analysis of images |
JP7218978B2 (en) * | 2020-06-15 | 2023-02-07 | 株式会社mediVR | Rehabilitation support system, rehabilitation support method and rehabilitation support program |
US11706656B2 (en) | 2020-06-29 | 2023-07-18 | Qualcomm Incorporated | Downlink data prioritization for time-sensitive applications |
GB202010326D0 (en) * | 2020-07-06 | 2020-08-19 | Palakollu Vamsee Krishna | A virtual reality headset |
US11690435B2 (en) | 2020-07-07 | 2023-07-04 | Perfect Mobile Corp. | System and method for navigating user interfaces using a hybrid touchless control mechanism |
TW202206030A (en) * | 2020-07-14 | 2022-02-16 | 美商外科劇院股份有限公司 | System and method for four-dimensional angiography |
CN115885237A (en) * | 2020-07-17 | 2023-03-31 | 惠普发展公司,有限责任合伙企业 | Head mounted display image and foveal luminance calculation |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
WO2022025921A1 (en) * | 2020-07-31 | 2022-02-03 | Hewlett-Packard Development Company, L.P. | Change blindness detection via bio-analytics |
EP4193215A1 (en) | 2020-08-07 | 2023-06-14 | Magic Leap, Inc. | Tunable cylindrical lenses and head-mounted display including the same |
JP7154259B2 (en) | 2020-08-11 | 2022-10-17 | 株式会社トプコン | ophthalmic equipment |
JP7154260B2 (en) * | 2020-08-11 | 2022-10-17 | 株式会社トプコン | ophthalmic equipment |
JP2023539962A (en) | 2020-08-14 | 2023-09-21 | ヒーズ アイピー ホールディングス エルエルシー | System and method for superimposing virtual images on real-time images |
US11321797B2 (en) * | 2020-08-25 | 2022-05-03 | Kyndryl, Inc. | Wearable watermarks |
US20220061659A1 (en) * | 2020-08-27 | 2022-03-03 | Revieve Oy | System and method for finding an area of an eye from a facial image |
WO2022046120A1 (en) * | 2020-08-31 | 2022-03-03 | Hewlett-Packard Development Company, L.P. | User authentication using event cameras |
EP4073572A1 (en) | 2020-09-03 | 2022-10-19 | HES IP Holdings, LLC | Systems and methods for improving binocular vision |
US11620855B2 (en) | 2020-09-03 | 2023-04-04 | International Business Machines Corporation | Iterative memory mapping operations in smart lens/augmented glasses |
CN112084990A (en) * | 2020-09-16 | 2020-12-15 | 重庆科技学院 | Classroom head-raising rate statistical system based on convolutional neural network and backtracking |
KR102230797B1 (en) * | 2020-09-23 | 2021-03-22 | 국방과학연구소 | Deep learning training method and system using infrared image |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
JP2023545653A (en) | 2020-09-29 | 2023-10-31 | エイヴギャント コーポレイション | Architecture for illuminating display panels |
CN116420104A (en) | 2020-09-30 | 2023-07-11 | 海思智财控股有限公司 | Virtual image display system for a virtual reality and augmented reality device |
US20230350197A1 (en) * | 2020-10-05 | 2023-11-02 | Sony Group Corporation | Line-of-sight detection device and display device |
GB2599900B (en) * | 2020-10-09 | 2023-01-11 | Sony Interactive Entertainment Inc | Data processing system and method for image enhancement |
US11747896B2 (en) | 2020-10-20 | 2023-09-05 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11392198B2 (en) | 2020-10-20 | 2022-07-19 | ROVl GUIDES, INC. | Methods and systems of extended reality environment interaction based on eye motions |
US11281291B1 (en) | 2020-10-20 | 2022-03-22 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11609629B2 (en) * | 2020-10-20 | 2023-03-21 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11320903B1 (en) | 2020-10-20 | 2022-05-03 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11659266B2 (en) | 2020-10-21 | 2023-05-23 | Qualcomm Incorporated | Power control based at least in part on user eye movement |
US11803237B2 (en) | 2020-11-14 | 2023-10-31 | Facense Ltd. | Controlling an eye tracking camera according to eye movement velocity |
US11184294B1 (en) * | 2020-12-04 | 2021-11-23 | Capital One Services, Llc | Methods and systems for managing multiple content delivery networks |
JP7252296B2 (en) * | 2020-12-09 | 2023-04-04 | 株式会社トプコン | Ophthalmic device and ophthalmic measurement method |
CN116711302A (en) * | 2020-12-16 | 2023-09-05 | 三星电子株式会社 | Method and device for transmitting multiple application data with low time delay |
EP4278366A1 (en) | 2021-01-12 | 2023-11-22 | Emed Labs, LLC | Health testing and diagnostics platform |
CN114765558B (en) | 2021-01-15 | 2024-04-09 | 台达电子工业股份有限公司 | Industrial equipment monitoring method and industrial equipment monitoring system |
WO2022159628A1 (en) * | 2021-01-22 | 2022-07-28 | Zinn Labs, Inc. | Headset integrated into healthcare platform |
WO2022159630A1 (en) | 2021-01-22 | 2022-07-28 | Zinn Labs, Inc. | Gaze sensors and display elements for detection of gaze vectors and user control at headset |
JP7119145B2 (en) | 2021-01-25 | 2022-08-16 | 株式会社東芝 | Wearable device and display method |
KR20220113633A (en) | 2021-02-05 | 2022-08-16 | 호서대학교 산학협력단 | Apparatus and method for controlling e-book for the disabled |
US20220270186A1 (en) * | 2021-02-24 | 2022-08-25 | Lifebrand Llc | System and Method for Determining the Impact of a Social Media Post across Multiple Social Media Platforms |
US20220293241A1 (en) * | 2021-03-12 | 2022-09-15 | Facebook Technologies, Llc | Systems and methods for signaling cognitive-state transitions |
US11929168B2 (en) | 2021-05-24 | 2024-03-12 | Emed Labs, Llc | Systems, devices, and methods for diagnostic aid kit apparatus |
US11615888B2 (en) | 2021-03-23 | 2023-03-28 | Emed Labs, Llc | Remote diagnostic testing and treatment |
US11273074B1 (en) * | 2021-03-24 | 2022-03-15 | Stroma Medical Corporation | Systems and methods for for physical and electronic security of medical devices |
WO2022203620A1 (en) * | 2021-03-25 | 2022-09-29 | Dm Dayanikli Tüketi̇m Mallari Sanayi̇ Ve Ti̇caret Li̇mi̇ted Şi̇rketi̇ | Digital cinema system |
CN113077795B (en) * | 2021-04-06 | 2022-07-15 | 重庆邮电大学 | Voiceprint recognition method under channel attention spreading and aggregation |
US11823148B2 (en) | 2021-04-15 | 2023-11-21 | Bank Of America Corporation | Augmented reality-enabled ATM for secure augmented reality check realization |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US11369454B1 (en) | 2021-05-24 | 2022-06-28 | Emed Labs, Llc | Systems, devices, and methods for diagnostic aid kit apparatus |
CN113297994B (en) * | 2021-05-31 | 2023-08-18 | 中国航天科工集团第二研究院 | Pilot behavior analysis method and system |
US11776190B2 (en) | 2021-06-04 | 2023-10-03 | Apple Inc. | Techniques for managing an avatar on a lock screen |
US20220398302A1 (en) * | 2021-06-10 | 2022-12-15 | Trivver, Inc. | Secure wearable lens apparatus |
GB2623461A (en) | 2021-06-22 | 2024-04-17 | Emed Labs Llc | Systems, methods, and devices for non-human readable diagnostic tests |
US20230008868A1 (en) * | 2021-07-08 | 2023-01-12 | Nippon Telegraph And Telephone Corporation | User authentication device, user authentication method, and user authentication computer program |
CN113434511B (en) * | 2021-07-12 | 2023-08-29 | 北京林业大学 | Clustering index method based on Hilbert curve |
KR102644877B1 (en) * | 2021-08-20 | 2024-03-08 | 주식회사 경신 | Apparatus and method for controlling vehicle |
CN113655927A (en) * | 2021-08-24 | 2021-11-16 | 亮风台(上海)信息科技有限公司 | Interface interaction method and device |
US20230097716A1 (en) * | 2021-09-25 | 2023-03-30 | FiveGen, LLC | Authenticating Individuals Based on Game Decisions and Behaviors |
US20230102506A1 (en) * | 2021-09-25 | 2023-03-30 | FiveGen, LLC | Selective Recommendation by Mapping Game Decisions and Behaviors to Predefined Attributes |
WO2023047572A1 (en) | 2021-09-27 | 2023-03-30 | 日本電気株式会社 | Authentication system, authentication device, authentication method, and recording medium |
CN113923252B (en) * | 2021-09-30 | 2023-11-21 | 北京蜂巢世纪科技有限公司 | Image display device, method and system |
US11592899B1 (en) * | 2021-10-28 | 2023-02-28 | Tectus Corporation | Button activation within an eye-controlled user interface |
WO2023075771A1 (en) * | 2021-10-28 | 2023-05-04 | Hewlett-Packard Development Company, L.P. | Avatar training images for training machine learning model |
US20230289535A1 (en) * | 2021-11-03 | 2023-09-14 | Virginia Tech Intellectual Properties, Inc. | Visual language processing modeling framework via an attention-on-attention mechanism |
WO2023091403A2 (en) * | 2021-11-17 | 2023-05-25 | Meta Platforms Technologies, Llc | Gaze-based user interface with assistant features for smart glasses in immersive reality applications |
US11789530B2 (en) | 2021-11-17 | 2023-10-17 | Meta Platforms Technologies, Llc | Gaze-based user interface with assistant features for smart glasses in immersive reality applications |
US11619994B1 (en) | 2022-01-14 | 2023-04-04 | Tectus Corporation | Control of an electronic contact lens using pitch-based eye gestures |
US11852825B1 (en) * | 2022-03-08 | 2023-12-26 | Meta Platforms Technologies, Llc | Selective notifications from eye measurements |
US11874961B2 (en) | 2022-05-09 | 2024-01-16 | Tectus Corporation | Managing display of an icon in an eye tracking augmented reality device |
CN115658933B (en) * | 2022-12-28 | 2023-04-07 | 四川大学华西医院 | Psychological state knowledge base construction method and device, computer equipment and storage medium |
CN116436919B (en) * | 2023-06-13 | 2023-10-10 | 深圳市明源云科技有限公司 | Cloud resource consumption optimization method and device, electronic equipment and readable storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120275664A1 (en) * | 2011-04-28 | 2012-11-01 | James Russell Bergen | Method of pupil segmentation |
US20130176533A1 (en) * | 2012-01-06 | 2013-07-11 | Hayes Solos Raffle | Structured Light for Eye-Tracking |
Family Cites Families (183)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3863243A (en) | 1972-01-19 | 1975-01-28 | Max Skolnick | Sleep inhibiting alarm |
US3798599A (en) | 1972-02-24 | 1974-03-19 | H Kafafian | Single input controller for a communication system |
US4359724A (en) | 1980-04-28 | 1982-11-16 | Ronald R. Zimmerman | Eyelid movement detector |
US4737040A (en) | 1985-02-15 | 1988-04-12 | Moon Tag Y | Keyboard device and method for entering Japanese language text utilizing Romaji character notation |
EP0280124A1 (en) | 1987-02-12 | 1988-08-31 | Omron Tateisi Electronics Co. | Doze detector |
US4850691A (en) | 1987-03-18 | 1989-07-25 | University Of Illinois | Method and apparatus for determining pupillary response parameters |
US4815839A (en) | 1987-08-03 | 1989-03-28 | Waldorf Ronald A | Infrared/video electronystagmographic apparatus |
US5291560A (en) * | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US5214456A (en) | 1991-10-09 | 1993-05-25 | Computed Anatomy Incorporated | Mapping of corneal topography with display of pupil perimeter |
US5345281A (en) | 1992-12-17 | 1994-09-06 | John Taboada | Eye tracking system and method |
US5517021A (en) | 1993-01-19 | 1996-05-14 | The Research Foundation State University Of New York | Apparatus and method for eye tracking interface |
US5402109A (en) | 1993-04-29 | 1995-03-28 | Mannik; Kallis H. | Sleep prevention device for automobile drivers |
US5481622A (en) | 1994-03-01 | 1996-01-02 | Rensselaer Polytechnic Institute | Eye tracking apparatus and method employing grayscale threshold values |
JPH086708A (en) | 1994-04-22 | 1996-01-12 | Canon Inc | Display device |
CA2126142A1 (en) | 1994-06-17 | 1995-12-18 | David Alexander Kahn | Visual communications apparatus |
US5469143A (en) | 1995-01-10 | 1995-11-21 | Cooper; David E. | Sleep awakening device for drivers of motor vehicles |
US5566067A (en) | 1995-03-23 | 1996-10-15 | The President And Fellows Of Harvard College | Eyelid vigilance detector system |
US5689241A (en) | 1995-04-24 | 1997-11-18 | Clarke, Sr.; James Russell | Sleep detection and driver alert apparatus |
US5570698A (en) | 1995-06-02 | 1996-11-05 | Siemens Corporate Research, Inc. | System for monitoring eyes for detecting sleep behavior |
US5682144A (en) | 1995-11-20 | 1997-10-28 | Mannik; Kallis Hans | Eye actuated sleep prevention devices and other eye controlled devices |
US6003991A (en) | 1996-02-17 | 1999-12-21 | Erik Scott Viirre | Eye examination apparatus and method for remote examination of a patient by a health professional |
US5912721A (en) | 1996-03-13 | 1999-06-15 | Kabushiki Kaisha Toshiba | Gaze detection apparatus and its method as well as information display apparatus |
US5886683A (en) | 1996-06-25 | 1999-03-23 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven information retrieval |
US6163281A (en) | 1996-08-19 | 2000-12-19 | Torch; William C. | System and method for communication using eye movement |
US6542081B2 (en) | 1996-08-19 | 2003-04-01 | William C. Torch | System and method for monitoring eye movement |
US6246344B1 (en) | 1996-08-19 | 2001-06-12 | William C. Torch | Method and apparatus for voluntary communication |
US5748113A (en) | 1996-08-19 | 1998-05-05 | Torch; William C. | Method and apparatus for communication |
US5867587A (en) | 1997-05-19 | 1999-02-02 | Northrop Grumman Corporation | Impaired operator detection and warning system employing eyeblink analysis |
AU1091099A (en) | 1997-10-16 | 1999-05-03 | Board Of Trustees Of The Leland Stanford Junior University | Method for inferring mental states from eye movements |
US6007202A (en) | 1997-10-23 | 1999-12-28 | Lasersight Technologies, Inc. | Eye illumination system and method |
DE19803158C1 (en) | 1998-01-28 | 1999-05-06 | Daimler Chrysler Ag | Arrangement for determining the state of vigilance, esp. for machinery operator or vehicle driver |
US6204828B1 (en) | 1998-03-31 | 2001-03-20 | International Business Machines Corporation | Integrated gaze/manual cursor positioning system |
US6867752B1 (en) | 1998-08-31 | 2005-03-15 | Semiconductor Energy Laboratory Co., Ltd. | Portable information processing system |
US6087941A (en) | 1998-09-01 | 2000-07-11 | Ferraz; Mark | Warning device for alerting a person falling asleep |
US6243076B1 (en) | 1998-09-01 | 2001-06-05 | Synthetic Environments, Inc. | System and method for controlling host system interface with point-of-interest data |
AUPP612998A0 (en) | 1998-09-23 | 1998-10-15 | Canon Kabushiki Kaisha | Multiview multimedia generation system |
US6526159B1 (en) | 1998-12-31 | 2003-02-25 | Intel Corporation | Eye tracking for resource and power management |
US6433760B1 (en) * | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US6577329B1 (en) | 1999-02-25 | 2003-06-10 | International Business Machines Corporation | Method and system for relevance feedback through gaze tracking and ticker interfaces |
GB2348520B (en) | 1999-03-31 | 2003-11-12 | Ibm | Assisting user selection of graphical user interface elements |
US6116736A (en) | 1999-04-23 | 2000-09-12 | Neuroptics, Inc. | Pupilometer with pupil irregularity detection capability |
JP3636927B2 (en) * | 1999-05-18 | 2005-04-06 | 三菱電機株式会社 | Face image processing device |
JP2001197400A (en) * | 2000-01-12 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | Display device, head installation-type display device, control method of head installation-type display device, picture generation method for the same, computer and program storage medium |
US6456262B1 (en) | 2000-05-09 | 2002-09-24 | Intel Corporation | Microdisplay with eye gaze detection |
DK1285409T3 (en) | 2000-05-16 | 2005-08-22 | Swisscom Mobile Ag | Process of biometric identification and authentication |
US6608615B1 (en) | 2000-09-19 | 2003-08-19 | Intel Corporation | Passive gaze-driven browsing |
US8113657B2 (en) | 2000-10-07 | 2012-02-14 | Metaio Gmbh | Device and method for determining the orientation of an eye |
DE10103922A1 (en) | 2001-01-30 | 2002-08-01 | Physoptics Opto Electronic Gmb | Interactive data viewing and operating system |
JP3586431B2 (en) * | 2001-02-28 | 2004-11-10 | 松下電器産業株式会社 | Personal authentication method and device |
US20030038754A1 (en) | 2001-08-22 | 2003-02-27 | Mikael Goldstein | Method and apparatus for gaze responsive text presentation in RSVP display |
AUPR872301A0 (en) | 2001-11-08 | 2001-11-29 | Sleep Diagnostics Pty Ltd | Alertness monitor |
US6712468B1 (en) | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
US7715595B2 (en) * | 2002-01-16 | 2010-05-11 | Iritech, Inc. | System and method for iris identification using stereoscopic face recognition |
KR100954640B1 (en) * | 2002-02-05 | 2010-04-27 | 파나소닉 주식회사 | Personal authentication method and device |
US6873714B2 (en) | 2002-02-19 | 2005-03-29 | Delphi Technologies, Inc. | Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution |
US6919907B2 (en) | 2002-06-20 | 2005-07-19 | International Business Machines Corporation | Anticipatory image capture for stereoscopic remote viewing with foveal priority |
US20040061680A1 (en) | 2002-07-10 | 2004-04-01 | John Taboada | Method and apparatus for computer control |
US7400782B2 (en) * | 2002-08-28 | 2008-07-15 | Arcsoft, Inc. | Image warping correction in forming 360 degree panoramic images |
JP3574653B2 (en) * | 2002-09-13 | 2004-10-06 | 松下電器産業株式会社 | Iris coding method, personal authentication method, iris code registration device, iris authentication device, and iris authentication program |
US7486806B2 (en) * | 2002-09-13 | 2009-02-03 | Panasonic Corporation | Iris encoding method, individual authentication method, iris code registration device, iris authentication device, and iris authentication program |
BR0315384A (en) | 2002-10-15 | 2005-09-06 | Volvo Technology Corp | Method and disposition to interpret head and eye activity of individuals |
US6932090B1 (en) | 2003-02-06 | 2005-08-23 | The United States Of America As Represented By The United States National Aeronautics And Space Administration | Motion sickness treatment apparatus and method |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7881493B1 (en) | 2003-04-11 | 2011-02-01 | Eyetools, Inc. | Methods and apparatuses for use of eye interpretation information |
US7401920B1 (en) * | 2003-05-20 | 2008-07-22 | Elbit Systems Ltd. | Head mounted eye tracking and display system |
US9274598B2 (en) | 2003-08-25 | 2016-03-01 | International Business Machines Corporation | System and method for selecting and activating a target object using a combination of eye gaze and key presses |
US20050047629A1 (en) | 2003-08-25 | 2005-03-03 | International Business Machines Corporation | System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking |
EP1671258A4 (en) * | 2003-09-04 | 2008-03-19 | Sarnoff Corp | Method and apparatus for performing iris recognition from an image |
US8098901B2 (en) * | 2005-01-26 | 2012-01-17 | Honeywell International Inc. | Standoff iris recognition system |
US7365738B2 (en) | 2003-12-02 | 2008-04-29 | International Business Machines Corporation | Guides and indicators for eye movement monitoring systems |
US7561143B1 (en) | 2004-03-19 | 2009-07-14 | The University of the Arts | Using gaze actions to interact with a display |
CN102670163B (en) | 2004-04-01 | 2016-04-13 | 威廉·C·托奇 | The system and method for controlling calculation device |
US7195355B2 (en) * | 2004-04-28 | 2007-03-27 | Neurocom International, Inc. | Isolating and quantifying functional impairments of the gaze stabilization system |
ES2535364T3 (en) | 2004-06-18 | 2015-05-08 | Tobii Ab | Eye control of computer equipment |
US7797040B2 (en) * | 2004-12-16 | 2010-09-14 | California Institute Of Technology | Prosthetic devices and methods and systems related thereto |
MX2007010513A (en) | 2005-03-04 | 2008-01-16 | Sleep Diagnostics Pty Ltd | Measuring alertness. |
WO2006132686A2 (en) * | 2005-06-03 | 2006-12-14 | Sarnoff Corporation | Method and apparatus for designing iris biometric systems for use in minimally |
JP2007006393A (en) * | 2005-06-27 | 2007-01-11 | Institute Of Physical & Chemical Research | Information presentation system |
US7438414B2 (en) | 2005-07-28 | 2008-10-21 | Outland Research, Llc | Gaze discriminating electronic control apparatus, system, method and computer program product |
US7751598B2 (en) * | 2005-08-25 | 2010-07-06 | Sarnoff Corporation | Methods and systems for biometric identification |
CA2627068C (en) * | 2005-10-24 | 2015-02-03 | Itesoft S.A. | Device and method for interaction with a user |
WO2007050029A2 (en) * | 2005-10-28 | 2007-05-03 | Tobii Technology Ab | Eye tracker with visual feedback |
US7429108B2 (en) | 2005-11-05 | 2008-09-30 | Outland Research, Llc | Gaze-responsive interface to enhance on-screen user reading tasks |
US8260008B2 (en) * | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
JP2007159610A (en) * | 2005-12-09 | 2007-06-28 | Matsushita Electric Ind Co Ltd | Registration device, authentication device, registration authentication device, registration method, authentication method, registration program, and authentication program |
US7760910B2 (en) | 2005-12-12 | 2010-07-20 | Eyetools, Inc. | Evaluation of visual stimuli using existing viewing data |
JP4367424B2 (en) * | 2006-02-21 | 2009-11-18 | 沖電気工業株式会社 | Personal identification device and personal identification method |
US8793620B2 (en) | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
JP2007319174A (en) * | 2006-05-30 | 2007-12-13 | Matsushita Electric Ind Co Ltd | Photographic equipment and authentication apparatus using the same |
US20070297653A1 (en) * | 2006-06-22 | 2007-12-27 | Rudolf Maarten Bolle | Fingerprint representation using localized texture features |
US7574021B2 (en) * | 2006-09-18 | 2009-08-11 | Sarnoff Corporation | Iris recognition for a secure facility |
US7970179B2 (en) * | 2006-09-25 | 2011-06-28 | Identix Incorporated | Iris data extraction |
JP2008206143A (en) * | 2007-01-23 | 2008-09-04 | Kanazawa Univ | Imaging device having image processing function |
JP2008198028A (en) * | 2007-02-14 | 2008-08-28 | Sony Corp | Wearable device, authentication method and program |
JP2008288767A (en) | 2007-05-16 | 2008-11-27 | Sony Corp | Information processor, method, and program |
IL184399A0 (en) * | 2007-07-03 | 2007-10-31 | Yossi Tsuria | Content delivery system |
WO2009029757A1 (en) * | 2007-09-01 | 2009-03-05 | Global Rainmakers, Inc. | System and method for iris data acquisition for biometric identification |
US8462949B2 (en) | 2007-11-29 | 2013-06-11 | Oculis Labs, Inc. | Method and apparatus for secure display of visual content |
WO2009093435A1 (en) | 2008-01-25 | 2009-07-30 | Panasonic Corporation | Brain wave interface system, brain wave interface device, method and computer program |
CN101677762B (en) * | 2008-02-28 | 2012-08-22 | 松下电器产业株式会社 | Sight line detector and method for detecting sight line |
US20100045596A1 (en) * | 2008-08-21 | 2010-02-25 | Sony Ericsson Mobile Communications Ab | Discreet feature highlighting |
US7850306B2 (en) | 2008-08-28 | 2010-12-14 | Nokia Corporation | Visual cognition aware display and visual data transmission architecture |
WO2010042557A2 (en) | 2008-10-06 | 2010-04-15 | Neuro Kinetics, Inc. | Method and apparatus for corrective secondary saccades analysis with video oculography system |
ATE527934T1 (en) | 2009-04-01 | 2011-10-15 | Tobii Technology Ab | ADAPTIVE CAMERA AND ILLUMINATOR EYE TRACKER |
US20120105486A1 (en) | 2009-04-09 | 2012-05-03 | Dynavox Systems Llc | Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods |
US8472681B2 (en) * | 2009-06-15 | 2013-06-25 | Honeywell International Inc. | Iris and ocular recognition system using trace transforms |
CN101943982B (en) * | 2009-07-10 | 2012-12-12 | 北京大学 | Method for manipulating image based on tracked eye movements |
WO2011008793A1 (en) * | 2009-07-13 | 2011-01-20 | Emsense Corporation | Systems and methods for generating bio-sensory metrics |
EP3338621B1 (en) | 2009-07-16 | 2019-08-07 | Tobii AB | Eye detection unit using parallel data flow |
US20110047377A1 (en) * | 2009-08-19 | 2011-02-24 | Harris Corporation | Secure digital communications via biometric key generation |
JP5613025B2 (en) * | 2009-11-18 | 2014-10-22 | パナソニック株式会社 | Gaze detection apparatus, gaze detection method, electrooculogram measurement apparatus, wearable camera, head mounted display, electronic glasses, and ophthalmologic diagnosis apparatus |
US9507418B2 (en) * | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
US8922342B1 (en) * | 2010-02-15 | 2014-12-30 | Noblis, Inc. | Systems, apparatus, and methods for continuous authentication |
US8467133B2 (en) * | 2010-02-28 | 2013-06-18 | Osterhout Group, Inc. | See-through display with an optical assembly including a wedge-shaped illumination system |
US9759917B2 (en) * | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
EP2539759A1 (en) * | 2010-02-28 | 2013-01-02 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US9091851B2 (en) * | 2010-02-28 | 2015-07-28 | Microsoft Technology Licensing, Llc | Light control in head mounted displays |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
KR20110125460A (en) * | 2010-05-13 | 2011-11-21 | 김석수 | A product information provider system using eye tracing and a method thereof |
US8593375B2 (en) | 2010-07-23 | 2013-11-26 | Gregory A Maltz | Eye gaze user interface and method |
US9916006B2 (en) | 2010-07-23 | 2018-03-13 | Telepatheye Inc. | Eye-wearable device user interface and method |
US9213405B2 (en) | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
US9690099B2 (en) * | 2010-12-17 | 2017-06-27 | Microsoft Technology Licensing, Llc | Optimized focal area for augmented reality displays |
EP2923638B1 (en) * | 2011-03-18 | 2019-02-20 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Optical measuring device and system |
US8643680B2 (en) | 2011-04-08 | 2014-02-04 | Amazon Technologies, Inc. | Gaze-based content display |
US9256720B2 (en) * | 2011-05-18 | 2016-02-09 | Nextgenid, Inc. | Enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems |
WO2012159070A2 (en) * | 2011-05-18 | 2012-11-22 | Nextgenid, Inc. | Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems |
US8911087B2 (en) * | 2011-05-20 | 2014-12-16 | Eyefluence, Inc. | Systems and methods for measuring reactions of head, eyes, eyelids and pupils |
US8885877B2 (en) | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
EP2726937B1 (en) * | 2011-06-30 | 2019-01-23 | Nokia Technologies Oy | Method, apparatus and computer program product for generating panorama images |
US20130021374A1 (en) * | 2011-07-20 | 2013-01-24 | Google Inc. | Manipulating And Displaying An Image On A Wearable Computing System |
US8965064B2 (en) * | 2011-08-22 | 2015-02-24 | Eyelock, Inc. | Systems and methods for capturing artifact free images |
US9342610B2 (en) * | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
WO2013033195A2 (en) * | 2011-08-30 | 2013-03-07 | Microsoft Corporation | Head mounted display with iris scan profiling |
US8223024B1 (en) * | 2011-09-21 | 2012-07-17 | Google Inc. | Locking mechanism based on unnatural movement of head-mounted display |
ES2620762T3 (en) * | 2011-10-27 | 2017-06-29 | Tobii Ab | Power management in an eye tracking system |
US20130258089A1 (en) * | 2011-11-03 | 2013-10-03 | Intel Corporation | Eye Gaze Based Image Capture |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
KR101891786B1 (en) | 2011-11-29 | 2018-08-27 | 삼성전자주식회사 | Operation Method For User Function based on a Eye-Tracking and Portable Device supporting the same |
US8235529B1 (en) * | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
WO2013111140A2 (en) * | 2012-01-26 | 2013-08-01 | Umoove Services Ltd. | Eye tracking |
US9001030B2 (en) | 2012-02-15 | 2015-04-07 | Google Inc. | Heads up display |
KR101158502B1 (en) * | 2012-02-16 | 2012-06-20 | 김유정 | User recognition device for access control |
CN104159497B (en) * | 2012-03-09 | 2018-01-12 | 奥斯派克特公司 | For the method and its device of the function of assessing vision system |
CN104246682B (en) | 2012-03-26 | 2017-08-25 | 苹果公司 | Enhanced virtual touchpad and touch-screen |
US9082011B2 (en) | 2012-03-28 | 2015-07-14 | Texas State University—San Marcos | Person identification using ocular biometrics with liveness detection |
US8864310B2 (en) | 2012-05-01 | 2014-10-21 | RightEye, LLC | Systems and methods for evaluating human eye tracking |
EP2847648A4 (en) | 2012-05-09 | 2016-03-02 | Intel Corp | Eye tracking based selective accentuation of portions of a display |
DE102012105664A1 (en) | 2012-06-28 | 2014-04-10 | Oliver Hein | Method and device for coding eye and eye tracking data |
JP2014044654A (en) * | 2012-08-28 | 2014-03-13 | Nikon Corp | Information input and output device |
US9189064B2 (en) | 2012-09-05 | 2015-11-17 | Apple Inc. | Delay of display event based on user gaze |
US9176581B2 (en) | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
US20140092006A1 (en) | 2012-09-28 | 2014-04-03 | Joshua Boelter | Device and method for modifying rendering based on viewer focus area from eye tracking |
WO2014057618A1 (en) | 2012-10-09 | 2014-04-17 | パナソニック株式会社 | Three-dimensional display device, three-dimensional image processing device and three-dimensional display method |
JP2014092941A (en) * | 2012-11-02 | 2014-05-19 | Sony Corp | Information processor and information processing method and computer program |
JP2014092940A (en) * | 2012-11-02 | 2014-05-19 | Sony Corp | Image display device and image display method and computer program |
US9626072B2 (en) * | 2012-11-07 | 2017-04-18 | Honda Motor Co., Ltd. | Eye gaze control system |
US9674510B2 (en) | 2012-11-21 | 2017-06-06 | Elwha Llc | Pulsed projection system for 3D video |
US9083757B2 (en) | 2012-11-21 | 2015-07-14 | Telefonaktiebolaget L M Ericsson LLP | Multi-objective server placement determination |
JP5652886B2 (en) * | 2012-11-28 | 2015-01-14 | Necカシオモバイルコミュニケーションズ株式会社 | Face authentication device, authentication method and program, information device |
US20140218281A1 (en) | 2012-12-06 | 2014-08-07 | Eyefluence, Inc. | Systems and methods for eye gaze determination |
WO2014093227A1 (en) * | 2012-12-10 | 2014-06-19 | Sri International | Iris biometric matching system |
US20140173407A1 (en) | 2012-12-17 | 2014-06-19 | Empire Technology Development Llc | Progressively triggered auto-fill |
WO2014111924A1 (en) | 2013-01-15 | 2014-07-24 | Poow Innovation Ltd. | Dynamic icons |
US9829971B2 (en) | 2013-01-21 | 2017-11-28 | Facebook, Inc. | Systems and methods of eye tracking control |
US9070015B2 (en) * | 2013-02-07 | 2015-06-30 | Ittiam Systems (P) Ltd. | System and method for iris detection in digital images |
US9791921B2 (en) | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
KR102093198B1 (en) | 2013-02-21 | 2020-03-25 | 삼성전자주식회사 | Method and apparatus for user interface using gaze interaction |
KR102175853B1 (en) | 2013-02-22 | 2020-11-06 | 삼성전자주식회사 | Method for controlling operation and an electronic device thereof |
KR20160005013A (en) * | 2013-03-01 | 2016-01-13 | 토비 에이비 | Delay warp gaze interaction |
US10268276B2 (en) * | 2013-03-15 | 2019-04-23 | Eyecam, LLC | Autonomous computing and telecommunications head-up displays glasses |
US10706132B2 (en) | 2013-03-22 | 2020-07-07 | Nok Nok Labs, Inc. | System and method for adaptive user authentication |
US10270748B2 (en) * | 2013-03-22 | 2019-04-23 | Nok Nok Labs, Inc. | Advanced authentication techniques and applications |
KR101627290B1 (en) * | 2013-04-16 | 2016-06-21 | 구태언 | Head-mounted display apparatus with enhanced secuirity and method for accessing encrypted information by the apparatus |
US9979547B2 (en) * | 2013-05-08 | 2018-05-22 | Google Llc | Password management |
US10025378B2 (en) * | 2013-06-25 | 2018-07-17 | Microsoft Technology Licensing, Llc | Selecting user interface elements via position signal |
KR101882594B1 (en) * | 2013-09-03 | 2018-07-26 | 토비 에이비 | Portable eye tracking device |
US9582716B2 (en) * | 2013-09-09 | 2017-02-28 | Delta ID Inc. | Apparatuses and methods for iris based biometric recognition |
EP3090322A4 (en) | 2013-12-31 | 2017-07-19 | Eyefluence, Inc. | Systems and methods for gaze-based media selection and editing |
US9552060B2 (en) * | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
US10564714B2 (en) | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
KR102173699B1 (en) | 2014-05-09 | 2020-11-03 | 아이플루언스, 인크. | Systems and methods for discerning eye signals and continuous biometric identification |
US20160364609A1 (en) * | 2015-06-12 | 2016-12-15 | Delta ID Inc. | Apparatuses and methods for iris based biometric recognition |
-
2015
- 2015-05-09 KR KR1020167034652A patent/KR102173699B1/en active IP Right Grant
- 2015-05-09 CN CN201580035714.9A patent/CN106537290B/en active Active
- 2015-05-09 EP EP15826370.7A patent/EP3140719B1/en active Active
- 2015-05-09 AU AU2015297035A patent/AU2015297035B2/en active Active
- 2015-05-09 WO PCT/US2015/030047 patent/WO2015172124A1/en active Application Filing
- 2015-05-09 JP JP2017511569A patent/JP6550460B2/en active Active
- 2015-05-09 JP JP2017511567A patent/JP2017527036A/en active Pending
- 2015-05-09 KR KR1020207030953A patent/KR20200127267A/en not_active Application Discontinuation
- 2015-05-09 KR KR1020167034649A patent/KR102230172B1/en active IP Right Grant
- 2015-05-09 CN CN201580034682.0A patent/CN107087431B/en active Active
- 2015-05-09 US US14/708,229 patent/US20150324568A1/en not_active Abandoned
- 2015-05-09 US US14/708,234 patent/US10620700B2/en active Active
- 2015-05-09 EP EP15827954.7A patent/EP3140780B1/en active Active
- 2015-05-09 CN CN201580031094.1A patent/CN106462743A/en active Pending
- 2015-05-09 AU AU2015255652A patent/AU2015255652B2/en active Active
- 2015-05-09 WO PCT/US2015/030050 patent/WO2016018487A2/en active Application Filing
- 2015-05-09 JP JP2017511568A patent/JP2017526078A/en active Pending
- 2015-05-09 AU AU2015297036A patent/AU2015297036B2/en active Active
- 2015-05-09 KR KR1020167034651A patent/KR20170046108A/en not_active IP Right Cessation
- 2015-05-09 WO PCT/US2015/030052 patent/WO2016018488A2/en active Application Filing
- 2015-05-09 US US14/708,241 patent/US9600069B2/en active Active
- 2015-05-09 EP EP15789095.5A patent/EP3140779A4/en not_active Withdrawn
- 2015-11-02 US US14/930,617 patent/US9823744B2/en active Active
- 2015-11-10 US US14/937,782 patent/US20160062459A1/en not_active Abandoned
-
2016
- 2016-04-18 US US15/131,273 patent/US20160274660A1/en active Pending
-
2017
- 2017-01-27 US US15/418,034 patent/US10156900B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120275664A1 (en) * | 2011-04-28 | 2012-11-01 | James Russell Bergen | Method of pupil segmentation |
US20130176533A1 (en) * | 2012-01-06 | 2013-07-11 | Hayes Solos Raffle | Structured Light for Eye-Tracking |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190015650A (en) * | 2017-08-03 | 2019-02-14 | 주식회사 에스지엠 | Authentication system using bio-information and screen golf system using the same |
WO2019164290A1 (en) * | 2018-02-23 | 2019-08-29 | Samsung Electronics Co., Ltd. | Method of biometric authenticating using plurality of camera with different field of view and electronic apparatus thereof |
US10867202B2 (en) | 2018-02-23 | 2020-12-15 | Samsung Electronics Co., Ltd. | Method of biometric authenticating using plurality of camera with different field of view and electronic apparatus thereof |
WO2019221325A1 (en) * | 2018-05-14 | 2019-11-21 | 한국과학기술원 | System for continuous authentication by using pupillary response |
KR20200004666A (en) | 2018-07-04 | 2020-01-14 | 주식회사 링크트리 | Biometric information authentication system using machine learning and block chain and its method |
US11537701B2 (en) | 2020-04-01 | 2022-12-27 | Toyota Motor North America, Inc. | Transport related n-factor authentication |
US11651404B2 (en) | 2021-08-31 | 2023-05-16 | Kyndryl, Inc. | Virtual shopping assistant |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10156900B2 (en) | Systems and methods for discerning eye signals and continuous biometric identification | |
EP2851831B1 (en) | Mobile Information Gateway for Home Healthcare | |
US11755706B2 (en) | Entity identification and authentication using a combination of independent identification technologies or platforms and applications thereof | |
EP2851832B1 (en) | Mobile information gateway for use by medical personnel | |
US9763071B2 (en) | Mobile information gateway for use in emergency situations or with special equipment | |
Liebling et al. | Privacy considerations for a pervasive eye tracking world | |
US20220139546A1 (en) | Machine learning model to detect and prevent psychological events | |
US20230106024A1 (en) | Personal ownership, management and stewardship of personal identifiable information | |
US20220130501A1 (en) | Clinical drug trial data enriching using activity and behavioral analytics captured with personal devices and apps | |
John et al. | The security-utility trade-off for iris authentication and eye animation for social virtual avatars | |
US20220391484A1 (en) | Entity identification and authentication using a combination of independent identification technologies or platforms and applications thereof | |
US20240022565A1 (en) | Continuous id verification based on multiple dynamic behaviors and analytics | |
WO2023244602A1 (en) | Systems and methods that provide a high level of security for a user | |
Sluganovic | Security of mixed reality systems: authenticating users, devices, and data | |
US20220354401A1 (en) | Distributed discernment detection system with plural user interface devices | |
EP4325383A1 (en) | Techniques to provide user authentication for a near-eye display device | |
David-John | Providing Privacy for Eye-Tracking Data with Applications in XR | |
CN117592027A (en) | Techniques for providing user authentication for near-eye display devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |