CN110692062A - 虹膜代码的累积和置信分配 - Google Patents
虹膜代码的累积和置信分配 Download PDFInfo
- Publication number
- CN110692062A CN110692062A CN201880034222.1A CN201880034222A CN110692062A CN 110692062 A CN110692062 A CN 110692062A CN 201880034222 A CN201880034222 A CN 201880034222A CN 110692062 A CN110692062 A CN 110692062A
- Authority
- CN
- China
- Prior art keywords
- iris
- user
- code
- images
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009825 accumulation Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000009826 distribution Methods 0.000 claims abstract description 39
- 239000002131 composite material Substances 0.000 claims abstract description 32
- 230000004044 response Effects 0.000 claims description 14
- 230000003213 activating effect Effects 0.000 claims 3
- 230000001419 dependent effect Effects 0.000 claims 1
- 210000001508 eye Anatomy 0.000 description 180
- 238000012545 processing Methods 0.000 description 53
- 238000009877 rendering Methods 0.000 description 47
- 230000006870 function Effects 0.000 description 33
- 238000003384 imaging method Methods 0.000 description 33
- 210000001747 pupil Anatomy 0.000 description 33
- 230000003287 optical effect Effects 0.000 description 26
- 238000004891 communication Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 19
- 210000003128 head Anatomy 0.000 description 15
- 210000000744 eyelid Anatomy 0.000 description 14
- 238000000605 extraction Methods 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 7
- 230000004424 eye movement Effects 0.000 description 7
- 238000002347 injection Methods 0.000 description 7
- 239000007924 injection Substances 0.000 description 7
- 230000004308 accommodation Effects 0.000 description 6
- 239000011218 binary composite Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000000284 resting effect Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 210000004087 cornea Anatomy 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000000720 eyelash Anatomy 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000036961 partial effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000014616 translation Effects 0.000 description 3
- 206010019233 Headaches Diseases 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008649 adaptation response Effects 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 231100000869 headache Toxicity 0.000 description 2
- 208000016339 iris pattern Diseases 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 238000004549 pulsed laser deposition Methods 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 238000012419 revalidation Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 210000003786 sclera Anatomy 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000007493 shaping process Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 208000002111 Eye Abnormalities Diseases 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 208000036366 Sensation of pressure Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000000617 arm Anatomy 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011867 re-evaluation Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/37—Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Collating Specific Patterns (AREA)
- Detergent Compositions (AREA)
- Image Input (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
公开了与虹膜识别有关的系统和方法。公开了一种系统,该系统包括:虹膜成像器,其被配置为获取虹膜图像;以及处理器,其被配置为从虹膜成像器接收第一多个虹膜图像,生成与第一多个虹膜图像对应的第一多个虹膜代码,生成与虹膜单元位置对应的分布度量,使用分布度量生成第一复合虹膜代码,以及使用第一复合虹膜代码和第一存储的虹膜代码生成第一匹配值。
Description
相关申请的交叉引用
本申请要求2017年3月24日提交的美国临时申请序列号62/476,513的优先权权益,该临时申请的全部内容通过引用整体结合于此。
技术领域
所公开的示例通常涉及虹膜识别,包括用于访问控制或身份筛选的虹膜识别系统,以及结合到用户可穿戴设备(包括头戴式显示设备)中的系统。
背景技术
人眼的虹膜呈现出视觉图案,该视觉图案通常对于单个用户而言是唯一的和永久的,随时间推移是一致的,并且可以被可靠地成像。因此,虹膜图像数据的识别和分析可以是用于识别单个用户的有利机制。设计为识别人眼虹膜的系统在安全和访问控制应用中特别有用。此类系统得益于在许多条件下的准确、可靠和可用。因此,期望虹膜识别系统能够容许例如图像采集和质量、对象状态、取向和照明条件的变化;并且要准确,包括实现较低的错误接受率和错误拒绝率。
发明内容
在此描述了用于执行虹膜识别的设备和方法。在一些示例中,例如通过相机从系统的人类用户获取虹膜图像,并且生成虹膜图像的按位表示(“虹膜代码”)。在一些示例中,通过归一化虹膜图像并将其划分为多个单元来生成虹膜代码,通过使用已知方法(诸如滤波技术或小波技术)确定与该单元中的虹膜结构对应的取向数据,并向该取向数据分配二进制表示。在一些示例中,可以识别并排除所生成的虹膜代码的可变单元,以调节和提高虹膜代码比较的准确性。在一些示例中,所生成的虹膜代码被累积并用于产生“模糊”虹膜代码值;将各种统计方法应用于这些模糊虹膜代码值可以导致提高虹膜代码比较的准确性。
附图说明
图1描绘了人观看的具有虚拟现实对象和物理对象的混合现实场景。
图2描绘了可穿戴系统的示例。
图3描绘了可穿戴系统的示例部件。
图4描绘了用于向用户输出图像信息的可穿戴设备的波导堆叠的示例。
图5描绘了眼睛的示例。
图5A描绘了用于确定眼睛的眼睛姿态的示例坐标系。
图6描绘了包括眼睛跟踪系统的可穿戴系统。
图7描绘了虹膜识别系统的示例。
图8描绘了用于比较虹膜代码的示例过程。
图9描绘了用于累积和比较虹膜代码的示例过程。
图10A描绘了示例二进制虹膜代码和示例模糊虹膜代码。
图10B描绘了两个示例模糊虹膜代码。
图11示出了可以体现在任何便携式或非便携式设备内的系统架构的示例。
具体实施方式
可穿戴系统的示例3D显示
可穿戴系统(在此也称为增强现实(AR)系统)可以被配置为向用户呈现2D或3D虚拟图像。图像可以是静止图像、视频的帧或视频的组合等。可以在可穿戴设备上实现可穿戴系统的至少一部分,该可穿戴设备可以单独或组合呈现虚拟现实(VR)、AR或混合现实(MR)环境,以用于用户交互。可穿戴设备可以作为AR设备(ARD)互换使用。此外,出于本公开的目的,术语“AR”与术语“MR”可互换使用。
图1描绘了根据一些实施例的具有人观看的某些VR对象和某些物理对象的混合现实场景的图示。在图1中,描绘了MR场景100,其中MR技术的用户看到以背景中的人、树、建筑为特征的真实世界的公园状的设置110以及实体平台120。除了这些项目之外,MR技术的用户还感知到,他们“看到”了站在混凝土平台120上的机器人雕像130,以及看起来像飞行的蜜蜂的化身的卡通式的头像角色140,即使这些元素在真实世界中不存在。
为了使3D显示产生真实的深度感,并且更具体地,产生表面深度的模拟感,可能希望显示器的视野中的每个点都生成与其虚拟深度对应的适应响应。如果对显示点的适应响应不对应于该点的虚拟深度(如由会聚和立体视的双目深度提示确定),则人眼可能会遇到适应冲突,从而导致不稳定的成像、有害的眼睛疲劳、头痛,以及在缺乏适应信息的情况下,几乎完全没有表面深度。
VR、AR和MR体验可以由具有显示器的显示系统提供,在该显示器中,与一个或多个深度平面对应的图像被提供给观看者。对于每个深度平面,图像可以是不同的(例如,提供场景或对象的稍微不同的呈现),并且可以由观看者的眼睛分别聚焦,从而有助于基于使位于不同深度平面上的场景的不同图像特征聚焦而所需的眼睛适应度,或基于观察位于焦点外的不同深度平面上的不同图像特征,向用户提供深度提示。如在此其它地方所讨论的,此类深度提示提供了对深度的可信感知。
图2示出了根据一些实施例的可被配置为提供AR/VR/MR场景的可穿戴系统200的示例。可穿戴系统200也可以被称为AR系统200。可穿戴系统200包括显示器220以及支持显示器220的功能的各种机械和电子模块和系统。显示器220可以耦合至框架230,该框架230可以由用户、穿戴者或观看者210佩戴。显示器220可以定位于用户210的眼睛前面。显示器220可以向用户210呈现AR/VR/MR场景。显示器220可以包括佩戴在用户210的头部上的头戴式显示器(HMD)。
在一些实施例中,扬声器240耦合到框架230,并定位于用户210的耳道附近(在一些实施例中,未示出的另一扬声器定位于用户210的另一耳道附近,以提供立体/可塑声音控制)。显示器220可以包括用于检测来自环境的音频流并捕获环境声音的音频传感器(例如,麦克风)232。在一些实施例中,未示出的一个或多个其它音频传感器被定位为提供立体声接收。立体声接收可以用于确定声源的位置。可穿戴系统200可以对音频流执行语音或话音识别。
可穿戴系统200可以包括面向外成像系统464(图4中所示),该面向外成像系统464观察用户210周围环境中的世界。可穿戴系统200还可以包括面向内成像系统462(图4中所示),该面向内成像系统462可以跟踪用户210的眼睛运动。面向内成像系统462可以跟踪一只眼睛的运动或两只眼睛的运动。面向内成像系统462拍摄用户210的虹膜的图像,并且用户210的虹膜的图像可以用于生成虹膜图像的按位表示(“虹膜代码”)。面向内成像系统462可以附接到框架230,并且可以与模块260或270电通信,该模块260或270可以处理由面向内成像系统462获取的图像信息,以确定例如瞳孔直径或眼睛的取向、用户210的眼睛运动或眼睛姿态、虹膜图像的按位表示(“虹膜代码”)等。面向内成像系统462可以包括一个或多个相机。例如,至少一个相机可以用于对每只眼睛成像。相机获取的图像可用于分别确定每只眼睛的瞳孔大小、眼睛姿态和/或虹膜代码。
作为示例,可穿戴系统200可以使用面向外成像系统464或面向内成像系统462来获取用户姿态的图像。图像可以是静止图像、视频帧或视频。
显示器220可以诸如通过有线引线或无线连接性可操作地耦合250到本地处理和数据模块260,该本地处理和数据模块260可以以各种配置安装,诸如固定地附接到框架230,固定地附接到由用户210佩戴的头盔或帽子,嵌入耳机中或以其它方式可拆卸地附接到用户210(例如,以背包式配置,以皮带耦合式配置)。
本地处理和数据模块260可以包括硬件处理器以及数字存储器,诸如非易失性存储器(例如,闪存),两者都可以用于辅助数据的处理、缓存和存储。数据可以包括如下数据:a)从传感器(例如,可以可操作地耦合到框架230或以其它方式附接到用户210)捕获的,诸如图像捕获设备(例如,面向内成像系统462或面向外成像系统464中的相机)、音频传感器(例如,麦克风232)、惯性测量单元(IMU)、加速度计、指南针、全球定位系统(GPS)单元、无线设备或陀螺仪;或b)使用远程处理模块270或远程数据存储库280获取或处理的,可能在此类处理或取得之后传递给显示器220。本地处理和数据模块260可以通过通信链路262和/或264,例如经由有线或无线通信链路,可操作地耦合到远程处理模块270和/或远程数据存储库280,使得这些远程模块可用作本地处理和数据模块260的资源。此外,远程处理模块280和远程数据存储库280可以可操作地彼此耦合。
在一些实施例中,远程处理模块270可以包括一个或多个处理器,该处理器被配置为分析和处理数据或图像信息。在一些实施例中,远程数据存储库280可以包括数字数据存储设施,该数字数据存储设施可以通过互联网或“云”资源配置中的其它网络配置来使用。在一些实施例中,所有数据被存储在本地处理和数据模块260中并且所有计算在本地处理和数据模块260中执行,从而允许来自远程模块的完全自主的使用。
示例可穿戴系统
图3示意性地示出了根据一些实施例的可穿戴系统的示例部件。图3示出了可穿戴系统200,该可穿戴系统200可包括显示器220和框架230。放大视图202示意性地示出了可穿戴系统200的各个部件。在一些实施例中,图3中所示的一个或多个部件可以是显示器220的一部分。单独的或组合的各种部件可以收集与可穿戴系统200的用户210或用户的环境相关联的各种数据(诸如例如,音频或视觉数据)。应当理解,取决于可穿戴系统200所用于的应用,其它实施例可以具有附加的或更少的部件。尽管如此,图3提供了各种部件中的一些部件和可以通过可穿戴系统200收集、分析和存储的数据的类型的想法。
图3示出了示例可穿戴系统200,其可以包括显示器220。显示器220可以包括可以安装到用户210的头部的显示透镜226或与框架230对应的壳体。显示透镜226可以包括由框架230定位在用户210的眼睛302、304前面的一个或多个透明反射镜,并且可以被配置为将投影的光338反弹到眼睛302、304中并促进光束整形,同时还允许来自本地环境的至少一些光线的透射。投影光338的波前可以被弯曲或聚焦以与投影光的期望焦距一致。如图所示,两个宽视野机器视觉相机316(也称为世界相机)可以耦合到框架230以对用户210周围的环境成像。这些相机316可以是双捕获可见光/非可见(例如,红外)光相机316。相机316可以是图4中所示的面向外成像系统464的一部分。由相机316获取的图像可以由姿态处理器336处理。例如,姿态处理器336可以实现一个或多个对象识别器以识别用户210或在用户210的环境中的另一个人的姿态,或识别用户210的环境中的物理对象。
示出了一对扫描激光整形波前(例如,用于深度)的光投影仪模块,其具有被配置为将光338投影到眼睛302、304中的显示镜和光学器件。所描绘的视图还示出了与IR光源326(诸如发光二极管“LED”)配对的两个微型红外(IR)相机324,其被配置为能够跟踪用户210的眼睛302、304以支撑渲染、用户输入、虹膜代码生成等。IR相机324可以是图4中所示的面向内成像系统462的一部分。可穿戴系统200可以进一步以传感器组件339为特征,该传感器组件339可以包括X、Y和Z轴加速度计能力以及磁指南针以及X、Y和Z轴陀螺仪能力,优选地以相对较高的频率(诸如200Hz)提供数据。传感器组件339可以是IMU的一部分。可穿戴系统200还可包括头部姿态处理器336,诸如ASIC(专用集成电路)、FPGA(现场可编程门阵列)或ARM处理器(高级精简指令集机器),其可被配置为根据从捕获设备316输出的宽视野图像信息来计算实时或近实时的用户头部姿态。头部姿态处理器336可以是硬件处理器,并且可以被实现为图2A中所示的本地处理和数据模块260的一部分。可穿戴系统还可以包括一个或多个深度传感器234。深度传感器234可以被配置为测量环境中的对象到可穿戴设备之间的距离。深度传感器234可包括激光扫描仪(例如,LIDAR)、超声深度传感器或深度感测相机。在某些实现方式中,在相机316具有深度感测能力的情况下,相机316也可以被认为是深度传感器234。还示出了处理器332,该处理器332被配置为执行数字或模拟处理以从传感器组件339从陀螺仪、指南针或加速度计数据中得出姿态。处理器332可以是图2中所示的本地处理和数据模块260的一部分。可穿戴系统200还可以包括诸如例如GPS 337(全球定位系统)的定位系统,以辅助姿态和定位分析。另外,GPS 337可以进一步提供关于用户210的环境的基于远程的(例如,基于云的)信息。该信息可以用于识别用户210的环境中的对象或信息。
可穿戴系统200可以将由GPS 337与远程计算系统(诸如例如远程处理模块270、另一用户的ARD等)获取的数据进行组合,其可以提供关于用户210的环境的更多信息。作为一个示例,可穿戴系统200可以基于GPS数据确定用户210的位置,并且取得世界地图(例如,通过与远程处理模块270通信),该世界地图包括与用户210的位置相关联的虚拟对象。作为另一个示例,可穿戴系统200可以使用相机316(其可以是图4中所示的面向外成像系统464的一部分)来监视用户210的环境。基于由相机316获取的图像,可穿戴系统200可以检测环境中的对象。可穿戴系统200可以进一步使用由GPS 337获取的数据来解释对象。
可穿戴系统200还可以包括渲染引擎334,该渲染引擎334可以被配置为提供用户210本地的渲染信息,以促进扫描仪的操作以及成像到用户210的眼睛302、304中,用于用户210的世界视图。渲染引擎334可以由硬件处理器(诸如例如中央处理单元或图形处理单元)实现。在一些实施例中,渲染引擎334是本地处理和数据模块260的一部分。渲染引擎334可以可通信地耦合(例如,经由有线或无线链路)到可穿戴系统200的其它部件。例如,渲染引擎334可以经由通信链路274耦合到IR相机324,并且可以经由通信链路272耦合到投影子系统318(其可以以类似于视网膜扫描显示的方式经由扫描激光装置将光投影到用户210的眼睛302、304中)。渲染引擎334也可以与其它处理单元进行通信,诸如例如分别经由链路276和294与传感器姿态处理器332和姿态处理器336进行通信。
IR相机324(例如,微型红外相机)可以用于跟踪眼睛以支持渲染、用户输入、虹膜代码生成等。一些示例眼睛姿态可以包括用户正在看的地方或他或她正在聚焦在什么深度上(这可以通过眼睛聚散来估计)。GPS337、陀螺仪、指南针和加速度计、传感器组件339等可用于提供粗略或快速的姿态估计。相机316中的一个或多个可以获取图像和姿态,该图像和姿态与来自相关联的云计算资源的数据结合,可以用于映射本地环境并与其他用户共享用户210的视图。
图3中所描绘的示例部件仅用于说明目的。为了便于说明和描述,一起示出了多个传感器和其它功能模块。一些实施例可以仅包括这些传感器或模块中的一个或子集。此外,这些部件的位置不限于图3中所示的位置。一些部件可能安装到其它部件或容纳在其它部件中,诸如皮带安装部件、手持部件或头盔部件。作为一个示例,姿态处理器336、传感器姿态处理器332和渲染引擎334可以定位在腰包中,并被配置为经由无线通信(诸如超宽带、Wi-Fi、蓝牙等)或经由有线通信与可穿戴系统200的其它部件通信。所描绘的框架230优选地是用户210可头戴并且可穿戴的。然而,可穿戴系统200的一些部件可以佩戴到用户210的身体的其它部分。例如,扬声器240可以被插入用户210的耳朵中以向用户210提供声音。
关于投影光338,在一些实施例中,IR相机324可以用于测量用户的眼睛的中心在几何上延伸(verge)到的位置,该位置通常与眼睛的焦点位置或“焦点深度”一致。眼睛延伸到的所有点的三维表面可以称为“双眼单视界(horopter)”。焦距可以采用有限数量的深度,或者可以无限变化。从聚散距离投影的光似乎聚焦到眼睛302、304,而在聚散距离之前或之后的光则模糊。在美国专利公开号2016/0270656中也描述了本公开的可穿戴设备和其它显示系统的示例,其全部内容通过引用结合于此。
人类视觉系统复杂,并且提供深度的现实感知是具挑战性的。对象的观看者可能由于聚散度和调节的组合而将该对象感知为“三维”。两只眼睛彼此相对的聚散运动(例如,光瞳孔彼此相向或远离的滚动运动,以会聚眼睛的视线来注视对象)与眼睛晶状体的聚焦(或“调节”)密切相关。在正常情况下,改变眼睛晶状体的焦点或调节眼睛,以将焦点从在不同距离处的一个对象改变到另一个对象,将会在称为“调节聚散度反射(accommodation-vergence reflex)”的关系下自动地导致在聚散度上的匹配改变达到相同的距离。同样,在正常情况下,聚散度的改变将引发调节的匹配改变。提供调节和聚散度之间的更好匹配的显示系统可以形成更逼真且舒适的三维图像模拟。
人眼可以正确地分辨光束直径小于约0.7毫米的另外的空间相干光,而不管眼睛聚焦在哪里。因此,为了产生适当的焦深的错觉,可以用IR相机324跟踪眼睛聚散,并且可以利用渲染引擎334和投影子系统318来渲染处于焦点的双眼单视界上或附近的所有对象,并以不同程度散焦的所有其它对象(例如,使用故意创建的模糊)。优选地,显示器220以大约每秒60帧或更高的帧速率向用户渲染。如上所述,优选地,IR相机324可以用于眼睛跟踪,并且软件可以被配置为不仅拾取聚散几何形状而且拾取焦点位置提示以用作用户输入,并且还拾取虹膜编码器生成。优选地,此类显示系统配置有适合白天或晚上使用的亮度和对比度。
在一些实施例中,显示器220优选地对于视觉对象对准具有小于约20毫秒的等待时间,小于约0.1度的角度对准和约1弧分的分辨率,其不受理论的限制,被认为大约是人眼的极限。显示器220可以与定位系统集成在一起,该定位系统可以包括GPS元件、光学跟踪、指南针、加速度计或其它数据源,以辅助位置和姿态确定;在相关世界的用户210的视野中,可以利用定位信息来促进准确的渲染(例如,此类信息将有助于眼镜知道它们相对于真实世界在哪里)。
在一些实施例中,可穿戴系统200被配置为基于用户210的眼睛302、304的适应来显示一个或多个虚拟图像。与迫使用户210聚焦在投影图像的位置处的其它3D显示方法不同,在一些实施例中,可穿戴系统200被配置为自动改变投影的虚拟内容的焦点,以允许更舒适地观看呈现给用户210的一个或多个图像。例如,如果用户210的眼睛302、304具有1m的当前焦点,则可以将图像投影为与用户210的焦点重合。如果用户210将焦点移至3m,则图像将被投影为与新焦点重合。因此,在一些实施例中,可穿戴系统200不是迫使用户210聚焦到预定焦点,而是允许用户210的眼睛302、304以更自然的方式起作用。
此类可穿戴系统200可以消除或减少通常关于VR设备观察到的眼睛疲劳、头痛和其它生理症状的发生。为了实现这一点,可穿戴系统200的各种实施例被配置为通过一个或多个可变焦距元件(VFE)以变化的焦距投影虚拟图像。在一些实施例中,可以通过多平面聚焦系统实现3D感知,该多平面聚焦系统在远离用户210的固定焦平面处投影图像。一些实施例采用可变平面聚焦,其中焦平面在z方向中来回移动,以与用户210的当前聚焦状态一致。
在多平面聚焦系统和可变平面聚焦系统两者中,可穿戴系统200可以采用眼睛跟踪来确定眼睛302、304的聚散度,确定用户210的当前焦点并在所确定的焦点处投影虚拟图像。在其它实施例中,可穿戴系统200包括光调制器,该光调制器通过光纤扫描仪或其它光发生源横跨整个视网膜以光栅模式可变地投影不同焦点的光束。因此,可穿戴系统200的显示器以变化的焦距投影图像的能力不仅减轻了用户观看3D对象的适应度,而且还可以用于补偿用户的眼部异常,如在美国专利公开号2016/0270656中进一步描述的,其全部内容通过引用结合于此。在一些实施例中,空间光调制器可以通过各种光学部件将图像投影到用户210。例如,如下面进一步所述,空间光调制器可将图像投影到一个或多个波导上,该波导然后向用户210发送图像。
波导堆叠组件
图4示出了用于向用户输出图像信息的波导堆叠的示例。可穿戴系统400包括波导的堆叠或堆叠的波导组件480,其可以用于使用多个波导432b、434b、436b、438b、4400b向眼睛/大脑提供三维感知。在一些实施例中,可穿戴系统400可以对应于图2的可穿戴系统200,图4示意性地更详细地示出了该可穿戴系统200的一些部分。例如,在一些实施例中,波导组件480可以集成到图2的显示器220中。
继续参考图4,波导组件480还可在波导之间包括多个特征458、456、454、452。在一些实施例中,特征458、456、454、452可以是透镜。在其它实施例中,特征458、456、454、452可以不是透镜。而是,它们可以简单地是间隔物(例如,用于形成气隙的包层或结构)。
波导456、454、452可以被配置为以各种水平的波前曲率或光线发散向眼睛发送图像信息。每个波导水平可以与特定的深度平面相关联并且可以被配置为输出与该深度平面对应的图像信息。图像注入设备420、422、424、426、428可被用于将图像信息注入波导440b、438b、436b、434b、432b,每个波导可被配置为将入射光分布在每个相应的波导上,以朝向眼睛410输出。光离开图像注入设备420、422、424、426、428的输出表面,并且被注入到波导440b、438b、436b、434b、432b的对应输入边缘中。在一些实施例中,可以将单个光束(例如,准直光束)注入到每个波导中,以与与特定波导相关联的深度平面对应的特定角度(和发散量)输出朝向眼睛410定向的整个视野的克隆准直光束。
在一些实施例中,图像注入设备420、422、424、426、428是离散的显示器,其各自产生图像信息以分别注入到对应的波导440b、438b、436b、434b、432b中。在一些其它实施例中,图像注入设备420、422、424、426、428是单个多路复用显示器的输出端,该显示器可以例如经由一个或多个光导管(诸如光纤电缆)将图像信息传送到图像注入设备420、422、424、426、428中的每一个图像注入设备。
控制器460控制堆叠的波导组件480和图像注入设备420、422、424、426、428的操作。控制器460包括以下编程(例如,非暂态计算机可读介质中的指令),该编程调节图像信息到波导440b、438b、436b、434b、432b的定时和提供。在一些实施例中,控制器460可以是单个集成设备,或者是通过有线或无线通信信道连接的分布式系统。在一些实施例中,控制器460可以是处理模块260或270(在图2中示出)的一部分。
波导440b、438b、436b、434b、432b可以被配置为通过全内反射(TIR)在每个相应波导内传播光。波导440b、438b、436b、434b、432b每个可以各自是平面的或具有另一形状(例如,弯曲的),具有主要的顶表面和底表面以及在那些主要的顶表面和底表面之间延伸的边缘。在所示的配置中,波导440b、438b、436b、434b、432b可各自包括光提取光学元件440a、438a、436a、434a、432a,其被配置为通过将在每个相应波导内传播的光重定向而将光提取到波导外,以向眼睛410输出图像信息。提取的光也可以称为外耦合光,并且光提取光学元件也可以称为外耦合光学元件。提取的光束由波导在波导中传播的光撞击光重定向元件的位置处输出。光提取光学元件(440a、438a、436a、434a、432a)可以例如是反射或衍射光学特征。为了便于描述和清楚起见,虽然示出了设置在波导440b、438b、436b、434b、432b的底部主表面上,但是在一些实施例中,光提取光学元件440a、438a、436a、434a、432a可以设置在顶部主表面或底部主表面,或者可以直接设置在波导440b、438b、436b、434b、432b的体积中。在一些实施例中,光提取光学元件440a、438a、436a、434a、432a可以形成为材料层,该材料层附接到透明基板以形成波导440b、438b、436b、434b、432b。在一些其它实施例中,波导440b、438b、436b、434b、432b可以是单片材料,并且光提取光学元件440a、438a、436a、434a、432a可以形成在该片材料的表面上或内部中。
继续参考图4,如在此所讨论的,每一个波导440b、438b、436b、434b、432b被配置为输出光以形成与特定深度平面对应的图像。例如,最接近眼睛的波导432b可以被配置为将如注入到这种波导432b中的准直光传送到眼睛410。准直光可以代表光学无限远焦平面。下一个波导向上434b可以被配置为将穿过第一透镜452(例如,负透镜)的准直光在其可以到达眼睛410之前发出。第一透镜452可以被配置为产生轻微凸面的波前曲率,使得眼睛/大脑将来自下一个波导向上434b的光解释为来自第一焦平面,该第一焦平面从光学无限远处更靠近向内朝向眼睛410。类似地,第三向上波导436b将输出光在到达眼睛410之前穿过第一透镜452和第二透镜454。第一透镜452和第二透镜454的组合光功率可被配置为产生另一增量的波前曲率,以使得眼睛/大脑将来自第三波导436b的光解释为来自第二焦平面,该第二焦平面从光学无穷远比来自下一个波导向上434b的光更靠近向内朝向人。
其它波导层(例如,波导438b、440b)和透镜(例如,透镜456、458)被类似地配置,其中堆叠中最高的波导440b通过其与眼睛之间的所有透镜发送其输出,用于代表最接近人的焦平面的聚合(aggregate)焦度。为了在观看/解释来自堆叠波导组件480的另一侧上的世界470的光时补偿透镜458、456、454、452的堆叠,可以在堆叠的顶部处设置补偿透镜层430,以补偿下面的透镜堆叠458、456、454、452的聚合焦度。(补偿透镜层430和堆叠的波导组件480整体上可以被配置为使得来自世界470的光以与最初由堆叠的波导组件480接收时光所具有的基本上相同的发散(或准直)水平被传送到眼睛410。)这种配置提供了与可用波导/透镜配对一样多的感知焦平面。波导的光提取光学元件和透镜的聚焦方面可以是静态的(例如,不是动态的或电激活的)。在一些替代实施例中,两者之一或者两者都可以是使用电激活特征而动态的。
继续参考图4,光提取光学元件440a、438a、436a、434a、432a可以被配置为将光重定向到它们相应的波导之外并且针对与波导相关联的特定深度平面输出具有适当的发散量或准直量的该光。结果,具有不同相关联深度平面的波导可具有不同配置的光提取光学元件,其取决于相关联的深度平面输出具有不同发散量的光。在一些实施例中,如在此所讨论的,光提取光学元件440a、438a、436a、434a、432a可以是体积或表面特征,其可以被配置为以特定角度输出光。例如,光提取光学元件440a、438a、436a、434a、432a可以是体积全息图、表面全息图和/或衍射光栅。在2015年6月25日公开的美国专利公开No.2015/0178939中描述了诸如衍射光栅的光提取光学元件,其通过引用全部并入在此。
在一些实施例中,光提取光学元件440a、438a、436a、434a、432a是形成衍射图案或“衍射光学元件”(在此也称为“DOE”)的衍射特征。优选地,DOE具有相对较低的衍射效率,以使得仅光束的一部分通过DOE的每一个交点偏转向眼睛410,而其余部分经由全内反射继续移动通过波导。携带图像信息的光因此可以被分成多个相关的出射光束,该出射光束在多个位置处离开波导,并且该结果对于在波导内反弹的该特定准直光束是朝向眼睛304的相当均匀图案的出射发射。
在一些实施例中,一个或多个DOE可以在它们主动地衍射的“开启”状态和它们不显著衍射的“关闭”状态之间可切换。例如,可切换的DOE可以包括聚合物分散液晶层,其中微滴在主体介质中包含衍射图案,并且微滴的折射率可以切换为基本上匹配主体材料的折射率(在这种情况下,图案不明显地衍射入射光),或者微滴可以切换为与主体介质的指数不匹配的指数(在这种情况下,该图案主动地衍射入射光)。
在一些实施例中,深度平面的数量和分布或景深可以基于观看者的眼睛的瞳孔大小或方位而动态地改变。景深可与观看者的瞳孔大小成反比。因此,随着观看者眼睛瞳孔的大小减小,景深增加,使得由于平面的位置超出了眼睛的聚焦深度而不可辨别的该平面可能变得可辨别,并且随着瞳孔大小的减小和景深的相应增加表现为更聚焦。类似地,用于向观看者呈现不同图像的间隔开的深度平面的数量可随着瞳孔大小减小而减小。例如,观看者在不调整眼睛远离一个深度平面和到另一个深度平面的适应性的情况下,可能不能清楚地感知处于一个瞳孔大小的第一深度平面和第二深度平面的细节。然而,这两个深度平面可以在不改变适应性的情况下,对于处于另一瞳孔大小的用户同时充分地聚焦。
在一些实施例中,显示系统可以基于瞳孔大小或方位的确定或者基于接收指示特定瞳孔大小或方位的电信号,来改变接收图像信息的波导的数量。例如,如果用户的眼睛不能区分与两个波导相关联的两个深度平面,则控制器460(其可以是本地处理和数据模块260的实施例)可以被配置或编程为停止向这些波导中的一个提供图像信息。有利地,这可以减轻系统的处理负担,从而增加系统的响应性。在其中波导的DOE可在开启和关闭状态之间切换的实施例中,当波导确实接收图像信息时,DOE可切换到关闭状态。
在一些实施例中,可能期望使出射光束符合直径小于观看者眼睛的直径的条件。然而,考虑到观看者的瞳孔大小的可变性,满足这种条件可能是具有挑战性的。在一些实施例中,响应于观看者的瞳孔大小的确定,通过改变出射光束的大小,在宽范围的瞳孔大小上满足该条件。例如,随着瞳孔大小减小,出射光束的大小也可以减小。在一些实施例中,可以使用可变光圈来改变出射光束大小。
可穿戴系统400可以包括对世界470的一部分成像的面向外成像系统464(例如,数字相机)。世界470的这部分可以被称为世界相机的视野(FOV),并且成像系统464有时被称为FOV相机。世界相机的FOV可以与观看者210的FOV相同或者可以与其不相同,其中观看者210的FOV包含观看者210在给定时间感知到的世界470的一部分。例如,在一些情况下,世界相机的FOV可以比可穿戴系统400的观看者210的更大。可供观看者观看或成像的整个区域可被称为能视场(field of regard(FOR))。由于佩戴者可以移动他的身体、头部或眼睛以感知空间中的基本上任何方向,因此FOR可以包括围绕可穿戴系统400的立体角的4n球面度。在其他语境下,佩戴者的移动可能更受限制,并且因此佩戴者的FOR可以对向较小的立体角。从面向外成像系统464获得的图像可以用于跟踪用户做出的姿势(例如,手或手指姿势),检测用户前方的世界470中的对象等等。
可穿戴系统400可以包括例如麦克风的音频传感器232,以捕获周围环境的声音。如上所述,在一些实施例中,可以设置一个或多个另外的音频传感器,以提供对于语音源的位置确定有用的立体声接收。作为另一示例,音频传感器232可以包括定向麦克风,该定向麦克风还可以提供与音频源所处的位置有关的有用定向信息。可穿戴系统400可以在定位语音源时使用来自面向外成像系统464和音频传感器230二者的信息,或者在特定时刻确定活动的讲话者等。例如,可穿戴系统400可以单独或结合讲话者的反射图像(例如,如在镜子中看到)使用语音识别来确定讲话者的身份。作为另一个示例,可穿戴系统400可以基于从定向麦克风获取的声音来确定讲话者在环境中的位置。可穿戴系统400可以使用语音识别算法解析来自讲话者位置的声音,以确定语音的内容,并使用语音识别技术来确定讲话者的身份(例如,姓名或其它人口统计学信息)。
可穿戴系统400还可以包括面向内成像系统466(例如,数字相机),其观察用户的运动,诸如眼睛运动和面部运动。面向内成像系统466可以用于捕获眼睛410的图像以确定眼睛304的瞳孔的大小和/或方位。面向内成像系统466可以用于获得图像,这些图像用于确定用户正在观看的方向(例如,眼睛姿势)或用于用户的生物识别(例如,经由虹膜识别)。在一些实施例中,每只眼睛可以利用至少一个相机,以独立地分别确定每只眼睛的瞳孔大小或眼睛姿势,从而允许向每只眼睛呈现图像信息动态地适合该眼睛。在一些其它实施例中,只确定并假定单个眼睛410的瞳孔直径或方位(例如,每对眼睛仅使用单个相机)与用户的两只眼睛类似。可以分析由面向内成像系统466获得的图像以确定用户的眼睛姿势或情绪,其可以由可穿戴系统400用来决定应该向用户呈现哪些音频或视觉内容。可穿戴系统400还可以使用诸如IMU、加速度计、陀螺仪等的传感器来确定头部姿势(例如,头部位置或头部方位)。
可穿戴系统400可以包括用户输入设备466,用户可以通过该用户输入设备466向控制器460输入命令以与可穿戴系统400交互。例如,用户输入设备466可以包括触控板、触摸屏、操纵杆、多自由度(DOF)控制器、电容感测设备、游戏控制器、键盘、鼠标、方向板(D-pad)、棒、触觉设备、图腾(例如,用作虚拟用户输入设备)等等。多DOF控制器可以感测在控制器的一些或所有可能的平移(例如,左/右、前/后、或者上/下)或旋转(例如,偏航、俯仰或滚动)中的用户输入。支持平移运动的多DOF控制器可以被称为3DOF,而支持平移和旋转的多DOF可以被称为6DOF。在一些情况下,用户可以使用手指(例如,拇指)在触敏输入设备上按压或滑动以向可穿戴系统400提供输入(例如,向由可穿戴系统400提供的用户界面提供用户输入)。用户输入设备466可在使用可穿戴系统400期间由用户的手握持。用户输入设备466可以与可穿戴系统400进行有线或无线通信。
可穿戴系统的其它部件
在许多实施方式中,除了上述可穿戴系统的部件之外或作为替代,可穿戴系统可包括其它部件。例如,可穿戴系统可以包括一个或多个触觉设备或部件。触觉设备或部件可以可操作以向用户提供触觉感觉。例如,触觉设备或部件可以在接触虚拟内容(例如,虚拟对象、虚拟工具、其它虚拟构造)时提供压力或纹理的触觉感觉。触觉感觉可以复制虚拟对象表示的物理对象的感觉,或者可以复制虚拟内容表示的想象对象或角色(例如,龙)的感觉。在一些实施方式中,触觉设备或部件可以由用户穿戴(例如,用户可穿戴手套)。在一些实施方式中,触觉设备或部件可以由用户持有。
例如,可穿戴系统可以包括能由用户操纵以允许输入或与可穿戴系统交互的一个或多个物理对象。这些物理对象在这里可以被称为图腾(totem)。一些图腾可采取无生命对象的形式,例如一块金属或塑料、墙、桌子的表面。在某些实施方式中,图腾可能实际上不具有任何物理输入结构(例如,键、触发器、操纵杆、轨迹球、摇杆开关)。相反,图腾可以简单地提供物理表面,并且可穿戴系统可以渲染用户界面,以使用户看起来在图腾的一个或多个表面上。例如,可穿戴系统可以渲染计算机键盘和触控板的图像从而看起来驻留在图腾的一个或多个表面上。例如,可穿戴系统可以渲染虚拟计算机键盘和虚拟触控板从而看起来在用作图腾的薄铝矩形板的表面上。矩形板本身没有任何物理键或触控板或传感器。然而,可穿戴系统可以检测用户操纵或交互或者触摸矩形板,作为经由虚拟键盘或虚拟触控板进行的选择或输入。用户输入设备466(图4中所示)可以是图腾的实施例,其可以包括触控板、触摸板、触发器、操纵杆、轨迹球、摇杆或虚拟开关、鼠标、键盘、多自由度控制器,或者另一个物理输入设备。用户可以单独或与姿势一起使用图腾来与可穿戴系统或其它用户进行交互。
在美国专利公开No.2015/0016777中描述了本公开的与可穿戴设备、HMD和显示系统一起使用的触觉设备和图腾的示例,其全部内容通过引用并入本文。
示例眼睛图像
图5示出了具有眼睑504、巩膜508(眼睛的“白色部分”)、虹膜512和瞳孔516的眼睛500的图像。曲线516a示出了瞳孔516和虹膜512之间的瞳孔边界,并且曲线512a示出了虹膜512和巩膜508之间的角膜缘边界。眼睑504包括上眼睑504a和下眼睑504b。眼睛500以自然的静止姿态示出(例如,其中用户的面部和凝视都被定向为直接朝向用户前方的远处对象)。眼睛500的自然静止姿态可以由自然静止方向520指示,该自然静止方向520是当处于自然静止姿态(例如,直接在图5中示出的眼睛500的平面之外)并且在此示例中位于瞳孔516的中心时与眼睛500的表面正交的方向。
当眼睛500移动以看向不同的对象时,眼睛的姿态将相对于自然静止方向520发生变化。当前的眼睛姿态可以参考眼睛的姿态方向524来确定,该方向是与眼睛500的表面正交但是朝向眼睛当前所指向的对象定向(并且在瞳孔516内居中)。参考图5A中所示的示例坐标系,眼睛500的姿态可以表示为两个角度参数,其指示相对于眼睛的自然静止方向520的眼睛的眼睛姿态方向524的方位(zenithal)偏转和天顶(azimuthal)偏转。为了说明的目的,这些角度参数可以表示为θ(方位偏转,由基准方位确定)和Φ(天顶偏转,有时也称为极偏转)。在一些实施例中,围绕眼睛姿态方向524的眼睛的角向滚动可以被包括在眼睛姿态的确定中,并且可以在以下分析中包括角向滚动。在一些实施例中,可以使用用于确定眼睛姿态(例如,俯仰、偏航和可选地滚动系统)的其它技术。
可以使用任何适当的过程,例如,使用可以从一个或多个连续帧中提取图像的视频处理算法,从视频中获得眼睛图像。可以使用多种眼睛跟踪技术从眼睛图像确定眼睛的姿态。例如,可以通过考虑角膜对所提供的光源的透镜作用来确定眼睛姿态。任何合适的眼睛跟踪技术都可以用于确定在此所述的眼睑形状估计技术中的眼睛姿态。
示例眼睛跟踪系统
图6示出了包括眼睛跟踪系统的可穿戴系统600的示意图。在一些实施例中,可穿戴系统600可以包括位于头戴式单元602中的部件和位于非头戴式单元604中的部件。非头戴式单元604可以是例如皮带安装部件、手持部件、背包中的部件、远程部件等。将可穿戴系统600的一些部件并入非头戴式单元604中可有助于减小头戴式单元602的大小、重量、复杂性和成本。在一些实现方式中,可以通过可穿戴系统600中其它地方包括的一个或多个部件来提供如由头戴式单元602和/或非头戴式单元604的一个或多个部件执行所描述的一些或全部功能。例如,可以通过非头戴式单元604的CPU 616来提供与头戴式单元602的CPU 612相关联的以下描述的一些或全部功能,反之亦然。在一些示例中,可以通过可穿戴系统600的外围设备来提供一些或所有此类功能。此外,在一些实现方式中,可以通过一个或多个云计算设备或其它远程定位的计算设备以与以上参考图2描述的方式类似的方式来提供一些或全部此类功能。
如图6中所示,可穿戴系统600可以包括眼睛跟踪系统,该眼睛跟踪系统包括捕获用户的眼睛610的图像的相机324。如果需要,眼睛跟踪系统还可以包括光源326a和326b(诸如发光二极管“LED”)。光源326a和326b可产生闪烁(即,在由相机324捕获的眼睛的图像中出现的眼睛610的反射)。光源326a和326b相对于相机324的位置可以是已知的,并且因此,由相机324捕获的图像内的闪烁的位置可以用于跟踪眼睛610。在一些实施例中,可以存在与眼睛610中单只眼睛相关联的一个光源326和一个相机324。在一些实施例中,可以存在与眼睛610中每只眼睛相关联的一个光源326和一个相机324。在一些实施例中,可以存在与眼睛610中一只眼睛或每只眼睛相关联的一个或多个相机324以及一个或多个光源326。在一些实施例中,可以存在与眼睛610中每只眼睛相关联的两个光源326a和326b以及一个或多个相机324。在一些实施例中,可以存在与眼睛610中每只眼睛相关联的三个或更多个光源(诸如光源326a和326b)以及一个或多个相机324。
眼睛跟踪模块614可以从眼睛跟踪相机324接收图像,并且可以分析图像以提取各种信息条。作为示例,眼睛跟踪模块614可以检测眼睛610的姿态、眼睛610相对于眼睛跟踪相机324(和相对于头戴式单元602)的三维位置、眼睛610中的一只或两只聚焦的方向、用户的聚散深度(即,距用户正在聚焦所在的用户的深度)、瞳孔的位置、角膜和角膜球的位置、眼睛中每只眼睛的旋转中心,以及眼睛、眼睛的虹膜中每一个的视角中心等。如图6中所示,眼睛跟踪模块614可以是使用头戴式单元602中的CPU 612实现的模块。
来自眼睛跟踪模块614的数据可以被提供给可穿戴系统600中的其它部件。例如,此类数据可以被发送到非头戴式单元604中的部件,诸如CPU 616,其包括用于光场渲染控制器618的模块和虹膜模块620。
渲染控制器618可以使用来自眼睛跟踪模块614的信息来调节渲染引擎624(例如,可以是GPU 6620中的模块并且可以将图像提供给显示器220的渲染引擎)显示给用户的图像。
“渲染相机”,有时也称为“针孔视角(perspective)相机”(或简称为“视角相机”)或“虚拟针孔相机”(或简称为“虚拟相机”),是一种模拟相机,用于渲染可能来自虚拟世界中的对象数据库的虚拟图像内容。对象可以具有相对于用户或穿戴者并且可能相对于围绕用户或穿戴者的环境中的真实对象的位置和取向。换句话说,渲染相机可以表示渲染空间内的视角,用户或穿戴者将从该视角观看渲染空间的3D虚拟内容(例如,虚拟对象)。可以由渲染引擎624管理渲染相机,以基于要呈现给眼睛610的虚拟对象的数据库来渲染虚拟图像。虚拟图像可以被渲染为好像从用户的视角来看。例如,虚拟图像可以被渲染为好像被具有特定的一组内在参数(例如,焦距、相机像素大小、主要点坐标、偏斜/失真参数等)以及特定的一组外在参数(例如,相对于虚拟世界的平移分量和旋转分量)的针孔相机(对应于“渲染相机”)捕获一样。从具有渲染相机的位置和取向(例如,渲染相机的外在参数)的此类相机的视角拍摄虚拟图像。因此,系统可以限定和/或调节内在和外在的渲染相机参数。例如,系统可以限定特定的一组外在渲染相机参数,使得虚拟图像可以渲染为好像从具有相对于眼睛的特定位置的相机的视角捕获一样,从而提供看起来从用户视角来看的图像。该系统随后可以动态地即时调节外在渲染相机参数,以便维持与所述特定位置的配准。类似地,内在渲染相机参数可随时间推移被限定并动态调节。在一些实现方式中,图像被渲染为好像是从在相对于用户或佩戴者的眼睛的特定位置(诸如视角中心或旋转中心或其它地方)处具有光圈(例如,针孔)的相机的视角捕获一样。
在一些实施例中,系统可以创建或动态地重新定位和/或重新取向用于用户的左眼的一个渲染相机,以及用于用户的右眼的另一渲染相机,因为用户的眼睛在物理上彼此分开并且因此始终定位在不同的位置处。因此,在至少一些实现方式中,从与观看者的左眼相关联的渲染相机的视角渲染的虚拟内容可以通过头戴式显示器(例如,头戴式单元602)的左侧上的目镜呈现给用户,并且从与右眼相关联的渲染相机的视角渲染的虚拟内容可以通过此类头戴式显示器的右侧上的目镜呈现给用户。在题为“METHODS AND SYSTEMS FORDETECTING AND COMBINING STRUCTURAL FEATURES IN 3D RECONSTRUCTION(用于在3D重建中检测和组合结构特征的方法和系统)”的美国专利申请号15/274,823中提供了讨论在渲染过程中创建、调节和使用渲染相机的更多细节,出于所有目的,通过引用将该专利申请明确地整体并入在此。
在一些示例中,可穿戴系统600的一个或多个模块(或部件)(例如,光场渲染控制器618、渲染引擎624等)可以基于用户的头部和眼睛的位置和取向(例如,如分别基于头部姿态和眼睛跟踪数据确定的)来确定渲染空间内的渲染相机的位置和取向。也就是说,可穿戴系统600可以将用户的头部和眼睛的位置和取向有效地映射到3D虚拟环境内的特定位置和角度位置,将渲染相机放置和定向在3D虚拟环境内的特定位置和角度位置处,并为用户渲染虚拟内容,就好像渲染相机捕获的一样。在题为“SELECTING VIRTUAL OBJECTS IN ATHREE-DIMENSIONAL SPACE(在三维空间中选择虚拟对象)”的美国专利申请号15/296,869中提供了讨论真实世界到虚拟世界映射过程的更多细节,出于所有目的,通过引用将该专利申请明确地整体并入在此。作为示例,渲染控制器618可以通过选择在任何给定时间利用哪个深度平面(或多个深度平面)来显示图像而调节显示图像的深度。在一些实现方式中,可以通过调节一个或多个内在渲染相机参数来执行此类深度平面切换。
例如,如下所述,虹膜模块620可以使用来自眼睛跟踪模块614的信息来生成虹膜代码。例如,诸如如下所述,虹膜模块620可以包括图像处理器、虹膜代码生成器、虹膜代码分析器、数据库、访问控制模块和任何其它合适的部件。
虹膜识别
虹膜识别系统被用于多种环境中:例如,建筑物/房间访问控制系统、银行识别确认以及从人口数据库中识别特定人员的机场筛选程序。虹膜识别系统可以尝试将来自一个或多个所获取的虹膜图像的所获取的图像数据(例如,采用相机从用户的眼睛所获取的虹膜图像中的虹膜代码)与来自一个或多个虹膜图像的一组(例如,数据库中)数据进行比较。如果在该组中找到所获取的图像数据(“匹配”),则虹膜识别系统可以指示用户在该组中,并且可以识别和/或验证用户。如果在该组中没有找到所获取的图像数据(“不匹配”),则虹膜识别系统可以指示用户不在该组中并且可以不验证用户。在此描述的系统和方法可以与各种虹膜识别系统一起使用,包括结合了用户可穿戴设备的那些系统。此类用户可穿戴设备可以包括头戴式显示设备,该头戴式显示设备可以包括被配置为从用户的虹膜获取图像数据的成像设备。
虹膜识别可能比其它生物识别系统(诸如设计为识别人的指纹、声音或面部的那些系统)更容忍和稳健。例如,虹膜识别系统可以适应图像大小(包括瞳孔大小)、位置和取向的显著变化。虹膜识别系统也可能表现出很高的灵敏度,即使在非常不同的条件下获取输入数据(诸如虹膜图像),并且输入数据(诸如虹膜图像)看起来可能完全不同。
虹膜识别系统对于与诸如如上所述的头戴式显示设备结合使用可能是特别期望的。此类设备的目标常常是在虚拟环境中实现沉浸感,例如,如在设备的显示器上呈现的那样。可以通过使用虹膜扫描来替换或增强输入设备(诸如鼠标和键盘)来增强沉浸感,这可能在心理上将用户吸引到虚拟环境之外。与使用传统输入设备相比,经由虹膜识别系统提供虹膜输入可以被感知为更加自然或直观。此外,在遮挡了用户对他活她的真实环境的视图的应用(例如,虚拟现实)中,使用此类输入设备可能很困难,因为用户看设备的能力可能会受到损害。例如,与鼠标或键盘不同,相对于头戴式设备(并扩展到用户的眼睛)固定的相机几乎不需要或无需用户的动作即可获得用户输入(例如,通过扫描用户的眼睛);在用户对真实环境的视图被遮挡时;和/或用户的手忙于其它任务时。作为一个示例应用,使用虹膜识别来对呈现虚拟环境的虚拟现实设备的用户进行验证,可以通过避免可能麻烦的验证过程(诸如使用键盘输入密码)保持或保留用户对虚拟环境的沉浸感。类似地,虹膜识别可用于头戴式设备中,以向支付系统提供输入;解锁或启用安全系统或功能;提供对个人身份信息(例如,病历)的访问;或以相对无缝和直观的方式执行其它合适的功能。
关于虹膜识别系统,虹膜代码可以从虹膜图像生成,并且用于与来自其它虹膜图像的虹膜代码进行比较。一般来说,比较两个虹膜代码以确定它们是否属于相同虹膜涉及应用统计独立性测试,其中测试失败指示虹膜代码是匹配。在虹膜代码具有许多自由度的一些示例中,两只不同眼睛的虹膜图像的虹膜代码之间错误匹配(即,虹膜图像的两个虹膜代码属于相同用户的错误识别)的可能性非常低。例如,取决于所使用的匹配参数,错误匹配的假设几率(hypothetical odd)范围可以从1/100000到1/100万亿。例如,如果虹膜识别用于对相对较少数量的潜在用户执行验证(例如针对小的虹膜代码数据库),则错误匹配的几率可能较低,如果虹膜识别用于对相对大量的潜在用户执行验证(例如,针对大的虹膜代码数据库),则几率较高。
图7描绘了根据一些实施例的虹膜识别系统的示例。示例虹膜识别系统1000(以下称为“系统1000”)被配置为输入和分析系统1000的用户的眼睛的虹膜1020的一个或多个图像,并且可以控制对一个或多个功能1200(以下称为“功能1200”)的访问。在一些示例中,虹膜识别系统1000可以被配置为包括可以用于生成虹膜1020的图像(诸如数字强度图像)的眼睛成像相机1040(以下称为“相机1040”)。在一些示例中,由相机1040生成的一个或多个图像被输入到图像处理器1060。在一些示例中,图像处理器1060(单独或具有来自内部传感器1080和/或外部传感器1100的附加输入)操纵图像,使得可以由虹膜代码生成器1120将其转换为数字虹膜代码。在一些示例中,虹膜代码分析器1140将虹膜代码与现有虹膜代码(其可以存储在数据库1160中,诸如关系数据库)进行比较来确定与用户身份有关的一个或多个值。在一些示例中,访问控制器1180使用这些一个或多个值来确定用户是否以及如何利用功能1200。在一些示例中,来自内部传感器1080和/或外部传感器1100的输入可用于辅助访问控制器1180。在一些示例中,如上面关于图6所描述的,这些部件中的一个或多个可以被包括在虹膜模块620中。
相机1040输出与虹膜1020的图像对应的图像数据。相机1040可以是通用光学相机,或者是特别配置为对人类虹膜成像的相机-例如,通过具有以近焦距对对象成像的能力(例如,使得相机1040可以紧靠头戴式设备中的虹膜1020安装)或具有足够的景深以获得整个虹膜1020的聚焦图像。尽管一些示例可以配置用于特写眼睛成像(例如,在头戴式设备中,相机1040与眼睛之间小于12英寸),但其它示例可以配置用于中距离或更远距离的眼睛成像,例如2到10英尺,或10到30英尺或更大。在一些示例中,相机1040包括数字图像传感器(诸如CCD传感器),并输出与入射在图像传感器的对应区域(例如,像素)上的光的强度对应的值的阵列。例如,图像传感器可以输出8位灰度图像,其中入射在像素上的光的强度被表示为0到255之间的单个值。在一些示例中,图像传感器可以输出24位颜色图像,其中入射在像素上的光强度表示为0到255之间的三个值,分别代表红光、绿光和蓝光的强度。取决于特定的系统要求,其它眼睛成像技术和图像数据表示也是可能的并且可能优选。
在使用图像处理器1060的示例中,可以将相机1040输出的图像数据输入到图像处理器1060。图像处理器1060可以对图像数据执行一个或多个处理操作,例如,以提高从该图像数据生成的虹膜代码的可靠性,并且然后将处理的图像数据输出到例如虹膜代码生成器1120。在一些示例中,图像处理器1060可以例如通过使用傅立叶或小波变换确定与聚焦图像相关的中频和高频的存在,来确定虹膜图像聚焦的程度。聚焦信息对于拒绝低质量图像可能很有用,或对于将从聚焦图像生成的虹膜代码标记为比从未聚焦图像生成的虹膜代码潜在地更可靠或更富有信息很有用。例如,可以设置最小可接受的聚焦图像的阈值,使得可以拒绝低于阈值的图像。在一些示例中,可以调节焦点以增加图像中中频和高频的存在。在一些示例中,为了实现更高的处理效率,可以在任何图像处理或虹膜编码操作之前评估图像聚焦。在一些示例中,可以在一个或多个图像处理或虹膜编码操作之后评估图像聚焦。
在一些示例中,图像处理器1060可以以便于虹膜代码的生成的格式来布置图像数据。一种此类格式是伪极(pseudopolar)格式,其相对于二维空间中的坐标对准图像数据,该二维空间包括虹膜的角膜缘和瞳孔的边缘之间的虹膜的环形区域。图像处理器1060还可以执行边缘检测操作以识别角膜缘和瞳孔的边缘。在一些示例中,图像处理器1060可以检测图像数据的区域,在该图像数据区域中,虹膜诸如被眼睑遮挡;并删除该图像数据,或以不干扰对虹膜数据的操作(诸如虹膜代码生成)的方式呈现该图像数据。
在一些示例中,系统1000可以包括:一个或多个内部传感器1080,其可以被定向到与相机1040相同的用户;和/或一个或多个外部传感器1100,其被配置为在本地环境和/或远程环境(例如,互联网或基于云的传感器)中检测信息。传感器1080和/或1100可以提供数据以辅助系统1000的各种特征。示例传感器可以包括加速度计、外部光传感器、内部光传感器(即,面向用户)、视网膜传感器、地理位置/围栏传感器系统等。在一些示例中,传感器1080和/或1100可以被结合到头戴式显示设备中。在一些示例中,传感器1080和/或1100可以用于对眼睛取向进行初始评估,以确定适当的虹膜图像的可能性,或者辅助对离轴图像进行校正。在一些示例中,可以使用传感器信息来设置用于虹膜识别的匹配阈值。例如,地理位置传感器系统可以指示用户处于家庭环境中,在一致的照明条件下生成虹膜图像,并且可以预期相对较低的错误率;或者用户处于室外环境中,其中虹膜图像可能不太一致,并且可能预期较高的错误率。在一些示例中,地理位置传感器系统可以包括诸如“fob”的硬件部件,该硬件部件可以用于检测与头戴式显示设备的接近度,或者例如通过连接至本地联网部件来提供附加的安全性。
内部传感器1080和/或外部传感器1100还可以有助于确定用户何时已经将头戴式显示设备脱离。例如,可以通过加速度计测量、通过光测量或者通过眼镜杆的位置来指示头戴式显示设备的脱离。光测量可以基于来自用户面部或皮肤的反射光和/或基于不存在源自用户的由传感器检测到的红外信号。当系统1000不再能够成功地对虹膜1020成像时,也可以确定脱离。例如,在一段时间内已经检测到许多匹配失败之后,确定可以发生。
在一些示例中,由图像处理器1060输出的处理的图像数据可用作虹膜代码生成器1120的输入。虹膜代码生成器1120接收表示一个或多个虹膜图像的虹膜数据,并生成与虹膜数据对应的一个或多个数字虹膜代码。在一些示例中,虹膜代码生成器1120将虹膜数据划分为单元,并且生成包括各自对应于虹膜单元的一个或多个值的虹膜代码。例如,虹膜代码可以使用每个单元2位来表示1024个单元,这可能对应于复平面中的相位矢量的坐标,总共2048位或256字节。一些示例可以使用更多或更少的单元,并且每单元使用更多或更少的数据,从而导致较小或较大的虹膜代码。例如,虹膜代码可以在64字节至1024字节或256字节至4096字节的范围内。此外,虹膜代码不必为8位或字节的倍数。
在一些示例中,虹膜代码生成器1120可以被配置为累积一个或多个虹膜图像并且从一个或多个图像生成虹膜代码。增加用于生成虹膜代码的虹膜图像的数量可以改善虹膜代码的可靠性和稳健性,特别在虹膜图像数据可能不可靠的环境中,以潜在地需要更多的计算和处理能力为代价。
由虹膜代码生成器1120生成的虹膜代码可以用作虹膜代码分析器1140的输入。虹膜代码分析器1140可以将一个或多个输入虹膜代码与一组数据(诸如存储在数据库1160中的一组虹膜代码-用户对)进行比较,以确定与用户身份有关的一个或多个值。在一些示例中,虹膜代码分析器1140可以将一个或多个输入虹膜代码与所存储的虹膜代码(诸如一组虹膜代码-用户对中的虹膜代码)进行比较,以生成匹配值。在一些示例中,虹膜代码分析器1140可以输出与输入的虹膜代码对应的用户的身份。在一些示例中,虹膜代码分析器1140可以输出与是否找到匹配对应的二进制值:即,输入虹膜代码是否对应于虹膜数据,诸如一组虹膜数据中(诸如在数据库1160中)的存储的虹膜代码。在一些示例中,虹膜代码分析器1140输出与与虹膜数据有关的统计数据(诸如对于输入虹膜代码是否存在匹配的统计置信度)对应的一个或多个值。在一些示例中,虹膜代码分析器1140可以从用户会话持续更新一组生成的虹膜代码。例如,可以在配置为存储指定数量的生成的虹膜代码的先进先出(FIFO)缓冲区中累积生成的虹膜代码。在一些示例中,虹膜代码分析器1140可以累积多个虹膜代码,并从多个虹膜代码生成单个虹膜代码(诸如模糊虹膜代码)。在一些示例中,取决于特定应用的需要,或者取决于来自内部传感器1080和/或外部传感器1100的输入,可以在用户会话期间改变缓冲区大小。
在一些示例中,虹膜代码分析器1140可以周期性地重置在用户会话期间生成的虹膜代码。在一些示例中,可以在检测到一定数量的不匹配之后或者经过一段时间之后执行重置。在一些示例中,重置可以由事件触发。例如,在结合头戴式显示设备的系统中,如果内部传感器1080和/或外部传感器1100检测到头戴式显示设备与用户脱离,或者环境照明条件突然改变(指示头戴式显示设备的可能移除),则可以执行重置。
在一些示例中,访问控制器1180使用虹膜代码分析器1140输出的值来提供对功能1200或系统1000的其它特征或功能的安全性或访问控制。例如,功能1200可以包括控制建筑物安全区域中的门锁的功能,使得仅允许某些用户将门解锁到安全区域。根据虹膜代码分析器1140的将用户识别为具有解锁门锁的权限的用户的输出值,例如,输出值是超过阈值的虹膜匹配值,访问控制器1180可以例如通过指示功能1200来解锁门,从而激活门解锁功能。类似地,根据虹膜代码分析器1140的未将用户识别为具有解锁门锁的权限的用户的输出值,访问控制器1180可以指示功能1200将门保持在锁定状态。
图7中所示的系统1000的一些或全部元件可以使用由一个或多个处理器执行的软件指令来实现。此类处理器可以体现在便携式或非便携式设备中,包括但不限于通信设备(例如,移动电话、智能电话)、多媒体设备(例如,MP3播放器、电视、收音机)、便携式或手持式计算机(例如,平板计算机、上网本、膝上型计算机)、台式计算机、多合一台式计算机、外围设备、可穿戴设备(包括头戴式设备,其可以包括头戴式显示设备),或适于包含系统1000的任何其它系统或设备,包括这些类型的设备中的两种或更多种的组合。
显而易见的是,图7中所示的系统1000仅是系统1000的一个示例架构,并且系统1000可以具有比所示更多或更少的部件,或者部件的不同配置。图7中所示的各种部件可以用包括一个或多个信号处理和/或专用集成电路的硬件、软件、固件或其任何组合来实现。此外,在执行公开的方法的情况下,那些方法的步骤不需要顺序地执行。
本公开不限于图7中所示的系统1000的任何特定物理实施例。例如,系统1000可以被实现在单个物理壳体中,或者被实现在两个或更多个分离的壳体中。在一些示例中,可以在诸如虚拟现实(VR)或增强现实(AR)头戴式显示设备的可穿戴计算设备中提供一个或多个部件,而一个或多个其它部件可以有线或无线方式绑定到单独的壳体或外壳,诸如用于手机、平板计算机、膝上型计算机、台式机、手表、衣服、腰带包、背包或头带。例如,相机1040和传感器1080/1100中的一个或多个可被安装到头戴式显示设备,使得相机和/或传感器相对于用户的头部和眼睛保持固定(其自身可相对于头戴式显示设备固定)。
系统1000不限于仅对单个虹膜1020进行成像。尽管在一些示例中,系统1000可以仅对用户的单个虹膜进行成像和处理,但是在一些示例中,系统1000可以被配置为对用户的眼睛(通常表现独立的虹膜图案)或来自多个用户的多只眼睛二者进行成像和处理。
图像处理
可用的虹膜图像数据对应于未被眼睑遮挡的虹膜的角膜缘和瞳孔的边缘之间的眼睛区域。图像处理器1060可以被配置为检测虹膜的角膜缘和瞳孔的边缘以及眼睑边界。在一些示例中,执行该边缘检测利用了圆形边缘检测器操作,如例如在Daugman的IEEE视频技术的电路和系统的交易(2004年1月,第1期,第14卷,第21-30页)中“How IrisRecognition Works(虹膜识别如何工作)”教导的,如方程(1):
在方程(1)中,I(x,y)表示在笛卡尔坐标(x,y)处的虹膜图像数据的强度,*符号表示卷积算子,r表示半径,并且Gσ(r)是平滑函数。如Daugman中所述,例如,上述操作可用于通过在图像域(x,y)中沿半径为r的圆弧ds和中心坐标(x0,y0)迭代识别I(x,y)的轮廓积分的模糊偏导数的最大值来检测图像中的虹膜边界。在检测虹膜边界之后,可以(例如,通过计算眼睑覆盖量)评估干扰或图像异常的度量。在一些示例中,如果发现过多的干扰或图像异常,则可以拒绝图像数据(例如,通过图像处理器1060),和/或可以从分析中省略对应的虹膜代码(例如,通过虹膜代码分析器1140)。
初始虹膜图像可以从笛卡尔坐标系转换或变换为伪极坐标系。在一些示例中,在识别虹膜1020的角膜缘和瞳孔的边缘以及睫毛和眼睑的任何重叠之后,使用矩形橡胶板模型“展开”所得的环形虹膜图像和/或将其从笛卡尔(例如,x,y)坐标系转换为极(例如,r,θ)坐标系。例如,这可以部分地通过将虹膜图像I(x,y)转换为无量纲的非同心极坐标系(r,θ)来执行,其中r的范围以单位间隔[0,1]从瞳孔边界到角膜缘,例如在如方程(2)的Daugman中所述:
在方程(2)中,xp和yp是限定内部虹膜边界的瞳孔边界点,并且xs和ys是限定外部虹膜边界的巩膜边界点。可以通过最大化x(r,θ)和y(r,θ)方程来检测这些边界。
虹膜代码生成
本公开不限于从图像数据生成虹膜代码的特定方式。在一些示例中,虹膜代码可以通过将图像数据划分为多个区域或单元,并使用两位对每个单元在与相位信息对应的复平面中编码矢量来表示。从相位信息而不是图像强度生成虹膜代码可能是有利的,因为即使在模糊或低分辨率图像中,相位信息也通常被保留,使得即使在不良成像条件下也可以可靠地恢复相位信息。可以从虹膜图像提取相位信息。例如,如Daugman中所述,二维Gabor小波可用于对虹膜图案进行相位解调,并生成具有实部和虚部分量的复数值系数,诸如方程(3)中:
在方程(3)中,h{Re,Im}是基于2D积分的符号的实部和虚部为1或0的相量,I(ρ,φ)是在伪极坐标中(使用橡胶板模型归一化后)虹膜图像的强度,α和β是小波参数,ω是与β成反比的小波频率,并且(r0,θ0)是虹膜单元的极坐标。单元的复数值可以量化为复平面中的四个象限之一(例如,[0,1],[1,1],[1,0]和[0,0]),每个象限由2位表示。虹膜图像数据的角度取向的变化可以通过极坐标系的角度分量的循环滚动来解决,以寻求最优匹配。可替代地,可以在生成虹膜代码之前例如使用欧拉矩阵或另一变换来旋转地匹配基础图像数据。
在一些示例中,来自一个或多个虹膜图像的单元值可能无法满足分配要求或对单元稳定性或可变性的其它确定。可以生成此类单元的掩码或图(类似于虹膜代码本身)。例如,从二维Gabor小波变换投射的一些复数值可能位于复平面的一个或两个轴附近,并且样本变化可能导致这些值不一致或错误地量化。从虹膜代码分析中忽略这些不一致的位或单元值可以提高虹膜识别的准确性。在一些示例中,代表掩码的按位图可以应用于虹膜代码以识别例如应当由虹膜代码分析器(例如,虹膜代码分析器1140)忽略的位或单元值。当确定所存储的虹膜代码与生成的虹膜代码之间的匹配时,该按位图可以用于掩蔽或排除虹膜代码的可变或不一致的单元。在一些示例中,该图可以包括与虹膜图像的虹膜区域对应的虹膜代码的一致和不一致的单元两者,但是排除眼睑、睫毛和/或镜面光效果。
在一些示例中,可以从第二组2D Gabor小波变换投射第二组复数值,该第二组2DGabor小波变换具有与第一组2D Gabor小波变换不同的取向。第二组复数值可以具有不同模式的不一致位,或者以其它方式量化为相对于第一组2D Gabor小波变换的坐标系旋转45度的坐标系。然后,可以将第一组2D Gabor小波变换中不一致的位替换为第二组2D Gabor小波变换所生成的单元值,这可以更加一致,并且从而提高匹配验证的准确性。在一些示例中,虹膜图像的每个单元的复数值可以被直接平均和/或与从所存储的虹膜图像生成的复数值进行比较,以减少或避免可能由于量化而导致的不一致。
在一些示例中,可以获取一个或多个虹膜图像并将其用于生成复合虹膜代码。对于复合虹膜代码的每个单元,可以将最终值分配给该单元。在一些示例中,“投票方案”(例如,简单多数)可以用于计算最终值。在一些示例中,可以将每个值与每个分组的其它类别值进行统计比较,以确定一个或多个虹膜图像中该单元是否存在主导值。在一些示例中,诸如概率分布(具有或不具有对该分布的置信度的度量)的分布度量可用于确定虹膜代码之间匹配的可能性。
虹膜代码分析与匹配
虹膜代码分析器1140可以将所生成的虹膜代码(诸如复合虹膜代码)与所存储的虹膜代码(在一些示例中存储在数据库1160中)进行比较,以确定所生成的虹膜代码是否是所存储的虹膜代码的匹配。本公开不限于用于确定匹配是否存在的特定机制。在一些示例中,使用两个虹膜代码是否在统计上独立的测试结果来确定是否存在匹配:如果测试失败,使得生成的虹膜代码在统计上与存储的虹膜代码不独立,则生成的虹膜代码可以被认为是所存储的虹膜代码的匹配。
在一些实施例中,可能希望最大化虹膜代码分析的准确性。例如,希望减少:错误接受率(FAR)或类型II错误,其是非匹配被错误地识别为匹配的可能性;以及错误拒绝率(FRR)或类型I错误,其是匹配被错误地识别为非匹配的可能性。这些错误率可取决于用于对匹配和非匹配进行分类的阈值。可以用于比较不同虹膜识别系统和算法的准确性的度量是相等错误率(EER),或者是阈值的错误率,其中匹配图像对的错误拒绝率等于不匹配图像对的错误接受率。一般而言,具有较低EER的系统可能会比具有较高EER的系统实现更准确的结果。
虹膜识别系统中的提高的准确性可以通过多种方式来实现。例如,更好的系统部件可以允许更高分辨率的图像,更好的聚焦机制和/或使成像区域免受环境中不需要的光影响的改进方法。这可以实现更高质量、更可再现的虹膜图像,从中可以更准确和可靠地生成虹膜代码。通过丢弃低质量图像也可以提高准确性。例如,可以为虹膜图像分配与该图像在虹膜识别中的有用性有关的质量得分。举例来说,离焦、具有过多镜面分量、具有过多眼睑覆盖或以极端角度拍摄的图像可能会被分配低质量得分,因为这些因素限制了其在虹膜识别中的有用性。系统可以将图像的质量得分与阈值进行比较,并且如果图像的质量得分未达到阈值,则丢弃图像。在一些示例中,系统可以获取附加图像,直到获得足够或更高质量的图像为止。在一些示例中,系统可以提供用户指令或用户提示,诸如闪光灯,以促进用于图像获取的所需眼睛取向。
各种方法可以用于量化虹膜识别系统中两个虹膜代码之间的差异,并且所使用的一种或多种方法可以通知或影响系统的EER。用于量化该差异的一种此类度量是汉明距离(Hamming Distance)(HD)。分别应用了maskA(掩码A)和maskB(掩码B)(标识要从汉明距离计算中排除的虹膜代码位)的codeA(代码A)和codeB(代码B)之间的汉明距离可以定义为方程(4):
在方程(4)中,布尔异-或运算符输出两个虹膜代码(例如,codeA和codeB)之间的按位差。按位的值maskA和maskB可以使用零值来表示与眼睑、睫毛、照明像差或对虹膜识别的其它障碍对应的虹膜代码区域,例如通过在maskA、maskB与异或运算的输出之间执行按位与运算,并且然后通过未掩蔽位的总数对结果进行归一化,将其从汉明距离计算中排除(即||maskA∩maskB||)。
得到的汉明距离(HD)提供了两个虹膜代码之间的按位相似性的度量。较小的汉明距离对应于两个虹膜代码之间较高的相似性。在一些示例中,将两个虹膜代码之间的汉明距离与阈值进行比较,以确定是否存在匹配。例如,下降到阈值以下的两个虹膜代码之间的汉明距离可以指示两个虹膜代码匹配。较低的阈值可能会导致识别出较少的匹配,但存在产生更多错误拒绝的风险。同样,较高的阈值可能会导致识别出更多匹配,但存在产生更多错误接受的风险。在一些示例中,取决于诸如从其生成的虹膜代码的图像数据的可靠性和一致性的考虑,可以将阈值设置在大约0.25至大约0.36的范围内。在一些示例中,可以采用多个阈值。
在一些示例中,还可以例如使用用于生成虹膜代码本身的相同计算来比较所存储和生成的虹膜代码的掩码(例如,与虹膜代码codeA和codeB对应的maskA和maskB),并且结果可用于进一步提高两个虹膜代码之间的匹配确定的准确性。对于每个虹膜代码,可以生成传达每个位/特征的可靠性的图。例如,针对两个虹膜代码生成的两个图(对应于例如眼睑区域)之间的相似性可以指示虹膜代码属于相同虹膜,并且因此在两个虹膜代码之间存在匹配。类似地,可以将第一虹膜代码中的可变或不一致单元的第一图与来自一个或多个虹膜代码的可变或不一致单元的第二图进行比较。第一图和第二图之间的相似性可以指示第一虹膜代码对应于与一个或多个虹膜代码相同的虹膜。
参考图7,在一些示例中,虹膜代码分析器1140可以分析和量化虹膜代码的单元中的变化,并且利用可变性或概率信息来提高虹膜匹配计算的准确性。在一些示例中,可以从匹配检测中排除表现出相对较高的可变性并且因此可以传达较少有用信息的单元。在一些示例中,可以将与单元变化对应的信息(诸如统计信息)用于更准确地将量化值分配给可变单元。在一些示例中,可以将部分匹配值或其它加权值分配给可变单元以进行匹配检测。
虹膜代码分析器1140可以使用概率值来表示虹膜代码。这可以提高虹膜识别准确性,特别是在使用小样本尺寸或虹膜代码或图像数据表现出高可变性的系统中。例如,在虹膜代码包括表达为单个位结果(例如,1和0,对应于过滤器与虹膜图像区域的卷积的正值或负值)的一个或多个单元的示例中,每个此类位可以被表征为基于样本大小的概率或加权值。这类似于加权硬币,其生成具有一定概率x的正面值,以及具有概率(1-x)的反面值。为了计算两个虹膜代码之间的匹配质量,可以使用x的估计,包括有关该估计的统计质量的信息。例如,对于虹膜代码中的每个位,可以使用该位的权重的可能结果的先验分布来估计概率x。可以使用Beta分布对可能的权重上的先验概率分布进行建模,并且可以使用形状参数a和b来对先验知识的状态进行建模。一个示例Beta分布可以表达为方程(5):
在方程(5)中,用于形状参数a和b的示例值可以分别包括0.01和0.1。Γ是伽马函数(即,Γ(n)=(n-1)!)。
在n+m次观察该位之后,其中观察到该位具有n次的1的值和m次的0的值,可能权重的概率分布可以表达为Beta(x;a+n,b+m)。该模型、对于x的模型分布的期望E[x]和方差var[x]可以分别表达为方程(6)、(7)和(8):
Beta(x;a+n,b+m) (6)
因此,可以对虹膜中已被观察到n+m次的每个位的权重表达期望和方差。虹膜代码分析器1140可以使用该统计信息来量化虹膜代码操作中的置信度。在一些实施例中,虹膜代码分析器1140存储针对虹膜代码中每个位的期望E[x]和方差var[x]或者(a+n)和(b+m),而不是存储所有原始样本位信息,可能就足够了。因此,在一些示例中,可以在虹膜代码分析器1140中用代表期望和方差的2048对实数来替换包括2048个单个位条目的虹膜代码。这可以称为“模糊虹膜代码”(FIC)。
虹膜代码分析器1140可以使用各种差异度量来量化两个模糊虹膜代码之间的差异。此类度量可以通过类似于前面描述的汉明距离的“距离”度量的形式来表征。在一些示例中,可以相对于虹膜代码中的位数对差异度量进行归一化。
一种示例差异度量是“软(soft)汉明距离”(SHD)。将模糊代码j中的位i的期望值定义为E[xi (j)],SHD可以在虹膜代码分析器1140中表达为所有位上的期望值的绝对差之和,诸如在方程(9)中:
另一个示例差异度量是“中值汉明距离”(MHD)。将模糊代码j中的位i的中值(此处为零和一中的最可能值)定义为med[xi (j)],MHD可以在虹膜代码分析器1140中表达为所有位上的中值的绝对差之和,诸如在方程(10)中:
另一个示例差异度量是“模糊Z分数”(FZS)。关于模糊代码j中的位i的权重的分布方差可以定义为var[xi (j)]。然后可以在虹膜代码分析器1140中将FZS表达为所有位上的期望值的绝对差之和,其中每个此类差都由相关方差之和来衡量,诸如在方程(11)中:
使用这些示例差异度量中的一个或多个,虹膜代码分析器1140可以比较两个模糊虹膜代码,例如基于一些预定阈值来确定是否存在与相同虹膜的匹配。
一些差异度量可以被描述为将z个位的群组视为具有基础权重的随机过程,使得K=2z个可能结果的概率由多项分布指定。在一些实施例中,可以将映射应用于可能的结果以对可能的结果进行分组。可以使用有监督或无监督的机器学习、聚类或分析构造来确定/应用映射。例如,与虹膜上相同位置处的两个不同过滤器的卷积对应的位对将构成具有z=2以及因此K=2z=4的可能结果的群组。(然而,群组中的位可能对应也可能不对应于虹膜图像上的相同位置,因为它们可能是在虹膜的相同、相邻或完全不同的区域处应用过滤器的结果。)这可以表达为具有概率矢量的分类分布,它对K个类别中的每一个都具有一个元素(即,位群组的可能结果)。xk的值可以被归一化,使得它们的和等于1。权重可以通过具有K形状参数(或“集中参数”)的Dirichlet分布来表征,该形状参数类似于上面关于二项式情况下的Beta分布所描述的参数a和b。形状参数可以从编码位群组的先验信息的值开始,并且可以随着关于不同虹膜图像中的对应群组的单独测量而被更新。
在一些示例中,虹膜代码分析器1140可以使用“模糊多项虹膜代码”(FMIC)代替FIC。对于群组大小为z,FMIC可以具有2048/z个条目,每个条目都由K=2z的真实形状参数表示。上面针对二项式情况定义的示例差异度量可以推广到多项式情况,如下所示。在一些示例中,指示符矢量可以是一组K维矢量,其中除与特定组的权重矢量中的最高概率对应的元素被设置为一外,所有元素均被设置为零。矢量可以被定义为与第j FMIC中的第i位群组对应的指示符矢量。可以定义为第i群组的K维权重矢量的期望值(即,该群组权重的最优估计),并可以表达为方程(12):
方程(13)可以表示特定群组的形状参数的总和。定义μi=E(Xi),协方差矩阵∑可以表达为方程(14):
将N定义为表示位群组的数量(而不是位的数量),示例差异度量的多项式版本可以表达为方程(15)、(16)和/或(17):
在一些示例中,可以以最小方差∈评估上述示例差异度量。在这些示例中,计算中使用的方差可以是观察方差加上最小方差∈,或者是观察方差和最小方差∈中的较大者。可以添加最小方差∈以更好地适应差异度量。可以这样做以补偿数据的缺乏。
图8描绘了根据一些实施例的用于比较虹膜代码的示例过程。在图8中,示出了执行比较两个虹膜代码的过程的虹膜代码分析器1140。虹膜代码分析器1140可以被配置为重置(2020)单元概率分布,从当前用户会话累积(2040)多个虹膜代码,并且为一个或多个单元计算(2060)单元概率分布。可以识别或确定(2080)一个或多个单元的值,并且可以为一个或多个单元计算(2100)与大小相关的置信度值。在一些示例中,不为不满足某些可变性标准的单元计算值。在一些示例中,基于统计比较,诸如将所生成的虹膜代码的置信区间/值与存储的虹膜代码的置信区间/值进行比较,在计算(2140)所生成的虹膜代码与所存储的虹膜代码之间的汉明距离之前,可以为单元分配(2120)值,或者省略该值。在一些示例中,虹膜代码分析器1140可以使用SHD、MHD和/或FZS度量,或者另一模糊度量来比较两个(模糊)虹膜代码。
在一些示例中,虹膜代码分析器1140可以被配置为将单个生成的虹膜代码与所存储的虹膜代码进行比较,或者基于两个或更多个生成的虹膜代码来生成复合虹膜代码。在一些示例中,虹膜代码分析器1140可能需要最小数量或预定数量(例如,2、50、1000、3000)的虹膜图像或虹膜代码以生成复合虹膜代码。
图9描绘了根据一些实施例的用于累积和比较虹膜代码的示例过程。在图9中,虹膜代码分析器1140可以被配置为累积(3020)多个生成的虹膜代码,并且然后为每个单元生成(3040)模糊虹膜代码。在一些示例中,可以计算范围从0到1的非二进制值,其对应于一组虹膜代码上的位的平均值(或二进制位值为1的概率)。在具有足够大样本大小的示例中,每个非二进制值的置信度可以可靠地重现。例如,在0或1结果的概率相等(例如,平均位值为0.5)的非二进制复合虹膜代码中,不一致的位可能是可重现的(即,概率可能相当可靠,并且可能表现为随机伯努利变量)。在一些示例中,不是从汉明距离计算中省略对应的位或单元值,而是可以使用平均非二进制位值来执行修改的汉明距离计算(3060)。非二进制复合虹膜代码可用于与另一个非二进制复合虹膜代码或二进制复合虹膜代码进行匹配,其中每个位的二进制值被视为0到1范围内的连续值。这可以改善匹配和非匹配的汉明距离分布之间的分隔,进而降低了有效EER。
图10A描绘了根据一些实施例的示例二进制虹膜代码和示例模糊虹膜代码。线4000示出了具有值1011000100的存储的二进制虹膜代码的示例10位部分。线4100示出了模糊虹膜代码,代表一个或多个生成的虹膜代码中每个对应位值的“1”值的概率。基于一些位的对应概率值,它们可能会被表征为不一致。例如,诸如针对图10A中的位1的在0.40至0.60范围内的概率值可以表征为不确定。然后,将生成的一组虹膜代码的其余位量化为0或1值,使得该位部分具有X011000000(其中“X”表示不一致的位)的值,指示在位8处不匹配,其中二进制虹膜代码具有为1的值,而模糊虹膜代码具有为0的值。如果不一致的位被视为不匹配的位,则由于位1和位8处的不匹配,两个虹膜代码部分的汉明距离可以计算为2/10或0.2。在一些示例中,如果从汉明距离计算中省略了位1,则结果将为1/10或0.1。在一些示例中,如果从汉明距离计算中省略了位1,则结果将为1/9。在一些示例中,如果将位1视为具有0.5的值,则位1的差将为|1-0.5|或0.5,从而导致为1.5/10或0.15的汉明距离。
在虹膜代码分析器1140被配置为将从0.2到0.8的任何概率值表征为不一致的示例中,示例性的所生成的一组虹膜代码将具有X01X0X0000的值,反映了三个不一致的位(位1、4,和6),以及位8处的不匹配。在一些示例中,如果三个不一致的位被表征为不匹配,则汉明距离将为4/10或0.4000。在一些示例中,如果分别为不一致的位1、4和6分配了0.5、0.8和0.3的其概率值,则|1-0.5|、|1-0.8|和|0-0.3|的对应差异值将用于计算汉明距离(0.5+0.2+0.3+1)/10=0.20。
虽然针对图10A描述的示例涉及模糊复合虹膜代码和二进制虹膜代码之间的匹配比较,一些示例可以涉及两个模糊虹膜代码之间的匹配比较。图10B描绘了两个示例模糊虹膜代码。图10B以4200示出了所存储的模糊虹膜代码的值:0.7/0.0/1.0/1.0/0.2/0.2/0.2/1.0/0.0/0.0。图10B还以4300示出了所生成的模糊虹膜代码的值:0.5/0.1/1.0/0.8/0.1/0.3/0.1/1.0/0.0/0.0。比较这两个非二进制复合虹膜代码时,修改的汉明距离为(0.2+0.1+0.0+0.2+0.1+0.1+0.1+1.0+0.0+0.0)/10.0或0.18。
在一些示例中,多于一个的存储的虹膜代码可以与用户相关联。这些存储的虹膜代码可以与用户状况、环境状况、可由内部和/或外部传感器检测到的状态或其它标准相关联。例如,存储的虹膜代码可以与由内部和/或外部传感器检测到的某些光照条件相关联,或者与由内部传感器(诸如通过凝视跟踪)识别的某些眼睛取向相关联。在一些示例中,为了减少来自大量存储的多组虹膜代码的误报匹配的风险,虹膜代码分析器1140可以被配置为仅在某些条件下利用附加的虹膜代码:例如,如果传感器输入满足某些输入参数。在一些示例中,虹膜代码分析器1140可以被配置为针对不同的虹膜代码利用不同的汉明距离阈值。例如,虹膜代码分析器1140可以使用:第一汉明距离阈值以使用第一虹膜代码来验证匹配;以及第二较低(并且因此更严格)的汉明距离阈值以使用第二虹膜代码验证匹配。
结合头戴式显示设备的系统可以提供用于改进虹膜代码比较的机会。例如,与使用未耦合到用户的成像设备获取初始虹膜图像的系统不同,用户可穿戴系统在初始用户识别之后可以保持与用户互动,即使在已经确认了初始用户匹配之后也允许进行持续的虹膜图像获取。匹配后的图像可用于重新确认用户的身份,以进一步完善用于将来用户识别的所存储的虹膜代码,和/或提高匹配的统计置信度。
在一些示例中,无论是在头戴式系统还是非头戴式系统中,虹膜识别系统都可以收集和/或计算与匹配过程本身有关的其它数据。例如,这可以包括正(positive)匹配的分布(例如,初始匹配验证和/或会话期间的重新验证时达到的汉明距离),或达到的平均汉明距离(具有或不具有置信度或方差度量)。该数据可以用于例如校准访问控制器。例如,一些用户可以能够始终地实现比其他用户更低的汉明距离,并且可以相应地调节由系统设置的阈值以实现所需的安全性和/或用户体验。在一些示例中,系统还可以从其它传感器系统收集或处理数据,该数据可以与匹配或非匹配相关或不相关。在一些示例中,用户或帐户可以与相同用户的多个虹膜代码相关联。在一些示例中,与任何虹膜代码的匹配可能足以实现匹配,并且在一些示例中,一个或多个虹膜代码可以是次级虹膜代码,其中仅在满足其它传感器标准的情况下才允许匹配。
在一些示例中,可以周期性地重新验证匹配,这可以通过确认匹配的用户的持续存在来增强安全性。重新验证可能例如每秒、每十秒钟、每分钟或每小时发生。在一些示例中,重新评估的速率可以取决于所使用或请求的用户功能而变化。例如,当执行游戏功能时,可能不需要重新验证,或者可以在游戏会话结束时开始;但是访问敏感的财务或健康信息可能需要在访问时段期间进行定期重新验证。在一些示例中,访问控制器1180可以被配置为允许用户临时或条件地暂停重新验证-例如,如果用户希望允许另一用户(具有不同的虹膜)使用该系统。在一些示例中,可以相对于某些用户功能或数据(诸如敏感的财务或健康信息或标记为机密的内容)有选择地阻止用户暂停重新验证的能力。
在一些示例中,不同级别的安全性访问可以与不同级别的帐户访问或功能相关联。例如,较低级别的安全性访问可以在次优的图像获取条件下实现更快的虹膜验证,并且对于基本的用户功能可能就足够了;而只有在获取并分析多个虹膜图像之后,才能授予更高级别的安全性(对应于对用户身份的更高级别的置信度)。参考图7,在一些实施例中,系统1000可以被配置为使得虹膜验证不仅提供与非匹配或完全匹配对应的匹配值,而且还提供与条件或部分匹配对应的值。在一些示例中,可以响应于完全匹配来激活系统1000的第一功能(诸如功能1200中的一个或多个),而可以响应于条件匹配来激活系统1000的第二功能。第二功能可以是第一功能的子集,可以比第一功能更受限制,或者可以与第一功能不同。在一些示例中,功能1200中的一个或多个可以在很少或没有虹膜验证的情况下使用,而其它功能1200可能需要对用户身份的更高级别的置信度。在一些示例中,不太敏感的应用(诸如游戏)可能允许较高的汉明距离阈值;而更敏感的应用(诸如访问财务或健康信息)可能需要更低或更严格的汉明距离阈值。在一些示例中,响应于确定匹配值对应于条件匹配,系统1000可以获得附加的虹膜图像,生成附加的虹膜代码,生成复合虹膜代码,并生成与完全匹配或非匹配对应的新匹配值。
可以使用任何适当的逻辑电路在计算机系统中实现以上示例过程。合适的逻辑电路可以包括一个或多个计算机处理器(例如,CPU、GPU等),当执行在软件程序中实现的指令时,该计算机处理器执行处理。另外,也可以经由在硬件逻辑电路中实现的对应逻辑设计来提供此类过程,该硬件逻辑电路诸如是实现提供该过程的逻辑设计的可编程逻辑(例如,PLD、FPGA等)或定制逻辑(例如,ASIC等)。此外,可以经由结合了运行软件和硬件逻辑电路的一个或多个处理器两者的实现方式来提供此类处理。
图11示出了可以用于实现任何或所有以上示例的示例系统5000。示例系统5000可以被包括在便携式设备(包括可穿戴设备)或非便携式设备中-例如,通信设备(例如,移动电话、智能电话)、多媒体设备(例如,MP3播放器、TV、收音机)、便携式或手持式计算机(例如,平板计算机、上网本、膝上型计算机)、台式计算机、多合一台式计算机、外围设备、头戴式设备(例如,其可以包括集成式显示器),或适用于包括示例系统5000的任何其它系统或设备,包括这些类型的设备中的两种或多种的组合。以上示例可以体现在两个或多个物理上分离的设备中,诸如经由无线网络进行通信的两个或更多个计算机。以上示例可以体现在两个或多个物理上不同的设备中,诸如将数据传送到头戴式显示设备和/或从头戴式显示设备传送数据的腰带包。示例系统5000包括一个或多个计算机可读介质5010、处理系统5040、I/O子系统5060、无线通信电路(例如,RF电路)5080、音频设备(例如,扬声器、麦克风)5100和传感器5110。这些部件可以通过一个或多个通信总线或信号线5030耦合。
图11中所示的架构仅是示例系统5000的一个示例架构,并且示例系统5000可以具有比所示的更多或更少的部件,或者部件的不同配置。图11中所示的各种部件可以用包括一个或多个数字信号处理器(DSP)和/或专用集成电路(ASIC)的硬件、软件、固件或其任何组合来实现。
参考图11中的示例系统5000,无线通信电路5080可以用于通过无线(例如,RF)链路或网络向一个或多个其它设备发送信息和从一个或多个其它设备接收信息,并且可以包括用于执行该功能的电路。无线通信电路5080和音频设备5100可以经由外围设备接口5160耦合到处理系统5040。外围设备接口5160可以包括用于在外围设备(例如,无线通信电路5080、音频设备5100以及传感器5110)和处理系统5040之间建立和保持通信的各种已知部件。音频设备5100可以包括用于处理从外围设备接口5160接收的语音信号以使用户能够与其他用户实时通信的电路。音频设备5100可以包括例如一个或多个扬声器和/或一个或多个麦克风。在一些示例中,音频设备5100可以包括耳机插孔(未示出)。
传感器5110可以包括各种传感器,包括但不限于一个或多个发光二极管(LED)或其它光发射器、一个或多个光电二极管或其它光传感器、一个或多个光热传感器、磁力计、加速度计、陀螺仪、气压计、指南针、接近传感器、相机、环境光传感器、温度计、GPS传感器、眼动电图(EOG)传感器以及各种系统传感器,该各种系统传感器可以感测剩余的电池寿命、功耗、处理器速度、CPU负载等。在诸如涉及头戴式设备(其可以包括显示器)的示例中,可以结合与用户的眼睛有关的功能(诸如跟踪用户的眼睛运动,或基于他或她的眼睛的图像来识别用户)来采用一个或多个传感器。
外围设备接口5160可以将系统5000的输入和输出外围设备耦合到一个或多个处理器5180和一个或多个计算机可读介质5010。该一个或多个处理器5180可以经由控制器5200与一个或多个计算机可读介质5010通信。计算机可读介质5010可以是可以存储代码和/或数据供一个或多个处理器5180使用的任何设备或介质(信号除外)。在一些示例中,计算机可读介质5010可以是非暂态计算机可读存储介质。计算机可读介质5010可以包括存储器层次结构,包括但不限于高速缓存、主存储器和辅助存储器。可以使用RAM(例如,SRAM、DRAM、DDRAM)、ROM、FLASH、磁和/或光存储设备(诸如磁盘驱动器、磁带、CD(光盘)和DVD(数字视频光盘))的任意组合来实现存储器层次结构。计算机可读介质5010还可包括传输介质,用于承载指示计算机指令或数据的信息承载信号(但排除信号并且排除在其上调制信号的载波)。例如,传输介质可以包括通信网络,包括但不限于互联网(包括万维网)、内部网、局域网(LAN)、广域网(WLAN)、存储区域网络(SAN)、城域网(MAN)等。
该一个或多个处理器5180可以运行存储在计算机可读介质5010中的各种软件部件,以执行示例系统5000的各种功能。在一些示例中,软件部件可以包括操作系统5220、通信模块(或指令集)5240、I/O处理模块(或指令集)5260、图形模块(或指令集)5280以及一个或多个应用(或指令集)5300。这些模块以及上面提到的应用中的每一个都可以对应于用于执行上述一个或多个功能和本申请中描述的方法的指令集(例如,在此所述的计算机实现的方法和其它信息处理方法)。这些模块(即,指令集)不需要被实现为单独的软件程序、过程或模块,并且因此,在各种示例中,可以组合或以其它方式重新布置这些模块的各种子集。在一些示例中,计算机可读介质5010可以存储以上标识的模块和数据结构的子集。此外,计算机可读介质5010可以存储以上未描述的附加模块和数据结构。
操作系统5220可以包括各种过程、指令集、软件部件和/或驱动器,用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、电源管理等),并且促进各种硬件和软件部件之间的通信。
通信模块5240可以通过一个或多个外部端口5360或经由无线通信电路5080促进与其它设备的通信,并且可以包括用于处理从无线通信电路5080和/或外部端口5360接收的数据的各种软件部件。
图形模块5280可以包括各种已知的软件部件,用于在一个或多个显示表面上渲染、动画化和显示图形对象。显示表面可以包括2D或3D显示。显示表面可以直接或间接耦合到示例系统5000的一个或多个部件。在涉及触摸感测显示器(例如,触摸屏)的示例中,图形模块5280可以包括用于在触摸感测显示器上渲染、显示和动画化对象的部件。在一些示例中,图形模块5280可以包括用于渲染到远程显示器的部件。在一些示例中,诸如包含相机的那些示例,图形模块5280可包括用于创建和/或显示通过复合相机数据(诸如从头戴式相机捕获的)或摄影数据(诸如卫星捕获的图像)与渲染的图形对象所形成的图像的部件。在一些示例中,图形模块5280可以包括用于将图像渲染到头戴式显示设备的部件。在一些示例中,图像可以包括虚拟内容的元素的视图(例如,三维虚拟环境中的对象)和/或物理世界的视图(例如,指示用户的物理环境的相机输入)。在一些示例中,显示器可以呈现虚拟内容和物理世界的视图的组合。在一些示例中,物理世界的视图可以是渲染的图像;在一些示例中,物理世界的视图可以是来自相机的图像。
一个或多个应用5300可以包括示例系统5000上安装的任何应用,包括但不限于浏览器、地址簿、联系人列表、电子邮件、即时消息、文字处理、键盘仿真、小部件、支持JAVA的应用、加密、数字版权管理、语音识别、语音复制、位置确定功能(诸如全球定位系统(GPS)提供的功能)、音乐播放器等。
I/O子系统5060可以耦合到一个或多个I/O设备5140,用于控制或执行各种功能。在涉及处理眼睛数据的示例中,诸如包括眼睛跟踪或虹膜识别功能的示例,I/O子系统5060可以耦合到专用于处理与眼睛有关的输入和输出的一个或多个I/O设备5120。该一个或多个眼睛I/O设备5120可以经由眼睛I/O设备控制器5320与处理系统5040通信,其可以包括用于处理眼睛输入(例如,用于眼睛跟踪的传感器)或用户手势输入(例如,光学传感器)的各种部件。一个或多个其它I/O控制器5340可以向其它I/O设备5140发送电信号,也可以从其它I/O设备5140接收电信号。此类I/O设备5140可以包括物理按钮、拨盘、滑块开关、操纵杆、键盘、触摸板、附加显示屏,或其任何组合。
I/O处理模块5260可以包括用于执行与一个或多个眼睛I/O设备5120和/或一个或多个其它I/O设备5140相关联的各种任务的各种软件部件,包括但不限于接收并处理经由眼睛I/O设备控制器5320从眼睛I/O设备5120或经由I/O控制器5340从其它I/O设备5140接收的输入。在一些示例中,I/O设备5140和/或I/O处理模块5260可以执行与手势输入相关联的各种任务,该手势输入可以通过触觉或非触觉手段来提供。在一些示例中,手势输入可以由相机或另一传感器提供,例如用于检测用户的眼睛、手臂、手和/或手指的运动。在一些示例中,一个或多个I/O设备5140和/或I/O处理模块5260可以被配置为识别显示器上用户希望与之交互的对象,例如,用户所指向的GUI元素。在一些示例中,一个或多个眼睛I/O设备5120和/或I/O处理模块5260可以被配置为(诸如借助于光学或EOG传感器)执行眼睛跟踪任务,诸如识别对象、或用户正在查看的显示器上的区域。在一些示例中,设备(诸如硬件“信标”)可以由用户穿戴或握持,以辅助一个或多个I/O设备5140和/或I/O处理模块5260完成与手势有关的任务,诸如识别用户的手相对于2D或3D环境的位置。在一些示例中,一个或多个眼睛I/O设备5120和/或I/O处理模块5260可以被配置为基于传感器输入(诸如来自相机传感器的与用户的眼睛有关的数据)来识别用户。
在一些示例中,图形模块5280可以在图形用户界面(GUI)中向用户显示视觉输出。视觉输出可以包括文本、图形、视频及其任何组合。视觉输出中的一些或全部可以对应于用户界面对象。在一些示例中,一个或多个I/O设备5120和/或5140和/或控制器5320和/或5340(以及任何相关的模块和/或介质5010中的指令集)可以检测和跟踪手势和/或眼睛运动,并且可以将检测到的手势和/或眼睛运动转换为与图形对象(诸如一个或多个用户界面对象)的交互。在一个或多个眼睛I/O设备5120和/或眼睛I/O设备控制器5320被配置为跟踪用户的眼睛运动的示例中,用户可以通过查看它们直接与图形对象进行交互。
可以诸如由一个或多个眼睛I/O设备5120或一个或多个其它I/O设备5140基于正在显示的内容和/或示例系统5000的一个或多个状态来提供反馈。反馈可以以光学地(例如,光信号或显示的图像)、机械地(例如,触觉反馈、触摸反馈、力反馈等)、电地(例如,电刺激)、嗅觉、听觉(例如,蜂鸣声等)等或其任意组合并且以可变或不变的方式发送。
示例系统5000还可以包括用于为各种硬件部件供电的电源系统5440,并且可以包括电源管理系统、一个或多个电源、充电系统、电源故障检测电路、电源转换器或逆变器、电源状态指示器,以及通常与便携式设备中电源的生成、管理和分配相关的任何其它部件。
在一些示例中,外围设备接口5160、一个或多个处理器5180和控制器5200可以在诸如处理系统5040的单个芯片上实现。在一些其它示例中,它们可以在单独的芯片上实现。
在一些示例中,公开了一种系统。该系统可以包括:虹膜成像器,其被配置为获取虹膜图像;以及处理器,其被配置为:从虹膜成像器接收第一多个虹膜图像,生成与第一多个虹膜图像对应的第一多个虹膜代码,生成与虹膜单元位置对应的分布度量,使用分布度量生成第一复合虹膜代码,以及使用第一复合虹膜代码和第一存储的虹膜代码生成第一匹配值。除了以上示例中的一个或多个示例之外或作为替代,第一多个虹膜代码中的每个虹膜代码可包括多个值,多个值中的每个值对应于虹膜单元。除了以上示例中的一个或多个示例之外或作为替代,虹膜单元位置可以对应于第一虹膜单元,并且第一多个虹膜代码中的每个虹膜代码可以包括与第一虹膜单元对应的值。除了以上示例中的一个或多个示例之外或作为替代,处理器可以进一步被配置为:响应于确定第一匹配值超过阈值,激活系统的功能。除了以上示例中的一个或多个示例之外或作为替代,系统可进一步包括头戴式显示器。除了以上示例中的一个或多个示例之外或作为替代,第一复合虹膜代码和第一存储虹膜代码可以各自是模糊虹膜代码。除了以上示例中的一个或多个示例之外或作为替代,第一匹配值可以是软汉明距离、中值汉明距离和模糊Z得分中的至少一个。除了以上示例中的一个或多个示例之外或作为替代,生成分布度量可以包括确定样本大小相关的置信度值。除了以上示例中的一个或多个示例之外或作为替代,生成第一匹配值可以包括将第一复合虹膜代码的置信区间与第一存储的虹膜代码的置信区间进行比较。除了以上示例中的一个或多个示例之外或作为替代,生成分布度量可以包括确定单元值的概率。除了以上示例中的一个或多个示例之外或作为替代,生成分布度量可以包括量化单元值的出现次数。除了以上示例中的一个或多个示例之外或作为替代,第一多个虹膜代码中的虹膜代码可以包括二进制单元值,并且第一复合虹膜代码可以包括非二进制单元值。除了以上示例中的一个或多个示例之外或作为替代,处理器可进一步被配置为:将质量得分分配给第一多个虹膜图像中的虹膜图像;以及将质量得分与阈值进行比较;响应于确定质量得分不满足阈值,排除虹膜图像。除了以上示例中的一个或多个示例之外或作为替代,生成第一匹配值可以包括计算汉明距离。除了以上示例中的一个或多个示例之外或作为替代,处理器可以进一步被配置为确定第一匹配值是否对应于完全匹配。除了以上示例中的一个或多个示例之外或作为替代,处理器可以进一步被配置为确定第一匹配值是否对应于条件匹配。除了以上示例中的一个或多个示例之外或作为替代,处理器可进一步被配置为:响应于确定第一匹配值对应于完全匹配,激活系统的第一功能;以及响应于确定第一匹配值对应于条件匹配,激活系统的第二功能,该第二功能与第一功能不同。除了以上示例中的一个或多个示例之外或作为替代,处理器可以进一步被配置为:响应于确定第一匹配值对应于条件匹配:从虹膜成像器接收第二多个虹膜图像,生成第二多个虹膜代码,生成第二复合虹膜代码,以及使用第二复合虹膜代码和第一存储的虹膜代码生成第二匹配值。除了以上示例中的一个或多个示例之外或作为替代,第一多个虹膜图像可包括预定的最小数量的虹膜图像。
在一些示例中,公开了一种方法。该方法可以包括:接收第一多个虹膜图像;生成与第一多个虹膜图像对应的第一多个虹膜代码;生成与虹膜单元位置对应的分布度量;使用分布度量生成第一复合虹膜代码;以及使用第一复合虹膜代码和第一存储的虹膜代码生成第一匹配值。除了以上示例中的一个或多个示例之外或作为替代,第一多个虹膜代码中的每个虹膜代码可包括多个值,多个值中的每个值对应于虹膜单元。除了以上示例中的一个或多个示例之外或作为替代,虹膜单元位置可以对应于第一虹膜单元,并且第一多个虹膜代码中的每个虹膜代码包括与第一虹膜单元对应的值。
在一些示例中,公开了一种系统。该系统可以包括被配置为由用户佩戴的头带单元,该头带单元包括:显示器,其被配置为向用户显示虚拟环境,该显示器包括透射目镜,通过该透射目镜,真实环境是可见的;虹膜成像器,其被配置为获取用户的虹膜的图像,该虹膜成像器被配置为相对于用户保持固定;以及处理器,其被配置为:从虹膜成像器接收第一多个虹膜图像,该多个图像与用户相关联;生成与第一多个虹膜图像对应的第一多个虹膜代码,生成与虹膜单元位置对应的分布度量,使用分布度量生成第一复合虹膜代码,以及使用第一复合虹膜代码和第一存储的虹膜代码生成第一匹配值,该第一匹配值对应于用户。
虽然已经参考本公开的示例具体示出和描述了本公开,但是本领域技术人员将理解,在不脱离本公开的范围的情况下,可以在形式和细节上进行各种改变。
Claims (23)
1.一种系统,包括:
虹膜成像器,其被配置为获取虹膜图像;以及
处理器,其被配置为:
从所述虹膜成像器接收第一多个虹膜图像,
生成与所述第一多个虹膜图像对应的第一多个虹膜代码,
生成与虹膜单元位置对应的分布度量,
使用所述分布度量生成第一复合虹膜代码,以及
使用所述第一复合虹膜代码和第一存储的虹膜代码生成第一匹配值。
2.根据权利要求1所述的系统,其中,所述第一多个虹膜代码中的每个虹膜代码包括多个值,所述多个值中的每个值对应于虹膜单元。
3.根据权利要求2所述的系统,其中:
所述虹膜单元位置对应于第一虹膜单元,以及
所述第一多个虹膜代码中的每个虹膜代码包括与所述第一虹膜单元对应的值。
4.根据权利要求1所述的系统,其中,所述处理器进一步被配置为:
响应于确定所述第一匹配值超过阈值,激活所述系统的功能。
5.根据权利要求1所述的系统,进一步包括头戴式显示器。
6.根据权利要求1所述的系统,其中,所述第一复合虹膜代码和所述第一存储的虹膜代码各自是模糊虹膜代码。
7.根据权利要求1所述的系统,其中,所述第一匹配值是软汉明距离、中值汉明距离和模糊Z分数中的至少一个。
8.根据权利要求1所述的系统,其中,生成所述分布度量包括:确定样本大小相关的置信度值。
9.根据权利要求1所述的系统,其中,生成所述第一匹配值包括:将所述第一复合虹膜代码的置信区间与所述第一存储的虹膜代码的置信区间进行比较。
10.根据权利要求1所述的系统,其中,生成所述分布度量包括:确定单元值的概率。
11.根据权利要求1所述的系统,其中,生成所述分布度量包括:量化单元值的出现次数。
12.根据权利要求1所述的系统,其中,所述第一多个虹膜代码中的虹膜代码包括二进制单元值,并且所述第一复合虹膜代码包括非二进制单元值。
13.根据权利要求1所述的系统,其中,所述处理器进一步被配置为:
向所述第一多个虹膜图像中的虹膜图像分配质量得分;
将所述质量得分与阈值进行比较;以及
响应于确定所述质量得分不满足所述阈值,排除所述虹膜图像。
14.根据权利要求1所述的系统,其中,生成所述第一匹配值包括计算汉明距离。
15.根据权利要求1所述的系统,其中,所述处理器进一步被配置为确定所述第一匹配值是否对应于完全匹配。
16.根据权利要求15所述的系统,其中,所述处理器进一步被配置为确定所述第一匹配值是否对应于条件匹配。
17.根据权利要求16所述的系统,其中,所述处理器进一步被配置为:
响应于确定所述第一匹配值对应于完全匹配,激活所述系统的第一功能;以及
响应于确定所述第一匹配值对应于条件匹配,激活所述系统的第二功能,所述第二功能与所述第一功能不相同。
18.根据权利要求16所述的系统,其中,所述处理器进一步被配置为:
响应于确定所述第一匹配值对应于条件匹配:
从所述虹膜成像器接收第二多个虹膜图像,
生成第二多个虹膜代码,
生成第二复合虹膜代码,以及
使用所述第二复合虹膜代码和所述第一存储的虹膜代码生成第二匹配值。
19.根据权利要求1所述的系统,其中,所述第一多个虹膜图像包括预定的最小数量的虹膜图像。
20.一种方法,包括:
接收第一多个虹膜图像;
生成与所述第一多个虹膜图像对应的第一多个虹膜代码;
生成与虹膜单元位置对应的分布度量;
使用所述分布度量生成第一复合虹膜代码;以及
使用所述第一复合虹膜代码和第一存储的虹膜代码生成第一匹配值。
21.根据权利要求20所述的方法,其中,所述第一多个虹膜代码中的每个虹膜代码包括多个值,所述多个值中的每个值对应于虹膜单元。
22.根据权利要求21所述的方法,其中:
所述虹膜单元位置对应于第一虹膜单元,以及
所述第一多个虹膜代码中的每个虹膜代码包括与所述第一虹膜单元对应的值。
23.一种系统,包括:
头带单元,其被配置为由用户佩戴,所述头带单元包括:
显示器,其被配置为向所述用户显示虚拟环境,所述显示器包括透射目镜,通过所述透射目镜,真实环境是可见的;
虹膜成像器,其被配置为获取所述用户的虹膜的图像,所述虹膜成像器被配置为相对于所述用户保持固定;以及
处理器,其被配置为:
从所述虹膜成像器接收第一多个虹膜图像,所述多个图像与所述用户相关联;
生成与所述第一多个虹膜图像对应的第一多个虹膜代码,
生成与虹膜单元位置对应的分布度量,
使用所述分布度量生成第一复合虹膜代码,以及
使用所述第一复合虹膜代码和第一存储的虹膜代码生成第一匹配值,所述第一匹配值对应于所述用户。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311552501.6A CN117576773A (zh) | 2017-03-24 | 2018-03-23 | 虹膜代码的累积和置信分配 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762476513P | 2017-03-24 | 2017-03-24 | |
US62/476,513 | 2017-03-24 | ||
PCT/US2018/024215 WO2018176015A1 (en) | 2017-03-24 | 2018-03-23 | Accumulation and confidence assignment of iris codes |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311552501.6A Division CN117576773A (zh) | 2017-03-24 | 2018-03-23 | 虹膜代码的累积和置信分配 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110692062A true CN110692062A (zh) | 2020-01-14 |
CN110692062B CN110692062B (zh) | 2023-12-08 |
Family
ID=63583436
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311552501.6A Pending CN117576773A (zh) | 2017-03-24 | 2018-03-23 | 虹膜代码的累积和置信分配 |
CN201880034222.1A Active CN110692062B (zh) | 2017-03-24 | 2018-03-23 | 虹膜代码的累积和置信分配 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311552501.6A Pending CN117576773A (zh) | 2017-03-24 | 2018-03-23 | 虹膜代码的累积和置信分配 |
Country Status (9)
Country | Link |
---|---|
US (2) | US11055530B2 (zh) |
EP (2) | EP3602399B1 (zh) |
JP (2) | JP7125950B2 (zh) |
KR (2) | KR102528488B1 (zh) |
CN (2) | CN117576773A (zh) |
AU (2) | AU2018237688B2 (zh) |
CA (1) | CA3057678A1 (zh) |
IL (2) | IL269432B2 (zh) |
WO (1) | WO2018176015A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230393388A1 (en) * | 2022-06-02 | 2023-12-07 | Microsoft Technology Licensing, Llc | Microled based invisible illumination for eye tracking |
WO2024177832A1 (en) * | 2023-02-20 | 2024-08-29 | Snap Inc. | Recreating peripheral vision on a wearable device |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102528488B1 (ko) | 2017-03-24 | 2023-05-02 | 매직 립, 인코포레이티드 | 홍채 코드들의 축적 및 신뢰도 할당 |
RU2670798C9 (ru) * | 2017-11-24 | 2018-11-26 | Самсунг Электроникс Ко., Лтд. | Способ аутентификации пользователя по радужной оболочке глаз и соответствующее устройство |
US10643341B2 (en) | 2018-03-22 | 2020-05-05 | Microsoft Technology Licensing, Llc | Replicated dot maps for simplified depth computation using machine learning |
US10944957B2 (en) | 2018-03-22 | 2021-03-09 | Microsoft Technology Licensing, Llc | Active stereo matching for depth applications |
US10728518B2 (en) | 2018-03-22 | 2020-07-28 | Microsoft Technology Licensing, Llc | Movement detection in low light environments |
US10565720B2 (en) * | 2018-03-27 | 2020-02-18 | Microsoft Technology Licensing, Llc | External IR illuminator enabling improved head tracking and surface reconstruction for virtual reality |
US10762219B2 (en) * | 2018-05-18 | 2020-09-01 | Microsoft Technology Licensing, Llc | Automatic permissions for virtual objects |
US11619814B1 (en) * | 2018-06-04 | 2023-04-04 | Meta Platforms Technologies, Llc | Apparatus, system, and method for improving digital head-mounted displays |
US11074675B2 (en) * | 2018-07-31 | 2021-07-27 | Snap Inc. | Eye texture inpainting |
US10893412B2 (en) * | 2018-08-27 | 2021-01-12 | Apple Inc. | Authenticated device assisted user authentication |
US10832053B2 (en) * | 2018-12-18 | 2020-11-10 | Advanced New Technologies Co., Ltd. | Creating an iris identifier to reduce search space of a biometric system |
WO2020236827A1 (en) * | 2019-05-20 | 2020-11-26 | Magic Leap, Inc. | Systems and techniques for estimating eye pose |
US20220222971A1 (en) * | 2019-05-29 | 2022-07-14 | Maxell, Ltd. | Personal information display device and processing method therefor |
US11263634B2 (en) | 2019-08-16 | 2022-03-01 | Advanced New Technologies Co., Ltd. | Payment method and device |
GB2588774B (en) | 2019-11-05 | 2024-05-15 | Arspectra Sarl | Augmented reality headset for medical imaging |
JP2023504207A (ja) | 2019-12-09 | 2023-02-01 | マジック リープ, インコーポレイテッド | ユーザ識別に基づいて頭部搭載型ディスプレイシステムを動作させるためのシステムおよび方法 |
US11635802B2 (en) * | 2020-01-13 | 2023-04-25 | Sony Interactive Entertainment Inc. | Combined light intensity based CMOS and event detection sensor for high speed predictive tracking and latency compensation in virtual and augmented reality HMD systems |
US20230015980A1 (en) * | 2020-01-20 | 2023-01-19 | Sony Group Corporation | Image generation device, image generation method, and program |
US11300784B2 (en) | 2020-02-21 | 2022-04-12 | Fotonation Limited | Multi-perspective eye acquisition |
CN111508142A (zh) * | 2020-04-17 | 2020-08-07 | 深圳爱莫科技有限公司 | 视线语音交互自动售烟机 |
CN116033864A (zh) | 2020-07-15 | 2023-04-28 | 奇跃公司 | 使用非球形角膜模型的眼睛跟踪 |
US11520152B1 (en) * | 2020-08-06 | 2022-12-06 | Apple Inc. | Head-mounted display systems with gaze tracker alignment monitoring |
JP7563572B2 (ja) | 2021-03-15 | 2024-10-08 | 日本電気株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
WO2023133072A2 (en) * | 2022-01-07 | 2023-07-13 | Jumio Corporation | Biometric authentication using head-mounted devices |
US11822736B1 (en) * | 2022-05-18 | 2023-11-21 | Google Llc | Passive-accessory mediated gesture interaction with a head-mounted device |
US12124625B1 (en) * | 2023-06-30 | 2024-10-22 | Rockwell Collins, Inc. | Pupil dynamics, physiology, and context for estimating vigilance |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101073090A (zh) * | 2004-11-22 | 2007-11-14 | 虹膜技术公司 | 用于虹膜识别的多级可变域分解方法和系统 |
CN102549599A (zh) * | 2009-09-25 | 2012-07-04 | 国际商业机器公司 | 用于生成并使用短长度虹膜代码的系统和方法 |
US20140161325A1 (en) * | 2012-12-10 | 2014-06-12 | Sri International | Iris biometric matching system |
US20150098629A1 (en) * | 2013-10-08 | 2015-04-09 | Sri International | Iris biometric recognition module and access control assembly |
CN105874472A (zh) * | 2014-02-21 | 2016-08-17 | 三星电子株式会社 | 具有虹膜颜色识别的多频带生物识别相机系统 |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62212781A (ja) * | 1986-03-14 | 1987-09-18 | Hitachi Ltd | 個人認証方式 |
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US5978494A (en) * | 1998-03-04 | 1999-11-02 | Sensar, Inc. | Method of selecting the best enroll image for personal identification |
JP2001167252A (ja) * | 1999-12-10 | 2001-06-22 | Oki Electric Ind Co Ltd | 眼画像作成方法、アイリス認証方法及びアイリス認証装置 |
JP3991042B2 (ja) | 2002-02-05 | 2007-10-17 | 松下電器産業株式会社 | 個人認証方法および個人認証装置 |
JP3586456B2 (ja) | 2002-02-05 | 2004-11-10 | 松下電器産業株式会社 | 個人認証方法および個人認証装置 |
KR20080106481A (ko) * | 2002-07-29 | 2008-12-05 | 이데시아 엘티디. | 전자 생체 신원 인식을 위한 방법 및 장치 |
JP2004206444A (ja) | 2002-12-25 | 2004-07-22 | Matsushita Electric Ind Co Ltd | 個人認証方法および虹彩認証装置 |
JP2007504562A (ja) | 2003-09-04 | 2007-03-01 | サーノフ コーポレーション | 1つの画像から虹彩認証を行う方法および装置 |
KR101019844B1 (ko) | 2004-11-08 | 2011-03-04 | 이데시아 엘티디. | 전기-생체 신원 인식 방법 및 장치 |
JP4634140B2 (ja) | 2004-12-28 | 2011-02-16 | 春雄 伊藤 | アイリス識別装置 |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US9658473B2 (en) | 2005-10-07 | 2017-05-23 | Percept Technologies Inc | Enhanced optical and perceptual digital eyewear |
JP2007156790A (ja) * | 2005-12-05 | 2007-06-21 | Hitachi Omron Terminal Solutions Corp | 複数種の生体情報による認証をおこなう認証技術 |
KR100749380B1 (ko) * | 2006-03-10 | 2007-08-16 | 연세대학교 산학협력단 | 암호화 생체인식시스템의 고유 생체코드 생성방법 |
KR100852629B1 (ko) * | 2006-06-02 | 2008-08-18 | 연세대학교 산학협력단 | 다초점 영상 시퀀스를 이용한 홍채인식 시스템 및 방법 |
WO2009016846A1 (ja) | 2007-08-02 | 2009-02-05 | Panasonic Corporation | 虹彩認証装置および虹彩認証システム |
WO2009029638A1 (en) * | 2007-08-27 | 2009-03-05 | Videntity Systems, Inc. | Iris recognition |
US20100202669A1 (en) | 2007-09-24 | 2010-08-12 | University Of Notre Dame Du Lac | Iris recognition using consistency information |
US20100014755A1 (en) * | 2008-07-21 | 2010-01-21 | Charles Lee Wilson | System and method for grid-based image segmentation and matching |
US20100232654A1 (en) | 2009-03-11 | 2010-09-16 | Harris Corporation | Method for reconstructing iris scans through novel inpainting techniques and mosaicing of partial collections |
WO2012073381A1 (ja) | 2010-12-03 | 2012-06-07 | 富士通株式会社 | 生体認証装置及び生体認証方法 |
US8184067B1 (en) * | 2011-07-20 | 2012-05-22 | Google Inc. | Nose bridge sensor |
US20130326613A1 (en) * | 2012-05-31 | 2013-12-05 | Gregory Peter Kochanski | Dynamic control of device unlocking security level |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
JP5642210B2 (ja) | 2013-02-04 | 2014-12-17 | インテル コーポレイション | 電子バイオメトリック識別認識のための方法及び装置 |
US9172692B2 (en) * | 2013-03-14 | 2015-10-27 | William M. Langley | Systems and methods for securely transferring authentication information between a user and an electronic resource |
US8966277B2 (en) | 2013-03-15 | 2015-02-24 | Mitsubishi Electric Research Laboratories, Inc. | Method for authenticating an encryption of biometric data |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9189686B2 (en) | 2013-12-23 | 2015-11-17 | King Fahd University Of Petroleum And Minerals | Apparatus and method for iris image analysis |
CN104809380B (zh) * | 2014-01-24 | 2018-10-30 | 北京奇虎科技有限公司 | 头戴式智能设备及其使用者的身份一致性的判断方法 |
AU2015297035B2 (en) | 2014-05-09 | 2018-06-28 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
CA3186147A1 (en) * | 2014-08-28 | 2016-02-28 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
KR102255351B1 (ko) * | 2014-09-11 | 2021-05-24 | 삼성전자주식회사 | 홍채 인식 방법 및 장치 |
US9836663B2 (en) * | 2015-03-05 | 2017-12-05 | Samsung Electronics Co., Ltd. | User authenticating method and head mounted device supporting the same |
DE102016002792B4 (de) * | 2015-03-09 | 2022-04-28 | Hid Global Corporation | Biometrie-Geheimnis-Bindungsschema mit verbessertem Datenschutz |
NZ773843A (en) | 2015-03-16 | 2022-07-01 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
US9495590B1 (en) * | 2015-04-23 | 2016-11-15 | Global Bionic Optics, Ltd. | Extended depth-of-field biometric system |
US20160366317A1 (en) * | 2015-06-12 | 2016-12-15 | Delta ID Inc. | Apparatuses and methods for image based biometric recognition |
FR3037422B1 (fr) * | 2015-06-15 | 2017-06-23 | Morpho | Procede d'identification et/ou d'authentification d'un individu par reconnaissance d'iris |
JP6262177B2 (ja) | 2015-09-03 | 2018-01-17 | 株式会社東芝 | ウェアラブル端末、方法及びシステム |
EP3975121A1 (en) | 2015-09-25 | 2022-03-30 | Magic Leap, Inc. | Method of detecting a shape present in a scene |
JP6831840B2 (ja) | 2015-10-20 | 2021-02-17 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元空間内の仮想オブジェクトの選択 |
KR102279550B1 (ko) * | 2017-01-23 | 2021-07-20 | 삼성전자주식회사 | 홍채를 위한 합성 코드를 이용한 인증 방법 및 인증 장치 |
KR102528488B1 (ko) | 2017-03-24 | 2023-05-02 | 매직 립, 인코포레이티드 | 홍채 코드들의 축적 및 신뢰도 할당 |
-
2018
- 2018-03-23 KR KR1020197031320A patent/KR102528488B1/ko active IP Right Grant
- 2018-03-23 EP EP18771354.0A patent/EP3602399B1/en active Active
- 2018-03-23 KR KR1020237014211A patent/KR102726906B1/ko active IP Right Grant
- 2018-03-23 WO PCT/US2018/024215 patent/WO2018176015A1/en active Application Filing
- 2018-03-23 AU AU2018237688A patent/AU2018237688B2/en not_active Ceased
- 2018-03-23 CA CA3057678A patent/CA3057678A1/en active Pending
- 2018-03-23 CN CN202311552501.6A patent/CN117576773A/zh active Pending
- 2018-03-23 IL IL269432A patent/IL269432B2/en unknown
- 2018-03-23 CN CN201880034222.1A patent/CN110692062B/zh active Active
- 2018-03-23 JP JP2019551609A patent/JP7125950B2/ja active Active
- 2018-03-23 US US15/934,941 patent/US11055530B2/en active Active
- 2018-03-23 IL IL303078A patent/IL303078A/en unknown
- 2018-03-23 EP EP22194043.0A patent/EP4120127B1/en active Active
-
2021
- 2021-05-18 US US17/323,952 patent/US11295551B2/en active Active
-
2022
- 2022-05-09 JP JP2022077003A patent/JP7342191B2/ja active Active
- 2022-11-17 AU AU2022271466A patent/AU2022271466A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101073090A (zh) * | 2004-11-22 | 2007-11-14 | 虹膜技术公司 | 用于虹膜识别的多级可变域分解方法和系统 |
CN102549599A (zh) * | 2009-09-25 | 2012-07-04 | 国际商业机器公司 | 用于生成并使用短长度虹膜代码的系统和方法 |
US20140161325A1 (en) * | 2012-12-10 | 2014-06-12 | Sri International | Iris biometric matching system |
US20150098629A1 (en) * | 2013-10-08 | 2015-04-09 | Sri International | Iris biometric recognition module and access control assembly |
CN105874472A (zh) * | 2014-02-21 | 2016-08-17 | 三星电子株式会社 | 具有虹膜颜色识别的多频带生物识别相机系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230393388A1 (en) * | 2022-06-02 | 2023-12-07 | Microsoft Technology Licensing, Llc | Microled based invisible illumination for eye tracking |
US12072487B2 (en) * | 2022-06-02 | 2024-08-27 | Microsoft Technology Licensing, Llc | Method for manufacturing a microLED based illumination structure comprising infrared micro light emitting devices |
WO2024177832A1 (en) * | 2023-02-20 | 2024-08-29 | Snap Inc. | Recreating peripheral vision on a wearable device |
Also Published As
Publication number | Publication date |
---|---|
AU2018237688B2 (en) | 2022-08-25 |
EP3602399A4 (en) | 2020-03-25 |
WO2018176015A1 (en) | 2018-09-27 |
JP2020512634A (ja) | 2020-04-23 |
IL269432B2 (en) | 2023-10-01 |
AU2022271466A1 (en) | 2022-12-22 |
CN110692062B (zh) | 2023-12-08 |
US20180276467A1 (en) | 2018-09-27 |
IL269432A (en) | 2019-11-28 |
US11055530B2 (en) | 2021-07-06 |
US11295551B2 (en) | 2022-04-05 |
JP7125950B2 (ja) | 2022-08-25 |
AU2018237688A1 (en) | 2019-10-10 |
EP3602399A1 (en) | 2020-02-05 |
KR102528488B1 (ko) | 2023-05-02 |
JP7342191B2 (ja) | 2023-09-11 |
EP4120127A1 (en) | 2023-01-18 |
KR20190133204A (ko) | 2019-12-02 |
EP4120127B1 (en) | 2025-02-12 |
KR102726906B1 (ko) | 2024-11-05 |
IL303078A (en) | 2023-07-01 |
IL269432B1 (en) | 2023-06-01 |
CN117576773A (zh) | 2024-02-20 |
EP3602399B1 (en) | 2022-10-05 |
KR20230062669A (ko) | 2023-05-09 |
CA3057678A1 (en) | 2018-09-27 |
JP2022105185A (ja) | 2022-07-12 |
US20210342583A1 (en) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7342191B2 (ja) | 虹彩コードの蓄積および信頼性割当 | |
EP3523782B1 (en) | Periocular test for mixed reality calibration | |
US10831268B1 (en) | Systems and methods for using eye tracking to improve user interactions with objects in artificial reality | |
US11656693B2 (en) | Multimodal kinematic template matching and regression modeling for ray pointing prediction in virtual reality | |
US20210365533A1 (en) | Systems and methods for authenticating a user of a head-mounted display | |
US11789544B2 (en) | Systems and methods for communicating recognition-model uncertainty to users | |
EP4330796A1 (en) | Handheld controller with thumb pressure sensing | |
US20240256031A1 (en) | Systems and methods for gaze-assisted gesture control | |
WO2024159200A1 (en) | Systems and methods for gaze-assisted gesture control | |
EP4388395A1 (en) | Systems and methods for communicating model uncertainty to users | |
CN118119915A (zh) | 用于向用户传达模型不确定性的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |