CN110852160B - 以图像为基准的生物识别系统及计算机实施方法 - Google Patents
以图像为基准的生物识别系统及计算机实施方法 Download PDFInfo
- Publication number
- CN110852160B CN110852160B CN201910948427.7A CN201910948427A CN110852160B CN 110852160 B CN110852160 B CN 110852160B CN 201910948427 A CN201910948427 A CN 201910948427A CN 110852160 B CN110852160 B CN 110852160B
- Authority
- CN
- China
- Prior art keywords
- region
- periocular
- image
- ocular
- image region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 230000001815 facial effect Effects 0.000 claims abstract description 45
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 16
- 238000013450 outlier detection Methods 0.000 claims description 12
- 210000003786 sclera Anatomy 0.000 claims description 11
- 238000012795 verification Methods 0.000 description 30
- 238000013442 quality metrics Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 19
- 210000004204 blood vessel Anatomy 0.000 description 17
- 230000002792 vascular Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 13
- 230000000750 progressive effect Effects 0.000 description 11
- 239000013598 vector Substances 0.000 description 11
- 238000004590 computer program Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 9
- 230000009466 transformation Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 210000000744 eyelid Anatomy 0.000 description 7
- 235000008694 Humulus lupulus Nutrition 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 239000010410 layer Substances 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000000513 principal component analysis Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004313 glare Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 241001290864 Schoenoplectus Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000000540 analysis of variance Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000000795 conjunctiva Anatomy 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000004064 recycling Methods 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 238000007665 sagging Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 102000008186 Collagen Human genes 0.000 description 1
- 108010035532 Collagen Proteins 0.000 description 1
- ODCKICSDIPVTRM-UHFFFAOYSA-N [4-[2-hydroxy-3-(propan-2-ylazaniumyl)propoxy]naphthalen-1-yl] sulfate Chemical compound C1=CC=C2C(OCC(O)CNC(C)C)=CC=C(OS(O)(=O)=O)C2=C1 ODCKICSDIPVTRM-UHFFFAOYSA-N 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 229920001436 collagen Polymers 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 210000004177 elastic tissue Anatomy 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000011241 protective layer Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本文描述了以图像为基准的生物识别系统及计算机实施方法,所述方法包括:接收用户的面部区域的图像,所述面部区域包含眼睛及围绕所述眼睛的区域;处理所述图像以界定所述面部区域的所述图像中包含所述眼睛的至少一部分的眼部图像区域,其中所述眼睛的所述至少一部分包含所述眼睛的巩膜区域;界定所述面部区域的所述图像中各自包含围绕所述眼睛的所述区域的至少一部分的多个眼周图像区域,其中每个所述眼周图像区域的大小不同于所述眼部图像区域;基于所述多个眼周图像区域中的至少一者及所述眼部图像区域来计算一或多个生物识别匹配分数;以及基于所述一或多个生物识别匹配分数,将所述面部区域的所述图像指定为真实或不真实。
Description
分案说明
本申请是申请日为2016年9月9日、申请号为PCT/US2016/050999的PCT国际申请进入中国(进入日为2018年4月16日、申请号为201680060614.6、发明名称为“图像及特征质量、用于眼部血管及面部识别的图像增强及特征提取及针对生物识别系统融合眼部血管与面部及/或子面部信息”)的发明专利申请的分案申请。
相关申请案的交叉参考
本申请案主张2015年9月11日申请且标题为“图像增强、质量度量、特征提取、信息融合、姿态估计及补偿、及生物识别系统的模板更新(Image Enhancement,QualityMetrics,Feature Extraction,Information Fusion,Pose Estimation andCompensation,and Template Updates for Biometric Systems)”的第62/217,660号美国临时专利申请案的优先权及权益,所述美国专利申请案的全部内容以引用方式并入本文中。
背景技术
本发明涉及生物识别认证,且更具体来说,本发明涉及用于图像增强、质量度量、特征提取及针对以多区域(子眼部到面部)或其它图像为基础的生物识别系统的信息融合的系统及方法。
生物识别系统可用以认证一个人的身份以同意或拒绝对资源的存取。举例来说,图像扫描仪可由生物识别安全系统使用以基于个人的面部上(例如,个人的眼睛及其周围区域中)的独特结构来识别一个人。例如在注册过程期间捕获的数据的从一个人捕获的生物识别数据可存储为用以稍后验证个人的身份的模板。然而,生物识别扫描技术将获益于使用眼周特征来取代用于注册及验证的眼部特征或使用除用于注册及验证的眼部特征之外的眼周特征的改进技术。
发明内容
揭示与可应用于眼部血管、眼周及面部区域的生物识别技术有关的系统及方法。一方面,一种计算机实施方法包括以下步骤:接收的用户的面部区域的图像,所述面部区域包含眼睛及围绕所述眼睛的区域;处理所述图像以界定包含所述面部区域的所述图像中的所述眼睛的至少一部分的眼部图像区域;界定多个各自包含围绕所述面部区域的所述图像中的所述眼睛的所述区域的至少一部分的眼周图像区域,其中基于所界定的眼部区域的尺寸来界定所述眼周区域;基于所述眼部图像区域及所述眼周区域的至少一者来计算一或多个生物识别匹配分数;及基于所述一或多个生物识别匹配分数将所述面部区域的所述图像指定为真实或不真实。
在一个实施方案中,所述多个眼周图像区域包括至少四个眼周图像区域。所述至少四个眼周图像区域可包括安置于所述眼部图像区域下方的眼周图像区域、安置于所述眼部图像区域右边的眼周图像区域、安置于所述眼部图像区域左边的眼周图像区域及安置于所述眼部图像区域上方的眼周图像区域。
界定所述多个眼周图像区域可包括界定安置于所述眼部图像区域下方的下眼周图像区域,所述下眼周图像区域具有基本上等于所述眼部图像区域宽度的宽度的宽度及在所述眼部图像区域的高度的10%到300%的范围内的高度。界定所述多个眼周图像区域还可包括界定安置于所述眼部图像区域右边的右眼周图像区域,所述右眼周图像区域具有在所述眼部图像区域的宽度的10%到80%的范围内的宽度及所述眼部图像区域的高度的120%到550%的高度。界定所述多个眼周图像区域还可进一步包括界定安置于所述眼部图像区域左边的左眼周图像区域,所述左眼周图像区域具有在所述眼部图像区域的宽度的10%到50%的范围内的宽度及所述眼部图像区域的高度的120%到550%的高度。界定所述多个眼周图像区域还可包括界定安置于所述眼部图像区域上方的上眼周图像区域,所述上眼周图像区域具有基本上等于所述眼部图像区域宽度的宽度的宽度及在所述眼部图像区域的高度的10%到150%的范围内的高度。
在另一实施方案中,计算所述一或多个生物识别匹配分数包括:基于所述眼部图像区域及眼部注册模板计算第一生物识别匹配分数;及响应于确定所述第一生物识别匹配分数不满足第一匹配阈值,基于所述眼部图像区域、所述眼周图像区域的第一者、所述眼部注册模板及眼周注册模板计算第二生物识别匹配分数。计算所述一或多个生物识别匹配分数可进一步包括,响应于确定所述第二生物识别匹配分数不满足第二匹配阈值,通过在一或多个另外生物识别匹配分数中反复包含所述眼周图像区域的额外者直到特定另一生物识别匹配分数满足对应匹配阈值或无可用于包含的另外眼周图像区域来计算所述另外生物识别匹配分数。可至少基于辨别力及/或质量来分级所述多个眼周图像区域,且可基于所述额外眼周图像区域的相应分级反复包含所述额外眼周图像区域。可基于从所述眼周图像区域导出的一或多个面部特征将所述多个眼周图像区域的一或多者分为子区域,且可基于所述额外眼周图像区域的集群重要性或相应分级反复包含所述额外眼周图像区域。
在另一实施方案中,计算所述一或多个生物识别匹配分数包括:基于所述眼部图像区域及注册模板识别第一组匹配点对;及基于所述眼周图像区域的至少一者及所述注册模板识别第二组匹配点对。计算所述一或多个生物识别匹配分数可进一步包括:通过将所述第一及第二组匹配点对的组合输入到离群值检测算法而确定一或多个内围层匹配点;确定对应于所述眼部图像区域的若干内围层匹配点满足最小眼部内围层计数;及至少部分地基于所述内围层匹配点来计算特定生物识别匹配分数。所述最小眼部内围层计数可等于3。
在又一实施方案中,计算所述一或多个生物识别匹配分数进一步包括:通过将所述第一组匹配点对输入到离群值检测算法而确定一或多个第一内围层匹配点;通过将所述第二组匹配点对输入到离群值检测算法而确定一或多个第二内围层匹配点;及至少部分地基于离群值检测算法的输出使用所述第一及第二内围层匹配点的组合作为输入来计算特定生物识别匹配分数。计算所述一或多个生物识别匹配分数可进一步包括确定从所述离群值检测算法的所述输出获得的对应于所述眼部图像区域的若干内围层匹配点满足最小眼部内围层计数。所述最小眼部内围层计数可等于3。
另一方面,一种计算机实施方法包括以下步骤:接收用户的面部区域的图像,所述面部区域包含眼睛及围绕所述眼睛的区域;处理所述图像以:(i)界定包含所述面部区域的所述图像中的所述眼睛的至少一部分的眼部图像区域;及(ii)界定一或多个各自包含围绕所述面部区域的所述图像中的所述眼睛的所述区域的至少一部分的眼周图像区域;识别所述眼部图像区域及所述一或多个眼周图像区域的至少一者中的多个所关注的点;针对所关注的每一点,基于多个图案化直方图特征描述符的组合以产生特征描述符;及将所产生的特征描述符存储在生物识别模板中。
在一个实施方案中,处理所述图像包括使用局部梯度加柏模式(LGGP)增强所述图像的至少一部分。使用LGGP增强所述图像的至少一部分可包括:以多个角度中的每一者计算所述图像的所述至少一部分的加柏相位图像;聚集所计算的加柏相位图像以形成组合加柏相位图像;以多个角度的每一者计算所述组合加柏相位图像的局部梯度;及保持每一局部梯度的最大值以形成增强图像。
特定图案化直方图特征描述符可包括扩展多半径局部二进制模式的图案化直方图(PH-EMR-LBP)、扩展多半径中心对称局部二进制模式的图案化直方图(PH-EMR-CSLBP)或扩展多半径局部三进制模式的图案化直方图(PH-EMR-LTP)。产生所关注的特定点的所述特征描述符可包括通过以下步骤产生PH-EMR-LBP特征描述符:界定包括所关注的所述特定点的图像区域;针对所述图像区域中的每一像素计算多个局部二进制模式(LBP)代码以形成多半径LBP(MR-LBP)图像;将所述MR-LBP图像分为多个子区域;导出包括每一子区域内的每一MR-LBP位位置的频率的多个直方图;及组合所述多个直方图以形成所述PH-EMR-LBP特征描述符。产生所关注的特定点的所述特征描述符包括通过以下步骤产生PH-EMR-CSLBP特征描述符:界定包括所关注的所述特定点的图像区域;针对所述图像区域中的每一像素计算多个中心对称局部二进制模式(CSLBP)代码以形成多半径CSLBP(MR-CSLBP)图像;将所述MR-LBP图像分为多个子区域;导出包括每一子区域内的每一MR-CSLBP位位置的频率的多个直方图;及组合所述多个直方图以形成所述PH-EMR-CSLBP特征描述符。产生所关注的特定点的所述特征描述符可包括通过以下步骤产生PH-EMR-CSLBP特征描述符:界定包括所关注的所述特定点的图像区域;针对所述图像区域中的每一像素计算多个局部三进制模式(LTP)代码以形成多半径LTP(MR-LTP)图像;将所述MR-LTP图像分为多个子区域;导出包括每一子区域内的每一MR-LTP位位置的频率的多个直方图;及组合所述多个直方图以形成所述PH-EMR-LTP特征描述符。
在另一实施方案中,产生所关注的特定点的所述特征描述符包括:计算所关注的所述特定点的PH-EMR-LBP特征描述符、PH-EMR-CSLBP特征描述符及PH-EMR-LTP特征描述符;及组合所述PH-EMR-LBP特征描述符、PH-EMR-CSLBP特征描述符及PH-EMR-LTP特征描述符以形成组合特征描述符。产生所关注的特定点的所述特征描述符可进一步包括将方差分析应用于所述组合特征描述符以形成包括来自所述组合特征描述符的特征的子集的顶部特征描述符。产生所关注的特定点的所述特征描述符可进一步包括在所述顶部特征描述符上执行降维以形成所关注的所述特定点的所述特征描述符。
在又一实施方案中,在产生特定图案化直方图特征描述符时,使用由具有或不具有角的方形界定的邻域来计算局部二进制模式特征描述符或局部三进制模式特征描述符。
另一方面,一种计算机实施方法包括以下步骤:接收用户的面部区域的图像,所述面部区域包含眼睛及围绕所述眼睛的区域;界定包含所述面部区域的所述图像中的所述眼睛的至少一部分的眼部图像区域;界定一或多个各自包含围绕所述面部区域的所述图像中的所述眼睛的所述区域的至少一部分的眼周图像区域;识别所述眼部图像区域及所述一或多个眼周图像区域的至少一者中的多个所关注的点;针对所关注的每一点,计算围绕所关注的所述点的纹理的区域值;及基于所关注的所述点及所计算的相应区域值来确定所述面部区域的所述图像的至少一部分的至少一个质量度量。
在一个实施方案中,计算所关注的特定点的所述区域值包括:计算所关注的所述特定点的方形邻域(BP)中的至少一个局部二进制模式;及计算从所关注的所述特定点偏移的一或多个点的至少一个BP。计算所关注的所述特定点的所述区域值可进一步包括将所述区域值设置为针对所关注的所述特定点及多个所述偏移点计算的区域值的平均值。计算所关注的所述特定点的至少一个BP可包括针对所关注的所述特定点计算多个各自具有不同邻域的BP,且计算所述偏移点的至少一个BP可包括针对每一偏移点计算多个各自具有不同邻域的BP。计算所关注的特定点或偏移点的所述多个BP可包括:将所述多个BP减少为噪声二进制模式(NBP);及从所述NBP产生通用二进制模式(genBP)。计算所关注的特定点或偏移点的所述多个BP可进一步包括:从所述genBP产生加权模式H;及如下计算所关注的所述特定点或偏移点的区域值:
其中L包括所述genBP中的连续零位的最大长度。所述偏移点可包括从所关注的所述特定点在不同方向上均匀地移位的多个像素位置。
在另一实施方案中,确定所述质量度量包括:基于所关注的所述点的相应区域值产生所关注的所述点的有序列表;及计算所述有序列表中的所关注的连续点之间的距离。确定所述质量度量可进一步包括如下计算所述质量度量:
其中p包括所关注的点的数目,sn包括针对所关注的点n计算的区域值,swn包括所关注的点n的加权指数,及dwn包括对应于所述有序列表中的点n的所述距离的权重。
在另一实施方案中,所述面部区域的所述图像的所述至少一部分包括所述眼部区域或所述眼周区域的至少一者。所述方法可进一步包括基于分别针对所述眼周图像区域的每一者计算的相应质量度量来分级所述眼周图像区域。所述方法可进一步包括基于每一眼周图像区域的相应辨别力的至少一者来分级所述眼周图像区域。所述方法可进一步包括至少部分地基于所述相应质量度量及/或所述眼周图像区域的辨别力分级而在渐进生物识别匹配器中使用所述眼周图像区域。
在又一实施方案中,所述方法进一步包括:确定所述眼部或眼周图像区域的第一者与所述眼部或眼周图像区域的第二者之间的所计算的质量度量中的差异超过阈值;及基于所计算的质量度量中的所确定的差异来指示欺骗的可能存在。
上述的其它方面包含对应系统及非暂时计算机可读媒体。附图及以下描述中陈述本说明书中所描述的标的物的一或多个实施方案的细节。将从描述、图式及权利要求书变得明白标的物的其它特征、方面及优点。
附图说明
在图式中,相同参考符号大体上是指在不同视图的相同部件。另外,图式是为强化说明实施方案的原理之用,不一定按比例绘制。在以下描述中,参考以下图式描述各种实施方案,其中:
图1描绘根据实施方案的用于产生眼部及眼周注册模板的实例方法
图2A及2B描绘根据实施方案的用于界定眼部及眼周区域及对应面部图像的实例方法。
图3描绘根据实施方案的实例修改局部二进制模式(genBP)过程。
图4描绘根据实施方案的用于与注册及验证阶段的生物识别渐进匹配的实例技术。
图5描绘根据实施方案的用于执行生物识别扫描及分析的实例系统。
具体实施方式
眼睛的眼白包含复杂图案(主要归因于血管结构),其不仅易于可见及可扫描,而且对于每一个人来说是唯一的。在一些情况中,其它非血管构造也是可见且可由生物识别匹配算法考虑。因此,眼睛的眼白上所见的这些可见结构(主要归因于结膜及外巩膜的血管分布)可被扫描及有利地用作为生物识别。此生物识别可用以认证特定个人或从较大组候选者识别未知个人。举例来说,2013年2月5日发布且标题为“生物识别认证的纹理特征(Texture Features for Biometric Authentication)”的第8,369,595号美国专利及2016年7月12日发布且标题为“生物识别认证的特征提取及匹配(Feature Extraction andMatching for Biometric Authentication)”的第9,390,327号美国专利中描述了用于成像及图案匹配眼睛的眼白中的血管及用于血管点检测的解决方案的实施方案,第8,369,595号美国专利及第9,390,327号美国专利的全部内容以引用方式并入本文中。此处描述用于在(例如)需要额外信息以形成更准确分析的情况下将眼睛的眼白外部的可见非眼部血管结构(例如眼周或部分或甚至完整面部或其它可见可识别图案)渐进包含到眼部血管生物识别匹配方案中的方法以将稳健性添加到这些及其它生物识别验证技术。
眼部特征是产生于角膜缘的外部所见及以眼睑为界的图案的特征,其主要归因于眼睛的眼白上所见的血管图案。此后,此类特征在本文中可互换地称为“眼部”或“眼部血管”。眼睛的眼白具有若干层。巩膜是含有胶原及弹性纤维的眼睛的不透明、纤维状保护层。巩膜由外巩膜覆盖,其具有大量通过外巩膜及在外巩膜上流动的特定血管及静脉。外巩膜由眼球结膜覆盖,其是与眼睑或当眼睑睁开时与环境介接的透明薄膜,其也含有唯一及丰富的血管结构。血管流动通过眼睛的眼白的所有这些层且可在眼睛的图像中被检测到。眼睛也包含睫毛且有时包含有时使图像中的眼睛的眼白的部分模糊的下垂眼睑。
“眼周”是指围绕眼睛(位于眼睑边缘外部及在一些例子中邻接眼睑边缘)的面部的眼前区域,其经纹理化且可用于生物识别应用。眼周区域可包含一或多个可、但非必要连续及可相对于形状及大小而呈各种形式的区域。虽然眼周区域不具有难以界定的边界,但标准化所关注的区域可使配准问题最小化,进一步改进生物识别系统的准确度。可使用来自用户面部的特定可测量值(例如眼角之间的距离、虹膜的半径、眼部间距离及/或所导出的眼剪切图片的宽度及高度)(同时使用眼睛检测算法)来实现此标准化。在用户认证期间,捕获用户的眼睛及眼周区域的一或多个数字图像,从所捕获的图像或若干图像产生一或多个验证模板且用户的身份可通过匹配如注册模板及验证模板中所表示的对应眼部及眼周结构来验证。
在其它实施方案中,除恰围绕眼睛的区域之外或替代恰围绕眼睛的区域,可使用延伸超出眼周区域的面部的额外区域。举例来说,当观察到沉重面部表情时,鼻子上及/或周围或面部上/周围的一或多个区域可被视为扩展眼周区域。在一个实施方案中,面部特征可补充基于眼睛的生物识别匹配器的眼部特征。在另一实施方案中,由基于眼睛的生物识别匹配器使用的眼部特征由眼周及扩展面部特征两者补充。在另一实施方案中,除恰围绕眼睛的区域之外或替代恰围绕眼睛的区域,可使用整个面部。面部可补充基于眼睛的生物识别匹配器的眼部特征。眼周区域及面部区域两者可补充由基于眼睛的生物识别匹配器使用的眼部特征。
在各种其它实施方案中,也可测量例如眼周区域的肤色的其它信息且用作为软性生物识别。可使用图像的不同色带(例如正规化红色、绿色及蓝色(RGB)通道)的强度值的直方图来估计肤色。在验证期间,注册模板的直方图信息可用以当注册的直方图与验证图像之间的距离高于阈值时停止验证过程。
在一个实施方案中,可通过识别最显著颜色的集群化技术来估计肤色。举一个实例,将眼周区域的RGB像素变换为Lab色彩空间且集群为N数目个种类。最优N可由AIC(赤池信息准则)或BIC(贝氏信息准则)确定。接着,基于这些集群的出现以升序来存储这些集群,且最前三个集群是使用预定义肤色来分成一组。可使用距离测量及/或相关性测量来确定最接近的肤色。在一个实施方案中,距离测量是欧几里德距离,尽管考虑其它距离测量。接着,如果注册与验证图像之间的距离及/或相关性高于阈值,那么可停止验证过程。相同过程可应用于图像的其它彩色部分(例如虹膜)。
图1描绘用于产生眼部及眼周注册模板的实例方法。在步骤102中,使用可与由待认证的用户存取的装置(例如,智能电话、智能手表、智能眼镜、笔记本计算机、平板计算机等等)相关联的图像传感器(例如,摄像机),以捕获用户的面部区域的一或多个图像。通过说明,摄像机可为数字摄像机、三维(3D)摄像机、光场传感器及/或近红外光传感器,或其它单色及/或多光谱成像传感器。图像可包含一或多个眼部区域(界定用户的眼睛区域的区域)及/或一或多个眼周区域,以及(在一些例子中)其它面部区域。可在静止模式或视频模式或静止模式及视频模式的组合中捕获图像。可以各种波长来捕获图像。在一些实施方案中,提示(通过视觉或可听或触觉反馈)用户移动到离装置更近/更远以触发用于发现眼睛及/或面部的最优距离。
在步骤104中,识别初始所关注的区域(ROI),例如,可定位一或两个眼睛。在各种不同前视眼睛图像上训练的Viola-Jones算法或类似学习算法可用于此目的。在另一实施方案中,可使用在各种不同掠射眼睛图像上训练的Viola-Jones算法。其后,一旦检测到所选择的视线方向,例如使用Haar滤波器的算法的视线跟踪算法可被用以量化视线的量以获取一或多个图像。
一旦在所捕获的图像中展示的面部上局部化所述初始ROI,可执行额外计算以获得图像上的最终ROI。通常,裁剪最终ROI以获得一或多个眼睛的RGB及/或近红外光图像。因此,如本文所使用,“图像”或“所捕获的图像”也可指最终ROI的所裁剪的图像。
参考图1,在眼部及眼周阶段中,在图像增强子阶段106及像质量子阶段108中预处理一或多个平均或以其它方式增强或自然捕获的图像(其可为注册图像或验证图像),且在特征提取子阶段110中提取来自经预处理的图像的特征以产生一或多个眼部及眼周模板。预处理子阶段106及108可包含图像增强及图像质量技术,如下文进一步解释。特征提取子阶段110可包含关注点检测及局部描述符提取,其在下文中详细描述。在眼部及眼周阶段中的子阶段106、108及110期间执行的操作不需要相同。确切来说,考虑眼部及眼周区域的特定特征的不同操作可用于那些相应阶段中。在存储之前,在步骤112中,可加密或以其它方式来保护注册眼部及/或眼周模板。
眼周边界
现参考图2A及2B,可使用各种方法来捕获眼周区域。在获取用户的面部的图像(步骤200)时,检测到一或多个眼睛区域(步骤202)。基于步骤202中所识别的眼剪切图片的大小,可重新计算眼睛区域大小(步骤204)。进入眼部阶段,在一个实施方案中,积分微分算法、霍夫(Hough)圆或海森二进制大型对象(Hessian blob)检测器用以检测虹膜边界(步骤208中的虹膜区域的分段)。类似地,一种基于加柏滤波的算法可用以检测上眼睑及下眼睑,且在移除虹膜区域之后可进一步分离眼睛的眼白(步骤206中的巩膜区域的分段)。可在从所捕获的图像减去眼睛的眼白及虹膜区域两者之后导出眼周区域(步骤210)。在一些实施方案中,基于色彩的方法用以分段上文所提及的区域。
在一个实施方案中,如图2A及2B中的眼周区域阶段212所展示,具有宽度W x高度H大小(其中W及H分别是水平方向及垂直方向上的像素的数目)的最终眼部ROI周围的眼周区域可如下文所描述那样界定。眼部ROI不一定是矩形形状;确切来说,ROI可呈类似于眼睛的形状的形式,如图2B中所展示,且W及H可被分别界定为涵盖眼部ROI的定界框的宽度及高度。可存在各种数目的区域;然而,下文所描述的实施方案包含四个由辨别力分级的眼周区域(1到4),其基本上是指所述区域在生物识别匹配操作中的有用程度。更具体来说,眼周区域1表示具有比区域2更具辨别性或歧异性的特性的面部区域,区域2具有相较于区域3的更大辨别力等等。考虑各种眼周区域大小(此处,由具有宽度W x高度H的定界框界定)。基于大规模测试哪些眼周区域具有用于执行生物识别匹配操作的足够辨别力以实验性地确定本文所揭示的眼周区域的范围及值。如下文所使用,术语“基本上相等”意味着等于特定值或在所述值的+/-10%内。
在一个实施方案中,四个眼周区域界定如下,其中W及H分别是指眼部区域的宽度及高度:
·区域1:
○宽度基本上等于W。
○高度在眼部区域的眼剪切图片下方0.1*H到3*H(含)的范围内。在一个实施方案中,高度基本上等于0.3*H。
·区域2:
○宽度在0.1*W到0.8*W(含)的范围内。在一个实施方案中,宽度基本上等于0.2*W。
○高度在1.2*H(眼部区域的眼剪切图片上方0.1*H及眼剪切图片下方0.1*H)到5.5*H(眼剪切图片上方1.5*H及眼剪切图片下方3*H)(含)的范围内。在一个实施方案中,高度基本上等于1.45*H(眼剪切图片上方0.15*H及眼剪切图片下方0.3*H)。
·区域3:
○宽度在0.1*W到0.5*W(含)的范围内。在一个实施方案中,宽度基本上等于0.15*W。
○高度在1.2*H(眼部区域的眼剪切图片上方0.1*H及眼剪切图片下方0.1*H)到5.5*H(眼剪切图片上方1.5*H及眼剪切图片下方3*H)(含)的范围内。在一个实施方案中,高度基本上等于1.45*H(眼剪切图片上方0.15*H及眼剪切图片下方0.3*H)。
·区域4:
○宽度基本上等于W。
○高度在眼部区域的眼剪切图片上方0.1*H到1.5*H(含)的范围内。在一个实施方案中,高度基本上等于0.15*H。
可基于每个个人、特定群体或所有用户的所述区域的可微分性及可靠性使用其它非矩形或甚至非连续眼周(或其它面部)子区域。在一些实施方案中,当经常观察到下垂眼睑时,具有WxH大小的紧凑的剪切图片周围的最优眼周区域可界定如下:
·区域2及3的宽度基本上分别等于0.2*W及0.15*W。
·区域2及3的高度基本上各自等于1.45*H(其从眼剪切图片的顶部开始)。
·区域1及4的宽度基本上等于W。
·区域1及4的高度基本上分别等于0.45*H及0.1*H。
如上文所解释,各种区域的高度及宽度的值的范围相同。考虑其它眼周区域大小。基于成像传感器分辨率而改变W及H的值。
图像增强
现将解释例如图1的步骤106中执行的那些图像增强技术。从图像传感器捕获的图像可能具有变化质量,这归因于(例如)曝光量及运动模糊假影。在步骤106(其是任选)中,可配准(即,空间上对准)及平均化若干图像以减少图像噪声。在一些实施方案中,图像相关性方法用以测量所获得的图像之间的相异性以对准用于平均化的图像及废弃最不同(例如,归因于运动模糊或眼睛闪光)且因此不适合于配准及平均化的图像。举例来说,在配准之后可平均化具有最小运动的n个连续帧。经平均化的连续帧的数目(无视上文所解释的偶尔经舍弃的帧)可取决于帧速率、给定设置下的图像传感器的噪声级、其中捕获图像的环境条件。
在一个实例中,如果在图像获取期间周围光大于800流明,那么配准及平均化两个连续帧。如果周围光在450到800流明的范围内,那么配准及平均化3个连续帧。如果周围光在0到450流明的范围内,那么配准及平均化4个连续帧。如果所关注的区域足够明亮以使可以给定设置忽略传感器噪声,那么基于周围光选择帧的数目的其它组合对于眼睛的眼白、眼周区域及面部(包含非平均化选项)是可行的。
在另一实施方案中,用以平均化的帧的数目也可适应于跨越连续帧的运动假影。举例来说,可归因于改变表情、眼睛及身体移动及/或环境像差而引起运动。可使用帧之间的相关性、帧之间的相互信息等等来测量运动。在一个实施方案中,用以平均化的帧的数目依赖于环境照明及观察到的运动假影两者。
在一些实施方案中,图像增强算法包含自商图像或SQI。SQI图像的简单版本(Q)可表示如下:
其中是I的平滑版本,且F是平滑核。SQI方法因其照明不变性而众所周知,其对于归因于阴影及其它照明条件而具有可变照明的眼周区域有用。可使用例如韦伯线性描述符(WLD)、相干性扩散滤波器、Atrous小波、视网膜皮层(及其变体)、单个或多帧双边滤波、深度学习方法及其它稀疏增强的其它图像增强。
在一个实施方案中,局部梯度加柏模式(LGGP)可用作为用于特定图像或图像区域的图像增强技术,如以下步骤中所描述。
步骤1:使用偶数及奇数加柏响应如下计算图像区域的绿色通道的加柏的相位:
步骤1a:类似于带通滤波器的2D偶数加柏核是由2D高斯包络调制的余弦函数,且2D奇数加柏是由2D高斯包络调制的正弦函数。偶数及奇数加柏核可导出如下:
可通过以下坐标变换来实现加柏核的任何尺度及定向:
其中σx及σy界定高斯包络分别沿x轴及y轴的散布,f是调制正弦或余弦的频率,及是核的定向。在一个实施方案中,频率设置为6且高斯沿x轴及y轴的散布设置为2.5。在一个实施方案中,定向的选择修改为6,从0到5π/6变化,各自隔开π/6个弧度。
步骤1b:如下计算加柏图像的相位:
步骤2:聚集以各种定向的加柏响应的相位(图像)以形成输出图像。三种用于实现此的实例方法是:(1)保持跨越所有定向的给定位置(x,y)中的像素的强度的最大值;(2)将给定位置(x,y)中的像素的强度设置为所述特定位置中的跨越所有定向的响应的加权平均值;及(3)将跨越所有定向的给定位置(x,y)中的像素的强度的最大值乘以原始图像,接着正规化。
步骤3:接着,针对经聚集的响应计算四个方向(0、45、90及135度)中的局部梯度且保持最大梯度值以形成输出图像。
在一个实施方案中,在上述增强技术之前,可使用例如使用灰色世界算法的白平衡色彩正规化。
在一个实施方案中,增强图像的额外处理包含例如对比度受限的自适应直方图均衡化(CLAHE)的图像直方图及对比度调整。CLAHE大体上在称为图块的图像的小区域中操作。通常,每一图块的对比度经增强使得输出的直方图近似匹配由特定分布(例如,均匀、指数或瑞利分布)指定的直方图。接着,使用内插(例如双线性内插)组合邻近图块以消除任何人工引起的边界。在一些实施方案中,选择在眼部血管或眼周特征与背景之间具有最优对比度的红色、绿色或蓝色组分的线性或非线性组合可增强图像区域。举例来说,在眼部血管的RGB图像中可偏好绿色组分,这是因为其可在血管与背景之间提供更好对比度。
图像及特征质量度量
返回参考图1中的步骤108,可测量每一增强图像的质量,及保持满足特定质量阈值的增强图像用于进一步处理。可针对眼部及眼周区域联合或单独测量此质量。图像质量度量也可充当匹配预测质量度量(相应生物识别样本的匹配能力的测量)且在一些情况中,可融合为最终匹配分数以改进生物识别系统性能。
在一个实施方案中,图像中的经检测的关注点可确定所述图像的质量。一种基于点的质量度量(其是无参考图像质量度量)在本文中将被称为EV_QM。可使用三个步骤来计算EV_QM:“关注点检测”、“区域值计算”及“质量度量分数产生”。可使用血管点检测(VPD)来检测关注点,如下文进一步解释。区域值是指每一关注点周围的纹理的量。可使用局部三进制模式(LTP)来确定每一关注点周围的纹理。使用角位置及区域值来测量质量度量分数产生。
参考图3,在一个实施方案中,可使用以下修改局部二进制模式(LBP)过程来计算区域值。计算关注点周围的三个具有对应不同半长度(邻域)的方形(具有或不具有角),其中计算其像素轨迹(如像素网格304中所描绘)。举例来说,这些半长度可为2个、4个、6个或其它数目个像素。关注点可在8个不同位置中进一步偏移(移位)(如像素网格302中所描绘),在每一偏移点周围进一步产生3个方形(减去其角)(类似于像素网格304中所描绘的方形,其中偏移点充当中心点)。跨越所述三个方形的每一者计算每一关注点及偏移点的LBP,其被进一步称为二进制模式(BP)。因此,每一关注点及对应偏移点具有与每一关注点及对应偏移点相关联的三个不同BP。
所述三个BP可进一步减少以如下获得最终区域值(纹理分数):
步骤1:评估每一BP以确定均匀性分数。如果BP不均匀(例如,4个以上位改变或2个以下位改变),那么废弃BP且将跨越对应偏移或关注点的分数(最终区域值)设置为零。
步骤2:如果所有BP都不均匀,那么执行如图3的步骤306中以图形描绘的滤波过程。使用以下公式添加BP1、BP2及BP3中的每一要素:
Resultn=XOR(BP1n,BP2n)+XOR(BP2n,BP3n)
存在三个可见于Resultn的每一要素中的可能值(1、0及2)。根据Value中的对应值(分别为-1、0及1)进一步映射这些位的每一者,如步骤308中所展示。此结果进一步称为噪声二进制模式(NBP)。
步骤3:如果存在四个以上噪声像素,那么将对应关注点的分数设置为零。否则,使用每一噪声像素的最近邻域来代替NBP中的每一噪声像素
步骤4:最终结果是具有半长度2的BP的长度的单个二进制模式。此最终二进制模式进一步称为genBP。
步骤5:基于步骤310中所描述的公式进一步加权genBP:
结果进一步称为加权模式或H。
步骤6:计算genBP中的连续零位的最大长度且使其进一步被称为L。
步骤7:可使用步骤312中所描述的公式来计算最终区域值sn:
步骤8:如果至少三个包含关注点及对应偏移点的点计算区域值,那么计算区域值的关注点及所述对应偏移点的区域值经平均化且指派给sn。否则,将sn设置为零。
在另一实施方案中,可使用围绕关注点的区域及每一关注点周围的对应偏移点的熵来计算区域值。如下计算关注点周围的区域的熵:
步骤1:初始化阈值以量化关注点及对应偏移点周围的所关注的区域中的纹理。
步骤2:通过在所关注的区域中的所有其它强度中减去中心像素强度以确定所关注的区域中层级的数目(level_map)。
步骤3:通过使用步骤1中确定的阈值将像素强度分组以进一步量化level_map。
步骤4:计算level_map的每一群组中的唯一要素的数目。
步骤5:基于关注点周围的熵如下计算区域的值:
其中N是群组‘i’中的要素的长度。
步骤6:跨越关注点及对应偏移点的平均值sn,且将平均值指派给sn。
在另一实施方案中,可使用‘D’方向上的关注点周围的梯度信息的熵来计算区域值。在一个实施方案中,D包含0度、45度、90度及135度。可在关注点周围以多个尺度计算梯度信息。
在一个实施方案中,可使用角位置及对应区域值来确定质量度量分数产生。可如下实施质量度量分数产生:
步骤1:基于关注点的区域值以降序来排序关注点且注意对应关注点位置。
步骤2:在基于步骤1重新布置关注点之后使对应关注点之间的距离为d={d1,d2,d3,…,dn-2,dn-1,dn},其中d1是第一关注点与第二关注点之间的距离。dn将为零。
步骤3:使距离的权重被计算为距离的对数:dwn=log(d)。
步骤4:将加权指数计算为:
SWn=exp(1/[1,2,3,…,n-2,n-1,n]),其中n是关注点的数目
可使用以下公式来计算最终质量度量分数:
可使用其它关注点检测算法,例如可使用加速度分段测试(FAST)算法或加速稳健特征(SURF)算法来计算。
可针对眼部及眼周区域单独计算EV_QM,且此外,可基于所计算的EV_QM来分级每一ROI。如果使用渐进匹配器(在下文中描述),那么可以ROI分级的顺序来匹配ROI。应注意,本文所描述的质量度量可用于欺骗检测技术中。眼睛或面部的面部特征的再现(例如物理照片或打印输出)或出于恶意意图在屏幕上播放的真正用户的数字图像或视频经常具有相较于扫描时的真实物理存在的降低质量(例如,较低分辨率、朦胧、变色、噪声、模糊等等)。在验证过程期间滤出所关注的低质量点之后,低质量再现一般不具有足够数目个所关注的可辨识点且因此,将验证失败。
类似技术也可用以检测部分欺骗。举例来说,一人可在试图通过眼睛验证过程时将有效眼睛的打印输出保持在其自身的眼睛上。在执行验证时,所确定的眼睛打印输出的质量(例如,所关注的可辨识点)可与所确定的眼周或其它面部区域的质量相比较。如果眼睛与一或多个其它区域之间的质量中的差异超过阈值,那么此可指示部分欺骗的存在,且验证可失败。预期使用所揭示的质量度量的其它欺骗检测技术。
关注点检测
可分别在眼部血管、眼周及面部的所捕获的图像区域内使用各种关注点检测算法。举例来说,加速稳健特征(SURF)算法是可用以识别居中于关注点上的图像区域内的区域的“二进制大型对象”类型特征检测算法。来自加速分段测试的特征(FAST)算法是也可用以识别图像区域内的关注点的角检测算法。血管点检测器(VPD)也可用以识别锁存于图像区域内的血管结构上的点。此外,VPD也可用以检测眼周区域及面部上的点。在一些实施方案中,也可以多个图像尺度识别候选点。举例来说,如果原始图像大小是100x100(尺度0),那么点可从100x100原始图像识别且也当原始图像重新设置大小为50x50(尺度1)及25x25(尺度2)时识别。可考虑点检测器的其它区域特定配置。
点抑制
使用关注点检测算法产生的候选点的数目可基于纹理的量及图像的质量而改变。此外,此类算法可锁存到噪声或无关(相对于给定应用)信息上,尤其是使用非VPD算法。此类噪声或无关候选点可由候选点抑制算法移除。
在一个实施方案中,非血管点抑制(NVS)算法用以确定候选点质量。
在以下步骤中解释所述算法:
步骤1:提取关注点周围的区域(R)。使R的大小为MxM。
步骤2:提取大小NxN的R内的局部补块(LP),其中N<M。将居中于R中的LP指派为中心补块(CP)。
步骤3:稀疏地填充区域R内部的局部补块。
步骤4:计算封围于区域R中的所有LP的直方图分布,且从所计算的LP的每一直方图减去CP的直方图。
步骤5:对于每一减去,将散布分数计算为已占据的区块的数目除以总可用区块。
步骤6:基于原始图像中的像素的分布导出带通滤波器的组合(带通滤波器计算)。这些带通滤波器用以测量假像素的量(例如以血管信息像素为背景的眩光)。
步骤7:基于所导出的带通滤波器滤波从步骤4减去的补块,且计算角响应。
步骤8:在级联框架中使用散布分数及角响应。散布分数是二进制分类器:其拒绝或接受点。角响应提供在零与一之间评分的正规化。零指示非血管分布而一指示血管分布。
在另一实施方案中,带通滤波器计算用以确定候选点强度。基于眼睛区域统计的经分段的眼白来动态产生带通滤波器。带通滤波器可如下产生:
步骤1:从RGB图像提取巩膜区域的绿色层。
步骤2:导出所述区域的直方图。举例来说,使用‘N’个区块以从单元8图像提取直方图。
步骤3:计算步骤2中所导出的反相正规化直方图的指数。
步骤4:通过因子k抑制指数。因子k大体上从0.1变化到0.3,且可基于应用或数据集来调整。
步骤5:计算反相指数的响应,其中整数值在1到N的范围内。
步骤6:级联来自步骤4且从步骤5保留的前5个要素。此提供带通滤波器1。
步骤7:对于带通滤波器2,使用巩膜像素(绿色通道)的正规分布来建构高斯。
步骤8:并行使用带通滤波器1及带通滤波器2以建立血管点的强度。
此滤波器构造过程自适应于图像像素。如果图像较暗,那么大多数巩膜像素落入直方图的下尾附近。因此,带通滤波器1将具有优于带通滤波器2的较高响应。此减少点的分数。类似地,眩光饱和图像将使其所有像素在上尾中,且带通滤波器2将具有更高响应,消除具有低分的点。
在一个实施方案中,局部二进制模式(LBP)的均匀性可经产生以确定候选点的质量。使用8位LBP码,从0到1或反之亦然按位跳变的数目确定LBP代码的均匀性。如果LBP代码具有小于或等于‘n’个跳变,那么其被视为均匀的。跳变的范围是从0到8。在一个实施方案中,n等于3。举一实例,具有0个跳变的LBP代码00000000、具有2个跳变01111100、具有3个跳变的01000001是均匀的。类似地,具有4个跳变的01010000及具有6个跳变的01010010是不均匀的。均匀的候选点被保留在模板中。
可针对给定注册或验证过程,组合使用或单独使用上文所提及的用于候选点的质量算法。
局部特征描述符
可分别使用眼部血管、眼周及面部区域的关注点周围的图像补块来产生每一关注点周围的特征向量。可使用单个或多个特征描述符算法来产生关注点的描述符。快速视网膜要点(FREAK)算法是可用以(例如)产生由FAST算法识别的候选点的描述符的一个实例特征描述符算法。FREAK描述符可为(例如)界定围绕候选点的目视特征的二进制数字串。局部二进制模式(LBP)及其变体(例如候选点周围的中心对称局部二进制模式(CSLBP))是可用以描述候选点附近的图像补块的特征描述符。定向梯度的直方图(HoG)、LBP的直方图(HLBP)、CSLBP的直方图(HCSLBP)、扩展多半径LBP的图案化直方图(PH-EMR-LBP)、扩展多半径CSLBP的图案化直方图(PH-EMR-CSLBP)或扩展多半径局部三进制模式的图案化直方图(PH-EMR-LTP)及降维之后的二进制模式的图案化直方图(PHBP-DR)是可用以描述候选点周围的图像邻域的特征描述符的其它实例。其它特征描述符算法或算法的组合可用以产生图像区域的候选点的局部图像描述符。
在一个实施方案中,产生PH-EMR-LBP描述符时涉及以下步骤:
步骤1:计算每一像素周围的3x3像素及5x5像素同心方形两者的LBP代码,以形成多半径LBP(MR-LBP)图像(注意,相较于规则LBP,前述技术使用方形或矩形邻域,其可包含或排除角)而非用于LBP代码导出的中心像素周围的像素的圆形轨迹。在3x3像素区域中,比较中心像素与其最近的八个相邻像素产生3x3 LBP代码。结果是8位码,其位值是0或1(如果相邻像素的强度值大于中心像素的强度,那么位值为1,否则为0)。类似地,在5x5像素区域中,比较中心像素与其最近的八个相邻像素附近的像素(即,十六个像素)产生5x5 LBP代码(结果是16位码)。因此,对于图像中的给定像素,MR-LBP具有24位码(8个位来自3x3 LBP代码,且16个位来自5x5 LBP代码)。
步骤2:每一关注点周围的MxM补块(步骤1的输出)经分段为可具有K个重叠像素的NxN子区域。
步骤3:单独导出每一子区域内的每一24位MR-LBP的直方图,且级联以递送PH-EMR-LBP(注意,相较于规则LBP,基于补块中的LBP位位置的频率而不是二进制代码的十进制等效来计算此直方图)。
可基于图像的空间频率、分辨率及噪声来调整M、N及K的参数值。
在一个实施方案中,产生PH-EMR-CSLBP描述符时涉及以下步骤:
步骤1:计算每一像素处的3x3像素及5x5像素中心对称局部二进制模式(CSLBP)代码两者以形成多半径CS-LBP(MR-CSLBP)图像。在3x3区域中,使用8个边界像素比较对角像素的强度值产生4位3x3 CS-LBP代码(从左上方像素开始,考虑到如在顺时针方向上从1到8编号的边界像素,通过将像素1、2、3及4分别与5、6、7及8相比较而产生4位CS-LBP代码)。位值是0或1(如果像素1的强度值大于5,那么位值为1,否则为0—对于其它组合情况类似)。同样地,在5x5区域中,比较外环的16个对角像素以产生8位5x5 CS-LBP代码。因此,对于图像中的给定像素,MR-CS-LBP具有12位码(4个位来自3x3 CS-LBP代码,且8个位来自5x5 CS-LBP代码)。
步骤2:每一关注点周围的MxM补块(步骤1的输出)分段为可具有K个重叠像素的NxN子区域。
步骤3:单独导出每一子区域内的每一12位MR-CS-LBP的直方图,且级联以递送PH-EMR-CS-LBP。
类似于先前描述符,可基于图像的空间频率、分辨率及噪声来调整M、N及K的参数值。
在一个实施方案中,产生PH-EMR-LTP描述符时涉及以下步骤:
步骤1:计算每一像素处的3x3像素及5x5像素局部三进制模式代码两者以形成具有步长(SS)的多半径LTP(MR-LTP)图像。在3x3区域中,比较中心像素与其最近的八个相邻像素产生3x3 LTP代码。结果是16位码,其值是0或1(如果每一相邻像素的强度值大于中心像素的强度加上SS,那么位值为1,否则为0;且如果每一相邻像素的强度值小于中心像素的强度减去SS,那么位值为1,否则为0)。类似地,在5x5区域中,比较中心像素与其最近的八个相邻像素附近的像素(即,十六个像素)产生5x5 LTP代码(结果是32位码)。因此,对于图像中的给定像素,MR-LTP具有48位码(16个位来自3x3 LBP代码,且32个位来自5x5 LBP代码)。
步骤2:每一关注点周围的MxM补块(步骤1的输出)分段为可具有K个重叠像素的NxN子区域。
步骤3:单独导出每一子区域内的每一48位MR-LTP的直方图,且级联以递送PH-EMR-LTP。
类似于先前描述符,可基于图像的空间频率、分辨率及噪声来调整M、N及K的参数值。
在一个实施方案中,可使用以下步骤导出PHBP-DR:
步骤1:通过将M、N及K值分别设置为9、3及1而导出给定关注点的PH-EMR-LBP。这些配置递送具有范围从0到9的值(由于在3x3子区域中具有9个像素)的长度为384的特征向量(24x16;跨越16个子区域的24位码的每一者的直方图。注意,在具有1个像素重叠的9x9补块中16个3x3子区域是可行的)。
步骤2:通过将M、N及K值分别设置为7、3及1而导出给定关注点的PH-EMR-CS-LBP。这些配置递送具有范围从0到9的值(由于在3x3子区域中具有9个像素)的长度为108的特征向量(12x9;跨越9个子区域的12位码的每一者的直方图。注意,在具有1个像素重叠的7x7补块中9个3x3子区域是可行的)。
步骤3:通过将M、N及K值分别设置为9、3及1而导出给定关注点的PH-EMR-LTP PH-EMR-LBP。这些配置递送具有范围从0到9的值(由于在3x3子区域中具有9个像素)的长度为768的特征向量(48x16;跨越16个子区域的48位码的每一者的直方图。注意,在具有1个像素重叠的9x9补块中16个3x3子区域是可行的)。在将图像的强度值正规化为0到255之后,将SS设置为5。
步骤4:级联特征向量1、2及3以形成长度为1260的特征向量。
步骤5:使用方差分析,仅保持最顶部720个特征。在一些例子中,当预计算这些高度变化特征,为了降低计算复杂性而仅在注册及验证过程期间产生这720个特征。
步骤6:最终,例如主成分分析(PCA)的降维方法用以捕获PHBP-DR。可针对眼部及眼周区域执行单独PCA分析以分别产生103个及98个长特征向量。对于面部,眼周特征可用作为单独PCA分析或可执行单独PCA分析。眼部、眼周及面部的特征向量的其它长度是可行的。
在生物识别注册过程结束后,注册模板可包含一组候选点及眼部血管ROI的描述符,及一组候选点及眼周区域的描述符。在一些实施方案中,注册模板还可包含一组候选点及面部的描述符及/或一组候选点及扩展眼周区域的描述符。注意,分别处理左眼的眼部血管及眼周ROI及模板与右眼的眼部血管及眼周ROI及模板。预期一组关注点的多个描述符。为了安全及隐私,废弃用以产生眼部血管面部及眼周区域的模板的原始及经处理的图像。
渐进匹配器
在生物识别匹配过程的实施方案中,使用渐进匹配器产生最终匹配分数。作为初始步骤,匹配局部图像描述符以使用距离测量在眼部区域及眼周区域两者的注册模板与验证模板之间发现匹配点对。举一实例,可分别在眼部区域及眼周区域的注册描述符向量与验证描述符向量之间计算关注点的描述符之间的欧几里德距离,且低于特定距离阈值的对可保留为匹配点对。
在存在噪声或其它像差的情况下,匹配点对可具有若干离群值或其它错误额外匹配。通过假设匹配点对注册图像与匹配点对验证图像的位置之间的似真单应性,离群值(在所假设的单应性下对准之后的空间非重叠匹配点)可从匹配点对移除。
在一些实施方案中,随机取样一致性(RANSAC)或其它离群值检测方法可用以确定使验证图像中的候选点与注册图像中的点对准所需变换,同时就编码在注册模板及验证模板中的所关注的眼部区域的几何形状来说拒绝不配合真正匹配之间的假设变换的离群值。在一些实施方案中,可单独执行不同ROI(例如眼部血管及眼周ROI)的RANSAC,且存续内围层点的收集可递送到最终RANSAC用于最终分数计算及其它相关计算。在一些实施方案中,在进行到最终匹配之前,可需要来自所关注的某些或所有子区域(例如,巩膜ROI的顶部所见的血管补片及点)的内围层点的最小数目。最后,通过使用由RANSAC或等效物配合于匹配点对的位置的单应性组合在RANSAC(N)之后发现的内围层的数目、来自变换矩阵的回收规模(RS)及来自变换矩阵的回收角度(RA)产生分数。
在一个实施方案中,使用以下公式来计算匹配分数:
MS={(Cx+Cy)/2*log(N)}/{(1+|log2(RS+0.001)|)*(1+(RA/0.2)^2)}
其中Cx及Cy分别是注册与验证模板之间的内围层匹配点的x及y坐标的向量之间的相关,N是这些对准点的数目,RA是表示由从内围层匹配验证点的位置到用于注册的注册点的变换引起的角度中的变化的回收角度,且RS是表示由上述变换引起的规模中的变化的回收规模。RA及RS从由RANSAC或类似操作引起的相似性或同类几何变换矩阵导出。预期例如从身份的变换/注册矩阵的距离的其它测量,尤其如果空间上预正规化所关注的区域(例如眼部血管及眼周)。
在一些实施方案中,M-SAC、群组-SAC及/或最优-RANSAC可取代RANSAC。
可分别、组合(SVP)或以循序方式针对眼睛的眼白(SV)及眼周区域(SP)两者产生匹配分数。以渐进方式,如果对于所关注的起始区域中存在稳健决策的不足信息或质量,那么不同ROI渐进包含于匹配器中。例如,如果无法使用眼睛的眼白中的血管信息实现某些源质量或确定决策,那么匹配器可视需要从属于眼周的位置(及可能超出眼周,如鼻子及面部)渐进添加更多信息以在断言生物识别匹配中实现所要确实性。
在一个实施方案中,单独计算来自眼部及眼周区域的匹配点对且接着针对RANSAC组合以产生最终匹配分数。
在另一实施方案中,单独计算来自眼部及眼周区域的匹配点对且接着针对RANSAC组合以产生最终匹配分数。然而,限制最终内围层产生以具有来自眼部区域的至少N个点。
在另一实施方案中,单独计算来自眼部及眼周区域的匹配点对,眼部及眼周区域的相应内围层分别由ROI特定RANSAC发现,且接着针对最终RANSAC组合区域特定RANSAC滤波模板要素集合以产生最终匹配分数。然而,限制最终内围层产生以具有来自眼部血管区域的RANSAC的至少N个点。在一些实施方案中,N的典型最小值是3。
在一些实施方案中,实施渐进匹配器以基于比较匹配分数与阈值而作出最终决策。举实例来说:
步骤1:如果SV>3.2,那么用户得到认证,且略过步骤2及3。
步骤2:如果SVP>3.4,那么用户得到认证,且略过步骤3。
步骤3:如果SP>3.2,那么用户得到认证。
结束过程。
如果上述渐进过程未认证用户,那么可调用来自注册库的另一注册模板或可获取新验证图像,直到达到特定离开条件(例如时限)。预期SV、SVP及SP阈值的其它组合。如果所关注的区域中的一或多者归因于由(例如)眼镜或眩光假影引起的像差而不可用于扫描,那么系统可使用其它可用区域。
图5描绘使用渐进匹配进行生物识别注册及认证的方法的一个实施方案,所述方法包含其中基于眼部血管及眼周区域产生注册模板的注册阶段及其中可基于所捕获的图像及注册模板执行渐进匹配的验证阶段。可根据本文所描述的各种技术来执行图5中所说明的步骤。
在一些情况中,单个生物识别表征可分为多个ROI,接着,渐进匹配所述ROI。举例来说,眼周区域的重要区域可分为n个部分,接着,渐进匹配所述n个部分。
在一个实施方案中,可测量及分级一些或所有眼周ROI的质量,且匹配过程可视需要基于ROI的相应等级渐进添加每一ROI以在断言生物识别匹配中实现所要确实性。
在另一实施方案中,基于图像的距离度量或类似者检测可扭曲例如眼周的所关注的一些生物识别区域的用户姿势、照明条件或面部姿势。可在注册期间诱发这些变化或可基于模板更新策略而将这些变化添加到变动模板库。在验证时,匹配器可基于前述图像相似性度量而尝试从库检索最相关模板。
在另一实施方案中,如果匹配过程遇新姿势或面部表情,那么使用最接近表情及应用渐进匹配器的特殊情况。举例来说,特殊情况可使用集群化过程将眼周区域分为若干片段,且在每一片段内产生分数及变换矩阵。最终分数可由所有个别片段分数的加权融合确定。这些权重由跨越所有变换矩阵观察到的量确定。其它分数融合是可行的。
图5说明根据本文所描述的技术的用于产生安全生物识别模板及执行用户验证的局部系统的一个实施方案。用户装置500可包含图像传感器530、处理器540、存储器550、生物识别硬件及/或软件560及将包含存储器550的各种系统组件耦合到处理器540的系统总线。用户装置500可包含(但不限于)智能电话、智能手表、智能眼镜、平板计算机、便携式计算机、电视、游戏装置、音乐播放器、移动电话、膝上型计算机、掌上电脑、智能或哑终端、网络计算机、个人数字助理、无线装置、信息家电、工作站、迷你计算机、主机计算机或操作为可执行本文所描述的功能性的通用计算机或专用硬件装置的其它计算装置。
生物识别硬件及/或软件560包含用于对由图像传感器530捕获的图像执行操作的图像处理模块562。举例来说,图像处理模块562可在用户510的眼睛及周围面部区域的图像上执行分段及增强以助于隔离血管结构及所关注的其它特征。模板模块564基于血管分布图像产生生物识别模板且可在模板上执行各种混淆及扰码操作。验证模块566通过在捕获生物识别读数之后形成的生物识别验证模板与先前存储的注册模板之间执行匹配操作来验证用户510的身份。在一些实施方案中,可对除用户装置500之外的装置执行某些功能性。举例来说,用户装置可代替地以仅包含例如摄像机的生物识别传感器,且可对可由用户装置500通过例如因特网的网络存取的远程服务器执行图像处理及验证功能。
更一般来说,此处所描述的系统及技术可在包含后端组件(例如,作为数据服务器)或包含中间件组件(例如,应用服务器)或包含前端组件(例如,具有图形用户接口的客户端计算机或用户可通过其与此处所描述的系统及技术的实施方案交互的网页浏览器)或此类后端、中间件或前端组件的任何组合的计算系统中实施。系统的组件可由数字数据通信的任何形式或媒体(例如,通信网络)互连。通信网络的实例包含局域网(“LAN”)、广域网(“WAN”)及因特网。
计算系统可包含客户端及服务器。客户端及服务器大体上彼此远离且可通过通信网络交互。客户端与服务器的关系凭借在相应计算机上运行且彼此具有客户端-服务器关系的计算机程序而产生。已描述若干实施例。然而,应理解可在不会背离本发明的精神及范围的情况下实行各种修改。
本说明书中所描述的标的物的实施方案及操作可在数字电子电路中实施、在计算机软件、固件或硬件(其包含本说明书中所揭示的结构及其结构等效物)中实施或在其一或多者的组合中实施。本说明书中所描述的标的物的实施例可实施为一或多个计算机程序(即编码在计算机存储媒体上以由数据处理设备执行或以控制数据处理设备的操作的计算机程序指令的一或多个模块)。替代地或另外,所述程序指令可编码在人工产生的传播信号(例如机器产生的电信号、光学信号或电磁信号,其经产生以编码信息用于传输到适合接收器设备以由数据处理设备执行)上。计算机存储媒体可为或包含于计算机可读存储装置、计算机可读存储衬底、随机或串行存取存储器阵列或装置或其一或多者的组合中。此外,尽管计算机存储媒体并非传播信号,但计算机存储媒体可为编码在人工产生的传播信号中的计算机程序指令的源或目的地。计算机存储媒体还可为或包含于一或多个单独物理组件或媒体(例如,多个CD、磁盘或其它存储装置)中。
本说明书中所描述的操作可实施为由存储在一或多个计算机可读存储装置上或从其它源接收的数据上的数据处理设备执行的操作。
术语“数据处理设备”涵盖用于处理数据的所有种类的设备、装置及机器(其包含(举实例来说)可编程处理器、计算机、芯片上系统或前述多者或组合)。所述设备可包含专用逻辑电路(例如FPGA(场可编程门阵列)或ASIC(专用集成电路))。除硬件之外,所述设备还包含产生所讨论的计算机程序的执行环境的代码(例如构成处理器固件的代码)、协议栈、数据库管理系统、操作系统、跨平台运行时间环境、虚拟机或其一或多者的组合。所述设备及执行环境可实现例如网页服务、分布式计算及网格计算基础设施的各种不同计算模型基础设施。
计算机程序(也称为程序、软件、软件应用、指令程序代码或代码)可以任何形式的程序设计语言(其包含编译或解译语言,宣告或程序式语言)写入且所述计算机程序可以任何形式(其包含作为独立程序或作为模块、组件、子例程、对象或适于在计算环境中使用的其它单元)部署。计算机程序可但不需要对应于文件系统中的文件。程序可被存储于保持其它程序或数据(例如,存储于标记语言资源中的一或多个脚本的文件的一部分中、存储于专用于所讨论的程序的单个文件中,或存储于多个协调文件(例如存储一或多个模块、子程序或代码的部分的文件)中)。计算机程序可经部署以在计算机或多个计算机(其位于一个位置处或跨越多个位置分布且通过通信网络互连)上执行。
本说明书中所描述的标的物的实施例可在包含后端组件(例如,作为数据服务器)或包含中间件组件(例如,应用服务器)或包含前端组件(例如,具有图形用户接口的客户端计算机或用户可通过其与本说明书中所描述的标的物的实施方案交互的网页浏览器)或一或多个此类后端、中间件或前端组件的任何组合的计算系统中实施。系统的组件可通过数字数据通信的任何形式或媒体(例如,通信网络)互连。通信网络的实例包含局域网(“LAN”)及广域网(“WAN”)、网络间(例如,因特网)及对等网络(例如,自组织对等网络)。
计算系统可包含客户端及服务器。客户端及服务器大体上彼此远离且可通过通信网络交互。客户端与服务器的关系凭借在相应计算机上运行且彼此具有客户端-服务器关系的计算机程序而产生。在一些实施例中,服务器将数据(例如,HTML页面)发射到客户端装置(例如,为了显示数据给用户及从与所述客户端装置交互的用户接收用户输入)。可在服务器处从客户端装置接收在客户端装置处所产生的数据(例如,用户交互的结果)。
一或多个计算机的系统可经配置以凭借将软件、固件、硬件或其组合安装在所述系统上而执行特定操作或动作,所述软件、固件、硬件或其组合在操作中致使所述系统执行所述动作。一或多个计算机程序可经配置以凭借包含指令而执行特定操作或动作,所述指令在由数据处理设备执行时致使所述设备执行所述动作。
尽管本说明书含有许多特定实施方案细节,但这些细节不应视为任何发明或可主张的范围的限制,而应视为特定发明的特定实施方案特有的特征的描述。本说明书中在单独实施方案的上下文中所描述的特定特征也可在单个实施方案中组合实施。相反,在单个实施方案的上下文中所描述的各种特征也可在多个实施方案中单独或以任何适合子组合实施。此外,尽管特征可在上文描述为以特定组合起作用且甚至最初如此主张,但来自主张组合的一或多个特征在一些情况中可从所述组合去除,且所述主张组合可涉及子组合或子组合的变化。
类似地,尽管在图式中以特定顺序描绘操作,但此不应理解为要求此类操作以所展示的所述特定顺序或以循序次序执行,或要求执行所说明的所有操作以实现期望结果。在某些情况中,多任务及并行处理可为有利的。此外,上文所描述的实施方案中的各种系统组件的分离不应理解为在所有实施方案中都要求此分离,且应理解所描述的程序组件及系统大体上可在单个软件产品中集成在一起或封装成多个软件产品。
因此,已描述标的物的特定实施方案。其它实施方案在所附权利要求书的范围内。在一些情况中,权利要求书中所列举的动作可以不同顺序执行且仍实现期望结果。此外,附图中所描绘的过程不一定需要所展示的特定顺序或循序次序来实现期望结果。在某些实施方案中,多任务及并行处理可为有利的。
Claims (25)
1.一种计算机实施的方法,包括:
接收用户的面部区域的图像,所述面部区域包含眼睛及围绕所述眼睛的区域;
处理所述图像以界定所述面部区域的所述图像中包含所述眼睛的至少一部分的眼部图像区域,其中所述眼睛的所述至少一部分包含所述眼睛的巩膜区域;
界定所述面部区域的所述图像中各自包含围绕所述眼睛的所述区域的至少一部分的多个眼周图像区域,其中每个所述眼周图像区域的大小不同于所述眼部图像区域,以及界定所述眼周图像区域中的特定眼周图像区域包括:
通过将包含所述巩膜区域的所述眼部图像区域的高度与第一数值因子相乘来计算区域高度;
通过将包含所述巩膜区域的所述眼部图像区域的宽度与第二数值因子相乘来计算区域宽度;
将所述特定眼周图像区域的高度设置为等于所计算出的所述区域高度;以及
将所述特定眼周图像区域的宽度设置为等于所计算出的所述区域宽度;基于所述多个眼周图像区域中的至少一者及所述眼部图像区域来计算一或多个生物识别匹配分数;以及
基于所述一或多个生物识别匹配分数,将所述面部区域的所述图像指定为真实或不真实。
2.根据权利要求1所述的方法,其中所述多个眼周图像区域包括至少四个眼周图像区域。
3.根据权利要求2所述的方法,其中所述至少四个眼周图像区域包括:
安置于所述眼部图像区域下方的下眼周图像区域、
安置于所述眼部图像区域右边的右眼周图像区域、
安置于所述眼部图像区域左边的左眼周图像区域、及
安置于所述眼部图像区域上方的上眼周图像区域。
4.根据权利要求1所述的方法,其中界定所述多个眼周图像区域包括:
界定安置于所述眼部图像区域右边的右眼周图像区域,所述右眼周图像区域的宽度在所述眼部图像区域的宽度的10%到80%的范围内,及所述右眼周图像区域的高度在所述眼部图像区域的高度的120%到550%的范围内。
5.根据权利要求1所述的方法,其中界定所述多个眼周图像区域包括:
界定安置于所述眼部图像区域左边的左眼周图像区域,所述左眼周图像区域的宽度在所述眼部图像区域的宽度的10%到50%的范围内,及所述左眼周图像区域的高度在所述眼部图像区域的高度的120%到550%的范围内。
6.根据权利要求1所述的方法,其中计算所述一或多个生物识别匹配分数包括:
基于所述眼部图像区域及眼部注册模板来计算第一生物识别匹配分数;及
响应于确定所述第一生物识别匹配分数不满足第一匹配阈值,基于所述眼部图像区域、所述多个眼周图像区域中的第一者、所述眼部注册模板及眼周注册模板来计算第二生物识别匹配分数。
7.根据权利要求6所述的方法,其中计算所述一或多个生物识别匹配分数进一步包括:
响应于确定所述第二生物识别匹配分数不满足第二匹配阈值,通过如下操作来计算一或多个另一生物识别匹配分数:在计算所述另一生物识别匹配分数中,反复地附加包含所述多个眼周图像区域中的一者,直到特定另一生物识别匹配分数满足对应的匹配阈值或不再有眼周图像区域可用于包含进来。
8.根据权利要求7所述的方法,其中
至少基于辨别力及/或质量来分级所述多个眼周图像区域,且
附加的所述眼周图像区域是基于所述附加的眼周图像区域的相应分级反复地包含进来的。
9.根据权利要求7所述的方法,其进一步包括:
基于从所述多个眼周图像区域导出的一或多个面部特征,将所述多个眼周图像区域中的一或多者分为子区域,
其中附加的所述眼周图像区域基于所述附加的眼周图像区域的集群重要性或相应分级反复地包含进来的。
10.根据权利要求1所述的方法,其中计算所述一或多个生物识别匹配分数包括:
基于所述眼部图像区域及注册模板来识别第一组匹配点对;及
基于所述多个眼周图像区域中的至少一者及所述注册模板来识别第二组匹配点对。
11.根据权利要求10所述的方法,其中计算所述一或多个生物识别匹配分数进一步包括:
通过将所述第一及第二组匹配点对的组合输入到离群值检测算法来确定一或多个内围层匹配点;
确定对应于所述眼部图像区域的所述内围层匹配点的数量满足最小眼部内围层计数;及
至少部分地基于所述内围层匹配点来计算一个所述生物识别匹配分数。
12.根据权利要求10所述的方法,其中计算所述一或多个生物识别匹配分数进一步包括:
通过将所述第一组匹配点对输入到离群值检测算法来确定一或多个第一内围层匹配点;
通过将所述第二组匹配点对输入到所述离群值检测算法来确定一或多个第二内围层匹配点;及
至少部分地基于所述离群值检测算法使用所述第一及第二内围层匹配点的组合作为输入时的输出,来计算一个所述生物识别匹配分数。
13.根据权利要求12所述的方法,其中计算所述一或多个生物识别匹配分数进一步包括:
确定从所述离群值检测算法的所述输出获得的对应于所述眼部图像区域的内围层匹配点的数量满足最小眼部内围层计数。
14.根据权利要求11或13所述的方法,其中所述最小眼部内围层计数等于3。
15.一种生物识别系统,其包括:
至少一个存储器,其用于存储计算机可执行指令;及
至少一个处理单元,其用于执行经存储于所述至少一个存储器上的所述指令,其中所述指令的执行对所述至少一个处理单元进行编程以执行操作,所述操作包括:
接收用户的面部区域的图像,所述面部区域包含眼睛及围绕所述眼睛的区域;
处理所述图像以界定所述面部区域的所述图像中包含所述眼睛的至少一部分的眼部图像区域,其中所述眼睛的所述至少一部分包含所述眼睛的巩膜区域;
界定所述面部区域的所述图像中各自包含围绕所述眼睛的所述区域的至少一部分的多个眼周图像区域,其中每个所述眼周图像区域的大小不同于所述眼部图像区域,以及界定所述眼周图像区域中的特定眼周图像区域包括:
通过将包含所述巩膜区域的所述眼部图像区域的高度与第一数值因子相乘来计算区域高度;
通过将包含所述巩膜区域的所述眼部图像区域的宽度与第二数值因子相乘来计算区域宽度;
将所述特定眼周图像区域的高度设置为等于所述计算出的所述区域高度;以及
将所述特定眼周图像区域的宽度设置为等于所述计算出的所述区域宽度;基于所述多个眼周图像区域中的至少一者及所述眼部图像区域来计算一或多个生物识别匹配分数;以及
基于所述一或多个生物识别匹配分数,将所述面部区域的所述图像指定为真实或不真实。
16.根据权利要求15所述的系统,其中所述多个眼周图像区域包括至少四个眼周图像区域。
17.根据权利要求16所述的系统,其中所述至少四个眼周图像区域包括:
安置于所述眼部图像区域下方的下眼周图像区域、
安置于所述眼部图像区域右边的右眼周图像区域、
安置于所述眼部图像区域左边的左眼周图像区域、及
安置于所述眼部图像区域上方的上眼周图像区域。
18.根据权利要求15所述的系统,其中界定所述多个眼周图像区域包括:
界定安置于所述眼部图像区域右边的右眼周图像区域,所述右眼周图像区域的宽度在所述眼部图像区域的宽度的10%到80%的范围内,及所述右眼周图像区域的高度在所述眼部图像区域的高度的120%到550%的范围内。
19.根据权利要求15所述的系统,其中界定所述多个眼周图像区域包括:
界定安置于所述眼部图像区域左边的左眼周图像区域,所述左眼周图像区域的宽度在所述眼部图像区域的宽度的10%到50%的范围内,及所述左眼周图像区域的宽度在所述眼部图像区域的高度的120%到550%的范围内。
20.根据权利要求15所述的系统,其中计算所述一或多个生物识别匹配分数包括:
基于所述眼部图像区域及眼部注册模板来计算第一生物识别匹配分数;及
响应于确定所述第一生物识别匹配分数不满足第一匹配阈值,基于所述眼部图像区域、所述多个眼周图像区域中的第一者、所述眼部注册模板及眼周注册模板来计算第二生物识别匹配分数。
21.根据权利要求20所述的系统,其中计算所述一或多个生物识别匹配分数进一步包括:
响应于确定所述第二生物识别匹配分数不满足第二匹配阈值,通过如下操作来计算一个或多个另一生物识别匹配分数:在计算所述另一生物识别匹配分数中,反复地附加包含所述多个眼周图像区域中的一者,直到特定另一生物识别匹配分数满足对应的匹配阈值或不再有眼周图像区域可用于包含进来。
22.根据权利要求21所述的系统,其中
至少基于辨别力及/或质量来分级所述多个眼周图像区域,且
附加的所述眼周图像区域是基于所述附加的眼周图像区域的相应分级反复地包含进来的。
23.根据权利要求21所述的系统,其中所述操作进一步包括:
基于从所述多个眼周图像区域导出的一或多个面部特征,将所述多个眼周图像区域中的一或多者分为子区域,
其中附加的所述眼周图像区域基于所述附加的眼周图像区域的集群重要性或相应分级反复地包含进来的。
24.根据权利要求15所述的系统,其中计算所述一或多个生物识别匹配分数包括:
基于所述眼部图像区域及注册模板来识别第一组匹配点对;及
基于所述多个眼周图像区域中的至少一者及所述注册模板来识别第二组匹配点对。
25.根据权利要求24所述的系统,其中计算所述一或多个生物识别匹配分数进一步包括:
通过将所述第一及第二组匹配点对的组合输入到离群值检测算法来确定一或多个内围层匹配点;
确定对应于所述眼部图像区域的所述内围层匹配点的数量满足最小眼部内围层计数;及
至少部分地基于所述内围层匹配点来计算一个所述生物识别匹配分数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910948427.7A CN110852160B (zh) | 2015-09-11 | 2016-09-09 | 以图像为基准的生物识别系统及计算机实施方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562217660P | 2015-09-11 | 2015-09-11 | |
US62/217,660 | 2015-09-11 | ||
PCT/US2016/050999 WO2017044782A1 (en) | 2015-09-11 | 2016-09-09 | Image and feature quality, image enhancement and feature extraction for ocular-vascular and facial recognition, and fusing ocular-vascular with facial and/or sub-facial information for biometric systems |
CN201680060614.6A CN108351961B (zh) | 2015-09-11 | 2016-09-09 | 以图像为基础的生物识别系统及计算机实施方法 |
CN201910948427.7A CN110852160B (zh) | 2015-09-11 | 2016-09-09 | 以图像为基准的生物识别系统及计算机实施方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680060614.6A Division CN108351961B (zh) | 2015-09-11 | 2016-09-09 | 以图像为基础的生物识别系统及计算机实施方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110852160A CN110852160A (zh) | 2020-02-28 |
CN110852160B true CN110852160B (zh) | 2023-05-09 |
Family
ID=56940461
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910948427.7A Expired - Fee Related CN110852160B (zh) | 2015-09-11 | 2016-09-09 | 以图像为基准的生物识别系统及计算机实施方法 |
CN201680060614.6A Expired - Fee Related CN108351961B (zh) | 2015-09-11 | 2016-09-09 | 以图像为基础的生物识别系统及计算机实施方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680060614.6A Expired - Fee Related CN108351961B (zh) | 2015-09-11 | 2016-09-09 | 以图像为基础的生物识别系统及计算机实施方法 |
Country Status (14)
Country | Link |
---|---|
US (3) | US9721150B2 (zh) |
EP (1) | EP3347853A1 (zh) |
JP (3) | JP6416438B2 (zh) |
KR (3) | KR101967123B1 (zh) |
CN (2) | CN110852160B (zh) |
AU (3) | AU2016319775B2 (zh) |
BR (2) | BR122018007961B1 (zh) |
HK (1) | HK1251933A1 (zh) |
MX (1) | MX2018003051A (zh) |
PH (1) | PH12018500541A1 (zh) |
RU (2) | RU2691195C1 (zh) |
SG (2) | SG10202001380RA (zh) |
TW (3) | TWI706272B (zh) |
WO (1) | WO2017044782A1 (zh) |
Families Citing this family (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114758406B (zh) * | 2015-05-11 | 2024-02-23 | 奇跃公司 | 用于使用神经网络的生物特征用户识别的设备、方法和系统 |
US10043071B1 (en) * | 2015-07-30 | 2018-08-07 | Morphotrust Usa, Llc | Automated document classification |
US10255040B2 (en) * | 2017-05-11 | 2019-04-09 | Veridium Ip Limited | System and method for biometric identification |
US11329980B2 (en) | 2015-08-21 | 2022-05-10 | Veridium Ip Limited | System and method for biometric protocol standards |
US9830708B1 (en) * | 2015-10-15 | 2017-11-28 | Snap Inc. | Image segmentation of a video stream |
FR3046691B1 (fr) * | 2016-01-13 | 2019-03-29 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Dispositif de selection et description de points d'interets dans une sequence d'images, par exemple pour l'appariement de points d'interets |
CA3015658A1 (en) | 2016-03-11 | 2017-09-14 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
US10956544B1 (en) | 2016-04-01 | 2021-03-23 | Massachusetts Mutual Life Insurance Company | Access control through head imaging and biometric authentication |
US10733275B1 (en) * | 2016-04-01 | 2020-08-04 | Massachusetts Mutual Life Insurance Company | Access control through head imaging and biometric authentication |
CH712399A2 (fr) * | 2016-04-27 | 2017-10-31 | Bron Christophe | Système d'identification biométrique basé sur les réseaux veineux et des codages uniques et non falsifiables de structures arborescentes et procédé associé. |
FR3054905B1 (fr) * | 2016-08-04 | 2019-10-18 | Safran Identity & Security | Procede de generation de cle et procede de controle d'acces |
US10262187B1 (en) * | 2016-11-10 | 2019-04-16 | Synaptics Incorporated | Systems and methods for spoof detection based on local binary patterns |
US10565433B2 (en) * | 2017-03-30 | 2020-02-18 | George Mason University | Age invariant face recognition using convolutional neural networks and set distances |
US10762335B2 (en) | 2017-05-16 | 2020-09-01 | Apple Inc. | Attention detection |
CN107169535B (zh) * | 2017-07-06 | 2023-11-03 | 谈宜勇 | 生物多光谱图像的深度学习分类方法及装置 |
CN107480488B (zh) * | 2017-07-18 | 2020-01-14 | Oppo广东移动通信有限公司 | 解锁控制方法及相关产品 |
CN107492075B (zh) * | 2017-07-28 | 2019-12-10 | 浙江大学 | 一种基于细节增强的单张ldr图像曝光校正的方法 |
CN109325327B (zh) | 2017-08-01 | 2021-08-03 | 苹果公司 | 用于更新在面部识别中所使用的模板的过程 |
WO2019027505A1 (en) | 2017-08-01 | 2019-02-07 | Apple Inc. | FACE DETECTION, ESTIMATED INSTALLATION AND ESTIMATED DISTANCE BETWEEN THE FACE AND THE SHOOTING DEVICE USING A SINGLE ARRAY |
CN109325394B (zh) | 2017-08-01 | 2022-06-21 | 苹果公司 | 确定稀疏图案照明与密集图案照明 |
US10210381B1 (en) | 2017-08-01 | 2019-02-19 | Apple Inc. | Multiple enrollments in facial recognition |
US10719692B2 (en) | 2017-09-09 | 2020-07-21 | Apple Inc. | Vein matching for difficult biometric authentication cases |
US10552671B2 (en) * | 2017-11-22 | 2020-02-04 | King Fahd University Of Petroleum And Minerals | Multi-kernel fuzzy local Gabor feature extraction method for automatic gait recognition |
US10579908B2 (en) * | 2017-12-15 | 2020-03-03 | Google Llc | Machine-learning based technique for fast image enhancement |
US10510145B2 (en) | 2017-12-27 | 2019-12-17 | Industrial Technology Research Institute | Medical image comparison method and system thereof |
CN108734085A (zh) * | 2018-03-27 | 2018-11-02 | 中国银联股份有限公司 | 虹膜识别方法及虹膜识别系统 |
JP2019204288A (ja) * | 2018-05-23 | 2019-11-28 | 富士通株式会社 | 生体認証装置、生体認証方法及び生体認証プログラム |
US10303866B1 (en) | 2018-06-03 | 2019-05-28 | Apple Inc. | Automatic retries for facial recognition |
US10769414B2 (en) | 2018-06-03 | 2020-09-08 | Apple Inc. | Robust face detection |
TWI674557B (zh) * | 2018-07-31 | 2019-10-11 | 瑞昱半導體股份有限公司 | 影像處理裝置及其方法 |
CN109389031B (zh) * | 2018-08-27 | 2021-12-03 | 浙江大丰实业股份有限公司 | 演出人员自动定位机构 |
US11163981B2 (en) | 2018-09-11 | 2021-11-02 | Apple Inc. | Periocular facial recognition switching |
US11568681B2 (en) | 2018-09-27 | 2023-01-31 | Nec Corporation | Iris authentication device, iris authentication method and recording medium |
JP7387726B2 (ja) * | 2018-10-09 | 2023-11-28 | エシロール・アンテルナシオナル | 着用者の視覚探索戦略に応じて視力矯正機器を適合させる方法 |
EP3651057B1 (fr) * | 2018-11-09 | 2023-06-14 | Tissot S.A. | Procede d'authentification faciale d'un porteur d'une montre |
CN109766925B (zh) * | 2018-12-20 | 2021-05-11 | 深圳云天励飞技术有限公司 | 特征融合方法、装置、电子设备及存储介质 |
CN109766809B (zh) * | 2018-12-29 | 2021-01-29 | 山东财经大学 | 一种改进的人眼检测及跟踪方法 |
US10796194B2 (en) * | 2019-01-23 | 2020-10-06 | Ncku Research And Development Foundation | Motion-aware keypoint selection system adaptable to iterative closest point |
US10803343B2 (en) * | 2019-01-23 | 2020-10-13 | Ncku Research And Development Foundation | Motion-aware keypoint selection system adaptable to iterative closest point |
CN111666796B (zh) * | 2019-03-08 | 2023-04-07 | 财团法人成大研究发展基金会 | 适用于迭代最近点法的可察觉移动的关键点选择系统 |
US10599934B1 (en) * | 2019-03-21 | 2020-03-24 | Alibaba Group Hoding Limited | Spoof detection using optokinetic response |
US10853642B2 (en) * | 2019-03-22 | 2020-12-01 | Advanced New Technologies Co., Ltd. | Fusing multi-spectral images for identity authentication |
FR3094122A1 (fr) * | 2019-03-22 | 2020-09-25 | Stmicroelectronics (Grenoble 2) Sas | Dispositif électronique de traitement d’images |
CN110070037B (zh) * | 2019-04-22 | 2022-11-01 | 深圳力维智联技术有限公司 | 人脸识别模型的平滑升级方法、装置和可读存储介质 |
CN110110637A (zh) * | 2019-04-25 | 2019-08-09 | 深圳市华嘉生物智能科技有限公司 | 一种人脸皮肤皱纹自动识别和皱纹严重程度自动分级的方法 |
CN113874883A (zh) | 2019-05-21 | 2021-12-31 | 奇跃公司 | 手部姿势估计 |
CN112102543A (zh) * | 2019-05-31 | 2020-12-18 | 杭州海康威视数字技术股份有限公司 | 一种安检系统和方法 |
CN110472479B (zh) * | 2019-06-28 | 2022-11-22 | 广州中国科学院先进技术研究所 | 一种基于surf特征点提取和局部lbp编码的指静脉识别方法 |
JP7237768B2 (ja) * | 2019-08-02 | 2023-03-13 | 株式会社日立製作所 | 生体情報検出装置 |
US11087444B2 (en) * | 2019-08-09 | 2021-08-10 | The Boeing Company | Field programmable gate array (FPGA) implementation and optimization of augmented contrast limited adaptive histogram equalization |
US11916612B2 (en) * | 2019-10-01 | 2024-02-27 | Nippon Telegraph And Telephone Corporation | Mobile terminal and communication quality prediction method |
US11294996B2 (en) | 2019-10-15 | 2022-04-05 | Assa Abloy Ab | Systems and methods for using machine learning for image-based spoof detection |
US11348375B2 (en) | 2019-10-15 | 2022-05-31 | Assa Abloy Ab | Systems and methods for using focal stacks for image-based spoof detection |
US11304645B2 (en) * | 2019-10-15 | 2022-04-19 | Biosense Webster (Israel) Ltd. | Local rendering based detail subset presentation |
US10607077B1 (en) * | 2019-10-28 | 2020-03-31 | EyeVerify Inc. | Identity authentication using an inlier neural network |
KR20210071410A (ko) | 2019-12-06 | 2021-06-16 | 삼성전자주식회사 | 센서 특화 이미지 인식 장치 및 방법 |
US11276153B2 (en) * | 2020-01-14 | 2022-03-15 | Adobe Inc. | Auto-complete image suggestions for image editing |
KR102409790B1 (ko) * | 2020-01-30 | 2022-06-17 | 주식회사 알체라 | 생체정보 분산관리 시스템 및 이를 이용한 생체인식 방법 |
DE102020202946A1 (de) | 2020-03-08 | 2021-09-09 | Volkswagen Aktiengesellschaft | Verfahren zum Bereitstellen des Zugangs zu einem Gerät sowie Kraftfahrzeug |
CN111415397B (zh) * | 2020-03-20 | 2024-03-08 | 广州虎牙科技有限公司 | 一种人脸重构、直播方法、装置、设备及存储介质 |
CN111507208B (zh) * | 2020-03-30 | 2021-06-25 | 中国科学院上海微系统与信息技术研究所 | 一种基于巩膜识别的身份验证方法、装置、设备和介质 |
DE102020109171A1 (de) | 2020-04-02 | 2021-10-07 | Bundesdruckerei Gmbh | Integritätsprüfung eines Dokuments mit personenbezogenen Daten |
JP7363675B2 (ja) * | 2020-06-15 | 2023-10-18 | 株式会社島津製作所 | イメージング質量分析装置、及びイメージング質量分析方法 |
US11275959B2 (en) * | 2020-07-07 | 2022-03-15 | Assa Abloy Ab | Systems and methods for enrollment in a multispectral stereo facial recognition system |
WO2022051775A1 (en) | 2020-09-04 | 2022-03-10 | Abova, Inc. | Method for x-ray dental image enhancement |
US11689822B2 (en) | 2020-09-04 | 2023-06-27 | Altek Semiconductor Corp. | Dual sensor imaging system and privacy protection imaging method thereof |
CN112329674B (zh) * | 2020-11-12 | 2024-03-12 | 北京环境特性研究所 | 基于多纹理特征融合的结冰湖泊检测方法和装置 |
AU2021401427A1 (en) * | 2020-12-17 | 2023-07-13 | Avedro, Inc. | Treatments for eye infection |
US11921831B2 (en) | 2021-03-12 | 2024-03-05 | Intellivision Technologies Corp | Enrollment system with continuous learning and confirmation |
TWI775356B (zh) * | 2021-03-19 | 2022-08-21 | 宏碁智醫股份有限公司 | 用於眼底圖的影像前處理方法及影像處理裝置 |
TWI758162B (zh) * | 2021-04-15 | 2022-03-11 | 和碩聯合科技股份有限公司 | 生物形體的追蹤系統及方法 |
CN113785304A (zh) * | 2021-09-20 | 2021-12-10 | 商汤国际私人有限公司 | 人脸识别方法和装置 |
WO2023041963A1 (en) * | 2021-09-20 | 2023-03-23 | Sensetime International Pte. Ltd. | Face identification methods and apparatuses |
EP4160548A1 (en) * | 2021-10-01 | 2023-04-05 | Amadeus S.A.S. | System and method for processing biometric characteristics |
US20230222197A1 (en) | 2022-01-07 | 2023-07-13 | Jumio Corporation | Biometric Authentication Using Head-Mounted Devices |
CN114936361A (zh) * | 2022-01-28 | 2022-08-23 | 中国银联股份有限公司 | 生物特征识别方法、服务器以及客户端 |
CN116797500B (zh) * | 2022-03-14 | 2024-09-06 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质、电子设备及产品 |
CN115442021A (zh) * | 2022-08-09 | 2022-12-06 | 中国银联股份有限公司 | 一种数据匹配方法、装置、系统、设备及介质 |
US11762969B1 (en) * | 2023-01-12 | 2023-09-19 | King Saud University | Systems and methods for facilitating biometric recognition |
CN115984952B (zh) * | 2023-03-20 | 2023-11-24 | 杭州叶蓁科技有限公司 | 基于球结膜血管图像识别的眼动跟踪系统及其方法 |
CN117392225B (zh) * | 2023-12-06 | 2024-07-23 | 中导光电设备股份有限公司 | 一种显示屏检测区域位置校正的方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1731418A (zh) * | 2005-08-19 | 2006-02-08 | 清华大学 | 复杂背景图像中鲁棒的眼睛精确定位方法 |
CN101588842A (zh) * | 2006-10-16 | 2009-11-25 | Oraya治疗公司 | 眼放射外科 |
Family Cites Families (120)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US5303709A (en) | 1991-12-16 | 1994-04-19 | Dreher Andreas W | Retinal eye disease diagnostic system |
US5632282A (en) | 1993-07-20 | 1997-05-27 | Hay; S. Hutson | Ocular disease detection apparatus |
US6095989A (en) | 1993-07-20 | 2000-08-01 | Hay; Sam H. | Optical recognition methods for locating eyes |
US6707484B1 (en) | 1994-07-28 | 2004-03-16 | Semiconductor Energy Laboratory Co., Ltd. | Information processing system |
US6714665B1 (en) * | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
JPH1063858A (ja) * | 1996-08-21 | 1998-03-06 | Oki Electric Ind Co Ltd | 個人識別方法及び個人識別装置 |
CA2273279A1 (en) | 1996-12-04 | 1998-06-11 | Dew Engineering And Development Limited | Biometric security encryption system |
JPH10340344A (ja) * | 1997-06-06 | 1998-12-22 | Oki Electric Ind Co Ltd | 個体識別装置 |
JPH10340343A (ja) * | 1997-06-06 | 1998-12-22 | Oki Electric Ind Co Ltd | 個体識別装置 |
US6185316B1 (en) | 1997-11-12 | 2001-02-06 | Unisys Corporation | Self-authentication apparatus and method |
JP3315648B2 (ja) | 1998-07-17 | 2002-08-19 | 沖電気工業株式会社 | アイリスコード生成装置およびアイリス認識システム |
KR100320188B1 (ko) | 1999-03-23 | 2002-01-10 | 구자홍 | 홍채인식 시스템의 위조 판별방법 |
JP4519963B2 (ja) | 1999-06-21 | 2010-08-04 | 富士通株式会社 | 生体情報の暗号化・復号化方法および装置並びに、生体情報を利用した本人認証システム |
US6839151B1 (en) | 2000-02-02 | 2005-01-04 | Zoran Corporation | System and method for color copy image processing |
DK1285409T3 (da) | 2000-05-16 | 2005-08-22 | Swisscom Mobile Ag | Fremgangsmåde ved biometrisk identificering og autentificering |
US7536557B2 (en) | 2001-03-22 | 2009-05-19 | Ensign Holdings | Method for biometric authentication through layering biometric traits |
US6836554B1 (en) | 2000-06-16 | 2004-12-28 | International Business Machines Corporation | System and method for distorting a biometric for transactions with enhanced security and privacy |
JP2002236666A (ja) * | 2001-02-09 | 2002-08-23 | Matsushita Electric Ind Co Ltd | 個人認証装置 |
US7103200B2 (en) | 2001-03-05 | 2006-09-05 | Robert Hillhouse | Method and system for adaptively varying templates to accommodate changes in biometric information |
US8279042B2 (en) | 2001-07-10 | 2012-10-02 | Xatra Fund Mx, Llc | Iris scan biometrics on a payment device |
FR2831302A1 (fr) | 2001-10-19 | 2003-04-25 | St Microelectronics Sa | Codage d'informations concentriques |
WO2003105678A2 (en) | 2002-06-12 | 2003-12-24 | Advanced Research And Technology Institute, Inc. | Method and apparatus for improving both lateral and axial resolution in ophthalmoscopy |
JP2004023733A (ja) | 2002-06-20 | 2004-01-22 | Canon Inc | 画像撮影装置及びその制御方法 |
US7668351B1 (en) | 2003-01-17 | 2010-02-23 | Kestrel Corporation | System and method for automation of morphological segmentation of bio-images |
US7474407B2 (en) | 2003-02-20 | 2009-01-06 | Applied Science Innovations | Optical coherence tomography with 3d coherence scanning |
US7599524B2 (en) * | 2003-04-04 | 2009-10-06 | Sarnoff Corporation | Method and apparatus for providing a robust object finder |
KR20050025927A (ko) * | 2003-09-08 | 2005-03-14 | 유웅덕 | 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 |
JP3945474B2 (ja) | 2003-11-28 | 2007-07-18 | 松下電器産業株式会社 | 眼画像入力装置および認証装置ならびに画像処理方法 |
US7336806B2 (en) | 2004-03-22 | 2008-02-26 | Microsoft Corporation | Iris-based biometric identification |
US7542590B1 (en) | 2004-05-07 | 2009-06-02 | Yt Acquisition Corporation | System and method for upgrading biometric data |
US20050281440A1 (en) | 2004-06-18 | 2005-12-22 | Pemer Frederick A | Iris feature detection and sensor-based edge detection |
US7155040B2 (en) | 2004-06-29 | 2006-12-26 | Bio-Key International, Inc. | Generation of quality field information in the context of image processing |
US20060110011A1 (en) | 2004-11-19 | 2006-05-25 | Cohen Mark S | Method and apparatus for producing a biometric identification reference template |
US20060120571A1 (en) * | 2004-12-03 | 2006-06-08 | Tu Peter H | System and method for passive face recognition |
GB0427205D0 (en) | 2004-12-11 | 2005-01-12 | Ncr Int Inc | Biometric system |
MX2007007561A (es) | 2004-12-22 | 2008-03-10 | Merkatum Corp | Metodo y sistema de autentificacion biometrica multimodal auto-adaptable. |
WO2006078343A2 (en) | 2005-01-14 | 2006-07-27 | Ultra-Scan Corporation | Multimodal fusion decision logic system |
KR101224408B1 (ko) * | 2005-01-26 | 2013-01-22 | 허니웰 인터내셔널 인코포레이티드 | 원격 홍채 인식 시스템 |
RU2365995C2 (ru) * | 2005-01-31 | 2009-08-27 | Самсунг Электроникс Ко., Лтд. | Система и способ регистрации двухмерных изображений |
US7327860B2 (en) | 2005-05-04 | 2008-02-05 | West Virginia University | Conjunctival scans for personal identification |
US8370639B2 (en) | 2005-06-16 | 2013-02-05 | Sensible Vision, Inc. | System and method for providing secure access to an electronic device using continuous facial biometrics |
JP4686284B2 (ja) | 2005-07-13 | 2011-05-25 | 日立オムロンターミナルソリューションズ株式会社 | 生体情報登録装置 |
US8260008B2 (en) | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
US7801335B2 (en) | 2005-11-11 | 2010-09-21 | Global Rainmakers Inc. | Apparatus and methods for detecting the presence of a human eye |
US8005277B2 (en) | 2006-03-03 | 2011-08-23 | Research Foundation-State University of NY | Secure fingerprint matching by hashing localized information |
US20070217708A1 (en) | 2006-03-20 | 2007-09-20 | International Business Machines Corporation | Method, system, and program product for transforming a biometric image |
JP4961214B2 (ja) | 2006-03-29 | 2012-06-27 | 株式会社日立情報制御ソリューションズ | 生体認証方法およびシステム |
RU2304307C1 (ru) * | 2006-03-29 | 2007-08-10 | Юрий Витальевич Морзеев | Способ идентификации человека по изображению его лица |
WO2007124450A2 (en) | 2006-04-21 | 2007-11-01 | The Trustees Of The University Of Pennsylvania | Motion artifact compensation |
US20070286462A1 (en) | 2006-04-28 | 2007-12-13 | David Usher | System and method for biometric retinal identification |
KR100852629B1 (ko) | 2006-06-02 | 2008-08-18 | 연세대학교 산학협력단 | 다초점 영상 시퀀스를 이용한 홍채인식 시스템 및 방법 |
US20070291277A1 (en) | 2006-06-20 | 2007-12-20 | Everett Matthew J | Spectral domain optical coherence tomography system |
US8417960B2 (en) | 2006-09-06 | 2013-04-09 | Hitachi, Ltd. | Method for generating an encryption key using biometrics authentication and restoring the encryption key and personal authentication system |
PL380581A1 (pl) | 2006-09-07 | 2008-03-17 | Naukowa I Akademicka Sieć Komputerowa | Sposób testowania żywotności oka i urządzenie do testowania żywotności oka |
US20080298642A1 (en) | 2006-11-03 | 2008-12-04 | Snowflake Technologies Corporation | Method and apparatus for extraction and matching of biometric detail |
KR100855631B1 (ko) * | 2006-12-26 | 2008-09-01 | (주)엔토시스 | 특징벡터 검출장치 및 방법, 그리고, 이를 이용한얼굴인식장치 및 방법 |
JP4309926B2 (ja) * | 2007-03-13 | 2009-08-05 | アイシン精機株式会社 | 顔特徴点検出装置、顔特徴点検出方法及びプログラム |
US8279329B2 (en) | 2007-04-10 | 2012-10-02 | University Of Rochester | Structured illumination for imaging of stationary and non-stationary, fluorescent and non-fluorescent, objects |
US8831299B2 (en) * | 2007-05-22 | 2014-09-09 | Intellectual Ventures Fund 83 Llc | Capturing data for individual physiological monitoring |
FI20070501A0 (fi) | 2007-06-21 | 2007-06-21 | Timo Tapani Lehto | Menetelmä ja järjestelmä ihmisen tunnistamiseksi |
JP5110983B2 (ja) | 2007-06-29 | 2012-12-26 | 日立オムロンターミナルソリューションズ株式会社 | 生体認証処理システム |
WO2009029765A1 (en) | 2007-09-01 | 2009-03-05 | Global Rainmakers, Inc. | Mirror system and method for acquiring biometric data |
RU2382408C2 (ru) * | 2007-09-13 | 2010-02-20 | Институт прикладной физики РАН | Способ и система для идентификации человека по изображению лица |
RU2390844C2 (ru) * | 2007-10-22 | 2010-05-27 | Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет | Способ распознавания глаз на изображении и устройство для его реализации |
JP5080944B2 (ja) | 2007-11-08 | 2012-11-21 | 興和株式会社 | パノラマ眼底画像合成装置及び方法 |
ES2326205B1 (es) | 2007-11-27 | 2010-06-29 | Universidad Complutense De Madrid | Metodo y dispositivo para el reconocimiento de individuos basado en la imagen de la retina que incorpora como constante biometrica el area imagen del punto de fijacion. |
US8532344B2 (en) | 2008-01-09 | 2013-09-10 | International Business Machines Corporation | Methods and apparatus for generation of cancelable face template |
JP5277365B2 (ja) | 2008-04-06 | 2013-08-28 | 国立大学法人九州工業大学 | 個人認証方法及びそれに使用する個人認証装置 |
US8238639B2 (en) | 2008-04-09 | 2012-08-07 | Cognex Corporation | Method and system for dynamic feature detection |
KR100949801B1 (ko) | 2008-04-17 | 2010-03-30 | 한국전자통신연구원 | 퍼지볼트 시스템에서의 다항식 복원장치 및 그 방법 |
US8079711B2 (en) | 2008-04-24 | 2011-12-20 | Carl Zeiss Meditec, Inc. | Method for finding the lateral position of the fovea in an SDOCT image volume |
AU2009260721B2 (en) | 2008-06-06 | 2013-05-09 | Google Llc | Annotating images |
JP4569670B2 (ja) * | 2008-06-11 | 2010-10-27 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
US8249314B2 (en) | 2008-06-16 | 2012-08-21 | International Business Machines Corporation | Anonymous and revocable fingerprint recognition |
JP2010020594A (ja) * | 2008-07-11 | 2010-01-28 | Kddi Corp | 瞳画像認識装置 |
ES2337866B2 (es) | 2008-07-24 | 2011-02-14 | Universidad Complutense De Madrid | Reconocimiento biometrico mediante estudio del mapa de superficie delsegundo dioptrio ocular. |
US8090246B2 (en) * | 2008-08-08 | 2012-01-03 | Honeywell International Inc. | Image acquisition system |
KR100996466B1 (ko) | 2008-10-09 | 2010-11-25 | 조선대학교산학협력단 | 비밀분산 기법을 이용한 지문정보 저장 장치, 비밀분산 기법을 이용한 지문 인증 시스템 및 비밀분산 기법을 이용한 지문 인증 방법 |
US9226798B2 (en) | 2008-10-10 | 2016-01-05 | Truevision Systems, Inc. | Real-time surgical reference indicium apparatus and methods for surgical applications |
US8514277B2 (en) | 2008-11-05 | 2013-08-20 | Dyer Holdings, Llc | Video infrared retinal image scanner |
US20100142766A1 (en) | 2008-12-04 | 2010-06-10 | Alan Duncan Fleming | Image Analysis |
US8280119B2 (en) | 2008-12-05 | 2012-10-02 | Honeywell International Inc. | Iris recognition system using quality metrics |
KR20100073191A (ko) | 2008-12-22 | 2010-07-01 | 한국전자통신연구원 | 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치 |
US8768014B2 (en) | 2009-01-14 | 2014-07-01 | Indiana University Research And Technology Corp. | System and method for identifying a person with reference to a sclera image |
US20100232659A1 (en) | 2009-03-12 | 2010-09-16 | Harris Corporation | Method for fingerprint template synthesis and fingerprint mosaicing using a point matching algorithm |
GB2471192B (en) | 2009-06-15 | 2011-08-17 | Honeywell Int Inc | An iris and ocular recognition system using trace transforms |
US8472681B2 (en) * | 2009-06-15 | 2013-06-25 | Honeywell International Inc. | Iris and ocular recognition system using trace transforms |
JP5287550B2 (ja) | 2009-07-01 | 2013-09-11 | 富士通株式会社 | 生体認証システム,生体認証方法,生体認証装置,生体情報処理装置,生体認証プログラムおよび生体情報処理プログラム |
WO2011030675A1 (ja) | 2009-09-09 | 2011-03-17 | 日本電気株式会社 | 生体認証システム、方法およびプログラム |
KR101255555B1 (ko) | 2009-11-24 | 2013-04-17 | 한국전자통신연구원 | 보안성이 강화된 지문인식 방법 및 장치 |
JP5218991B2 (ja) | 2009-12-08 | 2013-06-26 | 株式会社日立製作所 | 複数種類のテンプレートを用いた生体認証システム及び生体認証方法 |
US8818048B2 (en) | 2010-01-22 | 2014-08-26 | Indiana University Research And Technology Corp. | System and method for cancelable iris recognition |
WO2011111102A1 (ja) | 2010-03-10 | 2011-09-15 | 富士通株式会社 | 生体認証装置及び生体認証方法 |
US8948467B2 (en) * | 2010-08-06 | 2015-02-03 | Honeywell International Inc. | Ocular and iris processing system and method |
CN106209382A (zh) | 2010-09-20 | 2016-12-07 | 安全第公司 | 用于安全数据共享的系统和方法 |
US8457370B2 (en) | 2011-01-20 | 2013-06-04 | Daon Holdings Limited | Methods and systems for authenticating users with captured palm biometric data |
US8355544B2 (en) | 2011-02-01 | 2013-01-15 | Universidade Da Coruna-Otri | Method, apparatus, and system for automatic retinal image analysis |
US9064145B2 (en) * | 2011-04-20 | 2015-06-23 | Institute Of Automation, Chinese Academy Of Sciences | Identity recognition based on multiple feature fusion for an eye image |
US9323980B2 (en) | 2011-05-13 | 2016-04-26 | Microsoft Technology Licensing, Llc | Pose-robust recognition |
US8385685B2 (en) * | 2011-06-08 | 2013-02-26 | Honeywell International Inc. | System and method for ocular recognition |
JP6338526B2 (ja) * | 2011-10-17 | 2018-06-06 | アイディール スキャニング リミテッド ライアビリティ カンパニー | 眼のトポグラフィを特定するための方法及び装置 |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
CN102496007B (zh) | 2011-12-02 | 2014-06-11 | 陈中山 | 人体身份识别仪 |
US9082011B2 (en) * | 2012-03-28 | 2015-07-14 | Texas State University—San Marcos | Person identification using ocular biometrics with liveness detection |
US8457367B1 (en) | 2012-06-26 | 2013-06-04 | Google Inc. | Facial recognition |
US8768049B2 (en) | 2012-07-13 | 2014-07-01 | Seiko Epson Corporation | Small vein image recognition and authorization using constrained geometrical matching and weighted voting under generic tree model |
US8369595B1 (en) | 2012-08-10 | 2013-02-05 | EyeVerify LLC | Texture features for biometric authentication |
US8437513B1 (en) | 2012-08-10 | 2013-05-07 | EyeVerify LLC | Spoof detection for biometric authentication |
US8483450B1 (en) * | 2012-08-10 | 2013-07-09 | EyeVerify LLC | Quality metrics for biometric authentication |
EP2892026A4 (en) * | 2012-08-28 | 2016-05-18 | Hitachi Ltd | AUTHENTICATION DEVICE AND AUTHENTICATION METHOD |
CN103679118B (zh) * | 2012-09-07 | 2017-06-16 | 汉王科技股份有限公司 | 一种人脸活体检测方法及系统 |
US9171226B2 (en) * | 2012-09-26 | 2015-10-27 | Carnegie Mellon University | Image matching using subspace-based discrete transform encoded local binary patterns |
CN104143078B (zh) * | 2013-05-09 | 2016-08-24 | 腾讯科技(深圳)有限公司 | 活体人脸识别方法、装置和设备 |
US9076238B2 (en) * | 2013-08-21 | 2015-07-07 | Seiko Epson Corporation | Intelligent weighted blending for ultrasound image stitching |
US8965066B1 (en) | 2013-09-16 | 2015-02-24 | Eye Verify LLC | Biometric template security and key generation |
US9053365B2 (en) * | 2013-09-16 | 2015-06-09 | EyeVerify, Inc. | Template update for biometric authentication |
TWI557004B (zh) * | 2014-01-10 | 2016-11-11 | Utechzone Co Ltd | Identity authentication system and its method |
MY180872A (en) * | 2014-02-25 | 2020-12-10 | Eyeverify Inc | Eye gaze tracking |
US9922238B2 (en) * | 2015-06-25 | 2018-03-20 | West Virginia University | Apparatuses, systems, and methods for confirming identity |
-
2016
- 2016-09-09 RU RU2018112713A patent/RU2691195C1/ru active
- 2016-09-09 EP EP16766809.4A patent/EP3347853A1/en not_active Ceased
- 2016-09-09 KR KR1020187009807A patent/KR101967123B1/ko active IP Right Grant
- 2016-09-09 SG SG10202001380RA patent/SG10202001380RA/en unknown
- 2016-09-09 MX MX2018003051A patent/MX2018003051A/es unknown
- 2016-09-09 BR BR122018007961-4A patent/BR122018007961B1/pt active IP Right Grant
- 2016-09-09 CN CN201910948427.7A patent/CN110852160B/zh not_active Expired - Fee Related
- 2016-09-09 CN CN201680060614.6A patent/CN108351961B/zh not_active Expired - Fee Related
- 2016-09-09 SG SG10202001382XA patent/SG10202001382XA/en unknown
- 2016-09-09 US US15/261,217 patent/US9721150B2/en active Active
- 2016-09-09 AU AU2016319775A patent/AU2016319775B2/en not_active Ceased
- 2016-09-09 KR KR1020207000837A patent/KR102131104B1/ko active IP Right Grant
- 2016-09-09 BR BR112018004755-4A patent/BR112018004755A2/pt active Search and Examination
- 2016-09-09 RU RU2019116007A patent/RU2711050C2/ru active
- 2016-09-09 US US15/261,224 patent/US10311286B2/en active Active
- 2016-09-09 WO PCT/US2016/050999 patent/WO2017044782A1/en active Application Filing
- 2016-09-09 KR KR1020197009324A patent/KR102067947B1/ko active IP Right Grant
- 2016-09-09 US US15/261,208 patent/US9836643B2/en active Active
- 2016-09-09 JP JP2018512910A patent/JP6416438B2/ja not_active Expired - Fee Related
- 2016-09-10 TW TW109111130A patent/TWI706272B/zh not_active IP Right Cessation
- 2016-09-10 TW TW109111129A patent/TWI706266B/zh not_active IP Right Cessation
- 2016-09-10 TW TW105129475A patent/TWI687832B/zh active
-
2018
- 2018-03-12 PH PH12018500541A patent/PH12018500541A1/en unknown
- 2018-09-03 HK HK18111261.9A patent/HK1251933A1/zh not_active IP Right Cessation
- 2018-10-03 JP JP2018188074A patent/JP6449516B2/ja active Active
- 2018-10-31 AU AU2018256555A patent/AU2018256555B2/en not_active Ceased
- 2018-12-05 JP JP2018227836A patent/JP6778247B2/ja not_active Expired - Fee Related
-
2019
- 2019-06-28 AU AU2019204639A patent/AU2019204639B2/en not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1731418A (zh) * | 2005-08-19 | 2006-02-08 | 清华大学 | 复杂背景图像中鲁棒的眼睛精确定位方法 |
CN101588842A (zh) * | 2006-10-16 | 2009-11-25 | Oraya治疗公司 | 眼放射外科 |
Non-Patent Citations (6)
Title |
---|
Abhijit Das.A New Efficient and Adaptive Sclera Recognition System.《2014 IEEE Symposium on Computational Intelligence in Biometrics and Identity Management》.2015,正文1-8页. * |
Chun-Wei.Towards Online Iris and Periocular Recognition Under Relaxed Imaging Constraints.《IEEE TRANSACTIONS ON IMAGE PROCESSING》.2013,第22卷(第10期),3751-376. * |
Hugo Proença.Ocular Biometrics by Score-Level Fusion of Disparate Experts.《IEEE TRANSACTIONS ON IMAGE PROCESSING》.2014,第23卷(第12期),5082-5093. * |
Unsang Park.Periocular Biometrics in the Visible Spectrum: A Feasibility Study .《2009 IEEE 3rd International Conference on Biometircs: Rheory, Application, and systems》.2009,153-158. * |
Zhenan Sun.Improving Iris Recognition Accuracy via Cascaded Classifiers .《IEEE transaction on system,man and cybernetic,partC》.2005,第35卷(第3期),435-441. * |
张英杰.基于支持向量机和 Hamming 距离的虹膜识别算法研究 .《CNKI优秀硕士学位论文全文库(信息科技辑)》》.2015,(第1期),I138-462. * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110852160B (zh) | 以图像为基准的生物识别系统及计算机实施方法 | |
US10789465B2 (en) | Feature extraction and matching for biometric authentication | |
BR122018007964B1 (pt) | Método implementado por computador e sistema |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40016785 Country of ref document: HK |
|
TA01 | Transfer of patent application right |
Effective date of registration: 20221109 Address after: California, USA Applicant after: JUMIO Inc. Address before: Missouri, USA Applicant before: EYEVERIFY |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20230509 |
|
CF01 | Termination of patent right due to non-payment of annual fee |