CN104123534A - 生物识别 - Google Patents
生物识别 Download PDFInfo
- Publication number
- CN104123534A CN104123534A CN201410171798.6A CN201410171798A CN104123534A CN 104123534 A CN104123534 A CN 104123534A CN 201410171798 A CN201410171798 A CN 201410171798A CN 104123534 A CN104123534 A CN 104123534A
- Authority
- CN
- China
- Prior art keywords
- hand
- finger
- feature
- image
- vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明的各实施方式总体上涉及生物识别。具体地,涉及人手的混合图像被访问,所述混合图像是使用分割的灰度图像和分割的彩色图像所生成。在所述混合图像中的手背标识。在所述混合图像中,一个或者多个手指指尖与一个或者多个手指谷被标识。基于所述被标识的手指指尖和手指谷,手的一个或者多个手指被分割。一个或者多个手指被标记。手的每个手指的一个或者多个特征被确定出来。
Description
相关申请的交叉引用
本申请要求2013年4月24日提交的、名称为“DESIGN OF ALOW-COST BIOMETRIC RECOGNITION SYSTEM BASED ONHAND GEOMETRY”的印度专利申请No.1791/CHE/2013的优先权,并将其完整地引用合并于此。
技术领域
本发明涉及生物认证技术。
背景技术
通常生物认证系统包括:关于个体的生物信息(例如,指纹、眼底扫描、面部图像等)的数据库。为了标识或者认证生物信息的样本,典型的生物特征匹配系统会将该样本与所述数据库中的条目进行比较。
发明内容
在一方面,一个系统包括:至少一个处理器和至少一个与所述至少一个处理器耦合的存储器,所述存储器中存储有指令并在其被所述至少一个处理器所执行时使得所述至少一个处理器进行相应操作。所述操作包括:访问人手的图像,所述图像由图像获取设备所获取;从所述人手的混合图像(例如通过组合两个或者更多图片的信息而混合成的单个混合图像)中为所述手的每个手指确定出各自的特征组,每个特征描述手指的特性,其中所述人手的混合图像是基于比较人手的第一分割图像和第二分割图像而生成;从数据存储系统为第二手的每个手指访问各自的匹配特征组,其中每个特征描述手指的特性;基于对应于第一手手指的特征组和对应于第二手手指的匹配特征组的比较,生成测量第一手和第二手之间相似度的相似度分数;基于所述相似度分数输出结果。
在另一方面,一个方法可以包括如前所述的一个或者多个操作。然而在另一个方面,一个计算机可读存储介质可以被操作使得一个处理器可以执行前述的一个或者多个操作。
实现方式可以包括下述特征中的一个或者多个。例如,所述的操作可以进一步包括:访问人手的彩色图像;使用所述彩色图像生成所述人手的灰度图像;分割所述人手的灰度图像;分割所述人手的彩色图像;以及使用所述分割的灰度图像和所述分割的彩色图像生成混合图像。
所述操作可能进一步包括:访问所述人手的混合图像,所述混合图像是使用分割的灰度图像和分割的彩色图像所生成;在所述混合图像中标识出所述人手;在所述混合图像中标识出一个或者多个手指指尖以及一个或者多个手指谷;基于所述标识出来的手指指尖和手指谷,分割所述人手的一个或者多个手指;标记所述人手的一个或者多个手指;并且为所述人手的每个手指确定出一个或者多个特征。所述每个手指的一个或者多个特征包括:Zernike矩、Hu矩和手指宽度统计。
所述操作进一步可以包括:为第一手的每个手指确定在描述第一手的手指的特征组中的特征与描述第二手的对应手指的特征组中的特征之间的相应距离;为所述特征组中的每个特征确定各自的平均(例如算术平均数或者几何平均数,或者移动平均数)距离;基于各自的平均距离,生成测量第一手和第二手之间相似度的相似度分数。
所述操作可以进一步包括:为第一手中的各个手指确定出在描述第一手手指的特征组中的各个特征和描述第二手对应手指的特征组中的各个匹配特征之间的相应Hamming距离。
所述操作可以进一步包括:使用在描述第一手手指的特征组中的特征和描述第二手对应手指的特征组中的相同特征之间的相应距离(例如1%-10%偏差之内,较佳地是在2%-8%偏差之内,或者更好地是5%偏差),确定出所述特征的平均(例如算术平均数或者几何平均数,或者移动平均数)距离。
所述操作可以进一步包括:确定测量第一手和第二手之间相似度的相似度分数满足(例如超出或者低于)阈值(例如预定的值);响应于确定测量第一手和第二手之间相似度的相似度分数满足(例如超出或者低于)阈值(例如预定的值),使用所述数据存储系统中为一特定人而登记(例如预登记和存储在数据库)的数据,标识出该人的身份(例如姓名、ID或者护照号码或者社会保险号码)。
本发明的实施例可以提供一个或者多个以下的优点。第一,使用所述混合图像对人手的特性和特征进行测量可以比仅仅依靠分割的灰度图像或者仅仅依靠分割的彩色图像进行测量,提供更好的测量精度。当测量手的特性和特征时,所述系统可以评价所述混合图像。第二,分割所述获取图像允许系统可以区分开图像中表示手的像素和剩余像素。因此,分割操作可以允许系统在所获取的图像中更加精确地标识出手的边际。第三,在对资源的安全访问很重要的场合,更加精确,更加稳定和快速的认证人手可以提高安全性。一个或者多个实施例的细节在以下的附图和说明被提出。本发明的其它可能特征从所述说明书、附图和权利要求中将变得清楚。
附图说明
图1是示例性流程的示图。
图2和图10是示例性系统的示图。
图3至图5和图9是示例性流程的流程图。
图6A至图6D示出了对手的轮廓进行的示例性的检测。
图7A至图7D示出了示例性的手指分割流程。
图8A至图8D示出了示例性的手指标记流程。
具体实施方式
在一些实施例中,基于手的生物识别手段是用于认证人的。在进行所述的认证之前,描述人手的数据,例如掌形,被登记到生物识别数据库中。在进行所述登记的流程中,通过使用图像处理设备人手的图片被获取到。人手的图像可以从手背或手掌的视图中获取到。
接着,生物系统为手的每个手指分别产生一个特征组,每个特征组描述手指的特征。每个特征可以描述手指或者手的集合结构。对应于手的每个特征组可以被保存在生物识别数据库中。
在进行认证的过程中,人将提供用于生成图像用的相同的手,对应的视图,例如在进行登记流程时所使用的手背或者手掌。图像处理装置可以获取到一个或者多个人手的图像。
生物特征系统可以分析所述的一个或者多个图像,以为每个手指分别生成特征组。使用其相似度功能,所述生物特征系统可以生产一个相似度分数,其可以测量出人手和之前登记到生物特征识别数据库中的人手之间的相似度。基于所述的相似度分数,所述生物特征系统可以确定所述人手和之前登记到生物特征识别数据库中的人手是相匹配的,并且作为一个结果确定这个人的身份。
图1示出了使用基于手的生物识别技术来认证人的示例性流程100。如图所示,人112持其手114于图像获取系统110之前。图像获取系统110捕捉到手114的图像。
图像获取系统110将描述了手114的图像的数据发送到生物特征服务器120。生物特征服务器120测量在所述图像中的特征。例如,在一些实施例中,对于包括有人手的图像,生物特征服务器120可以测量如下的特征:不同手指的宽度、不同手指的长度、手掌的宽度、手掌的厚度。
在前所列出的特征的类型是以例子进行提供的。具体地,在本申请中所描述的技术可以被使用到手图像测量的任一特征中。
生物特征服务器120也为手113的每个手指分别确定一个特征组,每个特征组分别描述手指的例如几何结构的特征。在一些实施例中,所述特征组包括如下所述的:Zernike矩、Hu矩、手指宽度统计。
生物特征服务器120将描述了各个手113的手指特征的特征组发送到生物认证系统130。生物认证系统130配置为访问配置数据库140。配置数据库140可以保存有描述对应着一个或者多个被识别人的手指的各个特征组的数据,其中所述一个或者多个被识别人是已经被登记在数据库140中的。
生物认证系统130可以使用相似度功能生成相应的相似度分数,每个相似度分数测量了手114和登记在数据库140中的被识别过的人的手之间的相似度。每个相似度分数可以基于对手114的手指对应的各个特征组和被识别过的人的手的手指所对应的各个特征组进行比较而生成。
生物认证系统130基于所述相似度分数确定是否手114与登记在数据库140中的被识别过的人的手是相匹配的。生物认证系统130可以将所述结果发送到图像获取系统110。基于该结果,图像获取系统110可以识别到人112。在一些实施例中,图像获取系统110可以将该结果同一个或者多个由一个或者多个不同生物特征测量所确定的其它结果相组合。所述组合的结果可以被用于标识人112。
图2示出了一个示例性的生物认证系统200。系统200包括输入模块210、数据存储器220、一个或者多个处理器230、一个或者多个I/O(输入/输出)设备240、存储器250。输入模块220可以被用于输入任意类型的信息以用于登记和验证生物数据。例如,输入模块210可以被用于接收新的登记到数据库中的生物数据,或者接收样本生物数据以验证存储在数据库中的生物数据。在一些实施例中,来自输入模块210的数据被存储在数据存储器220中。存储在数据存储器220中的数据可以包括例如任意类型的生物数据(例如掌形数据等)。
在一些例子中,数据存储器220可能是一个关系型数据库,其逻辑性地组织数据成为数据库表的系列。数据存储器220中的每个数据库表格可以布置数据为列(其中每个列表示存储在数据库中数据的一个特征)和行(其中每个行表示特征值)的系列。在一些实施例中,数据存储器220可以是面向对象的数据库,其逻辑地合作和物理地组织数据成为对象的系列。每个对象可以是关联着一系列的特征值。在一些例子中,数据存储器220可以是一种数据库管理系统,其不必要是一个关系型数据库或者面向对象的数据库。例如,一个XML(可扩展标示语言)文件或者文本系列可以被使用,其中每个XML文件或者文本包括特征和特征值。包括在数据存储器220中的数据可以被一个唯一的标识号所标记,以便与一个特定处理相关的数据可以从数据存储器220中获取到。
处理器230可以是一个适合于执行电脑程序的处理器,其例如是为通用或者特殊用处的微处理器,以及任意种数字计算机的任意一个或者多个处理器。在一个实施例中,系统200包括多于一个的处理器230。处理器230可以从存储器250中获取指令和数据。存储器250可以保存对应于系统200的任一或者全部组件的指令和数据存。存储器250可以包括只读存储器、随机访问存储器或者两者都包括。
I/O设备240被配置为提供到系统200的输入或者提供来自系统200的输出。例如I/O设备240可以包括:鼠标、键盘、输入笔或者任意其它允许进行数据输入的设备。I/O设备240也可能包括显示器、打印机或者任意其它输出数据的设备。
图3示出了确定第一手和第二手之间的相似度的流程300。流程300的运行大体上被描述为由系统200来执行。在一些实施例中,流程300的运行可以是由一个或者多个电子设备中的一个或者多个处理器来执行。
系统200访问人的第一手(310)的图像。例如,系统200接收人手的生物图像,例如左手或者右手。在这个例子中,系统200可能包括一个或者多个可以捕捉生物图像的设备或者与一个或者多个可以捕捉生物图像的设备进行通信。所述的一个或者多个设备可以包括:摄像头、指纹扫描仪、手扫描仪或者任意其它的可以捕捉生物图像的设备。系统200可以访问所述一个或者多个设备中的任意一个的输出,并作为生物图像,该生物图像是传统的图像格式。例如是BMP、JPEG、TIFF、PNG等。
当获取人手的生物图像时,人可以被要求将手置于一高对比度的背景相对,例如,置手与深黑纸相对,其中所述背景被置于设备的镜头之下以便设备获取到生物图像。所述设备可以捕捉到手掌或者手背的二维彩色图像,例如RGB彩色图像。例如:从手指尖部到手腕延展区域上的图像。使用高对比度背景可以最小化阴影的影响,并方便从图像中对手进行分割。被捕捉到的图像的分辨率可以改变,手也不需要以特定的方式进行摆放。但是通常,人是需要摆放与之前在生物认证系统200中进行登记时使用的手是相同的一只手,例如左手或者右手。
在一些例子中,系统200从数据存储器220中访问生物图像。在这些例子中,生物图像可以是在与系统200相隔开的位置处花时间而获取到,并被存储用于后期的处理和标识。系统200也可以通过网络接收生物图像。
系统200为第一手的每个手指确定相应的特征组(320)。手指的每个特征可以描述一个手指的特性例如几何结构。基于所实施的,所述的特征包括:Zernike矩、Hu矩、手指宽度统计或者其组合。如下所述的,在特征组中的特征可以从手的特性测量中被确定下来。使用例如一个或者多个软件开发包(SDK)可以实现测量手的特性的流程,系统200可以测量手的特性。
示例性的测量包括:手指的宽度、手指的长度、手掌的宽度、手掌的厚度、手的整体展现、基于主成分分析(PCA)和独立成分分析(ICA)的手的紧凑展现、以及对投射在手表面上的图案的变形的测量。上面所列出测量类型是一些例子。
在一些情形中,使用例如一个或者多个软件开发包(SDK),例如开源计算机视觉类库(OpenCV),系统200可以确定描述了手指或者手的特性的特征,其中开源计算机视觉类库是一个开源的计算机视觉和机器学习软件库。
通常,在测量和特征被确定下来之前,系统200分割捕捉到的手的图像,这一点参见图4所揭示的那样。对捕捉到的图像的分割允许系统200去区分表示了手的像素和图像中的其它像素。因此,所述的分割处理可以允许系统200进行更加精确地标识出捕捉图像中的手的边际。
系统200从所述分割图像中再生成第二分割图像,其分割出了手指,这一点参见图5所描述。系统200可以使用第二分割图来标识出在捕捉图像中的各个手指的各自边际。
系统200可以分析第二分割图来确定各个手指的各自的特征组,这一点参见图5所描述的。
系统200访问第二手的各个手指的各自的特征组(330)。例如,系统200从数据存储器220访问各自的特征组。通常地,用于确定第一手的手指的各个特征组的特征的类型与用于确定第二手的手指的各个特征组的特征的类型是相匹配的。
使用相似度功能,系统200生成相似度分数,其测量了第一手和第二手(340)之间的相似度。参见图9所描述的,用于第一手和第二手的相似度分数可以基于第一手的手指特征和第二手的对应手指特征的比较而确定下来。例如,部分地所述相似度分数可以基于比较第一手对应食指的Zernike矩和Hu矩与第二手对应食指的Zernike矩和Hu矩而被确定下来。
系统200基于所述相似度分数(350)输出结果。例如,基于相似度分数,系统200可以确定第一手与第二手是相匹配的,因此,认证出所述手是属于之前登记在系统200中的人的。
图4示出了分割手的图像的流程400。流程400的运行被大致描述为由系统200来运行。在一些实施例中,流程400可能是由包括在一个或者多个电子设备中的一个或者多个处理器来运行的。
如前所述。分割一个图像使得系统200可以区分表示了手的像素和图中剩下的像素。因此,分割处理可以使得系统更加精确地标识出被捕捉图像中手的边际。
系统200访问人手(410)的彩色图像。系统200可以接收带一个人手的RGB生物图像,例如如前所述的左手或者右手。在一些实施例中,在进行分割之前,系统200预先处理所述的彩色图像以为图像分割进行准备。例如,一有移动设备所获取的图像,例如,没有闪光灯,可能是黑的,因此该图片可以被变亮以提高图像中物体的对比度。
为了预处理图像,系统200可以使用高斯滤镜对所述的彩色图像进行顺滑处理。系统200可以通过例如使用OpenCV库中的顺滑操作来进行高斯滤镜处理。基于所实施的,所述的顺滑处理可以被实现为使用3x3的遮罩尺寸和2.5的西格玛值。
接下来,通过第一步将各个R、G、B通道的像素值乘以1.5来生成各自的倍数化的像素值,系统200亮化处理了所述的彩色图像。对于每个像素,通过选择255的最小值或者选择倍数化的像素值,像素的新值被设置。
被亮化后的彩色图像被进一步地增强,通过转化所述彩色图像到HSV色彩空间,并使用伽马校正所述HSV彩色图像的V通道。
一个使用伽马校正功能的例子按照下述方式可以产生:
其中output value是输出像素值,其中input value是输入像素值,其中gamma是0.95。
使用所述彩色图像,系统200产生了人手(420)的灰度图像。为了产生所述灰度图像,系统首先转变所述人手的彩色图像为256级灰度图像,例如使用256个不同浓度的灰颜色来描述人手的图像。
系统200分割所述人手(430)的灰度图像。
在一些实施例中,通过运用基于Otsu阈值的二值化处理,系统200分割了所述的灰度图像。但是,其它的使用各种像素级别的基于颜色的分割方法也是可能的。
系统200分割人手(440)的所述彩色图像。在一些实施例中,系统200使用K均值聚类处理来分割所述彩色图像。例如,系统200可以定义K值为2以指明有2个聚类将被产生,例如聚类表示对应图像前景的图像数据,聚类表示对应图像背景的图像数据。为了区分表示前景的聚类和表示背景的聚类,系统200可以确定各个聚类中心的3个RGB值的各自的平均值。系统200可以将带有更高平均RGB值的聚类作为前景聚类,而将其它聚类作为背景聚类。在一些实施例中,在产生所述的两个聚类之前,系统200使用k-means++初始化流程初始化所述聚类中心。
使用所述分割后的灰度图像和分割后的彩色图像(450),系统200生成混合后的图像。系统200可以生成混合图像,其组合了分割的灰度图像和分割的彩色图像。当测量手的特性和特征时,系统200可以分析所述混合图像。相比于仅依据分割的灰度图或者分割的彩色图,使用所述的混合图像进行测量可以获得更好的测量精确度。
所述混合图像可以通过在每像素的基础上比较分割的灰度图像和分割的彩色图像而产生。如果像素通过Otsu或者K均值而被划分成为前景像素,则在最终输出的混合图像的对应像素位置处也被设置为前景(或者1或者255)。否则,系统200执行如下所描述的额外步骤,以确定是否将边际处的背景像素升级为前景像素。这样做的目的是为了避免在分割图像中产生的洞。这个想法将避免产生尽可能多的洞,以便我们在提取分割图像中的轮廓时不会获取到太多的轮廓。
对于分割的彩色图像中的每个像素,通过测量像素到第一K均值聚类中心(例如前景聚类)的距离(例如欧式距离),系统200确定距离d0。通过测量像素到第二K均值聚类中心(例如背景聚类)的距离(例如欧式距离),系统200也确定距离d1。
通过确定距离d0和距离d1之间差的绝对值,系统200确定像素聚类德尔塔值。通过确定灰度Otsu阈值,例如由Otsu算法所确定的阈值(例如预先确定的阈值),和灰度图像中的像素值的距离,系统200也确定Otsu德尔塔值。
如果i)所述的Otsu德尔塔值小于所述的Otsu阈值的一半,并且ii)所述像素聚类德尔塔值小于第一K均值聚类中心和第二K均值聚类中心的距离的一半,则系统200在分割的灰度图像和分割的彩色图像中,各自分析所述像素周边的3x3像素栅格。
如果i)分割的灰度图像中的所述3x3像素栅格中的一个或者多个像素对应着所述分割的灰度图像中的前景,ii)分割的彩色图像中的所述3x3像素栅格中的一个或者多个像素对应着所述分割的彩色图像中的前景,iii)Otsu德尔塔值与像素聚类德尔塔值的和小于第一K均值聚类中心和第二K均值聚类中心的距离的三分之一与Otsu阈值的三分之一的和;则系统200标识所述像素为前景像素。
在一些实施例中,系统200例如使用OpenCV库,对所述混合图像运行形态“开启”的操作,以减少不相关联的图像数据,例如与手不相对应的团迹。例如,针对于每个3x3像素栅格的形态元素,系统200在形态关闭操作之后,依次执行3次所述的形态开启操作。接着,系统200执行4次形态关闭操作。系统200接着使用一个轮廓发现操作,例如使用OpenCV库,发现图像中的所有轮廓。在关闭后进行开启操作,将移除噪音。接着,如果有小洞的话,仅仅进行关闭操作以修复所述小洞。
图5示出了从手的图像中分割出手指的流程500。所述流程500的运行通常被描述为执行在系统200中。在一些实施例中,所述流程500的运行可以被执行在一个或者多个电子设备中的一个或者多个处理器中。
系统200访问人手(510)的混合图像。系统200可以产生如前所述的混合图像。
系统200标识出混合图像(520)中的手。在一些实施例中,如图6A所示,系统200通过从所述混合图像中提取出手的轮廓来标识所述手。例如,系统200可以通过使用OpenCV库中的轮廓发现操作提取出轮廓。所述标识的轮廓被标记为手。
一旦所述手被标识出来,混合图像的背景像素被设置为“0”值,并且其前景像素被设置为“255”或者“1”值。在多个轮廓被提取出来的情形中,系统200可以标识出具有最大封闭区域的轮廓作为手的轮廓。
在混合图像(530)中,系统200标识了一个或者多个手指指尖和一个或者多个手指谷。如下所述的,系统200可以使用所标识出来的手指指尖和手指谷来标识手指。
在标识手指指尖和手指谷时,系统200确定出表示了手的团迹的重心的中心。如图6B所示,使用所述团迹的重心的中心,通过标识出轮廓中的与其最小距离的点,系统200可以定位出可能的手指谷;通过标识出轮廓中的与其最大距离的点,系统200可以定位出可能的手指指尖。
如下所述,所述轮廓的最小距离点和最大距离点与所述轮廓的凸起缺陷和轮廓中的高曲率位置的顶角一起被组合起来,以来标识出混合图像中实际的手指指尖和手指谷。
例如,系统200可以通过确定轮廓上每个点p到所述重心的中心的距离以及各个点p的坐标,来确定所述最小值和最大值。系统200可以使用权重来顺滑每个距离值。例如系统200可以以当前像素的距离以及当前像素相邻两侧的各个距离的加权平均值来替换每个距离,其中所述的加权平均计算中当前像素使用的权重值为3,与当前像素邻近的相邻像素使用的权重值为2,其中相邻像素中与当前像素隔离开的像素使用的权重值是1。对于手的轮廓上的每个点,例如当前点curPoint,系统确定在前的点,例如prevPoint,在后的下一点,例如nextPoint,其中在前点prevPoint和下一点nextPoint是与当前点curPoint的每一侧N步相距的,例如3步。系统200确定标准化的点乘normDotProd,例如单位量级,其中所述标准化的点乘是在连接当前点curPoint和在前点prevPoint的向量和连接当前点curPoint和下一点nextPoint的向量之间的进行的点乘。系统定义了一个基于角度的质量测量例如outValue。一个确定outValue的示例性函数如下:
如果outValue是大于255的,系统200设置所述outValue为255。所述系统使用所述当前点curPoint的坐标值保存所述的outValue在质量图中,例如在图像中。使用所述被顺滑处理后的距离值,系统确定出本地距离重心的中心最大的距离值。
对于每个发现的最大距离值,系统确定一个距离质量值,例如distQuality。首先,系统200设置一个值curDist作为轮廓上离重心的中心是当前最大距离的点的距离。系统200设置一个值nextDist作为轮廓上离重心的中心是前一步距离的点的距离。系统200设置一个值prevDist作为轮廓上离重心的中心和与当前点是后一步距离的点的距离。最大值暗示着curDist大于prevDist和nextDist的。通过使用如下的示例性函数,系统200确定一个值deltaDistSum:
deltaDistSum=(curDist-prevDist)+(curDist-nextDist)
使用如下的示例性函数,系统200确定一个值curDistQuality:
系统接着为当前的最大值保存distQuality。使用顺滑处理后的距离值,系统200也确定出本地的距离重心的中心的距离的最小值。系统200为每个发现的最小值也重复用于确定curDistQuality的步骤。进一步地,系统200查看每个本地最大值,并删除掉所有在特定半径中的其它本地最大值,例如10。系统200也查看每个本地最小值,并删除掉所有在特定半径中的其它本地最小值,例如10。
接着,系统200将凸包抚平为手的轮廓上的点。例如,使用OpenCV包中的凸包操作,凸包可以被抚平。
如图6C所示,所述的凸包操作也可以被用于标识凸起缺陷,例如定位出轮廓上不是凸起的点。所述凸包操作标识出每个凸起缺陷,以及各个深度点,例如轮廓上的距离凸包边际距离最远的点,以及各个结束点,例如将所述凸起缺陷包括起来的凸包的相邻顶点。
系统200标识出了极为邻近的结束点,例如在阈值(预定)距离中的点,将轮廓中点的距离最大的那个点作为可能的手指指尖点。进一步地,系统200标识出极为邻近的深度点,例如有阈值(预定)距离的点,将轮廓中点的距离最小的那个点作为可能的手指谷点。
在一些实施例中,系统200接着从验证的手指指尖和手指谷中使用深度值中的最大值来估计手指中指的长度。中指的长度可以被用来衡量所述混合图像。
如图6D所示,系统200为轮廓上的每个点计算各个顶角,例如收敛角。因为手指指尖和手指谷通常对应着轮廓中具有高曲率的地方,在轮廓的每个点处,每个顶角是对着连接着该点与该点两侧的等距(例如5%或者10%的偏离范围中)的相邻点的那一段的。例如,收敛角可能是跨一角方位的,该角方位是由手指指尖(P)(例如在手指真实指尖的0.1毫米或者1毫米的范围中)和两个沿着手指轮廓的点所定义的,其中所述的两个点具有大约相等(例如在5%或者10%的偏离范围之内)的到手指指尖的距离。
系统200将轮廓中带有凸起缺陷的轮廓的最小距离点、最大距离点与轮廓中的高曲率位置处的顶角相混合,来标识出了混合图像中真实的手指指尖和手指谷,并标识出了如前所述的真实的手指指尖和手指谷。
系统200也可以通过寻找手的轮廓中的凸起缺陷来发现任意的凸性缺陷。每个凸起缺陷具有深度点,例如手指谷,一个起始点和一个结束点。系统200为各个凸性缺陷执行不同的操作。例如,系统200逐一测试每个凸性缺陷以确定是否所述凸性缺陷应该被保存以进行进一步的处理。在这个例子中,系统200检查是否每个凸性缺陷的深度点离距离最小点的距离在半径20的范围之内。如果所述凸性缺陷的深度点离距离最小点的距离不在半径20的范围之内,系统200决定不保存所述凸性缺陷进行进一步的处理。否则,系统200继续处理所述凸性缺陷,并确定连接当前深度点到当前结束点的向量和连接当前深度点到当前起始点的向量之间的角度。如果所述确定的角度的值小于阈值(例如预定的值),例如10-80度,较佳地为20-70度,更加合适的是50度,并且i)如果当前起始点位于凸包缺陷距离到最大距离为半径20的范围中;ii)如果当前结束点位于凸包缺陷距离到最大距离为半径20的范围中,接着系统200保存凸性缺陷信息只要凸性缺陷点的数目或者数量是小于设定阈值(例如预定的值),例如1-15,较佳地为5-10,更佳的是8。对于每个保存的凸性缺陷点,系统200确定缺陷点和对应的起始点之间的距离,例如distDepth_MeanStartEnd。系统200接着从用于所述存储的凸性缺陷点的distDepth_MeanStartEnd值中找到最大值,并存储所述最大值作为最长手指的最大估计指纹长度,其被系统200标识为中指。
使用真实的手指指尖和手指谷,系统200重新评估手中指的长度。如下所述,手中指的长度可以被用来分割手指。
系统200基于所述标识出来的手指指尖和手指谷,分割出一个或者多个手指(540)。系统200对混合图像执行一个或者多个二进制形态操作,以分割出手指。
使用OpenCV库将第一开启操作运用到所述的混合图像上,系统200产生出一个图像Hp。在一些实施例中,系统200运用直径为D的环形盘组件。所述的值D依据经验地可以通过衡量中指的长度来进行确定。一个例子是所述的直径值通过将所述估计的中指的长度乘以值0.2来进行确定。
通过运用一个逻辑AND操作到所述混合图像H的像素和图像Hp的补码图像~Hp的对应像素,系统200产生一个图像Hf,其包含有分割的手指。图7A示出了混合图像H,图7B示出了所述混合图像H的补码图像~Hp。
通过使用所述OpenCV库,系统200运用一个第二开启操作到所述分割手指的图像Hf。这时,系统200运用使用更小直径D1和D2的环形盘组件,以消除图像中剩余的裂片。
具体地,图像Hf经过两次的使用盘直径为D1的形态开启操作处理后,就等于一个奇数,该奇数最接近于一个由D0值除以2后得到的值,例如奇数值5。一个用于确定D0的函数的例子如下:
D0=2*(maximum fingerprint length*0.2)+1。
所述的图像Hf接着进行一次的使用盘直径为D2的形态关闭操作处理后,就等于一个奇数,该奇数最接近于一个由D1值减去2后得到的值,例如奇数值3。
图7C示出了具有裂片的手的图像,并且图7D示出了所述的裂片被消除后手的图像。
在这一点处,分割手指的图像Hf还可以包括与任一手指都不对应的团迹。如下所述的,系统200可以执行额外的操作以标识并消除掉所述的非手指的团迹。
在一些实施例中,使用所述估计的中指的长度,系统200设置用于最小手指区域的阈值。
系统200可以运用使用OpenCV库的操作到图像Hf中的各个团迹以抚平各个最小的封闭矩形框。如图8D所示,用于团迹的各个矩形框的宽度通常对应着手指的最大宽度。图8A示出用于各个团迹的各个最小的封闭矩形框。
在一些实施例中,系统200选择具有各自框区域的团迹以进行后续的处理,其中所述框区域是超出最小手指区域的。如下所述的,对于各个被选择出来的团迹,系统200计算对应着所选团迹的各个框的宽度的中值。系统200标识出具有的宽度是在所述中指范围(例如预定范围)之内的团迹以进行后续的处理。
系统200为每个团迹计算一个框区域,例如高度乘以宽度。如果团迹的框区域是小于一个框区域阈值的,则所述团迹就不再被考虑。
一个确定团迹的框区域的函数的例子如下:
box areathreshold=(maxFingerLength*maxFingerHeight*c)。
其中maxFingerLength是估计的最大的手指长度,其中maxFingerHeight是估计的最大的手指高度,其中c是一个常数,例如0.0625。
但是,如果团迹的框区域是大于或者等于所述的框区域阈值,系统200就为各个标识出来的团迹计算宽度和高度比,以进行后续的处理。所述的宽度和高度比可以通过将框的宽度除以高度后加上一个补偿值,例如0.1,而被确定下来。宽度和高度比在一个阈值间隔中的团迹,例如在最高阈值0.6和最低阈值0.15之间,被标识为对应着手指的团迹。
通过确定所述的团迹是否满足一个阈值宽度,系统200进一步处理还在被考虑的团迹。为了这个目的,系统200确定出还在被考虑的团迹的中值宽度。接着系统200确定是否所述团迹的各个宽度是在阈值宽度范围之内。
用于确定是否团迹是在阈值宽度范围之内的函数的例子如下:
abs(widthEst-boxWidth)<thresholdWidth。
其中widthEst是中值宽度,boxWidth是框的宽度,thresholdWidth是阈值宽度。
所述的阈值宽度可以通过将所述中值宽度乘以一个补偿值例如0.35而被确定下来。
系统200选择5个最大的团迹,其是被标记为对应着手指的团迹以作为分割手指团迹。依据所述的实现,系统200可以用于选择和处理少于5个的团迹。也就是说,系统200不需要要求手的所有5个手指都进行本发明所述的处理操作。
系统200标记出手(550)的一个或者多个手指。在一些实施例中,系统200标识出两个对应着手指的具有最小长度或者高度的团迹。因为拇指通常更加厚一些,或者更加宽一些,所以系统200将所述两个已经被标识的团迹中具有更大宽度的团迹标记为手的拇指。剩下的那个团迹被标记为小指。
在一些实施例中,为了标记出剩下的手指,系统200使用各个围绕了手指团迹的矩形框的重心之间的距离。其重心最接近小指的矩形框的重心的矩形框被标记为无名指。进一步地,其重心最接近拇指的矩形框的重心的矩形框被标记为食指。剩下的矩形框被标记为中指。
在一些实施例中,如果食指的框中心被发现是比无名指和小指的框中心更加靠近中指和拇指的框中心,本方法就接着进行进一步的处理。否则,就报错,并且以失败来结束本次处理,例如在这种情形下没有样板产生,并且所述给定输入手的登记失败。
通过标记手指,系统200可以简单地将第一手的手指的特征,例如食指,与第二手的相同手指的特征,例如食指,进行比较。图8B示出了被标记的手指。
系统200为手(560)的手指确定出一个或者多个特征。系统200通过评估所填充的团迹轮廓可以确定出这些特征。
在一些实施例中,系统200为每个手指确定出Zernike矩,Hu矩和手指宽度统计。在一些实施例中,在填充由于分割手指导致的洞之前,系统200确定出Hu矩和手指宽度统计。但是,如图8C所示,在填充由于分割手指导致的洞之后,Zernike矩被确定下来。每个洞对应着由手指轮廓的底部和手指的各个矩形框的手指谷结束边际所围绕的区域。所述洞是由于手指分割时使用的环形组件的动作所产生。
如图8A所示,在团迹是使用各个手指的轮廓进行表示时,系统200可以使用OpenCV库中的一个填充操作来填充洞。所述填充操作需要一个属于洞区域的种子点。通过填充所述种子点附近的区域,所述“填充”操作逐步地填充所述洞,接着扩展所述种子点附近的区域。通过沿着所述框的中心性从谷底(手指底部)到框的尖端进行移动,可以产生所述种子点。所述产生的种子点是沿着所述洞的中心线的第一个点。所述中心线是连接框的谷侧中心和框的指尖侧中心的线条。
使用通常公知的技术,系统200可以确定Zernike矩。在一些实施例中,在确定Zernike矩之前,系统200标准化各个手指的图像到150像素。系统200使用3x3像素的环形组件进行形状扩展处理。系统200可以被配置为确定不同级的Zernike矩,例如10级。各个手指的Zernike矩的级数被存储在数据库中,例如数据库140,以用于进行手的识别。
通过使用Zernike矩的级数,系统200提供旋转不变性。为了确保比例和转变的不变性,在开始进行Zernike矩的计算之前,系统200标准化各个手指图像,以便手指长度是150像素。相似地,系统200进行关于手指轮廓的重心的Zernike矩计算。
使用OpenCV库中的Hu矩操作,系统200可以为每个手指确定各个的Hu矩。例如,为每个手指日志,系统200确定Hu矩的7元素向量,其在比例、旋转和转换上都是不变的。系统200接着在一个样板中为所述手指保存所述7元素的Hu矩向量。每个向量的元素是浮点实数。
在一些实施例中,通过评价手指的各个轮廓和围绕手指的矩形框,系统200确定各个手指的手指宽度统计。如图8D所示,通过考虑一条连接矩形框的指尖-底侧中心和框的谷-底侧的中心的中心线,系统200确定出手指宽度统计。在图8D中,所述的中心线是使用虚线来进行描绘。
当确定手指宽度统计时,系统200为每个手指团迹和其相关的框分配顶点p1、p2、p3、p4,以便顶点p1和p2表示沿着宽度尺寸的所述框的短侧,顶点p3和p4表示所述框的另一短侧。
所述系统将所述表示了手指指尖的最大距离的坐标,与由(p1,p2)所形成线条的中点以及由(p3,p4)所形成线条的中点进行比较,以确定哪一对是更加接近手指指尖的。更加接近于手指指尖的那一对表示框的指尖-底,另一对就是表示框的谷-底。系统200沿着手指的长侧或者边际,将由(p1,p3)所形成的线条和由(p2,p4)所形成的线条进行对齐。所述指尖-底和谷-底这两者的标识可以很有用地确保手指是一直在特定方向上沿着其长度来进行移动的(例如才能够指尖到手指谷)。
假设ct是(p1,p2)所形成线条的指尖中点,cv是(p3,p4)所形成线条的指谷中点,系统200使用由ct和cv所构成的线条,例如以ct和cv为两个线条端点的连接ct和cv的纵向线,以近似于从手指指尖到手指谷的手指中心线。
系统200从ct点开始到cv点结束地来移动所述纵向线,并且估计在线条上的各个点出手指的宽度。为了估计所述的宽度,对于沿着所述纵向线进行移动的任一点,例如c0点,系统确定出手指的横截面。为了确定所述横截面,系统200首先在所述纵向线的垂直方向上从朝着手指轮廓的一侧的c0点开始到手指轮廓被接触到时结束来进行移动。接着,系统200从c0点开始沿着所述相同垂直方向线进行移动,但是这次是所述垂直方向上的相反方向,例如朝着手指轮廓的另一侧,一直移动到手指轮廓就算结束。所述两个移动的停止处之间的距离表示在该处的对应着c0点的手指宽度。在系统200从ct点到cv点进行移动时,上述这个流程被重复,并运用到沿着纵向线上的所有点。
一旦所述的流程完成,系统200就确定出一个手指厚度样本的向量。该向量的长度,例如向量的元素数量,标识了各个手指框的长度。
通过替换向量中的每个元素为其相邻处的7个值的平均值,系统200运用一个顺滑处理到所述的手指厚度样本的向量上。例如,当前元素被标识为索引i,接着系统就计算出所述元素的对应标记元素:(i-3)、(i-2)、(i-1)、i、(i+1)、(i+2)、(i+3)的平均值。所述被顺滑处理后的值的向量被用于进行剩余的计算。
接着系统200在合适的位置处通过采样,例如通过二次采样,试图对所述顺滑处理的向量进行汇总处理。所述被采样的汇总数据接着被用于真实的食指厚度样本的向量的比较。
系统200对所述的手指厚度样本的向量从手指指尖点开始沿着手指长度一直到靠近谷的位置处进行采样。使用所述的采样,系统200确定一个截断的平均数和一个表示了手指指尖部的变化量。所述的平均数和变化量可以被用作汇总样本统计,并将该统计包括在用于将来的特征比较的样板中。
剩下的样本从位于中心点距离为“d”处的位置进行提取。在各个这样的中心点处,在所述中心点之上和之下位置系统200取出一定数量的本地样本。所取的本地样本的数量可以是一个距离d的某一个函数f(d)。系统200计算本地样本的所述的截断平均数和变化量,并作为在给定中心点处的宽度统计的汇总进行汇报。系统200为每个中心点重复这一流程。要注意的是:依据所述手指的长度,所述中心点的数量是变化的。系统200为所述手指指尖汇报一对值(例如平均数,变化量),以及剩余手指的所述对值(例如平均数,变化量)的变化的数量。在一些例子中,由于与相关谷区域的洞的可能出现的不确定性,所述中心点是被布置为以便所述靠近谷区域的采样是不会被运用的。
在一个例子中,系统200以各个i的值为中心进行采样,以i=incr+IHD(2*incr+IHD),(3*incr+IHD),....开始进行采样,其中1HD=linHalfDim(例如对应着各个中心点的线的一半的尺寸)。真实的i所取的值的数量是依靠于样本的最初样本数量的值。
在这个实施例中,在每个i的中心值处,系统200从i-IHD开始一直到i+IHD进行采样,这就导致(2*IHD+1)个样本以特定的i值为中心进行了采样。具体地说,对于从前面算起的i的第一值,即25,样本就会是对应着(25-5)到(25+5)(首尾式的):例如从所述顺滑处理后的向量中的20、21....29、30处进行采样。这种样本在数量上将是11。系统200计算这11个值的截断平均值和变化量,并将其作为i值的汇总统计进行上报。所述的汇总统计被保存,并且上述的流程被重复地使用到i的剩下的值中,以便所述汇总统计是为每个中心点所进行的确定。
要说明的是,在这个实施例中,当向量的总长度是167时,系统200仅在i=145时进行最后的采样。停止短的原因是为了避免看到谷区域(在这里,洞的出现可能使得计算出现不确定性)。
系统200确定出用于索引范围中的索引i的样本组,其中对于各个i值其所述的范围是从(i-linHalfDim)到(i+linHalfDim)的,其中1inHalfDim是例如通过将向量中的元素的数量除以样本厚度的阈值,例如7,或者一个常数4,来进行确定的。确定所述索引i值的函数的一个例子如下:
i=(incr+linHalfDim),((2*incr)+linHalfDim),...,((8*incr)+linHalfDim)
其中incr是向量中的元素的数量除以厚度样本的阈值,例如7,而得到的,其中linHalfDim是incr除以常数例如4而得到的。
系统200可以为每个手指保存其各自的Zernike矩、Hu矩和手指宽度统计,将其作为描述了手指的特性或者结构的一个特征组。
参见图9的如下所描述的,通过分别地比较第一手的每个手指的特征组和第二手的每个相应手指的特征组,系统200可以产生一个相似度分数,其测量第一手和第二手之间的相似度。
图9示出了流程900,该流程生成测量第一手和第二手之间相似度的相似度分数。流程900的处理通常是被描述为在系统200中进行执行的。在一些实施例中,流程900可以是由一个或者多个电子设备中的一个或者多个处理器来执行的。
系统200为第一手中的各个手指访问其对应的特征组,其中所述每个特征组描述手指(910)的特性。例如,系统200可以从一生物数据库例如数据库140中获取到一个特征组,例如用于手指的Zernike矩、Hu矩、手指宽度统计。手指的特征组描述了手指的特性。第一手中的每个手指可以具有其自己的特征组。
系统200为第二手中的各个手指访问其对应的特征组,其中所述每个特征组描述手指(920)的特性。例如,系统200可以从一生物数据库例如数据库140中获取到一个特征组,例如用于手指的Zernike矩、Hu矩、手指宽度统计。手指的特征组描述了手指的特性。第二手中的每个手指可以具有其自己的特征组。
当访问第二手的手指特征组时,系统200可以选择第一手的在方向上相匹配的例如左手或者右手的对应手的特征组。例如,如果第一手是左手,接着系统200可以访问也是对应着左手的特征组。
进一步地,在一些实施例中,包括在第一手的手指特征组的特征的类型与在第二手的手指特征组的特征的类型相匹配。也就是说,系统200可以被配置将对第一手的手指特征组与第二手的手指特征组之间的特征类型进行匹配。例如,如果第一手的手指特征组包括有Zernike矩和手指宽度统计,接着系统可以访问也是包括有Zernike矩和手指宽度的第二手的手指特征组。
系统200为第一手的每个手指确定其各自的第一手手指的特征和第二手(930)对应手指的特征之间的距离。如前所述,描述了手指的特征组可以包括:Zernike矩、Hu矩和手指宽度统计。
例如,对于第一手的食指,系统200可以确定第一手食指的Zernike矩和第二手食指的Zernike矩之间的距离。相似地,系统200可以确定第一手食指的Hu矩和第二手食指的Hu矩之间的距离。进一步地,系统200可以第一手食指的手指宽度统计和第二手食指的手指宽度统计之间的距离。
这个流程可以被重复运用到每个剩下手指的各个特征中,例如中指、无名指、拇指和小指的特征中。
在一些实施例中,通过计算第一手手指的Zernike矩和第二手手指的Zernike矩之间的Hamming距离,系统200可以确定Zernike矩之间的距离。所述的等长度的两个像素串之间的Hamming距离可以是对应像素的内容是不相同的位置的数量。在其它方式中,上述的距离测量出了需要改变一个像素串为其它像素串的替代物的最小数量,或者测量出了转变一个像素串为其它像素串的错误的最小数量。Zernike多项式可以被使用为图像矩(例如Zernike矩)的基函数。因为Zernike多项式是相互正交的,Zernike矩可以展示出矩之间没有信息的冗余或者重叠的图像属性。尽管Zernike矩是依赖于感兴趣区域(ROI)中对象的比例和转换的,Zernike矩的量级可以大致上与所述对象的旋转角度相独立。因此,Zernike矩可以被使用来从第一手和第二手的图像中提取出特征,该特征描述了与手的手指和/或皮肤相关的对象的外形特性。
通过计算第一手手指的Hu矩和第二手手指的Hu矩之间的Hamming距离,系统200也可以确定Hu矩之间的距离。
在一些实施例中,通过首先使用用于第一手和第二手中指的估计长度来缩放第二手的手指宽度的平均值,系统200确定手指宽度统计之间的距离。在进行了所述缩放之后,系统200可以计算出第一手手指的平均宽度向量和第二手手指的平均宽度向量之间的Hamming距离。
因此,第一手和第二手可以为各个对应的手指对,例如第一手的食指和第二手的食指,具有一个Zernike矩的距离值、一个Hu矩的距离值和一个手指宽度统计的距离值。
系统200为特征组(940)中的各个特征确定出各自的平均距离。例如通过使用第一手的各个手指的各个Zernike距离,例如食指的Zernike矩的距离值、中指的Zernike矩的距离值、中指的Zernike矩的距离值、无名指的Zernike矩的距离值、小指的Zernike矩的距离值,系统200可以确定一个平均Zernike距离。在一些实施例中,当确定Zernike矩之间的距离时,系统200可以通过一个因子来缩放所述距离,例如通过将所述距离乘以因子50,000。在一些实施例中,在阈值(例如预定值)范围中,例如0.0001,的Zernike矩和Hu矩将被忽略掉。相似地,系统200可以确定Hu矩和手指宽度统计的平均距离。
在一些实施例中,手指的Hu矩向量是7元素长的,但是仅仅少数值是不可忽略的。相应地,对于给定的两个手指(例如试验手指和参考手指),系统200比较它们对应的Hu向量,H1和H2,但是首先要移除其中可以忽略的元素。例如,系统200形成调整后的Hu向量,分别从H1调整为H1’从H2调整为H2,其中仅仅保留其绝对值超过了最小阈值(例如预定的值)(例如0.0001)的元素。系统200接着标准化所述调整的Hu向量H1’和H2’为一个单元长度的向量。例如,系统200对所述调整后的Hu向量H1’和H2’中的值进行求和,获得到两个求和的值(例如H1’的Suml和H2’的Sum2),接着将所述被调整Hu向量H1’和H2’中的每个元素除以相应的求和值(例如,将Suml用于H1’的元素,Sum2用于H2’的元素),以产生标转化的Hu向量,norm H1’和norm H2’。系统200接着计算所述标准化Hu向量norm H1’和norm H2’中的对应元素之间的差值的绝对值,并将所述差值乘以一个分数因子(例如10,000),并计算所述结果的总和。所述总和接着被除以所述求总和中不可忽略元素的数量(例如标准化Hu向量中元素的数量,norm H1’和norm H2’),从而计算Hu分数,其反映了两个手指的相似度,该分数越高就反映手指具有更高的不相似性。如果所述给定手指的全部元素是可以忽略的,该手指在计算中就被忽略。
如前所述,系统200为每一对手指计算出一个Hu分数,并确定出合法分数的数量。如果所述合法分数的数量为0,系统200就返回一个错位,并以一个错误条件结束该次的匹配流程。如果所述的合法分数的数量是1,系统200就返回一个的合法的Hu分数。如果所述的合法分数的数量是2或者3,系统200就返回所述合法分数的平均值。如果所述的合法分数的数量是4,系统200就去除掉最大分数和最小分数,返回剩下两个分数的平均值。如果所述的合法分数的数量是5,系统200就去除掉最大分数和最小分数,返回剩下三个分数的平均值。所述返回的Hu分数表示了被比较的两只手的Hu矩的平均距离。
作为结果,系统200将具有一个对应着第一手的Zernike矩的平均距离、一个对应着第一手的Hu矩的平均距离、一个对应着第一手的手指宽度统计的平均距离。
用于特征的每个各自的平均距离描述出了第一手和第二手之间的不相似度。在一些实施例中,在进行特征的平均距离的确定之前,系统丢弃特征的最大距离值和最小距离值。
系统200基于所述各自的平均距离产生出一个相似度分数,该分数测量出来第一手和第二手(950)之间的相似度。在一些实施例中,系统200使用相似度函数生成相似度分数。一个用于确定相似度分数的相似度函数的例子如下:
S=max((1000-Dhu*khu),0)+max((1000-Dz*kz),0)+max((500-Dw*kw),0)
其中Dz是Zernike矩的平均距离,Dhu是Hu矩的平均距离,Dw是手指宽度统计的平均距离,其中kz、khu和kw是缩放因子,例如分别是5.0、8.0和3.0。
要说明的是:当所述的“deltas”在被计算时在缩放的条件下,所述的常数kz、khu和kw是可酌情变化的。
所述相似度分数表示了第一手和第二手之间的相似度。在一些实施例中,系统200可以使用相似度分数来确定是否所述第一手和第二手是相匹配的,例如通过使用一个合适的决策逻辑。所述的相似度分数也可以与对应着一个或者多个不同生物特征测量的分数相组合,例如形成了多生物特征计量混合的脸部特征、耳朵或者眼睛的测量。
图10是通用计算机系统1000的一个例子的示意图。依据一些实施例,系统1000可以被使用来进行与流程300、流程400、流程500和流程900相关的操作。系统1000可以是被包括在系统200中的。
系统1000包括处理器1010,存储器1020,存储设备2230和输入/输出设备1040。各个组件1010、1020、1030和1040使用系统总线1050来进行相互的连接。处理器1010可以处理在系统1000中要执行的指令。在一个实施例中,处理器1010是一个单线程处理器。在另一个实施例中,所述处理器1010是一个多线程处理器。处理器1010可以处理在存储器1020或者存储设备1030中的指令,以显示图像信息给输入/输出设备1040中的用户界面。
存储器1020存储在系统1000中的信息。在一个实施例中,存储器1020是一个计算机可读介质。在一个实施例中,存储器1020是易失性存储单元。在另一个实施例中,存储器1020是一个非易失性存储单元。
存储设备1030是可以为系统1000提供大量存储的。在一个实施例中,存储设备1030是计算机可读介质。在一些不同的实施例中,存储设备1030可以是软盘设备、硬盘设备、光盘设备或者磁带设备。
输入/输出设备1040为系统1000提供输入/输出操作。在一个实施例中,输入/输出设备1040包括键盘和/或指点设备。在一个实施例中,输入/输出设备1040包括用于显示图形用户界面的显示单元。
前述的特征可以被实现为数字电路或者为计算机硬件、固件、软件或者他们的组合。本发明的装置可以实现在计算机程序产品中,该计算机程序产品是有形地被嵌入在一个信息载体中,例如一个机器可读的存储设备,以便可编程的处理器来执行;本发明的方法步骤可以由一可编程处理器来执行程序指令来进行执行,以实现通过操作输入数据和产生输出数据来进行所描述的实现。所述的特征可以方便地是可以被实现在一个或者多个计算机程序中的,该计算机程序是在一个可编程系统中进行执行的,其中所述的可编程系统包括至少一个可编程处理器、至少一个输入设备和至少一个输入设备,其中所述的至少一个可编程处理器被连接到一个数据存储系统,以从所述数据存储系统接收数据和指令并且发送速决和指令到所述数据存储系统。计算机程序是一组可以被直接地或间接地使用在计算机中以执行特定操作或者带来特定结果的指令。计算机程序可以被以任意一种编程语言进行编写,包括编译或者解释语言,而且计算机程序可以任意一种形式进行部署,包括部署为一个独立的程序或者作为一个模块、组件、子程序或者其它适于在计算环境中进行使用的其它单元。
用于执行程序指令的合适的处理器例如是包括:通用和特定用处的微处理器,以及任一种计算机中的单处理器或者多处理器。通常,处理器从只读存储器或者随机访问存储器或者这两种中读取、接受指令和数据。计算机的组件是用于执行指令的处理器、一个或者多个用于存储数据和指令的存储器。通常,计算机也包括一个或者多个大容量存储设备,或者是与该一个或者多个大容量存储设备可相操作性地连接通信的,这样的大容量存储设备包括磁盘,例如内置硬盘和可移动盘、磁光盘和光盘。所述适合于有形地内置计算机程序指令和数据的存储设备包括所有形式的非易失性存储器,包括例如EPROM、EEOROM和闪存设备的半导体存储设备;例如内置硬盘和可移动盘的磁盘;磁光盘;CD-ROM和DVD-ROM盘。所述处理器和存储器可以被附带在或者被集成在一个ASIC(专用集成电路)中。
为了提供与用户的交互,所述特征可以被实现在一个计算机中,该计算机具有例如是CRT(阴极射线管)或者LCD显示器的用于显示信息被用户的(液晶显示器)的显示设备,并具有键盘和例如鼠标或者轨迹球的指点设备,其中用户通过所述轨迹球或鼠标可以提供输入给计算机。
所述特征可以被实现在一个计算机系统中,该计算机系统包括后端组件,例如数据服务器;或者该计算机系统包括中间件组件,例如应用服务器或者因特网服务器;或者该计算机系统包括前端组件,例如带有图像的用户界面或者因特网浏览器的客户端;或者该计算机系统包括前述这几项的组合。所述系统的组件可以通过任意形式或者例如通信网络的数字通信介质而被连接。例如,所述通信网络的例子包括:例如LAN、WAN和计算机和网络所形成的互联网。
所述计算机系统可以包括客户端和服务器。客户端和服务器通常是相互远离的,并且其通常是通过已描述网络那样的网络来进行交互的。客户端和服务器的关系在计算机程序运行在各自的计算机中就产生了的,并且其相互之间是具有客户端-服务器关系的。
一些实施例已经被描述。但是,要理解的是可以进行不同的改变而不脱离本发明的精神和范围。相应地,其它的实施方式是在下述权利要求的范围之内的。
Claims (24)
1.一种生物认证系统,包括:
数据存储系统,被配置为保存一组人的生物数据,所述生物数据包括所述一组人中人的各自的特征组,每个特征组描述人手的手指特性;以及
生物验证系统,其包括至少一个处理器,所述处理器被配置为与计算机存储介质交互以执行操作,所述操作包括:
访问与人相关联的第一手的图像,所述图像已经由图像获取设备获取;
从所述第一手的混合图像为所述第一手的每个手指确定各自的特征组,每个特征描述所述手指的特性,其中所述第一手的所述混合图像基于比较所述第一手的第一分割图像和第二分割图像而被生成;
从所述数据存储系统为第二手的每个手指访问各自的匹配特征组,每个特征描述所述手指的特性;
基于对应于所述第一手的手指的特征组和对应于所述第二手的手指的匹配特征组的比较,生成测量所述第一手和所述第二手之间相似度的相似度分数;以及
基于所述相似度分数输出结果。
2.如权利要求1所述的生物认证系统,其中访问与人相关联的第一手的图像,所述图像已经由图像获取设备获取,包括:
访问所述第一手的彩色图像;
使用所述彩色图像生成所述第一手的灰度图像;
分割所述第一手的所述灰度图像;
分割所述第一手的所述彩色图像;以及
使用分割的所述灰度图像和分割的所述彩色图像生成混合图像。
3.如权利要求2所述的生物认证系统,其中从所述第一手的混合图像为所述第一手的每个手指确定各自的特征组,每个特征描述所述手指的特性,其中所述第一手的所述混合图像基于比较所述第一手的第一分割图像和第二分割图像而被生成,包括:
访问所述第一手的混合图像,所述混合图像已经使用分割的灰度图像和分割的彩色图像被生成;
在所述混合图像中标识所述第一手;
在所述混合图像中标识一个或者多个手指指尖以及一个或者多个手指谷;
基于标识的所述手指指尖和标识的所述手指谷,分割所述第一手的一个或者多个手指;
标记所述第一手的所述一个或者多个手指;以及
针对所述第一手的每个手指确定一个或者多个特征。
4.如权利要求3所述的生物认证系统,其中针对每个手指的所述一个或者多个特征包括:Zernike矩、Hu矩和手指宽度统计。
5.如权利要求1所述的生物认证系统,其中基于对应于所述第一手的手指的特征组和对应于所述第二手的手指的匹配特征组的比较,生成测量所述第一手和所述第二手之间相似度的相似度分数,包括:
针对所述第一手中的每个手指确定描述所述第一手的所述手指的所述特征组中的特征与描述所述第二手的对应手指的所述特征组中的特征之间的相应距离;
为所述特征组中的每个特征确定各自的平均距离;
基于所述各自的平均距离,生成测量所述第一手和所述第二手之间的相似度的相似度分数。
6.如权利要求5所述的生物认证系统,其中针对所述第一手中的每个手指确定描述所述第一手的所述手指的所述特征组中的特征与描述所述第二手的对应手指的所述特征组中的特征之间的相应距离,包括:
针对所述第一手中的每个手指确定在描述所述第一手中的所述手指的所述特征组中的每个特征和描述所述第二手中对应手指的所述特征组中的每个匹配特征之间的相应Hamming距离。
7.如权利要求6所述的生物认证系统,其中针对所述特征组中的特征确定各自的平均距离包括:
使用在描述所述第一手的手指的所述特征组中的特征和描述所述第二手的对应手指的所述特征组中的相同特征之间的所述相应距离,确定所述特征的平均距离。
8.如权利要求1所述的生物认证系统,其中基于所述相似度分数输出结果,包括:
确定测量所述第一手和所述第二手之间的相似度的所述相似度分数满足阈值;以及
响应于确定测量所述第一手和所述第二手之间的相似度的所述相似度分数满足阈值,使用所述数据存储系统为特定人登记的数据,标识所述人的身份。
9.一种计算机实现方法,所述方法包括:
访问与人相关联的第一手的图像,所述图像已经由图像获取设备获取;
从所述第一手的混合图像为所述第一手的每个手指确定各自的特征组,每个特征描述所述手指的特性,其中所述第一手的所述混合图像基于比较所述第一手的第一分割图像和第二分割图像而被生成;
从所述数据存储系统为第二手的每个手指访问各自的匹配特征组,每个特征描述所述手指的特性;
基于对应于所述第一手的手指的特征组和对应于所述第二手的手指的匹配特征组的比较,生成测量所述第一手和所述第二手之间的相似度的相似度分数;以及
基于所述相似度分数输出结果。
10.如权利要求9所述的方法,其中访问与人相关联的第一手的图像,所述图像已经由图像获取设备获取,包括:
访问所述第一手的彩色图像;
使用所述彩色图像生成所述第一手的灰度图像;
分割所述第一手的所述灰度图像;
分割所述第一手的所述彩色图像;以及
使用分割的所述灰度图像和分割的所述彩色图像生成混合图像。
11.如权利要求10所述的方法,其中从所述第一手的混合图像为所述手的每个手指确定各自的特征组,每个特征描述所述手指的特性,其中所述第一手的所述混合图像基于比较所述第一手的第一分割图像和第二分割图像而被生成,包括:
访问所述第一手的混合图像,所述混合图像已经使用分割的灰度图像和分割的彩色图像被生成;
在所述混合图像中标识所述手;
在所述混合图像中标识一个或者多个手指指尖以及一个或者多个手指谷;
基于标识的所述手指指尖和标识的所述手指谷,分割所述第一手的一个或者多个手指;
标记所述第一手的所述一个或者多个手指;以及
针对所述第一手的每个手指确定一个或者多个特征。
12.如权利要求11所述的方法,其中针对每个手指的所述一个或者多个特征包括:Zernike矩、Hu矩和手指宽度统计。
13.如权利要求9所述的方法,其中基于对应于所述第一手的手指的特征组和对应于所述第二手的手指的匹配特征组的比较,生成测量所述第一手和所述第二手之间相似度的相似度分数,包括:
针对所述第一手中的每个手指确定在描述所述第一手的所述手指的所述特征组中的特征与描述所述第二手的对应手指的所述特征组中的特征之间的相应距离;
针对所述特征组中的每个特征确定各自的平均距离;以及
基于所述各自的平均距离,生成测量所述第一手和所述第二手之间相似度的相似度分数。
14.如权利要求9所述的方法,其中针对所述第一手中的每个手指确定在描述所述第一手的所述手指的所述特征组中的特征与描述所述第二手的对应手指的所述特征组中的特征之间的相应距离,包括:
针对所述第一手中的每个手指确定在描述所述第一手中的所述手指的所述特征组中的每个特征和描述所述第二手中的对应手指的所述特征组中的每个匹配特征之间的相应Hamming距离。
15.如权利要求14所述的方法,其中针对所述特征组中的特征确定各自的平均距离包括:
使用在描述所述第一手的手指的所述特征组中的特征和描述所述第二手的对应手指的所述特征组中的相同特征之间的所述相应距离,确定所述特征的平均距离。
16.如权利要求9所述的方法,其中基于所述相似度分数输出结果,包括:
确定测量所述第一手和所述第二手之间相似度的所述相似度分数满足阈值;以及
响应于确定测量所述第一手和所述第二手之间相似度的所述相似度分数满足阈值,使用所述数据存储系统为特定人登记的数据,标识所述人的身份。
17.至少一个计算机可读存储介质,其编码有可执行的指令,当这些可执行的指令由至少一个处理器执行时,使得所述至少一个处理器执行操作,所述操作包括:
访问与人相关联的第一手的图像,所述图像已经由图像获取设备获取;
从所述第一手的混合图像为所述第一手的每个手指确定各自的特征组,每个特征描述所述手指的特性,其中所述第一手的所述混合图像基于比较所述第一手的第一分割图像和第二分割图像而被生成;
从所述数据存储系统为第二手的每个手指访问各自的匹配特征组,每个特征描述所述手指的特性;
基于对应于所述第一手的手指的特征组和对应于所述第二手的手指的匹配特征组的比较,生成测量所述第一手和所述第二手之间的相似度的相似度分数;以及
基于所述相似度分数输出结果。
18.如权利要求17所述的存储介质,其中访问与人相关联的第一手的图像,所述图像已经由图像获取设备获取,包括:
访问所述第一手的彩色图像;
使用所述彩色图像生成所述第一手的灰度图像;
分割所述第一手的所述灰度图像;
分割所述第一手的所述彩色图像;以及
使用分割的所述灰度图像和分割的所述彩色图像生成混合图像。
19.如权利要求18所述的存储介质,其中从所述第一手的混合图像为所述手的每个手指确定各自的特征组,每个特征描述所述手指的特性,其中所述第一手的所述混合图像基于比较所述第一手的第一分割图像和第二分割图像而被生成,包括:
访问所述第一手的混合图像,所述混合图像已经使用分割的灰度图像和分割的彩色图像被生成;
在所述混合图像中标识所述手;
在所述混合图像中标识一个或者多个手指指尖以及一个或者多个手指谷;
基于标识的所述手指指尖和标识的所述手指谷,分割所述第一手的一个或者多个手指;
标记所述第一手的所述一个或者多个手指;以及
针对所述第一手的每个手指确定一个或者多个特征。
20.如权利要求19所述的存储介质,其中针对每个手指的所述一个或者多个特征包括:Zemike矩、Hu矩和手指宽度统计。
21.如权利要求17所述的存储介质,其中基于对应于所述第一手的手指的特征组和对应于所述第二手的手指的匹配特征组的比较,生成测量所述第一手和所述第二手之间相似度的相似度分数,包括:
针对所述第一手中的每个手指确定在描述所述第一手的所述手指的所述特征组中的特征与描述所述第二手的对应手指的所述特征组中的特征之间的相应距离;
针对所述特征组中的每个特征确定各自的平均距离;以及
基于所述各自的平均距离,生成测量所述第一手和所述第二手之间相似度的相似度分数。
22.如权利要求21所述的存储介质,其中针对所述第一手中的每个手指确定在描述所述第一手的所述手指的所述特征组中的特征与描述所述第二手的对应手指的所述特征组中的特征之间的相应距离,包括:
针对所述第一手中的每个手指确定在描述所述第一手中的所述手指的所述特征组中的每个特征和描述所述第二手中的对应手指的所述特征组中的每个匹配特征之间的相应Hamming距离。
23.如权利要求22所述的存储介质,其中针对所述特征组中的特征确定各自的平均距离包括:
使用在描述所述第一手的手指的所述特征组中的特征和描述所述第二手的对应手指的所述特征组中的相同特征之间的相应距离,确定所述特征的平均距离。
24.如权利要求17所述的存储介质,其中基于所述相似度分数输出结果包括:
确定测量所述第一手和所述第二手之间的相似度的所述相似度分数满足阈值;
响应于确定测量所述第一手和所述第二手之间的相似度的所述相似度分数满足阈值,使用所述数据存储系统为特定人登记的数据,标识所述人的身份。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN1791CH2013 | 2013-04-24 | ||
IN1791/CHE/2013 | 2013-04-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104123534A true CN104123534A (zh) | 2014-10-29 |
CN104123534B CN104123534B (zh) | 2018-12-25 |
Family
ID=50628622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410171798.6A Active CN104123534B (zh) | 2013-04-24 | 2014-04-24 | 生物识别 |
Country Status (5)
Country | Link |
---|---|
US (2) | US9262675B2 (zh) |
EP (1) | EP2797030B1 (zh) |
CN (1) | CN104123534B (zh) |
AU (1) | AU2014202219B2 (zh) |
CA (1) | CA2849540C (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108133141A (zh) * | 2016-12-01 | 2018-06-08 | 钦州市晶通科技有限公司 | 一种用编码实现的多种文件加密方法 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9020207B2 (en) * | 2011-06-07 | 2015-04-28 | Accenture Global Services Limited | Biometric authentication technology |
CA2804468C (en) | 2012-01-30 | 2016-03-29 | Accenture Global Services Limited | System and method for face capture and matching |
US8948465B2 (en) | 2012-04-09 | 2015-02-03 | Accenture Global Services Limited | Biometric matching technology |
JP6229554B2 (ja) * | 2014-03-07 | 2017-11-15 | 富士通株式会社 | 検出装置および検出方法 |
US10872408B2 (en) * | 2014-05-02 | 2020-12-22 | Etreat Medical Diagnostics Inc. | Method and system for imaging and analysis of anatomical features |
US9424458B1 (en) * | 2015-02-06 | 2016-08-23 | Hoyos Labs Ip Ltd. | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
US11263432B2 (en) | 2015-02-06 | 2022-03-01 | Veridium Ip Limited | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
DE102015202922A1 (de) * | 2015-02-18 | 2016-08-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum kamerabasierten Berechnen eines Längenverhältnisses von Fingern einer Hand |
US9767554B2 (en) * | 2015-02-19 | 2017-09-19 | Sony Corporation | Method and system for detection of surgical gauze during anatomical surgery |
US10146797B2 (en) | 2015-05-29 | 2018-12-04 | Accenture Global Services Limited | Face recognition image data cache |
TW201719572A (zh) * | 2015-11-19 | 2017-06-01 | 國立交通大學 | 三維模型分析及搜尋方法 |
US10649536B2 (en) * | 2015-11-24 | 2020-05-12 | Intel Corporation | Determination of hand dimensions for hand and gesture recognition with a computing interface |
US10248839B2 (en) * | 2015-11-30 | 2019-04-02 | Intel Corporation | Locating objects within depth images |
CN106340013B (zh) * | 2016-08-25 | 2019-03-22 | 上海航天控制技术研究所 | 一种基于双重Kmeans聚类的红外目标轮廓分割方法 |
WO2018049084A1 (en) * | 2016-09-07 | 2018-03-15 | Trustees Of Tufts College | Methods and systems for human imperceptible computerized color transfer |
KR102450374B1 (ko) | 2016-11-17 | 2022-10-04 | 삼성전자주식회사 | 데이터 인식 및 트레이닝 장치 및 방법 |
CN108053402B (zh) * | 2018-01-04 | 2021-08-10 | 深圳信息职业技术学院 | 一种缺陷图像分割方法 |
CN110348192A (zh) * | 2018-04-02 | 2019-10-18 | 义隆电子股份有限公司 | 生物特征的认证方法 |
CN112668454A (zh) * | 2020-12-25 | 2021-04-16 | 南京华格信息技术有限公司 | 一种基于多传感器融合的鸟类微小目标识别方法 |
US20220270280A1 (en) * | 2021-02-25 | 2022-08-25 | Dearest Technologies Ltd | System and tools for determining ring size |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1898680A (zh) * | 2003-10-23 | 2007-01-17 | 流明Iq有限公司 | 关于指纹自动识别系统的识别、提取和三维分析策略的系统和方法 |
CN101595494A (zh) * | 2006-12-13 | 2009-12-02 | 奥多比公司 | 用于彩色图像和灰度图像的鲁棒的特征提取 |
US20100021014A1 (en) * | 2006-06-16 | 2010-01-28 | Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The | Hand-based biometric analysis |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006034135A2 (en) * | 2004-09-17 | 2006-03-30 | Proximex | Adaptive multi-modal integrated biometric identification detection and surveillance system |
US20060104484A1 (en) * | 2004-11-16 | 2006-05-18 | Bolle Rudolf M | Fingerprint biometric machine representations based on triangles |
US8312291B2 (en) * | 2006-12-28 | 2012-11-13 | Telecom Italia S.P.A. | Method and system for biometric authentication and encryption |
US8948465B2 (en) * | 2012-04-09 | 2015-02-03 | Accenture Global Services Limited | Biometric matching technology |
US9697409B2 (en) * | 2013-09-10 | 2017-07-04 | Apple Inc. | Biometric sensor stack structure |
-
2014
- 2014-04-17 EP EP14165108.3A patent/EP2797030B1/en active Active
- 2014-04-22 CA CA2849540A patent/CA2849540C/en active Active
- 2014-04-23 AU AU2014202219A patent/AU2014202219B2/en active Active
- 2014-04-24 US US14/260,986 patent/US9262675B2/en active Active
- 2014-04-24 CN CN201410171798.6A patent/CN104123534B/zh active Active
-
2016
- 2016-02-12 US US15/043,305 patent/US9747498B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1898680A (zh) * | 2003-10-23 | 2007-01-17 | 流明Iq有限公司 | 关于指纹自动识别系统的识别、提取和三维分析策略的系统和方法 |
US20100021014A1 (en) * | 2006-06-16 | 2010-01-28 | Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The | Hand-based biometric analysis |
CN101595494A (zh) * | 2006-12-13 | 2009-12-02 | 奥多比公司 | 用于彩色图像和灰度图像的鲁棒的特征提取 |
Non-Patent Citations (1)
Title |
---|
WOODARD D L等: "《Finger surface as a biometric identifier》", 《COMPUTER VISION & IMAGE UNDERSTANDING》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108133141A (zh) * | 2016-12-01 | 2018-06-08 | 钦州市晶通科技有限公司 | 一种用编码实现的多种文件加密方法 |
Also Published As
Publication number | Publication date |
---|---|
US9262675B2 (en) | 2016-02-16 |
EP2797030B1 (en) | 2021-06-16 |
EP2797030A3 (en) | 2014-11-05 |
AU2014202219B2 (en) | 2015-05-07 |
US9747498B2 (en) | 2017-08-29 |
AU2014202219A1 (en) | 2014-11-13 |
CA2849540A1 (en) | 2014-10-24 |
US20160196469A1 (en) | 2016-07-07 |
CA2849540C (en) | 2020-07-14 |
US20140321718A1 (en) | 2014-10-30 |
CN104123534B (zh) | 2018-12-25 |
EP2797030A2 (en) | 2014-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104123534A (zh) | 生物识别 | |
US20220165087A1 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
Spreeuwers | Fast and accurate 3D face recognition: using registration to an intrinsic coordinate system and fusion of multiple region classifiers | |
US9361507B1 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
US11113505B2 (en) | Palm print image matching techniques | |
Kang et al. | Pose-invariant hand shape recognition based on finger geometry | |
BR112019011205A2 (pt) | sistemas e métodos para realizar a autenticação de usuário baseada em impressão digital usando imagens capturadas com o uso de dispositivos móveis | |
WO2018198500A1 (ja) | 照合装置、照合方法および照合プログラム | |
Alonso-Fernandez et al. | Quality factors affecting iris segmentation and matching | |
Jain | Automatic Fingerprint Matching Using Extended Feature Set | |
de Santos Sierra et al. | A comparative study on unconstrained hand biometrics | |
Vigil et al. | A Robust Approach for Iris and Fingerprint Authentication | |
Kühn | System requirements analysis of correlation-based algorithms for partial fingerprints in an embedded environment | |
Olabode et al. | A signature identification system with principal component analysis and Stentiford thinning algorithms | |
US20190205613A1 (en) | Distorted fingerprint matching using pose and minutia grouping | |
Colineau et al. | 3D face recognition evaluation on expressive faces using the IV 2 database | |
CN117373088A (zh) | 基于人脸识别的关键点检测提取方法及系统 | |
Izadi | Embedding local quality measures in minutiae-based biometric recognition | |
Zhou | Effective Solutions for Partial Fingerprint Indexing and Multi-Sensor Fingerprint Indexing | |
Chan | Criminal and victim identification based on soft biometrics | |
Giachetti et al. | Robust automatic labelling of anatomical landmarks on 3D body scans | |
Njeru | A comparative study of minutiae based fingerprint matching algorithms | |
Yuan et al. | The location method of the main hand-shape feature points |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |