CN101281600B - 一种掌纹特征获取方法及相应的基于掌纹的身份识别方法 - Google Patents
一种掌纹特征获取方法及相应的基于掌纹的身份识别方法 Download PDFInfo
- Publication number
- CN101281600B CN101281600B CN2008101144885A CN200810114488A CN101281600B CN 101281600 B CN101281600 B CN 101281600B CN 2008101144885 A CN2008101144885 A CN 2008101144885A CN 200810114488 A CN200810114488 A CN 200810114488A CN 101281600 B CN101281600 B CN 101281600B
- Authority
- CN
- China
- Prior art keywords
- palm
- palm print
- print characteristics
- image
- match
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
本发明提供了一种掌纹特征获取方法和身份识别方法,包括采集手掌图像、预处理图像、确定手掌有效区域和提取掌纹特征等步骤,其中定义手掌有效区域为手掌区域里半径不小于最大内切圆半径R的D倍(0.7≤D≤0.85)的内切圆中最靠近四指根部的内切圆,对该区域二值化得到掌纹特征图。获得某人的掌纹特征图后,将其与之前通过同样方法获得并登记的掌纹特征图进行比对,确定二者之间的匹配程度,即可进行身份识别。本发明可以对在开放环境下、无定位装置、非接触式采集到的掌纹图像进行处理,在保证身份识别的准确率前提下,简化了掌纹采集设备,使设备的小型化便携化成为可能,扩大了基于掌纹的身份识别方法的应用范围。
Description
技术领域
本发明属于生物特征识别技术领域,特别涉及一种掌纹特征获取方法及利用所获取的掌纹特征进行身份识别的方法。
背景技术
生物特征识别技术就是采用每个人独一无二的生物特征来验证用户身份的技术。由于每个人的生物特征具有与其他人不同的唯一性和在一定时期内不变的稳定性,不易伪造和假冒,所以利用生物识别技术进行身份认定,安全、可靠、准确。掌纹特征信息丰富、稳定,易于采集。因此,以掌纹特征进行身份识别安全性高,且采集设备成本相对低廉。
CN1154070C、CN1685357A、CN1726867A各自公开了一种掌纹采集设备以及相应的掌纹识别方法,CN1728158A公开了一种掌纹采集设备。这些专利申请或专利中提及的设备的掌纹采集方式对于用户的操作要求较高,采集设备需要专门定做,且相对笨重,同时,相关设备的基于掌纹的身份识别方法均普遍需要一个封闭的采集环境,依赖于接触式、带有定位装置的采集方法,这些特点导致传统的掌纹识别算法在投入应用中时,设备的制造成本相对较高,且难以小型化,便携性不高。
CN1206609C、CN1184584C、CN1378176A各自提出了一种掌纹识别方法,但是这些方法均需要高精度的图像与特制的高成本采集设备。
发明内容
本发明针对上述掌纹识别方法在应用领域的不足之处加以改进,提出了一种掌纹特征获取方法,该方法可以对在开放的采集环境下、使用无定位装置非接触的采集方式采集到的低分辨率图像数据进行处理,从而使得掌纹采集方便易行,抛弃了封闭的环境与定位装置,使用软件算法解决传统的硬件解决的问题。
本发明获取掌纹特征的方法包括下列四个步骤:采集手掌图像;对采集到的图像预处理;确定手掌有效区域;对手掌有效区域提取掌纹特征。现分述如下:
1、采集手掌图像
本发明将传统的掌纹采集方式由“封闭式设备,接触式采集”扩展到可以是“开放环境下,非接触式采集”,使用市场上通用的、灵活的图像采集设备(如普通的摄像头)即可采集手掌图像,对所采集的手掌图像要求很低,只要采集到的图像清晰,图像中手掌平展、五指分开,掌纹肉眼可见即可。
2、预处理图像:对原始采集到的手掌图像A进行预处理,其主要目的是去除背景,确定人手所在的位置,获得相应的手掌二值图像B。
去除背景的方法比较多,对于用纯深色背景拍摄的手掌图像,可采用较为简单的方法去除背景,一般包括灰度化、手掌区域增强与二值化三个过程。首先将采集到的彩色图像转换成灰度图像A′,然后采用灰度直方图拉伸方法增强图像的对比度,随后选取适当的阈值即可获得一幅二值图像B,图像中手所在的区域是白色,图像的其余部分都算作背景区域,为黑色。
而对于背景较为复杂的图像,可以根据“肤色模型”寻找皮肤所在的区域,即人手的区域,剩余部分则为背景;也可以采用“基于手形的人手定位”技术,利用模版在采集的图像中寻找形状类似人手的区域,即人手所在的区域。最终也获得相应的手掌二值图像B。下面对这两类方法进行概述。
2-1.根据“肤色模型”寻找皮肤所在的区域
肤色模型种类众多,这类方法的思路就是在不同的颜色空间中对已知图像上属于皮肤的点进行分析,总结出这类点的共同特点,训练出分类器,对未知图像上的点进行分类,区分开属于皮肤的点以及不属于皮肤的点。这里仅以使用YCrCb颜色空间进行肤色检测为例进行说明。YCrCb颜色空间与RGB颜色空间的对应关系为:
Y=0.299R+0.587G+0.114B
Cr=R-Y
Cb=B-Y (1)
根据文献PHUNG,S.L.,BOUZERDOUM,A.,AND CHAI,D.2002.A novel skin colormodel in YCbCr color space and its application to human face detection.In IEEE InternationalConference on Image Processing(ICIP’2002),vol.1,289-292.,采用如下方法训练分类器:
令属于皮肤上的样本点集合为E,E={x1,x2,x3,……,xN},其中xi=[Yi,Cri,Cbi]T,N为总样本数。
a.将所有样本点归为初始的k类:E={E1,E2,……,Ek},要满足
Ei={xj∈E|Ymin+(i-1)⊿r≤Yj<Ymax+(i-1)⊿r} (2)
其中i=1,2,……,k,Ymin与Ymax分别是所有点中Y的最小值与最大值,⊿r=(Ymax-Ymin)/k。
b.计算a中每一类的中心值与协方差矩阵:
其中Ni为每一类Ei中的样本个数
c.对于每一个样本xj,(j=1,2,……,N),计算其到这k个类别的Mahalanobis距离。
M(xj,μi,ci)=(xj-μi)Tc-1 i(xj-μi) (5)
对每一个样本点xj都计算到所有分类的Mahalanobis距离,并将xj重新归类于与其M距离最小的那个分类中。
d.重复b、c步足够多的次数直到每个类中的样本点不再变化为止。
对于新输入的数据中的未知分类点x=[Y,Cb,Cr]T,若Cb∈[75,135],Cr∈[130,180],并且x与某一分类Ei的M距离小于某阈值,则认为该点为皮肤上的点,否则认为不属于皮肤上的点。
2-2.采用“基于形状的人手定位”技术
该方法比较复杂,可参见文献S.Belongie,J.Malik,and J.Puzicha.Shape matching andobject recognition using shape contexts.IEEE Trans.Pattern Analysis and Machine Intell.,24(4):509-522,April 2002.,下面对其做一简要说明。
对于人手,可以有若干预先定义好的模板图像,然后对输入的待检测图像进行边缘提取,提取后的图像中还会包含大量的非手掌轮廓的边缘信息作为干扰数据存在。基于形状的人手定位技术可以依据模板图像的形状,从包含大量噪音干扰的边缘数据中找出与模板图像最匹配的形状来。对于模板图像上的每一个点,待检测图像中都有一个与其最匹配的点存在。
计算两点匹配程度的算法如下:
Pi与qj分别属于两幅图像上的点
其中
hi(k)=#{q≠pi|(q-pi)∈bin(k)} (7)
Pi是所针对的某点,而q为该图像形状上剩下的其他所有点。对形状图像进行极坐标变换之后,根据坐标原点的同心圆与经线,将图像划定成K个区域,每个区域为bin(k),方便计算两点在空间位置上的关系。
根据上述公式,找到与模板图像上的所有的点匹配程度最高的点集,即是目标图像中与模板形状最相像的形状。
3、确定手掌有效区域:针对步骤2获得的手掌二值图像B,确定掌纹特征所在的位置,以便于后续的特征提取操作处理,这是本发明的关键部分。
由于本发明采用的是通用的图像设备采集到的低分辨率图像,并且不需要辅助的定位装置,因此该步骤需要充分考虑到了采集方式所带来的手掌姿势、位置的不稳定性,并做到尽可能的鲁棒、精确。首先需要定义什么是“手掌有效区域”。对于不同的算法,手掌有效区域的定义可能不同。在本发明中,手掌有效区域是指手掌区域里最靠近四指根部的一内切圆,该内切圆的半径不小于最大内切圆半径R的D倍,其中0.7≤D≤0.85。本发明确定手掌有效区域的具体的方法是:对于步骤2中得到的手掌二值图像B,由于手所在的区域与背景区域颜色不同,因此很容易确定手的区域,找到手所在的区域之后,获取所有的手掌区域的内切圆,在半径不小于最大内切圆半径R的D倍的所有的内切圆中,选择最靠近四指根部的内切圆即得到所定义的“手掌有效区域”。在图像B上找到手掌有效区域后,相对应的图像A或A′上的手掌有效区域也就确定了,从图像A上截取该区域后灰度化,或者直接从灰度图像A′上截取该区域,从而得到灰度化的手掌有效区域图像。
上述方法中,所谓“最靠近四指根部的内切圆”可以由内切圆的圆心坐标来确定。如果以图像左上角为坐标原点,向右向下横纵坐标依次增大,那么只要图像中中指是指向上方或斜上方的(即手掌在图像平面内相对于图1的偏转角度小于±90度),就可以保证在半径不小于最大内切圆半径R的D倍的所有的内切圆中,最靠近四指根部的内切圆是圆心坐标最小的那一个。同理可得,最靠近手腕的内切圆是圆心坐标最大的。
4、提取掌纹特征:该步骤是从包含掌纹特征的图像数据中提取出掌纹特征,由于本发明所采用的是低分辨率图像,因此需要特征提取算法能够解决图像的高噪音,低对比度等问题。
特征提取就是采用信号处理的算法,从图像中获取稳定的,能够代表图像的所有者的特性的数据。这种数据的性质在于:对于从来自不同人的图像提取出来的数据,能够通过度量,得出明显的不同,以区分开不同的人;对于从来自同一个人的图像提取出来的数据,可以通过度量得出数据非常近似这一结论,证明图像采自同一个人。这种数据叫做特征。特征提取的方法多种多样,且不一定相关。
本发明在获得手掌有效区域图像之后,采用Niblack局部区域二值化方法(W.Niblack,An Introduction to Image Processing,Prentice-Hall,1986.)对其进行二值化,便得到掌纹特征图,该掌纹特征图主要为屈肌纹的特征图像,包含所要获取的掌纹纹理特征。
在通过上述方法获得掌纹特征图后,将其与之前通过同样方法获得的并登记的掌纹特征图进行特征比对,确定二者之间的匹配程度,可以判定这两个掌纹特征图是否属于同一人,从而进行身份的识别和认定。
特征比对的算法多种多样,共同的特点就是具有二分类的能力:针对某一个人的特征数据,对于另外一个特征数据,只需给出判断:这两个特征数据是否属于一人。例如在本发明实施例中采用的双向比对算法。
本发明提出了全新的,更贴近应用领域的掌纹特征数据的获取方法,解决了传统掌纹识别方法需要封闭环境与定位装置才能解决的问题,可以处理在更加宽松的条件下采集到的掌纹图像,并且保证了身份识别的准确率,简化了设备的使用,降低设备成本,使设备的小型化便携化成为可能,扩大基于掌纹的身份识别设备的应用范围。本发明可适用于各种需要集成基于掌纹的身份识别操作功能的设备,例如使用带有摄像头的手机进行身份验证。
附图说明
图1是本发明使用内切圆算法确定的手掌有效区域的示意图。
图2是本发明方法获得的三个不同手掌的掌纹特征图的效果演示图,其中a、b、c是三个不同手掌的有效区域图像,d、e、f分别是从a、b、c提取的相应的掌纹特征图。
图3是本发明实施例2中进行逐点对比双向匹配的两幅掌纹特征图,其中(a)为掌纹特征图X,(b)为掌纹特征图Y。
具体实施方式
下面结合附图,通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
实施例1.掌纹特征的获取
(1)手掌图像采集
本发明的手掌图像采集方式不需要任何定位装置,例如在本实施例中,使用直接与计算机相连接的数字摄像头获取手掌图像。采集图像时,手掌平展,五指张开,正对采集设备,手掌平面平行于摄像头的焦平面,手掌距离采集设备30-50cm,使得整个手即出现在计算机显示的画面上,然后调节采集设备直至清晰成像。本实施例采用的是环境光,只要求环境光均匀,并且足够强,以保证采集到的手掌上没有对比强烈的光影;由于拍摄的是全手,因此采集到的图像分辨率在320×240以上以保证掌纹区域的信息足够多(手掌有效区域的图像分辨率在100×100以上);图像亮度对比度要保证掌纹肉眼清晰可见;对图像为彩色或者黑白没有要求,若为彩色图像最好为24位。
(2)图像预处理操作
图像预处理操作主要目的在于去除背景,分离出手掌区域,以便后续操作。
为处理方便,本实施例中使用纯色深色背景拍摄手掌。对于原始采集到的手掌图像A经过灰度化得到手掌灰度图像A′,再经过手掌区域增强与二值化过程,获得相应的手掌二值图像B。
首先利用公式(8)(Rafael C.Gonzalez,Richard E.Woods,“Digital Image Processing”,2nd Edition,Prentice Hall,2002)将采集到的24位彩色图像转换成8位的灰度图像。
Gray(i,j)=0.299*R(i,j)+0.587*G(i,j)+0.114*B(i,j) (8)
其中,Gray(i,j)表示灰度图像上坐标为(i,j)的点的灰度值,R(i,j)、G(i,j)和B(i,j)分别表示源图像在对应坐标(i,j)上的点的红色、绿色、蓝色分量的值。
接下来,对8位灰度图像进行手掌区域增强操作,其目的是为了突出手掌所在区域的灰度值,以便于与黑色背景区别开。在此采用灰度直方图拉伸方法。灰度直方图拉伸将集中在小范围内的灰度值拉伸至整个灰度级,但仍旧保持原来灰度直方图的变化趋势,以增强图像的对比度,主要是明暗对比。其基本原理如下:
NewGray(i,j)=Scale*(OldGray(i,j)-LeftRange) (9-1)
其中NewGray(i,j)为坐标(i,j)的像素区域增强后的灰度值,OldGray(i,j)为该像素区域增强前的灰度值,LeftRange为原图像中的最小灰度值,RightRange为原图像中的最大灰度值。
接着进行二值化处理,将图像分为两部分:白色的手所在的前景区域与黑色的背景区域。由于经过了灰度直方图拉伸操作,选取一个合适的阈值即可简单的将二者分开。经过实验发现,本系统选取灰度值的阈值为25能达到比较好的效果。
其中:Val(i,j)为坐标为(i,j)的点像素二值化后的值,Gray(i,j)为坐标为(i,j)的点的灰度值。
(3)手掌有效区域定位
由于本发明可以使用低分辨率图像采集设备,并且不需要定位装置的存在,所以手掌的姿势,位置不确定性较大,同时,图像质量也相对较差,因此传统的指缝拐点探测定位法(Michael Goh Kah Ong,Tee Connie,Andrew Teoh Beng Jin,David Ngo Chek Ling,“ASingle-sensor Hand Geometry and Palmprint Verification System”,WBMA 3,Berkeley,California,USA,Nov.8,2003)偏差较大。
本发明中手掌有效区域定位使用的是内切圆算法。内切圆算法改进自最大内切圆算法。最大内切圆算法的基本原理是:对每一个手上的点,都以一个起始值为半径,以该点为圆心画圆,如果这个圆周上所有的点都在手掌内部,则扩大半径直至圆周超出手掌。遍历所有的点之后自然可以获得最大的内切圆半径与圆心坐标。
根据实验观察,最大的内切圆往往无法包含最多的掌纹信息而且最靠近手掌的根部,而包含掌纹信息最多的圆则都靠近四指的根部,所以本发明对最大内切圆算法作了改进。在获取最大内切圆的过程中,可以获取所有的手掌所在区域的内切圆,在半径不小于最大内切圆半径R的D倍(0.7≤D≤0.85)的所有的内切圆中,选择最靠近四指根部的内切圆,该内切圆包含了最多的掌纹信息;同时,也按照上述方法选择最靠近手腕也就是手掌根部的内切圆,这两个内切圆的圆心连线可以确定手掌的精确方向,从而可为进行身份识别时的特征匹配做准备。
以图像左上角为坐标原点,向右向下横纵坐标依次增大。只要手掌在图像平面内相对于图1的偏转角度小于±90度,即中指所指方向不会向下,这样就可以保证在半径不小于最大内切圆半径R的D倍(0.7≤D≤0.85)的所有的内切圆中,最靠近四指根部的内切圆是圆心坐标最小的那一个。同理可得,最靠近手腕的内切圆是圆心坐标最大的。根据这两个内切圆圆心的连线,可以粗略调整手掌的方向,为后续进行身份识别时的特征匹配算法降低搜索范围。
针对手掌二值图像B采用内切圆算法找到手掌有效区域后,从手掌灰度图像A′上截取对应区域得到所需的手掌有效区域图像,如图1所示,上方的黑色圆圈即在半径不小于最大内切圆半径85%的所有的内切圆中最靠近四指根部的内切圆,也就是根据本发明的内切圆算法,选取D=0.85时确定的手掌有效区域。
(4)掌纹特征的提取。
掌纹可以分为屈肌纹、皮纹、脊线纹三种。由于本发明假定的采集方式所采集到的掌纹图像多为低分辨率低对比度图像,细小的皮纹与脊线纹无法稳定的采集,因此本发明的掌纹特征主要指屈肌纹的特征,所采用的特征提取算法可以比较有效、稳定地提取出屈肌纹信息。手掌有效区域图像经过下述特征提取算法的处理,得到包含屈肌纹特征的掌纹特征图,其提取效果如图2所示,图2中上排的a、b、c是选取D=0.85,经过步骤(3)定位得到的三个不同手掌的有效区域图像,下排的d、e、f分别是从a、b、c提取的相应的掌纹特征图。
具体说来,这里选取了Niblack局部区域二值化方法提取掌纹(W.Niblack,AnIntroduction to Image Processing,Prentice-Hall,1986.)。所谓Niblack方法,就是:对于一个以点(i,j)为中心的边长为r的正方形窗口,以像素为单位,统计该窗口中像素灰度值的均值和方差分别为m(i,j)、S(i,j),则该点的阈值为:
T(i,j)=m(i,j)+k*S(i,j) (11)
在本方法中r取经验值15,k为系数,取经验值0.2,实验证明效果较好。
确定各点的阈值之后,手掌有效区域灰度图像上的任意一点的灰度值若大于其对应的阈值,则掌纹特征图上相应的点为白色,否则为黑色,公式如下:
其中Gray(i,j)为手掌有效区域图像上坐标为(i,j)的点的灰度值,Val(i,j)为掌纹特征图上坐标为(i,j)的点的像素值。
实验表明,Niblack二值化方法的优点在于:速度快,提取粗大纹理的效果好。
实施例2.基于掌纹的身份识别方法
可以利用掌纹特征图进行个人身份的识别。具体包括下列步骤:
1)建立一个掌纹特征库,其中存储有多个确定身份的掌纹特征图,这些掌纹特征图是通过前面所述的掌纹特征获取方法获得的,并且图像所有者的身份确定。
2)采集某人的手掌图像,同样进行图像预处理、手掌有效区域的确定、掌纹特征提取这些步骤获得其掌纹特征图。
3)将步骤2)得到的某人的掌纹特征图与掌纹特征库中存储的掌纹特征图进行特征比对,确定二者之间的匹配程度,从而认证其身份。
特征比对就是获得两个掌纹特征图之间的匹配程度。在此采用双向比对算法。针对Niblack方法提取得到的掌纹特征二值化图像,进行逐点对比双向匹配,其基本思想是:对待匹配的掌纹特征图X(如图3中的(a)),与掌纹特征像库中的掌纹特征图Y(如图3中的(b))匹配,得到匹配程度Match(X,Y),再使用Y与X匹配得到匹配程度Match(Y,X),最终的匹配程度MatchScore由Match(X,Y)与Match(Y,X)的平均值得到。
MatchScore的具体算法见下列公式:设,
MatchScore=(Match(X,Y)+Match(Y,X))/2
其中:Match(X,Y)=TotalMatch/TotalY
TotalMatch=number of Y′(p,q)
TotalY=number of Y(p,q)
Match(Y,X)=TotalMatch/TotalX
TotalMatch=number of X′(p,q)
TotalX=number of X(p,q)
其中X(p,q)为图X的纹线上的点,Y(p,q)为图Y的纹线上的点,TotalY为图Y的纹线上的点的总数,TotalX为图X的纹线上的点的总数。如果在图X上的(p,q)点或其4邻域中有任意一点也在图Y的纹线上,这样的点为Y′(p,q)。如果在图Y上的(p,q)点或其4邻域中有任意一点也在图X的纹线上,这样的点为X′(p,q)。
如图3中所示的图像X和Y(D=0.85时提取的两幅掌纹特征图),对于Match(X,Y),计算得到TotalY=246,TotalMatch=222,则Match(X,Y)=0.902;对于Match(Y,X),计算得到TotalX=204,TotalMatch=200,则Match(Y,X)=0.98,因此MatchScore=0.941。这个MatchScore就可以理解成两幅模板的相似度,若将判断两模板是否属于同一个人的相似度阈值设定为0.8,则可断定图3中的两幅模板来自同一个人。
考虑到本发明的采样环境和定位算法的特点,确定手掌有效区域的算法无法将手掌的方向准确归一化,因此在双向匹配算法中,还需要将圆形的待匹配的掌纹特征图旋转0°~360°进行≤360次的逐点双向匹配,并选取相似度最高的一次结果作为匹配结果,以提高识别准确率。为提高匹配速度和效率,如果在手掌有效区域的定位步骤,将最靠近四指根部的内切圆和最靠近手腕的内切圆这两个内切圆圆心的连线均调整为某一确定方向,那么在做双向匹配时将待匹配的掌纹特征图按照顺时针和逆时针方向各旋转5度,进行10次逐点双向匹配过程,就可以获得比较准确的结果了。
实施例3.确定手掌有效区域的内切圆的直径范围
目前生物特征识别系统性能评测的一个最重要参数为等错率EER(Equal Error Rate),其含义为:当确定了判定二生物特征是否属于同一个个体的相似度阈值t之后,可计算得到错误拒绝率FRR(false rejection rate)与错误接受率FAR(false acceptance rate),FRR与FAR相等时的值即为EER。EER越低,标志着该系统的识别率越高。其中,FAR的含义是在某一阈值下系统错误地接受攻击者进入系统的概率,其计算可以简单的将错误接受的次数除以所有的识别次数。FRR的含义是在某一阈值下系统错误地拒绝正确的用户进入系统的概率,其计算可以简单的将错误拒绝的次数除以所有的识别次数。
为了确定包含有效的掌纹数据的手掌内切圆的直径范围,本发明给出了规则:当内切圆的直径取值在某一范围内(即D为某一值)时,对数据库中的图像进行身份识别测试,若其等错率EER与最佳EER的偏差范围小于0.01,则认为该范围是可取的,其中,最佳EER即在该数据库上能得到的最低的EER。
本实施例在两个数据库上分别进行了实验:
数据库一:采用大恒计算机专业数字摄像机dh-hv200luc采集95人,每人右手15张图片,图片为24位真彩色位图,分辨率为600×800。采集环境为日光灯光源,纯黑色背景。在该数据库上实验得到的结果为:当D=0.9时,即所取内切圆的半径不小于最大内切圆半径R的90%时,EER最小,其值为4%;0.65≤D≤0.9时,其EER与最佳EER的偏差范围小于0.01。
数据库二:采用多普达577W智能手机自带摄像头采集30人,每人左手10张图片,图片为16位彩色位图,分辨率位320×240。采集环境位日光灯光源,纯深色背景。在该数据库上实验得到的结果为:当D=0.85时,即所取内切圆的半径不小于最大内切圆半径R的85%时,EER最小,其值为7%;0.7≤D≤0.85时,其EER与最佳EER的偏差范围小于0.01。
因此,本发明将D值的取值范围定在[0.7,0.85]。
Claims (6)
1.一种掌纹特征获取方法,包括下列步骤:
1)在纯深色背景下采集手掌图像A;
2)首先将手掌图像A转换成灰度图像A′,再采用灰度直方图拉伸方法增强图像的对比度,然后选取预定的灰度值阈值进行二值化,获得相应的手掌二值图像B;
3)在手掌二值图像B上获取所有的手掌区域的内切圆,在半径不小于最大内切圆半径R的D倍的内切圆中找到最靠近四指根部的内切圆,具体方法是:以图像左上角为坐标原点,向右向下横纵坐标依次增大,若图像中中指是指向上方或斜上方的,则在不小于最大内切圆半径R的D倍的所有的内切圆中,最靠近四指根部的内切圆是圆心坐标最小的那一个,而圆心坐标最大的是最靠近手腕的内切圆,其中0.7≤D≤0.85;然后,从手掌图像A上截取最靠近四指根部的内切圆区域后灰度化,或者从图像A相应的灰度图像A′上截取最靠近四指根部的内切圆区域,得到手掌有效区域图像;
4)采用Niblack局部区域二值化方法对手掌有效区域图像进行二值化,得到掌纹特征图,其中所述Niblack局部区域二值化方法具体是:对于手掌有效区域图像中的任意一点(i,j),以像素为单位,统计以该点为中心的边长为r的正方形窗口中像素灰度值的均值m(i,j)和方差S(i,j),获得该点的阈值为:T(i,j)=m(i,j)+k*S(i,j)
取r=15,k=0.2,进行如下二值化:
其中Val(i,j)为掌纹特征图上坐标为(i,j)的点的像素值。
2.如权利要求1所述的掌纹特征获取方法,其特征在于:在步骤2)中选取25为灰度值阈值进行二值化:
其中:Val(i,j)为坐标为(i,j)的点像素二值化后的值,Gray(i,j)为坐标为(i,j)的点的灰度值。
3.一种基于掌纹的身份识别方法,根据权利要求1或2所述的掌纹特征获取方法获得待识别人的掌纹特征图,将其与之前通过同样方法获得的并登记的掌纹特征图进行特征比对,确定二者之间的匹配程度,从而判定这两个掌纹特征图是否属于同一人,其中对两个掌纹特征图进行特征比对,确定二者之间匹配程度的方法是:对待匹配的掌纹特征图X,与掌纹特征图Y匹配得到匹配程度Match(X,Y),再使用图Y与图X匹配得到匹配程度Match(Y,X),最终的匹配程度MatchScore由Match(X,Y)与Match(Y,X)的平均值得到,即
MatchScore=(Match(X,Y)+Match(Y,X))/2
其中:Match(X,Y)=TotalMatch/TotalY
TotalMatch=number of Y′(p,q)
TotalY=number of Y(p,q)
Match(Y,X)=TotalMatch/TotalX
TotalMatch=number of X′(p,q)
TotalX=number of X(p,q)
X(p,q)为图X的纹线上的点,Y(p,q)为图Y的纹线上的点,TotalY为图Y的纹线上的点的总数,TotalX为图X的纹线上的点的总数;如果在图X上的(p,q)点或其4邻域中有任意一点也在图Y的纹线上,这样的点为Y′(p,q);如果在图Y上的(p,q)点或其4邻域中有任意一点也在图X的纹线上,这样的点为X′(p,q)。
4.如权利要求3所述的基于掌纹的身份识别方法,其特征在于:在掌纹特征获取方法的步骤3)中将最靠近四指根部的内切圆和最靠近手腕的内切圆的圆心连线均调整为某一确定方向,则在对两个掌纹特征图进行特征比对时,将待匹配的掌纹特征图按照顺时针和逆时针方向各旋转5度,进行10次逐点双向匹配过程,并选取相似度最高的一次结果作为匹配结果。
5.一种基于掌纹的身份识别方法,包括如下步骤:
a.建立一个掌纹特征库,其中存储有多个确定身份的掌纹特征图,这些掌纹特征图是根据权利要求1或2所述的掌纹特征获取方法获得的;
b.对于某待识别身份的人,根据步骤a所用的掌纹特征获取方法获得其掌纹特征图;
c.将步骤b得到的某人的掌纹特征图与掌纹特征库中存储的掌纹特征图进行特征比对,确定二者之间的匹配程度,从而识别某人的身份,其中对两个掌纹特征图进行特征比对,确定二者之间匹配程度的方法是:对待匹配的掌纹特征图X,与掌纹特征库中的掌纹特征图Y匹配得到匹配程度Match(X,Y),再使用图Y与图X匹配得到匹配程度Match(Y,X),最终的匹配程度MatchScore由Match(X,Y)与Match(Y,X)的平均值得到,即
MatchScore=(Match(X,Y)+Match(Y,X))/2
其中:Match(X,Y)=TotalMatch/TotalY
TotalMatch=number of Y′(p,q)
TotalY=number of Y(p,q)
Match(Y,X)=TotalMatch/TotalX
TotalMatch=number of X′(p,q)
TotalX=number of X(p,q)
X(p,q)为图X的纹线上的点,Y(p,q)为图Y的纹线上的点,TotalY为图Y的纹线上的点的总数,TotalX为图X的纹线上的点的总数;如果在图X上的(p,q)点或其4邻域中有任意一点也在图Y的纹线上,这样的点为Y′(p,q);如果在图Y上的(p,q)点或其4邻域中有任意一点也在图X的纹线上,这样的点为X′(p,q)。
6.如权利要求5所述的基于掌纹的身份识别方法,其特征在于:在掌纹特征获取方法的步骤3)中将最靠近四指根部的内切圆和最靠近手腕的内切圆的圆心连线均调整为某一确定方向,则在对两个掌纹特征图进行特征比对时,将待匹配的掌纹特征图按照顺时针和逆时针方向各旋转5度,进行10次逐点双向匹配过程,并选取相似度最高的一次结果作为匹配结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101144885A CN101281600B (zh) | 2008-06-03 | 2008-06-03 | 一种掌纹特征获取方法及相应的基于掌纹的身份识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101144885A CN101281600B (zh) | 2008-06-03 | 2008-06-03 | 一种掌纹特征获取方法及相应的基于掌纹的身份识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101281600A CN101281600A (zh) | 2008-10-08 |
CN101281600B true CN101281600B (zh) | 2010-12-01 |
Family
ID=40014057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101144885A Expired - Fee Related CN101281600B (zh) | 2008-06-03 | 2008-06-03 | 一种掌纹特征获取方法及相应的基于掌纹的身份识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101281600B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014076622A1 (en) * | 2012-11-14 | 2014-05-22 | Golan Weiss | Biometric methods and systems for enrollment and authentication |
US9928399B2 (en) | 2013-09-24 | 2018-03-27 | Beijing Zhboon Information Technology Co., Ltd. | Non-contact palmprint authentication method, device and mobile terminal |
US11823499B2 (en) * | 2012-11-14 | 2023-11-21 | Golan Weiss | Methods and systems for enrollment and authentication |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073843B (zh) * | 2010-11-05 | 2013-03-20 | 沈阳工业大学 | 非接触式快速人手多模态信息融合识别方法 |
CN102609698A (zh) * | 2012-02-09 | 2012-07-25 | 北京海和鑫生信息科学研究所有限公司 | 活体采集侧面掌纹质量评估方法 |
CN102622596B (zh) * | 2012-02-20 | 2016-07-20 | 哈尔滨工业大学 | 面向生物特征识别的交互式定位方法 |
CN103269481A (zh) * | 2013-05-13 | 2013-08-28 | 广东欧珀移动通信有限公司 | 对便携式电子设备的程序或文件加密保护的方法及系统 |
CN103729639B (zh) * | 2013-12-18 | 2017-04-12 | 吉林大学 | 基于距离传感器的手掌图像归一化方法 |
CN103886580A (zh) * | 2013-12-23 | 2014-06-25 | 汕头大学 | 肿瘤图像处理方法 |
CN106576093B (zh) * | 2014-05-13 | 2020-02-25 | 戈兰·魏斯 | 登记和认证的方法、登记和认证的系统 |
CN104091158B (zh) * | 2014-07-10 | 2018-07-06 | 上海方付通商务服务有限公司 | 一种防攻击掌纹认证方法及其应用的认证系统 |
CN104809430B (zh) * | 2015-04-02 | 2018-02-27 | 海信集团有限公司 | 一种手掌区域识别方法及装置 |
CN107801098B (zh) * | 2016-08-31 | 2021-10-29 | 中兴通讯股份有限公司 | 机顶盒的指令执行方法和装置 |
CN106682627B (zh) * | 2016-12-29 | 2021-01-29 | 北京奇虎科技有限公司 | 一种掌纹数据的识别方法和装置 |
CN107341473B (zh) * | 2017-07-04 | 2018-07-06 | 深圳市利众信息科技有限公司 | 手掌特征识别方法、手掌特征识别设备、及存储介质 |
CN112584054A (zh) * | 2019-09-29 | 2021-03-30 | 深圳市光鉴科技有限公司 | 基于图像编码的亮度自适应调节方法、系统、设备及介质 |
CN113469015A (zh) * | 2021-06-29 | 2021-10-01 | 浙江大华技术股份有限公司 | 人脸识别方法、装置、电子设备及计算机存储介质 |
-
2008
- 2008-06-03 CN CN2008101144885A patent/CN101281600B/zh not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014076622A1 (en) * | 2012-11-14 | 2014-05-22 | Golan Weiss | Biometric methods and systems for enrollment and authentication |
GB2525516A (en) * | 2012-11-14 | 2015-10-28 | Golan Weiss | Biometric methods and systems for enrollment and authentication |
US9613282B2 (en) | 2012-11-14 | 2017-04-04 | Golan Weiss | Biometric methods and systems for enrollment and authentication |
US11823499B2 (en) * | 2012-11-14 | 2023-11-21 | Golan Weiss | Methods and systems for enrollment and authentication |
US9928399B2 (en) | 2013-09-24 | 2018-03-27 | Beijing Zhboon Information Technology Co., Ltd. | Non-contact palmprint authentication method, device and mobile terminal |
Also Published As
Publication number | Publication date |
---|---|
CN101281600A (zh) | 2008-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101281600B (zh) | 一种掌纹特征获取方法及相应的基于掌纹的身份识别方法 | |
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
CN102663393B (zh) | 基于旋转校正的手指静脉图像感兴趣区域提取方法 | |
Kong et al. | Palmprint feature extraction using 2-D Gabor filters | |
CN104123537B (zh) | 一种基于手形和掌纹识别的快速身份验证方法 | |
Park et al. | Presentation attack detection using a tiny fully convolutional network | |
Ibrahim et al. | Leaf recognition using texture features for herbal plant identification | |
CN101359365A (zh) | 一种基于最大类间方差和灰度信息的虹膜定位方法 | |
CN104951940A (zh) | 一种基于掌纹识别的移动支付验证方法 | |
CN111126240A (zh) | 一种三通道特征融合人脸识别方法 | |
CN109658391A (zh) | 一种基于轮廓归并和凸包拟合的圆半径测量方法 | |
CN107784263A (zh) | 基于改进加速鲁棒特征的平面旋转人脸检测的方法 | |
Jain et al. | Fingerprint image analysis: role of orientation patch and ridge structure dictionaries | |
Chen et al. | Generalized Haar-like features for fast face detection | |
Wang et al. | Hand vein recognition based on improved template matching | |
CN107292273A (zh) | 基于特异扩展八邻域双Gabor掌纹ROI匹配方法 | |
CN109359607A (zh) | 一种基于纹理的掌纹掌脉融合识别方法 | |
CN109753912B (zh) | 一种基于张量的多光谱掌纹匹配方法 | |
Ribarić et al. | Personal recognition based on the Gabor features of colour palmprint images | |
Francis-Lothai et al. | A fingerprint matching algorithm using bit-plane extraction method with phase-only correlation | |
CN108875579B (zh) | 一种基于形态学的近景手势识别方法 | |
Guo et al. | Personalized fingerprint segmentation | |
Memane et al. | Red algorithm based iris recognition | |
Pour et al. | A new method for automatic extraction of region of interest from infrared images of dorsal hand vein pattern based on floating selection model | |
Mazaheri et al. | Fingerprint matching using an onion layer algorithm of computational geometry based on level 3 features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20101201 Termination date: 20130603 |