CN103714324B - 一种基于散列算法的快速掌纹辨识方法 - Google Patents

一种基于散列算法的快速掌纹辨识方法 Download PDF

Info

Publication number
CN103714324B
CN103714324B CN201310741480.2A CN201310741480A CN103714324B CN 103714324 B CN103714324 B CN 103714324B CN 201310741480 A CN201310741480 A CN 201310741480A CN 103714324 B CN103714324 B CN 103714324B
Authority
CN
China
Prior art keywords
consistent
direction mode
hash table
wave filter
alpha
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310741480.2A
Other languages
English (en)
Other versions
CN103714324A (zh
Inventor
岳峰
李彬
曲寒冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BEIJING WHOIS TECHNOLOGY Co Ltd
BEIJING NEW TECHNOLOGY APPLICATION INST
Original Assignee
BEIJING WHOIS TECHNOLOGY Co Ltd
BEIJING NEW TECHNOLOGY APPLICATION INST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING WHOIS TECHNOLOGY Co Ltd, BEIJING NEW TECHNOLOGY APPLICATION INST filed Critical BEIJING WHOIS TECHNOLOGY Co Ltd
Priority to CN201310741480.2A priority Critical patent/CN103714324B/zh
Publication of CN103714324A publication Critical patent/CN103714324A/zh
Application granted granted Critical
Publication of CN103714324B publication Critical patent/CN103714324B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种基于散列算法的快速掌纹辨识方法,包括基于可调控滤波器的掌纹特征提取,一致方向模式的定义和构造,以及基于一致方向模式的散列表的构建和搜索三个阶段,本发明提供的一种基于散列算法的快速掌纹辨识方法提供既能保证辨识精度又能大幅提高辨识速度,大大优于已有的掌纹辨识方法,其辨识准确率与逐一匹配几乎保持一致,同时该方法的辨识速度相比于逐一匹配提升了15倍以上。

Description

一种基于散列算法的快速掌纹辨识方法
技术领域
本发明属于人体生物特征的在线身份识别技术领域,特别涉及生物特征数字图像处理技术领域的一种基于散列算法的快速掌纹辨识方法。
背景技术
随着社会和经济的不断发展,人们对身份鉴别的准确性、安全性与实用性提出了越来越高的要求。传统的身份鉴别方法,如钥匙、密码以及智能卡等,存在容易丢失、遗忘、被复制及盗用的隐患。而通过辨识人的生理和行为特征进行身份认证的生物识别技术提供了一种方便可靠的解决方案。
生物识别技术是指根据人的生理特征(如语音、指纹、掌纹、面部特征、虹膜等)或行为特征(如步态、签名、击键特征等)来进行身份鉴别的技术。生物识别技术以人的生物特征为基础,以信息处理技术为手段,具有安全性、有效性和易用性等特点,因此受到人们越来越多的重视。
掌纹识别是近些年来新兴的一种生物识别技术,与其它生物特征识别技术相比,掌纹识别具有很多独特的优势,相比于指纹,掌纹拥有更大的面积以及更为丰富的纹理信息,只需要较低分辨率的采集设备就可以构建高性能的掌纹识别系统;相比于人脸识别,掌纹识别能轻易地区分双胞胎;相比于虹膜,掌纹采集设备的价格更为低廉;相比于签名,掌纹的特征更加稳定可靠。因此,掌纹识别是一种有着广泛应用前景的生物识别方法,近年来得到了研究人员的广泛关注。
经过多年的发展,掌纹识别技术已与指纹识别技术一样逐渐成熟并走向实 用化与产业化。然而该技术还主要集中在门禁和考勤等中小规模的应用,对于大规模数据库上的应用,目前的掌纹识别技术还不是很成熟,仍有若干关键问题亟待解决。其中重要的一个问题就是随着数据量的不断增大,如何保证掌纹辨识的准确率及实时性。
现有技术中掌纹识别系统分为两种类型,一种是掌纹验证系统,另一种是掌纹辨识系统。在掌纹验证系统中,用户需声明自己的身份并提供掌纹,系统将该掌纹与系统内该用户注册的掌纹进行匹配,以判断该用户与所声明的身份是否相符。因此,掌纹验证是一对一的匹配;而在掌纹辨识系统中,用户只需提供自己的掌纹,系统在已注册的所有掌纹中进行搜索,并找出相似度最大的模板,进而判断该用户的身份,掌纹辨识是一个一对多的匹配过程,比掌纹验证难度更大。
目前,实现快速的掌纹辨识主要有两种策略。第一种是层次匹配,即对掌纹图像提取多种特征,并按照特征的种类分层匹配。较简单的、匹配速度较快的特征优先匹配,对于满足阈值条件的再进行较复杂的、匹配速度较慢的特征匹配。由于在匹配简单特征时可以滤除很大一部分候选掌纹,因此这种方法消耗的时间要大大少于逐一匹配。但这种方法的缺点是滤除的掌纹中有可能包括与待辨识掌纹最相似的,因为利用简单的特征所得到的识别精度不高;第二种方法是掌纹分类。这种方法预先将系统中的掌纹按照某些规则分类,对于待辨识掌纹,先对其按照同样规则分类,之后只在属于该类别的掌纹中搜索。对于有效的分类方法,这种策略也能大幅提高掌纹辨识的速度,但缺点是目前分类方法的精度不高,因此导致辨识精度较低。可见,虽然以上两种策略都能提高掌纹辨识系统的响应速度,但都是以损失精度为代价的。
近来,Yue等提出了一种基于覆盖树和竞争编码的掌纹快速辨识方法,该方 法首先对数据库中的全部模板构建覆盖树,计算并保存每个非叶结点到它的所有子节点的最大距离,之后利用三角不等式减少不必要的匹配次数,可以实现不损失精度的快速辨识。当系统中每个手掌有3个模板时,其加速比可以达到1.5~2,辨识准确率达到99.95%,具有较高的应用价值,在此基础上,Yue等又提出了基于手掌树的快速辨识方法及其改进方法,对每一手掌的模板分别构建覆盖树,并通过不同策略优化树形结构,尽可能减小非叶结点到所有子节点的最大距离。例如在手掌树方法中,通过计算同一手掌两两模板间的距离,选择最优的模板作为根结点。而在改进的手掌树方法中,通过构造平均模板并将其作为根结点的方法进一步减小非叶结点到所有子节点的最大距离。实验结果表明这两种方法都优于基于覆盖树的方法,可在不损失精度的条件下进一步提高加速比。
由以上分析可以看出,传统的快速辨识方法精度很差,而近来提出的基于树形结构的方法无法大幅提高辨识速度,特别的,当系统中每个手掌存储3个模板时,辨识速度只能提高2倍左右。此外,基于树形结构的快速辨识方法只适用于系统中为每个手掌存储多个模板的情况。若系统中每个手掌只有1个模板,该类方法便不再适用。因此,有必要进一步研究更加有效的快速辨识方法。发明内容
针对现有快速掌纹辨识技术存在要么精度很差,要么提升的速度有限的技术问题,本发明目的是提供既能保证辨识精度又能大幅提高辨识速度的一种基于散列算法的快速掌纹辨识方法。
为了达到上述目的,本发明采用以下技术方案实现:
本发明涉及的一种基于散列算法的快速掌纹辨识方法,包括基于可调控滤 波器的掌纹特征提取,一致方向模式的定义和构造,以及基于一致方向模式的散列表的构建和搜索三个阶段:
1)基于可调控滤波器的掌纹特征提取阶段,包括如下步骤:
1.1)确定可调控滤波器的函数形式,可调控滤波器的函数形式可以确定为:
h=-0.204σgyy+0.059σgxx+0.063σ3gyyyy-0.194σ3gxxyy+0.024σ3gxxxx,
其中g表示高斯函数,σ是该函数的方差,gx和gy分别表示该函数在水平和竖直方向的偏导数。
1.2)对掌纹图像滤波并根据滤波结果进行特征提取,利用可调控滤波器提取连续表示的方向特征;
2)一致方向模式的定义和构造阶段,目的在于根据滤波响应来判断掌纹图像中某一位置是否属于主线区域,包括如下步骤:
2.1)一致方向模式的定义,假设掌纹图像的特征模板中包含D个方向特征(这里D=1024),表示为OF={ofi},ofi∈[1,6],i=1,…,D,
若方向模式定义在K个位置P={pj},pj∈[1,D],j=1,…,K,
那么方向模式的值可以表示为
参数K表示方向模式的大小,参数P表示方向模式的位置;
2.2)一致方向构造阶段,将步骤1)利用可调控滤波器提取的连续表示的方向特征值分别量化为0~179范围内整数表示的方向特征OFC及0~5范围内整数表示的6个方向特征OFD,按照滤波响应排序并选出前L个方向特征OFC*和OFD*,然后根据一致方向模式的序号逐一构造;
3)基于一致方向模式的散列表的构建和搜索阶段,包括如下步骤:
3.1)散列表的构建,需要根据方向特征对数据库中的所有模板建立索引,并保存到散列表H中以方便搜索,同时保存另外两个表O和S,分别用来记录散 列表中每个子集的大小和在散列表中的偏移量;
3.2)散列表的搜索,首先根据一致方向模式中每个方向特征的值以及平移后的位置查询表O和S,以确定其在散列表的起始位置和偏移量,随后查询散列表H并对发生碰撞的方向特征记数;最后检查该数值,若其达到一致方向模式的大小,即一致方向模式中每个方向特征都相同,则表示发生碰撞;此时应将散列表中该位置指示的掌纹模板取出并进行一次完全匹配;若匹配得到的距离小于阈值T,则认为辨识成功,算法返回相应的ID并终止辨识过程;否则继续考察下一个一致方向模式,直到找出辨识成功的模板ID或所有的一致方向模式都考察完毕为止。
上述技术方案中,步骤1)提取的方向特征可以根据需要表示为连续值或离散值。
本发明的有益效果:本发明中的方法大大优于已有的掌纹辨识方法,其辨识准确率与逐一匹配几乎保持一致,同时该方法的辨识速度相比于逐一匹配提升了15倍以上。
具体实施方式
下面将结合本发明的实施例,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一个实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种基于散列算法的快速掌纹辨识方法,包括基于可调控滤波器的掌纹特征提取,一致方向模式的定义和构造,以及基于一致方向模式的散列表的构建和搜索三个阶段:
1)基于可调控滤波器的掌纹特征提取阶段,包括如下步骤:
1.1)可调控滤波器
可调控滤波器是一种有方向的滤波器,不同方向的滤波器对图像的滤波结果可由少量几个基滤波器的滤波结果计算得到。也就是说,给定基滤波器的滤波结果,可以得到任意方向上的滤波结果。因此,与基于滤波器组的方法相比,可调控滤波器提供了一种无需增加计算量却可以提取更精确的方向特征的方法。而且由于基滤波器的数目固定,特征提取时的计算量不会随着精度的提高而增大。此外,该方法不要求方向场变化平缓,对噪声不敏感。因此,可调控滤波器是一种非常适合掌纹方向特征提取的方法。
可调控滤波器的一般形式为
h ( x , y ) = Σ k = 1 M Σ i = 0 k α k , i ∂ k - i ∂ x k - i ∂ i ∂ y i g ( x , y ) , - - - ( 1 )
其中g(x,y)是任意的各向同性的函数,M是可调控滤波器的阶。图像f(x,y)与旋转后的滤波器h(x,y)的卷积结果可以表示为
f ( x ) * h ( R θ x ) = Σ k = 1 M Σ i = 0 k b k , i ( θ ) f k , i ( x ) , - - - ( 2 )
其中x=(x,y),Rθ是旋转矩阵
R θ = cos ( θ ) sin ( θ ) - sin ( θ ) cos ( θ ) . - - - ( 3 )
函数fk,i(x,y)表示图像f(x,y)与滤波器gk,i(x,y)的卷积结果
依赖于方向的权值bk,i(θ)由下式给出
b k , i ( θ ) = Σ j = 0 k α k , j Σ l , m ∈ S ( k , j , i ) k - j l j m ( - 1 ) m cos ( θ ) j + ( l - m ) sin ( θ ) ( k - j ) - ( l - m ) - - - ( 5 )
其中S(k,j,i)表示集合
S(k,j,i)={l,m|0≤l≤k-j;0≤m≤j;k-(l+m)=i}. (6)
一旦得到了fk,i(x,y),f(x)*h(Rθx)就可以方便地由方向θ的三角函数的加权和计算得到。在图像与基滤波器进行卷积运算之后,在任意方向的滤波结果可以表示为
f*hθ=q0cos(θ)M+q1cos(θ)M-1sin(θ)+…+qMsin(θ)M, (7)
其中hθ是旋转后的滤波器h(x,y),q0,…,qM可以由基滤波器的结果以及公式(5)中的系数αk,i来确定。
为了确定最适于掌纹特征提取的可调控滤波器,首先需要确定公式(1)中各向同性滤波器g(x,y),系数αk,i以及可调控滤波器的阶M。对于函数g(x,y),本发明中选取高斯函数,因为根据不确定性原则,它具有最优的时频定位特性。系数αk,i可由类似Canny的优化准则推导得到。若将理想的掌纹线模型定义为
f0(x,y)=δ(y), (8)
其中δ表示脉冲函数(unit impulse function),那么最优化准则后得到的系数αk,i就是掌纹特征提取的最优系数。此外,本发明使用高阶可调控滤波器,因为这样可以有更多的自由度,特征提取的精度也会更高。由于基滤波器的个数和特征提取所需的时间随着可调控滤波器的阶的升高而增大,因此,考虑到计算复杂性,本发明中令M=4。这样,掌纹特征提取所使用的可调控滤波器的系数可以确定为:
α 2,0 = 0.059 σ α 2,2 = - 0.204 σ α 4,0 = 0.024 α 3 α 4,2 = - 0.194 σ 3 α 4,4 = 0.063 σ 3 . - - - ( 9 )
根据公式(1),可调控滤波器的函数形式可以确定为:
h=-0.204σgyy+0.059σgxx+0.063σ3gyyyy-0.194σ3gxxyy+0.024σ3gxxxx, (10)
其中 g x = ∂ g / ∂ x , g y = ∂ g / ∂ y , σ是高斯函数的参数。
确定了可调控滤波器的函数形式之后,就可以对掌纹图像滤波并根据滤波结果进行特征提取,提取的方向特征可以根据需要表示为连续值或离散值。
1.2)方向特征提取
给定基滤波器的滤波结果,可调控滤波器在任意方向上的滤波结果可以表示为方向θ的函数,即公式(7)。此式中只有一个变量θ,因此在(f*hθ)的极大值和极小值处,有
∂ ∂ θ ( f * h θ ) = 0 . - - - ( 11 )
方向特征可由取得最大值或最小值的滤波器的方向来确定。由于掌纹线是一种暗线,即线的灰度值要低于周围区域,因此对公式(11)求得所有的解之后,掌纹线的方向由取得最小值时的方向确定,即
θ * = arg min θ ( f * h θ ) . - - - ( 12 )
该式求得的方向特征是由实数值表示的连续值,取值范围是0°~180°。为了求解式(11),首先需要展开式(5)得到权值bk,i(θ):
b 2,0 = α 2,0 cos ( θ ) 2 + α 2,2 sin ( θ ) 2 b 2,1 = α 2,0 2 sin ( θ ) cos ( θ ) - α 2,2 2 sin ( θ ) cos ( θ ) b 2,2 = α 2,0 sin ( θ ) 2 + α 2,2 cos ( θ ) 2 b 4,0 = α 4,0 cos ( θ ) 4 + α 4,2 sin ( θ ) 2 + α 4,4 sin ( θ ) 4 b 4,1 = α 4,0 6 sin ( θ ) 2 + α 4,2 ( sin ( θ ) 4 - 4 sin ( θ ) 2 cos ( θ ) 2 + cos ( θ ) 3 ) - α 4,4 4 sin ( θ ) 3 cos ( θ ) b 4,2 = α 4,0 6 sin ( θ ) 2 cos ( θ ) 2 + α 4,2 ( sin ( θ ) 4 - 4 sin ( θ ) 2 cos ( θ ) 2 + cos ( θ ) 4 ) + α 4,4 6 sin ( θ ) 2 cos ( b 4,3 = α 4,0 4 sin ( θ ) 3 cos ( θ ) + α 4,2 ( 2 sin ( θ ) cos ( θ ) 3 - 2 sin ( θ ) 3 cos ( θ ) ) - α 4,4 4 sin ( θ ) cos ( θ ) 3 b 4,4 = α 4,0 sin ( θ ) 4 + α 4,2 sin ( θ ) 2 + α 4,4 cos ( θ ) 4 - - - ( 13 )
再将式(13)代入式(2)中并整理,得到形如式(7)的等式,其中
q 1 = α 2,0 f 2,0 + α 2,2 f 2,2 + α 4,0 f 4,0 + α 4,2 f 4,2 + α 4,4 f 4,4 q 2 = ( 2 α 2,0 - 2 α 2,2 ) f 2,1 + ( 4 α 4,0 - 2 α 4,2 ) f 4,1 + ( 2 α 4,2 - 4 α 4,4 ) f 4,3 q 3 = ( α 2,0 + α 2,2 ) f 2,0 + ( α 2,0 + α 2,2 ) f 2,2 + α 4,2 f 4,0 + ( 6 α 4,0 - 4 α 4,2 + 6 α 4,4 ) f 4,2 q 4 = ( 2 α 2,0 - 2 α 2,2 ) f 2,1 + ( 2 α 4,2 - 4 α 4,4 ) f 4,1 + ( 4 α 4,0 - 2 α 4,2 ) f 4,3 q 5 = α 2,2 f 2,0 + α 2,0 f 2,2 + α 4,4 f 4,0 + α 4,2 f 4,2 + α 4,0 f 4,4 + α 4,2 f 4,4 . - - - ( 14 )
在得到基滤波器的滤波结果f2,0,f2,1,f2,2,f4,0,f4,1,f4,2,f4,3,f4,4之后,将其代入式(14),就可以得到式(7)的系数。对式(7)求导,并令导数为零,得到
p1cos(θ)4+p2cos(θ)3sin(θ)+p3cos(θ)2sin(θ)2+p4cos(θ)sin(θ)3+p5sin(θ)4=0, (15)
其中
p 1 = q 2 p 2 = 2 q 3 - 4 q 1 p 3 = 3 q 4 - 3 q 2 p 4 = 4 q 5 - 2 q 3 p 5 = - q 4 - - - ( 16 )
将式(15)两端同时除以sin(θ)4,得到
p1ctg(θ)4+p2ctg(θ)3+p3ctg(θ)2+p4ctg(θ)+p5=0. (17)
求解该一元四次方程,并由式(12)计算得到掌纹的方向特征。
1.3)方向特征的表示
由可调控滤波器提取的方向特征是连续值。由于储存和比较实数表示的连续值需要较大的存储空间和较长的时间,因此在实际应用中通常将特征表示为离散值。设量化数目为N,分辨率(或称为最小可分辨角度)定义为量化区间的大小:
rD=180/N. (18)
对于连续值α,它的离散表示为
αD=[α/rD], (19)
其中[·]为取整函数。角度αi=i×rD,i=0,1,…,N-1称作量化边界。掌纹方向特征的离散表示与连续表示之间的误差称为量化误差。该误差随着量化数目N的增大(或分辨率rD的减小)而减小。
2)一致方向模式的定义和构造阶段
2.1)方向特征的一致性分析
由于掌纹的主线非常明显,主线区域的方向特征相比于其它区域的方向特征也更加稳定。然而,准确而一致的提取出任意掌纹图像中的主线非常困难,为此,我们不采用明确地提取掌纹主线的方法。考虑到主线区域的灰度值较小,其滤波响应也较小,因此我们提出根据滤波响应来判断某一位置是否属于主线区域。令分别表示位置P={pi},i=1,…,D的方向特征和滤波响应。若将RF按升序排列,我们会得到P*={pi*}满足那么我们选择前L个方向特征并记录下它们的位置P*={p1*,…,pL*}。
另一方面,方向特征的离散表示会导致量化误差,进而导致方向特征的一致性下降。这种情况集中发生在方向特征位于量化边界的情况。根据1.2节中提取的连续表示的方向特征,可以容易第判断出方向特征是否位于量化边界附近。为此,我们提出当方向特征位于量化边界时,我们同时考虑该边界对应的两个相邻的量化表示。例如,设量化边界为0,30,60,90,120,150,当方向特征位于25至35之间时,我们认为量化后特征可能为2,也可能为3,也就是 说,对于特征为2或者3的模板,我们都认为发生了碰撞。这样,我们就提高了这个特征的一致性,并称其为一致方向特征。
2.2)一致方向模式的定义
方向模式(Orientation Pattern,OP)定义为一组方向特征的集合,而一致方向模式(Consistent Orientation Pattern,COP)定义为一致的方向特征构成的方向模式。设掌纹的特征模板中包含D个方向特征(这里D=1024),表示为OF={ofi},ofi∈[1,6],i=1,…,D,若方向模式定义在K个位置P={pj},pj∈[1,D],j=1,…,K,那么方向模式的值可以表示为参数K表示方向模式的大小,参数P表示方向模式的位置。可以看出,一致方向模式增加了对主线区域的方向特征是否位于量化边界附近的判断,因此每个位置的方向特征都可能有两个值。
2.3)一致方向模式的构造
在特征提取阶段,首先利用可调控滤波器提取连续表示的方向特征,之后分别量化为0~179范围内整数表示的方向特征OFC及0~5范围内整数表示的6个方向特征OFD,再按照滤波响应排序并选出前L个方向特征OFC*和OFD*,最后根据一致方向模式的序号逐一构造。算法1给出了构造一致方向模式的算法。
3基于一致方向模式的散列方法
一致方向模式散列包括散列表的构建和搜索两部分。前者用于离线状态下对数据库中的模板建立索引,方便后续的搜索;后者用来快速查找到满足阈值条件的掌纹模板。
3.1)散列表的构建
在散列表构建过程中,需要根据方向特征对数据库中的所有模板建立索引,并保存到散列表H中以方便搜索。同时保存另外两个表O和S,分别用来记录散列表中每个子集的大小和在散列表中的偏移量。算法2给出了散列表的构建方法。
3.2)散列表的搜索
在散列表的搜索过程中,我们首先用可调控滤波器对待辨识的掌纹图像同时提取0~179范围内整数表示的方向特征及量化为6个方向后的方向特征,前者用来判断是否位于量化边界附近,后者用来进行后续可能的特征匹配。此后根据一致方向模式的位置和取值在散列表中检测碰撞。检测碰撞算法由算法3给出。在此过程中,首先根据一致方向模式中每个方向特征的值以及平移后的位置查询表O和S,以确定其在散列表的起始位置和偏移量,随后查询散列表H并对发生碰撞的方向特征记数。最后检查该数值,若其达到一致方向模式的大小,即一致方向模式中每个方向特征都相同,则表示发生碰撞。此时应将散列表中该位置指示的掌纹模板取出并进行一次完全匹配。若匹配得到的距离小于 阈值T,则认为辨识成功,算法返回相应的ID并终止辨识过程。否则继续考察下一个一致方向模式,直到找出辨识成功的模板ID,或所有的一致方向模式都考察完毕为止。完整的搜索算法由算法4给出。
在一致方向模式散列中有三个参数,T,K和C,分别表示掌纹模板相似度阈值,一致方向模式的大小和搜索过程中需要考虑的一致方向模式的个数。其取值可由掌纹图像的质量和实验结果确定。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (2)

1.一种基于散列算法的快速掌纹辨识方法,其特征在于:包括基于可调控滤波器的掌纹特征提取,一致方向模式的定义和构造,以及基于一致方向模式的散列表的构建和搜索三个阶段:
1)基于可调控滤波器的掌纹特征提取阶段,包括如下步骤:
1.1)确定可调控滤波器的函数形式,可调控滤波器的函数形式可以确定为:
h=-0.204σgyy+0.059σgxx+0.063σ3gyyyy-0.194σ3gxxyy+0.024σ3gxxxx,
其中g表示高斯函数,σ是该函数的方差,gx和gy分别表示该函数在水平和竖直方向的偏导数;
1.2)对掌纹图像滤波并根据滤波结果进行特征提取,利用可调控滤波器提取连续表示的方向特征;
2)一致方向模式的定义和构造阶段,目的在于根据滤波响应来判断掌纹图像中某一位置是否属于主线区域,包括如下步骤:
2.1)一致方向模式的定义,假设掌纹图像的特征模板中包含D个方向特征该D=1024,表示为OF={ofi},ofi∈[1,6],i=1,…,D,
若方向模式定义在K个位置P={pj},pj∈[1,D],j=1,…,K,
那么方向模式的值可以表示为
参数K表示方向模式的大小,参数P表示方向模式的位置;
2.2)一致方向构造阶段,将步骤1)利用可调控滤波器提取的连续表示的方向特征值分别量化为0~179范围内整数表示的方向特征OFC及0~5范围内整数表示的6个方向特征OFD,按照滤波响应排序并选出前L个方向特征OFC*和OFD*,然后根据一致方向模式的序号逐一构造;
3)基于一致方向模式的散列表的构建和搜索阶段,包括如下步骤:
3.1)散列表的构建,需要根据方向特征对数据库中的所有模板建立索引,并保存到散列表H中以方便搜索,同时保存另外两个表O和S,分别用来记录散列表中每个子集的大小和在散列表中的偏移量;
3.2)散列表的搜索,首先根据一致方向模式中每个方向特征的值以及平移后的位置查询表O和S,以确定其在散列表的起始位置和偏移量,随后查询散列表H并对发生碰撞的方向特征记数;最后检查该数值,若其达到一致方向模式的大小,即一致方向模式中每个方向特征都相同,则表示发生碰撞;此时应将散列表中该位置指示的掌纹模板取出并进行一次完全匹配;若匹配得到的距离小于阈值T,则认为辨识成功,算法返回相应的ID并终止辨识过程;否则继续考察下一个一致方向模式,直到找出辨识成功的模板ID或所有的一致方向模式都考察完毕为止。
2.根据权利要求1所述的一种基于散列算法的快速掌纹辨识方法,其特征在于:步骤1)提取的方向特征根据需要表示为连续值或离散值。
CN201310741480.2A 2013-12-27 2013-12-27 一种基于散列算法的快速掌纹辨识方法 Active CN103714324B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310741480.2A CN103714324B (zh) 2013-12-27 2013-12-27 一种基于散列算法的快速掌纹辨识方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310741480.2A CN103714324B (zh) 2013-12-27 2013-12-27 一种基于散列算法的快速掌纹辨识方法

Publications (2)

Publication Number Publication Date
CN103714324A CN103714324A (zh) 2014-04-09
CN103714324B true CN103714324B (zh) 2017-02-01

Family

ID=50407284

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310741480.2A Active CN103714324B (zh) 2013-12-27 2013-12-27 一种基于散列算法的快速掌纹辨识方法

Country Status (1)

Country Link
CN (1) CN103714324B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104361339B (zh) * 2014-11-27 2018-08-07 北京市新技术应用研究所 掌形图形提取及识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102760232A (zh) * 2012-08-02 2012-10-31 成都众合云盛科技有限公司 基于掌纹的中远距离的在线身份识别系统
EP2549432A1 (en) * 2010-03-19 2013-01-23 Fujitsu Limited Identification device, identification method and program
CN103198304A (zh) * 2013-04-19 2013-07-10 吉林大学 一种掌纹提取识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2549432A1 (en) * 2010-03-19 2013-01-23 Fujitsu Limited Identification device, identification method and program
CN102760232A (zh) * 2012-08-02 2012-10-31 成都众合云盛科技有限公司 基于掌纹的中远距离的在线身份识别系统
CN103198304A (zh) * 2013-04-19 2013-07-10 吉林大学 一种掌纹提取识别方法

Also Published As

Publication number Publication date
CN103714324A (zh) 2014-04-09

Similar Documents

Publication Publication Date Title
CN106326886B (zh) 基于卷积神经网络的手指静脉图像质量评估方法
Zhang et al. Multi-phase offline signature verification system using deep convolutional generative adversarial networks
Sun et al. Improving iris recognition accuracy via cascaded classifiers
You et al. On hierarchical palmprint coding with multiple features for personal identification in large databases
Feng Combining minutiae descriptors for fingerprint matching
CN100356388C (zh) 生物特征融合的身份识别和认证方法
CN102902980B (zh) 一种基于线性规划模型的生物特征图像分析与识别方法
Zhang et al. Combining global and minutia deep features for partial high-resolution fingerprint matching
CN105825176A (zh) 基于多模态非接触身份特征的识别方法
CN103605963A (zh) 一种指纹识别方法
CN102938065A (zh) 基于大规模图像数据的人脸特征提取方法及人脸识别方法
Gupta et al. Fingerprint indexing schemes–a survey
CN102542243A (zh) 一种基于lbp图像和分块编码的虹膜特征提取方法
CN103714159A (zh) 融合二级和三级特征的由粗到精的指纹识别方法
CN104504361B (zh) 基于方向特征的手掌静脉主方向特征提取方法
Conti et al. An advanced technique for user identification using partial fingerprint
Gornale Fingerprint based gender classification for biometric security: A state-of-the-art technique
CN103593660B (zh) 一种稳定特征图像下交叉梯度编码的掌纹识别方法
Ko et al. Iris recognition using cumulative sum based change analysis
CN103714324B (zh) 一种基于散列算法的快速掌纹辨识方法
Zhang Facial expression recognition in VGG network based on LBP feature extraction
Mane et al. Novel multiple impression based multimodal fingerprint recognition system
Ren et al. A novel method of score level fusion using multiple impressions for fingerprint verification
Liu et al. Fingerprint image quality assessment based on BP neural network with hierarchical clustering
CN103426002B (zh) 基于免疫克隆的手掌bis身份识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant