CN105095854A - 低分辨率无接触的在线掌纹匹配方法 - Google Patents

低分辨率无接触的在线掌纹匹配方法 Download PDF

Info

Publication number
CN105095854A
CN105095854A CN201510345993.0A CN201510345993A CN105095854A CN 105095854 A CN105095854 A CN 105095854A CN 201510345993 A CN201510345993 A CN 201510345993A CN 105095854 A CN105095854 A CN 105095854A
Authority
CN
China
Prior art keywords
imaginary part
coding
real
binary
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510345993.0A
Other languages
English (en)
Other versions
CN105095854B (zh
Inventor
庞辽军
刘林
赵伟强
田捷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201510345993.0A priority Critical patent/CN105095854B/zh
Publication of CN105095854A publication Critical patent/CN105095854A/zh
Application granted granted Critical
Publication of CN105095854B publication Critical patent/CN105095854B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Abstract

本发明公开了一种低分辨率无接触的在线掌纹匹配方法,主要解决现有方法中各向异性Gabor滤波器对不同角度敏感度不同和取多个角度值时匹配速度低的问题。其实现步骤是:1.读入待匹配掌纹图像;2.提取待匹配掌纹图像的感兴趣区域;3.使用各向同性Gabor滤波器对感兴趣区域进行卷积并对卷积结果进行二值编码;4.比较感兴趣区域对应的二值编码图求出待匹配掌纹图像的匹配相似度分数。本发明能在保持较高鲁棒性和较低的运算复杂度条件下,提高低分辨率掌纹匹配的精确度,可用于低分辨率无接触掌纹识别系统。

Description

低分辨率无接触的在线掌纹匹配方法
技术领域
本发明属于数字图像处理技术领域,具体涉及一种在线掌纹匹配方法,可用于低分辨率无接触掌纹识别系统。
背景技术
随着社会的进步和当前安全局势的紧迫需要,掌纹识别特别是低分辨率无接触在线掌纹识别技术已成为继指纹、虹膜等之后的又一个生物特征识别研究热点,掌纹识别拥有有效面积大、细节信息丰富、方便采集、用户体验好、精度高等其他生物特征识别方法所不具有的优点,因此得到越来越多的关注。
基于编码的掌纹匹配方法是低分辨率无接触在线掌纹匹配方法中较为成功的一种方法,该方法鲁棒性强、匹配精度高、占用存储空间小。下面简单介绍两种经典的基于编码的掌纹匹配方法:
1.PalmCode方法:该方法使用传统形式的Gabor滤波器在角度取45°,频率取0.0916,标准差取5.6179时生成一个零均值各向异性Gabor滤波器模板,使用该模板作为卷积模板对手掌感兴趣区域做卷积运算,然后对运算结果的实部和虚部分别根据值的正负进行二值编码,匹配时模板掌纹图像感兴趣区域的实部二值编码图和待匹配掌纹图像感兴趣区域的实部二值编码图做同或运算,模板掌纹图像感兴趣区域的虚部二值编码图和待匹配掌纹图像感兴趣区域的虚部二值编码图做同或运算,最终求上述两部分同或结果中值为1的坐标点的数目占两个同或结果总坐标点个数的比例,作为最终匹配相似度分数。
2.FusionCode方法:该方法采用四个方向的零均值各向异性Gabor滤波器模板分别对手掌感兴趣区域进行卷积运算,对于四幅卷积结果图,对同一坐标位置取最大幅度值所对应的卷积结果从而将四幅卷积结果图融合为一幅图,后续按照与PalmCode相同的方法进行编码和匹配,最后得到匹配相似度分数。
上述经典算法虽然有编码匹配方法的优点,但各自仍有自身缺陷:
1.PalmCode方法由于采用了一个特殊方向提取掌纹特征,因此丢失了其他方向上的掌纹特征,故而限制了其精度的提高。
2.FusionCode方法虽然通过增加Gabor滤波器模板个数的方法获得了更全面的掌纹特征信息,但卷积运算是一项较为耗时的运算,因此为了提取更全面的掌纹特征信息而牺牲了匹配速度,加大了运算复杂度。
3.这两种匹配方法由于在匹配阶段均采用了实部和实部匹配,虚部和虚部匹配,最后直接计算匹配相似度分数的策略,故而忽略了同一感兴趣区域的实部和虚部编码结果之间的联系性,造成掌纹特征信息的丢失,影响匹配精确度的提高。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种低分辨率无接触的在线掌纹匹配方法,在不增加计算复杂度的同时提取更全面的掌纹特征信息,并对实部二值编码图和虚部二值编码图之间的联系性加以利用,提高匹配精确度。
本发明的技术方案是:对提取到的手掌感兴趣区域,使用各向同性零均值Gabor滤波器作为卷积模板对感兴趣区域进行卷积运算;对卷积结果的实部绝对值和虚部绝对值的大小关系做二值编码,同时对卷积结果的实部和虚部分别进行二值编码;对于同一个坐标位置,当模板掌纹图像感兴趣区域和待匹配掌纹图像感兴趣区域的实部二值编码图、虚部二值编码图、实虚部比较二值编码图均分别对应匹配成功时判定该坐标位置上匹配成功;由匹配成功的坐标点的个数占手掌感兴趣区域总坐标点个数的比例表示匹配相似度分数。其实现步骤包括如下:
1.一种低分辨率无接触的在线掌纹匹配方法,包括如下步骤:
(1)读入模板掌纹图像I1和待匹配掌纹图像I2
(2)提取模板掌纹图像I1的感兴趣区域R1和待匹配掌纹图像I2的感兴趣区域R2
(3)对感兴趣区域进行二值编码:
(3a)由各向同性Gabor滤波器函数生成一个行数和列数均为(2M+1)的各向同性Gabor滤波器模板G,其中M为G的中心像素到边界像素的像素距离;
(3b)由均值归零公式将Gabor滤波器模板G的均值调整至零,得到零均值Gabor滤波器模板G1
(3c)将零均值Gabor滤波器模板G1作为卷积模板分别与R1和R2做卷积运算,得到R1的卷积结果图C1和R2的卷积结果图C2
(3d)取C1的实部图E1和虚部图A1,得到C1的实虚部绝对值差图EA1:EA1=abs(E1)-abs(A1);
(3e)取C2的实部图E2和虚部图A2,得到C2的实虚部绝对值差图EA2:EA2=abs(E2)-abs(A2),
其中abs表示求绝对值;
(3f)根据C1的实部图E1、虚部图A1及实虚部绝对值差图EA1,得到C1的实部二值编码图B11、虚部二值编码图B12、实虚部比较二值编码图BEA1
B 11 = 1 E 1 > 0 0 E 1 ≤ 0 , B 12 = 1 A 1 > 0 0 A 1 ≤ 0 , B E A 1 = 1 EA 1 > 0 0 EA 1 ≤ 0 ;
(3g)根据C2的实部图E2、虚部图A2及实虚部绝对值差图EA2,得到C2的实部二值编码图B21、虚部二值编码图B22、实虚部比较二值编码图BEA2
B 21 = 1 E 2 > 0 0 E 2 ≤ 0 , B 22 = 1 A 2 > 0 0 A 2 ≤ 0 , B E A 2 = 1 EA 2 > 0 0 EA 2 ≤ 0 ;
(4)计算模板掌纹图像I1和待匹配掌纹图像I2的匹配相似度分数:
(4a)固定模板掌纹图像I1的感兴趣区域R1,对待匹配掌纹图像I2的感兴趣区域R2做水平向右h的像素平移和竖直向上w的像素平移,记录R1与平移后的R2的重叠区域,在R1中将该重叠区域记为R1′,在R2中将该重叠区域记为R2′;
(4b)记录R1′在R1中的坐标位置,在B11中取相同坐标位置上的值得到R1′的实部二值编码图B11,在B12中取相同坐标位置上的值得到R1′的虚部二值编码图B12,在BEA1中取相同坐标位置上的值得到R1′的实虚部比较二值编码图B′EA1
(4c)记录R2′在R2中的坐标位置,在B21中取相同坐标位置上的值得到R2′的实部二值编码图B21,在B22中取相同坐标位置上的值得到R2′的虚部二值编码图B22,在BEA2中取相同坐标位置上的值得到R2′的实虚部比较二值编码图B′EA2
(4d)对上述B′EA1和B′EA2做按位同或运算得到实虚部比较匹配结果图BEA,对上述B11和B21做按位同或运算得到实部匹配结果图BR,对上述B12和B22做按位同或运算得到虚部匹配结果图BM
(4e)对(4d)中的BEA、BR和BM做按位与运算,得到最终匹配结果图BRM
(4f)计算BRM中值为1的坐标点个数占BRM总坐标点个数的比例,令其作为R1′与R2′的匹配相似度分数;
(4g)由各平移参数下的R1′与R2′的匹配相似度分数求I1与I2的匹配相似度分数:
(4g1)设N为水平方向和竖直方向的最大平移量,水平方向平移量h和竖直方向平移量w均取区间[-N,N]上的整数值,则根据h值和w值的不同组合得到(2N+1)2组平移参数;
(4g2)对步骤(4g1)得到的所有平移参数,重复步骤(4a)~(4f)求出所有平移参数下的R1′与R2′的匹配相似度分数数组;
(4g3)取(4g2)得到的所有平移参数下的R1′与R2′的匹配相似度分数数组中的最大值作为R1与R2的匹配相似度分数,再将R1与R2的匹配相似度分数作为I1与I2的匹配相似度分数,I1与I2的匹配相似度分数的大小表示I1与I2来自同一手掌的概率的大小。
本发明与现有技术相比具有如下优点:
第一,全面的方向信息。由于本发明采用了各向同性Gabor滤波器,从而避免了PalmCode中各向异性Gabor滤波器只取一个方向值时丢失其他方向掌纹特征的问题。
第二,计算量小,速度快,计算复杂度低。与FusionCode相比,本发明由于在获取更全面掌纹特征的同时并未增加卷积次数,因此计算量小,速度快,计算复杂度低。
第三,本发明不仅对卷积结果图中的实部和虚部进行了编码,而且对实部绝对值和虚部绝对值的大小关系进行了编码,获得了更多掌纹特征信息。
第四,本发明采用了同一坐标位置上的实虚部比较二值编码图、实部二值编码图、虚部二值编码图均分别匹配时判定该坐标位置匹配成功,最后计算匹配成功的坐标点数占总坐标点数的比例作为匹配相似度分数的策略,该策略利用了掌纹图的坐标位置信息,因此有助于提高匹配精确度。
附图说明
图1是本发明的实现流程图;
图2是本发明所使用的各向同性Gabor滤波器的三维图;
图3是本发明从掌纹图像感兴趣区域中提取到的实部二值编码图;
图4是本发明从掌纹图像感兴趣区域中提取到的虚部二值编码图;
图5是本发明从掌纹图像感兴趣区域中提取到的实虚部比较二值编码图;
图6是本发明在香港理工大学低分辨率掌纹库上实验的ROC曲线图。
具体实施方式
以下结合图1,对本发明的实施实例及效果进行详细描述:
参照图1,本实例的实现步骤如下:
步骤1,读入模板掌纹图像I1和待匹配掌纹图像I2
本实例所使用的数据库为香港理工大学低分辨率掌纹数据库PolyU_Palmprint_Database,从该数据库中随机读入一幅掌纹图像作为模板掌纹图像I1,再从该数据库中随机读入不同于I1的另一幅掌纹图像作为待匹配掌纹图像I2
步骤2,提取模板掌纹图像I1的感兴趣区域R1和待匹配掌纹图像I2的感兴趣区域R2
提取掌纹图像感兴趣区域的方法有很多种,例如谷点检测法,最大内切圆法,最大内切椭圆法等等,本实例中采用谷点检测法,具体步骤如下:
(2a)由二维高斯低通滤波器函数生成一个行数和列数均为D的二维高斯低通滤波模板S:
S ( x , y ) = 1 2 πα 2 exp ( - x 2 + y 2 2 α 2 ) ,
其中α为高斯低通滤波器函数的标准差,exp为指数函数,x为S中每个像素的横坐标,y为S中每个像素的纵坐标;
(2b)将二维高斯低通滤波模板S作为滤波模板分别对I1和I2进行高斯低通滤波以消除I1和I2中的高频噪声,得到I1的滤波结果图L1和I2的滤波结果图L2
L1=I1*S,
L2=I2*S,
其中*表示卷积;
(2c)对L1和L2进行二值化操作,得到L1的二值图像B1和L2的二值图像B2
B 1 = 1 L 1 > T h 0 L 1 ≤ T h ,
B 2 = 1 L 2 > T h 0 L 2 ≤ T h ,
其中Th为二值化灰度门限值,Th的值取15;
(2d)对B1和B2做一次形态学腐蚀操作,得到B1的腐蚀图像BE1和B2的腐蚀图像BE2,由B1和BE1得到模板掌纹图像I1的手掌边界图BW1,由B2和BE2得到待匹配掌纹图像I2的手掌边界图BW2
BW1=B1-BE1
BW2=B2-BE2
(2e)对步骤(2d)所得到的每个手掌边界图,取手掌边界线上的点P0(x0,y0),以P0(x0,y0)为起点,分别向前和向后间隔30个像素点在边界线上取点P1(x1,y1)和P2(x2,y2),由P0(x0,y0)、P1(x1,y1)、P2(x2,y2)按下式求出点P0(x0,y0)处的曲率θ:
其中cos-1为反余弦函数;
对BW1和BW2中所有手掌边界线上的点均提取曲率值,求出所有手掌边界点的曲率值;
(2f)在模板掌纹图像I1的手掌边界图BW1中,求全局最大曲率值,记录该值所在坐标点的坐标位置,得到谷点GU11,并把该点25个像素邻域内的坐标点的曲率值全部置零,再次求全局最大曲率值,记录该值所在坐标点的坐标位置,得到BW1内的第二个谷点GU12
(2g)在待匹配掌纹图像I2的手掌边界图BW2中,求全局最大曲率值,记录该值所在坐标点的坐标位置,得到谷点GU21,并把该点25个像素邻域内的坐标点的曲率值全部置零,再次求全局最大曲率值,记录该值所在坐标点的坐标位置,得到BW2内的第二个谷点GU22
(2h)在模板掌纹图像I1中,以所述谷点GU11和GU12的连线为横坐标,以指向GU12的方向为横坐标的正方向,以谷点GU11和GU12的连线的中垂线为纵坐标,以中垂线向右方向为纵坐标正方向,建立直角坐标系,以坐标点(0,75)为中心点沿坐标轴方向截取行数和列数为128的矩形区域R1,则得I1的感兴趣区域R1
(2i)在待匹配掌纹图像I2中,以所述谷点GU21和GU22的连线为横坐标,以指向GU22的方向为横坐标的正方向,以谷点GU21和GU22的连线的中垂线为纵坐标,以中垂线向右方向为纵坐标正方向,建立直角坐标系,以坐标点(0,75)为中心点沿坐标轴方向截取行数和列数为128的矩形区域R2,则得I2的感兴趣区域R2
步骤3,对感兴趣区域进行二值编码。
(3a)由各向同性Gabor滤波器函数生成一个行数和列数均为(2M+1)的各向同性Gabor滤波器模板G,其中M为G的中心像素到边界像素的像素距离:
G ( x , y ) = exp ( - x 2 + y 2 2 δ 2 ) exp ( i 2 π F x 2 + y 2 ) ,
其中exp为指数函数,x为G中每个像素的横坐标,y为G中每个像素的纵坐标,δ为G的标准差,F为G的频率,
(3b)由均值归零公式将Gabor滤波器模板G的均值调整至零,得到零均值Gabor滤波器模板G1
G 1 ( x , y ) = G ( x , y ) - Σ x = - M M Σ y = - M M G ( x , y ) ( 2 M + 1 ) 2 ,
生成的零均值Gabor滤波器模板G1的三维图,如图2所示;
(3c)将零均值Gabor滤波器模板G1作为卷积模板分别与R1和R2做卷积运算,得到R1的卷积结果图C1和R2的卷积结果图C2
C1=R1*G1
C2=R2*G1
其中*为卷积符号;
(3d)取C1的实部图E1和虚部图A1,得到C1的实虚部绝对值差图EA1:EA1(x,y)=abs(E1(x,y))-abs(A1(x,y)),
其中abs表示求绝对值,x为横坐标,x=1,2,...,(2M+1),y为纵坐标,y=1,2,...,(2M+1),EA1(x,y)为图EA1在坐标(x,y)处的灰度值,E1(x,y)为图E1在坐标(x,y)处的灰度值,A1(x,y)为图A1在坐标(x,y)处的灰度值;
(3e)取C2的实部图E2和虚部图A2,得到C2的实虚部绝对值差图EA2
EA2(x,y)=abs(E2(x,y))-abs(A2(x,y)),
其中abs表示求绝对值,x为横坐标,x=1,2,...,(2M+1),y为纵坐标,y=1,2,...,(2M+1),EA2(x,y)为图EA2在坐标(x,y)处的灰度值,E2(x,y)为图E2在坐标(x,y)处的灰度值,A2(x,y)为图A2在坐标(x,y)处的灰度值;
(3f)根据C1的实部图E1、虚部图A1及实虚部绝对值差图EA1,得到C1的实部二值编码图B11、虚部二值编码图B12、实虚部比较二值编码图BEA1
B 11 = 1 E 1 > 0 0 E 1 ≤ 0 , B 12 = 1 A 1 > 0 0 A 1 ≤ 0 , B E A 1 = 1 EA 1 > 0 0 EA 1 ≤ 0 ;
(3g)根据C2的实部图E2、虚部图A2及实虚部绝对值差图EA2,得到C2的实部二值编码图B21、虚部二值编码图B22、实虚部比较二值编码图BEA2
B 21 = 1 E 2 > 0 0 E 2 ≤ 0 , B 22 = 1 A 2 > 0 0 A 2 ≤ 0 , B E A 2 = 1 EA 2 > 0 0 EA 2 ≤ 0 .
以PolyU_Palmprint_Database中掌纹图片PolyU_001_F_01为例,通过步骤(3f)和步骤(3g)得到的实部二值编码图如图3所示,得到的虚部二值编码图如图4所示,得到的实虚部比较二值编码图如图5所示。
步骤4,计算模板掌纹图像I1和待匹配掌纹图像I2的匹配相似度分数。
(4a)固定模板掌纹图像I1的感兴趣区域R1,对待匹配掌纹图像I2的感兴趣区域R2做水平向右h的像素平移和竖直向上w的像素平移,记录R1与平移后的R2的重叠区域,在R1中将该重叠区域记为R1′,在R2中将该重叠区域记为R2′;
(4b)记录R1′在R1中的坐标位置,在B11中取相同坐标位置上的值得到R1′的实部二值编码图B11,在B12中取相同坐标位置上的值得到R1′的虚部二值编码图B12,在BEA1中取相同坐标位置上的值得到R1′的实虚部比较二值编码图B′EA1
(4c)记录R2′在R2中的坐标位置,在B21中取相同坐标位置上的值得到R2′的实部二值编码图B21,在B22中取相同坐标位置上的值得到R2′的虚部二值编码图B22,在BEA2中取相同坐标位置上的值得到R2′的实虚部比较二值编码图B′EA2
(4d)对上述B′EA1和B′EA2做按位同或运算得到实虚部比较匹配结果图BEA,对上述B11和B21做按位同或运算得到实部匹配结果图BR,对上述B12和B22做按位同或运算得到虚部匹配结果图BM
BEA=B′EA1^B′EA2
BR=B11^B21
BM=B12^B22
其中^表示按位同或运算;
(4e)对(4d)中的BEA、BR和BM做按位与运算,得到最终匹配结果图BRM
BRM=BEA&BR&BM
其中&表示按位与运算;
(4f)计算BRM中值为1的坐标点个数占BRM总坐标点个数的比例,令其作为R1′与R2′的匹配相似度分数;
(4g)由各平移参数下的R1′与R2′的匹配相似度分数求I1与I2的匹配相似度分数:
(4g1)设N为水平方向和竖直方向的最大平移量,水平方向平移量h和竖直方向平移量w均取区间[-N,N]上的整数值,则根据h值和w值的不同组合得到(2N+1)2组平移参数;
(4g2)对步骤(4g1)得到的所有平移参数,重复步骤(4a)~(4f)求出所有平移参数下的R1′与R2′的匹配相似度分数数组;
(4g3)取(4g2)得到的所有平移参数下的R1′与R2′的匹配相似度分数数组中的最大值作为R1与R2的匹配相似度分数,再将R1与R2的匹配相似度分数作为I1与I2的匹配相似度分数,I1与I2的匹配相似度分数的大小表示I1与I2来自同一手掌的概率的大小。
本发明的效果可通过以下实验结果进一步说明:
1.实验条件
在PC机的matlab2012b环境下进行仿真,PC机配置CoreI5处理器,主频为3.3GHz。实验数据库为香港理工大学低分辨率掌纹数据库PolyU_Palmprint_Database,该数据库是国际公认的一个低分辨率掌纹数据库。
2.仿真内容与分析
仿真1,对PolyU_Palmprint_Database数据库中任意两幅掌纹图片都进行一次单次掌纹匹配,得到批量实验结果,根据批量实验结果绘制ROC曲线,得到如图6所示的本发明的ROC曲线图。
单次掌纹匹配过程为:读入模板掌纹图像并提取其感兴趣区域,由各向同性Gabor滤波器作为卷积模板对模板掌纹图像的感兴趣区域进行卷积,对卷积结果图编码得到模板掌纹图像的实部二值编码图、虚部二值编码图、实虚部比较二值编码图;读入待匹配掌纹图片并提取其感兴趣区域,由各向同性Gabor滤波器作为卷积模板对待匹配掌纹图像的感兴趣区域进行卷积,对卷积结果图编码得到待匹配掌纹图像的实部二值编码图、虚部二值编码图、实虚部比较二值编码图。
仿真2,比较本发明与PalmCode方法和FusionCode方法的单次匹配耗时和等错误率。
在matlab2012b环境下实现PalmCode方法程序,对PalmCode方法在PolyU_Palmprint_Database数据库上做与仿真1相同的批量实验,记录PalmCode方法的单次匹配耗时,由批量实验结果求出PalmCode方法的等错误率;
在matlab2012b环境下编写FusionCode方法程序,对FusionCode方法在PolyU_Palmprint_Database数据库上做与仿真1相同的批量实验,记录FusionCode方法的单次匹配耗时,由批量实验结果求出FusionCode方法的等错误率;
由仿真1的批量实验结果求出本发明的等错误率,并记录本发明的单次匹配耗时,结果如表1所示。
匹配方法 单次匹配耗时(秒) 等错误率(%)
PalmCode方法 0.25 1.11
FusionCode方法 0.92 0.79
本发明 0.30 0.70
由表1及图6可以看出,本发明能够在保持较低匹配耗时的条件下提高掌纹匹配方法的精确度。
本发明所述的低分辨率无接触的在线掌纹匹配方法,并不仅限于说明书中的描述。凡在本发明的精神和原则之内,所做的任何修改、同等替换、改进等,均包含在本发明的权利要求范围之内。

Claims (6)

1.一种低分辨率无接触的在线掌纹匹配方法,包括如下步骤:
(1)读入模板掌纹图像I1和待匹配掌纹图像I2
(2)提取模板掌纹图像I1的感兴趣区域R1和待匹配掌纹图像I2的感兴趣区域R2
(3)对感兴趣区域进行二值编码:
(3a)由各向同性Gabor滤波器函数生成一个行数和列数均为(2M+1)的各向同性Gabor滤波器模板G,其中M为G的中心像素到边界像素的像素距离;
(3b)由均值归零公式将Gabor滤波器模板G的均值调整至零,得到零均值Gabor滤波器模板G1
(3c)将零均值Gabor滤波器模板G1作为卷积模板分别与R1和R2做卷积运算,得到R1的卷积结果图C1和R2的卷积结果图C2
(3d)取C1的实部图E1和虚部图A1,得到C1的实虚部绝对值差图EA1:EA1=abs(E1)-abs(A1);
(3e)取C2的实部图E2和虚部图A2,得到C2的实虚部绝对值差图EA2:EA2=abs(E2)-abs(A2),
其中abs表示求绝对值;
(3f)根据C1的实部图E1、虚部图A1及实虚部绝对值差图EA1,得到C1的实部二值编码图B11、虚部二值编码图B12、实虚部比较二值编码图BEA1
B 11 = { 1 E 1 > 0 0 E 1 ≤ 0 , B 12 = { 1 A 1 > 0 0 A 1 ≤ 0 , B E A 1 = { 1 EA 1 > 0 0 EA 1 ≤ 0 ;
(3g)根据C2的实部图E2、虚部图A2及实虚部绝对值差图EA2,得到C2的实部二值编码图B21、虚部二值编码图B22、实虚部比较二值编码图BEA2
B 21 = { 1 E 2 > 0 0 E 2 ≤ 0 , B 22 = { 1 A 2 > 0 0 A 2 ≤ 0 , B E A 2 = { 1 EA 2 > 0 0 EA 2 ≤ 0 ;
(4)计算模板掌纹图像I1和待匹配掌纹图像I2的匹配相似度分数:
(4a)固定模板掌纹图像I1的感兴趣区域R1,对待匹配掌纹图像I2的感兴趣区域R2做水平向右h的像素平移和竖直向上w的像素平移,记录R1与平移后的R2的重叠区域,在R1中将该重叠区域记为R′1,在R2中将该重叠区域记为R′2
(4b)记录R′1在R1中的坐标位置,在B11中取相同坐标位置上的值得到R′1的实部二值编码图B′11,在B12中取相同坐标位置上的值得到R′1的虚部二值编码图B′12,在BEA1中取相同坐标位置上的值得到R′1的实虚部比较二值编码图B′EA1
(4c)记录R′2在R2中的坐标位置,在B21中取相同坐标位置上的值得到R′2的实部二值编码图B′21,在B22中取相同坐标位置上的值得到R′2的虚部二值编码图B′22,在BEA2中取相同坐标位置上的值得到R′2的实虚部比较二值编码图B′EA2
(4d)对上述B′EA1和B′EA2做按位同或运算得到实虚部比较匹配结果图BEA,对上述B′11和B′21做按位同或运算得到实部匹配结果图BR,对上述B′12和B′22做按位同或运算得到虚部匹配结果图BM
(4e)对(4d)中的BEA、BR和BM做按位与运算,得到最终匹配结果图BRM
(4f)计算BRM中值为1的坐标点个数占BRM总坐标点个数的比例,令其作为R′1与R′2的匹配相似度分数;
(4g)由各平移参数下的R′1与R′2的匹配相似度分数求I1与I2的匹配相似度分数:
(4g1)设N为水平方向和竖直方向的最大平移量,水平方向平移量h和竖直方向平移量w均取区间[-N,N]上的整数值,则根据h值和w值的不同组合得到(2N+1)2组平移参数;
(4g2)对步骤(4g1)得到的所有平移参数,重复步骤(4a)~(4f)求出所有平移参数下的R′1与R′2的匹配相似度分数数组;
(4g3)取(4g2)得到的所有平移参数下的R′1与R′2的匹配相似度分数数组中的最大值作为R1与R2的匹配相似度分数,再将R1与R2的匹配相似度分数作为I1与I2的匹配相似度分数,I1与I2的匹配相似度分数的大小表示I1与I2来自同一手掌的概率的大小。
2.根据权利要求书1所述的低分辨率无接触的在线掌纹匹配方法,其中所述步骤(3a)中各向同性Gabor滤波器函数,表示如下:
G ( x , y ) = exp ( - x 2 + y 2 2 δ 2 ) exp ( i 2 π F x 2 + y 2 ) ,
其中exp为指数函数,x为G中每个像素的横坐标,y为G中每个像素的纵坐标,δ为G的标准差,F为G的频率,
3.根据权利要求书1所述的低分辨率无接触的在线掌纹匹配方法,其中所述步骤(3b)中的均值归零公式,表示如下:
G 1 ( x , y ) = G ( x , y ) - Σ x = - M M Σ y = - M M G ( x , y ) ( 2 M + 1 ) 2 .
4.根据权利要求书1所述的低分辨率无接触的在线掌纹匹配方法,其中所述步骤(3c)中R1的卷积结果图C1和R2的卷积结果图C2,表示如下:
C1=R1*G1
C2=R2*G1
其中*为卷积符号。
5.根据权利要求书1所述的低分辨率无接触的在线掌纹匹配方法,其中所述步骤(4d)中由按位同或运算求实虚部比较匹配结果图BEA、实部匹配结果图BR、虚部匹配结果图BM的公式,公式如下:
BEA=B′EA1^B′EA2
BR=B′11^B′21
BM=B′12^B′22
其中^表示按位同或运算。
6.根据权利要求书1所述的低分辨率无接触的在线掌纹匹配方法,其中所述步骤(4e)中由按位与运算求R′1与R′2的匹配结果图BRM,公式如下:
BRM=BEA&BR&BM
其中&表示按位与运算。
CN201510345993.0A 2015-06-19 2015-06-19 低分辨率无接触的在线掌纹匹配方法 Active CN105095854B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510345993.0A CN105095854B (zh) 2015-06-19 2015-06-19 低分辨率无接触的在线掌纹匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510345993.0A CN105095854B (zh) 2015-06-19 2015-06-19 低分辨率无接触的在线掌纹匹配方法

Publications (2)

Publication Number Publication Date
CN105095854A true CN105095854A (zh) 2015-11-25
CN105095854B CN105095854B (zh) 2018-09-11

Family

ID=54576243

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510345993.0A Active CN105095854B (zh) 2015-06-19 2015-06-19 低分辨率无接触的在线掌纹匹配方法

Country Status (1)

Country Link
CN (1) CN105095854B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488473A (zh) * 2015-12-01 2016-04-13 北京东方金指科技有限公司 一种多特征融合的海量指纹编码和比对方法
CN107798070A (zh) * 2017-09-26 2018-03-13 平安普惠企业管理有限公司 一种网页数据获取方法及终端设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005124662A1 (en) * 2004-06-21 2005-12-29 The Hong Kong Polytechnic University Palm print identification using palm line orientation
CN102073843B (zh) * 2010-11-05 2013-03-20 沈阳工业大学 非接触式快速人手多模态信息融合识别方法
CN103886291A (zh) * 2014-03-19 2014-06-25 西安电子科技大学 基于动态模板的掌纹图像褶皱检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005124662A1 (en) * 2004-06-21 2005-12-29 The Hong Kong Polytechnic University Palm print identification using palm line orientation
CN102073843B (zh) * 2010-11-05 2013-03-20 沈阳工业大学 非接触式快速人手多模态信息融合识别方法
CN103886291A (zh) * 2014-03-19 2014-06-25 西安电子科技大学 基于动态模板的掌纹图像褶皱检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SONG Z等: "Palmprint verification based on orthogonal code", 《IEEE》 *
苑玮琦: "相位一致性和对数Gabor滤波器相结合的掌纹识别方法", 《光学学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488473A (zh) * 2015-12-01 2016-04-13 北京东方金指科技有限公司 一种多特征融合的海量指纹编码和比对方法
CN105488473B (zh) * 2015-12-01 2019-03-19 北京东方金指科技有限公司 一种多特征融合的海量指纹编码和比对方法
CN107798070A (zh) * 2017-09-26 2018-03-13 平安普惠企业管理有限公司 一种网页数据获取方法及终端设备

Also Published As

Publication number Publication date
CN105095854B (zh) 2018-09-11

Similar Documents

Publication Publication Date Title
Lee et al. An implementation of leaf recognition system using leaf vein and shape
CN105809693B (zh) 基于深度神经网络的sar图像配准方法
CN103136520B (zh) 基于pca-sc算法的形状匹配和目标识别方法
CN110738207A (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
CN102541954B (zh) 一种商标检索方法及系统
CN107292310B (zh) 一种圆形指针式表盘视觉定位及自动读数方法
CN110543822A (zh) 一种基于卷积神经网络和监督式离散哈希算法的指静脉识别方法
CN108197605A (zh) 基于深度学习的牦牛身份识别方法
CN108509886B (zh) 基于静脉像素点判定的掌静脉识别方法
CN102324045B (zh) 基于Radon变换和极谐波变换的不变矩目标识别方法
CN104834931A (zh) 一种基于小波变换的改进的尺度不变特征匹配算法
CN101968850A (zh) 一种模拟生物视觉机制的人脸特征提取方法
CN107958443A (zh) 一种基于脊线特征和tps形变模型的指纹图像拼接方法
CN103679720A (zh) 一种基于小波分解与Harris角点检测的快速图像配准方法
CN112949570B (zh) 一种基于残差注意力机制的指静脉识别方法
CN104616280A (zh) 基于最大稳定极值区域和相位一致性的图像配准方法
Cai Robust filtering-based thinning algorithm for pattern recognition
CN104268549A (zh) 抗噪声的多尺度局部二值模式特征表示方法
CN105095854A (zh) 低分辨率无接触的在线掌纹匹配方法
CN107492119B (zh) 基于双竞争性相位相关影像金字塔的掌纹roi匹配方法
CN105469059A (zh) 一种视频中的人物识别、定位和统计方法
CN103218616B (zh) 基于高斯-埃尔米特矩的图像轮廓特征提取方法
CN112183596B (zh) 结合局部网格约束和几何约束的直线段匹配方法与系统
CN104766085B (zh) 一种多尺度图形识别方法
CN101551858A (zh) 基于差分码及差分码模式的目标识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant