CN105046205A - 一种基于局部和全局特征融合的掌纹识别方法 - Google Patents
一种基于局部和全局特征融合的掌纹识别方法 Download PDFInfo
- Publication number
- CN105046205A CN105046205A CN201510354511.8A CN201510354511A CN105046205A CN 105046205 A CN105046205 A CN 105046205A CN 201510354511 A CN201510354511 A CN 201510354511A CN 105046205 A CN105046205 A CN 105046205A
- Authority
- CN
- China
- Prior art keywords
- image
- palmmprint
- feature
- line
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于局部和全局特征融合的掌纹识别方法,包括以下步骤:1,二维Gabor相位编码、改进的有限Radon变换和双向主成分分析法分别提取纹理特征、主线特征、整体特征;2,纹理特征使用Hamming距离进行分类选取,得纹理选取特征;对主线特征使用点对区域的双向匹配进行分类选取,得主线选取特征;整体特征使用最小欧氏距离算法进行分类选取,得整体选取特征;3,纹理选取特征、主线选取特征和整体选取特征使用K近邻分类器方法,得与待识别样本T的k个近邻分类结果,分类结果采取Borda投票策略决策融合规则进行信息融合,实现掌纹多特征的融合识别。具有识别准确,鲁棒性好的优点。
Description
技术领域
本发明属于生物特征身份识别技术领域,具体涉及一种基于局部和全局特征融合的掌纹识别方法。
背景技术
手是人与外界接触最频繁、最方便的部分,用手进行身份识别非常方便,从非接触式摄像头采集的低分辨率图像就可以用于掌纹识别。与其他的生物识别相比,掌纹具有很多独特的优势:相比于指纹,掌纹拥有更大的面积以及更为丰富的纹理信息,一般的摄像头或者扫描仪都可以采集到很清晰的图像,可以构建高性能的掌纹识别系统;相比于人脸识别,掌纹识别能轻易地区分双胞胎以及整容人群;相比于虹膜,掌纹采集设备的价格更为低廉,采集方式也更容易让用户接受;相比于签名,掌纹更加稳定可靠。
掌纹特征提取及分类识别是掌纹识别的关键问题。一般来说,用来描述掌纹的特征可分为两大类:局部特征和整体特征。局部特征主要指掌纹中的点特征、线特征、纹理特征和几何特征等,这些方法在一定程度上较好地分离出不同人掌纹之间的差异,但缺点是计算量大,易受噪声攻击,识别速度较慢。基于整体特征的掌纹识别是将掌纹图像看作为一个二维矩阵,利用像素之间的统计特性,从子空间的角度进行特征描述与提取,该类方法虽然忽略了掌纹的纹理特征,但提取了掌纹图像的绝大部分特征信息,且不易受噪声影响。针对上述掌纹单一特征表征不充分,多特征难以融合,不能显现特征本质的分辨特性,因此,提出基于局部和全局特征融合的掌纹识别方法,以便克服单一特征对掌纹进行识别时存在识别率受限、鲁棒性差等缺点,是急需解决的问题。
发明内容
本发明提供一种基于局部和全局特征融合的掌纹识别方法,解决了单一特征对掌纹进行识别时存在识别率受限、鲁棒性差的问题。
本发明所采用的技术方案是:一种基于局部和全局特征融合的掌纹识别方法,具体包括以下步骤:
步骤1:采用二维Gabor相位编码,提取掌纹的纹理特征,采用改进的有限Radon变换,即MFRAT,提取掌纹的主线特征,采用双向主成分分析法,即BDPAC,提取掌纹的整体特征;
步骤2:对提取掌纹的纹理特征使用Hamming距离进行分类选取,得到纹理选取特征;对提取掌纹的主线特征使用点对区域的双向匹配进行分类选取,得到主线选取特征;对提取掌纹的整体特征使用最小欧氏距离算法进行分类选取,得到整体选取特征;
步骤3:对纹理选取特征、主线选取特征和整体选取特征使用K近邻分类器方法,得到的与待识别样本T的k个近邻的分类结果,将分类结果采取Borda投票策略决策融合规则进行信息融合,从而实现掌纹多特征的融合识别。
本发明的特点还在于,
步骤1包括以下步骤:
步骤1.1:采用二维Gabor相位编码,提取掌纹的纹理特征的具体方法为:
二维离散Gabor滤波器的原形为:
将Gabor核函数去掉直流分量,由此得到一个改进的Gabor函数:
公式(1)、(2)中,(x,y)为给点位置的图像坐标值,i是虚数符号,μ是正弦波的频率,θ用来控制函数的方向,σ是标准方差,2n+1是滤波器的模板宽度;
对用公式(2)处理后的掌纹子图像I进行相位编码,形成两位码字(br,bi),得到实部和虚部的二值图像,这样在掌纹的特征向量中仅保存有相位信息,编码规则为:
步骤1.2:采用MFRAT提取掌纹的主线特征,具体方法为:
给定网格Zp={0,1,...,p-1},这里p为正整数,则MFRAT的实函数f[i,j]在有限的网格上定义为:
公式(5)中,k=1,2,...,N,N为方向个数,C为一个控制r[Lk]范围的常量,Lk表示在网格上组成直线的点,i,j为图像中某个点的像素坐标值,公式为:
Lk={(i,j):j=k(i-i0)+j0,i∈Zp}(6)
公式(6)中,(i0,j0)是网格的中心点,k是直线Lk的斜率;
在MFRAT中,网格的中心点f(i0,j0)的方向θk和能量e的计算公式如下:
公式(7)中,arg是角度运算,θk为对应于斜率k的角度;
设大小为m×n的图像I,由公式(7)得到的一幅图像所有像素点的方向图像Direction_image和能量图像Energy_image表示为:
由公式(8)确定阈值T;
阈值T的确定方法为:先将能量图像Energy_image从大到小排序,然后取第M个能量值作为阈值T;
通过阈值T,将能量图像Energy_image转化为二值图像,叫做线图像,记作Line_image,Line_image,Line_image,Line_image,通过公式(9)选择获得:
Line_image=0若Energy_image<T(9)
Line_image=1若Energy_image≥T
此时,线图像Line_image中已包含了主线,但同时也包含一些较强的皱纹线,可以通过方向准则进一步去掉这些皱纹线;
最后,对掌纹主线图像进行贴标签处理,去除很短的直线,获得只含有三大主线的图像;
步骤1.3:基于BDPAC提取掌纹的整体特征,具体方法为:
BDPCA是基于图像矩阵的主成分分析法,具体方法如下:
设掌纹感兴趣区域训练样本图像有M个m×n维的图像样本I1,I2,…,IM,第j个训练样本图像的图像样本矩阵Ij可以用n个m×1的列向量来进行表示,组成训练样本集,可计算出去行相关性的列方向上总的散度矩阵为:
同样,可以将第j个训练样本图像的图像样本矩阵Ij用m个1×n的行向量来进行表示,组成训练样本集,可计算出去列相关性的行方向上总的散度矩阵为:
公式(10)、(11)中,为训练样本图像总体的均值矩阵,
由矩阵Gr的前d1(d1≤M)个最大特征值相对应的特征向量ui(i=1,2,...d1)组成m×d1的矩阵,就是列映射矩阵U,其中ui表示与Gr的第i个最大特征值对应的特征向量,同样,选取Gc的前d2(d2≤M)个最大特征值相对应的特征向量vi(i=1,2,...d2)组成n×d2的矩阵,就是行映射矩阵V,因此,图像矩阵I的大小为d1×d2维特征矩阵Fj为:
Fj=UTIV。(12)
步骤2包括以下步骤:
步骤2.1:对提取掌纹的纹理特征使用Hamming距离进行分类选取,具体方法为:
Hamming距离用来衡量两幅图像纹理特征的相似度,用于掌纹纹理特征的分类,
设P和Q为两个纹理特征向量,归一化的Hamming距离为:
公式(13)中,PR(QR)和PI(QI)为纹理特征P(Q)的实部和虚部,为布尔运算符,N×N为纹理特征向量尺寸,i,j为图像中某个点的像素坐标值,
为了更好的匹配,在水平和垂直方向移动其中一个特征再次匹配,移动像素范围为-2到2,然后找出最小的Hamming距离,作为P和Q的相似度;
步骤2.2:对提取掌纹的主线特征使用点对区域的双向匹配进行分类选取,算法原理如下:
对于掌纹主线特征,使用点对区域的双向匹配算法对其分类,算法原理如下:
假定A是测试的主线特征图像,B是训练的主线特征图像,A、B大小为m×n,并且A、B为二值图像,主线的像素值为1,则图像A到图像B的匹配分数如下:
公式(14)中,NA为图像A中主线的像素个数,是B(i,j)的3×3邻域,
同理,图像B到图像A的匹配分数为:
最后,图像A与图像B的匹配分数满足:
S(A,B)=S(B,A)=MAX(s(A,B),s(B,A))(16)
公式(16)中,S(A,B)处于0和1之间,S(A,B)越大,图像A与图像B越相似,将S(A,B)的范围放大-0.1到0.1,找出多个相似的图像;
步骤2.3:对提取掌纹的整体特征使用最小欧氏距离算法进行分类选取,具体方法为:
设特征向量Y1={y1,y2,...,yn},Y2={y′1,y′2,...,y′n}(n为特征向量维数),则欧氏距离定义为:
公式(17)中,d(Y1,,Y2)距离越小,图像Y1,与图像Y2越相似,将d(Y1,,Y2)的范围放大-0.1到0.1,找出多个相似的图像。
步骤3包括以下步骤:
K近邻分类器方法为,取待识别样本T的k个近邻,看这k个近邻中多数属于哪一类,就把T归为哪一类;
即在掌纹训练库的N个样本中,设这N个样本中,找出待识别样本T的来自Hamming距离ω1分类的近邻样本有M1个,找出待识别样本T的来自点对区域的双向匹配ω2分类的近邻样本有M2个,找出待识别样本T的来自点欧氏距离ω3分类的近邻样本有M3个;
Borda投票策略的基本思想是:每个投票者对不同的候选者采用模式分类技术进行评价打分并排序,然后计算所有投票者的Borda数,具有Borda数最大的候选者可以被认为在经过分类器评价后,在竞争中是最优而获胜;
Borda投票策略具体为:
1)由于Hamming距离分类、点对区域的双向匹配分类和最小欧氏距离算法分类这三种分类器匹配的属性各不相同,所以需要对各分类器得到的距离进行归一化,具体如下:假设共有K个分类器,每个分类器对应有M个图像,则第k分类器对M个图像评分的排序结果Ck(f)为:
公式(18)中:1≤m≤M.1≤k≤K,f是候选图像m的出现在多个分类器中的频率,是第k分类器对候选图像m评分,为k分类器中对所有候选图像的最大评分;
2)Borda投票策略没有考虑在实际分类器中之间性能的差别,采用加权方式区分不同分类器的分类能力,则对图像m计算得到的Borda数Bm为:
公式(19)中,C为惩罚因子,如果候选图像m的Borda数Bm最大,那么候选图像m可以被认为在经过K个分类器评价后,是最优而被确认为识别结果。
本发明的有益效果是:本发明方法在获取掌纹感兴趣区域的前提下,针对掌纹单一特征表征不充分,多特征难以融合,不能显现特征本质的分辨特性,提出基于局部与全局特征融合的掌纹识别方法,这种方法从不同角度的特征描述中提取了更近似的掌纹本质特征,克服了单一特征对掌纹进行识别时存在识别率受限、鲁棒性差等缺点。其融合理论方法的思想不局限于掌纹的特征融合,对于各种特征融合普遍适用。
附图说明
图1是本发明一种基于局部和全局特征融合的掌纹识别方法的掌纹识别流程图。
具体实施方式:
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供了一种基于局部和全局特征融合的掌纹识别方法,如图1所示,具体包括以下步骤:
步骤1:采用二维Gabor相位编码,提取掌纹的纹理特征,采用改进的有限Radon变换,即MFRAT,提取掌纹的主线特征,采用双向主成分分析法,即BDPAC,提取掌纹的整体特征;
步骤1的具体方法为:
步骤1.1:采用二维Gabor相位编码,提取掌纹的纹理特征的具体方法为:
二维离散Gabor滤波器的原形为:
将Gabor核函数去掉直流分量,由此得到一个改进的Gabor函数:
公式(1)、(2)中,(x,y)为给点位置的图像坐标值,i是虚数符号,μ是正弦波的频率,θ用来控制函数的方向,σ是标准方差,2n+1是滤波器的模板宽度;
对用公式(2)处理后的掌纹子图像I进行相位编码,形成两位码字(br,bi),得到实部和虚部的二值图像,这样在掌纹的特征向量中仅保存有相位信息,编码规则为:
步骤1.2:采用MFRAT提取掌纹的主线特征,具体方法为:
给定网格Zp={0,1,...,p-1},这里p为正整数,则MFRAT的实函数f[i,j]在有限的网格上定义为:
公式(5)中,k=1,2,...,N,N为方向个数,C为一个控制r[Lk]范围的常量,Lk表示在网格上组成直线的点,i,j为图像中某个点的像素坐标值,公式为:
Lk={(i,j):j=k(i-i0)+j0,i∈Zp}(6)
公式(6)中,(i0,j0)是网格的中心点,k是直线Lk的斜率;
在MFRAT中,网格的中心点f(i0,j0)的方向θk和能量e的计算公式如下:
公式(7)中,arg是角度运算,θk为对应于斜率k的角度;
设大小为m×n的图像I,由公式(7)得到的一幅图像所有像素点的方向图像Direction_image和能量图像Energy_image表示为:
由公式(8)确定阈值T;
阈值T的确定方法为:先将能量图像Energy_image从大到小排序,然后取第M个能量值作为阈值T;
通过阈值T,将能量图像Energy_image转化为二值图像,叫做线图像,记作Line_image,Line_image,Line_image,Line_image,通过公式(9)选择获得:
Line_image=0若Energy_image<T(9)
Line_image=1若Energy_image≥T
此时,线图像Line_image中已包含了主线,但同时也包含一些较强的皱纹线,可以通过方向准则进一步去掉这些皱纹线;
最后,对掌纹主线图像进行贴标签处理,去除很短的直线,获得只含有三大主线的图像;
步骤1.3:基于BDPAC提取掌纹的整体特征,具体方法为:
BDPCA是基于图像矩阵的主成分分析法,具体方法如下:
设掌纹感兴趣区域训练样本图像有M个m×n维的图像样本I1,I2,…,IM,第j个训练样本图像的图像样本矩阵Ij可以用n个m×1的列向量来进行表示,组成训练样本集,可计算出去行相关性的列方向上总的散度矩阵为:
同样,可以将第j个训练样本图像的图像样本矩阵Ij用m个1×n的行向量来进行表示,组成训练样本集,可计算出去列相关性的行方向上总的散度矩阵为:
公式(10)、(11)中,为训练样本图像总体的均值矩阵,
由矩阵Gr的前d1(d1≤M)个最大特征值相对应的特征向量ui(i=1,2,...d1)组成m×d1的矩阵,就是列映射矩阵U,其中ui表示与Gr的第i个最大特征值对应的特征向量,同样,选取Gc的前d2(d2≤M)个最大特征值相对应的特征向量vi(i=1,2,...d2)组成n×d2的矩阵,就是行映射矩阵V,因此,图像矩阵I的大小为d1×d2维特征矩阵Fj为:
Fj=UTIV。(12)
步骤2:对提取掌纹的纹理特征使用Hamming距离进行分类选取,得到纹理选取特征;对提取掌纹的主线特征使用点对区域的双向匹配进行分类选取,得到主线选取特征;对提取掌纹的整体特征使用最小欧氏距离算法进行分类选取,得到整体选取特征;
步骤2的包括以下步骤:
步骤2.1:对提取掌纹的纹理特征使用Hamming距离进行分类选取,具体方法为:
Hamming距离用来衡量两幅图像纹理特征的相似度,用于掌纹纹理特征的分类。
设P和Q为两个纹理特征向量,归一化的Hamming距离为:
公式(13)中,PR(QR)和PI(QI)为纹理特征P(Q)的实部和虚部,为布尔运算符,N×N为纹理特征向量尺寸,i,j为图像中某个点的像素坐标值,
为了更好的匹配,在水平和垂直方向移动其中一个特征再次匹配,移动像素范围为-2到2,然后找出最小的Hamming距离,作为P和Q的相似度;
步骤2.2:对提取掌纹的主线特征使用点对区域的双向匹配进行分类选取,算法原理如下:
对于掌纹主线特征,使用点对区域的双向匹配算法对其分类,算法原理如下:
假定A是测试的主线特征图像,B是训练的主线特征图像,A、B大小为m×n,并且A、B为二值图像,主线的像素值为1,则图像A到图像B的匹配分数如下:
公式(14)中,NA为图像A中主线的像素个数,是B(i,j)的3×3邻域,
同理,图像B到图像A的匹配分数为:
最后,图像A与图像B的匹配分数满足:
S(A,B)=S(B,A)=MAX(s(A,B),s(B,A))(16)
公式(16)中,S(A,B)处于0和1之间,S(A,B)越大,图像A与图像B越相似,将S(A,B)的范围放大-0.1到0.1,找出多个相似的图像;
步骤2.3:对提取掌纹的整体特征使用最小欧氏距离算法进行分类选取,具体方法为:
设特征向量Y1={y1,y2,...,yn},Y2={y′1,y′2,...,y′n}(n为特征向量维数),则欧氏距离定义为:
公式(17)中,d(Y1,,Y2)距离越小,图像Y1,与图像Y2越相似。将d(Y1,,Y2)的范围放大-0.1到0.1,找出多个相似的图像。
步骤3:对纹理选取特征、主线选取特征和整体选取特征使用K近邻分类器方法,得到的与待识别样本T的k个近邻的分类结果,将分类结果采取Borda投票策略决策融合规则进行信息融合,从而实现掌纹多特征的融合识别;
步骤3包括以下步骤:
K近邻分类器方法为,取待识别样本T的k个近邻,看这k个近邻中多数属于哪一类,就把T归为哪一类;
即在掌纹训练库的N个样本中,设这N个样本中,找出待识别样本T的来自Hamming距离ω1分类的近邻样本有M1个,找出待识别样本T的来自点对区域的双向匹配ω2分类的近邻样本有M2个,找出待识别样本T的来自点欧氏距离ω3分类的近邻样本有M3个;
Borda投票策略的基本思想是:每个投票者对不同的候选者采用模式分类技术进行评价打分并排序,然后计算所有投票者的Borda数,具有Borda数最大的候选者可以被认为在经过分类器评价后,在竞争中是最优而获胜;
Borda投票策略具体为:
1)由于Hamming距离分类、点对区域的双向匹配分类和最小欧氏距离算法分类这三种分类器匹配的属性各不相同,所以需要对各分类器得到的距离进行归一化,具体如下:假设共有K个分类器,每个分类器对应有M个图像,则第k分类器对M个图像评分的排序结果Ck(f)为:
公式(18)中:1≤m≤M.1≤k≤K,f是候选图像m的出现在多个分类器中的频率,是第k分类器对候选图像m评分,为k分类器中对所有候选图像的最大评分;
2)Borda投票策略没有考虑在实际分类器中之间性能的差别,采用加权方式区分不同分类器的分类能力。则对图像m计算得到的Borda数Bm为:
公式(19)中,C为惩罚因子,如果候选图像m的Borda数Bm最大,那么候选图像m可以被认为在经过K个分类器评价后,是最优而被确认为识别结果。
实施例:
本发明采用香港理工大学的PolyU_Palmprint_Database掌纹库来验证三种特征提取方法和融合策略方法的有效性。对一幅图像的定位分割采用DavidZhang等(D.Zhang,W.Kong,J.You,M.Wong.Onlinepalmprintidentification[J].PatternAnalysisandMachineIntelligence,IEEETransactionson,2003,25(9):1041–1050.)提出的方法,得到128×128的掌纹感兴趣区域。
实验时,从PolyU掌纹库中随机选取100个人,每人6幅掌纹图像共600幅掌纹图像作为实验对象,每幅图像的分辨率为75dpi,大小为384×284。随机取每人的3幅图像组成训练集,另外3幅图像组成识别集,这样训练集和识别集就各有300个样本。
表1给出了使用二维Gabor相位编码、改进的有限Radon变换和双向主成分分析法算法,分别提取纹理、主线和整体特征的掌纹识别结果,表1给出了使用三种特征提取方法对掌纹的识别结果。
表1采用三种特征提取方法的识别对比分析
算法名称 | 特征维数 | 分类器 | 识别率(%) |
二维Gabor | 1024 | Hamming距离 | 84.3% |
MFRAT | 16384 | 点对区域的双向匹配 | 92.5% |
BDPCA | 64 | 最小欧氏距离 | 96.0% |
从表1的识别结果可以得出:用BDPCA提取的掌纹整体特征识别率最高为96%,特征维数为64,主线特征为92.5%,纹理特征最低为84.3%。这表明,不同的掌纹特征描述掌纹的性能不同。
表2给出了利用上述三种特征使用K近邻分类器方法,得到的与待识别样本T的k个近邻的分类结果,采取Borda投票策略决策融合规则和基于模糊融合机制的决策层融合规则进行多特征融合识别结果对比。
表2特征融合的识别结果
从表2的识别结果可以得出:多特征融合后的正确识别率有所提高,其中基于投票策略的决策融合比基于模糊的决策融合效果好,这与纹理特征识别率较低有关。
从实验结果可以看出,本发明利用上述三种特征得到的识别结果,采用K近邻分类器和基于投票策略可得到100%的正确识别率。
Claims (4)
1.一种基于局部和全局特征融合的掌纹识别方法,其特征在于:具体包括以下步骤:
步骤1:采用二维Gabor相位编码,提取掌纹的纹理特征,采用改进的有限Radon变换,即MFRAT,提取掌纹的主线特征,采用双向主成分分析法,即BDPAC,提取掌纹的整体特征;
步骤2:对提取掌纹的纹理特征使用Hamming距离进行分类选取,得到纹理选取特征;对提取掌纹的主线特征使用点对区域的双向匹配进行分类选取,得到主线选取特征;对提取掌纹的整体特征使用最小欧氏距离算法进行分类选取,得到整体选取特征;
步骤3:对纹理选取特征、主线选取特征和整体选取特征使用K近邻分类器方法,得到的与待识别样本T的k个近邻的分类结果,将分类结果采取Borda投票策略决策融合规则进行信息融合,从而实现掌纹多特征的融合识别。
2.根据权利要求1所述的一种基于局部和全局特征融合的掌纹识别方法,其特征在于:
步骤1包括以下步骤:
步骤1.1:采用二维Gabor相位编码,提取掌纹的纹理特征的具体方法为:
二维离散Gabor滤波器的原形为:
将Gabor核函数去掉直流分量,由此得到一个改进的Gabor函数:
公式(1)、(2)中,(x,y)为给点位置的图像坐标值,i是虚数符号,μ是正弦波的频率,θ用来控制函数的方向,σ是标准方差,2n+1是滤波器的模板宽度;
对用公式(2)处理后的掌纹子图像I进行相位编码,形成两位码字(br,bi),得到实部和虚部的二值图像,这样在掌纹的特征向量中仅保存有相位信息,编码规则为:
步骤1.2:采用MFRAT提取掌纹的主线特征,具体方法为:
给定网格Zp={0,1,...,p-1},这里p为正整数,则MFRAT的实函数f[i,j]在有限的网格上定义为:
公式(5)中,k=1,2,...,N,N为方向个数,C为一个控制r[Lk]范围的常量,Lk表示在网格上组成直线的点,i,j为图像中某个点的像素坐标值,公式为:
Lk={(i,j):j=k(i-i0)+j0,i∈Zp}(6)
公式(6)中,(i0,j0)是网格的中心点,k是直线Lk的斜率;
在MFRAT中,网格的中心点f(i0,j0)的方向θk和能量e的计算公式如下:
公式(7)中,arg是角度运算,θk为对应于斜率k的角度;
设大小为m×n的图像I,由公式(7)得到的一幅图像所有像素点的方向图像Direction_image和能量图像Energy_image表示为:
由公式(8)确定阈值T;
阈值T的确定方法为:先将能量图像Energy_image从大到小排序,然后取第M个能量值作为阈值T;
通过阈值T,将能量图像Energy_image转化为二值图像,叫做线图像,记作Line_image,Line_image,Line_image,Line_image,通过公式(9)选择获得:
Line_image=0若Energy_image<T(9)
Line_image=1若Energy_image≥T
此时,线图像Line_image中已包含了主线,但同时也包含一些较强的皱纹线,可以通过方向准则进一步去掉这些皱纹线;
最后,对掌纹主线图像进行贴标签处理,去除很短的直线,获得只含有三大主线的图像;
步骤1.3:基于BDPAC提取掌纹的整体特征,具体方法为:
BDPCA是基于图像矩阵的主成分分析法,具体方法如下:
设掌纹感兴趣区域训练样本图像有M个m×n维的图像样本I1,I2,…,IM,第j个训练样本图像的图像样本矩阵Ij可以用n个m×1的列向量来进行表示,组成训练样本集,可计算出去行相关性的列方向上总的散度矩阵为:
同样,可以将第j个训练样本图像的图像样本矩阵Ij用m个1×n的行向量来进行表示,组成训练样本集,可计算出去列相关性的行方向上总的散度矩阵为:
公式(10)、(11)中,为训练样本图像总体的均值矩阵,
由矩阵Gr的前d1(d1≤M)个最大特征值相对应的特征向量ui(i=1,2,...d1)组成m×d1的矩阵,就是列映射矩阵U,其中ui表示与Gr的第i个最大特征值对应的特征向量,同样,选取Gc的前d2(d2≤M)个最大特征值相对应的特征向量vi(i=1,2,...d2)组成n×d2的矩阵,就是行映射矩阵V,因此,图像矩阵I的大小为d1×d2维特征矩阵Fj为:
Fj=UTIV(12)。
3.根据权利要求1所述的一种基于局部和全局特征融合的掌纹识别方法,其特征在于:
步骤2的包括以下步骤:
步骤2.1:对提取掌纹的纹理特征使用Hamming距离进行分类选取,具体方法为:
Hamming距离用来衡量两幅图像纹理特征的相似度,用于掌纹纹理特征的分类,
设P和Q为两个纹理特征向量,归一化的Hamming距离为:
公式(13)中,PR(QR)和PI(QI)为纹理特征P(Q)的实部和虚部,为布尔运算符,N×N为纹理特征向量尺寸,i,j为图像中某个点的像素坐标值,
为了更好的匹配,在水平和垂直方向移动其中一个特征再次匹配,移动像素范围为-2到2,然后找出最小的Hamming距离,作为P和Q的相似度;
步骤2.2:对提取掌纹的主线特征使用点对区域的双向匹配进行分类选取,算法原理如下:
对于掌纹主线特征,使用点对区域的双向匹配算法对其分类,算法原理如下:
假定A是测试的主线特征图像,B是训练的主线特征图像,A、B大小为m×n,并且A、B为二值图像,主线的像素值为1,则图像A到图像B的匹配分数如下:
公式(14)中,NA为图像A中主线的像素个数,是B(i,j)的3×3邻域,
同理,图像B到图像A的匹配分数为:
最后,图像A与图像B的匹配分数满足:
S(A,B)=S(B,A)=MAX(s(A,B),s(B,A))(16)
公式(16)中,S(A,B)处于0和1之间,S(A,B)越大,图像A与图像B越相似,将S(A,B)的范围放大-0.1到0.1,找出多个相似的图像;
步骤2.3:对提取掌纹的整体特征使用最小欧氏距离算法进行分类选取,具体方法为:
设特征向量Y1={y1,y2,...,yn},Y2={y′1,y′2,...,y′n}(n为特征向量维数),则欧氏距离定义为:
公式(17)中,d(Y1,,Y2)距离越小,图像Y1,与图像Y2越相似,将d(Y1,,Y2)的范围放大-0.1到0.1,找出多个相似的图像。
4.根据权利要求1所述的一种基于局部和全局特征融合的掌纹识别方法,其特征在于:
步骤3包括以下步骤:
K近邻分类器方法为,取待识别样本T的k个近邻,看这k个近邻中多数属于哪一类,就把T归为哪一类;
即在掌纹训练库的N个样本中,设这N个样本中,找出待识别样本T的来自Hamming距离ω1分类的近邻样本有M1个,找出待识别样本T的来自点对区域的双向匹配ω2分类的近邻样本有M2个,找出待识别样本T的来自点欧氏距离ω3分类的近邻样本有M3个;
Borda投票策略的基本思想是:每个投票者对不同的候选者采用模式分类技术进行评价打分并排序,然后计算所有投票者的Borda数,具有Borda数最大的候选者可以被认为在经过分类器评价后,在竞争中是最优而获胜;
Borda投票策略具体为:
1)由于Hamming距离分类、点对区域的双向匹配分类和最小欧氏距离算法分类这三种分类器匹配的属性各不相同,所以需要对各分类器得到的距离进行归一化,具体如下:假设共有K个分类器,每个分类器对应有M个图像,则第k分类器对M个图像评分的排序结果Ck(f)为:
公式(18)中:1≤m≤M.1≤k≤K,f是候选图像m的出现在多个分类器中的频率,是第k分类器对候选图像m评分,为k分类器中对所有候选图像的最大评分;
2)Borda投票策略没有考虑在实际分类器中之间性能的差别,采用加权方式区分不同分类器的分类能力,则对图像m计算得到的Borda数Bm为:
公式(19)中,C为惩罚因子,如果候选图像m的Borda数Bm最大,那么候选图像m可以被认为在经过K个分类器评价后,是最优而被确认为识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510354511.8A CN105046205B (zh) | 2015-06-24 | 2015-06-24 | 一种基于局部和全局特征融合的掌纹识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510354511.8A CN105046205B (zh) | 2015-06-24 | 2015-06-24 | 一种基于局部和全局特征融合的掌纹识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105046205A true CN105046205A (zh) | 2015-11-11 |
CN105046205B CN105046205B (zh) | 2019-02-01 |
Family
ID=54452734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510354511.8A Expired - Fee Related CN105046205B (zh) | 2015-06-24 | 2015-06-24 | 一种基于局部和全局特征融合的掌纹识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105046205B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488473A (zh) * | 2015-12-01 | 2016-04-13 | 北京东方金指科技有限公司 | 一种多特征融合的海量指纹编码和比对方法 |
CN105654098A (zh) * | 2016-03-23 | 2016-06-08 | 深圳大学 | 一种高光谱遥感图像的分类方法及其系统 |
CN106844481A (zh) * | 2016-12-23 | 2017-06-13 | 北京信息科技大学 | 字体相似度及字体替换方法 |
CN106951874A (zh) * | 2017-03-24 | 2017-07-14 | 中山大学 | 一种基于特征点及邻域特征匹配的掌纹认证方法 |
CN107122712A (zh) * | 2017-03-27 | 2017-09-01 | 大连大学 | 基于卷积神经网络和双向局部特征聚合描述向量的掌纹图像识别方法 |
CN107392170A (zh) * | 2017-08-01 | 2017-11-24 | 云南大学 | 一种符合自然生长规律的掌纹主线提取方法 |
CN107506688A (zh) * | 2017-07-18 | 2017-12-22 | 西安电子科技大学 | Harris角点检测影像金字塔掌纹ROI识别方法 |
CN109858464A (zh) * | 2019-02-26 | 2019-06-07 | 北京旷视科技有限公司 | 底库数据处理方法、人脸识别方法、装置和电子设备 |
CN111898404A (zh) * | 2020-06-03 | 2020-11-06 | 东南大学 | 基于多点投票局部二进制模式的三维掌纹识别方法 |
CN114627470A (zh) * | 2022-05-16 | 2022-06-14 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN116631012A (zh) * | 2022-02-09 | 2023-08-22 | 腾讯科技(深圳)有限公司 | 生物纹路信息的特征提取方法、装置、设备及存储介质 |
CN117058723A (zh) * | 2023-10-11 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 掌纹识别方法、装置及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102254165A (zh) * | 2011-08-12 | 2011-11-23 | 北方工业大学 | 一种基于结构编码特征和纹理编码特征融合的手背静脉识别方法 |
US8331632B1 (en) * | 2007-08-06 | 2012-12-11 | University Of South Florida | Indexing face templates using linear models |
-
2015
- 2015-06-24 CN CN201510354511.8A patent/CN105046205B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8331632B1 (en) * | 2007-08-06 | 2012-12-11 | University Of South Florida | Indexing face templates using linear models |
CN102254165A (zh) * | 2011-08-12 | 2011-11-23 | 北方工业大学 | 一种基于结构编码特征和纹理编码特征融合的手背静脉识别方法 |
Non-Patent Citations (2)
Title |
---|
JUNLIN HU ET AL: ""Palmprint Recognition Based on Multiple Feature Information Fusion"", 《SIGNAL PROCESSING,2008. TCBP 2008. 9TH TNTERNATIONAL CONFERENCE ON》 * |
薛延学等: ""基于2DGabor小波与BDPCA的掌纹识别"", 《计算机工程》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488473B (zh) * | 2015-12-01 | 2019-03-19 | 北京东方金指科技有限公司 | 一种多特征融合的海量指纹编码和比对方法 |
CN105488473A (zh) * | 2015-12-01 | 2016-04-13 | 北京东方金指科技有限公司 | 一种多特征融合的海量指纹编码和比对方法 |
CN105654098A (zh) * | 2016-03-23 | 2016-06-08 | 深圳大学 | 一种高光谱遥感图像的分类方法及其系统 |
WO2017161892A1 (zh) * | 2016-03-23 | 2017-09-28 | 深圳大学 | 一种高光谱遥感图像的分类方法及其系统 |
CN105654098B (zh) * | 2016-03-23 | 2019-12-27 | 深圳大学 | 一种高光谱遥感图像的分类方法及其系统 |
CN106844481A (zh) * | 2016-12-23 | 2017-06-13 | 北京信息科技大学 | 字体相似度及字体替换方法 |
CN106951874A (zh) * | 2017-03-24 | 2017-07-14 | 中山大学 | 一种基于特征点及邻域特征匹配的掌纹认证方法 |
CN106951874B (zh) * | 2017-03-24 | 2020-03-13 | 中山大学 | 一种基于特征点及邻域特征匹配的掌纹认证方法 |
CN107122712A (zh) * | 2017-03-27 | 2017-09-01 | 大连大学 | 基于卷积神经网络和双向局部特征聚合描述向量的掌纹图像识别方法 |
CN107506688A (zh) * | 2017-07-18 | 2017-12-22 | 西安电子科技大学 | Harris角点检测影像金字塔掌纹ROI识别方法 |
CN107392170A (zh) * | 2017-08-01 | 2017-11-24 | 云南大学 | 一种符合自然生长规律的掌纹主线提取方法 |
CN107392170B (zh) * | 2017-08-01 | 2021-01-22 | 云南大学 | 一种符合自然生长规律的掌纹主线提取方法 |
CN109858464A (zh) * | 2019-02-26 | 2019-06-07 | 北京旷视科技有限公司 | 底库数据处理方法、人脸识别方法、装置和电子设备 |
CN111898404A (zh) * | 2020-06-03 | 2020-11-06 | 东南大学 | 基于多点投票局部二进制模式的三维掌纹识别方法 |
CN111898404B (zh) * | 2020-06-03 | 2024-05-17 | 东南大学 | 基于多点投票局部二进制模式的三维掌纹识别方法 |
CN116631012A (zh) * | 2022-02-09 | 2023-08-22 | 腾讯科技(深圳)有限公司 | 生物纹路信息的特征提取方法、装置、设备及存储介质 |
CN114627470A (zh) * | 2022-05-16 | 2022-06-14 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN117058723A (zh) * | 2023-10-11 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 掌纹识别方法、装置及存储介质 |
CN117058723B (zh) * | 2023-10-11 | 2024-01-19 | 腾讯科技(深圳)有限公司 | 掌纹识别方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105046205B (zh) | 2019-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105046205A (zh) | 一种基于局部和全局特征融合的掌纹识别方法 | |
Lu et al. | Gait recognition for human identification based on ICA and fuzzy SVM through multiple views fusion | |
CN101246543B (zh) | 基于仿生与生物特征识别的考试者身份鉴定方法 | |
CN101763503B (zh) | 一种姿态鲁棒的人脸识别方法 | |
CN101840511B (zh) | 手指静脉特征提取与匹配识别方法 | |
CN101847208B (zh) | 指纹与指静脉双模态识别的二级分类融合识别方法 | |
Chen et al. | Iris recognition based on bidimensional empirical mode decomposition and fractal dimension | |
CN102254165B (zh) | 一种基于结构编码特征和纹理编码特征融合的手背静脉识别方法 | |
CN101976360B (zh) | 基于多级分类的稀疏表征人脸识别方法 | |
CN103632132A (zh) | 一种基于肤色分割和模板匹配的人脸检测与识别方法 | |
Jaswal et al. | Texture based palm Print recognition using 2-D Gabor filter and sub space approaches | |
CN101819629B (zh) | 一种基于监督张量流形学习的掌纹识别系统及识别方法 | |
CN105320950A (zh) | 一种视频人脸活体检测方法 | |
CN103336960A (zh) | 一种基于流形学习的人脸识别方法 | |
CN102663374B (zh) | 基于多特征属性的多类别Bagging步态识别方法 | |
CN105160317A (zh) | 一种基于区域分块行人性别识别方法 | |
CN106529504B (zh) | 一种复合时空特征的双模态视频情感识别方法 | |
CN104778457A (zh) | 基于多示例学习的视频人脸识别算法 | |
CN102682287A (zh) | 基于显著度信息的行人检测方法 | |
CN107657241A (zh) | 一种面向签字笔的签名真伪性鉴别系统 | |
Neware et al. | Finger knuckle identification using principal component analysis and nearest mean classifier | |
Charfi et al. | Local invariant representation for multi-instance toucheless palmprint identification | |
CN102855488A (zh) | 三维手势识别方法和系统 | |
CN103942572A (zh) | 一种基于双向压缩数据空间维度缩减的面部表情特征提取方法和装置 | |
Singh et al. | Fusion of 4-slap fingerprint images with their qualities for human recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190201 Termination date: 20210624 |
|
CF01 | Termination of patent right due to non-payment of annual fee |