CN109359607A - 一种基于纹理的掌纹掌脉融合识别方法 - Google Patents
一种基于纹理的掌纹掌脉融合识别方法 Download PDFInfo
- Publication number
- CN109359607A CN109359607A CN201811249308.4A CN201811249308A CN109359607A CN 109359607 A CN109359607 A CN 109359607A CN 201811249308 A CN201811249308 A CN 201811249308A CN 109359607 A CN109359607 A CN 109359607A
- Authority
- CN
- China
- Prior art keywords
- image
- value
- palm
- fusion
- follows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 210000003462 vein Anatomy 0.000 title claims abstract description 46
- 230000004927 fusion Effects 0.000 title claims abstract description 42
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 34
- 239000013598 vector Substances 0.000 claims abstract description 26
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 230000004044 response Effects 0.000 claims description 22
- 238000000354 decomposition reaction Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 9
- 230000000903 blocking effect Effects 0.000 claims description 8
- 235000020061 kirsch Nutrition 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 230000006978 adaptation Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 12
- 238000012545 processing Methods 0.000 abstract description 9
- 210000001367 artery Anatomy 0.000 abstract 1
- 230000015556 catabolic process Effects 0.000 abstract 1
- 238000002156 mixing Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明提供一种基于纹理的掌纹掌脉融合识别方法,涉及图像识别及处理技术领域。本发明步骤如下:步骤1:对掌纹图像A及掌脉图像B在NSCT域进行融合,NSCT变换将图像分解为低频子图像和高频子图像,分别对低频子图像和高频子图像进行融合处理后,再进行NSCT逆变换,生成融合图像F;步骤2:利用BSLDP算法提取F的特征,对F做分块操作,利用SLDP算法提取每一子块直方图特征向量,将所有特征向量进行串接,得到F的统计直方图总特征向量α;步骤3:利用F和待识别图像的特征向量之间的卡方距离判断是否匹配。该方法有效地降低系统等误率,满足实时性的要求,掌纹掌脉特征融合增加了系统的安全性和可靠性。
Description
技术领域
本发明涉及图像识别及处理技术领域,尤其涉及一种基于纹理的掌纹掌脉融合识别方法。
背景技术
近年来,基于人体生物特征的身份认证技术受到了社会的广泛关注,生物特征识别技术是指利用人本身所具有的生理特征或行为特征,来进行身份识别和鉴定的一种技术。与传统的身份鉴别技术相比,它具有唯一性、随身携带和难假冒伪造的特点,因此更为有效、方便和安全。
单一的生物特征由于受特征提取技术及环境等因素的影响,不可能真正的具有唯一性,这就使得系统的稳定性和实用性较差,且很难通过仅改进特征提取技术或特征匹配算法来解决此问题。为了提高系统的识别精度和稳定性,引入多模态生物特征融合识别技术。多模态生物特征识别技术是指对同一生物特征采用多种方法进行识别,或对不同生物特征采用多种方法进行识别,最终实现身份识别的技术,多模态生物特征识别技术合理的选择多种生物特征进行融合识别,每个特征取长补短,不仅仅提高了系统的安全可靠性,也扩展了系统的可用性,在一种特征不理想的情况下,采用其他的特征进行弥补,相比于单模态具有更加明显的优势。其中掌纹掌脉识别技术作为生物识别技术领域里的新成员,近年来受到越来越多的重视。与其它生物特征识别技术相比,掌纹掌脉识别技术具有的优点是:不涉及隐私问题,用户比较容易接受;采样方法简单,对图像的分辨率要求可降低,图像比较容易获得;感兴趣区域比指纹大得多,信息量大,可以提取更多的特征等;但该技术仍存在系统等误率高,安全性和可靠性低等问题。
小波变换是一种优异的多尺度分析工具,但在处理图像时存在一些难以避免的缺陷,相比于小波变换,超小波变换在解决信号的多重性问题方面有着巨大的优势。最近几年,超小波变换在信号处理领域中被广泛应用到图像处理。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种基于纹理的掌纹掌脉融合识别方法,该方法可以有效地降低系统等误率,满足实时性的要求,具有可行性和实际应用前景,掌纹掌脉特征融合增加了系统的安全性和可靠性。
为解决上述技术问题,本发明所采取的技术方案是:
一种基于纹理的掌纹掌脉融合识别方法,包括以下步骤:
步骤1:对掌纹图像A及掌脉图像B基于NSCT域进行融合,利用NSCT变换将图像分解为低频子图像和高频子图像两部分,对低频部分采用区域能量自适应加权融合,高频部分带利用图像自相似进行系数融合,最后进行NSCT逆变换,重构生成融合图像F;
步骤2:对融合图像F利用BSLDP算法提取特征,对融合图像F进行分块操作,利用SLDP算法提取每一子块直方图特征向量,将每一子块的直方图特征向量进行串接,得到融合图像F的统计直方图总特征向量α;
所述BSLDP算法为分块增强局部方向模式;该模式是将一幅图像经过分块增强局部方向模式运算后,各像素点在取值上虽然有所改变,结果仍为一幅图像,称之为BSLDP图谱;将该图谱的统计直方图作为特征向量来进行之后的操作;
所述SLDP算法为增强局部方向模式;该模式是参照局部二值模式原理而提出的一种特征提取方法,该方法在描述图像的纹理信息时,对于任意一个大小为3×3的矩形块I,有9 个灰度值,它中心点的SLDP值由其他8个相邻点的像素灰度值与模板卷积运算返回值的差值编码所得;
步骤3:根据BSLDP算法得到融合图像F的统计直方图特征向量α,利用融合图像F和待识别图像的特征向量之间的卡方距离来判断获取到的图像是否匹配;卡方距离χ2的定义如下:
其中,L为待识别图像的总数;
在具体的判别过程中,计算出卡方距离后,需要设定一个阈值T,当卡方距离χ2和T的关系满足:χ2<T,满足则说明样本是来自同一个人,否则说明样本来自于不同人。
步骤1的具体步骤如下:
步骤1.1:采用非下采样金字塔分解实现图像的多尺度分解,得到掌纹图像A及掌脉图像B的1个低频子图像和个高频子图像,其中,P为分解级数,为方向分解级数,子图像的大小与原始输入图像一致;
步骤1.2:低频融合的具体方法如下:
对大小为M×N像素的原图像X进行NSCT分解后,其中,X包括掌纹图像A和掌脉图像B,在X的第K层中心点为(m,n)的区域能量的公式如下:
其中,j代表第K层的分解级数,是原图像X在(m,n)点处两个方向的区域频率之和,是原图像分解后的低频系数;Ω(m',n')是在点(m,n)处大小为m'×n'的矩形区域;和是在像素点(m,n)处的两个方向;
区域能量比R(m,n)代表原图像X进行NSCT分解后的低频系数与在其邻域Ω(m',n') 内像素点(m,n)上的能量差异,公式如下:
其中,代表掌纹图像A的区域能量,代表掌纹图像B的区域能量;
融合图像F的低频系数矩阵为
式中,mean[·]代表计算均值,std[·]代表计算标准差,T1、T2、uA、uB为参数,k1、k2为经验参数,0≦k1≦1,1≦k2≦3;
步骤1.3:高频融合的具体方法如下:
在原图像X中设参考块及候选块;所述参考块为Qv∈Cρ×ρ,区域C(v)∈CD×D的中心像素为v,所述为候选块Qp∈CD×D,候选块与Qv的相似性如下:
εp=||Qp-Qv||F
其中,Cρ×ρ代表ρ×ρ像素的区域,CD×D代表D×D像素的区域;
其中||G||F代表矩阵的Frobenius范数,amn代表该矩阵内的具体元素;
在区域C(v)∈CD×D内对所有的图像块进行降序排列得到εp,得出Qv的k个最相似块,最相似块的集合表示为LC(v)={Qp1,Qp2,,...,Qpk};和的共享相似块为:
其中,代表掌纹图像A的块的集合,代表掌脉图像B的块的集合:表示一个融合自适应区域,CA(v)和CB(v)表示在fA和fB中相同位置的区域,fA代表原图像X中的掌纹图像A,fB代表原图像X中的掌脉图像B:
融合后图像F的像素选择原图像中清晰度高的像素,称为最大值原则,如下所示:
其中O表示清晰度指标,OB代表图像B的像素清晰度之和,OF代表融合图像F的像素清晰度之和,用改进的拉普拉斯算子计算大小固定且以r为中心的区域v=(x0,y0)的SML定义如下:
对高频系数进行融合时,先计算出原图像的每个自适应区域的清晰度;若在fA的自适应区域的清晰度比在fB中的清晰度高,则fA自适应区域中的所有像素属于的投票加一,直到所有自适应区域都对比完成后停止,就可以得到一个和原图像X大小相同的计数映射,通过计数映射rA(v)和rB(v)得到像素v的最终投票结果,并通过分配相应的权重来得出融合图像的像素值,公式如下:
其中,rA(v)和rB(v)不为0。
步骤2的具体步骤如下:
步骤2.1:用改进的Sobel算子,获取图像的边缘响应,同时采用差值法计算输出值,提出增强局部方向模式;
步骤2.1.1:利用Kirsch八方向模板,对矩形块I进行卷积,计算出不同方向的边缘响应绝对值
步骤2.1.2:对绝对值进行排序,将排在前η位的响应值编码为1,其余的8-η位编码为0;
步骤2.1.3:把这8个二进制数值按次序进行编码,作为该矩形块I的中心点特征值CLDP,公式如下:
式中:wi为Kirsch八方向模板;为第i个方向的响应值,是第i个二进制位响应值,是中第η个最大的值;
步骤2.2:将融合图像F分割成大小均匀的若干子块,对每一子块用SLDP算法进行特征提取,提出分块增强局部方向模式(BSLDP),对融合图像进行分块;
将一个M×N大小的图像矩阵V转化为t×t个子块,其中,每个子块Vde为z×z大小的方阵,其中,d∈t,e∈t,t=128/z;利用SLDP算法分别提取每一子块Vde的直方图特征向量,将各子块的特征串接,得到融合图像F的统计直方图总特征向量α。
采用上述技术方案所产生的有益效果在于:本发明提供的一种基于纹理的掌纹掌脉融合识别方法,掌纹掌脉图像基于区域能量及图像自相似的NSCT域进行融合,能够得到较好的融合效果,利用分块增强局部方向模式(BSLDP)提取融合图像的特征,兼顾了图像整体和局部特性,更准确地表征了图像特征;可以有效地降低系统等误率,满足实时性的要求,具有可行性和实际应用前景,掌纹掌脉特征融合增加了系统的安全性和可靠性。
附图说明
图1为本发明实施例提供的一种基于纹理的掌纹掌脉融合识别方法的流程图;
图2为本发明实施例提供的NSCT变换图;其中包括非下采样滤波器和NSCT理想频域 划分;
图3为本发明实施例提供的SLDP算法示例图;
图4为本发明实施例提供的BSLDP直方图特征提取示意图;
图5为本发明实施例提供的数据库1上的掌纹掌脉图像的类内类间匹配曲线示意图;
图6为本发明实施例提供的数据库2上的掌纹掌脉图像的类内类间匹配曲线示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
一种基于纹理的掌纹掌脉融合识别方法,如图1所示,包括以下步骤:
步骤1:对掌纹图像A及掌脉图像B基于NSCT域进行融合,利用NSCT变换将图像分解为低频子图像和高频子图像两部分,对低频部分采用区域能量自适应加权融合,高频部分带利用图像自相似进行系数融合,最后进行NSCT逆变换,重构生成融合图像F;具体如下:
步骤1.1:采用非下采样金字塔分解实现图像的多尺度分解,得到掌纹图像A及掌脉图像B的1个低频子图像和个高频子图像,其中,P为分解级数,为方向分解级数,子图像的大小与原始输入图像一致,如图2所示;
步骤1.2:低频融合的具体方法如下:
对大小为M×N像素的原图像X进行NSCT分解后,其中,X包括掌纹图像A和掌脉图像B,在X的第K层中心点为(m,n)的区域能量的公式如下:
其中,j代表第K层的分解级数,是原图像X在(m,n)点处两个方向的区域频率之和,是原图像分解后的低频系数;Ω(m',n')是在点(m,n)处大小为m'×n'的矩形区域;和是在像素点(m,n)处的两个方向;
区域能量比R(m,n)代表原图像X进行NSCT分解后的低频系数与在其邻域Ω(m',n') 内像素点(m,n)上的能量差异,公式如下:
其中,代表掌纹图像A的区域能量,代表掌纹图像B的区域能量;
融合图像F的低频系数矩阵为
式中,mean[·]代表计算均值,std[·]代表计算标准差,T1、T2、uA、uB为参数,k1、k2为经验参数,0≦k1≦1,1≦k2≦3;
步骤1.3:高频融合的具体方法如下:
在原图像X中设参考块及候选块;所述参考块为Qv∈Cρ×ρ,区域C(v)∈CD×D的中心像素为v,所述为候选块Qp∈CD×D,候选块与Qv的相似性如下:
εp=||Qp-Qv||F
其中,Cρ×ρ代表ρ×ρ像素的区域,CD×D代表D×D像素的区域;
其中||G||F代表矩阵的Frobenius范数,amn代表该矩阵内的具体元素;
在区域C(v)∈CD×D内对所有的图像块进行降序排列得到εp,得出Qv的k个最相似块,最相似块的集合表示为LC(v)={Qp1,Qp2,,...,Qpk};和的共享相似块为:
其中,代表掌纹图像A的块的集合,代表掌脉图像B的块的集合:表示一个融合自适应区域,CA(v)和CB(v)表示在fA和fB中相同位置的区域,fA代表原图像X中的掌纹图像A,fB代表原图像X中的掌脉图像B:
融合后图像F的像素选择原图像中清晰度高的像素,称为最大值原则,如下所示:
其中O表示清晰度指标,OB代表图像B的像素清晰度之和,OF代表融合图像F的像素清晰度之和;用改进的拉普拉斯算子计算大小固定且以r为中心的区域v=(x0,y0)的SML定义如下:
对高频系数进行融合时,先计算出原图像的每个自适应区域的清晰度;若在fA的自适应区域的清晰度比在fB中的清晰度高,则fA自适应区域中的所有像素属于的投票加一,直到所有自适应区域都对比完成后停止,就可以得到一个和原图像X大小相同的计数映射,通过计数映射rA(v)和rB(v)得到像素v的最终投票结果,并通过分配相应的权重来得出融合图像的像素值,公式如下:
其中,rA(v)和rB(v)不为0。
步骤2:对融合图像F利用BSLDP算法提取特征,对图像F进行分块操作,利用SLDP算法提取每一子块特征,将每一子块的特征进行串接,得到融合图像F总特征向量,具体如下:
步骤2.1:用改进的Sobel算子,获取图像的边缘响应,同时采用差值法计算输出值,提出增强局部方向模式(SLDP)。
分块增强局部方向模式针对传统LDP算法做出了三方面的改进,具体如下:
1.改变卷积算子,用改进的Sobel算子替代传统LDP中的八方向算子。
2.改变中心点输出值的计算方式,采用差值法计算中心点的输出值。
3.将掌纹掌脉图像均匀分块,使子块的大小与图像纹理特征相匹配。
局部方向模式(local directional pattern,LDP)是参照局部二值模式(localbinary pattern,LBP) 原理而提出的一种特征提取方法,该方法在描述图像的纹理信息时,对于任意一个大小为3×3 的矩形块I,有9个灰度值,它中心点的SLDP值由其他8个相邻点的像素灰度值与模板卷积运算返回值的差值编码所得,如图3所示:
步骤2.1.1:利用Kirsch八方向模板,对矩形块I进行卷积,计算出不同方向的边缘响应绝对值
步骤2.1.2:对绝对值进行排序,将排在前η位的响应值编码为1,其余的8-η位编码为0。
步骤2.1.3:把这8个二进制数值按次序(顺时针或者逆时针)进行编码,作为该矩形块 I的中心点特征值,公式如下:
式中:wi为Kirsch八方向模板;为第i个方向的响应值,是第i个二进制位响应值,是中第η个最大的值,为二进制位响应值。
传统LDP算法只是在一定程度上减少了噪声的干扰,同时需要计算八个方向的边缘响应并对其绝对值排序,损耗了大量的时间,且Kirsch算子得到的图像边缘连续性较差,降低了算法的鲁棒性。为了解决这些问题,本文用改进Sobel算子代替传统Kirsch算子,同时采用差值法计算中心点的输出值,提出增强局部方向模式(strengthened localdirectional pattern,SLDP),SLDP算法在保留LDP算法优点的同时,很好地提高了算法的鲁棒性。
传统的Sobel算子只有0°和180°两个方向模板,但边缘是多方向的,为了得到完整的边缘信息,提出了一种改进的Sobel算子,以45°为间隔依次递增旋转得到的八方向模板,增加了边缘检测的方向。利用改进的Sobel算子与图像进行卷积,增加检测方向的同时增加了运算量,对上述八方向模板进行了深入的分析和研究,发现通过运算在相对方向上的两个模板,即方向1与方向5、方向2与方向6、方向3与方向7、方向4与方向8模板,对图像中的任一点像素进行卷积运算时,卷积的结果互为相反数。因此在运算时可以只采用前四个或者后四个模板,然后再将这四个模板的卷积结果进行后续处理,这样输出结果与采用八个模板进行卷积时的结果相同,但却减少了一半的计算,缩短了算法执行时间。
具体证明如下:
卷积运算是一种积分变换的数学方法,它的结果是两个变量在某个范围内的相乘求和,假设3×3的像素区域R与卷积模板J分别为:
将R与J卷积后,可获得中心像素R5点的卷积为:
将R与改进Sobel算子方向1和方向5模板卷积后,可得中心像素R5点卷积分别为:
W5-1=R7+2R8+R9-R1-2R2-R3
W5-5=R1+2R2+R3-R7-2R8-R9
其中,W5为R5点的卷积值,W5-1为改进Sobel算子方向1模板卷积值,W5-5为改进Sobel算子方向5模板卷积值。
可得
W5-1=-W5-5
即该像素点与方向1、方向5模板卷积结果互为相反数,同理可证任一像素点在改进Sobel 算子相对方向两个模板的卷积结果互为相反数,所以可以在运算中减少四个模板。
其次,传统Sobel算子的中心点输出值为绝对值结果的最大值,易受噪声影响,本文选择差值法来解决此问题,差值法的输出值为绝对值结果中的最大值与最小值之差。由于图像边缘的灰度突变和方向性较强,边缘方向上的绝对值结果较大,与边缘垂直方向上的
绝对值结果较小,而噪声是随机的、没有方向性,它灰度突变较弱,在各个方向上的值几乎都是相同的[48]。差值法作为中心点输出值的计算方式,对边缘点而言影响不大,但对噪声来说却发生了很大的变化,噪声的输出值将会等于或近似为0,由此增强了算法的抗噪声能力,提高了算法的鲁棒性。
具体编码方式如下:
(1)计算图像的边缘响应值。图像分别和Sobel算子前四个方向的模板进行卷积,得到响应值,取其绝对值记做bq(q=1,2,3,4),其中bq=bq+4。
(2)采用差值法计算该点的输出值,即取绝对值结果中的最大值减去最小值的差值作为该点的输出值记为PΦ。
(3)对PΦ进行排序,选择前k个较大值编码为1,其余8-k个编码为0,将这8个二进制值按照一定的顺序(顺时针或逆时针)编码,进而得到SLDP值,SLDP算法可描述为:
式中Pk为PΦ中第k个最大的值,hΦ是第Φ个二进制位响应值,γ=PΦ-Pk。
步骤2.2:将融合图像F分割成大小均匀的若干子块,对每一子块利用SLDP算法进行特征提取,提出分块增强局部方向模式(BSLDP),如图4所示,对融合图像进行分块;
为了体现丰富的纹理特征,提高整个系统的识别率,本文在进行特征提取的过程中对图像进行了分块处理,进一步提出分块增强局部方向模式(block strengthenedlocal directional pattern,BSLDP)。一幅图像经过BSLDP运算后,各像素点在取值上虽然有所改变,但结果依然是一幅图像,称之为BSLDP图谱。通常情况下,不直接将BSLDP图谱进行分类,而采用该图谱的统计直方图作为特征向量来进行之后的操作。
将一个A×A大小的图像矩阵V转化为t×t个子块,即:
其中,每个子块Vdo为z×z大小的方阵,其中,d∈t,e∈t,t=128/z;利用SLDP算法分别提取子块Vdo的直方图特征向量,将各子块的特征串接,得到总的特征向量;
步骤3:利用BSLDP算法得到图像的统计直方图特征向量α,利用融合图像的特征向量和待识别图像的特征向量之间的卡方距离来判断获取到的图像是否匹配;
利用图像的BSLDP统计直方图特征向量α与待识别图像的特征向量β进行比较,卡方距离χ2的定义如下:
其中,L为待识别图像的总数;
在具体的判别过程中,计算出卡方距离后,设定一个阈值T,卡方距离χ2和T的关系是否满足χ2<T,满足则说明样本是来自同一个人,否则说明样本来自于不同人。
一般情况下,为了方便观察,需要将匹配距离归一化在(0,1)之间,用来判断两个图像间的相似度。
本实施例中,采用某市智能信号与图像处理重点实验室数据库作为实验数据库1和某某大学的非接触数据库2为例,使用本发明的基于纹理的掌纹掌脉融合识别方法进行匹配。
采用某市智能信号与图像处理重点实验室数据库作为实验数据库1。在PloyU图库中选取100人,每人5张掌脉图像,组成掌脉图库,同样选择100个人,每个人5张图像为掌纹图库。在该数据库中共进行类内匹配1000次,类间匹配123750次,合计124750次。该数据库上的类内类间匹配曲线,如图5所示,图中两曲线交点的横坐标即为该数据库中的阈值t, t=0.4400。
采用某某大学的非接触数据库数据库,作为实验数据库2。在室内环境下采用CCD摄像头,以单一的黑色为背景,采集掌纹掌脉图像,波长为850nm的近红外光作为掌脉采集的光源,获取50人每人10张右手掌脉图像,然后选择白色LED为光源,采集50人每人10张的右手掌纹图像。在该数据库中,共进行类内匹配2250次和类间匹配122500次,合计124750次。该数据库上的类内类间匹配曲线如图6所示,图中两曲线交点的横坐标即该数据库中的阈值t,t=0.3027。
本实施方式还给出了采用本发明方法和其他方法对数据库1和数据库2中的图像进行 EER的结果比较,如表1所示:
表1不同算法对数据库1和数据库2中的掌纹掌脉图像进行识别EER(%)的结果
从表1中可以看出,本发明方法能够有效地提取掌纹掌脉图像的纹理特征,在两个数据库上均获得了最高的识别率。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (3)
1.一种基于纹理的掌纹掌脉融合识别方法,其特征在于:包括以下步骤:
步骤1:对掌纹图像A及掌脉图像B基于NSCT域进行融合,利用NSCT变换将图像分解为低频子图像和高频子图像两部分,对低频部分采用区域能量自适应加权融合,高频部分带利用图像自相似进行系数融合,最后进行NSCT逆变换,重构生成融合图像F;
步骤2:对融合图像F利用BSLDP算法提取特征,对融合图像F进行分块操作,利用SLDP算法提取每一子块直方图特征向量,将每一子块的直方图特征向量进行串接,得到融合图像F的统计直方图总特征向量α;
所述BSLDP算法为分块增强局部方向模式;该模式是将一幅图像经过分块增强局部方向模式运算后,各像素点在取值上虽然有所改变,结果仍为一幅图像,称之为BSLDP图谱;将该图谱的统计直方图作为特征向量来进行之后的操作;
所述SLDP算法为增强局部方向模式;该模式是参照局部二值模式原理而提出的一种特征提取方法,该方法在描述图像的纹理信息时,对于任意一个大小为3×3的矩形块I,有9个灰度值,它中心点的SLDP值由其他8个相邻点的像素灰度值与模板卷积运算返回值的差值编码所得;
步骤3:根据BSLDP算法得到融合图像F的统计直方图特征向量α,利用融合图像F和待识别图像的特征向量之间的卡方距离来判断获取到的图像是否匹配;卡方距离χ2的定义如下:
其中,L为待识别图像的总数;
在具体的判别过程中,计算出卡方距离后,需要设定一个阈值T,当卡方距离χ2和T的关系满足:χ2<T,满足则说明样本是来自同一个人,否则说明样本来自于不同人。
2.根据权利要求1所述的一种基于纹理的掌纹掌脉融合识别方法,其特征在于:所述步骤1的具体步骤如下:
步骤1.1:采用非下采样金字塔分解实现图像的多尺度分解,得到掌纹图像A及掌脉图像B的1个低频子图像和个高频子图像,其中,P为分解级数,为方向分解级数,子图像的大小与原始输入图像一致;
步骤1.2:低频融合的具体方法如下:
对大小为M×N像素的原图像X进行NSCT分解后,其中,X包括掌纹图像A和掌脉图像B,在X的第K层中心点为(m,n)的区域能量的公式如下:
其中,j代表第K层的分解级数,是原图像X在(m,n)点处两个方向的区域频率之和,是原图像分解后的低频系数;Ω(m',n')是在点(m,n)处大小为m'×n'的矩形区域;和是在像素点(m,n)处的两个方向;
区域能量比R(m,n)代表原图像X进行NSCT分解后的低频系数与在其邻域Ω(m',n')内像素点(m,n)上的能量差异,公式如下:
其中,代表掌纹图像A的区域能量,代表掌纹图像B的区域能量;
融合图像F的低频系数矩阵为
式中,mean[·]代表计算均值,std[·]代表计算标准差,T1、T2、uA、uB为参数,k1、k2为经验参数,0≦k1≦1,1≦k2≦3;
步骤1.3:高频融合的具体方法如下:
在原图像X中设参考块及候选块;所述参考块为Qv∈Cρ×ρ,区域C(v)∈CD×D的中心像素为v,所述为候选块Qp∈CD×D,候选块与Qv的相似性如下:
εp=||Qp-Qv||F
其中,Cρ×ρ代表ρ×ρ像素的区域,CD×D代表D×D像素的区域;
其中||G||F代表矩阵的Frobenius范数,amn代表该矩阵内的具体元素;
在区域C(v)∈CD×D内对所有的图像块进行降序排列得到εp,得出Qv的k个最相似块,最相似块的集合表示为LC(v)={Qp1,Qp2,,...,Qpk};和的共享相似块为:
其中,代表掌纹图像A的块的集合,代表掌脉图像B的块的集合:表示一个融合自适应区域,CA(v)和CB(v)表示在fA和fB中相同位置的区域,fA代表原图像X中的掌纹图像A,fB代表原图像X中的掌脉图像B:
融合后图像F的像素选择原图像中清晰度高的像素,称为最大值原则,如下所示:
其中O表示清晰度指标,OB代表图像B的像素清晰度之和,OF代表融合图像F的像素清晰度之和,用改进的拉普拉斯算子计算大小固定且以r为中心的区域v=(x0,y0)的SML定义如下:
对高频系数进行融合时,先计算出原图像的每个自适应区域的清晰度;若在fA的自适应区域的清晰度比在fB中的清晰度高,则fA自适应区域中的所有像素属于的投票加一,直到所有自适应区域都对比完成后停止,就可以得到一个和原图像X大小相同的计数映射,通过计数映射rA(v)和rB(v)得到像素v的最终投票结果,并通过分配相应的权重来得出融合图像的像素值,公式如下:
其中,rA(v)和rB(v)不为0。
3.根据权利要求1所述的一种基于纹理的掌纹掌脉融合识别方法,其特征在于:所述步骤2的具体步骤如下:
步骤2.1:用改进的Sobel算子,获取图像的边缘响应,同时采用差值法计算输出值,提出增强局部方向模式;
步骤2.1.1:利用Kirsch八方向模板,对矩形块I进行卷积,计算出不同方向的边缘响应绝对值
步骤2.1.2:对绝对值进行排序,将排在前η位的响应值编码为1,其余的8-η位编码为0;
步骤2.1.3:把这8个二进制数值按次序进行编码,作为该矩形块I的中心点特征值CLDP,公式如下:
式中:wi为Kirsch八方向模板;为第i个方向的响应值,是第i个二进制位响应值,是中第η个最大的值;
步骤2.2:将融合图像F分割成大小均匀的若干子块,对每一子块用SLDP算法进行特征提取,提出分块增强局部方向模式,对融合图像进行分块;
将一个M×N大小的图像矩阵V转化为t×t个子块,其中,每个子块Vde为z×z大小的方阵,其中,d∈t,e∈t,t=128/z;利用SLDP算法分别提取每一子块Vde的直方图特征向量,将各子块的特征串接,得到融合图像F的统计直方图总特征向量α。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811249308.4A CN109359607A (zh) | 2018-10-25 | 2018-10-25 | 一种基于纹理的掌纹掌脉融合识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811249308.4A CN109359607A (zh) | 2018-10-25 | 2018-10-25 | 一种基于纹理的掌纹掌脉融合识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109359607A true CN109359607A (zh) | 2019-02-19 |
Family
ID=65346497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811249308.4A Pending CN109359607A (zh) | 2018-10-25 | 2018-10-25 | 一种基于纹理的掌纹掌脉融合识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109359607A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084770A (zh) * | 2019-03-04 | 2019-08-02 | 云南大学 | 基于二维Littlewood-Paley经验小波变换的脑部图像融合方法 |
CN110378395A (zh) * | 2019-06-26 | 2019-10-25 | 东南大学 | 一种基于无重叠图像判别的无序图像快速匹配方法 |
CN113837976A (zh) * | 2021-09-17 | 2021-12-24 | 重庆邮电大学 | 基于联合多域的多聚焦图像融合方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104636721A (zh) * | 2015-01-16 | 2015-05-20 | 青岛大学 | 一种基于轮廓与边缘纹理特征融合的掌纹识别方法 |
-
2018
- 2018-10-25 CN CN201811249308.4A patent/CN109359607A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104636721A (zh) * | 2015-01-16 | 2015-05-20 | 青岛大学 | 一种基于轮廓与边缘纹理特征融合的掌纹识别方法 |
Non-Patent Citations (2)
Title |
---|
李新春等: ""基于 BSLDP 和典型相关分析的掌纹掌脉融合识别"", 《激光与光电子学进展》 * |
李新春等: ""掌纹掌脉图像超小波域融合识别算法"", 《计算机应用》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084770A (zh) * | 2019-03-04 | 2019-08-02 | 云南大学 | 基于二维Littlewood-Paley经验小波变换的脑部图像融合方法 |
CN110084770B (zh) * | 2019-03-04 | 2023-03-07 | 云南大学 | 基于二维Littlewood-Paley经验小波变换的脑部图像融合方法 |
CN110378395A (zh) * | 2019-06-26 | 2019-10-25 | 东南大学 | 一种基于无重叠图像判别的无序图像快速匹配方法 |
CN110378395B (zh) * | 2019-06-26 | 2023-05-16 | 东南大学 | 一种基于无重叠图像判别的无序图像快速匹配方法 |
CN113837976A (zh) * | 2021-09-17 | 2021-12-24 | 重庆邮电大学 | 基于联合多域的多聚焦图像融合方法 |
CN113837976B (zh) * | 2021-09-17 | 2024-03-19 | 重庆邮电大学 | 基于联合多域的多聚焦图像融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tan et al. | Fingerprint matching by genetic algorithms | |
Zaeri | Minutiae-based fingerprint extraction and recognition | |
CN102332084B (zh) | 基于掌纹和人脸特征提取的身份识别方法 | |
JP7130905B2 (ja) | フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 | |
Perumal et al. | A multimodal biometric system based on palmprint and finger knuckle print recognition methods. | |
He et al. | Iris feature extraction method based on LBP and chunked encoding | |
Usha et al. | Personal recognition using finger knuckle shape oriented features and texture analysis | |
Usha et al. | Finger knuckle biometrics–A review | |
CN109359607A (zh) | 一种基于纹理的掌纹掌脉融合识别方法 | |
Angadi et al. | Biometric person identification system: a multimodal approach employing spectral graph characteristics of hand geometry and palmprint | |
Khodadoust et al. | Partial fingerprint identification for large databases | |
Wang et al. | Improving hand vein recognition by score weighted fusion of wavelet-domain multi-radius local binary patterns | |
Bhargava et al. | Fingerprint matching of normalized image based on Euclidean distance | |
Sharkas et al. | The contourlet transform with the principal component analysis for palmprint recognition | |
Samai et al. | Oriented Local Binary Pattern (LBP θ): A new scheme for an efficient feature extraction technique | |
Jagadeesh et al. | DBC based Face Recognition using DWT | |
Meraoumia et al. | Do multispectral palmprint images be reliable for person identification? | |
Jaswal et al. | Deformable multi-scale scheme for biometric personal identification | |
Palanikumar et al. | Advanced palmprint recognition using unsharp masking and histogram equalization | |
Shekhar et al. | Robust approach for palm (Roi) extraction in palmprint recognition system | |
Jeong et al. | Effect of Smaller Fingerprint Sensors on the Security of Fingerprint Authentication | |
DR et al. | Fingerprint verification based on fusion of minutiae and ridges using strength factors | |
Kanchana et al. | Robust approach for palm (ROI) extraction in palmprint recognition system | |
Hariprasath et al. | Bimodal biometric pattern recognition system based on fusion of iris and palmprint using multi-resolution approach | |
Anjugam et al. | Authentication Using Palm Print Recognition System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190219 |