CN104951774B - 基于两种子空间相融合的掌静脉特征提取和匹配方法 - Google Patents

基于两种子空间相融合的掌静脉特征提取和匹配方法 Download PDF

Info

Publication number
CN104951774B
CN104951774B CN201510407473.8A CN201510407473A CN104951774B CN 104951774 B CN104951774 B CN 104951774B CN 201510407473 A CN201510407473 A CN 201510407473A CN 104951774 B CN104951774 B CN 104951774B
Authority
CN
China
Prior art keywords
image
feature
palm
class
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510407473.8A
Other languages
English (en)
Other versions
CN104951774A (zh
Inventor
陈朋
史金专
孙中海
金礼聪
梁荣华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201510407473.8A priority Critical patent/CN104951774B/zh
Publication of CN104951774A publication Critical patent/CN104951774A/zh
Application granted granted Critical
Publication of CN104951774B publication Critical patent/CN104951774B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

一种基于两种子空间相融合的掌静脉特征提取和匹配方法,包括以下步骤:1)采集手掌静脉图像;2)对采集到的静脉图像进行预处理:二值化提取出手掌,进行手掌关键点定位,采用各向异性扩散进行平滑处理,采用对数灰度变换对静脉图像进行增强;3)对增强后的静脉图像采用基于子空间的2DPCA和2DFLD相结合的特征提取算法提取其特征;4)在投影空间采用Hausdorff距离进行用户身份的匹配。本发明提供一种安全性较高的基于两种子空间相融合的掌静脉特征提取和匹配方法。

Description

基于两种子空间相融合的掌静脉特征提取和匹配方法
技术领域
本发明涉及接触式生物特征身份识别技术领域,尤其是一种掌静脉特征提取和匹配方法。
背景技术
当今社会,随着信息技术尤其是互联网的高速发展,使得整个社会成为信息和网络的结合体,如何进一步加强社会信息化和网络化的安全性成为如今迫切需要解决问题的重中之重。身份验证是人们加强信息安全性的基本方法和前提。现实生活中,许多场合都需要进行身份认证,如登录计算机,登录网络站点,到银行办理业务,鉴别疑犯,进入军事要地等等。因而,有效的身份验证方法可以给我们的生活带来安全、便利和效益,可以给我们的社会带来安定、秩序和效率。
传统的身份验证主要是基于证件、钥匙等标识物或者密码、PIN 码等知识来完成的,而随着计算机和通信网络的飞速发展,这些传统的确认机制暴露出诸多固有的弊端。对于基于标识物(证件、钥匙等) 的安全机制,存在携带不便、容易被盗、容易伪造、容易丢失等问题。对于基于密码的安全机制,存在密码难记、容易攻击甚至被破解、容易搞混、容易忘记等问题。因此,要消除这些隐患必须摒弃这些身外之物,寻求一种对个人自身独有的特征进行认证的识别技术,即生物识别技术。
发明内容
为了克服已有身份验证方式的安全性较差的不足,本发明提供一种安全性较高的基于两种子空间相融合的掌静脉特征提取和匹配方法。
本发明解决其技术问题所采用的技术方案是:
一种基于两种子空间相融合的掌静脉特征提取和匹配方法,所述方法包括以下步骤:
1)采集手掌静脉图像;
2)对采集到的静脉图像进行预处理
二值化提取出手掌,进行手掌关键点定位,采用各向异性扩散进行平滑处理,采用对数灰度变换对静脉图像进行增强;
3)对增强后的静脉图像采用基于子空间的2DPCA和2DFLD相结合的特征提取算法提取其特征,投影到识别空间,过程如下:
首先采用2DPCA算法进行特征的降维,将待训练样本图像Aij构建协方差矩阵S,计算协方差的特征值λi和对应的特征向量ui,然后将特征值和对应的特征向量按由 大到小的顺序排序,计算其特征累积贡献率对应的最佳特征维数L,根据特征维数把相应的特征向量作为投影空间G;
接下来用二维线性判别分析找到最佳投影方向,使得各个不同的类在这个方向上能够比较清晰的辨别开,提取的是最佳分类特征。将图像Aij,样本均值类均值在刚才得到的投影空间G中进行投影,得 到对应投影空间中的Bij,同时构建类内离散度矩阵Hw,类间离散度矩阵Hb,计算的特征值ki,和对应的特征向量li,按特征值由大到小的顺序排序,取前L个特征值对应的特征向量作为最佳的投影方向矩阵W;
4)在投影空间采用Hausdorff距离进行用户身份的匹配。
进一步,所述步骤3)中,首先采用2DPCA算法进行特征的降维,假设待训练图像矩阵Aij为m×n,设模式类别有c个ω123,…,ωc,每类有训练样本ni个,将待训练样本图像Aij构建协方差矩阵,公式如式(5):
其中,M为训练样本的总数,为训练样本的总体均值矩阵;
接着计算协方差矩阵S的特征值λi和对应的特征向量ui,然后将特征值和对应的特征向量按由 大到小的顺序排序,计算其特征累积贡献率对应的最佳特征维数L,根据特征维数把相应的特征向量作为投影空间G=[u1,u2,u3,…,uL];
接下来用二维线性判别分析找到最佳投影方向,使得各个不同的类在这个方向上能够比较清晰的辨别开,提取的是最佳分类特征。将样本图像Aij,总体样本均值每类均值在刚才得到的投影空间 G=[u1,u2,u3,…,uL]中进行投影,得 到对应投影空间中的Bij,如式 (6)所示:
同时构建类内离散度矩阵Hw,类间离散度矩阵Hb,定义如公式 (7)所示:
其中,M为训练样本的总数,ni为每类训练样本数;
根据fisher准则函数定义如公式(8)所示:
X就是使得样本类间离散度矩阵和样本内类离散度矩阵的比值最大的那些正交特征向量,得到如公式(9)所示:
HwX=λHwX Hw -1HbX=λX (9)
当类内散布矩阵Hw非奇异时,对应矩阵Hw -1Hb的最大特征值对应的特征矢量,即使得准则函数J(X)最大化时的X,即为最佳投影方向X,所以计算的特征值ki,和对应的特征向量li,将特征值由大到小的顺序排序;
取前L个特征值对应的特征向量作为最佳的投影方向矩阵W=[l1,l2,l3,…,lL];
最后将每幅图像在特征子空间上投影,即每幅图像提取的特征矩阵Cij如公式(10)所示:
Cij=AijW (10)。
更进一步,所述步骤1)中,通过双波长近红外LED和高清CCD 的手掌静脉前端采集装置采集到手掌静脉图像。
再进一步,所述步骤2)中,采用了Otsu算法进行静脉图像的二值化。
所述步骤2)中,采用分块局部极值的算法进行手掌关键点定位,首先选择小拇指与无名指的交叉点,以及食指与中指的交叉点,作为用来提取感兴趣区域的两个关键点。通过上一步得到的手掌二值化图像,提取其手掌的轮廓,分别求出每一个轮廓点到底部手腕处的距离,把手掌的轮廓对应距离保存到三维数组X(x,y,d),其中(x,y)为轮廓点的位置坐标,d为轮廓点到底部手腕处的距离。首先将数组分成20份,找到距离d的局部极值,从而确定两个关键点。
所述步骤2)中,找到小拇指和无名指之间的点P2与中指和食指之间的点P1,将P1和P2连成一条线,获得其与手腕的水平方向的夹角进行图像θ角度,其中P1点坐标为(XP1,YP1),P2点坐标为 (XP2,YP2),旋转的角度θ如式所示(3):
将整个掌静脉图像按照θ角度旋转,最终获得ROI为矩形有效区域 ABCD,下一步将对其进行尺度归一化。
所述步骤2)中,采用各向异性扩散进行平滑处理是引入一个系数来控制图像不同的区域的扩散速度,其数学算式可表示为:
其中u0(x,y)为图像的像素值,是梯度算子,div是散度算子,g(·) 是扩散系数,各向异性扩散主要在于降低细节,也可表示为图像梯度大的区域的平滑,其中扩散系数g(·)被定义为:
其中k控制梯度细节被保留的程度,·是绝对值算法,由此平滑力度在静脉区域会被设为低于非静脉区域,从而去除噪声同时保持静脉的细节。
所述步骤2)中,对静脉图像进行增强,对数灰度变换公式如式 (4)所示:
g(x)=bc[f(x)-a]-1 (4)
其中,参数b,c是用来调整曲线的位置和形状;a相当于平移量,在灰度没有达到a时皆将输入定位为0,c用于控制变换速率,b用于控制曲线形状。
所述步骤4)中,在投影空间采用Hausdorff距离进行用户身份的匹配,具体如下:设有两个手掌静脉特征点集 A={a1,…,ap},B={b1,…,bq},则这两个点特征集合之间的Hausdorff距离定义如公式(11)(12):
H(A,B)=max(h(A,B),h(B,A)) (11)
其中:
||·||是点集A和B点集之间的距离范数,双向Hausdorff距离 H(A,B)是单向距离h(A,B)和h(B,A)两者中的较大者,它度量了两个特征点集间的最大不匹配程度;则待识别的特征点集与每一类特征点集计算其Hausdorff距离,Hausdorff距离越小,则最大不匹配程度越小,即把待识别样本归为Hausdorff距离越小的一类。
本发明的技术构思为:生物识别技术是对人体生物特征(生理或行为特征)进行自动身份识别的技术,生理特征包括DNA、耳廓、人脸、虹膜、视网膜、掌纹、手型、手上的静脉血管等,这些生物特征拥有足够的稳定性,不会随着年龄的增长,时间的改变而改变。行为特征包括手写签名、声纹、步态等。行为特征不具备一定的精确度,并且容易模仿和假冒,在实际使用中存在一定的不安全性。虹膜、指纹、掌纹等这些人体识别技术却容易被仿冒且容易取得。由于人体静脉血管隐藏于皮肤之下,不易伪造,而且,相对于掌纹而言,手掌静脉分布复杂,具有更丰富的结构信息。因此静脉特征识别技术是一种安全性很高的身份识别技术。
对手掌静脉图像进行有效的预处理技术,主要包括:采用分块局部极值快速检测关键点,从而提取感兴趣区域。采用各向异性扩散进行平滑处理,不同与一般的平滑方法,它可以有效的去除噪声,同时很好的保留了图像的边缘信息。采用对数灰度变换对静脉图像进行增强,有效提高了静脉图像的对比度,解决了静脉图像整体偏暗的问题,使图像的灰度级范围扩大,增强了静脉图像的纹路信息。对增强后的静脉图像采用基于子空间的2DPCA和2DFLD相结合的特征提取算法,与单一算法相比可以极大地较减少高纬度矩阵的计算量,进一步冗余特征,提高了识别的速度。
本发明的有益效果主要表现在:安全性较高,识别率较高。
附图说明
图1为本方法的算法流程图;
图2为采用Otsu算法二值化后的图像;
图3为关键点定位示意图。
图4为感兴趣区域的截取示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图4,一种基于两种子空间相融合的掌静脉特征提取和匹配方法,过程如下:
1)手掌静脉的采集
手掌静脉采集装置采集到的静脉图像。静脉采集装置的原理是:根据人体肌肉和骨骼的特点,当一定范围的近红外光照射人体时,人体的静脉血管中的血色素相比于皮下组织可以吸收更多的近红外辐射,能够很好地呈现静脉血管结构。本实验装置采用的是850nm和 940nm的双近红外LED和高清CMOS摄像头获取手掌静脉图像。
2)手掌静脉的预处理
静脉图像的质量直接影响系统的识别率,为了提高图像质量,需要对静脉图像进行预处理。
(2.1)有效区域(ROI)提取
为了得到手掌的轮廓,主要采用了Otsu算法进行静脉图像的二值化,它一种全局化的动态二值化方法,设使用某一个阈值将灰度图像根据灰度大小,分成目标部分和背景部分两类,在这两类的类内方差最小和类间方差最大的时候,从而得到的阈值是最优的二值化阈值,结果如图2所示。之后进行手掌关键点的定位,主要采用分块局部极值的算法进行手掌关键点定位,首先选择小拇指与无名指的交叉点,以及食指与中指的交叉点,作为用来提取感兴趣区域的两个关键点。通过上一步得到的手掌二值化图像,提取其手掌的轮廓,分别求出每一个轮廓点到底部手腕处的距离,把手掌的轮廓对应距离保存到三维数组X(x,y,d),其中(x,y)为轮廓点的位置坐标,d为轮廓点到底部手腕处的距离。首先将数组分成20份,找到距离d的局部极值,从而确定两个关键点。
如图3所示,找到小拇指和无名指之间的点P1与中指和食指之间的点P2,将P1和P2连成一条线,获得其与手腕的水平方向的夹角进行图像θ角度,其中P1点坐标为(XP1,YP1),P2点坐标为(XP2,YP2),旋转的角度θ如式所示(3):
将整个掌静脉图像按照θ角度旋转,最终获得ROI为矩形有效区域ABCD,如图4所示,下一步将对其进行尺度归一化,归一化像素大小为200×240。
(2.2)图像平滑
采用各向异性扩散进行平滑处理是引入一个系数来控制图像不同的区域的扩散速度,其数学算式可表示为:
其中u0(x,y)为图像的像素值,是梯度算子,div是散度算子,g(·) 是扩散系数。各向异性扩散主要在于降低细节,也可表示为图像梯度大的区域的平滑。其中扩散系数g(·)被定义为:
其中k控制梯度细节被保留的程度,·是绝对值算法。由此平滑力度在静脉区域会被设为低于非静脉区域,从而去除噪声同时保持静脉的细节。
(2.3)图像增强
针对静脉图像整体偏暗,图像的灰度级范围过小的问题,下一步对静脉图像进行增强。对数灰度变换公式如式(4)所示:
g(x)=bc[f(x)-a]-1 (4)
其中参数b,c是用来调整曲线的位置和形状。a相当于平移量,在灰度没有达到a时皆将输入定位为0,c用于控制变换速率,b用于控制曲线形状。
3)基于子空间的2DPCA和2DFLD相结合的特征提取算法
首先采用2DPCA算法进行特征的降维,假设待训练图像矩阵Aij为m×n,设模式类别有c个ω123,…,ωc,每类有训练样本ni个,将待训练样本图像Aij构建协方差矩阵,公式如式(5):
其中,M为训练样本的总数,为训练样本的总体均值矩阵。
接着计算协方差矩阵S的特征值λi和对应的特征向量ui,然后将特征值和对应的特征向量按由 大到小的顺序排序,计算其特征累积贡献率对应的最佳特征维数L,根据特征维数把相应的特征向量作为投影空间G=[u1,u2,u3,…,uL]。
接下来用二维线性判别分析找到最佳投影方向,使得各个不同的类在这个方向上能够比较清晰的辨别开,提取的是最佳分类特征。将样本图像Aij,总体样本均值每类均值在刚才得到的投影空间 G=[u1,u2,u3,…,uL]中进行投影,得 到对应投影空间中的Bij,如式 (6)所示:
同时构建类内离散度矩阵Hw,类间离散度矩阵Hb,定义如公式 (7)所示:
其中,M为训练样本的总数,ni为每类训练样本数。
根据fisher准则函数定义如公式(8)所示:
X就是使得样本类间离散度矩阵和样本内类离散度矩阵的比值最大的那些正交特征向量。经化简,可得到如公式(9)所示:
HwX=λHwX Hw -1HbX=λX (9)
当类内散布矩阵Hw非奇异时,对应矩阵Hw -1Hb的最大特征值对应的特征矢量,即使得准则函数J(X)最大化时的X,即为最佳投影方向X。所以计算的特征值ki,和对应的特征向量li,将特征值由大到小的顺序排序。
取前L个特征值对应的特征向量作为最佳的投影方向矩阵 W=[l1,l2,l3,…,lL]。
最后将每幅图像在特征子空间上投影,即每幅图像提取的特征矩阵Cij如公式(10)所示:
Cij=AijW (10)
4)采用Hausdorff距离进行特征匹配
Hausdorff距离是描述两组点集之间相似程度的一种量度,它是两个点集之间距离的一种定义形式:设有两个手掌静脉特征点集 A={a1,…,ap},B={b1,…,bq},则这两个点特征集合之间的Hausdorff距离定义如公式(11)(12):
H(A,B)=max(h(A,B),h(B,A)) (11)
其中:
||·||是点集A和B点集之间的距离范数,双向Hausdorff距离 H(A,B)是单向距离h(A,B)和h(B,A)两者中的较大者,它度量了两个特征点集间的最大不匹配程度。如果有很多类的话,则待识别的特征点集与每一类特征点集计算其Hausdorff距离,Hausdorff距离越小,则最大不匹配程度越小,即把待识别样本归为Hausdorff距离越小的一类。
实验结果:本实验采用实验室自制的手掌静脉采集装置,分别采集实验人员25人的手掌图像,其中男性试验者20人,女性试验者5 人,每人分别采集左右手图像各10幅,其中前5幅作为训练样本,后 5幅作为识别测试样本,进行识别性能测试。总计样本数量25×10×2=500。表1是特征提取算法PCA、2DPCA、2DFLD、以及 2DPCA+2DFLD性能数据的对比。
表1
从表1中看出PCA算法是将静脉图像矩阵展开成列向量后特征维数过大,造成识别时间过长。而后面的方法都是基于图像矩阵构建协方差矩阵特征维数不至于过大。通过在2DPCA降维的基础上,再采用2DFLD线性判别法进行图像矩阵投影,从而找到最佳投影方向,使类间与类内所形成的离散度比值达到最大。在降低特征维数的同时,提高了算法的识别率。

Claims (4)

1.一种基于两种子空间相融合的掌静脉特征提取和匹配方法,其特征在于:所述方法包括以下步骤:
1)采集手掌静脉图像
通过双波长850nm和940nm近红外LED和高清CCD的手掌静脉前端采集装置采集到手掌静脉图像,可以控制LED产生两种波长的近红外光,以便选择获得清晰的静脉图像;
2)对采集到的静脉图像进行预处理
采用Otsu算法进行静脉图像的二值化,二值化提取出手掌,进行手掌关键点定位,采用各向异性扩散进行平滑处理,采用对数灰度变换对静脉图像进行增强;其中,采用分块局部极值的算法进行手掌关键点定位,首先选择小拇指与无名指的交叉点,以及食指与中指的交叉点,作为用来提取感兴趣区域的两个关键点; 通过上一步得到的手掌二值化图像,提取其手掌的轮廓,分别求出每一个轮廓点到底部手腕处的距离,把手掌的轮廓对应距离保存到三维数组X(x,y,d),其中(x,y)为轮廓点的位置坐标,d为轮廓点到底部手腕处的距离;首先将数组分成20份,找到距离d的局部极值,从而确定两个关键点;
找到小拇指和无名指之间的点P2与中指和食指之间的点P1,将P1和P2连成一条线,获得其与手腕的水平方向的夹角进行图像θ角度的旋转,其中P1点坐标为(XP1,YP1),P2点坐标为(XP2,YP2),旋转的角度θ如式(1)所示:
将整个掌静脉图像按照θ角度旋转,最终获得ROI为矩形有效区域ABCD,下一步将对其进行尺度归一化;
3)对增强后的静脉图像采用基于子空间的2DPCA和2DFLD相结合的特征提取算法提取其特征,投影到识别空间,过程如下:
首先采用2DPCA算法进行特征的降维,用待训练样本图像Aij构建协方差矩阵S,计算协方差的特征值λi和对应的特征向量ui,然后将特征值和对应的特征向量按由大到小的顺序排序,计算其特征累积贡献率对应的最佳特征维数L,根据特征维数把相应的特征向量作为投影空间G;
接下来用二维线性判别分析找到最佳投影方向,使得各个不同的类在这个方向上能够清晰地辨别开,提取的是最佳分类特征; 将图像Aij,样本均值类均值在刚才得到的投影空间G中进行投影,得到对应投影空间中的Bij,同时构建类内离散度矩阵Hw,类间离散度矩阵Hb,计算的特征值ki,和对应的特征向量li,按特征值由大到小的顺序排序,取前L个特征值对应的特征向量作为最佳的投影方向矩阵W;
最后将每幅图像在特征子空间上投影,即每幅图像提取的特征矩阵Cij如公式(2)所示:
Cij=AijW (2)
4)在投影空间采用Hausdorff距离进行用户身份的匹配;
在投影空间采用Hausdorff距离进行用户身份的匹配,具体如下:设有两个手掌静脉特征点集A={a1,…,ap},B={b1,…,bq},则这两个点特征集合之间的Hausdorff距离定义如公式(3)(4):
H(A,B)=max(h(A,B),h(B,A)) (3)
其中:
||·||是点集A和B点集之间的距离范数,双向Hausdorff距离H(A,B)是单向距离h(A,B)和h(B,A)两者中的较大者,它度量了两个特征点集间的最大不匹配程度;则待识别的特征点集与每一类特征点集计算其Hausdorff距离,Hausdorff距离越小,则最大不匹配程度越小,即把待识别样本归为Hausdorff距离越小的一类。
2.如权利要求1所述的一种基于两种子空间相融合的掌静脉特征提取和匹配方法,其特征在于:所述步骤3)中,首先采用2DPCA算法进行特征的降维,假设待训练图像矩阵Aij为m×n,设模式类别有c个ω123,…,ωc,每类有训练样本ni个,将待训练样本图像Aij构建协方差矩阵,公式如式(5):
其中,M为训练样本的总数,为训练样本的总体均值矩阵;
接着计算协方差矩阵S的特征值λi和对应的特征向量ui,然后将特征值和对应的特征向量按由大到小的顺序排序,计算其特征累积贡献率对应的最佳特征维数L,根据特征维数把相应的特征向量作为投影空间G=[u1,u2,u3,…,uL];
接下来用二维线性判别分析找到最佳投影方向,使得各个不同的类在这个方向上能够清晰地辨别开,提取的是最佳分类特征,将样本图像Aij,总体样本均值每类均值在刚才得到的投影空间G=[u1,u2,u3,…,uL]中进行投影,得到对应投影空间中的Bij,如式(6)所示:
同时构建类内离散度矩阵Hw,类间离散度矩阵Hb,定义如公式(7)所示:
其中,M为训练样本的总数,ni为每类训练样本数;
根据fisher准则函数定义如下公式:
X就是使得样本类间离散度矩阵和样本内类离散度矩阵的比值最大的那些正交特征向量,得到如下公式:
HwX=λHwX Hw -1HbX=λX (9)
当类内散布矩阵Hw非奇异时,对应矩阵Hw -1Hb的最大特征值对应的特征矢量,即使得准则函数J(X)最大化时的X,即为最佳投影方向X,所以计算的特征值ki,和对应的特征向量li,将特征值由大到小的顺序排序;
取前L个特征值对应的特征向量作为最佳的投影方向矩阵W=[l1,l2,l3,…,lL],li代表第i个特征值对应的特征向量;
最后将每幅图像在特征子空间上投影,即每幅图像提取的特征矩阵Cij如公式(10)所示:
Cij=AijW (10)。
3.如权利要求1所述的一种基于两种子空间相融合的掌静脉特征提取和匹配方法,其特征在于:所述步骤2)中,采用各向异性扩散进行平滑处理是引入一个系数来控制图像不同的区域的扩散速度,其数学算式可表示为:
其中u0(x,y)为图像的像素值,是梯度算子,div是散度算子,g(·)是扩散系数,各向异性扩散主要在于降低细节,也可表示为图像梯度大的区域的平滑,其中扩散系数g(·)被定义为:
其中k控制梯度细节被保留的程度,|·|是绝对值算法,由此平滑力度在静脉区域会被设为低于非静脉区域,从而去除噪声同时保持静脉的细节。
4.如权利要求3所述的一种基于两种子空间相融合的掌静脉特征提取和匹配方法,其特征在于:所述步骤2)中,对静脉图像进行增强,对数灰度变换公式如式(13)所示:
g(x)=bc[f(x)-a]-1 (13)
其中,参数b,c是用来调整曲线的位置和形状;a相当于平移量,在灰度没有达到a时皆将输入定位为0,c用于控制变换速率,b用于控制曲线形状。
CN201510407473.8A 2015-07-10 2015-07-10 基于两种子空间相融合的掌静脉特征提取和匹配方法 Active CN104951774B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510407473.8A CN104951774B (zh) 2015-07-10 2015-07-10 基于两种子空间相融合的掌静脉特征提取和匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510407473.8A CN104951774B (zh) 2015-07-10 2015-07-10 基于两种子空间相融合的掌静脉特征提取和匹配方法

Publications (2)

Publication Number Publication Date
CN104951774A CN104951774A (zh) 2015-09-30
CN104951774B true CN104951774B (zh) 2019-11-05

Family

ID=54166416

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510407473.8A Active CN104951774B (zh) 2015-07-10 2015-07-10 基于两种子空间相融合的掌静脉特征提取和匹配方法

Country Status (1)

Country Link
CN (1) CN104951774B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760841B (zh) * 2016-02-22 2021-06-04 桂林航天工业学院 一种身份识别方法及系统
CN105975905B (zh) * 2016-04-26 2019-03-26 山西圣点世纪科技股份有限公司 一种手指静脉快速识别方法
CN106228151B (zh) * 2016-05-04 2019-03-26 中国人民解放军国防科学技术大学 指掌静脉融合特征识别方法
CN106022218B (zh) * 2016-05-06 2019-07-05 浙江工业大学 一种基于小波变换和Gabor滤波器的掌纹掌静脉图像层融合方法
CN105938549B (zh) * 2016-06-08 2019-02-12 大连民族大学 掌纹识别中的掌纹roi分割方法
CN106407921B (zh) * 2016-09-08 2019-05-03 中国民航大学 基于Riesz小波和SSLM模型的静脉识别方法
CN106372611A (zh) * 2016-09-09 2017-02-01 康佳集团股份有限公司 基于手掌静脉特征的身份识别方法、系统及图像采集装置
CN106682627B (zh) * 2016-12-29 2021-01-29 北京奇虎科技有限公司 一种掌纹数据的识别方法和装置
CN106991380A (zh) * 2017-03-10 2017-07-28 电子科技大学 一种基于掌静脉图像的预处理方法
CN106934421B (zh) * 2017-03-16 2020-11-06 山东大学 基于2dpca及svm的电力变压器故障检测方法
CN108427923B (zh) * 2018-03-08 2022-03-25 广东工业大学 一种掌纹识别方法及装置
CN108573212B (zh) * 2018-03-08 2022-03-25 广东工业大学 一种手掌特征身份认证方法及装置
CN108564031A (zh) * 2018-04-12 2018-09-21 安徽大学 基于多模态融合的单幅近红外手掌图像识别方法
CN109285204B (zh) * 2018-09-28 2022-11-25 杭州电子科技大学 一种指纹与指静脉比特级融合的生物密钥生成方法
CN110097022A (zh) * 2019-05-10 2019-08-06 杭州电子科技大学 基于双向插值增强的2dpca人脸图像识别方法
CN110457330B (zh) * 2019-08-21 2022-09-13 北京远舢智能科技有限公司 一种时序数据管理平台
CN111326163B (zh) * 2020-04-15 2023-02-14 厦门快商通科技股份有限公司 一种声纹识别方法和装置以及设备
CN111820921B (zh) * 2020-06-05 2023-06-30 哈工大机器人(中山)无人装备与人工智能研究院 一种定心运动采血装置及包含该装置的机器人
CN112557812B (zh) * 2020-11-24 2022-06-03 山东理工大学 基于Hausdorff距离的小电流接地故障定位方法及系统
CN112712066B (zh) * 2021-01-19 2023-02-28 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101093539A (zh) * 2007-07-27 2007-12-26 哈尔滨工程大学 手指静脉特征提取与匹配识别方法
CN103336945A (zh) * 2013-06-10 2013-10-02 黑龙江大学 融合局部特征与全局特征的指静脉识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101093539A (zh) * 2007-07-27 2007-12-26 哈尔滨工程大学 手指静脉特征提取与匹配识别方法
CN103336945A (zh) * 2013-06-10 2013-10-02 黑龙江大学 融合局部特征与全局特征的指静脉识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Contactless palm vein identification using multiple representations;Zhou Y等;《Proceedings of the 4th IEEE International Conference on Biometrics:Theory Applications and Systems》;20101231;全文 *
Person recognition by fusing palmprint and palm vein images based on"laplacianpalm"representation;Wang J G等;《Pattern Recognition》;20081231;第41卷(第5期);全文 *
手指静脉图像的识别算法;陈玉琼;《中国优秀硕士学位论文全文数据库信息科技辑》;20140915(第09期);正文第7、22、31-34、39-42页 *
手掌静脉图像识别技术综述;吴微等;《中国图象图形学报》;20131031;第18卷(第10期);全文 *

Also Published As

Publication number Publication date
CN104951774A (zh) 2015-09-30

Similar Documents

Publication Publication Date Title
CN104951774B (zh) 基于两种子空间相融合的掌静脉特征提取和匹配方法
CN106022218B (zh) 一种基于小波变换和Gabor滤波器的掌纹掌静脉图像层融合方法
CN105426821B (zh) 一种基于八邻域和二次匹配的手掌静脉特征提取和匹配方法
Vijayan et al. Twins 3D face recognition challenge
Huang et al. Hand-dorsa vein recognition by matching local features of multisource keypoints
Lee A novel biometric system based on palm vein image
CN102542281B (zh) 非接触式生物特征识别方法和系统
US20180300571A1 (en) Finger vein identification method and device
Jia et al. A survey on dorsal hand vein biometrics
Michael et al. A contactless biometric system using palm print and palm vein features
Lee et al. Dorsal hand vein recognition based on 2D Gabor filters
CN101030244A (zh) 基于人体生理图像中排序测度特征的自动身份识别方法
CN107507286A (zh) 一种基于人脸和手写签名的双模态生物特征签到系统
CN105760841A (zh) 一种身份识别方法及系统
Wu et al. A novel biometric system based on hand vein
CN101789075A (zh) 基于特征值归一化双向加权的手指静脉识别方法
Zhong et al. Towards application of dorsal hand vein recognition under uncontrolled environment based on biometric graph matching
CN113469143A (zh) 一种基于神经网络学习的手指静脉图像识别方法
Přihodová et al. Biometric privacy through hand geometry-a survey
CN105701462A (zh) 一种身份识别方法
CN105678150A (zh) 一种用户权限管理方法
Al-Juboori et al. Biometric authentication system based on palm vein
CN103593660B (zh) 一种稳定特征图像下交叉梯度编码的掌纹识别方法
Zhu et al. Near infrared hand vein image acquisition and ROI extraction algorithm
Priya et al. Authentication of identical twins using tri modal matching

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant