CN112270287A - 一种基于旋转不变的手掌静脉识别方法 - Google Patents

一种基于旋转不变的手掌静脉识别方法 Download PDF

Info

Publication number
CN112270287A
CN112270287A CN202011241641.8A CN202011241641A CN112270287A CN 112270287 A CN112270287 A CN 112270287A CN 202011241641 A CN202011241641 A CN 202011241641A CN 112270287 A CN112270287 A CN 112270287A
Authority
CN
China
Prior art keywords
palm
roi
palm vein
hand
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011241641.8A
Other languages
English (en)
Inventor
李新春
肖迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Technical University
Original Assignee
Liaoning Technical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Technical University filed Critical Liaoning Technical University
Priority to CN202011241641.8A priority Critical patent/CN112270287A/zh
Publication of CN112270287A publication Critical patent/CN112270287A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种基于旋转不变的手掌静脉识别方法,步骤为:利用凸壳方法提取的手部轮廓、指尖点和手谷点来构建不受手部旋转影响的ROI图像区域;对ROI图像进行去噪和图像增强,并提取基于方向的竞争编码特征;利用竞争编码特征改进DPL学习模型进行分类。本发明的基于旋转不变的手掌静脉识别方法不仅在可见距离内能有效捕获和准确提取自由旋转的手掌ROI区域,并且相较于传统的字典学习方法,改进的DPL方法大大降低了训练和测试时间,提高了手掌静脉识别的准确率。

Description

一种基于旋转不变的手掌静脉识别方法
技术领域
本发明属于手掌静脉识别的技术领域,尤其涉及一种基于旋转不变的手掌静脉识别方法。
背景技术
手掌静脉识别模式凭借实际应用方便、不易仿造等特点,引起了研究人员的关注。相比传统的生物识别技术(即指纹、人脸、虹膜等),掌脉识别系统具备特征区域大、成本低、非接触式识别可接受性高等优点。并且掌脉作为一种活体识别,在安全性上十分可靠。
基于投影字典对学习的非接触式旋转不变手掌静脉识别方法分为手掌ROI检测分割和掌脉识别两个阶段。在手掌ROI检测分割阶段,Michael等人提出了一种基于掌纹和指关节打印跟踪方法的非接触式掌纹和指关节指纹识别系统,能够处理最大30°的旋转;欧阳等人通过建立参考线段并计算段斜率,开发了用于检测扫描图像中手掌旋转角度的方法,包含45°内的旋转场景;ElSallam等人采用了姿态不变手部分割方法来处理手指方位变化所包含的手部姿态;康等人提出了在静脉及其邻域内对LBP直方图进行分区的匹配方法,可以支持60°的旋转。但是这些方法也都有一定的角度限制。并未从根本上解决接触与大角度旋转识别的问题。
在手掌静脉识别阶段,Wright等提出基于稀疏表示的分类方法(SRC)来训练样本构成字典矩阵,利用l1范数最小化来计算测试样本相对于字典矩阵的稀疏表示系数,但l1范数的稀疏性约束使得计算复杂。由KSVD的开创性工作可知,可以从原始图像中学习一个超完备的字典,从而比原始字典能导出更好的图像复原结果。而该学习字典最主要问题是是否能将正确的类别标签分类给测试样本的分类任务,为此提出了有判别能力的字典学习方法。但现有的判别性字典学习(DL)方法使用l1范数来求解稀疏表示系数,且迭代过程中常涉及稀疏编码步骤。尽管提出了很多方法来提高稀疏编码的效率,但是并未从根本上解决耗时问题。
发明内容
基于以上现有技术的不足,本发明所解决的技术问题在于提供一种基于旋转不变的手掌静脉识别方法,能在可见距离内能有效捕获和准确提取自由旋转的手掌ROI区域,并且相较于传统的字典学习方法,改进的DPL方法大大降低了训练和测试时间,提高了手掌静脉识别的准确率。
为了解决上述技术问题,本发明通过以下技术方案来实现:
本发明的基于旋转不变的手掌静脉识别方法,包括以下步骤:
步骤S1:利用凸壳方法提取的手部轮廓、指尖点和手谷点来构建不受手部旋转影响的ROI图像区域;
步骤S2:对ROI图像进行去噪和图像增强,并提取基于方向的竞争编码特征;
步骤S3:利用竞争编码特征改进投影字典对学习模型进行分类。
优选的,在步骤S1中,包括如下步骤:
S11、选择x坐标最小值的一个凸点;
S12、在确定手掌轮廓的基础上,分别对基于凸包点H和谷点V来检测指尖和谷点;
S13、利用最小包围圆方法计算手掌中心坐标并构建一个包含所有谷点的最小圆。
可选的,在步骤S2中,利用小波阈值去噪方法对手掌ROI区域进行去噪处理。
由上,本发明的基于旋转不变的手掌静脉识别方法针对手掌旋转导致手掌感兴趣区域提取不准确及传统的字典学习(Dictionary Learning,DL)范数的稀疏约束导致较高的计算复杂度问题,本发明改进了一种基于投影字典对学习的非接触式旋转不变的手掌静脉识别方法。首先,利用改进的凸壳方法提取手掌轮廓、指尖点和谷点来构建不受旋转影响的手掌ROI的区域;然后对提取的ROI区域进行去噪和CLAHE图像增强处理,并利用竞争编码提取掌脉特征;最后利用改进的投影字典对学习(Dictionary Pair Learning,DPL)模型学习掌脉的竞争编码特征,并进行手掌分类识别。实验结果表明,本发明方法不仅在可见距离内能有效捕获和准确提取自由旋转的手掌ROI区域,并且相较于传统的字典学习方法,改进的DPL方法大大降低了训练和测试时间,提高了手掌静脉识别的准确率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下结合优选实施例,并配合附图,详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍。
图1为本发明的基于旋转不变的手掌静脉识别方法的流程图;
图2为手掌图,(a)为不旋转,(b)为手掌旋转30°;
图3为选定凸包的移动顺序图;
图4为手掌凸多边形提取图;
图5中的(a)为原始掌静脉ROI图像;(b)为小波阈值降噪图;
图6中的(a)为原始掌静脉ROI图像;(b)为CLAHE均衡效果图;
图7中的(a)为原始掌静脉ROI图像;(b)为六个方向的竞争编码;
图8为错误的ROI检测中的特定手势图;
图9为270°中错误的ROI检测图。
具体实施方式
下面结合附图详细说明本发明的具体实施方式,其作为本说明书的一部分,通过实施例来说明本发明的原理,本发明的其他方面、特征及其优点通过该详细说明将会变得一目了然。在所参照的附图中,不同的图中相同或相似的部件使用相同的附图标号来表示。
本发明的具体方法流程如图1所示,首先利用改进之后的凸壳方法对掌静脉图像的感兴趣区域进行检测并提取,然后将提取到的感兴趣的手掌静脉ROI图像分别利用小波阈值去噪方法以及限制对比度自适应直方图均衡化方法(CLAHE)对掌静脉ROI图像进行均衡化;对ROI图像预处理完后,利用竞争编码方法进行掌静脉特征提取,最后将提取后的特征送入判别词典对学习(DPL)方法进行掌静脉图像识别。
基于改进凸壳方法的ROI区域构建
平面点集的凸壳定义为包含点集的最小凸集以构成凸多边形。其中,LCH凸壳方法具有计算简洁的优点,在计算的时间方面优势十分显著。该方法令P=<V′1,...,V′m>表示m个顶点的多边形顶点的逆时针排列顺序,通过找到点集最左边的点VL,最右边的点VR,顶部点Vt,底部点Vb形成基础框架。通过设VL=V′k,则V1=V′k,V2=V′k+1,...,Vm=V′m+k-1modm,(xi,yi)表示Vi的直角坐标,其中xi是水平坐标,yi是垂直坐标。利用公式(1)计算Si,以确定Vi是否为P的凸顶点。
Si=(xi+1-xi-1)(yi-1-yi)
+(yi+1-yi-1)(xi-xi-1) (1)
若Si<0,则Vi是凸顶点;Si≥0,则删除Vi;否则进入Vi+1。每当移除一个顶点,就退回一个顶点以检查新形成的非凸顶点。且V1必为凸点,故当重新输入V1时,停止移除非凸顶点的过程。令Pa表示通过LCH从P去除凸顶点而获得的多边形。所得多边形Pa即凸壳方法的多边形。
但是,LCH方法在去除凸顶点之后每个顶点都是凸点,所以可能导致Pa为不是简单图形的结果。因此,本发明对该方法进行了改进,可以找到任何简单多边形的凸壳,并将其应用到掌静脉检测中来。
改进的凸壳方法采用平面凸多边形原理,解决了LCH凸壳方法易造成复杂多边图形的缺点。如图2所示,在采集中不会受手掌在平面中旋转所诱发的偏移所影响,并且该方法对手掌轻微的左右偏转具有一定兼容性。改进的方法基于凸壳的基础上,首先应用OTSU阈值化方法来获得表示为Si=1,2,3,4...,n的二值化手轮廓点的有限集合。然后利用Suzuki轮廓检测法对手部图像进行二值化来提取手部轮廓。其中n∈手轮廓点。图3表示在手轮廓上一些综合选择的散点,连续重复选择H1、H2和H3的步骤。具体方法如下:
首先,选择x坐标最小值的一个凸点,即最左边的散射点作为起始点,以便形成凸多边形。该点表示为H1,即起点,则在接近H1的点中随机选择第二个点H2。在接近H2的点中随机选择第三个点H3。必须确定这三个点才能形成虚拟的前进路线。若H1和H3之间的角度小于180°,则H1、H2和H3被视为一组有效的凸包点。
相反,如果H1和H3之间的角度大于180°,H2则变成凹点。若角度为凹入的,则将H2视为凸缺陷点V,并将路线反向返回H1后,以H1和另外两个新的可能的凸壳点开始测试:即H1-new、H2-new、H3-new。H1-new和H3-new之间的角度必须小于180°。图4显示了手部轮廓上的凸点(指尖点)和凹点(手谷点)。
然后,在确定手掌轮廓的基础上,分别对基于凸壳点H和凸缺陷点V来检测指尖和谷点。所得出的谷点V在两凸点H1与H2-new间的中点有最高的深度值。且该深度值可通过(H1+H2-new)/2计算得出。迭代执行该方法,直到有一组指尖点和谷点包围手轮廓为止。
最后,为了构建ROI区域,本发明利用最小包围圆方法计算手掌中心坐标并构建一个包含所有谷点的最小圆。该坐标对确定ROI区域十分重要,圆心即为手掌中心点坐标。
ROI区域构建
在获得准确的谷点、指尖点与掌中心坐标之后所构建的ROI区域不会因采集姿势不规范造成ROI区域及参考点偏移的问题。
为了在任何旋转角度下将小指和食指区分开,必须首先计算指尖和手掌中心之间的距离。与其他指尖相比,中指尖到掌心的距离最长,故将中指尖点用作参考点F,以对齐食指谷点和小指谷点来进行ROI构建。
然后根据谷点V1、V2、V3与F的距离来设置优先级。由于谷点V2在三个谷点中距离F最短,因此在后续计算过程中忽略它。V1和V3中到F的最长距离将被标记为小指谷点Vlittle。则另一个谷点将标记为Vindex。根据手旋转所朝向的方向不同,构建ROI的计算方法有所不同,通常使用两种类型的公式来简化复杂性。通过令
Figure BDA0002768594320000061
来表示Δy和Δx的大小,其中
Figure BDA0002768594320000062
则:
Figure BDA0002768594320000071
Figure BDA0002768594320000072
收集完相关信息后,通过利用式(3)来计算手掌中心与F所在直线倾斜的角度:
Figure BDA0002768594320000073
从所获得的角度,可以确定图像中手的指向,即上或下。若角度在0°到180°之间,则将手定义为朝下。若角度在180°到360°之间,则手将被视为指上方向。
确定方向后,计算出从Vindex到Vlittle的角度θ,以便决定是将坐标点Δxvertical,Δyvertical还是点Δxnormal,Δynormal代入到式(4)中的Δx和Δy来构建ROI区域的坐标点。
(XROI,YROI)=Δx*α+XV,Δy*α+YV (4)
其中α是公式中构建的ROI与谷点之间距离的平滑因子。并基于角度来确定构建ROI的点,当手面指向上并满足90°<θ<270°条件时,采用等式(4)中Δxnormal,Δynoraml来定位正确的ROI点坐标。同时,当手面指向下且角度为0°<θ<90°或270°<θ<360°时,也可以使用等式(4)中的Δxnormal,Δynoraml。相反,当手指向下,且角度为90°<θ<270°时,或手指向上且角度为0°<θ<90°或270°<θ<360°时,则使用坐标点Δxvertical,Δyvertical
在获得前两个ROI点,即ROIlittle和ROIindex之后,还将根据上述条件使用等式(4)确定最后两个ROI点,以构建完整的ROI。然而,θ常数将会由ROIlittle和ROIindex之间的大小替代以构成平方ROI。并最终在手掌上绘制并裁剪ROI区域。最后,通过计算手掌中心点坐标到点
Figure BDA0002768594320000074
的角度即可进行匹配。所得出的角度将被视为将ROI图像旋转到0°的角度。
手掌静脉预处理和特征提取
本发明利用小波阈值去噪方法对手掌ROI区域进行去噪处理。本发明采用小波阈值去噪的具体步骤为:首先利用db3小波基函数对原始的ROI掌静脉图像进行小波分解,然后利用软阈值策略公式(9)对图像进行去噪:
Figure BDA0002768594320000081
上式中,w为原始小波系数,wnew为经过软阈值处理后的新的小波系数,阈值
Figure BDA0002768594320000082
σ是方差。本发明利用小波阈值去噪方法对ROI图像去噪后的效果如图5所示,由效果图可得经过小波去噪后的掌静脉ROI图像的质量得到明显提升。
限制对比度自适应直方图均衡化方法(CLAHE)在增强图像局部对比度的同时,可以获取更多的图像细节信息。该均衡化方法步骤如下:
首先,将掌静脉ROI图像分割为M×N个互不重叠的子区域,并计算每个子区域的灰度直方图,使得每个子区域的灰度级都是平均像素数,具体数学表达式为(6):
Figure BDA0002768594320000083
其中,Nx与Ny分别为子区域尺寸的参数,Ngray为子区域灰度级。然后将截取阈值为K,则将大于
Figure BDA0002768594320000084
的像素点进行截取,截取的像素总数为∑Nv,利用∑Nv/Ngray计算截取出来的像素重新分配到每个灰度级的像素个数。最后对每一块子区域截取的直方图进行均衡化,并利用变换函数计算新的灰度值。CLAHE方法对掌脉ROI图像增强后的效果如图6,图像纹理区域对比度和整体对比度已大幅度提高。
本发明利用竞争编码提取掌脉方向特征,因为掌脉和掌纹方向特征相似,故具有可行性。该方法对采集到的图像的角度进行编码。并且基于方向的竞争编码用于寻找手掌静脉图像的每个像素,将图像从灰度空间投射到方向信息空间。这提供了良好的方向选择和比例选择。此外,它对光线变化有良好的适应性。掌脉的方向信息可以通过Gabor滤波器获得。Gabor滤波器的定义如下:
Figure BDA0002768594320000091
其中,x′=(x-x0)cosθ+(y-y0)sinθ;y′=-(x-x0)sinθ+(y-y0)cosθ;(x0,y0)代表滤波器的中心点;ω为径向频率;θ表示过滤器角;
Figure BDA0002768594320000092
δ表示频率响应的一半带宽。根据欧拉公式可知,Gabor滤波器的表达式如下:
Figure BDA0002768594320000093
首先创建一个线段的高斯模型如下:
Figure BDA0002768594320000094
其中σL为剖面的标准差,可视为线的宽度。(xp,yp)是这条线的中心。M是用于控制直线梯度的一个正实数。N表示亮度,取决于采集环境。θL代表一条直线的角度。对该直线xcosθL+ysinθL=0在中点进行滤波响应如下:
Figure BDA0002768594320000095
其中φ=θ2θL
Figure BDA0002768594320000096
竞争编码方法的目的是对直线进行编码。而这个角度下各种直线是无差别的。谷这里不直接使用对应的R值,而采用一种竞争规则来获取直线角度,该规则可定义为argminj(H(x,y)*ΨR(x,y,wθj))。其中H是预处理后的图像,ΨR是Gabor滤波器的实部。θj为滤波角度,其中j={0,1,2,3,4,5}代表滤波器选取的六个角度[0,π/6,...,π]。
在竞争编码角度匹配的基础上,引入了一种相似性度量方法。即两幅图像两组特征向量之间的“距离”定义,距离越小越相似。本发明中需要度量的是编码后的特征向量P和Q。其中PMQM是要匹配的图像的掩码。对两幅图像编码后的距离D(P,Q)计算如下:
Figure BDA0002768594320000101
其中G(P(x,y),Q(x,y))表示编码图像对应点之间的角差的绝对值。本发明输入手掌静脉的ROI原始图像,在不同方向获得的竞争码特征如图7:
改进的投影字典对学习方法
在K类手掌图像中一组p维的训练样本集用X=[X1,...,Xk,...,XK]表示,其中
Figure BDA0002768594320000102
是k类的手掌图像训练样本集,n为每个类别的样本数量。一般字典学习在本质上是大数据集的降维表示,它总是试图学习样本背后最原始的样本特征,通过学习一个有效的训练模型来进行分类任务。该模型框架可表示为:
Figure BDA0002768594320000103
其中λ≥0是标量常数,Y是训练样本集X的类标签矩阵,D是要学习的合成字典,数据保真度
Figure BDA0002768594320000104
确保了D的表示能力;C是X相对于D的编码系数矩阵。||C||p是C上的lp-norm正则化器;而Ψ(D,C,Y)则代表了确保了字典的辨别提升能力。
投影字典对学习(DPL)引入一种新的DL框架,该框架将传统的判别式合成字典学习(DL)扩展到判别式合成分析字典对学习。其次DPL使用分析编码机制有效地提高训练和测试阶段的效率。假设在传统DL训练模型中存在某个分析字典G,且通过C=GX来分解编码C,那么就极大缩短时间。并且通过投影的方式来代替DL模型中的l0或l1-norm稀疏正则化器一定程度上节约了成本。基于该思想,对传统的模型进行改进得出DPL模型如下:
Figure BDA0002768594320000111
其中,分析字典用
Figure BDA0002768594320000112
来表示,Ψ(D,G,X,Y)为判别函数,D和G形成字典对。分析字典G对X进行解析编码,合成字典D重建X。Ψ(D,G,X,Y)的设计简洁程度决定了DPL模型的判别能力。DPL模型的设计用于学习结构化合成字典D=[D1,...,Dk,...,DK]和结构化分析字典G=[G1,...,Gk,...,GK]。
Figure BDA0002768594320000113
形成对应于类别k的子字典对。故DPL模型如式(14),其中τ是标量常数,
Figure BDA0002768594320000114
为X中去掉Xk的部分。
Figure BDA0002768594320000115
根据竞争编码原理得知其是一种基于方向的表示方法,通过竞争编码来寻找手掌静脉图像的每个像素并将图像从灰度空间映射到方向信息空间进行匹配的方法。并且掌脉有与掌纹有相似且可以用来提取的方向特征。但是利用竞争编码单一进行提取,并不能达到预期的效果,并且过程耗时。而DPL方法提高了速度同时提高了识别率。基于这两方面,本发明将竞争编码方法与DPL方法相结合,通过输入特征提取后的掌脉样本X,测试样本y,参数m、τ、λ、γ,最后得出字典G和D。其方法过程如下:
(1)固定G和D,更新C:
Figure BDA0002768594320000116
解决该标准的最小二乘问题:
Figure BDA0002768594320000117
(2)固定C,更新D和G:
Figure BDA0002768594320000121
得出分析字典G的闭式解:
Figure BDA0002768594320000122
(3)判定与分类:第k类的子字典对能够最小化第k类样本的重构误差。若手掌静脉图像y属于k类别,则特定于类的重构残差
Figure BDA0002768594320000123
可用于识别y的类标签来判定y的类别,即DPL模型分类器如下:
Figure BDA0002768594320000124
实验仿真及分析
本实验使用960nm CASIA数据库的近红外手掌静脉图像数据库与沈阳工业大学基准数据库(SUT)。在CASIA数据库选60名受试者,每个受试者10个样本;基准数据库选取50名受试者,每个受试者10个样本。经处理数据集中每一个ROI图像的大小为128×128像素。分别从12个不同角度对两个数据库提取的手掌感兴趣区域检测方法进行评估。本次实验中的掌静脉图像噪声小,掌脉路清晰可见。实验的评估中,使用了
Figure BDA0002768594320000126
Core i7-4500U(2.39GHz)与4GB RAM的笔记本电脑。
分别利用CASIA数据库以及基准数据库进行手掌ROI区域提取测试,其中,表1和表2列出了以上两个数据库的ROI在不同的手掌旋转角度下的提取成功率。
表1.CASIA数据库的正确的ROI提取率
Figure BDA0002768594320000125
Figure BDA0002768594320000131
表2.基准数据库的正确的ROI提取率
Figure BDA0002768594320000132
从表1中可以看出,当在不同角度提取时ROI区域时,两个数据库的ROI提取成功率在90°和270°处提取成功率较低。在CASIA数据库中左手正确提取率分别为90.67%和93.83%,右手的正确提取率分别为91.33%和92.33%。而在基准数据库中,左手在90°时为93.23%,270°时为91.40%,右手在90°和270°时同为97%。
这两个数据库中左手图像的变化程度比右手大,主要是受手的姿势和角度所影响,并且变化还影响了ROI检测的准确性。两个数据库左手和右手的正确ROI提取率显示出比属于在象限角(Quadrantal Angles,QA)90°、270°中有更显著的结果。因为在象限角度上,ROI的提取成功率主要受手部姿势所影响。这种姿势导致识别中直接将食指指尖视为最长的指尖点F。图8描绘了来自CASIA数据库的所述特定手姿势,而该姿势扭曲了双手的手指标签,从而得出错误的手掌感兴趣区。
此外,除了上述提到的手势问题影响正确的ROI提取率之外,识别还受象限角问题(Quadrantal Angel Problem,QAP)的角度问题影响。在图9中可以观察到,指尖的检测是正确的。但是由于角度的极小的差异影响了手识别的指向,导致ROI提取中公式使用错误。而QAP问题主要是由QA区域内错误使用ROI坐标点,因此产生了一个错误的ROI区域。
并且在象限角问题中,手面指向上或下的检查不够准确。因此在手朝上的检测中可以正确应用ROI公式。但当手在手掌中心到最长指尖点进入Q1角度区域时,系统确定为朝上。但在该情况下,必须定为面朝下才能应用正确的ROI坐标。因此在数据库手部图像中,存在±15°的微小角度差异,也会导致确定错误的手部方向。
可以进一步观察到,右手在这些象限角度中提供了更好的ROI提取成功率。主要原因是左手的角度变化大,而在这样大角度变化下定位正确的ROI变得更加困难。但尽管QA中的ROI提取成功率不稳定,其他因素的成功率却很高。CASIA数据库左右手的ROI提取成功率峰值位于30°处,提取率分别为98.57%和96.27%。基准数据库左右手的正确ROI提取率的峰值出现在330°处,左右手的结果分别为99.40%和99.60%。
这表明,所提出的ROI构建方法能够处理大多数角度旋转,并且,在除QA区域之外的正常比率质量图像下可以执行相对稳定的ROI检测。但是,CASIA库中两只手在240°的ROI提取率并没有超过双手的成功率阈值。这是因为在旋转中,240°非常接近270°的关系,因此受到了象限角(QA)问题的影响。
改进结合DPL学习的掌脉识别
在凸壳方法提取ROI后,在不同角度上通过滤波器以获得手掌静脉的不同竞争编码特征。通过DPL学习不同方向上的掌脉竞争编码特征,然后对其进行分类和识别并计算每种情况下的正确识别率,并与改进前方法进行对比。当从0°,30°,60°,90°,120°,150°六个方向获取手掌静脉竞争编码特征后,由DPL学习,结果如表3所示:
表3.六个方向的手掌静脉竞争编码特征
Figure BDA0002768594320000151
当以0°,20°,40°,60°,80°,100°,120°,140°,160°,180°方向的手掌静脉竞争编码特征为提取特征,然后由DPL学习,实验结果如下表4所示:
表4.十个方向的手掌静脉竞争编码特征
Figure BDA0002768594320000152
从以上两个表中可以看出,DPL学习后的掌静脉竞争代码特征的分类得到了改善。当通过在六个不同方向上提取手掌静脉竞争编码特征时,其识别率为96.63%,经过DPL学习后的竞争编码特征的识别率为98.94%。可以看出,通过DPL学习后,掌静脉竞争编码的识别率有所提高。当使用了十个不同方向的滤波器来提取掌静脉竞争编码特征并由DPL学习后,与表3比较可知,更多定向过滤器提取手掌静脉特征,识别率就更高。
为了验证方法的优越性与有效性,将本发明方法分别在CASIA公开数据库与SUT基准数据库中,分别与SRC、FDDL、KSVD三种方法在分类精度、训练耗时和测试耗时三方面进行实验对比。分别记录不同数据库下的识别成功率,在CASIA公开数据库的实验结果如表5所示:
表5.在CASIA数据库上的识别结果
Figure BDA0002768594320000161
在基准数据库中对比结果如表6所示:
表6.SUT数据库上的识别结果
Figure BDA0002768594320000162
从上表可看出,改进的DPL方法相比表中其他方法的在掌脉识别中具有很大竞争力。相比KSVD、FDDL等利用稀疏编码求解训练字典的方法,改进的DPL识别速度更快,识别率更高的优点。实验可知,经改进DPL学习后的掌脉特征相较于DL方法的识别率不仅得到提高而且大大降低训练和测试阶段的耗时,证明了DPL方法在掌脉中的有效性。
为了解决手掌旋转导致ROI提取不准确和识别率低的问题,本发明提出了一种基于投影字典对学习的非接触式旋转不变的手掌静脉识别方法。并在数据库上对本发明所提出方法进行仿真验证。结果表明,本发明所提方法不仅在可见距离内能有效捕获和提取自由旋转的手掌ROI区域,弥补了旋转识别中角度过低的问题。并且在不同手掌方向下本发明结合竞争编码特征和DPL分类达到了98.94%识别的准确率,相较于DL方法大大降低了训练和测试时间的同时,提高了识别准确度,具有一定研究价值。
以上所述是本发明的优选实施方式而已,当然不能以此来限定本发明之权利范围,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和变动,这些改进和变动也视为本发明的保护范围。

Claims (3)

1.一种基于旋转不变的手掌静脉识别方法,其特征在于,包括以下步骤:
步骤S1:利用凸壳方法提取的手部轮廓、指尖点和手谷点来构建不受手部旋转影响的ROI图像区域;
步骤S2:对ROI图像进行去噪和图像增强,并提取基于方向的竞争编码特征;
步骤S3:利用竞争编码特征改进投影字典对学习模型进行分类。
2.如权利要求1所述的基于旋转不变的手掌静脉识别方法,其特征在于,在步骤S1中,包括如下步骤:
S11、选择x坐标最小值的一个凸点;
S12、在确定手掌轮廓的基础上,分别对基于凸壳点H和凸缺陷点V来检测指尖和谷点;
S13、利用最小包围圆方法计算手掌中心坐标并构建一个包含所有谷点的最小圆。
3.如权利要求1所述的基于旋转不变的手掌静脉识别方法,其特征在于,在步骤S2中,利用小波阈值去噪方法对手掌ROI区域进行去噪处理。
CN202011241641.8A 2020-11-09 2020-11-09 一种基于旋转不变的手掌静脉识别方法 Pending CN112270287A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011241641.8A CN112270287A (zh) 2020-11-09 2020-11-09 一种基于旋转不变的手掌静脉识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011241641.8A CN112270287A (zh) 2020-11-09 2020-11-09 一种基于旋转不变的手掌静脉识别方法

Publications (1)

Publication Number Publication Date
CN112270287A true CN112270287A (zh) 2021-01-26

Family

ID=74339565

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011241641.8A Pending CN112270287A (zh) 2020-11-09 2020-11-09 一种基于旋转不变的手掌静脉识别方法

Country Status (1)

Country Link
CN (1) CN112270287A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780122A (zh) * 2021-08-30 2021-12-10 沈阳大学 基于手掌静脉特征加密的识别模板生成方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567708A (zh) * 2010-12-27 2012-07-11 北京北科慧识科技股份有限公司 生物特征提取方法、装置及生物识别方法、系统
CN104318213A (zh) * 2014-10-21 2015-01-28 沈阳大学 一种利用人体手掌生物信息识别身份的方法
CN104615635A (zh) * 2014-11-10 2015-05-13 南方医科大学 基于方向特征的手掌静脉分类索引构建方法
CN106250823A (zh) * 2016-07-21 2016-12-21 同济大学 一种掌纹掌脉识别方法及掌纹掌脉图像采集仪
CN108509886A (zh) * 2018-03-26 2018-09-07 电子科技大学 基于静脉像素点判定的掌静脉识别方法
CN210573970U (zh) * 2019-09-04 2020-05-19 北京眼神智能科技有限公司 一种指静脉门禁及系统
CN210573996U (zh) * 2019-09-04 2020-05-19 北京眼神智能科技有限公司 贴壁式指静脉门禁终端及指静脉门禁控制系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567708A (zh) * 2010-12-27 2012-07-11 北京北科慧识科技股份有限公司 生物特征提取方法、装置及生物识别方法、系统
CN104318213A (zh) * 2014-10-21 2015-01-28 沈阳大学 一种利用人体手掌生物信息识别身份的方法
CN104615635A (zh) * 2014-11-10 2015-05-13 南方医科大学 基于方向特征的手掌静脉分类索引构建方法
CN106250823A (zh) * 2016-07-21 2016-12-21 同济大学 一种掌纹掌脉识别方法及掌纹掌脉图像采集仪
CN108509886A (zh) * 2018-03-26 2018-09-07 电子科技大学 基于静脉像素点判定的掌静脉识别方法
CN210573970U (zh) * 2019-09-04 2020-05-19 北京眼神智能科技有限公司 一种指静脉门禁及系统
CN210573996U (zh) * 2019-09-04 2020-05-19 北京眼神智能科技有限公司 贴壁式指静脉门禁终端及指静脉门禁控制系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780122A (zh) * 2021-08-30 2021-12-10 沈阳大学 基于手掌静脉特征加密的识别模板生成方法及装置
CN113780122B (zh) * 2021-08-30 2023-12-05 沈阳大学 基于手掌静脉特征加密的识别模板生成方法及装置

Similar Documents

Publication Publication Date Title
Li et al. Expression-robust 3D face recognition via weighted sparse representation of multi-scale and multi-component local normal patterns
Jiang et al. Multi-layered gesture recognition with Kinect.
Alsmadi et al. Fish recognition based on robust features extraction from size and shape measurements using neural network
EP2797030B1 (en) Biometric recognition
US8452108B2 (en) Systems and methods for image recognition using graph-based pattern matching
WO2017088109A1 (zh) 一种掌静脉识别的方法和掌静脉识别装置
WO2017219391A1 (zh) 一种基于三维数据的人脸识别系统
Joshi et al. Latent fingerprint enhancement using generative adversarial networks
Feng et al. Robust and efficient algorithms for separating latent overlapped fingerprints
CN111126240B (zh) 一种三通道特征融合人脸识别方法
CN111639562B (zh) 一种手掌感兴趣区域的智能定位方法
CN110895683A (zh) 一种基于Kinect的单视点手势姿势识别方法
CN109886091B (zh) 基于带权重局部旋度模式的三维人脸表情识别方法
CN109523484B (zh) 一种基于分形特征的手指静脉血管网络修复方法
Doroz et al. Multidimensional nearest neighbors classification based system for incomplete lip print identification
CN107103289B (zh) 利用笔迹轮廓特征来进行笔迹鉴别的方法及系统
CN112270287A (zh) 一种基于旋转不变的手掌静脉识别方法
CN110516638B (zh) 一种基于轨迹和随机森林的手语识别方法
Oldal et al. Biometric Authentication System based on Hand Geometry and Palmprint Features.
Leibe et al. Interleaving object categorization and segmentation
Sajjad et al. Iris image enhancement for the recognition of non-ideal iris images
Stojanović et al. Segmentation and separation of overlapped latent fingerprints: Algorithms, techniques, and datasets
CN117133022B (zh) 彩色图像掌纹识别方法及装置、设备、存储介质
Shreya et al. GAN-enable latent fingerprint enhancement model for human identification system
Khalid et al. Palmprint ROI Cropping Based on Enhanced Correlation Coefficient Maximisation Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination