CN110472479B - 一种基于surf特征点提取和局部lbp编码的指静脉识别方法 - Google Patents
一种基于surf特征点提取和局部lbp编码的指静脉识别方法 Download PDFInfo
- Publication number
- CN110472479B CN110472479B CN201910576939.5A CN201910576939A CN110472479B CN 110472479 B CN110472479 B CN 110472479B CN 201910576939 A CN201910576939 A CN 201910576939A CN 110472479 B CN110472479 B CN 110472479B
- Authority
- CN
- China
- Prior art keywords
- matching
- feature
- nearest neighbor
- histogram
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于SURF特征点提取和局部LBP编码的指静脉识别方法,包括如下步骤:(1)手指静脉图像的采集;(2)针对采集到的图像进行感兴趣区域的提取;(3)图像的预处理;(4)图像空间域增强图像的去模糊;(5)基于SURF算法的特征点提取获取最优匹配对及其最近邻和次近邻匹配信息;(6)特征点构造特征块进行LBP编码,计算直方图,进行最近邻直方图对比;(7)最近邻直方图和次近邻直方图比值筛选;(8)对筛选后的匹配对进行位置偏移度分析;(9)构造分数模型,进行相似度计算。本发明利用最优匹配对对数占比,结合所有最近邻的特征块LBP直方图相似度分数,综合衡量图片的相似度,综合考量了匹配点的空间位置信息和邻域像素分布信息,二者结合,较为准确地获得识别结果。
Description
技术领域
本发明涉及图像处理与生物识别技术领域,具体涉及一种基于SURF特征点提取和局部LBP编码的指静脉识别方法。
背景技术
现有的基于特征点检测的识别方法,主要是利用最小欧式距离进行匹配。对匹配点的确定主要使用最近邻匹配法和特征点对距离小于特定值匹配法。第一种方法通过计算最接近距离和次接近距离之间的比值,当该比值大于既定值时,才作为最终匹配点。第二种方法是预先设定一个值,当最小的欧氏距离小于既定值时,才作为最终匹配点。上述方法中,最近邻欧氏距离匹配存在明显缺陷,因为阈值选取会对匹配效果有很大影响:若选取的阈值较大,容易引起误匹配;选取的太小,则可能找不到匹配对,尤其当图像的成像质量较差时,这一问题更加明显。此外,待匹配图像中往往存在相似的区域,一些相似点的特征向量甚至比正确匹配点更接近于待匹配点,易引起误匹配。特征点对距离小于特定值匹配法由于也涉及阈值的预先设定,其阈值的大小同样会引起误匹配和出现匹配对数较少的问题。
现有的静脉识别算法大致分为基于细节及特征点的方法,基于局部模式的方法以及基于纹理网络的方法。基于细节点的方法通常利用特征点或相关的特征计算两幅匹配图像间的相似度,常用的特征点提取方法包括尺度不变性特征变换法(Scale-invariantfeature transform,SIFT)、加速鲁棒特征法(Speed Up Robust Features,SURF)等算法。这两种特征点提取方法能够较好地反映静脉血管纹理分布信息,所以被广泛应用于生物识别领域。天津大学精仪学院李秀艳团队提出了基于SURF算子的快速手背静脉识别方法,将加速鲁棒特征法应用到手背静脉识别中,他们通过SURF特征点之间的欧式距离来获得匹配对,并将特征匹配对的多少作为手背识别的依据。湖南大学杨文文团队针对传统的LBP特征提取作用于样本全局、对于细节的描述不够细致、识别效果不好等问题,提出了分块LBP编码的方法,并将得到的分块LBP直方图特征向量进行PCA降维,以便有效的获取静脉的局部特征,该算法取得了较好的识别效果。山东财经大学的孟宪静团队为了解决手指静脉图像对比度低、模糊等问题,利用灰度不均匀法来矫正并增强图像细节,采用SIFT来检测特征点,并通过构造每个特征点潜在匹配点的欧氏距离矩阵进行相似度计算,从而避免了使用近邻欧氏距离比例匹配带来的误配问题。其发表的方法在山东大学指静脉库(MLA)和香港理工大学手指静脉库上取得了较好的效果。
现有的基于特征点的指静脉识别方法一般使用近邻欧氏距离比例匹配法得到特征点匹配对,并将筛选后的匹配对个数作为最终的评判标准。然而这种匹配存在明显缺陷,因为最近邻与次近邻的比例阈值的选取对匹配效果的影响很大,阈值较大,容易引起误匹配,阈值较小,生成的匹配对少,当图像的成像质量较差时,这一问题尤为明显。此外,一些相似点的邻域特征甚至比正确匹配点更接近于待匹配点。而基于LBP特征编码的方法通常针对于全局,对于细节的描述不够细致,识别效果不好。
发明内容
有鉴于此,为了解决现有技术中的上述问题,本发明提出一种基于SURF特征点提取和局部LBP编码的指静脉识别方法,利用特征点构造的特征块进行局部LBP编码并计算直方图,再进行最近邻直方图对比,得到直方图相似度分数,然后进行次近邻直方图对比,得到近邻直方图分数比值,据此对匹配对进行筛选。在此基础上,考虑匹配对位置的偏移程度,进一步确定最终的最优匹配对。最后利用最优匹配对对数占比,结合所有最近邻的特征块LBP直方图相似度分数,综合衡量图片的相似度。
本发明通过以下技术手段解决上述问题:
一种基于SURF特征点提取和局部LBP编码的指静脉识别方法,包括如下步骤:
S1、采集手指静脉图像,获取近红外光下的手指图像;
S2、对采集到的图像进行感兴趣区域提取,确定上下、左右边界,获取图像的初始尺寸;
S3、对初始图像进行预处理操作,包括尺度和灰度的归一化;
S4、对步骤S3处理的图像进行限制对比度直方图均衡化增强、多通道Gabor滤波器分割与图像融合,最后进行直方图正反均衡化;
S5、利用SURF算法对图像进行特征点检测,计算每个特征点的欧氏距离,最小欧氏距离对应为最近邻匹配点,同时保留次小欧式距离对应为次近邻匹配点的信息;对所有最近邻匹配点的欧氏距离进行再排序,选择前N个距离最小的匹配对作为计算量;
S6、将已筛选的匹配对的特征点构造成特征块,进行局部LBP编码,计算待匹配点、最近邻点和次近邻点特征块直方图;最后进行最近邻匹配点直方图对比和次近邻匹配点直方图对比,所有最近邻匹配对比分数之和即为图片直方图相似度分数;
S7、对筛选得到的N个最优匹配对进行近邻直方图分数比例筛选,即计算待匹配特征块与最近邻特征块以及次近邻特征块的直方图分数比值,根据最近邻匹配和次近邻点匹配分数比值,对已匹配的点对进行筛选;
S8、考察最近邻匹配对的位置偏移度,以匹配对的两个特征点的领域圆的相交、相切和相离作为偏移度的参考量,进一步确定最终的最优匹配对;
S9、构造分数模型,进行相似度计算,进行图像识别。
进一步地,步骤S4中,对指静脉图像进行增强处理,步骤如下:
(1)使用限制对比度直方图均衡法将图像分成若干个子块,每个子块尺寸为8×8,在每个子块内进行直方图均衡化,若某个子块的直方图幅度大于预设值,则对其进行裁剪并均匀的分布在整个灰度区间中;
(2)构建以π/8为间隔,从0到7π/8共8个方向的甘博滤波器,分别对图片进行滤波处理,对得到的8个响应进行比对筛选,保留各个结果中纹理部分的最大响应;
(3)对(1)(2)步骤重复三次;
(4)对得到的图像进行直方图正反均衡化,即将正均衡化和反均衡化结果进行加权综合,从而增强图像对比度;定义图像任意像素值为I(x,y),正均衡化后为J(I(x,y)),反均衡化为J'(I(x,y)),最终像素值为G(I),计算公式为:
G(I)=λ1J(I(x,y))+λ2J'(I(x,y))
上述式子中,k、t表示灰度级,nk/n、nt/n是灰度级的频数,加权系数λ1、λ2分别取经验值0.8和0.2。
进一步地,步骤S5具体如下:
(1)计算每个特征点的欧氏距离,最小欧氏距离对应为最近邻匹配点,同时保留次小欧式距离对应为次近邻匹配点的信息;对所有最近邻匹配点的欧氏距离进行再排序,选取前N个欧式距离最小的最近邻匹配对作为计算量;
(2)将N个匹配对包含的待匹配点、最近邻点和次近邻点构造成特征块,特征块为正方形,三个正方形特征块边长a由三个特征点领域圆的直径平均值来确定,即a=Dm=(D0+D1+D2)/3。
进一步地,步骤S6具体如下:
(1)对特征块进行等价模式的LBP编码,采样的圆形区域的半径为三个特征点邻域圆平均直径的1/12,即r=(1/12)Dm,编码过程中,特征点以及采样圆上的8个采样点灰度值由双线性插值法得到,对编码后的LBP区域灰度值利用计算直方图函数进行直方图统计,计算每一组匹配对三个特征块直方图;
(2)采用直方图交叉核法,分别对每个匹配对待匹配特征块和最近邻特征块、待匹配特征块和次近邻特征块进行直方图对比;计算公式如下:
首先计算同一尺度下的直方图的交叠程度:
其次计算相邻两个尺度的交叠值之差:
Ni=L(Hi(X),Hi(Y))-L(Hi-1(X),Hi-1(Y))
两直方图的相似度S计算公式为:
上述式子中,Hi(X)、Hi(Y)表示第i个组距,U表示尺度的个数,wi表示不同尺度下的直方图的计算权重;直方图尺度越小,组距的个数越少,相应的wi的值越就越小;
(3)每个待匹配特征块与最近邻特征块直方图对比分数记为Si1,待匹配特征块与次近邻特征块直方图对比分数记为Si2;以所有待匹配特征块与最近邻特征块直方图对比分数Si1的和作为直方图计算分数,则两幅图像的直方图相似度分数为:
进一步地,步骤S7具体如下:
若则认为待匹配点与最近邻点符合匹配标准,该匹配对合理;在理想状态下,最近邻点相比于次近邻点与待匹配点相似度更接近,Si1>Si2,故取阈值经过该条件筛选后,得到的匹配对数为n’;接着定义匹配精确率ε’,则有:
进一步地,步骤S8具体如下:
(1)对筛选后的特征匹配对进行匹配点位置分析,根据位置偏移程度大小去除位置差别较大的匹配对;位置偏移大小由匹配对特征点领域圆的半径判定;计算过程如下:(x1,y1)为待匹配点的坐标,(x2,y2)为最近邻点的坐标,R1、R2分别为待匹配特征点和最近邻特征点邻域圆的半径,首先将待匹配点邻域圆平移到被匹配图片上相同坐标位置,计算待匹配点和最近邻点的邻域圆圆心坐标的距离,若:表示二者邻域圆相离,则两张图片匹配对特征点对应位置偏移太大,认为是误匹配,统计误匹配的个数,记为t;
(2)根据匹配对偏移度对匹配精确率ε’进行修正,得到修正后的匹配精确率ε,则有:
定义分数模型score:
score=ε×S
上式即为两张图片匹配相似度分数。
与现有技术相比,本发明的有益效果至少包括:
本发明舍弃了SURF算法特征点检测后,单一使用近邻欧式距离比例匹配,并且避免了传统的LBP特征提取仅针对样本全局,而对于细节的描述不够细致的问题。本发明利用特征点构造的特征块进行局部LBP编码并计算直方图,先进行最近邻直方图对比,得到直方图相似度分数,然后进行次近邻直方图对比,得到近邻直方图分数比例,据此对匹配对进行筛选;同时考虑了匹配对位置的偏移程度,进一步确定最终的最优匹配对。最后利用最优匹配对对数占比,结合所有最近邻的特征块LBP直方图相似度分数,综合衡量图片的相似度。本专利还对该指静脉的识别算法进行了验证,取得了很好的测试效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明基于SURF特征点提取和局部LBP编码的指静脉识别方法的流程图;
图2是本发明图像预处理的示意图;其中a为手指原图;b为轮廓提取图;C为ROI轮廓图;d为CLAHE增强图;e为CLAHE和Gabor增强图;f为直方图正反均衡化图;g为特征点检测图;
图3是本发明构造特征块的示意图(i=0,1,2);
图4是本发明位置偏移判定示意图;
图5是本发明受试者工作特征曲线图;
图6是本发明累积匹配曲线图;
图7是本发明同源和异源匹配分数散点图(部分)。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面将结合附图和具体的实施例对本发明的技术方案进行详细说明。需要指出的是,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出基于SURF特征点和局部LBP编码的指静脉识别方法,利用特征点构造的特征块进行局部LBP编码并计算直方图,先进行最近邻直方图对比,得到直方图相似度分数,然后进行次近邻直方图对比,得到近邻直方图分数比例,据此对匹配对进行筛选,同时考虑了匹配对位置的偏移程度,进一步确定最终的最优匹配对。最后利用最优匹配对对数占比,结合所有最近邻的特征块LBP直方图相似度分数,综合衡量图片的相似度。
如图1所示,本发明基于SURF特征点提取和局部LBP编码的指静脉识别方法,包括如下步骤:
步骤S1:在近红外条件下采集手指图像(MLA数据库),采集的图片尺寸为320×240(如图2-a所示)。对原始图片进行裁剪,上下分别裁剪20和40,左右分别裁剪40和31。
步骤S2:使用Canny算子对裁剪后的静脉图像进行边缘检测(如图2-b、2-c所示),确定上下边界,去除背景区域,保留前景手指区域,则原始ROI区域如图2-d所示。
步骤S3:对初始图像进行预处理操作,如尺度和灰度的归一化等。
步骤S4:再利用resize函数进行放缩,感兴趣区域保留尺寸为180×80,对指静脉图像进行增强处理,步骤如下:
(1)使用CLAHE(限制对比度直方图均衡法)将图像分成若干个子块,每个子块尺寸为8×8,在每个子块内进行直方图均衡化,若某个子块的直方图幅度大于预设值,则对其进行裁剪并均匀的分布在整个灰度区间中。
(2)构建以π/8为间隔,从0到7π/8共8个方向的Gabor滤波器(甘博滤波器),分别对图片进行滤波处理,对得到的8个响应进行比对筛选,保留各个结果中纹理部分的最大响应。
(3)对(1)(2)步骤重复三次(如图2-e所示)。
(4)对得到的图像进行正反均衡化(如图2-f所示),即将正均衡化和反均衡化结果进行加权综合,从而增强图像对比度。定义图像任意像素值为I(x,y),正均衡化后为J(I(x,y)),反均衡化为J'(I(x,y)),最终像素值为G(I),计算公式为:
G(I)=λ1J(I(x,y))+λ2J'(I(x,y))
上述式子中,k、t表示灰度级,nk/n、nt/n是灰度级的频数,加权系数λ1、λ2分别取经验值0.8和0.2。
步骤S5:使用SURF算法检测灰度图像上的特征点(如图2-g所示),得到待匹配图像上特征点总数并记为M。进而提取特征描述子,构造64维特征向量。计算每个特征点的欧氏距离,最小欧氏距离对应为最近邻匹配点,同时保留次小欧式距离对应为次近邻匹配点信息。对所有最近邻匹配点的欧氏距离进行再排序,选择前N个距离最小的匹配对作为计算量,具体如下:
(1)计算每个特征点的欧氏距离,最小欧氏距离对应为最近邻匹配点,同时保留次小欧式距离对应为次近邻匹配点信息。对所有最近邻匹配点的欧氏距离进行再排序,选取前N个欧式距离最小的最近邻匹配对作为本发明的计算量(本发明中N=40,M>N)。
(2)将N个匹配对包含的待匹配点、最近邻点和次近邻点构造成特征块,特征块为正方形,三个正方形特征块边长a由三个特征点领域圆的直径平均值来确定,即a=Dm=(D0+D1+D2)/3。每个特征块示意图如图3所示。
步骤S6:将已筛选的匹配对的特征点构造成特征块,进行局部LBP编码,计算待匹配点、最近邻点和次近邻点特征块直方图。最后进行最近邻匹配点直方图对比和次近邻匹配点直方图对比,所有最近邻匹配对比分数之和即为图片直方图相似度分数。具体如下:
(1)对特征块进行Uniform Pattern(等价模式)的LBP编码,采样的圆形区域的半径为三个特征点邻域圆平均直径的1/12,即r=(1/12)Dm,编码过程中,特征点以及采样圆上的8个采样点灰度值由双线性插值法得到,对编码后的LBP区域灰度值利用calcHist(计算直方图)函数进行直方图统计,计算每一组匹配对三个特征块直方图(即待匹配点、最近邻点和次近邻点所对应的三个特征块直方图)。
(2)采用直方图交叉核法,分别对每个匹配对待匹配特征块和最近邻特征块、待匹配特征块和次近邻特征块进行直方图对比。计算公式如下:
首先计算同一尺度下的直方图的交叠程度:
其次计算相邻两个尺度的交叠值之差:
Ni=L(Hi(X),Hi(Y))-L(Hi-1(X),Hi-1(Y))
两直方图的相似度S计算公式为:
上述式子中,Hi(X)、Hi(Y)表示第i个组距(bins),U表示尺度的个数,wi表示不同尺度下的直方图的计算权重。直方图尺度越小,组距(bins)的个数越少,相应的wi的值越就越小。本专利中,U=3,尺度大小分别为30、20、10。
(3)每个待匹配特征块与最近邻特征块直方图对比分数记为Si1,待匹配特征块与次近邻特征块直方图对比分数记为Si2。我们以所有待匹配特征块与最近邻特征块直方图对比分数Si1的和作为直方图计算分数,则两幅图像的直方图相似度分数为:
步骤S7:对筛选得到的N个最优匹配对进行近邻直方图分数比例筛选,即计算待匹配特征块与最近邻特征块以及次近邻特征块的直方图分数比值,根据最近邻匹配和次近邻点匹配分数比值,对已匹配的点对进行筛选,具体如下:
若则认为待匹配点与最近邻点符合匹配标准,该匹配对合理。在理想状态下,最近邻点相比于次近邻点与待匹配点相似度更接近,Si1>Si2,故我们取阈值经过该条件筛选后,得到的匹配对数为n’。接着,我们定义匹配精确率ε’,则有:
步骤S8:考察最近邻匹配对的位置偏移度,以匹配对的两个特征点的领域圆的相交、相切和相离作为偏移度的参考量,进一步确定最终的最优匹配对,具体如下:
(1)对上述筛选后的特征匹配对进行匹配点位置分析,根据位置偏移程度大小去除位置差别较大的匹配对。位置偏移大小由匹配对特征点领域圆的半径判定。计算过程如下:
如图4所示,(x1,y1)为待匹配点的坐标,(x2,y2)为最近邻点的坐标,R1,R2分别为待匹配特征点和最近邻特征点邻域圆的半径,首先将待匹配点邻域圆平移到被匹配图片上相同坐标位置,计算待匹配点和最近邻点的邻域圆圆心坐标的距离,若:表示二者邻域圆相离,则两张图片匹配对特征点对应位置偏移太大,认为是误匹配,统计误匹配的个数,记为t;
(2)根据匹配对偏移度对匹配精确率ε’进行修正,得到修正后的匹配精确率ε,则有:
定义分数模型score:
score=ε×S
上式即为两张图片匹配相似度分数。
步骤S9:将输入图像与数据库中所有注册图像之间的匹配分数进行排序,匹配分数最大的手指类别作为输入图像的类别,若该匹配分数小于预设阈值,则识别失败,给出识别结果。
本发明可广泛用于需要身份识别的场景,例如考勤、打卡、安保等系统。
本发明的手指静脉识别算法验证实验采用山东大学机器学习与数据挖掘实验室公开的数据库。该数据库中共有636类手指,每个手指有6幅图,共有3816幅图像,图像尺寸为320x240。在识别模式下,每一类手指随机选取一幅图像作为测试图像,每一类手指的剩下5幅图像组成模板数据库图像,共测试十次,平均识别率为98.1%。在验证模式下,为了减少计算时间,我们随机选取了400根手指进行测试。在异源匹配中,每一幅图像都和其它399个手指的6幅图像进行异源匹配计算,相应地可以得到5745600个异源匹配分数。在同源匹配中,每一幅图像都和同类的另外5幅图像进行同源匹配计算,由此可以得到12000个同源匹配距离。实验结果表明EER(等误率)为0.05(如图5所示)。识别模式下,留一法测试过程中,累积匹配曲线如图6所示。验证模式下,部分同源和异源匹配分数散点图如图7所示。可以看出,识别模式和验证模式下的相关指标都取得了较好的结果,证明基于SURF特征点提取和局部LBP编码的指静脉识别方法具有较高的实用价值。
本发明提出了基于SURF(加速鲁棒特征法)特征点提取和局部LBP(局部二值模式)编码的指静脉识别方法,可以避免在先验条件下仅用阈值门限确定最优匹配点所带来的问题。本发明首先通过对所有特征点对间的欧氏距离进行排序,获取与待匹配特征点相对应的最近邻点和次近邻点信息。其中最近邻点即为欧式距离最小的匹配点,与待匹配点构成匹配对。然后选取所有最小欧氏距离中,数值最小的前N个特征匹配对作为我们的研究对象。接着将筛选出的这N个待匹配点及其最近邻点和次近邻点构造成正方形特征块,进行局部LBP编码,分别计算直方图,并将待匹配点和最近邻点的直方图对比分数作为两张图片直方图相似度分数。同时计算待匹配点和次近邻点的直方图对比分数,将最近邻匹配直方图对比分数和次近邻匹配直方图对比分数的比值作为精确匹配点的筛选条件,获得精确匹配对。另外,本专利还考虑了最近邻匹配特征块的相对位置偏移度,从而进一步确定最终的最优匹配对。最后利用最优匹配对对数占比,结合最近邻的特征块直方图相似度分数,综合衡量图片的相似度。
本发明的有益效果至少包括:
(1)对灰度图进行特征点提取,不仅考虑了近邻欧氏距离,还结合了近邻对比直方图比例匹配,最大程度上提高了匹配精确度;
(2)利用SURF算法原理,将精确计算确定的邻域圆大小,作为特征点构造特征块的依据。每个特征点都有属于自己相应大小的特征块,从而实现了局部纹理特征的自适应LBP编码,最大程度避免了全局LBP特征下,细节描述不够细致的问题;
(3)放弃了常用的最近邻欧氏距离算法得到特征点匹配对,而是直接选择所有匹配对中欧式距离最小的N个匹配对作为研究对象,既保证了足够数量的匹配对,也一定程度上回避了最近邻算法由于阈值η选取带来的不确定性。而N的取值,在小于M的较大区间内,对最终最佳匹配分数的影响并不大,更多的是与计算时间有关,相比于η有更强的鲁棒性;
(4)考虑了在SURF算法下,异源图片匹配点对位置偏移较大,而同源图片匹配点对位置偏移较小,且理想状态下匹配点位置重合的特征,通过引入特征点的邻域圆位置偏移度这一概念,同时考虑匹配对的两个点左右和上下偏移程度,对匹配对进行再筛选,从而获得最优的匹配对。由于每个特征点邻域圆的大小是唯一确定的,从而不需要人为确定一个固定的偏移阈值,灵活地根据特征点的参数信息,自适应地实现去除位置偏离较大的匹配对;
(5)综合考量了匹配点的空间位置信息和邻域像素分布信息,二者结合,较为准确地获得识别结果。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (5)
1.一种基于SURF特征点提取和局部LBP编码的指静脉识别方法,其特征在于,包括如下步骤:
S1、采集手指静脉图像,获取近红外光下的手指图像;
S2、对采集到的图像进行感兴趣区域提取,确定上下、左右边界,获取图像的初始尺寸;
S3、对初始图像进行预处理操作,包括尺度和灰度的归一化;
S4、对步骤S3处理的图像进行限制对比度直方图均衡化增强、多通道Gabor滤波器分割与图像融合,最后进行直方图正反均衡化;
S5、利用SURF算法对图像进行特征点检测,计算每个特征点的欧氏距离,最小欧氏距离对应为最近邻匹配点,同时保留次小欧式距离对应为次近邻匹配点信息;对所有最近邻匹配点的欧氏距离进行再排序,选择前N个距离最小的匹配对作为计算量;
S6、将已筛选的匹配对的特征点构造成特征块,进行局部LBP编码,计算待匹配点、最近邻点和次近邻点特征块直方图;最后进行最近邻匹配点直方图对比和次近邻匹配点直方图对比,所有最近邻匹配对比分数之和即为图片直方图相似度分数;
S7、对筛选得到的N个最优匹配对进行近邻直方图分数比例筛选,即计算待匹配特征块与最近邻特征块以及次近邻特征块的直方图分数比值,根据最近邻匹配和次近邻点匹配分数比值,对已匹配的点对进行筛选;
S8、考察最近邻匹配对的位置偏移度,以匹配对的两个特征点的领域圆的相交、相切和相离作为偏移度的参考量,进一步确定最终的最优匹配对;
S9、构造分数模型,进行相似度计算,进行图像识别;
步骤S6具体如下:
(1)对特征块进行等价模式的LBP编码,采样的圆形区域的半径为三个特征点邻域圆平均直径的1/12,即r=(1/12)Dm,编码过程中,特征点以及采样圆上的8个采样点灰度值由双线性插值法得到,对编码后的LBP区域灰度值利用计算直方图函数进行直方图统计,计算每一组匹配对三个特征块直方图;
(2)采用直方图交叉核法,分别对每个匹配对待匹配特征块和最近邻特征块、待匹配特征块和次近邻特征块进行直方图对比;计算公式如下:
首先计算同一尺度下的直方图的交叠程度:
其次计算相邻两个尺度的交叠值之差:
Ni=L(Hi(X),Hi(Y))-L(Hi-1(X),Hi-1(Y))
两直方图的相似度S计算公式为:
上述式子中,Hi(X)、Hi(Y)表示第i个组距,U表示尺度的个数,wi表示不同尺度下的直方图的计算权重;直方图尺度越小,组距的个数越少,相应的wi的值越就越小;
(3)每个待匹配特征块与最近邻特征块直方图对比分数记为Si1,待匹配特征块与次近邻特征块直方图对比分数记为Si2;以所有待匹配特征块与最近邻特征块直方图对比分数Si1的和作为直方图计算分数,则两幅图像的直方图相似度分数为:
2.根据权利要求1所述的基于SURF特征点提取和局部LBP编码的指静脉识别方法,其特征在于,步骤S4中,对指静脉图像进行增强处理,步骤如下:
(1)使用限制对比度直方图均衡法将图像分成若干个子块,每个子块尺寸为8×8,在每个子块内进行直方图均衡化,若某个子块的直方图幅度大于预设值,则对其进行裁剪并均匀的分布在整个灰度区间中;
(2)构建以π/8为间隔,从0到7π/8共8个方向的甘博滤波器,分别对图片进行滤波处理,对得到的8个响应进行比对筛选,保留各个结果中纹理部分的最大响应;
(3)对(1)(2)步骤重复三次;
(4)对得到的图像进行正反均衡化,即将正均衡化和反均衡化结果进行加权综合,从而增强图像对比度;定义图像任意像素值为I(x,y),正均衡化后为J(I(x,y)),反均衡化为J'(I(x,y)),最终像素值为G(I),计算公式为:
G(I)=λ1J(I(x,y))+λ2J'(I(x,y))
上述式子中,k、t表示灰度级,nk/n、nt/n是灰度级的频数,加权系数λ1、λ2分别取经验值0.8和0.2。
3.根据权利要求2所述的基于SURF特征点提取和局部LBP编码的指静脉识别方法,其特征在于,步骤S5具体如下:
(1)计算每个特征点的欧氏距离,最小欧氏距离对应为最近邻匹配点,同时保留次小欧式距离对应为次近邻匹配点信息;对所有最近邻匹配点的欧氏距离进行再排序,选取前N个欧式距离最小的最近邻匹配对作为计算量;
(2)将N个匹配对包含的待匹配点、最近邻点和次近邻点构造成特征块,特征块为正方形,三个正方形特征块边长a由三个特征点领域圆的直径平均值来确定,即a=Dm=(D0+D1+D2)/3。
5.根据权利要求4所述的基于SURF特征点提取和局部LBP编码的指静脉识别方法,其特征在于,步骤S8具体如下:
(1)对筛选后的特征匹配对进行匹配点位置分析,根据位置偏移程度大小去除位置差别较大的匹配对;位置偏移大小由匹配对特征点领域圆的半径判定;计算过程如下:(x1,y1)为待匹配点的坐标,(x2,y2)为最近邻点的坐标,R1、R2分别为待匹配特征点和最近邻特征点邻域圆的半径,首先将待匹配点邻域圆平移到被匹配图片上相同坐标位置,计算待匹配点和最近邻点的邻域圆圆心坐标的距离,若:表示二者邻域圆相离,则两张图片匹配对特征点对应位置偏移太大,认为是误匹配,统计误匹配的个数,记为t;
(2)根据匹配对偏移度对匹配精确率ε’进行修正,得到修正后的匹配精确率ε,则有:
定义分数模型score:
score=ε×S
上式即为两张图片匹配相似度分数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910576939.5A CN110472479B (zh) | 2019-06-28 | 2019-06-28 | 一种基于surf特征点提取和局部lbp编码的指静脉识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910576939.5A CN110472479B (zh) | 2019-06-28 | 2019-06-28 | 一种基于surf特征点提取和局部lbp编码的指静脉识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110472479A CN110472479A (zh) | 2019-11-19 |
CN110472479B true CN110472479B (zh) | 2022-11-22 |
Family
ID=68507551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910576939.5A Active CN110472479B (zh) | 2019-06-28 | 2019-06-28 | 一种基于surf特征点提取和局部lbp编码的指静脉识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110472479B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111137761A (zh) * | 2019-12-27 | 2020-05-12 | 恒大智慧科技有限公司 | 一种人脸识别电梯防误触发方法、装置及存储介质 |
CN111222479B (zh) * | 2020-01-12 | 2022-02-18 | 杭州电子科技大学 | 结合等价模式的自适应半径lbp特征层融合识别方法 |
CN111553893A (zh) * | 2020-04-24 | 2020-08-18 | 成都飞机工业(集团)有限责任公司 | 一种飞机线束自动布线切断标识识别方法 |
CN111680549B (zh) * | 2020-04-28 | 2023-12-05 | 肯维捷斯(武汉)科技有限公司 | 一种纸纹识别方法 |
CN112329674B (zh) * | 2020-11-12 | 2024-03-12 | 北京环境特性研究所 | 基于多纹理特征融合的结冰湖泊检测方法和装置 |
CN113361412B (zh) * | 2021-06-08 | 2022-03-01 | 西南科技大学 | 一种基于ulbp和surf的特征递进的手指静脉图像精确匹配方法 |
CN113673363B (zh) * | 2021-07-28 | 2024-03-01 | 大连海事大学 | 结合表观相似度与奇异点匹配个数的手指静脉识别方法 |
CN114782715B (zh) * | 2022-04-08 | 2024-04-16 | 宁波芯然科技有限公司 | 一种基于统计信息的静脉识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102024141A (zh) * | 2010-06-29 | 2011-04-20 | 上海大学 | 基于Gabor小波变换和局部二值模式优化的人脸识别方法 |
CN104376548A (zh) * | 2014-11-07 | 2015-02-25 | 中国电子科技集团公司第二十八研究所 | 一种基于改进型surf算法的图像快速拼接方法 |
WO2016110005A1 (zh) * | 2015-01-07 | 2016-07-14 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
CN106096569A (zh) * | 2016-06-20 | 2016-11-09 | 广州中国科学院先进技术研究所 | 一种手指静脉识别方法 |
CN108596126A (zh) * | 2018-04-28 | 2018-09-28 | 中国民航大学 | 一种基于改进的lgs加权编码的手指静脉图像识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2691195C1 (ru) * | 2015-09-11 | 2019-06-11 | Айверифай Инк. | Качество изображения и признака, улучшение изображения и выделение признаков для распознавания по сосудам глаза и лицам, и объединение информации о сосудах глаза с информацией о лицах и/или частях лиц для биометрических систем |
-
2019
- 2019-06-28 CN CN201910576939.5A patent/CN110472479B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102024141A (zh) * | 2010-06-29 | 2011-04-20 | 上海大学 | 基于Gabor小波变换和局部二值模式优化的人脸识别方法 |
CN104376548A (zh) * | 2014-11-07 | 2015-02-25 | 中国电子科技集团公司第二十八研究所 | 一种基于改进型surf算法的图像快速拼接方法 |
WO2016110005A1 (zh) * | 2015-01-07 | 2016-07-14 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
CN106096569A (zh) * | 2016-06-20 | 2016-11-09 | 广州中国科学院先进技术研究所 | 一种手指静脉识别方法 |
CN108596126A (zh) * | 2018-04-28 | 2018-09-28 | 中国民航大学 | 一种基于改进的lgs加权编码的手指静脉图像识别方法 |
Non-Patent Citations (1)
Title |
---|
基于分块LBP 和分块PCA 的指静脉识别方法;杨文文等;《电子测量与仪器学报》;20160731;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110472479A (zh) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472479B (zh) | 一种基于surf特征点提取和局部lbp编码的指静脉识别方法 | |
CN110443128B (zh) | 一种基于surf特征点精确匹配的指静脉识别方法 | |
CN114418957B (zh) | 基于机器人视觉的全局和局部二值模式图像裂缝分割方法 | |
CN116205919B (zh) | 基于人工智能的五金零件生产质量检测方法及系统 | |
CN109299720A (zh) | 一种基于轮廓片段空间关系的目标识别方法 | |
CN116664559B (zh) | 基于机器视觉的内存条损伤快速检测方法 | |
CN107657209B (zh) | 一种基于手指静脉图像质量的模板图像注册机制 | |
CN115187548A (zh) | 一种基于人工智能的机械零件缺陷检测方法 | |
Short et al. | Latent fingerprint segmentation using ridge template correlation | |
EP2050040A2 (en) | Method and apparatus for determining print image quality | |
CN116385450B (zh) | 基于图像处理的ps片材抗耐磨性检测方法 | |
CN105184225B (zh) | 一种多国纸币图像识别方法和装置 | |
CN116246174B (zh) | 基于图像处理的甘薯种类识别方法 | |
CN109544614B (zh) | 一种基于图像低频信息相似度的匹配图像对识别的方法 | |
CN103942526B (zh) | 一种离散数据点集的线特征提取方法 | |
KR20120040004A (ko) | 텐서 보팅에 기반을 둔 컬러 클러스터링 시스템 및 그 방법 | |
CN117392461A (zh) | 一种基于ResNet18和注意力机制的蚕茧图片分类方法及系统 | |
CN106295478A (zh) | 一种图像特征提取方法和装置 | |
CN115965796A (zh) | 一种基于图像识别的金属锈蚀检测方法及系统 | |
CN111951254B (zh) | 基于边缘引导加权平均的源相机识别方法及系统 | |
CN111259914B (zh) | 一种茶树叶特征信息高光谱提取方法 | |
CN115705748A (zh) | 一种面部特征的识别系统 | |
EP2380110B1 (en) | A method for evaluating quality of image representing a fingerprint pattern | |
CN112801950A (zh) | 一种基于几何失真度量的图像适配质量评价方法 | |
CN112330704A (zh) | 一种足底轮廓表达方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |