CN110443128A - 一种基于surf特征点精确匹配的指静脉识别方法 - Google Patents

一种基于surf特征点精确匹配的指静脉识别方法 Download PDF

Info

Publication number
CN110443128A
CN110443128A CN201910579426.XA CN201910579426A CN110443128A CN 110443128 A CN110443128 A CN 110443128A CN 201910579426 A CN201910579426 A CN 201910579426A CN 110443128 A CN110443128 A CN 110443128A
Authority
CN
China
Prior art keywords
point
characteristic point
circle
matching
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910579426.XA
Other languages
English (en)
Other versions
CN110443128B (zh
Inventor
邸思
钟霖
金建
李伟剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Guangzhou Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Guangzhou Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS, Guangzhou Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201910579426.XA priority Critical patent/CN110443128B/zh
Publication of CN110443128A publication Critical patent/CN110443128A/zh
Application granted granted Critical
Publication of CN110443128B publication Critical patent/CN110443128B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Abstract

本发明公开了一种基于SURF特征点精确匹配的指静脉识别方法,包括以下步骤:(1)手指静脉图像的采集;(2)针对采集到的图像进行感兴趣区域的提取;(3)图像的预处理;(4)图像空间域增强;(5)采用SURF算法对指静脉图像进行特征点提取;(6)特征点匹配近邻欧式距离筛选;(7)对欧式距离筛选后的匹配对进行近邻余弦距离筛选;(8)对欧式距离筛选后的匹配对进行近邻汉明距离筛选;(9)对余弦距离和汉明距离筛选的特征点分别进行位置偏移较大匹配对去除;(10)建立分数模型,计算相似度。本发明在近邻欧式距离比例匹配的基础上,加入特征点近邻区域的像素灰度统计信息,引入近邻余弦距离和汉明距离,对暴力匹配之后的特征点进行筛选,从而得到更为精确的特征匹配对。

Description

一种基于SURF特征点精确匹配的指静脉识别方法
技术领域
本发明涉及图像处理与生物识别技术领域,具体涉及一种基于SURF特征点精确匹配的指静脉识别方法。
背景技术
现有的特征点匹配的识别方法通常是基于特征向量最小欧氏距离匹配,对匹配点的确定主要包括简单查找最优匹配法、最近邻匹配法和特征点对距离小于特定值匹配法。第一种方法属于暴力匹配,该方法仅仅根据最小欧式距离来判断,因此每个特征点都能找到与之匹配的点。第二种方法不单单考虑欧氏距离最小的匹配点,还需要考虑近邻欧氏距离比例,通过计算最接近距离和次接近距离之间的比值,当该比值大于既定值时,才作为最终匹配点。第三种方法则设定一个特定值,当最小的欧氏距离小于既定值时,才作为最终匹配点。上述方法中,暴力匹配无法得到我们想要的特征匹配对。基于近邻欧氏距离匹配也存在明显缺陷,因为阈值选取会对匹配效果有很大影响:若选取的阈值较大,容易引起误匹配;选取的太小,则可能找不到匹配对,尤其当图像的成像质量较差时,这一问题更加明显。此外,待匹配图像中往往存在相似的区域,一些相似点的特征向量甚至比正确匹配点更接近于待匹配点,易引起误匹配。第三种方法同样存在这个问题。因此,仅依据上述三种方法对指静脉图像进行特征点提取和匹配,往往难以获得最佳的识别精度。
现有的静脉识别算法大致分为基于细节及特征点的方法,基于局部模式的方法以及基于纹理网络的方法。基于细节点的方法通常利用特征点或相关的特征计算两幅匹配图像间的相似度,常用的特征点提取方法包括尺度不变性特征变换法(Scale-invariantfeature transform,SIFT)、加速鲁棒特征法(Speed Up Robust Features,SURF)等算法。这两种方法所提取的特征点能够较好地反映静脉血管纹理分布信息,所以被广泛应用于生物识别领域。天津大学精仪学院李秀艳团队提出了基于SURF算子的快速手背静脉识别方法,将加速鲁棒特征算法应用到手背静脉识别中,他们通过SURF特征点之间的近邻欧式距离比值来获得匹配对,并将特征匹配对的多少作为手背识别的依据。为了解决欧氏距离匹配过程中特征点错配率较高的问题,华北光电技术研究所尧思远等人首先利用近邻欧式距离比例法对提取的SURF特征做粗匹配,然后获取特征点对应的邻域灰度统计信息,并利用相关系数得到了鲁棒性较强的匹配。山东财经大学的孟宪静团队为了解决手指静脉图像对比度低、模糊等问题,利用灰度不均匀法来矫正并增强图像细节,采用SIFT来检测特征点,并通过构造每个特征点潜在匹配点的欧氏距离矩阵进行相似度计算,从而避免了使用近邻欧氏距离比例匹配带来的误配问题。其发表的方法在在山东大学指静脉库(MLA)和香港理工大学手指静脉库上取得了较好的效果。
现有的基于特征点匹配的方法,一般先计算欧氏距离,通过近邻欧氏距离比例匹配得到特征点匹配对,然后将匹配对个数作为匹配的依据。然而近邻欧式距离比例匹配存在明显缺陷。因为最近邻与次近邻的阈值选取会对匹配效果的有很大影响,若阈值较大,容易引起误匹配;阈值较小,则可能找不到正确的匹配对,尤其是当图像的成像质量较差时,这一问题更为明显。造成上述问题的根本原因是待匹配的特征描述符,即特征向量在特定的匹配搜索策略下不具有足够高的区分度。传统基于SIFT/SURF方法提取出的特征点通常依赖单个像素信息,从而难以获得准确的匹配结果。
发明内容
有鉴于此,为了解决现有技术中的上述问题,本发明提出一种基于SURF特征点精确匹配的指静脉识别方法,该方法是在近邻欧式距离的筛选基础上,利用特征点邻近区域的像素灰度统计信息进行余弦距离、汉明距离的再筛选,同时考虑了匹配点位置的偏移程度以移除位置偏移较大匹配点,从而获得最优的特征匹配对,以多重约束条件来综合衡量图片的相似度。
本发明通过以下技术手段解决上述问题:
一种基于SURF特征点精确匹配的指静脉识别方法,包括如下步骤:
S1、采集手指静脉图像,获取近红外光下的手指图像;
S2、对采集到的图像进行感兴趣区域提取,确定上下、左右边界,获取图像的初始尺寸;
S3、对初始图像进行预处理操作,包括平移、旋转、尺度和灰度的归一化;
S4、对步骤S3处理的图像进行限制对比度直方图均衡化增强、多通道Gabor滤波器分割与图像融合,最后进行直方图正反均衡化;
S5、利用SURF算法对图像进行特征点检测,提取特征向量;
S6、特征点匹配,将两幅图像的所有特征点按照最小欧氏距离进行匹配排序,找到欧氏距离最小的两个点作为最近邻点和次近邻点;计算每一个特征点近邻欧氏距离比值η,若小于阈值η0,则与最近邻点即欧氏距离最小的点匹配,进行保留;
S7、对欧氏距离筛选的特征点构造统计圆,统计圆尺寸由特征点邻域圆确定;以统计圆圆心为原点建立直角坐标系,统计四个象限像素灰度信息,进行余弦距离计算;
S8、对欧式距离筛选的特征点构造统计圆,以统计圆圆心为原点建立直角坐标系,统计八个45度区域的像素信息,进行汉明距离计算;
S9、对余弦距离和汉明距离加权之后筛选的特征匹配对进行特征点位置分析,去除位置偏移较大的匹配对;
S10、构造分数模型,加权融合余弦距离和汉明距离得到的分数,进行相似度计算,进行图像识别。
进一步地,步骤S4中,对指静脉图像进行增强处理,步骤如下:
(1)使用限制对比度直方图均衡法将图像分成若干个子块,每个子块尺寸为8×8,在每个子块内进行直方图均衡化,若某个子块的直方图幅度大于预设值,则对其进行裁剪并均匀的分布在整个灰度区间中;
(2)构建以υ/8为间隔,从0到7υ/8共8个方向的甘博滤波器,分别对图片进行滤波处理,对得到的8个响应进行比对筛选,保留各个结果中纹理部分的最大响应;
(3)对(1)(2)步骤重复三次;
(4)对得到的图像进行直方图正反均衡化,即将正均衡化和反均衡化结果进行加权综合,从而增强图像对比度;定义图像任意像素值为I(x,y),正均衡化后为J(I(x,y)),反均衡化为J'(I(x,y)),最终像素值为G(I),计算公式为:
G(I)=λ1J(I(x,y))+λ2J'(I(x,y))
上述式子中,k、t表示灰度级,nk/n、nt/n是灰度级的频数,加权系数λ1、λ2分别取经验值0.8和0.2。
进一步地,步骤S6具体如下:
对提取的特征点进行匹配,将两幅图像的所有特征点按照最小欧氏距离进行匹配排序,找到欧氏距离最小的两个点作为最近邻点和次近邻点,计算近邻欧氏距离比值,结果与阈值η0进行比较;计算公式如下;
特征点A=(x1,x2,x3...x64)
特征点B=(x'1,x'2,x'3...x'64)
两个特征点欧氏距离:
近邻欧式距离比值:
若η<η0,则认为是正确匹配,SURF算法η0推荐值范围为0.4~0.8,由于指静脉图像灰度不均匀,对比度差,检测的特征点较少,这里η0取值为0.8。
进一步地,步骤S7具体如下:
对欧氏距离筛选后的匹配对特征点构造统计圆,统计圆尺寸由特征点邻域圆确定,统计圆的圆心即为邻域圆的圆心,以领域圆直径的1/12作为特征点单位尺度值s,统计圆半径则设定为2s;以统计圆圆心为原点建立直角坐标系;x轴方向为特征点的主方向,主方向是通过统计邻域圆内以一定间隔旋转的60°扇形区域的哈尔小波的个数得到的,将包含哈尔小波个数最多的那个扇形方向作为主方向;统计四个象限像素点灰度值大于原点灰度值的个数,构造四维统计向量,并进一步归一化成单位向量,最后进行近邻余弦距离比值计算,步骤如下:
(1)以图片左上角为原点O建立相对坐标系,引入理论力学点的合成运动轨迹方程概念,以像素点为动点,绝对运动、牵连运动和相对运动关系如下:
x=x0+x’cosθ-y’sinθ
y=y0+x’sinθ+y’cosθ
x’=(x-x0)cosθ+(y-y0)sinθ
y’=(y-y0)cosθ-(x-x0)sinθ
式中,θ为特征点主方向夹角,(x,y)为像素点绝对位置坐标,(x’,y’)为像素点相对位置坐标;
(2)为了减少算法运行时间,仅对统计圆所在的局部区域的像素点进行坐标变换,且只考察变换之后的相对坐标位于统计圆内的像素点,变换前后像素灰度值不变;由于特征点的坐标变换前为浮点数,所以其灰度值这里采用双线性插值法得到;
(3)统计四个象限中灰度值大于特征点灰度值的像素个数,并进行归一化处理,如下:
{N1,N2,N3,N4}→P={p1,p2,p3,p4}
其中1,2,3,4为象限序号;
则待匹配点P0、最近邻点P1和次近邻点P2统计单位向量分别为:
P0={p1,p2,p3,p4},P1={p'1,p'2,p'3,p'4},P2={p″1,p″2,p″3,p″4}
(4)定义余弦距离d1,则计算公式为:
cosβ1和cosβ2分别为单位向量的两个夹角余弦;
(5)定义近邻余弦距离比例η’,比例阈值为η1,则有:
若η’>η1,则认为最近邻点符合余弦距离匹配标准,该匹配对合理;在理想状态下,最近邻点相比次近邻点与待匹配点相似度更接近,最近邻点与待匹配点的统计单位向量夹角趋向于0,余弦距离趋向于1;而次近邻点与待匹配点的余弦距离则小于1,则近邻余弦距离比值η’大于1;因此,令阈值η1=1.0。
进一步地,步骤S8具体如下:
对欧式距离筛选的特征点构造统计圆,以统计圆圆心为原点建立直角坐标系;X轴方向为特征点的主方向,半径为2s;将统计圆划分为八个45°扇形区域,统计八个区域内像素点灰度值大于原点灰度值的像素个数,并将得到的8个数值归一化到(0,1)之间,对大于0.5的记为1,小于0.5的记为0,从而将得到一个8位的二进制序列,以进行汉明距离计算;仅对统计圆所在的局部区域的像素点进行坐标变换,也只考察变换之后的相对坐标位于统计圆内的像素点,变换前后像素灰度值不变;特征点灰度值的大小由双线性插值法确定;计算过程如下:
(1)以第三象限第一块区域为起点,统计8个区域中灰度值大于特征点灰度值的像素个数,并进行归一化处理,并与阈值0.5比较,进行二值化,计算过程如下:
N={N1,N2,N3,N4,N5,N6,N7,N8}
n=max(N)-min(N),m=min(N)
对Ii与0.5比较,大于0.5取值为1,小于0.5取值为0,则有:
H={i1,i2,i3,i4,i5,i6,i7,i8}(ii=0or1)
其中1,2,3,...,8为区域序号;
则待匹配点H0、最近邻点H1和次近邻点H2统计二值序列分别为:
H0={i1,i2,i3,i4,i5,i6,i7,i8}(ii=0or1)
H1={i′1,i'2,i′3,i'4,i'5,i'6,i'7,i'8}(i'i=0or1)
H2={i″1,i″2,i″3,i″4,i″5,i″6,i″7,i″8}(i″i=0or1)
(2)定义汉明距离d2,则计算公式为:
(3)定义近邻余弦距离比值系数η”,比值阈值为η2,则有:
(4)若η”>η2,则认为待匹配点和最近邻点符合汉明距离匹配标准,该匹配对合理;在理想状态下,最近邻点相比次近邻点与待匹配点相似度更接近,最近邻点与待匹配点的统计二进制序列异或之后,1的个数接近0,即汉明距离更小,最终近邻汉明距离比值η”大于1;因此,令阈值η2=1.0。
进一步地,步骤S9具体如下:
对余弦距离和汉明距离筛选的特征匹配对进行匹配点位置分析,根据位置偏移程度大小去除位置差别较大的匹配对;位置偏移大小由匹配对特征点领域圆的半径判定;最后综合上述计算结果进行加权融合,给出最终的识别结果;计算过程如下:
(1)定义近邻余弦距离分数S1和汉明距离分数S2,则有:
n1为余弦距离筛选后的特征匹配对,n2为汉明距离筛选后的特征匹配对,N为待匹配图片检测到的所有特征点;
(2)计算位置偏移程度大小;分别计算基于近邻余弦距离和近邻汉明距离的待匹配特征点与最近邻特征点的邻域圆圆心坐标的距离:
若二者邻域圆相离,则两张图片匹配对特征点对应位置偏移太大,认为是误匹配,并统计误匹配的个数,分别记为t1、t2;若邻域圆相切或相交,则认为相同信息检测区域有重合,偏移合理;
(3)修正近邻分数S1、S2,有:
(4)定义分数模型;同时根据近邻余弦距离分数和近邻汉明距离分数进行加权确定,加权系数w1、w2均取经验值0.5;计算公式为:
score=w1×S1+w2×S2
上式即为两张图片匹配相似度分数。
与现有技术相比,本发明的有益效果至少包括:
本发明舍弃了SURF算法特征点检测后,单一使用KNN近邻欧式距离比例进行匹配,提出了基于特征点精确匹配的指静脉识别方法。在KNN近邻欧式距离比例匹配的基础上,加入特征点近邻区域的像素灰度统计信息,引入近邻余弦距离和汉明距离比例匹配,共同对暴力匹配之后的特征点进行筛选,从而得到更为精确的特征匹配对。另外,本方法考虑了匹配点对的位置偏移程度,对于位置偏移较大的匹配对进行自适应去除,从而获得最优的匹配对。本专利综合特征点的欧氏距离、余弦距离、汉明距离以及相对位置偏移程度,共同衡量图片之间的相似程度,给出最终的指静脉识别结果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明基于SURF特征点精确匹配的指静脉识别方法的流程图;
图2是本发明图像处理的过程示意图;其中a为手指原图,b为canny边缘检测图,c为边缘裁剪图,d为感兴趣区域提取图,e为CLAHE和Gabor增强,f为直方图正反均衡化图,g为特征点检测图;
图3是本发明余弦距离统计区域示意图;
图4是本发明坐标转换图;其中XOY为绝对坐标系,X’O’Y’为相对坐标系;
图5是本发明汉明距离统计区域示意图;
图6是本发明受试者工作特征曲线图;
图7是本发明同源和异源匹配分数散点图(部分)。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面将结合附图和具体的实施例对本发明的技术方案进行详细说明。需要指出的是,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出一种SURF特征点精确匹配的指静脉识别算法,在近邻汉明距离的筛选基础上,利用特征点邻近区域的像素灰度统计信息,进行余弦距离、汉明距离的再筛选,同时考虑了匹配点位置的偏移程度,通过去除位置差别较大匹配点来完成最优匹配对的筛选,以多重约束来综合衡量图片的相似度。
如图1所示,本发明一种SURF特征点精确匹配的指静脉识别算法,步骤如下:
步骤S1:在近红外条件下采集手指图像(MLA数据库),采集的图片尺寸为320×240(如图2-a所示)。对原始图片进行裁剪,上下分别裁剪20和40,左右分别裁剪40和31。
步骤S2:使用Canny算子对裁剪后的静脉图像进行边缘检测(如图2-b、2-c所示),确定上下边界,去除背景区域,保留前景手指区域,则原始ROI区域如图2-d所示。
步骤S3:对初始图像进行预处理操作,如平移、旋转、尺度和灰度的归一化等。
步骤S4:再利用resize函数进行放缩,感兴趣区域保留尺寸为180×80,对指静脉图像进行增强处理,步骤如下:
(1)使用CLAHE(限制对比度直方图均衡法)将图像分成若干个子块,每个子块尺寸为8×8,在每个子块内进行直方图均衡化,若某个子块的直方图幅度大于预设值,则对其进行裁剪并均匀的分布在整个灰度区间中。
(2)构建以υ/8为间隔,从0到7υ/8共8个方向的Gabor滤波器(甘博滤波器),分别对图片进行滤波处理,对得到的8个响应进行比对筛选,保留各个结果中纹理部分的最大响应。
(3)对(1)(2)步骤重复三次(如图2-e所示)。
(4)对得到的图像进行正反均衡化,即将正均衡化和反均衡化结果进行加权综合,从而增强图像对比度(如图2-f所示)。定义图像任意像素值为I(x,y),正均衡化后为J(I(x,y)),反均衡化为J'(I(x,y)),最终像素值为G(I),计算公式为:
G(I)=λ1J(I(x,y))+λ2J'(I(x,y))
上述式子中,k、t表示灰度级,nk/n、nt/n是灰度级的频数,加权系数λ1、λ2分别取经验值0.8和0.2。
步骤S5:使用SURF算法检测灰度图像上的特征点(如图2-g所示),并提取特征描述子,构造64维特征向量。
步骤S6:对提取的特征点进行匹配,将两幅图像的所有特征点按照最小欧氏距离进行匹配排序,找到欧氏距离最小的两个点作为最近邻点和次近邻点,计算近邻欧氏距离比值,结果与阈值η0进行比较。计算公式如下;
特征点A=(x1,x2,x3...x64)
特征点B=(x'1,x'2,x'3...x'64)
两个特征点欧氏距离:
近邻欧式距离比值:
若η<η0,则认为是正确匹配,SURF算法η0推荐值范围为0.4~0.8,由于指静脉图像灰度不均匀,对比度差,检测的特征点较少,这里η0取值为0.8。
步骤S7:对上述欧氏距离筛选后的匹配对特征点构造统计圆,统计圆尺寸由特征点邻域圆确定,统计圆的圆心即为邻域圆的圆心,以领域圆直径的1/12作为特征点单位尺度值s,统计圆半径则设定为2s。以统计圆圆心(即特征点)为原点建立直角坐标系。如图3所示,x轴方向为特征点的主方向,主方向是通过统计以一定间隔旋转的邻域圆内60°扇形区域的harr小波(哈尔小波)的个数得到的,将包含哈尔小波个数最多的那个扇形方向作为主方向。统计四个象限像素点灰度值大于原点(即特征点)灰度值的个数,构造四维统计向量,并进一步归一化成单位向量,最后进行近邻余弦距离比值计算,步骤如下:
(1)以图片左上角为原点O建立相对坐标系,如图4所示,引入理论力学点的合成运动轨迹方程概念,以像素点为动点,绝对运动、牵连运动和相对运动关系如下:
x=x0+x’cosθ-y’sinθ
y=y0+x’sinθ+y’cosθ
x’=(x-x0)cosθ+(y-y0)sinθ
y’=(y-y0)cosθ-(x-x0)sinθ
式中,θ为特征点主方向夹角,(x,y)为像素点绝对位置坐标,(x’,y’)为像素点相对位置坐标;
(2)为了减少算法运行时间,仅对统计圆所在的局部区域的像素点进行坐标变换,且只考察变换之后的相对坐标位于统计圆内的像素点,变换前后像素灰度值不变。由于特征点(即统计圆圆心)的坐标变换前为浮点数,所以其灰度值这里采用双线性插值法得到。
(3)统计四个象限中灰度值大于特征点灰度值的像素个数,并进行归一化处理,如下:
{N1,N2,N3,N4}→P={p1,p2,p3,p4}
其中1,2,3,4为象限序号。
则待匹配点P0、最近邻点P1和次近邻点P2统计单位向量分别为:
P0={p1,p2,p3,p4},P1={p'1,p'2,p'3,p'4},P2={p″1,p″2,p″3,p″4}
(4)定义余弦距离d1,则计算公式为:
cosβ1和cosβ2分别为单位向量的两个夹角余弦
(5)定义近邻余弦距离比例η’,比例阈值为η1,则有:
若η’>η1,则认为最近邻点符合余弦距离匹配标准,该匹配对合理。在理想状态下,最近邻点相比次近邻点与待匹配点相似度更接近,最近邻点与待匹配点的统计单位向量夹角趋向于0,余弦距离趋向于1。而次近邻点与待匹配点的余弦距离则小于1,则近邻余弦距离比值η’大于1。因此,我们可以令阈值η1=1.0。
步骤S8:对欧式距离筛选的特征点构造统计圆,统计圆的确定与步骤S7完全相同,以统计圆圆心(即特征点)为原点建立直角坐标系。如图5所示,X轴方向为特征点的主方向,半径为2s。将统计圆划分为八个45°扇形区域,统计八个区域内像素点灰度值大于原点灰度值的像素个数,并将得到的8个数值归一化到(0,1)之间,对大于0.5的记为1,小于0.5的记为0,从而将得到一个8位的二进制序列,以进行汉明距离计算。统计圆内像素点坐标转换过程与步骤S7相同,仅对统计圆所在的局部区域的像素点进行坐标变换,也只考察变换之后的相对坐标位于统计圆内的像素点,变换前后像素灰度值不变。特征点(即统计圆圆心)灰度值的大小由双线性插值法确定。计算过程如下:
(1)以第三象限第一块区域为起点,统计8个区域中灰度值大于特征点灰度值的像素个数,并进行归一化处理,并与阈值0.5比较,进行二值化,计算过程如下:
N={N1,N2,N3,N4,N5,N6,N7,N8}
n=max(N)-min(N),m=min(N)
对Ii与0.5比较,大于0.5取值为1,小于0.5取值为0,则有:
H={i1,i2,i3,i4,i5,i6,i7,i8}(ii=0or1)
其中1,2,3,...,8为区域序号。
则待匹配点H0、最近邻点H1和次近邻点H2统计二值序列分别为:
H0={i1,i2,i3,i4,i5,i6,i7,i8}(ii=0or1)
H1={i'i,i'2,i'3,i'4,i'5,i'6,i'7,i'8}(i'i=0or1)
H2={i″1,i″2,i″3,i″4,i″5,i″6,i″7,i″8}(i″i=0or1)
(2)定义汉明距离d2,则计算公式为:
(3)定义近邻余弦距离比值系数η”,比值阈值为η2,则有:
(4)若η”>η2,则认为待匹配点和最近邻点符合汉明距离匹配标准,该匹配对合理。在理想状态下,最近邻点相比次近邻点与待匹配点相似度更接近,最近邻点与待匹配点的统计二进制序列异或之后,1的个数接近0,即汉明距离更小,最终近邻汉明距离比值η”大于1。因此,我们可以令阈值η2=1.0。
步骤S9:对余弦距离和汉明距离筛选的特征匹配对进行匹配点位置分析,根据位置偏移程度大小去除位置差别较大的匹配对。位置偏移大小由匹配对特征点领域圆的半径判定。最后综合上述计算结果进行加权融合,给出最终的识别结果。计算过程如下:
(1)定义近邻余弦距离分数S1和汉明距离分数S2,则有:
n1为余弦距离筛选后的特征匹配对,n2为汉明距离筛选后的特征匹配对,N为待匹配图片检测到的所有特征点;
(2)计算位置偏移程度大小。分别计算基于近邻余弦距离和近邻汉明距离的待匹配特征点与最近邻特征点的邻域圆圆心坐标的距离:
若二者邻域圆相离,则两张图片匹配对特征点对应位置偏移太大,认为是误匹配,并统计误匹配的个数,分别记为t1、t2。若邻域圆相切或相交,则认为相同信息检测区域有重合,偏移合理。
(3)修正近邻分数S1、S2,有:
(4)定义分数模型。同时根据近邻余弦距离分数和近邻汉明距离分数进行加权确定,加权系数w1、w2均取经验值0.5。计算公式为:
score=w1×S1+w2×S2
上式即为两张图片匹配相似度分数。
步骤S10:将待匹配图像与数据库中所有注册图像像之间的匹配分数进行排序,匹配分数最大的手指类别作为输入图像的类别,若该匹配分数小于预设阈值,则识别失败,给出识别结果。
本发明可广泛用于需要身份识别的场景,例如考勤打卡系统。
本发明的手指静脉识别算法验证实验采用山东大学机器学习与数据挖掘实验室公开的数据库。该数据库中共有636类手指,每个手指有6幅图,共有3816幅图像,图像尺寸为320x240。在识别模式下,每一类手指随机选取一幅图像作为测试图像,每一类手指的剩下5幅图像组成模板数据库图像,共测试十次,平均识别率为98.7%。在验证模式下,在异源匹配中,每一幅图像都和其它635个手指的6幅图像进行异源匹配计算,相应地可以得到14538960个异源匹配分数。在同源匹配中,每一幅图像都和同类的另外5幅图像进行同源匹配计算,由此可以得到19080个同源匹配距离。实验结果表明EER(等误率)为0.032(如图6所示)。部分同源和异源匹配分数散点图如图7所示。可以看出,识别模式和验证模式下的相关指标都取得了较好的结果。
本发明在近邻欧式距离比例匹配的基础上,加入特征点近邻区域的像素灰度统计信息,引入近邻余弦距离和汉明距离,对暴力匹配之后的特征点进行筛选,从而得到更为精确的特征匹配对。另外,本方法还考虑了匹配点位置偏移的程度,删除一些偏移较大的匹配对,经过上述筛选后,得到最终需要的特征匹配对。本发明综合考虑了特征点的欧氏距离、余弦距离、汉明距离以及相对位置偏移程度这四个因素,综合衡量图片之间的相似程度,并给出最终的指静脉匹配结果。
本发明的有益效果至少包括:
(1)对灰度图进行特征点提取,不仅考虑了近邻欧氏距离,还结合了近邻余弦距离和近邻汉明距离,最大程度上提高了匹配精确度;
(2)充分挖掘了特征点邻域的像素信息,引入理论力学点的合成运动轨迹方程,通过坐标变换实现了统计圆各个区域的像素灰度级和特征点灰度级的比较;
(3)考虑了在SURF算法下,异源图片匹配点对位置偏移较大,而同源图片匹配点对位置偏移较小,且理想状态下匹配点位置重合的特征,通过引入特征点的邻域圆位置偏移度这一概念,同时考虑匹配对的两个点左右和上下偏移程度,对匹配连线进行再筛选,从而获得最优的匹配对。由于每个特征点邻域圆的大小是唯一确定的,从而不需要人为确定一个固定的偏移阈值,就可以灵活地根据特征点的参数信息,自适应地实现空间位置偏离较大的匹配对统计;
(4)综合考量了匹配点的空间位置信息和邻域像素分布信息,二者结合,较为准确地获得识别结果。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (6)

1.一种基于SURF特征点精确匹配的指静脉识别方法,其特征在于,包括如下步骤:
S1、采集手指静脉图像,获取近红外光下的手指图像;
S2、对采集到的图像进行感兴趣区域提取,确定上下、左右边界,获取图像的初始尺寸;
S3、对初始图像进行预处理操作,包括平移、旋转、尺度和灰度的归一化;
S4、对步骤S3处理的图像进行限制对比度直方图均衡化增强、多通道Gabor滤波器分割与图像融合,最后进行直方图正反均衡化;
S5、利用SURF算法对图像进行特征点检测,提取特征向量;
S6、特征点匹配,将两幅图像的所有特征点按照最小欧氏距离进行匹配排序,找到欧氏距离最小的两个点作为最近邻点和次近邻点;计算每一个特征点近邻欧氏距离比值η,若小于阈值η0,则与最近邻点即欧氏距离最小的点匹配,进行保留;
S7、对欧氏距离筛选的特征点构造统计圆,统计圆尺寸由特征点邻域圆确定;以统计圆圆心为原点建立直角坐标系,统计四个象限像素灰度信息,进行余弦距离计算;
S8、对欧式距离筛选的特征点构造统计圆,以统计圆圆心为原点建立直角坐标系,统计八个45度区域的像素信息,进行汉明距离计算;
S9、对余弦距离和汉明距离加权之后筛选的特征匹配对进行特征点位置分析,去除位置偏移较大的匹配对;
S10、构造分数模型,加权融合余弦距离和汉明距离得到的分数,进行相似度计算,进行图像识别。
2.根据权利要求1所述的基于SURF特征点精确匹配的指静脉识别方法,其特征在于,步骤S4中,对指静脉图像进行增强处理,步骤如下:
(1)使用限制对比度直方图均衡法将图像分成若干个子块,每个子块尺寸为8×8,在每个子块内进行直方图均衡化,若某个子块的直方图幅度大于预设值,则对其进行裁剪并均匀的分布在整个灰度区间中;
(2)构建以υ/8为间隔,从0到7υ/8共8个方向的甘博滤波器,分别对图片进行滤波处理,对得到的8个响应进行比对筛选,保留各个结果中纹理部分的最大响应;
(3)对(1)(2)步骤重复三次;
(4)对得到的图像进行正反均衡化,即将正均衡化和反均衡化结果进行加权综合,从而增强图像对比度;定义图像任意像素值为I(x,y),正均衡化后为J(I(x,y)),反均衡化为J'(I(x,y)),最终像素值为G(I),计算公式为:
G(I)=λ1J(I(x,y))+λ2J'(I(x,y))
上述式子中,k、t表示灰度级,nk/n、nt/n是灰度级的频数,加权系数λ1、λ2分别取经验值0.8和0.2。
3.根据权利要求2所述的基于SURF特征点精确匹配的指静脉识别方法,其特征在于,步骤S6具体如下:
对提取的特征点进行匹配,将两幅图像的所有特征点按照最小欧氏距离进行匹配排序,找到欧氏距离最小的两个点作为最近邻点和次近邻点,计算近邻欧氏距离比值,结果与阈值η0进行比较;计算公式如下;
特征点A=(x1,x2,x3...x64)
特征点B=(x’1,x'2,x'3...x'64)
两个特征点欧氏距离:
近邻欧式距离比值:
若η<η0,则认为是正确匹配,SURF算法η0推荐值范围为0.4~0.8,由于指静脉图像灰度不均匀,对比度差,检测的特征点较少,这里η0取值为0.8。
4.根据权利要求3所述的基于SURF特征点精确匹配的指静脉识别方法,其特征在于,步骤S7具体如下:
对欧氏距离筛选后的匹配对特征点构造统计圆,统计圆尺寸由特征点邻域圆确定,统计圆的圆心即为邻域圆的圆心,以领域圆直径的1/12作为特征点单位尺度值s,统计圆半径则设定为2s;以统计圆圆心为原点建立直角坐标系;x轴方向为特征点的主方向,主方向是通过统计以一定间隔旋转的邻域圆内60°扇形区域的哈尔小波的个数得到的,将包含哈尔小波个数最多的那个扇形方向作为主方向;统计四个象限像素点灰度值大于原点灰度值的个数,构造四维统计向量,并进一步归一化成单位向量,最后进行近邻余弦距离比值计算,步骤如下:
(6)以图片左上角为原点O建立相对坐标系,引入理论力学点的合成运动轨迹方程概念,以像素点为动点,绝对运动、牵连运动和相对运动关系如下:
x=x0+x’cosθ-y’sinθ
y=y0+x’sinθ+y’cosθ
x’=(x-x0)cosθ+(y-y0)sinθ
y’=(y-y0)cosθ-(x-x0)sinθ
式中,θ为特征点主方向夹角,(x,y)为像素点绝对位置坐标,(x’,y’)为像素点相对位置坐标;
(7)为了减少算法运行时间,仅对统计圆所在的局部区域的像素点进行坐标变换,且只考察变换之后的相对坐标位于统计圆内的像素点,变换前后像素灰度值不变;由于特征点的坐标变换前为浮点数,所以其灰度值这里采用双线性插值法得到;
(8)统计四个象限中灰度值大于特征点灰度值的像素个数,并进行归一化处理,如下:
{N1,N2,N3,N4}→P={p1,p2,p3,p4}
其中1,2,3,4为象限序号;
则待匹配点P0、最近邻点P1和次近邻点P2统计单位向量分别为:
P0={p1,p2,p3,p4},P1={p'1,p'2,p'3,p'4},P2={p”1,p”2,p”3,p”4}
(9)定义余弦距离d1,则计算公式为:
cosβ1和cosβ2分别为单位向量的两个夹角余弦;
(10)定义近邻余弦距离比例η’,比例阈值为η1,则有:
若η’>η1,则认为最近邻点符合余弦距离匹配标准,该匹配对合理;在理想状态下,最近邻点相比次近邻点与待匹配点相似度更接近,最近邻点与待匹配点的统计单位向量夹角趋向于0,余弦距离趋向于1;而次近邻点与待匹配点的余弦距离则小于1,则近邻余弦距离比值η’大于1;因此,令阈值η1=1.0。
5.根据权利要求4所述的基于SURF特征点精确匹配的指静脉识别方法,其特征在于,步骤S8具体如下:
对欧式距离筛选的特征点构造统计圆,以统计圆圆心为原点建立直角坐标系;X轴方向为特征点的主方向,半径为2s;将统计圆划分为八个45°扇形区域,统计八个区域内像素点灰度值大于原点灰度值的像素个数,并将得到的8个数值归一化到(0,1)之间,对大于0.5的记为1,小于0.5的记为0,从而将得到一个8位的二进制序列,以进行汉明距离计算;仅对统计圆所在的局部区域的像素点进行坐标变换,也只考察变换之后的相对坐标位于统计圆内的像素点,变换前后像素灰度值不变;特征点灰度值的大小由双线性插值法确定;计算过程如下:
(5)以第三象限第一块区域为起点,统计8个区域中灰度值大于特征点灰度值的像素个数,并进行归一化处理,并与阈值0.5比较,进行二值化,计算过程如下:
N={N1,N2,N3,N4,N5,N6,N7,N8}
n=max(N)-min(N),m=min(N)
对Ii与0.5比较,大于0.5取值为1,小于0.5取值为0,则有:
H={i1,i2,i3,i4,i5,i6,i7,i8}(ii=0or1)
其中1,2,3,...,8为区域序号;
则待匹配点H0、最近邻点H1和次近邻点H2统计二值序列分别为:
H0={i1,i2,i3,i4,i5,i6,i7,i8}(ii=0or1)
H1={i’1,i'2,i’3,i'4,i'5,i'6,i'7,i'8}(i’i=0or1)
H2={i”1,i”2,i”3,i”4,i”5,i”6,i”7,i”8}(i”i=0or1)
(6)定义汉明距离d2,则计算公式为:
(7)定义近邻余弦距离比值系数η”,比值阈值为η2,则有:
(8)若η”>η2,则认为待匹配点和最近邻点符合汉明距离匹配标准,该匹配对合理;在理想状态下,最近邻点相比次近邻点与待匹配点相似度更接近,最近邻点与待匹配点的统计二进制序列异或之后,1的个数接近0,即汉明距离更小,最终近邻汉明距离比值η”大于1;因此,令阈值η2=1.0。
6.根据权利要求5所述的基于SURF特征点精确匹配的指静脉识别方法,其特征在于,步骤S9具体如下:
对余弦距离和汉明距离筛选的特征匹配对进行匹配点位置分析,根据位置偏移程度大小去除位置差别较大的匹配对;位置偏移大小由匹配对特征点领域圆的半径判定;最后综合上述计算结果进行加权融合,给出最终的识别结果;计算过程如下:
(5)定义近邻余弦距离分数S1和汉明距离分数S2,则有:
n1为余弦距离筛选后的特征匹配对,n2为汉明距离筛选后的特征匹配对,N为待匹配图片检测到的所有特征点;
(6)计算位置偏移程度大小;分别计算基于近邻余弦距离和近邻汉明距离的待匹配特征点与最近邻特征点的邻域圆圆心坐标的距离:
若二者邻域圆相离,则两张图片匹配对特征点对应位置偏移太大,认为是误匹配,并统计误匹配的个数,分别记为t1、t2;若邻域圆相切或相交,则认为相同信息检测区域有重合,偏移合理;
(7)修正近邻分数S1、S2,有:
(8)定义分数模型;同时根据近邻余弦距离分数和近邻汉明距离分数进行加权确定,加权系数w1、w2均取经验值0.5;计算公式为:
score=w1×S1+w2×S2
上式即为两张图片匹配相似度分数。
CN201910579426.XA 2019-06-28 2019-06-28 一种基于surf特征点精确匹配的指静脉识别方法 Active CN110443128B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910579426.XA CN110443128B (zh) 2019-06-28 2019-06-28 一种基于surf特征点精确匹配的指静脉识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910579426.XA CN110443128B (zh) 2019-06-28 2019-06-28 一种基于surf特征点精确匹配的指静脉识别方法

Publications (2)

Publication Number Publication Date
CN110443128A true CN110443128A (zh) 2019-11-12
CN110443128B CN110443128B (zh) 2022-12-27

Family

ID=68429474

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910579426.XA Active CN110443128B (zh) 2019-06-28 2019-06-28 一种基于surf特征点精确匹配的指静脉识别方法

Country Status (1)

Country Link
CN (1) CN110443128B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889387A (zh) * 2019-12-02 2020-03-17 浙江工业大学 一种基于多轨迹匹配的实时动态手势识别方法
CN111222456A (zh) * 2020-01-04 2020-06-02 圣点世纪科技股份有限公司 一种指静脉超大用户量下的高速检索算法
CN111460435A (zh) * 2020-04-02 2020-07-28 广西通途科技有限公司 一种用户注册方法、验证方法和注册装置
CN111739081A (zh) * 2020-08-06 2020-10-02 成都极米科技股份有限公司 特征点匹配方法、拼接方法、装置、电子设备及存储介质
CN111832533A (zh) * 2020-07-24 2020-10-27 中国工商银行股份有限公司 认证方法、装置、系统、电子设备和可读存储介质
CN112132783A (zh) * 2020-08-21 2020-12-25 成都飞机工业(集团)有限责任公司 一种基于数字图像处理技术的零件识别方法
CN113610753A (zh) * 2021-06-21 2021-11-05 深圳市大数据研究院 一种提取舌像的加博纹理特征的方法、装置及存储介质
CN113689374A (zh) * 2020-05-18 2021-11-23 浙江大学 一种植物叶片表面粗糙度确定方法及系统
CN113727095A (zh) * 2021-08-27 2021-11-30 杭州萤石软件有限公司 摄像头移动的检测方法、装置、设备、系统及存储介质
CN114283126A (zh) * 2021-12-13 2022-04-05 智洋创新科技股份有限公司 一种输电线路监控设备偏移检测方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105551058A (zh) * 2016-02-02 2016-05-04 天津大学 一种结合surf特征提取和曲线拟合的柱面图像匹配方法
CN105956579A (zh) * 2016-05-27 2016-09-21 国创科视科技股份有限公司 融合模糊模板和点特征的手指静脉快速识别方法
CN106096547A (zh) * 2016-06-11 2016-11-09 北京工业大学 一种面向识别的低分辨率人脸图像特征超分辨率重建方法
CN106127151A (zh) * 2016-06-23 2016-11-16 北京海鑫科金高科技股份有限公司 基于改进局部二值模型的指静脉识别方法及装置
CN106228118A (zh) * 2016-07-13 2016-12-14 山西圣点世纪科技股份有限公司 一种特征点和二值图像结合的手指静脉识别方法
CN107992807A (zh) * 2017-11-22 2018-05-04 浙江大华技术股份有限公司 一种基于cnn模型的人脸识别方法及装置
CN108681722A (zh) * 2018-05-24 2018-10-19 辽宁工程技术大学 一种基于纹理的手指静脉特征匹配方法
CN109190566A (zh) * 2018-09-10 2019-01-11 中国民航大学 一种融合局部编码与cnn模型手指静脉识别方法
WO2019053076A1 (en) * 2017-09-14 2019-03-21 F. Hoffmann-La Roche Ag PHASING OF DIRECT VARIANTS IN LONG READINGS TO DETECT QUASI-SPECIES
CN109522842A (zh) * 2018-11-16 2019-03-26 中国民航大学 一种基于手指静脉图像的血管网络修复方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105551058A (zh) * 2016-02-02 2016-05-04 天津大学 一种结合surf特征提取和曲线拟合的柱面图像匹配方法
CN105956579A (zh) * 2016-05-27 2016-09-21 国创科视科技股份有限公司 融合模糊模板和点特征的手指静脉快速识别方法
CN106096547A (zh) * 2016-06-11 2016-11-09 北京工业大学 一种面向识别的低分辨率人脸图像特征超分辨率重建方法
CN106127151A (zh) * 2016-06-23 2016-11-16 北京海鑫科金高科技股份有限公司 基于改进局部二值模型的指静脉识别方法及装置
CN106228118A (zh) * 2016-07-13 2016-12-14 山西圣点世纪科技股份有限公司 一种特征点和二值图像结合的手指静脉识别方法
WO2019053076A1 (en) * 2017-09-14 2019-03-21 F. Hoffmann-La Roche Ag PHASING OF DIRECT VARIANTS IN LONG READINGS TO DETECT QUASI-SPECIES
CN107992807A (zh) * 2017-11-22 2018-05-04 浙江大华技术股份有限公司 一种基于cnn模型的人脸识别方法及装置
CN108681722A (zh) * 2018-05-24 2018-10-19 辽宁工程技术大学 一种基于纹理的手指静脉特征匹配方法
CN109190566A (zh) * 2018-09-10 2019-01-11 中国民航大学 一种融合局部编码与cnn模型手指静脉识别方法
CN109522842A (zh) * 2018-11-16 2019-03-26 中国民航大学 一种基于手指静脉图像的血管网络修复方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李秀艳等: "基于SURF算子的快速手背静脉识别", 《仪器仪表学报》 *
邸思等: "用于静脉增强显示的图像融合算法", 《2015光学精密工程论坛论文集》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889387A (zh) * 2019-12-02 2020-03-17 浙江工业大学 一种基于多轨迹匹配的实时动态手势识别方法
CN111222456A (zh) * 2020-01-04 2020-06-02 圣点世纪科技股份有限公司 一种指静脉超大用户量下的高速检索算法
CN111460435A (zh) * 2020-04-02 2020-07-28 广西通途科技有限公司 一种用户注册方法、验证方法和注册装置
CN113689374A (zh) * 2020-05-18 2021-11-23 浙江大学 一种植物叶片表面粗糙度确定方法及系统
CN113689374B (zh) * 2020-05-18 2023-10-27 浙江大学 一种植物叶片表面粗糙度确定方法及系统
CN111832533A (zh) * 2020-07-24 2020-10-27 中国工商银行股份有限公司 认证方法、装置、系统、电子设备和可读存储介质
CN111832533B (zh) * 2020-07-24 2023-09-05 中国工商银行股份有限公司 认证方法、装置、系统、电子设备和可读存储介质
CN111739081A (zh) * 2020-08-06 2020-10-02 成都极米科技股份有限公司 特征点匹配方法、拼接方法、装置、电子设备及存储介质
CN112132783B (zh) * 2020-08-21 2022-09-20 成都飞机工业(集团)有限责任公司 一种基于数字图像处理技术的零件识别方法
CN112132783A (zh) * 2020-08-21 2020-12-25 成都飞机工业(集团)有限责任公司 一种基于数字图像处理技术的零件识别方法
CN113610753A (zh) * 2021-06-21 2021-11-05 深圳市大数据研究院 一种提取舌像的加博纹理特征的方法、装置及存储介质
CN113727095A (zh) * 2021-08-27 2021-11-30 杭州萤石软件有限公司 摄像头移动的检测方法、装置、设备、系统及存储介质
CN114283126A (zh) * 2021-12-13 2022-04-05 智洋创新科技股份有限公司 一种输电线路监控设备偏移检测方法

Also Published As

Publication number Publication date
CN110443128B (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
CN110443128A (zh) 一种基于surf特征点精确匹配的指静脉识别方法
CN115861135B (zh) 一种应用于箱体全景探测的图像增强及识别方法
CN106485183B (zh) 一种二维码定位方法及系统
Zhang et al. Contact lens detection based on weighted LBP
CN104834922B (zh) 基于混合神经网络的手势识别方法
CN110472479A (zh) 一种基于surf特征点提取和局部lbp编码的指静脉识别方法
CN102360421B (zh) 一种基于视频流的人脸识别方法及系统
CN107610114B (zh) 基于支持向量机的光学卫星遥感影像云雪雾检测方法
Cerutti et al. Understanding leaves in natural images–a model-based approach for tree species identification
CN104517104B (zh) 一种基于监控场景下的人脸识别方法及系统
CN101339607B (zh) 人脸识别方法及系统、人脸识别模型训练方法及系统
CN104778457B (zh) 基于多示例学习的视频人脸识别方法
CN107748877A (zh) 一种基于细节点和纹理特征的指纹图像识别方法
CN104217221A (zh) 基于纹理特征的书画作品检测方法
CN109299720A (zh) 一种基于轮廓片段空间关系的目标识别方法
CN106709450A (zh) 一种指纹图像识别方法及系统
CN103971126A (zh) 一种交通标志识别方法和装置
CN101359365A (zh) 一种基于最大类间方差和灰度信息的虹膜定位方法
CN102842032A (zh) 基于多模式组合策略的移动互联网色情图像识别方法
CN104881671B (zh) 一种基于2D‑Gabor的高分遥感影像局部特征提取方法
CN101162503A (zh) 利用改进Hausdorff距离提取识别人耳特征的方法
CN112163511A (zh) 一种图像真伪鉴别方法
CN102254165A (zh) 一种基于结构编码特征和纹理编码特征融合的手背静脉识别方法
CN102902980A (zh) 一种基于线性规划模型的生物特征图像分析与识别方法
CN113392856A (zh) 图像伪造检测装置和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant