CN110163182A - 一种基于kaze特征的手背静脉识别方法 - Google Patents

一种基于kaze特征的手背静脉识别方法 Download PDF

Info

Publication number
CN110163182A
CN110163182A CN201910459889.2A CN201910459889A CN110163182A CN 110163182 A CN110163182 A CN 110163182A CN 201910459889 A CN201910459889 A CN 201910459889A CN 110163182 A CN110163182 A CN 110163182A
Authority
CN
China
Prior art keywords
image
feature
point
characteristic point
kaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910459889.2A
Other languages
English (en)
Inventor
王锦凯
贾旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning University of Technology
Original Assignee
Liaoning University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning University of Technology filed Critical Liaoning University of Technology
Priority to CN201910459889.2A priority Critical patent/CN110163182A/zh
Publication of CN110163182A publication Critical patent/CN110163182A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Abstract

本发明公开了一种基于KAZE特征的手背静脉识别方法,包括以下步骤:步骤一、对采集的手背静脉图像进行预处理,并基于KAZE算法对预处理后图像进行特征点提取;步骤二、利用最近邻比值法对两幅图像中提取的特征点进行粗匹配得到粗匹配特征点;步骤三、利用RANSAC算法对粗匹配特征点再次进行精匹配得到匹配点。本发明提供了一种KAZE特征的手背静脉识别方法,可以显著降低误识率与识别时间,具有良好识别准确性与实时性。

Description

一种基于KAZE特征的手背静脉识别方法
技术领域
涉及图像识别领域,尤其涉及一种KAZE特征的手背静脉识别方法。
背景技术
目前,关于静脉识别的研究主要基于灰度图像多尺度特征与二值图像特 征两方面展开。其中,具有代表性的灰度图像多尺度特征包括二阶小波变换, 条带波(Bandelet)分解轮廓波(Curvelet)分解,Gabor分解,Gabor变换编码, SIFT特征点,SURF特征点等;而二值图像特征主要包括交叉点与端点位置, 特征点间结构关系,二值静脉曲线信息编码等。基于以上两种思想识别算法 均在不同程度上取得了一定的识别效果。
由相关研究可以看出,基于特征点的识别算法可同时较好的满足识别准 确性与实时性的要求,但针对图像质量较差,清晰度较低的手背静脉图像, 如何在处理过程中保留图像的细节信息,从而获得较为准确的特征点仍需进 一步改进。
发明内容
本发明为解决目前的技术不足之处,提供了一种KAZE特征的手背静脉 识别方法,通过显著降低误识率与识别时间以得到手部静脉的精确匹配点, 同时具有良好识别准确性与实时性。
本发明提供的技术方案为:一种基于KAZE特征的手背静脉识别方法, 包括以下步骤:
步骤一、对采集的手背静脉图像进行预处理,并基于KAZE算法对预处 理后图像进行特征点提取;
步骤二、利用最近邻比值法对两幅图像中提取的特征点进行粗匹配得到 粗匹配特征点;
步骤三、利用RANSAC算法对粗匹配特征点再次进行精匹配得到匹配 点。
优选的是,
在所述步骤一中,所述预处理具体包括:
步骤a、对采集的静脉图像进行二值化处理,
式中,I(x,y)为(x,y)位置的灰度值,thresh为预设阈值,f(x,y)为二值化 后静脉图像(x,y)位置的灰度值;
步骤b、利用零阶矩和一阶矩获取手背区域的质心,其中,零阶矩M00计 算方法满足:
式中,m与n分别为二值化后静脉图像的行数与列数;
一阶矩M10和M01计算方法分别满足:
步骤c、获取手背质心位置为:
并基于矩形扩张策略获得感兴趣区域图像;
步骤d、对感兴趣区域图像分别进行取反与直方图均衡化操作,从而获 得M×M像素大小的预处理的静脉图像L。
优选的是,
所述步骤一中特征点提取具体包括:
步骤1、对预处理的静脉图像L进行高斯卷积滤波处理;
步骤2、求取滤波后图像所有像素梯度幅值的最大值;
步骤3、构建非线性尺度空间,该空间由N张图像构成,获得每一级图 像的尺度参数σi
σi(o,s)=σ02o+s/S
式中,o∈{0,1,...,O-1},s∈{0,1,...S-1},o表示父级数,S表示子级数;
以及进化时间ti
步骤4、基于加性算子分裂算法获取不同尺度空间下的图像:
式中,m=4,表示上下左右四个方向,I为单位矩阵,τ为时间尺度差值, Li为i尺度下的图像矩阵,Qxy(Li)为图像传导矩阵,g是传导函数,N为相邻 像素集,h为相邻区域的大小,i∈{0,1,...,N-1};
步骤5、求取每一层图像的Hessian矩阵
式中,为水平二阶导数,为垂直二阶导数,为交叉二阶导数;
并得到不同尺度下的静脉图像;
步骤6、在尺度空间中每一层图像中提取出具有极大响应值的像素点作 为KAZE特征点;
步骤7、提取特征点的特征向量。
优选的是,
所述步骤6中提取KAZE特征点的具体方法为:
在第i个尺度空间图像Li中,判断(x,y)位置像素点是否具有极大响应值: 将Li+1,Li,Li-1三层进行联合查找,查找窗口大小为3×3,被查找点应与其26 邻域点进行比较,即Lw(a,b),这里i-1≤w≤i+1,x-1≤a≤x+1,y-1≤b≤y+1, (a,b)≠(x,y),当Li(x,y)>max Lw,(a b),则(x,y)位置像素点具有极大响应值,即 Li(x,y)为KAZE特征点。
优选的是,
所述步骤7中特征向量的提取方法为:
以Li(x,y)特征点为中心建立一个30σi×30σi的窗口,并以特征点为中心, 对所述窗口进行σ=2.5σi的高斯加权滤波处理,而后,将所述窗口分割为4×4 的16个子窗口,相邻窗口之间覆盖2σi,其中,σi为对应层图像的尺度参数, 对每一子窗口进行特征提取,提取的特征向量dv满足:
dv=(∑Lx,∑Ly,∑|Lx|,∑|Ly|)。
优选的是,
所述步骤三中粗匹配特征点的提取方法为:
分别计算待匹配特征点与训练样本中所有特征点的欧式距离,得到待匹 配特征点与该训练样本特征点的最近邻距离和次近邻距离,然后根据最近邻 距离和次近邻距离的比值与给定阈值的关系来确定两点匹配关系:
式中,DA为待匹配特征,DB为最近邻特征,DC为次近邻特征,t为阈值。
优选的是,
所述步骤三中对粗匹配特征点进行精匹配的具体方法为:
随机选取粗匹配成功的四组对应的特征点,特征点坐标为(xi,yi), i=1,2,...,8,将其转化为齐次坐标(xi',yi',1),并求取单应矩阵H:
令s=1/h33,矩阵H变为:
M=H*K
其中,M为训练图像特征点齐次坐标,K为待匹配图像特征点,可以得 到如下矩阵方程:
由此可得到单应矩阵H,将4组点对之外的点依次对坐标带入式下式中,
进行距离阈值判定:判断点为内点,记录总的内点数count,其中t为误 差阈值,计算矩阵H和判定内点的步骤循环迭代,求出在矩阵H条件下使得 count最大的参数集合:
找出最大的内点数相对应的单应矩阵,其中k为迭代次数;
获得单应矩阵H后,进行内点判定,内点留下,外点剔除,最终剩下的 点对即为匹配点。
优选的是,
所述步骤1中高斯卷积滤波处理具体方法为:
其中,
优选的是,
所述步骤2中像素梯度幅值及其最大值的计算方法分别为:
优选的是,
所述预设阈值通过Otsu算法获取。
本发明所述的有益效果:本发明提出一种基于KAZE特征的手背静脉识 别方法,KAZE特征具有非线性扩散方程特性,该算法可以在对图像进行滤 波的同时较好的增强图像边缘,且特征描述符根据主向特征可以很好的保证 旋转不变特性,进而保证了静脉图像的识别率,缩短了识别时间。对于给定 的样本数据库,提出的识别算法相对于基于SIFT与SURF特征的识别算法, 误识率与识别时间分别可降低至7.8%与0.815ms,可以看出提出的算法具有 较好的识别准确性与实时性。
附图说明
图1为本发明的完全匹配策略下样本GAR曲线。
图2为本发明的完全匹配策略下样本FRR曲线。
图3为本发明的部分匹配策略下的GAR曲线。
图4为本发明的部分匹配策略下的FRR曲线。
图5为本发明的最大匹配率策略下的GAR曲线。
图6为本发明的最大匹配率策略下的FRR曲线
图7为本发明的最大匹配率策略下的GAR随阈值变化曲线
图8为本发明的最大匹配率策略下的GAR-FAR曲线。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照 说明书文字能够据以实施。
本发明提出一种基于KAZE特征的手背静脉识别方法,主要包括以下步 骤:
1、图像预处理
静脉图像在采集过程中会受到外界环境的影响,存在图像整体灰度变化, 图像噪声较大等情况。因此,首先需要对采集的静脉图像进行预处理。
首先,对采集的静脉图像进行二值化处理,如式(1)所示。
式中,I(x,y)为(x,y)位置的灰度值,thresh为预设阈值,该阈值是通过 Otsu算法来获取,f(x,y)为二值化后静脉图像(x,y)位置的灰度值;
其次,利用零阶矩和一阶矩获取手背区域的质心,其中零阶矩计算如式 (2)所示,一阶矩计算如式(3)、式(4)所示。
其中,m与n分别为图像行数与列数。
再次,由式(5)获取手背质心位置,并基于矩形扩张策略获得感兴趣区域:
为提高图像的清晰度,并突出图像中静脉的前景信息,这里对图像分别 进行取反与直方图均衡化操作,从而获得M×M像素大小的待处理的静脉图 像L。
2、图像KAZE特征的提取
由于手背静脉图像边缘信息较弱,而KAZE特征具有非线性扩散方程特 性,可以在对图像进行滤波的同时,增强图像边缘信息。
对于预处理后静脉图像L,首先对其进行高斯卷积滤波处理,如式(6)所 示。
其中,
其次,求取滤波后图像所有像素梯度幅值的最大值,如式(7), 式(8)所示。
而后,构建非线性尺度空间,该空间由N张图像构成,N=O*S,其中, o表示父级数,S表示子级数,进而可获得每一级图像尺度参数σi与进化时间 ti,如式(9),式(10)所示。
σi(o,s)=σ02o+s/S (9)
其中,o∈{0,1,...,O-1},s∈{0,1,...S-1}。
而后,基于加性算子分裂(Additive Operator Splitting)算法获取不同尺度空间下的图像,如式(11)所示。
式中,m=4,表示上下左右四个方向,I为单位矩阵,τ为时间尺度差值, Li为i尺度下的图像矩阵,Qxy(Li)和Qi为图像传导矩阵,x表示图像中的点,y 表示x周围邻域中满足要求的点;g是传导函数,采用Perona-Malik函数;N 为相邻像素集,h为相邻区域的大小,i∈{0,1,...,N-1};
根据式(11)构建了非线性尺度空间Li后,i∈{0,1,...,N-1},可通过求取每 一层图像的Hessian矩阵并获得所有层图像像素的响应值,如式(14)所示。
其中,为水平二阶导数,为垂直二阶导数,为交叉二阶导数; 并得到不同尺度下的静脉图像。
构建N个尺度空间后,这里将在尺度空间中每一层图像中提取出具有极 大响应值的像素点作为KAZE特征点。假设在第i个尺度空间图像Li中,判断 (x,y)位置像素点是否具有极大响应值:将Li+1,Li,Li-1三层进行联合查找, 查找窗口大小为3×3,被查找点应与其26邻域点进行比较,即Lw(a,b),这里 i-1≤w≤i+1,x-1≤a≤x+1,y-1≤b≤y+1,(a,b)≠(x,y)。当 那,么(x,y)位置像素点具有极大响应值,即Li(x,y)为KAZE特征点。
最后,对每一特征点进行特征提取。假设提取的KAZE特征点为Li(x,y), 需以该点为中心建立一个30σi×30σi的窗口,并以特征点Li(x,y)为中心,对该 窗口进行σ=2.5σi的高斯加权滤波处理,而后,将该窗口分割为4×4的16个 子窗口,相邻窗口之间覆盖2σi,这里,σi为该层图像的尺度参数,对每一子 窗口进行特征提取,提取的特征向量如式(15)所示。
dv=(∑Lx,∑Ly,∑|Lx|,∑|Ly|) (15)
3.特征匹配
获取静脉图像的KAZE特征点及特征向量后,需对不同图像的特征点进 行匹配,这里将采用粗匹配与精匹配结合的匹配策略,从而对静脉图像进行 识别。
3.1特征粗匹配
在特征点粗匹配阶段,将采用最邻近距离比值法(Nearest Neighbor DistanceRatio,NNDR)作为匹配测度函数。首先,分别计算待匹配特征点与 某一训练样本中所有特征点的欧式距离,得到待匹配特征点与该训练样本特 征点的最近邻距离和次近邻距离,然后根据最近邻距离和次近邻距离的比值 与给定阈值的关系来确定两点匹配关系,如式(16)所示。
其中,DA为待匹配特征,DB为最近邻特征,DC为次近邻特征,t为阈值。。
在部分特征点匹配正确的同时,仍存在一定数目的错误匹配点,因此, 为了提高特征点匹配准确率,应进一步对特征点进行精匹配处理。
3.2特征精匹配
鉴于RANSAC(Random Sample Consensu)算法可以从异常数据中通过迭 代方式估计出数学模型及其参数,从而得到有效数据,因此,将采用RANSAC 算法对粗匹配成功的特征点进行进一步的精匹配处理。
随机选取粗匹配成功的四组对应的特征点,特征点坐标为(xi,yi), i=1,2,...,8,将其转化为齐次坐标(xi',yi',1),并求取单应矩阵H,如式(17)。
由于H包含两个特征点的坐标,又因H的作用与经过缩放的sH的作用一 样,所以令s=1/h33,H变为8个位置元素和值为1的元素,如式(18)所示。
M=H*K (18)
其中,M为训练图像特征点齐次坐标,K为待匹配图像特征点,可以得 到如下矩阵方程,如式(19)。
得到H后,将4组点对之外的点依次对坐标带入式(20),进行距离阈值判 定,判断该点是否为内点,记录总的内点数count,其中t为误差阈值。以上 计算H和判定内点的步骤循环迭代条件如式(21),意为求出在H条件下使得 count最大的参数集合。
循环式(21),找出最大的内点数相对应的单应矩阵,其中k为迭代次数。
获得单应矩阵H后,将所有点对带入式(18),进行内点判定,内点留下, 外点剔除,最终剩下的点对即为匹配点。
具体实施例如下:
将采用以下错误识别率(False Accept Rate,FAR),错误拒绝率(False RejectRate,FRR),正确识别率(Genuine Accept Rate,GAR)三种评价指标来衡量识 别算法的性能,如式(1),式(2),式3)所示。
实验选用总样本为114人的手背静脉图像数据集,每人5幅图像,共570 幅图像,其中每个人4幅图像作为训练样本,1幅图像为测试样本,采用1: N方式进行匹配,即每幅测试样本将与所有训练样本匹配,从而得到特征点 匹配率和内点占比(内点为正确匹配的特征点)数据。这里,编号1和2表示同 一手背静脉对象的不同样本间的特征点检测与匹配结果,编号3表示不同手 背静脉对象的样本间的特征点检测与匹配结果,其中左为测试样本,右为选 取的待匹配样本。而匹配结果统计如表1所示。
表1特征点匹配结果统计
由表1可以看出,对于同一手背对象的特征点匹配率会更高,不同手背 对象的匹配虽然存在误差,但内点占比可以表现出算法的类间区分效果。同 一手背对象与不同手背对象的匹配率差异符合客观事实,可以看出基于 KAZE特征的手背静脉识别方法的有效性。
而后,根据不同的匹配策略对算法性能进行分析,分别采用完全匹配策 略、部分匹配策略和最大匹配策略。
本算法采用1:N的匹配方式,即测试样本将与所有训练样本匹配,匹 配时先按匹配率降序排列,再对已降序排列数据进行内点占比降序排列,并 选取位于前三位的匹配结果,该结果中可能出现3个正例、2个正例、1个正 例、无正例4种情况。若将前三例样本为正例样本定义为匹配成功,则此策 略要求测试样本与训练样本完全匹配,且可以根据所得认证结果进行交叉验 证,判定认证结果是否属于同一类。根据该匹配策略,实验结果如图1-2所 示。
由图1-2可以看出,当选取所有测试样本进行实验时,正确接收率最终 为49.12%,错误接收率为50.88%,即可成功认证几乎一半人,识别准确性不 理想。通过对实验过程的跟踪与分析,可知完全匹配策略在遇到样本特征点 数量很少的情况下和样本相似度高的情况下,正确匹配率不是很高。因此, 这里提出了部分匹配策略,目的为在保证有效性前提下提高匹配率。
部分匹配策略定义为最大概率和次大概率所对应的样本为正例样本,这 样相对于完全匹配策略,部分匹配策略降低了匹配要求,实验结果如图3-4 所示。
最大匹配率策略
最大匹配率策略的目标是找到与测试样本相匹配的具有最大匹配率的训 练样本,则认定此训练样本为匹配成功样本,该策略需要进行匹配率阈值设 定,以满足稳定性。这里将利用ROC(Receiver Operating Characteristic curve) 曲线展现出GAR与阈值以及FAR与GAR之间的关系,有利于直观的表达出 准曲率和误识率,实验结果如图5-8所示。
实验中,所有测试样本都可以得到各自的最大匹配率,在对114个测试 样本进行实验时,有83.33%的样本匹配正确,但在没有交叉验证的情况下, 可靠性较低,因此可以根据设定阈值的方式来进一步筛选认证结果。随着FAR 缓慢变化,GAR迅速提升,此曲线可以看出本文模型有较好的特性,GAR 最大值可达91.23%。
此外,基于同样的数据,提出的算法与同样基于特征点匹配思想的SIFT 算法与SURF算法进行对比,实验环境为i5-5500处理器,8G内存, Matlab2016a实验环境下,对比结果如表2所示。
表2基于不同类型特征点的识别算法性能对比结果
可以看出,针对质量较差,清晰度低的静脉图像,提出的算法误识率大 幅度低于SIFT与SURF算法,此外,特征匹配过程也具有较好实时性。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方 式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领 域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范 围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图 例。

Claims (10)

1.一种基于KAZE特征的手背静脉识别方法,其特征在于,包括以下步骤:
步骤一、对采集的手背静脉图像进行预处理,并基于KAZE算法对预处理后图像进行特征点提取;
步骤二、利用最近邻比值法对两幅图像中提取的特征点进行粗匹配得到粗匹配特征点;
步骤三、利用RANSAC算法对粗匹配特征点再次进行精匹配得到匹配点。
2.根据权利要求1所述的基于KAZE特征的手背静脉识别方法,其特征在于,在所述步骤一中,所述预处理具体包括:
步骤a、对采集的静脉图像进行二值化处理,
式中,I(x,y)为(x,y)位置的灰度值,thresh为预设阈值,f(x,y)为二值化后静脉图像(x,y)位置的灰度值;
步骤b、利用零阶矩和一阶矩获取手背区域的质心,其中,零阶矩M00计算方法满足:
式中,m与n分别为二值化后静脉图像的行数与列数;
一阶矩M10和M01计算方法分别满足:
步骤c、获取手背质心位置为:
并基于矩形扩张策略获得感兴趣区域图像;
步骤d、对感兴趣区域图像分别进行取反与直方图均衡化操作,从而获得M×M像素大小的预处理的静脉图像L。
3.根据权利要求2所述的基于KAZE特征的手背静脉识别方法,其特征在于,所述步骤一中特征点提取具体包括:
步骤1、对预处理的静脉图像L进行高斯卷积滤波处理;
步骤2、求取滤波后图像所有像素梯度幅值的最大值;
步骤3、构建非线性尺度空间,该空间由N张图像构成,获得每一级图像的尺度参数σi
σi(o,s)=σ02o+s/S
式中,o∈{0,1,...,O-1},s∈{0,1,...S-1},O表示父级数,S表示子级数;
以及进化时间ti
步骤4、基于加性算子分裂算法获取不同尺度空间下的图像:
式中,m=4,表示上下左右四个方向,I为单位矩阵,τ为时间尺度差值,Li为i尺度下的图像矩阵,Qxy(Li)为图像传导矩阵,g是传导函数,N为相邻像素集,h为相邻区域的大小,i∈{0,1,...,N-1};
步骤5、求取每一层图像的Hessian矩阵
式中,为水平二阶导数,为垂直二阶导数,为交叉二阶导数;
并得到不同尺度下的静脉图像;
步骤6、在尺度空间中每一层图像中提取出具有极大响应值的像素点作为KAZE特征点;
步骤7、提取特征点的特征向量。
4.根据权利要求3所述的基于KAZE特征的手背静脉识别方法,其特征在于,所述步骤6中提取KAZE特征点的具体方法为:
在第i个尺度空间图像Li中,判断(x,y)位置像素点是否具有极大响应值:将Li+1,Li,Li-1三层进行联合查找,查找窗口大小为3×3,被查找点应与其26邻域点进行比较,即Lw(a,b),这里i-1≤w≤i+1,x-1≤a≤x+1,y-1≤b≤y+1,(a,b)≠(x,y),当Li(x,y)>maxLw(a,b),则(x,y)位置像素点具有极大响应值,即Li(x,y)为KAZE特征点。
5.根据权利要求4所述的基于KAZE特征的手背静脉识别方法,其特征在于,所述步骤7中特征向量的提取方法为:
以Li(x,y)特征点为中心建立一个30σi×30σi的窗口,并以特征点为中心,对所述窗口进行σ=2.5σi的高斯加权滤波处理,而后,将所述窗口分割为4×4的16个子窗口,相邻窗口之间覆盖2σi,其中,σi为对应层图像的尺度参数,对每一子窗口进行特征提取,提取的特征向量dv满足:
dv=(∑Lx,∑Ly,∑|Lx|,∑|Ly|)。
6.根据权利要求5所述的基于KAZE特征的手背静脉识别方法,其特征在于,所述步骤三中粗匹配特征点的提取方法为:
分别计算待匹配特征点与训练样本中所有特征点的欧式距离,得到待匹配特征点与该训练样本特征点的最近邻距离和次近邻距离,然后根据最近邻距离和次近邻距离的比值与给定阈值的关系来确定两点匹配关系:
式中,DA为待匹配特征,DB为最近邻特征,DC为次近邻特征,t为阈值。
7.根据权利要求6所述的基于KAZE特征的手背静脉识别方法,其特征在于,所述步骤三中对粗匹配特征点进行精匹配的具体方法为:
随机选取粗匹配成功的四组对应的特征点,特征点坐标为(xi,yi),i=1,2,...,8,将其转化为齐次坐标(x′i,y′i,1),并求取单应矩阵H:
令s=1/h33,矩阵H变为:
M=H*K
其中,M为训练图像特征点齐次坐标,K为待匹配图像特征点,可以得到如下矩阵方程:
由此可得到单应矩阵H,将4组点对之外的点依次对坐标带入式下式中,
进行距离阈值判定:判断点为内点,记录总的内点数count,其中t为误差阈值,计算矩阵H和判定内点的步骤循环迭代,求出在矩阵H条件下使得count最大的参数集合:
找出最大的内点数相对应的单应矩阵,其中k为迭代次数;
获得单应矩阵H后,进行内点判定,内点留下,外点剔除,最终剩下的点对即为匹配点。
8.根据权利要求3所述的基于KAZE特征的手背静脉识别方法,其特征在于,所述步骤1中高斯卷积滤波处理具体方法为:
其中,
9.根据权利要求8所述的基于KAZE特征的手背静脉识别方法,其特征在于,所述步骤2中像素梯度幅值及其最大值的计算方法分别为:
10.根据权利要求2所述的基于KAZE特征的手背静脉识别方法,其特征在于,
所述预设阈值通过Otsu算法获取。
CN201910459889.2A 2019-05-30 2019-05-30 一种基于kaze特征的手背静脉识别方法 Pending CN110163182A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910459889.2A CN110163182A (zh) 2019-05-30 2019-05-30 一种基于kaze特征的手背静脉识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910459889.2A CN110163182A (zh) 2019-05-30 2019-05-30 一种基于kaze特征的手背静脉识别方法

Publications (1)

Publication Number Publication Date
CN110163182A true CN110163182A (zh) 2019-08-23

Family

ID=67630174

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910459889.2A Pending CN110163182A (zh) 2019-05-30 2019-05-30 一种基于kaze特征的手背静脉识别方法

Country Status (1)

Country Link
CN (1) CN110163182A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111506074A (zh) * 2020-05-08 2020-08-07 佳木斯大学 一种农作物翻晒吸尘装置机器控制方法
CN112861875A (zh) * 2021-01-20 2021-05-28 西南林业大学 一种用于区分不同木材产品的方法
CN113361412A (zh) * 2021-06-08 2021-09-07 西南科技大学 一种基于ulbp和surf的特征递进的手指静脉图像精确匹配方法
CN113658238A (zh) * 2021-08-23 2021-11-16 重庆大学 一种基于改进特征检测的近红外静脉图像高精度匹配方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809480A (zh) * 2015-05-21 2015-07-29 中南大学 一种基于分类回归树和AdaBoost的眼底图像视网膜血管分割方法
US20170109563A1 (en) * 2015-10-14 2017-04-20 Wayne State University Palm vein-based low-cost mobile identification system for a wide age range
CN107180436A (zh) * 2017-04-14 2017-09-19 西安电子科技大学 一种改进的kaze图像匹配算法
CN108615002A (zh) * 2018-04-22 2018-10-02 广州麦仑信息科技有限公司 一种基于卷积神经网络的手掌静脉认证方法
CN109034016A (zh) * 2018-07-12 2018-12-18 辽宁工业大学 一种普适性的基于s-cnn模型的手背静脉图像识别方法
CN109165640A (zh) * 2018-10-16 2019-01-08 北方工业大学 基于比特位面内分块互信息的手背静脉识别方法及识别系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809480A (zh) * 2015-05-21 2015-07-29 中南大学 一种基于分类回归树和AdaBoost的眼底图像视网膜血管分割方法
US20170109563A1 (en) * 2015-10-14 2017-04-20 Wayne State University Palm vein-based low-cost mobile identification system for a wide age range
CN107180436A (zh) * 2017-04-14 2017-09-19 西安电子科技大学 一种改进的kaze图像匹配算法
CN108615002A (zh) * 2018-04-22 2018-10-02 广州麦仑信息科技有限公司 一种基于卷积神经网络的手掌静脉认证方法
CN109034016A (zh) * 2018-07-12 2018-12-18 辽宁工业大学 一种普适性的基于s-cnn模型的手背静脉图像识别方法
CN109165640A (zh) * 2018-10-16 2019-01-08 北方工业大学 基于比特位面内分块互信息的手背静脉识别方法及识别系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
薛楷: "具有普适性的手部静脉识别关键算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111506074A (zh) * 2020-05-08 2020-08-07 佳木斯大学 一种农作物翻晒吸尘装置机器控制方法
CN111506074B (zh) * 2020-05-08 2022-08-26 佳木斯大学 一种农作物翻晒吸尘装置机器控制方法
CN112861875A (zh) * 2021-01-20 2021-05-28 西南林业大学 一种用于区分不同木材产品的方法
CN113361412A (zh) * 2021-06-08 2021-09-07 西南科技大学 一种基于ulbp和surf的特征递进的手指静脉图像精确匹配方法
CN113361412B (zh) * 2021-06-08 2022-03-01 西南科技大学 一种基于ulbp和surf的特征递进的手指静脉图像精确匹配方法
CN113658238A (zh) * 2021-08-23 2021-11-16 重庆大学 一种基于改进特征检测的近红外静脉图像高精度匹配方法
CN113658238B (zh) * 2021-08-23 2023-08-08 重庆大学 一种基于改进特征检测的近红外静脉图像高精度匹配方法

Similar Documents

Publication Publication Date Title
Fang et al. A new spatial–spectral feature extraction method for hyperspectral images using local covariance matrix representation
CN110163182A (zh) 一种基于kaze特征的手背静脉识别方法
Nigam et al. Multiple texture information fusion for finger-knuckle-print authentication system
Yoon et al. LFIQ: Latent fingerprint image quality
Bakshi et al. Fast periocular authentication in handheld devices with reduced phase intensive local pattern
Joshi et al. Latent fingerprint enhancement using generative adversarial networks
Ishikura et al. Saliency detection based on multiscale extrema of local perceptual color differences
Liu et al. An efficient finger-vein extraction algorithm based on random forest regression with efficient local binary patterns
Wyzykowski et al. Level three synthetic fingerprint generation
CN110287780B (zh) 一种光照下人脸图像特征提取方法
Aravindan et al. Robust partial fingerprint recognition using wavelet SIFT descriptors
CN107644227A (zh) 一种用于商品图像搜索的融合多视角的仿射不变描述子
Zhang et al. Improving texture analysis performance in biometrics by adjusting image sharpness
Ma et al. Multiscale 2-D singular spectrum analysis and principal component analysis for spatial–spectral noise-robust feature extraction and classification of hyperspectral images
Velliangira et al. A novel forgery detection in image frames of the videos using enhanced convolutional neural network in face images
Raghavendra et al. An efficient finger vein indexing scheme based on unsupervised clustering
Wang et al. A gradient based weighted averaging method for estimation of fingerprint orientation fields
Al Tamimi et al. Offline signature recognition system using oriented FAST and rotated BRIEF
CN111127407B (zh) 一种基于傅里叶变换的风格迁移伪造图像检测装置及方法
Leibe et al. Interleaving object categorization and segmentation
Tahmasebi et al. A novel adaptive approach to fingerprint enhancement filter design
Chen et al. Visual saliency detection: from space to frequency
Aydoğdu et al. A study on liveness analysis for palmprint recognition system
CN111191624B (zh) 一种基于法向量信息的指静脉特征提取方法
Lam A fast approach for detecting human faces in a complex background

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190823

RJ01 Rejection of invention patent application after publication