CN114913607A - 一种基于多特征融合的指静脉仿冒检测方法 - Google Patents

一种基于多特征融合的指静脉仿冒检测方法 Download PDF

Info

Publication number
CN114913607A
CN114913607A CN202210668731.8A CN202210668731A CN114913607A CN 114913607 A CN114913607 A CN 114913607A CN 202210668731 A CN202210668731 A CN 202210668731A CN 114913607 A CN114913607 A CN 114913607A
Authority
CN
China
Prior art keywords
image
feature
pixel
finger vein
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210668731.8A
Other languages
English (en)
Inventor
邵雷
刘星利
穆恒宇
马宇晗
邰奕雯
郭剑
张勤
韩崇
王娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202210668731.8A priority Critical patent/CN114913607A/zh
Publication of CN114913607A publication Critical patent/CN114913607A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • G06T5/70
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

一种基于多特征融合的指静脉仿冒检测方法,利用真伪静脉图像在成像质量上的差异,将图像的噪声特征和模糊特征进行融合,来进行仿冒攻击的检测。本方法实现简单,原始指静脉图像在实现真伪鉴别的同时,可同时用于后续的身份识别,减少了额外的计算机资源消耗;相比于仅使用单一图像纹理特征的指静脉仿冒检测方法,本方法融合静脉图像的噪声特征和模糊特征,可增加真伪静脉图像的区分度,有助于提高指静脉仿冒检测的准确度;相比于传统的直接串联或并行的多特征融合方法,本方法使用加权特征融合,考虑了各特征的重要程度,减小了特征间的相互影响,提高了分类器的泛化能力。

Description

一种基于多特征融合的指静脉仿冒检测方法
技术领域
本发明属于指静脉识别技术领域,具体涉及一种基于多特征融合的指静脉仿冒检测方法,用于提高指静脉识别系统仿冒攻击检测的性能。
背景技术
指静脉识别是一种利用人体手指内部的静脉结构进行身份识别的技术。与其它生物特征识别技术类似,指静脉识别技术也面临仿冒攻击的威胁。所谓仿冒攻击是指,攻击者利用伪造的生物特征欺骗传感器,从而达到侵入系统的目的。虽然指静脉本身属于人体内部特征,具备一定抵抗仿冒攻击的潜力,但存储指静脉信息的数据库及相关处理系统仍存在信息泄露的可能。因此,提升识别系统抵抗仿冒攻击的性能,就显得尤为必要。
目前,对指静脉识别系统的仿冒攻击主要是集中在打印攻击上。打印攻击是指通过将手指静脉图像打印在A4白纸、雪面铜版纸等材料上,伪造成静脉模型,利用该模型实现对识别系统的欺骗攻击。针对此类打印攻击的威胁,目前的解决方法主要有两类:一类基于硬件,另一类基于软件。基于硬件的方法是通过检测手指的活性或生命信号来进行真伪静脉的检测。相比于伪造的指静脉模型,真实手指有较多的活体特征可用于鉴别,例如热红外辐射特征、血液流动特征以及血氧饱和度特征等。这类方法的可靠性及识别精度较高,但缺点是:(1)需要增加额外的设备,硬件成本较高;(2)需要连续采集、保存和处理一系列图像来提取相关信息,增加了系统计算资源、存储空间和运行时间的开销。基于软件的方法实现相对简单,只需对单张图像进行分析,多从真伪图像纹理特征的差异性进行考虑。这类方法主要有傅里叶频谱能量比法、傅里叶频谱带宽能量法、二值统计图像特征法和基于图像纹理分析的可控金字塔法等。但这些方法一般从图像中提取单一特征来进行仿冒检测,性能存在局限。
发明内容
针对上述问题,本发明融合图像的噪声特征和模糊特征,提出了一种基于多特征融合的指静脉仿冒检测方法。其主要原理是,指静脉图像在打印后进行二次采集时,会给图像增加额外的噪声信息。另外,由于打印分辨率低,以及二次采集时摄像头失焦等问题,图像的模糊性也会增加。因此,真伪静脉图像的差异既体现在噪声分布上,也体现在模糊程度上。将这两种特征进行融合,区分度会更强,仿冒检测的识别率也会更高。
一种基于多特征融合的指静脉仿冒检测方法,包括如下步骤:
步骤1:对于输入图像I,分别在0°、45°、90°和135°四个方向上对图像进行差分滤波,得到四个方向上的差分矩阵M
Figure BDA0003694003140000021
M
Figure BDA0003694003140000022
作为图像的噪声信息;
步骤2:对于输入图像I,采用引导滤波方法提取图像的模糊信息;
步骤3:对步骤2得到的结果进行2*2均等分块,得到四个模糊信息块;
步骤4:对步骤1得到的四个方向上的差分矩阵进行LBP纹理特征提取,并将结果进行串联,作为该静脉图像的噪声特征F1
步骤5:对步骤3得到的四个模糊信息块进行LBP纹理特征提取,并将结果进行串联,作为该静脉图像的模糊特征F2
步骤6:对噪声特征F1和模糊特征F2进行线性加权融合;
步骤7:训练分类模型;对特征融合后的结果使用支持向量机进行训练分类,训练过程中使用粒子群算法进行特征的权值寻优,获得最佳权值和分类模型;
步骤8:应用分类模型;向分类模型输入所需检测的指静脉图像,获取仿冒检测的结果。
进一步地,步骤1中,四个方向相应的差分矩阵M
Figure BDA0003694003140000031
M
Figure BDA0003694003140000032
的计算方式如下:
M(x,y)=I(x,y)-I(x+1,y) (1)
Figure BDA0003694003140000033
M(x,y)=I(x,y)-I(x,y+1) (3)
Figure BDA0003694003140000034
其中,I(x,y)∈{0,1,2,...,255},x、y分别表示图像I的像素位置。
进一步地,步骤2中,包括如下分步骤:
步骤2.1,对于输入图像I,设置引导滤波器的引导图像p等于I,滤波输出图像记为q;假设p和q在窗口wk中存在局部线性关系,即q是p在窗口wk中的局部线性变换,其中窗口wk以像素k为中心,r为半径,则q中各像素点的计算如式(5)所示:
Figure BDA0003694003140000041
其中i、k都是像素索引,αk和bk为该线性函数的系数,且在局部窗口wk中为常数;
步骤2.2,记I和q之差为E,则通过式(6)对q进行约束,最小化E后求解系数αk和bk
Figure BDA0003694003140000042
其中ε>0,ε是为防止求得过大的αk而引入的正则化参数,Ii表示输入图像I的一个像素i,且i∈wk
使用最小二乘法可解得线性系数
Figure BDA0003694003140000043
其中uk和σk 2分别表示在窗口wk中的均值和方差,|w|是窗口wk中的像素个数,
Figure BDA0003694003140000044
表示输入图像I在窗口wk中的均值;
步骤2.3,计算某一像素点的具体输出时,将包含该像素点的所有线性函数值取平均,则最终滤波输出如式(7)所示:
Figure BDA0003694003140000045
其中,
Figure BDA0003694003140000046
wi是所有包含像素k的窗口,且像素i为窗口的中心;滤波输出的结果q将作为图像的模糊信息。
进一步地,步骤4和步骤5中,LBP特征提取的过程是,选定一个像素点,在以该像素点为中心的3*3大小的邻域窗口中,若其邻域的像素值大于或等于该像素值,则该邻域位的像素值置1,否则置0;最后,以邻域窗口左上角的像素为第一位,按顺时针方向将各邻域的值保存下来,作为该中心像素点的LBP码。
进一步地,步骤6中,融合后的特征F如式(8)所示:
F=z1F1+z2F2 (8)
其中z1、z2为F1、F2对应权值,满足z1+z2=1,0≤z1,z2≤1。
进一步地,步骤7中,训练过程中使用粒子群算法进行z1和z2的寻优,使得模型的检测性能达到最佳;使用粒子群算法进行权值寻优,流程如下:随机初始化粒子群分布后,在迭代次数内,分别评估每个粒子对应的仿冒检测性能;然后,每个粒子根据当前适应值和历史最优适应值来更新自己的最优值;接着更新整个种群的最优值;之后,所有粒子更新自己的速度和位置;最后,根据是否达到迭代次数循环上述步骤;其中,粒子群算法的速度和位置更新公式如下。
Ve(t+1)=wVe(t)+c1R1(pbest–Se(t))+c2R2(gbest-Se(t)) (9)
Se(t+1)=Se(t)+Ve(t+1) (10)
其中,Ve(t)为第e个粒子在t时刻的速度,Se(t)为第e个粒子在第t时刻的位置,pbest保存该粒子的历史最优位置,gbest保存全局所有粒子的最优位置,w为惯性权值,c1和c2为加速因子,R1和R2取[0,1]随机数,粒子在一维空间进行搜索,设置粒子数和最大迭代次数,位置和速度分别限制在区间[0,1]、[-0.2,0.2],适应度函数为模型的识别率;训练过后获得特征融合最佳权重z1和z2,保存最佳分类模型。
本发明的有益效果:
(1)实现简单,原始指静脉图像在实现真伪鉴别的同时,可同时用于后续的身份识别,减少了额外的计算机资源消耗。
(2)相比于仅使用单一图像纹理特征的指静脉仿冒检测方法,本发明融合静脉图像的噪声特征和模糊特征,可增加真伪静脉图像的区分度,有助于提高指静脉仿冒检测的准确度。
(3)相比于传统的直接串联或并行的多特征融合方法,本发明使用加权特征融合,考虑了各特征的重要程度,减小了特征间的相互影响,提高了分类器的泛化能力。
附图说明
图1为本发明实施例中的基于多特征融合的指静脉仿冒检测方法的流程图。
图2为本发明实施例中的LBP算子的示意图。
图3为本发明实施例中的粒子群算法的流程图。
具体实施方式
下面结合说明书附图对本发明的技术方案做进一步的详细说明。
本发明是一种基于多特征融合的指静脉仿冒检测方法,其流程如图1所示。在提取特征前,本发明无需做任何预处理。提取图像噪声信息时,本发明引入差分滤波法对图像进行四个方向的差分滤波,将获得的差分矩阵作为图像的噪声信息。提取图像模糊信息时,本发明引入可较大程度还原图像真实信息的引导滤波方法进行信息提取。考虑到手指静脉图像的特征,如图像中近端和远端关节会出现高亮区域,为了更好地表征这种局部结构特性,对得到的图像模糊信息进行2*2均等分块处理。接着,针对提取的噪声信息和模糊信息块,分别使用LBP进行纹理特征提取,得到图像的噪声特征和模糊特征,并使用线性加权方法对这两种特征进行融合。训练模型阶段,利用SVM作为分类器,特征加权融合的权重采用粒子群算法寻优确定。最后,得到最佳权值和分类模型后,可直接输入指静脉图像进行指静脉的仿冒检测。
本方法的主要步骤如下。
步骤1:使用差分滤波进行指静脉图像的噪声信息提取。
对于输入图像I,分别在0°、45°、90°和135°四个方向上对图像进行差分滤波,可以得到四个方向相应的差分矩阵M
Figure BDA0003694003140000071
M
Figure BDA0003694003140000072
它们各自的计算方式如下。
M(x,y)=I(x,y)-I(x+1,y) (1)
Figure BDA0003694003140000073
M(x,y)=I(x,y)-I(x,y+1) (3)
Figure BDA0003694003140000074
其中,I(x,y)∈{0,1,2,...,255},x、y分别表示图像I的像素位置。
步骤2:使用引导滤波进行指静脉图像的模糊信息提取。
对于输入图像I,设置引导滤波器的引导图像p等于I,滤波输出图像记为q。假设p和q在窗口wk中存在局部线性关系(wk以像素k为中心,r为半径),即q是p在窗口wk中的局部线性变换,则q中各像素点的计算如式(5)所示。
Figure BDA0003694003140000075
其中i、k都是像素索引,αk和bk为该线性函数的系数,且在局部窗口wk中为常数。记I和q之差为E,则通过式(6)对q进行约束,最小化E后可以求解系数αk和bk
Figure BDA0003694003140000081
其中ε>0,ε是为防止求得过大的αk而引入的正则化参数,Ii表示输入图像I的一个像素i,且i∈wk。使用最小二乘法可解得线性系数
Figure BDA0003694003140000082
其中uk和σk 2分别表示在窗口wk中的均值和方差,|w|是窗口wk中的像素个数,
Figure BDA0003694003140000083
表示输入图像I在窗口wk中的均值。
由于一个像素属于多个不同的窗口,也就意味着每个像素可以用多个线性函数来进行描述,因此计算某一点的具体输出时,可以将包含该像素点的所有线性函数值取平均,则最终滤波输出如式(7)所示。
Figure BDA0003694003140000084
其中,
Figure BDA0003694003140000085
wi是所有包含像素k的窗口,且像素i为窗口的中心。滤波输出的结果q将作为图像的模糊信息。
步骤3:对步骤2得到的模糊信息进行2*2均等分块处理,获得图像I的四个模糊信息块。
步骤4:对步骤1得到的四个差分矩阵进行LBP纹理特征提取,将结果进行串联,作为图像I的噪声特征F1
LBP特征提取的计算示例如图2所示。其过程是,选定一个像素点,在以该像素点为中心的3*3大小的邻域窗口中,若其邻域的像素值大于或等于该像素值,则该邻域位的像素值置1,否则置0。最后,以邻域窗口左上角的像素为第一位,按顺时针方向将各邻域的值保存下来,作为该中心像素点的LBP码。图2中,中心像素点的LBP码为:“10001110”。对差分矩阵中的每个像素点计算了LBP码后,将所有像素点获得的LBP码作为该差分矩阵的LBP特征。
步骤5:对步骤3得到的四个模糊信息块进行LBP纹理特征提取(过程同步骤4),将结果进行串联,作为图像I的模糊特征F2
步骤6:多特征融合。
使用线性加权方法融合噪声特征F1和模糊特征F2,得到融合后的特征F,如式(8)所示。
F=z1F1+z2F2 (8)
其中z1、z2为F1、F2对应权值,满足z1+z2=1,0≤z1,z2≤1。
步骤7:训练分类模型。
使用SVM模型作为分类器,训练过程中使用粒子群算法进行z1和z2的寻优,使得模型的检测性能达到最佳。本发明使用粒子群算法进行权值寻优的流程如图3所示。随机初始化粒子群分布后,在迭代次数内,分别评估每个粒子对应的仿冒检测性能。然后,每个粒子根据当前适应值和历史最优适应值来更新自己的最优值。接着更新整个种群的最优值。之后,所有粒子更新自己的速度和位置。最后,根据是否达到迭代次数循环上述步骤。其中,粒子群算法的速度和位置更新公式如下。
Ve(t+1)=wVe(t)+c1R1(pbest–Se(t))+c2R2(gbest-Se(t)) (9)
Se(t+1)=Se(t)+Ve(t+1) (10)
其中,Ve(t)为第e个粒子在t时刻的速度,Se(t)为第e个粒子在第t时刻的位置,pbest保存该粒子的历史最优位置,gbest保存全局所有粒子的最优位置,惯性权值w设为0.8,加速因子c1和c2设为0.5,R1和R2取[0,1]随机数,粒子在一维空间进行搜索,粒子数设为20,最大迭代次数设为30,位置和速度分别限制在区间[0,1]、[-0.2,0.2],适应度函数为模型的识别率。训练过后可获得特征融合最佳权重z1和z2,保存最佳分类模型。
步骤8:应用分类模型。向步骤7得到的分类模型输入待检测的指静脉图像,得到指静脉仿冒检测的结果。
本发明基于图像纹理分析的思想,充分利用真伪指静脉图像在噪声特征和模糊特征之间的差异,将两种特征进行加权融合,提高了指静脉仿冒检测的准确度。
本发明使用公开的IDIAP FVD数据集(Tome P,Vanoni M,Marcel S.On thevulnerability of finger vein recognition to spoofing[C]//2014 InternationalConference of the Biometrics Special Interest Group(BIOSIG).IEEE,2014:1-10.)进行了试验。该数据集包括Full和Cropped两类图像,性能评价指标使用如下三个:
(1)APCER(Attack Presentation Classification Error Rate,呈现攻击分类错误率):仿冒的生物特征被错误地判别成合法用户的比例;
(2)BPCER(Bona Fide Presentation Classification Error Rate,真实呈现分类错误率):合法用户被错误地判别成仿冒生物特征的比例;
(3)ACER(Average Classification Error Rate,平均分类错误率):APCER和BPCER的均值,其计算方式如式(11)所示。
Figure BDA0003694003140000111
本发明使用加权方式进行多特征的融合,并使用粒子群算法进行权值寻优。将本发明的方法与多特征串联融合、多特征并行融合的方法进行检测性能对比,结果如表1所示。从下表可以看出,本发明在Full和Cropped两类数据集上的APCER、BPCER、ACER均为0,结果优于多特征串联融合和多特征并行融合。这说明使用加权方式融合更好地利用了各特征本身的分类优势,分类器的泛化性能得到提高。
Figure BDA0003694003140000112
接着与Nguyen等人(Nguyen D T,Park Y H,Shin K Y,et al.Fake finger-veinimage detection based on fourier and wavelet transforms[J].Digital SignalProcessing,2013,23(5):1401-1413.)提出的FSER、DDWT、HDWT、FSER-DWT等方法进行对比,结果如下表所示。从表2可以看出,本发明的结果要优于这些方法。这是因为这些方法多从图像中提取单一特征进行指静脉真伪的鉴别,真伪指静脉要完全区分开较为困难。
Figure BDA0003694003140000113
Figure BDA0003694003140000121
综上所述,本发明的检测性能具有明显优势,噪声特征和模糊特征的融合增加了真伪静脉的区分度,仿冒检测性能较好。
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域普通技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。

Claims (6)

1.一种基于多特征融合的指静脉仿冒检测方法,其特征在于:所述方法包括如下步骤:
步骤1:对于输入图像I,分别在0°、45°、90°和135°四个方向上对图像进行差分滤波,得到四个方向上的差分矩阵M、M、M和M,作为图像的噪声信息;
步骤2:对于输入图像I,采用引导滤波方法提取图像的模糊信息;
步骤3:对步骤2得到的结果进行2*2均等分块,得到四个模糊信息块;
步骤4:对步骤1得到的四个方向上的差分矩阵进行LBP纹理特征提取,并将结果进行串联,作为该静脉图像的噪声特征F1
步骤5:对步骤3得到的四个模糊信息块进行LBP纹理特征提取,并将结果进行串联,作为该静脉图像的模糊特征F2
步骤6:对噪声特征F1和模糊特征F2进行线性加权融合;
步骤7:训练分类模型;对特征融合后的结果使用支持向量机进行训练分类,训练过程中使用粒子群算法进行特征的权值寻优,获得最佳权值和分类模型;
步骤8:应用分类模型;向分类模型输入所需检测的指静脉图像,获取仿冒检测的结果。
2.根据权利要求1所述的一种基于多特征融合的指静脉仿冒检测方法,其特征在于:步骤1中,四个方向相应的差分矩阵M、M、M和M的计算方式如下:
M(x,y)=I(x,y)-I(x+1,y) (1)
M(x,y)=I(x,y)-I(x+1,y+1) (2)
M(x,y)=I(x,y)-I(x,y+1) (3)
M(x,y)=I(x,y)-I(x-1,y+1) (4)
其中,I(x,y)∈{0,1,2,...,255},x、y分别表示图像I的像素位置。
3.根据权利要求1所述的一种基于多特征融合的指静脉仿冒检测方法,其特征在于:步骤2中,包括如下分步骤:
步骤2.1,对于输入图像I,设置引导滤波器的引导图像p等于I,滤波输出图像记为q;假设p和q在窗口wk中存在局部线性关系,即q是p在窗口wk中的局部线性变换,其中窗口wk以像素k为中心,r为半径,则q中各像素点的计算如式(5)所示:
Figure FDA0003694003130000021
其中i、k都是像素索引,αk和bk为该线性函数的系数,且在局部窗口wk中为常数;
步骤2.2,记I和q之差为E,则通过式(6)对q进行约束,最小化E后求解系数αk和bk
Figure FDA0003694003130000022
其中ε>0,ε是为防止求得过大的αk而引入的正则化参数,Ii表示输入图像I的一个像素i,且i∈wk
使用最小二乘法可解得线性系数
Figure FDA0003694003130000023
其中uk和σk 2分别表示在窗口wk中的均值和方差,|w|是窗口wk中的像素个数,
Figure FDA0003694003130000031
表示输入图像I在窗口wk中的均值;
步骤2.3,计算某一像素点的具体输出时,将包含该像素点的所有线性函数值取平均,则最终滤波输出如式(7)所示:
Figure FDA0003694003130000032
其中,
Figure FDA0003694003130000033
wi是所有包含像素k的窗口,且像素i为窗口的中心;滤波输出的结果q将作为图像的模糊信息。
4.根据权利要求1所述的一种基于多特征融合的指静脉仿冒检测方法,其特征在于:步骤4和步骤5中,LBP特征提取的过程是,选定一个像素点,在以该像素点为中心的3*3大小的邻域窗口中,若其邻域的像素值大于或等于该像素值,则该邻域位的像素值置1,否则置0;最后,以邻域窗口左上角的像素为第一位,按顺时针方向将各邻域的值保存下来,作为该中心像素点的LBP码。
5.根据权利要求1所述的一种基于多特征融合的指静脉仿冒检测方法,其特征在于:步骤6中,融合后的特征F如式(8)所示:
F=z1F1+z2F2 (8)
其中z1、z2为F1、F2对应权值,满足z1+z2=1,0≤z1,z2≤1。
6.根据权利要求1所述的一种基于多特征融合的指静脉仿冒检测方法,其特征在于:步骤7中,训练过程中使用粒子群算法进行z1和z2的寻优,使得模型的检测性能达到最佳;使用粒子群算法进行权值寻优,流程如下:随机初始化粒子群分布后,在迭代次数内,分别评估每个粒子对应的仿冒检测性能;然后,每个粒子根据当前适应值和历史最优适应值来更新自己的最优值;接着更新整个种群的最优值;之后,所有粒子更新自己的速度和位置;最后,根据是否达到迭代次数循环上述步骤;其中,粒子群算法的速度和位置更新公式如下。
Ve(t+1)=wVe(t)+c1R1(pbest–Se(t))+c2R2(gbest-Se(t)) (9)
Se(t+1)=Se(t)+Ve(t+1) (10)
其中,Ve(t)为第e个粒子在t时刻的速度,Se(t)为第e个粒子在第t时刻的位置,pbest保存该粒子的历史最优位置,gbest保存全局所有粒子的最优位置,w为惯性权值,c1和c2为加速因子,R1和R2取[0,1]随机数,粒子在一维空间进行搜索,设置粒子数和最大迭代次数,位置和速度分别限制在区间[0,1]、[-0.2,0.2],适应度函数为模型的识别率;训练过后获得特征融合最佳权重z1和z2,保存最佳分类模型。
CN202210668731.8A 2022-06-14 2022-06-14 一种基于多特征融合的指静脉仿冒检测方法 Pending CN114913607A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210668731.8A CN114913607A (zh) 2022-06-14 2022-06-14 一种基于多特征融合的指静脉仿冒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210668731.8A CN114913607A (zh) 2022-06-14 2022-06-14 一种基于多特征融合的指静脉仿冒检测方法

Publications (1)

Publication Number Publication Date
CN114913607A true CN114913607A (zh) 2022-08-16

Family

ID=82769916

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210668731.8A Pending CN114913607A (zh) 2022-06-14 2022-06-14 一种基于多特征融合的指静脉仿冒检测方法

Country Status (1)

Country Link
CN (1) CN114913607A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116502899A (zh) * 2023-06-29 2023-07-28 吉贝克信息技术(北京)有限公司 基于人工智能的风险评级模型生成方法、装置及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116502899A (zh) * 2023-06-29 2023-07-28 吉贝克信息技术(北京)有限公司 基于人工智能的风险评级模型生成方法、装置及存储介质
CN116502899B (zh) * 2023-06-29 2023-09-01 吉贝克信息技术(北京)有限公司 基于人工智能的风险评级模型生成方法、装置及存储介质

Similar Documents

Publication Publication Date Title
Nogueira et al. Evaluating software-based fingerprint liveness detection using convolutional networks and local binary patterns
Qiu et al. Finger vein presentation attack detection using total variation decomposition
CN109858429B (zh) 一种基于卷积神经网络的眼底图像病变程度识别与可视化系统
Raghavendra et al. Presentation attack detection algorithms for finger vein biometrics: A comprehensive study
CN107729820A (zh) 一种基于多尺度hog的手指静脉识别方法
Alshdadi et al. Exploiting Level 1 and Level 3 features of fingerprints for liveness detection
Yeh et al. Face liveness detection based on perceptual image quality assessment features with multi-scale analysis
CN111832405A (zh) 一种基于hog和深度残差网络的人脸识别方法
CN115240280A (zh) 人脸活体检测分类模型的构建方法、检测分类方法及装置
CN111223063A (zh) 基于纹理特征和双核函数的手指静脉图像nlm去噪方法
CN107784263A (zh) 基于改进加速鲁棒特征的平面旋转人脸检测的方法
Velliangira et al. A novel forgery detection in image frames of the videos using enhanced convolutional neural network in face images
CN113378620B (zh) 监控视频噪声环境下跨摄像头行人重识别方法
CN111259792A (zh) 基于dwt-lbp-dct特征的人脸活体检测方法
CN114913607A (zh) 一种基于多特征融合的指静脉仿冒检测方法
Bera et al. Spoofing detection on hand images using quality assessment
CN113723215B (zh) 活体检测网络的训练方法、活体检测方法及装置
Zhou et al. Domain adaptation based person-specific face anti-spoofing using color texture features
Yuan et al. Fingerprint liveness detection adapted to different fingerprint sensors based on multiscale wavelet transform and rotation-invarient local binary pattern
CN112329518B (zh) 基于边缘纹理强化和对称差分统计的指纹活性检测的方法
Lam A fast approach for detecting human faces in a complex background
CN110502996B (zh) 一种面向模糊指静脉图像的动态识别方法
Nezhadian et al. Palmprint verification based on textural features by using Gabor filters based GLCM and wavelet
CN112906508A (zh) 一种基于卷积神经网络的面部活体检测方法
Rai et al. A Thorough Investigation on Image Forgery Detection.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination