CN117333953A - 一种基于分数加权融合的指静脉仿冒检测模型及方法 - Google Patents

一种基于分数加权融合的指静脉仿冒检测模型及方法 Download PDF

Info

Publication number
CN117333953A
CN117333953A CN202311396073.2A CN202311396073A CN117333953A CN 117333953 A CN117333953 A CN 117333953A CN 202311396073 A CN202311396073 A CN 202311396073A CN 117333953 A CN117333953 A CN 117333953A
Authority
CN
China
Prior art keywords
image
finger vein
noise
weighted fusion
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311396073.2A
Other languages
English (en)
Inventor
郭剑
王子浩然
穆恒宇
季洁
邹浩然
韩崇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202311396073.2A priority Critical patent/CN117333953A/zh
Publication of CN117333953A publication Critical patent/CN117333953A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Vascular Medicine (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明属于图像识别技术领域,具体公开了一种基于分数加权融合的指静脉仿冒检测模型及方法,所述模型的训练步骤包括:伪造图像在打印或二次采集后会产生额外的噪声信息,因此采用双边滤波去噪算法和均值滤波去噪算法提取出伪造图像和真实图像的噪声特征,然后采用基于局部二值模式LBP提取的两类噪声特征和原始纹理特征,最后使用支持向量机SVM对提取的两类噪声特征和原始纹理特征分别进行分类,再将分类结果进行分数加权融合,就能得到最终的分类结果模型,然后采用分类结果模型对待识别图像进行识别。

Description

一种基于分数加权融合的指静脉仿冒检测模型及方法
技术领域
本发明属于图像识别技术领域,涉及一种基于分数加权融合的指静脉仿冒检测模型及方法。
背景技术
手指静脉识别技术是利用特定波长附近的红外光线对手指进行照射,并利用手指透射出的光进行红外成像获得静脉成像的图像,作为一种生物特征识别技术,手指静脉识别技术本身即具有成本低廉、准确性高、活体识别的唯一性等优势,但和其它生物识别技术类似,指静脉识别技术也面临仿冒攻击的威胁和风险。所谓仿冒攻击是指将伪造的特征样本呈现给生物特征捕获设备,以欺骗系统获得非法权限的行为。目前存在的仿冒攻击主要包括打印攻击、使用智能设备展示和利用蜂蜡制成的仿真手指等。
针对上述仿冒攻击,科研人员提出了多种仿冒攻击检测(Presentation AttackDetection,PAD)方法,主流的解决方法可分为基于活体信号检测的方法和基于纹理分析的方法两类。基于活体信号检测的方法主要通过增加额外的设备来捕获活体信号,这类方法精确度较高,但需要硬件的支持或消耗巨大的系统资源。基于纹理分析的方法实现起来更为简单,成本更低,主要通过设计一个能区分真伪指静脉的特征来实现,因为伪造样本在制作过程中会产生很多与真实样本不一致的噪声信息。现有技术中的基于纹理分析的这类方法有傅里叶频谱能量比法(Fourier Spectral Energy Ratio,FSER)、傅里叶频谱带宽能量法(Fourier Spectral Bandwidth Energy,FSBE)、二值统计图像特征法(BinarizedStatistical Image Features,BSIF)、基于图像纹理分析的可控金字塔法(SteerablePyramids,SP)、面向梯度的多尺度直方图表示方法(Multi-Scale Histogram ofOrientedGradients,MHOG)、基于动态窗口模型进行图像分解法(Windowed DMD,W-DMD)等。但是现有技术中上述基于纹理分析的这些方法通常基于单一的纹理特征来进行仿冒攻击检测,因此检测性能有限且通用性较低。
发明内容
与其他生物识别图像不同,指静脉图像通过红外光源成像,静脉在图像中呈暗影分布,灰度值较低,而手指区域的非纹路部分较亮,灰度值较高,针对现有技术中指静脉指静脉仿冒检测准确性和通用性不足的问题,本申请利用指静脉图像上述的特点,综合多种纹理特征,提出了一种基于分数加权融合的指静脉仿冒检测方法,以提升仿冒检测的性能和泛化性。
本发明提出了一种基于分数加权融合的指静脉仿冒检测模型及方法,将双边滤波噪声特征、均值滤波噪声特征和原始纹理特征的分类结果进行加权融合。该方法的基本原理是:伪造图像在打印或二次采集后会产生额外的噪声信息,因此采用双边滤波去噪算法和均值滤波去噪算法,分别从伪造图像和原始图像上提取出噪声特征,然后采用基于局部二值模式(Local Binary Pattern,LBP)提取的两类噪声特征和原始纹理特征,LBP是一种用来描述图像局部纹理特征的算子,它的作用是进行特征提取,提取图像的局部纹理特征,最后使用支持向量机(Support Vector Machines,SVM)对提取的两类噪声特征和原始纹理特征分别进行分类,再将分类结果进行分数加权融合,就能得到最终的分类结果模型。
第一方面,本发明提供了一种基于分数加权融合的指静脉仿冒检测模型,如图1所示,所述模型是由如下操作步骤训练获得:
使用红外采集设备采集真实手指静脉图像作为真实数据集,伪造指静脉模型例如用激光胶片制作伪造指静脉模型,再使用采集设备进行二次采集得到伪造指静脉图像构成伪造数据集,所述真实数据集和伪造数据集合并后作为真伪数据集,最后将真伪数据集划分为训练集和验证集,并根据真伪打上标签;
对真伪数据集中的每个原始图像I均进行三次特征提取,需要说明的是,此处原始图像I既包括真伪数据集中的真实手指静脉图像,也包括真伪数据集中的伪造指静脉图像,第一次特征提取为对原始图像I进行LBP特征提取得到图像的原始纹理特征F1;第二次特征提取为采用双边滤波算法对原始图像I进行去噪得到第一去噪图像I1、再将I与I1做差得到第一噪声图像N1、并对N1进行LBP特征提取得到第一噪声特征F2;第三次特征提取为采用均值滤波算法对原始图像I进行去噪得到第二去噪图像I2、再将I与I2做差得到第二噪声图像N2、并对N2进行LBP特征提取得到第二噪声特征F3
将训练集中的每一张原始图像I经过三次特征提取后获得的原始纹理特征F1、第一噪声特征F2、第二噪声特征F3分别输入支持向量机进行训练,得到三个预训练SVM模型,再将验证集中的每一张原始图像I的经过三次特征提取后获得的原始纹理特征F1、第一噪声特征F2、第二噪声特征F3分别输入对应的预训练SVM模型,得到三个分类结果R1、R2和R3;通过对三个分类结果加权,通过穷举算法求得最佳分类权重,得到分数加权融合模型即基于分数加权融合的指静脉仿冒检测模型。
第二方面,本发明提供了一种基于分数加权融合的指静脉仿冒检测方法,即应用所述分数加权融合模型进行真伪指静脉识别,所述检测方法包括步骤:将待识别指静脉图像按照上述特征提取方式进行三次特征提取,分别提取出待识别指静脉图像的原始纹理特征F1'、第一噪声特征F2'、第二噪声特征F3',分别输入上述三个预训练SVM模型获得三个分类结果R1'、R2'和R3',然后再三个分类结果R1'、R2'和R3'输入上述训练获得的分数加权融合模型进行加权决策,最后输出得到的指静脉仿冒检测结果。
有益效果:
(1)判别方法简单,模型训练完成后,不需要额外的硬件设备,直接输入单张的指静脉图像就能实现真伪判断,硬件成本与计算成本较低。
(2)本发明将真伪图像进行高强度去噪处理,再通过与原图做差提取出真伪指静脉噪声特征,这样提取的噪声特征具有很高的区分度,能提高仿冒检测的准确度。
(3)且与现有指静脉仿冒攻击检测方法大部分采取单一的特征进行检测相比,本发明将原始纹理特征的分类结果和两种噪声特征的分类结果进行加权融合,针对真实指静脉红外图像中存在的低频信息如皮肤纹理和关节纹理,采用双边滤波算法去除这些低频信息同时保留图像的高频信息如指静脉纹路、手指边缘。通过将原始图像与去噪图像做差,就可以提取出真伪指静脉图像中的低频信息。而伪造图像的低频信息为分布不均的噪点和斑块,且针对真实指静脉红外图像和伪造指静脉红外的像素点差值不同,且均值滤波算法可以让图像整体都变得更加模糊平滑,像素值更加均匀,通过将原始图像与均值滤波算法去噪图像做差得到的噪声特征能放大真伪图像的成像细粒度的差异,因此,将原始纹理特征的分类结果和两种噪声特征的分类结果进行加权融合能够提高仿冒检测的性能和泛化性。
附图说明
图1为基于分数加权融合的指静脉仿冒检测方法流程图;
图2为本发明实施例中所述LBP算子示意图;
图3为本发明中原始图像双边滤波去噪后获得去噪图像、做差获得噪声图像的示意图;
图4为本发明中原始图像均值滤波去噪后获得去噪图像、做差获得噪声图像的示意图。
具体实施方式
下面结合说明书附图对本发明的技术方案做进一步的详细说明。
以下为实施例1,具体以打印攻击仿冒识别为例,阐述指静脉仿冒攻击检测方法,其具体步骤流程如下:
步骤S1:数据采集和预处理。
采用200万像素的高清摄像头和850nm的红外光源搭建指静脉采集设备,用指静脉采集设备采集40个志愿者的真实手指静脉图像,每人分别采集左右手的食指、中指和无名指,每根手指采集6张图像,得到真实数据集,将该数据集中每张图像打上真标签。对于每个真实图像,将其打印到两张激光胶片上,然后将两张激光胶片的静脉对齐后与一张白纸叠加并固定,制成伪造指静脉模型。再将伪造指静脉模型置于上述相同的采集设备并采用相同的参数条件进行指静脉图像采集,得到伪造数据集,对该数据集中每张图像打上假标签。将真实图像与其对应的伪造图像一一组合即每组真伪图像在后续划分过程中应保持同为训练集或同为验证集,得到真伪数据集,最后将真伪数据集按照8:2随机划分为训练集和验证集。
步骤S2:基于LBP的原始纹理特征提取。
对真伪数据集中的每一张原始图像I逐一进行LBP特征提取,得到每个样本的原始纹理特征F1。以图2为例,定义一个大小为3×3的滑动窗口遍历整张图像,选择该窗口的中心像素值作为阈值,在以该像素点为中心的3×3大小的邻域窗口中,若其邻域的像素值大于或等于该像素值,则该邻域位置的像素值置1,否则置0。最后,以邻域窗口左上角的像素为第一位,按顺时针方向将各邻域的值保存下来作为该中心像素点的LBP码。图2中,中心像素点的LBP码为:“01111010”。分别对图像中每个像素点计算其LBP码,并将整体所有像素点获得的LBP码作为各自的LBP特征。
步骤S3:基于双边滤波的噪声特征提取。
采用双边滤波算法对真伪数据集的原始图像进行去噪处理,得到去噪图像,再将原始图像与去噪图像做差提取出噪声图像,最后同步骤S2,对噪声图像进行LBP特征提取,得到双边滤波噪声特征。采用双边滤波算法可以去除图像中的低频信息,如皮肤纹理、噪点,同时保留图像的高频信息,如指静脉纹路、手指边缘。通过将原始图像与去噪图像做差,就可以提取出真伪指静脉图像中的低频信息。真实图像的低频信息主要为皮肤纹理和关节纹理,而伪造图像的低频信息为分布不均的噪点和斑块。因此,通过这种噪声图像就更容易区分开两种样本。
应用双边滤波算法对原始图像进行去噪得到去噪图像I1的具体过程如下:定义一个卷积窗口H,p为卷积窗口H的中心像素,其位置为(px,py),q为H中的另一个像素,其位置为(qx,qy),Op、Oq分别为p、q的像素值。通过公式(1),可以求出Op经过双边滤波算法后新的像素值O'p
其中σs是空间核的时域参数,σr是尺度核参数,当σs=7、σr=0.2时提取出的噪声特征具有较大区分度,Wp是一个归一化因子且Wp具体计算方式如公式(2)所示:
对原始图像中的每一个像素点进行双边滤波去噪得到去噪图像I1后,将原始图像I与去噪图像I1做差,就可以得到噪声图像N1,即N1=I-I1。原始图像I、去噪图像I1、噪声图像N1的具体示例如图3所示。
最后对噪声图像N1采用如步骤S2中相同的LBP特征提取方式,得到噪声特征F2
步骤S4:基于均值滤波的噪声特征提取。
采用均值滤波算法对真伪数据集原始图像进行去噪,得到去噪图像,再将原始图像与去噪图像做差,提取出噪声图像,最后同步骤S2,对噪声图像进行LBP特征提取,就可以得到均值滤波噪声特征。采用均值滤波算法可以让图像整体都变得更加模糊平滑,像素值更加均匀,通过将原始图像与去噪图像做差得到的噪声特征能很好地表现出真伪图像的成像细粒度。因为真实图像相邻像素值相对一致,均值滤波对每一个像素点的像素值改变很细微,得到的噪声图像的细粒度较高。相反,伪造图像相邻像素值相对杂乱,均值滤波对每一个像素点的像素值改变相对较大。因此,通过均值滤波提取的噪声图像就更容易区分开两个样本。均值滤波算法的思想是,用每个像素点邻近像素值的均值来代替当前像素值。
采用均值滤波算法对真伪数据集原始图像进行去噪的具体过程如下:定义一个卷积窗口J,k为卷积窗口J的中心像素,其位置为(kx,ky),l为J中的另一个像素,其位置为(lx,ly),Ok、Ol分别为k、l的像素值。则通过公式(3)可以得到Ok经过均值滤波处理后的新值O'k
其中,M表示卷积窗口J内像素点的总数。对原始图像每个像素点采用均值滤波去噪算法后得到去噪图像I2,将原始图像与去噪图像做差得到噪声图像N2,即N2=I-I2
最后对噪声图像N2采用如步骤S2中相同的LBP特征提取方式,得到噪声特征F3。原始图像I、去噪图像I2、噪声图像N2的具体示例如图4所示。
步骤S5:使用SVM进行分类预测。
将训练集图像的F1、F2、F3分别输入带有径向基核函数的SVM,分别得到三个训练后的SVM模型。然后把验证集图像的F1、F2、F3输入训练后的SVM模型,得到原始纹理特征预测结果R1、双边滤波噪声特征预测结果R2、均值滤波噪声特征预测结果R3
SVM是一种高效的线性分类器,在处理小样本分类问题上有较好的效果。它的原理是,在高维空间中寻找一个最优线性分类面将样本分开,并使不同样本具有最大间隔。假设待分类向量组F的分类决策函数为f(F),则有公式(4)。
f(F)=v·F+g (4)
其中v是超平面,用于将两类样本分开,g是偏移量常数。通过在特征F上求解最大分割超平面问题,使样本在超平面上具有最大间隔,就可以确定公式(4)中的参数v和g,从而得到分类决策函数f(F)。
本发明中,将训练集图像的F1、F2、F3输入。这里以原始纹理特征F1为例,打上对应标签后得到SVM训练数据集{(e1,s1),…,(ei,si),…,(eN,sN)},其中ei是训练集中第i个手指静脉的原始纹理特征向量,si代表第i个手指静脉的真伪标签,si∈{-1,1},1代表真实指静脉,-1代表伪造指静脉,i=1,2,…,N,N为样本总数。通过在SVM训练数据集上求解最大分割超平面问题,得到原始纹理特征的分类决策函数f1(F)。
同理,用打上标签后训练集图像的F2、F3训练SVM,得到双边滤波噪声特征的分类决策函数f2(F)和均值滤波噪声特征的分类决策函数f3(F)。
最后,将验证集图像的F1、F2、F3通过决策函数f1(F)、f2(F)、f3(F),求得分类结果R1、R2、R3,即R1=f1(F1)、R2=f2(F2)、R3=f3(F3)。
步骤S6:对分类结果进行分数加权融合,并寻找最优权重。
对预测结果R1、R2、R3分配权重w1、w2、w3,最终融合后的预测结果R可表示为公式(5)。
其中,w1+w2+w3=1,0≤w1,w2,w3≤1,sign为符号函数。
最后将预测结果R与验证集的标签进行比较,计算预测结果与数据集标签不相等的个数占样本总数的比例,记为样本错误率Δ(w1,w2,w3)。则Δ(w1,w2,w3)是关于权值w1、w2、w3的函数,可以通过求解公式(6)得到。
minΔ(w1,w2,w3)s.t.w1+w2+w3=1,0≤w1,w2,w3≤1 (6)
通过穷举算法求解上式,就可得到最优权重。有了最优权重,就可以代入(5),得到分数加权融合模型。
步骤S7:应用模型进行真伪指静脉识别。
将待识别指静脉图像输入系统,先经过步骤S2~S4得到待识别指静脉图像的三个特征向量,再使用步骤S5~S6得到的预训练SVM模型和分数加权融合模型进行加权决策,最后输出指静脉仿冒检测结果。
为验证本实施例所提方法在指静脉识别方面具有更好的识别性能,在IDIAP FVD数据集(Tome P,Vanoni M,Marcel S.On the vulnerability of finger veinrecognition to spoofing[A].Proceedings of International Conference of theBiometrics Special Interest Group(BIOSIG)[C],2014:1-10.)上进行了不同识别方法的对比试验。IDIAP FVD数据集包括Full和Cropped两类图像。
在对比实验中,除省略实施例1的步骤S1中的数据获取步骤,其余的步骤和参数的具体设置与上述实施例1的相同。
对比实验结果的性能评价指标使用如下三个:
(1)APCER(Attack Presentation Classification Error Rate,呈现攻击分类错误率):仿冒的生物特征被错误地判别成合法用户的比例。
(2)BPCER(Bona Fide Presentation Classification Error Rate,真实呈现分类错误率):合法用户被错误地判别成仿冒生物特征的比例。
(3)ACER(Average Classification Error Rate,平均分类错误率):APCER和BPCER的均值,其计算方式如式(7)所示。
用于对比的识别方法具体步骤参见如下公开文献:
(1)MHOG参见公开文献:Ashari N,Ong T S,Connie T,et al.Multi-ScaleTexture Analysis for Finger Vein Anti-Spoofing[A].Proceedings of IEEEInternational Conference on Artificial Intelligence in Engineering andTechnology(IICAIET)[C],2021,DOI:10.1109/IICAIET51634.2021.9574036.
(2)HDWT、DDWT参见公开文献:Nguyen D T,ParkYH,Shin KY,et al.Fake finger-vein image detection based on Fourier and wavelet transforms[J].DigitalSignal Processing,2013,23(5):1401-1413.
结果如表1所示。从表1可以看出,本发明的APCER、BPCER、ACER均低于其它方法,说明本方法均优于对比方法。本方法是真实有效的。
表1
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域普通技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。

Claims (7)

1.一种基于分数加权融合的指静脉仿冒检测模型,其特征在于,所述检测模型是通过如下步骤训练获得:
使用红外采集设备采集真实手指静脉图像作为真实数据集,伪造指静脉模型,再使用采集设备进行二次采集得到伪造指静脉图像构成伪造数据集,所述真实数据集和伪造数据集合并后作为真伪数据集,最后将真伪数据集划分为训练集和验证集,并根据真伪打上标签;
对真伪数据集中的每个原始图像I均进行三次特征提取,第一次特征提取为对原始图像I进行LBP特征提取得到图像的原始纹理特征F1;第二次特征提取为采用双边滤波算法对原始图像I进行去噪得到第一去噪图像I1、再将I与I1做差得到第一噪声图像N1、并对N1进行LBP特征提取得到第一噪声特征F2;第三次特征提取为采用均值滤波算法对原始图像I进行去噪得到第二去噪图像I2、再将I与I2做差得到第二噪声图像N2、并对N2进行LBP特征提取得到第二噪声特征F3
将训练集中的每一张原始图像I经过三次特征提取后获得的原始纹理特征F1、第一噪声特征F2、第二噪声特征F3分别输入支持向量机进行训练,得到三个预训练SVM模型,再将验证集中的每一张原始图像I的经过三次特征提取后获得的原始纹理特征F1、第一噪声特征F2、第二噪声特征F3分别输入对应的预训练SVM模型,得到三个分类结果R1、R2和R3;通过对三个分类结果加权,通过穷举算法求得最佳分类权重,得到分数加权融合模型即基于分数加权融合的指静脉仿冒检测模型。
2.权利要求1所述的一种基于分数加权融合的指静脉仿冒检测模型,其特征在于,所述伪造指静脉模型是采用激光胶片制作伪造的。
3.权利要求1所述的一种基于分数加权融合的指静脉仿冒检测模型,其特征在于,采用双边滤波算法对原始图像I进行去噪得到第一去噪图像I1的具体过程如下:定义一个卷积窗口H,p为卷积窗口H的中心像素,其位置为(px,py),q为H中的另一个像素,其位置为(qx,qy),Op、Oq分别为p、q的像素值;通过公式(1),可以求出Op经过双边滤波算法后新的像素值O'p
其中σs是空间核的时域参数,σr是尺度核参数,Wp是一个归一化因子且Wp具体计算方式如公式(2)所示:
对原始图像中的每一个像素点进行双边滤波去噪得到去噪图像I1
4.权利要求2所述的一种基于分数加权融合的指静脉仿冒检测模型,其特征在于,σs=7、σr=0.2。
5.权利要求1所述的一种基于分数加权融合的指静脉仿冒检测模型,其特征在于,采用均值滤波算法对真伪数据集原始图像进行去噪的具体过程如下:J为一个卷积窗口,k为卷积窗口J的中心像素,其位置为(kx,ky),l为J中的另一个像素,其位置为(lx,ly),Ok、Ol分别为k、l的像素值;则通过公式(3)可以得到Ok经过均值滤波处理后的新值O'k
其中,M表示卷积窗口J内像素点的总数;对原始图像每个像素点采用均值滤波去噪算法后得到去噪图像I2
6.权利要求1所述的一种基于分数加权融合的指静脉仿冒检测模型,其特征在于,对分类结果进行分数加权融合,并寻找最优权重的步骤具体为:对预测结果R1、R2、R3分配权重w1、w2、w3,最终融合后的预测结果R可表示为公式(5);
其中,w1+w2+w3=1,0≤w1,w2,w3≤1,sign为符号函数;
最后将预测结果R与验证集的标签进行比较,计算预测结果与数据集标签不相等的个数占样本总数的比例,记为样本错误率Δ(w1,w2,w3);则Δ(w1,w2,w3)是关于权值w1、w2、w3的函数,可以通过求解公式(6)得到;
minΔ(w1,w2,w3)s.t.w1+w2+w3=1,0≤w1,w2,w3≤1 (6)
通过穷举算法求解上式得到最优权重,将所述最优权重输入公式(5),得到分数加权融合模型。
7.一种基于分数加权融合的指静脉仿冒检测方法,其特征在于,将待识别指静脉图像按照权利要求1中所述的特征提取方式进行三次特征提取,分别提取出待识别指静脉图像的原始纹理特征F1'、第一噪声特征F2'、第二噪声特征F3',分别输入三个权利要求1所述的预训练SVM模型获得三个分类结果R1'、R2'和R3',然后将三个分类结果R1'、R2'和R3'输入权利要求1中所述分数加权融合模型进行加权决策,最后输出得到的指静脉仿冒检测结果。
CN202311396073.2A 2023-10-26 2023-10-26 一种基于分数加权融合的指静脉仿冒检测模型及方法 Pending CN117333953A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311396073.2A CN117333953A (zh) 2023-10-26 2023-10-26 一种基于分数加权融合的指静脉仿冒检测模型及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311396073.2A CN117333953A (zh) 2023-10-26 2023-10-26 一种基于分数加权融合的指静脉仿冒检测模型及方法

Publications (1)

Publication Number Publication Date
CN117333953A true CN117333953A (zh) 2024-01-02

Family

ID=89275382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311396073.2A Pending CN117333953A (zh) 2023-10-26 2023-10-26 一种基于分数加权融合的指静脉仿冒检测模型及方法

Country Status (1)

Country Link
CN (1) CN117333953A (zh)

Similar Documents

Publication Publication Date Title
Xin et al. Multimodal feature-level fusion for biometrics identification system on IoMT platform
CN110852160B (zh) 以图像为基准的生物识别系统及计算机实施方法
Qin et al. Deep representation for finger-vein image-quality assessment
Syarif et al. Enhanced maximum curvature descriptors for finger vein verification
Hasan et al. Fingerprint image enhancement and recognition algorithms: a survey
Alshdadi et al. Exploiting Level 1 and Level 3 features of fingerprints for liveness detection
Raghavendra et al. Presentation attack detection algorithms for finger vein biometrics: A comprehensive study
Agarwal et al. Local binary hexagonal extrema pattern (LBHXEP): A new feature descriptor for fake iris detection
Cho et al. Extraction and cross-matching of palm-vein and palmprint from the RGB and the NIR spectrums for identity verification
Choudhary et al. Iris liveness detection using fusion of domain-specific multiple BSIF and DenseNet features
Kumar et al. Recovering and matching minutiae patterns from finger knuckle images
Serafim et al. A method based on convolutional neural networks for fingerprint segmentation
Velliangira et al. A novel forgery detection in image frames of the videos using enhanced convolutional neural network in face images
Rehman et al. Identity verification using palm print microscopic images based on median robust extended local binary pattern features and k‐nearest neighbor classifier
Lovish et al. Robust contact lens detection using local phase quantization and binary gabor pattern
Panetta et al. LQM: Localized quality measure for fingerprint image enhancement
Hany et al. Speeded-Up Robust Feature extraction and matching for fingerprint recognition
Sharifi Score-level-based face anti-spoofing system using handcrafted and deep learned characteristics
CN114913607A (zh) 一种基于多特征融合的指静脉仿冒检测方法
Bera et al. Spoofing detection on hand images using quality assessment
CN112329518B (zh) 基于边缘纹理强化和对称差分统计的指纹活性检测的方法
Tamrakar et al. Low resolution fingerprint image verification using CNN filter and LSTM classifier
CN117333953A (zh) 一种基于分数加权融合的指静脉仿冒检测模型及方法
Nirmal et al. Contactless fingerprint recognition and fingerprint spoof mitigation using CNN
Iwasokun et al. Singular-minutiae points relationship-based approach to fingerprint matching

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination