CN115424330A - 一种基于dfmn和dsd的单模态人脸活体检测方法 - Google Patents

一种基于dfmn和dsd的单模态人脸活体检测方法 Download PDF

Info

Publication number
CN115424330A
CN115424330A CN202211129848.5A CN202211129848A CN115424330A CN 115424330 A CN115424330 A CN 115424330A CN 202211129848 A CN202211129848 A CN 202211129848A CN 115424330 A CN115424330 A CN 115424330A
Authority
CN
China
Prior art keywords
dfmn
layer
sample
dsd
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211129848.5A
Other languages
English (en)
Other versions
CN115424330B (zh
Inventor
李祖贺
崔宇豪
陈燕
杨永双
陈浩然
蒋斌
庾骏
王凤琴
刘伟华
陈辉
卜祥洲
朱寒雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou University of Light Industry
Original Assignee
Zhengzhou University of Light Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University of Light Industry filed Critical Zhengzhou University of Light Industry
Priority to CN202211129848.5A priority Critical patent/CN115424330B/zh
Publication of CN115424330A publication Critical patent/CN115424330A/zh
Application granted granted Critical
Publication of CN115424330B publication Critical patent/CN115424330B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于DFMN和DSD的单模态人脸活体检测方法,用于解决传统方法无法精准识别出人脸活体与非活体之间差异的问题;其步骤为:首先,对接收到的人脸可见光图像进行预处理操作,提取可见光图像的特征,并根据可见光图像特征划分正、负样本空间;其次,构建DFMN网络结构,基于正、负样本空间构建DSD联合优化框架对DFMN进行网络模型训练,得到DFMN模型;最后,将待识别的可见光人脸图像输入DFMN模型中,输出人脸活体检测结果。本发明通过深度卷积神经网络DFMN和DSD方法的结合,学习了真假面部中的重要线索,能够有效地消除可将光人脸图像中面部特征的干扰,提升了可见光模态下人脸活体检测的准确率。

Description

一种基于DFMN和DSD的单模态人脸活体检测方法
技术领域
本发明涉及人脸识别技术领域,特别是指一种基于DFMN和DSD的单模态人脸活体检测方法。
背景技术
随着数字信息时代的发展,生物识别技术被广泛应用于生活中的各种身份认证。人脸识别技术由于其非接触性和自动性的特点,已经被广泛应用于设备解锁、账户登录、门禁系统和安全监控等领域,而单一的人脸识别系统面临着各种人脸欺诈攻击。因此,如何自动高效地辨别人脸真伪和抵抗欺骗攻击已经成为人脸识别领域亟待解决的问题。
由于成本问题,目前很多传统的设备运用的仍然是单模态的活体检测方法,单模态人脸活体检测是指一种通过可见光人脸图来检测是否为真实人脸的技术,真实人脸用1表示,虚假人脸用0表示。因此,设计一个准确率高、鲁棒性强、泛化能力强的单模态人脸活体检测系统至关重要。目前的人脸活体检测方法有如下几种。
方法一:基于颜色纹理差异的人脸活体检测方法。在频域中,真实人脸图像比虚假人脸图像存在更多的高频信息,运用多帧图片检测目标的面部纹理信息以区分真假人脸。但该方法在光照条件较差和阴影状态下的效果较差,并且随着目前人脸攻击方式的多变,该方法无法应对3D面具以及更先进的攻击,不能满足当前各种各样的检测需求。
方法二:基于运动的人脸活体检测方法。真实人脸和虚假人脸在运动特征上会有较大的差异,比如嘴部,眼部,面部表情等差异。虽然这种方法的识别准确率较高,但被检测者需要根据特定的检测系统做出特定的动作,用户的体验感较差,在实时检测中具也有一定的局限性。
方法三:基于深度学习的人脸活体检测方法。人脸活体检测可以理解为一种二分类任务,而卷积神经网络(CNN)在各种图像分类任务上均取得了良好的效果,它可以有效地从各种图像样本中学习到深层次的语义信息,并且避免了复杂的特征提取过程。然而,基于单一的CNN方法由于欺骗模式的多样性而难以学习到人脸数据中的区别性线索,在可见光模式下的泛化性较差。
发明内容
针对现有人脸检测方法的用户的体验感较差、泛化性较差的技术问题,本发明提出了一种基于DFMN和DSD的单模态人脸活体检测方法,用于提升可见光模态下人脸活体检测的准确率。
本发明的技术方案是这样实现的:
一种基于DFMN和DSD的单模态人脸活体检测方法,其步骤如下:
步骤一:对接收到的人脸可见光图像进行预处理操作,提取可见光图像的特征,并根据可见光图像特征划分正样本空间、负样本空间;
步骤二:构建Dual Feature Mapping Network(DFMN),基于正样本和负样本构建Dual Sample Discrepancy(DSD)联合优化框架对DFMN进行网络模型训练,得到DFMN模型;
步骤三:将待识别的可见光人脸图像输入DFMN模型中,输出人脸活体检测结果。
优选地,所述DFMN的网络结构包括输入层、第一残差单元、第二残差单元、第三残差单元、池化层、全连接层、softmax层和输出层;输入层与第一残差单元相连接,第一残差单元与第二残差单元相连接,第二残差单元与第三残差单元相连接,第三残差单元与池化层相连接,池化层与全连接层相连接,全连接层与softmax层相连接,softmax层与输出层相连接。
优选地,所述第一残差单元、第二残差单元和第三残差单元均包括卷积层I、卷积层II、卷积层III和双重特征映射模块;卷积层I与卷积层II相连接,卷积层II与卷积层III相连接,卷积层III与双重特征映射模块相连接。
优选地,所述双重特征映射模块包括全局平均池化层、全局最大池化层、多层感知机;输入特征分别经过全局最大池化层和全局平均池化层后分得到特征I和特征II,特征I和特征II再分别通过多层感知机后进行加权融合后得到输出特征。
优选地,所述第一残差单元、第二残差单元和第三残差单元的处理方法为:
S1.1:输入双重特征映射模块的特征图F大小为H×W×C,输入的特征图F分别经过全局最大池化层和全局平均池化层的操作后得到两个1×1×C的特征图;
S1.2:将步骤S1.1中的两个1×1×C的特征图分别输入多层感知机,其中多层感知机包括两层全连接层与GELU激活函数;
S1.3:将多层感知机输出的特征进行concatenation的加和操作,并通过sigmoid函数激活,输出最终特征Fc,整个过程可以表示为:
Fc=sigmoid(MLP(AvgPool(F))+MLP(MaxPool(F)));
其中,MLP表示多层感知机,AvgPool(·)表示全局平均池化操作,MaxPool(·)表示全局最大池化操作。
优选地,所述基于正样本和负样本构建Dual Sample Discrepancy(DSD)联合优化框架对DFMN进行网络模型训练的方法为:
S2.1:将训练集样本输入至上述构建的网络模型中进行训练;其中,训练集样本包括正样本和负样本,所有正样本组成正样本空间,记为Ωpos={ω丨ω=x1,x2,x3……xm},所有负样本组成负样本空间,记为Ωneg={θ丨θ=y1,y2,x3……yn};其中,xi为正样本,yj为负样本,i=1,2,…,m,j=1,2,…,n;
S2.2:通过DSD联合框架计算模型误差,并提取模型预测结果;
基于正样本xi和xi的期望值计算当前正样本与其余正样本间的相似度:
Figure BDA0003849732460000031
其中,Dpos为正样本的样本相似度,正样本的分布为[a,b],||·||表示L2范数,E(·)为期望值函数;
基于负样本yj和yj的期望值计算当前负样本与其余负样本间的相似度:
Figure BDA0003849732460000032
其中,Dneg为负样本的样本相似度,负样本的分布为[c,d];
将所有样本输入DFMN得到样本预测值,结合交叉熵损失计算样本预测值与真实值间的差异:
Figure BDA0003849732460000033
其中,Dmain为样本预测值与真实值间的损失值,W(k)表示第k个样本的真实值,P(k)表示第k个样本的预测值;
结合Dpos和Dneg进行权重加和操作,实现整个DSD联合框架的构建:
DAll=Dmain+Dpos+Dneg
其中,DAll表示表示总体损失函数;
S2.3:根据模型预测结果与真实标签进行比较,通过循环遍历整个训练样本空间,计算预测正确结果数;
S2.4:反向传播更新DFMN的网络参数,在进行反向传播前先进行梯度清零,运用SGD随机梯度下降法更新网络参数;
S2.5:输出模型训练的损失率和准确率,并保存每一次迭代的模型参数,选择在验证集上准确率最高的模型参数。
与现有技术相比,本发明产生的有益效果为:本发明通过一种基于双重特征映射机制的分组卷积神经网络结构来学习真假面部中的重要线索;同时设计了一种双重样本间差来最小化同类样本的分布距离,能够有效地消除可将光人脸图像中面部特征的干扰。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图;
图2为本发明的DFMN的结构示意图;
图3为本发明的DFM的结构示意图;
图4为本发明的训练流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种基于DFMN和DSD的单模态人脸活体检测方法,具体步骤如下:
步骤一:对接收到的人脸可见光图像进行预处理操作,提取可见光图像的特征,实现人脸图像增强和归一化操作,并根据可见光图像特征划分正样本空间、负样本空间。
在步骤一中,需要对可见光人脸图像进行预处理操作,以获取有效人脸深度图像,预处理包含如下步骤:
(1)对当前人脸可见光图像进行大小缩放处理,缩放至128×128大小用于适应卷积神经网络输入层;
(2)将缩放后的人脸图像进行对人脸图像进行旋转、翻转和转置操作。
(3)对上述人脸图像中的像素值进行归一化操作,通过遍历图像中每一个像素点实现,设当前原始像素点为x,设定最大与最小像素点Max和Min,归一化后图像记为xNorm,如公式(1)所示:
Figure BDA0003849732460000041
将预处理后的人脸图像,输入至经训练的深度卷积神经网络,进而检测输入的人脸图像是否为真实人脸。
步骤二:构建Dual Feature Mapping Network(DFMN),基于正样本和负样本构建Dual Sample Discrepancy(DSD)联合优化框架对DFMN进行网络模型训练,得到DFMN模型;
如图2所示,DFMN的网络结构包括输入层、第一残差单元、第二残差单元、第三残差单元、池化层、全连接层、softmax层和输出层;输入层与第一残差单元相连接,第一残差单元与第二残差单元相连接,第二残差单元与第三残差单元相连接,第三残差单元与池化层相连接,池化层与全连接层相连接,全连接层与softmax层相连接,softmax层与输出层相连接。其中,第一残差单元、第二残差单元和第三残差单元均包括卷积层I、卷积层II、卷积层III和双重特征映射模块;卷积层I与卷积层II相连接,卷积层II与卷积层III相连接,卷积层III与双重特征映射模块相连接。卷积层I和卷积层II的卷积核大小均为1×1,卷积层III的卷积核大小为3×3。
输入层用于对接收到的有效人脸深度图像进行图像大小和格式转换,输入至三个残差单元,接着经过一个AdaPool池化层和全连接层后,得到一个大小为1×2向量输出,经过softmax激活函数层将向量输出映射为(0,1)区间的概率表示,选取概率最大的结点作为预测结果,进而实现人脸活体检测二分类。
如图3所示,双重特征映射模块包括全局平均池化层、全局最大池化层、多层感知机;输入特征分别经过全局最大池化层和全局平均池化层后分得到特征I和特征II,特征I和特征II再分别通过多层感知机后进行加权融合后得到输出特征。
1)输入DFM的特征图为F大小为H×W×C,输入的特征图经过全局最大池化和全局平均池化的操作后得到两个1×1×C的特征图。
2)将上述两个1×1×C的特征图分别输入一个多层感知机(MLP)。多层感知机表示一种简单的双层神经网络,其中包括两层全连接层与GELU激活函数。
3)将MLP输出的特征进行concatenation的加和操作,输出最终特征Fc,整个过程可以表示为:
Fc=sigmoid(MLP(AvgPool(F))+MLP(MaxPool(F)))
其中,F表示输入的特征图,MLP表示多层感知机,AvgPool和MaxPool分别表示全局平均池化和全局最大池化。
根据传统的网络模型训练方式引入DSD框架进行优化,并结合交叉熵损失函数进一步学习真实人脸与虚假人脸之间的差异。如图4所示,利用DSD联合优化框架对DFMN进行网络模型训练的方法为:
S2.1:将训练集样本输入至上述构建的网络模型中进行训练;其中,训练集样本包括正样本和负样本,所有正样本组成正样本空间,记为Ωpos={ω丨ω=x1,x2,x3……xm},所有负样本组成负样本空间,记为Ωneg={θ丨θ=y1,y2,x3……yn};其中,xi为正样本,yj为负样本,i=1,2,…,m,j=1,2,…,n;
S2.2:通过DSD联合框架计算模型误差,并提取模型预测结果;
基于正样本xi和xi的期望值计算当前正样本与其余正样本间的相似度:
Figure BDA0003849732460000061
其中,Dpos为正样本的样本相似度,正样本的分布为[a,b],||·||表示L2范数,E(·)为期望值函数;
基于负样本yj和yj的期望值计算当前负样本与其余负样本间的相似度:
Figure BDA0003849732460000062
其中,Dneg为负样本的样本相似度,负样本的分布为[c,d];
将所有样本输入DFMN得到样本预测值,结合交叉熵损失计算样本预测值与真实值间的差异:
Figure BDA0003849732460000063
其中,Dmain为样本预测值与真实值间的损失值,W(k)表示第k个样本的真实值,P(k)表示第k个样本的预测值;
结合Dpos和Dneg进行权重加和操作,实现整个DSD联合框架的构建:
DAll=Dmain+Dpos+Dneg
其中,DAll表示总体损失函数;
S2.3:根据模型预测结果与真实标签进行比较,通过循环遍历整个训练样本空间,计算预测正确结果数;
S2.4:反向传播更新DFMN的网络参数,在进行反向传播前先进行梯度清零,运用SGD随机梯度下降法更新网络参数;
S2.5:输出模型训练的损失率和准确率,并保存每一次迭代的模型参数,选择在验证集上准确率最高的模型参数。
步骤三:将待识别的可见光人脸图像输入DFMN模型中,输出人脸活体检测结果。
在步骤二中得到最优模型后,将可见光人脸图像输入至上述经训练的卷积神经网络中,得到一个大小为1×2向量输出,经过softmax函数将向量输出映射为(0,1)区间的概率表示,选取概率最大的结点作为预测结果,进而实现人脸活体检测二分类。
上述实施例通过双重特征映射DFM模块和双重样本间差DSD框架进行网络模型训练和分类,有效地避免人脸图像中面部特征的干扰,解决了传统单模态人脸活体检测方法准确率低,泛化性较差等问题。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于DFMN和DSD的单模态人脸活体检测方法,其特征在于,其步骤如下:
步骤一:对接收到的人脸可见光图像进行预处理操作,提取可见光图像的特征,并根据可见光图像特征划分正样本空间、负样本空间;
步骤二:构建Dual Feature Mapping Network(DFMN),基于正样本和负样本构建DualSample Discrepancy(DSD)联合优化框架对DFMN进行网络模型训练,得到DFMN模型;
步骤三:将待识别的可见光人脸图像输入DFMN模型中,输出人脸活体检测结果。
2.根据权利要求1所述的基于DFMN和DSD的单模态人脸活体检测方法,其特征在于,所述DFMN的网络结构包括输入层、第一残差单元、第二残差单元、第三残差单元、池化层、全连接层、softmax层和输出层;输入层与第一残差单元相连接,第一残差单元与第二残差单元相连接,第二残差单元与第三残差单元相连接,第三残差单元与池化层相连接,池化层与全连接层相连接,全连接层与softmax层相连接,softmax层与输出层相连接。
3.根据权利要求2所述的基于DFMN和DSD的单模态人脸活体检测方法,其特征在于,所述第一残差单元、第二残差单元和第三残差单元均包括卷积层I、卷积层II、卷积层III和双重特征映射模块;卷积层I与卷积层II相连接,卷积层II与卷积层III相连接,卷积层III与双重特征映射模块相连接。
4.根据权利要求3所述的基于DFMN和DSD的单模态人脸活体检测方法,其特征在于,所述双重特征映射模块包括全局平均池化层、全局最大池化层、多层感知机;输入特征分别经过全局最大池化层和全局平均池化层后分得到特征I和特征II,特征I和特征II再分别通过多层感知机后进行加权融合后得到输出特征。
5.根据权利要求4所述的基于DFMN和DSD的单模态人脸活体检测方法,其特征在于,所述第一残差单元、第二残差单元和第三残差单元的处理方法为:
S1.1:输入双重特征映射模块的特征图F大小为H×W×C,输入的特征图F分别经过全局最大池化层和全局平均池化层的操作后得到两个1×1×C的特征图;
S1.2:将步骤S1.1中的两个1×1×C的特征图分别输入多层感知机,其中多层感知机包括两层全连接层与GELU激活函数;
S1.3:将多层感知机输出的特征进行concatenation的加和操作,并通过sigmoid函数激活,输出最终特征Fc,整个过程可以表示为:
Fc=sigmoid(MLP(AvgPool(F))+MLP(MaxPool(F)));
其中,MLP表示多层感知机,AvgPool(·)表示全局平均池化操作,MaxPool(·)表示全局最大池化操作。
6.根据权利要求1所述的基于DFMN和DSD的单模态人脸活体检测方法,其特征在于,所述基于正样本和负样本构建Dual Sample Discrepancy(DSD)联合优化框架对DFMN进行网络模型训练的方法为:
S2.1:将训练集样本输入至上述构建的网络模型中进行训练;其中,训练集样本包括正样本和负样本,所有正样本组成正样本空间,记为Ωpos={ω丨ω=x1,x2,x3……xm},所有负样本组成负样本空间,记为Ωneg={θ丨θ=y1,y2,x3……yn};其中,xi为正样本,yj为负样本,i=1,2,…,m,j=1,2,…,n;
S2.2:通过DSD联合框架计算模型误差,并提取模型预测结果;
基于正样本xi和xi的期望值计算当前正样本与其余正样本间的相似度:
Figure FDA0003849732450000021
其中,Dpos为正样本的样本相似度,正样本的分布为[a,b],||·||表示L2范数,E(·)为期望值函数;
基于负样本yj和yj的期望值计算当前负样本与其余负样本间的相似度:
Figure FDA0003849732450000022
其中,Dneg为负样本的样本相似度,负样本的分布为[c,d];
将所有样本输入DFMN得到样本预测值,结合交叉熵损失计算样本预测值与真实值间的差异:
Figure FDA0003849732450000023
其中,Dmain为样本预测值与真实值间的损失值,W(k)表示第k个样本的真实值,P(k)表示第k个样本的预测值;
结合Dpos和Dneg进行权重加和操作,实现整个DSD联合框架的构建:
DAll=Dmain+Dpos+Dneg
其中,DAll表示表示总体损失函数;
S2.3:根据模型预测结果与真实标签进行比较,通过循环遍历整个训练样本空间,计算预测正确结果数;
S2.4:反向传播更新DFMN的网络参数,在进行反向传播前先进行梯度清零,运用SGD随机梯度下降法更新网络参数;
S2.5:输出模型训练的损失率和准确率,并保存每一次迭代的模型参数,选择在验证集上准确率最高的模型参数。
CN202211129848.5A 2022-09-16 2022-09-16 一种基于dfmn和dsd的单模态人脸活体检测方法 Active CN115424330B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211129848.5A CN115424330B (zh) 2022-09-16 2022-09-16 一种基于dfmn和dsd的单模态人脸活体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211129848.5A CN115424330B (zh) 2022-09-16 2022-09-16 一种基于dfmn和dsd的单模态人脸活体检测方法

Publications (2)

Publication Number Publication Date
CN115424330A true CN115424330A (zh) 2022-12-02
CN115424330B CN115424330B (zh) 2023-08-11

Family

ID=84204782

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211129848.5A Active CN115424330B (zh) 2022-09-16 2022-09-16 一种基于dfmn和dsd的单模态人脸活体检测方法

Country Status (1)

Country Link
CN (1) CN115424330B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596143A (zh) * 2018-05-03 2018-09-28 复旦大学 基于残差量化卷积神经网络的人脸识别方法及装置
CN109255322A (zh) * 2018-09-03 2019-01-22 北京诚志重科海图科技有限公司 一种人脸活体检测方法及装置
CN109344759A (zh) * 2018-06-12 2019-02-15 北京理工大学 一种基于角度损失神经网络的亲属识别方法
CN109684924A (zh) * 2018-11-21 2019-04-26 深圳奥比中光科技有限公司 人脸活体检测方法及设备
CN112949693A (zh) * 2021-02-02 2021-06-11 北京嘀嘀无限科技发展有限公司 图像分类模型的训练方法、图像分类方法、装置和设备
CN113159023A (zh) * 2021-03-14 2021-07-23 西北工业大学 基于显式监督注意力机制的场景文本识别方法
CN215932688U (zh) * 2021-10-11 2022-03-01 郑州轻工业大学 一种可调高度的人脸活体识别装置
US20220270348A1 (en) * 2020-05-22 2022-08-25 Tencent Technology (Shenzhen) Company Limited Face recognition method and apparatus, computer device, and storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596143A (zh) * 2018-05-03 2018-09-28 复旦大学 基于残差量化卷积神经网络的人脸识别方法及装置
CN109344759A (zh) * 2018-06-12 2019-02-15 北京理工大学 一种基于角度损失神经网络的亲属识别方法
CN109255322A (zh) * 2018-09-03 2019-01-22 北京诚志重科海图科技有限公司 一种人脸活体检测方法及装置
CN109684924A (zh) * 2018-11-21 2019-04-26 深圳奥比中光科技有限公司 人脸活体检测方法及设备
US20220270348A1 (en) * 2020-05-22 2022-08-25 Tencent Technology (Shenzhen) Company Limited Face recognition method and apparatus, computer device, and storage medium
CN112949693A (zh) * 2021-02-02 2021-06-11 北京嘀嘀无限科技发展有限公司 图像分类模型的训练方法、图像分类方法、装置和设备
CN113159023A (zh) * 2021-03-14 2021-07-23 西北工业大学 基于显式监督注意力机制的场景文本识别方法
CN215932688U (zh) * 2021-10-11 2022-03-01 郑州轻工业大学 一种可调高度的人脸活体识别装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ISRAEL A.: "Style Transfer Applied to Face Liveness Detection with User-Centered Models", ARXIV, pages 1 - 7 *
RUIHENG ZHANG: "Deep-IRTarget: An Automatic Target Detector in Infrared Imagery Using Dual-Domain Feature Extraction and Allocation", 《 IEEE TRANSACTIONS ON MULTIMEDIA》, pages 1735 *
X. WU: "Single-Shot Face Anti-Spoofing for Dual Pixel Camera", 《 IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》, pages 1440 - 1451 *
ZEZHENG WANG: "Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing", ARXIV, pages 1 - 14 *
邓雄: "人脸识别活体检测研究方法综述", 《计算机应用研究》, vol. 37, no. 9, pages 2579 - 2585 *

Also Published As

Publication number Publication date
CN115424330B (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
CN112766158B (zh) 基于多任务级联式人脸遮挡表情识别方法
Zhou et al. Salient object detection in stereoscopic 3D images using a deep convolutional residual autoencoder
CN111444881A (zh) 伪造人脸视频检测方法和装置
CN113705769A (zh) 一种神经网络训练方法以及装置
CN110110668B (zh) 一种基于反馈权重卷积神经网络和胶囊神经网络的步态识别方法
CN113191387A (zh) 结合无监督学习与数据自增强的文物碎片点云分类方法
CN110674677A (zh) 一种多模态多层融合的用于人脸反欺骗的深度神经网络
CN113723238B (zh) 一种人脸轻量网络模型构建方法和人脸识别方法
CN113239926B (zh) 基于对抗的多模态虚假信息检测模型系统
CN103714326A (zh) 一种单样本人脸识别方法
CN113052200A (zh) 一种基于yolov3网络的声呐图像目标检测方法
CN113537110B (zh) 一种融合帧内帧间差异的虚假视频检测方法
CN112232184A (zh) 一种基于深度学习和空间转换网络的多角度人脸识别方法
CN114398972A (zh) 一种基于联合表示注意力机制的深度学习图像匹配方法
CN108345900A (zh) 基于颜色纹理分布特征的行人重识别方法及其系统
CN115830531A (zh) 一种基于残差多通道注意力多特征融合的行人重识别方法
Zou et al. Application of facial symmetrical characteristic to transfer learning
CN115018999A (zh) 一种多机器人协作的稠密点云地图构建方法及装置
Chen et al. A finger vein recognition algorithm based on deep learning
CN110163095A (zh) 回环检测方法、回环检测装置及终端设备
CN114066844A (zh) 一种基于注意力叠加与特征融合的肺炎x光片图像分析模型及分析方法
US11354535B2 (en) Device and method with sensor-specific image recognition
CN115424330B (zh) 一种基于dfmn和dsd的单模态人脸活体检测方法
CN114596464A (zh) 多特征交互的无监督目标检测方法、系统、电子设备和可读存储介质
CN114005166A (zh) 一种基于多任务学习的人脸识别方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant