CN114078276A - 一种条件对抗域泛化的人脸活体检测方法及网络模型架构 - Google Patents

一种条件对抗域泛化的人脸活体检测方法及网络模型架构 Download PDF

Info

Publication number
CN114078276A
CN114078276A CN202111397397.9A CN202111397397A CN114078276A CN 114078276 A CN114078276 A CN 114078276A CN 202111397397 A CN202111397397 A CN 202111397397A CN 114078276 A CN114078276 A CN 114078276A
Authority
CN
China
Prior art keywords
domain
loss
training
feature
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111397397.9A
Other languages
English (en)
Inventor
蔡体健
尘福春
刘文鑫
陈均
罗词勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Jiaotong University
Original Assignee
East China Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Jiaotong University filed Critical East China Jiaotong University
Priority to CN202111397397.9A priority Critical patent/CN114078276A/zh
Publication of CN114078276A publication Critical patent/CN114078276A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种条件对抗域泛化的人脸活体检测方法及网络模型架构。所述网络模型架构包括特征生成模块、条件域对抗训练模块和辅助监督分类模块;采用条件对抗域泛化的人脸活体检测方法进行人脸活体检测,在训练阶段,通过人脸深度图损失、非对称三元组损失、分类损失和域对抗损失来训练特征生成网络和分类网络;在测试阶段,将测试样本送入特征生成网络和分类网络,从而进行人脸活体检测。本发明能够有效提高跨场景下未知欺诈检测的泛化性能。

Description

一种条件对抗域泛化的人脸活体检测方法及网络模型架构
技术领域
本发明涉及数据处理、计算机视觉等领域,尤其涉及一种条件对抗域泛化的人脸活体检测方法及网络模型架构。
背景技术
人脸识别作为一个备受关注的问题被广泛应用于生物识别领域(例如,智能手机解锁、访问控制、刷脸支付),人脸欺诈攻击(例如,打印攻击、视频攻击、3D面具攻击等)对人脸识别系统造成了极大威胁,曾有研究人员利用合法用户在社交网络上发布的照片轻松的经过了较成熟的商业人脸识别系统的识别认证。人脸活体检测技术可以辨别当前获取的人脸图像是来自活体样本还是攻击样本,可以验证用户的真实性,有效提高人脸识别系统的安全性能。
随着高清摄像机的普及和高质量3D面具的应用,人脸活体检测技术面临新的挑战。具体表现在以下几点:假体人脸与活体人脸的区别特征越加细微,类间的特征重叠越加严重,降低了人脸活体检测的精度和泛化性能;由于图像纹理特征、颜色差异以及攻击类型的多样性导致不同数据库的人脸数据分布差异很大,跨场景的、未知欺诈形式的人脸活体检测的泛化性能较差。
现有的很多对抗域泛化的方法只是对齐了多个源域的特征分布,而忽略了类层面的对齐,不能保证多个源域的分布差异足够融合,影响系统的泛化性能;此外,域判别器对所有样本给予同样的重要性,那些预测不准确的难迁移样本可能会影响模型的性能。
发明内容
本发明提供了一种条件对抗域泛化的人脸活体检测方法,包括:
从多源域图像中提取多源域图像特征,将提取的特征输入特征生成器生成特征编码,并将提取的特征输入深度估计网络输出人脸深度损失;
将特征编码输入分类器预估分类结果,将特征编码器输出的特征编码和分类器输出的分类结果进行融合,将融合结果输入域判别器,进行域判别器和特征生成器的域对抗网络训练,得到域对抗损失;
使用交叉熵损失函数对分类器进行训练,得到分类损失;以及利用非对称三元组训练模型对特征编码进行训练,得到非对称三元组损失;
根据人脸深度图损失、非对称三元组损失、分类损失和域对抗损失构造综合优化目标,使用综合优化目标训练特征生成器和分类器;
在测试阶段,将测试样本送入特征生成器和分类器进行人脸活体检测。
如上所述的条件对抗域泛化的人脸活体检测方法,其中,从多源域图像中提取多源域图像特征,具体为:将多源域图像输入注意力残差网络来提取输入图像的特征,利用注意力机制抑制输入图像中的不相关区域,同时突出特定局部区域的显著特征。
如上所述的条件对抗域泛化的人脸活体检测方法,其中,进行域判别器和特征生成器的域对抗网络训练,具体包括:基于多线性映射的数据融合域对抗训练,通过多线性映射的方式进行数据融合,具体操作是使用特征编码和分类结果两个向量的张量积进行数据融合。
如上所述的条件对抗域泛化的人脸活体检测方法,其中,进行域判别器和特征生成器的域对抗网络训练,还包括基于熵加权条件域对抗训练,根据样本的分类预测结果,给予不同的样本以不同的权重,减小预测不准确的难迁移样本对模型性能的影响。
如上所述的条件对抗域泛化的人脸活体检测方法,其中,基于熵加权条件域对抗训练,具体包括:
采用信息熵
Figure BDA0003370396710000031
来衡量分类器分类的不确定性,式中,C为类别数,gc是样本的分类预测结果;
根据信息熵计算得到熵感知权重
Figure BDA0003370396710000032
Figure BDA0003370396710000033
被用来对样本重新加权,当分类器预测的不确定性越大时,权重
Figure BDA0003370396710000034
值越小。
如上所述的条件对抗域泛化的人脸活体检测方法,其中,在特征生成器和域判别器之间添加了梯度反转层,即在反向传播时,特征生成部分的梯度乘以-λ来训练特征生成器和域判别器,其中,
Figure BDA0003370396710000035
current_iters为模型训练当前迭代次数,total_iters为总迭代次数。
如上所述的条件对抗域泛化的人脸活体检测方法,其中,构造的综合优化目标表示如下:
LDG=λ1LCls2LAda3LDep4Ltrip
式中,LCls、LAda、LDep、Ltrip分别代表交叉熵分类损失、域对抗损失、人脸深度损失和非对称三元组损失,λ1~λ4是超参数。
如上所述的条件对抗域泛化的人脸活体检测方法,其中,人脸深度损失如下:
LDep(x,Dep)=||Dep(E(x))-I||
其中,E(x)是注意力残差网络输出的特征,Dep(E(x))是注意力残差网络模块中深度估计器所估计的深度图,I是用人脸对齐网络估计的深度图。
如上所述的条件对抗域泛化的人脸活体检测方法,其中,非对称三元组损失损失函数表示如下:
Figure BDA0003370396710000036
式中,
Figure BDA0003370396710000037
分别是描样本、正样本和负样本,α是边界阈值。
如上所述的条件对抗域泛化的人脸活体检测方法,假设有N个源域,分别定义为X=X1,X2,...,XN,域标签定义为Y=Y1,Y2,...,YN,每个域都包含两种类别的样本:活体人脸和假体人脸,,则对抗训练的最终优化目标如下:
Figure BDA0003370396710000041
式中,LAda表示域对抗损失,D为域判别器,G为特征生成器,y是样本x的域标签,x,y分别服从X,Y分布,1[n=y]是指示函数,当n=y时,即判别器判断样本域正确时,指示函数为1,否则为0;
Figure BDA0003370396710000042
h(x)是融合后的数据,G(x)是样本x的特征编码器输出,g(x)是其分类器输出。
本发明还提供一种条件对抗域泛化的人脸活体检测网络模型架构,包括:特征生成模块、条件域对抗训练模块和辅助监督分类模块;采用如权利要求1-9任一项所述的条件对抗域泛化的人脸活体检测方法进行人脸活体检测,在训练阶段,通过人脸深度图损失、非对称三元组损失、分类损失和域对抗损失来训练特征生成网络和分类网络;在测试阶段,将测试样本送入特征生成网络和分类网络,从而进行人脸活体检测。
本发明实现的有益效果如下:
(1)本发明利用注意力残差网络、度量学习等技术,来提取活体人脸和假体人脸中更具区分性的微特征,提高类内的紧性以及类间的区分性,来提高人脸活体检测的精度。此外,该算法充分利用了活体人脸与假体人脸在深度图像上的差异,利用人脸深度图不随场景变化的特点,来提高人脸活体检测的精度和泛化性能。
(2)利用条件域对抗网络来提高跨场景下未知欺诈的检测性能,通过域对抗网络不仅对齐了多个源域的特征分布,还考虑了分类预测信息;通过对样本添加预分类的熵加权,来减小预测不准确样本对模型的影响,有效地提高了跨场景下未知欺诈检测的泛化性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的条件对抗域泛化的人脸活体检测方法的网络模型架构示意图;
图2是条件对抗域泛化的人脸活体检测方法流程图;
图3是Attention-UNet子模型的网络结构图;
图4是非对称三元组样本挖掘策略示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
如图1所示,本发明实施例提供一种网络模型架构,整个模型架构分为特征生成模块、条件域对抗训练模块和辅助监督分类模块。采用条件对抗域泛化的人脸活体检测方法进行人脸活体检测,在训练阶段,通过人脸深度图损失、非对称三元组损失、分类损失和域对抗损失来训练特征生成网络和分类网络;在测试阶段,将测试样本送入特征生成网络和分类网络,从而进行人脸活体检测。
如图2所示,所述条件对抗域泛化的人脸活体检测方法,包括:
步骤210、从多源域图像中提取多源域图像特征,将提取的特征输入特征生成器生成特征编码,并将提取的特征输入深度估计网络输出人脸深度损失;
首先使用Attention-UNet(注意力残差网络)来提取输入图像的特征,利用注意力机制抑制输入图像中的不相关区域,同时突出特定局部区域的显著特征;然后将提取的特征送入特征生成器,特征编码器包括ResNet-18的layer2-layer4层以及一个自适应平均池化层、一个具有512个节点的全连接层,进一步对特征进行编码,作为后续网络的输入数据。
图3展示了Attention-UNet子模型的网络结构,该子模块使用了SE-ResNet-50作为预训练的模型,并将它的layer0-layer4层作为Attention-UNet的编码器部分,对输入的图像进行下采样,在解码器部分,在上采样的过程中添加了空间注意力机制来提取更多的域共享特征和有助于分类的人脸区域特征,然后采用双线性插值法将每次上采样后的特征图变换为相同的尺寸,并对特征图进行拼接。
另外,Attention-UNet模块提取的特征还会送入到一个深度估计网络。人脸深度图作为一种场景不变的信息,可以用来辅助模型的训练,以提取更多的泛化的差异线索。活体人脸的嘴巴、鼻子和额头之间有一定深度,其深度图的灰度值应该不为0,本发明使用人脸对齐网络PRNet所估计的深度信息作为假设的活体人脸深度信息;而假体人脸是一个平面,所以其深度图的灰度值被设置为0;
具体地,通过有监督学习来训练深度估计网络,对应的人脸深度损失如下:
LDep(x,Dep)=||Dep(E(x))-I||
其中,E(x)是Attention-UNet网络输出的特征,Dep(E(x))是Attention-UNet模块中深度估计器所估计的深度图,I是用PRNet估计的深度图。
步骤220、将特征编码输入分类器预估分类结果,将特征编码器输出的特征编码和分类器输出的分类结果进行融合,将融合结果输入域判别器,进行域判别器和特征生成器的域对抗网络训练,得到域对抗损失;
域泛化技术是假设在可见的多个源域和未知的目标域下存在一个泛化的特征空间,本发明通过域判别器和特征生成器的对抗训练实现对抗域泛化,并通过为生成器和判别器添加条件机制可以进一步约束对抗网络的性能,实现条件对抗域泛化,将多个源域的特征映射到未知的目标域下,从而提高模型在跨场景下的泛化性能。
本发明实施例中,进行域判别器和特征生成器的域对抗网络训练,具体包括:
(1)基于多线性映射的数据融合域对抗训练,通过多线性映射的方式进行数据融合,具体操作是使用特征编码和分类结果两个向量的张量积进行数据融合。假设x表示输入样本,G(x)是样本x的特征编码器输出,g(x)是其分类器输出,则G(x)和g(x)的融合表示成以下公式:
Figure BDA0003370396710000071
h(x)是融合后的数据,将其送入特征生成器参与对抗训练。假设有N个源域,分别定义为X=X1,X2,...,XN,域标签定义为Y=Y1,Y2,...,YN,每个域都包含两种类别的样本:活体人脸和假体人脸。特征生成器G和域判别器D的对抗网络训练是一个极大极小的优化问题:
Figure BDA0003370396710000072
式中,LAda表示对抗训练损失,y是样本x的域标签,x,y分别服从X,Y分布,1[n=y]是指示函数,当n=y时,即判别器判断样本域正确时,指示函数为1,否则为0。在优化过程中,G与D将进行迭代式的对抗训练,G的优化目标是最大化对抗训练的损失,即让域判别器D分不清样本来源于哪一个域,从而提取到更多与域无关的特征;而D希望最小化对抗训练的损失,能够分清样本的来源类型。
优选地,本发明在训练模型时,考虑到由于G与D的训练目的是相反的,因此G网络与D网络通常是分别训练的,训练效率低,因此在特征生成器和域判别器之间添加了梯度反转层(Gradient Reversal Layer,GRL),也就是反向传播时,特征生成部分的梯度会乘以-λ,通过这种方式可以同时训练G与D,这样可以提高GANs训练的效率。其中,
Figure BDA0003370396710000073
current_iters为模型训练当前迭代次数,total_iters为总迭代次数。
(2)基于熵加权条件域对抗训练,根据样本的分类预测结果,给予不同的样本以不同的权重,来减小预测不准确的难迁移样本对模型性能的影响。
具体地,通过添加条件来关联特征生成器和域判别器,使多个域的分布匹配更好。因此,本模块根据分类预测结果来给域判别器添加条件,给予分类不确定样本以较小的权重,以减小预测不准确样本对模型的影响。本发明采用信息熵
Figure BDA0003370396710000081
来衡量分类器分类的不确定性,式中,C为类别数,gc是样本的分类预测结果。根据信息熵计算得到熵感知权重
Figure BDA0003370396710000082
Figure BDA0003370396710000083
被用来对样本重新加权,当分类器预测的不确定性越大时,权重
Figure BDA0003370396710000084
值越小,从而在对抗训练时,域判别器被混淆的程度减小。假设有N个源域,分别定义为X=X1,X2,...,XN,域标签定义为Y=Y1,Y2,...,YN,每个域都包含两种类别的样本:活体人脸和假体人脸,加入熵加权调整以后,模型对抗训练的最终优化目标更新如下:
Figure BDA0003370396710000085
式中,LAda表示域对抗损失,D为域判别器,G为特征生成器,y是样本x的域标签,x,y分别服从X,Y分布,1[n=y]是指示函数,当n=y时,即判别器判断样本域正确时,指示函数为1,否则为0;
Figure BDA0003370396710000086
h(x)是融合后的数据,G(x)是样本x的特征编码器输出,g(x)是其分类器输出。
步骤230、使用交叉熵损失函数对分类器进行训练,得到分类损失;以及利用非对称三元组训练模型对特征编码进行训练,得到非对称三元组损失;
为了保证特征生成器所生成的是本系统需要的区别特征,例如活体与假体的区别特征,而不是其他特征,例如不同个体的人脸区别特征,本模型添加了一个有监督的分类器,使用了交叉熵损失函数作为目标函数,以提高人脸活体检测的精度。
此外,为了降低活体人脸与假体人脸特征空间的重叠程度,本算法引入了度量学习技术来提高类内的紧性以及类间的区分性。由于欺诈人脸类型的多样性,其特征空间分布差异较大,因此很难为他们寻找到共同的紧凑特征空间,因此,本发明假设不同类型的欺诈人脸具有不同的特征分布空间,而活体人脸共享同一个特征分布空间。算法引入了非对称的三元组损失,采用了batch-all的负样本挖掘策略,如图4所示的非对称三元组样本挖掘策略,加黑色边框的样本为描样本。若描样本是活体样本,则正样本可以是同域的,也可以是其他域的活体样本,而负样本通常是同域的假体样本;若描样本是假体样本,则正样本是同域的假体样本而负样本是其他域的活体或假体样本。这样能促使不同域的活体样本紧凑,并促使活体样本与假体样本之间以及不同域的假体样本之间离散;
非对称三元组损失损失函数可表示如下:
Figure BDA0003370396710000091
式中,
Figure BDA0003370396710000092
分别是描样本、正样本和负样本,α是边界阈值。
步骤240、根据人脸深度图损失、非对称三元组损失、分类损失和域对抗损失构造综合优化目标,使用综合优化目标训练特征生成器和分类器;
本发明构造的综合优化目标表示如下:
LDG=λ1LCls2LAda3LDep4Ltrip
式中,LCls、LAda、LDep、Ltrip分别代表交叉熵分类损失、域对抗损失、人脸深度损失和非对称三元组损失,λ1~λ4是超参数。本发明采用端到端的方式来训练模型,使其生成更加泛化的域共享特征空间,因此,模型可以泛化到未知的目标域。
步骤250、在测试阶段,将测试样本送入特征生成器和分类器进行人脸活体检测。
通过以下实验过程验证本发明条件对抗域泛化的人脸活体检测方法的检测效果:
(1)搭建实验环境:
①设置性能评价指标:本算法使用AUC(Area Underthe Curve)面积和半错误率(Half Total Error Rate,HTER)作为评价指标。AUC是ROC(Receiver Operatingcharacteristic Curve)曲线下的面积,ROC是不同阈值下的FAR(False Acceptance Rate)和FRR(False Reject Rate)所绘制的二维曲线,FAR是错误接受率,是把假体人脸判断成活体人脸的比率;FRR是错误拒绝率,是把活体人脸判断成假体人脸的比率。计算半错误率HTER首先需要绘制验证集上的ROC曲线,找到FRR等于FAR时的阈值;然后计算测试集上给定阈值的FRR与FAR,FRR和FAR的均值即为HTER指标。
②选择数据集:本算法在Casia(简写为C)、Oulu-NPU(简写为O)、MSU-MFSD(简写为M)和Replay-Attack(简写为R)四个公开的数据集,进行了跨数据集的测试。实验时,从四个公开数据集中随机选择三个作为源域(训练集),剩下的一个为目标域(测试集),因此得到了R&C&MtoO、O&C&RtoM、O&M&RtoC和O&C&MtoR四个跨数据集的实验方案。训练集中每个视频中随机选择一帧图像,而测试集中每个视频中随机选择两帧图像。
③软硬件参数设置:搭建实验硬件环境为NVDIA GeForce RTX 2080Ti显卡,编程语言为Python3.7,框架为PyTorch。模型的输入采用人脸检测和对齐算法MTCNN进行了预处理,并且将输入大小为256×256×3的RGB图像随机裁剪为128×128×3。训练时,Batch_size批大小设置为60,模型优化器为随机梯度下降(Stochastic Gradient Descent,SGD),动量参数设置为0.9,权值衰减设为5e-4,初始学习率为0.001,每训练100轮后变为原来的0.1倍。
(2)进行算法对比实验:
①与常用人脸活体检测算法的比较:本算法在跨数据集的四种实验方案(R&C&MtoO、O&C&RtoM、O&M&RtoC和O&C&MtoR)下,与现有常用的一些人脸活体检测算法:MS_LBP、BinaryCNN、IDA、ColorTexture、LBP-TOP、Auxiliary进行比较,实验结果如表1所示。
表1本算法与现有常用人脸活体检测算法在四个公开数据集上的比较
Figure BDA0003370396710000101
Figure BDA0003370396710000111
表1表明,相较于常用的人脸活体检测算法,本算法的检测精度最高,错误率最低。虽然目前常用的人脸活体检测算法在同一数据库内测试精度都很高,但是在跨数据库测试时精度下降,主要原因是这些方法没有对齐来自不同域的特征分布,没有提取不同域之间共同的模式,削弱了模型从源域到特定域特征的提取,无法削减不同数据库特征的差异。
②与其他域泛化人脸活体检测算法的比较
在跨数据集的四种实验方案下,本算法与MMD-AAE、MADDG、SSDG-M等一些较优秀的域泛化算法做了比较,结果如表2所示。
表2本算法与其他域泛化人脸活体检测算法的比较
Figure BDA0003370396710000112
由表2可知,与MADDG比较,本算法的HTER平均下降了13.6%,AUC上升了11.4%,主要原因是MADDG算法虽然采用多对抗和双重三元组最小化约束的思想提取了多个源域的共性特征,但它只是在特征上对齐了多个源域的数据分布,而忽略了类分布的对齐。本算法与SSDG-M算法比较,HTER平均下降了11.6%,AUC上升了7.7%,主要是因为SSDG算法没有考虑观测不准确样本的不利影响。本算法在上采样时将注意力机制嵌入U-Net网络以提取更泛化的差异线索,添加类别信息作为条件,在特征和类分布上同时对齐多个源域的分布,并采用信息熵控制样本优先级,提高了跨场景活体检测模型的泛化性能。
(3)为验证本算法的各个模块对整个模型的影响程度,开展了消融实验
为了验证本算法的各个模块对整个模型的影响程度,实验中分别删去一些子模块,包括注意力机制(w/o attention)、非对称三元组(w/o triplet)、域判别器(w/o ad)、多线性映射和熵调整(w/o multilinear&entropy)、深度损失(w/o depth)等,然后查看删除这些子模块后系统的性能,以此了解这些子模块对系统的作用,结果如表3所示。
表3本算法在四个公开数据集上的消融实验
Figure BDA0003370396710000121
由表3可知,当去掉任何一个模块后,系统性能都会下降,这表明所有模块都有利于模型泛化性能的提高。相比于其他模块,非对称三元组和域判别器模块对系统性能的影响更大。例如,当Casia和Replay-attack作为测试集时,去掉域判别器模块,将导致HTER分别上升9.9%和10.3%,去掉三元组模块后,HTER分别上升14.0%和11.5%。去掉多线性映射后模型的HTER分别上升6.7%和6.0%,AUC分别下降5.8%和4.4%。其主要原因是本算法不仅对齐了多个源域的特征分布,而且通过多线性映射的方法添加了基于类别的语义信息,在类层面对齐了多个源域的分布,使得模型的泛化性能更好。此外,通过添加非对称三元组损失作为辅助监督可以获得更好的分类边界。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (10)

1.一种条件对抗域泛化的人脸活体检测方法,其特征在于,包括:
从多源域图像中提取多源域图像特征,将提取的特征输入特征生成器生成特征编码,并将提取的特征输入深度估计网络输出人脸深度损失;
将特征编码输入分类器预估分类结果,将特征编码器输出的特征编码和分类器输出的分类结果进行融合,将融合结果输入域判别器,进行域判别器和特征生成器的域对抗网络训练,得到域对抗损失;
使用交叉熵损失函数对分类器进行训练,得到分类损失;以及利用非对称三元组训练模型对特征编码进行训练,得到非对称三元组损失;
根据人脸深度图损失、非对称三元组损失、分类损失和域对抗损失构造综合优化目标,使用综合优化目标训练特征生成器和分类器;
在测试阶段,将测试样本送入特征生成器和分类器进行人脸活体检测。
2.如权利要求1所述的条件对抗域泛化的人脸活体检测方法,其特征在于,进行域判别器和特征生成器的域对抗网络训练,具体包括:基于多线性映射的数据融合域对抗训练,通过多线性映射的方式进行数据融合,具体操作是使用特征编码和分类结果两个向量的张量积进行数据融合。
3.如权利要求2所述的条件对抗域泛化的人脸活体检测方法,其特征在于,进行域判别器和特征生成器的域对抗网络训练,还包括基于熵加权条件域对抗训练,根据样本的分类预测结果,给予不同的样本以不同的权重,减小预测不准确的难迁移样本对模型性能的影响。
4.如权利要求3所述的条件对抗域泛化的人脸活体检测方法,其特征在于,基于熵加权条件域对抗训练,具体包括:
采用信息熵
Figure FDA0003370396700000011
来衡量分类器分类的不确定性,式中,C为类别数,gc是样本的分类预测结果;
根据信息熵计算得到熵感知权重
Figure FDA0003370396700000012
Figure FDA0003370396700000013
被用来对样本重新加权,当分类器预测的不确定性越大时,权重
Figure FDA0003370396700000021
值越小。
5.如权利要求4所述的条件对抗域泛化的人脸活体检测方法,其特征在于,在特征生成器和域判别器之间添加了梯度反转层,即在反向传播时,特征生成部分的梯度乘以-λ来训练特征生成器和域判别器,其中,
Figure FDA0003370396700000022
Figure FDA0003370396700000023
current_iters为模型训练当前迭代次数,total_iters为总迭代次数。
6.如权利要求1所述的条件对抗域泛化的人脸活体检测方法,其特征在于,构造的综合优化目标表示如下:
LDG=λ1LCls2LAda3LDep4Ltrip
式中,LCls、LAda、LDep、Ltrip分别代表交叉熵分类损失、域对抗损失、人脸深度损失和非对称三元组损失,λ1~λ4是超参数。
7.如权利要求6所述的条件对抗域泛化的人脸活体检测方法,其特征在于,人脸深度损失如下:
LDep(x,Dep)=||Dep(E(x))-I||
其中,E(x)为注意力残差网络输出的特征,Dep(E(x))是注意力残差网络模块中深度估计器所估计的深度图,I是用人脸对齐网络估计的深度图。
8.如权利要求6所述的条件对抗域泛化的人脸活体检测方法,其特征在于,非对称三元组损失损失函数表示如下:
Figure FDA0003370396700000024
式中,
Figure FDA0003370396700000025
分别是描样本、正样本和负样本,α是边界阈值。
9.如权利要求6所述的条件对抗域泛化的人脸活体检测方法,其特征在于,
假设有N个源域,分别定义为X=X1,X2,...,XN,域标签定义为Y=Y1,Y2,...,YN,每个域都包含两种类别的样本:活体人脸和假体人脸,对抗训练的最终优化目标如下:
Figure FDA0003370396700000026
式中,LAda表示域对抗损失,D为域判别器,G为特征生成器,y是样本x的域标签,x,y分别服从X,Y分布,1[n=y]是指示函数,当n=y时,即判别器判断样本域正确时,指示函数为1,否则为0;
Figure FDA0003370396700000031
h(x)是融合后的数据,G(x)是样本x的特征编码器输出,g(x)是其分类器输出。
10.一种条件对抗域泛化的人脸活体检测网络模型架构,其特征在于,包括:特征生成模块、条件域对抗训练模块和辅助监督分类模块;采用如权利要求1-9任一项所述的条件对抗域泛化的人脸活体检测方法进行人脸活体检测,在训练阶段,通过人脸深度图损失、非对称三元组损失、分类损失和域对抗损失来训练特征生成网络和分类网络;在测试阶段,将测试样本送入特征生成网络和分类网络,从而进行人脸活体检测。
CN202111397397.9A 2021-11-23 2021-11-23 一种条件对抗域泛化的人脸活体检测方法及网络模型架构 Pending CN114078276A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111397397.9A CN114078276A (zh) 2021-11-23 2021-11-23 一种条件对抗域泛化的人脸活体检测方法及网络模型架构

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111397397.9A CN114078276A (zh) 2021-11-23 2021-11-23 一种条件对抗域泛化的人脸活体检测方法及网络模型架构

Publications (1)

Publication Number Publication Date
CN114078276A true CN114078276A (zh) 2022-02-22

Family

ID=80284096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111397397.9A Pending CN114078276A (zh) 2021-11-23 2021-11-23 一种条件对抗域泛化的人脸活体检测方法及网络模型架构

Country Status (1)

Country Link
CN (1) CN114078276A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114565918A (zh) * 2022-02-24 2022-05-31 阳光暖果(北京)科技发展有限公司 一种基于多特征提取模块的人脸静默活体检测方法与系统
CN115880538A (zh) * 2023-02-17 2023-03-31 阿里巴巴达摩院(杭州)科技有限公司 图像处理模型的域泛化、图像处理的方法及设备
CN116721315A (zh) * 2023-08-08 2023-09-08 腾讯科技(深圳)有限公司 活体检测模型的训练方法、装置、介质及电子设备
CN116912593A (zh) * 2023-07-31 2023-10-20 大连理工大学 域对抗的遥感图像目标分类方法
CN117496601A (zh) * 2023-12-28 2024-02-02 华东交通大学 基于细分类和对抗域泛化的人脸活体检测系统及方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114565918A (zh) * 2022-02-24 2022-05-31 阳光暖果(北京)科技发展有限公司 一种基于多特征提取模块的人脸静默活体检测方法与系统
CN115880538A (zh) * 2023-02-17 2023-03-31 阿里巴巴达摩院(杭州)科技有限公司 图像处理模型的域泛化、图像处理的方法及设备
CN116912593A (zh) * 2023-07-31 2023-10-20 大连理工大学 域对抗的遥感图像目标分类方法
CN116912593B (zh) * 2023-07-31 2024-01-23 大连理工大学 域对抗的遥感图像目标分类方法
CN116721315A (zh) * 2023-08-08 2023-09-08 腾讯科技(深圳)有限公司 活体检测模型的训练方法、装置、介质及电子设备
CN116721315B (zh) * 2023-08-08 2023-12-01 腾讯科技(深圳)有限公司 活体检测模型的训练方法、装置、介质及电子设备
CN117496601A (zh) * 2023-12-28 2024-02-02 华东交通大学 基于细分类和对抗域泛化的人脸活体检测系统及方法
CN117496601B (zh) * 2023-12-28 2024-04-05 华东交通大学 基于细分类和对抗域泛化的人脸活体检测系统及方法

Similar Documents

Publication Publication Date Title
CN114078276A (zh) 一种条件对抗域泛化的人脸活体检测方法及网络模型架构
Zhu et al. AR-Net: Adaptive attention and residual refinement network for copy-move forgery detection
CN104992148A (zh) 基于随机森林的atm终端部分遮挡人脸关键点检测方法
CN108734145B (zh) 一种基于密度自适应人脸表征模型的人脸识别方法
CN110348320B (zh) 一种基于多损失深度融合的人脸防伪方法
CN114022729A (zh) 基于孪生网络和监督训练的异源图像匹配定位方法和系统
CN114693607A (zh) 基于多域块特征标志点配准的篡改视频检测方法及系统
CN113850243A (zh) 模型训练、人脸识别方法、电子设备及存储介质
CN113505855A (zh) 一种对抗攻击模型的训练方法
CN116704585A (zh) 一种基于质量感知的人脸识别方法
CN113033305A (zh) 活体检测方法、装置、终端设备和存储介质
CN115830694A (zh) 基于循环注意力机制的虹膜图像防伪检测方法
CN114429646A (zh) 基于深度自注意力变换网络的步态识别方法
CN114913607A (zh) 一种基于多特征融合的指静脉仿冒检测方法
CN114596609A (zh) 一种视听伪造检测方法及装置
CN113283536A (zh) 面向成员推理攻击的基于异常点检测的深度模型隐私保护方法
CN113487506A (zh) 基于注意力去噪的对抗样本防御方法、装置和系统
Chen et al. FaceCat: Enhancing Face Recognition Security with a Unified Generative Model Framework
CN105787961B (zh) 基于背景颜色信息加权的目标直方图的Camshift运动目标跟踪方法
CN115935378B (zh) 一种基于条件生成式网络的图像融合模型安全性检测方法
CN114626042B (zh) 一种人脸验证攻击方法和装置
CN117496601B (zh) 基于细分类和对抗域泛化的人脸活体检测系统及方法
KR102571135B1 (ko) 해상도 복원 기반 안구 인식 장치 및 방법
CN114926877B (zh) 一种基于对比域差异的跨域人脸表情识别方法
CN115457265B (zh) 基于生成对抗网络和多尺度融合的图像去雾方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination