CN114821691A - 人脸活体检测网络的训练方法及装置 - Google Patents

人脸活体检测网络的训练方法及装置 Download PDF

Info

Publication number
CN114821691A
CN114821691A CN202110127746.9A CN202110127746A CN114821691A CN 114821691 A CN114821691 A CN 114821691A CN 202110127746 A CN202110127746 A CN 202110127746A CN 114821691 A CN114821691 A CN 114821691A
Authority
CN
China
Prior art keywords
face
trained
network
loss function
living body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110127746.9A
Other languages
English (en)
Inventor
李�杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Communications Ltd Research Institute
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Communications Ltd Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Communications Ltd Research Institute filed Critical China Mobile Communications Group Co Ltd
Priority to CN202110127746.9A priority Critical patent/CN114821691A/zh
Publication of CN114821691A publication Critical patent/CN114821691A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提供一种人脸活体检测网络的训练方法及装置,该训练方法包括:获取多个域的人脸图像,每个域中包括多幅人脸图像,每个域中的多幅人脸图像在同一个环境场景和/或使用同一种数据采集设备采集;从所述多个域中选取至少一个域作为源域;将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像;将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络。本发明中,可以通过多种环境场景和/或多种类型的数据采集设备采集的人脸图像得到大量的对抗样本,用于人脸活体检测网络的训练,提高训练出的人脸活体检测网络模型稳健性。

Description

人脸活体检测网络的训练方法及装置
技术领域
本发明实施例涉及人工智能技术领域,尤其涉及一种人脸活体检测网络的训练方法及装置。
背景技术
近年来,人们对人脸活体检测技术的关注度日益增加,这是因为随着人脸识别技术在生活中的应用和推广,随之而来的安全性问题不容忽视。随着计算机技术的进步和人工智能的发展,人脸活体检测技术也在不断地进步和提高。当前,依托深度学习和大数据技术的人脸活体检测技术已是主流的方法。
为了提高人脸活体检测技术的稳定性和针对新的攻击的能力,现有的人脸活体检测网络模型的训练方法中提到通过采集真实人脸数据和攻击人脸数据,并根据真实人脸数据和攻击人脸数据训练网络。
现有的人脸活体检测网络模型的训练方法存在以下缺点:对数据的要求较高,尤其是数据量。训练稳健的深度学习模型需要大量的数据,但是获取大量的有效的数据是比较困难的,尤其对于人脸活体检测来说,实际中的攻击情况相对来说还是少的,也很难采集到所有情形的攻击样本数据,这对依托数据来实现人脸活体检测的方法是一个弊病和挑战。
发明内容
本发明实施例提供一种人脸活体检测网络的训练方法及装置,用于解决现有的用于训练人脸活体检测网络模型的数据获取困难,导致训练出的人脸活体检测网络模型稳健性差的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供了一种人脸活体检测网络的训练方法,包括:
获取多个域的人脸图像,每个域中包括多幅人脸图像,每个域中的多幅人脸图像在同一个环境场景和/或使用同一种数据采集设备采集;
从所述多个域中选取至少一个域作为源域;
将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像;
将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络。
可选的,所述方法还包括:
将所述多个域中除所述源域之外的域作为目标域;
利用所述目标域中的人脸图像对所述训练后的人脸活体检测网络进行测试,并输出测试结果。
可选的,将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像之前还包括:
采用所述源域中的人脸图像,对待训练对抗样本生成网络进行训练,生成所述对抗样本生成网络;
其中,对待训练对抗样本生成网络进行训练包括:
将所述源域中的人脸图像输入至待训练对抗样本生成网络中,得到输出结果,所述输出结果包括:输入的人脸图像对应的人脸深度图像、分类结果、人脸特征数据和对抗样本图像;其中,所述待训练对抗样本生成网络包括特征提取器、深度图估计网络和分类器,所述特征提取器对输入的人脸图像进行特征提取,得到人脸特征数据,所述深度图估计网络对所述人脸特征数据进行处理,得到人脸深度图像,所述分类器对所述人脸特征数据进行人脸活体检测分类,得到人脸活体检测分类结果;
根据所述输出结果计算所述待训练对抗样本生成网络的总损失函数,根据所述总损失函数更新所述待训练对抗样本生成网络的参数,得到训练后的对抗样本生成网络;所述总损失函数根据所述分类器的损失函数、所述深度图估计网络的损失函数以及所述特征差异损失函数计算得到。
可选的,所述总损失函数采用如下公式计算:
Figure BDA0002924619710000021
其中,
Figure BDA0002924619710000022
表示所述总损失函数,
Figure BDA0002924619710000023
表示所述分类器的损失函数,
Figure BDA0002924619710000024
表示所述特征差异损失函数,
Figure BDA0002924619710000025
表示所述深度图估计网络的损失函数,θ表示所述分类器的参数,
Figure BDA0002924619710000031
表示所述深度图估计网络的参数,x表示输入至待训练对抗样本生成网络的人脸图像,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,α和β表示权重。
可选的,所述分类器的损失函数采用如下公式计算:
Figure BDA0002924619710000032
其中,y表示输入至所述待训练对抗样本生成网络的人脸图像的真实标签,
Figure BDA0002924619710000033
表示所述待训练对抗样本生成网络输出的人脸活体检测分类结果,yi
Figure BDA0002924619710000034
表示y和
Figure BDA0002924619710000035
的第i个维度。
可选的,所述特征差异损失函数采用如下公式计算:
Figure BDA0002924619710000036
其中,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,z+表示待训练对抗样本生成网络输出的对抗样本图像经过所述特征提取器提取的人脸特征数据,1{·}表示指示函数,y表示人脸图像的标签,y+表示生成的对抗样本图像的标签。
可选的,所述深度图估计网络的损失函数采用如下公式计算:
Figure BDA0002924619710000037
其中,d表示输入至待训练对抗样本生成网络的人脸图像对应的深度图像,d+表示所述深度图估计网络生成的深度图像。
可选的,所述对抗样本生成网络输出的对抗样本图像的公式如下:
Figure BDA0002924619710000038
其中,
Figure BDA0002924619710000039
表示第t步迭代得到的对抗样本图像,
Figure BDA00029246197100000310
表示第t+1步迭代得到的对抗样本图像,θ,ψ分别为分类器和深度图估计网络的参数,
Figure BDA00029246197100000311
表示对抗样本图像
Figure BDA00029246197100000312
经过特征提取器提取的特征,
Figure BDA00029246197100000313
表示对
Figure BDA00029246197100000314
Figure BDA00029246197100000315
进行求导,γ是超参数,表示梯度上升的学习率。
可选的,将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络包括:
将所述源域中的人脸图像作为训练数据,对待训练人脸活体检测网络进行训练,并计算第一分类损失函数,根据所述第一分类损失函数,更新待训练人脸活体检测网络的参数;
将所述对抗样本图像作为测试数据,输入至待训练人脸活体检测网络,并计算第二分类损失函数,根据所述第一分类损失函数和所述第二分类损失函数,更新待训练人脸活体检测网络的参数。
可选的,根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure BDA0002924619710000041
其中,
Figure BDA0002924619710000042
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,θ表示更新前的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure BDA0002924619710000043
表示源域的人脸图像,
Figure BDA0002924619710000044
表示所述第一分类损失函数,
Figure BDA0002924619710000045
是表示对θ进行求导。
可选的,所述第二分类损失函数的计算公式如下:
Figure BDA0002924619710000046
其中,
Figure BDA0002924619710000047
表示所述第二分类损失函数,y+表示输入至待训练人脸活体检测网络的对抗样本图像的标签,
Figure BDA0002924619710000048
是待训练人脸活体检测网络输出的对抗样本图像的标签,yi +
Figure BDA0002924619710000049
分别表示y+
Figure BDA00029246197100000410
的第i个维度。
可选的,根据所述第一分类损失函数和所述第二分类损失函数,更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure BDA00029246197100000411
其中,
Figure BDA00029246197100000412
表示所述第一分类损失函数,
Figure BDA00029246197100000413
表示所述第二分类损失函数,K表示目标域的个数,
Figure BDA00029246197100000414
表示源域,θ表示更新前的待训练人脸活体检测网络的参数,
Figure BDA0002924619710000051
表示第k个对抗样本图像组成的域,
Figure BDA0002924619710000052
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure BDA0002924619710000053
是表示对θ进行求导。
第二方面,本发明实施例提供了一种人脸活体检测网络的训练装置,包括:
获取模块,用于获取多个域的人脸图像,每个域中包括多幅人脸图像,每个域中的多幅人脸图像在同一个环境场景和/或使用同一种数据采集设备采集;
第一选取模块,用于从所述多个域中选取至少一个域作为源域;
生成模块,用于将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像;
第一训练模块,用于将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络。
可选的,所述装置还包括:
第二选取模块,用于将所述多个域中除所述源域之外的域作为目标域;
测试模块,用于利用所述目标域中的人脸图像对所述训练后的人脸活体检测网络进行测试,并输出测试结果。
可选的,所述装置还包括:
第二训练模块,用于采用所述源域中的人脸图像,对待训练对抗样本生成网络进行训练,生成所述对抗样本生成网络;
其中,对待训练对抗样本生成网络进行训练包括:
将所述源域中的人脸图像输入至待训练对抗样本生成网络中,得到输出结果,所述输出结果包括:输入的人脸图像对应的人脸深度图像、分类结果、人脸特征数据和对抗样本图像;其中,所述待训练对抗样本生成网络包括特征提取器、深度图估计网络和分类器,所述特征提取器对输入的人脸图像进行特征提取,得到人脸特征数据,所述深度图估计网络对所述人脸特征数据进行处理,得到人脸深度图像,所述分类器对所述人脸特征数据进行人脸活体检测分类,得到人脸活体检测分类结果;
根据所述输出结果计算所述待训练对抗样本生成网络的总损失函数,根据所述总损失函数更新所述待训练对抗样本生成网络的参数,得到训练后的对抗样本生成网络;所述总损失函数根据所述分类器的损失函数、所述深度图估计网络的损失函数以及所述特征差异损失函数计算得到。
可选的,所述总损失函数采用如下公式计算:
Figure BDA0002924619710000061
其中,
Figure BDA0002924619710000062
表示所述总损失函数,
Figure BDA0002924619710000063
表示所述分类器的损失函数,
Figure BDA0002924619710000064
表示所述特征差异损失函数,
Figure BDA0002924619710000065
表示所述深度图估计网络的损失函数,θ表示所述分类器的参数,
Figure BDA0002924619710000066
表示所述深度图估计网络的参数,x表示输入至待训练对抗样本生成网络的人脸图像,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,α和β表示权重。
可选的,所述分类器的损失函数采用如下公式计算:
Figure BDA0002924619710000067
其中,y表示输入至所述待训练对抗样本生成网络的人脸图像的真实标签,
Figure BDA0002924619710000068
表示所述待训练对抗样本生成网络输出的人脸活体检测分类结果,yi
Figure BDA0002924619710000069
表示y和
Figure BDA00029246197100000610
的第i个维度。
可选的,所述特征差异损失函数采用如下公式计算:
Figure BDA00029246197100000611
其中,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,z+表示待训练对抗样本生成网络输出的对抗样本图像经过所述特征提取器提取的人脸特征数据,1{·}表示指示函数,y表示人脸图像的标签,y+表示生成的对抗样本图像的标签。
可选的,所述深度图估计网络的损失函数采用如下公式计算:
Figure BDA00029246197100000612
其中,d表示输入至待训练对抗样本生成网络的人脸图像对应的深度图像,d+表示所述深度图估计网络生成的深度图像。
可选的,所述对抗样本生成网络输出的对抗样本图像的公式如下:
Figure BDA00029246197100000613
其中,
Figure BDA0002924619710000071
表示第t步迭代得到的对抗样本图像,
Figure BDA0002924619710000072
表示第t+1步迭代得到的对抗样本图像,θ,ψ分别为分类器和深度图估计网络的参数,
Figure BDA0002924619710000073
表示对抗样本图像
Figure BDA0002924619710000074
经过特征提取器提取的特征,
Figure BDA0002924619710000075
表示对
Figure BDA0002924619710000076
Figure BDA0002924619710000077
进行求导,γ是超参数,表示梯度上升的学习率。
可选的,所述第一训练模块包括:
训练子模块,用于将所述源域中的人脸图像作为训练数据,对待训练人脸活体检测网络进行训练,并计算第一分类损失函数,根据所述第一分类损失函数,更新待训练人脸活体检测网络的参数;
测试子模块,用于将所述对抗样本图像作为测试数据,输入至待训练人脸活体检测网络,并计算第二分类损失函数,根据所述第一分类损失函数和所述第二分类损失函数,更新待训练人脸活体检测网络的参数。
可选的,根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure BDA0002924619710000078
其中,
Figure BDA0002924619710000079
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,θ表示更新前的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure BDA00029246197100000710
表示源域的人脸图像,
Figure BDA00029246197100000711
表示所述第一分类损失函数,
Figure BDA00029246197100000712
是表示对θ进行求导。
可选的,所述第二分类损失函数的计算公式如下:
Figure BDA00029246197100000713
其中,
Figure BDA00029246197100000714
表示所述第二分类损失函数,y+表示输入至待训练人脸活体检测网络的对抗样本图像的标签,
Figure BDA00029246197100000715
是待训练人脸活体检测网络输出的对抗样本图像的标签,yi +
Figure BDA00029246197100000716
分别表示y+
Figure BDA00029246197100000717
的第i个维度。
可选的,根据所述第一分类损失函数和所述第二分类损失函数,更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure BDA0002924619710000081
其中,
Figure BDA0002924619710000082
表示所述第一分类损失函数,
Figure BDA0002924619710000083
表示所述第二分类损失函数,K表示目标域的个数,
Figure BDA0002924619710000084
表示源域,θ表示更新前的待训练人脸活体检测网络的参数,
Figure BDA0002924619710000085
表示第k个对抗样本图像组成的域,
Figure BDA0002924619710000086
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure BDA0002924619710000087
是表示对θ进行求导。
第三方面,本发明实施例提供了一种电子设备,包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序,所述程序被所述处理器执行时实现上述第一方面所述的人脸活体检测网络的训练方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的人脸活体检测网络的训练方法的步骤。
本发明实施例中,在每一次的训练中,首先利用设计的生成对抗样本网络来生成源域的人脸图像的对抗样本,然后利用人脸图像作为训练数据,生成的对抗样本作为测试数据,在元学习的框架之下进行人脸活体检测网络的训练。这样一方面得到分布更加分散的人脸数据,对实际中不同场景不同采集设备采集的人脸数据进行了模拟和补充,另一方面,充分利用元学习的优势,让模型在每次训练中都在模拟遇到未知数据攻击的情形,让模型逐渐对于未知的场景下的识别更加稳健,模型的泛化性能和稳定性也得到提高。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例一的人脸活体检测网络的训练方法的流程示意图;
图2为本发明实施例二的人脸活体检测网络的训练方法的流程示意图;
图3为本发明实施例三的对抗样本生成网络的训练方法的流程示意图;
图4为本发明实施例的对抗样本生成网络的结构示意图;
图5为本发明实施例四的人脸活体检测网络的训练方法的流程示意图;
图6为本发明实施例的人脸活体检测网络的训练装置的结构示意图;
图7为本发明实施例的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,本发明实施例一提供一种人脸活体检测网络的训练方法,包括:
步骤11:获取多个域的人脸图像,每个域中包括多幅人脸图像,每个域中的多幅人脸图像在同一个环境场景和/或使用同一种数据采集设备采集;从所述多个域中选取至少一个域作为源域;
本发明实施例中,可以设置不同的环境场景,和/或,采用不同的数据采集设备,来采集若干真人和攻击人脸的图像或者视频,组成数据集。其中,其中环境场景可以设置差异较大的光照和/或不同的背景环境等。数据采集设备可使用不同品牌的相机和/或分辨率等不同的相机等。将同一个环境场景和/或使用同一种数据采集设备采集的图像作为一个域的图像。
然后,可以对采集到的图像进行预处理。如果获取到的是人脸图像(RGB图像),可以首先通过人脸检测方法检测图像中的人脸,并将人脸裁剪出来,将裁剪的人脸图像统一调整后预设尺寸,例如256*256。如果获取到的视频,则从视频中抽取(例如随机抽取)图像,并通过人脸检测方法检测图像中的人脸,并将人脸裁剪出来,将裁剪的人脸图像统一调整后预设尺寸。本发明实施例中,可以采用MTCNN(Multi-task convolutional neuralnetwork,多任务卷积神经网络)算法对检测图像中的人脸。
最后,将预处理后的图像根据不同的域分开,并从该多个域中选取至少一个域作为源域,用于训练人脸活体检测网络。优选的,选取多个源域,以使得训练出的人脸活体检测网络可以适应各种场景和/或数据采集设备的图像。
步骤12:将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像;
步骤13:将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络。
本发明实施例中,若包括多个源域,可以依次根据每一源域以及对应的对抗样本图像,输入至待训练人脸活体检测网络进行训练,以得到最终的训练后的人脸活体检测网络。
本发明实施例中,在每一次的训练中,首先利用设计的生成对抗样本网络来生成源域的人脸图像的对抗样本,然后利用人脸图像作为训练数据,生成的对抗样本作为测试数据,在元学习的框架之下进行人脸活体检测网络的训练。这样一方面得到分布更加分散的人脸数据,更加丰富的对抗样本,以提高网络在不同的环境场景下的准确率,另一方面,充分利用元学习的优势,让模型在每次训练中都在模拟遇到未知数据攻击的情形,让模型逐渐对于未知的场景下的识别更加稳健,模型的泛化性能和稳定性也得到提高。
请参考图2,本发明实施例二提供一种人脸活体检测网络的训练方法,包括:
步骤21:获取多个域的人脸图像,每个域中包括多幅人脸图像,每个域中的多幅人脸图像在同一个环境场景和/或使用同一种数据采集设备采集;从所述多个域中选取至少一个域作为源域;将所述多个域中除所述源域之外的域作为目标域;
步骤22:将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像;
步骤23:将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络。
步骤24:利用所述目标域中的人脸图像对所述训练后的人脸活体检测网络进行测试,并输出测试结果。
本发明实施例中,优选的,将获取到的多个域中的其中一个域作为目标域其余域均作为源域,也就是说,使用尽量多的域的数据进行训练,只需采用一个域的数据进行验证即可。当然,也不排除使用多个目标域对训练后的人脸活体检测网络进行测试的实施方式。
本发明实施例中,在训练得到人脸活体检测网络之后,再使用目标域对训练后的人脸活体检测网络进行测试,查看训练效果。
本发明实施例中,可选的,将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像之前还包括:采用所述源域中的人脸图像,对待训练对抗样本生成网络进行训练,生成所述对抗样本生成网络。
下面对对抗样本生成网络的训练过程进行说明。
请参考图3,本发明实施例三提供一种对抗样本生成网络的训练方法,包括:
步骤31:将源域中的人脸图像输入至待训练对抗样本生成网络中,得到输出结果,所述输出结果包括:输入的人脸图像对应的人脸深度图像、分类结果、人脸特征数据和对抗样本图像;其中,请参考图4,所述待训练对抗样本生成网络包括特征提取器、深度图估计网络和分类器,所述特征提取器对输入的人脸图像进行特征提取,得到人脸特征数据,所述分类器对所述人脸特征数据进行人脸活体检测分类,得到人脸活体检测分类结果,所述深度图估计网络对所述人脸特征数据进行处理,得到人脸深度图像;深度图估计网络的作用,一方面是在对抗样本生成的过程中起到了监督和限制的作用,使得生成的对抗样本与源域的人脸图像对应的深度图之间的域的迁移较大,进而得到和源域差异较大的对抗样本图像,另一方面是指导待训练对抗样本生成网络提取出对活体检测有帮助的特征,提升活体检测性能。
步骤32:根据所述输出结果计算所述待训练对抗样本生成网络的总损失函数,根据所述总损失函数更新所述待训练对抗样本生成网络的参数,得到训练后的对抗样本生成网络;所述总损失函数根据所述分类器的损失函数、所述深度图估计网络的损失函数以及所述特征差异损失函数计算得到。
本发明实施例中,可以预先将源域中的人脸图像处理成深度图像,从而计算深度图估计网络的损失函数,例如在上述图像预处理的步骤中进行处理。
本发明实施例中,可选的,所述总损失函数采用如下公式计算:
Figure BDA0002924619710000121
其中,
Figure BDA0002924619710000122
表示所述总损失函数,
Figure BDA0002924619710000123
表示所述分类器的损失函数,
Figure BDA0002924619710000124
表示所述特征差异损失函数,
Figure BDA0002924619710000125
表示所述深度图估计网络的损失函数,θ表示所述分类器的参数,
Figure BDA0002924619710000126
表示所述深度图估计网络的参数,x表示输入至待训练对抗样本生成网络的人脸图像,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,α和β表示权重。
本发明实施例中,可选的,所述分类器的损失函数采用如下公式计算:
Figure BDA0002924619710000127
其中,y表示输入至所述待训练对抗样本生成网络的人脸图像的真实标签,
Figure BDA0002924619710000128
表示所述待训练对抗样本生成网络输出的人脸活体检测分类结果,yi
Figure BDA0002924619710000129
表示y和
Figure BDA00029246197100001210
的第i个维度。
本发明实施例中,可选的,所述特征差异损失函数采用如下公式计算:
Figure BDA00029246197100001211
其中,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,z+表示待训练对抗样本生成网络输出的对抗样本图像经过所述特征提取器提取的人脸特征数据,1{·}表示指示函数,y表示人脸图像的标签,y+表示生成的对抗样本图像的标签。其中,y=y+时,1{y≠y+}取0,y≠y+时,1{y≠y+}取1。
本发明实施例中,可选的,所述深度图估计网络的损失函数采用如下公式计算:
Figure BDA00029246197100001212
其中,d表示输入至待训练对抗样本生成网络的人脸图像对应的深度图像,d+表示所述深度图估计网络生成的深度图像。
本发明实施例中,可选的,所述对抗样本生成网络输出的对抗样本图像的公式如下:
Figure BDA0002924619710000131
其中,
Figure BDA0002924619710000132
表示第t步迭代得到的对抗样本图像,
Figure BDA0002924619710000133
表示第t+1步迭代得到的对抗样本图像,θ,ψ分别为分类器和深度图估计网络的参数,
Figure BDA0002924619710000134
表示对抗样本图像
Figure BDA0002924619710000135
经过特征提取器提取的特征,
Figure BDA0002924619710000136
表示对
Figure BDA0002924619710000137
Figure BDA0002924619710000138
进行求导,γ是超参数,表示梯度上升的学习率。
本发明实施例中,生成对抗样本的方式,与现有技术中的改变图像色彩平衡等方式不同,采用一种在线迭代生成的方式,随着神经网络的迭代,对抗样本也在不断变化。具体是采用在原始数据基础上加上扰动的方式来对图像进行改变,此处的扰动,是通过神经网络损失(loss)设计得到的,得到的数据不仅在图像丰富度上有提升,而且是朝着对活体检测任务有提升的方向不断变化的。
另外,训练对抗样本生成网络使用的损失(loss),利用了深度图信息作为监督,利用深度图信息来提升活体检测的性能,使得网络生成的新的样本对活体检测性能提升贡献增大。
下面对人脸活体检测网络的训练过程进行说明。本发明实施例中,以原学习的思路来训练对抗样本生成网络。
请参考图5,本发明实施例四提供一种对抗样本生成网络的训练方法,包括:
步骤51:将源域中的人脸图像作为训练数据,对待训练人脸活体检测网络进行训练,并计算第一分类损失函数,根据所述第一分类损失函数,更新待训练人脸活体检测网络的参数;
步骤52:将所述对抗样本图像作为测试数据,输入至待训练人脸活体检测网络,并计算第二分类损失函数,根据所述第一分类损失函数和所述第二分类损失函数,更新待训练人脸活体检测网络的参数。
可选的,根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure BDA0002924619710000141
其中,
Figure BDA0002924619710000142
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,θ表示更新前的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure BDA0002924619710000143
表示源域的人脸图像,
Figure BDA0002924619710000144
表示所述第一分类损失函数,
Figure BDA0002924619710000145
是表示对θ进行求导。
可选的,所述第二分类损失函数的计算公式如下:
Figure BDA0002924619710000146
其中,
Figure BDA0002924619710000147
表示所述第二分类损失函数,y+表示输入至待训练人脸活体检测网络的对抗样本图像的标签,
Figure BDA0002924619710000148
是待训练人脸活体检测网络输出的对抗样本图像的标签,yi +
Figure BDA0002924619710000149
分别表示y+
Figure BDA00029246197100001410
的第i个维度。
可选的,根据所述第一分类损失函数和所述第二分类损失函数,更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure BDA00029246197100001411
其中,
Figure BDA00029246197100001412
表示所述第一分类损失函数,
Figure BDA00029246197100001413
表示所述第二分类损失函数,K表示目标域的个数,
Figure BDA00029246197100001414
表示源域,θ表示更新前的待训练人脸活体检测网络的参数,
Figure BDA00029246197100001415
表示第k个对抗样本图像组成的域,
Figure BDA00029246197100001416
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure BDA00029246197100001417
是表示对θ进行求导。
对于有多个源域一个目标域的情况,假设有N-1个源域,则重复以上步骤生成源域的人脸图像对应的对抗样本,并利用元学习来训练待训练人脸活体检测网络N-1次,得到最终训练后的人脸活体检测网络,并使用1个目标域对训练后的人脸活体检测网络进行测试,当然也可以采用其他测试数据对训练后的人脸活体检测网络进行测试。
本发明实施例中,采用元学习框架来训练人脸活体检测网络,这里,对于元学习的训练阶段,采用原始采集的人脸数据,但是在元学习的测试阶段采用生成的对抗样本数据,采用这样巧妙的元学习训练方式,而不是根据采集的原始的数据集合来随机划分元学习中的训练集和测试集,能在学习中模拟人脸活体检测网络遇到新的未知数据的情形,使得人脸活体检测网络能够对新的、从未见过的场景数据也能有较好的性能,对未知的场景具有一定的抵抗力。
请参考图6,本发明实施例提供了一种人脸活体检测网络的训练装置60,包括:
获取模块61,用于获取多个域的人脸图像,每个域中包括多幅人脸图像,每个域中的多幅人脸图像在同一个环境场景和/或使用同一种数据采集设备采集;
第一选取模块62,用于从所述多个域中选取至少一个域作为源域;
生成模块63,用于将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像;
第一训练模块64,用于将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络。
可选的,所述人脸活体检测网络的训练装置60还包括:
第二选取模块,用于将所述多个域中除所述源域之外的域作为目标域;
测试模块,用于利用所述目标域中的人脸图像对所述训练后的人脸活体检测网络进行测试,并输出测试结果。
可选的,所述人脸活体检测网络的训练装置60还包括:
第二训练模块,用于采用所述源域中的人脸图像,对待训练对抗样本生成网络进行训练,生成所述对抗样本生成网络;
其中,对待训练对抗样本生成网络进行训练包括:
将所述源域中的人脸图像输入至待训练对抗样本生成网络中,得到输出结果,所述输出结果包括:输入的人脸图像对应的人脸深度图像、分类结果、人脸特征数据和对抗样本图像;其中,所述待训练对抗样本生成网络包括特征提取器、深度图估计网络和分类器,所述特征提取器对输入的人脸图像进行特征提取,得到人脸特征数据,所述深度图估计网络对所述人脸特征数据进行处理,得到人脸深度图像,所述分类器对所述人脸特征数据进行人脸活体检测分类,得到人脸活体检测分类结果;
根据所述输出结果计算所述待训练对抗样本生成网络的总损失函数,根据所述总损失函数更新所述待训练对抗样本生成网络的参数,得到训练后的对抗样本生成网络;所述总损失函数根据所述分类器的损失函数、所述深度图估计网络的损失函数以及所述特征差异损失函数计算得到。
可选的,所述总损失函数采用如下公式计算:
Figure BDA0002924619710000161
其中,
Figure BDA0002924619710000162
表示所述总损失函数,
Figure BDA0002924619710000163
表示所述分类器的损失函数,
Figure BDA0002924619710000164
表示所述特征差异损失函数,
Figure BDA0002924619710000165
表示所述深度图估计网络的损失函数,θ表示所述分类器的参数,
Figure BDA0002924619710000166
表示所述深度图估计网络的参数,x表示输入至待训练对抗样本生成网络的人脸图像,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,α和β表示权重。
可选的,所述分类器的损失函数采用如下公式计算:
Figure BDA0002924619710000167
其中,y表示输入至所述待训练对抗样本生成网络的人脸图像的真实标签,
Figure BDA0002924619710000168
表示所述待训练对抗样本生成网络输出的人脸活体检测分类结果,yi
Figure BDA0002924619710000169
表示y和
Figure BDA00029246197100001610
的第i个维度。
可选的,所述特征差异损失函数采用如下公式计算:
Figure BDA00029246197100001611
其中,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,z+表示待训练对抗样本生成网络输出的对抗样本图像经过所述特征提取器提取的人脸特征数据,1{·}表示指示函数,y表示人脸图像的标签,y+表示生成的对抗样本图像的标签。
可选的,所述深度图估计网络的损失函数采用如下公式计算:
Figure BDA0002924619710000171
其中,d表示输入至待训练对抗样本生成网络的人脸图像对应的深度图像,d+表示所述深度图估计网络生成的深度图像。
可选的,所述对抗样本生成网络输出的对抗样本图像的公式如下:
Figure BDA0002924619710000172
其中,
Figure BDA0002924619710000173
表示第t步迭代得到的对抗样本图像,
Figure BDA0002924619710000174
表示第t+1步迭代得到的对抗样本图像,θ,ψ分别为分类器和深度图估计网络的参数,
Figure BDA0002924619710000175
表示对抗样本图像
Figure BDA0002924619710000176
经过特征提取器提取的特征,
Figure BDA0002924619710000177
表示对
Figure BDA0002924619710000178
Figure BDA0002924619710000179
进行求导,γ是超参数,表示梯度上升的学习率。
可选的,所述第一训练模块包括:
训练子模块,用于将所述源域中的人脸图像作为训练数据,对待训练人脸活体检测网络进行训练,并计算第一分类损失函数,根据所述第一分类损失函数,更新待训练人脸活体检测网络的参数;
测试子模块,用于将所述对抗样本图像作为测试数据,输入至待训练人脸活体检测网络,并计算第二分类损失函数,根据所述第一分类损失函数和所述第二分类损失函数,更新待训练人脸活体检测网络的参数。
可选的,根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure BDA00029246197100001710
其中,
Figure BDA00029246197100001711
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,θ表示更新前的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure BDA00029246197100001712
表示源域的人脸图像,
Figure BDA00029246197100001713
表示所述第一分类损失函数,
Figure BDA00029246197100001714
是表示对θ进行求导。
可选的,所述第二分类损失函数的计算公式如下:
Figure BDA00029246197100001715
其中,
Figure BDA00029246197100001716
表示所述第二分类损失函数,y+表示输入至待训练人脸活体检测网络的对抗样本图像的标签,
Figure BDA0002924619710000181
是待训练人脸活体检测网络输出的对抗样本图像的标签,yi +
Figure BDA0002924619710000182
分别表示y+
Figure BDA0002924619710000183
的第i个维度。
可选的,根据所述第一分类损失函数和所述第二分类损失函数,更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure BDA0002924619710000184
其中,
Figure BDA0002924619710000185
表示所述第一分类损失函数,
Figure BDA0002924619710000186
表示所述第二分类损失函数,K表示目标域的个数,
Figure BDA0002924619710000187
表示源域,θ表示更新前的待训练人脸活体检测网络的参数,
Figure BDA0002924619710000188
表示第k个对抗样本图像组成的域,
Figure BDA0002924619710000189
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure BDA00029246197100001810
是表示对θ进行求导。
请参考图7,本发明实施例还提供一种电子设备70,包括处理器71,存储器72,存储在存储器72上并可在所述处理器71上运行的计算机程序,该计算机程序被处理器71执行时实现上述人脸活体检测网络的训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现上述人脸活体检测网络的训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。

Claims (15)

1.一种人脸活体检测网络的训练方法,其特征在于,包括:
获取多个域的人脸图像,每个域中包括多幅人脸图像,每个域中的多幅人脸图像在同一个环境场景和/或使用同一种数据采集设备采集;
从所述多个域中选取至少一个域作为源域;
将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像;
将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络。
2.根据权利要求1所述的方法,其特征在于,还包括:
将所述多个域中除所述源域之外的域作为目标域;
利用所述目标域中的人脸图像对所述训练后的人脸活体检测网络进行测试,并输出测试结果。
3.根据权利要求1所述的方法,其特征在于,将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像之前还包括:
采用所述源域中的人脸图像,对待训练对抗样本生成网络进行训练,生成所述对抗样本生成网络;
其中,对待训练对抗样本生成网络进行训练包括:
将所述源域中的人脸图像输入至待训练对抗样本生成网络中,得到输出结果,所述输出结果包括:输入的人脸图像对应的人脸深度图像、分类结果、人脸特征数据和对抗样本图像;其中,所述待训练对抗样本生成网络包括特征提取器、深度图估计网络和分类器,所述特征提取器对输入的人脸图像进行特征提取,得到人脸特征数据,所述深度图估计网络对所述人脸特征数据进行处理,得到人脸深度图像,所述分类器对所述人脸特征数据进行人脸活体检测分类,得到人脸活体检测分类结果;
根据所述输出结果计算所述待训练对抗样本生成网络的总损失函数,根据所述总损失函数更新所述待训练对抗样本生成网络的参数,得到训练后的对抗样本生成网络;所述总损失函数根据所述分类器的损失函数、所述深度图估计网络的损失函数以及特征差异损失函数计算得到。
4.根据权利要求3所述的方法,其特征在于,所述总损失函数采用如下公式计算:
Figure FDA0002924619700000021
其中,
Figure FDA0002924619700000022
表示所述总损失函数,
Figure FDA0002924619700000023
表示所述分类器的损失函数,
Figure FDA0002924619700000024
表示所述特征差异损失函数,
Figure FDA0002924619700000025
表示所述深度图估计网络的损失函数,θ表示所述分类器的参数,
Figure FDA0002924619700000026
表示所述深度图估计网络的参数,x表示输入至待训练对抗样本生成网络的人脸图像,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,α和β表示权重。
5.根据权利要求4所述的方法,其特征在于,所述分类器的损失函数采用如下公式计算:
Figure FDA0002924619700000027
其中,y表示输入至所述待训练对抗样本生成网络的人脸图像的真实标签,
Figure FDA0002924619700000028
表示所述待训练对抗样本生成网络输出的人脸活体检测分类结果,yi
Figure FDA0002924619700000029
表示y和
Figure FDA00029246197000000210
的第i个维度。
6.根据权利要求4所述的方法,其特征在于,所述特征差异损失函数采用如下公式计算:
Figure FDA00029246197000000211
其中,z表示输入至待训练对抗样本生成网络的人脸图像经过所述特征提取器提取的人脸特征数据,z+表示待训练对抗样本生成网络输出的对抗样本图像经过所述特征提取器提取的人脸特征数据,1{·}表示指示函数,y表示人脸图像的标签,y+表示生成的对抗样本图像的标签。
7.根据权利要求4所述的方法,其特征在于,所述深度图估计网络的损失函数采用如下公式计算:
Figure FDA00029246197000000212
其中,d表示输入至待训练对抗样本生成网络的人脸图像对应的深度图像,d+表示所述深度图估计网络生成的深度图像。
8.根据权利要求4所述的方法,其特征在于,所述对抗样本生成网络输出的对抗样本图像的公式如下:
Figure FDA0002924619700000031
其中,
Figure FDA0002924619700000032
表示第t步迭代得到的对抗样本图像,
Figure FDA0002924619700000033
表示第t+1步迭代得到的对抗样本图像,θ,ψ分别为分类器和深度图估计网络的参数,
Figure FDA0002924619700000034
表示对抗样本图像
Figure FDA0002924619700000035
经过特征提取器提取的特征,
Figure FDA0002924619700000036
表示对
Figure FDA0002924619700000037
Figure FDA0002924619700000038
进行求导,γ是超参数,表示梯度上升的学习率。
9.根据权利要求2所述的方法,其特征在于,将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络包括:
将所述源域中的人脸图像作为训练数据,对待训练人脸活体检测网络进行训练,并计算第一分类损失函数,根据所述第一分类损失函数,更新待训练人脸活体检测网络的参数;
将所述对抗样本图像作为测试数据,输入至待训练人脸活体检测网络,并计算第二分类损失函数,根据所述第一分类损失函数和所述第二分类损失函数,更新待训练人脸活体检测网络的参数。
10.根据权利要求9所述的方法,其特征在于,根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure FDA0002924619700000039
其中,
Figure FDA00029246197000000310
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,θ表示更新前的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure FDA00029246197000000311
表示源域的人脸图像,
Figure FDA00029246197000000312
表示所述第一分类损失函数,
Figure FDA00029246197000000313
是表示对θ进行求导。
11.根据权利要求9所述的方法,其特征在于,所述第二分类损失函数的计算公式如下:
Figure FDA00029246197000000314
其中,
Figure FDA00029246197000000315
表示所述第二分类损失函数,y+表示输入至待训练人脸活体检测网络的对抗样本图像的标签,
Figure FDA00029246197000000316
是待训练人脸活体检测网络输出的对抗样本图像的标签,yi +
Figure FDA0002924619700000041
分别表示y+和
Figure FDA0002924619700000042
的第i个维度。
12.根据权利要求9所述的方法,其特征在于,根据所述第一分类损失函数和所述第二分类损失函数,更新的待训练人脸活体检测网络的参数的计算公式如下:
Figure FDA0002924619700000043
其中,
Figure FDA0002924619700000044
表示所述第一分类损失函数,
Figure FDA0002924619700000045
表示所述第二分类损失函数,K表示目标域的个数,
Figure FDA0002924619700000046
表示源域,θ表示更新前的待训练人脸活体检测网络的参数,
Figure FDA0002924619700000047
表示第k个对抗样本图像组成的域,
Figure FDA0002924619700000048
表示根据所述第一分类损失函数更新的待训练人脸活体检测网络的参数,η是超参数,表示学习率,
Figure FDA0002924619700000049
是表示对θ进行求导。
13.一种人脸活体检测网络的训练装置,其特征在于,包括:
获取模块,用于获取多个域的人脸图像,每个域中包括多幅人脸图像,每个域中的多幅人脸图像在同一个环境场景和/或使用同一种数据采集设备采集;
第一选取模块,用于从所述多个域中选取至少一个域作为源域;
生成模块,用于将所述源域中的人脸图像输入至对抗样本生成网络中,生成对抗样本图像;
第一训练模块,用于将所述源域中的人脸图像作为训练数据,将所述对抗样本图像作为测试数据,对待训练人脸活体检测网络进行训练,得到训练后的人脸活体检测网络。
14.一种电子设备,其特征在于,包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序,所述程序被所述处理器执行时实现如权利要求1至12中任一项所述的人脸活体检测网络的训练方法的步骤。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至12中任一项所述的人脸活体检测网络的训练方法的步骤。
CN202110127746.9A 2021-01-29 2021-01-29 人脸活体检测网络的训练方法及装置 Pending CN114821691A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110127746.9A CN114821691A (zh) 2021-01-29 2021-01-29 人脸活体检测网络的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110127746.9A CN114821691A (zh) 2021-01-29 2021-01-29 人脸活体检测网络的训练方法及装置

Publications (1)

Publication Number Publication Date
CN114821691A true CN114821691A (zh) 2022-07-29

Family

ID=82525679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110127746.9A Pending CN114821691A (zh) 2021-01-29 2021-01-29 人脸活体检测网络的训练方法及装置

Country Status (1)

Country Link
CN (1) CN114821691A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116777925A (zh) * 2023-08-17 2023-09-19 中国科学技术大学 一种基于风格迁移的图像分割域泛化方法
CN116777925B (zh) * 2023-08-17 2024-05-14 中国科学技术大学 一种基于风格迁移的图像分割域泛化方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116777925A (zh) * 2023-08-17 2023-09-19 中国科学技术大学 一种基于风格迁移的图像分割域泛化方法
CN116777925B (zh) * 2023-08-17 2024-05-14 中国科学技术大学 一种基于风格迁移的图像分割域泛化方法

Similar Documents

Publication Publication Date Title
CN108710847B (zh) 场景识别方法、装置及电子设备
Zhu et al. A fast single image haze removal algorithm using color attenuation prior
CN109671020B (zh) 图像处理方法、装置、电子设备和计算机存储介质
CN112750140B (zh) 基于信息挖掘的伪装目标图像分割方法
CN109902018B (zh) 一种智能驾驶系统测试案例的获取方法
CN110659573B (zh) 一种人脸识别方法、装置、电子设备及存储介质
CN111488833A (zh) 一种行人重识别方法、装置及电子设备和存储介质
CN112381104A (zh) 一种图像识别方法、装置、计算机设备及存储介质
CN111079816A (zh) 图像的审核方法、装置和服务器
CN112188306B (zh) 一种标签生成方法、装置、设备及存储介质
CN114359526A (zh) 基于语义gan的跨域图像风格迁移方法
CN112257738A (zh) 机器学习模型的训练方法、装置和图像的分类方法、装置
CN111539456B (zh) 一种目标识别方法及设备
CN111639530A (zh) 一种输电线路的输电塔和绝缘子的检测和识别方法及系统
CN113255557A (zh) 一种基于深度学习的视频人群情绪分析方法及系统
CN107633527B (zh) 基于全卷积神经网络的目标追踪方法及装置
Widyantara et al. Gamma correction-based image enhancement and canny edge detection for shoreline extraction from coastal imagery
CN112818774A (zh) 一种活体检测方法及装置
TWI803243B (zh) 圖像擴增方法、電腦設備及儲存介質
CN114821691A (zh) 人脸活体检测网络的训练方法及装置
CN115311680A (zh) 人体图像质量检测方法、装置、电子设备及存储介质
CN114898137A (zh) 面向人脸识别的黑盒对抗样本攻击方法、装置、设备及介质
CN114663965B (zh) 一种基于双阶段交替学习的人证比对方法和装置
CN112381055A (zh) 第一人称视角图像识别方法、装置及计算机可读存储介质
CN110785769A (zh) 人脸性别识别方法、人脸性别分类器的训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination