CN113723215A - 活体检测网络的训练方法、活体检测方法及装置 - Google Patents

活体检测网络的训练方法、活体检测方法及装置 Download PDF

Info

Publication number
CN113723215A
CN113723215A CN202110904298.9A CN202110904298A CN113723215A CN 113723215 A CN113723215 A CN 113723215A CN 202110904298 A CN202110904298 A CN 202110904298A CN 113723215 A CN113723215 A CN 113723215A
Authority
CN
China
Prior art keywords
living body
data
training
domain
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110904298.9A
Other languages
English (en)
Other versions
CN113723215B (zh
Inventor
李永凯
王宁波
朱树磊
郝敬松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202110904298.9A priority Critical patent/CN113723215B/zh
Publication of CN113723215A publication Critical patent/CN113723215A/zh
Priority to PCT/CN2022/110368 priority patent/WO2023011606A1/en
Application granted granted Critical
Publication of CN113723215B publication Critical patent/CN113723215B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种活体检测网络的训练方法、活体检测方法及装置。其中,该活体检测网络的训练方法包括:将非活体数据输入到活体检测网络,得到活体检测网络对每一非活体数据处理而产生的输出分布;计算非活体数据的输出分布和均匀分布的相对差异,得到均匀分布损失;基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练。本申请可以提高活体检测精度。

Description

活体检测网络的训练方法、活体检测方法及装置
技术领域
本申请涉及图像检测技术领域,特别是涉及一种活体检测网络的训练方法、活体检测方法及装置。
背景技术
生物识别技术尤其是人脸识别在近年来获得了巨大的发展与进步,比如手机解锁或刷脸支付等。但是人脸识别系统面对使用伪装用户人脸进行攻击的风险,如果用户人脸图像被窃取,系统非常容易受到照片或者视频攻击。活体检测可以对摄像头获取人脸进行判断,确定该人脸是真实用户的人脸信息,还是伪装出来的用户人脸,例如用手机拍摄的人脸,纸张打印的人脸,或者3D硅胶人脸面具。因此针对活体检测的研究越来越成为人脸识别中重要的研究任务。然而目前的活体检测精度不高。
发明内容
本申请提供一种活体检测网络的训练方法、活体检测方法及装置,可以提高活体检测精度。
为达到上述目的,本申请提供一种活体检测网络的训练方法,该方法包括:
将非活体数据输入到活体检测网络,得到活体检测网络对每一非活体数据处理而产生的输出分布;
计算非活体数据的输出分布和均匀分布的相对差异,得到均匀分布损失;
基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练。
其中,非活体数据包括基于至少部分训练数据扩充得到的扩充非活体数据。
其中,将非活体数据输入到活体检测网络的步骤之前包括:
基于攻击破绽图像对至少部分训练数据进行处理,以得到扩充非活体数据;
其中,攻击破绽图像是采用保留图像中攻击破绽区域且非攻击破绽区域像素置0的方式得到的。
其中,基于攻击破绽图像对至少部分训练数据进行处理的步骤包括:
将攻击破绽图像和训练数据相加,得到叠加图像;
将叠加图像中每一像素的像素值减去攻击破绽图像的像素均值,以得到扩充非活体数据。
其中,将叠加图像中每一像素的像素值减去攻击破绽图像的像素均值,以得到扩充非活体数据的步骤包括:
将叠加图像中每一像素的像素值减去攻击破绽图像的像素均值,得到中间图像;
对中间图像随机增加高斯噪声,得到扩充非活体数据。
其中,对应于每一个域设置有一个子分类器,基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤之前包括:
将所有训练数据划分为多个域的子训练数据集;
将至少两个域的子训练数据集的活体数据输入到活体检测网络,以得到至少两个域的子训练数据集的活体数据的第一特征数据;
将至少两个域的子训练数据集的活体数据输入到其所属域的子分类器,以得到至少两个域的子训练数据集的活体数据的第二特征数据;
对至少两个域的子训练数据集的活体数据的第一特征数据和第二特征数据进行计算,以得到特征差异损失;
基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤包括:
基于均匀分布损失和特征差异损失对活体检测网络和领域判别器进行对抗训练。
其中,对至少两个域的子训练数据集的第一特征数据和第二特征数据进行计算,以得到特征差异损失的步骤包括:
计算至少两个域的子训练数据集的第一特征数据和第二特征数据的最大均值差异,以得到活体检测网络的特征差异损失。
其中,对抗训练网络包括活体检测网络和领域判别器,基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤之前包括:
将至少两个域的子训练数据集中的每一数据的第一特征数据输入到领域判别器,以得到领域判别器预测的每一数据的域判别结果;
基于领域判别器预测的至少两个域的子训练数据集中所有数据的域判别结果计算域判别损失;
基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤包括:
基于均匀分布损失、特征差异损失和域判别损失对活体检测网络和领域判别器进行对抗训练。
其中,基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤之前包括:
得到活体检测网络预测的所有训练数据的分类结果;
基于所有训练数据的分类结果计算出活体检测网络的分类损失;
基于均匀分布损失、特征差异损失和域判别损失对活体检测网络和领域判别器进行对抗训练的步骤包括:
将均匀分布损失、特征差异损失、域差异损失和分类损失进行加权,得到总损失;
利用总损失对活体检测网络和领域判别器进行对抗训练。
其中,对应于每一个域均设置有一个领域判别器,将至少两个域的子训练数据集中的每一数据的第一特征数据输入到领域判别器的步骤包括:
将所有训练数据的第一特征数据输入到每个领域判别器,得到每个领域判别器预测的每一训练数据的域判别结果;
基于领域判别器预测的每一数据的域判别结果计算域判别损失的步骤包括:
基于每个领域判别器预测的所有训练数据的域判别结果计算出每个领域判别器的域判别损失;
将所有领域判别器的域判别损失进行相加,得到领域判别器的总域判别损失。
其中,将所有训练数据的第一特征数据输入到每个领域判别器的步骤之前包括:
利用每个域的子训练数据集的第二特征数据和其余至少一个域的子训练数据集的第二特征数据,对每个域的领域判别器进行训练。
其中,将至少两个域的子训练数据集输入到其所属域的子分类器,以得到至少两个域的子训练数据集的第二特征数据的步骤之前包括:
通过二分类交叉熵损失函数,并利用每个域的子训练数据集对每个域的子分类器进行训练。
为达到上述目的,本申请还提供一种活体检测方法,该方法包括:
利用上述的训练方法训练得到的活体检测网络对待检测对象进行活体检测,以确定待检测对象是活体还是非活体。
为达到上述目的,本申请还提供一种电子设备,该电子设备包括处理器;处理器用于执行指令以实现上述方法。
为达到上述目的,本申请还提供一种计算机可读存储介质,其用于存储指令/程序数据,指令/程序数据能够被执行以实现上述方法。
本申请在对活体检测网络训练时会计算活体检测网络对每一非活体数据处理而产生的输出分布和均匀分布的相对差异,得到活体检测网络的均匀分布损失,并且会利用活体检测网络的均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练,这样针对标注数据分布有限、不同域的非活体数据并不具有共同的领域不变特征、非活体数据是个开集的特点,本申请计算活体检测网络预测的训练数据集中的非活体数据的输出和均匀分布之间的差异,使得活体检测网络不会学习非活体数据的特征,让活体检测网络专注于学习活体数据的特征,从而通过本申请活体检测网络的训练方法训练得到的活体检测网络针对开集分布的非活体数据具有较低的概率输出,对不同领域的活体具有较高的概率输出,从而本申请的活体检测网络对无穷尽的非活体数据有很强的的泛化能力,减少了活体检测网络将非活体数据的类别判定为活体的概率,提高了活体检测的精度。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是本申请活体检测网络的训练方法一实施方式的流程示意图;
图2是本申请活体检测网络的训练方法另一实施方式的流程示意图;
图3是本申请活体检测网络的训练方法另一实施方式的过程示意图;
图4是本申请活体检测网络的训练方法中子分类器的工作示意图;
图5是本申请活体检测网络的训练方法中非活体数据扩充的示意图;
图6是本申请活体检测网络的训练方法中损失计算的示意图;
图7是本申请活体检测网络的训练方法的训练目标示意图;
图8是本申请活体检测方法一实施方式的流程示意图;
图9是本申请电子设备一实施方式的结构示意图;
图10是本申请计算机可读存储介质一实施方式的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。另外,除非另外指明(例如,“或另外”或“或在替代方案中”),否则如本文所使用的术语“或”指代非排他性的“或”(即,“和/或”)。并且,本文所描述的各种实施例不一定相互排斥,因为一些实施例可以与一个或多个其它实施例组合以形成新的实施例。
目前使用领域自适应方法和/或对抗训练方法对活体检测网络进行训练时,一般只计算不同领域的活体数据的分布相似损失,以使活体检测网络学习到不同领域的活体数据的共同特征,但是没有对不同领域的非活体数据信息进行充分的应用,因此现有方法训练出来的活体检测网络对活体的泛化性会增强,但是针对无穷尽的非活体数据难以实现很强的泛化能力。
基于此,本申请提供一种活体检测网络的训练方法,在对活体检测网络训练时会计算活体检测网络对每一非活体数据处理而产生的输出分布和均匀分布的相对差异,得到活体检测网络的均匀分布损失,并且会利用活体检测网络的均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练,这样针对标注数据分布有限、不同域的非活体数据并不具有共同的领域不变特征、非活体数据是个开集的特点,本申请计算活体检测网络预测的训练数据集中的非活体数据的输出和均匀分布之间的差异,使得活体检测网络不会学习非活体数据的特征,让活体检测网络专注于学习活体数据的特征,从而通过本申请活体检测网络的训练方法训练得到的活体检测网络针对开集分布的非活体数据具有很低的概率输出,对不同领域的活体具有较高的概率输出,从而本申请的活体检测网络对无穷尽的非活体数据有很强的的泛化能力,减少了活体检测网络将非活体数据的类别判定为活体的概率,提高了活体检测的精度。
具体如图1所示,本实施方式的活体检测网络的训练方法包括以下步骤。需要注意的是,以下步骤编号仅用于简化说明,并不旨在限制步骤的执行顺序,本实施方式的各步骤可以在不违背本申请技术思想的基础上,任意更换执行顺序。
S101:将非活体数据输入到活体检测网络,得到活体检测网络对每一非活体数据处理而产生的输出分布。
可以将非活体数据输入到活体检测网络,以得到活体检测网络对每一非活体数据处理而产生的输出分布,这样后续就可计算非活体数据的输出分布和均匀分布的相对差异,以得到活体检测网络的均匀分布损失,并且可以利用均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练,这样让活体检测网络不会学习非活体数据的特征,让活体检测网络专注于学习活体数据的特征,从而通过本申请活体检测网络的训练方法训练得到的活体检测网络针对开集分布的非活体数据具有很低的概率输出,对不同领域的活体具有较高的概率输出,从而本申请的活体检测网络对无穷尽的非活体数据有很强的的泛化能力,减少了活体检测网络将非活体数据的类别判定为活体的概率,提高了活体检测的精度。
其中,本申请不对活体检测网络的结构做特别要求,只要其包括特征提取部分和分类部分即可,这样活体检测网络可以通过活体检测网络的特征提取部分对数据进行特征提取,并通过活体检测网络的分类部分对特征提取部分提取出的特征进行处理,以得到数据的分类结果。具体地,活体检测网络可以为常见的VGG网络等。
S102:计算非活体数据的输出分布和均匀分布的相对差异,得到均匀分布损失。
基于步骤S101得到活体检测网络对每一非活体数据处理而产生的输出分布,可以计算非活体数据的输出分布和均匀分布的相对差异,以得到活体检测网络的均匀分布损失。
均匀分布损失Dki(p||q)的计算公式可为:
Figure BDA0003201060170000071
其中,N为非活体数据的数据总数量,p(xi)为非活体数据xi的输出分布,q(xi)为均匀分布。在其他实施例中,也可通过其他公式计算出非活体数据属于所有类别的置信度和均匀分布的相对差异,在此不做限制。
在一实现方式中,活体检测网络对每一非活体数据处理而产生的输出分布可以包括活体检测网络预测的每一非活体数据属于每个类别的置信度。例如,假设活体检测网络是二分类网络,其分类类别可包括活体类别和非活体类别,这样将非活体数据输入到活体检测网络,得到的每一非活体数据的输出分布为活体检测网络预测的每一非活体数据分别属于活体类别和非活体类别的置信度。相应地,均匀分布可以为(0.5,0.5),这样通过非活体数据属于所有类别的置信度和均匀分布的相对差异训练活体检测网络,使得活体检测网络预测的非活体数据属于活体类别和非活体类别的置信度均趋向为0.5,针对网络未曾见过的非活体数据该活体检测网络会有较为均匀的概率输出,从而通过设置活体置信度阈值,在应用中可实现较为鲁棒的活体检测。
在另一实现方式中,活体检测网络对每一非活体数据处理而产生的输出分布可以包括活体检测网络预测的每一非活体数据属于非活体类别的置信度。例如,假设活体检测网络是a分类网络,其分类类别可包括非活体类别,这样将非活体数据输入到活体检测网络,得到的每一非活体数据的输出分布为活体检测网络预测的每一非活体数据属于非活体类别的置信度。相应地,均匀分布为
Figure BDA0003201060170000081
这样通过非活体数据属于非活体类别的置信度和均匀分布的相对差异训练活体检测网络,使得活体检测网络预测的非活体数据属于非活体类别的置信度趋向为
Figure BDA0003201060170000082
针对网络未曾见过的非活体数据该活体检测网络会有较为均匀的概率输出,从而通过设置活体置信度阈值,在应用中可实现较为鲁棒的活体检测。
其中,若活体检测网络分类器中包含softmax,可以将softmax层的输出作为活体检测网络对每一非活体数据处理而产生的输出分布。
S103:基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练。
基于步骤S102获得活体检测网络的均匀分布损失后,可以基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练。
在本实施方式中,在对活体检测网络训练时会计算活体检测网络对每一非活体数据处理而产生的输出分布和均匀分布的相对差异,得到活体检测网络的均匀分布损失,并且会利用活体检测网络的均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练,这样针对标注数据分布有限、不同域的非活体数据并不具有共同的领域不变特征、非活体数据是个开集的特点,本申请计算活体检测网络预测的训练数据集中的非活体数据的输出和均匀分布之间的差异,使得活体检测网络不会学习非活体数据的特征,让活体检测网络专注于学习活体数据的特征,从而通过本申请活体检测网络的训练方法训练得到的活体检测网络针对开集分布的非活体数据具有较低的概率输出,对不同领域的活体具有较高的概率输出,从而本申请的活体检测网络对无穷尽的非活体数据有很强的的泛化能力,减少了活体检测网络将非活体数据的类别判定为活体的概率,提高了活体检测的精度。
进一步地,针对数据分布有限,非活体攻击数据是个开集的问题,本申请提出了非活体数据扩充的方法,制造大量的非活体,使非活体的分布更加多样性从而逼近真实的开集分布。其中,本申请的对抗训练网络包括活体检测网络和领域判别器。具体可如图2和图3所示,图2是本申请活体检测网络的训练方法的方法另一实施方式的流程示意图,图3是本申请活体检测网络的训练方法的过程示意图。本实施方式的活体检测网络的训练方法包括以下步骤。需要注意的是,以下步骤编号仅用于简化说明,并不旨在限制步骤的执行顺序,本实施方式的各步骤可以在不违背本申请技术思想的基础上,任意更换执行顺序。
S201:将所有训练数据划分为多个域的子训练数据集。
可以按照成像因素(例如光照强度或摄像装置类型)、姿态特征或攻击因素等将所有训练数据划分为多个域的子训练数据集。
优选地,可以按照成像因素或姿态特征将所有训练数据划分为多个域的子训练数据集,使得每一个域的子训练数据集可包括有活体数据和非活体数据,且不同域的子训练数据集的活体数据有着较为明显的差别,使得活体检测网络对抗训练过程中可以学习到不同成像因素或姿态特征的活体数据的共同特征,可以提高训练得到的活体检测网络对不同成像因素或姿态特征的数据的检测精确度。
本申请的所有训练数据可以表示为多幅人脸图像,其中多幅人脸图像包括活体人脸图像和非活体人脸图像(例如采集的人脸照片图像、2D或3D面具图像、纸张打印人脸图像等)。在其他实施例中,所有训练数据可以表示为多幅动物图像。以训练数据为人脸图像为例,本申请可以按照光照强度将所有训练数据划分为b个不同域的子训练数据集,其中第i个域的子训练数据集的数据可以表示为
Figure BDA0003201060170000091
b为大于1的整数,且i为大于0且小于或等于b的整数。
S202:将所有训练数据输入活体检测网络,得到所有训练数据的分类结果。
可以将所有训练数据输入到活体检测网络(图3中的G网络),以得到每一训练数据的分类结果,这样可以在步骤S203中基于所有训练数据的分类结果计算出活体检测网络的分类损失,以便后续利用分类损失对活体检测网络进行训练,使得活体检测网络可以较为精确地确认每一数据是否为活体,以提高活体检测网络的检测精确度。
其中,在对非活体数据进行扩充的情况下,在步骤S202中,可以将所有训练数据和扩充的非活体数据输入到活体检测网络,以得到所有训练数据和扩充的非活体数据的分类结果,然后基于所有训练数据和扩充的非活体数据的分类结果计算出活体检测网络的分类损失,通过扩充非活体数据,使非活体数据的分布更加多样性从而逼近真实的开集分布,加强了活体检测网络区分活体和非活体的能力。
其中,步骤S202和步骤S201的执行先后顺序不受限制,例如步骤S202可以在步骤S201之前执行,也可在步骤S201之后执行。
S203:基于所有训练数据的分类结果计算出活体检测网络的分类损失。
可以基于步骤S202得到的每一训练数据的分类结果计算出活体检测网络的分类损失。
其中,可利用二分类交叉熵损失函数等损失函数计算活体检测网络的分类损失。
可选地,二分类交叉熵损失函数具体可表示为:
Figure BDA0003201060170000101
Figure BDA0003201060170000102
其中,Lclassification代表活体检测网络的分类损失,c代表批大小,yj是第j个数据的活体或非活体标签,pj是第j个数据为活体的置信度。
S204:获得活体检测网络对至少两个域的子训练数据集中的活体数据提取得到的第一特征数据。
在基于步骤S201将所有训练数据划分为多个域的子训练数据集后,可以将至少两个域的子训练数据集中的活体数据输入到活体检测网络,以让活体检测网络对至少两个域的子训练数据集中每一活体数据进行特征提取,以得到至少两个域的子训练数据集中每一活体数据的第一特征数据。
其中,在步骤S202已经将所有训练数据输入到活体检测网络的情况下,可以直接获得步骤S202中活体检测网络对至少两个域的子训练数据集中的活体数据提取得到的第一特征数据,可以不需要重复将至少两个域的子训练数据集中的活体数据输入到活体检测网络。在其他实施例中,也可以重复地将至少两个域的子训练数据集中的活体数据输入到活体检测网络,以得到活体检测网络对至少两个域的子训练数据集中的活体数据提取得到的第一特征数据。
S205:将至少两个域的子训练数据集的活体数据输入到其所属域的子分类器,以得到至少两个域的子训练数据集的活体数据的第二特征数据。
还可将至少两个域的子训练数据集的活体数据输入到其所属域的子分类器,以得到至少两个域的子训练数据集的活体数据的第二特征数据,以便后续利用至少两个域的子训练数据集的活体数据的第一特征数据和至少两个域的子训练数据集的活体数据的第二特征数据进行计算,以得到活体检测网络的特征差异损失。
其中,如图4所示,可对应于每一个域设置有一个子分类器(即图3中的Di网络以及图4中的D1网络、D2网络和Di网络),即子分类器和子训练样本集是一一对应地,其中每一个子分类器用于判断其对应域的数据的类别是活体还是非活体。
可以理解的是,本申请是利用训练好的子分类器对其所属域的子训练数据集中每一数据进行特征提取。
即在此步骤之前,可以对子分类器进行训练,以得到训练好的子分类器。
具体地,可以将每个域的子训练数据集中的每一数据输入到其所属域的子分类器,以对其对应的子分类器进行训练。
示例性地,在步骤S201中将所有训练数据划分为3个域的子训练数据集的情况下,可以利用第一个域的子训练数据集对第一个域的子分类器进行训练,利用第二个域的子训练数据集对第二个域的子分类器进行训练,利用第三个域的子训练数据集对第三个域的子分类器进行训练。
具体地,还可以利用二分类交叉熵损失函数等损失函数对每个域的子分类器进行训练。
其中,至少两个域的子训练数据集的活体数据的第一特征数据和至少两个域的子训练数据集的活体数据的第二特征数据的尺寸相同,例如c均为100,h均为64,w均为64,以便对至少两个域的子训练数据集的活体数据的第一特征数据和至少两个域的子训练数据集的活体数据的第二特征数据进行计算。
S206:对至少两个域的子训练数据集的活体数据的第一特征数据和第二特征数据进行计算,以得到特征差异损失。
可以对步骤S204得到的至少两个域的子训练数据集的活体数据的第一特征数据和步骤S205得到的至少两个域的子训练数据集的活体数据的第二特征数据进行计算,以得到活体检测网络的特征差异损失,以便后续利用特征差异损失对活体检测网络进行训练,即通过领域自适应训练方法对活体检测网络进行训练,使得活体检测网络输出的特征趋向于为各个子分类器输出的特征的交集,从而使得活体检测网络输出的数据能够迷惑到具有域判别能力的领域判别器,即让领域判别器可将活体检测网络提取到的其余域的活体数据的特征数据也判别为其对应域的活体数据的特征数据,从而使得活体检测网络能够学习到不同域的活体数据的共同特征,使得利用本申请的训练方法训练得到的活体检测网络进行活体检测时能够不受成像因素、姿态特征或攻击破绽等因素的影响,提高活体检测的鲁棒性。
可选地,可以计算至少两个域的子训练数据集的活体数据的第一特征数据和至少两个域的子训练数据集的活体数据的第二特征数据的差异,以得到活体检测网络的特征差异损失。
较为优选地,可以计算至少两个域的子训练数据集的活体数据的第一特征数据和至少两个域的子训练数据集的活体数据的第二特征数据的最大均值差异,以得到活体检测网络的特征差异损失。
其中,活体检测网络的特征差异损失的计算公式可如下所示:
Figure BDA0003201060170000131
其中,k(x,y)表示核函数,此处为拉普拉斯核,
Figure BDA0003201060170000132
x表示至少两个域的子训练数据集的活体数据的第一特征数据,y表示至少两个域的子训练数据集的活体数据的第二特征数据,m表示第一特征数据对应的活体数据的总数据量,n表示第二特征数据对应的活体数据的总数据量。
进一步地,在步骤S204中,可以获得活体检测网络对所有域的子训练数据集中的活体数据提取得到的第一特征数据;在步骤S205中,可以将每个域的子训练数据集的活体数据输入到其所属域的子分类器,以得到所有域的子训练数据集的活体数据的第二特征数据;然后在步骤S206中计算出所有域的子训练数据集的活体数据的第一特征数据和第二特征数据进行计算,以得到特征差异损失。
S207:将至少两个域的子训练数据集中的每一数据的第一特征数据输入到领域判别器,以得到领域判别器预测的每一数据的域判别结果。
S208:基于领域判别器预测的至少两个域的子训练数据集中所有数据的域判别结果计算域判别损失。
在基于步骤S201将所有训练数据划分为多个域的子训练数据集后,可以将至少两个域的子训练数据集中的每一数据输入到活体检测网络,以让活体检测网络对至少两个域的子训练数据集中每一数据进行特征提取,以得到至少两个域的子训练数据集中每一数据的第一特征数据,然后将至少两个域的子训练数据集中每一数据的第一特征数据输入到领域判别器,以得到领域判别器预测的每一数据的域判别结果,然后基于领域判别器预测的至少两个域的子训练数据集中所有数据的域判别结果计算域判别损失,以领域判别器区分不出每一第一特征数据的真实领域为目的利用域判别损失对活体检测网络进行训练,这样使得活体检测网络输出的特征数据能够迷惑到具有域判别能力的领域判别器,即让领域判别器可将活体检测网络提取到的其余域的活体数据的特征数据也判别为其对应域的活体数据的特征数据,从而使得活体检测网络能够学习到不同域的活体数据的共同特征,使得利用本申请的训练方法训练得到的活体检测网络进行活体检测时能够不受成像因素、姿态特征或攻击破绽等因素的影响,提高活体检测的鲁棒性。
其中,可以利用二分类交叉熵损失函数或均匀分布损失函数等损失函数,对领域判别器预测的至少两个域的子训练数据集中所有数据的域判别结果进行计算,以得到活体检测网络的域判别损失。
其中,在步骤S202已经将所有训练数据输入到活体检测网络的情况下,可以直接获得步骤S202中活体检测网络对至少两个域的子训练数据集提取得到的第一特征数据,可以不需要重复地将至少两个域的子训练数据集输入到活体检测网络。
其中,对应于每一个域均设置有一个领域判别器,这个每一个领域判别器只需要判断输入的特征数据是否属于自己对应的域,且在步骤S207中,可将所有训练数据的第一特征数据输入到每一个领域判别器(即图3中的Mi网络),以得到每一个领域判别器预测的各个域的每一个数据的域判别结果;然后在步骤S208中,基于每一个领域判别器预测的所有训练数据的域判别结果计算出每个领域判别器的域判别损失;继而将所有领域判别器的域判别损失进行相加,得到领域判别器的总域判别损失。
另外,在步骤S207之前,可以已经完成领域判别器的训练,这样在步骤S207中可利用训练后的领域判别器对第一特征数据进行域判别。
其中,可以利用步骤S204中所说的子分类器输出的特征数据对领域判别器进行训练。
具体地,如图4所示,在对应于每一个域均设置有一个领域判别器的情况下,可以对应于每一个域设置有一个子分类器,即子分类器和领域判别器也是一一对应地,其中每一个子分类器用于判断其对应域的数据的类别是活体还是非活体,这样在步骤S205之前,可以将每个域的子训练数据集输入到每个域的子分类器中,以得到每个域的子训练数据集中每一数据的第二特征数据;然后利用每个域的子训练数据集中每一数据的第二特征数据和其余至少一个域的子训练数据集的每一数据的第二特征数据,对每个域的领域判别器进行训练。其中,在对每个域的领域判别器进行训练的过程中,可以将其所属域的子分类器提取的第二特征数据作为正样本,将非其所属域的子分类器提取的第二特征数据作为负样本。
在其他实施例中,可以将所属域的子训练数据集的第一特征数据和第二特征数据作为正样本,并将其余至少一个域的子训练数据集的第一特征数据和第二特征数据作为负样本,对每个域的领域判别器进行训练,这样利用到活体检测网络提取的第二特征数据对领域判别器进行训练,以增加领域判别器的训练样本数量。并且在对领域判别器训练的过程中,活体检测网络的模型参数可以改变,以使得活体检测网络输出的第二特征数据更加丰富。
S209:得到活体检测网络对每一非活体数据处理而产生的输出分布。
可选地,非活体数据可以为基于至少部分训练数据(可以包括原始活体数据和原始非活体数据)扩充得到的扩充非活体数据,即可以由所有训练数据中的至少部分原始活体数据和/或至少部分原始非活体数据进行扩充而得到扩充非活体数据,这样大量扩充了非活体数据,使非活体的分布更加多样性从而逼近真实的开集分布。
本申请可通过攻击破绽图像对如图5(a)所示的至少部分训练数据进行处理,以得到如图5(b)所示的扩充非活体数据。其中,攻击破绽图像是采用保留图像中攻击破绽区域且非攻击破绽区域像素置0的方式得到的。其中攻击破绽可以包括异常光斑、纸张边缘、空洞、纸张折痕、面具反光等等。先将异常光斑、纸张边缘、空洞、纸张折痕、面具反光等。
进一步地,可通过将攻击破绽图像和至少部分训练数据中每一训练数据相加,得到叠加图像;将所得的叠加图像中每一像素的像素值减去攻击破绽图像的像素均值,以得到扩充非活体数据,这样可以解决原始图像和攻击破绽图像直接相加得到的扩充图像中攻击破绽区域对应的多个像素点的像素值大于255的问题,使得扩充的非活体数据可以明显体现出攻击破绽,使得扩充的非活体数据具有较强的代表性。
另外,在将叠加图像中每一像素的像素值减去攻击破绽图像的像素均值而得到中间图像后,可以对中间图像随机增加高斯噪声,得到扩充非活体数据。
其中,在步骤S202已经将所有训练数据和扩充的非活体数据输入到活体检测网络的情况下,可以直接获得步骤S202中活体检测网络对每一扩充的非活体数据进行处理而产生的输出分布,可以不需要重复将非活体数据输入到活体检测网络。当然,在其他实施例中,也可以重复将非活体数据输入到活体检测网络中,以得到活体检测网络对每一扩充的非活体数据进行处理而产生的输出分布。
S210:计算非活体数据的输出分布和均匀分布的相对差异,得到均匀分布损失。
S211:将均匀分布损失、特征差异损失、域差异损失和分类损失进行加权,得到总损失。
可选地,如图6所示,基于上述步骤得到均匀分布损失、特征差异损失、域差异损失和分类损失后,可以将均匀分布损失、特征差异损失、域差异损失和分类损失进行加权,得到总损失,以便利用总损失对活体检测网络和领域判别器进行对抗训练;以便以总损失最小,域判别损失的绝对值最大,且均匀分布损失、特征差异损失和分类损失最小为目的对活体检测网络进行训练;以实现图7所示的最小化活体检测网络的分类损失和最大化域重合度的目的。
其中,均匀分布损失、域差异损失、特征差异损失和分类损失的加权系数不受限定,具体根据实际情况而定。例如在域判别损失为负值的情况下,这四类损失的加权系数可均为1,即可将均匀分布损失、域差异损失、特征差异损失和分类损失直接相加而得到总损失。
可以理解的是,均匀分布损失、域差异损失、特征差异损失和分类损失的计算先后顺序不受限制,可以如本实施方式所示,也可按照域差异损失——均匀分布损失——特征差异损失——分类损失这样的顺序一一计算……
S212:利用总损失对活体检测网络和领域判别器进行对抗训练。
在本实施方式中,使用异常检测的思想用于优化领域自适应算法。针对数据分布有限,非活体攻击数据是个开集的问题,提出使用所提出的非活体数据扩充方法,制造大量的非活体,使非活体的分布更加多样性从而逼近真实的开集分布。针对非活体数据并不具有领域不变特征的问题,提出使用异常检测的思想,通过对训练过程中不同领域活体计算领域不变特征,针对扩充非活体特征计算活体检测网络的预测分布和均匀分布的差异,从而实现了所训练模型针对不同领域的活体具有较高的概率输出,针对开集分布的非活体数据具有很低的概率输出,从而实现对活体检测的优化。
此外,可以重复步骤S202-S212的过程,直至重复次数达到预设次数或者总损失小于阈值;重复次数达到预设次数或者总损失小于阈值的情况下,训练结束。
在步骤S202之前,可以预先设置预设次数并将重复次数设置为0,然后在S202-S212的过程执行完毕的情况下,重复次数加一;在重复次数小于预设次数的情况下,返回到步骤S202,以再次对活体检测网络进行训练,直至重复次数大于或等于预设次数。
基于上述实施方式中的活体检测网络的训练方法对活体检测网络进行训练后,可以利用训练后的活体检测网络进行活体检测。本实施方式的活体检测方法可以包括:利用上述的训练方法训练得到的活体检测网络对待检测对象进行活体检测,以确定待检测对象是活体还是非活体。
具体地,如图8所示,本申请实施例中活体检测方法具体可包括:
步骤301:输入待检测对象。
步骤302:送入至训练后的活体检测网络中,得到活体置信度。
步骤303:判断待检测对象的活体置信度是否大于置信度阈值。
其中,置信度阈值可以根据实际情况进行设定,例如可为0.7、0.8或0.9等。
步骤304:待检测对象为活体。
若待检测对象的活体置信度大于置信度阈值,则步骤304输出结果为活体。
步骤305:待检测对象为非活体。
若待检测对象的活体置信度不大于置信度阈值,则步骤305输出结果为非活体。
本申请实施例的活体检测方法不受场景特征如光线、姿态等特征的影响,能够根据活体与非活体的区分性特征分辨出活体,可以用于人脸检测,能够分别出是真正的人脸还是伪造的人脸,且人脸活体检测的鲁棒性较高。
请参阅图9,图9是本申请电子设备20一实施方式的结构示意图。本申请电子设备20包括处理器22,处理器22用于执行指令以实现上述本申请上述任一实施方式的方法及任意不冲突的组合所提供的方法。
电子设备20可为手机、笔记本电脑等终端,或者还可以为服务器。
处理器22还可以称为CPU(Central Processing Unit,中央处理单元)。处理器22可能是一种集成电路芯片,具有信号的处理能力。处理器22还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器,或者该处理器22也可以是任何常规的处理器等。
电子设备20还可进一步包括存储器21,用于存储处理器22运行所需的指令和数据。
请参阅图10,图10为本申请实施方式中计算机可读存储介质的结构示意图。本申请实施例的计算机可读存储介质30存储有指令/程序数据31,该指令/程序数据31被执行时实现本申请上述方法任一实施例以及任意不冲突的组合所提供的方法。其中,该指令/程序数据31可以形成程序文件以软件产品的形式存储在上述存储介质30中,以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质30包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等设备。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (15)

1.一种活体检测网络的训练方法,其特征在于,方法包括:
将非活体数据输入到活体检测网络,得到活体检测网络对每一非活体数据处理而产生的输出分布;
计算非活体数据的输出分布和均匀分布的相对差异,得到均匀分布损失;
基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练。
2.根据权利要求1的训练方法,其特征在于,非活体数据包括基于至少部分训练数据扩充得到的扩充非活体数据。
3.根据权利要求2的训练方法,其特征在于,将非活体数据输入到活体检测网络的步骤之前包括:
基于攻击破绽图像对所述至少部分训练数据进行处理,以得到扩充非活体数据;
其中,攻击破绽图像是采用保留图像中攻击破绽区域且非攻击破绽区域像素置0的方式得到的。
4.根据权利要求3的训练方法,其特征在于,基于攻击破绽图像对所述至少部分训练数据进行处理的步骤包括:
将攻击破绽图像和所述训练数据相加,得到叠加图像;
将叠加图像中每一像素的像素值减去攻击破绽图像的像素均值,以得到扩充非活体数据。
5.根据权利要求4的训练方法,其特征在于,将叠加图像中每一像素的像素值减去攻击破绽图像的像素均值,以得到扩充非活体数据的步骤包括:
将叠加图像中每一像素的像素值减去攻击破绽图像的像素均值,得到中间图像;
对中间图像随机增加高斯噪声,得到扩充非活体数据。
6.根据权利要求1的训练方法,其特征在于,对应于每一个域设置有一个子分类器,基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤之前包括:
将所有训练数据划分为多个域的子训练数据集;
将至少两个域的子训练数据集的活体数据输入到活体检测网络,以得到至少两个域的子训练数据集的活体数据的第一特征数据;
将至少两个域的子训练数据集的活体数据输入到其所属域的子分类器,以得到至少两个域的子训练数据集的活体数据的第二特征数据;
对至少两个域的子训练数据集的活体数据的第一特征数据和第二特征数据进行计算,以得到特征差异损失;
基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤包括:
基于均匀分布损失和特征差异损失对活体检测网络和领域判别器进行对抗训练。
7.根据权利要求6的训练方法,其特征在于,对至少两个域的子训练数据集的第一特征数据和第二特征数据进行计算,以得到特征差异损失的步骤包括:
计算至少两个域的子训练数据集的第一特征数据和第二特征数据的最大均值差异,以得到活体检测网络的特征差异损失。
8.根据权利要求6的训练方法,其特征在于,对抗训练网络包括活体检测网络和领域判别器,基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤之前包括:
将至少两个域的子训练数据集中的每一数据的第一特征数据输入到领域判别器,以得到领域判别器预测的每一数据的域判别结果;
基于领域判别器预测的至少两个域的子训练数据集中所有数据的域判别结果计算域判别损失;
基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤包括:
基于均匀分布损失、特征差异损失和域判别损失对活体检测网络和领域判别器进行对抗训练。
9.根据权利要求8的训练方法,其特征在于,基于均匀分布损失对包含活体检测网络的对抗训练网络进行对抗训练的步骤之前包括:
得到活体检测网络预测的所有训练数据的分类结果;
基于所有训练数据的分类结果计算出活体检测网络的分类损失;
基于均匀分布损失、特征差异损失和域判别损失对活体检测网络和领域判别器进行对抗训练的步骤包括:
将均匀分布损失、特征差异损失、域差异损失和分类损失进行加权,得到总损失;
利用总损失对活体检测网络和领域判别器进行对抗训练。
10.根据权利要求8的训练方法,其特征在于,对应于每一个域均设置有一个领域判别器,将至少两个域的子训练数据集中的每一数据的第一特征数据输入到领域判别器的步骤包括:
将所有训练数据的第一特征数据输入到每个领域判别器,得到每个领域判别器预测的每一训练数据的域判别结果;
基于领域判别器预测的每一数据的域判别结果计算域判别损失的步骤包括:
基于每个领域判别器预测的所有训练数据的域判别结果计算出每个领域判别器的域判别损失;
将所有领域判别器的域判别损失进行相加,得到领域判别器的总域判别损失。
11.根据权利要求10的训练方法,其特征在于,将所有训练数据的第一特征数据输入到每个领域判别器的步骤之前包括:
利用每个域的子训练数据集的第二特征数据和其余至少一个域的子训练数据集的第二特征数据,对每个域的领域判别器进行训练。
12.根据权利要求11的训练方法,其特征在于,将至少两个域的子训练数据集输入到其所属域的子分类器,以得到至少两个域的子训练数据集的第二特征数据的步骤之前包括:
通过二分类交叉熵损失函数,并利用每个域的子训练数据集对每个域的子分类器进行训练。
13.一种活体检测方法,其特征在于,方法包括:
利用权利要求1-12中任一项的训练方法训练得到的活体检测网络对待检测对象进行活体检测,以确定待检测对象是活体还是非活体。
14.一种电子设备,其特征在于,电子设备包括处理器;处理器用于执行指令以实现如权利要求1-13中任一项方法的步骤。
15.一种计算机可读存储介质,其上存储有程序和/或指令,其特征在于,程序和/或指令被执行时实现权利要求1-13中任一项方法的步骤。
CN202110904298.9A 2021-08-06 2021-08-06 活体检测网络的训练方法、活体检测方法及装置 Active CN113723215B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110904298.9A CN113723215B (zh) 2021-08-06 2021-08-06 活体检测网络的训练方法、活体检测方法及装置
PCT/CN2022/110368 WO2023011606A1 (en) 2021-08-06 2022-08-04 Training method of live body detection network, method and apparatus of live body detectoin

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110904298.9A CN113723215B (zh) 2021-08-06 2021-08-06 活体检测网络的训练方法、活体检测方法及装置

Publications (2)

Publication Number Publication Date
CN113723215A true CN113723215A (zh) 2021-11-30
CN113723215B CN113723215B (zh) 2023-01-17

Family

ID=78675073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110904298.9A Active CN113723215B (zh) 2021-08-06 2021-08-06 活体检测网络的训练方法、活体检测方法及装置

Country Status (2)

Country Link
CN (1) CN113723215B (zh)
WO (1) WO2023011606A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023011606A1 (en) * 2021-08-06 2023-02-09 Zhejiang Dahua Technology Co., Ltd. Training method of live body detection network, method and apparatus of live body detectoin

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147218A1 (en) * 2016-05-03 2019-05-16 Precise Biometrics Ab User specific classifiers for biometric liveness detection
CN111553202A (zh) * 2020-04-08 2020-08-18 浙江大华技术股份有限公司 进行活体检测的神经网络的训练方法、检测方法及装置
CN112001292A (zh) * 2020-08-18 2020-11-27 大连海事大学 一种基于多尺度注意力机制深度哈希的指静脉索引方法
CN112084915A (zh) * 2020-08-31 2020-12-15 支付宝(杭州)信息技术有限公司 模型训练方法、活体检测方法、装置和电子设备
CN113033519A (zh) * 2021-05-25 2021-06-25 腾讯科技(深圳)有限公司 活体检测方法、估算网络处理方法、装置和计算机设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210019655A1 (en) * 2019-07-19 2021-01-21 Nanoscope Technologies, LLC Equation Learning Neural Networks in Degrading Channels for Neural Machine Maintenance and Applications Thereof
US11481636B2 (en) * 2019-11-18 2022-10-25 Salesforce.Com, Inc. Systems and methods for out-of-distribution classification
CN113723215B (zh) * 2021-08-06 2023-01-17 浙江大华技术股份有限公司 活体检测网络的训练方法、活体检测方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147218A1 (en) * 2016-05-03 2019-05-16 Precise Biometrics Ab User specific classifiers for biometric liveness detection
CN111553202A (zh) * 2020-04-08 2020-08-18 浙江大华技术股份有限公司 进行活体检测的神经网络的训练方法、检测方法及装置
CN112001292A (zh) * 2020-08-18 2020-11-27 大连海事大学 一种基于多尺度注意力机制深度哈希的指静脉索引方法
CN112084915A (zh) * 2020-08-31 2020-12-15 支付宝(杭州)信息技术有限公司 模型训练方法、活体检测方法、装置和电子设备
CN113033519A (zh) * 2021-05-25 2021-06-25 腾讯科技(深圳)有限公司 活体检测方法、估算网络处理方法、装置和计算机设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023011606A1 (en) * 2021-08-06 2023-02-09 Zhejiang Dahua Technology Co., Ltd. Training method of live body detection network, method and apparatus of live body detectoin

Also Published As

Publication number Publication date
CN113723215B (zh) 2023-01-17
WO2023011606A1 (en) 2023-02-09

Similar Documents

Publication Publication Date Title
CN109948408B (zh) 活性测试方法和设备
CN107577945B (zh) Url攻击检测方法、装置以及电子设备
Chugh et al. Fingerprint spoof detection using minutiae-based local patches
Rao et al. Multi-semantic CRF-based attention model for image forgery detection and localization
Zhuang et al. Real‐time vehicle detection with foreground‐based cascade classifier
Soni et al. Hybrid meta-heuristic algorithm based deep neural network for face recognition
CN111932544A (zh) 篡改图像检测方法、装置及计算机可读存储介质
CN113128481A (zh) 一种人脸活体检测方法、装置、设备及存储介质
CN112364873A (zh) 弯曲文本图像的文字识别方法、装置及计算机设备
CN115240280A (zh) 人脸活体检测分类模型的构建方法、检测分类方法及装置
Nguyen et al. Face presentation attack detection based on a statistical model of image noise
CN113343247A (zh) 生物特征识别对抗样本攻击安全测评方法、系统、装置、处理器及其计算机可读存储介质
Lin et al. Low‐complexity face recognition using contour‐based binary descriptor
Ahmed et al. Forgery detection algorithm based on texture features
CN113723215B (zh) 活体检测网络的训练方法、活体检测方法及装置
Bera et al. Two-stage human verification using HandCAPTCHA and anti-spoofed finger biometrics with feature selection
CN113033305B (zh) 活体检测方法、装置、终端设备和存储介质
ELSayed et al. Masked SIFT with align‐based refinement for contactless palmprint recognition
CN113887357B (zh) 一种人脸表示攻击检测方法、系统、装置及介质
CN116188439A (zh) 一种基于身份识别概率分布的伪造换脸图像检测方法和装置
Li et al. Detection of partially occluded pedestrians by an enhanced cascade detector
CN116258906A (zh) 一种对象识别方法、特征提取模型的训练方法及装置
CN112183357B (zh) 一种基于深度学习的多尺度活体检测方法及系统
CN114913607A (zh) 一种基于多特征融合的指静脉仿冒检测方法
CN114445916A (zh) 一种活体检测方法、终端设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant