CN117079336A - 样本分类模型的训练方法、装置、设备及存储介质 - Google Patents
样本分类模型的训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117079336A CN117079336A CN202311333924.9A CN202311333924A CN117079336A CN 117079336 A CN117079336 A CN 117079336A CN 202311333924 A CN202311333924 A CN 202311333924A CN 117079336 A CN117079336 A CN 117079336A
- Authority
- CN
- China
- Prior art keywords
- face image
- sample
- feature extraction
- classification
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013145 classification model Methods 0.000 title claims abstract description 228
- 238000000034 method Methods 0.000 title claims abstract description 133
- 238000012549 training Methods 0.000 title claims abstract description 93
- 238000003860 storage Methods 0.000 title claims abstract description 38
- 230000003042 antagnostic effect Effects 0.000 claims abstract description 39
- 238000000605 extraction Methods 0.000 claims description 268
- 230000001815 facial effect Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 31
- 238000013473 artificial intelligence Methods 0.000 abstract description 13
- 238000012795 verification Methods 0.000 description 82
- 230000000875 corresponding effect Effects 0.000 description 74
- 230000008569 process Effects 0.000 description 37
- 238000013461 design Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 21
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 10
- 230000009286 beneficial effect Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 230000003321 amplification Effects 0.000 description 6
- 238000003199 nucleic acid amplification method Methods 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 210000000056 organ Anatomy 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000008186 active pharmaceutical agent Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001727 in vivo Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000036548 skin texture Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种样本分类模型的训练方法、装置、设备及存储介质,属于人脸识别技术领域,本申请可应用于云技术、人工智能、智慧交通、辅助驾驶等各种场景。所述方法包括:获取样本数据集,样本数据集包括至少一张真实人脸图像和至少一张对抗人脸图像;通过样本分类模型分别对真实人脸图像和对抗人脸图像进行特征提取,得到真实人脸图像的第一预测分类和对抗人脸图像的第二预测分类;根据真实人脸图像的第一预测分类与第一真实分类的第一误差,以及对抗人脸图像的第二预测分类与第二真实分类的第二误差,确定分类损失;通过分类损失以及相似度约束训练样本分类模型。本申请能够提升样本分类模型对输入的人脸图像进行分类的准确度。
Description
技术领域
本申请涉及人脸识别技术领域,特别涉及一种样本分类模型的训练方法、装置、设备及存储介质。
背景技术
在诸如刷脸支付业务等涉及人脸识别的场景中,相关的安全保障非常重要。目前存在使用基于真实人脸图像生成的对抗人脸图像,对人脸识别过程进行的对抗攻击。
相关技术中,通过分类模型可对人脸识别过程中提供的人脸图像是否为真实的人脸图像进行识别,在识别为真实的人脸图像后,才会进行后续的人脸识别验证。通过将样本人脸图像输入分类模型,可得到分类模型预测的样本人脸图像的预测来源,之后根据样本人脸图像的真实来源与预测来源的误差构造分类损失,即可训练上述分类模型。
在使用上述分类模型对输入的人脸图像进行分类时,由于分类模型的特征提取层较多,人脸图像的一些特征随着不同特征提取层进行非线性变化的特征提取过程可能被消除,导致分类的准确度较低。
发明内容
本申请提供了一种样本分类模型的训练方法、装置、设备及存储介质,可以提升样本分类模型根据特征提取结果对输入的人脸图像进行分类的准确度。所述技术方案如下。
根据本申请的一方面,提供了一种样本分类模型的训练方法,所述方法包括以下步骤。
获取样本数据集,所述样本数据集包括至少一张真实人脸图像和至少一张对抗人脸图像,所述对抗人脸图像是基于所述真实人脸图像生成的。
通过所述样本分类模型分别对所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述真实人脸图像的第一预测分类和所述对抗人脸图像的第二预测分类,所述样本分类模型用于预测输入的人脸图像的来源。
根据所述真实人脸图像的第一预测分类与第一真实分类的第一误差,以及所述对抗人脸图像的第二预测分类与第二真实分类的第二误差,确定分类损失。
通过所述分类损失以及相似度约束训练所述样本分类模型,所述相似度约束用于约束第一特征提取结果与第二特征提取结果的相似度,所述第一特征提取结果是所述样本分类模型对所述真实人脸图像进行特征提取得到的,所述第二特征提取结果是所述样本分类模型对所述对抗人脸图像进行特征提取得到的。
根据本申请的另一方面,提供了一种样本分类模型的训练装置,所述装置包括以下模块。
获取模块,用于获取样本数据集,所述样本数据集包括至少一张真实人脸图像和至少一张对抗人脸图像,所述对抗人脸图像是基于所述真实人脸图像生成的。
预测模块,用于通过所述样本分类模型分别对所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述真实人脸图像的第一预测分类和所述对抗人脸图像的第二预测分类,所述样本分类模型用于预测输入的人脸图像的来源。
确定模块,用于根据所述真实人脸图像的第一预测分类与第一真实分类的第一误差,以及所述对抗人脸图像的第二预测分类与第二真实分类的第二误差,确定分类损失。
训练模块,用于通过所述分类损失以及相似度约束训练所述样本分类模型,所述相似度约束用于约束第一特征提取结果与第二特征提取结果的相似度,所述第一特征提取结果是所述样本分类模型对所述真实人脸图像进行特征提取得到的,所述第二特征提取结果是所述样本分类模型对所述对抗人脸图像进行特征提取得到的。
在一个可选的设计中,所述样本分类模型包括级联的多个特征提取层。所述确定模块,用于根据全部或部分特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,确定第一相似度损失。
所述训练模块,用于通过所述分类损失以及所述第一相似度损失训练所述样本分类模型。
在一个可选的设计中,所述确定模块,用于根据全部特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,确定所述全部特征提取层中每个特征提取层的第二相似度损失。确定所述全部特征提取层中每个特征提取层的第二相似度损失的平均值,得到所述第一相似度损失。
在一个可选的设计中,所述获取模块,用于获取所述全部特征提取层中每个特征提取层对应的权重,所述权重与所述特征提取层在所述全部特征提取层中的层级位置相关。
所述确定模块,用于根据所述全部特征提取层中每个特征提取层对应的权重以及所述第二相似度损失,确定所述全部特征提取层中每个特征提取层的第二相似度损失的加权平均值,得到所述第一相似度损失。
在一个可选的设计中,所述确定模块,用于根据所述全部特征提取层中每个特征提取层在所述全部特征提取层中的层级深度,确定所述全部特征提取层中每个特征提取层对应的权重;其中,所述特征提取层对应的权重与所述特征提取层的层级深度负相关。
在一个可选的设计中,所述获取模块,用于获取所述至少一张真实人脸图像。
所述装置还包括生成模块,所述生成模块,用于通过多种对抗样本生成方式生成每张真实人脸图像对应的多张对抗人脸图像,所述多种对抗样本生成方式用于在所述真实人脸图像中添加不同的对抗噪声。
所述获取模块,用于将所述至少一张真实人脸图像和所述每张真实人脸图像对应的多张对抗人脸图像作为所述样本数据集。
在一个可选的设计中,所述生成模块,用于通过至少一种第一对抗样本生成方式生成所述每张真实人脸图像对应的至少一张第一对抗人脸图像;以及通过至少一种第二对抗样本生成方式生成所述每张真实人脸图像对应的至少一张第二对抗人脸图像;其中,所述第一对抗样本生成方式用于在所述真实人脸图像中添加面部噪声,所述第二对抗样本生成方式用于在所述真实人脸图像中添加元素噪声。
在一个可选的设计中,所述预测模块,用于通过所述样本分类模型分别对所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述第一预测分类和所述第二预测分类;其中,所述第一预测分类和所述第二预测分类用于预测所述输入的人脸图像的来源为真实样本,或用于预测所述输入的人脸图像对应的对抗样本生成方式。
在一个可选的设计中,所述确定模块,用于根据所述真实人脸图像的第一预测分类与第一真实分类的第一误差,以及所述对抗人脸图像的第二预测分类与所述对抗人脸图像对应的真实对抗样本生成方式的第二误差,确定所述分类损失。
在一个可选的设计中,所述预测模块,用于通过所述样本分类模型分别对同一人脸对应的所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述同一人脸对应的所述真实人脸图像的第一预测分类和所述对抗人脸图像的第二预测分类。
在一个可选的设计中,所述装置还包括识别模块,所述识别模块用于识别所述真实人脸图像的五官坐标点。
所述装置还包括处理模块,所述处理模块用于根据所述五官坐标点对所述真实人脸图像进行方向配准和人脸抠图。
在一个可选的设计中,所述获取模块,用于获取待预测人脸图像。
所述预测模块,用于通过所述样本分类模型对所述待预测人脸图像进行特征提取,得到所述待预测人脸图像的预测分类。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一段程序,所述至少一段程序由所述处理器加载并执行以实现如上方面所述的样本分类模型的训练方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一段程序,所述至少一段程序由处理器加载并执行以实现如上方面所述的样本分类模型的训练方法。
根据本申请的另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述方面的各种可选实现方式中提供的样本分类模型的训练方法。
本申请提供的技术方案带来的有益效果至少包括以下内容。
通过在训练样本分类模型的过程中,约束对真实人脸图像和对抗人脸图像进行特征提取的结果的相似度,使其不断降低。有助于样本分类模型在特征提取过程中保留用于区分真实人脸图像和对抗人脸图像的特征(噪声),并随着特征提取过程不断放大此类特征,从而能够提升样本分类模型根据特征提取结果对输入的人脸图像进行分类的准确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的计算机系统的结构框图。
图2是本申请一个示例性实施例提供的训练样本分类模型的过程的示意图。
图3是本申请一个示例性实施例提供的一种样本分类模型的训练方法的流程示意图。
图4是本申请一个示例性实施例提供的另一种样本分类模型的训练方法的流程示意图。
图5是本申请一个示例性实施例提供的生成对抗人脸图像的过程的示意图。
图6是本申请一个示例性实施例提供的计算第一相似度损失的过程的示意图。
图7是本申请一个示例性实施例提供的分类方法的流程示意图。
图8是本申请一个示例性实施例提供的样本分类模型的结构示意图。
图9是本申请一个示例性实施例提供的一种样本分类模型的训练装置的结构示意图。
图10是本申请一个示例性实施例提供的另一种样本分类模型的训练装置的结构示意图。
图11是本申请一个示例性实施例提供的又一种样本分类模型的训练装置的结构示意图。
图12是本申请一个示例性实施例提供的计算机设备的结构示意图。
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请涉及的相关名词进行介绍。
人工智能(Artificial Intelligence,AI):是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、预训练模型技术、操作/交互系统、机电一体化等。其中,预训练模型又称大模型、基础模型,经过微调后可以广泛应用于人工智能各大方向下游任务。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML):是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。预训练模型是深度学习的最新发展成果,融合了以上技术。
计算机视觉(Computer Vision,CV)技术:计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。大模型技术为计算机视觉技术发展带来重要变革,视觉领域的预训练模型经过微调(fine tune)可以快速、广泛适用于下游具体任务。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、光学字符识别(Optical CharacterRecognition,OCR)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别等生物特征识别技术。本申请中的样本分类模型涉及计算机视觉技术中的人脸识别,可预测输入的人脸图像的来源分类。
图1是本申请一个示例性实施例提供的计算机系统的结构框图。该计算机系统包括终端110和服务器120,终端110和服务器120之间通过通信网络130连接。一些实施例中,终端110中部署有支持人脸识别的客户端,例如支持人脸识别验证的客户端,人脸识别验证用于验证用户上传的待预测人脸图像与已存储的该用户的真实人脸图像是否为同一人,进一步还能够进行活体验证,以验证用户上传的待预测人脸图像是否是对活体采集得到的。终端110中的上述客户端为独立的客户端,或者为依赖宿主程序运行的小程序,或者为网页端,本申请实施例对此不作限制。一些实施例中,上述客户端包括即时通信客户端、视频客户端、社交客户端、金融客户端、网购客户端、音乐客户端、外卖客户端、办公客户端、游戏客户端、地图客户端、交通客户端、导航客户端等,终端110通过该客户端实现与服务器120通信。
需要说明的是,图1中终端110和服务器120的数量仅用作示例,不作为对本申请实施例提供的计算机系统的结构的限制。可以理解的是,服务器120可以与多个终端110连接。
在一些实施例中,终端110用于向服务器120发送用户的待预测人脸图像。一些实施例中,终端110也能够向服务器120发送人脸视频,该情况下后续使用的待预测人脸图像可以是在人脸视频中获取的。一些实施例中,在触发人脸识别验证的情况下,终端110向服务器120发送待预测人脸图像。
对于针对待预测人脸图像的来源进行预测,以及针对待预测人脸图像进行人脸识别验证的过程,可以由终端110单独执行实现,也可以由服务器120执行实现,或者由终端110和服务器120通过数据交互实现,本申请实施例对此不加以限定。示意性的,以服务器120通过样本分类模型121对待预测人脸图像的来源进行预测,并通过人脸识别模型122对待预测人脸图像进行人脸识别验证为例进行说明。一些实施例中,样本分类模型121和人脸识别模型122部署在服务器120中。一些实施例中,样本分类模型121和人脸识别模型122未部署在服务器120中,服务器120通过样本分类模型121和人脸识别模型122对应的应用程序编程接口(Application Programming Interface,API)向样本分类模型121和人脸识别模型122输入信息,以及获取样本分类模型121和人脸识别模型122输出的信息。一些实施例中,样本分类模型121和人脸识别模型122部署在不同位置。一些实施例中,该样本分类模型121和人脸识别模型122是自行构建并训练的模型。一些实施例中,该样本分类模型121和人脸识别模型122是公开的预训练的模型。服务器120通过将待预测人脸图像输入样本分类模型121,能够得到待预测人脸图像的预测分类,该预测分类用于预测输入的人脸图像的来源,例如为真实样本或者为生成的对抗样本(虚假样本),对于预测为生成的对抗样本的情况,还能够进一步预测对抗样本的生成方式。
在预测输入的人脸图像为生成的对抗样本的情况下,服务器120将相应的验证结果发送至终端110,由终端110对该验证结果进行显示,该验证结果用于反映待预测人脸图像未通过真实性验证。在预测输入的人脸图像为真实样本的情况下,服务器120将该用户的待预测人脸图像和存储的该用户的真实人脸图像输入人脸识别模型122,由人脸识别模型122预测是否为同一人脸,之后服务器120将相应的验证结果发送至终端110,由终端110对该验证结果进行显示,该验证结果用于反映待预测人脸图像验证通过或未通过。
针对样本分类模型121的训练过程,服务器120会获取包括至少一张真实人脸图像和至少一张对抗人脸图像的样本数据集,并通过样本分类模型121分别对真实人脸图像和对抗人脸图像进行特征提取,从而得到真实人脸图像的第一预测分类和对抗人脸图像的第二预测分类。根据真实人脸图像的第一预测分类与真实人脸图像的第一真实分类的第一误差,以及对抗人脸图像的第二预测分类与对抗人脸图像的第二真实分类的第二误差,服务器120能够确定分类损失。在通过分类损失训练样本分类模型121的过程中,服务器120还会对第一特征提取结果和第二特征提取结果的相似度进行约束,第一特征提取结果是样本分类模型121对真实人脸图像进行特征提取得到的,第二特征提取结果是样本分类模型121对对抗人脸图像进行特征提取得到的。通过上述过程即可实现训练样本分类模型121。
值得注意的是,上述终端包括但不限于手机、平板电脑、便携式膝上笔记本电脑、智能语音交互设备、智能家电、车载终端、飞行器等移动终端,也可以实现为台式电脑等;上述服务器、第二服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。本申请可应用于各种场景,包括但不限于云技术、人工智能、智慧交通、辅助驾驶等。
其中,云技术(Cloud technology)是指在广域网或局域网内将硬件、应用程序、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。
在一些实施例中,上述服务器、第二服务器还可以实现为区块链系统中的节点。
图2是本申请一个示例性实施例提供的训练样本分类模型的过程的示意图。如图2所示,计算机设备获取至少一张真实人脸图像201,并通过多种对抗样本生成方式生成每张真实人脸图像201对应的多张对抗人脸图像202,从而根据至少一张真实人脸图像201和每张真实人脸图像201对应的多张对抗人脸图像202获取到样本数据集。其中,对抗人脸图像202是生成的虚假人脸图像,多种对抗样本生成方式用于在真实人脸图像201中添加不同的对抗噪声。
在训练样本分类模型的过程中,计算机设备在样本数据集中获取真实人脸图像201和对抗人脸图像202,并将真实人脸图像201和对抗人脸图像202输入样本分类模型203,通过样本分类模型203的多个特征提取层对两者分别进行特征提取,从而得到预测分类204。其中,样本分类模型203用于预测输入的人脸图像的来源。预测分类204包括真实人脸图像201的第一预测分类和对抗人脸图像202的第二预测分类,第一预测分类和第二预测分类用于预测输入的人脸图像的来源为真实样本,或用于预测输入的人脸图像对应的对抗样本生成方式。
计算机设备根据真实人脸图像201的第一预测分类与真实人脸图像201的第一真实分类的第一误差,以及对抗人脸图像202的第二预测分类与对抗人脸图像202的第二真实分类的第二误差,从而确定分类损失。并且,计算机设备还会根据样本分类模型203的每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,计算每个特征提取层的第二相似度损失。第一特征提取结果是对真实人脸图像201进行特征提取得到的,第二特征提取结果是对对抗人脸图像202进行特征提取得到的。计算机设备计算全部特征提取层的第二相似度损失的加权平均值,从而得到第一相似度损失205。之后通过上述分类损失以及第一相似度损失205即可训练样本分类模型203。可选地,特征提取层对应的权重与特征提取层在全部特征提取层中的层级位置相关。
通过在训练样本分类模型的过程中,约束对真实人脸图像和对抗人脸图像进行特征提取的结果的相似度,使其不断降低。有助于样本分类模型在特征提取过程中保留用于区分真实人脸图像和对抗人脸图像的特征(例如噪声),并随着特征提取过程不断放大此类特征,从而能够提升样本分类模型根据特征提取结果对输入的人脸图像进行分类的准确度。
图3是本申请一个示例性实施例提供的一种样本分类模型的训练方法的流程示意图。该方法可以用于计算机设备或计算机设备上的客户端。如图3所示,该方法包括以下步骤。
步骤302:获取样本数据集。
样本数据集包括至少一张真实人脸图像和至少一张对抗人脸图像。真实人脸图像是通过对真实的人脸进行图像采集得到的,例如通过摄像头对人脸进行拍摄得到,真实人脸图像也可称为干净样本。对抗人脸图像是基于真实人脸图像生成的,例如是通过在真实人脸图像中添加对抗噪声得到的,对抗人脸图像是虚假的人脸图像,对抗人脸图像也可称为对抗样本。可选地,对抗噪声包括在真实人脸图像中添加的面部噪声和元素噪声中的至少一种。样本数据集中存在对应同一人脸的真实人脸图像和对抗人脸图像,或者样本数据集中不存在对应同一人脸的真实人脸图像和对抗人脸图像,本申请实施例对此不作限制。
可选地,计算机设备获取至少一张真实人脸图像,并基于获取的真实人脸图像生成对抗人脸图像,从而获取样本数据集。在生成对抗人脸图像时,计算机设备可通过多种对抗样本生成方式,生成每张真实人脸图像对应的多张对抗人脸图像。其中,多种对抗样本生成方式用于在真实人脸图像中添加不同的对抗噪声,每种对抗样本生成方式添加的对抗噪声不同。
计算机设备基于一张真实人脸图像生成的对抗人脸图像的数量与使用的对抗样本生成方式的数量相同或不同。示例地,计算机设备基于一张真实人脸图像,分别使用11种对抗样本生成方式来处理真实人脸图像,从而生成11张对抗人脸图像。不同对抗样本生成方式还能够组合,例如将11种对抗样本生成方式组合为少于、等于或大于11种的对抗样本生成方式,并以此对真实人脸图像进行处理,可得到相应的少于11张的对抗人脸图像,或者等于11张的对抗人脸图像,或大于11张的对抗人脸图像。
可选地,计算机设备还能够获取人脸视频,并通过人脸视频中的视频帧获取上述真实人脸图像,从而基于真实人脸图像生成对抗人脸图像,以获取样本数据集。
步骤304:通过样本分类模型分别对真实人脸图像和对抗人脸图像进行特征提取,得到真实人脸图像的第一预测分类和对抗人脸图像的第二预测分类。
样本分类模型用于预测输入的人脸图像的来源,例如预测输入的人脸图像为真实样本或者为生成的对抗样本。样本分类模型是支持对输入的样本进行分类的模型,本申请实施例对样本分类模型的具体类型不作限制。一些实施例中,样本分类模型为基于卷积神经网络(Convolutional Neural Networks,CNN)构成的模型。
输入样本分类模型的真实人脸图像和对抗人脸图像是计算机设备在样本数据集中获取的,例如计算机设备在样本数据集中随机获取真实人脸图像和对抗人脸图像。可选地,输入样本分类模型的真实人脸图像和对抗人脸图像对应同一人脸或对应不同人脸,本申请实施例对此不作限制。
样本分类模型包括级联的多个特征提取层,在将真实人脸图像和对抗人脸图像输入样本分类模型后,样本分类模型会通过该多个特征提取层依次对输入的人脸图像进行特征提取,每个特征提取层均是针对前一个特征提取层的特征提取结果进行特征提取的。在得到最后一个特征提取层的特征提取结果后,通过样本分类模型的输出层对该特征提取结果进行分类,即可得到上述第一预测分类和第二预测分类。可选地,第一预测分类用于预测真实人脸图像属于不同来源的概率,第二预测分类用于预测对抗人脸图像属于不同来源的概率。可选地,不同来源包括真实样本和对抗样本,或者不同来源包括真实样本和对抗样本对应的多种对抗样本生成方式。
步骤306:根据真实人脸图像的第一预测分类与第一真实分类的第一误差,以及对抗人脸图像的第二预测分类与第二真实分类的第二误差,确定分类损失。
第一真实分类用于反映真实人脸图像的真实来源,例如为真实样本。第二真实分类用于反映对抗人脸图像的真实来源,例如为对抗样本,或者为对抗人脸图像对应的对抗样本生成方式。可选地,第一真实分类和第二真实分类是人工标注的。
可选地,计算机设备基于上述第一误差可计算第一交叉熵损失,基于上述第二误差可计算第二交叉熵损失,根据第一交叉熵损失和第二交叉熵损失可确定上述分类损失。
步骤308:通过分类损失以及相似度约束训练样本分类模型。
相似度约束用于约束第一特征提取结果与第二特征提取结果的相似度,第一特征提取结果是样本分类模型对真实人脸图像进行特征提取得到的,第二特征提取结果是样本分类模型对对抗人脸图像进行特征提取得到的。相似度约束用于使第一特征提取结果与第二特征提取结果的相似度减小。
对真实人脸图像和对抗人脸图像进行特征提取是通过样本分类模型的特征提取层实现的。可选地,计算机设备根据全部或部分特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,可确定第一相似度损失。之后通过分类损失以及该第一相似度损失即可训练样本分类模型。对于相似度的计算,可采用余弦相似度,或者其它计算方式,例如欧式距离、向量距离等,本申请实施例对计算相似度的具体方式不作限制。
可选地,对于第一相似度损失的计算,计算机设备将选取的各特征提取层的第一特征提取结果和第二特征提取结果的相似度计算总和,或计算平均值,或计算加权平均值,从而可得到第一相似度损失。可选地,特征提取层对应的权重与特征提取层在全部特征提取层中的层级位置相关。
一些实施例中,样本分类模型部署在计算机设备中,计算机设备直接调用样本分类模型。一些实施例中,样本分类模型未部署在计算机设备中,计算机设备远程调用样本分类模型,例如通过样本分类模型对应的API调用样本分类模型。
一些实施例中,本申请实施例涉及的上述人脸图像为地图车联网领域中的人脸图像,例如为用户在使用地图客户端过程中,地图客户端所在终端拍摄的用户的人脸图像,例如用户解锁地图客户端时,触发终端拍摄的人脸图像。或者为用户在使用车载终端过程中,车载终端拍摄的用户的人脸图像,例如用户启动车辆或开启车辆门锁时,触发车载终端拍摄的用户的人脸图像。本申请实施例对上述人脸图像的来源不作限制。
综上所述,本实施例提供的方法,通过在训练样本分类模型的过程中,约束对真实人脸图像和对抗人脸图像进行特征提取的结果的相似度,使其不断降低。有助于样本分类模型在特征提取过程中保留用于区分真实人脸图像和对抗人脸图像的特征(噪声),并随着特征提取过程不断放大此类特征,从而能够提升样本分类模型根据特征提取结果对输入的人脸图像进行分类的准确度。
图4是本申请一个示例性实施例提供的另一种样本分类模型的训练方法的流程示意图。该方法可以用于计算机设备或计算机设备上的客户端。如图4所示,该方法包括以下步骤。
步骤402:获取样本数据集。
样本数据集包括至少一张真实人脸图像和至少一张对抗人脸图像。真实人脸图像是通过对真实的人脸进行图像采集得到的,对抗人脸图像是基于真实人脸图像生成的,例如是通过在真实人脸图像中添加对抗噪声得到的。可选地,对抗噪声包括在真实人脸图像中添加的面部噪声和元素噪声中的至少一种。面部噪声包括影响到面容的噪声,例如影响肤质、五官、皮肤纹理等的噪声。元素噪声包括用于叠加在人脸上的元素(贴图),例如包括彩妆、眼镜、贴纸等。
计算机设备获取至少一张真实人脸图像,并通过多种对抗样本生成方式生成每张真实人脸图像对应的多张对抗人脸图像。之后将至少一张真实人脸图像和每张真实人脸图像对应的多张对抗人脸图像作为样本数据集,从而获取到样本数据集。其中,多种对抗样本生成方式用于在真实人脸图像中添加不同的对抗噪声。
可选地,不同对抗样本生成方式能够组合使用,从而一次在真实人脸图像中添加多类噪声,以此提升训练的模型的泛化性。并且,在通过多种对抗样本生成方式生成对抗人脸图像的过程中,还能够在真实人脸图像中设置添加对抗噪声的位置,例如仅在眼镜区域添加对抗噪声、仅在鼻子区域添加对抗噪声。
可选地,对于对抗人脸图像的生成过程,计算机设备通过至少一种第一对抗样本生成方式生成每张真实人脸图像对应的至少一张第一对抗人脸图像,以及通过至少一种第二对抗样本生成方式生成每张真实人脸图像对应的至少一张第二对抗人脸图像。其中,第一对抗样本生成方式用于在真实人脸图像中添加面部噪声,第二对抗样本生成方式用于在真实人脸图像中添加元素噪声。
示例地,第一对抗样本生成方式包括如下对抗样本生成算法中的至少一种:快速梯度符号法(Fast Gradient Sign Method,FGSM)、投影梯度下降(Projected GradientDescent,PGD)、动量迭代快速梯度符号法(Momentum Iterative-Fast Gradient SignMethod,MI-FGSM)、C&W攻击算法、面部攻击算法(Adv-Face)、方差动量迭代快速梯度符号法(Variance Momentum Iterative-Fast Gradient Sign Method,VMI-FGSM)、随机噪声算法(Noise)。第二对抗样本生成方式包括如下对抗样本生成算法中的至少一种:彩妆攻击算法(Adv-Makeup)、贴图攻击算法(Adv-Patch)、眼镜攻击算法(Adv-Glasses)、帽子攻击算法(Adv-Hat)。其中,随机噪声算法用于添加随机生成的白噪声,从而拟合一些未知噪声攻击的人脸图像。需要说明的是,上述对抗样本生成方式仅用于示例,不作为对本申请提供的方法限制,对于对抗人脸图像的生成,还能够采用其它方式,本申请对此不作限制。
可选地,在获取到真实人脸图像后,计算机设备会识别真实人脸图像的五官坐标点,五官坐标点用于标识真实人脸图像中的人脸五官的位置。例如,计算机设备通过多任务级联卷积网络(Multi-task Cascaded Convolutional Networks,MTCNN)识别真实人脸图像的五官坐标点。在获取到真实人脸图像的五官坐标点后,计算机设备会根据五官坐标点对真实人脸图像进行方向配准和人脸抠图,方向配准用于将获取的真实人脸图像中的人脸调整为统一方向,人脸抠图用于在真实人脸图像中抠出包括人脸的图像区域。通过对获取的真实人脸图像进行预处理,能够保证生成的对抗人脸图像与其对齐,且输入样本分类模型的数据对齐,从而避免对样本分类模型处理过程的干扰,提升样本分类模型对输入的数据进行预测的准确度。
示例地,图5是本申请一个示例性实施例提供的生成对抗人脸图像的过程的示意图。如图5所示,计算机设备获取到真实人脸图像501后,通过m种对抗样本生成算法502分别对真实人脸图像501进行处理,从而得到每种对抗样本生成算法502对应的对抗人脸图像503,m为大于1的正整数。
步骤404:通过样本分类模型分别对真实人脸图像和对抗人脸图像进行特征提取,得到真实人脸图像的第一预测分类和对抗人脸图像的第二预测分类。
样本分类模型用于预测输入的人脸图像的来源,例如预测输入的人脸图像为真实样本或者为生成的对抗样本。样本分类模型是支持对输入的样本进行分类的模型,本申请实施例对样本分类模型的具体类型不作限制。
输入样本分类模型的真实人脸图像和对抗人脸图像是计算机设备在样本数据集中获取的,例如计算机设备在样本数据集中随机获取真实人脸图像和对抗人脸图像。
样本分类模型包括级联的多个特征提取层,在将真实人脸图像和对抗人脸图像输入样本分类模型后,样本分类模型会通过该多个特征提取层依次对输入的人脸图像进行特征提取,每个特征提取层均是针对前一个特征提取层的特征提取结果进行特征提取的。在得到最后一个特征提取层的特征提取结果后,通过样本分类模型的输出层对该特征提取结果进行分类,即可得到上述第一预测分类和第二预测分类。可选地,第一预测分类用于预测真实人脸图像属于不同来源的概率,第二预测分类用于预测对抗人脸图像属于不同来源的概率。可选地,不同来源包括真实样本和对抗样本,或者不同来源包括真实样本和对抗样本对应的多种对抗样本生成方式。
可选地,输入样本分类模型的真实人脸图像和对抗人脸图像对应同一人脸或对应不同人脸,本申请实施例对此不作限制。例如,计算机设备通过样本分类模型分别对同一人脸对应的真实人脸图像和对抗人脸图像进行特征提取,从而得到同一人脸对应的真实人脸图像的第一预测分类和对抗人脸图像的第二预测分类。
步骤406:根据真实人脸图像的第一预测分类与第一真实分类的第一误差,以及对抗人脸图像的第二预测分类与第二真实分类的第二误差,确定分类损失。
第一真实分类用于反映真实人脸图像的真实来源,例如为真实样本。第二真实分类用于反映对抗人脸图像的真实来源,例如为对抗样本,或者为对抗人脸图像对应的对抗样本生成方式。可选地,第一真实分类和第二真实分类是人工标注的。第一预测分类和第二预测分类用于预测输入的人脸图像的来源为真实样本,或用于预测输入的人脸图像对应的对抗样本生成方式。计算机设备根据真实人脸图像的第一预测分类与第一真实分类的第一误差,以及对抗人脸图像的第二预测分类与对抗人脸图像对应的真实对抗样本生成方式的第二误差,从而确定分类损失。
可选地,计算机设备基于上述第一误差可计算第一交叉熵损失,基于上述第二误差可计算第二交叉熵损失,根据第一交叉熵损失和第二交叉熵损失可确定上述分类损失。例如将第一交叉熵损失和第二交叉熵损失的和确定为分类损失。
步骤408:根据样本分类模型的全部或部分特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,确定第一相似度损失。
样本分类模型包括级联的多个特征提取层。第一相似度损失用于约束特征提取层的第一特征提取结果与第二特征提取结果的相似度,第一特征提取结果是样本分类模型的特征提取层对真实人脸图像进行特征提取得到的,第二特征提取结果是样本分类模型的特征提取层对对抗人脸图像进行特征提取得到的。对于相似度的计算,可采用余弦相似度,或者其它计算方式,例如欧式距离、向量距离等,本申请实施例对计算相似度的具体方式不作限制。可选地,在根据部分特征提取层的特征提取结果确定第一相似度损失的情况下,参与计算第一相似度损失的特征提取层是人工设置的。例如为多个特征提取层的前n层,n为正整数。
可选地,计算机设备根据全部特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,确定全部特征提取层中每个特征提取层的第二相似度损失。之后确定全部特征提取层中每个特征提取层的第二相似度损失的和、或者平均值或者加权平均值,从而得到第一相似度损失。
对于加权平均值的计算,计算机设备获取全部特征提取层中每个特征提取层对应的权重,并根据全部特征提取层中每个特征提取层对应的权重以及第二相似度损失,确定全部特征提取层中每个特征提取层的第二相似度损失的加权平均值,从而得到第一相似度损失。其中,权重与特征提取层在全部特征提取层中的层级位置相关。可选地,特征提取层的权重也能够与其对应的第二相似度损失相关,例如与其对应的第二相似度损失负相关。即对于提取了相似特征的特征提取层,可提升其权重,从而有助于其后续迭代后提取更有区别度的特征,提升样本分类模型的分类性能。
对于特征提取层对应的权重的获取,计算机设备根据全部特征提取层中每个特征提取层在全部特征提取层中的层级深度,可确定全部特征提取层中每个特征提取层对应的权重。其中,特征提取层对应的权重与特征提取层的层级深度负相关。该层级深度是特征提取层在样本分类模型的正向传播方向下的位置深度,正向传播过程中越靠后,则层级深度越深。一些实施例中,特征提取层对应的权重与特征提取层的层级深度也可以正相关,由于浅层提取的特征通常不容易分类,该方式能够有助于样本分类模型的快速训练收敛。
示例地,图6是本申请一个示例性实施例提供的计算第一相似度损失的过程的示意图。如图6所示,计算机设备将真实人脸图像601和对抗人脸图像602输入样本分类模型,通过样本分类模型的n个特征提取层603依次进行特征提取,样本分类模型的输出层604根据特征提取结果即可确定第一预测分类605和第二预测分类606,n为大于1的正整数。计算机设备会根据每个特征提取层603对真实人脸图像601和对抗人脸图像602的特征提取结果计算每个特征提取层603的第二相似度损失,之后计算全部特征提取层603的第二相似度损失的加权平均值,从而得到用于训练样本分类模型的第一相似度损失。
步骤410:通过分类损失以及第一相似度损失训练样本分类模型。
对输入的人脸图像进行特征提取,以得到预测分类的过程是样本分类模型中的正向传播过程。在训练样本分类模型的过程中,通过对分类损失以及第一相似度损失进行反向传播,可实现优化样本分类模型的模型参数,从而实现训练样本分类模型。
一些实施例中,样本分类模型部署在计算机设备中,计算机设备直接调用样本分类模型。一些实施例中,样本分类模型未部署在计算机设备中,计算机设备远程调用样本分类模型,例如通过样本分类模型对应的API调用样本分类模型。
计算机设备通过上述过程循环训练样本分类模型,在样本分类模型的预测准确度满足预设准确度,或者训练的轮次数满足预设次数后,计算机设备停止训练样本分类模型。
在完成上述对样本分类模型的训练后,可选地,计算机设备会获取验证数据集,该验证数据集包括多张人脸各自对应的真实验证图像和对抗验证图像,真实验证图像是上述人脸对应的真实人脸图像,对抗验证图像是上述人脸对应的对抗人脸图像。每张人脸对应多张真实验证图像和多张对抗验证图像。验证数据集中的图像与样本数据集中的图像完全相同,或部分相同,或完全不同。
计算机设备在多张人脸中获取第一人脸,并获取第一人脸对应的第一真实验证图像和第一对抗验证图像,例如上述获取过程均为随机获取。之后将第一人脸对应的第一真实验证图像和第一对抗验证图像输入完成训练的样本分类模型,通过样本分类模型的前x个特征提取层分别对第一真实验证图像和第一对抗验证图像进行特征提取,x为正整数,具体可以由人工设置。计算机设备会计算前x个特征提取层中,每个特征提取层对第一真实验证图像和第一对抗验证图像进行特征提取的特征提取结果的验证相似度,并计算前x个特征提取层各自对应的验证相似度的验证平均值。
在上述验证平均值大于预设的平均值阈值的情况下,计算机设备会获取第一人脸对应的第二真实验证图像,该第二真实验证图像与第一真实验证图像是对应同一第一人脸的不同真实人脸图像。之后计算机设备会使用第二真实验证图像和第一对抗验证图像,通过上述步骤继续训练样本分类模型,即确定第二真实验证图像和第一对抗验证图像对应的分类损失,并基于该分类损失以及第二真实验证图像和第一对抗验证图像对应的相似度约束训练样本分类模型,本申请实施例在此不作赘述。一些实施例中,平均值阈值是人工设置的。通过在完成训练后,使用验证数据集结合平均值阈值来验证样本分类模型的性能,从而能够发现验证数据集中,被样本分类模型的浅层不容易分辨的第一对抗验证图像,之后使用其结合其它真实验证图像继续训练样本分类模型,有助于进一步提高样本分类模型的分类准确度。
可选地,计算机设备可获取多张第二真实验证图像,并使用多张第二真实验证图像中的每张分别与第一对抗验证图像结合,得到多组训练数据,并以此来多次训练样本分类模型。计算机设备获取的第二真实验证图像的数量与验证平均值和平均值阈值的差值大小正相关。
在上述验证平均值大于预设的平均值阈值的情况下,计算机设备会计算第一真实验证图像和第一对抗验证图像的差值,该差值能够反映第一真实验证图像和第一对抗验证图像中的人脸差异。例如,计算机设备基于两者的像素值计算该差值。或者,计算机设备将第一真实验证图像和第一对抗验证图像输入差值分析模型,从而得到差值分析模型预测的第一真实验证图像和第一对抗验证图像的差值。可选地,差值分析模型是通过样本噪声、样本真实人脸图像和样本对抗人脸图像训练得到的,样本对抗人脸图像是基于在样本真实人脸图像中添加样本噪声生成的,差值分析模型是基于卷积神经网络构成的模型。之后计算机设备获取至少一张第二真实验证图像,并将上述差值作为噪声与每张第二真实验证图像叠加,从而生成至少一张第二对抗验证图像。之后计算机设备会使用上述第二真实验证图像和第二对抗验证图像,通过上述步骤继续训练样本分类模型,即确定第二真实验证图像和第二对抗验证图像对应的分类损失,并基于该分类损失以及第二真实验证图像和第二对抗验证图像对应的相似度约束训练样本分类模型,本申请实施例在此不作赘述。每次训练时输入的第二对抗验证图像与输入的第二真实验证图像对应,即输入第二真实验证图像和基于其生成的第二对抗验证图像。通过在完成训练后,使用验证数据集结合平均值阈值来验证特征提取模型的性能,从而能够发现验证数据集中,被样本分类模型的浅层不容易分辨的第一对抗验证图像,根据第一对抗验证图像和第一真实验证图像的差值,能够确定样本分类模型的浅层不容易分辨的噪声,使用该噪声继续生成对抗验证图像,并以此训练样本分类模型,能够提升样本分类模型对于此类噪声的辨别能力,有助于进一步提高样本分类模型的分类准确度。
需要说明的是,上述在完成训练样本分类模型后,对样本分类模型进行验证后再次训练的方案可结合使用或分开使用,本申请实施例对此不作限制。
综上所述,本实施例提供的方法,通过在训练样本分类模型的过程中,约束对真实人脸图像和对抗人脸图像进行特征提取的结果的相似度,使其不断降低。有助于样本分类模型在特征提取过程中保留用于区分真实人脸图像和对抗人脸图像的特征(噪声),并随着特征提取过程不断放大此类特征,从而能够提升样本分类模型根据特征提取结果对输入的人脸图像进行分类的准确度。
本实施例提供的方法,还通过根据全部或部分特征提取层的特征提取结果的相似度来确定第一相似度损失,从而训练样本分类模型,实现了灵活计算相似度损失,且根据第一相似度损失训练样本分类模型,有助于在特征提取过程中保留用于区分真实人脸图像和对抗人脸图像的特征,从而提升模型分类的准确度。
本实施例提供的方法,还通过根据全部特征提取层的特征提取结果的相似度的平均值,来确定第一相似度损失,从而使得模型训练过程能够参考各特征提取层的特征提取结果,以对每个特征提取层均充分优化,有助于提升模型分类的准确度。
本实施例提供的方法,还通过根据特征提取层对应的权重,来计算全部特征提取层的第二相似度损失的加权平均值,作为训练使用的第一相似度损失,实现根据特征提取层的层级位置调整其对相似度损失计算的影响程度,从而提升计算相似度损失的准确度。
本实施例提供的方法,还通过使特征提取层对应的权重与其层级深度负相关,能够增大浅层的特征提取层对相似度损失计算的影响,有助于样本分类模型在浅层即可区分不同类型的人脸图像,有助于提升模型分类的准确度。
本实施例提供的方法,还通过多种对抗样本生成方式来生成对抗人脸图像,能够提升训练样本的丰富程度,从而提升训练的样本分类模型的泛化性。
本实施例提供的方法,还通过第一对抗样本生成方式和第二对抗样本生成方式来生成对抗人脸图像,能够提升训练样本携带噪声种类的丰富程度,从而提升训练的样本分类模型针对不同种类噪声进行分类的泛化性。
本实施例提供的方法,还通过预测输入的人脸图像对应的对抗样本生成方式,相较于仅对真实样本和对抗样本进行分类,能够提升样本分类模型进行分类的粒度。
本实施例提供的方法,还通过基于对抗人脸图像的第二预测分类与对抗人脸图像对应的真实对抗样本生成方式的第二误差来构造分类损失,能够提升确定分类损失的精细程度,有助于提升模型分类的准确度。
图7是本申请一个示例性实施例提供的分类方法的流程示意图。该方法可以用于计算机设备或计算机设备上的客户端。如图7所示,该方法包括以下步骤。
步骤702:获取待预测人脸图像。
待预测人脸图像是用户上传的,用于进行人脸识别的人脸图像。例如在触发人脸识别验证时,用户上传的人脸图像。待预测人脸图像可以是真实人脸图像,也可以是对抗人脸图像。
步骤704:通过样本分类模型对待预测人脸图像进行特征提取,得到待预测人脸图像的预测分类。
该预测分类用于预测待预测人脸图像为真实样本或者为生成的对抗样本,进一步还可预测对抗样本对应的对抗样本生成方式。该样本分类模型是通过图3或图4所示实施例训练得到的,具体可参照前文描述,本申请在此不作赘述。
示例地,图8是本申请一个示例性实施例提供的样本分类模型的结构示意图。如图8所示,样本分类模型801包括多个特征提取层8011-8015,以及输出层8016。计算机设备将待预测人脸图像输入样本分类模型801,样本分类模型801的多个特征提取层8011-8015会依次对输入的待预测人脸图像进行卷积以及降采样处理,从而实现对待预测人脸图像的特征提取。对于特征提取层可设置残差连接结构,使特征提取层的输出与输入叠加,并输入至下一特征提取层,以防止模型的梯度消失。之后样本分类模型801中的输出层8016基于提取的特征能够预测待预测人脸图像的预测分类。需要说明的是,图8所示模型结构仅作为示例,不作为对本申请中的样本分类模型的结构的限制。
一些实施例中,本申请实施例提供的样本分类模型可以直接部署于人脸识别模型之前,对人脸识别过程所输入的人脸图像的来源进行检测。如果是真人的干净人脸图像,则通过检测进入到后续的人脸识别流程中;如果是对抗攻击的人脸图像,则可以进行报错提示重试。本申请实施例提供的方法可以应用于涉及人脸识别相关的场景,包括但不限于:线上人脸支付、线下人脸支付、人脸门禁解锁、手机人脸识别、自动人脸识别通关等。
综上所述,本实施例提供的方法,通过在训练样本分类模型的过程中,约束对真实人脸图像和对抗人脸图像进行特征提取的结果的相似度,使其不断降低。有助于样本分类模型在特征提取过程中保留用于区分真实人脸图像和对抗人脸图像的特征(噪声),并随着特征提取过程不断放大此类特征,通过上述方式训练的样本分类模型能够提升根据特征提取结果对输入的人脸图像进行分类的准确度。
本申请实施例提供的方法,提供了一种基于噪声放大的人脸识别对抗样本防御技术,可利用多种对抗攻击算法生成对抗样本(对抗人脸图像),然后以此训练一个样本分类模型对人脸识别上传的对抗样本和干净样本(真实人脸图像)进行分类。通过计算不同特征提取层针对干净样本和对抗样本进行特征提取的相似度损失,以构建模型的相似度损失,从而实现构建了噪声放大网络,模型在特征提取过程中可逐层放大对抗噪声,使得模型能够更加容易的分辨对抗样本和干净样本进而进一步提升对抗样本检测准确率。同时,使用多种生成的对抗攻击数据联合进行模型训练,也可以提升模型对于未知对抗样本检测的泛化性。对于样本分类模型的训练包括以下过程。
1.数据准备和预处理。
在此阶段,计算机设备会获取一定数量的真人人脸照片(真实人脸图像)和人脸对抗攻击图片(对抗人脸图像,由多种攻击算法生成)。一些实施例中,针对样本分类模型的输入尺寸可统一为112×112×3,具体实现方式为:(1)利用人脸检测模型确定人脸的五官坐标;(2)利用检测到的五官坐标对真实人脸图像进行配准,得到旋正和抠过的人脸图像;(3)调整真实人脸图像的尺寸为112×112×3。
2.多样化对抗样本生成。
计算机设备通过多种对抗样本生成算法来生成对抗人脸图像,具体分为两大类:(1)添加对抗噪声的算法;(2)添加元素噪声的算法。添加对抗噪声时可添加随机生成的白噪声,用于拟合一些未知噪声攻击的数据。在生成对抗人脸图像的时候,用对抗噪声形式的算法生成的对抗样本,可考虑多种不同的攻击区域,比如攻击眼睛区域、攻击口罩区域、这样生成的样本可以适用于不同的裁剪方式的攻击数据。
3.生成边界约束的对抗样本数据。
获取了对抗样本和干净样本以后,计算机设备可对样本分类模型进行训练。传统的模型直接对干净样本和对抗样本进行分类,这样做的缺点在于,噪声较隐蔽的对抗样本容易和干净的真人样本视觉上难以区分,导致样本分类模型对于真人的检测准确率下降。因为单纯的从最后一层特征提取层的提取结果上进行分类,在浅层的特征提取层提取的特征上对抗样本和干净样本仍然不可分,经过模型不断的非线性变换,可能会导致部分较隐蔽的对抗样本的对抗噪声被消除,因此本申请提出了多层噪声放大损失以对样本分类模型的训练进行约束。
假设人脸干净样本X有10000张图,各种类型的人脸对抗样本Xadv在每种生成方式下也各有10000张人脸图,总共12个类别,所以总共有120000张。每次训练的时候,随机获取一个训练集,例如128张图,那么这个训练集既会包含人脸干净样本也会包含不同类型的人脸对抗样本。干净样本和对抗样本会输入到样本分类模型当中进行前向传播,从而获取模型针对干净样本和对抗样本输出的预测概率,然后根据预测概率计算交叉熵损失,可得到分类损失。最后通过梯度的反向传播更新样本分类模型的参数,从而达到降低模型分类损失的效果。
上述流程是基本的训练多分类模型的流程,正如前文所述,较隐蔽的对抗噪声在模型前向传播过程中,不断地被模型当中的各特征提取层的非线性变化函数进行变换,导致较弱的噪声响应值被削弱,从而降低了模型的分类准确率。
基于此,设计了多层噪声放大损失(相似度损失),即在每一特征提取层计算机设备都计算一个干净样本和对抗样本的特征提取结果的余弦(cosine)相似度,然后将该相似度作为损失优化变小。如果样本分类模型包括N个特征提取层,那么除了最后一个输出层,每一特征提取层都会输出一个中间层特征。假设计算损失的时候,当前特征提取层为第n层,干净样本和对抗样本的在该层输出的特征可以表示为和/>。其中,样本分类模型的参数为θ,那么第n层的相似度损失可以表示为如下表达式。
。
所有层的相似度损失加权平均后的损失可以表示为如下表达式。
。
其中,为第i个特征提取层的权重系数。计算机设备更新样本分类模型的参数的形式可以表示为如下表达式。
。
其中,t表示第t轮训练,t-1表示第t-1轮训练,▽表示偏导数,λ表示模型的学习率。经过上述过程对模型进行不断的迭代训练,CosSimLoss的值会越来越小,直到达到一个较稳定的状态。训练过程中,会使用CosSimLoss和交叉熵损失一起对模型的参数进行调优。
由于在模型的深层,图片的噪声已经被弱化,而在浅层特征中,干净样本和对抗样本可能还处于不太可分的状态。因此如果干净样本和对抗样本在浅层的特征中就已经被区分开了,说明用于区分二者的噪声在每一层的输出特征中都不仅仅被保留下来了,还在不断的被放大。最终展示出来的效果就是模型对于对抗样本和干净样本的可分性被大大加强,进而防御能力被进一步提升,实现更优的对抗样本检测泛化性。而且所选择的上述CosSimLoss也和最终的人脸识别评估方法保持一致,可提升对于对抗样本的区别,从而更加有效的提升了在人脸识别任务上针对对抗样本的检测性能。通过利用噪声放大的损失训练人脸识别对抗样本防御模型(样本分类模型),可以很好的提升模型检测对抗样本的准确性,从而进一步提升了人脸识别业务对于对抗样本的防御能力和泛化性,有力的保障了人脸识别业务的安全性和鲁棒性。
需要进行说明的是,本申请在收集用户的相关数据(例如本申请中的真实人脸图像、待预测人脸图像)之前以及在收集用户的相关数据的过程中,都可以显示提示界面、弹窗或输出语音提示信息,该提示界面、弹窗或语音提示信息用于提示用户当前正在搜集其相关数据,使得本申请仅仅在获取到用户对该提示界面或者弹窗发出的确认操作后,才开始执行获取用户相关数据的相关步骤,否则(即未获取到用户对该提示界面或者弹窗发出的确认操作时),结束获取用户相关数据的相关步骤,即不获取用户的相关数据。换句话说,本申请所采集的所有用户数据都是在用户同意并授权的情况下进行采集的,且相关用户数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
需要说明的是,本申请实施例提供的方法步骤的先后顺序可以进行适当调整,步骤也可以根据情况进行相应增减,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化的方法,都应涵盖在本申请的保护范围之内,因此不再赘述。
图9是本申请一个示例性实施例提供的一种样本分类模型的训练装置的结构示意图。如图9所示,该装置包括如下模块。
获取模块901,用于获取样本数据集,所述样本数据集包括至少一张真实人脸图像和至少一张对抗人脸图像,所述对抗人脸图像是基于所述真实人脸图像生成的。
预测模块902,用于通过所述样本分类模型分别对所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述真实人脸图像的第一预测分类和所述对抗人脸图像的第二预测分类,所述样本分类模型用于预测输入的人脸图像的来源。
确定模块903,用于根据所述真实人脸图像的第一预测分类与第一真实分类的第一误差,以及所述对抗人脸图像的第二预测分类与第二真实分类的第二误差,确定分类损失。
训练模块904,用于通过所述分类损失以及相似度约束训练所述样本分类模型,所述相似度约束用于约束第一特征提取结果与第二特征提取结果的相似度,所述第一特征提取结果是所述样本分类模型对所述真实人脸图像进行特征提取得到的,所述第二特征提取结果是所述样本分类模型对所述对抗人脸图像进行特征提取得到的。
在一个可选的设计中,所述样本分类模型包括级联的多个特征提取层。所述确定模块903,用于根据全部或部分特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,确定第一相似度损失。
所述训练模块904,用于通过所述分类损失以及所述第一相似度损失训练所述样本分类模型。
在一个可选的设计中,所述确定模块903,用于根据全部特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,确定所述全部特征提取层中每个特征提取层的第二相似度损失。确定所述全部特征提取层中每个特征提取层的第二相似度损失的平均值,得到所述第一相似度损失。
在一个可选的设计中,所述获取模块901,用于获取所述全部特征提取层中每个特征提取层对应的权重,所述权重与所述特征提取层在所述全部特征提取层中的层级位置相关。
所述确定模块903,用于根据所述全部特征提取层中每个特征提取层对应的权重以及所述第二相似度损失,确定所述全部特征提取层中每个特征提取层的第二相似度损失的加权平均值,得到所述第一相似度损失。
在一个可选的设计中,所述确定模块903,用于根据所述全部特征提取层中每个特征提取层在所述全部特征提取层中的层级深度,确定所述全部特征提取层中每个特征提取层对应的权重;其中,所述特征提取层对应的权重与所述特征提取层的层级深度负相关。
在一个可选的设计中,所述获取模块901,用于获取所述至少一张真实人脸图像。
如图10所示,所述装置还包括生成模块905,所述生成模块905,用于通过多种对抗样本生成方式生成每张真实人脸图像对应的多张对抗人脸图像,所述多种对抗样本生成方式用于在所述真实人脸图像中添加不同的对抗噪声。
所述获取模块901,用于将所述至少一张真实人脸图像和所述每张真实人脸图像对应的多张对抗人脸图像作为所述样本数据集。
在一个可选的设计中,所述生成模块905,用于通过至少一种第一对抗样本生成方式生成所述每张真实人脸图像对应的至少一张第一对抗人脸图像;以及通过至少一种第二对抗样本生成方式生成所述每张真实人脸图像对应的至少一张第二对抗人脸图像;其中,所述第一对抗样本生成方式用于在所述真实人脸图像中添加面部噪声,所述第二对抗样本生成方式用于在所述真实人脸图像中添加元素噪声。
在一个可选的设计中,所述预测模块902,用于通过所述样本分类模型分别对所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述第一预测分类和所述第二预测分类;其中,所述第一预测分类和所述第二预测分类用于预测所述输入的人脸图像的来源为真实样本,或用于预测所述输入的人脸图像对应的对抗样本生成方式。
在一个可选的设计中,所述确定模块903,用于根据所述真实人脸图像的第一预测分类与第一真实分类的第一误差,以及所述对抗人脸图像的第二预测分类与所述对抗人脸图像对应的真实对抗样本生成方式的第二误差,确定所述分类损失。
在一个可选的设计中,所述预测模块902,用于通过所述样本分类模型分别对同一人脸对应的所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述同一人脸对应的所述真实人脸图像的第一预测分类和所述对抗人脸图像的第二预测分类。
在一个可选的设计中,如图11所示,所述装置还包括识别模块906,所述识别模块906用于识别所述真实人脸图像的五官坐标点。
所述装置还包括处理模块907,所述处理模块907用于根据所述五官坐标点对所述真实人脸图像进行方向配准和人脸抠图。
在一个可选的设计中,所述获取模块901,用于获取待预测人脸图像。
所述预测模块902,用于通过所述样本分类模型对所述待预测人脸图像进行特征提取,得到所述待预测人脸图像的预测分类。
需要说明的是:上述实施例提供的样本分类模型的训练装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的样本分类模型的训练装置与样本分类模型的训练方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本申请的实施例还提供了一种计算机设备,该计算机设备包括:处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的样本分类模型的训练方法。
示例地,图12是本申请一个示例性实施例提供的计算机设备的结构示意图。
所述计算机设备1200包括中央处理单元(Central Processing Unit,CPU)1201、包括随机存取存储器(Random Access Memory,RAM)1202和只读存储器(Read-OnlyMemory,ROM)1203的系统存储器1204,以及连接系统存储器1204和中央处理单元1201的系统总线1205。所述计算机设备1200还包括帮助计算机设备内的各个器件之间传输信息的基本输入/输出系统(Input/Output系统,I/O系统)1206,和用于存储操作系统1213、应用程序1214和其他程序模块1215的大容量存储设备1207。
所述基本输入/输出系统1206包括有用于显示信息的显示器1208和用于用户输入信息的诸如鼠标、键盘之类的输入设备1209。其中所述显示器1208和输入设备1209都通过连接到系统总线1205的输入输出控制器1210连接到中央处理单元1201。所述基本输入/输出系统1206还可以包括输入输出控制器1210以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器1210还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备1207通过连接到系统总线1205的大容量存储控制器(未示出)连接到中央处理单元1201。所述大容量存储设备1207及其相关联的计算机可读存储介质为计算机设备1200提供非易失性存储。也就是说,所述大容量存储设备1207可以包括诸如硬盘或者只读光盘(Compact Disc Read-Only Memory,CD-ROM)驱动器之类的计算机可读存储介质(未示出)。
不失一般性,所述计算机可读存储介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读存储指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、可擦除可编程只读寄存器(Erasable Programmable Read OnlyMemory,EPROM)、电子抹除式可复写只读存储器(Electrically-Erasable ProgrammableRead-Only Memory,EEPROM)、闪存或其他固态存储设备、CD-ROM、数字多功能光盘(DigitalVersatile Disc,DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器1204和大容量存储设备1207可以统称为存储器。
存储器存储有一个或多个程序,一个或多个程序被配置成由一个或多个中央处理单元1201执行,一个或多个程序包含用于实现上述方法实施例的指令,中央处理单元1201执行该一个或多个程序实现上述各个方法实施例提供的方法。
根据本申请的各种实施例,所述计算机设备1200还可以通过诸如因特网等网络连接到网络上的远程计算机设备运行。也即计算机设备1200可以通过连接在所述系统总线1205上的网络接口单元1211连接到网络1212,或者说,也可以使用网络接口单元1211来连接到其他类型的网络或远程计算机设备系统(未示出)。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,所述一个或者一个以上程序包含用于进行本申请实施例提供的方法中由计算机设备所执行的步骤。
本申请实施例中还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,当该至少一条指令、至少一段程序、代码集或指令集由计算机设备的处理器加载并执行时,实现上述各方法实施例提供的样本分类模型的训练方法。
本申请还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例提供的样本分类模型的训练方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的计算机可读存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同切换、改进等,均应包含在本申请的保护范围之内。
Claims (11)
1.一种样本分类模型的训练方法,其特征在于,所述方法包括:
获取样本数据集,所述样本数据集包括至少一张真实人脸图像和至少一张对抗人脸图像,所述对抗人脸图像是基于所述真实人脸图像生成的;
通过所述样本分类模型分别对所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述真实人脸图像的第一预测分类和所述对抗人脸图像的第二预测分类,所述样本分类模型用于预测输入的人脸图像的来源;
根据所述真实人脸图像的第一预测分类与第一真实分类的第一误差,以及所述对抗人脸图像的第二预测分类与第二真实分类的第二误差,确定分类损失;
通过所述分类损失以及相似度约束训练所述样本分类模型,所述相似度约束用于约束第一特征提取结果与第二特征提取结果的相似度,所述第一特征提取结果是所述样本分类模型对所述真实人脸图像进行特征提取得到的,所述第二特征提取结果是所述样本分类模型对所述对抗人脸图像进行特征提取得到的。
2.根据权利要求1所述的方法,其特征在于,所述样本分类模型包括级联的多个特征提取层;
所述通过所述分类损失以及相似度约束训练所述样本分类模型,包括:
根据全部或部分特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,确定第一相似度损失;
通过所述分类损失以及所述第一相似度损失训练所述样本分类模型。
3.根据权利要求2所述的方法,其特征在于,所述根据全部或部分特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,确定第一相似度损失,包括:
根据全部特征提取层中每个特征提取层的第一特征提取结果和第二特征提取结果的相似度,确定所述全部特征提取层中每个特征提取层的第二相似度损失;
确定所述全部特征提取层中每个特征提取层的第二相似度损失的平均值,得到所述第一相似度损失。
4.根据权利要求3所述的方法,其特征在于,所述确定所述全部特征提取层中每个特征提取层的第二相似度损失的平均值,得到所述第一相似度损失,包括:
获取所述全部特征提取层中每个特征提取层对应的权重,所述权重与所述特征提取层在所述全部特征提取层中的层级位置相关;
根据所述全部特征提取层中每个特征提取层对应的权重以及所述第二相似度损失,确定所述全部特征提取层中每个特征提取层的第二相似度损失的加权平均值,得到所述第一相似度损失。
5.根据权利要求1至4任一所述的方法,其特征在于,所述获取样本数据集,包括:
获取所述至少一张真实人脸图像;
通过多种对抗样本生成方式生成每张真实人脸图像对应的多张对抗人脸图像,所述多种对抗样本生成方式用于在所述真实人脸图像中添加不同的对抗噪声;
将所述至少一张真实人脸图像和所述每张真实人脸图像对应的多张对抗人脸图像作为所述样本数据集。
6.根据权利要求5所述的方法,其特征在于,所述通过多种对抗样本生成方式生成每张真实人脸图像对应的多张对抗人脸图像,包括:
通过至少一种第一对抗样本生成方式生成所述每张真实人脸图像对应的至少一张第一对抗人脸图像;以及通过至少一种第二对抗样本生成方式生成所述每张真实人脸图像对应的至少一张第二对抗人脸图像;
其中,所述第一对抗样本生成方式用于在所述真实人脸图像中添加面部噪声,所述第二对抗样本生成方式用于在所述真实人脸图像中添加元素噪声。
7.根据权利要求5所述的方法,其特征在于,所述通过所述样本分类模型分别对所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述真实人脸图像的第一预测分类和所述对抗人脸图像的第二预测分类,包括:
通过所述样本分类模型分别对所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述第一预测分类和所述第二预测分类;
其中,所述第一预测分类和所述第二预测分类用于预测所述输入的人脸图像的来源为真实样本,或用于预测所述输入的人脸图像对应的对抗样本生成方式。
8.根据权利要求7所述的方法,其特征在于,所述根据所述真实人脸图像的第一预测分类与第一真实分类的第一误差,以及所述对抗人脸图像的第二预测分类与第二真实分类的第二误差,确定分类损失,包括:
根据所述真实人脸图像的第一预测分类与第一真实分类的第一误差,以及所述对抗人脸图像的第二预测分类与所述对抗人脸图像对应的真实对抗样本生成方式的第二误差,确定所述分类损失。
9.一种样本分类模型的训练装置,其特征在于,所述装置包括:
获取模块,用于获取样本数据集,所述样本数据集包括至少一张真实人脸图像和至少一张对抗人脸图像,所述对抗人脸图像是基于所述真实人脸图像生成的;
预测模块,用于通过所述样本分类模型分别对所述真实人脸图像和所述对抗人脸图像进行特征提取,得到所述真实人脸图像的第一预测分类和所述对抗人脸图像的第二预测分类,所述样本分类模型用于预测输入的人脸图像的来源;
确定模块,用于根据所述真实人脸图像的第一预测分类与第一真实分类的第一误差,以及所述对抗人脸图像的第二预测分类与第二真实分类的第二误差,确定分类损失;
训练模块,用于通过所述分类损失以及相似度约束训练所述样本分类模型,所述相似度约束用于约束第一特征提取结果与第二特征提取结果的相似度,所述第一特征提取结果是所述样本分类模型对所述真实人脸图像进行特征提取得到的,所述第二特征提取结果是所述样本分类模型对所述对抗人脸图像进行特征提取得到的。
10.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一段程序,所述至少一段程序由所述处理器加载并执行以实现如权利要求1至8任一所述的样本分类模型的训练方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一段程序,所述至少一段程序由处理器加载并执行以实现如权利要求1至8任一所述的样本分类模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311333924.9A CN117079336B (zh) | 2023-10-16 | 2023-10-16 | 样本分类模型的训练方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311333924.9A CN117079336B (zh) | 2023-10-16 | 2023-10-16 | 样本分类模型的训练方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117079336A true CN117079336A (zh) | 2023-11-17 |
CN117079336B CN117079336B (zh) | 2023-12-22 |
Family
ID=88717564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311333924.9A Active CN117079336B (zh) | 2023-10-16 | 2023-10-16 | 样本分类模型的训练方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117079336B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020029356A1 (zh) * | 2018-08-08 | 2020-02-13 | 杰创智能科技股份有限公司 | 一种基于生成对抗网络的脸部变化预测方法 |
CN112766189A (zh) * | 2021-01-25 | 2021-05-07 | 北京有竹居网络技术有限公司 | 深度伪造检测方法、装置、存储介质及电子设备 |
CN113111776A (zh) * | 2021-04-12 | 2021-07-13 | 京东数字科技控股股份有限公司 | 对抗样本的生成方法、装置、设备及存储介质 |
CN114241569A (zh) * | 2021-12-21 | 2022-03-25 | 中国电信股份有限公司 | 人脸识别攻击样本的生成方法、模型训练方法及相关设备 |
US20220180172A1 (en) * | 2020-12-07 | 2022-06-09 | International Business Machines Corporation | Adaptive robustness certification against adversarial examples |
CN114821823A (zh) * | 2022-04-12 | 2022-07-29 | 马上消费金融股份有限公司 | 图像处理、人脸防伪模型的训练及活体检测方法和装置 |
CN114882557A (zh) * | 2022-04-28 | 2022-08-09 | 京东科技信息技术有限公司 | 一种人脸识别方法和装置 |
CN114998960A (zh) * | 2022-05-28 | 2022-09-02 | 华南理工大学 | 一种基于正负样本对比学习的表情识别方法 |
CN115240280A (zh) * | 2022-03-29 | 2022-10-25 | 浙大城市学院 | 人脸活体检测分类模型的构建方法、检测分类方法及装置 |
DE202022107266U1 (de) * | 2022-12-28 | 2023-01-25 | Krishna Prakash Karvankodlu | Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern |
CN115880530A (zh) * | 2022-12-02 | 2023-03-31 | 支付宝(杭州)信息技术有限公司 | 对抗攻击的检测方法和系统 |
CN115909441A (zh) * | 2022-11-07 | 2023-04-04 | 中国科学院自动化研究所 | 人脸识别模型建立方法、人脸识别方法和电子设备 |
US20230162530A1 (en) * | 2021-11-25 | 2023-05-25 | Nec Corporation | Facial recognition adversarial patch adjustment |
CN116631023A (zh) * | 2023-04-12 | 2023-08-22 | 浙江大学 | 一种基于重建损失的换脸图像检测方法和装置 |
-
2023
- 2023-10-16 CN CN202311333924.9A patent/CN117079336B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020029356A1 (zh) * | 2018-08-08 | 2020-02-13 | 杰创智能科技股份有限公司 | 一种基于生成对抗网络的脸部变化预测方法 |
US20220180172A1 (en) * | 2020-12-07 | 2022-06-09 | International Business Machines Corporation | Adaptive robustness certification against adversarial examples |
CN112766189A (zh) * | 2021-01-25 | 2021-05-07 | 北京有竹居网络技术有限公司 | 深度伪造检测方法、装置、存储介质及电子设备 |
CN113111776A (zh) * | 2021-04-12 | 2021-07-13 | 京东数字科技控股股份有限公司 | 对抗样本的生成方法、装置、设备及存储介质 |
US20230162530A1 (en) * | 2021-11-25 | 2023-05-25 | Nec Corporation | Facial recognition adversarial patch adjustment |
CN114241569A (zh) * | 2021-12-21 | 2022-03-25 | 中国电信股份有限公司 | 人脸识别攻击样本的生成方法、模型训练方法及相关设备 |
CN115240280A (zh) * | 2022-03-29 | 2022-10-25 | 浙大城市学院 | 人脸活体检测分类模型的构建方法、检测分类方法及装置 |
CN114821823A (zh) * | 2022-04-12 | 2022-07-29 | 马上消费金融股份有限公司 | 图像处理、人脸防伪模型的训练及活体检测方法和装置 |
CN114882557A (zh) * | 2022-04-28 | 2022-08-09 | 京东科技信息技术有限公司 | 一种人脸识别方法和装置 |
CN114998960A (zh) * | 2022-05-28 | 2022-09-02 | 华南理工大学 | 一种基于正负样本对比学习的表情识别方法 |
CN115909441A (zh) * | 2022-11-07 | 2023-04-04 | 中国科学院自动化研究所 | 人脸识别模型建立方法、人脸识别方法和电子设备 |
CN115880530A (zh) * | 2022-12-02 | 2023-03-31 | 支付宝(杭州)信息技术有限公司 | 对抗攻击的检测方法和系统 |
DE202022107266U1 (de) * | 2022-12-28 | 2023-01-25 | Krishna Prakash Karvankodlu | Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern |
CN116631023A (zh) * | 2023-04-12 | 2023-08-22 | 浙江大学 | 一种基于重建损失的换脸图像检测方法和装置 |
Non-Patent Citations (2)
Title |
---|
HAO DANG ET AL.: "On the Detection of Digital Face Manipulation", 《ARXIV.》, pages 1 - 12 * |
黄诗瑀等: "人脸伪造与检测中的对抗攻防综述", 《网络与信息安全学报》, vol. 9, no. 4, pages 1 - 15 * |
Also Published As
Publication number | Publication date |
---|---|
CN117079336B (zh) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021077984A1 (zh) | 对象识别方法、装置、电子设备及可读存储介质 | |
US20200272888A1 (en) | Neural network for skeletons from input images | |
US20220172518A1 (en) | Image recognition method and apparatus, computer-readable storage medium, and electronic device | |
CN112052761A (zh) | 一种对抗人脸图像的生成方法和装置 | |
CN104751140A (zh) | 一种基于深度学习sdae理论的三维人脸识别算法及其在金融领域应用 | |
CN114037838A (zh) | 神经网络的训练方法、电子设备及计算机程序产品 | |
WO2023016137A1 (zh) | 脸部图像处理方法、装置、设备以及存储介质 | |
CN114241587B (zh) | 人脸活体检测对抗鲁棒性的评估方法及装置 | |
Liu et al. | A two-stage generative adversarial networks with semantic content constraints for adversarial example generation | |
Arora et al. | A review of techniques to detect the GAN-generated fake images | |
CN114707589A (zh) | 对抗样本的生成方法、装置、存储介质、设备及程序产品 | |
CN112308093B (zh) | 基于图像识别的空气质量感知方法、模型训练方法及系统 | |
CN117079336B (zh) | 样本分类模型的训练方法、装置、设备及存储介质 | |
CN113343898B (zh) | 基于知识蒸馏网络的口罩遮挡人脸识别方法、装置及设备 | |
CN113542527B (zh) | 一种人脸图像传输方法、装置、电子设备及存储介质 | |
CN115708135A (zh) | 人脸识别模型的处理方法、人脸识别方法及装置 | |
CN115082873A (zh) | 基于通路融合的图像识别方法、装置及存储介质 | |
CN115880740A (zh) | 人脸活体检测方法、装置、计算机设备和存储介质 | |
CN114677611A (zh) | 数据识别方法、存储介质及设备 | |
Kaur et al. | Improved Facial Biometric Authentication Using MobileNetV2 | |
CN113011387B (zh) | 网络训练及人脸活体检测方法、装置、设备及存储介质 | |
CN117576245B (zh) | 一种图像的风格转换方法、装置、电子设备及存储介质 | |
Ingale et al. | Deep Learning for Crowd Image Classification for Images Captured Under Varying Climatic and Lighting Condition | |
CN110222573B (zh) | 人脸识别方法、装置、计算机设备及存储介质 | |
Leonov et al. | An algorithm of face recognition based on generative adversarial networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |