CN116503923A - 训练人脸识别模型的方法及装置 - Google Patents
训练人脸识别模型的方法及装置 Download PDFInfo
- Publication number
- CN116503923A CN116503923A CN202310143217.7A CN202310143217A CN116503923A CN 116503923 A CN116503923 A CN 116503923A CN 202310143217 A CN202310143217 A CN 202310143217A CN 116503923 A CN116503923 A CN 116503923A
- Authority
- CN
- China
- Prior art keywords
- sample
- face recognition
- recognition model
- samples
- sample set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000012549 training Methods 0.000 title claims abstract description 41
- 230000006870 function Effects 0.000 claims description 83
- 238000004590 computer program Methods 0.000 claims description 20
- 238000011478 gradient descent method Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 7
- 230000003042 antagnostic effect Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 description 9
- 241000282414 Homo sapiens Species 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请提供一种训练人脸识别模型的方法及装置,所述方法包括:基于第一样本集合,训练得到第一人脸识别模型,所述第一样本集合包括至少一个样本;基于自步学习从第二样本集合中获取第三样本集合,所述第二样本集合包括所述第一样本集合和第四样本集合,所述第四样本集合包括至少一个样本,所述第四样本集合中的任一样本为基于所述第一样本集合中的任一样本生成的对抗样本,所述第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,所述第五样本集合包括所述第二样本集合中除所述第三样本集合之外的其他样本;基于所述第三样本集合,对所述第一人脸识别模型进行优化,得到第二人脸识别模型。
Description
技术领域
本申请属于机器视觉技术领域,尤其涉及一种训练人脸识别模型的方法及装置。
背景技术
人脸识别技术是一种识别准确率高、使用便捷的生物特征识别技术。目前,人脸识别技术已经在安防、考勤和移动支付等众多场合中得到了广泛的应用。随着人脸识别技术的广泛应用,保证人脸识别系统的安全性也越来越受到重视。
现有技术中,可以在用于训练人脸识别模型的样本中添加扰动,从而得到对抗样本,然后通过对抗样本对人脸识别模型进行对抗训练,进而提高人脸识别模型的鲁棒性。但由于人脸识别模型对于对抗样本的抗干扰能力较差,因此,传统的技术方案中难以有效提升人脸识别模型的鲁棒性。
发明内容
本申请的目的在于提供一种训练人脸识别模型的方法及装置,旨在解决传统的人脸识别模型对于对抗样本的抗干扰能力较差的问题。
本申请实施例的第一方面提出了一种训练人脸识别模型的方法,所述方法包括:
基于第一样本集合,训练得到第一人脸识别模型,所述第一样本集合包括至少一个样本;
基于自步学习(Self-Paced Learning,SPL)从第二样本集合中获取第三样本集合,所述第二样本集合包括所述第一样本集合和第四样本集合,所述第四样本集合包括至少一个样本,所述第四样本集合中的任一样本为基于所述第一样本集合中的任一样本生成的对抗样本,所述第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,所述第五样本集合包括所述第二样本集合中除所述第三样本集合之外的其他样本;
基于所述第三样本集合,对所述第一人脸识别模型进行优化,得到第二人脸识别模型。
在一些实施方式中,所述方法还包括:
通过所述第一样本集合中每个样本对应的损失函数,对所述第一样本集合中的每个样本添加扰动,得到所述第四样本集合。
在一些实施方式中,所述对所述第一样本集合中的每个样本添加扰动,包括:
通过投影梯度下降法(Projected Gradient Descent,PGD)对所述第一样本集合中的每个样本添加扰动。
在一些实施方式中,所述第三样本集合中任一样本的损失函数小于所述第五样本集合中任一样本的损失函数。
在一些实施方式中,所述基于所述第三样本集合,对所述第一人脸识别模型进行优化,得到第二人脸识别模型,包括:
基于所述第三样本集合构建第一三元组集合,所述第一三元组集合包括多个三元组,每个三元组包括所述第三样本集合中的三个样本;
基于所述第一三元组集合对所述第一人脸识别模型进行优化,得到所述第二人脸识别模型。
在一些实施方式中,所述基于所述第一三元组集合对所述第一人脸识别模型进行优化,得到所述第二人脸识别模型,包括:
基于自步学习从所述第一三元组集合中获取第二三元组集合,所述第二三元组集合包括至少一个三元组,所述第二三元组集合包括的每个三元组的损失函数的平均值,小于所述第一三元组集合中除所述第二三元组集合之外其他三元组的损失函数的平均值;
基于所述第二三元组集合对所述第一人脸识别模型进行优化,得到所述第二人脸识别模型。
在一些实施方式中,所述第二人脸识别模型为基于facenet的模型,所述方法还包括:
通过所述第二人脸识别模型获取待识别图像的第一向量以及预设图像的第二向量;
通过所述第二人脸识别模型基于所述第一向量和所述第二向量的之间的距离,输出对所述待识别图像的识别结果,所述识别结果用于指示所述待识别图像与所述预设图像是否包括同一人脸。
本申请实施例的第二方面提出了一种训练人脸识别模型的装置,所述装置还包括:
训练模块,用于基于第一样本集合,训练得到第一人脸识别模型,所述第一样本集合包括至少一个样本;
获取模块,用于基于自步学习从第二样本集合中获取第三样本集合,所述第二样本集合包括所述第一样本集合和第四样本集合,所述第四样本集合包括至少一个样本,所述第四样本集合中的任一样本为基于所述第一样本集合中的任一样本生成的对抗样本,所述第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,所述第五样本集合包括所述第二样本集合中除所述第三样本集合之外的其他样本;
优化模块,用于基于所述第三样本集合,对所述第一人脸识别模型进行优化,得到第二人脸识别模型。
本申请实施例的第三方面提出了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述方法的步骤。
本申请实施例的第四方面提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:
在本申请实施例中,可以基于第一样本集合,训练得到第一人脸识别模型,基于自步学习从第二样本集合中获取第三样本集合,其中第二样本集合包括第一样本集合和第四样本集合,第四样本集合中的任一样本为基于第一样本集合中的任一样本生成的对抗样本。由于第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,第五样本集合包括该第二样本集合中除该第三样本之外的其他样本,即第三样本集合中的样本的复杂程度比第五样本集合中的样本的复杂程度低,因此先从第二样本集合中获取复杂程序较小的样本对第一人脸识别模型进行优化,进而逐渐增加对第一人脸识别模型进行优化所选择的样本的复杂程度,能够从简单到复杂,更准确地对第二样本集合中各样本进行学习,提高了第二人脸识别模型的对对抗样本攻击的抗干扰能力,即提高了第二人脸识别模型的准确性和可靠性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的训练人脸识别模型的框架示意图;
图2为本申请实施例提供的一种训练人脸识别模型的方法的流程示意图;
图3为本申请实施例提供的一种对第一人脸识别模型进行优化的方法的流程示意图;
图4为本申请实施例提供的一种获取第三样本集合的方法的流程示意图;
图5为本申请实施例提供的一种确定三元组的损失函数的方法的流程示意图;
图6为本申请提供的本申请实施例提供的一种识别人脸图像的方法的流程示意图;
图7为本申请实施例提供的另一种训练人脸识别模型的方法的流程示意图;
图8为本申请实施例提供的一种训练人脸识别模型的装置的框图;
图9为本申请实施例提供的电子设备的示意图。
具体实施方式
为了使本申请所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元件上。
需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
生物特征识别技术指的是根据人体固有的生理特征和行为特征,结合计算机与光学、声学、生物传感器和生物统计学原理等技术手段来进行个人身份的鉴定。人脸识别技术是一种识别准确高,使用便捷的生物特征识别技术。其中,人脸作为一种生物特征,具有唯一性、一致性以及不可复制性,且人脸包含丰富的特征,为身份鉴定提供了稳定的条件,此外,人脸图像采集不需要人工操作,属于非接触式识别,具有采集便捷,用户易于接受,识别准确率高的特点。目前人脸识别技术已经有了非常广泛的应用,例如学校公司使用人脸识别进行考勤,在移动支付中使用人脸识别进行付款验证等等。
随着人脸识别技术的应用领域越来越多,保证人脸识别系统的安全性也越来越受到重视。对抗攻击是一种能够有效攻击机器学习模型的方法,是在待分类图像上添加扰动,导致人脸识别模型在对该图像分类时产生意想不到的输出结果,同时要保证添加扰动后的图像在视觉上(对人类而言)与原始图像相似。其中,添加了扰动后的图像就被称作对抗样本。此外,通过对抗样本对人脸识别模型进行对抗训练,可以提高人脸识别模型的鲁棒性。但机器学习模型在面对对抗样本时较为脆弱,容易受到对抗样本的攻击,因此,为解决上述至少部分技术问题,需要提供一种训练人脸识别模型的方法,来提升人脸识别模型的鲁棒性,以使得人脸识别模型能够可靠准确地对人脸进行识别。
请参照图1,为本申请实施例所提供的训练人脸识别模型的框架示意图。通过第一样本集合训练得到第一人脸识别模型,然后对第一样本集合进行投影梯度下降法攻击,得到第四样本集合。通过第一人脸识别模型对第一样本集合中包括的样本和第四样本集合包括的样本进行识别,即预测第一样本集合和第四样本集合中的样本的分类标签。通过第一样本集合和第四样本集合,对第一人脸识别模型进行自步学习训练,进而对第一人脸识别模型进行优化,优化后的第一人脸识别模型具有更高的准确性和可靠性。
图2示出了本申请实施例提供的一种训练人脸识别模型的方法的流程示意图。如图2所示,该方法包括:
S201,基于第一样本集合,训练得到第一人脸识别模型,第一样本集合包括至少一个样本。
在一些实施方式中,第一人脸识别模型可以为基于facenet的人脸识别模型。
其中,基于facenet的人脸识别模型能够直接学习到从包括人脸的图像到紧凑欧几里得空间的映射网络,这里使用基于使用深度卷积网络学习每个图像的欧几里得映射结果,该网络经过训练,可以使得嵌入空间中的L2距离能够直接对应于人脸相似度,即使用两个人脸图像在映射到欧几里得空间后到距离来表示人脸的相似性,使得来自同一个人的人脸图像间的距离较小,不同人的人脸图像之间的距离较大。距离越小,表示这两个面部图像越相似,越有可能来自于同一个人,反之则不相似。在训练得到该空间的映射网络后,就可以将facenet嵌入作为特征向量用于进行人脸验证的任务,可以通过对两个嵌入之间的距离进行阈值处理,当距离大于或等于预设的距离阈值时,判断两张人脸图像属于不同的人,当小于该距离阈值时,判断两张人脸图像属于同一人,即验证通过。
在一些实施方式中,基于facenet的人脸识别模型中可以包括inception网络。其中,inception网络包括多个大小不同的卷积核,从而具有大小不同的感受野,能够提取不同尺寸的特征并进行融合,该网络能够显著地增加网络中每一层得到神经元的个数,还能够减少计算量的增长,还能够使得人脸识别模型中的各层之inception-v1网络来提取人脸图像的特征。
在一些实施方式中,inception网络可以包括inception-v1网络。inception-v1网络。当人脸识别模型中上一层输出的通道数较大时,当前层模块的运算量会过大,因此inception-v1使用了1×1的卷积核作为reduction层,在每一个3×3和5×5的卷积层之前,加上一个1×1的卷积层,用来减少通道数量,从而减少模型的计算量,此外,还引入了非线形运算,进一步增加了网络的表达能力间传递大量的特征。
可以理解的是,在实际应用中,第一人脸识别模型也可以为通过其他方式进行人脸识别的模型。
第一样本集合可以包括至少一个样本。其中,每个样本可以包括图像以及该图像对应的分类标签。在一些实施方式中,该图像中可以包括人脸,该图像也可以称为人脸图像。在一些实施方式中,该图像的分类标签可以用于指示该图像中是否包括人脸,或者,该图像的分类标签可以用于指示该图像中是否包括特定人脸。
在一些实施方式中,可以接收相关技术人员提交的第一样本集合,或者,可以从其他设备获取第一样本集合。当然,在实际应用中,也可以通过其他方式来获取第一样本集合,本申请实施例对获取第一样本集合的方式不进行限定。
在一些实施方式中,可以将第一样本集合包括的样本输入第一人脸识别模型,得到每个样本的损失函数,根据每个样本的损失函数调整第一人脸识别模型中的参数,从而对第一人脸识别模型进行训练。
S202,通过第一样本集合中每个样本对应的损失函数,对第一样本集合中的每个样本添加扰动,得到第四样本集合。
通过第一样本集合中每个样本对应的损失函数,对第一样本集合中的每个样本添加扰动,可以得到第一样本集合中每个样本对应的对抗样本,这些对抗样本可以作为第四样本集合。也即是,第四样本集合可以包括至少一个样本,且第四样本集合中的任一个样本是通过对第一样本集合中的任一样本添加扰动得到的。
在一些实施方式中,可以通过快速梯度符号攻击法对第一样本集合中的每个样本添加扰动。快速梯度符号攻击法可以计算样本的损失函数相对于该样本的梯度,并通过将选择的小的常数系数乘以梯度的符号向量来产生一个小扰动,将扰动添加到该样本中,从而生成该样本对应的对抗样本。
在一些实施方式中,通过快速梯度符号攻击法对第一样本集合中的每个样本添加扰动的方式,可以表示为下述公式1。
其中,输入x可以为第一样本集合中样本,在一些实施方式中,可以为图像x;是损失函数相对于输入x的梯度;∈是一个常数,用来控制添加扰动的强度,在模型为深度神经网络的情况下,这可以通过反向传播算法来计算,同时,为了保证生成的对抗样本对于人眼来说是不可察觉的,需要将扰动限制在一定的范围内;x'是添加扰动后的样本,即对抗样本。
在一些实施方式中,可以通过投影梯度下降法对第一样本集合中的每个样本添加扰动。投影梯度下降法是快速梯度符号攻击法的一种迭代版本。投影梯度下降法能够多次在样本中添加较小的扰动,减少在样本中添加的扰动被人眼察觉的问题。另外,投影梯度下降法能够提高生成对抗样本的效率。
在一些实施方式中,通过投影梯度下降法对第一样本集合中的每个样本添加扰动的方式,可以表示为下述公式2。
xt+1=x'+∏(asign(L(x,y))) (2)
其中,输入x可以为第一样本集合中样本,在一些实施方式中,可以为图像x;x'表示前一次运算中添加扰动后生成的样本;xt+1表示当前第t次迭代中生成的对抗样本;L表示损失函数;α表示控制单次迭代生成的扰动的强度;y表示样本的分类标签。
在一些实施方式中,可以按照如上述公式2所示的方式,多次向第一样本集合中的样本添加扰动,并在向该样本中添加的扰动的强度大于或等于预设的强度阈值时,输出添加扰动后的样本,或者,在向第一样本集合中的样本添加扰动的迭代次数大于或等于预设的次数阈值时,输出添加扰动后的样本。
在一些实施方式中,当向第一样本集合中的样本添加的扰动的强度小于强度阈值时,可以使得该扰动难以被人眼察觉。
在一些实施方式中,次数阈值可以为50-100之间的任意数值。
需要说明的是,本申请实施例不对设置强度阈值和次数阈值的方式、强度阈值的数值大小和次数阈值的数值大小进行限定。
可以理解的是,在实际应用中,也可以通过其他方式来基于第一样本集合获取第四样本集合。
S203,基于第二样本集合,对第一人脸识别模型进行优化,第二样本集合包括第一样本集合和第四样本集合。
由于第二样本集合包括第一样本集合和第四样本集合,第四样本集合中的任一个样本是通过对第一样本集合中的任一样本添加扰动得到的,因此通过第二样本集合对第一人脸识别模型进行优化,可以提高第一人脸识别模型对对抗样本攻击的鲁棒性,即提高第一人脸识别模型对人脸进行识别的准确性和可靠性。
在一些实施方式中,对第一人脸识别模型进行优化,可以包括对第一人脸识别模型中的至少一个参数进行调整。
在一些实施方式中,可以基于第二样本集合中每个样本的复杂程度,从第二样本集合中获取复杂程度较低的Q个样本,通过该Q个样本对第一人脸识别模型进行优化,再从第二样本集合中获取复杂程度较高的M个样本,通过该M个样本对优化后的第一人脸识别模型再次优化,……,以此类推,直至优化后的第一人脸识别模型识别样本的准确率达到预设的准确率阈值。其中,Q和M为大于或等于1的整数,且M可以大于或等于Q。也即是,可以先从第二样本集合中获取复杂程度较低、数量较少的样本,对第一人脸识别模型进行优化,然后逐渐增加对第一人脸识别模型进行优化的样本的复杂程度和数量,使得第一人脸识别模型能够从容易的样本识别,逐渐过渡到困难的样本识别,从而提高第一人脸识别模型的准确性。
S204,基于优化后的第一人脸识别模型,对待识别图像进行识别。
当对第一人脸识别模型优化完成时,可以通过优化后的第一人脸识别模型对待识别图像进行准确地识别。
在一些实施方式中,可以将待识别图像输入至优化后的第一人脸识别模型,从而得到第一人脸识别模型对该待识别图像的识别结果。在一些实施方式中,第一人脸识别模型对该待识别图像的识别结果,可以用于指示该待识别图像中是否包括预设的人脸。
需要说明的是,S204为可选的步骤。
还需要说明的是,训练第一人脸识别模型的设备、优化第一人脸识别模型的设备以及通过优化后的第一人脸识别模型对待识别图像进行识别的设备,可以为不同的设备。
在本申请实施例中,可以基于第一样本集合,训练得到第一人脸识别模型,通过第一样本集合中每个样本对应的损失函数,对第一样本集合中的每个样本添加扰动,得到第四样本集合,然后基于第二样本集合,对第一人脸识别模型进行优化。由于第二样本集合包括第一样本集合和第四样本集合,第四样本集合中的任一个样本是通过对第一样本集合中的任一样本添加扰动得到的,因此通过第二样本集合对第一人脸识别模型进行优化,可以提高第一人脸识别模型对对抗样本攻击的鲁棒性,即提高第一人脸识别模型对人脸进行识别的准确性和可靠性。
图3示出了本申请实施例提供的一种对第一人脸识别模型进行优化的方法的流程示意图。该方法可以作为图2中S203的详细描述。如图3所示,该方法包括:
S301,基于自步学习,从第二样本集合获取第三样本集合,第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,第五样本集合包括第二样本集合中除第三样本集合之外的其他样本。
在一些实施方式中,第三样本集合中任一样本的损失函数小于第五样本集合中任一样本的损失函数。
其中,第二样本集合包括第一样本集合和第四样本集合,第四样本集合包括至少一个样本,第四样本集合中的任一样本为基于第一样本集合中的任一样本生成的对抗样本。
在一些实施方式中,可以将第二样本集合输入至第一人脸识别模型,从而通过第一人脸识别模型获取第二样本集合中每个样本的损失函数。
样本的损失函数可以用于指示该样本的复杂程度。当该样本的损失函数越大时,该样本的复杂程度也越高;当该样本的损失函数越小时,该样本的复杂程度也越低。基于自步学习从第二样本集合获取第三样本集合,第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,也即是,基于自步学习从第二样本集合中获取复杂程度较低的样本作为第三样本集合。
其中,自步学习是一种机器学习方法,可以模仿人类学习从简单到困难的过程,先选择简单的样本并对简单的样本进行学习,然后选择复杂的样本并对复杂的样本进行学习。自步学习有助于避免不良的局部最小值同时能够获得更好的泛化结果。
在一些实施方式中,基于自步学习从第二样本集合获取第三样本集合的方式,可以如下公式3所示。
其中,w表示模型中的参数;f(xi,yi,w)表示待优化的第一人脸识别模型的损失函数;n表示第二样本集合中包括的样本数目;xi表示第二样本集合中的第i个样本;yi表示样本xi对应的类别标签;k表示第三样本集合中的样本数目;τ是一个常数;vi可以为0或1,当vi为0时表示xi不是第三样本集合中的样本,当vi为1时表示xi是第三样本集合中的样本;用来约束vi的数值大小,从而控制第三样本集合中包括的样本数目的大小。
在一些实施方式中,当基于自步学习从第二样本集合获取第三样本集合时,随着迭代次数的增大,可以逐步减少k的数值大小,从而使得第三样本集合中包括的样本数目逐渐增大,即使得对第一人脸识别模型进行优化所采用的样本数目逐渐增大。在一些实施方式中,对第一人脸识别模型进行优化,也即是确定使得是能够得到使得f(xi,yi,w)最小的w的值。
S302,基于第三样本集合,对第一人脸识别模型进行优化,得到第二人脸识别模型。
在一些实施方式中,第二人脸识别模型,可以为优化后的第一人脸识别模型进行优化后的。
在一些实施方式中,可以基于第三样本集合构建第一三元组集合,第一三元组集合包括多个三元组,每个三元组包括第三样本集合中的三个样本,基于第一三元组集合对第一人脸识别模型进行优化,得到第二人脸识别模型。通过三元组对第一人脸识别模型进行优化,提高了来自同一人脸的图像之间的一致性,增加了来自不同人脸的图像之间的差异性,能够提高人脸识别模型的准确性。
在一些实施方式中,一个三元组中包括三个样本,这个三个样本包括一个作为锚点的图像、一个与该锚点中包括的人脸匹配的图像(也可以称为正样本)、一个与该锚点中包括的人脸不匹配的图像(也可以称为负样本)。
在一些实施方式中,可以基于自步学习从第一三元组集合中获取第二三元组集合,第二三元组集合包括至少一个三元组,第二三元组集合包括的每个三元组的损失函数的平均值,小于第一三元组集合中除第二三元组集合之外其他三元组的损失函数的平均值,基于第二三元组集合对第一人脸识别模型进行优化,得到第二人脸识别模型。三元组的损失函数可以用于指示该三元组的复杂程度。当该三元组的损失函数越大时,该三元组的复杂程度也越高;当该三元组的损失函数越小时,该三元组的复杂程度也越低。也即是,基于自步学习从第一三元组集合中获取复杂程度较低的样本作为第一三元组集合,从而能够避免不良的局部最小值同时能够获得更好的训练结果,提高优化人脸识别模型的准确性。
在一些实施方式中,第二三元组集合包括的任一个三元组的损失函数,小于第一三元组集合中除第二三元组集合之外任一三元组的损失函数。
在一些实施方式中,在基于第二三元组集合对第一人脸识别模型进行优化之后,还可以再次基于自步学习从第一三元组集合获取新的第二三元组集合,基于新的第二三元组集合,对第一人脸识别模型进行优化。在一些实施方式中,新的第二三元组集合中每个样本的损失函数的平均值,大于历史中第二三元组集合中每个样本的损失函数的平均值,新的第二三元组集合包括的三元组,比历史中对第一人脸识别模型进行优化所采用的第二三元组集合包括的三元组更复杂。在一些实施方式中,新的第二三元组集合包括的三元组数目,大于历史中第二三元组集合包括的三元组数目,即新的第二三元组集合包括的三元组,比历史中对第一人脸识别模型进行优化所采用的第二三元组集合包括的三元组更多。
在一些实施方式中,可以基于自步学习从第一三元组集合获取新的第二三元组集合,基于新的第二三元组集合,对第一人脸识别模型进行优化,直至无法从第一三元组集合中获取到新的第一三元组为止。
在一些实施方式中,可以通过inception网络确定三元组的损失函数。另外,确定三元组的损失函数的方式,也可以参照下图5所示。
在一些实施方式中,可以对优化后的第一人脸识别模型进行测试,并根据测试结果确定是否优化完成。在一些实施方式中,可以将第六样本集合输入至优化后的第一人脸识别模型,得到第六样本集合中每个样本的识别结果,基于第六样本集合中每个样本的识别结果,确定优化后的第一人脸识别模型对第六样本集合识别的准确率,若该准确率大于或等于预设的准确率阈值,则确定对第一人脸识别模型优化完成,若该准确率小于预设的准确率阈值,则继续对优化后的第一人脸识别模型进行优化。其中,第六样本集合可以包括至少一个样本。
在一些实施方式中,若该准确率大于或等于预设的准确率阈值,则可以再次按照与S301-S302相似或相同的方式,基于自步学习从第二样本集合获取新的第三样本集合,基于新的第三样本集合,对第一人脸识别模型进行优化。在一些实施方式中,新的第三样本集合中每个样本的损失函数的平均值,大于历史中第三样本集合中每个样本的损失函数的平均值,新的第三样本集合包括的样本,比历史中对第一人脸识别模型进行优化所采用的第三样本集合包括的样本更复杂。在一些实施方式中,新的第三样本集合包括的样本数目,大于历史中第三样本集合包括的样本数目,即新的第三样本集合包括的样本,比历史中对第一人脸识别模型进行优化所采用的第三样本集合包括的样本更多。
在本申请实施例中,可以基于自步学习从第二样本集合获取第三样本集合,基于第三样本集合,对第一人脸识别模型进行优化,得到第二人脸识别模型,其中,第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,第五样本集合包括第二样本集合中除第三样本集合之外的其他样本。也即是,可以通过自步学习,先从第二样本集合中获取复杂程序较小的样本对第一人脸识别模型进行优化,进而逐渐增加对第一人脸识别模型进行优化所选择的样本的复杂程度,能够从简单到复杂,更准确地对第二样本集合中各样本进行学习,提高了第二人脸识别模型的对对抗样本攻击的抗干扰能力,即提高了第二人脸识别模型的准确性和可靠性。
图4示出了本申请实施例提供的一种获取第三样本集合的方法的流程示意图。该方法可以作为图3中S301的详细描述。如图4所示,该方法包括:
S401,基于第二样本集合中每个样本的损失函数,对第二样本集合包括的样本进行排序,得到排序后的第二样本集合。
基于第二样本集合中每个样本的损失函数,对第二样本集合包括的样本进行排序,可以使得排序后的第二样本集合中的样本,按照第二样本集合中的样本按照损失函数从大到小的顺序或者从小到大的顺序进行排序。
S402,从排序后的第二样本集合中,获取第三样本集合。
可以按照排序后的第二样本集合中各样本的排序,从第二样本集合中获取损失函数较小的样本,从而得到第三样本集合,其中,通过对第二样本集合进行排序,提高了获取第三样本集合的效率和准确性。
在本申请实施例中,可以基于第二样本集合中每个样本的损失函数,对第二样本集合包括的样本进行排序,得到排序后的第二样本集合,排序后的第二样本集合中,获取第三样本集合,通过对第二样本集合进行排序,提高了获取第三样本集合的效率和准确性。
图5示出了本申请实施例提供的一种确定三元组的损失函数的方法的流程示意图。如图5所示,该方法包括:
S501,通过inception(比如inception-v1)网络获取三元组中各样本的特征。
在一些实施方式中,可以将三元组中的锚点、正样本和负样本分别输入至inception网络,得到该inception网络输出的锚点的特征(比如图5中的第三特征)、正样本的特征(比如图5中的第四特征)和负样本的特征(比如图5中的第五特征)。
在一些实施方式中,可以依次将三元组中的锚点、正样本和负样本输入至同一inception网络。在一些实施方式中,可以分别将三元组中的锚点、正样本和负样本输入至不同的inception网络,且当分别将三元组中的锚点、正样本和负样本输入至不同的inception网络时,与锚点对应的inception网络、与正样本对应的inception网络以及与负样本对应的inception网络之间可以共享权重。
S502,基于三元组中各样本的特征,确定该三元组的损失函数。
在一些实施方式中,基于三元组中各样本的特征,确定该三元组的损失函数的方式,可以如下公式4所示。
其中,表示输入的样本;/>表示将/>投影到/>维的欧几里得空间中;/>表示锚点;/>表示正样本,比如同一个人其他角度的人脸图像;/>表示正样本与负样本之间的欧几里得距离;/>表示三元组集合;/>表示构造的人脸分类器;/>表示样本/>对应的类别标签;/>表示交叉熵损失函数;/>表示三元组的损失函数。
其中,x表示输入的样本;f(x)表示将x投影到d维的欧几里得空间中;表示锚点;表示正样本,比如同一个人其他角度的人脸图像;b表示正样本与负样本之间的欧几里得距离;T表示三元组集合;/>表示构造的人脸分类器;yi表示样本xi对应的类别标签;表示交叉熵损失函数;L表示三元组的损失函数。
在本申请实施例中,可以通过inception网络获取三元组中各样本的特征,基于三元组中各样本的特征,确定该三元组的损失函数。inception网络采用了多个大小不同的卷积核,可以有效提取人脸在不同尺度下的特征,进而提高确定三元组的损失函数的准确性。
图6示出了本申请实施例提供的一种识别人脸图像的方法的流程示意图。该方法可以作为前述图2中的S204的详细描述。如图6所示,该方法包括:
S601,通过第二人脸识别模型获取待识别图像的第一特征以及预设图像的第二特征。
在一些实施方式中,待识别图像可以为通过摄像头等视觉设备采集到的图像。当然,在实际应用中,待识别图像也可以为通过其他方式获取到的图像,本申请实施例不对获取待识别图像的方式进行限定。
在一些实施方式中,预设图像可以为用户或者相关技术人员事先提交的图像。例如,在社区等安保场景中,预设图像可以为社区管理人员对该社区的住户进行采集得到的图像。可以理解的是,在实际应用中,也可以通过其他方式来获取该预设图像,本申请实施例不对获取该预设图像的方式进行限定。
在一些方式中,可以获取待识别图像,将待识别图像输入至第二人脸识别模型,得到第二人脸识别模型输出的识别结果。在一些实施方式中,该识别结果可以用于指示待识别图像与预设图像是否匹配。
在一些实施方式中,可以通过第二人脸识别模型中的facenet网络获取待识别图像的第一特征以及预设图像的第二特征。在一些实施方式中,第一特征可以为将待识别图像映射至欧几里得空间得到的第一向量,第二特征将预设图像映射至该欧几里得空间得到的第二向量,经过前述对第二人脸识别模型的训练,第一向量和第二向量之间的距离能够准确地表示待识别图像中的人脸与预设图像中的人脸的相似度。
S602,通过第二人脸识别模型比较第一特征和第二特征之间的相似度。若该相似度大于或等于预设的相似度阈值,则确定待识别图像与预设图像匹配。若该相似度小于预设的相似度阈值,则确定待识别图像与预设图像不匹配。
需要说明的是,本申请实施例不对设置相似度阈值的方式以及相似度阈值的大小进行限定。
在一些实施方式中,第一特征为第一向量,第二特征为第二向量,可以基于通过第二人脸识别模型基于第一向量和第二向量的之间的距离,输出对待识别图像的识别结果,该识别结果用于指示待识别图像与预设图像是否包括同一人脸。其中,当第一向量和第二向量之间的距离小于预设的距离阈值时,该识别结果用于指示待识别图像与预设图像匹配,即待识别图像中的人脸与预设图像中的人脸包括同一人脸。当第一向量和第二向量之间的距离大于或等于预设的距离阈值时,该识别结果用于指示待识别图像与预设图像不匹配,即待识别图像中的人脸与预设图像中的人脸为不同的人脸。
其中,该距离阈值可以与相似度阈值成反相关。
在本申请实施例中,可以通过第二人脸识别模型获取待识别图像的第一特征以及预设图像的第二特征,通过第二人脸识别模型比较第一特征和第二特征之间的相似度。若该相似度大于或等于预设的相似度阈值,则确定待识别图像与预设图像匹配。若该相似度小于预设的相似度阈值,则确定待识别图像与预设图像不匹配。由于第二人脸识别模型为基于facenet的人脸识别模型,因此提高了人脸识别的准确性和效率。
图7示出了本申请实施例提供的另一种训练人脸识别模型的方法的流程示意图。
S701,基于第一样本集合,训练得到第一人脸识别模型,第一样本集合包括至少一个样本。
需要说明的是,S701中基于第一样本集合,训练得到第一人脸识别模型的方式,可以参见前述S201中的相关描述,此处不再一一赘述。
S702,基于自步学习从第二样本集合中获取第三样本集合,第二样本集合包括第一样本集合和第四样本集合,第四样本集合包括至少一个样本,第四样本集合中的任一样本为基于第一样本集合中的任一样本生成的对抗样本,第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,第五样本集合包括第二样本集合中除第三样本集合之外的其他样本。
需要说明的是,S702中基于自步学习从第二样本集合中获取第三样本集合的方式,可以参见前述S301以及S401-S402中的相关描述,此处不再一一赘述。
S703,基于第三样本集合,对第一人脸识别模型进行优化,得到第二人脸识别模型。
需要说明的是,S703中基于第三样本集合,对第一人脸识别模型进行优化的方式,可以参见前述S302中的相关描述,此处不再一一赘述。
在本申请实施例中,可以基于第一样本集合,训练得到第一人脸识别模型,基于自步学习从第二样本集合中获取第三样本集合,其中第二样本集合包括第一样本集合和第四样本集合,第四样本集合中的任一样本为基于第一样本集合中的任一样本生成的对抗样本。由于第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,第五样本集合包括该第二样本集合中除该第三样本之外的其他样本,即第三样本集合中的样本的复杂程度比第五样本集合中的样本的复杂程度低,因此先从第二样本集合中获取复杂程序较小的样本对第一人脸识别模型进行优化,进而逐渐增加对第一人脸识别模型进行优化所选择的样本的复杂程度,能够从简单到复杂,更准确地对第二样本集合中各样本进行学习,提高了第二人脸识别模型的对对抗样本攻击的抗干扰能力,即提高了第二人脸识别模型的准确性和可靠性。
图8示出了本申请实施例提供的一种训练人脸识别模型的装置800。该装置包括:
训练模块801,用于基于第一样本集合,训练得到第一人脸识别模型,第一样本集合包括至少一个样本;
获取模块802,用于基于自步学习从第二样本集合中获取第三样本集合,第二样本集合包括第一样本集合和第四样本集合,第四样本集合包括至少一个样本,第四样本集合中的任一样本为基于第一样本集合中的任一样本生成的对抗样本,第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,第五样本集合包括第二样本集合中除第三样本集合之外的其他样本;
优化模块803,用于基于第三样本集合,对第一人脸识别模型进行优化,得到第二人脸识别模型。
在一些实施方式中,该装置800还用于:
通过第一样本集合中每个样本对应的损失函数,对第一样本集合中的每个样本添加扰动,得到第四样本集合。
在一些实施方式中,该装置800还用于:
通过投影梯度下降法对第一样本集合中的每个样本添加扰动。
在一些实施方式中,第三样本集合中任一样本的损失函数小于第五样本集合中任一样本的损失函数。
在一些实施方式中,优化模块803具体用于:
基于第三样本集合构建第一三元组集合,第一三元组集合包括多个三元组,每个三元组包括第三样本集合中的三个样本;
基于第一三元组集合对第一人脸识别模型进行优化,得到第二人脸识别模型。
在一些实施方式中,优化模块803具体用于:
基于自步学习从第一三元组集合中获取第二三元组集合,第二三元组集合包括至少一个三元组,第二三元组集合包括的每个三元组的损失函数的平均值,小于第一三元组集合中除第二三元组集合之外其他三元组的损失函数的平均值;
基于第二三元组集合对第一人脸识别模型进行优化,得到第二人脸识别模型。
在一些实施方式中,第二人脸识别模型为基于facenet的模型,该装置800还用于:
通过第二人脸识别模型获取待识别图像的第一向量以及预设图像的第二向量;
通过第二人脸识别模型基于所述第一向量和第二向量的之间的距离,输出对待识别图像的识别结果,识别结果用于指示待识别图像与预设图像是否包括同一人脸。
图9示出了本申请实施例提供的电子设备的示意图。如图9所示,该实施例的电子设备9包括:处理器90、存储器91以及存储在所述存储器91中并可在所述处理器90上运行的计算机程序92。所述处理器90执行所述计算机程序92时实现上述各个方法实施例中的步骤。或者,所述处理器90执行所述计算机程序92时实现上述各装置实施例中各模块的功能。
示例性的,所述计算机程序92可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器91中,并由所述处理器90执行,以完成本申请。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令用于描述所述计算机程序92在所述电子设备9中的执行过程。
所述电子设备9可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述电子设备可包括,但不仅限于,处理器90、存储器91。本领域技术人员可以理解,图9仅仅是电子设备9的示例,并不构成对电子设备9的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器90可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器91可以是所述电子设备9的内部存储单元,例如电子设备9的硬盘或内存。所述存储器91也可以是所述电子设备9的外部存储设备,例如所述电子设备9上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器91还可以既包括所述电子设备9的内部存储单元也包括外部存储设备。所述存储器91用于存储所述计算机程序以及所述电子设备所需的其他程序和数据。所述存储器91还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种训练人脸识别模型的方法,其特征在于,所述方法包括:
基于第一样本集合,训练得到第一人脸识别模型,所述第一样本集合包括至少一个样本;
基于自步学习从第二样本集合中获取第三样本集合,所述第二样本集合包括所述第一样本集合和第四样本集合,所述第四样本集合包括至少一个样本,所述第四样本集合中的任一样本为基于所述第一样本集合中的任一样本生成的对抗样本,所述第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,所述第五样本集合包括所述第二样本集合中除所述第三样本集合之外的其他样本;
基于所述第三样本集合,对所述第一人脸识别模型进行优化,得到第二人脸识别模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过所述第一样本集合中每个样本对应的损失函数,对所述第一样本集合中的每个样本添加扰动,得到所述第四样本集合。
3.根据权利要求2所述的方法,其特征在于,所述对所述第一样本集合中的每个样本添加扰动,包括:
通过投影梯度下降法对所述第一样本集合中的每个样本添加扰动。
4.根据权利要求1所述的方法,其特征在于,所述第三样本集合中任一样本的损失函数小于所述第五样本集合中任一样本的损失函数。
5.根据权利要求1所述的方法,其特征在于,所述基于所述第三样本集合,对所述第一人脸识别模型进行优化,得到第二人脸识别模型,包括:
基于所述第三样本集合构建第一三元组集合,所述第一三元组集合包括多个三元组,每个三元组包括所述第三样本集合中的三个样本;
基于所述第一三元组集合对所述第一人脸识别模型进行优化,得到所述第二人脸识别模型。
6.根据权利要求5所述的方法,其特征在于,所述基于所述第一三元组集合对所述第一人脸识别模型进行优化,得到所述第二人脸识别模型,包括:
基于自步学习从所述第一三元组集合中获取第二三元组集合,所述第二三元组集合包括至少一个三元组,所述第二三元组集合包括的每个三元组的损失函数的平均值,小于所述第一三元组集合中除所述第二三元组集合之外其他三元组的损失函数的平均值;
基于所述第二三元组集合对所述第一人脸识别模型进行优化,得到所述第二人脸识别模型。
7.根据权利要求1所述的方法,其特征在于,所述第二人脸识别模型为基于facenet的模型,所述方法还包括:
通过所述第二人脸识别模型获取待识别图像的第一向量以及预设图像的第二向量;
通过所述第二人脸识别模型基于所述第一向量和所述第二向量的之间的距离,输出对所述待识别图像的识别结果,所述识别结果用于指示所述待识别图像与所述预设图像是否包括同一人脸。
8.一种训练人脸识别模型的装置,其特征在于,所述装置还包括:
训练模块,用于基于第一样本集合,训练得到第一人脸识别模型,所述第一样本集合包括至少一个样本;
获取模块,用于基于自步学习从第二样本集合中获取第三样本集合,所述第二样本集合包括所述第一样本集合和第四样本集合,所述第四样本集合包括至少一个样本,所述第四样本集合中的任一样本为基于所述第一样本集合中的任一样本生成的对抗样本,所述第三样本集合中每个样本的损失函数的平均值小于第五样本集合中每个样本的损失函数的平均值,所述第五样本集合包括所述第二样本集合中除所述第三样本集合之外的其他样本;
优化模块,用于基于所述第三样本集合,对所述第一人脸识别模型进行优化,得到第二人脸识别模型。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310143217.7A CN116503923B (zh) | 2023-02-16 | 2023-02-16 | 训练人脸识别模型的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310143217.7A CN116503923B (zh) | 2023-02-16 | 2023-02-16 | 训练人脸识别模型的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116503923A true CN116503923A (zh) | 2023-07-28 |
CN116503923B CN116503923B (zh) | 2023-12-08 |
Family
ID=87317298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310143217.7A Active CN116503923B (zh) | 2023-02-16 | 2023-02-16 | 训练人脸识别模型的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116503923B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583332A (zh) * | 2018-11-15 | 2019-04-05 | 北京三快在线科技有限公司 | 人脸识别方法、人脸识别系统、介质及电子设备 |
CN111325671A (zh) * | 2018-12-13 | 2020-06-23 | 北京嘀嘀无限科技发展有限公司 | 网络训练方法、装置、图像处理方法及电子设备 |
CN112052789A (zh) * | 2020-09-03 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 人脸识别方法、装置、电子设备及存储介质 |
CN112101294A (zh) * | 2020-09-29 | 2020-12-18 | 支付宝(杭州)信息技术有限公司 | 针对图像识别模型的增强训练方法及装置 |
WO2021238586A1 (zh) * | 2020-05-27 | 2021-12-02 | 华为技术有限公司 | 一种训练方法、装置、设备以及计算机可读存储介质 |
WO2021258914A1 (zh) * | 2020-06-24 | 2021-12-30 | 深圳前海微众银行股份有限公司 | 一种序列标注模型的训练方法及装置 |
CN113971442A (zh) * | 2021-10-28 | 2022-01-25 | 西安电子科技大学 | 一种基于自步学习的生成通用对抗扰动方法及系统 |
CN114792438A (zh) * | 2022-03-30 | 2022-07-26 | 深圳市捷顺科技实业股份有限公司 | 一种人脸识别模型构建方法、装置、设备及存储介质 |
CN115240280A (zh) * | 2022-03-29 | 2022-10-25 | 浙大城市学院 | 人脸活体检测分类模型的构建方法、检测分类方法及装置 |
-
2023
- 2023-02-16 CN CN202310143217.7A patent/CN116503923B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583332A (zh) * | 2018-11-15 | 2019-04-05 | 北京三快在线科技有限公司 | 人脸识别方法、人脸识别系统、介质及电子设备 |
CN111325671A (zh) * | 2018-12-13 | 2020-06-23 | 北京嘀嘀无限科技发展有限公司 | 网络训练方法、装置、图像处理方法及电子设备 |
WO2021238586A1 (zh) * | 2020-05-27 | 2021-12-02 | 华为技术有限公司 | 一种训练方法、装置、设备以及计算机可读存储介质 |
WO2021258914A1 (zh) * | 2020-06-24 | 2021-12-30 | 深圳前海微众银行股份有限公司 | 一种序列标注模型的训练方法及装置 |
CN112052789A (zh) * | 2020-09-03 | 2020-12-08 | 腾讯科技(深圳)有限公司 | 人脸识别方法、装置、电子设备及存储介质 |
CN112101294A (zh) * | 2020-09-29 | 2020-12-18 | 支付宝(杭州)信息技术有限公司 | 针对图像识别模型的增强训练方法及装置 |
CN113971442A (zh) * | 2021-10-28 | 2022-01-25 | 西安电子科技大学 | 一种基于自步学习的生成通用对抗扰动方法及系统 |
CN115240280A (zh) * | 2022-03-29 | 2022-10-25 | 浙大城市学院 | 人脸活体检测分类模型的构建方法、检测分类方法及装置 |
CN114792438A (zh) * | 2022-03-30 | 2022-07-26 | 深圳市捷顺科技实业股份有限公司 | 一种人脸识别模型构建方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116503923B (zh) | 2023-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10719693B2 (en) | Method and apparatus for outputting information of object relationship | |
EP3699817A2 (en) | Liveness testing methods and apparatuses and image processing methods and apparatuses | |
WO2020199611A1 (zh) | 活体检测方法和装置、电子设备及存储介质 | |
CN111767900B (zh) | 人脸活体检测方法、装置、计算机设备及存储介质 | |
US20140341443A1 (en) | Joint modeling for facial recognition | |
US11704563B2 (en) | Classifying time series image data | |
CN111401521B (zh) | 神经网络模型训练方法及装置、图像识别方法及装置 | |
US20230095182A1 (en) | Method and apparatus for extracting biological features, device, medium, and program product | |
CN114332578A (zh) | 图像异常检测模型训练方法、图像异常检测方法和装置 | |
CN111325107B (zh) | 检测模型训练方法、装置、电子设备和可读存储介质 | |
CN113379627B (zh) | 图像增强模型的训练方法和对图像进行增强的方法 | |
CN110059607B (zh) | 活体多重检测方法、装置、计算机设备及存储介质 | |
CN113449704B (zh) | 人脸识别模型训练方法、装置、电子设备及存储介质 | |
CN112446322B (zh) | 眼球特征检测方法、装置、设备及计算机可读存储介质 | |
KR20150128510A (ko) | 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치 | |
CN105405130A (zh) | 基于聚类的证照图像高光检测方法及装置 | |
US11335128B2 (en) | Methods and systems for evaluating a face recognition system using a face mountable device | |
KR20220100812A (ko) | 안면 생체 검출 방법, 장치, 전자 기기 및 저장 매체 | |
CN111862040A (zh) | 人像图片质量评价方法、装置、设备及存储介质 | |
Damer et al. | Deep learning-based face recognition and the robustness to perspective distortion | |
CN113033305B (zh) | 活体检测方法、装置、终端设备和存储介质 | |
CN112613471B (zh) | 人脸活体检测方法、装置及计算机可读存储介质 | |
CN116503923B (zh) | 训练人脸识别模型的方法及装置 | |
WO2022126917A1 (zh) | 基于深度学习的人脸图像评估方法、装置、设备及介质 | |
CN111651626B (zh) | 图像分类方法、装置及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |