CN116978087A - 模型更新方法、装置、设备、存储介质及程序产品 - Google Patents
模型更新方法、装置、设备、存储介质及程序产品 Download PDFInfo
- Publication number
- CN116978087A CN116978087A CN202310237157.5A CN202310237157A CN116978087A CN 116978087 A CN116978087 A CN 116978087A CN 202310237157 A CN202310237157 A CN 202310237157A CN 116978087 A CN116978087 A CN 116978087A
- Authority
- CN
- China
- Prior art keywords
- model
- quality
- face
- face image
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 139
- 238000012549 training Methods 0.000 claims abstract description 296
- 230000001815 facial effect Effects 0.000 claims abstract description 191
- 230000004927 fusion Effects 0.000 claims abstract description 131
- 238000007499 fusion processing Methods 0.000 claims abstract description 40
- 238000012216 screening Methods 0.000 claims description 71
- 238000013507 mapping Methods 0.000 claims description 48
- 238000013441 quality evaluation Methods 0.000 claims description 45
- 238000004590 computer program Methods 0.000 claims description 26
- 238000002372 labelling Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 238000013473 artificial intelligence Methods 0.000 description 11
- 238000001914 filtration Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000001303 quality assessment method Methods 0.000 description 11
- 230000003044 adaptive effect Effects 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 230000009467 reduction Effects 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000011403 purification operation Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种模型更新方法、装置、设备、存储介质及程序产品;在本申请实施例中,对训练样本的脸部特征和训练样本的标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征;根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征;对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征;根据调整后融合特征,确定融合特征和调整后融合特征之间的兼容损失值,以及确定脸部识别模型的分类损失值;根据分类损失值和兼容损失值,对脸部识别模型进行训练,得到脸部识别模型更新后的目标脸部识别模型。本申请实施例可以提高目标脸部识别模型的兼容性。
Description
技术领域
本申请涉及图像处理技术领域,具体涉及一种模型更新方法、装置、设备、存储介质及程序产品。
背景技术
随着科学技术的发展,神经网络模型的应用越来越广泛,比如,将神经网络模型应用于人脸识别领域,即通过人脸识别模型提取人脸图像的人脸特征,将人脸特征和人脸库中的特征进行匹配,得到人脸图像的识别结果。
在采用人脸识别模型对人脸图像进行识别的过程中,会根据人脸图像对人脸识别模型进行更新。然而,通过更新后的人脸识别模型提取的人脸特征和人脸库中的特征不兼容,导致需要采用更新后的人脸识别模型重新提取人脸库中人脸图像的特征,耗费的时间较长,导致识别速度较慢。
发明内容
本申请实施例提供一种模型更新方法、装置、设备、存储介质及程序产品,可以解决通过更新后的人脸识别模型重新提取人脸库中人脸图像的特征,耗费的时间较长,识别速度较慢的技术问题。
本申请实施例提供一种模型更新方法,包括:
获取更新脸部识别模型的训练集,上述训练集包括至少一个带标签的训练样本,上述训练样本为上述脸部识别模型历史识别的脸部图像;
对上述训练样本进行特征提取,得到上述训练样本对应的脸部特征,并对上述脸部特征和上述标签对应的目标簇的中心特征进行融合处理,得到上述训练样本的融合特征;
根据上述融合特征和上述脸部特征,对上述目标簇的中心特征进行调整,得到上述目标簇的调整后中心特征;
对上述脸部特征和上述目标簇的调整后中心特征进行融合处理,得到上述训练样本的调整后融合特征;
根据上述调整后融合特征,确定上述融合特征和上述调整后融合特征之间的兼容损失值,以及确定上述脸部识别模型的分类损失值;
根据上述分类损失值和上述兼容损失值,对上述脸部识别模型进行训练,得到上述脸部识别模型更新后的目标脸部识别模型。
相应地,本申请实施例提供一种模型更新装置,包括:
获取模块,用于获取更新脸部识别模型的训练集,上述训练集包括至少一个带标签的训练样本,上述训练样本为上述脸部识别模型历史识别的脸部图像;
提取模块,用于对上述训练样本进行特征提取,得到上述训练样本对应的脸部特征,并对上述脸部特征和上述标签对应的目标簇的中心特征进行融合处理,得到上述训练样本的融合特征;
调整模块,用于根据上述融合特征和上述脸部特征,对上述目标簇的中心特征进行调整,得到上述目标簇的调整后中心特征;
融合模块,用于对上述脸部特征和上述目标簇的调整后中心特征进行融合处理,得到上述训练样本的调整后融合特征;
确定模块,根据上述调整后融合特征,确定上述融合特征和上述调整后融合特征之间的兼容损失值,以及确定上述脸部识别模型的分类损失值;
训练模型,根据上述分类损失值和上述兼容损失值,对上述脸部识别模型进行训练,得到上述脸部识别模型更新后的目标脸部识别模型。
可选地,调整模块具体用于执行:
根据上述融合特征,确定上述训练样本的预测标签;
根据上述脸部特征以及上述预测标签,对上述目标簇的中心特征进行调整,得到上述目标簇的调整后中心特征。
可选地,提取模块具体用于执行:
通过上述脸部识别模型中特征提取层对上述训练样本进行特征提取,得到上述训练样本对应的初始脸部特征;
通过上述脸部识别模型中特征映射层对上述初始脸部特征进行特征映射,得到上述训练样本对应的脸部特征。
可选地,调整模块具体用于执行:
获取上述脸部特征对应的第一方向信息,以及获取上述初始脸部特征的第二方向信息;
根据上述第一方向信息、上述第二方向信息以及上述预测标签,对上述目标簇的中心特征进行调整,得到上述目标簇的调整后中心特征。
可选地,调整模块具体用于执行:
获取上述目标簇的中心特征的第三方向信息;
根据上述第一方向信息、上述第二方向信息、上述第三方向信息以及上述预测标签,对上述目标簇的中心特征进行调整,得到上述目标簇的调整后中心特征。
可选地,融合模块具体用于执行:
对上述调整后融合特征和上述初始脸部特征进行第一融合处理,得到上述训练样本的目标融合特征;
根据上述目标融合特征,确定上述融合特征和上述调整后融合特征之间的兼容损失值。
可选地,模型更新装置还包括:
映射模块,用于获取上述标签对应的目标簇的初始中心特征;
通过上述脸部识别模型的中心映射层,对上述初始中心特征进行映射,得到上述标签对应的目标簇的中心特征。
可选地,获取模块具体用于执行:
获取上述脸部识别模型历史识别的脸部图像;
从上述脸部图像对应的图片簇中筛选出待标注图片簇组,并根据上述待标注图片簇组对上述脸部图像进行标注,得到带标签的脸部图像;
根据上述带标签的脸部图像,确定更新脸部识别模型的训练集。
可选地,获取模块具体用于执行:
获取上述脸部识别模型历史识别的历史脸部图像;
提取上述历史脸部图像的关键点,并根据上述关键点确定上述历史脸部图像对应的质量分数;
将满足预设分数阈值的质量分数对应的历史脸部图像,作为上述脸部识别模型历史识别的脸部图像。
可选地,获取模块具体用于执行:
获取上述历史脸部图像的多个质量模型;
通过上述质量模型,根据上述关键点,确定上述历史脸部图像的多个初始质量分数;
根据上述初始质量分数,确定上述历史脸部图像对应的质量分数。
可选地,上述历史脸部图像存在多个质量评价维度,每个上述质量评价维度对应一个维度质量模型,相应地,获取模块具体用于执行:
通过上述维度质量模型,根据上述关键点,确定上述历史脸部图像针对每个质量评价维度的初始质量分数;
对各个上述初始质量分数进行加权运算,得到上述历史脸部图像对应的质量分数。
可选地,模型更新装置还包括:
训练模块,用于执行:
获取待训练维度质量模型的第一训练集,上述第一训练集包括多个第一训练样本;
提取上述第一训练样本的样本关键点,并根据上述样本关键点,确定上述待训练维度质量模型的成对损失值和/或锚损失值;
根据上述成对损失值和/或锚损失值,对上述待训练维度质量模型进行训练,得到维度质量模型。
可选地,训练模块具体用于执行:
获取上述第一训练样本对应的锚标签,上述锚标签表示上述质量评价维度的级别,上述第一训练集存在至少三种锚标签;
根据上述关键点,确定上述第一训练样本的预测分数;
根据上述锚标签、上述遮挡预测分数以及上述锚标签对应的分数区间,确定上述待训练维度质量模型的锚损失值。
可选地,上述历史脸部图像的多个质量模型包括第一综合质量模型和第二综合质量模型,相应地,获取模块具体用于执行:
通过上述第一综合质量模型,根据上述关键点,确定上述历史脸部图像对应的第一初始质量分数;
通过上述第二综合质量模型,根据上述关键点,确定上述历史脸部图像对应的第二初始质量分数;
从上述第一初始质量分数和上述第二初始质量分数中,筛选出上述历史脸部图像对应的质量分数。
可选地,获取模块具体用于执行:
获取预设筛选阈值;
若上述第一初始质量分数和上述第二初始质量分数均小于或等于上述预设筛选阈值,则将上述第一初始质量分数,作为上述历史脸部图像对应的质量分数;
若上述第一初始质量分数和上述第二初始质量分数均大于上述预设筛选阈值,则将上述第二初始质量分数,作为上述历史脸部图像对应的质量分数。
可选地,获取模块具体用于执行:
根据上述脸部图像对应的图片簇中脸部特征,确定上述脸部图像对应的图片簇之间的关联度;
根据上述关联度,从上述脸部图像对应的图片簇中,筛选出待标注图片簇组。
可选地,获取模块具体用于执行:
根据上述脸部图像对应的图片簇和上述关联度构建数据结构,上述数据结构包括多个节点和多条边,每个上述节点表示上述脸部图像对应的图片簇,上述边的权重表示上述脸部图像对应的图片簇之间的关联度;
根据上述数据结构中边的权重,对上述数据结构进行环形调整,得到不包含环形连接的数据结构;
从上述不包含环形连接的数据结构中筛选出节点组,上述节点组对应上述待标注图片簇组。
可选地,获取模块具体用于执行:
提取上述待标注图片簇组中脸部图像对应的多个模态信息;
将上述待标注图片簇组以及上述模态信息进行显示;
接收用户根据上述模态信息,对上述待标注图片簇组中脸部图像进行标注的标注信息,得到标注后的脸部图像。
此外,本申请实施例还提供一种电子设备,包括处理器和存储器,上述存储器存储有计算机程序,上述处理器用于运行上述存储器内的计算机程序实现本申请实施例提供的模型更新方法。
此外,本申请实施例还提供一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序适于处理器进行加载,以执行本申请实施例所提供的任一种模型更新方法。
此外,本申请实施例还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现本申请实施例所提供的任一种模型更新方法。
在本申请实施例中,获取更新脸部识别模型的训练集,训练集包括至少一个带标签的训练样本,训练样本为脸部识别模型历史识别的脸部图像,对训练样本进行特征提取,得到训练样本对应的脸部特征,并对脸部特征和标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征,以便可以根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征,使得在对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征之后,可以根据调整后融合特征,确定融合特征和调整后融合特征之间的兼容损失值,以及确定脸部识别模型的分类损失值,并根据分类损失值和兼容损失值,对脸部识别模型进行训练,得到脸部识别模型更新后的目标脸部识别模型,从而使得通过目标脸部识别模型得到的脸部特征和通过脸部识别模型得到的脸部特征具备兼容性,进而使得无需采用目标脸部识别模型对脸部库中脸部图像重新进行特征提取,减少特征重新提取的时间,提高识别速度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的模型更新过程的场景示意图;
图2是本申请实施例提供的数据闭环的示意图;
图3是本申请实施例提供的模型更新方法的流程示意图;
图4是本申请实施例提供的脸部图像的示意图;
图5是本申请实施例提供的第一训练集的示意图;
图6是本申请实施例提供的锚标签的示意图;
图7是本申请实施例提供的维度质量模型的示意图;
图8是本申请实施例提供的各种损失值训练的模型的效果的示意图;
图9是本申请实施例提供的无监督模型的质量评价效果的示意图;
图10是本申请实施例提供的模型扰动综合质量模型的原理示意图;
图11是本申请实施例提供的相似度分布距离综合质量模型的原理示意图;
图12是本申请实施例提供的自适应特征模长综合质量模型的原理示意图;
图13是本申请实施例提供的第一综合质量模型和第二综合质量模型的效果的示意图;
图14是本申请实施例提供的数据结构的示意图;
图15是本申请实施例提供的主动学习的方法的示意图;
图16是本申请实施例提供的查询集的示意图;
图17是本申请实施例提供的另一种主动学习的方法的示意图;
图18是本申请实施例提供的标注界面的示意图;
图19是本申请实施例提供的新脸部识别模型和脸部识别模型的示意图;
图20是本申请实施例提供的兼容性的示意图;
图21是本申请实施例提供的训练集构建方法的流程示意图;
图22是本申请实施例提供的另一种模型更新方法的流程示意图;
图23是本申请实施例提供的模型更新装置的结构示意图;
图24是本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种模型更新方法、装置、设备、存储介质及程序产品,其中,设备可以为电子设备,存储介质可以为计算机可读存储介质,程序产品可以为计算机程序产品。该模型更新装置可以集成在电子设备中,该电子设备可以是服务器,也可以是终端等设备。
其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、网络加速服务(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
并且,其中多个服务器可组成为一区块链,而服务器为区块链上的节点。
终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
例如,如图1所示,终端可以获取脸部图像,并将脸部图像发送至服务器。服务器通过脸部识别模型对脸部图像进行识别,得到脸部图像的识别结果,并把识别结果返回至终端。
服务器在得到脸部图像之后,可以将脸部图像作为训练样本,并根据训练样本构建更新脸部识别模型的训练集。然后,服务器通过脸部识别模型对训练样本进行特征提取,得到训练样本对应的脸部特征,并对脸部特征和训练样本的标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征,根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。接着,服务器再对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征。最后,服务器根据调整后融合特征,确定融合特征和调整后融合特征之间的兼容损失值,以及确定脸部识别模型的分类损失值,并根据分类损失值和兼容损失值,对脸部识别模型进行训练,得到脸部识别模型更新后的目标脸部识别模型。
本申请实施例中的“多个”指两个或两个以上。本申请实施例中的“第一”和“第二”等用于区分描述,而不能理解为暗示相对重要性。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
本申请实施例提供的方案涉及人工智能的机器学习以及计算机视觉等技术,具体通过如下实施例进行说明。需要说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
下面参照图2,对本申请实施例的使用场景进行相关说明。在采用脸部识别模型对脸部图像进行识别的过程中,会根据脸部图像对脸部识别模型进行更新,得到更新后脸部识别模型,然后再采用更新后脸部识别模型进行脸部识别,脸部图像和脸部识别模型相互促进,形成数据-模型的闭环反馈系统,该过程称为数据闭环。
比如,当脸部识别模型为人脸识别模型时,数据闭环可以如图2所示,先对识别过的人脸图像进行关键点检测,得到人脸关键点,然后根据人脸关键点进行质量过滤,得到过滤后的人脸图像,根据过滤后的人脸图像构建训练集。提取训练集中的人脸特征,并根据人脸特征,对人脸识别模型进行更新,得到更新后人脸识别模型。
因此,在更新脸部识别模型方法中,包括构建更新脸部识别模型的训练集的过程以及更新脸部识别模型的过程。
在本实施例中,将从模型更新装置的角度进行描述,为了方便对本申请的模型更新方法进行说明,以下将以模型更新装置集成在服务器中进行详细说明,即以服务器作为执行主体进行详细说明。
请参阅图3,图3是本申请一实施例提供的模型更新方法的流程示意图。该模型更新方法可以包括:
请参阅图3,图3是本申请一实施例提供的模型更新方法的流程示意图。该模型更新方法可以包括:
S301、获取更新脸部识别模型的训练集,训练集包括至少一个带标签的训练样本,训练样本为脸部识别模型历史识别的脸部图像。
脸部图像指具备身份信息的头前部所在的图像。脸部图像的类型可以根据实际情况进行设置,比如,脸部图像可以为动物的脸部图像,也可以为植物的脸部图像,动物的脸部图像可以为人脸图像或宠物的脸部图像等,本实施例在此不做限定。
服务器可以在接收到获取指令时,获取更新脸部识别模型的训练集。或者,服务器也可以在检测到脸部识别模型历史识别的脸部图像的数量满足预设条件时,获取更新脸部模型的训练集。又或者,服务器也可以周期性地获取更新脸部识别模型的训练集。
其中,服务器可以直接将脸部识别模型历史识别过的历史脸部图像均作为脸部识别模型历史识别的脸部图像。或者,服务器也可以从脸部识别模型历史识别过的历史脸部图像中筛选出预设数量(预设数量小于历史脸部图像的总数量)的历史脸部图像作为脸部识别模型历史识别的脸部图像。
由于当历史脸部图像的质量较低时,无法判断历史脸部图像的身份信息,造成历史脸部图像的识别结果出现错误。比如,如图4所示,质量较低的历史脸部图像无法识别。因此,当服务器从脸部识别模型历史识别过的历史脸部图像中筛选出预设数量的历史脸部图像作为脸部图像时,可以是从脸部识别模型历史识别过的历史脸部图像中筛选出预设数量质量较高的历史脸部图像作为脸部图像。
可选地,可以是人工从脸部识别模型历史识别过的历史脸部图像中筛选出预设数量质量较好的历史脸部图像,然后将质量较好的历史脸部图像作为脸部图像,或者,服务器也可以自动从脸部识别模型历史识别过的历史脸部图像中筛选出预设数量质量分数较高的历史脸部图像作为脸部图像。
如果服务器自动从脸部识别模型历史识别过的历史脸部图像中筛选出预设数量质量分数较高的历史脸部图像作为脸部图像,则获取更新脸部识别模型的训练集,可以包括:
获取脸部识别模型历史识别的历史脸部图像;
提取历史脸部图像的关键点,并根据关键点确定历史脸部图像对应的质量分数;
将满足预设分数阈值的质量分数对应的历史脸部图像,作为脸部识别模型历史识别的脸部图像。
在本实施例中,根据历史脸部图像的关键点,确定历史脸部图像对应的质量分数,然后将满足预设分数阈值的质量分数对应的历史脸部图像,作为脸部识别模型历史识别的脸部图像,实现自动筛选掉质量较差的历史脸部图像,使得不但可以提高根据训练集更新脸部识别模型的效率,而且可以提高筛选速度。
根据关键点确定历史脸部图像对应的质量分数的方法,可以根据实际情况进行选择,比如,可以通过关键点确定历史脸部图像的清晰度,然后根据清晰度,确定历史脸部图像对应的质量分数。又或者,可以通过关键点,确定历史脸部图像中脸部的偏转角度,然后根据偏转角度,确定历史脸部图像对应的质量分数。又或者,也可以通过质量模型,根据关键点确定历史脸部图像的质量分数。本实施例在此不做限定。
当通过质量模型,根据关键点确定历史脸部图像的质量分数时,如果只通过一个质量模型,根据关键点确定历史脸部图像的质量分数,得到的质量分数的准确度较低。
为了提高质量分数的准确度,在一些实施例中,根据关键点确定历史脸部图像对应的质量分数,包括:
获取历史脸部图像的多个质量模型;
通过质量模型,根据关键点,确定历史脸部图像的多个初始质量分数;
根据初始质量分数,确定历史脸部图像对应的质量分数。
其中,可以将多个初始质量分数进行加权运算,从而得到历史脸部图像对应的质量分数。或者,也可以是,从多个初始质量分数中筛选出一个初始质量分数,作为历史脸部图像对应的质量分数,本实施例在此不做限定。
在本实施例中,通过多个质量模型,得到历史脸部图像的多个初始质量分数,然后再根据多个初始质量分数,确定历史脸部图像的质量分数,从而提高历史脸部图像的质量分数。
在另一些实施例中,历史脸部图像存在多个质量评价维度,每个质量评价维度对应一个维度质量模型,即质量模型可以为维度质量模型,通过质量模型,根据关键点,确定历史脸部图像的多个初始质量分数,根据初始质量分数,确定历史脸部图像对应的质量分数,包括:
通过维度质量模型,根据关键点,确定历史脸部图像针对每个质量评价维度的初始质量分数;
对各个初始质量分数进行加权运算,得到历史脸部图像对应的质量分数。
质量评价维度指影响历史脸部图像的质量的因素所在的维度。质量评价维度可以根据实际情况进行选择,比如,质量评价维度可以为历史脸部图像的清晰度、历史脸部图像中脸部的偏转角度、历史脸部图像脸部的遮挡程度、历史脸部图像的亮度或历史脸部图像的色彩等,也即是,维度质量模型(各个维度质量模型也可以称为多专家模型)可以为清晰度质量模型、角度质量模型、遮挡质量模型、亮度质量模型或色彩质量模型等,初始质量分数可以为清晰度质量分数、偏转角度质量分数、遮挡质量分数、亮度质量分数以及色彩质量分数等,本实施例在此不做限定。
加权运算可以指直接将各个初始质量分数进行相加,或者,加权运算也可以指将初始质量分数与初始质量分数对应的权重进行相乘,得到调整后初始质量分数,然后再将调整后初始质量分数进行相加,本实施例在此不做限定。
在本实施例中,每个质量评价维度对应一个维度质量模型,然后通过维度质量模型,得到历史脸部图像针对每个质量评价维度的初始质量分数,最后对各个初始质量分数进行加权运算,得到历史脸部图像对应的质量分数,实现从不同质量评价维度得到质量分数,提高质量分数的准确度。
当质量评价维度对应的维度质量模型无需通过训练的方式得到时,比如,当质量评价维度为历史脸部图像脸部的偏转角度时,质量评价维度对应的维度质量模型可以为角度质量模型,通过角度质量模型,根据关键点,确定历史脸部图像中脸部的偏转角度质量分数的过程可以为:
通过透视n点法(Perspective-n-Points,PNP),根据关键点以及参考系坐标,计算旋转矩阵,然后根据旋转矩阵确定历史脸部图像中脸部的偏转角度,无需对角度质量模型进行训练。
当质量评价维度对应的维度质量模型通过训练的方式得到时,比如,当质量评价维度为历史脸部图像的清晰度或遮挡程度时,质量评价维度对应的维度质量模型可以为清晰度质量模型或遮挡质量模型,清晰度质量模型或遮挡质量模型可以通过训练的方式得到,其中,可以是通过有监督的训练方式或无监督训练方式得到维度质量模型。
如果通过有监督的训练方式得到维度质量模型,则在通过维度质量模型,根据关键点确定历史脸部图像对应的质量分数之前,还包括:
获取待训练维度质量模型的第一训练集,第一训练集包括多个第一训练样本;
提取第一训练样本的样本关键点,并根据样本关键点,确定待训练维度质量模型的成对损失值和/或锚损失值;
根据成对损失值和/或锚损失值,对待训练维度质量模型进行训练,得到维度质量模型。
其中,可以通过度量学习的方法,根据样本关键点,确定待训练维度质量模型的成对损失值,度量学习的方法可以根据实际情况进行选择,比如,可以选择经典对比损失方法、InfoNCE loss、Margin Ranking Loss(如果通过Margin Ranking Loss根据样本关键点,确定成对损失值,则是将待训练维度质量模型的训练转换为排序问题)或者N-pairLoss方法作为度量学习的方法,本实施例在此不做限定。
当通过N-pair Loss方法根据样本关键点,确定待训练维度质量模型的成对损失值时,根据样本关键点,确定待训练维度质量模型的成对损失值的过程可以为:
从第一训练样本对应的第一样本簇中筛选出第一训练样本对应的正训练样本,从第二样本簇中筛选出第一训练样本对应的多个负训练样本,第二样本簇为第一训练集对应的样本簇中除了第一样本簇之外的样本簇;
根据第一训练样本的样本关键点和正训练样本的样本关键点,确定第一训练样本和正训练样本之间的第一距离,以及根据第一训练样本的样本关键点和负训练样本的样本关键点,确定第一训练样本和负训练样本之间的第二距离;
根据第一距离和第二距离,确定待训练维度质量模型的成对损失值。
由于不同于性别,是否戴口罩等可以清楚地判断有无,有些质量评价维度(比如,清晰度和遮挡程度)反应的是一种相对关系,也就是同时给出一对图像,判断哪张图像遮挡更严重,或者更清晰,因此,在本实例中,将point wise转化为pair wise的标签,然后使用对比损失函数进行训练,使得在模型训练过程中会将更好的图像赋予更高的分数。
可选地,根据样本关键点,确定待训练维度质量模型的锚损失值(Anchor Loss)的过程可以为:
获取第一训练样本对应的锚标签,以及获取锚标签对应的分数区间;
根据样本关键点,确定第一训练样本的预测分数;
根据锚标签、预测分数和锚标签对应的分数区间,确定待训练维度质量模型的锚损失值。
其中,锚标签表示真类别或假类别,可以包括两种,比如,真类别可以为1,假类别可以为0,即锚标签可以为0或1。
锚标签表示真类别或假类别,意味着在训练待训练维度质量模型时,待训练维度质量模型对第一训练样本的分类结果为是或否的形式,然而,一些质量评价维度是存在多个级别,比如,针对脸部的遮挡程度和清晰度来说,脸部的遮挡程度存在多种(遮挡程度可以为强遮挡、微遮挡、轻遮挡、无遮挡等),清晰度也存在多种,因此,如果在训练待训练维度质量模型时,锚标签只包括两种,会导致通过维度质量模型,得到的分数的准确度较低。
为了进一步提高维度质量模型的准确度,在另一些实施例中,根据关键点,确定待训练维度质量模型的锚损失值,包括:
获取第一训练样本对应的锚标签,锚标签表示质量评价维度的级别,第一训练集存在至少三种锚标签;
根据关键点,确定第一训练样本的预测分数;
根据锚标签、遮挡预测分数以及锚标签对应的分数区间,确定待训练维度质量模型的锚损失值。
质量评价维度的级别,表示质量评价维度的严重程度。质量评价维度的级别越低,表示质量评价维度越严重。比如,质量评价维度为遮挡程度,遮挡程度的级别越低,表示遮挡程度越严重,即表示遮挡得越多。又比如,质量评价维度为清晰度,清晰度的级别越低,表示越不清晰。
可选地,质量评价维度的级别可以根据可见的关键点的个数进行量化,比如,可见的关键点的个数越高,质量评价维度的级别越高。
第一训练集中可以包括质量评价维度的不同级别的第一训练样本,然后训练待训练维度质量模型对每个第一训练样本进行至少三分类。
比如,当待训练维度质量模型为待训练遮挡质量模型且训练待训练维度质量模型对每个第一训练样本进行三分类时,第一训练集可以包括强遮挡第一训练样本、无遮挡第一训练样本以及微遮挡第一训练样本,此时,第一训练集中存在遮挡程度的三个级别,三个级别分为为强遮挡、微遮挡和无遮挡。
当第一训练集包括强遮挡第一训练样本、无遮挡第一训练样本以及微遮挡第一训练样本时,第一训练集可以如图5所示。
如果第一训练集存在质量评价维度的三个级别,意味着第一训练集中至少三种锚标签。当第一训练集存在三种锚标签且待训练维度质量模型为待训练遮挡质量模型时,三种锚标签可以为图6所示,图中横轴表示锚标签对应的分数区间,三种锚标签分别为0,1,2,0表示强遮挡,1表示微遮挡以及2表示无遮挡。
其中,根据锚标签、预测分数以及锚标签对应的分数区间,确定待训练维度质量模型的锚损失值的过程可以为:
根据锚标签和预测分数,确定待调整锚损失值;
根据锚标签对应的分数区间,确定锚标签对应的正确分类分数;
根据预测分数和锚标签对应的正确分类分数之间的差值,对待调整锚损失值进行调整,得到待训练维度质量模型的锚损失值。
在本实施例中,锚标签表示质量评价维度的级别,第一训练集存在至少三种锚标签,然后根据第一训练集对待训练维度质量模型进行训练,从而进一步提升通过维度质量模型得到的脸部图像的质量,使得后续在对脸图像进行标注时,可以提高标注的准确率和效率。
本实施例可以根据成对损失值对待训练维度质量模型进行训练。或者,本实施例也可以根据锚损失值(Anchor Loss)对待训练维度质量模型进行训练。又或者,本实施例也可以同时根据成对损失值和锚损失值对待训练维度质量模型进行训练,此时,当多个维度质量模型分别为角度质量模型、遮挡质量模型以及清晰度质量模型时,本申请实施例的多个质量模型可以如图7所示。对标签即正样本和正样本、正样本和负样本。
当根据成对损失值对待训练维度质量模型进行训练时,由于成对损失值中包含正样本对之间的距离和正样本与负样本之间的距离,因此,相对于根据二分类损失值,对待训练维度质量模型进行训练,根据成对损失值对待训练维度质量模型进行训练之后,得到的维度质量模型在进行质量评价时的效果更好。
当根据锚损失值对待训练维度质量模型进行训练时,不同于二分类损失值对类别进行约束,锚损失值可以根据真类别预测概率和假类别预测概率之间的差异确定样本的预测困难程度,然后根据样本的预测困难程度动态地重估损失值,实现对分数区间(分数区间可以为真类别预测概率所在的区间)进行约束,缓解过拟合现象,提升维度质量模型在进行质量评价时的效果。
当同时根据成对损失值和锚损失值对待训练维度质量模型进行训练时,不但可以对正样本对之间的距离和正样本与负样本之间的距离进行约束,而且可以对分数区间进行约束,使得可以进一步提升维度质量模型在进行质量评价时的效果。
下面参照图8,对根据各种损失值进行训练得到的维度质量模型的效果进行说明。图8中的横坐标均表示维度质量模型的过滤比例,过滤比例可以指通过维度质量模型过滤掉的历史脸部图像的数量和脸部识别模型历史识别的历史脸部图像的数量之间的比值,图8中801的纵坐标表示召回率(True Positive Rate,TPR),图8中802的纵坐标表示正确过滤率,正确过滤率指在通过维度质量模型过滤掉的历史脸部图像中正确过滤的历史脸部图像和通过维度质量模型过滤掉的历史脸部图像的比值。
从图8可以看出,如果根据二分类损失值对待训练维度质量模型进行训练,会出现严重的过拟合现象,导致召回率较低,过滤的结果较差。如果根据锚损失值对待训练维度质量模型进行训练,可以缓解过拟合现象,召回率和过滤的结果得到改善。如果在锚损失值的基础上加上成对损失值,可以使得维度质量模型的预测分数更加平滑,提升了维度质量模型在质量评价时的效果。
在本实施例中,通过各个质量评价维度的维度质量模型得到初始质量分数,然后对各个初始质量分数进行加权运算,从而得到历史脸部图像对应的质量分数。然而,历史脸部图像的质量分数,并不是各个初始质量分数的简单线性地叠加,比如,一张清晰的侧脸和一张模糊的正脸,较难明确地界定哪一张的质量更好,因此,需要准确地衡量多种质量评价维度,从而更加准确地得到质量分数。
为了更加准确地得到质量分数,在另一些实施例中,历史脸部图像的多个质量模型包括第一综合质量模型和第二综合质量模型,根据关键点确定历史脸部图像对应的质量分数,包括:
通过第一综合质量模型,根据关键点,确定历史脸部图像对应的第一初始质量分数;
通过第二综合质量模型,根据关键点,确定历史脸部图像对应的第二初始质量分数;
从第一初始质量分数和第二初始质量分数中,筛选出历史脸部图像对应的质量分数。
在本实施例中,第一综合质量模型和第二综合质量模型可以同时根据历史脸部图像的各个质量评价维度确定历史脸部图像的第一初始质量分数和第二初始质量分数,使得第一初始质量分数和第二初始质量分数更加准确。
并且,上述质量评价维度的维度质量模型的训练方式为有监督训练,有监督训练使得待训练维度质量模型的训练受第一训练样本的标注精度和速度影响。因此为了更加准确地得到质量分数,在另一些实施例中,第一综合质量模型和第二综合质量模型,可以为第一综合质量无监督模型和第二综合质量无监督模型。
其中,从第一初始质量分数和第二初始质量分数中,筛选出历史脸部图像对应的质量分数,包括:
获取预设筛选阈值;
若第一初始质量分数和第二初始质量分数均小于或等于预设筛选阈值,则将第一初始质量分数,作为历史脸部图像对应的质量分数;
若第一初始质量分数和第二初始质量分数均大于预设筛选阈值,则将第二初始质量分数,作为历史脸部图像对应的质量分数。
第一初始质量分数和第二初始质量分数均小于或等于预设筛选阈值,可以理解为第一初始质量分数和第二初始质量分数均小于预设筛选阈值,或者,也可以理解为第一初始质量分数和第二初始质量分数均等于预设筛选阈值,又或者,也可以理解为第一初始质量分数小于预设筛选阈值,第二初始质量分数等于预设筛选阈值,又或者,也可以理解为第一初始质量分数等于预设筛选阈值,第二初始质量分数小于预设筛选阈值。
在实际应用的过程中,发现综合质量模型在不同质量的脸部图像上的表现存在差异。比如,如图9所示,模型扰动综合质量模型(Unsupervised Estimation of Face ImageQuality Based on Stochastic Embedding Robustness,SER-FIQ)和相似度分布距离综合质量模型(Similarity Distribution Distance for Face Image Quality Assessment)在低质量脸部图像上的效果更好,即通过模型扰动综合质量模型和相似度分布距离综合质量模型得到的低质量脸部图像的质量评价分数更加准确。自适应特征模长综合质量模型(Auniversal representation for face recognition and quality Assessment)在高质量脸部图像上的效果更好,即通过自适应特征模长综合质量模型得到的高质量脸部图像的质量评价分数更加准确。
模型扰动综合质量模型的原理可以为:如图10所示,模型扰动综合质量模型中包括多个并列的随机子网络,在训练的过程中,随机去掉(dropout)随机子网络中的神经元,从而得到模型扰动综合质量模型的第二训练样本对应的多个不同的特征,计算第二训练样本的多个不同特征的方差,方差越大,表示第二训练样本的质量越低,方差越小,表示第二训练样本的质量越高。
相似度分布距离综合质量模型,也可称为类内相似度分布和类间相似度分布模型,其的原理可以为:如图11所示,通过脸部识别模型得到第二训练样本所在的第三样本簇,然后确定第二训练样本与第三样本簇中脸部图像之间的相似度的类内分布,以及确定第二训练样本与第四样本簇(第二训练样本不在的样本簇)中脸部图像之间的相似度的类间分布,接着通过类内分布和类间分布,确定类内分布和类间分布之间的Wasserstein距离,并将Wasserstein距离作为伪质量分数对相似度分布距离综合质量模型进行训练。
自适应特征模长综合质量模型的原理可以为:如图12所示(图11中,w’和w表示两个类中心,B’表示类中心w’的边界,B表示类中心w的边界,m表示两个类之间的角度间隔,1、2以及3表示三种质量不同的脸部图像),在训练的过程中,确定脸部图像的特征的模长,根据特征模长对自适应特征模长综合质量模型进行训练,特征的模长越大,表示脸部图像的质量越高,特征的模长越小,表示脸部图像的质量越低。
因此,在本实施例中,将可以得到低质量脸部图像更加准确的质量分数的综合质量模型作为第一综合质量模型,将可以得到高质量脸部图像更加准确的质量分数的综合质量模型作为第二综合质量模型,然后通过第一综合质量模型和第二综合质量模型,得到不同质量的历史脸部图像的初始质量分数,从而提高历史脸部图像对应的质量分数的准确度。但由于在通过第一综合质量模型确定历史脸部图像对应的第一初始质量分数以及通过第二综合质量模型对确定历史脸部图像对应的第二初始质量分数时,服务器并不能确定历史脸部图像的质量的高低。
所以,在本实施例中,获取预设筛选阈值,如果第一初始质量分数和第二初始质量分数均小于或等于预设筛选阈值,说明该历史脸部图像为低质量脸部图像,则将第一初始质量分数,作为历史脸部图像对应的质量分数,如果第一初始质量分数和第二初始质量分数均大于预设筛选阈值,说明该历史脸部图像为高质量脸部图像,则将第二初始质量分数,作为历史脸部图像对应的质量分数,从而实现采用不同的综合质量模型,得到不同质量的历史脸部图像的初始质量分数,进而提高历史脸部图像对应的质量分数的准确度。
应理解,本实施例中在训练第一综合质量模型和第二综合质量模型时,可以根据脸部识别模型对历史脸部图像进行脸部识别,得到识别结果,然后根据识别结果和待训练第一综合质量模型的第一样本质量分数确定第一目标损失值,再根据第一目标损失值对待训练第一综合质量模型进行训练,得到第一综合质量模型。
第二综合质量模型的训练过程可以参照第一综合质量模型的训练过程,本实例在此不做限定。
下面参照图13,对综合质量模型的效果进行说明。图13中1301的纵坐标表示召回率,图13中1302的纵坐标表示正确过滤率,从图13中可以看出,第一综合质量模型和第二综合质量模型可以较好地解决各个质量评价维度之间的耦合问题,使得第一综合质量模型和第二综合质量模型的召回率和正确过滤率优于质量评价维度的质量模型的召回率和正确过滤率。
在另一些实施例中,获取更新脸部识别模型的训练集,包括:
获取脸部识别模型历史识别的脸部图像;
从脸部图像对应的图片簇中筛选出待标注图片簇组,并根据待标注图片簇组对脸部图像进行标注,得到带标签的脸部图像;
根据带标签的脸部图像,确定更新脸部识别模型的训练集。
服务器在获取到脸部识别模型历史识别的脸部图像之后,再对脸部图像进行聚类,从而得到脸部图像对应的图片簇,接着再从脸部图像对应的图片簇中筛选出待标注图片簇组,以便根据待标注图片簇组对脸部图像进行标注,得到带标签的脸部图像,最后根据带标签的脸部图像,确定更新脸部识别模型的训练集。
其中,根据待标注图片簇组,对脸部图像进行标注,可以理解为判断待标注图片簇组之间的脸部图像是否为同一个对象的脸部图像。可选地,可以是将待标注图片簇组的脸部图像进行显示,以便用户判断待标注图片簇组之间的脸部图像,或者,服务器也可以自动判断待标注图片簇组之间的脸部图像是否为同一个对象的脸部图像。本实施例在此不做限定。
在另一些实施例中,从脸部图像对应的图片簇中筛选出待标注图片簇组的过程可以为:
从各个候选图片簇中筛选出第一待标注图片簇,然后从候选图片簇中,筛选出第一数量个第二待标注图片簇分别与第一待标注图片簇组成待标注图片簇组。
然而,通过该方法得到的待标注图片簇组数量较多,并且,标注误差会累加。为减少待标注图片簇组的数量,减少标注误差,在另一些实施例中,从脸部图像对应的图片簇中筛选出待标注图片簇组,包括:
根据脸部图像对应的图片簇中脸部特征,确定脸部图像对应的图片簇之间的关联度;
根据关联度,从脸部图像对应的图片簇中,筛选出待标注图片簇组。
服务器可以根据两个脸部图像对应的图片簇的中心脸部特征计算两个脸部图像对应的图片簇之间的簇相似度(或者,从脸部图像对应的图片簇中随机选取一个脸部特征计算两个脸部图像对应的图片簇之间的簇相似度),并根据脸部图像对应的图片簇中脸部图像的个数(即脸部图像对应的图片簇对应的标签出现的次数)和总的脸部图像的个数计算脸部图像对应的图片簇的标签(ID)热度,然后根据脸部图像对应的图片簇的标签热度和簇相似度,确定脸部图像对应的图片簇之间的关联度。
可选地,脸部图像对应的图片簇的标签热度、簇相似度以及关联度满足以下关系式:
cost(up,uq)表示脸部图像对应的图片簇up和脸部图像对应的图片簇uq之间的关联度,info_up表示脸部图像对应的图片簇up的标签热度,info_uq表示脸部图像对应的图片簇uq的标签热度。
在本实施例中,在得到脸部图像对应的图片簇之后,根据脸部图像对应的图片簇中脸部图像对应的脸部特征,确定脸部图像对应的图片簇之间的关联度,然后根据关联度,从脸部图像对应的图片簇中,筛选出待标注图片簇组,关联度越大,表示两个脸部图像对应的图片簇相似的概率越大,然后将该两个脸部图像对应的图片簇作为待标注图片簇组,从而减少待标注图片簇组的数量。
可选地,根据关联度,从脸部图像对应的图片簇中,筛选出待标注图片簇组,可以是筛选出的待标注图片簇组的关联度之间的和最小,或者,也可以是筛选出的待标注图片簇组的关联度之间的和第二小,本实施例在此不做限定。
在另一些实施例中,根据关联度,从脸部图像对应的图片簇中,筛选出待标注图片簇组,包括:
根据脸部图像对应的图片簇和关联度构建数据结构,数据结构包括多个节点和多条边,每个节点表示脸部图像对应的图片簇,边的权重表示脸部图像对应的图片簇之间的关联度;
根据数据结构中边的权重,对数据结构进行环形调整,得到不包含环形连接的数据结构;
从不包含环形连接的数据结构中筛选出节点组,节点组对应待标注图片簇组。
比如,构建的数据可以如图14所示,此时,数据结构包含环结构,图14中边1、边2以及边3组成一个环,则可以去掉边1,从而得到不包含环形连接的数据结构,不包含环形连接的数据结构也可以理解为树形的数据结构。
根据数据结构中边的权重,对数据结构进行环形调整,得到不包含环形连接的数据结构的方法,可以根据实际情况进行选择,比如,可以采用普里姆(Prim)算法、克鲁斯卡尔(Kruskal)算法或者最短路径算法等,本实施例在此不做限定。
应理解,当最终筛选出的待标注图片簇组的关联度之间的和最小时,不包含环形连接的数据结构可以理解为最小生成树。
在本实施例中,根据脸部图像对应的图片簇和关联度构建数据结构,数据结构包括多个节点和多条边,每个节点表示脸部图像对应的图片簇,边的权重表示脸部图像对应的图片簇之间的关联度,然后根据数据结构中边的权重,对数据结构进行环形调整,得到不包含环形连接的数据结构,最后从不包含环形连接的数据结构中筛选出节点组,节点组对应待标注图片簇组,通过数据结构的方式,根据关联度,得到待标注图片簇组,从而使得不但可以减少待标注图片簇组的数量,而且可以更加准确地得到待标注图片簇组。
在另一些实施例中,为了提高脸部识别模型的召回率,可以通过主动学习(Activelearning)的方法从脸部图像对应的图片簇中筛选出候选图片簇,然后根据候选图片簇,确定待标注图片簇组。主动学习指通过机器学习的方法获取到比较“难”分类的样本数据,让人工再次确认,然后将人工确认的数据再次训练有监督学习模型或者半监督学习模型,从而提升模型的效果,实现将人工经验融入机器学习的模型中。
主动学习的方法可以如图15所示。脸部识别模型周期性地历史识别的脸部图像周期地聚类(延长时间跨度再次进行聚类,指周期性地聚类),然后对聚类后地图片簇进行提纯操作(提纯操作可以包括质量的过滤),得到提纯后图片簇,在对提纯后图片簇进行预处理,得到预处理后图片簇,接着由人工对预处理后图片簇进行标注,得到标注结果,最后对标注结果后处理(后处理指将为同一个对象的预处理后图片簇合并为一个图片簇),得到训练集。
在主动学习的方法中,通常通过不确定性采样(Uncertainty Sampling,US)方法、多样性采样(Diversity Sampling,DS)方法、预期模型改变(Expected Model Change,EMC)方法、委员会查询(Query-By-Committee,QBC)方法以及密度权重(Density-WeightedMethods)确定数据的区分难度。
当根据密度权重的方法,确定数据的区分难度时,从根据脸部图像对应的图片簇中脸部特征,确定脸部图像对应的图片簇之间的关联度,根据关联度,从脸部图像对应的图片簇中,筛选出待标注图片簇组,包括:
根据脸部图像的脸部特征,确定脸部图像对应的图片簇的密度权重,密度权重用于表示脸部图像的区分难度;
从脸部图像对应的图片簇中,筛选出满足预设权重的密度权重对应的图片簇,得到候选图片簇;
根据候选图片簇中脸部特征,确定候选图片簇之间的关联度;
根据关联度,从候选图片簇中筛选出待标注图片簇组。
此时,根据脸部图像对应的图片簇和关联度构建数据结构,数据结构包括多个节点和多条边,每个节点表示脸部图像对应的图片簇,边的权重表示脸部图像对应的图片簇之间的关联度,可以包括:
根据候选图片簇和关联度构建数据结构,数据结构包括多个节点和多条边,每个节点表示候选图片簇,边的权重表示候选图片簇之间的关联度。
密度权重(density-weight)可以指:如果一个数据为异常数据或与多数其他数据的偏差较大,这该数据不适合做样本,而那些稠密的,难以区分的数据价值更大,也即是,密度权重可以用于表示脸部图像的区分难度,当密度权重越大时,表示脸部图像越难区分,当密度权重越小时,表示脸部图像越容易区分。
比如,如图16所示,图片簇c3与图片簇c1不是同一个对象的脸部图片簇,图片簇c3与图片簇c2不是同一个对象的脸部图片簇,而图片簇c1和图片簇c2是同一对象的脸部图片簇,所以图片簇c3的密度权重小于图片簇c1的密度权重和小于图片簇c2的密度权重。
在本实施例中,采用根据脸部图像的脸部特征,得到脸部图像对应的图片簇的密度权重表示区分难度,然后根据密度权重从脸部图像对应的图片簇中,筛选出满足预设权重的密度权重对应的图片簇,得到候选图片簇,使得在根据候选图片簇对脸部识别模型进行训练时,得到的目标脸部识别模型的召回率更高。
其中,根据脸部图像的脸部特征,确定脸部图像对应的图片簇的密度权重地过程可以为:
计算各个脸部图像对应的图片簇的中心特征和脸部图像的脸部特征之间的相似度;
根据脸部图像的脸部特征,确定脸部图像对应的第一预测概率和第二预测概率;
根据第一预测概率和第二预测概率以及相似度,确定脸部图像的密度权重。
第一预测概率和第二预测概率可以为脸部识别模型对脸部图像的预测概率中的两个。比如,第一预测概率可以为脸部识别模型预测脸部图像的最大概率,第二预测概率可以为脸部识别模型预测脸部图像的第二大概率。又比如,第一预测概率可以为脸部识别模型预测脸部图像的第二大概率,第二预测概率可以为脸部识别模型预测脸部图像的第三大概率。本实施例在此不做限定。
可选地,可以将第一预测概率和第二预测概率以及相似度,代入以下关系式中,从而得到脸部图像的密度权重:
xID表示脸部特征x的密度权重,x(u)表示各个图片簇的中心特征,u表示第u个图片簇,U表示图片簇的个数,argmaxx表示求自变量最大值运算,sim表示相似度运算,β表示指数参数,argminx表示求自变量最小值运算,表示第一预测概率,/>表示第一预测概率对应的类别,/>表示第二预测概率,/>第二预测概率对应的类别,φA(x)表示第一预测概率和第二预测概率的差值最小的脸部特征,也即是,φA(x)可以通过边缘采样原理得到。/>
主动学习的方法在闭集(closed set)的任务上取得了较好的效果,闭集指训练集中样本的类别和测试集中样本的类别相同,比如,训练集中包括类别A、类别B、以及类别C的样本,则测试集中也包括类别A、类别B、以及类别C的样本。
即如果脸部识别模型的训练集和测试集为闭集的形式,则根据通过主动学习的方法筛选的难以区分的脸部图像对脸部识别模型进行训练之后,脸部识别模型的召回率较高。
然而,在实际应用的过程中,由于样本的获取难度较高,比如,在医学领域或飞行器领域,样本的获取难度非常高,因此,测试集中会参杂训练集中没有的类别的样本,这类问题被称为Open Set Recognition问题。
脸部识别属于Open Set Recognition问题,脸部图像包含了较大的噪声,如果直接根据主动学习的方法从脸部图像对应的图片簇中筛选出待标注图片簇组,并根据待标注图片簇组对脸部图像进行标注,得到带标签的脸部图像,会影响根据带标签的脸部图像进行训练得到的脸部识别模型的召回率。
所以,为了降低对脸部识别模型的召回率的影响,在另一些实施例中,根据脸部图像的脸部特征,确定脸部图像对应的图片簇的密度权重,从脸部图像对应的图片簇中,筛选出满足预设权重的密度权重对应的图片簇,得到候选图片簇包括:
获取脸部图像的图片簇的标签热度;
从脸部图像的图片簇筛选出满足预设热度的标签热度的图片簇,得到初筛图片簇;
根据初筛图片簇中脸部图像的脸部特征,确定初筛图片簇的密度权重;
从初筛图片簇中,筛选出满足预设权重的密度权重对应的图片簇,得到候选图片簇。
标签(ID)热度可以为标签出现的次数和总的脸部图像的个数之间的比值,即:ID热度=ID出现的次数/总的脸部图像的个数。
在本实施例中,并不是直接从脸部图像对应的图片簇中筛选出候选图片簇,而是对主动学习的方法进行改进,改进的部分可以为图17所示的改进部分1,先根据标签热度,从脸部图像的图片簇筛选出满足预设热度的标签热度的图片簇,得到初筛图片簇,然后再根据初筛图片簇中脸部图像的脸部特征,确定初筛图片簇的密度权重,并根据密度权重得到候选图片簇。
由于标签热度高,表示该标签对应的样本较为容易获取,则可以使得训练集的类别和测试集的类别之间的差别较小,因此,初筛图片簇中脸部图像的获取困难程度较低,也即是,候选图片簇中脸部图像的获取困难程度较低,从而降低对脸部识别模型的召回率的影响。
服务器在得到待标注图片簇组之后,可以根据待标注图片簇组对脸部图像进行标注,得到带标签的脸部图像。可选地,根据待标注图片簇组对脸部图像进行标注,得到带标签的脸部图像,包括:
提取待标注图片簇组中脸部图像对应的多个模态信息;
将待标注图片簇组以及模态信息进行显示;
接收用户根据模态信息,对待标注图片簇组中脸部图像进行标注的标注信息,得到带标签的脸部图像。
模态信息可以指脸部图像的属性信息,脸部图像的属性信息可以为脸部图像本身所具备的信息,或者,脸部图像的属性信息,也可以是脸部图像所在的视频的属性信息。比如,属性信息可以为脸部图像的画面信息、字幕信息、视频ip(脸部图像所在的视频)、角色信息、水印信息以及人物信息中的至少一种。将多个模态信息进行显示,以便用户可以根据多个模态信息进行标注,实现多模态标注,从而提高标注的准确率。
比如,如图18所示,集合A和集合B为待标注图片簇组,集合A来源于视频A,集合B来源于视频B,将集合A、集合B、集合A中脸部图像的模态信息以及集合B中脸部图像的模态信息进行显示。
应理解,本实施例中的多模态标注过程可以理解为是对主动学习中的标注方法进行改进的部分,如图15所示,相关技术中,主动学习中的标注方法只是由人工直接进行标注,并没有显示多个模态信息,而在本实施例中,如图17所示,显示多个模态信息,以便人工根据多个模态信息进行标注。
S302、对训练样本进行特征提取,得到训练样本对应的脸部特征,并对脸部特征和标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征。
其中,可以通过脸部识别模型中特征提取层,对训练样本进行特征提取,得到训练样本对应的脸部特征。又或者,也可以通过脸部识别模型中特征提取层,对训练样本进行特征提取,得到训练样本对应的初始脸部特征,然后再通过脸部识别模型中特征映射层对初始脸部特征进行特征映射,得到训练样本对应的脸部特征。
在一些实施例中,脸部识别模型中特征映射层包括第一全连接层和第一激活层,通过脸部识别模型中特征映射层对初始脸部特征进行特征映射,得到训练样本对应的脸部特征,包括:
通过脸部识别模型中第一全连接层,对初始脸部特征进行特征降维映射,得到训练样本对应的降维后脸部特征;
通过脸部识别模型中第一激活层,对降维后脸部特征进行非线性特征映射,得到训练样本对应的脸部特征。
在本实施例中,通过第一全连接层对初始脸部特征进行降维映射,从而减少提取初始脸部特征的非线性特征的运算量,然后再对降维后脸部特征进行非线性特征映射,得到训练样本对应的脸部特征,也即是,脸部特征包括初始脸部特征的非线性特征。
在另一些实施例中,为了解决过拟合问题,脸部识别模型中特征映射层可以为残差结构,此时,脸部识别模型可以如图19所示,脸部识别模型中特征映射层还包括第二全连接层,通过脸部识别模型中第一激活层,对降维后脸部特征进行非线性特征映射,得到训练样本对应的脸部特征,包括:
通过脸部识别模型中第一激活层,对降维后脸部特征进行非线性特征映射,得到训练样本对应的非线性脸部特征;
通过脸部识别模型中第二全连接层,对非线性脸部特征进行特征升维映射,训练样本对应的升维后脸部特征;
根据升维后脸部特征和初始脸部特征,确定训练样本对应的脸部特征。
在另一些实施例中,脸部识别模型中还包括中心映射层,方法还包括:
获取标签对应的目标簇的初始中心特征;
通过脸部识别模型的中心映射层,对初始中心特征进行映射,得到标签对应的目标簇的中心特征。
其中,中心映射层的结构可以跟特征映射层的结构相同,具体可以参照上述特征映射层的描述以及图19,本实施例在此不做限定。
在一些实施例中,中心映射层的参数可以与特征映射层的参数相同,即训练得到脸部识别模型时,可以得到特征映射层的参数,然后再将特征映射层的参数分享给中心映射层,此时,脸部识别模型可以为自适应脸部识别模型。
自适应脸部识别模型可以指:处理和分析脸部图像过程中,根据脸部图像的特征自动调整处理方法、处理顺序、处理参数、边界条件或约束条件,使其与所处理脸部图像的统计分布特征、结构特征相适应,以取得最佳的处理效果的过程。自适应过程是一个不断逼近目标的过程,可以通过数学模型表示。
S303、根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
其中,可以是根据融合特征,确定训练样本的预测标签,然后根据脸部特征以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。或者,也可以是根据融合特征,确定训练样本的预测标签,然后脸部特征、预测标签以及目标簇的初始中心特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
当根据融合特征,确定训练样本的预测标签,然后根据脸部特征以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征时,根据脸部特征以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征,包括:
获取脸部特征对应的第一方向信息,以及获取初始脸部特征的第二方向信息;
根据第一方向信息、第二方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
在本实施例中,根据第一方向信息、第二方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征,以便从方向信息,即从边界信息上对目标簇的中心特征进行调整,实现对目标簇的中心特征进行边界约束,从而得到目标簇的调整后中心特征。
或者,根据脸部特征以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征,包括:
获取脸部特征对应的第一方向信息,以及获取目标簇的中心特征的第三方向信息;
根据第一方向信息、第三方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
在本实施例中,根据第一方向信息、第三方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征,以便从方向信息,即从边界信息上对目标簇的中心特征进行调整,实现对目标簇的中心特征进行边界约束,从而得到目标簇的调整后中心特征。
在另一些实施例中,根据第一方向信息、第二方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征的过程可以为:
获取第一方向信息对应的方向权重和第二方向信息对应的方向权重;
根据第一方向信息对应的方向权重,对第一方向信息进行调整,得到调整后第一方向信息,以及根据第二方向信息对应的方向权重,对第二方向信息进行调整,得到调整后第二方向信息;
根据调整后第一方向信息和调整后第二方向信息,确定初始脸部特征和脸部特征之间的第一夹角信息;
根据第一夹角信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
或者,根据第一方向信息、第二方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征的过程也可以为:
获取目标簇的中心特征的第三方向信息;
根据第一方向信息、第二方向信息、第三方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
其中,根据第一方向信息、第二方向信息、第三方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征的过程可以为:
根据第一方向信息和第二方向信息,确定初始脸部特征和脸部特征之间的第一夹角信息;
根据第二方向信息和第三方向信息,确定初始脸部特征和目标簇的中心特征之间的第二夹角信息;
根据第一夹角信息、第二夹角信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
在另一些实施例中,根据第一夹角信息、第二夹角信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征的过程可以为:
确定第一夹角信息和第二夹角信息之间的夹角差值;
根据预测标签、夹角差值以及标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
应理解,目标簇的中心特征可以为目标簇的初始中心特征,或者也可以是对目标簇的初始中心特征映射得到的特征。
当目标簇的中心特征为目标簇的初始中心特征时,预测标签、夹角差值、标签以及目标簇的调整后中心特征满足以下关系式:
kada’表示目标簇的调整后中心特征,N表示训练样本的类别,i表示训练样本的数量。表示训练样本i的标签,/>表示训练样本i的预测标签,b_func表示计算夹角的函数,fi old表示训练样本i的初始脸部特征,fi ada表示训练样本i的脸部特征,Kold表示训练样本i的目标簇的初始中心特征。
在本实施例中,通过第一夹角信息以及第二夹角信息之间的差异,对目标簇的中心特征进行边界约束,使得在根据目标簇的调整后中心得到的兼容损失值训练脸部识别模型时,脸部识别模型可以达到更好的收敛状态。
S304、对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征。
对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征的过程,可以参照对脸部特征和标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征的过程,实施例在此不做限定。
应理解,在将目标簇的中心特征变为目标簇的调整后中心特征之后,脸部识别模型可以称为新脸部识别模型,此时,对脸部特征和目标簇的调整后中心特征进行融合处理中的脸部特征,可以指通过新脸部识别模型对训练样本进行特征提取得到的脸部特征fi new,也即是,此时,fi ada可以指fi new,脸部识别模型和新脸部识别模型之间的关系可以如图18所示。
S305、根据调整后融合特征,确定融合特征和调整后融合特征之间的兼容损失值,以及确定脸部识别模型的分类损失值。
融合特征和调整后融合特征之间的兼容损失值,也可以理解为脸部特征和调整后融合特征之间的兼容损失值。其中,可以对调整后融合特征和脸部特征进行第一融合处理,得到训练样本的目标融合特征,然后根据目标融合特征,融合特征和调整后融合特征之间的兼容损失值。
或者,也可以是对调整后融合特征和初始脸部特征进行第一融合处理,得到训练样本的目标融合特征,然后根据目标融合特征,融合特征和调整后融合特征之间的兼容损失值。
第一融合处理为确定调整后融合特征和初始脸部特征之间的差异之间的处理,第一融合处理可以为乘法融合处理,或者,第一融合处理也可以为减法融合处理。
当第一融合处理为减法融合处理时,可以先对调整后融合特征进行对数运算,得到简化的调整后融合特征,然后再将简化的调整后融合特征与初始脸部特征进行减法融合处理,得到训练样本的目标融合特征,然后将目标融合特征与训练集的类别的数量做除法运算,得到兼容损失值,此时,调整后融合特征、初始脸部特征以及目标融合特征满足以下关系式:
表示融合特征和调整后融合特征之间的兼容损失值,yi表示训练样本i所在的目标簇。
相关技术中,在采用脸部识别模型对脸部图像进行识别的过程中,会根据脸部图像对脸部识别模型进行更新。然而,通过更新后的脸部识别模型提取的脸部特征和脸部库中的特征不兼容(更新后的脸部识别模型提取的脸部特征和脸部库中的特征不兼容指不能直接计算更新后的脸部识别模型提取的脸部特征与脸部库中的特征之间的距离),导致需要采用更新后的脸部识别模型重新提取脸部库中脸部图像的特征,耗费的时间较长,导致识别速度较慢。
比如,如图20所示,通过更新后脸部识别模型提取的查询集(query collection)中脸部特征和通过脸部识别模型提取的注册集(gallery collection)中脸部特征不兼容,导致需要更新后脸部识别模型对gallery刷库,当gallery量级很大时,刷库产生的设备成本和时间成本较高。
而在本实施例中,对脸部特征和标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征,以便可以根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征,实现对目标簇的中心进行边界约束,使得在对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征之后,可以根据调整后融合特征,确定融合特征和调整后融合特征之间的兼容损失值,并根据兼容损失值,对脸部识别模型进行训练,从而完成对目标簇的中心特征的矫正,使得可以保留目标簇的中心特征的信息,从而使得通过目标脸部识别模型得到的脸部特征和通过脸部识别模型得到的脸部特征具备兼容性,无需采用目标脸部识别模型对脸部库中脸部图像重新进行特征提取,减少特征重新提取的时间,提高识别速度,降低时间成本和设备成本。
并且,相对于直接根据目标簇的中心特征计算兼容损失值的方式,本申请实施例,通过目标簇的中心特征进行调整,再根据目标簇的调整后中心特征去计算兼容损失值,可以使得脸部识别模型达到更好的收敛状态。
S306、根据分类损失值和兼容损失值,对脸部识别模型进行训练,得到脸部识别模型更新后的目标脸部识别模型。
服务器可以直接将分类损失值和兼容损失值相加,从而得到脸部识别模型的目标损失值,或者,服务器也可以获取分类损失值对应的分类权重和兼容损失值对应的兼容权重,然后将分类权重与分类损失值相乘,得到调整后分类损失值,将兼容权重与兼容损失值相乘,得到调整后兼容损失值,最后再将调整后分类损失值和调整后兼容损失值相加,得到目标损失值。
在得到目标损失值之后,如果目标损失值等于或大于预设损失值,则根据目标损失值,更新脸部识别模型的参数(参数映射层的参数可以不更新),并返回执行对训练样本进行特征提取,得到训练样本对应的脸部特征的步骤,此时,可以无需执行对脸部特征和标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征,根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征的步骤,也可以执行,本实施例在此不做赘述。
可选地,分类权重和兼容权重在训练过程中,可以是固定的,或者,分类权重和兼容损失权重在训练过程中,也是动态变化的,也即是,在训练脸部识别模型的过程时,同时学习分类权重和兼容损失权重,此时,在根据目标损失值,更新脸部识别模型的参数的同时,更新分类权重和兼容损失权重。
需要说明的是,在应用目标脸部识别模型进行脸部识别时之后,可以将目标脸部识别模型中特征映射层和参数映射层拆卸掉,从而使得在通过目标脸部识别模型进行脸部识别时,不会引入额外参数。此时,采用目标脸部识别模型对待识别脸部图像进行识别的过程可以为:
获取待识别脸部图像,并通过目标脸部识别模型中特征提取层对待识别脸部图像进行特征提取,得到待识别图像对应的待识别脸部特征;
通过目标脸部识别模型中分类层,对待识别脸部特征进行分类,得到待识别脸部图像的识别结果。
在得到目标脸部识别模型之后,采用update gain方法,对目标脸部识别模型的兼容性指标进行评估,评估公式可以如下所示:
表示更新增益,/>表示目标脸部识别模型,/>表示脸部识别模型,Q表示查询集,D表示注册集(库集),/>表示在通过目标脸部模型提取查询集中脸部图像的脸部特征,并通过脸部识别模型提取注册集中脸部图像的脸部特征的情况下的真阳性率(TPR),/>在通过脸部识别模型提取注册集中脸部图像的脸部特征和提取查询集中脸部图像的脸部特征的情况下的真阳性率,表示通过目标脸部识别模型提取注册集中脸部图像的脸部特征和提取查询集中脸部图像的脸部特征的情况下的真阳性率。
表1和表2展示了通过各种更新方法得到的脸部识别模型的性能。表1的训练集和表2的训练集不相同。modelv0表示更新之前的脸部识别模型,ours表示目标脸部识别模型,model*表示没有进行兼容性更新的脸部识别模型,adapter wo boundary表示没有边界约束的自适应模型,adapter wo residual表示没有残差结构的自适应模型,adapter0.5beta表示分类权重和兼容权重为0.5的目标脸部识别模型,adapter learnable beta表示分类权重和兼容权重动态变化的目标脸部识别模型。
表1
表2
从表1中可以看出,目标脸部识别模型的准确率和更新增益均高于通过相关技术得到的脸部识别模型的准确率和更新增益。从表2中可以看出,分类权重和兼容权重固定时的目标脸部识别模型的真阳性率和更新增益,高于分类权重和兼容权重动态变化时的目标脸部识别模型;具备残差结构的目标脸部识别的真阳性率和更新增益,高于未具备残差结构的目标脸部识别的真阳性率和更新增益;没有边界约束的自适应模型的真阳性率高于没有残差结构的自适应模型的真阳性率(通过ablation study得到残差结构和边界约束的重要性)。
由以上可知,在本申请实施例中,获取更新脸部识别模型的训练集,训练集包括至少一个带标签的训练样本,训练样本为脸部识别模型历史识别的脸部图像,对训练样本进行特征提取,得到训练样本对应的脸部特征,并对脸部特征和标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征,以便可以根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征,使得在对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征之后,可以根据调整后融合特征,确定融合特征和调整后融合特征之间的兼容损失值,以及确定脸部识别模型的分类损失值,并根据分类损失值和兼容损失值,对脸部识别模型进行训练,得到脸部识别模型更新后的目标脸部识别模型,从而使得通过目标脸部识别模型得到的脸部特征和通过脸部识别模型得到的脸部特征具备兼容性,进而使得无需采用目标脸部识别模型对脸部库中脸部图像重新进行特征提取,减少特征重新提取的时间,提高识别速度。
根据上述实施例所描述的方法,以下将举例作进一步详细说明。
请参阅图21,图21为本申请实施例提供的更新人脸识别模型的训练集的构建方法,该构建方法流程可以包括:
S2101、服务器获取人脸识别模型历史识别的历史人脸图像,并提取历史人脸图像的关键点。
S2102、服务器通过第一综合质量模型,根据关键点,确定历史人脸图像对应的第一初始质量分数,通过第二综合质量模型,根据关键点,确定历史人脸图像对应的第二初始质量分数,并获取预设筛选阈值。
S2103、若第一初始质量分数和第二初始质量分数均小于或等于预设筛选阈值,服务器则将第一初始质量分数,作为历史人脸图像对应的质量分数。
S2104、若第一初始质量分数和第二初始质量分数均大于预设筛选阈值,服务器则将第二初始质量分数,作为历史人脸图像对应的质量分数。
S2105、服务器将满足预设分数阈值的质量分数对应的历史人脸图像,作为人脸识别模型历史识别的人脸图像。
在主动学习的方法中,提纯操作也就是质量过滤,是通过人工实现的,而在本实施例中,通过第一综合质量模型和第二综合质量模型确定历史人脸图像对应的质量分数,完成数据挖掘部分的自动化,实现对主动学习的方法中的质量过滤过程的改进。比如,如图17中的改进部分2。从而提高更新人脸识别模型的训练集中训练样本的质量,进而提高脸部识别模型的召回率。
S2106、服务器通过人脸识别模型对人脸图像进行聚类,得到人脸图像所在的图片簇。
S2107、服务器获取人脸图像的图片簇的标签热度,并从人脸图像的图片簇筛选出满足预设热度的标签热度的图片簇,得到初筛图片簇。
S2108、服务器根据初筛图片簇中人脸图像的人脸特征,确定初筛图片簇的密度权重,并从初筛图片簇中,筛选出满足预设权重的密度权重对应的图片簇,得到候选图片簇。
S2109、服务器根据候选图片簇中人脸图像对应的人脸特征,确定候选图片簇之间的关联度,并根据所述候选图片簇和关联度构建树形结构,树形结构包括多个节点和多条边,每个节点表示候选图片簇,边的权重表示候选图片簇之间的关联度。
S21010、服务器根据树形结构中边的权重,对树形结构进行调整,得到最小生成树,并从最小生成树中筛选出节点组,节点组对应待标注图片簇组。
S21011、服务器提取待标注图片簇组中人脸图像对应的多个模态信息,并将待标注图片簇组以及模态信息进行显示。
S21012、服务器接收用户根据模态信息,对待标注图片簇组中人脸图像进行标注的标注信息,得到标注后的人脸图像。
在本申请实施例中,显示多个模态信息,有效地抑制多妆容,多角度,年龄跨度等带来的干扰,使得用户更加容易确定待标注图片簇组中人脸图像是否为同一个人的图像,从而有效提升了标注效率和准确率,降低标注成本,准确率从85%提升到了99%,标注效率提升了5倍。
本申请实施例中显示多个模态信息以便用户进行标注,是对主动学习的方法中的标注操作的改进。比如,如图17中的改进部分3。
S21013、服务器根据标注后的人脸图像,构建更新人脸识别模型的训练集,训练集包括至少一个带标签的训练样本。
本实施例的具体实现方式以及对应的有益效果,具体可以参照上述模型更新方法实施例,本实例在此不再赘述。
请参阅图22,图22为本申请实施例提供的人脸识别模型的更新方法,该更新方法可以包括:
S2201、服务器通过人脸识别模型中特征提取层,对训练样本进行特征提取,得到训练样本对应的初始人脸特征。
S2202、服务器通过人脸识别模型中第一全连接层,对初始人脸特征进行特征降维映射,得到训练样本对应的降维后人脸特征,并通过人脸识别模型中第一激活层,对降维后人脸特征进行非线性特征映射,得到训练样本对应的非线性人脸特征。
S2203、服务器通过人脸识别模型中第二全连接层,对非线性人脸特征进行特征升维映射,训练样本对应的升维后人脸特征,并根据升维后人脸特征和初始人脸特征,确定训练样本对应的人脸特征。
S2204、服务器获取标签对应的目标簇的初始中心特征,并通过人脸识别模型中第三全连接层对目标簇的初始中心特征进行降维映射,得到降维后初始中心特征。
S2205、服务器通过人脸识别模型中第二激活层,对降维后初始中心特征进行非线性特征映射,得到非线性初始中心特征,并通过人脸识别模型中第四全连接层,对非线性初始中心特征进行特征升维映射,得到升维后初始中心特征。
S2206、服务器根据升维后初始中心特征和目标簇的初始中心特征,确定目标簇的中心特征。
S2207、服务器通过人脸识别模型中特征融合层,对人脸特征和目标簇的中心特征进行融合处理,得到训练样本的融合特征,并通过人脸识别模型中分类层,根据融合特征,确定训练样本的预测标签。
S2208、服务器获取人脸特征对应的第一方向信息、获取初始人脸特征的第二方向信息、以及获取目标簇的初始中心特征的第三方向信息。
S2209、服务器根据第一方向信息和第二方向信息,确定初始人脸特征和人脸特征之间的第一夹角信息,以及根据第二方向信息和第三方向信息,确定初始人脸特征和目标簇的中心特征之间的第二夹角信息。
S22010、服务器确定第一夹角信息和第二夹角信息之间的夹角差值,并根据预测标签、标签、夹角差值,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
S22011、服务器对人脸特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征。
S22012、服务器对调整后融合特征和初始人脸特征进行第一融合处理,得到训练样本的目标融合特征。
S22013、服务器根据目标融合特征,确定融合特征和调整后融合特征之间的兼容损失值,以及确定人脸识别模型的分类损失值。
S22014、服务器根据分类损失值和兼容损失值,对人脸识别模型进行训练,得到人脸识别模型更新后的目标人脸识别模型。
本实施例的具体实现方式以及对应的有益效果,具体可以参照上述模型更新方法实施例,本实例在此不再赘述。
为便于更好的实施本申请实施例提供的模型更新方法,本申请实施例还提供一种基于上述模型更新方法的装置。其中名词的含义与上述模型更新方法中相同,具体实现细节可以参考方法实施例中的说明。
例如,如图23所示,该模型更新装置可以包括:
获取模块2301,用于获取更新脸部识别模型的训练集,训练集包括至少一个带标签的训练样本,训练样本为脸部识别模型历史识别的脸部图像;
提取模块2302,用于对训练样本进行特征提取,得到训练样本对应的脸部特征,并对脸部特征和标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征;
调整模块2303,用于根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征;
融合模块2304,用于对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征;
确定模块2305,根据调整后融合特征,确定融合特征和调整后融合特征之间的兼容损失值,以及确定脸部识别模型的分类损失值;
训练模型2306,根据分类损失值和兼容损失值,对脸部识别模型进行训练,得到脸部识别模型更新后的目标脸部识别模型。
可选地,调整模块2303具体用于执行:
根据融合特征,确定训练样本的预测标签;
根据脸部特征以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
可选地,提取模块2302具体用于执行:
通过脸部识别模型中特征提取层对训练样本进行特征提取,得到训练样本对应的初始脸部特征;
通过脸部识别模型中特征映射层对初始脸部特征进行特征映射,得到训练样本对应的脸部特征。
可选地,调整模块2303具体用于执行:
获取脸部特征对应的第一方向信息,以及获取初始脸部特征的第二方向信息;
根据第一方向信息、第二方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
可选地,调整模块2303具体用于执行:
获取目标簇的中心特征的第三方向信息;
根据第一方向信息、第二方向信息、第三方向信息以及预测标签,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
可选地,融合模块2304具体用于执行:
对调整后融合特征和初始脸部特征进行第一融合处理,得到训练样本的目标融合特征;
根据目标融合特征,确定融合特征和调整后融合特征之间的兼容损失值。
可选地,模型更新装置还包括:
映射模块,用于执行:
获取标签对应的目标簇的初始中心特征;
通过脸部识别模型的中心映射层,对初始中心特征进行映射,得到标签对应的目标簇的中心特征。
可选地,获取模块2301具体用于执行:
获取脸部识别模型历史识别的脸部图像;
从脸部图像对应的图片簇中筛选出待标注图片簇组,并根据待标注图片簇组对脸部图像进行标注,得到带标签的脸部图像;
根据带标签的脸部图像,确定更新脸部识别模型的训练集。
可选地,获取模块2301具体用于执行:
获取脸部识别模型历史识别的历史脸部图像;
提取历史脸部图像的关键点,并根据关键点确定历史脸部图像对应的质量分数;
将满足预设分数阈值的质量分数对应的历史脸部图像,作为脸部识别模型历史识别的脸部图像。
可选地,获取模块2301具体用于执行:
获取历史脸部图像的多个质量模型;
通过质量模型,根据关键点,确定历史脸部图像的多个初始质量分数;
根据初始质量分数,确定历史脸部图像对应的质量分数。
可选地,历史脸部图像存在多个质量评价维度,每个质量评价维度对应一个维度质量模型,相应地,获取模块2301具体用于执行:
通过维度质量模型,根据关键点,确定历史脸部图像针对每个质量评价维度的初始质量分数;
对各个初始质量分数进行加权运算,得到历史脸部图像对应的质量分数。
可选地,模型更新装置还包括:
训练模块,用于执行:
获取待训练维度质量模型的第一训练集,第一训练集包括多个第一训练样本;
提取第一训练样本的样本关键点,并根据样本关键点,确定待训练维度质量模型的成对损失值和/或锚损失值;
根据成对损失值和/或锚损失值,对待训练维度质量模型进行训练,得到维度质量模型。
可选地,训练模块具体用于执行:
获取第一训练样本对应的锚标签,锚标签表示质量评价维度的级别,第一训练集存在至少三种锚标签;
根据关键点,确定第一训练样本的预测分数;
根据锚标签、遮挡预测分数以及锚标签对应的分数区间,确定待训练维度质量模型的锚损失值。
可选地,历史脸部图像的多个质量模型包括第一综合质量模型和第二综合质量模型,相应地,获取模块2301具体用于执行:
通过第一综合质量模型,根据关键点,确定历史脸部图像对应的第一初始质量分数;
通过第二综合质量模型,根据关键点,确定历史脸部图像对应的第二初始质量分数;
从第一初始质量分数和第二初始质量分数中,筛选出历史脸部图像对应的质量分数。
可选地,获取模块2301具体用于执行:
获取预设筛选阈值;
若第一初始质量分数和第二初始质量分数均小于或等于预设筛选阈值,则将第一初始质量分数,作为历史脸部图像对应的质量分数;
若第一初始质量分数和第二初始质量分数均大于预设筛选阈值,则将第二初始质量分数,作为历史脸部图像对应的质量分数。
可选地,获取模块2301具体用于执行:
根据脸部图像对应的图片簇中脸部特征,确定脸部图像对应的图片簇之间的关联度;
根据关联度,从脸部图像对应的图片簇中,筛选出待标注图片簇组。
可选地,获取模块2301具体用于执行:
根据脸部图像对应的图片簇和关联度构建数据结构,数据结构包括多个节点和多条边,每个节点表示脸部图像对应的图片簇,边的权重表示脸部图像对应的图片簇之间的关联度;
根据数据结构中边的权重,对数据结构进行环形调整,得到不包含环形连接的数据结构;
从不包含环形连接的数据结构中筛选出节点组,节点组对应待标注图片簇组。
可选地,获取模块2301具体用于执行:
提取待标注图片簇组中脸部图像对应的多个模态信息;
将待标注图片簇组以及模态信息进行显示;
接收用户根据模态信息,对待标注图片簇组中脸部图像进行标注的标注信息,得到标注后的脸部图像。
具体实施时,以上各个模块可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个模块的具体实施方式以及对应的有益效果可参见前面的方法实施例,在此不再赘述。
本申请实施例还提供一种电子设备,该电子设备可以是服务器或终端等,如图24所示,其示出了本申请实施例所涉及的电子设备的结构示意图,具体来讲:
该电子设备可以包括一个或者一个以上处理核心的处理器2401、一个或一个以上计算机可读存储介质的存储器2402、电源2403和输入单元2404等部件。本领域技术人员可以理解,图24中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器2401是该电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器2402内的计算机程序和/或模块,以及调用存储在存储器2402内的数据,执行电子设备的各种功能和处理数据。可选的,处理器2401可包括一个或多个处理核心;优选的,处理器2401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器2401中。
存储器2402可用于存储计算机程序以及模块,处理器2401通过运行存储在存储器2402的计算机程序以及模块,从而执行各种功能应用以及数据处理。存储器2402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的计算机程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器2402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器2402还可以包括存储器控制器,以提供处理器2401对存储器2402的访问。
电子设备还包括给各个部件供电的电源2403,优选的,电源2403可以通过电源管理系统与处理器2401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源2403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该电子设备还可包括输入单元2404,该输入单元2404可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,电子设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,电子设备中的处理器2401会按照如下的指令,将一个或一个以上的计算机程序的进程对应的可执行文件加载到存储器2402中,并由处理器2401来运行存储在存储器2402中的计算机程序,从而实现各种功能,比如:
获取更新脸部识别模型的训练集,训练集包括至少一个带标签的训练样本,训练样本为脸部识别模型历史识别的脸部图像;
对训练样本进行特征提取,得到训练样本对应的脸部特征,并对脸部特征和标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征;
根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征;
对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征;
根据调整后融合特征,确定融合特征和调整后融合特征之间的兼容损失值,以及确定脸部识别模型的分类损失值;
根据分类损失值和兼容损失值,对脸部识别模型进行训练,得到脸部识别模型更新后的目标脸部识别模型。
以上各个操作的具体实施方式以及对应的有益效果可参见上文对模型更新方法的详细描述,在此不作赘述。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过计算机程序来完成,或通过计算机程序控制相关的硬件来完成,该计算机程序可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任一种模型更新方法中的步骤。例如,该计算机程序可以执行如下步骤:
获取更新脸部识别模型的训练集,训练集包括至少一个带标签的训练样本,训练样本为脸部识别模型历史识别的脸部图像;
对训练样本进行特征提取,得到训练样本对应的脸部特征,并对脸部特征和标签对应的目标簇的中心特征进行融合处理,得到训练样本的融合特征;
根据融合特征和脸部特征,对目标簇的中心特征进行调整,得到目标簇的调整后中心特征;
对脸部特征和目标簇的调整后中心特征进行融合处理,得到训练样本的调整后融合特征;
根据调整后融合特征,确定融合特征和调整后融合特征之间的兼容损失值,以及确定脸部识别模型的分类损失值;
根据分类损失值和兼容损失值,对脸部识别模型进行训练,得到脸部识别模型更新后的目标脸部识别模型。
以上各个操作的具体实施方式以及对应的有益效果可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种模型更新方法中的步骤,因此,可以实现本申请实施例所提供的任一种模型更新方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
其中,根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述模型更新方法。
以上对本申请实施例所提供的一种模型更新方法、装置、设备、存储介质及程序产品进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (17)
1.一种模型更新方法,其特征在于,包括:
获取更新脸部识别模型的训练集,所述训练集包括至少一个带标签的训练样本,所述训练样本为所述脸部识别模型历史识别的脸部图像;
对所述训练样本进行特征提取,得到所述训练样本对应的脸部特征,并对所述脸部特征和所述标签对应的目标簇的中心特征进行融合处理,得到所述训练样本的融合特征;
根据所述融合特征,确定所述训练样本的预测标签,并获取所述脸部特征对应的第一方向信息,以及获取所述目标簇的中心特征的第三方向信息;
根据所述第一方向信息、所述第三方向信息以及所述预测标签,对所述目标簇的中心特征进行调整,得到所述目标簇的调整后中心特征;
对所述脸部特征和所述目标簇的调整后中心特征进行融合处理,得到所述训练样本的调整后融合特征;
根据所述调整后融合特征,确定所述融合特征和所述调整后融合特征之间的兼容损失值,以及确定所述脸部识别模型的分类损失值;
根据所述分类损失值和所述兼容损失值,对所述脸部识别模型进行训练,得到所述脸部识别模型更新后的目标脸部识别模型。
2.根据权利要求1所述的模型更新方法,其特征在于,所述对所述训练样本进行特征提取,得到所述训练样本对应的脸部特征,包括:
通过所述脸部识别模型中特征提取层对所述训练样本进行特征提取,得到所述训练样本对应的初始脸部特征;
通过所述脸部识别模型中特征映射层对所述初始脸部特征进行特征映射,得到所述训练样本对应的脸部特征。
3.根据权利要求2所述的模型更新方法,其特征在于,所述根据所述第一方向信息、所述第三方向信息以及所述预测标签,对所述目标簇的中心特征进行调整,得到所述目标簇的调整后中心特征,包括:
获取所述初始脸部特征的第二方向信息;
根据所述第一方向信息和所述第二方向信息,确定所述初始脸部特征和所述脸部特征之间的第一夹角信息;
根据所述第二方向信息和所述第三方向信息,确定所述初始脸部特征和所述目标簇的中心特征之间的第二夹角信息;
根据所述第一夹角信息、所述第二夹角信息以及所述预测标签,对所述目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
4.根据权利要求3所述的模型更新方法,其特征在于,所述根据所述第一夹角信息、所述第二夹角信息以及所述预测标签,对所述目标簇的中心特征进行调整,得到目标簇的调整后中心特征,包括:
确定所述第一夹角信息和所述第二夹角信息之间的夹角差值;
根据预测标签、所述夹角差值以及所述标签,对所述目标簇的中心特征进行调整,得到目标簇的调整后中心特征。
5.根据权利要求2所述的模型更新方法,其特征在于,所述脸部识别模型中还包括中心映射层,所述方法还包括:
获取所述标签对应的目标簇的初始中心特征;
通过所述脸部识别模型的中心映射层,对所述初始中心特征进行映射,得到所述标签对应的目标簇的中心特征。
6.一种模型更新方法,其特征在于,包括:
获取脸部识别模型历史识别的脸部图像;
根据所述脸部图像对应的图片簇中脸部特征,确定所述脸部图像对应的图片簇之间的簇相似度;
根据所述脸部图像对应的图片簇中脸部图像的个数和所述脸部图像的总个数,计算所述脸部图像对应的图片簇的标签热度;
根据所述簇相似度和所述标签热度,确定所述脸部图像对应的图片簇之间的关联度,并根据所述关联度,从所述脸部图像对应的图片簇中,筛选出待标注图片簇组;
根据所述待标注图片簇组对所述脸部图像进行标注,得到带标签的脸部图像,并根据所述带标签的脸部图像,确定更新脸部识别模型的训练集;
根据所述训练集,对所述脸部识别模型进行训练,得到所述脸部识别模型更新后的目标脸部识别模型。
7.根据权利要求6所述的模型更新方法,其特征在于,获取所述脸部识别模型历史识别的脸部图像,包括:
获取所述脸部识别模型历史识别的历史脸部图像;
提取所述历史脸部图像的关键点,并根据所述关键点确定所述历史脸部图像对应的质量分数;
将满足预设分数阈值的质量分数对应的历史脸部图像,作为所述脸部识别模型历史识别的脸部图像。
8.根据权利要求7所述的模型更新方法,其特征在于,所述根据所述关键点确定所述历史脸部图像对应的质量分数,包括:
获取所述历史脸部图像的多个质量模型;
通过所述质量模型,根据所述关键点,确定所述历史脸部图像的多个初始质量分数;
根据所述初始质量分数,确定所述历史脸部图像对应的质量分数。
9.根据权利要求8所述的模型更新方法,其特征在于,所述历史脸部图像存在多个质量评价维度,每个所述质量评价维度对应一个维度质量模型;
所述通过所述质量模型,根据所述关键点,确定所述历史脸部图像的多个初始质量分数,根据所述初始质量分数,确定所述历史脸部图像对应的质量分数,包括:
通过所述维度质量模型,根据所述关键点,确定所述历史脸部图像针对每个质量评价维度的初始质量分数;
对各个所述初始质量分数进行加权运算,得到所述历史脸部图像对应的质量分数。
10.根据权利要求9所述的模型更新方法,其特征在于,在所述通过所述维度质量模型,根据所述关键点,确定所述历史脸部图像针对每个质量评价维度的初始质量分数之前,还包括:
获取待训练维度质量模型的第一训练集,所述第一训练集包括多个第一训练样本;
提取所述第一训练样本的样本关键点,并根据所述样本关键点,确定所述待训练维度质量模型的成对损失值和/或锚损失值;
根据所述成对损失值和/或锚损失值,对所述待训练维度质量模型进行训练,得到维度质量模型。
11.根据权利要求8所述的模型更新方法,其特征在于,所述历史脸部图像的多个质量模型包括第一综合质量模型和第二综合质量模型,所述通过所述质量模型,根据所述关键点,确定所述历史脸部图像的多个初始质量分数,根据所述初始质量分数,确定所述历史脸部图像对应的质量分数,包括:
通过所述第一综合质量模型,根据所述关键点,确定所述历史脸部图像对应的第一初始质量分数;
通过所述第二综合质量模型,根据所述关键点,确定所述历史脸部图像对应的第二初始质量分数;
从所述第一初始质量分数和所述第二初始质量分数中,筛选出所述历史脸部图像对应的质量分数。
12.根据权利要求11所述的模型更新方法,其特征在于,所述从所述第一初始质量分数和所述第二初始质量分数中,筛选出所述历史脸部图像对应的质量分数,包括:
获取预设筛选阈值;
若所述第一初始质量分数和所述第二初始质量分数均小于或等于所述预设筛选阈值,则将所述第一初始质量分数,作为所述历史脸部图像对应的质量分数;
若所述第一初始质量分数和所述第二初始质量分数均大于所述预设筛选阈值,则将所述第二初始质量分数,作为所述历史脸部图像对应的质量分数。
13.根据权利要求6所述的模型更新方法,其特征在于,所述根据所述关联度,从所脸部图像对应的图片簇中,筛选出待标注图片簇组,包括:
根据所述脸部图像对应的图片簇和所述关联度构建数据结构,所述数据结构包括多个节点和多条边,每个所述节点表示所述脸部图像对应的图片簇,所述边的权重表示所述脸部图像对应的图片簇之间的关联度;
根据所述数据结构中边的权重,对所述数据结构进行环形调整,得到不包含环形连接的数据结构;
从所述不包含环形连接的数据结构中筛选出节点组,所述节点组对应所述待标注图片簇组。
14.根据权利要求6所述的模型更新方法,其特征在于,所述根据所述待标注图片簇组对所述脸部图像进行标注,得到带标签的脸部图像,包括:
提取所述待标注图片簇组中脸部图像对应的多个模态信息;
将所述待标注图片簇组以及所述模态信息进行显示;
接收用户根据所述模态信息,对所述待标注图片簇组中脸部图像进行标注的标注信息,得到带标签的脸部图像。
15.一种模型更新装置,其特征在于,包括:
获取模块,用于获取更新脸部识别模型的训练集,所述训练集包括至少一个带标签的训练样本,所述训练样本为所述脸部识别模型历史识别的脸部图像;
提取模块,用于对所述训练样本进行特征提取,得到所述训练样本对应的脸部特征,并对所述脸部特征和所述标签对应的目标簇的中心特征进行融合处理,得到所述训练样本的融合特征;
调整模块,用于获取所述脸部特征对应的第一方向信息,以及获取所述目标簇的中心特征的第三方向信息,根据所述第一方向信息、所述第三方向信息以及所述预测标签,对所述目标簇的中心特征进行调整,得到所述目标簇的调整后中心特征;
融合模块,用于对所述脸部特征和所述目标簇的调整后中心特征进行融合处理,得到所述训练样本的调整后融合特征;
确定模块,根据所述调整后融合特征,确定所述融合特征和所述调整后融合特征之间的兼容损失值,以及确定所述脸部识别模型的分类损失值;
训练模型,根据所述分类损失值和所述兼容损失值,对所述脸部识别模型进行训练,得到所述脸部识别模型更新后的目标脸部识别模型。
16.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有计算机程序,所述处理器用于运行所述存储器内的计算机程序,以执行权利要求1至14任一项所述的模型更新方法。
17.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行权利要求1至14任一项所述的模型更新方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310237157.5A CN116978087A (zh) | 2022-11-01 | 2022-11-01 | 模型更新方法、装置、设备、存储介质及程序产品 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310237157.5A CN116978087A (zh) | 2022-11-01 | 2022-11-01 | 模型更新方法、装置、设备、存储介质及程序产品 |
CN202211353988.0A CN115439919B (zh) | 2022-11-01 | 2022-11-01 | 模型更新方法、装置、设备、存储介质及程序产品 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211353988.0A Division CN115439919B (zh) | 2022-11-01 | 2022-11-01 | 模型更新方法、装置、设备、存储介质及程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116978087A true CN116978087A (zh) | 2023-10-31 |
Family
ID=84252116
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211353988.0A Active CN115439919B (zh) | 2022-11-01 | 2022-11-01 | 模型更新方法、装置、设备、存储介质及程序产品 |
CN202310237157.5A Pending CN116978087A (zh) | 2022-11-01 | 2022-11-01 | 模型更新方法、装置、设备、存储介质及程序产品 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211353988.0A Active CN115439919B (zh) | 2022-11-01 | 2022-11-01 | 模型更新方法、装置、设备、存储介质及程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN115439919B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116029556B (zh) * | 2023-03-21 | 2023-05-30 | 支付宝(杭州)信息技术有限公司 | 一种业务风险的评估方法、装置、设备及可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9552648B1 (en) * | 2012-01-23 | 2017-01-24 | Hrl Laboratories, Llc | Object tracking with integrated motion-based object detection (MogS) and enhanced kalman-type filtering |
CN106570499A (zh) * | 2016-10-28 | 2017-04-19 | 南京航空航天大学 | 一种基于概率图模型的目标跟踪方法 |
CN110414432B (zh) * | 2019-07-29 | 2023-05-16 | 腾讯科技(深圳)有限公司 | 对象识别模型的训练方法、对象识别方法及相应的装置 |
CN111507419B (zh) * | 2020-04-22 | 2022-09-30 | 腾讯科技(深圳)有限公司 | 图像分类模型的训练方法及装置 |
-
2022
- 2022-11-01 CN CN202211353988.0A patent/CN115439919B/zh active Active
- 2022-11-01 CN CN202310237157.5A patent/CN116978087A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN115439919A (zh) | 2022-12-06 |
CN115439919B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112131978B (zh) | 一种视频分类方法、装置、电子设备和存储介质 | |
US11804069B2 (en) | Image clustering method and apparatus, and storage medium | |
CN104679818B (zh) | 一种视频关键帧提取方法及系统 | |
CN104636751A (zh) | 基于时间递归神经网络的人群异常检测和定位系统及方法 | |
CN112052948B (zh) | 一种网络模型压缩方法、装置、存储介质和电子设备 | |
CN113052150B (zh) | 活体检测方法、装置、电子设备和计算机可读存储介质 | |
CN112052759B (zh) | 一种活体检测方法和装置 | |
CN111582342A (zh) | 一种图像识别方法、装置、设备以及可读存储介质 | |
CN110929119A (zh) | 数据标注方法、装置、设备及计算机存储介质 | |
CN110458600A (zh) | 画像模型训练方法、装置、计算机设备及存储介质 | |
CN110765285A (zh) | 基于视觉特征的多媒体信息内容管控方法及系统 | |
CN115439919B (zh) | 模型更新方法、装置、设备、存储介质及程序产品 | |
CN111538859B (zh) | 一种动态更新视频标签的方法、装置及电子设备 | |
CN113821657A (zh) | 基于人工智能的图像处理模型训练方法及图像处理方法 | |
CN117391497A (zh) | 一种新闻稿件质量主客观评分一致性评价方法及系统 | |
CN112685573A (zh) | 一种知识图谱嵌入训练方法和相关装置 | |
TWI761090B (zh) | 對話資料處理系統、其方法及電腦可讀媒介 | |
CN114064897A (zh) | 一种情感文本数据标注方法、装置、系统及电子设备 | |
CN116842936A (zh) | 关键词识别方法、装置、电子设备和计算机可读存储介质 | |
CN113822412A (zh) | 一种图节点标注方法、装置、设备及存储介质 | |
CN109657684A (zh) | 一种基于弱监督学习的图像语义解析方法 | |
Liu | Construction of personalized recommendation system of university library based on SOM neural network | |
CN116992031B (zh) | 数据处理方法、装置、电子设备、存储介质及程序产品 | |
CN115563954A (zh) | 机器阅读理解方法、装置、设备和计算机可读存储介质 | |
CN117994194A (zh) | 画质识别方法、装置、设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |