CN112287870A - 一种人脸识别方法、装置及电子设备 - Google Patents
一种人脸识别方法、装置及电子设备 Download PDFInfo
- Publication number
- CN112287870A CN112287870A CN202011255486.5A CN202011255486A CN112287870A CN 112287870 A CN112287870 A CN 112287870A CN 202011255486 A CN202011255486 A CN 202011255486A CN 112287870 A CN112287870 A CN 112287870A
- Authority
- CN
- China
- Prior art keywords
- model
- disturbance
- face recognition
- loss function
- sample image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000006870 function Effects 0.000 claims abstract description 180
- 238000012549 training Methods 0.000 claims abstract description 60
- 238000000605 extraction Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000013434 data augmentation Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 3
- 208000032538 Depersonalisation Diseases 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 7
- 238000001514 detection method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009193 crawling Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
本发明实施例公开了一种人脸识别方法、装置及电子设备,所述方法包括:获取待进行人脸识别的目标图像;将所述目标图像输入到基于模型扰动的半监督人脸识别模型中,获取人脸识别结果;其中,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数包括未加入模型扰动时的损失函数和加入模型扰动时的损失函数。本发明实施例采用基于模型扰动的半监督人脸识别模型对待进行人脸识别的目标图像进行人脸识别,能够有效抵御外界扰动对识别过程的影响,从而可以有效提高人脸识别准确度。
Description
技术领域
本发明涉及深度学习技术领域,具体涉及一种人脸识别方法、装置及电子设备。
背景技术
深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。目前人脸识别技术以非接触、非侵犯、易操作、可扩展等优势已广泛运用到安防、门禁、银行支付等场景。人脸识别主流的方法包含基于特征脸、几何特征和深度学习方法等。目前由于丰富的标签人脸数据,使深度学习成为人脸识别技术首选方法
现有的深度学习算法通常假设训练和测试数据来自相同的数据源,但是人脸识别模型在实际使用过程中遇到测试数据和训练数据来自不同的数据源的问题,从而导致其识别模型识别性能下降。
关于这个问题最简单的解决方法就是收集大量来自不同数据源的标签人脸数据,然而由于隐私和人工标注的成本,导致收集不同的数据源的测试数据和训练数据极其困难,同时针对标签人脸数据其场景多样性、姿态和表情变化有限等因素,导致有限训练标签数据训练的模型无法推广到无约束场景,而当识别模型中出现的一些扰动就会导致识别失败。此外,由于人脸识别技术已经广泛运用到各种领域,例如金融支付领域,因此,对于人脸识别模型的抗干扰能力提出了更高的要求,因此,需要一种更加健壮的识别模型来抵抗模型的攻击和扰动等导致识别失败的问题。
发明内容
由于现有方法存在上述问题,本发明实施例提供一种人脸识别方法、装置及电子设备。
第一方面,本发明实施例提供了一种人脸识别方法,包括:
获取待进行人脸识别的目标图像;
将所述目标图像输入到基于模型扰动的半监督人脸识别模型中,获取人脸识别结果;
其中,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数包括未加入模型扰动时的损失函数和加入模型扰动时的损失函数。
进一步地,所述未加入模型扰动时的损失函数对应有标签的样本图像;
所述未加入模型扰动时的损失函数包括第一损失函数,所述第一损失函数为有标签的样本图像在所述基于模型扰动的半监督人脸识别模型未加入最坏扰动情况下的识别损失;
所述加入模型扰动时的损失函数对应有标签的样本图像和无标签的样本图像;所述加入模型扰动时的损失函数包括第二损失函数和第三损失函数;
所述第二损失函数为有标签的样本图像在所述基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征一致性损失;
所述第三损失函数为无标签的样本图像在所述基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征一致性损失。
进一步地,所述第一损失函数Lidt为:
其中,s,m为超参数,fi为识别特征向量,为yi类的权重向量,exp是以e为底的指数函数,X表示有标签的样本图像数据集合,X={(x1,y1),(x2,y2),…,(xn,yn)},其中xi表示人脸样本图像,yi表示识别标签。
进一步地,所述第二损失函数Ll_wcp为:
所述第三损失函数Lu_wcp为:
其中,f(·)表示识别特征提取函数,wcp(·)表示对识别特征提取函数加入最坏情况下的扰动,为范数符号,下面的2表示2范数,上面的2表示平方,X表示有标签的样本图像数据集合,x表示有标签的样本图像数据集合中的人脸样本图像元素,U表示无标签的样本图像数据集合,u表示无标签的样本图像数据集合中的人脸样本图像。
进一步地,在对所述基于模型扰动的半监督人脸识别模型进行训练时,先只使用有标签的样本图像训练第一损失函数,当第一损失函数满足预设对应的收敛条件时,加入无标签的样本图像训练由第一损失函数、第二损失函数和第三损失函数组成的损失函数直至满足模型收敛条件。
进一步地,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数L为:
L=λidtlidt+λl_wcpLl_wcp+λu_wcpLu_wcp;
其中,λidt、λl_wcp、λu_wcp为人脸识别模型总的损失函数的超参数,lidt为表征有标签的样本图像的识别损失的第一损失函数,Ll_wcp为表征有标签的样本图像在加入最坏扰动的情况下的识别特征一致性损失的第二损失函数,Lu_wcp为表征无标签的样本图像在加入最坏扰动的情况下的识别特征一致性损失的第三损失函数。
进一步地,在采用有标签的样本图像和无标签的样本图像对所述基于模型扰动的半监督人脸识别模型进行训练之前,使用随机裁剪、随机亮度增强、随机灰度化和随机水平翻转中的一种或多种操作对各样本图像进行数据增广处理。
第二方面,本发明实施例提供了一种人脸识别装置,包括:
获取模块,用于获取待进行人脸识别的目标图像;
识别模块,用于将所述目标图像输入到基于模型扰动的半监督人脸识别模型中,获取人脸识别结果;
其中,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数包括未加入模型扰动时的损失函数和加入模型扰动时的损失函数。
第三方面,本发明实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的人脸识别方法。
由上面技术方案可知,本发明实施例提供的人脸识别方法、装置及电子设备,采用基于模型扰动的半监督人脸识别模型对待进行人脸识别的目标图像进行人脸识别,由于基于模型扰动的半监督人脸识别模型是由加入模型扰动后训练得到的,从而能够有效抵御外界扰动对识别过程的影响,提高人脸识别准确度。本发明提供的人脸识别方法适用于各种人脸识别场景,尤其适用于存在干扰因素比较多的人脸识别场景或对识别准确度要求比较高的场景。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些图获得其他的附图。
图1是本发明一实施例提供的一种人脸识别方法的流程图;
图2是本发明一实施例提供的一种人脸识别方法的网络结构的示意图;
图3是本发明一实施例提供的一种人脸识别装置的结构示意图;
图4是本发明一实施例的电子设备的结构示意图。
具体实施方式
下面结合附图,对本发明的具体实施方式作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
图1出示了本发明一实施例提供的一种人脸识别方法的流程图,图2是本发明一实施例提供的一种人脸识别方法的网络结构的示意图。下面结合图1和图2对本发明实施例提供的一种人脸识别方法进行详细解释和说明。如图1所示,本发明实施例提供的一种人脸识别方法,具体包括如下内容:
步骤101:获取待进行人脸识别的目标图像;
步骤102:将所述目标图像输入到基于模型扰动的半监督人脸识别模型中,获取人脸识别结果;
其中,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数包括未加入模型扰动时的损失函数和加入模型扰动时的损失函数。
在本步骤中,基于模型扰动的半监督人脸识别模型在训练时采用了未加入模型扰动时的损失函数和加入模型扰动时的损失函数,因此可以抵抗外界干扰的影响,不会使得外界的干扰因素影响识别过程,从而能够有效提高人脸识别准确度。
可以理解的是,本实施例将外界干扰类比成模型扰动加在模型中,以增加模型扰动来模拟真实识别世界中的各种干扰因素,由于本实施例在对模型进行训练时,将未加入模型扰动时的损失函数和加入模型扰动时的损失函数作为模型训练的损失函数,从而可以抵抗外界干扰的影响,不会使得外界的干扰因素影响识别过程,从而能够有效提高人脸识别准确度。
在本实施例中,可以理解的是,本实施例提供的人脸识别方法,可以应用在各种场景,例如,可以应用在对准确性和安全性要求均较高的金融支付场景等。此外,由于本实施例提供的人脸识别方法,抗干扰能力比较强,因此还可以应用在较为恶劣的使用场景中,如火车站、飞机场、户外等识别场景。
此外,由于本实施例提供的人脸识别方法,可以用于单个人脸识别,也可以用于多个人脸的一起识别等,本实施例对此不做限制。
由上面技术方案可知,本发明实施例提供的人脸识别方法,采用基于模型扰动的半监督人脸识别模型对待进行人脸识别的目标图像进行人脸识别,由于基于模型扰动的半监督人脸识别模型是由加入模型扰动后训练得到的,从而能够有效抵御外界扰动对识别过程的影响,提高人脸识别准确度。本发明提供的人脸识别方法适用于各种人脸识别场景,尤其适用于存在干扰因素比较多的人脸识别场景或对识别准确度要求比较高的场景。
基于上述实施例的内容,在本实施例中,所述未加入模型扰动时的损失函数对应有标签的样本图像;
所述未加入模型扰动时的损失函数包括第一损失函数,所述第一损失函数为有标签的样本图像在所述基于模型扰动的半监督人脸识别模型未加入最坏扰动情况下的识别损失;
所述加入模型扰动时的损失函数对应有标签的样本图像和无标签的样本图像;所述加入模型扰动时的损失函数包括第二损失函数和第三损失函数;
所述第二损失函数为有标签的样本图像在所述基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征一致性损失;
所述第三损失函数为无标签的样本图像在所述基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征一致性损失。
在本实施例中,第一损失函数用于表征有标签的样本图像在基于模型扰动的半监督人脸识别模型未加入最坏扰动情况下的识别损失。第二损失函数用于表征有标签的样本图像在基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征一致性损失。第三损失函数用于表征无标签的样本图像在基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征一致性损失。所述基于模型扰动的半监督人脸识别模型在训练时先以第一损失函数进行训练,并在第一损失函数的函数值达到第一阈值(如1)时,同时以第一损失函数、第二损失函数和第三损失函数进行训练。
在本实施例中,可以理解的是,有标签的样本图像在模型加入最坏扰动下的识别特征一致性损失(还可以叫做扰动特征一致性损失)是指有标签的样本图像在基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征和不加入最坏扰动情况下的识别特征的损失值(也称差值);无标签的样本图像在模型加入最坏扰动下的识别特征一致性损失是指无标签的样本图像在所述基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征和不加入最坏扰动情况下的识别特征的损失值。
在本实施例中,需要说明的是,为了保证有标签数据的正确识别,可以使用用于表征有标签的样本图像的识别损失的第一损失函数对模型进行训练,以保证有标签的样本图像的识别准确度。同时,为了在加入最扰动的情况下,有标签的图像能够保持特征的一致性,可以使用用于表征有标签的样本图像在加入最坏扰动的情况下的识别特征一致性损失的第二损失函数对模型进行训练,以保证在加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致。同时,为使模型在加入最坏扰动的情况下,无标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致,可以使用用于表征无标签的样本图像在加入最坏扰动的情况下的识别特征一致性损失的第三损失函数对模型进行训练,以保证在加入最坏扰动的情况下,无标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致。
可以理解的是,上述第一损失函数、第二损失函数和第三损失函数作为一个整体作为人脸识别模型在训练时对应的损失函数,三个损失函数共同作用进而使得本实施例提供的人脸识别模型具有能够有效应用噪声、对抗样本等扰动以及有标签和无标签两种不同数据域之间的差距给识别模型带来的影响的功能。
为方便理解本实施例上述内容,现在对本实施例提供的基于模型扰动的半监督人脸识别模型进行详细说明如下:
在本实施例中,所述基于模型扰动的半监督人脸识别模型为采用有标签的样本图像和无标签的样本图像,基于半监督的机器学习方式训练后得到的,与此同时,所述基于模型扰动的半监督人脸识别模型在训练时的收敛方向为模型的识别准确度满足预设条件,同时使得在模型加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致以及使得在模型加入最坏扰动的情况下无标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致。
在本实施例中,需要说明的是,所述基于模型扰动的半监督人脸识别模型为采用有标签的样本图像和无标签的样本图像,基于半监督的机器学习方式训练后得到的。其中,本实施例的人脸识别模型的数据集由两部分构成:有标签的样本图像数据集和无标签的样本图像数据集。对于有标签的样本图像数据集主要从公开的人脸识别数据集中选取。在获取完样本图像数据集后,需要确定用于进行人脸识别的关键特征点,例如,可以选择左眼、右眼、鼻子、右嘴尖、左嘴尖这几个特征点作为人脸识别的关键特征点。具体来说,可以使用带有五个关键点检测的人脸检测算法获取数据集中人脸的边界框以及五个关键点的位置坐标,其五个关键点分别为左眼、右眼、鼻子,右嘴尖,左嘴尖。此外,对于用于进行人脸识别的关键特征点并不限于上述的几个特征点,根据需要还可以增加眉毛、脸部纹路、额头宽度、额头长度等特征点,本实施例对此不作限定。
此外,对于无标签的样本图像数据集采取两种选取方案,分别为:从人脸检测、人脸表情识别等有关人脸的公开数据集中选取和从网络上爬取有关人脸的数据。
可以理解的是,无标签的样本图像数据源区别于有标签的样本图像数据,并包含更多的变化,更接近于无约束场景下的图像。
在本实施例中,针对选取的有标签的和无标签的样本图像数据,使用人脸检测算法并返回图片中人脸的边界框坐标以及五个关键点的位置,并根据检测出的人脸边界框位置,将边界框的宽和高扩大至原始的1.5倍进行裁剪,获取用于进行模型训练的样本图像数据。
在本实施例中,需要说明的是,人脸识别模型在训练时的收敛方向包括三部分内容,分别为:A、模型的识别准确度满足预设条件;B、使得在模型加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致;C、使得模型在加入最坏扰动的情况下,无标签的相同样本图像对应的识别特征在模型不加入最坏扰动的情况下对应的识别特征趋向一致。可以理解的是,上述收敛方向中内容A的目的是提升模型的识别准确度;上述收敛方向中内容B的目的是使得模型在加入最坏扰动的情况下,有标签的图像能够保持特征的一致性从而提升模型的健壮性;上述收敛方向中内容C的目的是使得模型在加入最扰动的情况下,无标签的图像能够保持特征的一致性从而提升识别网络的泛化能力。由此可见,本实施例在对人脸识别模型进行训练时,通过上述三部分内容的约束,使得本实施例提供的人脸识别方法利用减小无约束场景下无标签数据源和有标签数据源之间距离使之可以推广到无约束场景下的识别,同时,也能够有效应用噪声、对抗样本等扰动给识别模型带来的影响,进而提升模型的健壮性。由此可见,本实施例提供的基于模型扰动的半监督人脸识别方法可以有效提升模型的泛化能力和模型的健壮性,从而扩大模型的应用场景的同时提高模型的识别性能。
在本实施例中,需要说明的是,使得加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致以及使得在模型加入最坏扰动的情况下无标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致的意义在于:通过对人脸识别模型进行训练时,加入了最坏扰动,使得在加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致以及使得在模型加入最坏扰动的情况下无标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致,从而使得可以最小化最坏扰动对识别模型的影响以及有效学习无标签数据的信息,进而提升模型的健壮性和泛化能力。而现有的人脸识别模型的健壮性一般较差,例如,当在原始数据上增加一些扰动或噪声时,就会导致现有技术中的模型识别失败。而本实施例由于对模型中的权重参数加入了最坏扰动,且在训练模型时以最小化最坏扰动对识别模型的影响以及有效学习无标签数据信息(也即使得有标签的相同样本和无标签的相同样本在模型不加入扰动和模型加入最坏扰动的情况下对应的识别特征趋向一致)为目标进行收敛训练,通过对有标签数据加入最坏扰动使得增强模型的健壮性,对无标签数据加入最坏扰动使得充分学习无约束场景下的无标签数据,并减小无标签数据源和有标签数据源之间的距离,使模型可以推广至无约束场景,提升模型的泛化能力。因此,使得训练得到的模型能够应对外界扰动(如噪声和干扰),同时也可以使得模型能够应对有标签的样本图像数据和无标签的样本图像数据因来自不同数据源进而存在的域差距而对模型识别带来的扰动。
在本实施例中,需要说明的是,采用有标签的样本图像和无标签的样本图像训练模型的意义在于:利用互联网上大规模无约束场景下的无标签的样本图像和有标签的样本图像进行联合训练,能够提升人脸识别在无约束场景下模型的泛化性能。同时,无标签的样本图像拥有丰富数据源且成本较低,使其结合现有的有标签的样本图像进行联合训练,有助于模型推广到除标签数据源以外的场景,以解决有限训练标签数据导致训练模型无法推广到无约束场景的问题。而现有技术通常假设训练和测试数据来自相同的数据源,但是人脸识别模型在实际使用过程中经常会遇到测试数据和训练数据来自不同的数据源,从而导致以现有的识别模型的识别性能下降,为了解决该问题,现有技术通常都是收集大量来自不同数据源的有标签的样本图像数据,但是由于隐私和人工标注的成本,导致收集其规模的数据量极其困难。而本实施例提供的方案很好地解决了该问题,本实施例同时采用有标签的样本图像和无标签的样本图像对模型进行半监督式的联合训练,从而使得模型可以推广到除标签数据源以外的场景,与此同时,本实施例在引入无标签数据后,由于有标签和无标签两种不同数据域之间的差距,会给识别模型带来一定的冲击,为解决该问题,本实施例在进行半监督训练的同时进一步提出了使得模型能够对抗扰动的处理思想,具体地,本实施例对基于半监督的人脸识别模型进行训练时,对模型加入了最坏扰动,并训练使得在加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致以及使得在模型加入最坏扰动的情况下无标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致,从而使得可以最小化最坏扰动对识别模型的影响以及有效学习无标签数据信息,通过对有标签数据加入最坏扰动使得增强模型的健壮性,对无标签数据加入最坏扰动使得充分学习无约束场景下的无标签数据,并减小无标签数据源和有标签数据源之间的距离,使模型可以推广至无约束场景,提升模型的泛化能力。可以理解的是,本实施例引入模型最坏扰动后,不但可以有效对抗有标签和无标签两种不同数据域之间的差距对识别模型带来的冲击,而且还可以有效应对噪声、对抗样本等扰动对识别模型带来的冲击,从而可以有效提交模型的健壮性和识别准确率。
由上面技术方案可知,本发明实施例提供的人脸识别方法,由于利用无标签数据来辅助识别人脸识别模型的训练,从而使得本实施例提供的人脸识别方法可以推广到无约束场景下,同时,本发明实施例直接对网络的权重加入扰动,通过极大改变网络预测的虚拟对抗样本探索网络脆弱的部分即最坏情况扰动,利用虚拟对抗样本训练识别网络,增强针对噪声、对抗样本等扰动以及有标签和无标签两种不同数据域之间的差距给识别模型带来的影响,具体地,本发明实施例对该人脸识别模型进行训练时,加入了最坏扰动,并训练使得在加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致以及使得在模型加入最坏扰动的情况下无标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致,从而使得可以最小化最坏扰动对识别模型的影响以及有效学习无标签数据信息,通过对有标签数据加入最坏扰动使得增强模型的健壮性,此外,对于无标签数据加入最坏扰动是本发明实施例提出的一种新的半监督识别方式,对无标签数据加入最坏扰动使得充分学习无约束场景下的无标签数据,并减小无标签数据源和有标签数据源之间的距离,使模型可以推广至无约束场景,提升模型的泛化能力。由此可见,本发明实施例提供的基于模型扰动的半监督人脸识别方法、装置及电子设备在总体上可以有效提升模型的泛化能力和模型的健壮性,从而扩大模型的应用场景,同时可以提高模型的识别性能。
基于上述实施例的内容,在本实施例中,所述第一损失函数Lidt的一种实现方式为:
其中,s,m为超参数,fi为识别特征向量,为yi类的权重向量,exp是以e为底的指数函数,X表示有标签的样本图像数据集合,X={(x1,y1),(x2,y2),…,(xn,yn)},其中xi表示人脸样本图像,yi表示识别标签。
在本实施例中,需要说明的是,上述第一损失函数为CosFace损失函数,采用CosFace损失函数对模型进行训练,能够有效提高模型的识别准确度,在本实施例中,将有标签的样本图像数据集合X记为:
X={(x1,y1),(x2,y2),…,(xn,yn)},其中xi表示人脸样本图像,yi表示识别标签。具体地,为了保证有标签数据的正确识别,使用第一损失函数(CosFace损失函数)训练有标签数据,第一损失函数Lidt为:
基于上述实施例的内容,在本实施例中,所述第二损失函数Ll_wcp为:
所述第三损失函数Lu_wcp为:
其中,f(·)表示识别特征提取函数,wcp(·)表示对识别特征提取函数加入最坏情况下的扰动,为范数符号,下面的2表示2范数,上面的2表示平方,X表示有标签的样本图像数据集合,x表示有标签的样本图像数据集合中的人脸样本图像,U表示无标签的样本图像数据集合,u表示无标签的样本图像数据集合中的人脸样本图像。
在本实施例中,需要说明的是,由于标签数据和无标签数据通常来自不同的数据源,不同数据源之间域的差距可能会导致模型跨域识别失败,因此,为了尽可能的减小域差距对模型带来的扰动使得识别模型难以推广到多域的问题,本实施例提出了识别特征一致性损失函数这一概念,可以理解的是,识别模型主要学习的是特征空间而非分类,因此,本实施例的目标是希望在最坏模型扰动情况下,相同的样本数据在特征空间上尽可能保持一致。因此,在本实施例中,对于有标签数据的识别特征一致性损失函数,也即第二损失函数可以表达为上面所述方式,记为Ll_wcp。同理,对于无标签数据的识别特征一致性损失函数,也即第三损失函数可以表达为上面所述方式记为Lu_wcp。
在本实施例中,需要说明的是,可以在使用第一损失函数训练识别模型后,加入最坏扰动(在网络权重的层面上加入噪声),进一步的,可以分别使用第二损失函数和第三损失函数约束识别模型的训练,以此来保证在最坏模型扰动情况下,加入最坏扰动后的有标签的图像数据和无标签图像数据和没有加入坏扰动后的有标签的样本图像数据和无标签的样本图像数据在特征空间上保持一致。对于加入最坏扰动后的有标签的样本图像数据的第二损失函数记为Ll_wcp:
对于加入最坏扰动后的无标签的样本图像数据的第三损失函数记为Lu_wcp:
其中,f(·)表示识别特征提取函数,wcp(·)表示对识别特征提取函数加入最坏情况下的扰动,为范数符号,下面的2表示2范数,上面的2表示平方,X表示有标签的样本图像数据集合,x表示有标签的样本图像数据集合中的人脸样本图像,U表示无标签的样本图像数据集合,u表示无标签的样本图像数据集合中的人脸样本图像。
在本实施例中,需要说明的是,有标签的样本图像数据和无标签的样本图像数据通常来自不同的数据源,不同数据源之间域的差距对模型带来的扰动使得识别模型难以推广到多域。因此,使用第二损失函数和第三损失函数训练约束识别模型的训练,并且识别模型主要学习的是样本图像的特征空间而非样本图像的分类,以此减小域差距对模型带来的扰动使得识别模型难以推广到多域的问题。
基于上述实施例的内容,在本实施例中,还包括:
在对所述基于模型扰动的半监督人脸识别模型进行训练时,先只使用有标签的样本图像训练第一损失函数,当第一损失函数满足预设对应的收敛条件时,加入无标签的样本图像训练由第一损失函数、第二损失函数和第三损失函数组成的损失函数直至满足模型收敛条件。
在本实施例中,基于模型扰动的半监督人脸识别,采取一种新的联合训练方式,前期主要集中学习标签数据,保证网络的识别能力,后期在保证识别能力的前提下,学习最小化最坏情况下的扰动对网络的影响,目的提高网络的健壮性和泛化能力,需要说明的是,此训练方式相对于原始训练方式可以快速获得收敛模型。
在本实施例中,需要说明的是,先只使用有标签的样本图像训练第一损失函数,当第一损失函数满足预设对应的收敛条件时,加入无标签的样本图像训练由第一损失函数、第二损失函数和第三损失函数组成的损失函数直至满足模型收敛条件的意义在于:首先使用有标签的样本图像数据训练第一损失函数,当第一损失函数收敛到预设条件的时候,尝试加入无标签数据,然后利用由第一损失函数、第二损失函数和第三损失函数组成的联合训练公式:
L=λidtlidt+λl_wcpLl_wcp+λu_wcpLu_wcp;
对模型进行训练直至模型收敛。此训练方法的目的在于前期注重学习网络的识别能力,后期给网络增加扰动,注重学习网络的跨域识别能力和提升模型的健壮性。
在本实施例中,需要说明的是,利用大量的无标签数据来辅助目前已有的有标签数据进行半监督学习,并对无标签数据加入最坏扰动使得充分学习无约束场景下的无标签数据,从而可以有效的将识别模型推广到无约束应用场景下,提升模型的泛化能力,以减少模型攻击和噪声扰动的影响。
基于上述实施例的内容,在本实施例中,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数L为:
L=λidtlidt+λl_wcpLl_wcp+λu_wcpLu_wcp;
其中,λidt、λl_wcp、λu_wcp为人脸识别模型总的损失函数的超参数,lidt为表征有标签的样本图像的识别损失的第一损失函数,Ll_wcp为表征有标签的样本图像在加入最坏扰动的情况下的识别特征一致性损失的第二损失函数,Lu_wcp为表征无标签的样本图像在加入最坏扰动的情况下的识别特征一致性损失的第三损失函数。
在本实施例中,需要说明的是,lidt为有标签的样本图像训练的第一损失函数,Ll_wcp为加入最坏扰动后的有标签的样本图像训练的第二损失函数,Lu_wcp为加入最坏扰动后的无标签的样本图像训练的第三损失函数。由此可见,本实施例提供的人脸识别模型总的损失函数由三部分构成,正是由于三个损失函数共同作用进而使得本实施例提供的人脸识别模型具有能够有效应用噪声、对抗样本等扰动以及有标签和无标签两种不同数据域之间的差距给识别模型带来的影响的功能。
在本实施例中,对于各个超参数λidt、λl_wcp、λu_wcp可以分别设置为1、0.1、0.1。
在本实施例中,需要说明的是,针对本实施例提出的处理目标,也即最小化最坏情况下模型扰动对识别结果的影响,为此,本实施例对于模型参数θ进行扰动加入,加入扰动后的模型参数记为g(θ)=θ+δ,其||δ||≤∈,最坏情况下的扰动可以通过下面公式求出:
其中l(·)为度量加扰动和不加扰动模型差异的损失函数,当δ=0时,上述公式可通过泰勒展开近似于:
基于上述实施例的内容,在本实施例中,在采用有标签的样本图像和无标签的样本图像对所述基于模型扰动的半监督人脸识别模型进行训练之前,使用随机裁剪、随机亮度增强、随机灰度化和随机水平翻转中的一种或多种操作对各样本图像进行数据增广处理。
在本实施例中,需要说明的是,在采用有标签的样本图像和无标签的样本图像对所述基于模型扰动的半监督人脸识别模型进行训练之前,可以使用随机裁剪、随机亮度增强、随机灰度化、随机水平翻转中的一种或多种操作进行数据增广,以增强数据样本的多样性,提高模型的鲁棒性。
在本实施例中,可以理解的是,还可以根据人脸检测算法反馈的人脸五个关键点位置,进行仿射变换,对人脸进行矫正。然后可以将矫正后的人脸进行裁剪成224*224大小,并对裁剪后的数据进行标准化即减均值操作。
在本实施例中,在利用有标签人脸样本图像和无标签人脸样本图像对模型进行训练时,为统一数据源尺寸,可以将所有的图像裁剪成224*224大小,同时可以将识别模型的特征输出维度设置为512。同时,在对模型进行训练时,可以在每次小批量梯度下降时,选择有标签的样本图像训练数据和无标签的样本图像训练数据比例为1:1,以尽可能地提高模型的泛化能力。
基于相同的发明构思,本发明另一实施例提供了一种人脸识别装置,参见图3,本发明一实施例提供的一种人脸识别装置的结构示意图,该人脸识别装置包括:获取模块31和识别模块32,其中,获取模块,用于获取待进行人脸识别的目标图像;
识别模块,用于将所述目标图像输入到基于模型扰动的半监督人脸识别模型中,获取人脸识别结果;
其中,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数包括未加入模型扰动时的损失函数和加入模型扰动时的损失函数。
所述基于模型扰动的半监督人脸识别模型所述基于模型扰动的半监督人脸识别模型在本实施例中,所述基于模型扰动的半监督人脸识别模型为采用有标签的样本图像和无标签的样本图像,基于半监督的机器学习方式训练后得到的。其中,本实施例的人脸识别模型的数据集由两部分构成:有标签的样本图像数据集和无标签的样本图像数据集。对于有标签的样本图像数据集主要从公开的人脸识别数据集中选取。并使用带有五个关键点检测的人脸检测算法获取数据集中人脸的边界框以及五个关键点的位置坐标,其五个关键点分别为左眼、右眼、鼻子,右嘴尖,左嘴尖。对于无标签的样本图像数据集采取两种选取方案,分别为:从人脸检测、人脸表情识别等有关人脸的公开数据集中选取和从网络上爬取有关人脸的数据。可以理解的是,无标签的样本图像数据源区别于有标签的样本图像数据,并包含更多的变化,更接近于无约束场景下的图像。针对选取的无标签的样本图像数据,使用人脸检测算法并返回图片中人脸的边界框坐标以及五个关键点的位置,并根据检测出的人脸边界框位置,将边界框的宽和高扩大至原始的1.5倍进行裁剪,获取无标签的样本图像数据。
在本实施例中,需要说明的是,人脸识别模型在训练时的收敛方向为模型的识别准确度满足预设条件,具体地,首先只使用有标签的样本图像数据训练第一损失函数,当第一损失函数收敛到3左右的时候,分别对有标签的样本图像数据和无标签的样本图像数据加入最坏情况下的扰动,再分别使用有标签的样本图像数据和无标签的样本图像数据训练第二损失函数和第三损失函数,联合有标签的样本图像数据训练第一损失函数得到的结果训练模型总的损失函数直至模型收敛。
在本实施例中,需要说明的是,人脸识别模型在训练时的收敛方向为模型的识别准确度满足预设条件,使得加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致以及使得在模型加入最坏扰动的情况下无标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致。其中,分别对有标签的相同样本图像和无标签的相同样本图像加入最坏扰动(数据噪声或对抗样本),通过第二损失函数和第三损失函数对加入最坏扰动的有标签的相同样本图像和无标签的相同样本图像进行训练,使得在最坏模型扰动情况下,相同的样本数据在特征空间上保持一致,即加入最坏扰动后的有标签的样本图像数据和没有加入扰动的有标签的样本图像数据在经过第二损失函数训练后在特征空间上保持一致,以及加入最坏扰动后的无标签的样本图像数据和没有加入扰动的无标签的样本图像数据在经过第三损失函数训练后在特征空间上保持一致,从而最小化最坏扰动对模型带来的影响。
由上面技术方案可知,本发明实施例提供的人脸识别装置,由于利用无标签数据来辅助识别人脸识别模型的训练,从而使得本实施例提供的人脸识别方法可以推广到无约束场景下,同时,本发明实施例直接对网络的权重加入扰动,通过极大改变网络预测的虚拟对抗样本探索网络脆弱的部分即最坏情况扰动,利用虚拟对抗样本训练识别网络,增强针对噪声、对抗样本等扰动以及有标签和无标签两种不同数据域之间的差距给识别模型带来的影响,具体地,本发明实施例对该人脸识别模型进行训练时,加入了最坏扰动,并训练使得在加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致以及使得在模型加入最坏扰动的情况下无标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致,从而使得可以最小化最坏扰动对识别模型的影响以及有效学习无标签数据信息,通过对有标签数据加入最坏扰动使得增强模型的健壮性,此外,对于无标签数据加入最坏扰动是本发明实施例提出的一种新的半监督识别方式,对无标签数据加入最坏扰动使得充分学习无约束场景下的无标签数据,并减小无标签数据源和有标签数据源之间的距离,使模型可以推广至无约束场景,提升模型的泛化能力。由此可见,本发明实施例提供的基于模型扰动的半监督人脸识别方法、装置及电子设备在总体上可以有效提升模型的泛化能力和模型的健壮性,从而扩大模型的应用场景,同时可以提高模型的识别性能。
本实施例所述的人脸识别装置可以用于执行上述方法实施例,其原理和技术效果类似,此处不再赘述。
基于相同的发明构思,本发明又一实施例提供了一种电子设备,参见图4所述电子设备的结构示意图,具体包括如下内容:处理器401、存储器402、通信接口403和通信总线404;
其中,所述处理器401、存储器402、通信接口403通过所述通信总线404完成相互间的通信;所述通信接口403用于实现各设备之间的信息传输;
所述处理器401用于调用所述存储器402中的计算机程序,所述处理器执行所述计算机程序时实现上述一种人脸识别方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:获取待进行人脸识别的目标图像;
将所述待进行人脸识别的目标图像输入到人脸识别模型中,获取人脸识别结果;
其中,所述基于模型扰动的半监督人脸识别模型为采用有标签的样本图像和无标签的样本图像,基于半监督的机器学习方式训练后得到的;所述基于模型扰动的半监督人脸识别模型在训练时的收敛方向为模型的识别准确度满足预设条件,同时使得模型在加入最坏扰动的情况下,有标签的相同样本图像对应的识别特征与在模型不加入最坏扰动的情况下对应的识别特征趋向一致以及无标签的相同样本图像对应的识别特征在模型不加入最坏扰动的情况下对应的识别特征趋向一致。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的人脸识别方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种人脸识别方法,其特征在于,包括:
获取待进行人脸识别的目标图像;
将所述目标图像输入到基于模型扰动的半监督人脸识别模型中,获取人脸识别结果;
其中,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数包括未加入模型扰动时的损失函数和加入模型扰动时的损失函数。
2.根据权利要求1所述的人脸识别方法,其特征在于,所述未加入模型扰动时的损失函数对应有标签的样本图像;
所述未加入模型扰动时的损失函数包括第一损失函数,所述第一损失函数为有标签的样本图像在所述基于模型扰动的半监督人脸识别模型未加入最坏扰动情况下的识别损失;
所述加入模型扰动时的损失函数对应有标签的样本图像和无标签的样本图像;所述加入模型扰动时的损失函数包括第二损失函数和第三损失函数;
所述第二损失函数为有标签的样本图像在所述基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征一致性损失;
所述第三损失函数为无标签的样本图像在所述基于模型扰动的半监督人脸识别模型加入最坏扰动情况下的识别特征一致性损失。
5.根据权利要求2所述的人脸识别方法,其特征在于,还包括:
在对所述基于模型扰动的半监督人脸识别模型进行训练时,先只使用有标签的样本图像训练第一损失函数,当第一损失函数满足预设对应的收敛条件时,加入无标签的样本图像训练由第一损失函数、第二损失函数和第三损失函数组成的损失函数直至满足模型收敛条件。
6.根据权利要求2~5任一项所述的人脸识别方法,其特征在于,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数L为:
L=λidtlidt+λl_wcpLl_wcp+λu_wcpLu_wcp;
其中,λidt、λl_wcp、λu_wcp为人脸识别模型总的损失函数的超参数,lidt为表征有标签的样本图像的识别损失的第一损失函数,Ll_wcp为表征有标签的样本图像在加入最坏扰动的情况下的识别特征一致性损失的第二损失函数,Lu_wcp为表征无标签的样本图像在加入最坏扰动的情况下的识别特征一致性损失的第三损失函数。
8.根据权利要求1~5任一项所述的人脸识别方法,其特征在于,在采用有标签的样本图像和无标签的样本图像对所述基于模型扰动的半监督人脸识别模型进行训练之前,使用随机裁剪、随机亮度增强、随机灰度化和随机水平翻转中的一种或多种操作对各样本图像进行数据增广处理。
9.一种人脸识别装置,其特征在于,包括:
获取模块,用于获取待进行人脸识别的目标图像;
识别模块,用于将所述目标图像输入到基于模型扰动的半监督人脸识别模型中,获取人脸识别结果;
其中,所述基于模型扰动的半监督人脸识别模型在训练时对应的损失函数包括未加入模型扰动时的损失函数和加入模型扰动时的损失函数。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至8任一项所述人脸识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011255486.5A CN112287870A (zh) | 2020-11-11 | 2020-11-11 | 一种人脸识别方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011255486.5A CN112287870A (zh) | 2020-11-11 | 2020-11-11 | 一种人脸识别方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112287870A true CN112287870A (zh) | 2021-01-29 |
Family
ID=74399175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011255486.5A Pending CN112287870A (zh) | 2020-11-11 | 2020-11-11 | 一种人脸识别方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112287870A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113269228A (zh) * | 2021-04-20 | 2021-08-17 | 重庆邮电大学 | 一种图网络分类模型的训练方法、装置、系统及电子设备 |
WO2022213261A1 (zh) * | 2021-04-06 | 2022-10-13 | 深圳市欢太科技有限公司 | 图像处理方法及装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214360A (zh) * | 2018-10-15 | 2019-01-15 | 北京亮亮视野科技有限公司 | 一种基于ParaSoftMax损失函数的人脸识别模型的构建方法及应用 |
CN110163236A (zh) * | 2018-10-15 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 模型的训练方法和装置、存储介质、电子装置 |
CN111523597A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
-
2020
- 2020-11-11 CN CN202011255486.5A patent/CN112287870A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214360A (zh) * | 2018-10-15 | 2019-01-15 | 北京亮亮视野科技有限公司 | 一种基于ParaSoftMax损失函数的人脸识别模型的构建方法及应用 |
CN110163236A (zh) * | 2018-10-15 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 模型的训练方法和装置、存储介质、电子装置 |
CN111523597A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
Non-Patent Citations (2)
Title |
---|
XUESONG NIU ET.AL: "Multi-label co-regularization for semi-supervised facial action unit recognition", 《ARXIV》 * |
胡聪: "基于自编码器和生成对抗网络的图像识别方法研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022213261A1 (zh) * | 2021-04-06 | 2022-10-13 | 深圳市欢太科技有限公司 | 图像处理方法及装置、电子设备及存储介质 |
CN113269228A (zh) * | 2021-04-20 | 2021-08-17 | 重庆邮电大学 | 一种图网络分类模型的训练方法、装置、系统及电子设备 |
CN113269228B (zh) * | 2021-04-20 | 2022-06-10 | 重庆邮电大学 | 一种图网络分类模型的训练方法、装置、系统及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | Fake face detection via adaptive manipulation traces extraction network | |
CN108829900B (zh) | 一种基于深度学习的人脸图像检索方法、装置及终端 | |
Han et al. | Fighting fake news: two stream network for deepfake detection via learnable SRM | |
CN107330444A (zh) | 一种基于生成对抗网络的图像自动文本标注方法 | |
Tang et al. | Facial landmark detection by semi-supervised deep learning | |
Wei et al. | Deep group-wise fully convolutional network for co-saliency detection with graph propagation | |
Fung et al. | Deepfakeucl: Deepfake detection via unsupervised contrastive learning | |
Liu et al. | A 3 GAN: an attribute-aware attentive generative adversarial network for face aging | |
Li et al. | End-to-end attack on text-based CAPTCHAs based on cycle-consistent generative adversarial network | |
CN112287870A (zh) | 一种人脸识别方法、装置及电子设备 | |
Zhang et al. | No one can escape: A general approach to detect tampered and generated image | |
Zhu et al. | Deepfake detection with clustering-based embedding regularization | |
Yan et al. | Fine-grained recognition via attribute-guided attentive feature aggregation | |
CN116434311A (zh) | 一种基于混合域一致性约束的面部表情识别方法及系统 | |
Lu et al. | Detection of deepfake videos using long-distance attention | |
Xu et al. | Visual-semantic transformer for face forgery detection | |
CN111553230A (zh) | 无约束场景下的基于特征强化的渐进式级联人脸检测方法 | |
Hu et al. | Semi-supervised learning based on GAN with mean and variance feature matching | |
Li et al. | Defending deepfakes by saliency-aware attack | |
CN114821733A (zh) | 无约束场景的模式识别模型鲁棒性补偿方法、装置及介质 | |
CN115496077A (zh) | 一种基于模态观察和评分的多模态情感分析方法和装置 | |
Ling et al. | Learning diverse local patterns for deepfake detection with image-level supervision | |
Huang et al. | Siamese network tracking based on feature enhancement | |
CN114596609A (zh) | 一种视听伪造检测方法及装置 | |
Li et al. | Webpage saliency prediction with two-stage generative adversarial networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210129 |