CN113505692B - 基于受试者工作特征曲线下部分面积优化的人脸识别方法 - Google Patents
基于受试者工作特征曲线下部分面积优化的人脸识别方法 Download PDFInfo
- Publication number
- CN113505692B CN113505692B CN202110775872.5A CN202110775872A CN113505692B CN 113505692 B CN113505692 B CN 113505692B CN 202110775872 A CN202110775872 A CN 202110775872A CN 113505692 B CN113505692 B CN 113505692B
- Authority
- CN
- China
- Prior art keywords
- dcnn
- face recognition
- identity
- training
- pauc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000005457 optimization Methods 0.000 title claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 52
- 230000001815 facial effect Effects 0.000 claims abstract description 10
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 31
- 238000005070 sampling Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 230000002040 relaxant effect Effects 0.000 claims description 2
- 238000012360 testing method Methods 0.000 abstract description 9
- 238000013527 convolutional neural network Methods 0.000 abstract description 6
- 238000012795 verification Methods 0.000 abstract description 6
- 238000005065 mining Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 abstract description 4
- 239000000284 extract Substances 0.000 abstract description 3
- 238000010200 validation analysis Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于受试者工作特征曲线下部分面积优化的人脸识别方法,通过pAUC算法和类中心学习策略训练一个用于开集人脸识别的深层卷积神经网络。其中:1)类中心学习策略对训练数据集构造样本对,从而大大提高了模型训练效率;2)pAUC算法起到难例挖掘作用,可以有针对性地训练模型;构造样本对进行训练恰好模拟了人脸注册和测试的流程,模型不再需要softmax输出层进行分类,而是直接输出两张人脸的相似度来进行身份判别。训练好后模型可以直接提取面部图像特征进行人脸验证。本发明在五个大规模非限定环境下的人脸基准数据集上的实验结果表明,和目前性能最优的人脸识别方法相比具有很强的竞争性。
Description
技术领域
本发明属于模式识别技术领域,具体涉及一种人脸识别方法。
背景技术
目前使用深层卷积神经网络(deep convolution neural networks,简称DCNNs)的嵌入(embedding)来进行人脸表征是人脸识别的首选方法。面部图像经过人脸对齐后,DCNNs将人脸图像映射为类内距离小且类间距离大的嵌入。
在训练DCNNs时,有两种类型的损失函数,分别是辨识型损失和验证型损失。前者主要由softmax分类输出单元和交叉熵损失构成。但是这一类损失函数有两个缺点:(1)线性变换矩阵的大小会随着身份数n的增加而增加;(2)模型所学特征在闭集分类问题中对于不同类别的可区分性很强,而在开集人脸识别任务中可区分性显著下降。另外一类是验证型损失函数,它们通过构造成对的或是三元组的样本来进行模型训练,例如三元组损失函数。构造样本对进行训练恰好模拟了人脸注册和测试的流程,模型不再需要softmax输出层进行分类,而是直接输出两张人脸的相似度来进行身份判别,当相似度高于某一阈值时,即认为两张人脸为同一身份。但是验证型损失函数有以下缺点:(1)在大规模的数据集中,构造样本对容易出现组合爆炸的问题,并且过多的样本对会导致训练模型的迭代次数显著增加;(2)能够有效解决组合爆炸问题的难例挖掘(hard sample mining)策略实现起来有困难。
发明内容
为了克服现有技术的不足,本发明提供了一种基于受试者工作特征曲线(receiver operating characteristic,简称ROC)下部分面积(partial area undercurve,简称pAUC)优化的人脸识别方法,通过pAUC算法和类中心学习策略训练一个用于开集人脸识别的深层卷积神经网络。其中:1)类中心学习策略对训练数据集构造样本对,从而大大提高了模型训练效率;2)pAUC算法起到难例挖掘作用,可以有针对性地训练模型;构造样本对进行训练恰好模拟了人脸注册和测试的流程,模型不再需要softmax输出层进行分类,而是直接输出两张人脸的相似度来进行身份判别。训练好后模型可以直接提取面部图像特征进行人脸验证。本发明在五个大规模非限定环境下的人脸基准数据集上的实验结果表明,和目前性能最优的人脸识别方法相比具有很强的竞争性。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:采用类中心学习策略构造样本对;
设训练集为其中u和v表示第u个身份里的第v张面部图像,U是训练集中总身份数,Vu是第u个身份所包含的面部图像数量,那么整个训练集中的面部图像数量为/>
采用类中心学习法构造集合把每个身份当做一个类,给每个身份定义一个类中心向量w,记作/>在每一次迭代时,从训练集/>中随机选取t1张面部图像,并将每张面部图像分别与每一个类中心/>进行组合,形成样本对,所有样本对形成集合/>其中包含了t1对正例和(t1U-t1)对负例;
所述类中心是随机初始化的,并且在每次迭代时通过反向传播进行更新;
步骤2:提取面部图像的嵌入特征;
将集合中的样本对输入DCNN,DCNN输出得到样本对的嵌入特征;
步骤3:设计pAUC优化算法;
步骤3-1:定义训练集Γ={(xn,yn;ln)|n=1,2,…,M},其中xn和yn是步骤2输出的样本对嵌入特征,ln是用来判断xn和yn是否为同一身份的标签,如果xn和yn为同一身份,ln=1;否则ln=0;
定义余弦相似度函数sn=f(xn,yn),
其中‖·‖为l2范数;
则同一身份标签预测值为:
其中θ是决策阈值;
步骤3-2:当θ给定后,计算真正例率TPR和假正例率FPR;
TPR是指在所有的正例中,将同类样本ln=1正确预测为的比例;
FPR是指在所有的负例中,将不同类样本ln=0错误预测为同一类的比例;
在给定不同θ的情况下,得到一系列的{TPR(θ),FPR(θ)}值,从而以FPR为横轴,以TPR为纵轴,绘制ROC曲线;
步骤3-3:构造两个集合:
P={(si,li=1)|i=1,2,…,I} (3)
N={(sj,lj=0)|j=1,2,…,J} (4)
其中I+J=M,si和sj分别为同一身份之间和不同身份之间的余弦相似度;
步骤3-4:通过约束FPR∈[α,β]从N得到一个新的子集N0,其中α和β是两个超参数,构造步骤如下:
步骤3-4-1:用[jα/J,jβ/J]代替[α,β],其中和/>是两个整数;
步骤3-4-2:将相似度得分降序排列,其中/>表示所有满足条件b的a都会参与计算;
步骤3-4-3:构造负例子集N0,N0由集合N中相似得分按降序排列后的第jα到第jβ个样本构成,记为N0={(sk,lk=0)|k=1,2,…,K},其中K=jβ-jα;
步骤3-5:则pAUC优化目标函数由集合P和N0计算得:
其中I是集合P中的样本数量,I(.)是一个示性函数,当括号内条件成立时返回1,否则返回0;
步骤3-6:使用合页损失函数对式(5)进行松弛;
合页损失函数定义为:
其中z=si-sk,且δ>0是一个可调的超参数;
对式(6)做如下改进:
将式(7)带入(5)并将最大化问题转为为最小化问题,则pAUC优化的目标函数表示为式(8):
步骤4:使用步骤3得到的pAUC优化目标函数对DCNN进行训练,通过反向传播更新优化整个网络。
优选地,所述步骤2中输入DCNN的样本对采用随机采样方法获取,具体如下:
随机从训练集中抽取t个身份,再从每个身份中随机抽取两张照片并进行全排列,由此构成一个包含2t张照片的集合Tt,2t张照片构成/>个样本对,其中包含t对正例和对负例。
优选地,所述DCNN为ResNet34或ResNet50或ResNet100。
优选地,所述对DCNN进行训练时采用Adam和SGD优化器进行联合优化。
优选地,所述对DCNN进行训练时初始学习率设置为0.1,在第150,000次迭代时设为0.01,第250,000次迭代时设为0.001,在第300,000次迭代时停止训练;每个训练批次中的样本数量设置为512,权值衰减设置为0.9,动量设置为0.0001。
优选地,所述对DCNN进行训练时其中α设置为0,β采用了[0.001,1]区间内多个值,δ选择0.4。
本发明的有益效果如下:
1)本发明模型不再需要softmax输出层进行分类,而是直接输出两张人脸的相似度来进行身份判别,大大减少了参数量;该保证识别准确率的前提下,减少了参数量。
2)pAUC损失与同为验证型损失的三元组损失相比,性能有明显的提升。
附图说明
图1为本发明方法系统框图。
图2为本发明pAUC优化区间示意图。
图3为本发明类中心学习策略方法。
图4为本发明实施例在UMDFaces上测试所得ROC曲线。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
现有技术中验证型损失函数有一些缺点,但是其训练过程与评估过程是一致的,所以它更适合于开集人脸识别。另外,在真实的应用场景中,人脸识别系统仅在ROC曲线下的部分区域工作,而不是整个ROC曲线。例如,银行验证支付的人脸识别系统需要控制FPR低于0.01%;相比之下,检测犯罪分子的人脸识别系统的召回率(recall)通常要求高于99%,所以有针对性地优化ROC曲线可以提高人脸识别系统在不同应用场景中的表现性能。由此本发明提出了最大化ROC曲线下的部分面积(partial area under curve,简称pAUC)算法。在五个大规模非限定环境下的人脸数据集上的实验结果表明,本发明提出的方法和目前性能最优的人脸识别方法相比具有很强的竞争性,且其性能明显优于同为验证型损失的三元组损失函数。
一种基于受试者工作特征曲线下部分面积优化的人脸识别方法,包括如下步骤:
步骤1:采用类中心学习策略构造样本对;
设训练集为其中u和v表示第u个身份里的第v张面部图像,U是训练集中总身份数,Vu是第u个身份所包含的面部图像数量,那么整个训练集中的面部图像数量为/>如果用所有这些图片来构造分批次的训练集/>其数量将会非常庞大,直接使用整个数据集是不实际的。因此,在本工作中除了使用小批次(mini-batch)训练,还引入了两种方法来构造样本对:
1、采用类中心学习法构造集合如图3所示,把每个身份当做一个类,给每个身份定义一个类中心向量w,记作/>在每一次迭代时,从训练集/>中随机选取t1张面部图像,并将每张面部图像分别与每一个类中心/>进行组合,形成样本对,所有样本对形成集合/>其中包含了t1对正例和(t1U-t1)对负例;
所述类中心是随机初始化的,并且在每次迭代时通过反向传播进行更新;
2、随机从训练集中抽取t个身份,再从每个身份中随机抽取两张照片并进行全排列,由此构成一个包含2t张照片的集合Tt,2t张照片构成/>个样本对,其中包含t对正例和/>对负例。
将随机采样与类中心学习的方法对比可以发现,类中心学习法将每个身份的所有图像信息汇聚到了一个中心向量w上。因此,类中心相比于单张图像具有更强的代表性和鲁棒性且数量也大大减少,那么在上进行训练效率也将提高且更容易收敛。
步骤2:提取面部图像的嵌入特征;
将集合中的样本对输入DCNN,DCNN输出得到样本对的嵌入特征;
步骤3:设计pAUC优化算法;
步骤3-1:定义训练集Γ={(xn,yn;ln)|n=1,2,…,M},其中xn和yn是步骤2输出的样本对嵌入特征,ln是用来判断xn和yn是否为同一身份的标签,如果xn和yn为同一身份,ln=1;否则ln=0;
定义余弦相似度函数sn=f(xn,yn),
其中‖·‖为l2范数;
则同一身份标签预测值为:
其中θ是决策阈值;
步骤3-2:当θ给定后,就能计算真正例率(True positive rate,简称TPR)和假正例率(False positive rate,简称FPR)。TPR是指在所有的正例中,将同类样本(ln=1)正确预测的比例。FPR是指在所有的负例中,将不同类样本(ln=0)错误预测为同一类的比例。在给定不同θ的情况下,就能得到一系列的{TPR(θ),FPR(θ)}值,从而绘制ROC曲线,如图1所示。如图2中的灰色区域即为所定义的pAUC,它是指当FPR值在[α,β]区间时的ROC曲线下面积,其中α和β是两个超参数;
步骤3-3:为了计算pAUC,构造两个集合:
P={(si,li=1)|i=1,2,…,I} (3)
N={(sj,lj=0)|j=1,2,…,J} (4)
其中I+J=M,si和sj分别为同一身份之间和不同身份之间的余弦相似度;
步骤3-4:通过约束FPR∈[α,β]从N得到一个新的子集N0,其中α和β是两个超参数,构造步骤如下:
步骤3-4-1:用[jα/J,jβ/J]代替[α,β],其中和/>是两个整数;
步骤3-4-2:将相似度得分降序排列,其中/>表示所有满足条件b的a都会参与计算;
步骤3-4-3:构造负例子集N0,N0由集合N中相似得分按降序排列后的第jα到第jβ个样本构成,记为N0={(sk,lk=0)|k=1,2,…,K},其中K=jβ-jα;
步骤3-5:则pAUC优化目标函数由集合P和N0计算得:
其中I(.)是一个示性函数,当括号内条件成立时返回1,否则返回0;
步骤3-6:式(5)是一个NP-难问题,无法直接优化,使用合页损失函数对式(5)进行松弛;
合页损失函数定义为:
其中z=si-sk,且δ>0是一个可调的超参数;
对式(6)做如下改进:
将式(7)带入(5)并将最大化问题转为为最小化问题,则pAUC优化的目标函数表示为式(8):
步骤4:使用步骤3得到的pAUC优化目标函数对DCNN进行训练,通过反向传播更新优化整个网络。
具体实施例:
如图1所示,是对整个系统框架的展示。从图中可以看到,系统的前端是一个深度卷积神经网络,其输入为人脸图像,首先采集非限定环境下的人脸图像,图像经过对齐处理后送入深层卷积神经网络进行特征提取;网络抽取出图像的特征嵌入后,送入后端的pAUC损失,并通过反向传播优化整个网络。在每一个批次训练时,网络学习到该批次中每一类的类中心,然后利用类中心与单张图像构造样本对;pAUC损失依据提取出的嵌入向量进行计算,并通过反向传播更新优化整个网络;训练好的网络丢弃损失层,直接提取人脸图像进行人脸验证。
(1)数据准备:
使用了五个大规模的人脸数据集,如表1所示。其中CASIA数据集作为训练集,它包含了一万多个身份,约五十万张非限定环境下的人脸图片。测试集为LFW,CFP-FP,AgeDB-30和UMDFaces。图片预处理利用面部的五个关键点将图片裁剪为112×112的大小。为了保证严格的开集测试,训练集和测试集中重合的身份已被移除。
表1训练和测试的人脸数据集
(2)模型训练:
对于嵌入提取网络,使用了常见的CNN网络架构,分别是ResNet34,ResNet50和ResNet100。使用Backbone-BN-Dropout-FC-BN的架构从图片提取512维的嵌入特征。本实施例使用深度学习框架Pytorch中的Adam和SGD优化器进行联合优化,并在两块NVIDIA2080Ti上进行训练。初始学习率设置为0.1,在第150,000次迭代时设为0.01,第250,000次迭代时设为0.001,在第300,000次迭代时停止训练。每个训练批次中的样本数量设置为512,权值衰减设置为0.9,动量设置为0.0001。
(3)方法对比
本实施例对比了五种方法,分别是三元组损失,基于softmax的交叉熵损失Sphereface(引入余弦损失)和Coseface(引入带间隔的余弦损失),基于随机采样的pAUC(pAUC-R)和基于类中心学习的pAUC(pAUC-C)。对于前三种方法,直接使用论文中设置好的超参数。对于后两种方法,在ResNet50上进行参数选择,其中α设置为0,β采用了[0.001,1]区间内多个值,δ选择0.4。
如表2所示,首先使用CASIA训练集和ResNet50来探究pAUC-R和pAUC-C的β设置,其中δ=0.4。可以发现pAUC算法采用类中心学习的效果明显好于随机采样的方法,由此证明类中心学习策略是有效的。另外可以看到,基于类中心学习的pAUC损失和辨识型损失(Sphereface,Cosface)具有很强的可比性,并且性能要优于同为验证型损失的tripletloss。在选择适当的超参数后,pAUC-C可以达到所比较方法中的最优性能。
表2不同损失的验证结果(%)
为了进一步比较几种损失函数的性能,用CASIA训练数据集和ResNet100来进行训练,测试集换为规模更大的UMDFaces。其中pAUC的参数统一设置为δ=0.4,β=0.001。由图4可知,pAUC-C相比于其他几种损失函数性能仍然最优。
Claims (6)
1.一种基于受试者工作特征曲线下部分面积优化的人脸识别方法,其特征在于,包括以下步骤:
步骤1:采用类中心学习策略构造样本对;
设训练集为x={xuv|u=1,…,U;v=1,…,Vu},其中u和v表示第u个身份里的第v张面部图像,U是训练集中总身份数,Vu是第u个身份所包含的面部图像数量,那么整个训练集中的面部图像数量为
采用类中心学习法构造集合把每个身份当做一个类,给每个身份定义一个类中心向量w,记作/>在每一次迭代时,从训练集x中随机选取t1张面部图像,并将每张面部图像分别与每一个类中心/>进行组合,形成样本对,所有样本对形成集合/>其中包含了t1对正例和(t1U-t1)对负例;
所述类中心是随机初始化的,并且在每次迭代时通过反向传播进行更新;
步骤2:提取面部图像的嵌入特征;
将集合中的样本对输入DCNN,DCNN输出得到样本对的嵌入特征;
步骤3:设计pAUC优化算法;
步骤3-1:定义训练集Γ={(xn,yn;ln)|n=1,2,…,M},其中xn和yn是步骤2输出的样本对嵌入特征,ln是用来判断xn和yn是否为同一身份的标签,如果xn和yn为同一身份,lm=1;否则ln=0;
定义余弦相似度函数
其中||·||为l2范数;
则同一身份标签预测值为:
其中θ是决策阈值;
步骤3-2:当θ给定后,计算真正例率TPR和假正例率FPR;
TPR是指在所有的正例中,将同类样本ln=1正确预测为的比例;
FPR是指在所有的负例中,将不同类样本ln=0错误预测为同一类的比例;
在给定不同θ的情况下,得到一系列的{TPR(θ),FPR(θ)}值,从而以FPR为横轴,以TPR为纵轴,绘制ROC曲线;
步骤3-3:构造两个集合:
P={(si,li=1)|i=1,2,…,I} (3)
N={(sj,lj=0)|j=1,2,…,J} (4)
其中I+J=M,si和sj分别为同一身份之间和不同身份之间的余弦相似度;
步骤3-4:通过约束FPR∈[α,β]从N得到一个新的子集N0,其中α和β是两个超参数,构造步骤如下:
步骤3-4-1:用[jα/J,jβ/J]代替[α,β],其中和/>是两个整数;
步骤3-4-2:将相似度得分降序排列,其中/>表示所有满足条件b的a都会参与计算;
步骤3-4-3:构造负例子集N0,N0由集合N中相似得分按降序排列后的第jα到第jβ个样本构成,记为N0={(sk,lk=0)|k=1,2,…,K},其中K=jβ-jα;
步骤3-5:则pAUC优化目标函数由集合P和N0计算得:
其中I是集合P中的样本数量,I(.)是一个示性函数,当括号内条件成立时返回1,否则返回0;
步骤3-6:使用合页损失函数对式(5)进行松弛;
合页损失函数定义为:
其中z=si-sk,且δ>0是一个可调的超参数;
对式(6)做如下改进:
将式(7)带入(5)并将最大化问题转为为最小化问题,则pAUC优化的目标函数表示为式(8):
步骤4:使用步骤3得到的pAUC优化目标函数对DCNN进行训练,通过反向传播更新优化整个网络。
2.根据权利要求1所述的一种基于受试者工作特征曲线下部分面积优化的人脸识别方法,其特征在于,所述步骤2中输入DCNN的样本对采用随机采样方法获取,具体如下:
随机从训练集x中抽取t个身份,再从每个身份中随机抽取两张照片并进行全排列,由此构成一个包含2t张照片的集合Tt,2t张照片构成个样本对,其中包含t对正例和对负例。
3.根据权利要求1所述的一种基于受试者工作特征曲线下部分面积优化的人脸识别方法,其特征在于,所述DCNN为ResNet34或ResNet50或ResNet100。
4.根据权利要求1所述的一种基于受试者工作特征曲线下部分面积优化的人脸识别方法,其特征在于,所述对DCNN进行训练时采用Adam和SGD优化器进行联合优化。
5.根据权利要求1所述的一种基于受试者工作特征曲线下部分面积优化的人脸识别方法,其特征在于,所述对DCNN进行训练时初始学习率设置为0.1,在第150,000次迭代时设为0.01,第250,000次迭代时设为0.001,在第300,000次迭代时停止训练;每个训练批次中的样本数量设置为512,权值衰减设置为0.9,动量设置为0.0001。
6.根据权利要求1所述的一种基于受试者工作特征曲线下部分面积优化的人脸识别方法,其特征在于,所述对DCNN进行训练时其中α设置为0,β采用了[0.001,1]区间内多个值,δ选择0.4。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110775872.5A CN113505692B (zh) | 2021-07-09 | 2021-07-09 | 基于受试者工作特征曲线下部分面积优化的人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110775872.5A CN113505692B (zh) | 2021-07-09 | 2021-07-09 | 基于受试者工作特征曲线下部分面积优化的人脸识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113505692A CN113505692A (zh) | 2021-10-15 |
CN113505692B true CN113505692B (zh) | 2024-05-24 |
Family
ID=78012451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110775872.5A Active CN113505692B (zh) | 2021-07-09 | 2021-07-09 | 基于受试者工作特征曲线下部分面积优化的人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113505692B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116386108B (zh) * | 2023-03-27 | 2023-09-19 | 南京理工大学 | 一种基于实例一致性的公平性人脸识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103281A (zh) * | 2017-03-10 | 2017-08-29 | 中山大学 | 基于聚集损失深度度量学习的人脸识别方法 |
CN109165566A (zh) * | 2018-08-01 | 2019-01-08 | 中国计量大学 | 一种基于新型损失函数的人脸识别卷积神经网络训练方法 |
CN111985310A (zh) * | 2020-07-08 | 2020-11-24 | 华南理工大学 | 一种用于人脸识别的深度卷积神经网络的训练方法 |
CN112364689A (zh) * | 2020-10-09 | 2021-02-12 | 天津大学 | 基于cnn与雷达图像的人体动作与身份多任务识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11631277B2 (en) * | 2017-11-10 | 2023-04-18 | Koninklijke Philips N.V. | Change-aware person identification |
US10832036B2 (en) * | 2018-07-16 | 2020-11-10 | Adobe Inc. | Meta-learning for facial recognition |
-
2021
- 2021-07-09 CN CN202110775872.5A patent/CN113505692B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103281A (zh) * | 2017-03-10 | 2017-08-29 | 中山大学 | 基于聚集损失深度度量学习的人脸识别方法 |
CN109165566A (zh) * | 2018-08-01 | 2019-01-08 | 中国计量大学 | 一种基于新型损失函数的人脸识别卷积神经网络训练方法 |
CN111985310A (zh) * | 2020-07-08 | 2020-11-24 | 华南理工大学 | 一种用于人脸识别的深度卷积神经网络的训练方法 |
CN112364689A (zh) * | 2020-10-09 | 2021-02-12 | 天津大学 | 基于cnn与雷达图像的人体动作与身份多任务识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113505692A (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN100461204C (zh) | 一种基于二维偏最小二乘法的面部表情识别方法 | |
CN109241536A (zh) | 一种基于深度学习自注意力机制的句子排序方法 | |
Xu et al. | Consistent instance false positive improves fairness in face recognition | |
CN104239858B (zh) | 一种人脸特征验证的方法和装置 | |
CN113283362B (zh) | 一种跨模态的行人重识别方法 | |
CN106548159A (zh) | 基于全卷积神经网络的网纹人脸图像识别方法与装置 | |
CN108932535B (zh) | 一种基于机器学习的边缘计算克隆节点识别方法 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN109063649A (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN106295694A (zh) | 一种迭代重约束组稀疏表示分类的人脸识别方法 | |
CN110659378B (zh) | 基于对比相似性损失函数的细粒度图像检索方法 | |
CN113221655B (zh) | 基于特征空间约束的人脸欺骗检测方法 | |
CN103258157A (zh) | 一种基于手指信息的在线笔迹认证方法及系统 | |
CN116311483B (zh) | 基于局部面部区域重构和记忆对比学习的微表情识别方法 | |
CN105893947A (zh) | 基于多局部相关特征学习的两视角人脸识别方法 | |
CN114299542A (zh) | 一种基于多尺度特征融合的视频行人重识别方法 | |
CN110516526A (zh) | 一种基于特征原型度量学习的小样本目标识别方法 | |
CN114241564A (zh) | 一种基于类间差异强化网络的人脸表情识别方法 | |
CN113505692B (zh) | 基于受试者工作特征曲线下部分面积优化的人脸识别方法 | |
CN116109898A (zh) | 基于双向对抗训练与关系度量约束的广义零样本学习方法 | |
CN114693607A (zh) | 基于多域块特征标志点配准的篡改视频检测方法及系统 | |
CN103903017B (zh) | 一种基于自适应软直方图局部二值模式的人脸识别方法 | |
CN108520201A (zh) | 一种基于加权混合范数回归的鲁棒人脸识别方法 | |
CN114937298A (zh) | 一种基于特征解耦的微表情识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |