CN108446689B - 一种人脸识别方法 - Google Patents

一种人脸识别方法 Download PDF

Info

Publication number
CN108446689B
CN108446689B CN201810538697.6A CN201810538697A CN108446689B CN 108446689 B CN108446689 B CN 108446689B CN 201810538697 A CN201810538697 A CN 201810538697A CN 108446689 B CN108446689 B CN 108446689B
Authority
CN
China
Prior art keywords
sample
resblock
neural network
layer
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810538697.6A
Other languages
English (en)
Other versions
CN108446689A (zh
Inventor
杨通
杨宽
彭若波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Kaiwei Network Technology Co ltd
Original Assignee
Nanjing Kaiwei Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Kaiwei Network Technology Co ltd filed Critical Nanjing Kaiwei Network Technology Co ltd
Priority to CN201810538697.6A priority Critical patent/CN108446689B/zh
Publication of CN108446689A publication Critical patent/CN108446689A/zh
Application granted granted Critical
Publication of CN108446689B publication Critical patent/CN108446689B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种人脸识别方法,包括以下步骤:第一步、读取人脸图像样本数据集;第二步、建立深度卷积神经网络,所述深度卷积神经网络中引入残差单元;第三步、利用梯度下降算法更新深度卷积神经网络参数,首先通过所述深度卷积神经网络将所述样本数据集的人脸图像映射成512维特征向量;计算损失函数及损失函数的梯度,所述损失函数由Softmax函数和A‑softmax函数加权构成,并根据损失函数的梯度下降距离是否小于预设阈值更新深度卷积神经网络的参数;第四步、通过更新参数后的深度卷积神经网络进行人脸识别。本发明不但考虑了类间距离,而且考虑了类内距离,因此提高了人脸识别率。

Description

一种人脸识别方法
技术领域
本发明涉及一种人脸识别方法,属于人工智能技术领域。
背景技术
近年来,基于深度学习的人脸识别技术不断发展,在开源人脸数据测试集LFW上的识别率不断被刷新。与此同时,存在一些制约识别率的提升的因素:
1)海量训练数据的获取与提纯。在深度学习模型的训练过程中,依赖大量有效的人脸训练样本以提高识别精度,理论上数据越多,模型的泛化能力越强。目前主流的开源人脸识别训练集,有VGG2、Ms-Celeb-1M等,但以上数据集仅能满足浅层模型的训练,而如果直接对两个数据集进行合并,会带来样本重合的问题。因此如何获取海量有效的人脸数据是亟待解决的问题之一。
2)深度学习模型结构的设计。深度学习模型结构是影响识别效果的关键因素之一,合理设计的深度学习模型结构,往往在人脸识别准确率上表现优异。因此,为了提高人脸识别准,需要对深度学习模型的结构进行优化。
3)训练损失函数的选择。目前基于深度学习的人脸识别方法中,主流的损失函数是Softmax函数,Softmax函数在机器学习中有非常广泛的应用,会避免分值小的那个饥饿。在模型的迭代训练过程中,不同类别样本的类间距离不断增大,使得其在分类问题上的表现十分优异。但是对于人脸识别问题来说,不单要考虑类间距离(不同人之间鉴别能力),同时也需要考虑类内距离(同一个人的不同图片的聚类能力)。因此,需要对损失函数进行优化。
综上,目前的人脸识别解决方案,存在着训练样本集数据缺失、模型性能不足以及识别精度不高等问题亟待解决。
发明内容
本发明要解决技术问题是:提供一种可以提高识别率的基于卷积神经网络深度学习的人脸识别方法。
为了解决上述技术问题,本发明提出的技术方案是:一种人脸识别方法,包括以下步骤:
第一步、读取人脸图像样本数据集,每幅人脸图像为3通道,其高度为112个像素,宽度为96个像素;
第二步、建立深度卷积神经网络,所述深度卷积神经网络由下表中各模块通过级联的方式构成:
Figure GDA0003302427260000011
Figure GDA0003302427260000021
表中第一列为模块名称,第二列为输入图像大小,第三列为输出图像大小;
其中残差单元ResBlock由第一卷积层、第一BN层、第一PReLu层和第二卷积层、第二BN层、第二PReLu层通过级联的方式构成;
下采样单元DownSamplingBlock由第三卷积层、第三BN层、第三PReLu激活函数以及最大池化层通过级联的方式构成;
第三步、利用梯度下降算法更新深度卷积神经网络参数
1)通过所述深度卷积神经网络将所述样本数据集的人脸图像映射成512维特征向量;
2)计算损失函数,所述损失函数由Softmax函数和A-softmax函数加权构成,其中,Softmax函数的表达式如下:
Figure GDA0003302427260000022
式中,x表示样本经深度卷积神经网络映射而成的特征向量,N表示所述样本数据集的大小,i取值1~N,yi表示样本xi对应的标签;W向量表示待优化参数,包括Wyi和Wj,Wyi表示样本xi在其标签yi处的权重,Wj表示输出节点j处的权重;b向量包括byi和bj,byi表示样本xi在其标签yi处的偏差,bj表示输出节点j处的偏差;
A-softmax函数的表达式如下:
Figure GDA0003302427260000023
式中,
Figure GDA0003302427260000024
Figure GDA0003302427260000025
为样本xi与其对应标签yi的权重夹角,θj,i为样本xi与输出节点j处的权重Wj的夹角,m为预设参数,1≤m≤6;
Figure GDA0003302427260000031
最终的损失函数为:
Figure GDA0003302427260000032
λ为预设的比例因子,1≤λ≤6;
3)计算损失函数的梯度下降距离
Figure GDA0003302427260000033
其中α是预设的学习率;
4)确定损失函数的梯度下降距离是否小于预设阈值ε,如果是则执行第四步,否则更新W向量后再执行步骤1),更新W向量的表达式如下:
Figure GDA0003302427260000034
第四步、通过更新参数后的深度卷积神经网络进行人脸识别。
本发明的思想得益于《A Discriminative Feature Learning Approach forDeep Face Recognition》(以下为叙述方便,简称为“引用论文”),该文2016年由YandongWen,Kaipeng Zhang,Zhifeng Li和Yu Qiao发表,在该文献中表明:在大多数可用的深度卷积神经网络中,Softmax损失函数被用作训练深层模型的监督信号。为了提高深度学习特征的判别能力,引用论文提出了一种新的监督信号,称为中心损失(Center Loss),用于人脸识别任务。具体而言,中心损失函数通过惩罚深层特征与其相应的类别中心之间的距离,去学习每个类别深层特征的中心。引用论文中的深度卷积神经网络包括六个卷积层、四个最大池化层和一个全连接层。卷积层对图像在相应大小的感知野上做特征提取。最大池化层对特征降维,同时扩大感知野。最后全连接层的目的在于对特征在训练集上完成分类,同时产生误差函数。引用论文最后给出的人脸识别方法的测算结果在LFW数据集上面达到99.28%的准确率。
本发明基于卷积神经网络(CNNs)的深度学习人脸识别方法,在引用论文中公开的深度卷积神经网络的基础之上,引入了残差单元ResBlock,目的是为了在加深网络层级结构、提升模型性能的同时,解决梯度耗散问题,即解决了解决网络的层级加深带来的性能饱和问题。
本发明对于损失函数的选择方面,在保留Softmax函数的基础之上,还增加了基于向量夹角的A-softmax损失函数,这样在解决类间距离(不同人之间鉴别能力)的同时,还解决了类内距离(同一个人的不同图片的聚类能力),在损失函数的选择上做出了优化,使得本发明的人脸识别方法在LFW测试集上达到99.688%的准确率。
与引用论文相比,本发明的创新点在于对深度卷积神经网络的各模块进行了顺序上的重排,同时引入了A-softmax损失函数,从而提高了人脸识别率。
上述技术方案的进一步改进是:将两个人脸数据样本集通过FaceNet分别映射至256维的特征空间,映射之后产生两个数据样本集合,对比两个数据样本集合的样本特征之间的欧氏距离,若两个样本特征之间的欧氏距离小于预设阈值,则定义为重合样本;将重合样本去重后,得到合并后的数据集合。这样就可以通过合并现有的数据集达到扩充数据样本的目的。
附图说明
下面结合附图对本发明作进一步说明。
图1是本发明实施例的流程示意图。
图2是合并人脸图像样本数据集的流程示意图。
具体实施方式
实施例
本实施例的人脸识别方法,如图1所示,包括以下步骤:
第一步、读取人脸图像样本数据集,每幅人脸图像为3通道,其高度为112个像素,宽度为96个像素。
本实施例中采用开源人脸图像样本数据集,但常用的开源数据集中无论是GG2数据集还是MS-Celeb-1M数据集,都存在数据量较少的问题,为了提高本实施例的泛化能力,有必要对两个数据集进行合并,但正如背景技术中所说,如果直接对两个数据集进行合并,会带来样本重合的问题,因此,本实施例采用以下方法对GG2数据集还是MS-Celeb-1M数据集进行合并。
具体来说,如图2所示,本实施例将两个人脸数据样本集VGG2数据集、MS-Celeb-1M数据集通过FaceNet分别映射至256维的特征空间,映射之后产生两个集合φvgg2和φceleb。其中
Figure GDA0003302427260000041
Figure GDA0003302427260000042
表示VGG2中第i个人的第j张照片对应的256维特征向量。
Figure GDA0003302427260000043
Figure GDA0003302427260000044
表示MS-Celeb-1M中第i个人的第j张照片对应的特征向量。
随机地从样本集的每个人的特征样本中,挑选一张照片,这样生成
Figure GDA0003302427260000045
Figure GDA0003302427260000046
两两比对来自Tvgg2和Tceleb样本的欧式距离
Figure GDA0003302427260000047
其中ti来自VGG2的ci,tj来自MS-Celeb-1M的dj。设定阈值为0.9。当d<0.9时,合并
Figure GDA0003302427260000048
本实施例中将两个人脸数据样本集通过FaceNet分别映射至256维的特征空间为现有技术,可参考Schroff F,Kalenichenko D,Philbin J.FaceNet:A unified embeddingfor face recognition and clustering[J].2015:815-823。
第二步、建立深度卷积神经网络,所述深度卷积神经网络由下表中各模块通过级联的方式构成:
Input 112*96*3 112*96*3
BN 112*96*3 112*96*3
Conv 112*96*3 110*94*32
BN 110*94*32 110*94*32
PReLu 110*94*32 110*94*32
DownSamplingBlock 110*94*32 54*46*64
ResBlock 54*46*64 54*46*64
DownSamplingBlock 54*46*64 26*22*128
ResBlock 26*22*128 26*22*128
ResBlock 26*22*128 26*22*128
DownSamplingBlock 26*22*128 12*10*256
ResBlock 12*10*256 12*10*256
ResBlock 12*10*256 12*10*256
ResBlock 12*10*256 12*10*256
ResBlock 12*10*256 12*10*256
ResBlock 12*10*256 12*10*256
DownSamplingBlock 12*10*256 5*4*512
ResBlock 5*4*512 5*4*512
ResBlock 5*4*512 5*4*512
ResBlock 5*4*512 5*4*512
FullConnect 5*4*512 512
Embedding 512 512
表中第一列为模块名称,第二列为输入图像大小,第三列为输出图像大小;
其中残差单元ResBlock由第一卷积层、第一BN层、第一PReLu层和第二卷积层、第二BN层、第二PReLu层通过级联的方式构成;所述第一、第二卷积层均采用3*3大小的卷积核,步进为1,图像加边距为1。
下采样单元DownSamplingBlock由第三卷积层、第三BN层、第三PReLu激活函数以及最大池化层通过级联的方式构成;所述第三卷积层采用3*3大小的卷积核,步进为1,图像不加边,所述最大池化层采用大小为2*2的核,步进为2。
本实施例中深度卷积神经网络的各模块可参照引用论文,本实施例仅对各模块进行了顺序上的重排,并引入了残差单元ResBlock。本实施例中第一卷积层、第一BN层、第一PReLu层、第二卷积层、第二BN层、第二PReLu层、第三卷积层、第三BN层、第三PReLu激活函数以及最大池化层均为现有技术,同样可参照引用论文的描述,其中“第一”、“第二”、“第三”仅仅是为了方便描述,与要表达的术语无关。
第三步、利用梯度下降算法更新深度卷积神经网络参数
1)通过所述深度卷积神经网络将所述样本数据集的人脸图像映射成512维特征向量。本实施例中特征向量之间的夹角直接关联于人脸相似度:同一个人之间,特征向量之间的夹角很小,不同人之间特征向量之间的夹角很大。
2)计算损失函数,所述损失函数由Softmax函数和A-softmax函数加权构成,其中,Softmax函数的表达式如下:
Figure GDA0003302427260000061
式中,x表示样本经深度卷积神经网络映射而成的特征向量,N表示所述样本数据集的大小,i取值1~N,yi表示样本xi对应的标签;W向量表示待优化参数,包括
Figure GDA0003302427260000062
和Wj
Figure GDA0003302427260000063
表示样本xi在其标签yi处的权重,Wj表示输出节点j处的权重;b向量包括
Figure GDA0003302427260000064
和bj
Figure GDA0003302427260000065
表示样本xi在其标签yi处的偏差,bj表示输出节点j处的偏差。
本实施例中Softmax函数、W向量、b向量、输出节点j均与引用论文中相同,其表达式、计算方法与引用论文中的Softmax函数均完全一致,可参照引用论文。
A-softmax函数的表达式如下:
Figure GDA0003302427260000066
式中,
Figure GDA0003302427260000067
Figure GDA0003302427260000068
为样本xi与其对应标签yi的权重夹角,θj,i为样本xi与输出节点j处的权重Wj的夹角,本发明中取m=4,此时k取值如下:
Figure GDA0003302427260000069
最终的损失函数为:
Figure GDA00033024272600000610
λ为预设的比例因子,1≤λ≤6,本例中取λ=4。
3)计算损失函数的梯度下降距离
Figure GDA00033024272600000611
其中α是预设的学习率,可根据引用论文的方法进行选取,本例中取0.1;
4)确定损失函数的梯度下降距离是否小于预设阈值ε,即确定损失函数J(W)是否收敛,如果是则执行第四步,否则更新W向量后再执行步骤1),更新W向量的表达式如下:
Figure GDA00033024272600000612
第四步、通过更新参数后的深度卷积神经网络进行人脸识别,即通过更新后的深度卷积神经网络输出人脸特征值,计算不同人脸图像特征值的相似度进行人脸识别,具体识别方法可参考引用论文。
本发明不局限于上述实施例所述的具体技术方案,除上述实施例外,本发明还可以有其他实施方式。对于本领域的技术人员来说,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等形成的技术方案,均应包含在本发明的保护范围之内。

Claims (4)

1.一种人脸识别方法,包括以下步骤:
第一步、读取人脸图像样本数据集,每幅人脸图像为3通道,其高度为112个像素,宽度为96个像素;
第二步、建立深度卷积神经网络,所述深度卷积神经网络由下表中各模块通过级联的方式构成:
Input 112*96*3 112*96*3 BN 112*96*3 112*96*3 Conv 112*96*3 110*94*32 BN 110*94*32 110*94*32 PReLu 110*94*32 110*94*32 DownSamplingBlock 110*94*32 54*46*64 ResBlock 54*46*64 54*46*64 DownSamplingBlock 54*46*64 26*22*128 ResBlock 26*22*128 26*22*128 ResBlock 26*22*128 26*22*128 DownSamplingBlock 26*22*128 12*10*256 ResBlock 12*10*256 12*10*256 ResBlock 12*10*256 12*10*256 ResBlock 12*10*256 12*10*256 ResBlock 12*10*256 12*10*256 ResBlock 12*10*256 12*10*256 DownSamplingBlock 12*10*256 5*4*512 ResBlock 5*4*512 5*4*512 ResBlock 5*4*512 5*4*512 ResBlock 5*4*512 5*4*512 FullConnect 5*4*512 512 Embedding 512 512
表中第一列为模块名称,第二列为输入图像大小,第三列为输出图像大小;
其中残差单元ResBlock由第一卷积层、第一BN层、第一PReLu层和第二卷积层、第二BN层、第二PReLu层通过级联的方式构成;
下采样单元DownSamplingBlock由第三卷积层、第三BN层、第三PReLu激活函数以及最大池化层通过级联的方式构成;
第三步、利用梯度下降算法更新深度卷积神经网络参数
1)通过所述深度卷积神经网络将所述样本数据集的人脸图像映射成512维特征向量;
2)计算损失函数,所述损失函数由Softmax函数和A-softmax函数加权构成,其中,Softmax函数的表达式如下:
Figure FDA0003302427250000011
式中,x表示样本经深度卷积神经网络映射而成的特征向量,N表示所述样本数据集的大小,i取值1~N,yi表示样本xi对应的标签;W向量表示待优化参数,包括
Figure FDA0003302427250000013
和Wj
Figure FDA0003302427250000012
表示样本xi在其标签yi处的权重,Wj表示输出节点j处的权重;b向量包括
Figure FDA0003302427250000025
和bj
Figure FDA0003302427250000026
表示样本xi在其标签yi处的偏差,bj表示输出节点j处的偏差;
A-softmax函数的表达式如下:
Figure FDA0003302427250000021
式中,
Figure FDA0003302427250000027
Figure FDA0003302427250000028
为样本xi与其对应标签yi的权重夹角,θj,i为样本xi与输出节点j处的权重Wj的夹角,m为预设参数,1≤m≤6;
Figure FDA0003302427250000029
最终的损失函数为:
Figure FDA0003302427250000022
λ为预设的比例因子,1≤λ≤6;
3)计算损失函数的梯度下降距离
Figure FDA0003302427250000023
其中α是预设的学习率;
4)确定损失函数的梯度下降距离是否小于预设阈值ε,如果是则执行第四步,否则更新W向量后再执行步骤1),更新W向量的表达式如下:
Figure FDA0003302427250000024
第四步、通过更新参数后的深度卷积神经网络进行人脸识别。
2.根据权利要求1所述的人脸识别方法,其特征在于:将两个人脸数据样本集通过FaceNet分别映射至256维的特征空间,映射之后产生两个数据样本集合,对比两个数据样本集合的样本特征之间的欧氏距离,若两个样本特征之间的欧氏距离小于预设阈值,则定义为重合样本;将重合样本去重后,得到合并后的数据集合。
3.根据权利要求1所述的人脸识别方法,其特征在于:第二步中,所述第三卷积层采用3*3大小的卷积核,步进为1,图像不加边,所述最大池化层采用大小为2*2的核,步进为2。
4.根据权利要求1所述的人脸识别方法,其特征在于:第二步中,所述第一、第二卷积层均采用3*3大小的卷积核,步进为1,图像加边距为1。
CN201810538697.6A 2018-05-30 2018-05-30 一种人脸识别方法 Active CN108446689B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810538697.6A CN108446689B (zh) 2018-05-30 2018-05-30 一种人脸识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810538697.6A CN108446689B (zh) 2018-05-30 2018-05-30 一种人脸识别方法

Publications (2)

Publication Number Publication Date
CN108446689A CN108446689A (zh) 2018-08-24
CN108446689B true CN108446689B (zh) 2022-02-15

Family

ID=63205753

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810538697.6A Active CN108446689B (zh) 2018-05-30 2018-05-30 一种人脸识别方法

Country Status (1)

Country Link
CN (1) CN108446689B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109461144B (zh) * 2018-10-16 2021-02-23 杭州依图医疗技术有限公司 一种乳腺影像识别的方法及装置
CN109460974B (zh) * 2018-10-29 2021-09-07 广州皓云原智信息科技有限公司 一种基于姿态识别的考勤系统
CN109902662B (zh) * 2019-03-20 2023-10-24 中山大学 一种行人重识别方法、系统、装置和存储介质
CN110222693B (zh) * 2019-06-03 2022-03-08 第四范式(北京)技术有限公司 构建字符识别模型与识别字符的方法和装置
CN110458097A (zh) * 2019-08-09 2019-11-15 软通动力信息技术有限公司 一种人脸图片识别方法、装置、电子设备及存储介质
WO2021038298A2 (en) 2019-08-29 2021-03-04 PXL Vision AG Id verification with a mobile device
CN110569809A (zh) * 2019-09-11 2019-12-13 淄博矿业集团有限责任公司 一种基于深度学习的煤矿动态人脸识别考勤方法及系统
CN111325094A (zh) * 2020-01-16 2020-06-23 中国人民解放军海军航空大学 一种基于高分辨距离像的舰船类型的识别方法及系统
CN111914612B (zh) * 2020-05-21 2024-03-01 淮阴工学院 一种基于改进的卷积神经网络的施工图图元自适应识别方法
CN113057647B (zh) * 2021-03-25 2022-04-22 山东省人工智能研究院 一种心电信号的质量评估方法
CN113221732B (zh) * 2021-05-10 2021-12-10 精点视界(深圳)科技有限公司 基于人脸识别的大数据精准制作智能证卡的实现方法
CN113239859B (zh) * 2021-05-28 2022-08-19 合肥工业大学 一种焦点引导的人脸子空间模糊聚类方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529486A (zh) * 2016-11-18 2017-03-22 深圳市唯特视科技有限公司 一种基于三维形变人脸模型的种族识别方法
CN107844784A (zh) * 2017-12-08 2018-03-27 广东美的智能机器人有限公司 人脸识别方法、装置、计算机设备和可读存储介质
CN107886064A (zh) * 2017-11-06 2018-04-06 安徽大学 一种基于卷积神经网络的人脸识别场景适应的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529486A (zh) * 2016-11-18 2017-03-22 深圳市唯特视科技有限公司 一种基于三维形变人脸模型的种族识别方法
CN107886064A (zh) * 2017-11-06 2018-04-06 安徽大学 一种基于卷积神经网络的人脸识别场景适应的方法
CN107844784A (zh) * 2017-12-08 2018-03-27 广东美的智能机器人有限公司 人脸识别方法、装置、计算机设备和可读存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Discriminative Feature Learning Approach for Deep Face Recognition;Yandong Wen等;《ECCV 2016》;20161231;第499-515页 *
Deep Residual Learning for Image Recognition;Kaiming He等;《arXiv:1512.03385v1 [cs.CV]》;20151210;第1-12页 *
FaceNet: A Unified Embedding for Face Recognition and Clustering;Florian Schroff等;《arXiv:1503.03832v3 [cs.CV]》;20150617;第1-10页 *
SphereFace: Deep Hypersphere Embedding for Face Recognition;Weiyang Liu等;《PiarXiv:1704.08063v4 [cs.CV]》;20180129;第1-13页 *

Also Published As

Publication number Publication date
CN108446689A (zh) 2018-08-24

Similar Documents

Publication Publication Date Title
CN108446689B (zh) 一种人脸识别方法
CN110532920B (zh) 基于FaceNet方法的小数量数据集人脸识别方法
CN109615014B (zh) 一种基于kl散度优化的3d物体数据分类系统与方法
CN104866810B (zh) 一种深度卷积神经网络的人脸识别方法
CN110929029A (zh) 一种基于图卷积神经网络的文本分类方法及系统
CN109063666A (zh) 基于深度可分离卷积的轻量化人脸识别方法及系统
Ali et al. Boosted NNE collections for multicultural facial expression recognition
Shen et al. An incremental online semi-supervised active learning algorithm based on self-organizing incremental neural network
CN110688502B (zh) 一种基于深度哈希和量化的图像检索方法及存储介质
Pal Soft computing for feature analysis
CN112464865A (zh) 一种基于像素和几何混合特征的人脸表情识别方法
CN111191583A (zh) 基于卷积神经网络的空间目标识别系统及方法
CN111582044A (zh) 基于卷积神经网络和注意力模型的人脸识别方法
CN111178196B (zh) 一种细胞分类的方法、装置及设备
CN110991554B (zh) 一种基于改进pca的深度网络图像分类方法
Wang et al. A novel multiface recognition method with short training time and lightweight based on ABASNet and H-softmax
CN115168579A (zh) 一种基于多头注意力机制和二维卷积操作的文本分类方法
CN114492634A (zh) 一种细粒度装备图片分类识别方法及系统
CN113052236A (zh) 一种基于NASNet的肺炎图像分类方法
CN111241326A (zh) 基于注意力金字塔图网络的图像视觉关系指代定位方法
CN117011219A (zh) 物品质量检测方法、装置、设备、存储介质和程序产品
CN111931767B (zh) 一种基于图片信息度的多模型目标检测方法、装置、系统及存储介质
Basak et al. Hough transform network: Learning conoidal structures in a connectionist framework
CN113553326A (zh) 电子表格数据处理方法、装置、计算机设备和存储介质
CN114170460A (zh) 一种基于多模态融合的艺术品分类方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant