CN107977618B - 一种基于双层级联神经网络的人脸对齐方法 - Google Patents

一种基于双层级联神经网络的人脸对齐方法 Download PDF

Info

Publication number
CN107977618B
CN107977618B CN201711215320.9A CN201711215320A CN107977618B CN 107977618 B CN107977618 B CN 107977618B CN 201711215320 A CN201711215320 A CN 201711215320A CN 107977618 B CN107977618 B CN 107977618B
Authority
CN
China
Prior art keywords
feature points
network
face
region
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711215320.9A
Other languages
English (en)
Other versions
CN107977618A (zh
Inventor
张雨
姜飞
申瑞民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201711215320.9A priority Critical patent/CN107977618B/zh
Publication of CN107977618A publication Critical patent/CN107977618A/zh
Application granted granted Critical
Publication of CN107977618B publication Critical patent/CN107977618B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于双层级联神经网络的人脸对齐方法,包括以下步骤:1)训练一两级神经网络模型,该两级神经网络模型包括用于检测人脸轮廓特征点和五官区域的第一级网络和用于检测五官区域特征点的第二级网络,所述五官区域包括眉眼区域、鼻子区域和嘴巴区域;2)通过所述两级神经网络模型对待测图片进行68特征点检测,实现人脸对齐。与现有技术相比,本发明具有检测精度高、能很好地适应较复杂背景等优点。

Description

一种基于双层级联神经网络的人脸对齐方法
技术领域
本发明涉及人脸识别技术领域,尤其是涉及一种基于双层级联神经网络的人脸对齐方法。
背景技术
人脸对齐是计算机视觉以及图像领域的热门研究课题之一。人脸对齐又称为人脸特征点定位,它是由算法自动标注人脸图像的特征点。所谓特征点是人为定义的围绕在五官以及下巴的点,经过人脸对齐后能够定位出人脸的五官区域,如图1所示。人脸对齐得到科研人员广泛关注的原因在于它对其他相关技术例如人脸匹配、人脸识别、情感识别等的辅助性。近年来有许多优秀的算法被用以解决人脸特征点定位问题,但是由于人脸表情的多样性、部分遮挡以及头部姿态的差异性人脸对齐仍是计算机图像领域的研究难题。
文献“One millisecond face alignment with an ensemble of regressiontrees”(V.Kazemi,S.Josephine,in:Computer Vision and Pattern Recognition(CVPR),2014IEEE Conference on,IEEE,2014)公开一种基于梯度自助随机森林的人脸对齐技术,利用服从指数先验分布的形状指数特征作为随机森林训练特征训练回归树,训练过程具体为:初始化弱分类器,不断输入新样本,对每个新图像及形状运用弱分分类器计算公式,将回归器按弱分类器输出值降低的方向调整,重复K次,每次以学习率v更新回归器,得到最终的回归器rt。该方法虽然能实现人脸对齐,但该方法对所有的图片来说,回归器的初始化由同样的先验弱回归器得到,若某个初始形状与真正的形状相差太远,那很容易陷入局部最优解而无法回归到全局最优,影响人脸对齐精度。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于双层级联神经网络的人脸对齐方法。
本发明的目的可以通过以下技术方案来实现:
一种基于双层级联神经网络的人脸对齐方法,包括以下步骤:
1)训练一两级神经网络模型,该两级神经网络模型包括用于检测人脸轮廓特征点和五官区域的第一级网络和用于检测五官区域特征点的第二级网络,所述五官区域包括眉眼区域、鼻子区域和嘴巴区域;
2)通过所述两级神经网络模型对待测图片进行68特征点检测,实现人脸对齐。
进一步地,所述第一级网络包括依次连接的四层卷积层和两层全联接层,且第一层卷积层的特征输出和第四层卷积层的特征输出融合后作为第一层全联接层的输入。
进一步地,所述四层卷积层的特征维度不同。
进一步地,所述第一级网络训练时,训练集的输出部分通过以下方式获得:
在标注有68特征点的样本图片中,以各五官区域的特征点为边界确定的区域按比例放大成矩形区域,以标记有人脸轮廓特征点和所述矩形区域的样本图片作为输出。
进一步地,所述第一级网络通过一损失函数判定性能,所述损失函数为:
Figure GDA0001585899470000021
其中,Pi、Lj、Rj为样本的标准坐标值,pi、lj、rj为第一级网络输出的对应样本的检测坐标值,ω为权值,p为检测的特征点总数,i表示人脸轮廓特征点的标号,j表示五官区域的标号。
进一步地,所述第二级网络包括三个结构相同输出不同的子网络,各子网络包括依次连接的四层卷积层和两层全联接层。
进一步地,所述四层卷积层的特征维度不同。
进一步地,所述第二级网络训练时,对第一级网络获得的五官区域结果进行截取分割,并旋转设定角度扩充样本空间。
进一步地,所述步骤2)具体为:
201)获取待测图片,提取所述待测图片的人脸部分,进行归一化;
202)将归一化后的人脸部分输入第一级网络,获得人脸部分的人脸轮廓特征点和三个五官区域;
203)截取分割所述三个五官区域,扩充样本空间后分别输入第二层网络,获得对应的五官区域特征点;
204)结合步骤202)和203)获得人脸部分的68特征点。
与现有技术相比,本发明具有以下有益效果:
1、本发明基于公共数据集设计并训练一两级神经网络模型对人脸的68特征点进行检测,可以解决自然环境下的人脸对齐问题,能很好地适应较复杂的背景。
2、本发明基于两级神经网络模型将68特征点检测问题简化为先检测区域后精确定位人脸内部特征点两个问题,降低检测复杂度。
3、本发明设计的第一级网络中采用特征融合方式,更好地利用全局限制且不丢失低层信息,提高了检测精度。
4、本发明通过设计的权值损失函数保证第一级网络的性能。
附图说明
图1为人脸对齐示意图,其中,(1a)-(1c)分别为三种表情下的人脸对齐示意图;
图2为本发明的整体流程示意图;
图3为本发明第一级网络的训练集数据示意图,其中,(3a)为人脸特征点标定顺序图,(3b)为训练集输bounding box定界示例;
图4为本发明第一级网络的结构示意图;
图5为本发明第一级网络的输出结果示例;
图6为本发明测试流程示意图;
图7为本发明的检测结果示例。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明提供一种基于双层级联神经网络的人脸对齐方法,基于深度学习算法,使用卷积神经网络对待检测人脸进行特征提取,基于样本训练了一个两级的深度学习模型,并对自然环境下的人脸对齐问题做了优化。如图2所示,该方法包括以下步骤:
1)训练一两级神经网络模型,该两级神经网络模型包括用于检测人脸轮廓特征点和五官区域的第一级网络和用于检测五官区域特征点的第二级网络,五官区域包括眉眼区域、鼻子区域和嘴巴区域;
2)通过两级神经网络模型对待测图片进行68特征点检测,实现人脸对齐。
本实施例中,训练集采用公共数据库300w,通过第一级网络的前传,能得到人脸轮廓的17个特征点以及人脸五官的三个区域;然后将三个区域分别送到第二级网络中分开训练,得到51个内部特征点后与上级网络的输出结合就能最终得到68个特征点。
第一步:第一级网络的数据准备
本实施例数据集来自300W,由多个公开的自然环境下的人脸图片组成,并标有人脸位置的bounding box以及人脸对齐所需的68个特征点坐标。数据集一共包含3837张图片,其中,3283张作为训练集,554张作为测试集。
第一级网络的损失函数表达如下:
Figure GDA0001585899470000041
其中,损失函数是卷积神经网络优化的目标函数,整个神经网络的参数更新朝着是损失函数减小的方向更新。Pi、Lj、Rj为样本的标准坐标值,pi、lj、rj为第一级网络输出的对应样本的检测坐标值,ω为权值,i表示人脸轮廓特征点的标号,i=1,2,…,17,j表示五官区域的标号,j=1,2,3,p代表检测的特征点总数,在第一级p为17+6=23。
由于第一层的目标是输出17个特征点以及三个bounding box的坐标故我们将训练集的68个体征点中的前17个坐标作为第一层特征点输出的标准值也即上式中的Pi,pi、lj、rj对应模型输出的17个脸部轮廓的坐标以及bounding box区域坐标值。区域boundingbox以人脸区域的左上角点Lj以及右下角点Rj确定,所以在输入训练集数据时,以各个区域的内部特征点为边界确定区域并按比例放大,在此三个区域的x、y方向放大比例向量为(1.4,1.2;1.05,1.2;1.2,1.2),特征点顺序如图3的(3a)所示,bounding box放大示例如图3的(3b)所示,图(3b)中矩形框内部线条为区域特征点坐标边界值确定的区域,矩形框为扩大后的区域示例。考虑到第一层需输出的17个脸部轮廓的与6个bounding box坐标的均衡性,在损失函数中引入权值ω以达到更好的目标输出。
第二步:第一层网络结构设计
第一级网络包括依次连接的四层卷积层和两层全联接层,且第一层卷积层的特征输出和第四层卷积层的特征输出融合后作为第一层全联接层的输入。四层卷积层的特征维度不同。
如图4所示为本实施例的第一级网络结构及参数,图中,Conv代表卷积层,3*3含义为卷积核的大小;MP(Max pooling)代表最大池化层,参数表示的感受域大小;FC是全联接层;立方体上的参数代表输出特征的维度(W*H*C),C表示通道数。
将训练集按所给定bounding box裁剪为只含人脸的图像,训练时将图片归一化到60*60输入神经网络中训练。考虑到人脸特征具有不均衡性,比如眉毛具有更多底层信息(边角)而眼睛的特征更加复杂,在设计第一级网络结构时,为了利用全局限制且不丢失低层信息,在第一层卷积处理后将其输出的特征图与第四层卷积层输出的特征图相结合,按深度方向合并作为全联接层的输入。第一级网络输出示例如图5所示。
第三步:第二级网络训练
第二级网络包括三个结构相同输出不同的子网络,各子网络包括依次连接的四层卷积层和两层全联接层。四层卷积层的特征维度不同。
对于眉眼模型,输出为22个坐标也即44个输出单元;对于鼻子模型,输出单元有18个,嘴部模型有40个输出单元。
在训练第二级的三个子网络模型时,首先将训练集得到的三个bounding box(图(3b)所示)区域截取出的图片以等概率旋转±30°、±15°,并随机做水平翻转以扩大训练集的样本空间,图片将归一化到39*39大小。本实施例实现时采用开源库opencv进行图片预处理。
训练过程的网络参数设置如表1所示。
表1
Figure GDA0001585899470000051
Figure GDA0001585899470000061
第四步:输出测试
如图6所示,对训练后的两级神经网络进行测试的流程具体为:首先将测试图片的人脸部分提取出来,这里采用300W提供的人脸bounding box提取。然后将人脸图片缩放到60*60输入到第一级网络进行测试,第一级网络将得到17个人脸轮廓特征点坐标以及三个区域的左上角坐标和右下角坐标。然后将得到的三个区域的位置下的图片分别送到相应的网络模型中,经过网络前传就能得到人脸内部特征点51个。最后结合第一级输出的17个点就能得到最终的68个特征点的坐标。最终得到的部分测试集效果图如图7所示。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (8)

1.一种基于双层级联神经网络的人脸对齐方法,其特征在于,包括以下步骤:
1)训练一两级神经网络模型,该两级神经网络模型包括用于检测人脸轮廓特征点和五官区域的第一级网络和用于检测五官区域特征点的第二级网络,所述五官区域包括眉眼区域、鼻子区域和嘴巴区域;
2)通过所述两级神经网络模型对待测图片进行68特征点检测,实现人脸对齐;
所述第一级网络通过一损失函数判定性能,所述损失函数为:
Figure FDA0002840301760000011
其中,Pi、Lj、Rj为样本的标准坐标值,pi、lj、rj为第一级网络输出的对应样本的检测坐标值,ω为权值,p为检测的特征点总数,i表示人脸轮廓特征点的标号,j表示五官区域的标号。
2.根据权利要求1所述的基于双层级联神经网络的人脸对齐方法,其特征在于,所述第一级网络包括依次连接的四层卷积层和两层全联接层,且第一层卷积层的特征输出和第四层卷积层的特征输出融合后作为第一层全联接层的输入。
3.根据权利要求2所述的基于双层级联神经网络的人脸对齐方法,其特征在于,所述四层卷积层的特征维度不同。
4.根据权利要求1所述的基于双层级联神经网络的人脸对齐方法,其特征在于,所述第一级网络训练时,训练集的输出部分通过以下方式获得:
在标注有68特征点的样本图片中,以各五官区域的特征点为边界确定的区域按比例放大成矩形区域,以标记有人脸轮廓特征点和所述矩形区域的样本图片作为输出。
5.根据权利要求1所述的基于双层级联神经网络的人脸对齐方法,其特征在于,所述第二级网络包括三个结构相同输出不同的子网络,各子网络包括依次连接的四层卷积层和两层全联接层。
6.根据权利要求5所述的基于双层级联神经网络的人脸对齐方法,其特征在于,所述四层卷积层的特征维度不同。
7.根据权利要求1所述的基于双层级联神经网络的人脸对齐方法,其特征在于,所述第二级网络训练时,对第一级网络获得的五官区域结果进行截取分割,并旋转设定角度扩充样本空间。
8.根据权利要求1所述的基于双层级联神经网络的人脸对齐方法,其特征在于,所述步骤2)具体为:
201)获取待测图片,提取所述待测图片的人脸部分,进行归一化;
202)将归一化后的人脸部分输入第一级网络,获得人脸部分的人脸轮廓特征点和三个五官区域;
203)截取分割所述三个五官区域,扩充样本空间后分别输入第二层网络,获得对应的五官区域特征点;
204)结合步骤202)和203)获得人脸部分的68特征点。
CN201711215320.9A 2017-11-28 2017-11-28 一种基于双层级联神经网络的人脸对齐方法 Active CN107977618B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711215320.9A CN107977618B (zh) 2017-11-28 2017-11-28 一种基于双层级联神经网络的人脸对齐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711215320.9A CN107977618B (zh) 2017-11-28 2017-11-28 一种基于双层级联神经网络的人脸对齐方法

Publications (2)

Publication Number Publication Date
CN107977618A CN107977618A (zh) 2018-05-01
CN107977618B true CN107977618B (zh) 2021-05-11

Family

ID=62012160

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711215320.9A Active CN107977618B (zh) 2017-11-28 2017-11-28 一种基于双层级联神经网络的人脸对齐方法

Country Status (1)

Country Link
CN (1) CN107977618B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986798B (zh) * 2018-06-27 2019-11-26 百度在线网络技术(北京)有限公司 语音数据的处理方法、装置及设备
CN109993067B (zh) * 2019-03-07 2022-01-28 北京旷视科技有限公司 面部关键点提取方法、装置、计算机设备和存储介质
CN112597944A (zh) * 2020-12-29 2021-04-02 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质
CN112906779B (zh) * 2021-02-07 2023-12-08 中山大学 基于样本边界值及集成多样性的数据分类方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105868689B (zh) * 2016-02-16 2019-03-29 杭州景联文科技有限公司 一种基于级联卷积神经网络的人脸遮挡检测方法
CN106326853B (zh) * 2016-08-19 2020-05-15 厦门美图之家科技有限公司 一种人脸跟踪方法及装置

Also Published As

Publication number Publication date
CN107977618A (zh) 2018-05-01

Similar Documents

Publication Publication Date Title
CN111354079B (zh) 三维人脸重建网络训练及虚拟人脸形象生成方法和装置
CN107977618B (zh) 一种基于双层级联神经网络的人脸对齐方法
Zhang et al. Relationship proposal networks
Liang et al. Parsing the hand in depth images
CN105868716B (zh) 一种基于面部几何特征的人脸识别方法
CN109558832A (zh) 一种人体姿态检测方法、装置、设备及存储介质
CN102332095B (zh) 一种人脸运动跟踪方法和系统以及一种增强现实方法
CN107169455B (zh) 基于深度局部特征的人脸属性识别方法
Zhang et al. Content-adaptive sketch portrait generation by decompositional representation learning
CN107871106A (zh) 人脸检测方法和装置
CN106778852A (zh) 一种修正误判的图像内容识别方法
CN106897675A (zh) 双目视觉深度特征与表观特征相结合的人脸活体检测方法
Arif et al. Automated body parts estimation and detection using salient maps and Gaussian matrix model
CN109543632A (zh) 一种基于浅层特征融合引导的深层网络行人检测方法
CN103839223A (zh) 图像处理方法及装置
CN109598234A (zh) 关键点检测方法和装置
CN109948467A (zh) 人脸识别的方法、装置、计算机设备和存储介质
Li et al. Pooling map adaptation in convolutional neural network for facial expression recognition
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
CN105631456B (zh) 一种基于粒子群优化itti模型的白细胞区域提取方法
CN114120389A (zh) 网络训练及视频帧处理的方法、装置、设备及存储介质
JP2011060289A (ja) 顔画像合成方法及びシステム
CN113345089B (zh) 一种基于电力塔点云的规则化建模方法
Ke et al. SRN: Side-output residual network for object reflection symmetry detection and beyond
CN115546361A (zh) 三维卡通形象处理方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant