CN107808129A - 一种基于单个卷积神经网络的面部多特征点定位方法 - Google Patents

一种基于单个卷积神经网络的面部多特征点定位方法 Download PDF

Info

Publication number
CN107808129A
CN107808129A CN201710967121.7A CN201710967121A CN107808129A CN 107808129 A CN107808129 A CN 107808129A CN 201710967121 A CN201710967121 A CN 201710967121A CN 107808129 A CN107808129 A CN 107808129A
Authority
CN
China
Prior art keywords
facial
layer
face
mrow
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710967121.7A
Other languages
English (en)
Other versions
CN107808129B (zh
Inventor
练智超
朱虹
李德强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201710967121.7A priority Critical patent/CN107808129B/zh
Publication of CN107808129A publication Critical patent/CN107808129A/zh
Application granted granted Critical
Publication of CN107808129B publication Critical patent/CN107808129B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开了一种基于单个卷积神经网络的面部特征点定位方法,方法为:扩充训练样本;根据数据集提供的与每个样本对应的面部特征点坐标,确定人脸边框;采用缩放、旋转、平移和翻转四种操作来扩充数据,弥补训练图像特征点标注的不足;根据人脸边界框提取出人脸图像,并进行归一化处理;最后设计网络结构,训练网络,设置网络的学习率和每次处理数据的数量,完成面部多特征点的定位。本方法简化了网络结构,降低了训练难度,该网络结构可以提取更多的全局高级特征,更精确地表达面部特征点,在变化复杂的条件下对面部特征点的定位效果好,同时能实现面部多个特征点定位。

Description

一种基于单个卷积神经网络的面部多特征点定位方法
技术领域
本发明涉及生物识别领域,特别是一种基于单个卷积神经网络的面部多特征点定位方法。
背景技术
面部特征点定位是计算机视觉中的重要问题,因为许多视觉任务依赖于准确的面部特征点定位结果,比如面部识别,面部表情分析,面部动画等。虽然在这些年里被广泛研究,并且取得了巨大的成功。但是,由于部分遮挡、光照、较大的头部旋转和夸张的表情变化等因素导致人脸图像的复杂多样性,面部特征点定位仍然面临着巨大挑战。卷积神经网络已经被证明在提取特征和分类方面具有有效性,同时它也被证明针对遮挡具有鲁棒性。
面部特征点定位方法大致分为两类:传统方法和基于深度学习的方法。典型的传统方法包括基于模型的方法和基于回归的方法。基于模型的方法在给定平均初始形状的情况下学习形状增量。如主动形状模型(ASM)和主动外观模型(AAM),采用统计模型如主成分分析(PCA)来分别捕获形状和外观变化。然而,他们并不能获得具有较大头部姿态变化和夸张的面部表情等人脸图像的精确形状,因为单一的线性模型很难刻画现实场景数据中的复杂非线性变化。基于回归的方法通过训练外观模型来预测关键点位置。Xiong等人通过在SIFT特征上应用线性回归来预测形状增量。Cao等人Burgos Artizzu等人使用像素强度差异作为特征顺序学习了一系列随机蕨回归,并逐步退化了学习级联的形状。他们对所有参数同时进行回归,从而有效地利用形状约束。这些方法主要从初始的估计迭代地修改预测的特征点位置,因此最终结果高度依赖于初始化。
到目前为止,只有几种基于深度学习的方法。Sun等人采用级联CNN进行面部特征点定位的新方法。这种方法将脸分为不同的部分,每个部分分别由卷积神经网络训练。最后,它实现了5个特征点的定位,即:左右眼睛、鼻尖,左右嘴角。然而,由于级联网络的复杂性,检测很慢;并且将人脸分成多个部分进行定位,忽略了人脸的整体性。Zhang等人训练一个多任务学习(辅助属性)的深层卷积网络TCDCN。每个任务对应人脸图像的一个属性,例如姿态,微笑,性别等,这使得特征点定位具有鲁棒性。结果表明,特征点定位的精度较高。然而,多任务学习对数据集的需求更高,并且不能重复复杂的训练。
显然,上述网络的结构和训练过程都非常复杂;其次现有的基于深度学习的方法大多是针对数目较少的特征点定位。当特征点的数目变多时,定位的准确性会变得愈加困难。
发明内容
本发明的目的在于提供一种基于单个卷积神经网络的面部多特征点定位方法,以精确地表达面部特征点,在变化复杂的条件下仍然能够对面部特征点进行高效定位,同时能实现面部多个特征点定位。
实现本发明目的的技术解决方案为:1、一种基于单个卷积神经网络的面部多特征点定位方法,其特征在于,包括以下步骤:
步骤1、扩充训练样本;
步骤2、根据数据集提供的与每个样本对应的面部特征点坐标,确定人脸边框;
步骤3、采用缩放、旋转、平移和翻转四种操作来扩充数据,弥补训练图像特征点标注的不足;
步骤4、根据人脸边界框提取出人脸图像,并进行归一化处理;
步骤5、设计网络结构;
步骤6、训练网络,设置网络的学习率和每次处理数据的数量,完成面部多特征点的定位。
进一步地,步骤2所述的根据数据集提供的与每个样本对应的面部特征点坐标,确定人脸边框,具体处理方式的伪代码如下:
输入:一张测试图片IMG;与该测试图像对应的面部特征点坐标(xi,yi)={(x1,y1),(x2,y2)···(xm,ym)},i∈{1,...,m},其中m为特征点的个数;
输出:该测试图片中的人脸边界框的坐标{(X1,Y1),(X2,Y2)}
1)X1←min(xi)
2)Y1←min(yi)
3)X2←max(xi)
4)Y2←max(yi)
5)End。
进一步地,步骤3所述采用缩放、旋转、平移和翻转四种操作来扩充数据,其中翻转通过将左眼的模型用于右眼,左眉毛用于右眉毛,左嘴角用于右嘴角来实现。
进一步地,步骤4所述根据人脸边界框提取出人脸图像,并进行归一化处理,具体为:
根据所提取出的人脸图像与归一化后的比例关系,调整面部特征点的坐标位置,将提取出的人脸图像归一化为224×224的像素大小。
进一步地,步骤5所述的设计网络结构,具体如下:
网络输入的是224×224×3的彩色脸部图像和相应的面部特征点坐标n,其中n是面部特征点总数的两倍;
网络层数分为八组:
第一组由第一卷积层Conv1_1和第一最大池化层Pool1组成;
第二组由第二卷积层Conv2_1和第二最大池化层Pool2组成;
第三组由堆叠的第三、四卷积层Conv3_1、Conv3_2和第三最大池化层Pool3组成;
第四组由堆叠的第五、六卷积层Conv4_1、Conv4_2和第四最大池化层Pool4组成;
第五组由堆叠的第七、八卷积层Conv5_1、Conv5_2和第五最大池化层Pool5组成;
第六组为第一个完全连接层Fc6,连接第五组中第五最大池化层Pool5的神经元,输出数量为4096;
第七组为第二个完全连接层Fc7,连接第一个完全连接层Fc6的神经元,输出数量为4096;
第八组为第三个完全连接层Fc8,连接输出数为n,n是面部特征点总数的两倍;
在卷积层中,卷积核的大小为3×3,设置步长为1,使得像素逐个滑动,边缘扩充设置为1,即宽度和高度都扩充了2个像素,卷积运算表示为:
yj=∑ikij*xi+bj (1)
其中xi和yj分别是第i个输入图和第j个输出图,kij表示第i个输入图和第j个输出图之间的卷积核,bj是第j个输出图的偏差,*表示卷积;
在池化层中,采用最大池化的方式,即对邻域内特征点取最大,最大池化表示为:
其中,第i个输入映射xi中的每个h×h局部区域,被合并为第i个输出映射中的神经元;表示i个输出映射图中坐标为(j,k)的像素值,m,n分别表示局部区域内的x轴坐标与y轴坐标,设置池化核的大小为3×3,步长为2;
在每个卷积层之后添加非线性单元ReLU作为激活函数,在第一、二个完全连接层(Fc6、Fc7)增加Dropout操作,表达式如下:
r=m.*a(Wv) (3)
其中,v是n*1维列向量,W是d*n维的矩阵,m是个d*1的列向量,a(x)是一个满足a(0)=0的激发函数形式,m和a(Wv)相乘是对应元素的相乘。
进一步地,步骤6所述网络的学习率设置为0.0001,每次处理数据的数量设置为32。
本发明与现有技术相比,其显著优点在于:(1)使用只具有单个训练任务的单一深层卷积网络,精确地提取全局高级特征,直接预测面部多特征点的坐标;(2)简化了网络结构,降低了训练难度,该网络结构可以提取更多的全局高级特征,更精确地表达面部特征点;(3)对姿态、光照、表情和严重遮挡具有鲁棒性,对处理变化复杂的情况具有优异的能力,在变化复杂的条件下对面部特征点的定位效果好,具有非常高的精度和性能。
附图说明
图1为本发明基于单个卷积神经网络的面部多特征点定位方法的流程图。
图2为本发明基于单个卷积神经网络的面部多特征点定位方法中的人脸边框样例图。
图3为本发明中的数据扩增样例图。
图4为本发明中的网络详细结构图。
图5为本发明与LBF、SDM定位特征点的对比结果图。
图6为本发明中的结果样例图,其中(a)为姿态变化结果样例图,(b)为光照变化结果样例图,(c)为表情变化结果样例图,(d)为遮挡变化结果样例图。
具体实施方式
结合图1,本发明基于单个卷积神经网络的面部多特征点定位方法,包括以下步骤:
步骤1、扩充训练样本;
步骤2、根据数据集提供的与每个样本对应的面部特征点坐标,确定人脸边框,具体处理方式的伪代码如下:
输入:一张测试图片IMG;与该测试图像对应的面部特征点坐标(xi,yi)={(x1,y1),(x2,y2)···(xm,ym)},i∈{1,...,m},其中m为特征点的个数;
输出:该测试图片中的人脸边界框的坐标{(X1,Y1),(X2,Y2)}
1)X1←min(xi)
2)Y1←min(yi)
3)X2←max(xi)
4)Y2←max(yi)
5)End。
步骤3、采用缩放、旋转、平移和翻转四种操作来扩充数据,弥补训练图像特征点标注的不足;
所述采用缩放、旋转、平移和翻转四种操作来扩充数据,其中翻转通过将左眼的模型用于右眼,左眉毛用于右眉毛,左嘴角用于右嘴角来实现。
步骤4、根据人脸边界框提取出人脸图像,并进行归一化处理,具体为:
根据所提取出的人脸图像与归一化后的比例关系,调整面部特征点的坐标位置,将提取出的人脸图像归一化为224×224的像素大小。
步骤5、设计网络结构,具体如下:
网络输入的是224×224×3的彩色脸部图像和相应的面部特征点坐标n,其中n是面部特征点总数的两倍;
网络层数分为八组:
第一组由第一卷积层Conv1_1和第一最大池化层Pool1组成;
第二组由第二卷积层Conv2_1和第二最大池化层Pool2组成;
第三组由堆叠的第三、四卷积层Conv3_1、Conv3_2和第三最大池化层Pool3组成;
第四组由堆叠的第五、六卷积层Conv4_1、Conv4_2和第四最大池化层Pool4组成;
第五组由堆叠的第七、八卷积层Conv5_1、Conv5_2和第五最大池化层Pool5组成;
第六组为第一个完全连接层Fc6,连接第五组中第五最大池化层Pool5的神经元,输出数量为4096;
第七组为第二个完全连接层Fc7,连接第一个完全连接层Fc6的神经元,输出数量为4096;
第八组为第三个完全连接层Fc8,连接输出数为n,n是面部特征点总数的两倍;
在卷积层中,卷积核的大小为3×3,设置步长为1,使得像素逐个滑动,边缘扩充设置为1,即宽度和高度都扩充了2个像素,卷积运算表示为:
yj=∑ikij*xi+bj (1)
其中xi和yj分别是第i个输入图和第j个输出图,kij表示第i个输入图和第j个输出图之间的卷积核,bj是第j个输出图的偏差,*表示卷积;
在池化层中,采用最大池化的方式,即对邻域内特征点取最大,最大池化表示为:
其中,第i个输入映射xi中的每个h×h局部区域,被合并为第i个输出映射中的神经元;表示i个输出映射图中坐标为(j,k)的像素值,m,n分别表示局部区域内的x轴坐标与y轴坐标,设置池化核的大小为3×3,步长为2;
在每个卷积层之后添加非线性单元ReLU作为激活函数,在第一、二个完全连接层(Fc6、Fc7)增加Dropout操作,表达式如下:
r=m.*a(Wv) (3)
其中,v是n*1维列向量,W是d*n维的矩阵,m是个d*1的列向量,a(x)是一个满足a(0)=0的激发函数形式,m和a(Wv)相乘是对应元素的相乘。
步骤6、训练网络,设置网络的学习率和每次处理数据的数量,完成面部多特征点的定位。
下面结合具体实施例对本发明做进一步的说明。
实施例1
结合图1~4,本发明基于单个卷积神经网络的面部多特征点定位方法,包括以下步骤:
步骤1、扩充训练样本;为了解决缺乏训练图片的问题,避免严重的过拟合,需要扩充训练样本。
步骤2、根据数据集提供的与每个样本对应的面部特征点坐标,确定人脸边框。由于原始库中的图像包括各种各样背景,因此先根据数据集提供的与每个样本对应的面部特征点坐标,确定人脸边框。具体处理方式(伪代码)如下:
步骤3、采样缩放、旋转、平移和翻转四种操作来扩充数据,弥补训练图像特征点标注的不足;其中翻转图像通过将左眼的模型用于右眼,左眉毛用于右眉毛,左嘴角用于右嘴角来实现。
步骤4、根据人脸边界框提取出人脸图像,并进行归一化处理;将其归一化为224×224的像素大小;在归一化时,面部特征点的坐标位置通过原图与规范化后的比例关系调整坐标位置;
步骤5、设计网络结构,网络的输入是224×224×3的彩色脸部图像以及相应的面部特征点坐标n,其中n是面部特征点总数的两倍。例如对于300-W数据集,n为68×2=136。网络层数的确定参考经典网络Alexnet八层结构,前五层是卷积层,后三层是全连接层,本发明将网络分为八组,第一组和第二组分别由一个卷积层Conv1_1、Conv2_1和一个最大池化层Pool1、Pool2组成;第三组、第四组和第五组都分别由堆叠的两个卷积层Conv3_1、Conv3_2、Conv4_1、Conv4_2、Conv5_1、Conv5_2和一个最大池化层Pool3、Pool4、Pool5组成;第六组为第一个完全连接层Fc6,连接第五组中最大池化层Pool5的神经元,其输出数量为4096;第七组为第二个完全连接层Fc7,连接第一个完全连接层Fc6的神经元,其输出数量为4096;第八组为第三个全连接层Fc8,连接输出数为n(n是面部特征点总数的两倍)。
在卷积层中,其卷积核的大小为3×3,为了保证卷积后的图像大小与原图一致,设置相应的步长为1,使得像素逐个滑动,边缘扩充设置为1,即宽度和高度都扩充了2个像素。卷积运算表示为:
yj=∑ikij*xi+bj
其中xi和yj分别为第i个输入图和第j个输出图,kij为第i个输入图和第j个输出图之间的卷积核,bj为第j个输出图的偏差,*为卷积。
在池化层中,采用最大池化的方式,即对邻域内特征点取最大,因为该方式能更好地提取纹理。最大池化表示为:
其中第i个输入映射xi中的每个h×h局部区域被合并为第i个输出映射中的神经元。设置池化核的大小为3×3,步长为2;
在每个卷积层之后添加非线性单元ReLU(Rectified Linear Unit)(y=max(0,x))作为激活函数以加速网络收敛。本网络不对第三个完全连接层Fc8进行ReLU操作,为了保留重要的信息。为了防止过拟合,在第一个完全连接层Fc6和第二个完全连接层Fc7增加Dropout操作。其表达式如下:
r=m.*a(Wv)
其中v为n*1维列向量,W为d*n维的矩阵,m为个d*1的列向量,a(x)为一个满足a(0)=0的激发函数形式。这里的m和a(Wv)相乘是对应元素的相乘。
本发明使用的训练集包括AFW,LFPW和Helen的训练集,共有3148个图像。验证集为ibug网站上提供的300-W测试集,是在自然环境条件下新收集的2×300张图片(300个室内和300个室外)。采用以下三种形式来执行测试:来自LFPW和Helen的测试图片作为公共子集,IBUG作为挑战子集,同时公共子集和挑战子集的联合作为具有689张图片的全集。其中,训练集、验证集、测试集都没有重叠。
步骤6、训练网络,设置网络的学习率和每次处理数据的数量,完成面部多特征点的定位;
采用深度学习框架mxnet来训练网络。原始训练图片的数量为3283,本发明采用缩放、平移和旋转操作分别对每张图片增加10倍,共训练31480张图片。当训练该网络时,学习率设置为0.0001,每次处理数据的数量设置为32。
结合图5、图6,本发明与显式形状回归(ESR),鲁棒级联姿态回归(RCPR),监督下降法(SDM),基于局部二元特征(LBF)的回归,由粗到细的自编码器网络(CFAN),基于回归树集合的回归(ERT),由粗到细的形状搜索(CFSS)、DCNN和TCDCN这些现有的主流方法进行比较,结果如表1所示。
表1 300-W数据集(68个特征点)的平均误差(%)
与级联CNN和TCDCN相比,本发明不需要级联网络和多任务学习。从表中可以看出,本方法在公共子集上的平均误差是4.74%,在挑战子集上的平均误差是6.01%,在全集上的平均误差是4.99%,显然,优于大多数现有技术方法,仅在公共子集上的平均误差略高于CFSS。因此本发明在这些测试集上表现出的良好性能,证明了本发明的优越性。

Claims (6)

1.一种基于单个卷积神经网络的面部多特征点定位方法,其特征在于,包括以下步骤:
步骤1、扩充训练样本;
步骤2、根据数据集提供的与每个样本对应的面部特征点坐标,确定人脸边框;
步骤3、采用缩放、旋转、平移和翻转四种操作来扩充数据,弥补训练图像特征点标注的不足;
步骤4、根据人脸边界框提取出人脸图像,并进行归一化处理;
步骤5、设计网络结构;
步骤6、训练网络,设置网络的学习率和每次处理数据的数量,完成面部多特征点的定位。
2.根据权利要求1所述的基于单个卷积神经网络的面部多特征点定位方法,其特征在于,步骤2所述的根据数据集提供的与每个样本对应的面部特征点坐标,确定人脸边框,具体处理方式的伪代码如下:
输入:一张测试图片IMG;与该测试图像对应的面部特征点坐标(xi,yi)={(x1,y1),(x2,y2)···(xm,ym)},i∈{1,...,m},其中m为特征点的个数;
输出:该测试图片中的人脸边界框的坐标{(X1,Y1),(X2,Y2)}
1)X1←min(xi)
2)Y1←min(yi)
3)X2←max(xi)
4)Y2←max(yi)
5)End。
3.根据权利要求1所述的基于单个卷积神经网络的面部多特征点定位方法,其特征在于,步骤3所述采用缩放、旋转、平移和翻转四种操作来扩充数据,其中翻转通过将左眼的模型用于右眼,左眉毛用于右眉毛,左嘴角用于右嘴角来实现。
4.根据权利要求1所述的基于单个卷积神经网络的面部多特征点定位方法,其特征在于,步骤4所述根据人脸边界框提取出人脸图像,并进行归一化处理,具体为:
根据所提取出的人脸图像与归一化后的比例关系,调整面部特征点的坐标位置,将提取出的人脸图像归一化为224×224的像素大小。
5.根据权利要求1所述的基于单个卷积神经网络的面部多特征点定位方法,其特征在于,步骤5所述的设计网络结构,具体如下:
网络输入的是224×224×3的彩色脸部图像和相应的面部特征点坐标n,其中n是面部特征点总数的两倍;
网络层数分为八组:
第一组由第一卷积层(Conv1_1)和第一最大池化层(Pool1)组成;
第二组由第二卷积层(Conv2_1)和第二最大池化层(Pool2)组成;
第三组由堆叠的第三、四卷积层(Conv3_1、Conv3_2)和第三最大池化层(Pool3)组成;
第四组由堆叠的第五、六卷积层(Conv4_1、Conv4_2)和第四最大池化层(Pool4)组成;
第五组由堆叠的第七、八卷积层(Conv5_1、Conv5_2)和第五最大池化层(Pool5)组成;
第六组为第一个完全连接层(Fc6),连接第五组中第五最大池化层(Pool5)的神经元,输出数量为4096;
第七组为第二个完全连接层(Fc7),连接第一个完全连接层(Fc6)的神经元,输出数量为4096;
第八组为第三个完全连接层(Fc8),连接输出数为n,n是面部特征点总数的两倍;
在卷积层中,卷积核的大小为3×3,设置步长为1,使得像素逐个滑动,边缘扩充设置为1,即宽度和高度都扩充了2个像素,卷积运算表示为:
yj=∑ikij*xi+bj (1)
其中xi和yj分别是第i个输入图和第j个输出图,kij表示第i个输入图和第j个输出图之间的卷积核,bj是第j个输出图的偏差,*表示卷积;
在池化层中,采用最大池化的方式,即对邻域内特征点取最大,最大池化表示为:
<mrow> <msubsup> <mi>y</mi> <mrow> <mi>j</mi> <mo>,</mo> <mi>k</mi> </mrow> <mi>i</mi> </msubsup> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> <mrow> <mn>0</mn> <mo>&amp;le;</mo> <mi>m</mi> <mo>,</mo> <mi>n</mi> <mo>&lt;</mo> <mi>h</mi> </mrow> </munder> <mo>{</mo> <msubsup> <mi>x</mi> <mrow> <mi>j</mi> <mo>&amp;CenterDot;</mo> <mi>h</mi> <mo>+</mo> <mi>m</mi> <mo>,</mo> <mi>k</mi> <mo>&amp;CenterDot;</mo> <mi>h</mi> <mo>+</mo> <mi>n</mi> </mrow> <mi>i</mi> </msubsup> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中,第i个输入映射xi中的每个h×h局部区域,被合并为第i个输出映射中的神经元;表示i个输出映射图中坐标为(j,k)的像素值,m,n分别表示局部区域内的x轴坐标与y轴坐标,设置池化核的大小为3×3,步长为2;
在每个卷积层之后添加非线性单元ReLU作为激活函数,在第一、二个完全连接层(Fc6、Fc7)增加Dropout操作,表达式如下:
r=m·*a(Wv) (3)
其中,v是n*1维列向量,W是d*n维的矩阵,m是个d*1的列向量,a(x)是一个满足a(0)=0的激发函数形式,m和a(Wv)相乘是对应元素的相乘。
6.根据权利要求1所述的基于单个卷积神经网络的面部多特征点定位方法,其特征在于,步骤6所述网络的学习率设置为0.0001,每次处理数据的数量设置为32。
CN201710967121.7A 2017-10-17 2017-10-17 一种基于单个卷积神经网络的面部多特征点定位方法 Active CN107808129B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710967121.7A CN107808129B (zh) 2017-10-17 2017-10-17 一种基于单个卷积神经网络的面部多特征点定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710967121.7A CN107808129B (zh) 2017-10-17 2017-10-17 一种基于单个卷积神经网络的面部多特征点定位方法

Publications (2)

Publication Number Publication Date
CN107808129A true CN107808129A (zh) 2018-03-16
CN107808129B CN107808129B (zh) 2021-04-16

Family

ID=61585054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710967121.7A Active CN107808129B (zh) 2017-10-17 2017-10-17 一种基于单个卷积神经网络的面部多特征点定位方法

Country Status (1)

Country Link
CN (1) CN107808129B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491884A (zh) * 2018-03-27 2018-09-04 中山大学 基于轻量级网络的行人再识别系统及实现方法
CN108573284A (zh) * 2018-04-18 2018-09-25 陕西师范大学 基于正交实验分析的深度学习人脸图像扩充方法
CN108710906A (zh) * 2018-05-11 2018-10-26 北方民族大学 基于轻量级网络LightPointNet的实时点云模型分类方法
CN108764248A (zh) * 2018-04-18 2018-11-06 广州视源电子科技股份有限公司 图像特征点的提取方法和装置
CN109409262A (zh) * 2018-10-11 2019-03-01 北京迈格威科技有限公司 图像处理方法、图像处理装置、计算机可读存储介质
CN109543749A (zh) * 2018-11-22 2019-03-29 云南大学 基于深度学习的绘画情感分析方法
CN109726755A (zh) * 2018-12-26 2019-05-07 北京云测信息技术有限公司 一种图片标注方法、装置及电子设备
CN109815814A (zh) * 2018-12-21 2019-05-28 天津大学 一种基于卷积神经网络的人脸检测方法
CN111339818A (zh) * 2019-12-18 2020-06-26 中国人民解放军第四军医大学 一种人脸多属性识别系统
WO2020233489A1 (zh) * 2019-05-17 2020-11-26 成都旷视金智科技有限公司 疲劳检测方法、装置及可读存储介质
CN112132058A (zh) * 2020-09-25 2020-12-25 山东大学 一种基于多层级图像特征精炼学习的头部姿态估计方法及其实现系统、存储介质
CN113435226A (zh) * 2020-03-23 2021-09-24 北京百度网讯科技有限公司 信息处理方法和装置
US20220172373A1 (en) * 2020-11-30 2022-06-02 Accenture Global Solutions Limited Slip-to-slip connection time on oil rigs with computer vision
US11644960B1 (en) * 2021-11-22 2023-05-09 Citrix Systems, Inc. Image data augmentation using user interface element attributes

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760834A (zh) * 2016-02-14 2016-07-13 北京飞搜科技有限公司 一种人脸特征点定位方法
CN106228137A (zh) * 2016-07-26 2016-12-14 广州市维安科技股份有限公司 一种基于关键点定位的atm机异常人脸检测方法
CN106803084A (zh) * 2017-03-02 2017-06-06 中科视拓(北京)科技有限公司 一种基于端到端循环网络的面部特征点定位方法
US20170169315A1 (en) * 2015-12-15 2017-06-15 Sighthound, Inc. Deeply learned convolutional neural networks (cnns) for object localization and classification
CN106909909A (zh) * 2017-03-08 2017-06-30 王华锋 一种基于共享卷积特征的人脸检测与对齐方法
CN106951888A (zh) * 2017-05-09 2017-07-14 安徽大学 人脸特征点的相对坐标约束方法以及定位方法
CN106951840A (zh) * 2017-03-09 2017-07-14 北京工业大学 一种人脸特征点检测方法
CN106980812A (zh) * 2016-12-14 2017-07-25 四川长虹电器股份有限公司 基于级联卷积神经网络的三维人脸特征点定位方法
CN107066969A (zh) * 2017-04-12 2017-08-18 南京维睛视空信息科技有限公司 一种人脸识别方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170169315A1 (en) * 2015-12-15 2017-06-15 Sighthound, Inc. Deeply learned convolutional neural networks (cnns) for object localization and classification
CN105760834A (zh) * 2016-02-14 2016-07-13 北京飞搜科技有限公司 一种人脸特征点定位方法
CN106228137A (zh) * 2016-07-26 2016-12-14 广州市维安科技股份有限公司 一种基于关键点定位的atm机异常人脸检测方法
CN106980812A (zh) * 2016-12-14 2017-07-25 四川长虹电器股份有限公司 基于级联卷积神经网络的三维人脸特征点定位方法
CN106803084A (zh) * 2017-03-02 2017-06-06 中科视拓(北京)科技有限公司 一种基于端到端循环网络的面部特征点定位方法
CN106909909A (zh) * 2017-03-08 2017-06-30 王华锋 一种基于共享卷积特征的人脸检测与对齐方法
CN106951840A (zh) * 2017-03-09 2017-07-14 北京工业大学 一种人脸特征点检测方法
CN107066969A (zh) * 2017-04-12 2017-08-18 南京维睛视空信息科技有限公司 一种人脸识别方法
CN106951888A (zh) * 2017-05-09 2017-07-14 安徽大学 人脸特征点的相对坐标约束方法以及定位方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JING YANG ET AL: "Stacked Hourglass Network for Robust Facial Landmark Localisation", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW)》 *
ZHICHAO LIAN ET AL: "Adaptive Illumination Normalization Approach Based on Denoising Technique for Face Recognition", 《JOURNAL OF SHANGHAI JIAOTONG UNIVERSITY (SCIENCE)》 *
ZONGPING DENG ET AL: "Face Landmark Localization Using a Single Deep Network", 《CCBR 2016: BIOMETRIC RECOGNITION》 *
牛连强等: "深度连续卷积神经网络模型构建与性能分析", 《沈阳工业大学学报》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491884A (zh) * 2018-03-27 2018-09-04 中山大学 基于轻量级网络的行人再识别系统及实现方法
CN108573284A (zh) * 2018-04-18 2018-09-25 陕西师范大学 基于正交实验分析的深度学习人脸图像扩充方法
CN108764248A (zh) * 2018-04-18 2018-11-06 广州视源电子科技股份有限公司 图像特征点的提取方法和装置
CN108764248B (zh) * 2018-04-18 2021-11-02 广州视源电子科技股份有限公司 图像特征点的提取方法和装置
CN108710906A (zh) * 2018-05-11 2018-10-26 北方民族大学 基于轻量级网络LightPointNet的实时点云模型分类方法
CN108710906B (zh) * 2018-05-11 2022-02-11 北方民族大学 基于轻量级网络LightPointNet的实时点云模型分类方法
CN109409262A (zh) * 2018-10-11 2019-03-01 北京迈格威科技有限公司 图像处理方法、图像处理装置、计算机可读存储介质
CN109543749A (zh) * 2018-11-22 2019-03-29 云南大学 基于深度学习的绘画情感分析方法
CN109815814A (zh) * 2018-12-21 2019-05-28 天津大学 一种基于卷积神经网络的人脸检测方法
CN109726755A (zh) * 2018-12-26 2019-05-07 北京云测信息技术有限公司 一种图片标注方法、装置及电子设备
WO2020233489A1 (zh) * 2019-05-17 2020-11-26 成都旷视金智科技有限公司 疲劳检测方法、装置及可读存储介质
CN111339818A (zh) * 2019-12-18 2020-06-26 中国人民解放军第四军医大学 一种人脸多属性识别系统
CN111339818B (zh) * 2019-12-18 2023-06-06 中国人民解放军第四军医大学 一种人脸多属性识别系统
CN113435226A (zh) * 2020-03-23 2021-09-24 北京百度网讯科技有限公司 信息处理方法和装置
CN112132058A (zh) * 2020-09-25 2020-12-25 山东大学 一种基于多层级图像特征精炼学习的头部姿态估计方法及其实现系统、存储介质
CN112132058B (zh) * 2020-09-25 2022-12-27 山东大学 一种头部姿态估计方法及其实现系统、存储介质
US20220172373A1 (en) * 2020-11-30 2022-06-02 Accenture Global Solutions Limited Slip-to-slip connection time on oil rigs with computer vision
US11836930B2 (en) * 2020-11-30 2023-12-05 Accenture Global Solutions Limited Slip-to-slip connection time on oil rigs with computer vision
US11644960B1 (en) * 2021-11-22 2023-05-09 Citrix Systems, Inc. Image data augmentation using user interface element attributes
US20230161466A1 (en) * 2021-11-22 2023-05-25 Citrix Systems, Inc. Image data augmentation using user interface element attributes

Also Published As

Publication number Publication date
CN107808129B (zh) 2021-04-16

Similar Documents

Publication Publication Date Title
CN107808129A (zh) 一种基于单个卷积神经网络的面部多特征点定位方法
CN106682598B (zh) 一种基于级联回归的多姿态的人脸特征点检测方法
CN103824050B (zh) 一种基于级联回归的人脸关键点定位方法
CN107844795B (zh) 基于主成分分析的卷积神经网络特征提取方法
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN109711413A (zh) 基于深度学习的图像语义分割方法
CN109816725A (zh) 一种基于深度学习的单目相机物体位姿估计方法及装置
CN108875600A (zh) 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质
CN106504233A (zh) 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及系统
CN105956560A (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN107944459A (zh) 一种rgb‑d物体识别方法
CN107392131A (zh) 一种基于人体骨骼节点距离的动作识别方法
CN110674741A (zh) 一种基于双通道特征融合的机器视觉中手势识别方法
CN111160164A (zh) 基于人体骨架和图像融合的动作识别方法
CN110378208A (zh) 一种基于深度残差网络的行为识别方法
CN110135277B (zh) 一种基于卷积神经网络的人体行为识别方法
CN105740915A (zh) 一种融合感知信息的协同分割方法
CN111738344A (zh) 一种基于多尺度融合的快速目标检测方法
CN111652273B (zh) 一种基于深度学习的rgb-d图像分类方法
CN107767416A (zh) 一种低分辨率图像中行人朝向的识别方法
CN110163567A (zh) 基于多任务级联卷积神经网络的课堂点名系统
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
CN110942110A (zh) 一种三维模型的特征提取方法和装置
CN106599810A (zh) 一种基于栈式自编码的头部姿态估计方法
CN107358172A (zh) 一种基于人脸朝向分类的人脸特征点初始化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant