CN109726633B - 一种基于查找表激活函数的人脸关键点检测方法 - Google Patents

一种基于查找表激活函数的人脸关键点检测方法 Download PDF

Info

Publication number
CN109726633B
CN109726633B CN201811409987.7A CN201811409987A CN109726633B CN 109726633 B CN109726633 B CN 109726633B CN 201811409987 A CN201811409987 A CN 201811409987A CN 109726633 B CN109726633 B CN 109726633B
Authority
CN
China
Prior art keywords
image
face
activation function
lookup table
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811409987.7A
Other languages
English (en)
Other versions
CN109726633A (zh
Inventor
黄亮
徐滢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Pinguo Technology Co Ltd
Original Assignee
Chengdu Pinguo Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Pinguo Technology Co Ltd filed Critical Chengdu Pinguo Technology Co Ltd
Priority to CN201811409987.7A priority Critical patent/CN109726633B/zh
Publication of CN109726633A publication Critical patent/CN109726633A/zh
Application granted granted Critical
Publication of CN109726633B publication Critical patent/CN109726633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开一种基于查找表激活函数的人脸关键点检测方法,属于图像检测技术领域,具体提出一种基于查找表的激活函数实现方法,并且将其应用在人脸关键点检测中,能大大提高网络的非线性表达能力,提高人脸关键点检测的精度,并且计算量小;使用全卷积网络重新确定的人脸区域,能够有效地降低人脸关键点检测对原始人脸框的依赖,无论实际人脸位于原始人脸框的哪个角落,本文算法均能准确地检测到人脸关键点的坐标;网络训练引入LUT查找表激活函数,拟合复杂的映射函数,增加神经网络的非线性表达能力;LUT查找表激活函数计算简单,运算速度快。

Description

一种基于查找表激活函数的人脸关键点检测方法
技术领域
本发明涉及图像检测技术领域,特别是涉及一种基于查找表激活函数的人脸关键点检测方法。
背景技术
人脸关键点检测也称为人脸关键点检测、定位或者人脸对齐,是指给定人脸图像,定位出人脸面部的关键区域位置,包括眉毛、眼睛、鼻子、嘴巴、脸部轮廓等。人脸关键点检测方法大致分为三种,分别是基ASM(Active Shape Model)和AAM(Active AppearnceModel)的传统方法,基于级联形状回归的方法以及基于深度学习的方法。
深度学习近年发展迅猛,以神经网络为代表,解决了诸多领域以前难以解决的问题。目前形成的基本共识是在神经网络每层的结尾加上激活函数来提高神经网络的非线性表达能力,常用的激活函数为relu,以及一些变种包括prelu、leaky_relu等,这些激活函数能一定程度上增加网络非线性,但是形式过于固定,不够灵活。
在人脸关键点检测中,目前使用的神经网络的非线性表达能力差,导致人脸关键点检测的精度低,计算量高。
发明内容
为了解决上述问题,本发明提供一种基于查找表激活函数的人脸关键点检测方法,提出一种基于查找表的激活函数实现方法,并且将其应用在人脸关键点检测中,能大大提高网络的非线性表达能力,提高人脸关键点检测的精度,并且计算量小。
为此,本发明采用的技术方案是:
提供一种基于查找表激活函数的人脸关键点检测方法,该方法包括以下步骤:
S1、获取包含人脸的rgb图像,并获取所述rgb图像中矩形人脸框,得到带人脸框的rgb图像;
S2、将带人脸框的rgb图像转换为灰度图像;
S3、将步骤S2中的所述人脸框转换为第一正方形框;
S4、根据所述第一正方形框对所述灰度图像进行剪裁,得到第一剪裁图像;将所述第一剪裁图像缩放到64x64,得到第一人脸图像;
S5、将所述第一人脸图像输入预设的基于查找表激活函数的第一网络,输出得到人脸各部位的mask图;
S6、将人脸各部位的mask图二值化,得到二值化图像;
S7、获取人脸各部位的中心坐标;
S8、根据人脸各部位的中心坐标确定第二正方形框;
S9、根据所述第二正方形框对所述灰度图像进行剪裁,得到第二剪裁图像;将所述第二剪裁图像缩放到64x64,得到第二人脸图像;
S10、将所述第二人脸图像输入预设的基于查找表激活函数的第二网络,输出得到坐标值;
S11、将步骤S10得到的所述坐标值映射到所述灰度图像中,得到最终的人脸关键点。
进一步的是,步骤S5中,所述第一网络为基于查找表激活函数的全卷积网络。
进一步的是,步骤S9中,所述第二网络为基于查找表激活函数的CNN+FC网络。
进一步的是,所述查找表激活函数的定义如下:
Figure BDA0001878260840000021
其中,
Figure BDA0001878260840000022
wj为第一网络或第二网络中训练得到的参数,其构成长度为2n+1的一维向量W={w-n,w-n+1,...,w0,...,wn-1,wn},x表示查找表激活函数输入,y表示查找表激活函数输出,n为大于1的整数,n的值根据情况设置(通过观察卷积层和全连接层输出的数值分布进行行设置),n越大,查找表越大,相应的精度越高。
查找表激活函数初始化按照y=x进行。
进一步的是,所述查找表激活函数出现在卷积层或全连接层之后。
进一步的是,由于经过训练的神经网络的数值范围可能变小(比如集中在-1到1之间),因此,在此情况下,对查找表激活函数的输入数值进行放大2-3倍。
进一步的是,所述人脸各部位包括左眼、右眼和嘴唇。
进一步的是,步骤S3中,所述转换的方法为:
Figure BDA0001878260840000023
其中,FR2为第一正方形框的四元组,x1为所述人脸框左上角的横坐标,y1为所述人脸框左上角的纵坐标,W1为所述人脸框的长度,H1为所述人脸框的宽度。
进一步的是,获取左眼、右眼或嘴唇的中心坐标的方法包括:
S71、获取所述二值化图像的有效区域中所有像素点坐标;
S72、计算所有像素点坐标的平均值,得到第一平均值;
S73、计算每个像素点到所述第一平均值的距离,并将所述像素点按所述距离的大小升序排列,得到升序排列后的像素点;
S74、计算所述升序排列后的像素点的前50%的像素点坐标的平均值,得到所述第一中心坐标;
S75、计算所述第一中心坐标在所述灰度图像中的坐标,获得左眼、右眼或嘴唇的中心坐标,所述左眼、右眼或嘴唇的中心坐标的获得方法为:
P=qm2*Ratio1+FR2(0,1)
其中,P为左眼、右眼或嘴唇的中心坐标,qm2为步骤S74得到的第一中心坐标,Ratio1为步骤S4中第一比例,FR2(0,1)为所述第一正方形框的左上角的横纵坐标。
进一步的是,步骤S11的映射方法为:
Figure BDA0001878260840000031
其中,Landmark表示最终的人脸关键点,Landmark1表示步骤S10得到的坐标值,Ratio2表示步骤S9中缩放比例,b0(0)表示点b0的x坐标,b0(1)表示点b0的y坐标。
本发明方法的理论原理如下:
图像中人脸关键点检测的精度要求使其对非线性表达能力的要求较高,现有技术以具有较强非线性表达能力神经网络来满足上述要求,激活函数是加强神经网络非线性表达能力的重要部分,查找表的激活方式,本质上是分段线性函数,每段线性函数之间的值通过线性插值获取激活值,相比常用的relu等激活函数拥有更强的非线性,将其运用到神经网络中,使计算简单快速,并不增加原有网络的计算负担,且提高人脸关键点检测的精度。
采用本技术方案的有益效果:
与现有技术相比,本发明使用的全卷积网络具有非常好的平移不变性,能够比较准确地找到眼睛和嘴唇区域;使用全卷积网络重新确定的人脸区域,能够有效地降低人脸关键点检测对原始人脸框的依赖,实验证明,无论实际人脸位于原始人脸框的哪个角落,本文算法均能准确地检测到人脸关键点的坐标;同时,所使用的神经网络训练时引入LUT查找表激活函数,拟合复杂的映射函数,增加神经网络的非线性表达能力,提高人脸关键点检测的精度,计算简单,运算速度快。
附图说明
图1是本发明方法的流程图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明作进一步阐述。
在本实施例中,如图1所示,一种基于查找表激活函数的人脸关键点检测方法,该方法包括以下步骤:
S1、获取包含人脸的rgb图像,并获取所述rgb图像中矩形人脸框FR1,得到带人脸框的rgb图像;
FR1可以进一步表示为(x1,y1,W1,H1)四元组,其中x1,y1代表矩形框左上角的横纵坐标,W1,H1代表矩形框的长和宽,本实施例中以FR1(0)表示访问四元组的第一个元素,即x1,FR1(0,1)表示x1,y1,其它类推。
S2、将带人脸框的rgb图像Irgb转换为灰度图像Igray
S3、将步骤S2中的所述人脸框转换为第一正方形框FR2
Figure BDA0001878260840000041
其中,FR2为第一正方形框的四元组,x1为所述人脸框左上角的横坐标,y1为所述人脸框左上角的纵坐标,W1为所述人脸框的长度,H1为所述人脸框的宽度。
S4、根据所述第一正方形框FR2对所述灰度图像Igray进行剪裁,得到第一剪裁图像;将所述第一剪裁图像进行缩放,得到第一人脸图像Iroi1(64x64);令缩放比例为Ratio1
S5、将所述第一人脸图像Iroi1输入预设的基于查找表激活函数的第一网络Net1,得到人脸各部位的mask图M0,M1,M2,具体指左眼、右眼和嘴唇;
S6、将M0,M1,M2二值化,得到二值化图像MBIN0,MBIN1,MBIN2,,白色表示有效区域,黑色表示无效区域;
S7、获取人脸各部位的中心坐标左眼P0=(x0,y0),右眼P1=(x1,y1),嘴唇P2=(x2,y2);
以P0为例,其计算方式为:设二值化图MBIN0的白色区域内像素点坐标为qk,k=0,1,2,…,N-1,N,表示白色像素点个数;
a.取MBIN0内白色区域像素点坐标的均值qm1
b.计算qk到qm1的距离Dk
c.将qk按Dk大小对应进行升序排列,计算排序前50%的像素点坐标的均值qm2,qm2即为P0的中心坐标;
d.计算所述中心坐标在Igray中的坐标,公式为P0=qm2*Ratio1+FR2(0,1);P1和P2的中心坐标点的计算方式类推可得。
S8、根据人脸各部位的中心坐标确定第二正方形框;
a1.计算点P2到直线P0P1的距离d2
b1.计算中点坐标
Figure BDA0001878260840000042
其中
Figure BDA0001878260840000043
|P0P1|代表P0到P1的距离;
c1.令r1=1.4max(|P0P1|,d2),r2=1.8max(|P0P1|,d2),r3=2.2max(|P0P1|,d2),
Figure BDA0001878260840000051
Figure BDA0001878260840000052
Figure BDA0001878260840000053
Figure BDA0001878260840000054
Figure BDA0001878260840000055
b0b1b2b3所确定的正方形即是第二正方形框。
S9、根据所述第二正方形框对所述灰度图像进行剪裁,得到第二剪裁图像;将所述第二剪裁图像进行缩放,得到第二人脸图像Iroi2
具体的,裁剪b0b1b2b3区域的图像,并缩放到固定大小(64x64),记缩放比例为Ratio2,缩放后的图像作为精确的人脸图像区域Iroi2,同时计算b0b1b2b3区域相对于Igray的旋转角度θ,即
Figure BDA0001878260840000057
与x正方向的夹角(逆时针);本文所涉及到的坐标均是以图像左上角为原点,图像右边为x正方向,图像下边为y正方向;
S10、将所述第二人脸图像Iroi2输入预设的基于查找表激活函数的第二网络Net2,得到坐标值Landmark1
其中Landmark1为3×M的矩阵(每一列代表一个点的坐标以及一个常数1),M为正整数,本实施例取68;
S11、将Landmark1所述坐标值映射到所述灰度图像Igray中,得到最终的人脸关键点。映射方法为:
Figure BDA0001878260840000056
本实施例中,第一网络Net1为基于查找表激活函数全卷积网络,具体的:
Net1:该网络主要完成semantic segment任务,输入为单通道灰度图,输出为4通道分类结果,4个通道分别代表背景、左眼区域、右眼区域、嘴唇区域(后三个结果分别对应M0,M1,M2),网络采用全卷积网络,配合softmax crossentropy分类器。网络的使用查找表(LUT)激活函数的使用,表1的结构是本实施例使用的一个全卷积网络的例子。
表1本实施例中全卷积网络结构
Figure BDA0001878260840000061
Net2:在本实施例中,该网络输入为单通道灰度图,输出为人脸关键点坐标,该网络为典型的CNN+FC的结构,使用了查找表(LUT)激活函数,表2的结构是本实施例使用的一个全卷积网络的例子。
表2本实施例中CNN+FC网络结构
BLK(1,20,5×5,1)
MaxPooling(2×2,2)
BLK(20,48,5×5,1)
MaxPooling(2×2,2)
BLK(48,64,3×3,1)
MaxPooling(2×2,2)
BLK(64,64,3×5,1)
FC(1024,256)
LUT
FC(256,136)
在表1和表2中:
BLK(in,out,k×k,s):输入为in通道,输出为out通道,k×k的kernel,stride为s的卷积层+LUT;
MaxPooling(k×k,s):k×k的kernel,stride为s的最大池化;
FC(in,out):输入为in个节点,输出为out个节点的全连接层;
UnPooling(k×k,s):k×k的kernel,stride为s的反池化,本文中的UnPooling(2x2,2)相当于将feature map逐个放大2倍;
LUT:查找表激活层;
Softmax:softmax激活函数;
Element-Wise Add:逐元素加法;
本实施例使用的LUT激活函数出现在卷积层以及FC层之后,卷积层的输出特征图的维度为B×C×H×W,FC层的输出特征图的维度为B×C,B代表batch size,C代表通道数,H代表卷积层的输出特征图高度,W代表卷积层的输出特征图宽度。本实施例提出的LUT激活层根据通道数设置为C个查找表。
所述查找表激活函数的定义如下:
Figure BDA0001878260840000071
其中,
Figure BDA0001878260840000072
wj为第一网络或第二网络中训练得到的参数,其构成长度为21(n=10)的一维向量W={w-n,w-n+1,...,w0,...,wn-1,wn},x表示查找表激活函数输入,y表示查找表激活函数输出,j=-10,-9,-8...9。
查找表激活函数初始化按照y=x进行。
对查找表激活函数的输入数值进行放大3倍。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (9)

1.一种基于查找表激活函数的人脸关键点检测方法,其特征在于,包括以下步骤:
S1、获取包含人脸的rgb图像,并获取所述rgb图像中矩形人脸框,得到带人脸框的rgb图像;
S2、将带人脸框的rgb图像转换为灰度图像;
S3、将步骤S2中的所述人脸框转换为第一正方形框;
S4、根据所述第一正方形框对所述灰度图像进行剪裁,得到第一剪裁图像;将所述第一剪裁图像缩放到64x64,得到第一人脸图像;
S5、将所述第一人脸图像输入预设的基于查找表激活函数的第一网络,输出得到人脸各部位的mask图;
S6、将人脸各部位的mask图二值化,得到二值化图像;
S7、获取人脸各部位的中心坐标;
S8、根据人脸各部位的中心坐标确定第二正方形框;
S9、根据所述第二正方形框对所述灰度图像进行剪裁,得到第二剪裁图像;将所述第二剪裁图像缩放到64x64,得到第二人脸图像;
S10、将所述第二人脸图像输入预设的基于查找表激活函数的第二网络,输出得到坐标值;
S11、将步骤S10得到的所述坐标值映射到所述灰度图像中,得到最终的人脸关键点;
所述查找表激活函数的定义如下:
Figure FDA0002921568670000011
其中,
Figure FDA0002921568670000012
wj为第一网络或第二网络中训练得到的参数,其构成长度为2n+1的一维向量W={w-n,w_n+1,...,w0,...,wn-1,wn},x表示查找表激活函数输入,y表示查找表激活函数输出,n为大于1的整数。
2.根据权利要求1所述的人脸关键点检测方法,其特征在于,步骤S5中,所述第一网络为基于查找表激活函数的全卷积网络。
3.根据权利要求1所述的人脸关键点检测方法,其特征在于,步骤S9中,所述第二网络为基于查找表激活函数的CNN+FC网络。
4.根据权利要求3所述的人脸关键点检测方法,其特征在于,所述查找表激活函数出现在卷积层和全连接层之后。
5.根据权利要求4所述的人脸关键点检测方法,其特征在于,对查找表激活函数的输入数值进放大2-3倍。
6.根据权利要求1所述的人脸关键点检测方法,其特征在于,所述人脸各部位包括左眼、右眼和嘴唇。
7.根据权利要求1所述的人脸关键点检测方法,其特征在于,步骤S3中,所述转换的方法为:
Figure FDA0002921568670000021
其中,FR2为第一正方形框的四元组,x1为所述人脸框左上角的横坐标,y1为所述人脸框左上角的纵坐标,W1为所述人脸框的长度,H1为所述人脸框的宽度。
8.根据权利要求6所述的人脸关键点检测方法,其特征在于,获取左眼、右眼或嘴唇的中心坐标的方法包括:
S71、获取所述二值化图像的有效区域中所有像素点坐标;
S72、计算所有像素点坐标的平均值,得到第一平均值;
S73、计算每个像素点到所述第一平均值的距离,并将所述像素点按所述距离的大小升序排列,得到升序排列后的像素点;
S74、计算所述升序排列后的像素点的前50%的像素点坐标的平均值,得到第一中心坐标;
S75、计算所述第一中心坐标在所述灰度图像中的坐标,获得左眼、右眼或嘴唇的中心坐标,所述左眼、右眼或嘴唇的中心坐标的获得方法为:
P=qm2*Ratio1+FR2(0,1)
其中,P为左眼、右眼或嘴唇的中心坐标,qm2为步骤S74得到的第一中心坐标,Ratio1为步骤S4中缩放比例,FR2(0,1)为所述第一正方形框的左上角的横纵坐标。
9.根据权利要求1所述的人脸关键点检测方法,其特征在于,步骤S11的映射方法为:
Figure FDA0002921568670000022
其中,Landmark表示最终的人脸关键点,Landmark1表示步骤S10得到的坐标值,Ratio2表示步骤S9中缩放比例,b0(0)表示点b0的x坐标,b0(1)表示点b0的y坐标,θ表示第二剪裁图像区域相对于灰度图像的旋转角度。
CN201811409987.7A 2018-11-23 2018-11-23 一种基于查找表激活函数的人脸关键点检测方法 Active CN109726633B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811409987.7A CN109726633B (zh) 2018-11-23 2018-11-23 一种基于查找表激活函数的人脸关键点检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811409987.7A CN109726633B (zh) 2018-11-23 2018-11-23 一种基于查找表激活函数的人脸关键点检测方法

Publications (2)

Publication Number Publication Date
CN109726633A CN109726633A (zh) 2019-05-07
CN109726633B true CN109726633B (zh) 2021-06-18

Family

ID=66295109

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811409987.7A Active CN109726633B (zh) 2018-11-23 2018-11-23 一种基于查找表激活函数的人脸关键点检测方法

Country Status (1)

Country Link
CN (1) CN109726633B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914598A (zh) * 2019-05-09 2020-11-10 北京四维图新科技股份有限公司 连续帧人脸关键点检测方法、装置、设备及存储介质
CN110348353B (zh) * 2019-06-28 2023-07-25 照熠信息科技(上海)有限公司 一种图像处理方法及装置
CN112766215A (zh) * 2021-01-29 2021-05-07 北京字跳网络技术有限公司 人脸融合方法、装置、电子设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101246508A (zh) * 2008-02-26 2008-08-20 江苏大学 基于fpga的神经网络缺失数据估算器及其估算方法
US8996430B2 (en) * 2012-01-27 2015-03-31 International Business Machines Corporation Hierarchical scalable neuromorphic synaptronic system for synaptic and structural plasticity
KR102499396B1 (ko) * 2017-03-03 2023-02-13 삼성전자 주식회사 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법
CN107704847B (zh) * 2017-10-26 2021-03-19 成都品果科技有限公司 一种人脸关键点的检测方法

Also Published As

Publication number Publication date
CN109726633A (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
CN109726633B (zh) 一种基于查找表激活函数的人脸关键点检测方法
CN107704847B (zh) 一种人脸关键点的检测方法
US10783354B2 (en) Facial image processing method and apparatus, and storage medium
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN100399354C (zh) 图像信号处理方法与设备
CN110443205B (zh) 一种手部图像分割方法及装置
CN111986212B (zh) 一种人像发丝流动特效实现方法
WO2018082389A1 (zh) 一种肤色检测方法、装置及终端
CN109034017A (zh) 头部姿态估计方法及机器可读存储介质
CN103914699A (zh) 一种基于色彩空间的自动唇彩的图像增强的方法
WO2020038312A1 (zh) 多通道舌体边缘检测装置、方法及存储介质
CN111223110B (zh) 一种显微图像增强方法、装置及计算机设备
CN114724120A (zh) 基于雷视语义分割自适应融合的车辆目标检测方法及系统
CN108596992B (zh) 一种快速实时的唇彩化妆方法
CN111179193A (zh) 基于DCNNs和GANs的皮肤镜图像增强和分类方法
CN110956119A (zh) 一种准确且快速的图像中目标检测方法
CN104021549A (zh) 全仿射不变surf特征点检测方法及装置
CN109583341B (zh) 对包含人像的图像的多人骨骼关键点检测方法及装置
CN107346408A (zh) 基于脸部特征的年龄识别方法
CN112949635B (zh) 一种基于特征增强和IoU感知的目标检测方法
CN105513011A (zh) 图像缩放方法
CN114219704A (zh) 动漫形象生成方法及装置
CN110390339B (zh) 一种图像校正方法、装置及存储介质
CN110108231B (zh) 基于角点检测的钜体箱体三维尺寸测量方法及存储介质
JP2017207960A (ja) 画像解析装置、画像解析方法およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant