CN110175529B - 一种基于降噪自编码网络的三维人脸特征点定位方法 - Google Patents

一种基于降噪自编码网络的三维人脸特征点定位方法 Download PDF

Info

Publication number
CN110175529B
CN110175529B CN201910358243.5A CN201910358243A CN110175529B CN 110175529 B CN110175529 B CN 110175529B CN 201910358243 A CN201910358243 A CN 201910358243A CN 110175529 B CN110175529 B CN 110175529B
Authority
CN
China
Prior art keywords
face
region
noise reduction
training
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910358243.5A
Other languages
English (en)
Other versions
CN110175529A (zh
Inventor
盖绍彦
汪亮
达飞鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910358243.5A priority Critical patent/CN110175529B/zh
Publication of CN110175529A publication Critical patent/CN110175529A/zh
Application granted granted Critical
Publication of CN110175529B publication Critical patent/CN110175529B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于降噪自编码网络的三维人脸特征点定位方法。该方法的实现步骤为:从杂乱的人脸点云中提取鼻尖点坐标。通过鼻尖点的位置对人脸区域提取并进行预处理。训练一个人脸模型,并且对该模型对人脸进行手动区域分割,依据该分割人脸和刚性匹配算法,将待检测人脸分成多个区域。对每个区域进行遮挡检测,并将遮挡程度转变为系数表示。对分割的每个遮挡区域训练一个降噪自编码器,每个降噪自编码器输出一个特征点定位结果。通过遮挡系数对多个特征点定位结果进行融合得到最终结果,完成整个定点算法。

Description

一种基于降噪自编码网络的三维人脸特征点定位方法
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种基于降噪自编码网络的三维人脸特征点定位方法。
背景技术
在人脸验证,人脸识别,人脸表情识别等研究领域,需要准确的人脸特征点坐标以便更方便的提取特征。如何准确并自动定位人脸特征点得到了越来越多学者的关注和研究。由于受光照影响,基于二维图片的特征点定位在复杂情况下仍然存在着较大误差。因此,在三维点云上进行人脸特征点定位被广泛研究和应用。三维点云描述了人脸表面丰富的信息,包括曲率变化和深度变化等。然而,在实际情况下设备采集得到的人脸表面往往存在着遮挡物,例如散乱的头发,眼镜,口罩等,这些遮挡物能够使得人脸曲面发生不规则形变,而人脸特征点的位置处于容易被遮挡的区域,如眼睛区域和嘴巴区域。如何在人脸点云部分被遮挡的情况下准确定位特征点成为了亟待解决的问题。
发明内容
发明目的:针对现实情况下,三维人脸数据常常带有的局部遮挡的情况,本发明提供一种基于降噪自编码网络的三维人脸特征点定位方法。通过使用降噪自编码器并对人脸进行分区域定位,可以解决遮挡下的三维人脸特征点定位问题。
技术方案:本发明所述一种基于视角变换与多视角特征的大视角图像匹配方法为了实现上述目的,本方案的实现步骤为:
一种基于降噪自编码网络的三维人脸特征点定位方法,具体包括以下步骤:
步骤1:从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域;
步骤2:对人脸进行去噪处理,去除点云表面的噪点;
步骤3:训练一个人脸模型,并且对该模型对人脸进行手动区域分割,依据该分割人脸和刚性匹配算法,将待检测人脸分成多个区域;
步骤4:对每个区域进行遮挡检测,并将遮挡程度转变为系数表示;
步骤5:对分割的每个遮挡区域训练一个降噪自编码器,每个降噪自编码器输出一个特征点定位结果;
步骤6:通过遮挡系数对多个特征点定位结果进行融合得到最终结果,完成整个定点算法。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤1中,从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域的步骤如下:
步骤1.1:计算每个顶点的散度,对于一个包含N个顶点的三维曲面,准化后的矢量场
Figure BDA0002046087710000021
的定义如下:
Figure BDA0002046087710000022
式中
Figure BDA0002046087710000023
Figure BDA0002046087710000024
代表有关于x,y,z的数量函数,i,j,k则代表x轴,y轴,z轴的单位矢量,考虑一个半径为r,球心为pz的一个微型球面,在球面坐标系下该矢量场的散度计算公式如下:
Figure BDA0002046087710000025
式中n为pz的法向量,
Figure BDA0002046087710000026
表示该点的散度;
步骤1.2:依据步骤1.1计算所有顶点的散度值,并选取拥有最大散度值的顶点为鼻尖点;
步骤1.3:鼻尖点处于人脸最中心的突出位置,以鼻尖为中心,90mm为半径来切割整个人脸点云,可剔除除去人脸之外的无关区域。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,步骤2中,对人脸进行去噪处理,去除点云表面的噪点的方法如下:
步骤2.1:在经过人脸切割后,人脸表面还存在部分离群的噪点,这些离群点会导致人脸表面出现局部尖锐区域,因此需要去除离群点,定义离周围邻域点的距离大于一定的阈值dt为离群点,邻域点的数量为8,阈值的计算方法如下:
dt=μ+0.6σ
式中μ代表整个人脸点云邻域顶点间的平均距离,σ代表标准差,在经过去除离群点后,对点云进行归一化重采样,采样距离为1mm。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤3中,训练人脸模型并对待测人脸进行分割的步骤如下:
步骤3.1:选取500个不同的人脸点云并进行点云降采样,采样距离为1mm,从采样后的点云选择一个样本作为基准,将其他人脸通过ICP算法对齐到基准人脸,得到平均人脸模型;
步骤3.2:使用ICP算法将人脸表面对齐到AvFM上,AvFM的使用可以使得所有的库集人脸具有一对一的对应关系,假设人脸表示为O={p1,...,pr},pr表示人脸点云中的顶点,AvFM表示为Mv={m1,...mt},mt表示AvFM中的顶点;基于AvFM的对齐算法目的在于找到一个刚性变换T包括三个方向的旋转和平移:
Τ(pi)=RxRyRzpi+t
式中Rx,Ry和Rz分别代表以x轴,y轴,z轴为轴心的旋转矩阵,t为平移矩阵;变换后的对齐误差可由下式得到:
Figure BDA0002046087710000031
式中AvFM中的顶点mj对应于测试人脸顶点pi;对齐过程的优化目标函数为:
Figure BDA0002046087710000032
作为一种全局性的对齐算法,使用ICP算法求得最优变换矩阵;对平均人脸模型AvFM进行手动切割来构建平均区域模型AvRM;在测试人脸和AvFM粗略对齐后,两者之间的顶点数量和顺序已经保持一致;
步骤3.3:假设第一步粗对齐后的人脸表示为
Figure BDA0002046087710000033
AvRM表示为
Figure BDA0002046087710000034
考虑对各个区域分开做ICP对齐,对于第k个区域,变换矩阵如下:
Figure BDA0002046087710000035
优化目标函数表示如下:
Figure BDA0002046087710000036
完成第二步对齐后,可以将任意测试人脸进行5个区域的分割。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤4中,对每个区域进行遮挡检测,并将遮挡程度转变为系数表示的方法如下:
步骤4.1:接下来分析平均区域模型AvRM与对齐后的测试人脸区域的差异;通过计算待测人脸和平均区域模型z轴差值来描述遮挡程度:
Figure BDA0002046087710000041
式中
Figure BDA0002046087710000042
Figure BDA0002046087710000043
分别表示第k个区域待测人脸和AvRM的平均z轴差值,tk表示第k个区域的顶点数量。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤5中,对分割的每个遮挡区域训练一个降噪自编码器并输出特征点定位结果的方法如下:
步骤5.1:对人脸点云每个顶点计算形状指数,公式如下:
Figure BDA0002046087710000044
式中λ1,λ2为主曲率;
投影得到的形状指数特征图是一个二维灰度图,灰度值和形状指数值一一对应,记为SI;因此,SI可作为下一步降噪自编码器的输入;
步骤5.2:假设自编码器的输入为x∈[0,1]d,首先需要一个映射函数将该输入映射一个隐藏层y∈[0,1]d′;映射函数的表达式为:
Figure BDA0002046087710000045
式中映射参数标记为
Figure BDA0002046087710000046
s(.)为非线性激活函数例如sigmod或者tanh函数;W是一个d×d′维的权重矩阵,b是一个偏置向量;接着隐藏层y被映射到一个重构层z∈[0,1]d,映射函数的表达式为:
z=gθ′(y)=s(W′y+b′)
式中映射参数标记为θ′={W′,b′};每个训练数据x(i)会被映射到一个对应的编码向量y(i)和一个重构向量z(i)
Figure BDA0002046087710000051
表示对原始数据x的一次随机映射得到被损坏的数据
Figure BDA0002046087710000052
映射方法有多种,如随机将一些输入节点的值置为0,或者添加一些噪声;整个模型的参数确定由最小化平均重构误差得到:
Figure BDA0002046087710000053
式中LH(.)是一个损失函数,使用较多的平方损失误差函数:
LH(x,z)=||x-z||2
在完成降噪自编码器的训练后,舍弃重构层并在编码后连接一个分类器或者回归层,便可完成有监督训练;
步骤5.3:对于给定的一个人脸点云O,形状指数特征图为SI,形状
Figure BDA0002046087710000054
代表其三维人脸特征点坐标集合,其特征点的数量为N,定义
Figure BDA0002046087710000055
的表达形式如下:
Figure BDA0002046087710000056
接下来,降噪自编码器的训练步骤如下:
1)假设有
Figure BDA0002046087710000057
个训练样本,
Figure BDA0002046087710000058
Ωi代表第i个无遮挡的人脸,
Figure BDA0002046087710000059
则代表第i个对应区域带有遮挡的人脸,
Figure BDA00020460877100000510
表示人脸对应的形状,编码与解码参数训练的损失函数如下:
Figure BDA00020460877100000511
式中SIi)代表人脸Ωi的形状指数特征图,h(.)代表编码层映射函数,g(.)代表解码层映射函数;
2)自编码器的参数训练完成后,在中间层后连接一层线性回归层完成有监督训练;利用压缩后的中间特征进行线性回归预测特征点形状;线性回归的参数训练过程依赖于最小化如下损失函数:
Figure BDA00020460877100000512
式中l(.)表示线性回归映射函数,其表达形式为:
l(x)=W″x+b″
根据训练数据遮挡区域的不同,分成人脸左眼区域LE,右眼区域RE,鼻梁区域N,嘴部区域M四个不同的训练集训练,得到4个对应的降噪自编码器,用(fRE,fLE,fM,fN)四个映射函数表示;fRE代表RE区域的映射函数,fLE代表LE区域的映射函数,fM代表M区域的映射函数,fN代表N区域的映射函数。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤6中,通过遮挡系数对多个特征点定位结果进行融合得到最终结果如下:
步骤6.1:为了预测特征点的位置,需要学习一个映射函数实现SI到特征点坐标的映射:
Figure BDA0002046087710000061
其中F(.)代表整个降噪自编码器网络,←表示从右到左的映射关系;具体来说,由于网络是由四个自编码器的并行处理,上式可转换成:
Figure BDA0002046087710000062
其中(fRE,fLE,fM,fN)表示四个映射函数,(ωRELEMN)四个参数代表各个区域的遮挡权重参数,由步骤4.1得到;可得到最终特征点的输出结果。
有益效果:本发明提供的一种基于降噪自编码网络的三维人脸特征点定位方法,相比现有技术,具有以下有益效果:
对人脸进行分块处理,每个块区域分别训练一个降噪自编码器,降噪自编码器能够从被损坏数据中提取未损坏数据的特征,根据多个区域的降噪自编码器的并行预测可以极大提高对于遮挡情况的人脸特征点定位准确度。
附图说明
图1为本发明完整方法流程;
图2为本发明人脸感兴趣区域提取和人脸切割示意图;
图3为本发明人脸点云噪点去除示意图;
图4为本发明人脸区域分割和遮挡程度检测,嘴巴区域显示遮挡严重,其它区域显示基本无遮挡;
图5为本发明降噪自编码器的训练过程图;
图6为本发明人脸特征点模型示意图;
图7为本发明训练数据的扩充示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
下面参照附图,对本发明具体实施方案做更为详细的描述。编程实现工具选用MATLAB R2015b和VS2015对Bosphorus库和FRGC v2.0库中人脸点云分别进行实验。
本发明的具体实施步骤如下:
步骤1:从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域。
步骤1.1:首先需要计算每个顶点的散度。对于一个包含N个顶点的三维曲面,用pz表示曲面上的顶点,z=1,…N(N代表三维曲面的中的顶点数量),标准化后的矢量场
Figure BDA0002046087710000071
的定义如下:
Figure BDA0002046087710000072
式中
Figure BDA0002046087710000073
Figure BDA0002046087710000074
代表有关于x,y,z的数量函数。i,j,k则代表x轴,y轴,z轴的单位矢量。接着,考虑一个半径为r,球心为pz的一个微型球面。在球面坐标系下该矢量场的散度计算公式如下:
Figure BDA0002046087710000075
式中n为pz的法向量,
Figure BDA0002046087710000076
表示该点的散度。
步骤1.2:依据步骤1.1计算所有顶点的散度值,并选取拥有最大散度值的顶点为鼻尖点。
步骤1.3:鼻尖点处于人脸最中心的突出位置,以鼻尖为中心,90mm为半径来切割整个人脸点云,可以剔除除去人脸之外的无关区域。如图2所示。
步骤2:对人脸进行去噪处理,去除点云表面的噪点。
步骤2.1:在经过人脸切割后,人脸表面还存在部分离群的噪点,这些离群点会导致人脸表面出现局部尖锐区域,因此需要去除离群点。如图3所示。定义离周围邻域点的距离大于一定的阈值dt为离群点,邻域点的数量为8。阈值的计算方法如下:
dt=μ+0.6σ
式中μ代表整个人脸点云邻域顶点间的平均距离,σ代表标准差。在经过去除离群点后,对点云进行归一化重采样,采样距离为1mm。
步骤3:训练人脸模型并对待测人脸进行分割。
步骤3.1:首先,选取500个不同的人脸点云并进行点云降采样,采样距离为1mm,从采样后的点云选择一个样本作为基准,将其他人脸通过ICP算法对齐到基准人脸,最后得到平均人脸模型(Average Facial Model,AvFM)。
步骤3.2:首先使用ICP算法将人脸表面对齐到AvFM上,AvFM的使用可以使得所有的库集人脸具有一对一的对应关系。假设人脸表示为O={p1,...,pr},pr表示人脸点云中的顶点。AvFM表示为Mv={m1,...mt},mt表示AvFM中的顶点。基于AvFM的对齐算法目的在于找到一个刚性变换T包括三个方向的旋转和平移:
Τ(pi)=RxRyRzpi+t
式中Rx,Ry和Rz分别代表以x轴,y轴,z轴为轴心的旋转矩阵,t为平移矩阵。变换后的对齐误差可由下式得到:
Figure BDA0002046087710000081
式中AvFM中的顶点mj对应于测试人脸顶点pi。对齐过程的优化目标函数为:
Figure BDA0002046087710000082
作为一种全局性的对齐算法,本章使用ICP算法求得最优变换矩阵。接下来,对平均人脸模型AvFM进行手动切割来构建平均区域模型AvRM。在测试人脸和AvFM粗略对齐后,两者之间的顶点数量和顺序已经保持一致。
步骤3.3:假设第一步粗对齐后的人脸表示为
Figure BDA0002046087710000083
AvRM表示为
Figure BDA0002046087710000084
考虑对各个区域分开做ICP对齐,对于第k个区域,变换矩阵如下:
Figure BDA0002046087710000091
优化目标函数表示如下:
Figure BDA0002046087710000092
完成第二步对齐后,可以将任意测试人脸进行5个区域的分割。如图4所示。
步骤4:对每个区域进行遮挡检测,并将遮挡程度转变为系数表示。
步骤4.1:接下来分析平均区域模型AvRM与对齐后的测试人脸区域的差异。因此,通过计算待测人脸和平均区域模型z轴差值来描述遮挡程度:
Figure BDA0002046087710000093
式中
Figure BDA0002046087710000094
Figure BDA0002046087710000095
分别表示第k个区域待测人脸和AvRM的平均z轴差值,tk表示第k个区域的顶点数量。
步骤5:对分割的每个遮挡区域训练一个降噪自编码器并输出特征点定位结果。
步骤5.1:对人脸点云每个顶点计算形状指数,公式如下:
Figure BDA0002046087710000096
式中λ1,λ2为主曲率
投影得到的形状指数特征图是一个二维灰度图,灰度值和形状指数值一一对应,记为SI。因此,SI可作为下一步降噪自编码器的输入。
步骤5.2:假设自编码器的输入为x∈[0,1]d,首先需要一个映射函数将该输入映射一个隐藏层y∈[0,1]d′。映射函数的表达式为:
Figure BDA0002046087710000097
式中映射参数标记为
Figure BDA0002046087710000098
s(.)为非线性激活函数例如sigmod或者tanh函数。W是一个d×d′维的权重矩阵,b是一个偏置向量。接着隐藏层y被映射到一个重构层z∈[0,1]d,映射函数的表达式为:
z=gθ′(y)=s(W′y+b′)
式中映射参数标记为θ′={W′,b′}。每个训练数据x(i)会被映射到一个对应的编码向量y(i)和一个重构向量z(i)
Figure BDA0002046087710000101
表示对原始数据x的一次随机映射得到被损坏的数据
Figure BDA0002046087710000102
映射方法有多种,如随机将一些输入节点的值置为0,或者添加一些噪声。整个模型的参数确定由最小化平均重构误差得到:
Figure BDA0002046087710000103
式中LH(.)是一个损失函数,例如使用较多的平方损失误差函数:
LH(x,z)=||x-z||2
在完成降噪自编码器的训练后,舍弃重构层并在编码后连接一个分类器或者回归层,便可完成有监督训练。最后一层的参数可由随机初始化确定。本章算法所输出的为人脸特征点的坐标,因此所接层为线性回归层。最后根据梯度下降的算法最小化线性回归层的损失函数,可以对整个网络参数进行微调进而完成整个网络的训练
步骤5.3:对于给定的一个人脸点云O,形状指数特征图为SI,形状
Figure BDA0002046087710000104
代表其三维人脸特征点坐标集合,其特征点的数量为N,定义
Figure BDA0002046087710000105
的表达形式如下:
Figure BDA0002046087710000106
接下来,降噪自编码器的训练步骤如下:
1)假设有
Figure BDA0002046087710000107
个训练样本,
Figure BDA0002046087710000108
Ωi代表第i个无遮挡的人脸,
Figure BDA0002046087710000109
则代表第i个对应区域带有遮挡的人脸,
Figure BDA00020460877100001010
表示人脸对应的形状。编码与解码参数训练的损失函数如下:
Figure BDA00020460877100001011
式中SIi)代表人脸Ωi的形状指数特征图,h(.)代表编码层映射函数,g(.)代表解码层映射函数。
2)自编码器的参数训练完成后,在中间层后连接一层线性回归层完成有监督训练。利用压缩后的中间特征进行线性回归预测特征点形状。线性回归的参数训练过程依赖于最小化如下损失函数:
Figure BDA0002046087710000111
式中l(.)表示线性回归映射函数,其表达形式为:
l(x)=W″x+b″
图5展示了一个降噪自编码器的整个训练过程。根据训练数据遮挡区域的不同,分成人脸左眼区域LE,右眼区域RE,鼻梁区域N,嘴部区域M四个不同的训练集训练,得到4个对应的降噪自编码器,用(fRE,fLE,fM,fN)四个映射函数表示。fRE代表RE区域的映射函数,fLE代表LE区域的映射函数,fM代表M区域的映射函数,fN代表N区域的映射函数。
FRGCv2.0和Bosphorus数据库中的人脸包含了22个特征点模型,如图6所示。但训练数据只有4000个左右,对于训练网络模型会导致过拟合的问题。为了克服过拟合和提升网络性能,增加训练数据很有必要。如图7所示,对数据库中人脸做一些角度随机的旋转和镜像变换,得到面部不同朝向的人脸。首先,对人脸在水平方向做角度间隔为15°的旋转,角度范围为(-45°,45°),然后在垂直方向做15°的旋转,角度范围为(-30°,30°),最后对每张人脸做一次水平方向的镜像变换。同时,手工标记的特征点坐标也做对应变换。在完成数据集扩充后,训练样本的总数达到了80000左右。
步骤6:通过遮挡系数对多个特征点定位结果进行融合得到最终结果。
步骤6.1:根据遮挡系数和4个降噪自编码器的输出,可以得到最终特征点的结果,计算方式如下:
Figure BDA0002046087710000112
其中←表示从右到左的映射关系。其中(fRE,fLE,fM,fN)为四个映射函数,(ωRELEMN)四个参数代表各个区域的遮挡权重参数,由步骤4.1得到。根据上式可得到最终特征点的输出结果。

Claims (5)

1.一种基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,具体包括以下步骤:
步骤1:从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域;
步骤2:对人脸进行去噪处理,去除点云表面的噪点;
步骤3:训练一个人脸模型,并且对该模型对人脸进行手动区域分割,依据该分割人脸和刚性匹配算法,将待检测人脸分成多个区域;
步骤4:对每个区域进行遮挡检测,并将遮挡程度转变为系数表示;
步骤5:对分割的每个遮挡区域训练一个降噪自编码器,每个降噪自编码器输出一个特征点定位结果;
步骤6:通过遮挡系数对多个特征点定位结果进行融合得到最终结果,完成整个定点算法;
所述步骤4中,对每个区域进行遮挡检测,并将遮挡程度转变为系数表示的方法如下:
步骤4.1:接下来分析平均区域模型AvRM与对齐后的测试人脸区域的差异;通过计算待测人脸和平均区域模型z轴差值来描述遮挡程度:
Figure FDA0004016458830000011
式中
Figure FDA0004016458830000012
Figure FDA0004016458830000013
分别表示第k个区域待测人脸和AvRM的平均z轴差值,tk表示第k个区域的顶点数量;
所述步骤6中,通过遮挡系数对多个特征点定位结果进行融合得到最终结果如下:
步骤6.1:为了预测特征点的位置,需要学习一个映射函数实现SI到特征点坐标的映射:
Figure FDA0004016458830000014
其中F(.)代表整个降噪自编码器网络,←表示从右到左的映射关系;具体来说,由于网络是由四个自编码器的并行处理,上式可转换成:
Figure FDA0004016458830000015
其中(fRE,fLE,fM,fN)表示四个映射函数,(ωRE,ωLE,ωM,ωN)四个参数代表各个区域的遮挡权重参数,由步骤4.1得到;可得到最终特征点的输出结果。
2.据权利要求1所述的基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,所述步骤1中,从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域的步骤如下:
步骤1.1:计算每个顶点的散度,对于一个包含N个顶点的三维曲面,准化后的矢量场
Figure FDA0004016458830000021
的定义如下:
Figure FDA0004016458830000022
式中
Figure FDA0004016458830000023
Figure FDA0004016458830000024
代表有关于x,y,z的数量函数,i,j,k则代表x轴,y轴,z轴的单位矢量,考虑一个半径为r,球心为pz的一个微型球面,在球面坐标系下该矢量场的散度计算公式如下:
Figure FDA0004016458830000025
式中n为pz的法向量,
Figure FDA0004016458830000026
表示该点的散度;
步骤1.2:依据步骤1.1计算所有顶点的散度值,并选取拥有最大散度值的顶点为鼻尖点;
步骤1.3:鼻尖点处于人脸最中心的突出位置,以鼻尖为中心,90mm为半径来切割整个人脸点云,可剔除除去人脸之外的无关区域。
3.据权利要求1所述的基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,步骤2中,对人脸进行去噪处理,去除点云表面的噪点的方法如下:
步骤2.1:在经过人脸切割后,人脸表面还存在部分离群的噪点,这些离群点会导致人脸表面出现局部尖锐区域,因此需要去除离群点,定义离周围邻域点的距离大于一定的阈值dt为离群点,邻域点的数量为8,阈值的计算方法如下:
dt=μ+0.6σ
式中μ代表整个人脸点云邻域顶点间的平均距离,σ代表标准差,在经过去除离群点后,对点云进行归一化重采样,采样距离为1mm。
4.据权利要求1所述的基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,所述步骤3中,训练人脸模型并对待测人脸进行分割的步骤如下:
步骤3.1:选取500个不同的人脸点云并进行点云降采样,采样距离为1mm,从采样后的点云选择一个样本作为基准,将其他人脸通过ICP算法对齐到基准人脸,得到平均人脸模型;
步骤3.2:使用ICP算法将人脸表面对齐到AvFM上,AvFM的使用可以使得所有的库集人脸具有一对一的对应关系,假设人脸表示为O={p1,...,pr},pr表示人脸点云中的顶点,AvFM表示为Mv={m1,...mt},mt表示AvFM中的顶点;基于AvFM的对齐算法目的在于找到一个刚性变换T包括三个方向的旋转和平移:
T(pi)=RxRyRzpi+t
式中Rx,Ry和Rz分别代表以x轴,y轴,z轴为轴心的旋转矩阵,t为平移矩阵;变换后的对齐误差可由下式得到:
Figure FDA0004016458830000031
式中AvFM中的顶点mj对应于测试人脸顶点pi;对齐过程的优化目标函数为:
Figure FDA0004016458830000032
作为一种全局性的对齐算法,使用ICP算法求得最优变换矩阵;对平均人脸模型AvFM进行手动切割来构建平均区域模型AvRM;在测试人脸和AvFM粗略对齐后,两者之间的顶点数量和顺序已经保持一致;
步骤3.3:假设第一步粗对齐后的人脸表示为
Figure FDA0004016458830000033
AvRM表示为
Figure FDA0004016458830000034
考虑对各个区域分开做ICP对齐,对于第k个区域,变换矩阵如下:
Figure FDA0004016458830000035
优化目标函数表示如下:
Figure FDA0004016458830000036
完成第二步对齐后,可以将任意测试人脸进行5个区域的分割。
5.据权利要求1所述的基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,所述步骤5中,对分割的每个遮挡区域训练一个降噪自编码器并输出特征点定位结果的方法如下:
步骤5.1:对人脸点云每个顶点计算形状指数,公式如下:
Figure FDA0004016458830000037
式中λ1,λ2为主曲率;
投影得到的形状指数特征图是一个二维灰度图,灰度值和形状指数值一一对应,记为SI;因此,SI可作为下一步降噪自编码器的输入;
步骤5.2:假设自编码器的输入为x∈[0,1]D,首先需要一个映射函数将该输入映射一个隐藏层y∈[0,1]d′;映射函数的表达式为:
Figure FDA0004016458830000041
式中映射参数标记为
Figure FDA0004016458830000042
s(.)为非线性激活函数;W是一个d×d′维的权重矩阵,b是一个偏置向量;接着隐藏层y被映射到一个重构层z∈[0,1]d,映射函数的表达式为:
z=gθ′(y)=s(W′y+b′)
式中映射参数标记为θ′={W′,b′};每个训练数据x(i)会被映射到一个对应的编码向量y(i)和一个重构向量z(i)
Figure FDA0004016458830000043
表示对原始数据x的一次随机映射得到被损坏的数据
Figure FDA0004016458830000044
映射方法包括随机将一些输入节点的值置为0,或者添加一些噪声;整个模型的参数确定由最小化平均重构误差得到:
Figure FDA0004016458830000045
式中LH(.)是一个损失函数,使用较多的平方损失误差函数:
LH(x,z)=||x-z||2
在完成降噪自编码器的训练后,舍弃重构层并在编码后连接一个分类器或者回归层,便可完成有监督训练;
步骤5.3:对于给定的一个人脸点云O,形状指数特征图为SI,形状
Figure FDA0004016458830000046
代表其三维人脸特征点坐标集合,其特征点的数量为N,定义
Figure FDA0004016458830000047
的表达形式如下:
Figure FDA0004016458830000048
接下来,降噪自编码器的训练步骤如下:
1)假设有
Figure FDA0004016458830000049
个训练样本,
Figure FDA00040164588300000410
Ωi代表第i个无遮挡的人脸,
Figure FDA00040164588300000411
则代表第i个对应区域带有遮挡的人脸,
Figure FDA0004016458830000051
表示人脸对应的形状,编码与解码参数训练的损失函数如下:
Figure FDA0004016458830000052
式中SIi)代表人脸Ωi的形状指数特征图,h(.)代表编码层映射函数,g(.)代表解码层映射函数;
2)自编码器的参数训练完成后,在中间层后连接一层线性回归层完成有监督训练;利用压缩后的中间特征进行线性回归预测特征点形状;线性回归的参数训练过程依赖于最小化如下损失函数:
Figure FDA0004016458830000053
式中l(.)表示线性回归映射函数,其表达形式为:
l(x)=W″x+b″
根据训练数据遮挡区域的不同,分成人脸左眼区域LE,右眼区域RE,鼻梁区域N,嘴部区域M四个不同的训练集训练,得到4个对应的降噪自编码器,用(fRE,fLE,fM,fN)四个映射函数表示;fRE代表RE区域的映射函数,fLE代表LE区域的映射函数,fM代表M区域的映射函数,fN代表N区域的映射函数。
CN201910358243.5A 2019-04-30 2019-04-30 一种基于降噪自编码网络的三维人脸特征点定位方法 Active CN110175529B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910358243.5A CN110175529B (zh) 2019-04-30 2019-04-30 一种基于降噪自编码网络的三维人脸特征点定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910358243.5A CN110175529B (zh) 2019-04-30 2019-04-30 一种基于降噪自编码网络的三维人脸特征点定位方法

Publications (2)

Publication Number Publication Date
CN110175529A CN110175529A (zh) 2019-08-27
CN110175529B true CN110175529B (zh) 2023-05-16

Family

ID=67690312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910358243.5A Active CN110175529B (zh) 2019-04-30 2019-04-30 一种基于降噪自编码网络的三维人脸特征点定位方法

Country Status (1)

Country Link
CN (1) CN110175529B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717406B (zh) * 2019-09-18 2024-04-09 平安科技(深圳)有限公司 一种人脸检测的方法、装置及终端设备
CN112861579B (zh) * 2019-11-27 2022-10-18 四川大学 三维面部标志自动检测方法
CN113284223A (zh) 2020-02-20 2021-08-20 华硕电脑股份有限公司 建立三维人脸模型的方法及其设备
CN111814571B (zh) * 2020-06-12 2024-07-12 深圳禾思众成科技有限公司 一种基于背景过滤的口罩人脸识别方法及系统
CN112507963B (zh) * 2020-12-22 2023-08-25 华南理工大学 一种批量口罩人脸样本自动生成以及口罩人脸识别方法
CN113724374A (zh) * 2021-09-09 2021-11-30 广州虎牙科技有限公司 点云数据处理方法和装置、电子设备及存储介质
CN115830762A (zh) * 2023-01-17 2023-03-21 四川三思德科技有限公司 一种平安社区出入口管控平台、管控方法及管控终端

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805040A (zh) * 2018-05-24 2018-11-13 复旦大学 一种基于分块的有遮挡人脸识别算法
CN109598261A (zh) * 2019-01-18 2019-04-09 嘉兴学院 一种基于区域分割的三维人脸识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805040A (zh) * 2018-05-24 2018-11-13 复旦大学 一种基于分块的有遮挡人脸识别算法
CN109598261A (zh) * 2019-01-18 2019-04-09 嘉兴学院 一种基于区域分割的三维人脸识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Regional Registration for Expression Resistant 3-D Face Recognition;ese Alyuz等;《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》;20100628;第425-440页 *

Also Published As

Publication number Publication date
CN110175529A (zh) 2019-08-27

Similar Documents

Publication Publication Date Title
CN110175529B (zh) 一种基于降噪自编码网络的三维人脸特征点定位方法
CN109377448B (zh) 一种基于生成对抗网络的人脸图像修复方法
KR101314131B1 (ko) 기하학적 이미지 중의 중파 정보에 기반한 삼차원 얼굴 식별방법
JP4445864B2 (ja) 三次元顔認識
Elad et al. On bending invariant signatures for surfaces
WO2017219391A1 (zh) 一种基于三维数据的人脸识别系统
CN101315661B (zh) 一种减小表情影响的快速三维人脸识别方法
Huang et al. Combinatorial manifold mesh reconstruction and optimization from unorganized points with arbitrary topology
CN101159015B (zh) 一种二维人脸图像的识别方法
Tang et al. Curvature-augmented tensor voting for shape inference from noisy 3d data
Shen et al. Skeleton pruning as trade-off between skeleton simplicity and reconstruction error
Malassiotis et al. Snapshots: A novel local surface descriptor and matching algorithm for robust 3D surface alignment
CN106022228B (zh) 一种基于网格纵横局部二值模式的三维人脸识别方法
Demisse et al. Deformation based curved shape representation
JP2016161569A (ja) オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
CN106407985B (zh) 一种三维人体头部点云特征提取方法及其装置
CN104598879A (zh) 基于半刚性区域面部轮廓线的三维人脸识别方法
CN104091162A (zh) 基于特征点的三维人脸识别方法
CN103246875B (zh) 一种基于面部曲线弹性匹配的三维人脸识别方法
CN105005755A (zh) 三维人脸识别方法和系统
US20140300597A1 (en) Method for the automated identification of real world objects
CN111985332B (zh) 一种基于深度学习的改进损失函数的步态识别方法
CN109255815B (zh) 一种基于零阶球谐函数的物体检测与识别方法
CN114972882A (zh) 基于多注意力机制的磨损表面损伤深度估计方法及系统
CN111709269B (zh) 一种深度图像中基于二维关节信息的人手分割方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant