CN110175529B - 一种基于降噪自编码网络的三维人脸特征点定位方法 - Google Patents
一种基于降噪自编码网络的三维人脸特征点定位方法 Download PDFInfo
- Publication number
- CN110175529B CN110175529B CN201910358243.5A CN201910358243A CN110175529B CN 110175529 B CN110175529 B CN 110175529B CN 201910358243 A CN201910358243 A CN 201910358243A CN 110175529 B CN110175529 B CN 110175529B
- Authority
- CN
- China
- Prior art keywords
- face
- region
- noise reduction
- training
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009467 reduction Effects 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 62
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 238000013507 mapping Methods 0.000 claims description 55
- 239000013598 vector Substances 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 15
- 238000012417 linear regression Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 claims description 4
- 238000012952 Resampling Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 239000006185 dispersion Substances 0.000 claims 1
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于降噪自编码网络的三维人脸特征点定位方法。该方法的实现步骤为:从杂乱的人脸点云中提取鼻尖点坐标。通过鼻尖点的位置对人脸区域提取并进行预处理。训练一个人脸模型,并且对该模型对人脸进行手动区域分割,依据该分割人脸和刚性匹配算法,将待检测人脸分成多个区域。对每个区域进行遮挡检测,并将遮挡程度转变为系数表示。对分割的每个遮挡区域训练一个降噪自编码器,每个降噪自编码器输出一个特征点定位结果。通过遮挡系数对多个特征点定位结果进行融合得到最终结果,完成整个定点算法。
Description
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种基于降噪自编码网络的三维人脸特征点定位方法。
背景技术
在人脸验证,人脸识别,人脸表情识别等研究领域,需要准确的人脸特征点坐标以便更方便的提取特征。如何准确并自动定位人脸特征点得到了越来越多学者的关注和研究。由于受光照影响,基于二维图片的特征点定位在复杂情况下仍然存在着较大误差。因此,在三维点云上进行人脸特征点定位被广泛研究和应用。三维点云描述了人脸表面丰富的信息,包括曲率变化和深度变化等。然而,在实际情况下设备采集得到的人脸表面往往存在着遮挡物,例如散乱的头发,眼镜,口罩等,这些遮挡物能够使得人脸曲面发生不规则形变,而人脸特征点的位置处于容易被遮挡的区域,如眼睛区域和嘴巴区域。如何在人脸点云部分被遮挡的情况下准确定位特征点成为了亟待解决的问题。
发明内容
发明目的:针对现实情况下,三维人脸数据常常带有的局部遮挡的情况,本发明提供一种基于降噪自编码网络的三维人脸特征点定位方法。通过使用降噪自编码器并对人脸进行分区域定位,可以解决遮挡下的三维人脸特征点定位问题。
技术方案:本发明所述一种基于视角变换与多视角特征的大视角图像匹配方法为了实现上述目的,本方案的实现步骤为:
一种基于降噪自编码网络的三维人脸特征点定位方法,具体包括以下步骤:
步骤1:从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域;
步骤2:对人脸进行去噪处理,去除点云表面的噪点;
步骤3:训练一个人脸模型,并且对该模型对人脸进行手动区域分割,依据该分割人脸和刚性匹配算法,将待检测人脸分成多个区域;
步骤4:对每个区域进行遮挡检测,并将遮挡程度转变为系数表示;
步骤5:对分割的每个遮挡区域训练一个降噪自编码器,每个降噪自编码器输出一个特征点定位结果;
步骤6:通过遮挡系数对多个特征点定位结果进行融合得到最终结果,完成整个定点算法。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤1中,从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域的步骤如下:
步骤1.2:依据步骤1.1计算所有顶点的散度值,并选取拥有最大散度值的顶点为鼻尖点;
步骤1.3:鼻尖点处于人脸最中心的突出位置,以鼻尖为中心,90mm为半径来切割整个人脸点云,可剔除除去人脸之外的无关区域。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,步骤2中,对人脸进行去噪处理,去除点云表面的噪点的方法如下:
步骤2.1:在经过人脸切割后,人脸表面还存在部分离群的噪点,这些离群点会导致人脸表面出现局部尖锐区域,因此需要去除离群点,定义离周围邻域点的距离大于一定的阈值dt为离群点,邻域点的数量为8,阈值的计算方法如下:
dt=μ+0.6σ
式中μ代表整个人脸点云邻域顶点间的平均距离,σ代表标准差,在经过去除离群点后,对点云进行归一化重采样,采样距离为1mm。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤3中,训练人脸模型并对待测人脸进行分割的步骤如下:
步骤3.1:选取500个不同的人脸点云并进行点云降采样,采样距离为1mm,从采样后的点云选择一个样本作为基准,将其他人脸通过ICP算法对齐到基准人脸,得到平均人脸模型;
步骤3.2:使用ICP算法将人脸表面对齐到AvFM上,AvFM的使用可以使得所有的库集人脸具有一对一的对应关系,假设人脸表示为O={p1,...,pr},pr表示人脸点云中的顶点,AvFM表示为Mv={m1,...mt},mt表示AvFM中的顶点;基于AvFM的对齐算法目的在于找到一个刚性变换T包括三个方向的旋转和平移:
Τ(pi)=RxRyRzpi+t
式中Rx,Ry和Rz分别代表以x轴,y轴,z轴为轴心的旋转矩阵,t为平移矩阵;变换后的对齐误差可由下式得到:
式中AvFM中的顶点mj对应于测试人脸顶点pi;对齐过程的优化目标函数为:
作为一种全局性的对齐算法,使用ICP算法求得最优变换矩阵;对平均人脸模型AvFM进行手动切割来构建平均区域模型AvRM;在测试人脸和AvFM粗略对齐后,两者之间的顶点数量和顺序已经保持一致;
优化目标函数表示如下:
完成第二步对齐后,可以将任意测试人脸进行5个区域的分割。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤4中,对每个区域进行遮挡检测,并将遮挡程度转变为系数表示的方法如下:
步骤4.1:接下来分析平均区域模型AvRM与对齐后的测试人脸区域的差异;通过计算待测人脸和平均区域模型z轴差值来描述遮挡程度:
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤5中,对分割的每个遮挡区域训练一个降噪自编码器并输出特征点定位结果的方法如下:
步骤5.1:对人脸点云每个顶点计算形状指数,公式如下:
式中λ1,λ2为主曲率;
投影得到的形状指数特征图是一个二维灰度图,灰度值和形状指数值一一对应,记为SI;因此,SI可作为下一步降噪自编码器的输入;
步骤5.2:假设自编码器的输入为x∈[0,1]d,首先需要一个映射函数将该输入映射一个隐藏层y∈[0,1]d′;映射函数的表达式为:
z=gθ′(y)=s(W′y+b′)
式中映射参数标记为θ′={W′,b′};每个训练数据x(i)会被映射到一个对应的编码向量y(i)和一个重构向量z(i);表示对原始数据x的一次随机映射得到被损坏的数据映射方法有多种,如随机将一些输入节点的值置为0,或者添加一些噪声;整个模型的参数确定由最小化平均重构误差得到:
式中LH(.)是一个损失函数,使用较多的平方损失误差函数:
LH(x,z)=||x-z||2
在完成降噪自编码器的训练后,舍弃重构层并在编码后连接一个分类器或者回归层,便可完成有监督训练;
接下来,降噪自编码器的训练步骤如下:
式中SI(Ωi)代表人脸Ωi的形状指数特征图,h(.)代表编码层映射函数,g(.)代表解码层映射函数;
2)自编码器的参数训练完成后,在中间层后连接一层线性回归层完成有监督训练;利用压缩后的中间特征进行线性回归预测特征点形状;线性回归的参数训练过程依赖于最小化如下损失函数:
式中l(.)表示线性回归映射函数,其表达形式为:
l(x)=W″x+b″
根据训练数据遮挡区域的不同,分成人脸左眼区域LE,右眼区域RE,鼻梁区域N,嘴部区域M四个不同的训练集训练,得到4个对应的降噪自编码器,用(fRE,fLE,fM,fN)四个映射函数表示;fRE代表RE区域的映射函数,fLE代表LE区域的映射函数,fM代表M区域的映射函数,fN代表N区域的映射函数。
作为本发明基于降噪自编码网络的三维人脸特征点定位方法的进一步优选方案,所述步骤6中,通过遮挡系数对多个特征点定位结果进行融合得到最终结果如下:
步骤6.1:为了预测特征点的位置,需要学习一个映射函数实现SI到特征点坐标的映射:
其中F(.)代表整个降噪自编码器网络,←表示从右到左的映射关系;具体来说,由于网络是由四个自编码器的并行处理,上式可转换成:
其中(fRE,fLE,fM,fN)表示四个映射函数,(ωRE,ωLE,ωM,ωN)四个参数代表各个区域的遮挡权重参数,由步骤4.1得到;可得到最终特征点的输出结果。
有益效果:本发明提供的一种基于降噪自编码网络的三维人脸特征点定位方法,相比现有技术,具有以下有益效果:
对人脸进行分块处理,每个块区域分别训练一个降噪自编码器,降噪自编码器能够从被损坏数据中提取未损坏数据的特征,根据多个区域的降噪自编码器的并行预测可以极大提高对于遮挡情况的人脸特征点定位准确度。
附图说明
图1为本发明完整方法流程;
图2为本发明人脸感兴趣区域提取和人脸切割示意图;
图3为本发明人脸点云噪点去除示意图;
图4为本发明人脸区域分割和遮挡程度检测,嘴巴区域显示遮挡严重,其它区域显示基本无遮挡;
图5为本发明降噪自编码器的训练过程图;
图6为本发明人脸特征点模型示意图;
图7为本发明训练数据的扩充示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
下面参照附图,对本发明具体实施方案做更为详细的描述。编程实现工具选用MATLAB R2015b和VS2015对Bosphorus库和FRGC v2.0库中人脸点云分别进行实验。
本发明的具体实施步骤如下:
步骤1:从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域。
步骤1.2:依据步骤1.1计算所有顶点的散度值,并选取拥有最大散度值的顶点为鼻尖点。
步骤1.3:鼻尖点处于人脸最中心的突出位置,以鼻尖为中心,90mm为半径来切割整个人脸点云,可以剔除除去人脸之外的无关区域。如图2所示。
步骤2:对人脸进行去噪处理,去除点云表面的噪点。
步骤2.1:在经过人脸切割后,人脸表面还存在部分离群的噪点,这些离群点会导致人脸表面出现局部尖锐区域,因此需要去除离群点。如图3所示。定义离周围邻域点的距离大于一定的阈值dt为离群点,邻域点的数量为8。阈值的计算方法如下:
dt=μ+0.6σ
式中μ代表整个人脸点云邻域顶点间的平均距离,σ代表标准差。在经过去除离群点后,对点云进行归一化重采样,采样距离为1mm。
步骤3:训练人脸模型并对待测人脸进行分割。
步骤3.1:首先,选取500个不同的人脸点云并进行点云降采样,采样距离为1mm,从采样后的点云选择一个样本作为基准,将其他人脸通过ICP算法对齐到基准人脸,最后得到平均人脸模型(Average Facial Model,AvFM)。
步骤3.2:首先使用ICP算法将人脸表面对齐到AvFM上,AvFM的使用可以使得所有的库集人脸具有一对一的对应关系。假设人脸表示为O={p1,...,pr},pr表示人脸点云中的顶点。AvFM表示为Mv={m1,...mt},mt表示AvFM中的顶点。基于AvFM的对齐算法目的在于找到一个刚性变换T包括三个方向的旋转和平移:
Τ(pi)=RxRyRzpi+t
式中Rx,Ry和Rz分别代表以x轴,y轴,z轴为轴心的旋转矩阵,t为平移矩阵。变换后的对齐误差可由下式得到:
式中AvFM中的顶点mj对应于测试人脸顶点pi。对齐过程的优化目标函数为:
作为一种全局性的对齐算法,本章使用ICP算法求得最优变换矩阵。接下来,对平均人脸模型AvFM进行手动切割来构建平均区域模型AvRM。在测试人脸和AvFM粗略对齐后,两者之间的顶点数量和顺序已经保持一致。
优化目标函数表示如下:
完成第二步对齐后,可以将任意测试人脸进行5个区域的分割。如图4所示。
步骤4:对每个区域进行遮挡检测,并将遮挡程度转变为系数表示。
步骤4.1:接下来分析平均区域模型AvRM与对齐后的测试人脸区域的差异。因此,通过计算待测人脸和平均区域模型z轴差值来描述遮挡程度:
步骤5:对分割的每个遮挡区域训练一个降噪自编码器并输出特征点定位结果。
步骤5.1:对人脸点云每个顶点计算形状指数,公式如下:
式中λ1,λ2为主曲率
投影得到的形状指数特征图是一个二维灰度图,灰度值和形状指数值一一对应,记为SI。因此,SI可作为下一步降噪自编码器的输入。
步骤5.2:假设自编码器的输入为x∈[0,1]d,首先需要一个映射函数将该输入映射一个隐藏层y∈[0,1]d′。映射函数的表达式为:
z=gθ′(y)=s(W′y+b′)
式中映射参数标记为θ′={W′,b′}。每个训练数据x(i)会被映射到一个对应的编码向量y(i)和一个重构向量z(i)。表示对原始数据x的一次随机映射得到被损坏的数据映射方法有多种,如随机将一些输入节点的值置为0,或者添加一些噪声。整个模型的参数确定由最小化平均重构误差得到:
式中LH(.)是一个损失函数,例如使用较多的平方损失误差函数:
LH(x,z)=||x-z||2
在完成降噪自编码器的训练后,舍弃重构层并在编码后连接一个分类器或者回归层,便可完成有监督训练。最后一层的参数可由随机初始化确定。本章算法所输出的为人脸特征点的坐标,因此所接层为线性回归层。最后根据梯度下降的算法最小化线性回归层的损失函数,可以对整个网络参数进行微调进而完成整个网络的训练
接下来,降噪自编码器的训练步骤如下:
式中SI(Ωi)代表人脸Ωi的形状指数特征图,h(.)代表编码层映射函数,g(.)代表解码层映射函数。
2)自编码器的参数训练完成后,在中间层后连接一层线性回归层完成有监督训练。利用压缩后的中间特征进行线性回归预测特征点形状。线性回归的参数训练过程依赖于最小化如下损失函数:
式中l(.)表示线性回归映射函数,其表达形式为:
l(x)=W″x+b″
图5展示了一个降噪自编码器的整个训练过程。根据训练数据遮挡区域的不同,分成人脸左眼区域LE,右眼区域RE,鼻梁区域N,嘴部区域M四个不同的训练集训练,得到4个对应的降噪自编码器,用(fRE,fLE,fM,fN)四个映射函数表示。fRE代表RE区域的映射函数,fLE代表LE区域的映射函数,fM代表M区域的映射函数,fN代表N区域的映射函数。
FRGCv2.0和Bosphorus数据库中的人脸包含了22个特征点模型,如图6所示。但训练数据只有4000个左右,对于训练网络模型会导致过拟合的问题。为了克服过拟合和提升网络性能,增加训练数据很有必要。如图7所示,对数据库中人脸做一些角度随机的旋转和镜像变换,得到面部不同朝向的人脸。首先,对人脸在水平方向做角度间隔为15°的旋转,角度范围为(-45°,45°),然后在垂直方向做15°的旋转,角度范围为(-30°,30°),最后对每张人脸做一次水平方向的镜像变换。同时,手工标记的特征点坐标也做对应变换。在完成数据集扩充后,训练样本的总数达到了80000左右。
步骤6:通过遮挡系数对多个特征点定位结果进行融合得到最终结果。
步骤6.1:根据遮挡系数和4个降噪自编码器的输出,可以得到最终特征点的结果,计算方式如下:
其中←表示从右到左的映射关系。其中(fRE,fLE,fM,fN)为四个映射函数,(ωRE,ωLE,ωM,ωN)四个参数代表各个区域的遮挡权重参数,由步骤4.1得到。根据上式可得到最终特征点的输出结果。
Claims (5)
1.一种基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,具体包括以下步骤:
步骤1:从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域;
步骤2:对人脸进行去噪处理,去除点云表面的噪点;
步骤3:训练一个人脸模型,并且对该模型对人脸进行手动区域分割,依据该分割人脸和刚性匹配算法,将待检测人脸分成多个区域;
步骤4:对每个区域进行遮挡检测,并将遮挡程度转变为系数表示;
步骤5:对分割的每个遮挡区域训练一个降噪自编码器,每个降噪自编码器输出一个特征点定位结果;
步骤6:通过遮挡系数对多个特征点定位结果进行融合得到最终结果,完成整个定点算法;
所述步骤4中,对每个区域进行遮挡检测,并将遮挡程度转变为系数表示的方法如下:
步骤4.1:接下来分析平均区域模型AvRM与对齐后的测试人脸区域的差异;通过计算待测人脸和平均区域模型z轴差值来描述遮挡程度:
所述步骤6中,通过遮挡系数对多个特征点定位结果进行融合得到最终结果如下:
步骤6.1:为了预测特征点的位置,需要学习一个映射函数实现SI到特征点坐标的映射:
其中F(.)代表整个降噪自编码器网络,←表示从右到左的映射关系;具体来说,由于网络是由四个自编码器的并行处理,上式可转换成:
其中(fRE,fLE,fM,fN)表示四个映射函数,(ωRE,ωLE,ωM,ωN)四个参数代表各个区域的遮挡权重参数,由步骤4.1得到;可得到最终特征点的输出结果。
2.据权利要求1所述的基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,所述步骤1中,从人脸点云中定位鼻尖坐标,进行人脸切割并提取感兴趣区域的步骤如下:
步骤1.2:依据步骤1.1计算所有顶点的散度值,并选取拥有最大散度值的顶点为鼻尖点;
步骤1.3:鼻尖点处于人脸最中心的突出位置,以鼻尖为中心,90mm为半径来切割整个人脸点云,可剔除除去人脸之外的无关区域。
3.据权利要求1所述的基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,步骤2中,对人脸进行去噪处理,去除点云表面的噪点的方法如下:
步骤2.1:在经过人脸切割后,人脸表面还存在部分离群的噪点,这些离群点会导致人脸表面出现局部尖锐区域,因此需要去除离群点,定义离周围邻域点的距离大于一定的阈值dt为离群点,邻域点的数量为8,阈值的计算方法如下:
dt=μ+0.6σ
式中μ代表整个人脸点云邻域顶点间的平均距离,σ代表标准差,在经过去除离群点后,对点云进行归一化重采样,采样距离为1mm。
4.据权利要求1所述的基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,所述步骤3中,训练人脸模型并对待测人脸进行分割的步骤如下:
步骤3.1:选取500个不同的人脸点云并进行点云降采样,采样距离为1mm,从采样后的点云选择一个样本作为基准,将其他人脸通过ICP算法对齐到基准人脸,得到平均人脸模型;
步骤3.2:使用ICP算法将人脸表面对齐到AvFM上,AvFM的使用可以使得所有的库集人脸具有一对一的对应关系,假设人脸表示为O={p1,...,pr},pr表示人脸点云中的顶点,AvFM表示为Mv={m1,...mt},mt表示AvFM中的顶点;基于AvFM的对齐算法目的在于找到一个刚性变换T包括三个方向的旋转和平移:
T(pi)=RxRyRzpi+t
式中Rx,Ry和Rz分别代表以x轴,y轴,z轴为轴心的旋转矩阵,t为平移矩阵;变换后的对齐误差可由下式得到:
式中AvFM中的顶点mj对应于测试人脸顶点pi;对齐过程的优化目标函数为:
作为一种全局性的对齐算法,使用ICP算法求得最优变换矩阵;对平均人脸模型AvFM进行手动切割来构建平均区域模型AvRM;在测试人脸和AvFM粗略对齐后,两者之间的顶点数量和顺序已经保持一致;
优化目标函数表示如下:
完成第二步对齐后,可以将任意测试人脸进行5个区域的分割。
5.据权利要求1所述的基于降噪自编码网络的三维人脸特征点定位方法,其特征在于,所述步骤5中,对分割的每个遮挡区域训练一个降噪自编码器并输出特征点定位结果的方法如下:
步骤5.1:对人脸点云每个顶点计算形状指数,公式如下:
式中λ1,λ2为主曲率;
投影得到的形状指数特征图是一个二维灰度图,灰度值和形状指数值一一对应,记为SI;因此,SI可作为下一步降噪自编码器的输入;
步骤5.2:假设自编码器的输入为x∈[0,1]D,首先需要一个映射函数将该输入映射一个隐藏层y∈[0,1]d′;映射函数的表达式为:
z=gθ′(y)=s(W′y+b′)
式中映射参数标记为θ′={W′,b′};每个训练数据x(i)会被映射到一个对应的编码向量y(i)和一个重构向量z(i);表示对原始数据x的一次随机映射得到被损坏的数据映射方法包括随机将一些输入节点的值置为0,或者添加一些噪声;整个模型的参数确定由最小化平均重构误差得到:
式中LH(.)是一个损失函数,使用较多的平方损失误差函数:
LH(x,z)=||x-z||2
在完成降噪自编码器的训练后,舍弃重构层并在编码后连接一个分类器或者回归层,便可完成有监督训练;
接下来,降噪自编码器的训练步骤如下:
式中SI(Ωi)代表人脸Ωi的形状指数特征图,h(.)代表编码层映射函数,g(.)代表解码层映射函数;
2)自编码器的参数训练完成后,在中间层后连接一层线性回归层完成有监督训练;利用压缩后的中间特征进行线性回归预测特征点形状;线性回归的参数训练过程依赖于最小化如下损失函数:
式中l(.)表示线性回归映射函数,其表达形式为:
l(x)=W″x+b″
根据训练数据遮挡区域的不同,分成人脸左眼区域LE,右眼区域RE,鼻梁区域N,嘴部区域M四个不同的训练集训练,得到4个对应的降噪自编码器,用(fRE,fLE,fM,fN)四个映射函数表示;fRE代表RE区域的映射函数,fLE代表LE区域的映射函数,fM代表M区域的映射函数,fN代表N区域的映射函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910358243.5A CN110175529B (zh) | 2019-04-30 | 2019-04-30 | 一种基于降噪自编码网络的三维人脸特征点定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910358243.5A CN110175529B (zh) | 2019-04-30 | 2019-04-30 | 一种基于降噪自编码网络的三维人脸特征点定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110175529A CN110175529A (zh) | 2019-08-27 |
CN110175529B true CN110175529B (zh) | 2023-05-16 |
Family
ID=67690312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910358243.5A Active CN110175529B (zh) | 2019-04-30 | 2019-04-30 | 一种基于降噪自编码网络的三维人脸特征点定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110175529B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717406B (zh) * | 2019-09-18 | 2024-04-09 | 平安科技(深圳)有限公司 | 一种人脸检测的方法、装置及终端设备 |
CN112861579B (zh) * | 2019-11-27 | 2022-10-18 | 四川大学 | 三维面部标志自动检测方法 |
CN113284223A (zh) | 2020-02-20 | 2021-08-20 | 华硕电脑股份有限公司 | 建立三维人脸模型的方法及其设备 |
CN111814571B (zh) * | 2020-06-12 | 2024-07-12 | 深圳禾思众成科技有限公司 | 一种基于背景过滤的口罩人脸识别方法及系统 |
CN112507963B (zh) * | 2020-12-22 | 2023-08-25 | 华南理工大学 | 一种批量口罩人脸样本自动生成以及口罩人脸识别方法 |
CN113724374A (zh) * | 2021-09-09 | 2021-11-30 | 广州虎牙科技有限公司 | 点云数据处理方法和装置、电子设备及存储介质 |
CN115830762A (zh) * | 2023-01-17 | 2023-03-21 | 四川三思德科技有限公司 | 一种平安社区出入口管控平台、管控方法及管控终端 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805040A (zh) * | 2018-05-24 | 2018-11-13 | 复旦大学 | 一种基于分块的有遮挡人脸识别算法 |
CN109598261A (zh) * | 2019-01-18 | 2019-04-09 | 嘉兴学院 | 一种基于区域分割的三维人脸识别方法 |
-
2019
- 2019-04-30 CN CN201910358243.5A patent/CN110175529B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805040A (zh) * | 2018-05-24 | 2018-11-13 | 复旦大学 | 一种基于分块的有遮挡人脸识别算法 |
CN109598261A (zh) * | 2019-01-18 | 2019-04-09 | 嘉兴学院 | 一种基于区域分割的三维人脸识别方法 |
Non-Patent Citations (1)
Title |
---|
Regional Registration for Expression Resistant 3-D Face Recognition;ese Alyuz等;《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》;20100628;第425-440页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110175529A (zh) | 2019-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110175529B (zh) | 一种基于降噪自编码网络的三维人脸特征点定位方法 | |
CN109377448B (zh) | 一种基于生成对抗网络的人脸图像修复方法 | |
KR101314131B1 (ko) | 기하학적 이미지 중의 중파 정보에 기반한 삼차원 얼굴 식별방법 | |
JP4445864B2 (ja) | 三次元顔認識 | |
Elad et al. | On bending invariant signatures for surfaces | |
WO2017219391A1 (zh) | 一种基于三维数据的人脸识别系统 | |
CN101315661B (zh) | 一种减小表情影响的快速三维人脸识别方法 | |
Huang et al. | Combinatorial manifold mesh reconstruction and optimization from unorganized points with arbitrary topology | |
CN101159015B (zh) | 一种二维人脸图像的识别方法 | |
Tang et al. | Curvature-augmented tensor voting for shape inference from noisy 3d data | |
Shen et al. | Skeleton pruning as trade-off between skeleton simplicity and reconstruction error | |
Malassiotis et al. | Snapshots: A novel local surface descriptor and matching algorithm for robust 3D surface alignment | |
CN106022228B (zh) | 一种基于网格纵横局部二值模式的三维人脸识别方法 | |
Demisse et al. | Deformation based curved shape representation | |
JP2016161569A (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
CN106407985B (zh) | 一种三维人体头部点云特征提取方法及其装置 | |
CN104598879A (zh) | 基于半刚性区域面部轮廓线的三维人脸识别方法 | |
CN104091162A (zh) | 基于特征点的三维人脸识别方法 | |
CN103246875B (zh) | 一种基于面部曲线弹性匹配的三维人脸识别方法 | |
CN105005755A (zh) | 三维人脸识别方法和系统 | |
US20140300597A1 (en) | Method for the automated identification of real world objects | |
CN111985332B (zh) | 一种基于深度学习的改进损失函数的步态识别方法 | |
CN109255815B (zh) | 一种基于零阶球谐函数的物体检测与识别方法 | |
CN114972882A (zh) | 基于多注意力机制的磨损表面损伤深度估计方法及系统 | |
CN111709269B (zh) | 一种深度图像中基于二维关节信息的人手分割方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |