CN114283265A - 一种基于3d旋转建模的无监督人脸转正方法 - Google Patents

一种基于3d旋转建模的无监督人脸转正方法 Download PDF

Info

Publication number
CN114283265A
CN114283265A CN202111467193.8A CN202111467193A CN114283265A CN 114283265 A CN114283265 A CN 114283265A CN 202111467193 A CN202111467193 A CN 202111467193A CN 114283265 A CN114283265 A CN 114283265A
Authority
CN
China
Prior art keywords
face image
pose
side face
key points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111467193.8A
Other languages
English (en)
Other versions
CN114283265B (zh
Inventor
丁文锐
宋新宇
姜亚龙
谢宛吟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202111467193.8A priority Critical patent/CN114283265B/zh
Publication of CN114283265A publication Critical patent/CN114283265A/zh
Application granted granted Critical
Publication of CN114283265B publication Critical patent/CN114283265B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于3D旋转建模的无监督人脸转正方法,属于图像处理技术领域。首先提取输入目标侧脸图像和另一身份正脸图像的关键点2D坐标;之后对目标侧脸图像进行深度预测,得到关键点3D坐标,利用线性最小二乘技术得到正侧脸的仿射变换参数;然后旋转关键点3D模型;最后利用GAN网络补全正脸图像细节,并结合3DMM模型旋转、投影得到的信息引入GAN网络使结果更真实。本方法不依赖姿势标签作为监督,可实现无监督侧脸转正效果,且本发明结合3DMM引导正脸生成,结果更加真实。

Description

一种基于3D旋转建模的无监督人脸转正方法
技术领域
本发明属于图像处理技术领域,具体涉及一种基于3D旋转建模的无监督人脸转正方法。
背景技术
人脸转正方法可服务于人脸识别系统,人脸识别是计算机视觉领域近年来研究的热点问题之一,在实际的应用场景中如火车站安检,支付宝刷脸支付,公司的刷脸打卡等都发挥了极其重要的作用。人脸识别的任务目标是根据用户的面部图像识别出用户的身份。随着深度学习技术的发展,人脸识别在受限的条件下,如接近于正脸的姿态(±10°之间),无光照、表情的变化,无遮挡等理想状态下已经取得较好的成果,在一些公开的人脸数据集也取得了不错的成绩。但在实际的应用场景中,采集到的图像往往不符合理想的情况,存在光照不均,大的姿势变化,表情变化等问题。其中,大的姿势变化(如60°、90°、-75°等)会极大损害人脸识别的效果。有证据显示从正脸-正脸到正脸-侧脸的人脸识别问题中大部分算法的表现将会大幅下降。人脸识别任务的根本思想是通过算法的设计构造出较大的类间差异和较小的类内变化,而大的姿势变化会导致类内的变化增大,如何在较大的类内变化的干扰下识别出类间差异是人脸识别任务中的一个巨大挑战。
在深度学习出现之前,传统算法通常通过手工设计的局部描述算子或度量学习方法解决出现的姿势差异。深度学习方法提出之后,VGG-Face、DeepFace等模型使用CNN提取图像数据特征,但在大的姿势变化场景下识别的效果仍然欠佳。根据大姿势变化下的侧脸图像恢复对应的正脸图像,之后使用恢复的正脸图像进行人脸识别有望提高大的姿势变化下的人脸识别准确率。
目前解决人脸识别的人脸转正这一问题的方法主要可分为两类:2D方法和3D方法。2D方法主要通过面部关键点、姿势标签等先验信息引导提取图像的关键点局部和全局特征重新整合生成正脸图像。2D方法的关键在于更好地表达不同角度图像之间的映射关系,但当前的2D方法大多依赖于姿势标签等先验信息进行模型的监督训练,而在实际的应用场景中难以获得精确的姿势标签信息,且这一信息的获取需要大量的成本消耗。3D方法通过对人脸图像进行3D建模作为先验信息,补充缺失的纹理特征生成正脸图像。但由人脸图像构建人脸3D模型的过程中会存在一定的信息缺失,影响生成正脸图像的真实性。本发明属于一种3D方法,通过提取输入侧脸图像的关键点,进行深度预测,建立人脸关键点的3D模型,旋转关键点模型并通过对抗生成网络(GAN)补充缺失的纹理特征生成正脸图像。
发明内容
本发明为了解决大姿势变化下人脸识别效果差的问题,提出一种基于3D旋转建模的无监督人脸转正方法一种基于3D旋转建模的无监督人脸转正方法根据侧脸图像生成对应的正脸图像,生成的正脸图像通过现有的人脸识别算法相比于侧脸图像识别可以提高人脸识别的准确率。本发明提出的基于3D旋转建模的无监督人脸转正方法,具体步骤如下:
步骤1:构建人脸关键点3D模型;
101、提取人脸图像2D关键点;
使用人脸关键点检测器得到目标侧脸图像和另一身份正脸图像的面部关键点2D坐标;
102、深度预测,得到关键点3D坐标;
将两张图像的面部关键点2D坐标输入Depth网络,预测每一个关键点的深度,得到关键点的3D坐标;
103、线性最小二乘得到仿射变换参数;
通过从另一身份正脸图像和目标侧脸图像的关键点3D坐标学习从侧脸到正脸的仿射变换参数。
104、根据仿射变换参数旋转关键点3D模型;
步骤2:搭建正脸生成网络;
201、将侧脸图像,侧脸图像关键点3D坐标,正脸图像关键点3D坐标输入GAN模型中,生成正脸图像;
202、将目标生成的正脸图像通过3DMM模型进行3D拟合补充3D模型的纹理信息;
203、将3D人脸模型旋转原侧脸角度在2D平面投影得到与输入相同角度的侧脸图像,与输入进行对比,将这一信息引入GAN中使生成的正脸图像更加真实。
本发明具有以下优点:
(1)本发明基于3D旋转建模的无监督人脸转正方法,不需要姿势标签作为监督,可实现无监督人脸转正;
(2)本发明基于3D旋转建模的无监督人脸转正方法,结合关键点先验信息,通过GAN模型实现侧脸生成正脸的转正效果;
(3)本发明基于3D旋转建模的无监督人脸转正方法,引入3DMM模型使生成的图像更加真实。
附图说明
图1是本发明基于3D旋转建模的无监督人脸转正方法整体流程图;
图2是本发明基于3D旋转建模的无监督人脸转正方法中人脸关键点提取网络结构图;
图3是本发明基于3D旋转建模的无监督人脸转正方法中人脸关键点示意图;
图4是本发明基于3D旋转建模的无监督人脸转正方法中应用的深度预测网络结构图;
图5是本发明基于3D旋转建模的无监督人脸转正方法人脸关键点3D示意图;
图6是本发明基于3D旋转建模的无监督人脸转正方法中正脸生成GAN网络结构流程图;
图7是本发明基于3D旋转建模的无监督人脸转正方法的测试结果图,左侧为输入的侧脸图像,右侧为生成的正脸图像。
具体实施方式
下面结合附图,对本发明的具体实施方法作进一步的详细说明。
本发明是一种基于3D旋转建模的无监督人脸转正方法,流程如图1所示,包括以下几个步骤:
步骤1,构建人脸关键点3D模型;
101、提取人脸图像2D关键点;
由于缺乏姿势标签作为监督信息,本发明引入另一身份(另一人)正脸图像引导模型进行姿势判别。首先使用RCN网络为基本框架,结构如图2所示,对输入的目标侧脸图像Ipose和另一身份正脸图像Rf分别提取68个人脸关键点,人脸关键点如图3所示,点1-17表示人脸外部轮廓,点18-22表示左眉毛,点23-27表示右眉毛,点28-31表示鼻梁,点32-36表示鼻孔,点37-42表示左眼,点43-48表示右眼,点49-60表示嘴唇外侧,点61-68表示嘴唇内侧,对输入的两张图像通过其关键点定位各自的人脸五官位置,将得到的关键点坐标作为模型的先验信息。
102、深度预测,得到关键点3D坐标;
将输入的目标侧脸图像Ipose、另一身份的正脸图像Rf及两张图像在第一步中提取的面部关键点坐标(x,y)输入预训练后的深度预测网络,深度预测网络结构如图4所示,网络由3个卷积层、3个池化层、4个全连接层构成,输入经多层卷积,多层池化,多层全连接输出面部关键点深度值,深度预测网络预先通过AFLW2000-3D数据集进行训练,该数据集由2000张人脸图像组成,每张图像均有人脸3D关键点坐标信息。这一过程可表示为z=Depth(x,y),其中,Depth表示深度预测网络,(x,y)表示面部关键点2D坐标,z表示预测得到的关键点深度坐标,不断缩小真实关键点深度坐标zT和预测深度z之间的差值,更新网络权重,得到可进行深度预测的网络。由深度预测网络得到两张输入图像面部关键点的3D坐标(x,y,z),根据3D坐标值绘制面部关键点3D散点图得到如图5所示的可视化结果。
103、线性最小二乘得到仿射变换参数;
当前大部分有监督信息的人脸转正方法通常将人脸的姿势标签作为监督,之后使用旋转矩阵对关键点位置进行变换,但在实际场景中人脸的姿势标签难以获得,在没有输入侧脸图像的姿势标签的情况下,无法直接使用旋转矩阵根据侧脸图像角度将侧脸图像关键点变换到正脸图像关键点,由于不同人之间人脸关键点存在形状和位置的相似性,通过另一身份的正脸图像的关键点可以学习到从侧脸到正脸的仿射变换参数,这一过程可表示为MKpose=X,其中Kpose表示侧脸图像的3D关键点坐标矩阵,M表示仿射变换参数,X表示正脸图像3D关键点矩阵,由线性最小二乘得到:
Figure BDA0003392062480000043
104、根据3中得到的仿射变换参数旋转关键点3D模型;
根据3中得到的仿射变换参数由目标侧脸图像的3D关键点矩阵求出目标正脸图像3D关键点坐标矩阵Kf
KposeM=Kf (2)
步骤2,搭建正脸生成网络;
201、将步骤1中旋转后得到的目标正脸图像关键点3D坐标矩阵Kf,目标侧脸图像Ipose及目标侧脸图像关键点3D关键点坐标矩阵Kpose输入GAN网络,补全目标正脸图像的纹理细节。GAN网络由生成器G和判别器构成,结构如图6所示。其中,生成器由向下采样的编码器和向上采样的解码器组成,生成器的输入为目标正脸图像关键点3D坐标矩阵Kf,目标侧脸图像Ipose,目标侧脸图像关键点3D坐标矩阵Kpose,输出为正脸图像Ifg,可表示为
Ifg=G(Ipose,Kpose,Kf) (3)
生成器生成的目标正脸图像Ifg经3D拟合、旋转投影后得到生成的目标侧脸图像Ipg,将Ipg和输入的目标侧脸图像Ipose输入判别器,由判别器判别所输入的两张图像哪张是真实的,哪张是生成的。整个GAN网络使用损失函数来约束生成的正脸图像解空间,通过不断训练优化,使得判别器难以区分Ipg和Ipose的真伪,此时GAN网络达到了收敛的效果。GAN网络的损失函数由以下四部分构成:逐像素损失Lp,身份保留损失Li,生成对抗损失Lg和人脸对称损失Ls,总损失函数表示为
L=λ1Lp2Li3Lg4Ls (4)
式中,λ1,λ2,λ3,λ4表示损失函数各部分的权重,逐像素损失Lp为生成的目标侧脸图像Ipg和输入的侧脸图像Ipose进行逐像素比较的差值,表示为
Figure BDA0003392062480000041
式中,W,H分别表示图像的宽和高,均为128,x,y表示图像像素坐标,
Figure BDA0003392062480000042
为目标侧脸图像Ipg中x,y坐标对应的像素值;
Figure BDA0003392062480000051
为输入的侧脸图像Ipose中x,y坐标对应的像素值。
为保留目标的身份信息,使用一个预训练的LightCNN网络作为特征提取网络使生成的目标侧脸图像Ipg提取的特征与输入的目标侧脸图像Ipose提取的特征接近,身份保留损失Li表示为
Figure BDA0003392062480000052
式中,i表示预训练的LightCNN网络层数,Wi,Hi表示第i层输出特征图的宽和高,x,y表示图像像素坐标。
生成对抗损失Lg表示为:
Figure BDA0003392062480000053
由于人的正脸图像具有对称的性质,因而使用人脸对称损失可以对生成器进行约束使生成的正脸图像更加逼真,人脸对称损失Ls表示为
Figure BDA0003392062480000054
202、在201中生成器生成的目标正脸图像Ifg经3D拟合、旋转投影后得到生成的目标侧脸图像Ipg,3D拟合过程通过3DMM模型实现,得到目标人脸的3D模型;3D拟合的过程可表示为
{T,Pf}=Fitting(Ifg) (9)
式中,T表示3D模型的纹理细节,Pf表示此时3D模型的姿势信息,此时姿势为正面姿势,其中Pf={F,Kf},F表示尺度因子,Pf是关于目标正脸图像3D关键点坐标矩阵Kf的函数。
203、将正面的3D模型进行旋转,旋转至与输入的目标侧脸图像关键点3D坐标匹配的角度,在2D平面上进行投影,引导GAN网络生成正脸图像。旋转后的3D模型姿势信息变为
Ppose=Pf*R (10)
R表示旋转矩阵,*表示矩阵乘法,旋转矩阵R表示为
Figure BDA0003392062480000055
旋转矩阵R的表达式中θ的取值为[-90°,90°],从0°开始每隔1°计算K′pose,由于缺乏输入侧脸图像角度的相关信息,使用K′pose估计输入侧脸图像角度,用于引导3D模型在角度θ的二维平面进行投影,K′pose表示与角度θ相关的关键点坐标矩阵
K′pose=Kf*R (12)
比较K′pose和Kpose,找到与Kpose最接近的K′pose,认为此时K′pose对应的角度θ为输入的侧脸图像角度的估计值。在这一角度上将3D模型在二维平面进行投影,投影后的侧脸图像Ipg可表示为
Ipg=Rend(Ppose,T) (13)
使用训练好的正脸生成网络模型对测试的数据集中侧脸图像进行转正,以检验模型的有效性,结果如图7所示。

Claims (7)

1.一种基于3D旋转建模的无监督人脸转正方法,其特征在于:具体步骤为:
步骤1:构建人脸关键点3D模型;
101、提取人脸图像2D关键点;
使用人脸关键点检测器得到目标侧脸图像和另一身份正脸图像的面部关键点2D坐标;
102、深度预测,得到关键点3D坐标;
将两张图像的面部关键点2D坐标输入Depth网络,预测每一个关键点的深度,得到关键点的3D坐标;
103、线性最小二乘得到仿射变换参数;
通过从另一身份正脸图像和目标侧脸图像的关键点3D坐标学习从侧脸到正脸的仿射变换参数。
104、根据仿射变换参数旋转关键点3D模型;
步骤2:搭建正脸生成网络;
201、将侧脸图像,侧脸图像关键点3D坐标,正脸图像关键点3D坐标输入GAN模型中,生成正脸图像;
202、将目标生成的正脸图像通过3DMM模型进行3D拟合补充3D模型的纹理信息;
203、将3D人脸模型旋转原侧脸角度在2D平面投影得到与输入相同角度的侧脸图像,与输入进行对比得到逐像素损失Lp,将Lp引入GAN中使生成的正脸图像更加真实。
2.如权利要求1所述一种基于3D旋转建模的无监督人脸转正方法,其特征在于:步骤1中,面部关键点包括表示人脸外部轮廓关键点,表示左眉毛关键点,表示右眉毛关键点,表示鼻梁关键点,表示鼻孔关键点,表示左眼关键点,表示右眼关键点,表示嘴唇外侧关键点,表示嘴唇内侧关键点。
3.如权利要求1所述一种基于3D旋转建模的无监督人脸转正方法,其特征在于:步骤1中,DepthNet网络由3个卷积层、3个池化层、4个全连接层构成,输入经多层卷积,多层池化,多层全连接输出面部关键点深度值,深度预测网络预先通过AFLW2000-3D数据集进行训练,训练过程表示为z=Depth(x,y),其中,Depth表示深度预测网络,(x,y)表示面部关键点2D坐标,z表示预测得到的关键点深度坐标,不断缩小真实关键点深度坐标zT和预测深度z之间的差值,更新网络权重,得到进行深度预测的网络。
4.如权利要求1所述一种基于3D旋转建模的无监督人脸转正方法,其特征在于:步骤201中,GAN网络由生成器G和判别器构成;其中,生成器由向下采样的编码器和向上采样的解码器组成,生成器的输入为目标正脸图像关键点3D坐标矩阵,目标侧脸图像,目标侧脸图像关键点3D坐标矩阵,输出为目标正脸图像;生成器生成的目标正脸图像经3D拟合、旋转投影后得到生成的目标侧脸图像,与输入的目标侧脸图像一同输入判别器,由判别器判别两者间的真实图像与生成图像;通过不断训练优化,使得判别器难以区分真实图像与生成图像,此时GAN网络达到了收敛的效果。
5.如权利要求1所述一种基于3D旋转建模的无监督人脸转正方法,其特征在于:步骤201中,GAN网络使用损失函数来约束生成的正脸图像解空间,GAN网络的损失函数由以下四部分构成:逐像素损失Lp,身份保留损失Li,生成对抗损失Lg和人脸对称损失Ls,总损失函数表示为
L=λ1Lp2Li3Lg4Ls
式中,λ1,λ2,λ3,λ4表示损失函数各部分的权重,逐像素损失Lp为生成的目标侧脸图像Ipg和输入的侧脸图像Ipose进行逐像素比较的差值,表示为
Figure FDA0003392062470000021
式中,W,H分别表示图像的宽和高,均为128,x,y表示图像像素坐标;
Figure FDA0003392062470000022
为目标侧脸图像Ipg中x,y坐标对应的像素值;
Figure FDA0003392062470000023
为输入的侧脸图像Ipose中x,y坐标对应的像素值;
为保留目标的身份信息,使用一个预训练的LightCNN网络作为特征提取网络使生成的目标侧脸图像Ipg提取的特征与输入的目标侧脸图像Ipose提取的特征接近,身份保留损失Li表示为
Figure FDA0003392062470000024
式中,i表示预训练的LightCNN网络层数,Wi,Hi表示第i层输出特征图的宽和高,x,y表示图像像素坐标;
生成对抗损失Lg表示为:
Figure FDA0003392062470000025
由于人的正脸图像具有对称的性质,因而使用人脸对称损失可以对生成器进行约束使生成的正脸图像更加逼真,人脸对称损失Ls表示为
Figure FDA0003392062470000026
6.如权利要求1所述一种基于3D旋转建模的无监督人脸转正方法,其特征在于:步骤202中,3D拟合的过程可表示为{T,Pf}=Fitting(Ifg)
式中,T表示3D模型的纹理细节,Pf表示此时3D模型的姿势信息,此时姿势为正面姿势,其中Pf={F,Kf},F表示尺度因子,Pf是关于目标正脸图像3D关键点坐标矩阵Kf的函数。
7.如权利要求1所述一种基于3D旋转建模的无监督人脸转正方法,其特征在于:步骤203中,旋转后的3D模型姿势信息变为
Ppose=Pf*R
R表示旋转矩阵,*表示矩阵乘法,旋转矩阵R表示为
Figure FDA0003392062470000031
旋转矩阵R的表达式中θ的取值为[-90°,90°],从0°开始每隔1°计算K′pose,由于缺乏输入侧脸图像角度的相关信息,使用K′pose估计输入侧脸图像角度,用于引导3D模型在角度θ的二维平面进行投影,K′pose表示与角度θ相关的关键点坐标矩阵
K′pose=Kf*R
比较K′pose和侧脸图像的3D关键点坐标矩阵Kpose,找到与Kpose最接近的K′pose,此时K′pose对应的角度θ为输入的侧脸图像角度的估计值;在这一角度上将3D模型在二维平面进行投影,投影后的侧脸图像Ipg可表示为
Ipg=Rend(Ppose,T)。
CN202111467193.8A 2021-12-03 2021-12-03 一种基于3d旋转建模的无监督人脸转正方法 Active CN114283265B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111467193.8A CN114283265B (zh) 2021-12-03 2021-12-03 一种基于3d旋转建模的无监督人脸转正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111467193.8A CN114283265B (zh) 2021-12-03 2021-12-03 一种基于3d旋转建模的无监督人脸转正方法

Publications (2)

Publication Number Publication Date
CN114283265A true CN114283265A (zh) 2022-04-05
CN114283265B CN114283265B (zh) 2024-06-21

Family

ID=80870695

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111467193.8A Active CN114283265B (zh) 2021-12-03 2021-12-03 一种基于3d旋转建模的无监督人脸转正方法

Country Status (1)

Country Link
CN (1) CN114283265B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861400A (zh) * 2023-02-15 2023-03-28 北京百度网讯科技有限公司 目标对象检测方法、训练方法、装置以及电子设备
CN116030512A (zh) * 2022-08-04 2023-04-28 荣耀终端有限公司 注视点检测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363116A (zh) * 2019-06-28 2019-10-22 上海交通大学 基于gld-gan的不规则人脸矫正方法、系统及介质
CN111428667A (zh) * 2020-03-31 2020-07-17 天津中科智能识别产业技术研究院有限公司 一种基于解耦表达学习生成对抗网络的人脸图像转正方法
CN111523497A (zh) * 2020-04-27 2020-08-11 深圳市捷顺科技实业股份有限公司 一种人脸纠正方法、装置和电子设备
WO2021051543A1 (zh) * 2019-09-18 2021-03-25 平安科技(深圳)有限公司 人脸旋转模型的生成方法、装置、计算机设备及存储介质
CN113705358A (zh) * 2021-08-02 2021-11-26 山西警察学院 一种基于特征映射的多角度侧脸正面化方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363116A (zh) * 2019-06-28 2019-10-22 上海交通大学 基于gld-gan的不规则人脸矫正方法、系统及介质
WO2021051543A1 (zh) * 2019-09-18 2021-03-25 平安科技(深圳)有限公司 人脸旋转模型的生成方法、装置、计算机设备及存储介质
CN111428667A (zh) * 2020-03-31 2020-07-17 天津中科智能识别产业技术研究院有限公司 一种基于解耦表达学习生成对抗网络的人脸图像转正方法
CN111523497A (zh) * 2020-04-27 2020-08-11 深圳市捷顺科技实业股份有限公司 一种人脸纠正方法、装置和电子设备
CN113705358A (zh) * 2021-08-02 2021-11-26 山西警察学院 一种基于特征映射的多角度侧脸正面化方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116030512A (zh) * 2022-08-04 2023-04-28 荣耀终端有限公司 注视点检测方法及装置
CN116030512B (zh) * 2022-08-04 2023-10-31 荣耀终端有限公司 注视点检测方法及装置
CN115861400A (zh) * 2023-02-15 2023-03-28 北京百度网讯科技有限公司 目标对象检测方法、训练方法、装置以及电子设备

Also Published As

Publication number Publication date
CN114283265B (zh) 2024-06-21

Similar Documents

Publication Publication Date Title
US11600013B2 (en) Facial features tracker with advanced training for natural rendering of human faces in real-time
CN112766160B (zh) 基于多级属性编码器和注意力机制的人脸替换方法
Hofmann et al. Multi-view 3D human pose estimation in complex environment
Cohen et al. Inference of human postures by classification of 3D human body shape
US20140043329A1 (en) Method of augmented makeover with 3d face modeling and landmark alignment
CN110490158B (zh) 一种基于多级模型的鲁棒人脸对齐方法
US20120306874A1 (en) Method and system for single view image 3 d face synthesis
CN104036546A (zh) 一种基于自适应形变模型的任意视角人脸三维重构方法
Tu et al. Consistent 3d hand reconstruction in video via self-supervised learning
CN113421328B (zh) 一种三维人体虚拟化重建方法及装置
CN114283265B (zh) 一种基于3d旋转建模的无监督人脸转正方法
CN111797688A (zh) 一种基于光流和语义分割的视觉slam方法
Fan et al. Dual neural networks coupling data regression with explicit priors for monocular 3D face reconstruction
Igual et al. Continuous generalized procrustes analysis
Wang et al. Digital twin: Acquiring high-fidelity 3D avatar from a single image
Jung et al. Learning free-form deformation for 3D face reconstruction from in-the-wild images
Kakumanu et al. A local-global graph approach for facial expression recognition
Pham et al. Robust real-time performance-driven 3D face tracking
Caunce et al. Locating facial features and pose estimation using a 3D shape model
Hu et al. Reconstruction of 3D face from a single 2D image for face recognition
CN112380966B (zh) 基于特征点重投影的单眼虹膜匹配方法
CN113468923B (zh) 基于细粒度多模态共同表征的人-物体交互行为检测方法
Bouafif et al. Monocular 3D head reconstruction via prediction and integration of normal vector field
Zhang et al. Human model adaptation for multiview markerless motion capture
CN114862716B (zh) 人脸图像的图像增强方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant