CN114627238A - 一种基于特征感知在双模式人脸变换下的人脸正面化方法 - Google Patents

一种基于特征感知在双模式人脸变换下的人脸正面化方法 Download PDF

Info

Publication number
CN114627238A
CN114627238A CN202210204096.8A CN202210204096A CN114627238A CN 114627238 A CN114627238 A CN 114627238A CN 202210204096 A CN202210204096 A CN 202210204096A CN 114627238 A CN114627238 A CN 114627238A
Authority
CN
China
Prior art keywords
face
model
network
loss
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210204096.8A
Other languages
English (en)
Inventor
梁久祯
乔鼎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou University
Original Assignee
Changzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou University filed Critical Changzhou University
Priority to CN202210204096.8A priority Critical patent/CN114627238A/zh
Publication of CN114627238A publication Critical patent/CN114627238A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及人脸正面化技术领域,尤其涉及一种基于特征感知在双模式人脸变换下的人脸正面化方法,包括S1、输入任意角度的人脸图像;S2、通过3DDFA模型获得3D模型;S3、用3D模型根据任意角度的人脸图像得到正面的有损人脸;S4、将正面的有损人脸输入GAN网络,得到无损的正面人脸。本发明基于双模式的生成对抗网络模型,应对不同姿态下不同特点的人脸正面化问题;借助3D模型能拟合任意姿态人脸的特点,将二维图像拟合到3D模型中,旋转3D模型值某一姿态角实现人脸变换;为了保持正面人脸视图的细节信息,在生成网络中加入了融合内容损失和身份损失的感知损失模块,提高生成正面视图的真实感。

Description

一种基于特征感知在双模式人脸变换下的人脸正面化方法
技术领域
本发明涉及人脸正面化技术领域,尤其涉及一种基于特征感知在双模式人脸变换下的人脸正面化方法。
背景技术
随着深度学习的发展和大量人脸图像的获取,人脸识别方法不仅取得了很大进展,而且应对人脸识别过程中越来越复杂的情况。在姿态不变人脸识别的研究工作中,有两种主流方法,一种是提取并学习不同姿态的人脸特征,另一种是先将人脸统一调整为正脸再进行特征提取。两种方法包含了人脸正面化和特征学习两方面的内容。然而最新的人脸识别方法中,人脸验证基准数据库cfp的frontal-frontal和frontal-profile的性能相差超过10%。RAR实现了由大量数据驱动的无监督人脸正面化模型,在小角度人脸正面化中有很好的效果。DR-GAN、TP-GAN学习了能应用到人脸识别的人脸生成模型,完成大姿态人脸到正脸的转换,取得了一定的成果,但DR-GAN在cfp的frontal-profile的生成识别中的精度不是很高,这也是人脸正面化的难度所在。
目前,人脸正面化方法有基于3D的方法3dmm.hassner,深度学习的方法yim,统计方法。经典3dmm模型中的3D人脸模型由形状和纹理的向量表示,由构成平均人脸的向量的线性组合模拟更多的人脸。15年由hassner等人也采用平均3D模型实现人脸正面化。随着深度网络的发展和大角度人脸正面化的需求,基于深度网络的2D和3D纹理扭曲模型ffgan、ffwm成为主流。Yim是一个典型的2D人脸正面化模型,通过将一张二维图片和Remote Code输入到DNN网络,实现目标姿态人脸重构。随着生成对抗网络Goodfellow的提出,在图像生成方面的应用越来越广泛,更多的基于2DGAN网络的人脸正面化网络不断出现。DRGAN应用GAN网络结构的同时,框架结构与Yim相似。DRGAN输入图像、噪声和姿态编码到其GAN网络中,生成对应的身份表示和目标姿态的人脸。典型的双通道人脸正面视图合成网络就是基于两个网络生成输入图像的局部五官和全局轮廓的正面视图。随着3dmm模型的提出和不断发展,BFM数据库被广泛应用,每一个三维人脸都能用相同的点云数或面片数表示。基于应用3D的人脸正面化方法被提出。HF-PIM引入3D人脸UV贴图与稠密对应场一起输入到基于CNN的wrapper中,生成正面人脸。UV-GAN应用了3DMM模型,获得3D人脸模型对应的UV贴图。贴图中因为角度问题不可见的人脸纹理用噪声填充。最终的结果是通过网络训练生成完整的UV贴图后,再映射到3D模型中,获得包括正面的各个角度的视图。最新的RAR模型利用了3D建模、渲染模型和GAN实现任意角度的旋转和人脸细节的合成。
感知损失函数早在16年就被提出应用到风格转换和超分辨率图像重建,更多的结合对抗网络应用到图像或视频超分辨率的任务中。引入感知损失替代了像素损失,把像素损失归结为MSE回归问题的处理方式,有利于图像因为位移出现像素位置偏差时,仍然能正确判定图像异同的问题。srgan为了实现具有真实感的超分辨率图像重建,提出了内容损失与对抗损失结合的感知损失函数。在感知相似的基础上加入了内容相似的函数,提升超分辨率图像重建的细节。esrgan作为增强型srgan被提出,改进了网络结构,仍然保留感知损失作为超分辨率图像生成的核心损失函数。
发明内容
本发明所要解决的技术问题是:传统模型生成的正面图像容易丢失输入图像的身份特征;传统模型不能很好生成被遮挡部位的特征。
本发明所采用的技术方案是:一种基于特征感知在双模式人脸变换下的人脸正面化方法包括以下步骤:
S1、输入任意角度的人脸图像;
S2、通过3DDFA模型获得3D模型;
人脸形状模型可以表示为一个向量S∈R3N,N是顶点数量,具体公式如下:
Figure BDA0003528459350000031
其中,
Figure BDA0003528459350000032
是平均形状,其中V=[v1,v2,...,vm]∈R3N×m是PCA得到的主成分,α为形状参数;
随着3DMM的不断发展,新的三维人脸学习模型为:
Figure BDA0003528459350000033
其中,
Figure BDA0003528459350000034
是平均形状,其中V=[v1,v2,...,vm]∈R3N×m是PCA得到的主成分,α就是形状参数,ei是形状对应的主成分,将3D人脸模型拟合到2D图像中,通过正交投影投影到二维平面上,有以下公式:
P=f*Pr*R*S+t (3)
其中,Pr是正交投影矩阵,R是旋转矩阵,f是比例因子,t是位移向量,需要求解的模型参数集合为parameters=[f,R,t,α,β]。
S3、用3D模型根据任意角度的人脸图像得到正面的有损人脸;
通过已有3DDFA模型获得3D模型,公式如下,其中I为原始输入图片:
M(P)=Fitting(I) (4)
对应图片的旋转矩阵为R,由于纹理在人脸正面化过程中也起着重要的作用,求解每一个顶点对应的纹理通过垂直(正交)投影,具体表示为:
T=I(V(p)) (5)
其中,P为每个定点的位置信息,v为求纹理的函数,I为求垂直投影的函数;
S4、将正面的有损人脸输入GAN网络,得到无损的正面人脸;
总体网络损失ltotal表示为:
ltotal=λganlGAN+lp (6)
其中,λgan为权重参数,λgan=10,lGAN代表生成对抗网络损失,lp代表特征感知模块损失;
lGAN的具体公式如下:
Figure BDA0003528459350000041
其中,Iinput为原始图像、IGT表示图片的Ground truth、G(Iinput)为生成的虚假图像、pa(IGT)为真实数据分布、pb(Iinput)为造假数据分布;
公式(7)的核心思想是迭代训练生成鉴别网络;输入图像Iinput通过生成网络G试图训练出能够欺骗判别网络D的图像;判别网络训练判别器区分真实图像和有生成网络生成的虚假图像;通过lGAN损失函数,即希望让参数服从pa(IGT)(真实数据分布)时和参数服从pb(Iinput)(造假数据分布)有一个相反的趋势;
特征感知模块损失函数lp公式如下:
Figure BDA0003528459350000042
其中,λcte和λvgg分别代表对应的权重参数,在本文中值分别为1和10,
Figure BDA0003528459350000043
代表输入图像在使用cte网络时分别采用MAE、MSE损失函数的损失值,
Figure BDA0003528459350000044
代表输入图像在使用VGG网络时分别采用MAE、MSE损失函数的损失值。
本发明的有益效果是:
1、基于双模式的生成对抗网络模型,应对不同姿态下不同特点的人脸正面化问题;借助3D模型能拟合任意姿态人脸的特点,将二维图像拟合到3D模型中,旋转3D模型值某一姿态角实现人脸变换;设计了基于人脸变换的两种训练模式的数据对参与训练;为了保持正面人脸视图的细节信息,在生成网络中加入了融合内容损失和身份损失的感知损失模块,提高生成正面视图的真实感。
附图说明
图1是本发明的模型框架图;
图2是本发明的两种模式的姿态变换示意图;
图3是本发明的网络结构图;
图4是本发明内容损失函数的MAE、MSE损失迭代图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明,此图为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
本发明提出的基于特征感知在双模式人脸变换下的人脸正面化方法,可以应对不同姿态下不同特点的人脸正面化问题。为了应对野生人脸数据集,应用了3D人脸模型;不同姿态的人脸拟合到3D模型中完成人脸旋转并渲染到二维平面中,与Groundtruth值组成网络训练的图片对;引入特征感知模块,通过联合两个损失函数训练增强细节特征生成的功能;基于特征感知训练的模型生成的图像在视觉上更具有吸引力,且更易应用于人脸识别。
如图1为本发明的模型框架图,一种基于特征感知在双模式人脸变换下的人脸正面化方法包括以下步骤:
S1、输入任意角度的人脸图像;
S2、通过3DDFA模型获得3D模型;
经典3D可形变模型(3DMM)提出一种人脸形状和外观的统计模型,把仪器扫描得到的三维人脸数据进行PCA降维,由降维后数据的组合变形得到新的三维人脸数据,即新生成的人脸,保证了模型的可变性,具体如公式1所示;随着3DMM的不断发展,经典3DMM中由于3D模型纹理部分学习的困难性,被图片直接提取的纹理替代而不再考虑求解;新的影响人脸形状学习的另一元素表情也变成了需要学习的目标;随之出现了加入表情学习的3DMMexpression模型,其中以BFM模型应用较为广泛;具体如公式2所示。
S3、用3D模型根据任意角度的人脸图像得到正面的有损人脸;
第一种如公式4所示,正面有损失人脸I0,3D人脸模型为M(P),对应的姿态为R;转换模型面部姿态R->R0,得到新的3D人脸模型M(P0);R0为对应正面人脸模型的旋转矩阵,由R乘以旋转矩阵得到,获取输入图像纹理T,由纹理T和旋转后的3D正面人脸模型渲染到2D图像,得到正面有损失人脸I0
第二种为正面有损失人脸I′,输入图像生成的3D人脸模型M(P),对应的姿态为R,转换模型面部姿态,R→Rm,得到新的3D人脸模型M(Pm),Rm为对应目标姿态人脸模型的旋转矩阵,由R乘以旋转矩阵得到,获取输入图像I的纹理T,由纹理和旋转后的3D正面人脸模型渲染为2D有损失人脸Im;第二次获取图像Im的纹理Tm,由纹理Tm和图像I的3D正面人脸模型M(P)渲染到2D图像,得到正面有损失人脸I′;
两种方案的网络输入集合为Iinput={I0,I′},两种方案对应的ground truth集合为IGT={IF,I},IF表示对应输入图像I的正面真实图像;具体姿态转换如图2所示。
S4、将正面的有损人脸输入GAN网络,得到无损的正面人脸;
具体的,该网络包含一个生成网络G和鉴别网络D,把生成对抗网络应用到人脸正面化工作中;公式7通过交替训练生成网络和鉴别网络,解决最大最小问题;
公式7的核心思想是迭代训练生成鉴别网络;Iinput输入到生成网络试图训练生成器生成能够欺骗判别网络的图像G(Iinput);判别网络训练判别器区分真实图像,生成网络生成的虚假图像G(Iinput);生成网络中间有9个ResNet块,每一个块包括两个卷积层,ReLU为激活函数,每个卷积层有3×3的滤波器核,1024个特征图;鉴别网络包括五个卷积层4×4滤波器核的数量不断变化;为了判别网络能正确区分真实或虚假图片,我们适当增加了网络的卷积数,对比不同尺度的图片特征;生成网络和判别网络经过不断的训练解决等式中的最小化最大化问题,图3展示了详细网络结构图。
由于图片的特征感知对重构正面人脸的性能至关重要,采用具有良好身份保持能力的预训练网络VGG,整个感知模块表示为内容损失和身份损失两个模块,具体如公式8所示;在训练过程中,除了保证生成完整的面部图像,网络生成与输入图片相同id(身份表示)的重构图,身份损失应用了预训练的VGG模型,Ground truth和原始图像经过五层网络的输出,计算L损失的加权组合,损失L包括以下三种情况:L={L1,L2,SmoothL1};VGG损失公式如下:
Figure BDA0003528459350000071
其中,σi表示每一层网络输出对应的权重,φ表示每一层网络输出对应的权重,IGT表示图片的Ground truth和Iinput表示原始图片,W和H分别代表图片的宽和高:
SmoothL1损失定义如下:
Figure BDA0003528459350000081
其中,x为公式(9)中
Figure BDA0003528459350000082
的值;
将L1或L2损失改为SmoothL1,因为SmoothL1克服了前者的缺点,在不易受噪声影响(鲁棒)的同时,收敛到更高的精度。
像素引导的MSE内容损失估计为:
Figure BDA0003528459350000083
其中,
Figure BDA0003528459350000084
为Groundtruth中每个像素点的值,G(Iinput)x,y为输入图片经过生成网络后每个像素点的值,W和H分别为图片的宽和高;
在最初的模型训练过程中,MSE损失值较大,随着训练的推进,整理损失值呈现收敛;
由对抗网络损失训练,网络能够生成不同id的人脸,网络加入感知损失训练,能够保证网络生成人脸的身份一致性,随着内容损失参与网络训练,生成人脸的像素也越来越高,将生成对抗网络损失表示为lGAN,则总体损失表示为公式8;MAE、MSE的损失变化如图4所示。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (8)

1.一种基于特征感知在双模式人脸变换下的人脸正面化方法,其特征在于,包括以下步骤:
S1、输入任意角度的人脸图像;
S2、通过3DDFA模型获得3D模型;
S3、用3D模型根据任意角度的人脸图像得到正面的有损人脸;
S4、将正面的有损人脸输入GAN网络,得到无损的正面人脸。
2.根据权利要求1所述的基于特征感知在双模式人脸变换下的人脸正面化方法,其特征在于,所述通过3DDFA模型获得3D模型的公式为:
Figure FDA0003528459340000011
其中,人脸形状模型表示为一个向量S∈R3N,N是顶点数量,
Figure FDA0003528459340000012
是平均形状,其中V=[v1,v2,...,vm]∈R3N×m是PCA得到的主成分,α就是形状参数,ei是形状对应的主成分,将3D人脸模型拟合到2D图像中,通过正交投影投影到二维平面上,有以下公式:
P=f*Pr*R*S+t (3)
其中,Pr是正交投影矩阵,R是旋转矩阵,f是比例因子,t是位移向量,求解的模型参数集合为parameters=[f,R,t,α,β]。
3.根据权利要求1所述的基于特征感知在双模式人脸变换下的人脸正面化方法,其特征在于:所述得到正面的有损人脸是将正面有损失人脸I0与正面有损人脸I′输入集合为Iinput={I0,I′},对应的ground truth集合为IGT={IF,I},IF表示对应输入图像I的正面真实图像。
4.根据权利要求3所述的基于特征感知在双模式人脸变换下的人脸正面化方法,其特征在于,所述正面有损失人脸I0包括:将3D人脸模型M(P)对应的姿态为R,转换模型面部姿态R->R0,得到新的3D人脸模型M(P0);R0为对应正面人脸模型的旋转矩阵,由R乘以旋转矩阵得到,获取输入图像纹理T,由纹理T和旋转后的3D正面人脸模型渲染到2D图像,得到正面有损失人脸I0
5.根据权利要求3所述的基于特征感知在双模式人脸变换下的人脸正面化方法,其特征在于,所述正面有损失人脸I′是将3D人脸模型M(P)对应的姿态为R转换模型面部姿态,R→Rm,得到新的3D人脸模型M(Pm),Rm为对应目标姿态人脸模型的旋转矩阵,由R乘以旋转矩阵得到,获取输入图像I的纹理T,由纹理和旋转后的3D正面人脸模型渲染为2D正面有损失人脸Im;获取图像Im的纹理Tm,由纹理Tm和图像I的3D正面人脸模型M(P)渲染到2D图像,得到正面有损失人脸I′。
6.根据权利要求1所述的基于特征感知在双模式人脸变换下的人脸正面化方法,其特征在于:所述将正面的有损人脸输入GAN网络,得到无损的正面人脸是把生成对抗网络应用到人脸正面化工作中,通过交替训练生成网络和鉴别网络,生成对抗网络损失表示为lGAN,lGAN公式如下:
Figure FDA0003528459340000021
其中,Iinput为原始图像、IGT表示图片的Ground truth、G(Iinput)为生成的虚假图像、pa(IGT)为真实数据分布、pb(Iinput)为造假数据分布;
采用具有良好身份保持能力的预训练网络VGG,整个感知模块表示为内容损失和身份损失两个模块,特征感知模块损失函数lp公式如下:
Figure FDA0003528459340000022
其中,
Figure FDA0003528459340000023
代表输入图像使用cte网络时分别采用MAE、MSE损失函数的损失值,
Figure FDA0003528459340000024
代表输入图像在使用VGG网络时分别采用MAE、MSE损失函数的损失值,λcte和λvgg分别代表
Figure FDA0003528459340000025
Figure FDA0003528459340000026
的权重参数;
在训练过程中,除了保证生成完整的面部图像,网络生成与输入图片相同id的重构图,身份损失应用了预训练的VGG模型,图片的Ground truth和原始图像经过五层网络的输出,计算L损失的加权组合。
7.根据权利要求6所述的基于特征感知在双模式人脸变换下的人脸正面化方法,其特征在于:所述损失L包括三种情况:L={L1,L2,SmoothL1};
VGG损失定义如下:
Figure FDA0003528459340000031
其中,σi表示每一层网络输出对应的权重、φ表示每一层网络输出对应的权重,IGT表示图片的Ground truth和Iinput表示原始图片,W和H分别代表图片的宽和高:
SmoothL1损失定义如下:
Figure FDA0003528459340000032
其中,x为公式(9)中
Figure FDA0003528459340000033
的值;
将L1或L2损失改为SmoothL1,像素引导的MSE内容损失估计为:
Figure FDA0003528459340000034
其中,
Figure FDA0003528459340000035
为Groundtruth中每个像素点的值,G(Iinput)x,y为输入图片经过生成网络后每个像素点的值,W和H分别为图片的宽和高。
8.根据权利要求6所述的基于特征感知在双模式人脸变换下的人脸正面化方法,其特征在于:所述鉴别网络是将Iinput输入到生成网络试图训练生成器生成欺骗判别网络的图像G(Iinput);判别网络训练判别器区分真实图像,生成网络生成的虚假图像G(Iinput);生成网络中间有9个ResNet块,每一个块包括两个卷积层,ReLU为激活函数,每个卷积层有3×3的滤波器核,1024个特征图;鉴别网络包括五个卷积层4×4滤波器。
CN202210204096.8A 2022-03-02 2022-03-02 一种基于特征感知在双模式人脸变换下的人脸正面化方法 Pending CN114627238A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210204096.8A CN114627238A (zh) 2022-03-02 2022-03-02 一种基于特征感知在双模式人脸变换下的人脸正面化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210204096.8A CN114627238A (zh) 2022-03-02 2022-03-02 一种基于特征感知在双模式人脸变换下的人脸正面化方法

Publications (1)

Publication Number Publication Date
CN114627238A true CN114627238A (zh) 2022-06-14

Family

ID=81900221

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210204096.8A Pending CN114627238A (zh) 2022-03-02 2022-03-02 一种基于特征感知在双模式人脸变换下的人脸正面化方法

Country Status (1)

Country Link
CN (1) CN114627238A (zh)

Similar Documents

Publication Publication Date Title
CN109255831B (zh) 基于多任务学习的单视图人脸三维重建及纹理生成的方法
CN112766160B (zh) 基于多级属性编码器和注意力机制的人脸替换方法
Dolhansky et al. Eye in-painting with exemplar generative adversarial networks
Tran et al. Nonlinear 3d face morphable model
CN101916454B (zh) 基于网格变形和连续优化的高分辨率人脸重建方法
Ichim et al. Dynamic 3D avatar creation from hand-held video input
Lattas et al. Avatarme++: Facial shape and brdf inference with photorealistic rendering-aware gans
DE69934478T2 (de) Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
CN108334816A (zh) 基于轮廓对称约束生成式对抗网络的多姿态人脸识别方法
CN112085836A (zh) 一种基于图卷积神经网络的三维人脸重建方法
CN106683182A (zh) 一种权衡立体匹配和视觉外形的三维重建方法
Fyffe et al. Multi‐view stereo on consistent face topology
CN116109798B (zh) 图像数据处理方法、装置、设备及介质
Lin et al. Meingame: Create a game character face from a single portrait
CN110796593A (zh) 基于人工智能的图像处理方法、装置、介质及电子设备
KR20090092473A (ko) 3차원 변형 가능 형상 모델에 기반한 3차원 얼굴 모델링방법
US20240029345A1 (en) Methods and system for generating 3d virtual objects
WO2021140510A2 (en) Large-scale generation of photorealistic 3d models
CN113052976A (zh) 基于uv位置图与cgan的单图像大姿态三维彩色人脸重建方法
US20230154101A1 (en) Techniques for multi-view neural object modeling
Kang et al. Competitive learning of facial fitting and synthesis using uv energy
CN113724354A (zh) 基于参考图颜色风格的灰度图像着色方法
CN116416376A (zh) 一种三维头发的重建方法、系统、电子设备及存储介质
EP4214685A1 (en) Methods and systems for forming personalized 3d head and facial models
Khan et al. Towards monocular neural facial depth estimation: Past, present, and future

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination