CN114119874A - 基于gan的单图重建高清3d面部纹理的方法 - Google Patents

基于gan的单图重建高清3d面部纹理的方法 Download PDF

Info

Publication number
CN114119874A
CN114119874A CN202111412652.2A CN202111412652A CN114119874A CN 114119874 A CN114119874 A CN 114119874A CN 202111412652 A CN202111412652 A CN 202111412652A CN 114119874 A CN114119874 A CN 114119874A
Authority
CN
China
Prior art keywords
face
texture
network
definition
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111412652.2A
Other languages
English (en)
Other versions
CN114119874B (zh
Inventor
金博
林佳
王祥丰
朱骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202111412652.2A priority Critical patent/CN114119874B/zh
Priority claimed from CN202111412652.2A external-priority patent/CN114119874B/zh
Publication of CN114119874A publication Critical patent/CN114119874A/zh
Application granted granted Critical
Publication of CN114119874B publication Critical patent/CN114119874B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于GAN的单图重建高清3D面部纹理的方法,通过人脸数据集训练带有瓶颈残差块的生成网络,也即人脸密集对齐网络,并进一步基于DANF生成高清面部纹理数据集用于训练带有残差密集块的超分辨率网络,也即增强型纹理超分辨率生成对抗网络,最后通过训练后的ETSRGAN生成相应的高清面部纹理;本发明引入纹理超清并考虑不同角度的人脸图像,采用基于GAN的模型对单图重构的3D模型进行重新建模,能够有效地生成高清的面部纹理。

Description

基于GAN的单图重建高清3D面部纹理的方法
技术领域
本发明涉及的是一种图像处理领域的技术,具体是一种基于GAN的单图重建高清3D面部纹理的方法。
背景技术
现有3D人脸重建方法也即通过设计网络结构让模型学习3DMM参数。三维密集脸部对齐技术(3DDFA)[Zhu X,Zhen L,Liu X,et al.Face AlignmentAcross Large Poses:A3D Solution[C]//2016 IEEE Conference on Computer Vision and PatternRecognition(CVPR).IEEE,2016.]第一次在人脸对齐中引入卷积神经网络,这种做法在解决人脸重构问题上就相当于将3D人脸模型转换为图像问题解决。3DMM CNN[Tran AT,Hassner T,Masi I,et al.Regressing Robust and Discriminative 3D MorphableModels with a Very Deep Neural Network[J].IEEE,2017.]则是一个非常简单的回归模型,它使用ResNet101网络直接回归出3DMM的形状系数和纹理系数。微软的基于弱监督学习的精确3D人脸重建[Deng Y,Yang J,Xu S,et al.Accurate 3D Face Reconstructionwith Weakly-Supervised Learning:From Single Image to Image Set[J].2019.]引入一种同时考虑像素级别和感知级别的鲁棒的损失函数。2DASL[Tu X,Zhao J,Xie M,etal.3D face reconstruction from a single image assisted by 2D face images inthe wild[J].IEEE Transactions on Multimedia,2020.]引入自监督的思想,目的是为当前2D对应3D的数据集太少带来的模型效果不够好的结果。
尽管基于深度学习的3D人脸重建算法能够快速地生成输入图像的3D模型结果,但在训练过程中仍然面临许多的问题。一是高质量标注数据的缺乏,对于一个3D模型,通常由3D扫描仪器进行扫描,如果统一拓扑结构,那么还需要对扫描后的3D结果进行清洗重构。非常耗费时间以及金钱。对于高质量标注数据缺乏的问题,通常采用的是利用关键点拟合方法。如何更好的利用当前已有的高质量标注数据是个重要的突破口。二是3D人脸重建的精度问题,目前3D人脸重建存在两种方向,一种是训练模型拟合人脸参数,一种是训练模型直接拟合3D人脸顶点。这两种方式各有优缺点,如何优化模型框架来提高重建精度是个亟需解决的问题。三是重建出来的人脸的纹理清晰度,单图3D人脸重建存在一个很明显的问题就是重建出来的纹理十分依赖给定图像的分辨率,如何能够保证重建模型的清晰度下限则十分重要。
发明内容
本发明针对现有技术无法对带有噪声(如带有光线)的图像进行细致的超分辨率处理等不足,提出一种基于GAN的单图重建高清3D面部纹理的方法,引入纹理超清并考虑不同角度的人脸图像,采用基于GAN的模型对单图重构的3D模型进行重新建模,能够有效地生成高清的面部纹理。
本发明是通过以下技术方案实现的:
本发明涉及一种基于GAN的单图重建高清3D面部纹理的方法,通过人脸数据集训练带有瓶颈残差块的生成网络,也即人脸密集对齐网络(Dense Alignment Netfor Face,DANF),并进一步基于DANF生成高清面部纹理数据集用于训练带有残差密集块的超分辨率网络,也即增强型纹理超分辨率生成对抗网络(Enhanced Texture Super-ResolutionGenerative Adversarial Networks,ETSRGAN),最后通过训练后的ETSRGAN生成相应的高清面部纹理。
所述的增强型纹理超分辨率生成对抗网络包括:依次相连的第一卷积层、若干密集残差块、第二卷积层、上采样层、第三和第四卷积层。
技术效果
本发明通过数据集拉伸算法和人脸密集对齐网络,并引入增强型纹理超分辨率生成对抗网络,将相对判别器改为绝对判别器,能够提升3D人脸对齐精度并将3D人脸重建结果提升至1K分辨率。与现有技术相比,本发明对人脸数据集的人脸关键点的边界部分进行扩充1.58倍裁剪,获取裁剪图像以及对应的人脸关键点后,将裁剪图像以及对应的人脸关键点进行上下压缩3/4和左右压缩3/4后对人脸关键点的边界部分再次进行扩充1.58倍裁剪,最后利用变换后的所有图像以及对应的人脸关键点进行3DMMFitting获取最终所需的人脸图像与对应的人脸参数数据对。
附图说明
图1为本发明流程图;
图2为实施例网络模型示意图(图中人物为虚构)。
具体实施方式
如图1所示,为本实施例涉及一种基于GAN的单图重建高清3D面部纹理的方法,本实施例采用人脸数据集300W-LP,利用Python进行以下处理:
步骤一:对人脸数据集按照预先标注的面部关键点确定裁剪范围,以对图像进行裁剪,得到目标尺寸的预处理数据,并对预处理数据比例划分为训练集和测试集,具体为:对68个人脸关键点的边界部分进行扩充1.58倍裁剪,获取裁剪图像以及对应的68个人脸关键点后,将裁剪图像以及对应的人脸关键点依次进行:±60°、±45°、±30°、±15°的旋转、翻转、上下压缩3/4和左右压缩3/4后对人脸关键点的边界部分再次进行扩充1.58倍裁剪,最后利用变换后的所有图像以及对应的人脸关键点进行3DMMFitting获取最终所需的人脸图像与对应的人脸参数数据对。
所述的划分,对预处理得到的数据按照8:1:1的比例划分为训练集、验证集和测试集。
步骤二:将训练集输入至人脸密集对齐网络得到人脸参数表示;
所述的人脸参数表示包括:缩放参数TGT∈R3×3、平移参数offsetGT∈R1×3、人脸参数αGT∈R50;T∈R3×3、offset∈R1×3、α∈R50,其中:GT表示真实值。
所述的带有瓶颈残差块的生成网络结合MobileNet-V1与MobileNet-V2,将其中MobileNet-V1的深度可分块改为MobileNet-V2的瓶颈残差块,包括:标准卷积核层、若干瓶颈残差块、平均池化层和全连接层,其中:每一个瓶颈残差块均采用先升维再降维的结构。
所述的瓶颈残差块均包括:1×1的卷积核、3×3各通道分别卷积、1×1的卷积核。
步骤三:通过调用Pytorch和Python程序包,根据人脸参数表示计算人脸参数对齐损失人脸参数对齐损失Lpara=||wT·Tdiff||+||woffset·offsetDiff||+||wα·αdiff||,其中:权重wT∈R3×3,woffset∈R1×3,wα∈R50并且wT=Tdiff·||S||,
Figure BDA0003374201590000031
wα=f·αdiff·||A||,缩放参数对齐差异Tdiff=abs(TGT)-abs(T),平移参数对齐差异offsetDiff=abs(offsetGT)-abs(offset),人脸参数对齐差异αdiff=abs(αGT)-abs(α),A为形状和表情基,f为缩放因子,VN为人脸顶点数;
Figure BDA0003374201590000032
为3DDFA([Zhu X,Zhen L,Liu X,etal.Face Alignment Across Large Poses:A 3D Solution[C]//2016 IEEE Conferenceon Computer Vision and Pattern Recognition(CVPR).IEEE,2016.])提供的平均人脸模型。
步骤四:根据人脸参数表示以及平均人脸模型
Figure BDA0003374201590000033
计算人脸顶点对齐损失Lvec=SGT-S,其中:
Figure BDA0003374201590000034
所述的人脸密集对齐网络,其训练的目标函数为Ltotal=Lpara+Lvec;通过调用Pytorch中的反向传播等优化函数,根据目标函数训练人脸密集对齐网络的参数,直到损失收敛。
步骤五:利用人脸密集对齐网络构建高清面部纹理数据集,并对预处理数据比例划分为训练集和测试集。
所述的高清面部纹理数据集,通过以下方式得到:
i)采用基于StyleGAN的SeePrettyFace公开的高清人脸生成预处理模型快速生成大量的人物侧面高清照片;
所述的高清人脸生成预处理模型采用但不限于StyleGAN2([Karras T,Laine S,Aittala M,et al.Analyzingand Improving the Image Quality of StyleGAN[C]//2020IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).IEEE,2020.])
ii)利用已训练的人脸密集对齐网络对步骤ii)得到的人物侧面高清照片生成对应的高清残缺纹理,通过侧面完整纹理部分对称获得高清完整纹理数据集;
iii)对步骤ii)得到的每张完整纹理增加虚假光照以及虚假阴影,最终获取低分辨率残缺光照纹理(256,256)与高分辨率完整无光照纹理(1024,1024)作为面部纹理训练集。
步骤六:将步骤五得到的训练集输入至带有残差密集块的超分辨率网络得到超分辨率面部纹理St
所述的增强型纹理超分辨率生成对抗网络以ESRGAN([X Wang,K Yu,S Wu,etal.ESRGAN:Enhanced Super-Resolution Generative Adversarial Networks[c]//Computer Science-Computer Vision and Pattern Recognition(CVPR).IEEE,2018.])为基础,具体包括:依次相连的第一卷积层、若干密集残差块、第二卷积层、上采样层、第三和第四卷积层,其中:第一卷积层根据输入的图像信息,获取第一次卷积结果,若干密集残差块根据第一次卷积结果信息,进行多次密集残差处理,再进行第二次卷积,进一步的,上采样层根据二次卷积结果,进行上采样处理,输出上采样结果,第三卷积层进行卷积处理,输出第三次卷积结果,第四卷积层根据三次卷积信息,进行最后一次的卷积处理,输出超分辨率的面部纹理结果。
所述的卷积层的卷积核大小为3,步长为1,填充大小为1。
所述的密集残差块由三个密集块组成,每个密集快进一步由五个卷积层组成。
步骤七:根据步骤六训练得到的超分辨率面部纹理St和步骤五得到的训练样本的真值,通过计算感知损失Lpercep、对抗损失
Figure BDA0003374201590000041
对增强型纹理超分辨率生成对抗网络进行训练,包括以下步骤:
e1.初始化批量大小的低分辨率纹理LDTextureBatch以及对应的高分辨率纹理HDTextureBatch;
e2.通过ESRGAN网络的生成网络G获取生成结果;
e3.最小化损失函数LD
Figure BDA0003374201590000042
通过反向传播更新判别网络参数θD
e4.最小化感知损失Lpercep
Figure BDA0003374201590000043
其中:LVGG/i,j为最小均方误差:
Figure BDA0003374201590000044
e5.最小化损失函数LG
Figure BDA0003374201590000045
通过反向传播更新生成网络参数θG
步骤八:利用步骤三及步骤四训练得到的人脸密集对齐网络和步骤七训练得到的增强型纹理超分辨率生成对抗网络根据步骤一中的测试集生成相应的高清3D面部纹理。
如图2所示,为本实施例涉及的一种实现上述方法的基于GAN的单图重建高清3D人脸的系统,包括:人脸密集对齐网络和增强型纹理超分辨率生成对抗网络,其中:人脸密集对齐网络根据输入的包含人脸的图像信息得到预测的人脸参数结果,增强型纹理超分辨率生成对抗网络根据预测的人脸参数结果中的低分辨率面部纹理信息,进行超分辨率处理,得到1K分辨率的面部纹理结果,最终结合预测的人脸参数结果中的3D人脸模型与1K分辨率的面部纹理结果,产生最终的3D高清面部纹理。
经过具体实际实验,在Tesla P40 GPU,Python PyTorch框架的具体环境设置下,λ=10-4的固定学习率从头开始训练50期,批量大小为1024,训练时间在40小时左右,模型训练数据大小均为120×120分辨率,项目在平均推断时间上为23ms。
与现有技术相比,本方法利用对人脸数据集的拉伸算法以及提出的DANF网络能够提升人脸对齐精度,例如对于3DDFA测试集,采用归一化平均误差(NME)来评估对准精度,3DDFA的对准精度误差在0.0698,本方法的对准精度误差在0.05712,提升了18.1%。本发明通过利用增强型纹理超分辨率生成对抗网络能够将生成的3D人脸模型面部纹理提升至1K。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。

Claims (7)

1.一种基于GAN的单图重建高清3D面部纹理的方法,其特征在于,通过人脸数据集训练带有瓶颈残差块的生成网络,也即人脸密集对齐网络,并进一步基于DANF生成高清面部纹理数据集用于训练带有残差密集块的超分辨率网络,也即增强型纹理超分辨率生成对抗网络,最后通过训练后的ETSRGAN生成相应的高清面部纹理;
所述的人脸密集对齐网络包括:标准卷积核层、若干瓶颈残差块、平均池化层和全连接层,其中:每一个瓶颈残差块均采用先升维再降维的结构;
所述的增强型纹理超分辨率生成对抗网络包括:依次相连的第一卷积层、若干密集残差块、第二卷积层、上采样层、第三和第四卷积层。
2.根据权利要求1所述的基于GAN的单图重建高清3D面部纹理的方法,其特征是,所述的高清面部纹理数据集,通过以下方式得到:
i)采用基于StyleGAN的SeePrettyFace公开的高清人脸生成预处理模型快速生成大量的人物侧面高清照片;
ii)利用已训练的人脸密集对齐网络对步骤ii)得到的人物侧面高清照片生成对应的高清残缺纹理,通过侧面完整纹理部分对称获得高清完整纹理数据集;
iii)对步骤ii)得到的每张完整纹理增加虚假光照以及虚假阴影,最终获取低分辨率残缺光照纹理(256,256)与高分辨率完整无光照纹理(1024,1024)作为面部纹理训练集。
3.根据权利要求1所述的基于GAN的单图重建高清3D面部纹理的方法,其特征是,所述的密集残差块由三个密集块组成,每个密集快进一步由五个卷积层组成。
4.根据权利要求1~3中任一所述的基于GAN的单图重建高清3D面部纹理的方法,其特征是,具体包括:
步骤一:对人脸数据集按照预先标注的面部关键点确定裁剪范围,以对图像进行裁剪,得到目标尺寸的预处理数据,并对预处理数据比例划分为训练集和测试集;
步骤二:将训练集输入至人脸密集对齐网络得到包括缩放参数TGT∈R3×3、平移参数offsetGT∈R1×3、人脸参数αGT∈R50;T∈R3×3、offset∈R1×3、α∈R50的人脸参数表示,其中:GT表示真实值;
步骤三:通过调用Pytorch和Python程序包,根据人脸参数表示计算人脸参数对齐损失人脸参数对齐损失Lpara=||wT·Tdiff||+||woffset·offsetDiff||+||wα·αdiff||,其中:权重wT∈R3×3,woffset∈R1×3,wα∈R50并且wT=Tdiff·||S||,
Figure FDA0003374201580000021
wα=f·αdiff·||A||,缩放参数对齐差异Tdiff=abs(TGT)-abs(T),平移参数对齐差异offsetDiff=abs(offsetGT)-abs(offset),人脸参数对齐差异αdiff=abs(αGT)-abs(α),A为形状和表情基,f为缩放因子,VN为人脸顶点数;
Figure FDA0003374201580000022
Figure FDA0003374201580000023
为3DDFA提供的平均人脸模型;
步骤四:根据人脸参数表示以及平均人脸模型
Figure FDA0003374201580000024
计算人脸顶点对齐损失Lvec=SGT-S,其中:
Figure FDA0003374201580000025
该人脸密集对齐网络的目标函数为Ltota2=Lpara+Lvec;通过调用Pytorch中的反向传播等优化函数,根据目标函数训练人脸密集对齐网络的参数,直到损失收敛;
步骤五:利用人脸密集对齐网络构建高清面部纹理数据集,并对预处理数据比例划分为训练集和测试集;
步骤六:将步骤五得到的训练集输入至带有残差密集块的超分辨率网络得到超分辨率面部纹理St
步骤七:根据步骤六训练得到的超分辨率面部纹理St和步骤五得到的训练样本的真值,通过计算感知损失Lpercep、对抗损失
Figure FDA0003374201580000026
对增强型纹理超分辨率生成对抗网络进行训练;
步骤八:利用步骤三及步骤四训练得到的人脸密集对齐网络和步骤七训练得到的增强型纹理超分辨率生成对抗网络根据步骤一中的测试集生成相应的高清3D面部纹理。
5.根据权利要求4所述的基于GAN的单图重建高清3D面部纹理的方法,其特征是,所述的预处理数据,具体为:对68个人脸关键点的边界部分进行扩充1.58倍裁剪,获取裁剪图像以及对应的68个人脸关键点后,将裁剪图像以及对应的人脸关键点依次进行:±60°、±45°、±30°、±15°的旋转、翻转、上下压缩3/4和左右压缩3/4后对人脸关键点的边界部分再次进行扩充1.58倍裁剪,最后利用变换后的所有图像以及对应的人脸关键点进行3DMMFitting获取最终所需的人脸图像与对应的人脸参数数据对。
6.根据权利要求4所述的基于GAN的单图重建高清3D面部纹理的方法,其特征是,所述的步骤七,具体包括:
e1.初始化批量大小的低分辨率纹理LDTextureBatch以及对应的高分辨率纹理HDTextureBatch;
e2.通过ESRGAN网络的生成网络G获取生成结果;
e3.最小化损失函数LD
Figure FDA0003374201580000027
通过反向传播更新判别网络参数θD
e4.最小化感知损失Lpercep
Figure FDA0003374201580000031
其中:
Figure FDA0003374201580000034
为最小均方误差:
Figure FDA0003374201580000032
e5.最小化损失函数LG
Figure FDA0003374201580000033
通过反向传播更新生成网络参数θG
7.一种实现权利要求1~6中任一所述基于GAN的单图重建高清3D面部纹理的方法的系统,其特征在于,包括:人脸密集对齐网络和增强型纹理超分辨率生成对抗网络,其中:人脸密集对齐网络根据输入的包含人脸的图像信息得到预测的人脸参数结果,增强型纹理超分辨率生成对抗网络根据预测的人脸参数结果中的低分辨率面部纹理信息,进行超分辨率处理,得到1K分辨率的面部纹理结果,最终结合预测的人脸参数结果中的3D人脸模型与1K分辨率的面部纹理结果,产生最终的3D高清面部纹理。
CN202111412652.2A 2021-11-25 基于gan的单图重建高清3d面部纹理的方法 Active CN114119874B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111412652.2A CN114119874B (zh) 2021-11-25 基于gan的单图重建高清3d面部纹理的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111412652.2A CN114119874B (zh) 2021-11-25 基于gan的单图重建高清3d面部纹理的方法

Publications (2)

Publication Number Publication Date
CN114119874A true CN114119874A (zh) 2022-03-01
CN114119874B CN114119874B (zh) 2024-10-22

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115376188A (zh) * 2022-08-17 2022-11-22 天翼爱音乐文化科技有限公司 一种视频通话处理方法、系统、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020252764A1 (en) * 2019-06-21 2020-12-24 Intel Corporation Adaptive deep learning model for noisy image super-resolution
US20210201078A1 (en) * 2017-04-07 2021-07-01 Intel Corporation Methods and systems for advanced and augmented training of deep neural networks using synthetic data and innovative generative networks
US20210232803A1 (en) * 2020-01-23 2021-07-29 Northeastern University Frontal Face Synthesis from Low-Resolution Images
CN113191950A (zh) * 2021-05-07 2021-07-30 西南交通大学 一种超分辨率人脸图像重建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210201078A1 (en) * 2017-04-07 2021-07-01 Intel Corporation Methods and systems for advanced and augmented training of deep neural networks using synthetic data and innovative generative networks
WO2020252764A1 (en) * 2019-06-21 2020-12-24 Intel Corporation Adaptive deep learning model for noisy image super-resolution
US20210232803A1 (en) * 2020-01-23 2021-07-29 Northeastern University Frontal Face Synthesis from Low-Resolution Images
CN113191950A (zh) * 2021-05-07 2021-07-30 西南交通大学 一种超分辨率人脸图像重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WANG, X. 等: "ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks", 《COMPUTER VISION – ECCV 2018 WORKSHOPS. ECCV 2018. LECTURE NOTES IN COMPUTER SCIENCE》, vol. 11133, 23 January 2019 (2019-01-23), pages 63 - 79, XP047501241, DOI: 10.1007/978-3-030-11021-5_5 *
林佳: "基于GAN的大角度单图重建高清3D人脸算法", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 04, 15 April 2022 (2022-04-15), pages 138 - 1194 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115376188A (zh) * 2022-08-17 2022-11-22 天翼爱音乐文化科技有限公司 一种视频通话处理方法、系统、电子设备及存储介质
CN115376188B (zh) * 2022-08-17 2023-10-24 天翼爱音乐文化科技有限公司 一种视频通话处理方法、系统、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN109255831B (zh) 基于多任务学习的单视图人脸三维重建及纹理生成的方法
CN110443842B (zh) 基于视角融合的深度图预测方法
CN110390638B (zh) 一种高分辨率三维体素模型重建方法
Simo-Serra et al. Real-time data-driven interactive rough sketch inking
Kopf et al. Depixelizing pixel art
CN111194550B (zh) 处理3d视频内容
CN111553858B (zh) 基于生成对抗网络的图像修复方法、系统及其应用
CN114782634B (zh) 基于表面隐函数的单目图像着装人体重建方法与系统
US11727628B2 (en) Neural opacity point cloud
CN114998515B (zh) 一种基于多视角图像的3d人体自监督重建方法
CN108197555B (zh) 一种基于人脸追踪的实时人脸融合方法
US20230031750A1 (en) Topologically consistent multi-view face inference using volumetric sampling
CN112818860B (zh) 基于端到端多任务多尺度神经网络的实时三维人脸重建方法
Cheng et al. Dense point cloud completion based on generative adversarial network
CN115115805A (zh) 三维重建模型的训练方法、装置、设备及存储介质
CN114758070B (zh) 基于跨域多任务的单张图像三维人体精细重建方法
CN116109757A (zh) 基于内蕴坐标的哈希编码的动态三维人体渲染合成方法
Jiang et al. 3d points splatting for real-time dynamic hand reconstruction
Gai et al. EGRA-NeRF: Edge-guided ray allocation for neural radiance fields
CN117501313A (zh) 基于深度神经网络的毛发渲染系统
CN115082636B (zh) 基于混合高斯网络的单图像三维重建方法及设备
CN116485892A (zh) 一种弱纹理物体的六自由度位姿估计方法
CN114119874A (zh) 基于gan的单图重建高清3d面部纹理的方法
CN115761801A (zh) 一种基于视频时序信息的三维人体姿态迁移方法
CN114119874B (zh) 基于gan的单图重建高清3d面部纹理的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant