CN112184542A - 姿势导引的风格保持人体图像生成方法 - Google Patents

姿势导引的风格保持人体图像生成方法 Download PDF

Info

Publication number
CN112184542A
CN112184542A CN202010691722.1A CN202010691722A CN112184542A CN 112184542 A CN112184542 A CN 112184542A CN 202010691722 A CN202010691722 A CN 202010691722A CN 112184542 A CN112184542 A CN 112184542A
Authority
CN
China
Prior art keywords
image
style
generation method
guided
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010691722.1A
Other languages
English (en)
Inventor
周世哲
刘增玉
李义文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202010691722.1A priority Critical patent/CN112184542A/zh
Publication of CN112184542A publication Critical patent/CN112184542A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于深层的条件生成对抗网络,自动生成特定人物在新的视点和不同姿势下的图像方法。本发明设计的损失功能将更好地保存原始图像可见的外观细节,且采用的神经网络能使从源图像中消失的身体部位产生幻象。其中,网络整体结构包含:一个U型网络生成器,结合可变自动编码器,以及一个可同时训练的鉴别器。本发明能够根据输入的源图像和N=17个关节的二维骨架姿势图像,训练模型生成所需姿势的同一个人的图像。针对大多数现有方法尚未能解决的颜色误解和纹理图案失真的问题,实验效果良好,无批量错误产出。本发明结合多尺度样式损失来解决纹理特征的一致性问题,很好地克服了部分遮挡问题,从而显著提高了结果的准确性。

Description

姿势导引的风格保持人体图像生成方法
技术领域
本发明涉及图片生成领域,尤其涉及一种姿势导引的风格保持人体图像生成方法。
背景技术
在计算机图形和图像处理社区中,生成逼真的人的图像是一项长期而艰巨的挑战,并且已经激发了广泛的应用,例如,人员重新识别训练数据集的增强,电影角色的制作以及基于合成图像的图像检索。最近的研究工作表明,深度神经网络是自动图像生成中的强大工具,尤其是通过使用给定数据集训练的生成对抗网络(GANs)和变异自动编码器(VAE)可以生成具有以下特征的数据:训练数据集的共同属性。此外,条件生成对抗网络(cGAN)可以根据一些条件变量(例如,标签或其他图像)来合成图像。通常,上述方法用于合成具有形状不变性和对称性的非关节物体,例如人脸,建筑物和汽车。但是,生成人体图像是一项更具挑战性的任务,因为人体具有复杂的铰接和非刚性结构,并且自由度明显更高。
为了生成人类图像,越来越多的研究人员开始关注设计具有某些条件的新型网络,例如一对参考人类图像和骨骼姿势图像作为此任务的输入。最近的工作提出了使用多阶段生成方法从单视图图像生成多视图人类图像的方法,该方法分别专注于生成全局人体形状和外观细节。相反,Esser等人使用端到端训练方法以所需姿势合成新颖人物图像。他们提出了带有两个编码器的可变U-Net 框架,分别用于对外观和形状信息进行建模。两种方法都可以将参考图像上的人物转移到目标姿势。但是,图像质量在视觉上不能令人满意。因此,生成轮廓清晰,外观细腻的人体图像仍然是一个未解决的问题。
发明内容
(一)要解决的技术问题
本发明的目的在于提供一种基于深度神经网络技术,以姿势导引的风格保持人体图像生成方法,以解决上述的至少一项技术问题。
(二)技术方案
本发明提供了一种姿势导引的风格保持人体图像生成方法的网络架构,包括:
图像生成器模块,用于接收N=17个关节的二维骨架姿势图像和参考人物图像,生成具有与源图像相同大小的新图像。
鉴别器模块,用于将每个真实或生成的样本建模为无向概率图,对整个图像进行卷积运算,对所有响应求平均值,以获得最终输出。
在本发明的一些实施例中,所述图像生成器模块包括:
编码器
Figure BDA0002589615410000021
用于在训练期间,将N=17个关节的二维骨架姿势图像产生潜像;
编码器Encθ,用于在训练期间,将参考人物图像产生潜像;
解码器Decθ,用于生成与参考人物图像相同大小的新图像。
其中:
编码器
Figure BDA0002589615410000022
与Encθ相同;
编码器Encθ与解码器Decθ建立残差连接。
在本发明的一些实施例中,图像生成器模块包括训练步骤:
N=17个关节的二维骨架姿势图像和参考人物图像通过两个相同的编码器
Figure BDA0002589615410000031
和Encθ分别产生两个潜像;
两个潜像被组合,以生成潜在变量;
潜在变量通过解码器网络Decθ生成与参考人物图像相同大小的新图像;
附加的残差连接将Encθ中的每个块连接到Decθ中的相应块,将姿态特征流从二维骨架姿势图像覆盖到所有分辨率级别输出。
在本发明的一些实施例中,所述鉴别器模块:
通过对抗训练方法与预训练的CNN(VGG19)相结合来实现感知优化;
将鉴别器实现为PatchGan分类器体系结构,以局部补丁操作图像,并明确要求每个镜像补丁都是真实的;
鉴别器将每个真实或生成的样本建模为马尔可夫随机场(MRF),即无向概率图;
鉴别器对整个图像进行卷积运算,对所有响应求平均值,以获得最终输出;
对于每个训练迭代,使用PatchGan作为鉴别器,它与生成器并行地进行训练,以区分真实图像和生成的图像。
姿势导引的风格保持人体图像生成方法的损失函数Ltotal,定义为:
Ltotal=Ladv+Lcontent+LmultiscalestyleklLkl
合并了一种新颖的多尺度样式损失,以适应具有高斯金字塔的纹理系统,该纹理系统可确保输出图像中的颜色和纹理细节与源图像精确一致;
用于更好地将损失最小化;
损失函数中对抗损失Ladv定义为:
Figure BDA0002589615410000041
其中,使用Wasserstein距离作为分布之间的差异度量,而不是常规Gan中使用的S形交叉熵损失;
D是1-Lipschitz函数的集合;
Pr和Pg表示由
Figure BDA0002589615410000042
隐式定义的实际图像分布和模型分布。
损失函数中对内容损失Lcontent定义为:
Figure BDA0002589615410000043
令ψk(·)为网络第k层的激活,则内容损失定义为特征表示之间的差异;
Ck表示CNN层权重并控制第k层的重要性,在实验中将Ck设置为0或1; Lcontent用于保留生成图像和原始图像之间的身份。
损失函数中对多尺度风格损失Lmultiscale_style定义为:
Figure BDA0002589615410000044
将S定义为八度音阶数;
vs和wl代表八度音阶权重和CNN层权重;
将S=3设为vs值0或1,wl值0或0.1;
所有感兴趣的图层和比例均经过统一加权;
使用具有接受区域的特征来覆盖整个图像并捕获完整的空间结构;
VGG-19中嵌入多层高斯金字塔,通过模糊和下采样输入图像来形成高斯金字塔的每一层。
损失函数中还包括:
λkl是权重系数,用于控制Kullback-Leibler散度的相对重要性;
Lkl表示Kullback-Leibler散度
Lkl=KL(qφ(z|x)||pθ(·||y,z))
(三)有益效果
本发明的姿势导引的风格保持人体图像生成方法,相较于现有技术,至少具有以下优点:
1、给定一个表示为骨骼图像的所需姿态和一个具有任意姿态的参考人体图像,本发明可以生成同一个人的图像,即,穿着同样的衣服,摆出想要的姿势;
2、较好地克服了部分遮挡问题,可应用于任意姿态到参考人体图像的转换;
3、引入了一种新的多尺度风格损失来考虑纹理特征一致性,这显著提高了结果的准确性,特别是针对现有大多数方法中存在的颜色误读和纹理模式失真问题;
4、能够保证整体颜色精确,且与源图像等价,以及保证织物纹理图案结构肉眼所视良好。
附图说明
图1为本发明实施例在给定参考人体图像(左)和期望的姿势(上)时的演示效果示意图。
图2为本发明实施例的网络的完整结构示意图。
具体实施方式
最近的研究工作表明,深度神经网络是自动生成图像的强大工具,特别是生成对抗网络(GANs)和使用给定数据集训练的变分自动编码器(VAEs)可以用来生成具有训练数据集公共属性的数据。此外,条件生成对抗网络(cGAN)可以根据图像的特征来合成图像。一般来说,上述方法用于合成具有形状不变性和对称性的非铰接物体,然而,生成人体图像是一个更具挑战性的任务,因为人体具有复杂的铰接和非刚性结构,自由度明显更大。
有鉴于此,本发明提供了姿势导引的风格保持人体图像生成方法,通过训练一个深层的条件生成对抗网络来解决这些挑战。我们的网络中的生成器通过使用条件变分自动编码器来同时实现对结构和外观的控制。在编码器和解码器的镜像层之间存在跳过连接,用于将2D位姿图像直接映射到目标图像。对于每个训练迭代,本发明使用PatchGAN作为鉴别器,它与生成器并行地进行训练,以区分真实图像和生成的图像。此外,本发明合并了一个多尺度风格的损失匹配克矩阵在每一层的高斯金字塔。建议的模型在DeepFashion数据集上进行评估。最后,本发明能够合成逼真的照片,并保留身体的形状,新的纹理与源图像是一致的,即使输入和期望的姿态完全不同。与现有的方法相比,本发明提出的模型在保证整体颜色更精确和与源图像等价,以及保证织物纹理图案结构更合理方面表现得更好。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体训练过程,并参照附图,对本发明进一步详细说明。
每个训练步骤都以一对两个图像(x,y)作为输入,其中从图像集中随机选择源图像x,而姿势图像y是x的对应2D骨架图像。与完全受监督的方法相反,该方法要求图像对外观相似但姿势不同。值得一提的是,训练过程是自我监督的,因为基本事实直接来自源图像x。由于生成器G是一个全卷积网络,经过训练,可以将其应用于与参考人图像x结合的不同姿势图像y,以生成该人的新颖视图图像。我们生成器中的编码器和解码器都是深度残差卷积神经网络。每个残差块遵循的架构不需要批量归一化。编码器
Figure BDA0002589615410000071
采用与编码器Encθ相同的架构。附加的跳过连接将Encθ中的每个块链接到Decθ中的相应块,并在所有层上将信息从输入桥接到输出。本发明使用5层Patch-GAN鉴别器进行对抗训练。所有网络都使用Adam求解器进行训练,其中β1=0.5,β2=0.999,可进行100K 次迭代。对于发生器,将初始学习速率设置为1e-3,并在时间段1k之后以线性递减速率进行设置,并将鉴别器学习速率设置为2e-4。加权系数kl的初始值设置为1e-6,并在训练过程中线性增加至1。
综上,本发明的姿势导引的风格保持人体图像生成方法提出了GAN模型,用于生成用户指定的新颖姿势的人体图像。保证生成的图像具有照片逼真的效果,并保留原始人像的外观细节。再通过对抗训练方法与预训练的CNN(VGG19)相结合来实现感知优化。提出了一种新颖的多尺度样式损失,以适应具有高斯金字塔的纹理系统,该纹理系统可确保输出图像中的颜色和纹理细节与源图像精确一致。即使与人类图像生成中的最新方法相比,本模型的定量和定性评估均显示出令人满意的结果,结果真实自然。
至此,已经结合附图对本公开实施例进行了详细描述。需要说明的是,在附图或说明书正文中,未绘示或描述的实现方式,均为所属技术领域中普通技术人员所知的形式,并未进行详细说明。此外,上述对各元件和方法的定义并不仅限于实施例中提到的各种具体结构、形状或方式,本领域普通技术人员可对其进行简单地更改或替换。
“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的“一”或“一个”不排除存在多个这样的元件。
此外,除非特别描述或必须依序发生的步骤,上述步骤的顺序并无限制于以上所列,且可根据所需设计而变化或重新安排。并且上述实施例可基于设计及可靠度的考虑,彼此混合搭配使用或与其他实施例混合搭配使用,即不同实施例中的技术特征可以自由组合形成更多的实施例。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种姿势导引的风格保持人体图像生成方法的网络架构,包括:
图像生成器模块,用于接收N=17个关节的二维骨架姿势图像和参考人物图像,生成具有与源图像相同大小的新图像。
鉴别器模块,用于将每个真实或生成的样本建模为无向概率图,对整个图像进行卷积运算,对所有响应求平均值,以获得最终输出。
2.根据权利要求1所述的姿势导引的风格保持人体图像生成方法的网络架构,其中,所述图像生成器模块包括:
编码器
Figure FDA0002589615400000011
用于在训练期间,将N=17个关节的二维骨架姿势图像产生潜像;
编码器Encθ,用于在训练期间,将参考人物图像产生潜像;
解码器Decθ,用于生成与参考人物图像相同大小的新图像。
3.根据权利要求2所述的图像生成器模块,其中:
编码器
Figure FDA0002589615400000012
与Encθ相同;
编码器Encθ与解码器Decθ建立残差连接。
4.根据权利要求2所述的图像生成器模块,包括训练步骤:
N=17个关节的二维骨架姿势图像和参考人物图像通过两个相同的编码器
Figure FDA0002589615400000013
和Encθ分别产生两个潜像;
两个潜像被组合,以生成潜在变量;
潜在变量通过解码器网络Decθ生成与参考人物图像相同大小的新图像;
附加的残差连接将Encθ中的每个块连接到Decθ中的相应块,将姿态特征流从二维骨架姿势图像覆盖到所有分辨率级别输出。
5.根据权利要求1所述的姿势导引的风格保持人体图像生成方法的网络架构,其中,所述鉴别器模块:
通过对抗训练方法与预训练的CNN(VGG19)相结合来实现感知优化;
将鉴别器实现为PatchGan分类器体系结构,以局部补丁操作图像,并明确要求每个镜像补丁都是真实的;
鉴别器将每个真实或生成的样本建模为马尔可夫随机场,即无向概率图;
鉴别器对整个图像进行卷积运算,对所有响应求平均值,以获得最终输出;
对于每个训练迭代,使用PatchGan作为鉴别器,它与生成器并行地进行训练,以区分真实图像和生成的图像。
6.一种姿势导引的风格保持人体图像生成方法的损失函数Ltotal,定义为:
Ltotal=Ladv+Lcontent+LmultiscalestyleklLkl
合并了一种新颖的多尺度样式损失,以适应具有高斯金字塔的纹理系统,该纹理系统可确保输出图像中的颜色和纹理细节与源图像精确一致;
用于更好地将损失最小化。
7.根据权利要求6所述的姿势导引的风格保持人体图像生成方法的损失函数,其中,对抗损失Ladv定义为:
Figure FDA0002589615400000021
其中,使用Wasserstein距离作为分布之间的差异度量,而不是常规Gan中使用的S形交叉熵损失;
D是1-Lipschitz函数的集合;
Pr和Pg表示由
Figure FDA0002589615400000022
隐式定义的实际图像分布和模型分布。
8.根据权利要求6所述的姿势导引的风格保持人体图像生成方法的损失函数,其中,内容损失Lcontent定义为:
Figure FDA0002589615400000023
令ψk(·)为网络第k层的激活,则内容损失定义为特征表示之间的差异;
Ck表示CNN层权重并控制第k层的重要性,在实验中将Ck设置为0或1;
Lcontent用于保留生成图像和原始图像之间的身份。
9.根据权利要求6所述的姿势导引的风格保持人体图像生成方法的损失函数,其中,多尺度风格损失Lmultiscale_style定义为:
Figure FDA0002589615400000031
将S定义为八度音阶数;
vs和wl代表八度音阶权重和CNN层权重;
将S=3设为vs值0或1,wl值0或0.1;
所有感兴趣的图层和比例均经过统一加权;
使用具有接受区域的特征来覆盖整个图像并捕获完整的空间结构;
VGG-19中嵌入多层高斯金字塔,通过模糊和下采样输入图像来形成高斯金字塔的每一层。
10.根据权利要求6所述的姿势导引的风格保持人体图像生成方法的损失函数,其中还包括:
λkl是权重系数,用于控制Kullback-Leibler散度的相对重要性;
Lkl表示Kullback-Leibler散度
Lkl=KL(qφ(z|x)||pθ(·||y,z))。
CN202010691722.1A 2020-07-17 2020-07-17 姿势导引的风格保持人体图像生成方法 Pending CN112184542A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010691722.1A CN112184542A (zh) 2020-07-17 2020-07-17 姿势导引的风格保持人体图像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010691722.1A CN112184542A (zh) 2020-07-17 2020-07-17 姿势导引的风格保持人体图像生成方法

Publications (1)

Publication Number Publication Date
CN112184542A true CN112184542A (zh) 2021-01-05

Family

ID=73918906

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010691722.1A Pending CN112184542A (zh) 2020-07-17 2020-07-17 姿势导引的风格保持人体图像生成方法

Country Status (1)

Country Link
CN (1) CN112184542A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139424A (zh) * 2021-03-09 2021-07-20 杭州电子科技大学 面向人体高保真视觉内容的多特征协同生成系统及方法
CN113223152A (zh) * 2021-05-14 2021-08-06 浙江大学 用于三维服装模型美观展示的自动姿势和褶皱迁移的方法
CN113408351A (zh) * 2021-05-18 2021-09-17 河南大学 一种基于姿态引导生成对抗网络的行人重识别方法
CN113781377A (zh) * 2021-11-03 2021-12-10 南京理工大学 基于对抗性语义引导与感知的红外和可见光图像融合方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110599395A (zh) * 2019-09-17 2019-12-20 腾讯科技(深圳)有限公司 目标图像生成方法、装置、服务器及存储介质
US10552977B1 (en) * 2017-04-18 2020-02-04 Twitter, Inc. Fast face-morphing using neural networks
WO2020096403A1 (en) * 2018-11-09 2020-05-14 Samsung Electronics Co., Ltd. Textured neural avatars
CN111160138A (zh) * 2019-12-11 2020-05-15 杭州电子科技大学 一种基于卷积神经网络的快速人脸交换方法
GB202007052D0 (en) * 2020-05-13 2020-06-24 Facesoft Ltd Facial re-enactment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552977B1 (en) * 2017-04-18 2020-02-04 Twitter, Inc. Fast face-morphing using neural networks
WO2020096403A1 (en) * 2018-11-09 2020-05-14 Samsung Electronics Co., Ltd. Textured neural avatars
CN110599395A (zh) * 2019-09-17 2019-12-20 腾讯科技(深圳)有限公司 目标图像生成方法、装置、服务器及存储介质
CN111160138A (zh) * 2019-12-11 2020-05-15 杭州电子科技大学 一种基于卷积神经网络的快速人脸交换方法
GB202007052D0 (en) * 2020-05-13 2020-06-24 Facesoft Ltd Facial re-enactment

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ALIAKSANDR SIAROHIN,ETC: "Deformable GANs for Pose-based Human Image Generation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
PATRICK ESSER,ETC: ""A Variational U-Net for Conditional Appearance and Shape Generation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
XAVIER SNELGROVE: "High-resolution multi-scale neural texture synthesis", 《HIGH-RESOLUTION MULTI-SCALE NEURAL TEXTURE SYNTHESIS》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139424A (zh) * 2021-03-09 2021-07-20 杭州电子科技大学 面向人体高保真视觉内容的多特征协同生成系统及方法
CN113223152A (zh) * 2021-05-14 2021-08-06 浙江大学 用于三维服装模型美观展示的自动姿势和褶皱迁移的方法
CN113223152B (zh) * 2021-05-14 2022-07-12 浙江大学 用于三维服装模型美观展示的自动姿势和褶皱迁移的方法
CN113408351A (zh) * 2021-05-18 2021-09-17 河南大学 一种基于姿态引导生成对抗网络的行人重识别方法
CN113781377A (zh) * 2021-11-03 2021-12-10 南京理工大学 基于对抗性语义引导与感知的红外和可见光图像融合方法

Similar Documents

Publication Publication Date Title
CN111047548B (zh) 姿态变换数据处理方法、装置、计算机设备和存储介质
CN109636831B (zh) 一种估计三维人体姿态及手部信息的方法
CN112184542A (zh) 姿势导引的风格保持人体图像生成方法
CN112215050A (zh) 非线性3dmm人脸重建和姿态归一化方法、装置、介质及设备
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN113421328B (zh) 一种三维人体虚拟化重建方法及装置
CN111292408B (zh) 一种基于注意力机制的阴影生成方法
CN112132739A (zh) 3d重建以及人脸姿态归一化方法、装置、存储介质及设备
CN113344777A (zh) 基于三维人脸分解的换脸与重演方法及装置
CN111462274A (zh) 一种基于smpl模型的人体图像合成方法及系统
CN112819951A (zh) 一种基于深度图修复的带遮挡三维人体重建方法
Dundar et al. Fine detailed texture learning for 3D meshes with generative models
CN116134491A (zh) 用于面部表情、身体姿态形态和衣服表演捕捉的使用隐式可微分渲染器的多视图神经人体预测
CN112634456B (zh) 基于深度学习的复杂三维模型的实时高真实感绘制方法
CN116385667B (zh) 三维模型的重建方法、纹理重构模型的训练方法以及装置
Saint et al. 3dbooster: 3d body shape and texture recovery
CN116863044A (zh) 人脸模型的生成方法、装置、电子设备及可读存储介质
CN116825127A (zh) 基于神经场的语音驱动数字人生成方法
CN115761801A (zh) 一种基于视频时序信息的三维人体姿态迁移方法
CN116079727A (zh) 基于3d人体姿态估计的人形机器人动作模仿方法及装置
CN115760807A (zh) 一种视网膜眼底图像配准方法及系统
CN116883524A (zh) 图像生成模型训练、图像生成方法、装置和计算机设备
CN114758205A (zh) 用于3d人体姿态估计的多视角特征融合方法及系统
CN115482481A (zh) 单视角三维人体骨骼关键点检测方法、装置、设备及介质
CN117853678B (zh) 基于多源遥感进行地理空间数据三维实体化改造的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210105