CN113674373A - 基于深度学习的真实感人脸渲染方法与装置 - Google Patents

基于深度学习的真实感人脸渲染方法与装置 Download PDF

Info

Publication number
CN113674373A
CN113674373A CN202110750162.7A CN202110750162A CN113674373A CN 113674373 A CN113674373 A CN 113674373A CN 202110750162 A CN202110750162 A CN 202110750162A CN 113674373 A CN113674373 A CN 113674373A
Authority
CN
China
Prior art keywords
face
rendering
texture
video data
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110750162.7A
Other languages
English (en)
Other versions
CN113674373B (zh
Inventor
徐枫
王至博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202110750162.7A priority Critical patent/CN113674373B/zh
Publication of CN113674373A publication Critical patent/CN113674373A/zh
Application granted granted Critical
Publication of CN113674373B publication Critical patent/CN113674373B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites

Abstract

本发明本发明公开了一种基于深度学习的人脸真实感渲染方法及装置,其中,方法包括:预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络,根据人脸视频数据集建立人脸混和模型,并对人脸混和模型进行重建,根据人脸神经纹理和重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果。该方法基于深度学习的渲染方式给定训练得到的神经纹理的渲染网络的输入光照以及人脸运动,对人脸的神经纹理在相机空间的投影进行处理,得到逼真的渲染结果。

Description

基于深度学习的真实感人脸渲染方法与装置
技术领域
本发明涉及图形学,人脸几何纹理重建,真实感人脸渲染等技术领域,尤其涉及一种基于深度学习的真实感人脸渲染方法。
背景技术
深度学习的概念源于人工神经网络的研究,含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
基于深度学习的真实感人脸渲染在人脸动画、游戏和影视领域中具有非常广泛的学术价值和应用前景。由于人脸的反射属性非常复杂,具有真实感的人脸渲染难度非常大,需要大量的人工处理;传统渲染方式耗时比较大,而基于深度学习的渲染方式相对来说比较快速,可以大大降低渲染成本。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种基于深度学习的真实感人脸渲染方法,以实现利用训练得到的神经纹理和人脸混合模型对不同人脸进行操控,得到目标光照下的具有真实感的渲染结果。
本发明的第二个目的在于提出一种基于深度学习的真实感人脸渲染装置。
为达上述目的,本发明第一方面实施例提出了一种基于深度学习的真实感人脸渲染方法,包括:
预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络;
根据所述人脸视频数据集建立人脸混和模型,并对所述人脸混和模型进行重建;
根据所述人脸神经纹理和重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果。
本发明实施例的基于深度学习的真实感人脸渲染方法通过预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络,建立人脸混和模型并进行重建,对重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果,本发明基于深度学习的渲染方式给定训练得到的神经纹理的渲染网络的输入光照以及人脸运动,对人脸的神经纹理在相机空间的投影进行处理,得到逼真的渲染结果。
另外,根据本发明上述实施例的基于深度学习的真实感人脸渲染方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述根据所述人脸视频数据集建立人脸混和模型,包括:
根据所述人脸视频数据集中出现的方向光下的不同表情人脸数据融合得到所述人脸混和模型。
进一步地,在本发明的一个实施例中,所述根据所述人脸视频数据集建立人脸混和模型,并对所述人脸混和模型进行重建,包括:
对不同用户建立所述人脸混和模型,并对所述人脸视频数据集中的人脸运动进行重建,得到人脸相对中性表情在所述人脸混和模型中的相对运动。
进一步地,在本发明的一个实施例中,在所述神经纹理和所述人脸相对中性表情的运动经过所述神经渲染网络渲染之后,恢复所述预先采集的人脸视频数据集。
进一步地,在本发明的一个实施例中,所述人脸神经纹理存储在所述人脸混合模型的UV图之中,所述人脸相对运动,通过人脸混合模型线性插值,并投影到所述UV图中得到。
进一步地,在本发明的一个实施例中,所述根据所述人脸神经纹理和重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果,包括:
利用所述神经渲染网络,以及所述人脸神经纹理和所述重建后的人脸混合模型,对所述人脸神经纹理进行操控,并指定一个目标光照,得到人脸的在不同光照下具有真实感的人脸图片。
为达上述目的,本发明第二方面实施例提出了一种基于深度学习的真实感人脸渲染装置,包括:
采集模块,用于预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络;
第一重建模块,用于根据所述人脸视频数据集建立人脸混和模型,并对所述人脸混和模型进行重建;
渲染模块,用于根据所述人脸神经纹理和重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果。
本发明实施例的基于深度学习的真实感人脸渲染装置,通过预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络,建立人脸混和模型并进行重建,对重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果,本发明基于深度学习的渲染方式给定训练得到的神经纹理的渲染网络的输入光照以及人脸运动,对人脸的神经纹理在相机空间的投影进行处理,得到逼真的渲染结果。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例所提供的一种基于深度学习的真实感人脸渲染方法的流程图;
图2为本发明实施例所提供的一种基于深度学习的真实感人脸渲染装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的基于深度学习的真实感人脸渲染方法和装置。
图1为本发明实施例所提供的一种基于深度学习的真实感人脸渲染方法的流程示意图。
基于深度学习的真实感人脸渲染在人脸动画、游戏和影视领域中具有非常广泛的学术价值和应用前景。由于人脸的反射属性非常复杂,具有真实感的人脸渲染难度非常大,需要大量的人工处理;传统渲染方式耗时比较大,而基于深度学习的渲染方式相对来说比较快速,可以大大降低渲染成本。
针对这一问题,本发明实施例提供了基于深度学习的真实感人脸渲染方法,以实现基于深度学习的渲染方式给定训练得到的神经纹理的渲染网络一个的输入光照以及人脸运动,对人脸的神经纹理在相机空间的投影进行处理,得到逼真的渲染结果。
如图1所示,该基于深度学习的真实感人脸渲染方法方法包括以下步骤:
步骤101,预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络。
具体的,本实施例中通过预先采集的方向光下的人脸视频数据集,训练得到与光照无关的人脸神经纹理和神经纹理的渲染网络。
可以理解的是,经纹理为与光照无关的神经纹理。
步骤102,根据人脸视频数据集建立人脸混和模型,并对人脸混和模型进行重建。
具体的,对不同用户建立人脸混和模型,对视频中的人脸运动进行重建,得到每一帧相对于中性表情人脸在模型中间的相对运动,运动参数使用人脸混合模型的混合系数表示。
可以理解的是,该人脸混和模型是由视频中出现的方向光下的不同表情人脸数据融合得到,具有用户个性化的几何特征。
可以理解的是,每个人脸初始化一个神经纹理,使用一个深度卷积神经网络,要求神经纹理和人脸相对中性表情的运动经过神经纹理渲染网络渲染之后,能够恢复预先采集的视频数据。神经纹理存储在人脸混合模型的UV展开图之中,人脸上每个顶点的相对运动,则是通过人脸混合模型线性插值,并投影到UV图中得到。这里直接采用一个可导渲染器用于神经纹理投影到人脸图片空间的过程,使用L1损失函数和Perceptual损失函数,约束渲染结果和采集数据之间具有一致性。
步骤103,根据人脸神经纹理和重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果。
可以理解的是,利用训练好的网络,以及用户的神经纹理和具有个性化特征的人脸混合模型,指定一个目标光照,就可以得到人脸的在不同光照下具有真实感的人脸图片。
具体的,不同人的神经纹理共用一个神经纹理渲染网络,渲染不同人脸仅仅需要不同的神经纹理,不需要其他额外参数,接受神经纹理投影到图片空间的投影图、人脸运动位移图和一个目标光照作为输入,输出对应目标光照下,该人脸的人脸信息。
根据本发明实施例提出的的基于深度学习的真实感人脸渲染方法通过预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络,建立人脸混和模型并进行重建,对重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果,本发明基于深度学习的渲染方式给定训练得到的神经纹理的渲染网络的输入光照以及人脸运动,对人脸的神经纹理在相机空间的投影进行处理,得到逼真的渲染结果。
其次参照附图描述根据本发明实施例提出的基于深度学习的真实感人脸渲染装置。
图2是本发明一个实施例的基于深度学习的真实感人脸渲染装置的结构示意图。
如图2所示,该基于深度学习的真实感人脸渲染装置10包括:采集模块100、第一重建模块200、渲染模块300。
采集模块100,用于预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络;
第一重建模块200,用于根据人脸视频数据集建立人脸混和模型,并对人脸混和模型进行重建;
渲染模块300,用于根据人脸神经纹理和重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果。
进一步,该装置还包括:融合模块,用于根据人脸视频数据集中出现的方向光下的不同表情人脸数据融合得到人脸混和模型。
进一步,该装置还包括:第二重建模块,用于对不同用户建立人脸混和模型,并对人脸视频数据集中的人脸运动进行重建,得到人脸相对中性表情在人脸混和模型中的相对运动。
进一步,该装置还包括:恢复模块,用于在神经纹理和人脸相对中性表情的运动经过神经渲染网络渲染之后,恢复预先采集的人脸视频数据集。
根据本发明实施例提出的基于深度学习的真实感人脸渲染装置,通过预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络,建立人脸混和模型并进行重建,对重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果,本发明基于深度学习的渲染方式给定训练得到的神经纹理的渲染网络的输入光照以及人脸运动,对人脸的神经纹理在相机空间的投影进行处理,得到逼真的渲染结果。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于深度学习的人脸真实感渲染方法,其特征在于,包括以下步骤:
预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络;
根据所述人脸视频数据集建立人脸混和模型,并对所述人脸混和模型进行重建;
根据所述人脸神经纹理和重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述人脸视频数据集建立人脸混和模型,包括:
根据所述人脸视频数据集中出现的方向光下的不同表情人脸数据融合得到所述人脸混和模型。
3.根据权利要求1所述的方法,其特征在于,所述根据所述人脸视频数据集建立人脸混和模型,并对所述人脸混和模型进行重建,包括:
对不同用户建立所述人脸混和模型,并对所述人脸视频数据集中的人脸运动进行重建,得到人脸相对中性表情在所述人脸混和模型中的相对运动。
4.根据权利要求3所述的方法,其特征在于,在所述神经纹理和所述人脸相对中性表情的运动经过所述神经渲染网络渲染之后,恢复所述预先采集的人脸视频数据集。
5.根据权利要求3所述的方法,其特征在于,所述人脸神经纹理存储在所述人脸混合模型的UV图之中,所述人脸相对运动,通过人脸混合模型线性插值,并投影到所述UV图中得到。
6.根据权利要求1所述的方法,其特征在于,所述根据所述人脸神经纹理和重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果,包括:
利用所述神经渲染网络,以及所述人脸神经纹理和所述重建后的人脸混合模型,对所述人脸神经纹理进行操控,并指定一个目标光照,得到人脸的在不同光照下具有真实感的人脸图片。
7.一种基于深度学习的人脸真实感渲染装置,其特征在于,包括:
采集模块,用于预先采集人脸视频数据集,基于神经纹理的深度学习渲染训练得到人脸神经纹理和神经渲染网络;
第一重建模块,用于根据所述人脸视频数据集建立人脸混和模型,并对所述人脸混和模型进行重建;
渲染模块,用于根据所述人脸神经纹理和重建后的人脸混合模型对人脸进行操控,得到人脸不同表情下的真实感渲染结果。
8.根据权利要求7所述的装置,其特征在于,还包括:
融合模块,用于根据所述人脸视频数据集中出现的方向光下的不同表情人脸数据融合得到所述人脸混和模型。
9.根据权利要求7所述的装置,其特征在于,还包括:第二重建模块,用于对不同用户建立所述人脸混和模型,并对所述人脸视频数据集中的人脸运动进行重建,得到人脸相对中性表情在所述人脸混和模型中的相对运动。
10.根据权利要求9所述的装置,其特征在于,还包括:恢复模块,用于在所述神经纹理和所述人脸相对中性表情的运动经过所述神经渲染网络渲染之后,恢复所述预先采集的人脸视频数据集。
CN202110750162.7A 2021-07-02 2021-07-02 基于深度学习的真实感人脸渲染方法 Active CN113674373B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110750162.7A CN113674373B (zh) 2021-07-02 2021-07-02 基于深度学习的真实感人脸渲染方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110750162.7A CN113674373B (zh) 2021-07-02 2021-07-02 基于深度学习的真实感人脸渲染方法

Publications (2)

Publication Number Publication Date
CN113674373A true CN113674373A (zh) 2021-11-19
CN113674373B CN113674373B (zh) 2024-04-26

Family

ID=78538441

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110750162.7A Active CN113674373B (zh) 2021-07-02 2021-07-02 基于深度学习的真实感人脸渲染方法

Country Status (1)

Country Link
CN (1) CN113674373B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874883A (zh) * 2017-02-27 2017-06-20 中国石油大学(华东) 一种基于深度学习的实时人脸检测方法及系统
CN107423707A (zh) * 2017-07-25 2017-12-01 深圳帕罗人工智能科技有限公司 一种基于复杂环境下的人脸情绪识别方法
CN110163953A (zh) * 2019-03-11 2019-08-23 腾讯科技(深圳)有限公司 三维人脸重建方法、装置、存储介质和电子装置
CN110574036A (zh) * 2016-12-09 2019-12-13 奥尔良大学 一系列回波描记图像中的神经的检测
RU2713695C1 (ru) * 2019-02-21 2020-02-06 Самсунг Электроникс Ко., Лтд. Текстурированные нейронные аватары
CN111160149A (zh) * 2019-12-16 2020-05-15 山东大学 基于运动场景及深度学习的车载人脸识别系统及方法
CN111178130A (zh) * 2019-11-25 2020-05-19 重庆特斯联智慧科技股份有限公司 一种基于深度学习的人脸识别方法、系统和可读存储介质
CN111243626A (zh) * 2019-12-30 2020-06-05 清华大学 一种说话视频生成方法及系统
CN111583399A (zh) * 2020-06-28 2020-08-25 腾讯科技(深圳)有限公司 图像处理方法、装置、设备、介质和电子设备
WO2020242170A1 (en) * 2019-05-28 2020-12-03 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
CN112396694A (zh) * 2020-12-08 2021-02-23 北京工商大学 一种基于单目摄像头的3d人脸视频生成方法
CN112541445A (zh) * 2020-12-16 2021-03-23 中国联合网络通信集团有限公司 人脸表情的迁移方法、装置、电子设备及存储介质
CN112614229A (zh) * 2020-12-29 2021-04-06 清华大学 基于深度学习的人脸重建方法和装置
CN112818860A (zh) * 2021-02-02 2021-05-18 北京航空航天大学 基于端到端多任务多尺度神经网络的实时三维人脸重建方法
CN112950775A (zh) * 2021-04-27 2021-06-11 南京大学 一种基于自监督学习的三维人脸模型重建方法及系统

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110574036A (zh) * 2016-12-09 2019-12-13 奥尔良大学 一系列回波描记图像中的神经的检测
CN106874883A (zh) * 2017-02-27 2017-06-20 中国石油大学(华东) 一种基于深度学习的实时人脸检测方法及系统
CN107423707A (zh) * 2017-07-25 2017-12-01 深圳帕罗人工智能科技有限公司 一种基于复杂环境下的人脸情绪识别方法
RU2713695C1 (ru) * 2019-02-21 2020-02-06 Самсунг Электроникс Ко., Лтд. Текстурированные нейронные аватары
CN110163953A (zh) * 2019-03-11 2019-08-23 腾讯科技(深圳)有限公司 三维人脸重建方法、装置、存储介质和电子装置
WO2020242170A1 (en) * 2019-05-28 2020-12-03 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
CN111178130A (zh) * 2019-11-25 2020-05-19 重庆特斯联智慧科技股份有限公司 一种基于深度学习的人脸识别方法、系统和可读存储介质
CN111160149A (zh) * 2019-12-16 2020-05-15 山东大学 基于运动场景及深度学习的车载人脸识别系统及方法
CN111243626A (zh) * 2019-12-30 2020-06-05 清华大学 一种说话视频生成方法及系统
CN111583399A (zh) * 2020-06-28 2020-08-25 腾讯科技(深圳)有限公司 图像处理方法、装置、设备、介质和电子设备
CN112396694A (zh) * 2020-12-08 2021-02-23 北京工商大学 一种基于单目摄像头的3d人脸视频生成方法
CN112541445A (zh) * 2020-12-16 2021-03-23 中国联合网络通信集团有限公司 人脸表情的迁移方法、装置、电子设备及存储介质
CN112614229A (zh) * 2020-12-29 2021-04-06 清华大学 基于深度学习的人脸重建方法和装置
CN112818860A (zh) * 2021-02-02 2021-05-18 北京航空航天大学 基于端到端多任务多尺度神经网络的实时三维人脸重建方法
CN112950775A (zh) * 2021-04-27 2021-06-11 南京大学 一种基于自监督学习的三维人脸模型重建方法及系统

Also Published As

Publication number Publication date
CN113674373B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
Gonzalez-Franco et al. The rocketbox library and the utility of freely available rigged avatars
CN111656407B (zh) 对动态三维模型的视图进行融合、纹理化和绘制
CN111542861A (zh) 利用深度外观模型渲染化身的系统和方法
US7953275B1 (en) Image shader for digital image modification
CN112837406B (zh) 一种三维重建方法、装置及系统
CN113313818B (zh) 一种三维重建方法、装置及系统
CN109325990B (zh) 图像处理方法及图像处理装置、存储介质
US8019182B1 (en) Digital image modification using pyramid vignettes
CN101968892A (zh) 根据一张人脸照片自动调整三维人脸模型的方法
CN101477701B (zh) 面向AutoCAD和3DS MAX软件的植入式真三维立体渲染方法
CN102819855B (zh) 二维图像的生成方法及装置
CN101968891A (zh) 用于游戏的照片自动生成三维图形系统
CN112530005B (zh) 一种三维模型直线结构识别与自动修复方法
KR102353556B1 (ko) 사용자 얼굴기반 표정 및 포즈 재현 아바타 생성장치
CN113344777A (zh) 基于三维人脸分解的换脸与重演方法及装置
CN113674373B (zh) 基于深度学习的真实感人脸渲染方法
US11704864B1 (en) Static rendering for a combination of background and foreground objects
CN114332321A (zh) 一种基于神经纹理的动态人脸重建方法和装置
US20240037837A1 (en) Automatic graphics quality downgrading in a three-dimensional virtual environment
CN115457171A (zh) 一种采用基表情空间变换的高效表情迁移方法
EP3980975B1 (en) Method of inferring microdetail on skin animation
CN114998514A (zh) 一种虚拟角色的生成方法及设备
JP2739447B2 (ja) しわの表現可能な三次元像生成装置
Barszcz et al. 3D scanning digital models for virtual museums
Lei et al. Design of 3d modeling face image library in multimedia film and television

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant