CN114219896A - 一种虚拟角色生成系统及方法 - Google Patents
一种虚拟角色生成系统及方法 Download PDFInfo
- Publication number
- CN114219896A CN114219896A CN202111555225.XA CN202111555225A CN114219896A CN 114219896 A CN114219896 A CN 114219896A CN 202111555225 A CN202111555225 A CN 202111555225A CN 114219896 A CN114219896 A CN 114219896A
- Authority
- CN
- China
- Prior art keywords
- face
- network
- pinching
- parameters
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6009—Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/65—Methods for processing data by generating or executing the game program for computing the condition of a game character
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开一种虚拟角色生成系统及方法,其系统包括人脸重建网络、标记单元、捏脸网络以及人脸网格生成网络,人脸重建网络用以获取人脸图像,构建人脸重建网络,获得人脸的身份参数以及表情参数;标记单元用以标记用户对人脸重建网络中位置调整的关键点,获得标记信息;捏脸网络根据标记信息和人脸的身份参数以及表情参数,获得捏脸参数;人脸网格生成网络根据捏脸参数,生成虚拟角色。本申请可以充分理解用户期望的虚拟角色形象,生成个性化的虚拟角色,不仅能够高质量生成个性化虚拟角色,而且又不需要花费用户大量的时间进行捏脸,大大提升了用户玩游戏的体验。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种虚拟角色生成系统及方法。
背景技术
用户在玩游戏的时候,通常需要先创建一个对应虚拟的游戏角色人物形象,而游戏中的游戏角色人物的个性化是用户最为重视的一个重要因素,因此为了满足用户对游戏角色的个性化体验,游戏产品中,提供用户自行来塑造人物的形象是必不可少的。
现有的技术中,通常会提供一套技术方案,用户只需要输入一个图像,即可自动生成对应的卡通或者二次元的虚拟人物,但这种技术方案方法比较固定,难以形成个性化的虚拟人物。
为了进一步提高玩家的沉浸感和用户体验,目前开发的捏脸的技术,可以满足用户精确地操纵角色的每一个部位,如眼角、鼻尖等,为了创造一个满意的角色,玩家往往需要花费数个小时来调整上百个参数,但这也耗费了玩家大量的时间和精力。
此外,对于一个游戏产品来说,用户数量特别多,每个用户提供的人物图片风格和质量也参差不齐,也导致生成的虚拟角色质量差异较大,甚至无法生成虚拟角色。
发明内容
本发明为解决现有技术中存在的技术问题,提供一种虚拟角色生成系统,包括人脸重建网络、标记单元、捏脸网络以及人脸网格生成网络,其中:
人脸重建网络用以获取人脸图像,构建人脸重建网络,获得人脸的身份参数以及表情参数;
标记单元用以标记用户对人脸重建网络中位置调整的关键点,获得标记信息;
捏脸网络根据标记信息和人脸的身份参数以及表情参数,获得捏脸参数;
人脸网格生成网络根据捏脸参数,生成虚拟角色。
进一步地,所述捏脸网络为6层的全连接层网络,其中:
前4层全连接层的维度为256,每一层的激活函数为ReLu;
第5层全连接层的维度为512,激活函数为LeakyReLu;
第6层全连接层的维度为捏脸参数的数目,无激活函数。
进一步地,所述人脸网格生成网络为3层的全连接层网络,其中:
前两层全连接层的维度为128,每一层的激活函数为ReLu;
最后一层全连接层的维度为虚拟角色脸网格的顶点数目乘以3,无激活函数。
进一步地,人脸重建网络包括初始层、中间层以及输出层,其中:
初始层包括卷积层、BN层以及激活函数;
中间层为多层相同的卷积层串联连接构成;
输出层为全连接层。
本发明还提供一种虚拟角色生成方法,应用在虚拟角色生成系统,包括步骤:
S1步骤:获取人脸图像并进行重建,构建人脸重建网络;
S2步骤:获取用户对人脸重建网络中位置调整的关键点信息;
S3步骤:对人脸重建网络和关键点信息进行分析,获得捏脸参数;
S4:根据捏脸参数生成虚拟角色。
进一步地,S1步骤中包括预处理步骤,所述预处理包括对人脸图像进行双边滤波,旋转或者翻转。
进一步地,S3步骤中,捏脸网络的训练方法包括:
固定人脸网格生成网络的模型权重;
生成随机捏脸参数,输入到人脸网格生成网络中,生成预测捏脸参数;
输入关键点信息,得到第一次人脸网格关键点;
将预测捏脸参数输入到人脸网格生成网络中,得到第二次预测捏脸参数;
再次输入关键点信息,得到第二次人脸网格关键点;
计算第一次人脸网格关键点与第二次人脸网格关键点的误差,得到关键点误差;
根据关键点误差,利用反向传播算法,得到捏脸网络内部的隐含层中的节点误差;
使用梯度下降算法调整捏脸网络中隐含层节点间的权值。
进一步地,人脸网格生成网络的训练方法包括:
随机生成捏脸参数到捏脸网络中;
将捏脸网络的输出结果输入到人脸网格生成网络,获得捏脸输出,对捏脸输出使用均方误差目标函数,得到捏脸网络的输出误差;
根据捏脸网络的输出误差,使用反向误差传播算法进行计算,得到人脸网格生成网络的内部隐含层的节点误差;
使用梯度下降算法调整人脸网格生成网络中隐含层节点间的权值。
进一步地,生成随机捏脸参数的方法为使用符合高斯分布或均匀分布的随机数。
本发明还提供一种电子设备,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如所述的虚拟角色生成方法。
本发明公开的方法和系统中所述模块,在实际应用中,即可以在一台目标服务器上部署多个模块,也可以每一模块独立部署在不同的目标服务器上,特别的,根据需要,为了提供更强大的计算处理能力,也可以根据需要将模块部署到集群目标服务器上。
由此可见,本发明采取的技术方案取得的技术效果如下:
本申请通过创新的人脸重建网络,对输入图像进行人脸信息重建,并通过创新的捏脸网络结构以及训练方法,有效提取特征,可以充分理解用户期望的虚拟角色形象,并通过创新的人脸网格生成网络生成个性化的虚拟角色,不仅能够高质量生成个性化虚拟角色,而且又不需要花费用户大量的时间进行捏脸,大大提升了用户玩游戏的体验。
为了对本发明有更清楚全面的了解,下面结合附图,对本发明的具体实施方式进行详细描述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例的一种虚拟角色生成方法的结构示意图;
图2为本申请发明实施例的一种捏脸网络结构示意图;
图3为本申请实施例的捏脸网络的一种训练流程示意图;
图4为本申请发明实施例的一种人脸网格生成网络结构示意图。
其中:人脸重建网络1,标记单元2,捏脸网络3,人脸网格生成网络4。
具体实施方式
请参阅图1,图1示出了一种虚拟角色生成系统的结构示意图,该示意图也显示了虚拟角色系统中各个模块处理得到的结果和过程,包括人脸重建网络、标记单元、捏脸网络以及人脸网格生成网络,其中:
人脸重建网络用以获取人脸图像,构建人脸重建网络,获得人脸的身份参数以及表情参数;
标记单元用以标记用户对人脸重建网络中位置调整的关键点,获得标记信息;
捏脸网络根据标记信息和人脸的身份参数以及表情参数,获得捏脸参数;
人脸网格生成网络根据捏脸参数,生成虚拟角色。
为了进一步详细说明本申请的技术方案、优选方案和技术效果,下面做进一步详细说明。
捏脸网络是本申请中重要的技术组成部分之一,作为一种优选的实施方式,本申请的捏脸网络采用多个带激活函数的全连接层构成的全连接网络,可以增强网络的非线性性和拟合能力,从而可以从人脸的身份参数推断出捏脸参数。针对本申请架构的设计,结合其他模块的技术特征,作为一种更优选的实施方式,请参阅图2,图2为本申请发明实施例的捏脸网络结构示意图,本申请的捏脸网络,其具体的网络结构如下:
前4层的每个全连接层的维度都为256,每一层的激活函数为ReLu,即每一层经过激活函数ReLu之后得到的输出再进入下一层;
第5层全连接层的维度为512,激活函数为LeakyReLu;
第6层全连接层的维度为捏脸参数的数目,无激活函数。
请参阅图3,图3为本申请实施例的捏脸网络的训练流程示意图,针对本申请的发明目的,结合本申请其他结构的特征,本实施例中的捏脸网络结构的训练方法如下:
捏脸网络的训练方法包括:
首先,需要固定人脸网格生成网络的模型权重,基于固定的人脸网格生成网络的模型权重为基础来进行训练。
基于固定的人脸网格生成网络的模型权重,生成随机捏脸参数,输入到人脸网格生成网络中,生成预测捏脸参数。生成随机捏脸参数的方法可以使用符合高斯分布或均匀分布的随机数。
输入关键点信息,得到第一次人脸网格关键点。本实施例中的关键点即用户对人脸重建网络中位置调整的关键点,比如眼睛、鼻子、嘴巴、脸轮廓与脸面部等部位的关键点,用户可以针对性地对某些重点部位和关键地方进行细小的修改和调整,而本申请通过获取用户的修改信息,可以充分理解用户期望的虚拟角色形象,从而可以轻松生成个性化的虚拟角色,同时又不需要花费用户大量的时间进行捏脸。
将预测捏脸参数输入到人脸网格生成网络中,得到第二次预测捏脸参数;
再次输入关键点信息,得到第二次人脸网格关键点;
计算第一次人脸网格关键点与第二次人脸网格关键点的误差,得到关键点误差。
根据关键点误差,利用反向传播算法,得到捏脸网络内部的隐含层中的节点误差;使用梯度下降算法进行优化,调整捏脸网络中隐含层节点间的权值,最后完成训练过程。
本申请中,人脸网格生成网络也是重要的重要技术组成部分之一,作为一种优选对的实施方式,本申请的人脸网格生成网络为多层全连接层构成的网络,作为一个实施例,请参阅图4,图4为本申请发明实施例的一种人脸网格生成网络结构示意图,本申请的人脸网格生成网络为3层的全连接层网络,其中:
前两层全连接层的维度为128,每一层连接有一个激活函数为ReLu;
最后一层全连接层的维度为虚拟角色脸网格的顶点数目乘以3,无激活函数。本层的维度对应虚拟角色脸的网格顶点的三维(XYZ)坐标,从而可以输出虚拟角色脸网格。
作为一种优选的实施方式,本申请实施例的人脸网格生成网络的训练方法包括:
随机生成捏脸参数到捏脸网络中,生成随机捏脸参数的方法可以使用符合高斯分布或均匀分布的随机数。
将捏脸网络的输出结果输入到人脸网格生成网络,获得捏脸输出,对捏脸输出使用均方误差目标函数,得到捏脸网络的输出误差;
根据捏脸网络的输出误差,使用反向误差传播算法进行计算,得到人脸网格生成网络的内部隐含层的节点误差;
使用梯度下降算法调整人脸网格生成网络中隐含层节点间的权值,提高非线性拟合能力。
本申请中,人脸重建网络也是重要的重要技术组成部分之一,人脸重建网络用以获取人脸图像,构建人脸重建网络,获得人脸的身份参数以及表情参数,作为一种优选的实施方式,本申请实施例的人脸重建网络包括初始层、中间层以及输出层,其中:
初始层包括卷积层、BN(Batch Normalization:归一化)层以及激活函数;
中间层为多层相同的卷积层串联连接构成;
输出层为全连接层。
此外,在日常的实施过程中,申请人发现,用户在上传一张图片的过程中,图片中的人物形象往往都不是按照常规的证件照标准提供,都是各种侧面、姿态、表情或者角度的人物形象照片。因此,为了获得更加的虚拟角色照片,本申请针对此情况,提出一种优选的方式,对用户输入的图像进行优化和增强,具体的预处理包括对输入的人脸图像进行双边滤波,旋转或者翻转等。如图1中,输入的是一张侧脸的人物图像,经过本申请的预处理,可以得到完美的虚拟角色,本申请不仅仅能够生成高质量的虚拟角色,而且对输入不同的人脸图像,也具有很好的鲁棒性,与现有技术的系统相比,本申请提供的技术方案,不要求用户提供非常标准的图像即可获得理想的虚拟角色,从而大大降低的操作难度,提高了用户捏脸的兴趣。
基于上述实施例的虚拟角色生成系统,其虚拟角色生成的方法,包括步骤:
S1步骤:获取人脸图像并进行重建,构建人脸重建网络;
S2步骤:获取用户对人脸重建网络中位置调整的关键点信息;
S3步骤:对人脸重建网络和关键点信息进行分析,获得捏脸参数;
S4:根据捏脸参数生成虚拟角色。
具体实施步骤或过程请参阅上述实施例,不再详述。
本申请实施例还提供一种电子设备,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如上述任一所述的虚拟角色生成方法。
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述所述的虚拟角色生成方法的步骤。
需要说明的是,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过计算机程序来指令相关的硬件来完成,所述计算机程序可以存储于计算机可读存储介质中,所述存储介质可以包括但不限于:只读存储器(ROM,Read OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁盘或光盘等。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种虚拟角色生成系统,其特征是,包括人脸重建网络、标记单元、捏脸网络以及人脸网格生成网络,其中:
人脸重建网络用以获取人脸图像,构建人脸重建网络,获得人脸的身份参数以及表情参数;
标记单元用以标记用户对人脸重建网络中位置调整的关键点,获得标记信息;
捏脸网络根据标记信息和人脸的身份参数以及表情参数,获得捏脸参数;
人脸网格生成网络根据捏脸参数,生成虚拟角色。
2.如权利要求1所述的虚拟角色生成系统,其特征是,所述捏脸网络为6层的全连接层网络,其中:
前4层全连接层的维度为256,每一层的激活函数为ReLu;
第5层全连接层的维度为512,激活函数为LeakyReLu;
第6层全连接层的维度为捏脸参数的数目,无激活函数。
3.如权利要求1所述的虚拟角色生成系统,其特征是,所述人脸网格生成网络为3层的全连接层网络,其中:
前两层全连接层的维度为128,每一层的激活函数为ReLu;
最后一层全连接层的维度为虚拟角色脸网格的顶点数目乘以3,无激活函数。
4.如权利要求1所述的虚拟角色生成系统,其特征是,人脸重建网络包括初始层、中间层以及输出层,其中:
初始层包括卷积层、BN层以及激活函数;
中间层为多层相同的卷积层串联连接构成;
输出层为全连接层。
5.一种虚拟角色生成方法,其特征是,应用在虚拟角色生成系统,包括步骤:
S1步骤:获取人脸图像并进行重建,构建人脸重建网络;
S2步骤:获取用户对人脸重建网络中位置调整的关键点信息;
S3步骤:对人脸重建网络和关键点信息进行分析,获得捏脸参数;
S4:根据捏脸参数生成虚拟角色。
6.如权利要求5所述的虚拟角色生成方法,其特征是,S1步骤中包括预处理步骤,所述预处理包括对人脸图像进行双边滤波,旋转或者翻转。
7.如权利要求5所述的虚拟角色生成方法,其特征是,S3步骤中,捏脸网络的训练方法包括:
固定人脸网格生成网络的模型权重;
生成随机捏脸参数,输入到人脸网格生成网络中,生成预测捏脸参数;
输入关键点信息,得到第一次人脸网格关键点;
将预测捏脸参数输入到人脸网格生成网络中,得到第二次预测捏脸参数;
再次输入关键点信息,得到第二次人脸网格关键点;
计算第一次人脸网格关键点与第二次人脸网格关键点的误差,得到关键点误差;
根据关键点误差,利用反向传播算法,得到捏脸网络内部的隐含层中的节点误差;
使用梯度下降算法调整捏脸网络中隐含层节点间的权值。
8.如权利要求5所述的虚拟角色生成方法,其特征是,人脸网格生成网络的训练方法包括:
随机生成捏脸参数到捏脸网络中;
将捏脸网络的输出结果输入到人脸网格生成网络,获得捏脸输出,对捏脸输出使用均方误差目标函数,得到捏脸网络的输出误差;
根据捏脸网络的输出误差,使用反向误差传播算法进行计算,得到人脸网格生成网络的内部隐含层的节点误差;
使用梯度下降算法调整人脸网格生成网络中隐含层节点间的权值。
9.如权利要求7或8所述的虚拟角色生成方法,其特征是,生成随机捏脸参数的方法为使用符合高斯分布或均匀分布的随机数。
10.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要5至8任一所述的虚拟角色生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111555225.XA CN114219896A (zh) | 2021-12-17 | 2021-12-17 | 一种虚拟角色生成系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111555225.XA CN114219896A (zh) | 2021-12-17 | 2021-12-17 | 一种虚拟角色生成系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114219896A true CN114219896A (zh) | 2022-03-22 |
Family
ID=80703886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111555225.XA Pending CN114219896A (zh) | 2021-12-17 | 2021-12-17 | 一种虚拟角色生成系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114219896A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114862992A (zh) * | 2022-05-19 | 2022-08-05 | 北京百度网讯科技有限公司 | 虚拟数字人处理方法、模型训练方法及其装置 |
WO2023185398A1 (zh) * | 2022-03-30 | 2023-10-05 | 北京字跳网络技术有限公司 | 一种脸部处理方法、装置、计算机设备及存储介质 |
WO2023236641A1 (zh) * | 2022-06-09 | 2023-12-14 | 腾讯科技(深圳)有限公司 | 虚拟角色的获取方法和装置、存储介质及电子设备 |
-
2021
- 2021-12-17 CN CN202111555225.XA patent/CN114219896A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023185398A1 (zh) * | 2022-03-30 | 2023-10-05 | 北京字跳网络技术有限公司 | 一种脸部处理方法、装置、计算机设备及存储介质 |
CN114862992A (zh) * | 2022-05-19 | 2022-08-05 | 北京百度网讯科技有限公司 | 虚拟数字人处理方法、模型训练方法及其装置 |
WO2023236641A1 (zh) * | 2022-06-09 | 2023-12-14 | 腾讯科技(深圳)有限公司 | 虚拟角色的获取方法和装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114219896A (zh) | 一种虚拟角色生成系统及方法 | |
JP7198332B2 (ja) | 画像正則化及びリターゲティングシステム | |
US11302064B2 (en) | Method and apparatus for reconstructing three-dimensional model of human body, and storage medium | |
Dolhansky et al. | Eye in-painting with exemplar generative adversarial networks | |
CN113838176B (zh) | 模型的训练方法、三维人脸图像生成方法及设备 | |
Zollhöfer et al. | Automatic reconstruction of personalized avatars from 3D face scans | |
US11475624B2 (en) | Method and apparatus for generating three-dimensional model, computer device and storage medium | |
CN108960020A (zh) | 信息处理方法和信息处理设备 | |
CN111833236B (zh) | 产生模拟用户的三维脸部模型的方法及装置 | |
Lin et al. | Meingame: Create a game character face from a single portrait | |
CN104217454A (zh) | 一种视频驱动的人脸动画生成方法 | |
KR20110030869A (ko) | 사용자의 3차원 얼굴 표정 추출 방법 및 장치 | |
US20220284646A1 (en) | Style try-on with reverse gans | |
CN109685873B (zh) | 一种人脸重建方法、装置、设备和存储介质 | |
CN111402394B (zh) | 三维夸张漫画人脸生成方法及装置 | |
CN111127309A (zh) | 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置 | |
CN112221145A (zh) | 游戏脸模生成方法及装置、存储介质及电子设备 | |
CN114333034A (zh) | 人脸姿态估计方法、装置、电子设备及可读存储介质 | |
Struski et al. | Locogan—locally convolutional gan | |
CN112991152A (zh) | 一种图像处理方法、装置、电子设备和存储介质 | |
JP2017059193A (ja) | 時系列画像補完装置、時系列画像生成方法、時系列画像補完装置用プログラム | |
CN113538254A (zh) | 图像恢复方法、装置、电子设备及计算机可读存储介质 | |
WO2023130819A9 (zh) | 图像处理方法、装置、设备、存储介质及计算机程序 | |
Nikolaev et al. | HairFastGAN: Realistic and Robust Hair Transfer with a Fast Encoder-Based Approach | |
CN116012550A (zh) | 人脸变形目标修正方法及其装置、设备、介质、产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |