CN112734873A - 对抗生成网络的图像属性编辑方法、装置、设备及介质 - Google Patents
对抗生成网络的图像属性编辑方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN112734873A CN112734873A CN202011622916.2A CN202011622916A CN112734873A CN 112734873 A CN112734873 A CN 112734873A CN 202011622916 A CN202011622916 A CN 202011622916A CN 112734873 A CN112734873 A CN 112734873A
- Authority
- CN
- China
- Prior art keywords
- attribute
- model
- image
- initial
- latent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000006870 function Effects 0.000 claims abstract description 42
- 238000005070 sampling Methods 0.000 claims abstract description 42
- 239000013598 vector Substances 0.000 claims abstract description 26
- 238000003860 storage Methods 0.000 claims description 15
- 238000002372 labelling Methods 0.000 claims description 9
- 230000000644 propagated effect Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 10
- 230000014509 gene expression Effects 0.000 description 21
- 238000004590 computer program Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 11
- 230000007935 neutral effect Effects 0.000 description 11
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 206010011469 Crying Diseases 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000037308 hair color Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本公开实施例中提供了一种对抗生成网络的图像属性编辑方法、装置、设备及介质,属于图像处理技术领域,具体包括:对潜空间进行采样;对全部初始生成图像进行标注;建立学习模型;对全部标签值进行解耦合操作;得到每个属性库的特征向量;得到预测值;计算损失函数;根据损失函数和正则化约束更新主干模型和头部模型;形成属性编辑模型;得到目标潜编码;将目标潜编码输入人脸生成模型,得到目标图像。通过本公开的方案,对已有的人脸生成模型进行采样得到初始生成图像,并利用初始生成图像对应的数据解耦合后建立和同时独立训练学习模型,得到属性编辑模型,通过属性编辑模型生成目标潜编码对特定属性进行编辑,提高了对图像属性的可编辑性。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种对抗生成网络的图像属性编辑方法、装置、设备及介质。
背景技术
目前,基于机器学习技术的图像生成技术日渐成熟,特别的,在2014出现的对抗生成网络(Generative Adversarial Networks,简称GAN)技术,经过多年发展,已经能够生成非常逼真且高分辨率的图像,代表性技术为BigGAN和StyleGAN等。这类技术通常属于无监督算法,从多维正态分布采样高斯噪声作为GAN模型的输入,GAN模型经过一系列运算得到非常逼真的图像。但此类无监督算法有一个共同的缺点:缺乏控制性,即很难指定性的生成某个具体的个体,也很难独立的修改某个个体的某特定属性而不影响其他属性。
可见,亟需一种能针对性和可编辑性强的对抗生成网络的图像属性编辑方法。
发明内容
有鉴于此,本公开实施例提供一种对抗生成网络的图像属性编辑方法、装置、设备及介质,至少部分解决现有技术中存在的针对图像属性可编辑性较差的问题。
第一方面,本公开实施例提供了一种对抗生成网络的图像属性编辑方法,包括:
对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码;
对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值;
根据全部所述初始生成图像及其对应的所述初始潜编码和所述标签值,建立学习模型,其中,所述学习模型包括主干模型和每个所述属性库对应的头部模型;
对全部所述属性库内的标签值进行解耦合操作;
将解耦合操作后的全部所述属性库内的初始潜编码输入所述主干模型,得到每个所述属性库的特征向量;
将每个所述属性库的特征向量同时输入其对应的头部模型,得到预测值;
根据所述预测值与所述标签值,计算损失函数;
根据所述损失函数和正则化约束更新所述主干模型和所述头部模型;
根据所述主干模型和全部所述头部模型形成所述属性编辑模型;
当接收到属性编辑指令时,将所述属性编辑指令输入所述属性编辑模型,得到目标潜编码;
将所述目标潜编码输入所述人脸生成模型,得到目标图像。
根据本公开实施例的一种具体实现方式,所述对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码的步骤,包括:
对所述潜空间进行随机采样,得到多张采样生成图像;
利用图像质量模型分别计算每张所述采样生成图像对应的质量分;
将所述质量分大于阈值的采样生成图像作为所述初始生成图像并读取对应的初始潜编码。
根据本公开实施例的一种具体实现方式,所述对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值的步骤,包括:
识别每张所述初始生成图像包含的属性标签;
对全部所述属性标签赋值后作为所述标签值;
将相同的属性标签及其对应的标签值形成一个所述属性库。
根据本公开实施例的一种具体实现方式,所述将相同的属性标签及其对应的标签值形成一个所述属性库的步骤之后,所述方法还包括:
对所述标签值为连续值的属性标签进行离散,得到包含不同所述初始生成图像的多个初始属性集合;
对全部所述属性集合的边界值进行筛除,得到目标属性集合。
根据本公开实施例的一种具体实现方式,所述将所述目标潜编码输入所述人脸生成模型,得到目标图像的步骤,包括:
将所述目标潜编码输入所述人脸生成模型,输出中间图像;
判断所述中间图像与所述目标潜编码中相同属性标签对应的标签值是否一致;
若所述中间图像与所述目标潜编码中相同属性标签对应的标签值一致,则将所述中间图像作为所述目标图像;
若所述中间图像与所述目标潜编码中相同属性标签对应的标签值不一致,则将所述损失函数反向传播至所述人脸生成模型,再次更新所述中间图像直到所述中间图像与所述目标潜编码中相同属性标签对应的标签值一致。
根据本公开实施例的一种具体实现方式,所述将所述目标潜编码输入所述人脸生成模型,得到目标图像的步骤之后,所述方法还包括:
当接收到非生成图像时,根据所述损失函数和所述人脸生成模型计算非生成图像的初始潜编码;
将所述非生成图像和所述非生成图像对应的初始潜编码形成所述初始生成图像。
第二方面,本公开实施例提供了一种对抗生成网络的图像属性编辑装置,包括:
采样模块,用于对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码;
标注模块,用于对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值;
建立模块,用于根据全部所述初始生成图像及其对应的所述初始潜编码和所述标签值,建立学习模型,其中,所述学习模型包括主干模型和每个所述属性库对应的头部模型;
解耦合模块,用于对全部所述属性库内的标签值进行解耦合操作;
第一输入模块,用于将解耦合操作后的全部所述属性库内的初始潜编码输入所述主干模型,得到每个所述属性库的特征向量;
第二输入模块,用于将每个所述属性库的特征向量同时输入其对应的头部模型,得到预测值;
计算模块,用于根据所述预测值与所述标签值,计算损失函数;
更新模块,用于根据所述损失函数和正则化约束更新所述主干模型和所述头部模型;
形成模块,用于根据所述主干模型和全部所述头部模型形成所述属性编辑模型;
第三输入模块,用于当接收到属性编辑指令时,将所述属性编辑指令输入所述属性编辑模型,得到目标潜编码;
第四输入模块,用于将所述目标潜编码输入所述人脸生成模型,得到目标图像。
根据本公开实施例的一种具体实现方式,所述采样模块还用于:
对所述潜空间进行随机采样,得到多张采样生成图像;
利用图像质量模型分别计算每张所述采样生成图像对应的质量分;
将所述质量分大于阈值的采样生成图像作为所述初始生成图像并读取对应的初始潜编码。
第三方面,本公开实施例还提供了一种电子设备,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述第一方面或第一方面的任一实现方式中的对抗生成网络的图像属性编辑方法。
第四方面,本公开实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述第一方面或第一方面的任一实现方式中的对抗生成网络的图像属性编辑方法。
第五方面,本公开实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述第一方面或第一方面的任一实现方式中的对抗生成网络的图像属性编辑方法。
本公开实施例中的对抗生成网络的图像属性编辑方案,包括:对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码;对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值;根据全部所述初始生成图像及其对应的所述初始潜编码和所述标签值,建立学习模型,其中,所述学习模型包括主干模型和每个所述属性库对应的头部模型;对全部所述属性库内的标签值进行解耦合操作;将解耦合操作后的全部所述属性库内的初始潜编码输入所述主干模型,得到每个所述属性库的特征向量;将每个所述属性库的特征向量同时输入其对应的头部模型,得到预测值;根据所述预测值与所述标签值,计算损失函数;根据所述损失函数和正则化约束更新所述主干模型和所述头部模型;根据所述主干模型和全部所述头部模型形成所述属性编辑模型;当接收到属性编辑指令时,将所述属性编辑指令输入所述属性编辑模型,得到目标潜编码;将所述目标潜编码输入所述人脸生成模型,得到目标图像。通过本公开的方案,对已有的人脸生成模型进行采样得到初始生成图像,并利用初始生成图像对应的信息建立和训练学习模型,得到完善的属性编辑模型,通过属性编辑模型生成目标潜编码对特定属性进行编辑,提高了针对图像属性的可编辑性。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本公开实施例提供的一种对抗生成网络的图像属性编辑方法的流程示意图;
图2为本公开实施例提供的一种对抗生成网络的图像属性编辑方法涉及的一种具体实施方式的部分流程示意图;
图3为本公开实施例提供的一种对抗生成网络的图像属性编辑方法的部分流程示意图;
图4为本公开实施例提供的另一种对抗生成网络的图像属性编辑方法涉及的一种具体实施方式的部分流程示意图;
图5为本公开实施例提供的一种对抗生成网络的图像属性编辑装置的结构示意图;
图6为本公开实施例提供的电子设备示意图。
具体实施方式
下面结合附图对本公开实施例进行详细描述。
以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
目前,基于机器学习技术的图像生成技术日渐成熟,特别的,在2014出现的对抗生成网络(Generative Adversarial Networks,简称GAN)技术,经过多年发展,已经能够生成非常逼真且高分辨率的图像,代表性技术为 BigGAN和StyleGAN等。这类技术通常属于无监督算法,从多维正态分布采样高斯噪声作为GAN模型的输入,GAN模型经过一系列运算得到非常逼真的图像。但此类无监督算法有一个共同的缺点:缺乏控制性,即很难指定性的生成某个具体的个体,也很难独立的修改某个个体的某特定属性而不影响其他属性。本公开实施例提供一种对抗生成网络的图像属性编辑方法,所述方法可以应用于图像处理场景中的虚拟图像生成过程。
参见图1,为本公开实施例提供的一种对抗生成网络的图像属性编辑方法的流程示意图。如图1所示,所述方法主要包括以下步骤:
S101,对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码;
具体实施时,所述人脸生成模型可以为给定的对抗生成网络(GenerativeAdversarial Networks,简称GAN)模型,所述人脸生成模型的潜空间为给定的GAN模型生成器部分的输入空间,通常为多维标准正态分布;也可以指由输入空间经过生成器的部分网络映射后得到后的中间特征空间,在对所述潜空间内的各浮点进行采样,生成多张所述初始生成图像,同时,根据生成的多张所述初始生成图像进行分析处理,得到每张所述初始生成图像对应的潜编码,所述潜编码包含的信息通常可以决定所述初始生成图像的很多属性。
S102,对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值;
具体的,考虑到所述初始生成图像可能包含多个属性,可以识别全部所述初始生成图像中包含的属性,并进行标注生成对应的标签值,然后将相同的属性作为一个所述属性库。例如,所述初始生成图像有10000张,识别出属性为脸型的初始生成图像有9000张,则将9000张所述初始生成图像中属性为脸型的标签值形成所述属性库。当然,也可以根据需要预先设定需要识别的属性类型并进行针对性识别。
S103,根据全部所述初始生成图像及其对应的所述初始潜编码和所述标签值,建立学习模型,其中,所述学习模型包括主干模型和每个所述属性库对应的头部模型;
具体实施时,考虑到通常GAN模型的潜空间的先验约束是多维标准正态分布,其缺点是先验约束要求每一维度的均值和方差相同,限制了潜编码各个维度表达差异性信息,不利于属性标签分类和/或回归。而经过主干模型的非线性映射后,潜空间被映射到了一个没有先验约束的空间,且此空间为学习得到,更加适合属性标签分类和/或回归。当GAN的潜空间并没有如多维标准正态分布类似的先验约束时,主干模型的存在亦能提升属性标签分类和/或回归准确性。在获取到全部所述初始生成图像及其对应的所述初始潜编码和所述标签值之后,可以根据全部所述初始生成图像及其对应的所述初始潜编码和所述标签值构建一个所述学习模型,将每张所述初始生成图像的潜编码和对应的标签值联系起来。
所述主干模型可以采用神经网络,当所述人脸生成模型中的潜编码为1 维度向量时,所述主干模型结构可以为多层感知机,当所述人脸生成模型中潜编码为大于1维度向量时,所述主干模型可以为多层卷积神经。所述主干模型用于将潜编码从所述潜空间非线性的映射到一个新的特征空间,得到一个新的特征张量,新的特征向量再经过所述属性库对应的头部模型,输出对应的标签值。
S104,对全部所述属性库内的标签值进行解耦合操作;
考虑到建立所述学习模块的数据是直接通过采样得到,建立所述学习模型后,若直接利用所述学习模型对所述人脸生成模型生成的图像在属性进行编辑,会存在编辑不精准的问题,可以对所述学习模型进行进一步训练,得到编辑更精准的属性编辑模型。
在训练前,可以对全部所述属性库内的标签值进行解耦合操作,以使得用于训练所述学习模型的数据歧义性少、与其他属性耦合少以及各标签值下数据平衡。
例如,以年龄为例,可以选择去除接近挡位的边界样本,如31岁和29 岁视觉感观上相差不大,容易标注错误,排除此类样本可以降低误差以使得歧义性少。或者,以表情为例,表情的其中一种标签为中性表情,很多戴眼镜的生成图像的表情标签也都是中性表情,若这批戴眼镜的数据数量占比过大,加入训练可能会导致是否戴眼镜和表情是否是中性产生耦合,影响表情模型的训练;因此可以参考不带眼镜中性表情人脸数据的数量,选择保留部分戴眼镜中性表情人脸数据,以使得和其他属性耦合性少。或者,以表情为例,若数据中中性表情数量显著多于哭泣表情,训练会导致表情模型过度偏向于中性表情,导致哭泣表情效果差;因此可以选择保留部分数量较多的标签值的数据,各标签下数据平衡。
S105,将解耦合操作后的全部所述属性库内的初始潜编码输入所述主干模型,得到每个所述属性库的特征向量;
具体实施时,所述主干模型用于将潜编码从所述潜空间非线性的映射到一个新的特征空间,得到所述属性库对应的特征向量。
S106,将每个所述属性库的特征向量同时输入其对应的头部模型,得到预测值;
例如,将属性为发色的属性库的特征向量和属性为性别的属性库的特征向量同时输入每个所述属性库对应的头部模型,得到所述预测值。
S107,根据所述预测值与所述标签值,计算损失函数;
例如,针对同一张所述初始生成图像的属性标签为年龄,得到所述预测值为15岁,所述标签值为20岁,则根据所述预测值和所述标签值的误差计算所述损失函数。
S108,根据所述损失函数和正则化约束更新所述主干模型和所述头部模型;
在获得所述损失函数后,在所述损失函数的基础上增加一个所述正则化约束,例如,可以要求所有头部模型的分类模型的分界面,和/或线性回归模型的斜率两两正交,所述正则化约束可以驱使所述主干模型过滤掉训练数据解耦合后遗留的属性之间可能有的相关性,提升属性编辑的独立性。
S109,根据所述主干模型和全部所述头部模型形成所述属性编辑模型;
将更新后的所述主干模型和更新后的全部所述头部形成所述属性编辑模型。在一种具体实施方式中,当同时训练三个所述属性库的属性编辑模型时,流程如图2所示。
S110,当接收到属性编辑指令时,将所述属性编辑指令输入所述属性编辑模型,得到目标潜编码;
在训练出所述属性编辑模型后,当接收到所述属性编辑指令时,需要对所述人脸生成模型的生成图像进行特定属性限定时,可以对所述属性编辑指令输入所述属性编辑模型进行分析处理,得到所述目标潜编码,所述目标潜编码对应特定的属性。
S111,将所述目标潜编码输入所述人脸生成模型,得到目标图像。
在得到所述目标潜编码后,将所述目标潜编码输入所述人脸生成模型,控制所述人脸生成模型在生成图像时,所述目标潜编码能对生成的图像进行指定的属性编辑,得到所述目标图像。
本公开实施例的对抗生成网络的图像属性编辑方法,通过对已有的人脸生成模型进行采样得到初始生成图像,并利用初始生成图像对应的信息建立和训练学习模型,得到完善的属性编辑模型,通过属性编辑模型生成目标潜编码对特定属性进行编辑,提高了针对图像属性的可编辑性。
在上述实施例的基础上,步骤S101所述的,对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码,包括:
对所述潜空间进行随机采样,得到多张采样生成图像;
利用图像质量模型分别计算每张所述采样生成图像对应的质量分;
将所述质量分大于阈值的采样生成图像作为所述初始生成图像并读取对应的初始潜编码。
具体实施时,可以对所述潜空间进行大量的随机采样,使采样覆盖整个潜空间,从而得到多张所述采样生成图像,考虑到是随机采样生成的采样生成图像,可能会存在图像质量过低的问题,可以利用预先设置的图像质量模型分别计算每张所述采样生成图像对应的质量分,然后将全部所述质量分与预先设定的阈值进行比对,将所述质量分大于阈值的采样生成图像作为所述初始生成图像并读取对应的初始潜编码。
在上述实施例的基础上,如图3所示,步骤S102所述的,对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值,包括:
S301,识别每张所述初始生成图像包含的属性标签;
例如,识别每张所述初始生成图像中包含性别、年龄、表情、脸型和发色等属性,并将不同的属性单独建立所述属性标签。
S302,对全部所述属性标签赋值后作为所述标签值;
可以采用预设的算法对每张所述初始生成图像进行识别分析,以使得对全部所述属性标签赋值后作为所述标签值。例如,识别所述属性标签为性别的标签值为男,识别所述属性标签为年龄的标签值为45。
S303,将相同的属性标签及其对应的标签值形成一个所述属性库。
例如,所述初始生成图像有10000张,识别出属性标签为脸型的初始生成图像有9000张,则将9000张所述初始生成图像中属性标签为脸型的标签值形成所述属性库。
可选的,步骤S203所述的,将相同的属性标签及其对应的标签值形成一个所述属性库之后,所述方法还包括:
对所述标签值为连续值的属性标签进行离散,得到包含不同所述初始生成图像的多个初始属性集合;
考虑到所述标签值为离散值的属性标签可以很好的区分并进行训练,但是对于所述标签值为连续值的属性标签,可以先进行离散处理,得到包含不同所述初始生成图像的多个初始属性集合。例如,可以先构建连续值的标签,再离散化为多个挡位如年龄,先对每张所述初始生成图像标注具体的年龄,如34 岁58岁,再离散化成30-40岁一档为一个所述初始属性集合,50-60岁一档为一个所述初始属性集合。离散化挡位的粒度和边界可以根据所有生成图像在此标签下的统计直方图判断决定。当然,即便使用时只对部分属性感兴趣,也要标注尽可能多的属性标签,所述属性标签可以包括性别、人种、肤色、年龄、表情、人脸姿态朝向、发色、发型、脸型和眼镜等。
对全部所述属性集合的边界值进行筛除,得到目标属性集合。
得到多个所述初始属性集合后,并不是所述初始属性集合内的全部数据都适合进行训练所述学习模型。例如以年龄为例,可以选择去除接近挡位的边界值,如31岁和29岁视觉感观上相差不大,容易标注错误,排除此类样本,得到所述目标属性集合,从而可以降低误差。
在上述实施例的基础上,步骤S111所述的,将所述目标潜编码输入所述人脸生成模型,得到目标图像,包括:
将所述目标潜编码输入所述人脸生成模型,输出中间图像。
例如,所述目标潜编码对应的属性标签为脸型,对应的标签值为圆脸,则将所述人脸生成模型中的对应属性标签为脸型的初始潜编码更新为所述目标潜编码,并输出所述中间图像。
判断所述中间图像与所述目标潜编码中相同属性标签对应的标签值是否一致;
考虑到通过所述属性编辑模型的训练精度问题,可能根据所述编辑指令对待生成图像的属性进行编辑时会存在误差,可以在输入所述中间图像后,再将所述中间图像输入所述主干模型,输入所述中间图像对应的特征向量,然后将不同属性的特征向量输入对应的头部模型,得到标签值,判断所述中间图像与所述目标潜编码中相同属性标签对应的标签值是否一致,从而确定下一步操作流程。
若所述中间图像与所述目标潜编码中相同属性标签对应的标签值一致,则将所述中间图像作为所述目标图像;
例如,若所述中间图像中头发长度属性的标签值为5厘米,所述目标潜编码中头发长度属性的标签值为5厘米,所述中间图像中表情属性的标签值为中性,所述目标潜编码中表情属性的标签值为中性,则确定属性编辑成功,可以将所述中间图像作为所述目标图像。
若所述中间图像与所述目标潜编码中相同属性标签对应的标签值不一致,则将所述损失函数反向传播至所述人脸生成模型,再次更新所述中间图像直到所述中间图像与所述目标潜编码中相同属性标签对应的标签值一致。
例如,若所述中间图像中头发长度属性的标签值为5厘米,所述目标潜编码中头发长度属性的标签值为7厘米,所述中间图像中表情属性的标签值为中性,所述目标潜编码中表情属性的标签值为中性,则确定针对头发长度属性编辑失败,可以误差值计算所述损失函数,并将所述损失函数反向传播至所述人脸生成模型,再次更新所述中间图像直到所述中间图像与所述目标潜编码中相同属性标签对应的标签值一致。
在一种具体实现的方式中,在对三个属性进行编辑时,具体流程如图4 所示,对于给定要编辑的生成样本对应的目标潜编码,获得所述属性编辑模型的输出,即多标签向量记为Y=[y1,y2,...,yN],其中yi为第i个属性的标签值;基于Y,将给定要编辑的一个或多个属性对应位置的值修改成要改成的值,得到期望的其中为根据期望属性标签值修改后的值,不需要更改的属性保持标签值yi不变。
分类模型的损失函数通常可以是softmax交叉熵损失函数,回归模型的损失函数通常可以是均方误差损失函数。
然后固定所有的属性机器学习模型的参数,将通过反向传播 back-propagation算法将梯度传递到潜编码Z,梯度记为更新潜编码为将Z'输入给定的GAN模型的生成器 G,G(Z')就是在G(Z)基础上修改给定属性后的图像。根据更新步长step的不同,可以获得不同程度的编辑效果。
例如,给定生成样本是一个男性人脸,希望编辑属性是性别,其输出是0:女,1:男,则原潜编码Z对应的多标签向量为Y=[y1,y2,...,yN],期望的多标签向量为最终在特定步长step下更新获得的 G(Z')就是对应的女性人脸。通过在计算时约束其他属性不变,可以进一步使得对潜编码的更新只影响给定希望改变的属性,而不影响其他属性。
在上述实施例的基础上,步骤S111所述的,将所述目标潜编码输入所述人脸生成模型,得到目标图像之后,所述方法还包括:
当接收到非生成图像时,根据所述损失函数和所述人脸生成模型计算非生成图像的初始潜编码;
具体实施时,所述非生成图像可以为真实图像,或是由给定的GAN模型生成的虚拟图像但其对应潜编码未知,或由其他GAN模型生成的虚拟图像。在接收到所述非生成图像时,可以根据所述损失函数和所述人脸生成模型计算非生成图像的初始潜编码。
在一种具体实施方式中,给定所述非生成图像I,和给定GAN模型的生成器G,固定G的参数,求解优化问题其中Loss 可以是多个损失函数的加权和,可以包括但不限于如L1损失函数和感知损失函数等,所得Z*即为所述非生成图像I对应的初始潜编码。当然,还可以通过其他方式求取所述非生成图像的初始潜编码。
将所述非生成图像和所述非生成图像对应的初始潜编码形成所述初始生成图像。
在得到所述非生成图像的初始潜编码后,将所述非生成图像和所述非生成图像对应的初始潜编码形成所述初始生成图像。
与上面的方法实施例相对应,参见图5,本公开实施例还提供了一种对抗生成网络的图像属性编辑装置50,包括:
采样模块501,用于对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码;
标注模块502,用于对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值;
建立模块503,用于根据全部所述初始生成图像及其对应的所述初始潜编码和所述标签值,建立学习模型,其中,所述学习模型包括主干模型和每个所述属性库对应的头部模型;
解耦合模块504,用于对全部所述属性库内的标签值进行解耦合操作;
第一输入模块505,用于将解耦合操作后的全部所述属性库内的初始潜编码输入所述主干模型,得到每个所述属性库的特征向量;
第二输入模块506,用于将每个所述属性库的特征向量同时输入其对应的头部模型,得到预测值;
计算模块507,用于根据所述预测值与所述标签值,计算损失函数;
更新模块508,用于根据所述损失函数和正则化约束更新所述主干模型和所述头部模型;
形成模块509,用于根据所述主干模型和全部所述头部模型形成所述属性编辑模型;
第三输入模块510,用于当接收到属性编辑指令时,将所述属性编辑指令输入所述属性编辑模型,得到目标潜编码;
第四输入模块511,用于将所述目标潜编码输入所述人脸生成模型,得到目标图像。
可选的,所述采样模块501还用于:
对所述潜空间进行随机采样,得到多张采样生成图像;
利用图像质量模型分别计算每张所述采样生成图像对应的质量分;
将所述质量分大于阈值的采样生成图像作为所述初始生成图像并读取对应的初始潜编码。
图5所示装置可以对应的执行上述方法实施例中的内容,本实施例未详细描述的部分,参照上述方法实施例中记载的内容,在此不再赘述。
参见图6,本公开实施例还提供了一种电子设备60,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述方法实施例中的对抗生成网络的图像属性编辑方法。
本公开实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述方法实施例中的对抗生成网络的图像属性编辑方法。
本公开实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述方法实施例中的对抗生成网络的图像属性编辑方法。
下面参考图6,其示出了适于用来实现本公开实施例的电子设备60的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备60可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备60操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O) 接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备 60与其他设备进行无线或有线通信以交换数据。虽然图中示出了具有各种装置的电子设备60,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609 从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM 或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备可以执行上述方法实施例的相关步骤。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备可以执行上述方法实施例的相关步骤。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如 Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种对抗生成网络的图像属性编辑方法,其特征在于,包括:
对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码;
对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值;
根据全部所述初始生成图像及其对应的所述初始潜编码和所述标签值,建立学习模型,其中,所述学习模型包括主干模型和每个所述属性库对应的头部模型;
对全部所述属性库内的标签值进行解耦合操作;
将解耦合操作后的全部所述属性库内的初始潜编码输入所述主干模型,得到每个所述属性库的特征向量;
将每个所述属性库的特征向量同时输入其对应的头部模型,得到预测值;
根据所述预测值与所述标签值,计算损失函数;
根据所述损失函数和正则化约束更新所述主干模型和所述头部模型;
根据所述主干模型和全部所述头部模型形成属性编辑模型;
当接收到属性编辑指令时,将所述属性编辑指令输入所述属性编辑模型,得到目标潜编码;
将所述目标潜编码输入所述人脸生成模型,得到目标图像。
2.根据权利要求1所述的方法,其特征在于,所述对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码的步骤,包括:
对所述潜空间进行随机采样,得到多张采样生成图像;
利用图像质量模型分别计算每张所述采样生成图像对应的质量分;
将所述质量分大于阈值的采样生成图像作为所述初始生成图像并读取对应的初始潜编码。
3.根据权利要求2所述的方法,其特征在于,所述对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值的步骤,包括:
识别每张所述初始生成图像包含的属性标签;
对全部所述属性标签赋值后作为所述标签值;
将相同的属性标签及其对应的标签值形成一个所述属性库。
4.根据权利要求3所述的方法,其特征在于,所述将相同的属性标签及其对应的标签值形成一个所述属性库的步骤之后,所述方法还包括:
对所述标签值为连续值的属性标签进行离散,得到包含不同所述初始生成图像的多个初始属性集合;
对全部所述属性集合的边界值进行筛除,得到目标属性集合。
5.根据权利要求4所述的方法,其特征在于,所述将所述目标潜编码输入所述人脸生成模型,得到目标图像的步骤,包括:
将所述目标潜编码输入所述人脸生成模型,输出中间图像;
判断所述中间图像与所述目标潜编码中相同属性标签对应的标签值是否一致;
若所述中间图像与所述目标潜编码中相同属性标签对应的标签值一致,则将所述中间图像作为所述目标图像;
若所述中间图像与所述目标潜编码中相同属性标签对应的标签值不一致,则将所述损失函数反向传播至所述人脸生成模型,再次更新所述中间图像直到所述中间图像与所述目标潜编码中相同属性标签对应的标签值一致。
6.根据权利要求5所述的方法,其特征在于,所述将所述目标潜编码输入所述人脸生成模型,得到目标图像的步骤之后,所述方法还包括:
当接收到非生成图像时,根据所述损失函数和所述人脸生成模型计算非生成图像的初始潜编码;
将所述非生成图像和所述非生成图像对应的初始潜编码形成所述初始生成图像。
7.一种对抗生成网络的图像属性编辑装置,其特征在于,包括:
采样模块,用于对人脸生成模型的潜空间进行采样,得到多张初始生成图像及每张所述初始生成图像对应的初始潜编码;
标注模块,用于对全部所述初始生成图像进行标注,生成对应的至少一个属性库和其对应的标签值;
建立模块,用于根据全部所述初始生成图像及其对应的所述初始潜编码和所述标签值,建立学习模型,其中,所述学习模型包括主干模型和每个所述属性库对应的头部模型;
解耦合模块,用于对全部所述属性库内的标签值进行解耦合操作;
第一输入模块,用于将解耦合操作后的全部所述属性库内的初始潜编码输入所述主干模型,得到每个所述属性库的特征向量;
第二输入模块,用于将每个所述属性库的特征向量同时输入其对应的头部模型,得到预测值;
计算模块,用于根据所述预测值与所述标签值,计算损失函数;
更新模块,用于根据所述损失函数和正则化约束更新所述主干模型和所述头部模型;
形成模块,用于根据所述主干模型和全部所述头部模型形成属性编辑模型;
第三输入模块,用于当接收到属性编辑指令时,将所述属性编辑指令输入所述属性编辑模型,得到目标潜编码;
第四输入模块,用于将所述目标潜编码输入所述人脸生成模型,得到目标图像。
8.根据权利要求7所述的装置,其特征在于,所述采样模块还用于:
对所述潜空间进行随机采样,得到多张采样生成图像;
利用图像质量模型分别计算每张所述采样生成图像对应的质量分;
将所述质量分大于阈值的采样生成图像作为所述初始生成图像并读取对应的初始潜编码。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述权利要求1-6中任一项所述的对抗生成网络的图像属性编辑方法。
10.一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述权利要求1-6中任一项所述的对抗生成网络的图像属性编辑方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011622916.2A CN112734873B (zh) | 2020-12-31 | 2020-12-31 | 对抗生成网络的图像属性编辑方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011622916.2A CN112734873B (zh) | 2020-12-31 | 2020-12-31 | 对抗生成网络的图像属性编辑方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112734873A true CN112734873A (zh) | 2021-04-30 |
CN112734873B CN112734873B (zh) | 2023-10-03 |
Family
ID=75608840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011622916.2A Active CN112734873B (zh) | 2020-12-31 | 2020-12-31 | 对抗生成网络的图像属性编辑方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112734873B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408673A (zh) * | 2021-08-19 | 2021-09-17 | 联想新视界(南昌)人工智能工研院有限公司 | 生成对抗网络子空间解耦和生成编辑方法、系统及计算机 |
CN113706663A (zh) * | 2021-08-27 | 2021-11-26 | 脸萌有限公司 | 图像生成方法、装置、设备及存储介质 |
CN115082292A (zh) * | 2022-06-06 | 2022-09-20 | 华南理工大学 | 基于全局属性编辑方向的人脸多属性编辑方法 |
CN115393183A (zh) * | 2022-10-28 | 2022-11-25 | 腾讯科技(深圳)有限公司 | 图像编辑方法、装置、计算机设备和存储介质 |
CN115659852A (zh) * | 2022-12-26 | 2023-01-31 | 浙江大学 | 一种基于离散潜在表示的布局生成方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10311334B1 (en) * | 2018-12-07 | 2019-06-04 | Capital One Services, Llc | Learning to process images depicting faces without leveraging sensitive attributes in deep learning models |
CN111368662A (zh) * | 2020-02-25 | 2020-07-03 | 华南理工大学 | 一种人脸图像属性编辑方法、装置、存储介质及设备 |
CN111814566A (zh) * | 2020-06-11 | 2020-10-23 | 北京三快在线科技有限公司 | 图像编辑方法、装置、电子设备及存储介质 |
CN111860186A (zh) * | 2020-06-23 | 2020-10-30 | 华北电力大学(保定) | 一种基于多注意力机制的人脸属性编辑网络 |
-
2020
- 2020-12-31 CN CN202011622916.2A patent/CN112734873B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10311334B1 (en) * | 2018-12-07 | 2019-06-04 | Capital One Services, Llc | Learning to process images depicting faces without leveraging sensitive attributes in deep learning models |
CN111368662A (zh) * | 2020-02-25 | 2020-07-03 | 华南理工大学 | 一种人脸图像属性编辑方法、装置、存储介质及设备 |
CN111814566A (zh) * | 2020-06-11 | 2020-10-23 | 北京三快在线科技有限公司 | 图像编辑方法、装置、电子设备及存储介质 |
CN111860186A (zh) * | 2020-06-23 | 2020-10-30 | 华北电力大学(保定) | 一种基于多注意力机制的人脸属性编辑网络 |
Non-Patent Citations (2)
Title |
---|
CHENXI YUAN等: "Attribute-aware generative design with generative adversarial networks", 《IEEE ACCESS》, vol. 8, pages 190710 - 190721, XP011817016, DOI: 10.1109/ACCESS.2020.3032280 * |
林振峰等: "基于条件生成式对抗网络的图像转换综述", 《小型微型计算机系统》, vol. 41, no. 12, pages 2569 - 2581 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408673A (zh) * | 2021-08-19 | 2021-09-17 | 联想新视界(南昌)人工智能工研院有限公司 | 生成对抗网络子空间解耦和生成编辑方法、系统及计算机 |
CN113408673B (zh) * | 2021-08-19 | 2021-11-02 | 联想新视界(南昌)人工智能工研院有限公司 | 生成对抗网络子空间解耦和生成编辑方法、系统及计算机 |
CN113706663A (zh) * | 2021-08-27 | 2021-11-26 | 脸萌有限公司 | 图像生成方法、装置、设备及存储介质 |
CN113706663B (zh) * | 2021-08-27 | 2024-02-02 | 脸萌有限公司 | 图像生成方法、装置、设备及存储介质 |
CN115082292A (zh) * | 2022-06-06 | 2022-09-20 | 华南理工大学 | 基于全局属性编辑方向的人脸多属性编辑方法 |
CN115393183A (zh) * | 2022-10-28 | 2022-11-25 | 腾讯科技(深圳)有限公司 | 图像编辑方法、装置、计算机设备和存储介质 |
WO2024087946A1 (zh) * | 2022-10-28 | 2024-05-02 | 腾讯科技(深圳)有限公司 | 图像编辑方法、装置、计算机设备和存储介质 |
CN115659852A (zh) * | 2022-12-26 | 2023-01-31 | 浙江大学 | 一种基于离散潜在表示的布局生成方法及装置 |
CN115659852B (zh) * | 2022-12-26 | 2023-03-21 | 浙江大学 | 一种基于离散潜在表示的布局生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112734873B (zh) | 2023-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112734873B (zh) | 对抗生成网络的图像属性编辑方法、装置、设备及介质 | |
CN110599492B (zh) | 图像分割模型的训练方法、装置、电子设备及存储介质 | |
CN111754596B (zh) | 编辑模型生成、人脸图像编辑方法、装置、设备及介质 | |
CN110378410B (zh) | 多标签场景分类方法、装置及电子设备 | |
CN112541122A (zh) | 推荐模型的训练方法、装置、电子设备及存储介质 | |
CN113177559B (zh) | 结合广度和密集卷积神经网络的图像识别方法、系统、设备及介质 | |
CN110378438A (zh) | 标签容错下的图像分割模型的训练方法、装置及相关设备 | |
US20200380304A1 (en) | Labeling using interactive assisted segmentation | |
CN111653274B (zh) | 唤醒词识别的方法、装置及存储介质 | |
CN116934769A (zh) | 交互式分割模型训练方法、标注数据生成方法及设备 | |
CN114049674A (zh) | 一种三维人脸重建方法、装置及存储介质 | |
CN112785493A (zh) | 模型的训练方法、风格迁移方法、装置、设备及存储介质 | |
US20230351558A1 (en) | Generating an inpainted image from a masked image using a patch-based encoder | |
CN116229054A (zh) | 图像处理方法、装置及电子设备 | |
CN110472673B (zh) | 参数调整方法、眼底图像处理方法、装置、介质及设备 | |
CN115861255A (zh) | 用于图像处理的模型训练方法、装置、设备、介质及产品 | |
CN118397147A (zh) | 一种基于深度学习的图像文本生成方法及装置 | |
CN111161238A (zh) | 图像质量评价方法及装置、电子设备、存储介质 | |
CN112839185B (zh) | 用于处理图像的方法、装置、设备和介质 | |
CN114118526A (zh) | 一种企业风险预测方法、装置、设备及存储介质 | |
CN114757247A (zh) | 分类预测模型的训练方法、分类预测方法、装置和设备 | |
CN113486980B (zh) | 基于自表示字典对的铝电解槽况识别方法、系统及设备 | |
CN115809438A (zh) | 多模态情感分析方法、系统、设备及存储介质 | |
CN113379733B (zh) | 无参考图像质量评价的分块标签权重度量方法及设备 | |
CN113822293A (zh) | 用于图数据的模型处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230830 Address after: Unit 202, 2nd Floor, Unit 1, Building 13, Ganluyuan Zhongli, Chaoyang District, Beijing, 100000 Applicant after: Beijing Huimei Future Technology Co.,Ltd. Address before: Room 601, 5th floor, 8 Haidian North 2nd Street, Haidian District, Beijing Applicant before: Beijing Shenshang Technology Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |