CN112862669B - 图像生成模型的训练方法、生成方法、装置及设备 - Google Patents
图像生成模型的训练方法、生成方法、装置及设备 Download PDFInfo
- Publication number
- CN112862669B CN112862669B CN202110143927.0A CN202110143927A CN112862669B CN 112862669 B CN112862669 B CN 112862669B CN 202110143927 A CN202110143927 A CN 202110143927A CN 112862669 B CN112862669 B CN 112862669B
- Authority
- CN
- China
- Prior art keywords
- image
- model
- transformation model
- training
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 193
- 238000000034 method Methods 0.000 title claims abstract description 75
- 230000009466 transformation Effects 0.000 claims abstract description 283
- 230000001131 transforming effect Effects 0.000 claims abstract description 5
- 238000003860 storage Methods 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 16
- 230000015572 biosynthetic process Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 11
- 238000003786 synthesis reaction Methods 0.000 claims description 11
- 230000008447 perception Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 abstract description 11
- 238000010801 machine learning Methods 0.000 abstract description 4
- 230000008901 benefit Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000010422 painting Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010428 oil painting Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000010429 water colour painting Methods 0.000 description 1
Classifications
-
- G06T3/04—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
本申请实施例提供了一种图像生成模型的训练方法、生成方法、装置及设备,涉及机器学习和图像处理技术领域。所述方法包括:训练得到第一变换模型,第一变换模型用于基于第一噪声样本生成第一训练图像,第一训练图像为第一类风格的图像;基于第一变换模型,训练得到重构模型;训练得到第二变换模型,第二变换模型用于基于第二噪声样本生成第二训练图像,第二训练图像为第二类风格的图像;将第一变换模型与第二变换模型进行嫁接,生成嫁接后的变换模型;基于重构模型和嫁接后的变换模型,生成图像生成模型,图像生成模型用于将第一类风格的待变换图像,变换为第二类风格的目标图像。采用本申请实施例提供的技术方案,能够降低模型训练的时间成本。
Description
技术领域
本申请实施例涉及机器学习和图像处理技术领域,特别涉及一种图像生成模型的训练方法、生成方法、装置及设备。
背景技术
目前,机器学习技术越来越广泛地应用于图像处理技术领域,例如,基于机器学习技术变换图像的风格。
在相关技术中,先采集大量的训练样本对,每一训练样本对包括真实人脸图像与对应的人脸漫画图像;再采用大量的训练样本对,直接对学习模型进行大量的迭代训练,训练完成的学习模型即为图像生成模型。
在上述相关技术中,通过图像生成模型生成的人脸漫画图像,既要保持人脸特征,又要具有较为强烈的漫画风格,因而需要采用大量的训练样本进行大量的迭代训练,模型训练的时间成本较高。
发明内容
本申请实施例提供了一种图像生成模型的训练方法、生成方法、装置及设备,能够降低模型训练的时间成本。所述技术方案如下:
根据本申请实施例的一个方面,提供了一种图像生成模型的训练方法,所述方法包括:
训练得到第一变换模型,所述第一变换模型用于基于第一噪声样本生成第一训练图像,所述第一训练图像为第一类风格的图像;
基于所述第一变换模型,训练得到重构模型,所述重构模型用于将原始图像样本映射为所述原始图像样本对应的隐变量;
训练得到第二变换模型,所述第二变换模型用于基于第二噪声样本生成第二训练图像,所述第二训练图像为第二类风格的图像;
将所述第一变换模型与所述第二变换模型进行嫁接,生成嫁接后的变换模型;
基于所述重构模型和所述嫁接后的变换模型,生成图像生成模型,所述图像生成模型用于将所述第一类风格的待变换图像,变换为所述第二类风格的目标图像。
根据本申请实施例的一个方面,提供了一种图像生成方法,所述方法包括:
将第一类风格的待变换图像输入重构模型,生成所述待变换图像对应的隐变量;
基于所述待变换图像对应的隐变量,采用嫁接后的变换模型生成所述待变换图像对应的目标图像,所述目标图像为第二类风格的图像;
其中,所述嫁接后的变换模型是通过将第一变换模型与第二变换模型进行嫁接生成的模型;所述第一变换模型用于基于第一噪声样本生成所述第一类风格的图像;所述第二变换模型用于基于第二噪声样本生成所述第二类风格的图像。
根据本申请实施例的一个方面,提供了一种图像生成模型的训练装置,所述装置包括:
模型训练模块,用于训练得到第一变换模型,所述第一变换模型用于基于第一噪声样本生成第一训练图像,所述第一训练图像为第一类风格的图像;
所述模型训练模块,还用于基于所述第一变换模型,训练得到重构模型,所述重构模型用于将原始图像样本映射为所述原始图像样本对应的隐变量;
所述模型训练模块,还用于训练得到第二变换模型,所述第二变换模型用于基于第二噪声样本生成第二训练图像,所述第二训练图像为第二类风格的图像;
模型生成模块,用于将所述第一变换模型与所述第二变换模型进行嫁接,得到嫁接后的变换模型;
所述模型生成模块,还用于基于所述重构模型和所述嫁接后的变换模型,生成图像生成模型,所述图像生成模型用于将所述第一类风格的待变换图像,变换为所述第二类风格的目标图像。
根据本申请实施例的一个方面,提供了一种图像生成装置,所述装置包括:
变量生成模块,用于将第一类风格的待变换图像输入重构模型,生成所述待变换图像对应的隐变量;
图像生成模块,用于基于所述待变换图像对应的隐变量,采用嫁接后的变换模型生成所述待变换图像对应的目标图像,所述目标图像为第二类风格的图像;
其中,所述嫁接后的变换模型是通过将第一变换模型与第二变换模型进行嫁接生成的模型;所述第一变换模型用于基于第一噪声样本生成所述第一类风格的图像;所述第二变换模型用于基于第二噪声样本生成所述第二类风格的图像。
根据本申请实施例的一个方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现上述图像生成模型的训练方法,或实现上述图像生成方法。
根据本申请实施例的一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现上述图像生成模型的训练方法,或实现上述图像生成方法。
根据本申请实施例的一个方面,提供了一种计算机程序产品,所述计算机程序产品由处理器加载并执行以实现上述图像生成模型的训练方法,或实现上述图像生成方法。
本申请实施例提供的技术方案可以包括如下有益效果:
通过分别训练第一变换模型和第二变换模型,由于第一变换模型具备良好地保持图像的目标特征的优势,第二变换模型具备生成风格较为强烈的第二类风格的图像的优势,训练过程中,分别针对第一变换模型和第二变换模型各自的目标优势进行训练,再将训练得到的第一变换模型和第二变换模型进行嫁接,得到嫁接后的变换模型,基于重构模型和嫁接后的变换模型生成图像生成模型,较大程度地降低了模型训练的复杂程度,因而所需训练样本和训练迭代次数较少,节省了模型训练的时间成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的图像生成模型的训练方法的流程图;
图2是本申请一个实施例提供的模型嫁接的示意图;
图3是本申请另一个实施例提供的图像生成模型的训练方法的流程图;
图4是本申请一个实施例提供的第一变换模型的结构示意图;
图5是本申请一个实施例提供的重构模型的结构示意图;
图6是本申请一个实施例提供的图像生成方法的流程图;
图7是本申请一个实施例提供的图像生成方法的示意图;
图8是本申请一个实施例提供的图像生成模型的训练装置的框图;
图9是本申请另一个实施例提供的图像生成模型的训练装置的框图;
图10是本申请一个实施例提供的图像生成装置的框图;
图11是本申请一个实施例提供的终端的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的方法的例子。
人脸变换是计算机视觉中常见的图像处理方式。采用本申请实施例提供的方法训练得到的图像生成模型,能够应用于目标应用程序中(如视频类应用程序、社交类应用程序、直播类应用程序、购物类应用程序、图像处理类应用程序等)中,通过将待变换图像(图片或视频)输入目标应用程序中,生成变换后的目标图像。其中,图像生成模型写入了目标应用程序,或写入了为目标应用程序提供后台服务的服务器中。可选地,人脸变换还可以应用于人脸漫画化、人脸风格化、人脸属性编辑(如变年龄,变性别等)等场景中,本申请实施例对此不作具体限定。
本申请实施例提供的方法,各步骤的执行主体可以是计算机设备,该计算机设备是指具备数据计算、处理和存储能力的电子设备。该计算机设备可以是诸如PC(PersonalComputer,个人计算机)、平板电脑、智能手机、可穿戴设备、智能机器人等终端;也可以是服务器。其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。
下面,通过几个实施例对本申请技术方案进行介绍说明。
请参考图1,其示出了本申请一个实施例提供的图像生成模型的训练方法的流程图。在本实施例中,主要以该方法应用于上文介绍的计算机设备中来举例说明。该方法可以包括如下几个步骤(101~105):
步骤101,训练得到第一变换模型,第一变换模型用于基于第一噪声样本生成第一训练图像,第一训练图像为第一类风格的图像。
在一些实施例中,将第一噪声样本输入第一变换模型,得到对应的第一训练图像,再基于该对应的第一训练图像调整第一变换模型的参数;之后,继续将剩余的第一噪声样本输入第一变换模型,对第一变换模型进行下一次的迭代训练,直到第一变换模型训练完成。
在本实施例中,第一变换模型用于生成符合第一特征的第一训练图像。第一特征为客观存在的人或物体或场景的特征。在一个示例中,第一特征为真实人脸特征,也即,第一训练图像为模拟真实人脸的图像。在训练过程中,通过判别第一训练图像中的人脸符合真实人脸特征可能性,调整第一变换模型的权重参数,使得第一变换模型能够生成符合真实人脸特征的图像。
可选地,第一噪声样本为随机生成的噪声。在一些实施例中,第一噪声样本的概率密度函数服从高斯分布。
步骤102,基于第一变换模型,训练得到重构模型,重构模型用于将原始图像样本映射为原始图像样本对应的隐变量。
可选地,隐变量是指未能观测到的变量。在一些实施例中,重构模型能够将原始图像样本通过编码映射为对应的隐变量,从而将高维的原始图像样本转换为较低维度的隐变量,减少了模型的计算量和计算时间,进一步提升了模型训练的时间成本。
步骤103,训练得到第二变换模型,第二变换模型用于基于第二噪声样本生成第二训练图像,第二训练图像为第二类风格的图像。
在一些实施例中,将第二噪声样本输入第二变换模型,得到对应的第二训练图像,再基于该对应的第二训练图像调整第二变换模型的参数;之后,继续将剩余的第二噪声样本输入第二变换模型,对第二变换模型进行下一次的迭代训练,直到第二变换模型训练完成。
在本实施例中,第二类风格为漫画风格(如波普漫画风格、简笔漫画风格等)、水墨画风格、工笔画风格、油画风格、水彩画风格、素描风格、抽象画风格、映像画风格等等,本申请实施例对此不作具体限定。
可选地,在训练过程中,第二变换模型的初始权重参数为第一变换模型的权重参数。也即,第二变换模型基于第一变换模型进一步训练得到的。
步骤104,将第一变换模型与第二变换模型进行嫁接,生成嫁接后的变换模型。
可选地,分别从第一变换模型和第二变换模型中选取不同部分的权重参数进行嫁接,生成嫁接后的变换模型。生成后的嫁接模型同时具备第一变换模型生成或保持图像的第一特征的特性,以及第二变换模型生成第二类风格的图像的特征。
在一些实施例中,将第一变换模型的多层权重网络中的n层权重网络,与第二变换模型的多层权重网络中的m层权重网络进行嫁接,生成嫁接后的变换模型。其中,n层权重网络与m层权重网络的层次不相同,n为正整数,m为正整数。可选地,第一变换模型和第二变换模型为结构相同或相近的模型,其权重网络的层数相同,将第一变换模型的后n层权重网络拼接在第二变换模型的前m层权重网络之后,得到嫁接后的变换模型。可选地,嫁接后的变换模型与第一变换模型或第二变换模型的权重网络的层数相同。嫁接后的变换模型与第一变换模型或第二变换模型的结构相同或相近。
需要说明的是,n为2、3、4、5、6、7、8、9等等。可选地,n的具体取值由相关技术人员根据实际情况进行设定,本申请实施例对此不作具体限定。m为2、3、4、5、6、7、8、9等等。可选地,m的具体取值由相关技术人员根据实际情况进行设定,本申请实施例对此不作具体限定。
可选地,n与m之和为第一变换模型或第二变换模型的权重网络的层数。
在一个示例中,如图2所示,第一变换模型21和第二变换模型22为结构相同的模型,其权重网络的层数均为14层。将第一变换模型21的后6层权重网络23拼接在第二变换模型22的前8层权重网络24之后,得到嫁接后的变换模型25。
在另一些实施例中,将第一变换模型的多层权重网络中的权重参数,与第二变换模型的多层权重网络中对应的权重参数进行求和或平均或做差运算,生成嫁接后的变换模型。可选地,第一变换模型、第二变换模型和嫁接后的变换模型为结构相同或相近的模型,其权重网络的结构和层数完全相同。在一个示例中,将第一变换模型中权重网络的第i个权重参数,与第二变换模型中权重网络的第i个权重参数进行求和或平均或做差运算,得到嫁接后的变换模型中权重网络的第i个权重参数,i为正整数;以此类推,得到嫁接后的变换模型中权重网络的所有权重参数。可选地,求和运算为加权求和运算,计算嫁接后的变换模型中权重网络的各个权重参数所采用的权重系数均相同。
步骤105,基于重构模型和嫁接后的变换模型,生成图像生成模型。
可选地,图像生成模型用于将第一类风格的待变换图像,变换为第二类风格的目标图像。在一些实施例中,将重构模型与嫁接后的变换模型组合,即得到图像生成模型。待变换图像为第一类风格的图像,目标图像为第二类风格的图像,将待变换图像输入图像生成模型,能够生成目标图像,从而将待变换图像由第一类风格变换为第二类风格,使待变换图像实现风格变换。
在一些可能的实现方式中,该步骤105包括如下子步骤:
1、将重构模型和嫁接后的变换模型进行组合,得到组合后的变换模型;
2、获取第四训练样本集,第四训练样本集包括至少一个原始图像样本,以及至少一个原始图像样本分别对应的第二类风格的图像;
3、采用第四训练样本集,对组合后的变换模型进行微调(fine-tune),生成图像生成模型。
在一些实施例中,将嫁接后的变换模型拼接在重构模型之后,得到组合后的变换模型;之后,通过模型训练对组合后的变换模型的权重参数进行微调,得到图像生成模型。
综上所述,本申请实施例提供的技术方案中,通过分别训练第一变换模型和第二变换模型,由于第一变换模型具备良好地保持图像的目标特征的优势,第二变换模型具备生成风格较为强烈的第二类风格的图像的优势,训练过程中,分别针对第一变换模型和第二变换模型各自的目标优势进行训练,再将训练得到的第一变换模型和第二变换模型进行嫁接,得到嫁接后的变换模型,基于重构模型和嫁接后的变换模型生成图像生成模型,较大程度地降低了模型训练的复杂程度,因而所需训练样本和训练迭代次数较少,节省了模型训练的时间成本。
请参考3图,其示出了本申请另一个实施例提供的图像生成模型的训练方法的流程图。在本实施例中,主要以该方法应用于上文介绍的计算机设备中来举例说明。该方法可以包括如下几个步骤(步骤301~312):
步骤301,获取第一训练样本集,第一训练样本集包括多个第一噪声样本。
可选地,第一噪声样本是在训练第一变换模型时使用的噪声样本。在一些实施例中,通过随机噪声生成函数,生成多个随机的第一噪声样本,得到第一训练样本集。
可选地,第一变换模型为StyleGAN(StyleGenerative Adversarial Networks,基于样式的生成对抗网络)-V2模型。如图4所示,第一变换模型包括第一映射网络(MappingNetwork)41和第一合成网络42。映射网络能够对输入进行解缠。第一映射网络41包括8个全连接层(FC,Fully Connected Layer)。第一合成网络42包括至少一个可学习的仿射变换层(A,Affine Transformation)、至少一个调制模块(Mod-Demod)和至少一个上采样(Upsample)层、至少一个常数(Const)层和至少一个噪声参数层。可选地,调制模块的计算公式包括如下公式一、二、三:
公式一:
w′ijk=si·wijk
公式二:
公式三:
其中,i、j、k表示调制模块中隐变量在不同维度上的编号,wijk表示编号为(i,j,k)的隐变量,w′ijk表示公式一的计算结果,σj表示公式二的计算结果,∈表示极小数,w″ijk表示公式三的计算结果。
在一些实施例中,第一变换模型包括第一映射网络和第一合成网络。
步骤302,将多个第一噪声样本分别输入第一映射网络,得到多个第一噪声样本分别对应的隐变量。
在一些实施例中,第一映射网络包括多个全连接层,将多个第一噪声样本分别输入第一映射网络后,经过多个全连接层,得到多个第一噪声样本分别对应的隐变量。
步骤303,将多个第一噪声样本分别对应的隐变量分别输入第一合成网络,得到多个第一噪声样本分别对应的第一训练图像。
在一些实施例中,将多个第一噪声样本分别对应的隐变量分别输入第一合成网络,多个第一噪声样本分别对应的隐变量在第一合成网络中经过仿射变换、调制、上采样之后,得到多个第一噪声样本分别对应的第一训练图像。
步骤304,基于多个第一噪声样本分别对应的第一训练图像,调整第一变换模型的权重参数。
可选地,得到多个第一噪声样本分别对应的第一训练图像之后,通过对多个第一噪声样本分别对应的第一训练图像进行判别的判别结果,调整第一变换模型的权重参数。
在一些实施例中,第一变换模型包括第一判别网络。该步骤304还包括如下步骤:
1、将多个第一噪声样本分别对应的第一训练图像分别输入第一判别网络,得到多个第一噪声样本分别对应的第一判别损失;
2、基于多个第一噪声样本分别对应的第一判别损失,调整第一变换模型的权重参数。
在该实现方式中,采用第一变换模型中自带的第一判别网络,对多个第一噪声样本分别对应的第一训练图像进行判定,确定多个第一噪声样本分别对应的第一训练图像的生成质量,从而确定多个第一噪声样本分别对应的第一判别损失,再基于此调整变换模型的权重参数。可选地,调整变换模型的权重参数时,第一判别网络的权重参数也一同进行调整。可选地,第一判别网络为GAN(Generative Adversarial Networks,生成对抗网络),第一判别损失可表示为GAN_loss(GAN损失)。
在一个示例中,第一训练图像为基于第一噪声样本模拟的人脸图像,第一判别网络用于评判第一训练图像与真实人脸的图像相符合的概率。例如,第一训练图像中人脸的完整程度越高,第一判别损失越小;又例如,第一训练图像中人脸的五官比例越接近真实人脸中五官的比例,第一判别损失越小。
在一些实施例中,第一变换模型在训练完成之后,将其第一映射网络舍去,将除第一映射网络的其他部分作为第一变换模型。
步骤305,获取第二训练样本集,第二训练样本集包括多个原始图像样本。
可选地,原始图像样本为第一类风格的图像。在一些实施例中,原始图像样本为未经处理过的真实人脸的图像。
步骤306,将多个原始图像样本分别输入重构模型,生成多个原始图像样本分别对应的隐变量。
在一些实施例中,将多个原始图像样本分别输入重构模型,重构模型对多个原始图像样本分别进行编码,生成多个原始图像样本分别对应的隐变量。
在一个示例中,如图5所示,重构模型包括输入层51、多个残差网络(resblock)层52和全连接层53。
步骤307,将多个原始图像样本分别对应的隐变量输入第一变换模型,生成多个原始图像样本分别对应的重构图像。
在一些实施例中,将多个原始图像样本分别对应的隐变量,直接输入第一变换模型的第一合成网络中,生成多个原始图像样本分别对应的重构图像。可选地,多个原始图像样本以及多个原始图像样本分别对应的重构图像为第一类风格的图像。
需要说明的是,训练重构模型的过程中时,第一变换模型是已训练完成的模型,第一变换模型的参数不发生变化。
步骤308,基于多个原始图像样本,以及多个原始图像样本分别对应的重构图像,确定多个原始图像样本分别对应的重构模型的损失。
在一些实施例中,基于多个原始图像样本,以及多个原始图像样本分别对应的重构图像分别在各个网络或函数中的输出,确定重构模型的损失中包括的多个子损失。
在一些实施例中,该步骤308还包括如下子步骤:
1、基于将多个原始图像样本分别对应的重构图像,分别输入第一判别网络得到的输出结果,确定第一子损失,第一子损失用于指示重构图像的第一特征性。
可选地,第一特征性为重构图像中与需要包含的特征的符合程度。在一个示例中,当重构图像为人脸图像时,第一特征性是指重构图像与人脸特征相符合的程度。重构图像中的人脸越接近真实人脸,第一子损失越小。
2、基于将多个原始图像样本以及多个原始图像样本分别对应的重构图像,分别输入感知网络得到的输出结果,确定第二子损失,第二子损失用于指示原始图像样本与原始图像样本对应的重构图像,在目标特征上的第一符合程度。
可选地,通过目标特征,能够判断重构图像是否是基于某个原始图像样本生成的图像。在一个示例中,目标特征为人脸标识特征,人脸标识特征用于区分不同的人脸。通过感知网络(Perceptual Network)比对原始图像样本中的人脸标识特征,与原始图像样本对应的重构图像中的人脸标识特征,确定原始图像样本与原始图像样本对应的重构图像为同一个人的人脸图像的概率,从而确定第二子损失。可选地,第二子损失为感知损失(Perceptual loss)。可选地,第二子损失的计算方式可以参考如下公式四:
公式四:Perceptual loss=E((VGG(x)-VGG(G(x)))2)
其中,Perceptual loss表示第二子损失,x表示原始图像样本,VGG(x)表示将原始图像样本输入VGG(Visual Geometry Group Network,视觉几何群网络)-16得到的输出结果,G(x)表示原始图像样本对应的重构图像,VGG(G(x)))2表示将原始图像样本对应的重构图像输入VGG-16网络得到的输出结果。
3、基于将多个原始图像样本以及多个原始图像样本分别对应的重构图像,分别输入回归函数得到的输出结果,确定第三子损失,第三子损失用于指示原始图像样本与原始图像样本对应的重构图像,在目标特征上的第二符合程度。
可选地,回归函数为L1函数、L2函数等等。通过原始图像样本与原始图像样本对应的重构图像,分别对应于L函数的输出结果,确定第三子损失。可选地,第三子损失为L1_loss。可选地,第三子损失的计算方式可以参考如下公式五:
公式五:L1_loss=E(x–G(x))
其中,L1_loss表示第三子损失,x表示原始图像样本,VGG(x)表示将原始图像样本输入VGG-16得到的输出结果。
4、基于第一子损失、第二子损失和第三子损失,确定重构模型的损失。
在一个示例中,将第一子损失、第二子损失和第三子损失进行直接求和或加权求和,计算得到重构模型的损失。在一些实施例中,对第一子损失、第二子损失和第三子损失进行加权求和时,第一子损失、第二子损失和第三子损失分别对应的权重的值由相关技术人员根据实际情况进行设定,本申请实施例对此不作具体限定。
在一个示例中,重构模型的损失的计算方式参考如下公式六:
公式六:Loss=GAN_loss+Perceptual loss+L1_loss
其中,Loss表示重构模型的损失,GAN_loss表示第一子损失,Perceptual loss表示第二子损失,L1_loss表示第三子损失。
步骤309,基于多个原始图像样本分别对应的重构模型的损失,调整重构模型的权重参数。
可选地,基于多个原始图像样本分别对应的重构模型的损失,调整重构模型的权重参数,使得重构模型的损失尽可能得小。在一些实施例中,当迭代训练的次数达到预设次数时,表示重构模型训练完成。在另一些实施例中,重构模型的损失连续小于重构损失阈值,表示重构模型训练完成。可选地,重构损失阈值的具体取值由相关技术人员根据实际情况进行设定,本申请实施例对此不作具体限定。
步骤310,训练得到第二变换模型,第二变换模型用于基于第二噪声样本生成第二训练图像,第二训练图像为第二类风格的图像。
本步骤310的内容与本申请实施例步骤301~304的内容相同或相近,此处不再赘述。
步骤311,将第一变换模型与第二变换模型进行嫁接,生成嫁接后的变换模型。
本步骤311的内容与上述图1实施例步骤104的内容相同或相近,此处不再赘述。
步骤312,基于重构模型和嫁接后的变换模型,生成图像生成模型,图像生成模型用于将第一类风格的待变换图像,变换为第二类风格的目标图像。
本步骤312的内容与上述图1实施例步骤105的内容相同或相近,此处不再赘述。
综上所述,本申请实施例提供的技术方案中,通过先训练得到第一变换模型,在基于第一变换模型训练重构模型,减少了训练重构模型所需的时间,进一步降低了整体的模型训练的时间成本。
本申请实施例中,将训练完成的第一变换模型的权重参数,作为第二变换模型训练时的初始参数,使得第二变换模型能够保留第一变换模型的部分特性,便于提升第一变换模型和第二变换模型之间嫁接后的协调性。
下面,结合图6和图7对本申请一个实施例提供的图像生成方法进行介绍。在本实施例中,主要以该方法应用于上文介绍的计算机设备中来举例说明。如图6所示,该方法可以包括如下几个步骤(步骤601~602):
步骤601,如图7所示,将第一类风格的待变换图像71输入重构模型72,生成待变换图像71对应的隐变量73。
可选地,待变换图像71为未经处理过的、真实人脸的图像。
步骤602,基于待变换图像71对应的隐变量73,采用嫁接后的变换模型74生成待变换图像71对应的目标图像75,目标图像75为第二类风格的图像。
可选地,嫁接后的变换模型74是通过将第一变换模型与第二变换模型进行嫁接生成的模型;第一变换模型用于基于第一噪声样本生成第一训练图像,第一训练图像为第一类风格的图像;第二变换模型用于基于第二噪声样本生成第二训练图像,第二训练图像为第二类风格的图像。
在一些实施例中,嫁接后的变换模型74中来自于第二变换模型的权重网络,先基于待变换图像71对应的隐变量73将待变换图像71风格化,使得待变换图像71变换为第二类风格的图像,之后,嫁接后的变换模型74中来自于第一变换模型的权重网络,对风格化的待变换图像71中的目标特征进行调整,从而得到最终的目标图像75。对目标特征的解释说明可参见上述图3实施例的步骤308,此处不再赘述。
综上所述,本申请实施例提供的技术方案中,通过基于第一变换模型和第二变换模型嫁接得到的图像生成模型生成目标图像75,由于图像生成模型(嫁接后的变换模型74)同时具备第一变换模型良好地保持图像的目标特征的优势,以及第二变换模型生成风格较为强烈的第二类风格的图像的优势,能够在较为良好地保持待变换图像的目标特征的前提下,生成风格较为强烈的目标图像75,提升了图像生成模型的变换效果。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参考图8,其示出了本申请一个实施例提供的图像生成模型的训练装置的框图。该装置具有实现上述图像生成模型的训练方法示例的功能,所述功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置800可以包括:模型训练模块810和模型生成模块820。
所述模型训练模块810,用于训练得到第一变换模型,所述第一变换模型用于基于第一噪声样本生成第一训练图像,所述第一训练图像为第一类风格的图像。
所述模型训练模块810,还用于基于所述第一变换模型,训练得到重构模型,所述重构模型用于将原始图像样本映射为所述原始图像样本对应的隐变量。
所述模型训练模块810,还用于训练得到第二变换模型,所述第二变换模型用于基于第二噪声样本生成第二训练图像,所述第二训练图像为第二类风格的图像。
所述模型生成模块820,用于将所述第一变换模型与所述第二变换模型进行嫁接,得到嫁接后的变换模型。
所述模型生成模块820,还用于基于所述重构模型和所述嫁接后的变换模型,生成图像生成模型,所述图像生成模型用于将所述第一类风格的待变换图像,变换为所述第二类风格的目标图像。
综上所述,本申请实施例提供的技术方案中,通过分别训练第一变换模型和第二变换模型,由于第一变换模型具备良好地保持图像的目标特征的优势,第二变换模型具备生成风格较为强烈的第二类风格的图像的优势,训练过程中,分别针对第一变换模型和第二变换模型各自的目标优势进行训练,再将训练得到的第一变换模型和第二变换模型进行嫁接,得到嫁接后的变换模型,基于重构模型和嫁接后的变换模型生成图像生成模型,较大程度地降低了模型训练的复杂程度,因而所需训练样本和训练迭代次数较少,节省了模型训练的时间成本。
在示例性实施例中,所述第一变换模型包括第一映射网络和第一合成网络;如图9所示,所述模型训练模块810,包括:样本获取子模块811、变量生成子模块812、图像生成子模块813和参数调整子模块814。
所述样本获取子模块811,用于获取第一训练样本集,所述第一训练样本集包括多个第一噪声样本。
所述变量生成子模块812,用于将所述多个第一噪声样本分别输入所述第一映射网络,得到所述多个第一噪声样本分别对应的隐变量。
所述图像生成子模块813,用于将所述多个第一噪声样本分别对应的隐变量分别输入所述第一合成网络,得到所述多个第一噪声样本分别对应的第一训练图像。
所述参数调整子模块814,用于基于所述多个第一噪声样本分别对应的第一训练图像,调整所述第一变换模型的权重参数。
在示例性实施例中,所述第一变换模型包括第一判别网络;如图9所示,所述参数调整子模块814,用于:
将所述多个第一噪声样本分别对应的第一训练图像分别输入所述第一判别网络,得到所述多个第一噪声样本分别对应的第一判别损失;
基于所述多个第一噪声样本分别对应的第一判别损失,调整所述第一变换模型的权重参数。
在示例性实施例中,如图9所示,所述模型训练模块810,包括:损失确定子模块815。
所述样本获取子模块811,还用于获取第二训练样本集,所述第二训练样本集包括多个原始图像样本。
所述变量生成子模块812,还用于将所述多个原始图像样本分别输入所述重构模型,生成所述多个原始图像样本分别对应的隐变量。
所述图像生成子模块813,还用于将所述多个原始图像样本分别对应的隐变量输入所述第一变换模型,生成所述多个原始图像样本分别对应的重构图像,所述多个原始图像样本以及所述多个原始图像样本分别对应的重构图像为所述第一类风格的图像。
所述损失确定子模块815,用于基于所述多个原始图像样本,以及所述多个原始图像样本分别对应的重构图像,确定所述多个原始图像样本分别对应的重构模型的损失。
所述参数调整子模块814,还用于基于所述多个原始图像样本分别对应的重构模型的损失,调整所述重构模型的权重参数。
在示例性实施例中,所述第一变换模型包括第一判别网络;如图9所示,所述损失确定子模块815,用于:
基于将所述多个原始图像样本分别对应的重构图像,分别输入所述第一判别网络得到的输出结果,确定第一子损失,所述第一子损失用于指示所述重构图像的第一特征性;
基于将所述多个原始图像样本以及所述多个原始图像样本分别对应的重构图像,分别输入感知网络得到的输出结果,确定第二子损失,所述第二子损失用于指示所述原始图像样本与所述原始图像样本对应的重构图像,在目标特征上的第一符合程度;
基于将所述多个原始图像样本以及所述多个原始图像样本分别对应的重构图像,分别输入回归函数得到的输出结果,确定第三子损失,所述第三子损失用于指示所述原始图像样本与所述原始图像样本对应的重构图像,在所述目标特征上的第二符合程度;
基于所述第一子损失、所述第二子损失和所述第三子损失,确定所述重构模型的损失。
在示例性实施例中,在训练过程中,所述第二变换模型的初始权重参数为所述第一变换模型的权重参数。
在示例性实施例中,所述模型生成模块820,用于:将所述第一变换模型的多层权重网络中的n层权重网络,与所述第二变换模型的多层权重网络中的m层权重网络进行嫁接,生成所述嫁接后的变换模型;所述n层权重网络与所述m层权重网络的层次不相同,所述n为正整数,所述m为正整数;或者,将所述第一变换模型的多层权重网络中的权重参数,与所述第二变换模型的多层权重网络中对应的权重参数进行求和或平均或做差运算,生成所述嫁接后的变换模型。
在示例性实施例中,所述模型生成模块820,用于:
将所述重构模型和所述嫁接后的变换模型进行组合,得到组合后的变换模型;
获取第四训练样本集,所述第四训练样本集包括至少一个原始图像样本,以及所述至少一个原始图像样本分别对应的第二类风格的图像;
采用所述第四训练样本集,对所述组合后的变换模型进行微调,生成所述图像生成模型。
请参考图10,其示出了本申请一个实施例提供的图像生成装置的框图。该装置具有实现上述图像生成方法示例的功能,所述功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置1000可以包括:变量生成模块1010和图像生成模块1020。
所述变量生成模块1010,用于将第一类风格的待变换图像输入重构模型,生成所述待变换图像对应的隐变量。
所述图像生成模块1020,用于基于所述待变换图像对应的隐变量,采用嫁接后的变换模型生成所述待变换图像对应的目标图像,所述目标图像为第二类风格的图像。其中,所述嫁接后的变换模型是通过将第一变换模型与第二变换模型进行嫁接生成的模型;所述第一变换模型用于基于第一噪声样本生成所述第一类风格的图像;所述第二变换模型用于基于第二噪声样本生成所述第二类风格的图像。
综上所述,本申请实施例提供的技术方案中,通过基于第一变换模型和第二变换模型嫁接得到的图像生成模型生成目标图像,由于图像生成模型(嫁接后的变换模型)同时具备第一变换模型良好地保持图像的目标特征的优势,以及第二变换模型生成风格较为强烈的第二类风格的图像的优势,能够在较为良好地保持待变换图像的目标特征的前提下,生成风格较为强烈的目标图像,提升了图像生成模型的变换效果。
需要说明的是,上述实施例提供的装置,在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
请参考图11,其示出了本申请一个实施例提供的计算机设备的结构框图。该计算机设备用于实施上述实施例中提供的图像生成模型的训练方法或图像生成方法。具体来讲:
所述计算机设备1100包括CPU(Central Processing Unit,中央处理单元)1101、包括RAM(Random Access Memory,随机存取存储器)1102和ROM(Read-Only Memory,只读存储器)1103的系统存储器1104,以及连接系统存储器1104和中央处理单元1101的系统总线1105。所述计算机设备1100还包括帮助计算机内的各个器件之间传输信息的基本I/O(Input/Output,输入/输出)系统1106,和用于存储操作系统1113、应用程序1114和其他程序模块1115的大容量存储设备1107。
所述基本输入/输出系统1106包括有用于显示信息的显示器1108和用于用户输入信息的诸如鼠标、键盘之类的输入设备1109。其中所述显示器1108和输入设备1109都通过连接到系统总线1105的输入输出控制器1110连接到中央处理单元1101。所述基本输入/输出系统1106还可以包括输入输出控制器1110以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器1110还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备1107通过连接到系统总线1105的大容量存储控制器(未示出)连接到中央处理单元1101。所述大容量存储设备1107及其相关联的计算机可读介质为计算机设备1100提供非易失性存储。也就是说,所述大容量存储设备1107可以包括诸如硬盘或者CD-ROM(Compact Disc Read-Only Memory,只读光盘)驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM(Erasable Programmable Read Only Memory,可擦除可编程只读存储器)、EEPROM(Electrically Erasable Programmable Read Only Memory,可擦除可编程只读存储器)、闪存或其他固态存储其技术,CD-ROM、DVD(Digital Video Disc,高密度数字视频光盘)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器1104和大容量存储设备1107可以统称为存储器。
根据本申请的各种实施例,所述计算机设备1100还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即计算机设备1100可以通过连接在所述系统总线1105上的网络接口单元1111连接到网络1112,或者说,也可以使用网络接口单元1111来连接到其他类型的网络或远程计算机系统(未示出)。
在示例性实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有计算机程序,所述计算机程序在被处理器执行时以实现上述图像生成模型的训练方法。
在示例性实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有计算机程序,所述计算机程序在被处理器执行时以实现上述图像生成方法。
在示例性实施例中,还提供了一种计算机程序产品,当该计算机程序产品被处理器执行时,其用于实现上述图像生成模型的训练方法。
在示例性实施例中,还提供了一种计算机程序产品,当该计算机程序产品被处理器执行时,其用于实现上述图像生成方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (13)
1.一种图像生成模型的训练方法,其特征在于,所述方法包括:
训练得到第一变换模型,所述第一变换模型用于基于第一噪声样本生成第一训练图像,所述第一训练图像为第一类风格的图像;
基于所述第一变换模型,训练得到重构模型,所述重构模型用于将原始图像样本映射为所述原始图像样本对应的隐变量;
训练得到第二变换模型,所述第二变换模型用于基于第二噪声样本生成第二训练图像,所述第二训练图像为第二类风格的图像;
将所述第一变换模型与所述第二变换模型进行嫁接,生成嫁接后的变换模型;
基于所述重构模型和所述嫁接后的变换模型,生成图像生成模型,所述图像生成模型用于将所述第一类风格的待变换图像,变换为所述第二类风格的目标图像。
2.根据权利要求1所述的方法,其特征在于,所述第一变换模型包括第一映射网络和第一合成网络;
所述训练得到第一变换模型,包括:
获取第一训练样本集,所述第一训练样本集包括多个第一噪声样本;
将所述多个第一噪声样本分别输入所述第一映射网络,得到所述多个第一噪声样本分别对应的隐变量;
将所述多个第一噪声样本分别对应的隐变量分别输入所述第一合成网络,得到所述多个第一噪声样本分别对应的第一训练图像;
基于所述多个第一噪声样本分别对应的第一训练图像,调整所述第一变换模型的权重参数。
3.根据权利要求2所述的方法,其特征在于,所述第一变换模型包括第一判别网络;
所述基于所述多个第一噪声样本分别对应的第一训练图像,调整所述第一变换模型的权重参数,包括:
将所述多个第一噪声样本分别对应的第一训练图像分别输入所述第一判别网络,得到所述多个第一噪声样本分别对应的第一判别损失;
基于所述多个第一噪声样本分别对应的第一判别损失,调整所述第一变换模型的权重参数。
4.根据权利要求1所述的方法,其特征在于,所述基于所述第一变换模型,训练得到重构模型,包括:
获取第二训练样本集,所述第二训练样本集包括多个原始图像样本;
将所述多个原始图像样本分别输入所述重构模型,生成所述多个原始图像样本分别对应的隐变量;
将所述多个原始图像样本分别对应的隐变量输入所述第一变换模型,生成所述多个原始图像样本分别对应的重构图像,所述多个原始图像样本以及所述多个原始图像样本分别对应的重构图像为所述第一类风格的图像;
基于所述多个原始图像样本,以及所述多个原始图像样本分别对应的重构图像,确定所述多个原始图像样本分别对应的重构模型的损失;
基于所述多个原始图像样本分别对应的重构模型的损失,调整所述重构模型的权重参数。
5.根据权利要求4所述的方法,其特征在于,所述第一变换模型包括第一判别网络;
所述基于所述多个原始图像样本,以及所述多个原始图像样本分别对应的重构图像,确定所述多个原始图像样本分别对应的重构模型的损失,包括:
基于将所述多个原始图像样本分别对应的重构图像,分别输入所述第一判别网络得到的输出结果,确定第一子损失,所述第一子损失用于指示所述重构图像的第一特征性;
基于将所述多个原始图像样本以及所述多个原始图像样本分别对应的重构图像,分别输入感知网络得到的输出结果,确定第二子损失,所述第二子损失用于指示所述原始图像样本与所述原始图像样本对应的重构图像,在目标特征上的第一符合程度;
基于将所述多个原始图像样本以及所述多个原始图像样本分别对应的重构图像,分别输入回归函数得到的输出结果,确定第三子损失,所述第三子损失用于指示所述原始图像样本与所述原始图像样本对应的重构图像,在所述目标特征上的第二符合程度;
基于所述第一子损失、所述第二子损失和所述第三子损失,确定所述重构模型的损失。
6.根据权利要求1至5任一项所述的方法,其特征在于,在训练过程中,所述第二变换模型的初始权重参数为所述第一变换模型的权重参数。
7.根据权利要求1至5任一项所述的方法,其特征在于,所述将所述第一变换模型与所述第二变换模型进行嫁接,生成嫁接后的变换模型,包括:
将所述第一变换模型的多层权重网络中的n层权重网络,与所述第二变换模型的多层权重网络中的m层权重网络进行嫁接,生成所述嫁接后的变换模型;所述n层权重网络与所述m层权重网络的层次不相同,所述n为正整数,所述m为正整数;
或者,
将所述第一变换模型的多层权重网络中的权重参数,与所述第二变换模型的多层权重网络中对应的权重参数进行求和或平均或做差运算,生成所述嫁接后的变换模型。
8.根据权利要求1至5任一项所述的方法,其特征在于,所述基于所述重构模型和所述嫁接后的变换模型,生成图像生成模型,包括:
将所述重构模型和所述嫁接后的变换模型进行组合,得到组合后的变换模型;
获取第四训练样本集,所述第四训练样本集包括至少一个原始图像样本,以及所述至少一个原始图像样本分别对应的第二类风格的图像;
采用所述第四训练样本集,对所述组合后的变换模型进行微调,生成所述图像生成模型。
9.一种图像生成方法,其特征在于,所述方法包括:
将第一类风格的待变换图像输入重构模型,生成所述待变换图像对应的隐变量;
基于所述待变换图像对应的隐变量,采用嫁接后的变换模型生成所述待变换图像对应的目标图像,所述目标图像为第二类风格的图像;
其中,所述嫁接后的变换模型是通过将第一变换模型与第二变换模型进行嫁接生成的模型;所述第一变换模型用于基于第一噪声样本生成所述第一类风格的图像;所述第二变换模型用于基于第二噪声样本生成所述第二类风格的图像。
10.一种图像生成模型的训练装置,其特征在于,所述装置包括:
模型训练模块,用于训练得到第一变换模型,所述第一变换模型用于基于第一噪声样本生成第一训练图像,所述第一训练图像为第一类风格的图像;
所述模型训练模块,还用于基于所述第一变换模型,训练得到重构模型,所述重构模型用于将原始图像样本映射为所述原始图像样本对应的隐变量;
所述模型训练模块,还用于训练得到第二变换模型,所述第二变换模型用于基于第二噪声样本生成第二训练图像,所述第二训练图像为第二类风格的图像;
模型生成模块,用于将所述第一变换模型与所述第二变换模型进行嫁接,得到嫁接后的变换模型;
所述模型生成模块,还用于基于所述重构模型和所述嫁接后的变换模型,生成图像生成模型,所述图像生成模型用于将所述第一类风格的待变换图像,变换为所述第二类风格的目标图像。
11.一种图像生成装置,其特征在于,所述装置包括:
变量生成模块,用于将第一类风格的待变换图像输入重构模型,生成所述待变换图像对应的隐变量;
图像生成模块,用于基于所述待变换图像对应的隐变量,采用嫁接后的变换模型生成所述待变换图像对应的目标图像,所述目标图像为第二类风格的图像;
其中,所述嫁接后的变换模型是通过将第一变换模型与第二变换模型进行嫁接生成的模型;所述第一变换模型用于基于第一噪声样本生成所述第一类风格的图像;所述第二变换模型用于基于第二噪声样本生成所述第二类风格的图像。
12.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现如上述权利要求1至8任一项所述的图像生成模型的训练方法,或实现如上述权利要求9所述的图像生成方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现如上述权利要求1至8任一项所述的图像生成模型的训练方法,或实现如上述权利要求9所述的图像生成方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110143927.0A CN112862669B (zh) | 2021-02-02 | 2021-02-02 | 图像生成模型的训练方法、生成方法、装置及设备 |
US18/263,854 US20240119707A1 (en) | 2021-02-02 | 2022-01-28 | Method for training image generation model, method for generating images, and devices thereof |
EP22749076.0A EP4290448A4 (en) | 2021-02-02 | 2022-01-28 | IMAGE GENERATION MODEL TRAINING METHOD, GENERATION METHOD, APPARATUS AND APPARATUS |
PCT/CN2022/074499 WO2022166797A1 (zh) | 2021-02-02 | 2022-01-28 | 图像生成模型的训练方法、生成方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110143927.0A CN112862669B (zh) | 2021-02-02 | 2021-02-02 | 图像生成模型的训练方法、生成方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112862669A CN112862669A (zh) | 2021-05-28 |
CN112862669B true CN112862669B (zh) | 2024-02-09 |
Family
ID=75986200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110143927.0A Active CN112862669B (zh) | 2021-02-02 | 2021-02-02 | 图像生成模型的训练方法、生成方法、装置及设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240119707A1 (zh) |
EP (1) | EP4290448A4 (zh) |
CN (1) | CN112862669B (zh) |
WO (1) | WO2022166797A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112862669B (zh) * | 2021-02-02 | 2024-02-09 | 百果园技术(新加坡)有限公司 | 图像生成模型的训练方法、生成方法、装置及设备 |
CN113256592B (zh) * | 2021-06-07 | 2021-10-08 | 中国人民解放军总医院 | 图像特征提取模型的训练方法、系统及装置 |
CN113421185B (zh) * | 2021-08-23 | 2021-11-05 | 武汉轻度科技有限公司 | 一种基于StyleGAN的移动端人脸年龄编辑方法 |
CN114067052A (zh) * | 2021-11-16 | 2022-02-18 | 百果园技术(新加坡)有限公司 | 漫画化模型构建方法、装置、设备、存储介质及程序产品 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537776A (zh) * | 2018-03-12 | 2018-09-14 | 维沃移动通信有限公司 | 一种图像风格迁移模型生成方法及移动终端 |
CN109697690A (zh) * | 2018-11-01 | 2019-04-30 | 北京达佳互联信息技术有限公司 | 图像风格迁移方法和系统 |
CN109859096A (zh) * | 2018-12-28 | 2019-06-07 | 北京达佳互联信息技术有限公司 | 图像风格迁移方法、装置、电子设备及存储介质 |
CN110598781A (zh) * | 2019-09-05 | 2019-12-20 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及存储介质 |
US10685057B1 (en) * | 2016-12-30 | 2020-06-16 | Shutterstock, Inc. | Style modification of images in search results |
CN111476708A (zh) * | 2020-04-03 | 2020-07-31 | 广州市百果园信息技术有限公司 | 模型生成方法、模型获取方法、装置、设备及存储介质 |
CN112150489A (zh) * | 2020-09-25 | 2020-12-29 | 北京百度网讯科技有限公司 | 图像的风格转换方法、装置、电子设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108205813B (zh) * | 2016-12-16 | 2022-06-03 | 微软技术许可有限责任公司 | 基于学习网络的图像风格化 |
CN107577985B (zh) * | 2017-07-18 | 2019-10-15 | 南京邮电大学 | 基于循环生成对抗网络的人脸头像卡通化的实现方法 |
US10984286B2 (en) * | 2018-02-02 | 2021-04-20 | Nvidia Corporation | Domain stylization using a neural network model |
KR102261869B1 (ko) * | 2018-12-19 | 2021-06-07 | 포인드 주식회사 | 메타학습된 생성적 대립 네트워크를 이용한 인공지능의 빠른 이미지 생성 방법 |
CN111767979B (zh) * | 2019-04-02 | 2024-04-23 | 京东方科技集团股份有限公司 | 神经网络的训练方法、图像处理方法、图像处理装置 |
CN111508048B (zh) * | 2020-05-22 | 2023-06-20 | 南京大学 | 一种可交互任意形变风格人脸漫画自动生成方法 |
CN112101172B (zh) * | 2020-09-08 | 2023-09-08 | 平安科技(深圳)有限公司 | 基于权重嫁接的模型融合的人脸识别方法及相关设备 |
CN112862669B (zh) * | 2021-02-02 | 2024-02-09 | 百果园技术(新加坡)有限公司 | 图像生成模型的训练方法、生成方法、装置及设备 |
-
2021
- 2021-02-02 CN CN202110143927.0A patent/CN112862669B/zh active Active
-
2022
- 2022-01-28 EP EP22749076.0A patent/EP4290448A4/en active Pending
- 2022-01-28 US US18/263,854 patent/US20240119707A1/en active Pending
- 2022-01-28 WO PCT/CN2022/074499 patent/WO2022166797A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10685057B1 (en) * | 2016-12-30 | 2020-06-16 | Shutterstock, Inc. | Style modification of images in search results |
CN108537776A (zh) * | 2018-03-12 | 2018-09-14 | 维沃移动通信有限公司 | 一种图像风格迁移模型生成方法及移动终端 |
CN109697690A (zh) * | 2018-11-01 | 2019-04-30 | 北京达佳互联信息技术有限公司 | 图像风格迁移方法和系统 |
CN109859096A (zh) * | 2018-12-28 | 2019-06-07 | 北京达佳互联信息技术有限公司 | 图像风格迁移方法、装置、电子设备及存储介质 |
CN110598781A (zh) * | 2019-09-05 | 2019-12-20 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111476708A (zh) * | 2020-04-03 | 2020-07-31 | 广州市百果园信息技术有限公司 | 模型生成方法、模型获取方法、装置、设备及存储介质 |
CN112150489A (zh) * | 2020-09-25 | 2020-12-29 | 北京百度网讯科技有限公司 | 图像的风格转换方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
"Deep Co-Space:Sample Mining Across Feature Transformation for Semi-Supervised Learning";Ziliang Chen et al.;《IEEE》;全文 * |
"基于迁移学习的艺术化风格图像的创作";侯国栋,徐敏,章飞;《南方农机》;173-174 * |
Also Published As
Publication number | Publication date |
---|---|
WO2022166797A1 (zh) | 2022-08-11 |
EP4290448A1 (en) | 2023-12-13 |
CN112862669A (zh) | 2021-05-28 |
EP4290448A4 (en) | 2023-12-13 |
US20240119707A1 (en) | 2024-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112862669B (zh) | 图像生成模型的训练方法、生成方法、装置及设备 | |
CN110163827B (zh) | 图像去噪模型的训练方法、图像去噪方法、装置及介质 | |
CN107507153B (zh) | 图像去噪方法和装置 | |
CN110728219A (zh) | 基于多列多尺度图卷积神经网络的3d人脸生成方法 | |
CN110084193B (zh) | 用于面部图像生成的数据处理方法、设备和介质 | |
CN112927354B (zh) | 基于实例分割的三维重建方法、系统、存储介质及终端 | |
CN112634146A (zh) | 基于多种注意力机制的多通道cnn医学ct图像去噪方法 | |
CN114936979A (zh) | 一种模型训练方法、图像去噪方法、装置、设备及存储介质 | |
CN114925748A (zh) | 模型训练及模态信息的预测方法、相关装置、设备、介质 | |
CN115131218A (zh) | 图像处理方法、装置、计算机可读介质及电子设备 | |
CN113724155A (zh) | 用于自监督单目深度估计的自提升学习方法、装置及设备 | |
CN113409307A (zh) | 基于异质噪声特性的图像去噪方法、设备及介质 | |
CN117252984A (zh) | 三维模型生成方法、装置、设备、存储介质及程序产品 | |
CN116403142A (zh) | 视频处理方法、装置、电子设备及介质 | |
CN116363641A (zh) | 一种图像处理方法、装置及电子设备 | |
CN115049558A (zh) | 模型训练、人脸图像处理方法及装置、电子设备及可读存储介质 | |
CN114418882A (zh) | 处理方法、训练方法、装置、电子设备及介质 | |
CN113886639A (zh) | 数字人视频生成方法、装置、电子设备及存储介质 | |
CN117611434B (zh) | 模型训练方法、图像风格转换方法、装置及电子设备 | |
CN114119698B (zh) | 基于注意力机制的无监督单目深度估计方法 | |
CN113298931B (zh) | 一种物体模型的重建方法、装置、终端设备和存储介质 | |
WO2024007968A1 (en) | Methods and system for generating an image of a human | |
CN114511441A (zh) | 模型训练、图像风格化方法、装置、电子设备及存储介质 | |
CN116958404A (zh) | 面部图像生成方法、装置、计算机设备、存储介质及产品 | |
CN114519418A (zh) | 一种模型训练方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |