CN113744175A - 一种基于双向约束生成对抗网络的图像生成方法及系统 - Google Patents
一种基于双向约束生成对抗网络的图像生成方法及系统 Download PDFInfo
- Publication number
- CN113744175A CN113744175A CN202111085747.8A CN202111085747A CN113744175A CN 113744175 A CN113744175 A CN 113744175A CN 202111085747 A CN202111085747 A CN 202111085747A CN 113744175 A CN113744175 A CN 113744175A
- Authority
- CN
- China
- Prior art keywords
- network
- training
- image
- generated
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000002457 bidirectional effect Effects 0.000 title claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 180
- 238000009826 distribution Methods 0.000 claims abstract description 41
- 239000013598 vector Substances 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000005520 cutting process Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 8
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 238000009827 uniform distribution Methods 0.000 claims description 6
- 230000002146 bilateral effect Effects 0.000 claims 1
- 238000010276 construction Methods 0.000 claims 1
- 238000013459 approach Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 28
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于双向约束生成对抗网络的图像生成方法及系统,首先将生成对抗网络中引入第一生成网络、第二生成网络和鉴别网络,获得初始对抗网络;然后利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型;最后将待生成样本输入至所述图像生成模型中进行图像生成,获得合成图像。本发明通过两个生成网络训练学习得到两个图像,使得两个图像对应的数据分布从不同方向去接近真实图像对应的数据分布,进而提升生成图像的质量。
Description
技术领域
本发明涉及图像生成技术领域,特别是涉及一种基于双向约束生成对抗网络的图像生成方法及系统。
背景技术
高质量、强标注、大规模、多样本的数据集是深度学习性能优良的关键。受地理位置、时间周期、制作成本以及保密性等客观因素影响,对于一些特定数据集,获取充足的真实图像是困难的,如医药、军事等领域。因此,如何利用已有数据集来生成以假乱真的虚假图像有着重要的研究价值。
传统图像生成的方法主要包括几何扩充、像素转换以及线性合成等。由于强大的生成能力,自2014年Ian J.Goodfellow提出生成对抗网络(Generative AdversarialNetwork,GAN)以来,GAN已经被广泛应用于图像生成中。GAN采用博弈论方法不断逼近生成图像与真实图像之间的数据分布,能够生成与真实图像十分相似的虚假图像,可以认为是在图像生成方向的一个突破。(Goodfellow I,Pougetabadie J,Mirza M,etal.Generative adversarial nets[C]//Advances in Neural Information ProcessingSystems 27.[S.l.]:CurranAssociates,Inc.,2014,2672-2680.)
GAN面临着一些挑战,如生成样本质量不高,往往缺乏多样性,甚至模型崩溃等。为了缓解上述问题,GAN的变体主要从网络架构和损失函数两个方面进行了优化。
2015年,Radford等人提出了一种深度卷积生成对抗网络(Deep ConvolutionalGenerativeAdversarialNetworks,DCGAN),首次引入卷积神经网络(ConvolutionalNeural Network,CNN)来设计GAN的生成网络(Generator Network)和鉴别网络(DiscriminatorNetwork),一定程度上稳定了训练过程,并且大多数GAN变体模型都基于此体系结构进行改进的。(RadfordA,Metz L,Chintala S.Unsupervised representationlearning with deep convolutional generative adversarial networks[C]//International conference on learning representations(ICLR),2015:1-16.)
2017年,Gulrajani等人提出了一种带梯度惩罚的Wasserstein生成对抗网络(Wasserstein Generative Adversarial Network with Gradient Penalty,WGAN-GP),利用Wasserstein距离代替原来的JS散度,进一步约束了训练过程。(Gulrajani I,Ahmed F,Arjovsky M,et al.Improved training of Wasserstein GANs[C]//Advances in NeuralInformation Processing Systems 30.[S.l.]:Curran Associates,Inc.,2017:5767—5777.)
2017年,Mao等人提出了一种最小二乘生成对抗网络(Least SquaresGenerativeAdversarialNetworks,LSGAN),该网络采用最小二乘损失函数代替原始GAN中的损失函数,克服了训练过程中梯度消失的问题。(Mao X D,Li Q,Xie H R,et al.Leastsquares generative adversarial networks[C]//IEEE Computer Society,2017.2794–2802.)
2020年,Xiangli等人提出了一种真实性生成对抗网络(Realness GenerativeAdversarialNetworks,RealnessGAN),将“真实性分布”(Realness Distribution)这个概念引入GAN的训练,将鉴别网络输出的一个标量值转化为一个向量值,该向量中的每一个元素值从不同角度判别输入图像的真伪,将对图片“真/伪”的衡量转变为对图片“真实性分布”的衡量。利用该方法,即使在简单的DCGAN结构上,也能够生成高质量、高分辨率的图像,同时大大降低了计算资源和训练时耗。
上述GAN变体利用不同方法一定程度上稳定了训练过程,然而,这些方法均只考虑从一个方向去逼近真实图像的数据分布,其生成图像的数据分布往往与真实图像的数据分布有较大的偏差,以至于生成图像的质量普遍不高。
发明内容
本发明的目的是提供一种基于双向约束生成对抗网络的图像生成方法及系统,以实现从两个不同方向去双向逼近真实图像的数据分布,提高生成图像质量。
为实现上述目的,本发明提供了一种基于双向约束生成对抗网络的图像生成方法,所述方法包括:
步骤S1:构建训练集;所述训练集包括多张训练图像;
步骤S2:将生成对抗网络中引入第一生成网络、第二生成网络和鉴别网络,获得初始对抗网络;
步骤S3:利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型;
步骤S4:将待生成样本输入至所述图像生成模型中进行图像生成,获得合成图像。
可选地,所述利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型,具体包括:
步骤S31:将训练样本和所述训练集输入所述初始对抗网络进行训练,利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值;
步骤S32:基于所述生成网络损失值判断是否满足第一收敛条件;如果满足第一收敛条件,则执行“步骤S33”;如果不满足第一收敛条件,则返回“步骤S31”;
步骤S33:基于所述鉴别网络损失值判断是否满足第二收敛条件;如果满足第二收敛条件,则将训练后的所述初始对抗网络作为所述图像生成模型;如果不满足第二收敛条件,则返回“步骤S31”;
或步骤S31:设置最大训练次数;
步骤S32:将训练样本和所述训练集输入所述初始对抗网络进行训练;
步骤S33:判断迭代次数是否小于或等于最大训练次数;如果迭代次数小于或等于最大训练次数,则利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值,采用Adam优化算法更新网络参数;如果迭代次数大于最大训练次数,则将训练后的所述初始对抗网络作为所述图像生成模型。
可选地,所述生成网络损失函数为:
其中,LG表示生成网络损失值,A0表示初始设定的虚假分布,A1表示初始设定的真实分布,G1(z)表示训练样本z输入至第一生成网络后生成的图像,简称第一图像,G2(z)表示训练样本z输入至第二生成网络后生成的图像,简称第二图像,D(G1(z))表示向鉴别网络中输入第一图像后得到的概率向量,D(G2(z))表示向鉴别网络中输入第二图像后得到的概率向量,λG表示常数项系数,α表示常数系数,满足0-1之间的均匀分布,α∈U(0,1),||*||表示范数,KL(A0||D(G(z)))表示A0与中间参数D(G(z))之间的KL散度,KL(A1||D(G(z)))表示A1与中间参数D(G(z))之间的KL散度。
可选地,所述鉴别网络损失函数为:
LD=KL(A1||D(x))+KL(A0||D(G1(z)))+KL(A0||D(G2(z)))+λD||D(G1(z))-D(G2(z))||;
其中,LD表示鉴别网络损失值,λD表示常数项系数,D(x)表示向鉴别网络中输入训练图像x后得到的概率向量,KL(A1||D(x))表示A1与D(x)之间的KL散度,KL(A0||D(G1(z)))表示A0与中间参数D(G1(z))之间的KL散度,KL(A0||D(G2(z)))表示A0与中间参数D(G2(z))之间的KL散度。
可选地,所述构建训练集具体包括:
获取多张样本图像;
将每张所述样本图像分别进行裁剪,获得多张训练图像;所述训练图像的高度与宽度相等。
本发明还提供一种基于双向约束生成对抗网络的图像生成系统,所述系统包括:
训练集构建模块,用于构建训练集;所述训练集包括多张训练图像;
初始对抗网络生成模块,用于将生成对抗网络中引入第一生成网络、第二生成网络和鉴别网络,获得初始对抗网络;
训练及优化模块,用于利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型;
图像生成模块,用于将待生成样本输入至所述图像生成模型中进行图像生成,获得合成图像。
可选地,所述训练及优化模块,具体包括:
损失值计算单元,用于将训练样本和所述训练集输入所述初始对抗网络进行训练,利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值;
第一判断单元,用于基于所述生成网络损失值判断是否满足第一收敛条件;如果满足第一收敛条件,则执行“步骤S33”;如果不满足第一收敛条件,则返回“损失值计算单元”;
第二判断单元,用于基于所述鉴别网络损失值判断是否满足第二收敛条件;如果满足第二收敛条件,则将训练后的所述初始对抗网络作为所述图像生成模型;如果不满足第二收敛条件,则返回“损失值计算单元”;
参数设置单元,用于设置最大训练次数;
训练单元,用于将训练样本和所述训练集输入所述初始对抗网络进行训练;
第三判断单元,用于判断迭代次数是否小于或等于最大训练次数;如果迭代次数小于或等于最大训练次数,则利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值,采用Adam优化算法更新网络参数;如果迭代次数大于最大训练次数,则将训练后的所述初始对抗网络作为所述图像生成模型。
可选地,所述生成网络损失函数为:
其中,LG表示生成网络损失值,A0表示初始设定的虚假分布,A1表示初始设定的真实分布,G1(z)表示训练样本z输入至第一生成网络后生成的图像,简称第一图像,G2(z)表示训练样本z输入至第二生成网络后生成的图像,简称第二图像,D(G1(z))表示向鉴别网络中输入第一图像后得到的概率向量,D(G2(z))表示向鉴别网络中输入第二图像后得到的概率向量,λG表示常数项系数,α表示常数系数,满足0-1之间的均匀分布,α∈U(0,1),||*||表示范数,KL(A0||D(G(z)))表示A0与中间参数D(G(z))之间的KL散度,KL(A1||D(G(z)))表示A1与中间参数D(G(z))之间的KL散度。
可选地,所述鉴别网络损失函数为:
LD=KL(A1||D(x))+KL(A0||D(G1(z)))+KL(A0||D(G2(z)))+λD||D(G1(z))-D(G2(z))||;
其中,LD表示鉴别网络损失值,λD表示常数项系数,D(x)表示向鉴别网络中输入训练图像x后得到的概率向量,KL(A1||D(x))表示A1与D(x)之间的KL散度,KL(A0||D(G1(z)))表示A0与中间参数D(G1(z))之间的KL散度,KL(A0||D(G2(z)))表示A0与中间参数D(G2(z))之间的KL散度。
可选地,所述训练集构建模块具体包括:
获取单元,用于获取多张样本图像;
裁剪单元,用于将每张所述样本图像分别进行裁剪,获得多张训练图像;所述训练图像的高度与宽度相等。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明通过两个生成网络训练学习得到两个图像,使得两个图像对应的数据分布从不同方向去接近真实图像对应的数据分布,进而提升生成图像的质量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于双向约束生成对抗网络的图像生成方法流程图;
图2为本发明基于双向约束生成对抗网络的图像生成系统结构图;
图3为本发明真实图像与生成图像的数据分布示例图;
图4为现有GAN变体与本发明公开方法训练网络架构比较图;
图5为本发明生成的合成图像示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于双向约束生成对抗网络的图像生成方法及系统,以实现从两个不同方向去双向逼近真实图像的数据分布,提高生成图像质量。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明公开一种基于双向约束生成对抗网络的图像生成方法,所述方法包括:
步骤S1:构建训练集;所述训练集包括多张训练图像。
步骤S2:将生成对抗网络中引入第一生成网络、第二生成网络和鉴别网络,获得初始对抗网络。
步骤S3:利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型。
步骤S4:将待生成样本输入至所述图像生成模型中进行图像生成,获得合成图像。
下面对各个步骤进行详细论述:
步骤S1:构建训练集,具体包括:
步骤S11:获取多张样本图像;所述样本图像可以从人脸数据集CelebA中选取的人脸图像,还可以为环境图像。
步骤S12:将每张所述样本图像分别进行裁剪,获得多张训练图像;所述训练图像的尺寸为H×W×C;其中,H、W和C分别表示图像的高度、宽度和通道数,所述训练图像的高度与宽度相等。
步骤S2:将生成对抗网络中引入第一生成网络、第二生成网络和鉴别网络,获得初始对抗网络。
本实施例中所述初始对抗网络是在RealnessGAN的基础上进行改进获得的,引入两个生成网络,分别为第一生成网络G1和第二生成网络G2,通过同时训练两个生成网络G1和G2,使得G1和G2分别学习到的生成分布从不同方向去接近训练数据集的真实分布A1,获得初始对抗网络损失值。而初始对抗网络的损失函数是约束整个模型训练过程收敛的指标,其包括生成网络损失值LG和鉴别网络损失值LD。
步骤S3:利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型,具体包括:
步骤S31:将训练样本和所述训练集输入所述初始对抗网络进行训练,利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值。本实施例中,训练样本为一组一维随机变量,含有128个元素,其中每个元素均服从标准正态分布,即z=(z1,z2,…,z128),zi~N(0,1),i=1,2,…128。
所述生成网络损失函数为:
其中,LG表示生成网络损失值,A0表示初始设定的虚假分布,A1表示初始设定的真实分布,G1(z)表示训练样本z输入至第一生成网络后生成的图像,简称第一图像,G2(z)表示训练样本z输入至第二生成网络后生成的图像,简称第二图像,D(G1(z))表示向鉴别网络中输入第一图像后得到的概率向量,D(G2(z))表示向鉴别网络中输入第二图像后得到的概率向量,λG表示常数项系数,α表示常数系数,满足0-1之间的均匀分布,α∈U(0,1),||*||表示范数,KL(A0||D(G(z)))表示A0与中间参数D(G(z))之间的KL散度,KL(A1||D(G(z)))表示A1与中间参数D(G(z))之间的KL散度。
所述鉴别网络损失函数为:
LD=KL(A1||D(x))+KL(A0||D(G1(z)))+KL(A0||D(G2(z)))+λD||D(G1(z))-D(G2(z))||;
其中,LD表示鉴别网络损失值,λD表示常数项系数,D(x)表示向鉴别网络中输入训练图像x后得到的概率向量,KL(A1||D(x))表示A1与D(x)之间的KL散度,KL(A0||D(G1(z)))表示A0与中间参数D(G1(z))之间的KL散度,KL(A0||D(G2(z)))表示A0与中间参数D(G2(z))之间的KL散度。
本实施例中,A0和A1的设置与RealnessGAN中A0和A1设置相同。
步骤S32:基于所述生成网络损失值判断是否满足第一收敛条件;如果满足第一收敛条件,则执行“步骤S33”;如果不满足第一收敛条件,则返回“步骤S31”。
步骤S33:基于所述鉴别网络损失值判断是否满足第二收敛条件;如果满足第二收敛条件,则将训练后的所述初始对抗网络作为所述图像生成模型;如果不满足第二收敛条件,则返回“步骤S31”。
或步骤S31:设置最大训练次数。
步骤S32:将训练样本和所述训练集输入所述初始对抗网络进行训练。
步骤S33:判断迭代次数是否小于或等于最大训练次数;如果迭代次数小于或等于最大训练次数,则利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值,采用Adam优化算法更新网络参数;如果迭代次数大于最大训练次数,则将训练后的所述初始对抗网络作为所述图像生成模型。
本实施例中,第一收敛条件为相邻两个生成网络损失值之间的差值小于第一设定阈值,或所述生成网络损失值在第一设定范围内;第二收敛条件为相邻两个鉴别网络损失值之间的差值小于第二设定阈值,或所述鉴别网络损失值在第二设定范围内。
本发明训练及优化所述初始对抗网络过程是基于Facebook人工智能研究院开源的Pytorch深度学习平台来进行的。
步骤S4:将待生成样本输入至所述图像生成模型中进行图像生成,获得合成图像。本实施例中,所述待生成样本为另一组一维随机变量,含有128个元素,其中每个元素均服从标准正态分布,即z=(z1,z2,…,z128),zi~N(0,1),i=1,2,…128。
实施例2
如图2所示,本发明还公开一种基于双向约束生成对抗网络的图像生成系统,所述系统包括:
训练集构建模块201,用于构建训练集;所述训练集包括多张训练图像。
初始对抗网络生成模块202,用于将生成对抗网络中引入第一生成网络、第二生成网络和鉴别网络,获得初始对抗网络。
训练及优化模块203,用于利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型。
图像生成模块204,用于将待生成样本输入至所述图像生成模型中进行图像生成,获得合成图像。
下面对各个模块进行详细论述:
作为一种可选的实施方式,本发明所述训练集构建模块具体包括:
获取单元,用于获取多张样本图像。
裁剪单元,用于将每张所述样本图像分别进行裁剪,获得多张训练图像;所述训练图像的高度与宽度相等。
作为一种可选的实施方式,本发明所述训练及优化模块203,具体包括:
损失值计算单元,用于将训练样本和所述训练集输入所述初始对抗网络进行训练,利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值。
第一判断单元,用于基于所述生成网络损失值判断是否满足第一收敛条件;如果满足第一收敛条件,则执行“步骤S33”;如果不满足第一收敛条件,则返回“损失值计算单元”。
第二判断单元,用于基于所述鉴别网络损失值判断是否满足第二收敛条件;如果满足第二收敛条件,则将训练后的所述初始对抗网络作为所述图像生成模型;如果不满足第二收敛条件,则返回“损失值计算单元”。
参数设置单元,用于设置最大训练次数。
训练单元,用于将训练样本和所述训练集输入所述初始对抗网络进行训练。
第三判断单元,用于判断迭代次数是否小于或等于最大训练次数;如果迭代次数小于或等于最大训练次数,则利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值,采用Adam优化算法更新网络参数;如果迭代次数大于最大训练次数,则将训练后的所述初始对抗网络作为所述图像生成模型。
作为一种可选的实施方式,本发明所述生成网络损失函数为:
其中,LG表示生成网络损失值,A0表示初始设定的虚假分布,A1表示向鉴别网络中输入训练图像x后得到的真实分布,G1(z)表示训练样本z输入至第一生成网络后生成的图像,简称第一图像,G2(z)表示训练样本z输入至第二生成网络后生成的图像,简称第二图像,D(G1(z))表示向鉴别网络中输入第一图像后得到的概率向量,D(G2(z))表示向鉴别网络中输入第二图像后得到的概率向量,λG表示常数项系数,α表示常数系数,满足0-1之间的均匀分布,α∈U(0,1),||*||表示范数,KL(A0||D(G(z)))表示A0与中间参数D(G(z))之间的KL散度,KL(A1||D(G(z)))表示A1与中间参数D(G(z))之间的KL散度。
作为一种可选的实施方式,本发明所述鉴别网络损失函数为:
LD=KL(A1||D(x))+KL(A0||D(G1(z)))+KL(A0||D(G2(z)))+λD||D(G1(z))-D(G2(z))||;
其中,LD表示鉴别网络损失值,λD表示常数项系数,D(x)表示向鉴别网络中输入训练图像x后得到的概率向量,KL(A1||D(x))表示A1与D(x)之间的KL散度,KL(A0||D(G1(z)))表示A0与中间参数D(G1(z))之间的KL散度,KL(A0||D(G2(z)))表示A0与中间参数D(G2(z))之间的KL散度。
实施例3
任意给定一幅真实图像,图3给出了真实图像与生成图像的数据分布示例图。其中,图3中(a)表示真实图像的数据分布pdata与生成图像的数据分布pg;图3中(b)表示理想情况下,当且仅当真实图像与生成图像的数据分布相等,即pg=pdata时,生成图像与真实图像真伪难辨;图3中(c)表示现有GAN变体生成图像与真实图像的数据分布关系,pg和pdata重合部分越多,表明生成样本的质量越高;图3中(d)表示本发明生成图像与真实图像的数据分布关系,通过设计两个生成网络生成两个数据分布pg1和pg2,使得pg1和pg2从不同方向去接近pdata,实现双向约束。
实施例4
以人脸图像作为样本图像为例,采用实施例1中的方法进行实验,分别采用现有GAN变体以及本发明公开的方法进行训练。本发明将随机变量z输入第一生成网络G1和第二生成网络G2后,分别获得第一图像G1(z)和第二图像G2(z),然后将第一图像G1(z)和第二图像G2(z)分别输入鉴别网络D中获得概率向量D(G1(z))和D(G2(z)),尽可能使D(G1(z))和D(G2(z))趋近于设定的虚假分布,将训练图像x输入鉴别网络获得概率向量D(x),使D(x)趋近于设定的真实分布,不断训练和优化两个生成网络以及鉴别网络,直至满足第一收敛条件以及第二收敛条件结束,具体训练过程如图4中(b)所示,图4中(a)表示采用现有GAN变体的方法进行训练的过程,采用现有GAN变体的方法与本发明方法相类似,在此不再一一赘述。采用本发明公开的方法生成的图像如图5所示。
图4中{←→}表示增加两者之间的距离,{→←}表示减小两者之间的距离,由图4可知,本发明公开的方法包含两个生成网络G1、G2和一个鉴别鉴别D,希望通过输入一组随机向量z来双向约束两个生成网络G和鉴别网络D的训练过程,一方面通过增加第一图像G1(z)和第二图像G2(z)之间的距离来丰富生成样本的多样性,另一方面通过减小概率向量D(G1(z))和D(G2(z)))之间的差异来稳定训练过程。
本发明采用FID(Fréchet Inception Distance)分数作为评价生成图像质量的客观指标,FID值越小,表示生成图像质量越高。具体比较结果如表1所示,本组实验一共迭代了52万次,其中,最小值、最大值、平均值以及标准差由训练中第20000次、第30000次、…、第520000次迭代结果迭代结果计算得到。
表1结果对比表
现有GAN变体仅考虑从一个方向拟合真实样本的数据分布,其生成样本的数据分布往往与真实样本的数据分布存在较大偏差。为缓解这一问题,同时进一步提高GAN生成样本的质量和多样性,提出了一种双向约束生成对抗网络(Bidirectional ConstraintGeneration Adversarial Network,BCGAN),与传统GAN变体相比,本发明又增加了一个生成网络,两个生成网络分别从两个不同方向逼近真实样本的数据分布。本发明通过增加图像G1(z)和图像G2(z)之间的距离来丰富生成样本的多样性;通过减小两个概率向量D(G1(z))和D(G2(z))之间的差异来稳定训练过程,提高生成图像的质量。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于双向约束生成对抗网络的图像生成方法,其特征在于,所述方法包括:
步骤S1:构建训练集;所述训练集包括多张训练图像;
步骤S2:将生成对抗网络中引入第一生成网络、第二生成网络和鉴别网络,获得初始对抗网络;
步骤S3:利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型;
步骤S4:将待生成样本输入至所述图像生成模型中进行图像生成,获得合成图像。
2.根据权利要求1所述的基于双向约束生成对抗网络的图像生成方法,其特征在于,所述利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型,具体包括:
步骤S31:将训练样本和所述训练集输入所述初始对抗网络进行训练,利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值;
步骤S32:基于所述生成网络损失值判断是否满足第一收敛条件;如果满足第一收敛条件,则执行“步骤S33”;如果不满足第一收敛条件,则返回“步骤S31”;
步骤S33:基于所述鉴别网络损失值判断是否满足第二收敛条件;如果满足第二收敛条件,则将训练后的所述初始对抗网络作为所述图像生成模型;如果不满足第二收敛条件,则返回“步骤S31”;
或步骤S31:设置最大训练次数;
步骤S32:将训练样本和所述训练集输入所述初始对抗网络进行训练;
步骤S33:判断迭代次数是否小于或等于最大训练次数;如果迭代次数小于或等于最大训练次数,则利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值,采用Adam优化算法更新网络参数;如果迭代次数大于最大训练次数,则将训练后的所述初始对抗网络作为所述图像生成模型。
3.根据权利要求2所述的基于双向约束生成对抗网络的图像生成方法,其特征在于,所述生成网络损失函数为:
其中,LG表示生成网络损失值,A0表示初始设定的虚假分布,A1表示初始设定的真实分布,G1(z)表示训练样本z输入至第一生成网络后生成的图像,简称第一图像,G2(z)表示训练样本z输入至第二生成网络后生成的图像,简称第二图像,D(G1(z))表示向鉴别网络中输入第一图像后得到的概率向量,D(G2(z))表示向鉴别网络中输入第二图像后得到的概率向量,λG表示常数项系数,α表示常数系数,满足0-1之间的均匀分布,α∈U(0,1),||*||表示范数,KL(A0||D(G(z)))表示A0与中间参数D(G(z))之间的KL散度,KL(A1||D(G(z)))表示A1与中间参数D(G(z))之间的KL散度。
4.根据权利要求3所述的基于双向约束生成对抗网络的图像生成方法,其特征在于,所述鉴别网络损失函数为:
LD=KL(A1||D(x))+KL(A0||D(G1(z)))+KL(A0||D(G2(z)))+λD||D(G1(z))-D(G2(z))||;
其中,LD表示鉴别网络损失值,λD表示常数项系数,D(x)表示向鉴别网络中输入训练图像x后得到的概率向量,KL(A1||D(x))表示A1与D(x)之间的KL散度,KL(A0||D(G1(z)))表示A0与中间参数D(G1(z))之间的KL散度,KL(A0||D(G2(z)))表示A0与中间参数D(G2(z))之间的KL散度。
5.根据权利要求1所述的基于双向约束生成对抗网络的图像生成方法,其特征在于,所述构建训练集具体包括:
获取多张样本图像;
将每张所述样本图像分别进行裁剪,获得多张训练图像;所述训练图像的高度与宽度相等。
6.一种基于双向约束生成对抗网络的图像生成系统,其特征在于,所述系统包括:
训练集构建模块,用于构建训练集;所述训练集包括多张训练图像;
初始对抗网络生成模块,用于将生成对抗网络中引入第一生成网络、第二生成网络和鉴别网络,获得初始对抗网络;
训练及优化模块,用于利用训练样本和所述训练集对所述初始对抗网络进行训练及优化,获得图像生成模型;
图像生成模块,用于将待生成样本输入至所述图像生成模型中进行图像生成,获得合成图像。
7.根据权利要求6所述的基于双向约束生成对抗网络的图像生成系统,其特征在于,所述训练及优化模块,具体包括:
损失值计算单元,用于将训练样本和所述训练集输入所述初始对抗网络进行训练,利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值;
第一判断单元,用于基于所述生成网络损失值判断是否满足第一收敛条件;如果满足第一收敛条件,则执行“步骤S33”;如果不满足第一收敛条件,则返回“损失值计算单元”;
第二判断单元,用于基于所述鉴别网络损失值判断是否满足第二收敛条件;如果满足第二收敛条件,则将训练后的所述初始对抗网络作为所述图像生成模型;如果不满足第二收敛条件,则返回“损失值计算单元”;
参数设置单元,用于设置最大训练次数;
训练单元,用于将训练样本和所述训练集输入所述初始对抗网络进行训练;
第三判断单元,用于判断迭代次数是否小于或等于最大训练次数;如果迭代次数小于或等于最大训练次数,则利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值,采用Adam优化算法更新网络参数;如果迭代次数大于最大训练次数,则将训练后的所述初始对抗网络作为所述图像生成模型。
8.根据权利要求7所述的基于双向约束生成对抗网络的图像生成系统,其特征在于,所述生成网络损失函数为:
其中,LG表示生成网络损失值,A0表示初始设定的虚假分布,A1表示初始设定的真实分布,G1(z)表示训练样本z输入至第一生成网络后生成的图像,简称第一图像,G2(z)表示训练样本z输入至第二生成网络后生成的图像,简称第二图像,D(G1(z))表示向鉴别网络中输入第一图像后得到的概率向量,D(G2(z))表示向鉴别网络中输入第二图像后得到的概率向量,λG表示常数项系数,α表示常数系数,满足0-1之间的均匀分布,α∈U(0,1),||*||表示范数,KL(A0||D(G(z)))表示A0与中间参数D(G(z))之间的KL散度,KL(A1||D(G(z)))表示A1与中间参数D(G(z))之间的KL散度。
9.根据权利要求8所述的基于双向约束生成对抗网络的图像生成系统,其特征在于,所述鉴别网络损失函数为:
LD=KL(A1||D(x))+KL(A0||D(G1(z)))+KL(A0||D(G2(z)))+λD||D(G1(z))-D(G2(z))||;
其中,LD表示鉴别网络损失值,λD表示常数项系数,D(x)表示向鉴别网络中输入训练图像x后得到的概率向量,KL(A1||D(x))表示A1与D(x)之间的KL散度,KL(A0||D(G1(z)))表示A0与中间参数D(G1(z))之间的KL散度,KL(A0||D(G2(z)))表示A0与中间参数D(G2(z))之间的KL散度。
10.根据权利要求6所述的基于双向约束生成对抗网络的图像生成系统,其特征在于,所述训练集构建模块具体包括:
获取单元,用于获取多张样本图像;
裁剪单元,用于将每张所述样本图像分别进行裁剪,获得多张训练图像;所述训练图像的高度与宽度相等。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085747.8A CN113744175B (zh) | 2021-09-16 | 2021-09-16 | 一种基于双向约束生成对抗网络的图像生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085747.8A CN113744175B (zh) | 2021-09-16 | 2021-09-16 | 一种基于双向约束生成对抗网络的图像生成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113744175A true CN113744175A (zh) | 2021-12-03 |
CN113744175B CN113744175B (zh) | 2024-01-19 |
Family
ID=78739240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111085747.8A Active CN113744175B (zh) | 2021-09-16 | 2021-09-16 | 一种基于双向约束生成对抗网络的图像生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113744175B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114331821A (zh) * | 2021-12-29 | 2022-04-12 | 中国人民解放军火箭军工程大学 | 一种图像转换方法及系统 |
CN117372806A (zh) * | 2023-10-10 | 2024-01-09 | 中国人民解放军火箭军工程大学 | 一种少样本图像生成方法、系统及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635774A (zh) * | 2018-12-21 | 2019-04-16 | 中山大学 | 一种基于生成对抗网络的人脸合成方法 |
EP3511942A2 (en) * | 2018-01-16 | 2019-07-17 | Siemens Healthcare GmbH | Cross-domain image analysis and cross-domain image synthesis using deep image-to-image networks and adversarial networks |
WO2019237240A1 (zh) * | 2018-06-12 | 2019-12-19 | 中国科学院深圳先进技术研究院 | 一种增强型生成式对抗网络以及目标样本识别方法 |
CN110910351A (zh) * | 2019-10-31 | 2020-03-24 | 上海交通大学 | 基于生成对抗网络的超声图像模态迁移、分类方法及终端 |
CN111563841A (zh) * | 2019-11-13 | 2020-08-21 | 南京信息工程大学 | 一种基于生成对抗网络的高分辨率图像生成方法 |
US20210012486A1 (en) * | 2019-07-09 | 2021-01-14 | Shenzhen Malong Technologies Co., Ltd. | Image synthesis with generative adversarial network |
CN113112411A (zh) * | 2020-01-13 | 2021-07-13 | 南京信息工程大学 | 基于多尺度特征融合的人脸图像语义修复方法 |
-
2021
- 2021-09-16 CN CN202111085747.8A patent/CN113744175B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3511942A2 (en) * | 2018-01-16 | 2019-07-17 | Siemens Healthcare GmbH | Cross-domain image analysis and cross-domain image synthesis using deep image-to-image networks and adversarial networks |
WO2019237240A1 (zh) * | 2018-06-12 | 2019-12-19 | 中国科学院深圳先进技术研究院 | 一种增强型生成式对抗网络以及目标样本识别方法 |
CN109635774A (zh) * | 2018-12-21 | 2019-04-16 | 中山大学 | 一种基于生成对抗网络的人脸合成方法 |
US20210012486A1 (en) * | 2019-07-09 | 2021-01-14 | Shenzhen Malong Technologies Co., Ltd. | Image synthesis with generative adversarial network |
CN110910351A (zh) * | 2019-10-31 | 2020-03-24 | 上海交通大学 | 基于生成对抗网络的超声图像模态迁移、分类方法及终端 |
CN111563841A (zh) * | 2019-11-13 | 2020-08-21 | 南京信息工程大学 | 一种基于生成对抗网络的高分辨率图像生成方法 |
CN113112411A (zh) * | 2020-01-13 | 2021-07-13 | 南京信息工程大学 | 基于多尺度特征融合的人脸图像语义修复方法 |
Non-Patent Citations (2)
Title |
---|
ALEC RADFORD 等: "UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS", 《ARXIV》 * |
胡妤婕 等: "语义区域风格约束下的图像合成", 《计算机科学》, vol. 48, no. 2 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114331821A (zh) * | 2021-12-29 | 2022-04-12 | 中国人民解放军火箭军工程大学 | 一种图像转换方法及系统 |
CN114331821B (zh) * | 2021-12-29 | 2023-09-22 | 中国人民解放军火箭军工程大学 | 一种图像转换方法及系统 |
CN117372806A (zh) * | 2023-10-10 | 2024-01-09 | 中国人民解放军火箭军工程大学 | 一种少样本图像生成方法、系统及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113744175B (zh) | 2024-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537743B (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
CN111563841A (zh) | 一种基于生成对抗网络的高分辨率图像生成方法 | |
CN111814626B (zh) | 一种基于自注意力机制的动态手势识别方法和系统 | |
CN106779087A (zh) | 一种通用机器学习数据分析平台 | |
CN111737743A (zh) | 一种深度学习差分隐私保护方法 | |
CN109034034A (zh) | 一种基于强化学习算法优化卷积神经网络的静脉识别方法 | |
CN113744175A (zh) | 一种基于双向约束生成对抗网络的图像生成方法及系统 | |
CN112465120A (zh) | 一种基于进化方法的快速注意力神经网络架构搜索方法 | |
CN111311702B (zh) | 一种基于BlockGAN的图像生成和识别模块及方法 | |
CN112561039A (zh) | 一种改进的基于超网络的进化神经网络架构搜索方法 | |
Li et al. | Automatic design of convolutional neural network architectures under resource constraints | |
CN113033822A (zh) | 基于预测校正和随机步长优化的对抗性攻击与防御方法及系统 | |
CN109859310A (zh) | 一种可用于生成mr图像的模型及其建立方法 | |
Aliniya et al. | CB-ICA: A crossover-based imperialist competitive algorithm for large-scale problems and engineering design optimization | |
CN115272774A (zh) | 基于改进自适应差分进化算法的对抗样本攻击方法及系统 | |
Ding et al. | Take a close look at mode collapse and vanishing gradient in GAN | |
CN115439904A (zh) | 一种基于知识引导的人脸属性编辑方法 | |
CN114332565A (zh) | 一种基于分布估计的条件生成对抗网络文本生成图像方法 | |
CN111260652B (zh) | 一种基于mimo-gan的图像生成系统和方法 | |
CN114077895A (zh) | 对抗性策略的变分自编码模型 | |
CN116665300A (zh) | 基于时空自适应特征融合图卷积网络的骨架动作识别方法 | |
CN116310642A (zh) | 基于pate框架的可变动态鉴别器差分隐私数据生成器 | |
CN116681921A (zh) | 一种基于多特征损失函数融合的目标标注方法及系统 | |
Wang et al. | The application of evolutionary computation in generative adversarial networks (GANs): a systematic literature survey | |
CN111429436B (zh) | 一种基于多尺度注意力和标签损失的本质图像分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |