CN110070174A - 一种生成对抗网络的稳定训练方法 - Google Patents

一种生成对抗网络的稳定训练方法 Download PDF

Info

Publication number
CN110070174A
CN110070174A CN201910287274.6A CN201910287274A CN110070174A CN 110070174 A CN110070174 A CN 110070174A CN 201910287274 A CN201910287274 A CN 201910287274A CN 110070174 A CN110070174 A CN 110070174A
Authority
CN
China
Prior art keywords
training
image
generator
network
penalty values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910287274.6A
Other languages
English (en)
Other versions
CN110070174B (zh
Inventor
阮仕海
王晓晶
张伟
洪炜冬
许清泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Meitu Technology Co Ltd
Original Assignee
Xiamen Meitu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Meitu Technology Co Ltd filed Critical Xiamen Meitu Technology Co Ltd
Priority to CN201910287274.6A priority Critical patent/CN110070174B/zh
Publication of CN110070174A publication Critical patent/CN110070174A/zh
Application granted granted Critical
Publication of CN110070174B publication Critical patent/CN110070174B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种生成对抗网络的稳定训练方法,包括:将训练图像输入自编码器中进行处理,得到第一生成图像;基于训练图像与第一生成图像之间的损失值,训练得到预训练的生成器;基于训练图像和经预训练的生成器生成的第二生成图像,对预训练的生成器和判别器进行训练,并基于训练结束时对应的生成器和判别器,得到生成对抗网络。本方案适用范围广,能够应用于任意网络结构和任意损失函数的生成对抗网络的训练,能够提高生成对抗网络训练的稳定性,避免模式崩溃。

Description

一种生成对抗网络的稳定训练方法
技术领域
本发明涉及深度学习技术领域,尤其涉及一种生成对抗网络的稳定训练方法、计算设备及存储介质。
背景技术
生成对抗网络是近年来深度学习领域一项非常热门的技术,其特点在于可以学习数据的分布,生成更加接近真实图像的样本。
生成对抗网络由生成器和判别器组成,二者是对抗的关系。判别器学习分辨真实样本与生成器生成的假样本,而生成器则使判别器认为自己生成的样本是真实样本。随着训练的进行,判别器的分辨能力越来越强,生成器生成的样本也越来越接近真实样本。但是生成对抗网络的训练自由度太大,生成器和判别器很容易陷入不正常的对抗状态,发生模式崩溃,导致生成图像多样性不足,严重模式崩溃时生成的所有图片都一样。
目前存在一些生成对抗网络的训练方法,例如DCGAN(深度卷积生成对抗网络)从工程实践中调整出一个比较稳定的网络结构,但是这样局限性太大;另外,LSGAN(最小二乘法生成对抗网络)、WGAN(Wasserstein距离生成对抗网络)、WGAN-GP(改进的沃瑟斯坦距离生成对抗网络)等方法改进了原始生成对抗网络使用的损失函数,其中前二者对网络结构依然不够鲁棒,而后者训练速度太慢。
因此,需要一种稳定训练生成对抗网络的方法,能够适用于不同的网络结构,提高生成对抗网络训练的稳定性。
发明内容
为此,本发明提供了一种生成对抗网络的稳定训练方法,以力图解决或者至少缓解上面存在的至少一个问题。
根据本发明的一个方面,提供了一种生成对抗网络的稳定训练方法,该方法适于在计算设备中执行,包括:首先,将训练图像输入自编码器中进行处理,得到第一生成图像。接着,基于训练图像与第一生成图像之间的损失值,训练得到预训练的生成器。最后,基于训练图像和经预训练的生成器生成的第二生成图像,对预训练的生成器和判别器进行训练,并基于训练结束时对应的生成器和判别器,得到生成对抗网络。
可选地,在上述方法中,自编码器包括相互耦接的编码器和解码器,首先将训练图像输入编码器中进行编码得到隐变量。然后,将隐变量输入解码器中解码得到第一生成图像。
可选地,在上述方法中,首先,计算训练图像与第一生成图像之间的第一损失值。然后,将训练图像和第一生成图像分别输入VGG网络中,得到至少一个训练图像的特征图和第一生成图像的特征图。随后,计算训练图像的特征图与对应VGG网络层的第一生成图像的特征图之间的第二损失值。最后,基于第一损失值和第二损失值的加权和,调整自编码器的权重参数,以将训练后的解码器作为预训练的生成器。
可选地,在上述方法中,基于L1范数损失函数计算第一损失值,基于L2范数损失函数计算第二损失值。
可选地,在上述方法中,首先,将随机噪声向量输入预训练的生成器,得到第二生成图像。然后,将训练图像和第二生成图像分别输入判别器中,以输出训练图像的判别值和第二生成图像的判别值,并基于训练图像的判别值和第二生成图像的判别值,利用判别损失函数计算第三损失值;以及基于第三损失值,更新预训练的生成器和判别器的网络参数。重复得到第二生成图像、计算第三损失值和更新网络参数的步骤,直到满足预定条件,训练结束。
可选地,在上述方法中,基于下述公式计算判别损失函数的损失值:
其中,D(x)为训练图像的判别值,为第二生成图像的判别值。
可选地,在上述方法中,生成器和判别器均为卷积神经网络,包括多个卷积处理层,卷积处理层包括卷积层、批量归一化层和激活层。
可选地,在上述方法中,生成器的输出层使用tanh激活函数。
根据本发明另一个方面,提供了一种计算设备,包括:存储器;一个或多个处理器;一个或多个程序,其中一个或多个程序存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序包括用于执行上述方法的指令。
根据本发明另一个方面,提供一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当计算设备执行时,使得所述计算设备执行上述生成对抗网络的训练方法。
根据本发明方案,基于自编码器对生成对抗网络的生成器进行预训练,能够提高生成对抗网络的稳定性,避免模式崩溃,且该方案适用范围广,能够应用到任意网络结构和损失函数的生成对抗网络的训练中。
附图说明
为了实现上述以及相关目的,本文结合下面的描述和附图来描述某些说明性方面,这些方面指示了可以实践本文所公开的原理的各种方式,并且所有方面及其等效方面旨在落入所要求保护的主题的范围内。通过结合附图阅读下面的详细描述,本公开的上述以及其它目的、特征和优势将变得更加明显。遍及本公开,相同的附图标记通常指代相同的部件或元素。
图1示出了根据本发明的一个实施例的计算设备100的构造示意图;
图2示出了根据本发明的一个实施例的生成对抗网络的稳定训练方法200的示意性流程图;
图3示出了根据本发明的一个实施例的自编码器的网络结构示意图;
图4示出了根据本发明的一个实施例的随机初始化DCGAN网络和预训练生成器的DCGAN网络的生成图像对比示意图;
图5示出了根据本发明的一个实施例的随机初始化LSGAN网络和预训练生成器的LSGAN网络的生成图像对比示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
生成对抗网络是通过生成网络和判别网络的相互博弈,以使生成网络学习到数据的分布。传统的生成对抗网络中生成网络接收一个随机的噪声生成图像,判别网络判断输入的图像是训练图像的概率,训练过程中生成网络梯度的更新来自判别网络,而不是图像样本,通过对抗训练达到纳什平衡点。但是由于对抗训练存在的自由度太大,生成对抗网络很容易出现训练不稳定、梯度消失、模式崩溃等问题。本方案提出一种利用预训练的生成器来训练生成对抗网络的方法,能够产生较好的图像生成效果。
图1是示例计算设备100的框图。在基本的配置102中,计算设备100典型地包括系统存储器106和一个或者多个处理器104。存储器总线108可以用于在处理器104和系统存储器106之间的通信。
取决于期望的配置,处理器104可以是任何类型的处理器,包括但不限于:微处理器(μP)、微控制器(μC)、数字信息处理器(DSP)或者它们的任何组合。处理器104可以包括诸如一级高速缓存110和二级高速缓存112之类的一个或者多个级别的高速缓存、处理器核心114和寄存器116。示例的处理器核心114可以包括运算逻辑单元(ALU)、浮点数单元(FPU)、数字信号处理核心(DSP核心)或者它们的任何组合。示例的存储器控制器118可以与处理器104一起使用,或者在一些实现中,存储器控制器118可以是处理器104的一个内部部分。
取决于期望的配置,系统存储器106可以是任意类型的存储器,包括但不限于:易失性存储器(诸如RAM)、非易失性存储器(诸如ROM、闪存等)或者它们的任何组合。系统存储器106可以包括操作系统120、一个或者多个应用122以及程序数据124。在一些实施方式中,应用122可以布置为在操作系统上利用程序数据124进行操作。在一些实施例中,计算设备100被配置为执行生成对抗网络的稳定训练方法200,程序数据124中就包含了用于执行生成对抗网络的稳定训练方法200的指令。
计算设备100还可以包括有助于从各种接口设备(例如,输出设备142、外设接口144和通信设备146)到基本配置102经由总线/接口控制器130的通信的接口总线140。示例的输出设备142包括图形处理单元148和音频处理单元150。它们可以被配置为有助于经由一个或者多个A/V端口152与诸如显示器或者扬声器之类的各种外部设备进行通信。示例外设接口144可以包括串行接口控制器154和并行接口控制器156,它们可以被配置为有助于经由一个或者多个I/O端口158和诸如输入设备(例如,键盘、鼠标、笔、语音输入设备、图像输入设备)或者其他外设(例如打印机、扫描仪等)之类的外部设备进行通信。示例的通信设备146可以包括网络控制器160,其可以被布置为便于经由一个或者多个通信端口164与一个或者多个其他计算设备162通过网络通信链路的通信。
网络通信链路可以是通信介质的一个示例。通信介质通常可以体现为在诸如载波或者其他传输机制之类的调制数据信号中的计算机可读指令、数据结构、程序模块,并且可以包括任何信息递送介质。“调制数据信号”可以是这样的信号,它的数据集中的一个或者多个或者它的改变可以在信号中以编码信息的方式进行。作为非限制性的示例,通信介质可以包括诸如有线网络或者专线网络之类的有线介质,以及诸如声音、射频(RF)、微波、红外(IR)或者其它无线介质在内的各种无线介质。这里使用的术语计算机可读介质可以包括存储介质和通信介质二者。在一些实施例中,计算机可读介质中存储一个或多个程序,这一个或多个程序中包括执行某些方法的指令。
计算设备100可以实现为小尺寸便携(或者移动)电子设备的一部分,这些电子设备可以是诸如蜂窝电话、数码照相机、个人数字助理(PDA)、个人媒体播放器设备、无线网络浏览设备、个人头戴设备、应用专用设备、或者可以包括上面任何功能的混合设备。当然,计算设备100也可以实现为包括桌面计算机和笔记本计算机配置的个人计算机,或者是具有上述配置的服务器。本发明的实施方式对此均不作限制。
图2示出了根据本发明的一个实施例的生成对抗网络的稳定训练方法200的示意性流程图。其中生成对抗网络包括相互耦接的生成器和判别器。生成器和判别器均为卷积神经网络。根据本发明的一种实施例,生成器可以包括多个卷积处理层和输出层,其中卷积处理层包括卷积层、批量归一化层和激活层,输出层包括卷积层和激活层。表1示出了根据本发明的一个实施例的生成器部分网络结构参数(表1示出了4个卷积处理层和1个输出层)。其中,BN表示批量归一化,keme1为卷积核大小,stride为卷积步长,k表示各个层的输出通道数。在激活层中,激活函数可以使用ReLU、LeakyReLU、Tanh、softmax中任意一种。在本发明的一个实现方式中,生成器的其它卷积处理层使用ReLU激活函数,输出层使用tanh激活函数,tanh激活函数在特征相差明显时的效果会很好,在循环过程中会不断扩大特征效果。
表1
卷积层的参数 激活层的激活函数
卷积处理层 kemel=4,stride=1,k=512 ReLU
卷积处理层 kernel=4,stride=2,k=256 ReLU
卷积处理层 kernel=4,stride=2,k=128 ReLU
卷积处理层 kernel=4,stride=2,k=64 ReLU
输出层 kernel=4,stride=2,k=3 Tanh
表2示出了根据本发明的一个实施例的判别器的部分网络结构参数。根据本发明的实施例,判别器也包括多个卷积处理层。需要说明的是,在判别器中,有的卷积处理层对图像进行卷积、批量归一化和激活处理,有的卷积处理层只对输入的图像进行卷积和激活处理,最后一层只进行卷积处理。如表2,在该判别器中,激活层使用leakyReLU激活函数,这样可以减少稀疏梯度的可能性。表2中“无”表示不进行批量归一化处理或激活处理。其中,归一化就是将数据的输入值减去其均值然后除以数据的标准差。批量归一化处理可以加速模型的训练,一般放在激活函数之前。
表2
对于深层卷积神经网络,一般通过随机初始化权重,然后用梯度下降法来训练网络,很容易发生梯度消失。故,在根据本发明的实施方式中,利用自编码器对生成对抗网络中的生成器进行预训练,得到预训练的生成器;然后利用预训练的生成器和随机初始化的判别器,一起训练生成对抗网络,以避免发生模式崩溃。
如图2所示,该方法始于步骤S210,将训练图像输入自编码器中进行处理,得到第一生成图像。
其中,自编码器可以从无标注的图像中学习特征,是一种以重构输入信息为目标的神经网络。图3示出了根据本发明的一个实施例的自编码器的网络结构示意图。如图3所示,自编码器包括相互耦接的编码器和解码器,编码器可以将输入的训练图像编码成固定长度的隐变量,解码器可以将隐变量解码得到第一生成图像。根据本发明的实施例,将初始的生成器作为解码器,与编码器一起,构成自编码器。表3示出了根据本发明的一个实施例的编码器的部分网络参数。
表3
其中,编码器与表2示出的判别器的网络结构基本相同,区别在于最后一层的输出通道为100即隐变量的长度。编码器的激活函数可以使用leakyReLU激活函数,同样可以减少稀疏梯度的可能性。需要说明的是,编码器中部分参数与判别器的参数重合,此处不再赘述。
随后在步骤S220中,基于训练图像与第一生成图像之间的损失值,训练得到预训练的生成器。
根据本发明的一个实施例,可以首先基于L1范数损失函数计算训练图像与第一生成图像之间的第一损失值。基于L2范数损失函数计算训练图像的特征图与对应VGG网络层的第一生成图像的特征图之间的第二损失值。
其中,L1范数损失函数,即最小绝对值偏差。总的说来,它是把目标值与估计值的绝对差值的总和最小化。L2范数损失函数,即最小平方误差。总的来说,它是把目标值与估计值的差值的平方和最小化。
然后,将训练图像和第一生成图像分别输入VGG网络中,得到至少一个训练图像的特征图和至少一个第一生成图像的特征图。VGG网络按照网络深度包括VGG16和VGG19,均包括多个卷积层和全连接层。一般采用连续的几个3*3卷积核代替较大卷积核,这样有利于更好地保持图像性质。通常,VGG网络的每一层输出均包含一个对应的特征图,即,将训练图像和第一生成图像分别输入VGG网络中,每层都对应输出一个训练图像的特征图和一个第一生成图像的特征图。为提高运算效率,在根据本发明的实施例中,抽取其中3层输出的特征图,用于计算训练图像的特征图和第一生成图像的特征图之间的第二损失值。
最后,基于第一损失值和第二损失值的加权和,得到训练自编码器的损失值,并根据该损失值调整自编码器的权重参数,直到满足预定条件时,例如两次迭代计算的损失值之差小于预定阈值或者达到预定迭代次数,训练结束。将训练后的解码器作为预训练的生成器。
其中,可以根据实际情况调整第一损失值和第二损失值的权重比,一般可以设置权重比例为10∶1。当误差很小的时候,适于使用L2损失函数,当误差较大的时候,适于使用L1损失函数。
最后在步骤S230中,基于训练图像和经预训练的生成器生成的第二生成图像,对预训练的生成器和判别器进行训练,并基于训练结束时对应的生成器和判别器,得到生成对抗网络。
虽然自编码器训练得到的隐变量不符合生成对抗网络要求输入的高斯分布,但是经过预训练的生成器具备了从同等维度某个分布生成训练图像的能力,能够提高生成对抗网络训练的稳定性。
根据本发明的一个实施例,首先,可以将随机采样得到的随机噪声向量输入预训练的生成器,得到第二生成图像。然后,将训练图像和第二生成图像分别输入判别器中,以输出训练图像的判别值和第二生成图像的判别值,并基于训练图像的判别值和第二生成图像的判别值,利用判别损失函数计算第三损失值。随后,基于第三损失值,更新预训练的生成器和判别器的网络参数。重复得到第二生成图像、计算第三损失值和更新网络参数的步骤,直到满足预定条件,训练结束。例如,当使用反向传播算法迭代计算的两次损失值之差小于预定阈值,或者迭代次数达到预先设置的迭代次数,训练结束。
其中,判别损失函数的损失值可以基于下述公式计算:
其中,D(x)为训练图像的判别值,为第二生成图像的判别值。
在更新生成对抗网络的参数的过程中,生成器的参数更新不是直接来自图像样本,而是使用来自判别器的反向传播。可以将本方案的训练方法应用于深度卷积生成对抗网络DCGAN和最小二乘生成对抗网络LSGAN。图4示出了根据本发明的一个实施例的随机初始化DCGAN网络和预训练生成器的DCGAN网络的生成图像对比示意图。图5示出了根据本发明的一个实施例的随机初始化LSGAN网络和预训练生成器的LSGAN网络的生成图像对比示意图。如图4和图5左侧图所示,生成的图像存在比较明显的模式崩溃。例如,图4和图5左图所示的分辨率为64*64的64张图是随机采样不同的隐变量来生成的,结果对不同的隐变量,网络映射到一样的生成图,这就是模式崩溃。即网络没能捕获整个图像集的完整分布,而只是部分分布。更通俗一点,假设图像存在100种可能,模式崩溃就是网络只学会了生成其中的少于100种可能。而利用本方案预训练的生成器得到训练后的生成对抗网络,生成的图像具有较好的多样性。
根据本发明的方案,使用自编码器对生成对抗网络的生成器进行预训练,能够提高生成对抗网络训练的稳定性,尽可能避免模式崩溃,而且本方案适用范围广,可以应用到任意网络结构和损失函数的生成对抗网络的训练中。
应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员应当理解在本文所公开的示例中的设备的模块或单元或组件可以布置在如该实施例中所描述的设备中,或者可替换地可以定位在与该示例中的设备不同的一个或多个设备中。前述示例中的模块可以组合为一个模块或者此外可以分成多个子模块。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
这里描述的各种技术可结合硬件或软件,或者它们的组合一起实现。从而,本发明的方法和设备,或者本发明的方法和设备的某些方面或部分可采取嵌入有形媒介,例如软盘、CD-ROM、硬盘驱动器或者其它任意机器可读的存储介质中的程序代码(即指令)的形式,其中当程序被载入诸如计算机之类的机器,并被所述机器执行时,所述机器变成实践本发明的设备。
在程序代码在可编程计算机上执行的情况下,计算设备一般包括处理器、处理器可读的存储介质(包括易失性和非易失性存储器和/或存储元件),至少一个输入装置,和至少一个输出装置。其中,存储器被配置用于存储程序代码;处理器被配置用于根据该存储器中存储的所述程序代码中的指令,执行本发明所述的方法。
以示例而非限制的方式,计算机可读介质包括计算机存储介质和通信介质。计算机可读介质包括计算机存储介质和通信介质。计算机存储介质存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息。通信介质一般以诸如载波或其它传输机制等已调制数据信号来体现计算机可读指令、数据结构、程序模块或其它数据,并且包括任何信息传递介质。以上的任一种的组合也包括在计算机可读介质的范围之内。
此外,所述实施例中的一些在此被描述成可以由计算机系统的处理器或者由执行所述功能的其它装置实施的方法或方法元素的组合。因此,具有用于实施所述方法或方法元素的必要指令的处理器形成用于实施该方法或方法元素的装置。此外,装置实施例的在此所述的元素是如下装置的例子:该装置用于实施由为了实施该发明的目的的元素所执行的功能。
如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。

Claims (10)

1.一种生成对抗网络的稳定训练方法,所述方法适于在计算设备中执行,包括:
将训练图像输入自编码器中进行处理,得到第一生成图像;
基于训练图像与第一生成图像之间的损失值,训练得到预训练的生成器;以及
基于训练图像和经预训练的生成器生成的第二生成图像,对预训练的生成器和判别器进行训练,并基于训练结束时对应的生成器和判别器,得到生成对抗网络。
2.如权利要求1所述的方法,其中,所述自编码器包括相互耦接的编码器和解码器,所述将训练图像输入自编码器中进行处理的步骤包括:
将训练图像输入编码器中进行编码得到隐变量;
将隐变量输入解码器中解码得到第一生成图像。
3.如权利要求2所述的方法,其中,所述基于训练图像与第一生成图像之间的损失值,训练得到预训练的生成器的步骤包括:
计算训练图像与第一生成图像之间的第一损失值;
将训练图像和第一生成图像分别输入VGG网络中,得到至少一个训练图像的特征图和第一生成图像的特征图;
计算训练图像的特征图与对应的第一生成图像的特征图之间的第二损失值;以及
基于第一损失值和第二损失值的加权和,调整自编码器的参数,以将训练后的解码器作为预训练的生成器。
4.如权利要求3所述的方法,其中,
基于L1范数损失函数计算第一损失值;
基于L2范数损失函数计算第二损失值。
5.如权利要求1所述的方法,其中,所述将训练图像和预训练的生成器生成的第二生成图像分别输入判别器中进行训练的步骤包括:
将随机噪声向量输入预训练的生成器,得到第二生成图像;
将训练图像和第二生成图像分别输入判别器中,以输出训练图像的判别值和第二生成图像的判别值,并基于训练图像的判别值和第二生成图像的判别值,利用判别损失函数计算第三损失值;以及
基于第三损失值,更新预训练的生成器和判别器的网络参数;
重复所述得到第二生成图像、计算第三损失值和更新网络参数的步骤,直到满足预定条件,训练结束。
6.如权利要求5所述的方法,其中,基于下述公式计算判别损失函数的损失值:
其中,D(x)为训练图像的判别值,为第二生成图像的判别值。
7.如权利要求1所述的方法,其中,所述生成器和判别器均为卷积神经网络,包括多个卷积处理层,所述卷积处理层包括卷积层、批量归一化层和激活层。
8.如权利要求7所述的方法,其中,所述生成器的输出层使用tanh激活函数。
9.一种计算设备,包括:
存储器;
一个或多个处理器;
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求1-8所述方法中的任一方法的指令。
10.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当计算设备执行时,使得所述计算设备执行根据权利要求1-8所述的方法中的任一方法。
CN201910287274.6A 2019-04-10 2019-04-10 一种生成对抗网络的稳定训练方法 Active CN110070174B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910287274.6A CN110070174B (zh) 2019-04-10 2019-04-10 一种生成对抗网络的稳定训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910287274.6A CN110070174B (zh) 2019-04-10 2019-04-10 一种生成对抗网络的稳定训练方法

Publications (2)

Publication Number Publication Date
CN110070174A true CN110070174A (zh) 2019-07-30
CN110070174B CN110070174B (zh) 2020-11-27

Family

ID=67367341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910287274.6A Active CN110070174B (zh) 2019-04-10 2019-04-10 一种生成对抗网络的稳定训练方法

Country Status (1)

Country Link
CN (1) CN110070174B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909509A (zh) * 2019-11-28 2020-03-24 哈尔滨理工大学 基于InfoLSGAN和AC算法的轴承寿命预测方法
CN111209674A (zh) * 2020-01-09 2020-05-29 长江大学 一种河道砂建模方法、设备及可读存储介质
CN111861949A (zh) * 2020-04-21 2020-10-30 北京联合大学 一种基于生成对抗网络的多曝光图像融合方法及系统
CN111914945A (zh) * 2020-08-18 2020-11-10 腾讯科技(深圳)有限公司 数据处理方法、装置、图像生成方法及电子设备
CN112259247A (zh) * 2020-10-22 2021-01-22 平安科技(深圳)有限公司 对抗网络训练、医疗数据补充方法、装置、设备及介质
CN112529159A (zh) * 2020-12-09 2021-03-19 北京百度网讯科技有限公司 网络训练方法、装置及电子设备
CN112561028A (zh) * 2019-09-25 2021-03-26 华为技术有限公司 训练神经网络模型的方法、数据处理的方法及装置
CN112785499A (zh) * 2020-12-31 2021-05-11 马培峰 超分辨率重建模型训练方法及计算机设备
CN112785498A (zh) * 2020-12-31 2021-05-11 达科为(深圳)医疗设备有限公司 一种基于深度学习的病理图像超分建模方法
CN112861759A (zh) * 2021-02-24 2021-05-28 北京瑞莱智慧科技有限公司 一种对抗样本生成方法及装置
CN112929666A (zh) * 2021-03-22 2021-06-08 北京金山云网络技术有限公司 一种编解码网络的训练方法、装置、设备及存储介质
CN113313133A (zh) * 2020-02-25 2021-08-27 武汉Tcl集团工业研究院有限公司 一种生成对抗网络的训练方法、动画图像生成方法
WO2021253722A1 (zh) * 2020-06-19 2021-12-23 中国科学院深圳先进技术研究院 医学图像重建技术的方法、装置、存储介质和电子设备
CN115311515A (zh) * 2022-07-22 2022-11-08 合肥本源量子计算科技有限责任公司 混合量子经典的生成对抗网络的训练方法及相关设备
CN115496989B (zh) * 2022-11-17 2023-04-07 南京硅基智能科技有限公司 一种生成器、生成器训练方法及避免图像坐标粘连方法
WO2024083033A1 (zh) * 2022-10-20 2024-04-25 马上消费金融股份有限公司 图像识别模型的训练方法、图像识别方法以及相关产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460830A (zh) * 2018-05-09 2018-08-28 厦门美图之家科技有限公司 图像修复方法、装置及图像处理设备
CN108875818A (zh) * 2018-06-06 2018-11-23 西安交通大学 基于变分自编码机与对抗网络结合的零样本图像分类方法
CN108932534A (zh) * 2018-07-15 2018-12-04 瞿文政 一种基于深度卷积生成对抗网络的图片生成方法
US10152970B1 (en) * 2018-02-08 2018-12-11 Capital One Services, Llc Adversarial learning and generation of dialogue responses
CN109508669A (zh) * 2018-11-09 2019-03-22 厦门大学 一种基于生成式对抗网络的人脸表情识别方法
US20200098353A1 (en) * 2018-09-28 2020-03-26 Capital One Services, Llc Adversarial learning framework for persona-based dialogue modeling

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10152970B1 (en) * 2018-02-08 2018-12-11 Capital One Services, Llc Adversarial learning and generation of dialogue responses
CN108460830A (zh) * 2018-05-09 2018-08-28 厦门美图之家科技有限公司 图像修复方法、装置及图像处理设备
CN108875818A (zh) * 2018-06-06 2018-11-23 西安交通大学 基于变分自编码机与对抗网络结合的零样本图像分类方法
CN108932534A (zh) * 2018-07-15 2018-12-04 瞿文政 一种基于深度卷积生成对抗网络的图片生成方法
US20200098353A1 (en) * 2018-09-28 2020-03-26 Capital One Services, Llc Adversarial learning framework for persona-based dialogue modeling
CN109508669A (zh) * 2018-11-09 2019-03-22 厦门大学 一种基于生成式对抗网络的人脸表情识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ALIREZA MAKHZANI,ET AL.: "Adversarial Autoencoders", 《ARXIV:1511.05644V2》 *
孙秋野 等: "基于GAN技术的自能源混合建模与参数辨识方法", 《自动化学报》 *
袁世辰: "基于生成对抗网络的恶意域名训练数据生成", 《计算机应用研究》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561028A (zh) * 2019-09-25 2021-03-26 华为技术有限公司 训练神经网络模型的方法、数据处理的方法及装置
CN110909509B (zh) * 2019-11-28 2022-08-05 哈尔滨理工大学 基于InfoLSGAN和AC算法的轴承寿命预测方法
CN110909509A (zh) * 2019-11-28 2020-03-24 哈尔滨理工大学 基于InfoLSGAN和AC算法的轴承寿命预测方法
CN111209674A (zh) * 2020-01-09 2020-05-29 长江大学 一种河道砂建模方法、设备及可读存储介质
CN111209674B (zh) * 2020-01-09 2023-04-11 长江大学 一种河道砂建模方法、设备及可读存储介质
CN113313133A (zh) * 2020-02-25 2021-08-27 武汉Tcl集团工业研究院有限公司 一种生成对抗网络的训练方法、动画图像生成方法
CN111861949A (zh) * 2020-04-21 2020-10-30 北京联合大学 一种基于生成对抗网络的多曝光图像融合方法及系统
CN111861949B (zh) * 2020-04-21 2023-07-04 北京联合大学 一种基于生成对抗网络的多曝光图像融合方法及系统
WO2021253722A1 (zh) * 2020-06-19 2021-12-23 中国科学院深圳先进技术研究院 医学图像重建技术的方法、装置、存储介质和电子设备
CN111914945A (zh) * 2020-08-18 2020-11-10 腾讯科技(深圳)有限公司 数据处理方法、装置、图像生成方法及电子设备
CN112259247B (zh) * 2020-10-22 2022-08-23 平安科技(深圳)有限公司 对抗网络训练、医疗数据补充方法、装置、设备及介质
CN112259247A (zh) * 2020-10-22 2021-01-22 平安科技(深圳)有限公司 对抗网络训练、医疗数据补充方法、装置、设备及介质
WO2021189960A1 (zh) * 2020-10-22 2021-09-30 平安科技(深圳)有限公司 对抗网络训练、医疗数据补充方法、装置、设备及介质
CN112529159A (zh) * 2020-12-09 2021-03-19 北京百度网讯科技有限公司 网络训练方法、装置及电子设备
CN112529159B (zh) * 2020-12-09 2023-08-04 北京百度网讯科技有限公司 网络训练方法、装置及电子设备
CN112785498A (zh) * 2020-12-31 2021-05-11 达科为(深圳)医疗设备有限公司 一种基于深度学习的病理图像超分建模方法
CN112785499A (zh) * 2020-12-31 2021-05-11 马培峰 超分辨率重建模型训练方法及计算机设备
CN112861759A (zh) * 2021-02-24 2021-05-28 北京瑞莱智慧科技有限公司 一种对抗样本生成方法及装置
CN112929666A (zh) * 2021-03-22 2021-06-08 北京金山云网络技术有限公司 一种编解码网络的训练方法、装置、设备及存储介质
CN112929666B (zh) * 2021-03-22 2023-04-14 北京金山云网络技术有限公司 一种编解码网络的训练方法、装置、设备及存储介质
CN115311515A (zh) * 2022-07-22 2022-11-08 合肥本源量子计算科技有限责任公司 混合量子经典的生成对抗网络的训练方法及相关设备
WO2024083033A1 (zh) * 2022-10-20 2024-04-25 马上消费金融股份有限公司 图像识别模型的训练方法、图像识别方法以及相关产品
CN115496989B (zh) * 2022-11-17 2023-04-07 南京硅基智能科技有限公司 一种生成器、生成器训练方法及避免图像坐标粘连方法

Also Published As

Publication number Publication date
CN110070174B (zh) 2020-11-27

Similar Documents

Publication Publication Date Title
CN110070174A (zh) 一种生成对抗网络的稳定训练方法
JP7052034B2 (ja) 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ
US11373087B2 (en) Method and apparatus for generating fixed-point type neural network
CN110163267A (zh) 一种图像生成模型的训练方法和生成图像的方法
US11580378B2 (en) Reinforcement learning for concurrent actions
CA2941352C (en) Neural network and method of neural network training
CN108038823A (zh) 图像型变网络模型的训练方法、图像型变方法及计算设备
CN110059605A (zh) 一种神经网络训练方法、计算设备及存储介质
CN106780512A (zh) 分割图像的方法、应用及计算设备
CN109847366B (zh) 用于游戏的数据处理方法和装置
CN111898764A (zh) 联邦学习的方法、装置和芯片
CN107977707A (zh) 一种对抗蒸馏神经网络模型的方法及计算设备
CN110084253A (zh) 一种生成物体检测模型的方法
JP7106785B1 (ja) 血管内光断層画像での生分解性ステントを含むディープラーニング基盤の画像分割方法
CN107622305A (zh) 用于神经网络的处理器和处理方法
CN109978137A (zh) 一种卷积神经网络的处理方法
CN117574429A (zh) 一种边缘计算网络中隐私强化的联邦深度学习方法
Youssef et al. Building your kingdom imitation learning for a custom gameplay using unity ml-agents
CN110222817A (zh) 基于学习自动机的卷积神经网络压缩方法、系统及介质
CN109727211A (zh) 一种图像去噪方法、装置、计算设备及介质
CN113318451A (zh) 一种基于机器学习的棋类自学习方法及装置
Liu et al. Adaptive Binarization Method for Binary Neural Network
CN112766492A (zh) 模型处理方法、装置、电子设备及存储介质
CN109948627A (zh) 一种图像处理方法及计算设备
JP2021144461A (ja) 学習装置及び推論装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant