CN109409508B - 一种基于生成对抗网络使用感知损失解决模型崩塌的方法 - Google Patents
一种基于生成对抗网络使用感知损失解决模型崩塌的方法 Download PDFInfo
- Publication number
- CN109409508B CN109409508B CN201811310962.1A CN201811310962A CN109409508B CN 109409508 B CN109409508 B CN 109409508B CN 201811310962 A CN201811310962 A CN 201811310962A CN 109409508 B CN109409508 B CN 109409508B
- Authority
- CN
- China
- Prior art keywords
- network
- image
- loss
- generator
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000008447 perception Effects 0.000 title claims description 7
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000009826 distribution Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 230000008485 antagonism Effects 0.000 claims description 2
- 238000009827 uniform distribution Methods 0.000 claims description 2
- 230000003042 antagnostic effect Effects 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000010355 oscillation Effects 0.000 description 5
- 230000008034 disappearance Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000003556 assay Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像重建技术领域,公开了一种基于生成对抗网络使用感知损失解决模型崩塌的方法,利用随机向量z生成与实际数据分布相似的图像,在训练的过程中采用感知损失将z和真实数据映射到特征空间中来提取更高层次的特征,并结合对抗损失来鼓励生成网络产生与实际图像相似的图像样本;最后,使得鉴别器不能判断这是一个虚假图像。本发明针对已有网络采用较小的数据集解决了模型崩塌问题,VGG‑GAN在两个小场景数据集上进行评价;实验结果表明,用VGG‑GAN方法生成的图像质量优于现有方法。
Description
技术领域
本发明属于图像重建技术领域,尤其涉及一种基于生成对抗网络使用感知损失解决模型崩塌的方法。具体涉及一种基于生成对抗网络使用感知损失解决模型崩塌的方法VGG-GAN。
背景技术
目前,业内常用的现有技术是这样的:
传统生成对抗网络GAN有生成器网络和鉴别器网络组成。训练GAN使生成器网络和鉴别器网络相互竞争达到最优的过程,即达到纳什均衡。然而,目前并没有一个明确的方法来确定GAN网络是否已经进入纳什平衡。该问题是一个高维非凸优化目标。网络试图在下一步中最小化非凸优化目标,这最终可能导致振荡,而不是收敛到底层的真实目标。只要一个生成器和鉴别器不再改变,任何一方不会进一步改进。从梯度下降开始,选择一个可微的损失函数,并最小化它。
GAN应用广泛,但存在训练不稳定、梯度消失、模型崩溃等问题。例如,当GAN训练不稳定时,实验的结果会很差,即使训练增加训练的时间也不会让最终的结果改进。众所周知,最优的D旨在最大化真实数据分布与生成的样本分布之间的Jensen-Shannon(JS)偏差。理论上,高维空间中两个分布之间的JS距离的最大概率是常数。当优化的目标是常数时,对于最优鉴别器,生成器不能得到任何的梯度信息。即使对于接近最优的鉴别器,生成器也有很大的可能来面对梯度消失的问题。模型崩溃被称为GAN网络中最重要的失败模式。生成器重复产生完全相同的图像,本发明称之为模式崩溃。一般来说,现实世界的数据分布是高度复杂和多模态的。数据描述的概率分布具有多重性。由不同的子组样本集中。生成器崩塌到一个非常狭窄的分布,并导致生成的样本不再改变。这显然违反了GAN的本质。
此外,模式崩塌的严重程度因完全崩塌而不同。在现实中,生成的样本几乎是相同的部分崩塌(大多数样本都具有一些共同属性)。为了解决图像生成中的模型崩塌问题,基于GAN框架提出了使用权重削减的新算法WGAN。WGAN采用大型场景LSUN卧室数据集(数量为3033042)来表现出色的视觉效果,证明了该方法的有效性。
综上所述,现有技术存在的问题是:
(1)目前并没有一个明确的方法来确定GAN网络是否已经进入纳什平衡;
(2)GAN应用广泛,但存在训练不稳定、梯度消失、模型崩溃等问题,实验的结果会很差,即使训练增加训练的时间也不会让最终的结果改进;
(3)现有技术中,使用大场景数据集(例如LSUN,CelebA),并且最终结果呈现良好的视觉效果。然而,当训练数据是一个小场景数据集时,实验结果会产生模式崩塌;导致了生成样本失去多样性。
解决上述技术问题的意义:
本发明的VGG-GAN有两个优点:
第一,解决了在小场景数据集下的模式崩溃问题,保证生成样本的多样性。
第二,VGG-GAN网络收敛速度快,并且稳定。
发明内容
针对现有技术存在的问题,本发明提供了一种基于生成对抗网络使用感知损失解决模型崩塌的方法。
本发明是这样实现的,一种基于生成对抗网络使用感知损失解决模型崩塌的方法,包括以下步骤:
输入待训练的图像I;
将待训练图像I转为m×m的图像块集合,图像块用Idata表示。
随机产生满足高斯分布或均匀分布的噪声z;
将噪声z输入到生成器G中进行训练;
将生成器G输出的结果Iz和Idata一同输入到鉴别器D中;
生成器和鉴别器不断更新学习,直到达到纳什平衡,生成类似于真实图像的样本图像。
进一步,所述将随机噪声z输入到生成器G中进行训练,包括以下步骤:
对z做全连接处理。
然后reshape成512个特征映射的高维张量。
输出的特征图经过四个大小为5*5反卷积处理,随后归一化处理,再经过ReLU激活函数。
输出生成的图像。
进一步,所述将生成器G输出的结果Iz和Idata一同输入到鉴别器D中,包括以下步骤:
经过四次大小为5*5的卷积核,对图像做卷积处理;随后归一化处理,再经过LeakyReLU激活函数。
将得到的结果构造一个全连接隐藏层得到一维的数组,进行非线性激活输出结果,判断图像是来自生成器Iz还是图像块Idata。
本发明的另一目的在于提供一种实现任意一项所述基于生成对抗网络使用感知损失解决模型崩塌的方法的计算机程序。
本发明的另一目的在于提供一种实现所述基于生成对抗网络使用感知损失解决模型崩塌的方法的信息数据处理终端。
本发明的另一目的在于提供一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行所述的基于生成对抗网络使用感知损失解决模型崩塌的方法。
本发明的另一目的在于提供一种实现所述基于生成对抗网络使用感知损失解决模型崩塌的方法的基于生成对抗网络使用感知损失解决模型崩塌控制系统。
本发明的另一目的在于提供一种实现所述基于生成对抗网络使用感知损失解决模型崩塌的方法的生成器网络平台。
综上所述,本发明的优点及积极效果为:
本发明基本解决了小型场景数据集下的模式崩塌问题。保证了生成的样本的多样性,并且使得生成样本的分布更容易接近真实数据的分布。使生成器网络快速收敛,证明了训练的稳定性。
如图3所示,本发明与现有的最先进方法在训练时网络的收敛对比图。对比方法从上到下依次是DCGAN,LSGAN,WGAN,WGAN-GP和VGG-GAN。可以观察到DCGAN在生成网络中的损失不仅没有下降的趋势,而且还在不断增加。它也使得鉴别器的损失出现振荡,不能准确判断真实数据或生成样本。LSGAN的生成网络和鉴别网络在训练时发生了振荡,也出现中度模型崩溃。此外,LSGAN的收敛速度也很慢。WGAN的生成网络及其判别网络损失收敛网络趋于正常,但速度慢于的VGG-GAN,导致最终生成的样本没有VGG-GAN清晰。20个epoch以后出现小振荡,但不影响结果。WGAN GP中生成网络与判别网络一开始出现较高的损失值。随着训练的进行,损失不断减少。但是在训练结束后,没有达到最佳效果,结果不理想。VGG-GAN训练时网络收敛比其他方法更快。最后,本发明的方法可以生成感知真实感图像。
本发明在基于GAN的图像生成中解决了模型崩塌的问题,并且表现出了良好的视觉效果。实验结果表明,明显优于目前最先进的方法。
附图说明
图1是本发明实施例提供的基于生成对抗网络使用感知损失解决模型崩塌的方法流程图。
图2是本发明实施例提供的图2为VGG-GAN网络在Cartoon数据集上生成图像的视觉对比图。
图3是本发明实施例提供的图3为VGG-GAN网络与现有的最先进方法在训练时网络的收敛对比图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明确,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
目前并没有一个明确的方法来确定GAN网络是否已经进入纳什平衡;GAN应用广泛,但存在训练不稳定、梯度消失、模型崩溃等问题,实验的结果会很差,即使增加训练的时间也不会让最终的结果改进。
下面结合具体分析对本发明作详细的进一步描述。
如图1所示,本发明实施例提供的基于生成对抗网络使用感知损失解决模型崩塌的方法,包括以下步骤:
(1)输入训练数据集I。
(2)利用VGG-GAN结构生成新的图像。
a.将图像I转成大小为64×64的图像块集合,每一块用Idata。
b.随机产生满足正太分布或高斯分布的噪声z,数据形式为64*100。
(3)将z输入到生成器G中进行训练。
c.对z作全连接处理,输出为64*8192。
d.然后reshape成512个特征映射的高维张量。
e.用大小为5×5,步长为2的反卷积,每个卷积层的输出归一化处理再经过
ReLU激活函数,ReLU函数如下表示:
f(x)=max(0,x) (1)
当输入信号小于0时,输出为0,当输入信号大于0时,输出等于输入。ReLU的收敛速度大于其它激活函数的收敛速度。ReLU只需要一个阈值来获得激活值,并且计算复杂度较低。
f.经过4个反卷积操作以后,生成器输出结果Iz。
生成网络的损失函数为:
Gloss=Gadv+GVGG (2)
其中Gadv表示对抗损失,GVGG表示高维均方误差(high level mean squareerror)。具体公式如下:
其中,x和y表示Iz和Idata对应的像素点。
(4)将生成网络的输出结果Iz和训练数据Idata一起输入到鉴别网络。
f.用大小为5×5,步长为2的卷积进行特征提取。
每次卷积操作以后,经过一个归一化处理进入LeakyReLU激活函数。卷积操作包括3个卷积。鉴别网络D总共24个epoch迭代,生成网络同样多次迭代。LeakyReLU激活函数是Relu的改进版本,引入负的非零梯度,其数学表达式为:
其中,ai是1到正无穷区间内的固定参数,xi是输入,yi是输出结果。g.构造一个全连接隐藏层,将数组返回一个一维的数组,一共有64*1。h.输入最后的结果,判断图像是来自生成器Iz还是图像块Idata。
鉴别网络损失函数为:
下面结合具体实验对本发明作进一步描述。
如图2所示,本发明的方法与最先进的几种方法在Cartoon数据集上视觉效果对比。
本发明对比的方法从上到下依次是DCGAN,LSGAN,WGAN,WGAN-GP和VGG-GAN,使用同一种Cartoon数据集在相同的训练时间进行对比。可以观察到,DCGAN和LSGAN的方法出现了模型崩塌,WGAN的收敛速度和VGG-GAN相比较慢,WGAN和DCGAN,LSGAN在训练的时候都不太稳定。只有本发明提出的方法VGG-GAN没有出现模型坍塌,收敛速度快并且稳定。
如图3所示,本发明与现有的最先进方法在训练时网络的收敛对比图。
对比方法从上到下依次是DCGAN,LSGAN,WGAN,WGAN-GP和VGG-GAN。可以观察到DCGAN在生成网络中的损失不仅没有下降的趋势,而且还在不断增加。它也使得鉴别器的损失出现振荡,不能准确判断真实数据或生成样本。LSGAN的生成网络和鉴别网络在训练时发生了振荡,也出现中度模型崩溃。此外,LSGAN的收敛速度也很慢。WGAN的生成网络及其判别网络损失收敛网络趋于正常,但速度慢于的VGG-GAN,导致最终生成的样本没有VGG-GAN清晰。20个epoch以后出现小振荡,但不影响结果。WGAN GP中生成网络与判别网络一开始出现较高的损失值。随着训练的进行,损失不断减少。但是在训练结束后,没有达到最佳效果,结果不理想。VGG-GAN训练时网络收敛比其他方法更快。最后,本发明的方法可以生成感知真实感图像。
本发明在基于GAN的图像生成中解决了模型崩塌的问题,并且表现出了良好的视觉效果。实验结果表明,明显优于目前最先进的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于生成对抗网络使用感知损失解决模型崩塌的方法,其特征在于,所述基于生成对抗网络使用感知损失解决模型崩塌的方法包括以下步骤:
输入待训练的图像I;
将待训练图像I转为m×m的图像块集合,图像块用Idata表示;
随机产生满足高斯分布或均匀分布的噪声z;
将噪声z输入到生成器G中进行训练;
将生成器G输出的结果Iz和Idata一同输入到鉴别器D中;
生成器和鉴别器不断更新学习,直到达到纳什平衡,生成类似于真实图像的样本图像;
所述将随机噪声z输入到生成器G中进行训练,包括以下步骤:
对z做全连接处理;
然后reshape成512个特征映射的高维张量;
输出的特征图经过四个大小为5*5反卷积处理,随后归一化处理,再经过ReLU激活函数;
输出生成的图像;
所述将随机噪声z输入到生成器G中进行训练,具体包括:
1)对z作全连接处理,输出为64*8192;
2)然后reshape成512个特征映射的高维张量;
3)用大小为5×5,步长为2的反卷积,每个卷积层的输出归一化处理再经过ReLU激活函数,ReLU函数如下表示:
f(x)=max(0,x)
当输入信号小于0时,输出为0,当输入信号大于0时,输出等于输入;ReLU的收敛速度大于其它激活函数的收敛速度;ReLU只需要一个阈值获得激活值;
4)经过4个反卷积操作以后,生成器输出结果Iz;
生成网络的损失函数为:
Gloss=Gadv+GVGG
其中Gadv表示对抗损失,GVGG表示高维均方误差;具体公式如下:
其中,x和y表示Iz和Idata对应的像素点。
2.如权利要求1所述的基于生成对抗网络使用感知损失解决模型崩塌的方法,其特征在于,所述将生成器G输出的结果Iz和Idata一同输入到鉴别器D中,包括以下步骤:
经过四次大小为5*5的卷积核,对图像做卷积处理;随后归一化处理,再经过LeakyReLU激活函数;
将得到的结果构造一个全连接隐藏层得到一维的数组,进行非线性激活输出结果,判断图像是来自生成器Iz还是图像块Idata。
3.如权利要求2所述的基于生成对抗网络使用感知损失解决模型崩塌的方法,其特征在于,所述将生成器G输出的结果Iz和Idata一同输入到鉴别器D中,具体包括:
a)用大小为5×5,步长为2的卷积进行特征提取;
b)每次卷积操作以后,经过一个归一化处理进入LeakyReLU激活函数;卷积操作包括3个卷积;鉴别网络D总共24个epoch迭代,生成网络同样多次迭代;LeakyReLU激活函数是Relu的改进版本,引入负的非零梯度,数学表达式为:
其中,ai是1到正无穷区间内的固定参数,xi是输入,yi是输出结果;
c)构造一个全连接隐藏层,将数组返回一个一维的数组,共有64*1;
d)输入最后的结果,判断图像是来自生成器Iz还是图像块Idata;
鉴别网络损失函数为:
4.一种实现权利要求1~3任意一项所述基于生成对抗网络使用感知损失解决模型崩塌的方法的信息数据处理终端。
5.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-3任意一项所述的基于生成对抗网络使用感知损失解决模型崩塌的方法。
6.一种实现权利要求1所述基于生成对抗网络使用感知损失解决模型崩塌的方法的基于生成对抗网络使用感知损失解决模型崩塌控制系统。
7.一种实现权利要求1所述基于生成对抗网络使用感知损失解决模型崩塌的方法的生成器网络平台。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811310962.1A CN109409508B (zh) | 2018-11-06 | 2018-11-06 | 一种基于生成对抗网络使用感知损失解决模型崩塌的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811310962.1A CN109409508B (zh) | 2018-11-06 | 2018-11-06 | 一种基于生成对抗网络使用感知损失解决模型崩塌的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109409508A CN109409508A (zh) | 2019-03-01 |
CN109409508B true CN109409508B (zh) | 2022-03-15 |
Family
ID=65472000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811310962.1A Active CN109409508B (zh) | 2018-11-06 | 2018-11-06 | 一种基于生成对抗网络使用感知损失解决模型崩塌的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109409508B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110600047B (zh) * | 2019-09-17 | 2023-06-20 | 南京邮电大学 | 基于Perceptual STARGAN的多对多说话人转换方法 |
CN112529806A (zh) * | 2020-12-15 | 2021-03-19 | 哈尔滨工程大学 | 基于生成对抗网络信息最大化的sar图像数据增强方法 |
CN115828719B (zh) * | 2022-07-17 | 2023-10-03 | 东南大学溧阳研究院 | 基于生成对抗网络的电力系统次同步振荡数据生成方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845471A (zh) * | 2017-02-20 | 2017-06-13 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的视觉显著性预测方法 |
CN107358626A (zh) * | 2017-07-17 | 2017-11-17 | 清华大学深圳研究生院 | 一种利用条件生成对抗网络计算视差的方法 |
CN107506770A (zh) * | 2017-08-17 | 2017-12-22 | 湖州师范学院 | 糖尿病视网膜病变眼底照相标准图像生成方法 |
JP6318211B2 (ja) * | 2016-10-03 | 2018-04-25 | 株式会社Preferred Networks | データ圧縮装置、データ再現装置、データ圧縮方法、データ再現方法及びデータ転送方法 |
CN108319932A (zh) * | 2018-03-12 | 2018-07-24 | 中山大学 | 一种基于生成式对抗网络的多图像人脸对齐的方法及装置 |
CN108492269A (zh) * | 2018-03-23 | 2018-09-04 | 西安电子科技大学 | 基于梯度正则卷积神经网络的低剂量ct图像去噪方法 |
CN108492298A (zh) * | 2018-04-13 | 2018-09-04 | 西安电子科技大学 | 基于生成对抗网络的多光谱图像变化检测方法 |
CN108520504A (zh) * | 2018-04-16 | 2018-09-11 | 湘潭大学 | 一种基于生成对抗网络端到端的模糊图像盲复原方法 |
CN108537742A (zh) * | 2018-03-09 | 2018-09-14 | 天津大学 | 一种基于生成对抗网络的遥感图像全色锐化方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10026165B1 (en) * | 2011-07-05 | 2018-07-17 | Bernard Fryshman | Object image recognition and instant active response |
-
2018
- 2018-11-06 CN CN201811310962.1A patent/CN109409508B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6318211B2 (ja) * | 2016-10-03 | 2018-04-25 | 株式会社Preferred Networks | データ圧縮装置、データ再現装置、データ圧縮方法、データ再現方法及びデータ転送方法 |
CN106845471A (zh) * | 2017-02-20 | 2017-06-13 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的视觉显著性预测方法 |
CN107358626A (zh) * | 2017-07-17 | 2017-11-17 | 清华大学深圳研究生院 | 一种利用条件生成对抗网络计算视差的方法 |
CN107506770A (zh) * | 2017-08-17 | 2017-12-22 | 湖州师范学院 | 糖尿病视网膜病变眼底照相标准图像生成方法 |
CN108537742A (zh) * | 2018-03-09 | 2018-09-14 | 天津大学 | 一种基于生成对抗网络的遥感图像全色锐化方法 |
CN108319932A (zh) * | 2018-03-12 | 2018-07-24 | 中山大学 | 一种基于生成式对抗网络的多图像人脸对齐的方法及装置 |
CN108492269A (zh) * | 2018-03-23 | 2018-09-04 | 西安电子科技大学 | 基于梯度正则卷积神经网络的低剂量ct图像去噪方法 |
CN108492298A (zh) * | 2018-04-13 | 2018-09-04 | 西安电子科技大学 | 基于生成对抗网络的多光谱图像变化检测方法 |
CN108520504A (zh) * | 2018-04-16 | 2018-09-11 | 湘潭大学 | 一种基于生成对抗网络端到端的模糊图像盲复原方法 |
Non-Patent Citations (2)
Title |
---|
Zhang,X等.Dilated convolution neural network with LeakyReLU for environmental sound classification.《2017 22nd International Conference on Digital Signal Processing (DSP) IEEE》.2017,第1-5页. * |
目标跟踪算法综述;卢湖川等;《模式识别与人工智能》;20180131;第31卷(第1期);第61-76页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109409508A (zh) | 2019-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966522B (zh) | 一种图像分类方法、装置、电子设备及存储介质 | |
US11853882B2 (en) | Methods, apparatus, and storage medium for classifying graph nodes | |
CN111242199B (zh) | 图像分类模型的训练方法及分类方法 | |
CN109409508B (zh) | 一种基于生成对抗网络使用感知损失解决模型崩塌的方法 | |
WO2020014490A1 (en) | Systems and methods for generative models for design | |
US20200125960A1 (en) | Small-world nets for fast neural network training and execution | |
CN113657397B (zh) | 循环生成网络模型的训练方法、建立字库的方法和装置 | |
CN112164008B (zh) | 图像数据增强网络的训练方法及其训练装置、介质和设备 | |
CN112580732B (zh) | 模型训练方法、装置、设备、存储介质和程序产品 | |
WO2019200738A1 (zh) | 数据特征提取的方法、装置、计算机设备和存储介质 | |
CN113033566A (zh) | 模型训练方法、识别方法、设备、存储介质及程序产品 | |
CN113792850B (zh) | 字体生成模型训练方法、字库建立方法、装置及设备 | |
US11302108B2 (en) | Rotation and scaling for optical character recognition using end-to-end deep learning | |
CN109993026B (zh) | 亲属识别网络模型的训练方法及装置 | |
CN115690443B (zh) | 特征提取模型训练方法、图像分类方法及相关装置 | |
CN113705793A (zh) | 决策变量确定方法及装置、电子设备和介质 | |
US20220269928A1 (en) | Stochastic noise layers | |
CN114494747A (zh) | 模型的训练方法、图像处理方法、装置、电子设备及介质 | |
CN113240177B (zh) | 训练预测模型的方法、预测方法、装置、电子设备及介质 | |
CN114399025A (zh) | 一种图神经网络解释方法、系统、终端以及存储介质 | |
CN113902899A (zh) | 训练方法、目标检测方法、装置、电子设备以及存储介质 | |
CN112508126A (zh) | 深度学习模型训练方法、装置、电子设备及可读存储介质 | |
CN112784967B (zh) | 信息处理方法、装置以及电子设备 | |
KR20220110620A (ko) | 유사도 검색을 위한 신경 해싱 | |
Ji et al. | Image patch prior learning based on random neighbourhood resampling for image denoising |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |