CN110349085A - 一种基于生成对抗网络的单幅图像超分辨特征增强方法 - Google Patents
一种基于生成对抗网络的单幅图像超分辨特征增强方法 Download PDFInfo
- Publication number
- CN110349085A CN110349085A CN201910575629.1A CN201910575629A CN110349085A CN 110349085 A CN110349085 A CN 110349085A CN 201910575629 A CN201910575629 A CN 201910575629A CN 110349085 A CN110349085 A CN 110349085A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- resolution
- loss
- enhancement method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000008447 perception Effects 0.000 claims abstract description 20
- 230000006870 function Effects 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000004069 differentiation Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 230000008485 antagonism Effects 0.000 claims description 3
- 230000008676 import Effects 0.000 abstract 1
- 230000002708 enhancing effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000700605 Viruses Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000032696 parturition Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于生成对抗网络的单幅图像超分辨特征增强方法,首先收集基准数据集,将基准数据集中的高分辨率图像转化为低分辨率图像;得到的低分辨率图像导入深度残差网络中;将深度残差网络进行训练;训练后的深度残差网络通过感知损失、图像判别损失和特征判别损失结合的损失函数进行指导训练,然后输出得到生成图像,该方法在生成对抗网络框架下,通过加入特征判别损失连同感知损失函数和图像判别损失,在高放大率下提高图像质量,利用该方法在特征和感知两个方面均可重建高质量的图像,对图像处理与显示的诸多应用领域具有重要意义。
Description
技术领域
本发明属于图像处理技术领域,涉及一种基于生成对抗网络的单幅图像超分辨特征增强方法。
背景技术
图像超分辨率是指对通过一幅或者多幅信息互补的低分辨率图像进行处理,重构出一幅高分辨率图像的技术,被广泛的应用在医学影像、视频监控、遥感成像等领域。基于学习的超分辨率算法通过学习得到高分辨率图像和低分辨率图像之间的映射关系,然后根据获得的映射关系指导生成高分辨率图像。生成对抗网络由生成网络和判别网络组成,两者相互博弈,直到达到均衡,基于生成对抗网的超分辨率方法能恢复下采样图像的纹理信息和颗粒细节。但是基于生成对抗网络的超分辨率算法往往只能针对一种放大比例,通用性不足;在处理现实场景复杂的数据时,模型的特征能力不高。
图像超分辨主要分为三种类型:(1)基于插值的方法:含有最近邻插值和双三次插值法,相比较于双三次插值法,最近邻插值运算复杂度较小,但是图像边缘的平滑度低于双三次插值法,两者相同的优点是算法简单易于实现,缺点都是得到的超分辨率图像清晰度有限。(2)基于重建的方法:目的在于重建退化图像中丢失的高频信息,Yang等人提出的迭代反向投影算法虽然计算量少并且简单,但是无法处理图像中的复杂结构。(3)基于学习算法:主要思想是通过低分辨率图像和高分辨率图像之间存在的一些关系来学习丢失在低分辨率图像中的高频细节,大量实验表明了它强大的图像超分辨率能力,但是对于不合适的训练样本,会在合成图像中产生明显的伪影和不必要的噪声,比如:卷积神经网络(CNNs)、稀疏表示等。生成对抗网络(GAN)是Goodfellow等在2014年提出的一种生成模型.不同于传统生成模型,其在网络结构上除了生成网络外,还包含一个判别网络,生成网络与判别网络之间是一种对抗的关系。对抗的思想是博弈双方在平等的对局中各自利用对方的策略变换自己的对抗策略,以此达到获胜目的。GAN目前在图像和视觉领域得到了广泛的研究和应用,已经可以生成数字和人脸等物体对象,构成各种逼真的室内外场景,从分割图像恢复原图像,给黑白图像上色,从物体轮廓恢复物体图像,从低分辨率图像生成高分辨率图像等。此外,GAN已经开始被应用到语音和语言处理、电脑病毒监测、棋类比赛程序等问题的研究中。
传统上,算法的性能是通过像素集的重建来衡量的,比如常用的峰值信噪比(Psnr),这种指标和人类对图像质量的感知相关性很差,因此,如果使用最小化这类度量的算法,结果往往会产生过平滑的图像,这些图像缺乏高频特征,虽然它会产生较高的峰值信噪比值,但看起来并不自然。提出的超分辨率生成对抗网络是一个从下采样中恢复照片真实感自然图像的框架,将深度残差网络应用于对抗性训练中,在高放大率下提高了图像质量,结合感知损失函数和两个对抗损失函数,重点要使真实图像在训练期间创建更多的高频特征,而不是对像素的精确再进行优化。本专利涉及的增强算法针对特征丢失的图像,所提出的超分辨方法在特征和感知两个方面均可重建高质量的图像。
发明内容
本发明的目的是提供一种基于生成对抗网络的单幅图像超分辨特征增强方法,利用该方法可以实现单幅图像高频特征增强,解决了现有的超分辨率图像中的高频特征丢失严重、过于平滑和不自然问题。
本发明所采用的技术方案是,一种基于生成对抗网络的单幅图像超分辨特征增强方法,具体步骤如下:
步骤1,收集基准数据集,将基准数据集中的高分辨率图像转化为低分辨率图像;
步骤2,将经步骤1得到的低分辨率图像导入深度残差网络中;
步骤3,将步骤2中的深度残差网络进行训练;
步骤4,将经步骤3训练后的深度残差网络通过感知损失、图像判别损失和特征判别损失结合的损失函数进行指导训练;
步骤5,输出经步骤2输入的低分辨率图像,得到生成图像。
本发明的特点还在于:
其中步骤1具体包括:
步骤1.1,将高分辨率图像IHR∈[0,1]αw×αh×c使用下采样算子降为低分辨率图像ILR,如式(1)所示:
ILR=dα(IHR)∈[0,1]w×h×c (1)
式中,dα:[0,1]αw×αh×c→[0,1]w×h×c,图像宽度w,图像高度h和彩色通道c;
步骤1.2,对于固定的缩放因子α>1,单图像超分辨率提供一个从IHR估计ILR的近似逆f≈d-1:
f(ILR)=Iest≈IHR (2)
得到低分辨率图像ILR,其中d为下采样因子;
其中步骤2具体包括:
将经步骤1得到的低分辨率图像导入深度残差网络中,然后利用最小化均方误差MSE训练深度残差网络,如下式(3)所示:
式中,Ig为生成图像,IHR为高分辨率图像;
其中步骤3具体包括:
深度残差网络利用生成对抗网络的框架结构,对抗网络的框架结构包括生成网络与判别网络将卷积神经网络作为生成网络定义判别网络生成网络与判别网络交替优化解决对抗性极大极小值,如式(5):
其中生成网络使用深度生成器G,核心是布局相同的剩余块;
其中判别网络包含两个亚像素卷积层;
其中步骤4具体包括:
将经步骤3.1中的生成对抗网络的框架使用感知损失LP、图像判别损失Li和特征判别损失Lf结合的损失函数来指导判别网络训练,如下式所示:
Lg=Lp+λ(Lf+Li) (6);
其中感知损失Lp定义如下式:
式中,Wm,Hm,Cm表示特征图的尺寸;
其中图像判别损失Li对应的是图像判别网络,包含图像生成损失项和判别损失项定义为:
式中,di是图像判别网络的输出,图像I是高分辨率图像中采样图像的概率,用最小化-log(di(Ig))代替log(1-di(Ig))来进行稳定优化;
在征判别损失Lf对应的是特征判别网络,将感知损失LP中计算的对象交由判别网络进行判断,定义如下式:
式中,是特征判别器df的输出。
本发明的有益效果是:
本发明提供了一种基于生成对抗网络的单幅图像超分辨特征增强方法,该方法在生成对抗网络框架下,通过加入特征判别损失连同感知损失函数和图像判别损失,在高放大率下提高图像质量,利用该方法在特征和感知两个方面均可重建高质量的图像,对图像处理与显示的诸多应用领域具有重要意义。
附图说明
图1是本发明的一种基于生成对抗网络的单幅图像超分辨特征增强方法的流程图;
图2是本发明的一种基于生成对抗网络的单幅图像超分辨特征增强方法中初始阶段的真实数据与生成数据的对比图;
图3是本发明的一种基于生成对抗网络的单幅图像超分辨特征增强方法中训练阶段的真实数据与生成数据的对比图;
图4是本发明的一种基于生成对抗网络的单幅图像超分辨特征增强方法中完成阶段的真实数据与生成数据的对比图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供一种基于生成对抗网络的单幅图像超分辨特征增强方法,如图1所示,具体步骤如下:
步骤1,收集基准数据集,将基准数据集中的高分辨率图像转化为低分辨率图像:
步骤1.1,将高分辨率图像IHR∈[0,1]αw×αh×c使用下采样算子降为低分辨率图像ILR,如式(1)所示:
ILR=dα(IHR)∈[0,1]w×h×c (1)
式中,dα:[0,1]αw×αh×c→[0,1]w×h×c,图像宽度w,图像高度h和彩色通道c;
步骤1.2,对于固定的缩放因子α>1,单图像超分辨率提供一个从IHR估计ILR的近似逆f≈d-1:
f(ILR)=Iest≈IHR (2)
得到低分辨率图像ILR,其中d为下采样因子;
步骤2,将经步骤1得到的低分辨率图像导入深度残差网络中:
在训练中,我们通过最小化均方误差MSE来训练网络,以减少生成图像Ig和高分辨率图像IHR间像素差异:
像素化损失很好再现了高分辨率图像IHR在PSNR方面的优越性,但通常产生模糊和视觉上不满意的图像;
步骤3,将步骤2中的深度残差网络进行训练:
深度残差网络利用生成对抗网络的框架结构,对抗网络的框架结构包括生成网络与判别网络将卷积神经网络作为生成网络定义判别网络生成网络与判别网络交替优化解决对抗性极大极小值,如式(5):
生成网络使用深度生成器G,核心是布局相同的剩余块;用两个小的3×3核的卷积层和64张特征图,激活函数采用batch-normalization layers和Relu并且使用2个trainedsub-pixel卷积层增加输入图像的分辨率。
判别网络用两个亚像素卷积层;对图像进行4倍放大,使用LeakyRelu激活,避免整个网络最大池化。判别网络包含8个过滤核函数递增的卷积层,按从2到64到512个核函数增长;
步骤4,将经步骤3训练后的深度残差网络通过感知损失、图像判别损失和特征判别损失结合的损失函数进行指导训练:
在步骤3中提出的网络框架中使用感知损失LP、图像判别损失Li和特征判别损失Lf结合的损失函数来指导网络训练的具体过程如下:
为了训练判别网络,最小化定义下试:
Lg=Lp+λ(Lf+Li) (5)
其中Lp是感知相似性损失,它在训练过程中强制使生成的图片与真实图片相似,Li是图像判别损失,指生成图片与超分辨率图片在像素域上的损失,Lf是特征域损失,用于生成特征域中的结构细节;
感知相似性损失Lp度量的是特征域内的两幅图像之间的差异,而不是像素域内的差异,使其最小化可以得到感知一致性的结果,Lp定义如下:
其中Wm,Hm,Cm表示特征图的尺寸,在实验中,使用VGG-19作为网络特征图谱,代表激活函数层输出卷积后的第m池,感知损失目的是让高分辨率图像和超分辨率图像在感觉上具有一致性。
步骤4.3,图像判别损失Li对应的是图像判别网络,包含图像生成损失项和判别损失项目的是对图像的像素值进行评判,定义为:
其中di是图像判别网络的输出,图像I是高分辨率图像中采样图像的概率,我们用最小化-log(di(Ig))代替log(1-di(Ig))来进行稳定优化;
特征判别损失Lf对应的是特征判别网络,是对图像的特征图进行评判,就是将感知损失中计算的对象交由判别网络进行判断,定义如下:
其中是特征判别器df的输出,由于特征与图像结构相对应,我们可以鼓励生成器生成逼真的结构高频,而不是噪声伪影,感知损失函数和特征损失函数均基于特征图,通过添加这个特征判别损失函数,判别网络和生成网络在不断地“博弈”中被训练的能够合成更多有意义的高频细节,从而产生特征增强的超分辨率图像。
步骤5,输出经步骤2输入的低分辨率图像,得到生成图像。
本发明中所示图2、图3和图4中的细线为真实数据分布,粗线为生成数据样本,生成对抗网络的目标在于让粗线逐渐逼近细线,从图1到图3三张图可以展现整个运作过程,在图1中可以说是一种初始的状态,生成数据与真实数据还有较大的差距,判别器具备初步划分是否为真实数据的能力,但是由于存在噪声,效果仍有缺陷,当判别器逐渐完美后开始迭代生成器,如图3所示,通过判别器的倒数梯度方向作为指导,让生成数据向真实数据的分布方向移动,让生成数据更容易被判别器判断为真实数据,在反复的一系列上述训练过程后进入图4最终达到理想值的状态,生成网络与判别网络都已经再进一步优化了,此时生成网络生成的数据已经达到了我们期望的目的,能够完全模拟出真实数据的分布。
本发明的一种基于生成对抗网络的单幅图像超分辨特征增强算法,该方法在生成对抗网络框架下,通过加入特征判别损失连同感知损失函数和图像判别损失,在高放大率下提高图像质量,利用该方法在特征和感知两个方面均可重建高质量的图像,对图像处理与显示的诸多应用领域具有重要意义。
Claims (10)
1.一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,具体步骤如下:
步骤1,收集基准数据集,将基准数据集中的高分辨率图像转化为低分辨率图像;
步骤2,将经步骤1得到的低分辨率图像导入深度残差网络中;
步骤3,将步骤2中的深度残差网络进行训练;
步骤4,将经步骤3训练后的深度残差网络通过感知损失、图像判别损失和特征判别损失结合的损失函数进行指导训练;
步骤5,输出经步骤2输入的低分辨率图像,得到生成图像。
2.根据权利要求1所述的一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,所述步骤1具体包括:
步骤1.1,将高分辨率图像IHR∈[0,1]αw×αh×c使用下采样算子降为低分辨率图像ILR,如式(1)所示:
ILR=dα(IHR)∈[0,1]w×h×c (1)
式中,dα:[0,1]αw×αh×c→[0,1]w×h×c,图像宽度w,图像高度h和彩色通道c;
步骤1.2,对于固定的缩放因子α>1,单图像超分辨率提供一个从IHR估计ILR的近似逆f≈d-1:
f(ILR)=Iest≈IHR (2)
得到低分辨率图像ILR,其中d为下采样因子。
3.根据权利要求1所述的一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,所述步骤2具体包括:
将经步骤1得到的低分辨率图像导入深度残差网络中,然后利用最小化均方误差MSE训练深度残差网络,如下式(3)所示:
式中,Ig为生成图像,IHR为高分辨率图像。
4.根据权利要求1所述的一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,所述步骤3具体包括:
深度残差网络利用生成对抗网络的框架结构,对抗网络的框架结构包括生成网络与判别网络将卷积神经网络作为生成网络定义判别网络生成网络与判别网络交替优化解决对抗性极大极小值,如式(5):
5.根据权利要求4所述的一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,所述生成网络使用深度生成器G,核心是布局相同的剩余块。
6.根据权利要求4所述的一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,所述判别网络包含两个亚像素卷积层。
7.根据权利要求4所述的一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,所述步骤4具体包括:
将经步骤3.1中的生成对抗网络的框架使用感知损失LP、图像判别损失Li和特征判别损失Lf结合的损失函数来指导判别网络训练,如下式所示:
Lg=Lp+λ(Lf+Li) (5)
8.根据权利要求5所述的一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,所述感知损失Lp定义如下式:
式中,Wm,Hm,Cm表示特征图的尺寸。
9.根据权利要求5所述的一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,所述图像判别损失Li对应的是图像判别网络,包含图像生成损失项和判别损失项定义为:
式中,di是图像判别网络的输出,图像I是高分辨率图像中采样图像的概率,用最小化-log(di(Ig))代替log(1-di(Ig))来进行稳定优化。
10.根据权利要求5所述的一种基于生成对抗网络的单幅图像超分辨特征增强方法,其特征在于,所述特征判别损失Lf对应的是特征判别网络,将感知损失LP中计算的对象交由判别网络进行判断,定义如下式:
式中,是特征判别器df的输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910575629.1A CN110349085A (zh) | 2019-06-28 | 2019-06-28 | 一种基于生成对抗网络的单幅图像超分辨特征增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910575629.1A CN110349085A (zh) | 2019-06-28 | 2019-06-28 | 一种基于生成对抗网络的单幅图像超分辨特征增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110349085A true CN110349085A (zh) | 2019-10-18 |
Family
ID=68176990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910575629.1A Pending CN110349085A (zh) | 2019-06-28 | 2019-06-28 | 一种基于生成对抗网络的单幅图像超分辨特征增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110349085A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179177A (zh) * | 2019-12-31 | 2020-05-19 | 深圳市联合视觉创新科技有限公司 | 图像重建模型训练方法、图像重建方法、设备及介质 |
CN111899168A (zh) * | 2020-07-02 | 2020-11-06 | 中国地质大学(武汉) | 一种基于特征增强的遥感影像超分辨率重建方法和系统 |
CN113160045A (zh) * | 2020-01-23 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 模型训练方法、超分辨率方法、装置、电子设备及介质 |
CN113221388A (zh) * | 2021-06-17 | 2021-08-06 | 北京理工大学 | 一种视觉感知扰动约束的黑盒深度模型对抗样本生成方法 |
CN113628121A (zh) * | 2020-05-06 | 2021-11-09 | 阿里巴巴集团控股有限公司 | 数据处理、训练多媒体数据的方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
-
2019
- 2019-06-28 CN CN201910575629.1A patent/CN110349085A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
Non-Patent Citations (5)
Title |
---|
MEHDI S. M. SAJJADI ET AL.: "EnhanceNet: Single Image Super-Resolution Through Automated Textture Synthesis", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》, pages 4491 - 4500 * |
SEONG-JIN PARK等: "SRFeat: Single Image Super-Resolution with Feature Discrimination", 《ECCV 2018》, 6 October 2018 (2018-10-06), pages 455 - 471, XP047497236, DOI: 10.1007/978-3-030-01270-0_27 * |
SEONG-JIN PARK等: "SRFeat: Single Image Super-Resolution with Feature Discrimination", 《ECCV 2018》, pages 455 * |
康士伟等: "单帧图像超分辨率重建的深度神经网络综述", 《信息通信》 * |
康士伟等: "单帧图像超分辨率重建的深度神经网络综述", 《信息通信》, no. 4, 15 March 2019 (2019-03-15), pages 24 - 27 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179177A (zh) * | 2019-12-31 | 2020-05-19 | 深圳市联合视觉创新科技有限公司 | 图像重建模型训练方法、图像重建方法、设备及介质 |
CN111179177B (zh) * | 2019-12-31 | 2024-03-26 | 深圳市联合视觉创新科技有限公司 | 图像重建模型训练方法、图像重建方法、设备及介质 |
CN113160045A (zh) * | 2020-01-23 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 模型训练方法、超分辨率方法、装置、电子设备及介质 |
CN113160045B (zh) * | 2020-01-23 | 2023-06-20 | 百度在线网络技术(北京)有限公司 | 模型训练方法、超分辨率方法、装置、电子设备及介质 |
CN113628121A (zh) * | 2020-05-06 | 2021-11-09 | 阿里巴巴集团控股有限公司 | 数据处理、训练多媒体数据的方法和装置 |
CN113628121B (zh) * | 2020-05-06 | 2023-11-14 | 阿里巴巴集团控股有限公司 | 数据处理、训练多媒体数据的方法和装置 |
CN111899168A (zh) * | 2020-07-02 | 2020-11-06 | 中国地质大学(武汉) | 一种基于特征增强的遥感影像超分辨率重建方法和系统 |
CN111899168B (zh) * | 2020-07-02 | 2023-04-07 | 中国地质大学(武汉) | 一种基于特征增强的遥感影像超分辨率重建方法和系统 |
CN113221388A (zh) * | 2021-06-17 | 2021-08-06 | 北京理工大学 | 一种视觉感知扰动约束的黑盒深度模型对抗样本生成方法 |
CN113221388B (zh) * | 2021-06-17 | 2022-06-28 | 北京理工大学 | 一种视觉感知扰动约束的黑盒深度模型对抗样本生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110349085A (zh) | 一种基于生成对抗网络的单幅图像超分辨特征增强方法 | |
CN107123089B (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
CN107154023B (zh) | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 | |
CN107507134B (zh) | 基于卷积神经网络的超分辨率方法 | |
CN107203985B (zh) | 一种端到端深度学习框架下的多曝光图像融合方法 | |
CN109671023A (zh) | 一种人脸图像超分辨率二次重建方法 | |
CN109993698A (zh) | 一种基于生成对抗网络的单幅图像超分辨纹理增强方法 | |
CN110570353A (zh) | 密集连接生成对抗网络单幅图像超分辨率重建方法 | |
CN106204449A (zh) | 一种基于对称深度网络的单幅图像超分辨率重建方法 | |
CN109325931A (zh) | 基于生成对抗网络和超分辨率网络的多模态图像融合方法 | |
CN110232653A (zh) | 快速轻型超分辨率重建密集残差网络 | |
CN109300090A (zh) | 一种基于亚像素和条件对抗生成网络的单幅图像去雾方法 | |
CN106683067A (zh) | 一种基于残差子图像的深度学习超分辨率重建方法 | |
CN108830796A (zh) | 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法 | |
CN109509160A (zh) | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 | |
CN113516601B (zh) | 基于深度卷积神经网络与压缩感知的图像恢复方法 | |
CN110322416A (zh) | 图像数据处理方法、装置以及计算机可读存储介质 | |
CN110490804A (zh) | 一种基于生成对抗网络的生成超分辨图像的方法 | |
CN108830790A (zh) | 一种基于精简卷积神经网络的快速视频超分辨率重建方法 | |
CN112837224A (zh) | 一种基于卷积神经网络的超分辨率图像重建方法 | |
CN105550989B (zh) | 基于非局部高斯过程回归的图像超分辨方法 | |
CN106920214A (zh) | 空间目标图像超分辨率重建方法 | |
CN109035146A (zh) | 一种基于深度学习的低质量图像超分方法 | |
CN108921783A (zh) | 一种基于混合损失函数约束的卫星影像超分辨率重建方法 | |
CN116682120A (zh) | 基于深度学习的多语种马赛克图像文本识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191018 |
|
RJ01 | Rejection of invention patent application after publication |