CN111833261A - 一种基于注意力的生成对抗网络的图像超分辨率复原方法 - Google Patents
一种基于注意力的生成对抗网络的图像超分辨率复原方法 Download PDFInfo
- Publication number
- CN111833261A CN111833261A CN202010491996.6A CN202010491996A CN111833261A CN 111833261 A CN111833261 A CN 111833261A CN 202010491996 A CN202010491996 A CN 202010491996A CN 111833261 A CN111833261 A CN 111833261A
- Authority
- CN
- China
- Prior art keywords
- attention
- image
- layer
- network
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000000694 effects Effects 0.000 claims abstract description 7
- 230000004913 activation Effects 0.000 claims abstract description 6
- 238000000605 extraction Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 9
- 230000015556 catabolic process Effects 0.000 claims description 3
- 238000006731 degradation reaction Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 6
- 238000012549 training Methods 0.000 description 26
- 238000012360 testing method Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000003321 amplification Effects 0.000 description 4
- 238000003199 nucleic acid amplification method Methods 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 101100365548 Caenorhabditis elegans set-14 gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于注意力的生成对抗网络的图像超分辨率复原方法,该方法设计了注意力模块,它由卷积层,激活层,空间注意力层,通道注意力层组成,通过与前一层浅层特征提取的特征图进行连接,对网络中通道间的高低频信息与同一通道内不同空间位置的高低频信息分配不同的权重,使得高频与低频信息都尽可能地被学习,对重建过程中其进行高频特征指导。本发明适用于图像的超分辨率复原技,重建效果好,在图像恢复技术领域有着广泛的应用。
Description
技术领域
本发明属于图像修复领域,涉及图像超分辨率方法,具体为一种基于注意力的生成对抗网络图像超分辨率复原方法。
背景技术
图像超分辨率(SR)旨在通过软件技术,从单帧或多帧低分辨率(LR)图像中重建高分辨率(HR)图像或序列.近年来,图像超分辨率重建方法在视频监控、遥感图像观测、天文图像处理及医学成像等领域都有较广泛的应用.然而图像重建整个过程不可逆,LR和HR之间的映射有多个解决方案。图像超分辨率重建的方法可以大致分为基于插值、基于重建和基于学习3类.
早期开发的基于插值的方法(例如:linear和bicubic方法)是简单而有效的,但在应用上是有限的。对于更灵活的SR方法,通过利用强大的图像先验,例如非局部相似度,提出了更先进的基于模型的方法和稀疏矩阵的方法,虽然这种基于模型的方法可以灵活地产生相对高质量的HR图像,但它们仍然有一些缺点:(1)这样的方法经常涉及一个耗时的优化过程;(2)当图像统计从图像上发生偏置时,性能可能会迅速降低。
目前,卷积神经网络(CNN)已经表明,它们可以应用在SR问题,在2014年,Dong etal.提出的SRCNN利用3层卷积神经网络(CNN),实现了LR图像和HR图像之间端到端的映射,表现出了比以往方法更优的性能。从那时起,许多研究都集中在构建一个更高效的网络上,以了解LR和HR图像之间的映射,从而提出了一系列基于CNN的SR模型。后来,Kim et al.设计了基于深层残差网络的VDSR,利用深层残差网络进一步提高性能,Ledig等基于生成对抗网络(GAN)提出的SRGAN算法,结合对抗损失与感知损失,令重建图像具有更加逼真的视觉效果。
在重建实验中,我们发现现有的SR模型有以下问题:
难以复现:实验结果表明,大多数SR模型对细微的网络架构变化很敏感,有些则由于缺乏网络配置,很难达到原始论文的水平。同样,相同的模型通过使用不同的训练技巧实现不同的性能,如权重初始化、梯度截断、数据标准化等。这意味着性能的改进可能不是由于模型架构的更改,而是使用一些未知的训练技巧。
特征利用低:大多数算法训练方法都是一味地增加网络的深度,以提高网络的性能,但忽略了充分利用LR的图像特征特性。随着网络的深度增加,在传输过程中特征信息逐渐消失。
主观视觉效果不好:大多数改进的算法虽然在提高性能和PSNR指数上下了很大功夫,但是在人的主观视觉效果上却不是很好,如何更好地平衡了重建图像的客观评价和感知质量,也会需要解决的问题。最近的方法更注重放大LR图像。但是仅仅是通过单一的网络结构放大,无法提高SR图像的效果。
对于特征提取,已经提出了许多特征提取块。inception块的主要思想是找出卷积网络中最优的局部稀疏结构是如何工作的。然而,这些不同的scale特性只是简单地连接在一起,这导致了对局部特性的利用不足。Kim et al.在2016年提出了一个残差学习框架来自适应对网络的训练,使它们能够取得更具竞争性的结果。之后,Huang et al.等人引入了密集块。残差块和密集块使用的卷积核大小单一,密集块的计算复杂度以较高的速度增长。
之前的工作主要是研究LR和HR图像之间的映射函数,其中LR图像被bicubic到与HR相同的维度。然而,这种方法引入了冗余信息,增加了计算复杂度。受此启发,最近的工作倾向于使用未经放大的LR作为输入图像来训练一个可以直接上采样到HR维度的网络。相反,很难找到一个SR模型,它能够迁移到任何只需要对网络体系结构进行少量调整的上升因子。
发明内容
发明目的:本发明针对现有图像超分辨率重建特征难以复现及效果不好问题加以改进,提供了一种基于注意力的生成对抗网络图像超分辨率复原方法,以提高图像超分辨率的主观和客观效果。
技术方案:一种基于注意力的生成对抗网络图像超分辨率复原方法,在生成器中,引入注意力模块,作为细化特征提取,构建基于生成对抗模型的算法框架.整体框架由生成器G和判别器D组成,其中生成器通过学习LR图像IlR与图像IHR之间的映射关系G∶ILR→IHR,实现LR图像与HR图像端到端的转换,判别器用于对输入图像是否为真实图像进行判定,生成对抗网络其极大极小博弈过程:
minD max G V(D,G)=Ex~pdata(x)[log D(x)]+Ez~pz(z)[log(1-D(G(z)))](1)
式中log D(x)为判别器对真实数据的判断,log(1-D(G(z)))为对数据的生成与判断。通过这样一个极大极小(Max-min)博弈,循环交替地分别优化生成器G和判别器D来训练所需要的生成式网络与判别式网络,直到到达Nash均衡点,训练结束。
提供了训练阶段和测试阶段。其中最重要的是训练阶段以及网络结构,也是本发明的重点。至于测试阶段,只需要将待测图像输入训练所得的模型,即可得到结果,这是一个端到端的过程,所以这里就不再赘述。
模型训练步骤;
基于学习的超分辨率重建方法常常选择Image91作为训练集,但对于深层网络模型而言,这一训练集数据过少,训练过程中可能出现过拟合问题;提出的生成器网络内部需要对输入图像进行4倍下采样操作,若输入图像尺寸太小会影响生成器以及计算感知损失时的特征提取,影响网络的性能,所以需要一个数量足够多、尺寸足够大的图像集合作为训练集.我们准备DIV2K数据集,该训练集由1000幅RGB图像组成,其中训练集包含800幅图像,验证集和测试集各100幅图像,所有图像至少在一个轴(水平或垂直)上包含2040个像素.先将DIV2K中的800幅训练图像顺时针分别旋转0°、90°、180°和270°,并进行反转操作,获取6400幅图像.按照尺寸为400×400、步长为200×200,对这6400幅图像进行裁剪,最终得到329184个子图像.
模型训练步骤主要是基于生成对抗网络实现,其包含如下子步骤:
S1、对低分辨率图像的特征进行初步提取;
S2、利用加入注意力机制模块对S1的特征进行细化提取;
S3、通过生成器多个残差块重建出新的图像;
进一步,所述步骤S1中的对低分辨率图像的特征进行初步提取,具体是:
S1、我们分别用ILR和ISR表示网络的输入和输出图像,用一个3*3卷积从ILR输入中提取浅层特征F0。
S2、为了检测不同边缘的图像特征及依赖关系,通过注意力提取块。S2注意力块包含如下子步骤,步骤S2如下:
S21、将浅层特征F0送入到一组注意力特征提取块中,每个注意力提取块由基本块连接组与一个卷积层得到深层的特征残差图,然后与进行全局的残差连接,得到网络的深层特征;
S22、空间注意力层,空间注意力激活层分离了高频与低频信息至不同滤波器,使得他们分别具备不同的功能,同时专注学习高频与低频信息,获得通过计算各个特征图之间位置的相互依赖关系,可以很好的处理具有较高空间分辨率或退化的特征:
S221、将F1依进行3*3卷积层,进行运算,同时每一层的输出结果作为下一步操作的输入;
S222、将F经过空间注意力层,包含ReLU激活层与卷积运算;
S223、再将S222得到的输入第二个3×3卷积层,与残差前置的通道注意力层连接,进行运算;
S224、两条路线的通道注意力加权求和得到最终的通道注意力系数s。将通道注意力系数分别与输入进行点乘求和,形成带通道注意力机制也就是注意力块的输出;
S3、采用卷积层和亚像素卷积层对低分辨率(LR)特征映射为高分辨率(HR)特征,步骤S3如下:
S31、经过简单的全局残差连接。然后,网络的深层特征被送进上采样模块;
S32、与卷积层共同工作,将上采样处理与特征映射结合,得到最终的超分辨率重建图像;
至此,本发明所提供的一种基于注意力机制的生成对抗网络的图像超分辨率方法的训练阶段完成。
有益效果
本发明提供了一种基于注意力的生成对抗网络图像超分辨率复原方法,该方法首先对图片特征进行粗提取,然后通过引入注意力块提取,可以对特征进行细化,然后将其进行特征重建,获得超分辨率图像。应用本发明,提升了图像超分辨率时细节的清晰度,同时提升主观视觉效果。本发明适用于图像的超分辨率重构,检测结果准确,视觉效果好。
附图说明
图1、本发明基于注意力的生成对抗网络图像超分辨率复原方法的生成器网络结构图;
具体实施方式
本发明在图像恢复领域有着广泛的应用,例如:医学图像超分,航空遥感图像放大,缩略图放大等。下面参照附图,对本发明进行详尽的描述。
本发明基于深度学习的开源工具pytorch实现。在本发明的实施例中,主要分为训练阶段和测试阶段,使用DIV2K数据集进行训练,这里采用基准数据集Set5,Set14来进行测试。
使用Set5数据集进行测试。其中最重要的是训练阶段,也是本发明的重点。至于测试阶段,只需要将待测图像输入给训练所得的模型,即可得到结果,这是一个端到端的过程,所以这里就不再赘述。下面着重对训练阶段进行说明.
如图1所示,我们的训练阶段的网络结构主要包含以下四个部分:特征初步提取,注意力块特征提取,特征映射模块,重构模块。步骤如下:
S1、我们分别用ILR和ISR表示多尺度特征融合网络的输入和输出图像。我们用一个卷积核为3的卷积从ILR输入中提取浅层特征F0:
F0=HSF(ILR)
其中,HSF(·)表示卷积运算。
S2、为了检测不同边缘的图像特征及依赖关系,通过注意力提取块。S2注意力块包含如下子步骤:
S21、将浅层特征F0送入到一组注意力特征提取块中,每个注意力提取块由基本块连接组与一个卷积层得到深层的特征残差图,然后与进行全局的残差连接,得到网络的深层特征;
S22、空间注意力层,空间注意力激活层分离了高频与低频信息至不同滤波器,使得他们分别具备不同的功能,同时专注学习高频与低频信息,获得通过计算各个特征图之间位置的相互依赖关系,可以很好的处理具有较高空间分辨率或退化的特征:
S221、将F0依进行3*3卷积层,进行运算,同时每一层的输出结果作为下一步操作的输入;
S222、将进行卷积运算的输入空间注意力层,包含ReLU激活层与卷积运算;
S223、再将S222得到的输入第二个3×3卷积层,与残差前置的通道注意力层连接,进行运算;
S224、两条路线的通道注意力加权求和得到最终的通道注意力系数s。将通道注意力系数分别与输入进行点乘求和,形成带通道注意力机制也就是注意力块的输出;
S3、亚像素卷积层代替SRCNN中的双三次插值放大,相较于具有固定公式的双三次插值,亚像素卷积层直接将低分辨率(LR)特征映射为高分辨率(HR)特征,可以更灵活地学习上采样算法,并与卷积层共同工作,将上采样处理与特征映射结合,经过简单的全局残差连接。然后,网络的深层特征被送进上采样模块得到最终的超分辨率重建图像。
至此,本发明所提供的一种基于多尺度特征联合网络的图像超分辨率重构方法的训练阶段完成。
评价指标为主观评价和客观评价,主观评价主要利用多个测试者的主观打分取平均值,客观评价主要采用峰值信噪比(PSNR)和结构相似性(SSIM)。
综上所述,本发明提供了一种基于注意力机制的生成对抗网络的图像超分辨率复原方法,注意力模块被用作网络的特征提取模块。首先,我们利用特征提取获得由注意力机制块提取的特征。然后,经过一连串的Residual block连接,同时在模型后部也加入了subpixel模块,让图片在最后面的网络层才增加分辨率,提升分辨率的同时减少计算资源消耗,最后进行超分重建,达到了令人满意的效果。实验表明该方法能够快速有效地进行图像超分辨率。
Claims (4)
1.一种基于注意力的生成对抗网络的图像超分辨率复原方法,其特征在于,包括:
步骤一:对数据进行预处理;
步骤二:将处理后的数据送入所设计的网络,经过主干网络卷积等操作,提取到图像的特征;针对图像复原效果不清晰的问题,加入了注意力模块;
步骤三:进而将提取到的特征送至亚像素卷积层,和特征映射融合,重建出高分辨率图像。
2.根据权利要求1所述的一种基于注意力的生成对抗网络的图像超分辨率复原方法,其特征在于,所述步骤二中,经过第一次3*3卷积初步提取特征后,加入注意力模块。
3.根据权利要求1所述的一种基于注意力的生成对抗网络的图像超分辨率复原方法,其特征在于,所述步骤二中,网络的生成器部分加入注意力模块,由卷积层、激活层、空间注意力层、卷积层和通道注意力层组成,分别对通道和空间的高低频信息分配不同的权重,从而使得高频与低频信息都能更好地被学习。
4.根据权利要求1所述的一种基于注意力的生成对抗网络的图像超分辨率复原方法,其特征在于:步骤二中,将浅层特征送入到加入注意力提取块的网络中,空间注意力激活层分离了高频与低频信息至不同滤波器,专注学习高频与低频信息,获得通过计算各个特征图之间位置的相互依赖关系,处理具有高空间分辨率或退化的特征,重建图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010491996.6A CN111833261A (zh) | 2020-06-03 | 2020-06-03 | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010491996.6A CN111833261A (zh) | 2020-06-03 | 2020-06-03 | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111833261A true CN111833261A (zh) | 2020-10-27 |
Family
ID=72897527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010491996.6A Pending CN111833261A (zh) | 2020-06-03 | 2020-06-03 | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111833261A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734638A (zh) * | 2020-12-24 | 2021-04-30 | 桂林理工大学 | 一种遥感影像超分辨重建方法、装置及存储介质 |
CN113205468A (zh) * | 2021-06-01 | 2021-08-03 | 桂林电子科技大学 | 一种基于自注意力机制和gan的水下图像实时复原模型 |
CN113409191A (zh) * | 2021-06-02 | 2021-09-17 | 广东工业大学 | 一种基于注意力反馈机制的轻量级图像超分方法及系统 |
CN114663285A (zh) * | 2022-04-01 | 2022-06-24 | 哈尔滨工业大学 | 基于卷积神经网络的老电影超分辨系统 |
CN114693831A (zh) * | 2022-05-31 | 2022-07-01 | 深圳市海清视讯科技有限公司 | 一种图像处理方法、装置、设备和介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
-
2020
- 2020-06-03 CN CN202010491996.6A patent/CN111833261A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734638A (zh) * | 2020-12-24 | 2021-04-30 | 桂林理工大学 | 一种遥感影像超分辨重建方法、装置及存储介质 |
CN112734638B (zh) * | 2020-12-24 | 2022-08-05 | 桂林理工大学 | 一种遥感影像超分辨重建方法、装置及存储介质 |
CN113205468A (zh) * | 2021-06-01 | 2021-08-03 | 桂林电子科技大学 | 一种基于自注意力机制和gan的水下图像实时复原模型 |
CN113409191A (zh) * | 2021-06-02 | 2021-09-17 | 广东工业大学 | 一种基于注意力反馈机制的轻量级图像超分方法及系统 |
CN114663285A (zh) * | 2022-04-01 | 2022-06-24 | 哈尔滨工业大学 | 基于卷积神经网络的老电影超分辨系统 |
CN114663285B (zh) * | 2022-04-01 | 2023-06-09 | 哈尔滨工业大学 | 基于卷积神经网络的老电影超分辨系统 |
CN114693831A (zh) * | 2022-05-31 | 2022-07-01 | 深圳市海清视讯科技有限公司 | 一种图像处理方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Engin et al. | Cycle-dehaze: Enhanced cyclegan for single image dehazing | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
CN111833261A (zh) | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 | |
CN112001960B (zh) | 基于多尺度残差金字塔注意力网络模型的单目图像深度估计方法 | |
CN111127374B (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
CN108830813A (zh) | 一种基于知识蒸馏的图像超分辨率增强方法 | |
CN109671023A (zh) | 一种人脸图像超分辨率二次重建方法 | |
CN111754438B (zh) | 基于多分支门控融合的水下图像复原模型及其复原方法 | |
CN113673590B (zh) | 基于多尺度沙漏密集连接网络的去雨方法、系统和介质 | |
CN112734646A (zh) | 一种基于特征通道划分的图像超分辨率重建方法 | |
CN112288632A (zh) | 基于精简esrgan的单图像超分辨率方法及系统 | |
CN114841856A (zh) | 基于深度残差通道空间注意力的密集连接网络的图像超像素重建方法 | |
CN112950475A (zh) | 一种基于残差学习及空间变换网络的光场超分辨率重建方法 | |
CN114359041A (zh) | 一种光场图像空间超分辨率重建方法 | |
Wang et al. | Underwater image super-resolution using multi-stage information distillation networks | |
CN112785502A (zh) | 一种基于纹理迁移的混合相机的光场图像超分辨率方法 | |
CN116862765A (zh) | 一种医学影像超分辨率重建方法及系统 | |
CN117036182A (zh) | 一种单幅图像去雾方法及系统 | |
CN116823647A (zh) | 基于快速傅里叶变换和选择性注意力机制的图像补全方法 | |
CN116245968A (zh) | 基于Transformer的LDR图像生成HDR图像的方法 | |
CN115797181A (zh) | 一种面向矿井模糊环境的图像超分辨率重建方法 | |
Li et al. | An improved method for underwater image super-resolution and enhancement | |
CN114463176B (zh) | 基于改进esrgan的图像超分辨重建方法 | |
CN113744205B (zh) | 一种端到端的道路裂缝检测系统 | |
CN115713462A (zh) | 超分辨模型训练方法、图像识别方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |