CN112950480A - 一种融合多感受野和密集残差注意的超分辨率重建方法 - Google Patents
一种融合多感受野和密集残差注意的超分辨率重建方法 Download PDFInfo
- Publication number
- CN112950480A CN112950480A CN202110406549.0A CN202110406549A CN112950480A CN 112950480 A CN112950480 A CN 112950480A CN 202110406549 A CN202110406549 A CN 202110406549A CN 112950480 A CN112950480 A CN 112950480A
- Authority
- CN
- China
- Prior art keywords
- image
- super
- resolution
- model
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 238000009825 accumulation Methods 0.000 claims abstract description 4
- 230000007850 degeneration Effects 0.000 claims abstract description 4
- 238000013507 mapping Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 9
- 230000015556 catabolic process Effects 0.000 claims description 3
- 238000006731 degradation reaction Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 101100365548 Caenorhabditis elegans set-14 gene Proteins 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003245 coal Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明属于数字图像处理技术领域,尤其涉及一种融合多感受野和密集残差注意的超分辨率重建方法,首先通过退化模型建立对应数据集;根据预处理后的数据集,通过构建多感受野超分辨率生成对抗网络(MRFAGAN)获取超分图像;MRFGAN由生成器和判别器构成;其中,生成器包括浅层特征提取模块、深层特征提取模块、图像特征映射模块、图像重建模块,负责生成超分辨率图像;判别器是由卷积层堆积而成,负责判别超分辨率图像是否为真实的高分辨率;对训练后的图像得到的超分辨率图像生成器固定参数,得到超分重建模型。本发明同时使用生成对抗网络的超分辨率模型、多感受野和密集残差注意构建超分辨率重建的模型,能够帮助显著地提升图像自身分辨率。
Description
技术领域
本发明属于数字图像处理技术领域,尤其涉及一种融合多感受野和密集残差注意的超分辨率重建方法。
背景技术
目前,随着科学技术的持续发展,互联网上获取的视觉图像的分辨率普遍较低这些低分辨率的图像(low resolution image,LR)难以满足特定场景的需求和用户视觉需要。把LR图像通过某种算法高效快速地转换成视觉质量更加清晰的高分辨率图像(highresolution image,HR),这一过程通常被称为图像的超分辨率重建(super resolution,SR)。SR广泛应用于卫星成像、医学成像、安全和监视、图像生成、煤岩识别等计算机视觉任务和图像处理领域。当前图像超分辨率重建主要分为三类:基于插值的图像超分辨率重建方法、基于重建的图像超分辨率重建方法以及基于学习的图像超分辨率重建方法。对于当前图像超分辨率重建任务,模型可以有效地恢复低分辨率图像的细节和纹理,并使结果既逼真又具有较高的感知质量。
图像超分辨率重建任务,主要面临以下几个问题:
(1)模型参数大、内存占用大,提升了模型的训练难度导致需要庞大的训练集和训练时间。
(2)从LR图像的单一尺度卷积学习特征时,受限于感受野无法联系其他尺度的图像特征,易导致特征利用率低,难以恢复精细的高频细节。
(3)自从Dong等人提出SRCNN的开创性工作以来,深度卷积神经网络(CNN)方法带来了繁荣的发展。各种网络体系结构设计和训练策略不断提高SR性能,尤其是峰值信噪比(PSNR)值。然而,这些面向最小化均方误差(MSE)的方法往往会在没有足够的高频细节的情况下输出过平滑的结果,因为PSNR度量从根本上与人类观察者的主观评价不符。
另外,传统的基于PSNR方法的超分辨率重建方法在获得良好的PSNR指标的同时,忽视了图像本身的视觉质量。传统的基于GAN方法的超分辨率重建方法只考虑单一尺度的特征提取、不同通道特征同等对待,忽视了多个尺度以及不同通道间的联系,难以恢复精细细节。
因此,本申请有必要提供一种融合多感受野和密集残差注意的超分辨率重建方法,以解决上述现有技术存在的问题。
发明内容
基于以上现有技术的不足,本发明所解决的技术问题在于提供一种融合多感受野和密集残差注意的超分辨率重建方法,通过使用生成对抗网络的思想,结合多感受野模块和密集残差通道注意模块构建了超MRFGAN超分重建模型,一方面,能够帮助显著地提升图像自身分辨率;另一方面,可以加强采集到的图像质量,满足人们日益提高的对图像质量的要求。
为了解决上述技术问题,本发明通过以下技术方案来实现:
一种融合多感受野和密集残差注意的超分辨率重建方法,具体包括以下步骤:
步骤1、首先需要对训练集数据预处理,通过退化模型建立对应数据集;
步骤2、根据预处理后的数据集,通过构建多感受野超分辨率生成对抗网络(MRFAGAN)获取超分图像;MRFGAN由生成器和判别器构成;其中,生成器包括浅层特征提取模块、深层特征提取模块、图像特征映射模块、图像重建模块,负责生成超分辨率图像;判别器是由卷积层堆积而成,负责判别超分辨率图像是否为真实的高分辨率;
步骤3、对训练后的图像得到的超分辨率图像生成器固定参数,得到超分重建模型。
进一步地,所述步骤1中,包括:
步骤1.1、利用传统的退化模型来降低数据集分辨率;
步骤1.2、得到相应放缩倍数的HR图像和SR图像。
所述步骤2中,包括:
步骤2.1、生成器:输入图像先进入生成器的浅层特征提取模块,由一层卷积层来提取LR的浅层特征L0,浅层特征L0通过由密集残差通道注意模块和多尺度感受野模块依次构建的深层特征提取模块得到深层特征L1;深层特征L1通过子像素卷积(sub-pixelconvolution)操作变为放大后的图像特征L2;最后将得到的L2通过一层卷积层进行图像重建操作,得到放大后的SR图像ISR;
步骤2.2、判别器:将得到的SR图像ISR与HR图像输入判别器中,经过模型卷积操作后判别器输出改输入图像是真实图像的概率;
步骤2.3、得到训练完成的生成和判别模型。
其中,生成式对抗网络(Generative Adversarial Networks,GAN)是一种深度学习模型,模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。生成模型和判别模型的具体博弈过程如公式(1)所示:
其中,E表示数学期望,x表示采样于真实数据分布pdata(x)的样本,z表示采样于先验分布p(z)的噪声,D(x)表示真实样本通过判别模型判别出其为真实样本的概率,D(G(z))表示判别模型鉴定由生成模型通过随机噪声生成的样本的真实概率,pG是先验分布p(z)根据真实分布希望生成的理想分布,V(D,G)表示判别模型和生成模型的值函数。理想状态下希望判别模型的值函数取得最大值,生成模型的值函数取得最小值。训练判别模型是为了最大化的判断出数据是来自真实样本,还是来自生成模型生成的新样本,训练生成模型是为了最小化的值。
多尺度感受野模块,通过多个卷积核提取图像不同尺度的信息,最后进行融合,可以得到图像更好的表征。Inception V1中使用多尺度感受野模块使得参数量较同时期的VGG Net大大减小。Inception模型的基本组成结构有四个成分:1×1卷积,3×3卷积,5×5卷积,3×3最大池化;最后对四个成分运算结果进行通道上组合。
通道注意力机制首先对输入特征进行全局平均池化(global average pooling),然后对通道降维和升维操作对每个通道增加非线性,拟合通道之间复杂的相关性;对于不同通道赋予不同的权重系数,通道注意的计算如公式(2)~(3)所示:
其中,HGP是全局平均池化操作,其作用等同于全连接层,可以将深层特征的第C个通道转化为信道统计符zc。
s=f(WUδ(WDz)) (3)
由上,本发明提供的一种融合多感受野和密集残差注意的超分辨率重建方法至少具有如下有益效果:
1、本发明使用生成对抗网络的思想,结合多感受野模块和密集残差通道注意模块构建了我们的超MRFGAN超分重建模型。使用双时间尺度的更新规则让判别器更充分更快的学习真实样本在空间中的流形。先使用现有数据集对生成器作为前馈网络训练,然后在预训练完成的生成器基础上训练MRFGAN。
2、本发明在深层特征提取过程中多感受野模块可以大大减少模型参数量并且提升模型特征的利用率,使模型学习更多的精细高频细节提高生成质量。
3、本发明一方面,能够帮助显著地提升图像自身分辨率;另一方面,可以加强采集到的图像质量,满足人们日益提高的对图像质量的要求。
4、本发明提出的模块密集残差注意模块和多感受野模块结合可以有效的从LR图像浅层特征中提取多尺度深层特征并能自适应的增强或者抑制不同通道的信息。
5、本发明的通道注意力的优势在于可以分配各个卷积通道之间的资源,分配粒度上有较大提升;利用通道注意力机制使得网络可以选择性的增强信息量,使得后期处理充分利用这些特征并抑制无用的特征。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下结合优选实施例,并配合附图,详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍。
图1为本发明中生成对抗网络示意图;
图2为本发明中多尺度感受野模块示意图;
图3为本发明中通道注意机制示意图;
图4为本发明中生成器和判别器示意图;
图5为本发明中多尺度卷积模块示意图;
图6为本发明中密集残差注意模块示意图。
具体实施方式
下面结合附图详细说明本发明的具体实施方式,其作为本说明书的一部分,通过实施例来说明本发明的原理,本发明的其他方面、特征及其优点通过该详细说明将会变得一目了然。在所参照的附图中,不同的图中相同或相似的部件使用相同的附图标号来表示。
参照图1-图6,一种融合多感受野和密集残差注意的超分辨率重建方法,具体包括以下步骤:
步骤1、首先需要对训练集数据预处理,通过退化模型建立对应数据集;
步骤2、根据预处理后的数据集,通过构建多感受野超分辨率生成对抗网络(MRFAGAN)获取超分图像;MRFGAN由生成器和判别器构成;其中,生成器包括浅层特征提取模块、深层特征提取模块、图像特征映射模块、图像重建模块,负责生成超分辨率图像;判别器是由卷积层堆积而成,负责判别超分辨率图像是否为真实的高分辨率;
步骤3、对训练后的图像得到的超分辨率图像生成器固定参数,得到超分重建模型。
具体的,所述步骤1中,包括:
步骤1.1、利用传统的退化模型来降低数据集分辨率;
步骤1.2、得到相应放缩倍数的HR图像和SR图像。
具体的,所述步骤2中,包括:
步骤2.1、生成器:输入图像先进入生成器的浅层特征提取模块,由一层卷积层来提取LR的浅层特征L0,浅层特征L0通过由密集残差通道注意模块和多尺度感受野模块依次构建的深层特征提取模块得到深层特征L1;深层特征L1通过子像素卷积(sub-pixelconvolution)操作变为放大后的图像特征L2;最后将得到的L2通过一层卷积层进行图像重建操作,得到放大后的SR图像ISR;
步骤2.2、判别器:将得到的SR图像ISR与HR图像输入判别器中,经过模型卷积操作后判别器输出改输入图像是真实图像的概率;
步骤2.3、得到训练完成的生成和判别模型。
生成器:
LR输入先经过一个卷积层提取浅层特征L1。
L1=F(ILR) (4)
浅层特征L1经过由多感受野模块(RF block)和密集残差注意模块(RA block)构成的深层特征提取结构后得到深层特征L2。
深层特征L2经过子像素卷积层Fup进行放大得到放大后的深层特征L3。
L3=Fup(I2) (6)
这里Fup是亚像素卷积操作(sub-pixel layer)。
最后,放大后的深层特征L3重建模块重建为最终的目标图像ISR。
ISR=F(I3) (7)
其中,F是一次卷积操作。
本实施例中,多感受野模块就是一种高效表达特征的稀疏性结构,减少资源消耗的方法。基于底层的相关性高的单元,通常会聚集在图像的局部区域(CNN底层卷积提取的都是局部特征),这就相当于在单个局部区域上,去学习它的特征,然后在高层用1×1卷积代替这个区域。某些相关性可能是隔得比较远的,通过使用大的卷积核学习。这使得模型可以同时提取精细特征和粗略特征。
本实施例中,剩余残差注意模块(RA block)。除了当前剩余密集块(RDB)中每个卷积层密集连接输入外,RDB中每个卷积层的输出还紧密连接到每个后续卷积层。然后,最后的卷积层与前一层的输出连接,并通过1×1的卷积进行特征融合。
判别器
本实施例中,模型的判别器由简单的卷积-归一化-池化模块构成。用来识别输入图像是真实图像还是生成器生成的图像。随着生成器生成图像质量和判别器分辨能力的不断完善,直到判别器无法将两种输入区分开来,训练完成。
损失函数
整个模型的损失函数为:
实验结果:
为证明本发明的超分辨率模型实验效果,与当前的主流的超分辨率模型进行实验对比,对比结果如表1所示。评价指标为:峰值信噪比(PSNR),结构相似性(SSIM)。
PSNR指在经过影像压缩之后,输出的影像都会在某种程度与原始影像不同。为了衡量经过处理后的影像品质,我们通常会参考PSNR值来衡量某个处理程序能否令人满意。计算公式如公式(11)~(12)。
SSIM是一种衡量两幅图像相似度的指标。该指标首先由德州大学奥斯丁分校的图像和视频工程实验室(Laboratory for Image and Video Engineering)提出。SSIM使用的两张图像中,一张为未经压缩的无失真图像,另一张为失真后的图像。计算公式如公式(13)。
在基准数据集Set5、Set14、BSD100、Urban100上进行实验对比发现,模型与Dong等人提出的SRCNN、Ledig等人提出的SRGAN、Alec等人提出的DCGAN以及Zhao等人提出的CDcGAN的超分辨率重建模型进行比较,除Set14上PSNR指标略低于CDcGAN外,本发明的超分辨率重建方法能够取得较优的重建效果。重建结果如表1所示。
表1通用数据集超分辨率重建实验结果(4×)
以上所述是本发明的优选实施方式而已,当然不能以此来限定本发明之权利范围,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和变动,这些改进和变动也视为本发明的保护范围。
Claims (3)
1.一种融合多感受野和密集残差注意的超分辨率重建方法,其特征在于,具体包括以下步骤:
步骤1、首先需要对训练集数据预处理,通过退化模型建立对应数据集;
步骤2、根据预处理后的数据集,通过构建多感受野超分辨率生成对抗网络(MRFAGAN)获取超分图像;MRFGAN由生成器和判别器构成;其中,生成器包括浅层特征提取模块、深层特征提取模块、图像特征映射模块、图像重建模块,负责生成超分辨率图像;判别器是由卷积层堆积而成,负责判别超分辨率图像是否为真实的高分辨率;
步骤3、对训练后的图像得到的超分辨率图像生成器固定参数,得到超分重建模型。
2.如权利要求1所述的融合多感受野和密集残差注意的超分辨率重建方法,其特征在于,所述步骤1中,包括:
步骤1.1、利用传统的退化模型来降低数据集分辨率;
步骤1.2、得到相应放缩倍数的HR图像和SR图像。
3.如权利要求1所述的融合多感受野和密集残差注意的超分辨率重建方法,其特征在于,所述步骤2中,包括:
步骤2.1、生成器:输入图像先进入生成器的浅层特征提取模块,由一层卷积层来提取LR的浅层特征L0,浅层特征L0通过由密集残差通道注意模块和多尺度感受野模块依次构建的深层特征提取模块得到深层特征L1;深层特征L1通过子像素卷积(sub-pixelconvolution)操作变为放大后的图像特征L2;最后将得到的L2通过一层卷积层进行图像重建操作,得到放大后的SR图像ISR;
步骤2.2、判别器:将得到的SR图像ISR与HR图像输入判别器中,经过模型卷积操作后判别器输出改输入图像是真实图像的概率;
步骤2.3、得到训练完成的生成和判别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110406549.0A CN112950480A (zh) | 2021-04-15 | 2021-04-15 | 一种融合多感受野和密集残差注意的超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110406549.0A CN112950480A (zh) | 2021-04-15 | 2021-04-15 | 一种融合多感受野和密集残差注意的超分辨率重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112950480A true CN112950480A (zh) | 2021-06-11 |
Family
ID=76232770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110406549.0A Pending CN112950480A (zh) | 2021-04-15 | 2021-04-15 | 一种融合多感受野和密集残差注意的超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112950480A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298718A (zh) * | 2021-06-22 | 2021-08-24 | 云南大学 | 一种单幅图像超分辨率重建方法及系统 |
CN113408498A (zh) * | 2021-08-05 | 2021-09-17 | 广东众聚人工智能科技有限公司 | 一种人群计数系统及方法、设备及存储介质 |
CN114820350A (zh) * | 2022-04-02 | 2022-07-29 | 北京广播电视台 | 逆色调映射系统、方法及其神经网络系统 |
CN115294412A (zh) * | 2022-10-10 | 2022-11-04 | 临沂大学 | 基于深度学习的实时煤岩分割网络生成方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570353A (zh) * | 2019-08-27 | 2019-12-13 | 天津大学 | 密集连接生成对抗网络单幅图像超分辨率重建方法 |
-
2021
- 2021-04-15 CN CN202110406549.0A patent/CN112950480A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570353A (zh) * | 2019-08-27 | 2019-12-13 | 天津大学 | 密集连接生成对抗网络单幅图像超分辨率重建方法 |
Non-Patent Citations (1)
Title |
---|
TAIZHANG SHANG等: "Perceptual Extreme Super Resolution Network with Receptive Field Block", 《CVPR》, pages 3 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298718A (zh) * | 2021-06-22 | 2021-08-24 | 云南大学 | 一种单幅图像超分辨率重建方法及系统 |
CN113408498A (zh) * | 2021-08-05 | 2021-09-17 | 广东众聚人工智能科技有限公司 | 一种人群计数系统及方法、设备及存储介质 |
CN114820350A (zh) * | 2022-04-02 | 2022-07-29 | 北京广播电视台 | 逆色调映射系统、方法及其神经网络系统 |
CN115294412A (zh) * | 2022-10-10 | 2022-11-04 | 临沂大学 | 基于深度学习的实时煤岩分割网络生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110211045B (zh) | 基于srgan网络的超分辨率人脸图像重建方法 | |
CN111768342B (zh) | 基于注意力机制和多级反馈监督的人脸超分辨方法 | |
CN112734646B (zh) | 一种基于特征通道划分的图像超分辨率重建方法 | |
CN113362223B (zh) | 基于注意力机制和双通道网络的图像超分辨率重建方法 | |
CN112950480A (zh) | 一种融合多感受野和密集残差注意的超分辨率重建方法 | |
CN112001847A (zh) | 相对生成对抗超分辨率重建模型生成高质量图像的方法 | |
CN111192200A (zh) | 基于融合注意力机制残差网络的图像超分辨率重建方法 | |
CN110111256B (zh) | 基于残差蒸馏网络的图像超分辨重建方法 | |
CN109584161A (zh) | 基于通道注意力的卷积神经网络的遥感图像超分辨率重建方法 | |
CN110751612A (zh) | 多通道多尺度卷积神经网络的单幅图像去雨方法 | |
CN111899168B (zh) | 一种基于特征增强的遥感影像超分辨率重建方法和系统 | |
Yang et al. | Image super-resolution based on deep neural network of multiple attention mechanism | |
CN113298718A (zh) | 一种单幅图像超分辨率重建方法及系统 | |
CN113314205A (zh) | 一种高效的医学影像标注与学习系统 | |
CN115546032B (zh) | 一种基于特征融合与注意力机制的单帧图像超分辨率方法 | |
CN112967185A (zh) | 基于频率域损失函数的图像超分辨率算法 | |
Chen et al. | MICU: Image super-resolution via multi-level information compensation and U-net | |
CN117132849A (zh) | 基于ct平扫影像与图神经网络的脑卒中出血转化预测方法 | |
CN116051382A (zh) | 一种基于深度强化学习生成式对抗神经网络和超分辨率重建的数据增强方法 | |
CN112734645B (zh) | 一种基于特征蒸馏复用的轻量化图像超分辨率重建方法 | |
CN117291803B (zh) | Pamgan轻量化面部超分辨率重建方法 | |
CN112541566B (zh) | 一种基于重构损失的图像翻译方法 | |
CN113379597A (zh) | 人脸超分辨率重构方法 | |
CN116993639A (zh) | 基于结构重参数化的可见光与红外图像融合方法 | |
CN116681592A (zh) | 基于多尺度自适应非局部注意力网络的图像超分辨率方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |