CN111986112A - 一种软注意力机制的深度全卷积神经网络图像去噪方法 - Google Patents
一种软注意力机制的深度全卷积神经网络图像去噪方法 Download PDFInfo
- Publication number
- CN111986112A CN111986112A CN202010835761.4A CN202010835761A CN111986112A CN 111986112 A CN111986112 A CN 111986112A CN 202010835761 A CN202010835761 A CN 202010835761A CN 111986112 A CN111986112 A CN 111986112A
- Authority
- CN
- China
- Prior art keywords
- unit
- conv
- relu
- attention mechanism
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007246 mechanism Effects 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 12
- 238000005070 sampling Methods 0.000 claims description 34
- 102100022941 Retinol-binding protein 1 Human genes 0.000 claims description 26
- 108050008744 Retinol-binding protein 1 Proteins 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 6
- 238000001994 activation Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 235000015220 hamburgers Nutrition 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种软注意力机制的深度全卷积神经网络图像去噪方法及系统,对图像进行处理获得目标图像,形成训练集,创建深度全卷积网络,包括了下采样和上采样,在上采样之后采用对称跳跃处理,在对称跳跃过程中融合软注意力机制,训练过程采用反向传播方法,通过不断迭代,得到网络模型。对于带有拟定噪声图像采用网络模型进行处理,可以得到图像噪声,对噪声图像进行减除噪声处理,得到高质量复原图像。本发明提出的去噪方法,可以去除图像中的噪声,保留了细节信息,所述去噪方法能够在GPU上进行运算,减少了处理消耗时间。
Description
技术领域
本发明涉及人工智能技术领域,具体涉及到深度全卷积网络图像去噪领域。
背景技术
图像去噪的方法总体可以分成两类:变换域方法和空间域方法。傅里叶变换是最早的变换域图像去噪方法,随后,小波变换、多小波、脊波、曲波和剪切波等都用来进行图像去噪。空间域方法是使用最为广泛的一类图像去噪方法,均值滤波、中值滤波、高斯滤波都是常用的图像去噪方法。2005年,Buades等人提出了非局部均值方法,充分使用了自然图像中图像块的自相似性对图像进行复原。1965年与1977年,Gabor和Jain分别将图像去噪与类似的物理变换进行类比,提出了偏微分方程去噪方法。2006年,Elad采用稀疏表示的方法构建超完备字典对图像进行去噪。2009年,Jain等采用卷积网络进行图像去噪。2012年,Burger提出了多层感知模型进行图像去噪。2017年,Zhang Kai等人提出了深度残差卷积网络进行去噪,并取得很好的性能。2018年,Isogawa等提出了一种带有可变阈值激活函数卷积网络去噪方法,通过训练一个卷积网络可以实现带有不同标准差噪声图像的复原。
发明内容
本发明针对一般图像去噪方法,或者不能充分的消除噪声,或者由于过度平滑在去噪的同时导致图像细节的丢失,或者在噪声消除过程中引入很多虚假的细节信息的情形,提出了一种带有软注意力机制的深度神经网络图像去噪方法。
为实现上述目的,本发明提供了如下方案:
一种软注意力机制的深度全卷积神经网络图像去噪方法,包括以下步骤:
S1.对图像进行裁剪,添加噪声形成目标图像,根据目标图像生成训练数据集;
S2.创建深度全卷积神经网络,将所述目标图像和对应的噪声标准差输入所述深度全卷积神经网络中,通过反向传播过程进行训练、学习,生成噪声图像,确立基于软注意力机制的深度全卷积神经网络模型;
S3.将所述将带有噪声图像,基于软注意力机制的深度全卷积神经网络模型进行图像去噪处理。
优选地,S1包括:对图像进行裁剪,生成大小相等的图像块,并对图像块添加噪声,形成不带噪声和带有噪声的图像对,图像对为目标图像。
优选地,S2包括:创建下采样模块、上采样模块、软注意力模块、CRBP单元、Conv+BN+Relu单元;
优选地,下采样模块采用滑动跳跃卷积方法实现;
优选地,上采样模块采用反卷积滤波方法实现;
优选地,在上采样之后采用对称跳跃处理,在对称跳跃过程中融合软注意力机制。
优选地,软注意力机制模块,通过MaxPooling技术将每个channel压缩为一个channel值,将所述channel值作为输入,构建一个全连接网络,形成所述软注意力机制模块。
优选地,全连接网络包括:线性单元、Dropout结构、Relu激活函数、Sigmoid激活函数;
优选地,全连接网络包含了三个隐藏层:
第一隐藏层包括第一线性单元、第一Dropout结构、第一Relu激活函数;
第二隐藏层包括第二线性单元、第二Dropout结构、第二Relu激活函数;
第三隐藏层包括第三线性单元、Sigmoid激活函数。
优选地,CRBP单元包括三个Conv+BN+Relu单元;
优选地,Conv+BN+Relu单元表示分别经过卷积、BatchNomalization和Relu激活的过程单元。
一种软注意力机制的深度全卷积神经网络图像去噪系统,包括:Conv+Relu单元、第一CRBP单元、第二CRBP单元、第一下采样、第二下采样、第一Conv+BN+Relu单元、第二Conv+BN+Relu单元、第三Conv+BN+Relu单元、第一上采样、第二上采样、Conv单元;
优选地,Conv+Relu单元与第一CRBP单元连接;
优选地,第一CRBP单元与第一下采样连接;
优选地,第一下采样与第一CRBP单元、第二CRBP单元连接;
优选地,第二CRBP单元与第一下采样、第二下采样连接;
优选地,第二下采样与第二CRBP单元、第一Conv+BN+Relu单元连接;
优选地,第一Conv+BN+Relu单元与第二下采样、第一上采样连接;
优选地,第一上采样与第一Conv+BN+Relu单元、第二Conv+BN+Relu单元连接;
优选地,第二Conv+BN+Relu单元与第二上采样、第一上采样连接;
优选地,第二上采样与第二Conv+BN+Relu单元、第三Conv+BN+Relu单元连接;
优选地,第三Conv+BN+Relu单元与Conv单元连接。
优选地,第一Conv+BN+Relu单元包括5个Conv+BN+Relu单元;
优选地,第二Conv+BN+Relu单元包括3个Conv+BN+Relu单元;
优选地,第三Conv+BN+Relu单元包括4个Conv+BN+Relu单元;
优选地,软注意力机制模块包括第一软注意力机制模块和第二软注意力机制模块;
优选地,第一软注意力机制模块包括第一软注意力机制模块第一端和第一软注意力机制模块第二端;
优选地,第二软注意力机制模块包括第二软注意力机制模块第一端和第二软注意力机制模块第二端;
优选地,第一软注意力机制模块第一端与第二CRBP单元和第二下卷积连接;
优选地,第一软注意力机制模块第二端与第一上采样和第二Conv+BN+Relu单元连接;
优选地,第二软注意力机制模块第一端与第一CRBP单元和第一下采样连接;
优选地,第二软注意力机制模块第二端与第二上采样和第三Conv+BN+Relu单元连接;
优选地,软注意力机制的深度全卷积神经网络模型还包括:
优选地,目标图像作为目标图像输入,与Conv+Relu单元连接;
优选地,目标图像输入作为全连接网络的输入;
优选地,目标图像作为目标图像输出,与Conv单元连接;
优选地,将目标图像输出与全连接网络的输出进行相乘,将结果作为深度全卷积神经网络模型的输出。
本发明公开了以下技术效果:
(1)在逐级下采样过程中,在下采样之后采用了残差模块,将浅层和深层特征有效的结合起来,丰富了图像的细节信息,避免了梯度消失现象;
(2)开发了软注意力机制,采用全连接网络学习来得到不同特征的权重,并在每一层添加dropout结构,在几乎不降低性能的条件下,减小了训练过程的运算量,降低了对内存、显存存储量的需求;
(3)添加了带有软注意力机制的对称跳跃结构,在上采样更好的融合了逐级下采样阶段中的特征信息,不同的特征对输出做出不同的贡献。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提出的软注意力机制流程示意图;
图2为本发明提出的带有软注意力机制的深度全卷积神经网络(RESAnet)去噪流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1:如图1-2所示,本发明提供了一种软注意力机制的深度全卷积神经网络图像去噪方法,包括以下步骤:
S1.对图像进行裁剪,添加噪声形成目标图像,根据目标图像生成训练数据集;
S2.创建深度全卷积神经网络,将所述目标图像和对应的噪声标准差输入所述深度全卷积神经网络中,通过反向传播过程进行训练、学习,生成噪声图像,确立基于软注意力机制的深度全卷积神经网络模型;
S3.将所述将带有噪声图像,基于软注意力机制的深度全卷积神经网络模型进行图像去噪处理。
本发明提供图像去噪的方法,首先把图像裁剪成大量正方形图像块,并对图像块添加拟定噪声,构成大量图像对形成的训练集,然后创建深度全卷积网络,网络包括了下采样和上采样,并在每一次下采样之后添加残差模块,在上采样之后采用了对称跳跃结构,并在对称跳跃过程中融合了软注意力机制,网络输出的为添加的噪声,训练过程采用反向传播方法,通过不断迭代,得到网络模型。对于任意一幅带有拟定噪声图像采用网络模型进行处理,可以得到图像噪声,再由带有噪声图像减除噪声,得到高质量复原图像。
本发明提出的去噪方法,可以有效的去除图像中的噪声,更好的保留了细节信息,具有更好的视觉效果,同时该方法能够在GPU上进行运算,减少了处理消耗时间。
如图1所述,本发明提出的用来去噪的软注意力机制,对于卷积网络中任意一层输出,通过MaxPooling技术将每个channel压缩为一个值,然后将压缩后的每个channel的值作为输入,构建一个全连接网络。
全连接网络包含了三个隐藏层,前两层每一层包含了一个线性单元,一个Dropout结构,一个Relu激活函数,最后一层包含了一个线性单元和Sigmoid激活函数,最后将注意力模块的输入与全连接网络输出进行相乘,将结果作为整个模块的输出。
如图2所述,本发明提出的带有软注意力机制的深度全卷积神经网络去噪系统,包括Conv+Relu单元、CRBP单元、下采样、Conv+BN+Relu单元、上采样、Conv单元。
将噪声的标准差和带有噪声图像作为网络输入,CRBP单元如箭头所指的虚线框所示,下采样采用滑动跳跃卷积,上采样采用反卷积滤波,虚线箭头旁的数字表示卷积的次数。
Conv+BN+Relu单元表示分别经过卷积、BatchNomalization和Relu激活过程,对称跳跃结构过程融合了软注意力模块,网络输入和倒数第二层输出相加作为最后一层的输入,输出为图像的噪声,由带有噪声图像减去噪声得到去噪后图像。
本发明采用全卷积残差网络来生成图像中的噪声,采用大量的图像对训练集,通过反向传播过程不断地训练、学习,生成图像噪声,然后由带有噪声的图像减去图像噪声,得到一幅去噪后的图像。
本发明提出的网络采用了下采样和上采样。下采样采用了滑动跳跃卷积,并使用之前两倍数量的卷积核,在增加提取特征数的同时减小了计算量;上采样在扩大图像尺寸的同时,减少一半的特征数,逐步恢复到与输入图像相同的维数。
本发明提出的网络在每次下采样后采用了残差模块,将一次下采样后提取到的特征,添加到下次下采样之前的特征上,有效的避免了浅层特征的丢失和梯度消失现象。同时在进行最后一次卷积之前将输入带噪声图像和噪声标准差添加到深度特征之上,很好的恢复了原始图像的细节信息。
本发明提出的网络采用软注意力结构,学习了每一层不同特征的关系,为不同的特征添加不同权重,不同特征对输出起到不同作用。网络通过将全连接层和dropout结构相结合训练权重,在不降低网络性能的情况下,减小了计算量,降低了对内存或显存空间的依赖。
本发明提出的网络采用了对称跳跃结构,对下采样之前的特征添加软注意力结构,并添加到对应大小和特征数的上采样之后的特征上,避免了层数的加深和下采样、上采样引起的原始图像细节的丢失。
以上所述的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (10)
1.一种软注意力机制的深度全卷积神经网络图像去噪方法,其特征在于:包括以下步骤:
S1.对图像进行裁剪,添加噪声形成目标图像,根据目标图像生成训练数据集;
S2.创建深度全卷积神经网络,将所述目标图像和对应的噪声标准差输入所述深度全卷积神经网络中,通过反向传播过程进行训练、学习,生成噪声图像,确立基于软注意力机制的深度全卷积神经网络模型;
S3.将所述将带有噪声图像,基于软注意力机制的深度全卷积神经网络模型进行图像去噪处理。
2.根据权利要求1所述一种软注意力机制的深度全卷积神经网络图像去噪方法,其特征在于:
所述S1包括:对所述图像进行裁剪,生成大小相等的图像块,并对图像块添加噪声,形成不带噪声和带有噪声的图像对,所述图像对为所述目标图像。
3.根据权利要求1所述一种软注意力机制的深度全卷积神经网络图像去噪方法,其特征在于:
所述S2包括:创建下采样模块、上采样模块、软注意力模块、CRBP单元、Conv+BN+Relu单元;
所述下采样模块采用滑动跳跃卷积方法实现;
所述上采样模块采用反卷积滤波方法实现;
在上采样之后采用对称跳跃处理,在对称跳跃过程中融合软注意力机制。
4.根据权利要求3所述一种软注意力机制的深度全卷积神经网络图像去噪方法,其特征在于:
所述软注意力机制模块,通过MaxPooling技术将每个channel压缩为一个channel值,将所述channel值作为输入,构建一个全连接网络,形成所述软注意力机制模块。
5.根据权利要求4所述一种软注意力机制的深度全卷积神经网络图像去噪方法,其特征在于:
所述全连接网络包括:线性单元、Dropout结构、Relu激活函数、Sigmoid激活函数;
所述全连接网络包含了三个隐藏层:
第一隐藏层包括第一线性单元、第一Dropout结构、第一Relu激活函数;
第二隐藏层包括第二线性单元、第二Dropout结构、第二Relu激活函数;
第三隐藏层包括第三线性单元、Sigmoid激活函数。
6.根据权利要求3所述一种软注意力机制的深度全卷积神经网络图像去噪方法,其特征在于:
所述CRBP单元包括三个所述Conv+BN+Relu单元;
所述Conv+BN+Relu单元表示分别经过卷积、BatchNomalization和Relu激活的过程单元。
7.一种软注意力机制的深度全卷积神经网络图像去噪系统,其特征在于:包括:Conv+Relu单元、第一CRBP单元、第二CRBP单元、第一下采样、第二下采样、第一Conv+BN+Relu单元、第二Conv+BN+Relu单元、第三Conv+BN+Relu单元、第一上采样、第二上采样、Conv单元;
所述Conv+Relu单元与所述第一CRBP单元连接;
所述第一CRBP单元与所述第一下采样连接;
所述第一下采样与所述第一CRBP单元、所述第二CRBP单元连接;
所述第二CRBP单元与所述第一下采样、所述第二下采样连接;
所述第二下采样与所述第二CRBP单元、所述第一Conv+BN+Relu单元连接;
所述第一Conv+BN+Relu单元与所述第二下采样、所述第一上采样连接;
所述第一上采样与所述第一Conv+BN+Relu单元、所述第二Conv+BN+Relu单元连接;
所述第二Conv+BN+Relu单元与所述第二上采样、所述第一上采样连接;
所述第二上采样与所述第二Conv+BN+Relu单元、所述第三Conv+BN+Relu单元连接;
所述第三Conv+BN+Relu单元与所述Conv单元连接。
8.根据权利要求7所述一种软注意力机制的深度全卷积神经网络图像去噪系统,其特征在于:
所述第一Conv+BN+Relu单元包括5个所述Conv+BN+Relu单元;
所述第二Conv+BN+Relu单元包括3个所述Conv+BN+Relu单元;
所述第三Conv+BN+Relu单元包括4个所述Conv+BN+Relu单元。
9.根据权利要求7所述一种软注意力机制的深度全卷积神经网络图像去噪系统,其特征在于:
所述软注意力机制模块包括第一软注意力机制模块和第二软注意力机制模块;
所述第一软注意力机制模块包括第一软注意力机制模块第一端和第一软注意力机制模块第二端;
所述第二软注意力机制模块包括第二软注意力机制模块第一端和第二软注意力机制模块第二端;
所述第一软注意力机制模块第一端与所述第二CRBP单元和所述第二下卷积连接;
所述第一软注意力机制模块第二端与所述第一上采样和所述第二Conv+BN+Relu单元连接;
所述第二软注意力机制模块第一端与所述第一CRBP单元和所述第一下采样连接;
所述第二软注意力机制模块第二端与所述第二上采样和所述第三Conv+BN+Relu单元连接。
10.根据权利要求7所述一种软注意力机制的深度全卷积神经网络图像去噪系统,其特征在于:
所述软注意力机制的深度全卷积神经网络模型还包括:
所述目标图像作为目标图像输入,与所述Conv+Relu单元连接;
所述目标图像输入作为所述全连接网络的输入;
所述目标图像作为目标图像输出,与所述Conv单元连接;
将所述目标图像输出与所述全连接网络的输出进行相乘,将结果作为所述深度全卷积神经网络模型的输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010835761.4A CN111986112B (zh) | 2020-08-19 | 2020-08-19 | 一种软注意力机制的深度全卷积神经网络图像去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010835761.4A CN111986112B (zh) | 2020-08-19 | 2020-08-19 | 一种软注意力机制的深度全卷积神经网络图像去噪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111986112A true CN111986112A (zh) | 2020-11-24 |
CN111986112B CN111986112B (zh) | 2023-01-06 |
Family
ID=73435440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010835761.4A Active CN111986112B (zh) | 2020-08-19 | 2020-08-19 | 一种软注意力机制的深度全卷积神经网络图像去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111986112B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112988548A (zh) * | 2021-04-23 | 2021-06-18 | 华南理工大学 | 一种基于降噪算法的改进Elman神经网络的预测方法 |
CN113052775A (zh) * | 2021-03-31 | 2021-06-29 | 华南理工大学 | 一种图像去阴影方法及装置 |
CN113486917A (zh) * | 2021-05-17 | 2021-10-08 | 西安电子科技大学 | 一种基于度量学习的雷达hrrp小样本目标识别方法 |
CN113744148A (zh) * | 2021-08-26 | 2021-12-03 | 西安邮电大学 | 一种碑刻书法图像去噪模型建立、去噪方法及系统 |
CN116823597A (zh) * | 2023-08-02 | 2023-09-29 | 北京中科闻歌科技股份有限公司 | 一种图像生成系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886971A (zh) * | 2019-01-24 | 2019-06-14 | 西安交通大学 | 一种基于卷积神经网络的图像分割方法及系统 |
CN110349103A (zh) * | 2019-07-01 | 2019-10-18 | 昆明理工大学 | 一种基于深度神经网络和跳跃连接的无干净标签图像去噪方法 |
CN111292259A (zh) * | 2020-01-14 | 2020-06-16 | 西安交通大学 | 一种综合多尺度与注意力机制的深度学习图像去噪方法 |
CN111311518A (zh) * | 2020-03-04 | 2020-06-19 | 清华大学深圳国际研究生院 | 基于多尺度混合注意力残差网络的图像去噪方法及装置 |
-
2020
- 2020-08-19 CN CN202010835761.4A patent/CN111986112B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886971A (zh) * | 2019-01-24 | 2019-06-14 | 西安交通大学 | 一种基于卷积神经网络的图像分割方法及系统 |
CN110349103A (zh) * | 2019-07-01 | 2019-10-18 | 昆明理工大学 | 一种基于深度神经网络和跳跃连接的无干净标签图像去噪方法 |
CN111292259A (zh) * | 2020-01-14 | 2020-06-16 | 西安交通大学 | 一种综合多尺度与注意力机制的深度学习图像去噪方法 |
CN111311518A (zh) * | 2020-03-04 | 2020-06-19 | 清华大学深圳国际研究生院 | 基于多尺度混合注意力残差网络的图像去噪方法及装置 |
Non-Patent Citations (4)
Title |
---|
1KAZI NAZMUL HAQUE 等: "Image denoising and restoration with CNN-LSTM Encoder Decoder with Direct Attention", 《HTTPS://ARXIV.ORG/ABS/1801.05141》 * |
KAI ZHANG 等: "Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
YI WANG 等: "Channel and Space Attention Neural Network for Image Denoising", 《IEEE SIGNAL PROCESSING LETTERS》 * |
郭恒意等: "结合残差密集块的卷积神经网络图像去噪方法", 《计算机工程与设计》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113052775A (zh) * | 2021-03-31 | 2021-06-29 | 华南理工大学 | 一种图像去阴影方法及装置 |
CN112988548A (zh) * | 2021-04-23 | 2021-06-18 | 华南理工大学 | 一种基于降噪算法的改进Elman神经网络的预测方法 |
CN113486917A (zh) * | 2021-05-17 | 2021-10-08 | 西安电子科技大学 | 一种基于度量学习的雷达hrrp小样本目标识别方法 |
CN113486917B (zh) * | 2021-05-17 | 2023-06-02 | 西安电子科技大学 | 一种基于度量学习的雷达hrrp小样本目标识别方法 |
CN113744148A (zh) * | 2021-08-26 | 2021-12-03 | 西安邮电大学 | 一种碑刻书法图像去噪模型建立、去噪方法及系统 |
CN113744148B (zh) * | 2021-08-26 | 2023-10-20 | 西安邮电大学 | 一种碑刻书法图像去噪模型建立、去噪方法及系统 |
CN116823597A (zh) * | 2023-08-02 | 2023-09-29 | 北京中科闻歌科技股份有限公司 | 一种图像生成系统 |
CN116823597B (zh) * | 2023-08-02 | 2024-05-07 | 北京中科闻歌科技股份有限公司 | 一种图像生成系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111986112B (zh) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111986112B (zh) | 一种软注意力机制的深度全卷积神经网络图像去噪方法 | |
CN114140353B (zh) | 一种基于通道注意力的Swin-Transformer图像去噪方法及系统 | |
CN111028163B (zh) | 一种基于卷积神经网络的联合图像去噪与弱光增强方法 | |
Gai et al. | New image denoising algorithm via improved deep convolutional neural network with perceptive loss | |
CN110349103A (zh) | 一种基于深度神经网络和跳跃连接的无干净标签图像去噪方法 | |
CN111007566B (zh) | 一种曲率驱动扩散全卷积网络地震数据坏道重建与去噪方法 | |
CN110189260B (zh) | 一种基于多尺度并行门控神经网络的图像降噪方法 | |
CN111738952B (zh) | 一种图像修复的方法、装置及电子设备 | |
CN113554084B (zh) | 基于剪枝和轻量卷积的车辆再辨识模型压缩方法及系统 | |
LU101862B1 (en) | An Image Recognition Method, System, Medium and Electronic Device | |
CN110992295A (zh) | 基于小波-red卷积神经网络的低剂量ct重建方法 | |
CN110838089B (zh) | 一种基于OctBlock密集块的快速图像去噪方法 | |
CN114283088A (zh) | 低剂量ct图像降噪方法及装置 | |
Zhang et al. | Birdsoundsdenoising: Deep visual audio denoising for bird sounds | |
Liu et al. | Facial image inpainting using multi-level generative network | |
CN114187191A (zh) | 一种基于高频-低频信息融合的图像去模糊方法 | |
Li et al. | Deeplabv3+ vision transformer for visual bird sound denoising | |
CN111047537A (zh) | 一种图像去噪中恢复细节的系统 | |
CN115272131B (zh) | 基于自适应多光谱编码的图像去摩尔纹系统及方法 | |
CN114998142A (zh) | 一种基于密集特征多监督约束的运动去模糊方法 | |
CN114596479A (zh) | 适用于智能终端的图像摩尔纹去除方法、装置及存储介质 | |
CN112907456A (zh) | 基于全局平滑约束先验模型的深度神经网络图像去噪方法 | |
CN113222113B (zh) | 一种基于反缩放卷积层的信号生成方法及装置 | |
CN117611484B (zh) | 一种基于去噪自解码网络的图像去噪方法及系统 | |
CN113362241B (zh) | 一种结合高低频分解和两级融合策略的深度图去噪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |