CN117350927A - 一种基于深度学习的图像去雨方法 - Google Patents
一种基于深度学习的图像去雨方法 Download PDFInfo
- Publication number
- CN117350927A CN117350927A CN202311378516.5A CN202311378516A CN117350927A CN 117350927 A CN117350927 A CN 117350927A CN 202311378516 A CN202311378516 A CN 202311378516A CN 117350927 A CN117350927 A CN 117350927A
- Authority
- CN
- China
- Prior art keywords
- image
- rain
- model
- input
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000013135 deep learning Methods 0.000 title claims abstract description 18
- 230000007246 mechanism Effects 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 230000002708 enhancing effect Effects 0.000 claims abstract description 3
- 230000006870 function Effects 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 238000005286 illumination Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 4
- 230000000750 progressive effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的图像去雨方法,首先收集包含雨滴的图像数据集,并进行预处理;其次构建PReNet模型,用于提取输入图像中的特征,为后续的空间注意力机制提供输入;接着在PReNet模型之后引入空间注意力机制,用于增强模型对感兴趣区域的关注;然后使用标记的图像数据集,对带有注意力机制的PReNet模型进行训练,并优化模型参数;最后将训练好的模型应用于新的图像数据,输出去除雨滴的图像。本方法通过利用带有注意力机制的渐进式网络结构PReNet,然后选择样本进行训练,实现了高效的对单张图片的去雨效果;该网络架构算法更为简洁,算法的运行效率大幅提高,具有很强的实际应用意义。
Description
技术领域
本发明属于计算机视觉技术领域,特别是涉及一种基于深度学习的图像去雨方法。
背景技术
生活中的阴雨天气,往往出现浓密的雨滴同时快速降落,对视频捕捉造成遮挡,在执行室外的任务如目标追踪、人脸识别时,视频的清晰度大大降低。因此,若想保留视频图像的清晰度,需要对图像进行去雨处理,近年来已经获得广泛关注。
现有技术中,去雨的技术可分为两种:基于优化的方法和基于深度网络的方法。基于优化的方法主要通过使用不同的正则项分别刻画背景层和雨层的先验结构,然后利用传统的迭代优化算法获得重构后的背景层和雨层。正则化器在表征背景和雨层方面仍有不足,只能在部分场景适用,面对多样雨图时,基于优化的方法在去源性能上仍然受到限制。随着深度学习的发展,卷积网络在去雨技术中也得到了应用。利用样本对架构进行大量地训练,从而获得去雨图。此类方法虽达到了一定的去雨效果,仍然存在缺点。如使用联合检测和去除雨条纹,以及联合雨密度估计和推导,学习方法更加深入和复杂,另外,还有一些轻量级网络,如级联方案和Laplacian金字塔框架,也提高了计算效率,但代价是性能明显下降。
发明内容
本发明目的在于克服上述去雨技术中的局限性,针对运用复杂模型实现去雨的技术问题,提出了一种基于深度学习的图像去雨方法,相较于复杂网络,其结构更简单且拥有较小的模型体积,便于模型的部署。
为了实现本发明目的,本发明公开了一种基于深度学习的图像去雨方法,包括以下步骤:
步骤1、收集包含雨滴的图像数据集,并进行预处理;
步骤2、构建PReNet模型,用于提取输入图像中的特征,为后续的空间注意力机制提供输入;
步骤3、在PReNet模型之后引入空间注意力机制,用于增强模型对感兴趣区域的关注;
步骤4、使用标记的图像数据集,对带有注意力机制的PReNet模型进行训练,并优化模型参数;
步骤5、将训练好的模型应用于新的图像数据,输出去除雨滴的图像。
进一步地,步骤1中,搜集具有雨滴和无雨的图像作为训练数据集,所述图像在同一地点拍摄,以确保场景和光照条件的一致性;同时对图像进行标注,将有雨的图像作为输入,对应的无雨图像作为标签。
进一步地,步骤2中,使用PReNet模型对输入图像进行特征提取;PReNet模型由多个卷积层、池化层和非线性激活函数组成,能够将原始图像转换为更具语义信息的特征表示;所述卷积层和池化层能够逐渐提取图像的低级到高级特征,以捕获图像中的不同尺度信息。
进一步地,第t阶段的PReNet模型推理能够表述为:
xt-0.5=fin(xt-1,y)
st=frecurrent(st-1,xt-0.5)
xt=fout(fres(st))
其中,fin是带relu激活函数的卷积层,frecurrent是带卷积的LSTM,fres是残差模块,t表示阶段数,x表示阶段输入,y表示雨图,s表示循环神经网络的隐藏层;fres和fout是阶段不变的,即网络参数在不同阶段重复使用。
进一步地,步骤3中,引入空间注意力子网络,子网络接收来自PReNet模型的特征图作为输入,并生成与输入特征图相同尺寸的注意力权重图;子网络通过卷积和激活函数Sigmoid生成注意力权重图,用于指示不同位置的特征应该获得的重要性。
进一步地,所述卷积和Sigmoid激活函数公式如下:
其中p为填充大小,d为膨胀系数,s为步长,k为卷积核大小,Lin为输入维度,Lout为输出维度;
其中,x为输入。
进一步地,通过逐层处理输入特征图,注意力子网络计算每个位置上的注意力权重,并将其与原始特征图相乘来生成聚焦后的特征图;注意力权重图表示了每个位置上的重要性权重,越高的权重代表网络应该更关注该位置的特征;聚焦后的特征图与原始特征图进行特征融合,以保留有用的图像细节并抑制雨滴区域的信息。
进一步地,步骤4中,为了使网络能够更好地去除雨滴并保持图像质量,使用已标注的有雨和无雨图像对网络进行监督学习;通过比较生成图像与真实无雨图像之间的差异,使用MSE和负SSIM作为损失函数来优化网络参数:
MSE损失为
其中xT表示网络T阶段的输出,xgt表示真实的无雨图像;
负SSIM损失为
其中xT表示网络T阶段的输出,xgt表示真实的无雨图像。
进一步地,空间注意力子网络采用SAM(Spatial Attention Module)注意力机制,具体流程如下:首先,将输入的特征图分别经过基于宽和高的最大池化和平均池化,对特征映射基于两个维度压缩,得到两个1×1×C的特征图(C为通道数)接着,再将最大池化和平均池化的结果利用共享的全连接层进行处理,先通过一个全连接层下降通道数,再通过另一个全连接恢复通道数;然后,将共享的全连接层所得到的结果进行相加再使用Sigmoid激活函数,进而生成最终的通道注意力特征(channel attention feature),即获得输入特征层每一个通道的权重(0~1之间);最后,将权重通过乘法逐通道加权到输入特征层上。
与现有技术相比,本发明的显著进步在于:1)通过利用带有注意力机制的渐进式网络结构PReNet,然后选择样本进行训练,实现了高效的对单张图片的去雨效果;2)该网络架构算法更为简洁,算法的运行效率大幅提高,具有很强的实际应用意义。
为更清楚说明本发明的功能特性以及结构参数,下面结合附图及具体实施方式进一步说明。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是一种基于深度学习的图像去雨方法总体流程示意图;
图2是PReNet模型总体框架示意图;
图3是模型内部参数示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于深度学习的图像去雨方法,具体步骤如下:
(1)数据预处理:收集包含雨滴的图像数据集,并进行必要的预处理:
搜集一组具有雨滴和无雨的图像作为训练数据集。这些图像在同一地点拍摄,以确保场景和光照条件的一致性。同时,我们对图像进行了标注,将有雨的图像作为输入,对应的无雨图像作为标签。
(2)构建带有注意力机制的PReNet模型:构建一个PReNet模型。该模型用于提取输入图像中的特征,为后续的空间注意力机制提供输入;
使用PReNet对输入图像进行特征提取。PReNet由多个卷积层、池化层和非线性激活函数组成,能够将原始图像转换为更具语义信息的特征表示。这些卷积层和池化层可以逐渐提取图像的低级到高级特征,以捕获图像中的不同尺度信息。第t阶段的PReNet推理可表述为:
xt-0.5=fin(xt-1,y)
st=frecurrent(st-1,xt-0.5)
xt=fout(fres(st))
其中,fin、fres和fout是阶段不变的,即网络参数在不同阶段重复使用。
PreNet渐进式去雨效果:
初始估计的去雨图像:E1=ConvN(X)
第一层去雨操作:R1=ConvR1(E1)
第二层去雨操作:R2=ConvR2(R1)
第M层去雨操作:RM=ConvRM(RM-1)
最终的去雨图像:O=E1+RM
其中,E1是初始估计的去雨图像,它是输入图像的一个估计版本。RM表示去雨操作的最终结果,它包含了多层次的去雨信息。最终的去雨图像O是初始估计图像E1和去雨操作RM的叠加。
(3)引入空间注意力机制:在PreNet模型之后引入空间注意力机制,用于增强模型对感兴趣区域(雨滴区域)的关注。空间注意力机制可以采用SAM(Spatial AttentionModule)注意力机制。该子网络接收来自PReNet的特征图作为输入,并生成与输入特征图相同尺寸的注意力权重图。子网络通过卷积和激活函数(Sigmoid)生成注意力权重图,用于指示不同位置的特征应该获得的重要性。卷积和Sigmoid激活函数公式如下:
其中p为填充大小,d为膨胀系数,s为步长,k为卷积核大小,Lin为输入维度,Lout为输出维度。
其中,x为输入。
通过逐层处理输入特征图,注意力子网络计算每个位置上的注意力权重,并将其与原始特征图相乘来生成聚焦后的特征图。注意力权重图表示了每个位置上的重要性权重,越高的权重代表网络应该更关注该位置的特征。聚焦后的特征图与原始特征图进行特征融合,以保留有用的图像细节并抑制雨滴区域的信息。
(4)训练和调优:使用标记的图像数据集,将PreNet结合空间注意力机制的模型进行训练。通过反向传播算法和适当的损失函数,优化模型参数,使其能够准确地去除图像中的雨滴。
使用已标注的有雨和无雨图像对网络进行监督学习。通过比较生成图像与真实无雨图像之间的差异,我们使用MSE和负SSIM作为损失函数来优化网络参数。
MSE损失为:
负SSIM损失为:
(5)图像去雨应用:在实际应用中,将训练好的模型应用于新的图像数据上。对输入图像进行预处理(如去噪、调整大小等),然后通过PreNet结合空间注意力机制的模型进行图像去雨处理,最终输出去除雨滴的图像。
如图2所示,在步骤2中,输入的特征图会进入第一个卷积层,输出结果会依次进入各个残差模块1至N(N为自行设置的超参数),在步骤3会进入空间注意力模块输出阶段的特征图,由此模型重复迭代T次运行。
如图3所示,在步骤2构建模型时,输入图像大小为3x64x64,N=6,T=1时模型结构和参数。图中第一列为模型的层,第二列为模型输出的大小,第三列为参数量。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (9)
1.一种基于深度学习的图像去雨方法,其特征在于,包括以下步骤:
步骤1、收集包含雨滴的图像数据集,并进行预处理;
步骤2、构建PReNet模型,用于提取输入图像中的特征,为后续的空间注意力机制提供输入;
步骤3、在PReNet模型之后引入空间注意力机制,用于增强模型对感兴趣区域的关注;
步骤4、使用标记的图像数据集,对带有注意力机制的PReNet模型进行训练,并优化模型参数;
步骤5、将训练好的模型应用于新的图像数据,输出去除雨滴的图像。
2.根据权利要求1所述的一种基于深度学习的图像去雨方法,其特征在于,步骤1中,搜集具有雨滴和无雨的图像作为训练数据集,所述图像在同一地点拍摄,以确保场景和光照条件的一致性;同时对图像进行标注,将有雨的图像作为输入,对应的无雨图像作为标签。
3.根据权利要求1所述的一种基于深度学习的图像去雨方法,其特征在于,步骤2中,使用PReNet模型对输入图像进行特征提取;PReNet模型由多个卷积层、池化层和非线性激活函数组成,能够将原始图像转换为更具语义信息的特征表示;所述卷积层和池化层能够逐渐提取图像的低级到高级特征,以捕获图像中的不同尺度信息。
4.根据权利要求3所述的一种基于深度学习的图像去雨方法,其特征在于,第t阶段的PReNet模型推理能够表述为:
xt-0.5=fin(xt-1,y)
st=frecurrent(st-1,xt-0.5)
xt=fout(fres(st)
其中,fin是带relu激活函数的卷积层,frecurrent是带卷积的LSTM,fres是残差模块,t表示阶段数,x表示阶段输入,y表示雨图,s表示循环神经网络的隐藏层;fres和fout是阶段不变的,即网络参数在不同阶段重复使用。
5.根据权利要求1所述的一种基于深度学习的图像去雨方法,其特征在于,步骤3中,引入空间注意力子网络,子网络接收来自PReNet模型的特征图作为输入,并生成与输入特征图相同尺寸的注意力权重图;子网络通过卷积和激活函数Sigmoid生成注意力权重图,用于指示不同位置的特征应该获得的重要性。
6.根据权利要求5所述的一种基于深度学习的图像去雨方法,其特征在于,所述卷积和Sigmoid激活函数公式如下:
其中p为填充大小,d为膨胀系数,s为步长,k为卷积核大小,Lin为输入维度,Lout为输出维度;
其中,x为输入。
7.根据权利要求5所述的一种基于深度学习的图像去雨方法,其特征在于,通过逐层处理输入特征图,注意力子网络计算每个位置上的注意力权重,并将其与原始特征图相乘来生成聚焦后的特征图;注意力权重图表示了每个位置上的重要性权重,越高的权重代表网络应该更关注该位置的特征;聚焦后的特征图与原始特征图进行特征融合,以保留有用的图像细节并抑制雨滴区域的信息。
8.根据权利要求1所述的一种基于深度学习的图像去雨方法,其特征在于,步骤4中,为了使网络能够更好地去除雨滴并保持图像质量,使用已标注的有雨和无雨图像对网络进行监督学习;通过比较生成图像与真实无雨图像之间的差异,使用MSE和负SSIM作为损失函数来优化网络参数:
MSE损失为
其中xT表示网络T阶段的输出,xgt表示真实的无雨图像;
负SSIM损失为
其中xT表示网络T阶段的输出,xgt表示真实的无雨图像。
9.根据权利要求5所述的一种基于深度学习的图像去雨方法,其特征在于,空间注意力子网络采用SAM注意力机制,具体流程如下:首先,将输入的特征图分别经过基于宽和高的最大池化和平均池化,对特征映射基于两个维度压缩,得到两个1×1×C的特征图接着,再将最大池化和平均池化的结果利用共享的全连接层进行处理,先通过一个全连接层下降通道数,再通过另一个全连接恢复通道数;然后,将共享的全连接层所得到的结果进行相加再使用Sigmoid激活函数,进而生成最终的通道注意力特征,即获得输入特征层每一个通道的权重;最后,将权重通过乘法逐通道加权到输入特征层上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311378516.5A CN117350927A (zh) | 2023-10-23 | 2023-10-23 | 一种基于深度学习的图像去雨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311378516.5A CN117350927A (zh) | 2023-10-23 | 2023-10-23 | 一种基于深度学习的图像去雨方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117350927A true CN117350927A (zh) | 2024-01-05 |
Family
ID=89359180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311378516.5A Pending CN117350927A (zh) | 2023-10-23 | 2023-10-23 | 一种基于深度学习的图像去雨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117350927A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118014892A (zh) * | 2024-04-08 | 2024-05-10 | 北京航空航天大学 | 一种基于频率域对比正则的单图像去雨模型构建方法及去雨方法 |
-
2023
- 2023-10-23 CN CN202311378516.5A patent/CN117350927A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118014892A (zh) * | 2024-04-08 | 2024-05-10 | 北京航空航天大学 | 一种基于频率域对比正则的单图像去雨模型构建方法及去雨方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN111028177B (zh) | 一种基于边缘的深度学习图像去运动模糊方法 | |
CN111462013B (zh) | 一种基于结构化残差学习的单图去雨方法 | |
CN111915525A (zh) | 基于改进深度可分离生成对抗网络的低照度图像增强方法 | |
CN114331886B (zh) | 一种基于深度特征的图像去模糊方法 | |
CN117350927A (zh) | 一种基于深度学习的图像去雨方法 | |
CN113888426B (zh) | 一种基于深度可分离残差网络的电力监控视频去模糊方法 | |
CN115861076A (zh) | 基于矩阵分解网络的无监督高光谱图像超分辨率方法 | |
CN111738954A (zh) | 一种基于双层空洞U-Net模型的单帧湍流退化图像去畸变方法 | |
CN112241939A (zh) | 一种基于多尺度和非局部的轻量去雨方法 | |
CN114463218A (zh) | 一种基于事件数据驱动的视频去模糊方法 | |
CN112419191A (zh) | 基于卷积神经网络的图像运动模糊去除方法 | |
CN116523897A (zh) | 一种基于互导学习的半监督浒苔检测方法及系统 | |
CN115526779A (zh) | 一种基于动态注意力机制的红外图像超分辨率重建方法 | |
CN116228789A (zh) | 一种基于DeepLabv3+网络的遥感图像分割方法 | |
CN112767277B (zh) | 一种基于参考图像的深度特征排序去模糊方法 | |
Guo et al. | Image blind deblurring using an adaptive patch prior | |
CN114202694A (zh) | 基于流形混合插值和对比学习的小样本遥感场景图像分类方法 | |
CN117746130A (zh) | 一种基于遥感影像点状语义标签的弱监督深度学习分类方法 | |
CN117853735A (zh) | 一种单幅图像混合雨水去除方法 | |
Wang et al. | Uneven image dehazing by heterogeneous twin network | |
Su et al. | A Survey of Single Image Rain Removal Based on Deep Learning | |
CN116309077A (zh) | 基于空域可变模糊核估计的图像盲超分辨率重建方法 | |
Chen et al. | Multi‐scale single image dehazing based on the fusion of global and local features | |
CN116205821A (zh) | 基于垂直条纹特征提取十字卷积的单图去雨方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |