CN117350927A - 一种基于深度学习的图像去雨方法 - Google Patents

一种基于深度学习的图像去雨方法 Download PDF

Info

Publication number
CN117350927A
CN117350927A CN202311378516.5A CN202311378516A CN117350927A CN 117350927 A CN117350927 A CN 117350927A CN 202311378516 A CN202311378516 A CN 202311378516A CN 117350927 A CN117350927 A CN 117350927A
Authority
CN
China
Prior art keywords
image
rain
model
input
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311378516.5A
Other languages
English (en)
Inventor
吴渊
杨龙飞
肖云聪
胡雨心
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202311378516.5A priority Critical patent/CN117350927A/zh
Publication of CN117350927A publication Critical patent/CN117350927A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的图像去雨方法,首先收集包含雨滴的图像数据集,并进行预处理;其次构建PReNet模型,用于提取输入图像中的特征,为后续的空间注意力机制提供输入;接着在PReNet模型之后引入空间注意力机制,用于增强模型对感兴趣区域的关注;然后使用标记的图像数据集,对带有注意力机制的PReNet模型进行训练,并优化模型参数;最后将训练好的模型应用于新的图像数据,输出去除雨滴的图像。本方法通过利用带有注意力机制的渐进式网络结构PReNet,然后选择样本进行训练,实现了高效的对单张图片的去雨效果;该网络架构算法更为简洁,算法的运行效率大幅提高,具有很强的实际应用意义。

Description

一种基于深度学习的图像去雨方法
技术领域
本发明属于计算机视觉技术领域,特别是涉及一种基于深度学习的图像去雨方法。
背景技术
生活中的阴雨天气,往往出现浓密的雨滴同时快速降落,对视频捕捉造成遮挡,在执行室外的任务如目标追踪、人脸识别时,视频的清晰度大大降低。因此,若想保留视频图像的清晰度,需要对图像进行去雨处理,近年来已经获得广泛关注。
现有技术中,去雨的技术可分为两种:基于优化的方法和基于深度网络的方法。基于优化的方法主要通过使用不同的正则项分别刻画背景层和雨层的先验结构,然后利用传统的迭代优化算法获得重构后的背景层和雨层。正则化器在表征背景和雨层方面仍有不足,只能在部分场景适用,面对多样雨图时,基于优化的方法在去源性能上仍然受到限制。随着深度学习的发展,卷积网络在去雨技术中也得到了应用。利用样本对架构进行大量地训练,从而获得去雨图。此类方法虽达到了一定的去雨效果,仍然存在缺点。如使用联合检测和去除雨条纹,以及联合雨密度估计和推导,学习方法更加深入和复杂,另外,还有一些轻量级网络,如级联方案和Laplacian金字塔框架,也提高了计算效率,但代价是性能明显下降。
发明内容
本发明目的在于克服上述去雨技术中的局限性,针对运用复杂模型实现去雨的技术问题,提出了一种基于深度学习的图像去雨方法,相较于复杂网络,其结构更简单且拥有较小的模型体积,便于模型的部署。
为了实现本发明目的,本发明公开了一种基于深度学习的图像去雨方法,包括以下步骤:
步骤1、收集包含雨滴的图像数据集,并进行预处理;
步骤2、构建PReNet模型,用于提取输入图像中的特征,为后续的空间注意力机制提供输入;
步骤3、在PReNet模型之后引入空间注意力机制,用于增强模型对感兴趣区域的关注;
步骤4、使用标记的图像数据集,对带有注意力机制的PReNet模型进行训练,并优化模型参数;
步骤5、将训练好的模型应用于新的图像数据,输出去除雨滴的图像。
进一步地,步骤1中,搜集具有雨滴和无雨的图像作为训练数据集,所述图像在同一地点拍摄,以确保场景和光照条件的一致性;同时对图像进行标注,将有雨的图像作为输入,对应的无雨图像作为标签。
进一步地,步骤2中,使用PReNet模型对输入图像进行特征提取;PReNet模型由多个卷积层、池化层和非线性激活函数组成,能够将原始图像转换为更具语义信息的特征表示;所述卷积层和池化层能够逐渐提取图像的低级到高级特征,以捕获图像中的不同尺度信息。
进一步地,第t阶段的PReNet模型推理能够表述为:
xt-0.5=fin(xt-1,y)
st=frecurrent(st-1,xt-0.5)
xt=fout(fres(st))
其中,fin是带relu激活函数的卷积层,frecurrent是带卷积的LSTM,fres是残差模块,t表示阶段数,x表示阶段输入,y表示雨图,s表示循环神经网络的隐藏层;fres和fout是阶段不变的,即网络参数在不同阶段重复使用。
进一步地,步骤3中,引入空间注意力子网络,子网络接收来自PReNet模型的特征图作为输入,并生成与输入特征图相同尺寸的注意力权重图;子网络通过卷积和激活函数Sigmoid生成注意力权重图,用于指示不同位置的特征应该获得的重要性。
进一步地,所述卷积和Sigmoid激活函数公式如下:
其中p为填充大小,d为膨胀系数,s为步长,k为卷积核大小,Lin为输入维度,Lout为输出维度;
其中,x为输入。
进一步地,通过逐层处理输入特征图,注意力子网络计算每个位置上的注意力权重,并将其与原始特征图相乘来生成聚焦后的特征图;注意力权重图表示了每个位置上的重要性权重,越高的权重代表网络应该更关注该位置的特征;聚焦后的特征图与原始特征图进行特征融合,以保留有用的图像细节并抑制雨滴区域的信息。
进一步地,步骤4中,为了使网络能够更好地去除雨滴并保持图像质量,使用已标注的有雨和无雨图像对网络进行监督学习;通过比较生成图像与真实无雨图像之间的差异,使用MSE和负SSIM作为损失函数来优化网络参数:
MSE损失为
其中xT表示网络T阶段的输出,xgt表示真实的无雨图像;
负SSIM损失为
其中xT表示网络T阶段的输出,xgt表示真实的无雨图像。
进一步地,空间注意力子网络采用SAM(Spatial Attention Module)注意力机制,具体流程如下:首先,将输入的特征图分别经过基于宽和高的最大池化和平均池化,对特征映射基于两个维度压缩,得到两个1×1×C的特征图(C为通道数)接着,再将最大池化和平均池化的结果利用共享的全连接层进行处理,先通过一个全连接层下降通道数,再通过另一个全连接恢复通道数;然后,将共享的全连接层所得到的结果进行相加再使用Sigmoid激活函数,进而生成最终的通道注意力特征(channel attention feature),即获得输入特征层每一个通道的权重(0~1之间);最后,将权重通过乘法逐通道加权到输入特征层上。
与现有技术相比,本发明的显著进步在于:1)通过利用带有注意力机制的渐进式网络结构PReNet,然后选择样本进行训练,实现了高效的对单张图片的去雨效果;2)该网络架构算法更为简洁,算法的运行效率大幅提高,具有很强的实际应用意义。
为更清楚说明本发明的功能特性以及结构参数,下面结合附图及具体实施方式进一步说明。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是一种基于深度学习的图像去雨方法总体流程示意图;
图2是PReNet模型总体框架示意图;
图3是模型内部参数示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于深度学习的图像去雨方法,具体步骤如下:
(1)数据预处理:收集包含雨滴的图像数据集,并进行必要的预处理:
搜集一组具有雨滴和无雨的图像作为训练数据集。这些图像在同一地点拍摄,以确保场景和光照条件的一致性。同时,我们对图像进行了标注,将有雨的图像作为输入,对应的无雨图像作为标签。
(2)构建带有注意力机制的PReNet模型:构建一个PReNet模型。该模型用于提取输入图像中的特征,为后续的空间注意力机制提供输入;
使用PReNet对输入图像进行特征提取。PReNet由多个卷积层、池化层和非线性激活函数组成,能够将原始图像转换为更具语义信息的特征表示。这些卷积层和池化层可以逐渐提取图像的低级到高级特征,以捕获图像中的不同尺度信息。第t阶段的PReNet推理可表述为:
xt-0.5=fin(xt-1,y)
st=frecurrent(st-1,xt-0.5)
xt=fout(fres(st))
其中,fin、fres和fout是阶段不变的,即网络参数在不同阶段重复使用。
PreNet渐进式去雨效果:
初始估计的去雨图像:E1=ConvN(X)
第一层去雨操作:R1=ConvR1(E1)
第二层去雨操作:R2=ConvR2(R1)
第M层去雨操作:RM=ConvRM(RM-1)
最终的去雨图像:O=E1+RM
其中,E1是初始估计的去雨图像,它是输入图像的一个估计版本。RM表示去雨操作的最终结果,它包含了多层次的去雨信息。最终的去雨图像O是初始估计图像E1和去雨操作RM的叠加。
(3)引入空间注意力机制:在PreNet模型之后引入空间注意力机制,用于增强模型对感兴趣区域(雨滴区域)的关注。空间注意力机制可以采用SAM(Spatial AttentionModule)注意力机制。该子网络接收来自PReNet的特征图作为输入,并生成与输入特征图相同尺寸的注意力权重图。子网络通过卷积和激活函数(Sigmoid)生成注意力权重图,用于指示不同位置的特征应该获得的重要性。卷积和Sigmoid激活函数公式如下:
其中p为填充大小,d为膨胀系数,s为步长,k为卷积核大小,Lin为输入维度,Lout为输出维度。
其中,x为输入。
通过逐层处理输入特征图,注意力子网络计算每个位置上的注意力权重,并将其与原始特征图相乘来生成聚焦后的特征图。注意力权重图表示了每个位置上的重要性权重,越高的权重代表网络应该更关注该位置的特征。聚焦后的特征图与原始特征图进行特征融合,以保留有用的图像细节并抑制雨滴区域的信息。
(4)训练和调优:使用标记的图像数据集,将PreNet结合空间注意力机制的模型进行训练。通过反向传播算法和适当的损失函数,优化模型参数,使其能够准确地去除图像中的雨滴。
使用已标注的有雨和无雨图像对网络进行监督学习。通过比较生成图像与真实无雨图像之间的差异,我们使用MSE和负SSIM作为损失函数来优化网络参数。
MSE损失为:
负SSIM损失为:
(5)图像去雨应用:在实际应用中,将训练好的模型应用于新的图像数据上。对输入图像进行预处理(如去噪、调整大小等),然后通过PreNet结合空间注意力机制的模型进行图像去雨处理,最终输出去除雨滴的图像。
如图2所示,在步骤2中,输入的特征图会进入第一个卷积层,输出结果会依次进入各个残差模块1至N(N为自行设置的超参数),在步骤3会进入空间注意力模块输出阶段的特征图,由此模型重复迭代T次运行。
如图3所示,在步骤2构建模型时,输入图像大小为3x64x64,N=6,T=1时模型结构和参数。图中第一列为模型的层,第二列为模型输出的大小,第三列为参数量。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (9)

1.一种基于深度学习的图像去雨方法,其特征在于,包括以下步骤:
步骤1、收集包含雨滴的图像数据集,并进行预处理;
步骤2、构建PReNet模型,用于提取输入图像中的特征,为后续的空间注意力机制提供输入;
步骤3、在PReNet模型之后引入空间注意力机制,用于增强模型对感兴趣区域的关注;
步骤4、使用标记的图像数据集,对带有注意力机制的PReNet模型进行训练,并优化模型参数;
步骤5、将训练好的模型应用于新的图像数据,输出去除雨滴的图像。
2.根据权利要求1所述的一种基于深度学习的图像去雨方法,其特征在于,步骤1中,搜集具有雨滴和无雨的图像作为训练数据集,所述图像在同一地点拍摄,以确保场景和光照条件的一致性;同时对图像进行标注,将有雨的图像作为输入,对应的无雨图像作为标签。
3.根据权利要求1所述的一种基于深度学习的图像去雨方法,其特征在于,步骤2中,使用PReNet模型对输入图像进行特征提取;PReNet模型由多个卷积层、池化层和非线性激活函数组成,能够将原始图像转换为更具语义信息的特征表示;所述卷积层和池化层能够逐渐提取图像的低级到高级特征,以捕获图像中的不同尺度信息。
4.根据权利要求3所述的一种基于深度学习的图像去雨方法,其特征在于,第t阶段的PReNet模型推理能够表述为:
xt-0.5=fin(xt-1,y)
st=frecurrent(st-1,xt-0.5)
xt=fout(fres(st)
其中,fin是带relu激活函数的卷积层,frecurrent是带卷积的LSTM,fres是残差模块,t表示阶段数,x表示阶段输入,y表示雨图,s表示循环神经网络的隐藏层;fres和fout是阶段不变的,即网络参数在不同阶段重复使用。
5.根据权利要求1所述的一种基于深度学习的图像去雨方法,其特征在于,步骤3中,引入空间注意力子网络,子网络接收来自PReNet模型的特征图作为输入,并生成与输入特征图相同尺寸的注意力权重图;子网络通过卷积和激活函数Sigmoid生成注意力权重图,用于指示不同位置的特征应该获得的重要性。
6.根据权利要求5所述的一种基于深度学习的图像去雨方法,其特征在于,所述卷积和Sigmoid激活函数公式如下:
其中p为填充大小,d为膨胀系数,s为步长,k为卷积核大小,Lin为输入维度,Lout为输出维度;
其中,x为输入。
7.根据权利要求5所述的一种基于深度学习的图像去雨方法,其特征在于,通过逐层处理输入特征图,注意力子网络计算每个位置上的注意力权重,并将其与原始特征图相乘来生成聚焦后的特征图;注意力权重图表示了每个位置上的重要性权重,越高的权重代表网络应该更关注该位置的特征;聚焦后的特征图与原始特征图进行特征融合,以保留有用的图像细节并抑制雨滴区域的信息。
8.根据权利要求1所述的一种基于深度学习的图像去雨方法,其特征在于,步骤4中,为了使网络能够更好地去除雨滴并保持图像质量,使用已标注的有雨和无雨图像对网络进行监督学习;通过比较生成图像与真实无雨图像之间的差异,使用MSE和负SSIM作为损失函数来优化网络参数:
MSE损失为
其中xT表示网络T阶段的输出,xgt表示真实的无雨图像;
负SSIM损失为
其中xT表示网络T阶段的输出,xgt表示真实的无雨图像。
9.根据权利要求5所述的一种基于深度学习的图像去雨方法,其特征在于,空间注意力子网络采用SAM注意力机制,具体流程如下:首先,将输入的特征图分别经过基于宽和高的最大池化和平均池化,对特征映射基于两个维度压缩,得到两个1×1×C的特征图接着,再将最大池化和平均池化的结果利用共享的全连接层进行处理,先通过一个全连接层下降通道数,再通过另一个全连接恢复通道数;然后,将共享的全连接层所得到的结果进行相加再使用Sigmoid激活函数,进而生成最终的通道注意力特征,即获得输入特征层每一个通道的权重;最后,将权重通过乘法逐通道加权到输入特征层上。
CN202311378516.5A 2023-10-23 2023-10-23 一种基于深度学习的图像去雨方法 Pending CN117350927A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311378516.5A CN117350927A (zh) 2023-10-23 2023-10-23 一种基于深度学习的图像去雨方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311378516.5A CN117350927A (zh) 2023-10-23 2023-10-23 一种基于深度学习的图像去雨方法

Publications (1)

Publication Number Publication Date
CN117350927A true CN117350927A (zh) 2024-01-05

Family

ID=89359180

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311378516.5A Pending CN117350927A (zh) 2023-10-23 2023-10-23 一种基于深度学习的图像去雨方法

Country Status (1)

Country Link
CN (1) CN117350927A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118014892A (zh) * 2024-04-08 2024-05-10 北京航空航天大学 一种基于频率域对比正则的单图像去雨模型构建方法及去雨方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118014892A (zh) * 2024-04-08 2024-05-10 北京航空航天大学 一种基于频率域对比正则的单图像去雨模型构建方法及去雨方法

Similar Documents

Publication Publication Date Title
CN111915530B (zh) 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法
CN111028177B (zh) 一种基于边缘的深度学习图像去运动模糊方法
CN111462013B (zh) 一种基于结构化残差学习的单图去雨方法
CN111915525A (zh) 基于改进深度可分离生成对抗网络的低照度图像增强方法
CN114331886B (zh) 一种基于深度特征的图像去模糊方法
CN117350927A (zh) 一种基于深度学习的图像去雨方法
CN113888426B (zh) 一种基于深度可分离残差网络的电力监控视频去模糊方法
CN115861076A (zh) 基于矩阵分解网络的无监督高光谱图像超分辨率方法
CN111738954A (zh) 一种基于双层空洞U-Net模型的单帧湍流退化图像去畸变方法
CN112241939A (zh) 一种基于多尺度和非局部的轻量去雨方法
CN114463218A (zh) 一种基于事件数据驱动的视频去模糊方法
CN112419191A (zh) 基于卷积神经网络的图像运动模糊去除方法
CN116523897A (zh) 一种基于互导学习的半监督浒苔检测方法及系统
CN115526779A (zh) 一种基于动态注意力机制的红外图像超分辨率重建方法
CN116228789A (zh) 一种基于DeepLabv3+网络的遥感图像分割方法
CN112767277B (zh) 一种基于参考图像的深度特征排序去模糊方法
Guo et al. Image blind deblurring using an adaptive patch prior
CN114202694A (zh) 基于流形混合插值和对比学习的小样本遥感场景图像分类方法
CN117746130A (zh) 一种基于遥感影像点状语义标签的弱监督深度学习分类方法
CN117853735A (zh) 一种单幅图像混合雨水去除方法
Wang et al. Uneven image dehazing by heterogeneous twin network
Su et al. A Survey of Single Image Rain Removal Based on Deep Learning
CN116309077A (zh) 基于空域可变模糊核估计的图像盲超分辨率重建方法
Chen et al. Multi‐scale single image dehazing based on the fusion of global and local features
CN116205821A (zh) 基于垂直条纹特征提取十字卷积的单图去雨方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination