CN111553851B - 一种基于时间域的雨线分解和空间结构引导的视频去雨方法 - Google Patents
一种基于时间域的雨线分解和空间结构引导的视频去雨方法 Download PDFInfo
- Publication number
- CN111553851B CN111553851B CN202010269096.7A CN202010269096A CN111553851B CN 111553851 B CN111553851 B CN 111553851B CN 202010269096 A CN202010269096 A CN 202010269096A CN 111553851 B CN111553851 B CN 111553851B
- Authority
- CN
- China
- Prior art keywords
- rain
- frame
- network
- video
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 10
- 230000004927 fusion Effects 0.000 claims abstract description 5
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 238000011084 recovery Methods 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 238000002360 preparation method Methods 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 abstract description 3
- 230000001419 dependent effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
Abstract
本发明属于计算机视觉技术领域,提供了一种基于时间域的雨线分解和空间结构引导的视频去雨方法。我们从位置和强度两个方面处理每帧的雨条纹,定义了一种可学习的分解方式来学习雨分布,位置引导图作用于与强度有关的单帧去雨块上,以准确地去除雨条纹。其次,我们构建带有边缘引导图的多帧融合模块,以融合时间空间信息,同时恢复背景并保留更多细节。大量实验表明,与其他最新方法相比,我们的算法在视频去雨任务方面表现出色。关于网络架构的消融性实验充分表明了我们的网络的有效性。
Description
技术领域
本发明属于计算机视觉领域,涉及一种基于时间域的雨线分解和空间结构引导的视频去雨方法。
背景技术
在日常生活当中,人们经常会受到恶劣天气的影响,比如大雾天气、大雪天气、暴雨天气,这些恶劣天气不仅影响着人们的正常出行,还会对拍摄的图像或者视频造成干扰降质。
在室外计算机视觉应用中,降雨算是比较常见的恶劣天气条件,同时也是一个具有挑战性的问题,会在小部分区域造成严重的强度和光线波动,人们的视线的可见度和摄像设备的清晰程度都会受到很大影响,这些设备拍摄到的照片和录像会出现图像降质、噪声增多遮挡重要背景信息、应用信息较少等情况,在不同的领域中都会遇到这样的问题,图像噪声多、细节信息缺实在很多时候会影响使用者的使用和视觉系统本身的性能降低。因此,在实际的视频分析场景中,消除视频序列中的雨线至关重要。由于有雨视频序列是在室外拍摄的,周围环绕着各种移动物体,因此很难将雨水条纹与复杂的背景纹理完全区分开。因此,由于降雨的稀疏性和不对称性以及相关的定义降雨条纹的复杂程度,在计算机视觉研究中越来越重视去雨问题,因为目前的方法仍然存在些许问题,例如存在细节模糊平滑,以及不理想的去雨效果。
现在已经有人提出了很多种方法来提升在有雨条件下拍摄照片和视频的能见度,这些方法总体来说可以被分成两类:基于视频的去雨方法和基于单幅图像的去雨方法。
基于图像的去雨方法是大多数研究人员研究的热点,比较新提出的一种方法是将输入图像分成低频部分(结构层)和高频部分(细节层)两部分进行去雨的方式。高频部分包括了雨迹和物体的边缘信息。这个方法尝试使用利用HOG特征的基于字典学习的稀疏表示方法将雨迹从高频部分分离出来。将图像的低频部分和分离后的高频部分的相结合的方式获得输出去雨的图像。尽管分解的想法很简洁,但是其设计的网络结构十分复杂,而且效果也不是十分理想。这种方式产生的结果都会由于高频部分的缺失使背景变得模糊。这个问题在采用相似想法的方法中都有体现。还有部分方法假设椭圆形,垂直方向的痕迹为雨滴并使用非线性的均值滤波方式来去除雨迹。这种方式对于部分雨迹的例子是有效果的,但是并不是所有雨滴的角度,比例和密度都是一样的,所以他对一些特定的雨迹识别效果非常差。目前,在处理单幅图像去雨的问题上深度学习算法成为了主流,深度卷积神经网络对特征的强大表达能力为刻画雨的特征提供了很好的基础。在使用卷积神经网络处理去雨的方法中,一种用于单幅图像去雨的网络体系结构,利用深度残差网络(ResNet)作为主干的去雨网络并结合图像处理领域的方法将输入和输出映射到更加稀疏的黑色背景中,这样更容易训练网络,解决了网络难以训练的问题。
有的方法考虑了到之前针对去雨的算法没有考虑在内的雨的密度信息,并结合密集连接网络设计了带有区别雨线密度信息的多流密集连接网络。有的方法提出了一种新的有雨图像的建模和新颖的单幅图像去雨网络算法,能够很好的处理大雨和雨中带有雾气的情况。但是这些算法有的对雨线特征刻画的不完整导致去雨不干净,有些算法的结果导致图像过度平滑,图像背景恢复的不够完好。
还有一部分是基于视频的去雨方法,与单幅图像去雨方法相比,视频去雨依赖的更多的是时间信息,通过利用相邻几帧的时间信息来补充当前帧的缺失信息。早期的去雨方法都是一些视频片段的雨迹检测和去除的方法。这些检测方法都基于两个假设条件:第一,由于雨线是动态的,他们在一小段连续帧间的像素值变化非常大。第二,由于画面中的其他物体也有可能是动态变化的,可以通过使用验证条状像素值变化是否和背景的像素值变化呈线性相关的方法将动态变换的物体和雨线进行区分。第二条限制条件可以减少将视频帧中的其他动态变化物体误当作雨线进行处理的情况。从视频帧中检测到雨线之后,可以通过对视频帧前后连续帧中的相应位置像素值中取平均值来替代原来检测出为雨线的点的像素值的方式来去除视频帧中的雨线。
随着时间推移,基于传统物理和数学建模的视频去雨方法显现出很多明显问题,例如先验设计复杂,耗费时间长,去雨效果不理想等等。现在基于深度学习神经网络的视频去雨方法逐渐崭露头角,利用大量数据训练联合深度网络模型,形成可学习的网络结构,可以很好地解决视频中大雨小雨的问题。但是还是存在由于雨定位不准确,导致去雨效果不好,周边背景细节没有较为完整的保留的问题。
发明内容
我们提出了一种基于时间域的雨线分解和空间结构引导的多帧去雨网络,以更有效地完成视频去雨。具体来说,我们从位置和强度两个方面处理每帧的雨条纹,定义了一种可学习的分解方式来学习雨分布,位置引导图作用于与强度有关的单帧去雨块上,以准确地去除雨条纹。然后,我们构建带有边缘引导图的多帧融合模块,以融合时间空间信息,同时恢复背景并保留更多细节。
本发明的技术方案:
一种基于时间域的雨线分解和空间结构引导的视频去雨方法,步骤如下:
步骤一、单帧增强模块(SFE-Module)的构建
在视频去雨的单帧增强模块(SFE-Module)中,雨的模型表示如下:
Ot=Bt+Mt·Rt t=1,2,…,N (1)
其中,Ot为要对其进行去雨恢复的有雨视频帧,Bt为去雨后的清晰的背景视频帧,Rt为雨条纹,Mt代表雨条纹位置特征,称为位置特征图;t和N分别表示当前时间步长和带有视频帧的总数;构建的单帧增强模块将雨条纹分解成雨位置和雨强度特征,更能精准描述雨的特性。
对于雨条纹的强度特征,建立单帧去雨子模块(SD-Block)以估计雨条纹的强度,作为先行步骤;单帧去雨子模块是编码器-解码器(Encoder-Decoder)的结构,类似于U-Net架构。为了准确地预测雨条纹强度,使用六个密集块来代替卷积层,从而增强了网络结构。
为了充分利用当前帧的空间信息,构建带有雨条纹检测的位置特定子模块(LS-Block),它由三个卷积层(convolution layer),一个平均池化层(average poolinglayer)和两个完全连接(FC)层组成;位置特定子模块为雨线区域分配不同的权重,着重于雨条纹的位置,并可自适应地重新校准每个区域的特征;利用雨条纹层获得特定雨位置的特征图,并将这些权重参数乘以单帧去雨子模块,更准确地描述雨条纹的分布。通过单帧去雨子模块(SD-Block)和位置特定子模块(LS-Block)可准确地定位雨条纹并更好地估计每帧的背景信息。
步骤二、多帧融合模块(MFF-Module)的构建
对于视频去雨来说,如何引入时间信息特征最为关键。我们对单帧增强模块(SFE-Module)中的背景进行了初步估计。预处理后的帧被输入到逐帧对齐子模块(FA-Block),并计算帧与帧之间的运动,以更准确地填充雨区域。
我们假设fi→(i+1)表示第i个帧与第i+1个帧之间的光流,并且选择中间帧作为参考帧。如图1所示,我们首先使用SpyNet提取光流,该SpyNet是由四个相同的子网络组成的空间金字塔网络来估计光流量,并且预训练好该网络。光流估计网络由具有相同结构和参数的n-1个(n为输入网络的视频帧数)SpyNet组成,每个SpyNet选择输入的某一帧,并将参考帧和选择帧一起作为输入进行估计光流。然后,通过使用不同的流(fi→(i+1),f(i-1)→i)和下一步的扭曲(warp)操作将所有输入帧返回到参考帧。最后,我们可以获得包括参考帧在内的一些相似帧。在该网络中,部分雨区域被恢复,为进行多帧去雨阶段做准备。
其中表示参考帧,即YUV域中输入的Y通道。i,j表示图像的x和y方向的像素索引。由于得到的结构特征图应包含较少的虚假细节,因此我们将细节特征图的Y通道作为附加通道应用于多帧去雨子模块(MD-Block),来引导保留更多细节并改善帧的质量,如图1所示。
作为所提出的网络的最后阶段,多帧去雨子模块(MD-Block)是深层残差结构,该模块只含一个残差块,起到最终的图像重建作用。我们将扭曲帧,参考帧和有关当前帧的细节特征图作为输入送到该子模块中,并使用Concat层叠加通道以达到集成信息的目的,Concat层是为了将所有层得到的特征图聚合,然后再通过1*1的卷积对其进行降维处理,得到最终输出的通道数,并将多帧融合为一帧,输出最后的结果。
本发明的有益效果:能够实现端到端的视频去雨并且算法的性能优越,通过消融研究验证了不同网络模块的有效性。在合成和真实的有雨视频序列上进行的大量实验证明了我们相对于其他最新方法的优越性。
本发明针对视频去雨的问题提出的去雨方法在处理小雨以及复杂雨(多种雨线堆叠)的去雨情况有很好的表现效果,不仅能够将当前帧的各种方向堆叠的雨线去除干净,而且还能够很好地恢复当前帧的背景信息,保留较为完整的细节信息。
附图说明
图1是本发明的算法网络结构图。
图2是本发明的结构引导模块结果示意图(Structure Guidance Block)。
图3是本发明在合成数据上的结果展示示意图;其中,(a)、(c)、(e)和(g)为雨图,(b)、(d)、(f)和(h)为对应的结果图。
图4是本发明在真实数据上的结果展示示意图;其中,(a)、(c)、和(e)为真实雨图,(b)、(d)、(f)为对应的算法结果图。
图5是本发明在连续帧上的结果展示示意图;(a)、(b)和(c)为连续的三帧雨图,(d)、(e)和(f)为对应的连续的三帧去雨结果图。
具体实施方式
本发明采用的是新颖的、端到端的联合深度卷积神经网络用来实现视频去雨,该方法的具体实现步骤为:准备数据处理数据集-训练网络算法-测试算法性能结果-反复调参使得性能最优。具体的细节如下:我们将单帧增强模块和多帧融合模块分开进行训练,接着再联合训练。在网络训练过程中,调整图像的大小使其大于352*288。由于网络是完全卷积的,并且将训练的批次数量设置为1,输入图像的大小不需要笃定大小。在训练过程中,使用Adam优化器(权重衰减率为0.0001)来迭代更新网络的参数(调参),小雨数据库的epoch设置为80,大雨数据库的epoch设置为30,将初始的学习率设置为0.0001,将输入帧数量定为7帧。
在设计网络的损失函数方面,本发明刻画的是经过所提出网络去雨之后的恢复帧与真实无雨帧Ground Truth(Y)的相差程度,损失值越小说明模型对数据的拟合越好,由于雨迹的特征比较复杂,因此在网络中刻画雨迹特征时选择均方误差MSE(mean squarederror)函数作为训练的损失函数L,如下所示:
Claims (1)
1.一种基于时间域的雨线分解和空间结构引导的视频去雨方法,其特征在于,步骤如下:
步骤一、单帧增强模块的构建
在视频去雨的单帧增强模块中,雨的模型表示如下:
Ot=Bt+Mt·Rt t=1,2,…,N (1)
其中,Ot为要对其进行去雨恢复的有雨视频帧,Bt为去雨后的清晰的背景视频帧,Rt为雨条纹,Mt代表雨条纹位置特征,称为位置特征图;t和N分别表示当前时间步长和带有视频帧的总数;构建的单帧增强模块将雨条纹分解成雨位置和雨条纹的强度特征,更精准描述雨的特性;
对于雨条纹的强度特征,建立单帧去雨子模块以估计雨条纹的强度,作为先行步骤;单帧去雨子模块是编码器-解码器的结构;为了准确地预测雨条纹强度,使用六个密集块来代替卷积层,从而增强了网络结构;
为了充分利用当前帧的空间信息,构建带有雨条纹检测的位置特定子模块,它由三个卷积层,一个平均池化层和两个完全连接层组成;位置特定子模块为雨线区域分配不同的权重,着重于雨条纹的位置,并可自适应地重新校准每个区域的特征;利用雨条纹层获得特定雨位置的特征图,并将这些权重参数乘以单帧去雨子模块,更准确地描述雨条纹的分布;通过单帧去雨子模块和位置特定子模块可准确地定位雨条纹并更好地估计每帧的背景信息;
步骤二、多帧融合模块的构建
对单帧增强模块中的背景进行初步估计;预处理后的帧被输入到逐帧对齐子模块,并计算帧与帧之间的运动,以更准确地填充雨区域;
假设fi→(i+1)表示第i个帧与第i+1个帧之间的光流,并且选择中间帧作为参考帧;首先使用SpyNet提取光流,SpyNet是由四个相同的子网络组成的空间金字塔网络来估计光流量,并且预训练好该网络;光流估计网络由具有相同结构和参数的n-1个SpyNet组成,每个SpyNet选择输入的某一帧,并将参考帧和选择帧一起作为输入进行估计光流,n为输入网络的视频帧数;然后,通过使用不同的流(fi→(i+1),f(i-1)→i)和下一步的扭曲操作将所有输入帧返回到参考帧;最后,获得包括参考帧在内的一些相似帧;在该网络中,部分雨区域被恢复,为进行多帧去雨阶段做准备;
其中,表示参考帧,即YUV域中输入的Y通道;i,j表示图像的x和y方向的像素索引;由于得到的结构特征图应包含较少的虚假细节,因此将细节特征图的Y通道作为附加通道应用于多帧去雨子模块,来引导保留更多细节并改善帧的质量;
作为所提出的网络的最后阶段,多帧去雨子模块是深层残差结构,该模块只含一个残差块,起到最终的图像重建作用;将扭曲帧,参考帧和有关当前帧的细节特征图作为输入送到多帧去雨子模块中,并使用Concat层叠加通道以达到集成信息的目的,Concat层是为了将所有层得到的特征图聚合,然后再通过1*1的卷积对其进行降维处理,得到最终输出的通道数,并将多帧融合为一帧,输出最后的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010269096.7A CN111553851B (zh) | 2020-04-08 | 2020-04-08 | 一种基于时间域的雨线分解和空间结构引导的视频去雨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010269096.7A CN111553851B (zh) | 2020-04-08 | 2020-04-08 | 一种基于时间域的雨线分解和空间结构引导的视频去雨方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111553851A CN111553851A (zh) | 2020-08-18 |
CN111553851B true CN111553851B (zh) | 2022-09-23 |
Family
ID=72000618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010269096.7A Active CN111553851B (zh) | 2020-04-08 | 2020-04-08 | 一种基于时间域的雨线分解和空间结构引导的视频去雨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111553851B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651898B (zh) * | 2021-01-12 | 2023-04-07 | 北京大学 | 一种基于记忆增强的视频去雨方法与装置 |
CN112734672B (zh) * | 2021-01-13 | 2022-09-20 | 大连理工大学 | 基于注意力形变卷积自动搜索的实时视频去雨方法 |
CN112686828B (zh) * | 2021-03-16 | 2021-07-02 | 腾讯科技(深圳)有限公司 | 视频去噪方法、装置、设备及存储介质 |
CN113870129B (zh) * | 2021-09-15 | 2024-05-24 | 大连理工大学 | 基于空间感知与时间差异学习的视频去雨方法 |
CN114677306B (zh) * | 2022-03-29 | 2022-11-15 | 中国矿业大学 | 一种基于边缘信息引导的上下文聚合图像去雨方法 |
CN117953445B (zh) * | 2024-03-26 | 2024-05-28 | 南京大学 | 基于交通监控相机雨天道路能见度测定方法、系统及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443761A (zh) * | 2019-07-16 | 2019-11-12 | 大连理工大学 | 一种基于多尺度聚合特征的单幅图像去雨方法 |
CN110751612A (zh) * | 2019-11-05 | 2020-02-04 | 哈尔滨理工大学 | 多通道多尺度卷积神经网络的单幅图像去雨方法 |
-
2020
- 2020-04-08 CN CN202010269096.7A patent/CN111553851B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443761A (zh) * | 2019-07-16 | 2019-11-12 | 大连理工大学 | 一种基于多尺度聚合特征的单幅图像去雨方法 |
CN110751612A (zh) * | 2019-11-05 | 2020-02-04 | 哈尔滨理工大学 | 多通道多尺度卷积神经网络的单幅图像去雨方法 |
Non-Patent Citations (1)
Title |
---|
自然场景图像去雨的可学习混合MAP网络;马龙等;《中国图象图形学报》;20180216(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111553851A (zh) | 2020-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111553851B (zh) | 一种基于时间域的雨线分解和空间结构引导的视频去雨方法 | |
Yang et al. | Scale-free single image deraining via visibility-enhanced recurrent wavelet learning | |
Yang et al. | Joint rain detection and removal from a single image with contextualized deep networks | |
CN109360155B (zh) | 基于多尺度特征融合的单帧图像去雨方法 | |
Liu et al. | Erase or fill? deep joint recurrent rain removal and reconstruction in videos | |
CN110503613B (zh) | 基于级联空洞卷积神经网络的面向单幅图像去雨方法 | |
CN110223242B (zh) | 一种基于时空域残差生成对抗网络的视频湍流移除方法 | |
CN110443761B (zh) | 一种基于多尺度聚合特征的单幅图像去雨方法 | |
CN111754438B (zh) | 基于多分支门控融合的水下图像复原模型及其复原方法 | |
CN109360156A (zh) | 基于生成对抗网络的图像分块的单张图像去雨方法 | |
CN108269244B (zh) | 一种基于深度学习和先验约束的图像去雾系统 | |
Huang et al. | Selective wavelet attention learning for single image deraining | |
CN116797488A (zh) | 一种基于特征融合与注意力嵌入的低照度图像增强方法 | |
CN111161360A (zh) | 基于Retinex理论的端到端网络的图像去雾方法 | |
Fan et al. | Multiscale cross-connected dehazing network with scene depth fusion | |
CN110111267A (zh) | 一种基于优化算法结合残差网络的单幅图像除雨方法 | |
CN111696033A (zh) | 基于角点引导级联沙漏网络结构学习的真实图像超分辨率模型及方法 | |
Chen et al. | Image denoising via deep network based on edge enhancement | |
Liang et al. | Learning to remove sandstorm for image enhancement | |
CN117994167B (zh) | 融合并行多卷积注意力的扩散模型去雾方法 | |
Gao et al. | Efficient multi-scale network with learnable discrete wavelet transform for blind motion deblurring | |
Ponomaryov et al. | Fuzzy color video filtering technique for sequences corrupted by additive Gaussian noise | |
Zhang et al. | Multi-scale attentive feature fusion network for single image dehazing | |
CN116703750A (zh) | 基于边缘注意力和多阶微分损失的图像去雾方法及系统 | |
CN115760640A (zh) | 基于含噪Retinex模型的煤矿低光照图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |