CN115578274A - 一种基于边缘约束的双分支图像去雾方法 - Google Patents

一种基于边缘约束的双分支图像去雾方法 Download PDF

Info

Publication number
CN115578274A
CN115578274A CN202211183243.4A CN202211183243A CN115578274A CN 115578274 A CN115578274 A CN 115578274A CN 202211183243 A CN202211183243 A CN 202211183243A CN 115578274 A CN115578274 A CN 115578274A
Authority
CN
China
Prior art keywords
image
edge
defogging
network
fog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211183243.4A
Other languages
English (en)
Inventor
倪浩钧
袁雪腾
黄羿衡
刘晓东
田劲松
徐东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Collaborative Innovation Intelligent Manufacturing Equipment Co ltd
Original Assignee
Suzhou Collaborative Innovation Intelligent Manufacturing Equipment Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Collaborative Innovation Intelligent Manufacturing Equipment Co ltd filed Critical Suzhou Collaborative Innovation Intelligent Manufacturing Equipment Co ltd
Priority to CN202211183243.4A priority Critical patent/CN115578274A/zh
Publication of CN115578274A publication Critical patent/CN115578274A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于边缘约束的双分支图像去雾方法,包括如下步骤:步骤1:构建图像去雾的数据集;步骤2:利用Canny边缘检测算子获取图像的边缘图,将边缘图和相应的雾图、清晰图构建成一个训练样本;步骤3:训练样本中的图像被随机切分作为网络的输入,并使用数据增强方法扩充样本量;步骤4:搭建基于边缘约束的双分支去雾网络,包含去雾子网络和边缘子网络;步骤5:初始化网络参数,构造目标损失函数以优化双分支去雾网络的参数;步骤6:利用训练模型对测试雾图进行去雾,获取清晰的无雾图像。本发明能够利用边缘约束恢复清晰的无雾图,解决图像去雾任务中修复的图像丢失空间细节与语义不一致问题。

Description

一种基于边缘约束的双分支图像去雾方法
技术领域
本发明涉及图像处理领域,具体涉及一种基于边缘约束的双分支图像去雾方法。
背景技术
雾霾不仅影响了人们的日常出行,也严重影响了场景监控装置的正常运行,反过来也刺激了图像处理领域的图像去雾技术的研究。空气中烟,灰尘,水滴,雾,霾等粒子会吸收或散射大气光,导致成像设备获取一个不清晰的图像。研究图像去雾算法有利于降低雾天对人们生活的影响,有重要的研究意义与经济价值。
传统的图像去雾技术依赖于大气散射模型,利用一些人工发现的先验知识去推测大气光与透射率,进而获取无雾清晰图像。暗通道先验(Dark Channel Prior)观察到无雾图像的一个局部区域,至少有一个颜色通道的像素值非常低。利用暗通道先验可以估计透射率和大气光,进而推断无雾图。然而,含有天空区域或者白色区域的雾图,会严重影响大气光的估计,进而影响无雾图的质量。彩色线先验 (Color-Line Prior)观察到小的图像块在GRB空间会展现一维分布,进而有利于恢复清晰的无雾图。近些年深度学习已经在图像超分辨,图像去噪,图像增强等领域获得了显著的进展。作为启发,深度学习也被用于提升图像去雾的效果。基于深度学习的图像去雾方法分为两种:一种是利用深度学习从大量数据中学习大气光和透射率,另一种是利用深度学习技术直接学习雾图到无雾清晰图的映射。基于深度学习的图像去雾方法虽然能够获取无雾的清晰图,然而生成的无雾图通常会丢失图像的细节与锐利的边缘。
发明内容
为了解决图像去雾任务中修复的图像丢失空间细节与语义不一致问题,本发明提供一种基于边缘约束的双分支图像去雾方法,包括如下步骤:
步骤1:构建图像去雾的数据集,该数据集包含多对图像对:雾图与对应的清晰图;
步骤2:利用Canny边缘检测算子获取图像的边缘图,将边缘图和相应的雾图、清晰图构建成一个训练样本;
步骤3:训练样本中的图像被随机切分为256×256大小的图像块作为网络的输入,并使用随机裁剪、随机反转和随机旋转等方式作为数据增强方法扩充样本量;
步骤4:搭建基于边缘约束的双分支去雾网络,该网络包含两个子网络:去雾子网络和边缘子网络;去雾子网络用于修复雾图,获取清晰的无雾图像;边缘子网络用于抽取图像的边缘特征,边缘特征能帮助去雾子网络修复图像的细节轮廓信息,同时提供一种空间分布的约束,使得双分支去雾网络能够恢复细节清晰、语义一致的无雾图像;
步骤5:初始化网络参数,构造目标损失函数以优化基于边缘约束的双分支去雾网络的参数;
步骤6:利用步骤5获取的训练模型对测试雾图进行去雾,获取清晰的无雾图像。
上述各步骤的具体内容参见实施例。
本发明的优点和有益效果在于:提供一种基于边缘约束的双分支图像去雾方法,能够利用边缘约束恢复清晰的无雾图,解决图像去雾任务中修复的图像丢失空间细节与语义不一致问题。
本发明主要的创新点有:(1)提出一种基于边缘约束的双分支图像去雾网络致力于修复清晰图的细节与轮廓内容;该双分支网络包含一个去雾子网络和一个边缘子网络;去雾子网络致力于修复雾图,获取清晰的无雾图;边缘子网络致力于抽取图像的边缘特征,边缘特征能帮助去雾子网络修复图像的细节轮廓信息,同时提供一种空间分布的约束,使得双分支去雾网络能够恢复细节清晰、语义一致的无雾图像。(2)提出一种边缘信息融合模块,渐进地抽取图像的边缘信息;一个图像的边缘信息能反映图像的空间分布和语义内容;抽取的边缘信息分别在浅层,中间层,深层输入到去雾子网络,渐进地指导图像的去雾与细节修复,同时保持图像内容的语义一致和空间分布一致;边缘信息融合模块包含了两个分支;一个分支利用一个3×3的卷积和 Sigmoid函数生成边缘注意力图,强调了空间分布一致和语义一致;另一个分支包含了拼接操作和一个3×3的卷积用于融合图像的无雾图像和边缘图,保持了图像的细节信息。
附图说明
图1是本发明的结构示意图;
图2是本发明中残差双注意力模块的结构示意图;
图3是本发明中边缘信息融合模块的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
本发明提供一种基于边缘约束的双分支图像去雾方法,包括如下步骤:
步骤1:构建图像去雾的数据集,该数据集包含多对图像对:雾图与对应的清晰图;
步骤2:利用Canny边缘检测算子获取图像的边缘图,将边缘图和相应的雾图、清晰图构建成一个训练样本;
步骤3:训练样本中的图像被随机切分为256×256大小的图像块作为网络的输入,并使用随机裁剪、随机反转和随机旋转等方式作为数据增强手段扩充样本量;
步骤4:搭建基于边缘约束的双分支去雾网络,该网络包含两个子网络:去雾子网络和边缘子网络,如图1所示;去雾子网络用于修复雾图,获取清晰的无雾图像;边缘子网络用于抽取图像的边缘特征,边缘特征能帮助去雾子网络修复图像的细节轮廓信息,同时提供一种空间分布的约束,使得双分支去雾网络能够恢复细节清晰、语义一致的无雾图像;具体的:
去雾子网络的构建步骤如下:去雾子网络首先包含一个3×3的卷积用于提升输入图像的通道数到64,接下来是两个残差双注意力模块提取基本的图像特征用于清晰图的重建,后面紧跟一个边缘信息融合模块,利用边缘子网络获取的边缘信息指导雾图的修复与清晰图的重建,边缘信息能够提供场景的空间分布信息和语义信息,它们有助于网络消除雾等模糊,也有助于保持重建图像的空间分布一致和语义一致;将两个残差注意力模块和一个边缘信息融合模块作为一个基本的去雾单元模块;去雾子网络可包含多个去雾单元模块,但综合考虑模型的效果与模型的复杂度,本发明设置去雾子网络包含3个去雾单元模块;在去雾子网络的后端,一个3×3的卷积模块用于生成清晰的无雾图;
边缘子网络的构建步骤如下:去雾子网络首先包含一个3×3的卷积用于提升网络的通道数到64;然后,残差双注意力模块也被用作边缘子网络的基本卷积单元,该模块有强壮的信息抽取能力,能够抽取图像的轮廓和边缘结构;为了与去雾子网络一致,边缘子网络也包含了3个基本的卷积单元模块;在边缘子网络的后端,一个3×3 的卷积模块用于生成图像的边缘图;边缘子网络用于抽取图像的边缘信息,并分别将不同阶段的边缘信息输入去雾子网络指导图像去雾与图像修复;
进一步地,去雾子网络和边缘子网络的构建步骤中包含的残差双注意力模块是本发明提出的基于边缘约束的双分支去雾网络的基本模块,用于抽取图像的结构信息和语义信息;残差双注意力模块包含一个残差卷积模块,一个双注意力模块和一个残差连接,如图2所示;
残差卷积模块包含两个3×3的卷积和一个残差连接,在第一个卷积模块之后一个Relu激活函数用于增强网络的非线性拟合能力,可具体表示如下:
Y=Conv3(Relu(Conv3(X)))+X,
其中X表示模块的输入,Y表示模块的输出,Conv3表示3×3的卷积,Relu表示非线性激活函数;
双注意力模块包含一个通道注意力模块和一个空间注意力模块;
具体的,通道注意力模块学习通道间响应,能够强调特征图中不同通道的重要性,主要包含一个全局平均池化,两个3×3的卷积,一个Relu激活函数和一个Sigmoid激活函数,可具体表示为:
CA=Sig(Conv3(Relu(Conv3(Pool(X))))),
其中,CA表示通道注意力的输出,X是通道注意力模块的输入, Conv3表示一个3×3的卷积,Relu是非线性激活函数,Sig是Sigmoid 激活函数,Pool是全局平均池化;
具体的,空间注意力模块生成特征图中的空间权重,用于强调特征图中不同像素的重要性,主要包含两个3×3的卷积,一个Relu激活函数和一个Sigmoid激活函数,可具体表示为:
SA=Sig(Conv3(Relu(Conv3(X)))),
其中,SA表示空间注意力模块的输出,X是空间注意力模块的输入,Conv3表示一个3×3的卷积,Relu是非线性激活函数,Sig是 Sigmoid激活函数;
进一步地,去雾子网络的构建步骤中包含的边缘信息融合模块用于融合边缘子网络抽取的边缘信息,用于指导去雾子网络的去雾与细节修复;具体的,边缘信息融合模块包含两个输入,一个来自去雾子网络,另一个来自边缘子网络,如图3所示;来自边缘子网络的边缘信息首先经过一个3×3的卷积和一个Sigmoid函数,用于生成边缘注意力图;边缘注意力图包含了图像的空间分布信息和语义信息,能够约束去雾通道中的空间分布一致和语义一致;然后,边缘信息被拼接到去雾子网络的输入中,最后一个3×3的卷积用于融合图像的边缘信息和去雾信息,有利于恢复图像的细节信息;
步骤5:初始化网络参数,构造目标损失函数以优化基于边缘约束的双分支去雾网络的参数;
具体的,利用Kaiming初始化的方法初始网络的参数,使用Adam 优化器,设置初始学习率为1×10-4,使用余弦退火算法稳定的将学习率减少至1×10-5,目标损失函数包括两部分,一部分为清晰图像的重建损失,另一部分为边缘图像的重建损失,具体表示为:
Loss=||GTimg-Pimg||1+||GTedge-Pedge||1
其中,Loss表示双分支去雾网络的损失,GTimg表示清晰的无雾图像,GTedge表示真值边缘图,Pimg表示预测的无雾图像,Pedge表示预测的边图;
步骤6:利用步骤5获取的训练模型对测试雾图进行去雾,获取清晰的无雾图像。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (8)

1.一种基于边缘约束的双分支图像去雾方法,其特征在于,包括如下步骤:
步骤1:构建图像去雾的数据集,该数据集包含多对图像对:雾图与对应的清晰图;
步骤2:利用Canny边缘检测算子获取图像的边缘图,将边缘图和相应的雾图、清晰图构建成一个训练样本;
步骤3:训练样本中的图像被随机切分为256×256大小的图像块作为网络的输入,并使用随机裁剪、随机反转和随机旋转方式作为数据增强方法扩充样本量;
步骤4:搭建基于边缘约束的双分支去雾网络,该网络包含两个子网络:去雾子网络和边缘子网络;去雾子网络用于修复雾图,获取清晰的无雾图像;边缘子网络用于抽取图像的边缘特征,边缘特征能帮助去雾子网络修复图像的细节轮廓信息,同时提供一种空间分布的约束,使得双分支去雾网络能够恢复细节清晰、语义一致的无雾图像;
步骤5:初始化网络参数,构造目标损失函数以优化基于边缘约束的双分支去雾网络的参数;
步骤6:利用步骤5获取的训练模型对测试雾图进行去雾,获取清晰的无雾图像。
2.根据权利要求1所述的基于边缘约束的双分支图像去雾方法,其特征在于,步骤4中,去雾子网络的构建步骤如下:
去雾子网络首先包含一个3×3的卷积用于提升输入图像的通道数到64,接下来是两个残差双注意力模块提取基本的图像特征用于清晰图的重建,后面紧跟一个边缘信息融合模块,利用边缘子网络获取的边缘信息指导雾图的修复与清晰图的重建,边缘信息能够提供场景的空间分布信息和语义信息,它们有助于网络消除雾等模糊,也有助于保持重建图像的空间分布一致和语义一致;将两个残差注意力模块和一个边缘信息融合模块作为一个基本的去雾单元模块;去雾子网络包含3个去雾单元模块;在去雾子网络的后端,一个3×3的卷积模块用于生成清晰的无雾图。
3.根据权利要求2所述的基于边缘约束的双分支图像去雾方法,其特征在于,步骤4中,边缘子网络的构建步骤如下:
去雾子网络首先包含一个3×3的卷积用于提升网络的通道数到64;然后,残差双注意力模块也被用作边缘子网络的基本卷积单元,该模块有强壮的信息抽取能力,能够抽取图像的轮廓和边缘结构;为了与去雾子网络一致,边缘子网络也包含了3个基本的卷积单元模块;在边缘子网络的后端,一个3×3的卷积模块用于生成图像的边缘图。
4.根据权利要求3所述的基于边缘约束的双分支图像去雾方法,其特征在于,去雾子网络和边缘子网络的构建步骤中的残差双注意力模块,用于抽取图像的结构信息和语义信息;残差双注意力模块包含一个残差卷积模块,一个双注意力模块和一个残差连接。
5.根据权利要求4所述的基于边缘约束的双分支图像去雾方法,其特征在于,残差卷积模块包含两个3×3的卷积和一个残差连接,在第一个卷积模块之后一个Relu激活函数用于增强网络的非线性拟合能力,公式如下:
Y=Conv3(Relu(Conv3(X)))+X,
其中,X表示模块的输入,Y表示模块的输出,Conv3表示3×3的卷积,Relu表示非线性激活函数。
6.根据权利要求4所述的基于边缘约束的双分支图像去雾方法,其特征在于,双注意力模块包含一个通道注意力模块和一个空间注意力模块;
通道注意力模块学习通道间响应,能够强调特征图中不同通道的重要性,包含一个全局平均池化,两个3×3的卷积,一个Relu激活函数和一个Sigmoid激活函数,公式如下:
CA=Sig(Conv3(Relu(Conv3(Pool(X))))),
其中,CA表示通道注意力的输出,X是通道注意力模块的输入,Conv3表示一个3×3的卷积,Relu是非线性激活函数,Sig是Sigmoid激活函数,Pool是全局平均池化;
空间注意力模块生成特征图中的空间权重,用于强调特征图中不同像素的重要性,主要包含两个3×3的卷积,一个Relu激活函数和一个Sigmoid激活函数,公式如下:
SA=Sig(Conv3(Relu(Conv3(X))))
其中,SA表示空间注意力模块的输出,X是空间注意力模块的输入,Conv3表示一个3×3的卷积,Relu是非线性激活函数,Sig是Sigmoid激活函数。
7.根据权利要求2所述的基于边缘约束的双分支图像去雾方法,其特征在于,去雾子网络的构建步骤中:
边缘信息融合模块包含两个输入,一个来自去雾子网络,另一个来自边缘子网络;来自边缘子网络的边缘信息首先经过一个3×3的卷积和一个Sigmoid函数,用于生成边缘注意力图;边缘注意力图包含了图像的空间分布信息和语义信息,能够约束去雾通道中的空间分布一致和语义一致;然后,边缘信息被拼接到去雾子网络的输入中,最后一个3×3的卷积用于融合图像的边缘信息和去雾信息,有利于恢复图像的细节信息。
8.根据权利要求1所述的基于边缘约束的双分支图像去雾方法,其特征在于,步骤5中:
利用Kaiming初始化的方法初始网络的参数,使用Adam优化器,设置初始学习率为1×10-4,使用余弦退火算法稳定的将学习率减少至1×10-5,目标损失函数包括两部分,一部分为清晰图像的重建损失,另一部分为边缘图像的重建损失,公式如下:
Loss=||GTimg-Pimg||1+||GTedge-Pedge||1
其中,Loss表示双分支去雾网络的损失,GTimg表示清晰的无雾图像,GTedge表示真值边缘图,Pimg表示预测的无雾图像,Pedge表示预测的边缘图。
CN202211183243.4A 2022-09-27 2022-09-27 一种基于边缘约束的双分支图像去雾方法 Pending CN115578274A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211183243.4A CN115578274A (zh) 2022-09-27 2022-09-27 一种基于边缘约束的双分支图像去雾方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211183243.4A CN115578274A (zh) 2022-09-27 2022-09-27 一种基于边缘约束的双分支图像去雾方法

Publications (1)

Publication Number Publication Date
CN115578274A true CN115578274A (zh) 2023-01-06

Family

ID=84583433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211183243.4A Pending CN115578274A (zh) 2022-09-27 2022-09-27 一种基于边缘约束的双分支图像去雾方法

Country Status (1)

Country Link
CN (1) CN115578274A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116978052A (zh) * 2023-07-21 2023-10-31 安徽省交通规划设计研究总院股份有限公司 基于改进YOLOv5的桥梁设计图的子图布局识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116978052A (zh) * 2023-07-21 2023-10-31 安徽省交通规划设计研究总院股份有限公司 基于改进YOLOv5的桥梁设计图的子图布局识别方法
CN116978052B (zh) * 2023-07-21 2024-04-09 安徽省交通规划设计研究总院股份有限公司 基于改进YOLOv5的桥梁设计图的子图布局识别方法

Similar Documents

Publication Publication Date Title
Yeh et al. Multi-scale deep residual learning-based single image haze removal via image decomposition
CN108921799B (zh) 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法
Wang et al. Dehazing for images with large sky region
Xu et al. Image inpainting by patch propagation using patch sparsity
Shen et al. UDAformer: Underwater image enhancement based on dual attention transformer
CN110517203B (zh) 一种基于参考图像重建的去雾方法
Feng et al. URNet: A U-Net based residual network for image dehazing
Ma et al. Automatic defogging, deblurring, and real-time segmentation system for sewer pipeline defects
CN111161360B (zh) 基于Retinex理论的端到端网络的图像去雾方法
CN104217404A (zh) 雾霾天视频图像清晰化处理方法及其装置
CN113870128B (zh) 一种基于深度卷积对抗式网络的数字壁画图像修复方法
CN111127354A (zh) 一种基于多尺度字典学习的单图像去雨方法
CN111179196B (zh) 一种基于分而治之的多分辨率深度网络图像去高光方法
Dwivedi et al. Single image dehazing using extended local dark channel prior
CN113066025A (zh) 一种基于增量学习与特征、注意力传递的图像去雾方法
CN112164010A (zh) 一种多尺度融合卷积神经网络图像去雾方法
CN110807744A (zh) 一种基于卷积神经网络的图像去雾方法
CN115953311A (zh) 基于Transformer的多尺度特征表示的图像去雾方法
CN115578274A (zh) 一种基于边缘约束的双分支图像去雾方法
Hao et al. Texture enhanced underwater image restoration via laplacian regularization
CN116051407A (zh) 一种图像修复方法
Fang et al. Single image dehazing and denoising with variational method
Qiao et al. Mutual channel prior guided dual-domain interaction network for single image raindrop removal
CN112085680A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN115965844B (zh) 基于视觉显著性先验知识的多聚焦图像融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination