CN112419163B - 一种基于先验知识和深度学习的单张图像弱监督去雾方法 - Google Patents
一种基于先验知识和深度学习的单张图像弱监督去雾方法 Download PDFInfo
- Publication number
- CN112419163B CN112419163B CN201910773439.0A CN201910773439A CN112419163B CN 112419163 B CN112419163 B CN 112419163B CN 201910773439 A CN201910773439 A CN 201910773439A CN 112419163 B CN112419163 B CN 112419163B
- Authority
- CN
- China
- Prior art keywords
- defogging
- image
- training
- foggy
- weak supervision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 53
- 230000006870 function Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 238000005286 illumination Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于先验知识和深度学习的单张图像弱监督去雾方法,包括步骤:一、建立雾化图像训练集;二、构建弱监督去雾模型;三、有雾图像对的去雾训练;四、调取新的有雾图像对,直到训练达到训练步数或者损失值不再下降或损失值小于0.001即停止训练;五、单张实际有雾图像去雾。本发明利用传统先验知识的方法无需训练样本就能得到去雾结果,这种结果虽然并不是最优结果,但却可以作为一种弱监督信息,使深度去雾模型能够更好地进行权重学习,并且无需合成大量训练图像,实现单张图像去雾。
Description
技术领域
本发明属于单张图像去雾技术领域,具体涉及一种基于先验知识和深度学习的单张图像弱监督去雾方法。
背景技术
在雾、霾之类的恶劣天气下采集的图像会由于大气散射的作用出现质量退化现象,使图像颜色偏灰白色,对比度降低,物体特征难以辨认,不仅使视觉效果变差,图像观赏性降低,还会导致图像内容的理解出现偏差。图像去雾就是指用特定的方法和手段,使空气中悬浮微粒对图像的不良影响降低甚至消除。单张图像去雾是指在只有一张有雾图像的条件下,对其进行去雾处理得到清晰的图像。目前单张图像去雾方法主要分为三大类:第一类是基于图像增强的方法,第二类是基于物理模型的方法,第三类是基于深度学习的方法。基于图像增强的方法的本质是对被降质的图像进行增强,改善图像的质量。比如常见的直方均衡、对数变换、幂律变换、锐化、小波变换等。通过这些方法增强图像的对比度或突出图像的特征。与常见的对比度增强方法不同,另一种常见的图像增强的方法是基于颜色恒常性和视网膜皮层理论的Retinex方法。该方法将图像分解为本质图像与照度图像的乘积,从而消除因为受雾霾遮挡的光照因素对图像成像的影响。Retinex方法比传统的对比度提升方法相比,其得到的去雾图像具有更好的局部对比度,颜色失真较小。但由于Retinex方法本身也是一个病态问题,只能进行近似估计,因而也在一定程度上影响了图像去雾效果。
基于物理模型的方法利用大气散射模型(I=JT+(1-T)A,其中I表示有雾图像,J表示无雾图像)分别估计场景介质透视率T与全局大气光照A,从而得到清晰的无雾图像。然而在只有单张有雾图像条件下,估计T和A也是一个病态问题,只能进行近视估计。利用大气散射模型将有雾图像恢复到无雾图像的方法,总体上可以分为三类:第1类是基于深度信息的方法;第2类是基于大气光偏振特性的去雾算法;第3类是基于先验知识的方法。前两类方法通常都需要人工配合,才能得到较好的结果,而第3类方法是目前比较常见的方法,比如基于暗通道统计先验的方法,基于颜色统计先验的方法。这些方法由于是通过统计信息得到的知识,并不能适应所有场景,如基于暗通道先验知识的方法对天空等较亮的区域估计透视系统就会出现偏差,导致去雾后的图像整体偏暗。
基于深度学习的方法利用人工合成的有雾图像数据集和卷积神经网络等技术来实现去雾,具体分为两类:(1)是利用深度神经网络表示大气散射模型,自动学习并估计出对应的T和A。与基于先验知识等方法估计透视系数与大气光照不同,这类方法主要从数据进行学习,从而克服了部分先验知识的偏差,但这类方法通常需要已知场景深度才能合成得到T,以便进行监督学习;(2)在不对T和A作任何假设或者估计的基础上,直接将去雾过程视为图像的变换或者是图像合成。基于图像合成的方法通常利用对比度增强、白平衡等方法对有雾图像进行预处理,然后再通过神经网络学习权重函数,以便融合预处理之后的图像,从而实现去雾。但这种方法容易对预处理图像有较强的依赖性,并且单帧图像处理时间较长。基于图像变换的方法直接利用神经网络学习有雾图像与无雾图像之间的非线性变换函数,从而得到无雾图像。但这种方法因为缺乏真实场景的对照,因而对数据的依赖性非常强。上述方法在模型训练时,需要利用已知深度的图片合成训练数据集,但这些合成数据并不能覆盖实际应用中的各种有雾场景,因而应用于一些浓雾场景或没有相似训练数据的场景时效果比较差。此外,在许多特定场合,收集成对的有雾/无雾图像训练数据是非常困难的。因此,在没有成对监督样本的条件下,如何实现基于深度学习的单张图像的半监督/无监督去雾问题已经成为当前研究的热点问题。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于先验知识和深度学习的单张图像弱监督去雾方法,利用传统先验知识的方法无需训练样本就能得到去雾结果,这种结果虽然并不是最优结果,但却可以作为一种弱监督信息,使深度去雾模型能够更好地进行权重学习,并且无需合成大量训练图像,实现单张图像去雾,便于推广使用。
为解决上述技术问题,本发明采用的技术方案是:一种基于先验知识和深度学习的单张图像弱监督去雾方法,其特征在于,该方法包括以下步骤:
步骤一、建立雾化图像训练集:利用先验知识对收集的真实有雾图像样本{Xi=1...N}进行初步去雾,得到雾化图像训练样本集合{Xi=1...N,Yi=1...N},其中Yi表示与有雾图像Xi对应的先验知识去雾图像,N表示训练样本的数量;
步骤二、构建弱监督去雾模型,过程如下:
步骤201、利用卷积、批归一化以及激活函数构成卷积块,通过连续卷积编码之后,得到原输入图像尺寸1/16的特征图f1/16;
步骤202、对f1/16分别进行1/2、1/4、1/8、1/16尺度的池化和上采样之后,然后将池化上采样之后的特征与f1/16进行叠加得到复合特征fconcat,最后对fconcat进行卷积,并接softmax激活函数用于对图像的旋转角度进行分类;
步骤三、有雾图像对的去雾训练:在训练样本集{Xi=1...N,Yi=1...N}中,随机抽取一对有雾图像对并同步旋转指定角度,然后送入步骤二中建立的弱监督去雾模型中,根据公式L=λ1LC+λ2LR对有雾图像对进行迭代优化,其中,LC、LR分别表示自监督分类损失(预测图像翻转角度)和局部像素级损失;λ1代表自监督分类损失函数的权值参数且取10,λ2代表局部像素级损失函数的权值参数且取100;而K表示图像的分类类别且K取0~4;M表示去雾图像的特征的个数;S表示去雾图像和先验去雾结果中随机截取矩形区域的像素总和;
步骤四、调取新的有雾图像对,循环步骤三,直到训练达到训练步数或者损失值不再下降或损失值小于0.001即停止训练;
步骤五、单张实际有雾图像去雾:利用训练得到的弱监督图像去雾模型进行前向推理得到单张有雾图像的去雾结果。
上述的一种基于先验知识和深度学习的单张图像弱监督去雾方法,其特征在于:步骤三中指定角度为0°、90°、180°或270°。
上述的一种基于先验知识和深度学习的单张图像弱监督去雾方法,其特征在于:步骤一中N大于500。
上述的一种基于先验知识和深度学习的单张图像弱监督去雾方法,其特征在于:步骤四中训练步数为10000。
本发明与现有技术相比具有以下优点:
1、本发明首先利用先验知识对事先收集好的有雾图像进行处理,并构成有雾和近似无雾的成对数据集。然后再利用该数据集进行弱监督的深度去雾模型学习,最后利用学习得到的模型进行有雾图像去雾,在训练过程中并不以对应的清晰图像作为监督样本,只是利用了局部准确的次优去雾结果和有雾图像本身作为监督,能够减少对训练样本的依赖,同时能够更好地适应室外场景,无需大量的合成数据集,能够适应多种有雾场景,且同时具备实时性与准确性优势,便于推广使用。
2、本发明利用局部准确的成对训练样本,进行弱监督图像去雾学习,并利用随机截取区域的绝对值损失作为目标函数进行优化,是一种全新的单张图像去雾思路,适用多种场景下雾霾程度不同的图像增强,可靠稳定,使用效果好。
3、本发明方法步骤简单,进一步增强编码器的特征提取能力,弥补局部准确样本可能带来的影响,通过设置一个分类器对图像旋转进行自监督学习,可以有效提取有雾图像的判别性特征,降低了基于先验知识去雾图像对训练样本的污染,提升图像去雾效果,便于推广使用。
综上所述,本发明利用传统先验知识的方法无需训练样本就能得到去雾结果,这种结果虽然并不是最优结果,但却可以作为一种弱监督信息,使深度去雾模型能够更好地进行权重学习,并且无需合成大量训练图像,实现单张图像去雾,便于推广使用。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明方法的方法流程框图。
具体实施方式
如图1所示,本发明的一种基于先验知识和深度学习的单张图像弱监督去雾方法,包括以下步骤:
步骤一、建立雾化图像训练集:利用先验知识对收集的真实有雾图像样本{Xi=1...N}进行初步去雾,得到雾化图像训练样本集合{Xi=1...N,Yi=1...N},其中Yi表示与有雾图像Xi对应的先验知识去雾图像,N表示训练样本的数量;
步骤二、构建弱监督去雾模型,过程如下:
步骤201、利用卷积、批归一化以及激活函数构成卷积块,通过连续卷积编码之后,得到原输入图像尺寸1/16的特征图f1/16;
步骤202、对f1/16分别进行1/2、1/4、1/8、1/16尺度的池化和上采样之后,然后将池化上采样之后的特征与/>进行叠加得到复合特征fconcat,最后对fconcat进行卷积,并接softmax激活函数用于对图像的旋转角度进行分类;
步骤三、有雾图像对的去雾训练:在训练样本集{Xi=1...N,Yi=1...N}中,随机抽取一对有雾图像对并同步旋转指定角度,然后送入步骤二中建立的弱监督去雾模型中,根据公式L=λ1LC+λ2LR对有雾图像对进行迭代优化,其中,LC、LR分别表示自监督分类损失(预测图像翻转角度)和局部像素级损失;λ1代表自监督分类损失函数的权值参数且取10,λ2代表局部像素级损失函数的权值参数且取100;而K表示图像的分类类别且K取0~4;M表示去雾图像的特征的个数;S表示去雾图像和先验去雾结果中随机截取矩形区域的像素总和;
步骤四、调取新的有雾图像对,循环步骤三,直到训练达到训练步数或者损失值不再下降或损失值小于0.001即停止训练;
步骤五、单张实际有雾图像去雾:利用训练得到的弱监督图像去雾模型进行前向推理得到单张有雾图像的去雾结果。
本实施例中,步骤三中指定角度为0°、90°、180°或270°。
本实施例中,步骤一中N大于500。
本实施例中,步骤四中训练步数为10000。
本发明使用时,首先利用先验知识对事先收集好的有雾图像进行处理,并构成有雾和近似无雾的成对数据集。然后再利用该数据集进行弱监督的深度去雾模型学习,最后利用学习得到的模型进行有雾图像去雾,在训练过程中并不以对应的清晰图像作为监督样本,只是利用了局部准确的次优去雾结果和有雾图像本身作为监督,能够减少对训练样本的依赖,同时能够更好地适应室外场景,无需大量的合成数据集,能够适应多种有雾场景,且同时具备实时性与准确性优势;利用局部准确的成对训练样本,进行弱监督图像去雾学习,并利用随机截取区域的绝对值损失作为目标函数进行优化,是一种全新的单张图像去雾思路,适用多种场景下雾霾程度不同的图像增强;进一步增强编码器的特征提取能力,弥补局部准确样本可能带来的影响,通过设置一个分类器对图像旋转进行自监督学习,可以有效提取有雾图像的判别性特征,降低了基于先验知识去雾图像对训练样本的污染,提升图像去雾效果。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。
Claims (4)
1.一种基于先验知识和深度学习的单张图像弱监督去雾方法,其特征在于,该方法包括以下步骤:
步骤一、建立雾化图像训练集:利用先验知识对收集的真实有雾图像样本{Xi=1...N}进行初步去雾,得到雾化图像训练样本集合{Xi=1...N,Yi=1...N},其中Yi表示与有雾图像Xi对应的先验知识去雾图像,N表示训练样本的数量;
步骤二、构建弱监督去雾模型,过程如下:
步骤201、利用卷积、批归一化以及激活函数构成卷积块,通过连续卷积编码之后,得到原输入图像尺寸1/16的特征图f1/16;
步骤202、对f1/16分别进行1/2、1/4、1/8、1/16尺度的池化和上采样之后,然后将池化上采样之后的特征与f1/16进行叠加得到复合特征fconcat,最后对fconcat进行卷积,并接softmax激活函数用于对图像的旋转角度进行分类;
步骤三、有雾图像对的去雾训练:在训练样本集{Xi=1...N,Yi=1...N}中,随机抽取一对有雾图像对并同步旋转指定角度,然后送入步骤二中建立的弱监督去雾模型中,根据公式L=λ1LC+λ2LR对有雾图像对进行迭代优化,其中,LC、LR分别表示自监督分类损失和局部像素级损失;λ1代表自监督分类损失函数的权值参数且取10,λ2代表局部像素级损失函数的权值参数且取100;而K表示图像的分类类别且K取0~4;M表示去雾图像的特征的个数;S表示去雾图像和先验去雾结果中随机截取矩形区域的像素总和;
步骤四、调取新的有雾图像对,循环步骤三,直到训练达到训练步数或者损失值不再下降或损失值小于0.001即停止训练;
步骤五、单张实际有雾图像去雾:利用训练得到的弱监督图像去雾模型进行前向推理得到单张有雾图像的去雾结果。
2.按照权利要求1所述的一种基于先验知识和深度学习的单张图像弱监督去雾方法,其特征在于:步骤三中指定角度为0°、90°、180°或270°。
3.按照权利要求1所述的一种基于先验知识和深度学习的单张图像弱监督去雾方法,其特征在于:步骤一中N大于500。
4.按照权利要求1所述的一种基于先验知识和深度学习的单张图像弱监督去雾方法,其特征在于:步骤四中训练步数为10000。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910773439.0A CN112419163B (zh) | 2019-08-21 | 2019-08-21 | 一种基于先验知识和深度学习的单张图像弱监督去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910773439.0A CN112419163B (zh) | 2019-08-21 | 2019-08-21 | 一种基于先验知识和深度学习的单张图像弱监督去雾方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112419163A CN112419163A (zh) | 2021-02-26 |
CN112419163B true CN112419163B (zh) | 2023-06-30 |
Family
ID=74780087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910773439.0A Active CN112419163B (zh) | 2019-08-21 | 2019-08-21 | 一种基于先验知识和深度学习的单张图像弱监督去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112419163B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724168B (zh) * | 2021-09-07 | 2022-04-29 | 北京航空航天大学 | 一种飞机图像去雾方法及系统 |
CN115272122B (zh) * | 2022-07-31 | 2023-03-21 | 中国人民解放军火箭军工程大学 | 一种先验引导的单阶段蒸馏图像去雾方法 |
CN115293992B (zh) * | 2022-09-28 | 2022-12-30 | 泉州装备制造研究所 | 基于无监督权重深度模型的偏振图像去雾方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017202061A1 (zh) * | 2016-05-25 | 2017-11-30 | 杭州海康威视数字技术股份有限公司 | 一种图像透雾方法及实现图像透雾的图像采集设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127702B (zh) * | 2016-06-17 | 2018-08-14 | 兰州理工大学 | 一种基于深度学习的图像去雾方法 |
CN108269244B (zh) * | 2018-01-24 | 2021-07-06 | 东北大学 | 一种基于深度学习和先验约束的图像去雾系统 |
CN108765309B (zh) * | 2018-04-26 | 2022-05-17 | 西安汇智信息科技有限公司 | 基于暗通道的线状自适应改进全局大气光的图像去雾方法 |
CN109272455B (zh) * | 2018-05-17 | 2021-05-04 | 西安电子科技大学 | 基于弱监督生成对抗网络的图像去雾方法 |
CN110097519B (zh) * | 2019-04-28 | 2021-03-19 | 暨南大学 | 基于深度学习的双监督图像去雾方法、系统、介质和设备 |
-
2019
- 2019-08-21 CN CN201910773439.0A patent/CN112419163B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017202061A1 (zh) * | 2016-05-25 | 2017-11-30 | 杭州海康威视数字技术股份有限公司 | 一种图像透雾方法及实现图像透雾的图像采集设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112419163A (zh) | 2021-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110929602B (zh) | 一种基于卷积神经网络的地基云图云状识别方法 | |
CN108230264B (zh) | 一种基于ResNet神经网络的单幅图像去雾方法 | |
CN108765325B (zh) | 一种小型无人机模糊图像复原方法 | |
CN111292258B (zh) | 一种基于暗通道和亮通道先验的图像去雾方法 | |
CN112419163B (zh) | 一种基于先验知识和深度学习的单张图像弱监督去雾方法 | |
CN110288550B (zh) | 基于先验知识引导条件生成对抗网络的单张图像去雾方法 | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN110517203B (zh) | 一种基于参考图像重建的去雾方法 | |
Tang et al. | Single image dehazing via lightweight multi-scale networks | |
CN110751612A (zh) | 多通道多尺度卷积神经网络的单幅图像去雨方法 | |
CN110111346B (zh) | 基于视差信息的遥感图像语义分割方法 | |
CN112233129A (zh) | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 | |
CN112070688A (zh) | 一种基于上下文引导生成对抗网络的单幅图像去雾方法 | |
CN112200746A (zh) | 一种雾天交通场景图像的去雾方法和设备 | |
CN113160286A (zh) | 一种基于卷积神经网络的近红外和可见光图像融合方法 | |
CN113487509B (zh) | 一种像素聚类及透射率融合的遥感图像雾气去除方法 | |
CN112907461B (zh) | 一种红外雾天降质图像去雾增强方法 | |
Li et al. | DLT-Net: deep learning transmittance network for single image haze removal | |
CN116452450A (zh) | 一种基于3d卷积的偏振图像去雾方法 | |
CN112767275B (zh) | 一种基于人工稀疏标注信息引导的单张图像去雾方法 | |
CN114882346A (zh) | 一种基于视觉的水下机器人目标自主识别方法 | |
CN112070693A (zh) | 一种基于灰度世界自适应网络的单幅沙尘图像恢复方法 | |
Chen et al. | GADO-Net: an improved AOD-Net single image dehazing algorithm | |
CN115496694B (zh) | 基于改进图像形成模型对水下图像进行恢复和增强的方法 | |
CN114820567B (zh) | 一种基于深度学习的绝缘子检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |