CN111681178A - 一种基于知识蒸馏的图像去雾方法 - Google Patents
一种基于知识蒸馏的图像去雾方法 Download PDFInfo
- Publication number
- CN111681178A CN111681178A CN202010441054.7A CN202010441054A CN111681178A CN 111681178 A CN111681178 A CN 111681178A CN 202010441054 A CN202010441054 A CN 202010441054A CN 111681178 A CN111681178 A CN 111681178A
- Authority
- CN
- China
- Prior art keywords
- network
- defogging
- image
- student
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013140 knowledge distillation Methods 0.000 title claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 10
- 238000004088 simulation Methods 0.000 claims description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000004821 distillation Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 230000008447 perception Effects 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 230000003278 mimic effect Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000013461 design Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000013341 scale-up Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000002474 experimental method Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000002679 ablation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
一种基于知识蒸馏的图像去雾方法,属于图像处理与深度学习技术领域。通过模仿异构任务的知识来训练图像去雾网络,包含两个子网络:一个是教师网络,由自编码网络构成;另一个是学生去雾网络,为端到端去雾网络。教师网络的目标是学习干净图像的特征表示,学生去雾网络的目的是通过模拟干净图像的特征表示将有雾图像映射到清晰图像;学生去雾网络通过学习教师网络所包含的暗知识来提升去雾网络的性能。
Description
技术领域
本发明属于图像处理与深度学习技术领域,尤其是涉及一种基于知识蒸馏的图像去雾方法。
背景技术
在人工智能被认为是第四次工业革命以来,全球顶尖、最有影响力的技术公司如google、facebook等都将目光转向AI。神经网络在计算机视觉,自然语言处理等方面的贡献是毋庸置疑的,随着算法的不断完善,部分垂直领域的研究已经落地应用。在计算机视觉领域,目前神经网络的应用主要有图像识别、目标定位与检测、语义分割等。图像识别就是告诉你图像是什么,目标定位与检测告诉你图像中目标在哪里,语义分割则是从像素级别回答上面两个问题。随着深度学习的兴起,语义分割取得了显著的进步。近年来,更多的焦点转移到通过实现对特殊应用如医学图像诊断、城市规划和道路提取以及无人车对道路的识别等问题上来。这些特殊的应用往往是包含2MB高分辨率或4MB超高分辨率图像,若将原图直接输入到流行的语义分割模型中,标准的GPU设备很难承受如此巨大的计算负担,并且要花费大量时间。若采取简单地将原图下采样再输入到流行的语义分割模型中,则会损失过多的细节信息,很难得到好的分割结果。因此,如何对高分辨率以及超高分辨率图像的语义分割取得计算资源消耗、推理速度和准确率三者之间权衡成了一个炙手可热的研究方向。
先进的深度去雾模型的训练通常是非常困难的,知识的蒸馏为知识的获取和模仿铺平了道路。然而,大部分的知识提取方法用于图像的分类和分割以及目标检测,很少有人研究提取图像恢复并使用不同的任务进行知识迁移。
发明内容
本发明的目的在于针对上述端到端图像去雾网络训练困难和预测精度低等问题,提供一种基于知识蒸馏的图像去雾方法。
本发明包括以下步骤:
1)构建教师网络,采用编码器-解码器结构作为教师网络,用于学习干净图像的特征表示,所述教师网络由下采样模块、骨干模块和上采样模块组成;
2)构建学生去雾网络,使用短跳跃和长跳跃连接构成一个深的网络作为学生去雾网络,用于通过模拟干净图像的特征表示将有雾图像映射到清晰图像;所述学生去雾网络的骨干模块由若干个长残差模块RIR构成,每个RIR模块由若干个空间加权的通道注意力残差模块SWRCAB组成;学生去雾网络与教师网络具有相同的架构;
3)使用无监督学习的方式训练优化教师网络;
4)使用有雾图像和干净图像对训练优化学生去雾网络;
5)采用平均绝对误差来测量ground-truth与去雾结果的区别,得到重建结果;
6)用感知损失来测量ground-truth与去雾结果之间特征表示的差异;
7)学生去雾网络通过模拟教师网络的特征表示来学习教师网络的暗知识,实现学生去雾网络性能的提升,实现图像去雾。
在步骤1)中,所述下采样模块使用两个3×3的卷积层将输入图像缩小为原来的1/16,每个卷积层后接着一个ReLU层;所述骨干模块由6个残差块构成,每个残差块由convolution-ReLU-convolution-Add的形式构建,没有进行批处理规范化;所述上采样模块使用两个3×3卷积层,每个卷积层后接着一个ReLU层,然后使用双线性上采样层将特征放大到原来的尺寸,紧接着通过一个Tanh激活函数,所有卷积层都有64个通道。
在步骤2)中,所述学生去雾网络的骨干模块由若干个长残差模块RIR构成的具体步骤包括:
(1)对于输入特征f每个RIR模块的输出为:
f=f+SWRCABn(…SWRCAB1(f))
其中,SWRCAB()为SWRCAB模块的操作;
(2)对于输入特征f,RIR模块首先使用一个conv-relu模块提取特征f1,然后使用一个conv-sigmoid获取特征f1的空间权重w,使用一个conv层对f1进行变换得到f2,使用w对f2进行加权得到f3,接着提取空间加权特征的通道注意力,即使用全局平均池化-全连接-Sigmoid的串联结构提取特征的通道注意力C,最后得到通道加权特征f4=C*f2,RIR模块的输出为f=f+f4。
在步骤3)中,所述优化教师网络的损失函数为:
LT=||J-T(J)||1
其中,T为教师网络,J为输入的干净图像。
在步骤4)中,所述优化学生去雾网络的损失函数为:
LS=Lr+λpLp+λrmLrm,
其中,Lr为重建损失,Lp为感知损失,Lrm指的是模仿损失的表象,其目的是模仿干净图像域的特征表示,λp和λrm为权重系数。
在步骤5)中,所述平均绝对误差表示为:
Lr=||S(I)-J||1
其中,S(I)表示去雾结果,J表示ground-truth。
在步骤6)中,所述感知损失表示为:
其中,Φi表示特征提取算子的第i层,Mi为使用的特征层数。
在步骤7)中,所述学生去雾网络通过模拟教师网络的特征表示来学习教师网络的暗知识的具体方法可为:
设计特征匹配模仿损失(FMIL),假设Tm(J)表示教师网络使用干净图像J作为输入时的第m层的特征映射,Sn(I)表示将学生网络使用有雾图像I作为输入时第n层的特征映射,设g为线性变换函数,则FMIL表示为:
其中,C是一组候选特征表示对。
本发明中提出一种基于知识蒸馏的图像去雾网络,利用异构任务的知识模仿训练图像去雾网络。本发明提供的基于知识蒸馏的图像去雾方法包含两个网络,一个是教师网络,由自编码网络构成;另一个是学生去雾网络,为端到端去雾网络。教师网络的目标是学习干净图像的特征表示,学生去雾网络的目的是通过模拟干净图像的特征表示将有雾图像映射到清晰图像;学生去雾网络通过学习教师网络所包含的暗知识来提升图像去雾性能。
与现有技术相比,本发明具有以下突出的优点:
1、本发明提出了一种基于知识蒸馏的图像去雾方法,通过设计教师网络来学习干净图像的暗知识和重建过程,并使用特征模仿损失来模拟教师网络的知识,实现学生去雾网络性能的提升,本发明所提出方法具有较好的去雾效果。
2、本发明所提出的通道注意力残差模块SWRCAB可以自适应地更加关注雾气浓度更高的区域,提取出更具有表征的特征,解决了现有技术无法区分低浓度和高浓度的雾区域的问题。
附图说明
图1为本发明方法的整体网络结构图。
图2为本发明网络结构中的空间加权的通道注意力残差模块(SWRCAB)的结构图。
图3为本发明实现的学生去雾网络特征域的变换图。其中:(a)为没有教师的监督,(b)为在教师监督下。
图4为本发明60个epoch中不同设置的PSNR折线图。
图5为本发明加入空间权重模块前后的对比图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图及实施例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
(1)如图1所示,为本发明提出的基于知识蒸馏的图像去雾方法的整体网络结构图,包括以下步骤:
(1a)使用干净图像训练教师网络,在本实施例中,使用PyTorch 1.2.0框架实现自编码网络,并预设迭代次数为30次。其中,教师网络的损失函数为:
LT=||J-T(J)||1
其中T为教师网络,J为输入的干净图像;
(1b)构建学生去雾网络。具体的,在本实施例中,学生去雾网络使用短和长跳跃连接构成一个非常深的网络,学生去雾网络的骨干模块由若干个长残差模块RIR构成,每个RIR模块由若干个空间加权的通道注意力残差模块SWRCAB组成。具体的,对于输入特征f每个RIR模块的输出为:
f=f+SWRCABn(…SWRCAB1(f))
其中,SWRCAB()为SWRCAB模块的操作;
(2)如图2所示为本发明设计的空间加权的通道注意力残差模块(SWRCAB)的结构图。对于输入特征f,RIR模块首先使用一个conv-relu模块提取特征f1,然后使用一个conv-sigmoid获取特征f1的空间权重w,使用一个conv层对f1进行变换得到f2,使用w对f2进行加权得到f3,接着提取空间加权特征的通道注意力,即使用全局平均池化-全连接-Sigmoid的串联结构提取特征的通道注意力C,最后得到通道加权特征f4=C*f2。RIR模块的输出为f=f+f4。具体的,在本实施例中,学生去雾网络的骨干模块由3个RIR模块组成;
(3)使用有雾图像和干净图像对训练学生去雾网络,在本实施例中,具体步骤如下:
(3a)使用PyTorch 1.2.0框架实现自编码网络,并预设迭代次数为60次,使用Adamoptimizer进行训练,初始学习率为0.0001,动量为0.9,其中,学生网络的损失函数为:
LS=Lr+λpLp+λrmLrm
其中,Lr为重建损失,Lp为感知损失,Lrm指的是模仿损失的表象,其目的是模仿干净图像域的特征表示,λp和λrm为权重系数;
(3b)具体的,在本实施例中,采用平均绝对误差来测量ground-truth与去雾结果的区别:
Lr=||S(I)-J||1
其中S(I)表示去雾结果,J表示ground-truth;
(3c)具体的,在本实施例中,感知损失用来测量ground-truth与去雾结果之间特征表示的差异,感知损失Lp为:
其中Φi表示特征提取算子的第i层,Mi为使用的特征层数;
(3d)具体的,在本实施例中,学生去雾网络通过模拟教师网络的特征表示来学习教师网络的暗知识,本发明设计了特征匹配模仿损失(FMIL),假设Tm(J)表示教师网络使用干净图像J作为输入时的第m层的特征映射,Sn(I)表示将学生去雾网络使用有雾图像I作为输入时第n层的特征映射,设g为线性变换函数,则FMIL表示为:
其中C是一组候选特征表示对。如图3所示,为本发明实现的学生网络特征域的变换结果,学生去雾网络提取出的有雾图像的特征实现了向教师网络特征的对齐。
以下给出实验结果以及分析:
实验一、进行消融研究以调查损失函数对去雾面的效果
为了验证损失函数对去雾效果的影响、SWRCAB的作用以及教师网络的敏感性。将包含6个由SEResBlock构建的RIR块,采用L1损失函数进行训练的结果作为基准,进行六次SWRCAB搭配不同的loss函数的实验。分别为:
(1)L1:将SEResBlock替换为SWRCAB,构建去雾网络,利用L1重构损失进行训练。
(2)L1+Lds:在去雾网络中,总损失函数包含两项分别为L1重构损失和深度监督损失Lds。深度监督不仅意味着对最终产出的监督,而且还有对中间层的监督。
(3)L1+Lp:L1重构损失与感知损失被用来训练去雾网络。
(4)L1+Lrm:L1重构损失与FMIL用于训练去雾网络。
(5)L1+Lp+Lrm:L1重构损失之和,感知损失和FMIL用于训练去雾网络。
(6)L1+Lp+Lwrm::L1重构损失之和,感知损失和WFMIL用于训练去雾网络。
六个不同方案的平均PSNR和SSIM值为见表1。
表1
显然,使用FMIL的去雾网络的除雾效果优于baseline具体而言,可以观察到以下结果:(1)SWRCAB比SEResBlock更有效地提高去雾性能,并且在PSNR和SSIM方面的增益为(0.71,0.0031);(2)传统的感知损失和FMIL都提高了去雾性能,且FMIL更好,在PSNR和SSIM方面相比基准的增益为(1.06,0.0046);(3)提出的损失函数L1+Lp+Lrm和L1+Lp+Lwrm在ground-truth和中间特征的监督下表现最好;(4)WFMIL去雾效果性能优于FMIL,在PSNR和SSIM方面相比使用FMIL的增益为(0.57,0.0007)。
对优化去雾网络的过程进行分析,图4展示PSNR在不同的环境下的60个epoch。它表明了上述方法收敛速度快,取得较好的结果。
实验二、过程导向学习与结果导向学习的对比实验
KDDN被视为一种面向过程的方法,而最先进的去雾方法则是面向结果的。具体来说,损失衡量的是去雾结果与干净目标图像的表征差异,而KDDN衡量去雾网络与教师之间的中间特征差异。KDDN采用自动编码器网络进行图像重构,辅助去雾网络进行训练。而最先进的方法只包含一个流线型的图像去雾,KDDN可以获得更好的结果,如表1所示。
实验三、模仿的有效性验证
模型旨在使除雾网络的特征分布与教师相似。从SOTS室内数据集中随机选取100幅图像,使用t-SNE绘制除雾网络的第4个RIR和教师的第2个ResBlock的特征,如图3所示,通过模拟损失的表示方法,可以实现更好的特征表示。表1的定量结果也表明,与只训练L1损失的基线模型相比,该方法可以获得更优的PSNR和SSIM性能。
实验四、SWRCAB的有效性验证
空间加权前后的特征如图5所示。提出的空间加权可以细化特征,并对空间位置给予不同的关注,表1给出的定量结果也验证了SWRCAB的有效性。
实验五、教师网络的敏感性
该方法利用一个自编码网络来提取干净图像的中间表示。为了调查教师对去雾网络的性能影响,进行四种不同实验,使用L1损失设置不同的教师:随机初始化老师(随机),没有老师的监督(w/o)和中期业绩的监督老师(wM),和一个高性能的监督老师(wH)。结果表明,坏老师对优化除雾网络没有帮助,好老师对改善除雾性能有帮助。
综上,本发明涉及图像恢复领域,整体架构由教师网络和学生去雾网络构成;学生去雾网络通过模拟教师网络的特征表示来学习教师网络的暗知识;通过设计教师网络来学习干净图像的暗知识和重建过程,并使用特征模仿损失来模拟教师网络的知识,实现学生去雾网络性能的提升,本发明所提出方法具有较好的去雾效果。
Claims (8)
1.一种基于知识蒸馏的图像去雾方法,其特征在于包括以下步骤:
1)构建教师网络,采用编码器-解码器结构作为教师网络,用于学习干净图像的特征表示,所述教师网络由下采样模块、骨干模块和上采样模块组成;
2)构建学生去雾网络,使用短跳跃和长跳跃连接构成一个深的网络作为学生去雾网络,用于通过模拟干净图像的特征表示将有雾图像映射到清晰图像;所述学生去雾网络与教师网络具有相同的架构,不同的是学生去雾网络的骨干模块由若干个长残差模块RIR构成,每个RIR模块由若干个空间加权的通道注意力残差模块SWRCAB组成;
3)使用无监督学习的方式训练优化教师网络;
4)使用有雾图像和干净图像对训练优化学生去雾网络;
5)采用平均绝对误差来测量ground-truth与去雾结果的区别,得到重建结果;
6)用感知损失来测量ground-truth与去雾结果之间特征表示的差异;
7)学生去雾网络通过模拟教师网络的特征表示来学习教师网络的暗知识,实现学生去雾网络性能的提升,实现图像去雾。
2.如权利要求1所述一种基于知识蒸馏的图像去雾方法,其特征在于在步骤1)中,所述下采样模块使用两个3×3的卷积层将输入图像缩小为原来的1/16,每个卷积层后接着一个ReLU层;所述骨干模块由6个残差块构成,每个残差块由convolution-ReLU-convolution-Add的形式构建,没有进行批处理规范化;所述上采样模块使用两个3×3卷积层,每个卷积层后接着一个ReLU层,然后使用双线性上采样层将特征放大到原来的尺寸,紧接着通过一个Tanh激活函数,所有卷积层都有64个通道。
3.如权利要求1所述一种基于知识蒸馏的图像去雾方法,其特征在于在步骤2)中,所述学生去雾网络的骨干模块由若干个长残差模块RIR构成的具体步骤包括:
(1)对于输入特征f每个RIR模块的输出为:
f=f+SWRCABn(…SWRCAB1(f))
其中,SWRCAB()为SWRCAB模块的操作;
(2)对于输入特征f,RIR模块首先使用一个conv-relu模块提取特征f1,然后使用一个conv-sigmoid获取特征f1的空间权重w,使用一个conv层对f1进行变换得到f2,使用w对f2进行加权得到f3,接着提取空间加权特征的通道注意力,即使用全局平均池化-全连接-Sigmoid的串联结构提取特征的通道注意力C,最后得到通道加权特征f4=C*f2,RIR模块的输出为f=f+f4。
4.如权利要求1所述一种基于知识蒸馏的图像去雾方法,其特征在于在步骤3)中,所述优化教师网络的损失函数为:
LT=||J-T(J)||1
其中,T为教师网络,J为输入的干净图像。
5.如权利要求1所述一种基于知识蒸馏的图像去雾方法,其特征在于在步骤4)中,所述优化学生去雾网络的损失函数为:
LS=Lr+λpLp+λrmLrm,
其中,Lr为重建损失,Lp为感知损失,Lrm指的是模仿损失的表象,其目的是模仿干净图像域的特征表示,λp和λrm为权重系数。
6.如权利要求1所述一种基于知识蒸馏的图像去雾方法,其特征在于在步骤5)中,所述平均绝对误差表示为:
Lr=||S(I)-J||1
其中,S(I)表示去雾结果,J表示ground-truth。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010441054.7A CN111681178B (zh) | 2020-05-22 | 2020-05-22 | 一种基于知识蒸馏的图像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010441054.7A CN111681178B (zh) | 2020-05-22 | 2020-05-22 | 一种基于知识蒸馏的图像去雾方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111681178A true CN111681178A (zh) | 2020-09-18 |
CN111681178B CN111681178B (zh) | 2022-04-26 |
Family
ID=72452681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010441054.7A Active CN111681178B (zh) | 2020-05-22 | 2020-05-22 | 一种基于知识蒸馏的图像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111681178B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464959A (zh) * | 2020-12-12 | 2021-03-09 | 中南民族大学 | 基于注意力和多重知识迁移的植物表型检测系统及其方法 |
CN112488943A (zh) * | 2020-12-02 | 2021-03-12 | 北京字跳网络技术有限公司 | 模型训练和图像去雾方法、装置、设备 |
CN113066025A (zh) * | 2021-03-23 | 2021-07-02 | 河南理工大学 | 一种基于增量学习与特征、注意力传递的图像去雾方法 |
CN113592742A (zh) * | 2021-08-09 | 2021-11-02 | 天津大学 | 一种去除图像摩尔纹的方法 |
CN113744146A (zh) * | 2021-08-23 | 2021-12-03 | 山东师范大学 | 一种基于对比学习和知识蒸馏的图像去雾方法 |
CN114565539A (zh) * | 2022-03-17 | 2022-05-31 | 中国人民解放军火箭军工程大学 | 一种基于线上知识蒸馏的图像去雾方法 |
WO2023115697A1 (zh) * | 2021-12-20 | 2023-06-29 | 深圳市中兴微电子技术有限公司 | 图像重建模型的训练方法、装置、存储介质及电子装置 |
CN116542872A (zh) * | 2023-04-10 | 2023-08-04 | 中国人民解放军火箭军工程大学 | 一种基于半监督知识蒸馏的单幅图像去雾方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180050832A (ko) * | 2016-11-07 | 2018-05-16 | 한국과학기술원 | Cnn을 이용한 이미지 디헤이징 방법 및 그 시스템 |
CN108447036A (zh) * | 2018-03-23 | 2018-08-24 | 北京大学 | 一种基于卷积神经网络的低光照图像增强方法 |
CN108830813A (zh) * | 2018-06-12 | 2018-11-16 | 福建帝视信息科技有限公司 | 一种基于知识蒸馏的图像超分辨率增强方法 |
CN109801232A (zh) * | 2018-12-27 | 2019-05-24 | 北京交通大学 | 一种基于深度学习的单幅图像去雾方法 |
CN110097519A (zh) * | 2019-04-28 | 2019-08-06 | 暨南大学 | 基于深度学习的双监督图像去雾方法、系统、介质和设备 |
CN110570371A (zh) * | 2019-08-28 | 2019-12-13 | 天津大学 | 一种基于多尺度残差学习的图像去雾方法 |
CN110827213A (zh) * | 2019-10-11 | 2020-02-21 | 西安工程大学 | 一种基于生成式对抗网络的超分辨率图像修复方法 |
CN111161360A (zh) * | 2019-12-17 | 2020-05-15 | 天津大学 | 基于Retinex理论的端到端网络的图像去雾方法 |
-
2020
- 2020-05-22 CN CN202010441054.7A patent/CN111681178B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180050832A (ko) * | 2016-11-07 | 2018-05-16 | 한국과학기술원 | Cnn을 이용한 이미지 디헤이징 방법 및 그 시스템 |
CN108447036A (zh) * | 2018-03-23 | 2018-08-24 | 北京大学 | 一种基于卷积神经网络的低光照图像增强方法 |
CN108830813A (zh) * | 2018-06-12 | 2018-11-16 | 福建帝视信息科技有限公司 | 一种基于知识蒸馏的图像超分辨率增强方法 |
CN109801232A (zh) * | 2018-12-27 | 2019-05-24 | 北京交通大学 | 一种基于深度学习的单幅图像去雾方法 |
CN110097519A (zh) * | 2019-04-28 | 2019-08-06 | 暨南大学 | 基于深度学习的双监督图像去雾方法、系统、介质和设备 |
CN110570371A (zh) * | 2019-08-28 | 2019-12-13 | 天津大学 | 一种基于多尺度残差学习的图像去雾方法 |
CN110827213A (zh) * | 2019-10-11 | 2020-02-21 | 西安工程大学 | 一种基于生成式对抗网络的超分辨率图像修复方法 |
CN111161360A (zh) * | 2019-12-17 | 2020-05-15 | 天津大学 | 基于Retinex理论的端到端网络的图像去雾方法 |
Non-Patent Citations (2)
Title |
---|
MING HONG ET AL.: "Distilling Image Dehazing With Heterogeneous Task Imitation", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
YANYUN QU ET AL.: "Enhanced Pix2pix Dehazing Network", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112488943A (zh) * | 2020-12-02 | 2021-03-12 | 北京字跳网络技术有限公司 | 模型训练和图像去雾方法、装置、设备 |
CN112488943B (zh) * | 2020-12-02 | 2024-02-02 | 北京字跳网络技术有限公司 | 模型训练和图像去雾方法、装置、设备 |
CN112464959A (zh) * | 2020-12-12 | 2021-03-09 | 中南民族大学 | 基于注意力和多重知识迁移的植物表型检测系统及其方法 |
CN112464959B (zh) * | 2020-12-12 | 2023-12-19 | 中南民族大学 | 基于注意力和多重知识迁移的植物表型检测系统及其方法 |
CN113066025A (zh) * | 2021-03-23 | 2021-07-02 | 河南理工大学 | 一种基于增量学习与特征、注意力传递的图像去雾方法 |
CN113066025B (zh) * | 2021-03-23 | 2022-11-18 | 河南理工大学 | 一种基于增量学习与特征、注意力传递的图像去雾方法 |
CN113592742A (zh) * | 2021-08-09 | 2021-11-02 | 天津大学 | 一种去除图像摩尔纹的方法 |
CN113744146A (zh) * | 2021-08-23 | 2021-12-03 | 山东师范大学 | 一种基于对比学习和知识蒸馏的图像去雾方法 |
WO2023115697A1 (zh) * | 2021-12-20 | 2023-06-29 | 深圳市中兴微电子技术有限公司 | 图像重建模型的训练方法、装置、存储介质及电子装置 |
CN114565539A (zh) * | 2022-03-17 | 2022-05-31 | 中国人民解放军火箭军工程大学 | 一种基于线上知识蒸馏的图像去雾方法 |
CN116542872A (zh) * | 2023-04-10 | 2023-08-04 | 中国人民解放军火箭军工程大学 | 一种基于半监督知识蒸馏的单幅图像去雾方法 |
CN116542872B (zh) * | 2023-04-10 | 2024-03-19 | 中国人民解放军火箭军工程大学 | 一种基于半监督知识蒸馏的单幅图像去雾方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111681178B (zh) | 2022-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111681178B (zh) | 一种基于知识蒸馏的图像去雾方法 | |
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN110263912B (zh) | 一种基于多目标关联深度推理的图像问答方法 | |
CN110414432A (zh) | 对象识别模型的训练方法、对象识别方法及相应的装置 | |
CN109902798A (zh) | 深度神经网络的训练方法和装置 | |
CN107679462A (zh) | 一种基于小波的深度多特征融合分类方法 | |
CN112489164B (zh) | 基于改进深度可分离卷积神经网络的图像着色方法 | |
CN109461177B (zh) | 一种基于神经网络的单目图像深度预测方法 | |
CN112990296A (zh) | 基于正交相似度蒸馏的图文匹配模型压缩与加速方法及系统 | |
CN106980830A (zh) | 一种基于深度卷积网络自亲缘关系识别方法与装置 | |
CN112950780B (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN111401156A (zh) | 基于Gabor卷积神经网络的图像识别方法 | |
CN109447096A (zh) | 一种基于机器学习的扫视路径预测方法和装置 | |
CN114821342A (zh) | 一种遥感影像道路提取方法及系统 | |
CN117079132A (zh) | 基于高斯距离损失的遥感图像目标检测方法 | |
CN112905828A (zh) | 一种结合显著特征的图像检索器、数据库及检索方法 | |
CN113298817A (zh) | 一种准确率高的遥感图像语义分割方法 | |
CN115222754A (zh) | 一种基于知识蒸馏和对抗学习的镜面图像分割方法 | |
Manzari et al. | A robust network for embedded traffic sign recognition | |
CN117351542A (zh) | 一种面部表情识别方法及系统 | |
CN117115911A (zh) | 一种基于注意力机制的超图学习动作识别系统 | |
CN116958324A (zh) | 图像生成模型的训练方法、装置、设备及存储介质 | |
CN115909332A (zh) | 一种基于通道特征加强的农业遥感图像语义分割方法 | |
CN114638408A (zh) | 一种基于时空信息的行人轨迹预测方法 | |
CN114495163A (zh) | 基于类别激活映射的行人重识别生成学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |