CN114862724A - 一种基于指数移动平均知识蒸馏的对比式图像去雾方法 - Google Patents

一种基于指数移动平均知识蒸馏的对比式图像去雾方法 Download PDF

Info

Publication number
CN114862724A
CN114862724A CN202210635124.1A CN202210635124A CN114862724A CN 114862724 A CN114862724 A CN 114862724A CN 202210635124 A CN202210635124 A CN 202210635124A CN 114862724 A CN114862724 A CN 114862724A
Authority
CN
China
Prior art keywords
network
image
output
fog
defogging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210635124.1A
Other languages
English (en)
Inventor
孙建德
李燕
李静
张化祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Normal University
Original Assignee
Shandong Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Normal University filed Critical Shandong Normal University
Priority to CN202210635124.1A priority Critical patent/CN114862724A/zh
Publication of CN114862724A publication Critical patent/CN114862724A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于指数移动平均知识蒸馏的对比式图像去雾方法,主要包括以下步骤:S1、获取图像数据,即获取同一场景成对的有雾图像和无雾图像;S2、采用传统去雾方法对训练集中的图像进行去雾,获得去雾后图像;S3、构建图像去雾模型,以知识蒸馏技术构建双网络模型,模型分为学生网络和教师网络;S4、训练过程中,将具有相同背景不同浓度雾分布的有雾图像分别输入到学生网络和教师网络中,分别获得无雾图像,其中,通过L1损失、改进式对比损失以及一致性损失指导学生网络参数更新,教师网络则通过指数移动平均策略更新参数;S5、测试过程中,采用教师网络作为最终的测试模型。本发明能够在提升模型去雾效果的同时增强模型的鲁棒性。

Description

一种基于指数移动平均知识蒸馏的对比式图像去雾方法
技术领域
本发明涉及一种基于指数移动平均知识蒸馏的对比式图像去雾方法,属于图像处理技术领域。
背景技术
有雾图像通常会表现出模糊、低对比度、颜色失真等图像质量退化现象。这种退化的图像妨碍了许多后续计算机任务性能的进一步提升,如目标检测、行人识别、图像语义分割等。近些年来,人们对图像去雾进行了广泛的研究,目的是从退化的图像中恢复出干净的图像,从而减轻环境条件引起的图像退化对各种视觉任务的影响。
随着深度神经网络的快速发展和大型合成数据集的可用性,以数据驱动为支撑的深度神经网络去雾方法取得了显著的结果并受到研究人员的广泛关注。尽管近几年来,各种各样基于深度神经网络的去雾方法层出不穷,但是去雾效果的提升却遇到了瓶颈期。并且,许多去雾模型在模型鲁棒性方面的表现仍然有待加强。
现有的知识蒸馏技术,通过教师网络学习的知识指导学生网络的学习,以使得学生网络更好的学习,获得更好的性能。而如何进行“指导”则是该技术中的一个重点问题。
现有的指数移动平均技术,可以用于估计模型参数的局部均值,使得模型参数的更新与一段时间内的模型参数的历史取值有关。相对于传统的模型参数更新方式,指数移动平均参数更新策略会使得模型最终学习到的参数更加鲁棒性。因此,将该技术用于知识蒸馏网络中,可以使得模型在取得更好性能的同时提升模型的鲁棒性。
现有的对比学习技术,克服了传统方法对负样本的忽视问题,通过对比学习可以同时利用正负样本,使得目标样本更加靠近正样本而远离负样本。而在该技术中,负样本的选取是一个关键点。
发明内容
针对现有技术的不足及发展情况,本发明提供一种基于指数移动平均知识蒸馏的对比式图像去雾方法,本发明以知识蒸馏网络作为模型框架,利用指数移动平均策略进行模型参数的更新,增强模型的鲁棒性。同时,利用改进式的对比学习引导网络训练,进一步提升图像去雾效果。
为实现上述目的,本发明提供了如下技术方案:
一种基于指数移动平均知识蒸馏的对比式图像去雾方法,该方法包括以下步骤:
S1、获取图像数据,即获取同一场景成对的有雾图像和无雾图像,构建训练集和测试集;
S2、采用传统去雾方法对训练集中的图像进行去雾,获得去雾后的训练图像,用于构建负样本图像;
S3、构建图像去雾模型,以知识蒸馏技术构建双网络模型,模型分为学生网络和教师网络;
S4、训练过程中,将具有相同背景不同浓度雾分布的有雾图像I1(x)和有雾图像I2(x)分别输入到学生网络和教师网络中,分别获得无雾图像J1(x)和无雾图像J2(x),其中,通过L1损失、改进式对比损失以及一致性损失指导学生网络参数更新,而教师网络则通过指数移动平均策略更新参数;
S5、测试过程中,采用教师网络作为最终的测试模型,将有雾图像I(x)输入到教师网络中,获得无雾图像J(x)。
进一步地,步骤S1具体包括:
获取场景的无雾图像,根据大气散射模型,生成与无雾图像相对应的有雾图像,用于构建训练集和测试集,大气散射模型具体公式为:
I(x)=J(x)t(x)+A(x)(1-t(x)),
其中,I(x)表示有雾图像,J(x)表示无雾图像,t(x)表示透射率图像,A(x)表示大气光图像。
进一步地,步骤S4具体包括:
教师网络和学生网络具有相同的网络结构,首先是一个卷积层,其后是串行连接的组合块,将每个组合块输出的结果进行通道维度的拼接作为网络其后串行连接的两个卷积层的输入,将网络的输入与上述两个卷积层的输出进行逐元素相加作为网络的最终输出,所述每一个组合块均由串行连接的基础块以及一个卷积层组成,并在输入输出之间存在残差连接,即将输入逐元素相加到输出,所述每个基础块由串行连接的卷积层、ReLU激活层、卷积层,以及并行连接的通道注意模块和像素注意模块组成,将两个并行连接模块输出的结果通过逐元素相加作为输出,其中每个基础块的输入输出之间存在残差连接,所述通道注意模块由串行连接的平均池化层、卷积层、ReLU激活层、卷积层、Sigmoid激活函数组成,最后将通道注意模块的输入与输出进行逐元素相乘,所述像素注意模块由串行连接的卷积层、ReLU激活层、卷积层、Sigmoid激活函数组成,最后将像素注意模块的输入与输出进行逐元素相乘。
在训练过程中,通过L1损失、改进式对比损失以及一致性损失引导学生网络训练,其中L1损失公式如下:
L1=||J1(x)-Jgt(x)||1
其中,J1(x)表示学生网络输出的去雾后图像,Jgt(x)表示干净的无雾图像,通过计算学生网络输出的去雾后图像和干净的无雾图像之间的差异作为损失能够引导学生网络训练生成更加逼近干净无雾图像的去雾图像,
其中改进式对比损失公式如下:
Figure BDA0003681775660000031
其中,
Figure BDA0003681775660000032
表示VGG16网络的中间层输出的特征图,J1(x)表示学生网络输出的去雾后图像,Jgt(x)表示与J1(x)相对应的干净的无雾图像,I1(x)表示学生网络输入的有雾图像,I2(x)表示教师网络输入的有雾图像,Je(x)表示I1(x)经过其他方法去雾后的图像;其中,Jgt(x)是改进式对比损失中的正样本,I1(x)、I2(x)以及Je(x)是改进式对比损失中的负样本;通过改进式对比损失能够引导学生网络生成的去雾图像更加逼近正样本而远离负样本,同时多样化的负样本设置能够进一步减小学生网络训练过程中的搜索空间并提升去雾效果,其中一致性损失公式如下:
Lconsistency=||J1(x)-J2(x)||1
其中,J1(x)表示学生网络输出的去雾后图像,J2(x)表示教师网络输出的去雾后图像,通过计算学生网络和教师网络输出结果之间的差异作为损失,能够增强教师网络的鲁棒性。
本发明的优点是:与现有技术相比,本发明具有如下有益效果:
1、与现有技术相比,本发明以知识蒸馏网络作为模型框架,并通过指数移动平均参数更新策略更新模型参数,能够在提升模型去雾效果的同时增强模型的鲁棒性。
2、本发明采用改进式对比学习策略引导网络训练,使得网络输出的去雾图像更加逼近干净的无雾图像而远离有雾图像,通过设置多样化的负样本,减少了网络训练时的搜索空间,加速收敛,并进一步提升了去雾效果。
附图说明
图1是本发明实施例的图像去雾流程图;
图2是本发明实施例的整体网络的结构图;
图3是本发明实施例的学生网络的整体结构图;
图4是本发明实施例的学生网络详细的内部结构图。
具体实施方式
下面结合附图对本发明作进一步描述。此处所描述的具体实施例仅用于更加清楚地说明本发明,并不能以此限定本发明的保护范围。
参见图1、图2、图3和图4,本发明公开的一种基于指数移动平均知识蒸馏的对比式图像去雾方法,包括以下步骤:
S1、获取图像数据,即获取同一场景成对的有雾图像和无雾图像,构建训练集和测试集;
步骤S1具体包括:
获取场景的无雾图像,根据大气散射模型,生成与无雾图像相对应的有雾图像。大气散射模型具体公式为:
I(x)=J(x)t(x)+A(x)(1-t(x)),
其中,I(x)表示有雾图像,J(x)表示无雾图像,t(x)表示透射率图像,A(x)表示大气光图像。
通过上述过程获得的无雾图像和有雾图像的图像对作为图像去雾模型训练的数据集。将数据集按照5:2的比例划分训练集和测试集。训练过程中,输入图像被随机裁剪成240×240尺寸,而在测试过程中则使用原始尺寸图像进行测试。
S2、采用传统去雾方法对训练集中的图像进行去雾,获得去雾后的训练图像,用于构建负样本图像。步骤S2具体包括:
采用传统的暗通道先验去雾方法对训练集中的图像进行去雾,将去雾后的图像作为对比损失中的负样本图像。
S3、构建图像去雾模型,以知识蒸馏技术构建双网络模型,模型分为学生网络和教师网络。
步骤S3具体包括:
如图2所示,整个图像去雾模型由学生网络和教师网络组成,两个网络具有相同的结构,如图3、图4所示,首先是一个卷积核大小为3×3、步长为1、填充为1卷积层,卷积层输入特征通道数为3,输出特征通道数为64,其后是串行连接的三个组合块,将每个组合块输出的结果进行通道维度的拼接作为网络其后串行连接的两个卷积核大小为3×3、步长为1、填充为1卷积层的输入,两个卷积层中前一个卷积层输入特征通道数均为192,输出特征通道数均为64,后一个卷积层输入特征通道数均为64,输出特征通道数均为3,将网络的输入与上述两个卷积层的输出进行逐元素相加作为网络的最终输出,所述每一个组合块均由串行连接的基础块以及一个卷积核大小为3×3、步长为1、填充为1卷积层组成,卷积层输入特征通道数为64,输出特征通道数为64,并在输入输出之间存在残差连接,即将输入逐元素相加到输出,所述每个基础块由串行连接的卷积层、ReLU激活层、卷积层,以及并行连接的通道注意模块和像素注意模块组成,将两个并行连接模块输出的结果通过逐元素相加作为输出,其中每个基础块的输入输出之间存在残差连接,所述通道注意模块由串行连接的平均池化层、卷积层、ReLU激活层、卷积层、Sigmoid激活函数组成,最后将通道注意模块的输入与输出进行逐元素相乘,所述像素注意模块由串行连接的卷积层、ReLU激活层、卷积层、Sigmoid激活函数组成,最后将像素注意模块的输入与输出进行逐元素相乘,通道注意模块和像素注意模块中的卷积层均为卷积核大小为3×3、步长为1、填充为1的卷积层,输入特征通道数均为64,输出特征通道数为均64。
我们通过PyTorch框架实现整个去雾模型,并在英伟达RTX2080Ti显卡上进行训练。
S4、训练过程中,将具有相同背景不同浓度雾分布的有雾图像I1(x)和有雾图像I2(x)分别输入到学生网络和教师网络中,分别获得无雾图像J1(x)和无雾图像J2(x),其中,通过L1损失、改进式对比损失以及一致性损失指导学生网络参数更新,而教师网络则通过指数移动平均策略更新参数。
步骤S4具体包括:
在训练过程中,将具有相同背景不同浓度雾分布的有雾图像I1(x)和有雾图像I2(x)分别输入到上述的学生网络和教师网络中,分别获得无雾图像J1(x)和无雾图像J2(x)。
通过L1损失、改进式对比损失以及一致性损失引导学生网络训练,其中L1损失公式如下:
L1=||J1(x)-Jgt(x)||1
其中,J1(x)表示学生网络输出的去雾后图像,Jgt(x)表示干净的无雾图像。
其中改进式对比损失公式如下:
Figure BDA0003681775660000051
其中,
Figure BDA0003681775660000052
表示VGG16网络的中间层输出的特征图,J1(x)表示学生网络输出的去雾后图像,Jgt(x)表示与J1(x)相对应的干净的无雾图像,I1(x)表示学生网络输入的有雾图像,I2(x)表示教师网络输入的有雾图像,Je(x)表示I1(x)经过其他方法去雾后的图像;其中,Jgt(x)是改进式对比损失中的正样本,I1(x)、I2(x)以及Je(x)是改进式对比损失中的负样本。
其中一致性损失公式如下:
Lconsistency=||J1(x)-J2(x)||1
其中,J1(x)表示学生网络输出的去雾后图像,J2(x)表示教师网络输出的去雾后图像。
训练过程中,我们采用Adam优化器,初始学习率设置为1×10-4并通过余弦退火策略调整学习率。
S5、测试过程中,采用教师网络作为最终的测试模型,将有雾图像I(x)输入到教师网络中,获得无雾图像J(x)。
步骤S5具体包括:
在测试过程中,采用步骤S4中训练好的教师网络作为最终的测试模型,将测试集中的测试图像I(x)输入到教师网络中,得到测试图像的去雾后图像J(x)。
我们在去雾领域常用的数据集RESIDE上面进行训练和测试,RESIDE数据集包含了室内训练数据ITS及其对应的室内测试数据SOTS-Indoor,室外训练数据OTS及其对应的室外测试数据SOTS-Outdoor,我们采用去雾领域常用的峰值信噪比和结构相似性两个评价指标对去雾后图像进行评价,结构相似性越接近于1表示图像去雾效果越好,测试结果如表1所示:
表1测试结果
Figure BDA0003681775660000061
由表1可以看出,在峰值信噪比和结构相似性方面,本发明的方法在室内数据集和室外数据集上均能够达到目前更加领先的实验结果,证明本发明的方法能够实现更加有效的去雾效果。
以上所述仅仅是本发明的优选实施方式,只用于对本发明的进一步说明,不能用于限定本发明的保护范围,本领域的技术人员根据上述发明的内容对本发明做出一些改进和变形,这些改进和变形均落入本发明的保护范围之内。

Claims (3)

1.一种基于指数移动平均知识蒸馏的对比式图像去雾方法,该方法包括以下步骤:
S1、获取图像数据,即获取同一场景成对的有雾图像和无雾图像,构建训练集和测试集;
S2、采用传统去雾方法对训练集中的图像进行去雾,获得去雾后的训练图像,用于构建负样本图像;
S3、构建图像去雾模型,以知识蒸馏技术构建双网络模型,模型分为学生网络和教师网络;
S4、训练过程中,将具有相同背景不同浓度雾分布的有雾图像I1(x)和有雾图像I2(x)分别输入到学生网络和教师网络中,分别获得无雾图像J1(x)和无雾图像J2(x),其中,通过L1损失、改进式对比损失以及一致性损失指导学生网络参数更新,而教师网络则通过指数移动平均策略更新参数;
S5、测试过程中,采用教师网络作为最终的测试模型,将有雾图像I(x)输入到教师网络中,获得无雾图像J(x)。
2.根据权利要求1所述的基于指数移动平均知识蒸馏的对比式图像去雾方法,其特征在于:步骤S1具体包括:
获取场景的无雾图像,根据大气散射模型,生成与无雾图像相对应的有雾图像,用于构建训练集和测试集,大气散射模型具体公式为:
I(x)=J(x)t(x)+A(x)(1-t(x)),
其中,I(x)表示有雾图像,J(x)表示无雾图像,t(x)表示透射率图像,A(x)表示大气光图像。
3.根据权利要求1所述的基于指数移动平均知识蒸馏的对比式图像去雾方法,其特征在于:步骤S4具体包括:
教师网络和学生网络具有相同的网络结构,首先是一个卷积层,其后是串行连接的组合块,将每个组合块输出的结果进行通道维度的拼接作为网络其后串行连接的两个卷积层的输入,将网络的输入与上述两个卷积层的输出进行逐元素相加作为网络的最终输出,所述每一个组合块均由串行连接的基础块以及一个卷积层组成,并在输入输出之间存在残差连接,即将输入逐元素相加到输出,所述每个基础块由串行连接的卷积层、ReLU激活层、卷积层,以及并行连接的通道注意模块和像素注意模块组成,将两个并行连接模块输出的结果通过逐元素相加作为输出,其中每个基础块的输入输出之间存在残差连接,所述通道注意模块由串行连接的平均池化层、卷积层、ReLU激活层、卷积层、Sigmoid激活函数组成,最后将通道注意模块的输入与输出进行逐元素相乘,所述像素注意模块由串行连接的卷积层、ReLU激活层、卷积层、Sigmoid激活函数组成,最后将像素注意模块的输入与输出进行逐元素相乘;
在训练过程中,通过L1损失、改进式对比损失以及一致性损失引导学生网络训练,其中L1损失公式如下:
L1=||J1(x)-Jgt(x)||1
其中,J1(x)表示学生网络输出的去雾后图像,Jge(x)表示干净的无雾图像,通过计算学生网络输出的去雾后图像和干净的无雾图像之间的差异作为损失能够引导学生网络训练生成更加逼近干净无雾图像的去雾图像,
其中改进式对比损失公式如下:
Figure FDA0003681775650000021
其中,
Figure FDA0003681775650000022
表示VGG16网络的中间层输出的特征图,J1(x)表示学生网络输出的去雾后图像,Jgt(x)表示与J1(x)相对应的干净的无雾图像,I1(x)表示学生网络输入的有雾图像,I2(x)表示教师网络输入的有雾图像,Je(x)表示I1(x)经过其他方法去雾后的图像;其中,Jgt(x)是改进式对比损失中的正样本,I1(x)、I2(x)以及Je(x)是改进式对比损失中的负样本;通过改进式对比损失能够引导学生网络生成的去雾图像更加逼近正样本而远离负样本,同时多样化的负样本设置能够进一步减小学生网络训练过程中的搜索空间并提升去雾效果,其中一致性损失公式如下:
Lconsistency=||J1(x)-J2(x)||1
其中,J1(x)表示学生网络输出的去雾后图像,J2(x)表示教师网络输出的去雾后图像,通过计算学生网络和教师网络输出结果之间的差异作为损失,能够增强教师网络的鲁棒性。
CN202210635124.1A 2022-06-07 2022-06-07 一种基于指数移动平均知识蒸馏的对比式图像去雾方法 Pending CN114862724A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210635124.1A CN114862724A (zh) 2022-06-07 2022-06-07 一种基于指数移动平均知识蒸馏的对比式图像去雾方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210635124.1A CN114862724A (zh) 2022-06-07 2022-06-07 一种基于指数移动平均知识蒸馏的对比式图像去雾方法

Publications (1)

Publication Number Publication Date
CN114862724A true CN114862724A (zh) 2022-08-05

Family

ID=82624991

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210635124.1A Pending CN114862724A (zh) 2022-06-07 2022-06-07 一种基于指数移动平均知识蒸馏的对比式图像去雾方法

Country Status (1)

Country Link
CN (1) CN114862724A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115496941A (zh) * 2022-09-19 2022-12-20 哈尔滨工业大学 基于知识增强计算机视觉的结构健康诊断方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115496941A (zh) * 2022-09-19 2022-12-20 哈尔滨工业大学 基于知识增强计算机视觉的结构健康诊断方法
CN115496941B (zh) * 2022-09-19 2024-01-09 哈尔滨工业大学 基于知识增强计算机视觉的结构健康诊断方法

Similar Documents

Publication Publication Date Title
CN111553929B (zh) 基于融合网络的手机屏幕缺陷分割方法、装置及设备
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
CN110349185B (zh) 一种rgbt目标跟踪模型的训练方法及装置
CN110288550B (zh) 基于先验知识引导条件生成对抗网络的单张图像去雾方法
CN109919073B (zh) 一种具有光照鲁棒性的行人再识别方法
CN111861939B (zh) 一种基于无监督学习的单张图像去雾方法
CN116342601B (zh) 基于边缘引导和多层级搜索的图像篡改检测方法
CN112102179B (zh) 一种基于Retinex的深度网络单幅图像去雾方法
CN117237279A (zh) 一种非均匀失真全景图像盲质量评价方法及系统
CN113744146A (zh) 一种基于对比学习和知识蒸馏的图像去雾方法
CN113436198A (zh) 一种协同图像超分辨率重建的遥感图像语义分割方法
CN116433909A (zh) 基于相似度加权多教师网络模型的半监督图像语义分割方法
CN114862724A (zh) 一种基于指数移动平均知识蒸馏的对比式图像去雾方法
CN117636341B (zh) 一种多帧海藻显微图像增强识别方法及其模型搭建方法
CN118397251A (zh) 基于相似度融合注意力机制的雾霾场景目标检测方法
CN111612803B (zh) 一种基于图像清晰度的车辆图像语义分割方法
CN116416212B (zh) 路面破损检测神经网络训练方法及路面破损检测神经网络
CN114627005B (zh) 一种雨密度分类引导的双阶段单幅图像去雨方法
CN114821174A (zh) 一种基于内容感知的输电线路航拍图像数据清洗方法
CN114372929A (zh) 一种基于模型优化和压缩的图像快速去雾方法及装置
CN114066750A (zh) 一种基于域变换的自编码器去模糊方法
CN113256517A (zh) 一种基于半监督概率图模型的视频去雨方法
CN112508802A (zh) 一种基于残余边信息融合的端到端的去除雾方法
Zhang et al. The supervised CNN image edge detection algorithm in scotopic vision environment
CN113222953B (zh) 基于深度伽马变换的自然图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination