CN116228576A - 基于注意力机制与特征增强的图像去雾方法 - Google Patents
基于注意力机制与特征增强的图像去雾方法 Download PDFInfo
- Publication number
- CN116228576A CN116228576A CN202310175434.4A CN202310175434A CN116228576A CN 116228576 A CN116228576 A CN 116228576A CN 202310175434 A CN202310175434 A CN 202310175434A CN 116228576 A CN116228576 A CN 116228576A
- Authority
- CN
- China
- Prior art keywords
- feature
- image
- module
- features
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000007246 mechanism Effects 0.000 title claims abstract description 20
- 230000004927 fusion Effects 0.000 claims abstract description 42
- 230000000694 effects Effects 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000013136 deep learning model Methods 0.000 claims abstract description 11
- 238000012360 testing method Methods 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000010586 diagram Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000008439 repair process Effects 0.000 claims description 3
- 230000002349 favourable effect Effects 0.000 claims description 2
- 238000005065 mining Methods 0.000 claims 1
- 238000012512 characterization method Methods 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于注意力机制与特征增强的图像去雾方法,包括:数据集,根据大气散射模型制作数据集,数据集缩放后按比例划分为训练数据集和测试数据集;深度学习模型,整体采用编码器‑解码器结构,编码器对输入的雾天图像进行特征提取,解码器逐层恢复图像特征,实现图像去雾。本发明通过结合自注意力模块、密集特征融合模块和特征增强模块,融合图像全局特征间的联系,同时提取局部低级特征和全局上下文特征。同时在编码器与解码器之间的跳跃连接上引入特征金字塔单元,通过训练对多尺度特征施加不同的权重,突出对前景目标更有用的上下文信息,提高对图像特征的表征能力,最大程度利用有用信息,提升去雾效果,实现更加精确的雾天图像去雾。
Description
技术领域
本发明涉及图像去雾技术领域,特别涉及基于注意力机制与特征增强的图像去雾方法。
背景技术
雾霾天气条件下场景的对比度与能见度降低,使用图像捕捉设备获取的自然场景下的图像质量下降,细节大量丢失,无法准确地标记有用信息,严重影响下游图像处理任务。作为图像处理初始化环节,雾霾图像去雾起着至关重要的作用。在雾霾天气环境下如何准确、快速地获取图像重要信息受到研究人员的关注。
目前,图像去雾算法可分为传统算法与基于深度学习的算法。传统去雾算法主要包括以下2种:基于图像增强的去雾算法,如直方图均衡化、小波和曲波变换、Retinex算法等,这类图像增强技术通过增强图像明暗区域的对比度来获取图像细节。但这类算法未考虑雾天图像质量下降的根本原因,本质上并没有达到去雾目的。基于物理模型的图像去雾算法,该类算法以大气散射模型为理论依据,对图像获取过程进行建模,进而反推出其中的无雾图像。其中较为经典的基于暗通道先验的图像去雾算法取得了较好的去雾效果。这类方法虽然改善了全局的对比度,但对浓雾的处理与细节的恢复效果不够理想,部分区域仍然会出现颜色失真问题。近年来,深度学习不断发展并在各个领域得到广泛应用。基于深度学习的去雾算法相较于传统算法,能够更好的学习雾图与清晰图像之间的物理参数或联系,经过处理后的图像质量与细节完整度也有明显提高,能够获得更好的去雾效果。尽管深度学习方法取得了不错的成果,但仍存在以下缺点:依赖透射率等物理模型参数,其精确程度决定了去雾效果;不能很好的处理图像细节,容易出现图像部分失真;未关注雾对图像的全域覆盖与破坏的问题。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的基于注意力机制与特征融合的图像去雾方法,利用自注意力模块、密集特征融合模块、特征增强模块和特征金字塔单元提高图像去雾的效果,已解决雾天图像的降质问题。
为了实现上述目的,本发明采用了如下技术方案:
基于注意力机制与特征增强的图像去雾方法,具体方法如下:
(1.1)、数据集制作
根据大气散射模型模拟不同雾天环境下的成像设备捕捉到的雾天图像;雾天图像制作数据集,数据集缩放后按比例划分为训练数据集和测试数据集;
(1.2)、深度学习模型去雾
整体采用编码器-解码器结构,编码器对输入的雾天图像进行特征提取,解码器逐层恢复图像特征,实现图像去雾。
本发明进一步的方案为,深度学习模型,具体方法如下:
(2.1)、编码器进行四次下采样操作,由四层残差模块、密集特征融合模块和自注意力模块组成,残差模块用于挖掘雾天图像潜藏的边缘与细节特征,自注意力模块位于解码器末层,提取高阶特征关联全局信息,融合图像全域特征间的联系,计算成本较小,不会增加整个网络的计算压力;
(2.2)、解码器进行四次上采样双线性插值操作,由四层特征增强模块、密集特征融合模块与上采样模块组成,与编码过程相似,解码部分同样经过四次特征融合,特征增强模块引入编码阶段的特征对解码过程进行深入处理,在解码器的最后使用卷积层从最终融合的特征中恢复出无雾图像;
(2.3)、编码器与解码器之间进行跳跃连接,编码器提取的特征经过特征金字塔单元学习多尺度特征并对多尺度特征施加不同权重,通过该权重突出对前景目标有用的上下文信息,抑制无用信息,与解码器的特征增强模块进行通道拼接以提高恢复图像质量。
本发明进一步的方案为,密集特征融合模块的输入与之前所有密集融合模块的输出特征图进行误差融合,在获取高阶语义信息的同时补充低阶的位置空间信息,第n层密集特征融合模块的输出特征图定义如下:
Fn=Sn(fn,{FL,FL-1,L,Fn+1})。
本发明进一步的方案为,自注意力模块通过对图像中各个位置的特征进行加权求和,并将其与当前位置的关系进行表达,可以在图像远距离区域之间建立多层次关系,并在此基础上对当前位置的细节特征与远距离位置的细节特征进行调整,在编码器末端嵌入自注意力模块,能够更好地提取雾天图像的全局性信息,提高图像去雾完整度,改善去雾效果,自注意力计算公式如下:
本发明进一步的方案为,特征增强模块采用将当前输入加到上一次输出的结果后作为下一次的输入的方式,对于第n层的特征增强模块,首先对上一层得到的特征图Yn+1进行上采样,然后用同一层对应的编码器得到的特征图In进行相加,并送入到修复单元G(·)中,最后减去上采样后的Yn+1作为第n层的特征增强模块的输出,其公式表达如下:
Yn=G(In+de(Yn+1))-de(Yn+1)。
本发明进一步的方案为,跳跃连接处的特征金字塔单元对编码器提取的特征进行不同尺度的扩张,使用卷积层融合多尺度特征,输入到空间注意力单元。
本发明进一步的方案为,空间注意力模块突出特征图中有利于最终去雾效果的位置并赋予较高权重,对去雾效果影响较小的位置赋予较小权重,自适应调节特征权重。
本发明进一步的方案为,训练数据集与测试数据集比例为9:1。
本发明的有益效果:
本发明所提供的基于注意力机制与特征增强的图像去雾方法通过结合自注意力模块、密集特征融合模块和特征增强模块,融合图像全局特征间的联系,同时提取局部低级特征和全局上下文特征;同时在编码器与解码器之间的跳跃连接上引入特征金字塔单元,通过训练对多尺度特征施加不同的权重,突出对前景目标更有用的上下文信息,提高对图像特征的表征能力,最大程度利用有用信息,从而提升去雾效果,实现更加精确的图像去雾。
附图说明
图1为本发明基于注意力机制与特征增强的深度学习模型结构示意图;
图2为本发明自注意力模块的结构示意图;
图3为本发明密集特征融合模块的结构示意图;
图4为本发明特征增强模块的结构示意图;
图5为本发明特征金字塔单元的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1-5所示,本发明提供的基于注意力机制与特征增强的图像去雾方法包括:
数据集制作,根据大气散射模型模拟不同雾天环境下的成像设备捕捉到的雾天图像;雾天图像制作数据集,数据集缩放后按比例划分为训练数据集和测试数据集;
深度学习模型去雾,整体采用编码器-解码器结构,编码器对输入的雾天图像进行特征提取,解码器逐层恢复图像特征,实现图像去雾。
具体步骤如下:
(1)、根据大气散射模型来模拟不同雾天环境下的成像设备捕捉到的图像并制作成数据集,缩放后按9:1的比例划分为训练数据集与测试数据集;
(2)、构建基于注意力机制与特征增强的图像去雾深度学习模型,整体采用编码器-解码器结构,编码器对输入的雾天图像进行特征提取,解码器逐层恢复图像特征,实现图像去雾;
(3)、设计损失函数指导模型进行参数优化,将训练集作为输入对深度学习模型进行迭代训练至损失收敛水平;
(4)、将测试集输入到步骤(3)训练好的模型中,输出最终预测结果。
步骤(2)的深度学习模型,分为编码器和解码器两个部分,具体方法如下:
(2.1)、编码器进行四次下采样操作,由四层残差模块、密集特征融合模块和自注意力模块组成,残差模块用于挖掘雾天图像潜藏的边缘与细节特征,自注意力模块位于解码器末层,提取高阶特征关联全局信息,融合图像全域特征间的联系,计算成本较小,不会增加整个网络的计算压力;
(2.2)、解码器进行四次上采样双线性插值操作,由四层特征增强模块、密集特征融合模块与上采样模块组成,与编码过程相似,解码部分同样经过四次特征融合,特征增强模块引入编码阶段的特征对解码过程进行深入处理,在解码器的最后使用卷积层从最终融合的特征中恢复出无雾图像;
(2.3)、编码器与解码器之间进行跳跃连接,编码器提取的特征经过特征金字塔单元学习多尺度特征并对多尺度特征施加不同权重,通过该权重突出对前景目标有用的上下文信息,抑制无用信息,与解码器的特征增强模块进行通道拼接以提高恢复图像质量。
深度学习模型输入为256*256的雾天RGB图像,雾天图像首先被送入一个步长为1的卷积层中提取浅层信息,并将输出保存到特征数组中;其次,包含浅层信息的特征图被送入残差模块,由残差模块提取特征后,再次被送入一个步长为2的卷积层,得到输出结果。最后,将特征数组与输出结果一并送入密集特征融合模块。每层的密集特征融合模块的输入都要与之前所有密集融合模块的输出特征图进行误差融合,保证在获取高阶语义信息的同时,低阶的位置空间信息被补充。以此类推,经过四次特征融合,得到最终的特征图。在编码器的末层嵌入自注意力模块,结合卷积与自注意力机制的优点,利用图像全局上下文语境信息生成图像特征。在编码器与解码器的跳跃连接上引入特征金字塔单元,融合多尺度特征并施加权重,突出有用信息,抑制无用信息。编码阶段的特征经过特征金字塔单元输出后与解码器的特征增强模块拼接,对解码过程进行深入处理,最后通过由1*1卷积和sigmoid激活函数组成的分类层恢复无雾图像。
自注意力模块:
自注意力被定义为应用于单个上下文而不是跨多个上下文的注意力(查询向量、键向量和值向量)。自注意力模拟远程交互的能力,及其并行性(利用现代硬件的优势提高算力)已经为各种任务带来了最先进的模型。考虑到卷积和自注意力的不同之处和互补性质,整合这两个模块,将卷积神经网络与自注意力结合将带来潜在的优势,进一步提高模型性能。自注意力模块通过对一张图像中各个位置的特征进行加权求和,并将其与当前位置的关系进行表达,从而可以在图像远距离区域之间建立多层次关系,并在此基础上对当前位置的细节特征与远距离位置的细节特征进行调整。因此,对于雾天图像,在编码器末端嵌入自注意力模块,能够更好地提取雾天图像的全局性信息,提高图像去雾完整度,改善去雾效果。同时注意力机制模块计算成本较小,并不会增加整个网络的计算压力。自注意力计算公式如下:
如图2所示,经过最末层的卷积层之后得到高阶特征图X,X经过1×1卷积层被重塑为上述公式的3个一维向量,分别为Q、K、V。Q与K的转置进行相乘运算得到QKΤ,QKΤ经过Softmax归一化后得到注意力特征图Y,QKΤ反映了Q与K元素之间的相似度,V用来施加权重。输入的特征图X与自注意力层输出进行加权相加得到最终的输出。
密集特征融合模块:
如图3所示,密集特征融合模块的输入与之前所有密集融合模块的输出特征图进行误差融合,在获取高阶语义信息的同时补充低阶的位置空间信息,第n层密集特征融合模块的输出特征图定义如下:
Fn=Sn(fn,{FL,FL-1,L,Fn+1})
式中Sn代表融合操作,jn为第n层密集特征融合模块的输入特征图(编码器为卷积层的输出特征图,解码器为SOS模块的输出特征图),Fn为第n层密集特征融合模块输出的增强特征图,L为模型网络总层数,{FL,FL-1,L Fn+1}为第n层之前所有密集特征融合模块输出的增强特征图,第n层共计需要融合(L-n)个增强特征图。在融合过程中,fn依次和不同的增强特征图进行融合,为了表示不同阶段的融合特征,将不同的增强特征图分别表示为FL-t,t∈{0,1,L,L-t-1},t也可以表示迭代融合的不同阶段。
特征增强模块:
如图4所示,特征增强模块采用将当前输入加到上一次输出的结果后作为下一次的输入的方式,对于第n层的特征增强模块,首先对上一层得到的特征图Yn+1进行上采样,然后用同一层对应的编码器得到的特征图In进行相加,并送入到修复单元G(·)中,最后减去上采样后的Yn+1作为第n层的特征增强模块的输出,其公式表达如下:
Yn=G(In+de(Yn+1))-de(Yn+1)
式中Yn为第n层特征增强模块输出的特征图,In为对应编码器残差模块的输出特征图,de(·)为2倍的上采样操作,Yn+1为第n+1层特征增强模块输出的特征图。
特征金字塔单元:
如图5所示,特征金字塔单元对解码模块得到的特征图分别进行1、2、4、8倍的双线性插值上采样,后接空间注意力模块进行特征融合,通过训练对不同尺度的输入特征图施加不同的权重并进行融合,以此来提高网络对感兴趣区域上下文特征的关注。
具体融合过程如下:首先,将第一层特征图送入第一个空间注意力模块,输出权重矩阵a1,该权重矩阵包含了各通道所有像素对应的注意力信息,取值范围为[0,1]。然后,将权重矩阵a1与第一层输出特征图进行对应元素相乘,给每个像素赋值。与此同时,输出权重矩阵1-a1与第二层2倍双线性插值上采样后的特征图进行逐元素相乘。通过对相邻两层特征图分配不同的权重,使得与感兴趣区域特征相关的信息被加强,相反地,无用的信息则会被抑制。最后将已分配权值的前两层特征图进行逐元素相加,实现注意力层面的特征融合,并将融合后的特征图作为第二个空间注意力模块的输入。层级化注意力融合模块通过将深层池化特征中的语义信息与浅层特征中大量的细节信息进行融合,使得针对小目标电力线的分割任务取得更精细的结果,解决前景背景样本类别不均衡问题,提高分割的准确度。
步骤(3)的损失函数训练时使用了MSE损失函数和边缘损失函数结合的联合损失函数,在关注整体去雾效果的同时,优化高频信息的恢复效果。计算公式分别如下:
式中x为电力线图像,i为图像上的像素点,n为像素点的个数,P(xi)表示各像素点的预测值,G(xi)为各像素点的真实标签值。均方误差表示预测图像相对于标签图像的偏移程度,数值越大偏移程度越大。
其中,x为电力线图像,i为图像上的像素点,n为像素点的个数,P(xi)表示各像素点的预测值,G(xi)为各像素点的真实标签值。H为计算图像梯度的运算符,H包含Hh和Hv两个部分,分别表示沿着行(水平)方向和列(垂直)方向计算图像梯度的运算符。将均方误差损失函数与边缘损失函数作为联合损失函数,既能达到理想去雾效果,又能提高对图像高频信息的关注。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (8)
1.基于注意力机制与特征增强的图像去雾方法,其特征在于,具体方法如下:
(1.1)、数据集制作
根据大气散射模型模拟不同雾天环境下的成像设备捕捉到的雾天图像;雾天图像制作数据集,数据集缩放后按比例划分为训练数据集和测试数据集;
(1.2)、深度学习模型去雾
整体采用编码器-解码器结构,编码器对输入的雾天图像进行特征提取,解码器逐层恢复图像特征,实现图像去雾。
2.根据权利要求1所述的基于注意力机制与特征增强的图像去雾方法,其特征在于,深度学习模型去雾,具体方法如下:
(2.1)、编码器进行四次下采样操作,由四层残差模块、密集特征融合模块和自注意力模块组成,残差模块用于挖掘雾天图像潜藏的边缘与细节特征,密集特征融合模块使非相邻层级之间的信息进行交互,自注意力模块位于解码器末层,提取高阶特征关联全局信息,融合图像全域特征间的联系;
(2.2)、解码器进行四次上采样双线性插值操作,由四层特征增强模块、密集特征融合模块与上采样模块组成,与编码过程相似,解码部分同样经过四次特征融合,特征增强模块引入编码阶段的特征对解码过程进行深入处理,在解码器的最后使用卷积层从最终融合的特征中恢复出无雾图像;
(2.3)、编码器与解码器之间进行跳跃连接,编码器提取的特征经过特征金字塔单元学习多尺度特征并对多尺度特征施加不同权重,通过该权重突出对前景目标有用的上下文信息,抑制无用信息,与解码器的特征增强模块进行通道拼接以提高恢复图像质量。
3.根据权利要求2所述的基于注意力机制与特征增强的图像去雾方法,其特征在于,密集特征融合模块的输入与之前所有密集融合模块的输出特征图进行误差融合,在获取高阶语义信息的同时补充低阶的位置空间信息,第n层密集特征融合模块的输出特征图定义如下:
Fn=Sn(fn,{FL,FL-1,L,Fn+1})。
5.根据权利要求2所述的基于注意力机制与特征增强的图像去雾方法,其特征在于,特征增强模块采用将当前输入加到上一次输出的结果后作为下一次的输入的方式,对于第n层的特征增强模块,首先对上一层得到的特征图Yn+1进行上采样,然后用同一层对应的编码器得到的特征图In进行相加,并送入到修复单元G(·)中,最后减去上采样后的Yn+1作为第n层的特征增强模块的输出,其公式表达如下:
Yn=G(In+de(Yn+1))-de(Yn+1)。
6.根据权利要求2所述的基于注意力机制与特征增强的图像去雾方法,其特征在于,跳跃连接处的特征金字塔单元对编码器提取的特征进行不同尺度的扩张,使用卷积层融合多尺度特征,输入到空间注意力单元。
7.根据权利要求6所述的基于注意力机制与特征增强的图像去雾方法,其特征在于:空间注意力模块突出特征图中有利于最终去雾效果的位置并赋予较高权重,对去雾效果影响较小的位置赋予较小权重,自适应调节特征权重。
8.根据权利要求2至7任意一项所述的基于注意力机制与特征增强的图像去雾方法,其特征在于,训练数据集与测试数据集比例为9:1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310175434.4A CN116228576A (zh) | 2023-02-28 | 2023-02-28 | 基于注意力机制与特征增强的图像去雾方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310175434.4A CN116228576A (zh) | 2023-02-28 | 2023-02-28 | 基于注意力机制与特征增强的图像去雾方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116228576A true CN116228576A (zh) | 2023-06-06 |
Family
ID=86580142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310175434.4A Pending CN116228576A (zh) | 2023-02-28 | 2023-02-28 | 基于注意力机制与特征增强的图像去雾方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116228576A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496162A (zh) * | 2024-01-03 | 2024-02-02 | 北京理工大学 | 一种红外卫星遥感影像薄云去除方法、装置及介质 |
-
2023
- 2023-02-28 CN CN202310175434.4A patent/CN116228576A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496162A (zh) * | 2024-01-03 | 2024-02-02 | 北京理工大学 | 一种红外卫星遥感影像薄云去除方法、装置及介质 |
CN117496162B (zh) * | 2024-01-03 | 2024-03-22 | 北京理工大学 | 一种红外卫星遥感影像薄云去除方法、装置及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112233038B (zh) | 基于多尺度融合及边缘增强的真实图像去噪方法 | |
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN111524135A (zh) | 基于图像增强的输电线路细小金具缺陷检测方法及系统 | |
CN111028177A (zh) | 一种基于边缘的深度学习图像去运动模糊方法 | |
CN116071243B (zh) | 一种基于边缘增强的红外图像超分辨率重建方法 | |
CN111539886B (zh) | 一种基于多尺度特征融合的去雾方法 | |
CN110349087B (zh) | 基于适应性卷积的rgb-d图像高质量网格生成方法 | |
CN112396607A (zh) | 一种可变形卷积融合增强的街景图像语义分割方法 | |
CN112241939B (zh) | 一种基于多尺度和非局部的轻量去雨方法 | |
CN113657388A (zh) | 一种融合图像超分辨率重建的图像语义分割方法 | |
CN112258436A (zh) | 图像处理模型的训练方法、装置、图像处理方法及模型 | |
Lv et al. | A novel image super-resolution algorithm based on multi-scale dense recursive fusion network | |
CN112085655B (zh) | 一种基于密集残差注意面部先验网络的人脸超分辨率方法 | |
CN114638768B (zh) | 一种基于动态关联学习网络的图像去雨方法、系统及设备 | |
CN114004766A (zh) | 一种水下图像增强方法、系统和设备 | |
CN116228576A (zh) | 基于注意力机制与特征增强的图像去雾方法 | |
Zhang et al. | Dense haze removal based on dynamic collaborative inference learning for remote sensing images | |
CN114092803A (zh) | 基于遥感图像的云检测方法、装置、电子设备及介质 | |
CN110633706A (zh) | 一种基于金字塔网络的语义分割方法 | |
CN116823610A (zh) | 一种基于深度学习的水下图像超分辨率生成方法和系统 | |
Schirrmacher et al. | SR 2: Super-resolution with structure-aware reconstruction | |
CN114219738A (zh) | 单幅图像多尺度超分辨重建网络结构及方法 | |
Zhao et al. | Single image super-resolution via blind blurring estimation and anchored space mapping | |
CN112464733A (zh) | 基于双向特征融合的高分辨率光学遥感图像地物分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |