CN116052016A - 基于深度学习的遥感图像云和云影的精细分割检测方法 - Google Patents
基于深度学习的遥感图像云和云影的精细分割检测方法 Download PDFInfo
- Publication number
- CN116052016A CN116052016A CN202310058135.2A CN202310058135A CN116052016A CN 116052016 A CN116052016 A CN 116052016A CN 202310058135 A CN202310058135 A CN 202310058135A CN 116052016 A CN116052016 A CN 116052016A
- Authority
- CN
- China
- Prior art keywords
- cloud
- feature
- module
- training
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 37
- 238000013135 deep learning Methods 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 title abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 44
- 230000002776 aggregation Effects 0.000 claims abstract description 16
- 238000004220 aggregation Methods 0.000 claims abstract description 16
- 230000000694 effects Effects 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000012795 verification Methods 0.000 claims abstract description 8
- 238000005070 sampling Methods 0.000 claims abstract description 6
- 239000000284 extract Substances 0.000 claims abstract description 4
- 230000008569 process Effects 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims description 2
- 230000003993 interaction Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011045 prefiltration Methods 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Astronomy & Astrophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Remote Sensing (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开基于深度学习的遥感图像云和云影的精细分割检测方法,属于图像处理领域;检测方法包括:获取并处理训练数据集,将数据集划分为训练集和验证集;构建用于深度学习语义的分割网络;利用数据集在分割网络中进行网络模型的训练;使用训练好的网络模型进行预测并生成云和云影的掩膜图像;分割网络ResNet‑18网络为主干提取不同层次的特征信息,通过多尺度全局注意力模块加强模型对通道信息和空间信息的注意力来提高分割的正确率,并使用条状金字塔通道注意力模块多尺度学习空间信息以更好地检测出细小的云团,最后通过层级特征聚合模块将高维特征与低维特征融合,逐层上采样得到最终的分割效果;可以检测到更细小的云团,获得更加精细的边缘。
Description
技术领域
本发明属于图像处理领域,具体涉及基于深度学习的遥感图像云和云影的精细分割检测方法。
背景技术
随着遥感技术的进步,遥感图像被广泛运用于军事、农业、气象等诸多领域;在遥感图像中所有的地面目标都可能被云遮挡,或者落在云影中造成比真实更低的亮度和可见度;这导致了我们对真实地面目标的勘察受到了影响,所以遥感图像中的云和云影进行识别和分割是一个很重要的问题。
现有技术中对云的检测方法主要是通过人工根据云和云影不同波段的阈值或者利用云的不同波段之间的归一化差异来进行识别,但是传统算法普遍存在操作复杂,需要花费大量人力去进行特征提取,检测精度低的问题。
近年来,随着人工智能的兴起,也出现了许多利用机器学习,深度学习的检测方法,许多学者将深度学习应用到云的检测当中,例如J(2018)提出了一种分段式结构的卷积神经网络来进行云分类。Li Z等(2019)提出了一种多尺度卷积特征融合算法用于云层的检测。Xu K(2019)利用深度卷积神经网络ResNet研究了像素级云掩膜生成。Chai D(2019)提出了一种基于深度神经网络的方法来检测Landsat图像中的云和云阴影。Segal-Rozenhaimer M(2020)提出了一种基于遥感图像的红绿蓝和近红外通道的云检测算法,试图利用卫星图像中固有的光谱和空间信息来学习用于云检测的深度不变特征。
虽然深度学习在图像处理领域具有很好的效果,但是对于特定的场景应用许多网络的效果表现得并不是那么理想,在云和云影的检测任务中,大多数网络都存在分割结果不准确,边缘信息恢复的不理想,许多薄云不能准确地检测到以及在检测云影时受到复杂背景的干扰等一系列问题。
发明内容
针对现有技术的不足,本发明的目的在于提供基于深度学习的遥感图像云和云影的精细分割检测方法。
本发明的目的可以通过以下技术方案实现:
基于深度学习的遥感图像云和云影的精细分割检测方法,包括以下步骤:
S1,获取并处理训练数据集,将数据集划分为训练集和验证集;
S2,构建用于深度学习语义的分割网络;
S3,利用S1得到的数据集,在S2建立的分割网络中进行网络模型的训练;
S4,使用训练好的网络模型进行预测并生成云和云影的掩膜图像。
进一步地,S1中,将大小为4800×2742像素的原始图片统一裁剪为224×224大小,最终得到3×224×224大小的图像,之后将所有图片以8:2的比例划分为训练集和验证集。
进一步地,S2中构建的网络包括:主干网络ResNet-18、多尺度全局注意力模块、条状金字塔通道注意力模块和层级特征聚合模块;
其中,主干网络ResNet-18提取不同层次的特征信息,通过多尺度全局注意力模块加强模型对通道信息和空间信息的注意力,并使用条状金字塔通道注意力模块多尺度学习空间信息,最后通过层级特征聚合模块将高维特征与低维特征融合,逐层上采样得到最终的分割效果。
进一步地,所述多尺度全局注意力模块包括分层多尺度卷积模块、全局空间注意力模块和全局通道注意力模块;多尺度全局注意力模块的实现过程为:
浅层特征FL∈RC×H×W经过分层多尺度卷积模块,得到提取浅层特征丰富的空间信息的特征再将它和下一层主干网络输出的高维特征FH∈R2C×H/2×W/2相加得到初步特征F∈R2C×H/2×W/2;将初步特征F通过并行的全局空间注意力模块和通道注意力模块得到权重WS和WC;上述过程公式表示为:
最后权重Ws和WC与初步特征F相乘,得到在全局范围上对目标进行空间和通道注意力加强的特征Ms和MC,将其与经过卷积后的初步特征FC相加,最后输出FO∈R2C×W/2×H/2;上述过程可以数学上表示为:
其中分层多尺度卷积模块的公式表示为:
得到输出zi后,对zi在通道维进行合并,最后通过1×1的卷积将通道数调整为想要的数量进行输出。
进一步地,所述条状金字塔通道注意力模块包括条状卷积和压缩-激励权重模块(SEWeight);条状金字塔通道注意力模块实现经过以下四个步骤:
1)使用四个卷积核大小不同的条状卷积来提取不同尺度的特征构建成特征金字塔;
4)利用SEWeight模块计算不同特征块的通道注意力;
5)通过使用Softmax对通道关注向量进行重新校准,得到多尺度通道的重新校准权重;
4)将重新校准的权重和对应的特征进行对应元素乘积,最后得到多尺度特征信息的精细化特征图。
进一步地,所述压缩-激励权重模块的实现过程在数学上可以表示为:
wc=σ(W1r(W0(gc))
其中,GAP表示全局平均池化,r表示ReLU函数,W0是输入为C输出为C/r的全连接,W1是输入为C/r输出为C的全连接,符号σ表示激活函数Sigmoid。
进一步地,所述层级特征聚合模块对浅层和深层特征的聚合过程包括以下步骤:
1)浅层特征F1经过改进的自注意力模块,得到加强位置信息的浅层特征F11;
2)深层特征F2通过3×3卷积和双线性插值上采样,将它的大小改变为与浅层特征相同的F21;
3)将其加权并将对应元素与浅层特征相乘,以得到增强分类能力得浅层特征U1;
4)浅层特征F1通过平均池化得到和深层特征大小相同的F12;
5)F12和经过两层3×3卷积并且通过Sigmoid加权的深层特征F22相乘,以此来得到增强空间信息的深层特征U2;
6)最后将U1和经过双线性插值上采样的U2相加,并送入3×3卷积,完成深层特征和浅层特征的融合。
进一步地,S3中采用监督训练的训练模式,具体步骤为:
S31,首先将数据集中的图片进行数据增强操作,以0.2的概率对数据集中的图片进行随机旋转,水平翻转或者垂直翻转操作;
S32,将图片和标签转换为张量,图片作为模型的输入序列,输出和标签用于损失函数的计算,并将每次输入的批量大小设置为8,采用ploy策略随着训练次数的增大相应的减小学习率来进行训练以达到更好的训练效果,iter为当前迭代次数,迭代系数power设置为0.9,最大训练次数maxiter为300;
其中,学习率计算公式如下:
选择交叉熵作为最大损失函数,公式表示为:
其中x是模型输出的预测图片,class是标签,使用Adam优化器。
进一步地,S4中,在预测时,使用训练迭代过程中验证集MioU最高的一次的模型参数来进行预测;输入一张彩色图片,经过训练好的权重提取特征进行编码解码操作后输出得到云和云影的掩膜图像。
基于深度学习的遥感图像云和云影的精细分割检测系统,包括:
数据处理模块:用于获取并处理训练数据集,将数据集划分为训练集和验证集;
网络构建模块:构建用于深度学习语义的分割网络;
训练模块:利用数据集,在分割网络中进行网络模型的训练;
图像生成模块:使用训练好的网络模型进行预测并生成云和云影的掩膜图像。
本发明的有益效果:本发明的检测方法可以有效的区分出云和云影,相较于当前的方法检测云和云影更加准确,可以有效减少背景信息的干扰,增强对云层边缘以及薄云的检测能力,同样的,本发明所提出的网络模型在分割其他物体方面也具有不错的效果,泛化能力优秀。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明中CRSNet模型整体结构;
图2是本发明中多尺度全局注意力模块MGA模块;
图3是本发明中分层多尺度卷积模块HMC;
图4是本发明中压缩-激励权重模块SEWeight;
图5是本发明中条状金字塔通道注意力模块SPCA;
图6是本发明中层级特征聚合模块HFA;
图7是本发明中输入的遥感图像和生成的掩膜图像。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1所示,基于深度学习的遥感图像云和云影的精细分割检测方法,包括以下步骤:
S1,获取训练数据集,数据集包括训练集和验证集;
使用的云和云影数据集主要来自Landsat8卫星拍摄以及谷歌地球(GE)上选取的高分辨率遥感图像数据;从GE上直接获取到的原始图片大小为4800×2742像素,由于受到显卡内存的限制,之后将原始图片统一裁剪为224×224大小,裁剪方式为滑动无盖切割,最终得到3×224×224大小的图像,表示所裁剪获取的图像为3通道,宽高为224的大小,之后将所有图片以8:2的比例划分为训练集和验证集。
选取的图片包含多个不同角度、高度以及背景,目的是为了确保图片背景的复杂性,使得数据会更加具有真实性,图片背景主要包含林地,水域,荒漠,建筑,农田等多处景象。
S2,构建用于深度学习语义分割网络,该模型输入转化为张量的遥感图片,输出在像素级别上对图片中云和云影以及背景进行分类的图片。
如图1所示,分割网络包括主干网络ResNet-18、多尺度全局注意力模块(MGA)、条状金字塔通道注意力模块(SPCA)和层级特征聚合模块(HFA);ResNet引入的拟合残差映射能够很好的解决深层网络的梯度消失和梯度爆炸等问题,能够更好地提取不同层次地特征。在特征提取的过程中,对每层特征都经过MGA模块加强空间和通道的注意力,提高对云和云影的精确分割能力。同时,对每层经过MGA的下采样特征都进一步通过SPCA模块独立地学习多尺度空间信息,并以局部方式建立跨通道交互,增强对不同尺度的云和云影的检测能力。最后,通过HFA模块在加强每层特征上下文联系的同时,逐层地将高维特征和低维特征融合,充分利用浅层特征保留下来的空间信息和深层特征丰富的语义信息。
构建分割网络的具体步骤为:
S21,构建多尺度全局注意力模块;
如图2所示,多尺度全局注意力模块包括分层多尺度卷积模块(HMC)、全局空间注意力模块和全局通道注意力模块;
高分辨率特征往往不可避免地存在噪声,所以要用卷积对信息进行预先的滤波;多尺度的特征对于许多图像任务非常重要,现有的大多数方法以分层的方式表示多尺度特征;通过构建分层连接,以更细粒度的方式表示多尺度特征,并增加每一层的感受野;为了实现上述功能,设计了如图3所示的分层多尺度卷积模块(HMC),在注意力强化之前对特征图进行滤波;分层多尺度卷积模块对特征向量的不同的通道分别进行不同尺度的卷积,并将得到的结果迭代相加并重复卷积得到更加全面的特征信息;经过滤波的特征会通过全局空间注意力模块和全局通道注意力模块;全局空间注意力和全局通道注意力部分都舍去了先前注意力机制(如SENet、CBAM)中常用的池化操作,减少了空间信息的丢失;全局通道注意力模块也避免了传统的将特征展开成一维进行全连接的来获取通道维权重的方法,以使通道之间的关系更加完整地被保留。
在实现的细节上,相对较高分辨率的浅层特征FL∈RC×H×W经过分层多尺度卷积模块,得到提取浅层特征丰富的空间信息的特征再将它和下一层主干网络输出的高维特征FH∈R2C×H/2×W/2相加得到初步特征F∈R2C×H/2×W/2;将初步特征F通过并行的全局空间注意力模块和通道注意力模块得到权重WS和WC;上述过程公式表示为:
最后权重Ws和WC与初步特征F相乘,得到在全局范围上对目标进行空间和通道注意力加强的特征Ms和MC,将其与经过卷积后的初步特征FC相加,最后输出FO∈R2C×W/2×H/2;上述过程可以数学上表示为:
其中分层多尺度卷积模块(HMC)的公式表示为:
得到输出zi后,对zi在通道维进行合并,最后通过1×1的卷积将通道数调整为想要的数量进行输出。
S22,构建条状金字塔通道注意力模块;
在特征逐层下采样的过程中语义信息会逐步丢失,所以对于深度神经网络而言捕获远距离相关性是至关重要的;然而卷积的感受野有限,很难捕捉到特征的远距离相关性;为了提高深层特征的语义信息,增加感受野是很有必要的。在过去涉及金字塔结构的模型中,常常使用池化来得到不同尺度的特征信息,而池化对于细节的丢失是很严重的,这会导致池化金字塔模型在云和云影检测任务中只对大范围目标的识别有效,对细小的云团和云影的检测效果没有帮助。为了弥补这一不足,本发明提出使用条状卷积来提取不同尺度的特征。使用条状卷积提取特征的好处有三点:1)使用卷积替代池化进行下采样可以减少信息的丢失;2)条状卷积沿着一个空间维度部署一个长条状的池化核形状,因此能够捕获孤立区域的长距离关系;并且,条状卷积在空间维度上保持较窄的内核形状,便于捕获局部上下文,防止不相关区域干扰预测;3)金字塔结构中随着卷积核尺寸的增加,参数量也大大提高,而条状卷积模块可以减少内存的消耗。
通道注意机制允许网络自适应每个通道的权重,从而生成更有代表性的特征;因此在得到不同尺度的特征之后,让每个特征块经过压缩-激励权重模块(SEWeight)来得到各自的通道权重向量,再通过Softmax后并乘上对应的特征,让每个特征块独立地学习多尺度空间信息;压缩-激励权重模块由压缩和激励两个环节组成;压缩部分用于编码全局信息,激励部分用于自适应地生成通道之间的重要性权重;使用全局平均池化将全局空间信息嵌入到通道信息中。
压缩-激励权重模块的结构如图4所示;压缩-激励权重模块的过程在数学上可以表示为:
wc=σ(W1r(W0(gc))
其中,GAP表示全局平均池化,r表示ReLU函数,W0是输入为C输出为C/r的全连接,W1是输入为C/r输出为C的全连接,两个全连接操作可以有效地自适应学习通道之间的关系,符号σ表示激活函数Sigmoid。
通过上述提出的条状卷积和压缩-激励权重模块(SEWeight),如图5所示,本发明提出条状金字塔通道注意力模块包括条状卷积和压缩-激励权重模块(SEWeight);条状金字塔通道注意力模块实现经过四个步骤:1)使用四个卷积核大小不同的条状卷积来提取不同尺度的特征构建成特征金字塔;2)利用SEWeight模块计算不同特征块的通道注意力;3)通过使用Softmax对通道关注向量进行重新校准,得到多尺度通道的重新校准权重;4)将重新校准的权重和对应的特征进行对应元素乘积,最后得到更加丰富的多尺度特征信息的精细化特征图。
在用条状卷积构建特征金字塔时,并行地增加内核大小将导致参数数量的显著增加。为了在不增加计算量的前提下充分利用多尺度的空间位置信息,在提取不同尺度的特征图时分别使用分组卷积。然后将不同尺度的特征在通道维度拼接,并将其维度重组来与下面求得的多尺度通道注意力相乘,其过程可以表示为:
F=Cat(F0,F1,F2,F3)
F∈RC×H×W→F∈R4×C/4×H×W
其中,ki和Gi代表条状卷积核的大小;Cat表示在通道维度上进行拼接操作;Fi为条状卷积金字塔提取的不同尺度特征,F是通道维度拼接之后的特征。
将不同尺度特征Fi通过压缩-激励权重(SEWeight)模块,得到不同尺度的通道注意力向量wi,再将它们在通道维度拼接;然后我们将得到的多尺度通道注意力向量的维度重组,进一步实现通道注意力的交互:
得到多尺度通道权重Wi后,我们将它与不同尺度特征在对应通道上对应元素相乘,并在通道维拼接作为输出;上述过程数学上表示为:
Yi=Fi*Wi
Out=Cat([Y0,Y1,Y2,Y3]),Out∈RC×H×W
其中Yi表示各通道权重Wi和各特征块Fi相乘之后的特征,*表示在通道维度上对应相乘;Out表示输出特征。
通过SPCA模块,我们可以拥有更大的感受野,并更细粒度地检测云和云影;同时,通过局部与全局相互作用得到的多尺度通道注意力可以让模型更关注全局的语义信息,提高检测精度和抗噪声的能力。
S23,构建层级特征聚合模块;
编码阶段充分提取云和云影的类别信息后,需要在解码阶段逐层还原成初始图片大小,以实现逐像素的分类效果。当编码器下采样的过程中,图像大小被压缩,目标的位置信息逐步丢失,单纯的双线插值上采样得到的预测结果会有较低的准确率和粗糙的边缘。为了解决上述问题,本发明提出了层级特征聚合模块(HFA);
层级特征聚合模块利用深层特征的类别信息指导浅层特征进行上采样,实现了在保留位置信息的同时加强它的分类效果。同时,将浅层特征经过改进的自注意力模块(ISA),该模块key上采用3×3卷积来学习上下文信息,然后将query和上下文信息学习后进行拼接,再使用两个连续的1×1卷积来提取局部信息;这样的操作不仅能够注意到独立像素点之间的关系,还能够注意到像素点周围的语义,从而在全局层面掌握像素点之间的长距离依赖关系,因此它使得浅层特征拥有更精确的位置信息。
如图6所示,层级特征聚合模块对浅层和深层特征的聚合过程包括以下步骤:
1)浅层特征F1经过改进的自注意力模块(ISA),得到加强位置信息的浅层特征F11;
2)让深层特征F2通过3×3卷积和双线性插值上采样,将它的大小改变为与浅层特征相同的F21;
3)将其加权并将对应元素与浅层特征相乘,以得到增强分类能力得浅层特征U1;
4)浅层特征F1通过平均池化得到和深层特征大小相同的F12;
5)F12和经过两层3×3卷积并且通过Sigmoid加权的深层特征F22相乘,以此来得到增强空间信息的深层特征U2;
6)最后将U1和经过双线性插值上采样的U2相加,并送入3×3卷积,完成深层特征和浅层特征的融合。
上述过程在数学上可以表示为:
F11=attention(F1)
F12=Avpooling{BN[Conv3×3(F1)]}
F21=BN[Conv3×3(F2)]
F22=BN{Conv3×3[DWConv3×3(F2)]}
U1=F11×Sigmoid(F21)
U2=F12×Sigmoid(F22)
其中,Conv3×3代表3×3卷积,DWConv3×3代表深度可分离卷积;我们将DWConv3×3的参数group设为深层特征的通道数;BN表示批量归一化操作;Avpooling表示平均池化操作;×和+分别表示对应元素相乘和相加;符号σ表示激活函数ReLU。
S3,利用S1得到的数据集在上述网络模型中进行训练;
本发明采用有监督训练的训练模式,具体步骤为:
S31,首先将数据集中的图片进行数据增强操作,以0.2的概率对数据集中的图片进行随机旋转,水平翻转或者垂直翻转操作;
S32,将图片和标签转换为张量,图片作为模型的输入序列,输出和标签用于损失函数的计算,并将每次输入的批量大小设置为8,采用ploy策略随着训练次数的增大相应的减小学习率来进行训练以达到更好的训练效果,iter为当前迭代次数,迭代系数power设置为0.9,为了实验充分收敛和对比的准确性,最大训练次数maxiter为300。学习率计算公式如下:
选择交叉熵作为最大损失函数,公式表示为:
其中x是模型输出的预测图片,class是标签,使用Adam优化器。
S4,使用训练好的网络模型进行预测并生成云和云影的掩膜图像;
在预测时,使用训练迭代过程中验证集MioU(平均交并比)最高的一次的模型参数来进行预测;输入一张彩色图片,经过训练好的权重提取特征进行编码解码操作后输出得到云和云影的掩膜图像,如图7所示。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。
Claims (10)
1.基于深度学习的遥感图像云和云影的精细分割检测方法,其特征在于,包括以下步骤:
S1,获取并处理训练数据集,将数据集划分为训练集和验证集;
S2,构建用于深度学习语义的分割网络;
S3,利用S1得到的数据集,在S2建立的分割网络中进行网络模型的训练;
S4,使用训练好的网络模型进行预测并生成云和云影的掩膜图像。
2.根据权利要求1所述的基于深度学习的遥感图像云和云影的精细分割检测方法,其特征在于,S1中,将大小为4800×2742像素的原始图片统一裁剪为224×224大小,最终得到3×224×224大小的图像,之后将所有图片以8:2的比例划分为训练集和验证集。
3.根据权利要求1所述的基于深度学习的遥感图像云和云影的精细分割检测方法,其特征在于,S2中构建的网络包括:主干网络ResNet-18、多尺度全局注意力模块、条状金字塔通道注意力模块和层级特征聚合模块;
其中,主干网络ResNet-18提取不同层次的特征信息,通过多尺度全局注意力模块加强模型对通道信息和空间信息的注意力,并使用条状金字塔通道注意力模块多尺度学习空间信息,最后通过层级特征聚合模块将高维特征与低维特征融合,逐层上采样得到最终的分割效果。
4.根据权利要求3所述的基于深度学习的遥感图像云和云影的精细分割检测方法,其特征在于,所述多尺度全局注意力模块包括分层多尺度卷积模块、全局空间注意力模块和全局通道注意力模块;多尺度全局注意力模块的实现过程为:
浅层特征FL∈RC×H×W经过分层多尺度卷积模块,得到提取浅层特征丰富的空间信息的特征再将它和下一层主干网络输出的高维特征FH∈R2C×H/2×W/2相加得到初步特征F∈R2C×H/2×W/2;将初步特征F通过并行的全局空间注意力模块和通道注意力模块得到权重WS和WC;上述过程公式表示为:
最后权重Ws和WC与初步特征F相乘,得到在全局范围上对目标进行空间和通道注意力加强的特征Ms和MC,将其与经过卷积后的初步特征FC相加,最后输出FO∈R2C×W/2×H/2;上述过程可以数学上表示为:
其中分层多尺度卷积模块的公式表示为:
得到输出zi后,对zi在通道维进行合并,最后通过1×1的卷积将通道数调整为想要的数量进行输出。
5.根据权利要求3所述的基于深度学习的遥感图像云和云影的精细分割检测方法,其特征在于,所述条状金字塔通道注意力模块包括条状卷积和压缩-激励权重模块(SEWeight);条状金字塔通道注意力模块实现经过以下四个步骤:
1)使用四个卷积核大小不同的条状卷积来提取不同尺度的特征构建成特征金字塔;
2)利用SEWeight模块计算不同特征块的通道注意力;
3)通过使用Softmax对通道关注向量进行重新校准,得到多尺度通道的重新校准权重;
4)将重新校准的权重和对应的特征进行对应元素乘积,最后得到多尺度特征信息的精细化特征图。
7.根据权利要求3所述的基于深度学习的遥感图像云和云影的精细分割检测方法,其特征在于,所述层级特征聚合模块对浅层和深层特征的聚合过程包括以下步骤:
1)浅层特征F1经过改进的自注意力模块,得到加强位置信息的浅层特征F11;
2)让深层特征F2通过3×3卷积和双线性插值上采样,将它的大小改变为与浅层特征相同的F21;
3)将其加权并将对应元素与浅层特征相乘,以得到增强分类能力得浅层特征U1;
4)浅层特征F1通过平均池化得到和深层特征大小相同的F12;
5)F12和经过两层3×3卷积并且通过Sigmoid加权的深层特征F22相乘,以此来得到增强空间信息的深层特征U2;
6)最后将U1和经过双线性插值上采样的U2相加,并送入3×3卷积,完成深层特征和浅层特征的融合。
8.根据权利要求1所述的基于深度学习的遥感图像云和云影的精细分割检测方法,其特征在于,S3中采用监督训练的训练模式,具体步骤为:
S31,首先将数据集中的图片进行数据增强操作,以0.2的概率对数据集中的图片进行随机旋转,水平翻转或者垂直翻转操作;
S32,将图片和标签转换为张量,图片作为模型的输入序列,输出和标签用于损失函数的计算,并将每次输入的批量大小设置为8,采用ploy策略随着训练次数的增大相应的减小学习率来进行训练以达到更好的训练效果,iter为当前迭代次数,迭代系数power设置为0.9,最大训练次数maxiter为300;
其中,学习率计算公式如下:
选择交叉熵作为最大损失函数,公式表示为:
其中x是模型输出的预测图片,class是标签,使用Adam优化器。
9.根据权利要求1所述的基于深度学习的遥感图像云和云影的精细分割检测方法,其特征在于,S4中,在预测时,使用训练迭代过程中验证集MioU最高的一次的模型参数来进行预测;输入一张彩色图片,经过训练好的权重提取特征进行编码解码操作后输出得到云和云影的掩膜图像。
10.基于深度学习的遥感图像云和云影的精细分割检测系统,其特征在于,包括:
数据处理模块:用于获取并处理训练数据集,将数据集划分为训练集和验证集;
网络构建模块:构建用于深度学习语义的分割网络;
训练模块:利用数据集,在分割网络中进行网络模型的训练;
图像生成模块:使用训练好的网络模型进行预测并生成云和云影的掩膜图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310058135.2A CN116052016A (zh) | 2023-01-14 | 2023-01-14 | 基于深度学习的遥感图像云和云影的精细分割检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310058135.2A CN116052016A (zh) | 2023-01-14 | 2023-01-14 | 基于深度学习的遥感图像云和云影的精细分割检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116052016A true CN116052016A (zh) | 2023-05-02 |
Family
ID=86132900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310058135.2A Pending CN116052016A (zh) | 2023-01-14 | 2023-01-14 | 基于深度学习的遥感图像云和云影的精细分割检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116052016A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116503428A (zh) * | 2023-06-27 | 2023-07-28 | 吉林大学 | 基于精细化全局注意力机制图像特征提取方法和分割方法 |
CN116740569A (zh) * | 2023-06-15 | 2023-09-12 | 安徽理工大学 | 一种基于深度学习的降雪区域云检测系统 |
CN116824279A (zh) * | 2023-08-30 | 2023-09-29 | 成都信息工程大学 | 一种具有全局特征捕获能力的轻量级地基云图分类方法 |
CN117593639A (zh) * | 2023-11-21 | 2024-02-23 | 北京天鼎殊同科技有限公司 | 公路及其附属物的提取方法、装置、设备及介质 |
CN117611987A (zh) * | 2023-10-13 | 2024-02-27 | 河海大学 | 养殖用海自动识别方法、装置及介质 |
CN117635982A (zh) * | 2023-12-07 | 2024-03-01 | 哈尔滨航天恒星数据系统科技有限公司 | 一种基于深度学习的面向遥感图像的路网匹配方法 |
-
2023
- 2023-01-14 CN CN202310058135.2A patent/CN116052016A/zh active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116740569A (zh) * | 2023-06-15 | 2023-09-12 | 安徽理工大学 | 一种基于深度学习的降雪区域云检测系统 |
CN116740569B (zh) * | 2023-06-15 | 2024-01-16 | 安徽理工大学 | 一种基于深度学习的降雪区域云检测系统 |
CN116503428A (zh) * | 2023-06-27 | 2023-07-28 | 吉林大学 | 基于精细化全局注意力机制图像特征提取方法和分割方法 |
CN116503428B (zh) * | 2023-06-27 | 2023-09-08 | 吉林大学 | 基于精细化全局注意力机制图像特征提取方法和分割方法 |
CN116824279A (zh) * | 2023-08-30 | 2023-09-29 | 成都信息工程大学 | 一种具有全局特征捕获能力的轻量级地基云图分类方法 |
CN116824279B (zh) * | 2023-08-30 | 2024-02-20 | 成都信息工程大学 | 一种具有全局特征捕获能力的轻量级地基云图分类方法 |
CN117611987A (zh) * | 2023-10-13 | 2024-02-27 | 河海大学 | 养殖用海自动识别方法、装置及介质 |
CN117593639A (zh) * | 2023-11-21 | 2024-02-23 | 北京天鼎殊同科技有限公司 | 公路及其附属物的提取方法、装置、设备及介质 |
CN117593639B (zh) * | 2023-11-21 | 2024-05-28 | 北京天鼎殊同科技有限公司 | 公路及其附属物的提取方法、装置、设备及介质 |
CN117635982A (zh) * | 2023-12-07 | 2024-03-01 | 哈尔滨航天恒星数据系统科技有限公司 | 一种基于深度学习的面向遥感图像的路网匹配方法 |
CN117635982B (zh) * | 2023-12-07 | 2024-06-04 | 哈尔滨航天恒星数据系统科技有限公司 | 一种基于深度学习的面向遥感图像的路网匹配方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Remote sensing image spatiotemporal fusion using a generative adversarial network | |
Song et al. | Spatiotemporal satellite image fusion using deep convolutional neural networks | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
Lin et al. | Hyperspectral image denoising via matrix factorization and deep prior regularization | |
CN116052016A (zh) | 基于深度学习的遥感图像云和云影的精细分割检测方法 | |
CN111915592B (zh) | 基于深度学习的遥感图像云检测方法 | |
CN113344806A (zh) | 一种基于全局特征融合注意力网络的图像去雾方法与系统 | |
CN113052210A (zh) | 一种基于卷积神经网络的快速低光照目标检测方法 | |
Zheng et al. | Single image cloud removal using U-Net and generative adversarial networks | |
Chen et al. | Local patch network with global attention for infrared small target detection | |
CN114187450A (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
CN112906706A (zh) | 一种改进的基于编解码器的图像语义分割方法 | |
CN109523013A (zh) | 一种基于浅层卷积神经网络的空气颗粒物污染程度估计方法 | |
Zhang et al. | CNN cloud detection algorithm based on channel and spatial attention and probabilistic upsampling for remote sensing image | |
CN114943893B (zh) | 一种土地覆盖分类的特征增强方法 | |
CN115410081A (zh) | 一种多尺度聚合的云和云阴影辨识方法、系统、设备及存储介质 | |
CN113011308A (zh) | 一种引入注意力机制的行人检测方法 | |
CN112149526A (zh) | 一种基于长距离信息融合的车道线检测方法及系统 | |
Li et al. | A pseudo-siamese deep convolutional neural network for spatiotemporal satellite image fusion | |
CN109615576B (zh) | 基于级联回归基学习的单帧图像超分辨重建方法 | |
Li et al. | An end-to-end system for unmanned aerial vehicle high-resolution remote sensing image haze removal algorithm using convolution neural network | |
CN116310868A (zh) | 一种多层次注意力交互的云雪辩识方法、设备及存储介质 | |
CN113011506B (zh) | 一种基于深度重分形频谱网络的纹理图像分类方法 | |
CN113744152A (zh) | 一种潮水图像去噪处理方法、终端及计算机可读存储介质 | |
CN112101084A (zh) | 基于卷积神经网络的极化sar建筑物震害信息自动提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |