CN117475145A - 融合多重注意力机制的多尺度遥感影像语义分割方法及系统 - Google Patents
融合多重注意力机制的多尺度遥感影像语义分割方法及系统 Download PDFInfo
- Publication number
- CN117475145A CN117475145A CN202311260422.8A CN202311260422A CN117475145A CN 117475145 A CN117475145 A CN 117475145A CN 202311260422 A CN202311260422 A CN 202311260422A CN 117475145 A CN117475145 A CN 117475145A
- Authority
- CN
- China
- Prior art keywords
- semantic segmentation
- remote sensing
- information
- encoder
- sensing image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 95
- 230000007246 mechanism Effects 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000000605 extraction Methods 0.000 claims abstract description 25
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 230000002708 enhancing effect Effects 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 10
- 238000010606 normalization Methods 0.000 claims description 20
- 238000011176 pooling Methods 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 7
- 238000009499 grossing Methods 0.000 claims description 6
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 230000017105 transposition Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及遥感影像处理技术领域,特别涉及一种融合多重注意力机制的多尺度遥感影像语义分割方法及系统,对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,所述多模态目标数据包含:单通道nDSM信息、三通道RGB信息及单通道Canny边缘信息;利用预训练的语义分割模型对多模态目标数据进行推理预测,得到对应的分割结果,其中,语义分割模型编码器的不同分支网络结构之间设置有用于增强不同模态输入数据间特征融合的高程‑边缘注意力机制,并在编码器和解码器之间设置有用于增强编码器和解码器信息融合的残差切片注意力机制。本发明通过融合多模态、多尺度特征进行深度提取,以改善并提升遥感影像中小目标和模糊边缘场景的分割效果和精度。
Description
技术领域
本发明涉及遥感影像处理技术领域,特别涉及一种融合多重注意力机制的多尺度遥感影像语义分割方法及系统。
背景技术
遥感影像是通过遥感器获取的记录地物电磁波反射或辐射信息的载体。1999年,空间分辨率1m的IKONOS遥感卫星发射,标志着遥感商业卫星应用技术进入亚米级时代。二十多年来,随着卫星、无人机、激光雷达等不同遥感器技术的发展,获得的遥感影像属性不同、分辨率多样。多源遥感数据支撑着遥感技术广泛应用在地形测绘、土地覆盖监测、城市管理、全球生态监测、防灾救援、军事侦察等广阔领域。遥感影像语义分割是从遥感影像中获取地物语义标签(label)的过程。通过语义分割将每个像素分成建筑物、高植被、低矮植被、地面、水体等类别。遥感影像语义分割技术也是当前的研究热点。传统遥感影像语义分割方法首先提取光谱特征、纹理特征,再利用分类器对遥感影像进行分割。传统分割方法具有以下缺陷:首先,遥感影像包含光谱特征、纹理特征、局部变化信息丰富,传统的特征提取技术通常只能提取每个像素周围的特征,难以提取更大尺度全局特征,无法充分结合上下文的信息。第二,传统方法需要提取很多人工特征,但是不同场景遥感影像特征的取舍很难把握,在对复杂场景遥感影像进行分割时效果一般;第三,传统的方法需要人为设置特征提取参数、分类器参数,对经验依赖度高,而分类结果往往受到传感器、获取影像质量、场景差异的影像,人工设计的特征和模型参数也不具有普适性。
近年来,随着人工智能技术发展,深度学习也为遥感影像语义分割提供了新的途径。基于深度学习的影像分割技术在自然影像(如风景照)、遥感影像以及医学影像等领域都取得了卓越的分割效果。基于深度学习的语义分割方法能够通过大数据训练神经网络模型,优化神经网络模型参数,相较于传统的语义分割方法能够充分利用遥感影像深层特征,并且可以提高模型针对不同场景影像的泛化性能(generaliability),自动训练出好的模型和参数以实现好的语义分割效果。具体来说,经典的神经网络模型由一系列有序堆叠的卷积Conv(Convolution)、分批归一化BN(Batch Normalization)、纠正线性单元ReLU(Rectified Linear Unit)、全连接层FC(Fully Connected Layer)组成。各个单元依次实现对输入遥感影像的运算,最终得到输出特征图。全连接神经网络FCN(Fully ConnectedNetwork)被认为是神经网络用于遥感影像语义分割的一个里程碑。FCN的主要思想是将VGG16网络中最后的全连接层转化为卷积层,以生成一个二维的特征图,之后再利用上采样,将分辨率降低后的特征图恢复到原来的尺寸,以实现逐像素的分割目的。之后,基于深度学习方法出现了UNet、Deeplabv3、DenseNet、SegNet、HRNet等不同的改进版本。
当前,基于深度学习的语义分割技术研究热点是在语义分割模型中加入注意力机制(Attention),模拟人眼在观察目标时首先聚焦在能吸引人注意力的局部区域这一行为。SENet通过采用通道注意力,动态调整特征图不同通道的权重,对原来的特征图进行优化。DANet主干网络为残差网络ResNet,利用了更多维的注意力机制。将主干网络生成的特征图通过两个并行的位置注意力(PAM)和通道注意力(CAM)模块,分别得到特征图并进行融合,得到新的特征图。语义分割时由于经过多个卷积层会使影像信息受损,于是提出Non-local模块,通过计算任意两点前的关系来获得长距离的上下文信息。CCNet网络采用十字交叉模块对Non-local模块进行改进,通过利用十字型结构提升分割精度同时降低内存。HANet是一种专门用于城市场景影像语义分割的网络,通过添加通用的附加注意力机制模块来计算每行像素权重,再与特征图结合来获取分割结果。当前,基于深度学习的语义分割方法主要具有以下缺点:1、虽然基于深度学习的语义分割模型取得了良好的分割效果,但是深度学习模型难以实现多个尺度特征融合,难以同时学习到影像的全局特性和局部特征,最终导致在分割背景复杂、边界模糊、小目标的影像时出现误分割。2、遥感影像中不同地物目标尺度差异大,从大块建筑物、草地到局部的机动车、行人,经典的注意力分割模型如SENet、DANet、HANet往往难以提取小物体的细节特征,且难以辨识相似地物的边界,造成分割精度降低。
发明内容
为此,本发明提供一种融合多重注意力机制的多尺度遥感影像语义分割方法及系统,解决现有语义分割针对背景复杂、边界模糊、小目标的影像分割精度低的问题,通过融合多模态、多尺度特征进行深度提取,改善并提升遥感影像中小目标和模糊边缘场景下的分割效果。
按照本发明所提供的设计方案,一方面,提供一种融合多重注意力机制的多尺度遥感影像语义分割方法,包含:
对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,所述多模态目标数据包含:单通道nDSM信息、三通道RGB信息及单通道Canny边缘信息;
利用预训练的语义分割模型对多模态目标数据进行推理预测,得到对应的分割结果,其中,语义分割模型采用由编码器和解码器构成的主干网络,所述编码器由对应单通道nDSM信息、三通道RGB信息和单通道Canny边缘信息的三分支网络结构组成,且在编码器不同分支网络结构之间设置有用于增强不同模态输入数据间特征融合的高程-边缘注意力机制,并在编码器和解码器之间设置有用于增强编码器和解码器信息融合的残差切片注意力机制。
作为本发明融合多重注意力机制的多尺度遥感影像语义分割方法,进一步地,对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,包含:
将原始数据的RGB影像数据、地面高程模型DSM数据进行归一化处理,以分别获取对应的单通道nDSM信息、三通道RGB信息,并利用Canny边缘提取算子提取原始数据的边缘特征,将该边缘特征作为单通道Canny边缘信息。
作为本发明融合多重注意力机制的多尺度遥感影像语义分割方法,进一步地,将原始数据的RGB影像数据进行归一化处理,包含:
将RGB影像数据的每个灰度值除以255,以使RGB影像数据的三个彩色通道均归一化到[0,1]。
作为本发明融合多重注意力机制的多尺度遥感影像语义分割方法,进一步地,将原始数据的地面高程模型DSM数据进行归一化处理,包含:
基于目标区域内多个时相中的高程最小值和高程最大值将目标区域各格网位置高程归一化到[0,1]。
作为本发明融合多重注意力机制的多尺度遥感影像语义分割方法,进一步地,利用Canny边缘提取算子提取原始数据的边缘特征,包含:
首先,利用高斯滤波器对原始数据进行平滑处理;接着,计算平滑后影像数据的水平梯度值和垂直梯度值;并针对梯度方向的非零点,沿着方向导数查找邻近的两个点,若邻近点幅值超过中心点,判定当前非零点不属于图像边缘,并将其边缘强度置0;然后,通过设定高、低阈值,利用双阈值算法选出真实边缘。
作为本发明融合多重注意力机制的多尺度遥感影像语义分割方法,进一步地,所述编码器采用残差卷积单元的循环组合来实现,其中,残差卷积单元包含残差卷积层、归一化层和最大池化层;所述解码器由残差卷积层和转置卷积层组成,其中,转置卷积层用于对特征图尺度进行上采样,以使经过若干转置卷积层后特征图恢复至输入特征图的尺寸。
作为本发明融合多重注意力机制的多尺度遥感影像语义分割方法,进一步地,在编码器和解码器之间设置的残差切片注意力机制,包含:
利用跳跃连接将编码器提取的不同尺度的特征连接到解码器相应尺度,并通过解码器中的残差切片注意力机制将特征图切分为大小相等的切片,对每个切片进行自适应池化,采用门控机制获取切片区域对应通道位置处的注意力响应图,并通过归一化运算和转置卷积运算使特征图尺寸恢复至输入的特征图大小。
作为本发明融合多重注意力机制的多尺度遥感影像语义分割方法,进一步地,在编码器不同分支网络结构之间设置的高程-边缘注意力机制,包含:
对同一尺度的nDSM特征图和Canny边缘特征图进行连接,并对连接后的特征图计算其切片残差注意力响应图;并将特征图嵌入到RGB特征提取主干网络分支,在该主干网络分支中利用残差连接将nDSM特征图和Canny边缘特征图两者连接后计算的切片残差注意力响应图融合到RGB特征提取过程。
作为本发明融合多重注意力机制的多尺度遥感影像语义分割方法,进一步地,语义分割模型的预训练中,采用交叉信息熵作为多分类问题训练过程中的损失函数,该损失函数表示为:其中,P(i)为第i个样本的真实标签,Q(i)为Softmax归一化后的预测概论值,N为样本数量。
进一步地,本发明还提供一种融合多重注意力机制的多尺度遥感影像语义分割系统,包含:数据处理模块和语义分割模块,其中,
数据处理模块,用于对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,所述多模态目标数据包含:单通道nDSM信息、三通道RGB信息及单通道Canny边缘信息;
语义分割模块,用于利用预训练的语义分割模型对多模态目标数据进行推理预测,得到对应的分割结果,其中,语义分割模型采用由编码器和解码器构成的主干网络,所述编码器由对应单通道nDSM信息、三通道RGB信息和单通道Canny边缘信息的三分支网络结构组成,且在编码器不同分支网络结构之间设置有用于增强不同模态输入数据间特征融合的高程-边缘注意力机制,并在编码器和解码器之间设置有用于增强编码器和解码器信息融合的残差切片注意力机制。
本发明的有益效果:
本发明基于融合RGB遥感影像、归一化nDSM数据、Canny边缘数据多模态输入构建的语义分割模型,其编码器中含有三个特征提取分支,解码器含有一个分支,输出为遥感影像上每个像素的类别标签,在较大程度上减少了人工特征提取;特征提取和融合通过编码器与解码器之间的跳跃连接、高程-边缘注意力模块HEAM来实现,特征融合在多个分辨率尺度、不同阶段交叉进行,特征融合程度较深,特征表征能力更强,有效提升地物边缘、小物体处的分割效果;在跳跃连接中使用切片残差注意力机制ResPAM,提升特征学习效果,抑制无关信息、噪声的干扰,从而提高语义分割精度。其中,ResPAM机制与现有的切片注意力PAM相比具备以下优点:一是在特征图降维操作中使用了残差卷积模块ResBlock,加深特征提取深度,且利于模型加速收敛;二是使用转置卷积TransConv进行上采样,比双线性插值上采样运算效率更高,且能够学习更深的特征。并利用高程-边缘注意力机制HEAM从nDSM和Canny边缘数据中计算注意力响应,与遥感影像不同尺度特征图进行融合,融合后的特征图中强化了地物边缘信息、综合了nDSM高程信息,因此能取得更好的分割效果,并能有效抑制噪声信息的干扰,改善并提升背景复杂、边界模糊、小目标的遥感影像分割精度。
附图说明:
图1为实施例中融合多重注意力机制的多尺度遥感影像语义分割流程示意;
图2为实施例中语义分割模型原理示意;
图3为实施例中卷积与转置卷积操作示意;
图4为实施例中残差卷积原理示意;
图5为实施例中ResPAM残差切片注意力机制原理示意;
图6为实施例中HEAM高程-边缘注意力机制原理示意。
具体实施方式:
为使本发明的目的、技术方案和优点更加清楚、明白,下面结合附图和技术方案对本发明作进一步详细的说明。
针对上述背景技术中所描述的现有深度学习模型在背景复杂、边界模糊、小目标的遥感影像分割中存在的问题,本发明实施例,提供一种融合多重注意力机制的多尺度遥感影像语义分割方法,参见图1所示,包含如下内容:
S101、对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,所述多模态目标数据包含:单通道nDSM信息、三通道RGB信息及单通道Canny边缘信息。
通过融合遥感影像、nDSM和边缘特征,保证多模态信息能同时作为模型的信息输入,从而提高语义分割效果。
具体地,对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,可设计为包含如下内容:
将原始数据的RGB影像数据、地面高程模型DSM数据进行归一化处理,以分别获取对应的单通道nDSM信息、三通道RGB信息,并利用Canny边缘提取算子提取原始数据的边缘特征,将该边缘特征作为单通道Canny边缘信息。
其中,可将RGB影像数据的每个灰度值除以255,以使RGB影像数据的三个彩色通道均归一化到[0,1]。并可基于目标区域内多个时相中的高程最小值和高程最大值将目标区域各格网位置高程归一化到[0,1]。
数据输入层是模型的首个组成部分,中间分支为三通道的RGB遥感影像,输入前将RGB彩色影像数据、DSM数据进行预处理,将RGB彩色影像和DSM数据均归一化到[0,1]。预处理后DSM称为归一化DSM(nDSM)。将RGB彩色影像的每个灰度值除以255,DSM高度值用整个实验区作为目标区域中的最大、最小高程值进行归一化。公式如下:
其中,Ic,i,j为输入的各个通道的灰度值,Ic′,i,j为对应的输出的灰度值,c为RGB彩色影像的三个色彩通道R、G、B,i、j为影像或DSM数据的像素行列号;DSMi,j为输入的某格网位置的高程,DSMi′,j为归一化后的对应位置的高程,DSMmin和DSMmax分别是整个实验区综合两个时相的高程最小值、高程最大值。通过归一化,将R、G、B、DSM高程均归一化到[0,1]。
其中,利用Canny边缘提取算子提取原始数据的边缘特征,可包含:
首先,利用高斯滤波器对原始数据进行平滑处理;接着,计算平滑后影像数据的水平梯度值和垂直梯度值;并针对梯度方向的非零点,沿着方向导数查找邻近的两个点,若邻近点幅值超过中心点,判定当前非零点不属于图像边缘,并将其边缘强度置0;然后,通过设定高、低阈值,利用双阈值算法选出真实边缘。
Canny边缘提取算子具有良好的信噪比和检测精度,且能抑制虚假边缘和影像噪声,因而,本案实施例中,可选取Canny算子从原始遥感影像中提取边缘特征。Canny算子的实现步骤可描述如下:
(1)平滑滤波:使用高斯滤波器对影像进行平滑处理,减轻噪声对边缘检测的影响。高斯平滑函数可表示为:
(2)梯度计算:再计算平滑后影像的水平梯度值和垂直梯度值,计算公式表示为:
(3)非最大值抑制:针对梯度方向的非零点,沿着方向导数查找邻近的两个点。若邻近点幅值超过中心点,那么此非零点不属于图像边缘,则令其边缘强度为0。
(4)用双阈值算法检测和边缘连接。通过设定高、低阈值,选取出真实边缘,抑制消除伪边缘。最终检测出稳健的Canny边缘。
S102、利用预训练的语义分割模型对多模态目标数据进行推理预测,得到对应的分割结果,其中,语义分割模型采用由编码器和解码器构成的主干网络,所述编码器由对应单通道nDSM信息、三通道RGB信息和单通道Canny边缘信息的三分支网络结构组成,且在编码器不同分支网络结构之间设置有用于增强不同模态输入数据间特征融合的高程-边缘注意力机制,并在编码器和解码器之间设置有用于增强编码器和解码器信息融合的残差切片注意力机制。
参见图2所示,为了融合不同模态原始遥感数据,在输入端分别放置多光谱影像(RGB三通道)、归一化数字高程模型nDSM(Normalized Digital Surface Model)、Canny边缘作为网络模型的原始输入,显示地强化高程和影像边缘信息在语义分割中的作用。为了提取更深层次的局部特征和全局特征,模型主体采用三分支的网络结构作为编码器进行多尺度特征提取,再使用单分支的网络结构作为解码器。其中,编码器中的特征提取模块主体是残差卷积单元ResBlock,特征池化采用2×2最大池化Max pooling;解码器采用转置卷积Transpose Convolution作为特征图尺度扩大方法。注意力机制中:为了加强不同模态输入数据间的融合效果,在编码器不同分支之间提出高程—边缘注意力机制HEAM(Height-EdgeAttention Module)进行特征连接;为了加强编码器和解码器间的信息融合,改进提出ResPAM(残差切片注意力机制)进行跳跃连接,使得模型更容易训练。输出端可沿用现有方法,即依次采用1×1卷积、BN、ReLU、Softmax得到输出特征,输出特征的通道数与待分类的类别数相等。
具体地,所述编码器可采用残差卷积单元的循环组合来实现,其中,残差卷积单元包含残差卷积层、归一化层和最大池化层;所述解码器由残差卷积层和转置卷积层组成,其中,转置卷积层用于对特征图尺度进行上采样,以使经过若干转置卷积层后特征图恢复至输入特征图的尺寸。
为了提取更深层次的局部特征和全局特征,模型主体采用三分支的网络结构作为编码器进行多尺度特征提取,将预处理后的多光谱影像(RGB三通道)、归一化数字高程模型nDSM(Normalized Digital Surface Model)、Canny边缘作为编码器三个分支的原始输入。编码器层可采用一系列残差卷积单元ResBlock、BN、ReLU、最大池化Max pooling的循环组合来实现。ResBlock为残差卷积层(Residual Convolution),其基本的运算单元是卷积运算Convolution。图3中的左图是利用3×3卷积算子对原始影像进行卷积的计算示意图;图4是残差卷积层ResBlock的计算示意图,采用卷积核大小为3×3,步长为1,边缘填充大小为1,计算后特征图大小不变,但是特征理解的深度加深,残差卷积结构也使得模型的训练过程能够加速收敛。ResBlock中的BN为归一化层(Batch Normalization),用于加快模型训练速度,避免模型发散。图2中的网络结构中的每个ResBlock单元表示一次残差卷积运算。Maxpool为2×2的最大池化操作(Max pooling),用于减小特征图尺寸,减少参数数量,也提升特征的泛化性能,每次最大池化操作后特征图尺度降为原先的一半。
解码器的主体是进一步采用ResBlock提取深层次特征,同时采用转置卷积Transpose Convolution作为特征图尺度上采样方法。如图3中的右图所示,TransConv转置卷积模块是Conv的逆运算,通常用在解码器层中对特征图尺度进行上采样,经过多次TransConv运算最终恢复到输入特征图的尺寸。采用的TransConv卷积核大小为3×3,步长为2,边缘填充大小为1。每次TransConv后特征图尺寸变为原先的2倍。
其中,在编码器和解码器之间设置的残差切片注意力机制,可包含:
利用跳跃连接将编码器提取的不同尺度的特征连接到解码器相应尺度,并通过解码器中的残差切片注意力机制将特征图切分为大小相等的切片,对每个切片进行自适应池化,采用门控机制获取切片区域对应通道位置处的注意力响应图,并通过归一化运算和转置卷积运算使特征图尺寸恢复至输入的特征图大小。
编码器和解码器之间采用跳跃连接(Skip-connection),将编码器提取的不同尺度的特征连接到解码器中相应尺度,使得模型更好地融合不同分辨率特征。为了提高模型对多样化地物目标的特征学习能力,在跳跃连接中增加切片残差注意力机制ResPAM(Residual Patch-based Attention Module)作为注意力激活模块,如图5所示。不同于全通道注意力机制(如SENet)将整个特征图在通道维度进行全局池化,ResPAM将特征图切分为大小相等的切片,对每个切片进行自适应池化AdaPool(Adaptive Pooling),优势是可以计算出大面积遥感影像局部区域的特征注意力,对融合局部区域上下文信息更有效。
假如输入特征图尺度为(h,w,c),hp和wp分别是池化窗口的水平和垂直空间大小,则池化后在水平、垂直方向的格网个数分别为:
hp和wp的大小根据降采样率来确定,以保证自适应池化AdaPool能显著扩大感受野(receptive field)。假如xc为第c个通道的全部像素值。则切片区域第c个通道的自适应池化AdaPool描述子为:
以此方式可以计算出图5中的全部c个通道的统计特性,构成特征向量zp,其包含了各个通道中的局部注意力响应值。再采用门控机制计算出该位置处的注意力响应图:
ap=FU{σ[Hiδ(Hrzp)]} (6)
其中,σ和δ分别为Sigmoid函数和ReLU函数,Hr为1×1降维卷积,使用ResBlock建立残差连接,降低通道数的比率为r;Hi为1×1升维卷积Conv,使得特征维度恢复至c;后接Sigmoid运算归一化特征图。最后是FU转置卷积运算,使得特征图尺度恢复至输入的特征图大小(h,w,c)。
在编码器不同分支网络结构之间设置的高程-边缘注意力机制,可包含:
对同一尺度的nDSM特征图和Canny边缘特征图进行连接,并对连接后的特征图计算其切片残差注意力响应图;并将特征图嵌入到RGB特征提取主干网络分支,在该主干网络分支中利用残差连接将nDSM特征图和Canny边缘特征图两者连接后计算的切片残差注意力响应图融合到RGB特征提取过程。
高程-边缘注意力机制HEAM将不同尺度的nDSM特征和Canny边缘特征进行连接,融合到图2的RGB特征提取主干网络中,实现过程如图6所示。首先对同一尺度的nDSM特征图和Canny边缘特征图进行连接(Concatenation),连接后特征图大小为(h,w,2)。再对连接后的特征图计算其切片残差注意力图,计算顺序依次为:自适应池化AdaPool、残差卷积ResBlock、卷积Conv、Sigmoid、转置卷积TransConv,从而恢复到一开始特征连接后的特征图大小(h,w,2)。再使用一次残差卷积将特征图大小恢复至(h,w,3)。计算流程的数学表示为:
Al=FR{FU{σ[Hlδ(Hrzh)]}} (7)
其中,zh为连接的特征图自适应池化后得到的特征图,σ和δ分别为Sigmoid函数和ReLU函数,Hr为1×1降维卷积,使用ResBlock建立残差连接,降低通道数的比率为r;Hl为1×1升维卷积Conv,使得特征维度恢复至3个通道;后接Sigmoid运算归一化特征图。再使用FU转置卷积运算,使得特征图长和宽恢复至输入的特征图大小,通道数变为3。
接下来,将以上得到的注意力图嵌入到RGB特征提取主干网络中。为了强化RGB特征的重要性,在融合中加入残差连接的设计,交叉注意力融合过程表示为:
Xrgb=Xrgb+XrgbAl (8)
其中,Xrgb为特征提取RGB主干网络在某一尺度的特征图,通过引入nDSM和Canny边缘计算得到的高程-边缘注意力HEAM使得Xrgb的特征表现力更强,提升在地物边缘处、小目标的分割效果。
在神经网络模型的输出阶段,依次采用1×1卷积、BN、ReLU得到6个通道的特征图,对应分成6种地物覆盖类型的概率,例如建筑物、高植被、低矮植被、水体、汽车、背景。再通过Softmax操作对特征图各个通道归一化到[0,1],使得特征值能更好地关联语义分割类别概率。此时特征图大小与原始输入影像大小一致,每个像素位置对应了一个六维向量
[v1,v2,v3,v4,v5,v6]。
语义分割模型的训练过程中,可采用交叉信息熵(Cross Entropy)作为多分类问题的损失函数,通过训练使得模型能够区分某一像素属于哪个类别。交叉信息熵是用来评估当前训练得到的实际概率分布与真实期望分布的差异情况。交叉熵的值越小,两个概率分布就越接近;训练过程中,交叉信息熵损失代价越低,模型与训练数据的契合度就越高。交叉信息熵损失函数的计算方式可表示如下:
其中,P(i)为第i个样本的真实标签,Q(i)为Softmax归一化后的预测概论值,N为样本数量。
进一步地,基于上述的方法,本发明实施例还提供一种融合多重注意力机制的多尺度遥感影像语义分割系统,包含:数据处理模块和语义分割模块,其中,
数据处理模块,用于对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,所述多模态目标数据包含:单通道nDSM信息、三通道RGB信息及单通道Canny边缘信息;
语义分割模块,用于利用预训练的语义分割模型对多模态目标数据进行推理预测,得到对应的分割结果,其中,语义分割模型采用由编码器和解码器构成的主干网络,所述编码器由对应单通道nDSM信息、三通道RGB信息和单通道Canny边缘信息的三分支网络结构组成,且在编码器不同分支网络结构之间设置有用于增强不同模态输入数据间特征融合的高程-边缘注意力机制,并在编码器和解码器之间设置有用于增强编码器和解码器信息融合的残差切片注意力机制。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对步骤、数字表达式和数值并不限制本发明的范围。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的各实例的单元及方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已按照功能一般性地描述了各示例的组成及步骤。这些功能是以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域普通技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不认为超出本发明的范围。
本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序来指令相关硬件完成,所述程序可以存储于计算机可读存储介质中,如:只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现,相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本发明不限制于任何特定形式的硬件和软件的结合。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种融合多重注意力机制的多尺度遥感影像语义分割方法,其特征在于,包含:
对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,所述多模态目标数据包含:单通道nDSM信息、三通道RGB信息及单通道Canny边缘信息;
利用预训练的语义分割模型对多模态目标数据进行推理预测,得到对应的分割结果,其中,语义分割模型采用由编码器和解码器构成的主干网络,所述编码器由对应单通道nDSM信息、三通道RGB信息和单通道Canny边缘信息的三分支网络结构组成,且在编码器不同分支网络结构之间设置有用于增强不同模态输入数据间特征融合的高程-边缘注意力机制,并在编码器和解码器之间设置有用于增强编码器和解码器信息融合的残差切片注意力机制。
2.根据权利要求1所述的融合多重注意力机制的多尺度遥感影像语义分割方法,其特征在于,对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,包含:
将原始数据的RGB影像数据、地面高程模型DSM数据进行归一化处理,以分别获取对应的单通道nDSM信息、三通道RGB信息,并利用Canny边缘提取算子提取原始数据的边缘特征,将该边缘特征作为单通道Canny边缘信息。
3.根据权利要求2所述的融合多重注意力机制的多尺度遥感影像语义分割方法,其特征在于,将原始数据的RGB影像数据进行归一化处理,包含:
将RGB影像数据的每个灰度值除以255,以使RGB影像数据的三个彩色通道均归一化到[0,1]。
4.根据权利要求2所述的融合多重注意力机制的多尺度遥感影像语义分割方法,其特征在于,将原始数据的地面高程模型DSM数据进行归一化处理,包含:
基于目标区域内多个时相中的高程最小值和高程最大值将目标区域各格网位置高程归一化到[0,1]。
5.根据权利要求2所述的融合多重注意力机制的多尺度遥感影像语义分割方法,其特征在于,利用Canny边缘提取算子提取原始数据的边缘特征,包含:
首先,利用高斯滤波器对原始数据进行平滑处理;接着,计算平滑后影像数据的水平梯度值和垂直梯度值;并针对梯度方向的非零点,沿着方向导数查找邻近的两个点,若邻近点幅值超过中心点,判定当前非零点不属于图像边缘,并将其边缘强度置0;然后,通过设定高、低阈值,利用双阈值算法选出真实边缘。
6.根据权利要求1所述的融合多重注意力机制的多尺度遥感影像语义分割方法,其特征在于,所述编码器采用残差卷积单元的循环组合来实现,其中,残差卷积单元包含残差卷积层、归一化层和最大池化层;所述解码器由残差卷积层和转置卷积层组成,其中,转置卷积层用于对特征图尺度进行上采样,以使经过若干转置卷积层后特征图恢复至输入特征图的尺寸。
7.根据权利要求1或6所述的融合多重注意力机制的多尺度遥感影像语义分割方法,其特征在于,在编码器和解码器之间设置的残差切片注意力机制,包含:
利用跳跃连接将编码器提取的不同尺度的特征连接到解码器相应尺度,并通过解码器中的残差切片注意力机制将特征图切分为大小相等的切片,对每个切片进行自适应池化,采用门控机制获取切片区域对应通道位置处的注意力响应图,并通过归一化运算和转置卷积运算使特征图尺寸恢复至输入的特征图大小。
8.根据权利要求7所述的融合多重注意力机制的多尺度遥感影像语义分割方法,其特征在于,在编码器不同分支网络结构之间设置的高程-边缘注意力机制,包含:
对同一尺度的nDSM特征图和Canny边缘特征图进行连接,并对连接后的特征图计算其切片残差注意力响应图;并将特征图嵌入到RGB特征提取主干网络分支,在该主干网络分支中利用残差连接将nDSM特征图和Canny边缘特征图两者连接后计算的切片残差注意力响应图融合到RGB特征提取过程。
9.根据权利要求1所述的融合多重注意力机制的多尺度遥感影像语义分割方法,其特征在于,语义分割模型的预训练中,采用交叉信息熵作为多分类问题训练过程中的损失函数,该损失函数表示为:其中,P(i)为第i个样本的真实标签,Q(i)为Softmax归一化后的预测概论值,N为样本数量。
10.一种融合多重注意力机制的多尺度遥感影像语义分割系统,其特征在于,包含:数据处理模块和语义分割模块,其中,
数据处理模块,用于对遥感影像原始数据进行预处理,得到原始数据对应多模态目标数据,所述多模态目标数据包含:单通道nDSM信息、三通道RGB信息及单通道Canny边缘信息;
语义分割模块,用于利用预训练的语义分割模型对多模态目标数据进行推理预测,得到对应的分割结果,其中,语义分割模型采用由编码器和解码器构成的主干网络,所述编码器由对应单通道nDSM信息、三通道RGB信息和单通道Canny边缘信息的三分支网络结构组成,且在编码器不同分支网络结构之间设置有用于增强不同模态输入数据间特征融合的高程-边缘注意力机制,并在编码器和解码器之间设置有用于增强编码器和解码器信息融合的残差切片注意力机制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311260422.8A CN117475145B (zh) | 2023-09-27 | 2023-09-27 | 融合多重注意力机制的多尺度遥感影像语义分割方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311260422.8A CN117475145B (zh) | 2023-09-27 | 2023-09-27 | 融合多重注意力机制的多尺度遥感影像语义分割方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117475145A true CN117475145A (zh) | 2024-01-30 |
CN117475145B CN117475145B (zh) | 2024-06-25 |
Family
ID=89635487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311260422.8A Active CN117475145B (zh) | 2023-09-27 | 2023-09-27 | 融合多重注意力机制的多尺度遥感影像语义分割方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117475145B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117789042A (zh) * | 2024-02-28 | 2024-03-29 | 中国地质大学(武汉) | 一种道路信息解译方法、系统及存储介质 |
CN118230175A (zh) * | 2024-05-23 | 2024-06-21 | 济南市勘察测绘研究院 | 基于人工智能的不动产测绘数据处理方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102073873B1 (ko) * | 2019-03-22 | 2020-02-05 | 주식회사 루닛 | 시맨틱 세그먼테이션 방법 및 그 장치 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN111833273A (zh) * | 2020-07-17 | 2020-10-27 | 华东师范大学 | 基于长距离依赖的语义边界增强方法 |
CN115049936A (zh) * | 2022-08-12 | 2022-09-13 | 武汉大学 | 一种面向高分遥感影像的边界增强型语义分割方法 |
CN115546485A (zh) * | 2022-10-17 | 2022-12-30 | 华中科技大学 | 一种分层自注意力场景语义分割模型的构建方法 |
CN115775316A (zh) * | 2022-11-23 | 2023-03-10 | 长春理工大学 | 基于多尺度注意力机制的图像语义分割方法 |
CN116188996A (zh) * | 2023-04-18 | 2023-05-30 | 重庆邮电大学 | 一种多尺度语义信息和边界信息的遥感图像语义分割方法 |
-
2023
- 2023-09-27 CN CN202311260422.8A patent/CN117475145B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102073873B1 (ko) * | 2019-03-22 | 2020-02-05 | 주식회사 루닛 | 시맨틱 세그먼테이션 방법 및 그 장치 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN111833273A (zh) * | 2020-07-17 | 2020-10-27 | 华东师范大学 | 基于长距离依赖的语义边界增强方法 |
CN115049936A (zh) * | 2022-08-12 | 2022-09-13 | 武汉大学 | 一种面向高分遥感影像的边界增强型语义分割方法 |
CN115546485A (zh) * | 2022-10-17 | 2022-12-30 | 华中科技大学 | 一种分层自注意力场景语义分割模型的构建方法 |
CN115775316A (zh) * | 2022-11-23 | 2023-03-10 | 长春理工大学 | 基于多尺度注意力机制的图像语义分割方法 |
CN116188996A (zh) * | 2023-04-18 | 2023-05-30 | 重庆邮电大学 | 一种多尺度语义信息和边界信息的遥感图像语义分割方法 |
Non-Patent Citations (2)
Title |
---|
AIJIN LI等: "Multitask Semantic Boundary Awareness Network for Remote Sensing Image Segmentation", IEEE, 2 February 2021 (2021-02-02) * |
王梓任: "基于边缘检测和语义分割的海面溢油区域识别算法研究", 工程科技Ⅰ辑, 15 June 2023 (2023-06-15) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117789042A (zh) * | 2024-02-28 | 2024-03-29 | 中国地质大学(武汉) | 一种道路信息解译方法、系统及存储介质 |
CN117789042B (zh) * | 2024-02-28 | 2024-05-14 | 中国地质大学(武汉) | 一种道路信息解译方法、系统及存储介质 |
CN118230175A (zh) * | 2024-05-23 | 2024-06-21 | 济南市勘察测绘研究院 | 基于人工智能的不动产测绘数据处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117475145B (zh) | 2024-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110956094B (zh) | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 | |
CN117475145B (zh) | 融合多重注意力机制的多尺度遥感影像语义分割方法及系统 | |
CN108921799B (zh) | 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法 | |
CN114841972A (zh) | 基于显著性图和语义嵌入特征金字塔的输电线路缺陷识别方法 | |
CN109558806A (zh) | 高分遥感图像变化的检测方法和系统 | |
CN109919026B (zh) | 一种水面无人艇局部路径规划方法 | |
CN109741340B (zh) | 基于fcn-aspp网络的冰盖雷达图像冰层精细化分割方法 | |
CN112446357B (zh) | 一种基于胶囊网络的sar自动目标识别方法 | |
CN113239865B (zh) | 基于深度学习的车道线检测方法 | |
CN112766089B (zh) | 一种基于全局-局部对抗学习框架的跨域道路提取方法 | |
CN115641507A (zh) | 基于自适应多层级融合的遥感图像小尺度面目标检测方法 | |
CN112149526A (zh) | 一种基于长距离信息融合的车道线检测方法及系统 | |
CN113240023B (zh) | 基于变化图像分类和特征差值先验的变化检测方法及装置 | |
CN117351374B (zh) | 一种遥感图像显著性目标检测方法、系统、设备及介质 | |
CN118212572A (zh) | 一种基于改进YOLOv7的道路损坏检测方法 | |
CN117409083B (zh) | 一种基于红外图像和改进yolov5的电缆终端识别方法及装置 | |
CN112330562B (zh) | 一种异构遥感图像变换方法及系统 | |
CN117576483A (zh) | 基于多尺度卷积自编码器的多源数据融合地物分类方法 | |
CN117351360A (zh) | 一种基于注意力机制改进的遥感图像道路提取方法 | |
CN117541535A (zh) | 一种基于深度卷积神经网络的输电线路巡检图像检测方法 | |
CN113139573A (zh) | 一种基于条件双分支注意力机制的鲁棒声纳图像生成方法 | |
CN116310832A (zh) | 遥感图像处理方法、装置、设备、介质及产品 | |
CN115984568A (zh) | 一种基于YOLOv3网络的雾霾环境下目标检测方法 | |
CN113505650A (zh) | 地形特征线提取方法及装置、设备 | |
Poomani et al. | RETRACTED ARTICLE: Wiener filter based deep convolutional network approach for classification of satellite images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |