CN115527123B - 一种基于多源特征融合的土地覆被遥感监测方法 - Google Patents

一种基于多源特征融合的土地覆被遥感监测方法 Download PDF

Info

Publication number
CN115527123B
CN115527123B CN202211296692.XA CN202211296692A CN115527123B CN 115527123 B CN115527123 B CN 115527123B CN 202211296692 A CN202211296692 A CN 202211296692A CN 115527123 B CN115527123 B CN 115527123B
Authority
CN
China
Prior art keywords
remote sensing
land cover
channel
fusion
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211296692.XA
Other languages
English (en)
Other versions
CN115527123A (zh
Inventor
郝庆涛
孙雷刚
鲁军景
左璐
刘剑锋
尚月敏
马晓倩
黄亚云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute Of Geography Hebei Academy Of Sciences
Original Assignee
Institute Of Geography Hebei Academy Of Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute Of Geography Hebei Academy Of Sciences filed Critical Institute Of Geography Hebei Academy Of Sciences
Priority to CN202211296692.XA priority Critical patent/CN115527123B/zh
Publication of CN115527123A publication Critical patent/CN115527123A/zh
Application granted granted Critical
Publication of CN115527123B publication Critical patent/CN115527123B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于多源特征融合的土地覆被遥感监测方法,包括:多源遥感数据的处理、配准及融合;多源特征融合土地覆被遥感分类样本集构建;基于多源特征融合的土地覆被遥感分类模型MSFFNet的构建;利用构建的样本集对MSFFNet模型进行训练;利用MSFFNet最终模型对待分类多源遥感数据进行分类;对分类结果进行后处理,包括矢量化、边缘平滑和细碎图斑处理等,得到矢量化的土地覆被类型分类结果。该方法通过利用多源特征融合的方法,提高了土地覆被遥感分类的精度,能够快速、准确地从大批量、大范围的遥感数据中提取矢量化的土地覆被分类结果,为快速、准确和智能化的土地覆被监测提供了手段,操作简单,易于在大尺度范围推广应用。

Description

一种基于多源特征融合的土地覆被遥感监测方法
技术领域
本发明涉及一种基于多源特征融合的土地覆被遥感监测方法,属于电数字数据处理、视觉影像处理以及遥感图像处理领域。
背景技术
遥感信息提取是通过对包括遥感影像在内的多源遥感数据进行处理,提取其中蕴含的用户感兴趣的信息的过程。随着遥感技术的不断发展,不同平台、不同种类的遥感数据源不断增多,为遥感信息提取提供了丰富的数据,而如何从海量的、多源的数据中快速准确地提取遥感信息成为遥感信息生产流程中的瓶颈环节。土地覆被分类是指根据土地的特点、地表覆被物的不同以及它们之间的差异性的基础上划分成不同的土地覆被类型,土地覆被分类是土地资源监测、国土空间规划和景观生态规划与管理等应用的基础,研究基于多源遥感数据的土地覆被分类的自动化提取方法具有重要意义。
传统的基于遥感影像的土地覆被分类方式通过目视解译结合专家知识进行判读,其准确性依赖于操作人员的知识经验和熟练程度,主观性较强,且工作量大、耗时长,难以实现对土地覆被分类结果的动态更新。随着计算机技术的发展以及机器学习等理论的发展,研究人员提出了通过监督分类和非监督分类的方式,通过提取图像的颜色特征(如颜色直方图、颜色矩等)、纹理特征(如LBP特征、灰度共生矩阵等)以及形状特征等低级视觉特征对遥感影像进行土地覆被分类,提高了基于遥感影像土地覆被分类的效率,但是由于遥感图像场景的复杂性,仅考虑颜色、纹理等人为选定的特征无法实现有效的图像分类,分类精度较差。
近年来遥感技术飞速发展,在国土、农业、资源、灾害、环保等众多领域得到了广泛的应用。遥感影像的分辨率(空间分辨率、时间分辨率、光谱分辨率等)不断提高,遥感平台和传感器种类、数量不断增加,为基于遥感影像的土地覆被分类提供了包括可见光、热红外、数字表面模型等在内的丰富多样的多源数据。与此同时,以深度卷积神经网络(DeepConvolutional Neural Network,DCNN)为代表的人工智能技术发展迅速,在图像识别与分类、目标检测等领域取得了显著的效果。DCNN通过模拟人类大脑的神经连接结构,构建深层的卷积网络,从大量样本中自动地学习得到层次化的特征,并根据任务目标不断自我优化,对于大样本量的全局特征表达和多层次综合处理方面具有突出优势,与传统图像处理方法相比,具有自组织、自学习、自推理和自适应的特点。
基于DCNN的语义分割方法首先在自然场景照片的分割和分类任务中取得了重大突破。Long等人(2015)通过提出的全卷积神经网络(Fully Convolutional Network,FCN)以端到端的方式对图像进行语义分割,在语义分割领域具有开创意义,但是FCN结构简单,分割精度较低,且由于全连接层的存在,对输入图像的尺寸有所限制;后续研究人员在FCN的基础上进行了一系列改进,提出了各种结构和方法以增强语义分割的性能,如PSPNet(Zhao等,2017)网络通过金字塔池化模块(Pyramid Pooling Module)聚合多尺度特征信息,提高了模型对多尺度目标的分割精度;SegNet(Badrinarayanan等,2017)通过设计的编码器-解码器结构,编码器提取图像特征并将特征图下采样,再利用解码器恢复到高分辨率的特征映射,来获取更精细的分割结果;DeepLab v3+(Chen等,2018)通过采用空洞卷积,在不增加参数量的前提下增大网络的感受野,更好地提取图像特征。
由于DCNN能够通过训练自动地学习、提取图像的高级特征,这些高级特征对于复杂场景的理解以及区分非常有效,很多研究人员将DCNN引入基于遥感影像的土地覆被分类中来,取得了一定的效果。然而,与自然场景可见光图像不同,遥感影像具有场景复杂度高,地物目标多样、尺度差异大且分布不均衡等特点,使得遥感影像在提供更多信息的同时,也给语义分割任务带来了巨大的挑战。目前遥感场景语义分割主要存在两大难点:
1)遥感地物形态多样、尺度差异大且分布不均衡,解译困难;
2)存在异物同谱(如草坪和树、水体和建筑阴影等)和同物异谱(如不同生长期的植被)现象。
针对难点一,目前可以通过上下文语义建模,集成更多的上下文信息以扩大神经网络的感受野,提高对遥感影像多尺度目标的识别能力。捕获上下文信息主要由两种方式:1)基于多尺度信息的上下文建模,如PSPNet通过采用金字塔池化块将特征图划分成不同的尺度区域,通过平均每个区域的像素作为该区域中每个像素的局部上下文信息;DeepLabV3+网络中引入了一个空洞空间金字塔池(Atrous Spatial Pyramid Pooling,ASPP)以在多个尺度上捕获有用的上下文信息。基于多尺度信息的上下文建模是基于卷积和池化(非全局池化)等局部操作的,直接重复卷积层在计算上效率低下且难以优化,因而这种模型往往很难捕捉到实体之间的长距离空间关系。2)基于自注意力机制的上下文建模,如DANet(Fu等,2019)和CCNet(Huang等,2019)利用非局部块思想通过模拟像素级的成对关系来聚集远程空间信息。但是这种方式会带来巨大的参数量和过高的计算成本,难以得到有效使用。
针对难点二,由于可见光图像只能提供视觉特征,对于遥感图像场景的特征表达能力有限,当存在视觉特征相似的地物(如草坪和人工假草坪、建筑阴影和水体),仅利用可见光图像很难进行区分。解决方式是通过将相关数据引入到模型中来,如数字表面模型(Digital Surface Model,DSM),通过增加额外的高程信息来对数据进行区分。如Marcos等人(2018)简单的将近红外、红、绿光谱以及DSM数据进行拼接输入到模型中,这种融合方法没有充分利用异构信息之间的关系,难以实现多源数据特征的有效融合;V-FuseNet(Audebert等,2018),使用两个卷积神经网络分别对光谱数据和DSM数据进行处理,并采用元素相加的方式进行融合。这种级联或者相加的融合方式也不能使网络适应不断变化的场景上下文。
综上所述,目前的分类模型及处理方法对遥感影像的分类精度仍有待提高,如何提高基于遥感影像的土地覆被分类精度是当前研究亟待解决的问题。
发明内容
针对现有研究和技术存在的不足,本发明提出了一种基于多源特征融合的土地覆被遥感监测方法,充分考虑了遥感影像场景复杂、地物目标尺度差异大且分布不均衡的特点,通过将可见光数据的视觉特征、NDVI特征、NDWI特征、NDBI特征、DSM的高程特征以及ST的热红外特征的多源特征进行深度融合,充分利用遥感数据多源异构的优势,最大限度的挖掘多源遥感信息,在可见光视觉信息的基础上引入了额外的附加信息,增加了地物的类内相似性和类间差异性,显著改善了土地覆被分类结果,提高了分类精度。
本发明通过引入归一化植被指数NDVI、归一化水体指数NDWI、归一化建筑指数NDBI特征,对植被、水体、建筑等地物的特征进行增强,提高了该类地物的分类精度;通过引入的数字表面模型DSM,利用附加的高程信息可以将视觉特征相似,仅依靠视觉特征难以区分的建筑与硬化地面、树木和低矮植被等有效分开;通过引入的地表温度ST,利用附加的热红外信息、地物比热容性质的差异以及地物辐射热量能力的差异增加地物的可区分性,提高了对同谱异物和同物异谱现象的处理能力。
同时,本发明通过提出的改进的双重注意力模块MDAM,从空间和通道维度对特征结果图进行全局上下文语义建模,在增加较小计算代价的前提下,提高了模型对遥感影像多尺度地物目标的识别能力,并有效解决了遥感影像地物分布不均衡的问题。
综上所述,该模型及方法操作简单、易于大尺度推广应用
为解决上述问题,本发明所采取的技术方案是:
一种基于多源特征融合的土地覆被遥感监测方法,包括以下步骤:
S1,多源遥感数据处理;
S1-1,获取原始遥感影像并进行预处理,得到像元值为地物真实反射率的多光谱遥感影像结果图;
S1-2,针对步骤S1-1中的多光谱遥感影像结果图,计算归一化植被指数NDVI、归一化水体指数NDWI和归一化建筑指数NDBI,分别得到NDVI空间分布图、NDWI空间分布图和NDBI空间分布图;
S1-3,获取遥感影像覆盖区域的原始数字表面模型DSM,依次进行归一化处理和重采样处理,得到数字表面模型结果图;
S1-4,获取遥感影像覆盖区域的原始地表温度ST,并进行重采样,得到地表温度结果图;
S2,多源遥感数据配准与融合;
S2-1,基于步骤S1-3中得到的数字表面模型结果图和步骤S1-4得到的地表温度结果图分别与步骤S1-1得到的多光谱遥感影像结果图进行配准,得到配准数字表面模型结果图和配准地表温度结果图;
S2-2,基于步骤S1-1、步骤S1-2、步骤S2-1分别得到的多光谱遥感影像结果图、NDVI空间分布图、NDWI空间分布图、NDBI空间分布图、配准数字表面模型结果图、配准地表温度结果图进行融合,得到多源特征融合栅格结果图,其中,多源特征融合栅格结果图中包括多光谱通道、NDVI通道、NDWI通道、NDBI通道、DSM通道和ST通道,其中,多源特征融合栅格结果图包括多光谱通道、NDVI通道、NDWI通道、NDBI通道、DSM通道和ST通道,多光谱通道包括真彩色红绿蓝通道和除红绿蓝外的其他光谱通道;
S3,针对步骤S2-2得到的多源特征融合栅格结果图按照预定尺寸进行规则化切片得到规则化的多源特征融合栅格切片集合;
S4,针对步骤S3中得到的规则化的多源特征融合栅格切片集合中的每个栅格切片进行以下操作:
S4-1,基于每个栅格切片分别进行旋转数据增强处理与镜像数据增强处理中的一种或两种,并将处理后的栅格切片加入到样本集合中,得到增强后的增强样本集合;
S4-2,针对增强样本集合中的每个栅格切片进行样本标注,将栅格切片按照不同的土地覆被类型划分成不同的区域,并分别赋予对应的标记值,以得到栅格切片对应的样本标注集合;
S5,针对步骤S4得到的样本标注集合,根据随机原则,按照预先设定的比例,划分成训练集、验证集和测试集三部分,得到多源特征融合土地覆被遥感分类样本集;
S6,构建基于多源特征融合的土地覆被遥感分类模型MSFFNet,土地覆被遥感分类模型MSFFNet首先通过两个并行的分支骨干网络DBBN分别对多源特征融合的栅格数据的真彩色红绿蓝三个通道以及除红绿蓝外的其他光谱通道、NDVI指数通道、NDWI指数通道、NDBI指数通道、DSM通道、ST通道两部分进行特征提取;接着通过轻量化的特征融合模块将两分支网络提取的特征进行融合,得到融合特征结果图;然后将融合特征结果图输入至一个改进的双重注意力模块MDAM中,双重注意力模块MDAM对融合特征结果图的空间维和通道维的语义相关性进行建模,生成新的特征图;再通过跳跃结构将新的特征图与真彩色分支网络提取的浅层特征进行融合,得到包含细节信息的新的深层融合特征图;最后通过双线性内插将特征图进行上采样恢复到输入栅格的原始尺寸,并经Softmax分类器进行分类,得到土地覆被分类结果;
S7,分别针对步骤S5得到的多源特征融合土地覆被遥感分类样本集和步骤S6构建的土地覆被遥感分类模型MSFFNet进行训练,训练过程包括以下操作:
S7-1,对土地覆被遥感分类模型MSFFNet的参数进行初始化,其中DBBM模块的真彩色特征提取分支加载在大规模自然场景图像数据集上迁移学习的参数,另一分支参数进行随机初始化,双重注意力模块MDAM的参数初始化为零;接着用步骤S5得到的多源特征融合土地覆被遥感分类样本集中的训练集和验证集对土地覆被遥感分类模型MSFFNet进行训练,得到训练后的MSFFNet训练模型;
S7-2,利用步骤S5得到的多源特征融合土地覆被遥感分类样本集中的测试集对训练后的MSFFNet训练模型进行精度验证,采用总体精度OA对MSFFNet训练模型的分类精度进行评价,当MSFFNet训练模型精度满足实际应用需求时,MSFFNet训练模型训练完成;否则,采取包括增加样本数量、提高样本集的多样性以及增加训练迭代次数中的一种或多种措施进行继续训练,直到MSFFNet训练模型精度满足要求,得到训练完成的MSFFNet最终模型;
S8,重复步骤S1至步骤S3,得到待分类的规则化的待测多源特征融合栅格切片集合;
S9,将步骤S8得到的待分类多源特征融合栅格切片集合中的栅格切片依次输入到步骤S7中的MSFFNet最终模型中,得到每个栅格切片对应的土地覆被分类结果栅格图;
S10,基于步骤S9得到的每个栅格切片对应的土地覆被分类结果栅格图进行合并,得到土地覆被分类结果栅格图;
S11,针对步骤S10得到的土地覆被分类结果栅格图,将土地覆被分类结果栅格图矢量化,得到土地覆被分类结果矢量图;
S12,针对步骤S11得到的土地覆被分类结果矢量图进行边缘平滑以及细碎图斑处理,得到土地覆被分类结果图。
进一步地,所述步骤S1-1中的预处理包括辐射定标、大气校正、正射校正和波段融合。
进一步地,所述步骤S1-2中NDVI指数、NDWI指数和NDBI指数的计算公式分别为:
Figure GDA0004124598270000091
Figure GDA0004124598270000101
Figure GDA0004124598270000102
其中,NIR、Red、Green和SWIR分别为遥感影像的近红外波段的值、红波段的值、绿波段的值和短波红外波段的值。
进一步地,所述步骤S4-1中的数据增强处理还可以是指通过对图像进行翻转、裁剪、变换、加噪声处理中的一种或多种。
进一步地,所述步骤S6中的用于对DBBM模块的两个分支分别提取的特征进行融合的轻量化特征融合模块的结构为:
(1)将双分支提取的特征图按通道维度进行拼接;
(2)进行两次3×3的可分离卷积,对两分支提取的特征进行融合处理,并将拼接后的特征图的通道恢复到拼接前的数量。
进一步地,所述步骤S6中的用于对提取的融合特征结果图的空间维和通道维的语义相关性进行建模的改进的双重注意力模块MDAM的特征为:
(1)将提取的融合特征结果图输入至通道非局部块CNLB中,对融合特征结果图的通道维度的相关性进行建模,得到处理后的通道相关性建模的特征数据;
(2)将经通道非局部块CNLB处理后的通道相关性建模的特征数据输入至空间非局部块PNLB中,对融合特征结果图的空间维度的相关性进行建模,生成对空间维和通道维的相关性进行建模的新的特征图。
进一步地,所述步骤S6中构建的基于多源特征融合的土地覆被遥感分类模型MSFFNet的特征为:
(1)输入为多源特征融合的栅格数据的多维矩阵;
(2)将输入的多维矩阵按通道维度进行切片,分成两个分支:
分支一,真彩色红绿蓝三通道;
分支二,除红绿蓝外的其他光谱通道、NDVI通道、NDWI通道、NDBI通道、DSM通道、ST通道;
(3)将分支一和分支二分别输入至DBBM模块的两个分支中进行特征提取;
(4)通过轻量化的特征融合模块将分支一中提取的视觉特征和分支二中提取出的NDVI特征、NDWI特征、NDBI特征、DSM特征及ST特征进行融合,获得具有互补特征的融合特征结果图;
(5)将融合特征结果图输入至双重注意力模块MDAM中,对融合特征结果图的空间维和通道维的语义相关性进行建模,生成新的特征图;
(6)通过跳跃结构将新的特征图与DBBM模块分支一提取的浅层视觉特征进行融合,获得包含细节信息的深层融合特征图;
(7)通过双线性内插将特征图进行上采样恢复到输入栅格的原始尺寸,并经Softmax分类器进行分类,得到土地覆被分类结果。
进一步地,所述步骤S6中土地覆被遥感分类模型MSFFNet的损失函数公式为:
Figure GDA0004124598270000122
其中,Loss是土地覆被遥感分类模型MSFFNet的损失值,yi为真实值,yi 为预测值,n为分类的类别数,i为类别,取值为i=1,2,…,n。
进一步地,所述步骤S7-2中对MSFFNet训练模型进行精度验证的精度验证公式为:
Figure GDA0004124598270000121
其中,OA是MSFFNet训练模型的总体精度,表示分类结果中所有类别预测正确的像元数占总像元数的比例,OA值越接近1,模型表现越好;TP、TN、FP、FN分别代表真正类、真负类、假正类以及假负类。
本发明的有益效果在于:
1、本发明设计了一种基于多源特征融合的土地覆被遥感监测方法,实现了基于多源遥感数据的智能化的土地覆被类型的信息提取,为以土地覆被分类为基础的监测、管理提供了手段,操作简单、灵活,易于在大尺度范围内推广应用。
2、本发明通过构建的基于多源特征融合的土地覆被遥感分类模型MSFFNet,充分利用遥感数据多源异构的优势,通过将可见光数据的视觉特征、NDVI特征、NDWI特征、NDBI特征、DSM数据的高程特征、ST地表温度数据的热红外特征等多源异构特征进行深度融合的方式,在可见光视觉特征的基础上引入其他的附加信息,可以显著改善土地覆被分类结果,提高分类精度。
3、本发明通过提出的改进的双重注意力模块MDAM,从空间和通道维度对特征结果图进行全局上下文语义建模,其中空间非局部块PNLB对融合特征结果图的不同空间位置、不同尺度的相同地物进行特征增强,通道非局部块CNLB对特征图的不同通道间的相关性进行增强,提高了模型对遥感影像多尺度目标的识别能力,增强了对遥感场景地物分布不均衡问题的处理。相对于现有方法,本发明提出的双重注意力模块MDAM模块在参数量大幅减少和计算量大幅降低的同时,达到了优于现有方法的效果。
附图说明
图1为本发明的技术流程示意图;
图2为预处理后的遥感影像图;
图3为本发明构建的土地覆被遥感分类模型结构示意图;
图4为本发明提出的改进的双重注意力模块MDAM结构示意图;
图5为合并后的土地覆被分类结果栅格图;
图6为土地覆被分类结果矢量图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本实施例以公开的数据集ISPRS(International Society for Photogrammetryand Remote Sensing)中的Potsdam数据集的土地覆被分类为例进行说明。实验数据为Potsdam数据集中的38幅正射多光谱遥感影像、38幅对应的数字表面模型数据以及与Potsdam数据集同时期同区域的Landsat-8遥感影像,其中,31幅用于训练,7幅用于测试。
参考图1,图1为本发明提出的一种基于多源特征融合的土地覆被遥感监测方法的技术流程图,包括以下步骤:
S1,多源遥感数据处理;
S1-1,获取原始遥感影像并进行预处理,得到像元值为地物真实反射率的多光谱遥感影像结果图;
其中,预处理包括但不限于辐射定标、大气校正、正射校正和波段融合。
具体的,分别对Potsdam数据集的正射多光谱遥感影像和Landsat-8遥感影像进行预处理。由于Potsdam数据集的多光谱遥感影像已经做了预处理,本实施例不再对Potsdam数据集的正射多光谱遥感影像进行预处理,仅对Landsat-8遥感影像进行预处理,得到正射多光谱影像以及预处理后的Landsat-8遥感影像,正射多光谱影像如图2所示。
S1-2,针对步骤S1-1中的多光谱遥感影像结果图,计算归一化植被指数NDVI、归一化水体指数NDWI和归一化建筑指数NDBI,分别得到NDVI空间分布图、NDWI空间分布图和NDBI空间分布图;
具体的,针对步骤S1-1中的多光谱遥感影像结果图以及预处理后的Landsat-8遥感影像,计算包括但不限于归一化植被指数NDVI(Normalized Difference VegetationIndex)、归一化水体指数NDWI(Normalized Difference Water Index)、归一化建筑指数NDBI(Normalized Difference Barren Index)指数中的一种或多种,分别得到NDVI空间分布图、NDWI空间分布图和NDBI空间分布图,其计算公式分别为:
Figure GDA0004124598270000151
Figure GDA0004124598270000152
Figure GDA0004124598270000153
其中,NDVI、NDWI和NDBI分别为归一化植被指数、归一化水体指数和归一化建筑指数,NDVI和NDWI公式中的NIR、Red和Green分别为正射多光谱影像的近红外波段的值、红波段的值和绿波段的值,NDBI公式中的SWIR和NIR分别为预处理后的Landsat-8遥感影像的短波红外波段的值和近红外波段的值。
S1-3,获取遥感影像覆盖区域的原始数字表面模型DSM,依次进行归一化处理和重采样处理,得到数字表面模型结果图;
获取遥感影像覆盖区域的原始数字表面模型DSM(Digital Surface Model),先后将原始数字表面模型DSM进行归一化处理和重采样处理,消除地面高度的影响,生成高于地形的DSM,得到数字表面模型结果图。本实施例DSM数据选择了Potsdam数据集中经lastools方法归一化处理后的DSM数据,不需要再次进行归一化处理。
S1-4,获取遥感影像覆盖区域的原始地表温度数据ST(Surface Temperature),并进行重采样,得到地表温度结果图。
S2,多源遥感数据配准与融合;
S2-1,基于步骤S1-3中得到的数字表面模型结果图和步骤S1-4得到的地表温度结果图分别与步骤S1-1得到的多光谱遥感影像结果图进行配准,得到配准数字表面模型结果图和配准地表温度结果图;
S2-2,基于步骤S1-1、步骤S1-2、步骤S2-1分别得到的多光谱遥感影像结果图、NDVI空间分布图、NDWI空间分布图、NDBI空间分布图、配准数字表面模型结果图、配准地表温度结果图进行融合,得到多源特征融合栅格结果图,其中,多源特征融合栅格结果图中包括多光谱通道、NDVI通道、NDWI通道、NDBI通道、DSM通道和ST通道,多光谱通道包括红绿蓝通道和除红绿蓝外的其他光谱通道;
S3,针对步骤S2-2得到的多源特征融合栅格结果图按照预定尺寸进行规则化切片得到规则化的多源特征融合栅格切片集合;
具体的,针对步骤S2得到的多源特征融合栅格结果图,将多源特征融合栅格结果图按照预定尺寸进行规则化切片得到规则化的多源特征融合栅格切片集合:将影像按照M*N像元的尺寸进行规则化切片。具体的,在本实施例中,将步骤S2得到的作为训练数据的31幅多源特征融合的栅格数据按照1024×1024像元的尺寸进行规则的切片,得到规则化的多源特征融合栅格切片集合。在本实施例中,多源特征融合的栅格切片的数量为1116个;
S4,针对步骤S3中得到的规则化的多源特征融合栅格切片集合中的每个栅格切片进行以下操作:
S4-1,基于每个栅格切片分别进行旋转数据增强处理与镜像数据增强处理中的一种或两种,并将处理后的栅格切片加入到多源特征融合栅格切片集合中,得到增强后的增强样本集合;
具体的,对每个栅格切片分别进行包括但不限于旋转数据增强处理与镜像数据增强处理中的一种或两种,将处理后的栅格切片加入到样本集合中,得到增强后的增强样本集合。本实施例对步骤S3得到的1116个多源特征融合的栅格切片分别进行90°、180°、270°的旋转处理,以及垂直和水平两种方向的镜像处理,并将处理后的栅格切片加入到原来的多源特征融合栅格切片集合中,得到增强后的增强样本集合,增强样本集合中的栅格切片的数量为6696个。
其中,数据增强处理是指通过对图像进行翻转、裁剪、变换、加噪声处理中的一种或多种,以增加样本的数量和多样性,进而增强模型的泛化能力;
S4-2,针对增强样本集合中的每个栅格切片进行样本标注,将栅格切片按照不同的土地覆被类型划分成不同的区域,并分别赋予对应的标记值,以得到栅格切片对应的样本标注集合;
对增强样本集合中的每个栅格切片进行样本标注,将栅格切片按照不同的土地覆被类型划分成不同的区域,并分别赋予对应的标记值,以得到栅格切片对应的样本标注集合。本实施例中的实验数据Potsdam数据集中已经包含了样本标注数据,因此本实施例无需进行样本标注处理。本实施例首先将作为训练数据的31幅正射多光谱无人机遥感影像对应的标注数据按照1024×1024像元的尺寸进行规则化的切片,得到规则化的标注切片集合,共1116个;然后对1116个标注切片分别进行90°、180°、270°的旋转处理,以及垂直和水平方向的两种镜像处理,得到增强后的样本标注集合,标注切片的数量为6696个。
S5,针对步骤S4得到的样本标注集合,根据随机原则,按照预先设定的比例,划分成训练集、验证集和测试集三部分,得到多源特征融合土地覆被遥感分类样本集;其中,训练集、验证集和测试集的样本数量分别为4822、1205和669;
S6,构建基于多源特征融合的土地覆被遥感分类模型MSFFNet(Multi-sourceFeatures Fusion Network),其结构如图3所示,土地覆被遥感分类模型MSFFNet首先通过两个并行的分支骨干网络DBBN(Double-branch Backbone Network)分别对多源特征融合的栅格数据的真彩色红绿蓝三个通道以及除红绿蓝外的其他光谱通道、NDVI指数通道、NDWI指数通道、NDBI指数通道、DSM通道、ST通道两部分进行特征提取;接着通过轻量化的特征融合模块将两分支网络提取的特征进行融合,得到融合特征结果图;然后将融合特征结果图输入至一个改进的双重注意力模块MDAM(Modified Dual Attention Module)中,双重注意力模块MDAM对融合特征结果图的空间维和通道维的语义相关性进行建模,充分利用全局上下文信息,并生成新的特征图;再通过跳跃结构将新的特征图与真彩色分支网络提取的浅层特征进行融合,得到包含细节信息的新的深层融合特征图;最后通过双线性内插将深层融合特征图进行上采样恢复到输入栅格的原始尺寸,并经Softmax分类器进行分类,得到土地覆被分类结果图;
构建的用于对DBBM模块的两个分支分别提取的特征进行融合的轻量化特征融合模块的结构为:
(1)将双分支提取的特征图按通道维度进行拼接;
(2)进行两次3×3的可分离卷积,对两分支提取的特征进行融合处理,并将拼接后的特征图的通道恢复到拼接前的数量。
构建的用于对提取的融合特征结果图的空间维和通道维的语义相关性进行建模的改进的双重注意力模块MDAM,其结构如图4所示,其特征为:
(1)将提取的融合特征结果图输入至通道非局部块CNLB(Channel Non-localBlock)中,对特征的通道维度的相关性进行建模,得到处理后的通道相关性建模的特征数据;
(2)将经通道非局部块CNLB处理后的通道相关性建模的特征数据输入至空间非局部块PNLB(Position Non-local Block)中,对融合特征结果图的空间维度的相关性进行建模,生成对空间维和通道维的相关性进行建模的新的特征图。
构建的基于多源特征融合的土地覆被遥感分类模型MSFFNet的特征为:
(1)输入为多源特征融合的栅格数据的多维矩阵;
(2)将输入的多维矩阵按通道维度进行切片,分成两个分支:
分支一,真彩色红绿蓝三通道;
分支二,除红绿蓝外的其他光谱通道、NDVI通道、NDWI通道、NDBI通道、DSM通道、ST通道;
(3)将分支一和分支二分别输入至DBBM模块的两个分支中进行特征提取;
(4)通过轻量化的特征融合模块将分支一中提取的视觉特征和分支二中提取出的NDVI特征、NDWI特征、NDBI特征、DSM特征及ST特征进行融合,获得具有互补特征的深层融合特征;
(5)将深层融合特征输入至双重注意力模块MDAM中,对深层融合特征的空间维和通道维的语义相关性进行建模,生成新的特征图;
(6)通过跳跃结构将新的特征图与DBBM模块分支一提取的浅层视觉特征进行融合,获得包含细节信息的深层融合特征图;
(7)通过双线性内插将特征图进行上采样恢复到输入栅格的原始尺寸,并经Softmax分类器进行分类,得到土地覆被分类结果。
S7,分别针对步骤S5得到的多源特征融合土地覆被遥感分类样本集和步骤S6构建的土地覆被遥感分类模型MSFFNet进行训练,本实施例的实验环境为Intel(R)Xeon(R)CPUE5-2699 v4处理器+NVIDIA Quadro M6000显卡(显存容量24GB)+Windows 10专业版系统+Keras深度学习框架+Python 3.6,训练过程包括以下操作:
S7-1,对土地覆被遥感分类模型MSFFNet的参数进行初始化,其中DBBM模块的真彩色特征提取分支加载在大规模自然场景图像数据集上迁移学习的参数,另一分支参数进行随机初始化,双重注意力模块MDAM的参数初始化为零;接着用步骤S5得到的多源特征融合土地覆被遥感分类样本集中的训练集和验证集对土地覆被遥感分类模型MSFFNet进行训练,得到训练后的MSFFNet训练模型;
训练参数设置如下,批次大小(batch size)为16,迭代次数(epoch)为60;
其中,土地覆被遥感分类模型MSFFNet的损失函数公式为:
Figure GDA0004124598270000211
其中,Loss是土地覆被遥感分类模型MSFFNet的损失值,yi为真实值,yi 为预测值,n为分类的类别数,i为类别,取值为i=1,2,…,n。
S7-2,利用步骤S5得到的多源特征融合土地覆被遥感分类样本集中的测试集对训练后的MSFFNet训练模型进行精度验证,采用分类领域常用的统计学指标:总体精度(Overall Accuracy,OA)对MSFFNet训练模型的分类精度进行评价,当模型精度满足实际应用需求时,MSFFNet训练模型训练完成;否则,采取包括增加样本数量、提高样本集的多样性以及增加训练迭代次数中的一种或多种措施进行继续训练,直到MSFFNet训练模型精度满足要求,得到训练完成的MSFFNet最终模型;
其中,精度验证公式为:
Figure GDA0004124598270000221
其中,OA是模型的总体精度,表示分类结果中所有类别预测正确的像元数占总像元数的比例,OA值越接近1,模型表现越好;TP、TN、FP、FN分别代表真正类(true positive)、真负类(true negative)、假正类(false positive)以及假负类(false negative)。
经测试,模型的总体精度OA达到0.94,满足实际应用的需求,得到训练好的MSFFNet最终模型;
S8,重复步骤S1至步骤S3,得到待分类的规则化的待测多源特征融合栅格切片集合;
S9,将步骤S8得到的待分类多源特征融合栅格切片集合中的栅格切片依次输入到步骤S7中的MSFFNet最终模型中,得到每个栅格切片对应的土地覆被分类结果栅格图;
S10,基于步骤S9得到的每个栅格切片对应的土地覆被分类结果栅格图进行合并,得到土地覆被分类结果栅格图,如图5所示;
S11,针对步骤S10得到的土地覆被分类结果栅格图,将土地覆被分类结果栅格图矢量化,得到土地覆被分类结果矢量图;
S12,针对步骤S11得到的土地覆被分类结果矢量图进行边缘平滑以及细碎图斑处理,得到土地覆被分类结果图,如图6所示。
通过计算,模型测试的总体精度OA为0.88,达到预期的效果。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。

Claims (7)

1.一种基于多源特征融合的土地覆被遥感监测方法,其特征在于,包括以下步骤:
S1,多源遥感数据处理;
S1-1,获取原始遥感影像并进行预处理,得到像元值为地物真实反射率的多光谱遥感影像结果图;
S1-2,针对步骤S1-1中的多光谱遥感影像结果图,计算归一化植被指数NDVI、归一化水体指数NDWI和归一化建筑指数NDBI,分别得到NDVI空间分布图、NDWI空间分布图和NDBI空间分布图;
S1-3,获取遥感影像覆盖区域的原始数字表面模型DSM,依次进行归一化处理和重采样处理,得到数字表面模型结果图;
S1-4,获取遥感影像覆盖区域的原始地表温度ST,并进行重采样,得到地表温度结果图;
S2,多源遥感数据配准与融合;
S2-1,基于步骤S1-3中得到的数字表面模型结果图和步骤S1-4得到的地表温度结果图分别与步骤S1-1得到的多光谱遥感影像结果图进行配准,得到配准数字表面模型结果图和配准地表温度结果图;
S2-2,基于步骤S1-1、步骤S1-2、步骤S2-1分别得到的多光谱遥感影像结果图、NDVI空间分布图、NDWI空间分布图、NDBI空间分布图、配准数字表面模型结果图、配准地表温度结果图进行融合,得到多源特征融合栅格结果图,其中,多源特征融合栅格结果图包括多光谱通道、NDVI通道、NDWI通道、NDBI通道、DSM通道和ST通道,多光谱通道包括真彩色红绿蓝通道及除红绿蓝外的其他光谱通道;
S3,针对步骤S2-2得到的多源特征融合栅格结果图按照预定尺寸进行规则化切片得到规则化的多源特征融合栅格切片集合;
S4,针对步骤S3中得到的规则化的多源特征融合栅格切片集合中的每个栅格切片进行以下操作:
S4-1,基于每个栅格切片分别进行旋转数据增强处理与镜像数据增强处理中的一种或两种,并将处理后的栅格切片加入到多源特征融合栅格切片集合中,得到增强后的增强样本集合;
S4-2,针对增强样本集合中的每个栅格切片进行样本标注,将栅格切片按照不同的土地覆被类型划分成不同的区域,并分别赋予对应的标记值,以得到栅格切片对应的样本标注集合;
S5,针对步骤S4得到的样本标注集合,根据随机原则,按照预先设定的比例,划分成训练集、验证集和测试集三部分,得到多源特征融合土地覆被遥感分类样本集;
S6,构建基于多源特征融合的土地覆被遥感分类模型MSFFNet,首先通过两个并行的分支骨干网络DBBN分别对多源特征融合的栅格数据的真彩色红绿蓝三个通道以及除红绿蓝外的其他光谱通道、NDVI指数通道、NDWI指数通道、NDBI指数通道、DSM通道、ST通道两部分进行特征提取;接着通过轻量化的特征融合模块将两分支网络提取的特征进行融合,得到融合特征结果图;然后将融合特征结果图输入至一个改进的双重注意力模块MDAM中,双重注意力模块MDAM对融合特征结果图的空间维和通道维的语义相关性进行建模,生成新的特征图;再通过跳跃结构将新的特征图与真彩色分支网络提取的浅层特征进行融合,得到包含细节信息的新的深层融合特征图;最后通过双线性内插将深层融合特征图进行上采样恢复到输入栅格的原始尺寸,并经Softmax分类器进行分类,得到土地覆被分类结果图;
其中,改进的双重注意力模块MDAM的特征为:
(1)将提取的融合特征结果图输入至通道非局部块CNLB中,对融合特征结果图的通道维度的相关性进行建模,得到处理后的通道相关性建模的特征数据;
(2)将经通道非局部块CNLB处理后的通道相关性建模的特征数据输入至空间非局部块PNLB中,对融合特征结果图的空间维度的相关性进行建模,生成对空间维和通道维的相关性进行建模的新的特征图;
基于多源特征融合的土地覆被遥感分类模型MSFFNet的特征为:
(1)输入为多源特征融合的栅格数据的多维矩阵;
(2)将输入的多维矩阵按通道维度进行切片,分成两个分支:
分支一,真彩色红绿蓝三通道;
分支二,除红绿蓝外的其他光谱通道、NDVI通道、NDWI通道、NDBI通道、DSM通道、ST通道;
(3)将分支一和分支二分别输入至DBBM模块的两个分支中进行特征提取;
(4)通过轻量化的特征融合模块将分支一中提取的视觉特征和分支二中提取出的NDVI特征、NDWI特征、NDBI特征、DSM特征及ST特征进行融合,获得具有互补特征的融合特征结果图;
(5)将融合特征结果图输入至双重注意力模块MDAM中,对融合特征结果图的空间维和通道维的语义相关性进行建模,生成新的特征图;
(6)通过跳跃结构将新的特征图与DBBM模块分支一提取的浅层视觉特征进行融合,获得包含细节信息的深层融合特征图;
(7)通过双线性内插将特征图进行上采样恢复到输入栅格的原始尺寸,并经Softmax分类器进行分类,得到土地覆被分类结果;
S7,分别针对步骤S5得到的多源特征融合土地覆被遥感分类样本集和步骤S6构建的土地覆被遥感分类模型MSFFNet进行训练,训练过程包括以下操作:
S7-1,对土地覆被遥感分类模型MSFFNet的参数进行初始化,其中DBBM模块的真彩色特征提取分支加载在大规模自然场景图像数据集上迁移学习的参数,另一分支参数进行随机初始化,双重注意力模块MDAM的参数初始化为零;接着用步骤S5得到的多源特征融合土地覆被遥感分类样本集中的训练集和验证集对土地覆被遥感分类模型MSFFNet进行训练,得到训练后的MSFFNet训练模型;
S7-2,利用步骤S5得到的多源特征融合土地覆被遥感分类样本集中的测试集对训练后的MSFFNet训练模型进行精度验证,采用总体精度OA对MSFFNet训练模型的分类精度进行评价,当MSFFNet训练模型精度满足实际应用需求时,MSFFNet训练模型训练完成;否则,采取包括增加样本数量、提高样本集的多样性以及增加训练迭代次数中的一种或多种措施进行继续训练,直到MSFFNet训练模型精度满足要求,得到训练完成的MSFFNet最终模型;
S8,重复步骤S1至步骤S3,得到待分类的规则化的待测多源特征融合栅格切片集合;
S9,将步骤S8得到的待分类多源特征融合栅格切片集合中的栅格切片依次输入到步骤S7中的MSFFNet最终模型中,得到每个栅格切片对应的土地覆被分类结果栅格图;
S10,基于步骤S9得到的每个栅格切片对应的土地覆被分类结果栅格图进行合并,得到土地覆被分类结果栅格图;
S11,针对步骤S10得到的土地覆被分类结果栅格图,将土地覆被分类结果栅格图矢量化,得到土地覆被分类结果矢量图;
S12,针对步骤S11得到的土地覆被分类结果矢量图进行边缘平滑以及细碎图斑处理,得到土地覆被分类结果图。
2.如权利要求1所述的一种基于多源特征融合的土地覆被遥感监测方法,其特征在于,所述步骤S1-1中的预处理包括辐射定标、大气校正、正射校正和波段融合。
3.如权利要求1所述的一种基于多源特征融合的土地覆被遥感监测方法,其特征在于,所述步骤S1-2中NDVI指数、NDWI指数和NDBI指数的计算公式分别为:
Figure FDA0004124598250000061
Figure FDA0004124598250000062
Figure FDA0004124598250000063
其中,NIR、Red、Green和SWIR分别为遥感影像的近红外波段的值、红波段的值、绿波段的值和短波红外波段的值。
4.如权利要求1所述的一种基于多源特征融合的土地覆被遥感监测方法,其特征在于,所述步骤S4-1中的数据增强处理还可以是指通过对图像进行翻转、裁剪、变换、加噪声处理中的一种或多种。
5.如权利要求1所述的一种基于多源特征融合的土地覆被遥感监测方法,其特征在于,所述步骤S6中的用于对DBBM模块的两个分支分别提取的特征进行融合的轻量化特征融合模块的结构为:
(1)将双分支提取的特征图按通道维度进行拼接;
(2)进行两次3×3的可分离卷积,对两分支提取的特征进行融合处理,并将拼接后的特征图的通道恢复到拼接前的数量。
6.如权利要求1所述的一种基于多源特征融合的土地覆被遥感监测方法,其特征在于,所述步骤S6中土地覆被遥感分类模型MSFFNet的损失函数公式为:
Figure FDA0004124598250000071
其中,Loss是土地覆被遥感分类模型MSFFNet的损失值,yi为真实值,yi 为预测值,n为分类的类别数,i为类别,取值为i=1,2,…,n。
7.如权利要求1所述的一种基于多源特征融合的土地覆被遥感监测方法,其特征在于,所述步骤S7-2中对MSFFNet训练模型进行精度验证的精度验证公式为:
Figure FDA0004124598250000072
其中,OA是模型的总体精度,表示分类结果中所有类别预测正确的像元数占总像元数的比例,OA值越接近1,模型表现越好;TP、TN、FP、FN分别代表真正类、真负类、假正类以及假负类。
CN202211296692.XA 2022-10-21 2022-10-21 一种基于多源特征融合的土地覆被遥感监测方法 Active CN115527123B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211296692.XA CN115527123B (zh) 2022-10-21 2022-10-21 一种基于多源特征融合的土地覆被遥感监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211296692.XA CN115527123B (zh) 2022-10-21 2022-10-21 一种基于多源特征融合的土地覆被遥感监测方法

Publications (2)

Publication Number Publication Date
CN115527123A CN115527123A (zh) 2022-12-27
CN115527123B true CN115527123B (zh) 2023-05-05

Family

ID=84704580

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211296692.XA Active CN115527123B (zh) 2022-10-21 2022-10-21 一种基于多源特征融合的土地覆被遥感监测方法

Country Status (1)

Country Link
CN (1) CN115527123B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173438B (zh) * 2023-09-04 2024-02-27 之江实验室 一种深度耦合多源传感特性的景象匹配方法
CN117237780B (zh) * 2023-11-15 2024-03-15 人工智能与数字经济广东省实验室(深圳) 多维数据特征图构建方法、系统、智能终端和介质
CN117274763B (zh) * 2023-11-21 2024-04-05 珠江水利委员会珠江水利科学研究院 基于平衡点分析的遥感影像空-谱融合方法、系统、设备及介质
CN117975292B (zh) * 2024-03-25 2024-06-14 中国科学院东北地理与农业生态研究所 一种温带森林沼泽提取方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049562A (zh) * 2021-11-30 2022-02-15 中国科学院地理科学与资源研究所 一种土地覆被数据融合修正方法
CN115170979A (zh) * 2022-06-30 2022-10-11 国家能源投资集团有限责任公司 一种多源数据融合的矿区精细用地分类方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9946931B2 (en) * 2015-04-20 2018-04-17 Los Alamos National Security, Llc Change detection and change monitoring of natural and man-made features in multispectral and hyperspectral satellite imagery
CN107909607B (zh) * 2017-12-11 2018-08-03 河北省科学院地理科学研究所 一种年度区域植被覆盖度计算方法
CN111274892B (zh) * 2020-01-14 2020-12-18 北京科技大学 一种鲁棒的遥感影像变化检测方法及系统
CN111428781A (zh) * 2020-03-20 2020-07-17 中国科学院深圳先进技术研究院 遥感影像地物分类方法及系统
CN112101153B (zh) * 2020-09-01 2022-08-26 北京航空航天大学 基于感受野模块与多重特征金字塔的遥感目标检测方法
CN112560831B (zh) * 2021-03-01 2021-05-04 四川大学 一种基于多尺度空间校正的行人属性识别方法
CN113160237B (zh) * 2021-03-02 2021-11-02 中国科学院地理科学与资源研究所 一种土地覆被制图方法
CN113312993B (zh) * 2021-05-17 2022-07-26 北京大学 一种基于PSPNet的遥感数据土地覆盖分类方法
CN113343789A (zh) * 2021-05-20 2021-09-03 武汉大学 一种基于局部细节增强与边缘约束的高分辨率遥感影像土地覆盖分类方法
CN113469094B (zh) * 2021-07-13 2023-12-26 上海中科辰新卫星技术有限公司 一种基于多模态遥感数据深度融合的地表覆盖分类方法
CN113780307A (zh) * 2021-08-24 2021-12-10 河北省科学院地理科学研究所 一种区域年度最大蓝绿空间信息提取方法
CN114821631A (zh) * 2022-03-09 2022-07-29 哈尔滨理工大学 基于注意力机制与多尺度特征融合的行人特征提取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049562A (zh) * 2021-11-30 2022-02-15 中国科学院地理科学与资源研究所 一种土地覆被数据融合修正方法
CN115170979A (zh) * 2022-06-30 2022-10-11 国家能源投资集团有限责任公司 一种多源数据融合的矿区精细用地分类方法

Also Published As

Publication number Publication date
CN115527123A (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
CN115527123B (zh) 一种基于多源特征融合的土地覆被遥感监测方法
US11694354B2 (en) Geospatial object geometry extraction from imagery
CN113160150B (zh) 线网异物入侵ai检测方法与装置
Zuo et al. HF-FCN: Hierarchically fused fully convolutional network for robust building extraction
CN109558806A (zh) 高分遥感图像变化的检测方法和系统
Shen et al. Biomimetic vision for zoom object detection based on improved vertical grid number YOLO algorithm
CN110516723B (zh) 一种基于深度张量融合的多模态地基云图识别方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
Xu et al. Feature-based constraint deep CNN method for mapping rainfall-induced landslides in remote regions with mountainous terrain: An application to Brazil
CN115457396B (zh) 一种基于遥感影像的地表目标地物检测方法
Xie et al. Damaged building detection from post-earthquake remote sensing imagery considering heterogeneity characteristics
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法
Zhan et al. Vegetation land use/land cover extraction from high-resolution satellite images based on adaptive context inference
Cheng et al. Multi-scale Feature Fusion and Transformer Network for urban green space segmentation from high-resolution remote sensing images
CN114943893A (zh) 一种土地覆盖分类的特征增强网络
CN115661677A (zh) 一种基于暗通道特征引导的轻量级卫星影像云检测方法
CN116503602A (zh) 基于多层级边缘增强的非结构化环境三维点云语义分割方法
CN116385902A (zh) 一种遥感大数据处理方法、系统及云平台
Li Segment any building
Qian et al. Cloud detection method based on improved deeplabV3+ remote sensing image
Yang et al. Semantic perceptive infrared and visible image fusion Transformer
CN113033386A (zh) 一种基于高分辨率遥感影像的输电线路通道隐患识别方法及系统
CN116206210A (zh) 一种基于NAS-Swin的遥感影像农业大棚提取方法
Li et al. Fast semantic segmentation model pulnet and lawn boundary detection method
Zhao et al. Efficient building extraction for high spatial resolution images based on dual attention network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant