CN115620162A - 一种基于决策级数据融合的洪涝淹没区域提取方法 - Google Patents
一种基于决策级数据融合的洪涝淹没区域提取方法 Download PDFInfo
- Publication number
- CN115620162A CN115620162A CN202211321653.0A CN202211321653A CN115620162A CN 115620162 A CN115620162 A CN 115620162A CN 202211321653 A CN202211321653 A CN 202211321653A CN 115620162 A CN115620162 A CN 115620162A
- Authority
- CN
- China
- Prior art keywords
- water body
- area
- model
- extraction
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于决策级数据融合的洪涝淹没区域提取方法。该方法将训练集中Sentinel‑1、Sentinel‑2的影像波段进行组合,输入深度神经网络中,训练得到多个水体提取模型;再通过计算每个模型在测试集的水体提取精度,分别筛选出对无云雾覆盖非水体区域、无云雾覆盖水体区域、云雾覆盖区域提取精度最高的模型;最后使用决策树将以上三种模型在受灾区的提取结果融合,得到灾前、灾后的水体区域,并将灾后水体范围减去灾前水体范围得到研究区的洪涝淹没区域。本方法的优点在于充分考虑了无云和有云情况下的影像差别,使用不同模型提取有云和无云区域的水体,并用决策树来融合提取结果,既保证了无云区域的水体提取精度,又使云雾区域提取的水体更加完整。
Description
技术领域
本发明属于遥感灾害检测领域,具体涉及一种基于决策级数据融合的洪涝淹没区域提取方法。
背景技术
洪涝灾害发生速度快,影响范围广,发生频率高,容易造成受灾地区大量的人员伤亡以及较为严重的财产损失。高效率地开启面向洪涝事件的灾害响应,特别是准确且快速地提取洪涝淹没区域对于防洪减灾有着重要的作用。传统的洪涝淹没区域提取主要通过采样调查实现,提取过程耗时耗力。相比而言,遥感数据获取周期短、受地面条件限制少、波段信息丰富,为准确且快速地提取洪涝淹没区域提供了可能性。大多数研究使用多光谱数据或合成孔径雷达数据来提取洪涝淹没区域。其中多光谱数据可以提供丰富的光谱信息,但容易受到云雾等影响;合成孔径雷达数据不易受云雾等的影响,但难以区分水体和类水表面。仅使用多光谱数据或合成孔径雷达数据,较难提取高精度的洪涝淹没区域。目前,如何有效融合多光谱数据和合成孔径雷达数据,提高特征信息的利用率,成为了洪涝淹没区域提取的主要发展方向之一。
现阶段,大部分多光谱数据和合成孔径雷达数据的数据融合通过特征级的数据融合方法实现。这类方法可以灵活地融合多光谱数据和合成孔径雷达数据的特征变量,有效提高了洪涝淹没区域的提取精度。但,这些方法大多使用单个模型提取整个目标区域的洪涝淹没区域,缺乏对区域影像差异性的考虑,容易导致部分特征信息的缺失。因此,本发明尝试将有云和无云区域分开讨论,使用不同的模型分别提取这两个区域的洪涝淹没区域,提高特征信息的利用率,从而提高目标区域整体的提取精度。
发明内容
本发明的目的是克服现有技术的不足,提供一种基于决策级数据融合的洪涝淹没区域提取方法,以提高特征信息的利用率,提高洪涝淹没区域的提取精度。
为实现上述发明目的,本发明具体采用的技术方案如下:
一种基于决策级数据融合的洪涝淹没区域提取方法,它的步骤如下:
S1:根据待检测受灾区域和洪涝灾害发生时间,获取该区域的灾前遥感影像和灾后遥感影像,并对影像进行预处理和数据对齐;
S2:从带有洪涝淹没区域标注的无云样本集中提取不同的特征变量,组合成不同的多通道数据;以每一组多通道数据为输入,独立训练一个深度学习神经网络,从而得到每一组多通道数据对应的洪涝水体提取模型;其中洪涝水体提取模型的最后一层分类层中,通过固定的预设分类阈值来划分水体区域和非水体区域;
S3:利用预先分割有无云雾覆盖非水体区域、无云雾覆盖水体区域、云雾覆盖区域的有云样本集,对S2中训练得到的每个洪涝水体提取模型进行测试,并得到每个洪涝水体提取模型对三种区域各自的水体识别结果,进而筛选出对于无云雾覆盖非水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第一模型、对于无云雾覆盖水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第二模型、对于云雾覆盖区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第三模型;
S4、利用决策树对第一模型、第二模型和第三模型进行级联,在级联模型中先由第一模型对输入影像进行水体区域提取,将属于水体的概率大于第一分类阈值的区域作为第一水体区域,其余区域作为第一非水体区域;再由第二模型对第一水体区域重新进行水体区域提取,将属于水体的概率大于等于第二分类阈值的区域作为第二水体区域,其余区域作为第二非水体区域;再由第三模型对第二非水体区域重新进行水体区域提取,将属于水体的概率大于等于第三分类阈值的区域作为第三水体区域,其余区域作为第三非水体区域;最终以第二水体区域和第三水体区域之和作为输入影像中的水体区域提取结果,其余区域均为非水体区域;基于所述有云样本集,依次针对第一模型、第二模型和第三模型的分类层中的分类阈值进行参数寻优,先确定使第一模型针对第一非水体区域的提取精度达到最高的第一分类阈值,再确定使第二模型针对第二水体区域的提取精度达到最高的第二分类阈值,最后确定使第三模型针对第三水体区域的提取精度达到最高的第三分类阈值;
S5:将S1中得到的灾前遥感影像和灾后遥感影像分别作为输入影像,由参数寻优后的级联模型对输入影像进行水体提取,得到输入影像的水体区域提取结果,从而确定灾前水体区域和灾后水体区域;最后识别出灾后水体区域相对于灾前水体区域而言增加的区域,作为最终的洪涝淹没区域提取结果。
作为优选,所述步骤S1中,针对待检测受灾区域,按照S11~S13完成目标区域灾前、灾后遥感影像的获取和预处理:
S11:根据待检测受灾区域以及洪涝灾害的发生时间,分别获取灾前、灾后的Sentinel-1和Sentinel-2影像;其中,Sentinel-1影像为Sentinal-1A干涉宽幅模式下的GRD产品数据,Sentinel-2影像是L1C级别的产品数据;
S12:对获取到的Sentinel-1影像进行轨道文件校正、辐射定标和地形校正,再按照待检测受灾区域的区域范围进行剪裁;对获取到的Sentinel-2影像进行大气校正和重采样,再按照待检测受灾区域的区域范围进行剪裁;
S13:对S12处理后的两类影像分别进行分割,每张影像被分割为一系列图像块。
作为优选,所述Sentinel-2影像被重采样至10m分辨率,所述图像块的大小为用512×512像素。
作为优选,所述灾前的Sentinel-1影像和Sentinel-2影像以及所述灾后的Sentinel-1影像和Sentinel-2影像均需要保证时间间隔不超过间隔阈值,且云雾覆盖率也不超过覆盖率阈值。
作为优选,所述无云样本集采用Sen1Floods11数据集。
作为优选,所述步骤S2中,针对待检测受灾区域,按照S21~S23完成多个洪涝水体提取模型的训练:
S21:将Sentinel-1影像的VV极化波段和VH极化波段、Sentinel-2影像的Band1至Band12波段以及基于Sentinel-2影像计算得到的归一化水体指数(NDWI)和归一化多波段水体指数(NDMBWI)一并作为特征变量集合;基于所述无云样本集,将特征变量集合中的各特征变量按照不同的组合方式合成不同的多通道数据;
S22:将S21中每一组多通道数据作为输入,独立训练一个UNet++网络,从而得到每一组多通道数据对应的洪涝水体提取模型。
作为优选,在对特征变量集合中的各特征变量进行组合时,Sentinel-1影像的VV极化波段和VH极化波段作为必选通道,Sentinel-2影像的Band1至Band12波段以及基于Sentinel-2影像计算得到的归一化水体指数(NDWI)和归一化多波段水体指数(NDMBWI)作为可选通道。
作为优选,所述步骤S3中,所述提取精度以召回率作为指标,召回率的值域范围为[0,1]。
作为优选,所述步骤S3中,所述阈值下限设置为0.5~0.7。
作为优选,所述步骤S4中,第一模型、第二模型和第三模型的分类层中分类阈值的参数寻优范围为[0,1]。
作为优选,所述步骤S4中,所述提取精度以召回率作为指标。
相对于现有技术而言,本发明具体以下有益效果:
本发明充分考虑了有云和无云情况下遥感影像的差异,将训练集的多光谱影像和合成孔径雷达影像按照有云和无云的需求,组合成多个多通道数据,并输入UNet++网络中分别训练得到云雾覆盖区域提取精度最高的模型、无云区域提取精度最高的模型和无云区域错分情况最少的模型。再来,利用决策树融合三种模型的提取结果。先使用无云区域错分情况最少的模型和无云区域提取精度最高的模型提取无云区域的水体范围并排除一部分的非水体,再使用云雾覆盖区域提取精度最高的模型提取剩下区域的水体范围,最终根据提取到的灾前、灾后水体范围计算得到较高精度的洪涝淹没区域。相比其他基于深度学习实现的水体提取模型,本发明的平均交并比(Mean Intersection over Union,mIoU)更高。并在保持无云区域的水体提取精度的同时,显著提高了云雾覆盖率高区域的水体提取完整性。本发明为其他使用决策级数据融合方法的灾害信息提取提供借鉴。
附图说明
图1为基于决策级数据融合的洪涝淹没区域提取方法流程图;
图2为决策级数据融合方法;
图3为使用决策级数据融合的方法和未进行决策级数据融合的方法对2017年2月27日秘鲁皮乌拉河洪涝淹没区域提取(非云覆盖区域)的结果对比;
图4为使用决策级数据融合的方法和未进行决策级数据融合的方法对2017年2月27日秘鲁皮乌拉河洪涝淹没区域提取(云覆盖区域)的结果对比;
图5为决策级数据融合方法提取的2017年2月27日研究区洪涝淹没区域;
图6为哥白尼应急响应提供的2017年2月27日研究区洪涝淹没区域。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步阐述和说明。
如图1所示,为本发明的一个较佳实施例中提供了一种基于决策级数据融合的洪涝淹没区域提取方法的流程图。其主要步骤包括4步,分别为S1~S4:
S1:根据待检测受灾区域和洪涝灾害发生时间,获取该区域的灾前遥感影像和灾后遥感影像,并对影像进行预处理和数据对齐。
S2:从带有洪涝淹没区域标注的无云样本集中提取不同的特征变量,组合成不同的多通道数据;以每一组多通道数据为输入,独立训练一个深度学习神经网络,从而得到每一组多通道数据对应的洪涝水体提取模型;其中洪涝水体提取模型的最后一层分类层中,通过固定的预设分类阈值来划分水体区域和非水体区域。
S3:利用预先分割有无云雾覆盖非水体区域、无云雾覆盖水体区域、云雾覆盖区域的有云样本集,对S2中训练得到的每个洪涝水体提取模型进行测试,并得到每个洪涝水体提取模型对三种区域各自的水体识别结果,进而筛选出对于无云雾覆盖非水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第一模型、对于无云雾覆盖水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第二模型、对于云雾覆盖区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第三模型。
S4、利用决策树对第一模型、第二模型和第三模型进行级联,在级联模型中先由第一模型对输入影像进行水体区域提取,将属于水体的概率小于第一分类阈值的区域作为第一非水体区域,其余区域作为第一水体区域;再由第二模型对第一水体区域重新进行水体区域提取,将属于水体的概率大于等于第二分类阈值的区域作为第二水体区域,其余区域作为第二非水体区域;再由第三模型对第二非水体区域重新进行水体区域提取,将属于水体的概率大于等于第三分类阈值的区域作为第三水体区域,其余区域作为第三非水体区域;最终以第二水体区域和第三水体区域之和作为输入影像中的水体区域提取结果,其余区域均为非水体区域;基于所述有云样本集,依次针对第一模型、第二模型和第三模型的分类层中的分类阈值进行参数寻优,先确定使第一模型针对第一非水体区域的提取精度达到最高的第一分类阈值,再确定使第二模型针对第二水体区域的提取精度达到最高的第二分类阈值,最后确定使第三模型针对第三水体区域的提取精度达到最高的第三分类阈值。
S5:将S1中得到的灾前遥感影像和灾后遥感影像分别作为输入影像,由参数寻优后的级联模型对输入影像进行水体提取,得到输入影像的水体区域提取结果,从而确定灾前水体区域和灾后水体区域;最后识别出灾后水体区域相对于灾前水体区域而言增加的区域,作为最终的洪涝淹没区域提取结果。
下面对本实施例中S1~S5的具体实现方式以及其效果进行详细描述。
在提取目标区域的洪涝淹没区域过程中,灾前灾后的影像种类和影像质量十分重要。首先,为了能获取到更多的地表信息,本方法选用可以提供丰富的光谱信息的多光谱影像以及可以不受云雾影响的合成孔径雷达数据来提取洪涝淹没区域。其次,为了实现快速且准确地提取洪涝淹没区域,本方法综合分辨率、更新周期以及获取难易程度,选择Sentinel-1影像数据和Sentinel-2影像数据来提取灾前灾后的水体范围。当然,直接下载的Sentinel-1影像和Sentinel-2影像无法直接用于水体提取,需要分别对Sentinel-1影像和Sentinel-2影像进行预处理,并且为了方便模型提取Sentinel-1影像和Sentinel-2影像的特征信息,需要对预处理过后的影像进行尺寸分割。
基于以上需求,本实施例中对目标区域的影像获取和预处理过程主要通过步骤S1来实现,下面对其具体方法进行详细描述:
S11:根据待检测受灾区域以及洪涝灾害的发生时间,获取灾前、灾后的Sentinel-1和Sentinel-2影像。其中,Sentinel-1影像为Sentinal-1A干涉宽幅模式下的GRD产品数据,Sentinel-2影像是L1C级别的产品数据。
原则上不论是灾前还是灾后,Sentinel-1和Sentinel-2影像应的时间当是完全相同的,使得两类数据能够完全对齐,但由于Sentinel-1和Sentinel-2卫星对于同一区域的影像获取并不完全同步,因此在实际应用时应尽可能获取成像时间接近的Sentinel-1和Sentinel-2影像。另外,当遥感影像中存在大量云雾覆盖时,容易导致水体提取不准,因此选择的Sentinel-2影像的云覆盖区域不可过大。在实际应用时,可以根据实际情况设置阈值来对时间和云覆盖情况进行筛选,即灾前的Sentinel-1影像和Sentinel-2影像以及所述灾后的Sentinel-1影像和Sentinel-2影像均需要保证时间间隔不超过间隔阈值,且云雾覆盖率也不超过覆盖率阈值,具体的阈值可进行优化调整。
S12:对获取到的Sentinel-1影像进行轨道文件校正,辐射定标,地形校正,剪裁等处理;对获取到的Sentinel-2影像进行大气校正,重采样(所有波段都重采样到10m分辨率),剪裁等处理。需要说明的是,此处对于Sentinel-1影像和Sentinel-2影像的裁剪,均需要按照待检测受灾区域的区域范围进行剪裁,两者裁剪后的区域应当是完全对齐的。
S13:选定合适的分割尺寸用于对S12中裁剪后的的遥感影像进行分割,以便于其满足深度学习神经网络的输入要求。为了和Sen1Floods11训练样本集保持一致,本发明方法选用512×512pixel作为图像块的分割尺寸,并采用常规的格网采样方式对待检测受灾区域影像进行分割,即待检测受灾区域的每张Sentinel-1影像和Sentinel-2影像都会被裁剪为一系列512×512pixel尺寸的图像块。
高质量的、带有标记的训练数据集对使用深度学习方法实现目标提取是十分重要的。本方法选择Sen1Floods11数据集作为深度学习模型的训练样本集。Sen1Floods11中包含了446组人工标注的洪涝标签数据以及对应的Sentinel-1和Sentinel-2数据,为模型训练提供了足够多的有效信息。
进一步为了训练得到更高精度的水体提取模型,需要从训练集中的Sentinel-1数据和Sentinel-2数据中选择合适的特征变量组合成多通道数据来输入神经网络。
首先,选择Sentine-1数据中的VV极化波段和VH极化波段。Sentinel-1可以穿透云层,不受云雾的影响,提供丰富的纹理信息,利于云雾区域的水体提取。
其次,选择Sentinel-2数据中的Band1至Band12共13个波段。Sentine-2数据可以提供丰富的地表信息,在无云情况下,Sentinel-2数据是水体提取模型构建的首选。
最后,为了提高模型提取的效率和精度,需要选择合适的水体指数作为特征变量。水体指数的选择从目标区域的地表情况和洪涝灾害发生时的天气情况两方面考虑。本发明方法选择了对于干涸水体和植被敏感的归一化水体指数(NDWI)以及可以降低云以及阴影对水体提取影响的归一化多波段水体指数(NDMBWI)。
基于上述理论分析,本实施例中对洪涝水体提取模型的训练过程主要通过步骤S2来实现,下面对其具体方法进行详细描述:
S21:将Sentinel-1影像的VV极化波段和VH极化波段、Sentinel-2影像的Band1至Band12波段以及基于Sentinel-2影像计算得到的归一化水体指数(NDWI)和归一化多波段水体指数(NDMBWI)一并作为特征变量集合。基于Sen1Floods11训练集,将特征变量集合中的各特征变量按照不同的组合方式合成不同的多通道数据。具体而言,每一组组合形成的特征变量,可按照该组特征变量从Sen1Floods11训练集中的每个训练样本中抽取相应的数据,构建成多通道数据。
S22:按照预先设置的网络训练参数,将不同的组合方法合成的多个多通道数据分别输入深度学习神经网络中进行训练,每一组多通道数据对应得到一个洪涝水体提取模型,由此得到多个洪涝水体提取模型。
在本实施例中,可选择UNet++作为训练得到水体提取模型的深度学习神经网络,并根据实际情况,设置了30个epochs,每个epoch迭代次数为10次,学习率为固定值0.0005,每次送入模型中训练的Batch Size为2。
需要说明的是,在基于特征变量集合构建不同组合的特征变量时,原则上尽可能多地遍历穷举所有不同的组合,能够得到全局的最优解。但考虑实际的效率,可根据相关的前期研究或者现有技术报道,对特征变量集合中的特征变量进行重要性的排序,进而有选择性地构建不同的特征变量组合。本实施例中,基于相关研究,建议在对特征变量集合中的各特征变量进行组合时采用的原则是:Sentinel-1影像的VV极化波段和VH极化波段作为必选通道,Sentinel-2影像的Band1至Band12波段以及基于Sentinel-2影像计算得到的归一化水体指数(NDWI)和归一化多波段水体指数(NDMBWI)作为可选通道。也就是说,在后续的多通道数据中,需包含Sentinel-1影像的VV极化波段和VH极化波段,而Sentinel-2影像的Band1至Band12波段以及NDWI、NDMBWI指数则可以包含,也可以不包含。当然,该原则也可以根据需要进行调整,例如亦可将单独采用Sentinel-2影像的部分或全部波段纳入组合范围。
经过上述S2步骤,已经构建并训练了多个洪涝水体提取模型,下一步需要选择合适的水体提取模型,并通过步骤S3,完成决策级数据融合方法的构建。
近几年,越来越多的数据融合技术被运用于洪涝淹没区域的提取,然而,目前大多数的数据融合方法在提取洪涝淹没区域的过程中常使用单一的模型来提取水体,较少考虑模型之间的差异性和互补性。本发明尝试使用不同的模型提取水体,尽可能地使适合无云区域的模型提取目标区域受云雾影响较小的区域,使适合云雾区域的模型提取目标区域受云雾影响较大的区域,并通过决策树的方式将所有的提取结果结合起来。本发明在保证非云雾区域的水体提取精度的同时尽可能地使云雾区域的水体提取完整,提高了目标区域水体提取的整体精度。
基于以上分析,本实施例中,通过步骤S3来实现不同类型区域的最佳模型筛选,下面对其具体方法进行详细描述:
S31:获取部分有云雾覆盖的样本数据并通过标注形成有云样本集,有云样本集中的每个样本的影像格式和标注与无云样本集相同。但为了筛选不同类型区域的最佳模型,需要预先对每个样本中的影像进行区域划分,影像预先分割出有无云雾覆盖非水体区域、无云雾覆盖水体区域、云雾覆盖区域三类区域。再按照与S21步骤相同的做法,组合成与不同洪涝水体提取模型对应的多通道数据。
S32:将S31中得到的各组多通道数据分别输入S23中对应训练的洪涝水体提取模型中,得到每个洪涝水体提取模型的水体提取结果。注意各通道的数据种类和顺序必须和模型训练时输入的数据一致。
S33:通过计算每个模型的精度来筛选合适的模型。其中,为了评估每个模型的提取优势,本方法通过对比每个洪涝水体提取模型对无云样本集中三种区域各自的水体识别结果,进而筛选出对于无云雾覆盖非水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第一模型、对于无云雾覆盖水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第二模型、对于云雾覆盖区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第三模型。
需要说明的是,上述筛选出三个模型的目的是为了融合不同模型对于不同区域的提取特点,考虑模型之间的差异性和互补性,以便于后续通过决策树进行融合。设置阈值下限的目的是因为在筛选模型时,不能仅考虑对于某一类区域的提取精度,也需要适当考虑对其他区域提取精度的平衡性,如果对于其他区域的提取精度过低,也应当进行舍弃。在本实施例中,可以在上述S33步骤中采用提取精度以召回率作为指标,召回率的值域范围为[0,1],另外召回率的阈值下限可设置为0.5~0.7。在实际应用时,判断提取精度最高时,应当先利用阈值下限进行筛选,在筛选后的剩余模型中选择提取精度最高的模型。
经过上述S31~S33步骤,即可得到三个对于不同类型的区域具有较高提取精度的模型,由此即可通过决策树对其结果进行融合。本实施例中,通过步骤S4来实现不同类型区域的最佳模型的融合,下面对其具体方法进行详细描述:
S41:利用决策树对第一模型、第二模型和第三模型进行级联,在级联模型中先由第一模型对输入影像进行水体区域提取,将属于水体的概率小于第一分类阈值k1的区域作为第一非水体区域,其余区域作为第一水体区域。第一非水体区域中仍然可能由被误分类的水体区域,因此再由第二模型对第一水体区域重新进行水体区域提取,将属于水体的概率大于等于第二分类阈值k2的区域作为第二水体区域,其余区域作为第二非水体区域。第二非水体区域中仍然可能由被误分类的水体区域,因此再由第三模型对第二非水体区域重新进行水体区域提取,将属于水体的概率大于等于第三分类阈值k3的区域作为第三水体区域,其余区域作为第三非水体区域。最终级联模型以第二水体区域和第三水体区域之和作为输入影像中的水体区域提取结果,其余区域均为非水体区域。级联模型中的水体分类流程如图2所示。
S42:基于所述有云样本集,依次针对第一模型、第二模型和第三模型的分类层中的分类阈值进行参数寻优,先确定使第一模型针对第一非水体区域的提取精度达到最高的第一分类阈值k1,再确定使第二模型针对第二水体区域的提取精度达到最高的第二分类阈值k2,最后确定使第三模型针对第三水体区域的提取精度达到最高的第三分类阈值k3。
在本实施例中,可以在上述S42步骤中第一模型、第二模型和第三模型的分类层中分类阈值的参数寻优范围为[0,1],即在该范围内不断对不同阈值进行调整,进而确定提取精度达到最高的分类阈值。本实施例中,该步骤所采用的提取精度也以召回率作为指标。
由此,经过前述的S1~S4,已经使用UNet++网络构建了多个水体提取模型,并使用决策树将云雾覆盖区域提取精度最高的模型、无云区域提取精度最高的模型和在无云区域错分情况最少的模型的水体提取结果进行融合。下面简述受灾区域洪涝淹没区域提取的具体步骤S5:
S51:将S1中得到的灾前遥感影像和灾后遥感影像分别作为输入影像,由参数寻优后的级联模型对输入影像进行水体提取,得到输入影像的水体区域提取结果,从而确定灾前水体区域和灾后水体区域。
S42:将目标区域的灾后水体区域范围减去灾前水体区域范围得到目标区域的洪涝淹没区域,即最终确定的洪涝淹没区域为灾后水体区域相对于灾前水体区域而言增加的区域。
下面基于上述实施例方法,将其应用至具体的实例中对其效果进行展示。具体的过程如前所述,不再赘述,下面主要展示其具体参数设置和实现效果。
实施例
下面以2017年秘鲁皮乌拉河洪涝灾害为例,对本发明进行具体描述,其具体步骤如下:
1)按照S1步骤,从Google Earth平台获取2017年2月秘鲁皮乌拉河洪涝灾害受灾区域的灾前、灾后影像。首先,灾前影像包含灾前Sentinel-1影像和灾前Sentinel-2影像。灾前Sentinel-1影像的成像时间为2017年2月3日,分辨率为10m/pixel;灾前Sentinel-2影像的成像时间为2017年2月16日,分辨率为10m/pixel。灾后影像包含灾后Sentinel-1影像和灾后Sentinel-2影像。灾后Sentinel-1影像的成像时间为2017年2月27日,分辨率为10m/pixel;灾后Sentinel-2影像的成像时间为2017年2月26日,分辨率为10m/pixel。
根据影像质量和秘鲁皮乌拉河流域的范围,选择经纬度范围为西经80.312°~80.637°,南纬4.908°~5.085°的区域作为研究区。根据前述S1步骤完成对灾前灾后影像的预处理,并根据灾前、灾后的Sentinel-2影像完成研究区的水体标注工作,用于后续分析。最后,选择512×512pixel作为样本的分割尺寸,采用常规的格网采样方式对研究区灾前、灾后的影像和标签数据进行分割,方便后续使用模型提取水体。
2)根据研究区秘鲁皮乌拉河流域的地表特征,选择对干涸水体和植被敏感的归一化水体指数(NDWI)作为特征变量;根据洪涝灾害发生时期,云雾覆盖较大的情况,选择可以降低云雾阴影影响的归一化多波段水体指数(NDMBWI)作为特征变量。将NDWI、NDMBWI和Sentinel-1、Sentinel-2的原始波段组合成多种多通道数据。按照前述的S2步骤,将不同的多通道数据分别输入UNet++网络中进行训练。其中每一组多通道数据为输入,独立训练一个UNet++网络,从而得到每一组多通道数据对应的洪涝水体提取模型。其中洪涝水体提取模型的最后一层分类层中,输出的为每个像素是否属于水体的概率分布,可通过固定的预设分类阈值来划分水体区域和非水体区域,即将软标签转换为硬标签。本实施例中,UNet++网络的分类层中的预设分类阈值均默认设置为0.5。
在本实施例中,构建了9组特征变量组合来形成多通道数据,分别为:
第一组:仅采用Sentinel-1影像的VV极化波段和VH极化波段,记为rS1组;
第二组:采用Sentinel-1影像的VV极化波段和VH极化波段,以及Sentinel-2影像的Band6波段,记为S1+Band6组;
第三组:采用Sentinel-1影像的VV极化波段和VH极化波段,以及Sentinel-2影像的Band11波段,记为S1+Band11组;
第四组:采用Sentinel-1影像的VV极化波段和VH极化波段,以及Sentinel-2影像的Band12波段,记为S1+Band12组;
第五组:采用Sentinel-1影像的VV极化波段和VH极化波段,以及Sentinel-2影像的Band1~Band12全部12个波段,记为S1+S2组;
第六组:采用Sentinel-1影像的VV极化波段和VH极化波段,以及Sentinel-2影像的Band1~Band12全部12个波段,以及Sentinel-2影像中计算的NDWI指数,记为S1+S2+NDWI组;
第七组:采用Sentinel-1影像的VV极化波段和VH极化波段,以及Sentinel-2影像的Band1~Band12全部12个波段,以及Sentinel-2影像中计算的NDMBWI指数,记为S1+S2+NDMBWI组;
第八组:采用Sentinel-1影像的VV极化波段和VH极化波段,以及Sentinel-2影像的Band1~Band12全部12个波段,以及Sentinel-2影像中计算的NDWI和NDMBWI指数,记为S1+S2+NDMBWI+NDWI组;
第九组:单独采用Sentinel-2影像的Band1~Band12全部12个波段,记为S2组。
3)使用2)中训练得到的不同洪涝水体提取模型,在预先分割有无云雾覆盖非水体区域(简称无云非水)、无云雾覆盖水体区域(简称无云洪涝)、云雾覆盖区域(简称云雾)的有云样本集上进行测试,分别提取研究区灾前和灾后的水体范围,并将提取结果和预先标注的标签数据进行比较,计算每个模型的提取精度。本实施例中,按照S3中的步骤,分别计算每个洪涝水体提取模型对三种区域各自的水体识别结果,进而筛选出对于无云雾覆盖非水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限0.5的第一模型(model1)、对于无云雾覆盖水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限0.5的第二模型(model2)、对于云雾覆盖区域提取精度最高且对其他两类区域提取精度不低于阈值下限0.5的第三模型(model3)。
下面列出了部分模型的具体实验结果,如表1所示。
表1模型在不同区域的召回率
通过对比现有模型的水体提取结果,计算部分模型在无云非水区、无云洪涝区、云雾区的召回率来选择局部最优模型。从结果可以发现,在云雾区域,rS1模型的表现最好。在无云区域,S1+S2+NDMBWI+NDWI模型的提取精度最高,S1+Band6和S1+Band12模型分类得到的非水区域精度较高。考虑到S1+Band6模型在其他两个区域的提取效果较差,低于阈值下限0.5,本实验例最终选择rS1模型、S1+Band12模型、S1+S2+NDMBWI+NDWI模型分别作为第三模型、第一模型和第二模型进行决策级数据融合。
4)按照前述S4步骤,利用决策树对第一模型、第二模型和第三模型进行级联,并依次针对第一模型、第二模型和第三模型的分类层中的分类阈值进行参数寻优确定第一分类阈值、第二分类阈值、第三分类阈值。在本实施例中,使用决策树融合rS1模型、S1+Band12模型、S1+S2+NDMBWI+NDWI模型,并在融合过程中得到决策树中的概率阈值k1=0.4,k2=0.95,k3=0.5。
6)最后按照S5步骤,使用构建完成的级联模型分别对目标研究区提取灾前、灾后的水体范围,并计算得到研究区洪涝淹没区域。
本实施例中,通过对比决策级数据融合前后模型提取研究区水体的精度来分析决策级数据融合的效果,实验结果如表2所示。为了进一步证明决策级数据融合在无云区域和云覆盖率高区域都能取得较好的提取结果,本实验例对比分析了决策级数据融合方法和参与决策级数据融合的三种模型在无云区域和云雾覆盖率高的区域的提取结果,具体结果如图3和图4所示。
表2决策级数据融合结果
决策级数据融合之后,研究区的水体提取IoU为0.6911,相比融合前,研究区的水体提取精度得到了明显的提升。决策级数据融合方法成功地融合了rS1模型、S1+Band12模型和S1+S2+NDMBWI+NDWI模型的提取优势。从具体的提取结果来看,在非云雾覆盖区域,决策级数据融合有效降低了裸土、阴影对水体提取的影响;在云雾覆盖区域,决策级数据融合方法可以提取得到更加完整的水体。
通过计算可以得到,由决策级数据融合方法提取的2017年2月27日秘鲁皮乌拉河洪涝淹没面积约为12809591平方米。进一步,为了证明决策级数据融合适用于研究对象秘鲁皮乌拉河洪涝灾害的洪涝淹没区域提取,将本实验例中的淹没区域提取结果和哥白尼应急响应中提供的2017年2月27日秘鲁洪灾的洪涝淹没区域进行比较。并以手工划定的区域作为真值,计算交并比(IoU),结果如图5和图6。
结果表明,在研究区秘鲁皮乌拉河区域中,哥白尼应急响应的IoU为0.4396,决策级数据融合方法的IoU为0.4985,决策级数据融合方法的提取精度更高。
从提取细节来看,本文的决策级数据融合方法中融合了NDMBWI等的特征信息,因此在区分洪涝水体和阴影方面有优势。同时,决策级数据融合方式综合了多个模型的优势,对于洪涝边缘区域以及洪涝分布较为破碎的区域有较好的提取效果。
以上所述的实施例只是本发明的一种较佳的方案,然其并非用以限制本发明。有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型。因此凡采取等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。
Claims (10)
1.一种基于决策级数据融合的洪涝淹没区域提取方法,其特征在于它的步骤如下:
S1:根据待检测受灾区域和洪涝灾害发生时间,获取该区域的灾前遥感影像和灾后遥感影像,并对影像进行预处理和数据对齐;
S2:从带有洪涝淹没区域标注的无云样本集中提取不同的特征变量,组合成不同的多通道数据;以每一组多通道数据为输入,独立训练一个深度学习神经网络,从而得到每一组多通道数据对应的洪涝水体提取模型;其中洪涝水体提取模型的最后一层分类层中,通过固定的预设分类阈值来划分水体区域和非水体区域;
S3:利用预先分割有无云雾覆盖非水体区域、无云雾覆盖水体区域、云雾覆盖区域的有云样本集,对S2中训练得到的每个洪涝水体提取模型进行测试,并得到每个洪涝水体提取模型对三种区域各自的水体识别结果,进而筛选出对于无云雾覆盖非水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第一模型、对于无云雾覆盖水体区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第二模型、对于云雾覆盖区域提取精度最高且对其他两类区域提取精度不低于阈值下限的第三模型;
S4、利用决策树对第一模型、第二模型和第三模型进行级联,在级联模型中先由第一模型对输入影像进行水体区域提取,将属于水体的概率小于第一分类阈值的区域作为第一非水体区域,其余区域作为第一水体区域;再由第二模型对第一水体区域重新进行水体区域提取,将属于水体的概率大于等于第二分类阈值的区域作为第二水体区域,其余区域作为第二非水体区域;再由第三模型对第二非水体区域重新进行水体区域提取,将属于水体的概率大于等于第三分类阈值的区域作为第三水体区域,其余区域作为第三非水体区域;最终以第二水体区域和第三水体区域之和作为输入影像中的水体区域提取结果,其余区域均为非水体区域;基于所述有云样本集,依次针对第一模型、第二模型和第三模型的分类层中的分类阈值进行参数寻优,先确定使第一模型针对第一非水体区域的提取精度达到最高的第一分类阈值,再确定使第二模型针对第二水体区域的提取精度达到最高的第二分类阈值,最后确定使第三模型针对第三水体区域的提取精度达到最高的第三分类阈值;
S5:将S1中得到的灾前遥感影像和灾后遥感影像分别作为输入影像,由参数寻优后的级联模型对输入影像进行水体提取,得到输入影像的水体区域提取结果,从而确定灾前水体区域和灾后水体区域;最后识别出灾后水体区域相对于灾前水体区域而言增加的区域,作为最终的洪涝淹没区域提取结果。
2.根据权利要求1所述的洪涝淹没区域提取方法,其特征在于:所述步骤S1中,针对待检测受灾区域,按照S11~S13完成目标区域灾前、灾后遥感影像的获取和预处理:
S11:根据待检测受灾区域以及洪涝灾害的发生时间,分别获取灾前、灾后的Sentinel-1影像和Sentinel-2影像;其中,Sentinel-1影像为Sentinal-1A干涉宽幅模式下的GRD产品数据,Sentinel-2影像是L1C级别的产品数据;
S12:对获取到的Sentinel-1影像进行轨道文件校正、辐射定标和地形校正,再按照待检测受灾区域的区域范围进行剪裁;对获取到的Sentinel-2影像进行大气校正和重采样,再按照待检测受灾区域的区域范围进行剪裁;
S13:对S12处理后的两类影像分别进行分割,每张影像被分割为一系列图像块。
3.如权利要求2所述的洪涝淹没区域提取方法,其特征在于:所述Sentinel-2影像被重采样至10m分辨率,所述图像块的大小为用512×512像素。
4.如权利要求2所述的洪涝淹没区域提取方法,其特征在于:所述灾前的Sentinel-1影像和Sentinel-2影像以及所述灾后的Sentinel-1影像和Sentinel-2影像均需要保证时间间隔不超过间隔阈值,且云雾覆盖率也不超过覆盖率阈值。
5.根据权利要求1所述的洪涝淹没区域提取方法,其特征在于:所述无云样本集采用Sen1Floods11数据集。
6.根据权利要求1所述的洪涝淹没区域提取方法,其特征在于:所述步骤S2中,针对待检测受灾区域,按照S21~S23完成多个洪涝水体提取模型的训练:
S21:将Sentinel-1影像的VV极化波段和VH极化波段、Sentinel-2影像的Band1至Band12波段以及基于Sentinel-2影像计算得到的归一化水体指数(NDWI)和归一化多波段水体指数(NDMBWI)一并作为特征变量集合;基于所述无云样本集,将特征变量集合中的各特征变量按照不同的组合方式合成不同的多通道数据;
S22:将S21中每一组多通道数据作为输入,独立训练一个UNet++网络,从而得到每一组多通道数据对应的洪涝水体提取模型。
7.根据权利要求6所述的洪涝淹没区域提取方法,其特征在于:在对特征变量集合中的各特征变量进行组合时,Sentinel-1影像的VV极化波段和VH极化波段作为必选通道,Sentinel-2影像的Band1至Band12波段以及基于Sentinel-2影像计算得到的归一化水体指数(NDWI)和归一化多波段水体指数(NDMBWI)作为可选通道。
8.根据权利要求1所述的洪涝淹没区域提取方法,其特征在于:所述步骤S3中,所述提取精度以召回率作为指标,召回率的值域范围为[0,1]。
9.根据权利要求1所述的洪涝淹没区域提取方法,其特征在于:所述步骤S3中,所述阈值下限设置为0.5~0.7。
10.根据权利要求1所述的洪涝淹没区域提取方法,其特征在于:所述步骤S4中,第一模型、第二模型和第三模型的分类层中分类阈值的参数寻优范围为[0,1],所述提取精度以召回率作为指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211321653.0A CN115620162A (zh) | 2022-10-26 | 2022-10-26 | 一种基于决策级数据融合的洪涝淹没区域提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211321653.0A CN115620162A (zh) | 2022-10-26 | 2022-10-26 | 一种基于决策级数据融合的洪涝淹没区域提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115620162A true CN115620162A (zh) | 2023-01-17 |
Family
ID=84864229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211321653.0A Pending CN115620162A (zh) | 2022-10-26 | 2022-10-26 | 一种基于决策级数据融合的洪涝淹没区域提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115620162A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116305902A (zh) * | 2023-03-09 | 2023-06-23 | 中国水利水电科学研究院 | 一种基于多模态遥感的洪涝最大淹没水深空间模拟方法 |
CN117746249A (zh) * | 2023-12-26 | 2024-03-22 | 合肥市自然资源和规划信息中心 | 一种基于主被动遥感的淮河流域洪涝灾害快速监测方法 |
CN118015220A (zh) * | 2024-04-09 | 2024-05-10 | 南京师范大学 | 一种基于多模态数据的城市洪涝快速制图方法 |
CN118091657A (zh) * | 2024-04-28 | 2024-05-28 | 水利部交通运输部国家能源局南京水利科学研究院 | 基于分类三元搭配的流域洪涝淹没范围集成识别方法及系统 |
CN118134050A (zh) * | 2024-03-23 | 2024-06-04 | 中国科学院地理科学与资源研究所 | 一种城市洪涝灾害经济损失预测方法及装置 |
-
2022
- 2022-10-26 CN CN202211321653.0A patent/CN115620162A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116305902A (zh) * | 2023-03-09 | 2023-06-23 | 中国水利水电科学研究院 | 一种基于多模态遥感的洪涝最大淹没水深空间模拟方法 |
CN116305902B (zh) * | 2023-03-09 | 2023-09-19 | 中国水利水电科学研究院 | 一种基于多模态遥感的洪涝最大淹没水深空间模拟方法 |
CN117746249A (zh) * | 2023-12-26 | 2024-03-22 | 合肥市自然资源和规划信息中心 | 一种基于主被动遥感的淮河流域洪涝灾害快速监测方法 |
CN118134050A (zh) * | 2024-03-23 | 2024-06-04 | 中国科学院地理科学与资源研究所 | 一种城市洪涝灾害经济损失预测方法及装置 |
CN118134050B (zh) * | 2024-03-23 | 2024-07-30 | 中国科学院地理科学与资源研究所 | 一种城市洪涝灾害经济损失预测方法及装置 |
CN118015220A (zh) * | 2024-04-09 | 2024-05-10 | 南京师范大学 | 一种基于多模态数据的城市洪涝快速制图方法 |
CN118015220B (zh) * | 2024-04-09 | 2024-06-18 | 南京师范大学 | 一种基于多模态数据的城市洪涝快速制图方法 |
CN118091657A (zh) * | 2024-04-28 | 2024-05-28 | 水利部交通运输部国家能源局南京水利科学研究院 | 基于分类三元搭配的流域洪涝淹没范围集成识别方法及系统 |
CN118091657B (zh) * | 2024-04-28 | 2024-07-02 | 水利部交通运输部国家能源局南京水利科学研究院 | 基于分类三元搭配的流域洪涝淹没范围集成识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115620162A (zh) | 一种基于决策级数据融合的洪涝淹没区域提取方法 | |
US11521379B1 (en) | Method for flood disaster monitoring and disaster analysis based on vision transformer | |
CN111986099B (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 | |
WO2023029373A1 (zh) | 一种高精度的农田植被信息提取方法 | |
CN114676773B (zh) | 基于sar数据的北极海冰分类方法 | |
Vazquez-Navarro et al. | An automatic contrail tracking algorithm | |
CN110703244B (zh) | 基于遥感数据识别城区内水体的方法和装置 | |
CN109858450A (zh) | 一种十米级空间分辨率遥感影像城镇提取方法及系统 | |
Zhang et al. | Spatial domain bridge transfer: An automated paddy rice mapping method with no training data required and decreased image inputs for the large cloudy area | |
CN110569797A (zh) | 地球静止轨道卫星影像山火检测方法、系统及其存储介质 | |
CN116091497A (zh) | 遥感变化检测方法、装置、电子设备和存储介质 | |
Marochov et al. | Image Classification of Marine-Terminating Outlet Glaciers using Deep Learning Methods | |
CN109919088B (zh) | 一种喀斯特地区火龙果单株识别自动提取方法 | |
Gennaretti et al. | A methodology proposal for land cover change analysis using historical aerial photos | |
CN111047566A (zh) | 无人机和多光谱卫星影像进行水生植被年变化统计的方法 | |
CN110046214A (zh) | 基于植被分布数据库的植被类遥感信息自动识别方法 | |
CN112308156A (zh) | 一种基于对抗学习的两阶段图像变化检测方法 | |
CN116403121A (zh) | 水体指数与极化信息多路径融合的遥感图像水域分割方法、系统及设备 | |
CN117541930A (zh) | 流域尺度高时空分辨率河流网络遥感信息提取方法及系统 | |
CN115410074B (zh) | 遥感影像云检测方法及装置 | |
Nanare et al. | Remote sensing satellite image analysis for deforestation in yavatmal district, maharashtra, india | |
CN110427961A (zh) | 一种基于规则和样本融合的建筑信息提取方法及系统 | |
CN116434054A (zh) | 一种基于线面结合的密集遥感地物提取方法 | |
Grigillo et al. | Classification based building detection from GeoEye-1 images | |
CN112580504B (zh) | 基于高分辨率卫星遥感影像的树种分类计数方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |