CN113516060B - 基于多时相高分辨率数据的建筑空间融合判别方法及装置 - Google Patents
基于多时相高分辨率数据的建筑空间融合判别方法及装置 Download PDFInfo
- Publication number
- CN113516060B CN113516060B CN202110696092.1A CN202110696092A CN113516060B CN 113516060 B CN113516060 B CN 113516060B CN 202110696092 A CN202110696092 A CN 202110696092A CN 113516060 B CN113516060 B CN 113516060B
- Authority
- CN
- China
- Prior art keywords
- building space
- year
- building
- month
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 89
- 238000012850 discrimination method Methods 0.000 title claims description 17
- 238000013135 deep learning Methods 0.000 claims abstract description 37
- 238000012545 processing Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 10
- 238000011161 development Methods 0.000 claims description 4
- 238000013136 deep learning model Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 10
- 238000010276 construction Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种基于多时相高分辨率数据的建筑空间融合判别方法及装置。方法包括:将基准年遥感影像输入至深度学习建筑空间识别模型,得到基准年建筑空间识别结果;将待测年各月遥感影像分别输入至深度学习建筑空间识别模型,得到待测年各月建筑空间识别结果;根据基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图;将不同阈值下的建筑空间变化与人工解译的建筑变化斑块进行对比,确定融合建筑空间概率图的最佳概率阈值;根据最佳概率阈值确定待测年待识别区域的建筑空间本申请实施例通过不同年份建筑空间的融合概率值确定待识别年份的建筑空间,精确度高且实用性较强。
Description
技术领域
本申请涉及目标识别技术领域,具体涉及一种基于多时相高分辨率数据的建筑空间融合判别方法及装置。
背景技术
建筑物作为重要的人工地物目标,是地理信息的重要组成部分,在数字城市建设、智慧城市建设、数据库更新、城市人口布局等方面具有重要意义。日益增长的高分辨率遥感影像在测绘、制图、交通导航、城市规划、海洋权益保护、数字化城市建设等领域得到了广泛应用。
现有技术中,大多是利用深度学习方法对高分辨率遥感影像进行建筑空间的识别。然而,深度学习需要大量样本,且样本一般仅适用于特定区域,从而导致识别精确度不高,也造成了样本及人力物力的浪费。
发明内容
由于现有方法存在上述问题,本申请实施例提供一种基于多时相高分辨率数据的建筑空间融合判别方法及装置
具体的,本申请实施例提供了以下技术方案:
第一方面,本申请实施例提供一种基于多时相高分辨率数据的建筑空间融合判别方法,包括:
获取待识别区域的基准年遥感影像,将所述基准年遥感影像输入至深度学习建筑空间识别模型,得到基准年建筑空间识别结果;其中,所述深度学习建筑空间识别模型是基于待识别区域的随机遥感影像以及对应的建筑样本,利用深度学习神经网络模型进行训练后得到的;
获取待识别区域的待测年各月遥感影像,将所述待测年各月遥感影像分别输入至深度学习建筑空间识别模型,得到待测年各月建筑空间识别结果;
根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图;
将不同阈值下的建筑空间变化与人工解译的建筑变化斑块进行对比,确定所述融合建筑空间概率图的最佳概率阈值;
根据所述最佳概率阈值确定待测年待识别区域的建筑空间。
可选的,将不同阈值下的建筑空间变化与人工解译的建筑变化斑块进行对比,确定所述融合建筑空间概率图的最佳概率阈值,包括:
根据预设间隔阈值将所述融合建筑空间概率图划分为多张融合建筑空间概率图;
将所述多张融合建筑空间概率图分别与所述基准年建筑空间识别结果进行运算,得到不同阈值下的建筑空间变化图斑;
将所述不同阈值下的建筑空间变化图斑与人工解译的建筑变化图斑的典型区域进行对比,确定该融合建筑空间概率图对应的最佳概率阈值。
可选的,根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图,包括:
根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果的一致性,确定待测年各月建筑空间识别结果对比所述基准年建筑空间的相似度;
对所述相似度分别进行归一化,并将各个归一化结果作为对应待测年各月建筑空间识别结果的权重值;
根据待测年各月建筑空间识别结果和对应的权重值,计算待测年待识别区域中不同空间位置的逐月融合建筑空间概率值;
根据所述待识别区域中不同空间位置的逐月融合建筑空间概率值生成融合建筑空间概率图。
可选的,计算待测年各月建筑空间识别结果对比所述基准年建筑空间的相似度的模型为:
其中,为待测年各月建筑空间识别结果对比基准年建筑空间的相似度,为月
份,为待识别区域待测年第月和基准年同为建筑空间的统计,为待识别区域待测年
第月和基准年同为非建筑空间的统计,为待识别区域中所有空间的统计。
可选的,对所述相似度进行归一化的模型为:
可选的,计算待测年待识别区域中不同空间位置的逐月融合建筑空间概率值的模型为:
可选的,深度学习模型采用的随机遥感影像及对应的建筑样本,包括:
山区建筑遥感影像、平原区建筑遥感影像、高层建筑遥感影像、低层建筑遥感影像和城市内不同开发强度区域的建筑遥感影像。
第二方面,本申请实施例提供一种基于多时相高分辨率数据的建筑空间融合判别装置,所述装置包括:
第一处理模块,用于获取待识别区域的基准年遥感影像,将所述基准年遥感影像输入至深度学习建筑空间识别模型,得到基准年建筑空间识别结果;其中,所述深度学习建筑空间识别模型是基于待识别区域的随机遥感影像以及对应的建筑样本,利用深度学习神经网络模型进行训练后得到的;
第二处理模块,用于获取待识别区域的待测年各月遥感影像,将所述待测年各月遥感影像分别输入至深度学习建筑空间识别模型,得到待测年各月建筑空间识别结果;
第三处理模块,用于根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图;
第四处理模块,用于将不同阈值下的建筑空间变化与人工解译的建筑变化斑块进行对比,确定所述融合建筑空间概率图的最佳概率阈值;
第五处理模块,用于根据所述最佳概率阈值确定待测年待识别区域的建筑空间。
由上述技术方案可知,本申请实施例利用已有遥感影像样本训练建筑空间识别模型,并通过建筑空间识别模型对基准年待识别区域和待测年各月待识别区域进行空间识别,得到基准年待识别区域的建筑空间识别结果和待测年各月待识别区域的建筑空间识别结果,从而可以根据基准年建筑空间识别结果和待测年各月建筑空间识别结果确定待测年不同空间位置的逐月融合建筑空间概率值,并根据基准年建筑空间识别结果,确定由融合建筑空间概率值生成的融合建筑空间概率图的最佳概率阈值,最终根据最佳概率阈值来确定待测年待识别区域的建筑空间。由此可知,本申请实施例一方面利用已有遥感影像样本训练模型,可以减少对样本数量的需求,另一方面通过模型得到相邻年份的建筑空间识别结果,并基于相邻年份的建筑空间变化在全域空间内比例不高的特点,可以通过相邻年份建筑空间的融合概率值确定待识别年份的建筑空间,精确度高且实用性较强。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些图获得其他的附图。
图1是本申请实施例提供的基于多时相高分辨率数据的建筑空间融合判别方法的流程图之一;
图2是本申请实施例提供的基于多时相高分辨率数据的建筑空间融合判别方法的流程图之二;
图3是本申请实施例生成待测年待识别区域的融合建筑空间概率图的示意图;
图4是本申请实施例根据预设间隔阈值依次划分的多张融合建筑空间概率图;
图5是本申请实施例确定融合建筑空间概率图对应的最佳概率阈值的实验数据示意图;
图6是本申请实施例提供的基于多时相高分辨率数据的建筑空间融合判别装置的结构示意图。
具体实施方式
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些图获得其他的附图。
图1示出了本申请实施例提供的基于多时相高分辨率数据的建筑空间融合判别方法的流程图,图2是本申请实施例提供的另一种基于多时相高分辨率数据的建筑空间融合判别方法的流程图,图3是本申请实施例生成待测年待识别区域的融合建筑空间概率图的示意图,图4是本申请实施例根据预设间隔阈值依次划分的多张融合建筑空间概率图,图5是本申请实施例确定融合建筑空间概率图对应的最佳概率阈值的实验数据示意图。下面结合图1至图5对本申请实施例提供的基基于多时相高分辨率数据的建筑空间融合判别方法进行详细解释和说明,如图1所示,本申请实施例提供的一种基于多时相高分辨率数据的建筑空间融合判别方法,包括:
步骤101:获取待识别区域的基准年遥感影像,将所述基准年遥感影像输入至深度学习建筑空间识别模型,得到基准年建筑空间识别结果;其中,所述深度学习建筑空间识别模型是基于待识别区域的随机遥感影像以及对应的建筑样本,利用深度学习神经网络模型进行训练后得到的;
在本步骤中,深度学习建筑空间识别模型是基于待识别区域的随机遥感影像以及对应的建筑样本,利用深度学习神经网络模型进行训练后得到的。在得到深度学习神经网络模型后,将获取的待识别区域的基准年遥感影像输入至深度学习建筑空间识别模型,即可得到基准年建筑空间识别结果。
在本步骤中,通过建筑空间识别模型对待识别区域基准年(以2018年为例)的遥感影像进行识别,得到2018年建筑空间识别结果。
步骤102:获取待识别区域的待测年各月遥感影像,将所述待测年各月遥感影像分别输入至深度学习建筑空间识别模型,得到待测年各月建筑空间识别结果;
在本步骤中,可选的,待测年可以在基准年以前,也可以在基准年以后,例如待测年可以为2015年或2019年,本申请实施例以待测年为2019年为例进行说明。
在本步骤中,利用上述步骤得到的建筑空间识别模型对待识别区域2019年12个月的高分遥感影像进行建筑空间识别。具体的,将2019年1-12月的遥感影像分别输入建筑空间识别模型,分别得到2019年12个月的建筑空间识别结果。
步骤103:根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图;
在本步骤中,需要说明的是,将2019年12个月的建筑空间识别结果分别与2018年建筑空间识别结果进行对比,得到2019年12个月对比2018年的建筑空间相似度。进而对2019年12个月对比2018年的建筑空间相似度进行归一化处理,并将归一化处理结果作为对应月份(1-12月)建筑空间识别结果的权重值,通过加权求和方式获得2019年待识别区域中不同空间位置的逐月融合建筑空间概率图。
步骤104:将不同阈值下的建筑空间变化与人工解译的建筑变化斑块进行对比,确定所述融合建筑空间概率图的最佳概率阈值;
在本步骤中,需要说明的是,确定融合建筑空间概率图的最佳概率阈值的具体方式为:根据预设间隔阈值将融合建筑空间概率图划分为多张融合建筑空间概率,进而将多张融合建筑空间概率图分别与基准年建筑空间识别结果进行运算,得到不同阈值下的建筑空间变化图斑,最终将不同阈值下的建筑空间变化图斑与人工解译的建筑变化图斑的典型区域进行对比,确定该融合建筑空间概率图对应的最佳概率阈值。其中,人工解译的建筑变化图斑的典型区域可以为随机挑选的区域,此处不作具体限制。
步骤105:根据所述最佳概率阈值确定待测年待识别区域的建筑空间。
在本步骤中,当确定2019融合建筑空间概率图的最佳概率阈值后,该最该概率阈值对应的融合建筑空间概率图即为最接近2019实际建筑空间的识别结果图,即可以根据最佳概率阈值确定2019待识别区域的建筑空间。
由上述技术方案可知,本申请实施例利用已有遥感影像样本训练建筑空间识别模型,并通过建筑空间识别模型对基准年待识别区域和待测年各月待识别区域进行空间识别,得到基准年待识别区域的建筑空间识别结果和待测年各月待识别区域的建筑空间识别结果,从而可以根据基准年建筑空间识别结果和待测年各月建筑空间识别结果确定待测年不同空间位置的逐月融合建筑空间概率值,并根据基准年建筑空间识别结果,确定由融合建筑空间概率值生成的融合建筑空间概率图的最佳概率阈值,最终根据最佳概率阈值来确定待测年待识别区域的建筑空间。由此可知,本申请实施例一方面利用已有遥感影像样本训练模型,可以减少对样本数量的需求,另一方面通过模型得到相邻年份的建筑空间识别结果,并基于相邻年份的建筑空间变化在全域空间内比例不高的特点,可以通过相邻年份建筑空间的融合概率值确定待识别年份的建筑空间,精确度高且实用性较强。
基于上述实施例的内容,在本实施例中,将不同阈值下的建筑空间变化与人工解译的建筑变化斑块进行对比,确定所述融合建筑空间概率图的最佳概率阈值,包括:
根据预设间隔阈值将所述融合建筑空间概率图划分为多张融合建筑空间概率图;
将所述多张融合建筑空间概率图分别与所述基准年建筑空间识别结果进行运算,得到不同阈值下的建筑空间变化图斑;
将所述不同阈值下的建筑空间变化图斑与人工解译的建筑变化图斑的典型区域进行对比,确定该融合建筑空间概率图对应的最佳概率阈值。
在本实施例中,可选的,可以从2018-2019人机交互解译遥感建筑变化图斑中随机选取5000幅切片数据(约5000m2),将2019年建筑空间融合概率图以0.1为初始阈值,0.01为阈值间隔,逐个阈值进行建筑空间确定(参见图4),将所述多张融合建筑空间概率图分别与所述基准年建筑空间识别结果进行相减运算,得到不同阈值下待识别年份的建筑空间变化图斑,与人工解译的建筑变化图斑典型区域进行对比,计算不同阈值下变化图斑的精度Accuracy,进而确定变化图斑精度最高的阈值,即融合建筑空间概率图对应的最佳概率阈值。
TP为两变化图斑均为变化区域空间位置统计,TN为两变化图斑均为不变区域空间位置统计,FP为不同阈值下待识别年份的建筑空间变化图斑为变化区域,人工解译建筑变化图斑为不变区域空间位置统计,FN为不同阈值下待识别年份的建筑空间变化图斑为不变区域,人工解译建筑变化图斑为变化区域空间位置统计。
基于上述实施例的内容,在本实施例中,根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图,包括:
根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果的一致性,确定待测年各月建筑空间识别结果对比所述基准年建筑空间的相似度;
对所述相似度分别进行归一化,并将各个归一化结果作为对应待测年各月建筑空间识别结果的权重值;
根据待测年各月建筑空间识别结果和对应的权重值,计算待测年待识别区域中不同空间位置的逐月融合建筑空间概率值;
根据所述待识别区域中不同空间位置的逐月融合建筑空间概率值生成融合建筑空间概率图。
在本实施例中,需要说明的是,将2019年12个月的建筑空间识别结果分别与2018年建筑空间识别结果进行对比,得到2019年12个月对比2018年的建筑空间相似度。进而对2019年12个月对比2018年的建筑空间相似度进行归一化处理,并将归一化处理结果作为对应月份(1-12月)建筑空间识别结果的权重值,通过加权求和方式获得2019年待识别区域中不同空间位置的逐月融合建筑空间概率值。
基于上述实施例的内容,在本实施例中,计算待测年各月建筑空间识别结果对比所述基准年建筑空间的相似度的模型为:
其中,为待测年各月建筑空间识别结果对比基准年建筑空间的相似度,为月
份,为待识别区域待测年第月和基准年同为建筑空间的统计,为待识别区域待测年
第月和基准年同为非建筑空间的统计,为待识别区域中所有空间的统计。
在本实施例中,例如,待识别区域2019年1月与2018年同为建筑空间的统计为100,同为非建筑空间的统计为10,待识别区域中所有的建筑空间的统计为150,此时,2019年1月建筑空间识别结果对比2018年建筑空间的相似度为:(100+10)/150=0.73。
基于上述实施例的内容,在本实施例中,对所述相似度进行归一化的模型为:
基于上述实施例的内容,在本实施例中,计算待测年待识别区域中不同空间位置的逐月融合建筑空间概率值的模型为:
基于上述实施例的内容,在本实施例中,深度学习模型采用的随机遥感影像及对应的建筑样本,包括:
山区建筑遥感影像、平原区建筑遥感影像、高层建筑遥感影像、低层建筑遥感影像和城市内不同开发强度区域的建筑遥感影像。
在本实施例中,需要说明的是,随机挑选样本影像包括建筑类样本分布山区及平原区,高层建筑及低层建筑,城市内不同开发强度区域均有选取,从而保证样本随机性和多样性。
本申请实施例的另一种基于多时相高分辨率数据的建筑空间融合判别方法流程如图2所示,所述方法包括:
步骤201:收集高分遥感数据,构件典型区域建筑样本库;
步骤202:构建深度学习典型区域建筑物识别模型,对研究区域进行建筑识别;
步骤203:对研究区域多时相遥感数据进行模型迁移识别并计算相似度;
步骤204:计算多时相权重,融合建筑空间概率;
步骤205:利用遥感解译建筑变化图斑确定建筑空间概率阈值,确定建筑空间。
本实施例所述的基于高分辨率数据的建筑空间识别方法可以用于执行上述方法实施例,其原理和技术效果类似,此处不再赘述。
基于相同的发明构思,本发明另一实施例提供了一种基于多时相高分辨率数据的建筑空间融合判别装置,如图6所示,该装置包括:
第一处理模块1,用于获取待识别区域的基准年遥感影像,将所述基准年遥感影像输入至深度学习建筑空间识别模型,得到基准年建筑空间识别结果;其中,所述深度学习建筑空间识别模型是基于待识别区域的随机遥感影像以及对应的建筑样本,利用深度学习神经网络模型进行训练后得到的;
第二处理模块2,用于获取待识别区域的待测年各月遥感影像,将所述待测年各月遥感影像分别输入至深度学习建筑空间识别模型,得到待测年各月建筑空间识别结果;
第三处理模块3,用于根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图;
第四处理模块4,用于将不同阈值下的建筑空间变化与人工解译的建筑变化斑块进行对比,确定所述融合建筑空间概率图的最佳概率阈值;
第五处理模块5,用于根据所述最佳概率阈值确定待测年待识别区域的建筑空间。
在本实施例中,需要说明的是,深度学习建筑空间识别模型是基于待识别区域的随机遥感影像以及对应的建筑样本,利用深度学习神经网络模型进行训练后得到的。在得到深度学习神经网络模型后,将获取的待识别区域的基准年遥感影像输入至深度学习建筑空间识别模型,即可得到基准年建筑空间识别结果。
在本实施例中,可选的,待测年可以在基准年以前,也可以在基准年以后,例如待测年可以为2015年或2019年,本申请实施例以待测年为2019年为例进行说明。
在本实施例中,利用上述步骤得到的建筑空间识别模型对待识别区域2019年12个月的高分遥感影像进行建筑空间识别。具体的,将2019年1-12月的遥感影像分别输入建筑空间识别模型,分别得到2019年12个月的建筑空间识别结果。
在本实施例中,需要说明的是,将2019年12个月的建筑空间识别结果分别与2018年建筑空间识别结果进行对比,得到2019年12个月对比2018年的建筑空间相似度。进而对2019年12个月对比2018年的建筑空间相似度进行归一化处理,并将归一化处理结果作为对应月份(1-12月)建筑空间识别结果的权重值,通过加权求和方式获得2019年待识别区域中不同空间位置的逐月融合建筑空间概率图。
在本实施例中,需要说明的是,确定融合建筑空间概率图的最佳概率阈值的具体方式为:根据预设间隔阈值将融合建筑空间概率图划分为多张融合建筑空间概率,进而将多张融合建筑空间概率图分别与基准年建筑空间识别结果进行运算,得到不同阈值下的建筑空间变化图斑,最终将不同阈值下的建筑空间变化图斑与人工解译的建筑变化图斑的典型区域进行对比,确定该融合建筑空间概率图对应的最佳概率阈值。其中,人工解译的建筑变化图斑的典型区域可以为随机挑选的区域,此处不作具体限制。
在本实施例中,当确定2019融合建筑空间概率图的最佳概率阈值后,该最该概率阈值对应的融合建筑空间概率图即为最接近2019实际建筑空间的识别结果图,即可以根据最佳概率阈值确定2019待识别区域的建筑空间。
由上述技术方案可知,本申请实施例利用已有遥感影像样本训练建筑空间识别模型,并通过建筑空间识别模型对基准年待识别区域和待测年各月待识别区域进行空间识别,得到基准年待识别区域的建筑空间识别结果和待测年各月待识别区域的建筑空间识别结果,从而可以根据基准年建筑空间识别结果和待测年各月建筑空间识别结果确定待测年不同空间位置的逐月融合建筑空间概率值,并根据基准年建筑空间识别结果,确定由融合建筑空间概率值生成的融合建筑空间概率图的最佳概率阈值,最终根据最佳概率阈值来确定待测年待识别区域的建筑空间。由此可知,本申请实施例一方面利用已有遥感影像样本训练模型,可以减少对样本数量的需求,另一方面通过模型得到相邻年份的建筑空间识别结果,并基于相邻年份的建筑空间变化在全域空间内比例不高的特点,可以通过相邻年份建筑空间的融合概率值确定待识别年份的建筑空间,精确度高且实用性较强。
本实施例所述的基于多时相高分辨率数据的建筑空间融合判别装置可以用于执行上述方法实施例,其原理和技术效果类似,此处不再赘述。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (7)
1.一种基于多时相高分辨率数据的建筑空间融合判别方法,其特征在于,包括:
获取待识别区域的基准年遥感影像,将所述基准年遥感影像输入至深度学习建筑空间识别模型,得到基准年建筑空间识别结果;其中,所述深度学习建筑空间识别模型是基于待识别区域的随机遥感影像以及对应的建筑样本,利用深度学习神经网络模型进行训练后得到的;
获取待识别区域的待测年各月遥感影像,将所述待测年各月遥感影像分别输入至深度学习建筑空间识别模型,得到待测年各月建筑空间识别结果;
根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图;
根据预设间隔阈值将所述融合建筑空间概率图划分为多张融合建筑空间概率图;将所述多张融合建筑空间概率图分别与所述基准年建筑空间识别结果进行相减运算,得到不同阈值下的建筑空间变化图斑;将所述不同阈值下的建筑空间变化图斑与人工解译的建筑变化图斑的典型区域进行对比,计算不同阈值下变化图斑的精度,并将变化图斑精度最高的阈值作为该融合建筑空间概率图对应的最佳概率阈值;
根据所述最佳概率阈值确定待测年待识别区域的建筑空间。
2.根据权利要求1所述的基于多时相高分辨率数据的建筑空间融合判别方法,其特征在于,根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图,包括:
根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果的一致性,确定待测年各月建筑空间识别结果对比所述基准年建筑空间的相似度;
对所述相似度分别进行归一化,并将各个归一化结果作为对应待测年各月建筑空间识别结果的权重值;
根据待测年各月建筑空间识别结果和对应的权重值,计算待测年待识别区域中不同空间位置的逐月融合建筑空间概率值;
根据所述待识别区域中不同空间位置的逐月融合建筑空间概率值生成融合建筑空间概率图。
6.根据权利要求1所述的基于多时相高分辨率数据的建筑空间融合判别方法,其特征在于,深度学习模型采用的随机遥感影像及对应的建筑样本,包括:
山区建筑遥感影像、平原区建筑遥感影像、高层建筑遥感影像、低层建筑遥感影像和城市内不同开发强度区域的建筑遥感影像。
7.一种基于多时相高分辨率数据的建筑空间融合判别装置,其特征在于,包括:
第一处理模块,用于获取待识别区域的基准年遥感影像,将所述基准年遥感影像输入至深度学习建筑空间识别模型,得到基准年建筑空间识别结果;其中,所述深度学习建筑空间识别模型是基于待识别区域的随机遥感影像以及对应的建筑样本,利用深度学习神经网络模型进行训练后得到的;
第二处理模块,用于获取待识别区域的待测年各月遥感影像,将所述待测年各月遥感影像分别输入至深度学习建筑空间识别模型,得到待测年各月建筑空间识别结果;
第三处理模块,用于根据所述基准年建筑空间识别结果和待测年各月建筑空间识别结果,得到待测年待识别区域中不同空间位置的逐月融合建筑空间概率图;
第四处理模块,用于将不同阈值下的建筑空间变化与人工解译的建筑变化斑块进行对比,确定所述融合建筑空间概率图的最佳概率阈值;
第五处理模块,用于根据所述最佳概率阈值确定待测年待识别区域的建筑空间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696092.1A CN113516060B (zh) | 2021-06-23 | 2021-06-23 | 基于多时相高分辨率数据的建筑空间融合判别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696092.1A CN113516060B (zh) | 2021-06-23 | 2021-06-23 | 基于多时相高分辨率数据的建筑空间融合判别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113516060A CN113516060A (zh) | 2021-10-19 |
CN113516060B true CN113516060B (zh) | 2021-12-14 |
Family
ID=78066043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110696092.1A Active CN113516060B (zh) | 2021-06-23 | 2021-06-23 | 基于多时相高分辨率数据的建筑空间融合判别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113516060B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114978794B (zh) * | 2022-05-19 | 2023-06-23 | 北京有竹居网络技术有限公司 | 网络接入方法、装置、存储介质以及电子设备 |
CN114863190B (zh) * | 2022-07-06 | 2022-09-16 | 北京市城市规划设计研究院 | 建筑物年份识别方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390267B (zh) * | 2019-06-25 | 2021-06-01 | 东南大学 | 一种基于高分遥感影像的山地景观建筑提取方法和设备 |
CN112163367B (zh) * | 2020-08-20 | 2023-02-07 | 同济大学 | 融合萤火虫算法和元胞自动机的城市扩张模拟预测方法 |
CN112149594B (zh) * | 2020-09-29 | 2022-08-09 | 同济大学 | 基于深度学习和高分辨率卫星影像的城市建设评估方法 |
-
2021
- 2021-06-23 CN CN202110696092.1A patent/CN113516060B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113516060A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | Mining parameter information for building extraction and change detection with very high-resolution imagery and GIS data | |
Jochem et al. | Identifying residential neighbourhood types from settlement points in a machine learning approach | |
Zhang et al. | Heuristic sample learning for complex urban scenes: Application to urban functional-zone mapping with VHR images and POI data | |
Bárdossy et al. | Fuzzy rule-based classification of remotely sensed imagery | |
CN111028255B (zh) | 基于先验信息与深度学习的农田区域预筛选方法及装置 | |
CN111666918A (zh) | 一种基于多因素的海岸线变化识别方法 | |
CN113516060B (zh) | 基于多时相高分辨率数据的建筑空间融合判别方法及装置 | |
Roberts et al. | FLAG: a fuzzy landscape analysis GIS method for dryland salinity assessment | |
CN113223042B (zh) | 一种遥感影像深度学习样本智能采集方法及设备 | |
Ren et al. | The accuracy of LCZ maps generated by the world urban database and access portal tools (WUDAPT) method: A case study of Hong Kong | |
CN106845559A (zh) | 顾及poi数据空间异质性的地表覆盖验证方法及系统 | |
Zou et al. | Individual vacant house detection in very-high-resolution remote sensing images | |
Beekhuizen et al. | Toward accountable land use mapping: Using geocomputation to improve classification accuracy and reveal uncertainty | |
CN114708521A (zh) | 基于街景图像目标关系感知网络的城市功能区识别方法及系统 | |
Bengoufa et al. | Rocky shoreline extraction using a deep learning model and object-based image analysis | |
CN117314178A (zh) | 生态安全格局构建方法、装置、设备及存储介质 | |
Sărășan et al. | Sensitivity of geomorphons to mapping specific landforms from a digital elevation model: A case study of drumlins | |
Notti et al. | Semi-automatic mapping of shallow landslides using free Sentinel-2 images and Google Earth Engine | |
Verbovšek et al. | GIS-assisted classification of litho-geomorphological units using Maximum Likelihood Classification, Vipava Valley, SW Slovenia | |
Abriha et al. | Smaller is better? Unduly nice accuracy assessments in roof detection using remote sensing data with machine learning and k-fold cross-validation | |
Zhang | A time-series approach to detect urbanized areas using biophysical indicators and landsat satellite imagery | |
WO2018042208A1 (en) | Street asset mapping | |
CN117171533B (zh) | 一种地理测绘作业数据实时采集处理方法及系统 | |
CN112836590B (zh) | 洪涝灾害监测方法、装置、电子设备及存储介质 | |
Putri | Analysis of land cover classification results using ann, svm, and rf methods with r programming language (case research: Surabaya, Indonesia) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |