CN109919944B - 一种复杂场景建筑物变化检测的联合超像素图割优化方法 - Google Patents

一种复杂场景建筑物变化检测的联合超像素图割优化方法 Download PDF

Info

Publication number
CN109919944B
CN109919944B CN201811639313.6A CN201811639313A CN109919944B CN 109919944 B CN109919944 B CN 109919944B CN 201811639313 A CN201811639313 A CN 201811639313A CN 109919944 B CN109919944 B CN 109919944B
Authority
CN
China
Prior art keywords
superpixel
building
pixel
data
combined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811639313.6A
Other languages
English (en)
Other versions
CN109919944A (zh
Inventor
庞世燕
胡翔云
张觅
左志奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201811639313.6A priority Critical patent/CN109919944B/zh
Publication of CN109919944A publication Critical patent/CN109919944A/zh
Application granted granted Critical
Publication of CN109919944B publication Critical patent/CN109919944B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种复杂场景建筑物变化检测的联合超像素图割优化方法,包括:步骤1、获取两个不同时期的数字表面模型进行格网化处理,融合后对它们实现联合分割,获得联合超像素对象;步骤2、分别对两个时期的原始影像数据,采用基于深度卷积神经网络的语义分割算法实现图像分类,检测出影像中的建筑物;步骤3、以联合超像素对象为处理单元,提取联合超像素对象的多个特征,构建图割优化的数据项和平滑项,并采用最大流最小割理论得到全局最优化解,得到两个时期建筑物的变化对象;步骤4、将建筑物的变化类型进行分类,包括:新建、增高、拆除、降低。本发明的方法能够显著提高建筑物变化检测的精度和可靠性。

Description

一种复杂场景建筑物变化检测的联合超像素图割优化方法
技术领域
本发明涉及三维建筑物变化检测领域,尤其涉及一种复杂场景建筑物变化 检测的联合超像素图割优化方法。
背景技术
建筑物变化检测作为地理国情监测的重要内容之一,对违章建筑物识别、 城市动态监测以及地理信息更新等具有重要意义。除了相关法律环节欠缺外, 对违法建筑物缺乏自动化的监测手段也是一个重要原因。市场上迫切需要一种 自动化程度高、稳健可靠的建筑物变化检测方法辅助推动城市违法建筑物的整 治进程。
早期,一些学者提出了基于不同期高分辨率遥感影像的建筑物变化检测方 法,但这类方法由于受日照和大气条件不同、不同季节光谱特征差异以及传感 器获取时几何差异等因素的影响,建筑物变化检测的普适性和稳定性还有待进 一步提高。得益于近年来激光传感器和密集匹配技术的不断发展,越来越多的 学者趋向于研究三维建筑物变化检测方法。按照处理方法的不同,对于三维变 化检测的分类,主要有两类:一类是几何比较方法,另一类是几何和光谱联合 分析方法。
在几何比较方面,一些学者提出了基于高差和几何分析的方法来检测建筑 物变化,这类方法的数据源通常来自激光点云数据,相比于匹配得到的点云数 据,激光点云数据在准确性和可靠性方面更高,这类方法在建筑物变化检测方 面实现简单,通常可以得到不错的建筑物变化检测结果,但由于激光点云数据 的获取成本较高,通常缺乏时间合适的不同期激光点云数据,一定程度上限制 了这类方法的应用。
近年来,点云数据结合影像信息的联合处理与分析显示了较好的应用前 景,一些学者提出了几何与光谱联合分析的方法,这类方法的难点在于如何有 效地结合几何和光谱这两种信息源到三维建筑物变化检测框架中。根据结合方 式的不同,Qin将他们细分为(1)后精化,(2)直接特征融合和(3)后分类 这三种方式。在后精化方面,针对不同期航空立体像对,Jung通过比较两个 数字表面模型定位变化的区域,并采用决策树分类这些区域来进行建筑物变化 检测。此后,pang et al.提出了一种基于数字表面模型和原始影像的建筑物变 化检测方法,在该方法中,首先采用图割优化算法提取地物变化区域,再次, 结合原始影像数据排除其中树木的影响,最终获得新建、增高、拆除以及降低 四个建筑物变化类别。后精化方法通常采用几何和光谱信息对上述几何比较 (例如DSM差值)得到的初始变化结果进行精化。这类后精化方法相对较 为灵活有效,参数易于理解和调整。但这类方法的初始变化结果依赖于几何比 较的结果,漏检测的情况在后续精化过程中无法找回。不同于层级的后精化方 法,直接特征融合方法同时考虑了几何和光谱信息,通过特征融合方法实现最 终的变化检测,特征融合可以在特征级也可以在决策级实现。Tian et al.直接融合高程和辐射差异到一个变化矢量分析框架中,几何和辐射信息的权重由经验 获得,只需调整一个单一变化指标即可得到最终的变化检测结果。此后,Tian et al.采用Dempster–Shafer融合理论结合DSM高程变化和原始影像导出的 Kullback–Liebler散度相似性度量来提取建筑物变化。Qin提出了一种基于高 分辨率立体影像以及LoD2模型检测建筑物变化的方法,在该方法中,非监督 自组织图(SOM)被用于融合DSM和光谱特征组成的多通道指标来实现不同 类别的分类。还有的文献采用了基于规则的分类,决策树,图割和随机森林等来融合多个特征以实现建筑物变化检测。这类方法同时考虑了几何和光谱信 息,且算法框架易于结合其他信息源来进行变化检测。但这类方法中融合算法 的参数设置非常关键,不正确的参数设置会对最终的变化检测结果造成错误。 此外,考虑到不同期数据间由于拍摄时间不同,差异过大,会严重影响两个数 据集之间几何和纹理的直接比较。为此,还有的学者提出了一种分类后处理的 方法。Qin et al.提出了一种基于对象的多期立体影像三维建筑物变化检测方 法,在该方法中,对于每一期数据,首先采用Meanshift进行分割获得对象, 特征提取后结合决策树和SVM进行监督分类,最后进行比较分析。在这类方 法中,DSMs通常作为一个额外的通道集合到分类或检测方法中,提出的分类 方法包括SVM、决策树等。增加三维信息可以显著提高分类和目标检测的精 度,每个数据集单独建立训练数据集/规则,避免了未经校正的几何和光谱信 息的直接比较,对于不同数据来源、不同获取条件(不同季节、光照等)造成 的干扰更加稳健。但这类方法的变化检测结果通常取决于分类精度,单期的分 类错误会累积到最后的变化检测结果中。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种复杂场景 建筑物变化检测的联合超像素图割优化方法。
本发明解决其技术问题所采用的技术方案是:
本发明提供一种复杂场景建筑物变化检测的联合超像素图割优化方法,该 方法包括以下步骤:
步骤1、获取两个不同时期的数字表面模型和对应的原始影像数据作为输 入,两个不同时期的数字表面模型记作:DSMt1和DSMt2,采用相同格网大小 格网化处理DSMt1和DSMt2,融合DSMt1和DSMt2后采用SLIC超像素分割方 法对它们实现联合分割,获得联合超像素对象;
步骤2、分别对两个时期的原始影像数据,采用基于深度卷积神经网络的 语义分割算法实现图像分类,对具有重叠的区域采用大数定律进行融合,获得 与数字表面模型分辨率一致的分类结果,并提取其中的建筑物类别区域,检测 出影像中的建筑物;
步骤3、以联合超像素对象为处理单元,提取联合超像素对象的多个特征, 构建图割优化的数据项和平滑项,并采用最大流最小割理论得到全局最优化 解,得到两个时期建筑物的变化对象;
步骤4、对两期的建筑物变化对象进行融合后,将建筑物的变化类型进行 分类,包括:新建、增高、拆除、降低。
进一步地,本发明的步骤2中进行图像分类包括11种类别:建筑物、道 路、水系、裸地、耕地、林地、草地、构筑物、挖掘地、园林、背景。
进一步地,本发明的步骤1的具体方法为:
步骤1.1、采用相同的格网大小栅格化DSMt1和DSMt2,并选取格网中值 赋予该格网获得格网DSMt1和DSMt2
步骤1.2、融合格网DSMt1和DSMt2后,每个格网点的坐标和Lab颜色空 间值组成一个十维矢量,采用SLIC算法对其进行分割,获得联合超像素对象。
进一步地,本发明的步骤1.2中每个格网点的坐标和Lab颜色空间值组成 的十维矢量为:[x,y,z,z',l,a,b,l',a',b'],x、y为像素坐标,z为像素在第一期数 据中的高程,z’为像素在第二期数据中的高程,l、a、b为像素在第一期数据 中的颜色值,l’、a’、b’为像素在第二期数据中的颜色值;
在采用SLIC超像素分割方法时,增加调整高程变化的权重系数,其距离 公式调整为:
Figure BDA0001930805950000041
Figure BDA0001930805950000042
Figure BDA0001930805950000043
Figure BDA0001930805950000044
其中,li,ai,bi和lj,aj,bj是像素i和像素j在第一期数据中的颜色值,li',ai',bi'和lj',aj',bj'是像素i和像素j在第二期数据中的颜色值,xi,yi和xj,yj是像素i和 像素j在第一期数据中的平面坐标值,zi和zj是像素i和像素j在第一期数据中 的高程值,zi'和zj'是是像素i和像素j在第二期数据中的高程值,dc代表颜色 距离,ds代表平面空间距离,dh代表高程距离,NS是超像素内的最大平面空 间距离,与最小检测建筑物面积S有关;NC是超像素内的最大颜色距离;NH是超像素内最大高程距离,与高程误差及数据源有关。
进一步地,本发明的步骤2的具体方法为:
步骤2.1、利用训练好的深度神经网络模型对原始影像数据进行语义分割, 获得影像分类结果;
步骤2.2、语义分割作用于原始影像数据,考虑到原始影像具有多度重叠, 且重叠区域会有多个分类结果,则对分类结果进行融合处理,采用大数定律融 合方法;
步骤2.3、分别对两期的原始影像数据作相同的语义分割、分类结果融合 及建筑物区域提取,实现建筑物检测。
进一步地,本发明的步骤2.2中采用的大数定律融合方法具体为:
对于每一个格网点,找出包含该格网点的原始影像序列号,根据投影与反 投影计算该格网点在每张相关原始影像上的坐标值,并获得其对应的分类信 息,最后,根据大数定律找出该格网点的分类值,遍历所有格网点获得整个区 域融合后的分类结果。
进一步地,本发明的步骤3的具体方法为:
步骤3.1、对于每一期的数据,以联合超像素对象作为处理单元,提取联 合超像素对象的多个特征,构建图割优化的数据项和平滑项,并采用最大流最 小割理论获得全局最优化解;
步骤3.2、变化建筑物由一个或多个联合超像素对象组成,对联合超像素 对象进行图割优化获得的变化对象结果进行后处理,去除干扰及小对象;
步骤3.3、对另一期数据进行相同的超像素图割优化及后处理操作,得到 另外一期的建筑物变化对象。
本发明产生的有益效果是:本发明的复杂场景建筑物变化检测的联合超像 素图割优化方法,以不同期数字表面模型和对应的原始影像数据为输入,以不 同类型的建筑物变化检测结果作为输出,在联合超像素分割的基础上,将建筑 物变化检测问题建模为二值分类过程,变化的建筑物为前景,未变化区域为背 景,以三维信息和目前表现优异的深度卷积神经网络获得的语义分割结果作为 超像素多特征并集合到图割优化框架中,最终实现不同类型的建筑物变化检 测。本发明针对高分辨率遥感数据,以联合超像素作为处理单元,可以避免椒 盐噪声以及不同期数据单独分割造成的条对象,且利用了目前鲁棒性较强的深 度卷积网络对影像进行解译,可以获得更可靠的分类效果,最后,将三维信息 和影像解译信息集合到全局优化框架中可以获得准确可靠的建筑物变化检测 结果。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1为本发明方法的具体流程图;
图2为本发明中的联合超像素对象与不同期数据的叠加显示;其中:(a)联 合超像素对象与旧一期格网RGB图像的叠加及红色矩形框中的协同分割结果 放大显示,(b)联合超像素对象与旧一期灰度高程图像的叠加及红色矩形框中 的协同分割结果放大显示;
图3为基于语义分割的建筑物检测结果;其中:(a)格网RGB图像,(b) 基于语义分割的建筑物检测结果;
图4为基于超像素图割优化的建筑物变化检测结果;
图5为建筑物变化检测结果;其中:(a)旧一期的变化建筑物,(b)新一期 的变化建筑物;
图6为建筑物变化检测真值及本文提出方法的基于激光点云和影像的建 筑物变化检测结果;其中:(a)真值,(b)建筑物变化检测结果;
图7为基于LiDAR-DSM和DIM-DSM两种不同数据源的建筑物变化检 测结果评价;其中:(a)基于LiDAR-DSM的建筑物变化检测结果评价,(b)基 于DIM-DSM的建筑物变化检测结果评价。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实 施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅 用以解释本发明,并不用于限定本发明。
本发明以不同期数字表面模型和对应的原始影像数据为输入,以不同类型 的建筑物变化检测结果作为输出,提出了一种基于联合超像素图割优化的建筑 物变化检测结果。在该方法中,首先融合不同期数字表面模型实现了基于SLIC 算法的联合分割,获得超像素对象;其次,对原始影像数据进行基于深度神经 网络的语义分割获得像素分类信息,并对重叠区域进行融合处理,获得与格网 数字表面模型一致的分类信息,提取其中的建筑物区域;再次,以联合超像素 作为处理单元,将建筑物变化检测问题建模为二值分类过程,每一期的建筑物 对象获取过程是一个二值分类,变化的建筑物为前景,未变化区域为背景,以 三维信息和上述语义分割的建筑物检测结果作为超像素多特征并集合到图割 优化框架中,采用最大流最小割理论获得最优化解;最后,结合不同期的建筑 物变化结果将其进一步细分为“新建”、“增高”、“拆除”和“降低”,最终实现不 同类型的建筑物变化检测。
为了更好地理解本发明的技术方案,下面结合附图对本发明做进一步的详 细说明,图1是本发明的总体流程图。本发明的具体步骤如下:
步骤1,采用相同格网大小格网化DSMt1和DSMt2,融合DSMt1和DSMt2后采用SLIC超像素分割方法对不同期点云数据实现联合分割,获得联合超像 素对象;
本发明中的SLIC算法与经典SLIC算法类似,聚类过程相同,不同之处 在于聚类距离的计算。不同于传统的SLIC算法,本发明的算法中待分割的原 始数据是不同期的三维数据,以两期数据为例,则每个像素的坐标值和Lab 空间颜色值向量可以表示为一个十维矢量[x,y,z,z',l,a,b,l',a',b'],此外,考虑到 本项目的高程变化对变化检测的影响更大,因此在这里与颜色值和坐标值类 似,新增了一个系数调整高程变化权重,相应的距离公式调整为:
Figure BDA0001930805950000071
式中,li,ai,bi和lj,aj,bj是像素i和像素j在第一期数据中的颜色值,li',ai',bi'和lj',aj',bj'是像素i和像素j在第二期数据中的颜色值,xi,yi和xj,yj是像素i和 像素j在第一期数据中的平面坐标值,zi和zj是像素i和像素j在第一期数据中 的高程值,zi'和zj'是是像素i和像素j在第二期数据中的高程值,dc代表颜色 距离,ds代表平面空间距离,dh代表高程距离,NS是超像素内的最大平面空 间距离,与最小检测建筑物面积S有关,通常设置为[0.2S-1.0S]的平方根。NC是超像素内的最大颜色距离,通常设置为[10-40]范围。NH是超像素内最大 高程距离,通常与高程误差及数据源有关,可以设置为[0.5-5.0]范围内。
需要指出的是,对于不包含颜色RGB值的匹配点云数据或者激光点云数 据,只需假设它的RGB为0,只有高程值的情况即可,本发明的方法同样适 用。将本发明的超像素分割结果与两期格网DSM进行叠加显示,结果如图2 所示;
步骤2,对于每一期的立体影像数据,采用现有的基于深度神经网络 (DMSMR)的语义分割方法(Zhang,M.,et al.,Learning Dual Multi-Scale Manifold Ranking forSemantic Segmentation of High-Resolution Images.Remote Sensing,2017.9(9))对影像进行分类,分成建筑物、道路、水系、裸地、耕地、 林地、草地、构筑物、挖掘地、园林、背景等11类;
此外,本发明的语义分割作用于原始影像,考虑到原始影像具有多度重叠, 且重叠区域会有多个分类结果,不同分类结果之间可能存在不一致情况,因此 需要对分类结果进行融合处理,这里采用的是大数定律融合方法。整个过程如 下:对于每一个格网点(X,Y,Z),找出包含该格网点的原始影像序列号,根据投 影与反投影计算该格网点在每张相关原始影像上的坐标值(x,y),并获得其对应 的分类信息,最后,根据大数定律找出该格网点的分类值。遍历所有格网点获 得整个区域融合后的分类结果,如图3所示;
需要指出的是,上述语义分割和分类结果融合是针对一期数据,对于另一 期的数据,需要进行相同的处理,获得对应的语义分割结果及分类融合结果。
步骤3,建筑物变化检测问题可以建模为两个二值分类问题,其中每一期 数据的建筑物变化对象提取问题是一个二值分类问题,变化的建筑物是前景, 未变化区域为背景。以超像素对象为处理单元,提取超像素多特征构建图割优 化的数据项和平滑项,并采用最大流最小割理论得到全局最优化解。以旧一期 的建筑物变化对象获取为例,具体过程如下:
考虑到本发明中的三维数据变化对象获取过程是一个基于图割优化的二 值分类过程,变化的对象为前景,未变化区域为背景。这里图割优化的主要 作用是采用最大流最小割理论赋予每个超像素一个类别信息(包括前景和背景 两个类别),并使得下式的能量公式值达到最小:
Figure BDA0001930805950000091
式中,L={Lp|p∈P}是区域P的类别标签,Lp∈{fg,bg},这里的‘fg’和 ‘bg’分别是前景和背景的缩写,对应于变化的建筑物对象和未变化对象。在 本项目中,处理单元为超像素,对应于步骤1得到的联合超像素对象,Dp(·) 是超像素p的数据项,由超像素的差值dDSM、nDSM和步骤2的建筑物检测 结果三者共同确定;Vp,q是平滑项,通过惩罚相邻超像素p与q之间的不连续 以鼓励空间一致性,这里由超像素之间的平均DSM差值确定;N是所有超像 素的邻域集合。整个图割优化的关键在于定义超像素的数据项和他们之间的 平滑项能量。
为了获得超像素的数据项值,多个特征参与了数据项概率值计算,数据 项具体计算公式如下:
Figure BDA0001930805950000092
其中α是一个常数,CdDSM由dDSM计算得到,Cbld_old由旧一期的nDSM 和语义分割的建筑物检测结果共同计算得到。详细如下:
CdDSM:dDSM由两期格网DSM的差值所得,变化的区域具有|dDSM|≥T1的特征,在这里,T1由经验阈值确定,对于航空影像,通常设置为0.5-2.0米。 此外,考虑到本发明是针对超像素的处理,对于每个超像素,这里采用以下公 式计算该超像素的CdDSM以及|dDSM|≥T1的概率值:
Figure BDA0001930805950000093
Figure BDA0001930805950000094
Figure BDA0001930805950000101
其中
Figure BDA0001930805950000102
是指该超像素|dDSM|≥T1的概率值,
Figure BDA0001930805950000103
是超像素 中|dDSM|≥T1的格网点个数,Numspl是该超像素的所有格网点总数。
Cbld_old:Cbld_old度量的是该超像素属于建筑物类别的概率。基于语义分割 的建筑物检测通常可以得到良好的结果,如图3所示。然而,考虑到本发明中 所采用的基于语义分割的建筑物检测仅利用了二维的光谱信息,对三维信息的 利用较为有限,仍然存在一些明显的错误,例如图4中的道路部分错分为建筑 物,而由DSM减去DTM得到的nDSM可以有效地修正这些错误,如图4所 示。为此,有必要结合nDSM进一步精化步骤2基于语义分割的建筑物提取 结果。考虑到本发明中nDSM主要用于排除语义分割提取的建筑物中的地面 点,因此,苛刻阈值下的基于渐进三角网的点云滤波方法更容易得到满意的效 果,在这样的情况下建筑物很少错分为地面点。本发明中的将语义分割得到的 建筑物检测结合nDSM进行精化得到真正的建筑物,表达为Cbld_old表示如下:
Figure BDA0001930805950000104
Figure BDA0001930805950000105
Figure BDA0001930805950000106
其中函数T[.]与方程(6)的函数定义相同。
Figure BDA0001930805950000107
指的是旧一期超像 素中语义分割分类为建筑物的格网点的概率,
Figure BDA0001930805950000108
指的是旧一期超像 素中nDSMold大于T2的格网点的概率,T2是最小建筑物高度,由先验知识确定, 通常设置为2.2米。
Figure BDA0001930805950000109
是旧一期超像素中分类为建筑物的格网点个数, Numspl是超像素中格网点总数。
Figure BDA00019308059500001010
是旧一期超像素中nDSMold≥T2的格 网点个数。
而对于相邻超像素之间的平滑项,除要求相邻超像素之间的标签尽可能相 同外,还对相邻超像素的DSM均值的差值作了约束,两个相邻超像素的DSM 均值差异越大,代价越大。平滑项Vp,q(Lp,Lq)具体计算公式如下:
Figure BDA0001930805950000111
Figure BDA0001930805950000112
其中
Figure BDA0001930805950000113
Figure BDA0001930805950000114
分别是两个相邻超像素p和q在DSMt1上的Z值均值,dLen 是
Figure BDA0001930805950000115
Figure BDA0001930805950000116
两者差值绝对值。TdLen1和TdLen2是有关dLen的两个阈值,这里,TdLen1和 TdLen2分别设置为0.1和0.5米。β是一个调整系数,它的取值与数据项中的α相 关。
在定义了数据项和平滑项能量值后,采用最小割最大流理论即可获得基于 超像素的建筑物变化对象和未变化对象。
最后,考虑到以上基于超像素图割优化的建筑物变化对象以超像素为单 位,一个真正变化的建筑物可能由多个超像素组成。因此,有必要对超像素对 象进行合并处理。相比于基于像素的合并,基于超像素的合并准则通常难以定 义,为此,我们采用的是基于像素的合并,详细如下:对于变化的建筑物格网 点,基于距离的区域增长被用于形成变化建筑物对象,这里,两个相邻点之间 的距离阈值设定为0.3-0.4米。区域增长后,面积小于预定义的面积阈值(例如, 50,100或200平方米,这主要根据具体应用要求定)的对象标记为未变化。其 次,遍历所有超像素,变化点格网数大于超像素格网总数一半的超像素标记为变化,得到的两期变化建筑物如图5所示。
步骤4,对两期的建筑物变化对象进行融合后可以将变化的建筑物进一步 区分为新建、增高、拆除、降低四类。建筑物变化检测真值与本方法得到的建 筑物变化检测结果如图6所示。最后采用本方法对基于LiDAR-DSM和 DIM-DSM两种不同数据源的建筑物变化检测进行了处理及结果评价,得到的 结果如图7所示。
本发明与现有的方法相比,本发明充分利用了三维和影像两种信息源各自 的优势来提高建筑物变化检测的精度和可靠性,具有如下特点:
1、设计了一种基于SLIC的联合超像素分割方法。该方法同时考虑了不 同期数据的颜色及高程信息,可以得到与不同期数据吻合的超像素对象,避免 椒盐噪声且有效减少不同期数据分别分割造成的条对象(sliver object)。
2、提出了一种基于超像素图割优化的建筑物变化检测方法。它以联合超 像素对象作为处理单元,将建筑物变化检测问题建模为二值分类问题,采用图 割优化方法获得全局最优解,可以得到稳健可靠的建筑物变化检测结果。此外, 本发明的超像素特征以三维信息和基于深度卷积神经网络的解译结果为基础, 精度高、可靠性强。
3、本发明所提出的建筑物变化检测框架是一个通用框架,既可以适用于 密集匹配获得的点云数据及其原始影像也可以适用于激光点云及其配套获取 的彩色影像。本发明以超像素为处理对象,并能够将多种稳定可靠的特征融入 全局优化框架中,可以有效提高建筑物变化检测的精度和可靠性,对城市规划、 城市动态监测、城市增长检测、违章建筑物识别以及地理信息更新等具有重要 意义。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进 或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (4)

1.一种复杂场景建筑物变化检测的联合超像素图割优化方法,其特征在于,该方法包括以下步骤:
步骤1、获取两个不同时期的数字表面模型和对应的原始影像数据作为输入,两个不同时期的数字表面模型记作:DSMt1和DSMt2,采用相同格网大小格网化处理DSMt1和DSMt2,融合DSMt1和DSMt2后采用SLIC超像素分割方法对它们实现联合分割,获得联合超像素对象;
步骤2、分别对两个时期的原始影像数据,采用基于深度卷积神经网络的语义分割算法实现图像分类,对具有重叠的区域采用大数定律进行融合,获得与数字表面模型分辨率一致的分类结果,并提取其中的建筑物类别区域,检测出影像中的建筑物;
步骤3、以联合超像素对象为处理单元,提取联合超像素对象的多个特征,构建图割优化的数据项和平滑项,并采用最大流最小割理论得到全局最优化解,得到两个时期建筑物的变化对象;
步骤4、对两期的建筑物变化对象进行融合后,将建筑物的变化类型进行分类,包括:新建、增高、拆除、降低;
步骤2的具体方法为:
步骤2.1、利用训练好的深度神经网络模型对原始影像数据进行语义分割,获得影像分类结果;
步骤2.2、语义分割作用于原始影像数据,考虑到原始影像具有多度重叠,且重叠区域会有多个分类结果,则对分类结果进行融合处理,采用大数定律融合方法;
步骤2.3、分别对两期的原始影像数据作相同的语义分割、分类结果融合及建筑物区域提取,实现建筑物检测;
步骤2.2中采用的大数定律融合方法具体为:
对于每一个格网点,找出包含该格网点的原始影像序列号,根据投影与反投影计算该格网点在每张相关原始影像上的坐标值,并获得其对应的分类信息,最后,根据大数定律找出该格网点的分类值,遍历所有格网点获得整个区域融合后的分类结果;
步骤3的具体方法为:
步骤3.1、对于每一期的数据,以联合超像素对象作为处理单元,提取联合超像素对象的多个特征,构建图割优化的数据项和平滑项,并采用最大流最小割理论获得全局最优化解;
步骤3.2、变化建筑物由一个或多个联合超像素对象组成,对联合超像素对象进行图割优化获得的变化对象结果进行后处理,去除干扰及小对象;
步骤3.3、对另一期数据进行相同的超像素图割优化及后处理操作,得到另外一期的建筑物变化对象;
图割优化的作用是采用最大流最小割理论赋予每个超像素一个类别信息,包括前景和背景两个类别,并使得下式的能量公式值达到最小:
Figure FDA0003791165480000021
式中,L={Lp|p∈P}是区域P的类别标签,Lp∈{fg,bg},这里的‘fg’和‘bg’分别是前景和背景的缩写,对应于变化的建筑物对象和未变化对象;处理单元为超像素,对应于步骤1得到的联合超像素对象,Dp(·)是超像素p的数据项,由超像素的差值dDSM、nDSM和步骤2的建筑物检测结果三者共同确定;Vp,q是平滑项,通过惩罚相邻超像素p与q之间的不连续以鼓励空间一致性,这里由超像素之间的平均DSM差值确定;N是所有超像素的邻域集合;
为了获得超像素的数据项值,多个特征参与了数据项概率值计算,数据项具体计算公式如下:
Figure FDA0003791165480000022
其中α是一个常数,CdDSM由dDSM计算得到,Cbld_old由旧一期的nDSM和语义分割的建筑物检测结果共同计算得到;详细如下:
CdDSM:dDSM由两期格网DSM的差值所得,变化的区域具有|dDSM|≥T1的特征,在这里,T1由经验阈值确定,对于航空影像,设置为0.5-2.0米;对于每个超像素,这里采用以下公式计算该超像素的CdDSM以及|dDSM|≥T1的概率值:
Figure FDA0003791165480000031
Figure FDA0003791165480000032
Figure FDA0003791165480000033
其中
Figure FDA0003791165480000034
是指该超像素|dDSM|≥T1的概率值,
Figure FDA0003791165480000035
是超像素中|dDSM|≥T1的格网点个数,Numspl是该超像素的所有格网点总数;
Cbld_old:Cbld_old度量的是该超像素属于建筑物类别的概率;将语义分割得到的建筑物检测结合nDSM进行精化得到真正的建筑物,表达为Cbld_old表示如下:
Figure FDA0003791165480000036
Figure FDA0003791165480000037
Figure FDA0003791165480000038
其中
Figure FDA0003791165480000039
指的是旧一期超像素中语义分割分类为建筑物的格网点的概率,
Figure FDA00037911654800000310
指的是旧一期超像素中nDSMold大于T2的格网点的概率,T2是最小建筑物高度,由先验知识确定,设置为2.2米;
Figure FDA00037911654800000311
是旧一期超像素中分类为建筑物的格网点个数,Numspl是超像素中格网点总数;
Figure FDA00037911654800000312
是旧一期超像素中nDSMold≥T2的格网点个数。
2.根据权利要求1所述的复杂场景建筑物变化检测的联合超像素图割优化方法,其特征在于,步骤2中进行图像分类包括11种类别:建筑物、道路、水系、裸地、耕地、林地、草地、构筑物、挖掘地、园林、背景。
3.根据权利要求1所述的复杂场景建筑物变化检测的联合超像素图割优化方法,其特征在于,步骤1的具体方法为:
步骤1.1、采用相同的格网大小栅格化DSMt1和DSMt2,并选取格网中值赋予该格网获得格网DSMt1和DSMt2
步骤1.2、融合格网DSMt1和DSMt2后,每个格网点的坐标和Lab颜色空间值组成一个十维矢量,采用SLIC算法对其进行分割,获得联合超像素对象。
4.根据权利要求3所述的复杂场景建筑物变化检测的联合超像素图割优化方法,其特征在于,步骤1.2中每个格网点的坐标和Lab颜色空间值组成的十维矢量为:[x,y,z,z',l,a,b,l',a',b'],x、y为像素坐标,z为像素在第一期数据中的高程,z’为像素在第二期数据中的高程,l、a、b为像素在第一期数据中的颜色值,l’、a’、b’为像素在第二期数据中的颜色值;
在采用SLIC超像素分割方法时,增加调整高程变化的权重系数,其距离公式调整为:
Figure FDA0003791165480000041
Figure FDA0003791165480000042
Figure FDA0003791165480000043
Figure FDA0003791165480000044
其中,li,ai,bi和lj,aj,bj是像素i和像素j在第一期数据中的颜色值,li',ai',bi'和lj',aj',bj'是像素i和像素j在第二期数据中的颜色值,xi,yi和xj,yj是像素i和像素j在第一期数据中的平面坐标值,zi和zj是像素i和像素j在第一期数据中的高程值,zi'和zj'是像素i和像素j在第二期数据中的高程值,dc代表颜色距离,ds代表平面空间距离,dh代表高程距离,NS是超像素内的最大平面空间距离,与最小检测建筑物面积S有关;NC是超像素内的最大颜色距离;NH是超像素内最大高程距离,与高程误差及数据源有关。
CN201811639313.6A 2018-12-29 2018-12-29 一种复杂场景建筑物变化检测的联合超像素图割优化方法 Active CN109919944B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811639313.6A CN109919944B (zh) 2018-12-29 2018-12-29 一种复杂场景建筑物变化检测的联合超像素图割优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811639313.6A CN109919944B (zh) 2018-12-29 2018-12-29 一种复杂场景建筑物变化检测的联合超像素图割优化方法

Publications (2)

Publication Number Publication Date
CN109919944A CN109919944A (zh) 2019-06-21
CN109919944B true CN109919944B (zh) 2022-09-27

Family

ID=66960055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811639313.6A Active CN109919944B (zh) 2018-12-29 2018-12-29 一种复杂场景建筑物变化检测的联合超像素图割优化方法

Country Status (1)

Country Link
CN (1) CN109919944B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209828B (zh) * 2019-12-31 2020-09-25 飞燕航空遥感技术有限公司 从机载激光雷达点云中提取建筑物屋顶点的方法和系统
CN112183434B (zh) * 2020-10-12 2022-06-24 南方电网能源发展研究院有限责任公司 建筑物变化检测方法和装置
CN112580137B (zh) * 2020-12-21 2023-06-06 北京市测绘设计研究院 一种房屋建筑规模快速计算方法
CN112651338B (zh) * 2020-12-26 2022-02-15 广东电网有限责任公司电力科学研究院 一种输电线路违章施工隐患的判别方法及装置
CN112652066B (zh) * 2020-12-28 2021-09-28 中国地质科学院矿产资源研究所 一种基于三维地质模型的地质表征情况的评价方法及系统
CN112767421B (zh) * 2021-01-15 2023-09-15 重庆大学 结合语义信息的立体影像密集匹配方法及系统
CN114821334B (zh) * 2022-05-17 2023-08-04 重庆市地理信息和遥感应用中心 基于区域定位和局部特征匹配的楼顶加盖违建识别方法
CN116129265B (zh) * 2023-01-03 2024-03-08 国网湖北省电力有限公司经济技术研究院 一种基于神经网络的遥感影像工程量监测方法
CN115861571B (zh) * 2023-01-18 2023-04-28 武汉大学 语义感知的三角网模型建筑物实体重建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631892A (zh) * 2016-02-23 2016-06-01 武汉大学 一种基于阴影和纹理特征的航空影像建筑物损毁检测方法
CN108961286A (zh) * 2018-06-27 2018-12-07 武汉大学 一种顾及建筑物三维及边缘形状特征的无人机影像分割方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013206597A1 (en) * 2013-06-28 2015-01-22 Canon Kabushiki Kaisha Depth constrained superpixel-based depth map refinement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631892A (zh) * 2016-02-23 2016-06-01 武汉大学 一种基于阴影和纹理特征的航空影像建筑物损毁检测方法
CN108961286A (zh) * 2018-06-27 2018-12-07 武汉大学 一种顾及建筑物三维及边缘形状特征的无人机影像分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《A Hierarchical Building Detection Method for Very High Resolution Remotely Sensed Images Combined with DSM Using Graph Cut Optimization》;Qin RJ et al;《PhotoGrammetric Engineering & Remote Sensing》;20140901(第9期);全文 *
《三维信息辅助的建筑物自动变化检测若干关键技术研究》;庞世燕;《中国博士学位论文全文数据库 工程科技Ⅱ辑》;20180215(第2018年第02期);全文 *

Also Published As

Publication number Publication date
CN109919944A (zh) 2019-06-21

Similar Documents

Publication Publication Date Title
CN109919944B (zh) 一种复杂场景建筑物变化检测的联合超像素图割优化方法
Xia et al. Geometric primitives in LiDAR point clouds: A review
CN108197583B (zh) 基于图割优化和影像结构特征的建筑物变化检测方法
CN107330875B (zh) 基于遥感图像正反向异质性的水体周边环境变化检测方法
US9576373B2 (en) Geospatial imaging system providing segmentation and classification features and related methods
CN104517095B (zh) 一种基于深度图像的人头分割方法
CN104751478A (zh) 一种基于多特征融合的面向对象的建筑物变化检测方法
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
CN107369158A (zh) 基于rgb‑d图像的室内场景布局估计及目标区域提取方法
Gleason et al. A fusion approach for tree crown delineation from lidar data.
Dey et al. Outlier detection and robust plane fitting for building roof extraction from LiDAR data
Berveglieri et al. Successional stages and their evolution in tropical forests using multi-temporal photogrammetric surface models and superpixels
Uzar Automatic building extraction with multi-sensor data using rule-based classification
Sánchez-Lopera et al. Classification of lidar bare-earth points, buildings, vegetation, and small objects based on region growing and angular classifier
Lak et al. A new method for road detection in urban areas using high-resolution satellite images and Lidar data based on fuzzy nearest-neighbor classification and optimal features
Jiang et al. Semi-automatic building extraction from high resolution imagery based on segmentation
CN104966091A (zh) 一种基于无人机遥感影像的露天矿道路提取方法
Li et al. New methodologies for precise building boundary extraction from LiDAR data and high resolution image
Pfeifer et al. LiDAR data filtering and digital terrain model generation
Kim et al. Tree and building detection in dense urban environments using automated processing of IKONOS image and LiDAR data
CN113240735B (zh) 一种边坡位移活动性监测方法
Wang et al. Lidar ground filtering algorithm for urban areas using scan line based segmentation
CN104123569A (zh) 一种基于有监督学习的视频人数信息统计方法
CN104915967B (zh) 一种隧道内车辆运动路径的预测方法
Kothencz et al. Urban vegetation extraction from VHR (tri-) stereo imagery–a comparative study in two central European cities

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant