CN110309781A - 基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法 - Google Patents
基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法 Download PDFInfo
- Publication number
- CN110309781A CN110309781A CN201910585703.8A CN201910585703A CN110309781A CN 110309781 A CN110309781 A CN 110309781A CN 201910585703 A CN201910585703 A CN 201910585703A CN 110309781 A CN110309781 A CN 110309781A
- Authority
- CN
- China
- Prior art keywords
- image
- house
- texture
- damage
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,包括如下步骤:(1)影像预处理;(2)对影像特征进行光谱增强和纹理增强,然后将增强后的纹理和光谱特征融合;(3)对融合光谱纹理图像进行面向对象的超像素分割;(4)震后房屋损毁比值模型的构建。本申请根据高分辨率影像的特点和房屋损毁信息提取的任务,原创性提出基于多尺度光谱纹理特征自适应融合的房屋损毁模型OBDRI,针对影像特征实施面向对象的分析方法,快速提取房屋损毁信息,具有一定的优势。
Description
技术领域
本发明涉及遥感监测技术领域。具体地说是基于多尺度光谱纹理自适应 融合的房屋损毁遥感识别方法。
背景技术
近年来专家学者对灾后建筑物信息的提取进行了大量研究工作,,基于 高分辨率遥感数据的完好房屋信息能够被精确提取出来。但是,在灾害研究 领域,灾后损毁房屋建筑物信息的提取对灾后应急救援和灾损评估工作起到 至关重要的作用,一直是灾害研究的热点问题。考虑到遥感数据的不确定性 因素和灾害场景的复杂性等问题,构建灾后房屋建筑物定量分析模型,利用 高分辨率遥感影像上准确提取房屋建筑物损毁信息,成为了防灾减灾工作中 一项重要的研究内容。
发明内容
为此,本发明所要解决的技术问题在于一种强化纹理特征、快速、准确 提取房屋损毁信息的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别 方法。
为解决上述技术问题,本发明提供如下技术方案:
11.基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征 在于,包括如下步骤:
(1)影像预处理;
(2)对影像特征进行光谱增强和纹理增强,然后将增强后的纹理和光 谱特征融合;
(3)对融合光谱纹理图像进行面向对象的超像素分割;
(4)震后房屋损毁比值模型的构建。
12.根据权利要求1所述的基于多尺度光谱纹理自适应融合的房屋损毁 遥感识别方法,其特征在于,在步骤(1),所述影像为多传感器平台震后高 分辨率遥感影像,包括卫星影像,机载航空影像和无人机航拍影像3种类型; 所述预处理方法包括去燥和对比度增强;
采用高斯低通滤波器对影像进行去燥预处理;
采用限制对比度自适应直方图均衡化方法CLAHE对影响进行对比度 增强去燥预处理。
13.根据权利要求2所述的基于多尺度光谱纹理自适应融合的房屋损毁 遥感识别方法,其特征在于,在步骤(2)中,所述光谱增强的方法包括:
(G-1)颜色空间转换:将影像从RGB颜色空间转换到La*b*空间;L为亮度(Luminosity),a*与b*为色调,L的值域为[0,100];
(G-2)多尺度形态学建筑物指数MBI计算:
包括如下5个步骤:
(a)亮度值计算,如公式(1):
b(x)=max0≤k≤K(bandk(x)) (1)
其中,k为光谱波段数目,bandk(x)为第k光谱波段在x像元的亮度值。取 最大像元值最为最终的亮度值,b为计算的亮度值图像结果;
(b)形态学重构,如公式(2)所示:
其中,表示对b进行开运算操作,d表示结构元素的方向,s表 示结构元素的尺度大小,由于道路是线要素,向2个方向延伸,房屋建筑在 形态上具有多方向和多尺度特点,形态学重构可以利用多尺度的结构元素剔 除道路;
(c)WTH的方向性:利用线性结构元素,使用平均值来表示WTH的 方向性,如公式(3)所示:
其中,dir表示线性结构元素的各个方向;由于建筑物各向是同性的,并且在 所有的方向中均有较大的顶帽值,因此,建筑物的THR特征值比其他地物的 大,THR特征值反映了在结构元素区域内,房屋建筑物与其周围环境的亮度差 异,包含了房屋的对比度信息;
(d)建筑物多尺度分析:采用计算微分形态学剖面导数DMP DifferentialMorphological Profiles进行多尺度分析,如公式(4)所示:
DMPWTH(d,s)=|WTH(d,(s+Δs))-WTH(d,s)| (4)
其中,d表示结构元素的方向,s表示结构元素的尺度大小,Δs表示尺度 的步长;
(e)建筑物形态学指数MBI计算,如公式(5)所示:
对每个尺度的DMPWTH取平均值即可得到MBI值,MBI值越大,其为建 筑物的概率就越大,
MBI=mean(DMPWTH) (5)。
根据权利要求3所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感 识别方法,其特征在于,在步骤(2)中,所述纹理增强的方法包括:
(W-1)局部纹理LBP特征;
改进后的LBP算子在半径为R的圆形邻域中有多个像素点,灰度值的统计 方式发生改变,如公式(6)所示:
其中,LBP是原始的LBP值,P是邻域点数量,R是圆形邻域的半径, ROR(LBP,i)函数将LBP的二进制序列循环右移i位;
(W-2)全局纹理(GLCM)特征:P(i,j),(i,j=1,2,…,L-1)表示灰度 共生矩阵,是一个L×L的矩阵,L为灰度级,是影像中包含的不同灰度的个 数,具有空间位置关系且灰度分别为i和j的两个像素出现的次数或频率; 通过如下5个指标全局建纹理特征;5个指标包括:同质性Homogeneity、对 比度Contrast、熵Entropy、角二阶矩Angular Second Moment和相关性 Correlation;
(a)熵代表影像的无序程度,异质性纹理区域熵值较大,当地物的纹理 表现为随机性特点时,熵值最大,纹理排列整齐有序,熵值较小,如公式(7) 所示;
(b)角二阶矩,是影像同质性的度量,区域内像素值越相似,同质性 越高,ASM值越大,如公式(8)所示;
ASM=∑i∑j(f(i,j))2 (8)
(c)对比度表示邻域内灰度级的差异,影像的局部变化越大,其值越 高,如公式(9)所示;
(d)相关性是影像灰度线性相关的度量,线性相关的极端情况代表完 全的同质性纹理,如公式(10)所示;
(e)同质性,是对图像局部灰度均匀性的度量,图像的局部灰度均匀, 同质度较大,反之,图像的灰度分布不均匀,同质度较小,如公式(11)所 示;
并且选择选择5×5移动窗口。
上述基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,纹理特 征和光谱特征的融合方式主要是采用纹理叠加的方式:对遥感影像全局纹理 和局部纹理的6个纹理信息以一定权重叠加到的La*b*颜色空间进行增强, 具体方法为:
将影像第1主成分的空间纹理信息以特定权重增强,然后与La*b*颜 色空间影像的第1主成分相加,获取多光谱影像增强后的第1主成分,公式 为,如公式(12)所示:
其中,为增强后的多光谱影像第i主成分,为影像第i 主成分的纹理信息,为原始的遥感影像第i主成分;w为特 定权重,i为主成分位次,在这里i=1,以此类推,w需要根据融合结果的信 息质量与光谱保持性决定融合所需的特定权重。
上述基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,在步骤 (3)中,利用改进的SLIC超像素生成算法对光谱纹理融合影像进行面向对 象的分割,利用尺度集模型并结合分形网演化算法(Fractal Net Evolution Approach,FNEA),对生成的超像素进行区域合并,在区域合并的同时进行全 局演化分析,依据最小风险贝叶斯决策规则进行基于全局演化分析的尺度集 约简,最后再基于局部演化分析进行尺度集约简,进而得到最佳分割尺度。
上述基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,在步骤 (4)中,包括如下:
(4-1)损毁房屋样本与完好房屋样本多特征核概率密度比较分析;
(4-2)分割结果转为与原影像分辨率相同的栅格数据;
(4-3)构建面向对象的房屋损毁比值模型OBDRI;
(4-4)基于回归树(CART树)的损毁房屋阈值自适应确定和房屋损 毁信息提取结果。
上述基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,在步骤 (4-1)中,概率密度函数f的表达如公式(13)所示:
其中,K(.)为核函数,h>0,是一个窗口函数,也被称作带宽,是缩放系数,的估计是为所有小于t的样本的概率,n为样本容量;
可以用标准正态分布的密度函数作为K,高斯内核方便的数学性质,也 经常使用K(x)=φ(x),φ(x)为标准正态概率密度函数;公式(13)可以简 化为公式(14):
得到损毁房屋样本与完好房屋样本的核概率密度比较图,在光谱特 征、形状特征中,完好房屋和损毁房屋的样本较难区分;纹理特征中的熵值 和角二阶矩2个特征能够很好地将损毁房屋从复杂场景中区分出来;
地震导致的房屋损毁区域,信息量大,因此熵值也大;相反,其他 正常完好房屋的灰度较为均匀,信息量少,熵值也相对小;熵值大小能对完 好与损毁房屋进行较好的区分;完好房屋的角二阶矩能量值大,房屋损毁部 分由于分布不均匀,纹理粗糙,角二阶矩值小;
在步骤(4-2)中,通过房屋样本的分析,得出面向对象的熵值和角 二阶矩特征图像,将特征分割结果转为与原始影像相同分辨率的栅格数据, 进行多传感器平台遥感影像特征的栅格表达:
熵值特征图像:灾后大量房屋受到损坏,损毁后存在大量的瓦砾废 墟,增加纹理的复杂度;损毁信息比完好房屋、道路要复杂,熵值较大,完 好的居民点、道路、水体纹理简单,对应的熵值较小;
角二阶矩特征图像:损毁部分的纹理粗糙,灰度分布不均匀,能量 值较小,呈现出亮度偏黑,而完好的房屋居民点和道路纹理细致,灰度均匀, 纹理较细致。
上述基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,在步骤 (4-3)中,通过熵值和角二阶矩值2个纹理测度构建面向对象的房屋损毁比 值模型(ObjectBased Damage Ratio Index,OBDRI),所述面向对象的房屋 损毁比值模型的通过变换熵值和角二阶矩指数相除得到,如公式(15)所示:
通过面向对象的房屋损毁比值模型图像:损毁部分在OBDRI指数图 像中呈现较高的值,增加损毁区域与非损毁区域对象块灰度值之间的差异性。
上述基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其在步 骤(4-4)中,基于回归树(CART树)的损毁房屋阈值自适应确定方法具体包 括如下步骤:
(4-4-1)在灾后影像中,分别选择训练样本和测试样本,将训练样 本划分为2部分,熵值特征和角二阶矩特征为测试变量,高分辨率遥感影像 中的房屋损毁信息为目标变量;将测试变量和目标变量都导入到回归决策树 当中,通过循环分析形成二叉决策树;
(4-4-2)等树的节点停止生长之后再利用检验样本对回归决策树进 行剪枝,得出目标变量的预测精度和错分率;再通过设定合适的阈值对树节 点进行限制;
根据阈值自适应确定方法,利用CART回归树确定文中卫星样例影像、 机载航空影像以及无人机影像的损毁房屋阈值取值;
房屋损毁信息提取结果:损毁房屋区域在面向对象的房屋损毁比值 模型指数图像中呈现出较高的亮度值,且每个对象块之间的差异性明显。
本发明的技术方案取得了如下有益的技术效果:
本申请根据高分辨率影像的特点和房屋损毁信息提取的任务,原创性提 出基于多尺度光谱纹理特征自适应融合的房屋损毁模型OBDRI,针对影像特 征实施面向对象的分析方法,提取房屋损毁信息,具有一定的优势。
针对高分辨率影像的特征来实现面向对象分析,融合了光谱特征和纹理 特征,进行超像素分割,强化了纹理特征在信息提取中的应用,实现了纹理 特征和光谱特征的像素级增强和特征级融合,进而构建震后房屋损毁指数模 型。
本申请提出的模型总体精度分别为卫星影像的总体精度为76.7589%、 航空影像的总体精度为75.3561%和无人机影像的总体精度为83.2540%,说 明算法对多源数据损毁信息提取的适用性。
附图说明
图1本发明基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法的 灾后房屋损毁信息提取技术流程图;
图2玉树地震灾后结古镇部分区域快鸟卫星影像;
图3海地地震灾后太子港部分区域机载航空影像;
图4玉树地震灾后结古镇部分区域无人机影像;
图5a玉树倒塌房屋样例航空影像(均衡前);
图5b玉树倒塌房屋样例航空影像的限制对比度自适应直方图均衡化(均 衡前);
图5c玉树倒塌房屋样例航空影像(均衡后);
图5d玉树倒塌房屋样例航空影像的限制对比度自适应直方图均衡化(均 衡后);
图6a RGB颜色空间;
图6b La*b*颜色空间示意图(来源于国际照明委员会);
图7a玉树倒塌房屋样例影像从RGB颜色空间转换到La*b*空间中的 RGB颜色空间;
图7b玉树倒塌房屋样例影像从RGB颜色空间转换到La*b*空间中转 换为亮度L图;
图7c玉树倒塌房屋样例影像从RGB颜色空间转换到La*b*空间中转 换为色调a*图;
图7d玉树倒塌房屋样例影像从RGB颜色空间转换到La*b*空间中转 换为色调b*图;
图8多传感器建筑物指数(MBI),其中a表示卫星影像MBI指数,b表 示机载航空影像MBI指数,c表示无人机航拍影像MBI指数;
图9a完好房屋与损毁房屋卫星影像LBP全局纹理比较,左侧为卫星影像, 右侧为全局纹理图;
图9b完好房屋与损毁房屋机载航空影像LBP全局纹理比较,左侧为机载 航空影像,右侧为全局纹理图;
图9c完好房屋与损毁房屋无人机影像LBP全局纹理比较,左侧为无人机 影像,右侧为全局纹理图;
图10a-1卫星影像的GLCM纹理:同质性特征;
图10a-2卫星影像的GLCM纹理:对比度特征;
图10a-3卫星影像的GLCM纹理:熵特征;
图10a-4卫星影像的GLCM纹理:角二阶矩特征;
图10a-5卫星影像的GLCM纹理:相关性特征;
图10b-1机载航空影像的GLCM纹理:同质性特征;
图10b-2机载航空影像的GLCM纹理:对比度特征;
图10b-3机载航空影像的GLCM纹理:熵特征;
图10b-4机载航空影像的GLCM纹理:角二阶矩特征;
图10b-5机载航空影像的GLCM纹理:相关性特征;
图10c-1无人机影像的GLCM纹理:同质性特征;
图10c-2无人机影像的GLCM纹理:对比度特征;
图10c-3无人机影像的GLCM纹理:熵特征;
图10c-4无人机影像的GLCM纹理:角二阶矩特征;
图10c-5无人机影像的GLCM纹理:相关性特征;
图11a基于增强纹理和光谱特征融合的超像素多尺度分割结果:快鸟卫 星影像分割结果;
图11b基于增强纹理和光谱特征融合的超像素多尺度分割结果:机载航 空影像分割结果;
图11c基于增强纹理和光谱特征融合的超像素多尺度分割结果:无人机 航拍影像分割结果;
图12a损毁房屋样本与完好房屋样本的核概率密度比较:亮度特征;
图12b损毁房屋样本与完好房屋样本的核概率密度比较:最大差值特征;
图12c损毁房屋样本与完好房屋样本的核概率密度比较:密度特征;
图12d损毁房屋样本与完好房屋样本的核概率密度比较:椭圆度特征;
图12e损毁房屋样本与完好房屋样本的核概率密度比较:长度特征;
图12f损毁房屋样本与完好房屋样本的核概率密度比较:形状指数特征;
图12g损毁房屋样本与完好房屋样本的核概率密度比较:相关性特征;
图12h损毁房屋样本与完好房屋样本的核概率密度比较:同质性特征;
图12i损毁房屋样本与完好房屋样本的核概率密度比较:异质性特征;
图12j损毁房屋样本与完好房屋样本的核概率密度比较:对比度特征;
图12k损毁房屋样本与完好房屋样本的核概率密度比较:角二阶矩特征;
图12l损毁房屋样本与完好房屋样本的核概率密度比较:矩形度特征;
图12m损毁房屋样本与完好房屋样本的核概率密度比较:局部纹理均值 特征;
图12n损毁房屋样本与完好房屋样本的核概率密度比较:局部纹理标准 层特征;
图12o损毁房屋样本与完好房屋样本的核概率密度比较:MBI均值特征;
图13a卫星影像面向对象熵值和角二阶矩的栅格表达,左侧为熵值,右 侧为角二阶矩;
图13b机载航空影像面向对象熵值和角二阶矩的栅格表达,左侧为熵值, 右侧为角二阶矩;
图13c低空委无人机影像面向对象熵值和角二阶矩的栅格表达,左侧为 熵值,右侧为角二阶矩;
图14a卫星数据OBDRI指数图像;
图14b机载航空数据OBDRI指数图像;
图14c人机数据OBDRI指数图像;
图15a卫星数据损毁信息提取结果;(其中红色为提取的损毁区域)
图15b对图15a的房屋损毁区域的人工目视解译结果图;(其中蓝色为提 取的损毁区域)
图15c机载航空数据损毁信息提取结果;(其中红色为提取的损毁区域)
图15d对图15c的房屋损毁区域的人工目视解译结果图;(其中蓝色为提 取的损毁区域)
图15e无人机数据的损毁信息提取结果;(其中红色为提取的损毁区域)
图15f对图15e的房屋损毁区域的人工目视解译结果图;(其中蓝色为提 取的损毁区域)
具体实施方式
如图1所示,与中低分辨率遥感影像相比,高分辨率影像中房屋的边界 轮廓更加清晰,纹理信息更加突出,色调更加丰富,空间信息也更加明确。 本章节主要是利用灾后高分辨率光学遥感影像,研究多尺度光谱纹理特征融 合的房屋损毁信息自动提取方法。主要分为3个步骤:首先,对影像的纹理 特征像素级增强,光谱特征增强后得到MBI图像;然后,对得到的特征影像 进行特征级融合,并对融合的特征影像进行超像素分割;最后,构建震后房 屋损毁指数模型。
详细思路包括:(1)颜色空间转换,RGB转换到Lab颜色空间;(2)对 Lab颜色空间进行多尺度局部LBP纹理提取,生成LBP纹理图像;(3)对Lab 颜色空间进行全局GLCM纹理提取,生成GLCM纹理图像;(4)多尺度LBP耦 合GLCM纹理的图像纹理增强,融合LBP局部纹理模式和GLCM全局纹理模式; (5)对Lab颜色空间计算建筑物指数MBI,生成MBI图像,达到光谱增强 的目的;(6)MBI图像和增强纹理进行融合,并进行特征分布统计描述;(好 的特征分布统计决定了图像描述能力),用粗糙集方法进行降维。其中,纹 理统计描述方法采用纹理相似性度量;(7)基于融合光谱纹理图像进行面向 对象的超像素分割;(8)对分割后的超像素对象构建全局能量函数,进行对 象块的合并;(9)构建震后房屋损毁指数模型;(10)利用数学形态学算法 对结果进行后处理,包括腐蚀、膨胀、求并运算。
一、影像的预处理
基于多传感器平台震后高分辨率遥感影像,包括卫星影像,机载航空影 像和无人机航拍影像3种类型,研究区涵盖国际和国内典型地震灾害区域, 2010年玉树震后核心区卫星影像和无人机影像,2010年海地太子港地震核 心区机载航空影像,具体的影像参数见表1。3种类型的样例影像见图2, 图3,图4。其中国外海地机载航空影像数据由世界银行资助,罗彻斯特理 工学院影像科学中心(Center for Imaging Science at RochesterInstitute of Technology,RIT)和Imagecat公司2010年1月21日到27日采集的高 分辨率航空遥感图像。水平投影为UTM Zone 18N WGS84Meters,垂直投影 为Orthometric(EGM96)。
表1多传感器遥感影像概况
所述预处理方法包括去燥和对比度增强;
采用高斯低通滤波器对影像进行去燥预处理;
采用限制对比度自适应直方图均衡化方法CLAHE对影响进行对比度 增强去燥预处理。
影像的预处理包括去燥和对比度增强。高斯低通滤波器(Gaussian Low PassFilter)是一类传递函数为高斯函数的线性平滑滤波器,对于去除服 从正态分布(Normaldistribution)的噪声效果较好,可以突出影像中地 物的边缘细节信息。本章节利用高斯去燥方法对影像进行去燥预处理。
限制对比度自适应直方图均衡化(Zuiderveld,1994)方法能有效限制 区域噪声放大等问题,是通过限制影像的对比度来达到的。邻域周边的对比 度是由变换函数斜度控制,斜度与累积直方图之间有一定的比例关系。在计 算累积直方图函数之前设定阈值,通过阈值来控制对比度大小。直方图被裁 剪的值,也就是所谓的裁剪限幅,取决于直方图的分布,因此也取决于邻域 大小取值。对每个小区域使用对比度限幅,从而克服了自适应直方图均衡化 方法的过度放大噪声的问题。结合CLAHE方法既能增强影像对比度又能克服噪声过度放大的优点,本申请对样例影像进行对比度增强去燥预处理,得到 结果如图5a-图5d所示。图5a和图5b为玉树倒塌房屋样例1航空影像增 强前的图;图5c和图5d为玉树倒塌房屋样例1航空影像增强后的图。
二、对影像特征进行光谱增强和纹理增强,然后将增强后的纹理和光谱 特征融合;
1、光谱增强
1.1颜色空间转换
La*b*颜色空间主要是由3个要素组成:L为亮度(Luminosity),a*与 b*为色调。L的值域为[0,100],对于地物的纹理特征极为敏感,和RGB 颜色空间相比,色域更加宽阔,有效解决色彩分布不均的问题,在颜色特征 方面,更加能够模拟人眼看到的特征,从而达到分离提取的目的,特别是对 于地物的纹理细节,描述能力更强。通过将影像从RGB颜色空间转换到 La*b*空间(图6a和图6b),达到颜色特征增强的目的。图7a-图7d是RGB 颜色空间转换到La*b*颜色空间,L通道能够提供非常丰富的纹理信息, 且La*b*是非线性的,方便后续图像处理中的颜色空间转换,以及对纹理 图像的增强。
1.2建筑物指数(MBI)计算
为了更进一步将损毁房屋信息从复杂的场景中区分出来,以光谱为基础 的建筑物指数MBI(Morphology Building Index)被加入进来。MBI指数是 以形态学为理论基础的,与房屋建筑物形态特点相符合,对于城市或农村的 建成区房屋部分,MBI指数值较高,与植被、道路、裸土等背景有明显的区 别。
包括如下5个步骤:
(a)亮度值计算,如公式(1):
b(x)=max0≤k≤K(bandk(x)) (1)
其中,k为光谱波段数目,bandk(x)为第k光谱波段在x像元的亮度值。
取最大像元值最为最终的亮度值,b为计算的亮度值图像结果;
(b)形态学重构,如公式(2)所示:
其中,表示对b进行开运算操作,d表示结构元素的方向,s表 示结构元素的尺度大小,由于道路是线要素,向2个方向延伸,房屋建 筑在形态上具有多方向和多尺度特点,形态学重构可以利用多尺度的结 构元素剔除道路;
(c)WTH的方向性:利用线性结构元素,使用平均值来表示WTH的 方向性,如公式(3)所示:
其中,dir表示线性结构元素的各个方向;由于建筑物各向是同性的,并且在 所有的方向中均有较大的顶帽值,因此,建筑物的THR特征值比其他地物的 大,THR特征值反映了在结构元素区域内,房屋建筑物与其周围环境的亮度差 异,包含了房屋的对比度信息;
(d)建筑物多尺度分析:采用计算微分形态学剖面导数DMP (DifferentialMorphological Profiles)进行多尺度分析,如公式(4所 示):
DMPWTH(d,s)=|WTH(d,(s+Δs))-WTH(d,s)| (4)
其中,d表示结构元素的方向,s表示结构元素的尺度大小,Δs表示尺度 的步长;
(e)建筑物形态学指数(MBI)计算,如公式(5)所示:
对每个尺度的DMPWTH取平均值即可得到MBI值,MBI值越大,其为 建筑物的概率就越大,
MBI=mean(DMPWTH) (5)。
从下图8中a-c中可以看出,房屋建筑物部分明显比其他地物要亮,但需要 指出的是,在我们计算灾后影像的MBI指数时发现,房屋的损毁部分由于形 态学剖面导数较高,导致MBI计算结果中,损毁部分相比其他房屋建筑物, 数值更大,亮度更亮。图中除了一些小斑点外,影像中的损毁房屋得到明显 增强,而且植被信息得到了有效的抑制。这里的小斑点与房屋建筑物区域相 比面积比较小,可以被认为是噪声的影响。经过对卫星影像、机载航空影像 以及无人机航拍影像的MBI指数计算,大部分的房屋以及损毁部分都呈现出 较高的亮度值,光谱特征得到了有效的增强。
2.纹理增强
2.1.局部纹理(LBP)特征
LBP(Local Binary Pattern,局部二值模式)是一种用来描述图像局 部纹理特征的算子;是一种灰度尺度不变的纹理算子,从局部邻域纹理得来, 主要是用中心像素的灰度值作为阈值,与它的邻域相比较得到的二进制码来 表述局部纹理特征。
改进后的LBP算子在半径为R的圆形邻域中有多个像素点,灰度值的 统计方式发生改变,如公式(6)所示:
其中,LBP是原始的LBP值,P是邻域点数量,R是圆形邻域的半径, ROR(LBP,i)函数将LBP的二进制序列循环右移i位;
在纹理分析方面,LBP算子是最好的纹理描述符之一,图9a-图9c展示 了3种传感器影像(a快鸟卫星影像,b机载航空影像,c无人机影像)中 完好房屋与损毁房屋的LBP局部纹理比较,从图中可以看出,完好与损毁房 屋的纹理差别明显,LBP主要是从影像细节上突出了损毁房屋的局部纹理。
2.2.全局纹理(GLCM)特征
灰度共生矩阵(Gray Level Co-occurrence Matrix,GLCM)是计算有 限邻域局部范围内像元灰度级出现的频率,不同的纹理和空间位置关系会产 生不同的矩阵,矩阵表示影像中地物不同的灰度级关系,以此来区分不同的 纹理结构。P(i,j),(i,j=1,2,…,L-1)表示灰度共生矩阵,是一个L×L 的矩阵(L为灰度级,是影像中包含的不同灰度的个数),具有空间位置关 系且灰度分别为i和j的两个像素出现的次数或频率。
灰度共生矩阵已经广泛应用于纹理特征的提取,采用各种统计测度提取 像素在移动窗口的共生频率,反映邻域范围内的灰度变化和纹理特征。如果 邻域范围内灰度值比较平滑,GLCM主对角线像素的值较大,如果邻域范围 的灰度值存在随机分布特点,GLCM中所有元素呈现相似频率。GLCM在计算 的过程中应该考虑3个方面问题,GLCM测度指标的选择,移动窗口的大小, GLCM计算的基准影像。根据文献调研和多次实验,选择5个代表性的纹理 测度,分别为计算影像同质性的指标Homogeneity(HOM)、Angular Second Moment(ASM),计算影像异质性的指标Entropy(ENT)、Dissimilarity(DIS) 以及影像元素之间的相关性Correlation(COR)指标。
(a)熵代表影像的无序程度,异质性纹理区域熵值较大,当地物的纹理 表现为随机性特点时,熵值最大,纹理排列整齐有序,熵值较小,如公式(7) 所示;
(b)角二阶矩,是影像同质性的度量,区域内像素值越相似,同质性 越高,ASM值越大,如公式(8)所示;
ASM=∑i∑j(f(i,j))2 (8)
(c)对比度表示邻域内灰度级的差异,影像的局部变化越大,其值越 高,如公式(9)所示;
(d)相关性是影像灰度线性相关的度量,线性相关的极端情况代表完 全的同质性纹理,如公式(10)所示;
(e)同质性,是对图像局部灰度均匀性的度量,图像的局部灰度均匀, 同质度较大,反之,图像的灰度分布不均匀,同质度较小,如公式(11)所 示;
计算了多源遥感数据的全局纹理特征,包括高分辨率卫星影像、航空影 像以及无人机影像的同质性、对比度、熵、角二阶矩和相关性等5大纹理指 标。由于小的移动窗口能够探测到比较细致的纹理信息,同时也会产生很多 斑点噪声,而较大的移动窗口能够检测大尺度的纹理,但会丢失很多地物的 细节信息,使边缘很模糊。因此,窗口大小的设置要根据不同来源高分辨率 影像中提取地物的目的和地物具体特征来进行具体分析和选择。因此本文比 较了3种传感器影像的特征图的窗口效应影响,通过多次实验,发现大于5 ×5的窗口会有明显的窗口边缘效应,平滑影像细节信息,而更小的窗口 又无法突出影像的局部特征,最终选择5×5移动窗口。5种纹理指标使 用的是基于多光谱影像的第一主成分,多次实验表明使用主成分信息作为局 部纹理的提取效果比使用单个光谱波段要好。纹理指标的计算见图10所示, HOM和ASM表示影像的局部同质性,特征值越大,代表窗口内的同质性越强, 从图中可以看出,道路和房屋的特征值较大,植被、小路以及阴影的特征值 较小,DIS表示影像的异质性,在影像的边缘处特征值较大,在同质性区域 内,影像的亮度值变化较小,因此HOM的特征值较小。此外,通过比较3种 数据源的特征图可以发现,随着影像分辨率的提高,房屋建筑物及其损毁信 息得到增强,尤其是房屋损毁部分的细节信息明显增强,这主要是因为损毁 部分在纹理特征上比较粗糙,在影像上呈现颗粒状,通过在一定范围内邻域 测度的计算,使得小范围的局部特征值增大,各项指标的纹理测度得到增强, 从而达到了房屋建筑物损毁细节局部纹理特征增强的目的。
3.增强后的纹理和光谱特征融合
纹理特征和光谱特征的融合方式主要是采用纹理叠加的方式:对遥感影 像全局纹理和局部纹理的6个纹理信息以一定权重叠加到的La*b*颜色空 间进行增强,具体方法为:
将影像第1主成分的空间纹理信息以特定权重增强,然后与La*b*颜 色空间影像的第1主成分相加,获取多光谱影像增强后的第1主成分,公式 为,如公式(12)所示:
其中,为增强后的多光谱影像第i主成分,为影像第i 主成分的纹理信息,为原始的遥感影像第i主成分;w为特 定权重,i为主成分位次,在这里i=1,以此类推,w需要根据融合结果的 信息质量与光谱保持性决定融合所需的特定权重。
三、融合光谱纹理图像进行面向对象的超像素分割
传统SLIC(Simple Linear Iterative Clustering)算法是通过度量 像素颜色以及邻域之间的空间关系,并依据K-means算法将像素点聚类成超 像素的过程,与K-means算法相比,SLIC通过限制搜索空间降低了时间复 杂度,并控制超像素的大小和紧凑度。然而传统的SLIC超像素分割算法只 考虑颜色和空间信息,没有将纹理信息考虑进去。当利用该方法对灾后复杂 场景影像进行分割时,尤其当房屋有多处损毁、碎屑遍布时,对象块边缘匹 配度较差。针对这一不足,对传统的SLIC算法进行适当改进,结合La*b*颜 色信息、空间信息,将全局局部纹理信息加入到超像素分割过程当中。
利用改进的SLIC超像素生成算法对光谱纹理融合影像进行面向对象的 分割,生成分布均匀、紧凑的超像素,在影像分割过程中,兼顾地物对象的 光谱特征、空间特征和形状特征,生成光谱同质性以及空间特征和形状特征 同质性对象。然后,利用尺度集模型并结合分形网演化算法(Fractal Net Evolution Approach,FNEA),对生成的超像素进行区域合并。超像素块区 域合并的基本思想是基于像素从下向上的区域增长的分割算法,对地物光谱 信息同质的对象进行合并,合并后的多个像元都赋予同一类别属性,遵循异 质性最小原则。在区域合并的同时进行全局演化分析,依据最小风险贝叶斯 决策规则进行基于全局演化分析的尺度集约简,最后再基于局部演化分析进 行尺度集约简,进而得到最佳分割尺度。
图11是基于增强纹理和光谱特征融合的超像素多尺度分割结果,从3 种传感器影像的分割结果可以看出,房屋损毁区域的边界与其它地物较好区 分开来,特别是对一些损毁的杂乱碎屑,分割的较细,边界清晰,形成数量 较多的地物对象块。完好房屋和一些道路等宽阔裸露区域,分割的较为完整, 对象块较大,这种不同地物的多尺度分割,利于后续的信息提取。
四、震后房屋损毁比值模型的构建及提取结果
通过选择完好房屋和损毁房屋的超像素对象样本,构建多特征核概率密 度,对比分析房屋样本的特征,从多特征中寻找识别损毁房屋的精准特征, 从而进一步依据具体特征构建震后房屋损毁比值模型。
1.损毁房屋样本与完好房屋样本多特征核概率密度比较分析;
概率密度函数f的表达如公式(13)所示:
其中,K(.)为核函数,h>0,是一个窗口函数,也被称作带宽,是缩放系数,的估计是为所有小于t的样本的概率,n为样本容量;
可以用标准正态分布的密度函数作为K,高斯内核方便的数学性质,也 经常使用K(x)=φ(x),φ(x)为标准正态概率密度函数;公式(13)可以简 化为公式(14):
从图12a-图12p得到损毁房屋样本与完好房屋样本的核概率密度比较 图可以看出,在光谱特征、形状特征中,完好房屋和损毁房屋的样本较难区 分;纹理特征中的熵值(图12i)和角二阶矩(图12k)2个特征能够很好 地将损毁房屋从复杂场景中区分出来;实现房屋损毁信息的精准提取。熵值 的大小代表图像中信息含量的多少,熵值越大表示影像中含有的信息量越丰 富,或是影像中信息分布越不均匀。地震导致的房屋损毁区域,其信息量较 大,因此熵值也较大;相反,其他正常完好房屋的灰度较为均匀,信息量少, 熵值也相对较小,因此根据目标区域的熵值大小就能对完好与损毁房屋进行 较好的区分。
通过统计大量的样例感兴趣区(ROI)熵值得出,当ROI中含有损毁房 屋时,熵值较大,当ROI中不含损毁房屋时,分为2种情况,一种为纯道路 区域,另一种包含房屋、植被或其他背景信息,纯路面部分的熵值较小,基 本上不超过1.8;通过阈值方法可以较好的滤除灰度值均匀的路面等背景信 息。
地震导致的房屋损毁区域,信息量大,因此熵值也大;相反,其他正常完 好房屋的灰度较为均匀,信息量少,熵值也相对小;熵值大小能对完好与损 毁房屋进行较好的区分;角二阶矩是图像灰度分布均匀程度和纹理粗细的一 个度量,当图像纹理绞细致、灰度分布均匀时,能量值较大,反之,较小。 完好房屋的角二阶矩能量值大,房屋损毁部分由于分布不均匀,纹理粗糙, 角二阶矩值小;
2.面向对象的熵值和角二阶矩测度栅格表达
通过房屋样本的分析,得出面向对象的熵值和角二阶矩特征图像,将特 征分割结果转为与原始影像相同分辨率的栅格数据,进行多传感器平台遥感 影像特征的栅格表达,如图13所示。与基于像素特征的影像相比,对于存 在大量“同谱异质”和“同质异谱”的地物类别,面向对象的特征表达得到 有效的改善,对于损毁信息的精准提取具有重要的作用。
熵值特征图像:灾后大量房屋受到损坏,损毁后存在大量的瓦砾废墟, 增加纹理的复杂度;损毁信息比完好房屋、道路要复杂,熵值较大,完好的 居民点、道路、水体纹理简单,对应的熵值较小;
角二阶矩特征图像:损毁部分的纹理粗糙,灰度分布不均匀,能量值 较小,呈现出亮度偏黑,而完好的房屋居民点和道路纹理细致,灰度均匀, 纹理较细致。
从图13a-图13c可以看出,在卫星影像、机载航空影像以及无人机 影像上,损毁的房屋熵值特征具有显著差异,且各有特点。随着影像分辨率 的提高,灾后大量倒塌房屋纹理更加清晰,废墟以及碎屑的纹理也更加复杂, 熵值特征图像的亮度值增大,损毁废墟碎屑与完好房屋从复杂的场景中更加 清晰的区分开来。从熵值特征的基础理论分析也可以发现,影像越清晰,所 包含的有用信息越多,熵值代表影像中地物信息量的纹理复杂程度,灾后大 量房屋受到损坏,损毁后存在大量的瓦砾等废墟,增加了纹理的复杂度。损 毁信息比完好房屋、道路等要复杂的多,熵值较大,而完好的居民点、道路、 水体等纹理简单,对应的熵值较小,这与上述损毁样本与完好房屋样本进行 统计的结果相印证,熵值特征对于损毁信息和完好信息的区分度较好。从图 中的角二阶矩特征值可以看出,损毁部分的纹理粗糙,灰度分布不均匀,能 量值较小,呈现出亮度偏黑,而完好的房屋居民点和道路纹理细致,灰度均 匀,纹理较细致,这与灾后的损毁废墟形成了强烈的反差,正好可以利用角 二阶矩特征将完好房屋和道路进行滤去,有利于简化下一步损毁模型构建的 复杂程度。图13a-图13c中3种类型的高分辨率遥感数据角二阶矩特征值 均呈现出较小的特点,与灾后样例影像中存在大量的损毁碎屑有关,角二阶 矩反映影像中地物的能量特征,值的大小表明地物均匀与规则与否的纹理模 式。例如无人机样例影像中,完好的房屋居民点可以通过角二阶矩特征图清 晰的表现出来,损毁碎屑废墟亮度值极小。这种特征反差有利于增强损毁信 息细节,对损毁信息精确提取。
3.面向对象的房屋损毁比值模型构建
通过对房屋熵值和角二阶矩值分析,为了进一步提取出灾后损毁房屋信 息,并且通过上述分析可知,损毁部分熵值明显较大,值大的对象块有很大 概率是损毁的房屋废墟碎屑等,而未损坏房屋、道路等的角二阶矩值较大, 灾后完好部分明显比其他部分要亮。我们通过2个纹理测度构建了一个新的 指数模型,面向对象的房屋损毁比值模型(ObjectBased Damage Ratio Index, OBDRI),该指数通过变换熵值和角二阶矩指数相除得到,如公式(15)所示:
房屋损毁比值模型
通过面向对象的房屋损毁比值模型图像,如图14a-图14c所示:损 毁房屋部分明显得到了增强,与背景具有较强的区分度,所提取的该指数能 够针对多传感器平台将震后房屋损毁信息提取出来。为了使提取结果更加精 确和完整,后续我们通过自适应阈值的确定,分离损毁部分。从比值图像中 不难看出,损毁部分在OBDRI指数图像中呈现较高的值,大幅增加了损毁区 域与非损毁区域对象块灰度值之间的差异性,统计结果表明OBDRI在城镇环 境下将损毁区域提取出来效果较为稳定。另外,城市房屋居民点在指数图像 中的亮度值较大,这与城市建成区中包含的地物种类较多,不仅有裸土,还 有树木和水体等有一定关系。
4.基于回归树(CART树)的损毁房屋阈值自适应确定
阈值的确定主要通过回归方法得到,首先在对数据集分析的基础上,利 用已知的多变量数据构建预测准则,进而根据其它变量值对一个变量进行 预测,其中数据集包含了被预测变量数据和相关变量数据。CART回归树采 用的是一种二分递归分割技术,将当前样本分成两个子样本集,使得生成的 非叶子节点都有两个分支,是一种典型的二叉决策树,主要用于分类或者回 归。如果待预测结果是连续型数据,则CART生成回归决策树,这种回归决 策树的目的是通过二元决策树来建立一套准确的数据分类器,对新的事例进 行预测(目标变量为连续变量)。回归树采用基尼指数来选择最优的切分特 征,而且每次通过二分来完成,再以局部分段拟合的形式代替全局拟合,达 到提高估计精度的目的。
在灾后影像中,分别选择训练样本和测试样本,将训练样本划分为2部 分,一部分为测试变量,一部分为目标变量。将测试变量和目标变量都导入 到决策树当中,通过循环分析形成二叉决策树。通常情况下,在决策树生成 之后,需要采用C4.5/5.0决策树进行修剪,否则容易造成目标的过度拟合。 C4.5/5.0决策树是通过指定树的最大层数,叶节点最小样本数,需要调整大 量参数才能限制树的过度生长。而本章节采用的CART树区别在于,等树的节 点停止生长之后再利用检验样本对决策树进行剪枝,得出目标变量的预测精 度和错分率。再通过设定合适的阈值对树节点进行限制。CART树模型简单, 易于理解,能够自动选择特征,自动确定阈值,使用递归分区方法对训练记 录进行分组,在每个节点处选择合适的预测变量,决策树的每个节点处都采 用二元分割方式,其中高分辨率遥感影像中的房屋损毁信息即对应目标变量。 对于地物多类别的最佳测试变量(分类特征)和分割阈值(特征阈值)的选 择,CART决策树主要使用基尼系数,这也是其一大优势所在,损毁精度得到 了保证。其中基尼系数的定义如下:
其中,p(j/h)表示从训练样本集中随机抽取的某一个样本,当特征值为h时, 该样本属于第j类的概率;nj(h)表示训练样本中特征值为h时,该样本属于 第j类的样本个数;n(h)表示训练样本中特征值为h时的所有样本个数。
根据阈值自适应确定方法,利用CART回归树确定文中卫星样例影像、机 载航空影像以及无人机影像的损毁房屋阈值取值。
5.房屋损毁信息提取结果
图15是基于高分辨率多源遥感数据的灾后房屋损毁信息提取结果,图 中红色部分表示提取的损毁区域。结合实验数据的原始图像我们发现,大部 分损毁房屋区域在指数图像中都呈现出较高的亮度值,且每个对象块之间的 差异性明显。图15c中的机载航空数据房屋建筑物是最难提取的,因为大部 分的损毁房屋信息与周围道路都呈现相似的光谱信息,如果不是辅助数学形 态学的纹理,即使肉眼也很难辨别房屋建筑物与复杂背景地物之间的差异。 从图中提取结果可以看出,本章节提出的方法提取的房屋损毁信息成功保留了其块状和细节特征,对卫星影像提取的结果夹杂着一些道路及其周边的空 地信息(图15a),这主要是由于一些本属于阴影的像元在多尺度分割中被 错分到房屋区域对象块当中,或是一些损毁房屋小斑块被漏分到背景地物当 中。因此会对后期模型提取房屋损毁信息产生一定的影响。在图15e无人机 影像损毁信息提取结果中,除了几栋完好的房屋保存较为完整,且边界清晰, 影像中其他大部分区域均倒塌,变为废墟,有一些面积较小的未受损建筑物 夹杂在废墟中间,在图中表现为斑块较小的区域。为了客观分析房屋损毁信 息的提取效果,我们根据原始影像对损毁部分进行人工目视勾画,勾画时主 要考虑到完整性,对面积较小的琐碎部分存在一定的遗漏。对比提取效果可 以发现,大块的损毁部分均较好的提取出,很多面积小的废墟或碎屑也被较 好的提取出来,有效剔除了一些复杂的植被、道路、裸地等背景地物。
综上所述,本章节提出的新模型可以很好的将大部分灾后房屋损毁信息 提取出来,对于房屋分布比较规则的城镇街区,提取的方法对道路和裸地更 为敏感,在检测过程中大量被错分为房屋建筑物的对象块被剔除,为高分辨 率影像提取灾后房屋损毁信息提供了一种新的方法思路。
6.损毁提取结果精度分析
为了对提出的新模型进行深入的评估,我们对每景影像的提取结果与地 面真实情况进行了统计分析,分别计算了Kappa系数、总体精度(OA)、漏分 误差(OE)和错分误差(CE)以及房屋面积的倒塌率,来衡量本章新模型提 取结果的鲁棒性。从表2中可以看出,实验数据的Kappa系数都到达0.5,且 总体精度都达到了70%以上,在提取损毁信息的过程中,漏分误差较低,错分 误差较高,这主要是因为影像是先通过面向对象的分割,再进行分类提取, 当遇到损毁房屋或完好房屋与周边地物之间有相似的光谱和纹理信息时,难 以对这些小的对象块进行正确的分割。对于本章节模型而言,房屋特有特征 应该被更多考虑进来,从而能够使得房屋损毁信息提取更加精准。同时,通 过房屋损毁的面积计算出房屋损毁率,卫星影像中,绝大部分房屋倒塌损毁, 损毁率达81.25%;在海地地震的机载航空影像中,街区中房屋倒塌较为分散, 房屋损毁率为43.65%;对于文中无人机样例影像,大部分房屋损毁严重,损 毁率为75.80%,根据区域房屋损毁率情况,为灾后救援和评估提供有效的指 导。
表2房屋损毁信息提取结果分析
传感器平台 | OE(%) | CE(%) | OA(%) | Kappa系数 | 损毁率 |
卫星影像 | 16.53 | 32 | 76.7589 | 0.58 | 81.25% |
航空影像 | 20.45 | 25 | 75.3561 | 0.49 | 43.65% |
无人机影像 | 25.30 | 29 | 83.2540 | 0.61 | 75.80% |
小结:
前人对灾后信息提取做了一定的探索,但由于受到影像分辨率、光谱特 征不可分以及地物存在大量混合像元等局限,在提取精度和效率上不高。本 本申请根据高分辨率影像的特点和房屋损毁信息提取的任务,原创性提出基 于多尺度光谱纹理特征自适应融合的房屋损毁模型OBDRI,针对影像特征实 施面向对象的分析方法,快速提取房屋损毁信息,具有一定的优势。
针对高分辨率影像的特征来实现面向对象分析,融合了光谱特征和纹理 特征,进行超像素分割,强化了纹理特征在信息提取中的应用,实现了纹理 特征和光谱特征的像素级增强和特征级融合,进而构建震后房屋损毁指数模 型。
根据面向对象的分析思想,文中改进了SLIC超像素生成算法,对特征 图像进行分割,生成均匀紧凑的超像素,然后利用尺度集模型并结合分形网 演化算法(FNEA),进行区域合并,并进行全局演化分析,最后依据最小风 险贝叶斯决策规则进行尺度集约简,选择地物最佳尺度,合理构建层次结构。
文中将筛选出的熵值和角二阶矩特征图像转化为与原始影像相同分辨 率的栅格数据,与基于像素特征的影像相比,进行了栅格表达的特征图像, 在大量“同谱异质”和“同质异谱”的地物类别识别上,能够对面向对象的 特征表达起到有效的改善。
为了验证文中提出的OBDRI房屋损毁模型的效果,我们用3幅高分辨率 卫星影像(玉树震后)、机载航空影像(海地震后)以及无人机影像(玉树 震后),进行详细的算法分析和测试。验证用的参考影像是由人工对损毁区 域边界进行目视勾画,结果显示,本文提出的模型总体精度分别为76.7589%、 75.3561%和83.2540%,说明算法对多源数据损毁信息提取的适用性。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式 的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做 出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。 而由此所引伸出的显而易见的变化或变动仍处于本专利申请权利要求的保 护范围之中。
Claims (10)
1.基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,包括如下步骤:
(1)影像预处理;
(2)对影像特征进行光谱增强和纹理增强,然后将增强后的纹理和光谱特征融合;
(3)对融合光谱纹理图像进行面向对象的超像素分割;
(4)震后房屋损毁比值模型的构建。
2.根据权利要求1所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,在步骤(1),所述影像为多传感器平台震后高分辨率遥感影像,包括卫星影像,机载航空影像和无人机航拍影像3种类型;所述预处理方法包括去燥和对比度增强;
采用高斯低通滤波器对影像进行去燥预处理;
采用限制对比度自适应直方图均衡化方法CLAHE对影响进行对比度增强去燥预处理。
3.根据权利要求2所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,在步骤(2)中,所述光谱增强的方法包括:
(G-1)颜色空间转换:将影像从RGB颜色空间转换到La*b*空间;L为亮度(Luminosity),a*与b*为色调,L的值域为[0,100];
(G-2)多尺度形态学建筑物指数MBI计算:
包括如下5个步骤:
(a)亮度值计算,如公式(1):
b(x)=max0≤k≤K(bandk(x)) (1)
其中,k为光谱波段数目,bandk(x)为第k光谱波段在x像元的亮度值。取最大像元值最为最终的亮度值,b为计算的亮度值图像结果;
(b)形态学重构,如公式(2)所示:
其中,表示对b进行开运算操作,d表示结构元素的方向,s表示结构元素的尺度大小,由于道路是线要素,向2个方向延伸,房屋建筑在形态上具有多方向和多尺度特点,形态学重构可以利用多尺度的结构元素剔除道路;
(c)WTH的方向性:利用线性结构元素,使用平均值来表示WTH的方向性,如公式(3)所示:
其中,dir表示线性结构元素的各个方向;由于建筑物各向是同性的,并且在所有的方向中均有较大的顶帽值,因此,建筑物的THR特征值比其他地物的大,THR特征值反映了在结构元素区域内,房屋建筑物与其周围环境的亮度差异,包含了房屋的对比度信息;
(d)建筑物多尺度分析:采用计算微分形态学剖面导数DMP DifferentialMorphological Profiles进行多尺度分析,如公式(4)所示:
DMPWTH(d,s)=|WTH(d,(s+Δs))-WTH(d,s)| (4)
其中,d表示结构元素的方向,s表示结构元素的尺度大小,Δs表示尺度的步长;
(e)建筑物形态学指数MBI计算,如公式(5)所示:
对每个尺度的DMPWTH取平均值即可得到MBI值,MBI值越大,其为建筑物的概率就越大,
MBI=mean(DMPWTH) (5)。
4.根据权利要求3所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,在步骤(2)中,所述纹理增强的方法包括:
(W-1)局部纹理LBP特征;
改进后的LBP算子在半径为R的圆形邻域中有多个像素点,灰度值的统计方式发生改变,如公式(6)所示:
其中,LBP是原始的LBP值,P是邻域点数量,R是圆形邻域的半径,ROR(LBP,i)函数将LBP的二进制序列循环右移i位;
(W-2)全局纹理(GLCM)特征:P(i,j),(i,j=1,2,…,L-1)表示灰度共生矩阵,是一个L×L的矩阵,L为灰度级,是影像中包含的不同灰度的个数,具有空间位置关系且灰度分别为i和j的两个像素出现的次数或频率;通过如下5个指标全局建纹理特征;5个指标包括:同质性Homogeneity、对比度Contrasr、熵Entropy、角二阶矩Angular Second Moment和相关性Correlation;
(a)熵代表影像的无序程度,异质性纹理区域熵值较大,当地物的纹理表现为随机性特点时,熵值最大,纹理排列整齐有序,熵值较小,如公式(7)所示;
(b)角二阶矩,是影像同质性的度量,区域内像素值越相似,同质性越高,ASM值越大,如公式(8)所示;
ASM=∑i∑j(f(i,j))2 (8)
(c)对比度表示邻域内灰度级的差异,影像的局部变化越大,其值越高,如公式(9)所示;
(d)相关性是影像灰度线性相关的度量,线性相关的极端情况代表完全的同质性纹理,如公式(10)所示;
(e)同质性,是对图像局部灰度均匀性的度量,图像的局部灰度均匀,同质度较大,反之,图像的灰度分布不均匀,同质度较小,如公式(11)所示;
并且选择选择5×5移动窗口。
5.根据权利要求4所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,纹理特征和光谱特征的融合方式主要是采用纹理叠加的方式:对遥感影像全局纹理和局部纹理的6个纹理信息以一定权重叠加到的La*b*颜色空间进行增强,具体方法为:
将影像第1主成分的空间纹理信息以特定权重增强,然后与La*b*颜色空间影像的第1主成分相加,获取多光谱影像增强后的第1主成分,公式为,如公式(12)所示:
其中,为增强后的多光谱影像第i主成分,为影像第i主成分的纹理信息,为原始的遥感影像第i主成分;w为特定权重,i为主成分位次,在这里i=1,以此类推,w需要根据融合结果的信息质量与光谱保持性决定融合所需的特定权重。
6.根据权利要求5所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,在步骤(3)中,利用改进的SLIC超像素生成算法对光谱纹理融合影像进行面向对象的分割,利用尺度集模型并结合分形网演化算法(Fractal Net Evolution Approach,FNEA),对生成的超像素进行区域合并,在区域合并的同时进行全局演化分析,依据最小风险贝叶斯决策规则进行基于全局演化分析的尺度集约简,最后再基于局部演化分析进行尺度集约简,进而得到最佳分割尺度。
7.根据权利要求6所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,在步骤(4)中,包括如下:
(4-1)损毁房屋样本与完好房屋样本多特征核概率密度比较分析;
(4-2)分割结果转为与原影像分辨率相同的栅格数据;
(4-3)构建面向对象的房屋损毁比值模型OBDRI;
(4-4)基于回归树(CART树)的损毁房屋阈值自适应确定和房屋损毁信息提取结果。
8.根据权利要求7所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,在步骤(4-1)中,概率密度函数f的表达如公式(13)所示:
其中,K(.)为核函数,h>0,是一个窗口函数,也被称作带宽,是缩放系数,的估计是为所有小于t的样本的概率,n为样本容量;
可以用标准正态分布的密度函数作为K,高斯内核方便的数学性质,也经常使用K(x)=φ(x),φ(x)为标准正态概率密度函数;公式(13)可以简化为公式(14):
得到损毁房屋样本与完好房屋样本的核概率密度比较图,在光谱特征、形状特征中,完好房屋和损毁房屋的样本较难区分;纹理特征中的熵值和角二阶矩2个特征能够很好地将损毁房屋从复杂场景中区分出来;
地震导致的房屋损毁区域,信息量大,因此熵值也大;相反,其他正常完好房屋的灰度较为均匀,信息量少,熵值也相对小;熵值大小能对完好与损毁房屋进行较好的区分;完好房屋的角二阶矩能量值大,房屋损毁部分由于分布不均匀,纹理粗糙,角二阶矩值小;
在步骤(4-2)中,通过房屋样本的分析,得出面向对象的熵值和角二阶矩特征图像,将特征分割结果转为与原始影像相同分辨率的栅格数据,进行多传感器平台遥感影像特征的栅格表达:
熵值特征图像:灾后大量房屋受到损坏,损毁后存在大量的瓦砾废墟,增加纹理的复杂度;损毁信息比完好房屋、道路要复杂,熵值较大,完好的居民点、道路、水体纹理简单,对应的熵值较小;
角二阶矩特征图像:损毁部分的纹理粗糙,灰度分布不均匀,能量值较小,呈现出亮度偏黑,而完好的房屋居民点和道路纹理细致,灰度均匀,纹理较细致。
9.根据权利要求8所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,在步骤(4-3)中,通过熵值和角二阶矩值2个纹理测度构建面向对象的房屋损毁比值模型(Object Based Damage Ratio Index,OBDRI),所述面向对象的房屋损毁比值模型的通过变换熵值和角二阶矩指数相除得到,如公式(15)所示:
通过面向对象的房屋损毁比值模型图像:损毁部分在OBDRI指数图像中呈现较高的值,增加损毁区域与非损毁区域对象块灰度值之间的差异性。
10.根据权利要求9所述的基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法,其特征在于,在步骤(4-4)中,基于回归树(CART树)的损毁房屋阈值自适应确定方法具体包括如下步骤:
(4-4-1)在灾后影像中,分别选择训练样本和测试样本,将训练样本划分为2部分,熵值特征和角二阶矩特征为测试变量,高分辨率遥感影像中的房屋损毁信息为目标变量;将测试变量和目标变量都导入到回归决策树当中,通过循环分析形成二叉决策树;
(4-4-2)等树的节点停止生长之后再利用检验样本对回归决策树进行剪枝,得出目标变量的预测精度和错分率;再通过设定合适的阈值对树节点进行限制;
根据阈值自适应确定方法,利用CART回归树确定文中卫星样例影像、机载航空影像以及无人机影像的损毁房屋阈值取值;
房屋损毁信息提取结果:损毁房屋区域在面向对象的房屋损毁比值模型指数图像中呈现出较高的亮度值,且每个对象块之间的差异性明显。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910585703.8A CN110309781B (zh) | 2019-07-01 | 2019-07-01 | 基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910585703.8A CN110309781B (zh) | 2019-07-01 | 2019-07-01 | 基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110309781A true CN110309781A (zh) | 2019-10-08 |
CN110309781B CN110309781B (zh) | 2021-03-02 |
Family
ID=68079624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910585703.8A Active CN110309781B (zh) | 2019-07-01 | 2019-07-01 | 基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110309781B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339948A (zh) * | 2020-02-25 | 2020-06-26 | 武汉大学 | 一种高分辨率遥感影像新增建筑自动识别方法 |
CN111626965A (zh) * | 2020-06-04 | 2020-09-04 | 成都星时代宇航科技有限公司 | 遥感图像处理方法,装置,电子设备及存储介质 |
CN111798383A (zh) * | 2020-06-09 | 2020-10-20 | 武汉大学 | 一种高分辨率夜间灯光影像的增强方法 |
CN112837254A (zh) * | 2021-02-25 | 2021-05-25 | 普联技术有限公司 | 一种图像融合方法、装置、终端设备及存储介质 |
CN113240689A (zh) * | 2021-06-01 | 2021-08-10 | 安徽建筑大学 | 一种洪涝灾害区域快速提取方法 |
CN113436090A (zh) * | 2021-06-16 | 2021-09-24 | 中国电子科技集团公司第五十四研究所 | 一种遥感影像光谱和纹理特征融合提取方法 |
CN114782846A (zh) * | 2022-06-20 | 2022-07-22 | 绵阳天仪空间科技有限公司 | 一种灾后救援引导系统及方法 |
CN117252789A (zh) * | 2023-11-10 | 2023-12-19 | 中国科学院空天信息创新研究院 | 高分辨率遥感影像阴影重建方法、装置及电子设备 |
CN117392500A (zh) * | 2023-12-12 | 2024-01-12 | 国网天津市电力公司信息通信公司 | 一种针对树木和农作物的遥感影像特征增强方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102005022A (zh) * | 2010-10-19 | 2011-04-06 | 中国科学院遥感应用研究所 | 链型灾害的灾害损失遥感综合评估方法 |
CN105513060A (zh) * | 2015-11-30 | 2016-04-20 | 中国人民解放军海军航空工程学院 | 一种视觉感知启发的高分辨率遥感图像分割方法 |
CN107330875A (zh) * | 2017-05-31 | 2017-11-07 | 河海大学 | 基于遥感图像正反向异质性的水体周边环境变化检测方法 |
CN109408965A (zh) * | 2018-10-26 | 2019-03-01 | 中国地震局地球物理研究所 | 基于地震动参数的房屋震害矩阵曲线化分析系统及方法 |
-
2019
- 2019-07-01 CN CN201910585703.8A patent/CN110309781B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102005022A (zh) * | 2010-10-19 | 2011-04-06 | 中国科学院遥感应用研究所 | 链型灾害的灾害损失遥感综合评估方法 |
CN105513060A (zh) * | 2015-11-30 | 2016-04-20 | 中国人民解放军海军航空工程学院 | 一种视觉感知启发的高分辨率遥感图像分割方法 |
CN107330875A (zh) * | 2017-05-31 | 2017-11-07 | 河海大学 | 基于遥感图像正反向异质性的水体周边环境变化检测方法 |
CN109408965A (zh) * | 2018-10-26 | 2019-03-01 | 中国地震局地球物理研究所 | 基于地震动参数的房屋震害矩阵曲线化分析系统及方法 |
Non-Patent Citations (3)
Title |
---|
YI ZHOU 等: "Feature Selection Method Based on High-Resolution Remote Sensing Images and the Effect of Sensitive Features on Classification Accuracy", 《MDPI》 * |
李强 等: "不同特征融合的震后损毁建筑物识别研究", 《地震研究》 * |
谢嘉丽 等: "利用灰度共生矩阵纹理特征识别空心村损毁建筑物的方法", 《测绘通报》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339948B (zh) * | 2020-02-25 | 2022-02-01 | 武汉大学 | 一种高分辨率遥感影像新增建筑自动识别方法 |
CN111339948A (zh) * | 2020-02-25 | 2020-06-26 | 武汉大学 | 一种高分辨率遥感影像新增建筑自动识别方法 |
CN111626965A (zh) * | 2020-06-04 | 2020-09-04 | 成都星时代宇航科技有限公司 | 遥感图像处理方法,装置,电子设备及存储介质 |
CN111798383A (zh) * | 2020-06-09 | 2020-10-20 | 武汉大学 | 一种高分辨率夜间灯光影像的增强方法 |
CN111798383B (zh) * | 2020-06-09 | 2022-06-14 | 武汉大学 | 一种高分辨率夜间灯光影像的增强方法 |
CN112837254A (zh) * | 2021-02-25 | 2021-05-25 | 普联技术有限公司 | 一种图像融合方法、装置、终端设备及存储介质 |
CN112837254B (zh) * | 2021-02-25 | 2024-06-11 | 普联技术有限公司 | 一种图像融合方法、装置、终端设备及存储介质 |
CN113240689A (zh) * | 2021-06-01 | 2021-08-10 | 安徽建筑大学 | 一种洪涝灾害区域快速提取方法 |
CN113436090A (zh) * | 2021-06-16 | 2021-09-24 | 中国电子科技集团公司第五十四研究所 | 一种遥感影像光谱和纹理特征融合提取方法 |
CN114782846A (zh) * | 2022-06-20 | 2022-07-22 | 绵阳天仪空间科技有限公司 | 一种灾后救援引导系统及方法 |
CN117252789A (zh) * | 2023-11-10 | 2023-12-19 | 中国科学院空天信息创新研究院 | 高分辨率遥感影像阴影重建方法、装置及电子设备 |
CN117252789B (zh) * | 2023-11-10 | 2024-02-02 | 中国科学院空天信息创新研究院 | 高分辨率遥感影像阴影重建方法、装置及电子设备 |
CN117392500A (zh) * | 2023-12-12 | 2024-01-12 | 国网天津市电力公司信息通信公司 | 一种针对树木和农作物的遥感影像特征增强方法及系统 |
CN117392500B (zh) * | 2023-12-12 | 2024-04-23 | 国网天津市电力公司信息通信公司 | 一种针对树木和农作物的遥感影像特征增强方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110309781B (zh) | 2021-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110309781A (zh) | 基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法 | |
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
Zhou et al. | Multiscale water body extraction in urban environments from satellite images | |
CN102214298B (zh) | 基于选择性视觉注意机制的遥感图像机场目标检测与识别方法 | |
CN109934154B (zh) | 一种遥感影像变化检测方法及检测装置 | |
CN101599120B (zh) | 一种遥感影像建筑物识别方法 | |
CN101840581B (zh) | 一种从卫星遥感影像中提取建筑物轮廓的方法 | |
CN109284669A (zh) | 基于Mask RCNN的行人检测方法 | |
CN108647602B (zh) | 一种基于图像复杂度判定的航空遥感图像场景分类方法 | |
CN107392130A (zh) | 基于阈值自适应和卷积神经网络的多光谱图像分类方法 | |
CN108241871A (zh) | 基于多特征的激光点云与影像融合数据分类方法 | |
CN112488050A (zh) | 一种结合颜色与纹理的航拍影像场景分类方法和系统 | |
CN109191432A (zh) | 基于域变换滤波多尺度分解的遥感图像云检测方法 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN105894030B (zh) | 基于分层多特征融合的高分辨率遥感图像场景分类方法 | |
CN106294705A (zh) | 一种批量遥感影像预处理方法 | |
CN104657980A (zh) | 一种改进的基于Meanshift的多通道图像分割算法 | |
CN109977899B (zh) | 一种物品识别的训练、推理以及增加新种类的方法和系统 | |
CN109190456A (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
CN108710862A (zh) | 一种高分辨率遥感影像水体提取方法 | |
Zhang et al. | Urban land cover mapping using random forest combined with optical and SAR data | |
Manaf et al. | Hybridization of SLIC and Extra Tree for Object Based Image Analysis in Extracting Shoreline from Medium Resolution Satellite Images. | |
Zhang et al. | Salient target detection based on the combination of super-pixel and statistical saliency feature analysis for remote sensing images | |
CN108596262A (zh) | 一种基于计算机视觉进行植物病斑分类的方法及系统 | |
US10115195B2 (en) | Method and apparatus for processing block to be processed of urine sediment image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210205 Address after: No. 9 Dengzhuang South Road, Haidian District, Beijing 100094 Applicant after: Research Institute of aerospace information innovation, Chinese Academy of Sciences Address before: 100101 Beijing Chaoyang District Andingmen Datun Road No. 20 North Applicant before: Institute of Remote Sensing and Digital Earth, Chinese Academy of Sciences |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |