CN109635726B - 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 - Google Patents
一种基于对称式深度网络结合多尺度池化的滑坡识别方法 Download PDFInfo
- Publication number
- CN109635726B CN109635726B CN201811511696.9A CN201811511696A CN109635726B CN 109635726 B CN109635726 B CN 109635726B CN 201811511696 A CN201811511696 A CN 201811511696A CN 109635726 B CN109635726 B CN 109635726B
- Authority
- CN
- China
- Prior art keywords
- landslide
- network
- image
- training
- sdnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
一种基于对称式深度网络结合多尺度池化的滑坡识别方法,利用大尺寸高分辨率双时相遥感图像,构造训练集图像对和测试集图像对;给定预处理算法参数和网络运行参数;利用训练集图像对生成训练集对应的差异图像,测试集图像对生成测试集对应的差异图像;对差异图像进行多变量形态学重建,以去除噪声和非滑坡区域;将预处理后的图像输入至本发明设计的深度网络MP‑SDNN中,进行网络模型训练,直至网络收敛;将预处理后的测试图像输入至网络MP‑SDNN中,输出滑坡识别结果,能够解决现有滑坡识别方法依赖于传统特征描述子、阈值选择、对噪声敏感导致难以准确识别滑坡区域等问题,提高真实滑坡区域的识别精度,具有识别精度高、快速有效的特点。
Description
技术领域
本发明属于图像处理技术及模式识别领域,特别涉及一种基于对称式深度网络结合多尺度池化的滑坡识别方法。
背景技术
山体滑坡是由地震活动、暴雨、山坡建设、人类活动等因素引发的一种常见的自然灾害。近年来,由于山体滑坡突发概率逐年上升,同时随着遥感技术的快速发展,高分辨率技术的引入使得遥感滑坡图像具有更丰富的地物信息,且滑坡的形状、纹理、上下文信息比较复杂,因此研究高精度滑坡识别方法成为热点课题,用以满足实际应用中对快速有效的滑坡识别方法的需求。
早期的滑坡识别方法主要由构造差异图像,提取变化特征,后处理分析三步组成。目前,主流的滑坡识别方法分为三类,第一类是阈值法,通过阈值分割来实现差异图像中的滑坡区域识别。Paul等人提出了一种用于滑坡识别的单阈值方法,该方法计算简单,能初步得到滑坡区域,但检测精度较低。Jin等人将双阈值分割方法用于滑坡识别中,其结果优于单阈值方法,但该方法鲁棒性较低,且滑坡识别效果不理想。为此,Lv等人提出基于多阈值的滑坡识别方法,为滑坡识别提供更好的识别结果,但同时也引入了更多的参数,导致滑坡识别结果对参数较为敏感等问题。虽然基于阈值分割的滑坡识别方法简单快速,但该类方法仅依赖于灰度值来获取滑坡区域,忽略了滑坡的纹理特征及结构特征,因此,识别效果较差。
为了获得更高精度的滑坡识别结果,学者们提出了第二类滑坡识别方法,该类方法通常由特征提取结合分类器组成,且大多数使用无监督学习算法,如k-means、高斯混合模型(GMM)、模糊聚类(FCM) 等。Gorsevski等人利用模糊k-means方法,结合地形建模和滑坡灾害建模信息,建立滑坡区域预测模型,但对复杂滑坡区域的识别精度较低,因此,Li等人提出基于边缘水平集(ELSE)、基于区域水平集 (RLSE)的滑坡识别方法,并以此为基础,提出了基于马尔科夫随机场(CDMRF)结合GMM方法,实现了更好的滑坡识别结果。然而,ELSE,RLSE和CDMRF三种方法对参数较为敏感,通用性较低。为此,Lei等人采用形态学重建和FCM方法实现滑坡区域检测,由于该方法有效利用了双时相图像的结构信息,因此实现了较高的滑坡识别精度。
由于深度学习技术能实现端到端的目标检测及图像分类,可以有效避免复杂的特征描述算子设计过程,且不需要过多的人工参与,能满足端到端的数据处理要求,所以在许多图像处理任务中非常流行。 Wu等人提出基于深度学习的滑坡识别方法,该方法首先将小波变换作为预处理方法,用以增强模型识别滑坡特征的鲁棒性,之后,利用深度自编码器网络来学习图像的高级特征。Ding等人使用卷积神经网络(CNN)模型和纹理变化检测方法来识别滑坡,由于网络简单且没有充分利用图像的上下文信息,因此识别精度有待提高。随着深度学习技术的快速发展,各种新的网络应运而生,设计适合滑坡识别的深度网络模型能有效解决滑坡识别难题,具有广阔的应用前景。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种基于对称式深度网络结合多尺度池化的滑坡识别方法,能够解决现有滑坡识别方法依赖于传统特征描述子、阈值选择、对噪声敏感导致难以准确识别滑坡区域等问题,提高真实滑坡区域的识别精度,具有识别精度高、快速有效的特点。
为了达到上述目的,本发明采取的技术方案为:
一种基于对称式深度网络结合多尺度池化的滑坡识别方法,基于原始VHR遥感图像构造训练集图像对和测试集图像对,利用双时图像对生成差异图像,然后在差异图像上进行多变量形态学重建 (MMR)运算,将重建结果输入到MP-SDNN网络中学习滑坡特征,训练适合滑坡识别的深度对称式网络,最后对测试图像中的滑坡区域进行识别,具体实现步骤如下:
步骤1:准备数据集:利用大尺寸VHR遥感滑坡图像,构造 1000-10000对双时图像对并将其作为训练图像,构造测试图像 200-2000对;
步骤2:初始化:根据实验效果给定预处理算法参数,根据经验值给定网络运行参数;
步骤3:获取差异图像:将步骤1的图像对作差,分别生成训练数据和测试数据;
步骤4:预处理:对步骤3中的差异图像进行多变量形态学重建 (MMR),在保持图像细节信息不破坏目标区域结构信息的同时,去除噪声和非滑坡区域;
步骤5:训练网络:将预处理过的图像输入至MP-SDNN,通过网络对滑坡特征的学习,进行网络模型训练,直至网络收敛;
步骤6:滑坡识别:将网络测试图像进行预处理操作后,输入到训练好的MP-SDNN网络模型中进行滑坡区域检测,并输出结果。
本发明与现有技术相比的有益效果为:
实际应用中VHR滑坡遥感图像具有较高的复杂性和空间不确定性,传统方法难以实现滑坡区域的高精度识别。因此针对该问题,本发明提出一种基于对称式深度网络结合多尺度池化(MP-SDNN)的滑坡识别方法,旨在保持图像细节的同时抑制噪声和非滑坡区域,由此提高真实滑坡区域的识别精度。本发明设计的对称式深度网络能够兼顾上下文获取和目标定位精度,能利用少量学习样本训练适合滑坡识别的网络模型,识别精度较高;本发明中的对称式深度网络有效结合了多尺度池化的优点,能最大程度的组合不同尺度特征,使网络具有更强的特征学习能力。与现有滑坡识别方法相比,本发明不需要设计特征描述子及分类器,是一种端到端的方法,能快速有效地识别滑坡区域,具有广阔的应用前景。
附图说明
图1是本发明实现的流程图。
图2是本发明设计的对称式深度网络结合多尺度池化 (MP-SDNN)模型。
图3是本发明的网络结构参数。
图4是通过对比多尺度池化前后的特征图视觉效果。
图5(1)是本发明利用几种滑坡识别对比方法对A区域图像进行滑坡识别;图5(2)是利用几种滑坡识别对比方法对B区域图像进行滑坡识别;图5(3)是利用几种滑坡识别对比方法对C区域图像进行滑坡识别;图5(1)、图5(2)、图5(3)中a-d分别对应(a)前时相图像,(b)后时相图像,(c)差异图像,(d)人工标记结果,(e)-(l) 分别对应ELSE,RLSE,CDMRF,基于快速模糊聚类的无监督变化检测(CDFFCM),基于卷积神经网络(CNN),基于全卷积神经网络 (FCN),基于U形网络结构(U-net)和基于对称式深度网络结合多尺度池化(MP-SDNN)的滑坡识别结果。
具体实施方式
下面结合实施例对本发明做进一步详细说明。
附图1是本发明实现步骤的流程原理框图,针对高分辨率滑坡遥感图像的滑坡识别精度不高的问题,图2是本发明设计的对称式深度网络结合多尺度池化(MP-SDNN)模型,本网络可应用于高分辨率遥感图像的滑坡识别。图3是本发明的网络结构参数,对应本发明的对称式深度网络结合多尺度池化(MP-SDNN)模型。本发明设计了一种基于对称式深度网络结合多尺度池化(MP-SDNN)的滑坡识别方法。其中,原始双时相遥感图像由航空测量摄像系统(Zeiss RMK TOP 15)获取,成像结果包含R、G和B三通道彩色图像。在大约 2.4km的飞行高度下分别于2007年12月和2014年11月拍摄于中国 香港,其空间分辨率为0.5m,因此捕获的图像具有比较大的尺寸。本发明方法具体描述如下:
(1)准备数据集:利用上述的大尺寸双时相VHR遥感图像,构造遥感图像训练集图像对和测试集图相对/>为了确保不影响网络中测试数据图像的上下文信息,测试数据(区域 A-C)与训练数据没有重叠,在原始数据上重叠裁剪139幅大小为 473×473的图像对。除此之外,为了增加实验数据和防止网络训练期间产生过拟合,将每个图像对进行旋转,水平和垂直翻转操作,最终得到Ntrain=834对大小为473×473的训练图像和Ntest=3对测试图像对(实验中对应区域A-C);
(2)初始化:设MMR的结构元尺寸为3×3,深度学习网络模型运行参数:学习率η=1×10-5,权重w=0.0005,动量因子α=0.99,最小批量输入m=4,计数次数k=0,批迭代次数epo(epochs)=30(最大迭代次数
(3)获取差异图像DI:将步骤(1)的数据图像对作差,分别生成训练数据DItrain和测试数据DItest,操作如下:
(4)预处理:对DI进行多变量形态学重建(MMR),得到Itrain和 Itest;
(b)将FDI各分量进行线性等级组合,从而将多变量图像变换为单变量图像,对应变换具体操作如下:
(c)形态学闭重建:首先计算标记图像Fmarker,设重建后的图像为R, R=Rε(Rδ(Fmarker,B),B),G为掩膜图像,n1,n2∈N+,n1>1,n2>1,具体操作如下:
其中,1≤i≤n1,和/>分别表示腐蚀和膨胀运算,B表示5×5 的圆形结构元素,b表示3×3的圆形结构元素。当i=n1时迭代结束,即/>Rδ是收敛的,Rδ表示膨胀重建结果。然后执行腐蚀重建运算,具体为:
(d)将重建后的结果R返回RGB彩色空间,表示为I;
其中INT表示取整数运算。
(5)训练网络:将Itrain(由大量I组成的训练集合)输入至网络中进行网络模型训练,直至网络收敛,网络参数见图3,训练参数见初始化,得到对称式深度网络模型MP-SDNN;参见图4,说明多尺度池化方法用于滑坡特征学习的有效性和本发明的优越性;
(6)滑坡识别:对网络测试图像DItest进行MMR操作得到Itest,将Itest输入到训练好的MP-SDNN网络模型中进行滑坡区域检测,最后输出结果。
本发明的效果可以通过以下实验进一步说明。
为了测试本发明识别滑坡区域的有效性和优越性,硬件实验平台为Intel XeonCPU E5-1620v4,3.5GHz,4cores,64GB内存,double NVIDIA GTX 1080GPU,软件平台为PyTorch。利用7种对比方法 (ELSE、RLSE、CDMRF、CDFFCM、CNN、FCN、U-net和MP-SDNN) 对测试图像(区域A-C)进行滑坡识别并评价,本发明通过计算以下几个指标参数来评估算法性能,分别是:/>其中Plm是检测结果与人工标记结果匹配的滑坡总像素数,Pr是参考图像的总像素数,Pl是检测的滑坡总像素数,Prum(对应漏检区域)是参考图像与检测结果不匹配的滑坡总像素数,Pover(对应过检区域)是检测到的假滑坡的总像素数,Pt是测试图像的总像素数,较大的 Precision和Recall对应少量错检和漏检区域,OE代表错检与漏检的总和,主要通过OE,F-score,Accuracy三个指标进行实验对比,实验结果参照表1,附图5显示几种对比滑坡识别方法和本发明在测试图像上的滑坡识别视觉效果。
表1是本发明中为了对比本发明方法的优越性,利用表中各滑坡识别方法对本发明中所用测试图像进行滑坡识别后,计算以下几个指标参数(Pre(Precision),Re(Recall),OE,F-score,Accuracy),进行实验结果评估。
表1
表1进一步表明CDFFCM对滑坡的识别精度高于前三种对比方法。与传统方法相比,深度网络模型能够捕获滑坡区域的语义信息,实现更高精度的目标分割。
图5(1)是本发明中为了对比本发明方法的优越性,利用几种滑坡识别对比方法对A区域图像进行滑坡识别。图5(2)是利用几种滑坡识别对比方法对B区域图像进行滑坡识别,图5(3)是利用几种滑坡识别对比方法对C区域图像进行滑坡识别。
图5(1)、(2)、(3)中a-d分别对应(a)前时相图像,(b)后时相图像,(c)差异图像,(d)人工标记结果,(e)-(l)分别对应ELSE, RLSE,CDMRF,基于快速模糊聚类的无监督变化检测(CDFFCM),基于卷积神经网络(CNN),基于全卷积神经网络(FCN),基于U 形网络结构(U-net)和基于对称式深度网络结合多尺度池化 (MP-SDNN)的滑坡识别结果。其中红色标记区域代表检测到的真实滑坡区域,蓝色标记区域代表错检的滑坡区域,青色标记区域代表漏检的滑坡区域。
从图5(e-h)可以看出,传统方法ELSE、RLSE和CDMRF对滑坡的识别结果较差,而CDFFCM的结果明显优于ELSE、RLSE和 CDMRF,因为CDFFCM有效利用了图像的结构化信息,但是识别结果仍然存在一些过检区域(图中的蓝色区域)。
图5(i-l)表明,CNN识别的滑坡区域较为粗糙,FCN和U-net 的视觉结果明显优于CNN的视觉效果,而本发明提出的MP-SDNN 实现了滑坡识别的最优视觉效果,识别精度在A-C区域上分别达到了91.99%、88.69%和81.95%。通过对图5和表1的综合分析,本发明所提出的深度网络(MP-SDNN)能实现更高精度的滑坡识别结果,在基于遥感图像分析的地质灾害评估方面具有广泛的应用前景。
Claims (1)
1.一种基于对称式深度网络结合多尺度池化的滑坡识别方法,其特征在于,包括如下步骤:
步骤1:准备数据集:利用大尺寸VHR遥感滑坡图像,构造1000-10000对双时图像对并将其作为训练图像,构造测试图像200-2000对;
步骤2:初始化:给定预处理算法参数和网络运行参数;
步骤3:获取差异图像:将步骤1的图像对作差,分别生成训练数据和测试数据;
步骤4:预处理:对步骤3中的差异图像进行多变量形态学重建,在保持图像细节信息不破坏目标区域结构信息的同时,去除噪声和非滑坡区域;
步骤5:训练网络:将预处理过的图像输入至MP-SDNN,通过网络对滑坡特征的学习,进行网络模型训练,直至网络收敛;
步骤6:滑坡识别:将网络测试图像进行预处理操作后,输入到训练好的MP-SDNN网络模型中进行滑坡区域检测,并输出结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811511696.9A CN109635726B (zh) | 2018-12-11 | 2018-12-11 | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811511696.9A CN109635726B (zh) | 2018-12-11 | 2018-12-11 | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109635726A CN109635726A (zh) | 2019-04-16 |
CN109635726B true CN109635726B (zh) | 2023-03-24 |
Family
ID=66073002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811511696.9A Active CN109635726B (zh) | 2018-12-11 | 2018-12-11 | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109635726B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111191393B (zh) * | 2019-12-20 | 2022-02-11 | 河海大学 | 基于离散余弦变换的水动力型滑坡非确定性评价方法及装置 |
CN111898419B (zh) * | 2020-06-17 | 2022-10-25 | 西安交通大学 | 基于级联深度卷积神经网络的分区滑坡检测系统及方法 |
CN112418033A (zh) * | 2020-11-11 | 2021-02-26 | 广州数鹏通科技有限公司 | 基于mask rcnn神经网络的滑坡坡面分割识别方法 |
CN112444841B (zh) * | 2020-12-09 | 2021-10-08 | 同济大学 | 基于分尺度多输入卷积网络的含薄层岩性地震预测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989322A (zh) * | 2015-01-27 | 2016-10-05 | 同济大学 | 一种基于高分辨率遥感影像的多指标融合滑坡检测方法 |
CN106845498A (zh) * | 2017-01-19 | 2017-06-13 | 南京理工大学 | 结合高程的单幅山脉遥感图像滑坡泥石流检测方法 |
CN108319972A (zh) * | 2018-01-18 | 2018-07-24 | 南京师范大学 | 一种针对图像语义分割的端到端差异网络学习方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180045853A1 (en) * | 2016-08-15 | 2018-02-15 | U.S.A. As Represented By The Administrator Of The National Aeronautics And Space Administration | Landslide hazard assessment system and method |
-
2018
- 2018-12-11 CN CN201811511696.9A patent/CN109635726B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989322A (zh) * | 2015-01-27 | 2016-10-05 | 同济大学 | 一种基于高分辨率遥感影像的多指标融合滑坡检测方法 |
CN106845498A (zh) * | 2017-01-19 | 2017-06-13 | 南京理工大学 | 结合高程的单幅山脉遥感图像滑坡泥石流检测方法 |
CN108319972A (zh) * | 2018-01-18 | 2018-07-24 | 南京师范大学 | 一种针对图像语义分割的端到端差异网络学习方法 |
Non-Patent Citations (1)
Title |
---|
基于深层卷积神经网络的公路边坡灾害识别研究;束景晓等;《公路交通科技(应用技术版)》;20171015(第10期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109635726A (zh) | 2019-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ali et al. | Structural crack detection using deep convolutional neural networks | |
Zhang et al. | Remote sensing image spatiotemporal fusion using a generative adversarial network | |
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN111401384B (zh) | 一种变电设备缺陷图像匹配方法 | |
WO2019169816A1 (zh) | 一种用于精细化识别车辆属性的深度神经网络及训练方法 | |
Yin et al. | Hot region selection based on selective search and modified fuzzy C-means in remote sensing images | |
Sirmacek et al. | A probabilistic framework to detect buildings in aerial and satellite images | |
CN111898736B (zh) | 基于属性感知的高效行人重识别方法 | |
CN104331698B (zh) | 一种遥感图像城区提取方法 | |
CN110633708A (zh) | 一种基于全局模型和局部优化的深度网络显著性检测方法 | |
Zhang et al. | Road recognition from remote sensing imagery using incremental learning | |
CN114187450A (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
CN111652273B (zh) | 一种基于深度学习的rgb-d图像分类方法 | |
CN110334656A (zh) | 基于信源概率加权的多源遥感图像水体提取方法及装置 | |
CN107766810B (zh) | 一种云、影检测方法 | |
Xu et al. | Feature-based constraint deep CNN method for mapping rainfall-induced landslides in remote regions with mountainous terrain: An application to Brazil | |
Li et al. | An aerial image segmentation approach based on enhanced multi-scale convolutional neural network | |
CN110991374B (zh) | 一种基于rcnn的指纹奇异点检测方法 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
Gao et al. | Multitemporal intrinsic image decomposition with temporal–spatial energy constraints for remote sensing image analysis | |
CN112818920B (zh) | 一种双时相高光谱图像空谱联合变化检测方法 | |
Hu et al. | Supervised multi-scale attention-guided ship detection in optical remote sensing images | |
CN114119621A (zh) | 基于深度编解码融合网络的sar遥感图像水域分割方法 | |
Khoshboresh-Masouleh et al. | Robust building footprint extraction from big multi-sensor data using deep competition network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |