CN110765934B - 一种多源数据融合的地质灾害识别方法 - Google Patents

一种多源数据融合的地质灾害识别方法 Download PDF

Info

Publication number
CN110765934B
CN110765934B CN201911005746.0A CN201911005746A CN110765934B CN 110765934 B CN110765934 B CN 110765934B CN 201911005746 A CN201911005746 A CN 201911005746A CN 110765934 B CN110765934 B CN 110765934B
Authority
CN
China
Prior art keywords
geological disaster
area
geological
bare
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911005746.0A
Other languages
English (en)
Other versions
CN110765934A (zh
Inventor
崔圣华
裴向军
杨晴雯
习朝辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Univeristy of Technology
Original Assignee
Chengdu Univeristy of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Univeristy of Technology filed Critical Chengdu Univeristy of Technology
Priority to CN201911005746.0A priority Critical patent/CN110765934B/zh
Publication of CN110765934A publication Critical patent/CN110765934A/zh
Application granted granted Critical
Publication of CN110765934B publication Critical patent/CN110765934B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/008Vector quantisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种多源数据融合的地质灾害识别方法。本发明将地表变形和航拍图像智能识别融合应用到地质灾害识别,是一种避免盲目、提高效率和精度的识别方式。InSAR可以筛选出地表变形量较大的位置,这些位置恰是地质灾害易发区;在缩小目标后,采用遥感图像进行图像识别,而后对重点范围采用无人飞机进行航拍,获得更高精度的影像,提高识别精度;通过多层次、多手段、多精度的多元数据融合方法,可为地质灾害区治理方式的选择及灾害的发展趋势提供大量真实可靠的数据。

Description

一种多源数据融合的地质灾害识别方法
技术领域
本发明涉及地质灾害识别技术领域,具体涉及一种多源数据融合的地质灾害识别方法。
背景技术
我国是一个地质灾害频发的国家,对居民的生命安全和生产活动产生严重的威胁,对经济发展产生极大的障碍,同时也严重影响国家重大战略实施。无论是地震诱发的地质灾害,还是震后降雨、台风、人为活动等引起的地质灾害,对某区域范围开展快速识别,查明地质灾害分布范围与数量、发育规模与密度,可为地质灾害风险估计提供基础数据,也为灾害应急处置、综合防治和选址避让提供科学依据,同时服务于国家重大工程设施的选线、选址。
部分地质灾害发生位置较为明显,人工识别较为容易,但由于地质环境的复杂性,更多的地质灾害发育在高山峡谷区,这里往往人口稀少、植被茂密、斜坡高陡、具有多个斜坡带,使得这些地方的地质灾害往往具有隐蔽性,让人难以发现,而被误判为地质灾害低发区,若在这些地方修建工程,将引起巨大的潜在隐患。同时,无论是人工对地质灾害的现场调查识别、室内遥感识别,都受局于人力,在大批量或隐蔽性地质灾害面前,很难做到时效性和高效性。
传统的地质灾害识别和判定大多是通过人工调查,虽然准确率高,但效率低。传统航拍图识别方式是采用在航拍图上人工识别,对于较大范围的地质灾害调查和防控,目的性较差、效率较低,且容易造成误判。
发明内容
针对现有技术中的上述不足,本发明提供的一种多源数据融合的地质灾害识别方法解决了地质灾害识别结果不准确的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种多源数据融合的地质灾害识别方法,包括以下步骤:
S1、基于InSAR数据确定“地质灾害潜在高发区”;
S2、对“地质灾害潜在高发区”的地质灾害进行遥感排查,采用NDVI法提取遥感图中裸地像素区,以此代表地质灾害区,并用裸地分布的点密度和面密度来计算地质灾害发育程度,获得“地质灾害高发区”;
S3、对“地质灾害高发区”通过无人机进行航拍得到高精度航拍图,基于RGB方法得到裸地像素区域,采用坡度筛选法排除建筑、水体和道路的非地质灾害裸地像素,其余裸地像素认为是地质灾害区域,以此获得“地质灾害准确位置”;
S4、对含“地质灾害准确位置”的图片,通过Canny算法各地质灾害点进行边界检测,得到“地质灾害边界”图片,采用Scan2CAD软件进行各“地质灾害边界”矢量化,得到地质灾害点的边界矢量数据,包括坐标、长度和方向数据,将边界矢量数据作为识别结果。
进一步地:所述步骤S1中“地质灾害潜在高发区”的确定方法为:对InSAR数据进行影像配准、生成干涉图、去平地效应、滤波及相位解缠和相位转换及地理编码处理后获得变形图,通过变形图确定区域内变形最大的范围,将该范围作为“地质灾害潜在高发区”。
进一步地:所述步骤S2中“地质灾害高发区”的获得方法为:
计算“地质灾害潜在高发区”遥感影像像素点的NDVI值,计算公式为:
NDVI=(NIR-R)/(NIR+R)
上式中,NIR为近红外波段的反射值,R为红波段的反射率值;
将遥感影像像素点的NDVI值生成直方图,选择直方图中多个波谷对应的最小阈值作为裸地的阈值,通过阈值获取植被与裸地的分割值,并通过分割值从遥感影像中分离出裸地信息;
利用近红外波段对阴影敏感的特征将裸地信息中的植被信息去除,得到更准确的裸地影像区域;
用裸地分布的点密度和面密度来计算地质灾害发育程度,获得“地质灾害高发区”,点密度计算公式为LC=NL/AL,面密度计算公式为LS=AS/AL,其中NL为地质灾害点个数,AL为统计区域总面积,AS为地质灾害总面积,当LC>3或LS>0.1则认为该区域为“地质灾害高发区”。
进一步地:所述步骤S3中“地质灾害准确位置”的获得方法为:
对“地质灾害高发区”航拍图进行图像坐标校正,利用Matlab软件对校正后的航拍图进行图像尺寸归一化和直方图均衡化,利用IPP软件对归一化和均衡化后的航拍图像进行灰度处理,对灰度处理后的航拍图像根据不同区域的RGB值计算识别指数,并提取大于识别指数的区域,将该区域作为植被区域,将其余区域作为裸地位置;
根据自动识别的裸地位置,获取裸地位置的DEM数据,通过ARCGIS软件对DEM数据进行坡度计算,当坡度在20~90゜时将该裸地位置区域作为地质灾害识别结果,以此排除建筑、水体、道路等非地质灾害裸地,获得“地质灾害准确位置”。
进一步地:所述识别指数的计算公式为:
CI=a×ExG+b×ExGR+c×CIVE+d×VEG
上式中,CI为识别指数,a、b、c和d均为中间系数,ExG为超绿指数,ExGR为超红超绿差分指数,CIVE为植被提取颜色指数,VEG为植被因子;
其中,超绿指数ExG的计算公式为:
ExG=2G-R-B
上式中,R、G和B分别为可见光红色、绿色和蓝色通道的值;
超红超绿差分指数ExGR的计算公式为:
ExGR=ExG-ExR
上式中,ExR为超红指数,ExR的计算公式为ExR=1.4R-G;
植被提取颜色指数CIVE的计算公式为:
CIVE=0.441R'-0.811G'+0.385B'+18.78745
上式中,R'、G'和B'分别为可见光红色、绿色和蓝色通道的归一化值;
植被因子VEG的计算公式为:
VEG=G/(R0.667B0.333)。
本发明的有益效果为:本发明将地表变形和航拍图像智能识别方法融合应用到地质灾害识别,是一种避免盲目、提高效率和精度的识别方式。InSAR可以筛选出地表变形量较大的位置,这些位置恰是地质灾害易发区;在缩小目标后,采用遥感图像进行图像识别,而后对重点范围采用无人飞机进行航拍,获得更高精度的影像,提高识别精度;通过多层次、多手段、多精度的多元数据融合方法,可为地质灾害区治理方式的选择及灾害的发展趋势提供大量真实可靠的数据。
附图说明
图1为本发明流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种多源数据融合的地质灾害识别方法,包括以下步骤:
S1、基于InSAR数据确定“地质灾害潜在高发区”;
“地质灾害潜在高发区”的确定方法为:对InSAR数据进行影像配准、生成干涉图、去平地效应、滤波及相位解缠和相位转换及地理编码处理后获得变形图,通过变形图确定区域内变形最大的范围,将该范围作为“地质灾害潜在高发区”。
S2、对“地质灾害潜在高发区”的地质灾害进行遥感排查,采用NDVI法提取遥感图中裸地像素区,以此代表地质灾害区,并用裸地分布的点密度和面密度来计算地质灾害发育程度,获得“地质灾害高发区”;
“地质灾害高发区”的获得方法为:
计算“地质灾害潜在高发区”遥感影像像素点的NDVI值,计算公式为:
NDVI=(NIR-R)/(NIR+R)
上式中,NIR为近红外波段的反射值,R为红波段的反射率值;负值表示地面覆盖为云、水、雪等,对可见光高反射。0表示有岩石或裸土等裸地;正值,表示有植被覆盖,且随覆盖度增大而增大。
将遥感影像像素点的NDVI值生成直方图,选择直方图中多个波谷对应的最小阈值作为裸地的阈值,通过阈值获取植被与裸地的分割值,并通过分割值从遥感影像中分离出裸地信息;
利用近红外波段对阴影敏感的特征将裸地信息中的植被信息去除,得到更准确的裸地影像区域;
用裸地分布的点密度和面密度来计算地质灾害发育程度,获得“地质灾害高发区”,点密度计算公式为LC=NL/AL,面密度计算公式为LS=AS/AL,其中NL为地质灾害点个数,AL为统计区域总面积,AS为地质灾害总面积,当LC>3或LS>0.1则认为该区域为“地质灾害高发区”。
由于地形阴影的影响,在提取的裸地信息中,仍存在部分阴影中的植被信息被误提出来,因此需进一步利用近红外波段对阴影敏感的特征将裸地信息中的植被信息去除得到裸地影像区域。
S3、对“地质灾害高发区”通过无人机进行航拍得到高精度航拍图,基于RGB方法得到裸地像素区域,采用坡度筛选法排除建筑、水体和道路的非地质灾害裸地像素,其余裸地像素认为是地质灾害区域,以此获得“地质灾害准确位置”;
“地质灾害准确位置”的获得方法为:
对“地质灾害高发区”航拍图进行图像坐标校正,利用Matlab软件对校正后的航拍图进行图像尺寸归一化和直方图均衡化,利用IPP软件对归一化和均衡化后的航拍图像进行灰度处理,对灰度处理后的航拍图像根据不同区域的RGB值计算识别指数,并提取大于识别指数的区域,将该区域作为植被区域,将其余区域作为裸地位置;
根据自动识别的裸地位置,获取裸地位置的DEM数据,通过ARCGIS软件对DEM数据进行坡度计算,当坡度在20~90゜时将该裸地位置区域作为地质灾害识别结果,以此排除建筑、水体、道路等非地质灾害裸地,获得“地质灾害准确位置”。
基于高精度遥感影响的地质灾害排查获得的裸地影像区域,其面积和密度大小代表了潜在地质灾害发育程度,但区域内可能包括建筑、水体、道路等区域,而遥感影像受到精度限制,无法完全排除这些因素的干扰,而无人飞机航拍可达到mm级精度,从而可以开展高精度无人飞机航拍影像进行详查和地质灾害的自动识别。
图像坐标校正:选择分布在图像边缘和中心、具有标志性的若干控制点。选择3-5阶多项式变换几何校正。选择双线性内插值法或立方卷积内插法重采样,前者从输入坐标周围的4个最近像素计算其加权平均灰度,并将其指定给输出坐标;后者从输入坐标周围最近的16个像素计算其加权平均灰度级并递铺镇其确定为输入出坐标。双线性内插值法适用于图像较大,可以减少处理时间,但会降低图像分辨率;立方卷积内插法处理结果分辨率高,但处理时间较长,适用于对精度要求高的小范围图像。
图像尺寸归一化和直方图均衡化:直方图均衡化的目的是降低光照条件对图像的影响,提高对比度;尺寸归一化的目的是把图像缩放到同样大小以方便特征的提取。
图像灰度处理:用IPP软件对采集到的图像进行灰度处理。是将彩色图像转化成为灰度图像的过程。灰度图像仍然可以反映图像的亮度等级和色度范围等图像信息。灰度直方图的纵坐标表示与其对应的灰度级所包含的像素数量。
识别指数的计算公式为:
CI=a×ExG+b×ExGR+c×CIVE+d×VEG
上式中,CI为识别指数,a、b、c和d均为中间系数,ExG为超绿指数,ExGR为超红超绿差分指数,CIVE为植被提取颜色指数,VEG为植被因子;
其中,超绿指数ExG的计算公式为:
ExG=2G-R-B
上式中,R、G和B分别为可见光红色、绿色和蓝色通道的值;
超红超绿差分指数ExGR的计算公式为:
ExGR=ExG-ExR
上式中,ExR为超红指数,ExR的计算公式为ExR=1.4R-G;
植被提取颜色指数CIVE的计算公式为:
CIVE=0.441R'-0.811G'+0.385B'+18.78745
上式中,R'、G'和B'分别为可见光红色、绿色和蓝色通道的归一化值;
植被因子VEG的计算公式为:
VEG=G/(R0.667B0.333)。
S4、对含“地质灾害准确位置”的图片,通过Canny算法各地质灾害点进行边界检测,得到“地质灾害边界”图片,采用Scan2CAD软件进行各“地质灾害边界”矢量化,得到地质灾害点的边界矢量数据,包括坐标、长度和方向数据,将边界矢量数据作为识别结果。
基于Canny算法进行边界提取:边缘是指边界处像素灰度有阶跃变化的那些像素的集合,是图像上灰度变化最剧烈的地方。边缘检测就是利用了这个特点,对图像各个像素点进行微分或求二阶微分来确定边缘像素点。Canny边缘检测方法具有相对信噪比大、检测精度高等优点。(1)应用高斯滤波来平滑图像,目的是去除噪声(2)找寻图像的强度梯度(intensity gradients)(3)应用非最大抑制(non-maximum suppression)技术来消除边误检(本来不是但检测出来是)(4)应用双阈值的方法来决定可能的(潜在的)边界(5)利用滞后技术来跟踪边界。
Canny边缘检测后的图像仍是图片格式的像素图像,需要对其进行矢量化处理。对边界曲线的提取,实际是建立矢量化图形数据的过程,为后期导入Ansys和Flac等数值建模和分析软件提供矢量数据。采用的图像矢量化提取软件为Scan2CAD软件,采用灰阶处理、光栅平滑、矢量化DXF导出等操作,再导入到AutoCAD进行细节修改,最终得到边界矢量模型。
本发明将地表变形和航拍图像智能识别方法融合应用到地质灾害识别,是一种避免盲目、提高效率和精度的识别方式。InSAR可以筛选出地表变形量较大的位置,这些位置恰是地质灾害易发区;在缩小目标后,采用遥感图像进行图像识别,而后对重点范围采用无人飞机进行航拍,获得更高精度的影像,提高识别精度;通过多层次、多手段、多精度的多元数据融合方法,可为地质灾害区治理方式的选择及灾害的发展趋势提供大量真实可靠的数据。

Claims (2)

1.一种多源数据融合的地质灾害识别方法,其特征在于,包括以下步骤:
步骤S1、基于InSAR数据确定“地质灾害潜在高发区”;
步骤S2、对“地质灾害潜在高发区”的地质灾害进行遥感排查,采用NDVI法提取遥感图中裸地像素区,以此代表地质灾害区,并用裸地分布的点密度和面密度来计算地质灾害发育程度,获得“地质灾害高发区”;
步骤S3、对“地质灾害高发区”通过无人机进行航拍得到高精度航拍图,基于RGB方法得到裸地像素区域,采用坡度筛选法排除建筑、水体和道路的非地质灾害裸地像素,其余裸地像素认为是地质灾害区域,以此获得“地质灾害准确位置”;
步骤S4、对含“地质灾害准确位置”的图片,通过Canny算法各地质灾害点进行边界检测,得到“地质灾害边界”图片,采用Scan2CAD软件进行各“地质灾害边界”矢量化,得到地质灾害点的边界矢量数据,包括坐标、长度和方向数据,将边界矢量数据作为识别结果;
所述步骤S1中“地质灾害潜在高发区”的确定方法为:对InSAR数据进行影像配准、生成干涉图、去平地效应、滤波及相位解缠和相位转换及地理编码处理后获得变形图,通过变形图确定区域内变形最大的范围,将该范围作为“地质灾害潜在高发区”;
所述步骤S2中“地质灾害高发区”的获得方法为:
计算“地质灾害潜在高发区”遥感影像像素点的NDVI值,计算公式为:
NDVI=(NIR-R)/(NIR+R)
上式中,NIR为近红外波段的反射值,R为红波段的反射率值;
将遥感影像像素点的NDVI值生成直方图,选择直方图中多个波谷对应的最小阈值作为裸地的阈值,通过阈值获取植被与裸地的分割值,并通过分割值从遥感影像中分离出裸地信息;
利用近红外波段对阴影敏感的特征将裸地信息中的植被信息去除,得到更准确的裸地影像区域;
用裸地分布的点密度和面密度来计算地质灾害发育程度,获得“地质灾害高发区”,点密度计算公式为LC=NL/AL,面密度计算公式为LS=AS/AL,其中NL为地质灾害点个数,AL为统计区域总面积,AS为地质灾害总面积,当LC>3或LS>0.1则认为该区域为“地质灾害高发区”;
所述步骤S3中“地质灾害准确位置”的获得方法为:
对“地质灾害高发区”航拍图进行图像坐标校正,利用Matlab软件对校正后的航拍图进行图像尺寸归一化和直方图均衡化,利用IPP软件对归一化和均衡化后的航拍图像进行灰度处理,对灰度处理后的航拍图像根据不同区域的RGB值计算识别指数,并提取大于识别指数的区域,将该区域作为植被区域,将其余区域作为裸地位置;
根据自动识别的裸地位置,获取裸地位置的DEM数据,通过ARCGIS软件对DEM数据进行坡度计算,当坡度在20~90゜时将该裸地位置区域作为地质灾害识别结果,以此排除建筑、水体和道路非地质灾害裸地,获得“地质灾害准确位置”。
2.根据权利要求1所述的多源数据融合的地质灾害识别方法,其特征在于,所述识别指数的计算公式为:
CI=a×ExG+b×ExGR+c×CIVE+d×VEG
上式中,CI为识别指数,a、b、c和d均为中间系数,ExG为超绿指数,ExGR为超红超绿差分指数,CIVE为植被提取颜色指数,VEG为植被因子;其中,超绿指数ExG的计算公式为:
ExG=2G-R-B
上式中,R、G和B分别为可见光红色、绿色和蓝色通道的值;
超红超绿差分指数ExGR的计算公式为:
ExGR=ExG-ExR
上式中,ExR为超红指数,ExR的计算公式为ExR=1.4R-G;
植被提取颜色指数CIVE的计算公式为:
CIVE=0.441R'-0.811G'+0.385B'+18.78745
上式中,R'、G'和B'分别为可见光红色、绿色和蓝色通道的归一化值;植被因子VEG的计算公式为:
VEG=G/(R0.667B0.333)。
CN201911005746.0A 2019-10-22 2019-10-22 一种多源数据融合的地质灾害识别方法 Active CN110765934B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911005746.0A CN110765934B (zh) 2019-10-22 2019-10-22 一种多源数据融合的地质灾害识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911005746.0A CN110765934B (zh) 2019-10-22 2019-10-22 一种多源数据融合的地质灾害识别方法

Publications (2)

Publication Number Publication Date
CN110765934A CN110765934A (zh) 2020-02-07
CN110765934B true CN110765934B (zh) 2021-02-19

Family

ID=69332753

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911005746.0A Active CN110765934B (zh) 2019-10-22 2019-10-22 一种多源数据融合的地质灾害识别方法

Country Status (1)

Country Link
CN (1) CN110765934B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368716B (zh) * 2020-02-28 2023-04-28 重庆市规划和自然资源调查监测院 一种基于多源时空数据的地质灾害灾毁耕地提取方法
CN112051609B (zh) * 2020-08-21 2023-01-06 成都理工大学 地震波成像方法、系统、存储介质、计算机程序、终端
CN112967176A (zh) * 2021-02-03 2021-06-15 成都理工大学 一种利用Image J和Photoshop对植物盖度分析的方法
CN113687445B (zh) * 2021-10-27 2022-01-04 成都理工大学 基于多源数据融合及电磁震三维反演的注浆评价方法
CN114742855B (zh) * 2022-04-11 2023-06-30 电子科技大学 一种融合阈值分割与图像叠加技术的半自动图像标签方法
CN114663790B (zh) * 2022-05-24 2022-08-26 济宁德信测绘有限公司 一种智能遥感测绘方法及系统
CN116030354B (zh) * 2023-03-29 2023-06-16 东华理工大学南昌校区 一种基于遥感数据融合的地质灾害分析方法及系统
CN116434072B (zh) * 2023-06-12 2023-08-18 山东省国土空间生态修复中心(山东省地质灾害防治技术指导中心、山东省土地储备中心) 基于多源数据的地质灾害早期识别方法、装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205354289U (zh) * 2016-01-25 2016-06-29 中南大学 一种基于多源视频监测技术的地质灾害全天候智能化报警系统
CN106526590A (zh) * 2016-11-04 2017-03-22 山东科技大学 一种融合多源sar影像工矿区三维地表形变监测及解算方法
CN109598273A (zh) * 2018-12-03 2019-04-09 中国矿业大学 一种融合地表温度和建筑指数的城市实体边界识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340387B2 (en) * 2007-04-13 2012-12-25 Three Palm Software Fast preprocessing algorithms for digital mammography CAD and workstation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205354289U (zh) * 2016-01-25 2016-06-29 中南大学 一种基于多源视频监测技术的地质灾害全天候智能化报警系统
CN106526590A (zh) * 2016-11-04 2017-03-22 山东科技大学 一种融合多源sar影像工矿区三维地表形变监测及解算方法
CN109598273A (zh) * 2018-12-03 2019-04-09 中国矿业大学 一种融合地表温度和建筑指数的城市实体边界识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
汶川地震诱发黄洞子沟地质灾害链效应及断链措施研究;梁玉飞;《灾害学》;20180731;第33卷(第3期);全文 *
重大地质灾害隐患早期识别中综合遥感应用的思考与建议;葛大庆等;《武汉大学学报信息科学版》;20190731;第44卷(第7期);全文 *

Also Published As

Publication number Publication date
CN110765934A (zh) 2020-02-07

Similar Documents

Publication Publication Date Title
CN110765934B (zh) 一种多源数据融合的地质灾害识别方法
CN111696123A (zh) 超像素分类识别的遥感图像水域分割提取方法
CN107610164B (zh) 一种基于多特征混合的高分四号影像配准方法
CN111931709B (zh) 遥感影像的水体提取方法、装置、电子设备及存储介质
CN111062368B (zh) 基于Landsat时间序列遥感影像的城市更新区域监测方法
CN111339948B (zh) 一种高分辨率遥感影像新增建筑自动识别方法
CN109919951B (zh) 语义关联的面向对象城市不透水面遥感提取方法及系统
CN110033499B (zh) 一种基于Landsat OLI影像水体制图法
Mostafa et al. Shadow identification in high resolution satellite images in the presence of water regions
CN111553922A (zh) 一种卫星遥感影像自动云检测方法
CN110889840A (zh) 面向地物目标的高分6号遥感卫星数据的有效性检测方法
CN103927759A (zh) 一种航空图像自动云检测方法
CN114049566B (zh) 一种逐步细化的陆地卫星影像云和云阴影检测方法及装置
Jiang et al. MFPA-Net: An efficient deep learning network for automatic ground fissures extraction in UAV images of the coal mining area
Cheng et al. Multi-scale Feature Fusion and Transformer Network for urban green space segmentation from high-resolution remote sensing images
CN108648200B (zh) 一种间接的城市高分辨率不透水面提取方法
CN114332644A (zh) 一种基于视频卫星数据的大视场交通密度获取方法
CN114419458A (zh) 一种基于高分辨率卫星遥感的裸土监测方法、装置和设备
CN107977968B (zh) 基于建筑物阴影信息挖掘的建筑物分层检测方法
CN111882573B (zh) 一种基于高分辨率影像数据的耕地地块提取方法及系统
CN116363522A (zh) 一种基于深度学习的海岸带围填海变化遥感监测方法
CN116246272A (zh) 针对国产卫星多光谱图像质量标记的云雪区分方法
CN105241886B (zh) 一种基于hvs与引导滤波器的土遗址裂缝检测方法
CN114241333A (zh) 一种基于多源时序遥感影像精准识别新生滑坡区域的方法
Liu et al. Identification of Damaged Building Regions from High-Resolution Images Using Superpixel-Based Gradient and Autocorrelation Analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant