CN115457407A - 一种基于YoloV4算法的滑坡及形态识别方法 - Google Patents
一种基于YoloV4算法的滑坡及形态识别方法 Download PDFInfo
- Publication number
- CN115457407A CN115457407A CN202211199387.9A CN202211199387A CN115457407A CN 115457407 A CN115457407 A CN 115457407A CN 202211199387 A CN202211199387 A CN 202211199387A CN 115457407 A CN115457407 A CN 115457407A
- Authority
- CN
- China
- Prior art keywords
- landslide
- image
- recognition
- area
- target identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims description 15
- 238000002372 labelling Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 239000000463 material Substances 0.000 claims description 4
- 239000002689 soil Substances 0.000 claims description 4
- 239000004575 stone Substances 0.000 claims description 4
- 210000002969 egg yolk Anatomy 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YoloV4算法的滑坡及形态识别方法,包括:第一步:从卫星遥感影像中获取含有滑坡区域的图像,将图像进行预处理形成含有目标识别特征的图像数据;第二步:将含有目标识别特征的图像数据输入一个运用YoloV4算法建立的目标识别模型,目标识别模型输出滑坡识别结果图像;第三步:根据滑坡识别结果图像的长宽比确定滑坡形状;第四步:获取对应滑坡识别结果图像区域的高程数据,确定滑坡方向并在图像中标出;本发明加入了滑坡形态识别,尤其是滑坡方向上的识别,在方向识别正确率上本发明达到85%以上,在同等硬件环境下,识别速度上提升了三倍以上,可以有效缩短大规模识别工作花费的时间。
Description
技术领域
本发明涉及遥感大数据领域,特别涉及一种基于YoloV4算法的滑坡及形态识别方法。
背景技术
滑坡是一种常见的自然灾害,长期制约着工程建设和经济规划,尤其是发生在人口聚集区域的滑坡灾害极易造成大量人员伤亡和经济损失。同时滑坡后的山体易产生泥石流等次生灾害,对已发生的滑坡进行及时识别并加以治理更有助于防范此类次生灾害的发生。据统计,仅2012年到2018年,滑坡发生总数达到50110处,占地质灾害总数的71%。如此多的滑坡仅靠人工进行遥感图像目视解译筛选十分费力费时,且需要一定技术基础才可以解析出滑坡方向等更多信息,总体查找效率低成本高。目前,随着卫星遥感技术和神经网络技术的发展随之有了许多滑坡确认方法,然而这些方法所注重的滑坡的确认,而没有关注对于滑坡形态方面的研究。在神经网络算法的应用上偏重于复杂的分析上,带来的问题就是实时判别效率低成本高。
发明内容
本发明提出了一种基于YoloV4算法的滑坡及形态识别方法,利用模型对图像区域是否存在滑坡进行自动识别,并用方框标出滑坡,同时通过判断识别框长宽比例进行基本的滑坡形状分类,并结合相应区域的高程数据,对已识别出的滑坡进行方向判断。
为了实现上述目的,本发明提出的技术方案是:
一种基于YoloV4算法的滑坡及形态识别方法,其中,所述方法包括:
第一步:从卫星遥感影像中获取含有滑坡区域的图像,将图像进行预处理形成含有目标识别特征的图像数据;
第二步:将含有目标识别特征的图像数据输入一个目标识别模型,目标识别模型输出滑坡识别结果图像;
第三步:根据滑坡识别结果图像的长宽比确定滑坡形状;
第四步:获取对应滑坡识别结果图像区域的高程数据,使用D8算法和沙依达格分级法确定滑坡方向并在图像中标出;
其中:
所述目标识别特征是使用labelimg标注工具对滑坡区域轮廓进行标注的数据;
所述目标识别模型是基于YoloV4算法的目标识别模型,其建立的步骤是:
第一步:针对已知的不同类型滑坡提取所述目标识别特征建立不同类型滑坡区域样本集;
第二步:运用YoloV4模型对样本集进行训练输出针对已知不同类型滑坡的滑坡识别结果图像形成目标识别模型。
方案进一步是:所述使用labelimg标注工具是选择标注类别为landslide的labelimg标注工具,标注过程中用鼠标拖出标注框进行标注并存储为xml格式。
方案进一步是:所述YoloV4模型由CSPDarknet53、SPP、PANet和Yolo Head组成;
其中:
CSPDarknet53为主干特征提取网络:将输入的图片转化为416×416×3数据格式进行多次卷积处理输出结果特征层;
SPP和PANet为加强特征提取网络:对上述结果特征层进行上采样,即让输入的特征层高和宽变化为原来的两倍,通过特征提取网络形成特征金字塔的结构,完成特征融合;
Yolo Head将提取到的特征融合转化为预测结构。
方案进一步是:所述长宽比小于1.3判断其为圆型滑坡,反之为长型滑坡。
方案进一步是:所述确定滑坡方向是将通过卫星获取对应滑坡识别结果图像区域的高程数据处理成灰度图像并导出,然后根据对应位置坐标换算,在dem灰度图像上确定相应区域并使用D8算法确定滑坡土石物质随高程变化产生的小区域流向和流量上的变化,再通过沙依达格分级法提取出集中的一条流向,并连接集中流向开头与结尾部分,即为识别出的滑坡方向。
方案进一步是:所述已知的不同类型滑坡是基于谷歌Earth、TripleSat影像数据和网络公开的滑坡影像数据集寻找并制作的滑坡图像。
本发明的有益效果是:加入了滑坡形态(滑坡方向识别和滑坡形状基础分类)识别,尤其是滑坡方向上的识别,在方向识别正确率上本发明达到85%以上。相较于市面上广泛使用的图像识别和神经网络算法,本发明使用的YoloV4算法在模型建立速度和识别速度上得到了较快提升,且所占用的硬件资源也更少,在特征的提取上使用labelimg标注工具对滑坡区域轮廓进行标注,图像处理快捷,相较大部分滑坡识别算法,本发明在同等硬件环境下,识别速度上提升了三倍以上,可以有效缩短大规模识别工作花费的时间。本发明能够在识别出滑坡的基础上提供一些专业的形态识别工作,更利于非专业人员使用,应用门槛更低。
将卫星图像输入到训练好的YoloV4目标识别神经网络中,利用该模型对图像区域是否存在滑坡进行自动识别,并用方框标出滑坡,同时通过判断识别框长宽比例进行基本的滑坡形状分类。在此基础上,结合相应区域的高程数据,使用D8算法和沙依达格分级法对已识别出的滑坡进行方向判断,从而实现有效、快捷地发现和初步分析滑坡形态。
下面结合附图和实施例对本发明进行详细描述。
附图说明
图1是本发明基于YoloV4算法的滑坡识别方法流程示意图;
图2是9个滑坡原始图像;
图3是对应9个滑坡原始图像的9个高程灰度图像;
图4是对应9个滑坡原始图像绘制的9个滑坡识别框、滑坡方向和形状分类的结果图。
具体实施方式
一种基于YoloV4算法的滑坡及形态识别方法,如图1所示,首先创建基于YoloV4算法的目标识别模型,其建立的步骤是:
第一步:针对已知的不同类型滑坡提取目标识别特征建立不同类型滑坡区域样本集;
第二步:运用YoloV4模型对样本集进行训练输出针对已知不同类型滑坡的滑坡识别结果图像形成目标识别模型;
然后进行实时的滑坡及形态识别,所述识别方法包括:
第一步:从卫星遥感影像中获取含有滑坡区域的图像,将图像进行预处理形成含有目标识别特征的图像数据;
第二步:将含有目标识别特征的图像数据输入一个目标识别模型,目标识别模型输出滑坡识别结果图像;
第三步:根据滑坡识别结果图像的长宽比确定滑坡形状;
第四步:获取对应滑坡识别结果图像区域的高程数据,使用D8算法和沙依达格分级法确定滑坡方向并在图像中标出;
其中:
所述目标识别特征是使用labelimg标注工具对滑坡区域轮廓进行标注的数据。
方法中所述使用labelimg标注工具是选择标注类别为landslide的labelimg标注工具,标注过程中用鼠标拖出标注框进行标注并存储为xml格式。
方法中所述YoloV4模型由CSPDarknet53、SPP、PANet和Yolo Head组成;
其中:
CSPDarknet53为主干特征提取网络:将输入的图片转化为416×416×3数据格式进行多次卷积处理输出结果特征层;
SPP和PANet为加强特征提取网络:对上述结果特征层进行上采样,即让输入的特征层高和宽变化为原来的两倍,通过特征提取网络形成特征金字塔的结构,完成特征融合;
Yolo Head将提取到的特征融合转化为预测结构。
其中:所述长宽比小于1.3判断其为圆型滑坡,反之为长型滑坡。
所述确定滑坡方向是将通过卫星获取对应滑坡识别结果图像区域的高程数据处理成灰度图像并导出,根据坐标换算在dem灰度图像上确定相应区域并使用D8单流向算法确定滑坡土石物质随高程变化产生的小区域流向和流量上的变化,再通过沙依达格分级法提取出最主要集中的一条流向,并连接最主要集中流向开头与结尾部分,即为识别出的滑坡方向。
所述已知的不同类型滑坡是基于谷歌Earth、TripleSat影像数据和网络公开的滑坡影像数据集寻找并制作的滑坡图像。
上述方法使用YoloV4算法作为框架,其中:Yolov4使用CSPDarknet53作为主干提取网络。
输入图片的大小会被自动转化为为416×416×3(长宽和通道数RGB)。
(首先输入416×416×3(长宽和通道数RGB)的图片,经过一次darknet卷积,变成了416×416×32的,然后经过残差卷积块(包括卷积、标准化,激活函数)的处理,)阵列的尺寸为1×416×416×3.这意味着网络将一次以416×416像素的速度接收一个包含红色、绿色和蓝色分量的图像。
CSPDarknet53的主干特征提取网络会不断地对输入的数据进行特征提取,其特点如下:
CSPDarknet53首先进行了一个普通的Darknet卷积,然后进行多轮残差网络结构Resblock_body,即进行了一系列卷积、激活函数和标准化过程。
输入的图片为416×416×3,在经过第一次卷积后变成了416×416×32,然后在每次Resblock_body中输入图片的长和宽进行了不断的压缩,每次压缩为原本的二分之一。
同时在经过每次Resblock_body压缩后,图片的通道也会得到不断的扩张,每次扩张为原本的两倍。
经过一轮Darknet卷积和五轮Resblock_body卷积后图片变成了13×13×1024。
在这个过程中获得了多个特征层,这些特征层事实上就是输入进来的图片的集合,其中包含着更高语义的信息。
然后,对最终得到的13×13×1024的有效特征层执行三个卷积运算,接着对结果进行最大池化并将其叠加后,再进行三次卷积操作。
PANet结构会对上述结果特征层进行上采样,即让输入的特征层高和宽变化为原来的两倍,并与特征提取网络获得的26×26×512的特征层进行堆叠,上述过程实现了特征融合,形成了特征金字塔的结构。
对获得的结构再次进行五次卷积后继续上采样与堆叠和卷积。此时对三个有效特征层都已经完成特征融合。
之后再进行下采样,完成PANet结构。
Yolo Head结构将提取到的特征层转化为预测结构。
Yolov4使用Mish作为激活函数。
在训练模型时,算法会对数据集使用Mosaic数据增强方式增强数据,在此使用了四张滑坡图片进行拼接,进而丰富检测物体,即滑坡的背景。
在训练时,YoloV4采用CIOU损耗函数,对滑坡的初始识别进行了优化,从而获得了最优的滑坡识别模型。
CIOU来源于IOU,IOU是用来度量目标检测中预测框与真实框的重叠程度:
由于普通IOU并没有考虑框之间的距离,在两个框不重合时IOU为0,无法正确反映两者的距离大小。
同时IOU也无法精确的反映两者的重合度大小,故YoloV4使用了CIOU。
CIOU考虑了目标与锚点的距离、重叠率、尺度、惩罚等因素,从而保证了目标框的回归稳定性,避免了IoU和GIoU在训练时的分散等问题。
而惩罚因子则是将预测框的长宽比与拟合目标框的长宽比考虑进去。
CIOU公式如下:
其中ρ2(b,bgt)代表预测框和真实框的中心点的欧式距离。c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离。α是权重函数,v用来度量宽高比的一致性。
α和v的公式如下:
把1-CIOU就可以得到相应的LOSS:
计算loss:
在计算loss的时候,其实是y_pre与y_true之间的对比:
y_pre是一张图片在网络中的输出,它的内部包含了三个特征层;
y_true是一个实际的图片,它的每个真实框对应的(13,13)、(26,26)、(52,52)网格上的偏移位置、长宽与种类。
在本模型中,y_pre和y_true的shape都是
(batch_size,13,13,3,85)
(batch_size,26,26,3,85)
(batch_size,52,52,3,85)
loss的计算过程:
loss值要求处理三个特征层,在此举例说明最小特征层。
1、利用y_true将所述特征层中实际有对象的点的位置(m,13,13,3,1)和它们相应的类型(m,13,13,3,80)取出。
2、对yolo_outputs的预测输出结果进行处理,获得reshape后的预测值y_pre,该shape是(m,13,13,3,85)。还有解码后的xy,wh。
3、对于每一张图,对所有的真实框与预测框的IOU进行运算,当部分预测框与真实框的重合程度超过0.5时,对其进行忽略。
4、计算ciou作为回归的loss,这里仅计算正样本的回归loss。
5、置信度loss,由两个部分组成,第一部分为实际上有目标存在的,其预测结果中置信度的值与1对比;第二部分是实际上没有目标不存的,其预测结果中置信度的值与0对比。
6、计算预测类型的loss,计算预测类与真实类之间的差异。
其实际上计算的总的loss是三个loss的和,这三个loss分别是:
1、实际存在的框,CIOU LOSS。
2、实际存在的框,将预测结果中的置信度数值与1进行比较;实际不存在的框,则将预测结果中的置信度值与0进行比较。
3、实际存在的框,类型预测结果和实际结果的比较。
滑坡形状分类:
在使用YoloV4识别滑坡的同时记录下识别框四个点的坐标(x1,y1),(x1,y2),(x2,y1),(x2,y2),并计算abs(x1-x2)和abs(y1-y2),判断两者比例是否大于1.3,并根据此将滑坡分为长型(如横长形滑坡、纵长形滑坡等)和圆型(如椭圆形滑坡等)。
若识别框长宽比例小于1.3,在识别图上标注为typeA(圆型);识别框长宽比例大于1.3,则在识别图上标注为typeB(长型)。
识别滑坡方向:
高程数据首先被处理为8位的灰度图像,其共有256个灰度级别,对应灰度取值从0到255,0对应全黑,即此区域范围内该点高程最低,255对应全白,即此区域范围内该点高程最高。处理时使用Python的osgen库读取原始高程数据(tif文件),通过滑动窗口方法,依次读取滑坡影像对应区域高程数据范围,将读取到的高程数据标准化到0到255并存储为灰度图(png文件),用于下述方向识别和人工核验结果。
工作时Python程序读取识别步骤识别到的滑坡识别框坐标,并根据原图和对应的高程灰度图像的图片大小进行坐标转换,然后在转换后的高程灰度图上对应区域遍历所有灰度取值,对选定区域的高程灰度图使用D8单流向算法,确定每个3*3滑动窗口范围内滑坡土石物质随高程变化产生的流向上变化,即在3*3的滑动窗口范围内,计算中心像素格点值与各相邻像素格点间值的距离权落差,即中心格点值与相邻各区域格点值的差除以相邻格点到中心格点之间的距离,取距离权落差最大的像素格点为中心像素格点的流出格点,该方向即为中心像素格点的流向,计算距离权落差的公式如下:
再根据计算出的每个像素点的方向确定总体流量,公式如下:
其中flowk为与该格点相邻或对角格点中方向指向该格点的流量值。
完成滑坡识别框区域内所有灰度像素格点的流向和流量后,根据沙依达格分级法提取出最主要集中的一条流向,并连接集中流向开头与结尾部分即为识别出的滑坡方向,并在滑坡识别图像上绘制方向箭头。
上述基于YoloV4算法的滑坡及形态识别方法实施例,加入了滑坡形态(滑坡方向识别和滑坡形状基础分类)识别,尤其是滑坡方向上的识别,在方向识别正确率上本实施例达到85%以上。相较于市面上广泛使用的其它图像识别和神经网络算法,本实施例使用的YoloV4算法在模型建立速度和识别速度上得到了较快提升,且所占用的硬件资源也更少,在特征的提取上使用labelimg标注工具对滑坡区域轮廓进行标注,图像处理快捷,相较大部分滑坡识别算法,本实施例在同等硬件环境下,识别速度上提升了三倍以上,可以有效缩短大规模识别工作花费的时间。本实施例能够在识别出滑坡的基础上提供一些专业的形态识别工作,更利于非专业人员使用,应用门槛更低。
将卫星图像输入到训练好的YoloV4目标识别神经网络中,利用该模型对图像区域是否存在滑坡进行自动识别,并用方框标出滑坡,同时通过判断识别框长宽比例进行基本的滑坡形状分类。在此基础上,结合相应区域的高程数据,对已识别出的滑坡进行方向判断,从而实现有效、快捷地发现和初步分析滑坡形态。
Claims (6)
1.一种基于YoloV4算法的滑坡及形态识别方法,其特征在于,所述方法包括:
第一步:从卫星遥感影像中获取含有滑坡区域的图像,将图像进行预处理形成含有目标识别特征的图像数据;
第二步:将含有目标识别特征的图像数据输入一个目标识别模型,目标识别模型输出滑坡识别结果图像;
第三步:根据滑坡识别结果图像的长宽比确定滑坡形状;
第四步:获取对应滑坡识别结果图像区域的高程数据,使用D8算法和沙依达格分级法确定滑坡方向并在图像中标出;
其中:
所述目标识别特征是使用labelimg标注工具对滑坡区域轮廓进行标注的数据;
所述目标识别模型是基于YoloV4算法的目标识别模型,其建立的步骤是:
第一步:针对已知的不同类型滑坡提取所述目标识别特征建立不同类型滑坡区域样本集;
第二步:运用YoloV4模型对样本集进行训练输出针对已知不同类型滑坡的滑坡识别结果图像形成目标识别模型。
2.根据权利要求1所述的滑坡及形态识别方法,其特征在于,所述使用labelimg标注工具是选择标注类别为landslide的labelimg标注工具,标注过程中用鼠标拖出标注框进行标注并存储为xml格式。
3.根据权利要求1所述的滑坡及形态识别方法,其特征在于,所述YoloV4模型由CSPDarknet53、SPP、PANet和 Yolo Head组成;
其中:
CSPDarknet53为主干特征提取网络:将输入的图片转化为416×416×3数据格式进行多次卷积处理输出结果特征层;
SPP和PANet为加强特征提取网络:对上述结果特征层进行上采样,即让输入的特征层高和宽变化为原来的两倍,通过特征提取网络形成特征金字塔的结构,完成特征融合;
Yolo Head将提取到的特征融合转化为预测结构。
4.根据权利要求1所述的滑坡及形态识别方法,其特征在于,所述长宽比小于1.3判断其为圆型滑坡,反之为长型滑坡。
5.根据权利要求1所述的滑坡及形态识别方法,其特征在于,所述确定滑坡方向是将通过卫星获取对应滑坡识别结果图像区域的高程数据均一化后处理成灰度图像并导出,然后根据对应位置坐标换算,在dem灰度图像上确定相应区域并使用D8算法确定滑坡土石物质随高程变化产生的小区域流向和流量上的变化,再通过沙依达格分级法提取出集中的一条流向,并连接集中流向开头与结尾部分,即为识别出的滑坡方向。
6.根据权利要求1所述的滑坡及形态识别方法,其特征在于,所述已知的不同类型滑坡是基于谷歌Earth、TripleSat影像数据和网络公开的滑坡影像数据集寻找并制作的滑坡图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211199387.9A CN115457407A (zh) | 2022-09-29 | 2022-09-29 | 一种基于YoloV4算法的滑坡及形态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211199387.9A CN115457407A (zh) | 2022-09-29 | 2022-09-29 | 一种基于YoloV4算法的滑坡及形态识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115457407A true CN115457407A (zh) | 2022-12-09 |
Family
ID=84307315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211199387.9A Pending CN115457407A (zh) | 2022-09-29 | 2022-09-29 | 一种基于YoloV4算法的滑坡及形态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115457407A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704357A (zh) * | 2023-08-09 | 2023-09-05 | 江西省水利科学院(江西省大坝安全管理中心、江西省水资源管理中心) | 基于YOLOv7的堤坝边坡滑坡智能识别与预警方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318085A (zh) * | 2014-10-11 | 2015-01-28 | 福建师范大学 | 一种流域山洪风险识别与提取方法 |
CN108257142A (zh) * | 2018-01-11 | 2018-07-06 | 中国科学院、水利部成都山地灾害与环境研究所 | Dem中斜坡单元提取方法 |
CN108755565A (zh) * | 2018-06-06 | 2018-11-06 | 黄河水利委员会黄河水利科学研究院 | 一种多空间尺度流域产流产沙预测方法及装置 |
CN110570107A (zh) * | 2019-08-28 | 2019-12-13 | 浙江仁欣环科院有限责任公司 | 一种基于dem的山洪灾害风险评估方法 |
US20210026027A1 (en) * | 2019-07-25 | 2021-01-28 | Southwest Jiaotong University | Mechanical-model based earthquake-induced landslide hazard assessment method in earthquake-prone mountainous area |
CN113065455A (zh) * | 2021-03-30 | 2021-07-02 | 中国水利水电科学研究院 | 一种基于深度学习的滑坡风险巡检方法及系统 |
KR102305468B1 (ko) * | 2021-05-12 | 2021-09-30 | 씨티씨 주식회사 | 딥러닝-기반 산사태 분산 감지 시스템 |
-
2022
- 2022-09-29 CN CN202211199387.9A patent/CN115457407A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318085A (zh) * | 2014-10-11 | 2015-01-28 | 福建师范大学 | 一种流域山洪风险识别与提取方法 |
CN108257142A (zh) * | 2018-01-11 | 2018-07-06 | 中国科学院、水利部成都山地灾害与环境研究所 | Dem中斜坡单元提取方法 |
CN108755565A (zh) * | 2018-06-06 | 2018-11-06 | 黄河水利委员会黄河水利科学研究院 | 一种多空间尺度流域产流产沙预测方法及装置 |
US20210026027A1 (en) * | 2019-07-25 | 2021-01-28 | Southwest Jiaotong University | Mechanical-model based earthquake-induced landslide hazard assessment method in earthquake-prone mountainous area |
CN110570107A (zh) * | 2019-08-28 | 2019-12-13 | 浙江仁欣环科院有限责任公司 | 一种基于dem的山洪灾害风险评估方法 |
CN113065455A (zh) * | 2021-03-30 | 2021-07-02 | 中国水利水电科学研究院 | 一种基于深度学习的滑坡风险巡检方法及系统 |
KR102305468B1 (ko) * | 2021-05-12 | 2021-09-30 | 씨티씨 주식회사 | 딥러닝-기반 산사태 분산 감지 시스템 |
Non-Patent Citations (5)
Title |
---|
何灿灿: "《中国优秀硕士学位论文全文数据库基础科学辑》" * |
张汉奎;俞乐;: "一种新的坡位定量描述方法及其与滑坡发生的关系" * |
李文凯;张唯;秦家豪;王红平;: "基于DEM和高分辨率遥感影像的"膨胀-融合"式地表沟壑提取" * |
毕华兴,中北理,阿部和时: "GIS支持下的滑坡空间预测与危险等级划分" * |
陈哲锋;高牧寒;修晓龙;李景;: "基于遥感与D8算法的泥石流威胁对象信息提取与应急防治对策分析" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704357A (zh) * | 2023-08-09 | 2023-09-05 | 江西省水利科学院(江西省大坝安全管理中心、江西省水资源管理中心) | 基于YOLOv7的堤坝边坡滑坡智能识别与预警方法 |
CN116704357B (zh) * | 2023-08-09 | 2023-10-27 | 江西省水利科学院(江西省大坝安全管理中心、江西省水资源管理中心) | 基于YOLOv7的堤坝边坡滑坡智能识别与预警方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
US7983486B2 (en) | Method and apparatus for automatic image categorization using image texture | |
CN110309781B (zh) | 基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法 | |
CN111914611B (zh) | 城市绿地高分遥感监测方法与系统 | |
CN107092884B (zh) | 一种快速粗精级联行人检测方法 | |
CN111950453A (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
JP2007517315A (ja) | デジタルカラー画像における空の検出 | |
JP2012088796A (ja) | 画像領域分割装置、画像領域分割方法および画像領域分割プログラム | |
CN113688821B (zh) | 一种基于深度学习的ocr文字识别方法 | |
CN113239736B (zh) | 一种基于多源遥感数据的土地覆盖分类标注图获取方法 | |
CN114332620A (zh) | 基于特征融合和注意力机制的机载图像车辆目标识别方法 | |
CN113033315A (zh) | 一种稀土开采高分影像识别与定位方法 | |
CN113569724B (zh) | 基于注意力机制和扩张卷积的道路提取方法及系统 | |
CN115457407A (zh) | 一种基于YoloV4算法的滑坡及形态识别方法 | |
CN111160389A (zh) | 一种基于融合vgg的岩性识别方法 | |
CN114155474A (zh) | 基于视频语义分割算法的损伤识别技术 | |
CN115937736A (zh) | 基于注意力和上下文感知的小目标检测方法 | |
CN116630301A (zh) | 基于超分辨率和YOLOv8的带钢表面小目标缺陷检测方法及系统 | |
Ding et al. | Building detection in remote sensing image based on improved YOLOv5 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN102222235A (zh) | 基于对象集成高度信息的面向对象的高光谱分类处理方法 | |
CN114170526A (zh) | 基于轻量化网络的遥感影像多尺度目标检测识别方法 | |
CN116310826B (zh) | 一种基于图神经网络的高分遥感影像林地二级分类方法 | |
CN113052234A (zh) | 一种基于图像特征和深度学习技术的玉石分类方法 | |
CN106169086B (zh) | 导航数据辅助下的高分辨率光学影像损毁道路提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20221209 |
|
RJ01 | Rejection of invention patent application after publication |