CN117611877B - 基于ls-yolo网络的遥感影像滑坡体检测方法 - Google Patents
基于ls-yolo网络的遥感影像滑坡体检测方法 Download PDFInfo
- Publication number
- CN117611877B CN117611877B CN202311421577.5A CN202311421577A CN117611877B CN 117611877 B CN117611877 B CN 117611877B CN 202311421577 A CN202311421577 A CN 202311421577A CN 117611877 B CN117611877 B CN 117611877B
- Authority
- CN
- China
- Prior art keywords
- layer
- network
- convolution
- input
- landslide
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 90
- 238000000605 extraction Methods 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000011176 pooling Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 73
- 230000004927 fusion Effects 0.000 claims description 48
- 238000012549 training Methods 0.000 claims description 39
- 238000012360 testing method Methods 0.000 claims description 15
- 238000012795 verification Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 15
- 230000003044 adaptive effect Effects 0.000 description 6
- 101100400452 Caenorhabditis elegans map-2 gene Proteins 0.000 description 5
- 101150064138 MAP1 gene Proteins 0.000 description 5
- 239000011800 void material Substances 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于LS‑YOLO网络的遥感影像滑坡体检测方法,主要解决现有技术计算量大、检测精度低以及存在较多漏检错检的问题。其实现步骤为:1)基于有效通道注意力、平均池化和空间可分离卷积设计多尺度特征提取模块;2)在现有Decoupled Head进行改进,在其回归任务分支中引入上下文增强模块;3)在YOLOv5网络的Neck中引入多尺度特征提取模块,并使用改进后的Decoupled Head替换原网络相应部分,得到改进后的LS‑YOLO网络模型;4)利用模型对遥感影像进行检测获取结果。本发明能够有效提高多尺度滑坡的定位精度、提升检测准确性。可用于光学遥感影像中的滑坡检测。
Description
技术领域
本发明属于图像处理技术领域,进一步涉及深度学习和数字图像处理技术,具体为一种基于LS-YOLO网络的遥感影像滑坡体检测方法,其中涉及的滑坡目标检测网络LS-YOLO(Landslide-You Only Look Once)是在现有单阶段目标检测网络YOLOv5基础上改进得到。本发明可用于光学遥感影像中滑坡的自动检测。
背景技术
滑坡是山区最常见、破坏性最大的自然灾害之一,通常由地震或暴雨引发,严重威胁人民的生命财产安全和社会稳定。滑坡一旦发生不仅会破坏道路、桥梁和电线等基础设施,也会破坏植被和土壤,造成土地退化。精确、快速的定位滑坡发生的位置,将其告知相关部门对于灾害的预防、应对和救援至关重要。基于图像的滑坡目标检测技术依赖图像特征来判断是否存在滑坡,并定位滑坡所在的位置。随着遥感影像和深度学习技术的发展,将遥感影像批量的输入到深度学习模型中,模型使用训练好的权重可以自动的检测影像中的滑坡,提高了滑坡检测的准确率。
Bo Yu和Chong Xu等作者在其发表的论文“HADeenNet:A hierarchical-attention multi-scaledeconvolution network for landslide detection”(International Journal of Applied Earth Observations and Geoinformationpp.1569-8432,2022)中提出了一种基于HADeenNet来检测遥感影像中滑坡的方法。然而,其中HADeenNet将同一图像转换成两种不同分辨率的图像作为输入,包含了大量的卷积和反卷积操作,从而会导致网络参数量大,难以实时检测遥感影像中的滑坡,同时存在对不同尺寸的图像的滑坡检测能力不一,滑坡检测精度不足的问题。
杜宇峰和黄亮等作者在其发表的论文“基于DETR的高分辨率遥感影像滑坡体识别与检测”(测绘通报2023年第5期16-20页)中提出了一种基于Transformer的DETR网络结构来检测遥感影像中滑坡的方法。该方法采用ResNet-50网络对输入图片进行特征提取并输入Transformer编解码器结构中进行训练,使用匈牙利匹配算法作为损失函数进行滑坡检测。刘学虎和欧鸥等作者在其发表的论文“融合注意力机制和空洞卷积的滑坡图像检测”(计算机与现代化2022年第4期45-51页)中提出了一种基于注意力机制CBAM和空洞卷积的Faster R-CNN算法检测遥感影像中的滑坡,首先使用ResNet-50网络生成特征图并将其输入RPN模块生成候选区域,再一起输入到RoI Pooling层中生成候选区域特征图,最后使用全连接层进行SoftMax分类和Bbox_pred候选区域位置回归,获得滑坡的位置。这两种方法虽然都在一定程度上提高了检测性能,但前者存在“同谱异物”的问题,易受裸地、矿场、云层等影响;后者涉及的Faster R-CNN属于两阶段算法,在模型中需要生成大量的目标预选框;所以均会导致网络计算数据量大、训练时间成本高,模型检测速度慢,难以实时检测滑坡,并不能很好的应用到现实工业应用场景中。
发明内容
本发明目的在于针对上述现有技术的不足,提出一种基于LS-YOLO网络的遥感影像滑坡体检测方法,用于解决遥感影像中滑坡的检测方法计算量大,检测多尺度滑坡的精度差、定位精度低,以及存在较多滑坡漏检和错检的问题。
本发明的技术思路是:针对滑坡的形状和尺寸在遥感影像中差异大的特点,首先基于有效通道注意力ECA(Efficient Channel Attention)、平均池化和空间可分离卷积设计多尺度特征提取模块;然后对现有的Decoupled Head进行改进,在Decoupled Head的回归任务分支中引入由不同空洞率的空洞卷积组成的上下文增强模块;最后在YOLOv5网络的Neck中引入多尺度特征提取模块并使用改进后的Decoupled Head替换YOLOv5网络的Head,对YOLOv5网络实现改进,得到改进后的用于检测的LS-YOLO网络模型,利用该模型有效提升网络对遥感影像中滑坡的检测准确度。
本发明实现上述目的具体步骤如下:
(1)构建由Input子网络、Backbone子网络、Neck子网络和Head子网络组成的滑坡目标检测LS-YOLO网络模型:
(1.1)将现有单阶段目标检测YOLOv5网络中的输入网络和主干网络分别作为Input子网络和Backbone子网络;
(1.2)设计由Neck-A和Neck-B两部分网络构成的Neck子网络:
(1.2.1)构建依次包括多尺度特征提取层、第一上采样层、第一拼接层、C3层、卷积层、第二上采样层和第二拼接层的Neck-A网络;
(1.2.2)构建依次包括第一C3层、第一卷积层、第一拼接层、第二C3层、第二卷积层、第二拼接层和第三C3层的Neck-B网络;
(1.2.3)将Neck-A中的第二拼接层与Neck-B中的第一C3层串联,将Neck-A中的多尺度特征提取层与Neck-B中的第二拼接层级联,将Neck-A中的卷积层与Neck-B中的第一拼接层级联,得到Neck子网络;
(1.3)使用三个检测层并联组成Head子网络,设置每个检测层的检测类别nc=1,且每个检测层均设置3个锚框尺寸,分别为{(10,13),(16,30),(33,23)},{(30,61),(62,45),(59,119)}和{(116,90),(156,198),(373,326)};所述检测层包含第一卷积层、第二卷积层、第一卷积模块层、上下文增强层、第二卷积模块层、第三卷积模块层以及拼接层;其中第二卷积层和第一卷积模块层组成分类任务分支,上下文增强层、第二卷积模块层和第三卷积模块层组成回归任务分支;第一卷积层的输出经过级联的分类任务分支和回归任务分支,拼接层将分类任务分支和回归任务分支的输出沿着通道方向拼接起来作为检测层的输出;
(1.4)将Input子网络的增强层与Backbone子网络的第一卷积层串联;
(1.5)将Backbone子网络中的第二C3层和第三C3层分别与Neck-A子网络中的第二拼接层和第一拼接层级联,将Backbone子网络中的SPPF层与Neck-A子网络中的多尺度特征提取层串联;将Neck-A中的卷积层与Neck-B中的第一拼接层进行级联,将Neck-A中的多尺度特征提取层与Neck-B中的第二拼接层进行级联;
(1.6)将Neck-B中的第一C3层、第二C3层和第三C3层分别与Head子网络中的第一检测层、第二检测层和第三检测层级联;
(1.7)得到由Input子网络、Backbone子网络、Neck子网络和Head子网络组成的滑坡目标检测LS-YOLO网络模型;
(2)收集包含滑坡的图像和不包含滑坡的图像组成多尺度滑坡数据集,并将该数据集划分为训练集、验证集和测试集;
(3)训练滑坡目标检测LS-YOLO网络模型:
(3.1)设置训练参数batch-size为N,每次从训练集中随机且不重复的选择N张图像输入到网络模型中,权重参数文件使用yolov5s.pt,分类损失函数和置信度损失函数均使用二分类交叉熵损失函数;边界框损失函数使用CIOU损失函数;
(3.2)将训练集和验证集依次输入到LS-YOLO网络模型,使用图片自适应缩放算法对输入Input子网络的图像的尺寸进行转换,并使用增强算法中的Mosaic函数和Mixup函数对图像进行增强;
(3.3)利用Adam优化器和随机梯度下降法,迭代更新LS-YOLO网络模型中的参数权值,然后在验证集上验证训练的效果,直到损失函数收敛为止,得到训练好的LS-YOLO神经网络;
(4)检测测试集中的滑坡:
(4.1)将测试集数据输入到训练好的LS-YOLO神经网络中,加载训练好的LS-YOLO网络参数文件;
(4.2)对测试集中的图像进行滑坡检测,获得滑坡边界框的中心点位置、宽度、高度以及滑坡的置信度;
(4.3)输出滑坡检测结果并保存。
本发明与现有技术相比具有以下优点:
第一、由于本发明在构建检测模型时,基于ECA、平均池化和空间可分离卷积设计了多尺度特征提取模块,并在YOLOv5网络的Neck中引入了多尺度特征提取模块,使得网络模型提取多尺度滑坡特征的能力增强,从而提高了网络检测遥感影像中滑坡的精度。
第二、本发明在现有的Decoupled Head的回归任务分支上引入由不同空洞率的空洞卷积组成的上下文增强模块,并使用改进的Decoupled Head替换YOLOv5网络中的Head部分,增大网络对滑坡的感受野,能够有效提高网络对多尺度滑坡的定位精度。
附图说明
图1为本发明方法的实现流程图;
图2为本发明中LS-YOLO网络的结构示意图;
图3为本发明中多尺度特征提取层的结构示意图;
图4为本发明中ECA层的结构示意图;
图5为本发明中卷积层的结构示意图;
图6为本发明中C3层的结构示意图,其中(a)、(b)分别为C3层的结构示意图和Bottleneck的结构示意图;
图7为本发明中改进后的Decoupled Head的结构示意图;
图8为本发明中上下文增强层的结构示意图;
图9为本发明中上下文增强层中特征融合层的结构示意图,其中(a)、(b)、(c)分别为拼接融合、相加融合和自适应融合的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的技术方案和效果做进一步的详细描述。
实施例一:参照图1,本发明提出的基于LS-YOLO网络的遥感影像滑坡体检测方法,具体实现步骤如下:
步骤1.构建由Input子网络、Backbone子网络、Neck子网络和Head子网络组成的滑坡目标检测LS-YOLO网络模型:
(1.1)将现有单阶段目标检测YOLOv5网络中的输入网络和主干网络分别作为Input子网络和Backbone子网络;
所述Input子网络由缩放层和增强层串联组成,用于对输入图像进行预处理;所述缩放层和增强层分别采用图片自适应缩放算法和数据增强算法实现,其中数据增强算法使用Mosaic函数和Mixup函数实现;
所述Backbone子网络为十层结构的主干网络,该十层结构依次为:第一卷积层,第二卷积层,第一C3层,第三卷积层,第二C3层,第四卷积层,第三C3层,第五卷积层,第四C3层,SPPF层。
(1.2)设计由Neck-A和Neck-B两部分网络构成的Neck子网络:
(1.2.1)构建依次包括多尺度特征提取层、第一上采样层、第一拼接层、C3层、卷积层、第二上采样层和第二拼接层的Neck-A网络;
所述多尺度特征提取层,包括两个分支,第一个分支包括ECA层、特征提取层、第二1×1卷积层,第二个分支级联在输入与相加层之间;第一个分支和第二个分支的输出经过相加层相加得到的结果作为多尺度特征提取层的输出;其中特征提取层由五个并行的分支组成,分别为:1)平均池化层;2)第一1×1卷积层;3)第一3×1卷积层,第一1×3卷积层;4)第二3×1卷积层,第二1×3卷积层,第三3×1卷积层,第三1×3卷积层;5)第一5×1卷积层,第一1×5卷积层,第二5×1卷积层,第二1×5卷积层;拼接层将这五个并行的分支沿着通道方向拼接起来,然后输入第二1×1卷积层;所述ECA层包括两个分支:第一个分支为全局平均池化层、一维卷积层、激活函数层、相乘层依次串联,第二个分支为输入直接与相乘层串联;相乘层进行相乘操作的结果作为ECA层的输出。
(1.2.2)构建依次包括第一C3层、第一卷积层、第一拼接层、第二C3层、第二卷积层、第二拼接层和第三C3层的Neck-B网络;
(1.2.3)将Neck-A中的第二拼接层与Neck-B中的第一C3层串联,将Neck-A中的多尺度特征提取层与Neck-B中的第二拼接层级联,将Neck-A中的卷积层与Neck-B中的第一拼接层级联,得到Neck子网络;
(1.3)使用三个检测层并联组成Head子网络,设置每个检测层的检测类别nc=1,且每个检测层均设置3个锚框尺寸,分别为{(10,13),(16,30),(33,23)},{(30,61),(62,45),(59,119)}和{(116,90),(156,198),(373,326)};所述检测层包含第一卷积层、第二卷积层、第一卷积模块层、上下文增强层、第二卷积模块层、第三卷积模块层以及拼接层;其中第二卷积层和第一卷积模块层组成分类任务分支,上下文增强层、第二卷积模块层和第三卷积模块层组成回归任务分支;第一卷积层的输出经过级联的分类任务分支和回归任务分支,拼接层将分类任务分支和回归任务分支的输出沿着通道方向拼接起来作为检测层的输出;
所述上下文增强层,包括三个分支与一个特征融合层,所述三个分支具体为:空洞率为1的3×3空洞卷积层和第一1×1卷积层组成的分支一,空洞率为3的3×3空洞卷积层和第二1×1卷积层组成的分支二,空洞率为5的3×3空洞卷积层和第三1×1卷积层组成的分支三;这里的空洞卷积率为本实施例给出的优选数值,当然也可以根据实际情况设置为其他。所述特征融合层用于将三个分支的输出进行融合,并将得到的融合结果作为上下文增强层的输出。这里的特征融合层,具有三种结构,即拼接融合、相加融合和自适应融合;其中拼接融合是利用拼接层将输入的特征图沿着通道方向拼接起来作为融合结果输出;相加融合是利用相加层将输入特征图沿着空间位置依次相加得到融合结果作为输出;自适应融合具有两个分支,第一个分支由第一1×1卷积层、拼接层、第二1×1卷积层和SoftMax层串联组成,第二个分支串联在输入特征图和相乘相加层之间,自适应融合是先利用其第一分支得到输入特征图对应的权重,然后将输入特征图分别与其对应的权重相乘,再将相乘结果沿着空间位置依次相加,得到的结果作为自适应融合的输出。
(1.4)将Input子网络的增强层与Backbone子网络的第一卷积层串联;
(1.5)将Backbone子网络中的第二C3层和第三C3层分别与Neck-A子网络中的第二拼接层和第一拼接层级联,将Backbone子网络中的SPPF层与Neck-A子网络中的多尺度特征提取层串联;将Neck-A中的卷积层与Neck-B中的第一拼接层进行级联,将Neck-A中的多尺度特征提取层与Neck-B中的第二拼接层进行级联;
(1.6)将Neck-B中的第一C3层、第二C3层和第三C3层分别与Head子网络中的第一检测层、第二检测层和第三检测层级联;
(1.7)得到由Input子网络、Backbone子网络、Neck子网络和Head子网络组成的滑坡目标检测LS-YOLO网络模型。
所述Backbone子网络和Neck子网络中的卷积层的结构均相同;该卷积层依次包括卷积模块、批归一化模块和激活函数模块;卷积模块的参数设置根据卷积层所在的层数进行设置,激活函数模块使用SiLU函数;
所述Backbone子网络和Neck子网络中的C3层的结构相同,均由两个分支组成,第一个分支是由第一卷积层、由n*个Bottleneck层串联的Bottleneck组、拼接层、第三卷积层串联组成;第二个分支由第二卷积层组成,该卷积层跨接在输入和拼接层之间;其中,n*=n×网络的深度因子,n的设置根据C3层所在的层数进行设置;在Bottleneck层中,第一个分支是由第一卷积层和第二卷积层串联组成,第二个分支跨接在输入和第一个分支的第二卷积层后,将Bottleneck层的输入直接通过第二个分支与第一个分支的输入进行相加操作;参数shortcut来控制第二个分支是否存在,将参数shortcut设置为True,则第二个分支存在,对输入和第二个分支的输出进行相加操作,相加操作的结果作为Bottleneck层的输出,将参数shortcut设置为False,则第二个分支不存在,将第一个分支的结果作为Bottleneck的输出。
步骤2.收集包含滑坡的图像和不包含滑坡的图像组成多尺度滑坡数据集,并将该数据集划分为训练集、验证集和测试集;具体如下:
(2.1)从已有数据中收集包含滑坡的图像和不包含滑坡的图像,其中包含滑坡的图像数量不少于八千张,不包含滑坡的图像数量不少于两千张,共同组成多尺度滑坡数据集;
(2.2)本实施例优选以7:3的比例,将多尺度滑坡数据集划分为训练验证集和测试集;
(2.3)本实施例优选以9:1的比例,将训练验证集划分为训练集和验证集。
步骤3.训练滑坡目标检测LS-YOLO网络模型:
(3.1)设置训练参数batch-size为N,每次从训练集中随机且不重复的选择N张图像输入到网络模型中,权重参数文件使用yolov5s.pt,分类损失函数和置信度损失函数均使用二分类交叉熵损失函数;边界框损失函数使用CIOU损失函数;
所述的二分类交叉熵损失函数如下:
Loss=-(y·loge(y*)+(1-y)·loge(1-y*))
其中,y*表示网络预测目标为滑坡的概率,y表示目标的标签,如果目标属于滑坡,y取值为1,如果目标不属于滑坡,y取值为0。
边界框损失函数如下:
其中,IOU表示预测框和真实框的交并比,ρ2(b,bgt)表示b和bgt之间的距离,b和bgt分别表示预测框和真实框的中心点,c表示预测框和真实框的最小外接矩形的对角线长度,w和h分别表示预测框的宽度和高度,α是权重系数,ν衡量两个矩形框相对比例的一致性。
(3.2)将训练集和验证集依次输入到LS-YOLO网络模型,使用图片自适应缩放算法对输入Input子网络的图像的尺寸进行转换,并使用增强算法中的Mosaic函数和Mixup函数对图像进行增强。
所述图片自适应缩放算法的步骤如下:
第一步,根据输入到Input子网络的图像尺寸与网络需要的图像尺寸计算缩放比例;
第二步,根据输入到网络的图像尺寸与缩放比例计算缩放后的图像尺寸;
第三步,对缩放后的图像进行周边填充,将图像的尺寸变换到所需尺寸。
所述Mosaic函数为对输入的四张图像分别依次进行随机缩放、随机裁剪处理,再对得到的处理后的四张图像随机排布拼接成一张图像;
所述Mixup函数计算公式为:
x=λxi+(1-λ)xj
y=λyi+(1-λ)yj
其中,x表示使用Mixup函数对训练集中第i张图像xi和第j张图像xj生成的新图像,y表示使用Mixup函数对训练集中第i个标签yi和第j个标签yj生成的新标签,λ∈[0,1]为服从参数为α的Beta分布的调节因子。
(3.3)利用Adam优化器和随机梯度下降法,迭代更新LS-YOLO网络模型中的参数权值,然后在验证集上验证训练的效果,直到损失函数收敛为止,得到训练好的LS-YOLO神经网络;
步骤4.检测测试集中的滑坡:
(4.1)将测试集数据输入到训练好的LS-YOLO神经网络中,加载训练好的LS-YOLO网络参数文件;
(4.2)对测试集中的图像进行滑坡检测,获得滑坡边界框的中心点位置、宽度、高度以及滑坡的置信度;
(4.3)输出滑坡检测结果并保存。
实施例二:本实施例提供的遥感影像滑坡体检测方法整体实现步骤同实施例一,现结合附图2-9,给出具体参数设置,对本发明中构建的LS-YOLO网络做进一步详细描述:
本发明构建的LS-YOLO网络包含四个子网络分别为:Input子网络,Backbone子网络,Neck子网络和Head子网络,如图2所示。Input子网络对输入的图片进行数据增强和自适应图片缩放等任务,实现训练前的预处理操作。Backbone子网络负责对从Input子网络中传入的图片进行特征提取操作,获取丰富的特征信息。Neck子网络负责对Backbone子网络提取到的信息进行特征融合。Head子网络负责对从Neck子网络传入的图片进行滑坡预测,获取网络的输出。
构建LS-YOLO网络中的Input子网络:
搭建用于对输入图像进行预处理的Input子网络,该Input子网络由缩放层和增强层串联组成,所述缩放层和增强层分别采用图片自适应缩放算法和数据增强算法实现。数据增强层使用Mosaic函数和Mixup函数实现,数据增强层使用Mosaic函数和Mixup函数实现。
构建LS-YOLO网络的Backbone子网络:
搭建一个10层的Backbone子网络,其结构依次为:第一卷积层,第二卷积层,第一C3层,第三卷积层,第二C3层,第四卷积层,第三C3层,第五卷积层,第四C3层,SPPF层。本实施例对该子网络其中各层参数,优选设置如下:第一卷积层的输入图像尺寸为640×640×3,卷积核大小设置为6×6,步长设置为2,填充设置为2;第二至第五卷积层的卷积核大小均设置为3×3,步长均设置为2,输入通道数分别为32、64、128和256,输出通道数分别为64、128、256和512;第一至第四C3层的输入通道数与输出通道数保持一致,分别设置为64、128、256和512,第一至第四C3层的参数n分别设置为1、2、3和1,参数shortcut均设置为True;SPPF层的输入通道数和输出通道数均设置为512。
构建LS-YOLO网络中的Neck子网络:
Neck子网络由Neck-A子网络和Neck-B子网络构成。
首先,搭建一个7层的Neck-A子网络,其结构依次为:多尺度特征提取层,第一上采样层,第一拼接层,C3层,卷积层,第二上采样层,第二拼接层。本实施例对Neck-A网络中各层的参数,具体设置如下:多尺度特征提取层的输入通道数和输出通道数均设置为512;第一和第二上采样层的采样倍数均设置为2,上采样的方式采用最近填充;第一和第二拼接层将输入的图像沿着通道方向拼接起来;C3层的输入通道数设置为768,输出通道数设置为256,参数n设置为1,参数shortcut设置为False;卷积层的输入通道数和输出通道数分别设置为256、128,卷积核大小设置为1×1,步长设置为1。
然后,搭建一个7层的Neck-B子网络,其结构依次为:第一C3层,第一卷积层,第一拼接层,第二C3层,第二卷积层,第二拼接层,第三C3层。本实施例对Neck-B网络中各层的参数,具体设置如下:第一至第三C3层的输入通道数分别设置为256、256、768,输出通道数分别设置为128、256、512,参数n均设置为1,参数shortcut均设置为False;第一和第二卷积层的输入通道数和输出通道数保持一致,设置为128、256,卷积核大小设置为3×3,步长均设置为2;第一至第二拼接层将输入的图像沿着通道方向拼接起来。
最后,将Neck-A子网络的第二拼接层与Neck-B子网络中的第一C3层串联,将Neck-A子网络中的多尺度特征提取层与Neck-B子网络中的第二拼接层级联,将Neck-A子网络中的卷积层与Neck-B子网络中的第一拼接层级联,得到Neck子网络。
参照附图3,对本发明构建的LS-YOLO网络中Neck子网络的多尺度特征提取层结构做进一步的描述。
图3为多尺度特征提取层结构示意图,多尺度特征提取层包括两个分支,第一个分支包括ECA层,特征提取层,第二1×1卷积层组成,第二个分支级联在输入与相加层之间。第一个分支和第二个分支的输出经过相加层相加得到的结果作为多尺度特征提取层的输出。其中特征提取层由五个并行的分支组成,分别为1)平均池化层;2)第一1×1卷积层;3)第一3×1卷积层,第一1×3卷积层;4)第二3×1卷积层,第二1×3卷积层,第三3×1卷积层,第三1×3卷积层;5)第一5×1卷积层,第一1×5卷积层,第二5×1卷积层,第二1×5卷积层;拼接层将这五个并行的分支沿着通道方向拼接起来,然后输入第二1×1卷积层。
参照附图4,对本发明构建的多尺度特征提取模块层中的ECA层结构做进一步的描述。
如图4所示,ECA层包括两个分支,第一个分支由全局平均池化层,一维卷积层,激活函数层,相乘层依次串联组成,第二个分支为输入直接与相乘层串联,相乘操作的结果作为ECA层的输出。
参照图5,对本发明构建的Backbone子网络和Neck子网络中的卷积层结构做进一步的描述。
本发明Backbone子网络和Neck子网络中的卷积层的结构均相同,如图4所示卷积层依次包括卷积模块,批归一化模块和激活函数模块。卷积模块的参数设置根据卷积层所在的层数进行设置,激活函数采用模块使用SiLU函数。
参照图6,对本发明构建的Backbone子网络和Neck子网络中的C3层做进一步的描述。
本发明Backbone子网络和Neck子网络中的C3层的结构均相同,如图6(a)所示是由两个分支组成,第一个分支是由第一卷积层、由n*个Bottleneck层串联的Bottleneck组、拼接层、第三卷积层串联组成;第二个分支由第二卷积层组成,该卷积层跨接在输入和拼接层之间。其中,n*=n×网络的深度因子,n的设置根据C3层所在的层数进行设置,本发明设计的LS-YOLO网络将深度因子设置为0.33。如图6(b)所示,在Bottleneck层中,第一个分支是由第一卷积层和第二卷积层串联组成,第二个分支跨接在输入和第一个分支的第二卷积层后,将Bottleneck层的输入直接通过第二个分支与第一个分支的输入进行相加操作。参数shortcut来控制第二个分支是否存在,将参数shortcut设置为True,则第二个分支存在,对输入和第二个分支的输出进行相加操作,相加操作的结果作为Bottleneck层的输出,将参数shortcut设置为False,则第二个分支不存在,将第一个分支的结果作为Bottleneck的输出。
构建LS-YOLO网络中的Head子网络:
Head子网络由第一检测层,第二检测层和第三检测层并联组成,每个检测层设置检测类别nc=1,且每个检测层设置3个锚框尺寸,分别为{(10,13),(16,30),(33,23)},{(30,61),(62,45),(59,119)}和{(116,90),(156,198),(373,326)}。
参照附图7,对本发明构建的Head子网络中的检测层结构做进一步的描述。
图7为Head子网络中的检测层结构示意图,检测层包含第一卷积层,第二卷积层,第一卷积模块层,上下文增强层,第二卷积模块层,第三卷积模块层,拼接层。其中第二卷积层和第一卷积模块层组成分类任务分支,上下文增强层,第二卷积模块层和第三卷积模块层组成回归任务分支。第一卷积层的输出经过级联的分类任务分支和回归任务分支,拼接层将分类任务分支和回归任务分支的输出沿着通道方向拼接起来作为检测层的输出。
参照附图8,对本发明构建的检测层中的上下文增强层结构做进一步的描述。
图8为检测层中的上下文增强层结构示意图,3×3卷积层(空洞率=1)和第一1×1卷积层组成分支一,3×3卷积层(空洞率=3)和第二1×1卷积层组成分支二,3×3卷积层(空洞率=5)和第三1×1卷积层组成分支三,特征融合层将三个分支的输出进行特征融合,得到的结果作为上下文增强层的输出。
参照附图9,对本发明构建的上下文增强层中的特征融合层结构做进一步的描述。
图9为特征融合层结构示意图,特征融合层具有三种结构,包括拼接融合,相加融合和自适应融合。如图9(a)所示,拼接融合中输入特征图1,输入特征图2和输入特征图3分别经过第一1×1卷积层,第二1×1卷积层,第三1×1卷积层,然后进入拼接层,拼接层将特征图沿着通道方向拼接起来作为拼接融合的输出。如图9(b)所示,相加融合中输入特征图1,输入特征图2和输入特征图3分别经过第一1×1卷积层,第二1×1卷积层,第三1×1卷积层,然后进入相加层,相加层将特征图沿着空间位置依次相加得到的结果作为相加融合的输出。如图9(c)所示,自适应融合具有两个分支,第一个分支由第一1×1卷积层,拼接层,第二1×1卷积层和SoftMax层串联组成,第二个分支级联在输入特征图和相加层之间。具体的,在自适应融合中输入特征图1,输入特征图2和输入特征图3经过第一个分支得到输入特征图1,输入特征图2和输入特征图3对应的权重,然后相乘相加层将输入特征图1,输入特征图2和输入特征图3分别与对应的权重相乘,然后将相乘得到的结果沿着空间位置依次相加,得到的结果作为自适应融合的输出。
构建LS-YOLO网络:
a)将Input子网络的增强层与Backbone子网络的第一卷积层串联。
b)将Backbone子网络中的第二C3层和第三C3层分别与Neck-A子网络中的第二拼接层和第一拼接层级联,将Backbone子网络中的SPPF层与Neck-A子网络中的多尺度特征提取层串联。将Neck-A子网络中的卷积层与Neck-B子网络中的第一拼接层进行级联,将Neck-A子网络中的多尺度特征提取层与Neck-B子网络中的第二拼接层进行级联。
c)将Neck-B子网络中的第一C3层,第二C3层和第三C3层分别与Head子网络中的第一检测层,第二检测层和第三检测层级联。
实施例三:本实施例提供的遥感影像滑坡体检测方法整体实现步骤同实施例一,现给出具体实例,进一步描述本发明中LS-YOLO网络的训练过程:
设置训练参数:batch-size设置为16,每次从训练集中随机且不重复的选择16张图像输入到网络中,权重参数文件使用yolov5s.pt,分类损失函数和置信度损失函数均使用二分类交叉熵损失函数;边界框损失函数使用CIOU损失函数。
所述的二分类交叉熵损失函数如下:
Loss=-(y·loge(y*)+(1-y)·loge(1-y*))
其中,y*表示网络预测目标为滑坡的概率,y表示目标的标签,如果目标属于滑坡,y取值为1,如果目标不属于滑坡,y取值为0。
边界框损失函数如下:
其中,IOU表示预测框和真实框的交并比,ρ2(b,bgt)表示b和bgt之间的距离,b和bgt分别预测框和真实框的中心点,c表示预测框和真实框的最小外接矩形的对角线长度,w和h分别表示预测框的宽度和高度,α是权重系数,ν衡量两个矩形框相对比例的一致性。
将训练集和验证集依次输入到LS-YOLO网络,使用图片自适应缩放算法对输入Input子网络的图像的尺寸转换为640×640×3(宽和高分别为640,通道数为3),具体步骤为:首先,根据输入到Input子网络的图像尺寸与网络需要的图像尺寸640×640×3计算缩放比例;然后,根据输入到网络的图像尺寸与缩放比例计算缩放后的图像尺寸;最后,对缩放后的图像周边填充0,将图像的尺寸变换到640×640×3。使用增强算法中的Mosaic函数对输入的四张图像,分别依次进行随机缩放,随机裁剪共得到四张图像,再对得到的图像随机排布拼接成一张图像。使用Mixup函数对输入的两张图像和这两张图像对应的标签按比例相加后生成一张新的图像和对应的标签。Mosaic参数设置为1.0,即对所有输入网络的图片都执行Mosaic增强,Mixup参数设置为0.1,即以0.1的概率决定对输入的图像是否执行Mixup增强。
所述图片自适应缩放算法的步骤如下:
第一步,根据输入到Input子网络的图像尺寸与网络需要的图像尺寸640×640×3计算缩放比例;
第二步,根据输入到网络的图像尺寸与缩放比例计算缩放后的图像尺寸;
第三步,对缩放后的图像周边填充0,将图像的尺寸变换到640×640×3。
所述的Mosaic函数为对输入的四张图像,分别依次进行随机缩放,随机裁剪共得到四张图像,再对得到的图像随机排布拼接成一张图像,Mosaic参数设置为1.0,即对所有输入网络的图片都执行Mosaic增强。
所述的Mixup函数计算公式为:
x=λxi+(1-λ)xj
y=λyi+(1-λ)yj
其中,x表示使用Mixup函数对训练集中第i张图像xi和第j张图像xj生成的新图像,y表示使用Mixup函数对训练集中第i个标签yi和第j个标签yj生成的新标签,λ∈[0,1]为服从参数为α的Beta分布的调节因子。
最后,利用Adam优化器和随机梯度下降法,迭代更新LS-YOLO网络参数的权值,然后在验证集上验证训练的效果,直到损失函数收敛为止,得到训练好的LS-YOLO神经网络。
本发明未详细说明部分属于本领域技术人员公知常识。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修正和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。
Claims (8)
1.一种基于LS-YOLO网络的遥感影像滑坡体检测方法,其特征在于,包括如下步骤:
(1)构建由Input子网络、Backbone子网络、Neck子网络和Head子网络组成的滑坡目标检测LS-YOLO网络模型:
(1.1)将现有单阶段目标检测YOLOv5网络中的输入网络和主干网络分别作为Input子网络和Backbone子网络;
(1.2)设计由Neck-A和Neck-B两部分网络构成的Neck子网络:
(1.2.1)构建依次包括多尺度特征提取层、第一上采样层、第一拼接层、C3层、卷积层、第二上采样层和第二拼接层的Neck-A网络;所述多尺度特征提取层,包括两个分支,第一个分支包括ECA层、特征提取层、第二1×1卷积层,第二个分支级联在输入与相加层之间;第一个分支和第二个分支的输出经过相加层相加得到的结果作为多尺度特征提取层的输出;其中特征提取层由五个并行的分支组成,分别为:1)平均池化层;2)第一1×1卷积层;3)第一3×1卷积层,第一1×3卷积层;4)第二3×1卷积层,第二1×3卷积层,第三3×1卷积层,第三1×3卷积层;5)第一5×1卷积层,第一1×5卷积层,第二5×1卷积层,第二1×5卷积层;拼接层将这五个并行的分支沿着通道方向拼接起来,然后输入第二1×1卷积层;所述ECA层包括两个分支:第一个分支为全局平均池化层、一维卷积层、激活函数层、相乘层依次串联,第二个分支为输入直接与相乘层串联;相乘层进行相乘操作的结果作为ECA层的输出;
(1.2.2)构建依次包括第一C3层、第一卷积层、第一拼接层、第二C3层、第二卷积层、第二拼接层和第三C3层的Neck-B网络;
(1.2.3)将Neck-A中的第二拼接层与Neck-B中的第一C3层串联,将Neck-A中的多尺度特征提取层与Neck-B中的第二拼接层级联,将Neck-A中的卷积层与Neck-B中的第一拼接层级联,得到Neck子网络;
(1.3)使用三个检测层并联组成Head子网络,设置每个检测层的检测类别nc=1,且每个检测层均设置3个锚框尺寸,分别为{(10,13),(16,30),(33,23)},{(30,61),(62,45),(59,119)}和{(116,90),(156,198),(373,326)};所述检测层包含第一卷积层、第二卷积层、第一卷积模块层、上下文增强层、第二卷积模块层、第三卷积模块层以及拼接层;其中第二卷积层和第一卷积模块层组成分类任务分支,上下文增强层、第二卷积模块层和第三卷积模块层组成回归任务分支;第一卷积层的输出经过级联的分类任务分支和回归任务分支,拼接层将分类任务分支和回归任务分支的输出沿着通道方向拼接起来作为检测层的输出;
所述上下文增强层,包括三个分支与一个特征融合层,所述三个分支具体为:空洞率为1的3×3空洞卷积层和第一1×1卷积层组成的分支一,空洞率为3的3×3卷积层和第二1×1卷积层组成的分支二,空洞率为5的3×3卷积层和第三1×1卷积层组成的分支三;所述特征融合层用于将三个分支的输出进行融合,并将得到的融合结果作为上下文增强层的输出;
(1.4)将Input子网络的增强层与Backbone子网络的第一卷积层串联;
(1.5)将Backbone子网络中的第二C3层和第三C3层分别与Neck-A子网络中的第二拼接层和第一拼接层级联,将Backbone子网络中的SPPF层与Neck-A子网络中的多尺度特征提取层串联;将Neck-A中的卷积层与Neck-B中的第一拼接层进行级联,将Neck-A中的多尺度特征提取层与Neck-B中的第二拼接层进行级联;
(1.6)将Neck-B中的第一C3层、第二C3层和第三C3层分别与Head子网络中的第一检测层、第二检测层和第三检测层级联;
(1.7)得到由Input子网络、Backbone子网络、Neck子网络和Head子网络组成的滑坡目标检测LS-YOLO网络模型;
(2)收集包含滑坡的图像和不包含滑坡的图像组成多尺度滑坡数据集,并将该数据集划分为训练集、验证集和测试集;
(3)训练滑坡目标检测LS-YOLO网络模型:
(3.1)设置训练参数batch-size为N,每次从训练集中随机且不重复的选择N张图像输入到网络模型中,权重参数文件使用yolov5s.pt,分类损失函数和置信度损失函数均使用二分类交叉熵损失函数;边界框损失函数使用CIOU损失函数;
(3.2)将训练集和验证集依次输入到LS-YOLO网络模型,使用图片自适应缩放算法对输入Input子网络的图像的尺寸进行转换,并使用增强算法中的Mosaic函数和Mixup函数对图像进行增强;
(3.3)利用Adam优化器和随机梯度下降法,迭代更新LS-YOLO网络模型中的参数权值,然后在验证集上验证训练的效果,直到损失函数收敛为止,得到训练好的LS-YOLO神经网络;
(4)检测测试集中的滑坡:
(4.1)将测试集数据输入到训练好的LS-YOLO神经网络中,加载训练好的LS-YOLO网络参数文件;
(4.2)对测试集中的图像进行滑坡检测,获得滑坡边界框的中心点位置、宽度、高度以及滑坡的置信度;
(4.3)输出滑坡检测结果并保存。
2.根据权利要求1所述的方法,其特征在于:所述Input子网络由缩放层和增强层串联组成,用于对输入图像进行预处理;所述缩放层和增强层分别采用图片自适应缩放算法和数据增强算法实现,其中数据增强算法使用Mosaic函数和Mixup函数实现;
所述Backbone子网络为十层结构的主干网络,该十层结构依次为:第一卷积层,第二卷积层,第一C3层,第三卷积层,第二C3层,第四卷积层,第三C3层,第五卷积层,第四C3层,SPPF层;其中第一卷积层的输入图像尺寸为640×640×3,卷积核大小设置为6×6,步长设置为2,填充设置为2;第二至第五卷积层的卷积核大小均设置为3×3,步长均设置为2,输入通道数分别为32、64、128和256,输出通道数分别为64、128、256和512;第一至第四C3层的输入通道数与输出通道数保持一致,分别设置为64、128、256和512,第一至第四C3层的参数n分别设置为1、2、3和1,参数shortcut均设置为True;SPPF层的输入通道数和输出通道数均设置为512。
3.根据权利要求1所述的方法,其特征在于:步骤(1.2.1)中Neck-A网络,其中各层的参数设置如下:多尺度特征提取层的输入通道数和输出通道数均设置为512;第一和第二上采样层的采样倍数均设置为2,上采样的方式采用最近填充;第一和第二拼接层将输入的图像沿着通道方向拼接起来;C3层的输入通道数设置为768,输出通道数设置为256,参数n设置为1,参数shortcut设置为False;卷积层的输入通道数和输出通道数分别设置为256、128,卷积核大小设置为1×1,步长设置为1;步骤(1.2.2)中Neck-B网络,其中各层的参数设置如下:第一至第三C3层的输入通道数分别设置为256、256、768,输出通道数分别设置为128、256、512,参数n均设置为1,参数shortcut均设置为False;第一和第二卷积层的输入通道数和输出通道数保持一致,设置为128、256,卷积核大小设置为3×3,步长均设置为2;第一至第二拼接层将输入的图像沿着通道方向拼接起来。
4.根据权利要求1所述的方法,其特征在于:所述特征融合层具有三种结构,包括拼接融合、相加融合和自适应融合;其中拼接融合是利用拼接层将输入的特征图沿着通道方向拼接起来作为融合结果输出;相加融合是利用相加层将输入特征图沿着空间位置依次相加得到融合结果作为输出;自适应融合具有两个分支,第一个分支由第一1×1卷积层、拼接层、第二1×1卷积层和SoftMax层串联组成,第二个分支串联在输入特征图和相乘相加层之间,自适应融合是先利用其第一分支得到输入特征图对应的权重,然后将输入特征图分别与其对应的权重相乘,再将相乘结果沿着空间位置依次相加,得到的结果作为自适应融合的输出。
5.根据权利要求1所述的方法,其特征在于:步骤(2)所述收集包含滑坡的图像和不包含滑坡的图像组成多尺度滑坡数据集,并将该数据集划分为训练集、验证集和测试集,具体如下:
(2.1)从已有数据中收集包含滑坡的图像和不包含滑坡的图像,其中包含滑坡的图像数量不少于八千张,不包含滑坡的图像数量不少于两千张,共同组成多尺度滑坡数据集;
(2.2)以7:3的比例,将多尺度滑坡数据集划分为训练验证集和测试集;
(2.3)以9:1的比例,将训练验证集划分为训练集和验证集。
6.根据权利要求1所述的方法,其特征在于:步骤(3.1)中所述的二分类交叉熵损失函数如下:
Loss=-(y·loge(y*)+(1-y)·loge(1-y*))
其中,y*表示网络预测目标为滑坡的概率,y表示目标的标签,如果目标属于滑坡,y取值为1,如果目标不属于滑坡,y取值为0;
边界框损失函数如下:
其中,IOU表示预测框和真实框的交并比,ρ2(b,bgt)表示b和bgt之间的距离,b和bgt分别表示预测框和真实框的中心点,c表示预测框和真实框的最小外接矩形的对角线长度,w和h分别表示预测框的宽度和高度,α是权重系数,ν衡量两个矩形框相对比例的一致性。
7.根据权利要求1所述的方法,其特征在于:步骤(3.2)中使用图片自适应缩放算法对输入Input子网络的图像的尺寸进行转换,并使用增强算法中的Mosaic函数和Mixup函数对图像进行增强;所述图片自适应缩放算法的步骤如下:
第一步,根据输入到Input子网络的图像尺寸与网络需要的图像尺寸计算缩放比例;
第二步,根据输入到网络的图像尺寸与缩放比例计算缩放后的图像尺寸;
第三步,对缩放后的图像进行周边填充,将图像的尺寸变换到所需尺寸;
所述Mosaic函数为对输入的四张图像分别依次进行随机缩放、随机裁剪处理,再对得到的处理后的四张图像随机排布拼接成一张图像;
所述Mixup函数计算公式为:
x=λxi+(1-λ)xj
y=λyi+(1-λ)yj
其中,x表示使用Mixup函数对训练集中第i张图像xi和第j张图像xj生成的新图像,y表示使用Mixup函数对训练集中第i个标签yi和第j个标签yj生成的新标签,λ∈[0,1]为服从参数为α的Beta分布的调节因子。
8.根据权利要求2所述的方法,其特征在于:所述Backbone子网络和Neck子网络中的卷积层的结构均相同;该卷积层依次包括卷积模块、批归一化模块和激活函数模块;卷积模块的参数设置根据卷积层所在的层数进行设置,激活函数模块使用SiLU函数;
所述Backbone子网络和Neck子网络中的C3层的结构相同,均由两个分支组成,第一个分支是由第一卷积层、由n*个Bottleneck层串联的Bottleneck组、拼接层、第三卷积层串联组成;第二个分支由第二卷积层组成,该卷积层跨接在输入和拼接层之间;其中,n*=n×网络的深度因子,n的设置根据C3层所在的层数进行设置;在Bottleneck层中,第一个分支是由第一卷积层和第二卷积层串联组成,第二个分支跨接在输入和第一个分支的第二卷积层后,将Bottleneck层的输入直接通过第二个分支与第一个分支的输入进行相加操作;参数shortcut来控制第二个分支是否存在,将参数shortcut设置为True,则第二个分支存在,对输入和第二个分支的输出进行相加操作,相加操作的结果作为Bottleneck层的输出,将参数shortcut设置为False,则第二个分支不存在,将第一个分支的结果作为Bottleneck的输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311421577.5A CN117611877B (zh) | 2023-10-30 | 2023-10-30 | 基于ls-yolo网络的遥感影像滑坡体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311421577.5A CN117611877B (zh) | 2023-10-30 | 2023-10-30 | 基于ls-yolo网络的遥感影像滑坡体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117611877A CN117611877A (zh) | 2024-02-27 |
CN117611877B true CN117611877B (zh) | 2024-05-14 |
Family
ID=89952412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311421577.5A Active CN117611877B (zh) | 2023-10-30 | 2023-10-30 | 基于ls-yolo网络的遥感影像滑坡体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117611877B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796037A (zh) * | 2019-10-15 | 2020-02-14 | 武汉大学 | 基于轻量级感受野金字塔的星载光学遥感图像舰船目标检测方法 |
CN112668494A (zh) * | 2020-12-31 | 2021-04-16 | 西安电子科技大学 | 基于多尺度特征提取的小样本变化检测方法 |
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
CN114120019A (zh) * | 2021-11-08 | 2022-03-01 | 贵州大学 | 一种轻量化的目标检测方法 |
CN114359153A (zh) * | 2021-12-07 | 2022-04-15 | 湖北工业大学 | 一种基于改进CenterNet的绝缘子缺陷检测方法 |
WO2022078216A1 (zh) * | 2020-10-14 | 2022-04-21 | 华为云计算技术有限公司 | 一种目标识别方法及装置 |
CN115082672A (zh) * | 2022-06-06 | 2022-09-20 | 西安电子科技大学 | 一种基于边界框回归的红外图像目标检测方法 |
CN115205264A (zh) * | 2022-07-21 | 2022-10-18 | 南京工程学院 | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 |
CN115423998A (zh) * | 2022-08-25 | 2022-12-02 | 西安电子科技大学 | 一种基于轻量级无锚检测模型的可见光森林火灾检测方法 |
CN115546650A (zh) * | 2022-10-29 | 2022-12-30 | 西安电子科技大学 | 基于yolo-v网络的检测遥感影像中舰船方法 |
CN116091946A (zh) * | 2022-12-06 | 2023-05-09 | 重庆邮电大学 | 一种基于YOLOv5的无人机航拍图像目标检测方法 |
CN116563913A (zh) * | 2023-04-14 | 2023-08-08 | 三峡大学 | 一种基于多层特征融合的口罩规范佩戴检测方法 |
CN116824413A (zh) * | 2023-07-25 | 2023-09-29 | 江苏科技大学 | 一种基于多尺度空洞卷积的航拍图像目标检测方法 |
-
2023
- 2023-10-30 CN CN202311421577.5A patent/CN117611877B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796037A (zh) * | 2019-10-15 | 2020-02-14 | 武汉大学 | 基于轻量级感受野金字塔的星载光学遥感图像舰船目标检测方法 |
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
WO2022078216A1 (zh) * | 2020-10-14 | 2022-04-21 | 华为云计算技术有限公司 | 一种目标识别方法及装置 |
CN112668494A (zh) * | 2020-12-31 | 2021-04-16 | 西安电子科技大学 | 基于多尺度特征提取的小样本变化检测方法 |
CN114120019A (zh) * | 2021-11-08 | 2022-03-01 | 贵州大学 | 一种轻量化的目标检测方法 |
CN114359153A (zh) * | 2021-12-07 | 2022-04-15 | 湖北工业大学 | 一种基于改进CenterNet的绝缘子缺陷检测方法 |
CN115082672A (zh) * | 2022-06-06 | 2022-09-20 | 西安电子科技大学 | 一种基于边界框回归的红外图像目标检测方法 |
CN115205264A (zh) * | 2022-07-21 | 2022-10-18 | 南京工程学院 | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 |
CN115423998A (zh) * | 2022-08-25 | 2022-12-02 | 西安电子科技大学 | 一种基于轻量级无锚检测模型的可见光森林火灾检测方法 |
CN115546650A (zh) * | 2022-10-29 | 2022-12-30 | 西安电子科技大学 | 基于yolo-v网络的检测遥感影像中舰船方法 |
CN116091946A (zh) * | 2022-12-06 | 2023-05-09 | 重庆邮电大学 | 一种基于YOLOv5的无人机航拍图像目标检测方法 |
CN116563913A (zh) * | 2023-04-14 | 2023-08-08 | 三峡大学 | 一种基于多层特征融合的口罩规范佩戴检测方法 |
CN116824413A (zh) * | 2023-07-25 | 2023-09-29 | 江苏科技大学 | 一种基于多尺度空洞卷积的航拍图像目标检测方法 |
Non-Patent Citations (2)
Title |
---|
Landslide Detection Based on Improved YOLOv4;LI, Linrun等;2022 10th International Conference on Information Systems and Computing Technology (ISCTech);20230530;766-771 * |
基于改进Yolov5l的航空小目标检测算法;戴得恩 等;计算机工程与设计;20230930;第44卷(第9期);2610-2618 * |
Also Published As
Publication number | Publication date |
---|---|
CN117611877A (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114359130B (zh) | 一种基于无人机影像的道路裂缝检测方法 | |
CN111929683B (zh) | 滑坡形变聚集区预测模型生成方法和滑坡形变聚集区预测方法 | |
CN114495029B (zh) | 一种基于改进YOLOv4的交通目标检测方法及系统 | |
CN114332473B (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN114022770A (zh) | 基于改进自注意力机制与迁移学习的山体裂缝检测方法 | |
CN113034444A (zh) | 一种基于MobileNet-PSPNet神经网络模型的路面裂缝检测方法 | |
CN113610070A (zh) | 一种基于多源数据融合的滑坡灾害识别方法 | |
CN113034506B (zh) | 遥感图像语义分割方法、装置、计算机设备和存储介质 | |
CN115546650A (zh) | 基于yolo-v网络的检测遥感影像中舰船方法 | |
CN114359756A (zh) | 一种震后无人机遥感影像损毁房屋快速智能检测方法 | |
CN112668672A (zh) | 基于TensorRT的目标检测模型加速方法及装置 | |
CN113256649A (zh) | 一种基于深度学习的遥感图像选站选线语义分割方法 | |
CN115439753A (zh) | 一种基于dem的陡峭河岸识别方法及系统 | |
CN115761525A (zh) | 一种遥感影像热带气旋目标检测和可视化方法 | |
CN117726954A (zh) | 一种遥感图像海陆分割方法及系统 | |
CN113610032A (zh) | 基于遥感影像的建筑物识别方法和装置 | |
CN117671480A (zh) | 基于视觉大模型的滑坡自动识别方法、系统和计算机设备 | |
CN117611877B (zh) | 基于ls-yolo网络的遥感影像滑坡体检测方法 | |
CN116012709B (zh) | 一种高分辨率遥感影像建筑物提取方法及系统 | |
Qi et al. | JAED-Net: joint attention encoder–decoder network for road extraction from remote sensing images | |
CN115564854A (zh) | 一种风电机组功率区间提取与功率曲线拟合方法 | |
CN113706469A (zh) | 一种基于多模型投票机制的虹膜自动分割方法及系统 | |
CN118467620B (zh) | 一种任务执行环境仿真数据引接处理应用的方法及系统 | |
CN118298184B (zh) | 一种基于层级式误差修正的高分辨率遥感语义分割方法 | |
CN118229965B (zh) | 基于背景噪声削弱的无人机航拍小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |