CN113920435A - 一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法 - Google Patents

一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法 Download PDF

Info

Publication number
CN113920435A
CN113920435A CN202111315604.1A CN202111315604A CN113920435A CN 113920435 A CN113920435 A CN 113920435A CN 202111315604 A CN202111315604 A CN 202111315604A CN 113920435 A CN113920435 A CN 113920435A
Authority
CN
China
Prior art keywords
detection
ground object
railway
remote sensing
along
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111315604.1A
Other languages
English (en)
Inventor
王阳萍
韩淑梅
杨景玉
党建武
雍玖
岳彪
王松
王文润
陈永
任鹏百
杨艳春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lanzhou Jiaotong University
Original Assignee
Lanzhou Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lanzhou Jiaotong University filed Critical Lanzhou Jiaotong University
Priority to CN202111315604.1A priority Critical patent/CN113920435A/zh
Publication of CN113920435A publication Critical patent/CN113920435A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于密集网络和注意力机制的铁路沿线遥感图像地物检测方法,涉及深度学习及遥感图像地物目标检测领域。包括使用DenseNet模块代替YOLOv4网络结构CSPDarknet53中部分CSP单元的ResNet残差模块,以实现特征重用;在YOLOv4的骨干网中的每个CSP_Unit中增加一个压缩激励结构,以增强提取特征的能力;在输出网络之前引入通道和空间注意力机制,从而提高检测的准确性。制作铁路沿线遥感地物目标检测数据集,并在该数据集上对改进后的YOLOv4网络结构进行训练,得到训练好的铁路沿线遥感地物检测模型,进行地物检测。本发明能够提高检测速度和检测精度,减小模型大小,适合铁路沿线遥感地物目标检测,满足实时性的要求。

Description

一种基于密集网络和注意力机制的铁路沿线遥感地物目标检 测方法
技术领域
本发明属于深度学习遥感图像地物目标检测技术领域,具体为一种基于密集网络和注意力机制的铁路沿线遥感地物检测方法。
背景技术
高速铁路沿线地理环境复杂,存在诸多安全隐患,尤其是沿线的房屋、水池、隧道和工厂等非法建筑会严重影响高速铁路的运营安全。因此,必须对铁路沿线地物进行及时的排查。传统的人工排查方法费时费力、效率低下,很难对整个铁路网进行全面排查。高分辨率遥感技术具有实时性、周期性等技术优势,为快速、动态、客观地检测铁路沿线地物提供了有效的技术手段。但现有的目标检测算法检测速度慢、精度差、漏检率高,对精确检测地物目标和设备移动性提出了新的挑战。
基于以上所述,具有较高检测精度和检测速度的基于卷积神经网络(CNN) 的目标检测算法得到了广泛应用。目前,基于CNN的目标检测算法可分为两类,一类是以R-CNN、Fast-RCNN及Mask-RCNN为主的两阶段区域目标检测算法,此类算法通常检测精度较高,但检测速度慢,无法实现高速铁路沿线遥感图像地物目标的实时检测。因此,出现了以SDD(Single Shot multibox Detector)及YOLO (You only Look Once)系列为代表的一阶段回归目标检测算法,这些算法把目标检测问题转化为回归问题,很大程度上加快了检测速度。尤其是YOLOv4算法,其是一种将各种先进算法进行集成的创新,可以在自然图像数据集中获得极佳的检测结果。然而,以上目标检测算法主要用于常规图像目标的检测,对于多波段且背景复杂的遥感图像目标,在精度和速度上均无法体现出其优势。
发明内容
本发明的目的在于,针对上述技术问题,提供一种基于密集网络和注意力机制的铁路沿线遥感地物检测方法,以提高检测速度和检测精度,减小模型大小,满足实时性的要求。
本发明的目的是通过以下技术方案实现的:
一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法,包括以下步骤:
步骤一、制备带有标记信息的铁路沿线遥感地物目标检测数据集;
步骤二、使用DenseNet模块替换YOLOv4算法网络结构中部分CSP单元的 ResNet残差模块,实现多特征图的合并和特性重用,得到DenseNet改进的 YOLOv4网络结构;
步骤三、在DenseNet改进的YOLOv4网络结构骨干网中的每个CSP_Unit 中增加一个SE(压缩激励)结构,根据SE结构中每个通道的全局信息增强有用的通道信息,同时抑制无用的通道信息以减小模型大小,减少计算量,得到SE 结构改进的YOLOv4网络结构;
步骤四、在SE结构改进的YOLOv4网络结构中引入CBAM注意力机制,提高网络性能和地物检测准确性,得到改进后的YOLOv4网络结构。
步骤五、利用步骤一中所述数据集对改进后的YOLOv4网络结构进行训练,得到训练好的地物检测模型;
步骤六、将实时获取的铁路沿线遥感地物图像输入到训练好的地物检测模型中进行地物检测。
进一步地,步骤一中,所述制备带有标记信息的铁路沿线遥感地物目标检测数据集,具体为:在谷歌地球上截取铁路沿线地物目标图像,并采用LabelImage 软件进行标记。
进一步地,所述铁路沿线遥感地物目标包括铁路、高楼建筑物、房屋、农田和水池。
进一步地,步骤二中,将DenseNet模块中的CBL(Conv-BN-LeakyReLu)模块改进为由两个CBM(Conv-BN-Mish)模块级联而成的双CBM(Double CBM)模块,构成密集连接网络结构,解决ReLu激活函数输出为0的问题,即神经元坏死的现象,得到DenseNet改进的YOLOv4网络结构。
进一步地,步骤四中,在所述SE结构改进的YOLOv4网络结构输出结果之前加入CBAM注意力机制,利用CBAM注意力机制的通道和空间注意力提取更深层的信息,进行自适应细化特征以提高网络的性能,得到改进后的YOLOv4 网络结构。
进一步地,步骤六中,地物检测过程包括以下步骤:
(1)首先将铁路沿线遥感地物图像划分成S×S的网格,如果某个类别的地物落在了某个网格中,那么这个网格就负责检测该类地物;每个网格预测B个检测框并且预测这些检测框的置信度,每个图像有S×S×B个检测框;
(2)每个检测框设置W,H,X,Y,Conf 5个预测值,其中,X、Y代表检测框的中心点,相当于网格边界框的坐标,W、H代表地物图像的尺寸,Conf代表检测框的置信度;
置信度的计算公式如下式(1)所示:
Figure RE-GDA0003397342390000031
式(1)中,IOU代表预测框和真实框的交并比,如式(2)所示;
Figure RE-GDA0003397342390000032
DetectionResult表示预测框的面积,GroundTruth表示真实框的面积;IOU 的值越大,地物目标定位的准确性就越高;Pr(class|object)为每个网格预测地物的条件概率,条件为已知网格中包含的地物目标;
(3)在检测时,将条件概率与预测框和真实框的交并比相乘,得到每个检测框铁路沿线地物目标的置信度得分;
(4)通过非极大值抑制过滤掉冗余的检测框,得到最终的铁路沿线地物目标检测结果。铁路沿线地理环境复杂、遥感地物目标种类多样及密集分布会产生部分地物特征丢失的现象,检测时会出现地物的漏检、误检、遮挡等现象。本发明改进YOLOv4网络结构骨干网络CSPCSPDarknet53的部分CSP单元中的 DenseNet模块,改善了铁路沿线遥感图像地物检测过程中出现的漏检、误检、遮挡等现象,提高铁路沿线遥感图像地物检测的位置精度。
DenseNet改进的YOLOv4网络结构在实际应用中模型较大导致检测速度较慢,无法进行实时性检测的现象。本发明在DenseNet改进的YOLOv4网络结构的骨干网每个CSP_Unit中增加一个SE(压缩激励)结构以增强提取特征的能力,再在YOLOv4算法输出网络之前引入CBAM注意力模块机制,提高铁路沿线遥感图像中地物检测的准确性。
DenseNet模块由卷积、归一化处理和Leaky-ReLu激活函数组成,Leaky-ReLu 激活函数是ReLu的衍变版本,主要解决ReLu输出为0的问题,即神经元坏死的现象。但该函数近似线性,导致在复杂分类中效果不好,这样会影响目标检测精度。使用Mish激活函数在训练稳定性和识别准确性上有很大提升,将原来的CBL(Conv-BN-LeakyReLu)模块改进为两个CBM(Conv-BN-Mish)模块级联而成的双CBM(Double CBM)模块,构成密集连接网络。
SE模块由压缩和激励两部分操作组成。SE模块通过显式地建模通道之间的相互依赖关系,自适应地重新校准通道式的特征响应。这可以很大程度上提高网络特征提取能力,更多非线性能够拟合通道间的复杂相关性,使参数和计算量大大减少。
CBAM注意力机制,利用其通道和空间注意力提取更深层的信息,进行自适应细化特征以提高网络的性能。
综上,本发明的有益效果为,首先,为了减少网络对残差单元的依赖和实现特征重用,使用DenseNet块代替主干网络CSPDarknet53部分CSP单元中的 ResNet残差模块;其次,为了压缩YOLOv4模型大小以提高检测速度,在YOLOv4 的骨干网的每个CSP_Unit中增加一个SE(压缩激励)结构以增强提取特征的能力;最后,为了能够表达更深层的信息,进一步提高网络的检测性能,在输出网络之前引入CBAM注意力模块机制,从而提高检测的准确性,满足高精度实时检测的需求。
附图说明
图1为本发明基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法流程图;
图2为本发明改进后的YOLOv4网络结构图;
图3为本发明YOLOv4算法的铁路沿线地物检测实施过程图;
图4和图5分别为采用原YOLOv4算法和改进的YOLOv4算法进行铁路沿线地物目标检测的结果对比图;图中,a代表铁路、b代表水池、c代表房屋、d 代表高楼建筑物,e代表农田。
具体实施方式
下面结合附图,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1所示,本实施例提供的一种基于密集网络和注意力机制的铁路沿线遥感图像地物检测方法,包括以下步骤:
步骤101:制备带有标注信息的铁路沿线遥感图像地物目标检测数据集;所述铁路沿线遥感图像地物目标检测数据集是由铁路沿线的铁路、高楼建筑物、房屋、农田和水池五种地物目标所组成的数据集。
在步骤101中,考虑到现有的遥感目标检测数据集无法满足铁路沿线地物检测,在谷歌地球中截取铁路沿线遥感图像地物图像,得到初始铁路沿线遥感地物图像数据集。本发明共截取了2048张铁路沿线遥感地物图像,即初始铁路沿线遥感地物图像数据集中共有2048张铁路沿线遥感地物图像。其中包括铁路764 张,高楼建筑物220张,房屋130张,农田562张,水池372张。从这2048张图像中随机选取了205张图像做验证集,剩下1843张图像做训练集。该数据集主要为了评估地物目标分类和定位信息在铁路沿线遥感地物检测中的作用,以便很好的提取信息,评估神经网络的性能。
采用LabelImage软件对初始铁路沿线遥感地物图像数据集中的铁路、高楼建筑物、房屋、农田和水池这五种地物图像进行标注,得到铁路沿线遥感地物图像数据集。标注完后会得到一个训练用的XML格式的文档,里面包含了铁路沿线地物在图像中的位置坐标信息。
步骤102:在YOLOv4算法的网络结构基础上引入DenseNet模块。
DenseNet模块能使网络梯度的反向传播得到增强,可以更好地利用特征信息,提高层间信息的透光率。在步骤102中,使用DenseNet模块替换YOLOv4 算法的网络结构中部分CSP单元中ResNet残差模块,实现多特征图的合并和特性重用,得到DenseNet模块改进的YOLOv4网络结构。
步骤103:在所述使用DenseNet模块改进的YOLOv4算法的网络结构的基础上SE通道注意力机制,在骨干网中的每个CSP_Unit中增加一个SE(压缩激励)结构,减小模型大小,减小计算量,提高地物目标检测速度,得到使用SE 通道注意力机制改进的YOLO4网络结构。
SE结构的作用是可以学习每个特征通道的重要性,并根据每个通道重要性,使用全局信息来增强有用的通道信息,同时抑制无用的通道信息,从而减小模型大小,提高检测速度。
步骤104:在SE结构改进的YOLOv4网络结构中引入CBAM注意力机制,提高网络性能和地物检测准确性,得到改进后的YOLOv4网络结构。
改进后的YOLOv4的网络结构如图2所示。本发明使用Dense1块和Dense2 块代替YOLOv4网络的主干网络CSPDarknet53的部分CSPX单元中的ResNet 残差模块,实现特征重用。在每个CSPX_Unit中的Res unit后面增加一个SE模块,即CSPX-SE,减小模型大小,从而提高检测速度。在每个尺度预测输出结果之前加入CBAM注意力模块,提高网络性能,从而提高地物检测准确性。
步骤105:利用所述铁路沿线要遥感图像地物检测数据集,对所述改进后的YOLOv4网络结构进行训练,得到训练好的铁路沿线遥感图像地物检测模型。
步骤106:将实时获取的铁路沿线遥感地物图像输入到训练好的地物检测模型中进行地物检测。
YOLOv4网络的铁路沿线遥感图像地物检测包括以下详细过程(图3):
(1)首先将铁路沿线遥感地物图像划分成S×S的网格,如果某个类别的地物落在了某个网格中,那么这个网格就负责检测该类地物;每个网格预测B个检测框并且预测这些检测框的置信度,每个图像有S×S×B个检测框;
(2)每个检测框都有5个预测值(W,H,X,Y,Conf)。其中,X,Y代表检测框的中心点,相当于网格边界框的坐标,W、H代表地物图像的尺寸,Conf代表检测框的置信度;
置信度的计算公式如下式(1)所示:
Figure RE-GDA0003397342390000061
式(1)中,IOU代表预测框和真实框的交并比,如式(2)所示;
Figure RE-GDA0003397342390000062
DetectionResult表示预测框的面积,GroundTruth表示真实框的面积。IOU 的值越大,地物目标定位的准确性就越高。
(3)每个网格预测地物的条件概率为Pr(class|object),条件为已知网格中包含的地物目标。
(4)在检测时,将条件概率与预测框和真实框的交并比相乘,得到每个检测框铁路沿线地物目标的置信度得分,这些置信得分也包含了检测框中出现铁路沿线地物目标的概率以及检测框和铁路沿线地物目标的匹配程度。
(5)通过非极大值抑制(NMS)过滤掉冗余的检测框,得到最终的铁路沿线地物目标检测结果。
为了验证改进的YOLOv4在铁路沿线遥感地物目标检测中的有效性,本发明将改进的方法与基本的YOLOv3、YOLOv3-UAV、YOLOv3-Ship以及基本的 YOLOv4算法在数据集上进行测试,并进行比较。
测试环境:操作系统为Windows 10,平台为Keras,语言为Python,CPU 为Intel(R)Xeon(R)Gold 5115CPU@2.40GHz 2.39GHz,显卡为16G的NVIDIA Quadro P5000,运行内存为128GB。
测试实验中,改进的YOLOv4在网络训练过程中的初始化参数设置如表1 所示。
表1改进的YOLOv4在网络训练过程中的初始化参数
Figure RE-GDA0003397342390000071
表1中Batch_size表示每一批输入网络的图片数量,Image_size代表图片输入网络之前被统一处理的大小。Epochs表示训练时的迭代次数。Momentun表示在权重更新时使用的动量。Initial_learning_rate代表开始训练时所设定的学习率。
a.有效性评价指标
根据分类精度和预测精度,将样本分为四类:TP、FP、TN、FN。精度和召回率及F1的定义如下公式(3)、(4)和(5)所示。
Figure RE-GDA0003397342390000072
Figure RE-GDA0003397342390000073
Figure RE-GDA0003397342390000074
平均精度(mAP)是预测目标位置和类别的性能指标。准确率和召回率在实践中是相互制约的,分开比较会产生歧义。因此,本发明采用mAP评价目标检测精度。mAP计算公式如下公式(6)所示:
Figure RE-GDA0003397342390000081
其中p为精度,r为召回率,k为类别数。
b.测试实验结果
部分YOLO相关算法的实验结果如表2所示。
表2各种YOLO系列算法实验比较
Figure RE-GDA0003397342390000082
表2表明,改进后的YOLOv4方法在mAP、Recall和F1得分方面优于其他算法。模型大小减少了7.49%,检测速度(FPS指标)相对于YOLOv4没有显著降低。
各个类别样本的检测对比如表3所示。从表3中可以看出,各类别中对农田检测效果最好,精度达到86.67%,召回率达到88.21%,F1得分为86.92。高楼建筑物次之。由于实验中只标记了水平横放铁路和垂直竖着的铁路,对倾斜铁路标记较少,因此对铁路的检测效果不是很明显,可以通过调整样本的标记方式得到更好的检测结果。
表3改进的YOLOv4方法针对各个类别样本检测结果
Figure RE-GDA0003397342390000083
图4和图5分别为基本的YOLOv4算法以及本发明改进算法在数据集上的实验结果。图中,a代表铁路、b代表水池、c代表房屋、d代表高楼建筑物,e 代表农田。图中黑框代表预测框。测试图像包括许多复杂测试情况,如图像模糊、复杂背景、密集目标和小尺寸目标。可以看出,改进后的方法对上述测试图像有很好的检测效果。虽然仍有漏检,但改进后的网络对多目标、模糊目标和小规模目标的检测效果更好,误检率比YOLOv4低。在实时检测的条件下能够达到较高的检测精度和速度,能够有效检测复杂背景下的遥感目标。在检测铁路沿线遥感地物目标方面比基本的YOLOv4算法具有更多的优势。
以上实施例仅用于说明本发明的方法及其核心原理,不应理解为对本发明的限制。对于本领域的一般技术人员,依据本发明的原理,在具体实施方式及应用范围上做出的改进,也属于本发明的保护范围。

Claims (6)

1.一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法,其特征在于,包括以下步骤:
步骤一、制备带有标记信息的铁路沿线遥感地物目标检测数据集;
步骤二、使用DenseNet模块替换YOLOv4网络结构中部分CSP单元的ResNet残差模块,得到DenseNet改进的YOLOv4网络结构;
步骤三、在DenseNet改进的YOLOv4网络结构骨干网中的每个CSP_Unit中增加一个SE结构,得到SE结构改进的YOLOv4网络结构;
步骤四、在SE结构改进的YOLOv4网络结构中引入CBAM注意力机制,得到改进后的YOLOv4网络结构。
步骤五、利用步骤一中所述数据集对改进后的YOLOv4网络结构进行训练,得到训练好的地物检测模型;
步骤六、将实时获取的铁路沿线遥感地物图像输入到训练好的地物检测模型中进行地物检测。
2.根据权利要求1所述的一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法,其特征在于,步骤一中,所述制备带有标记信息的铁路沿线遥感地物目标检测数据集,具体为:在谷歌地球上截取铁路沿线地物目标图像,并采用LabelImage软件进行标记。
3.根据权利要求2所述的一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法,其特征在于,所述铁路沿线遥感地物目标包括铁路、高楼建筑物、房屋、农田和水池。
4.根据权利要求1所述的基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法,其特征在于,步骤二中,将DenseNet模块中原来的CBL模块改进为由两个CBM模块级联而成的双CBM模块,构成密集连接网络结构,得到DenseNet改进的YOLOv4网络结构。
5.根据权利要求1所述的基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法,其特征在于,步骤四中,在所述SE结构改进的YOLOv4网络结构输出结果之前加入CBAM注意力机制,利用CBAM注意力机制的通道和空间注意力提取更深层的信息,进行自适应细化特征,得到改进后的YOLOv4网络结构。
6.根据权利要求1所述的基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法,其特征在于,步骤六中,地物检测过程包括以下步骤:
(1)首先将铁路沿线遥感地物图像划分成S×S的网格,如果某个类别的地物落在了某个网格中,那么这个网格就负责检测该类地物;每个网格预测B个检测框并且预测这些检测框的置信度,每个图像有S×S×B个检测框;
(2)每个检测框设置W,H,X,Y,Conf 5个预测值,其中,X、Y代表检测框的中心点,相当于网格边界框的坐标,W、H代表地物图像的尺寸,Conf代表检测框的置信度;
置信度的计算公式如下式(1)所示:
Figure FDA0003343549230000021
式(1)中,IOU代表预测框和真实框的交并比,如式(2)所示;
Figure FDA0003343549230000022
DetectionResult表示预测框的面积,GroundTruth表示真实框的面积;IOU的值越大,地物目标定位的准确性就越高;Pr(class|object)为每个网格预测地物的条件概率,条件为已知网格中包含的地物目标;
(3)在检测时,将条件概率与预测框和真实框的交并比相乘,得到每个检测框铁路沿线地物目标的置信度得分;
(4)通过非极大值抑制过滤掉冗余的检测框,得到最终的铁路沿线地物目标检测结果。
CN202111315604.1A 2021-11-08 2021-11-08 一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法 Pending CN113920435A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111315604.1A CN113920435A (zh) 2021-11-08 2021-11-08 一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111315604.1A CN113920435A (zh) 2021-11-08 2021-11-08 一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法

Publications (1)

Publication Number Publication Date
CN113920435A true CN113920435A (zh) 2022-01-11

Family

ID=79245579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111315604.1A Pending CN113920435A (zh) 2021-11-08 2021-11-08 一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法

Country Status (1)

Country Link
CN (1) CN113920435A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115984672A (zh) * 2023-03-17 2023-04-18 成都纵横自动化技术股份有限公司 基于深度学习的高清图像内小目标的检测方法和装置
CN116342596A (zh) * 2023-05-29 2023-06-27 云南电网有限责任公司 一种基于YOLOv5改进的变电站设备螺母缺陷识别检测方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115984672A (zh) * 2023-03-17 2023-04-18 成都纵横自动化技术股份有限公司 基于深度学习的高清图像内小目标的检测方法和装置
CN116342596A (zh) * 2023-05-29 2023-06-27 云南电网有限责任公司 一种基于YOLOv5改进的变电站设备螺母缺陷识别检测方法
CN116342596B (zh) * 2023-05-29 2023-11-28 云南电网有限责任公司 一种基于YOLOv5改进的变电站设备螺母缺陷识别检测方法

Similar Documents

Publication Publication Date Title
CN110136170B (zh) 一种基于卷积神经网络的遥感影像建筑物变化检测方法
CN109359559B (zh) 一种基于动态遮挡样本的行人再识别方法
Zhu et al. Msnet: A multilevel instance segmentation network for natural disaster damage assessment in aerial videos
CN113920435A (zh) 一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法
CN106127204A (zh) 一种全卷积神经网络的多方向水表读数区域检测算法
CN110956412B (zh) 基于实景模型的洪灾动态评估方法、装置、介质和设备
CN106384092A (zh) 面向监控场景的在线低秩异常视频事件检测方法
CN113076683B (zh) 用于变电站行为监测的卷积神经网络模型的建模方法
CN108648169A (zh) 高压输电塔绝缘子缺陷自动识别的方法及装置
CN106097315A (zh) 一种基于声呐图像的水下构筑物裂缝提取方法
CN110458201A (zh) 一种遥感影像面向对象分类方法及分类装置
CN113569788B (zh) 一种建筑物语义分割网络模型训练方法、系统及应用方法
CN116229052B (zh) 一种基于孪生网络的变电站设备状态变化检测方法
CN112989995A (zh) 文本检测方法、装置及电子设备
CN116206112A (zh) 基于多尺度特征融合和sam的遥感图像语义分割方法
CN114241310B (zh) 基于改进yolo模型的堤防管涌险情智能识别方法
CN115690564A (zh) 基于Recursive BIFPN网络的室外火灾烟雾图像检测方法
CN115240069A (zh) 一种全雾天场景下的实时性障碍物检测方法
CN104318215A (zh) 一种基于域鲁棒卷积特征学习的交叉视角人脸识别方法
Chen et al. Classification of soft-story buildings using deep learning with density features extracted from 3D point clouds
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN115861731A (zh) 基于坐标注意力和双时间语义推理的自然保护地遥感图像语义变化检测方法
CN115527027A (zh) 一种基于多特征融合机制的遥感影像地物分割方法
CN110175548A (zh) 基于注意力机制和通道信息的遥感图像建筑物提取方法
CN111950658B (zh) 一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination