CN116721263A - 一种基于实时实例分割的轨道扣件状态识别方法 - Google Patents

一种基于实时实例分割的轨道扣件状态识别方法 Download PDF

Info

Publication number
CN116721263A
CN116721263A CN202310586291.6A CN202310586291A CN116721263A CN 116721263 A CN116721263 A CN 116721263A CN 202310586291 A CN202310586291 A CN 202310586291A CN 116721263 A CN116721263 A CN 116721263A
Authority
CN
China
Prior art keywords
mask
track fastener
track
real
steps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310586291.6A
Other languages
English (en)
Inventor
郭峰
刘健
解全一
吕高航
吕成顺
刘天昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202310586291.6A priority Critical patent/CN116721263A/zh
Publication of CN116721263A publication Critical patent/CN116721263A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

一种基于实时实例分割的轨道扣件状态识别方法,获取轨道巡检图像,对轨道巡检图像进行预处理,实现巡检图像对比度增强;构建轨道扣件实时实例分割模型;利用骨干网络在细粒度层次上完成轨道扣件多尺度特征提取及表征;对所提取的轨道扣件多尺度特征进行高、低层次特征融合,得到每阶段的轨道扣件特征图;将得到的各阶段特征图输入到预测头部网络,以计算在原型编码空间中每个实例掩膜系数向量;将得到的最底层特征图输入到原型掩膜生成网络,生成轨道扣件的原型掩膜;通过非最大抑制处理与原型掩膜进行线性合成;将线性合成后的掩膜进行裁剪及阈值过滤,得到最后轨道扣件实例分割结果。

Description

一种基于实时实例分割的轨道扣件状态识别方法
技术领域
本发明涉及一种状态识别方法,尤其是涉及一种基于实时实例分割的轨道扣件状态识别方法。
背景技术
扣件是轨道的重要联结零件,对保证轨道的稳定性、可靠性、安全性有重要作用。扣件将钢轨固定在轨枕上防止出现横、纵向位移,同时能够保持轨道之间的间距稳定、减小钢轨与轨枕之间的冲击力。随着我国铁路线路营业里程持续增长,以及列车运行速度大幅度提升,对扣件系统的安全性、完整性提出了更高要求,如若出现扣件大面积缺失以及损坏,将导致钢轨变形、塌陷,增大列车脱轨风险,严重影响列车的行车安全。因此精确、高效地识别轨道扣件状态对维护铁路线路运营安全有重要意义。
图像处理技术能够实现自动化的轨道扣件巡检,减少人工巡道的不确定性,节省线路运维成本。然而,其高度依赖于人工特征提取设计,泛化性能较差,只在特定场景下具备较高的准确性,线路切换时,检测器容易失效,无法实现大面积轨道扣件状态识别。近年来,人工智能的巨大成功推动了自动化轨道巡检技术的发展。在训练大量轨道图像数据样本的基础上,扣件特征在深度卷积神经网络中可以实现自动化学习,降低了特征提取的复杂性,提高了模型的鲁棒性,简化了轨道扣件状态识别的流程。
现有基于深度学习的轨道扣件状态识别算法主要采用目标检测的形式,通过划分不同扣件状态,对所标注的图像数据进行模型训练,利用单阶段或两阶段目标检测模型,实现不同扣件状态下的特征提取、特征融合、状态分类。此类方法在一定程度上解决了轨道扣件巡检的实时性问题,但现有的轨道扣件状态识别方法,无法同步做到实时性推理(识别速度大于30帧每秒)与掩膜生成(对处理的图像进行遮挡)。以Mask-RCNN为代表的实例分割网络(如图1,许贵阳,李金洋,白堂博等.基于改进Mask R-CNN的轨道扣件状态检测方法[J].中国铁道科学,2022,43(01):44-51)能生成轨道扣件掩膜,但识别速度较低,通常为2-3帧每秒;以EfficientNet为代表的实时目标检测网络(如图2,邹文武,许贵阳,白堂博.基于EfficientDet的轨道扣件识别与检测[J/OL].武汉大学学报(工学版):1-9[2023-03-29].http://kns.cnki.net/kcms/detail/42.1675.T.20221111.1053.002.html.)能快速识别轨道扣件,但无法生成高质量掩膜,只能生成相应目标框。
发明内容
本发明提出了一种基于实时实例分割的轨道扣件状态识别方法,创新性地将细粒度感知模块以及平行架构融合到深度学习网络当中,能够做到对轨道扣件的实时识别(大于30帧每秒),同时生成高质量扣件掩膜,对轨道扣件进行像素级描述。
一种基于实时实例分割的轨道扣件状态识别方法,其特征为:
步骤1,获取轨道巡检图像,对轨道巡检图像进行预处理,实现巡检图像对比度增强;
步骤2,构建以YOLACT为基础的轨道扣件实时实例分割模型;所述轨道扣件实时实例分割模型包括Res2Net骨干网络、多尺度特征融合金字塔、Protonet原型掩膜生成网络、预测头部网络;
步骤3,利用Res2Net骨干网络增加网络模型特征感受野,在细粒度层次上完成轨道扣件多尺度特征提取;
步骤4,对所提取的轨道扣件多尺度特征进行高、低层次特征融合(例如骨干网络中的当前阶段和临近某一阶段),得到每阶段的轨道扣件特征图;
步骤5,将所得到的各阶段特征图输入到预测头部网络,以计算在原型编码空间中每个实例的掩膜系数向量;
步骤6,将所得到的最底层特征图输入到Protonet原型掩膜生成网络,生成轨道扣件的原型掩膜;
步骤7,将步骤5所得到的预测实例进行非最大抑制处理,并与步骤6中生成的原型掩膜进行线性合成;
步骤8,将线性组合后的掩膜进行裁剪及阈值过滤,得到最后的轨道扣件实例分割结果。
有益效果
1. 不同轨道扣件在每个网络层中的感受野得到加强,其多尺度特征在细粒度层次上得以表示;
2. 不同尺度的轨道扣件特征得以融合加强,通过深浅层次特征融合,可有效减少轨道扣件的语义信息特征以及空间信息特征在卷积过程中的损失;
3. 目标检测头部网络与Protonet的平行设计可提高网络的推理速度,减少网络训练冗余的发生;
4. 细小尺寸的轨道扣件可以被有效识别,避免了大规模的错检以及漏检。
附图说明
图1为现有技术基于改进Mask R-CNN的轨道扣件状态检测方法;
图2为现有技术基于EfficientDet的轨道扣件识别与检测方法;
图3为本申请实施例所提供的一种基于实时实例分割的轨道扣件状态识别方法的流程图;
图4为本申请实施例所提供的一种轨道扣件实时实例分割模型结构示意图;
图5为本申请实施例所提供的Res2Net骨干网络结构示意图;
图6为本申请实施例所提供的Protonet所生成的原型掩膜;
图7a为图像融合过程;
图7b为图像卷积过程;
图8为实验具体结果。
具体实施方式
一种基于实时实例分割的轨道扣件状态识别方法,包括以下步骤:
步骤1,获取轨道巡检图像,对轨道巡检图像进行预处理,实现巡检图像对比度增强;
实现巡检图像对比度增强的具体方式为:执行直方图均衡化,通过变换强度图像中的像素值,以输出图像的直方图近似匹配制定的直方图,进而增强图像的对比度。
步骤2,构建以YOLACT为基础的轨道扣件实时实例分割模型(见图4),该模型采用平行架构,在经过骨干网络特征提取以及多尺度特征融合后,分别进行掩膜系数计算以及轨道扣件状态预测分类;所述轨道扣件实时实例分割模型包括Res2Net骨干网络、多尺度特征融合金字塔、Protonet原型掩膜生成网络、预测头部网络;
构建的轨道扣件实时实例分割模型采用顺序以及平行架构。其中,骨干网络包括四个阶段:c2, c3, c4, c5分别用于轨道扣件特征多尺度提取,采用自下而上的特征提取方式生成轨道扣件多尺度特征图,c2阶段的特征图大小为原图的1/16,c3阶段的特征图大小为原图的1/64,c4阶段的特征图大小为原图的1/256,c5阶段的特征图大小为原图的1/1024;多尺度特征融合金字塔包括四个阶段:p3,p4,p5,p6分别用于多尺度特征图的特征融合,四个阶段采用自上而下的特征传递方式,骨干网络和多尺度特征融合金字塔之间采用横向连接,促进网络对轨道扣件的状态理解以及轨道扣件位置定位;Protonet原型掩膜生成网络以及预测头部网络采用平行架构,可保证在生成Proto原型掩膜的同时,高效对轨道状态进行分类;掩膜精细化生成包括裁剪以及阈值分割,在Protonet原型掩膜生成网络以及预测头部结构之后,采用顺序连接结构,完成钢轨扣件状态的精细化掩膜生成以及状态判识。轨道扣件实时实例分割模型所采用的顺序及平行架构可在保证检测精度的前提下,降低10%的推理速度。
步骤3,利用Res2Net骨干网络增加网络模型特征,在细粒度层次上完成轨道扣件多尺度特征提取;
特征图在经过1×1卷积后分成4个部分:第一部分命名为x1不做处理,直接传到y1;第二部分命名为x2经过3×3卷积后分成两部分,一部分向前传递给y2,一部分传给x3;第三部分命名为x3经过3×3卷积后分成两部分,一部分向前传递给y3,一部分传给x4;第四部分命名为x4经过3×3卷积后,向前传递给y4。假设x1,其中i∈{1,2,3,…,s},Ki()表示3×3卷积,那么输出yi为:
步骤4,对所提取的轨道扣件进行多尺度特征融合,得到每阶段的轨道扣件特征图;
采用上采样过程对不同阶段的特征图进行传递,利用横向连接将上采样结果和骨干网络中自下向上的大小相同的特征图进行融合,在特征图融合后采用3×3卷积对每个融合结果进行卷积操作,消除特征图融合过程中易出现的混叠效应。图像的融合过程示意图如下图7a所示,特征图1中有三个参数,c1代表通道数,h代表特征图高度,w代表特征图宽度,特征图2中有三个参数,c2代表通道数,h代表特征图高度,w代表特征图宽度,经过特征融合操作,轨道扣件特征图的通道数得到有效增加。图像的卷积过程示意图,如下图7b所示。经过层层卷积,不同轨道扣件的复杂特征得以提取,以便为后续的状态识别做准备。
步骤5,将所得到的各阶段特征图输入到预测头部网络,以通过连续两步卷积操作计算每个实例的掩膜系数向量,其中每一步卷积操作的通道数均设置为256;
利用基于锚框的目标检测器中已有的三个分支,通过tanh激活函数分别预测种类置信度、目标框以及目标掩模系数。对于掩膜系数的预测,添加第三个分支预测k个掩膜系数,其中k由实际需求所确定
tanh激活函数如下:
步骤6,将所得到的最底层特征图输入到Protonet原型掩膜生成网络,生成轨道扣件的原型掩膜,轨道扣件原型掩膜可见图6,掩膜主要用来图形化遮挡轨道扣件,使其更容易在检测中被分辨出来;
采用4层全卷积网络结构设计Protonet,其中最后一层的通道数设置为k,与步骤5中的k个掩膜系数相对应,对于Protonet部分,不再单独设置损失训练,该部分的损失训练合并到最终的掩膜损失。
步骤7,将步骤5所得到的预测实例进行非最大抑制处理,非最大抑制处理公式按照如下公式处理
其中,si代表预测分数,iou代表交并比,threshold代表阈值。
通过与步骤6中生成的原型掩膜进行下述线性组合操作;利用线性组合生成最终的实例掩膜,其中采用线性操作完成生成原型与掩膜系数的合并,之后利用sigmoid激活函数生成最终的轨道扣件掩膜,生成掩膜的计算方法参照如下公式:
其中,P代表h×w×k的掩膜原型矩阵,h是特征图高度,w是特征图宽度;C代表n×k矩阵,表示有n个通过非最大抑制和阈值过滤的实例,k代表掩膜系数个数。
步骤8,将线性合成后的掩膜进行裁剪及阈值过滤,得到最后的轨道扣件实例分割结果,并在不同光照条件下证明了其有效性,表明能够在实际环境中进行检测活动,实验具体结果如图8所示。
本发明提出了一种基于实时实例分割的轨道扣件状态识别方法,通过利用Res2Net骨干网络、多尺度特征融合金字塔、Protonet原型掩膜生成网络、预测头部网络,对不同轨道扣件状态进行实时预测。相比于现有方法,该方法具有以下优点:
1. 不同轨道扣件在每个网络层中的感受野得到加强,其多尺度特征在细粒度层次上得以表示;
2. 不同尺度的轨道扣件特征得以融合加强,通过高、低层次特征融合,可有效减少轨道扣件的语义信息特征,以及空间信息特征在卷积过程中的损失;
3. 目标检测头部网络与Protonet的平行设计可提高网络的推理速度,减少网络训练冗余的发生;
4. 细小尺寸的轨道扣件可以被有效识别,避免了大规模的错检以及漏检。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。

Claims (10)

1.一种基于实时实例分割的轨道扣件状态识别方法,其特征为:
步骤1,获取轨道巡检图像,对轨道巡检图像进行预处理,实现巡检图像对比度增强;
步骤2,构建以YOLACT为基础的轨道扣件实时实例分割模型;所述轨道扣件实时实例分割模型包括Res2Net骨干网络、多尺度特征融合金字塔、Protonet原型掩膜生成网络、预测头部网络;
步骤3,利用Res2Net骨干网络增加网络模型特征感受野,在细粒度层次上完成轨道扣件多尺度细粒特征提取;
步骤4,对所提取的轨道扣件多尺度细粒度特征进行高、低层次特征融合,得到每阶段的轨道扣件特征图;
步骤5,将所得到的各阶段特征图输入到预测头部网络,以计算在原型编码空间中每个实例的掩膜系数向量;
步骤6,将所得到的最底层特征图输入到Protonet原型掩膜生成网络,生成轨道扣件的原型掩膜;
步骤7,将步骤5所得到的预测实例进行非最大抑制处理,并与步骤6中生成的原型掩膜进行线性组合;
步骤8,将线性合成后的掩膜进行裁剪及阈值过滤,得到最后的轨道扣件实例分割结果。
2.根据权利要求1所述的一种基于实时实例分割的轨道扣件状态识别方法,其特征为:所述步骤1进一步包括如下内容:实现巡检图像对比度增强的具体方式为:执行直方图均衡化,通过变换强度图像中的像素值,以输出图像的直方图近似匹配制定的直方图,进而增强图像的对比度。
3.根据权利要求1所述的一种基于实时实例分割的轨道扣件状态识别方法,其特征为:所述步骤2进一步包括如下内容:构建的轨道扣件实时实例分割模型采用顺序以及平行架构,其中:骨干网络包括四个阶段,采用自下而上的特征提取方式;多尺度特征融合金字塔包括四个阶段,采用自上而下的特征传递方式,骨干网络和多尺度特征融合金字塔之间采用横向连接;Protonet原型掩膜生成网络以及预测头部网络采用平行架构;掩膜精细化生成包括裁剪以及阈值分割,在Protonet原型掩膜生成网络以及预测头部结构之后,并采用顺序连接结构。
4.根据权利要求1所述的一种基于实时实例分割的轨道扣件状态识别方法,其特征为:所述步骤3进一步包括如下内容:轨道扣件特征图在经过1×1卷积后分成4个部分:第一部分命名为x1不做处理,直接传到y1;第二部分命名为x2经过3×3卷积后分成两部分,一部分向前传递给y2,一部分传给x3;第三部分命名为x3经过3×3卷积后分成两部分,一部分向前传递给y3,一部分传给x4;第四部分命名为x4经过3×3卷积后,向前传递给y4;假设x1,其中i∈{1,2,3,…,s},Ki()表示3×3卷积,那么输出yi为:
;
其中:x为输入特征图,y为输出特征图,s为尺寸维度控制参数。
5.根据权利要求1所述的一种基于实时实例分割的轨道扣件状态识别方法,其特征为:步骤4中,采用上采样过程对不同阶段的轨道扣件特征图进行传递,利用横向连接将上采样结果和骨干网络中自底向上的大小相同的特征图进行融合,在特征图融合后采用3×3卷积对每个融合结果进行卷积操作,消除特征图融合过程中易出现的混叠效应。
6.根据权利要求1所述的一种基于实时实例分割的轨道扣件状态识别方法,其特征为:步骤5中,利用基于锚框的目标检测器中已有的两个分支,分别预测种类置信度以及边界框回归器;对于掩膜系数的预测,添加第三个分支预测k个掩膜系数,其中k由实际需求所确定。
7.根据权利要求6所述的一种基于实时实例分割的轨道扣件状态识别方法,其特征为:步骤6中,采用4层全卷积网络结构设计Protonet,其中最后一层的通道数设置为k,与步骤5中的k个掩膜系数相对应,对于Protonet部分,不再单独设置损失训练,该部分的损失训练合并到最终的掩膜损失。
8.根据权利要求1所述的一种基于实时实例分割的轨道扣件状态识别方法,其特征为:步骤7中,利用线性组合生成最终的实例掩膜,其中采用线性操作完成生成原型与掩膜系数的合并,之后利用sigmoid激活函数生成最终的轨道扣件掩膜,生成掩膜的计算方法参照如下公式:
;
其中,P代表h×w×k的掩膜原型矩阵,h是特征图高度,w是特征图宽度;C代表n×k矩阵,表示有n个通过非最大抑制和阈值过滤的实例,k代表掩膜系数个数;代表sigmoid激活函数。
9.一种非易失性存储介质,其特征在于,所述非易失性存储介质包括存储的程序,其中,所述程序运行时控制非易失性存储介质所在的设备执行权利要求1至8中任意一项所述的方法。
10.一种电子装置,其特征在于,包含处理器和存储器;所述存储器中存储有计算机可读指令,所述处理器用于运行所述计算机可读指令,其中,所述计算机可读指令运行时执行权利要求1至8中任意一项所述的方法。
CN202310586291.6A 2023-05-23 2023-05-23 一种基于实时实例分割的轨道扣件状态识别方法 Pending CN116721263A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310586291.6A CN116721263A (zh) 2023-05-23 2023-05-23 一种基于实时实例分割的轨道扣件状态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310586291.6A CN116721263A (zh) 2023-05-23 2023-05-23 一种基于实时实例分割的轨道扣件状态识别方法

Publications (1)

Publication Number Publication Date
CN116721263A true CN116721263A (zh) 2023-09-08

Family

ID=87868847

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310586291.6A Pending CN116721263A (zh) 2023-05-23 2023-05-23 一种基于实时实例分割的轨道扣件状态识别方法

Country Status (1)

Country Link
CN (1) CN116721263A (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597920A (zh) * 2020-04-27 2020-08-28 东南大学 一种自然场景下的全卷积单阶段的人体实例分割方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597920A (zh) * 2020-04-27 2020-08-28 东南大学 一种自然场景下的全卷积单阶段的人体实例分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
梦坠凡尘(AICV与前沿): "YOLACT Real-time Instance Segmentation", pages 1 - 6, Retrieved from the Internet <URL:https://blog.csdn.net/c2250645962/article/details/105952744> *
舒军 等: "基于YOLACT ++的槟榔检测算法研究", 湖北工业大学学报, vol. 30, no. 4, pages 1 - 3 *

Similar Documents

Publication Publication Date Title
Xu et al. Inter/intra-category discriminative features for aerial image classification: A quality-aware selection model
Yang et al. Deeplab_v3_plus-net for image semantic segmentation with channel compression
Gao et al. YOLOv4 object detection algorithm with efficient channel attention mechanism
CN113177560A (zh) 一种普适性轻量级深度学习车辆检测方法
CN113762201A (zh) 基于yolov4的口罩检测方法
WO2022116616A1 (zh) 一种基于转换模块的行为识别方法
Lin et al. How generative adversarial networks promote the development of intelligent transportation systems: A survey
CN113989933B (zh) 一种在线行为识别模型训练、检测方法及系统
CN115471746A (zh) 一种基于深度学习的船舶目标识别检测方法
Chen et al. Efficient railway track region segmentation algorithm based on lightweight neural network and cross-fusion decoder
Zhao et al. Cbph-net: A small object detector for behavior recognition in classroom scenarios
Kapoor et al. An intelligent railway surveillance framework based on recognition of object and railway track using deep learning
Wang et al. Automatic rail component detection based on AttnConv-net
Tang et al. A lightweight surface defect detection framework combined with dual-domain attention mechanism
Yang et al. Safety helmet wearing detection based on an improved YOLOv3 scheme
CN116721263A (zh) 一种基于实时实例分割的轨道扣件状态识别方法
CN116935389A (zh) 基于自蒸馏算法的文本检测方法及系统
Zhang et al. MSFFA-YOLO Network: Multi-Class Object Detection for Traffic Investigations in Foggy Weather
CN117079095A (zh) 基于深度学习的高空抛物检测方法、系统、介质和设备
CN116630602A (zh) 一种基于改进YOLOv5算法的机械臂抓取目标物体检测方法
Wan et al. One-shot unsupervised domain adaptation for object detection
Liao et al. Mobile-Seed: Joint Semantic Segmentation and Boundary Detection for Mobile Robots
CN116863509B (zh) 运用改进的PolarMask进行人形轮廓检测和姿态识别的方法
CN115841654B (zh) 一种基于高位监控视频的异常事件检测方法
CN113449611B (zh) 一种基于yolo网络压缩算法的安全帽识别智能监控系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination