CN111383273A - 一种基于改进结构推理网络的高铁接触网零部件定位方法 - Google Patents

一种基于改进结构推理网络的高铁接触网零部件定位方法 Download PDF

Info

Publication number
CN111383273A
CN111383273A CN202010153837.5A CN202010153837A CN111383273A CN 111383273 A CN111383273 A CN 111383273A CN 202010153837 A CN202010153837 A CN 202010153837A CN 111383273 A CN111383273 A CN 111383273A
Authority
CN
China
Prior art keywords
target
network
information
pooling
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010153837.5A
Other languages
English (en)
Other versions
CN111383273B (zh
Inventor
刘志刚
李昱阳
王惠
杨成
刘文强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN202010153837.5A priority Critical patent/CN111383273B/zh
Publication of CN111383273A publication Critical patent/CN111383273A/zh
Application granted granted Critical
Publication of CN111383273B publication Critical patent/CN111383273B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于改进结构推理网络的高铁接触网零部件定位方法,首先对高速铁路接触网支撑及悬挂装置进行图像采集;再根据采集到的图像建立接触网支撑及悬挂装置的样本数据集;最后将数据集划分为训练集和测试集,训练好结构推理网络后,利用结构推理网络对接触网零部件进行精确快速定位。本发明能够高效快速定位接触网各零部件,网络模型当中的结构推理网络融合了目标自身信息和目标之间的位置关系信息以及场景信息,并以此进行信息的迭代传播;考虑了接触网零部件大小差异太大,使用第二次池化后特征层输入ROI池化层,能够精确定位顶紧螺栓等细小零部件。

Description

一种基于改进结构推理网络的高铁接触网零部件定位方法
技术领域
本发明涉及高速铁路图像智能检测技术领域,具体为一种基于改进结构推理网络的高铁接触网零部件定位方法。
背景技术
高速铁路接触网的设备状态对于列车的安全运行十分重要,而目前铁路上运行的4C检测设备仍主要采用传统的图像处理算法,对于全国情况各异的线路不具有普适性,而且并未实现自动化,检测精度也亟待提高。
随着技术发展,图像检测技术在接触网零部件上的应用愈加广泛。在现有的图像检测技术当中,在检测各零部件的状态之前需要先对其进行定位分类,而传统的图像检测方法不仅精度低、耗时长,并且对于不同铁路线路并不具有通用性。几种经典深度学习网络如Fast RCNN、SSD、YOLO虽然在精度与检测速度上有所提高,但并未达到理想状态。韩烨采用SIFT特征和边缘曲线弯曲度检测旋转双耳耳片状态;张桂南提出了一种通过快速模糊匹配实现绝缘子故障判断的方法;钟俊平利用SIFT算法和改进RANSAC实现双耳套筒的定位;陈隽文提出了基于AdaBoost算法对斜撑套筒进行定位,并利用Hough变换分析螺钉的状态;张桂南介绍了一种实现绝缘子的抗旋转匹配和故障检测的方法;段汝娇通过Hough变换方法检测定位器的倾斜度;刘志刚依据接触网图像结构特点,通过先分类后定位的方法构建级联网络,提高大尺度零部件定位精度。
由于现场采集的接触网支撑及悬挂装置图像普遍较复杂,且尺寸与形状变化大,因此急需一种简单迅速的图像检测算法对接触网各零部件进行快速定位与检测。考虑到接触网支撑悬挂装置各零部件位置相对固定,且检测图像中出现的场景有限,可将其作为训练过程添加的辅助信息。
发明内容
针对上述问题,本发明的目的在于提供一种基于改进结构推理网络(SIN,Structure Inference Net)的高铁接触网零部件定位方法,能够实现接触网零部件精确快速定位,而且考虑了接触网零部件大小差异,使用第二次池化后特征层输入ROI池化层,能够精确定位顶紧螺栓等细小零部件。技术方案如下:
一种基于改进结构推理网络的高铁接触网零部件定位方法,包括以下步骤:
步骤A:对高速铁路接触网支撑及悬挂装置进行图像采集;
步骤B:根据采集到的图像建立接触网支撑及悬挂装置的样本数据集;
步骤C:将数据集划分为训练集和测试集,训练好结构推理网络后,利用结构推理网络对接触网零部件进行精确快速定位:
步骤C1:向网络输入接触网的样本图像,由VGG16网络对其进行卷积与池化操作,将第二次池化操作后的特征图送入ROI池化层,第四次池化操作后的特征图送入RPN网络用于生成建议区域;
步骤C2:RPN网络接收来自VGG16网络的特征图,并采用多种不同大小与长宽比的区域框架对特征图滑动采集零部件特征,得到一定数量的特征区域,然后根据原图groundtruth与特征区域的重叠率大小,筛选出重叠率值大于设定阈值的特征区域作为建议区域,并向ROI池化层输入图像的建议区域;
步骤C3:ROI池化层将每个建议区域映射到特征图上,并在池化操作后将其合并为一个固定大小特征图;经过全连接层后,提取各目标的特征作为视觉特征向量
Figure BDA0002403358680000021
提取整张图像特征作为场景视觉特征向量fs;建议区域各目标特征经过目标边缘关系聚合得到目标节点之间位置关系向量ei→j
步骤C4:结构推理网络接收各目标节点视觉特征向量
Figure BDA0002403358680000022
场景视觉特征向量fs、各目标节点之间位置关系向量ei→j,由一组GRU网络迭代处理并传递这些向量信息,并更新各目标节点的状态,在更新结束后得到最终的集成节点状态;
步骤C5:根据得到目标节点状态,Softmax分类网络与回归网络对各目标节点分类并得到定位矩形框坐标。
进一步的,在所述VGG16网络中,针对小目标特征图分辨率的问题,将pool 2池化操作后的特征图代替原来pool 5池化操作后的特征图送入ROI pooling层,用于对建议区域的目标进行分类;并加上一个1×1的卷积将pool 2池化层的通道数维持在512;且取消原有的pool5池化层以及conv5-1、conv5-2、conv5-3卷积层,改用将pool 4池化操作后的特征图送入RPN网络,用于生成建议区域。
更进一步的,所述结构推理网络使用GRU将不同信息编码为目标状态,GRU将从来自目标之间的关系信息和场景信息中选择相关信息更新当前目标的隐状态,当目标的状态更新时,目标之间的关系也会随着变化;场景GRU的初始状态为视觉特征fv,输入为场景信息ms;边缘GRU的初始状态也为视觉特征fv,输入为目标位置信息me,其中me集成了各个目标对于当前目标vi节点的位置关系;使用max pooling提取出目标信息,
Figure BDA0002403358680000023
集成各目标信息如下式所示:
Figure BDA0002403358680000024
计算目标节点vj对于目标节点vi的位置关系ej→i的计算下式所示:
Figure BDA0002403358680000031
式中,Wp和Wv均为可学习的权重矩阵,视觉关系向量由
Figure BDA0002403358680000032
Figure BDA0002403358680000033
串联而成,
Figure BDA0002403358680000034
表示空间位置关系;完整信息如下式所示:
Figure BDA0002403358680000035
其中,(xi,yi)表示目标的中心点坐标,wi和wj,分别表示目标节点vi和vj的宽度,hj和hj分别表示目标节点vi和vj的高度,si和sj分别表示目标节点vi和vj的面积;目标节点vi通过接收来自场景以及其它节点的信息,得到场景GRU的输出
Figure BDA0002403358680000036
边缘GRU的输出
Figure BDA0002403358680000037
最终的输出为
Figure BDA0002403358680000038
在接下来的迭代中,场景GRU将更新过的节点状态作为其隐状态,并以固定的场景特征作为输入,然后计算下一个节点状态;边缘GRU将新的目标与目标的关系信息作为新的输入,然后计算下一个隐状态;最后,使用最终的集成节点表示来预测目标类别和边界框偏移量。
本发明的有益效果是:本发明能够高效快速定位接触网各零部件,网络模型当中的结构推理网络融合了目标自身信息和目标之间的位置关系信息以及场景信息,并以此进行信息的迭代传播;考虑了接触网零部件大小差异太大,使用第二次池化后特征层输入ROI池化层,能够精确定位顶紧螺栓等细小零部件。
附图说明
图1为本发明方法处理过程框图。
图2为本发明现场采集的高铁接触网悬挂装置图像。
图3为本发明网络模型定位后的高铁接触网悬挂装置零部件图像。
图4为改进后的VGG16网络结构。
图5为图像各类信息建模原理图。
图6为GRU网络输入输出图。
图7为GRU内部原理图。
图8为结构推理网络结构图。
图9为结构推理原理图。
图10为定位结果图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细说明。图1为本发明方法处理过程框图。图2为现场采集的高铁接触网悬挂装置图像,图3使用本发明网络模型定位后的高铁接触网悬挂装置零部件图像,图10为定位结果图。本发明基于结构推理网络的高铁接触网零部件定位方法,包括以下步骤:
步骤A:采用专用综合列检车对高速铁路接触网支撑及悬挂装置进行成像;如图2所示。
步骤B:建立接触网支撑及悬挂装置的样本数据集;接触网支撑悬挂装置零部件如图3所示。
步骤C:将步骤B的数据集划分为训练集和测试集,训练好结构推理网络后,利用结构推理网络对接触网零部件进行精确快速定位。
根据上述方案,所述步骤C的具体过程如下:
步骤C1:将所述数据集划分为训练集和测试集,向网络输入接触网的样本图像,由改进VGG16网络对其进行卷积与池化操作,将第二次池化操作后的特征图送入ROI池化层,第四次池化操作后的特征图送入RPN网络用于生成建议区域;改进后的VGG16网络结构如图4所示。
步骤C2:RPN网络接收来自VGG16网络的特征图,并采用多种不同大小与长宽比的区域框架对特征图滑动采集零部件特征,得到一定数量的特征区域,然后根据原图groundtruth与特征区域的重叠率(IOU)大小,筛选出IOU值大于设定阈值0.7的特征区域作为建议区域,并向ROI池化层输入该图像建议区域。
步骤C3:ROI池化层将每个建议区域映射到特征图上,并在池化操作后将其合并为一个固定大小特征图。经过全连接层后,提取各目标的特征作为视觉特征向量
Figure BDA0002403358680000041
提取整张图像特征作为场景视觉特征向量fs。建议区域各目标特征经过目标边缘关系聚合得到目标节点之间位置关系向量ei→j,图像中各类信息建模如图5所示。
其中,构建的网络主要由VGG16网络、RPN网络、ROI池化层、结构推理网络与分类回归网络组成。
1)VGG16网络。为了适应尺度变化较大的零部件,在原有Anchor尺寸[8,16,32]基础上增加了三个尺寸,变为[2,4,8,16,32,64],长宽比依然为[2:1,1:1,1:2]。增加两个小尺寸Anchor目的是为了更好适应斜撑套筒顶紧螺栓等小目标的尺寸。
针对小目标特征图分辨率的问题,因斜撑套筒螺钉等小目标的特征图Featuremaps经过pool 5池化操作后分辨率过低,故将pool 2池化操作后的特征图代替原来pool 5池化操作后的特征图送入ROI pooling层,用于对建议区域的目标进行分类,由于pool 2池化层后的通道数为256,因此我们加上了一个1×1的卷积将通道数维持在512;除此之外,我们取消了原有的pool 5池化层以及之前的conv5-1、conv5-2、conv5-3卷积层,改用将pool4池化操作后的特征图送入RPN网络,用于生成建议区域,该操作也是为了提高特征图的分辨率。改进后的VGG16网络如图4所示。
2)RPN网络。区域提案网络(RPN,Region Proposal Network)提取感兴趣区域(RoI,region of interest)
3)ROI池化层。将2)中提取的感兴趣区域(RoI)调整到固定大小,将RoI映射到feature map的对应位置。
4)构推理网络。构建结构推理网络,由于铁路接触网个零部件具有空间和位置相互关联的关系,这种关系可以作为零部件定位时的辅助信息,图像中的各类信息可建模如图5所示。
图5中Vi表示建议区域,视作为一个目标节点,由ROI池化层的FC层提取的视觉特征向量
Figure BDA0002403358680000052
表示;ei→j表示目标节点之间的位置关系,由Vi与Vj的空间关系特征和视觉特征计算得来的标量表示;S表示图像的场景,可将拥有相同目标节点的图像视作一类场景,其视觉特征fs作为场景信息表示。
步骤C4:结构推理网络接收各目标节点视觉特征向量
Figure BDA0002403358680000051
场景视觉特征向量fs、各目标节点之间位置关系向量ei→j,由一组GRU网络迭代处理并传递这些向量信息,并更新各目标节点的状态,在更新结束后得到最终的集成节点状态,GRU网络的原理如图6与图7所示,结构推理网络的结构原理如图8与图9所示。
结构推理网络由一组级联的场景GRU和边缘GRU网络组成,其将场景信息和目标之间位置关系信息传至目标节点,并根据图像变化对节点进行更新。
a)、GRU网络原理。图像中每个目标节点都需要接收大量来自场景和其它目标节点的信息,并将这些信息进行整合以得到一个完整信息,这个功能由GRU(Gate RecurrentUnit)网络来完成。GRU(Gate Recurrent Unit)是循环神经网络(Recurrent NeuralNetwork,RNN)的一种。
GRU网络的输入为当前状态xt和上一个节点传递的隐状态
Figure BDA0002403358680000054
该隐状态
Figure BDA0002403358680000055
包含了之前节点的相关信息,网络的输出为当前隐藏节点状态yt与传递到下一节点的隐状态
Figure BDA0002403358680000053
GRU首先通过xt
Figure BDA0002403358680000067
获得重置门门控状态(reset gate,以r表示)与更新门门控状态(update gate,以z来表示),可以用下式表示。其中σ为sigmoid逻辑函数,Wr和Wz均为可学习的权重矩阵。
r=σ(Wr[x,ht])
r=σ(Wz[x,ht]
随后
Figure BDA0002403358680000068
通过重置门控得到
Figure BDA0002403358680000069
在与xt拼接后通过tanh激活函数获得
Figure BDA00024033586800000610
如下式所示,其中⊙表示矩阵元素相乘。
Figure BDA00024033586800000611
Figure BDA00024033586800000612
最后,
Figure BDA00024033586800000613
Figure BDA00024033586800000614
通过更新门控z获得
Figure BDA00024033586800000615
去除了
Figure BDA00024033586800000616
中传递下来的某些维度信息,并加入当前节点某些维度信息,如下式所示。
Figure BDA00024033586800000617
GRU网络输入输出图如图6所示,GRU内部原理图如图7所示。
b)结构推理网络。结构推理网络使用GRU将不同信息编码为目标状态,GRU将从来自目标之间的关系信息和场景信息中选择相关信息更新当前目标的隐状态,当目标的状态更新时,目标之间的关系也会随着变化,并且随着时间步长的增加,得到的模型越稳定。
场景GRU的初始状态为视觉特征fv,输入为场景信息ms;边缘GRU的初始状态也为视觉特征fv,输入为目标位置信息me,其中me集成了各个目标对于当前目标vi的位置关系,不同目标对于当前目标的关系权重ej→i不同,这是由相对位置和视觉关系决定的。
使用max pooling提取出最重要的信息,避免无关区域的干扰。
Figure BDA0002403358680000066
集成各目标信息的计算下式所示。
Figure BDA0002403358680000061
计算目标vj对于目标vi的位置关系ej→i的计算下式所示。
Figure BDA0002403358680000062
式中Wp和Wv均为可学习的权重矩阵,视觉关系向量由
Figure BDA0002403358680000063
Figure BDA0002403358680000064
串联而成,
Figure BDA0002403358680000065
表示空间位置关系。完整信息如下式所示。
Figure BDA0002403358680000071
其中(xi,yi)表示目标的中心点坐标,wi
Figure BDA0002403358680000075
分别表示目标的宽度和高度,si为目标的面积。节点vi通过接收来自场景以及其它节点的信息,得到场景GRU的输出
Figure BDA0002403358680000072
边缘GRU的输出
Figure BDA0002403358680000073
最终的输出为
Figure BDA0002403358680000074
在接下来的迭代中,场景GRU将更新过的节点状态作为其隐状态,并以固定的场景特征作为输入,然后计算下一个节点状态。边缘GRU将新的目标与目标的关系信息作为新的输入,然后计算下一个隐状态。最后,使用最终的集成节点表示来预测目标类别和边界框偏移量。结构推理网络结构图如图8所示,结构推理原理图如图9所示。
步骤C5:根据得到目标节点状态,Softmax分类网络与回归网络对各目标节点分类并得到定位矩形框坐标。定位得到的图像如图10所示。

Claims (3)

1.一种基于改进结构推理网络的高铁接触网零部件定位方法,其特征在于,包括以下步骤:
步骤A:对高速铁路接触网支撑及悬挂装置进行图像采集;
步骤B:根据采集到的图像建立接触网支撑及悬挂装置的样本数据集;
步骤C:将数据集划分为训练集和测试集,训练好结构推理网络后,利用结构推理网络对接触网零部件进行精确快速定位:
步骤C1:向网络输入接触网的样本图像,由改进VGG16网络对其进行卷积与池化操作,将第二次池化操作后的特征图送入ROI池化层,第四次池化操作后的特征图送入RPN网络用于生成建议区域;
步骤C2:RPN网络接收来自VGG16网络的特征图,并采用多种不同大小与长宽比的区域框架对特征图滑动采集零部件特征,得到一定数量的特征区域,然后根据原图groundtruth与特征区域的重叠率大小,筛选出重叠率值大于设定阈值的特征区域作为建议区域,并向ROI池化层输入图像的建议区域;
步骤C3:ROI池化层将每个建议区域映射到特征图上,并在池化操作后将其合并为一个固定大小特征图;经过全连接层后,提取各目标的特征作为视觉特征向量
Figure FDA0002403358670000011
提取整张图像特征作为场景视觉特征向量fs;建议区域各目标特征经过目标边缘关系聚合得到目标节点之间位置关系向量ei→j
步骤C4:结构推理网络接收各目标节点视觉特征向量
Figure FDA0002403358670000012
场景视觉特征向量fs、各目标节点之间位置关系向量ei→j,由一组GRU网络迭代处理并传递这些向量信息,并更新各目标节点的状态,在更新结束后得到最终的集成节点状态;
步骤C5:根据得到目标节点状态,Softmax分类网络与回归网络对各目标节点分类并得到定位矩形框坐标。
2.根据权利要求1所述的基于改进结构推理网络的高铁接触网零部件定位方法,其特征在于,在所述VGG16网络中,针对小目标特征图分辨率的问题,将pool 2池化操作后的特征图代替原来pool 5池化操作后的特征图送入ROIpooling层,用于对建议区域的目标进行分类;并加上一个1×1的卷积将pool 2池化层的通道数维持在512;且取消原有的pool 5池化层以及conv5-1、conv5-2、conv5-3卷积层,改用将pool 4池化操作后的特征图送入RPN网络,用于生成建议区域。
3.根据权利要求1所述的基于改进结构推理网络的高铁接触网零部件定位方法,其特征在于,所述结构推理网络使用GRU将不同信息编码为目标状态,GRU将从来自目标之间的关系信息和场景信息中选择相关信息更新当前目标的隐状态,当目标的状态更新时,目标之间的关系也会随着变化;场景GRU的初始状态为视觉特征fv,输入为场景信息ms;边缘GRU的初始状态也为视觉特征fv,输入为目标位置信息me,其中me集成了各个目标对于当前目标vi节点的位置关系;使用max pooling提取出目标信息,
Figure FDA0002403358670000021
集成各目标信息如下式所示:
Figure FDA0002403358670000022
计算目标节点vj对于目标节点vi的位置关系ej→i的计算下式所示:
Figure FDA0002403358670000023
式中,Wp和Wv均为可学习的权重矩阵,视觉关系向量由
Figure FDA0002403358670000024
Figure FDA0002403358670000025
串联而成,
Figure FDA0002403358670000026
表示空间位置关系;完整信息如下式所示:
Figure FDA0002403358670000027
其中,(xi,yi)表示目标的中心点坐标,wi和wj,分别表示目标节点vi和vj的宽度,hj和hi分别表示目标节点vi和vj的高度,si和sj分别表示目标节点vi和vj的面积;目标节点vi通过接收来自场景以及其它节点的信息,得到场景GRU的输出
Figure FDA0002403358670000028
边缘GRU的输出
Figure FDA0002403358670000029
最终的输出为
Figure FDA00024033586700000210
在接下来的迭代中,场景GRU将更新过的节点状态作为其隐状态,并以固定的场景特征作为输入,然后计算下一个节点状态;边缘GRU将新的目标与目标的关系信息作为新的输入,然后计算下一个隐状态;最后,使用最终的集成节点表示来预测目标类别和边界框偏移量。
CN202010153837.5A 2020-03-07 2020-03-07 一种基于改进结构推理网络的高铁接触网零部件定位方法 Expired - Fee Related CN111383273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010153837.5A CN111383273B (zh) 2020-03-07 2020-03-07 一种基于改进结构推理网络的高铁接触网零部件定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010153837.5A CN111383273B (zh) 2020-03-07 2020-03-07 一种基于改进结构推理网络的高铁接触网零部件定位方法

Publications (2)

Publication Number Publication Date
CN111383273A true CN111383273A (zh) 2020-07-07
CN111383273B CN111383273B (zh) 2022-04-29

Family

ID=71218708

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010153837.5A Expired - Fee Related CN111383273B (zh) 2020-03-07 2020-03-07 一种基于改进结构推理网络的高铁接触网零部件定位方法

Country Status (1)

Country Link
CN (1) CN111383273B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113076949A (zh) * 2021-03-31 2021-07-06 成都唐源电气股份有限公司 一种接触网零部件快速定位方法及系统
CN113420593A (zh) * 2021-05-19 2021-09-21 西安电子科技大学 基于混合推理网络的小样本sar自动目标识别方法
CN116883763A (zh) * 2023-09-06 2023-10-13 宁德市天铭新能源汽车配件有限公司 一种基于深度学习的汽车零部件缺陷检测方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109284779A (zh) * 2018-09-04 2019-01-29 中国人民解放军陆军工程大学 基于深度全卷积网络的物体检测方法
CN109446970A (zh) * 2018-10-24 2019-03-08 西南交通大学 一种基于深度学习的变电站巡检机器人道路场景识别方法
CN109948690A (zh) * 2019-03-14 2019-06-28 西南交通大学 一种基于深度学习和结构信息的高铁场景感知方法
US20190228269A1 (en) * 2018-01-04 2019-07-25 IAS Machine, LLC Procedural language and content generation environment for use in augmented reality/mixed reality systems to support laboratory and related operations
CN110084852A (zh) * 2019-04-22 2019-08-02 西南交通大学 一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法
CN110084195A (zh) * 2019-04-26 2019-08-02 西安电子科技大学 基于卷积神经网络的遥感图像目标检测方法
CN110533725A (zh) * 2019-09-06 2019-12-03 西南交通大学 一种基于结构推理网络的高铁接触网多种零部件定位方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190228269A1 (en) * 2018-01-04 2019-07-25 IAS Machine, LLC Procedural language and content generation environment for use in augmented reality/mixed reality systems to support laboratory and related operations
CN109284779A (zh) * 2018-09-04 2019-01-29 中国人民解放军陆军工程大学 基于深度全卷积网络的物体检测方法
CN109446970A (zh) * 2018-10-24 2019-03-08 西南交通大学 一种基于深度学习的变电站巡检机器人道路场景识别方法
CN109948690A (zh) * 2019-03-14 2019-06-28 西南交通大学 一种基于深度学习和结构信息的高铁场景感知方法
CN110084852A (zh) * 2019-04-22 2019-08-02 西南交通大学 一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法
CN110084195A (zh) * 2019-04-26 2019-08-02 西安电子科技大学 基于卷积神经网络的遥感图像目标检测方法
CN110533725A (zh) * 2019-09-06 2019-12-03 西南交通大学 一种基于结构推理网络的高铁接触网多种零部件定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘凯; 刘志刚; 陈隽文: "基于加速区域卷积神经网络的高铁接触网承力索底座裂纹检测研究", 《铁道学报》 *
韩烨; 刘志刚; 韩志伟; 杨红梅: "基于SIFT特征匹配的高速铁路接触网支撑装置耳片断裂检测研究", 《铁道学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113076949A (zh) * 2021-03-31 2021-07-06 成都唐源电气股份有限公司 一种接触网零部件快速定位方法及系统
CN113076949B (zh) * 2021-03-31 2023-04-18 成都唐源电气股份有限公司 一种接触网零部件快速定位方法及系统
CN113420593A (zh) * 2021-05-19 2021-09-21 西安电子科技大学 基于混合推理网络的小样本sar自动目标识别方法
CN113420593B (zh) * 2021-05-19 2022-09-16 西安电子科技大学 基于混合推理网络的小样本sar自动目标识别方法
CN116883763A (zh) * 2023-09-06 2023-10-13 宁德市天铭新能源汽车配件有限公司 一种基于深度学习的汽车零部件缺陷检测方法及系统
CN116883763B (zh) * 2023-09-06 2023-12-12 宁德市天铭新能源汽车配件有限公司 一种基于深度学习的汽车零部件缺陷检测方法及系统

Also Published As

Publication number Publication date
CN111383273B (zh) 2022-04-29

Similar Documents

Publication Publication Date Title
CN111259930B (zh) 自适应注意力指导机制的一般性目标检测方法
CN110837778B (zh) 一种基于骨架关节点序列的交警指挥手势识别方法
CN110188685B (zh) 一种基于双注意力多尺度级联网络的目标计数方法及系统
CN110598736B (zh) 一种电力设备红外图像故障定位、识别与预测方法
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN111383273B (zh) 一种基于改进结构推理网络的高铁接触网零部件定位方法
CN107633267A (zh) 一种高铁接触网支撑装置腕臂连接件紧固件识别检测方法
CN106919978A (zh) 一种高铁接触网支撑装置零部件识别检测方法
CN114092832B (zh) 一种基于并联混合卷积网络的高分辨率遥感影像分类方法
CN107609525A (zh) 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法
WO2021013190A1 (zh) 基于气象参数的高速列车导航盲区定位方法及系统
CN104978580A (zh) 一种用于无人机巡检输电线路的绝缘子识别方法
CN105825511A (zh) 一种基于深度学习的图片背景清晰度检测方法
CN104077613A (zh) 一种基于级联多级卷积神经网络的人群密度估计方法
CN111985325B (zh) 特高压环境评价中的航拍小目标快速识别方法
CN112949407B (zh) 一种基于深度学习和点集优化的遥感影像建筑物矢量化方法
CN113516664A (zh) 一种基于语义分割动态点的视觉slam方法
CN113065431B (zh) 一种基于隐马尔可夫模型和循环神经网络的人体违规行为预测方法
CN111612051A (zh) 一种基于图卷积神经网络的弱监督目标检测方法
CN108171119B (zh) 基于残差网络的sar图像变化检测方法
CN104657717A (zh) 一种基于分层核稀疏表示的行人检测方法
Li et al. An aerial image segmentation approach based on enhanced multi-scale convolutional neural network
CN111539422A (zh) 基于Faster RCNN的飞行目标协同识别方法
Rajeswari et al. Automatic road extraction based on level set, normalized cuts and mean shift methods
CN111667461B (zh) 一种输电线路异常目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220429

CF01 Termination of patent right due to non-payment of annual fee