CN116403163B - 一种截断塞门手把开合状态的识别方法和装置 - Google Patents
一种截断塞门手把开合状态的识别方法和装置 Download PDFInfo
- Publication number
- CN116403163B CN116403163B CN202310425609.2A CN202310425609A CN116403163B CN 116403163 B CN116403163 B CN 116403163B CN 202310425609 A CN202310425609 A CN 202310425609A CN 116403163 B CN116403163 B CN 116403163B
- Authority
- CN
- China
- Prior art keywords
- feature map
- cut
- handle
- feature
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 claims abstract description 50
- 238000010586 diagram Methods 0.000 claims abstract description 36
- 230000004927 fusion Effects 0.000 claims description 38
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000012512 characterization method Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 238000013508 migration Methods 0.000 claims description 3
- 230000005012 migration Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002431 foraging effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60T—VEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
- B60T15/00—Construction arrangement, or operation of valves incorporated in power brake systems and not covered by groups B60T11/00 or B60T13/00
- B60T15/02—Application and release valves
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61H—BRAKES OR OTHER RETARDING DEVICES SPECIALLY ADAPTED FOR RAIL VEHICLES; ARRANGEMENT OR DISPOSITION THEREOF IN RAIL VEHICLES
- B61H11/00—Applications or arrangements of braking or retarding apparatus not otherwise provided for; Combinations of apparatus of different kinds or types
- B61H11/06—Applications or arrangements of braking or retarding apparatus not otherwise provided for; Combinations of apparatus of different kinds or types of hydrostatic, hydrodynamic, or aerodynamic brakes
- B61H11/10—Aerodynamic brakes with control flaps, e.g. spoilers, attached to the vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0808—Diagnosing performance data
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0816—Indicating performance data, e.g. occurrence of a malfunction
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Mechanical Engineering (AREA)
- Fluid Mechanics (AREA)
- Probability & Statistics with Applications (AREA)
- Transportation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种截断塞门手把开合状态的识别方法和装置,涉及图像分类技术领域,包括:获取截断塞门手把图像,将多张截断塞门手把图像输入截断塞门手把状态识别神经网络,输出截断塞门手把的开/合状态的带有边界框的分类预测结果,判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传。该方法可以代替人工识别截断塞门手把开合状态,识别速度快,效率高。
Description
技术领域
本发明涉及图像分类技术领域,更具体的涉及一种截断塞门手把开合状态的识别方法和装置。
背景技术
截断塞门手把是货车运行过程中制动系统的重要部件,位于货车底部,它安装在制动支管上,用来开通和关闭分配阀与列车管间压力空气通路,正常时手把处于开的位置,塞门在制动时截断塞门把手把必须打开,当制动机发生故障时,为了截断制动主管的压缩空气送风通路才将其关闭,如果截断塞门手把关闭,导致制动管路不与主管路相通,此时货车就丧失了制动能力,就不能起到制动的作用,容易引发严重的安全故障。
全路当前约500套TFDS监测设备,受限于技术难度,尚未完全开展智能识别,当前大都采用人工方式进行故障识别,全路在6000人左右,人员成本高,这种方式受人员素质、责任心、劳动强度等因素的影响,错检和漏检问题时有发生,作业质量难以保证,以及存在着人工成本巨大、效率低下等问题,原有通过图像比对方式精度低,完全不可用,因此亟需一种智能的截断塞门手把开合状态识别的方法和装置。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明第一方面提出一种截断塞门手把开合状态的识别方法,包括:
获取截断塞门手把图像;
将多张截断塞门手把图像输入截断塞门手把状态识别神经网络,输出截断塞门手把的开/合状态的带有边界框的分类预测结果,截断塞门手把状态识别神经网络的骨干网络部分采用Resnet50,将Resnet50输出的第一特征图集经过对应的空间注意力模块和第一卷积模块后,输入改进的PANet进行特征拼接和融合,获得表征能力增强的第二特征图集,利用Fast R-CNN处理加和后第二特征图集,获得截断塞门手把的开/合状态的分类预测和边界框预测;
判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传。
进一步,在获得截断塞门手把状态识别神经网络前,还包括:
利用ImageNet图像数据集训练与预构建的状态识别神经网络,获得训练好的状态识别神经网络;
将状态识别神经网络的共享参数通过迁移学习迁移至截断塞门手把状态识别神经网络;
将截断塞门手把状态识别神经网络的最后的全连接层和softmax层输出类别改为十个节点,获得微调后的截断塞门手把状态识别神经网络;
利用多个工位拍摄的多张截断塞门手把开/合状态图像训练微调后的截断塞门手把状态识别神经网络,获得最终的截断塞门手把状态识别神经网络。
进一步,将Resnet50输出的第一特征图集经过对应的空间注意力模块和卷积模块后,输入改进的PANet进行特征拼接和融合,获得第二特征图集,包括:
将多个工位拍摄的多张截断塞门手把图像输入Resnet50,在Resnet50的layer2、layer3、layer4、layer5分别输出第一特征图、第二特征图、第三特征图、第四特征图;
将第一特征图、第二特征图、第三特征图、第四特征图分别输入四个空间注意力模块后再分别经过四个卷积模块,获得空间权重增强的第一特征图、第二特征图、第三特征图、第四特征图;
空间权重增强的第一特征图上采样后与空间权重增强的第二特征图进行拼接后经过第二卷积模块进行特征融合,获得第五特征图,对第五特征图上采样、并与空间权重增强的第三特征图拼接后经过第二卷积模块进行特征融合,获得第六特征图,对第六特征图上采样、并与空间权重增强的第四特征图拼接后经过第二卷积模块进行特征融合,输出第七特征图,将第七特征图下采样后与第六特征图进行拼接后经过第二卷积模块进行特征融合,输出第八特征图,将第八特征图下采样后与第五特征图进行拼接后经过第二卷积模块进行特征融合,输出第九特征图,将第九特征图下采样后与空间权重增强的第一特征图进行拼接后经过第二卷积模块进行特征融合,输出第十特征图;
第二特征图集包括第七特征图、第八特征图、第九特征图、第十特征图。
进一步,第一卷积模块包括1*1的卷积模块。
进一步,第二卷积模块包括:
第一层卷积单元,包括依次连接的1*1卷积层、批量标准化层和Relu激活函数;
第二层卷积单元,包括依次连接的3*3卷积层、批量标准化层和Relu激活函数;
第三层卷积单元,包括依次连接的1*1卷积层和批量标准化层;
第一层卷积单元的输入与第三层卷积单元的输出相加。
进一步,判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传,包括;
获取判断截断塞门手把的开/合状态的分类预测结果,开/合状态的分类预测结果包括打开状态、关闭状态、及位于打开状态和关闭状态之间的不正位状态;
将打开状态、关闭状态、及不正位状态的分类预测结果的阈值分别对应设置为0.8、0.7和0.6;
当任一分类预测结果中概率值大于设置的阈值时,将截断塞门手把的开/合状态图和告警信息上传。
本发明另一方面提供一种截断塞门手把开合状态的识别装置,包括:
获取模块,用于获取截断塞门手把图像;
状态识别模块,用于将多张截断塞门手把图像输入截断塞门手把状态识别神经网络,输出截断塞门手把的开/合状态的带有边界框的分类预测结果,所述截断塞门手把状态识别神经网络的骨干网络部分采用Resnet50,将Resnet50输出的第一特征图集经过对应的空间注意力模块和第一卷积模块后,输入改进的PANet进行特征拼接和融合,获得表征能力增强的第二特征图集,利用Fast R-CNN处理加和后第二特征图集,获得截断塞门手把的开/合状态的分类预测和边界框预测;
输出模块,用于判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传。
本发明另一方面还提供一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述的截断塞门手把开合状态的识别方法。
本发明另一方面还提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述的截断塞门手把开合状态的识别方法。
本发明实施例提供一种截断塞门手把开合状态的识别方法,与现有技术相比,其有益效果如下:
本发明通过将Resnet50输出的第一特征图集经过对应的空间注意力模块和第一卷积模块后获得带有空间加权信息的特征图,将空间加权信息的特征图输入改进的PANet进行特征拼接和融合,获得浅层特征和深层特征表征能力增强的第二特征图集,利用FastR-CNN处理加和后第二特征图集,获得截断塞门手把的开/合状态的分类预测和边界框预测结果,本发明通过改进的深度神经网络,代替人工对列车上的截断塞门手把的开/合状态分类识别,状态识别速度更快,误报率更低。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还能够根据这些附图获得其它附图。
图1为本发明实施例提供的一种截断塞门手把开合状态的识别方法的流程图;
图2为本发明实施例提供的一种截断塞门手把开合状态的识别方法的深度神经网络结构图;
图3为本发明实施例提供的一种截断塞门手把开合状态的识别方法的改进的PANet卷积模块示意图;
图4为本发明实施例提供的一种截断塞门手把开合状态的识别装置的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或无创造性的劳动可以包括更多或者更少的操作步骤。在实际中的系统或服务器产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
图1为本发明实施例提供的一种截断塞门手把开合状态的识别方法的流程图,如图1所示,方法包括:
步骤101、获取截断塞门手把图像;
在步骤101中,获取截断塞门手把图像,截断塞门手把图像是通过货车故障轨边图像检测系统TFDS获得的,货车故障轨边图像检测系统TFDS是一套集高速图像采集技术、大容量图像数据实时处理技术、精确定位技术、图像自动识别技术和自动控莉技术于—体的智能化、网络化和信息化系统,能对货车隐蔽和常觅故障进行动态检测的TFDS系统,系统通过布置于钢轨之间的高速像机列阵和车号自动识别设备AEI,能精确捕捉通过列车的一系列相关信息,包括过车信息、车辆位置信息、车辆轴距信息、车号信息、图像信息。这些信息经数字化处理后显示于监视器上,可以实现对整车车底和侧下部的检测。
步骤102、将多张截断塞门手把图像输入截断塞门手把状态识别神经网络,输出截断塞门手把的开/合状态的带有边界框的分类预测结果,截断塞门手把状态识别神经网络的骨干网络部分采用Resnet50,将Resnet50输出的第一特征图集经过对应的空间注意力模块和第一卷积模块后,输入改进的PANet进行特征拼接和融合,获得表征能力增强的第二特征图集,利用Fast R-CNN处理加和后第二特征图集,获得截断塞门手把的开/合状态的分类预测和边界框预测;
图2为本发明实施例提供的一种截断塞门手把开合状态的识别方法的深度神经网络结构图,如图2所示,ResNet50分为5个stage阶段,也可以称为5个layer,其中Stage 0的结构比较简单,可以视其为对INPUT的预处理,后4个Stage都由Bottleneck组成,结构较为相似,Stage 1包含3个Bottleneck,剩下的3个stage分别包括4、6、3个Bottleneck,ResNet50残差网络的出现可以解决梯度问题,而网络层数的增加也使其表达的特征也更好,相应的检测或分类的性能更强,再加上残差中使用了 1×1 的卷积,这样可以减少参数量,也能在一定程度上减少计算量,本发明选择ResNet50作为深度神经网络的骨干网络在于其参数量较少,易于训练。
当图像经过神经网络的各个层时,特征的复杂度增加,同时图像的空间分辨率降低,这一问题通过PANet解决,PANet是一个加强版的FPN,它通过融合自底向上和自顶向下两条路径的方式增强了骨干网络的表征能力,自适应特征池化使模型自己选择在预测不同物体时选择不同的Feature Map,避免了目标尺寸和网络深度的硬性匹配,最后,PANet的全连接融合的输出头通过在原来的Mask分支的基础上增加了全连接分支,提升了预测的掩码的质量。
由于本发明主要检测判断截断塞门手把的开/合状态,即其空间的位置关系,空间注意力模块SAM 会为输入特征图分别应用最大池化和平均池化,从而得到两个特征图集合,其结果会被送入一个卷积层,之后再由一个 sigmoid 函数创建出空间注意力掩码,这个空间注意力掩码再被应用于输入特征,从而输出经过优化的特征图。
在本发明提供的实施例中,通过将改进的PANet输出的第二特征图集拼接后输入Fast R-CNN中,Fast R-CNN不限制输入的图像的尺寸,其将整张图像送入网络利用Fast R-CNN中的区域候选网络RPN,对拼接的特征图进行处理,得到感兴趣区域ROI之后,输入RoIPooling或 RoIAlign 层统一输出7*7的大小的ROI feature,然后将其展平处理,然后通过一个全连接层,得到ROI feature Vector,在ROI feature Vector的基础上,并联两个全连接层,其中的一个全连接层用于目标概率的预测,另外的一个全连接层用来边界框回归参数的预测。
第二特征图集中的特征图feature map 上的一个点可以映射回输入图片上的一个点,以特征图上这个点为中心,预先人为设定 k 个boxes,这些boxes 就称为在这个点上生成的k个anchor boxes(所有anchor boxes的中心点坐标是一样的),一个m∗n的特征图就有m ∗ n ∗ k 个 anchor boxes,anchor boxes 的作用是将boxes传给 RPN, 让RPN判断其中哪些 anchor boxes 可能存在目标,并进一步回归坐标,得到proposals 输给后面的网络,模型回归的目标是真实boxes与anchor boxes 之间坐标的偏置,将偏置和anchorboxes 的坐标带入预先设定的公式中,就得到了最终预测的boxes坐标。
具体的,RPN 的backbone 输出的特征图经过一个3 ∗3卷积之后分别进入了不同的分支,对应不同的1 ∗ 1 卷积,第一个卷积为定位层,输出候选anchor box的4个坐标偏移,第二个卷积为分类层,输出候选anchor box的前后景概率。
步骤103、判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传。
需要说明的是,在对输入图像识别前,还包括对对图像采取图像增强的方法,通过对原始图像裁剪、旋转、放缩等方法增加输入图像的多样式,使模型面对不同场景下的图像有更好的鲁棒性和泛化能力。
本发明通过将Resnet50输出的第一特征图集经过对应的空间注意力模块和第一卷积模块后获得带有空间加权信息的特征图,将空间加权信息的特征图输入改进的PANet进行特征拼接和融合,获得浅层特征和深层特征表征能力增强的第二特征图集,利用FastR-CNN处理加和后第二特征图集,获得截断塞门手把的开/合状态的分类预测和边界框预测结果,本发明通过改进的深度神经网络,代替人工对列车上的截断塞门手把的开/合状态分类识别,状态识别速度更快,误报率更低。
在一种可能的实施方式中,在获得截断塞门手把状态识别神经网络前,还包括:
利用ImageNet图像数据集训练与预构建的状态识别神经网络,获得训练好的状态识别神经网络;
将状态识别神经网络的共享参数通过迁移学习迁移至截断塞门手把状态识别神经网络;
将截断塞门手把状态识别神经网络的最后的全连接层和softmax层输出类别改为十个节点,获得微调后的截断塞门手把状态识别神经网络;
利用多个工位拍摄的多张截断塞门手把开/合状态图像训练微调后的截断塞门手把状态识别神经网络,获得最终的截断塞门手把状态识别神经网络。
在本发明提供的实施例中,首先构建基于Resnet50+SAM+PANet+Fast R-CNN的状态识别神经网络,然后利用ImageNet图像数据集训练状态识别神经网络,得到状态识别神经网络的共享参数,将共享参数利用迁移学习迁移至用于截断塞门手把状态识别的截断塞门手把状态识别神经网络,然后对截断塞门手把状态识别神经网络进行微调。
具体的,微调时将截断塞门手把状态识别神经网络的最后的全连接层和softmax层输出类别改为十个节点用于识别截断塞门手把状态的三种状态。
采集包含截断塞门手把状态的三种状态的图片作为样本集,按照6:4的比例划分训练集和测试集,利用样本集对截断塞门手把状态识别神经网络进行训练。在对样本集标注时候将截断塞门手把与周围机械部件的位置状态一同标注。
在一种可能的实施方式中,将Resnet50输出的第一特征图集经过对应的空间注意力模块和卷积模块后,输入改进的PANet进行特征拼接和融合,获得第二特征图集,包括:
将多个工位拍摄的多张截断塞门手把图像输入Resnet50,在Resnet50的layer2、layer3、layer4、layer5分别输出第一特征图、第二特征图、第三特征图、第四特征图;
将第一特征图、第二特征图、第三特征图、第四特征图分别输入四个空间注意力模块后再分别经过四个卷积模块,获得空间权重增强的第一特征图、第二特征图、第三特征图、第四特征图;
空间权重增强的第一特征图上采样后与空间权重增强的第二特征图进行拼接后经过第二卷积模块进行特征融合,获得第五特征图,对第五特征图上采样、并与空间权重增强的第三特征图拼接后经过第二卷积模块进行特征融合,获得第六特征图,对第六特征图上采样、并与空间权重增强的第四特征图拼接后经过第二卷积模块进行特征融合,输出第七特征图,将第七特征图下采样后与第六特征图进行拼接后经过第二卷积模块进行特征融合,输出第八特征图,将第八特征图下采样后与第五特征图进行拼接后经过第二卷积模块进行特征融合,输出第九特征图,将第九特征图下采样后与空间权重增强的第一特征图进行拼接后经过第二卷积模块进行特征融合,输出第十特征图;
第二特征图集包括第七特征图、第八特征图、第九特征图、第十特征图。
在本发明提供的实施例中, 空间权重增强的第一特征图与上采样后与空间权重增强的第二特征图进行拼接处理,最后经过卷积运算处理,得到融合特征图,记为第五特征图,其中,同理,将第五特征图继续进行上采样,与上层特征图进行拼接处理,得到第六特征图,将第六特征图继续进行上采样,与上层特征图进行拼接处理,得到第七特征图输出,同时将第七特征图进行下采样,然后与第六特征图进行拼接,得到第八特征图输出;同理,将第八特征图进行下采样与第五特征图拼接处理,得到第九特征图,最后,将第九特征图进行下采样与空间权重增强的第一特征图拼接处理,得到第十特征图输出。改进后的PANet模块,获得比FPN更多的骨干网络的表征能力。
在一种可能的实施方式中,第一卷积模块包括1*1的卷积模块。
在本发明提供的实施例中,1*1的卷积模块用于将第一特征图集输出想要的维度。
在一种可能的实施方式中,第二卷积模块包括:
第一层卷积单元,包括依次连接的1*1卷积层、批量标准化层和Relu激活函数;
第二层卷积单元,包括依次连接的3*3卷积层、批量标准化层和Relu激活函数;
第三层卷积单元,包括依次连接的1*1卷积层和批量标准化层;
第一层卷积单元的输入与第三层卷积单元的输出相加。
图3为本发明实施例提供的一种截断塞门手把开合状态的识别方法的改进的PANet卷积模块示意图,如图3所示,为了使PANet的参数减少,改善被遮挡目标的识别能力,本发明实施例采用倒置残差模块替换原来的每层中的CBL*5的PANet卷积模块,每个倒置残差模块包括自上而下依次连接的3层子网络;第一层卷积单元包括依次连接的1*1卷积层、批量标准化层和Relu激活函数;第二层卷积单元包括依次连接的3*3卷积层、批量标准化层和Relu激活函数;第三层卷积单元包括依次连接的1*1卷积层和批量标准化层;所述第一层卷积单元的输入与所述第三层卷积单元的输出相加后作为所述倒置残差模块的输出。
在一种可能的实施方式中,判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传,包括;
获取判断截断塞门手把的开/合状态的分类预测结果,开/合状态的分类预测结果包括打开状态、关闭状态、及位于打开状态和关闭状态之间的不正位状态;
将打开状态、关闭状态、及不正位状态的分类预测结果的阈值分别对应设置为0.8、0.7和0.6;
当任一分类预测结果中概率值大于设置的阈值时,将截断塞门手把的开/合状态图和告警信息上传。
用于列车正常运行时手把处于开的位置,塞门在制动时截断塞门手把必须打开,当制动机发生故障时,为了截断制动主管的压缩空气送风通路才将其关闭,如果截断塞门手把关闭,导致制动管路不与主管路相通,此时货车就丧失了制动能力,就不能起到制动的作用,容易引发严重的安全故障
在本发明提供的实施例中,打开状态、关闭状态、及不正位状态中打开状态、常态化的过程,因此将其设定为较高阈值,而关闭状态、及不正位状态属于不正常的状态,因此将其设定为较低阈值,以便于检测出结果,及时报警。
本发明还提供一种截断塞门手把开合状态的识别装置200,如图4所述,装置包括:
获取模块201,用于获取截断塞门手把图像;
状态识别模块202,用于将多张截断塞门手把图像输入截断塞门手把状态识别神经网络,输出截断塞门手把的开/合状态的带有边界框的分类预测结果,所述截断塞门手把状态识别神经网络的骨干网络部分采用Resnet50,将Resnet50输出的第一特征图集经过对应的空间注意力模块和第一卷积模块后,输入改进的PANet进行特征拼接和融合,获得表征能力增强的第二特征图集,利用Fast R-CNN处理加和后第二特征图集,获得截断塞门手把的开/合状态的分类预测和边界框预测;
输出模块203,用于判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传。
在本发明提供的又一实施例中,还提供了一种设备,所述设备包括处理器和存储器,所述存储器种存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现本发明实施例中所述的截断塞门手把开合状态的识别方法方法。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现本发明实施例中所述的截断塞门手把开合状态的识别方法方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid StateDisk (SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (8)
1.一种截断塞门手把开合状态的识别方法,其特征在于,包括:
获取截断塞门手把图像;
将多张截断塞门手把图像输入截断塞门手把状态识别神经网络,输出截断塞门手把的开/合状态的带有边界框的分类预测结果,所述截断塞门手把状态识别神经网络的骨干网络部分采用Resnet50,将Resnet50输出的第一特征图集经过对应的空间注意力模块和第一卷积模块后,输入改进的PANet进行特征拼接和融合,获得表征能力增强的第二特征图集,利用Fast R-CNN处理加和后的第二特征图集,获得截断塞门手把的开/合状态的分类预测和边界框预测;
判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传;
所述将Resnet50输出的第一特征图集经过对应的空间注意力模块和卷积模块后,输入改进的PANet进行特征拼接和融合,获得第二特征图集,包括:
将多个工位拍摄的多张截断塞门手把图像输入Resnet50,在Resnet50的layer2、layer3、layer4、layer5分别输出第一特征图、第二特征图、第三特征图、第四特征图;
将第一特征图、第二特征图、第三特征图、第四特征图分别输入四个空间注意力模块后再分别经过四个卷积模块,获得空间权重增强的第一特征图、第二特征图、第三特征图、第四特征图;
空间权重增强的第一特征图上采样后与空间权重增强的第二特征图进行拼接后经过第二卷积模块进行特征融合,获得第五特征图,对第五特征图上采样、并与空间权重增强的第三特征图拼接后经过第二卷积模块进行特征融合,获得第六特征图,对第六特征图上采样、并与空间权重增强的第四特征图拼接后经过第二卷积模块进行特征融合,输出第七特征图,将第七特征图下采样后与第六特征图进行拼接后经过第二卷积模块进行特征融合,输出第八特征图,将第八特征图下采样后与第五特征图进行拼接后经过第二卷积模块进行特征融合,输出第九特征图,将第九特征图下采样后与空间权重增强的第一特征图进行拼接后经过第二卷积模块进行特征融合,输出第十特征图;
所述第二特征图集包括第七特征图、第八特征图、第九特征图、第十特征图。
2.如权利要求1所述的一种截断塞门手把开合状态的识别方法,其特征在于,在获得截断塞门手把状态识别神经网络前,还包括:
利用ImageNet图像数据集训练与预构建的状态识别神经网络,获得训练好的状态识别神经网络;
将状态识别神经网络的共享参数通过迁移学习迁移至截断塞门手把状态识别神经网络;
将截断塞门手把状态识别神经网络的最后的全连接层和softmax层输出类别改为十个节点,获得微调后的截断塞门手把状态识别神经网络;
利用多个工位拍摄的多张截断塞门手把开/合状态图像训练微调后的截断塞门手把状态识别神经网络,获得最终的截断塞门手把状态识别神经网络。
3.如权利要求1所述的一种截断塞门手把开合状态的识别方法,其特征在于,所述第一卷积模块包括1*1的卷积模块。
4.如权利要求1所述的一种截断塞门手把开合状态的识别方法,其特征在于,所述第二卷积模块包括:
第一层卷积单元,包括依次连接的1*1卷积层、批量标准化层和Relu激活函数;
第二层卷积单元,包括依次连接的3*3卷积层、批量标准化层和Relu激活函数;
第三层卷积单元,包括依次连接的1*1卷积层和批量标准化层;
所述第一层卷积单元的输入与所述第三层卷积单元的输出相加。
5.如权利要求1所述的一种截断塞门手把开合状态的识别方法,其特征在于,所述判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传,包括;
获取判断截断塞门手把的开/合状态的分类预测结果,开/合状态的分类预测结果包括打开状态、关闭状态、及位于打开状态和关闭状态之间的不正位状态;
将打开状态、关闭状态、及不正位状态的分类预测结果的阈值分别对应设置为0.8、0.7和0.6;
当任一分类预测结果中概率值大于设置的阈值时,将截断塞门手把的开/合状态图和告警信息上传。
6.一种截断塞门手把开合状态的识别装置,其特征在于,包括:
获取模块,用于获取截断塞门手把图像;
状态识别模块,用于将多张截断塞门手把图像输入截断塞门手把状态识别神经网络,输出截断塞门手把的开/合状态的带有边界框的分类预测结果,所述截断塞门手把状态识别神经网络的骨干网络部分采用Resnet50,将Resnet50输出的第一特征图集经过对应的空间注意力模块和第一卷积模块后,输入改进的PANet进行特征拼接和融合,获得表征能力增强的第二特征图集,利用Fast R-CNN处理加和后的第二特征图集,获得截断塞门手把的开/合状态的分类预测和边界框预测;所述将Resnet50输出的第一特征图集经过对应的空间注意力模块和卷积模块后,输入改进的PANet进行特征拼接和融合,获得第二特征图集,包括:
将多个工位拍摄的多张截断塞门手把图像输入Resnet50,在Resnet50的layer2、layer3、layer4、layer5分别输出第一特征图、第二特征图、第三特征图、第四特征图;
将第一特征图、第二特征图、第三特征图、第四特征图分别输入四个空间注意力模块后再分别经过四个卷积模块,获得空间权重增强的第一特征图、第二特征图、第三特征图、第四特征图;
空间权重增强的第一特征图上采样后与空间权重增强的第二特征图进行拼接后经过第二卷积模块进行特征融合,获得第五特征图,对第五特征图上采样、并与空间权重增强的第三特征图拼接后经过第二卷积模块进行特征融合,获得第六特征图,对第六特征图上采样、并与空间权重增强的第四特征图拼接后经过第二卷积模块进行特征融合,输出第七特征图,将第七特征图下采样后与第六特征图进行拼接后经过第二卷积模块进行特征融合,输出第八特征图,将第八特征图下采样后与第五特征图进行拼接后经过第二卷积模块进行特征融合,输出第九特征图,将第九特征图下采样后与空间权重增强的第一特征图进行拼接后经过第二卷积模块进行特征融合,输出第十特征图;
所述第二特征图集包括第七特征图、第八特征图、第九特征图、第十特征图;
输出模块,用于判断截断塞门手把的开/合状态的分类预测结果中概率值是否大于预设阈值,当概率值大于预设阈值时将截断塞门手把的开/合状态图和告警信息上传。
7.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1-5任一项所述的截断塞门手把开合状态的识别方法。
8.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1-5任一项所述的截断塞门手把开合状态的识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310425609.2A CN116403163B (zh) | 2023-04-20 | 2023-04-20 | 一种截断塞门手把开合状态的识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310425609.2A CN116403163B (zh) | 2023-04-20 | 2023-04-20 | 一种截断塞门手把开合状态的识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116403163A CN116403163A (zh) | 2023-07-07 |
CN116403163B true CN116403163B (zh) | 2023-10-27 |
Family
ID=87007340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310425609.2A Active CN116403163B (zh) | 2023-04-20 | 2023-04-20 | 一种截断塞门手把开合状态的识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116403163B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778740A (zh) * | 2016-12-06 | 2017-05-31 | 北京航空航天大学 | 一种基于深度学习的tfds非故障图像检测方法 |
CN110008877A (zh) * | 2019-03-27 | 2019-07-12 | 国网内蒙古东部电力有限公司 | 一种基于Faster RCNN的变电站隔离开关检测识别方法 |
CN110728709A (zh) * | 2019-10-16 | 2020-01-24 | 广州中科智巡科技有限公司 | 一种基于双目视觉技术的刀闸智能识别系统及方法 |
CN111080608A (zh) * | 2019-12-12 | 2020-04-28 | 哈尔滨市科佳通用机电股份有限公司 | 铁路货车脱轨自动制动阀塞门手把关闭故障图像识别方法 |
WO2020164282A1 (zh) * | 2019-02-14 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于yolo的图像目标识别方法、装置、电子设备和存储介质 |
WO2020192471A1 (zh) * | 2019-03-26 | 2020-10-01 | 腾讯科技(深圳)有限公司 | 一种图像分类模型训练的方法、图像处理的方法及装置 |
CN112733940A (zh) * | 2021-01-12 | 2021-04-30 | 哈尔滨市科佳通用机电股份有限公司 | 一种截断塞门手把关闭故障图像识别方法 |
CN113065426A (zh) * | 2021-03-19 | 2021-07-02 | 浙江理工大学 | 基于通道感知的手势图像特征融合方法 |
CN113743375A (zh) * | 2021-10-13 | 2021-12-03 | 哈尔滨市科佳通用机电股份有限公司 | 铁路货车折角塞门手把不正位识别方法 |
CN113830136A (zh) * | 2021-10-20 | 2021-12-24 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路货车折角塞门手把不正位故障的识别方法 |
CA3162875A1 (en) * | 2021-06-14 | 2022-12-14 | Ltas Technologies Inc. | System and method for identifying a location using image recognition |
CN115527170A (zh) * | 2022-10-14 | 2022-12-27 | 哈尔滨市科佳通用机电股份有限公司 | 货车脱轨自动制动装置塞门手把关闭故障识别方法及系统 |
WO2023015799A1 (zh) * | 2021-08-10 | 2023-02-16 | 中国科学院深圳先进技术研究院 | 基于人工智能导盲的多模态融合障碍物检测方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101470806B (zh) * | 2007-12-27 | 2012-06-27 | 东软集团股份有限公司 | 车灯检测方法和装置、感兴趣区域分割方法和装置 |
-
2023
- 2023-04-20 CN CN202310425609.2A patent/CN116403163B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778740A (zh) * | 2016-12-06 | 2017-05-31 | 北京航空航天大学 | 一种基于深度学习的tfds非故障图像检测方法 |
WO2020164282A1 (zh) * | 2019-02-14 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于yolo的图像目标识别方法、装置、电子设备和存储介质 |
WO2020192471A1 (zh) * | 2019-03-26 | 2020-10-01 | 腾讯科技(深圳)有限公司 | 一种图像分类模型训练的方法、图像处理的方法及装置 |
CN110008877A (zh) * | 2019-03-27 | 2019-07-12 | 国网内蒙古东部电力有限公司 | 一种基于Faster RCNN的变电站隔离开关检测识别方法 |
CN110728709A (zh) * | 2019-10-16 | 2020-01-24 | 广州中科智巡科技有限公司 | 一种基于双目视觉技术的刀闸智能识别系统及方法 |
CN111080608A (zh) * | 2019-12-12 | 2020-04-28 | 哈尔滨市科佳通用机电股份有限公司 | 铁路货车脱轨自动制动阀塞门手把关闭故障图像识别方法 |
CN112733940A (zh) * | 2021-01-12 | 2021-04-30 | 哈尔滨市科佳通用机电股份有限公司 | 一种截断塞门手把关闭故障图像识别方法 |
CN113065426A (zh) * | 2021-03-19 | 2021-07-02 | 浙江理工大学 | 基于通道感知的手势图像特征融合方法 |
CA3162875A1 (en) * | 2021-06-14 | 2022-12-14 | Ltas Technologies Inc. | System and method for identifying a location using image recognition |
WO2023015799A1 (zh) * | 2021-08-10 | 2023-02-16 | 中国科学院深圳先进技术研究院 | 基于人工智能导盲的多模态融合障碍物检测方法及装置 |
CN113743375A (zh) * | 2021-10-13 | 2021-12-03 | 哈尔滨市科佳通用机电股份有限公司 | 铁路货车折角塞门手把不正位识别方法 |
CN113830136A (zh) * | 2021-10-20 | 2021-12-24 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路货车折角塞门手把不正位故障的识别方法 |
CN115527170A (zh) * | 2022-10-14 | 2022-12-27 | 哈尔滨市科佳通用机电股份有限公司 | 货车脱轨自动制动装置塞门手把关闭故障识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
基于几何特征匹配的截断塞门手把图像分割;孙国栋;卢婷;戚雨航;;制造业自动化(05);全文 * |
基于几何特征匹配的截断塞门手把图像分割;孙国栋等;《制造业自动化》;第35卷(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116403163A (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111209434B (zh) | 一种基于多源异构数据融合的变电站设备巡检系统及方法 | |
CN110827251B (zh) | 一种基于航拍图像的输电线路锁紧销缺陷检测方法 | |
CN112380952B (zh) | 基于人工智能的电力设备红外图像实时检测及识别方法 | |
CN112199993B (zh) | 基于人工智能识别任意方向变电站绝缘子红外图像检测模型的方法 | |
CN107944396B (zh) | 一种基于改进深度学习的刀闸状态识别方法 | |
CN111723654B (zh) | 基于背景建模、YOLOv3与自优化的高空抛物检测方法及装置 | |
WO2019104767A1 (zh) | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 | |
CN109543627A (zh) | 一种判断驾驶行为类别的方法、装置、及计算机设备 | |
CN109446925A (zh) | 一种基于卷积神经网络的电力设备检测算法 | |
CN115731164A (zh) | 基于改进YOLOv7的绝缘子缺陷检测方法 | |
CN111179249A (zh) | 一种基于深度卷积神经网络的电力设备检测方法和装置 | |
KR20220156769A (ko) | 생산 과정을 통하여 생산되는 제품을 분류하는 방법 및 시스템 | |
CN110378221A (zh) | 一种电网线夹自动检测与缺陷识别方法及装置 | |
CN111079640A (zh) | 一种基于自动扩增样本的车型识别方法及系统 | |
CN113469950A (zh) | 一种基于深度学习的复合绝缘子异常发热缺陷的诊断方法 | |
CN113642474A (zh) | 一种基于yolov5的危险区域人员监控方法 | |
CN114331949A (zh) | 一种图像数据处理方法、计算机设备以及可读存储介质 | |
CN113065431A (zh) | 一种基于隐马尔可夫模型和循环神经网络的人体违规行为预测方法 | |
CN116523881A (zh) | 一种电力设备异常温度检测方法及装置 | |
CN117409341B (zh) | 基于无人机照明的图像分析方法及系统 | |
CN118552800A (zh) | 一种边缘端部署的铁轨异物半监督异常检测方法及系统 | |
CN114219073A (zh) | 属性信息的确定方法、装置、存储介质及电子装置 | |
CN116403163B (zh) | 一种截断塞门手把开合状态的识别方法和装置 | |
CN117612044A (zh) | 一种复杂场景下无人机巡检输电线路绝缘子的方法 | |
CN116682057A (zh) | 一种基于窗口自注意力机制的变电站安全隐患检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |