CN112132088A - 一种巡检点位漏巡识别方法 - Google Patents

一种巡检点位漏巡识别方法 Download PDF

Info

Publication number
CN112132088A
CN112132088A CN202011054383.2A CN202011054383A CN112132088A CN 112132088 A CN112132088 A CN 112132088A CN 202011054383 A CN202011054383 A CN 202011054383A CN 112132088 A CN112132088 A CN 112132088A
Authority
CN
China
Prior art keywords
point location
inspection
image
model
patrol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011054383.2A
Other languages
English (en)
Other versions
CN112132088B (zh
Inventor
王玥
朱金锋
陈德展
李维新
李华健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mobile Shandong Electronic Technology Co ltd
Original Assignee
Mobile Shandong Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mobile Shandong Electronic Technology Co ltd filed Critical Mobile Shandong Electronic Technology Co ltd
Priority to CN202011054383.2A priority Critical patent/CN112132088B/zh
Publication of CN112132088A publication Critical patent/CN112132088A/zh
Application granted granted Critical
Publication of CN112132088B publication Critical patent/CN112132088B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种巡检点位漏巡识别方法,根据预采集巡检视频提取巡检图像,按照巡检图像所属点位类别标注其标签向量,向量的元素表示巡检图像为对应点位类别的正样本或负样本;将标注的巡检图像划分为训练集、验证集和测试集;搭建密集连接卷积神经网络模型,所述模型的输入量为巡检图像,输出量为巡检图像预测为各点位类别正样本的置信度;采用训练集训练所述模型;采用验证集计算各点位类别的置信阈值;采用测试集验证模型训练完成;录制巡检过程时,同步提取实时巡检图像,采用训练后的模型预测实时巡检图像的置信度;录制完成后,汇总实时巡检图像的点位类别预测结果,判断是否存在点位漏巡。本发明实现了自动点位分类,能够及时发现漏巡。

Description

一种巡检点位漏巡识别方法
技术领域
本发明涉及铁路机车巡检辅助领域,具体涉及一种巡检点位漏巡识别方法。
背景技术
铁路在我国运输中起着举足轻重的作用,机车的日常维护是铁路安全运行的重要保障。机车整备作业内容包括机车各部件日常检查、保养等工作,有严格的巡检流程,对巡检人员要求极高,单次作业巡检时间长、巡检点位多,外部环境复杂、巡检难度大,巡检人员疲劳、疏忽等人为因素易导致重要点位漏巡情况发生,无法有效消除事故隐患。
目前,检查巡检过程中是否存在点位漏巡的方法多为通过人工回看巡检视频进行查找,这种检查方法耗时耗力,检查质量难以保证,且属于事后监督,不能及时发现漏巡问题。
通过图像识别神经网络可以实现智能化处理巡检图像,但是在实际应用中,机车巡检过程所采集的巡检图像场景复杂,受到点位、时间、天气、光照强度等多种因素影响,因此,图像分析识别的难度极大。现有技术大多针对某一种点位的图像进行故障分析,而通过巡检过程中的多种点位图像判断点位漏巡方面的研究极少。
发明内容
为了解决上述技术问题,本发明提出了一种巡检点位漏巡识别方法,实现了在录制巡检视频的同时自动对视频图像进行点位分类识别,能够及时判断巡检过程是否存在点位漏巡。
为实现上述目的,本发明采用以下技术方案:
一种巡检点位漏巡识别方法,包括:
根据预采集巡检视频提取巡检图像,按照巡检图像所属点位类别标注其标签向量,向量的元素表示巡检图像为对应点位类别的正样本或负样本;将标注的巡检图像划分为训练集、验证集和测试集;
搭建密集连接卷积神经网络模型,所述模型的输入量为巡检图像,输出量为巡检图像预测为各点位类别正样本的置信度;采用训练集训练所述模型;采用验证集计算各点位类别的置信阈值;采用测试集验证模型训练完成;
录制巡检过程时,同步提取实时巡检图像,采用训练后的模型预测实时巡检图像的置信度;录制完成后,汇总实时巡检图像的点位类别预测结果,判断是否存在点位漏巡。
进一步地,采用数据增强方法对所述训练集进行数据扩增,扩增后的图像与原始图像具有相同的标签向量。
进一步地,所述数据增强方法包括随机旋转、随机水平翻转、错切变换、随机通道转换及随机添加噪声。
进一步地,所述训练集、验证集和测试集均包含每种点位类别的正样本。
进一步地,所述密集连接卷积神经网络模型每层网络的输入均来自前面所有层的输出;所述模型包括若干个密集连接块,每两个密集连接块之间通过过渡层连接,最后一个密集连接块后依次连接全局平均池化层和全连接层,输出巡检图像预测为各点位类别正样本的置信度;每个所述密集连接块内包括若干组卷积单元,每组卷积单元包含1*1和3*3的卷积层,每组卷积单元的输出作为所属密集连接块内其后各组卷积单元的输入。
进一步地,所述密集连接块数量为4个,每个密集连接块包含的卷积单元数量依次为6组、12组、24组和16组。
进一步地,所述密集连接卷积神经网络模型的模型训练参数设置为:参数class_weight设置为auto;损失函数采用二值交叉熵损失函数,优化方法采用Adam方法,模型全连接层激活函数采用sigmoid函数。
进一步地,所述采用验证集计算各点位类别的置信阈值,包括:
采用训练后的模型预测验证集图像为各点位类别正样本的置信度;
计算每一点位类别的每一正样本置信度作为阈值时,该点位类别在验证集的约登指数;
选择每一点位类别最大约登指数对应的置信度作为该点位类别的置信阈值。
进一步地,所述采用测试集验证模型训练完成具体为:模型预测结果的准确度、灵敏度和特异度均达到95%以上。
进一步地,所述汇总实时巡检图像的点位类别预测结果,判断是否存在点位漏巡,包括:
将预测的实时巡检图像置信度与点位类别置信阈值进行比较,若置信度大于置信阈值,则预测该实时巡检图像为对应点位类别正样本,否则,为对应点位类别负样本;
判断实时巡检图像预测结果是否包含所有点位类别正样本,若存在未包含的点位类别,则判断存在点位漏巡。
本发明的有益效果是:
本发明通过提出一种巡检点位漏巡识别方法,实现了在录制巡检视频的同时对视频图像进行点位自动分类识别,进而判断巡检过程是否存在点位漏巡。本发明能够更加完善准确地进行分析,有效减少人工核对视频的工作量,节约了人工查找漏巡情况的时间与人力成本,同时提高了作业质量,有效辅助铁路巡检。通过数据增强方法获得了更多训练数据,同时增加了智能分析模型的鲁棒性。本发明提出的巡检点位漏巡识别方法识别精度高,参数量少,运行速度快,实现了铁路机车整备作业巡检点位漏巡情况的实时准确分析。
附图说明
图1是本发明实施例巡检点位漏巡识别方法流程示意图;
图2是本发明实施例密集连接卷积神经网络模型结构示意图。
具体实施方式
为能清楚说明本方案的技术特点,下面通过具体实施方式,并结合其附图,对本发明进行详细阐述。下文的公开提供了许多不同的实施例或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。此外,本发明可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施例和/或设置之间的关系。应当注意,在附图中所图示的部件不一定按比例绘制。本发明省略了对公知组件和处理技术及工艺的描述以避免不必要地限制本发明。
如图1所示,本发明实施例公开了一种巡检点位漏巡识别方法,包括:
1)图像预处理阶段
根据预采集巡检视频提取巡检图像,按照巡检图像所属点位类别标注其标签向量,向量的元素表示巡检图像为对应点位类别的正样本或负样本;将标注的巡检图像划分为训练集、验证集和测试集。
具体步骤如下:
11)采用智能巡检终端录制预采集巡检视频,逐帧提取巡检图像。
12)根据铁路巡检规范确定巡检点位,按照巡检图像所属点位类别对每张巡检图像进行N种点位类别标注,将标注映射为one-hot向量作为标签向量,向量中每个元素分别代表此巡检图像为某种对应点位类别的正样本或负样本。由此所得的标注结果被用作模型训练阶段的金标准。本发明实施例中共包括9种点位类别,如控制系统电源开关、总风缸隔离塞门、无火装置、车轮等。
13)将标注的巡检图像按比例划分为训练集、验证集与测试集,且确保三组数据集均包含各点位类别的正样本。本发明实施例优选划分比例为8:1:1。
14)采用数据增强方法对所述训练集进行数据扩增,扩增后的图像与原始图像具有相同的标签向量。受拍摄点位、角度、时间、天气等因素影响,铁路巡检图像存在对比度不同、清晰度多样以及图像拉伸等问题,采用数据增强方法对训练集数据进行数据扩增能够获得更多训练数据的同时增加模型的鲁棒性。所采用的数据增强方法包括但不限于随机旋转、随机水平翻转、错切变换、随机通道转换及随机添加噪声等。
2)模型训练阶段
搭建密集连接卷积神经网络模型,所述模型的输入量为巡检图像,输出量为巡检图像预测为各点位类别正样本的置信度;采用训练集训练所述模型;采用验证集计算各点位类别的置信阈值;采用测试集验证模型训练完成。
具体步骤如下:
21)搭建神经网络模型。本发明实施例采用密集连接卷积神经网络模型,通过密集连接实现特征复用的同时减少网络参数量,具有较高的精度和速度,能够满足较高的实时性要求。如图2所示,所述密集连接卷积神经网络模型包括若干个密集连接块(DenseBlock),每两个密集连接块之间通过过渡层(Transition Layers)连接,过渡层包括卷积(convolution)与池化(pooling)操作,最后一个密集连接块后依次连接全局平均池化层和全连接层,输出巡检图像预测为各点位类别正样本的置信度;每个所述密集连接块内包括若干组卷积单元,每组卷积单元包含1*1和3*3的卷积层,每组卷积单元的输出作为所属密集连接块内其后各组卷积单元的输入。所述密集连接块数量为4个,每个密集连接块包含的卷积单元数量依次为6组、12组、24组和16组,模型的全部卷积层、池化层、全连接层共121层,每层的输入均来自前面所有层的输出,形成密集连接。最后一层全连接层输出为N维向量,分别对应模型预测输入巡检图像为各点位类别正样本的置信度(0~1之间)。
22)设置模型训练参数。所述密集连接卷积神经网络模型的模型训练参数设置为:参数class_weight设置为auto;损失函数采用二值交叉熵损失函数,优化方法采用Adam方法,模型全连接层激活函数采用sigmoid函数。
具体地,设置类别权重参数改善训练集数据中铁路巡检各点位类别正样本数量不均衡的问题,本发明实施例中class_weight设置为auto。
损失函数采用二值交叉熵损失函数,交叉熵主要用于度量两个概率分布间的差异性信息。交叉熵损失函数可以衡量真实标记的分布与模型预测的标记分布之间的相似性,公式为:
Figure BDA0002708555530000051
其中,x为巡检图像样本,n为巡检图像样本数量,y为巡检图像标签向量的真实标注,a为模型预测输出的置信度。
优化方法采用Adam方法,Adam方法即自适应矩估计,根据损失函数对每个参数梯度的一阶矩估计和二阶矩估计动态调整针对各参数的学习速率。其中矩在概率论中的含义是:如果一个随机变量X服从某个分布,则X的一阶矩是E(X),即样本平均值;X的二阶矩是E(X2),即样本平方的平均值。
全连接层激活函数采用sigmoid函数将变量映射到(0,1)区间,公式为:
Figure BDA0002708555530000061
23)训练神经网络模型。采用训练集训练搭建的神经网络模型,首先,通过在原始巡检视频图像的上、下方分别添加同样大小的边框(padding)将图像分辨率由720*480调整至720*720;然后,根据设定的网络输入尺寸(此处设定为128*128)调整图像至相应大小;最后,将调整大小后的图像及相应的标签向量输入步骤21)搭建的神经网络模型进行训练。
24)计算点位类别置信阈值。
首先,利用步骤23)训练好的神经网络模型识别验证集图像,预测每张巡检图像为各点位类别正样本的置信度;
其次,将所有识别为同一点位类别正样本的图像的置信度组成一个集合,记为I={l1,l2,l3,……},分别计算当集合中的各元素l1,l2,l3,……作为阈值时,该点位类别在验证集的约登指数y1,y2,y3,……;约登指数的计算方法为灵敏度与特异度之和减去1;
最后,选择最大约登指数yi对应的置信度li作为该点位类别的置信阈值,重复采用上述计算方法确定各个点位类别的置信阈值。
25)验证神经网络模型。
采用测试集验证模型训练完成,验证完成的标准具体为:模型预测结果的准确度、灵敏度和特异度均需达到95%以上。
3)巡检预测阶段
录制巡检过程时,同步提取实时巡检图像,采用训练后的模型预测实时巡检图像的置信度;录制完成后,汇总实时巡检图像的点位类别预测结果,判断是否存在点位漏巡。
具体步骤如下:
31)采用巡检终端录制巡检过程,同步逐帧提取实时巡检图像,采用与步骤23)相同的方法调整实时巡检图像的大小。
32)采用步骤2)训练好的密集连接卷积神经网络模型预测每张实时巡检图像为各点位类别正样本的置信度。
33)将预测的置信度与步骤24)计算的点位类别置信阈值进行比较,若置信度大于置信阈值,则预测该实时巡检图像为对应点位类别正样本,否则,为对应点位类别负样本;特别地,当某图像预测为正样本的点位类别数大于1时,选取置信度最大的点位类别为最终预测结果。
34)判断实时巡检图像预测结果是否包含所有点位类别正样本,若存在未包含的点位类别,则判断存在点位漏巡。例如:若铁路机车整备作业基于巡检视频提取的实时巡检图像仅识别出控制系统电开关、车轮2类,则可判断该巡检过程较大可能存在其他7类点位的漏巡情况。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制。对于所属领域的技术人员来说,在上述说明的基础上还可以做出其它不同形式的修改或变形。这里无需也无法对所有的实施方式予以穷举。在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种巡检点位漏巡识别方法,其特征在于,包括:
根据预采集巡检视频提取巡检图像,按照巡检图像所属点位类别标注其标签向量,向量的元素表示巡检图像为对应点位类别的正样本或负样本;将标注的巡检图像划分为训练集、验证集和测试集;
搭建密集连接卷积神经网络模型,所述模型的输入量为巡检图像,输出量为巡检图像预测为各点位类别正样本的置信度;采用训练集训练所述模型;采用验证集计算各点位类别的置信阈值;采用测试集验证模型训练完成;
录制巡检过程时,同步提取实时巡检图像,采用训练后的模型预测实时巡检图像的置信度;录制完成后,汇总实时巡检图像的点位类别预测结果,判断是否存在点位漏巡。
2.根据权利要求1所述的巡检点位漏巡识别方法,其特征在于,采用数据增强方法对所述训练集进行数据扩增,扩增后的图像与原始图像具有相同的标签向量。
3.根据权利要求2所述的巡检点位漏巡识别方法,其特征在于,所述数据增强方法包括随机旋转、随机水平翻转、错切变换、随机通道转换及随机添加噪声。
4.根据权利要求1所述的巡检点位漏巡识别方法,其特征在于,所述训练集、验证集和测试集均包含每种点位类别的正样本。
5.根据权利要求1所述的巡检点位漏巡识别方法,其特征在于,所述密集连接卷积神经网络模型每层网络的输入均来自前面所有层的输出;所述模型包括若干个密集连接块,每两个密集连接块之间通过过渡层连接,最后一个密集连接块后依次连接全局平均池化层和全连接层,输出巡检图像预测为各点位类别正样本的置信度;每个所述密集连接块内包括若干组卷积单元,每组卷积单元包含1*1和3*3的卷积层,每组卷积单元的输出作为所属密集连接块内其后各组卷积单元的输入。
6.根据权利要求5所述的巡检点位漏巡识别方法,其特征在于,所述密集连接块数量为4个,每个密集连接块包含的卷积单元数量依次为6组、12组、24组和16组。
7.根据权利要求1所述的巡检点位漏巡识别方法,其特征在于,所述密集连接卷积神经网络模型的模型训练参数设置为:参数class_weight设置为auto;损失函数采用二值交叉熵损失函数,优化方法采用Adam方法,模型全连接层激活函数采用sigmoid函数。
8.根据权利要求1所述的巡检点位漏巡识别方法,其特征在于,所述采用验证集计算各点位类别的置信阈值,包括:
采用训练后的模型预测验证集图像为各点位类别正样本的置信度;
计算每一点位类别的每一正样本置信度作为阈值时,该点位类别在验证集的约登指数;
选择每一点位类别最大约登指数对应的置信度作为该点位类别的置信阈值。
9.根据权利要求1所述的巡检点位漏巡识别方法,其特征在于,所述采用测试集验证模型训练完成具体为:模型预测结果的准确度、灵敏度和特异度均达到95%以上。
10.根据权利要求1所述的巡检点位漏巡识别方法,其特征在于,所述汇总实时巡检图像的点位类别预测结果,判断是否存在点位漏巡,包括:
将预测的实时巡检图像置信度与点位类别置信阈值进行比较,若置信度大于置信阈值,则预测该实时巡检图像为对应点位类别正样本,否则,为对应点位类别负样本;
判断实时巡检图像预测结果是否包含所有点位类别正样本,若存在未包含的点位类别,则判断存在点位漏巡。
CN202011054383.2A 2020-09-29 2020-09-29 一种巡检点位漏巡识别方法 Active CN112132088B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011054383.2A CN112132088B (zh) 2020-09-29 2020-09-29 一种巡检点位漏巡识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011054383.2A CN112132088B (zh) 2020-09-29 2020-09-29 一种巡检点位漏巡识别方法

Publications (2)

Publication Number Publication Date
CN112132088A true CN112132088A (zh) 2020-12-25
CN112132088B CN112132088B (zh) 2024-01-12

Family

ID=73843213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011054383.2A Active CN112132088B (zh) 2020-09-29 2020-09-29 一种巡检点位漏巡识别方法

Country Status (1)

Country Link
CN (1) CN112132088B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113963203A (zh) * 2021-10-19 2022-01-21 动联(山东)电子科技有限公司 一种智能捕鼠监测方法、系统、装置及介质
CN114241270A (zh) * 2022-02-25 2022-03-25 动联(山东)电子科技有限公司 一种家庭护理智能监督方法、系统及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130272569A1 (en) * 2012-04-17 2013-10-17 Hitachi, Ltd. Target identification system target identification server and target identification terminal
CN107346448A (zh) * 2016-05-06 2017-11-14 富士通株式会社 基于深度神经网络的识别装置、训练装置及方法
CN107679455A (zh) * 2017-08-29 2018-02-09 平安科技(深圳)有限公司 目标跟踪装置、方法及计算机可读存储介质
CN108010025A (zh) * 2017-12-14 2018-05-08 浙江大学 基于rcnn的屏柜的开关与指示灯定位和状态识别方法
CN109034205A (zh) * 2018-06-29 2018-12-18 西安交通大学 基于直推式半监督深度学习的图像分类方法
US20190180132A1 (en) * 2017-12-08 2019-06-13 Hunter Engineering Company Method and Apparatus For License Plate Recognition Using Multiple Fields of View
CN109977943A (zh) * 2019-02-14 2019-07-05 平安科技(深圳)有限公司 一种基于yolo的图像目标识别方法、系统和存储介质
CN110232316A (zh) * 2019-05-05 2019-09-13 杭州电子科技大学 一种基于改进的dsod模型的车辆检测与识别方法
CN110689531A (zh) * 2019-09-23 2020-01-14 云南电网有限责任公司电力科学研究院 一种基于yolo的输电线路机巡图像缺陷自动识别方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130272569A1 (en) * 2012-04-17 2013-10-17 Hitachi, Ltd. Target identification system target identification server and target identification terminal
CN107346448A (zh) * 2016-05-06 2017-11-14 富士通株式会社 基于深度神经网络的识别装置、训练装置及方法
CN107679455A (zh) * 2017-08-29 2018-02-09 平安科技(深圳)有限公司 目标跟踪装置、方法及计算机可读存储介质
US20190180132A1 (en) * 2017-12-08 2019-06-13 Hunter Engineering Company Method and Apparatus For License Plate Recognition Using Multiple Fields of View
CN108010025A (zh) * 2017-12-14 2018-05-08 浙江大学 基于rcnn的屏柜的开关与指示灯定位和状态识别方法
CN109034205A (zh) * 2018-06-29 2018-12-18 西安交通大学 基于直推式半监督深度学习的图像分类方法
CN109977943A (zh) * 2019-02-14 2019-07-05 平安科技(深圳)有限公司 一种基于yolo的图像目标识别方法、系统和存储介质
CN110232316A (zh) * 2019-05-05 2019-09-13 杭州电子科技大学 一种基于改进的dsod模型的车辆检测与识别方法
CN110689531A (zh) * 2019-09-23 2020-01-14 云南电网有限责任公司电力科学研究院 一种基于yolo的输电线路机巡图像缺陷自动识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
邵剑雄;闫云凤;齐冬莲;: "基于霍夫森林的变电站开关设备检测及状态识别", 电力系统自动化, no. 11, pages 121 - 126 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113963203A (zh) * 2021-10-19 2022-01-21 动联(山东)电子科技有限公司 一种智能捕鼠监测方法、系统、装置及介质
CN114241270A (zh) * 2022-02-25 2022-03-25 动联(山东)电子科技有限公司 一种家庭护理智能监督方法、系统及装置

Also Published As

Publication number Publication date
CN112132088B (zh) 2024-01-12

Similar Documents

Publication Publication Date Title
CN112380952B (zh) 基于人工智能的电力设备红外图像实时检测及识别方法
CN110598736A (zh) 一种电力设备红外图像故障定位、识别与预测方法
CN107437245B (zh) 基于深度卷积神经网络的高速铁路接触网故障诊断方法
CN113486865B (zh) 一种基于深度学习的输电线路悬挂异物目标检测方法
CN112200178B (zh) 基于人工智能的变电站绝缘子红外图像检测方法
CN112233073A (zh) 一种变电设备红外热成像异常实时检测方法
CN109344753A (zh) 一种基于深度学习的航拍图像输电线路细小金具识别方法
CN111754498A (zh) 一种基于YOLOv3的传送带托辊检测方法
CN109712127B (zh) 一种用于机巡视频流的输电线路故障检测方法
CN108711148B (zh) 一种基于深度学习的轮胎缺陷智能检测方法
CN111784633A (zh) 一种面向电力巡检视频的绝缘子缺损自动检测算法
CN112381175A (zh) 一种基于图像处理的电路板识别与分析方法
CN111652835A (zh) 基于深度学习与聚类的输电线路绝缘子缺失的检测方法
CN112287827A (zh) 基于智慧灯杆的复杂环境行人口罩佩戴检测方法及系统
CN116863274A (zh) 一种基于半监督学习的钢板表面缺陷检测方法及系统
WO2024027009A1 (zh) 一种变电站绝缘子的红外热成像缺陷检测方法及装置
CN112132088A (zh) 一种巡检点位漏巡识别方法
CN115719475B (zh) 一种基于深度学习的三阶段轨旁设备故障自动检测方法
CN109086803A (zh) 一种基于深度学习与个性化因子的雾霾能见度检测系统及方法
CN115131747A (zh) 基于知识蒸馏的输电通道工程车辆目标检测方法及系统
CN111540203B (zh) 基于Faster-RCNN调节绿灯通行时间的方法
CN113989487A (zh) 一种面向实景调度的故障缺陷检测方法及系统
CN111339927A (zh) 一种电力营业厅人员工作状态智能识别系统
CN117078670B (zh) 一种云相框的生产控制系统
CN113343926A (zh) 一种基于卷积神经网络的驾驶员疲劳检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant