CN113869122A - 一种配网工程强化管控方法 - Google Patents
一种配网工程强化管控方法 Download PDFInfo
- Publication number
- CN113869122A CN113869122A CN202110992972.3A CN202110992972A CN113869122A CN 113869122 A CN113869122 A CN 113869122A CN 202110992972 A CN202110992972 A CN 202110992972A CN 113869122 A CN113869122 A CN 113869122A
- Authority
- CN
- China
- Prior art keywords
- distribution network
- target
- picture
- abnormal
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000002159 abnormal effect Effects 0.000 claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000013528 artificial neural network Methods 0.000 claims abstract description 35
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 238000010276 construction Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims description 25
- 238000005728 strengthening Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 210000002569 neuron Anatomy 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000005856 abnormality Effects 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 7
- 238000004519 manufacturing process Methods 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 12
- 238000007726 management method Methods 0.000 description 12
- 238000013135 deep learning Methods 0.000 description 7
- 238000011161 development Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000012212 insulator Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Biomedical Technology (AREA)
- Economics (AREA)
- Public Health (AREA)
- Water Supply & Treatment (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种配网工程强化管控方法,步骤如下:S1、设定监理机器人的线路s和速度v;S2、按照线路s和速度v拍摄监理视频,记录相机的运动方程F;S3、对采集的视频进行标注制作标准场景图像库;S4、制作成配网施工现场目标数据集;S5、训练YOLOV5s深度神经网络得到训练权重;S6、制作标准场景图像库的负样本;S7、将基于概率相似度的MatchNet神经网络在正负样本上进行训练;S8、监理机器人按照线路x和速度v以及相机运动方程F进行监理;S9、将拍摄图像与标准场景库图片采用基于概率相似度的MatchNet神经网络比对;S10、将异常的图片用训练好的YOLOV5s深度神经网络进行异常检测;S11、输出比对异常的结果。该方案提高了异常监控的准确度和效率。
Description
技术领域
本发明涉及电力工程管控技术领域,具体的,涉及一种配网工程强化管控方法。
背景技术
随着社会经济的快速发展,人们对电力资源的需求量越来越大。同时,配网工程是电力行业和公司基建工作的重要组成部分。而现有的配网工程作业存在着安全管控技术落后的问题,难以及时发现安全隐患,因此亟需提升配网工程的强化管控技术。
近年来,基于深度学习的计算机视觉技术在配网强化管控方面的应用也越来越多,如电杆倾斜、拉线角度不足、设备安装高度不足等等进行异常检测与预警处理等。T.Würf等人针对3D图像识别问题,提出了一种新的三维断层重建的深度学习框架,将过滤反投影类型的算法映射到神经网络,可将3D图像准确投影为2D图像并进行识别。L.Chen等人采用ATROUS卷积显式的控制CNN中计算特征响应,提出了ASPP算法在多个尺度上稳健分割图像,结合DCNNs和概率图形模型,从而改进了目标图像边界定位方法,提高图像含义识别的准确率。乔俊峰等人通过分析配电网全景监测的实现要素,研究大数据技术与配电网监测的兼容性,提出了基于大数据技术实现配电网全景监测的实现方法。李军锋等人通过CNN提取了电力设备图像特征,借鉴传统机器学习方法,提出了结合深度学习的随机森林分类方法,采用大量电力设备图像对模型进行测试,结果表明对于绝缘子、变压器、断路器等电力设备其平均识别准确率有显著提高。
以上研究成果对强化配网工程管控具有重要意义。但是现有的技术仍然存在着一定的局限性,首先是以上方法并没有做到系统化,仅仅只是图像处理技术对配网现场目标的检测;其次,以上方法所采用的深度学习神经网络算法对设备算力要求非常高,难以在嵌入式设备上部署;最后,以上方法仅仅适用于配网现场的局部目标,无法对整个配网现场进行实时的异常监控,智能化程度较低。
发明内容
本发明的目的是解决现有的工程管理方法智能化程度较低,无法对配网现场进行全时域监控的问题,提出了一种配网工程强化管控方法,基于深度学习的目标检测技术和图像匹配技术,采用配网监理机器人实现对配网现场的质量安全实时管控,降低了传统人工管控的隐患,提高了异常监控的准确度和效率。
为实现上述技术目的,本发明提供的一种技术方案是,一种配网工程强化管控方法,包括如下步骤:
步骤S1、设定监理机器人在配网施工现场的监理线路s和监理速度v;
步骤S2、搭载RGB相机的监理机器人按照步骤S1中设定的线路s和速度v监理,拍摄监理视频,记录相机的运动方程F;
步骤S3、对采集的视频标注出每一帧所涉及配网现场目标的种类、数量和位置,形成标准场景图像库;
步骤S4、采集步骤S3中所涉及的配网现场目标,制作成配网施工现场目标数据集;
步骤S5、将YOLOV5s深度神经网络在步骤S4中的数据集上进行训练,得到训练权重;
步骤S6、制作步骤S3中标准场景图像库的负样本;
步骤S7、将基于概率相似度的MatchNet神经网络在正负样本上进行训练,得到最终的网络;
步骤S8、监理机器人按照步骤S1中设定的线路和速度以及步骤S2中记录的相机运动方程F进行监理;
步骤S9、监理过程中将拍摄的每一帧图像与步骤S3中的标准场景库相同时刻前后各30帧图片采用基于概率相似度的MatchNet神经网络比对;
步骤S10、将步骤S9中初步比对异常的图片采用步骤S5中训练好的YOLOV5s深度神经网络进行最终异常检测;
步骤S11、输出比对异常的结果。
本方案中,结合深度学习的目标检测技术和图像匹配技术,采用配网监理机器人实现对配网现场的质量安全实时管控,首先按照固定的监理线路和速度,同时转动相机采集配网现场视频,并且记录下相机的运动方程;将采集的视频解析出每一帧的图片,并且标注出配网现场所涉及的所有目标,包括目标的种类和数量;制作包含采集视频中的配网现场目标的数据集,可以通过网络获取或者实地拍摄制作,标注形成YOLO格式的训练样本,作为标准场景图像库,用来训练YOLOV5s目标检测网络;同时制作标准场景图像库的负样本,用正负样本来训练MatchNet目标匹配神经网络,为了实现YOLOV5s和MatchNet的融合,设计了基于概率相似度的MatchNet算法,可以输出具体的概率值,而非0,1值;设定相似度阈值,将MatchNet检测异常的场景采用YOLOV5s进一步确认和检测出具体异常的部位;最后保存异常的日志便于信息化管控,此方法不受配网现场场景的限制,对于不同电网的配网现场泛化性能较好,不需要再额外针对各个不同的配网现场分别训练模型,减少了一些重复的图像标注以及模型训练工作,而且开发部署方便,同时帮助开发人员与电网管理人员提升了对于配网现场的工作人员的安全隐患告警的效率。
作为优选,步骤S3包括如下步骤:
将采集的监理视频解析到每一帧,采用labelme标注工具标注出每一张图片中的配网施工现场目标,生成符合YOLOV5神经网络的标注文件;
每张图片的标注信息包含有目标种类、目标数量和在图片中的位置信息;表示如下:
class_id,x,y,w,h
class_id表示目标类别编号,从0开始依次递增;(x,y)为真实框中心相对于图片左上角的坐标值与图片宽高的比例;(w,h)为真实框的宽高相对于图片宽高的比例;
标注后的所有标注文件和监理视频作为标准场景库。
作为优选,步骤S5包括如下步骤:
使用kmeans++算法在步骤S4中的数据集上聚类出9类先验框尺寸;
YOLOV5s算法的训练总轮数为500500,初始学习率设为0.0013,并让其在训练至400000轮和450000轮时分别降低至原数值的1/10,decay设置为0.0005,训练过程中,对图片进行旋转和色调、饱和度变化以防止过拟合;
类别损失函数采用交叉熵损失函数,如下式所示:
边界框回归损失函数采用GIoU损失函数,函数原理式如下:
LGIoU=1-GIoU
上式中LGIoU表示GIoU损失;P表示预测框;G表示真实框;C表示同时包含预测框与真实框的最小外接矩形面积;
总的损失函数为:
Lloss=Lclass+LGIoU。
作为优选,步骤S6包括如下步骤:
对步骤S3中标准场景图像库的每张图片随机作mask遮挡、明暗、灰度变化以及模糊处理,得到负样本图像库;
将标准场景图像库和负样本图像库中的每张图片分别划分为64×64的图像块,得到用于训练的正负样本。
作为优选,步骤S7包括如下步骤:
基于Keras和python语言构建特征提取网络;特征提取网络为两个相同的神经网络结构,单个神经网络结构为:7×7×24的卷积层、3×3/2的最大池化层、5×5×64的卷积层、3×3/2的最大池化层、两个3×3×96的卷积层、一个3×3×64的卷积层和3×3/2的最大池化层,其中所有卷积层中卷积核的步长为均为1,最大池化层的步长均为2;
基于Keras和python语言搭建特征匹配网络;特征匹配网络为三层全连接层加上softmax层,两个全连接层分别有1024个神经元,激活函数为relu,softmax层有1000个神经元,激活函数为softmax。
作为优选,步骤S9包括如下步骤:
考虑到监理机器人内部装配误差和不同监理时期的环境变化,故而将每次采集的图片与相同时刻前后各30帧图片进行比较,选取输出相似度概率最高的标准场景库一张图片,如果有相同概率的多张图片,选取时刻小的图片作为比较对象;
由于基于概率相似度的MatchNet神经网络将图片分割成64×64的子块,因此,设定当不超过16个子块不同时,认为两张图片完全一致,故而相似度阈值为:
即大于等于该阈值p的图片场景可认为无异常;当相似度小于该阈值p时可认为场景初步异常。
作为优选,步骤S10包括如下步骤:
将比对异常的两张图片采用YOLOV5s深度神经网络进行目标检测,得到各目标的概率和检测框;
采用粗线框标注出与典型场景库目标检测概率或检测框宽或高或宽高比相差大于0.004的目标,该目标即为最终异常目标;
若概率或检测框参数差值小于0.004即认为无异常。
作为优选,步骤S11包括如下步骤:保存异常的图片,异常的目标和异常图片的时刻,输出到日志文档中。
本发明的有益效果:本发明一种配网工程强化管控方法,基于深度学习的计算机视觉技术可对配网现场实现全天候实时安全管控,降低了传统人工管控的隐患;配网现场的数据集具有一般性,搭载本发明配网安全管控技术的配网监理机器人可适用于任何配网现场。YOLOV5s与MatchNet算法融合,在目标检测的基础上提高了场景匹配的精度,提高了配网现场异常监控的准确度和效率。
附图说明
图1为本发明的涉及一种配网工程强化管控方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
应当理解,在本发明的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
应当理解,在本发明中,“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本发明中,“多个”是指两个或两个以上。“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。“包含A、B和C”、“包含A、B、C”是指A、B、C三者都包含,“包含A、B或C”是指包含A、B、C三者之一,“包含A、B和/或C”是指包含A、B、C三者中任1个或任2个或3个。
应当理解,在本发明中,“与A对应的B”、“与A相对应的B”、“A与B相对应”或者“B与A相对应”,表示B与A相关联,根据A可以确定B。根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。A与B的匹配,是A与B的相似度大于或等于预设的阈值。
取决于语境,如在此所使用的“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
实施例:
如图1所示,一种配网工程强化管控方法的流程图,包括如下步骤:
步骤S1、设定监理机器人在配网施工现场的监理线路s和监理速度v;固定监理路线和监理速度的目的是为了降低后续场景匹配的难度和时间,提高场景匹配的准确率。
步骤S2、搭载RGB相机的监理机器人按照步骤S1中设定的线路s和速度v监理,拍摄监理视频,记录相机的运动方程F;监理机器人首次监理时,转动相机拍摄监理视频,保证在步骤S1中设定的监理路线上尽可能多地拍摄配网施工现场目标;实时记录相机转动的状态,当监理过程完成时,生成相机的运动方程F。
步骤S3、对采集的视频标注出每一帧所涉及配网现场目标的种类、数量和位置,形成标准场景图像库;包括如下步骤:
将采集的监理视频解析到每一帧,采用labelme标注工具标注出每一张图片中的配网施工现场目标,生成符合YOLOV5神经网络的标注文件;
每张图片的标注信息包含有目标种类、目标数量和在图片中的位置信息;表示如下:
class_id,x,y,w,h
class_id表示目标类别编号,从0开始依次递增;(x,y)为真实框中心相对于图片左上角的坐标值与图片宽高的比例;(w,h)为真实框的宽高相对于图片宽高的比例;
标注后的所有标注文件和监理视频作为标准场景库。
步骤S4、采集步骤S3中所涉及的配网现场目标,制作成配网施工现场目标数据集;网络下载或者实地拍摄步骤S3中所有的目标图片,采用步骤S3中的标注方法进行标注,形成配网施工现场目标数据集,并按照7:3的比例划分为训练集和验证集。
步骤S5、将YOLOV5s深度神经网络在步骤S4中的数据集上进行训练,得到训练权重;训练环境操作系统为Ubuntu16.04;CPU为Intel i7-8700,3.2GHz;内存大小为16G;GPU为NVIDIA 1070 8GB显卡;深度学习框架为AlexeyAB-Darknet,源码为C语言;
使用kmeans++算法在步骤S4中的数据集上聚类出9类先验框尺寸;
YOLOV5s算法的训练总轮数为500500,初始学习率设为0.0013,并让其在训练至400000轮和450000轮时分别降低至原数值的1/10,decay设置为0.0005,训练过程中,对图片进行旋转和色调、饱和度变化以防止过拟合;
类别损失函数采用交叉熵损失函数,如下式所示:
边界框回归损失函数采用GIoU损失函数,函数原理式如下:
LGIoU=1-GIoU
上式中LGIoU表示GIoU损失;P表示预测框;G表示真实框;C表示同时包含预测框与真实框的最小外接矩形面积;
总的损失函数为:
Lloss=Lclass+LGIoU。
步骤S6、制作步骤S3中标准场景图像库的负样本;对步骤S3中标准场景图像库的每张图片随机作mask遮挡、明暗、灰度变化以及模糊处理,得到负样本图像库;
将标准场景图像库和负样本图像库中的每张图片分别划分为64×64的图像块,得到用于训练的正负样本。
步骤S7、将基于概率相似度的MatchNet神经网络在正负样本上进行训练,得到最终的网络;包括如下步骤:
基于Keras和python语言构建特征提取网络;特征提取网络为两个相同的神经网络结构,单个神经网络结构为:7×7×24的卷积层、3×3/2的最大池化层、5×5×64的卷积层、3×3/2的最大池化层、两个3×3×96的卷积层、一个3×3×64的卷积层和3×3/2的最大池化层,其中所有卷积层中卷积核的步长为均为1,最大池化层的步长均为2;
基于Keras和python语言搭建特征匹配网络;特征匹配网络为三层全连接层加上softmax层,两个全连接层分别有1024个神经元,激活函数为relu,softmax层有1000个神经元,激活函数为softmax。
步骤S8、监理机器人按照步骤S1中设定的线路和速度以及步骤S2中记录的相机运动方程进行监理;由于采用了与采集标准场景图像库相同的线路x、速度和相同的相机运动方程F,所以理论上在场景没有发生任何变化的理想情况下,相同时刻采集的单帧图片也应该完全一致,此处也是步骤S1中设定线路、速度和相机运动状态方程的原因。
步骤S9、监理过程中将拍摄的每一帧图像与步骤S3中的标准场景库相同时刻前后各30帧图片采用基于概率相似度的MatchNet神经网络比对;包括如下步骤:
考虑到监理机器人内部装配误差和不同监理时期的环境变化,故而将每次采集的图片与相同时刻前后各30帧图片进行比较,选取输出相似度概率最高的标准场景库一张图片,如果有相同概率的多张图片,选取时刻小的图片作为比较对象;
由于基于概率相似度的MatchNet神经网络将图片分割成64×64的子块,因此,设定当不超过16个子块不同时,认为两张图片完全一致,故而相似度阈值为:
即大于等于该阈值p的图片场景可认为无异常;当相似度小于该阈值p时可认为场景初步异常。
步骤S10、将步骤S9中初步比对异常的图片采用步骤S5中训练好的YOLOV5s深度神经网络进行最终异常检测;包括如下步骤:
将比对异常的两张图片采用YOLOV5s深度神经网络进行目标检测,得到各目标的概率和检测框;
采用粗线框标注出与典型场景库目标检测概率或检测框宽或高或宽高比相差大于0.004的目标,该目标即为最终异常目标;
若概率或检测框参数差值小于0.004即认为无异常。
步骤S11、输出比对异常的结果。保存异常的图片,异常的目标和异常图片的时刻,输出到日志文档中。
本实施例中,结合深度学习的目标检测技术和图像匹配技术,采用配网监理机器人实现对配网现场的质量安全实时管控,首先按照固定的监理线路和速度,同时转动相机采集配网现场视频,并且记录下相机的运动方程;将采集的视频解析出每一帧的图片,并且标注出配网现场所涉及的所有目标,包括目标的种类和数量;制作包含采集视频中的配网现场目标的数据集,可以通过网络获取或者实地拍摄制作,标注形成YOLO格式的训练样本,作为标准场景图像库,用来训练YOLOV5s目标检测网络;同时制作标准场景图像库的负样本,用正负样本来训练MatchNet目标匹配神经网络,为了实现YOLOV5s和MatchNet的融合,设计了基于概率相似度的MatchNet算法,可以输出具体的概率值,而非0,1值;设定相似度阈值,将MatchNet检测异常的场景采用YOLOV5s进一步确认和检测出具体异常的部位;最后保存异常的日志便于信息化管控,此方法不受配网现场场景的限制,对于不同电网的配网现场泛化性能较好,不需要再额外针对各个不同的配网现场分别训练模型,减少了一些重复的图像标注以及模型训练工作,而且开发部署方便,同时帮助开发人员与电网管理人员提升了对于配网现场的工作人员的安全隐患告警的效率。
以上所述之具体实施方式为本发明一种配网工程强化管控方法的较佳实施方式,并非以此限定本发明的具体实施范围,本发明的范围包括并不限于本具体实施方式,凡依照本发明之形状、结构所作的等效变化均在本发明的保护范围内。
Claims (10)
1.一种配网工程强化管控方法,其特征在于:包括如下步骤:
步骤S1、设定监理机器人在配网施工现场的监理线路s和监理速度v;
步骤S2、搭载RGB相机的监理机器人按照步骤S1中设定的线路s和速度v监理,拍摄监理视频,记录相机的运动方程F;
步骤S3、对采集的视频标注出每一帧所涉及配网现场目标的种类、数量和位置,形成标准场景图像库;
步骤S4、采集步骤S3中所涉及的配网现场目标,制作成配网施工现场目标数据集;
步骤S5、将YOLOV5s深度神经网络在步骤S4中的数据集上进行训练,得到训练权重;
步骤S6、制作步骤S3中标准场景图像库的负样本;
步骤S7、将基于概率相似度的MatchNet神经网络在正负样本上进行训练,得到最终的网络;
步骤S8、监理机器人按照步骤S1中设定的线路和速度以及步骤S2中记录的相机运动方程F进行监理;
步骤S9、监理过程中将拍摄的每一帧图像与步骤S3中的标准场景库相同时刻前后各30帧图片采用基于概率相似度的MatchNet神经网络比对;
步骤S10、将步骤S9中初步比对异常的图片采用步骤S5中训练好的YOLOV5s深度神经网络进行最终异常检测;
步骤S11、输出比对异常的结果。
2.根据权利要求1所述的一种配网工程强化管控方法,其特征在于:步骤S3包括如下步骤:将采集的监理视频解析到每一帧,采用labelme标注工具标注出每一张图片中的配网施工现场目标,生成符合YOLOV5神经网络的标注文件;
每张图片的标注信息包含有目标种类、目标数量和在图片中的位置信息;表示如下:
class_id,x,y,w,h
class_id表示目标类别编号,从0开始依次递增;(x,y)为真实框中心相对于图片左上角的坐标值与图片宽高的比例;(w,h)为真实框的宽高相对于图片宽高的比例;
标注后的所有标注文件和监理视频作为标准场景库。
3.根据权利要求1所述的一种配网工程强化管控方法,其特征在于:步骤S5包括如下步骤:使用kmeans++算法在步骤S4中的数据集上聚类出9类先验框尺寸;
YOLOV5s算法的训练总轮数为500500,初始学习率设为0.0013,并让其在训练至400000轮和450000轮时分别降低至原数值的1/10,decay设置为0.0005,训练过程中,对图片进行旋转和色调、饱和度变化以防止过拟合;
类别损失函数采用交叉熵损失函数,如下式所示:
边界框回归损失函数采用GIoU损失函数,函数原理式如下:
LGIoU=1-GIoU
上式中LGIoU表示GIoU损失;P表示预测框;G表示真实框;C表示同时包含预测框与真实框的最小外接矩形面积;
总的损失函数为:
Lloss=Lclass+LGIoU。
4.根据权利要求1或2或3所述的一种配网工程强化管控方法,其特征在于:步骤S6包括如下步骤:
对步骤S3中标准场景图像库的每张图片随机作mask遮挡、明暗、灰度变化以及模糊处理,得到负样本图像库;
将标准场景图像库和负样本图像库中的每张图片分别划分为64×64的图像块,得到用于训练的正负样本。
5.根据权利要求4所述的一种配网工程强化管控方法,其特征在于:
步骤S7包括如下步骤:
基于Keras和python语言构建特征提取网络;特征提取网络为两个相同的神经网络结构,单个神经网络结构为:7×7×24的卷积层、3×3/2的最大池化层、5×5×64的卷积层、3×3/2的最大池化层、两个3×3×96的卷积层、一个3×3×64的卷积层和3×3/2的最大池化层,其中所有卷积层中卷积核的步长为均为1,最大池化层的步长均为2。
6.根据权利要求5所述的一种配网工程强化管控方法,其特征在于:
步骤S7还包括如下步骤:
基于Keras和python语言搭建特征匹配网络;特征匹配网络为三层全连接层加上softmax层,两个全连接层分别有1024个神经元,激活函数为relu,softmax层有1000个神经元,激活函数为softmax。
8.根据权利要求1或3所述的一种配网工程强化管控方法,其特征在于:
步骤S10包括如下步骤:
将比对异常的两张图片采用YOLOV5s深度神经网络进行目标检测,得到各目标的概率和检测框;
采用粗线框标注出与典型场景库目标检测概率或检测框宽或高或宽高比相差大于0.004的目标,该目标即为最终异常目标;
若概率或检测框参数差值小于0.004即认为无异常。
9.根据权利要求8所述的一种配网工程强化管控方法,其特征在于:
步骤S11包括如下步骤:保存异常的图片,异常的目标和异常图片的时刻,输出到日志文档中。
10.根据权利要求1所述的一种配网工程强化管控方法,其特征在于:
步骤S4包括如下步骤:
网络下载或者实地拍摄步骤S3中所有的目标图片,采用步骤S3中的标注方法进行标注,形成配网施工现场目标数据集,并按照7:3的比例划分为训练集和验证集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110992972.3A CN113869122A (zh) | 2021-08-27 | 2021-08-27 | 一种配网工程强化管控方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110992972.3A CN113869122A (zh) | 2021-08-27 | 2021-08-27 | 一种配网工程强化管控方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113869122A true CN113869122A (zh) | 2021-12-31 |
Family
ID=78988570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110992972.3A Pending CN113869122A (zh) | 2021-08-27 | 2021-08-27 | 一种配网工程强化管控方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113869122A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114821022A (zh) * | 2022-06-27 | 2022-07-29 | 中国电子科技集团公司第二十八研究所 | 融合主观逻辑和不确定性分布建模的可信目标检测方法 |
-
2021
- 2021-08-27 CN CN202110992972.3A patent/CN113869122A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114821022A (zh) * | 2022-06-27 | 2022-07-29 | 中国电子科技集团公司第二十八研究所 | 融合主观逻辑和不确定性分布建模的可信目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
CN112199993B (zh) | 基于人工智能识别任意方向变电站绝缘子红外图像检测模型的方法 | |
CN109145759B (zh) | 车辆属性识别方法、装置、服务器及存储介质 | |
CN111784685A (zh) | 一种基于云边协同检测的输电线路缺陷图像识别方法 | |
CN109598794B (zh) | 三维gis动态模型的构建方法 | |
CN110188835B (zh) | 基于生成式对抗网络模型的数据增强行人再识别方法 | |
CN108734143A (zh) | 一种巡检机器人的基于双目视觉的输电线路在线检测方法 | |
CN110378222A (zh) | 一种输电线路防震锤目标检测与缺陷识别方法及装置 | |
CN114743119B (zh) | 基于无人机的高铁接触网吊弦螺母缺陷检测方法 | |
CN112581443A (zh) | 一种风力发电机叶片表面损伤轻量化识别方法 | |
CN110287798B (zh) | 基于特征模块化和上下文融合的矢量网络行人检测方法 | |
CN112434566B (zh) | 客流统计方法、装置、电子设备及存储介质 | |
CN115205264A (zh) | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 | |
CN115082254A (zh) | 一种变电站精益管控数字孪生系统 | |
CN115861619A (zh) | 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与系统 | |
CN109740527B (zh) | 一种视频帧中图像处理方法 | |
CN109064444B (zh) | 基于显著性分析的轨道板病害检测方法 | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN113869122A (zh) | 一种配网工程强化管控方法 | |
CN110688512A (zh) | 基于ptgan区域差距与深度神经网络的行人图像搜索算法 | |
Ouyang et al. | Aerial target detection based on the improved YOLOv3 algorithm | |
CN116543333A (zh) | 电力系统的目标识别方法、训练方法、装置、设备和介质 | |
CN110738229B (zh) | 一种细粒度图像分类方法、装置及电子设备 | |
CN113673478B (zh) | 基于深度学习全景拼接的港口大型设备检测与识别方法 | |
CN113628251B (zh) | 一种智慧酒店终端监测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |