CN113076683A - 用于变电站行为监测的卷积神经网络模型的建模方法 - Google Patents

用于变电站行为监测的卷积神经网络模型的建模方法 Download PDF

Info

Publication number
CN113076683A
CN113076683A CN202011422798.0A CN202011422798A CN113076683A CN 113076683 A CN113076683 A CN 113076683A CN 202011422798 A CN202011422798 A CN 202011422798A CN 113076683 A CN113076683 A CN 113076683A
Authority
CN
China
Prior art keywords
video
model
violation
frame
substation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011422798.0A
Other languages
English (en)
Other versions
CN113076683B (zh
Inventor
刘美杰
李忠伟
孟镇
邱鹏
王超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinzhou Electric Power Supply Co Of State Grid Liaoning Electric Power Supply Co ltd
State Grid Corp of China SGCC
Original Assignee
Jinzhou Electric Power Supply Co Of State Grid Liaoning Electric Power Supply Co ltd
State Grid Corp of China SGCC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinzhou Electric Power Supply Co Of State Grid Liaoning Electric Power Supply Co ltd, State Grid Corp of China SGCC filed Critical Jinzhou Electric Power Supply Co Of State Grid Liaoning Electric Power Supply Co ltd
Priority to CN202011422798.0A priority Critical patent/CN113076683B/zh
Publication of CN113076683A publication Critical patent/CN113076683A/zh
Application granted granted Critical
Publication of CN113076683B publication Critical patent/CN113076683B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/02Reliability analysis or reliability optimisation; Failure analysis, e.g. worst case scenario performance, failure mode and effects analysis [FMEA]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

一种用于变电站行为监测的卷积神经网络模型的建模方法,对实时视频流和视频帧截取,对收集到的变电站行为图像进行数据集标注,并且构建图像模型数据集;将数据集划分为训练集和验证集;基于目标检测算法框架yolov4进行改进优化,对训练集进行训练;在验证集上,对得到的训练模型进行初步评估;通过ip地址获取视频,对视频流里的每帧图片进行检测,框出违规行为,并给出违规行为的类别和置信度;将检测出有违规行为的帧写入视频文件,并将视频信息写入数据库。优点是:可以全天候、实时的变电站行为监控,检测变电站各种违规行为,将检测到的违规视频自动保存在硬盘上并将视频信息录入数据库,为事故分析、绩效评估提供依据。

Description

用于变电站行为监测的卷积神经网络模型的建模方法
技术领域
本发明涉及用于变电站行为监测的卷积神经网络模型的建模方法,属于变电站安全人工智能监控识别的领域。
背景技术
据不完全统计,目前全国有超过2万所变电站,而且该数量还在不断增长。变电站是电力系统的枢纽,属于高危险的工业领域,任何违反相关规定的行为都有可能给人的生命、财产安全带来极大的安全隐患。变电站基建安全行为监控工作通过人工“死盯”来进行监控,然而由于人的生理特性,总会出现疲倦、懈怠等情况,无法实时监控所有违规行为。在2019年国家电网的工作会议上,国家电网已经明确提出要在2019年起大幅提升变电站的智能化水平并开展无人值守变电站的试点建设。如果能用人工智能的监控技术替代监控人员,不仅大大降低了工作量,还能保证全天候、实时值守,给变电站的安全上了一份保险。
随着深度卷积神经网络的发展,目标检测技术逐渐趋于成熟,这为变电站无人值守的行为监控带来了可能。但直接将目标检测技术应用于变电站行为监控并不能满足违规行为监控的要求,如未将违规视频帧实时截取,无法根据违规时长的长短判断是违规行为还是失误触发违规检测。
发明内容
针对现有技术的不足,本发明提供一种用于变电站行为监测的卷积神经网络模型的建模方法。
本发明的技术方案是:
一种用于变电站行为监测的卷积神经网络模型的建模方法,包括以下步骤:
Sl:对实时视频流和视频帧截取,对收集到的变电站行为图像进行数据集标注,并且构建图像模型数据集;
S2:据集划分
将数据集划分为训练集和验证集;
S3:模型训练
基于目标检测算法框架yolov4进行改进优化,对训练集进行训练,得到训练模型;
S4:模型验证
在验证集上,对得到的训练模型进行初步评估;
S5:模型测试及现场部署
通过ip地址获取视频,对视频流里的每帧图片进行检测,用矩形框框出违规行为,并给出违规行为的类别和置信度;
S6:违规视频输出
将检测出有违规行为的帧写入视频文件,并将视频信息写入数据库。
进一步的,步骤S1中的数据集收集并构建图像模型数据集步骤如下:
S11:实时视频流和视频帧截取
通过ip地址获取摄像头,每隔20秒截取一帧图像;
S12:数据集标注
对每张图像,用labelme软件,按PASCAL VOC格式进行标注,标注类别为违规行为的类别,如玩手机、未带安全帽等。
进一步的,步骤S2的数据集划分过程如下:对数据集中的所有图像,随机选取90%的图像作为训练集,10%的图像作为验证集。
进一步,步骤S3中基于目标检测算法框架yolov4进行改进优化具体步骤如下:
S31:yolov4主干结构采用CSPDarknet53,该结构是在Darknet53的基础上修改而来的,由一个卷积层和多个Resblock_body子结构组成;Resblock_body子结构由两部分组成,一部分是一个巨大的残差边,另一部分则是由多个残差块堆叠而成,每个残差块又由一个小的残差边和由2个卷积层组成的边组成,形成一种嵌套的残差结构;
S32:除了主干网络,Yolov4还采用了SPP结构和PANet结构;
SPP结构,即不同尺度的最大池化后堆叠,它能够极大地增加感受野,分离出最显著的上下文特征;
PANet结构通过上采样UpSampling和下采样DownSampling将不同层的信息进行融合,从而使得各层同时获得高层语义信息(利于分类)和低层语义信息(利于定位,特别是小目标定位);
S33:激活函数:使用了Mish激活函数,Mish(x)=x·tanh(log(1+exp(x));
S34:yolov4使用了Yolo Head,利用提取到的特征进行预测;
在特征利用部分,YoloV4提取多特征层进行目标检测,一共提取三个特征层,分别位于中间层、中下层、底层;形状分别为(N,19,19,3*(n_class+5)),(N,38,38,,3*(n_class+5)),(N,76,76,,3*(n_class+5))的数据(n_class是类别数),对应每个图分为19x19、38x38、76x76的网格上3个预测框的位置;但是这个预测结果并不对应着最终的预测框在图片上的位置,还需要解码才可以完成;最后一个维度中的(n_class+5)包含了4+1+n_class,分别代表x_offset(中心点x轴偏移)、y_offset(中心点y轴偏移)、h(宽)和w(高)、置信度、分类结果;yolov4的解码过程就是将每个网格点加上它对应的x_offset和y_offset,加完后的结果就是预测框的中心,然后再利用先验框和h、w结合计算出预测框的长和宽。这样就能得到整个预测框的位置了;
S35:准确定位的公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0002823257210000031
Figure BDA0002823257210000032
Pr(object)*IOU(b,object)=σ(t0)
上述公式中,(tx,ty)表示边界框的中心横纵坐标;(cx,cy)表示网格的左上角坐标;(tw,th)表示边界框的宽度、高度;σ是sigmord函数;
(bx,by,bw,bh)表示边界框相对于网格的中心横纵坐标、宽度、高度;(pw,ph)表示预设的anchor的宽度和高度;Pr(object)*IOU(b,object)表示边界框中的分类置信度信息;
S36:损失函数的计算:此处使用平方和误差来优化模型,包含定位误差和分类误差,如下所示:
Figure BDA0002823257210000033
各参数表示如下:
λcoord:定位误差的权重,yolo设置该参数为5;λnoobj:不存在对象的bounding box的置信度的权重,yolo设置该参数为0.5;S:特征图的尺寸;B:每个网格预测的anchor的个数;
Figure BDA0002823257210000041
坐标(i,j)处有物体则为1,否则为0;
Figure BDA0002823257210000042
坐标(i,j)处没有物体则为1,否则为0;
xi:预测的x轴偏移量;yi:预测的y轴偏移量;
Figure BDA0002823257210000043
实际的x轴偏移量;
Figure BDA0002823257210000044
实际的y轴偏移量;
wi:预测的边框宽度;hi:预测的边框高度;
Figure BDA0002823257210000045
实际的边框宽度;
Figure BDA0002823257210000046
实际的边框高度;
ci:网格内有物体的得分;
Figure BDA0002823257210000047
网格内有物体则为1,否则为0;
pi(c):预测为c类的置信度;
Figure BDA0002823257210000048
实际为c类物体则为1,否则为0。
进一步的,根据本发明所述S4中的模型验证过程如下:将训练好的模型的权重文件写入模型中,将验证集中的每张图片通过模型输出相应的目标类别及定位信息,调出验证集的真实标注信息,计算每个违规类别的AP值,最后计算所有类别的AP值的平均值mAP作为最终评价标准。
进一步的,根据本发明所述S5中的模型测试及现场部署过程如下:S51:通过ip地址获取现场摄像头,实际检测现场识别能力,框出违规行为,显示FPS值、违规行为类别、违规行为置信度。
进一步的,所述步骤S6中的违规视频输出具体步骤如下:
S61:用模型检测每一帧视频图像,标记该图像中违规行为类别及置信度;
S62:为了方便进行违规行为判断,设置150帧图片的缓存队列,将每帧图像都存入缓存,如果缓存帧数达到150帧,则判断所缓存的图片中,有违规行为的帧所占的比例;若比例≥0.7,则视为该150帧画面中存在有违规行为,因此将这150帧图片全部写入视频文件中保存;若比例<0.7,则去掉队首的视频帧,将新插入的帧放入缓存队尾;在这种缓存设计下,检测器检测到的违规行为需要在150帧的70%的动作都是违规动作才将相应的视频帧保存进违规检测视频,这样可以防止由于检测器误检或者工作人员误碰触发违规检测;
S63:每天0点输出前一天的违规检测视频,并将视频信息录入到数据库中,以便于前端调用。
本发明的有益效果:
通过卷积神经网络与视频帧处理技术结合,发挥二者各自的优势,实现全天候、实时的变电站行为监控,检测变电站各种违规行为,如未带安全帽、玩手机等,将检测到的违规视频自动保存在硬盘上并将视频信息录入数据库,为事故分析、绩效评估提供依据。用人工智能的监控技术替代监控人员,不仅大大降低了工作量,还能保证全天候、实时值守,给变电站的安全提供保障。
附图说明
图1是本发明所述方法的流程图;
图2是本发明所述监测方法检测到的真实违规行为图像;
图3是yolov4的主要结构;
图4是Resblock_body结构;
图5是yolo损失函数的说明。
具体实施方式
下面结合实例和说明书附图对本发明做详细说明,但不限于此。
实施例
如图1所示,用于变电站行为监测的卷积神经网络模型的建模方法,包括以下步骤:
Sl:对实时视频流和视频帧截取,对收集到的变电站行为图像进行数据集标注,并且构建图像模型数据集;
S2:据集划分
将数据集划分为训练集和验证集;
S3:模型训练
基于目标检测算法框架yolov4进行改进优化,对训练集进行训练,得到训练模型;
S4:模型验证
在验证集上,对得到的训练模型进行初步评估;
S5:模型测试及现场部署
通过ip地址获取视频,对视频流里的每帧图片进行检测,用矩形框框出违规行为,并给出违规行为的类别和置信度;
S6:违规视频输出
将检测出有违规行为的帧写入视频文件,并将视频信息写入数据库。
(一)步骤S1中的数据集收集、制作过程如步骤S11-S12;
S11:实时视频流和视频帧截取,通过ip地址获取摄像头,每隔20秒截取一帧图像;
S12:数据集标注,对每张图像,用labelme软件,按PASCAL VOC格式进行标注,标注类别为违规行为的类别,如违规开锁、未带安全帽等;
(二)步骤S2中的数据集划分过程如步骤S21;
S21:对数据集中的所有图像,随机选取90%的图像作为训练集,10%的图像作为验证集。
(三)步骤S3中具体步骤如下:
S31:如图3所示,yolov4主干结构采用CSPDarknet53,该结构是在Darknet53的基础上修改而来的,由一个卷积层和多个Resblock_body子结构组成;Resblock_body子结构由两部分组成,如图4所示。一部分是一个巨大的残差边,另一部分则是由多个残差块堆叠而成,每个残差块又由一个小的残差边和由2个卷积层组成的边组成,形成一种嵌套的残差结构;
S32:除了主干网络,Yolov4还采用了SPP结构和PANet结构。SPP结构,如图5所示,即不同尺度的最大池化后堆叠,它能够极大地增加感受野,分离出最显著的上下文特征;PANet结构是2018的一种实例分割算法,其结构与特征金字塔结构类似,通过上采样(UpSampling)和下采样(DownSampling)将不同层的信息进行融合,从而使得各层同时获得高层语义信息(利于分类)和低层语义信息(利于定位,特别是小目标定位);
S33:激活函数:使用了Mish激活函数,Mish(x)=x·tanh(log(1+exp(x));
S34:yolov4使用了Yolo Head,利用提取到的特征进行预测。在特征利用部分,YoloV4提取多特征层进行目标检测,一共提取三个特征层,分别位于中间层、中下层、底层;形状分别为(N,19,19,3*(n_class+5)),(N,38,38,,3*(n_class+5)),(N,76,76,,3*(n_class+5))的数据(n_class是类别数),对应每个图分为19x19、38x38、76x76的网格上3个预测框的位置;但是这个预测结果并不对应着最终的预测框在图片上的位置,还需要解码才可以完成;最后一个维度中的(n_class+5)包含了4+1+n_class,分别代表x_offset(中心点x轴偏移)、y_offset(中心点y轴偏移)、h(宽)和w(高)、置信度、分类结果;yolov4的解码过程就是将每个网格点加上它对应的x_offset和y_offset,加完后的结果就是预测框的中心,然后再利用先验框和h、w结合计算出预测框的长和宽。这样就能得到整个预测框的位置了;
S35:准确定位的公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0002823257210000061
Figure BDA0002823257210000071
Pr(object)*IOU(b,object)=σ(t0)
上述公式中,(tx,ty)表示边界框的中心横纵坐标;(cx,cy)表示网格的左上角坐标;(tw,th)表示边界框的宽度、高度;σ是sigmord函数;
(bx,by,bw,bh)表示边界框相对于网格的中心横纵坐标、宽度、高度;(pw,ph)表示预设的anchor的宽度和高度;Pr(object)*IOU(b,object)表示边界框中的分类置信度信息;
S36:损失函数的计算:此处使用平方和误差来优化模型,包含定位误差和分类误差,如下所示:
Figure BDA0002823257210000072
各参数表示如下:
λcoord:定位误差的权重,yolo设置该参数为5;λnoobj:不存在对象的bounding box的置信度的权重,yolo设置该参数为0.5;S:特征图的尺寸;B:每个网格预测的anchor的个数;
Figure BDA0002823257210000073
坐标(i,j)处有物体则为1,否则为0;
Figure BDA0002823257210000074
坐标(i,j)处没有物体则为1,否则为0;
xi:预测的x轴偏移量;yi:预测的y轴偏移量;
Figure BDA0002823257210000075
实际的x轴偏移量;
Figure BDA0002823257210000076
实际的y轴偏移量;
wi:预测的边框宽度;hi:预测的边框高度;
Figure BDA0002823257210000081
实际的边框宽度;
Figure BDA0002823257210000082
实际的边框高度;
ci:网格内有物体的得分;
Figure BDA0002823257210000083
网格内有物体则为1,否则为0;
pi(c):预测为c类的置信度;
Figure BDA0002823257210000084
实际为c类物体则为1,否则为0;具体如图4所示。
(四)步骤S4中的模型验证过程如步骤S41;
S41:将训练好的模型的权重文件写入模型中,将验证集中的每张图片通过模型输出相应的目标类别及定位信息,调出验证集的真实标注信息,计算每个违规类别的AP值,最后计算所有类别的AP值的平均值mAP作为最终评价标准。
(五)步骤S5中的模型测试及现场部署过程如步骤S51;
S51:通过ip地址获取现场摄像头,实际检测现场识别能力,框出违规行为,显示FPS值、违规行为类别、违规行为置信度。
(六)步骤S6中的违规视频输出的具体步骤如S61-S63:
S61:用上述S3中模型检测每一帧视频图像,标记该图像中违规行为类别及置信度;
S62:为了方便进行违规行为判断,设置150帧(5秒左右)图片的缓存队列,将每帧图像都存入缓存,如果缓存帧数达到150帧,则判断所缓存的图片中,有违规行为的帧所占的比例。若比例大于等于0.7,则视为该150帧画面中存在有违规行为,因此将这150帧图片全部写入视频文件中保存;若比例小于0.7,则去掉队首的视频帧,将新插入的帧放入缓存队尾;在这种缓存设计下,检测器检测到的违规行为需要在5秒左右(150帧)的70%的动作都是违规动作才将相应的视频帧保存进违规检测视频,这样可以防止由于检测器误检或者工作人员误碰触发违规检测;该所述监测方法检测到的真实违规行为图像如图2所示。
S63:每天0点输出前一天的违规检测视频,并将视频信息录入到数据库中,以便于前端调用。
以上仅为本发明的具体实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:
包括以下步骤:
Sl:对实时视频流和视频帧截取,对收集到的变电站行为图像进行数据集标注,并且构建图像模型数据集;
S2:据集划分
将数据集划分为训练集和验证集;
S3:模型训练
基于目标检测算法框架yolov4进行改进优化,对训练集进行训练,得到训练模型;
S4:模型验证
在验证集上,对得到的训练模型进行初步评估;
S5:模型测试及现场部署
通过ip地址获取视频,对视频流里的每帧图片进行检测,用矩形框框出违规行为,并给出违规行为的类别和置信度;
S6:违规视频输出
将检测出有违规行为的帧写入视频文件,并将视频信息写入数据库。
2.根据权利要求1所述的用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:步骤S3中基于目标检测算法框架yolov4进行改进优化具体步骤如下:
S31:yolov4主干结构采用CSPDarknet53,该结构是在Darknet53的基础上修改而来的,由一个卷积层和多个Resblock_body子结构组成;Resblock_body子结构由两部分组成,一部分是一个巨大的残差边,另一部分则是由多个残差块堆叠而成,每个残差块又由一个小的残差边和由2个卷积层组成的边组成,形成一种嵌套的残差结构;
S32:除了主干网络,Yolov4还采用了SPP结构和PANet结构;
SPP结构,即不同尺度的最大池化后堆叠,它能够极大地增加感受野,分离出最显著的上下文特征;PANet结构通过上采样UpSampling和下采样DownSampling将不同层的信息进行融合,从而使得各层同时获得高层语义信息和低层语义信息;
S33:激活函数:使用了Mish激活函数,Mish(x)=x·tanh(log(1+exp(x));
S34:yolov4使用了Yolo Head,利用提取到的特征进行预测;
在特征利用部分,YoloV4提取多特征层进行目标检测,一共提取三个特征层,分别位于中间层、中下层、底层;形状分别为(N,19,19,3*(n_class+5)),(N,38,38,,3*(n_class+5)),(N,76,76,,3*(n_class+5))的数据(n_class是类别数),对应每个图分为19x19、38x38、76x76的网格上3个预测框的位置;但是这个预测结果并不对应着最终的预测框在图片上的位置,还需要解码才可以完成;最后一个维度中的(n_class+5)包含了4+1+n_class,分别代表x_offset(中心点x轴偏移)、y_offset(中心点y轴偏移)、h(宽)和w(高)、置信度、分类结果;yolov4的解码过程就是将每个网格点加上它对应的x_offset和y_offset,加完后的结果就是预测框的中心,然后再利用先验框和h、w结合计算出预测框的长和宽;这样就能得到整个预测框的位置了;
S35:准确定位的公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure FDA0002823257200000021
Figure FDA0002823257200000022
Pr(object)*IOU(b,object)=σ(t0)
上述公式中,(tx,ty)表示边界框的中心横纵坐标;(cx,cy)表示网格的左上角坐标;(tw,th)表示边界框的宽度、高度;σ是sigmord函数;
(bx,by,bw,bh)表示边界框相对于网格的中心横纵坐标、宽度、高度;(pw,ph)表示预设的anchor的宽度和高度;Pr(object)*IOU(b,object)表示边界框中的分类置信度信息;
S36:损失函数的计算:此处使用平方和误差来优化模型,包含定位误差和分类误差,如下所示:
Figure FDA0002823257200000023
各参数表示如下:
λcoord:定位误差的权重,yolo设置该参数为5;λnoobj:不存在对象的bounding box的置信度的权重,yolo设置该参数为0.5;S:特征图的尺寸;B:每个网格预测的anchor的个数;
Figure FDA0002823257200000031
坐标(i,j)处有物体则为1,否则为0;
Figure FDA0002823257200000032
坐标(i,j)处没有物体则为1,否则为0;
xi:预测的x轴偏移量;yi:预测的y轴偏移量;
Figure FDA0002823257200000033
实际的x轴偏移量;
Figure FDA0002823257200000034
实际的y轴偏移量;
wi:预测的边框宽度;hi:预测的边框高度;
Figure FDA0002823257200000035
实际的边框宽度;
Figure FDA0002823257200000036
实际的边框高度;
ci:网格内有物体的得分;
Figure FDA0002823257200000037
网格内有物体则为1,否则为0;
pi(c):预测为c类的置信度;
Figure FDA0002823257200000038
实际为c类物体则为1,否则为0。
3.根据权利要求1所述的用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:所述步骤S6中的违规视频输出具体步骤如下:
S61:用模型检测每一帧视频图像,标记该图像中违规行为类别及置信度;
S62:为了方便进行违规行为判断,设置150帧图片的缓存队列,将每帧图像都存入缓存,如果缓存帧数达到150帧,则判断所缓存的图片中,有违规行为的帧所占的比例;若比例≥0.7,则视为该150帧画面中存在有违规行为,因此将这150帧图片全部写入视频文件中保存;若比例<0.7,则去掉队首的视频帧,将新插入的帧放入缓存队尾;在这种缓存设计下,检测器检测到的违规行为需要在150帧的70%的动作都是违规动作才将相应的视频帧保存进违规检测视频,这样可以防止由于检测器误检或者工作人员误碰触发违规检测;
S63:每天0点输出前一天的违规检测视频,并将视频信息录入到数据库中,以便于前端调用。
4.根据权利要求1所述的用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:根据本发明所述S4中的模型验证过程如下:
将训练好的模型的权重文件写入模型中,将验证集中的每张图片通过模型输出相应的目标类别及定位信息,调出验证集的真实标注信息,计算每个违规类别的AP值,最后计算所有类别的AP值的平均值mAP作为最终评价标准;
进一步的,根据本发明所述S5中的模型测试及现场部署过程如下:S51:通过ip地址获取现场摄像头,实际检测现场识别能力,框出违规行为,显示FPS值、违规行为类别、违规行为置信度。
5.根据权利要求1所述的用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:步骤S1中的数据集收集并构建图像模型数据集步骤如下:
S11:实时视频流和视频帧截取:通过ip地址获取摄像头,每隔20秒截取一帧图像;
S12:数据集标注:对每张图像,用labelme软件,按PASCAL VOC格式进行标注,标注类别为违规行为的类别,如玩手机、未带安全帽等。
6.根据权利要求1所述的用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:步骤S2的数据集划分过程如下:对数据集中的所有图像,随机选取90%的图像作为训练集,10%的图像作为验证集。
CN202011422798.0A 2020-12-08 2020-12-08 用于变电站行为监测的卷积神经网络模型的建模方法 Active CN113076683B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011422798.0A CN113076683B (zh) 2020-12-08 2020-12-08 用于变电站行为监测的卷积神经网络模型的建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011422798.0A CN113076683B (zh) 2020-12-08 2020-12-08 用于变电站行为监测的卷积神经网络模型的建模方法

Publications (2)

Publication Number Publication Date
CN113076683A true CN113076683A (zh) 2021-07-06
CN113076683B CN113076683B (zh) 2023-08-08

Family

ID=76609224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011422798.0A Active CN113076683B (zh) 2020-12-08 2020-12-08 用于变电站行为监测的卷积神经网络模型的建模方法

Country Status (1)

Country Link
CN (1) CN113076683B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469117A (zh) * 2021-07-20 2021-10-01 国网信息通信产业集团有限公司 一种多路视频实时检测方法及系统
CN113570576A (zh) * 2021-07-28 2021-10-29 成都云芯医联科技有限公司 一种通过血小板计数方法评估肝硬化指数检测的方法
CN113609925A (zh) * 2021-07-19 2021-11-05 青岛新奥燃气有限公司 一种lng装卸作业安全管控系统及违规行为识别方法
CN113627406A (zh) * 2021-10-12 2021-11-09 南方电网数字电网研究院有限公司 异常行为检测方法、装置、计算机设备和存储介质
CN115082870A (zh) * 2022-07-18 2022-09-20 松立控股集团股份有限公司 一种停车场异常事件检测方法
CN115713715A (zh) * 2022-11-22 2023-02-24 天津安捷物联科技股份有限公司 一种基于深度学习的人体行为识别方法及识别系统
CN115995119A (zh) * 2023-03-23 2023-04-21 山东特联信息科技有限公司 基于物联网的气瓶充装环节违规行为识别方法及系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109147254A (zh) * 2018-07-18 2019-01-04 武汉大学 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法
CN110298265A (zh) * 2019-06-10 2019-10-01 东南大学 一种基于yolo神经网络的电梯中特定目标检测方法
CN110807429A (zh) * 2019-10-23 2020-02-18 西安科技大学 基于tiny-YOLOv3的施工安全检测方法及系统
CN111062282A (zh) * 2019-12-05 2020-04-24 武汉科技大学 基于改进yolov3模型的变电站指针式仪表识别方法
CN111401144A (zh) * 2020-02-26 2020-07-10 华南理工大学 一种基于视频监控的手扶电梯乘客行为识别方法
CN111507308A (zh) * 2020-05-07 2020-08-07 广东电网有限责任公司 一种基于视频识别技术的变电站安全监控系统及方法
CN111814742A (zh) * 2020-07-29 2020-10-23 南方电网数字电网研究院有限公司 基于深度学习的刀闸状态识别方法
CN111931623A (zh) * 2020-07-31 2020-11-13 南京工程学院 一种基于深度学习的人脸口罩佩戴检测方法
CN111967393A (zh) * 2020-08-18 2020-11-20 杭州师范大学 一种基于改进YOLOv4的安全帽佩戴检测方法
CN112001347A (zh) * 2020-08-31 2020-11-27 重庆科技学院 一种基于人体骨架形态与检测目标的动作识别方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109147254A (zh) * 2018-07-18 2019-01-04 武汉大学 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法
CN110298265A (zh) * 2019-06-10 2019-10-01 东南大学 一种基于yolo神经网络的电梯中特定目标检测方法
CN110807429A (zh) * 2019-10-23 2020-02-18 西安科技大学 基于tiny-YOLOv3的施工安全检测方法及系统
CN111062282A (zh) * 2019-12-05 2020-04-24 武汉科技大学 基于改进yolov3模型的变电站指针式仪表识别方法
CN111401144A (zh) * 2020-02-26 2020-07-10 华南理工大学 一种基于视频监控的手扶电梯乘客行为识别方法
CN111507308A (zh) * 2020-05-07 2020-08-07 广东电网有限责任公司 一种基于视频识别技术的变电站安全监控系统及方法
CN111814742A (zh) * 2020-07-29 2020-10-23 南方电网数字电网研究院有限公司 基于深度学习的刀闸状态识别方法
CN111931623A (zh) * 2020-07-31 2020-11-13 南京工程学院 一种基于深度学习的人脸口罩佩戴检测方法
CN111967393A (zh) * 2020-08-18 2020-11-20 杭州师范大学 一种基于改进YOLOv4的安全帽佩戴检测方法
CN112001347A (zh) * 2020-08-31 2020-11-27 重庆科技学院 一种基于人体骨架形态与检测目标的动作识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
管军霖;智鑫;: "基于YOLOv4卷积神经网络的口罩佩戴检测方法", 现代信息科技, no. 11 *
胡伏原;李林燕;尚欣茹;沈军宇;戴永良;: "基于卷积神经网络的目标检测算法综述", 苏州科技大学学报(自然科学版), no. 02 *
袁斌;张皓维;崔萌萌;: "基于深度学习的电力基建现场安全管控系统", 电网与清洁能源, vol. 36, no. 09, pages 30 - 35 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113609925A (zh) * 2021-07-19 2021-11-05 青岛新奥燃气有限公司 一种lng装卸作业安全管控系统及违规行为识别方法
CN113469117A (zh) * 2021-07-20 2021-10-01 国网信息通信产业集团有限公司 一种多路视频实时检测方法及系统
CN113570576A (zh) * 2021-07-28 2021-10-29 成都云芯医联科技有限公司 一种通过血小板计数方法评估肝硬化指数检测的方法
CN113570576B (zh) * 2021-07-28 2024-03-12 成都云芯医联科技有限公司 一种通过血小板计数方法评估肝硬化指数检测的方法
CN113627406A (zh) * 2021-10-12 2021-11-09 南方电网数字电网研究院有限公司 异常行为检测方法、装置、计算机设备和存储介质
CN113627406B (zh) * 2021-10-12 2022-03-08 南方电网数字电网研究院有限公司 异常行为检测方法、装置、计算机设备和存储介质
CN115082870A (zh) * 2022-07-18 2022-09-20 松立控股集团股份有限公司 一种停车场异常事件检测方法
CN115713715A (zh) * 2022-11-22 2023-02-24 天津安捷物联科技股份有限公司 一种基于深度学习的人体行为识别方法及识别系统
CN115713715B (zh) * 2022-11-22 2023-10-31 天津安捷物联科技股份有限公司 一种基于深度学习的人体行为识别方法及识别系统
CN115995119A (zh) * 2023-03-23 2023-04-21 山东特联信息科技有限公司 基于物联网的气瓶充装环节违规行为识别方法及系统

Also Published As

Publication number Publication date
CN113076683B (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
CN113076683A (zh) 用于变电站行为监测的卷积神经网络模型的建模方法
CN111967393B (zh) 一种基于改进YOLOv4的安全帽佩戴检测方法
CN110502965B (zh) 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法
CN111241959B (zh) 一种通过工地视频流检测未佩戴安全帽人员的方法
CN111191576B (zh) 人员行为目标检测模型构建方法、智能分析方法及系统
CN111726586A (zh) 一种生产体系操作规范监测提醒系统
CN110852347A (zh) 采用改进YOLO v3的火灾检测方法
CN110414400B (zh) 一种施工现场安全帽穿戴自动检测方法及系统
CN112966589A (zh) 一种在危险区域的行为识别方法
CN107545256A (zh) 一种结合时空和网络一致性的摄像机网络行人重识别方法
CN111062373A (zh) 一种基于深度学习的吊装过程危险识别方法及系统
CN112685812A (zh) 一种动态监管方法、装置、设备及存储介质
CN112836657A (zh) 一种基于轻量化YOLOv3的行人检测方法及系统
CN113011280A (zh) 人员接触距离的检测方法、装置、计算机设备和存储介质
CN115294519A (zh) 一种基于轻量化网络的异常事件检测及预警方法
CN113537019A (zh) 基于关键点识别变电站人员安全帽佩戴的检测方法
CN114255250A (zh) 基于深度学习的河防工程边坡坍塌检测方法
CN113920435A (zh) 一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法
CN117612249A (zh) 一种基于改进OpenPose算法的井下矿工危险行为识别方法和装置
CN108564492A (zh) 基于gis的危旧房动态监控管理平台以及建设该平台的方法
CN117351409A (zh) 混凝土坝面作业风险智能识别方法
CN116071696A (zh) 一种基于YOLOv7的楼宇楼梯拥挤检测方法及装置
Yang et al. Research on application of object detection based on yolov5 in construction site
CN114821806A (zh) 作业人员行为确定方法、装置、电子设备及存储介质
CN114241401A (zh) 异常判定方法、装置、设备、介质及产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant