CN113076683B - 用于变电站行为监测的卷积神经网络模型的建模方法 - Google Patents
用于变电站行为监测的卷积神经网络模型的建模方法 Download PDFInfo
- Publication number
- CN113076683B CN113076683B CN202011422798.0A CN202011422798A CN113076683B CN 113076683 B CN113076683 B CN 113076683B CN 202011422798 A CN202011422798 A CN 202011422798A CN 113076683 B CN113076683 B CN 113076683B
- Authority
- CN
- China
- Prior art keywords
- video
- frame
- model
- illegal
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/02—Reliability analysis or reliability optimisation; Failure analysis, e.g. worst case scenario performance, failure mode and effects analysis [FMEA]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
一种用于变电站行为监测的卷积神经网络模型的建模方法,对实时视频流和视频帧截取,对收集到的变电站行为图像进行数据集标注,并且构建图像模型数据集;将数据集划分为训练集和验证集;基于目标检测算法框架yolov4进行改进优化,对训练集进行训练;在验证集上,对得到的训练模型进行初步评估;通过ip地址获取视频,对视频流里的每帧图片进行检测,框出违规行为,并给出违规行为的类别和置信度;将检测出有违规行为的帧写入视频文件,并将视频信息写入数据库。优点是:可以全天候、实时的变电站行为监控,检测变电站各种违规行为,将检测到的违规视频自动保存在硬盘上并将视频信息录入数据库,为事故分析、绩效评估提供依据。
Description
技术领域
本发明涉及用于变电站行为监测的卷积神经网络模型的建模方法,属于变电站安全人工智能监控识别的领域。
背景技术
据不完全统计,目前全国有超过2万所变电站,而且该数量还在不断增长。变电站是电力系统的枢纽,属于高危险的工业领域,任何违反相关规定的行为都有可能给人的生命、财产安全带来极大的安全隐患。变电站基建安全行为监控工作通过人工“死盯”来进行监控,然而由于人的生理特性,总会出现疲倦、懈怠等情况,无法实时监控所有违规行为。在2019年国家电网的工作会议上,国家电网已经明确提出要在2019年起大幅提升变电站的智能化水平并开展无人值守变电站的试点建设。如果能用人工智能的监控技术替代监控人员,不仅大大降低了工作量,还能保证全天候、实时值守,给变电站的安全上了一份保险。
随着深度卷积神经网络的发展,目标检测技术逐渐趋于成熟,这为变电站无人值守的行为监控带来了可能。但直接将目标检测技术应用于变电站行为监控并不能满足违规行为监控的要求,如未将违规视频帧实时截取,无法根据违规时长的长短判断是违规行为还是失误触发违规检测。
发明内容
针对现有技术的不足,本发明提供一种用于变电站行为监测的卷积神经网络模型的建模方法。
本发明的技术方案是:
一种用于变电站行为监测的卷积神经网络模型的建模方法,包括以下步骤:
Sl:对实时视频流和视频帧截取,对收集到的变电站行为图像进行数据集标注,并且构建图像模型数据集;
S2:据集划分
将数据集划分为训练集和验证集;
S3:模型训练
基于目标检测算法框架yolov4进行改进优化,对训练集进行训练,得到训练模型;
S4:模型验证
在验证集上,对得到的训练模型进行初步评估;
S5:模型测试及现场部署
通过ip地址获取视频,对视频流里的每帧图片进行检测,用矩形框框出违规行为,并给出违规行为的类别和置信度;
S6:违规视频输出
将检测出有违规行为的帧写入视频文件,并将视频信息写入数据库。
进一步的,步骤S1中的数据集收集并构建图像模型数据集步骤如下:
S11:实时视频流和视频帧截取
通过ip地址获取摄像头,每隔20秒截取一帧图像;
S12:数据集标注
对每张图像,用labelme软件,按PASCAL VOC格式进行标注,标注类别为违规行为的类别,如玩手机、未带安全帽等。
进一步的,步骤S2的数据集划分过程如下:对数据集中的所有图像,随机选取90%的图像作为训练集,10%的图像作为验证集。
进一步,步骤S3中基于目标检测算法框架yolov4进行改进优化具体步骤如下:
S31:yolov4主干结构采用CSPDarknet53,该结构是在Darknet53的基础上修改而来的,由一个卷积层和多个Resblock_body子结构组成;Resblock_body子结构由两部分组成,一部分是一个巨大的残差边,另一部分则是由多个残差块堆叠而成,每个残差块又由一个小的残差边和由2个卷积层组成的边组成,形成一种嵌套的残差结构;
S32:除了主干网络,Yolov4还采用了SPP结构和PANet结构;
SPP结构,即不同尺度的最大池化后堆叠,它能够极大地增加感受野,分离出最显著的上下文特征;
PANet结构通过上采样UpSampling和下采样DownSampling将不同层的信息进行融合,从而使得各层同时获得高层语义信息(利于分类)和低层语义信息(利于定位,特别是小目标定位);
S33:激活函数:使用了Mish激活函数,Mish(x)=x·tanh(log(1+exp(x));
S34:yolov4使用了Yolo Head,利用提取到的特征进行预测;
在特征利用部分,YoloV4提取多特征层进行目标检测,一共提取三个特征层,分别位于中间层、中下层、底层;形状分别为(N,19,19,3*(n_class+5)),(N,38,38,,3*(n_class+5)),(N,76,76,,3*(n_class+5))的数据(n_class是类别数),对应每个图分为19x19、38x38、76x76的网格上3个预测框的位置;但是这个预测结果并不对应着最终的预测框在图片上的位置,还需要解码才可以完成;最后一个维度中的(n_class+5)包含了4+1+n_class,分别代表x_offset(中心点x轴偏移)、y_offset(中心点y轴偏移)、h(宽)和w(高)、置信度、分类结果;yolov4的解码过程就是将每个网格点加上它对应的x_offset和y_offset,加完后的结果就是预测框的中心,然后再利用先验框和h、w结合计算出预测框的长和宽。这样就能得到整个预测框的位置了;
S35:准确定位的公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Pr(object)*IOU(b,object)=σ(t0)
上述公式中,(tx,ty)表示边界框的中心横纵坐标;(cx,cy)表示网格的左上角坐标;(tw,th)表示边界框的宽度、高度;σ是sigmord函数;
(bx,by,bw,bh)表示边界框相对于网格的中心横纵坐标、宽度、高度;(pw,ph)表示预设的anchor的宽度和高度;Pr(object)*IOU(b,object)表示边界框中的分类置信度信息;
S36:损失函数的计算:此处使用平方和误差来优化模型,包含定位误差和分类误差,如下所示:
各参数表示如下:
λcoord:定位误差的权重,yolo设置该参数为5;λnoobj:不存在对象的bounding box的置信度的权重,yolo设置该参数为0.5;S:特征图的尺寸;B:每个网格预测的anchor的个数;坐标(i,j)处有物体则为1,否则为0;/>坐标(i,j)处没有物体则为1,否则为0;
xi:预测的x轴偏移量;yi:预测的y轴偏移量;
实际的x轴偏移量;/>实际的y轴偏移量;
wi:预测的边框宽度;hi:预测的边框高度;
实际的边框宽度;/>实际的边框高度;
ci:网格内有物体的得分;网格内有物体则为1,否则为0;
pi(c):预测为c类的置信度;实际为c类物体则为1,否则为0。
进一步的,根据本发明所述S4中的模型验证过程如下:将训练好的模型的权重文件写入模型中,将验证集中的每张图片通过模型输出相应的目标类别及定位信息,调出验证集的真实标注信息,计算每个违规类别的AP值,最后计算所有类别的AP值的平均值mAP作为最终评价标准。
进一步的,根据本发明所述S5中的模型测试及现场部署过程如下:S51:通过ip地址获取现场摄像头,实际检测现场识别能力,框出违规行为,显示FPS值、违规行为类别、违规行为置信度。
进一步的,所述步骤S6中的违规视频输出具体步骤如下:
S61:用模型检测每一帧视频图像,标记该图像中违规行为类别及置信度;
S62:为了方便进行违规行为判断,设置150帧图片的缓存队列,将每帧图像都存入缓存,如果缓存帧数达到150帧,则判断所缓存的图片中,有违规行为的帧所占的比例;若比例≥0.7,则视为该150帧画面中存在有违规行为,因此将这150帧图片全部写入视频文件中保存;若比例<0.7,则去掉队首的视频帧,将新插入的帧放入缓存队尾;在这种缓存设计下,检测器检测到的违规行为需要在150帧的70%的动作都是违规动作才将相应的视频帧保存进违规检测视频,这样可以防止由于检测器误检或者工作人员误碰触发违规检测;
S63:每天0点输出前一天的违规检测视频,并将视频信息录入到数据库中,以便于前端调用。
本发明的有益效果:
通过卷积神经网络与视频帧处理技术结合,发挥二者各自的优势,实现全天候、实时的变电站行为监控,检测变电站各种违规行为,如未带安全帽、玩手机等,将检测到的违规视频自动保存在硬盘上并将视频信息录入数据库,为事故分析、绩效评估提供依据。用人工智能的监控技术替代监控人员,不仅大大降低了工作量,还能保证全天候、实时值守,给变电站的安全提供保障。
附图说明
图1是本发明所述方法的流程图;
图2是本发明所述监测方法检测到的真实违规行为图像;
图3是yolov4的主要结构;
图4是Resblock_body结构;
图5是yolo损失函数的说明。
具体实施方式
下面结合实例和说明书附图对本发明做详细说明,但不限于此。
实施例
如图1所示,用于变电站行为监测的卷积神经网络模型的建模方法,包括以下步骤:
Sl:对实时视频流和视频帧截取,对收集到的变电站行为图像进行数据集标注,并且构建图像模型数据集;
S2:据集划分
将数据集划分为训练集和验证集;
S3:模型训练
基于目标检测算法框架yolov4进行改进优化,对训练集进行训练,得到训练模型;
S4:模型验证
在验证集上,对得到的训练模型进行初步评估;
S5:模型测试及现场部署
通过ip地址获取视频,对视频流里的每帧图片进行检测,用矩形框框出违规行为,并给出违规行为的类别和置信度;
S6:违规视频输出
将检测出有违规行为的帧写入视频文件,并将视频信息写入数据库。
(一)步骤S1中的数据集收集、制作过程如步骤S11-S12;
S11:实时视频流和视频帧截取,通过ip地址获取摄像头,每隔20秒截取一帧图像;
S12:数据集标注,对每张图像,用labelme软件,按PASCAL VOC格式进行标注,标注类别为违规行为的类别,如违规开锁、未带安全帽等;
(二)步骤S2中的数据集划分过程如步骤S21;
S21:对数据集中的所有图像,随机选取90%的图像作为训练集,10%的图像作为验证集。
(三)步骤S3中具体步骤如下:
S31:如图3所示,yolov4主干结构采用CSPDarknet53,该结构是在Darknet53的基础上修改而来的,由一个卷积层和多个Resblock_body子结构组成;Resblock_body子结构由两部分组成,如图4所示。一部分是一个巨大的残差边,另一部分则是由多个残差块堆叠而成,每个残差块又由一个小的残差边和由2个卷积层组成的边组成,形成一种嵌套的残差结构;
S32:除了主干网络,Yolov4还采用了SPP结构和PANet结构。SPP结构,如图5所示,即不同尺度的最大池化后堆叠,它能够极大地增加感受野,分离出最显著的上下文特征;PANet结构是2018的一种实例分割算法,其结构与特征金字塔结构类似,通过上采样(UpSampling)和下采样(DownSampling)将不同层的信息进行融合,从而使得各层同时获得高层语义信息(利于分类)和低层语义信息(利于定位,特别是小目标定位);
S33:激活函数:使用了Mish激活函数,Mish(x)=x·tanh(log(1+exp(x));
S34:yolov4使用了Yolo Head,利用提取到的特征进行预测。在特征利用部分,YoloV4提取多特征层进行目标检测,一共提取三个特征层,分别位于中间层、中下层、底层;形状分别为(N,19,19,3*(n_class+5)),(N,38,38,,3*(n_class+5)),(N,76,76,,3*(n_class+5))的数据(n_class是类别数),对应每个图分为19x19、38x38、76x76的网格上3个预测框的位置;但是这个预测结果并不对应着最终的预测框在图片上的位置,还需要解码才可以完成;最后一个维度中的(n_class+5)包含了4+1+n_class,分别代表x_offset(中心点x轴偏移)、y_offset(中心点y轴偏移)、h(宽)和w(高)、置信度、分类结果;yolov4的解码过程就是将每个网格点加上它对应的x_offset和y_offset,加完后的结果就是预测框的中心,然后再利用先验框和h、w结合计算出预测框的长和宽。这样就能得到整个预测框的位置了;
S35:准确定位的公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Pr(object)*IOU(b,object)=σ(t0)
上述公式中,(tx,ty)表示边界框的中心横纵坐标;(cx,cy)表示网格的左上角坐标;(tw,th)表示边界框的宽度、高度;σ是sigmord函数;
(bx,by,bw,bh)表示边界框相对于网格的中心横纵坐标、宽度、高度;(pw,ph)表示预设的anchor的宽度和高度;Pr(object)*IOU(b,object)表示边界框中的分类置信度信息;
S36:损失函数的计算:此处使用平方和误差来优化模型,包含定位误差和分类误差,如下所示:
各参数表示如下:
λcoord:定位误差的权重,yolo设置该参数为5;λnoobj:不存在对象的bounding box的置信度的权重,yolo设置该参数为0.5;S:特征图的尺寸;B:每个网格预测的anchor的个数;坐标(i,j)处有物体则为1,否则为0;/>坐标(i,j)处没有物体则为1,否则为0;
xi:预测的x轴偏移量;yi:预测的y轴偏移量;
实际的x轴偏移量;/>实际的y轴偏移量;
wi:预测的边框宽度;hi:预测的边框高度;
实际的边框宽度;/>实际的边框高度;
ci:网格内有物体的得分;网格内有物体则为1,否则为0;
pi(c):预测为c类的置信度;实际为c类物体则为1,否则为0;具体如图4所示。
(四)步骤S4中的模型验证过程如步骤S41;
S41:将训练好的模型的权重文件写入模型中,将验证集中的每张图片通过模型输出相应的目标类别及定位信息,调出验证集的真实标注信息,计算每个违规类别的AP值,最后计算所有类别的AP值的平均值mAP作为最终评价标准。
(五)步骤S5中的模型测试及现场部署过程如步骤S51;
S51:通过ip地址获取现场摄像头,实际检测现场识别能力,框出违规行为,显示FPS值、违规行为类别、违规行为置信度。
(六)步骤S6中的违规视频输出的具体步骤如S61-S63:
S61:用上述S3中模型检测每一帧视频图像,标记该图像中违规行为类别及置信度;
S62:为了方便进行违规行为判断,设置150帧(5秒左右)图片的缓存队列,将每帧图像都存入缓存,如果缓存帧数达到150帧,则判断所缓存的图片中,有违规行为的帧所占的比例。若比例大于等于0.7,则视为该150帧画面中存在有违规行为,因此将这150帧图片全部写入视频文件中保存;若比例小于0.7,则去掉队首的视频帧,将新插入的帧放入缓存队尾;在这种缓存设计下,检测器检测到的违规行为需要在5秒左右(150帧)的70%的动作都是违规动作才将相应的视频帧保存进违规检测视频,这样可以防止由于检测器误检或者工作人员误碰触发违规检测;该所述监测方法检测到的真实违规行为图像如图2所示。
S63:每天0点输出前一天的违规检测视频,并将视频信息录入到数据库中,以便于前端调用。
以上仅为本发明的具体实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:
包括以下步骤:
Sl:对实时视频流和视频帧截取,对收集到的变电站行为图像进行数据集标注,并且构建图像模型数据集;
S2:据集划分
将数据集划分为训练集和验证集;
S3:模型训练
基于目标检测算法框架yolov4进行改进优化,对训练集进行训练,得到训练模型;基于目标检测算法框架yolov4进行改进优化具体步骤如下:
S31:yolov4主干结构采用CSPDarknet53,该结构是在Darknet53的基础上修改而来的,由一个卷积层和多个Resblock_body子结构组成;Resblock_body子结构由两部分组成,一部分是一个巨大的残差边,另一部分则是由多个残差块堆叠而成,每个残差块又由一个小的残差边和由2个卷积层组成的边组成,形成一种嵌套的残差结构;
S32:除了主干网络,Yolov4还采用了SPP结构和PANet结构;
SPP结构,即不同尺度的最大池化后堆叠,它能够极大地增加感受野,分离出最显著的上下文特征;PANet结构通过上采样UpSampling和下采样DownSampling将不同层的信息进行融合,从而使得各层同时获得高层语义信息和低层语义信息;
S33:激活函数:使用了Mish激活函数,Mish(x)=x·tanh(log(1+exp(x));
S34:yolov4使用了Yolo Head,利用提取到的特征进行预测;
在特征利用部分,YoloV4提取多特征层进行目标检测,一共提取三个特征层,分别位于中间层、中下层、底层;形状分别为(N,19,19,3*(n_class+5)),(N,38,38,3*(n_class+5)),(N,76,76,3*(n_class+5))的数据(n_class是类别数),对应每个图分为19x19、38x38、76x76的网格上3个预测框的位置;但是这个预测结果并不对应着最终的预测框在图片上的位置,还需要解码才可以完成;最后一个维度中的(n_class+5)包含了4+1+n_class,分别代表x_offset(中心点x轴偏移)、y_offset(中心点y轴偏移)、h(宽)和w(高)、置信度、分类结果;yolov4的解码过程就是将每个网格点加上它对应的x_offset和y_offset,加完后的结果就是预测框的中心,然后再利用先验框和h、w结合计算出预测框的长和宽;这样就能得到整个预测框的位置了;
S35:准确定位的公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Pr(object)*IOU(b,object)=σ(t0)
上述公式中,(tx,ty)表示边界框的中心横纵坐标;(cx,cy)表示网格的左上角坐标;(tw,th)表示边界框的宽度、高度;σ是sigmord函数;
(bx,by,bw,bh)表示边界框相对于网格的中心横纵坐标、宽度、高度;(pw,ph)表示预设的anchor的宽度和高度;Pr(object)*IOU(b,object)表示边界框中的分类置信度信息;
S36:损失函数的计算:此处使用平方和误差来优化模型,包含定位误差和分类误差,如下所示:
各参数表示如下:
λcoord:定位误差的权重,yolo设置该参数为5;λnoobj:不存在对象的bounding box的置信度的权重,yolo设置该参数为0.5;S:特征图的尺寸;B:每个网格预测的anchor的个数;坐标(i,j)处有物体则为1,否则为0;/>坐标(i,j)处没有物体则为1,否则为0;
xi:预测的x轴偏移量;yi:预测的y轴偏移量;
实际的x轴偏移量;/>实际的y轴偏移量;
wi:预测的边框宽度;hi:预测的边框高度;
实际的边框宽度;/>实际的边框高度;
ci:网格内有物体的得分;网格内有物体则为1,否则为0;
pi(c):预测为c类的置信度;实际为c类物体则为1,否则为0;
S4:模型验证
在验证集上,对得到的训练模型进行初步评估;
S5:模型测试及现场部署
通过ip地址获取视频,对视频流里的每帧图片进行检测,用矩形框框出违规行为,并给出违规行为的类别和置信度;
S6:违规视频输出
将检测出有违规行为的帧写入视频文件,并将视频信息写入数据库。
2.根据权利要求1所述的用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:所述步骤S6中的违规视频输出具体步骤如下:
S61:用模型检测每一帧视频图像,标记该图像中违规行为类别及置信度;
S62:为了方便进行违规行为判断,设置150帧图片的缓存队列,将每帧图像都存入缓存,如果缓存帧数达到150帧,则判断所缓存的图片中,有违规行为的帧所占的比例;若比例≥0.7,则视为该150帧画面中存在有违规行为,因此将这150帧图片全部写入视频文件中保存;若比例<0.7,则去掉队首的视频帧,将新插入的帧放入缓存队尾;在这种缓存设计下,检测器检测到的违规行为需要在150帧的70%的动作都是违规动作才将相应的视频帧保存进违规检测视频,这样可以防止由于检测器误检或者工作人员误碰触发违规检测;
S63:每天0点输出前一天的违规检测视频,并将视频信息录入到数据库中,以便于前端调用。
3.根据权利要求1所述的用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:根据本发明所述S4中的模型验证过程如下:
将训练好的模型的权重文件写入模型中,将验证集中的每张图片通过模型输出相应的目标类别及定位信息,调出验证集的真实标注信息,计算每个违规类别的AP值,最后计算所有类别的AP值的平均值mAP作为最终评价标准;
进一步的,根据本发明所述S5中的模型测试及现场部署过程如下:S51:通过ip地址获取现场摄像头,实际检测现场识别能力,框出违规行为,显示FPS值、违规行为类别、违规行为置信度。
4.根据权利要求1所述的用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:步骤S1中的数据集收集并构建图像模型数据集步骤如下:
S11:实时视频流和视频帧截取:通过ip地址获取摄像头,每隔20秒截取一帧图像;
S12:数据集标注:对每张图像,用labelme软件,按PASCAL VOC格式进行标注,标注类别为违规行为的类别,如玩手机、未带安全帽等。
5.根据权利要求1所述的用于变电站行为监测的卷积神经网络模型的建模方法,其特征是:步骤S2的数据集划分过程如下:对数据集中的所有图像,随机选取90%的图像作为训练集,10%的图像作为验证集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011422798.0A CN113076683B (zh) | 2020-12-08 | 2020-12-08 | 用于变电站行为监测的卷积神经网络模型的建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011422798.0A CN113076683B (zh) | 2020-12-08 | 2020-12-08 | 用于变电站行为监测的卷积神经网络模型的建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113076683A CN113076683A (zh) | 2021-07-06 |
CN113076683B true CN113076683B (zh) | 2023-08-08 |
Family
ID=76609224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011422798.0A Active CN113076683B (zh) | 2020-12-08 | 2020-12-08 | 用于变电站行为监测的卷积神经网络模型的建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113076683B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609925A (zh) * | 2021-07-19 | 2021-11-05 | 青岛新奥燃气有限公司 | 一种lng装卸作业安全管控系统及违规行为识别方法 |
CN113469117A (zh) * | 2021-07-20 | 2021-10-01 | 国网信息通信产业集团有限公司 | 一种多路视频实时检测方法及系统 |
CN113570576B (zh) * | 2021-07-28 | 2024-03-12 | 成都云芯医联科技有限公司 | 一种通过血小板计数方法评估肝硬化指数检测的方法 |
CN113627406B (zh) * | 2021-10-12 | 2022-03-08 | 南方电网数字电网研究院有限公司 | 异常行为检测方法、装置、计算机设备和存储介质 |
CN115082870A (zh) * | 2022-07-18 | 2022-09-20 | 松立控股集团股份有限公司 | 一种停车场异常事件检测方法 |
CN115393670B (zh) * | 2022-08-19 | 2024-07-19 | 珠海市圈宝网络科技有限公司 | 训练肺部内窥镜图像识别模型的方法及识别方法 |
CN115713715B (zh) * | 2022-11-22 | 2023-10-31 | 天津安捷物联科技股份有限公司 | 一种基于深度学习的人体行为识别方法及识别系统 |
CN115995119B (zh) * | 2023-03-23 | 2023-07-28 | 山东特联信息科技有限公司 | 基于物联网的气瓶充装环节违规行为识别方法及系统 |
CN118506285A (zh) * | 2024-07-15 | 2024-08-16 | 浪潮通用软件有限公司 | 一种智能适配环境的违规监测方法、设备及介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109147254A (zh) * | 2018-07-18 | 2019-01-04 | 武汉大学 | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 |
CN110298265A (zh) * | 2019-06-10 | 2019-10-01 | 东南大学 | 一种基于yolo神经网络的电梯中特定目标检测方法 |
CN110807429A (zh) * | 2019-10-23 | 2020-02-18 | 西安科技大学 | 基于tiny-YOLOv3的施工安全检测方法及系统 |
CN111062282A (zh) * | 2019-12-05 | 2020-04-24 | 武汉科技大学 | 基于改进yolov3模型的变电站指针式仪表识别方法 |
CN111401144A (zh) * | 2020-02-26 | 2020-07-10 | 华南理工大学 | 一种基于视频监控的手扶电梯乘客行为识别方法 |
CN111507308A (zh) * | 2020-05-07 | 2020-08-07 | 广东电网有限责任公司 | 一种基于视频识别技术的变电站安全监控系统及方法 |
CN111814742A (zh) * | 2020-07-29 | 2020-10-23 | 南方电网数字电网研究院有限公司 | 基于深度学习的刀闸状态识别方法 |
CN111931623A (zh) * | 2020-07-31 | 2020-11-13 | 南京工程学院 | 一种基于深度学习的人脸口罩佩戴检测方法 |
CN111967393A (zh) * | 2020-08-18 | 2020-11-20 | 杭州师范大学 | 一种基于改进YOLOv4的安全帽佩戴检测方法 |
CN112001347A (zh) * | 2020-08-31 | 2020-11-27 | 重庆科技学院 | 一种基于人体骨架形态与检测目标的动作识别方法 |
-
2020
- 2020-12-08 CN CN202011422798.0A patent/CN113076683B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109147254A (zh) * | 2018-07-18 | 2019-01-04 | 武汉大学 | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 |
CN110298265A (zh) * | 2019-06-10 | 2019-10-01 | 东南大学 | 一种基于yolo神经网络的电梯中特定目标检测方法 |
CN110807429A (zh) * | 2019-10-23 | 2020-02-18 | 西安科技大学 | 基于tiny-YOLOv3的施工安全检测方法及系统 |
CN111062282A (zh) * | 2019-12-05 | 2020-04-24 | 武汉科技大学 | 基于改进yolov3模型的变电站指针式仪表识别方法 |
CN111401144A (zh) * | 2020-02-26 | 2020-07-10 | 华南理工大学 | 一种基于视频监控的手扶电梯乘客行为识别方法 |
CN111507308A (zh) * | 2020-05-07 | 2020-08-07 | 广东电网有限责任公司 | 一种基于视频识别技术的变电站安全监控系统及方法 |
CN111814742A (zh) * | 2020-07-29 | 2020-10-23 | 南方电网数字电网研究院有限公司 | 基于深度学习的刀闸状态识别方法 |
CN111931623A (zh) * | 2020-07-31 | 2020-11-13 | 南京工程学院 | 一种基于深度学习的人脸口罩佩戴检测方法 |
CN111967393A (zh) * | 2020-08-18 | 2020-11-20 | 杭州师范大学 | 一种基于改进YOLOv4的安全帽佩戴检测方法 |
CN112001347A (zh) * | 2020-08-31 | 2020-11-27 | 重庆科技学院 | 一种基于人体骨架形态与检测目标的动作识别方法 |
Non-Patent Citations (1)
Title |
---|
基于深度学习的电力基建现场安全管控系统;袁斌;电网与清洁能源;第36 卷(第9 期);第30-35页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113076683A (zh) | 2021-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113076683B (zh) | 用于变电站行为监测的卷积神经网络模型的建模方法 | |
CN111967393B (zh) | 一种基于改进YOLOv4的安全帽佩戴检测方法 | |
CN111241959B (zh) | 一种通过工地视频流检测未佩戴安全帽人员的方法 | |
CN110852347A (zh) | 采用改进YOLO v3的火灾检测方法 | |
CN111191576A (zh) | 人员行为目标检测模型构建方法、智能分析方法及系统 | |
CN111241343A (zh) | 一种道路信息监控与分析检测方法、智慧交通控制系统 | |
CN112836657B (zh) | 一种基于轻量化YOLOv3的行人检测方法及系统 | |
CN112070135A (zh) | 电力设备图像检测方法、装置、电力设备及存储介质 | |
CN102625083B (zh) | 一种视频监控网络的建设方法 | |
CN111723656B (zh) | 一种基于YOLO v3与自优化的烟雾检测方法及装置 | |
CN112819068A (zh) | 一种基于深度学习的船舶作业违章行为实时侦测方法 | |
CN115294519A (zh) | 一种基于轻量化网络的异常事件检测及预警方法 | |
CN110853025A (zh) | 基于多列残差空洞卷积神经网络的人群密度预测方法 | |
CN108256447A (zh) | 一种基于深度神经网络的无人机航拍视频分析方法 | |
CN109002753B (zh) | 一种基于卷积神经网络级联的大场景监控图像人脸检测方法 | |
CN108898098A (zh) | 基于监控平台的早期视频烟雾检测方法 | |
CN106096553A (zh) | 一种基于多特征的行人流量统计方法 | |
CN108471497A (zh) | 一种基于云台摄像机的船目标实时检测方法 | |
CN109002746A (zh) | 3d立体火灾识别方法和系统 | |
CN113920435A (zh) | 一种基于密集网络和注意力机制的铁路沿线遥感地物目标检测方法 | |
CN111405249A (zh) | 监控方法、装置及服务器和计算机可读存储介质 | |
CN113657348A (zh) | 一种变电站作业违章行为智能分析方法及系统 | |
CN114255250A (zh) | 基于深度学习的河防工程边坡坍塌检测方法 | |
CN117612249A (zh) | 一种基于改进OpenPose算法的井下矿工危险行为识别方法和装置 | |
CN110276379B (zh) | 一种基于视频图像分析的灾情信息快速提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |