CN115294520A - 一种基于卷积神经网络的烟火检测方法 - Google Patents

一种基于卷积神经网络的烟火检测方法 Download PDF

Info

Publication number
CN115294520A
CN115294520A CN202210897534.3A CN202210897534A CN115294520A CN 115294520 A CN115294520 A CN 115294520A CN 202210897534 A CN202210897534 A CN 202210897534A CN 115294520 A CN115294520 A CN 115294520A
Authority
CN
China
Prior art keywords
frame
smoke
image
weight
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210897534.3A
Other languages
English (en)
Inventor
王璇
宋永超
吕骏
徐金东
阎维青
王莹洁
赵金东
王金政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yantai University
Original Assignee
Yantai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yantai University filed Critical Yantai University
Priority to CN202210897534.3A priority Critical patent/CN115294520A/zh
Publication of CN115294520A publication Critical patent/CN115294520A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明公开了一种基于卷积神经网络的烟火检测方法,目的在于搭建一个轻量级,速度快,成本低的烟火检测平台,实现对烟火的高效检测,实现了一种更加轻量级的网络,可以部署于移动设备上,能够缓解人工监控的压力,降低监控成本。本发明基于人工智能视频分析和深度学习技术,能够不依赖其他传感设备,实现对视频监控区域内的烟雾与火焰的检测与识别,并及时进行预警。本发明涉及智慧城市智能安防技术领域。

Description

一种基于卷积神经网络的烟火检测方法
技术领域
本发明涉及智慧城市智能安防技术领域,具体是指一种基于卷积神经网络的烟火检测方法。
背景技术
随着社会经济的高速发展,工业、企业园区,住宅日益增多,存在一些消防安全隐患,导致火灾事故屡屡发生。针对住宅、工业园区、森林、加油站等室内外场景,通过深度学习相关的目标检测算法,对监控视频中疑似发生烟雾、火焰的场景进行自动检测,及时发出预警,实现机器智能值守,具有重大的应用价值与社会意义。烟雾与火焰在发生初期如果不能被及时发现并通知管理人员采取措施,较大的烟雾会污染输电线路,火势较大时甚至会烧毁输变电设施,造成大规模停电,如果发生在森林将会引起大规模森林火灾,损害人们的生命及财产安全。由于烟火存在发生时间、地点不固定的特点,低效率的人工监控方式和高成本的服务器端图像识别已无法满足现阶段的需求。而使用硬件对特定区域进行检查,又存在成本设计高,检测区域小,反应时间较慢等问题。因此,如何解决对烟雾和火焰进行特定目标检测并及时作出响应,并且降低成本,提高检测精度减少误报率是当前迫切需要解决的问题之一。
发明内容
针对上述情况,为克服现有技术的缺陷,本发明提供了一种基于卷积神经网络的烟火检测方法,目的在于搭建一个轻量级,速度快,成本低的烟火检测平台,实现对烟火的高效检测,实现了一种更加轻量级的网络,可以部署于移动设备上,能够缓解人工监控的压力,降低监控成本。本发明基于人工智能视频分析和深度学习技术,能够不依赖其他传感设备,实现对视频监控区域内的烟雾与火焰的检测与识别,并及时进行预警。
本发明采取的技术方案如下:一种基于卷积神经网络的烟火检测方法,包括如下步骤:
步骤1,利用网络爬虫和开源数据集对不同场景下的烟雾和火灾场景图像进行保存,并且采用人工标注的方式对图像中烟雾和火灾场景进行分块标注,保存格式为VOC格式,将标注的图片划分为训练集和验证集;
步骤2,将步骤一获得的VOC格式标签和图像通过脚本转化给YOLO格式标签的txt文件,并作为初始训练集和验证集;对项目中的初始的数据集进行Mosaic数据增强,自适应锚框计算,其中Mosaic是将图像进行随机缩放,裁剪,排布的方式进行拼接,增加了对小目标火焰和烟雾的检测效果;
步骤3,通过比例缩放的方式,将每张图像设置为相同的输入尺寸640×640作为初始输入数据;
步骤4,将进行数据增强后的数据集送入改进的YOLOv5s模型对图像中烟雾与火焰的特征提取进行迭代训练;
步骤5,网络在初始锚框的基础上输出预测框,进而和真实框groundtruth进行比对,计算两者差距,再反向更新,迭代网络参数,最后将步骤4中训练模型的最好权重文件结果进行保存。
作为本方案的进一步优化,所述步骤2包括如下子步骤:
步骤2.1:将获取的VOC格式xml文件通过脚本转化为YOLO格式对应的txt文件,其中脚本完成步骤就是将VOC格式标签中图像的实际宽高,标注框的左上角和右下角坐标,进行归一化处理转化为YOLO格式标签中标注框的中心坐标以及标注框的宽和高;
归一化的中心坐标计算公式(1)如下:
Figure BDA0003769660120000021
其中,x,y为图像的坐标;
归一化框的高和宽计算公式(2)如下:
Figure BDA0003769660120000022
步骤2.2:将对数据集使用自适应锚框算法,以真实的边框位置相对于预设边框的偏移来构建;一个Anchor Box由边框的纵横比和边框的面积来定义,相当于一系列预设边框的生成规则,根据Anchor Box,可以在图像的任意位置,生成一系列的边框,其中边框的计算公式如(3)所示:
Figure BDA0003769660120000023
作为本方案的进一步优化,所述步骤4包括如下子步骤:
步骤4.1:将步骤3中进行过Mosaic数据增强处理的图像输入改进后的YOLOv5模型中BackBone层中;在原有YOLOv5的基础上加入了CBAM注意力模块,其中CBAM公式(4)如下:
Figure BDA0003769660120000031
步骤4.2:其中被送入BackBone层中的数据将经过CBAM的通道注意力模块进行特征提取,对输入特征图在空间维度分别进行最大池化和平均池化,然后分别经过一个共享权重的MLP,然后将两者的输出做逐元素的相加,再经过sigmoid激活函数,得到通道注意力权重,将该权重和输入特征图做逐元素的乘法;其中权系数Mc(F)矩阵公式(5)如下:
Figure BDA0003769660120000032
其中,σ为Sigmoid激活函数,W0,W1为MLP的权重,W0∈RC/r×C,W1∈RC/r×C,并且r=16为还原比;
步骤4.3:其中空间注意力模块注重特征位置的区分和通道注意力机制的补充,在通道维度上分别采用平均池化和最大池化,在最大池化和平局池化之后结合
Figure BDA0003769660120000033
Figure BDA0003769660120000034
两个特征映射。对7×7卷积核进行降维滤波,将信道数减至1;最后利用Sigmoid激活函数得到空间注意特征图;其中空间注意力的权系数Ms(F)矩阵公式(6)如下:
Figure BDA0003769660120000035
步骤4.4:随后将BackBone层提取特征输入至Head层随后输出特征图,同时图像被划分为小方块并生成锚框,将标注的预测框和特征图进行关联,最后建立损失函数并开启端到端的训练,其中损失函数如公式(7)所示:
Figure BDA0003769660120000036
其中ρ2(b,bgt)代表了预测框和真实框的中心点的欧式距离,c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离。v用来衡量两个矩形框相对比例的一致性,α是权重系数:
Figure BDA0003769660120000037
作为本方案的进一步优化,所述训练集和验证集的划分比例为8:2。
采用上述结构本发明取得的有益效果如下:本方案基于卷积神经网络的目标检测方法,将空间注意力机制的思想引入到目标检测的算法中,并提出了一种对于烟雾和火焰特征的新型目标检测的方法,增加了算法的精度的同时保持算法的速度,需要的硬件资源开销较小,结合了数据增强方法加强了对特征的识别。对多种场景的烟雾和火焰数据都进行了分析,选取了最适合用于实际生产场景的复杂烟雾和火焰图像,使得模型能学习到较强的特征,增加了模型的抗干扰能力,与其他模型相比,既能够在复杂的场景中准确检测出烟雾和火焰的存在,又兼顾了实际的运行速度,且在动态场景中检测概率极高,具有广阔的应用前景。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为各种复杂场景下烟雾与火焰的图片的真实标注;
图2是数据集中烟雾和火焰标签的数量和分布情况;
图3为图1中复杂场景下模型对烟雾和火焰所作出的目标检测的预测值;
图4为改进后YOLOv5网络模型图;
图5为改进后YOLOv5模型的200轮训练结果;
图6为现实应用场景下对于烟雾和火焰的目标检测的结果以及预估值。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1,一种基于卷积神经网络的烟火检测方法,包括如下步骤:
步骤1,利用网络爬虫和开源数据集对不同场景下的烟雾和火灾场景图像进行保存,并且采用人工标注的方式对图像中烟雾和火灾场景进行分块标注,保存格式为VOC格式,将标注的图片划分为训练集和验证集,所述训练集和验证集的划分比例为8:2;
步骤2,将步骤一获得的VOC格式标签和图像通过脚本转化给YOLO格式标签的txt文件,并作为初始训练集和验证集;对项目中的初始的数据集进行Mosaic数据增强,自适应锚框计算,其中Mosaic是将图像进行随机缩放,裁剪,排布的方式进行拼接,增加了对小目标火焰和烟雾的检测效果;
具体为:
步骤2.1:将获取的VOC格式xml文件通过脚本转化为YOLO格式对应的txt文件,其中脚本完成步骤就是将VOC格式标签中图像的实际宽高,标注框的左上角和右下角坐标,进行归一化处理转化为YOLO格式标签中标注框的中心坐标(归一化结果)以及标注框的宽和高(归一化结果);
归一化的中心坐标计算公式(1)如下:
Figure BDA0003769660120000051
其中,x,y为图像的坐标;
归一化框的高和宽计算公式(2)如下:
Figure BDA0003769660120000052
步骤2.2:将对数据集使用自适应锚框算法,以真实的边框位置相对于预设边框的偏移来构建;一个Anchor Box由边框的纵横比和边框的面积(尺度)来定义,相当于一系列预设边框的生成规则,根据Anchor Box,可以在图像的任意位置,生成一系列的边框,其中边框的计算公式如(3)所示:
Figure BDA0003769660120000053
步骤3,通过比例缩放的方式,将每张图像设置为相同的输入尺寸640×640作为初始输入数据;
步骤4,将进行数据增强后的数据集送入改进的YOLOv5s模型对图像中烟雾与火焰的特征提取进行迭代训练;
具体为:
步骤4.1:将步骤3中进行过Mosaic数据增强处理的图像输入改进后的YOLOv5模型中BackBone层中;在原有YOLOv5的基础上加入了CBAM注意力模块,其中CBAM公式(4)如下,专注于网络的重要特征,同时抑制不重要的信息,有效的提高了CNN的性能;
Figure BDA0003769660120000054
步骤4.2:其中被送入BackBone层中的数据将经过CBAM的通道注意力模块进行特征提取,对输入特征图在空间维度分别进行最大池化和平均池化,然后分别经过一个共享权重的MLP,然后将两者的输出做逐元素的相加,再经过sigmoid激活函数,得到通道注意力权重,将该权重和输入特征图做逐元素的乘法;其中权系数Mc(F)矩阵公式(5)如下:
Figure BDA0003769660120000061
其中,σ为Sigmoid激活函数,W0,W1为MLP的权重,W0∈RC/r×C,W1∈RC/r×C,并且r=16为还原比;
步骤4.3:其中空间注意力模块注重特征位置的区分和通道注意力机制的补充,在通道维度上分别采用平均池化和最大池化,在最大池化和平局池化之后结合
Figure BDA0003769660120000062
Figure BDA0003769660120000063
两个特征映射。对7×7卷积核进行降维滤波,将信道数减至1;最后利用Sigmoid激活函数得到空间注意特征图;其中空间注意力的权系数Ms(F)矩阵公式(6)如下:
Figure BDA0003769660120000064
步骤4.4:随后将BackBone层提取特征输入至Head层随后输出特征图,同时图像被划分为小方块并生成锚框,将标注的预测框和特征图进行关联,最后建立损失函数并开启端到端的训练,其中损失函数如公式(7)所示:
Figure BDA0003769660120000065
其中ρ2(b,bgt)代表了预测框和真实框的中心点的欧式距离,c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离。v用来衡量两个矩形框相对比例的一致性,α是权重系数:
Figure BDA0003769660120000066
步骤5,网络在初始锚框的基础上输出预测框,进而和真实框groundtruth进行比对,计算两者差距,再反向更新,迭代网络参数,最后将步骤4中训练模型的最好权重文件结果进行保存。
如图1是首先将复杂场景下的烟雾和火焰图片,并由人工进行标注,选择其中的烟雾和火焰特征明显的部分,一共只需要检测烟雾和火焰两类,所以只在图片中做此两种标注;人工标注方法以尽可能大的框一次性标注出某个目标,并且尽量减小无关背景的进入,拒绝使用小型框多个连续标注的方式;所有图片均遵循上述处理原则。
如图2是对输入模型中整个数据集中有关烟雾和火焰标签的统计,在将数据集送入模型进行训练前统计样本中标签的数量,当训练完成后,直观的表达了烟雾标签和火焰标签在整个数据集中分布的均衡情况。
如图3所示是将改进后的YOLOv5模型训练结束后对实际场景中烟雾和火焰进行目标检测的预测结果其中图4是修改后YOLOv5网络结构,其中CBAM模块在网络中的替换位置如图所示。
如图5中是对改进后的YOLOv5模型训练进行200轮结果通过统计图像的直观展示,其中的结果均表明,模型是收敛的,训练过程和结果都是成功的,图3中对与检测结果的预测值表明,改进后的YOLOv5模型能预测出大部分烟雾和火焰结果结果,且在动态视频中,并且引入空间注意力机制,所以相对于静态图片,有更加高的准确率。
如图6所示,是将改进后的YOLOv5模型调用设备摄像头对实际生产场景中动态视频进行烟雾和火焰的目标检测,当镜头出现火焰和烟雾或者是与其相似目标进行检测,当动态场景中初见目标检测可信度>=0.7的目标时,便可对实际生产场景中烟雾和火焰目标精准预警。
如表1所示为YOLOv5s算法改进前后各指标对比,在相同数据集和硬件设施以及图片输入大小均为640×640的前提下,改进后的模型整体大小有了大幅度上涨Precision指标从0.63提升到0.67,Recall指标从0.53提升到0.54,mAP_0.5指标从0.55提升到0.59,模型的精度上涨了6%且检测速度相较于原模型增长了7%,FPS从227/s提升至243/s。在动态视频下表现更加优秀。
表1表1 YOLOv5s算法改进前后各指标对比
Figure BDA0003769660120000071
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (4)

1.一种基于卷积神经网络的烟火检测方法,其特征在于,包括如下步骤:
步骤1,利用网络爬虫和开源数据集对不同场景下的烟雾和火灾场景图像进行保存,并且采用人工标注的方式对图像中烟雾和火灾场景进行分块标注,保存格式为VOC格式,将标注的图片划分为训练集和验证集;
步骤2,将步骤一获得的VOC格式标签和图像通过脚本转化给YOLO格式标签的txt文件,并作为初始训练集和验证集;对项目中的初始的数据集进行Mosaic数据增强,自适应锚框计算,其中Mosaic是将图像进行随机缩放,裁剪,排布的方式进行拼接,增加了对小目标火焰和烟雾的检测效果;
步骤3,通过比例缩放的方式,将每张图像设置为相同的输入尺寸640×640作为初始输入数据;
步骤4,将进行数据增强后的数据集送入改进的YOLOv5s模型对图像中烟雾与火焰的特征提取进行迭代训练;
步骤5,网络在初始锚框的基础上输出预测框,进而和真实框groundtruth进行比对,计算两者差距,再反向更新,迭代网络参数,最后将步骤4中训练模型的最好权重文件结果进行保存。
2.根据权利要求1所述的一种基于卷积神经网络的烟火检测方法,其特征在于,所述步骤2包括如下子步骤:
步骤2.1:将获取的VOC格式xml文件通过脚本转化为YOLO格式对应的txt文件,其中脚本完成步骤就是将VOC格式标签中图像的实际宽高,标注框的左上角和右下角坐标,进行归一化处理转化为YOLO格式标签中标注框的中心坐标以及标注框的宽和高;
归一化的中心坐标计算公式(1)如下:
Figure FDA0003769660110000011
其中,x,y为图像的坐标;
归一化框的高和宽计算公式(2)如下:
Figure FDA0003769660110000012
步骤2.2:将对数据集使用自适应锚框算法,以真实的边框位置相对于预设边框的偏移来构建;一个Anchor Box由边框的纵横比和边框的面积来定义,相当于一系列预设边框的生成规则,根据Anchor Box,可以在图像的任意位置,生成一系列的边框,其中边框的计算公式如(3)所示:
Figure FDA0003769660110000021
3.根据权利要求1所述的一种基于卷积神经网络的烟火检测方法,其特征在于,所述步骤4包括如下子步骤:
步骤4.1:将步骤3中进行过Mosaic数据增强处理的图像输入改进后的YOLOv5模型中BackBone层中;在原有YOLOv5的基础上加入了CBAM注意力模块,其中CBAM公式(4)如下:
Figure FDA0003769660110000022
步骤4.2:其中被送入BackBone层中的数据将经过CBAM的通道注意力模块进行特征提取,对输入特征图在空间维度分别进行最大池化和平均池化,然后分别经过一个共享权重的MLP,然后将两者的输出做逐元素的相加,再经过sigmoid激活函数,得到通道注意力权重,将该权重和输入特征图做逐元素的乘法;其中权系数Mc(F)矩阵公式(5)如下:
Figure FDA0003769660110000023
其中,σ为Sigmoid激活函数,W0,W1为MLP的权重,W0∈RC/r×C,W1∈RC/r×C,并且r=16为还原比;
步骤4.3:其中空间注意力模块注重特征位置的区分和通道注意力机制的补充,在通道维度上分别采用平均池化和最大池化,在最大池化和平局池化之后结合
Figure FDA0003769660110000024
Figure FDA0003769660110000025
两个特征映射。对7×7卷积核进行降维滤波,将信道数减至1;最后利用Sigmoid激活函数得到空间注意特征图;其中空间注意力的权系数Ms(F)矩阵公式(6)如下:
Figure FDA0003769660110000026
步骤4.4:随后将BackBone层提取特征输入至Head层随后输出特征图,同时图像被划分为小方块并生成锚框,将标注的预测框和特征图进行关联,最后建立损失函数并开启端到端的训练,其中损失函数如公式(7)所示:
Figure FDA0003769660110000031
其中ρ2(b,bgt)代表了预测框和真实框的中心点的欧式距离,c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离。v用来衡量两个矩形框相对比例的一致性,α是权重系数:
Figure FDA0003769660110000032
4.根据权利要求1所述的一种基于卷积神经网络的烟火检测方法,其特征在于,所述训练集和验证集的划分比例为8:2。
CN202210897534.3A 2022-07-28 2022-07-28 一种基于卷积神经网络的烟火检测方法 Pending CN115294520A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210897534.3A CN115294520A (zh) 2022-07-28 2022-07-28 一种基于卷积神经网络的烟火检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210897534.3A CN115294520A (zh) 2022-07-28 2022-07-28 一种基于卷积神经网络的烟火检测方法

Publications (1)

Publication Number Publication Date
CN115294520A true CN115294520A (zh) 2022-11-04

Family

ID=83824753

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210897534.3A Pending CN115294520A (zh) 2022-07-28 2022-07-28 一种基于卷积神经网络的烟火检测方法

Country Status (1)

Country Link
CN (1) CN115294520A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861922A (zh) * 2022-11-23 2023-03-28 南京恩博科技有限公司 一种稀疏烟火检测方法、装置、计算机设备及存储介质
CN115909107A (zh) * 2022-12-06 2023-04-04 武汉纺织大学 一种基于无人机视角的烟火检测方法、系统、设备及介质
CN116983569A (zh) * 2023-09-26 2023-11-03 南京南工应急科技有限公司 一种基于灭火剂供给强度的储罐灭火应急救援系统及方法
CN117011785A (zh) * 2023-07-06 2023-11-07 华新水泥股份有限公司 基于时空关联和高斯热图的烟火检测方法、装置及系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861922A (zh) * 2022-11-23 2023-03-28 南京恩博科技有限公司 一种稀疏烟火检测方法、装置、计算机设备及存储介质
CN115861922B (zh) * 2022-11-23 2023-10-03 南京恩博科技有限公司 一种稀疏烟火检测方法、装置、计算机设备及存储介质
CN115909107A (zh) * 2022-12-06 2023-04-04 武汉纺织大学 一种基于无人机视角的烟火检测方法、系统、设备及介质
CN115909107B (zh) * 2022-12-06 2023-08-18 武汉纺织大学 一种基于无人机视角的烟火检测方法、系统、设备及介质
CN117011785A (zh) * 2023-07-06 2023-11-07 华新水泥股份有限公司 基于时空关联和高斯热图的烟火检测方法、装置及系统
CN117011785B (zh) * 2023-07-06 2024-04-05 华新水泥股份有限公司 基于时空关联和高斯热图的烟火检测方法、装置及系统
CN116983569A (zh) * 2023-09-26 2023-11-03 南京南工应急科技有限公司 一种基于灭火剂供给强度的储罐灭火应急救援系统及方法

Similar Documents

Publication Publication Date Title
CN115294520A (zh) 一种基于卷积神经网络的烟火检测方法
Huang et al. Detection algorithm of safety helmet wearing based on deep learning
EP3869459B1 (en) Target object identification method and apparatus, storage medium and electronic apparatus
CN110852347B (zh) 采用改进YOLO v3的火灾检测方法
CN110516529A (zh) 一种基于深度学习图像处理的投喂检测方法和系统
CN111274930A (zh) 一种基于深度学习的安全帽佩戴以及吸烟行为识别方法
CN112837315A (zh) 一种基于深度学习的输电线路绝缘子缺陷检测方法
CN113850242A (zh) 一种基于深度学习算法的仓储异常目标检测方法及系统
CN115761627A (zh) 一种火灾烟雾火焰图像识别方法
CN115239710A (zh) 基于注意力反馈和双空间金字塔的绝缘子缺陷检测方法
CN115512225A (zh) 一种基于注意力机制实现端到端的森林火灾检测算法
CN109684982B (zh) 结合易混目标排除的基于视频分析的火焰检测方法
CN111507416A (zh) 一种基于深度学习的吸烟行为实时检测方法
Cheng et al. An efficient fire detection algorithm based on multi‐scale convolutional neural network
WO2022222036A1 (zh) 车位确定方法及装置
Dai et al. Multi-scale video flame detection for early fire warning based on deep learning
CN116884192A (zh) 一种电力生产作业风险预警方法、系统和设备
Ji et al. STAE‐YOLO: Intelligent detection algorithm for risk management of construction machinery intrusion on transmission lines based on visual perception
CN116543333A (zh) 电力系统的目标识别方法、训练方法、装置、设备和介质
CN116977256A (zh) 缺陷检测模型的训练方法、装置、设备及存储介质
CN115171214A (zh) 基于fcos目标检测的工地异常行为检测方法及系统
CN113837001A (zh) 监控场景下的异常闯入物实时检测方法及装置
CN114282611A (zh) 基于深度学习模型的多传感器数据融合火源定位算法
CN114419558A (zh) 火灾视频图像识别方法、系统、计算机设备及存储介质
CN113869122A (zh) 一种配网工程强化管控方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination