CN114998831A - 基于边缘计算及改进的YOLOv3的火灾检测方法及系统 - Google Patents

基于边缘计算及改进的YOLOv3的火灾检测方法及系统 Download PDF

Info

Publication number
CN114998831A
CN114998831A CN202210559677.3A CN202210559677A CN114998831A CN 114998831 A CN114998831 A CN 114998831A CN 202210559677 A CN202210559677 A CN 202210559677A CN 114998831 A CN114998831 A CN 114998831A
Authority
CN
China
Prior art keywords
fire
image
model
data
fire detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210559677.3A
Other languages
English (en)
Inventor
文婷婷
陈国荣
张毅轩
汪博城
胡彪彪
黄佳铭
肖彦冰
袁巧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Science and Technology
Original Assignee
Chongqing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Science and Technology filed Critical Chongqing University of Science and Technology
Priority to CN202210559677.3A priority Critical patent/CN114998831A/zh
Publication of CN114998831A publication Critical patent/CN114998831A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Fire-Detection Mechanisms (AREA)

Abstract

本发明提供一种基于边缘计算及改进的YOLOv3的火灾检测方法及系统,图像经过随机裁剪和扩容,增加模型的泛化能力,能够更好地学习到目标特征;在YOLOv3的基础上对算法进行改进,将骨干网络Darknet‑53替换为ResNet50‑vd网络,并采用可变形的卷积层替换了ResNet50‑vd中的一部分卷积层,在多尺度检测中添加104×104尺度的检测以及扩展步长2,4,8,使之可以对火灾进行更好的检测。计算差别区域的损失值,继而调整下一次迭代的模型参数,提升了模型对火灾区域的检测精度,最终得到最优的模型效果,并保存。与同类火灾检测算法相比具有更好的鲁棒性,无论是在准确度还是速度上都有良好的表现。不仅在大火灾区域的图像上有良好的检测结果,在小火灾区域都可适用,通用性强。

Description

基于边缘计算及改进的YOLOv3的火灾检测方法及系统
技术领域
本发明涉及图像检测技术,尤其涉及一种基于边缘计算及改进的YOLOv3的火灾检测方法及系统。
背景技术
智慧城市的概念成为新兴且富有挑战的研究领域,其中,智慧消防是智慧城市建设的关键一环,当今社会,居民楼以高层居多,而高层居民楼又是火灾频发地,救援困难,给人民群众的生命安全和财产造成巨大损失,建设火灾检测和火警救援前预处理方案显得十分重要。现有计算中虽然出现了很多传感器检测火灾,但必须等待火灾发生一定时间后产生大量的烟雾、CO等火灾物理参数后才能够触发报警,而且无法清楚地感知到火灾的大小、详细位置信息等,给火灾检测带来了很大的不便。随着计算机视觉的快速发展,通过卷积神经网络(CNN)取代人工提取特征,自动对火灾进行特征提取和分类。但是采用CNN来检测火灾只能检测出是否有火灾发生却无法得知火灾发生的具体位置,而且对于火灾区域较小的图像,往往存在漏检的问题。此外,随着物联网技术的发展,出现了多传感器数据融合的警报技术,这对数据的计算能力有一定的要求,通常需要建立云计算中心对数据进行处理。然而,云计算模式具有检测高延迟性、对网络环境过度依赖、处理速度易受到网络带宽和中心计算能力影响的问题。
发明内容
针对上述需求,本发明首先提供了一种基于边缘计算及改进的YOLOv3的火灾检测方法,使其能够满足不同大小区域图像的火灾检测效果,同时确保算法运算速率。
为实现上述目的,本发明所采用的具体技术方案如下:
一种基于边缘计算及改进的YOLOv3的火灾检测方法,其关键在于,包括以下步骤:
S1:将图像数据按照一定的比例划分,对数据图像的大小进行调整,再用数据增强方法对数据进行扩容和丰富,形成预处理数据集;
S2:将预处理数据集转化为RGB三色通道的输入矩阵,然后将得到的初始语义特征进行ResNet50-vd网络的训练,对输入的图像进行特征提取,使用步长为2的卷积来下采样,在32、16、8倍下采样得到的特征信息通过转移层进行拼接,再使用3种不同尺度特征图融合,把浅层特征图连接到深层特征图,得到最终结果;
S3:模型训练时,使用改进的损失函数来衡量真实值和预测值之间的误差;评价模型时,将模型的预测的结果与手动标志的火灾区域做对比,计算精确度,精确最高的相关参数设置即为最终的模型训练文件;
S4:对采集到的图像数据,利用改进的YOLOv3模型在基于边缘服务器计算平台进行实时分析处理,并将数据回传到数据中心进行模型的优化和算法的迭代,实现对火灾火情的智能监测管理。
可选地,从互联网选取火灾图像作为原数据集,包括白天和夜晚不同场景下的火灾图像以及类火灾图像、夜晚街灯图像、清洁工或消防员图像;将原数据集中的图像按一定比例划分为训练集、验证集和测试集。
可选地,先对训练图像进行统一编号,编号后对待识别目标用LabelImg图像标注软件进行标注,标注时注意要将目标物体完全框住,不能缺少或超过,以免影响火灾检测的准确率,将图像种标注物体的种类信息和位置信息保存至XML格式文件中,再通过Python程序生成对应的TXT文件,将这些文件组合成YOLOv3可以识别的格式数据集;然后读取训练图像的存储路径以及图像中目标的标记像素坐标和目标类别,在加载图像时,先按照顺序全部加载,再将其重新排列打乱。
可选地,通过将图像进行90°、180°、270°、360°旋转和水平翻转进行数据增强;或是采用平移、缩放或随机改变对比度的方法,再采用Mosaic在线数据增强;最后将4张图片进行拼接。
可选地,改进的YOLOv3模型包括ResNet50-vd网络,检测颈和检测头三部分,且在多尺度检测中使用了13×13、26×26、52×52、104×104共计4个尺度的检测并扩展步长2,4,8;所述检测头由2个卷积层组成,采用3×3卷积跟1×1卷积来获得最终预测结果。
可选地,采用可变形的卷积层替换了ResNet50-vd中最后阶段的3×3的卷积层。
可选地,改进的YOLOv3模型最后损失函数由坐标损失、类别损失以及置信度损失三部分组成。
可选地,坐标损失LossCloU=1-IoU(C,D)+p2(bp,bt)/c2+αv;
其中:
Figure BDA0003656035990000031
下标t代表真实框,下标p代表预测框,p2()为预测框和真实框中心坐标欧式距离的计算函数,C为预测框和真实框最小包围框对角线长度,α、v是对预测框和真实框宽高比的惩罚项,当宽和高和接近时,v等于0;w和h对应为物体的宽和高。
基于上述方法,本发明还提出一种基于边缘计算及改进的YOLOv3的火灾检测系统,包括终端层、边缘网关、边缘服务器以及云平台层,且系统按照前文所述的基于边缘计算及改进的YOLOv3的火灾检测方法实现火灾检测。
本发明的技术效果是:
本发明基于火灾图像目标检测角度出发,在YOLOv3网络模型的基础上将骨干网络Darknet-53替换为ResNet50-vd网络,另外将3尺度检测拓展到4尺度检测,提高对浅层特征图的利用,并将上采样步长进行拓展到2,4,8,提升对深层特征的重用,在原来的YOLOV3坐标误差损失函数加入对边界框尺寸的考虑,将边界框的宽高进行加权,降低大框对小框的影响程度,可以提高网络的检测效果,加快网络的收敛。经过实验证明,算法不仅在大火灾区域的图像上有良好的检测结果,而且能够有效检测出小火灾区域。
附图说明
图1是本发明系统网络拓扑结果图;
图2是本发明改进的YOLOv3算法的控制流程图。
具体实施方式
下面结合附图具体阐明本发明的实施方式,实施例的给出仅仅是为了说明目的,并不能理解为对本发明的限定,包括附图仅供参考和说明使用,不构成对本发明专利保护范围的限制,因为在不脱离本发明精神和范围基础上,可以对本发明进行许多改变。
本实施例提供了一种基于边缘计算及改进的YOLOv3的火灾检测方法,从图1和图2可以看出,包括以下步骤:
S1:将图像数据按照一定的比例划分,对数据图像的大小进行调整,再用数据增强方法对数据进行扩容和丰富,形成预处理数据集;
S2:将预处理数据集转化为RGB三色通道的输入矩阵,然后将得到的初始语义特征进行ResNet50-vd网络的训练,对输入的图像进行特征提取,使用步长为2的卷积来下采样,在32、16、8倍下采样得到的特征信息通过转移层进行拼接,再使用3种不同尺度特征图融合,把浅层特征图连接到深层特征图,得到最终结果;
S3:模型训练时,使用改进的损失函数来衡量真实值和预测值之间的误差;评价模型时,将模型的预测的结果与手动标志的火灾区域做对比,计算精确度,精确最高的相关参数设置即为最终的模型训练文件;
S4:对采集到的图像数据,利用改进的YOLOv3模型在基于边缘服务器计算平台进行实时分析处理,并将数据回传到数据中心进行模型的优化和算法的迭代,实现对火灾火情的智能监测管理。
具体实施时,首先,从互联网选取相关火灾图像,为满足样本多样性的目的,需选取不同场景(白天和夜晚)下的火灾图像以及类火灾图像、夜晚街灯图像、清洁工或消防员图像。将原数据集中的图像按一定比例划分为训练集、验证集和测试集。
读取训练图像的存储路径以及图像种目标的标记像素坐标和目标类别。在此之前,先对训练图像进行统一编号,编号后对待识别目标(火灾、类火)用LabelImg图像标注软件进行标注,标注时注意要将目标物体完全框住,不能缺少或超过,以免影响火灾检测的准确率,将图像种标注物体的种类信息和位置信息保存至XML格式文件中,再通过Python程序生成对应的TXT文件,将这些文件组合成YOLOv3可以识别的格式数据集。在加载图像时,先按照顺序全部加载,再将其重新排列打乱,目的是能够加强加载图像的随机性,弱化过拟合现象的产生,提高模型泛化能力。
此外,由于采集到的火灾图像数量有限,为了能让网络模型能够更好地学习到目标特征,需要对数据集进行数据扩展。将图像进行90°、180°、270°、360°旋转和水平翻转进行数据增强,也可以采用平移、缩放、随机对比度等方法,再采用Mosaic在线数据增强,将4张图片进行拼接,它的一个巨大优点是丰富待检测物体的背景,且批量标准化计算时一次性计算出4张图片的数据。训练集图像的角度变换能够增强训练模型对不同角度图像的鲁棒性,提高模型的泛化能力。
其次,在模型选择和训练方面,在YOLOv3的基础上对算法进行改进有利于更好地识别和检测火情。该步骤分为两各部分:①将骨干网络Darknet-53替换为ResNet50-vd网络。②多尺度检测中添加104×104尺度的检测以及扩展步长2,4,8。其余部分与YOLOv3一样。大致由以下三个结构组成:
主干网:我们在改进的YOLOv3模型中,用ResNet50-vd替换原来的Darknet-53,可能会损害YOLOv3检测器的性能。因此采用可变形的卷积层替换了ResNet50-vd中的一部分卷积层。可变形卷积层DCN的有效性已在许多检测模型中得到验证,它本身不会显著增加模型中的参数,它的特点在于:其卷积核在每一个元素上额外增加了一个可学习的偏移参数。这样的卷积核在学习过程中可以调整卷积的感受野,从而能够更好的提取图像特征,以达到提升目标检测精度的目的。但它会在一定程度上引入额外的计算开销即推断时间。因此,为了平衡效率和有效性,只将最后阶段的3×3的卷积层替换为DCN。
检测颈:在网络特征提取过程中,浅层特征图分辨率较大,含有的位置信息也较多;而深层特征图分辨率较小,包含较少的位置信息和较多语义信息。因此,利用浅层特征图信息,YOLOv3在火灾检测中分别使用了13×13、26×26、52×52的特征图融合。当火灾的区域较大时,的确能达到较好的检测效果,但对浅层信息的不充分利用,会使经过多次卷积后火灾图像的部分信息丢失,如此小区域火灾检测效果欠佳。为解决这一难题,考虑添加低维的尺度检测来强化对浅层特征图信息的学习能力,但添加新的尺度检测会增大网络复杂度,增加检测时延长,经过对实时性以及火灾检测精度的综合考虑,在原有的3各尺度检测基础上,增加一个104×104的尺度检测,变为4尺度检测。另外,在传统YOLOv3中上采样所采取的步长为2,将其改进为2,4,8以融合不同的浅层特征图信息,使深层特征图能够得到更好的表现,最后将上采样后的特征图与104×104的特征图进行级联,以致于更加充分地利用浅层特征图信息,将不同尺度的特征融合之后再进行火灾检测。改进后的4个尺度检测融合了更多尺度的浅层特征图信息,在火灾检测实时性可接受范围内进一步提高对小火灾区域的检测效果。
检测头:YOLOv3的检测头非常简单,它由2个卷积层组成。采用3×3卷积后跟1×1卷积来获得最终预测。每个最终预测的输出通道是3(k+5),其中K是类数,每个最终预测图上的每个位置都与不同的锚点相关联。对于每个锚点,前K个通道是K个类别的概率预测。
在损失函数的计算上,YOLOv3算法的损失函数采用了坐标损失(coord loss)、类别损失(class loss)以及置信度损失(confidence loss)这三部分组成,损失函数的表达式如下所示:
Figure BDA0003656035990000071
其中,网络中存在物体为1,否则是0,r为物体的种类,如火焰或烟雾,其中x,y为物体的中心坐标,w,h为物体的宽高。YOLOv3在计算坐标误差时将中心和宽高坐标作为单独的变量去计算,忽视了两者的相关性,考虑用真实框和预测框的重合程度去计算坐标损失,但当两个框之间没有重合或尺寸相差较大时无法计算,为加快损失函数的收敛,本发明采用CIoU(Complete-IoU)作为位置坐标的损失函数,计算的公式如下:
LossCloU=1-IoU(C,D)+p2(bp,bt)/c2+av
其中,
Figure BDA0003656035990000072
下标t代表真实框,下标p代表预测框,p2(·)为预测框和真实框中心坐标欧式距离的计算,C为预测框和真实框最小包围框对角线长度。α、v是对预测框和真实框宽高比的惩罚项,当宽和高和接近时,v等于0。
模型的每次迭代都将进行验证,以检验模型的拟合效果,并且保存验证精度最高的模型参数,在训练结束后,效果最好的参数文件得以保留。
每次迭代后,都将进行验证。首先随机选取验证集中的一张图像,经过裁剪、色彩变换后,使用训练后的模型参数进行图像的特征提取与上采样,最终得到结果图像,通过对检测结果与原图进行比较,得到网络自身的判定结果,评估指标:本发明使用mAP作为模型的评价指标,下面时计算过程。TP是被模型分到正样本且分对了的个数,TN是被模型分到负样本且分对了的个数,FP是被模型分到正样本且分错了的个数,FN是被模型分到负样本且分错的个数。那么模型的准确率(precision,P)计算公式为:
Figure BDA0003656035990000081
模型的召唤率(recall,R)计算公式为:
Figure BDA0003656035990000082
当取不同的置信度时可以得到不同的P和R,由此,得到平均准确率AP的计算公式为:
Figure BDA0003656035990000083
当分类个数超过一个时,便引入了mAP,mAP的计算公式为:
Figure BDA0003656035990000084
在传统的火灾检测中,从检测到的信息数据需要定期监测和存储并将数据传回云中进行处理计算,因火灾灾情的特殊性,大量的图像数据的采集,数据量会非常庞大,带宽要求变高,数据传输速率受到影响,无法做到实时性。随着5G技术的发展,边缘计算应运而生,它是为解决云计算实时性差,中心节点网络负重的缺点,而将响应服务能力部署到网络的边缘,在更靠近网络的一边进行数据的处理与计算,提高了实时性的同时也保证了用户的安全隐私。本发明拟设计了基于边缘计算的火灾检测系统如图1。因此,将采集火灾图像放在终端层,将采集到的数据传到边缘层的边缘网关和边缘服务器,使用相应的算法模型对数据进行综合分析并做出决策;平台层会对模型进行不断的训练,根据训练的结果更新模型以达到更好的预测效果。边缘计算层和平台层保证了数据的安全性。
本发明的是基于火灾图像目标检测角度出发,在YOLOv3网络模型的基础上将骨干网络Darknet-53替换为ResNet50-vd网络,另外将3尺度检测拓展到4尺度检测,提高对浅层特征图的利用,并将上采样步长进行拓展到2,4,8,提升对深层特征的重用。在原来的YOLOV3坐标误差损失函数加入对边界框尺寸的考虑,将边界框的宽高进行加权,降低大框对小框的影响程度,可以提高网络的检测效果,加快网络的收敛。经过实验证明,算法不仅在大火灾区域的图像上有良好的检测结果,而且能够有效检测出小火灾区域。
本实施例还提供一种基于边缘计算及改进的YOLOv3的火灾检测系统,用于实现上述方法,通过分析可以看出,本发明提出的方法和系统,通过边缘计算提升算法的运算速度,通过对YOLOv3模型的改进,不仅在大火灾区域的图像上有良好的检测结果,在小火灾区域都可适用,通用性更强。
最后需要说明的是,上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (9)

1.一种基于边缘计算及改进的YOLOv3的火灾检测方法,其特征在于,包括以下步骤:
S1:将图像数据按照一定的比例划分,对数据图像的大小进行调整,再用数据增强方法对数据进行扩容和丰富,形成预处理数据集;
S2:将预处理数据集转化为RGB三色通道的输入矩阵,然后将得到的初始语义特征进行ResNet50-vd网络的训练,对输入的图像进行特征提取,使用步长为2的卷积来下采样,在32、16、8倍下采样得到的特征信息通过转移层进行拼接,再使用3种不同尺度特征图融合,把浅层特征图连接到深层特征图,得到最终结果;
S3:模型训练时,使用改进的损失函数来衡量真实值和预测值之间的误差;评价模型时,将模型的预测的结果与手动标志的火灾区域做对比,计算精确度,精确最高的相关参数设置即为最终的模型训练文件;
S4:对采集到的图像数据,利用改进的YOLOv3模型在基于边缘服务器计算平台进行实时分析处理,并将数据回传到数据中心进行模型的优化和算法的迭代,实现对火灾火情的智能监测管理。
2.根据权利要求1所述的基于边缘计算及改进的YOLOv3的火灾检测方法,其特征在于,从互联网选取火灾图像作为原数据集,包括白天和夜晚不同场景下的火灾图像以及类火灾图像、夜晚街灯图像、清洁工或消防员图像;将原数据集中的图像按一定比例划分为训练集、验证集和测试集。
3.根据权利要求2所述的基于边缘计算及改进的YOLOv3的火灾检测方法,其特征在于,先对训练图像进行统一编号,编号后对待识别目标用LabelImg图像标注软件进行标注,标注时注意要将目标物体完全框住,不能缺少或超过,以免影响火灾检测的准确率,将图像种标注物体的种类信息和位置信息保存至XML格式文件中,再通过Python程序生成对应的TXT文件,将这些文件组合成YOLOv3可以识别的格式数据集;然后读取训练图像的存储路径以及图像中目标的标记像素坐标和目标类别,在加载图像时,先按照顺序全部加载,再将其重新排列打乱。
4.根据权利要求1或3所述的基于边缘计算及改进的YOLOv3的火灾检测方法,其特征在于,通过将图像进行90°、180°、270°、360°旋转和水平翻转进行数据增强;或是采用平移、缩放或随机改变对比度的方法,再采用Mosaic在线数据增强;最后将4张图片进行拼接。
5.根据权利要求1所述的基于边缘计算及改进的YOLOv3的火灾检测方法,其特征在于,改进的YOLOv3模型包括ResNet50-vd网络,检测颈和检测头三部分,且在多尺度检测中使用了13×13、26×26、52×52、104×104共计4个尺度的检测并扩展步长2,4,8;所述检测头由2个卷积层组成,采用3×3卷积跟1×1卷积来获得最终预测结果。
6.根据权利要求5所述的基于边缘计算及改进的YOLOv3的火灾检测方法,其特征在于,采用可变形的卷积层替换了ResNet50-vd中最后阶段的3×3的卷积层。
7.根据权利要求5所述的基于边缘计算及改进的YOLOv3的火灾检测方法,其特征在于,改进的YOLOv3模型最后损失函数由坐标损失、类别损失以及置信度损失三部分组成。
8.根据权利要求7所述的基于边缘计算及改进的YOLOv3的火灾检测方法,其特征在于,坐标损失LossCloU=1-IoU(C,D)+p2(bp,bt)/c2+αv;
其中:
Figure FDA0003656035980000021
下标t代表真实框,下标p代表预测框,p2()为预测框和真实框中心坐标欧式距离的计算函数,C为预测框和真实框最小包围框对角线长度,α、v是对预测框和真实框宽高比的惩罚项,当宽和高和接近时,v等于0;w和h对应为物体的宽和高。
9.一种基于边缘计算及改进的YOLOv3的火灾检测系统,其特征在于:包括终端层、边缘网关、边缘服务器以及云平台层,且系统按照权利要求1-8任一所述的基于边缘计算及改进的YOLOv3的火灾检测方法实现火灾检测。
CN202210559677.3A 2022-05-23 2022-05-23 基于边缘计算及改进的YOLOv3的火灾检测方法及系统 Pending CN114998831A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210559677.3A CN114998831A (zh) 2022-05-23 2022-05-23 基于边缘计算及改进的YOLOv3的火灾检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210559677.3A CN114998831A (zh) 2022-05-23 2022-05-23 基于边缘计算及改进的YOLOv3的火灾检测方法及系统

Publications (1)

Publication Number Publication Date
CN114998831A true CN114998831A (zh) 2022-09-02

Family

ID=83026527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210559677.3A Pending CN114998831A (zh) 2022-05-23 2022-05-23 基于边缘计算及改进的YOLOv3的火灾检测方法及系统

Country Status (1)

Country Link
CN (1) CN114998831A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117333845A (zh) * 2023-11-03 2024-01-02 东北电力大学 一种基于改进YOLOv5s的小目标交通标志实时检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633174A (zh) * 2020-12-23 2021-04-09 电子科技大学 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质
CN113762197A (zh) * 2021-09-16 2021-12-07 南方电网数字电网研究院有限公司 基于末端电力业务边缘计算的变电站火灾检测方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633174A (zh) * 2020-12-23 2021-04-09 电子科技大学 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质
CN113762197A (zh) * 2021-09-16 2021-12-07 南方电网数字电网研究院有限公司 基于末端电力业务边缘计算的变电站火灾检测方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
XIANG LONG 等: "PP-YOLO: An Effective and Efficient Implementation of Object Detector", 《ARXIV》, 3 August 2020 (2020-08-03), pages 1 - 8 *
ZHAOHUI ZHENG 等: "Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression", 《THE THIRTY-FOURTH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE (AAAI-20)》, vol. 34, no. 07, 3 April 2020 (2020-04-03), pages 12993 - 13000 *
杨萍 等: "基于改进YOLOv3 的火灾识别关键技术研究", 物联网技术》, 14 March 2022 (2022-03-14), pages 21 - 23 *
罗小权 等: "改进YOLOV3的火灾检测方法", 《计算机工程与应用》, vol. 56, no. 17, 21 February 2020 (2020-02-21), pages 187 - 19 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117333845A (zh) * 2023-11-03 2024-01-02 东北电力大学 一种基于改进YOLOv5s的小目标交通标志实时检测方法

Similar Documents

Publication Publication Date Title
CN113011319B (zh) 多尺度火灾目标识别方法及系统
CN110852347B (zh) 采用改进YOLO v3的火灾检测方法
CN111274930B (zh) 一种基于深度学习的安全帽佩戴以及吸烟行为识别方法
CN112633231B (zh) 一种火灾识别的方法和装置
CN112001339A (zh) 一种基于YOLO v4的行人社交距离实时监测方法
JP7493323B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
CN112084869B (zh) 一种基于紧致四边形表示的建筑物目标检测方法
CN112837315B (zh) 一种基于深度学习的输电线路绝缘子缺陷检测方法
CN113850242B (zh) 一种基于深度学习算法的仓储异常目标检测方法及系统
CN113536972B (zh) 一种基于目标域伪标签的自监督跨域人群计数方法
CN112863132B (zh) 一种自然灾害预警系统及预警方法
CN112668375B (zh) 景区内游客分布分析系统及方法
CN112163572A (zh) 识别对象的方法和装置
CN108198202A (zh) 一种基于光流和神经网络的视频内容检测方法
CN112597928B (zh) 一种事件检测方法及相关装置
CN115294520A (zh) 一种基于卷积神经网络的烟火检测方法
CN115761627A (zh) 一种火灾烟雾火焰图像识别方法
CN114998831A (zh) 基于边缘计算及改进的YOLOv3的火灾检测方法及系统
CN114399734A (zh) 一种基于视觉信息的森林火灾预警方法
CN109684982B (zh) 结合易混目标排除的基于视频分析的火焰检测方法
CN115482473A (zh) 提取航拍图像特征的图卷积网络模型及检测异常的方法
CN114662605A (zh) 基于改进的YOLOv5模型的火焰检测方法
KR102602439B1 (ko) 인공지능 기반 cctv 촬영 이미지 정보를 이용한 이안류 탐지 방법 및 그 장치
CN115909192A (zh) 一种基于改进EfficientDet的行人检测方法
CN114972434A (zh) 一种级联检测和匹配的端到端多目标跟踪系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination