CN114821423A - 基于改进yolov5的火灾检测方法 - Google Patents
基于改进yolov5的火灾检测方法 Download PDFInfo
- Publication number
- CN114821423A CN114821423A CN202210460452.2A CN202210460452A CN114821423A CN 114821423 A CN114821423 A CN 114821423A CN 202210460452 A CN202210460452 A CN 202210460452A CN 114821423 A CN114821423 A CN 114821423A
- Authority
- CN
- China
- Prior art keywords
- yolov5
- fire
- ciou
- improved
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及火灾检测技术领域,且公开了基于改进YOLOV5的火灾检测方法,包括火灾检测系统和改进后的YOLOv5目标检测算法,所述火灾检测系统包括监控部分、图像处理部分和报警部分组成,其中监控部分为摄像机监控,通过摄像机对所监控的区域实时监测,并将图像传输到图像处理部分,图像处理部分用于判断是否有火灾发生,报警部分为声音报警器,当确定发生火灾时,开始报警;本发明通过引入Involution算子提高算法的特征提取能力;通过引入CA模块更好的对火灾信息进行重点关注;通过替换CIoU函数,提高算法在复杂环境下的定位能力,实验结果表明,改进后的算法可以更好的对火灾进行监测。
Description
技术领域
本发明涉及火灾检测技术领域,具体为基于改进YOLOV5的火灾检测方法。
背景技术
在各种灾害中,火灾是最频繁发生的,同时,它也是最有可能给公众安全和社会发展带来危害。
因为,为达到提早发现火灾,降低火灾带来的损失的目的,许多学者使用深度学习来对火灾检测进行研究。何晨阳等通过对图像进行分割和特征提取,得到相应的特征信息,再采用BP神经网络对其进行分类,进而达到火灾识别的目的。李杰等提出将火灾图像转换成HIS格式,来凸显火灾的视觉特性,再通过改进的卷积神经网络来对火灾进行检测。张坚鑫等增加多尺度的特征融合来提高Resnet101模型的特征提取能力。
虽然目前在火灾识别方向取得了较好的成果,但传统卷积神经网络无法达到快速且准确的识别火灾。针对以上问题,本发明提出了一种改进YOLOv5 火灾检测算法,在保证检测速度的前提下,提高YOLOv5算法的检测精度。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了基于改进YOLOV5的火灾检测方法,解决了传统卷积神经网络无法达到快速且准确的识别火灾的问题。
(二)技术方案
为实现上述目的,本发明提供如下技术方案:基于改进YOLOV5的火灾检测方法,包括火灾检测系统和改进后的YOLOv5目标检测算法,所述火灾检测系统包括监控部分、图像处理部分和报警部分组成,其中监控部分为摄像机监控,通过摄像机对所监控的区域实时监测,并将图像传输到图像处理部分,图像处理部分用于判断是否有火灾发生,报警部分为声音报警器,当确定发生火灾时,开始报警;
YOLOv5目标检测算法由三个部分组成,第一部分为输入端,输入图片通过数据增强、自适应锚框计算以及自适应图片缩放,得到640*640大小的图片;第二部分为主干网络,其使用的是CSPDarknet53网络,通过Conv层和 C3层来对图像进行缩放和特征提取,从而获得更丰富的信息特征;第三部分为颈部,采用多尺度检测的方法,将特征金字塔网络结构(FPN)与自上而下的路径聚集网络结构(PAN)相结合,达到对20×20、40×40和80×80这三个不同尺度的特征图进行融合以及预测的目的;YOLOv5目标检测算法包括 Involution算子、CA注意力模块、改进后的边框回归损失函数和改进后的网络架构;
Involution算子:在传统的卷积操作中,由于感受野的大小限制,特征图无法获取空间上长距离关系,同时,在不同输出通道采用不同的卷积核会产生信息冗余,为此,使用一种可以提高获取特征提取的算子(Involution),该算子在不改变通道数的前提下,给特征图的空间上不同位置飞陪不同的权重,从而避免传统卷积操作的空间无关性,可以更好的对图像进行特征提取;该算子由两个部分组成,第一部分为生成卷积核,计算公式如下:
Hi,j=φ(xi,j)=w1σ(w0xi,j) (1)
式中,xi,j表示特征图位置为(i,j)的特征向量,w0和w1为1×1的卷积,目的是对特征图通道数进行缩放,σ是对特征图进行BN和rule操作;
通过φ变换,可以得到对应通道数的权重值,在进行重新排列,最终可以得到所需大小的卷积核,由于采用分组操作,此时获取的卷积核通道数为G,小于原特征图通道数,故要对其进行组内广播操作,从而最终获取大小为K ×K×C的卷积核;
第二部分为计算内卷积,将特征图上xi,j的点扩展到K×K大小,再与卷积核进行multiply-add操作,输出最终结果;
CA注意力模块:为了更好的使模型从大量信息中筛选出少量重要信息,使用一种将位置信息嵌入到通道注意力的坐标注意力机制(Coordinate,CA);
CA注意力模块由两个部分组成,第一部分为坐标信息嵌入,分别对特征图的高度和宽度两个方向进行全局平均池化,如公式(2)、(3)所示:
第二部分为坐标特征图生成,将池化后的特征图进行拼接后,通过1×1 的卷积降维,再将得到的特征图进行BN和sigmoid操作后,将特征图分为2 个单独的张量,经过sigmoid激活函数得到在宽度和高度上的注意力权重和通过i和j两个参数可以定位到输入图像的相应位置xc(i,j),最终得到输出特征图,如公式(4)所示:
改进后的边框回归损失函数:YOLOv5的损失函数是由三部分组成的,分别是分类损失、定位损失和置信度损失,总损失函数为三者和;在YOLOv5网络结构中,使用CIoU loss作为定位损失,CIoU将目标和边框之间的距离、重叠率、尺度以及惩罚项都考虑进去,使得目标框回归变得更加稳定,如公式(5)所示:
其中:
式中,IoU为预测框与真实框的交并比,ρ(b,bgt)为预测框与真实框的中心点的欧式距离,c为可以同时包含预测框和真实框的最小区域的对角线长度,α为权重系数,目的是使得损失函数向更大的重叠区域方向进行优化,v为横量预测框与真实框的高度和宽度的相似度;
为了提高模型的回归精度,在CIoU的基础上提出了一种新的IoU损失函数,即α-CIoU,如公式(9)所示,α-CIoU在CIoU的基础上引入幂运算,可以自适应的改变CIoU的各项参数大小;
α-CIoU Loss相较于CIoU Loss,可以更好的提高精度;
改进后的网络架构:为了更好的提高特征提取能力,准确的识别火灾,采用带有下采样的Involution算子,为避免下采样导致图片过小而导致信息丢失,只增加一层Involution算子,为了降低卷积操作给第一层拼接操作带来的信息冗余,将该算子放置于第二层Conv后,除此之外,为了可以进一步关注重点信息,在主干网络的第三个C3层后加图注意力机制模块,最终,特征图的检测尺度变为10×10、20×20和40×40这三个不同尺度。
优选的,所述YOLOv5目标检测算法选取运行速度最快、进度相对较高的 YOLOv5s作为网络模型,并对其进行改进和优化。
优选的,所述火灾检测系统中的图像处理部分即为改进后的YOLOv5目标检测算法。
(三)有益效果
本发明提供了基于改进YOLOV5的火灾检测方法,具备以下有益效果:
本发明通过引入Involution算子提高算法的特征提取能力;通过引入CA 模块更好的对火灾信息进行重点关注;通过替换CIoU函数,提高算法在复杂环境下的定位能力,实验结果表明,改进后的算法可以更好的对火灾进行监测。
附图说明
图1为本发明中火灾检测系统的工作流程示意图;
图2为本发明中YOLOv5算法结构示意图;
图3为本发明中Involution算子结构示意图;
图4为本发明中CA结构示意图;
图5为本发明中火灾部分数据集;
图6为本发明中实验结果对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种技术方案:基于改进YOLOV5的火灾检测方法,包括火灾检测系统(如图1所示)和改进后的YOLOv5目标检测算法,火灾检测系统包括监控部分、图像处理部分和报警部分组成,其中监控部分为摄像机监控,通过摄像机对所监控的区域实时监测,并将图像传输到图像处理部分,图像处理部分(改进后的YOLOv5目标检测算法)用于判断是否有火灾发生,报警部分为声音报警器,当确定发生火灾时,开始报警;
YOLOv5目标检测算法选取运行速度最快、进度相对较高的YOLOv5s作为网络模型,网络结构如图2所示,并对其进行改进和优化,YOLOv5目标检测算法由三个部分组成,第一部分为输入端,输入图片通过数据增强、自适应锚框计算以及自适应图片缩放,得到640*640大小的图片;第二部分为主干网络,其使用的是CSPDarknet53网络,通过Conv层和C3层来对图像进行缩放和特征提取,从而获得更丰富的信息特征;第三部分为颈部,采用多尺度检测的方法,将特征金字塔网络结构(FPN)与自上而下的路径聚集网络结构 (PAN)相结合,达到对20×20、40×40和80×80这三个不同尺度的特征图进行融合以及预测的目的;YOLOv5目标检测算法包括Involution算子、CA 注意力模块、改进后的边框回归损失函数和改进后的网络架构;
Involution算子(如图3所示):在传统的卷积操作中,由于感受野的大小限制,特征图无法获取空间上长距离关系,同时,在不同输出通道采用不同的卷积核会产生信息冗余,为此,使用一种可以提高获取特征提取的算子(Involution),该算子在不改变通道数的前提下,给特征图的空间上不同位置飞陪不同的权重,从而避免传统卷积操作的空间无关性,可以更好的对图像进行特征提取;该算子由两个部分组成,第一部分为生成卷积核,计算公式如下:
Hi,j=φ(xi,j)=w1σ(w0xi,j) (1)
式中,xi,j表示特征图位置为(i,j)的特征向量,w0和w1为1×1的卷积,目的是对特征图通道数进行缩放,σ是对特征图进行BN和rule操作;
通过φ变换,可以得到对应通道数的权重值,在进行重新排列,最终可以得到所需大小的卷积核,由于采用分组操作,此时获取的卷积核通道数为G,小于原特征图通道数,故要对其进行组内广播操作,从而最终获取大小为K ×K×C的卷积核;
第二部分为计算内卷积,将特征图上xi,j的点扩展到K×K大小,再与卷积核进行multiply-add操作,输出最终结果;
CA注意力模块(如图4所示):为了更好的使模型从大量信息中筛选出少量重要信息,使用一种将位置信息嵌入到通道注意力的坐标注意力机制 (Coordinate,CA);
CA注意力模块由两个部分组成,第一部分为坐标信息嵌入,分别对特征图的高度和宽度两个方向进行全局平均池化,如公式(2)、(3)所示:
第二部分为坐标特征图生成,将池化后的特征图进行拼接后,通过1×1 的卷积降维,再将得到的特征图进行BN和sigmoid操作后,将特征图分为2 个单独的张量,经过sigmoid激活函数得到在宽度和高度上的注意力权重和通过i和j两个参数可以定位到输入图像的相应位置xc(i,j),最终得到输出特征图,如公式(4)所示:
改进后的边框回归损失函数:YOLOv5的损失函数是由三部分组成的,分别是分类损失、定位损失和置信度损失,总损失函数为三者和;在YOLOv5网络结构中,使用CIoU loss作为定位损失,CIoU将目标和边框之间的距离、重叠率、尺度以及惩罚项都考虑进去,使得目标框回归变得更加稳定,如公式(5)所示:
其中:
式中,IoU为预测框与真实框的交并比,ρ(b,bgt)为预测框与真实框的中心点的欧式距离,c为可以同时包含预测框和真实框的最小区域的对角线长度,α为权重系数,目的是使得损失函数向更大的重叠区域方向进行优化,v为横量预测框与真实框的高度和宽度的相似度;
为了提高模型的回归精度,在CIoU的基础上提出了一种新的IoU损失函数,即α-CIoU,如公式(9)所示,α-CIoU在CIoU的基础上引入幂运算,可以自适应的改变CIoU的各项参数大小;
α-CIoU Loss相较于CIoU Loss,可以更好的提高精度;
改进后的网络架构(如表1所示):为了更好的提高特征提取能力,准确的识别火灾,采用带有下采样的Involution算子,为避免下采样导致图片过小而导致信息丢失,只增加一层Involution算子,为了降低卷积操作给第一层拼接操作带来的信息冗余,将该算子放置于第二层Conv后,除此之外,为了可以进一步关注重点信息,在主干网络的第三个C3层后加图注意力机制模块,最终,特征图的检测尺度变为10×10、20×20和40×40这三个不同尺度。
表1改进后CSPDarknet53网络结构
实验结果和分析
1、实验环境
处理器:Intel(R)Core(TM)i5-10300H CPU@2.5GHz,8G的运行内存,显卡为NVIDIAGEFORCE GTX 1650ti,操作系统为Windows10 64位,整个实验的学习框架为Pytorch 1.8,实验环境是Python 3.8,GPU加速软件为 CUDA10.2和CUDNN7.6。实验中batch size为8,epoch设置为300。
2、实验数据集
数据集来自开源的数据集(https://github.com/gengyanlei/fire-smok e-detect-yolov4),总共2059张火灾图像,如图5所示。将所得到的的数据集按照8∶2的比例划分为训练集和测试集,最终得到1647张训练集和41 2张测试集。
3、评测指标
为了验证改进后的YOLOv5算法性能,本文主要使用精确度(P)、召回率(R)、平均精度(AP)、平均精度均值(mAP和mAP@0.5∶0.95)作为性能评价指标,具体计算公式如下:
式中,TP指的是正样本预测出正样本数量,FP是负样本预测出正样本数量,FN是正样本预测出负样本数量。Precision指的是所有预测为正样本的结果中,预测正确的比率,Recall指的是所有偶正样本中被正确预测的比率,A P为P-R曲线的积分面积,表示训练出来的模型在当前类别的好坏,mAP则是指在所有类别上的好坏,mAP越大,网络性能越好。
4、消融实验
根据以上分析,在原YOLOv5的网络结构上依次进行改进,将改进后的网络模型进行训练和测试,消融实验结果如表2所示。
表2消融实验
实验序号 | Involution | CA | α-CIOU | Precision | Recall | mAP@0.5 | mAP@0.5:0.95 |
1 | × | × | × | 69.9% | 63.7% | 64.5% | 30% |
2 | √ | × | × | 74.5% | 63.9% | 65.6% | 33.2% |
3 | × | √ | × | 73.2% | 63.7% | 65.6% | 31.4% |
4 | × | × | √ | 65.8% | 64.6% | 66.4% | 32.4% |
5 | √ | √ | × | 73.4% | 68.2% | 70.3% | 34.6% |
6 | √ | √ | √ | 78.1% | 63.7% | 68.4% | 35.8% |
从实验结果可以看出,分别单独的加入三种改进方案都可以有效的提高网络性能。同时,在整个实验中,可以看出实验5对mAP@0.5效果最好,但考虑到mAP@0.5仅仅为IoU=0.5时对得到的数据,本文引入mAP@0.5:0.95参数进行综合评价,对比实验5和6可以看出,虽然相较于实验5,实验6在m AP@0.5数值有所下降,但当IoU大于0.5时,实验6的mAP@0.5:0.95的数值大于实验5的数值,表明实验6的预测框更加准确,可以更精确的定位到火灾点,故选择实验6为本文最终的改进方案。
为进一步体现实验5、实验6和YOLOv5s的检测区别,选择部分检测图像结构进行对比的火灾图像进行对比11,结果如图6所示。
从实验结果可以看出,在YOLOv5主干网络增加Involution算子和注意力机制后,不仅可以提高平均精度,同时,可以检测出YOLOv5漏检的火灾,在修改主干网络后替换定位损失函数,可以看出虽然目标检测的置信度有所下降,但定位框更加准确。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (3)
1.基于改进YOLOV5的火灾检测方法,包括火灾检测系统和改进后的YOLOv5目标检测算法,其特征在于:所述火灾检测系统包括监控部分、图像处理部分和报警部分组成,其中监控部分为摄像机监控,通过摄像机对所监控的区域实时监测,并将图像传输到图像处理部分,图像处理部分用于判断是否有火灾发生,报警部分为声音报警器,当确定发生火灾时,开始报警;
YOLOv5目标检测算法由三个部分组成,第一部分为输入端,输入图片通过数据增强、自适应锚框计算以及自适应图片缩放,得到640*640大小的图片;第二部分为主干网络,其使用的是CSPDarknet53网络,通过Conv层和C3层来对图像进行缩放和特征提取,从而获得更丰富的信息特征;第三部分为颈部,采用多尺度检测的方法,将特征金字塔网络结构(FPN)与自上而下的路径聚集网络结构(PAN)相结合,达到对20×20、40×40和80×80这三个不同尺度的特征图进行融合以及预测的目的;YOLOv5目标检测算法包括Involution算子、CA注意力模块、改进后的边框回归损失函数和改进后的网络架构;
Involution算子:在传统的卷积操作中,由于感受野的大小限制,特征图无法获取空间上长距离关系,同时,在不同输出通道采用不同的卷积核会产生信息冗余,为此,使用一种可以提高获取特征提取的算子(Involution),该算子在不改变通道数的前提下,给特征图的空间上不同位置飞陪不同的权重,从而避免传统卷积操作的空间无关性,可以更好的对图像进行特征提取;该算子由两个部分组成,第一部分为生成卷积核,计算公式如下:
Hi,j=φ(xi,j)=w1σ(w0xi,j) (1)
式中,xi,j表示特征图位置为(i,j)的特征向量,w0和w1为1×1的卷积,目的是对特征图通道数进行缩放,σ是对特征图进行BN和rule操作;
通过φ变换,可以得到对应通道数的权重值,在进行重新排列,最终可以得到所需大小的卷积核,由于采用分组操作,此时获取的卷积核通道数为G,小于原特征图通道数,故要对其进行组内广播操作,从而最终获取大小为K×K×C的卷积核;
第二部分为计算内卷积,将特征图上xi,j的点扩展到K×K大小,再与卷积核进行multiply-add操作,输出最终结果;
CA注意力模块:为了更好的使模型从大量信息中筛选出少量重要信息,使用一种将位置信息嵌入到通道注意力的坐标注意力机制(Coordinate,CA);
CA注意力模块由两个部分组成,第一部分为坐标信息嵌入,分别对特征图的高度和宽度两个方向进行全局平均池化,如公式(2)、(3)所示:
第二部分为坐标特征图生成,将池化后的特征图进行拼接后,通过1×1的卷积降维,再将得到的特征图进行BN和sigmoid操作后,将特征图分为2个单独的张量,经过sigmoid激活函数得到在宽度和高度上的注意力权重和通过i和j两个参数可以定位到输入图像的相应位置xc(i,j),最终得到输出特征图,如公式(4)所示:
改进后的边框回归损失函数:YOLOv5的损失函数是由三部分组成的,分别是分类损失、定位损失和置信度损失,总损失函数为三者和;在YOLOv5网络结构中,使用CIoU loss作为定位损失,CIoU将目标和边框之间的距离、重叠率、尺度以及惩罚项都考虑进去,使得目标框回归变得更加稳定,如公式(5)所示:
其中:
式中,IoU为预测框与真实框的交并比,ρ(b,bgt)为预测框与真实框的中心点的欧式距离,c为可以同时包含预测框和真实框的最小区域的对角线长度,α为权重系数,目的是使得损失函数向更大的重叠区域方向进行优化,v为横量预测框与真实框的高度和宽度的相似度;
为了提高模型的回归精度,在CIoU的基础上提出了一种新的IoU损失函数,即α-CIoU,如公式(9)所示,α-CIoU在CIoU的基础上引入幂运算,可以自适应的改变CIoU的各项参数大小;
α-CIoU Loss相较于CIoU Loss,可以更好的提高精度;
改进后的网络架构:为了更好的提高特征提取能力,准确的识别火灾,采用带有下采样的Involution算子,为避免下采样导致图片过小而导致信息丢失,只增加一层Involution算子,为了降低卷积操作给第一层拼接操作带来的信息冗余,将该算子放置于第二层Conv后,除此之外,为了可以进一步关注重点信息,在主干网络的第三个C3层后加图注意力机制模块,最终,特征图的检测尺度变为10×10、20×20和40×40这三个不同尺度。
2.根据权利要求1所述的基于改进YOLOV5的火灾检测方法,其特征在于:所述YOLOv5目标检测算法选取运行速度最快、进度相对较高的YOLOv5s作为网络模型,并对其进行改进和优化。
3.根据权利要求1所述的基于改进YOLOV5的火灾检测方法,其特征在于:所述火灾检测系统中的图像处理部分即为改进后的YOLOv5目标检测算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210460452.2A CN114821423A (zh) | 2022-04-24 | 2022-04-24 | 基于改进yolov5的火灾检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210460452.2A CN114821423A (zh) | 2022-04-24 | 2022-04-24 | 基于改进yolov5的火灾检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114821423A true CN114821423A (zh) | 2022-07-29 |
Family
ID=82508766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210460452.2A Withdrawn CN114821423A (zh) | 2022-04-24 | 2022-04-24 | 基于改进yolov5的火灾检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821423A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115457428A (zh) * | 2022-08-16 | 2022-12-09 | 应急管理部沈阳消防研究所 | 融入可调节坐标残差注意力的改进YOLOv5火灾检测方法及装置 |
CN115775236A (zh) * | 2022-11-24 | 2023-03-10 | 广东工业大学 | 基于多尺度特征融合的表面微小缺陷视觉检测方法及系统 |
CN116071656A (zh) * | 2023-03-06 | 2023-05-05 | 河北工业大学 | 地下变电站红外图像积水检测智能报警方法及系统 |
-
2022
- 2022-04-24 CN CN202210460452.2A patent/CN114821423A/zh not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115457428A (zh) * | 2022-08-16 | 2022-12-09 | 应急管理部沈阳消防研究所 | 融入可调节坐标残差注意力的改进YOLOv5火灾检测方法及装置 |
CN115775236A (zh) * | 2022-11-24 | 2023-03-10 | 广东工业大学 | 基于多尺度特征融合的表面微小缺陷视觉检测方法及系统 |
CN116071656A (zh) * | 2023-03-06 | 2023-05-05 | 河北工业大学 | 地下变电站红外图像积水检测智能报警方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401201B (zh) | 一种基于空间金字塔注意力驱动的航拍图像多尺度目标检测方法 | |
CN110598029B (zh) | 基于注意力转移机制的细粒度图像分类方法 | |
CN114821423A (zh) | 基于改进yolov5的火灾检测方法 | |
CN112507996B (zh) | 一种主样本注意力机制的人脸检测方法 | |
WO2018121690A1 (zh) | 对象属性检测、神经网络训练、区域检测方法和装置 | |
CN110647802A (zh) | 基于深度学习的遥感影像舰船目标检测方法 | |
CN109344851B (zh) | 图像分类显示方法和装置、分析仪器和存储介质 | |
US8948517B2 (en) | Landmark localization via visual search | |
CN115393634B (zh) | 一种基于迁移学习策略的少样本目标实时检测方法 | |
CN116524356A (zh) | 一种矿石图像小样本目标检测方法及系统 | |
CN111814846B (zh) | 属性识别模型的训练方法、识别方法及相关设备 | |
CN111539456B (zh) | 一种目标识别方法及设备 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN118097755A (zh) | 一种基于yolo网络的智慧人脸身份识别方法 | |
CN116863271A (zh) | 一种基于改进yolo v5的轻量级红外火焰检测方法 | |
Tiwari et al. | Detecting COVID-19 opacity in X-ray images using YOLO and RetinaNet ensemble | |
CN111539987A (zh) | 基于判别模型的遮挡检测系统及方法 | |
CN111582057B (zh) | 一种基于局部感受野的人脸验证方法 | |
CN113496260A (zh) | 基于改进YOLOv3算法的粮库人员不规范作业检测法 | |
CN114529759B (zh) | 一种甲状腺结节的分类方法、装置及计算机可读介质 | |
CN115424000A (zh) | 一种指针式仪表识别方法、系统、设备及存储介质 | |
CN112396648B (zh) | 一种可定位目标物质心的目标识别方法和系统 | |
Truong et al. | Detecting subject-weapon visual relationships | |
CN112990145B (zh) | 一种基于组稀疏年龄估计方法及电子设备 | |
CN116150038B (zh) | 基于神经元敏感性的白盒测试样本生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220729 |