CN111178275A - 一种基于卷积神经网络的火灾检测方法 - Google Patents
一种基于卷积神经网络的火灾检测方法 Download PDFInfo
- Publication number
- CN111178275A CN111178275A CN201911400304.6A CN201911400304A CN111178275A CN 111178275 A CN111178275 A CN 111178275A CN 201911400304 A CN201911400304 A CN 201911400304A CN 111178275 A CN111178275 A CN 111178275A
- Authority
- CN
- China
- Prior art keywords
- picture
- fire
- neural network
- convolutional neural
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 34
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 16
- 230000011218 segmentation Effects 0.000 claims abstract description 12
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 7
- 238000011478 gradient descent method Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 15
- 238000012544 monitoring process Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000036581 peripheral resistance Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的火灾检测方法,该方法构建卷积神经网络进行训练,卷积神经网络的输入为采集的火灾图片,输出为输入图片是否是火灾图片的概率值。该方法对输入的待预测图片进行验证是否为火灾图片,用超像素检测方式进行检测,对待预测图片进行超像素分割,对分割后的每个超像素区域内的像素点执行二分类检测,根据每个网格的检测结果,得到待预测图片上火灾的形状。相对于传统目标检测定位方法,本发明方法不需要具有标注的训练集就实现了目标定位,在准确度方面,火灾二分类检测在图片中具有最高93%的正确率并且复杂度较低。
Description
技术领域
本发明属于机器视觉应用领域,特别涉及一种基于卷积神经网络的图片、视频火灾检测技术
背景技术
火灾经常在各种场景中发生,及时检测出是否有火灾发生在实际生活中有重要应用价值。在视频监控、交通监测、公共安全、城市规划以及建设智能商超等方面有着广泛应用,如监控某个重要会场的安全情况确保会议顺利进行。
作为一种常用的公共安全防控手段,通过计算机视觉对场景图片和视频进行判断,目前大多采用基于大数据目标检测方法。以上检测方法,在面对场景复杂、数据较少、光照遮挡时都存在一定的局限性,无法保证检测的准确性和可靠性。我们采用分类的方法,不过多关注火灾的轮廓及位置,采用易获得的图片作为数据集进行训练并检测。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于卷积神经网络的人火灾检测方法。
本发明的目的是通过以下技术方案来实现的:一种基于卷积神经网络的人群密度及数量估计方法,该方法包括以下步骤:
(1)采集火灾场景图片,或从火灾视频素材中截取一部分图片,作为训练图像集。
(2)构建卷积神经网络,所述卷积神经网络包括卷积层、池化层、局部响应归一化层、两个卷积层、三个Inception模块、池化层、全连接层、Softmax激活函数层。
卷积神经网络的输入为步骤(1)中采集的图片,输出为输入图片是否是火灾图片的概率值。
(3)对构建好的神经网络进行训练,具体为:根据神经网络输出的图片的标签(图片中有无火灾)和真实标签one-hot向量计算交叉熵损失函数Loss,通过损失函数利用随机梯度下降的方法进行网络权重的调整,损失函数不再下降时训练结束,保存网络参数,得到训练好的卷积神经网络。
(4)输入待验证图片进行验证是否为火灾图片,测试方式为超像素检测模式。所述超像素检测模式为利用超像素(Super pixel)分割算法对图片进行初步区域划分,然后对划分好的每个超像素区域执行二分类检测算法,若有火灾则用红色框框选出每一个小像素块。
(5)将待预测图片输入到步骤(3)训练好的卷积神经网络中,得到待预测图片中是否有火灾的结果,根据步骤(4)对待预测图片进行超像素分割,分割数目可由超参数确定,所述超参数为1到50的整数,数值越大分割的区域越多;对分割后的每个超像素区域内的像素点执行二分类检测,根据每个网格的检测结果,得到待预测图片上火灾的形状。
进一步地,所述步骤(2)中,将步骤(1)得到的训练图像进行图像增强后输入卷积神经网络,图像增强操作包括:随机翻转、随机剪裁、随机改变明暗亮度等。
进一步地,所述步骤(3)中,所述损失函数为交叉熵损失函数,公式如下:
ytlog(yt|yp)=-(yt*log(yp)+(1-yt)log(1-yp))
其中,x为训练样本,y为对应的标签,y的取值为{0,1},样本的真实标签为yt,则该样本的yt=1的概率为yp。
本发明的有益效果是:本发明将回归的方法和深度学习相结合,搭建卷积神经网络来预测图片输入中是否有火灾发生。此外,在训练卷积神经网络过程中,通过损失函数利用随机梯度下降的方法指导网络权重的调整。同时可由超像素分割方法得出大致的火灾位置轮廓,以实现初步定位。
附图说明
图1是卷积神经网络训练流程图;
图2是自由分割区域图;
图3是自由分割区域定位。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细说明。
本发明通过搭建和训练卷积神经网络模型来预测是否有火灾,其关键在于搭建和训练一个高效的神经网络。首先,生成真实的密度图用于神经网络训练。其次,训练神经网络需要设计合理的损失函数,通过损失函数利用随机梯度下降的方法指导网络权重的调整。接下来,确定网络的评价指标,以反映模型的整体的有效性和鲁棒性。本发明采用的技术方案的主要步骤如下:
(1)通过摄像头采集火灾场景图片,或从火灾视频素材中截取一部分图片,作为训练图像集。通过摄像头及视频截图采集的数据不需要标注出具体的火灾形态位置,只提供标签信息既有无火灾即可。
(2)构建卷积神经网络,网络结构采用GoogLeNet Inception V1作为骨干网络并进行微调,InceptionV1是一种网络体系结构,几乎完全由单个重复初始模块元素组成,该模块元素由四个平行的计算线组成,每个线程包含不同的层,因此,不必在网络中的每个阶段在卷积滤波器参数之间进行选择,而是可以并行应用多个不同的滤波器并将它们的输出连接起来。不同大小的过滤器在分类某些输入时可能更好,因此通过并行应用多个过滤器,网络将更加健壮。四路并行计算由内核大小1×1、3×3和5×5的卷积以及3×3最大池化层组成。每个模块中包含1×1个卷积以减少尺寸用来确保输出数量不会逐级增加,这将大大降低训练速度。 InceptionV1架构标准设置有9个Inception模块(22层深度网络)对比AlexNet(8层)达到了更好的结果,同时通过模块化减少12倍的参数。在本发明方法中对网络做出修改,只保留三个重复的Inception模块,使得网络参数更少更轻量化。
本发明的卷积神经网络具体包括卷积层、池化层、局部响应归一化层、两个卷积层、三个Inception模块、池化层、全连接层、Softmax激活函数层。
卷积神经网络的输入为步骤(1)得到的训练图像进行图像增强的图像,图像增强操作包括:随机翻转、随机剪裁、随机改变明暗亮度等,输出为输入图片是否是火灾图片的概率值。
(3)对构建好的神经网络进行训练,具体为:根据神经网络输出的图片的标签和真实标签one-hot向量计算交叉熵损失函数Loss,通过损失函数利用随机梯度下降的方法进行网络权重的调整,损失函数不再下降时训练结束,保存网络参数,得到训练好的卷积神经网络。所述损失函数为交叉熵损失函数,公式如下:
ytlog(yt|yp)=-(yt*log(yp)+(1-yt)log(1-yp))
其中,x为训练样本,y为对应的标签,y的取值为{0,1},样本的真实标签为yt,则该样本的yt=1的概率为yp。
(4)输入待验证图片进行验证是否为火灾图片,测试方式为超像素检测模式。所述超像素检测模式为利用超像素(Super pixel)分割算法对图片进行初步区域划分,然后对划分好的每个超像素区域执行二分类检测算法,若有火灾则用红色框框选出每一个小像素块。
(5)将待预测图片输入到步骤(3)训练好的卷积神经网络中,得到待预测图片中是否有火灾的结果,根据步骤(4)对待预测图片进行超像素分割,分割数目可由超参数确定,所述超参数为1到50的整数,数值越大分割的区域越多;对分割后的每个超像素区域内的像素点执行二分类检测,若检测概率值趋向于0则认定为无火灾,若趋向于1则认定为有火灾,根据每个网格的检测结果,得到待预测图片上火灾的形状。
对模型进行评价:仅使用带有火灾的图片和正常图片作为70%训练集并划分30%测试集数据集。考虑真正类率(TPR)和负正类率(FPR)以及F-得分(F),精度(P)和准确度(A),对本发明的卷积神经网络进行评价,它们分别为0.96、0.10、0.94、0.94、0.93取得了非常不错的效果。
实施例
(1)从百度、谷歌等搜索引擎收集具有火灾场景和正常没有火灾场景的视频并截取成图片两种各7500张共15000张。
(2)把这些图片作为数据集输入到本发明构建的卷积神经网络模型进行训练。
(3)训练结束后,输入新的有火灾场景的视频作为测试,结果显示在火灾场景下基本都可以检测出来火灾的发生,并且超像素轮廓直观地描绘出了火焰的形状及位置,根据统计结果实验的真正类共有7223张TPR约为96.3%,实验表明所提出的方法具有很高的准确率及鲁棒性,很好地检测并描绘了火灾的大致形状。证明了方法的可行性。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明做出的任何修改和改变,都落入本发明的保护范围。
Claims (3)
1.一种基于卷积神经网络的火灾检测方法,其特征在于,包括以下步骤:
(1)采集火灾场景图片,或从火灾视频素材中截取一部分图片,作为训练图像集。
(2)构建卷积神经网络,所述卷积神经网络包括卷积层、池化层、局部响应归一化层、两个卷积层、三个Inception模块、池化层、全连接层、Softmax激活函数层。
卷积神经网络的输入为步骤(1)中采集的图片,输出为输入图片是否是火灾图片的概率值。
(3)对构建好的神经网络进行训练,具体为:根据神经网络输出的图片的标签(图片中有无火灾)和真实标签one-hot向量计算交叉熵损失函数Loss,通过损失函数利用随机梯度下降的方法进行网络权重的调整,损失函数不再下降时训练结束,保存网络参数,得到训练好的卷积神经网络。
(4)输入待验证图片进行验证是否为火灾图片,测试方式为超像素检测模式。所述超像素检测模式为利用超像素(Super pixel)分割算法对图片进行初步区域划分,然后对划分好的每个超像素区域执行二分类检测算法,若有火灾则用红色框框选出每一个小像素块。
(5)将待预测图片输入到步骤(3)训练好的卷积神经网络中,得到待预测图片中是否有火灾的结果,根据步骤(4)对待预测图片进行超像素分割,分割数目可由超参数确定,所述超参数为1到50的整数,数值越大分割的区域越多;对分割后的每个超像素区域内的像素点执行二分类检测,根据每个网格的检测结果,得到待预测图片上火灾的形状。
2.根据权利要求1所述的一种基于卷积神经网络的图片及视频火灾检测方法,其特征在于,所述步骤(2)中,将步骤(1)得到的训练图像进行图像增强后输入卷积神经网络,图像增强操作包括:随机翻转、随机剪裁、随机改变明暗亮度等。
3.根据权利要求1所述的一种基于卷积神经网络的图片及视频火灾检测方法,其特征在于,所述步骤(3)中,所述损失函数为交叉熵损失函数,公式如下:
ytlog(yt|yp)=-(yt*log(yp)+(1-yt)log(1-yp))
其中,x为训练样本,y为对应的标签,y的取值为{0,1},样本的真实标签为yt,则该样本的yt=1的概率为yp。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911400304.6A CN111178275A (zh) | 2019-12-30 | 2019-12-30 | 一种基于卷积神经网络的火灾检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911400304.6A CN111178275A (zh) | 2019-12-30 | 2019-12-30 | 一种基于卷积神经网络的火灾检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111178275A true CN111178275A (zh) | 2020-05-19 |
Family
ID=70652292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911400304.6A Pending CN111178275A (zh) | 2019-12-30 | 2019-12-30 | 一种基于卷积神经网络的火灾检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111178275A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112699963A (zh) * | 2021-01-13 | 2021-04-23 | 四川九通智路科技有限公司 | 一种火灾检测方法 |
CN113743378A (zh) * | 2021-11-03 | 2021-12-03 | 航天宏图信息技术股份有限公司 | 一种基于视频的火情监测方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056139A (zh) * | 2016-05-26 | 2016-10-26 | 东华大学 | 一种基于图像分割的森林火灾烟雾检测方法 |
CN108537215A (zh) * | 2018-03-23 | 2018-09-14 | 清华大学 | 一种基于图像目标检测的火焰检测方法 |
CN109147254A (zh) * | 2018-07-18 | 2019-01-04 | 武汉大学 | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 |
CN109815904A (zh) * | 2019-01-25 | 2019-05-28 | 吉林大学 | 一种基于卷积神经网络的火灾识别方法 |
CN110222644A (zh) * | 2019-06-10 | 2019-09-10 | 哈尔滨理工大学 | 基于图像分割的森林火灾烟雾检测方法 |
-
2019
- 2019-12-30 CN CN201911400304.6A patent/CN111178275A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056139A (zh) * | 2016-05-26 | 2016-10-26 | 东华大学 | 一种基于图像分割的森林火灾烟雾检测方法 |
CN108537215A (zh) * | 2018-03-23 | 2018-09-14 | 清华大学 | 一种基于图像目标检测的火焰检测方法 |
CN109147254A (zh) * | 2018-07-18 | 2019-01-04 | 武汉大学 | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 |
CN109815904A (zh) * | 2019-01-25 | 2019-05-28 | 吉林大学 | 一种基于卷积神经网络的火灾识别方法 |
CN110222644A (zh) * | 2019-06-10 | 2019-09-10 | 哈尔滨理工大学 | 基于图像分割的森林火灾烟雾检测方法 |
Non-Patent Citations (1)
Title |
---|
禹素萍等: "基于图像分割的森林火灾早期烟检测算法研究" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112699963A (zh) * | 2021-01-13 | 2021-04-23 | 四川九通智路科技有限公司 | 一种火灾检测方法 |
CN113743378A (zh) * | 2021-11-03 | 2021-12-03 | 航天宏图信息技术股份有限公司 | 一种基于视频的火情监测方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537215B (zh) | 一种基于图像目标检测的火焰检测方法 | |
CN110688925B (zh) | 基于深度学习的级联目标识别方法及系统 | |
CN109934805B (zh) | 一种基于低照度图像和神经网络的水污染检测方法 | |
CN108537824B (zh) | 基于交替反卷积与卷积的特征图增强的网络结构优化方法 | |
CN111126202A (zh) | 基于空洞特征金字塔网络的光学遥感图像目标检测方法 | |
CN111951212A (zh) | 对铁路的接触网图像进行缺陷识别的方法 | |
CN113052210A (zh) | 一种基于卷积神经网络的快速低光照目标检测方法 | |
CN115731164A (zh) | 基于改进YOLOv7的绝缘子缺陷检测方法 | |
CN111160249A (zh) | 基于跨尺度特征融合的光学遥感图像多类目标检测方法 | |
CN109492596B (zh) | 一种基于K-means聚类和区域推荐网络的行人检测方法及系统 | |
CN109903339B (zh) | 一种基于多维融合特征的视频群体人物定位检测方法 | |
CN113536972B (zh) | 一种基于目标域伪标签的自监督跨域人群计数方法 | |
CN107273870A (zh) | 一种监控场景下融合上下文信息的行人位置检测方法 | |
CN112818849B (zh) | 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN112861635A (zh) | 一种基于深度学习的火灾及烟雾实时检测方法 | |
CN115294473A (zh) | 一种基于目标检测与实例分割的绝缘子故障识别方法及系统 | |
CN111126278A (zh) | 针对少类别场景的目标检测模型优化与加速的方法 | |
CN112733815B (zh) | 一种基于rgb室外道路场景图像的红绿灯识别方法 | |
Zhang et al. | Application research of YOLO v2 combined with color identification | |
CN115761627A (zh) | 一种火灾烟雾火焰图像识别方法 | |
CN115239710A (zh) | 基于注意力反馈和双空间金字塔的绝缘子缺陷检测方法 | |
CN111540203B (zh) | 基于Faster-RCNN调节绿灯通行时间的方法 | |
CN113487610A (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN115984543A (zh) | 一种基于红外与可见光图像的目标检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200519 |
|
RJ01 | Rejection of invention patent application after publication |