CN109377713B - 一种火灾预警方法及系统 - Google Patents
一种火灾预警方法及系统 Download PDFInfo
- Publication number
- CN109377713B CN109377713B CN201811125576.5A CN201811125576A CN109377713B CN 109377713 B CN109377713 B CN 109377713B CN 201811125576 A CN201811125576 A CN 201811125576A CN 109377713 B CN109377713 B CN 109377713B
- Authority
- CN
- China
- Prior art keywords
- video
- flame
- video frame
- video frames
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 22
- 238000003062 neural network model Methods 0.000 claims abstract description 22
- 238000004458 analytical method Methods 0.000 claims abstract description 19
- 235000009781 Myrtillocactus geometrizans Nutrition 0.000 claims description 27
- 240000009125 Myrtillocactus geometrizans Species 0.000 claims description 27
- 244000249914 Hemigraphis reptans Species 0.000 claims description 24
- 230000003321 amplification Effects 0.000 claims description 14
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 11
- 238000000354 decomposition reaction Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 24
- 230000004913 activation Effects 0.000 description 18
- 239000007787 solid Substances 0.000 description 10
- 230000004044 response Effects 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 6
- 239000000126 substance Substances 0.000 description 6
- 238000005457 optimization Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000010485 coping Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Image Analysis (AREA)
- Fire-Detection Mechanisms (AREA)
Abstract
本发明公开了一种火灾预警方法及系统。火灾预警方法包括:采集大于180度范围内的视频;利用动态捕捉方法对所述视频进行处理获得动态区域的视频帧;利用卷积神经网络将动态区域的视频帧进行分类;利用神经网络模型对分类后的火焰视频帧进行火焰动态属性分析,来确定是否发生火灾。本发明公开的火灾预警方法及系统,可以对视频采集装置所处环境的区域进行大角度监控,减少视频死角和遮挡区域,快速分析出火焰的类型以及火焰动态属性,为扑灭火灾提供详实的信息。
Description
技术领域
本发明属于计算机技术领域,特别涉及一种火灾预警方法及系统。
背景技术
目前,传统的对火灾进行预警的方法是采用普通网络摄像机传输视频到服务器端,服务器端截取帧,依据“基于颜色空间的火焰检测算法”和“火焰的动态分层特征”等算法对帧中的类火焰区域进行判断。例如,基于视频的火焰识别中,在颜色基础上分别通过BP算法分析火焰的边缘颜色分布、闪烁频率、面积变化率等特性。该装置有如下缺点:①该采集装置往往固定角度和位置,对视频的死角和遮挡区域的火灾无法预警。②对火势较小的火焰、对一些特殊物质或化学材料燃烧的蓝色火焰难以有效判断。③需要多个采集装置选取合适的区域固定,布置方式复杂,设备数量太多,导致管理维护困难,服务器端处理耗时。
发明内容
本发明所要解决的技术问题之一是覆盖采集装置所处场景,减少采集区域的死角和遮挡区域。
为了解决上述技术问题,本申请的实施例首先提供了一种火灾预警方法,其特征在于,包括:
采集大于180度范围内的视频;
利用动态捕捉方法对所述视频进行处理,获得该视频的动态区域的视频帧;
利用卷积神经网络将动态区域的视频帧进行分类;其中分类后的视频帧的类型包括非火焰视频帧、固定红色火焰视频帧和可燃气体蓝色火焰视频帧;
利用神经网络模型对分类后的视频帧进行火焰动态属性分析,来确定是否发生火灾。
根据本发明的实施例,当确定发生火灾后,发出警报。
根据本发明的实施例,利用动态捕捉方法对所述视频进行处理获得该视频的动态区域的视频帧,具体包括:
利用微小运动放大方法对所述视频的视频区域的动向进行检测,并利用三帧差分法提取动态区域的视频帧。
根据本发明的实施例,利用卷积神经网络将动态区域的视频帧进行分类,具体包括:
对动态区域的视频帧进行归一化处理;
利用卷积神经网络将归一化处理后的视频帧分类为非火焰视频帧、固定红色火焰视频帧和可燃气体蓝色火焰视频帧。
根据本发明的实施例,利用神经网络模型对分类后的视频帧进行火焰动态属性分析,来确定是否发生火灾,具体包括:
利用神经网络模型对固定红色火焰视频帧和可燃气体蓝色火焰视频帧进行参数分析,其中所述参数包括以下中的至少一种:火焰的闪烁频率、面积变化率、相邻火焰相似度、R通道灰度差分统计均值、灰度差分变异系数和RGB颜色渐变的标准差;
如果参数的输出值位于预定阈值区间时,确定发生火灾;
如果参数的输出值不位于预定阈值区间时,确定没有发生火灾。
本发明还提供一种火灾预警系统,其特征在于,包括:
全景摄像头,其配置为采集大于180度范围内的视频;
处理器,其配置为利用动态捕捉方法对所述视频进行处理获得该视频的动态区域的视频帧,利用卷积神经网络将动态区域的视频帧进行分类;其中分类后的视频帧的类型包括非火焰视频帧、固定红色火焰视频帧和可燃气体蓝色火焰视频帧;
服务器,其配置为利用神经网络模型对分类后的视频帧进行火焰动态属性分析,来确定是否发生火灾。
根据本发明的实施例,所述服务器配置为当确定发生火灾后,发出警报。
根据本发明的实施例,所述全景摄像头为鱼眼摄像头。
根据本发明的实施例,所述处理器配置为利用微小运动放大方法将所述视频的视频区域的动向进行检测,并利用三帧差分法提取动态区域的视频帧;对动态区域的视频帧进行归一化处理,利用卷积神经网络将归一化后的视频帧分类为非火焰、固定红色火焰和可燃气体蓝色火焰。
根据本发明的实施例,所述服务器配置为利用神经网络模型对固定红色火焰视频帧和可燃气体蓝色火焰视频帧进行参数分析,其中参数包括以下中的至少一种:火焰的闪烁频率、面积变化率、相邻火焰相似度、R通道灰度差分统计均值、灰度差分变异系数和RGB颜色渐变的标准差;如果参数的输出值位于预定阈值区间时,确定发生火灾;如果参数的输出值不位于预定阈值区间时,确定没有发生火灾。
与现有技术相比,上述方案中的一个或多个实施例可以具有如下优点或有益效果:
通过采集大于180度范围内的视频,可以对视频采集装置所处环境的区域进行大角度监控,减少视频死角和遮挡区域,通过利用动态捕捉方法对所述视频进行处理获得动态区域的视频帧,并进一步利用卷积神经网络将动态区域的视频帧进行分类,可应对不同的火焰预警场景,帮助用户根据火焰类型分别采取应急方案,利用神经网络模型对分类后的火焰视频帧进行火焰动态属性分析,来确定是否发生火灾,可以快速分析出火焰的类型以及火焰动态属性,为扑灭火灾提供详实的信息。
本发明的其他优点、目标,和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书,权利要求书,以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本申请的技术方案或现有技术的进一步理解,并且构成说明书的一部分。其中,表达本申请实施例的附图与本申请的实施例一起用于解释本申请的技术方案,但并不构成对本申请技术方案的限制。
图1是根据本发明一实施例的火灾预警方法的流程示意图;
图2是根据本发明一实施例的火灾预警系统的结构框图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达成相应技术效果的实现过程能充分理解并据以实施。本申请实施例以及实施例中的各个特征,在不相冲突前提下可以相互结合,所形成的技术方案均在本发明的保护范围之内。
一种火灾预警方法,包括:采集大于180度范围内的视频;利用动态捕捉方法对所述视频进行处理获得动态区域的视频帧;利用卷积神经网络将动态区域的视频帧进行分类;利用神经网络模型对分类后的火焰视频帧进行火焰动态属性分析,来确定是否发生火灾。
通过采集大于180度范围内的视频,可以对视频采集装置所处环境的区域进行大角度监控,减少视频死角和遮挡区域,通过利用动态捕捉方法对所述视频进行处理获得动态区域的视频帧,并进一步利用卷积神经网络将动态区域的视频帧进行分类,可应对不同的火焰预警场景,帮助用户根据火焰类型分别采取应急方案,利用神经网络模型对分类后的火焰视频帧进行火焰动态属性分析,来确定是否发生火灾,可以快速分析出火焰的类型以及火焰动态属性,为扑灭火灾提供详实的信息。
下面以两个具体的实施例对本发明作进一步说明。
如图1所示,为本发明实施例的一种火灾预警方法。其包括:
S1,采集大于180度范围内的视频;
例如,利用全景相机对全景相机所处环境进行24小时的无盲点监测,从而对火焰现象有很好的抓捕,对视频采集装置所处环境的区域进行大角度监控,减少视频死角和遮挡区域,另外,全景相机可以替代多个传统网络相机,有效减少在传统网络相机布控、视频处理方面的工作量。具体的,全景相机可以采用网络全景式摄像头(鱼眼模式)。
S2,利用动态捕捉方法对视频进行处理获得动态区域的视频帧;
具体的,利用微小运动放大方法将视频的视频区域的动向进行检测,并利用三帧差分法提取动态区域的视频帧。利用微小运动放大方法检测视频区域的动向,微小运动放大方法采用基于Y通道(基于YIQ颜色空间)的加速方法以及针对单频率和多频率的微小运动自动放大方法将微弱的运动变化放大到可以观察的幅度,进一步利用三帧差分法提取出候选区域,候选区域即动态区域,以对框出的动态区域做进一步火焰判别处理。
其中,微小运动自动放大技术主要通过频率估计和频率自动检测的方法设计合适的滤波器来实现的。一般通过以下步骤实现:将输入的视频帧从RGB色彩空间转化到YIQ色彩空间,保持I通道和Q通道不变,对Y通道进行拉普拉斯金字塔空域分解;将Y通道空域分解后得到的不同尺度的视频帧进行时域带通滤波并进行放大时域带通滤波后感兴趣的运动信息;对放大后的Y通道视频帧进行拉普拉斯金字塔重建;最后将重建的Y通道视频帧与原来的I、Q通道视频帧相加,并转化到RGB色彩空间。
其中,三帧差分法一般通过以下步骤实现:获取连续的第一张视频帧、第二张视频帧、第三张视频帧,并分别对其进行处理以获得第一张灰度图像、第二张灰度图像和第三张灰度图像;将第一张灰度图像和第二张灰度图像进行图像差分以获得第一差分图像,将第二张灰度图像和第三张灰度图像进行图像差分以获得第二差分图像;将第一差分图像进行域值分割、去噪声、开运算、闭运算和填充以得到第一二值图像,将第二差分图像进行域值分割、去噪声、开运算、闭运算和填充以得到第二二值图像;将第一二值图像和第二二值图像进行叠加得到二值图像,从而能够较好的检测出中间帧运动目标的形状轮廓。
S3,利用卷积神经网络将动态区域的视频帧进行分类;
利用卷积神经网络可以将动态区域的视频帧分类为固体火焰、可燃气体火焰和非火焰,进而根据不同的火焰预警场景进行应对,帮助用户根据火焰类型采取应急方案。
根据移动捕捉到的视频帧,将动态区域的视频帧进行归一化,并利用卷积神经网络对归一化后的视频帧分类为非火焰、固定红色火焰和可燃气体蓝色火焰。
利用卷积神经网络对归一化后的视频帧进行分类,具体依次包括:96个卷积核的第一卷积层(卷积核13*13、步长2、边缘扩充0、激活函数ReLUs、局部响应归一化层);第一最大池化层(过滤核5*5、步长2);256个卷积核的第二卷积层(卷积核3*3、步长2、边缘扩充2、激活函数ReLUs、局部响应归一化层);384个卷积核的第三卷积层(卷积核3*3、步长1、边缘扩充2、激活函数ReLUs、局部响应归一化层);第二最大池化层(过滤核3*3、步长2);384个卷积核的第四卷积层(卷积核3*3、步长1、边缘扩充1、激活函数ReLUs);256个卷积核的第五卷积层(卷积核3*3、步长1、边缘扩充1、激活函数ReLUs);96个卷积核的第六卷积层(卷积核3*3、步长1、边缘扩充1、激活函数ReLUs);第三最大池化层(过滤核3*3、步长2);第一全连接层(激活函数ReLUs、dropout处理);第二全连接层(激活函数ReLUs、dropout处理);将视频帧的固体红色火焰、可燃气体蓝色火焰和非火焰的距离经过softmax转换为属于固体红色火焰的概率、属于可燃气体蓝色火焰的概率、属于非火焰的概率,概率最大的类别即为结果。
如果判断结果为非火焰,则返回采集视频的步骤;如果判断结果为固体红色火焰或可燃气体蓝色火焰,则进一步对火焰视频帧进行火焰动态属性分析。
通过此步骤,可以对特殊物质或化学材料燃烧的蓝色火焰进行判断。
S4,利用神经网络模型对分类后的火焰视频帧进行火焰动态属性分析,来确定是否发生火灾。
当判断结果为固体红色火焰或可燃气体蓝色火焰时,备份预定时间(例如,1分钟)的视频到云端服务器,云端服务器利用神经网络模型对分类后的火焰视频帧进行火焰动态属性分析,确认为火灾后发出警报,还可以发送短信到相关人员以对火灾进行处理。
具体的,利用神经网络模型对固定红色火焰视频帧和可燃气体蓝色火焰视频帧进行参数分析,其中参数包括以下中的至少一种:火焰的闪烁频率、面积变化率、相邻火焰相似度、R通道灰度差分统计均值、灰度差分变异系数、RGB颜色渐变的标准差;
如果参数的输出值位于预定阈值区间时,确定发生火灾;
如果参数的输出值不位于预定阈值区间时,确定没有发生火灾。
例如,参数的输出值属于[0,0.5]之间则认为没有发生火灾,参数的输出值属于[0.5,1]则认为发生了火灾。当认为发生了火灾时,发送短信至相关人员并发出警报。当认为没有发生火灾时,返回采集视频的步骤。
其中,神经网络的参数可以是:输入层为4,隐藏层为40,激活函数为sigmod函数,损失函数为带L2正则化的均方误差,优化算法为梯度降算法、随机梯度下降算法、每次计算一小部分训练数据的损失函数、应用滑动平均模型,学习率为0.1,输出层大小为1,最后一层为softmax层。
其中,维护人员可以根据监控数据定期对云端服务器上的神经网络模型进行迭代,及时更新服务能力,并有很大的优化扩展空间。
如图2所示,为本发明实施例另一优选方案,一种火灾预警系统,其包括与处理器连接的全景摄像头和服务器。其中,处理器可以设置在全景摄像头内。
全景摄像头,其配置为采集大于180度范围内的视频。
例如,利用全景摄像头对全景摄像头所处环境进行24小时的无盲点监测,从而对火焰现象有很好的抓捕,对视频采集装置所处环境的区域进行大角度监控,减少视频死角和遮挡区域,另外,全景摄像头可以替代多个传统网络摄像头,有效减少在传统网络摄像头布控、视频处理方面的工作量。具体的,全景摄像头可以采用鱼眼摄像头。
处理器,其配置为利用动态捕捉方法对所述视频进行处理获得动态区域的视频帧,利用卷积神经网络将动态区域的视频帧进行分类。
具体的,利用微小运动放大方法将视频的视频区域的动向进行检测,并利用三帧差分法提取动态区域的视频帧。利用微小运动放大方法检测视频区域的动向,微小运动放大方法采用基于Y通道(基于YIQ颜色空间)的加速方法以及针对单频率和多频率的微小运动自动放大方法将微弱的运动变化放大到可以观察的幅度,进一步利用三帧差分法提取出候选区域,候选区域即动态区域,以对框出的动态区域做进一步火焰判别处理。
其中,微小运动自动放大技术主要通过频率估计和频率自动检测的方法设计合适的滤波器来实现的。一般通过以下步骤实现:将输入的视频帧从RGB色彩空间转化到YIQ色彩空间,保持I通道和Q通道不变,对Y通道进行拉普拉斯金字塔空域分解;将Y通道空域分解后得到的不同尺度的视频帧进行时域带通滤波并进行放大时域带通滤波后感兴趣的运动信息;对放大后的Y通道视频帧进行拉普拉斯金字塔重建;最后将重建的Y通道视频帧与原来的I、Q通道视频帧相加,并转化到RGB色彩空间。
其中,三帧差分法一般通过以下步骤实现:获取连续的第一张视频帧、第二张视频帧、第三张视频帧,并分别对其进行处理以获得第一张灰度图像、第二张灰度图像和第三张灰度图像;将第一张灰度图像和第二张灰度图像进行图像差分以获得第一差分图像,将第二张灰度图像和第三张灰度图像进行图像差分以获得第二差分图像;将第一差分图像进行域值分割、去噪声、开运算、闭运算和填充以得到第一二值图像,将第二差分图像进行域值分割、去噪声、开运算、闭运算和填充以得到第二二值图像;将第一二值图像和第二二值图像进行叠加得到二值图像,从而能够较好的检测出中间帧运动目标的形状轮廓。
利用卷积神经网络可以将动态区域的视频帧分类为固体火焰、可燃气体火焰和非火焰,进而根据不同的火焰预警场景进行应对,帮助用户根据火焰类型采取应急方案。
根据移动捕捉到的视频帧,将动态区域的视频帧进行归一化,并利用卷积神经网络对归一化后的视频帧分类为非火焰、固定红色火焰和可燃气体蓝色火焰。
利用卷积神经网络对归一化后的视频帧进行分类,具体依次包括:96个卷积核的第一卷积层(卷积核13*13、步长2、边缘扩充0、激活函数ReLUs、局部响应归一化层);第一最大池化层(过滤核5*5、步长2);256个卷积核的第二卷积层(卷积核3*3、步长2、边缘扩充2、激活函数ReLUs、局部响应归一化层);384个卷积核的第三卷积层(卷积核3*3、步长1、边缘扩充2、激活函数ReLUs、局部响应归一化层);第二最大池化层(过滤核3*3、步长2);384个卷积核的第四卷积层(卷积核3*3、步长1、边缘扩充1、激活函数ReLUs);256个卷积核的第五卷积层(卷积核3*3、步长1、边缘扩充1、激活函数ReLUs);96个卷积核的第六卷积层(卷积核3*3、步长1、边缘扩充1、激活函数ReLUs);第三最大池化层(过滤核3*3、步长2);第一全连接层(激活函数ReLUs、dropout处理);第二全连接层(激活函数ReLUs、dropout处理);将视频帧的固体红色火焰、可燃气体蓝色火焰和非火焰的距离经过softmax转换为属于固体红色火焰的概率、属于可燃气体蓝色火焰的概率、属于非火焰的概率,概率最大的类别即为结果。
如果判断结果为非火焰,则返回采集视频的步骤;如果判断结果为固体红色火焰或可燃气体蓝色火焰,则进一步对火焰视频帧进行火焰动态属性分析。
通过此步骤,可以对特殊物质或化学材料燃烧的蓝色火焰进行判断。
服务器,其配置为利用神经网络模型对分类后的火焰视频帧进行火焰动态属性分析,来确定是否发生火灾。
当判断结果为固体红色火焰或可燃气体蓝色火焰时,备份预定时间(例如,1分钟)的视频到云端服务器,云端服务器利用神经网络模型对分类后的火焰视频帧进行火焰动态属性分析,确认为火灾后发出警报,还可以发送短信到相关人员以对火灾进行处理。
具体的,利用神经网络模型对固定红色火焰视频帧和可燃气体蓝色火焰视频帧进行参数分析,其中参数包括以下中的至少一种:火焰的闪烁频率、面积变化率、相邻火焰相似度、R通道灰度差分统计均值、灰度差分变异系数、RGB颜色渐变的标准差;
如果参数的输出值位于预定阈值区间时,确定发生火灾;
如果参数的输出值不位于预定阈值区间时,确定没有发生火灾。
例如,参数的输出值属于[0,0.5]之间则认为没有发生火灾,参数的输出值属于[0.5,1]则认为发生了火灾。当认为发生了火灾时,发送短信至相关人员并发出警报。当认为没有发生火灾时,返回采集视频的步骤。
其中,神经网络的参数可以是:输入层为4,隐藏层为40,激活函数为sigmod函数,损失函数为带L2正则化的均方误差,优化算法为梯度降算法、随机梯度下降算法、每次计算一小部分训练数据的损失函数、应用滑动平均模型,学习率为0.1,输出层大小为1,最后一层为softmax层。
其中,维护人员可以根据监控数据定期对云端服务器上的神经网络模型进行迭代,及时更新服务能力,并有很大的优化扩展空间。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人员在本发明所揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (9)
1.一种火灾预警方法,其特征在于,包括:
采集大于180度范围内的视频;
利用动态捕捉方法对所述视频进行处理,获得该视频的动态区域的视频帧;
利用卷积神经网络将动态区域的视频帧进行分类;其中分类后的视频帧的类型包括非火焰视频帧、固定红色火焰视频帧和可燃气体蓝色火焰视频帧;
利用神经网络模型对分类后的视频帧进行火焰动态属性分析,来确定是否发生火灾;
其中,利用动态捕捉方法对所述视频进行处理获得该视频的动态区域的视频帧,具体包括:
利用微小运动放大方法对所述视频的视频区域的动向进行检测,并利用三帧差分法提取动态区域的视频帧;
利用微小运动放大方法对所述视频的视频区域的动向进行检测,具体包括:
将所述视频的视频帧从RGB色彩空间转化到YIQ色彩空间;保持I通道视频帧和Q通道视频帧不变,对Y通道视频帧进行拉普拉斯金字塔空域分解,以得到不同尺度的视频帧;将Y通道视频帧空域分解后得到的不同尺度的视频帧进行时域带通滤波,以得到感兴趣的运动信息,并对该感兴趣的运动信息进行放大;对放大后的Y通道视频帧进行拉普拉斯金字塔重建;将重建的Y通道视频帧与I通道视频帧和Q通道视频帧相加,并转化到RGB色彩空间,以实现对所述视频的视频区域的动向进行检测。
2.根据权利要求1所述的火灾预警方法,其特征在于,还包括:
当确定发生火灾后,发出警报。
3.根据权利要求1所述的火灾预警方法,其特征在于,利用卷积神经网络将动态区域的视频帧进行分类,具体包括:
对动态区域的视频帧进行归一化处理;
利用卷积神经网络将归一化处理后的视频帧分类为非火焰视频帧、固定红色火焰视频帧和可燃气体蓝色火焰视频帧。
4.根据权利要求3所述的火灾预警方法,其特征在于,利用神经网络模型对分类后的视频帧进行火焰动态属性分析,来确定是否发生火灾,具体包括:
利用神经网络模型对固定红色火焰视频帧和可燃气体蓝色火焰视频帧进行参数分析,其中所述参数包括以下中的至少一种:火焰的闪烁频率、面积变化率、相邻火焰相似度、R通道灰度差分统计均值、灰度差分变异系数和RGB颜色渐变的标准差;
如果参数的输出值位于预定阈值区间时,确定发生火灾;
如果参数的输出值不位于预定阈值区间时,确定没有发生火灾。
5.一种火灾预警系统,其特征在于,包括:
全景摄像头,其配置为采集大于180度范围内的视频;
处理器,其配置为利用动态捕捉方法对所述视频进行处理获得该视频的动态区域的视频帧,利用卷积神经网络将动态区域的视频帧进行分类;其中分类后的视频帧的类型包括非火焰视频帧、固定红色火焰视频帧和可燃气体蓝色火焰视频帧;
服务器,其配置为利用神经网络模型对分类后的视频帧进行火焰动态属性分析,来确定是否发生火灾;
其中,所述处理器配置为利用微小运动放大方法对所述视频的视频区域的动向进行检测,并利用三帧差分法提取动态区域的视频帧;
利用微小运动放大方法对所述视频的视频区域的动向进行检测,具体包括:
将所述视频的视频帧从RGB色彩空间转化到YIQ色彩空间;保持I通道视频帧和Q通道视频帧不变,对Y通道视频帧进行拉普拉斯金字塔空域分解,以得到不同尺度的视频帧;将Y通道视频帧空域分解后得到的不同尺度的视频帧进行时域带通滤波,以得到感兴趣的运动信息,并对该感兴趣的运动信息进行放大;对放大后的Y通道视频帧进行拉普拉斯金字塔重建;将重建的Y通道视频帧与I通道视频帧和Q通道视频帧相加,并转化到RGB色彩空间,以实现对所述视频的视频区域的动向进行检测。
6.根据权利要求5所述的火灾预警系统,其特征在于,所述服务器配置为当确定发生火灾后,发出警报。
7.根据权利要求5所述的火灾预警系统,其特征在于,所述全景摄像头为鱼眼摄像头。
8.根据权利要求5所述的火灾预警系统,其特征在于,所述处理器还配置为对动态区域的视频帧进行归一化处理,利用卷积神经网络将归一化后的视频帧分类为非火焰、固定红色火焰和可燃气体蓝色火焰。
9.根据权利要求8所述的火灾预警系统,其特征在于,所述服务器配置为利用神经网络模型对固定红色火焰视频帧和可燃气体蓝色火焰视频帧进行参数分析,其中参数包括以下中的至少一种:火焰的闪烁频率、面积变化率、相邻火焰相似度、R通道灰度差分统计均值、灰度差分变异系数和RGB颜色渐变的标准差;如果参数的输出值位于预定阈值区间时,确定发生火灾;如果参数的输出值不位于预定阈值区间时,确定没有发生火灾。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811125576.5A CN109377713B (zh) | 2018-09-26 | 2018-09-26 | 一种火灾预警方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811125576.5A CN109377713B (zh) | 2018-09-26 | 2018-09-26 | 一种火灾预警方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109377713A CN109377713A (zh) | 2019-02-22 |
CN109377713B true CN109377713B (zh) | 2021-03-16 |
Family
ID=65401960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811125576.5A Active CN109377713B (zh) | 2018-09-26 | 2018-09-26 | 一种火灾预警方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109377713B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032977A (zh) * | 2019-04-18 | 2019-07-19 | 北京华正明天信息技术股份有限公司 | 一种基于深度学习图像火灾识别的安全预警管理系统 |
CN110473379A (zh) * | 2019-07-10 | 2019-11-19 | 上海电机学院 | 一种电力设备消防安全实时监测系统及方法 |
CN111145275A (zh) * | 2019-12-30 | 2020-05-12 | 重庆市海普软件产业有限公司 | 一种智能化自控森林防火监控系统及方法 |
CN111476965B (zh) * | 2020-03-13 | 2021-08-03 | 深圳信息职业技术学院 | 火灾检测模型的构建方法、火灾检测方法及相关设备 |
CN112241681A (zh) * | 2020-09-15 | 2021-01-19 | 天津大学 | 基于三帧差分法和vgg-16的液体泄漏检测方法 |
CN113554364A (zh) * | 2021-09-23 | 2021-10-26 | 深圳市信润富联数字科技有限公司 | 灾害应急管理方法、装置、设备及计算机存储介质 |
CN114120208A (zh) * | 2022-01-27 | 2022-03-01 | 青岛海尔工业智能研究院有限公司 | 一种火焰检测方法、装置、设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102855634B (zh) * | 2011-06-28 | 2017-03-22 | 中兴通讯股份有限公司 | 一种图像检测方法及装置 |
CN103473788B (zh) * | 2013-07-31 | 2016-09-07 | 中国电子科技集团公司第三十八研究所 | 一种基于高清视频图像的室内火灾火焰检测方法 |
CN105336085A (zh) * | 2015-09-02 | 2016-02-17 | 华南师范大学 | 一种基于图像处理技术的远程大空间火灾监测报警方法 |
CN106934789A (zh) * | 2015-12-30 | 2017-07-07 | 航天信息股份有限公司 | 基于三帧差分法的包装动态检测方法及装置 |
CN105788142B (zh) * | 2016-05-11 | 2018-08-31 | 中国计量大学 | 一种基于视频图像处理的火灾检测系统及检测方法 |
CN106934404A (zh) * | 2017-03-10 | 2017-07-07 | 深圳市瀚晖威视科技有限公司 | 一种基于cnn卷积神经网络的图像火焰识别系统 |
-
2018
- 2018-09-26 CN CN201811125576.5A patent/CN109377713B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109377713A (zh) | 2019-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109377713B (zh) | 一种火灾预警方法及系统 | |
CN110135269B (zh) | 一种基于混合颜色模型与神经网络的火灾图像检测方法 | |
CN110428522B (zh) | 一种智慧新城的智能安防系统 | |
Appana et al. | A video-based smoke detection using smoke flow pattern and spatial-temporal energy analyses for alarm systems | |
CN112069975B (zh) | 一种基于紫外、红外、视觉的综合火焰检测方法 | |
Khalil et al. | Fire detection using multi color space and background modeling | |
CN111047818A (zh) | 一种基于视频图像的森林火灾预警系统 | |
CN111626188B (zh) | 一种室内不可控明火监测方法及系统 | |
US7859419B2 (en) | Smoke detecting method and device | |
CN101908142A (zh) | 一种基于特征分析的视频火焰检测方法 | |
CN106228709B (zh) | 一种智慧金睛识别单人加钞报警方法和装置 | |
EP2126788A1 (en) | System and method for video based fire detection | |
CN101316371B (zh) | 火焰侦测方法及装置 | |
EP2000952B1 (en) | Smoke detecting method and device | |
CN111476964A (zh) | 一种远程森林防火监控系统与方法 | |
CN109509190A (zh) | 视频监控图像筛选方法、装置、系统及存储介质 | |
CN113192038A (zh) | 基于深度学习的已有火焰环境中异常烟火识别监测方法 | |
CN114885119A (zh) | 一种基于计算机视觉的智能监控报警系统及方法 | |
CN116416281A (zh) | 一种粮库ai视频监管分析方法及系统 | |
CN116388379A (zh) | 一种变电站远程红外智能巡检方法及系统 | |
Purohit et al. | Multi-sensor surveillance system based on integrated video analytics | |
KR101581162B1 (ko) | 실시간 영상 기반의 화염, 연기 및 물체 움직임 자동 감지 방법, 장치 및 시스템 | |
Chanthiya et al. | Forest fire detection on LANDSAT images using support vector machine | |
JPWO2019146097A1 (ja) | 欠陥のある撮影データの検知装置及び検知システム | |
CN107704818A (zh) | 一种基于视频图像的火灾检测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |