CN111626188B - 一种室内不可控明火监测方法及系统 - Google Patents

一种室内不可控明火监测方法及系统 Download PDF

Info

Publication number
CN111626188B
CN111626188B CN202010454680.XA CN202010454680A CN111626188B CN 111626188 B CN111626188 B CN 111626188B CN 202010454680 A CN202010454680 A CN 202010454680A CN 111626188 B CN111626188 B CN 111626188B
Authority
CN
China
Prior art keywords
smoke
area
image
flame
fire
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010454680.XA
Other languages
English (en)
Other versions
CN111626188A (zh
Inventor
张�浩
祝模芮
彭文杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University
Original Assignee
Southwest University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University filed Critical Southwest University
Priority to CN202010454680.XA priority Critical patent/CN111626188B/zh
Publication of CN111626188A publication Critical patent/CN111626188A/zh
Application granted granted Critical
Publication of CN111626188B publication Critical patent/CN111626188B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种室内不可控明火监测方法及系统,该方法包括S1:采集待监测现场的视频数据;S2:对获取的视频图像进行预处理;S3:采用改进的CodeBook算法对预处理后的视频图像以像素区域进行前景运动目标检测;S4:根据获得运动前景分割后的区域分别进行基于火焰的颜色模型、基于烟雾的颜色模型识别,分割出疑似火焰区域和疑似烟雾区域;S5:基于权重判别器对分割出的疑似火焰区域和疑似烟雾区域分别进行权重判别,得到火焰区域与烟雾区域的权重之和大于等于阈值时,执行S6,否则返回S1;S6:基于红外通道进行检测;S7:基于图像的二维熵进行火灾烟雾运动状态捕捉,判定是否为不可控明火,并进行相应预警。

Description

一种室内不可控明火监测方法及系统
技术领域
本发明涉及实验室安全智能视频监控领域与计算机视觉技术领域,尤其涉及一种室内不可控明火监测方法及系统。
背景技术
高校实验室是实施创新人才培养、科学研究和社会服务的重要场所,是体现学校教学科研水平,展示学校现有技术的校办学实力的重要标志。随着我国对高等教育的投入不断加大,高校各类教学科研实验室无论从规模还是质量上都有了大幅提高,同时实验室安全管理工作也面临着更大的挑战和更高的要求。尽管目前我国高校实验室安全管理理念和制度建设越来越完善,但安全事故却仍时有发生。化学类实验室涉及较多高温、高压等极端实验条件和易燃易爆、高致毒化学品,出现的火灾、爆炸、灼伤等恶性事故最多。因此,化学类实验室安全事故仅靠制度约束、日常巡查、准入培训和常规的信息化手段是很难完全做到及时发现并实时处理。
目前实验室视频安全监控系统主要分成两类:1.以视频服务器为代表的传统视频安全监控系统;2.基于机器学习的智能视频安全监控系统。
传统视频安全监控系统以录制为主,事后用来取证;或者传输视频到各个监控点,以便于分析。整个过程基本依靠人工实现,导致大量的摄像视频无人监视,在规定期限无人查询会被自动删除;在连续不间断监控视频过程中,有用数据价值密度极低,导致传统的实验室安全视频监控漏检率高,人工成本高;同时,作为被动监控系统,无法提供预警功能,只能事后补救。
基于机器学习的智能视频监控系统能够以自动化的形式高效处理、分析和存储视频数据内容,将被动监控专为主动监控,大幅度提高监控效率,降低监控成本。目前,智能监控系统被广泛应用于工厂、住宅区、交通路况监测等场合,既可挖掘已发生的目标时间,也可对可能发生的火灾等恶性事件进行预警。然而,基于机器学习的智能视频安全监控所在区域场景多变,环境复杂。目前,应用于化学类实验室智能安全视频监控系统几乎不存在。在已发表文章和专利中,绝大多数智能实验室安全监控系统针对温度、湿度、烟雾、线路老化、实验室空气质量等客观因素进行监测,较少关注对实验室内的重大危险源、重点监测对象和不规范操作等危险因素,难以实现化学类实验室场景的安全防控需求。
针对现有的火灾监测报警系统及方法只能单独检测烟雾或火焰,且采用高斯背景减除法与深度学习模型提取运动目标的传统算法使得目前大多数的火灾检测系统占用较多的计算机CPU和内存,导致检测结果时滞较长,难以实现实时监测;且监测灵敏度与准确率均不高。
发明内容
本发明所要解决的技术问题是针对现有的火灾监测报警系统及方法只能单独检测烟雾或火焰,且采用高斯背景减除法与深度学习模型提取运动目标的传统算法使得目前大多数的火灾检测系统占用较多的计算机CPU和内存,导致检测结果时滞较长,难以实现实时监测,且监测灵敏度与准确率均不高的问题;本发明提供了解决上述问题的一种室内不可控明火监测方法及系统。
本发明通过下述技术方案实现:
一种室内不可控明火监测方法,该方法包括以下步骤:
S1:采集待监测现场的视频数据,获取待监测现场的原始RGB彩色视频帧;
S2:对步骤S1获取的视频图像进行预处理,去除图像的离散点;
S3:采用改进的CodeBook算法对步骤S2预处理后的视频图像以像素区域进行前景运动目标检测;
S4:根据步骤S3获得运动前景分割后的区域分别进行基于火焰的颜色模型、基于烟雾的颜色模型识别,分割出疑似火焰区域和疑似烟雾区域;
S5:基于权重判别器对步骤S4中分割出的疑似火焰区域和疑似烟雾区域分别进行权重判别,得到火焰区域的权重ω1、烟雾区域的权重ω2;根据设定的阈值I,当ω1+ω2大于等于I时,执行步骤S6,否则返回步骤S1;
S6:基于红外通道进行检测,当检测到疑似火焰区域和/或疑似烟雾区域的像素的平均值大于阈值Y时,执行步骤S7,否则返回步骤S1;
S7:基于图像的二维熵进行火灾烟雾运动状态捕捉,判定是否为不可控明火,若为不可控明火,则产生不可控明火报警信号;若为非不可控明火,则产生一般明火预警信号。
工作原理如下:
针对现有的火灾监测报警系统及方法只能单独检测烟雾或火焰,且采用高斯背景减除法与深度学习模型提取运动目标的传统算法使得目前大多数的火灾检测系统占用较多的计算机CPU和内存,导致检测结果时滞较长,难以实现实时监测,且监测灵敏度与准确率均不高的;
本发明在传统基于3通道(R、G、B)图像识别的前提下,本发明方法还结合使用了红外通道(I)与时间序列(T)动态分析的同时,将特征增广为5通道(R、G、B、I、T)监测,有效降低火灾预警的误报率;
考虑到采用高斯背景减除法与深度学习模型提取运动目标的传统方法使得目前大多数的火灾检测系统占用较多的计算机CPU和内存,导致检测结果时滞较长,难以实现实时监测,本发明方法为了提高计算效率,本算法将传统CodeBook算法中的处理对象由单个像素扩展至n*n的像素区域,并限制每一个码本(CodeBook,CB)的码字(CodeWord,CW)数量,CW的数量超过m(阈值)时,删除t时间内的静态CW,改进的运动目标提取算法在保持较高计算速率的同时,还能提高运动物体检测的准确率;
同时,传统的火灾监测方法只能单独检测烟雾或火焰,本方法同时检测烟雾与火焰:当权重判别器生成的火灾与烟雾的权重之和大于阈值时,本发明方法进行下一步检测,避免因噪点误报消耗不必要的计算资源,在降低误报率的同时,提高了鲁棒性;
另外,与传统的火灾检测方法相比,本发明方法使用分级报警管理,当在实验室内检测到可控的明火或烟雾时,进行火情报告;当明火呈现不可控火灾发展趋势时,进行火灾预警,避免因实验室内酒精灯加热等正常现象造成火灾误报。且本发明方法的监测准确率有所提高。
进一步地,步骤S2中,通过中值滤波算法对步骤S1获取的视频图像进行预处理,去除图像的离散点;包括:
在待监测现场的原始RGB彩色视频帧中,设定某n*n邻域中有n2个像素,将每个像素记为pij,表示第i行第j列的像素值,用y表示中值滤波的结果,表达式如下:
y=med{pij,0<i<n,0<j<n}
式中,med表示在集合中取中值。
进一步地,步骤S3中,采用改进的CodeBook算法对步骤S2预处理后的视频图像以像素区域进行前景运动目标检测;具体包括以下子步骤:
S31:选择一帧到多帧使用更新算法建立CodeBook背景模型;
S32:待检测像素区域存在超过CodeBook背景模型阈值目标则被判定为运动目标,同时更新CodeBook背景模型;具体地,当新的像素区域超过该码本CB中的任何一个码字CW阈值时,该像素区域会被判定为前景(即运动目标),并且CodeBook背景模型会将此新像素区域增加背景模型的该码本CB中的码字CW,生成新的CodeBook背景模型;
S33:间隔一定时间使用更新算法更新CodeBook背景模型,并对CodeBook模型进行时间滤波;该操作下只是剔除CodeBook背景模型中长时间不用的码字CW,将背景模型更新;
S34:若检测继续,转步骤S32,否则结束。
进一步地,所述改进的CodeBook算法具体包括:
在待监测现场的原始RGB彩色视频帧中,设定某m*m邻域中有m2个像素,将邻域中的像素等分成s*s块等大的矩形区域,边长为w*h,s<<m;
为每个矩形区域建立CodeBook结构,每个CodeBook又由多个CodeWord组成;CodeBook记作CB,CodeWord记作CW;
CB和CW的形式如下:
CB={CW1,CW2,…CWn,t};CW={lHigh,lLow,max,min,t_last,stale};
其中n为一个CB中所包含的CW的数目,当n太小时,退化为简单背景,当n较大时对复杂背景进行建模;t为CB更新的次数;CW是一个6元组,其中IHigh和ILow作为更新时的学习上下界,max和min记录当前区域的最大值和最小值;上次更新的时间t_last和陈旧时间stale(记录该CW多久未被访问)用来删除很少使用的CW;
假设当前训练图像I中某一区域为I(x,y),0<x<s;0<y<s,该区域内所有像素的平均值记为I(x,y)mean
Figure BDA0002508917230000041
该区域的CB的更新算法如下,另外记背景阈值的增长判定阈值为Bounds:
(1)CB的访问次数加1;
(2)遍历CB中的每个CW,如果存在一个CW中的IHigh,ILow满足ILow≤I(x,y)mean≤IHigh,则转(4);
(3)创建一个新的码字CWnew加入到CB中,CWnew的max与min都赋值为I(x,y)mean,,IHigh<-I(x,y)mean+Bounds,ILow<-I(x,y)mean–Bounds,并且转(6);
(4)更新该码字的t_last,若当前区域均值I(x,y)mean大于该码字的max,则max=I(x,y)mean(此处的=符号为赋值意思,后同),若I(x,y)mean小于该码字的min,则min=I(x,y)mean
(5)更新该码字的学习上下界,以增加背景模型对于复杂背景的适应能力,具体步骤是:若IHigh<I(x,y)mean+Bounds,则IHigh增长1,若ILow>I(x,y)mean-Bounds,则ILow减少1;
(6)更新CB中每个CW的stale;
使用已建立好的CB进行运动目标检测,记判断前景的范围上下界为minMod和maxMod,对于当前待检测图像上的某一区域I(x,y)mean,遍历它对应背景模型CB中的每一个码字CW,若存在一个CW,使得I(x,y)mean<max+maxMod并且I(x,y)mean>min–minMod,则I(x,y)mean被判断为背景,否则被判断为前景;
(7)隔H帧,对CB进行一个时间滤波,去除很少被访问到的CW,其方法是访问每个CW的stale,若stale大于设定阈值(通常设置为总更新次数的一半),移除该CW;
(8)当一个区域CB中,CW的数量超过一个阈值K时,将移除stale最大的CW。
进一步地,步骤S4中基于火焰的颜色模型如下:
Figure BDA0002508917230000042
其中R、G、B值即图片像素点在RGB色彩空间的值,S为HSI色彩空间的Saturation分量,代表了火焰颜色的饱和度特性;Ravg代表图像中R通道的均值,Sth与Rth分别是S和R分量的阈值;
满足上面不等式的像素点,将被判定为火焰区域。
进一步地,基于烟雾的颜色模型如下:
Figure BDA0002508917230000051
其中R、G、B值即图片像素点在RGB色彩空间的值,m表示RGB三通道的最大值,n表示RGB三通道的最小值,I表示HIS颜色空间的Illumination分量,Kmin与Kmax表示I分量的最大值,S即HSI色彩空间的Saturation分量;
满足上面不等式的像素点,将被判定为烟雾区域。
进一步地,步骤S5中采用浅层卷积神经网络作为权重的判别器。
进一步地,步骤S7中基于图像的二维熵进行火灾烟雾运动状态捕捉,其中图像的二维熵公式如下:
Figure BDA0002508917230000052
Figure BDA0002508917230000053
式中H表示图像的二维熵,W、H分别为疑似区域的宽、高,(i,j)为一个二元组,i表示某个滑动窗口内中心的灰度值,j为该窗口内除了中心像素的灰度均值;f(i,j)表示(i,j)这个二元组在整个区域中出现的次数,Pij表示这个二元组在整个区域中出现的概率。
另一方面,本发明还提供了一种室内不可控明火监测系统,包括:
图像采集单元,用于通过摄像头采集待监测现场的视频数据,获取待监测现场的原始RGB彩色视频帧;
图像预处理单元,用于对图像采集单元获取的视频图像进行预处理,去除图像的离散点;
运动目标检测单元,用于采用改进的CodeBook算法对图像预处理单元预处理后的视频图像以像素区域进行前景运动目标检测;
火焰、烟雾颜色模型识别单元,用于根据运动目标检测单元获得运动前景分割后的区域分别进行基于火焰的颜色模型、基于烟雾的颜色模型识别,分割出疑似火焰区域和疑似烟雾区域;
权重判别单元,用于基于权重判别器对火焰、烟雾颜色模型识别单元中分割出的疑似火焰区域和疑似烟雾区域分别进行权重判别,得到火焰区域的权重ω1、烟雾区域的权重ω2;并进行两者加和后与设定阈值进行比较;
红外检测单元,用于对权重判别单元中得出的大于设定阈值的火焰和烟雾区域进行红外检测;
不可控明火预判单元,用于基于图像的二维熵进行火灾烟雾运动状态捕捉,判定是否为不可控明火;
预警单元,用于根据是否为不可控明火进行相应的预警;若为不可控明火,则进行不可控明火报警;若为非不可控明火,则进行一般明火预警。
进一步地,还包括数据库,用于存储图像采集单元采集视频图像。
本发明与现有技术相比,具有如下的优点和有益效果:
1、本发明在传统基于3通道(R、G、B)图像识别的前提下,本发明方法还结合使用了红外通道(I)与时间序列(T)动态分析的同时,将特征增广为5通道(R、G、B、I、T)监测,有效降低火灾预警的误报率;
2、考虑到采用高斯背景减除法与深度学习模型提取运动目标的传统方法使得目前大多数的火灾检测系统占用较多的计算机CPU和内存,导致检测结果时滞较长,难以实现实时监测;本发明方法为了提高计算效率,本算法将传统CodeBook算法中的处理对象由单个像素扩展至n*n的像素区域,并限制每一个码本(CodeBook,CB)的码字(CodeWord,CW)数量,CW的数量超过m(阈值)时,删除t时间内的静态CW,改进的运动目标提取算法在保持较高计算速率的同时,还能提高运动物体检测的准确率;
3、基于传统的火灾监测方法只能单独检测烟雾或火焰,本发明方法同时检测烟雾与火焰:当权重判别器生成的火灾与烟雾的权重之和大于阈值时,本发明方法进行下一步检测,避免因噪点误报消耗不必要的计算资源,在降低误报率的同时,提高了鲁棒性;
4、与传统的火灾检测方法相比,本发明方法使用分级报警管理,当在实验室内检测到可控的明火或烟雾时,进行火情报告;当明火呈现不可控火灾发展趋势时,进行火灾预警,避免因实验室内酒精灯加热等正常现象造成火灾误报;且本发明方法的监测准确率有所提高。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。在附图中:
图1为本发明一种室内不可控明火监测方法流程图。
图2为本发明中值滤波去除离散型噪声点示意图。
图3为本发明中值滤波消除密集型噪声点示意图。
图4为原始彩色火焰图像与本发明CodeBook法处理后图像的比较图。
图5为本发明权重判别器的卷积神经网络结构示意图。
图6为本发明权重判别器的神经网络模型图。
图7为本发明烟雾识别干扰物体图像。
图8为本发明火焰颜色识别干扰物体图像。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
实施例1
如图1至图8所示,本发明一种室内不可控明火监测方法,该方法包括以下步骤:
S1:采集待监测现场的视频数据,获取待监测现场的原始RGB彩色视频帧;
S2:对步骤S1获取的视频图像进行预处理,去除图像的离散点;
S3:采用改进的CodeBook算法对步骤S2预处理后的视频图像以像素区域进行前景运动目标检测;
S4:根据步骤S3获得运动前景分割后的区域分别进行基于火焰的颜色模型、基于烟雾的颜色模型识别,分割出疑似火焰区域和疑似烟雾区域;
S5:基于权重判别器对步骤S4中分割出的疑似火焰区域和疑似烟雾区域分别进行权重判别,得到火焰区域的权重ω1、烟雾区域的权重ω2;根据设定的阈值I,当ω1+ω2大于等于I时,执行步骤S6,否则返回步骤S1;
S6:基于红外通道进行检测,当检测到疑似火焰区域和/或疑似烟雾区域的像素的平均值大于阈值Y时,执行步骤S7,否则返回步骤S1;
S7:基于图像的二维熵进行火灾烟雾运动状态捕捉,判定是否为不可控明火,若为不可控明火,则产生不可控明火报警信号;若为非不可控明火,则产生一般明火预警信号。
进一步地,步骤S2中,通过中值滤波算法对步骤S1获取的视频图像进行预处理,去除图像的离散点;中值滤波其核心原理是通过对邻域内的像素进行排序并取中值来作为中心像素。用数学语言描述如下:
在待监测现场的原始RGB彩色视频帧中,设定某n*n邻域中有n2个像素,将每个像素记为pij,表示第i行第j列的像素值,用y表示中值滤波的结果,表达式如下:
y=med{pij,0<i<n,0<j<n}
式中,med表示在集合中取中值。
图像处理技术中的简单平滑和高斯平滑方法,都是将图像的噪声点分配到其邻域中的每个像素,以此来降低噪声点的影响,这样就意味着图像的清晰度必然会受到损失。而本发明中采用中值滤波在少量离散噪声点的消除方面具有非常显著的效果,它对于孤立像素的属性并不非常关注,而是认为图像中的每个像素都跟邻域内的其他像素有着密切的关系,对于每一个邻域,算法都会在采样得到的若干个像素中选择一个中间像素值来作为中心像素灰度,这样就有效避免了离散型噪声点的影响。
如图2所示,图2为中值滤波算法去除离散型噪声点,图3为中值滤波消除密集型噪声点。
进一步地,步骤S3中,采用改进的CodeBook算法对步骤S2预处理后的视频图像以像素区域进行前景运动目标检测;具体包括以下子步骤:
S31:选择一帧到多帧使用更新算法建立CodeBook背景模型;
S32:待检测像素区域存在超过CodeBook背景模型阈值目标则被判定为运动目标,同时更新CodeBook背景模型;具体地,当新的像素区域超过该码本CB中的任何一个码字CW阈值时,该像素区域会被判定为前景(即运动目标),并且CodeBook背景模型会将此新像素区域增加背景模型的该码本CB中的码字CW,生成新的CodeBook背景模型;
S33:间隔一定时间使用更新算法更新CodeBook背景模型,并对CodeBook模型进行时间滤波;该操作下只是剔除CodeBook背景模型中长时间不用的码字CW,将背景模型更新;
S34:若检测继续,转步骤S32,否则结束。
进一步地,所述改进的CodeBook算法具体包括:
在待监测现场的原始RGB彩色视频帧中,设定某m*m邻域中有m2个像素,将邻域中的像素等分成s*s块等大的矩形区域,边长为w*h,s<<m;
为每个矩形区域建立CodeBook结构,每个CodeBook又由多个CodeWord组成;CodeBook记作CB,CodeWord记作CW;
CB和CW的形式如下:
CB={CW1,CW2,…CWn,t};CW={lHigh,lLow,max,min,t_last,stale};
其中n为一个CB中所包含的CW的数目,当n太小时,退化为简单背景,当n较大时对复杂背景进行建模;t为CB更新的次数;CW是一个6元组,其中IHigh和ILow作为更新时的学习上下界,max和min记录当前区域的最大值和最小值;上次更新的时间t_last和陈旧时间stale(记录该CW多久未被访问)用来删除很少使用的CW;
假设当前训练图像I中某一区域为I(x,y),0<x<s;0<y<s,该区域内所有像素的平均值记为I(x,y)mean
Figure BDA0002508917230000091
该区域的CB的更新算法如下,另外记背景阈值的增长判定阈值为Bounds:
(1)CB的访问次数加1;
(2)遍历CB中的每个CW,如果存在一个CW中的IHigh,ILow满足ILow≤I(x,y)mean≤IHigh,则转(4);
(3)创建一个新的码字CWnew加入到CB中,CWnew的max与min都赋值为I(x,y)mean,,IHigh<-I(x,y)mean+Bounds,ILow<-I(x,y)mean–Bounds,并且转(6);
(4)更新该码字的t_last,若当前区域均值I(x,y)mean大于该码字的max,则max=I(x,y)mean(此处的=符号为赋值意思,后同),若I(x,y)mean小于该码字的min,则min=I(x,y)mean
(5)更新该码字的学习上下界,以增加背景模型对于复杂背景的适应能力,具体步骤是:若IHigh<I(x,y)mean+Bounds,则IHigh增长1,若ILow>I(x,y)mean-Bounds,则ILow减少1;
(6)更新CB中每个CW的stale;
使用已建立好的CB进行运动目标检测,记判断前景的范围上下界为minMod和maxMod,对于当前待检测图像上的某一区域I(x,y)mean,遍历它对应背景模型CB中的每一个码字CW,若存在一个CW,使得I(x,y)mean<max+maxMod并且I(x,y)mean>min–minMod,则I(x,y)mean被判断为背景,否则被判断为前景;
(7)隔H帧,对CB进行一个时间滤波,去除很少被访问到的CW,其方法是访问每个CW的stale,若stale大于设定阈值(通常设置为总更新次数的一半),移除该CW;
(8)当一个区域CB中,CW的数量超过一个阈值K时,将移除stale最大的CW。
进一步地,将步骤S3中得到的运动前景分割后的区域分别作为基于火焰的颜色模型识别与基于烟雾的颜色模型识别,将分割后的疑似火焰区域作为步骤S5中火焰判别器模型的输入,分割后的疑似烟雾区域作为步骤S5中中烟雾判别器模型的输入,剩余的干扰物体区域作为图像保存下来用于步骤S5训练模型。
基于火焰的颜色模型识别:基于RGB与HIS颜色空间。
不同的燃烧物燃烧的火焰颜色不尽相同,光照变化也会对火焰颜色产生影响,因此需要建立能够包含各种火焰颜色的阈值模型。火焰一般较为明亮,且具有偏红、偏黄的颜色特征,因此根据人眼对颜色描述的方法,结合摄像机硬件对颜色描述的表达方式,本发明使用的火焰的颜色模型结合了RGB与HSI颜色空间对火焰进行描述。
步骤S4中基于火焰的颜色模型如下:
Figure BDA0002508917230000101
其中R、G、B值即图片像素点在RGB色彩空间的值,S为HSI色彩空间的Saturation分量,代表了火焰颜色的饱和度特性;Ravg代表图像中R通道的均值,Sth与Rth分别是S和R分量的阈值;在本实施例中,Sth取0.4,Rth取115。
满足上面不等式的像素点,将被判定为火焰区域。
进一步地,基于烟雾的颜色模型识别:RGB与HIS颜色空间。
根据烟雾偏灰的特性,进行烟雾颜色检测时的一个重要判据即其RGB三通道颜色较为接近。像素点的HSI颜色空间的I分量与S分量能够实现对像素点灰色程度的筛选。基于烟雾的颜色模型如下:
Figure BDA0002508917230000102
其中R、G、B值即图片像素点在RGB色彩空间的值,m表示RGB三通道的最大值,n表示RGB三通道的最小值,I表示HIS颜色空间的Illumination分量,Kmin与Kmax表示I分量的最大值,S即HSI色彩空间的Saturation分量;经过实验,a值取50,(Kmin,Kmax)的值取(80,150)与(190,255)两个取值范围,能够实现对灰色烟雾与白色烟雾区域的提取。在对视频进行了运动检测后,使用烟雾颜色阈值模型进行目标提取,能够获得运动前景中具有烟雾颜色的区域。
满足上面不等式的像素点,将被判定为烟雾区域。
另外,运动区域剩余的部分被系统识别为干扰部分。
进一步地,步骤S5中采用浅层卷积神经网络作为权重的判别器。
为保证对分割后的火焰与烟雾区域有一个多特征的判断,减少误报率,使用两个不同的训练完成的浅层卷积神经网络对火焰与烟雾区域进行不同的测试,将输出值设置为0-1之间(即为输出权重ω),将ω1与ω2相加,与提前设定好的阈值I比较,当两个权重之和大于I时,执行步骤S6,否则返回步骤S1;
本发明采用与下图类似的权重判别器,将输出设置为两个通道,采用softmax公式处理,输出为概率(0-1之间),即可得到其中识别出火焰(烟雾)的通道的概率(权重)。
Softmax公式为:
Figure BDA0002508917230000111
烟雾判别器的训练:从网站上合法获取相应的烟雾数据集和干扰物体图像(如图5所示)并利用前面所使用的颜色空间分割模型得到疑似烟雾区域,人为进行标记后,作为烟雾数据集进行训练,训练图像共分两类,一类为1(真实烟雾),一类为0(干扰物体)。
目前,常用烟雾检测数据库主要有四个,包括土耳其比尔肯大学的Toreyin等教授和意大利摩德纳大学的Simone Calderara等教授研究烟雾检测所用到的视频源,韩国启明大学CVPR实验室以及袁非牛教授实验室的视频源。数据库的具体数据由表1给出。
表1公开的烟雾检测数据库
数据库 视频个数 视频描述
韩国启明大学CVPR-Lab 16 6段烟雾,10段非烟雾
土耳其比尔肯大学 20 室内和室外烟雾
意大利摩德纳大学 14 室外烟雾视频
袁非牛实验室 19 11段烟雾,8段非烟雾
火焰判别器的训练:从网站上合法爬取362张关于火灾的图片,以及网站上爬取的300张干扰物体图片(如下图8所示)。作为并利用火焰颜色空间分割模型分割出疑似火焰区域,人为筛选后并将其用来作为数据集进行训练,训练图像共分两类,一类为1(真实火焰),一类为0(干扰物体)。
进一步地,步骤S7中基于图像的二维熵进行火灾烟雾运动状态捕捉;
烟雾运动是一种典型的自由扩散流体运动,它与平时空间内的干扰运动(例如人的活动)区别很大。人的活动可以用平移,旋转等简单的动作复合模拟出来,而烟雾运动则很难模拟出来。原因是烟雾的扩散是一种典型的熵增运动,而简单的刚体运动则近似认为是等熵运动。通过计算不同帧的疑似区域的熵值变化情况,我们可以将人等物体运动的干扰再一次降低。
其中图像的二维熵公式如下:
Figure BDA0002508917230000112
Figure BDA0002508917230000113
式中H表示图像的二维熵,W、H分别为疑似区域的宽、高,(i,j)为一个二元组,i表示某个滑动窗口内中心的灰度值,j为该窗口内除了中心像素的灰度均值;f(i,j)表示(i,j)这个二元组在整个区域中出现的次数,Pij表示这个二元组在整个区域中出现的概率。二维熵可以在图像所包含信息量的前提下,突出反映区域中像素位置的灰度信息和像素邻域内灰度分布的综合特征。
施行方法:将步骤S5传输过来的疑似烟雾区域作为输入,带入二维熵公式进行计算,计算得到的结果Ht,进入步骤S7。
将计算得到的结果Ht与上一帧的图像计算得出的Ht-1相比较,当Ht-Ht-1>阈值M时,判定为不可控火灾,否则为可控火灾。
工作原理如下:
针对现有的火灾监测报警系统及方法只能单独检测烟雾或火焰,且采用高斯背景减除法与深度学习模型提取运动目标的传统算法使得目前大多数的火灾检测系统占用较多的计算机CPU和内存,导致检测结果时滞较长,难以实现实时监测,且监测灵敏度与准确率均不高的;
本发明在传统基于3通道(R、G、B)图像识别的前提下,本发明方法还结合使用了红外通道(I)与时间序列(T)动态分析的同时,将特征增广为5通道(R、G、B、I、T)监测,有效降低火灾预警的误报率;
考虑到采用高斯背景减除法与深度学习模型提取运动目标的传统方法使得目前大多数的火灾检测系统占用较多的计算机CPU和内存,导致检测结果时滞较长,难以实现实时监测,本发明方法为了提高计算效率,本算法将传统CodeBook算法中的处理对象由单个像素扩展至n*n的像素区域,并限制每一个码本(CodeBook,CB)的码字(CodeWord,CW)数量,CW的数量超过m(阈值)时,删除t时间内的静态CW,改进的运动目标提取算法在保持较高计算速率的同时,还能提高运动物体检测的准确率;
同时,传统的火灾监测方法只能单独检测烟雾或火焰,本方法同时检测烟雾与火焰:当权重判别器生成的火灾与烟雾的权重之和大于阈值时,本发明方法进行下一步检测,避免因噪点误报消耗不必要的计算资源,在降低误报率的同时,提高了鲁棒性;
另外,与传统的火灾检测方法相比,本发明方法使用分级报警管理,当在实验室内检测到可控的明火或烟雾时,进行火情报告;当明火呈现不可控火灾发展趋势时,进行火灾预警,避免因实验室内酒精灯加热等正常现象造成火灾误报。且本发明方法的监测准确率有所提高。
实施例2
如图2所示,本实施例与实施例1的区别在于,该系统支持实施例1的一种室内不可控明火监测方法,该系统包括:
图像采集单元,用于通过摄像头采集待监测现场的视频数据,获取待监测现场的原始RGB彩色视频帧;
图像预处理单元,用于对图像采集单元获取的视频图像进行预处理,去除图像的离散点;
运动目标检测单元,用于采用改进的CodeBook算法对图像预处理单元预处理后的视频图像以像素区域进行前景运动目标检测;
火焰、烟雾颜色模型识别单元,用于根据运动目标检测单元获得运动前景分割后的区域分别进行基于火焰的颜色模型、基于烟雾的颜色模型识别,分割出疑似火焰区域和疑似烟雾区域;
权重判别单元,用于基于权重判别器对火焰、烟雾颜色模型识别单元中分割出的疑似火焰区域和疑似烟雾区域分别进行权重判别,得到火焰区域的权重ω1、烟雾区域的权重ω2;并进行两者加和后与设定阈值进行比较;
红外检测单元,用于对权重判别单元中得出的大于设定阈值的火焰和烟雾区域进行红外检测;
不可控明火预判单元,用于基于图像的二维熵进行火灾烟雾运动状态捕捉,判定是否为不可控明火;
预警单元,用于根据是否为不可控明火进行相应的预警;若为不可控明火,则进行不可控明火报警;若为非不可控明火,则进行一般明火预警。
还包括数据库,用于存储图像采集单元采集视频图像。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种室内不可控明火监测方法,其特征在于,该方法包括以下步骤:
S1:采集待监测现场的视频数据,获取待监测现场的原始RGB彩色视频帧;
S2:对步骤S1获取的视频图像进行预处理,去除图像的离散点;
S3:采用改进的CodeBook算法对步骤S2预处理后的视频图像以像素区域进行前景运动目标检测;
S4:根据步骤S3获得运动前景分割后的区域分别进行基于火焰的颜色模型、基于烟雾的颜色模型识别,分割出疑似火焰区域和疑似烟雾区域;
S5:基于权重判别器对步骤S4中分割出的疑似火焰区域和疑似烟雾区域分别进行权重判别,得到火焰区域的权重ω1、烟雾区域的权重ω2;根据设定的阈值I,当ω1+ω2大于等于I时,执行步骤S6,否则返回步骤S1;
S6:基于红外通道进行检测,当检测到疑似火焰区域和/或疑似烟雾区域的像素的平均值大于阈值Y时,执行步骤S7,否则返回步骤S1;
S7:基于图像的二维熵进行火灾烟雾运动状态捕捉,判定是否为不可控明火,若为不可控明火,则产生不可控明火报警信号;若为非不可控明火,则产生一般明火预警信号;
所述改进的CodeBook算法具体包括:
在待监测现场的原始RGB彩色视频帧中,设定某m*m邻域中有m2个像素,将邻域中的像素等分成s*s块等大的矩形区域,s<<m;
为每个矩形区域建立CodeBook结构,每个CodeBook又由多个CodeWord组成;CodeBook记作CB,CodeWord记作CW;
CB和CW的形式如下:
CB={CW1,CW2,…CWn,t};CW={lHigh,lLow,max,min,t_last,stale};
其中n为一个CB中所包含的CW的数目,当n太小时,退化为简单背景,当n较大时对复杂背景进行建模;t为CB更新的次数;CW是一个6元组,其中IHigh和ILow作为更新时的学习上下界,max和min记录当前区域的最大值和最小值;上次更新的时间t_last和陈旧时间stale用来删除很少使用的CW;
假设当前训练图像I中某一区域为I(x,y),0<x<s;0<y<s,该区域内所有像素的平均值记为I(x,y)mean;该区域的CB的更新算法如下,另外记背景阈值的增长判定阈值为Bounds:
(1)CB的访问次数加1;
(2)遍历CB中的每个CW,如果存在一个CW中的IHigh,ILow满足ILow≤I(x,y)mean≤IHigh,则转(4);
(3)创建一个新的码字CWnew加入到CB中,CWnew的max与min都赋值为I(x,y)mean,IHigh<-I(x,y)mean+Bounds,ILow<-I(x,y)mean–Bounds,并且转(6);
(4)更新该码字的t_last,若当前区域均值I(x,y)mean大于该码字的max,则max=I(x,y)mean,若I(x,y)mean小于该码字的min,则min=I(x,y)mean
(5)更新该码字的学习上下界,以增加背景模型对于复杂背景的适应能力,具体步骤是:若IHigh<I(x,y)mean+Bounds,则IHigh增长1,若ILow>I(x,y)mean-Bounds,则ILow减少1;
(6)更新CB中每个CW的stale;
使用已建立好的CB进行运动目标检测,记判断前景的范围上下界为minMod和maxMod,对于当前待检测图像上的某一区域I(x,y)mean,遍历它对应背景模型CB中的每一个码字CW,若存在一个CW,使得I(x,y)mean<max+maxMod并且I(x,y)mean>min–minMod,则I(x,y)mean被判断为背景,否则被判断为前景;
(7)隔H帧,对CB进行一个时间滤波,去除很少被访问到的CW,其方法是访问每个CW的stale,若stale大于设定阈值,移除该CW;其中,阈值设置为总更新次数的一半;
(8)当一个区域CB中,CW的数量超过一个阈值K时,将移除stale最大的CW。
2.根据权利要求1所述的一种室内不可控明火监测方法,其特征在于,步骤S2中,通过中值滤波算法对步骤S1获取的视频图像进行预处理,去除图像的离散点;包括:
在待监测现场的原始RGB彩色视频帧中,设定某n*n邻域中有n2个像素,将每个像素记为pij,表示第i行第j列的像素值,用y表示中值滤波的结果,表达式如下:
y=med{pij,0<i<n,0<j<n}
式中,med表示在集合中取中值。
3.根据权利要求1所述的一种室内不可控明火监测方法,其特征在于,步骤S3中,采用改进的CodeBook算法对步骤S2预处理后的视频图像以像素区域进行前景运动目标检测;具体包括以下子步骤:
S31:选择一帧到多帧使用更新算法建立CodeBook背景模型;
S32:待检测像素区域存在超过CodeBook背景模型阈值目标则被判定为运动目标,同时更新CodeBook背景模型;
S33:间隔一定时间使用更新算法更新CodeBook背景模型,并对CodeBook模型进行时间滤波;
S34:若检测继续,转步骤S32,否则结束。
4.根据权利要求1所述的一种室内不可控明火监测方法,其特征在于,步骤S4中基于火焰的颜色模型如下:
Figure FDA0003551022870000031
其中R、G、B值即图片像素点在RGB色彩空间的值,S为HSI色彩空间的Saturation分量,代表了火焰颜色的饱和度特性;Ravg代表图像中R通道的均值,Sth与Rth分别是S和R分量的阈值;
满足上面不等式的像素点,将被判定为火焰区域。
5.根据权利要求1所述的一种室内不可控明火监测方法,其特征在于,基于烟雾的颜色模型如下:
Figure FDA0003551022870000032
其中R、G、B值即图片像素点在RGB色彩空间的值,m表示RGB三通道的最大值,n表示RGB三通道的最小值,I表示HIS颜色空间的Illumination分量,Kmin与Kmax表示I分量的最大值,S即HSI色彩空间的Saturation分量;
满足上面不等式的像素点,将被判定为烟雾区域。
6.根据权利要求1所述的一种室内不可控明火监测方法,其特征在于,步骤S5中采用浅层卷积神经网络作为权重的判别器。
7.根据权利要求1所述的一种室内不可控明火监测方法,其特征在于,步骤S7中基于图像的二维熵进行火灾烟雾运动状态捕捉,其中图像的二维熵公式如下:
Figure FDA0003551022870000033
Figure FDA0003551022870000034
式中H表示图像的二维熵,W、H分别为疑似区域的宽、高,(i,j)为一个二元组,i表示某个滑动窗口内中心的灰度值,j为该窗口内除了中心像素的灰度均值;f(i,j)表示(i,j)这个二元组在整个区域中出现的次数,Pij表示这个二元组在整个区域中出现的概率。
8.一种室内不可控明火监测系统,其特征在于,该系统支持如权利要求1至7中任意一项所述的一种室内不可控明火监测方法,该系统包括:
图像采集单元,用于通过摄像头采集待监测现场的视频数据,获取待监测现场的原始RGB彩色视频帧;
图像预处理单元,用于对图像采集单元获取的视频图像进行预处理,去除图像的离散点;
运动目标检测单元,用于采用改进的CodeBook算法对图像预处理单元预处理后的视频图像以像素区域进行前景运动目标检测;
火焰、烟雾颜色模型识别单元,用于根据运动目标检测单元获得运动前景分割后的区域分别进行基于火焰的颜色模型、基于烟雾的颜色模型识别,分割出疑似火焰区域和疑似烟雾区域;
权重判别单元,用于基于权重判别器对火焰、烟雾颜色模型识别单元中分割出的疑似火焰区域和疑似烟雾区域分别进行权重判别,得到火焰区域的权重ω1、烟雾区域的权重ω2;并进行两者加和后与设定阈值进行比较;
红外检测单元,用于对权重判别单元中得出的大于设定阈值的火焰和烟雾区域进行红外检测;
不可控明火预判单元,用于基于图像的二维熵进行火灾烟雾运动状态捕捉,判定是否为不可控明火;
预警单元,用于根据是否为不可控明火进行相应的预警;若为不可控明火,则进行不可控明火报警;若为非不可控明火,则进行一般明火预警。
9.根据权利要求8所述的一种室内不可控明火监测系统,其特征在于,还包括数据库,用于存储图像采集单元采集视频图像。
CN202010454680.XA 2020-05-26 2020-05-26 一种室内不可控明火监测方法及系统 Active CN111626188B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010454680.XA CN111626188B (zh) 2020-05-26 2020-05-26 一种室内不可控明火监测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010454680.XA CN111626188B (zh) 2020-05-26 2020-05-26 一种室内不可控明火监测方法及系统

Publications (2)

Publication Number Publication Date
CN111626188A CN111626188A (zh) 2020-09-04
CN111626188B true CN111626188B (zh) 2022-05-06

Family

ID=72259275

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010454680.XA Active CN111626188B (zh) 2020-05-26 2020-05-26 一种室内不可控明火监测方法及系统

Country Status (1)

Country Link
CN (1) CN111626188B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257523A (zh) * 2020-10-09 2021-01-22 营口新山鹰报警设备有限公司 一种图像型火灾探测器的烟雾识别方法及识别系统
CN112347937B (zh) * 2020-11-06 2023-11-10 南京朗联消防科技有限公司 一种基于视觉感知的室内火灾监测系统及方法
CN112382045A (zh) * 2020-11-10 2021-02-19 杭州申弘智能科技有限公司 一种远程消防监控管理系统
CN112560657B (zh) * 2020-12-12 2023-05-30 南方电网调峰调频发电有限公司 烟火识别方法、装置、计算机设备和存储介质
CN113499553B (zh) * 2021-06-25 2023-09-26 上海东普信息科技有限公司 基于便携式无人机的灭火方法、装置、设备及存储介质
CN114842380B (zh) * 2022-04-27 2024-05-14 安徽工业大学科技园有限公司 一种火灾监测方法、装置、系统、存储器和处理器
CN114882447B (zh) * 2022-07-12 2022-09-20 南通森田消防装备有限公司 一种基于视觉感知的防火卷帘门实时预警方法及系统
CN114913323B (zh) * 2022-07-15 2022-11-15 东莞先知大数据有限公司 一种充电桩区域夜间明火检测方法
CN117253144B (zh) * 2023-09-07 2024-04-12 建研防火科技有限公司 一种火灾风险分级管控方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567722A (zh) * 2012-01-17 2012-07-11 大连民族学院 一种基于码本模型和多特征的早期烟雾检测方法
CN103489196A (zh) * 2013-10-16 2014-01-01 北京航空航天大学 基于Codebook背景建模的运动目标检测方法
CN104063878A (zh) * 2013-03-20 2014-09-24 富士通株式会社 运动对象检测装置、运动对象检测方法以及电子设备
CN104835145A (zh) * 2015-04-09 2015-08-12 电子科技大学 基于自适应Codebook背景模型的前景检测方法
CN106097366A (zh) * 2016-03-24 2016-11-09 南京航空航天大学 一种基于改进的Codebook前景检测的图像处理方法
WO2016195567A1 (en) * 2015-06-05 2016-12-08 Telefonaktiebolaget Lm Ericsson (Publ) Pixel pre-processing and encoding
CN106503638A (zh) * 2016-10-13 2017-03-15 金鹏电子信息机器有限公司 用于颜色识别的图像处理、车辆颜色识别方法和系统
WO2018068300A1 (zh) * 2016-10-14 2018-04-19 富士通株式会社 图像处理方法和装置
CN108399359A (zh) * 2018-01-18 2018-08-14 中山大学 一种视频序列下实时火灾检测预警方法
CN108447219A (zh) * 2018-05-21 2018-08-24 中国计量大学 基于视频图像的火灾检测系统及方法
CN110516609A (zh) * 2019-08-28 2019-11-29 南京邮电大学 一种基于图像多特征融合的火灾视频检测及预警方法
CN111126293A (zh) * 2019-12-25 2020-05-08 国网智能科技股份有限公司 一种火焰和烟雾异常情况检测方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170095B2 (en) * 1998-12-21 2012-05-01 Zin Stai Pte. In, Llc Faster image processing
US20110122963A1 (en) * 2008-07-07 2011-05-26 Jun Yuan Codebook restructure, differential encoding/decoding, and scheduling

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567722A (zh) * 2012-01-17 2012-07-11 大连民族学院 一种基于码本模型和多特征的早期烟雾检测方法
CN104063878A (zh) * 2013-03-20 2014-09-24 富士通株式会社 运动对象检测装置、运动对象检测方法以及电子设备
CN103489196A (zh) * 2013-10-16 2014-01-01 北京航空航天大学 基于Codebook背景建模的运动目标检测方法
CN104835145A (zh) * 2015-04-09 2015-08-12 电子科技大学 基于自适应Codebook背景模型的前景检测方法
WO2016195567A1 (en) * 2015-06-05 2016-12-08 Telefonaktiebolaget Lm Ericsson (Publ) Pixel pre-processing and encoding
CN106097366A (zh) * 2016-03-24 2016-11-09 南京航空航天大学 一种基于改进的Codebook前景检测的图像处理方法
CN106503638A (zh) * 2016-10-13 2017-03-15 金鹏电子信息机器有限公司 用于颜色识别的图像处理、车辆颜色识别方法和系统
WO2018068300A1 (zh) * 2016-10-14 2018-04-19 富士通株式会社 图像处理方法和装置
CN108399359A (zh) * 2018-01-18 2018-08-14 中山大学 一种视频序列下实时火灾检测预警方法
CN108447219A (zh) * 2018-05-21 2018-08-24 中国计量大学 基于视频图像的火灾检测系统及方法
CN110516609A (zh) * 2019-08-28 2019-11-29 南京邮电大学 一种基于图像多特征融合的火灾视频检测及预警方法
CN111126293A (zh) * 2019-12-25 2020-05-08 国网智能科技股份有限公司 一种火焰和烟雾异常情况检测方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Extracting Foreground Based on Codebook for Early Forest Smoke Video;dongmei wu 等;《Advanced Materials Research》;20141001;第1149-1152页 *
图像识别技术在电力设备监测中的应用;张浩等;《电力系统保护与控制》;20100316(第06期);第88-91页 *
基于Codebook的视频火焰识别算法;邵良杉等;《计算机应用》;20150510(第05期);第1483-1487页 *
采用颜色混合模型和特征组合的视频烟雾检测;唐杰等;《光电子*激光》;20170715(第07期);第751-758页 *

Also Published As

Publication number Publication date
CN111626188A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN111626188B (zh) 一种室内不可控明火监测方法及系统
Gong et al. A real-time fire detection method from video with multifeature fusion
CN107609470B (zh) 野外火灾早期烟雾视频检测的方法
CN111126136B (zh) 一种基于图像识别的烟雾浓度量化方法
CN110688925B (zh) 基于深度学习的级联目标识别方法及系统
CN103632158B (zh) 森林防火监控方法及森林防火监控系统
CN111126293A (zh) 一种火焰和烟雾异常情况检测方法及系统
CN107067412A (zh) 一种多信息融合的视频火焰烟雾检测方法
CN108416256A (zh) 基于特征识别的家庭云智能监控系统和监控方法
CN106815576B (zh) 基于连续时空置信图和半监督极限学习机的目标追踪方法
CN113536972B (zh) 一种基于目标域伪标签的自监督跨域人群计数方法
CN107659754B (zh) 一种树叶扰动情况下监控视频的有效浓缩方法
CN110929635B (zh) 基于信任机制下面部交并比的假脸视频检测方法及系统
CN110096945B (zh) 基于机器学习的室内监控视频关键帧实时提取方法
CN115691034A (zh) 一种智能家居异常情况告警方法、系统及存储介质
CN106815567B (zh) 一种基于视频的火焰检测方法及装置
CN114885119A (zh) 一种基于计算机视觉的智能监控报警系统及方法
CN103903020A (zh) 一种基于CodeBook的火灾图像识别方法及装置
CN107729811B (zh) 一种基于场景建模的夜间火焰检测方法
CN114155457A (zh) 基于火焰动态识别的控制方法及控制装置
CN116310922A (zh) 石化厂区监控视频风险识别方法、系统、电子设备及存储介质
CN105095891A (zh) 一种人脸捕捉的方法,装置及系统
CN111611866B (zh) 基于YCrCb和LAB颜色空间的火焰检测识别方法及系统
CN113657250A (zh) 一种基于监控视频的火焰检测方法及系统
Ramirez-Alonso et al. Object detection in video sequences by a temporal modular self-adaptive SOM

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant