CN112633231B - 一种火灾识别的方法和装置 - Google Patents

一种火灾识别的方法和装置 Download PDF

Info

Publication number
CN112633231B
CN112633231B CN202011628473.8A CN202011628473A CN112633231B CN 112633231 B CN112633231 B CN 112633231B CN 202011628473 A CN202011628473 A CN 202011628473A CN 112633231 B CN112633231 B CN 112633231B
Authority
CN
China
Prior art keywords
mask
smoke
network
fire
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011628473.8A
Other languages
English (en)
Other versions
CN112633231A (zh
Inventor
李大铭
邓练兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Dahengqin Technology Development Co Ltd
Original Assignee
Zhuhai Dahengqin Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Dahengqin Technology Development Co Ltd filed Critical Zhuhai Dahengqin Technology Development Co Ltd
Priority to CN202011628473.8A priority Critical patent/CN112633231B/zh
Publication of CN112633231A publication Critical patent/CN112633231A/zh
Application granted granted Critical
Publication of CN112633231B publication Critical patent/CN112633231B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Fire-Detection Mechanisms (AREA)

Abstract

本发明实施例提供了一种火灾识别的方法和装置,所述方法包括:获取采集的火灾图片数据;对所述火灾图片数据进行火灾信息标注,得到标注数据集;创建用于进行火灾图片识别的第一网络模型,并采用所述标注数据集,对所述第一网络模型进行训练;获取双目摄像头采集的深度图像;采用所述第一网络模型,对所述深度图像进行火灾识别。通过本发明实施例,实现了对火灾识别的优化,提升了识别的准确性。

Description

一种火灾识别的方法和装置
技术领域
本发明涉及图像识别领域,特别是涉及一种火灾识别的方法和装置。
背景技术
为更快速、精确地预警特定灾害,提升城市防灾减灾能力,尽可能地保障人民群众的生命和财产安全,针对图像帧或者视频识别的烟雾火焰检测技术一直是安防领域研究的重点方向,现在有智能安防摄像头已经内嵌烟雾火焰检测算法,但提高检测准确率,降低误报率是该领域不懈努力的方向。
烟雾火焰检测主要任务是对监控获取的图像帧或者视频判断是否存在烟雾或者火焰并同时给出烟雾和火焰实例的图像坐标位置。烟雾是火灾的早期征兆,火焰是火灾的直接征兆,对于两者的同时检测并加以人工策略能够对预防发现火灾做出及时预警。
早期城市住宅楼宇采用烟雾传感器进行火灾检测,但传感器需要烟气分子或者温度到达设定阈值才能做出报警,时间较长,难以做到高精度,低误报实时预警火灾的发生,并且使用传统的烟雾火灾检测器无法联网广播,改造成本高。图像技术凭借其非接触性以及快速灵敏的处理速度成为预警火灾的首选,传统图像处理技术普遍将火灾烟雾火焰识别任务建模为目标检测任务,早期国内研究人员均采用传统的目标检测算法,其流程主要为使用滑动窗口或者其他的区域提名方法列举所有可能含烟雾或火焰的图像区域,然后人工设计并提取能表征烟雾或者火焰的图像特征,接着对所有提名区域进行分类识别,最后根据一定规则合并包含烟雾或者火焰的图像区域得到最后的检测识别结果。
传统火灾烟雾火焰识别方法在公开数据集上达到了较高精度,近年来深度学习技术的蓬勃发展也促使研究人员将卷积神经网络等技术引入到火灾烟雾火焰识别中,识别精度进一步提升。然而公开数据集的检测场景多为人工模拟或者简单场景,因此针对复杂的场景还有一定局限性,并且随着烟雾火焰识别技术的快速发展和产品落地让人们对烟雾火灾识别领域提出了更高的要求,如能否估计烟雾弥漫面积或过火面积,能否应用于野外远距离监控场景等。
发明内容
鉴于上述问题,提出了以便提供克服上述问题或者至少部分地解决上述问题的一种火灾识别的方法和装置,包括:
一种火灾识别的方法,所述方法包括:
获取采集的火灾图片数据;
对所述火灾图片数据进行火灾信息标注,得到标注数据集;
创建用于进行火灾图片识别的第一网络模型,并采用所述标注数据集,对所述第一网络模型进行训练;
获取双目摄像头采集的深度图像;
采用所述第一网络模型,对所述深度图像进行火灾识别。
可选地,还包括:
创建用于火灾烟雾颜色分类的第二网络模型,并以预置的损失函数,对所述第二网络模型进行训练;
所述采用所述第一网络模型,对所述深度图像进行火灾识别,包括:
结合所述第一网络模型和所述第二网络模型,对所述深度图像进行火灾识别。
可选地,所述采用所述标注数据集,对所述第一网络模型进行训练,包括:
将所述标注数据集划分为训练集、验证集,以及测试集;
采用所述训练集,对所述第一网络模型进行训练。
可选地,在所述采用所述训练集,对所述第一网络模型进行训练之前,还包括:
对所述训练集进行数据扩充。
可选地,所述标注的火灾信息包括以下任一项或多项:
每个目标实例的检测定位框、烟雾或火焰标签、烟雾颜色标签、分割标签。
一种火灾识别的装置,所述装置包括:
火灾图片数据获取模块,用于获取采集的火灾图片数据;
标注数据集得到模块,用于对所述火灾图片数据进行火灾信息标注,得到标注数据集;
第一网络模型训练模块,用于创建用于进行火灾图片识别的第一网络模型,并采用所述标注数据集,对所述第一网络模型进行训练;
深度图像获取模块,用于获取双目摄像头采集的深度图像;
火灾识别模块,用于采用所述第一网络模型,对所述深度图像进行火灾识别。
可选地,还包括:
第二网络模型训练模块,用于创建用于火灾烟雾颜色分类的第二网络模型,并以预置的损失函数,对所述第二网络模型进行训练;
所述火灾识别模块,包括:
结合模型识别子模块,用于结合所述第一网络模型和所述第二网络模型,对所述深度图像进行火灾识别。
可选地,所述第一网络模型训练模块,包括:
标注数据集划分子模块,用于将所述标注数据集划分为训练集、验证集,以及测试集;
训练集训练子模块,用于采用所述训练集,对所述第一网络模型进行训练。
可选地,还包括:
训练集扩充模块,用于对所述训练集进行数据扩充。
可选地,所述标注的火灾信息包括以下任一项或多项:
每个目标实例的检测定位框、烟雾或火焰标签、烟雾颜色标签、分割标签。
本发明实施例具有以下优点:
在本发明实施例中,通过获取采集的火灾图片数据;对所述火灾图片数据进行火灾信息标注,得到标注数据集;创建用于进行火灾图片识别的第一网络模型,并采用所述标注数据集,对所述第一网络模型进行训练;获取双目摄像头采集的深度图像;采用所述第一网络模型,对所述深度图像进行火灾识别,实现了对火灾识别的优化,提升了识别的准确性。
附图说明
为了更清楚地说明本发明的技术方案,下面将对本发明的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种火灾识别的方法的步骤流程图;
图2是本发明一实施例提供的一种实例流程的示意图;
图3是本发明一实施例提供的一种网络模型的示意图;
图4是本发明一实施例提供的另一种网络模型的示意图;
图5是本发明一实施例提供的一种火灾识别的装置的结构示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在实际应用中,基于卷积神经网络的烟雾火焰识别方法现在主要分为烟雾火焰检测方法和烟雾火焰分割方法。
烟雾火焰检测:烟雾火焰检测是目标检测领域的子任务,即当目标是烟雾和火焰时的目标检测,该方法长期占据主流的烟雾火焰识别的研究方向,传统算法时期和行人检测等领域相同,都采用多阶段设计的算法,主要包括区域提名,手工设计特征,分类器分类识别烟雾图像,后处理合并提名区域等步骤。卷积神经网络的引入则改变了烟雾火焰检测算法的设计思路,基于卷积神经网络提出的一系列端到端的目标检测网络如Yolo系列的方法使得烟雾火焰检测可以端到端设计,且对应的特征不需要手动设计,直接利用样本和损失函数优化卷积神经网络得到。
烟雾火焰检测方法样本标注难度较小,可以完成实时高精度检测,训练迭代速度快,但是该方法较少有人关注遮挡问题,并且该方法仅能提供烟雾或者火焰的检测框以及置信度,无法提供关于火灾的更多的辅助信息。
烟雾火焰分割:烟雾火焰分割是目标分割领域的子任务,即当目标是烟雾和火焰时的目标分割,该方法也吸引了部分研究者不断推陈出新,传统算法时期烟雾火焰分割算法主要利用烟雾或者火焰的颜色通道的先验统计信息设计人工特征来获取烟雾火焰分割图像,也有采用显著性检测等方法进行分割的研究工作,卷积神经网络的引入则改变烟雾火焰分割算法的设计思路,基于卷积神经网络提出的一系列端到端的目标分割网络如MaskRCNN和DeepLab系列等方法使得烟雾火焰分割可以端到端设计,且对应的特征不需要手动设计,直接利用样本和损失函数优化卷积神经网络得到。
烟雾火焰分割方法标注成本较高,但是可以在烟雾火焰检测给出烟雾火焰定位的基础上提供实例级别的Mask分割结果,烟雾火焰的定位更加精准,在此基础上可进行更多火灾辅助信息的探索,但该方法同样较少人关注遮挡问题和火灾辅助信息的估计问题。
综上所述,存在以下问题:
1、现有方法仅适用于常见颜色烟雾火焰检测,存在泛化能力不足问题;本方案收集大量不同数据集样本并采用颜色增强的方式来进行数据集多样性的扩充;
2、现有方法对于遮挡问题未做过多讨论,存在遮挡漏检的问题;本方案提出了一种基于物体模板遮挡的数据增强策略,该策略主要应用于训练数据集进行数据扩充,提高网络对于遮挡情况的检测泛化能力;
3、现有方法对于火灾的辅助信息估计不够精确,仅仅给出烟雾或者火焰的检测框以及Mask不够直观;本方案设计了一种联合目标检测和图像分割的火灾烟雾火焰识别卷积神经网络来得到烟雾和火焰的位置以及实例级别的Mask,并采用颜色分类网络以及体积和位置距离估计策略来给出火灾的辅助信息预测。
基于此,本发明提出了一种联合目标检测和图像分割的火灾烟雾火焰识别方法,如图1,该方法首先收集大量火灾烟雾火焰数据集以及人工模拟的烟雾火焰数据集并对未标注的样本进行类别标注,检测框标注以及实例分割的Mask标注,接着在训练过程中采用基于颜色的增强方法以及基于物体模板遮挡的数据增强方法,然后用数据训练本专利设计的联合目标检测和图像分割的烟雾火灾识别网络(简称为),在得到烟雾火焰的检测框以及分割Mask后,将单个检测框目标截取出来通过基于Mask的烟雾颜色分类网络得到烟雾种类,同时在可以获取深度图像的基础上,利用Mask来估计单个检测框中目标的实际体积和距离摄像头的距离,最后将火灾的所有估计信息统一输出。
通过本发明实施例,达到了以下效果:
1、解决了现有方法检测烟雾或者火焰的仅适用于常见颜色烟雾火焰检测的泛化能力不足问题;
2、解决了烟雾火焰检测中对于火灾发生地点,燃烧物种类或燃烧状况等辅助信息的估计问题;
3、解决了火灾烟雾火焰检测中干扰物遮挡导致检测性能下降的问题;
4、设计了一种联合目标检测和图像分割的火灾烟雾火焰识别卷积神经网络来得到烟雾和火焰的位置以及实例级别的Mask;
5、提出了一种基于物体模板遮挡的数据增强策略,该策略主要应用于训练数据集进行数据扩充,提高网络对于遮挡情况的检测鲁棒性;
6、实现了一种基于Mask的烟雾颜色分类网络,该网络主要对烟雾的颜色进行分类间接估计火灾的燃烧状况;
7、实现了一种基于双目摄像头的烟雾或者火焰体积估计以及着火点的大致位置估计方法。
以下对本发明实施例进行详细说明:
参照图2,示出了本发明一实施例提供的一种火灾识别的方法的步骤流程图,具体可以包括如下步骤:
步骤201,获取采集的火灾图片数据;
步骤202,对所述火灾图片数据进行火灾信息标注,得到标注数据集;
作为一示例,标注的火灾信息可以包括以下任一项或多项:
每个目标实例的检测定位框、烟雾或火焰标签、烟雾颜色标签、分割标签。
在实际应用中,火灾烟雾火焰数据集(即火灾图片数据)为D={S1,S2,S3,…,SN},N为样本总数,对于数据集D中每一个样本Si(1≤i≤N),记每个样本Si中的所有目标实例集合为
Figure BDA0002875556940000071
Mi为Ti集合的大小。对于采用标注软件Labelme进行标注可得到四类标注信息:描述每个样本Si中Mi个目标实例的检测定位框、烟雾或者火焰标签,烟雾颜色标签,以及Mask分割标签。
其中,描述Ti中每个目标实例tij(1≤j≤Mi)的检测定位框Bboxij采用常见平行于坐标轴的物体包围框来表示,Bboxij采用四元组数值(x,y,w,h)来记录目标实例的中心点坐标以及包围框的长宽。
描述目标实例tij的烟雾或者火焰标签Classij,且Classij∈(0,1),如果tij检测框内主要为烟雾则令Classij为0,如果为火焰则令Classij为1,在数据集中部分检测框内可能同时包含烟雾或者火焰,如果能判定主体直接进行标注,否则任意选择一个类别标签标注即可。
描述目标实例tij的烟雾颜色标签为Colorij,且Colorij∈(0,1,…,P-1),其中P为烟雾颜色种类的总数目,本专利中取为4,0表示灰色烟雾,1表示白色烟雾,2表示黑色烟雾,3表示彩色烟雾,目标实例tij为火焰时自动忽略或者使用-1来作为区分缺省值。
描述目标实例tij的Mask分割标签采用多边形标注表示,记为Maskij
综上通过标注可知通过Labelme获得样本Si标注信息
Figure BDA0002875556940000072
Figure BDA0002875556940000073
而每个目标实例tij的标签又可以表示为Lij=(Bboxij,Classij,Colorij,Maskij)。本步骤中Bboxij的标签实际上可以通过求Maskij标注的最小外接矩形得到,为简便本专利描述为标注获得。
步骤203,创建用于进行火灾图片识别的第一网络模型,并采用所述标注数据集,对所述第一网络模型进行训练;
在本发明一实施例中,所述采用所述标注数据集,对所述第一网络模型进行训练,可以包括如下子步骤:
将所述标注数据集划分为训练集、验证集,以及测试集;采用所述训练集,对所述第一网络模型进行训练。
在本发明一实施例中,在所述采用所述训练集,对所述第一网络模型进行训练之前,还可以包括如下步骤:
对所述训练集进行数据扩充。
在实际应用中,可以设置两个网络分别用于烟雾火焰的识别以及烟雾颜色的分类,因此对包含烟雾实例样本数据集DS采用基于烟雾颜色标签的分层抽样方法,具体步骤为:
首先对每个样本中的所有实例的烟雾颜色标签求众数,利用众数的标签作为该图片的抽样标签,然后按抽样标签将DS划分为(Ds0,Ds1,…,Ds(P-1)),采用分层抽样技术对每一个子数据集Dsi(0≤i≤P-1)根据6:2:2对数据进行划分得到训练集
Figure BDA0002875556940000081
验证集
Figure BDA0002875556940000082
和测试集
Figure BDA0002875556940000083
将这些子数据集的划分集合分别合并得到训练集TSD、验证集VSD和测试集ESD。对于不包含烟雾实例的样本数据集DF直接按照6:2:2划分为训练集TFD、验证集VFD和测试集EFD,将包含烟雾实例样本的数据DS和不包含烟雾实例的样本数据集DF中的训练集、验证集和测试集样本合并到一起得到整个数据集D的训练集TD、验证集VD和测试集ED
记联合目标检测和图像分割的火灾烟雾火焰识别网络为Network1。对于Network1网络的训练样本训练数据TD采用两种数据增强策略,其主要实现步骤为:
对每个样本获得取值范围为[0,1]的随机值p1和p2,如果p1>0.5,则对当前样本的所有目标实例的Mask范围内的图像进行HSV颜色增强操作,如果p2>0.5,则对当前样本采用基于物体模板遮挡的数据增强方法。
基于物体模板遮挡的数据增强方法的主要实现方法为:
对公开数据集如ImageNet数据集随机抽样K张图片得到遮挡模板候选数据集DH,DH数据中如果存在Mask标注信息则不进行进一步处理,如果DH数据集不存在Mask标注信息,则对DH数据集中图片采用显著性分割策略或者人为标注得到的前景分割Mask作为标注信息,在得到带Mask标注信息的DH后,在待增强的样本中任选一个目标实例tij,其标签Lij=(Bboxij,Classij,Colorij,Maskij),记Bboxij的面积为
Figure BDA0002875556940000095
在DH中任选一个样本DHj,其标签可以记为LHj=(BboxHj,MaskHj),BboxHj为MaskHj的最小外接矩形,记BboxHj的面积为
Figure BDA0002875556940000092
寻找一个随机数α,对BboxHj的长宽放缩α倍使得
Figure BDA0002875556940000093
使得
Figure BDA0002875556940000094
对DHj的Bboxij进行截取并对其长宽放缩α倍,然后取放缩后图像的Mask区域作为遮挡模板Hij,选择tij的前景Maskij中的随机点作为中心,以该中心和Hij等大的区域做图像块置换,即利用Hij遮挡目标的部分内容,此时对Maskij标注进行修正,即去除被遮挡部分的Mask得到修正后的标签为Mask′ij,根据Mask′ij寻找最小包围框可得到修正后的检测包围框Bbox′ij。由于不同样本之间的可能会有重叠,导致Hij遮挡其他样本内容,可同样修正对应的增强后的标签。
假设某训练样本为X,X中所有目标实例的Mask作为注意力引导标签记作MT(X),MT(X)为X相同尺寸的三值单通道图像,其值为2的部分为火焰目标前景像素区域,其值为1的部分为烟雾目标的前景像素区域,值为0的部分为背景。记联合目标检测和图像分割的火灾烟雾火焰识别网络为Network1,Network1网络结构简图可如图3表示:
Network1网络主要基于CenterNet的目标检测框架设计。先对CenterNet的网络做简要介绍:CenterNet是一种anchor-free的端到端目标检测算法,假设网络输入尺寸为WC·HC,基础特征网络的下采样倍数为R,其主要思路设计是认为最后负责预测的特征图上所有的点都负责预测以该点为中心存在物体的相关信息,该信息维度为
Figure BDA0002875556940000091
其中Nclass为目标检测的类别数,反映该点存在Nclass个类目标对应的概率,在本专利中取为2,NWH为预测目标的长宽,取值为2,Noffset为目标中心取整的量化损失,取值为2,CenterNet采用8邻域分类概率最大池化以及topk分类概率目标过滤和分类概率阈值过滤等策略得到最终的目标检测结果。Network1在CenterNet框架的上采用骨干网络提取基础网络特征,骨干网络可以选择主流常见的目标检测模型采用的网络,本专利以ResNet50为例,选择其前四个stage的作为骨干网络,选择conv2,conv3和conv4的输出来构建FPN结构。本专利对FPN结构进行简单修改,采用了多级Mask预测以及融合注意力加权的FPN结构,简称为MTFPN。MTFPN结构的实现流程为描述如下:假设FPN网络有三个层级特征图做引导注意力Mask预测任务,采用的三个层级的特征图记作FP1,FP2和FP3,FP1,FP2和FP3对应预测输出的语义分割Mask图分别记作AM1,AM2和AM3,每个语义分割图均包含三个通道,分别对应烟雾Mask,火焰Mask以及背景Mask。AM1,AM2和AM3使用MT(X)在对应层级的缩放标签图采用逐点交叉熵损失进行网络学习,使用公式可以表达如下:
Figure BDA0002875556940000101
上式中Wk和Hk为语义分割Mask图AMk的宽和高,ykij为对MT(X)做尺度缩放到AMk尺度时在点(i,j)的one-hot标签,AMk(i,j)为AMk在(i,j)的三通道预测标签。假定AM1尺寸为AM2的一半,AM2尺寸为AM3的一半,则融合加权注意力Mask图FusionAM可表达如下式:
FusionAM=ρ1U(U(B(AM1)))+ρ2U(B(AM2))+ρ3B(AM3)
s.t.ρ123=1,ρ1≥0,ρ2≥0,ρ3≥0
上式中ρ1,ρ2和ρ3分别为不同尺度引导注意力Mask的加权系数。U(·)为上采样操作,将不同尺寸的引导注意力Mask图变换到同一尺寸。B(·)为二值化操作,二值化阈值可设置为τ(0<τ<1),由于AMk在点(i,j)的三通道标签概率和为1,故对AMk的背景Mask通道做二值化即可,即点(i,j)为背景的概率如果大于τ则二值化输出为0,否则为1,二值化作用为将前景语义置为1,背景语义设置为0。
在得到FusionAM后将可将该FusionAM经过广播后(重复至FP3的通道数)和FP3特征图做注意力加权即做逐元素相乘操作得到特征ATFP3,对ATFP3添加目标检测任务分支来得到网络预测的烟雾和火焰的位置和分类概率(该分支和CenterNet操作相同,不做赘述)。在得到预测的烟雾和火焰的位置后,本专利采用如下方法得到烟雾或者火焰的实例分割结果:首先将烟雾和火焰的目标实例预测结果可以记为{(c1,Bbox1),(c1,Bbox1),…,(cn,Bboxn)},其中(ci,Bboxi)表示第i个实例的类别标签和包围框标签。对语义Mask预测图AM3进行上采样到网络输入尺寸得到OAM3,然后采用如下公式得到每个目标实例的Mask分割结果:
pmaski=CROP(OAM3.at(ci),Bboxi)
上式中pmaski为第i个实例的Mask预测结果,OAM3.at(ci)表示取OAM3对应ci标签的预测通道,CROP(·,Bboxi)表示对输入图像用Bboxi来截取。
步骤204,获取双目摄像头采集的深度图像;
步骤205,采用所述第一网络模型,对所述深度图像进行火灾识别。
由于双目摄像头可以获得深度图Dp,Dp为四通道的RGBD图像,容易获取相机的内参为(cx,cy,fx,fy),cx和cy为图像中心坐标,fx和fy分别为相机在x轴和y轴的焦距。假设像素点坐标(u,v),像素点的三维坐标为(x,y,z),则由二维像素坐标转换为三维度坐标的公式可如下计算:
Figure BDA0002875556940000111
上式中d为Dp的深度通道在(u,v)处的深度值,μ为缩放因子。通过Network1网络可以得到监控画面中的每个目标实例的Mask分割图,对Mask分割图中的像素做三维点坐标转换可以得到目标实例的三维点云估计,对该三维点云求最小包围框并利用立方体的体积公式即可得到烟雾或者火焰的三维体积估计。对每个目标实例的Mask分割图中对应的像素取其深度值做坐标转换可以得到该点z坐标,对Mask范围内所有的点的z坐标求取距离直方图,直方图分成ω个bin,去除最大值所在的bin和最小值所在的bin,对剩下的bin的所有z坐标求平均z值,用平均值可以估计烟雾或者火焰的距离摄像头的距离。
在本发明一实施例中,还可以包括如下步骤:
创建用于火灾烟雾颜色分类的第二网络模型,并以预置的损失函数,对所述第二网络模型进行训练;
相应地,步骤205可以包括如下子步骤:
结合所述第一网络模型和所述第二网络模型,对所述深度图像进行火灾识别。
在实际应用中,记烟雾颜色分类网络为Network2,该网络结构可如图4所示。
Network2的训练集由两部分组成:数据集TSD中所有烟雾实例的截取图数据集TSSD和带伪Mask标签的数据集TPSD。TPSD产生的流程如下:将数据集TSD采用Network1进行预测推断得到预测烟雾Mask标签作为伪烟雾分割标签,对伪烟雾分割标签和原始数据集TSD的真实烟雾分割标签求IOU重叠度,如果IOU>λ(λ>0.7),λ为控制样本质量的因子,所有满足条件的伪烟雾分割对应的图片中实例截取图的组成的数据集即为TPSD,其Mask分割标签即为伪烟雾分割标签,烟雾颜色类别标签为每个烟雾实例在原始输入图中的真实颜色标签。
对第一部分训练数据集TSSD中的样本可采用随机中心截取或随机旋转的数据增强方式,对第二部分训练数据集TPSD则不做任何数据增强处理,由于输入层常采用固定输入尺寸以保证通过基础网络提取特征时不会因为下采样结果产生数值溢出问题,假设网络的输入固定为W×H,本专利首先利用训练集标签Mask取图像前景,背景的值全部设置(0,0,0)得到前景训练样本图,然后前景训练样本图做尺度缩放以及归一化操作得到网络的固定输入W×H。Network2网络的基础网络可以选择任意将为常见的分类网络,以Se-ResNeXt50为例(该网络较为常见,为领域通用知识,不再赘述),选取该网络五个stage作为基础网络提取通用特征,接着采用平均池化得到定长向量,再接一层全连接层得到特征向量嵌入输出,最后使用分类识别领域常用的损失AMSoftmax损失做反向传播求解网络参数(该损失较为常见为领域通用知识,不再赘述),本专利的预测分类类别为4。
对某个被Network1网络预测为烟雾的样本区域经过预测的Mask分割结果取前景图像并经过尺寸变换归一化后输入Network2网络预测输出结果为一个长度为4,各元素数值和为1的向量,对向量取最大值得到位置对应的类别,根据安防经验可以设定对应的提示信息:本专利采用常见烟雾颜色种类作为举例说明,0表示灰色烟雾,1表示白色烟雾,2表示黑色烟雾,3表示彩色烟雾。就一般火灾而言,灰色烟雾极为可能是闷烧或者高温待燃烧状态,白色烟雾表示完全燃烧后带有大量水蒸气,1表示未充分燃烧产生的小分子碳,彩色烟雾除表演的彩烟外极有可能是具有强烈毒性的化学物质燃烧,如果能在估计火灾烟雾和火焰的画面位置的同时给出相关的颜色估计信息和先验的背景知识则能提高决策的速度,并给与人们更多的信息提示,便于人们采取正确的应对措施。
需要说明的是,以下对相关术语进行解释:
HSV颜色增强:假设输入样本三通道RGB图片记为F(x,y),HSV颜色增强则表示对F(x,y)在HSV空间内进行加减色处理,然后反变换回RGB彩色空间,作为增强后的图片,处理公式如下:
Figure BDA0002875556940000141
Figure BDA0002875556940000142
Figure BDA0002875556940000143
上述公式中,Hue(i,j),Saturation(i,j),Value(i,j)分别为H,S,V三个分通道在某一像素点的值,λ,β,γ分别为H通道的增减色变化值,S通道增减色调整因子,H通道增减色调整因子,这三个值在数据增强中是随机生成,然后分别对相应通道进行增减色调整,然后转换为RGB图像,做为最后增强图像;
Mask IOU:
假设存在两个相同尺寸单通道二值Mask分割图M1和M2,假设其宽和高分别为W和H,则Mask IOU可表示如下:
Figure BDA0002875556940000144
上式实际上和常见的矩形框的IOU定义类似,表示了两个Mask的重叠部分面积比上并区域的面积。
AMSoftmax:
定义式表达如下:
Figure BDA0002875556940000145
上式中n为样本数目,s为尺度因子,m为角度Margine,
Figure BDA0002875556940000146
表示第i个权重向量,fi表示输入特征向量。
在本发明实施例中,通过获取采集的火灾图片数据;对所述火灾图片数据进行火灾信息标注,得到标注数据集;创建用于进行火灾图片识别的第一网络模型,并采用所述标注数据集,对所述第一网络模型进行训练;获取双目摄像头采集的深度图像;采用所述第一网络模型,对所述深度图像进行火灾识别,实现了对火灾识别的优化,提升了识别的准确性。
具体而言,本发明实施例具有以下效果
1、部署灵活,方法可解耦:本专利提出的方法根据实际需求解耦输出,如仅需要烟雾检测功能,则可以对所有其他算法步骤如烟雾火焰分割,烟雾颜色分类以及火焰类别预测进行抑制去除,仅部署具有烟雾检测功能的网络部分即可;
2、应用范围广泛:本专利提出方法可用于检测任何种类的烟雾,对于光照变换,背景变换具有较强的鲁棒性;
3、鲁棒性强:本专利方法能够在遮挡的情况下仍然较好的检测和定位烟雾和火焰;
4、可扩展性:本专利方法配合网络可以实现实时APP火灾详细信息估计推送以及实时画面传输等功能。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图5,示出了本发明一实施例提供的一种火灾识别的装置的结构示意图,具体可以包括如下模块:
火灾图片数据获取模块501,用于获取采集的火灾图片数据;
标注数据集得到模块502,用于对所述火灾图片数据进行火灾信息标注,得到标注数据集;
第一网络模型训练模块503,用于创建用于进行火灾图片识别的第一网络模型,并采用所述标注数据集,对所述第一网络模型进行训练;
深度图像获取模块504,用于获取双目摄像头采集的深度图像;
火灾识别模块505,用于采用所述第一网络模型,对所述深度图像进行火灾识别。
在本发明一实施例中,还包括:
第二网络模型训练模块,用于创建用于火灾烟雾颜色分类的第二网络模型,并以预置的损失函数,对所述第二网络模型进行训练;
所述火灾识别模块,包括:
结合模型识别子模块,用于结合所述第一网络模型和所述第二网络模型,对所述深度图像进行火灾识别。
在本发明一实施例中,所述第一网络模型训练模块,包括:
标注数据集划分子模块,用于将所述标注数据集划分为训练集、验证集,以及测试集;
训练集训练子模块,用于采用所述训练集,对所述第一网络模型进行训练。
在本发明一实施例中,还包括:
训练集扩充模块,用于对所述训练集进行数据扩充。
在本发明一实施例中,所述标注的火灾信息包括以下任一项或多项:
每个目标实例的检测定位框、烟雾或火焰标签、烟雾颜色标签、分割标签。
本发明一实施例还提供了一种电子设备,可以包括处理器、存储器及存储在存储器上并能够在处理器上运行的计算机程序,计算机程序被处理器执行时实现如上火灾识别的方法。
本发明一实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现如上火灾识别的方法。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对所提供的一种火灾识别的方法和装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种火灾识别的方法,其特征在于,所述方法包括:
获取采集的火灾图片数据;
对所述火灾图片数据进行火灾信息标注,得到标注数据集;
创建用于进行火灾图片识别的第一网络模型,并采用所述标注数据集,对所述第一网络模型进行训练;
获取双目摄像头采集的深度图像;
采用所述第一网络模型,对所述深度图像进行火灾识别;
所述采用所述标注数据集,对所述第一网络模型进行训练,包括:
将所述标注数据集划分为训练集、验证集,以及测试集;
采用所述训练集,对所述第一网络模型进行训练;
在所述采用所述训练集,对所述第一网络模型进行训练之前,还包括:
针对所述训练集中的样本,获得取值范围为[0,1]的随机值p1和p2,如果p1>0.5,则对当前样本的所有目标实例的Mask范围内的图像进行HSV颜色增强操作,如果p2>0.5,则对当前样本进行基于物体模板遮挡的数据增强;
其中,所述第一网络模型为记联合目标检测和图像分割的火灾烟雾火焰识别网络,记为Network1,Network1网络主要基于CenterNet的目标检测框架设计,Network1在CenterNet框架的上采用骨干网络提取基础网络特征,采用ResNet50的前四个stage的作为骨干网络,采用conv2,conv3和conv4的输出来构建FPN结构,对FPN结构进行修改,采用了多级Mask预测以及融合注意力加权的FPN结构,即为MTFPN;
MTFPN结构的实现流程为描述如下:假设FPN网络有三个层级特征图做引导注意力Mask预测任务,采用的三个层级的特征图记作FP1,FP2和FP3,FP1,FP2和FP3对应预测输出的语义分割Mask图分别记作AM1,AM2和AM3,每个语义分割图均包含三个通道,分别对应烟雾Mask,火焰Mask以及背景Mask,AM1,AM2和AM3使用MT(X)在对应层级的缩放标签图采用逐点交叉熵损失进行网络学习,使用公式表达如下:
Figure FDA0003637997720000021
其中,Wk和Hk为语义分割Mask图AMk的宽和高,ykij为对MT(X)做尺度缩放到AMk尺度时在点(i,j)的one-hot标签,AMk(i,j)为AMk在(i,j)的三通道预测标签;假定AM1尺寸为AM2的一半,AM2尺寸为AM3的一半,则融合加权注意力Mask图FusionAM表达如下式:
FusionAM=ρ1U(U(B(AM1)))+ρ2U(B(AM2))+ρ3B(AM3)
s.t.ρ123=1,ρ1≥0,ρ2≥0,ρ3≥0
其中,ρ1,ρ2和ρ3分别为不同尺度引导注意力Mask的加权系数;U(·)为上采样操作,将不同尺寸的引导注意力Mask图变换到同一尺寸;B(·)为二值化操作,二值化阈值设置为τ(0<τ<1),由于AMk在点(i,j)的三通道标签概率和为1,故对AMk的背景Mask通道做二值化即可,即点(i,j)为背景的概率如果大于τ则二值化输出为0,否则为1,二值化作用为将前景语义置为1,背景语义设置为0;
在得到FusionAM后将该FusionAM经过广播后和FP3特征图做注意力加权即做逐元素相乘操作得到特征ATFP3,对ATFP3添加目标检测任务分支来得到网络预测的烟雾和火焰的位置和分类概率,该分支和CenterNet操作相同;在得到预测的烟雾和火焰的位置后,采用如下方法得到烟雾或者火焰的实例分割结果:首先将烟雾和火焰的目标实例预测结果记为{(c1,Bbox1),(c1,Bbox1),…,(cn,Bboxn)},其中(ci,Bboxi)表示第i个实例的类别标签和包围框标签;对语义Mask预测图AM3进行上采样到网络输入尺寸得到OAM3,然后采用如下公式得到每个目标实例的Mask分割结果:
pmaski=CROP(OAM3.at(ci),Bboxi)
上式中pmaski为第i个实例的Mask预测结果,OAM3.at(ci)表示取OAM3对应ci标签的预测通道,CROP(·,Bboxi)表示对输入图像用Bboxi来截取;
所述采用所述第一网络模型,对所述深度图像进行火灾识别,包括:
通过第一网络模型得到深度图像中的每个目标实例的Mask分割图,对Mask分割图中的像素做三维点坐标转换得到目标实例的三维点云估计,对该三维点云求最小包围框并利用立方体的体积公式即可得到烟雾或者火焰的三维体积估计;对每个目标实例的Mask分割图中对应的像素取其深度值做坐标转换得到该点z坐标,对Mask范围内所有的点的z坐标求取距离直方图,直方图分成ω个bin,去除最大值所在的bin和最小值所在的bin,对剩下的bin的所有z坐标求平均z值,用平均值估计烟雾或者火焰的距离摄像头的距离。
2.根据权利要求1所述的方法,其特征在于,还包括:
创建用于火灾烟雾颜色分类的第二网络模型,并以预置的损失函数,对所述第二网络模型进行训练;
所述采用所述第一网络模型,对所述深度图像进行火灾识别,包括:
结合所述第一网络模型和所述第二网络模型,对所述深度图像进行火灾识别。
3.根据权利要求1所述的方法,其特征在于,在所述采用所述训练集,对所述第一网络模型进行训练之前,还包括:
对所述训练集进行数据扩充。
4.根据权利要求1所述的方法,其特征在于,所述标注的火灾信息包括以下任一项或多项:
每个目标实例的检测定位框、烟雾或火焰标签、烟雾颜色标签、分割标签。
5.一种火灾识别的装置,其特征在于,所述装置包括:
火灾图片数据获取模块,用于获取采集的火灾图片数据;
标注数据集得到模块,用于对所述火灾图片数据进行火灾信息标注,得到标注数据集;
第一网络模型训练模块,用于创建用于进行火灾图片识别的第一网络模型,并采用所述标注数据集,对所述第一网络模型进行训练;
深度图像获取模块,用于获取双目摄像头采集的深度图像;
火灾识别模块,用于采用所述第一网络模型,对所述深度图像进行火灾识别;
所述第一网络模型训练模块,包括:
标注数据集划分子模块,用于将所述标注数据集划分为训练集、验证集,以及测试集;
训练集训练子模块,用于采用所述训练集,对所述第一网络模型进行训练;
所述装置还用于,在所述采用所述训练集,对所述第一网络模型进行训练之前,针对所述训练集中的样本,获得取值范围为[0,1]的随机值p1和p2,如果p1>0.5,则对当前样本的所有目标实例的Mask范围内的图像进行HSV颜色增强操作,如果p2>0.5,则对当前样本进行基于物体模板遮挡的数据增强;
其中,所述第一网络模型为记联合目标检测和图像分割的火灾烟雾火焰识别网络,记为Network1,Network1网络主要基于CenterNet的目标检测框架设计,Network1在CenterNet框架的上采用骨干网络提取基础网络特征,采用ResNet50的前四个stage的作为骨干网络,采用conv2,conv3和conv4的输出来构建FPN结构,对FPN结构进行修改,采用了多级Mask预测以及融合注意力加权的FPN结构,即为MTFPN;
MTFPN结构的实现流程为描述如下:假设FPN网络有三个层级特征图做引导注意力Mask预测任务,采用的三个层级的特征图记作FP1,FP2和FP3,FP1,FP2和FP3对应预测输出的语义分割Mask图分别记作AM1,AM2和AM3,每个语义分割图均包含三个通道,分别对应烟雾Mask,火焰Mask以及背景Mask,AM1,AM2和AM3使用MT(X)在对应层级的缩放标签图采用逐点交叉熵损失进行网络学习,使用公式表达如下:
Figure FDA0003637997720000041
其中,Wk和Hk为语义分割Mask图AMk的宽和高,ykij为对MT(X)做尺度缩放到AMk尺度时在点(i,j)的one-hot标签,AMk(i,j)为AMk在(i,j)的三通道预测标签;假定AM1尺寸为AM2的一半,AM2尺寸为AM3的一半,则融合加权注意力Mask图FusionAM表达如下式:
FusionAM=ρ1U(U(B(AM1)))+ρ2U(B(AM2))+ρ3B(AM3)
s.t.ρ123=1,ρ1≥0,ρ2≥0,ρ3≥0
其中,ρ1,ρ2和ρ3分别为不同尺度引导注意力Mask的加权系数;U(·)为上采样操作,将不同尺寸的引导注意力Mask图变换到同一尺寸;B(·)为二值化操作,二值化阈值设置为τ(0<τ<1),由于AMk在点(i,j)的三通道标签概率和为1,故对AMk的背景Mask通道做二值化即可,即点(i,j)为背景的概率如果大于τ则二值化输出为0,否则为1,二值化作用为将前景语义置为1,背景语义设置为0;
在得到FusionAM后将该FusionAM经过广播后和FP3特征图做注意力加权即做逐元素相乘操作得到特征ATFP3,对ATFP3添加目标检测任务分支来得到网络预测的烟雾和火焰的位置和分类概率,该分支和CenterNet操作相同;在得到预测的烟雾和火焰的位置后,采用如下方法得到烟雾或者火焰的实例分割结果:首先将烟雾和火焰的目标实例预测结果记为{(c1,Bbox1),(c1,Bbox1),…,(cn,Bboxn)},其中(ci,Bboxi)表示第i个实例的类别标签和包围框标签;对语义Mask预测图AM3进行上采样到网络输入尺寸得到OAM3,然后采用如下公式得到每个目标实例的Mask分割结果:
pmaski=CROP(OAM3.at(ci),Bboxi)
上式中pmaski为第i个实例的Mask预测结果,OAM3.at(ci)表示取OAM3对应ci标签的预测通道,CROP(·,Bboxi)表示对输入图像用Bboxi来截取;
所述采用所述第一网络模型,对所述深度图像进行火灾识别,包括:
通过第一网络模型得到深度图像中的每个目标实例的Mask分割图,对Mask分割图中的像素做三维点坐标转换得到目标实例的三维点云估计,对该三维点云求最小包围框并利用立方体的体积公式即可得到烟雾或者火焰的三维体积估计;对每个目标实例的Mask分割图中对应的像素取其深度值做坐标转换得到该点z坐标,对Mask范围内所有的点的z坐标求取距离直方图,直方图分成ω个bin,去除最大值所在的bin和最小值所在的bin,对剩下的bin的所有z坐标求平均z值,用平均值估计烟雾或者火焰的距离摄像头的距离。
6.根据权利要求5所述的装置,其特征在于,还包括:
第二网络模型训练模块,用于创建用于火灾烟雾颜色分类的第二网络模型,并以预置的损失函数,对所述第二网络模型进行训练;
所述火灾识别模块,包括:
结合模型识别子模块,用于结合所述第一网络模型和所述第二网络模型,对所述深度图像进行火灾识别。
7.根据权利要求5所述的装置,其特征在于,还包括:
训练集扩充模块,用于对所述训练集进行数据扩充。
8.根据权利要求5所述的装置,其特征在于,所述标注的火灾信息包括以下任一项或多项:
每个目标实例的检测定位框、烟雾或火焰标签、烟雾颜色标签、分割标签。
CN202011628473.8A 2020-12-30 2020-12-30 一种火灾识别的方法和装置 Active CN112633231B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011628473.8A CN112633231B (zh) 2020-12-30 2020-12-30 一种火灾识别的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011628473.8A CN112633231B (zh) 2020-12-30 2020-12-30 一种火灾识别的方法和装置

Publications (2)

Publication Number Publication Date
CN112633231A CN112633231A (zh) 2021-04-09
CN112633231B true CN112633231B (zh) 2022-08-02

Family

ID=75290251

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011628473.8A Active CN112633231B (zh) 2020-12-30 2020-12-30 一种火灾识别的方法和装置

Country Status (1)

Country Link
CN (1) CN112633231B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113449588A (zh) * 2021-05-13 2021-09-28 上海湃道智能科技有限公司 烟火检测方法
CN113516398A (zh) * 2021-07-22 2021-10-19 北京淇瑀信息科技有限公司 基于分层抽样的风险设备识别方法、装置及电子设备
CN113674423A (zh) * 2021-08-27 2021-11-19 中德(珠海)人工智能研究院有限公司 一种火灾原因判定方法、装置、服务器及可读存储介质
CN114506221B (zh) * 2022-03-03 2023-08-08 西南交通大学 基于高温超导磁浮的隧道火场环境侦测系统及方法
CN115063718B (zh) * 2022-06-10 2023-08-29 嘉洋智慧安全科技(北京)股份有限公司 火灾检测方法、装置、设备及存储介质
CN115205793B (zh) * 2022-09-15 2023-01-24 广东电网有限责任公司肇庆供电局 基于深度学习二次确认的电力机房烟雾检测方法及装置
CN115631500A (zh) * 2022-10-13 2023-01-20 吉林省吉林祥云信息技术有限公司 一种基于DenseNet的字符型图像验证码识别方法、系统、设备以及存储介质
CN116977634B (zh) * 2023-07-17 2024-01-23 应急管理部沈阳消防研究所 基于激光雷达点云背景减除的火灾烟雾检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112001428A (zh) * 2020-08-05 2020-11-27 中国科学院大学 一种基于特征匹配优化的无锚框目标检测网络训练方法
CN112070729A (zh) * 2020-08-26 2020-12-11 西安交通大学 一种基于场景增强的anchor-free遥感图像目标检测方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109147254B (zh) * 2018-07-18 2021-05-18 武汉大学 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法
CN109903507A (zh) * 2019-03-04 2019-06-18 上海海事大学 一种基于深度学习的火灾智能监控系统及其方法
CN110135266A (zh) * 2019-04-17 2019-08-16 浙江理工大学 一种基于深度学习的双摄像头电气火灾防控方法及系统
CN112052797A (zh) * 2020-09-07 2020-12-08 合肥科大立安安全技术有限责任公司 基于MaskRCNN的视频火灾识别方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112001428A (zh) * 2020-08-05 2020-11-27 中国科学院大学 一种基于特征匹配优化的无锚框目标检测网络训练方法
CN112070729A (zh) * 2020-08-26 2020-12-11 西安交通大学 一种基于场景增强的anchor-free遥感图像目标检测方法及系统

Also Published As

Publication number Publication date
CN112633231A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN112633231B (zh) 一种火灾识别的方法和装置
CN109255317B (zh) 一种基于双网络的航拍图像差异检测方法
CN112084869B (zh) 一种基于紧致四边形表示的建筑物目标检测方法
CN101986348A (zh) 一种视觉目标识别与跟踪方法
CN106557740B (zh) 一种遥感图像中油库目标的识别方法
CN112837315A (zh) 一种基于深度学习的输电线路绝缘子缺陷检测方法
CN113313037A (zh) 一种基于自注意力机制的生成对抗网络视频异常检测方法
CN111368634B (zh) 基于神经网络的人头检测方法、系统及存储介质
CN113537070B (zh) 一种检测方法、装置、电子设备及存储介质
Yin et al. Attention-guided siamese networks for change detection in high resolution remote sensing images
CN114580541A (zh) 一种基于时空域双通道火灾视频烟雾识别方法
CN113762326A (zh) 一种数据识别方法、装置、设备及可读存储介质
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
CN113657305B (zh) 一种基于视频的黑烟车辆及林格曼黑度等级智能检测方法
CN115620090A (zh) 模型训练方法、低照度目标重识别方法和装置、终端设备
CN115601674A (zh) 一种输电工程烟雾隐患识别方法、装置及存储介质
CN115546668A (zh) 海洋生物的检测方法、装置及无人机
CN112541403B (zh) 一种利用红外摄像头的室内人员跌倒检测方法
CN115272882A (zh) 一种基于遥感影像的离散建筑物检测方法及系统
CN114387496A (zh) 一种目标检测方法和电子设备
CN113627383A (zh) 一种用于全景智能安防的行人徘徊重识别方法
Wenxuan et al. Lite Transformer Network with Long–Short Range Attention for Real-Time Fire Detection
Jiang et al. Fast Traffic Accident Identification Method Based on SSD Model
Mi et al. Sniffer-Net: quantitative evaluation of smoke in the wild based on spatial–temporal motion spectrum
Qiao et al. FireFormer: an efficient Transformer to identify forest fire from surveillance cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant