CN114119531A - 应用于校园智慧平台的火灾检测方法、装置及计算机设备 - Google Patents

应用于校园智慧平台的火灾检测方法、装置及计算机设备 Download PDF

Info

Publication number
CN114119531A
CN114119531A CN202111395742.5A CN202111395742A CN114119531A CN 114119531 A CN114119531 A CN 114119531A CN 202111395742 A CN202111395742 A CN 202111395742A CN 114119531 A CN114119531 A CN 114119531A
Authority
CN
China
Prior art keywords
fire
image data
smoke
scene
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111395742.5A
Other languages
English (en)
Inventor
张军毅
谢昌颐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Huajindun Information Technology Co ltd
National University of Defense Technology
Original Assignee
Shenzhen Huajindun Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Huajindun Information Technology Co ltd filed Critical Shenzhen Huajindun Information Technology Co ltd
Priority to CN202111395742.5A priority Critical patent/CN114119531A/zh
Publication of CN114119531A publication Critical patent/CN114119531A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本申请涉及一种应用于校园智慧平台的火灾检测方法、装置及计算机设备。所述方法包括:通过先利用已训练的深度学习模型对待检测的实时场景图像进行预测,得到图像中的火灾预测区域,并得到该区域为烟雾类别还是火苗类别,再根据火灾场景的图像进行背景建模以得到火灾的动态变化区域,通过计算火灾预测区域以及动态变化区域的IOU值,最终确定火灾场景中是否出现火苗或者烟雾,并且检测人员可以通过最终的判断结果以及烟雾类别或者火苗类别对火灾场景中火灾大小,程度进行了解,有助于做出相应的措施。采用本方法能够有效的提高了检测的准确率。

Description

应用于校园智慧平台的火灾检测方法、装置及计算机设备
技术领域
本申请涉及图像识别检测技术领域,特别是涉及一种应用于校园智慧平台的火灾检测方法、装置及计算机设备。
背景技术
随着互联网和人工智能的深入应用,校园工作、学习和生活逐渐走向智能化一体化,智慧校园以各种应用服务系统为载体,将教学、科研、管理和校园生活进行充分融合。
使用人工智能技术在智慧校园中检测火苗和烟雾,当火灾出现时能够及时预警,降低人员伤亡和财产损失。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高检测准确率的应用于校园智慧平台的火灾检测方法、装置、计算机设备和存储介质。
一种应用于校园智慧平台的火灾检测方法,所述方法包括:
获取待检测火灾场景的图像数据,所述图像数据包括以时间为顺序排列的多帧实时场景图像;
将所述图像数据输入至已训练的深度学习模型,得到所述图像数据中的火灾预测区域,并得到所述火灾预测区域的分类,所述分类包括火苗类别或烟雾类别;
根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
根据所述动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断所述待检测的火灾场景中出火苗或者烟雾,以进行火灾预警。
在其中一实施例中,所述火苗类别细分为小火苗、大火,所述烟雾类别细分为白烟、黑烟、灰烟。
在其中一实施例中,根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域时采用高斯方法进行背景建模。
在其中一实施例中,所述根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域包括:
根据3个不同均值和方差参数的高斯模型组成混合高斯模型;
根据连续两帧实时场景图像中的前一帧实时场景图像中的各像素点的颜色特征对所述混合高斯模型进行更新,得到更新混合高斯模型;
根据连续两帧实时场景图像中的后一帧实时场景图像中的各像素点的颜色特征与所述更新混合高斯模型进行匹配,若匹配成功则说明进行匹配的像素点为背景点,若匹配不成功则说明进行匹配的像素点为火苗或烟雾的动态变化点;
根据各匹配不成功的像素点定位所述动态变化区域。
在其中一实施例中,所述预设值为0.5。
在其中一实施例中,训练所述深度学习模型包括:
获取训练样本集,所述训练样本集中包括多张与火灾相关的训练图像;
将各张所述训练图像进行预处理,并对预处理后的训练图像根据火苗类别或者烟雾类别进行标注;
将标注后的训练图像输入所述深度学习模型进行训练,以得到所述训练后的深度学习模型。
在其中一实施例中,所述深度学习模型采用YOLOv5x模型。
在其中一实施例中,所述训练样本集中的多张训练图像包括通过模拟火灾采集的不同阶段火苗和烟雾图像以及通过在互联网上搜集的不同阶段火苗和烟雾图像。
本申请还提供了一种应用于校园智慧平台的火灾检测装置,所述装置包括:
待检测图像数据获取模块,用于获取待检测的疑似火灾场景的图像数据,所述图像数据包括以时间为顺序排列的多帧实时场景图像,并对各所述实时场景图像进行预处理;
火灾预测区域得到模块,用于将预处理后的所述图像数据输入至已训练的深度学习模型,得到所述图像数据中的火灾预测区域,并得到所述火灾预测区域的分类,所述分类包括火苗类别或烟雾类别;
动态变化区域定位模块,用于根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
火灾场景检测模块,用于根据所述动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断所述疑似火灾场景中出火苗或者烟雾,以进行火灾预警。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待检测的疑似火灾场景的图像数据,所述图像数据包括以时间为顺序排列的多帧实时场景图像;
将所述图像数据输入至已训练的深度学习模型,得到所述图像数据中的火灾预测区域,并得到所述火灾预测区域的分类,所述分类包括火苗类别或烟雾类别;
根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
根据所述动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断所述疑似火灾场景中出火苗或者烟雾,以进行火灾预警。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待检测的疑似火灾场景的图像数据,所述图像数据包括以时间为顺序排列的多帧实时场景图像;
将所述图像数据输入至已训练的深度学习模型,得到所述图像数据中的火灾预测区域,并得到所述火灾预测区域的分类,所述分类包括火苗类别或烟雾类别;
根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
根据所述动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断所述疑似火灾场景中出火苗或者烟雾,以进行火灾预警。
上述应用于校园智慧平台的火灾检测方法、装置及计算机设备,通过先利用已训练的深度学习模型对待检测的实时场景图像进行预测,得到图像中的火灾预测区域,并得到该区域为烟雾类别还是火苗类别,再根据火灾场景的图像进行背景建模以得到火灾的动态变化区域,通过计算火灾预测区域以及动态变化区域的IOU值,最终确定火灾场景中是否出现火苗或者烟雾,并且检测人员可以通过最终的判断结果以及烟雾类别或者火苗类别对火灾场景中火灾大小,程度进行了解,有助于做出相应的措施。本申请中方法,通过深度学习模型结合图像动态区域进行火灾检测,有效的提高了检测的准确率。
附图说明
图1为一个实施例中应用于校园智慧平台的火灾检测方法的流程示意图;
图2为一个实施例中训练深度学习模型的步骤流程示意图;
图3为一个实施例中深度学习模型的结构示意图;
图4为一个实施例中实施火灾检测方法的算法流程图;
图5为一个实施例中应用于校园智慧平台的火灾检测装置的结构框图;
图6为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
如图1所示,本申请提供了一种应用于校园智慧平台的火灾检测方法,具体包括以下步骤:
步骤S100,获取待检测的疑似火灾场景的图像数据,图像数据包括以时间为顺序排列的多帧实时场景图像,并对各实时场景图像进行预处理;
步骤S110,将预处理后的图像数据输入至已训练的深度学习模型,得到图像数据中的火灾预测区域,并得到火灾预测区域的分类,分类包括火苗类别或烟雾类别;
步骤S120,根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
步骤S130,根据动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断疑似火灾场景中出火苗或者烟雾,以进行火灾预警。
在本实施例中,首先利用训练好的深度学习模型对待检测的实时场景图像中火灾区域进行预测,并对预测区域根据火苗类别或者烟雾类别进行分类,以得到火灾场景中更为具体的信息。由于在火灾发生时,火苗或者是烟雾是运动的这一特点,还根据实时场景图像进行背景建模以确定图像中的动态变化区域,也就是出现火苗或者烟雾的区域,再根据动态变化区域以及火灾预测区域进行IOU计算,最后根据IOU值的大小判断火灾场景中是否真实出现火苗或者烟雾,并根据判断结果进行预警。在本申请中,结合深度学习模型以及图像动态区域检测共同对疑似是火灾场景的图像进行检测,有效提高了准确率。
在本实施例中,该火灾检测方法应用在校园智慧平台上,可对布置在校园内各处的摄像装置拍摄的图像或者视频进行实时检测,可及时检测到火灾的发生,便于后续的救援工作,避免不必要的人员伤亡。
在步骤S100中,待检测火灾场景的图像数据为通过摄像装置拍摄到的校园某一处的实时图像,该图像数据可以是以时间为顺序的连续图像,也就是视频图像数据,也可以是具有间隔时间的多张图像数据。对其图像数据中的场景进行火灾检测,实际上在确定为火灾场景前均为疑似火灾场景。
在步骤S110中,将图像数据通过训练好的深度学习模型进行检测及对得到的火灾预测区域进行分类。也就是说,通过深度学习模型可以在各实时场景图像中进行检测,预测出各张图像中出现火灾特征的区域,并对该区域进行类别的标识。
在本实施例中,将火苗及烟雾作为火灾特征,并将其出现的区域进行划分。并且还进一步的对火苗类别以及烟雾类别进行细分,例如,将火苗类别细分为小火苗、大火,将烟雾类别细分为白烟、黑烟、灰烟。这样对火灾特征进一步进行细分有利于监测人员通过火灾预测区域的类别对实时场景中火灾严重缓急程度进行判断,以便做出相应的救援措施。
由于只根据深度学习模型输出的预测区域进行判断是否出现火灾准确率并不高,所以在本实施例中,还根据火灾发生时,其火苗或者烟雾是动态的这一特征,根据图像数据进行背景建模以定位图像数据中的动态变化区域,也就是出现火苗或者烟雾的区域,再将动态变化区域以及深度学习模型输出的火灾预测区域进行IOU计算,根据IOU计算结果判断疑似火灾场景是否出现火苗或者烟雾。
其中,IOU是指Intersection over Union,计算的是“预测的边框”和“真实的边框”的交集和并集的比值。
在本实施例中,将预设值设置为0.5,当IOU大于0.5时,则判断出现火苗或者烟雾,而当IOU小于0.5时,则判断疑似火灾场景并没有出现火灾或者烟雾。这样结合深度学习模型输出的火灾预测区域以及基于图像得到动态变化区域,通过由动态变化区域提供“真实的边框”,利用计算IOU值来进行火灾检测,提高的检测的准确性。
在本实施例中,根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域时采用高斯方法进行背景建模。而根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域包括:根据3个不同均值和方差参数的高斯模型组成混合高斯模型。其中,在范围[0,255]中产生的随机数作为均值,再赋以较大的方差,例如,10。然后以前20帧的实时场景图像中各像素点的颜色特征训练初始化模型,然后根据连续两帧实时场景图像中的前一帧实时场景图像对混合高斯模型进行更新,得到更新混合高斯模型,根据连续两帧实时场景图像中的后一帧实时场景图像中的各像素点的颜色特征与更新混合高斯模型进行匹配,若匹配成功则说明进行匹配的像素点为背景点,若匹配不成功则说明进行匹配的像素点为火苗或烟雾的动态变化点,根据各匹配不成功的像素点定位所述动态变化区域。
如图2所示,还提供了一种训练深度学习模型包括:
步骤S200,获取训练样本集,训练样本集中包括多张与火灾相关的训练图像;
步骤S210,将各张训练图像进行预处理,并对预处理后的训练图像根据火苗类别或者烟雾类别进行标注;
步骤S230,将标注后的训练图像输入深度学习模型进行训练,以得到训练后的深度学习模型。
在本实施例中,由于需要训练后的深度学习模型可对检测出来的火灾区域类别进行细分,所以训练样本集中的多张训练图像包括通过模拟火灾采集的不同阶段火苗和烟雾图像以及通过在互联网上搜集的不同阶段火苗和烟雾图像,这样大量的不同阶段火苗以及不同类别的烟雾训练图像对深度学习模型进行训练可以提高模型的检测准确度。
具体的,在将训练图像输入深度学习模型进行训练之前还对各训练图像进行预处理。预处理包括人工筛选数据,进行归一化处理。再对预处理后的图像根据刚燃烧的小火苗、大火、白烟、黑烟以及灰烟进行标识。这样提高深度学习模型的检测准确度。
在本实施例中,深度学习模型采用YOLOv5x模型。,YOLOv5x是当前效果最佳的目标检测模型,其在COCO数据集上的mAP可达50.1,其网络结构如图3所示。其中,在该网络结构的输入端采用Mosaic数据增强、自适应锚框计算、自适应图片缩放,Backbone部分包括Focus结构以及CSP结构。Neck部分再用FPN+PAN结构。而在进行训练时采用GIOU_Loss函数。
本申请中的火灾检测方法在进行实际操作时,其算法流程如图4所示。
上述应用于校园智慧平台的火灾检测方法中,通过先利用已训练的深度学习模型对待检测的实时场景图像进行预测,得到图像中的火灾预测区域,并得到该区域为烟雾类别还是火苗类别,再根据火灾场景的图像进行背景建模以得到火灾的动态变化区域,通过计算火灾预测区域以及动态变化区域的IOU值,最终确定火灾场景中是否出现火苗或者烟雾,并且检测人员可以通过最终的判断结果以及烟雾类别或者火苗类别对火灾场景中火灾大小,程度进行了解,有助于做出相应的措施。本申请中方法,通过深度学习模型结合图像动态区域进行火灾检测,有效的提高了检测的准确率。
应该理解的是,虽然图1-2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种应用于校园智慧平台的火灾检测装置,包括:待检测图像数据获取模块300、火灾预测区域得到模块310、动态变化区域定位模块320和火灾场景检测模块330,其中:
待检测图像数据获取模块300,用于获取待检测的疑似火灾场景的图像数据,所述图像数据包括以时间为顺序排列的多帧实时场景图像,并对各所述实时场景图像进行预处理;
火灾预测区域得到模块310,用于将预处理后的所述图像数据输入至已训练的深度学习模型,得到所述图像数据中的火灾预测区域,并得到所述火灾预测区域的分类,所述分类包括火苗类别或烟雾类别;
动态变化区域定位模块320,用于根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
火灾场景检测模块330,用于根据所述动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断所述疑似火灾场景中出火苗或者烟雾,以进行火灾预警。
关于应用于校园智慧平台的火灾检测装置的具体限定可以参见上文中对于应用于校园智慧平台的火灾检测方法的限定,在此不再赘述。上述应用于校园智慧平台的火灾检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种应用于校园智慧平台的火灾检测方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待检测的疑似火灾场景的图像数据,所述图像数据包括以时间为顺序排列的多帧实时场景图像;
将所述图像数据输入至已训练的深度学习模型,得到所述图像数据中的火灾预测区域,并得到所述火灾预测区域的分类,所述分类包括火苗类别或烟雾类别;
根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
根据所述动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断所述疑似火灾场景中出火苗或者烟雾,以进行火灾预警。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:所述火苗类别细分为小火苗、大火,所述烟雾类别细分为白烟、黑烟、灰烟。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域时采用高斯方法进行背景建模。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:所述根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域包括:
根据3个不同均值和方差参数的高斯模型组成混合高斯模型;
根据连续两帧实时场景图像中的前一帧实时场景图像中的各像素点的颜色特征对所述混合高斯模型进行更新,得到更新混合高斯模型;
根据连续两帧实时场景图像中的后一帧实时场景图像中的各像素点的颜色特征与所述更新混合高斯模型进行匹配,若匹配成功则说明进行匹配的像素点为背景点,若匹配不成功则说明进行匹配的像素点为火苗或烟雾的动态变化点;
根据各匹配不成功的像素点定位所述动态变化区域。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:所述预设值为0.5。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:训练所述深度学习模型包括:
获取训练样本集,所述训练样本集中包括多张与火灾相关的训练图像;
将各张所述训练图像进行预处理,并对预处理后的训练图像根据火苗类别或者烟雾类别进行标注;
将标注后的训练图像输入所述深度学习模型进行训练,以得到所述训练后的深度学习模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:所述深度学习模型采用YOLOv5x模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:所述训练样本集中的多张训练图像包括通过模拟火灾采集的不同阶段火苗和烟雾图像以及通过在互联网上搜集的不同阶段火苗和烟雾图像。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待检测的疑似火灾场景的图像数据,所述图像数据包括以时间为顺序排列的多帧实时场景图像;
将所述图像数据输入至已训练的深度学习模型,得到所述图像数据中的火灾预测区域,并得到所述火灾预测区域的分类,所述分类包括火苗类别或烟雾类别;
根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
根据所述动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断所述疑似火灾场景中出火苗或者烟雾,以进行火灾预警。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:所述火苗类别细分为小火苗、大火,所述烟雾类别细分为白烟、黑烟、灰烟。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域时采用高斯方法进行背景建模。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:所述根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域包括:
根据3个不同均值和方差参数的高斯模型组成混合高斯模型;
根据连续两帧实时场景图像中的前一帧实时场景图像中的各像素点的颜色特征对所述混合高斯模型进行更新,得到更新混合高斯模型;
根据连续两帧实时场景图像中的后一帧实时场景图像中的各像素点的颜色特征与所述更新混合高斯模型进行匹配,若匹配成功则说明进行匹配的像素点为背景点,若匹配不成功则说明进行匹配的像素点为火苗或烟雾的动态变化点;
根据各匹配不成功的像素点定位所述动态变化区域。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:所述预设值为0.5。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:训练所述深度学习模型包括:
获取训练样本集,所述训练样本集中包括多张与火灾相关的训练图像;
将各张所述训练图像进行预处理,并对预处理后的训练图像根据火苗类别或者烟雾类别进行标注;
将标注后的训练图像输入所述深度学习模型进行训练,以得到所述训练后的深度学习模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:所述深度学习模型采用YOLOv5x模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:所述训练样本集中的多张训练图像包括通过模拟火灾采集的不同阶段火苗和烟雾图像以及通过在互联网上搜集的不同阶段火苗和烟雾图像。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.应用于校园智慧平台的火灾检测方法,其特征在于,所述方法包括:
获取待检测的疑似火灾场景的图像数据,所述图像数据包括以时间为顺序排列的多帧实时场景图像;
将所述图像数据输入至已训练的深度学习模型,得到所述图像数据中的火灾预测区域,并得到所述火灾预测区域的分类,所述分类包括火苗类别或烟雾类别;
根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
根据所述动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断所述疑似火灾场景中出火苗或者烟雾,以进行火灾预警。
2.根据权利要求1所述的火灾检测方法,其特征在于,所述火苗类别细分为小火苗、大火,所述烟雾类别细分为白烟、黑烟、灰烟。
3.根据权利要求1所述的火灾检测方法,其特征在于,根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域时采用高斯方法进行背景建模。
4.根据权利要求3所述的火灾检测方法,其特征在于,所述根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域包括:
根据3个不同均值和方差参数的高斯模型组成混合高斯模型;
根据连续两帧实时场景图像中的前一帧实时场景图像中的各像素点的颜色特征对所述混合高斯模型进行更新,得到更新混合高斯模型;
根据连续两帧实时场景图像中的后一帧实时场景图像中的各像素点的颜色特征与所述更新混合高斯模型进行匹配,若匹配成功则说明进行匹配的像素点为背景点,若匹配不成功则说明进行匹配的像素点为火苗或烟雾的动态变化点;
根据各匹配不成功的像素点定位所述动态变化区域。
5.根据权利要求1所述的火灾检测方法,其特征在于,所述预设值为0.5。
6.根据权利要求1所述的火灾检测方法,其特征在于,训练所述深度学习模型包括:
获取训练样本集,所述训练样本集中包括多张与火灾相关的训练图像;
将各张所述训练图像进行预处理,并对预处理后的训练图像根据火苗类别或者烟雾类别进行标注;
将标注后的训练图像输入所述深度学习模型进行训练,以得到所述训练后的深度学习模型。
7.根据权利要求6所述的火灾检测方法,其特征在于,所述深度学习模型采用YOLOv5x模型。
8.根据权利要求6所述的火灾检测方法,其特征在于,所述训练样本集中的多张训练图像包括通过模拟火灾采集的不同阶段火苗和烟雾图像以及通过在互联网上搜集的不同阶段火苗和烟雾图像。
9.一种应用于校园智慧平台的火灾检测装置,其特征在于,所述装置包括:
待检测图像数据获取模块,用于获取待检测的疑似火灾场景的图像数据,所述图像数据包括以时间为顺序排列的多帧实时场景图像,并对各所述实时场景图像进行预处理;
火灾预测区域得到模块,用于将预处理后的所述图像数据输入至已训练的深度学习模型,得到所述图像数据中的火灾预测区域,并得到所述火灾预测区域的分类,所述分类包括火苗类别或烟雾类别;
动态变化区域定位模块,用于根据待检测的图像数据进行背景建模以定位图像数据中火灾的动态变化区域;
火灾场景检测模块,用于根据所述动态变化区域以及火灾预测区域进行IOU值计算,若IOU值大于预设值则判断所述疑似火灾场景中出火苗或者烟雾,以进行火灾预警。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述方法的步骤。
CN202111395742.5A 2021-11-22 2021-11-22 应用于校园智慧平台的火灾检测方法、装置及计算机设备 Pending CN114119531A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111395742.5A CN114119531A (zh) 2021-11-22 2021-11-22 应用于校园智慧平台的火灾检测方法、装置及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111395742.5A CN114119531A (zh) 2021-11-22 2021-11-22 应用于校园智慧平台的火灾检测方法、装置及计算机设备

Publications (1)

Publication Number Publication Date
CN114119531A true CN114119531A (zh) 2022-03-01

Family

ID=80440032

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111395742.5A Pending CN114119531A (zh) 2021-11-22 2021-11-22 应用于校园智慧平台的火灾检测方法、装置及计算机设备

Country Status (1)

Country Link
CN (1) CN114119531A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998843A (zh) * 2022-08-04 2022-09-02 深圳市海清视讯科技有限公司 火灾检测方法和相关设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998843A (zh) * 2022-08-04 2022-09-02 深圳市海清视讯科技有限公司 火灾检测方法和相关设备

Similar Documents

Publication Publication Date Title
CN111667011B (zh) 损伤检测模型训练、车损检测方法、装置、设备及介质
CN111178183B (zh) 人脸检测方法及相关装置
CN109325429B (zh) 一种关联特征数据的方法、装置、存储介质及终端
CN110490902B (zh) 应用于智慧城市的目标跟踪方法、装置、计算机设备
CN111476191B (zh) 基于智慧交通的人工智能图像处理方法及大数据云服务器
CN111126153B (zh) 基于深度学习的安全监测方法、系统、服务器及存储介质
CN111807183A (zh) 基于深度学习的电梯门状态智能检测方法
CN110766027A (zh) 图像的区域定位方法和目标区域定位模型的训练方法
CN112364715A (zh) 核电作业异常监控方法、装置、计算机设备和存储介质
CN111047088A (zh) 预测图像获取方法、装置、计算机设备和存储介质
CN110717449A (zh) 车辆年检人员的行为检测方法、装置和计算机设备
CN112686186A (zh) 一种基于深度学习的高空抛物识别方法及其相关组件
CN111860187A (zh) 一种高精度的佩戴口罩识别方法及系统
CN116229560A (zh) 一种基于人体姿态的异常行为识别方法及系统
CN114119531A (zh) 应用于校园智慧平台的火灾检测方法、装置及计算机设备
CN111815576A (zh) 金属部件腐蚀状况检测方法、装置、设备和存储介质
CN110516559B (zh) 适用于精准监控的目标跟踪方法及装置、计算机设备
Skladchykov et al. Application of YOLOX deep learning model for automated object detection on thermograms
CN114037943A (zh) 一种防脱岗睡岗检测方法及装置
CN111695404B (zh) 行人跌倒检测方法、装置、电子设备及存储介质
CN115116119A (zh) 一种基于数字图像处理技术的人脸识别系统
CN114241354A (zh) 仓库人员行为识别方法、装置、计算机设备、存储介质
CN113723355A (zh) 一种目标监控方法和装置、存储介质及电子装置
CN113610153A (zh) 人体红外图像识别方法、装置、计算机设备及存储介质
CN110991331A (zh) 施工现场的检测方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20231219

Address after: 518048 Room 601, Shenmao commercial center, No. 59 Xinwen Road, Futian District, Shenzhen, Guangdong Province

Applicant after: SHENZHEN HUAJINDUN INFORMATION TECHNOLOGY Co.,Ltd.

Applicant after: National University of Defense Technology

Address before: 518048 Room 601, Shenmao commercial center, No. 59 Xinwen Road, Futian District, Shenzhen, Guangdong Province

Applicant before: SHENZHEN HUAJINDUN INFORMATION TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right