CN116152680A - 一种面向消防无人机的火情实时检测方法及系统 - Google Patents
一种面向消防无人机的火情实时检测方法及系统 Download PDFInfo
- Publication number
- CN116152680A CN116152680A CN202211730262.4A CN202211730262A CN116152680A CN 116152680 A CN116152680 A CN 116152680A CN 202211730262 A CN202211730262 A CN 202211730262A CN 116152680 A CN116152680 A CN 116152680A
- Authority
- CN
- China
- Prior art keywords
- fire
- judging
- real
- target
- scene image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000011897 real-time detection Methods 0.000 title claims abstract description 23
- 230000004927 fusion Effects 0.000 claims abstract description 35
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 20
- 230000005251 gamma ray Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 5
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 28
- 238000001514 detection method Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
- Y02A40/28—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture specially adapted for farming
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Remote Sensing (AREA)
- Fire-Detection Mechanisms (AREA)
Abstract
本发明公开了一种面向消防无人机的火情实时检测方法及系统,其中方法包括:实时获取目标火场图像,并对目标火场图像进行预处理;根据目标火场图像的像素颜色空间特征对火情进行判别,获得第一判别结果;利用YOLOV4图像识别模型提取目标火场图像的火焰深度特征,并基于火焰深度特征再次对火情进行判别,获得第二判别结果;通过融合判别函数对第一判别结果和第二判别结果按预设的权重系数相结合,进行融合判别,获得最终火情发生率;通过该方法可以有效降低虚警率与漏警率,从而提高火场救援的效率。
Description
技术领域
本发明属于计算机视觉及模式识别技术领域,特别是一种面向消防无人机的火情实时检测方法及系统。
背景技术
火灾,作为社会中最常见的灾害之一,在人们的生活埋下很大的隐患;同时,随着社会的不断发展,工业化的程度不断上升,火灾发生的概率不断增大,带来的危害与日俱增。根据发现灾情的早晚,火灾带来的危害有着明显的不同。因此,在增强火灾防护、消除火灾隐患的同时,如何在火灾发生时,快速、有效地辨明火情也是至关重要的。
现在大多数火情监测的场所,火灾防控的重点大都在于传感器的安放,包括烟雾传感器的设置,红外线和激光传感器技术的引入等等。但是,此类传感器仅仅是起到一个火灾判明的作用,目的更多在于判别火情的有无,进一步的火源位置、强度,现在火情的状况等等关乎火灾救援能否顺利开展的指标则无法通过此类传感器准确的反应出来。现场具体火情勘探的重任则放在了救援战士的身上,然而,火场环境恶劣且瞬息万变,人工勘探火情无疑是十分危险的。
在面对恶劣的火场环境,应用无人机对火场进行火情探测是较为常见的思路,即由飞手操纵无人机去拍摄火场内部的画面,回传到指挥中心进行火情的分析。因此,目前火场无人机救援中,火情往往需要通过人工进行分析,效率低下的同时也会受到更多不稳定因素的影响。此时,无人机内部搭载火情判别模块则更为重要。
然而,现有的以像素特征为判据的火情判别方法存在一定的局限性,具有较高的虚警率,这无疑会给火灾救援带来许多冗余的工作量;因此,如何改进火情判决功能,降低虚警率与漏警率,从而提高火场救援的效率,成为当前研究的关键问题。
发明内容
鉴于上述问题,本发明提供一种至少解决上述部分技术问题的一种面向消防无人机的火情实时检测方法及系统,可以有效降低虚警率与漏警率,从而提高火场救援的效率。
一方面,本发明实施例提供了一种面向消防无人机的火情实时检测方法,包括:
S1、实时获取目标火场图像,并对所述目标火场图像进行预处理;
S2、根据目标火场图像的像素颜色空间特征对火情进行判别,获得第一判别结果;
S3、利用YOLOV4图像识别模型提取目标火场图像的火焰深度特征,并基于所述火焰深度特征再次对火情进行判别,获得第二判别结果;
S4、通过融合判别函数对所述第一判别结果和第二判别结果按预设的权重系数相结合,进行融合判别,获得最终火情发生率。
进一步地,还包括:
S5、将所述最终识别结果上传到上位机,并由上位机给出反馈,根据上位机的反馈结果,调整融合判别函数的权重系数,进而修正所述融合判别函数。
进一步地,所述预处理包括剔除模糊图像。
进一步地,所述S2具体包括;
以目标火场图像的像素信息为单位,提取目标火场图像中的颜色空间特征;
在特定颜色空间设置阈值,根据RGB颜色空间与HSV颜色空间的特征,分别比较各颜色空间特征与所设阈值,并将各颜色空间特征与阈值间的偏移量进行加权,计算第一火情发生率;
设置第一阈值,若所述第一火情发生率大于所述第一阈值,则将所述第一火情发生率作为第一判别结果。
进一步地,所述S3中,所述YOLOV4图像识别模型包括输入层、主干网络、颈部网络和预测输出层;
所述输入层,用于获取目标火场图像;
所述主干网络,用于在不同图像细粒度上聚合并形成多个图像特征;
所述颈部网络,用于对所述多个图像特征进行混合和组合,形成火焰深度特征;
所述预测输出层,用于采用YOLOV4智能识别算法,根据所述火焰深度特征再次对火情进行预测,生成火灾置信度的边界框,并将所述火灾置信度的边界框作为第二判别结果。
进一步地,所述YOLOV4智能识别算法使用了CSP Darknet53的主干特征提取网络,在加强特征提取网络使用了SPP和PANet结构,引入Mosaic进行数据增强,使用了CIOU作为回归LOSS,Mish作为激活函数。
进一步地,所述S4中,所述融合判别函数表示为:
γ=ωred×fred(γred)+ωyolo×fyolo(γyolo)
γ≤γTh
其中,γ表示最终火情发生率;γred表示第一判别结果;γyolo表示第二判别结果;fred(·)表示第一判别结果的计算函数,ωred为对应的权重;fyolo(·)表示第二判别结果的计算函数,ωyolo为对应的权重;γTh表示火情发生判决门限。
另一方面,本发明实施例提供了一种面向消防无人机的火情实时检测系统,应用上述的方法,该系统包括:数据获取模块、预处理模块、像素特征火情判别模块、智能算法火情判别模块和融合判别模块;其中:
所述数据获取模块,用于实时获取目标火场图像;
所述预处理模块,用于对所述目标火场图像进行预处理;
所述像素特征火情判别模块,用于根据目标火场图像的像素颜色空间特征对火情进行判别,获得第一判别结果;
所述智能算法火情判别模块,用于利用YOLOV4图像识别模型提取目标火场图像的火焰深度特征,并基于所述火焰深度特征再次对火情进行判别,获得第二判别结果;
所述融合判别模块,用于通过融合判别函数对所述第一判别结果和第二判别结果进行融合判别,获得最终火情发生率。
进一步地,还包括上位机;
所述上位机,用于获取所述最终火情发生率,并基于所述最终火情发生率对所述融合判别函数进行实时修正。
进一步地,所述YOLOV4图像识别模型包括输入层、主干网络、颈部网络和预测输出层;
所述输入层,用于获取目标火场图像;
所述主干网络,用于在不同图像细粒度上聚合并形成多个图像特征;
所述颈部网络,用于对所述多个图像特征进行混合和组合,形成火焰深度特征;
所述预测输出层,用于采用YOLOV4智能识别算法,根据所述火焰深度特征再次对火情进行判别,获得第二判别结果。
与现有技术相比,本发明记载的一种面向消防无人机的火情实时检测方法及系统,具有如下有益效果:
本发明中,通过融合判别函数,将YOLOV4智能算法识别和火焰像素特征识别进行结合,对二者识别的结果进行融合判别,达到准确识别火情,尽可能排除干扰项的目的,提高了火情识别的准确率,减少了虚警率与漏警率。传统的识别方法仅使用像素特征识别或是智能算法识别,不能同时保障火情的漏警率与虚警率。
本发明采用的方法具有通用性,对不同的火场环境有着良好的自我调节能力,本方法会根据人工反馈或已有识别结果在不同环境中调节融合判别函数。而传统火情识别方法参数大都已确定,无法在不同环境中进行自适应调节。
本发明所采用的方法可与云平台上送模块、火情定位模块相结合,有利于火场救援工作的开展。而传统的火情判别模块,与其他模块关联性较差。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例提供的面向消防无人机的火情实时检测方法流程示意图。
图2为本发明实施例提供的基于像素颜色空间特征的火情判别流程示意图。
图3为本发明实施例提供的YOLOV4图像识别模块框架示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
参见图1所示,本发明实施例提供了一种面向消防无人机的火情实时检测方法,具体包括如下步骤:
S1、实时获取目标火场图像,并对所述目标火场图像进行预处理;
S2、根据目标火场图像的像素颜色空间特征对火情进行判别,获得第一判别结果;
S3、利用YOLOV4图像识别模型提取目标火场图像的火焰深度特征,并基于所述火焰深度特征再次对火情进行判别,获得第二判别结果;
S4、通过融合判别函数对所述第一判别结果和第二判别结果按预设的权重系数相结合,进行融合判别,获得最终火情发生率;
S5、将所述最终识别结果上传到上位机,并由上位机给出反馈,根据上位机的反馈结果,调整融合判别函数的权重系数,进而修正所述融合判别函数。
下面分别对上述各个步骤进行详细的说明。
在上述步骤S1中,采用智能无人机载摄像头采集目标火场图像的帧数据,之后对图片进行预筛选,剔除掉模糊的图像,将清晰的图像作为有效图像进行后续步骤。
在上述步骤S2中,如图2所示,以目标火场图像的像素信息为单位,提取目标火场图像中不同颜色空间下的颜色空间特征;在特定颜色空间设置阈值,根据RGB颜色空间与HSV颜色空间的特征,分别比较各颜色空间特征与所设阈值,并将各颜色空间特征与阈值间的偏移量进行加权,计算第一火情发生率;设置第一阈值,若第一火情发生率大于第一阈值,则将第一火情发生率作为第一判别结果;若第一火情发生率小于第一阈值,则调整各个偏移量间的加权系数,重新计算第一阈值后,重新对目标火场图片提取颜色空间特征;通过设置第一阈值,可以降低火情判别过程中的低漏警率。在本发明实施例中,将第一阈值设立在多个颜色特征空间上,包括但不限于RGB颜色空间,HSV颜色空间等,其相应的门限判别函数可以用式(1)-(3)表示:
R>RThre (1)
R≥G≥B (2)
通过上述式(1)-(3)根据像素特征对火情进行初步判别,像素特征是火焰最为明显的特征之一,通过式(1)-(3)逐像素点进行火情甄别,可以有效地保障火焰检测的低漏警率。同时,模块根据判别结果进行反馈,调整判别阈值与门限,保证火情判别的准确性与泛用性。
在上述步骤S3中,如图3所示,YOLOV4图像识别模型包括输入层、主干网络、颈部网络和预测输出层;其中,输入层用于获取无人机载摄像头采集的目标火场图像;该目标火场图像经过主干网络(Backbone network)在不同图像细粒度上聚合并形成多个图像特征;颈部网络(Neck network)用于对这个多个图像特征进行混合和组合形成火焰深度特征,并将火焰深度特征传送至预测输出层(Prediction);预测输出层用于采用YOLOV4智能识别算法,根据火焰深度特征再次对火情进行预测,生成火灾置信度的边界框,并将该火灾置信度的边界框作为第二判别结果。
YOLO(YouOnlyLookOnce)网络是一种基于回归的目标检测算法,具有较快的检测速度。本发明实施例中的YOLOV4智能识别算法使用了CSP Darknet53的主干特征提取网络,在加强特征提取网络使用了SPP和PANet结构,引入Mosaic进行数据增强,使用了CIOU作为回归LOSS,Mish作为激活函数;其中:
Darknet53网络是YoloV3的主干网络,分别用于提取8、16、32倍降采样的特征。YOLOv4改进了特征提取网络,借鉴了CSPNet(Cross Stage Partial Networks)跨阶段局部网络。CSPNet将梯度的变化都集成到特征图中,能够解决其他网络优化过程中遇到的梯度变化重复问题,因此减少了模型的参数量、尺寸、FLOPS数值,也保证了推理速度和准确率。
SPP-Net结构(Spatial Pyramid Pooling Networks),能够使得不同尺寸的特征图进入全连接层,将任意尺寸的特征图直接进行固定尺寸的池化从而得到固定数量的特征。PANet(Path Aggregation Network)进行参数聚合能够适用于不同标准的目标检测。Mosaic数据增强方法能够将4张训练图像合并成一张,然后继续进行训练。增强了对正常背景之外的对象检测,丰富检测物体的背景。
CIOU(Complete IOU)是在DIoU(Distance IOU)的基础上增加了检测框尺度,即长和宽的loss,使得预测框更加符合真实框。
Mish是较为平滑的激活函数,不完全截断负值,允许较为良好的信息和比较小的负梯度深入神经网络,从而得到更好的准确性和泛化;
本发明实施例中的YOLOv4智能识别算法在原有YOLO目标检测架构的基础上,借鉴了CNN最优秀的优化策略思想,从数据处理、主干网络、网络训练、激活函数、损失函数等对YOLO算法进行不同程度的优化。如上,智能算法火情判别模块通过一个高效、强大的目标检测模型YOLOv4对火情进行判别,因为该算法结合了大量前人研究技术,可以对火焰的多个特征进行综合考虑,能够将火焰与其余目标进行分离,实现了速度和精度的完美平衡。可以有效的保障火焰检测的低虚警率。
在上述步骤S4中,
融合判别函数表示为:
γ=ωred×fred(γred)+ωyolo×fyolo(γyolo)
γ≤γTh
其中,γ表示最终火情发生率;γred表示第一判别结果;γyolo表示第二判别结果;fred(·)表示第一判别结果的计算函数,ωred为对应的权重;fyolo(·)表示第二判别结果的计算函数,ωyolo为对应的权重;γTh表示火情发生判决门限。
在上述步骤S5中,融合判别模块将综合判别结果反馈给火场指挥中心进行最终决断,根据指挥中心反馈的结果可以对融合判别函数进行二次修正,调整融合判别函数的权重ωred与权重ωyolo,使火情判别结果尽可能符合指挥中心的反馈结果,尽可能减少复杂火场环境产生的影响。
火情发生判决门限γTh是判断火情是否发生的重要依据,该门限通过融合判别函数的输出结果与人员根据实际情况的反馈联合得出,当某个区域的火情发生率大于判决门限时即可判定该区域有火情发生,将火情发生率γ与火情发生判决门限γTh相对比,可以判决是否有火情发生。同时,该模块可以根据判别结果进行反馈,对权重占比以及处理函数构造进行调整,保证该模块的复杂环境适应性。
本发明提出了一种面向消防无人机的火情实时检测方法,具体包括:采集无人机侧搭载的摄像头的图像帧数据,进行预处理;提取无人机摄像头拍摄图片的像素特征;利用训练完毕的神经网络模型提取图像的深度特征;设计权重判决函数,以判决模块为基础,完成火情检测模块的设计;在实际应用时,同时保障低漏判率与低误判率对火情进行检测,再向后续模块进行传递。本发明提出的面向消防无人机的火情实时检测方法,将传统像素特征火情识别与机器学习智能识别的优势,通过设计融合判别模块,可以高效、准确地进行火情识别。本发明不局限于传统像素特征或神经网络计算等单一火情识别方法,而是将各类识别方法的优点统一进行融合识别,能够保障较低的漏警率与虚警率,适用于搭载在消防无人机上识别火场火情的任务需求。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种面向消防无人机的火情实时检测方法,其特征在于,包括:
S1、实时获取目标火场图像,并对所述目标火场图像进行预处理;
S2、根据目标火场图像的像素颜色空间特征对火情进行判别,获得第一判别结果;
S3、利用YOLOV4图像识别模型提取目标火场图像的火焰深度特征,并基于所述火焰深度特征再次对火情进行判别,获得第二判别结果;
S4、通过融合判别函数对所述第一判别结果和第二判别结果按预设的权重系数相结合,进行融合判别,获得最终火情发生率。
2.如权利要求1所述的一种面向消防无人机的火情实时检测方法,其特征在于,还包括:
S5、将所述最终识别结果上传到上位机,并由上位机给出反馈,根据上位机的反馈结果,调整融合判别函数的权重系数,进而修正所述融合判别函数。
3.如权利要求1所述的一种面向消防无人机的火情实时检测方法,其特征在于,所述预处理包括剔除模糊图像。
4.权利要求1所述的一种面向消防无人机的火情实时检测方法,其特征在于,所述S2具体包括;
以目标火场图像的像素信息为单位,提取目标火场图像中的颜色空间特征;
在特定颜色空间设置阈值,根据RGB颜色空间与HSV颜色空间的特征,分别比较各颜色空间特征与所设阈值,并将各颜色空间特征与阈值间的偏移量进行加权,计算第一火情发生率;
设置第一阈值,若所述第一火情发生率大于所述第一阈值,则将所述第一火情发生率作为第一判别结果。
5.如权利要求1所述的一种面向消防无人机的火情实时检测方法,其特征在于,所述S3中,所述YOLOV4图像识别模型包括输入层、主干网络、颈部网络和预测输出层;
所述输入层,用于获取目标火场图像;
所述主干网络,用于在不同图像细粒度上聚合并形成多个图像特征;
所述颈部网络,用于对所述多个图像特征进行混合和组合,形成火焰深度特征;
所述预测输出层,用于采用YOLOV4智能识别算法,根据所述火焰深度特征再次对火情进行预测,生成火灾置信度的边界框,并将所述火灾置信度的边界框作为第二判别结果。
6.如权利要求5所述的一种面向消防无人机的火情实时检测方法,其特征在于,所述YOLOV4智能识别算法使用了CSP Darknet53的主干特征提取网络,在加强特征提取网络使用了SPP和PANet结构,引入Mosaic进行数据增强,使用了CIOU作为回归LOSS,Mish作为激活函数。
7.如权利要求1所述的一种面向消防无人机的火情实时检测方法,其特征在于,所述S4中,所述融合判别函数表示为:
γ=ωred×fred(γred)+ωyolo×fyolo(γyolo)
γ≤γTh
其中,γ表示最终火情发生率;γred表示第一判别结果;γyolo表示第二判别结果;fred(·)表示第一判别结果的计算函数,ωred为对应的权重;fyolo(·)表示第二判别结果的计算函数,ωyolo为对应的权重;γTh表示火情发生判决门限。
8.一种面向消防无人机的火情实时检测系统,其特征在于,应用上述权利要求1-7所述的方法,该系统包括:数据获取模块、预处理模块、像素特征火情判别模块、智能算法火情判别模块和融合判别模块;其中:
所述数据获取模块,用于实时获取目标火场图像;
所述预处理模块,用于对所述目标火场图像进行预处理;
所述像素特征火情判别模块,用于根据目标火场图像的像素颜色空间特征对火情进行判别,获得第一判别结果;
所述智能算法火情判别模块,用于利用YOLOV4图像识别模型提取目标火场图像的火焰深度特征,并基于所述火焰深度特征再次对火情进行判别,获得第二判别结果;
所述融合判别模块,用于通过融合判别函数对所述第一判别结果和第二判别结果进行融合判别,获得最终火情发生率。
9.如权利要求8所述的一种面向消防无人机的火情实时检测方法,其特征在于,还包括上位机;
所述上位机,用于获取所述最终火情发生率,并基于所述最终火情发生率对所述融合判别函数进行实时修正。
10.如权利要求8所述的一种面向消防无人机的火情实时检测方法,其特征在于,所述YOLOV4图像识别模型包括输入层、主干网络、颈部网络和预测输出层;
所述输入层,用于获取目标火场图像;
所述主干网络,用于在不同图像细粒度上聚合并形成多个图像特征;
所述颈部网络,用于对所述多个图像特征进行混合和组合,形成火焰深度特征;
所述预测输出层,用于采用YOLOV4智能识别算法,根据所述火焰深度特征再次对火情进行判别,获得第二判别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211730262.4A CN116152680A (zh) | 2022-12-30 | 2022-12-30 | 一种面向消防无人机的火情实时检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211730262.4A CN116152680A (zh) | 2022-12-30 | 2022-12-30 | 一种面向消防无人机的火情实时检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116152680A true CN116152680A (zh) | 2023-05-23 |
Family
ID=86359386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211730262.4A Pending CN116152680A (zh) | 2022-12-30 | 2022-12-30 | 一种面向消防无人机的火情实时检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116152680A (zh) |
-
2022
- 2022-12-30 CN CN202211730262.4A patent/CN116152680A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110516609B (zh) | 一种基于图像多特征融合的火灾视频检测及预警方法 | |
CN108596277B (zh) | 一种车辆身份识别方法、装置和存储介质 | |
CN110427825B (zh) | 基于关键帧与快速支持向量机融合的视频火焰识别方法 | |
CN106600888B (zh) | 一种森林火灾自动检测方法及系统 | |
CN101930610B (zh) | 使用适应性背景模型的移动物体侦测方法 | |
CN105894701B (zh) | 输电线路防外破大型施工车辆的识别报警方法 | |
Chen et al. | A UAV-based forest fire detection algorithm using convolutional neural network | |
CN101715111B (zh) | 视频监控中滞留物主自动搜寻方法 | |
CN110619276B (zh) | 基于无人机移动监控的异常及暴力检测系统和方法 | |
CN106339657B (zh) | 基于监控视频的秸秆焚烧监测方法、装置 | |
CN109918971A (zh) | 监控视频中人数检测方法及装置 | |
CN105426828A (zh) | 人脸检测方法、装置及系统 | |
CN110490043A (zh) | 一种基于区域划分和特征提取的森林烟火检测方法 | |
CN105844245A (zh) | 一种伪装人脸检测方法及系统 | |
CN106127812A (zh) | 一种基于视频监控的客运站非出入口区域的客流统计方法 | |
US20240005759A1 (en) | Lightweight fire smoke detection method, terminal device, and storage medium | |
CN111582074A (zh) | 一种基于场景深度信息感知的监控视频树叶遮挡检测方法 | |
CN115035088A (zh) | 一种基于yolov5和姿态估计的安全帽佩戴检测方法 | |
CN110245592A (zh) | 一种用于提升监控场景的行人重识别率的方法 | |
KR102514301B1 (ko) | 이종 센서 융합을 이용한 행동 분석 장치 | |
CN112101260A (zh) | 一种作业人员安全带识别方法、装置、设备和存储介质 | |
Shangzheng | A traffic sign image recognition and classification approach based on convolutional neural network | |
CN110660187B (zh) | 一种基于边缘计算的森林火警监测系统 | |
KR102171384B1 (ko) | 영상 보정 필터를 이용한 객체 인식 시스템 및 방법 | |
CN112927459A (zh) | 一种基于无人机视觉的九宫格火势预测方法及应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |