CN113935364A - 基于YOLOv4网络的无人机火焰检测方法及系统 - Google Patents
基于YOLOv4网络的无人机火焰检测方法及系统 Download PDFInfo
- Publication number
- CN113935364A CN113935364A CN202111104533.0A CN202111104533A CN113935364A CN 113935364 A CN113935364 A CN 113935364A CN 202111104533 A CN202111104533 A CN 202111104533A CN 113935364 A CN113935364 A CN 113935364A
- Authority
- CN
- China
- Prior art keywords
- flame
- yolov4
- aerial vehicle
- unmanned aerial
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YOLOv4网络的无人机火焰检测方法,包括:对不同的火焰图像标注图像中火焰的位置和类别信息,得到火焰数据集,对标注后的每幅图像进行预处理,得到火焰的训练集;将训练集输入YOLOv4网络进行权重训练,得到火焰训练集的YOLOv4权重模型;获取无人机的视频流;利用训练好的YOLOv4权重模型对无人机视频流中的图像进行检测,判断图像中是否存在火焰。可用于不同的环境、光照强度以及天气情况,对于复杂环境中无人机对火焰的识别,可以保证较高的检测准确性和快速性,实现了速度和精度的平衡。
Description
技术领域
本发明属于深度学习的火焰识别检测技术领域,尤其是涉及一种基于YOLOv4网络的无人机火焰检测方法及系统。
背景技术
在各种灾害中,火灾是最容易发生的、最普遍威胁公众安全和社会发展的主要灾害之一。大规模的火灾不仅会让人类的物质财产遭到损失,破坏公共设施和危害自然环境,还直接或间接的危害生命。当现场火灾发生时,特别是侦查小队无法开展侦查任务的情况下,为了避免火灾带来的巨大损失,无人机能够迅速对火灾发生区域进行定位,提高侦查效率,以便指挥员做正确的决策。
目前关于无人机火焰检测方法有基于颜色空间,基于纹理特征和火焰的几何特征,基于视频帧差法的相似性进行火焰识别。当前的火焰检测方法在一定程度上能够完成对火焰的检测,但对于复杂的火焰环境会存在火焰漏检率高的问题。随着基于深度学习的目标检测算法的迅速发展,越来越多的目标检测模型被提出,其中深度学习下的目标检测算法可以通过卷积神经网络对输入的图像进行特征提取,并通过深层神经网络模型的学习直接回归输出结果,实现了端到端的目标检测。
公告号为CN111062293A的发明专利公开了一种基于深度学习的无人机森林火焰识别方法,包括:获取无人机视觉范围内的视频;对图像进行增强对比度效果的预处理;利用改进的中值滤波算法进一步处理经过所述预处理的图片,来相对地减少冲激噪声空间密度;对疑似火焰的图片像素进行识别;所述识别是综合RGB和HSV两个模型提取火焰区域,判断是否为运动像素,同时满足颜色特征和运动特征的像素被识别为疑似火焰像素图像;对图像进行形态学处理,消除图像中小于领域内点的孤立异常值;结合深度学习神经网络算法-YOLO,对检测到的火焰目标进行实时跟踪识别。该识别方法利用改进的中值滤波去除视频图像的噪声,同时还采用了条纹中心分析方法,通过扩大窗口来相对地减少冲激噪声空间密度使得图像的细节更好,但是YOLO算法,运算量大,并且在复杂环境中的识别精度还有待提高。
YOLOv4网络模型由AlexeyBochkovskiy等在2020年提出,由于提出时间较晚,目前还没有将YOLOv4网络模型用于识别火焰的研究。在火焰识别的检测率方面没有任何预见。
发明内容
1、本发明的目的
针对上述存在的技术问题,提出了一种基于YOLOv4网络的无人机火焰检测方法及系统,可用于不同的环境、光照强度以及天气情况,对于复杂环境中无人机对火焰的识别,可以保证较高的检测准确性和快速性,实现了速度和精度的平衡。
2、本发明所采用的技术方案
一种基于YOLOv4网络的无人机火焰检测方法,包括以下步骤:
S01:对不同的火焰图像标注图像中火焰的位置和类别信息,得到火焰数据集,对标注后的每幅图像进行预处理,得到火焰的训练集;
S02:将训练集输入YOLOv4网络进行权重训练,得到火焰训练集的YOLOv4权重模型;
S03:获取无人机的视频流;
S04:利用训练好的YOLOv4权重模型对无人机视频流中的图像进行检测,判断图像中是否存在火焰。
优选的技术方案中,所述步骤S01具体包括:
S11:选取开源的火焰图像数据集并利用LabelImg工具标注每幅图片中火焰的位置和类别信息;
S12:对标注后的火焰图像数据集进行裁剪为预设大小的图像,并将数据集整理为VOC数据集格式;
S13:对裁剪后的数据集进行包含归一化、旋转、以及高斯滤波操作,生成火焰图像训练集及对应的标注文件。
优选的技术方案中,所述步骤S02中YOLOv4的网络结构包括CSPDarknet53主干特征提取网络、SPP、PANet加强特征提取网络和YOLOHead检测头;
所述CSPDarknet53主干特征提取网络包括CSPnet结构、普通卷积层、批正则化及Mish激活函数,其中CSPnet结构将原来的残差块的堆叠进行一次拆分,主干部分保持原来的残差块堆叠,另一部分作为残差边跟主干部分的通道数进行整合;
所述SPP加强特征提取网络参杂在对CSPDarknet53最后一个特征层进行三次DarknetConv2D_BN_Leaky卷积后,利用四个不同尺度的最大池化进行处理,并将其堆叠,分离出图像的上下文特征;
所述PANet加强特征提取网络参杂在三个有效特征层,对特征进行反复提取,对底层特征上采样,与上一层同维度特征层进行堆叠,对高层特征下采样,与下一层同维度特征层进行堆叠,实现特征融合,最终输出三个特征层供YOLO Head检测头进行预测。
优选的技术方案中,所述步骤S02还包括,在权重训练过程中使用LabelSmoothing平滑,其计算公式如下:
q'(k|x)=(1-∈)δk,y+∈u(k)
其中,q'k|x表示经过LabelSmoothing平滑处理后的第k类标签值,δk,y表示原本的标签值,∈表示一个小常数,u(k)表示k为类别总数的倒数。
优选的技术方案中,所述步骤S03中获取无人机的视频流的方法,包括:
S31:建立无人机和终端之间的WIFIUDP通信,利用UDP通讯发送相关指令开启无人机的SDK模式;
S32:在终端上设置UDP服务器,通过服务器UDP端口11111从IP0.0.0.0收听无人机消息,向无人机UDP端口发送“streamon”命令以接受无人机的视频流。
优选的技术方案中,所述步骤S04还包括:
根据标注的真实信息进行误差计算即计算YOLOv4网络模型中的损失函数;将损失函数中常用的BBox坐标框损失用回归框CIOU损失替代,以单个网格的边界框为例,CIOU和CIOU损失的计算公式如下:
其中,LCIOU表示回归框CIOU损失,IOU为真实框Bgt与预测框B的交并比,即(b,bgt)分别表示预测框和真实框的中心点,ρ表示欧氏距离,c表示同时包含预测框和真实框的最小闭包区域的对角线距离;α为正权衡参数,v是衡量长宽比一致性的参数,(wgt,hgt)表示真实框的宽度和高度,(w,h)表示预测框的宽度和高度。
本发明还公开了一种基于YOLOv4网络的无人机火焰检测系统,包括:
火焰训练集获取模块,对不同的火焰图像标注图像中火焰的位置和类别信息,得到火焰数据集,对标注后的每幅图像进行预处理,得到火焰的训练集;
权重训练模块,将训练集输入YOLOv4网络进行权重训练,得到火焰训练集的YOLOv4权重模型;
无人机视频获取模块,获取无人机的视频流;
检测模块,利用训练好的YOLOv4权重模型对无人机视频流中的图像进行检测,判断图像中是否存在火焰。
优选的技术方案中,所述权重训练模块中的YOLOv4的网络结构包括CSPDarknet53主干特征提取网络、SPP、PANet加强特征提取网络和YOLOHead检测头;
所述CSPDarknet53主干特征提取网络包括CSPnet结构、普通卷积层、批正则化及Mish激活函数,其中CSPnet结构将原来的残差块的堆叠进行一次拆分,主干部分保持原来的残差块堆叠,另一部分作为残差边跟主干部分的通道数进行整合;
所述SPP加强特征提取网络参杂在对CSPDarknet53最后一个特征层进行三次DarknetConv2D_BN_Leaky卷积后,利用四个不同尺度的最大池化进行处理,并将其堆叠,分离出图像的上下文特征;
所述PANet加强特征提取网络参杂在三个有效特征层,对特征进行反复提取,对底层特征上采样,与上一层同维度特征层进行堆叠,对高层特征下采样,与下一层同维度特征层进行堆叠,实现特征融合,最终输出三个特征层供YOLO Head检测头进行预测。
优选的技术方案中,所述权重训练模块中,在权重训练过程中使用LabelSmoothing平滑,其计算公式如下:
q'(k|x)=(1-∈)δk,y+∈u(k)
其中,q'k|x表示经过LabelSmoothing平滑处理后的第k类标签值,δk,y表示原本的标签值,∈表示一个小常数,u(k)表示k为类别总数的倒数。
优选的技术方案中,所述检测模块还包括:
根据标注的真实信息进行误差计算即计算YOLOv4网络模型中的损失函数;将损失函数中常用的BBox坐标框损失用回归框CIOU损失替代,以单个网格的边界框为例,CIOU和CIOU损失的计算公式如下:
其中,LCIOU表示回归框CIOU损失,IOU为真实框Bgt与预测框B的交并比,即(b,bgt)分别表示预测框和真实框的中心点,ρ表示欧氏距离,c表示同时包含预测框和真实框的最小闭包区域的对角线距离;α为正权衡参数,v是衡量长宽比一致性的参数,(wgt,hgt)表示真实框的宽度和高度,(w,h)表示预测框的宽度和高度。
3、本发明所采用的有益效果
1、本发明可用于不同的环境、光照强度以及天气情况,对于复杂环境中无人机对火焰的识别,可以保证较高的检测准确性和快速性,实现了速度和精度的平衡。
2、本发明使用LabelSmoothing平滑,可以防止在权重训练过程中火焰训练集有限造成分类过拟合的现象。为了避免对YOLOv4目标检测算法评估时造成消极影响,将损失函数中常用的BBox坐标框损失用回归框CIOU损失替代,将检测目标与anchor之间的距离,重叠率以及尺度等等考虑在内,从而让目标框的回归变得更加稳定。
附图说明
图1为本发明基于YOLOv4网络的无人机火焰检测方法的流程图;
图2为本发明YOLOv4网络模型框架图;
图3为本发明基于YOLOv4网络的无人机火焰检测系统的原理框图;
图4为本实施例YOLOv4模型训练Loss曲线图;
图5为本实施例YOLOv4模型测试结果图;
图6为本实施例Tello无人机模型测试结果图;
图7为本实施例YOLOv4模型实验评估的准确率图;
图8为本实施例YOLOv4模型实验评估的召回率图;
图9为本实施例YOLOv4模型实验评估的AP图;
图10为本实施例YOLOv4模型实验评估的F1图;
图11为本实施例YOLOv4模型实验评估的mAP图。
具体实施方式
下面结合本发明实例中的附图,对本发明实例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域技术人员在没有做创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
下面将结合附图对本发明实例作进一步地详细描述。
实施例1
如图1所示,一种基于YOLOv4网络的无人机火焰检测方法,包括以下步骤:
S01:对不同的火焰图像标注图像中火焰的位置和类别信息,得到火焰数据集,对标注后的每幅图像进行预处理,得到火焰的训练集;
S02:将训练集输入YOLOv4网络进行权重训练,得到火焰训练集的YOLOv4权重模型;
S03:获取无人机的视频流;
S04:利用训练好的YOLOv4权重模型对无人机视频流中的图像进行检测,判断图像中是否存在火焰。
步骤S01中,一具体的实施例,包括:
S11:选取开源的火焰图像数据集并利用LabelImg工具标注每幅图片中火焰的位置和类别信息;这里的数据集包括多种场景,多种时间和光照环境下的多张图片,使用各种火焰、浓烟的图片作为数据集。
S12:对标注后的火焰图像数据集进行裁剪为预设大小的图像,并将数据集整理为VOC数据集格式;
S13:对裁剪后的数据集进行包含归一化、旋转、以及高斯滤波操作,生成火焰图像训练集及对应的标注文件。
如图2所示,YOLOv4的网络结构包括CSPDarknet53主干特征提取网络、SPP、PANet加强特征提取网络和YOLOHead检测头;
所述CSPDarknet53主干特征提取网络包括CSPnet结构、普通卷积层、批正则化及Mish激活函数,其中CSPnet结构将原来的残差块的堆叠进行一次拆分,主干部分保持原来的残差块堆叠,另一部分作为残差边跟主干部分的通道数进行整合;
所述SPP加强特征提取网络参杂在对CSPDarknet53最后一个特征层进行三次DarknetConv2D_BN_Leaky卷积后,利用四个不同尺度的最大池化进行处理,并将其堆叠,分离出图像的上下文特征;
所述PANet加强特征提取网络参杂在三个有效特征层,对特征进行反复提取,对底层特征上采样,与上一层同维度特征层进行堆叠,对高层特征下采样,与下一层同维度特征层进行堆叠,实现特征融合,最终输出三个特征层供YOLO Head检测头进行预测。
一较佳的实施例中,在权重训练过程中为了防止火焰训练集有限造成分类过拟合的现象,在权重训练过程中使用LabelSmoothing平滑,其计算公式如下:
q'(k|x)=(1-∈)δk,y+∈u(k)
其中,q'k|x表示经过LabelSmoothing平滑处理后的第k类标签值,δk,y表示原本的标签值,∈表示一个小常数,u(k)表示k为类别总数的倒数。
步骤S03中,获取无人机的视频流的方法的一具体的实现中,包括:
S31:建立无人机和终端之间的WIFIUDP通信,利用UDP通讯发送相关指令开启无人机的SDK模式;这里的终端可以为PC、手机等,本实施例以PC为例进行说明,PC端连接无人机的WIFI,并设置UDP客户端,向无人机UDP端口8889发送“command”命令以启动无人机的SDK模式。
S32:在终端上设置UDP服务器,通过服务器UDP端口11111从IP0.0.0.0收听无人机消息,向无人机UDP端口发送“streamon”命令以接受无人机的视频流。
一较佳的实施例中,为了避免对YOLOv4目标检测算法评估时造成消极影响,将检测目标与anchor之间的距离,重叠率以及尺度等等考虑在内,从而让目标框的回归变得更加稳定。步骤S04还包括:
根据标注的真实信息进行误差计算即计算YOLOv4网络模型中的损失函数;将损失函数中常用的BBox坐标框损失用回归框CIOU损失替代,以单个网格的边界框为例,CIOU和CIOU损失的计算公式如下:
其中,LCIOU表示回归框CIOU损失,IOU为真实框Bgt与预测框B的交并比,即(b,bgt)分别表示预测框和真实框的中心点,ρ表示欧氏距离,c表示同时包含预测框和真实框的最小闭包区域的对角线距离;α为正权衡参数,v是衡量长宽比一致性的参数,(wgt,hgt)表示真实框的宽度和高度,(w,h)表示预测框的宽度和高度。
另一实施例中,如图3所示,本发明还公开了一种基于YOLOv4网络的无人机火焰检测系统,包括:
火焰训练集获取模块10,对不同的火焰图像标注图像中火焰的位置和类别信息,得到火焰数据集,对标注后的每幅图像进行预处理,得到火焰的训练集;
权重训练模块20,将训练集输入YOLOv4网络进行权重训练,得到火焰训练集的YOLOv4权重模型;
无人机视频获取模块30,获取无人机的视频流;
检测模块40,利用训练好的YOLOv4权重模型对无人机视频流中的图像进行检测,判断图像中是否存在火焰。
本发明使用的原数据集为公开的火焰数据集,例如https://github.com/cair/Fire-Detection-Image-Dataset。本发明所用的无人机平台为Tello无人机,Tello是大疆创新科技公司旗下的一款以运动控制和视觉定位算法为技术支撑的无人机,其主要由飞控、通讯模块、视觉定位模块、动力系统、以及飞行电池组成,其中TelloSDK通过WIFIUDP协议与飞行器连接,方便用户通过文本指令控制飞行器,其部分相关指令如下表1所示,借助SDK模式,可实现在PC、Mac或移动设备上读取无人机的视频流数据,运用机器视觉和深度学习相关科技可实现无人机的物体识别,目标跟踪,三维重建等AI应用。
表1 Tello部分控制命令
这里的终端以PC端为例进行说明。
下面详细介绍该无人机火焰检测系统的完整的工作流程:
步骤S1:采集火焰图像并利用LabelImg工具标注每幅图片中火焰的位置和类别信息,将图像整合为火焰数据集并对标注后的每幅图像进行预处理,得到火焰的训练集;
具体的实现中:步骤S1中,用LabelImg工具对采集到的火焰图像进行信息标注,包括火焰的位置和类别信息,其示例如下所示:
对标注后的火焰图像数据集进行裁剪为预设大小的图像,以便适应YOLOv4网络训练的图像大小(例如416×416);建立VOC数据集格式,其结构包括:Annotations,ImageSets和JPEGImages三个文件夹,其中ImageSets文件夹中存放包含test.txt、train.txt、trainval.txt、val.txt的Main文件夹,Annotations文件夹中存放用LabelImg工具标注好的xml文件,JPEGImages文件夹中存放采集的火焰图像数据;对裁剪后的数据集进行包含归一化、旋转、以及高斯滤波操作,生成增强后的火焰图像训练集以及对应的标注文件。
具体的:步骤S1中,将火焰训练集的VOC格式转化为YOLO格式,以减少模型训练时的计算量,并在Main文件夹中生成用于评估的test.txt文件夹,转化后的格式如下表2所示:
表2 YOLO格式
步骤S2:将训练集输入YOLOv4网络进行权重训练,得到火焰训练集的YOLOv4权重模型;
具体的,YOLOv4的网络结构包括CSPDarknet53主干特征提取网络、SPP、PANet加强特征提取网络和YOLOHead检测头;主干特征提取网络CSPDarknet53由CSPnet结构,普通卷积层,批正则化以及Mish激活函数等组成,其中CSPnet结构将原来的残差块的堆叠进行一次拆分,主干部分保持原来的残差块堆叠,另一部分作为残差边跟主干部分的通道数进行整合;SPP加强特征提取网络参杂在对CSPDarknet53最后一个特征层进行三次DarknetConv2D_BN_Leaky卷积后,利用四个不同尺度的最大池化进行处理,并将其堆叠,池化核大小分别为13×13、9×9、5×5、1×1,其作用是极大地增加感受野,分离出图片最显著的上下文特征;PANet加强特征提取网络参杂在三个有效特征层,其主要特点是对特征的反复提取,对底层特征上采样,与上一层同维度特征层进行堆叠,对高层特征下采样,与下一层同维度特征层进行堆叠,从而实现特征融合,最终输出三个特征层供YOLOHead检测头进行预测,其shape分别为(52,52,75)、(26,26,75)、(13,13,75);YOLOv4网络整体结构如图2所示。
具体的:所述步骤S2中,本实例的YOLOv4网络采用TensorFlow框架实现,在准备好配置文件和数据后进行YOLOv4权重模型的训练配置,batch_size设为2,learning_rate_base设为0.0001,训练时使用LabelSmoothing平滑,Label Smoothing设为0.001.本实例加载预训练权重yolov4.weights,并将其转换为TensorFlow模型的格式——yolov4_weights.h5,使用单个GPU训练,设置epoch为90轮,训练时间约为20h;在训练过程中模型的损失对比如图4所示。
步骤S3:建立无人机和PC之间的WIFIUDP通信,利用UDP通讯发送相关指令开启无人机的SDK模式并读取无人机的视频流;
具体的:所述步骤S3中,PC与Tello的通信主要分为命令发送和接收响应、接收Tello状态、接收Tello视频流三部分。其中命令发送和接收响应是通信的基础,首先PC端连接Tello内部的WIFI,由于Tello在UDP的使用上做了很好的封装,即可在PC端建立相对应的客户端或服务端进行通信。如下表3所示。PC端通过配置UDP客户端,对Tello发送“command”命令可让Tello启动SDK模式,之后通过配置UDP服务器,发送“streamon”命令即可实现Tello向PC端传输视频流,反馈“ok”信息则表示信号接受成功,若反馈“error”信息则表示通信出现异常状态。
表3 Tello命令发送和接收响应步骤
步骤S4:利用训练的YOLOv4权重模型对无人机视频流中的火焰图像进行检测,对火焰数据集进行评估;若图像中存在火焰,将输出火焰检测框及火焰类别信息,若图像中不存在火焰,则输出与输入一样的检测结果图像。
一较佳的实施例中,根据标注的真实信息进行误差计算即计算YOLOv4网络模型中的损失函数;将损失函数中常用的BBox坐标框损失用回归框CIOU损失替代,以单个网格的边界框为例,CIOU和CIOU损失的计算公式如下:
其中,LCIOU表示回归框CIOU损失,IOU为真实框Bgt与预测框B的交并比,即(b,bgt)分别表示预测框和真实框的中心点,ρ表示欧氏距离,c表示同时包含预测框和真实框的最小闭包区域的对角线距离;α为正权衡参数,v是衡量长宽比一致性的参数,(wgt,hgt)表示真实框的宽度和高度,(w,h)表示预测框的宽度和高度。
具体的实现中:所述步骤S4中,利用步骤S2训练好的YOLOv4权重模型对输入的图像进行识别,PC端火焰识别如图5所示,通过步骤S3建立起PC与Tello无人机之间的UDP通讯,通过命令读取Tello的视频流对含火焰的图像进行识别,如图6所示,其中类别后的数值代表YOLOv4算法判断的置信度,越接近1,代表此算法对预测结果越有信心;
具体的实施例中:步骤S4中,选择AP(AveragePrecision)、Precision、Recall、F1、mAP(meanAveragePrecision)等衡量指标评估本实例训练的YOLOv4模型,其中Precision、Recall和F1的计算公式如下:
其中,TP为正样本预测为真的个数,FP为负样本预测为真的个数,FN为负样本预测为假的个数;F1分数可看作精确率和召回率的一种加权平均,用来衡量二分类模型准确度的指标,P、R分别表示Precision、Recall指标。
根据mAP的指标阈值常取0.5,对本实例预划分的火焰测试集进行测试,绘制P-R曲线,AP则表示P-R曲线围成面积的大小,AP值越高,则表示训练的YOLOv4网络性能越好,mAP是训练的YOLOv4网络模型在所有类别中AP的平均值,表示训练模型在所有类别上的整体效果。
本实例的模型测试结果如图7-图11,本次实验采用的数据集规模较小,涉及的目标环境复杂,且属于单目标识别,从图中可以看出,在本发明提出的方法中,火焰测试集的mAP值达到了近83%,单张图像的火焰识别检测时间为5.2ms,满足了无人机在复杂环境中对火焰的识别需求,实现了速度和精度的平衡。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (10)
1.一种基于YOLOv4网络的无人机火焰检测方法,其特征在于,包括以下步骤:
S01:对不同的火焰图像标注图像中火焰的位置和类别信息,得到火焰数据集,对标注后的每幅图像进行预处理,得到火焰的训练集;
S02:将训练集输入YOLOv4网络进行权重训练,得到火焰训练集的YOLOv4权重模型;
S03:获取无人机的视频流;
S04:利用训练好的YOLOv4权重模型对无人机视频流中的图像进行检测,判断图像中是否存在火焰。
2.根据权利要求1所述的基于YOLOv4网络的无人机火焰检测方法,其特征在于,所述步骤S01具体包括:
S11:选取开源的火焰图像数据集并利用LabelImg工具标注每幅图片中火焰的位置和类别信息;
S12:对标注后的火焰图像数据集进行裁剪为预设大小的图像,并将数据集整理为VOC数据集格式;
S13:对裁剪后的数据集进行包含归一化、旋转、以及高斯滤波操作,生成火焰图像训练集及对应的标注文件。
3.根据权利要求1所述的基于YOLOv4网络的无人机火焰检测方法,其特征在于,所述步骤S02中YOLOv4的网络结构包括CSPDarknet53主干特征提取网络、SPP、PANet加强特征提取网络和YOLO Head检测头;
所述CSPDarknet53主干特征提取网络包括CSPnet结构、普通卷积层、批正则化及Mish激活函数,其中CSPnet结构将原来的残差块的堆叠进行一次拆分,主干部分保持原来的残差块堆叠,另一部分作为残差边跟主干部分的通道数进行整合;
所述SPP加强特征提取网络参杂在对CSPDarknet53最后一个特征层进行三次DarknetConv2D_BN_Leaky卷积后,利用四个不同尺度的最大池化进行处理,并将其堆叠,分离出图像的上下文特征;
所述PANet加强特征提取网络参杂在三个有效特征层,对特征进行反复提取,对底层特征上采样,与上一层同维度特征层进行堆叠,对高层特征下采样,与下一层同维度特征层进行堆叠,实现特征融合,最终输出三个特征层供YOLO Head检测头进行预测。
4.根据权利要求1所述的基于YOLOv4网络的无人机火焰检测方法,其特征在于,所述步骤S02还包括,在权重训练过程中使用Label Smoothing平滑,其计算公式如下:
q′(k|x)=(1-∈)δk,y+∈u(k)
其中,q'(k|x)表示经过Label Smoothing平滑处理后的第k类标签值,δk,y表示原本的标签值,∈表示一个小常数,u(k)表示k为类别总数的倒数。
5.根据权利要求1所述的基于YOLOv4网络的无人机火焰检测方法,其特征在于,所述步骤S03中获取无人机的视频流的方法,包括:
S31:建立无人机和终端之间的WIFI UDP通信,利用UDP通讯发送相关指令开启无人机的SDK模式;
S32:在终端上设置UDP服务器,通过服务器UDP端口11111从IP 0.0.0.0收听无人机消息,向无人机UDP端口发送“streamon”命令以接受无人机的视频流。
6.根据权利要求1所述的基于YOLOv4网络的无人机火焰检测方法,其特征在于,所述步骤S04还包括:
根据标注的真实信息进行误差计算即计算YOLOv4网络模型中的损失函数;将损失函数中常用的BBox坐标框损失用回归框CIOU损失替代,以单个网格的边界框为例,CIOU和CIOU损失的计算公式如下:
7.一种基于YOLOv4网络的无人机火焰检测系统,其特征在于,包括:
火焰训练集获取模块,对不同的火焰图像标注图像中火焰的位置和类别信息,得到火焰数据集,对标注后的每幅图像进行预处理,得到火焰的训练集;
权重训练模块,将训练集输入YOLOv4网络进行权重训练,得到火焰训练集的YOLOv4权重模型;
无人机视频获取模块,获取无人机的视频流;
检测模块,利用训练好的YOLOv4权重模型对无人机视频流中的图像进行检测,判断图像中是否存在火焰。
8.根据权利要求7所述的基于YOLOv4网络的无人机火焰检测系统,其特征在于,所述权重训练模块中的YOLOv4的网络结构包括CSPDarknet53主干特征提取网络、SPP、PANet加强特征提取网络和YOLO Head检测头;
所述CSPDarknet53主干特征提取网络包括CSPnet结构、普通卷积层、批正则化及Mish激活函数,其中CSPnet结构将原来的残差块的堆叠进行一次拆分,主干部分保持原来的残差块堆叠,另一部分作为残差边跟主干部分的通道数进行整合;
所述SPP加强特征提取网络参杂在对CSPDarknet53最后一个特征层进行三次DarknetConv2D_BN_Leaky卷积后,利用四个不同尺度的最大池化进行处理,并将其堆叠,分离出图像的上下文特征;
所述PANet加强特征提取网络参杂在三个有效特征层,对特征进行反复提取,对底层特征上采样,与上一层同维度特征层进行堆叠,对高层特征下采样,与下一层同维度特征层进行堆叠,实现特征融合,最终输出三个特征层供YOLO Head检测头进行预测。
9.根据权利要求7所述的基于YOLOv4网络的无人机火焰检测系统,其特征在于,所述权重训练模块中,在权重训练过程中使用Label Smoothing平滑,其计算公式如下:
q′(k|x)=(1-∈)δk,y+∈u(k)
其中,q'(k|x)表示经过Label Smoothing平滑处理后的第k类标签值,δk,y表示原本的标签值,∈表示一个小常数,u(k)表示k为类别总数的倒数。
10.根据权利要求7所述的基于YOLOv4网络的无人机火焰检测系统,其特征在于,所述检测模块还包括:
根据标注的真实信息进行误差计算即计算YOLOv4网络模型中的损失函数;将损失函数中常用的BBox坐标框损失用回归框CIOU损失替代,以单个网格的边界框为例,CIOU和CIOU损失的计算公式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111104533.0A CN113935364A (zh) | 2021-09-22 | 2021-09-22 | 基于YOLOv4网络的无人机火焰检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111104533.0A CN113935364A (zh) | 2021-09-22 | 2021-09-22 | 基于YOLOv4网络的无人机火焰检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113935364A true CN113935364A (zh) | 2022-01-14 |
Family
ID=79276094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111104533.0A Withdrawn CN113935364A (zh) | 2021-09-22 | 2021-09-22 | 基于YOLOv4网络的无人机火焰检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113935364A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170575A (zh) * | 2022-02-11 | 2022-03-11 | 青岛海尔工业智能研究院有限公司 | 一种火焰识别方法、装置、电子设备及存储介质 |
CN114998932A (zh) * | 2022-06-10 | 2022-09-02 | 哈工大机器人集团股份有限公司 | 一种基于YOLOv4的行人检测方法及系统 |
CN117994637A (zh) * | 2024-04-07 | 2024-05-07 | 中国科学院西安光学精密机械研究所 | 一种高精度空间航天器域自适应检测方法 |
-
2021
- 2021-09-22 CN CN202111104533.0A patent/CN113935364A/zh not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170575A (zh) * | 2022-02-11 | 2022-03-11 | 青岛海尔工业智能研究院有限公司 | 一种火焰识别方法、装置、电子设备及存储介质 |
CN114998932A (zh) * | 2022-06-10 | 2022-09-02 | 哈工大机器人集团股份有限公司 | 一种基于YOLOv4的行人检测方法及系统 |
CN117994637A (zh) * | 2024-04-07 | 2024-05-07 | 中国科学院西安光学精密机械研究所 | 一种高精度空间航天器域自适应检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113935364A (zh) | 基于YOLOv4网络的无人机火焰检测方法及系统 | |
CN109166094B (zh) | 一种基于深度学习的绝缘子故障定位识别方法 | |
CN109214280B (zh) | 基于街景的店铺识别方法、装置、电子设备及存储介质 | |
CN108806334A (zh) | 一种基于图像的智能船舶身份识别方法 | |
CN108229418B (zh) | 人体关键点检测方法和装置、电子设备、存储介质和程序 | |
CN111832443B (zh) | 一种施工违规行为检测模型的构建方法及其应用 | |
CN109948476B (zh) | 一种基于计算机视觉的人脸皮肤检测系统及其实现方法 | |
CN106339657B (zh) | 基于监控视频的秸秆焚烧监测方法、装置 | |
CN111985365A (zh) | 一种基于目标检测技术的秸秆焚烧监测方法和系统 | |
CN112966589A (zh) | 一种在危险区域的行为识别方法 | |
US11715286B2 (en) | Method and system for recognizing marine object using hyperspectral data | |
CN111145222A (zh) | 一种结合烟雾运动趋势和纹理特征的火灾检测方法 | |
CN112633297A (zh) | 目标对象的识别方法、装置、存储介质以及电子装置 | |
CN113255590A (zh) | 一种缺陷检测模型训练方法、缺陷检测方法、装置及系统 | |
CN111723656B (zh) | 一种基于YOLO v3与自优化的烟雾检测方法及装置 | |
CN111339927A (zh) | 一种电力营业厅人员工作状态智能识别系统 | |
CN112802027A (zh) | 一种目标对象的分析方法、存储介质及电子装置 | |
CN112668675B (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
CN113408630A (zh) | 一种变电站指示灯状态识别方法 | |
CN112016380A (zh) | 野生动物监测方法及系统 | |
CN111582278B (zh) | 人像分割方法、装置及电子设备 | |
CN113610832A (zh) | 一种徽标缺陷检测方法、装置、设备和存储介质 | |
CN112633142A (zh) | 一种输电线路违章建筑物识别方法及相关装置 | |
CN110826473A (zh) | 一种基于神经网络的绝缘子图像自动识别方法 | |
CN111553541A (zh) | 一种基于图像预测天气的系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220114 |
|
WW01 | Invention patent application withdrawn after publication |