CN117671602B - 基于图像识别的农田森林烟雾防火检测方法和设备 - Google Patents

基于图像识别的农田森林烟雾防火检测方法和设备 Download PDF

Info

Publication number
CN117671602B
CN117671602B CN202410130967.5A CN202410130967A CN117671602B CN 117671602 B CN117671602 B CN 117671602B CN 202410130967 A CN202410130967 A CN 202410130967A CN 117671602 B CN117671602 B CN 117671602B
Authority
CN
China
Prior art keywords
network
module
layer
conv
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410130967.5A
Other languages
English (en)
Other versions
CN117671602A (zh
Inventor
于福东
郭琦
赵明
修汉森
孙立娜
张新轶
陈忠磊
靳海科
张兵
王莫寒
唐志会
李晓爽
赵恩泽
朱丽羽
崔宇婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin Province Zhongnong Sunshine Data Co ltd
Original Assignee
Jilin Province Zhongnong Sunshine Data Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin Province Zhongnong Sunshine Data Co ltd filed Critical Jilin Province Zhongnong Sunshine Data Co ltd
Priority to CN202410130967.5A priority Critical patent/CN117671602B/zh
Publication of CN117671602A publication Critical patent/CN117671602A/zh
Application granted granted Critical
Publication of CN117671602B publication Critical patent/CN117671602B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
    • Y02A40/28Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture specially adapted for farming

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

基于图像识别的农田森林烟雾防火检测方法和设备,属于检测技术领域,解决农田森林烟雾防火检测精度低以及响应不及时问题。本发明方法包括:建立改进深度学习Yolov5网络模型,骨干网络中所有卷积为Deformable Conv V2;输入端包括Auxhead辅助训练头;Neck网络用于将不同尺度的特征图经过UpSample模块进行多尺度的特征融合;Head网络用于筛选出最优尺度检测的框,输出识别的类别和位置信息,采用mpdiou优化,考虑多重因素时简化计算。解决损失函数在预测框与真实框有相同纵横比宽度和高度不同时无法优化问题;损失为类别损失、定位损失、置信度损失叠加;反向传播梯度更新权重参数;针对加入偏移量后的位置非整数情况,使用插值得到像素值。本发明适用于农田森林烟雾防火检测。

Description

基于图像识别的农田森林烟雾防火检测方法和设备
技术领域
本申请涉及检测技术领域,尤其涉及农田森林烟雾防火检测。
背景技术
随着人类活动范围的增大以及全球升温和极端天气频发,火灾发生频率大幅上升,农田以及森林火灾更是容易爆发大范围的火灾,因此对烟火的监控至关重要,不但能够保障国民经济和地方基础设施,更能在保护人民生命方面起到重要作用。
而现有技术,采用红外射线和人工方式。红外射线摄像头成本较为昂贵,切覆盖范围有限。人工方式,较为耗费时间和精力,需要一定的经验。因此都存在一定的局限性。而基于深度学习的烟火检测的,则弥补了上述缺陷,解决了响应不及时,效率低下的问题。但是,传统算法还是存在检测精度低以及实时性差的问题。
发明内容
本发明目的是为了解决现有农田森林烟雾防火检测精度低以及响应不及时的问题,提供了基于图像识别的农田森林烟雾防火检测方法和设备。
本发明是通过以下技术方案实现的,本发明一方面,提供一种基于图像识别的农田森林烟雾防火检测方法,所述方法包括:
步骤1:构建烟火图像数据集,对所述烟火图像数据集进行预处理;
步骤2:建立改进的深度学习Yolov5网络模型,具体包括:
所述改进的深度学习Yolov5网络模型包括骨干网络、Neck网络、Head网络和AuxHead辅助训练头;
骨干网络中所有卷积为Deformable Conv V2;
输入端包括Auxhead辅助训练头;
Neck网络用于将不同尺度的特征图经过UpSample模块进行多尺度的特征融合;
Head网络用于筛选出最优尺度检测的框,输出识别的类别和位置信息,具体包括:
采用mpdiou优化,计算模型的检测框损失;
损失为类别损失、定位损失、置信度损失三者的叠加;
反向传播进行梯度更新权重参数;
针对加入偏移量后的位置非整数的情况,使用插值得到像素值;
步骤3:对所述改进的深度学习Yolov5网络模型进行训练加载测试集进行测试,利用所述训练后的改进的深度学习Yolov5网络模型进行检测,实时输出烟火图像的监测结果。
进一步地,步骤1中,所述预处理包括:对输入的烟火图像数据进行随机的拼接、剪裁、缩放、改变hsv和mosaic。
进一步地,步骤1,还包括:
Kmeans将输入框聚类为4类,以box的宽和高作为特征,使用图片的宽和高对box的宽和高做归一化,具体操作为:
步骤1.1:随机选取K个box作为初始anchor;
步骤1.2:使用IOU度量,将每个box分配给与其距离最近的anchor;
步骤1.3:计算每个簇中所有box宽和高的均值,更新anchor;
步骤1.4:重复步骤1.2和步骤1.3,直到anchor不再变化,或者达到最大迭代次数;
距离与交并比的关系式为:
进一步地,所述骨干网络采用CSP-Darknet53主干特征提取网络,具体包括ConV和C3模块;
所述ConV模块包括卷积、BatchNorm归一化和SiLU激活函数;
所述C3模块由若干个堆叠的Bottleneck和若干个Deformable Conv V2卷积组成。
进一步地,所述针对加入偏移量后的位置非整数的情况,使用插值得到像素值,具体包括:
采用双线性插值,公式如下:
其中,p表示特征图上偏移过后的位置,q表示p周围的四邻域坐标,x(q)四邻域的特征值,G(q,p)表示限制临域点和偏移点的距离,g(qx,px)限制x方向,g(qy,py)限制y方向,公式最后一行的max(0, 1-...)是限制插值点与领域点不会超过1个像素的距离;
其中,Pixel(x,y)表示插值后特征点特征值,Pixcel(xi,yi)表示四邻域的特征值;
将插值点位置的像素值设为其4领域像素点的加权和,领域4个点是离其最近的在特征图上实际存在的像素点,每个点的权重则根据它与插值点横、纵坐标的距离来设置。
进一步地,所述Neck网络的建立方法,具体包括:
所述Neck网络包括SPPF模块、ConV模块、Upsample模块、C3模块和Concat模块;
采用8个ConV模块,一个SPPF模块,8个C3模块,4个Upsample模块和8个Concat模块;
其中,SPPF是一种特征融合模块,由Deformable Conv V2和池化构成,用于提取不同尺度的特征,在不改变特征图大小的情况下对不同的特征图进行池化操作;
所述Upsample模块采用最近邻插值进行插值;
C3模块由多个Bottleneck堆叠和3个Deformable Conv V2卷积组成;
Concat模块用于将相同大小的特征图进行拼接。
进一步地,所述改进的深度学习Yolov5网络模型前14层为backbone,第15层到第42层为Neck网络,第43层为AuxHead辅助训练头,第44层为Head网络。
第二方面,本发明提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,当所述处理器运行所述存储器存储的计算机程序时执行如上文所述的一种基于图像识别的农田森林烟雾防火检测方法的步骤。
第三方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质中存储有多条计算机指令,所述多条计算机指令用于使计算机执行如上文所述的一种基于图像识别的农田森林烟雾防火检测方法。
第四方面,本发明提供一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上文所述的一种基于图像识别的农田森林烟雾防火检测方法。
本发明的有益效果:
1.添加了Deformable Conv V2,是一种可变形卷积,对烟雾这种不规则形状,能有效提高检测精度。
2.添加了mpdiou损失函数,同时考虑多重相关因素,同时简化了计算过程。
3.添加了AuxHead辅助训练头,有效提升检测精度AuxHead可以让网络中间层学到更多信息 ,有更丰富的梯度信息帮助训练。
4.修改了神经网络层数,由原来三重特征层,变为五层特征,多重特征融合,有效提高检测精度。
本发明适用于农田森林烟雾防火检测。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种烟火识别方法的流程示意图;
图2为本申请实施例图像数据集的图像数据示意图;
图3为本申请实施例提供的模型训练的示意图;
图4为本申请实施例提供的辅助训练头示意图;
图5为本申请实施例提供的可变形卷积示意图;
图6为本申请实施例提供的双线性插值示意图;
图7为本申请实施例提供的损失函数示意图;
图8为申请实施例提供的模型结构示意图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
实施方式一、一种基于图像识别的农田森林烟雾防火检测方法,所述方法包括:
步骤1:构建烟火图像数据集,对所述烟火图像数据集进行预处理;
步骤2:建立改进的深度学习Yolov5网络模型,具体包括:
所述改进的深度学习Yolov5网络模型包括骨干网络Backbone、Neck网络、Head网络和AuxHead辅助训练头;
骨干网络中所有卷积为Deformable Conv V2;
输入端包括Auxhead辅助训练头;
Neck网络用于将不同尺度的特征图经过UpSample模块进行多尺度的特征融合;
Head网络用于筛选出最优尺度检测的框,输出识别的类别和位置信息,具体包括:
采用mpdiou计算模型的检测框损失,优化当预测框与真实框具有相同的长宽比,但宽度和高度值完全不同时无法优化的问题;
损失为类别损失、定位损失、置信度损失三者的叠加;
反向传播进行梯度更新权重参数;
针对加入偏移量后的位置非整数的情况,使用插值得到像素值;
步骤3:对所述改进的深度学习Yolov5网络模型进行训练加载测试集进行测试,利用所述训练后的改进的深度学习Yolov5网络模型进行检测,实时输出烟火图像的监测结果。
本实施方式中,将骨干网络中所有卷积替换为Deformable Conv V2,如图5所示,特征点特征值获取过程如图6所示,可以更好提取烟火的特征,提高预测检测位置的准确性。
网络的输入端包括Aux head辅助训练头,如图4所示。一方面使其具有自适应的锚定运算,能够提升位置预测准确度,另一方面则能够提取更多的图片中特征,利用更丰富的梯度信息帮助网络训练。
特征处理Neck层将不同尺度的五层特征图经过UpSample模块进行多尺度的特征融合,能够更有利识别浅层特征小目标和深层特征大目标。不同尺度融合能够更好的适应不同形态的box,减小box_loss。例如:此次输入图片大小为1920*1920,经过128、64、32、16、8倍下采样,最小特征层大小为15*15,再经过四次upsample,依次产生30*30、60*60、120*120、240*240大小的特征图,特征图每个特征像素设置了4anchor,因此一共有254900个anchor,可以适应多种形态大小的烟火形态,更加准确标注烟火位置。
输出端Head经过NMS筛选出最优尺度检测的框,输出识别的类别和位置信息。在验证数据集上,mpdiou优化当预测框与真实框具有相同的长宽比,但宽度和高度值完全不同时无法优化的问题,如图7所示。损失为类别损失、定位损失、置信度损失三者的叠加。反向传播进行梯度更新权重参数。由于加入偏移量后的位置非整数,并不对应用特征图上实际存在的像素点,因此需要使用插值得到像素值。
实施方式二,本实施方式是对实施方式一所述的一种基于图像识别的农田森林烟雾防火检测方法的进一步限定,本实施方式中,对步骤1中,所述预处理,做了进一步限定,具体包括:
步骤1中,所述预处理包括:对输入的烟火图像数据进行随机的拼接、剪裁、缩放、改变hsv和mosaic。
本实施方式中的随机处理方式可以实现数据的多样性,提供了数据增强操作,用于训练本发明的网络模型,以提高模型的检测精度。
实施方式三,本实施方式是对实施方式一所述的一种基于图像识别的农田森林烟雾防火检测方法的进一步限定,本实施方式中,对步骤1中,做了进一步限定,具体包括:
步骤1,还包括:
Kmeans将输入框聚类为4类,需要输入框box的宽和高作为特征,并且由于数据集中图片的大小可能不同,还需要先使用图片的宽和高对box的宽和高做归一化具体操作为:
步骤1.1:随机选取K个box作为初始锚框anchor;
步骤1.2:使用交并比IOU度量,将每个box分配给与其距离最近的anchor;
步骤1.3:计算每个簇中所有box宽和高的均值,更新anchor;
步骤1.4:重复步骤1.2和步骤1.3,直到anchor不再变化,或者达到最大迭代次数;
距离与交并比的关系式为:
本实施方式是针对由于数据集中图片的大小可能不同的情况所进行的操作。
实施方式四,本实施方式是对实施方式一所述的一种基于图像识别的农田森林烟雾防火检测方法的进一步限定,本实施方式中,对所述骨干网络,做了进一步限定,具体包括:
所述骨干网络采用CSP-Darknet53主干特征提取网络,具体包括ConV和C3模块;
所述ConV模块包括卷积、BatchNorm归一化和SiLU激活函数;
所述C3模块由若干个堆叠的Bottleneck和若干个Deformable Conv V2卷积组成。
本实施方式的骨干网络做了改进,由三层特征提取变为五层,针对农田森林烟雾防火检测,可以提取更多特征,提高检测精度。
实施方式五,本实施方式是对实施方式一所述的一种基于图像识别的农田森林烟雾防火检测方法的进一步限定,本实施方式中,对所述针对加入偏移量后的位置非整数的情况,使用插值得到像素值,做了进一步限定,具体包括:
所述针对加入偏移量后的位置非整数的情况,使用插值得到像素值,具体包括:
采用双线性插值,公式如下:
其中,p表示特征图上偏移过后的位置,q表示p周围的四邻域坐标,x(q)四邻域的特征值,G(q,p)表示限制临域点和偏移点的距离,g(qx,px)限制x方向,g(qy,py)限制y方向,公式最后一行的max(0, 1-...)是限制插值点与领域点不会超过1个像素的距离;
其中,Pixel(x,y)表示插值后特征点特征值,Pixcel(xi,yi)表示四邻域的特征值;
将插值点位置的像素值设为其4领域像素点的加权和,领域4个点是离其最近的在特征图上实际存在的像素点,每个点的权重则根据它与插值点横、纵坐标的距离来设置。
本实施方式中,由于加入偏移量后的位置非整数,并不对应用特征图上实际存在的像素点,因此需要使用插值得到像素值。
实施方式六,本实施方式是对实施方式一所述的一种基于图像识别的农田森林烟雾防火检测方法的进一步限定,本实施方式中,对步骤1中,做了进一步限定,具体包括:
所述Neck网络的建立方法,具体包括:
所述Neck网络包括SPPF模块、ConV模块、Upsample模块、C3模块和Concat模块;
采用8个ConV模块,一个SPPF模块,8个C3模块,4个Upsample模块和8个Concat模块;
其中,SPPF是一种特征融合模块,由Deformable Conv V2和池化构成,用于提取不同尺度的特征,在不改变特征图大小的情况下对不同的特征图进行池化操作;
所述Upsample模块采用最近邻插值进行插值;
C3模块由多个Bottleneck堆叠和3个Deformable Conv V2卷积组成;
Concat模块用于将相同大小的特征图进行拼接。
实施方式七,本实施方式是对实施方式一所述的一种基于图像识别的农田森林烟雾防火检测方法的进一步限定,本实施方式中,对步骤1中,做了进一步限定,具体包括:
所述改进的深度学习Yolov5网络模型前14层为backbone,第15层到第42层为Neck网络,第43层为AuxHead辅助训练头,第44层为Head网络。
本实施方式中的Neck网络添加了AuxHead辅助训练头,有效提升检测精度AuxHead可以让网络中间层学到更多信息 ,有更丰富的梯度信息帮助训练。
实施方式八,本实施方式是对如上文所述的一种基于图像识别的农田森林烟雾防火检测方法的实施例1,具体包括:
1.采集视频数据、构建烟火图像数据集;通过数据采集系统采集大量图片,并对图片进行数据预处理和数据增强,构建烟火数据集。烟火图像包括在森林中烟火、农田烟火、乡村烟囱、山林烟火等。将构建的烟火数据集图像利用标注对有烟火的区域进行类别标注,生成对应的类别标签信息和位置信息。同时添加一些场景易混淆类别,并生成对应的类别标签和位置信息。
2.构建深度学习Yolov5网络模型。将骨干网络中所有卷积替换为DeformableConv V2,如图5所示,特征点特征值获取过程如图6所示,可以更好提取烟火的特征,提高预测检测位置的准确性。同时,网络模型包括Backbone、Neck、Head、AuxHead。
3.将训练集输入到修改的Yolov5网络模型中进行训练,如图3所示,在输入端对进行数据增强操作,对输入的图像数据进行随机的拼接、剪裁、缩放、改变hsv、mosaic等操作。Kmeans将输入框聚类为4类,需要box的宽和高作为特征,并且由于数据集中图片的大小可能不同,还需要先使用图片的宽和高对box的宽和高做归一化具体操作为:
(1)随机选取K个box作为初始anchor;
(2)使用IOU度量,将每个box分配给与其距离最近的anchor;
(3)计算每个簇中所有box宽和高的均值,更新anchor;
(4)重复2、3步,直到anchor不再变化,或者达到了最大迭代次数。
由上式可知,当box与anchor完全重叠,即IOU=1时,它们之间的距离为0。
然后将图像输入网络,网络的输入端包括Aux head辅助训练头,如图4所示。一方面使其具有自适应的锚定运算,能够提升位置预测准确度,另一方面则能够提取更多的图片中特征,利用更丰富的梯度信息帮助网络训练。
Finelabel会用于训练Leadhead,而Auxhead因为抽象能力弱则使用coarse的标签进行训练。coarse具体就是对于正样本可能出现区域的放宽,即作为正样本的条件放款。
特征处理Neck层将不同尺度的五层特征图经过UpSample模块进行多尺度的特征融合,能够更有利识别浅层特征小目标和深层特征大目标。不同尺度融合能够更好的适应不同形态的box,减小box_loss。例如:此次输入图片大小为1920*1920,经过128、64、32、16、8倍下采样,最小特征层大小为15*15,再经过四次upsample,依次产生30*30、60*60、120*120、240*240大小的特征图,特征图每个特征像素设置了4anchor,因此一共有254900个anchor,可以适应多种形态大小的烟火形态,更加准确标注烟火位置。
输出端Head经过非极大值抑制NMS筛选出最优尺度检测的框,输出识别的类别和位置信息。
在验证数据集上,mpdiou优化当预测框与真实框具有相同的长宽比,但宽度和高度值完全不同时无法优化的问题,如图7所示,Bpre表示预测框,Bgt实际框,相交部分表示两个框的交集。损失为类别损失、定位损失、置信度损失三者的叠加。反向传播进行梯度更新权重参数。
Mpdiou损失函数的公式如下,用于计算预测框损失:
其中xB 1,yB 1是预测框的左上角坐标,xA 1,yA 1是真实框左上角坐标,d2 1是两个框左上角距离的平方,xB,yB是预测框右下角坐标,xA,yA是预测框右下角坐标,d2 2是两个框的右下角距离的平方。w,h是输入图片的宽高,A是预测框的面积,B是真实框的面积,就是pk,K是周围点的数量,/>是原来x点权重,/>是预测到新的点的新权重。
其中,P是输出特征图上每点(对应卷积核中心)加上其对应卷积核每个位置的相对(横、纵)坐标pk,再加上自学习的坐标偏移量△p,△mk是学到的权重,这样增加了更大的自由度,对于某些不想要的采样点权重可以学习为0。
由于加入偏移量后的位置非整数,并不对应用特征图上实际存在的像素点,因此需要使用插值得到的像素值,通常可采用双线性插值,公式如下:
其中p表示特征图上偏移过后的位置,q表示p周围的四邻域坐标,x(q)四邻域的特征值,G(q,p)表示限制临域点和偏移点的距离,g(qx,px)限制x方向,g(qy,py)限制y方向,公式最后一行的max(0, 1-...)就是限制了插值点与领域点不会超过1个像素的距离。
Pixel(x,y)表示插值后特征点特征值,Pixcel(xi,yi)表示四邻域的特征值,图6表示了特征点的双线性插值。
将插值点位置的像素值设为其4领域像素点的加权和,领域4个点是离其最近的在特征图上实际存在的像素点,每个点的权重则根据它与插值点横、纵坐标的距离来设置,公式最后一行的max(0, 1-...)就是限制了插值点与领域点不会超过1个像素的距离。
将Yolov5网络完成训练加载测试集进行测试。将网络模型通过数据集迭代训练等操作得到最优模型,并通过测试集测试模型效果,然后最优模型进行检测,实时输出烟火图像的监测结果。实施方式九,本实施方式是对如上文所述的一种基于图像识别的农田森林烟雾防火检测方法的实施例2,具体包括:
参考图1、图2,本实例公开了一种基于图像识别的农田森林烟雾防火检测算法,本发明数据来源基于视频监控数据采集,通过针对不同阶段、不同时期、不同地点烟火,采用深度学习训练方式,对地区进行烟火监控防范。
步骤一:采集图像数据,构建数据集,具体为:采集图像地区是否有烟火的图像数据,对图像数据进行清洗和标记,构建数据集。参见图2,为图像数据集中的部分图像(a)(b)为图像数据集中监控地区有烟火的图像,(c)(d)为图像数据中监控地区无烟火的图像。通过yolov5网络模型对图像数据集进行训练,对监控地区是否有烟火进行检测,实现烟火实时防控,所述图像数据集包括训练集、验证集、测试集。所述图像数据集按照6:2:2进行划分,一次得到训练集train,验证集val和测试集test;
步骤二:构建数据集后,还包括后续步骤:对上述图像数据集进行数据增强;具体为将训练集train采用旋转、平移、剪裁、随机拼接、颜色空间hsv变换、Mosaic等多种数据增强方法进行数据增强。在有限的数据数量的情况下,让有限的数据等同于更多的数据样式,使得所训练模型更具泛化性。构建YOLOV5网络模型,具体为:
(1)构造主干网络,主干网络主要用于提取图像数据的有效特征,上述主干网络采用CSP-Darknet53主干特征提取网络,主干网络主要包括ConV和C3模块;构建主干网络,具体为:采用7个ConV模块,6个C3模块;其中ConV模块包括卷积操作、BatchNorm归一化和SiLU激活函数组成,本发明中卷积操作为Deformable Conv V2。C3模块主要是对残差学习的模块,其结构分为两支,一支使用了上述指定多个Bottleneck(1-12)堆叠和3个DeformableConv V2卷积,另一支仅经过一个基本卷积模块,最后将两支进行concat操作。
(2)构造Neck网络,Neck网络主要用于不同特征层之间的特征融合,Neck网络主要包括SPPF模块、ConV模块、Upsample模块、C3模块、Concat模块,具体为:采用8个ConV模块,一个SPPF模块,8个C3模块,4个Upsample模块、8个Concat模块。其中SPPF是一种特征融合模块,由Deformable Conv V2和池化构成,用于提取不同尺度的特征,在不改变特征图大小的情况下对不同的特征图进行池化操作,从而提高目标检测的准确率。所述Upsample模块采用最近邻插值进行插值,最后生成的特征图和经过四次Upsample后生成的特征图大小为15*15、30*30、60*60、120*120、240*240。C3模块由多个Bottleneck堆叠和3个DeformableConv V2卷积组成。Concat模块用于将相同大小的特征图进行拼接。
(3)构造Head网络,主要是对提取的特征层进行目标分类和回归。所述Head网络主要对前面网络提取的不同特征层进行目标分类和回归。
所述的BackBone、Neck、和Head网络共由44层网络组成,第n层网络输出的特征图记为Netn,其中n为0,1,2...43,前42层网络特征图大小为Nn×Cn×Hn×Wn,其中Nn为训练样本中样本个数,Cn为特征图的通道个数,Hn为特征图高度,Wn为特征图宽度。第43层网络由第13层网络、第17层网络、第21层网络、第25层网络、第29层网络构成,第44层网络由第29层网络、第32层网络、第35层网络、第38层网络、第41层网络构成。如图8所示。
步骤三:在本实施例中,所述步骤S3中将YOLOv5网络模型通过图像数据集进行迭代训练,具体为:
构建dataloader,对数据进行预处理;将进行数据增强后的图像数据集的训练集中随机挑选Nin个样本,图像的通道为Cin=3,高为Hin,宽为Win,则模型的输入维度为Nin×Cin×Hin×Win
将预处理后的图像数据输入Yolov5网络模型,进行训练;具体地,将挑选的样本输入到网络模型,Yolov5网络模型前14层为backbone(特征提取),第15层到第42层为Neck(特征加工),第43层为AuxHead层,第44层为Head层(目标预测)。
第0层网络Net0,卷积为Deformable Conv V2,卷积核尺寸为6*6,卷积步长为2,输入通道数Cin=3,输出通道数为C0=32,输出特征图H0=Hin/2,输出特征图W0=Win/2,padding=2,N0=Nin
第1层网络Net1,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,输入通道数C1=32,输出通道数为C1=64,输出特征图H1=H0/2,输出特征图H1=H0/2,N1=N0
第2层网络Net2,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N1×C1×H1×W1,输出特征图维度N2×C2×H2×W2,N2=N1,C2=64,H2=H1,W2=W1
第3层网络Net3,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,padding=1,输入通道数C2=64,输出通道数为C3=128,输出特征图H3=H2/2,输出特征图W3=W2/2,N3=N2
第4层网络Net4,为C3模块,重复次数为2,C3模块中卷积为Deformable Conv V2,输入特征图维度为N3×C3×H3×W3,输出特征图维度N4×C4×H4×W4,N4=N3,C4=128,H4=H3,W4=W3
第5层网络Net5,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,padding=1,输入通道数C4=128,输出通道数为C5=256,输出特征图H5=H4/2,输出特征图W5=W4/2,N5=N4
第6层网络Net6,为C3模块,重复次数为3,C3模块中卷积为Deformable Conv V2,输入特征图维度为N5×C5×H5×W5,输出特征图维度N6×C6×H6×W6,N6=N5,C6=256,H6=H5,W6=W5
第7层网络Net7,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,padding=1,输入通道数C7=384,输出通道数为C7=256,输出特征图H7=H6/2,输出特征图W7=W6/2,N7=N6
第8层网络Net8,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N7×C7×H7×W7,输出特征图维度N8×C8×H8×W8,N8=N7,C8=384,H8=H7,W8=W7
第9层网络Net9,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,padding=1,输入通道数C8=384,输出通道数为C9=512,输出特征图H9=H8/2,输出特征图W9=W8/2,N9=N8
第10层网络Net10,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N9×C9×H9×W9,输出特征图维度N10×C10×H10×W10,N10=N9,C10=512,H10=H9,W10=W9
第11层网络Net11,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,padding=1,输入通道数C10=512,输出通道数为C11=640,输出特征图H11=H10/2,输出特征图W11=W10/2,N11=N10
第12层网络Net12,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N11×C11×H11×W11,输出特征图维度N12×C12×H12×W12,N12=N11,C12=640,H12=H11,W12=W11
第13层网络Net13,为SPPF模块,卷积核尺寸为5*5,卷积步长为1,padding=2,输入通道数C12=640,输出通道数为C13=640,输出特征图H13=H12,输出特征图W13=W12,N13=N12
第14层网络Net14,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,padding=1,输入通道数C13=640,输出通道数为C14=512,输出特征图H14=H13/2,输出特征图W14=W13/2,N14=N13
第15层网络Net15,为Upsample模块,输入通道数C14=512,输出通道数为C15=512,输出特征图H15=H14*2,输出特征图W15=W14*2,N15=N14
第16层网络Net16,为Concat模块,将第15层与第10层通道拼接,输入通道数C15=512,输出通道数为C16=1024,输出特征图H16=H15,输出特征图W16=W15,N16=N15
第17层网络Net17,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N16×C16×H16×W16,输出特征图维度N17×C17×H17×W17,N17=N16,C17=512,H17=H16,W17=W16
第18层网络Net18,卷积为Deformable Conv V2,卷积核尺寸为1*1,卷积步长为1,输入通道数C17=512,输出通道数为C18=384,输出特征图H18=H17,输出特征图W18=W17,N18=N17
第19层网络Net19,为Upsample模块,输入通道数C18=384,输出通道数为C19=384,输出特征图H19=H18*2,输出特征图W19=W18*2,N19=N18
第20层网络Net20,为Concat模块,将第19层与第8层通道拼接,输入通道数C19=384,输出通道数为C20=768,输出特征图H20=H19,输出特征图W20=W19,N20=N19
第21层网络Net21,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N20×C20×H20×W20,输出特征图维度N21×C21×H21×W21,N21=N20,C21=384,H21=H20,W21=W20
第22层网络Net22,卷积为Deformable Conv V2,卷积核尺寸为1*1,卷积步长为1,输入通道数C21=384,输出通道数为C22=256,输出特征图H22=H21,输出特征图W22=W21,N22=N21
第23层网络Net23,为Upsample模块,输入通道数C22=384,输出通道数为C23=384,输出特征图H23=H22*2,输出特征图W23=W22*2,N23=N22
第24层网络Net24,为Concat模块,将第23层与第6层通道拼接,输入通道数C23=256,输出通道数为C24=512,输出特征图H24=H23,输出特征图W24=W23,N24=N23
第25层网络Net25,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N24×C24×H24×W24,输出特征图维度N25×C25×H25×W25,N25=N24,C25=256,H25=H24,W25=W24
第26层网络Net26,卷积为Deformable Conv V2,卷积核尺寸为1*1,卷积步长为1,输入通道数C25=256,输出通道数为C26=128,输出特征图H26=H25,输出特征图W26=W25,N26=N25
第27层网络Net27,为Upsample模块,输入通道数C26=384,输出通道数为C27=384,输出特征图H27=H26*2,输出特征图W27=W26*2,N27=N26
第28层网络Net28,为Concat模块,将第27层与第6层通道拼接,输入通道数C27=128,输出通道数为C28=256,输出特征图H28=H27,输出特征图W28=W27,N28=N27
第29层网络Net29,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N28×C28×H28×W28,输出特征图维度N29×C29×H29×W29,N29=N28,C29=128,H29=H28,W29=W28
第30层网络Net30,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,输入通道数C29=128,输出通道数为C30=128,输出特征图H30=H29,输出特征图W30=W29,N30=N29
第31层网络Net31,为Concat模块,将第30层与第26层通道拼接,输入通道数C30=128,输出通道数为C31=256,输出特征图H31=H30,输出特征图W31=W30,N31=N30
第32层网络Net32,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N31×C31×H31×W31,输出特征图维度N32×C32×H32×W32,N32=N31,C32=256,H32=H31,W32=W31
第33层网络Net33,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,输入通道数C32=256,输出通道数为C33=256,输出特征图H33=H32/2,输出特征图W33=W32/2,N33=N32
第34层网络Net34,为Concat模块,将第33层与第22层通道拼接,输入通道数C33=256,输出通道数为C34=512,输出特征图H34=H33,输出特征图W34=W33,N34=N33
第35层网络Net35,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N34×C34×H34×W34,输出特征图维度N35×C35×H35×W35,N35=N34,C35=384,H35=H34,W35=W34
第36层网络Net36,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,输入通道数C35=384,输出通道数为C36=384,输出特征图H36=H35/2,输出特征图W36=W35/2,N36=N35
第37层网络Net37,为Concat模块,将第36层与第22层通道拼接,输入通道数C36=384,输出通道数为C37=768,输出特征图H37=H36,输出特征图W37=W36,N37=N36
第38层网络Net38,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N37×C37×H37×W37,输出特征图维度N38×C38×H38×W38,N38=N37,C38=512,H38=H37,W38=W37
第39层网络Net39,卷积为Deformable Conv V2,卷积核尺寸为3*3,卷积步长为2,输入通道数C38=512,输出通道数为C39=512,输出特征图H39=H38/2,输出特征图W39=W38/2,N39=N38
第40层网络Net40,为Concat模块,将第39层与第22层通道拼接,输入通道数C39=512,输出通道数为C40=1024,输出特征图H40=H39,输出特征图W40=W39,N40=N39
第41层网络Net41,为C3模块,C3模块中卷积为Deformable Conv V2,输入特征图维度为N40×C40×H40×W40,输出特征图维度N41×C41×H41×W41,N41=N40,C41=640,H41=H40,W41=W40
第42层网络,为AuxHead,由第13层网络、第17层网络、第21层网络、第25层网络、第29层网络构成
第43层网络,为Head,由第29层网络、第32层网络、第35层网络、第38层网络、第41层网络构成。该模块包含五个尺度的特征图,特征图大小分别为15*15、30*30、60*60、120*120、240*240,检测类别个数为2,每个特征图生成的anchor个数为W*H*4*(4+1+class_number),所以每层的特征图生成的anchor个数分别为,15*15*4*7、30*30*4*7、120*120*4*7、240*240*4*7。
经过Head后开始计算损失,损失一共有三个部分构成,分别为分类损失、定位损失、置信度损失,总体的损失即为以上三者的加权相加,通过改变权值可以调整对三者损失的关注度。通常对于分类任务,输出的标签是互斥的,此时将会用到 softmax 函数将三者的预测值转换为总和为 1 的概率值,并分类为概率最高的那一类。分类损失xi为类别i,yi是分为类别i的概率,
总类别为N,其真实标签是yij表示样本i属于j类的概率,yij=1表示属于,y0=0表示不属于,对于每个样本来说只有一个标签是正确的,所以这个损失函数的实际含义是用正确的标签来对模型预测结果进行惩罚。
定位损失则使用mpdiou,mpdiou优化当预测框与真实框具有相同的长宽比。
置信度损失,做法是根据网格对应的预测框与真实框的CIoU作为该预测框的置信度标签。
经过模型预测后,再进行复核后,发现为误报,则过滤该显示器接下来半小时的预警,减少误报信息。

Claims (5)

1.一种基于图像识别的农田森林烟雾防火检测方法,其特征在于,所述方法包括:
步骤1:构建烟火图像数据集,对所述烟火图像数据集进行预处理;
步骤2:建立改进的深度学习Yolov5网络模型,具体包括:
所述改进的深度学习Yolov5网络模型包括骨干网络、Neck网络、Head网络和AuxHead辅助训练头;
骨干网络中所有卷积为Deformable Conv V2;
输入端包括Auxhead辅助训练头;
Neck网络用于将不同尺度的特征图经过UpSample模块进行多尺度的特征融合;
Head网络用于筛选出最优尺度检测的框,输出识别的类别和位置信息,具体包括:
采用mpdiou计算模型的检测框损失;
损失为类别损失、定位损失、置信度损失三者的叠加;
反向传播进行梯度更新权重参数;
针对加入偏移量后的位置非整数的情况,使用插值得到像素值;
步骤3:对所述改进的深度学习Yolov5网络模型进行训练加载测试集进行测试,利用训练后的改进的深度学习Yolov5网络模型进行检测,实时输出烟火图像的监测结果;
所述针对加入偏移量后的位置非整数的情况,使用插值得到像素值,具体包括:
采用双线性插值,公式如下:
其中,p表示特征图上偏移过后的位置,q表示p周围的四邻域坐标,x(q)四邻域的特征值,G(q,p)表示限制临域点和偏移点的距离,g(qx,px)限制x方向,g(qy,py)限制y方向,公式最后一行的max(0, 1-...)是限制插值点与领域点不会超过1个像素的距离;
其中,Pixel(x,y)表示插值后特征点特征值,Pixcel(xi,yi)表示四邻域的特征值;
将插值点位置的像素值设为其4领域像素点的加权和,领域4个点是离其最近的在特征图上实际存在的像素点,每个点的权重则根据它与插值点横、纵坐标的距离来设置;
步骤1,还包括:
Kmeans将输入框聚类为4类,以box的宽和高作为特征,使用图片的宽和高对box的宽和高做归一化,具体操作为:
步骤1.1:随机选取K个box作为初始anchor;
步骤1.2:使用IOU度量,将每个box分配给与其距离最近的anchor;
步骤1.3:计算每个簇中所有box宽和高的均值,更新anchor;
步骤1.4:重复步骤1.2和步骤1.3,直到anchor不再变化,或者达到最大迭代次数;
距离与交并比的关系式为:
所述骨干网络采用CSP-Darknet53主干特征提取网络,具体包括ConV和C3模块;
所述ConV模块包括卷积、BatchNorm归一化和SiLU激活函数;
所述C3模块由若干个堆叠的Bottleneck和若干个Deformable Conv V2卷积组成;
所述Neck网络的建立方法,具体包括:
所述Neck网络包括SPPF模块、ConV模块、Upsample模块、C3模块和Concat模块;
采用8个ConV模块,一个SPPF模块,8个C3模块,4个Upsample模块和8个Concat模块;
其中,SPPF是一种特征融合模块,由Deformable Conv V2和池化构成,用于提取不同尺度的特征,在不改变特征图大小的情况下对不同的特征图进行池化操作;
所述Upsample模块采用最近邻插值进行插值;
C3模块由多个Bottleneck堆叠和3个Deformable Conv V2卷积组成;
Concat模块用于将相同大小的特征图进行拼接;
所述改进的深度学习Yolov5网络模型前14层为backbone,第15层到第42层为Neck网络,第43层为AuxHead辅助训练头,第44层为Head网络。
2.根据权利要求1所述的一种基于图像识别的农田森林烟雾防火检测方法,其特征在于,步骤1中,所述预处理包括:对输入的烟火图像数据进行随机的拼接、剪裁、缩放、改变hsv和mosaic。
3.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,其特征在于,当所述处理器运行所述存储器存储的计算机程序时执行权利要求1至2中任一项所述的方法的步骤。
4.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有多条计算机指令,所述多条计算机指令用于使计算机执行权利要求1至2中任一项所述的方法。
5.一种电子设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至2中任一项所述的方法。
CN202410130967.5A 2024-01-31 2024-01-31 基于图像识别的农田森林烟雾防火检测方法和设备 Active CN117671602B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410130967.5A CN117671602B (zh) 2024-01-31 2024-01-31 基于图像识别的农田森林烟雾防火检测方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410130967.5A CN117671602B (zh) 2024-01-31 2024-01-31 基于图像识别的农田森林烟雾防火检测方法和设备

Publications (2)

Publication Number Publication Date
CN117671602A CN117671602A (zh) 2024-03-08
CN117671602B true CN117671602B (zh) 2024-04-05

Family

ID=90064468

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410130967.5A Active CN117671602B (zh) 2024-01-31 2024-01-31 基于图像识别的农田森林烟雾防火检测方法和设备

Country Status (1)

Country Link
CN (1) CN117671602B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109409256A (zh) * 2018-10-10 2019-03-01 东南大学 一种基于3d卷积神经网络的森林烟火检测方法
CN114677629A (zh) * 2022-03-30 2022-06-28 山东中科先进技术有限公司 一种基于yolov5网络的烟火检测预警方法及系统
CN115410134A (zh) * 2022-09-30 2022-11-29 西安工程大学 一种基于改进YOLOv5s的视频火灾烟雾检测方法
CN116188442A (zh) * 2023-03-07 2023-05-30 长春卓视达科技推广有限责任公司 一种适用于任意场景下的高精度森林烟火检测方法
CN116503763A (zh) * 2023-04-27 2023-07-28 南京邮电大学 基于二元协同反馈的无人机巡航森林火灾检测方法
CN117456198A (zh) * 2023-08-17 2024-01-26 国网天津市电力公司 一种基于改进的Yolov5神经网络的输电线路故障检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114022910B (zh) * 2022-01-10 2022-04-12 杭州巨岩欣成科技有限公司 泳池防溺水监管方法、装置、计算机设备及存储介质
US20240005759A1 (en) * 2022-09-09 2024-01-04 Nanjing University Of Posts And Telecommunications Lightweight fire smoke detection method, terminal device, and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109409256A (zh) * 2018-10-10 2019-03-01 东南大学 一种基于3d卷积神经网络的森林烟火检测方法
CN114677629A (zh) * 2022-03-30 2022-06-28 山东中科先进技术有限公司 一种基于yolov5网络的烟火检测预警方法及系统
CN115410134A (zh) * 2022-09-30 2022-11-29 西安工程大学 一种基于改进YOLOv5s的视频火灾烟雾检测方法
CN116188442A (zh) * 2023-03-07 2023-05-30 长春卓视达科技推广有限责任公司 一种适用于任意场景下的高精度森林烟火检测方法
CN116503763A (zh) * 2023-04-27 2023-07-28 南京邮电大学 基于二元协同反馈的无人机巡航森林火灾检测方法
CN117456198A (zh) * 2023-08-17 2024-01-26 国网天津市电力公司 一种基于改进的Yolov5神经网络的输电线路故障检测方法

Also Published As

Publication number Publication date
CN117671602A (zh) 2024-03-08

Similar Documents

Publication Publication Date Title
EP3690712A1 (en) Learning method and learning device of pedestrian detector for robust surveillance based on image analysis by using gan and testing method and testing device using the same
CN110956126B (zh) 一种联合超分辨率重建的小目标检测方法
CN113362329B (zh) 病灶检测模型的训练方法及识别图像中的病灶的方法
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN113807276B (zh) 基于优化的YOLOv4模型的吸烟行为识别方法
CN111985374B (zh) 人脸定位方法、装置、电子设备及存储介质
CN111507248A (zh) 一种低分辨热力图的人脸额头区域检测与定位方法及其系统
CN115457428A (zh) 融入可调节坐标残差注意力的改进YOLOv5火灾检测方法及装置
Cao et al. EFFNet: Enhanced feature foreground network for video smoke source prediction and detection
Park et al. Advanced wildfire detection using generative adversarial network-based augmented datasets and weakly supervised object localization
CN111898419A (zh) 基于级联深度卷积神经网络的分区滑坡检测系统及方法
CN115761627A (zh) 一种火灾烟雾火焰图像识别方法
CN114565842A (zh) 基于Nvidia Jetson嵌入式硬件的无人机实时目标检测方法及系统
CN114565891A (zh) 一种基于图形生成技术的烟火监测方法及系统
CN116824335A (zh) 一种基于YOLOv5改进算法的火灾预警方法及系统
CN115661607A (zh) 一种基于改进YOLOv5的小目标识别方法
CN114399734A (zh) 一种基于视觉信息的森林火灾预警方法
CN117671602B (zh) 基于图像识别的农田森林烟雾防火检测方法和设备
CN114494893B (zh) 基于语义重用上下文特征金字塔的遥感图像特征提取方法
CN113902744B (zh) 基于轻量级网络的图像检测方法、系统、设备和存储介质
CN116168240A (zh) 基于注意力增强的任意方向密集舰船目标检测方法
CN115565146A (zh) 基于自编码器获取鸟瞰图特征的感知模型训练方法及系统
CN116092179A (zh) 一种改进的yolox跌倒检测系统
CN115359091A (zh) 一种用于移动机器人的装甲板检测跟踪方法
CN114926791A (zh) 一种路口车辆异常变道检测方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant