CN117409358A - 一种融合BiFPN的轻量化火焰检测方法 - Google Patents
一种融合BiFPN的轻量化火焰检测方法 Download PDFInfo
- Publication number
- CN117409358A CN117409358A CN202311436982.4A CN202311436982A CN117409358A CN 117409358 A CN117409358 A CN 117409358A CN 202311436982 A CN202311436982 A CN 202311436982A CN 117409358 A CN117409358 A CN 117409358A
- Authority
- CN
- China
- Prior art keywords
- flame
- network
- bifpn
- module
- dbb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 30
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 230000007246 mechanism Effects 0.000 claims abstract description 6
- 238000010586 diagram Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 11
- 238000000034 method Methods 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 4
- 230000002265 prevention Effects 0.000 abstract description 3
- 210000002569 neuron Anatomy 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Fire-Detection Mechanisms (AREA)
Abstract
本发明公开了一种融合BiFPN的轻量化火焰检测方法,在YOLOv8算法的基础上,使用DCRS模块替换YOLOv8主干网络中的部分标准卷积,从而减少参数量;使用DBB替换Bottleneck结构中的Conv,构成Bottleneck_DBB结构,将其嵌入C2f模块中构成C2f_DBB模块,并将主干网络中的C2f模块替换为C2f_DBB模块,以重构主干网络;在主干特征提取网络输出的三个特征层之后加入轻量化注意力机制SimAM;颈部网络采用多尺度特征融合BiFPN,使特征融合方式更加简单高效,以提高检测速度和降低模型复杂度;使用MPDIoU边界损失函数替换原损失函数,加快收敛速度,提高模型对火焰目标的定位能力。本发明在不同场景下的检测效果对比原模型得到了改善,检测速度满足实时性要求,改进后的检测模型能够更好地应用于火灾防控任务中。
Description
技术领域
本发明涉及计算机视觉与图像识别的技术领域,具体涉及一种融合BiFPN的轻量化火焰检测方法。
背景技术
火灾是世界性的自然灾害之一,也是日常生活中主要灾害,其发生发展不仅对自然环境有着严重影响,还威胁着人们的生命与财产安全,能够及时并有效地做出火灾预警变得非常重要。
YOLOv8作为主流算法在实时性能、准确性和灵活性等方面具有显著的优点,是目标检测领域的一个重要算法选择。YOLOv8主要包括输入端、主干网络、颈部网络和头部网络四个部分。其中,输入端负责将输入图片缩放到训练需要的尺寸,并包合缩放、改变图片色调和数据增强等操作;主干网络用来进行目标特征的提取,由Conv、C2f和SPPF模块构成;颈部网络用来将不同维度的特征进行加强融合,其结构遵循特征金字塔和路径聚合结构;头部网络将加强后的特征进行计算,最终得到不同目标的置信度和位置。
虽然YOLOv8在目标检测领域取得了显著的进展,但它仍然具有一些挑战和局限性。YOLOv8的性能很大程度上依赖于使用的数据集。如果训练数据不足或不够代表性,模型可能会在不同场景下表现不佳。YOLOv8在一般物体检测上表现得很出色,但在检测小尺寸或相似目标时,可能会出现性能下降。这在一些特定的应用中可能是一个问题,例如火焰检测中的小目标火焰或检测过程中遇到的光照、灯光、晚霞等类火目标造成的干扰。
发明内容
发明目的:针对背景技术中指出的问题,本发明提出一种融合BiFPN的轻量化火焰检测方法,检测速度满足实时性要求,改进后的检测模型能够更好地应用于火灾防控任务中。
技术方案:本发明提供了一种融合BiFPN的轻量化火焰检测方法,具体步骤如下:
步骤1:采集数据制作数据集,通过网络采集不同的火焰图像数据,再对获得的图像数据进行标注,制作数据集;
步骤2:使用DCRS模块替换YOLOv8主干网络中的部分标准卷积;
步骤3:使用DBB替换YOLOv8主干网络中Bottleneck结构中的Conv,构成Bottleneck_DBB结构,将其嵌入C2f模块中构成C2f_DBB模块,并将主干网络中的C2f模块替换为C2f_DBB模块,以重构主干网络;
步骤4:在主干特征提取网络输出的三个特征层之后加入轻量化注意力机制SimAM;
步骤5:颈部网络中采用多尺度特征融合BiFPN;
步骤6:使用MPDIoU边界损失函数替换原损失函数;
步骤7:对改进后的YOLOv8网络进行网络模型训练,得到训练好的YOLOv8网络模型,对待检测图像数据进行火焰检测。
进一步地,所述步骤1具体步骤如下:
步骤1.1:通过网络爬虫技术爬取不同的火焰图像数据;
步骤1.2:对获取的图像数据进行数据清洗;
步骤1.3:用数据标注工具Labelimg对火焰图像进行标注,用矩形框标注图像中火焰的位置,标注成YOLO格式,得到火焰图像数据集;
步骤1.4:将标注好的火焰图像数据集按照8:1:1的比例划分成训练集、验证集和测试集。
进一步地,所述步骤2中DCRS模块由AvgPool、Conv、Softmax组合而成,并在DCRS模块中加入DWConv作为跳跃连接,通过加权运算进行求和输出感受野特征注意力特征图,整个过程表示如下:
F=Softmax(d1×1(AvgPool(X)))×ReLu(Norm(dk×k(X)))=Arf×Frf
其中:d表示深度可分离卷积,k表示卷积核的大小,Norm代表规范化,X表示输入特征图,F是通过注意力图Arf与变换的感受野空间特征Frf相乘而获得的。
进一步地,所述步骤5包括如下子步骤:
步骤5.1:运用BiFPN对主干特征提取网络输出的不同分辨率的火焰特征进行第一次融合:先从低往高、再从高往低依次进行上采样和融合,并将输入与输出级联,进而融合不同卷积层的火焰特征;
步骤5.2:将步骤5.1中BiFPN第一次融合后的三个不同分辨率的特征图进行递归操作,即返回到原有的主干网络;
步骤5.3:运用BiFPN将步骤5.2返回的三个不同分辨率的火焰特征图与相应分辨率的主干网络得到火焰特征图二次融合,再次得到三个不同分辨率的火焰特征图,然后在头部网络进行检测。
进一步地,所述步骤6中使用MPDIoU边界损失函数替换原损失函数,具体定义为:
其中:表示预测边界框的坐标,/>表示真实标注边界框的坐标,x1,y1表示框的左上角坐标,x2,y2表示框的右下角坐标,/>为预测边界框与真实标注边界框之间的左上角和右下角的距离,w,h为图片的宽度和高度。
进一步地,所述步骤7的网络模型训练中,迭代100次,初始学习率设置为0.01,最小学习率设置为0.001,bitch_size设置为8,使用AdamW优化器,且权值衰减设置为0.0005。
与现有技术相比,本发明有益效果:
在YOLOv8算法的基础上,使用DCRS模块替换YOLOv8主干网络中的部分标准卷积,从而减少参数量。使用DBB替换C2f模块中的Bottleneck结构中的Conv,构成Bottleneck_DBB结构,将其嵌入C2f模块中构成C2f_DBB模块,并将主干网络中的C2f模块替换为C2f_DBB模块,以重构主干网络,在提高精度的同时可以满足实时性要求。在主干特征提取网络输出的三个特征层之后加入轻量化注意力机制SimAM,增强模型对小目标火焰特征的提取能力。颈部网络中采用更高效简单的多尺度特征融合BiFPN,使特征融合方式更加简单高效,以提高检测速度和降低模型复杂度。使用MPDIoU边界损失函数替换原损失函数,加快收敛速度,提高模型对火焰目标的定位能力。本发明在不同场景下的检测效果对比原模型得到了改善,检测速度满足实时性要求,改进后的检测模型能够更好地应用于火灾防控任务中。
附图说明
图1是本发明实施例的方法流程图;
图2是本发明实施例的整体网络结构图;
图3是本发明实施例中DCRS模块示意图;
图4是本发明实施例中DBB的结构图;
图5是本发明实施例中Bottleneck_DBB的结构图;
图6是本发明实施例中C2f_DBB模块示意图;
图7是本发明实施例中SimAM注意力机制模块示意图;
图8是本发明实施例的原始YOLOv8算法检测效果图;
图9是本发明算法的检测效果图。
具体实施方式
下面结合实施例对本发明做进一步的描述,有必要在此指出的是以下实施例只是用于对本发明进行进一步的说明,不能理解为对本发明保护范围的限制,该领域的技术熟练人员根据上述发明内容所做出的一些非本质的改进和调整,仍属于本发明保护范围。
本发明提出了一种融合BiFPN的轻量化火焰检测方法,具体步骤如下:
步骤1:采集数据制作数据集,通过网络采集不同的火焰图像数据,再对获得的图像数据进行标注,制作数据集。
步骤1.1:通过网络爬虫技术爬取不同的火焰图像数据。
步骤1.2:对获取的图像数据进行数据清洗。
步骤1.3:用数据标注工具Labelimg对火焰图像进行标注,用矩形框标注图像中火焰的位置,标注成YOLO格式,得到火焰图像数据集。
步骤1.4:将标注好的火焰图像数据集按照8:1:1的比例划分成训练集、验证集和测试集。
步骤2:使用DCRS模块替换YOLOv8主干网络中的部分标准卷积。
步骤2.1首先将AvgPool、Conv、Softmax进行串联。
步骤2.2加入DWConv作为跳跃连接。
步骤2.3最后通过加权运算进行求和输出感受野特征注意力特征图。
整个过程表示如下:
F=Softmax(d1×1(AvgPool(X)))×ReLu(Norm(dk×k(X)))=Arf×Frf
其中:d表示深度可分离卷积,k表示卷积核的大小,Norm代表规范化,X表示输入特征图,F是通过注意力图Arf与变换的感受野空间特征Frf相乘而获得的。
步骤3:使用DBB替换Bottleneck结构中的Conv,构成Bottleneck_DBB结构,将其嵌入C2f模块中构成C2f_DBB模块,并将主干网络中的C2f模块替换为C2f_DBB模块,以重构主干网络。
步骤3.1使用DBB替换Bottleneck结构中的Conv替换为DBB,构成Bottleneck_DBB结构。
步骤3.2将Bottleneck_DBB嵌入C2f模块,构成C2f_DBB模块。
步骤3.3将C2f_DBB模块替换主干网络中的C2f模块,对主干网络进行重构。
步骤4:在主干特征提取网络输出的三个特征层之后加入轻量化注意力机制SimAM。其计算过程如下:
其中:Y表示火焰增强后的特征图,表示为每个通道上的能量函数,能量函数值越低则表明目标火焰神经元与相邻的神经元的区分度越高,为了/>避免过大的情况,采用Sigmoid函数来抑制其值,/>表示点积运算,X表示输入火焰的特征图,σ2表示输入火焰特征图中每个通道的方差,λ表示超参数,t表示火焰目标的神经元,μ表示输入火焰特征图中每个通道上的平均值,xi表示第i(i=1,2,3...,Q,Q为通道数量)个通道中输入特征的其他神经元。
步骤5:颈部网络中采用更高效简单的多尺度特征融合BiFPN,具体如下:
步骤5.1:运用BiFPN对主干特征提取网络输出的不同分辨率的火焰特征进行第一次融合:先从低往高、再从高往低依次进行上采样和融合,并将输入与输出级联,进而融合不同卷积层的火焰特征;
步骤5.2:将步骤5.1中BiFPN第一次融合后的三个不同分辨率的特征图进行递归操作,即返回到原有的主干网络;
步骤5.3:运用BiFPN将步骤5.2返回的三个不同分辨率的火焰特征图与相应分辨率的主干网络得到火焰特征图二次融合,再次得到三个不同分辨率的火焰特征图,然后在头部网络进行检测。
步骤6:使用MPDIoU边界损失函数替换原损失函数;
具体定义为:
其中:表示预测边界框的坐标,/>表示真实标注边界框的坐标,x1,y1表示框的左上角坐标,x2,y2表示框的右下角坐标,/>为预测边界框与真实标注边界框之间的左上角和右下角的距离,w,h为图片的宽度和高度。
步骤7:对改进后的YOLOv8网络进行网络模型训练,得到训练好的YOLOv8网络模型。
步骤7.1具体设置为迭代100次,初始学习率设置为0.01,最小学习率设置为0.001,bitch_size设置为8,使用AdamW优化器,且权值衰减设置为0.0005。
步骤7.2经训练得到最优权重,利用最优权重对测试集进行测试,得到测试结果。
本发明实施例使用平均精度(mean Average Precision,mAP)、参数量(Params)、计算量(GFLOPs)和帧速率(Frames Per Second,FPS)作为评价指标。实验结果如表1所示,从表中可以看出改进后的火焰检测算法,相比YOLOv8算法平均精度提升了0.8%,模型参数量下降了43.3%,模型计算量下降了14.8%,改进后的火焰检测模型能够保证轻量化的同时满足实时性要求。
表1
mAP | Params | GFLOPs | FPS | |
YOLOv8 | 82.3% | 3.0M | 8.1 | 108 |
本发明模型 | 83.1% | 1.7M | 6.9 | 92 |
相关词汇或变量说明:
以上所述仅表达了本发明的优选实施方式,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的内容加以更改或改型为等同变化的等效实施例。但是,凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (6)
1.一种融合BiFPN的轻量化火焰检测方法,其特征在于,具体步骤如下:
步骤1:采集数据制作数据集,通过网络采集不同的火焰图像数据,再对获得的图像数据进行标注,制作数据集;
步骤2:使用DCRS模块替换YOLOv8主干网络中的部分标准卷积;
步骤3:使用DBB替换YOLOv8主干网络中Bottleneck结构中的Conv,构成Bottleneck_DBB结构,将其嵌入C2f模块中构成C2f_DBB模块,并将主干网络中的C2f模块替换为C2f_DBB模块,以重构主干网络;
步骤4:在主干特征提取网络输出的三个特征层之后加入轻量化注意力机制SimAM;
步骤5:颈部网络中采用多尺度特征融合BiFPN;
步骤6:使用MPDIoU边界损失函数替换原损失函数;
步骤7:对改进后的YOLOv8网络进行网络模型训练,得到训练好的YOLOv8网络模型,对待检测图像数据进行火焰检测。
2.根据权利要求1所述的一种融合BiFPN的轻量化火焰检测方法,其特征在于,所述步骤1具体步骤如下:
步骤1.1:通过网络爬虫技术爬取不同的火焰图像数据;
步骤1.2:对获取的图像数据进行数据清洗;
步骤1.3:用数据标注工具Labelimg对火焰图像进行标注,用矩形框标注图像中火焰的位置,标注成YOLO格式,得到火焰图像数据集;
步骤1.4:将标注好的火焰图像数据集按照8:1:1的比例划分成训练集、验证集和测试集。
3.根据权利要求1所述的一种融合BiFPN的轻量化火焰检测方法,其特征在于,所述步骤2中DCRS模块由AvgPool、Conv、Softmax组合而成,并在DCRS模块中加入DWConv作为跳跃连接,通过加权运算进行求和输出感受野特征注意力特征图,整个过程表示如下:
F=Softmax(d1×1(AvgPool(X)))×ReLu(Norm(dk×k(X)))=Arf×Frf
其中:d表示深度可分离卷积,k表示卷积核的大小,Norm代表规范化,X表示输入特征图,F是通过注意力图Arf与变换的感受野空间特征Frf相乘而获得的。
4.根据权利要求1所述的一种融合BiFPN的轻量化火焰检测方法,其特征在于,所述步骤5包括如下子步骤:
步骤5.1:运用BiFPN对主干特征提取网络输出的不同分辨率的火焰特征进行第一次融合:先从低往高、再从高往低依次进行上采样和融合,并将输入与输出级联,进而融合不同卷积层的火焰特征;
步骤5.2:将步骤5.1中BiFPN第一次融合后的三个不同分辨率的特征图进行递归操作,即返回到原有的主干网络;
步骤5.3:运用BiFPN将步骤5.2返回的三个不同分辨率的火焰特征图与相应分辨率的主干网络得到火焰特征图二次融合,再次得到三个不同分辨率的火焰特征图,然后在头部网络进行检测。
5.根据权利要求1所述的一种融合BiFPN的轻量化火焰检测方法,其特征在于,所述步骤6中使用MPDIoU边界损失函数替换原损失函数,具体定义为:
其中:表示预测边界框的坐标,/>表示真实标注边界框的坐标,x1,y1表示框的左上角坐标,x2,y2表示框的右下角坐标,/>为预测边界框与真实标注边界框之间的左上角和右下角的距离,w,h为图片的宽度和高度。
6.根据权利要求1所述的一种融合BiFPN的轻量化火焰检测方法,其特征在于,所述步骤7的网络模型训练中,迭代100次,初始学习率设置为0.01,最小学习率设置为0.001,bitch_size设置为8,使用AdamW优化器,且权值衰减设置为0.0005。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311436982.4A CN117409358A (zh) | 2023-10-31 | 2023-10-31 | 一种融合BiFPN的轻量化火焰检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311436982.4A CN117409358A (zh) | 2023-10-31 | 2023-10-31 | 一种融合BiFPN的轻量化火焰检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117409358A true CN117409358A (zh) | 2024-01-16 |
Family
ID=89486867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311436982.4A Pending CN117409358A (zh) | 2023-10-31 | 2023-10-31 | 一种融合BiFPN的轻量化火焰检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117409358A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118071751A (zh) * | 2024-04-22 | 2024-05-24 | 成都中科卓尔智能科技集团有限公司 | 一种基于YOLOv8的缺陷检测方法 |
-
2023
- 2023-10-31 CN CN202311436982.4A patent/CN117409358A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118071751A (zh) * | 2024-04-22 | 2024-05-24 | 成都中科卓尔智能科技集团有限公司 | 一种基于YOLOv8的缺陷检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188705B (zh) | 一种适用于车载系统的远距离交通标志检测识别方法 | |
CN110929578B (zh) | 一种基于注意力机制的抗遮挡行人检测方法 | |
WO2021139069A1 (zh) | 自适应注意力指导机制的一般性目标检测方法 | |
CN110428428B (zh) | 一种图像语义分割方法、电子设备和可读存储介质 | |
CN110930454B (zh) | 一种基于边界框外关键点定位的六自由度位姿估计算法 | |
CN111950649B (zh) | 基于注意力机制与胶囊网络的低照度图像分类方法 | |
CN111858989B (zh) | 一种基于注意力机制的脉冲卷积神经网络的图像分类方法 | |
CN111753828B (zh) | 一种基于深度卷积神经网络的自然场景水平文字检测方法 | |
CN110889449A (zh) | 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法 | |
CN109800817B (zh) | 基于融合语义神经网络的图像分类方法 | |
CN106682569A (zh) | 一种基于卷积神经网络的快速交通标识牌识别方法 | |
CN111310773A (zh) | 一种高效的卷积神经网络的车牌定位方法 | |
CN112464911A (zh) | 基于改进YOLOv3-tiny的交通标志检测与识别方法 | |
CN114187450A (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
CN112950780B (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN111563507A (zh) | 一种基于卷积神经网络的室内场景语义分割方法 | |
CN112132145B (zh) | 一种基于模型扩展卷积神经网络的图像分类方法及系统 | |
CN117409358A (zh) | 一种融合BiFPN的轻量化火焰检测方法 | |
CN111738054A (zh) | 一种基于时空自编码器网络和时空cnn的行为异常检测方法 | |
CN114445715A (zh) | 一种基于卷积神经网络的农作物病害识别方法 | |
CN111507359A (zh) | 一种图像特征金字塔的自适应加权融合方法 | |
CN115346071A (zh) | 高置信局部特征与全局特征学习的图片分类方法及系统 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN113963272A (zh) | 一种基于改进yolov3的无人机图像目标检测方法 | |
CN112613354A (zh) | 一种基于稀疏降噪自编码器的异质遥感图像变化检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |