CN116310718A - 一种基于YOLOv5模型的害虫目标检测方法、系统及设备 - Google Patents
一种基于YOLOv5模型的害虫目标检测方法、系统及设备 Download PDFInfo
- Publication number
- CN116310718A CN116310718A CN202310183682.3A CN202310183682A CN116310718A CN 116310718 A CN116310718 A CN 116310718A CN 202310183682 A CN202310183682 A CN 202310183682A CN 116310718 A CN116310718 A CN 116310718A
- Authority
- CN
- China
- Prior art keywords
- target detection
- model
- pest target
- pest
- yolov5
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000607479 Yersinia pestis Species 0.000 title claims abstract description 105
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 125
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000012360 testing method Methods 0.000 claims abstract description 16
- 238000012795 verification Methods 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 12
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 241000238631 Hexapoda Species 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000007499 fusion processing Methods 0.000 claims description 2
- 230000004807 localization Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 9
- 241001309417 Dendrolimus sibiricus Species 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000254173 Coleoptera Species 0.000 description 1
- 241000218652 Larix Species 0.000 description 1
- 235000005590 Larix decidua Nutrition 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Catching Or Destruction (AREA)
Abstract
本发明涉及目标检测领域,公开了一种基于YOLOv5模型的害虫目标检测方法、系统及设备,所述方法包括:获取目标数据集;并将所述目标数据集划分为训练集、验证集和测试集;以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型;分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型;将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。本发明通过对YOLOv5模型进行改进,构建出能够适用于对于害虫等小目标进行检测的害虫目标检测模型,利用所述害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。
Description
技术领域
本发明涉及目标检测领域,更具体地,涉及一种基于YOLOv5模型的害虫目标检测方法、系统及设备。
背景技术
林业的稳定对我国的发展至关重要,害虫实时检测技术是实现农业现代化的关键。随着图像处理技术和模式识别的迅速发展,基于机器学习的害虫检测算法提升了检测精度。
现有一种基于YOLOv5的虫害检测识别方法,其通过获取多张包括落叶松毛虫虫害树木的落叶松遥感图像,对图像中的落叶松毛虫虫害树木进行标定,利用标定后的遥感图像构建训练数据集;对训练数据集进行扩增;利用扩增后的训练数据集对YOLOv5模型进行训练和优化,得到优化后的YOLOv5模型;将待识别遥感图像输入优化后的YOLOv5模型中,识别出待识别遥感图像中落叶松毛虫虫害树木的边界框,完成识别。
然而,上述方法采用传统结构的YOLOv5模型,基于锚框进行虫害检测识别,在对害虫等小目标进行检测时,会存在漏检或错检的情况,检测精度低。
发明内容
本发明为克服现有技术存在的检测精度低的缺陷,提供一种基于改进神经网络的水稻生育期识别方法、系统及设备。
为解决上述技术问题,本发明的技术方案如下:
第一个方面,本发明提出一种基于YOLOv5模型的害虫目标检测方法,包括:
获取目标数据集;并将所述目标数据集划分为训练集、验证集和测试集;
以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型;
分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型;
将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
第二个方面,本发明还提出一种基于YOLOv5模型的害虫目标检测系统,应用于如第一个方面所述的基于YOLOv5模型的害虫目标检测方法,包括:
获取模块,获取目标数据集。并将所述目标数据集划分为训练集、验证集和测试集。
构建模块,用于以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型。
训练模块,用于分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型。
检测模块,用于将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
第三个方面,本发明还提出一种计算设备,所述计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如第一个方面所述的基于YOLOv5模型的害虫目标检测方法所执行的操作。
与现有技术相比,本发明技术方案的有益效果是:本发明通过对YOLOv5模型进行改进,构建出能够适用于对于害虫等小目标进行检测的害虫目标检测模型,利用所述害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。
附图说明
图1为本申请实施例中基于YOLOv5模型的害虫目标检测方法的流程图。
图2(a)为本申请实施例中进行数据增强前的数据图像Ⅰ。
图2(b)为本申请实施例中进行数据增强后的数据图像Ⅰ。
图2(c)为本申请实施例中为进行数据增强前的数据图像Ⅱ。
图2(d)为本申请实施例中为进行数据增强后的数据图像Ⅱ。
图3为本申请实施例中害虫目标检测模型的结构示意图。
图4为本申请实施例中BoTR的结构示意图。
图5为本申请实施例中M-BiFPN结构的结构示意图。
图6为本申请实施例中改进后的注意力机制D-CBAM的结构示意图。
图7为本申请实施例中不同模型在测试集上的每个目标的AP值曲线图。
图8为本申请实施例中改进后的害虫目标检测模型相比传统YOLOv5和其他经典的目标检测器的效果对比图。
图9为本申请实施例中基于YOLOv5模型的害虫目标检测系统的架构图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
下面结合附图和实施例对本发明的技术方案做进一步的说明。
传统的YOLOv5模型包括backbone主干提取网络、head检测网络以及将图像特征进行聚合,并将图像特征传递到head检测网络的Neck网络,其在主干特征提取模块使用了Focus和CSP结构,在特征融合模块采用的是FPN+PAN组成PANet结构,加强网络特征融合的能力。YOLOv5有YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x四种网络结构,四种网络结构中每个CSP结构的深度以及在不同阶段的卷积核的个数都依次增大,参数量也逐渐增大。YOLOv5s在检测头会生成三个特征图,每个特征图上的各个像素点都会预测3个边界框,当数据集含有个目标类别时,特征图中每个像素点将预测3×(5+k)个值,其中5表示每个边界框的位置坐标和该框内存在目标的置信度。
PANet结构是在FPN的基础上加入自底向上的二次融合。PANet结构将深层特征图适合分类的强语义信息和浅层特征图适合定位的高分辨率特征通过相加的方式进行双向融合,比FPN结构在特征融合上表现更高效。但是,不同的输入特征在不同的分辨率下,它们对输出特征的贡献是不相等的。
CBAM(Convolution Block Attention Module)模块是在通道注意力SE(Squeeze-Excitation)的基础上进行改进,并在实验中被证明是一种简单有效、即插即用的混合注意力机制。CBAM分别沿着特征图的通道和空间两个独立维度依次推断出注意力映射,然后将注意力映射与输入特征映射相乘,对输入的特征图执行自适应特征细化。在卷积操作中感受野大小决定了空间注意力的性能,大的卷积核能聚合更丰富的上下文信息,提升空间注意力的特征表达能力。
实施例一
请参阅图1,本实施例提出一种基于YOLOv5模型的害虫目标检测方法,包括:
获取目标数据集。并将所述目标数据集划分为训练集、验证集和测试集。
以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型。
分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型。
将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
本申请实施例所提出的基于YOLOv5模型的害虫目标检测方法,通过对YOLOv5模型进行改进,构建出能够适用于对于害虫等小目标进行检测的害虫目标检测模型,利用所述害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。
实施例二
本实施例在实施例一提出的基于YOLOv5模型的害虫目标检测方法的基础上作出改进。
本实施例中,所获取的数据集为百度与北京林业大学合作开发的林业病虫害防治项目中使用到的昆虫数据集,该数据集提供了2183张图像,其中训练集1693张,验证集245张,测试集245张,且每张图像都有对应的XML标注文件。本数据集包含7种昆虫类别,分别是Boerner、Leconte、Linnaeus、acuminatus、armandi、coleoptera和linnaeus。
本实施例中,将所述待检测数据集的图像输入所述害虫目标检测模型进行目标检测之前,对待检测数据集进行数据增强,具体包括:
将待检测数据集中类别数量最少的三类昆虫进行裁剪。
将裁剪得到的昆虫图像进行随机翻折和旋转操作。
将经过随机翻折和旋转操作昆虫图像粘贴至原待检测数据集中,并且每次粘贴操作要保证粘贴的目标与图像上现有的目标不能重叠,使各个样本在数量上保持均衡,同时增加小目标位置的多样性,得到新的待检测数据集。如图2所示,其为待检测数据集进行增强前后的样本位置分布图,其中,图2(a)为进行数据增强前的数据图像Ⅰ,图2(b)为进行数据增强后的数据图像Ⅰ,图2(c)为进行数据增强前的数据图像Ⅱ,图2(d)为进行数据增强后的数据图像Ⅱ。
由于数据集中标签文件(.xml)存储的是单张图像中目标的类别名称以及标签框所在的坐标位置,且YOLOv5模型统一了不同数据集训练时的标签文件格式,因此本实施例中通过编写脚本文件将xml文件格式转换成训练时要读取的txt文件格式。
本实施例中,通过修改.yaml配置文件,指定包含要训练的数据集中样本类别数、初始锚框的尺寸大小以及参与训练的模型的结构层次。
本实施例中,以YOLOv5模型作为基础模型,构建害虫目标检测模型,如图3所示,其为害虫目标检测模型的结构示意图,害虫目标检测模型具体被设置为:
(1)将所述YOLOv5模型的Backbone网络中最后一层的CSP Bottleneck结构替换为卷积神经网络和Transformer网络结合的BoTR模块,如图4所示,其为BoTR的结构示意图,所述BoTR包括并行的第一提取分支和第二提取分支;所述第一提取分支为卷积神经网络,所述第二提取分支包括依次连接的卷积神经网络和Transformer网络;输入所述BoTR的特征图分别经过第一提取分支和第二提取分支进行特征提取;将第一提取分支和第二提取分支分别输出的特征图进行拼接处理,得到拼接特征图,并将所述拼接特征图传输至Neck部分。
在具体实施过程中,通过将YOLOv5模型的Backbone网络中最后一层的CSPBottleneck结构替换为BoTR模块,将卷积神经网络优秀的局部特征能力和Transformer网络高校的捕获全局信息和上下文信息能力相结合,构建出害虫目标检测模型,并利用害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。
(2)在Neck部分,将原有的PANet结构替换为M-BiFPN结构,M-BiFPN结构的结构示意图如图5所示,P2~P5分别是Backbone的四层输出特征图。所述M-BiFPN结构包括并行的第一融合分支、第二融合分支、第三融合分支和第四融合分支;所述第一融合分支、第二融合分支、第三融合分支和第四融合分支均包括若干个依次连接的特征融合模块;所述特征融合模块包括依次连接的快速归一化融合模块FNF和C3结构;所述C3结构包括依次连接的3个标准卷积层和若干个堆叠的Bottleneck层。
在具体实施过程中,将FPN结构的5层输出特征图改为4层,这不仅能有效减少参数量,还能提升模型的检测精度。此外,在每个快速归一化融合模块FNF后面添加一个C3结构,C3和BottleneckCSP在性能上相似,但C3比BottleneckCSP结构更轻,推理更快,在融合特征上表现更出色。
所述快速归一化融合模块FNF对输入的特征图进行快速归一化特征融合处理,其表达式如下所示:
其中,O快速归一化融合模块FNF输出的融合特征图,wi为第i个特征图的特征权重,wj为第j个特征图的特征权重;∈为常数,其取值为0.0001;Ii为第i个输入特征图。特征权重wi≥0,在分母添加一个较小值∈=0.0001可以避免数值不稳定等因素。
另外,在每个C3结构的输出端引入CBAM模块,并将CBAM模块中的空间注意力模块中的7×7标准卷积层替换为两个依次连接的7×7空洞卷积层,这样不仅可以减少模型参数量,还能有效对空间特征进行聚合,改进后的注意力机制称为D-CBAM,其结构如图6所示。
本实施例中,害虫目标检测模型的目标函数的表达式如下所示:
在具体实施过程中,实验所使用的硬件环境为E5-2698v4CPU,系统内存为256GB,GPU为Tesla V100,显存为32G。所使用的深度学习框架为PyTorch1.8,CUDA10.2,GPU加速库Cudnn7.6.5。使用YOLOv5s的预训练权重来初始化网络结构,模型输入图像尺寸为640×640,batch-size设为32,优化器使用Adam,动量为0.843,权重衰减为0.00036。激活函数上统一使用SiLU非线性激活函数,该函数具有无上界有下界、平滑和非单调的特性,在较深的网络中相比ReLU激活函数更有优势。采用Label Smoothing正则方式,参数为0.1。回归损失函数使用CIoU Loss,模型总共训练300个epoch,模型训练一轮后会进行一轮验证,最终会取在验证集上精度最高的权重文件用于测试。
本实施例中,采用mAP(mean Average Precision)作为评价指标,计算AP值(IoU阈值从0.5到0.95,每隔0.05取一次,最后求这10个阈值下得到的AP的均值)和AP50值(IoU阈值设为0.5时,在此阈值下所求的AP值)。
P-R曲线是以准确率Precision和召回率Recall为两个变量,在不同IoU阈值下绘制的;AP表示单类目标的平均精度,其取值为P-R曲线下覆盖的面积,具体公式如下:
其中,TP(True Positive)表示准确预测害虫的数量;FP(False Positive)表示实际为背景,但预测为害虫的数量;FN(False Negative)表示实际为背景,但实际为苹果,但预测为背景的数量。
实验结果如图7和图8所示,改进后的害虫目标检测模型相比原YOLOv5和其他经典的目标检测器,在测试集上mAP、单一样本的AP值、检测准确率Precision和召回率Recall都有明显提升,改进后的模型相比原YOLOv5减少了误检和漏检的情况。
实施例三
参阅图9,本实施例提出一种基于YOLOv5模型的害虫目标检测系统,应用于上述实施例所述的基于YOLOv5模型的害虫目标检测方法,包括:
获取模块,用于获取待检测数据集。
构建模块,用于以YOLOv5模型作为基础模型,将所述YOLOv5模型的Backbone网络中最后一层的CSP Bottleneck结构替换为卷积神经网络和Transformer网络结合的BoTR模块。
检测模块,用于将所述待检测数据集的图像输入所述害虫目标检测模型进行目标检测,输出害虫目标检测结果。
本申请实施例所提出的基于YOLOv5模型的害虫目标检测系统,通过将YOLOv5模型的Backbone网络中最后一层的CSP Bottleneck结构替换为BoTR模块,将卷积神经网络优秀的局部特征能力和Transformer网络高校的捕获全局信息和上下文信息能力相结合,构建出害虫目标检测模型。利用害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种基于YOLOv5模型的害虫目标检测方法,其特征在于,包括:
获取目标数据集;并将所述目标数据集划分为训练集、验证集和测试集;
以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型;
分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型;
将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
2.根据权利要求1所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,对所述YOLOv5模型进行改进,具体包括:
将所述YOLOv5模型的Backbone网络中最后一层的CSP Bottleneck结构替换为卷积神经网络和Transformer网络结合的BoTR模块;
所述BoTR模块包括并行的第一提取分支和第二提取分支;
所述第一提取分支为卷积神经网络,所述第二提取分支包括由依次连接的卷积神经网络和Transformer组成的Encoder结构;
输入所述BoTR模块的特征图分别经过第一提取分支和第二提取分支进行特征提取;
将第一提取分支和第二提取分支分别输出的特征图进行拼接处理,得到拼接特征图,并将所述拼接特征图传输至Neck网络。
3.根据权利要求1所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,对所述YOLOv5模型进行改进,具体包括:
在Neck网络中,将原有的PANet结构替换为M-BiFPN结构;所述M-BiFPN结构包括并行的第一融合分支、第二融合分支、第三融合分支和第四融合分支;
所述第一融合分支、第二融合分支、第三融合分支和第四融合分支均包括若干个依次连接的特征融合模块;
所述特征融合模块包括依次连接的快速归一化融合模块FNF和C3结构;所述C3结构包括依次连接的3个标准卷积层和若干个堆叠的Bottleneck层。
5.根据权利要求3所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,对所述YOLOv5模型进行改进,具体包括:
在每个C3结构的输出端引入CBAM模块,并将CBAM模块中的空间注意力模块中的7×7标准卷积层替换为两个依次连接的7×7空洞卷积层。
6.根据权利要求1所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,将所述待检测数据集的图像输入所述害虫目标检测模型进行目标检测之前,所述方法还包括对待检测数据集进行数据增强,具体包括:
将待检测数据集中类别数量最少的三类昆虫进行裁剪;
将裁剪得到的昆虫图像进行随机翻折和旋转操作;
将经过随机翻折和旋转操作昆虫图像粘贴至原待检测数据集中,得到新的待检测数据集。
7.根据权利要求6所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,在对待检测数据集进行数据增强之后,将待检测数据集的图像输入害虫目标检测模型进行目标检测之前,所述方法还包括:
将待检测数据集中.xml格式的标签文件转换为.txt格式的标签文件。
8.根据权利要求1所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,所述害虫检测模型的损失函数的表达式如下所示:
Loss=αLcls+βLobj+γLloc
其中,Lcls表示分类损失,Lobj表示置信度损失,Lloc表示定位损失,α、β和γ分别是各部分损失对应的平衡系数。
9.一种基于YOLOv5模型的害虫目标检测系统,应用于如权利要求1~8任一项所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,包括:
获取模块,获取目标数据集;并将所述目标数据集划分为训练集、验证集和测试集;
构建模块,用于以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型;
训练模块,用于分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型;
检测模块,用于将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
10.一种计算设备,其特征在于,所述计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如权利要求1至8中任一项所述的基于YOLOv5模型的害虫目标检测方法所执行的操作。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310078146 | 2023-02-03 | ||
CN2023100781467 | 2023-02-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116310718A true CN116310718A (zh) | 2023-06-23 |
Family
ID=86797151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310183682.3A Pending CN116310718A (zh) | 2023-02-03 | 2023-02-27 | 一种基于YOLOv5模型的害虫目标检测方法、系统及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116310718A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116721060A (zh) * | 2023-08-08 | 2023-09-08 | 中国热带农业科学院椰子研究所 | 一种基于注意力机制的红棕象甲虫检测方法 |
CN116994116A (zh) * | 2023-08-04 | 2023-11-03 | 北京泰策科技有限公司 | 基于自注意力模型与yolov5的目标检测方法及系统 |
CN117237286A (zh) * | 2023-09-02 | 2023-12-15 | 国网山东省电力公司淄博供电公司 | 一种气体绝缘开关设备内部缺陷检测方法 |
CN117649610A (zh) * | 2024-01-30 | 2024-03-05 | 江西农业大学 | 一种基于YOLOv5的害虫检测方法及系统 |
CN119169532A (zh) * | 2024-09-30 | 2024-12-20 | 中网动力(北京)科技发展有限公司 | 一种森林害虫监测方法、设备、介质和产品 |
-
2023
- 2023-02-27 CN CN202310183682.3A patent/CN116310718A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116994116A (zh) * | 2023-08-04 | 2023-11-03 | 北京泰策科技有限公司 | 基于自注意力模型与yolov5的目标检测方法及系统 |
CN116994116B (zh) * | 2023-08-04 | 2024-04-16 | 北京泰策科技有限公司 | 基于自注意力模型与yolov5的目标检测方法及系统 |
CN116721060A (zh) * | 2023-08-08 | 2023-09-08 | 中国热带农业科学院椰子研究所 | 一种基于注意力机制的红棕象甲虫检测方法 |
CN117237286A (zh) * | 2023-09-02 | 2023-12-15 | 国网山东省电力公司淄博供电公司 | 一种气体绝缘开关设备内部缺陷检测方法 |
CN117237286B (zh) * | 2023-09-02 | 2024-05-17 | 国网山东省电力公司淄博供电公司 | 一种气体绝缘开关设备内部缺陷检测方法 |
CN117649610A (zh) * | 2024-01-30 | 2024-03-05 | 江西农业大学 | 一种基于YOLOv5的害虫检测方法及系统 |
CN117649610B (zh) * | 2024-01-30 | 2024-05-28 | 江西农业大学 | 一种基于YOLOv5的害虫检测方法及系统 |
CN119169532A (zh) * | 2024-09-30 | 2024-12-20 | 中网动力(北京)科技发展有限公司 | 一种森林害虫监测方法、设备、介质和产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116310718A (zh) | 一种基于YOLOv5模型的害虫目标检测方法、系统及设备 | |
CN110472627B (zh) | 一种端到端的sar图像识别方法、装置及存储介质 | |
CN110766041B (zh) | 一种基于深度学习的害虫检测方法 | |
CN112673381B (zh) | 一种对抗样本的识别方法及相关装置 | |
CN110770752A (zh) | 多尺度特征融合网络结合定位模型的害虫自动计数方法 | |
CN115829991A (zh) | 一种基于改进YOLOv5s的钢材表面缺陷检测方法 | |
CN116206185A (zh) | 一种基于改进YOLOv7的轻量级小目标检测方法 | |
CN110781962B (zh) | 基于轻量级卷积神经网络的目标检测方法 | |
CN103793926B (zh) | 基于样本重选择的目标跟踪方法 | |
WO2023273572A1 (zh) | 一种特征提取模型构建方法、目标检测方法及其设备 | |
CN110555841A (zh) | 基于自注意图像融合和dec的sar图像变化检测方法 | |
CN115292532B (zh) | 基于伪标签一致性学习的遥感图像域适应检索方法 | |
CN115019103A (zh) | 基于坐标注意力群组优化的小样本目标检测方法 | |
CN114998220A (zh) | 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法 | |
CN108133235A (zh) | 一种基于神经网络多尺度特征图的行人检测方法 | |
CN114612658B (zh) | 基于双重类别级对抗网络的图像语义分割方法 | |
WO2024032010A1 (zh) | 一种基于迁移学习策略的少样本目标实时检测方法 | |
CN109977253B (zh) | 一种基于语义和内容的快速图像检索方法及装置 | |
CN113343989B (zh) | 一种基于前景选择域自适应的目标检测方法及系统 | |
CN111340051A (zh) | 图片处理方法、装置及存储介质 | |
CN117475299A (zh) | 一种基于YOLOv8的玉米叶片虫害区域检测方法 | |
CN117422996A (zh) | 一种基于ResUNet的遥感图像建筑检测方法及系统 | |
CN117314837A (zh) | 一种基于改进detr铸件表面缺陷检测方法及系统 | |
CN115082781A (zh) | 一种舰船图像检测方法、装置以及存储介质 | |
CN118038115A (zh) | 基于改进YOLOv5的智慧牧场动物精确检测和识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |