CN116310718A - 一种基于YOLOv5模型的害虫目标检测方法、系统及设备 - Google Patents

一种基于YOLOv5模型的害虫目标检测方法、系统及设备 Download PDF

Info

Publication number
CN116310718A
CN116310718A CN202310183682.3A CN202310183682A CN116310718A CN 116310718 A CN116310718 A CN 116310718A CN 202310183682 A CN202310183682 A CN 202310183682A CN 116310718 A CN116310718 A CN 116310718A
Authority
CN
China
Prior art keywords
target detection
model
pest target
pest
yolov5
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310183682.3A
Other languages
English (en)
Inventor
余济鹏
谭台哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heyuan Bay District Digital Economy And Technology Innovation Center
Guangdong University of Technology
Original Assignee
Heyuan Bay District Digital Economy And Technology Innovation Center
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heyuan Bay District Digital Economy And Technology Innovation Center, Guangdong University of Technology filed Critical Heyuan Bay District Digital Economy And Technology Innovation Center
Publication of CN116310718A publication Critical patent/CN116310718A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Catching Or Destruction (AREA)

Abstract

本发明涉及目标检测领域,公开了一种基于YOLOv5模型的害虫目标检测方法、系统及设备,所述方法包括:获取目标数据集;并将所述目标数据集划分为训练集、验证集和测试集;以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型;分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型;将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。本发明通过对YOLOv5模型进行改进,构建出能够适用于对于害虫等小目标进行检测的害虫目标检测模型,利用所述害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。

Description

一种基于YOLOv5模型的害虫目标检测方法、系统及设备
技术领域
本发明涉及目标检测领域,更具体地,涉及一种基于YOLOv5模型的害虫目标检测方法、系统及设备。
背景技术
林业的稳定对我国的发展至关重要,害虫实时检测技术是实现农业现代化的关键。随着图像处理技术和模式识别的迅速发展,基于机器学习的害虫检测算法提升了检测精度。
现有一种基于YOLOv5的虫害检测识别方法,其通过获取多张包括落叶松毛虫虫害树木的落叶松遥感图像,对图像中的落叶松毛虫虫害树木进行标定,利用标定后的遥感图像构建训练数据集;对训练数据集进行扩增;利用扩增后的训练数据集对YOLOv5模型进行训练和优化,得到优化后的YOLOv5模型;将待识别遥感图像输入优化后的YOLOv5模型中,识别出待识别遥感图像中落叶松毛虫虫害树木的边界框,完成识别。
然而,上述方法采用传统结构的YOLOv5模型,基于锚框进行虫害检测识别,在对害虫等小目标进行检测时,会存在漏检或错检的情况,检测精度低。
发明内容
本发明为克服现有技术存在的检测精度低的缺陷,提供一种基于改进神经网络的水稻生育期识别方法、系统及设备。
为解决上述技术问题,本发明的技术方案如下:
第一个方面,本发明提出一种基于YOLOv5模型的害虫目标检测方法,包括:
获取目标数据集;并将所述目标数据集划分为训练集、验证集和测试集;
以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型;
分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型;
将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
第二个方面,本发明还提出一种基于YOLOv5模型的害虫目标检测系统,应用于如第一个方面所述的基于YOLOv5模型的害虫目标检测方法,包括:
获取模块,获取目标数据集。并将所述目标数据集划分为训练集、验证集和测试集。
构建模块,用于以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型。
训练模块,用于分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型。
检测模块,用于将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
第三个方面,本发明还提出一种计算设备,所述计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如第一个方面所述的基于YOLOv5模型的害虫目标检测方法所执行的操作。
与现有技术相比,本发明技术方案的有益效果是:本发明通过对YOLOv5模型进行改进,构建出能够适用于对于害虫等小目标进行检测的害虫目标检测模型,利用所述害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。
附图说明
图1为本申请实施例中基于YOLOv5模型的害虫目标检测方法的流程图。
图2(a)为本申请实施例中进行数据增强前的数据图像Ⅰ。
图2(b)为本申请实施例中进行数据增强后的数据图像Ⅰ。
图2(c)为本申请实施例中为进行数据增强前的数据图像Ⅱ。
图2(d)为本申请实施例中为进行数据增强后的数据图像Ⅱ。
图3为本申请实施例中害虫目标检测模型的结构示意图。
图4为本申请实施例中BoTR的结构示意图。
图5为本申请实施例中M-BiFPN结构的结构示意图。
图6为本申请实施例中改进后的注意力机制D-CBAM的结构示意图。
图7为本申请实施例中不同模型在测试集上的每个目标的AP值曲线图。
图8为本申请实施例中改进后的害虫目标检测模型相比传统YOLOv5和其他经典的目标检测器的效果对比图。
图9为本申请实施例中基于YOLOv5模型的害虫目标检测系统的架构图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
下面结合附图和实施例对本发明的技术方案做进一步的说明。
传统的YOLOv5模型包括backbone主干提取网络、head检测网络以及将图像特征进行聚合,并将图像特征传递到head检测网络的Neck网络,其在主干特征提取模块使用了Focus和CSP结构,在特征融合模块采用的是FPN+PAN组成PANet结构,加强网络特征融合的能力。YOLOv5有YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x四种网络结构,四种网络结构中每个CSP结构的深度以及在不同阶段的卷积核的个数都依次增大,参数量也逐渐增大。YOLOv5s在检测头会生成三个特征图,每个特征图上的各个像素点都会预测3个边界框,当数据集含有个目标类别时,特征图中每个像素点将预测3×(5+k)个值,其中5表示每个边界框的位置坐标和该框内存在目标的置信度。
PANet结构是在FPN的基础上加入自底向上的二次融合。PANet结构将深层特征图适合分类的强语义信息和浅层特征图适合定位的高分辨率特征通过相加的方式进行双向融合,比FPN结构在特征融合上表现更高效。但是,不同的输入特征在不同的分辨率下,它们对输出特征的贡献是不相等的。
CBAM(Convolution Block Attention Module)模块是在通道注意力SE(Squeeze-Excitation)的基础上进行改进,并在实验中被证明是一种简单有效、即插即用的混合注意力机制。CBAM分别沿着特征图的通道和空间两个独立维度依次推断出注意力映射,然后将注意力映射与输入特征映射相乘,对输入的特征图执行自适应特征细化。在卷积操作中感受野大小决定了空间注意力的性能,大的卷积核能聚合更丰富的上下文信息,提升空间注意力的特征表达能力。
实施例一
请参阅图1,本实施例提出一种基于YOLOv5模型的害虫目标检测方法,包括:
获取目标数据集。并将所述目标数据集划分为训练集、验证集和测试集。
以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型。
分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型。
将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
本申请实施例所提出的基于YOLOv5模型的害虫目标检测方法,通过对YOLOv5模型进行改进,构建出能够适用于对于害虫等小目标进行检测的害虫目标检测模型,利用所述害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。
实施例二
本实施例在实施例一提出的基于YOLOv5模型的害虫目标检测方法的基础上作出改进。
本实施例中,所获取的数据集为百度与北京林业大学合作开发的林业病虫害防治项目中使用到的昆虫数据集,该数据集提供了2183张图像,其中训练集1693张,验证集245张,测试集245张,且每张图像都有对应的XML标注文件。本数据集包含7种昆虫类别,分别是Boerner、Leconte、Linnaeus、acuminatus、armandi、coleoptera和linnaeus。
本实施例中,将所述待检测数据集的图像输入所述害虫目标检测模型进行目标检测之前,对待检测数据集进行数据增强,具体包括:
将待检测数据集中类别数量最少的三类昆虫进行裁剪。
将裁剪得到的昆虫图像进行随机翻折和旋转操作。
将经过随机翻折和旋转操作昆虫图像粘贴至原待检测数据集中,并且每次粘贴操作要保证粘贴的目标与图像上现有的目标不能重叠,使各个样本在数量上保持均衡,同时增加小目标位置的多样性,得到新的待检测数据集。如图2所示,其为待检测数据集进行增强前后的样本位置分布图,其中,图2(a)为进行数据增强前的数据图像Ⅰ,图2(b)为进行数据增强后的数据图像Ⅰ,图2(c)为进行数据增强前的数据图像Ⅱ,图2(d)为进行数据增强后的数据图像Ⅱ。
由于数据集中标签文件(.xml)存储的是单张图像中目标的类别名称以及标签框所在的坐标位置,且YOLOv5模型统一了不同数据集训练时的标签文件格式,因此本实施例中通过编写脚本文件将xml文件格式转换成训练时要读取的txt文件格式。
本实施例中,通过修改.yaml配置文件,指定包含要训练的数据集中样本类别数、初始锚框的尺寸大小以及参与训练的模型的结构层次。
本实施例中,以YOLOv5模型作为基础模型,构建害虫目标检测模型,如图3所示,其为害虫目标检测模型的结构示意图,害虫目标检测模型具体被设置为:
(1)将所述YOLOv5模型的Backbone网络中最后一层的CSP Bottleneck结构替换为卷积神经网络和Transformer网络结合的BoTR模块,如图4所示,其为BoTR的结构示意图,所述BoTR包括并行的第一提取分支和第二提取分支;所述第一提取分支为卷积神经网络,所述第二提取分支包括依次连接的卷积神经网络和Transformer网络;输入所述BoTR的特征图分别经过第一提取分支和第二提取分支进行特征提取;将第一提取分支和第二提取分支分别输出的特征图进行拼接处理,得到拼接特征图,并将所述拼接特征图传输至Neck部分。
在具体实施过程中,通过将YOLOv5模型的Backbone网络中最后一层的CSPBottleneck结构替换为BoTR模块,将卷积神经网络优秀的局部特征能力和Transformer网络高校的捕获全局信息和上下文信息能力相结合,构建出害虫目标检测模型,并利用害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。
(2)在Neck部分,将原有的PANet结构替换为M-BiFPN结构,M-BiFPN结构的结构示意图如图5所示,P2~P5分别是Backbone的四层输出特征图。所述M-BiFPN结构包括并行的第一融合分支、第二融合分支、第三融合分支和第四融合分支;所述第一融合分支、第二融合分支、第三融合分支和第四融合分支均包括若干个依次连接的特征融合模块;所述特征融合模块包括依次连接的快速归一化融合模块FNF和C3结构;所述C3结构包括依次连接的3个标准卷积层和若干个堆叠的Bottleneck层。
在具体实施过程中,将FPN结构的5层输出特征图改为4层,这不仅能有效减少参数量,还能提升模型的检测精度。此外,在每个快速归一化融合模块FNF后面添加一个C3结构,C3和BottleneckCSP在性能上相似,但C3比BottleneckCSP结构更轻,推理更快,在融合特征上表现更出色。
所述快速归一化融合模块FNF对输入的特征图进行快速归一化特征融合处理,其表达式如下所示:
Figure BDA0004103088570000061
其中,O快速归一化融合模块FNF输出的融合特征图,wi为第i个特征图的特征权重,wj为第j个特征图的特征权重;∈为常数,其取值为0.0001;Ii为第i个输入特征图。特征权重wi≥0,在分母添加一个较小值∈=0.0001可以避免数值不稳定等因素。
另外,在每个C3结构的输出端引入CBAM模块,并将CBAM模块中的空间注意力模块中的7×7标准卷积层替换为两个依次连接的7×7空洞卷积层,这样不仅可以减少模型参数量,还能有效对空间特征进行聚合,改进后的注意力机制称为D-CBAM,其结构如图6所示。
本实施例中,害虫目标检测模型的目标函数的表达式如下所示:
在具体实施过程中,实验所使用的硬件环境为E5-2698v4CPU,系统内存为256GB,GPU为Tesla V100,显存为32G。所使用的深度学习框架为PyTorch1.8,CUDA10.2,GPU加速库Cudnn7.6.5。使用YOLOv5s的预训练权重来初始化网络结构,模型输入图像尺寸为640×640,batch-size设为32,优化器使用Adam,动量为0.843,权重衰减为0.00036。激活函数上统一使用SiLU非线性激活函数,该函数具有无上界有下界、平滑和非单调的特性,在较深的网络中相比ReLU激活函数更有优势。采用Label Smoothing正则方式,参数为0.1。回归损失函数使用CIoU Loss,模型总共训练300个epoch,模型训练一轮后会进行一轮验证,最终会取在验证集上精度最高的权重文件用于测试。
本实施例中,采用mAP(mean Average Precision)作为评价指标,计算AP值(IoU阈值从0.5到0.95,每隔0.05取一次,最后求这10个阈值下得到的AP的均值)和AP50值(IoU阈值设为0.5时,在此阈值下所求的AP值)。
P-R曲线是以准确率Precision和召回率Recall为两个变量,在不同IoU阈值下绘制的;AP表示单类目标的平均精度,其取值为P-R曲线下覆盖的面积,具体公式如下:
Figure BDA0004103088570000062
Figure BDA0004103088570000071
Figure BDA0004103088570000072
其中,TP(True Positive)表示准确预测害虫的数量;FP(False Positive)表示实际为背景,但预测为害虫的数量;FN(False Negative)表示实际为背景,但实际为苹果,但预测为背景的数量。
实验结果如图7和图8所示,改进后的害虫目标检测模型相比原YOLOv5和其他经典的目标检测器,在测试集上mAP、单一样本的AP值、检测准确率Precision和召回率Recall都有明显提升,改进后的模型相比原YOLOv5减少了误检和漏检的情况。
实施例三
参阅图9,本实施例提出一种基于YOLOv5模型的害虫目标检测系统,应用于上述实施例所述的基于YOLOv5模型的害虫目标检测方法,包括:
获取模块,用于获取待检测数据集。
构建模块,用于以YOLOv5模型作为基础模型,将所述YOLOv5模型的Backbone网络中最后一层的CSP Bottleneck结构替换为卷积神经网络和Transformer网络结合的BoTR模块。
检测模块,用于将所述待检测数据集的图像输入所述害虫目标检测模型进行目标检测,输出害虫目标检测结果。
本申请实施例所提出的基于YOLOv5模型的害虫目标检测系统,通过将YOLOv5模型的Backbone网络中最后一层的CSP Bottleneck结构替换为BoTR模块,将卷积神经网络优秀的局部特征能力和Transformer网络高校的捕获全局信息和上下文信息能力相结合,构建出害虫目标检测模型。利用害虫目标检测模型进行害虫目标检测,能够提高小目标的检测能力,进一步提升检测精度。
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种基于YOLOv5模型的害虫目标检测方法,其特征在于,包括:
获取目标数据集;并将所述目标数据集划分为训练集、验证集和测试集;
以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型;
分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型;
将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
2.根据权利要求1所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,对所述YOLOv5模型进行改进,具体包括:
将所述YOLOv5模型的Backbone网络中最后一层的CSP Bottleneck结构替换为卷积神经网络和Transformer网络结合的BoTR模块;
所述BoTR模块包括并行的第一提取分支和第二提取分支;
所述第一提取分支为卷积神经网络,所述第二提取分支包括由依次连接的卷积神经网络和Transformer组成的Encoder结构;
输入所述BoTR模块的特征图分别经过第一提取分支和第二提取分支进行特征提取;
将第一提取分支和第二提取分支分别输出的特征图进行拼接处理,得到拼接特征图,并将所述拼接特征图传输至Neck网络。
3.根据权利要求1所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,对所述YOLOv5模型进行改进,具体包括:
在Neck网络中,将原有的PANet结构替换为M-BiFPN结构;所述M-BiFPN结构包括并行的第一融合分支、第二融合分支、第三融合分支和第四融合分支;
所述第一融合分支、第二融合分支、第三融合分支和第四融合分支均包括若干个依次连接的特征融合模块;
所述特征融合模块包括依次连接的快速归一化融合模块FNF和C3结构;所述C3结构包括依次连接的3个标准卷积层和若干个堆叠的Bottleneck层。
4.根据权利要求3所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,所述快速归一化融合模块FNF对输入的特征图进行快速归一化特征融合处理,其表达式如下所示:
Figure FDA0004103088560000021
其中,O快速归一化融合模块FNF输出的融合特征图,wi为第i个特征图的特征权重,wj为第j个特征图的特征权重;∈为常数,其取值为0.0001;Ii为第i个输入特征图。
5.根据权利要求3所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,对所述YOLOv5模型进行改进,具体包括:
在每个C3结构的输出端引入CBAM模块,并将CBAM模块中的空间注意力模块中的7×7标准卷积层替换为两个依次连接的7×7空洞卷积层。
6.根据权利要求1所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,将所述待检测数据集的图像输入所述害虫目标检测模型进行目标检测之前,所述方法还包括对待检测数据集进行数据增强,具体包括:
将待检测数据集中类别数量最少的三类昆虫进行裁剪;
将裁剪得到的昆虫图像进行随机翻折和旋转操作;
将经过随机翻折和旋转操作昆虫图像粘贴至原待检测数据集中,得到新的待检测数据集。
7.根据权利要求6所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,在对待检测数据集进行数据增强之后,将待检测数据集的图像输入害虫目标检测模型进行目标检测之前,所述方法还包括:
将待检测数据集中.xml格式的标签文件转换为.txt格式的标签文件。
8.根据权利要求1所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,所述害虫检测模型的损失函数的表达式如下所示:
Loss=αLcls+βLobj+γLloc
其中,Lcls表示分类损失,Lobj表示置信度损失,Lloc表示定位损失,α、β和γ分别是各部分损失对应的平衡系数。
9.一种基于YOLOv5模型的害虫目标检测系统,应用于如权利要求1~8任一项所述的基于YOLOv5模型的害虫目标检测方法,其特征在于,包括:
获取模块,获取目标数据集;并将所述目标数据集划分为训练集、验证集和测试集;
构建模块,用于以YOLOv5模型作为基础模型,对所述YOLOv5模型进行改进,构建害虫目标检测模型;
训练模块,用于分别利用训练集和验证集对所述害虫目标检测模型进行训练和调参,直至害虫目标检测模型的损失函数收敛,得到训练好的害虫目标检测模型;
检测模块,用于将测试集的图像输入训练好的害虫目标检测模型进行目标检测,输出害虫目标检测结果。
10.一种计算设备,其特征在于,所述计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如权利要求1至8中任一项所述的基于YOLOv5模型的害虫目标检测方法所执行的操作。
CN202310183682.3A 2023-02-03 2023-02-27 一种基于YOLOv5模型的害虫目标检测方法、系统及设备 Pending CN116310718A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2023100781467 2023-02-03
CN202310078146 2023-02-03

Publications (1)

Publication Number Publication Date
CN116310718A true CN116310718A (zh) 2023-06-23

Family

ID=86797151

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310183682.3A Pending CN116310718A (zh) 2023-02-03 2023-02-27 一种基于YOLOv5模型的害虫目标检测方法、系统及设备

Country Status (1)

Country Link
CN (1) CN116310718A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116994116A (zh) * 2023-08-04 2023-11-03 北京泰策科技有限公司 基于自注意力模型与yolov5的目标检测方法及系统
CN117237286A (zh) * 2023-09-02 2023-12-15 国网山东省电力公司淄博供电公司 一种气体绝缘开关设备内部缺陷检测方法
CN117649610A (zh) * 2024-01-30 2024-03-05 江西农业大学 一种基于YOLOv5的害虫检测方法及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116994116A (zh) * 2023-08-04 2023-11-03 北京泰策科技有限公司 基于自注意力模型与yolov5的目标检测方法及系统
CN116994116B (zh) * 2023-08-04 2024-04-16 北京泰策科技有限公司 基于自注意力模型与yolov5的目标检测方法及系统
CN117237286A (zh) * 2023-09-02 2023-12-15 国网山东省电力公司淄博供电公司 一种气体绝缘开关设备内部缺陷检测方法
CN117237286B (zh) * 2023-09-02 2024-05-17 国网山东省电力公司淄博供电公司 一种气体绝缘开关设备内部缺陷检测方法
CN117649610A (zh) * 2024-01-30 2024-03-05 江西农业大学 一种基于YOLOv5的害虫检测方法及系统
CN117649610B (zh) * 2024-01-30 2024-05-28 江西农业大学 一种基于YOLOv5的害虫检测方法及系统

Similar Documents

Publication Publication Date Title
US20180342077A1 (en) Teacher data generation apparatus and method, and object detection system
CN113705478B (zh) 一种基于改进YOLOv5的红树林单木目标检测方法
CN116310718A (zh) 一种基于YOLOv5模型的害虫目标检测方法、系统及设备
CN112150821B (zh) 轻量化车辆检测模型构建方法、系统及装置
CN110770752A (zh) 多尺度特征融合网络结合定位模型的害虫自动计数方法
CN108805070A (zh) 一种基于嵌入式终端的深度学习行人检测方法
CN110766041A (zh) 一种基于深度学习的害虫检测方法
CN110598693A (zh) 一种基于Faster-RCNN的船牌识别方法
CN110647802A (zh) 基于深度学习的遥感影像舰船目标检测方法
CN110598620A (zh) 模型训练方法和装置、目标检测方法和装置
CN114998603B (zh) 一种基于深度多尺度特征因子融合的水下目标检测方法
CN112613428B (zh) 基于平衡损失的Resnet-3D卷积牛视频目标检测方法
CN115049966A (zh) 一种基于GhostNet的轻量化YOLO宠物识别方法
CN117611576A (zh) 一种基于图文融合对比学习预测方法
Tan et al. A Lightweight Underwater Object Detection Model: FL-YOLOV3-TINY
CN112465821A (zh) 一种基于边界关键点感知的多尺度害虫图像检测方法
CN116563844A (zh) 圣女果成熟度检测方法、装置、设备及存储介质
CN115880477A (zh) 一种基于深度卷积神经网络的苹果检测定位方法与系统
CN115761667A (zh) 一种基于改进fcos算法的无人车辆搭载摄像头目标检测方法
Wong et al. An assistive learning workflow on annotating images for object detection
Meena Deshpande License plate detection and recognition using yolo v4
CN116503674B (zh) 一种基于语义指导的小样本图像分类方法、装置及介质
Li et al. Intelligent Detection of Marine Organisms with Deep Learning based on Attention Mechanism
CN117218606B (zh) 一种逃生门检测方法、装置、存储介质及电子设备
CN116883992A (zh) 一种基于改进YOLOv5x的草莓果实检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination