CN117456325A - 一种水稻病虫害检测方法 - Google Patents

一种水稻病虫害检测方法 Download PDF

Info

Publication number
CN117456325A
CN117456325A CN202311406241.1A CN202311406241A CN117456325A CN 117456325 A CN117456325 A CN 117456325A CN 202311406241 A CN202311406241 A CN 202311406241A CN 117456325 A CN117456325 A CN 117456325A
Authority
CN
China
Prior art keywords
module
size
multiplied
feature
dca
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311406241.1A
Other languages
English (en)
Inventor
邢伟寅
甘波
梁姝
邓阳
蒲国林
钟乐海
李礁
陈波
韩正勇
罗金生
刘洪义
刘城
张小卫
蒲可
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mianyang Polytechnic
Original Assignee
Mianyang Polytechnic
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mianyang Polytechnic filed Critical Mianyang Polytechnic
Priority to CN202311406241.1A priority Critical patent/CN117456325A/zh
Publication of CN117456325A publication Critical patent/CN117456325A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Operations Research (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种水稻病虫害检测方法,是一种基于YOLOv5改进的水稻病虫害检测方法,在YOLOv5算法主干网络SPPF模块前面增加DCA注意力模块,从而增加对病虫害目标区域的关注度,减少病虫害目标的误检情况,同时还能更准确的定位病虫害位置。在边框损失函数中增加NWD损失,提升对小目标的检测能力。本发明改进后算法对水稻病虫害检水稻病虫害检测具有较好的性能表现,具有较高的实用价值。

Description

一种水稻病虫害检测方法
技术领域
本发明属于农作物检测技术领域,特别是涉及一种水稻病虫害检测方法。
背景技术
在水稻病虫害检测的传统算法中,常采用多种技术手段综合运用。首先,使用HSV颜色空间的颜色过滤和形状分析方法,通过阈值滤波器提取出特定颜色的目标区域,比如水稻叶片。然后,借助形状分析技术(如霍夫变换),能够比较精确地定位病虫害区域。此外,运用边缘检测算法,特别是Canny边缘检测,有助于捕捉物体的边界信息,再通过轮廓分析进一步提高定位的精准度。另一种方法是模板匹配,逐像素地比对预先准备好的病虫害模板与图像,从而定位已知形状的病虫害。同时,通过级联分类器(如Viola-Jones算法),对图像中的不同区域进行分类筛选,进一步支持病虫害区域的检测。然而,传统算法在处理复杂环境、光照变化和遮挡等情况时存在一定局限性,可能导致遗漏或误判。
Yolov5中边界框损失采用的是IOU Loss来计算,IOU用于衡量模型预测的边界框与真实标注框之间的重叠程度。然而当目标很小的情况下,即使较小的位置偏差也可能显著影响IOU值,从而导致误差较大的情况。复杂场景中可能存在大量复杂多样的背景干扰,模型可能会将这些背景错误地识别为目标,导致误检增加;同时在复杂背景的干扰下,会导致目标位置预测不准确。
发明内容
为达到上述目的,本发明采用的技术方案是:一种水稻病虫害检测方法,包括步骤:
S10,在YOLOv5模型网络中在主干网络SPPF模块前面添加DCA注意力机制模块,边框损失函数中增加NWD损失,从而构建出水稻病虫害检测模型;
DCA注意力机制模块专注于图像的空间坐标信息,以捕获图像中不同位置之间的关系和结构;通过在主干网络SPPF模块前面添加DCA注意力机制模块,由DCA模块关注和采集有用的空间坐标信息,然后通过后面衔接的SPPF模块进一步筛选和融合出更精准有用的空间坐标信息,从而增加对病虫害目标区域的关注度;
S20,利用水稻病虫害检测模型对采集图像进行识别,输出病虫害检测结果。
进一步的是,所述YOLOv5模型网络包括输入端Input、主干网络Backbone、颈部网络Neck和检测头Head;输入端接收原始图像,并将其作为模型的初始数据输入;主干网络的任务是从输入图像中提取高层次的特征信息;颈部网络,融合来自不同尺度特征图的信息;最后,检测头负责关键的目标检测任务,包括预测图像中目标的边界框、置信度和类别,定位和识别图像中的目标物体;
其中主干网络包括SPPF模块,SPPF模块实现特征图的多尺度池化操作。
进一步的是,主干网络还包括CBS模块和C3模块,CBS模块和C3模块设置在SPPF模块之前,CBS模块是特征提取的基础组件,C3模块用于增强特征提取能力;所述DCA注意力机制模块设置在多层CBS模块和C3模块之后。
进一步的是,在CBS模块和C3模块中设置有Bottleneck模块,通过维度降低和升高的步骤,减少计算参数的数量,同时增加模型非线性表达能力。
进一步的是,所述颈部网络采用路径聚合网络PAN的结构。
进一步的是,所述DCA注意力模块基于CA注意力模块进行改进,将CA注意力模块中的卷积操作由Conv2d用可变形卷积Deform_conv2d进行替换。
进一步的是,所述DCA注意力模块处理步骤包括:
S11,对输入特征图F0进行两次平均池化操作,分别沿着宽度W和高度H方向;在W方向,使用大小为1×W的卷积核进行池化,在H方向,使用大小为H×1的卷积核进行池化,这两次池化操作产生了两个不同维度的特征图FW和FH,FW特征图大小是C×H×1,FH特征图大小是C×1×W;
S12,将特征图FW和FH进行拼接,得到特征图为F1,F1特征图大小为C×1×(W+H);
S13,将特征图F1使用卷积核大小为1×1,输出通道C/r的卷积,然后进行归一化、非线性处理操作得到特征图F2,F2特征图大小为C/r×1×(W+H);
S14,将F2再次分割成H方向特征图F3和W方向特征图F4,F3的大小为C/r×1×W,F4的大小为C/r×H×1;
S15,将F2和F3分别通过一个卷积核大小为1*1,输出通道为C的卷积,得到特征图F4和F5,F4的大小为C*1*W,F4的大小为C×H×1;
S16,特征图F4和F5分别通过一个sigmoid函数,得到W方向和H方向的权重F6和F7;
S17,特征图F0与权重F6、F7连乘,输出调整权重以后的特征图F8。
进一步的是,边框损失函数中增加NWD损失,计算包括步骤:
S21,把真实框NA和预测框NB表示为二维高斯分布N(μ,Σ)的形式,其中(cx,cy)表示中心坐标,w和h表示宽度和高度;
S22,计算NA和NB之间Wasserstein距离;
S23,把Wasserstein距离进行标准化以后,得到NWD损失;
S23,利用结合IoU损失和NWD损失,得到改进后的边界框损失函数。
采用本技术方案的有益效果:
本发明提出一种基于YOLOv5改进的水稻病虫害检测方法,在YOLOv5算法主干网络SPPF模块前面增加DCA注意力模块,从而增加对病虫害目标区域的关注度,减少病虫害目标的误检情况,同时还能更准确的定位病虫害位置。在边框损失函数中增加NWD损失,提升对小目标的检测能力。本发明改进后算法对水稻病虫害检水稻病虫害检测具有较好的性能表现,在mAP、Precision、Recall方面都超过原算法,具有较高的实用价值。
本方法在YOLOv5算法主干网络SPPF模块前面添加DCA注意力机制模块。DCA注意力机制专注于图像的空间坐标信息,以捕获图像中不同位置之间的关系和结构。这个注意力机制的主要思想是:空间坐标包含有关图像内容和结构的重要信息,可以用于增强视觉任务的性能,增加目标位置的敏感性和自适应性。位置敏感性能关注图像中每个像素的位置,这使得模型可以更好地理解对象的位置和相对位置;自适应性可以学习哪些位置在特定任务中更重要,从而增强了模型的表征能力。在本发明在YOLOv5算法主干网络SPPF模块前面添加DCA注意力机制提高对病虫害目标区域的关注度;SPPF模块是空间金字塔池化层,同样关注目标对象的空间信息,可以捕获不同尺度下的目标特征,因为它可以在不同大小(多尺度)的区域上进行池化,对空间特征信息进一步筛选和融合,这样提供了更丰富的特征表示,有助于提高网络的性能。因此通过在主干网络SPPF模块前面添加DCA注意力机制模块,由DCA模块关注和采集有用的空间坐标信息,然后通过后面衔接的SPPF模块进一步筛选和融合出更精准有用的空间坐标信息,从而增加对病虫害目标区域的关注度,加强算法在复杂背景下的抗干扰能力,减少病虫害对象误检的情况,同时也能更准确的定位病虫害位置。
附图说明
图1为本发明的一种水稻病虫害检测方法中水稻病虫害检测模型的结构示意图;
图2为本发明实施例中DCA注意力机制网络结构图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明作进一步阐述。
在本实施例中,参见图1所示,本发明提出了一种水稻病虫害检测方法,包括步骤:
S10,在YOLOv5模型网络中在主干网络SPPF模块前面添加DCA注意力机制模块,边框损失函数中增加NWD损失,从而构建出水稻病虫害检测模型;
DCA注意力机制模块专注于图像的空间坐标信息,以捕获图像中不同位置之间的关系和结构;通过在主干网络SPPF模块前面添加DCA注意力机制模块,由DCA模块关注和采集有用的空间坐标信息,然后通过后面衔接的SPPF模块进一步筛选和融合出更精准有用的空间坐标信息,从而增加对病虫害目标区域的关注度;
S20,利用水稻病虫害检测模型对采集图像进行识别,输出病虫害检测结果。
作为上述实施例的优化方案,如图1所示,所述YOLOv5模型网络包括输入端Input、主干网络Backbone、颈部网络Neck和检测头Head;输入端接收原始图像,并将其作为模型的初始数据输入;主干网络的任务是从输入图像中提取高层次的特征信息;颈部网络,融合来自不同尺度特征图的信息;最后,检测头负责关键的目标检测任务,包括预测图像中目标的边界框、置信度和类别,定位和识别图像中的目标物体。
其中主干网络包括SPPF模块,SPPF模块实现特征图的多尺度池化操作。优选的,主干网络还包括CBS模块和C3模块,CBS模块和C3模块设置在SPPF模块之前,CBS模块是特征提取的基础组件,C3模块用于增强特征提取能力;所述DCA注意力机制模块设置在多层CBS模块和C3模块之后。
优选的,在CBS模块和C3模块中设置有Bottleneck模块,通过维度降低和升高的步骤,减少计算参数的数量,同时增加模型非线性表达能力。
优选的,所述颈部网络采用路径聚合网络PAN的结构。
作为上述实施例的优化方案,所述DCA注意力模块基于CA注意力模块进行改进,将CA注意力模块中的卷积操作由Conv2d用可变形卷积Deform_conv2d进行替换。水稻病虫害区域形状大小各异且不规则,通过使用Deform_conv2d卷积,感受野不在是方形,而是更贴近病虫害区域的实际形状。
在DCA注意力机制中,注意力的权重是根据输入数据的位置信息进行计算的。通过将不同位置的特征与位置编码结合,不同的位置被赋予不同的注意力权重。这使得模型能够精准地关注输入数据的不同部分,从而增强了对病虫害位置特征的建模能力,减少复杂背景的干扰,有助于提高模型的性能和泛化能力。
如图2所示,所述DCA注意力模块处理步骤包括:
S11,为了实现注意力模块在单一空间方向上的聚合特征,对输入特征图F0进行两次平均池化操作,分别沿着宽度W和高度H方向;在W方向,使用大小为1×W的卷积核进行池化,在H方向,使用大小为H×1的卷积核进行池化,这两次池化操作产生了两个不同维度的特征图FW和FH,FW特征图大小是C×H×1,FH特征图大小是C×1×W;
S12,将特征图FW和FH进行拼接,得到特征图为F1,F1特征图大小为C×1×(W+H);
S13,将特征图F1使用卷积核大小为1×1,输出通道C/r的卷积,然后进行归一化、非线性处理操作得到特征图F2,F2特征图大小为C/r×1×(W+H);
S14,将F2再次分割成H方向特征图F3和W方向特征图F4,F3的大小为C/r×1×W,F4的大小为C/r×H×1;
S15,将F2和F3分别通过一个卷积核大小为1*1,输出通道为C的卷积,得到特征图F4和F5,F4的大小为C*1*W,F4的大小为C×H×1;
S16,特征图F4和F5分别通过一个sigmoid函数,得到W方向和H方向的权重F6和F7;
S17,特征图F0与权重F6、F7连乘,输出调整权重以后的特征图F8。
作为上述实施例的优化方案,边框损失函数中增加NWD损失,NWD损失表现出目标尺寸的不变性,能够增强对小目标相似性的度量,计算包括步骤:
S21,把真实框NA和预测框NB表示为二维高斯分布N(μ,Σ)的形式,其中(cx,cy)表示中心坐标,w和h表示宽度和高度;
S22,计算NA和NB之间Wasserstein距离;
公式如下:
S23,把Wasserstein距离进行标准化以后,得到NWD损失;
公式如下:
NWD的损失函数如下所示:
LNWD=1-NWD(Na,Nb)。
S23,利用结合IoU损失和NWD损失,得到改进后的边界框损失函数。
YOLOv5使用IoU Loss作为边界框损失函数,IoU对中大目标检测效果较好,对小目标检测效果不好。
本发明结合NWD的特点对边框损失函数进行改进,改进后的边界框损失函数函数如下所示:
LBOX=wLIoU+(1-w)LNWD
其中LIoU是IOU Loss,w是权重系数,取值和训练集中的中大目标占比有直接关系。本文方法中设置w=0.8。
本方法使用的病虫害数据集来自公开数据集RiceLeafDiseasesInsect Dataset,该数据集包含图片1134张,病虫害的种类包括7种,分别为棕斑病(Brown Spot)、虫害(Insect)、叶枯病(Leaf Scald)、中期排水(Mid Season Drainage)、狭窄棕斑病(NarrowBrown Spot)、稻瘿蚊(Rice Hispa)、稻纵卷叶蛾(Rice Leaf Folder)。为了提高模型的泛化能力,避免过拟合,本方法采用水平翻转、随机裁剪2种数据增强方式把数据集扩充到3402张,并将数据集按照7:2:1的比例划分为训练集,验证集和测试集。
网络训练参数如表1所示。
表1网络训练参数
本发明实施例中评估指标采用精度P(Precision)、平均精度均值mAP(mean AP)、Recall(R)这3种在目标检测算法中较为常见的评价指标来评估本发明算法的性能。
上述公式中,TP表示预测为正样本且实际为正样本,FP表示预测为正样本而实际为负样本,FN表示预测为负样本而实际为正样本,i为某一类别,N为检测类别的总数。
为验证本发明方法的有效性,将本发明方法与原始YOLOv5算法在同一数据集上进行测试,各项性能指标比较如表2所示。
表2与相关算法的比较
模型 P R mAP0.5 mAP0.5:0.95
YOLOv5 80.6 74 89.9 50.0
本文方法 83.6 76.4 92.7 53.2
本文算法的mAP0.5达到了92.7%,mAP0.5:0.95达到了53.2%,P达到了83.6%,相较于改进前的YOLOv5,mAP0.5提升了2.8%,mAP0.5:0.95提升了3.2%,P提升了3%,R提升了2.4。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (8)

1.一种水稻病虫害检测方法,其特征在于,包括步骤:
S10,在YOLOv5模型网络中在主干网络SPPF模块前面添加DCA注意力机制模块,边框损失函数中增加NWD损失,从而构建出水稻病虫害检测模型;
DCA注意力机制模块专注于图像的空间坐标信息,以捕获图像中不同位置之间的关系和结构;通过在主干网络SPPF模块前面添加DCA注意力机制模块,由DCA模块关注和采集有用的空间坐标信息,然后通过后面衔接的SPPF模块进一步筛选和融合出更精准有用的空间坐标信息,从而增加对病虫害目标区域的关注度;
S20,利用水稻病虫害检测模型对采集图像进行识别,输出病虫害检测结果。
2.根据权利要求1所述的一种水稻病虫害检测方法,其特征在于,所述YOLOv5模型网络包括输入端Input、主干网络Backbone、颈部网络Neck和检测头Head;输入端接收原始图像,并将其作为模型的初始数据输入;主干网络的任务是从输入图像中提取高层次的特征信息;颈部网络,融合来自不同尺度特征图的信息;最后,检测头负责关键的目标检测任务,包括预测图像中目标的边界框、置信度和类别,定位和识别图像中的目标物体;
其中主干网络包括SPPF模块,SPPF模块实现特征图的多尺度池化操作。
3.根据权利要求2所述的一种水稻病虫害检测方法,其特征在于,主干网络还包括CBS模块和C3模块,CBS模块和C3模块设置在SPPF模块之前,CBS模块是特征提取的基础组件,C3模块用于增强特征提取能力;所述DCA注意力机制模块设置在多层CBS模块和C3模块之后。
4.根据权利要求3所述的一种水稻病虫害检测方法,其特征在于,在CBS模块和C3模块中设置有Bottleneck模块,通过维度降低和升高的步骤,减少计算参数的数量,同时增加模型非线性表达能力。
5.根据权利要求2所述的一种水稻病虫害检测方法,其特征在于,所述颈部网络采用路径聚合网络PAN的结构。
6.根据权利要求1所述的一种水稻病虫害检测方法,其特征在于,所述DCA注意力模块基于CA注意力模块进行改进,将CA注意力模块中的卷积操作由Conv2d用可变形卷积Deform_conv2d进行替换。
7.根据权利要求6所述的一种水稻病虫害检测方法,其特征在于,所述DCA注意力模块处理步骤包括:
S11,对输入特征图F0进行两次平均池化操作,分别沿着宽度W和高度H方向;在W方向,使用大小为1×W的卷积核进行池化,在H方向,使用大小为H×1的卷积核进行池化,这两次池化操作产生了两个不同维度的特征图FW和FH,FW特征图大小是C×H×1,FH特征图大小是C×1×W;
S12,将特征图FW和FH进行拼接,得到特征图为F1,F1特征图大小为C×1×(W+H);
S13,将特征图F1使用卷积核大小为1×1,输出通道C/r的卷积,然后进行归一化、非线性处理操作得到特征图F2,F2特征图大小为C/r×1×(W+H);
S14,将F2再次分割成H方向特征图F3和W方向特征图F4,F3的大小为C/r×1×W,F4的大小为C/r×H×1;
S15,将F2和F3分别通过一个卷积核大小为1*1,输出通道为C的卷积,得到特征图F4和F5,F4的大小为C*1*W,F4的大小为C×H×1;
S16,特征图F4和F5分别通过一个sigmoid函数,得到W方向和H方向的权重F6和F7;
S17,特征图F0与权重F6、F7连乘,输出调整权重以后的特征图F8。
8.根据权利要求1所述的一种水稻病虫害检测方法,其特征在于,边框损失函数中增加NWD损失,计算包括步骤:
S21,把真实框NA和预测框NB表示为二维高斯分布N(μ,Σ)的形式,其中(cx,cy)表示中心坐标,w和h表示宽度和高度;
S22,计算NA和NB之间Wasserstein距离;
S23,把Wasserstein距离进行标准化以后,得到NWD损失;
S23,利用结合IoU损失和NWD损失,得到改进后的边界框损失函数。
CN202311406241.1A 2023-10-27 2023-10-27 一种水稻病虫害检测方法 Pending CN117456325A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311406241.1A CN117456325A (zh) 2023-10-27 2023-10-27 一种水稻病虫害检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311406241.1A CN117456325A (zh) 2023-10-27 2023-10-27 一种水稻病虫害检测方法

Publications (1)

Publication Number Publication Date
CN117456325A true CN117456325A (zh) 2024-01-26

Family

ID=89584859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311406241.1A Pending CN117456325A (zh) 2023-10-27 2023-10-27 一种水稻病虫害检测方法

Country Status (1)

Country Link
CN (1) CN117456325A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649610A (zh) * 2024-01-30 2024-03-05 江西农业大学 一种基于YOLOv5的害虫检测方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115631462A (zh) * 2022-11-09 2023-01-20 浙江科技学院 基于am-yolox的草莓病虫害检测方法及系统
CN116229292A (zh) * 2023-01-18 2023-06-06 吉林大学 一种基于无人机路面巡检病害的巡检系统及方法
CN116630668A (zh) * 2023-04-19 2023-08-22 南京邮电大学 一种快速轻量级的安全帽佩戴异常识别方法
CN116863306A (zh) * 2023-07-31 2023-10-10 常州大学 基于改进YOLOv6网络模型的水面漂浮小目标的检测方法
CN116912684A (zh) * 2023-07-13 2023-10-20 重庆邮电大学 一种基于深度学习的番茄叶片病害检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115631462A (zh) * 2022-11-09 2023-01-20 浙江科技学院 基于am-yolox的草莓病虫害检测方法及系统
CN116229292A (zh) * 2023-01-18 2023-06-06 吉林大学 一种基于无人机路面巡检病害的巡检系统及方法
CN116630668A (zh) * 2023-04-19 2023-08-22 南京邮电大学 一种快速轻量级的安全帽佩戴异常识别方法
CN116912684A (zh) * 2023-07-13 2023-10-20 重庆邮电大学 一种基于深度学习的番茄叶片病害检测方法
CN116863306A (zh) * 2023-07-31 2023-10-10 常州大学 基于改进YOLOv6网络模型的水面漂浮小目标的检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LART: "torchvision 中 deform_conv2d 操作的经验性解析", pages 1 - 5, Retrieved from the Internet <URL:https://blog.csdn.net/limingmin2020/article/details/125502092?> *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649610A (zh) * 2024-01-30 2024-03-05 江西农业大学 一种基于YOLOv5的害虫检测方法及系统
CN117649610B (zh) * 2024-01-30 2024-05-28 江西农业大学 一种基于YOLOv5的害虫检测方法及系统

Similar Documents

Publication Publication Date Title
CN111310862B (zh) 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN108319964B (zh) 一种基于混合特征和流形学习的火灾图像识别方法
WO2017190574A1 (zh) 一种基于聚合通道特征的快速行人检测方法
CN110929756B (zh) 基于深度学习的钢材尺寸和数量的识别方法、智能设备和存储介质
US8340420B2 (en) Method for recognizing objects in images
US8649594B1 (en) Active and adaptive intelligent video surveillance system
CN110770752A (zh) 多尺度特征融合网络结合定位模型的害虫自动计数方法
CN110119726B (zh) 一种基于YOLOv3模型的车辆品牌多角度识别方法
CN109934216B (zh) 图像处理的方法、装置、计算机可读存储介质
CN106778742B (zh) 一种基于Gabor滤波器背景纹理抑制的车标检测方法
CN104680554B (zh) 基于surf的压缩跟踪方法和系统
CN117456325A (zh) 一种水稻病虫害检测方法
CN111523416A (zh) 一种基于高速公路etc门架的车辆预警方法和装置
CN116740652B (zh) 一种基于神经网络模型的锈斑面积扩大的监测方法与系统
CN114821102A (zh) 密集柑橘数量检测方法、设备、存储介质及装置
Bai et al. Classify vehicles in traffic scene images with deformable part-based models
CN113537211A (zh) 一种基于非对称iou的深度学习车牌框定位方法
Wang et al. An automatic system for pest recognition and forecasting
CN115272882A (zh) 一种基于遥感影像的离散建筑物检测方法及系统
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
CN109145770B (zh) 一种基于多尺度特征融合网络与定位模型相结合的麦蜘蛛自动计数方法
CN111368625B (zh) 一种基于级联优化的行人目标检测方法
CN112418262A (zh) 车辆再识别的方法、客户端及系统
CN115641575A (zh) 一种基于稀疏候选框的叶蝉科农业害虫检测方法
Fanfani et al. Addressing Domain Shift in Pedestrian Detection from Thermal Cameras without Fine-Tuning or Transfer Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination