CN113657326A - 一种基于多尺度融合模块和特征增强的杂草检测方法 - Google Patents
一种基于多尺度融合模块和特征增强的杂草检测方法 Download PDFInfo
- Publication number
- CN113657326A CN113657326A CN202110975117.1A CN202110975117A CN113657326A CN 113657326 A CN113657326 A CN 113657326A CN 202110975117 A CN202110975117 A CN 202110975117A CN 113657326 A CN113657326 A CN 113657326A
- Authority
- CN
- China
- Prior art keywords
- detection
- feature
- channel
- model
- weed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
一种基于多尺度融合模块和特征增强的杂草检测方法,对预处理的作物杂草的数据进行训练并评估SSD网络模型,针对SSD网络模型参数大,小目标检测效果差,作物与杂草检测精度低的问题进行改进,将轻量网络MobileNet作为SSD模型的特征提取网络,并设计了多尺度融合模块,将浅层特征图先通过通道注意力机制增强图像中的关键信息,再将特征图经过不同膨胀率大小的扩张卷积扩大感受野,最后将两条分支进行特征融合,让用于检测小目标的浅层特征图在包含较多小目标细节信息的同时,还可以包含丰富的语义信息;在此基础上对输出的特征图经过通道注意力机制进行特征增强;本发明针对自然环境下作物杂草数据集,可准确地检测出作物及杂草的类别及位置,同时模型对小目标作物与杂草,叶片交叠情况的检测能力均有提高,具有广阔的应用前景。
Description
技术领域
本发明涉及杂草检测技术领域,具体涉及一种基于多尺度融合模块和特征增强的杂草检测方法。
背景技术
杂草生长迅速、繁殖能力强,与作物争夺养分、阳光、空间和水,阻碍作物的正常生长,影响作物质量和产量,对农业生产造成不利影响。而对杂草喷洒农药,是农业领域常用的除草手段,其中,连续喷雾是目前采用的主要施药方式,但缺乏针对性,农药会均匀覆盖目标区域,无杂草区域喷施农药造成了农药的浪费,对环境造成污染,喷施在作物上的农药影响了作物品质。
随着科技的发展,深度学习技术在农业领域越来越广泛地被应用。Fawakherji等提出了将鲁棒性强的像素分割与基于卷积神经网络的有监督图像分类相结合,应用于向日葵田农业机器人获取的RGB图像,将图像中感兴趣区域分类为作物和杂草。Ferreira等通过超像素分割法预处理大豆与杂草图像,基于Caffe框架训练卷积神经网络,实现大豆农作物与杂草的检测识别,将特定的除草剂应用于不同的杂草,但是该模型的泛化性不高,涉及另一种类型的作物,几乎没有什么适应性。国内在杂草检测领域虽然起步较晚,研究较少,但也取得了较好的研究成果。孙俊等人针对典型的AlexNet网络进行改进,采用空洞卷积与全局池化相结合的方式,减少模型参数,使网络结构变得更宽,对不同作物的幼苗与杂草进行识别,具有较强的识别能力。王璨等人提出了基于卷积神经网络提取多尺度分层特征的玉米杂草识别方法,通过将多尺度分层特征与超像素分割相结合,提高了目标识别的准确性,但该特征提取模型所需的训练时间较长。孙哲等人提出一种基于Faster R-CNN的田间西兰花幼苗图像检测方法,通过对比ResNet50,ResNet101和VGG16网络分别作为特征提取网络,最终确定最优的特征提取网络ResetNet101,并通过优化网络超参数,提升检测效果,为智能除草作业中的作物识别提供了方向。但上述研究多采用更深或者更宽的网络,从而提升模型的检测精度,但也导致了模型参数规模大,检测速度慢,且上述研究都未对小尺寸作物与杂草问题进行研究。
发明内容
为了克服上述现有技术存在的缺陷,本发明的目的在于提供一种基于多尺度融合模块和特征增强的杂草检测方法,该方法在标准SSD网络基础上将轻量网络MobileNet作为特征提取网络,通过设计多尺度融合模块提升小目标检测效果,最后通过通道注意力机制进行通道权重重标定,对重要图像特征进行特征增强,从而提高杂草检测算法的检测效果,改善模型参数规模大、检测速度慢、小尺寸物体的检测效果差和杂草检测精度低的技术问题,具有广阔的应用前景。
为了达到上述目的,本发明采取的技术方案为:
一种基于多尺度融合模块和特征增强的杂草检测方法,具体包括以下步骤:
步骤一、数据预处理:包括图像标注、数据增强、划分数据集
选择自然环境中,从晴天干燥环境到阴天潮湿环境捕捉的不同天气和土壤条件下,公开的作物杂草的若干图像作为数据集;
1)图像标注:利用LabelImg图像标注工具对作物与杂草数据集进行标注,将每幅图像中的作物和杂草分别用矩形框框出来,并标明所属类别;
2)数据增强:通过颜色抖动、随机噪声和翻转对作物与杂草数据集进行扩充,增强模型的泛化能力;
3)划分数据集:将第2)步扩充得到的数据集划分为训练集及测试集,并将原始图片压缩为SSD网络默认的图像大小;
步骤二、训练并评估SSD网络模型
将步骤一第3)步处理完成的图像作为SSD网络模型的输入图像,并设置SSD网络模型的运行参数,在实验操作平台上对SSD网络模型进行训练,然后采用目标检测领域常用的评价标准对训练的SSD网络模型进行效果评估;
步骤三、针对步骤二评估进行SSD网络改进
1)替换特征提取网络
将SSD网络的特征提取网络替换为轻量网络MobileNet网络,减小网络模型参数规模;
2)设计多尺度融合模块
通过通道注意力机制SENet模块逐通道进行通道权重重标定,增强图像中的关键特征,并通过不同膨胀率大小的扩张卷积,充分获取目标的上下文信息,最后将多条分支的输出进行特征融合;
3)设计特征增强模型
SSD网络模型通过提取SSD网络默认的六个不同尺度的特征图来检测目标对象,基于此,利用SENet模块对用于目标检测的六个特征图进行通道特征权重分配,增强图像中的关键特征;
步骤四、训练改进SSD网络
将步骤一第3)步中经数据处理过的杂草图像作为步骤三中改进SSD网络的输入图像,并设置网络模型的运行参数,在实验操作平台上对步骤三改进的SSD网络模型进行训练,采用目标检测领域常用的评价标准对改进SSD的检测结果进行评估,若检测结果满意,则输出检测结果,若不满意,未解决SSD存在的问题,则重复上述步骤,调整参数,直至满意,并输出最终杂草检测结果。
所述步骤三第2)步的具体方法如下:
2.1)将用于检测小目标的图像经全局平均池化操作,即把每一个通道的图像的所有像素值相加求平均,得到一个数值,即用该数值表示对应通道的特征图,该数值具有全局的感受野;
2.2)通过全连接层FC和激活函数Sigmoid为第2.1)得到的每个通道生成权重,此时特征图为经过特征选择后的特征图;
2.3)reweight操作:通过乘法运算,将第2.2)步得到的权重逐通道加权到原始的图片的特征上,完成对原始特征的重标定,得到与原始图像大小相同,经通道信息强度重标定的特征图,达到增强特征的目的;
2.4)采用不同膨胀率大小的扩张卷积进行多尺度特征提取;扩张卷积能将卷积核扩张到膨胀系数所约束的尺度中,并将原卷积核中未被占用的区域填充为0,达到在卷积核的参数个数保持不变且不降低图像分辨率的情况下,感受野的大小随着膨胀系数的增加而增加;
其中,扩张卷积比普通卷积,增加了一个r参数,即rate,代表卷积核的膨胀系数;扩张卷积的计算方式为:
假设原始的卷积核大小为f,膨胀系数为r,则经过膨胀后卷积核的大小为f':
f'=r(f-1)+1 (1)
卷积核经过膨胀后的感受野大小为:
[(f+1)×(r-1)+f]×[(f+1)×(r-1)+f] (2)。
所述步骤三第3)步的具体方法如下:
3.1)sequeeze操作利用全局平均池化法(Global average pooling)将空间维度上每个二维通道特征图压缩为一个实数,使其具有全局感受野,在输出维度上与输入通道数相同;
3.2)exiciation操作通过全连接层FC和激活函数Sigmoid为每个特征通道生成权重;
3.3)reweight操作,通过乘法运算,将生成的权重逐通道加权到原始图片的特征上,完成在通道维度上对原始特征的重标定,得到与原特征图大小相同,经通道信息强度重标定的特征图,达到增强特征的目的。
所述步骤二、步骤四中网络模型的运行参数包括初始学习率,学习动量,权重衰减率,采用随机梯度下降法SGD更新网络参数。
所述步骤二、步骤四中目标检测领域常用的评价标准采用平均精确率(AveragePrecision,AP)和平均精确率均值(mean Average Precision,mAP)对杂草检测模型的检测效果进行评估;
平均精确率AP由召回率R与精确率P决定,是单个类别检测性能结果的直观标准,
式中,TP—正确检测出的目标对象数量;FP—错误检测的目标对象数量;FN—未检测出的目标对象数量;P—精确率(%);R—召回率(%);
平均精确率AP通过对精确率与召回率曲线进行积分得到,即PR曲线与坐标轴构成的面积;模型检测效果越好,平均精确率越高,其计算公式为
在得到多个单一类别AP值后,对其求平均值,得到mAP值,mAP值为所有类别平均精确率均值,通过mAP值衡量模型对所有类别的检测效果;
式中,N为数据集中待检测目标的类别数目。
所述步骤二、步骤四中的实验操作平台为Ubuntu 16.04系统,采用PyTorch深度学习框架,CPU型号为Intel(R)Xeon(R)E5-2678v3@2.5GHz,显卡(GPU)的型号为NVIDIAGeForce RTX 2080Ti,显卡内存11GB,编程语言为Python。
与现有技术相比,本发明有益效果为:
本文针对现有模型的不足,首先将轻量网络MobileNet作为SSD模型的特征提取网络,减少模型参数量,提升模型特征提取速度;针对小目标检测效果差的问题,设计了多尺度融合模块,通过通道注意力机制增强有用的通道信息,抑制无用的信息,并通过不同膨胀率大小的扩张卷积扩大浅层特征图的感受野;最后利用SENet模块对六个输出特征图做特征增强。
综上,本发明在标准SSD模型的基础上,通过改变模型特征提取网络,设计多尺度融合模块及对六个输出特征图进行特征增强,与现有的杂草检测算法相比,本发明提高了作物杂草检测精度,提升了检测速度,且对小目标作物和杂草、叶片交叠情况也具有较好的检测效果,证明本文模型可实现作物与杂草的快速准确检测,能够为精准农业的发展提供支持。
附图说明
图1为本发明的基于多尺度融合模块和特征增强的杂草检测模型图。
图2为本发明的LabelImg标注图。
图3为本发明的SENet模块操作示意图。
图4为本发明的多尺度融合模块图。
图5为本发明的特征增强结构图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细说明:
参见图1,一种基于多尺度融合模块和特征增强的杂草检测方法,具体包括以下步骤:
步骤一、数据预处理:包括图像标注、数据增强、划分数据集
1)图像标注:利用LabelImg图像标注工具对甜菜和杂草的数据集进行标注,将每幅图像中的甜菜和杂草分别用矩形框框出来,并标明所属类别,参见图2;
2)数据增强:通过颜色抖动、随机噪声和翻转对下载的数据集进行扩充,增强模型的泛化能力,扩充后的数据集数量为3321张;其中,颜色抖动的具体实现方式为将原始图像亮度提高10%,图像对比度提高20%;随机噪声是在原来图片基础上,随机叠加一些噪声;翻转操作为对原始图像进行水平翻转、垂直翻转或水平垂直翻转;
3)划分数据集:将扩充得到的数据集的80%作为训练集,20%作为测试集,并将原始图片压缩为300像素×300像素的图像,作为训练模型的输入;
步骤二、训练SSD网络:
将步骤一第3)步处理完成的图像作为SSD网络模型的输入图像,并设置SSD网络模型的运行参数,在实验操作平台上对SSD网络模型进行训练,然后采用目标检测领域常用的评价标准对SSD网络模型的训练进行效果评估,SSD网络模型存在的问题包括:参数量多导致模型实时性差、对小尺寸作物和杂草检测存在的漏检误检现象以及作物与杂草检测出的精度值低的问题;
步骤三、针对步骤二评估进行SSD网络改进
1)替换特征提取网络:
将标准SSD网络的特征提取网络替换为轻量网络MobileNet网络,减小网络模型参数规模;
2)设计多尺度融合模块:
参见图3、图4,通过通道注意力机制SENet逐通道进行通道权重重标定,增强图像中的关键特征,并通过不同膨胀率大小的扩张卷积扩大浅层特征图感受野,充分获取目标的上下文信息,最后将多条分支的输出进行特征融合,具体方法如下:
2.1)将用于检测小目标的19×19×512大小的特征图经全局平均池化操作,即把每一个通道的特征图的所有像素值相加求平均,得到一个数值,即用该数值表示对应通道的特征图,则该数值具有全局的感受野,感受区域更广,此时特征图大小为1×1×512;
2.2)通过全连接层FC和激活函数Sigmoid为每个特征通道生成权重,此时特征图为经过特征选择后的大小为1×1×512的特征图;
2.3)reweight操作,通过乘法运算,将得到的权重逐通道加权到原始的图片的特征上,完成在通道维度上对原始特征的重标定,得到与原特征图大小相同,经通道信息强度重标定的19×19×512的特征图,达到增强特征的目的;
2.4)采用不同膨胀率大小的扩张卷积进行多尺度特征提取;扩张卷积能将卷积核扩张到膨胀系数所约束的尺度中,并将3×3大小的原卷积核中未被占用的区域填充为0,这样就可在卷积核的参数个数保持不变且不降低图像分辨率的情况下,使感受野的大小随着膨胀系数的增加而增加;
所述扩张卷积为一种特殊的卷积,相比普通卷积,其增加了一个r参数,其中r就是rate,代表卷积核的膨胀系数;扩张卷积的计算方式为:
假设原始的卷积核大小为f,膨胀系数为r,则经过膨胀后卷积核的大小为f':
f'=r(f-1)+1 (1)
卷积核经过膨胀后的感受野大小为:
[(f+1)×(r-1)+f]×[(f+1)×(r-1)+f] (2)
采用3×3大小的卷积核,使用膨胀率为2和4的扩张卷积对输入图像进行采样,得到丰富的图像上下文信息,并将两条分支的输出进行特征融合,得到新的特征图,新特征图的大小保持不变,通道数从原来的512变为1024。
3)设计特征增强模型
参见图5,SSD网络模型通过提取六个不同尺度的特征图来检测目标对象,基于此,利用SENet模块对用于目标检测的六个特征图进行通道特征权重分配,增强图像中的关键特征,使提取的特征更具方向性,从而提高作物和杂草模型检测精度,具体方法如下:
3.1)sequeeze操作利用全局平均池化法(Global average pooling)将空间维度上每个二维通道特征图压缩为一个实数,使其具有全局感受野,在输出维度上与输入通道数相同;
3.2)exiciation操作通过全连接层FC和激活函数Sigmoid为每个特征通道生成权重;
3.3)reweight操作,通过乘法运算,将生成的权重逐通道加权到原始图片的特征上,完成在通道维度上对原始特征的重标定,得到与原特征图大小相同,经通道信息强度重标定的特征图,达到增强特征的目的;
步骤四、训练改进SSD网络:
将步骤一中经数据处理过的杂草图像作为步骤三中改进SSD网络模型的输入图像,并设置网络模型的运行参数,在实验操作平台上对改进SSD模型进行训练,采用目标检测领域常用的评价标准对改进SSD的检测结果进行评估,最后检测精度提高了3.23%,参数规模降低了57.09%,检测速度提高了88.44%,对小目标作物和杂草、叶片交叠情况也具有较好的检测效果。
所述步骤二、步骤四中网络模型的运行参数为:初始学习率为0.001,采用随机梯度下降法SGD更新网络参数,学习动量为0.9,权重衰减率为0.0005。
所述步骤二、步骤四实验操作平台为Ubuntu 16.04系统,采用PyTorch深度学习框架,CPU型号为Intel(R)Xeon(R)E5-2678v3@2.5GHz,显卡(GPU)的型号为NVIDIA GeForceRTX 2080Ti,显卡内存11GB,编程语言为Python。
所述步骤二、步骤四中目标检测领域常用的评价标准采用平均精确率(AveragePrecision,AP)和平均精确率均值(mean Average Precision,mAP)对杂草检测模型的检测效果进行评估,AP和mAP是目标检测领域中最常用的模型评价指标。
平均精确率AP由召回率R(Recall)与精确率P(Precision)决定,是单个类别检测性能结果的直观标准。
式中,TP—正确检测出的目标对象数量;FP—错误检测的目标对象数量;FN—未检测出的目标对象数量;P—精确率(%);R—召回率(%)。
平均精确率AP通过对精确率与召回率曲线进行积分得到,即PR曲线与坐标轴构成的面积。模型检测效果越好,平均精确率越高,其计算公式为
在得到多个单一类别AP值后,对其求平均值,得到mAP值。mAP值为所有类别平均精确率均值,通过mAP值衡量模型对所有类别的检测效果。
式中,N为数据集中待检测目标的类别数目,本实验中N=2,即作物和杂草。
本发明将提出的基于多尺度融合模块和特征增强的杂草检测方法与标准SSD模型在甜菜和杂草数据集中进行验证,结果表明,本发明提高了作物及杂草的检测精度,提升了模型检测速度,其中,检测精度提高了3.23%,参数规模降低了57.09%,检测速度提高了88.44%,且对小目标作物和杂草,叶片交叠情况也具有较好的检测效果,证明本发明模型可实现作物与杂草的快速准确检测,能够为精准农业的发展提供支持。实验结果如下表所示。
Claims (6)
1.一种基于多尺度融合模块和特征增强的杂草检测方法,其特征在于,具体包括以下步骤:
步骤一、数据预处理:包括图像标注、数据增强、划分数据集
选择自然环境中,从晴天干燥环境到阴天潮湿环境捕捉的不同天气和土壤条件下,公开的作物杂草的若干图像作为数据集;
1)图像标注:利用LabelImg图像标注工具对作物与杂草数据集进行标注,将每幅图像中的作物和杂草分别用矩形框框出来,并标明所属类别;
2)数据增强:通过颜色抖动、随机噪声和翻转对作物与杂草数据集进行扩充,增强模型的泛化能力;
3)划分数据集:将第2)步扩充得到的数据集划分为训练集及测试集,并将原始图片压缩为SSD网络默认的图像大小;
步骤二、训练并评估SSD网络模型
将步骤一第3)步处理完成的图像作为SSD网络模型的输入图像,并设置SSD网络模型的运行参数,在实验操作平台上对SSD网络模型进行训练,然后采用目标检测领域常用的评价标准对训练的SSD网络模型进行效果评估,SSD网络模型存在的问题包括:参数量多导致模型实时性差、对小尺寸作物和杂草检测存在的漏检误检现象以及作物与杂草检测出的精度值低的问题;
步骤三、针对步骤二评估进行SSD网络改进
1)替换特征提取网络
将SSD网络的特征提取网络替换为轻量网络MobileNet网络,减小网络模型参数规模;
2)设计多尺度融合模块
通过通道注意力机制SENet模块逐通道进行通道权重重标定,增强图像中的关键特征,并通过不同膨胀率大小的扩张卷积,充分获取目标的上下文信息,最后将多条分支的输出进行特征融合;
3)设计特征增强模型
SSD网络模型通过提取SSD网络默认的六个不同尺度的特征图来检测目标对象,基于此,利用SENet模块对用于目标检测的六个特征图进行通道特征权重分配,增强图像中的关键特征;
步骤四、训练改进SSD网络:
将步骤一第3)步中经数据处理过的杂草图像作为步骤三中改进SSD网络的输入图像,并设置网络模型的运行参数,在实验操作平台上对步骤三改进的SSD网络模型进行训练,采用目标检测领域常用的评价标准对改进SSD的检测结果进行评估,若检测结果满意,则输出检测结果,若不满意,未解决SSD存在的问题,则重复上述步骤,调整参数,直至满意,并输出最终杂草检测结果。
2.根据权利要求1所述的一种基于多尺度融合模块和特征增强的杂草检测方法,其特征在于,所述步骤三第2)步的具体方法如下:
2.1)将用于检测小目标的图像经全局平均池化操作,即把每一个通道的图像的所有像素值相加求平均,得到一个数值,即用该数值表示对应通道的特征图,该数值具有全局的感受野;
2.2)通过全连接层FC和激活函数Sigmoid为第2.1)得到的每个通道生成权重,此时特征图为经过特征选择后的特征图;
2.3)reweight操作:通过乘法运算,将第2.2)步得到的权重逐通道加权到原始的图片的特征上,完成对原始特征的重标定,得到与原始图像大小相同,经通道信息强度重标定的特征图,达到增强特征的目的;
2.4)采用不同膨胀率大小的扩张卷积进行多尺度特征提取;扩张卷积能将卷积核扩张到膨胀系数所约束的尺度中,并将原卷积核中未被占用的区域填充为0,达到在卷积核的参数个数保持不变且不降低图像分辨率的情况下,感受野的大小随着膨胀系数的增加而增加;
其中,扩张卷积比普通卷积,增加了一个r参数,即rate,代表卷积核的膨胀系数;扩张卷积的计算方式为:
假设原始的卷积核大小为f,膨胀系数为r,则经过膨胀后卷积核的大小为f':
f'=r(f-1)+1 (1)
卷积核经过膨胀后的感受野大小为:
[(f+1)×(r-1)+f]×[(f+1)×(r-1)+f] (2)。
3.根据权利要求1所述的一种基于多尺度融合模块和特征增强的杂草检测方法,其特征在于,所述步骤三第3)步的具体方法如下:
3.1)sequeeze操作利用全局平均池化法(Global average pooling)将空间维度上每个二维通道特征图压缩为一个实数,使其具有全局感受野,在输出维度上与输入通道数相同;
3.2)exiciation操作通过全连接层FC和激活函数Sigmoid为每个特征通道生成权重;
3.3)reweight操作,通过乘法运算,将生成的权重逐通道加权到原始图片的特征上,完成在通道维度上对原始特征的重标定,得到与原特征图大小相同,经通道信息强度重标定的特征图,达到增强特征的目的。
4.根据权利要求1所述的一种基于多尺度融合模块和特征增强的杂草检测方法,其特征在于,所述步骤二、步骤四中网络模型的运行参数包括初始学习率,学习动量,权重衰减率,采用随机梯度下降法SGD更新网络参数。
5.根据权利要求1所述的一种基于多尺度融合模块和特征增强的杂草检测方法,其特征在于,所述步骤二、步骤四中目标检测领域常用的评价标准采用平均精确率(AveragePrecision,AP)和平均精确率均值(mean Average Precision,mAP)对杂草检测模型的检测效果进行评估;
平均精确率AP由召回率R与精确率P决定,是单个类别检测性能结果的直观标准,
式中,TP—正确检测出的目标对象数量;FP—错误检测的目标对象数量;FN—未检测出的目标对象数量;P—精确率(%);R—召回率(%);
平均精确率AP通过对精确率与召回率曲线进行积分得到,即PR曲线与坐标轴构成的面积;模型检测效果越好,平均精确率越高,其计算公式为
在得到多个单一类别AP值后,对其求平均值,得到mAP值,mAP值为所有类别平均精确率均值,通过mAP值衡量模型对所有类别的检测效果;
式中,N为数据集中待检测目标的类别数目。
6.根据权利要求1所述的一种基于多尺度融合模块和特征增强的杂草检测方法,其特征在于,所述步骤二、步骤四中的实验操作平台为Ubuntu 16.04系统,采用PyTorch深度学习框架,CPU型号为Intel(R)Xeon(R)E5-2678 v3@2.5GHz,显卡(GPU)的型号为NVIDIAGeForce RTX 2080Ti,显卡内存11GB,编程语言为Python。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110975117.1A CN113657326A (zh) | 2021-08-24 | 2021-08-24 | 一种基于多尺度融合模块和特征增强的杂草检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110975117.1A CN113657326A (zh) | 2021-08-24 | 2021-08-24 | 一种基于多尺度融合模块和特征增强的杂草检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113657326A true CN113657326A (zh) | 2021-11-16 |
Family
ID=78481813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110975117.1A Withdrawn CN113657326A (zh) | 2021-08-24 | 2021-08-24 | 一种基于多尺度融合模块和特征增强的杂草检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113657326A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114298187A (zh) * | 2021-12-20 | 2022-04-08 | 西南交通大学 | 一种融合改进注意力机制的目标检测算法 |
CN114612770A (zh) * | 2022-03-21 | 2022-06-10 | 贵州大学 | 基于卷积神经网络的物品检测方法 |
CN115272700A (zh) * | 2022-08-03 | 2022-11-01 | 河南大学 | 基于多尺度特征自增强的改进ssd小目标检测方法 |
CN115690704A (zh) * | 2022-09-27 | 2023-02-03 | 淮阴工学院 | 基于LG-CenterNet模型的复杂道路场景目标检测方法及装置 |
WO2023169582A1 (zh) * | 2022-03-11 | 2023-09-14 | 北京字跳网络技术有限公司 | 图像增强方法、装置、设备及介质 |
CN117612029A (zh) * | 2023-12-21 | 2024-02-27 | 石家庄铁道大学 | 一种基于渐进特征平滑和尺度适应性膨胀卷积的遥感图像目标检测方法 |
-
2021
- 2021-08-24 CN CN202110975117.1A patent/CN113657326A/zh not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114298187A (zh) * | 2021-12-20 | 2022-04-08 | 西南交通大学 | 一种融合改进注意力机制的目标检测算法 |
CN114298187B (zh) * | 2021-12-20 | 2023-08-29 | 西南交通大学 | 一种融合改进注意力机制的目标检测方法 |
WO2023169582A1 (zh) * | 2022-03-11 | 2023-09-14 | 北京字跳网络技术有限公司 | 图像增强方法、装置、设备及介质 |
CN114612770A (zh) * | 2022-03-21 | 2022-06-10 | 贵州大学 | 基于卷积神经网络的物品检测方法 |
CN114612770B (zh) * | 2022-03-21 | 2024-02-20 | 贵州大学 | 基于卷积神经网络的物品检测方法 |
CN115272700A (zh) * | 2022-08-03 | 2022-11-01 | 河南大学 | 基于多尺度特征自增强的改进ssd小目标检测方法 |
CN115272700B (zh) * | 2022-08-03 | 2023-06-02 | 河南大学 | 基于多尺度特征自增强的改进ssd小目标检测方法 |
CN115690704A (zh) * | 2022-09-27 | 2023-02-03 | 淮阴工学院 | 基于LG-CenterNet模型的复杂道路场景目标检测方法及装置 |
CN115690704B (zh) * | 2022-09-27 | 2023-08-22 | 淮阴工学院 | 基于LG-CenterNet模型的复杂道路场景目标检测方法及装置 |
CN117612029A (zh) * | 2023-12-21 | 2024-02-27 | 石家庄铁道大学 | 一种基于渐进特征平滑和尺度适应性膨胀卷积的遥感图像目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113657326A (zh) | 一种基于多尺度融合模块和特征增强的杂草检测方法 | |
Zheng et al. | Segmentation of green vegetation of crop canopy images based on mean shift and fisher linear discriminant | |
CN112446388A (zh) | 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及系统 | |
CN111259898A (zh) | 基于无人机航拍图像的农作物分割方法 | |
CN111340141A (zh) | 一种基于深度学习的作物幼苗与杂草检测方法及系统 | |
CN113887517B (zh) | 基于并行注意力机制的农作物遥感图像语义分割方法 | |
CN109740483A (zh) | 一种基于深层神经网络的水稻生长期检测方法 | |
CN113392748B (zh) | 一种基于卷积神经网络的遥感影像耕地信息提取方法 | |
CN113222991A (zh) | 基于深度学习网络的田间麦穗计数以及小麦产量预测 | |
CN113298023B (zh) | 一种基于深度学习及图像技术的昆虫动态行为识别方法 | |
Zhao et al. | A detection method for tomato fruit common physiological diseases based on YOLOv2 | |
CN112633257A (zh) | 基于改良卷积神经网络的马铃薯病害识别方法 | |
Zhang et al. | An algorithm for automatic identification of multiple developmental stages of rice spikes based on improved Faster R-CNN | |
CN113435254A (zh) | 一种基于哨兵二号影像的耕地深度学习提取方法 | |
CN115331104A (zh) | 一种基于卷积神经网络的农作物种植信息提取方法 | |
CN114841961B (zh) | 基于图像增强和改进YOLOv5的小麦赤霉病检测方法 | |
CN116543282A (zh) | 基于多尺度融合与CBAM-ResNet50的农作物病害分割方法、系统、设备及介质 | |
CN113469122A (zh) | 基于深度学习作物时空泛化分类方法及系统 | |
CN117611996A (zh) | 基于深度特征融合的葡萄种植区遥感影像变化检测方法 | |
Zhang et al. | Application of convolution neural network algorithm based on intelligent sensor network in target recognition of corn weeder at seedling stage | |
CN116740337A (zh) | 一种红花采摘点识别定位方法及采摘系统 | |
CN116563205A (zh) | 基于小目标检测和改进YOLOv5的麦穗计数检测方法 | |
CN110705698A (zh) | 尺度自适应感知的目标计数深度网络设计方法 | |
CN113643248B (zh) | 一种基于改进卷积神经网络的小麦生育进程监测方法 | |
CN114972264A (zh) | 一种基于MS-PLNet模型绿豆叶斑病识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20211116 |
|
WW01 | Invention patent application withdrawn after publication |