CN115641575A - 一种基于稀疏候选框的叶蝉科农业害虫检测方法 - Google Patents

一种基于稀疏候选框的叶蝉科农业害虫检测方法 Download PDF

Info

Publication number
CN115641575A
CN115641575A CN202211300394.3A CN202211300394A CN115641575A CN 115641575 A CN115641575 A CN 115641575A CN 202211300394 A CN202211300394 A CN 202211300394A CN 115641575 A CN115641575 A CN 115641575A
Authority
CN
China
Prior art keywords
neural network
leafhopper
interest
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211300394.3A
Other languages
English (en)
Inventor
刘宁钟
徐亚欣
周继兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Ruishengda Technology Co ltd
Original Assignee
Nanjing Ruishengda Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Ruishengda Technology Co ltd filed Critical Nanjing Ruishengda Technology Co ltd
Priority to CN202211300394.3A priority Critical patent/CN115641575A/zh
Publication of CN115641575A publication Critical patent/CN115641575A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种基于稀疏候选框的叶蝉科农业害虫检测方法,包括:根据IP102中的原始数据,按照VOC的格式制作叶蝉科虫数据集;之后,通过多尺度特征提取,分别获取含有高层语义信息与低层细节信息的特征图,并将其依次融合,得到特征图;采用感兴趣生成网络在特征图上生成感兴趣区域,并提取感兴趣区域中的特征;生成建议特征,将步感兴趣区域、步骤S3生成的感兴趣区域特征图进行一一对应,并交互产生最终的目标特征图;利用L1和DIOU控制回归损失,FocalLoss控制分类损失;以此实现叶蝉科虫的检测。本发明解决了目前叶蝉科虫因形态各异、背景复杂导致的识别准确度低的问题,能够提高对叶蝉科虫检测的准确率。

Description

一种基于稀疏候选框的叶蝉科农业害虫检测方法
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种基于稀疏候选框的叶蝉科农业害虫检测方法。
背景技术
在病虫害识别领域,国内外的研究者越来越倾向使用计算机视觉方法进行识别,并且在病虫害的分类、病虫害的检测与计数以及病虫害检测的实际应几方面已经取得了不错的进展。
针对分类问题,Rothe等人在棉花叶片病害的分类工作中,设计了一种从数字图像中提取叶片症状来进行自动分类的方法。该方法将图像的颜色和形状特征作为判别依据,使用大津阈值分割技术抽取这些特征,随后利用支持向量机根据提取到的信息对其分类。实验结果显示,该系统可有效对三种类型的病害叶片进行分类。Alfarisy等人基于印度尼西亚病虫害威胁水稻生产的状况,创建了一个水稻图像数据集来同时检测水稻病虫害,以解决水稻病虫害的准确检测问题。这篇论文收集了包含4511张图像的数据集。该数据集可识别13种水稻病虫害,其中9种为水稻虫害,4种为水稻病害。该方法利用深度学习对印度尼西亚稻田病虫害进行分类,选择Caffe框架进行处理,并使用预先训练的权重文件,实验结果准确率达到87%。然而它只能对病害进行分类,不能检测病害的数量和位置。
在检测方面,Ding等人提出了一个基于深度学习的自动检测管道,用于对田间陷阱内拍摄的图像中的害虫进行识别和计数,该方法应用于一个商业鳕鱼蛾数据集,在定性和定量分析上都显示出很好的性能。与以前的害虫检测工作相比,该方法并不仅仅针对特定的害虫任务,这使得它在应用到其他物种和环境检测时,只需要较少的人工调整。并且,它适合于在并行硬件环境上部署,因此能够满足需要实时性能的场景。董伟等人分别提出了基于深度卷积神经网络的识别模型和检测计数模型,用于在田间快速准确地对目标害虫进行自动识别和检测计数。针对菜粉蝶、棉铃虫、甜菜夜蛾、小菜蛾、斜纹夜蛾这5种常见且容易混淆的蔬菜鳞翅目害虫,构建了分类识别数据集和检测计数数据集,平均识别率达到94.5%,平均均值精度达到76.6%,与传统方法相比有了明显的提升。
Jian Chen等人提出了一种利用卷积神经网络对蚜虫若虫进行分割和计数的方法。获取了小白菜不同蚜虫侵染阶段叶片的数字图像之后,再对应像素级手动标注二值掩膜,将每个像素分别标识为蚜虫(白色)或背景(黑色)。分割后,他们简单地将连接的白色成分的数量计算为每幅图像中蚜虫若虫的数量。自动计数结果显示准确度达到95.63%,召回率达到96.50%,但他们的方法在病变的叶子、老蚜虫外骨骼、复杂的光照条件下没能取得好的结果。Mishraetal等人发现现有的系统都会因照明、背景干扰、不同的捕捉设备以及害虫部分被遮挡而出现错误分类。这种错误分类可能导致巨大的经济损失。为了缓解这种情况,他们提出了一个架构,在上述场景下使用形态学和骨架化方法以及神经网络作为分类器,提供高分类精度。该方法将水稻作为一个用例,因为它是印度几乎所有人口的主食谷物,与其他粮食相比,水稻需要的杀虫剂用量最大。实验结果显示,该方法比现有的害虫检测方法具有更好的分类精度,并通过图像数据集测试了该架构的性能。此外,该公司推出了一个害虫识别系统,可以对田间的害虫进行分类。与其他流行的分类器相比,如支持向量机、朴素贝叶斯等,它具备了更好更快的识别结果。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于稀疏候选框的叶蝉科农业害虫检测方法,能够解决目前叶蝉科虫识别准确度低、模型健壮性差的问题。
本发明采用的技术方案如下:
步骤1,制作叶蝉科虫图像数据集,划分为训练集、验证集、测试集;
步骤2,通过四个尺度特征提取,分别获取含有高层语义信息与低层细节信息的特征图,并进行融合;
步骤3,利用神经网络联合生成感兴趣区域,并提取感兴趣区域中的特征,得到感兴趣区域特征图;
步骤4,生成建议特征,和步骤3生成的感兴趣区域及感兴趣区域特征图进行一一对应,并交互产生最终的目标特征图;
步骤5,对神经网络模型进行训练和验证,并对神经网络模型所有阶段的参数进行更新;
步骤6,进行位置和分类的预测。
步骤1包括:
编写脚本文件从IP102数据集中读取原始的叶蝉科虫图像的文件名并提取相应图像;
读取与叶蝉科图像同名的标注文件,并提取相应标注文件;
将提取的图像及标注文件制作成VOC格式数据集,划分为训练集、验证集、测试集。
步骤2包括:
步骤2-1,将叶蝉科虫图像输入到卷积神经网络,经过神经网络四个尺度对应的四个阶段的卷积操作,得到每一阶段的特征图,不同的尺度可以分别在应对不同种类、不同发育阶段、形态大小各异的叶蝉科虫有较好的检测效果;
步骤2-2,采用步骤2-1中四个阶段的特征图将相邻两个阶段的特征图依次进行特征融合,得到含有高层语义信息与低层细节信息的整张图像的高分辨率的特征图。
步骤3包括:
步骤3-1,采用可学习的目标候选框征,从神经网络模型在步骤2-2得到的特征图中提取数量稀疏的感兴趣区域,感兴趣区域是指图像中可能出现目标物体的位置,保留感兴趣区域的浮点数,将感兴趣区域平均划分为N个小区域(N取值一般为49),并保留浮点数;
步骤3-2,将49个小区域中的每一个小区域都平分为两等份,每份取其中心点位置,采用双线性插值法进行计算分别得到两等份的中心点位置的像素;
步骤3-3,取两等份的中心点位置的像素中最大值作为小区域的像素值,从而得到49个小区域的49个像素值,组成M*M(本发明中取值为7*7)大小的特征图,作为感兴趣区域特征图。
步骤4包括:
步骤4-1,将自注意力机制应用于建议特征产生后续卷积核的参数(建议特征是Sparse rcnn中的现有技术生成的);
步骤4-2,对建议特征对应的感兴趣区域特征进行两个连续的1*1卷积,过滤掉叶蝉科虫图像感兴趣区域里和叶蝉科虫本身无关的背景区域特征,生成新的目标特征图,减少背景中纹理、颜色等信息对检测的干扰,卷积核的参数由步骤4-1提供。
步骤5包括:
采用机器学习中的监督学习方法在训练集、验证集上分别进行训练和验证,在训练时,采用聚焦损失函数FocalLoss和平滑后的最小绝对值偏差范式损失函数SmoothL1、Distance Intersection over Union(DIOU)阈值评估各个位置预测框分类和回归结果,具体是采用聚焦损失函数FocalLoss对神经网络模型检测目标的类别能力进行提升,采用最小绝对值偏差范式损失函数SmoothL1、DIOU阈值对神经网络模型生成目标框的能力进行提升,利用各部分损失函数的值对模型进行反向传播更新,在更新过程中不固定神经网络模型的某一个阶段,对所有部分参数均进行更新;
总损失函数
Figure BDA0003904393270000041
表达式如下:
Figure BDA0003904393270000042
其中
Figure BDA0003904393270000043
为预测分类与真实类别标签的聚焦损失,
Figure BDA0003904393270000044
为归一化中心坐标和真实边界框的SmoothL1损失,
Figure BDA0003904393270000045
为预测边界框宽高和真是边界框的交并比损失,λcls、λL1
Figure BDA0003904393270000046
是各分量的系数;
Figure BDA0003904393270000047
公式如下:
Figure BDA0003904393270000048
其中y为真实目标,
Figure BDA0003904393270000049
为预测结果,i表示目标的编号,m是目标的总数,y(i)为第i个真实目标,
Figure BDA00039043932700000410
为第i个预测结果;
Figure BDA00039043932700000411
公式如下:
Figure BDA00039043932700000412
其中,IoU是交并比,是目标检测中最常用的指标;b,bgt分别表示预测框的中心点和真实框的中心点,ρ表示预测框的中心点和真实框的中心点之间的欧式距离;c表示能够同时包含预测框和真实框的最小闭包区域的对角线距离。
步骤5中,所述采用机器学习中的监督学习方法在训练集进行训练,是指将主干网络中固定的第一阶段网络也进行训练,利用最小绝对值偏差范式函数SmoothL1、DIOU阈值用于控制神经网络模型的回归,聚焦损失函数FocalLoss控制神经网络模型的分类,根据损失函数的值反向传播,更新网络结构参数。
步骤6中,将一个三层感知机和一个全连接层应用于测试集中图像的目标特征图分别进行位置和分类的预测。
有益效果:本发明方法改进了损失函数,能有效加强神经网络模型回归能力,加快网络收敛速度,提升叶蝉科虫检测的准确率;在训练过程对网络的每一结构都进行训练更新,能增强神经网络模型的检测性能。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和或其他方面的优点将会变得更加清楚。
图1是本发明具体实施叶蝉科虫检测方法的流程框图。
图2是本发明实施例中的检测结果图。
具体实施方式
如图1所示,本发明提供了一种基于稀疏候选框的叶蝉科农业害虫检测方法,包括以下步骤:
步骤1,制作叶蝉科虫图像数据集,划分为训练集、验证集、测试集;
步骤2,通过四个尺度特征提取,分别获取含有高层语义信息与低层细节信息的特征图,并进行融合;
步骤3,利用神经网络联合生成感兴趣区域,并提取感兴趣区域中的特征,得到感兴趣区域特征图;
步骤4,生成建议特征,和步骤3生成的感兴趣区域及感兴趣区域特征图进行一一对应,并交互产生最终的目标特征图;
步骤5,对神经网络模型进行训练和验证,并对神经网络模型所有阶段的参数进行更新;
步骤6,进行位置和分类的预测。
在本实施例中,具体采用以下技术方案:
步骤1中,在IP102数据集中筛选需要的叶蝉科虫图像及其标注文件共1000组,按照训练集、验证集、测试集7:2:1的比例划分数据集,生成相应的txt文件,并制作成VOC格式;
步骤2具体包括:
步骤2-1,将叶蝉科虫图像输入到卷积神经网络,经过神经网络四个尺度对应的四个阶段的卷积操作,得到每一阶段尺寸大小不同的特征图(参考文献是Feature PyramidNetworks for Object Detection);
步骤2-2,采用步骤2-1中四个阶段的特征图将相邻两个阶段的特征图依次进行特征融合,得到含有高层语义信息与低层细节信息的整张图像的高分辨率的特征图(参考文献是Feature Pyramid Networks for Object Detection)。
步骤3包括:
步骤3-1,采用可学习的目标候选框征,从神经网络模型在步骤2-2得到的特征图中提取数量稀疏的感兴趣区域,感兴趣区域是指图像中可能出现目标物体的位置,保留感兴趣区域的浮点数,将感兴趣区域平均划分为N个小区域(N取值一般为49),并保留浮点数(参考文献是Sparse R-CNN:End-to-End Object Detection with LearnableProposals);
步骤3-2,将49个小区域中的每一个小区域都平分为两等份,每份取其中心点位置,采用双线性插值法进行计算分别得到两等份的中心点位置的像素(参考文献是MASK-RCNN);
步骤3-3,取两等份的中心点位置的像素中最大值作为小区域的像素值,从而得到49个小区域的49个像素值,组成M*M(本发明中取值为7*7)大小的特征图,作为感兴趣区域特征图(参考文献是MASK-RCNN)。
步骤4包括:
步骤4-1,将自注意力机制应用于建议特征产生后续卷积核的参数(建议特征是Sparse rcnn中的现有技术生成的);
步骤4-2,对建议特征对应的感兴趣区域特征进行两个连续的1*1卷积,生成新的目标特征图,卷积核的参数由步骤4-1提供(参考文献是Sparse R-CNN:End-to-End ObjectDetection with Learnable Proposals)。
步骤5包括:
采用机器学习中的监督学习方法在训练集、验证集上分别进行训练和验证,在训练时,采用聚焦损失函数FocalLoss和平滑后的最小绝对值偏差范式损失函数SmoothL1、Distance Intersection over Union(DIOU)阈值评估各个位置预测框分类和回归结果,具体是采用聚焦损失函数FocalLoss对神经网络模型检测目标的类别能力进行提升,采用最小绝对值偏差范式损失函数SmoothL1、DIOU阈值对神经网络模型生成目标框的能力进行提升,利用各部分损失函数的值对模型进行反向传播更新,在更新过程中不固定神经网络模型的某一个阶段,对所有部分参数均进行更新;
总损失函数
Figure BDA0003904393270000071
表达式如下:
Figure BDA0003904393270000072
其中
Figure BDA0003904393270000073
为预测分类与真实类别标签的聚焦损失,
Figure BDA0003904393270000074
为归一化中心坐标和真实边界框的SmoothL1损失,
Figure BDA0003904393270000075
为预测边界框宽高和真是边界框的交并比损失,λcls、λL1
Figure BDA0003904393270000076
是各分量的系数;
Figure BDA0003904393270000077
公式如下:
Figure BDA0003904393270000078
其中y为真实目标,
Figure BDA0003904393270000079
为预测结果,i表示目标的编号,m是目标的总数,y(i)为第i个真实目标,
Figure BDA00039043932700000710
为第i个预测结果;
Figure BDA00039043932700000711
公式如下:
Figure BDA0003904393270000081
其中,IoU是交并比,是目标检测中最常用的指标;b,bgt分别表示预测框的中心点和真实框的中心点,ρ表示预测框的中心点和真实框的中心点之间的欧式距离;c表示能够同时包含预测框和真实框的最小闭包区域的对角线距离。
步骤5中,所述采用机器学习中的监督学习方法在训练集进行训练,是指将主干网络中固定的第一阶段网络也进行训练,利用最小绝对值偏差范式函数SmoothL1、DIOU阈值用于控制神经网络模型的回归,聚焦损失函数FocalLoss控制神经网络模型的分类,根据损失函数的值反向传播,更新网络结构参数。
步骤6中,将一个三层感知机和一个全连接层应用于测试集中图像的目标特征图分别进行位置和分类的预测。
图2为叶蝉科虫图像和使用本发明方法的检测结果,经检验,上述方法可达到97.2%的检测精确度,图中数字101代表叶蝉科虫这一种类,0.94表示该目标是叶蝉科种类的置信度。
具体实现中,本申请提供计算机存储介质以及对应的数据处理单元,其中,该计算机存储介质能够存储计算机程序,所述计算机程序通过数据处理单元执行时可运行本发明提供的一种基于稀疏候选框的叶蝉科农业害虫检测方法的发明内容以及各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,ROM)或随机存储记忆体(random access memory,RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术方案可借助计算机程序以及其对应的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机程序即软件产品的形式体现出来,该计算机程序软件产品可以存储在存储介质中,包括若干指令用以使得一台包含数据处理单元的设备(可以是个人计算机,服务器,单片机。MUU或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本发明提供了一种基于稀疏候选框的叶蝉科农业害虫检测方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (8)

1.一种基于稀疏候选框的叶蝉科农业害虫检测方法,包括以下步骤:
步骤1,制作叶蝉科虫图像数据集,划分为训练集、验证集、测试集;
步骤2,通过四个尺度特征提取,分别获取含有高层语义信息与低层细节信息的特征图,并进行融合;
步骤3,利用神经网络联合生成感兴趣区域,并提取感兴趣区域中的特征,得到感兴趣区域特征图;
步骤4,生成建议特征,和步骤3生成的感兴趣区域及感兴趣区域特征图进行一一对应,并交互产生最终的目标特征图;
步骤5,对神经网络模型进行训练和验证,并对神经网络模型所有阶段的参数进行更新;
步骤6,进行位置和分类的预测。
2.根据权利要求1所述的方法,其特征在于,步骤1包括:
从IP102数据集中读取原始的叶蝉科虫图像的文件名并提取相应图像;
读取与叶蝉科图像同名的标注文件,并提取相应标注文件;
将提取的图像及标注文件制作成VOC格式数据集,划分为训练集、验证集、测试集。
3.根据权利要求2所述的方法,其特征在于,步骤2包括:
步骤2-1,将叶蝉科虫图像输入到卷积神经网络,经过神经网络四个尺度对应的四个阶段的卷积操作,得到每一阶段的特征图;
步骤2-2,采用步骤2-1中四个阶段的特征图将相邻两个阶段的特征图依次进行特征融合,得到含有高层语义信息与低层细节信息的整张图像的高分辨率的特征图。
4.根据权利要求3所述的方法,其特征在于,步骤3包括:
步骤3-1,采用可学习的目标候选框征,从神经网络模型在步骤2-2得到的特征图中提取数量稀疏的感兴趣区域,感兴趣区域是指图像中可能出现目标物体的位置,保留感兴趣区域的浮点数,将感兴趣区域平均划分为N个小区域,并保留浮点数;
步骤3-2,将N个小区域中的每一个小区域都平分为两等份,每份取其中心点位置,采用双线性插值法进行计算分别得到两等份的中心点位置的像素;
步骤3-3,取两等份的中心点位置的像素中最大值作为小区域的像素值,从而得到N个小区域的N个像素值,组成M*M大小的特征图,作为感兴趣区域特征图。
5.根据权利要求4所述的方法,其特征在于,步骤4包括:
步骤4-1,将自注意力机制应用于建议特征产生后续卷积核的参数;
步骤4-2,对建议特征对应的感兴趣区域特征进行两个连续的1*1卷积,过滤掉叶蝉科虫图像感兴趣区域里和叶蝉科虫本身无关的背景区域特征,生成新的目标特征图,卷积核的参数由步骤4-1提供。
6.根据权利要求5所述的方法,其特征在于,步骤5包括:
采用机器学习中的监督学习方法在训练集、验证集上分别进行训练和验证,在训练时,采用聚焦损失函数FocalLoss和平滑后的最小绝对值偏差范式损失函数SmoothL1、DIOU阈值评估各个位置预测框分类和回归结果,具体是采用聚焦损失函数FocalLoss对神经网络模型检测目标的类别能力进行提升,采用最小绝对值偏差范式损失函数SmoothL1、DIOU阈值对神经网络模型生成目标框的能力进行提升,利用各部分损失函数的值对模型进行反向传播更新,在更新过程中不固定神经网络模型的一个阶段,对所有部分参数均进行更新;
总损失函数
Figure FDA0003904393260000029
表达式如下:
Figure FDA0003904393260000021
其中
Figure FDA00039043932600000210
为预测分类与真实类别标签的聚焦损失,
Figure FDA0003904393260000022
为归一化中心坐标和真实边界框的SmoothL1损失,
Figure FDA0003904393260000023
为预测边界框宽高和真是边界框的交并比损失,λcls、λL1
Figure FDA0003904393260000024
是各分量的系数;
Figure FDA0003904393260000025
公式如下:
Figure FDA0003904393260000026
其中y为真实目标,
Figure FDA0003904393260000027
为预测结果,i表示目标的编号,m是目标的总数,y(i)为第i个真实目标,
Figure FDA0003904393260000028
为第i个预测结果;
Figure FDA0003904393260000031
公式如下:
Figure FDA0003904393260000032
其中,IoU是交并比;b,bgt分别表示预测框的中心点和真实框的中心点,ρ表示预测框的中心点和真实框的中心点之间的欧式距离;c表示能够同时包含预测框和真实框的最小闭包区域的对角线距离。
7.根据权利要求6所述的方法,其特征在于,步骤5中,所述采用机器学习中的监督学习方法在训练集进行训练,是指将主干网络中固定的第一阶段网络也进行训练,利用最小绝对值偏差范式函数SmoothL1、DIOU阈值用于控制神经网络模型的回归,聚焦损失函数FocalLoss控制神经网络模型的分类,根据损失函数的值反向传播,更新网络结构参数。
8.根据权利要求7所述的方法,其特征在于,步骤6中,将一个三层感知机和一个全连接层应用于测试集中图像的目标特征图分别进行位置和分类的预测。
CN202211300394.3A 2022-10-24 2022-10-24 一种基于稀疏候选框的叶蝉科农业害虫检测方法 Pending CN115641575A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211300394.3A CN115641575A (zh) 2022-10-24 2022-10-24 一种基于稀疏候选框的叶蝉科农业害虫检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211300394.3A CN115641575A (zh) 2022-10-24 2022-10-24 一种基于稀疏候选框的叶蝉科农业害虫检测方法

Publications (1)

Publication Number Publication Date
CN115641575A true CN115641575A (zh) 2023-01-24

Family

ID=84944316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211300394.3A Pending CN115641575A (zh) 2022-10-24 2022-10-24 一种基于稀疏候选框的叶蝉科农业害虫检测方法

Country Status (1)

Country Link
CN (1) CN115641575A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824499A (zh) * 2023-06-28 2023-09-29 北京建筑大学 基于swt模型的害虫检测方法、系统、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222215A (zh) * 2019-05-31 2019-09-10 浙江大学 一种基于f-ssd-iv3的作物害虫检测方法
CN111340019A (zh) * 2019-11-29 2020-06-26 浙江农林大学 基于Faster R-CNN的粮仓害虫检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222215A (zh) * 2019-05-31 2019-09-10 浙江大学 一种基于f-ssd-iv3的作物害虫检测方法
CN111340019A (zh) * 2019-11-29 2020-06-26 浙江农林大学 基于Faster R-CNN的粮仓害虫检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KAIMING HE ET AL: "Mask R-CNN", 《ARXIV:1703.06870V3》, pages 1 - 12 *
PEIZE SUN ET AL: "Sparse R-CNN: End-to-End Object Detection with Learnable Proposals", 《ARXIV:2011.12450V1》, pages 1 - 10 *
旅⼈_ERIC: "交叉熵、Focal loss、L1,L2,smooth L1损失函数、IOU Loss、GIOU、DIOU和CIOU", Retrieved from the Internet <URL:https://blog.csdn.net/qq_37099552/article/details/104464878/> *
肖德琴等: "基于改进Faster R-CNN的田间黄板害虫检测算法", 《农业机械学报》, vol. 52, no. 6, pages 242 - 251 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824499A (zh) * 2023-06-28 2023-09-29 北京建筑大学 基于swt模型的害虫检测方法、系统、设备及存储介质

Similar Documents

Publication Publication Date Title
CN111178197B (zh) 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法
Mathur et al. Crosspooled FishNet: transfer learning based fish species classification model
García et al. A Distributed K‐Means Segmentation Algorithm Applied to Lobesia botrana Recognition
CN109684922B (zh) 一种基于卷积神经网络的多模型对成品菜的识别方法
Chen et al. A cognitive vision method for the detection of plant disease images
CN111652317B (zh) 基于贝叶斯深度学习的超参数图像分割方法
Lv et al. A visual identification method for the apple growth forms in the orchard
CN108230330B (zh) 一种快速的高速公路路面分割和摄像机定位的方法
Ju et al. Classification of jujube defects in small data sets based on transfer learning
CN116612307A (zh) 一种基于迁移学习的茄科病害等级识别方法
CN114971294A (zh) 数据采集方法、装置、设备及存储介质
CN115641575A (zh) 一种基于稀疏候选框的叶蝉科农业害虫检测方法
Singh et al. Performance Analysis of CNN Models with Data Augmentation in Rice Diseases
CN113496221B (zh) 基于深度双边滤波的点监督遥感图像语义分割方法及系统
TWI696958B (zh) 影像適應性特徵提取法及其應用
Balasubramaniyan et al. Color contour texture based peanut classification using deep spread spectral features classification model for assortment identification
CN118135290A (zh) 基于transformer的细粒度图像分类方法
CN108960005B (zh) 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统
Pushpa et al. Deep learning model for plant species classification using leaf vein features
CN117456325A (zh) 一种水稻病虫害检测方法
CN112465821A (zh) 一种基于边界关键点感知的多尺度害虫图像检测方法
Bachhal et al. Real-time disease detection system for maize plants using deep convolutional neural networks
Dey et al. Development of ANN and ANFIS classifier for betel leaf pathogen detection
JP2019023801A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
CN113780335B (zh) 一种小样本商品图像分类方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination