CN113537140A - 一种基于深度神经网络的杂草检测方法 - Google Patents

一种基于深度神经网络的杂草检测方法 Download PDF

Info

Publication number
CN113537140A
CN113537140A CN202110884654.5A CN202110884654A CN113537140A CN 113537140 A CN113537140 A CN 113537140A CN 202110884654 A CN202110884654 A CN 202110884654A CN 113537140 A CN113537140 A CN 113537140A
Authority
CN
China
Prior art keywords
image
convolution layer
layer
neural network
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110884654.5A
Other languages
English (en)
Other versions
CN113537140B (zh
Inventor
朱嘉静
兰荻
刘勇国
张云
李巧勤
杨尚明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110884654.5A priority Critical patent/CN113537140B/zh
Publication of CN113537140A publication Critical patent/CN113537140A/zh
Application granted granted Critical
Publication of CN113537140B publication Critical patent/CN113537140B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度神经网络的杂草检测方法,本发明首先采用实例分割在图像上划分出属于农作物的像素点,然后根据超绿特征能够更有效地强化绿色植物特征的特点,把图像二值化,得到图像中所有绿色植物的像素点信息;用所有绿色植物的像素点减去农作物所在的像素点即可得到不是农作物的绿色植物的像素点;最后去掉一些像素点团中像素点数量较少的像素,剩余的像素点中一个像素连通区域即为一株杂草,并获取杂草的位置信息和轮廓信息,为精准农业提供技术支持。

Description

一种基于深度神经网络的杂草检测方法
技术领域
本发明涉及杂草检测领域,具体涉及一种基于深度神经网络的杂草检测方法。
背景技术
在传统农业作业中,通常有两种方法去除杂草:一种是通过人肉眼识别杂草,然后人工拔除或铲除杂草;另一种就是直接在农田中喷洒除草剂。传统方法不仅浪费大量人力,而且大量喷洒农药会造成严重的环境污染。随着精准农业这一概念的提出,杂草定位+机器人除草这一模式被广泛运用。
现有技术中通常采用直接识别杂草的方式,虽然能够有效的检测出杂草,但是只有包含在训练集中的杂草种类才能被检测出,不在训练集中的杂草种类则不能被检测。但田间杂草种类繁多,训练所使用的数据集不能涵盖所有杂草种类。如果想要检测出更多种类的杂草,就必须要扩大数据集,这就会对所使用的设备有更高要求。
现有技术中还有采用扩展HU不变矩的特征值和性状特征来标记农作物的位置的方式进行杂草剔除,但是该方法很可能把性状特征与农作物相似的杂草也识别为农作物,识别误差大。
此外,在实际的农田中,杂草生长位置随机,对于被农作物部分遮挡的杂草,现有技术都无法做到有效检测;并且现有方案都只能确定杂草的具体方位,并进行识别,却忽略了杂草的轮廓面积,使用相同剂量除草剂可能造成过喷或少喷,造成浪费除草剂,或达不到防治效果。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于深度神经网络的杂草检测方法解决了现有技术难以准确高效识别杂草位置和轮廓面积的问题。
为了达到上述发明目的,本发明采用的技术方案为:
提供一种基于深度神经网络的杂草检测方法,其包括以下步骤:
S1、获取原始图像,将原始图像中的农作物进行实例分割标注得到训练图像,构建图像训练集;
S2、构建初始神经网络模型;
S3、通过图像训练集训练初始神经网络模型,直至初始神经网络模型识别农作物的准确率达到阈值,得到训练后的神经网络模型;
S4、通过训练后的神经网络模型识别待识别图像中的农作物,得到通过不同颜色区分农作物与其余物体的输出图像,将输出图像进行二值化,得到图像G1
S5、提取待识别图像的超绿特征,得到由超绿特征构成的灰度图,对由超绿特征构成的灰度图进行二值化,得到图像G2
S6、将图像G2减去图像G1得到图像G3,对图像G3进行去噪,得到图像G4
S7、通过OpenCV获取图像G4的包围框信息,进而得到别待识别图像中杂草的位置信息和轮廓面积,完成杂草检测。
进一步地,步骤S1的具体方法包括以下子步骤:
S1-1、在距离地面1米的高度垂直拍摄若干图像,得到原始图像;
S1-2、将原始图像剪裁为512×512的大小,对裁剪后的图像使用图像增强技术扩充样本数量,并对所有图像加入高斯噪声,得到加噪后的图像;
S1-3、对包含有农作物的加噪后的图像进行实例分割标注后的图像作为训练图像,构建图像训练集。
进一步地,步骤S2中初始神经网络模型为U-Net+模型;其中,U-Net+模型包括编码器和解码器,编码器包括依次相连的第一卷积层、第二卷积层、第一最大池化层、第三卷积层、第四卷积层、第二最大池化层、第五卷积层、第六卷积层、第三最大池化层、第七卷积层、第八卷积层、第四最大池化层、第九卷积层和第十卷积层;第一至第十卷积层的大小均为3×3,第一至第四最大池化层的大小均为2×2;第一卷积层的输入为编码器的输入,即U-Net+模型的输入;
解码器包括第一上采样反卷积层、第一特征图连接层、第十一卷积层、第十二卷积层、第二上采样反卷积层、第二特征图连接层、第十三卷积层、第十四卷积层、第三上采样反卷积层、第三特征图连接层、第十五卷积层、第十六卷积层、第四上采样反卷积层、第四特征图连接层、第十七卷积层、第十八卷积层和第十九卷积层;其中第十一至第十八卷积层的大小均为3×3,第一至第四上采样反卷积层的大小均为2×2;第十九卷积层的大小为1×1;
第一上采样反卷积层的输入端与第十卷积层的输出端相连,第一特征图连接层用于将第一上采样反卷积层和第八卷积层的输出进行拼接;第一特征图连接层与第十一卷积层和第十二卷积层依次相连;
第二上采样反卷积层的输入端与第十二卷积层的输出端相连,第二特征图连接层用于将第二上采样反卷积层和第六卷积层的输出进行拼接;第二特征图连接层与第十三卷积层和第十四卷积层依次相连;
第三上采样反卷积层的输入端与第十四卷积层的输出端相连,第三特征图连接层用于将第三上采样反卷积层和第四卷积层的输出进行拼接;第三特征图连接层与第十五卷积层和第十六卷积层依次相连;
第四上采样反卷积层的输入端与第十六卷积层的输出端相连,第四特征图连接层用于将第四上采样反卷积层和第二卷积层的输出进行拼接;第四特征图连接层与第十七卷积层、第十八卷积层和第十九卷积层依次相连;第十九卷积层的输出为解码器的输出,即U-Net+模型的输出;
U-Net+模型的损失函数为交叉熵损失函数
Figure BDA0003193569960000041
Ω为像素点集合,l(x)表示像素点x的标签值,pl(x)(x)表示对像素点使用softmax函数后的结果,log(·)表示对数,ω(x)为像素点的权重值,
Figure BDA0003193569960000042
ωc(x)表示像素点x平衡类别比例的权值,像素点x所在类别的样本数越多,其平衡类别比例的权值越小,ω0和σ均为常数,exp(·)为以自然常数e为底的指数函数,d1(x)表示像素点x到距离其最近的农作物的距离,d2(x)表示像素点x到距离其第二近的农作物的距离,当图像中只有一株植物时,d2(x)为0;当图像中没有农作物时,d1(x)和d2(x)均为0。
进一步地,常数ω0的值为10,常数σ的值为5。
进一步地,步骤S5中提取待识别图像的超绿特征的具体方法为:
根据公式:
ExG=2G-B-R
获取待识别图像的超绿特征ExG;其中R、G和B分别表示待识别图像的RGB颜色空间的分量值。
进一步地,步骤S6中对图像G3进行去噪的具体方法为:
将图像G3中像素值为1、像素个数小于个数阈值的像素点集中的像素置为0;其中像素点集由连续且像素值相同的像素点构成。
进一步地,个数阈值为10。
进一步地,步骤S7中通过OpenCV获取图像G4的包围框信息的具体方法为:
通过OpenCV的findContours函数获取图像G4的轮廓信息,轮廓信息为一系列连续点构成的点集,每一个点集都是一个轮廓;
通过OpenCV的boundingRect函数求出轮廓点集的包围框信息。
本发明的有益效果为:本发明在实际的杂草检测过程中,不限制于训练集包含的杂草类型,能够识别检测出绝大多数种类的杂草,并且对于被农作物部分遮挡的杂草有较好的识别效果,解决了当前杂草检测方法在只能检测与农作物分离较远的杂草、只能检测杂草方位而不能检测出杂草面积等问题。
附图说明
图1为本方法的流程示意图;
图2为U-Net+模型的结构示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,该基于深度神经网络的杂草检测方法包括以下步骤:
S1、获取原始图像,将原始图像中的农作物进行实例分割标注得到训练图像,构建图像训练集;
S2、构建初始神经网络模型;
S3、通过图像训练集训练初始神经网络模型,直至初始神经网络模型识别农作物的准确率达到阈值,得到训练后的神经网络模型;
S4、通过训练后的神经网络模型识别待识别图像中的农作物,得到通过不同颜色区分农作物与其余物体的输出图像,将输出图像进行二值化,得到图像G1
S5、提取待识别图像的超绿特征,得到由超绿特征构成的灰度图,对由超绿特征构成的灰度图进行二值化,得到图像G2
S6、将图像G2减去图像G1得到图像G3,对图像G3进行去噪,得到图像G4
S7、通过OpenCV获取图像G4的包围框信息,进而得到别待识别图像中杂草的位置信息和轮廓面积,完成杂草检测。
在具体实施过程中,步骤S1的具体方法包括以下子步骤:
S1-1、在距离地面1米的高度垂直拍摄若干图像,得到原始图像;
S1-2、将原始图像剪裁为512×512的大小,对裁剪后的图像使用图像增强技术扩充样本数量,并对所有图像加入高斯噪声,得到加噪后的图像;
S1-3、对包含有农作物的加噪后的图像进行实例分割标注后的图像作为训练图像,构建图像训练集。
图像增强技术包括旋转、翻转、亮度调整、色度调整、对比度调整和加高斯噪声等。图像旋转是以图像中心点为圆心,对每幅图像分别进行90°、180°和270°旋转。
图像翻转是以图像中垂线为轴,把两侧像素值进行交换,本方案采用水平翻转。
调整图像亮度是通过加减图像像素的RGB值来实现的,计算公式为Vd=V0×(1+d),其中Vd为调整亮度后的RGB值,V0为原始的RGB值,d为亮度变化因子。本方案可以对所有裁剪后的图片分别做增加亮度和减小亮度的操作。
调整图像色度是通过调整图像RGB分量的比例来实现的,表示为Vc=V0×(1+c),其中Vc表示调整色度后的RGB值,V0表示原始的RGB值,c表示色度变化因子。本方案可以对所有裁剪后的图像分别做提高色度和降低色度的操作。
调整图像对比度是在保证图像平均亮度不变的情况下,扩大或缩小图像亮区域和暗区域的差异,表示为V=i+(V0-i)×(1+d),其中i表示整张图片的平均RGB值,V表示调整亮度后的图像RGB值。当d为正时,表示图像中所有像素值大于平均像素值的像素点会被调亮,像素值小于平均像素值的像素点会被调暗;d小于0则相反。本方案可以对所有裁剪后的图像分别做提高对比度和降低对比度的操作。
对图像加入噪声就是在原图像RGB值基础上,叠加一些随机数。本方案可以对所有裁剪后的图片加上高斯噪声。
步骤S2中初始神经网络模型为U-Net+模型;如图2所示,U-Net+模型包括编码器和解码器,编码器包括依次相连的第一卷积层、第二卷积层、第一最大池化层、第三卷积层、第四卷积层、第二最大池化层、第五卷积层、第六卷积层、第三最大池化层、第七卷积层、第八卷积层、第四最大池化层、第九卷积层和第十卷积层;第一至第十卷积层的大小均为3×3,第一至第四最大池化层的大小均为2×2;第一卷积层的输入为编码器的输入,即U-Net+模型的输入;
解码器包括第一上采样反卷积层、第一特征图连接层、第十一卷积层、第十二卷积层、第二上采样反卷积层、第二特征图连接层、第十三卷积层、第十四卷积层、第三上采样反卷积层、第三特征图连接层、第十五卷积层、第十六卷积层、第四上采样反卷积层、第四特征图连接层、第十七卷积层、第十八卷积层和第十九卷积层;其中第十一至第十八卷积层的大小均为3×3,第一至第四上采样反卷积层的大小均为2×2;第十九卷积层的大小为1×1;
第一上采样反卷积层的输入端与第十卷积层的输出端相连,第一特征图连接层用于将第一上采样反卷积层和第八卷积层的输出进行拼接;第一特征图连接层与第十一卷积层和第十二卷积层依次相连;
第二上采样反卷积层的输入端与第十二卷积层的输出端相连,第二特征图连接层用于将第二上采样反卷积层和第六卷积层的输出进行拼接;第二特征图连接层与第十三卷积层和第十四卷积层依次相连;
第三上采样反卷积层的输入端与第十四卷积层的输出端相连,第三特征图连接层用于将第三上采样反卷积层和第四卷积层的输出进行拼接;第三特征图连接层与第十五卷积层和第十六卷积层依次相连;
第四上采样反卷积层的输入端与第十六卷积层的输出端相连,第四特征图连接层用于将第四上采样反卷积层和第二卷积层的输出进行拼接;第四特征图连接层与第十七卷积层、第十八卷积层和第十九卷积层依次相连;第十九卷积层的输出为解码器的输出,即U-Net+模型的输出;
U-Net+模型的损失函数为交叉熵损失函数
Figure BDA0003193569960000081
Ω为像素点集合,l(x)表示像素点x的标签值,pl(x)(x)表示对像素点使用softmax函数后的结果,log(·)表示对数,ω(x)为像素点的权重值,
Figure BDA0003193569960000082
ωc(x)表示像素点x平衡类别比例的权值,像素点x所在类别的样本数越多,其平衡类别比例的权值越小,ω0和σ均为常数,exp(·)为以自然常数e为底的指数函数,d1(x)表示像素点x到距离其最近的农作物的距离,d2(x)表示像素点x到距离其第二近的农作物的距离,当图像中只有一株植物时,d2(x)为0;当图像中没有农作物时,d1(x)和d2(x)均为0。常数ω0的值为10,常数σ的值为5。经过训练后,模型接受RGB彩色图像作为输入,输出为相同尺寸的单通道掩码图像,输出图像中相同类别的像素颜色一样。
步骤S5中提取待识别图像的超绿特征的具体方法为:根据公式:
ExG=2G-B-R
获取待识别图像的超绿特征ExG;其中R、G和B分别表示待识别图像的RGB颜色空间的分量值。使用超绿特征可以更有效地提取绿色植物,而阴影、枯草和土壤等可以有效地被抑制。提取超绿特征后图像变成了一张灰度图像,该灰度图像与普通灰度图像不同之处在于其中的绿色植物会被突显出来。该灰度图进行二值化,二值化的阈值使用最大类间方差法来获取。图像二值化后,图中就只有绿色植物的轮廓,其中绿色植物像素点为1,背景像素点值为0,把该图像记为G2
步骤S6中对图像G3进行去噪的具体方法为:将图像G3中像素值为1、像素个数小于个数阈值的像素点集中的像素置为0;其中像素点集由连续且像素值相同的像素点构成,个数阈值为10。
步骤S7中通过OpenCV获取图像G4的包围框信息的具体方法为:通过OpenCV的findContours函数获取图像G4的轮廓信息,轮廓信息为一系列连续点构成的点集,每一个点集都是一个轮廓;通过OpenCV的boundingRect函数求出轮廓点集的包围框信息。包围框信息由包围框的左上角的横纵坐标值和包围框的高宽构成。由包围框信息可得到图片中所有轮廓的位置信息和轮廓数据,该信息即为图像中杂草的信息。
综上所述,本发明首先采用实例分割在图像上划分出属于农作物的像素点,然后根据超绿特征能够更有效地强化绿色植物特征的特点,把图像二值化,得到图像中所有绿色植物的像素点信息;用所有绿色植物的像素点减去农作物所在的像素点即可得到不是农作物的绿色植物的像素点;最后去掉一些像素点团中像素点数量较少的像素,剩余的像素点中一个像素连通区域即为一株杂草,并获取杂草的位置信息和轮廓信息,为精准农业提供技术支持。

Claims (8)

1.一种基于深度神经网络的杂草检测方法,其特征在于,包括以下步骤:
S1、获取原始图像,将原始图像中的农作物进行实例分割标注得到训练图像,构建图像训练集;
S2、构建初始神经网络模型;
S3、通过图像训练集训练初始神经网络模型,直至初始神经网络模型识别农作物的准确率达到阈值,得到训练后的神经网络模型;
S4、通过训练后的神经网络模型识别待识别图像中的农作物,得到通过不同颜色区分农作物与其余物体的输出图像,将输出图像进行二值化,得到图像G1
S5、提取待识别图像的超绿特征,得到由超绿特征构成的灰度图,对由超绿特征构成的灰度图进行二值化,得到图像G2
S6、将图像G2减去图像G1得到图像G3,对图像G3进行去噪,得到图像G4
S7、通过OpenCV获取图像G4的包围框信息,进而得到别待识别图像中杂草的位置信息和轮廓面积,完成杂草检测。
2.根据权利要求1所述的基于深度神经网络的杂草检测方法,其特征在于,步骤S1的具体方法包括以下子步骤:
S1-1、在距离地面1米的高度垂直拍摄若干图像,得到原始图像;
S1-2、将原始图像剪裁为512×512的大小,对裁剪后的图像使用图像增强技术扩充样本数量,并对所有图像加入高斯噪声,得到加噪后的图像;
S1-3、对包含有农作物的加噪后的图像进行实例分割标注后的图像作为训练图像,构建图像训练集。
3.根据权利要求1所述的基于深度神经网络的杂草检测方法,其特征在于,步骤S2中初始神经网络模型为U-Net+模型;其中,U-Net+模型包括编码器和解码器,编码器包括依次相连的第一卷积层、第二卷积层、第一最大池化层、第三卷积层、第四卷积层、第二最大池化层、第五卷积层、第六卷积层、第三最大池化层、第七卷积层、第八卷积层、第四最大池化层、第九卷积层和第十卷积层;第一至第十卷积层的大小均为3×3,第一至第四最大池化层的大小均为2×2;第一卷积层的输入为编码器的输入,即U-Net+模型的输入;
解码器包括第一上采样反卷积层、第一特征图连接层、第十一卷积层、第十二卷积层、第二上采样反卷积层、第二特征图连接层、第十三卷积层、第十四卷积层、第三上采样反卷积层、第三特征图连接层、第十五卷积层、第十六卷积层、第四上采样反卷积层、第四特征图连接层、第十七卷积层、第十八卷积层和第十九卷积层;其中第十一至第十八卷积层的大小均为3×3,第一至第四上采样反卷积层的大小均为2×2;第十九卷积层的大小为1×1;
第一上采样反卷积层的输入端与第十卷积层的输出端相连,第一特征图连接层用于将第一上采样反卷积层和第八卷积层的输出进行拼接;第一特征图连接层与第十一卷积层和第十二卷积层依次相连;
第二上采样反卷积层的输入端与第十二卷积层的输出端相连,第二特征图连接层用于将第二上采样反卷积层和第六卷积层的输出进行拼接;第二特征图连接层与第十三卷积层和第十四卷积层依次相连;
第三上采样反卷积层的输入端与第十四卷积层的输出端相连,第三特征图连接层用于将第三上采样反卷积层和第四卷积层的输出进行拼接;第三特征图连接层与第十五卷积层和第十六卷积层依次相连;
第四上采样反卷积层的输入端与第十六卷积层的输出端相连,第四特征图连接层用于将第四上采样反卷积层和第二卷积层的输出进行拼接;第四特征图连接层与第十七卷积层、第十八卷积层和第十九卷积层依次相连;第十九卷积层的输出为解码器的输出,即U-Net+模型的输出;
U-Net+模型的损失函数为交叉熵损失函数
Figure FDA0003193569950000031
Ω为像素点集合,l(x)表示像素点x的标签值,pl(x)(x)表示对像素点使用softmax函数后的结果,log(·)表示对数,ω(x)为像素点的权重值,
Figure FDA0003193569950000032
ωc(x)表示像素点x平衡类别比例的权值,像素点x所在类别的样本数越多,其平衡类别比例的权值越小,ω0和σ均为常数,exp(·)为以自然常数e为底的指数函数,d1(x)表示像素点x到距离其最近的农作物的距离,d2(x)表示像素点x到距离其第二近的农作物的距离,当图像中只有一株植物时,d2(x)为0;当图像中没有农作物时,d1(x)和d2(x)均为0。
4.根据权利要求3所述的基于深度神经网络的杂草检测方法,其特征在于,常数ω0的值为10,常数σ的值为5。
5.根据权利要求1所述的基于深度神经网络的杂草检测方法,其特征在于,步骤S5中提取待识别图像的超绿特征的具体方法为:
根据公式:
ExG=2G-B-R
获取待识别图像的超绿特征ExG;其中R、G和B分别表示待识别图像的RGB颜色空间的分量值。
6.根据权利要求1所述的基于深度神经网络的杂草检测方法,其特征在于,步骤S6中对图像G3进行去噪的具体方法为:
将图像G3中像素值为1、像素个数小于个数阈值的像素点集中的像素置为0;其中像素点集由连续且像素值相同的像素点构成。
7.根据权利要求6所述的基于深度神经网络的杂草检测方法,其特征在于,个数阈值为10。
8.根据权利要求1所述的基于深度神经网络的杂草检测方法,其特征在于,步骤S7中通过OpenCV获取图像G4的包围框信息的具体方法为:
通过OpenCV的findContours函数获取图像G4的轮廓信息,轮廓信息为一系列连续点构成的点集,每一个点集都是一个轮廓;
通过OpenCV的boundingRect函数求出轮廓点集的包围框信息。
CN202110884654.5A 2021-08-03 2021-08-03 一种基于深度神经网络的杂草检测方法 Active CN113537140B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110884654.5A CN113537140B (zh) 2021-08-03 2021-08-03 一种基于深度神经网络的杂草检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110884654.5A CN113537140B (zh) 2021-08-03 2021-08-03 一种基于深度神经网络的杂草检测方法

Publications (2)

Publication Number Publication Date
CN113537140A true CN113537140A (zh) 2021-10-22
CN113537140B CN113537140B (zh) 2023-05-02

Family

ID=78090194

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110884654.5A Active CN113537140B (zh) 2021-08-03 2021-08-03 一种基于深度神经网络的杂草检测方法

Country Status (1)

Country Link
CN (1) CN113537140B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114241344A (zh) * 2021-12-20 2022-03-25 电子科技大学 一种基于深度学习的植物叶片病虫害严重程度评估方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105938564A (zh) * 2016-04-29 2016-09-14 无锡中科智能农业发展有限责任公司 基于主成分分析和神经网络的水稻病害识别方法及系统
JP2017077238A (ja) * 2015-10-21 2017-04-27 国立大学法人神戸大学 花数計測システムおよび花数計測方法
CN109670509A (zh) * 2019-01-04 2019-04-23 中国农业大学 基于卷积神经网络的冬小麦苗期长势参数估算方法及系统
CN111144486A (zh) * 2019-12-27 2020-05-12 电子科技大学 基于卷积神经网络的心脏核磁共振图像关键点检测方法
CN111738165A (zh) * 2020-06-24 2020-10-02 中国农业科学院农业信息研究所 一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017077238A (ja) * 2015-10-21 2017-04-27 国立大学法人神戸大学 花数計測システムおよび花数計測方法
CN105938564A (zh) * 2016-04-29 2016-09-14 无锡中科智能农业发展有限责任公司 基于主成分分析和神经网络的水稻病害识别方法及系统
CN109670509A (zh) * 2019-01-04 2019-04-23 中国农业大学 基于卷积神经网络的冬小麦苗期长势参数估算方法及系统
CN111144486A (zh) * 2019-12-27 2020-05-12 电子科技大学 基于卷积神经网络的心脏核磁共振图像关键点检测方法
CN111738165A (zh) * 2020-06-24 2020-10-02 中国农业科学院农业信息研究所 一种从高分辨率无人机可见光遥感影像中提取单株植物冠层的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
XIAOJUN JIN等: "weed identification using deep learning and image processing in vegetable plantation" *
傅隆生;冯亚利;ELKAMIL TOLA;刘智豪;李瑞;崔永杰;: "基于卷积神经网络的田间多簇猕猴桃图像识别方法" *
兰荻: "基于卷积神经网络的中药材种植关键问题研究" *
刘慧力;贾洪雷;王刚;GLATZEL STEPHAN;袁洪方;黄东岩;: "基于深度学习与图像处理的玉米茎秆识别方法与试验" *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114241344A (zh) * 2021-12-20 2022-03-25 电子科技大学 一种基于深度学习的植物叶片病虫害严重程度评估方法

Also Published As

Publication number Publication date
CN113537140B (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN110232389B (zh) 一种基于绿色作物特征提取不变性的立体视觉导航方法
CN109359681B (zh) 一种基于改进全卷积神经网络的大田作物病虫害识别方法
CN103745104B (zh) 一种基于增强现实技术的评卷方法
CN114067207A (zh) 一种基于深度学习和图像处理的蔬菜苗田杂草检测方法
CN109872326B (zh) 基于深度强化网络跳跃连接的轮廓检测方法
CN109242787A (zh) 一种中小学艺术测评中绘画录入方法
CN112132196A (zh) 一种结合深度学习和图像处理的烟盒缺陷识别方法
CN111709326A (zh) 基于深度学习的级联式颗粒作物质量分析方法及其系统
CN111476758A (zh) Amoled显示屏的缺陷检测方法、装置、计算机设备及存储介质
CN109190452B (zh) 作物行识别方法及装置
CN114067219A (zh) 一种基于语义分割与超像素分割融合的农田作物识别方法
CN114972646B (zh) 一种实景三维模型独立地物的提取与修饰方法及系统
CN113888397A (zh) 基于无人机遥感和图像处理技术的烟草清塘点株方法
CN112861666A (zh) 一种基于深度学习的鸡群计数方法及应用
CN113537140B (zh) 一种基于深度神经网络的杂草检测方法
CN112132750B (zh) 一种视频处理方法与装置
Nursyahid et al. Plant age identification system of outdoor hydroponic cultivation based on digital image processing
CN116703744B (zh) 一种基于卷积神经网络的遥感影像匀光匀色方法和装置
CN112418112A (zh) 一种果园病虫害监测预警方法及系统
CN109166127B (zh) 一种可穿戴式植物表型感知系统
CN112819823B (zh) 一种面向家具板材的圆孔检测方法、系统及装置
CN112712534B (zh) 基于导航趋势线的玉米根茎导航基准线提取方法
CN110348443B (zh) 复杂环境树木主干多特征分离统计方法及树干识别方法
CN110827243B (zh) 网格梁覆盖区域异常检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant