CN114821268A - 一种基于机器学习的杂草与作物识别方法 - Google Patents

一种基于机器学习的杂草与作物识别方法 Download PDF

Info

Publication number
CN114821268A
CN114821268A CN202210484640.9A CN202210484640A CN114821268A CN 114821268 A CN114821268 A CN 114821268A CN 202210484640 A CN202210484640 A CN 202210484640A CN 114821268 A CN114821268 A CN 114821268A
Authority
CN
China
Prior art keywords
weed
crop
crops
area
weeds
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210484640.9A
Other languages
English (en)
Inventor
丁梦寒
余心杰
饶德燊
李鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huzhou University
Zhejiang University of Science and Technology ZUST
Original Assignee
Huzhou University
Zhejiang University of Science and Technology ZUST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huzhou University, Zhejiang University of Science and Technology ZUST filed Critical Huzhou University
Priority to CN202210484640.9A priority Critical patent/CN114821268A/zh
Publication of CN114821268A publication Critical patent/CN114821268A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像识别技术领域,尤其涉及一种基于机器学习的杂草与作物识别方法。该种方式将整张图片中的对象分为杂草和作物两个目标对象,作物的识别难度是远远低于杂草的识别难度,通过识别作物,然后取反的方式得到杂草,解决了杂草种类繁多而造成的识别模型局限性的问题。采用该方法识别准确度较高,而且识别方便。

Description

一种基于机器学习的杂草与作物识别方法
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于机器学习的杂草与作物识别方法。
背景技术
田间杂草对目标作物的正常发育有很大的威胁,严重影响着其高产和稳产。现有技术除草有以下问题:
1、因为杂草生长随机性的问题,不同的地段种植同一种作物可能会长出不同种类的杂草,这将给自动化除草工作带来很大的困难与挑战。
2、很多关于机器学习识别杂草的研究都是只能识别自己采集数据集上面的杂草种类,而数据集之外种类的杂草将无法识别,这将带来很大的局限性,从而导致漏识的问题。
3、目前作物的主要除草方式还是采取人工和农药除草为主,人工除草耗费大量的人力物力,然而农药除草将导致土地肥力降低,破坏生态系统平衡等一系列问题,从而很迫切需要一种精准识别的机械化除草方式。
发明内容
本发明所要解决的技术问题是:提供一种基于机器学习的杂草与作物识别方法,采用该方法识别准确度较高,而且识别方便。
本发明所采用的技术方案是:一种基于机器学习的杂草与作物识别方法,它包括以下步骤:
S1、采集不同工况下的作物与杂草混合的图片,对采集的图片进行预处理,然后进行图片增强处理,得到数据集合,然后将数据集合划分为训练集与测试集;
S2、采用HSV颜色模型提取训练集中的杂草和作物,然后对作物进行标记;
S3、将标记了作物的训练集输入YOLO模型进行训练,得到作物识别器;
S4、将测试集输入训练好的作物识别器,得到作物所在区域;
S5、采用HSV颜色模型提取测试集中的杂草和作物,然后减去步骤S4得到的作物区域,得到杂草区域。
作为优选,步骤S5得到杂草区域之后还需要计算杂草数量,然后根据杂草数量计算杂草生长密度,然后根据得到的杂草生长密度计算除草药物喷洒量。
作为优选,对杂草进行计数时还需要将杂草区域分为遮挡区与非遮挡区,非遮挡区直接采用连通域快速标记法计算杂草数量,遮挡区首先需要先将遮挡区的图片进行裁剪,然后采用Vgg-16神经网络模型计算杂草数量。
采用以上方法与现有技术相比,本发明具有以下优点:该种方式将整张图片中的对象分为杂草和作物两个目标对象,因为杂草可能有多种不同的,而作物一般只有一种,所以作物的识别难度是远远低于杂草的识别难度,所以通过识别作物,然后取反的方式得到杂草,解决了杂草种类繁多而造成的识别模型局限性的问题,进而使得杂草识别比较方便。
附图说明
图1为一种基于机器学习的杂草与作物识别方法的流程框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
实施例一
一种基于机器学习的杂草与作物识别方法,它包括以下步骤:
S1、采集不同工况下的作物与杂草混合的图片,主要通过调整采集时的光线情况来调整不同状态下的杂草以及作物图片,对采集的图片进行预处理,然后进行图片增强处理,增强处理主要是将图片进行旋转,这样可以扩充数据,得到数据集合,然后将数据集合划分为训练集与测试集;
S2、采用HSV颜色模型提取训练集中的杂草和作物,然后对作物进行标记;主要是通过调整最小的色调值、最大色调值、最小饱和度值、最大饱和度值、最小明度值以及最大明度值这六个参数来将杂草以及作物的组合提取出来,然后因为作物是唯一的,所以将作物进行标记;
S3、将标记了作物的训练集输入YOLO模型进行训练,得到作物识别器;
S4、将测试集输入训练好的作物识别器,得到作物所在区域;
S5、采用HSV颜色模型提取测试集中的杂草和作物,然后减去步骤S4得到的作物区域,得到杂草区域;
S6、计算杂草数量,然后根据杂草数量计算杂草生长密度,然后根据得到的杂草生长密度计算除草药物喷洒量。
其中:
YOLOv3算法以其快速精准的识别效果,被广泛运用在各个领域。将采集的数据集裁剪成416*416大小的图片,经过卷积计算和池化之后得到32倍下采样大小为13*13的特征图,32倍下采样的特征图进行2倍的上采样的结果与32倍下采样的上一层输出结果进行横向连接得到16倍下采样大小为26*26的特征图,16倍下采样的特征图进行2倍的上采样的结果与32倍下采样的上两层输出结果进行横向连接得到8倍下采样大小为52*52的特征图。特征提取后得出13*13、26*26、52*52三个不同尺寸的特征图,最后经过全连接和1*1的卷积计算之后得到三个不同尺寸的尺量向量y;
Figure BDA0003629248370000031
对特征图中的每个方框预测三个不同尺寸的先验框,每个先验框绑定一个锚框,其绑定关系为:
Figure BDA0003629248370000032
Figure BDA0003629248370000033
其中aw和ah分别为锚框的宽和高,tw和th分别为先验框直接预测出来的宽高,bw和bh分别为转换后预测的实际高和宽;
特征向量y中的bx和by分别是最终预测输出的预测框的中心坐标,其计算方式为:
bx=σ(tx)+cx
by=σ(ty)+cy
cx和cy分别是方格左上方点相对整张图片的坐标,σ是激活函数,其取值范围为(0,1),计算方式:
Figure BDA0003629248370000034
特征向量y中的c1是作物的置信度,c2是杂草的置信度,其计算方式是:
Figure BDA0003629248370000041
其中Pr(Object)是代表当前检测的预测框中是否有对象的概率,truth代表人工标记框,pred代表预测框,IOU代表交并比,其计算为人工标记框和预测框的交集除并集,设定一个IOU阈值为0.5,当值大于该阈值表明预测正确,小于该值则预测错误。
针对作物检测的评估指标运用混淆举证采用Precision(查准率)和(Recall)召回率。计算公式分别为:
Figure BDA0003629248370000042
Figure BDA0003629248370000043
其中TP代表将正样本预测为正样本的数量,FP为将负样本预测为正样本的数量,FN为将正样本预测错误的数量。
实施例二:
与实施例一的区别在于,实施例二中计算杂草数量时需要先将杂草区域分为遮挡区与非遮挡区,非遮挡区直接采用连通域快速标记法计算杂草数量,遮挡区首先需要先将遮挡区的图片进行裁剪,然后采用Vgg-16神经网络模型计算杂草数量。
本申请第一阶段检测出作物区域,然后将HSV提取出的杂草和作物的区域减去预测的作物区域,得到杂草区域,得到的图片中只剩下杂草单一对象,最后问题变成二分类问题,检测图像中是杂菜还是背景,将第一阶段输出的图像经过处理之后送到VGG-16网络模型中进行训练并检测,最后通过连通域计数法对图片中该区域识别出的杂草进行精准计数,然而计算杂草的密度从而达到变量精准的喷洒除草药物(即密度大的地方多喷洒,密度小的地方少喷洒,作物上面不喷洒),在保证作物健康绿色的同时提高作物产量。
本申请中采用4邻接,即对应像素位置的上,下,左,右是紧邻的位置,共四个方向。一个连通域是由具有相同像素值的相邻像素组成,将图像二值化处理之后,让每个单独的连通区域形成一个被标识的块,我们就可以获取这些块的轮廓、外接矩形、质心、不变矩等几何参数,通过以上两步可以寻找到图片中的连通域,对找到的每个连通域赋予唯一标识,即每个唯一标识就代表一株草,从而可以达到计数的效果。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
对于本领域的技术人员而言,阅读上述说明后,各种变化和修正无疑将显而易见。因此,所附的权利要求书应看作是涵盖本发明的真实意图和范围的全部变化和修正。在权利要求书范围内任何和所有等价的范围与内容,都应认为仍属本发明的意图和范围内。

Claims (3)

1.一种基于机器学习的杂草与作物识别方法,其特征在于,它包括以下步骤:
S1、采集不同工况下的作物与杂草混合的图片,对采集的图片进行预处理,然后进行图片增强处理,得到数据集合,然后将数据集合划分为训练集与测试集;
S2、采用HSV颜色模型提取训练集中的杂草和作物,然后对作物进行标记;
S3、将标记了作物的训练集输入YOLO模型进行训练,得到作物识别器;
S4、将测试集输入训练好的作物识别器,得到作物所在区域;
S5、采用HSV颜色模型提取测试集中的杂草和作物,然后减去步骤S4得到的作物区域,得到杂草区域。
2.根据权利要求1所述的一种基于机器学习的杂草与作物识别方法,其特征在于:步骤S5得到杂草区域之后还需要计算杂草数量,然后根据杂草数量计算杂草生长密度,然后根据得到的杂草生长密度计算除草药物喷洒量。
3.根据权利要求2所述的一种基于机器学习的杂草与作物识别方法,其特征在于:对杂草进行计数时还需要将杂草区域分为遮挡区与非遮挡区,非遮挡区直接采用连通域快速标记法计算杂草数量,遮挡区首先需要先将遮挡区的图片进行裁剪,然后采用Vgg-16神经网络模型计算杂草数量。
CN202210484640.9A 2022-05-06 2022-05-06 一种基于机器学习的杂草与作物识别方法 Pending CN114821268A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210484640.9A CN114821268A (zh) 2022-05-06 2022-05-06 一种基于机器学习的杂草与作物识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210484640.9A CN114821268A (zh) 2022-05-06 2022-05-06 一种基于机器学习的杂草与作物识别方法

Publications (1)

Publication Number Publication Date
CN114821268A true CN114821268A (zh) 2022-07-29

Family

ID=82511332

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210484640.9A Pending CN114821268A (zh) 2022-05-06 2022-05-06 一种基于机器学习的杂草与作物识别方法

Country Status (1)

Country Link
CN (1) CN114821268A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116114683A (zh) * 2022-12-23 2023-05-16 天津理工大学 一种能够检测杂草密度及作物的火焰除草机
CN116912701A (zh) * 2023-09-14 2023-10-20 潍坊现代农业山东省实验室 杂草的识别方法及装置、杂草的喷施方法
CN116114683B (zh) * 2022-12-23 2024-05-28 天津理工大学 一种能够检测杂草密度及作物的火焰除草机

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116114683A (zh) * 2022-12-23 2023-05-16 天津理工大学 一种能够检测杂草密度及作物的火焰除草机
CN116114683B (zh) * 2022-12-23 2024-05-28 天津理工大学 一种能够检测杂草密度及作物的火焰除草机
CN116912701A (zh) * 2023-09-14 2023-10-20 潍坊现代农业山东省实验室 杂草的识别方法及装置、杂草的喷施方法

Similar Documents

Publication Publication Date Title
CN110120042B (zh) 一种基于slic超像素和自动阈值分割的农作物图像病虫害区域提取方法
CN111027446B (zh) 一种高分辨率影像的海岸线自动提取方法
CN109740483A (zh) 一种基于深层神经网络的水稻生长期检测方法
CN109766887A (zh) 一种基于级联沙漏神经网络的多目标检测方法
CN114239756B (zh) 一种虫害检测方法及系统
CN114067207A (zh) 一种基于深度学习和图像处理的蔬菜苗田杂草检测方法
CN110188657A (zh) 基于卷曲叶片检测的玉米干旱识别方法
CN114067206B (zh) 一种基于深度图像的球形果实识别定位方法
Chen et al. Plant leaf segmentation for estimating phenotypic traits
de Silva et al. Towards agricultural autonomy: crop row detection under varying field conditions using deep learning
CN116091951A (zh) 一种农田与机耕道边界线提取方法及系统
CN113807130A (zh) 一种杂草识别方法、装置、计算设备及存储介质
CN104848917B (zh) 一种用于玻璃水槽内水位分析的图像测量方法
CN111291818B (zh) 一种面向云掩膜的非均匀类别的样本均衡化方法
CN114821268A (zh) 一种基于机器学习的杂草与作物识别方法
CN109657540B (zh) 枯死树定位方法及系统
CN116229265A (zh) 一种自动无损提取大豆植株表型的方法
CN113377062B (zh) 一种具有病虫害和旱情监控的多功能预警系统
Mao et al. Agricultural robot navigation path recognition based on k-means algorithm for large-scale image segmentation
Zeng et al. Detecting and measuring fine roots in minirhizotron images using matched filtering and local entropy thresholding
CN114742849B (zh) 一种基于图像增强的水准仪距离测量方法
CN116416523A (zh) 一种基于机器学习的水稻生长阶段的识别系统和方法
CN111860626B (zh) 基于无人机遥感和面向对象分类的水土保持监测方法及系统
CN111667429B (zh) 一种巡检机器人目标定位校正方法
CN113807129A (zh) 一种作物区域识别方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination