CN117274566B - 一种基于深度学习和株间杂草分布状况的实时除草方法 - Google Patents
一种基于深度学习和株间杂草分布状况的实时除草方法 Download PDFInfo
- Publication number
- CN117274566B CN117274566B CN202311239329.9A CN202311239329A CN117274566B CN 117274566 B CN117274566 B CN 117274566B CN 202311239329 A CN202311239329 A CN 202311239329A CN 117274566 B CN117274566 B CN 117274566B
- Authority
- CN
- China
- Prior art keywords
- weeding
- crop
- detection frame
- minimum detection
- weeds
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 241000196324 Embryophyta Species 0.000 title claims abstract description 180
- 238000009333 weeding Methods 0.000 title claims abstract description 161
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 89
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 7
- 240000004282 Grewia occidentalis Species 0.000 claims description 28
- 238000012795 verification Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000005284 excitation Effects 0.000 claims description 3
- 230000006378 damage Effects 0.000 abstract description 4
- 208000027418 Wounds and injury Diseases 0.000 abstract description 3
- 208000014674 injury Diseases 0.000 abstract description 3
- 238000012216 screening Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 244000037666 field crops Species 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 244000038559 crop plants Species 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000000813 microbial effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M21/00—Apparatus for the destruction of unwanted vegetation, e.g. weeds
- A01M21/02—Apparatus for mechanical destruction
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M21/00—Apparatus for the destruction of unwanted vegetation, e.g. weeds
- A01M21/04—Apparatus for destruction by steam, chemicals, burning, or electricity
- A01M21/046—Apparatus for destruction by steam, chemicals, burning, or electricity by electricity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Wood Science & Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Environmental Sciences (AREA)
- Insects & Arthropods (AREA)
- Pest Control & Pesticides (AREA)
- General Engineering & Computer Science (AREA)
- Zoology (AREA)
- Mechanical Engineering (AREA)
- Guiding Agricultural Machines (AREA)
Abstract
本发明提供了一种基于深度学习和株间杂草分布状况的实时除草方法,包括:将图像训练数据集输入至卷积神经网络进行训练,得到训练好的模型,并对摄像头实时获取到的田间的作物幼苗的图像和杂草的图像进行识别定位以得到幼苗的最小检测框的中心像素坐标和宽高以及杂草的最小检测框的中心像素坐标,并根据该结果求解幼苗的最小检测框的四角坐标;构建实时的田间单作物行地图信息;根据田间单作物行地图信息确定除草策略;根据除草策略和田间单作物行地图信息控制机械‑激光组合式除草装置的除草模式。本申请能够根据株间杂草情况给出适合的除草方法,在保证除草效率的情况下,降低了伤苗率。
Description
技术领域
本发明涉及智能农业除草技术领域,特别是涉及一种基于深度学习和株间杂草分布状况的实时除草方法。
背景技术
随着计算机技术的快速发展,智能的除草装置代替传统的人工除草成为了热门发展趋势。目前主要的智能除草装置有机械除草、化学除草和激光除草等。化学除草包括无差别喷洒和精准定位除草两种方式,无差别喷洒除草效率高,但对环境污染大;精准定位的化学除草方式极大的降低了农药的使用量,但是不适用于面对杂草密度高的场合。激光除草同样是一种精准定位的除草方法,对环境影响小,但也存在不适用于杂草密度高的场合的问题。机械除草适用于杂草密度高的场合,同时不会对环境造成污染,符合可持续发展的要求,但是目前主流的机械除草策略是只识别和躲避作物,而不管行内是否有杂草都周期性进入行内除草,这种方式不仅会增加伤害作物的几率,还会有伤害行内有益动物、打破微生物生态圈平衡等问题。
发明内容
为了克服现有技术的不足,本发明的目的是提供一种基于深度学习和株间杂草分布状况的实时除草方法。
为实现上述目的,本发明提供了如下方案:
一种基于深度学习和株间杂草分布状况的实时除草方法,应用于一种机械-激光组合式除草装置,包括:
调整所述机械-激光组合式除草装置的摄像头高度以及摄像头的焦距参数,以使摄像头获取同一行的两株相邻作物的图像;
获取摄像头的内参和外参;
利用摄像头获取田间的作物幼苗的图像和杂草的图像;
根据所述田间的作物幼苗的图像和杂草的图像确定幼苗的图像训练数据集和验证数据集以及杂草的图像的训练数据集和验证数据集;
将所述训练数据集输入至卷积神经网络进行训练,得到训练模型,并用所述验证数据集检验所述训练模型,得到训练好的模型;
基于训练好的模型,对所述摄像头实时获取到的田间的作物幼苗的图像和杂草的图像进行识别定位以得到幼苗的最小检测框的中心像素坐标和宽高以及杂草的最小检测框的中心像素坐标;
根据所述幼苗的最小检测框的中心像素坐标和宽高求解所述幼苗的最小检测框的四角坐标;
根据所述幼苗的最小检测框的中心坐标和四角坐标及杂草最小检测框的中心像素坐标构建实时的田间单作物行地图信息;
根据所述田间单作物行地图信息确定除草策略;
根据所述除草策略和所述田间单作物行地图信息控制所述机械-激光组合式除草装置的除草模式。
优选地,所述根据所述幼苗的最小检测框的中心像素坐标和宽高求解所述幼苗的最小检测框的四角坐标的计算公式为:
其中,为第m株作物最小检测框的左上角坐标和左下角坐标的横坐标数值,/>为第m株作物最小检测框的右上角坐标和右下角坐标的横坐标数值,/>为第m株作物最小检测框的左上角坐标和左下角坐标的纵坐标数值,/>为第m株作物最小检测框的右上角坐标和右下角坐标的纵坐标数值,Wm为第m株作物的最小检测框的宽的数值,hm为第m株作物的最小检测框的高的数值,um为第m株作物的最小检测框的中心像素坐标的横坐标数值,vm为第m株作物的最小检测框的中心像素坐标。
优选地,所述根据所述幼苗的最小检测框的中心坐标和四角坐标及杂草最小检测框的中心像素坐标构建实时的田间单作物行地图信息,包括:
根据所述幼苗的最小检测框的中心坐标和四角坐标将待工作区域分为安全区和危险区;
将所述安全区和危险区分为左安全区、右安全区、左危险区和右危险区;
基于左安全区、右安全区、左危险区和右危险区的像素坐标,根据杂草最小检测框的中心像素坐标构建田间单作物行地图信息;
其中,将安全区判定为左安全区的判定公式为:
将安全区判定为右安全区的判定公式为:
将危险区判定为右危险区的判定公式为:
将危险区判定为左危险区的判定公式为:
其中,/>为第m株作物的左危险区内像素点横坐标数值,/>为第m株作物的右危险区内像素点横坐标数值,/>为第m株作物的左危险区内像素点纵坐标数值,/>为第m株作物的右危险区内像素点纵坐标数值,/>为第m株作物的左安全区内像素点横坐标数值,/>为第m株作物的右安全区内像素点横坐标数值,为第m株作物的左安全区内像素点纵坐标数值,/>为第m株作物的右安全区内像素点纵坐标数值,/>表示处在第m和m+1株作物之间的安全区内的像素点横坐标数值,/>表示处在第m和m+1株作物之间的安全区内的像素点纵坐标数值,/>表示处在第m和m+1株作物之间的危险区内的像素点横坐标数值,/>表示处在第m和m+1株作物之间的危险区内的像素点纵坐标数值。
优选地,所述根据所述田间单作物行地图信息确定除草策略包括:
根据所述田间单作物行地图信息判断待工作区域杂草数量是否等于零,得到第一判断结果,若所述第一判断结果为是,则不采取任何除草措施;若所述第一判断结果为否,则判断杂草数量是否大于阈值,得到第二判断结果,若所述第二判断结果为是,则判定杂草密度大,采用机械除草方法进行无差别的除草,若第二判断结果为否,则计算各编号相邻的杂草的连线与竖直方向的夹角,得到第一夹角和第二夹角;其中,所述第一夹角为第b株杂草和第b+1株杂草中心点连线与竖直方向的夹角,所述第二夹角为左安全区第一株杂草与左危险区最后一株杂草中心点连线与竖直方向的夹角;
计算激光除草模块最大横向移动速度与除草设备前进速度的夹角,得到第三夹角;
判断第三夹角是否大于第一夹角或者第二夹角,若是,则采用激光模式除草,若否,则采用机械模式除草。
优选地,还包括:
获取训练模型识别作物和杂草的时间以及除草策略制定时间延迟,并根据时间延迟得到系统延迟时间;
基于所述除草策略,根据所述系统延迟时间,控制除草刀的进入时间或者激发发射的延迟时间。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种基于深度学习和株间杂草分布状况的实时除草方法,应用于一种机械-激光组合式除草装置,包括:调整所述机械-激光组合式除草装置的摄像头高度以及摄像头的焦距参数,以使摄像头获取同一行的两株相邻作物的图像;获取摄像头的内参和外参;利用摄像头获取田间的作物幼苗的图像和杂草的图像;根据所述田间的作物幼苗的图像和杂草的图像确定幼苗的图像训练数据集和验证数据集以及杂草的图像的训练数据集和验证数据集;将所述训练数据集输入至卷积神经网络进行训练,得到训练模型,并用所述验证数据集检验所述训练模型,得到训练好的模型;基于训练好的模型,对所述摄像头实时获取到的田间的作物幼苗的图像和杂草的图像进行识别定位以得到幼苗的最小检测框的中心像素坐标和宽高以及杂草的最小检测框的中心像素坐标;根据所述幼苗的最小检测框的中心像素坐标和宽高求解所述幼苗的最小检测框的四角坐标;根据所述幼苗的最小检测框的中心坐标和四角坐标及杂草最小检测框的中心像素坐标构建实时的田间单作物行地图信息;根据所述田间单作物行地图信息确定除草策略;根据所述除草策略和所述田间单作物行地图信息控制所述机械-激光组合式除草装置的除草模式。本申请能够根据株间杂草情况给出适合的除草方法,在保证除草效率的情况下,降低了伤苗率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于深度学习和株间杂草分布状况的实时除草方法流程图;
图2为本发明实施例提供的机械-激光组合式除草设备的工作流程图;
图3为本发明实施例提供的机械-激光组合式除草设备的结构示意图;
图4为本发明实施例提供的基于作物四角坐标和中心点坐标划分区域的示意图;
符号说明:
1、摄像头;2、除草刀;3、激光发射器。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本实施例还提供了一种基于深度学习和株间杂草分布状况的实时除草方法,包括:
步骤100:调整摄像头高度以及摄像头的焦距参数,以使摄像头获取同一行的两株相邻作物的图像;
步骤200:获取摄像头的内参和外参;
步骤300:利用摄像头获取田间的作物幼苗的图像和杂草的图像;
步骤400:根据所述田间的作物幼苗的图像和杂草的图像确定幼苗的图像训练数据集和验证数据集以及杂草的图像的训练数据集和验证数据集;
步骤500:将所述训练数据集输入至卷积神经网络进行训练,得到训练模型,并用所述验证数据集检验所述训练模型,得到训练好的模型;
步骤600:基于训练好的模型,对所述摄像头实时获取到的田间的作物幼苗的图像和杂草的图像进行识别定位以得到幼苗的最小检测框的中心像素坐标和宽高以及杂草的最小检测框的中心像素坐标;;
步骤700:根据所述幼苗的最小检测框的中心像素坐标和宽高求解所述幼苗的最小检测框的四角坐标;
步骤800:根据所述幼苗的最小检测框的中心坐标和四角坐标及杂草最小检测框的中心像素坐标构建实时的田间单作物行地图信息;
步骤900:根据所述田间单作物行地图信息确定除草策略;
步骤1000:根据所述除草策略和所述田间单作物行地图信息控制所述机械-激光组合式除草装置的除草模式。
本实例还提供了一种基于深度学习和株间杂草分布状况的实时除草方法,如图1所示,应用于机械-激光组合式除草设备(如图3所示),其中,机械-激光组合式除草设备包括:摄像头1、图像处理单元、控制器、机械除草器、除草刀2和激光发射器3,图像处理单元分别与摄像头1和控制器通信连接,控制器与所述机械除草器通信连接,除草刀2和激光发射器3均设置在机械除草器上;具体的,本实例中的实时除草方法,包括:
流程100:调整摄像头高度以及摄像头焦距等参数,使摄像头最多只能拍到同一行的两株相邻作物;
流程200:通过使用张正友摄像头标定方法获取摄像头的内参和外参;
流程300:获取田间的作物幼苗的图像和杂草的图像;
流程400:根据所述田间的作物幼苗图像和杂草的图像确定训练数据集和验证数据集,并将所述训练数据集送入卷积神经网络进行训练得到训练模型,用所述验证数据集检验所述训练模型的好坏,所述训练模型用于田间作物和杂草实时的检测和定位,并得到第m株作物的最小检测框的中心像素坐标(um,vm)和宽高(wm,hm)以及第n株杂草的最小检测框的中心像素坐标(un,vn);其中像素坐标系以图片左上角为原点,水平向右为u轴,竖直向下为v轴;
流程500:根据所述作物最小检测框的中心坐标和宽高求解最小检测框的四角坐标;
流程600:根据所述作物的最小检测框的中心坐标和四角坐标及杂草中心坐标构建实时的田间单作物行地图信息;
流程700:根据所述的田间单作物行地图信息确定除草策略;
流程800:根据所述除草策略及杂草和作物的实时位置信息,控制机械-激光组合式的除草设备。
可选地,本实施例中包括八个流程,如图1所示,具体如下:
子流程1:将机械-激光组合式除草设备置于田间,调整除草设备各系统到最佳状态;
子流程2:摄像头开始实时地拍摄作物和杂草;
子流程3:根据所述田间的作物幼苗图像和杂草的图像确定训练数据集和验证数据集,并将所述训练数据集送入卷积神经网络进行训练得到训练模型,用所述验证数据集检验所述训练模型的好坏,所述训练模型用于根据摄像头拍摄的实时数据对田间作物和杂草实时的检测和定位,并得到第m株作物的最小检测框的中心像素坐标(um,vm)和宽高(wm,hm)以及第n株杂草的最小检测框的中心像素坐标(un,vn);
子流程4:根据目标检测返回给上位机的作物中心点坐标信息和检测框宽高计算作物的目标检测框的四角坐标;
子流程5:根据所述作物的最小检测框的中心坐标和四角坐标及杂草中心坐标构建实时的田间单作物行地图信息,该地图信息的坐标为世界坐标系中的实际坐标;
子流程6:根据所述的田间单作物行地图信息确定除草策略;
子流程7:根据所述除草策略判定结果及杂草和作物的实时位置信息,控制机械-激光组合式的除草设备;
子流程8:上述流程结束后,紧接着返回到是否识别到作物的判定框进行工作,重复直至除草设备完成所有的田间除草任务。
具体的,所述根据所述幼苗的最小检测框的中心像素坐标和宽高求解所述幼苗的最小检测框的四角坐标的计算公式为:
其中,为第m株作物最小检测框的左上角坐标和左下角坐标的横坐标数值,/>为第m株作物最小检测框的右上角坐标和右下角坐标的横坐标数值,/>为第m株作物最小检测框的左上角坐标和左下角坐标的纵坐标数值,/>为第m株作物最小检测框的右上角坐标和右下角坐标的纵坐标数值,Wm为第m株作物的最小检测框的宽的数值,hm为第m株作物的最小检测框的高的数值,um为第m株作物的最小检测框的中心像素坐标的横坐标数值,vm为第m株作物的最小检测框的中心像素坐标,/>分别表示第m株作物最小检测框的左上角坐标、右上角坐标、左下角坐标、右下角坐标。
具体的,所述根据所述幼苗的最小检测框的中心坐标和四角坐标及杂草最小检测框的中心像素坐标构建实时的田间单作物行地图信息,包括:
根据所述幼苗的最小检测框的中心坐标和四角坐标将待工作区域分为安全区和危险区;
将所述安全区和危险区分为左安全区、右安全区、左危险区和右危险区;
如图1至图2所示,所述作物最小检测框的中心坐标和宽高求解最小检测框的四角坐标,包括:
根据所述作物最小检测框和四角坐标,将所述作物最小检测框的定义为危险区:所述危险区内坐标值的判定公式为:
其中,(u,v)表示图像中任意图像像素点坐标值,表示处在第m株作物危险区内像素点坐标值,m取正整数;
根据两相邻作物的最小检测框四角坐标划定出安全区:所述安全区内坐标值的判定公式为:
其中,表示处在第m和m+1株作物之间的安全区内的像素点坐标值,/>表示图像中第m+1株作物最小检测框的坐标在y轴方向的值,且/>小于/>
根据所述作物最小检测框的中心坐标和四角坐标将危险区(安全区)进一步化分为左右两块区域,将两区域分别命名为左危险区(左安全区)和右危险区(右安全区):所述左危险区(左安全区)和右危险区(右安全区)的判定公式为:
其中,分别表示位于第m株作物的左、右危险区内像素点坐标,/>分别表示位于第m株作物的左、右安全区内像素点坐标,/>为第m株作物的左危险区内像素点横坐标数值,/>为第m株作物的右危险区内像素点横坐标数值,/>为第m株作物的左危险区内像素点纵坐标数值,/>为第m株作物的右危险区内像素点纵坐标数值,/>为第m株作物的左安全区内像素点横坐标数值,/>为第m株作物的右安全区内像素点横坐标数值,/>为第m株作物的左安全区内像素点纵坐标数值,/>为第m株作物的右安全区内像素点纵坐标数值,/>表示处在第m和m+1株作物之间的安全区内的像素点横坐标数值,/>表示处在第m和m+1株作物之间的安全区内的像素点纵坐标数值,表示处在第m和m+1株作物之间的危险区内的像素点横坐标数值,/>表示处在第m和m+1株作物之间的危险区内的像素点纵坐标数值。
上述危险区即除草刀在此区域内除草易损伤作物,反之则为安全区;
根据上述左、右安全区和左、右危险区对所有杂草进行筛选分区;所述杂草筛选分区公式为:
其中,分别表示筛选分区后左、右危险区和左、右安全区内的杂草中心点坐标,a,b取正整数;
如图4所示,将上述的像素坐标系转换到世界坐标系中,以得到田间单作物行地图信息;所述转换方法的步骤如下:
将杂草(作物)所在的像素坐标系(o-uv)转换为以光心为原点的图像坐标系(o-xy);所述的转换公式为:
其中,图像坐标系的x轴方向水平向右,y轴方向竖直向下,(u0,v0)表示图像坐标系的原点在像素坐标系当中的坐标,(u,v)表示像素坐标,即在本发明中杂草的中心点坐标和作物的最小检测框的四角坐标;dx,dy分别表示图像像素在两个坐标轴方向上的长度;(x,y)表示(u,v)在图像坐标系中的坐标;
接着再将杂草(作物)所在的图像坐标系转换到以光心为原点的摄像头坐标系(OC-XCYCZC);所述的转换公式为:
其中,摄像头坐标系的XC水平向右,YC竖直向上,(XC1,YC1,ZC1)表示杂草(作物)在摄像头坐标系中的坐标;f为摄像头的焦距,ZC表示摄像头的深度信息;
在本发明所涉及的除草方法中只需要知道杂草(作物)相关坐标与世界坐标系之间水平距离关系,不需要知道深度关系,所以Z轴方向上的变换可以不用转换;同时摄像头坐标系与世界坐标系通过所述四自由度摄像头稳定系统保持相对静止,因此没有角度变化,两坐标系只有平移的关系;
最后将摄像头坐标系转换到以机械-激光组合式除草设备的中点为原点的世界坐标系(O-XY)中;所述转换公式为:
其中,(X1,Y1)表示杂草(作物)在世界坐标系中的坐标,Tx、Ty分别表示摄像头坐标系的各轴与世界坐标系对应的各轴之间的平移距离;
在具体实例中,Tx=0、Ty=75CM
需要说的是:表示筛选分区后左、右危险区和左、右安全区内的杂草的中心点在世界坐标系下的坐标;
上述根据所述作物的最小检测框的中心坐标和四角坐标及杂草中心坐标构建实时的田间单作物行地图信息,随着除草设备的在田间运行实时的更新。
优选地,所述根据所述的田间单作物行地图信息确定除草策略,包括:
根据上述构建实时的田间单作物行地图信息,截取同时存在两株作物的一帧图像;
根据上述一帧图像中筛选分区后的杂草中心坐标分别对位于左、右安全区内的杂草情况进行如下判断(以左安全区域进行说明):
首先判断杂草数量是否等于零;
若等于零,则对所在行内不采取任何除草措施;
若不等于零,则判断杂草数量是否大于阈值N;
若杂草数量大于阈值N,则判定左安全区的杂草密度过大,不适合激光除草方法,应采用机械除草方法进行无差别的除草;
若杂草数量小于阈值N,则计算各编号相邻的杂草的连线与竖直方向的夹角:所述夹角计算公式为:
其中,表示第b株杂草和第b+1株杂草中心点连线与竖直方向的夹角,/>表示左安全区第一株杂草与左危险区最后一株杂草中心点连线与竖直方向的夹角,杂草排序按照杂草中心点坐标在Y方向的大小排序;
在具体实例中,N取10;
如图4所示,具体的,所述根据所述田间单作物行地图信息确定除草策略包括:
根据所述田间单作物行地图信息判断待工作区域杂草数量是否等于零,得到第一判断结果,若所述第一判断结果为是,则不采取任何除草措施;若所述第一判断结果为否,则判断杂草数量是否大于阈值,得到第二判断结果,若所述第二判断结果为是,则判定杂草密度大,采用机械除草方法进行无差别的除草,若第二判断结果为否,则计算各编号相邻的杂草的连线与竖直方向的夹角,得到第一夹角和第二夹角;其中,所述第一夹角为第b株杂草和第b+1株杂草中心点连线与竖直方向的夹角,所述第二夹角为左安全区第一株杂草与左危险区最后一株杂草中心点连线与竖直方向的夹角;
计算激光除草模块最大横向移动速度与除草设备前进速度的夹角,得到第三夹角;
判断第三夹角是否大于第一夹角或者第二夹角,若是,则采用激光模式除草,若否,则采用机械模式除草。
计算激光除草模块最大横向移动速度与除草设备前进速度的夹角:所述夹角的计算公式为:
其中,α表示激光除草模块以最高速度横向移动与竖直方向的夹角,vcar表示除草车的前进速度,vlaser表示激光除草模块最大的横向移动速度;
在具体实例中,vlaser随着电机的选定而确定,vcar根据每次工作的速度确定;
若和/>小于α,则说明此时的杂草分布情况适合激光除草,因此该区域采用激光除草的方法;
若或/>大于α,则说明此时的杂草分布情况不适合激光除草,因此该区域还是采用机械除草的方式;
所述危险区内的杂草均采用激光除草的方法,以尽可能的减少除草过程中对作物的损害。
优选地,所述根据所述除草策略及杂草(作物)的实时位置信息,控制机械-激光组合式的除草设备,包括:
获取训练模型识别作物和杂草的时间以及除草策略制定时间延迟,并根据时间延迟得到系统延迟时间Δt;
根据除草策略制定的结果,控制对应的装置除草:
若采用机械除草方式(以左安全区为例),则利用基于作物位置信息的延迟时间预测法计算除草刀开始进出(入)行内的时间,所述基于位置信息的时间预测法的计算公式为:
其中,分别代表/>经过上述坐标变换后在世界坐标系中的值,S表示除草刀的刀尖与世界坐标系原点Y方向上的距离,tin1表示除草刀在行间开始进入行内的延迟时间,tout表示除草刀在行内开始进入行间的延迟时间,tin2表示连续两个左安全区都被判定为机械除草方法时候,进入第二个安全区的延迟时间;
在具体实例中S=-60MM;
当只有一个安全区需要采用机械除草方式的时候,从开始计算延迟时间起,上位机经过tin1给电机发送指令控制电机转动,进而控制除草刀进入行内,从开始计算延迟时间起,上位机经过tout给电机发送指令控制电机逆向转动,进而控制除草刀进入行间;当连续超过两个安全区都被判定为机械除草方式的时候,从开始计算延迟时间起,上位机经过tin1给电机发送指令控制电机转动,进而控制除草刀进入行内,从开始计算延迟时间起,上位机经过tout给电机发送指令控制电机逆向转动,进而控制除草刀进入行间,从开始计算延迟时间起,上位机经过tin2给电机发送指令控制电机转动,进而控制除草刀进入行内;重复上述tout和tin2,直到最后一次除草刀进入行间时只给tout指令;
若采用激光除草方法(以左安全区为例),则利用基于杂草中心点坐标信息计算激光发射器的发射激光的延迟时间,所述的计算公式如下:
其中,S1表示激光发射器与世界坐标系原点Y轴方向上的距离,topen表示激光发射器清除第b株杂草的延迟时间(从计算topen时开始计时);
激光发射器横向移动的距离为:
其中,表示左激光发射器当前的坐标与第b株杂草的坐标的横向位移距离,Xlaser表示当前左激光发射器的横坐标;
在具体实例中S1=112.5MM;
优选地,激光发射器还需要负责对危险区内的杂草清除,采用一种基于斜率的反向穷举法保证清除危险区最多杂草的同时与后续安全区激光除草连接起来(以左危险区为例);
所述一种基于斜率的反向穷举法的判断方式如下:
计算左危险区第a株杂草与其他杂草的斜率,排除掉斜率大于α的斜率情况,计算公式如下:
其中,表示左危险区的最后一株杂草的横坐标(按杂草Y坐标值由小到大排列),/>表示除第a株杂草以外的其他杂草横坐标;
接着再以满足条件的杂草分别作为起点计算与剩下杂草的斜率,排除掉斜率大于α的斜率的杂草,计算公式如下:
循环上述操作,留下杂草最多的一条路径,然后激光发射器根据此路径清除杂草,这样既保证清除了最多的杂草又保证作物受到最小的伤害。
具体的,还包括:
获取训练模型识别作物和杂草的时间以及除草策略制定时间延迟,并根据时间延迟得到系统延迟时间;
基于所述除草策略,根据所述系统延迟时间,控制除草刀的进入时间或者激发发射的延迟时间。
本发明的有益效果如下:
本发明基于深度学习的检测结果,提出了一种根据株间杂草分布情况的除草方法,该方法可以根据株间杂草的分布情况给出更加合理的除草方法,当杂草密度大时候采用机械除草,杂草密度小的时候采用激光除草。
本发明根据提出的除草方法,设计了一种机械-激光组合式除草装置,该装置结合了机械除草和激光除草的优点,最大程度的清除杂草的同时最小程度的作物伤害。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (4)
1.一种基于深度学习和株间杂草分布状况的实时除草方法,应用于一种机械-激光组合式除草装置,其特征在于,包括:
调整所述机械-激光组合式除草装置的摄像头高度以及摄像头的焦距参数,以使摄像头获取同一行的两株相邻作物的图像;
获取摄像头的内参和外参;
利用摄像头获取田间的作物幼苗的图像和杂草的图像;
根据所述田间的作物幼苗的图像和杂草的图像确定幼苗的图像训练数据集和验证数据集以及杂草的图像的训练数据集和验证数据集;
将所述训练数据集输入至卷积神经网络进行训练,得到训练模型,并用所述验证数据集检验所述训练模型,得到训练好的模型;
基于训练好的模型,对所述摄像头实时获取到的田间的作物幼苗的图像和杂草的图像进行识别定位以得到幼苗的最小检测框的中心像素坐标和宽高以及杂草的最小检测框的中心像素坐标;
根据所述幼苗的最小检测框的中心像素坐标和宽高求解所述幼苗的最小检测框的四角坐标;
根据所述幼苗的最小检测框的中心坐标和四角坐标及杂草最小检测框的中心像素坐标构建实时的田间单作物行地图信息;
根据所述田间单作物行地图信息确定除草策略;
根据所述除草策略和所述田间单作物行地图信息控制所述机械-激光组合式除草装置的除草模式;
所述根据所述田间单作物行地图信息确定除草策略包括:
根据所述田间单作物行地图信息判断待工作区域杂草数量是否等于零,得到第一判断结果,若所述第一判断结果为是,则不采取任何除草措施;若所述第一判断结果为否,则判断杂草数量是否大于阈值,得到第二判断结果,若所述第二判断结果为是,则判定杂草密度大,采用机械除草方法进行无差别的除草,若第二判断结果为否,则计算各编号相邻的杂草的连线与竖直方向的夹角,得到第一夹角和第二夹角;其中,所述第一夹角为第b株杂草和第b+1株杂草中心点连线与竖直方向的夹角,所述第二夹角为左安全区第一株杂草与左危险区最后一株杂草中心点连线与竖直方向的夹角;
计算激光除草模块最大横向移动速度与除草设备前进速度的夹角,得到第三夹角;
判断第三夹角是否大于第一夹角或者第二夹角,若是,则采用激光模式除草,若否,则采用机械模式除草。
2.根据权利要求1所述的基于深度学习和株间杂草分布状况的实时除草方法,其特征在于,所述根据所述幼苗的最小检测框的中心像素坐标和宽高求解所述幼苗的最小检测框的四角坐标的计算公式为:
其中,为第m株作物最小检测框的左上角坐标和左下角坐标的横坐标数值,/>为第m株作物最小检测框的右上角坐标和右下角坐标的横坐标数值,/>为第m株作物最小检测框的左上角坐标和左下角坐标的纵坐标数值,/>为第m株作物最小检测框的右上角坐标和右下角坐标的纵坐标数值,Wm为第m株作物的最小检测框的宽的数值,hm为第m株作物的最小检测框的高的数值,um为第m株作物的最小检测框的中心像素坐标的横坐标数值,vm为第m株作物的最小检测框的中心像素坐标。
3.根据权利要求1所述的基于深度学习和株间杂草分布状况的实时除草方法,其特征在于,所述根据所述幼苗的最小检测框的中心坐标和四角坐标及杂草最小检测框的中心像素坐标构建实时的田间单作物行地图信息,包括:
根据所述幼苗的最小检测框的中心坐标和四角坐标将待工作区域分为安全区和危险区;
将所述安全区和危险区分为左安全区、右安全区、左危险区和右危险区;
基于左安全区、右安全区、左危险区和右危险区的像素坐标,根据杂草最小检测框的中心像素坐标构建田间单作物行地图信息;
其中,将安全区判定为左安全区的判定公式为:
左安全区;
将安全区判定为右安全区的判定公式为:
右安全区;
将危险区判定为右危险区的判定公式为:
右危险区;
将危险区判定为左危险区的判定公式为:
左危险区;其中,/>为第m株作物的左危险区内像素点横坐标数值,/>为第m株作物的右危险区内像素点横坐标数值,/>为第m株作物的左危险区内像素点纵坐标数值,/>为第m株作物的右危险区内像素点纵坐标数值,/>为第m株作物的左安全区内像素点横坐标数值,/>为第m株作物的右安全区内像素点横坐标数值,/>为第m株作物的左安全区内像素点纵坐标数值,/>为第m株作物的右安全区内像素点纵坐标数值,/>表示处在第m和m+1株作物之间的安全区内的像素点横坐标数值,/>表示处在第m和m+1株作物之间的安全区内的像素点纵坐标数值,/>表示处在第m和m+1株作物之间的危险区内的像素点横坐标数值,/>表示处在第m和m+1株作物之间的危险区内的像素点纵坐标数值。
4.根据权利要求1所述的基于深度学习和株间杂草分布状况的实时除草方法,其特征在于,还包括:
获取训练模型识别作物和杂草的时间以及除草策略制定时间延迟,并根据时间延迟得到系统延迟时间;
基于所述除草策略,根据所述系统延迟时间,控制除草刀的进入时间或者激发发射的延迟时间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311239329.9A CN117274566B (zh) | 2023-09-25 | 2023-09-25 | 一种基于深度学习和株间杂草分布状况的实时除草方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311239329.9A CN117274566B (zh) | 2023-09-25 | 2023-09-25 | 一种基于深度学习和株间杂草分布状况的实时除草方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117274566A CN117274566A (zh) | 2023-12-22 |
CN117274566B true CN117274566B (zh) | 2024-04-26 |
Family
ID=89215504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311239329.9A Active CN117274566B (zh) | 2023-09-25 | 2023-09-25 | 一种基于深度学习和株间杂草分布状况的实时除草方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117274566B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013050007A1 (en) * | 2011-10-03 | 2013-04-11 | Ustav Pristrojove Techniky Akademie Ved Cr, V.V.I. | Method and apparatus for measuring shape deviations of mechanical parts |
WO2020011318A1 (en) * | 2018-07-12 | 2020-01-16 | Agro Intelligence Aps | A system for use when performing a weeding operation in an agricultural field |
CN111929699A (zh) * | 2020-07-21 | 2020-11-13 | 北京建筑大学 | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 |
WO2021043904A1 (en) * | 2019-09-05 | 2021-03-11 | Basf Se | System and method for identification of plant species |
CN114067207A (zh) * | 2021-11-16 | 2022-02-18 | 福州大学 | 一种基于深度学习和图像处理的蔬菜苗田杂草检测方法 |
WO2022047830A1 (zh) * | 2020-09-04 | 2022-03-10 | 浙江大学 | 一种作物封垄后田间导航线的检测方法 |
CN114419407A (zh) * | 2021-12-14 | 2022-04-29 | 中国农业大学 | 一种用于移栽作物苗期的行内杂草自动识别方法及装置 |
CN114937078A (zh) * | 2022-05-19 | 2022-08-23 | 苏州大学 | 自动除草方法、装置和存储介质 |
CN115251024A (zh) * | 2022-08-29 | 2022-11-01 | 北京大学现代农业研究院 | 除草方式的确定方法、装置、电子设备及除草系统 |
CN115560754A (zh) * | 2022-08-25 | 2023-01-03 | 邯郸科技职业学院 | 一种基于杂草去除的视觉导航方法 |
CN116110081A (zh) * | 2023-04-12 | 2023-05-12 | 齐鲁工业大学(山东省科学院) | 基于深度学习的安全帽佩戴的检测方法及系统 |
CN116540708A (zh) * | 2023-05-11 | 2023-08-04 | 江苏大学 | 一种重复作业场景下水田机械除草装备自主导航方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11393049B2 (en) * | 2020-09-24 | 2022-07-19 | Centure Applications LTD | Machine learning models for selecting treatments for treating an agricultural field |
WO2022147156A1 (en) * | 2020-12-29 | 2022-07-07 | Blue River Technology Inc. | Generating a ground plane for obstruction detection |
-
2023
- 2023-09-25 CN CN202311239329.9A patent/CN117274566B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013050007A1 (en) * | 2011-10-03 | 2013-04-11 | Ustav Pristrojove Techniky Akademie Ved Cr, V.V.I. | Method and apparatus for measuring shape deviations of mechanical parts |
WO2020011318A1 (en) * | 2018-07-12 | 2020-01-16 | Agro Intelligence Aps | A system for use when performing a weeding operation in an agricultural field |
WO2021043904A1 (en) * | 2019-09-05 | 2021-03-11 | Basf Se | System and method for identification of plant species |
CN111929699A (zh) * | 2020-07-21 | 2020-11-13 | 北京建筑大学 | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 |
WO2022047830A1 (zh) * | 2020-09-04 | 2022-03-10 | 浙江大学 | 一种作物封垄后田间导航线的检测方法 |
CN114067207A (zh) * | 2021-11-16 | 2022-02-18 | 福州大学 | 一种基于深度学习和图像处理的蔬菜苗田杂草检测方法 |
CN114419407A (zh) * | 2021-12-14 | 2022-04-29 | 中国农业大学 | 一种用于移栽作物苗期的行内杂草自动识别方法及装置 |
CN114937078A (zh) * | 2022-05-19 | 2022-08-23 | 苏州大学 | 自动除草方法、装置和存储介质 |
CN115560754A (zh) * | 2022-08-25 | 2023-01-03 | 邯郸科技职业学院 | 一种基于杂草去除的视觉导航方法 |
CN115251024A (zh) * | 2022-08-29 | 2022-11-01 | 北京大学现代农业研究院 | 除草方式的确定方法、装置、电子设备及除草系统 |
CN116110081A (zh) * | 2023-04-12 | 2023-05-12 | 齐鲁工业大学(山东省科学院) | 基于深度学习的安全帽佩戴的检测方法及系统 |
CN116540708A (zh) * | 2023-05-11 | 2023-08-04 | 江苏大学 | 一种重复作业场景下水田机械除草装备自主导航方法及系统 |
Non-Patent Citations (3)
Title |
---|
基于机器视觉的株间机械除草装置的作物识别与定位方法;胡炼;罗锡文;曾山;张智刚;陈雄飞;林潮兴;;农业工程学报;20130515(10);20-26 * |
机械式苗间除草装置与技术研究;马克明;《河北农机》;20210524;5-6 * |
玉米中耕除草复合导航系统设计与试验;张漫;项明;魏爽;季宇寒;仇瑞承;孟庆宽;;农业机械学报;20151230(S1);13-19 * |
Also Published As
Publication number | Publication date |
---|---|
CN117274566A (zh) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109483573A (zh) | 机器学习装置、机器人系统以及机器学习方法 | |
CN108748149B (zh) | 一种复杂环境下基于深度学习的无标定机械臂抓取方法 | |
CN106097322A (zh) | 一种基于神经网络的视觉系统标定方法 | |
CN110433467B (zh) | 基于双目视觉和蚁群算法的捡乒乓球机器人运行方法及设备 | |
CN113597874B (zh) | 一种除草机器人及其除草路径的规划方法、装置和介质 | |
CN113593035A (zh) | 一种运动控制决策生成方法、装置、电子设备及存储介质 | |
CN113703444A (zh) | 一种智能化机器人的巡检避障方法及系统 | |
CN112734739A (zh) | 一种基于注意力机制与ResNet融合的建筑裂缝可视化识别方法 | |
CN113065562A (zh) | 一种基于语义分割网络的作物垄行提取及主导航线选取方法 | |
CN117274566B (zh) | 一种基于深度学习和株间杂草分布状况的实时除草方法 | |
CN110866548A (zh) | 输电线路绝缘子红外智能匹配识别与测距定位方法及系统 | |
You et al. | Semiautonomous Precision Pruning of Upright Fruiting Offshoot Orchard Systems: An Integrated Approach | |
CN117021059B (zh) | 采摘机器人及其果实定位方法、装置、电子设备及介质 | |
CN116977902B (zh) | 一种边海防车载光电稳定平台目标跟踪方法及系统 | |
CN116740036A (zh) | 一种钢管管端引熄弧板切割点位检测方法和系统 | |
CN114946439B (zh) | 一种田间棉花智能精准打顶装置 | |
CN114200468B (zh) | 水下网衣巡检机器人的定位方法、系统及存储介质 | |
CN113129373B (zh) | 一种基于卷积神经网络的室内移动机器人视觉定位方法 | |
CN115097833A (zh) | 一种施药机器人的自动避障方法、系统及存储介质 | |
CN115139315A (zh) | 一种采摘机械臂抓取运动规划方法 | |
CN114830911A (zh) | 智能除草方法、装置和存储介质 | |
US20230089195A1 (en) | Control device, control system, control method, and recording medium with control program recorded thereon | |
CN113524216A (zh) | 一种基于多帧融合的果蔬采摘机器人及其控制方法 | |
DE102020211053A1 (de) | Annotationsvorrichtung | |
CN117823741B (zh) | 一种结合智能机器人的管网非开挖修复方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |