CN112699729A - 一种无人机察打一体除草方法 - Google Patents

一种无人机察打一体除草方法 Download PDF

Info

Publication number
CN112699729A
CN112699729A CN202011381523.7A CN202011381523A CN112699729A CN 112699729 A CN112699729 A CN 112699729A CN 202011381523 A CN202011381523 A CN 202011381523A CN 112699729 A CN112699729 A CN 112699729A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
image
weeding
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011381523.7A
Other languages
English (en)
Inventor
孙福权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Maifei Technology Co ltd
Original Assignee
Beijing Maifei Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Maifei Technology Co ltd filed Critical Beijing Maifei Technology Co ltd
Priority to CN202011381523.7A priority Critical patent/CN112699729A/zh
Publication of CN112699729A publication Critical patent/CN112699729A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0025Mechanical sprayers
    • A01M7/0032Pressure sprayers
    • A01M7/0042Field sprayers, e.g. self-propelled, drawn or tractor-mounted
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/005Special arrangements or adaptations of the spraying or distributing parts, e.g. adaptations or mounting of the spray booms, mounting of the nozzles, protection shields
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0089Regulating or controlling systems
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0089Regulating or controlling systems
    • A01M7/0096Testing of spray-patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/16Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting
    • B64D1/18Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting by spraying, e.g. insecticides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Abstract

本发明公开了一种无人机察打一体除草方法,所述无人机察打一体除草方法包括如下步骤:田间生境数据获取,获取目标作业区域的作业规划信息,确定察打一体除草区域,并确定察打一体无人机航线,通过使用察打一体无人机获取光谱数据,将获取的光谱数据进行存储,备用;数据预处理;使用语义分割精准识别田间杂草。该种无人机察打一体除草方法,在实际作业过程中,通过无人机监测田间杂草同时快速地对田间杂草精准识别,能够为植保机械在田间提供准确的坐标信息,并且提供准确的施药比例,再根据田间杂草的长势情况变量科学地指导除草药剂的投入,在田间的有杂草的地点进行着重喷洒,达到节约农药以及除草的目的。

Description

一种无人机察打一体除草方法
技术领域
本发明涉及一种无人机察打一体除草方法,具体为一种无人机察打一体除草方法,属于除草技术应用技术领域。
背景技术
农事是指耕地、施肥、播种、田间管理(除草、防倒伏、喷洒农药、病虫害防治、防寒、防冻、防旱、浇水、防涝、排灌)、收割、收获﹑贮藏、六畜管理(饲养、疾病预防)等农业生产活动;农业活动涵盖果蔬、花木、中草药、食用菌、粮油、水产、禽畜、农药、肥料、种子、农业机械与设施等行业。
当前农事作业过程中,进行除草作业主要有两种方式;其一,除草作业采用田间均匀喷洒除草药剂的方式进行除草作业,而且往往会过量施药,此种作业方式对于田间杂草长势情况没有完全顾及,导致易出现农药残留过多,造成农药的浪费,增加农事作业的成本,并且容易出现农作物药害的情况;其二,除草作业首先利用监测无人机监测田间杂草长势情况,生成田间杂草的监测数据和监测图,从而精确的识别出田间各点的杂草,然后生成变量施药处方图,以此依据通过施药无人机变量的喷洒除草剂除草,但是此种作业方式需要不同类型无人机非同步作业,造成了时间空间上的脱节,很可能在无人机除草作业时杂草有了新的变化,影响了施药的准确性。因此,针对上述问题提出一种无人机察打一体除草方法。
发明内容
本发明的目的就在于为了解决上述问题而提供一种无人机察打一体除草方法。
本发明通过以下技术方案来实现上述目的,一种无人机察打一体除草方法,所述无人机察打一体除草方法包括如下步骤:
(1)田间生境数据获取,获取目标作业区域的作业规划信息,确定察打一体除草区域,并确定察打一体无人机航线,通过使用察打一体无人机获取光谱数据,将获取的光谱数据进行存储,备用;
(2)数据预处理,对采集到的数据进行几何校正和辐射定标,数据的DN值转变为反射率;
(3)使用语义分割精准识别田间杂草,采用图像语义分割结构,通过Unet网络结合底层和高层的信息,而UNet两大特点是U型结构和跳跃连接,通过U型结构对应编码和解码,编码进行下采样,解码进行上采样,也就是将编码得到的高级语义特征图恢复到原图片的分辨率;编码后底层信息是低分辨率信息,提供分割目标在整个图像中上下文语义信息,细化得到分割的轮廓,在解码中使用到跳跃连接,补充信息的作用,为分割提供更加精细的特征,针对目标与背景分布不平衡、分类难度差异不同,进而损失函数使用FocalLoss,进而确定田间杂草;
(4)根据田间杂草长势情况变量喷洒除草药剂,根据语义分割精准识别出田间杂草,监测当前田块是否有草,然后确定是否施药;在施药策略上有草的地方施药,无草的地方分两种方法施药;其一,无草的地方不打药;其二,由于无人机监测的是植株冠层,可能会遮挡到底部的杂草,为保险起见,无草的地方打一定比例的药剂。
进一步地,所述步骤(1)中察打一体无人机选用的喷头雾化要适度,避免雾滴过大或者过小,雾滴过大,叶面布展着不好,且易滚落,雾滴过小,蒸发作用明显,导致药效不佳。
进一步地,所述步骤(1)中除草区域确定后需要制定目标航线,确定目标航向方便控制无人作业设备按照目标航线进行待播草种的植草作业。
进一步地,所述步骤(2)中DN值是遥感影像像元亮度值,记录的地物的灰度值;无单位,是一个整数值,值大小与传感器的辐射分辨率、地物发射率、大气透过率和散射率等有关。
进一步地,所述步骤(3)中的损失函数是标准交叉熵损失的升级改进版,它可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本;FocalLoss这个损失函数有gamma和alpha两个参数,gamma这个参数用来解决简单样本与困难样本的问题,alpha这个参数是平衡因子,用来解决数据集样本不均的问题;网络训练时gamma和alpha两个参数需合理调参。
进一步地,所述步骤(3)中图像分割是计算机视觉研究的关键,亦是理解图像内容的基石技术,其发展历程从基于边缘检测、基于阈值、基于区域等方法的传统图像分割,逐渐发展到当今主流的基于深度神经网络的图像语义分割,在技术水平上取得了巨大的进步;传统的图像分割受计算机算力的限制,只能提取图像的纹理信息、颜色、形状等低层特征对图像进行分割,且需要人工设计特征,因而分割准度不高;而随着计算机软硬件的更新换代、深度学习技术的日益强大,语义分割也进入新的发展时期;许多研究学者将深度学习引入图像语义分割领域,利用深度神经网络从输入数据中自动学习特征,能够提取图像的低层、中层和高层特征,实现对图像目标端到端的像素级分类,极大地提高了语义分割的精度和效率。
进一步地,所述步骤(3)在中损失函数Focal Loss是标准交叉熵损失的升级改进版,它可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本,损失函数FocalLoss有gamma和alpha两个参数,gamma这个参数用来解决简单样本与困难样本的问题,alpha这个参数是平衡因子,用来解决数据集样本不均的问题,网络训练时gamma和alpha两个参数需合理调参。
进一步地,所述步骤(4)中在除草药剂兑药时,兑药液时勿用浑浊水,且最好使用二次稀释法,使药滴分散均匀。
进一步地,所述步骤(4)中除草药剂必须使用专用的飞防助剂和安全剂。
进一步地,所述步骤(4)中施药时间,避开露水未干和雨前施药,避开中午高温。
本发明的有益效果是:该种无人机察打一体除草方法,在实际作业过程中,通过无人机监测田间杂草同时快速地对田间杂草精准识别,能够为植保机械在田间提供准确的坐标信息,并且提供准确的施药比例,再根据田间杂草的长势情况变量科学地指导除草药剂的投入,在田间的有杂草的地点进行着重喷洒,达到节约农药以及除草的目的,从而做到无人机察打一体地施用农药,减少农药用量,降低农药残留,节省前期监测时间和省去处方图生成过程,使用无人机察打一体除草作业,可极大的节药率,适合推广使用。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
一种无人机察打一体除草方法,所述无人机察打一体除草方法包括如下步骤:
(1)田间生境数据获取,获取目标作业区域的作业规划信息,确定察打一体除草区域,并确定察打一体无人机航线,通过使用察打一体无人机获取光谱数据,将获取的光谱数据进行存储,备用;
(2)数据预处理,对采集到的数据进行几何校正和辐射定标,数据的DN值转变为反射率;
(3)使用语义分割精准识别田间杂草,采用图像语义分割结构,通过Unet网络结合底层和高层的信息,而UNet两大特点是U型结构和跳跃连接,通过U型结构对应编码和解码,编码进行下采样,解码进行上采样,也就是将编码得到的高级语义特征图恢复到原图片的分辨率;编码后底层信息是低分辨率信息,提供分割目标在整个图像中上下文语义信息,细化得到分割的轮廓,在解码中使用到跳跃连接,补充信息的作用,为分割提供更加精细的特征,针对目标与背景分布不平衡、分类难度差异不同,进而损失函数使用FocalLoss,进而确定田间杂草;
(4)根据田间杂草长势情况变量喷洒除草药剂,根据语义分割精准识别出田间杂草,监测当前田块是否有草,然后确定是否施药;在施药策略上有草的地方施药,无草的地方分两种方法施药;其一,无草的地方不打药;其二,由于无人机监测的是植株冠层,可能会遮挡到底部的杂草,为保险起见,无草的地方打一定比例的药剂。
所述步骤(1)中察打一体无人机选用的喷头雾化要适度,避免雾滴过大或者过小,雾滴过大,叶面布展着不好,且易滚落,雾滴过小,蒸发作用明显,导致药效不佳。
所述步骤(1)中除草区域确定后需要制定目标航线,确定目标航向方便控制无人作业设备按照目标航线进行待播草种的植草作业。
所述步骤(2)中DN值是遥感影像像元亮度值,记录的地物的灰度值;无单位,是一个整数值,值大小与传感器的辐射分辨率、地物发射率、大气透过率和散射率等有关。
所述步骤(3)中的损失函数是标准交叉熵损失的升级改进版,它可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本;FocalLoss这个损失函数有gamma和alpha两个参数,gamma这个参数用来解决简单样本与困难样本的问题,alpha这个参数是平衡因子,用来解决数据集样本不均的问题;网络训练时gamma和alpha两个参数需合理调参。
所述步骤(3)中图像分割是计算机视觉研究的关键,亦是理解图像内容的基石技术,其发展历程从基于边缘检测、基于阈值、基于区域等方法的传统图像分割,逐渐发展到当今主流的基于深度神经网络的图像语义分割,在技术水平上取得了巨大的进步;传统的图像分割受计算机算力的限制,只能提取图像的纹理信息、颜色、形状等低层特征对图像进行分割,且需要人工设计特征,因而分割准度不高;而随着计算机软硬件的更新换代、深度学习技术的日益强大,语义分割也进入新的发展时期;许多研究学者将深度学习引入图像语义分割领域,利用深度神经网络从输入数据中自动学习特征,能够提取图像的低层、中层和高层特征,实现对图像目标端到端的像素级分类,极大地提高了语义分割的精度和效率。
所述步骤(3)在中损失函数FocalLoss是标准交叉熵损失的升级改进版,它可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本,损失函数FocalLoss有gamma和alpha两个参数,gamma这个参数用来解决简单样本与困难样本的问题,alpha这个参数是平衡因子,用来解决数据集样本不均的问题,网络训练时gamma和alpha两个参数需合理调参。
所述步骤(4)中在除草药剂兑药时,兑药液时勿用浑浊水,且最好使用二次稀释法,使药滴分散均匀。
所述步骤(4)中除草药剂必须使用专用的飞防助剂和安全剂。
所述步骤(4)中施药时间,避开露水未干和雨前施药,避开中午高温。
上述方法适用于通过无人机监测田间杂草同时快速地对田间杂草精准识别,能够为植保机械在田间提供准确的坐标信息,并且提供准确的施药比例,再根据田间杂草的长势情况变量科学地指导除草药剂的投入,在田间的有杂草的地点进行着重喷洒,达到节约农药以及除草的目的。
实施例二:
一种无人机察打一体除草方法,所述无人机察打一体除草方法包括如下步骤:
(1)田间生境数据获取,获取目标作业区域的作业规划信息,确定察打一体除草区域,并确定察打一体无人机航线,通过使用察打一体无人机获取光谱数据,将获取的光谱数据进行存储,备用;
(2)数据预处理,对采集到的数据进行几何校正和辐射定标,数据的DN值转变为反射率;
(3)使用语义分割精准识别田间杂草,采用图像语义分割结构,通过Unet网络结合底层和高层的信息,而UNet两大特点是U型结构和跳跃连接,通过U型结构对应编码和解码,编码进行下采样,解码进行上采样,也就是将编码得到的高级语义特征图恢复到原图片的分辨率;编码后底层信息是低分辨率信息,提供分割目标在整个图像中上下文语义信息,细化得到分割的轮廓,在解码中使用到跳跃连接,补充信息的作用,为分割提供更加精细的特征,针对目标与背景分布不平衡、分类难度差异不同,进而损失函数使用FocalLoss,进而确定田间杂草;
(4)根据田间杂草长势情况变量喷洒除草药剂,根据语义分割精准识别出田间杂草,监测当前田块是否有草,然后确定是否施药;在施药策略上有草的地方施药,无草的地方分两种方法施药;其一,无草的地方不打药;其二,由于无人机监测的是植株冠层,可能会遮挡到底部的杂草,为保险起见,无草的地方打一定比例的药剂。
所述步骤(1)中察打一体无人机选用的喷头雾化要适度,避免雾滴过大或者过小,雾滴过大,叶面布展着不好,且易滚落,雾滴过小,蒸发作用明显,导致药效不佳。
所述步骤(1)中除草区域确定后需要制定目标航线,确定目标航向方便控制无人作业设备按照目标航线进行待播草种的植草作业。
所述步骤(2)中DN值是遥感影像像元亮度值,记录的地物的灰度值;无单位,是一个整数值,值大小与传感器的辐射分辨率、地物发射率、大气透过率和散射率等有关。
所述步骤(3)中的损失函数是标准交叉熵损失的升级改进版,它可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本;FocalLoss这个损失函数有gamma和alpha两个参数,gamma这个参数用来解决简单样本与困难样本的问题,alpha这个参数是平衡因子,用来解决数据集样本不均的问题;网络训练时gamma和alpha两个参数需合理调参。
所述步骤(3)中图像分割是计算机视觉研究的关键,亦是理解图像内容的基石技术,其发展历程从基于边缘检测、基于阈值、基于区域等方法的传统图像分割,逐渐发展到当今主流的基于深度神经网络的图像语义分割,在技术水平上取得了巨大的进步;传统的图像分割受计算机算力的限制,只能提取图像的纹理信息、颜色、形状等低层特征对图像进行分割,且需要人工设计特征,因而分割准度不高;而随着计算机软硬件的更新换代、深度学习技术的日益强大,语义分割也进入新的发展时期;许多研究学者将深度学习引入图像语义分割领域,利用深度神经网络从输入数据中自动学习特征,能够提取图像的低层、中层和高层特征,实现对图像目标端到端的像素级分类,极大地提高了语义分割的精度和效率。
所述步骤(3)在中损失函数FocalLoss是标准交叉熵损失的升级改进版,它可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本,损失函数FocalLoss有gamma和alpha两个参数,gamma这个参数用来解决简单样本与困难样本的问题,alpha这个参数是平衡因子,用来解决数据集样本不均的问题,网络训练时gamma和alpha两个参数需合理调参。
所述步骤(4)中在除草药剂兑药时,兑药液时勿用浑浊水,且最好使用二次稀释法,使药滴分散均匀。
所述步骤(4)中除草药剂必须使用专用的飞防助剂和安全剂。
所述步骤(4)中施药时间,避开露水未干和雨前施药,避开中午高温。
上述方法适用于减少农药用量,降低农药残留,节省前期监测时间和省去处方图生成过程,使用无人机察打一体除草作业,可极大的节药率。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (10)

1.一种无人机察打一体除草方法,其特征在于:所述无人机察打一体除草方法包括如下步骤:
(1)田间生境数据获取,获取目标作业区域的作业规划信息,确定察打一体除草区域,并确定察打一体无人机航线,通过使用察打一体无人机获取光谱数据,将获取的光谱数据进行存储,备用;
(2)数据预处理,对采集到的数据进行几何校正和辐射定标,数据的DN值转变为反射率;
(3)使用语义分割精准识别田间杂草,采用图像语义分割结构,通过Unet网络结合底层和高层的信息,而UNet两大特点是U型结构和跳跃连接,通过U型结构对应编码和解码,编码进行下采样,解码进行上采样,也就是将编码得到的高级语义特征图恢复到原图片的分辨率;编码后底层信息是低分辨率信息,提供分割目标在整个图像中上下文语义信息,细化得到分割的轮廓,在解码中使用到跳跃连接,补充信息的作用,为分割提供更加精细的特征,针对目标与背景分布不平衡、分类难度差异不同,进而损失函数使用FocalLoss,进而确定田间杂草;
(4)根据田间杂草长势情况变量喷洒除草药剂,根据语义分割精准识别出田间杂草,监测当前田块是否有草,然后确定是否施药;在施药策略上有草的地方施药,无草的地方分两种方法施药;其一,无草的地方不打药;其二,由于无人机监测的是植株冠层,可能会遮挡到底部的杂草,为保险起见,无草的地方打一定比例的药剂。
2.根据权利要求1所述的一种无人机察打一体除草方法,其特征在于:所述步骤(1)中察打一体无人机选用的喷头雾化要适度,避免雾滴过大或者过小,雾滴过大,叶面布展着不好,且易滚落,雾滴过小,蒸发作用明显,导致药效不佳。
3.根据权利要求1所述的一种无人机察打一体除草方法,其特征在于:所述步骤(1)中除草区域确定后需要制定目标航线,确定目标航向方便控制无人作业设备按照目标航线进行待播草种的植草作业。
4.根据权利要求1所述的一种无人机察打一体除草方法,其特征在于:所述步骤(2)中DN值是遥感影像像元亮度值,记录的地物的灰度值;无单位,是一个整数值,值大小与传感器的辐射分辨率、地物发射率、大气透过率和散射率等有关。
5.根据权利要求1所述的一种无人机察打一体除草方法,其特征在于:所述步骤(3)中的损失函数是标准交叉熵损失的升级改进版,它可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本;FocalLoss这个损失函数有gamma和alpha两个参数,gamma这个参数用来解决简单样本与困难样本的问题,alpha这个参数是平衡因子,用来解决数据集样本不均的问题;网络训练时gamma和alpha两个参数需合理调参。
6.根据权利要求1所述的一种无人机察打一体除草方法,其特征在于:所述步骤(3)中图像分割是计算机视觉研究的关键,亦是理解图像内容的基石技术,其发展历程从基于边缘检测、基于阈值、基于区域等方法的传统图像分割,逐渐发展到当今主流的基于深度神经网络的图像语义分割,在技术水平上取得了巨大的进步;传统的图像分割受计算机算力的限制,只能提取图像的纹理信息、颜色、形状等低层特征对图像进行分割,且需要人工设计特征,因而分割准度不高;而随着计算机软硬件的更新换代、深度学习技术的日益强大,语义分割也进入新的发展时期;许多研究学者将深度学习引入图像语义分割领域,利用深度神经网络从输入数据中自动学习特征,能够提取图像的低层、中层和高层特征,实现对图像目标端到端的像素级分类,极大地提高了语义分割的精度和效率。
7.根据权利要求1所述的一种无人机察打一体除草方法,其特征在于:所述步骤(3)在中损失函数FocalLoss是标准交叉熵损失的升级改进版,它可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本,损失函数FocalLoss有gamma和alpha两个参数,gamma这个参数用来解决简单样本与困难样本的问题,alpha这个参数是平衡因子,用来解决数据集样本不均的问题,网络训练时gamma和alpha两个参数需合理调参。
8.根据权利要求1所述的一种无人机察打一体除草方法,其特征在于:所述步骤(4)中在除草药剂兑药时,兑药液时勿用浑浊水,且最好使用二次稀释法,使药滴分散均匀。
9.根据权利要求1所述的一种无人机察打一体除草方法,其特征在于:所述步骤(4)中除草药剂必须使用专用的飞防助剂和安全剂。
10.根据权利要求1所述的一种无人机察打一体除草方法,其特征在于:所述步骤(4)中施药时间,避开露水未干和雨前施药,避开中午高温。
CN202011381523.7A 2020-12-01 2020-12-01 一种无人机察打一体除草方法 Withdrawn CN112699729A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011381523.7A CN112699729A (zh) 2020-12-01 2020-12-01 一种无人机察打一体除草方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011381523.7A CN112699729A (zh) 2020-12-01 2020-12-01 一种无人机察打一体除草方法

Publications (1)

Publication Number Publication Date
CN112699729A true CN112699729A (zh) 2021-04-23

Family

ID=75506105

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011381523.7A Withdrawn CN112699729A (zh) 2020-12-01 2020-12-01 一种无人机察打一体除草方法

Country Status (1)

Country Link
CN (1) CN112699729A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113349188A (zh) * 2021-05-31 2021-09-07 南京林业大学 一种基于云端杀草谱的草坪及牧草精准除草方法
CN113366956A (zh) * 2021-06-16 2021-09-10 中国农业大学 药肥同施的控制方法及药肥同施的装置
CN114431225A (zh) * 2022-01-29 2022-05-06 四川建元天地环保科技有限公司 采用酸性电解水与除草剂配合实现除草的方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113349188A (zh) * 2021-05-31 2021-09-07 南京林业大学 一种基于云端杀草谱的草坪及牧草精准除草方法
CN113349188B (zh) * 2021-05-31 2022-06-03 南京林业大学 一种基于云端杀草谱的草坪及牧草精准除草方法
CN113366956A (zh) * 2021-06-16 2021-09-10 中国农业大学 药肥同施的控制方法及药肥同施的装置
CN114431225A (zh) * 2022-01-29 2022-05-06 四川建元天地环保科技有限公司 采用酸性电解水与除草剂配合实现除草的方法

Similar Documents

Publication Publication Date Title
Campos et al. Development of canopy vigour maps using UAV for site-specific management during vineyard spraying process
Martinez-Guanter et al. Spray and economics assessment of a UAV-based ultra-low-volume application in olive and citrus orchards
Balafoutis et al. Smart farming technologies–description, taxonomy and economic impact
CN108693119B (zh) 基于无人机高光谱遥感的病虫害智能察打系统
CN112699729A (zh) 一种无人机察打一体除草方法
Abdullahi et al. Technology impact on agricultural productivity: A review of precision agriculture using unmanned aerial vehicles
Brown et al. Prescription maps for spatially variable herbicide application in no-till corn
Pedersen et al. Precision agriculture–from mapping to site-specific application
Franco et al. The value of precision for image-based decision support in weed management
EP3701449A1 (de) Ertragsabschätzung beim anbau von kulturpflanzen
Jones et al. Spray application technology
EP3512333A1 (de) Bestimmung des bedarfs an pflanzenschutzmittel
CN114868504A (zh) 一种园林植物的生长状态监测方法及装置
EP3673425A1 (de) Ertragsabschätzung beim anbau von kulturpflanzen
Warneke et al. Canopy spray application technology in specialty crops: A slowly evolving landscape
Amaral et al. UAV applications in Agriculture 4.0
Sinha et al. High resolution aerial photogrammetry based 3D mapping of fruit crop canopies for precision inputs management
Hong et al. Adaptive target spray system based on machine vision for plant protection UAV
EP3468339B1 (de) Verfahren zur ermittlung von pflanzeneigenschaften einer nutzpflanze
Talaviya et al. Artificial Intelligence in Agriculture
US20230364630A1 (en) Systems and methods for real-time measurement and control of sprayed liquid coverage on plant surfaces
Upendar et al. The Role of Sensing Techniques in Precision Agriculture
Chakraborty Drone Technology in Agriculture
Singh et al. Digital technologies for smart agriculture
Phade et al. IoT‐Enabled Unmanned Aerial Vehicle: An Emerging Trend in Precision Farming

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Liu Fuquan

Inventor before: Sun Fuquan

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210423