CN115560754A - 一种基于杂草去除的视觉导航方法 - Google Patents
一种基于杂草去除的视觉导航方法 Download PDFInfo
- Publication number
- CN115560754A CN115560754A CN202211025906.XA CN202211025906A CN115560754A CN 115560754 A CN115560754 A CN 115560754A CN 202211025906 A CN202211025906 A CN 202211025906A CN 115560754 A CN115560754 A CN 115560754A
- Authority
- CN
- China
- Prior art keywords
- weeding
- weeding robot
- crop
- weed
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D34/00—Mowers; Mowing apparatus of harvesters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Abstract
本发明公开了一种基于杂草去除的视觉导航方法,对田间图像进行采集处理;对作物行区域划分完成对作物中心的标记;通过计算获取苗心精准位置;确定除草机器人自主行走路径;计算刀苗距离,利用机器除草,本发明通过基于机器视觉的除草机器人杂草识别算法来精准的计算出苗心的精准位置和杂草清除的区域位置信息,以此来方便快速的对田间苗草的位置进行精确定位,且结合信息共享技术,使田间苗草的位置信息同步至除草机器人的末端执行器,且在此基础上,结合除草机器人上近距离安装的视觉传感器来进一步识别作物的行中心线,从而计算出除草机器人的位姿和除草机器人自主行走的路线,使除草机器人按照规定的行走路线进行行走。
Description
技术领域
本发明涉及田间杂草去除技术领域,具体为一种基于杂草去除的视觉导航方法。
背景技术
随着农业劳动力成本的提高,发达国家广泛开展了农业机器人研究,近年,又开始了对除草机器人的研究,目前,在我国主要使用的除草方法是人工锄抚刀抚,其特点是劳动强度大、耗时费力、效率低、效果欠佳,除草工作完成后,幼苗仍会受到不同程度的草害威胁,但是国内对于除草机器人的研究正在起步,这其中机器人机械臂的运动学分析和图像识别又是比较关键的技术,以及除草方法的不断改进更使效率大大提高,且目前在对田间苗草信息进行获取时,苗草信息的获取技术主要有三种,分别为机器视觉技术、地理信息系统技术和近距离传感器实时检测技术,且杂草和作物的辨别主要依靠机器视觉技术实现;
但是当前的机器视觉技术在采集信息过程中,容易受到光线阴暗、作物大小和杂草密集度的影响,从而导致对其采集结果造成影响,同时地理信息系统技术在使用前需要单独的绘制地理种子地图,从而使得绘制地图和锄草作业不在一个时间段,导致锄草作业容易因时间变化而不可控,影响实际锄草效果,近距离传感器实时检测技术使用时需要靠近作物才能够检测出杂草,因此其对苗草信息获取的范围小,因此当前的苗草获取技术均无法单独高效的完成田间杂草的清除。
发明内容
本发明提供一种基于杂草去除的视觉导航方法,可以有效解决上述背景技术中提出是当前的机器视觉技术在采集信息过程中,容易受到光线阴暗、作物大小和杂草密集度的影响,从而导致对其采集结果造成影响,同时地理信息系统技术在使用前需要单独的绘制地理种子地图,从而使得绘制地图和锄草作业不在一个时间段,导致锄草作业容易因时间变化而不可控,影响实际锄草效果,近距离传感器实时检测技术使用时需要靠近作物才能够检测出杂草,因此其对苗草信息获取的范围小,因此当前的苗草获取技术均无法单独高效的完成田间杂草的清除的问题。
为实现上述目的,本发明提供如下技术方案:一种基于杂草去除的视觉导航方法,该视觉导航方法主要基于机器视觉的除草机器人杂草识别算法来精准的计算出苗心的精准位置和杂草清除的区域位置信息,并结合除草机器人上的视觉传感器来识别作物的行中心线,从而计算出除草机器人的位姿和除草机器人自主行走的路线,使除草机器人按照规定的行走路线能够有效的对杂草清除区域的杂草进行清除;
视觉导航方法具体包括如下步骤:
S1、对田间图像进行采集处理;
S2、对作物行区域划分完成对作物中心的标记;
S3、通过计算获取苗心精准位置;
S4、确定除草机器人自主行走路径;
S5、计算刀苗距离,利用机器除草。
根据上述技术方案,所述S1中,对田间图像进行采集处理具体是指对玉米大田种植的玉米作物进行图像采集,主要对田间的玉米作物图像采集和对田间的杂草图像采集,在图像采集后,将采集的图像中的作物和杂草作为绿色植物区,将土壤作为背景区,同时将两个区域的图像进行灰度化处理,以完成两个区域的分割。
根据上述技术方案,在图像分割时,主要在计算机上进行,且主要利用颜色特征来将绿色植物从土壤的背景中分割出来,绿色植物主要为农作物和杂草,且为了减少图像分割的处理时间,在RGB空间中直接将24位真彩色图像转化为二值图像,0为背景,1为绿色植物,顺序搜索图像中每一个像素点,如果当前像素中G>R且G>B,则将该像素值置1为植物,否则0为背景,从而完成图像分割,RGB颜色空间以R:红、G:绿、B:蓝三种基本色为基础;
在获取图像后,基于可见光像素直方图的快速识别算法来对图像进行进一步处理,由于田间图像采用改进的超滤算法灰度化后的目标与背景在灰度值上存在差异,因此需要采用最大类间方差法进行阈值选取。
根据上述技术方案,在对田间图像进行采集时,需要对田间采集图像时的光线进行控制,在具体对光线进行控制的过程中,具体包括补光操作和挡光操作;
所述补光操作是指在高清相机在获取田间图像信息时,在遇到天气光线阴暗的情况时,通过补光设备在高清相机获取田间图像的视角内进行补光,以此来保证田间图像信息获取的清晰度;
所述挡光操作是指高清相机在获取图像时,在阳光光线强烈并存在反光的情况下,通过挡光设备来对高清相机进行挡光,从而避免光线强烈反光而造成田间图像获取时存在不清楚的现象。
根据上述技术方案,所述S2中,对作物行区域划分完成对作物中心的标记是指通过对作物进行区域划分,并对其直方图进行统计和修正,以此来划定作物的包围框,从而完成对作物中心的标记处理。
根据上述技术方案,所述S3中,通过计算获取苗心精准位置主要是通过前期研究的对比,来结合中值滤波的方法,滤除细小噪声,只剩下叶片,再通过计算叶片的形心,以此来获得苗心的精准位置。
根据上述技术方案,所述S4中,确定除草机器人的自主行走路径在具体实现过程中,主要通过除草机器人上安装的视觉传感器来识别出作物的行中心线,并以此来计算出除草机器人的位姿,并使除草机器人以农作物的行中心线为基准线,沿行中心线进行自主行走。
根据上述技术方案,在计算出除草机器人的位姿时,主要利用USB接口摄像头连续采集图像,并对采集的图像在RGB空间内直接完成图像分割,利用Hough变换检测出导航线,根据透视变换原理与摄像头姿态在线实时地求出除草机器人位姿。
根据上述技术方案,在S4中,农田作物大多都是以行为单位进行种植,行间有一定的间距,在作物生长的同时,一些杂草生长在农作物的行间和行内,从而研究行间杂草的识别。
根据上述技术方案,所述S5中,计算刀苗距离主要是利用苗心到图像中心的偏差像素数来计算刀苗距,以此来确定杂草清除的区域位置信息,并将该位置信息传输至除草机器人;
利用机器除草是指在作物包围框内除苗心以外的区域通过除草机器人来对确定的杂草清除区域进行除草作业,除草机器人在除草时,主要按照其规定的行走路径进行行走,在除草机器人到达杂草清除区域后,除草机器人停止行走,根据杂草清除的区域位置信息来确定杂草的准确清除的位置信息,并将除草机器人的机械手臂移动到杂草清除位置,自动进行除草;
在该区域位置除草结束后,除草机器人的除草动作停止,除草机器人继续沿农作物行行走。
与现有技术相比,本发明的有益效果:本发明结构科学合理,使用安全方便:
通过基于机器视觉的除草机器人杂草识别算法来精准的计算出苗心的精准位置和杂草清除的区域位置信息,以此来方便快速的对田间苗草的位置进行精确定位,且结合信息共享技术,使田间苗草的位置信息同步至除草机器人的末端执行器,且在此基础上,结合除草机器人上近距离安装的视觉传感器来进一步识别作物的行中心线,从而计算出除草机器人的位姿和除草机器人自主行走的路线,使除草机器人按照规定的行走路线进行行走,且结合田间苗草的位置信息,来方便精准有效的对杂草清除区域的杂草进行清除作业,通过以不同的获取方式来分别获取苗草的位置信息和除草机器人行走位置信息,以便更好的完成杂草清除的工作。
通过对田间采集图像时的光线进行控制,方便在遇到天气光线阴暗的情况时,通过补光设备在高清相机获取田间图像的视角内进行补光,以此来保证田间图像信息获取的清晰度,同时能够在阳光光线强烈并存在反光的情况下,通过挡光设备来对高清相机进行挡光,从而避免光线强烈反光而造成田间图像获取时存在不清楚的现象,通过以上对田间关系进行补光和挡光操作,使得高清相机在获取田间图像时能够保持图像获取的精度和清晰度,从而便于后续更准确的识别计算出苗草的具体位置信息。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
在附图中:
图1是本发明视觉导航方法的步骤流程图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例:如图1所示,本发明提供一种技术方案,一种基于杂草去除的视觉导航方法,该视觉导航方法主要基于机器视觉的除草机器人杂草识别算法来精准的计算出苗心的精准位置和杂草清除的区域位置信息,并结合除草机器人上的视觉传感器来识别作物的行中心线,从而计算出除草机器人的位姿和除草机器人自主行走的路线,使除草机器人按照规定的行走路线能够有效的对杂草清除区域的杂草进行清除;
视觉导航方法具体包括如下步骤:
S1、对田间图像进行采集处理;
S2、对作物行区域划分完成对作物中心的标记;
S3、通过计算获取苗心精准位置;
S4、确定除草机器人自主行走路径;
S5、计算刀苗距离,利用机器除草。
基于上述技术方案,S1中,对田间图像进行采集处理具体是指对玉米大田种植的玉米作物进行图像采集,主要对田间的玉米作物图像采集和对田间的杂草图像采集,在图像采集后,将采集的图像中的作物和杂草作为绿色植物区,将土壤作为背景区,同时将两个区域的图像进行灰度化处理,以完成两个区域的分割。
基于上述技术方案,在图像分割时,主要在计算机上进行,且主要利用颜色特征来将绿色植物从土壤的背景中分割出来,绿色植物主要为农作物和杂草,且为了减少图像分割的处理时间,在RGB空间中直接将24位真彩色图像转化为二值图像,0为背景,1为绿色植物,顺序搜索图像中每一个像素点,如果当前像素中G>R且G>B,则将该像素值置1为植物,否则0为背景,从而完成图像分割,RGB颜色空间以R:红、G:绿、B:蓝三种基本色为基础;
在获取图像后,基于可见光像素直方图的快速识别算法来对图像进行进一步处理,由于田间图像采用改进的超滤算法灰度化后的目标与背景在灰度值上存在差异,因此需要采用最大类间方差法(OTSU法)进行阈值选取。
基于上述技术方案,在对田间图像进行采集时,需要对田间采集图像时的光线进行控制,在具体对光线进行控制的过程中,具体包括补光操作和挡光操作;
补光操作是指在高清相机在获取田间图像信息时,在遇到天气光线阴暗的情况时,通过补光设备在高清相机获取田间图像的视角内进行补光,以此来保证田间图像信息获取的清晰度;
挡光操作是指高清相机在获取图像时,在阳光光线强烈并存在反光的情况下,通过挡光设备来对高清相机进行挡光,从而避免光线强烈反光而造成田间图像获取时存在不清楚的现象。
基于上述技术方案,S2中,对作物行区域划分完成对作物中心的标记是指通过对作物进行区域划分,并对其直方图进行统计和修正,以此来划定作物的包围框,从而完成对作物中心的标记处理。
基于上述技术方案,S3中,通过计算获取苗心精准位置主要是通过前期研究的对比,来结合中值滤波的方法,滤除细小噪声,只剩下叶片,再通过计算叶片的形心,以此来获得苗心的精准位置。
基于上述技术方案,S4中,确定除草机器人的自主行走路径在具体实现过程中,主要通过除草机器人上安装的视觉传感器来识别出作物的行中心线,并以此来计算出除草机器人的位姿,并使除草机器人以农作物的行中心线为基准线,沿行中心线进行自主行走。
基于上述技术方案,在计算出除草机器人的位姿时,主要利用USB接口摄像头连续采集图像,并对采集的图像在RGB空间内直接完成图像分割,利用Hough变换检测出导航线,根据透视变换原理与摄像头姿态在线实时地求出除草机器人位姿。
基于上述技术方案,在S4中,农田作物大多都是以行为单位进行种植,行间有一定的间距,在作物生长的同时,一些杂草生长在农作物的行间和行内,从而研究行间杂草的识别。
基于上述技术方案,S5中,计算刀苗距离主要是利用苗心到图像中心的偏差像素数来计算刀苗距,以此来确定杂草清除的区域位置信息,并将该位置信息传输至除草机器人;
利用机器除草是指在作物包围框内除苗心以外的区域通过除草机器人来对确定的杂草清除区域进行除草作业,除草机器人在除草时,主要按照其规定的行走路径进行行走,在除草机器人到达杂草清除区域后,除草机器人停止行走,根据杂草清除的区域位置信息来确定杂草的准确清除的位置信息,并将除草机器人的机械手臂移动到杂草清除位置,自动进行除草;
在该区域位置除草结束后,除草机器人的除草动作停止,除草机器人继续沿农作物行行走。
最后应说明的是:以上所述仅为本发明的优选实例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于杂草去除的视觉导航方法,其特征在于:该视觉导航方法主要基于机器视觉的除草机器人杂草识别算法来精准的计算出苗心的精准位置和杂草清除的区域位置信息,并结合除草机器人上的视觉传感器来识别作物的行中心线,从而计算出除草机器人的位姿和除草机器人自主行走的路线,使除草机器人按照规定的行走路线能够有效的对杂草清除区域的杂草进行清除;
视觉导航方法具体包括如下步骤:
S1、对田间图像进行采集处理;
S2、对作物行区域划分完成对作物中心的标记;
S3、通过计算获取苗心精准位置;
S4、确定除草机器人自主行走路径;
S5、计算刀苗距离,利用机器除草。
2.根据权利要求1所述的一种基于杂草去除的视觉导航方法,其特征在于:所述S1中,对田间图像进行采集处理具体是指对玉米大田种植的玉米作物进行图像采集,主要对田间的玉米作物图像采集和对田间的杂草图像采集,在图像采集后,将采集的图像中的作物和杂草作为绿色植物区,将土壤作为背景区,同时将两个区域的图像进行灰度化处理,以完成两个区域的分割。
3.根据权利要求2所述的一种基于杂草去除的视觉导航方法,其特征在于:在图像分割时,主要在计算机上进行,且主要利用颜色特征来将绿色植物从土壤的背景中分割出来,绿色植物主要为农作物和杂草,且为了减少图像分割的处理时间,在RGB空间中直接将24位真彩色图像转化为二值图像,0为背景,1为绿色植物,顺序搜索图像中每一个像素点,如果当前像素中G>R且G>B,则将该像素值置1为植物,否则0为背景,从而完成图像分割,RGB颜色空间以R:红、G:绿、B:蓝三种基本色为基础;
在获取图像后,基于可见光像素直方图的快速识别算法来对图像进行进一步处理,由于田间图像采用改进的超滤算法灰度化后的目标与背景在灰度值上存在差异,因此需要采用最大类间方差法进行阈值选取。
4.根据权利要求2所述的一种基于杂草去除的视觉导航方法,其特征在于:在对田间图像进行采集时,需要对田间采集图像时的光线进行控制,在具体对光线进行控制的过程中,具体包括补光操作和挡光操作;
所述补光操作是指在高清相机在获取田间图像信息时,在遇到天气光线阴暗的情况时,通过补光设备在高清相机获取田间图像的视角内进行补光,以此来保证田间图像信息获取的清晰度;
所述挡光操作是指高清相机在获取图像时,在阳光光线强烈并存在反光的情况下,通过挡光设备来对高清相机进行挡光,从而避免光线强烈反光而造成田间图像获取时存在不清楚的现象。
5.根据权利要求1所述的一种基于杂草去除的视觉导航方法,其特征在于:所述S2中,对作物行区域划分完成对作物中心的标记是指通过对作物进行区域划分,并对其直方图进行统计和修正,以此来划定作物的包围框,从而完成对作物中心的标记处理。
6.根据权利要求1所述的一种基于杂草去除的视觉导航方法,其特征在于:所述S3中,通过计算获取苗心精准位置主要是通过前期研究的对比,来结合中值滤波的方法,滤除细小噪声,只剩下叶片,再通过计算叶片的形心,以此来获得苗心的精准位置。
7.根据权利要求1所述的一种基于杂草去除的视觉导航方法,其特征在于:所述S4中,确定除草机器人的自主行走路径在具体实现过程中,主要通过除草机器人上安装的视觉传感器来识别出作物的行中心线,并以此来计算出除草机器人的位姿,并使除草机器人以农作物的行中心线为基准线,沿行中心线进行自主行走。
8.根据权利要求7所述的一种基于杂草去除的视觉导航方法,其特征在于:在计算出除草机器人的位姿时,主要利用USB接口摄像头连续采集图像,并对采集的图像在RGB空间内直接完成图像分割,利用Hough变换检测出导航线,根据透视变换原理与摄像头姿态在线实时地求出除草机器人位姿。
9.根据权利要求7所述的一种基于杂草去除的视觉导航方法,其特征在于:在S4中,农田作物大多都是以行为单位进行种植,行间有一定的间距,在作物生长的同时,一些杂草生长在农作物的行间和行内,从而研究行间杂草的识别。
10.根据权利要求1所述的一种基于杂草去除的视觉导航方法,其特征在于:所述S5中,计算刀苗距离主要是利用苗心到图像中心的偏差像素数来计算刀苗距,以此来确定杂草清除的区域位置信息,并将该位置信息传输至除草机器人;
利用机器除草是指在作物包围框内除苗心以外的区域通过除草机器人来对确定的杂草清除区域进行除草作业,除草机器人在除草时,主要按照其规定的行走路径进行行走,在除草机器人到达杂草清除区域后,除草机器人停止行走,根据杂草清除的区域位置信息来确定杂草的准确清除的位置信息,并将除草机器人的机械手臂移动到杂草清除位置,自动进行除草;
在该区域位置除草结束后,除草机器人的除草动作停止,除草机器人继续沿农作物行行走。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211025906.XA CN115560754A (zh) | 2022-08-25 | 2022-08-25 | 一种基于杂草去除的视觉导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211025906.XA CN115560754A (zh) | 2022-08-25 | 2022-08-25 | 一种基于杂草去除的视觉导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115560754A true CN115560754A (zh) | 2023-01-03 |
Family
ID=84738226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211025906.XA Pending CN115560754A (zh) | 2022-08-25 | 2022-08-25 | 一种基于杂草去除的视觉导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115560754A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117274566A (zh) * | 2023-09-25 | 2023-12-22 | 北京工业大学 | 一种基于深度学习和株间杂草分布状况的实时除草方法 |
CN117635719A (zh) * | 2024-01-26 | 2024-03-01 | 浙江托普云农科技股份有限公司 | 基于多传感器融合的除草机器人定位方法、系统及装置 |
-
2022
- 2022-08-25 CN CN202211025906.XA patent/CN115560754A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117274566A (zh) * | 2023-09-25 | 2023-12-22 | 北京工业大学 | 一种基于深度学习和株间杂草分布状况的实时除草方法 |
CN117274566B (zh) * | 2023-09-25 | 2024-04-26 | 北京工业大学 | 一种基于深度学习和株间杂草分布状况的实时除草方法 |
CN117635719A (zh) * | 2024-01-26 | 2024-03-01 | 浙江托普云农科技股份有限公司 | 基于多传感器融合的除草机器人定位方法、系统及装置 |
CN117635719B (zh) * | 2024-01-26 | 2024-04-16 | 浙江托普云农科技股份有限公司 | 基于多传感器融合的除草机器人定位方法、系统及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115560754A (zh) | 一种基于杂草去除的视觉导航方法 | |
Wang et al. | Automated crop yield estimation for apple orchards | |
Steward et al. | The use of agricultural robots in weed management and control | |
US7248968B2 (en) | Obstacle detection using stereo vision | |
EP3907469A1 (en) | Automatic driving system for grain processing, and automatic driving method and path planning method therefor | |
CN201600330U (zh) | 成熟菠萝识别与定位系统 | |
WO2021226900A1 (zh) | 一种基于计算机视觉的棉花作物行检测方法、装置及存储介质 | |
CN101356877A (zh) | 一种温室环境下黄瓜采摘机器人系统及采摘方法 | |
CN107295818B (zh) | 水田除草机自动避苗系统及方法 | |
CN112363503B (zh) | 一种基于激光雷达的果园车辆自动导航控制系统 | |
CN103309310B (zh) | 一种基于激光扫描的穴盘苗移栽机器人作业监控方法 | |
CN101646068A (zh) | 植物病虫害信息获取系统及方法 | |
CN113597874B (zh) | 一种除草机器人及其除草路径的规划方法、装置和介质 | |
CN108901366B (zh) | 一种天地一体化柑橘采摘方法 | |
Nan et al. | Crop positioning for robotic intra-row weeding based on machine vision | |
Vikram | Agricultural Robot–A pesticide spraying device | |
CA3125700C (en) | Automatic driving system for grain processing, automatic driving method and automatic identification method | |
Jin et al. | Far-near combined positioning of picking-point based on depth data features for horizontal-trellis cultivated grape | |
CN106683069A (zh) | 农田苗期行内作物-杂草识别方法 | |
Liu et al. | Development of a proximal machine vision system for off-season weed mapping in broadacre no-tillage fallows | |
CN115451965B (zh) | 基于双目视觉的插秧机插植系统相对航向信息检测方法 | |
Wang et al. | Design of crop yield estimation system for apple orchards using computer vision | |
Mohammed Amean et al. | Automatic plant branch segmentation and classification using vesselness measure | |
Patnaik et al. | Weed removal in cultivated field by autonomous robot using LabVIEW | |
CN114485612B (zh) | 路线生成方法、装置、无人作业车、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |