CN110421580A - 一种田间智能机器人及其工作方法 - Google Patents
一种田间智能机器人及其工作方法 Download PDFInfo
- Publication number
- CN110421580A CN110421580A CN201910824297.6A CN201910824297A CN110421580A CN 110421580 A CN110421580 A CN 110421580A CN 201910824297 A CN201910824297 A CN 201910824297A CN 110421580 A CN110421580 A CN 110421580A
- Authority
- CN
- China
- Prior art keywords
- micro
- weeding
- servo motor
- module
- crops
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B49/00—Combined machines
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B49/00—Combined machines
- A01B49/04—Combinations of soil-working tools with non-soil-working tools, e.g. planting tools
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
Abstract
本发明适用于智能机器人技术领域,尤其涉及一种田间智能机器人,所述田间智能机器人包括:移动平台,用于带动所述机器人移动;多目标识别测距模块,用于采集田间图像信息;控制器,用于接收所述田间图像信息,根据所述田间图像信息识别田间异物,并控制除草与微耕模块清除所述田间异物和对土地进行微耕;所述除草与微耕模块用于在所述控制器的控制下清除所述田间异物和对土地进行微耕;电源模块,用于为所述机器人供电。本发明实施例通过引入多目标识别测距模块和除草与微耕模块,能够有效解决现有技术中对多目标识别与测距精度不高以及杂草异物清除时不能同步微耕且功能单一问题。
Description
技术领域
本发明属于智能机器人领域,尤其涉及一种田间智能机器人及其工作方法。
背景技术
农田田间的杂草清除与微耕自动化作业对于我国实现“智慧农业”战略具有十分重要的意义,因为农田田间的杂草清除与微耕自动化作业有助于农作物的茁壮成长,促进农作物进行光合作用与根部的有氧呼气。
随着我国农业现代化智能程度的不断加快,在自然生长环境条件下,如何准确高效清除田间农作物的杂草目标对于实现田间智能化管理起到重要作用,一方面有助于智能设备的自动化除草作业和自动水肥变量喷施,另一方面有助于减少田间农药化肥的使用。因此,如何准确高效的清除田间农作物的杂草具有十分重要的意义,对于推进现代信息技术与农业的深度跨界融合也具有实际理论意义。现有的智能机器人绝大多数以传统机器学习或者机器视觉的方式进行农作物与杂草目标识别,依赖于人工的设计与制造检测特征,设计过程中易受主观因素影响,最终形成的特征检测特征也是参差不齐,难以适应自然环境因素的变化,泛化能力较差。
由此可见,现有的智能机器人存在难以适应不同环境,且泛化能力较差的问题,急需解决。
发明内容
本发明实施例的目的在于提供一种田间智能机器人及其工作方法,旨在解决现有的智能机器人存在难以适应不同环境,且泛化能力较差的问题。
本发明实施例是这样实现的,一种田间智能机器人,所述田间智能机器人包括:
移动平台,设置有平台主体和行驶轮,用于带动所述机器人移动;
多目标识别测距模块,安装在所述移动平台上,包括两个深度相机,用于采集田间图像信息,并传输至控制器;
所述控制器,用于接收所述田间图像信息,根据所述田间图像信息识别田间异物,并控制除草与微耕模块清除所述田间异物和对土地进行微耕;
所述除草与微耕模块,包括除草与微耕复合基座、可升降除草设备,微耕机械臂固定座、微耕机械臂、以及微耕机械爪,用于在所述控制器的控制下清除所述田间异物和对土地进行微耕;其中,所述除草与微耕复合基座固定连接在所述移动平台上,所述除草与微耕复合基座上设置有可升降除草设备以及所述微耕机械臂固定座,所述微耕机械臂固定座四周对称安装有四个可转动微耕机械臂,所述微耕机械臂的另一端安装有微耕机械爪;以及
电源模块,设置在所述移动平台上,用于为所述机器人供电。
本发明实施例的另一目的在于提供一种田间智能机器人的工作方法,包括:
步骤一,以自然环境条件下的农作物与杂草图像为样本,基于深度学习中的经典TensorFlow深度学习框架,利用COCO数据集的预训练模型进行初始化参数设置,迁移训练得到农作物与杂草目标识别深度网络模型,并对深度相机和可负载机械臂进行室外除草田间标定;
步骤二,控制器通过驱动行驶轮驱动电机的正转与反转,实现所述移动平台的前进与后退,通过行驶轮驱动电机的差速旋转实现所述移动平台的转向;所述深度相机获取关键帧图像,所述关键帧图像至少包括田间杂草图像;
步骤三,将所述关键帧图像导入所述农作物与杂草目标识别深度网络模型进行目标识别、边界回归以及二维中心坐标的获取;并控制所述机器人停止在农作物上方,通过二维中心坐标转化为三维中心坐标,并对深度相机到目标物体之间的距离进行测量,计算得到农作物与杂草之间的距离;
步骤四,以所述深度相机视野中农作物为中心,按照一定的距离范围之内是非安全区域设定,一定的距离范围之外是安全区域设定,并对处于安全区域的杂草可以进行除草作业;
步骤五,当完成除草作业时,除草与微耕模块恢复初始状态等待进一步的指令;对完成除草作业的安全区域进行微耕作业;
步骤六,微耕作业完成后,所述机器人继续行驶,并且重复上述步骤三至步骤五。
本发明实施例通过移动平台、除草与微耕模块、控制器等结构的设置,使得机器人适用于各种复杂田间环境,可以实现24小时全天候作业,负载能力大,灵活性强,自由度高;自主设计的除草与微耕模块机械结构设计巧妙,通过可升降除草设备和微耕机械臂的交互协调配合,解决了现有智能机器人杂草异物清除时不能同步微耕且功能单一问题;通过对农作物与杂草目标的准确高效识别,利用深度学习方法克服传统机器学习方法中存在易受复杂环境背景、农作物与杂草遮挡以及光线等农田环境因素的干扰,目标识别效率低下且泛化能力差的问题,从而在目标检测与识别方面表现出强大的能力;通过提出获取目标二维坐标的方法,通过第一深度相机的使用,根据实时的视频流数据获取关键帧图像,一方面用于实现目标识别,利用获取目标二维坐标的方法获取精准的目标二维坐标,另一方面用于实现边界回归,充分解决了深度相机在面对多目标的识别与测距任务时存在的劣势,使得农作物到杂草的精准测距在智能机器人除草与微耕作业任务中发挥重要作用。
附图说明
图1示出了本发明实施例提供的田间智能机器人的结构示意图;
图2示出了本发明实施例中田间智能机器人的工作环境示意图;
图3示出了本发明实施例中提供的移动平台的结构示意图;
图4示出了本发明实施例提供的除草与微耕模块的结构示意图;
图5示出了本发明实施例提供的可升降除草设备的除草工作状态示意图;
图6示出了本发明实施例提供的除草与微耕模块的微耕工作状态示意图;
图7示出了本发明实施例提供的可升降除草设备的整体与解剖结构示意图;
图8示出了本发明实施例提供的微耕机械臂的整体与解剖结构示意图;
图9示出了本发明实施例提供的微耕机械爪的整体与解剖结构示意图;
图10示出了本发明实施例提供的田间智能机器人的主视图;
图11示出了本发明实施例提供的田间智能机器人的后视图;
图12示出了本发明实施例提供的控制器的结构示意图;
图13示出了本发明实施例提供的田间智能机器人的俯视图;
图14示出了本发明实施例提供的田间智能机器人的马路工作状态示意图;
图15示出了本发明实施例提供的农作物与杂草目标识别深度网络模型识别结果示意图;
图16示出了本发明实施例提供的获取目标的二维中心坐标方法示意图;
图17示出了本发明实施例提供的多目标测距算法原理图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但除非特别说明,这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一关节臂称为第二关节臂,且类似地,可将第二关节臂称为第一关节臂。
图1为本发明实施例提供的田间智能机器人的结构示意图,图2示出了本发明实施例中田间智能机器人的工作环境示意图,如图1所示,在本发明提供的一个实施例中,田间智能机器人包括:
移动平台1,设置有平台主体和行驶轮,用于带动所述机器人移动;多目标识别测距模块2,安装在所述移动平台上,包括两个深度相机,用于采集田间图像信息,并传输至控制器;所述控制器6,用于接收所述田间图像信息,根据所述田间图像信息识别田间异物,并控制除草与微耕模块清除所述田间异物和对土地进行微耕;所述除草与微耕模块4,包括除草与微耕复合基座、可升降除草设备,微耕机械臂固定座、微耕机械臂、以及微耕机械爪,用于在所述控制器的控制下清除所述田间异物和对土地进行微耕;其中,所述除草与微耕复合基座固定连接在所述移动平台上,所述除草与微耕复合基座上设置有可升降除草设备以及所述微耕机械臂固定座,所述微耕机械臂固定座四周对称安装有四个可转动微耕机械臂,所述微耕机械臂的另一端安装有微耕机械爪;以及电源模块8,设置在所述移动平台上,用于为所述机器人供电。
在本发明实施例中,田间包括农作物9和杂草10,田间智能机器人在田间行驶时,对杂草进行清除,同时对清除完杂草的土地进行微耕作业,促进农作物的生长。
图3示出了本发明实施例中提供的移动平台的结构示意图,如图1所示,本发明实施例提供的移动平台包括:
所述移动平台为六轮移动平台,包括平台主体、普通行驶轮、可升降行驶轮、可升降支架、行驶轮固定架、行驶轮驱动电机、以及行驶轮固定基座,所述普通行驶轮有四个,设置在所述平台主体的四个角落,每个所述普通行驶轮与行驶轮驱动电机的输出轴转动连接,通过行驶轮固定架与平台主体两侧的行驶轮固定基座连接;所述可升降行驶轮设置有两个,设置在所述平台主体中间两侧,每个所述可升降行驶轮与行驶轮驱动电机的输出轴转动连接,并通过行驶轮固定架安装在可升降支架上,所述可升降支架可以在所述平台主体上升降,带动所述可升降行驶轮升降,如图3所示,移动平台主体1-1、普通行驶轮1-2、可升降行驶轮1-3、可升降支架1-4、行驶轮固定架1-5、行驶轮驱动电机1-6、行驶轮固定基座1-7,普通行驶轮1-2通过行驶轮固定架1-5与行驶轮驱动电机1-6的输出轴转动连接,且行驶轮固定架1-5安装固定在移动平台主体1-1两侧的行驶轮固定基座1-7上,可升降行驶轮1-3安装在两个普通行驶轮1-2之间,通过行驶轮固定架1-5与行驶轮驱动电机1-6的输出轴转动连接,且行驶轮固定架1-5安装在可升降支架1-4上,所述行驶轮采用充气式越野橡胶轮胎。
在本发明实施例中,移动平台通过六轮设置,可以实现平台的任意转动与移动,带动机器人在田间行驶,实现机器人对田间不同区域进行除草微耕作业。
图4-9示出了本发明实施例提供的微耕与除草模块的结构示意图,如图4-9所示,在本发明实施例提供的微耕与除草模块中,包括:
除草与微耕复合基座、可升降除草设备,微耕机械臂固定座、微耕机械臂、以及微耕机械爪,用于在所述控制器的控制下清除所述田间异物和对土地进行微耕;其中,所述除草与微耕复合基座固定连接在所述移动平台上,所述除草与微耕复合基座上设置有可升降除草设备以及所述微耕机械臂固定座,所述微耕机械臂固定座四周对称安装有四个可转动微耕机械臂,所述微耕机械臂的另一端安装有微耕机械爪,如图4所示,除草与微耕复合基座4-1、可升降除草设备4-2、微耕机械臂固定座4-3、微耕机械臂4-4、微耕机械爪4-5,其中除草与微耕复合基座4-1的一端与可负载机械臂3的负载端固定连接,另一端内含有可升降除草设备4-2,所述微耕机械臂固定座4-3安装固定于除草与微耕复合基座4-1的底部,微耕机械臂固定座4-3周围对称安装有四个可转动微耕机械臂4-4,所述微耕机械臂4-4的第一关节臂4-4-1中间部分贯穿挖空,第二关节臂4-4-2的一端与第一关节臂4-4-1一端可转动连接,另一端安装有微耕机械爪4-5,在本实施例中,可升降除草设备4-2还包括单活塞杆式可升降液压缸4-2-1,高速旋转电机座4-2-2,高速旋转电机4-2-3,高速旋转电机输出轴套4-2-4,除草刀片4-2-5,单活塞杆式可升降液压缸4-2-1的活塞杆与高速旋转电机座4-2-2固定连接,高速旋转电机4-2-3安装固定于高速旋转电机座4-2-2上,其输出轴上套有高速旋转电机输出轴套4-2-4与除草刀片4-2-5固定连接;所述微耕机械臂固定座4-3外侧上带有“T型”固定卡座;所述微耕机械臂4-4还包括带有“T型”固定卡座的第一关节臂4-4-1,第一微型伺服电机输出轴套4-4-2,第一微型伺服电机4-4-3,第二关节臂4-4-4,第二微型伺服电机输出轴套4-4-5,第二微型伺服电机4-4-6,第一微型伺服电机4-4-3的输出轴上套有第一微型伺服电机输出轴套4-4-2与第一关节臂4-4-1的一端转动连接,且第一微型伺服电机4-4-3固定安装在微耕机械臂固定座4-3外侧上带有“T型”固定卡座上,第二微型伺服电机4-4-6的输出轴上同样套有第二微型伺服电机输出轴套4-4-5与第二关节臂4-4-4的一端转动连接,且第二微型伺服电机4-4-6固定安装在带有“T型”固定卡座的第一关节臂4-4-1上;所述微耕机械爪4-5还包括第三微型伺服电机座4-5-1,第三微型伺服电机4-5-2,第三微型伺服电机输出轴套4-5-3,微耕刀片固定座4-5-4,微耕刀片4-5-5,第三微型伺服电机4-5-2安装在第三微型伺服电机座4-5-1上与第二关节臂4-4-4的另一端固定连接,其输出轴上套有第三微型伺服电机输出轴套4-5-3通过微耕刀片固定座4-5-4与微耕刀片4-5-5固定。
本发明实施例通过微耕与除草模块的设置,机械结构设计巧妙,通过可升降除草设备和微耕机械臂的交互协调配合,解决了现有智能机器人杂草异物清除时不能同步微耕且功能单一问题。
图10-11示出了本发明实施例提供的补光模块的结构示意图,如图10-11所示,本发明实施例中提供的补光模块5包括前照明灯模块2组5-1,后照明灯模块2组5-2,补光灯模块1组5-3,其中前照明灯模块5-1中的照明灯通过照明灯固定座5-1-1安装在照明灯固定支架5-1-2上,所述照明灯固定支架5-1-2固定在所述六轮智能移动平台1的两侧上,后照明灯模块5-2中的照明灯通过照明灯固定座5-2-1直接安装在所述六轮智能移动平台1的后端上方,补光灯模块5-3位于第一深度相机2-1上方,安装固定在六所述轮智能移动平台1前端底部,与第一深度相机2-1事先保持平行,实质是一种补光灯。
本发明实施例提供的补光模块,在自然光照不足的情况下,可以进行补光,保证相机采集图像的清晰度,提高杂草识别精度,高效清除杂草。
图12-14示出了本发明实施例提供的控制器的结构示意图,如图12-14所示,本发明实施例提供的控制器包括工控机,可编程逻辑控制器,STM32主控板,工控机一方面与所述Realsense D435i深度相机电气连接,另一方面通过可编程逻辑控制器与STM32主控板电气连接,其中可编程逻辑控制器通过I/O口或者485总线分别与所述可负载机械臂3的驱动电机以及所述除草与微耕模块4中的微型伺服电机和高速旋转电机电气连接,STM32主控板通过串口与所述六轮智能移动平台1中的行驶轮驱动电机1-6电气连接,所述电源系统8一方面与太阳能电池板8-1电气连接,另一方面为上述所有用电设备电提供电力支持,所述控制台6通过与可编程逻辑控制器电气连接控制智能机器人的总开关6-1,前后照明灯模块开关6-2,补光灯模块开关6-3,紧急制动开关6-4以及控制面板6-5。
本发明实施例提供的控制器能够对整个田间智能机器人进行控制,保证机器人对田间杂草的清除和对土地进行微耕。
本发明实施例还提供一种田间智能机器人的工作方法,其具体工作流程如下:
步骤一:首先,以自然环境条件下的农作物与杂草图像为样本,基于深度学习中的经典TensorFlow深度学习框架,利用COCO数据集的预训练模型进行初始化参数设置,迁移训练得到以接近实时的帧率的农作物与杂草目标识别深度网络模型;然后,将训练得到的农作物与杂草目标识别深度模型以及多目标测距算法部署到工控机的操作系统中;其次,对第一深度相机、第二深度相机和可负载机械臂进行室外除草田间标定,实现室外空间三维立体建模;
步骤二:基于步骤一的基础上,当该田间智能机器人行驶在农作物上方时,控制器中的STM32主控板通过驱动行驶轮驱动电机的正转与反转,进而可以实现六轮智能移动平台的前进与后退,根据行驶轮驱动电机的差速旋转原理可以实现六轮智能移动平台的转向;部署在六轮智能移动平台前端底部的第一深度相机开始工作,一方面提供实时的视频流数据用于关键帧图像的获取,另一方面根据关键帧图像的深度信息以及多目标测距算法用于实现多目标测距工作的实现;
步骤三:基于步骤二的基础上,当第一深度相机的RGB通道根据实时的视频流数据获取关键帧图像时,通过将获取的关键帧图像导入农作物与杂草目标识别深度网络模型进行目标识别和边界回归以及二维中心坐标的获取;此时,停止在农作物上方,通过二维中心坐标转化为三维中心坐标,第一深度相机利用红外立体摄像头可以实现深度相机到目标物体之间的测距;然后,再根据自主设计的多目标测距算法可以实现实时测量农作物与杂草之间的距离,进而可以对农作物与杂草之间的距离进行栈排序处理并输出排序结果,以供除草与微耕模块中的可升降除草设备进行精准除草作业;
步骤四:基于步骤三的基础上,当获取到第一深度相机视野中农作物与杂草之间的距离栈排序处理过后的排序结果时,以第一深度相机视野中农作物为中心,按照一定的距离范围之内是非安全区域设定,一定的距离范围之外是安全区域设定;此时,根据栈排序处理过后的排序结果与设定的距离进行比较,即可得到处于非安全区域与安全区域的杂草数目,处于非安全区域的杂草不予处理,而处于安全区域的杂草可以进行精准高效除草作业;此后,除草与微耕模块中的可升降除草设备可以在可负载机械臂的路径规划下到达杂草目标附近上方且远离农作物的方向,可升降除草设备中的单活塞杆式可升降液压缸的活塞杆上的高速旋转电机高速旋转进而带动除草刀片除草作业;
步骤五:基于步骤四的基础上,当除草与微耕模块中的可升降除草设备完成除草作业时,可升降除草设备中的单活塞杆式可升降液压缸的活塞杆上升恢复初始状态等待进一步的指令;此时,仍以第一深度相机视野中农作物为中心,对完成精准高效除草作业的安全区域可以进行微耕作业,除草与微耕模块中的微耕机械臂通过第一关节臂和第二关节臂的转动配合使得微耕机械臂从折叠状态处于伸展状态,从而带动微耕机械爪的微耕作业;
步骤六:当完成步骤一至步骤五的任务后,该田间智能机器人开始继续行驶,一旦田间智能机器人中第一深度相机的RGB通道根据实时的视频流数据获取关键帧图像时,此时该田间智能机器人停止,并且重复上述步骤三至步骤五,否则继续行驶下去;
步骤七:当该田间智能机器人的所处的田间环境光线不足时,此时,可以通过开启补光灯模块进行补光操作,从而可以提高除草与微耕的质量与效率;另外,如果需要夜间行驶或者除草与微耕作业时,此时,可以通过同时开启前照明灯模块,后照明灯模块以及补光灯模块;然后,重复上述步骤三至步骤六即可。
本发明实施例提供的田间智能机器人的工作方法中,通过预先建立农作物和杂草识别模型,通过深度相机获取田间农作物和杂草的图像信息,并对杂草进行识别,进而控制除草与微耕设备对杂草进行清除和对土地进行微耕,杂草识别精度高,除草效率高。
图15-17示出了本发明实施例提供的多目标测距算法的工作示意图,如图15-17所示,本发明实施例提供的多目标测距算法的具体流程如下:
S1、第一深度相机的RGB通道根据实时的视频流数据获取关键帧图像,通过将获取的关键帧图像导入农作物与杂草目标识别深度网络模型进行目标识别和边界回归,同时判断目标是农作物还是杂草;
S2、如果目标是农作物,获取农作物的二维中心坐标,并且存入数据库A,然后再将存入数据库A中的二维中心坐标转换为相机坐标系下的三维中心坐标,同时将映射的三维中心坐标存入数据库C,通过获取数据库C中的三维中心坐标可以计算得到农作物的三维中心坐标到深度相机的距离d;
S3、如果目标是杂草,获取杂草的二维中心坐标,并且存入数据库B,然后再将存入数据库B中的二维中心坐标转换为相机坐标系下的三维中心坐标,同时将映射的三维中心坐标存入数据库D,并且记录杂草的数量计为j以及对应的三维中心坐标;此时,设置一个循环变量i(0<i<j+1),通过判断循环变量i是否小于j+1,如果是则通过获取数据库D中对应的第i个三维中心坐标可以计算得到第i株杂草的三维中心坐标到深度相机的距离di;
S4、在步骤S2和步骤S3基础上,可以通过同时获取数据库C中的三维中心坐标和获取数据库D中对应的第i个三维中心坐标计算得到农作物到第i株杂草的距离si,并且将得到的距离si进行栈排序处理;
S5、在步骤S4的基础上,通过判断循环变量i是否小于j+1,如果大于j+1则输出栈排序处理过后的结果,即输出栈内排序元素的顺序,跳出循环。
其中,针对步骤S2和步骤S3中获取目标的二维中心坐标方法如下:
首先,基于农作物与杂草目标识别深度网络模型进行目标识别和边界回归之后,利用传统图像处理方式提取目标的轮廓图像,根据提取的轮廓图像,通过遍历目标轮廓线上的所有坐标点,并且将目标轮廓线上所处列的最小值点记为c1,所处列的最大值点记为c2,将目标轮廓线上所处行不变,列呈线性变化的一系列坐标中列的最小值点和最大值点分别记为c3,c4;然后,通过将c1点与c4点连接,将c2点与c3点连接,两条直线的交点必定交于目标根处;最后,通过求解两条直线的交点即可求得目标的二维中心坐标。
针对步骤S2、步骤S3以及步骤S4中农作物到深度相机的距离d,第i株杂草到深度相机的距离di,农作物到第i株杂草的距离si,测距方法分别如下:
其中,农作物到深度相机的距离d测距方法为:通过获取数据库C中的三维中心坐标,以深度相机为坐标系原点,利用三维立体空间中两点距离坐标公式求解农作物到深度相机的距离d;
第株杂草到深度相机的距离di测距方法为:通过获取数据库D中的三维中心坐标,以深度相机为坐标系原点,利用三维立体空间中两点距离坐标公式求解第株杂草到深度相机的距离di;
农作物到第i株杂草的距离si测距方法为:第一种,根据前述所求得的农作物到深度相机的距离d、第i株杂草到深度相机的距离di、数据库C中的农作物三维中心坐标记为(x1,y1,z1)、数据库D中的第i株杂草三维中心坐标记为(x2,y2,z2),利用公式可以求得农作物到第i株杂草的一组距离数据记为s′i;第二种,根据三维立体空间中两点距离坐标公式可求解农作物到第i株杂草的另一组距离数据记为d′i;通过多次求得s′i和d′i距离数据从而获取多组数据,由于所求的d′i和s′i距离数据服从正态分布,则其标准差为最终的即为农作物到第i株杂草的距离。
本发明实施例提供的田间智能机器人,作为信息技术与农业领域深度融合的必然产物,对于推动我国智慧农业的实际应用具有重大的现实意义,通过引入多目标识别测距模块和除草与微耕模块,能够有效解决现有技术中对多目标识别与测距精度不高以及杂草异物清除时不能同步微耕且功能单一问题,利用深度学习方法克服传统机器学习方法中存在易受复杂环境背景、农作物与杂草遮挡以及光线等农田环境因素的干扰,目标识别效率低下且泛化能力差的问题,从而在目标检测与识别方面表现出强大的能力利,针对自主设计的多目标测距算法,以及提出获取目标二维坐标的方法,充分解决了深度相机在面对多目标的识别与测距任务时存在的劣势,使得农作物到杂草的精准测距在智能机器人除草与微耕作业任务中发挥重要作用,改变了传统方式的机械化除草,无论是从智能化的机械设计角度,还是从智能化的除草方式角度,本发明都做了重大的改进,提高了多目标异物清除智能除草机器人的智能化程度。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种田间智能机器人,其特征在于,所述田间智能机器人包括:
移动平台,设置有平台主体和行驶轮,用于带动所述机器人移动;
多目标识别测距模块,安装在所述移动平台上,包括两个深度相机,用于采集田间图像信息,并传输至控制器;
所述控制器,用于接收所述田间图像信息,根据所述田间图像信息识别田间异物,并控制除草与微耕模块清除所述田间异物和对土地进行微耕;
所述除草与微耕模块,包括除草与微耕复合基座、可升降除草设备,微耕机械臂固定座、微耕机械臂、以及微耕机械爪,用于在所述控制器的控制下清除所述田间异物和对土地进行微耕;其中,所述除草与微耕复合基座固定连接在所述移动平台上,所述除草与微耕复合基座上设置有可升降除草设备以及所述微耕机械臂固定座,所述微耕机械臂固定座四周对称安装有四个可转动微耕机械臂,所述微耕机械臂的另一端安装有微耕机械爪;以及
电源模块,设置在所述移动平台上,用于为所述机器人供电。
2.根据权利要求1所述的机器人,其特征在于,所述移动平台为六轮移动平台,包括平台主体、普通行驶轮、可升降行驶轮、可升降支架、行驶轮固定架、行驶轮驱动电机、以及行驶轮固定基座,所述普通行驶轮有四个,设置在所述平台主体的四个角落,每个所述普通行驶轮与行驶轮驱动电机的输出轴转动连接,通过行驶轮固定架与平台主体两侧的行驶轮固定基座连接;所述可升降行驶轮设置有两个,设置在所述平台主体中间两侧,每个所述可升降行驶轮与行驶轮驱动电机的输出轴转动连接,并通过行驶轮固定架安装在可升降支架上,所述可升降支架可以在所述平台主体上升降,带动所述可升降行驶轮升降。
3.根据权利要求1所述的机器人,其特征在于,所述可升降除草设备包括单活塞杆式可升降液压缸、高速旋转电机座、高速旋转电机、高速旋转电机输出轴套、以及除草刀片,所述单活塞杆式可升降液压缸的活塞杆与所述高速旋转电机座固定连接,所述高速旋转电机固定安装于所述高速旋转电机座上,所述高速旋转电机的输出轴上套有所述高速旋转电机输出轴套,所述除草刀片固定设置所述高速旋转电机输出轴套上;所述微耕机械臂固定座外侧上设有“T”型固定卡槽,所述微耕机械臂包括带有“T”型固定卡槽的第一关节臂,第一微型伺服电机输出轴套、第一微型伺服电机、第二关节臂、第二微型伺服电机输出轴套、以及第二微型伺服电机,所述第一微型伺服电机的输出轴上套有所述第一微型伺服电机输出轴套,所述第一关节臂的一端与所述第一微型伺服电机输出轴套转动连接,且所述第一微型伺服电机固定安装所述微耕机械臂固定座的“T”型卡槽外侧;所述第二微型伺服电机的输出轴上套有第二微型伺服电机输出轴套,所述第二关节臂的一端与所述第二微型伺服电机输出轴套转动连接,所述第二微型伺服电机安装在所述第一关节臂的“T”型固定卡槽外侧。
4.根据权利要求3所述的机器人,其特征在于,所述微耕机械爪包括第三微型伺服电机座、第三微型伺服电机、第三微型伺服电机输出轴套、微耕刀片固定座、以及微耕刀片,所述第三微型伺服电机安装在所述第三微型伺服电机座上,所述第三微型伺服电机座与第二关节臂的另一端固定连接,所述第三微型伺服电机的输出轴上套有所述第三微型伺服电机输出轴套,所述微耕刀片通过所述微耕刀片固定座固定在所述第三微型伺服电机输出轴套上。
5.根据权利要求1所述的机器人,其特征在于,所述机器人还包括:
补光模块,所述补光模块包括前照明灯模块2组,后照明灯模块2组,补光灯模块1组,其中前照明灯模块中的照明灯通过照明灯固定座安装在照明灯固定支架上,所述照明灯固定支架固定在所述移动平台前端,后照明灯模块中的照明灯通过照明灯固定座直接安装在所述移动平台的后端,补光灯模块固定安装在所述移动平台底部,与深度相机平行,用于为所述深度相机补光。
6.根据权利要求1所述的机器人,其特征在于,所述除草与微耕模块通过可负载机械臂与所述移动平台连接,所述可负载机械臂采用具有五个自由度的机械臂。
7.根据权利要求1所述的机器人,其特征在于,所述控制器包括工控机、可编程逻辑控制器、以及STM32主控板,所述工控机一方面与所述深度相机电气连接,另一方面通过可编程逻辑控制器与STM32主控板电气连接,其中可编程逻辑控制器通过485总线分别与所述可负载机械臂的驱动电机以及所述除草与微耕模块中的微型伺服电机和高速旋转电机电气连接,STM32主控板通过串口与所述移动平台中的行驶轮驱动电机电气连接,所述电源模块一方面与太阳能电池板电气连接,另一方面为上述所有用电设备电提供电力支持,所述控制台通过与可编程逻辑控制器电气连接控制机器人的总开关、前后照明灯模块开关、补光灯模块开关、紧急制动开关以及控制面板。
8.一种田间智能机器人的工作方法,应用于权利要求1-7中任一权利要求所述的田间智能机器人,其特征在于,包括:
步骤一,以自然环境条件下的农作物与杂草图像为样本,基于深度学习中的经典TensorFlow深度学习框架,利用COCO数据集的预训练模型进行初始化参数设置,迁移训练得到农作物与杂草目标识别深度网络模型,并对深度相机和可负载机械臂进行室外除草田间标定;
步骤二,控制器通过驱动行驶轮驱动电机的正转与反转,实现所述移动平台的前进与后退,通过行驶轮驱动电机的差速旋转实现所述移动平台的转向;所述深度相机获取关键帧图像,所述关键帧图像至少包括田间杂草图像;
步骤三,将所述关键帧图像导入所述农作物与杂草目标识别深度网络模型进行目标识别、边界回归以及二维中心坐标的获取;并控制所述机器人停止在农作物上方,通过二维中心坐标转化为三维中心坐标,并对深度相机到目标物体之间的距离进行测量,计算得到农作物与杂草之间的距离;
步骤四,以所述深度相机视野中农作物为中心,按照一定的距离范围之内是非安全区域设定,一定的距离范围之外是安全区域设定,并对处于安全区域的杂草可以进行除草作业;
步骤五,当完成除草作业时,除草与微耕模块恢复初始状态等待进一步的指令;对完成除草作业的安全区域进行微耕作业;
步骤六,微耕作业完成后,所述机器人继续行驶,并且重复上述步骤三至步骤五。
9.根据权利要求8所述的工作方法,其特征在于,所述并对深度相机到目标物体之间的距离进行测量,计算得到农作物与杂草之间的距离,包括:
将所述关键帧图像导入农作物与杂草目标识别深度网络模型进行目标识别,同时判断目标是农作物还是杂草;
当目标是农作物,获取农作物的二维中心坐标,并且存入数据库A,然后再将存入数据库A中的二维中心坐标转换为相机坐标系下的三维中心坐标,同时将映射的三维中心坐标存入数据库C,通过获取数据库C中的三维中心坐标可以计算得到农作物的三维中心坐标到深度相机的距离d;
当目标是杂草,获取杂草的二维中心坐标,并且存入数据库B,然后再将存入数据库B中的二维中心坐标转换为相机坐标系下的三维中心坐标,同时将映射的三维中心坐标存入数据库D,并且记录杂草的数量计为j以及对应的三维中心坐标;此时,设置一个循环变量i,其中,0<i<j+1,通过判断循环变量i是否小于j+1,如果小于j+1,则通过获取数据库D中对应的第i个三维中心坐标可以计算得到第i株杂草的三维中心坐标到深度相机的距离di;
根据所述d和di控制所述除草与微耕模块对所述杂草进行清除。
10.根据权利要求9所述的工作方法,其特征在于,所述目标二维中心坐标的方法包括:
提取所述目标的轮廓图像,根据所述轮廓图像,遍历目标轮廓线上的所有坐标点,并且将所述目标轮廓线上所处列的最小值点记为c1,最大值点记为c2,将所述目标轮廓线上所处行不变,列呈线性变化的一系列坐标中列的最小值点和最大值点分别记为c3,c4;
通过将c1点与c4点连接,将c2点与c3点连接,得到两条直线的交点;
通过求解两条直线的交点得到目标的二维中心坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910824297.6A CN110421580B (zh) | 2019-09-02 | 2019-09-02 | 一种田间智能机器人及其工作方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910824297.6A CN110421580B (zh) | 2019-09-02 | 2019-09-02 | 一种田间智能机器人及其工作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110421580A true CN110421580A (zh) | 2019-11-08 |
CN110421580B CN110421580B (zh) | 2023-08-18 |
Family
ID=68418518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910824297.6A Active CN110421580B (zh) | 2019-09-02 | 2019-09-02 | 一种田间智能机器人及其工作方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110421580B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102320256B1 (ko) | 2021-03-30 | 2021-11-01 | 대한민국 | 가압 마찰식 방법을 이용한 인공지능형 논 잡초 관리 로봇 |
CN114063639A (zh) * | 2021-10-16 | 2022-02-18 | 长沙乐源土地规划设计有限责任公司 | 一种无人机遥感信息采集方法及装置 |
CN114424705A (zh) * | 2021-06-25 | 2022-05-03 | 江苏华源节水股份有限公司 | 一种大田智能除草方法 |
CN114698624A (zh) * | 2022-04-27 | 2022-07-05 | 中垦种业股份有限公司 | 一种水稻田高效除草方法 |
KR102418874B1 (ko) | 2021-11-17 | 2022-07-11 | 대한민국 | 논토양 정역로터리 경운장치 및 이를 포함하는 잡초 관리 로봇 |
KR102425062B1 (ko) | 2021-11-23 | 2022-07-27 | 대한민국 | 무인 외발전동휠형 벼 관리 로봇 |
WO2023239237A1 (en) * | 2022-06-09 | 2023-12-14 | Look-E B.V. | A method of real-time controlling a remote device, and training a learning algorithm |
KR20230174080A (ko) | 2022-06-20 | 2023-12-27 | 대한민국(농촌진흥청장) | 복합형 정역로터리 경운장치 및 이를 포함하는 로봇 |
WO2024036340A1 (en) * | 2022-08-12 | 2024-02-15 | Aigen Inc. | Self-maintaining, solar powered, autonomous robotics system and associated methods |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BE846923A (nl) * | 1975-10-08 | 1977-01-31 | Grondbewerkingsmachine | |
CN102239756A (zh) * | 2011-04-20 | 2011-11-16 | 东北农业大学 | 一种棚室智能耕作机器人 |
CN103029539A (zh) * | 2011-10-09 | 2013-04-10 | 沈阳理工大学 | 一种新型被动自适应六轮全地形移动机器人 |
CN103535150A (zh) * | 2013-07-02 | 2014-01-29 | 马灿魁 | 多功能旋刀大蒜收获除草深耕多用机 |
CN205390136U (zh) * | 2016-03-11 | 2016-07-27 | 武汉科技大学 | 一种农用机器人 |
CN205812683U (zh) * | 2016-05-26 | 2016-12-21 | 哈尔滨理工大学 | 一种多功用智能遥控可升降除草机 |
CN107053126A (zh) * | 2017-05-25 | 2017-08-18 | 徐秀娥 | 一种智能园林除草机器人 |
CN207075243U (zh) * | 2017-06-07 | 2018-03-09 | 太仓该亚机器人科技有限公司 | 一种具有喷洒农药功能的除草松土机 |
CN207135456U (zh) * | 2017-09-07 | 2018-03-27 | 李瑞芹 | 树苗种植松土机 |
CN109511361A (zh) * | 2019-01-08 | 2019-03-26 | 安徽农业大学 | 一种农田专用除草机器人及其控制方法 |
CN110125951A (zh) * | 2019-06-03 | 2019-08-16 | 深圳市恒博智能安防机器人有限公司 | 一种室外机器人航母 |
CN210500296U (zh) * | 2019-09-02 | 2020-05-12 | 安徽农业大学 | 一种田间智能机器人 |
-
2019
- 2019-09-02 CN CN201910824297.6A patent/CN110421580B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BE846923A (nl) * | 1975-10-08 | 1977-01-31 | Grondbewerkingsmachine | |
CN102239756A (zh) * | 2011-04-20 | 2011-11-16 | 东北农业大学 | 一种棚室智能耕作机器人 |
CN103029539A (zh) * | 2011-10-09 | 2013-04-10 | 沈阳理工大学 | 一种新型被动自适应六轮全地形移动机器人 |
CN103535150A (zh) * | 2013-07-02 | 2014-01-29 | 马灿魁 | 多功能旋刀大蒜收获除草深耕多用机 |
CN205390136U (zh) * | 2016-03-11 | 2016-07-27 | 武汉科技大学 | 一种农用机器人 |
CN205812683U (zh) * | 2016-05-26 | 2016-12-21 | 哈尔滨理工大学 | 一种多功用智能遥控可升降除草机 |
CN107053126A (zh) * | 2017-05-25 | 2017-08-18 | 徐秀娥 | 一种智能园林除草机器人 |
CN207075243U (zh) * | 2017-06-07 | 2018-03-09 | 太仓该亚机器人科技有限公司 | 一种具有喷洒农药功能的除草松土机 |
CN207135456U (zh) * | 2017-09-07 | 2018-03-27 | 李瑞芹 | 树苗种植松土机 |
CN109511361A (zh) * | 2019-01-08 | 2019-03-26 | 安徽农业大学 | 一种农田专用除草机器人及其控制方法 |
CN110125951A (zh) * | 2019-06-03 | 2019-08-16 | 深圳市恒博智能安防机器人有限公司 | 一种室外机器人航母 |
CN210500296U (zh) * | 2019-09-02 | 2020-05-12 | 安徽农业大学 | 一种田间智能机器人 |
Non-Patent Citations (1)
Title |
---|
赵轶;刘堂友;: "基于卷积神经网络的田间杂草识别方法研究", 计算机仿真, no. 04, pages 446 - 450 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102320256B1 (ko) | 2021-03-30 | 2021-11-01 | 대한민국 | 가압 마찰식 방법을 이용한 인공지능형 논 잡초 관리 로봇 |
CN114424705A (zh) * | 2021-06-25 | 2022-05-03 | 江苏华源节水股份有限公司 | 一种大田智能除草方法 |
CN114424705B (zh) * | 2021-06-25 | 2022-11-15 | 江苏华源节水股份有限公司 | 一种大田智能除草方法 |
CN114063639A (zh) * | 2021-10-16 | 2022-02-18 | 长沙乐源土地规划设计有限责任公司 | 一种无人机遥感信息采集方法及装置 |
CN114063639B (zh) * | 2021-10-16 | 2023-08-08 | 长沙乐源土地规划设计有限责任公司 | 一种无人机遥感信息采集方法及装置 |
KR102418874B1 (ko) | 2021-11-17 | 2022-07-11 | 대한민국 | 논토양 정역로터리 경운장치 및 이를 포함하는 잡초 관리 로봇 |
KR102425062B1 (ko) | 2021-11-23 | 2022-07-27 | 대한민국 | 무인 외발전동휠형 벼 관리 로봇 |
CN114698624A (zh) * | 2022-04-27 | 2022-07-05 | 中垦种业股份有限公司 | 一种水稻田高效除草方法 |
WO2023239237A1 (en) * | 2022-06-09 | 2023-12-14 | Look-E B.V. | A method of real-time controlling a remote device, and training a learning algorithm |
NL2032111B1 (en) * | 2022-06-09 | 2023-12-18 | Look E B V | A method of real-time controlling a remote device, and training a learning algorithm |
KR20230174080A (ko) | 2022-06-20 | 2023-12-27 | 대한민국(농촌진흥청장) | 복합형 정역로터리 경운장치 및 이를 포함하는 로봇 |
WO2024036340A1 (en) * | 2022-08-12 | 2024-02-15 | Aigen Inc. | Self-maintaining, solar powered, autonomous robotics system and associated methods |
Also Published As
Publication number | Publication date |
---|---|
CN110421580B (zh) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110421580A (zh) | 一种田间智能机器人及其工作方法 | |
CN110378909B (zh) | 基于Faster R-CNN的面向激光点云的单木分割方法 | |
Meng et al. | Development of agricultural implement system based on machine vision and fuzzy control | |
Chen et al. | Multi-feature fusion tree trunk detection and orchard mobile robot localization using camera/ultrasonic sensors | |
CN109961024A (zh) | 基于深度学习的小麦田间杂草检测方法 | |
EP3384243A1 (en) | Path planning for area coverage | |
CN107748886A (zh) | 一种基于深度相机的轨道式现代标准化果园信息感知系统 | |
CN104848851A (zh) | 基于多传感器数据融合构图的变电站巡检机器人及其方法 | |
CN109597420A (zh) | 一种智能割草机边界自动闭合处理系统及方法 | |
CN105794382A (zh) | 一种基于机器视觉技术的果园精准施肥装置及施肥方法 | |
CN107808123A (zh) | 图像可行域检测方法、电子设备、存储介质、检测系统 | |
CN107295818A (zh) | 水田除草机自动避苗系统及方法 | |
CN113396650B (zh) | 一种智能蔬菜株间除草装置及控制方法 | |
DE102015222390A1 (de) | Autonomes Arbeitsgerät | |
CN109572857A (zh) | 一种麦克纳姆轮智能仓储agv及其路径规划方法 | |
CN106339717A (zh) | 一种基于混合多尺度特征模型的活立木快速识别方法 | |
CN114485667A (zh) | 一种轻智能化的果园地头导航方法 | |
Raja et al. | Real-time control of high-resolution micro-jet sprayer integrated with machine vision for precision weed control | |
CN110780669A (zh) | 林间机器人导航与信息采集方法 | |
CN109006749B (zh) | 一种基于分行阻力的田间冠层稠密度检测系统及其标定方法 | |
CN116839570B (zh) | 一种基于传感器融合目标检测的作物行间作业导航方法 | |
CN117016144A (zh) | 一种多自由度果园柑橘自动挖土施肥及回填装置 | |
CN106872798A (zh) | 一种阵列信号滤波、幅值检测的方法 | |
Ribeiro et al. | 3D monitoring of woody crops using an unmanned ground vehicle | |
CN216982681U (zh) | 一种条状基质槽乔木扦插机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |