CN114568108B - 一种无人割草机轨迹跟踪控制方法及计算机可读存储介质 - Google Patents

一种无人割草机轨迹跟踪控制方法及计算机可读存储介质 Download PDF

Info

Publication number
CN114568108B
CN114568108B CN202210191406.7A CN202210191406A CN114568108B CN 114568108 B CN114568108 B CN 114568108B CN 202210191406 A CN202210191406 A CN 202210191406A CN 114568108 B CN114568108 B CN 114568108B
Authority
CN
China
Prior art keywords
unmanned
mower
lawn
track
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210191406.7A
Other languages
English (en)
Other versions
CN114568108A (zh
Inventor
张凯
安昊
董宇涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen International Graduate School of Tsinghua University
Original Assignee
Shenzhen International Graduate School of Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen International Graduate School of Tsinghua University filed Critical Shenzhen International Graduate School of Tsinghua University
Priority to CN202210191406.7A priority Critical patent/CN114568108B/zh
Publication of CN114568108A publication Critical patent/CN114568108A/zh
Application granted granted Critical
Publication of CN114568108B publication Critical patent/CN114568108B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Environmental Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Guiding Agricultural Machines (AREA)

Abstract

本发明提供一种无人割草机轨迹跟踪控制方法及计算机可读存储介质,方法中包括:无人割草机运行前需进行系统模型的建立和全区域覆盖的路径规划,通过最优化求解得到当前时刻的最优控制序列,将其输入到模型预测控制器执行控制指令,基于当前时刻的状态量观测值反馈未来时刻的状态量,如此循环,实现全局轨迹跟踪控制;加入适用于无人割草机的轨迹重规划层,在满足无人割草机的约束条件下,基于图像信息处理获取无人割草机作业草坪边界的准确信息,设计基于草坪边界信息的模型预测控制器输入量,同时避开草坪中障碍物,减少跟踪偏差,将重规划的局部路径输入跟踪控制层进行跟踪控制,提高无人割草机轨迹跟踪控制的精度、效率和安全性。

Description

一种无人割草机轨迹跟踪控制方法及计算机可读存储介质
技术领域
本发明涉及机器人控制技术领域,尤其涉及一种无人割草机轨迹跟踪控制方法及计算机可读存储介质。
背景技术
目前随着城市绿化及私人庭院草地面积不断增加,2020年全球割草机出货量突破90万台,但主要为传统人工作业割草机。智能无人割草机因其节省人力、安全性能高、环境友好的三大优势备受关注,而为实现智能无人割草必须设计定位感知、路径规划和跟踪控制三大模块,其中传统跟踪控制算法应用到无人割草机上存在以下问题,包括:
1)难以建立精确系统模型:无人割草机系统模型存在的测量误差、不确定建模参数等,使得其精确的物理模型难以获得;
2)外界环境作用导致误差:天气变化、噪声等扰动对无人割草机传感器测量造成影响,使得无人割草机不能准确读取动态反馈信息。同时动态系统在处理信息过程中常有反馈时延产生,导致系统不稳定。
3)草坪地面特性干扰:无人割草机修剪作业的草坪地面特性会给导致无人割草机的车轮打滑,线速度与航向角产生未预料的变化,特别是在松软地面的车轮沉陷以及车轮与土壤的相互作用力等,增加了所述系统模型的复杂度;
4)无人割草机的作业场景大多为有边界的草坪,而由于目前大多数无人割草机产品仅使用全球导航卫星系统作为定位输入,其定位精度在5-10m,所以无法保证无人割草机不驶出草坪,通常需要人工布设电线,确定无人割草机工作范围。
综合来看,目前尚没有能同时兼顾效率、精度、安全性的无人割草机轨迹跟踪控制方法。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
本发明为了解决现有的问题,提供一种无人割草机轨迹跟踪控制方法及计算机可读存储介质。
为了解决上述问题,本发明采用的技术方案如下所述:
一种无人割草机轨迹跟踪控制方法,包括如下步骤:S1:根据无人割草机运行的实际工作环境规划全工作区域覆盖的参考路径轨迹并对所述参考路径轨迹进行离散化获取参考轨迹点;S2:基于所述无人割草机的所述实际工作环境和状态建立系统模型,所述系统模型包括运动学模型、动力学模型以及轮胎驱动模型; S3:基于所述无人割草机的所述系统模型搭建模型预测控制器,所述模型预测控制器控制无人割草机的线速度、航向角;S4:根据相对定位及绝对定位信息,在所述模型预测控制器的基础上设计轨迹重规划层,通过所述轨迹重规划层得到局部规划路径信息;S5:通过机载摄像机获取所述无人割草机行驶过程中的图像,通过阈值分割提取所述实际工作环境的草坪边界线,确定所述无人割草机的质心距离所述草坪边界线的最短距离,通过调整所述无人割草机的线速度与航向角来控制所述最短距离不小于预先设定的安全阈值;S6:基于所述图像识别出所述实际工作环境中障碍物类型,通过预先设计的惩罚函数进行避障;S7:处理所述轨迹重规划层中所述局部规划路径信息,将所述轨迹重规划层和所述模型预测控制器的跟踪控制层对接;S8:结合所述系统模型、所述模型预测控制器的目标函数和约束条件进行最优化求解,输出当前时刻的最优控制序列,将所述最优控制序列输入到所述模型预测控制器的所述跟踪控制层中执行控制指令;基于当前时刻的状态量估计未来时刻无法直接观测的状态量,再次进行最优化求解,得到下一时刻所述模型预测控制器的所述跟踪控制层所需的控制变量,如此循环。
优选地,步骤S1中利用路径最短的优化准则规划所述参考路径轨迹,采用方法为螺旋式规划法或折线往复式规划法。
优选地,步骤S3中对所述无人割草机的系统模型逐步进行线性化、离散化后可得到适用于所述模型预测控制器实时求解的离散线性时变系统状态空间,通过设计所述模型预测控制器的目标函数,求解二次规划问题,获取最优控制增量序列并将序列作为实际的控制增量作用于所述模型预测控制器中从而控制所述无人割草机的线速度和航向角。
优选地,通过所述轨迹重规划层得到局部规划路径信息包括:所述轨迹重规划层根据传感器获得的障碍物信息并结合所述参考路径轨迹重新规划出绕开障碍物的局部规划路径信息;将所述局部规划路径信息输入到所述跟踪控制层中;根据所述无人割草机的所述实际工作环境分别用于草地边缘检测、草地内避障、避障后重回参考轨迹。
优选地,步骤S5中通过所述机载摄像机获取所述无人割草机行驶过程中的图像,通过阈值分割提取草坪边界线信息包括:利用所述机载摄像机获取所述无人割草机行驶过程中的所述图像,通过对所述图像进行阈值分割,利用聚类算法对色彩进行分类并对绿色进行提取和二值化,再经过可变结构元素膨胀腐蚀运算,最后获取草坪区域与非草坪区域的所述草坪边界线。
优选地,还包括:通过寻找极值点将所述草坪边界线拟合成草坪边界直线,具体步骤如下:提取所述草坪边界线的边缘点坐标:对所述图像从左到右、从上至下进行扫描,每碰到第一行第一个像素为1的像素点,进行记录;找出极小值点:对记录的边界点进行比较,选择对应图像坐标系下横坐标最小的多个极值点;回归所述草坪边界直线:采用最小二乘法将所述极值点进行回归,输出所述草坪边界直线。
优选地,步骤S6中基于所述图像识别出所述实际工作环境中障碍物类型包括:利用目标识别算法对所述实际工作环境的草坪上的物体进行聚类识别,经过特征提取后输入到深度卷积神经网络分类器中进行训练;调整训练参数,输出特征物体标签得到所述障碍物类型。
优选地,所述惩罚函数表示为:
Figure BDA0003525092340000031
其中,vx,vy分别为无人割草机在给定坐标系下的x轴向和y轴向速度;xi, yi分别为参考路径轨迹的目标点在给定坐标系下的x,y轴坐标;x0,y0分别为所述无人割草机的质心在给定坐标系下的x,y轴坐标;α为防止分母为0的正数。
优选地,步骤S7中利用多项式曲线拟合的方式对重新规划的预测时域内的离散点进行处理将所述轨迹重规划层和所述模型预测控制器的跟踪控制层对接。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一所述方法的步骤。
本发明的有益效果为:提供一种无人割草机轨迹跟踪控制方法及计算机可读存储介质,通过基于相对和绝对定位于草地环境中实现智能无人割草机在指定时间到达规划的轨迹点,提高控制效率,减少轨迹跟踪误差,同时能在特殊情况下完成避障,不驶出割草机合理工作区域,保障无人割草机的安全性。
附图说明
图1是本发明实施例中一种无人割草机轨迹跟踪控制方法示意图。
图2是本发明实施例中一种无人割草机轨迹跟踪控制流程示意图。
图3是本发明实施例中一种模型预测控制的示意图。
图4是本发明实施例中定义相对定位、绝对定位、参考轨迹的应用环境图
图5是本发明实施例中基于相对与绝对定位的无人割草机轨迹跟踪控制方法的示意图。
图6是本发明实施例中草地图像处理提取边缘结果图。
图7是本发明实施例中定义相对定位参数的示意图。
图8是本发明实施例中确定草坪边界拟合直线和相对定位参数的示意图。
图9是本发明实施例中基于传统未改进的模型预测控制算法的轨迹跟踪控制仿真结果图。
图10是本发明实施例中基于本发明改进后模型预测控制算法的轨迹跟踪控制仿真结果图。
图11是本发明实施例中基于相对定位和绝对定位的无人割草机避障仿真结果图。
具体实施方式
为了使本发明实施例所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元件上。另外,连接既可以是用于固定作用也可以是用于电路连通作用。
需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多该特征。在本发明实施例的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
如图1所示,本发明提供一种无人割草机轨迹跟踪控制方法,包括如下步骤:
S1:根据无人割草机运行的实际工作环境规划全工作区域覆盖的参考路径轨迹并对所述参考路径轨迹进行离散化获取参考轨迹点;
S2:基于所述无人割草机的所述实际工作环境和状态建立系统模型,所述系统模型包括运动学模型、动力学模型以及轮胎驱动模型;
S3:基于所述无人割草机的所述系统模型搭建模型预测控制器,所述模型预测控制器控制无人割草机的线速度、航向角;
S4:根据相对定位及绝对定位信息,在所述模型预测控制器的基础上设计轨迹重规划层,通过所述轨迹重规划层得到局部规划路径信息;
S5:通过机载摄像机获取所述无人割草机行驶过程中的图像,通过阈值分割提取所述实际工作环境的草坪边界线,确定所述无人割草机的质心距离所述草坪边界线的最短距离,通过调整所述无人割草机的线速度与航向角来控制所述最短距离不小于预先设定的安全阈值;
S6:基于所述图像识别出所述实际工作环境中障碍物类型,通过预先设计的惩罚函数进行避障;
S7:处理所述轨迹重规划层中所述局部规划路径信息,将所述轨迹重规划层和所述模型预测控制器的跟踪控制层对接;
S8:结合所述系统模型、所述模型预测控制器的目标函数和约束条件进行最优化求解,输出当前时刻的最优控制序列,将所述最优控制序列输入到所述模型预测控制器的所述跟踪控制层中执行控制指令;基于当前时刻的状态量估计未来时刻无法直接观测的状态量,再次进行最优化求解,得到下一时刻所述模型预测控制器的所述跟踪控制层所需的控制变量,如此循环。
本发明通过基于相对和绝对定位于草地环境中实现智能无人割草机在指定时间到达规划的轨迹点,提高控制效率,减少轨迹跟踪误差,同时能在特殊情况下完成避障,不驶出割草机合理工作区域,保障无人割草机的安全性。
其中相对定位是通过处理割草机搭载的视觉相机拍摄的照片或视频输出的割草机距离草坪边缘的距离信息,而绝对定位则是指通过GNSS(Global Navigation SatelliteSystem,全球导航卫星系统)/IMU(Inertial Measurement Unit,惯性测量单元)融合获取的割草机在给定坐标系下的绝对位置坐标信息。目前常用的绝对定位GNSS的精度普遍只有5-10m,且场景适应能力有限,不能满足无人割草机的所有应用场景,尤其体现在遮挡和多路径干扰的场景下无法实现精确定位,导致无人割草机无法正常有效的工作。目前用摄像机测距算法精度可达分米级,一般测量误差与测量距离平方成正比。本发明提出的用摄像机直接获取边界线的方法,并不等同于传统测距,而是通过边缘提取,获取草坪边界线的位置,因为摄像机能拍到边界时,已距离边界较近,所以测量误差较绝对定位的5~10m 要近。
进一步地的,本发明相对定位的概念与传统相对定位有所不同,适用于草坪环境的无人割草机。且目前没有基于两种定位结合起来的模型预测控制器进行割草机的驱动控制。
本发明结合了相对定位和绝对定位进行设计,输入到跟踪控制器中。因此,本发明的控制方法一方面避免了单一定位存在的较大误差,提升控制器的鲁棒性和准确性;另一方面基于相对定位和绝对定位提出创新控制思路,进一步保障无人割草机的安全性。
在本发明的一种实施例中,步骤S1中利用路径最短的优化准则规划所述参考路径轨迹,采用方法为螺旋式规划法或折线往复式规划法。
在本发明中,本发明基于无人割草机实际工作环境和状态建立了一种无人割草机的系统模型,此系统模型由不同层面的模型所组成,由运动学模型、动力学模型以及轮胎驱动模型构成。所述运动学模型是基于所述无人割草机的几何学关系,研究其运动的数学运算,而不考虑无人割草机的受力影响;所述动力学模型是所述无人割草机在考虑受力与能量的情况下对运动的研究;所述轮胎驱动模型主要考虑所述无人割草机的轮胎受到草坪地面所给的侧向力与垂直力对无人割草机行驶稳定的影响。
现有技术的轮式移动割草机的控制系统可以分为内环和外环。由于对系统模型的确定性简化,或者复杂的系统建模,可以从不同层面控制割草机的运动。控制系统内环:它依赖于动力学模型,用以控制割草机的线速度和角速度,即动力学层面控制。控制系统外环则用于控制割草机的轨迹,内环和外环的组合形成了一个控制系统的全局框架。
步骤S3中对所述无人割草机的系统模型逐步进行线性化、离散化后可得到适用于所述模型预测控制器实时求解的离散线性时变系统状态空间,通过设计所述模型预测控制器的目标函数,求解二次规划问题,获取最优控制增量序列并将序列作为实际的控制增量作用于所述模型预测控制器中从而控制所述无人割草机的线速度和航向角。
通过所述轨迹重规划层得到局部规划路径信息包括:
所述轨迹重规划层根据传感器获得的障碍物信息并结合所述参考路径轨迹重新规划出绕开障碍物的局部规划路径信息;
将所述局部规划路径信息输入到所述跟踪控制层中;
根据所述无人割草机的所述实际工作环境分别用于草地边缘检测、草地内避障、避障后重回参考轨迹。
本发明步骤S4中,基于相对与绝对定位的无人割草机轨迹跟踪控制方法,本发明通过对比分析可用于无人割草机跟踪控制算法,包括对比PID控制、纯跟踪控制、前馈—反馈控制、线性二次型调节器跟踪控制器、模型预测控制跟踪控制器等控制算法在应用于无人割草机场景下的适用性和稳定性。最终选择基于模型预测控制算法提出适应性改进后的控制算法,针对智能无人割草机的应用场景加入用于草地边缘检测、草地内避障、避障后重回参考轨迹的轨迹重规划层。
步骤S5中通过所述机载摄像机获取所述无人割草机行驶过程中的图像,通过阈值分割提取草坪边界线信息包括:
利用所述机载摄像机获取所述无人割草机行驶过程中的所述图像,通过对所述图像进行阈值分割,利用聚类算法对色彩进行分类并对绿色进行提取和二值化,再经过可变结构元素膨胀腐蚀运算,最后获取草坪区域与非草坪区域的所述草坪分界线。
本发明的方法还包括:
通过寻找极值点将所述草坪边界线拟合成草坪边界直线,具体步骤如下:
提取所述草坪边界线的边缘点坐标:对所述图像从左到右、从上至下进行扫描,每碰到第一行第一个像素为1的像素点,进行记录;
找出极小值点:对记录的边界点进行比较,选择对应图像坐标系下横坐标最小的多个极值点;
回归所述草坪边界直线:采用最小二乘法将所述极值点进行回归,输出所述草坪边界直线。
基于所述草坪边界线可确定割草机相对草坪边缘的最短距离,从而能将其作设计为控制器输入,使其不超过某一阈值,保障无人割草机的安全性。
本发明与传统模型预测控制方法相比,通过合理设计视觉相对定位的控制器输入,引入基于绝对定位和视觉相对定位的综合控制策略。视觉相对定位即通过无人割草机搭载的摄像头获取距离草坪边缘的相对距离,基于该相对距离可控制割草机在草坪区域内正常工作,而不误驶出限定的工作区域。具体来说,首先需要对采集到的草地图像进行预处理,然后基于边缘检测技术确定割草机器人的工作区域范围,此技术主要通过检测像素急速变化的区域,提取分界线,区分草地部分和非草地部分。而作为控制器的输入,可通行区域的多条线段信息较为复杂,难以保证实时性。所以本发明的控制器输入使用以割草机为圆心,实时寻求圆心与可通行多条可通行区域曲线的内切半径d,而将该内切半径d作为控制器的输入。本质上该输入是割草机在草坪区域内的最小相对边缘距离,而为保证割草机不会因为单一绝对定位的误差驶入非草坪区域,所以需要对最小相对边缘距离进行控制,使得相对距离小于等于一定的安全阈值D,保证割草机能在正常区域内工作,避免发生危险。同时,本发明可基于绝对定位获取的先验信息,即可通过绝对定位初步先验得到边界初步范围,并更好判断边界障碍物的类型,如路牙、湖泊、灌木丛等,将此先验信息输入到控制器中。
步骤S6中基于所述图像识别出所述实际工作环境中障碍物类型包括:
利用目标识别算法对所述实际工作环境的草坪上的物体进行聚类识别,经过特征提取后输入到深度卷积神经网络分类器中进行训练;
调整训练参数,输出特征物体标签得到所述障碍物类型。
利用已有的目标识别算法对草坪上的栅栏、树木等典型特征的物体进行聚类识别,经过特征提取后输入到深度卷积神经网络分类器中进行训练,调整训练参数,最后输出特征物体标签,用于避障。而避障轨迹规划的目标是绕开障碍物并尽量减少与参考轨迹之间的偏差。避障主要以惩罚函数方式实现。本发明设计的惩罚函数主要根据障碍物点与目标点的差值来调节函数值的大小,距离越远,函数值越小,所述惩罚函数表示为:
Figure BDA0003525092340000091
其中,vx,vy分别为无人割草机在给定坐标系下的x轴向和y轴向速度;xi, yi分别为参考路径轨迹的目标点在给定坐标系下的x,y轴坐标;x0,y0分别为所述无人割草机的质心在给定坐标系下的x,y轴坐标;α为防止分母为0的正数。
步骤S7中利用多项式曲线拟合的方式对重新规划的预测时域内的离散点进行处理减少数据输入接口的使用,简化割草机轨迹跟踪控制器的设计复杂度,实现所述轨迹重规划层和所述模型预测控制器的跟踪控制层对接。
步骤S8中,利用所述无人割草机的系统模型基于当前时刻的状态量估计未来时刻无法直接观测的状态量。通过求解带约束的最优控制问题,使得无人割草机在未来一段时间内的跟踪误差最小;通过优化目标函数将运动学和动力学约束纳入考虑。通过滚动优化和反馈校正特性,能降低闭环系统时滞问题的影响,并能够结合规划所给出的未来轨迹信息对运动控制进行优化,提升控制性能。
传统的轮式移动机器人轨迹跟踪控制方法应用到无人割草机场景中存在定位跟踪精度较差、控制效率较低、安全隐患较大等问题;同时,无人割草机在草地环境中是自主行驶的,由于环境是变化的,因此给定的期望路径下的跟踪控制并不能够准确的处理给定之外的轨迹跟踪问题,具体来说:1)给定的参考轨迹不一定适应草地环境,不能保证行驶的安全通畅;2)如果给定的参考轨迹中存在障碍物,智能割草机需要绕开障碍物,进行重新规划;3)为了减少控制器的计算量。无人割草机的动力学及运动学模型是经过简化的,给定的参考轨迹,有可能不满足车辆行驶动力学和运动学的约束条件。因此,本发明首先基于无人割草机实际工作环境和状态建立了一种无人割草机的系统模型,其次提出了基于相对定位与绝对定位的智能割草机轨迹跟踪控制方法,针对智能割草机的应用场景加入轨迹重规划层,一方面提高了无人割草机轨迹跟踪控制的精度和效率,同时能保证无人割草机不驶出工作区域,提高安全性。
在本发明的一种具体实施例中,第一步,无人割草机在开始运行前,需进行全区域覆盖的路径规划,可选取为折线往复式的路径规划方案。
如图4所示,图中可见割草机1在参考轨迹2上运行,其中,割草机1的绝对定位(x,y)3,相对定位d4,即参考轨迹2需满足全区域覆盖的除草需求,实际规划路线时可根据除草环境进行适应性调整。而该规划路线即为割草机跟踪控制的参考轨迹,该参考轨迹一般为连续直线或曲线,因此需将其进行离散化为参考轨迹点,并利用设计控制器逐点对参考轨迹点进行跟踪,如图2所示。
第二步,基于设计的控制器进行初步轨迹跟踪,控制器可结合预测模型、目标函数和约束条件进行最优化求解。得到当前时刻的最优控制序列,将其输入到所述模型预测控制器中,从而执行控制指令,然后基于当前时刻的状态量观测值对无法直接观测的状态量进行估计,再将状态量输入到所述模型预测控制器,再次进行最优化求解,得到下一时刻被控平台所需的控制变量。如此循环,构成了完整的模型预测控制过程,如图3所示。此控制过程与传统的模型预测控制器差别不大,这也是本发明的控制器基础设计部分,后续均在此控制器的基础上进行创新性设计,提高模型预测控制器对草地环境无人割草机的适应性。
第三步,本发明加入轨迹重规划层,在满足无人割草机的约束条件下,基于相对定位感知信息设计草地边缘检测、草地内避障、避障后重回参考轨迹的三大功能模块,实现无人割草机能一方面获取草坪边界的准确信息,不驶出工作草坪范围,另一方面可避开路径中的动态或静态障碍物,尽量减少与第一步全局规划路径间的偏差,最后还能将重规划的输出给跟踪控制层,进行第二步的跟踪控制,如图5所示。
其中,下面将展开对第三步进行详细说明。首先,之所以要加入相对定位信息,是因为目前常用的绝对定位GNSS的精度普遍只有5-10m,且场景适应能力有限,不能满足无人割草机的所有应用场景,尤其体现在遮挡和多路径干扰的场景下无法实现精确定位,导致无人割草机无法正常有效的工作。而考虑到无人割草机器人的工作环境广阔,而且草坪大多数都不设置护栏,与马路或者湖泊等非草坪部分,中间也不会加栏杆等,如果不能把草坪和背景物分离,极有可能发生危险,造成无人割草机器人的损坏。
在一个实施例中,所述相对定位感知信息模块要获取相对定位信息时,需要对采集到的草地图像进行预处理,确定工作区域范围区分草地部分和非草地部分。本发明对提取到的边缘进行膨胀和腐蚀操作,对图像中像素点根据某些共同的特征划分成一个或者多个目标区域,即通过计算并且设定出一个或者多个特征阈值,把图像中的像素点划分成若干类,然后就可以根据每个区域的交接出提取到边缘信息。
边缘检测算法主要使用的是现有的Canny算子,具体实施步骤如下:1)采用高斯滤波器对图像进行平滑处理,减少图像噪声;2)采用一阶偏导的有限差分来计算图像梯度的幅值和方向;3)对所述图像梯度的幅值进行非极大值抑制; 4)用双阈值算法检测和连接草坪边缘。
阈值分割特别适用与目标和背景占据不同灰度级范围的图像,比如说无人割草机器人工作的草坪环境,目标草坪是绿色,与其他大部分背景物体存在着明显的色差,其灰度化以后其灰度级自然有着十分明显的差别。阈值分割不仅可以极大的压缩数据量,而且也大大简化了分析和处理步骤。
对一张草坪图像的边缘进行提取,应该选定绿色为目标色,非绿色的部分就是背景,整体设计思路是将原始图像置于色彩空间中,再利用聚类算法对色彩进行分类,之后对绿色进行提取并进行二值化,通过可变结构元素膨胀腐蚀运算,最后提取草坪与非草坪的分界线,如图6所示。
实际上视觉相对定位输出的就是可通行的区域范围,具体表现形式是在图像可见范围的多条可通行区域曲线。而作为控制器的输入,可通行区域的多条线段信息较为复杂,难以保证实时性。
如图7所示,控制器的输入目前计划使用以割草机为圆心,实时寻求圆心与可通行多条可通行区域曲线的内切半径d,而将该内切半径d作为控制器的输入。本质上该输入是割草机在草坪区域内的最小相对边缘距离,而为保证割草机不会因为单一GNSS的误差驶入非草坪区域,所以需要对最小相对边缘距离进行控制,使得相对距离小于等于一定的安全阈值,保证割草机能在正常区域内工作,避免发生危险。
本发明所研究的割草机视野是一有限区域,故可采用线性车道模型。即把机器视觉视野内的导航边界线视为直线,并通过识别算法得到各条草坪边界线的拟合直线,并由此得到草坪边界的参考直线:
y=Ax+B
参考直线是无人割草机所跟踪的假想直线,通过采用分割视野的方法可以使得线性模型产生的误差足够小,满足控制精度要求。与曲线的车道拟合模型相比该线性模型有两个主要优点,包括:1)可更准确地描述可通行区域;2)大大降低运算量。
因为草坪的草在生长的过程中是没有规则的,在草坪与路面的边界上不时的覆盖着一些伸张到路面上的草,使得经过图像边缘提取处理后得到的边界一般都是一条不规则的曲线。而设计者在设计草坪花园时草坪与路面的边界肯定是近似的直线的或是近似的规则曲线。为了得到直线或规则的曲线边界,首先可以肯定的是构成直线的两点一定是在这条不规则的曲线上,而且构成直线的两点一定是不规则曲线上的极小值点构成的。
所以本发明提出通过寻找极值点拟合直线的方法,找到可通行的区域范围,具体步骤如下:1)提取标识线边缘点坐标:对图像从左到右,从上至下进行扫描,每碰到第一行第一个像素为1的像素点(边界点),进行记录;2)找出极小值点:对记录的边界点进行比较,选择对应图像坐标系下横坐标最小的多个极值点;3)回归草坪边界直线:采用最小二乘法将极值点进行回归,输出边界线直线方程。
如图8所示,其中y轴方向为无人割草机的前进方向,最后根据直线拟合的边界在割草机坐标系下的方程y=kx+b,选择割草机位置至直线y=kx+b的垂直距离d1作为控制量,具体形式为:
d1=b*cosθ
θ=π-arctan(k)
d1=b*cos(π-arctan(k))=b*cos(arctan(k))≤dsafe
根据车身尺寸大小调整并确定安全距离dsafe,在控制量d1≤dsafe时,采用优先级更高的基于相对定位控制策略,根据工作状态降低驱动电机目标转速,调整航向角,核心是控制d1不变或增大。
本发明基于割草机与边界线之间可能的状态设置相应的横向及纵向控制策略,从而建立了基于视觉相对定位和绝对定位的无人割草机控制策略。核心思想是在可视范围内实现无人割草机相对草坪边缘的相对距离逐步增大,提高控制精度,保障无人割草机的安全性。
割草机器人通过机器视觉获得车道偏移参数同时通过数字罗盘获得车体的当前角度。车道参数包括位置偏差和方向偏差。通过控制模型得到车体在当前车辆状态下的目的角度与数字罗盘获得角度差进行比较,如不在误差允许的范围内,确定车体的转动方向和转动的强度。如果在误差允许的范围内则转向停止。在这种控制当中每一循环代表了前述一个车辆状态,当前状态的控制与上一个状态相互独立。例如如果上一个循环需要车体向左转,而当前循环需要车体向右转,而不管上次命令向左转完成与否。这样做可以减少转向控制的震荡提高转向控制的稳定性。
而对于轨迹重规划的避障过程,在无其他传感器如激光雷达、毫米波雷达、超声波雷达等应用到无人割草机时,单一采用视觉相机时,本发明通过目标识别算法对草坪上的栅栏、树木、路牙等典型特征的物体进行聚类识别,通过机载相机获取无人割草机行驶过程中周围环境的图像数据集,再对环境图像进行特征提取,再输入到深度卷积神经网络分类器中进行训练,调整训练参数以期达到较好的训练结果,最后输出特征物体标签,用于避障。这些障碍物点相互靠近时可以通过聚类算法将其形成一个大障碍物。而如果障碍物点之间比较疏散时,则将其看成一个个离散的小障碍物。因而避障函数要针对每一个障碍物进行设计,惩罚函数主要是根据障碍物点与目标点的差值来调节函数值的大小,距离越远,函数值越小。具体惩罚函数形式如下:
Figure BDA0003525092340000131
其中,vx,vy分别为无人割草机在给定坐标系下的x轴向和y轴向速度;xi, yi分别为参考轨迹目标点在给定坐标系下的x,y轴坐标;x0,y0分别为无人割草机质心在给定坐标系下的x,y轴坐标;α为防止分母为0的小正数。
除此之外,为更好结合GNSS/IMU/视觉输出的绝对定位进行控制,实际可考虑基于绝对定位获取的先验信息,即可通过绝对定位初步先验得到边界初步范围,并更好判断边界障碍物的类型,如路牙、湖泊、灌木丛等,将此先验信息输入到控制器中,将有利于无人割草机更稳定的实现轨迹跟踪控制。
为验证本发明基于相对与绝对定位的无人割草机跟踪控制方法的效果,本发明通过仿真试验对比分析直接使用传统未改进的模型预测控制算法,以及使用改进后基于相对与绝对定位的模型预测控制算法进行轨迹跟踪控制的效果。
如图9所示,直接使用传统的模型预测控制算法得到的跟踪仿真结果。
如图10所示,是使用改进后的模型预测控制算法得到的跟踪仿真结果,x 轴为仿真步长,y轴为无人车纵向位置。
其中,图9所示的传统模型预测控制算法的平均纵向跟踪误差为0.11m,平均航向角跟踪误差为1.22deg,而图10所示的基于相对定位与绝对定位的无人割草机跟踪控制算法的平均纵向跟踪误差为0.04m,平均航向角跟踪误差为0.89deg。结果对比可以明显看到使用本发明改进后的跟踪控制算法在控制精度和稳定性上优于传统的模型预测控制算法。
如图11所示,图中无人割草机从原点出发时未感知到障碍物的存在,重规划轨迹和参考轨迹重合。无人割草机行驶途中,基于相对定位的障碍物信息的输入重新规划了局部的参考路径,无人割草机实现了避障,并重返全局参考轨迹并保持稳定,提高了无人割草机的安全性。
本申请实施例还提供一种控制装置,包括处理器和用于存储计算机程序的存储介质;其中,处理器用于执行所述计算机程序时至少执行如上所述的方法。
本申请实施例还提供一种存储介质,用于存储计算机程序,该计算机程序被执行时至少执行如上所述的方法。
本申请实施例还提供一种处理器,所述处理器执行计算机程序,至少执行如上所述的方法。
所述存储介质可以由任何类型的易失性或非易失性存储设备、或者它们的组合来实现。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,ErasableProgrammable Read-Only Memory)、电可擦除可编程只读存储器(EEPROM,ElectricallyErasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,FerromagneticRandom Access Memory)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(CD-ROM,Compact Disc Read-Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random Access Memory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM, SynchronousStatic Random Access Memory)、动态随机存取存储器(DRAM, Dynamic Random AccessMemory)、同步动态随机存取存储器(SDRAM, Synchronous Dynamic Random AccessMemory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data RateSynchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAMEnhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM, Sync Link Dynamic Random Access Memory)、直接内存总线随机存取存储器 (DRRAM,Direct Rambus Random Access Memory)。本发明实施例描述的存储介质旨在包括但不限于这些和任意其它适合类型的存储器。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器 (RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上内容是结合具体的优选实施方式对本发明所做的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种无人割草机轨迹跟踪控制方法,其特征在于,包括如下步骤:
S1:根据无人割草机运行的实际工作环境规划全工作区域覆盖的参考路径轨迹并对所述参考路径轨迹进行离散化获取参考轨迹点;
S2:基于所述无人割草机的所述实际工作环境和状态建立系统模型,所述系统模型包括运动学模型、动力学模型以及轮胎驱动模型;
S3:基于所述无人割草机的所述系统模型搭建模型预测控制器,所述模型预测控制器控制无人割草机的线速度、航向角;
S4:根据相对定位及绝对定位信息,在所述模型预测控制器的基础上设计轨迹重规划层,通过所述轨迹重规划层得到局部规划路径信息;
S5:通过机载摄像机获取所述无人割草机行驶过程中的图像,通过阈值分割提取所述实际工作环境的草坪边界线,确定所述无人割草机的质心距离所述草坪边界线的最短距离,通过调整所述无人割草机的线速度与航向角来控制所述最短距离不小于预先设定的安全阈值;
S6:基于所述图像识别出所述实际工作环境中障碍物类型,通过预先设计的惩罚函数进行避障;
S7:处理所述轨迹重规划层中所述局部规划路径信息,将所述轨迹重规划层和所述模型预测控制器的跟踪控制层对接;
S8:结合所述系统模型、所述模型预测控制器的目标函数和约束条件进行最优化求解,输出当前时刻的最优控制序列,将所述最优控制序列输入到所述模型预测控制器的所述跟踪控制层中执行控制指令;基于当前时刻的状态量估计未来时刻无法直接观测的状态量,再次进行最优化求解,得到下一时刻所述模型预测控制器的所述跟踪控制层所需的控制变量,如此循环。
2.如权利要求1所述的无人割草机轨迹跟踪控制方法,其特征在于,步骤S1中利用路径最短的优化准则规划所述参考路径轨迹,采用方法为螺旋式规划法或折线往复式规划法。
3.如权利要求2所述的无人割草机轨迹跟踪控制方法,其特征在于,步骤S3中对所述无人割草机的系统模型逐步进行线性化、离散化后可得到适用于所述模型预测控制器实时求解的离散线性时变系统状态空间,通过设计所述模型预测控制器的目标函数,求解二次规划问题,获取最优控制增量序列并将序列作为实际的控制增量作用于所述模型预测控制器中从而控制所述无人割草机的线速度和航向角。
4.如权利要求3所述的无人割草机轨迹跟踪控制方法,其特征在于,通过所述轨迹重规划层得到局部规划路径信息包括:
所述轨迹重规划层根据传感器获得的障碍物信息并结合所述参考路径轨迹重新规划出绕开障碍物的局部规划路径信息;
将所述局部规划路径信息输入到所述跟踪控制层中;
根据所述无人割草机的所述实际工作环境分别用于草地边缘检测、草地内避障、避障后重回参考轨迹。
5.如权利要求4所述的无人割草机轨迹跟踪控制方法,其特征在于,步骤S5中通过所述机载摄像机获取所述无人割草机行驶过程中的图像,通过阈值分割提取草坪边界线信息包括:
利用所述机载摄像机获取所述无人割草机行驶过程中的所述图像,通过对所述图像进行阈值分割,利用聚类算法对色彩进行分类并对绿色进行提取和二值化,再经过可变结构元素膨胀腐蚀运算,最后获取草坪区域与非草坪区域的所述草坪边界线。
6.如权利要求5所述的无人割草机轨迹跟踪控制方法,其特征在于,还包括:
通过寻找极值点将所述草坪边界线拟合成草坪边界直线,具体步骤如下:
提取所述草坪边界线的边缘点坐标:对所述图像从左到右、从上至下进行扫描,每碰到第一行第一个像素为1的像素点,进行记录;
找出极小值点:对记录的边界点进行比较,选择对应图像坐标系下横坐标最小的多个极值点;
回归所述草坪边界直线:采用最小二乘法将所述极值点进行回归,输出所述草坪边界直线。
7.如权利要求5所述的无人割草机轨迹跟踪控制方法,其特征在于,步骤S6中基于所述图像识别出所述实际工作环境中障碍物类型包括:
利用目标识别算法对所述实际工作环境的草坪上的物体进行聚类识别,经过特征提取后输入到深度卷积神经网络分类器中进行训练;
调整训练参数,输出特征物体标签得到所述障碍物类型。
8.如权利要求7所述的无人割草机轨迹跟踪控制方法,其特征在于,所述惩罚函数表示为:
Figure FDA0003525092330000031
其中,vx,vy分别为无人割草机在给定坐标系下的x轴向和y轴向速度;xi,yi分别为参考路径轨迹的目标点在给定坐标系下的x,y轴坐标;x0,y0分别为所述无人割草机的质心在给定坐标系下的x,y轴坐标;α为防止分母为0的正数。
9.如权利要求8所述的无人割草机轨迹跟踪控制方法,其特征在于,步骤S7中利用多项式曲线拟合的方式对重新规划的预测时域内的离散点进行处理将所述轨迹重规划层和所述模型预测控制器的跟踪控制层对接。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-9任一所述方法的步骤。
CN202210191406.7A 2022-02-28 2022-02-28 一种无人割草机轨迹跟踪控制方法及计算机可读存储介质 Active CN114568108B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210191406.7A CN114568108B (zh) 2022-02-28 2022-02-28 一种无人割草机轨迹跟踪控制方法及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210191406.7A CN114568108B (zh) 2022-02-28 2022-02-28 一种无人割草机轨迹跟踪控制方法及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN114568108A CN114568108A (zh) 2022-06-03
CN114568108B true CN114568108B (zh) 2022-11-11

Family

ID=81777442

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210191406.7A Active CN114568108B (zh) 2022-02-28 2022-02-28 一种无人割草机轨迹跟踪控制方法及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN114568108B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114946805B (zh) * 2022-06-14 2023-04-18 清华大学 一种激光光纤除草除虫系统
CN115136781A (zh) * 2022-06-21 2022-10-04 松灵机器人(深圳)有限公司 割草方法、装置、割草机器人以及存储介质
CN115686011A (zh) * 2022-10-31 2023-02-03 广州高新兴机器人有限公司 机器人沿栅栏沿边行走的算法、系统及电子设备
CN116203606B (zh) * 2023-03-03 2024-02-20 上海筱珈数据科技有限公司 基于rtk与视觉融合技术的剪草机器人导航方法和装置
CN117249834B (zh) * 2023-11-17 2024-01-30 未岚大陆(北京)科技有限公司 路径规划方法、装置、设备及存储介质
CN117356546B (zh) * 2023-12-01 2024-02-13 南京禄口国际机场空港科技有限公司 一种机场草坪用的喷雾车的控制方法、系统及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205912478U (zh) * 2016-04-21 2017-02-01 浙江工业大学义乌科学技术研究院有限公司 一种基于视觉监控以及自动导航的割草机
CN107509443A (zh) * 2017-09-05 2017-12-26 惠州市蓝微电子有限公司 一种智能割草机的坡地行驶控制方法及系统
CN208242224U (zh) * 2018-05-10 2018-12-18 浙江菲客机器人有限公司 一种能分区割草的智能割草机
CN109673242A (zh) * 2019-03-01 2019-04-26 重庆润通智能装备有限公司 智能割草机割草控制方法及割草控制系统
CN111413966A (zh) * 2020-03-12 2020-07-14 天津大学 一种递进式模型预测无人驾驶规划跟踪协同控制方法
CN213424010U (zh) * 2020-12-16 2021-06-11 四川省机械研究设计院(集团)有限公司 一种割草机器人割草范围识别装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019241923A1 (en) * 2018-06-20 2019-12-26 Lingdong Technology (Beijing) Co., Ltd Unmanned lawn mower with autonomous driving
US11937539B2 (en) * 2019-08-28 2024-03-26 Samsung Electronics Co., Ltd. Sensor fusion for localization and path planning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205912478U (zh) * 2016-04-21 2017-02-01 浙江工业大学义乌科学技术研究院有限公司 一种基于视觉监控以及自动导航的割草机
CN107509443A (zh) * 2017-09-05 2017-12-26 惠州市蓝微电子有限公司 一种智能割草机的坡地行驶控制方法及系统
CN208242224U (zh) * 2018-05-10 2018-12-18 浙江菲客机器人有限公司 一种能分区割草的智能割草机
CN109673242A (zh) * 2019-03-01 2019-04-26 重庆润通智能装备有限公司 智能割草机割草控制方法及割草控制系统
CN111413966A (zh) * 2020-03-12 2020-07-14 天津大学 一种递进式模型预测无人驾驶规划跟踪协同控制方法
CN213424010U (zh) * 2020-12-16 2021-06-11 四川省机械研究设计院(集团)有限公司 一种割草机器人割草范围识别装置

Also Published As

Publication number Publication date
CN114568108A (zh) 2022-06-03

Similar Documents

Publication Publication Date Title
CN114568108B (zh) 一种无人割草机轨迹跟踪控制方法及计算机可读存储介质
US11845189B2 (en) Domestic robotic system and method
CN112584697B (zh) 使用视觉系统的自主机器导航和训练
EP3886048B1 (en) Slam map joining method and system
EP2169503B1 (en) Multi-vehicle high intensity perception
US11537142B2 (en) Method for robot repositioning
US9188980B2 (en) Vehicle with high integrity perception system
CN106708060B (zh) 一种无外部导航信息的割草机自主有序割草方法
US8478493B2 (en) High integrity perception program
US8818567B2 (en) High integrity perception for machine localization and safeguarding
AU2011235939A1 (en) Method and apparatus for machine coordination which maintains line-of-site contact
Zhang et al. 3D perception for accurate row following: Methodology and results
US20220248599A1 (en) Lawn mower robot and method for controlling the same
CN114063615B (zh) 棚内垄间农药喷洒智能车的倒车导航控制方法及系统
Mateus et al. Robot visual navigation in semi-structured outdoor environments
CN114766014A (zh) 各种照明环境下的自主机器导航
CN116466724A (zh) 一种机器人的移动定位方法、装置和机器人
CN116576859A (zh) 路径导航方法、作业控制方法及相关装置
CN114545948A (zh) 一种割草机器人控制方法、芯片及割草机器人
Rovira-Más Stereoscopic Vision for Off-Road Intelligent Vehicles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant