CN114937258B - 割草机器人的控制方法、割草机器人以及计算机存储介质 - Google Patents

割草机器人的控制方法、割草机器人以及计算机存储介质 Download PDF

Info

Publication number
CN114937258B
CN114937258B CN202210428803.1A CN202210428803A CN114937258B CN 114937258 B CN114937258 B CN 114937258B CN 202210428803 A CN202210428803 A CN 202210428803A CN 114937258 B CN114937258 B CN 114937258B
Authority
CN
China
Prior art keywords
mowing robot
area
robot
control method
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210428803.1A
Other languages
English (en)
Other versions
CN114937258A (zh
Inventor
颜旭
俞天宁
陈子冲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Weilan Continental Beijing Technology Co ltd
Original Assignee
Weilan Continental Beijing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Weilan Continental Beijing Technology Co ltd filed Critical Weilan Continental Beijing Technology Co ltd
Priority to CN202210428803.1A priority Critical patent/CN114937258B/zh
Publication of CN114937258A publication Critical patent/CN114937258A/zh
Application granted granted Critical
Publication of CN114937258B publication Critical patent/CN114937258B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • A01D34/008Control or measuring arrangements for automated or remotely controlled operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Harvester Elements (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本公开提供一种割草机器人及其控制方法以及计算机存储介质。控制方法包括:在建图模式获取第一坐标集合,以及采集割草机器人的前方图像,第一坐标集合对应所述割草机器人的工作区域的边界;对割草机器人的前方图像进行语义分割以分辨草地区域和非草地区域;根据割草机器人的前方图像获得场景深度图;根据第一坐标集合和经过语义分割处理的前方图像获得第二坐标集合,第二坐标集合对应草地区域的边界;根据场景深度图确定第二坐标集合中坐标的可通行性标识;以及根据第二坐标集合中的坐标及其可通行性标识确定修边作业路径。割草机器人沿修边作业路径作业,作业覆盖率更大。

Description

割草机器人的控制方法、割草机器人以及计算机存储介质
技术领域
本发明涉及自主移动机器人技术领域,尤其涉及一种割草机器人的控制方法、一种割草机器人以及计算机存储介质。
背景技术
割草机器人可以在无人照看或者控制的情况下对草地进行自动修剪,从而节省用户时间,减少用户的劳动。通常,割草机器人在用户设定的工作区域中作业,工作区域小于草地的范围。割草机器人通常能够在工作区域中高效地完成作业任务。但是,割草机器人通常无法对靠近工作区域或草地区域的边界位置处的草坪进行作业,作业覆盖效率低。
发明内容
鉴于上述问题,本发明实施例提供一种割草机器人的控制方法、一种割草机器人以及计算机存储介质,以至少解决现有割草机器人无法对边界附近的草坪充分修剪的问题。
根据本发明的一方面,提供一种割草机器人的控制方法。所述控制方法包括:在建图模式获取第一坐标集合,以及采集所述割草机器人的前方图像,其中,所述第一坐标集合对应所述割草机器人的工作区域的边界;对所述割草机器人的前方图像进行语义分割以分辨所述前方图像中的草地区域和非草地区域;根据所述割草机器人的前方图像获得场景深度图;根据所述第一坐标集合和经过语义分割处理的前方图像获得第二坐标集合,所述第二坐标集合对应草地区域的边界;根据所述场景深度图确定所述第二坐标集合中坐标的可通行性标识;以及根据第二坐标集合中的坐标及其可通行性标识确定修边作业路径。
在一些实施例中,所述割草机器人的前方图像是通过单目相机和/或双目相机采集。
在一些实施例中,在建图模式获取所述第一坐标集合包括:获取所述第一坐标集合中每个坐标对应的割草机器人的位姿。
在一些实施例中,所述控制方法还包括:根据所述经过语义分割处理的前方图像,确定所述场景深度图中的非草地区域中的像素;根据所述场景深度图中的非草地区域中像素的像素值和所述割草机器人的位姿,获得所述非草地区域的点云;以及根据所述非草地区域的点云判断所述第二坐标集合中的坐标沿着指向草地区域外侧方向的预定距离内否存在障碍。
在一些实施例中,所述预定距离大于或等于所述割草机器人的宽度的一半。
在一些实施例中,响应于判断所述第二坐标集合中的坐标沿着指向草地区域外侧方向的预定距离内不存在障碍,确定该坐标的可通行性标识为可通行;响应于判断所述第二坐标集合中的坐标沿着指向草地区域外侧方向的预定距离内存在障碍,确定该坐标的可通行性标识为不可通行。
在一些实施例中,所述根据第二坐标集合中的坐标及其可通行性标识确定修边作业路径包括:当所述第二坐标集合中的坐标的可通行性标识为可通行,该坐标位于所述修边作业路径上,当所述第二坐标集合中的坐标的可通行性标识为不可通行,在所述草地区域内规划从该坐标到下一个可通行性标识为可通行的坐标的路径。
在一些实施例中,所述控制方法还包括:响应于位于所述工作区域的割草机器人接收到修边作业指令,规划从所述割草机器人的当前位置到所述草地区域的边界的路径。
在一些实施例中,所述控制方法还包括:判断所述割草机器人的电池的电量是否支持所述割草机器人完成从所述割草机器人的当前位置到所述草地区域的边界的路径以及所述修边作业路径。
在一些实施例中,所述控制方法还包括:检测所述割草机器人前方是否存在临时障碍物。
在一些实施例中,所述割草机器人还包括第一驱动轮和第二驱动轮,其中,在修边作业模式,所述第一驱动轮和第二驱动轮分别位于所述草地区域的内侧和外侧。
根据本发明的另一方面,提供一种割草机器人,其包括控制器和存储器。所述控制器用于执行上述控制方法。
根据本发明的另一方面,提供一种计算机存储介质。所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令用于执行上述割草机器人的控制方法。
在本发明实施例的方案中,建图模式下确定割草机器人的工作区域的边界,在工作区域的边界的每个采样位置,通过定位装置获取割草机器人的位姿,通过图像采集装置获取割草机器人的前方图像,每个采样位置的割草机器人的位姿和前方图像都存储在存储器中。通过对割草机器人的前方图像进行语义分割以分辨出前方图像中的草地区域和非草地区域,根据每个采样位置的坐标和对应的语义分割图确定草地区域的边界。根据割草机器人的前方图像获得场景深度图,结合语义分割图能够确定出场景深度图中属于草地区域的像素和属于非草地区域的像素,根据场景深度图和其对应的采样位置的坐标能够确定草地区域的边界附近的非草地区域中的障碍,从而判断割草机器人能否在草地区域的边界是否可以进行跨边界作业,即标记可通行性标识。在工作区域中作业的割草机器人在接收到修边作业指令后,规划从当前位置到草地区域的边界的路径。在附近没有障碍的草地区域的边界,割草机器人进行跨边界作业,在附近有障碍的草地区域的边界,割草机器人在草地区域内规划一段路径。通过上述方式,割草机器人能够在草地区域的边界作业,在草地区域中的作业覆盖率更大。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的实施例提供的割草机器人的一个示例。
图2是本申请的实施例提供的割草机器人的结构框图。
图3是本申请的实施例提供的割草机器人的控制方法的流程图。
图4示出在草地区域中规划的割草机器人的示例性工作区域。
图5示出草地区域的边界点的示例性可通行性标识。
图6A和图6B示出了建图模式下割草机器人的示例性轨迹。
图7示出了割草机器人的修边作业路径。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了便于说明和理解,在对割草机器人的控制方法进行说明之前,对割草机器人的结构和工作场景进行简略说明如下。
割草机器人能够在草地中自主移动并对草地进行修剪。通常,用户在草地区域中限定割草机器人的工作区域,工作区域小于草地区域,割草机器人能够在工作区域中自主移动,遍历工作区域,实现整个工作区域的割草作业。现有的控制方法无法让割草机器人在工作区域外的草地区域作业,例如,仅仅沿工作区域的边界内侧或草地区域的边界内侧作业,割草机器人往往无法精准地对靠近边界足够近的草地进行作业,这对整体割草效果产生影响,作业覆盖率不足。实现割草机器人在工作区域外的草地作业需要判断草地区域的边界,并且需要判断割草机器人是否可以跨草地区域的边界作业。使割草机器人能够跨草地区域的边界作业,需要使割草机器人的两侧分别位于草地区域和草地区域外侧,这可以通过获取草地区域边界的坐标和割草机器人的定位实现。判断割草机器人跨草地区域的边界时割草机器人是否允许沿边界通行可以通过图像采集装置和视觉处理算法实现。为了降低成本,图像采集装置可以采用单目相机或双目相机。
图1是示例性的割草机器人的俯视图。如图1所示,割草机器人100具有大致为拉长的D形的形状。可以理解,割草机器人100还可以具有其他形状,例如,D形、矩形、圆形、椭圆形等。割草机器人100包括第一驱动轮110L和第二驱动轮110R。割草机器人100具有头部和尾部。第一驱动轮110L和第二驱动轮110R设置在接近割草机器人100的尾部的位置。在一些实施例中,割草机器人100还可以包括设置在头部附近的从动轮,从动轮例如是万向轮。
第一驱动轮110L和第二驱动轮110R可以相互独立地被驱动。割草机器人100可以进行前进、后退、转向、原地转动、爬坡等运动。割草机器人100的运动方式(运动方向和运动速度)可以通过调整第一驱动轮110L和第二驱动轮110R的驱动方式实现。当第一驱动轮110L和第二驱动轮110R同速转动时,割草机器人100前进或者后退。例如,第一驱动轮110L和第二驱动轮110R同速地顺时针转动,割草机器人100前进;第一驱动轮110L和第二驱动轮110R同速地逆时针转动,割草机器人100后退。割草机器人100的前进方向和后退方向可以在设计时预先设定。例如,割草机器人100以前进方向运动时,割草机器人100的头部在前,尾部在后。割草机器人100可实现原地旋转360度。割草机器人100具有运动中心点MC。运动中心点MC是位于割草机器人100的旋转轴线上的点,即,割草机器人100原地旋转时,运动中心点MC不发生位移。例如,当第一驱动轮110L和第二驱动轮110R中一个顺时针转动,另一个逆时针转动时,割草机器人100围绕通过运动中心点MC的垂直轴线旋转。在图1所示的割草机器人100中,运动中心点MC位于第一驱动轮110L和第二驱动轮110R的中心连线上。图1还示出了以割草机器人100的运动中心点MC为圆心的最大外接圆C,R为最大外接圆C的半径。最大外接圆C可以基于运动中心点MC和割草机器人100上距离运动中心点MC最远的点确定。可以理解,当割草机器人100围绕运动中心点X旋转时,割草机器人100不会超出该最大外接圆C的范围。图1还示出了点P,点P是驱动轮在前后方向的中心点,两个驱动轮的中心点P限定割草机器人100的宽度。
图2是本申请的实施例提供的割草机器人的结构框图。如图2所示,割草机器人100包括定位装置、割草装置、图像采集装置、通信装置、控制器、存储器、驱动装置以及电池。
定位装置用于获取割草机器人的位姿。定位装置例如包括全球定位系统(GPS)、超宽带无线通信定位(UWB)、惯性测量单元(IMU)和轮速计中的一种或几种。割草机器人100的位姿包括割草机器人的位置和姿态,位置可以采用割草机器人100在定位坐标系的X轴、Y轴和Z轴的坐标表示,姿态可以采用割草机器人100相对X轴、Y轴和Z轴的角度确定。定位坐标系的原点为定位基点,可以由用户根据草地选定。图像采集装置和割草机器人100的相对位置是固定的,图像采集装置的位姿也可通行进一步计算获得。割草机器人100包括至少一对驱动轮110。驱动轮由驱动装置驱动,从而控制割草机器人100的行进方向和行进速度。驱动装置可以包括电机和电机控制器。电机控制器可以是MCU或者PLC芯片等。割草装置是割草机器人执行作业的部分。割草装置包括:刀片和驱动刀片的电机。图像采集装置用于拍摄割草机器人前方的图像。图像采集装置可以是单目相机,或者双目相机,或者单目相机加双目相机。通信装置可以实现割草机器人100与电子设备的通信。电子设备可以是割草机器人100的遥控器或者运行有割草机器人100的控制软件的移动终端等。通信装置例如是WiFi模块或者蓝牙模块。控制器可以实现为MCU、DSP、ASIC等,控制器可以用于实现本申请的割草机器人的控制方法。用户可以通过电子设备向割草机器人100发送指令,控制器可以通过通信装置接收指令,完成对应的操作。割草机器人100还可以包括显示屏、控制按钮及配套的电路板等。存储器用于存储工作区域的边界,草地区域的边界、工作区域的遍历算法、以及割草机器人的各种控制算法等。存储器例如是非易失性存储器。电池用于为定位装置、割草装置、图像采集装置、通信装置、控制器、存储器、驱动装置等供电。
割草机器人的工作模式包括:建图模式、工作区域模式、寻边模式和修边作业模式。在割草机器人处在建图模式时,用户对割草机器人100的工作区域进行规划,设定工作区域的边界,构建地图。工作区域的边界存储在存储器中。在割草机器人100处在工作区域模式时,割草机器人100按照算法规划的路径在工作区域内进行割草作业,例如,割草机器人100利用定位装置确定当前位置,并根据规划的路径获取下一位置的坐标,实现自主移动。当割草机器人处在寻边模式时,割草机器人规划从当前位置到工作区域边界或草地区域的边界的路径。当割草机器人处在修边作业模式时,割草机器人对草地区域的边界处的草地进行割草作业。
在建图模式,用户可以通过自定义方式规划割草机器人100的工作区域。在一些实施例中,工作区域的边界通过一系列位置点的坐标来表征。在一些实施例中,工作区域的边界可以通过如下方式进行规划:驱动割草机器人100移动,通过定位装置获得移动过程中割草机器人100的一系列位置点的坐标。例如,用户可以通过电子设备来控制割草机器人100进行移动,从而设定工作区域的边界。电子设备例如是移动终端或者割草机器人100的专用遥控器。电子设备可通行无线网与割草机器人100通信。电子设备安装有割草机器人100的控制程序,并且设置有操控割草机器人100运动方式的按钮选项(例如,前进、后退、左转、右转等),用户通过点击不同的按钮选项控制割草机器人100移动。割草机器人100的定位装置以一定频率采集割草机器人100的位姿,其中,割草机器人100的坐标可以其运动中心点X的坐标表征,也可以用定义割草机器人100的宽度的点P的坐标表征。这些位置坐标的集合构成了割草机器人100的建图移动路径,作为工作区域的边界存储在割草机器人100的存储器中。
图3是本申请的实施例提供的割草机器人的控制方法的流程图。通过该控制方法,能够使割草机器人在草地区域的边界作业,提高了割草机器人的作业覆盖率,提高了割草机器人的割草效果。如图3所示,该控制方法包括以下步骤。
步骤S302,在建图模式获取第一坐标集合,以及采集所述割草机器人的前方图像,其中,所述第一坐标集合对应所述割草机器人的工作区域的边界。前方图像是图像采集装置采集的RGB图像。在建图模式下,通过驱动割草机器人100移动来规划工作区域。在割草机器人100移动过程中,定位装置以第一频率采集割草机器人100的位姿,每个采样时间对应一个采样位置,将每个采样时间定位装置获得的割草机器人100在位姿存储在存储器中。即,在建图模式获取所述第一坐标集合包括:获取所述第一坐标集合中每个坐标对应的割草机器人100的位姿。采样位置的坐标系以定位基点为原点。在建图模式采集的一系列坐标称为第一坐标集合,第一坐标集合表征了割草机器人100的工作区域的边界。在本文中,工作区域的边界称为第一边界。在建图模式,在每个采样位置,图像采集装置获取割草机器人100的前方图像,即图像采集装置以第一频率采集割草机器人100的前方图像。例如,控制器可以基于时钟向图像采集装置和定位装置发送采样信号,响应于采样信号,图像采集装置采集割草机器人100的前方图像,定位装置采集割草机器人100的位姿,割草机器人100的位置坐标构成第一坐标集合。基于割草机器人100的位姿,能够确定前方图像的图像采集方向。
图4示出在草地区域中规划的割草机器人100的示例性工作区域。通过驱动割草机器人100沿着草地区域的边界内侧行走一圈,割草机器人100的移动轨迹作为工作区域的边界,采集行走过程中割草机器人100的坐标,得到表征工作区域的边界的第一坐标集合。草地区域外存在障碍1、障碍2和障碍3。障碍1例如为杂物堆,距离草地区域的边界的距离为d1。障碍2例如为墙体,紧贴草地区域的边界。障碍3例如为陡坡,距离草地区域的边界的距离为d2。
由于割草机器人100具有一定的轮廓和体积,规划割草机器人100的工作区域时,割草机器人100的实际轨迹具有一定宽度。图6A和图6B示出了建图模式下割草机器人100的示例性轨迹。由于割草机器人100具有宽度W,割草机器人100的运动轨迹也具有宽度W。割草机器人100的运动轨迹包括第一轨迹和第二轨迹。割草机器人100具有定义其宽度W的第一宽度定义点P1和第二宽度定义点P2。第一宽度定义点P1和第二宽度定义点P2可以分别是第一驱动轮和第二驱动轮的中心点。第二轨迹是第一宽度定义点P1的轨迹,第一轨迹是运动中心点MC的轨迹。第一轨迹和第二轨迹平行,第一轨迹和第二轨迹之间的距离为W/2。在一些实施例中,如图6B所示,以第一轨迹作为割草机器人100的工作区域的边界,即第一坐标集合是运动中心点MC的坐标集合,对应第一轨迹。在另一些实施例中,如图6A所示,以第二轨迹作为割草机器人100的工作区域的边界,即第一坐标集合是第一宽度定义点P1的坐标集合,对应第二轨迹。通常,在驱动割草机器人100移动以规划工作区域时,由于用户操作水平的限制以及安全角度考虑,割草机器人100的外侧驱动轮不能充分靠近草地区域的边界。如图4所示,割草机器人100的外侧驱动轮和草地区域的边界具有距离D。
在步骤S304,对所述割草机器人100的前方图像进行语义分割以分辨所述前方图像中的草地区域和非草地区域。语义分割算法可以对图像中的每个像素进行分类。在本申请中,通过语义分割将割草机器人100的前方图像中的像素分为属于草地区域的像素和属于非草地区域的像素,这样可以在前方图像中获得草地区域和非草地区域的分界线,即草地区域的边界。根据采样位置的坐标,割草机器人100的位姿,可以获得草地区域的边界点的坐标。语义分割处理可以由割草机器人100的控制器执行。
在步骤S306,根据所述割草机器人的前方图像获得场景深度图。例如,对于通过单目相机获取的割草机器人的前方图像,可以利用卷积神经网络进行单目深度估计,即利用一个用于视觉特征提取的提取器和一个用于抽象视觉特征处理的解码器对输入进神经网络的图像进行处理,最后输出表征距离信息的场景深度图。再例如,对于通过单目相机获取的割草机器人的前方图像也可以利用视觉Transformer进行深度估计,Transformer结构将割草机器人100的前方图像进行分块检测,再进行拼接,拼接图被输入到一个用于抽象视觉特征处理的解码器,最后输出表征距离信息的场景深度图。在使用双目相机获取割草机器人100的前方图像的实施例,双目相机拍摄割草机器人100的左、右视点图像,运用匹配算法获取视差图,进而获取场景深度图。
对前方图像进行语义分割和根据前方图像获得场景深度图可以通过控制器执行,图像传感器采集的割草机器人的前方图像输入到控制器的多任务神经网络模型,获得两张结果图(语义分割结果和场景深度图),每个采样时间的相机位姿和两种结果图存储到存储器。
在步骤S308,根据所述第一坐标集合和经过语义分割处理的前方图像获得第二坐标集合,所述第二坐标集合对应草地区域的边界。对于每个采样位置,从语义分割处理的前方图像能够获得该采样位置前方的草地区域的边界。根据该采样位置的坐标和割草机器人100的姿态,能够确定草地区域的边界的坐标。建图模式结束后,根据第一坐标集合和经过语义分割处理的前方图像可以获得第二坐标集合,第二坐标集合对应草地区域的边界。
在步骤S310,根据所述场景深度图确定所述第二坐标集合中坐标的可通行性标识。第二坐标集合中坐标的可通行性标识基于该坐标对应的草地区域外侧的预定距离内是否存在障碍判断。图5示出草地区域的边界点的示例性可通行性标识。如图5所示,位置点201-205位于草地区域的边界,位置点201-205的坐标属于第二坐标集合。从位置点201和204向着草地区域外侧方向的预定距离内不存在障碍,位置点201和204的可通行性标识为可通行。从位置点202向着草地区域外侧方向存在障碍1,位置点202和障碍1的距离小于预定距离,位置点202的可通行性标识为不可通行。位置点205紧邻障碍2,位置点205的可通行性标识为不可通行。第一坐标集合、第二坐标集合和第二坐标集合中坐标的可通行性标识存储在割草机器人的存储器中。
场景深度图是一个以到图像采集装置的距离作为像素值的特征图,像素值例如以毫米为单位。利用场景深度图可以重建对应采样位置和图像采集方向上的点云,根据点云判断前方是景深由近及远不断平缓增加的平坦区域,还是景深数值接近且数值较小的障碍物区域,或者是景深由近及远迅速增加的地形突变区域。当判断非草地区域为平坦区域时,则草地区域边界的位置点被认为为可通行,可以跨骑修边,当判断非草地区域有障碍物或者因地形突变有无法正常工作的风险时,则草地区域边界的位置点被认为为可通行,可以跨骑修边。
控制器可以通过以下方法根据所述场景深度图确定所述第二坐标集合中坐标的可通行性标识。根据所述经过语义分割处理的前方图像,确定所述场景深度图中的非草地区域中的像素。场景深度图和语义分割处理的前方图像具有相同的分辨率,场景深度图和语义分割处理的前方图像的像素具有对应关系,因此可以确定所述场景深度图中的非草地区域中的像素。根据所述场景深度图中的非草地区域中像素的像素值和所述割草机器人的位姿,获得所述非草地区域的点云。根据所述非草地区域的点云判断所述第二坐标集合中的坐标沿着指向草地区域外侧方向的预定距离内否存在障碍。响应于判断所述第二坐标集合中的坐标沿着指向草地区域外侧方向的预定距离内不存在障碍,确定该坐标的可通行性标识为可通行;响应于判断所述第二坐标集合中的坐标沿着指向草地区域外侧方向的预定距离内存在障碍,确定该坐标的可通行性标识为不可通行。
在一些实施例中,所述预定距离大于或等于所述割草机器人的宽度W的一半。预定距离大于或等于所述割草机器人的宽度W的一半能够保证割草机器人100跨草地区域的边界作业,即割草机器人100的一个驱动轮在草地区域中,一个驱动轮在草地区域外。
步骤S312,根据第二坐标集合中的坐标及其可通行性标识确定修边作业路径。可以通过以下方式根据所述第二坐标集合规划修边作业路径:当所述第二坐标集合中的坐标的可通行性标识为可通行,该坐标位于所述修边作业路径上,当所述第二坐标集合中的坐标的可通行性标识为不可通行,在所述草地区域内规划从该坐标到下一个可通行性标识为可通行的坐标的路径。图7示出了割草机器人的修边作业路径的示意图。如图7所示,草地区域的边界401的外侧没有障碍,第二坐标集合中对应边界401上的坐标的可通行性标识为可通行,割草机器人100可以跨骑在边界401上对边界401和工作区域之间的草地割草。类似地,割草机器人100可以跨骑在边界402上对边界402和工作区域之间的草地割草。草地区域的边界上的位置点201的可通行性标识为可通行,位置点202和203以及位置点202和203之间的多个位置点的可通行性标识为不可通行,需要在草地区域内规划从位置点201到位置点204的路径403。类似地,需要规划从位置点204到位置点206的路径404,以及需要规划从位置点207到位置点208的路径。割草机器人100沿着修边作业路径进行割草,能够将贴着草地区域的边界的草割干净。
在一些实施例中,步骤S304至步骤S312可以在建图模式结束后执行,本申请不做限定。
在一些实施例中,割草机器人100以如下方式进入寻边模式。处在工作区域模式的割草机器人100在工作区域中作业时接收到修边作业指令。响应于修边作业指令,割草机器人100规划从当前位置到草地区域的边界的路径,即进入寻边模式。例如,割草机器人100寻找距离当前位置最近的草地区域的边界点,再确定从当前位置到最近的边界点的路径。割草机器人100到达最近的草地区域的边界点后进入修边作业模式,以该边界点为起点沿着修边作业路径行使一遍。在修边作业模式,第一驱动轮和第二驱动轮分别位于所述草地区域的内侧和外侧。在一些实施例中,响应于修边作业指令,割草机器人100规划从当前位置到草地区域的边界的路径以及以最近的草地区域的边界点为起点的修边作业路径。在一些实施例中,割草机器人100判断的电池的电量是否支持所述割草机器人100完成从所述割草机器人的当前位置到所述草地区域的边界的路径以及所述修边作业路径。如果电池的电量不足,割草机器人100返回充电桩进行充电。
在一些实施例中,控制方法还包括:使所述割草机器人100从所述割草机器人100的当前位置运动到所述草地区域的边界的过程中,检测所述割草机器人前方是否存在临时障碍物。例如,割草机器人100根据定位装置提供的割草机器人100的当前位姿信息不断判断是否位于草地区域的边界附近,当割草机器人100距离草地区域的边界的距离小于2W时,降低割草机器人100的速度,并且开启图像采集装置以第二频率采集前方图像,割草机器人100的控制器根据图像采集模块采集的图像判断前方是否存在临时障碍,从而对前方的边界点是否可以跨骑进行决策。第二频率小于第一频率,临时障碍例如是临时的行人、汽车、宠物等。根据图像采集装置采集的图像判断前方是否存在临时障碍也需要将将采集的图像转为场景深度图,再转点云图。
在一些实施例中,进入修边作业模式后,即割草机器人100在草地区域的边界后,图像采集装置以第二频率采集前方图像。如果根据图像采集装置采集的图像判断前方可通行,则割草机器人100按照步骤S302-S308提供的先验信息规划出的路径持续行驶。如果根据图像采集装置采集的图像判断前方有临时障碍,不可通行,结合当前采集的前方图像的点云和图像采集装置的位姿信息,割草机器人向草地区域方向行驶躲避不可通行区域,并结合预定跨骑规划路线对后续路线进行调整。这样通过利用图像采集装置检测前方的路况,直到割草机器人在先验计算的修边作业路径上行驶结束。
在本发明实施例的方案中,建图模式下确定割草机器人的工作区域的边界,在工作区域的边界的每个采样位置,通过定位装置获取割草机器人的位姿,通过图像采集装置获取割草机器人的前方图像,每个采样位置的割草机器人的位姿和前方图像都存储在存储器中。通过对割草机器人的前方图像进行语义分割以分辨出前方图像中的草地区域和非草地区域,根据每个采样位置的坐标和对应的语义分割图确定草地区域的边界。根据割草机器人的前方图像获得场景深度图,结合语义分割图能够确定出场景深度图中属于草地区域的像素和属于非草地区域的像素,根据场景深度图和其对应的采样位置的坐标能够确定草地区域的边界附近的非草地区域中的障碍,从而判断割草机器人能否在草地区域的边界是否可以进行跨边界作业,即标记可通行性标识。在工作区域中作业的割草机器人在接收到修边作业指令后,规划从当前位置到草地区域的边界的路径。在附近没有障碍的草地区域的边界,割草机器人进行跨边界作业,在附近有障碍的草地区域的边界,割草机器人在草地区域内规划一段路径。通过上述方式,割草机器人能够在草地区域的边界作业,在草地区域中的作业覆盖率更大。
本发明有以下优势:采用建图模式阶段检测草地区域的边界附件的固有障碍,在修边作业模式阶段检测草地区域的边界附件的临时障碍,两个阶段配合确保割草机器人在草地区域的边界处安全作业;在建图模式采用复杂并且更准确的图像处理模型,在修边作业模式采用简单的图像处理模型。为跨骑修边提供信息,合理利用内存资源;利用单目相机和/或双目相机代替其他传感器如红外,激光雷达等,实现跨骑边缘的高度侦测和障碍物侦测的同时,节省硬件资源和计算算力的负荷。
需要说明的是,在本发明的描述中,术语“第一”、“第二”仅用于方便描述不同的部件或名称,而不能理解为指示或暗示顺序关系、相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
需要说明的是,虽然结合附图对本发明的具体实施例进行了详细地描述,但不应理解为对本发明的保护范围的限定。在权利要求书所描述的范围内,本领域技术人员不经创造性劳动即可做出的各种修改和变形仍属于本发明的保护范围。
本发明实施例的示例旨在简明地说明本发明实施例的技术特点,使得本领域技术人员能够直观了解本发明实施例的技术特点,并不作为本发明实施例的不当限定。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (12)

1.一种割草机器人的控制方法,其特征在于,所述控制方法包括:
在建图模式获取第一坐标集合,以及采集所述割草机器人的前方图像,其中,所述第一坐标集合对应所述割草机器人的工作区域的边界;
对所述割草机器人的前方图像进行语义分割以分辨所述前方图像中的草地区域和非草地区域;
根据所述割草机器人的前方图像获得场景深度图;
根据所述第一坐标集合和经过语义分割处理的前方图像获得第二坐标集合,所述第二坐标集合对应草地区域的边界;
根据所述场景深度图确定所述第二坐标集合中坐标的可通行性标识;以及
根据第二坐标集合中的坐标及其可通行性标识确定修边作业路径,其中,当所述第二坐标集合中的坐标的可通行性标识为可通行,该坐标位于所述修边作业路径上,当所述第二坐标集合中的坐标的可通行性标识为不可通行,在所述草地区域内规划从该坐标到下一个可通行性标识为可通行的坐标的路径。
2.根据权利要求1所述的控制方法,其特征在于,所述割草机器人的前方图像是通过单目相机和/或双目相机采集。
3.根据权利要求1所述的控制方法,其特征在于,在建图模式获取所述第一坐标集合包括:获取所述第一坐标集合中每个坐标对应的割草机器人的位姿。
4.根据权利要求3所述的控制方法,其特征在于,所述控制方法还包括:
根据所述经过语义分割处理的前方图像,确定所述场景深度图中的非草地区域中的像素;
根据所述场景深度图中的非草地区域中像素的像素值和所述割草机器人的位姿,获得所述非草地区域的点云;以及
根据所述非草地区域的点云判断所述第二坐标集合中的坐标沿着指向草地区域外侧方向的预定距离内否存在障碍。
5.根据权利要求4所述的控制方法,其特征在于,所述预定距离大于或等于所述割草机器人的宽度的一半。
6.根据权利要求4所述的控制方法,其特征在于,响应于判断所述第二坐标集合中的坐标沿着指向草地区域外侧方向的预定距离内不存在障碍,确定该坐标的可通行性标识为可通行;
响应于判断所述第二坐标集合中的坐标沿着指向草地区域外侧方向的预定距离内存在障碍,确定该坐标的可通行性标识为不可通行。
7.根据权利要求1所述的控制方法,其特征在于,所述控制方法还包括:响应于位于所述工作区域的割草机器人接收到修边作业指令,规划从所述割草机器人的当前位置到所述草地区域的边界的路径。
8.根据权利要求7所述的控制方法,其特征在于,所述控制方法还包括:判断所述割草机器人的电池的电量是否支持所述割草机器人完成从所述割草机器人的当前位置到所述草地区域的边界的路径以及所述修边作业路径。
9.根据权利要求7所述的控制方法,其特征在于,所述控制方法还包括:使所述割草机器人从所述割草机器人的当前位置运动到所述草地区域的边界的过程中,检测所述割草机器人前方是否存在临时障碍。
10.一种割草机器人,其特征在于,包括:控制器和存储器,所述控制器用于执行权利要求1至9任一项所述的割草机器人的控制方法。
11.根据权利要求10所述的割草机器人,其特征在于,所述割草机器人还包括第一驱动轮和第二驱动轮,其中,在修边作业模式,所述第一驱动轮和第二驱动轮分别位于所述草地区域的内侧和外侧。
12.一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令用于执行权利要求1至9任一项所述的割草机器人的控制方法。
CN202210428803.1A 2022-04-22 2022-04-22 割草机器人的控制方法、割草机器人以及计算机存储介质 Active CN114937258B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210428803.1A CN114937258B (zh) 2022-04-22 2022-04-22 割草机器人的控制方法、割草机器人以及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210428803.1A CN114937258B (zh) 2022-04-22 2022-04-22 割草机器人的控制方法、割草机器人以及计算机存储介质

Publications (2)

Publication Number Publication Date
CN114937258A CN114937258A (zh) 2022-08-23
CN114937258B true CN114937258B (zh) 2023-08-04

Family

ID=82863179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210428803.1A Active CN114937258B (zh) 2022-04-22 2022-04-22 割草机器人的控制方法、割草机器人以及计算机存储介质

Country Status (1)

Country Link
CN (1) CN114937258B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020090038A1 (ja) * 2018-10-31 2020-05-07 本田技研工業株式会社 自律式作業機
CN115885669A (zh) * 2022-12-27 2023-04-04 厦门市拙雅科技有限公司 园艺三维修剪方法、系统、机器人、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106647765A (zh) * 2017-01-13 2017-05-10 深圳拓邦股份有限公司 一种基于割草机器人的规划平台
CN109063575A (zh) * 2018-07-05 2018-12-21 中国计量大学 一种基于单目视觉的智能割草机自主有序割草方法
CN109426277A (zh) * 2017-08-30 2019-03-05 广州极飞科技有限公司 移动轨迹规划的方法及装置
CN109634286A (zh) * 2019-01-21 2019-04-16 深圳市傲基电子商务股份有限公司 割草机器人视觉避障方法、割草机器人和可读存储介质
CN114119679A (zh) * 2021-10-08 2022-03-01 江汉大学 一种割草机器人草坪边界标定方法、割草机器人及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106647765A (zh) * 2017-01-13 2017-05-10 深圳拓邦股份有限公司 一种基于割草机器人的规划平台
CN109426277A (zh) * 2017-08-30 2019-03-05 广州极飞科技有限公司 移动轨迹规划的方法及装置
CN109063575A (zh) * 2018-07-05 2018-12-21 中国计量大学 一种基于单目视觉的智能割草机自主有序割草方法
CN109634286A (zh) * 2019-01-21 2019-04-16 深圳市傲基电子商务股份有限公司 割草机器人视觉避障方法、割草机器人和可读存储介质
CN114119679A (zh) * 2021-10-08 2022-03-01 江汉大学 一种割草机器人草坪边界标定方法、割草机器人及存储介质

Also Published As

Publication number Publication date
CN114937258A (zh) 2022-08-23

Similar Documents

Publication Publication Date Title
EP3833176B1 (en) Autonomous machine navigation and training using vision system
CN114937258B (zh) 割草机器人的控制方法、割草机器人以及计算机存储介质
US8666554B2 (en) System and method for area coverage using sector decomposition
US11126193B2 (en) Automatic beacon position determination
CN113126613B (zh) 智能割草系统及其自主建图方法
US20230236604A1 (en) Autonomous machine navigation using reflections from subsurface objects
US11209814B2 (en) Working system and working method
EP4020112A1 (en) Robotic mower and control method thereof
CN114353801B (zh) 自移动设备及其导航方法
US11582903B1 (en) Vision based guidance system and method for lawn mowing devices
US20230069475A1 (en) Autonomous machine navigation with object detection and 3d point cloud
US20220137631A1 (en) Autonomous work machine, control device, autonomous work machine control method, control device operation method, and storage medium
CN113885495A (zh) 一种基于机器视觉的室外自动工作控制系统、方法及设备
CN113848872B (zh) 自动行走设备及其控制方法及可读存储介质
EP4397167A2 (en) Autonomous machine navigation and training using vision system
US20230320263A1 (en) Method for determining information, remote terminal, and mower
WO2023274339A1 (zh) 自动工作系统
CN112486157B (zh) 自动工作系统及其转向方法、自移动设备
CN116736865A (zh) 信息确定方法、远程终端、设备、割草机及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant