CN113110411A - 视觉机器人回基站控制方法、装置及割草机器人 - Google Patents
视觉机器人回基站控制方法、装置及割草机器人 Download PDFInfo
- Publication number
- CN113110411A CN113110411A CN202110249272.5A CN202110249272A CN113110411A CN 113110411 A CN113110411 A CN 113110411A CN 202110249272 A CN202110249272 A CN 202110249272A CN 113110411 A CN113110411 A CN 113110411A
- Authority
- CN
- China
- Prior art keywords
- robot
- base station
- path
- relative position
- grassland
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000000007 visual effect Effects 0.000 title claims abstract description 29
- 230000008569 process Effects 0.000 claims description 12
- 238000003708 edge detection Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 244000025254 Cannabis sativa Species 0.000 description 7
- 238000001514 detection method Methods 0.000 description 4
- 230000005672 electromagnetic field Effects 0.000 description 4
- 239000010454 slate Substances 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0217—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明适用于智能家电技术领域,提供了一种视觉机器人回基站控制方法、装置及割草机器人,方法包括:获取机器人所处草地环境的草地边界;根据草地边界生成沿边路径,控制机器人根据沿边路径移动并进行基站识别;当识别到基站时,计算机器人与基站之间的相对位置;根据相对位置生成回充路径,并控制机器人根据回充路径移动至基站。本申请通过获取机器人所处草地环境的草地边界,然后控制机器人沿草地边界进行沿边,并在沿边过程中识别到基站时计算机器人和基站之间的相对位置,再跟进该相对位置生成回充路径,以控制机器人沿该回充路径移动至基站进行充电,利用识别边界进行沿边结合视觉识别基站实现环境中探索基站功能,精准回到充电基站。
Description
技术领域
本发明属于智能家电技术领域,尤其涉及一种视觉机器人回基站控制方法、装置及割草机器人。
背景技术
为了保证城市的绿化面积,在街道、公园以及学校中种植有各种类型的草坪,由于草坪的草会自然生长,所以需要经常对草坪进行修剪美化。现有的草坪美化通常是使用智能割草机对草坪进行修剪,智能割草机能自主的完成修剪草坪的工作,无须人为直接控制和操作,具有功率低、噪音小、外形精巧美观的特点,智能割草机能大幅度降低人工操作。
现有的智能割草机具备自动行走功能、防止碰撞、范围之内防止出线、自动返回充电、安全检测和电池电量检测等功能,其中,智能割草机的自动返回充电的方案通常是在场地边缘布置电线,智能割草机根据电线的电磁场信号可以找到基站进行充电,但是,无边界视觉割草机器人无法感应电线的电磁场,进而不能通过电线自动返回基站,使得视觉割草机器人无法及时充电,导致无法自动完成全局的割草任务,局限性高。
发明内容
本发明实施例提供一种视觉机器人回基站控制方法,旨在解决视觉机器人如何回到基站充电的问题。
本发明实施例是这样实现的,一种视觉机器人回基站控制方法,方法包括如下步骤:
获取机器人所处草地环境的草地边界;
根据草地边界生成沿边路径,控制机器人根据沿边路径移动并进行基站识别;
当识别到基站时,计算机器人与识别到的基站之间的相对位置;
根据相对位置生成回充路径,并控制机器人根据回充路径移动至基站。
第二方面,本申请还提供一种视觉机器人回基站控制装置,装置包括:
边界获取单元,用于获取机器人所处草地环境的草地边界;
沿边路径生成单元,用于根据草地边界生成沿边路径,控制机器人根据沿边路径移动并进行基站识别;
位置计算单元,用于当识别到基站时,计算机器人与识别到的基站之间的相对位置;
回充控制单元,用于根据相对位置生成回充路径,并控制机器人根据回充路径移动至基站。
第三方面,本申请还提供一种割草机器人,割草机器人包括如上述的视觉机器人回基站控制装置。
本申请实施例通过获取机器人所处草地环境的草地边界,然后控制机器人沿草地边界进行沿边,并在沿边过程中识别到基站时计算机器人和基站之间的相对位置,再根据该相对位置生成回充路径,以控制机器人沿该回充路径移动至基站进行充电,利用识别边界进行沿边结合视觉识别基站实现环境中探索基站功能,精准回到充电基站。
附图说明
图1是本申请视觉机器人回基站控制方法一个实施例的基本流程示意图;
图2是本申请视觉机器人回基站控制方法一个实施例获取草地边界的流程示意图;
图3是本申请视觉机器人回基站控制方法另一个实施例计算相对位置的基本流程示意图;
图4是本申请视觉机器人回基站控制方法一个实施例规划回充路径的基本流程示意图;
图5是本申请视觉机器人回基站控制方法一个实施例标记基站的基本流程示意图;
图6是本申请视觉机器人回基站控制装置一个实施例的模块结构示意图;
图7是本申请视觉机器人回基站控制装置一个实施例边界获取单元的模块结构示意图;
图8是本申请视觉机器人回基站控制装置另一个实施例的位置计算单元的模块结构示意图;
图9是本申请视觉机器人回基站控制装置一个实施例回充路径生成单元的模块结构示意图;
图10是本申请视觉机器人回基站控制装置另一个实施例的模块结构示意图;
图11是本申请一个实施例草地与机器人的位置示意图;
图12是本申请一个实施例扫机器人和基站的位置结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现有的视觉割草机器人不具备感应电磁场功能而不能通过导线自动回基站充电,导致无法充电而不能完成全局割草任务。本申请通过利用识别边界进行沿边结合视觉识别基站实现环境中探索基站功能,视觉机器人能精准回到基站进行充电。
实施例一
在一些可选实施例中,请参照图1,图1是本申请一种视觉机器人回基站控制方法一个实施例的流程示意图。
如图1所示,本申请第一方面提供一种视觉机器人回基站控制方法,方法包括以下步骤:
S1100、获取机器人所处草地环境的草地边界;
机器人可设置有处理器,本申请提供的视觉机器人回基站控制方法的步骤由该处理器执行实现。处理器可以是设置于机器人上的实际的处理器,也可以是云端的虚拟处理器,在此不做具体限制。
割草机器人在工作时,机器人自身处于草地中以切割修剪草地,在实施时,草地与其他环境、物体的交界处为草地边界,例如在家庭花园草地中,草地外围包括栅栏和墙体等,且草地中还有蜿蜒的石板路,则草地与栅栏、墙体和石板路的交界处即为草地边界,在一些实施例中,可以通过设置在机器人上的照相机或者摄像头拍摄草地图像,然后通过边缘提取技术确定草地的边界。在另一些实施例中,还可以借助机器人内的地面材质识别系统来采集草地和周围障碍物的材质信息,其中,障碍物为与草地不同的物体,包括动态障碍物和静态障碍物,根据材质信息的不同区分草地和障碍物,从而确定草地边界。
S1200、根据草地边界生成沿边路径,控制机器人根据沿边路径移动并进行基站识别;
处理器系统根据草地的边界规划机器人沿草地边界进行沿边移动的沿边路径,然后控制机器人沿该沿边路径进行移动探索基站,在实施时,草地边界呈不规则的闭合曲线,所以机器人在草地沿边时,会循环重复进行沿边探索,可以通过记录机器人沿边的起点位置,并在机器人沿边过程中实施检测机器人的实时位置,当机器人沿边回到起点位置时,停止沿边。而当机器人在沿边过程中识别到基站时,执行步骤S1300。
S1300、计算机器人与识别到的基站之间的相对位置;
当沿边过程中机器人识别到基站时,计算机器人和基站的相对位置,相对位置包括机器人和基站的距离、基站的朝向以及机器人的位姿等信息,在实施时,可以在机器人沿边过程中实时采集沿边的图像,并在通过沿边图像识别到基站时,根据沿边图像确定机器人和基站之间的距离、基站的朝向以及机器人相对基站的位姿等信息,同时还可以根据机器人的定位信息确定基站的位置信息。
S1400、根据相对位置生成回充路径;
S1500、控制机器人根据回充路径移动至基站。
系统根据机器人和基站的相对位置规划回充路径,在实施时,可以通过图搜索法规划回充路径,其中的图搜索法依靠已知的环境地图以及地图中的目标物信息构造从起点到终点的可行路径,图搜索法包括深度优先和广度优先两个方向,具体地,深度优先算法优先扩展搜索深度大的节点,可以快速的得到一条可行路径;而广度优先算法优先扩展深度小的节点,可以得到最短路径,图搜索法为现有的规划路径的公知技术,在此不再赘述,生成回充路径后,控制器控制机器人沿回充路径移动至基站充电。
在一些实施例中,如图11所示,图11是草地与机器人的位置示意图,其中,机器人处于草地A中,B表示围墙,C表示人行道,D表示基站,E表示沿边路径,F表示机器人,视觉机器人在草地A中执行割草任务,当视觉机器人电量低需要回基站充电时,视觉机器人先对所处环境进行图像采集,获取草地A的草地边界,草地边界包括草地A与围墙B和人行道C的交界,然后根据草地边界规划沿边路径E,并控制视觉机器人根据沿边路径E进行移动,并在沿边过程中检测是否识别到基站D,当识别到基站D时,采集基站D的图像并计算机器人和基站D的相对位置以规划回充路径,如图12所示,图12为机器人和基站的位置结构示意图,其中,基站D位于机器人的前方位置,且基站D的回充接口朝向右边,机器人回到基站D并与回充接口对接进行充电的移动路径包括路径X和路径Y,其中,路径X为最优路径,则将路径X作为回充路径并控制机器人沿该回充路径移动至基站充电。
本申请通过获取机器人所处草地环境的草地边界,然后控制机器人沿草地边界进行沿边,并在沿边过程中识别到基站时计算机器人和基站之间的相对位置,再跟进该相对位置生成回充路径,以控制机器人沿该回充路径移动至基站进行充电,利用识别边界进行沿边结合视觉识别基站实现环境中探索基站功能,精准回到充电基站。
实施例二
在一些可选实施例中,请参阅图2,图2是本申请提供的视觉机器人回基站控制方法一个实施例获取草地边界的具体流程示意图。
如图2所示,获取机器人草地环境的草地边界的步骤,包括如下述步骤:
S1110、采集草地环境的环境图像;
视觉机器人设置有摄像头或者其他能进行图像采集的装置,通过摄像头即可采集到草地的环境图像。
S1120、对环境图像进行边缘检测提取草地环境的草地边界。
边缘检测可以标识图像中亮度变化明显的点,而图像属性中的显著变化反映了属性的重要事件和变化,例如草地和墙壁的边界,采集的图像中表征草地的属性和表征墙壁的属性具有明显的差异,从而可以根据该差异确定草地边界。在一些实施例中,边缘检测包括基于查找和基于零穿越两类,其中,基于查找的方法通过寻找图像一阶导数中的最大和最小值来检测边界,通常是将边界定位在梯度最大的方向;基于零穿越的方法通过寻找图像二阶导数零穿越来寻找边界,通常是Laplacian过零点或者非线性差分表示的过零点。在实施时,可以通过使用成熟的边缘检测方法(例如canny边缘检测算法、Sobel边缘检测算法)识别草地环境的边界。本申请通过视觉识别边界沿边结合视觉识别基站实现环境中探索基站功能,视觉机器人不需要借助电线的电磁场信号即可沿边界回基站,提高回基站的准确性。
实施例三
在一些可选实施例中,请参阅图3,图3是本申请提供的视觉机器人回基站控制方法另一个实施例计算相对位置的具体流程示意图。
如图3所示,当识别到基站时,计算机器人与基站之间的相对位置的步骤,包括如下述步骤:
S1310、获取机器人沿边过程中采集的沿边图像;
S1320、判断沿边图像中是否包括基站;
通过视觉机器人的摄像头即可对机器人沿边过程中的环境进行采集得到实时采集的沿边图像,然后根据采集到的沿边图像识别基站,在实施时,当采集的沿边图像中检测到特定的目标特征点时,该目标特征点为对基站进行特征提取得到的特征点,例如机器人在进行首次割草任务之前先从各个角度对基站进行图像采集,然后提取基站的目标特征点并保存,当机器人在沿边过程中采集到的沿边图像包括目标特征点时,确定识别到基站,执行步骤S1330,否则继续执行步骤S1310。
S1330、根据预设的视觉定位算法计算机器人和基站的相对位置。
视觉定位算法是系统预先设置的用于计算基站位置的算法,在实施时,视觉机器人可以使用单目视觉和里程计融合的方法,以里程计读数作为辅助信息,提取沿边图像中对应基站的特征点,然后利用三角法计算特征点在当前机器人坐标系中的坐标位置。
实施例四
在一些可选实施例中,请参阅图4,图4是本申请提供的视觉机器人回基站控制方法一个实施例规划回充路径的具体流程示意图。
如图4所示,根据相对位置生成回充路径的步骤,包括如下述步骤:
S1410、根据基站确定机器人的位姿;
S1420、根据位姿和相对位置生成回充路径。
在实施时,可以提取沿边图像中对应基站的特征点,然后根据特征点在当前摄像头坐标系中的三维坐标以及特征点在地图中的世界坐标,来计算摄像头在世界坐标系中的位姿,从而确定机器人的位姿,定位的结果更加精确。然后根据机器人和基站的相对位置以及机器人的位姿规划最优的回充路径,精确控制机器人移动回到基站进行充电。
实施例五
在一些可选实施例中,请参阅图5,图5是本申请提供的视觉机器人回基站控制方法一个实施例标记基站的具体流程示意图。
如图5所示,根据相对位置生成回充路径,并控制机器人根据回充路径移动至基站的步骤之后,本申请提供的视觉机器人回基站控制方法还包括如下步骤:
S1600、获取基站的位置信息;
S1700、根据位置信息在机器人的世界地图中标记基站。
视觉机器人识别到基站后,可以定位基站的位置,例如借助视觉定位导航,视觉定位导航主要是机器人借助单目、双目摄像头、深度摄像机、视频信号数字化设备或基于DSP的快速信号处理器等其他外部设备获取图像,然后对周围的环境进行光学处理,将采集到的图像信息进行压缩,反馈到由神经网络和统计学方法构成的学习子系统,然后由子系统将采集到的图像信息与机器人的实际位置联系起来,完成定位。世界地图是机器人创建的地图,在实施时,机器人在移动过程中根据位置估计和传感器数据进行自身定位,机器人利用自身携带的传感器识别未知环境中的特征标志,然后根据机器人与特征标志之间的相对位置和里程计的读数估计机器人和特征标志的全局坐标创建地图,系统即可在机器人创建的地图中标记基站的位置,方便以后机器人根据地图准确回到基站进行充电。
实施例六
在一些可选实施例中,本申请一个实施例还提供一种视觉机器人回基站控制装置,请参阅图6,图6是本申请视觉机器人回基站控制装置一个实施例的模块结构示意图。
如图6所示,本申请提供的视觉机器人回基站控制装置包括:
边界获取单元100,用于获取机器人所处草地环境的草地边界;
沿边路径生成单元200,用于根据草地边界生成沿边路径,控制机器人根据沿边路径移动并进行基站识别;
位置计算单元300,用于当识别到基站时,计算机器人与识别到的基站之间的相对位置;
回充控制单元400,用于根据相对位置生成回充路径,并控制机器人根据回充路径移动至基站。
本申请通过获取机器人所处草地环境的草地边界,然后控制机器人沿草地边界进行沿边,并在沿边过程中识别到基站时计算机器人和基站之间的相对位置,再跟进该相对位置生成回充路径,以控制机器人沿该回充路径移动至基站进行充电,利用识别边界进行沿边结合视觉识别基站实现环境中探索基站功能,精准回到充电基站。
在一些可选实施例中,如图7所示,本申请提供的视觉机器人回基站控制装置的边界获取单元100包括:
图像采集子单元110,用于采集草地环境的环境图像;
边缘检测子单元120,用于对环境图像进行边缘检测提取草地环境的草地边界。
在一些可选实施例中,如图8所示,本申请提供的视觉机器人回基站控制装置的位置计算单元300包括:
沿边图像获取子单元310,用于获取机器人沿边过程中采集的沿边图像;
位置计算子单元320,用于当沿边图像中包括基站时,根据预设的视觉定位算法计算机器人和基站的相对位置。
在一些可选实施例中,如图9所示,本申请提供的视觉机器人回基站控制装置的回充控制单元400包括:
位姿计算子单元410,用于根据基站确定机器人的位姿;
路径计算子单元420,用于根据位姿和相对位置生成回充路径。
在一些可选实施例中,如图10所示,本申请提供的视觉机器人回基站控制装置还包括:
位置获取单元500,用于获取基站的位置信息;
标记基站单元600,用于根据位置信息在机器人的世界地图中标记基站。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
实施例七
在一些可选实施例中,本申请一个实施例还提供一种割草机器人,割草机器人包括如上述的视觉机器人回基站控制装置。
视觉机器人在割草时,可以采集草地的图像并通过视觉边缘提取技术识别草地的边界,在实施时,草地与其他环境、物体的交界处为草地边界,例如在家庭花园草地中,草地外围包括栅栏和墙体等,且草地中还有蜿蜒的石板路,则草地与栅栏、墙体和石板路的交界处即为草地边界,然后根据草地的边界规划机器人沿草地边界进行沿边移动的沿边路径,并控制机器人沿该沿边路径进行移动探索基站,当机器人沿边过程中识别到基站时,计算机器人和基站的相对位置,然后根据该相对位置规划机器人会基站的回充路径,以根据该回充路径控制机器人移动至基站充电。
在一些实施例中,如图11所示,图11中的A为草地,B为围墙,C为人行道,D为基站,E为沿边路径。当机器人电量低需要回基站充电时,机器人先对所处草地环境进行图像采集,识别草地的边界,具体地,草地边界包括草地与围墙和人行道的交界,然后根据草地边界规划沿边路径,并控制视觉机器人根据沿边路径进行移动,并在沿边过程中检测是否识别到基站,当识别到基站时,采集基站的图像并计算机器人和基站的相对位置以规划回充路径,从而准确控制机器人沿该回充路径移动至基站充电。
本申请通过获取机器人所处草地环境的草地边界,然后控制机器人沿草地边界进行沿边,并在沿边过程中识别到基站时计算机器人和基站之间的相对位置,再跟进该相对位置生成回充路径,以控制机器人沿该回充路径移动至基站进行充电,利用识别边界进行沿边结合视觉识别基站实现环境中探索基站功能,精准回到充电基站。
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种视觉机器人回基站控制方法,其特征在于,所述方法包括如下步骤:
获取机器人所处草地环境的草地边界;
根据所述草地边界生成沿边路径,控制所述机器人根据所述沿边路径移动并进行基站识别;
当识别到基站时,计算所述机器人与基站之间的相对位置;
根据所述相对位置生成回充路径,并控制所述机器人根据所述回充路径移动至所述基站。
2.如权利要求1所述的视觉机器人回基站控制方法,其特征在于,所述获取机器人所处草地环境的草地边界的步骤,包括如下述步骤:
采集所述草地环境的环境图像;
对所述环境图像进行边缘检测提取所述草地环境的草地边界。
3.如权利要求1所述的视觉机器人回基站控制方法,其特征在于,所述当识别到基站时,计算所述机器人与基站之间的相对位置的步骤,包括如下述步骤:
获取所述机器人沿边过程中采集的沿边图像;
当所述沿边图像中包括所述基站时,根据预设的视觉定位算法计算所述机器人和所述基站的相对位置。
4.如权利要求3所述的视觉机器人回基站控制方法,其特征在于,所述根据所述相对位置生成回充路径的步骤,包括如下述步骤:
根据所述基站确定所述机器人的位姿;
根据所述位姿和所述相对位置生成所述回充路径。
5.如权利要求1所述的视觉机器人回基站控制方法,其特征在于,所述根据所述相对位置生成回充路径,并控制所述机器人根据所述回充路径移动至所述基站的步骤之后,所述方法还包括如下步骤:
获取所述基站的位置信息;
根据所述位置信息在所述机器人的世界地图中标记所述基站。
6.一种视觉机器人回基站控制装置,其特征在于,所述装置包括:
边界获取单元,用于获取机器人所处草地环境的草地边界;
沿边路径生成单元,用于根据所述草地边界生成沿边路径,控制所述机器人根据所述沿边路径移动并进行基站识别;
位置计算单元,用于当识别到基站时,计算所述机器人与识别到的基站之间的相对位置;
回充控制单元,用于根据所述相对位置生成回充路径,并控制所述机器人根据所述回充路径移动至所述基站。
7.如权利要求6所述的视觉机器人回基站控制装置,其特征在于,所述边界获取单元包括:
图像采集子单元,用于采集所述草地环境的环境图像;
边缘检测子单元,用于对所述环境图像进行边缘检测提取所述草地环境的草地边界。
8.如权利要求6所述的视觉机器人回基站控制装置,其特征在于,所述位置计算单元包括:
沿边图像获取子单元,用于获取所述机器人沿边过程中采集的沿边图像;
位置计算子单元,用于当所述沿边图像中包括所述基站时,根据预设的视觉定位算法计算所述机器人和所述基站的相对位置。
9.如权利要求8所述的视觉机器人回基站控制装置,其特征在于,所述回充路径生成单元包括:
位姿计算子单元,用于根据所述基站确定所述机器人的位姿;
路径计算子单元,用于根据所述位姿和所述相对位置生成所述回充路径。
10.一种割草机器人,其特征在于,所述割草机器人包括如权利要求6-9中任一项所述的视觉机器人回基站控制装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110249272.5A CN113110411A (zh) | 2021-03-08 | 2021-03-08 | 视觉机器人回基站控制方法、装置及割草机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110249272.5A CN113110411A (zh) | 2021-03-08 | 2021-03-08 | 视觉机器人回基站控制方法、装置及割草机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113110411A true CN113110411A (zh) | 2021-07-13 |
Family
ID=76710612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110249272.5A Pending CN113110411A (zh) | 2021-03-08 | 2021-03-08 | 视觉机器人回基站控制方法、装置及割草机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113110411A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114721385A (zh) * | 2022-04-07 | 2022-07-08 | 未岚大陆(北京)科技有限公司 | 虚拟边界建立方法、装置、智能终端及计算机存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662400A (zh) * | 2012-05-10 | 2012-09-12 | 慈溪思达电子科技有限公司 | 割草机器人的路径规划算法 |
WO2018028361A1 (zh) * | 2016-08-09 | 2018-02-15 | 深圳光启合众科技有限公司 | 机器人的充电方法、装置和设备 |
CN110632915A (zh) * | 2018-06-21 | 2019-12-31 | 科沃斯机器人股份有限公司 | 机器人回充路径规划方法、机器人及充电系统 |
CN111096138A (zh) * | 2019-12-30 | 2020-05-05 | 中电海康集团有限公司 | 一种基于uwb的割草机器人工作边界建立与识别系统和方法 |
CN111399502A (zh) * | 2020-03-09 | 2020-07-10 | 惠州拓邦电气技术有限公司 | 移动机器人的建图方法、装置及移动机器人 |
CN211015146U (zh) * | 2019-12-11 | 2020-07-14 | 苏州宝时得电动工具有限公司 | 自主机器人 |
-
2021
- 2021-03-08 CN CN202110249272.5A patent/CN113110411A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662400A (zh) * | 2012-05-10 | 2012-09-12 | 慈溪思达电子科技有限公司 | 割草机器人的路径规划算法 |
WO2018028361A1 (zh) * | 2016-08-09 | 2018-02-15 | 深圳光启合众科技有限公司 | 机器人的充电方法、装置和设备 |
CN110632915A (zh) * | 2018-06-21 | 2019-12-31 | 科沃斯机器人股份有限公司 | 机器人回充路径规划方法、机器人及充电系统 |
CN211015146U (zh) * | 2019-12-11 | 2020-07-14 | 苏州宝时得电动工具有限公司 | 自主机器人 |
CN111096138A (zh) * | 2019-12-30 | 2020-05-05 | 中电海康集团有限公司 | 一种基于uwb的割草机器人工作边界建立与识别系统和方法 |
CN111399502A (zh) * | 2020-03-09 | 2020-07-10 | 惠州拓邦电气技术有限公司 | 移动机器人的建图方法、装置及移动机器人 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114721385A (zh) * | 2022-04-07 | 2022-07-08 | 未岚大陆(北京)科技有限公司 | 虚拟边界建立方法、装置、智能终端及计算机存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110522359B (zh) | 清洁机器人以及清洁机器人的控制方法 | |
CN106647765B (zh) | 一种基于割草机器人的规划平台 | |
CN112584697B (zh) | 使用视觉系统的自主机器导航和训练 | |
EP3686706B1 (en) | Switching between positioning modes for a domestic robot | |
US9603300B2 (en) | Autonomous gardening vehicle with camera | |
CN109901590B (zh) | 桌面机器人的回充控制方法 | |
Wang et al. | Intelligent vehicle self-localization based on double-layer features and multilayer LIDAR | |
KR20180079428A (ko) | 자동 로컬리제이션을 위한 장치 및 방법 | |
CN111199677B (zh) | 一种室外区域的工作地图自动建立方法,装置,存储介质及工作设备 | |
EP4224268A1 (en) | Intelligent mower and intelligent mowing system | |
CN109033948B (zh) | 识别边界边缘的至少一个区段的方法和相关方法、系统 | |
CN113675923B (zh) | 充电方法、充电装置及机器人 | |
CN113885495A (zh) | 一种基于机器视觉的室外自动工作控制系统、方法及设备 | |
CN114898205A (zh) | 一种信息确定方法、设备和计算机可读存储介质 | |
WO2023274339A1 (zh) | 自动工作系统 | |
CN114034299A (zh) | 一种基于主动激光slam的导航系统 | |
CN113110411A (zh) | 视觉机器人回基站控制方法、装置及割草机器人 | |
US20220264793A1 (en) | Robotic lawn mower control | |
US20230320263A1 (en) | Method for determining information, remote terminal, and mower | |
EP4270136A1 (en) | Smart mowing system | |
US20230210050A1 (en) | Autonomous mobile device and method for controlling same | |
CN117475094A (zh) | 环境地图创建方法、设备及可读存储介质 | |
WO2023160606A1 (zh) | 基于栅格地图的机器人寻路方法、装置、机器人及存储介质 | |
WO2022088313A1 (zh) | 机器人自动充电方法、系统,机器人及存储介质 | |
EP4381925A1 (en) | Improved detection of a solar panel for a robotic work tool |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |