CN116300960B - 机器人及其地图构建与定位方法 - Google Patents
机器人及其地图构建与定位方法 Download PDFInfo
- Publication number
- CN116300960B CN116300960B CN202310379347.0A CN202310379347A CN116300960B CN 116300960 B CN116300960 B CN 116300960B CN 202310379347 A CN202310379347 A CN 202310379347A CN 116300960 B CN116300960 B CN 116300960B
- Authority
- CN
- China
- Prior art keywords
- robot
- information
- acquired
- laser
- laser radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000010276 construction Methods 0.000 title claims abstract description 22
- 244000025254 Cannabis sativa Species 0.000 claims description 83
- 238000002310 reflectometry Methods 0.000 claims description 23
- 230000001133 acceleration Effects 0.000 claims description 6
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 description 10
- 238000001579 optical reflectometry Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 241001494496 Leersia Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010008 shearing Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011012 sanitization Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请提供一种机器人及其地图构建与定位方法。该机器人包括运动传感器、视觉传感器、激光雷达及处理器,运动传感器用于获取机器人的运动参数,视觉传感器用于获取机器人前方的图像,激光雷达用于获取机器人前方的物体的信息,机器人前方的物体的信息包括物体相对于机器人的距离和角度,处理器用于根据运动传感器获取到的运动参数以及视觉传感器获取到的图像确定机器人的位姿信息,并至少根据位姿信息和激光雷达获取到的机器人前方的物体的信息构建点云地图,以及至少根据点云地图确定机器人的位置及机器人前方的障碍物的位置。本申请提供的机器人能够构建得到精确的三维地图,有利于获取到准确的机器人位置信息及障碍物信息。
Description
技术领域
本申请涉及机器人技术领域,尤其涉及一种机器人及其地图构建与定位方法。
背景技术
目前,机器人一般通过GPS、RTK、beacon技术或者使用相机进行环境感知,以获取环境信息,并根据该环境信息进行定位和建图,但是GPS、RTK或者beacon技术价格昂贵,并且对于GPS信号依赖性很强,当GPS信号出现干扰会大大降低定位可靠度;关于beacon技术,需要提前布置环境并且beacon信号的干扰会影响定位可靠度;而根据相机拍摄的图像获取到的三维环境信息的准确度不高,构建的地图的精确度不高,并且还需要依赖大数据进行运作,对于未经过训练的场景表现不佳。
发明内容
为解决上述技术问题,本申请提供一种机器人及其地图构建与定位方法,能够构建得到精确的三维地图,有利于机器人获取到准确的机器人位置信息及障碍物信息,进而进行精确地路径规划。
本申请一方面提供一种机器人,所述机器人包括运动传感器、视觉传感器、激光雷达及处理器,所述运动传感器用于获取所述机器人的运动参数,所述运动参数包括加速度及角速度,所述视觉传感器用于获取所述机器人前方的图像,所述激光雷达用于获取所述机器人前方的物体的信息,所述机器人前方的物体的信息包括所述物体相对于所述机器人的距离和角度,所述处理器用于根据所述运动传感器获取到的运动参数以及所述视觉传感器获取到的图像确定所述机器人的位姿信息,并至少根据所述位姿信息和所述激光雷达获取到的机器人前方的物体的信息构建点云地图,以及至少根据所述点云地图确定所述机器人的位置及所述机器人前方的障碍物的位置。
本申请提供的机器人,通过激光雷达获取前方物体相对于机器人的距离和角度,并通过视觉传感器以及运动传感器获取机器人的位姿信息,根据获取到的前方物体相对于机器人的距离和角度以及机器人的位姿信息能够构建得到精确的三维地图,有利于机器人获取到准确的机器人位置信息及障碍物信息,进而进行精确地路径规划及避障。
本申请另一方面提供一种地图构建与定位方法,应用于机器人,所述方法包括:获取所述机器人的运动参数,所述运动参数包括加速度及角速度;获取所述机器人前方的图像;获取所述机器人前方的物体的信息,所述机器人前方的物体的信息包括所述物体相对于所述机器人的距离和角度;根据获取到的运动参数以及获取到的图像确定所述机器人的位姿信息;至少根据所述位姿信息和获取到的机器人前方的物体的信息构建点云地图;以及至少根据所述点云地图确定所述机器人的位置及所述机器人前方的障碍物的位置。
本申请提供的地图构建与定位方法,通过根据前方物体相对于机器人的距离和角度以及机器人的位姿信息能够构建得到精确的三维地图,有利于机器人获取到准确的机器人位置信息及障碍物信息,进而进行精确地路径规划并进行避障。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的机器人的结构框图。
图2为本申请实施例提供的机器人的结构示意图。
图3为图2所示的机器人的俯视图。
图4为本申请一实施例提供的地图构建与定位方法的流程图。
图5为本申请另一实施例提供的地图构建与定位方法的流程图。
主要元件符号说明:
100-机器人;10-运动传感器;20-视觉传感器;30-激光雷达;31-第一激光雷达;32-第二激光雷达;81-第一平面;82-第二平面;91-第一交线;92-第二交线;101-第一侧;102-第二侧;40-处理器;50-切割组件;60-毫米波雷达;70-超声波雷达。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的描述中,术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序,另外,术语“上”、“下”、“内”、“外”等指示的方位或者位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或者暗示所指的装置或者元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
本申请的描述中,除非另有明确的规定和限定,术语“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是直接相连,也可以通过中间媒介间接相连,也可以是两个元件内部的连通;可以是通讯连接;可以是电连接。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
请参阅图1,图1为本申请实施例提供的机器人100的结构框图。如图1所示,所述机器人100包括运动传感器10、视觉传感器20、激光雷达30及处理器40,所述运动传感器10用于获取所述机器人100的运动参数,所述运动参数包括加速度及角速度,所述视觉传感器20用于获取所述机器人100前方的图像,所述激光雷达30用于获取所述机器人100前方的物体的信息,所述机器人100前方的物体的信息包括所述物体相对于所述机器人100的距离和角度,所述处理器40用于根据所述运动传感器10获取到的运动参数以及所述视觉传感器20获取到的图像确定所述机器人100的位姿信息,并至少根据所述位姿信息和所述激光雷达30获取到的机器人100前方的物体的信息构建点云地图,以及至少根据所述点云地图确定所述机器人100的位置及所述机器人100前方的障碍物的位置。
本申请实施例提供的机器人100,通过激光雷达30获取前方物体相对于机器人100的距离和角度,并通过视觉传感器20以及运动传感器10获取机器人100的位姿信息,根据获取到的前方物体相对于机器人100的距离和角度以及机器人100的位姿信息能够构建得到精确的三维地图,有利于机器人100获取到准确的机器人100位置信息及障碍物信息,进而进行精确地路径规划及避障。
其中,所述机器人100的位姿信息包括所述机器人100当前时刻所在位置相对于上一时刻所在位置的里程及方向角,即,所述机器人100上一时刻所在位置至当前时刻所在位置的路径长度以及当前时刻的方向角相对于上一时刻的方向角的变化值。
其中,所述视觉传感器20将当前时刻获取到的机器人100前方的图像发送至所述处理器40,所述运动传感器10将当前时刻获取到的机器人100的运动参数发送至所述处理器40,所述处理器40在接收到当前时刻所述机器人100前方的图像以及当前时刻所述机器人100的运动参数时,可对所述图像进行特征点处理,并根据所述运动参数进行特征点匹配,得到视觉里程数据,以及利用卡尔曼滤波法对所述视觉里程数据进行处理,而得到所述机器人100当前时刻的位姿信息。
其中,所述激光雷达30获取到的机器人100前方的物体的信息,可包括前方的地面信息和障碍物信息,即,前方地面的各个位置相对于所述机器人100的距离和角度以及前方的障碍物相对于所述机器人100的距离和角度。
其中,所述激光雷达30将获取到的机器人100前方的物体的信息发送至所述处理器40,处理器40在接收到该信息时,根据该信息得到激光点云,并且结合所述激光点云及所述机器人100当前时刻的位姿信息,构建当前时刻的点云地图,得到的所述点云地图为三维地图。
其中,所述机器人100可包括存储器(图中未示),所述存储器可存储有所述机器人100上一次对所述机器人100所处环境构建的全局地图,所述处理器40还用于将前述的当前时刻的点云地图及上一次构建的所述全局地图进行匹配和比对,进而确定所述机器人100当前时刻所处的位置以及当前时刻所述机器人100前方的障碍物的信息,所述机器人100前方的障碍物的信息可至少包括该障碍物的位置及尺寸。
其中,所述运动传感器10可为惯性测量单元(IMU,Inertial Measurement Unit),所述惯性测量单元可包括陀螺仪、加速计、磁力计等。所述视觉传感器20可为相机,例如双目相机、单目相机等。所述激光雷达30可为单线激光雷达、多线激光雷达等。所述处理器40可为单片机、微控制器、数字信号处理器等处理芯片。所述存储器可为非易失性存储器。所述机器人100可为扫地机器人、割草机器人、送货机器人、消毒机器人等。
在一些实施例中,所述视觉传感器20获取到的图像包括RGB图,所述处理器40用于至少根据所述位姿信息、所述RGB图和所述激光雷达30获取到的机器人前方的物体的信息构建所述点云地图,并对所述点云地图进行语义识别,以得到所述机器人100前方的障碍物的语义信息。
其中,通过根据所述RGB图构建得到所述点云地图,使得所述点云地图包含所述机器人100前方的地面及障碍物的颜色信息,进而可对该点云地图进行语义识别,从而可识别出所述机器人100前方的各个障碍物的类型,例如,障碍物为树、墙壁、石块等,从而能够得到前方的各个障碍物的精准的信息,进而有利于进行路径规划并进行避障。
在一些实施例中,所述激光雷达30用于获取所述机器人100前方的地面的激光反射率;所述处理器40还用于根据所述激光雷达30获取到的激光反射率和/或所述视觉传感器20获取到的图像,判断所述机器人100前方的地面是否包括草坪区域以及在前方的地面包括草坪区域时确定草坪区域的边界线。所述处理器40并用于至少根据所述位姿信息、所述激光雷达30获取到的机器人100前方的物体的信息和确定出的所述草坪区域的边界线构建所述点云地图,以及根据该点云地图确定所述机器人100的位置及所述机器人100前方的障碍物的位置。
其中,所述机器人100可为割草机器人,如图1所示,其包括切割组件50,所述切割组件50用于割草,所述处理器40还用于控制所述机器人100在所述草坪区域内以及沿着所述草坪区域的边界线行驶并在机器人100行驶的同时控制所述切割组件50割草,从而可避免对非草坪区域割草,可提高割草效率,还可延长所述切割组件50的使用寿命。
其中,确定出草坪区域的边界线并至少根据所述边界线构建所述点云地图,有利于所述机器人100根据构建的点云地图中草坪区域的具体位置来规划割草时的行驶路径,进而可针对性地对草坪区域进行割草,提高割草效率。
在一些实施例中,所述处理器40根据所述激光雷达30获取到的激光反射率,判断所述机器人100前方的地面是否包括草坪区域以及在前方的地面包括草坪区域时确定草坪区域的边界线。其中,所述处理器40用于在所述激光雷达30获取到的激光反射率处于预设的激光反射率范围之内时,确定所述机器人100前方的地面包括草坪区域并确定所述草坪区域的边界线。
其中,所述预设的激光反射率范围可存储于所述存储器内。
其中,所述激光雷达30包括激光发射器、激光接收器及处理单元,所述激光发射器用于向所述机器人100的前方发射激光,发射的激光在前方物体上发生反射,反射的激光被所述激光接收器接收,所述处理单元根据发射激光的激光强度及反射激光的激光强度,计算得到所述激光反射率,并将计算得到的激光反射率发送至所述处理器40,所述处理器40在接收到所述激光反射率时,判断所述激光反射率是否处于预设的激光反射率范围内,并在该激光反射率处于预设的激光反射率范围内时,确定所述机器人100前方的物体为草叶,以及在该激光反射率处于预设的激光反射率范围之外时,确定所述机器人100前方的物体非草叶,进而确定草坪区域以及草坪区域的边界线。
在一些实施例中,所述处理器40根据所述视觉传感器20获取到的图像,判断所述机器人100前方的地面是否包括草坪区域以及在前方的地面包括草坪区域时确定草坪区域的边界线。
其中,所述视觉传感器20获取到的图像包括RGB图,所述处理器40可根据所述视觉传感器20获取到的RGB图对前方图像进行语义识别,以确定所述机器人100前方的地面是否包括草坪区域以及在前方的地面包括草坪区域时确定草坪区域的边界线。
在一些实施例中,所述处理器40结合所述激光雷达30获取到的激光反射率以及所述视觉传感器20获取到的图像,判断所述机器人100前方的地面是否包括草坪区域以及在前方的地面包括草坪区域时确定草坪区域的边界线。
在一些实施例中,所述激光雷达30的侦测范围与所述视觉传感器20的侦测范围可部分重叠或者不重叠,通过结合所述激光反射率以及所述图像来确定草坪区域的边界线,可获取到较为完整且准确的草坪区域的边界线。
其中,所述处理器40可根据所述激光雷达30获取到的激光反射率确定草坪区域的第一边界线,以及根据所述视觉传感器20获取到的图像确定草坪区域的第二边界线,并将所述第一边界线及所述第二边界线进行对比或者合并,以得到更准确的草坪区域的边界线。
在一些实施例中,所述激光雷达30至少设于所述机器人100的顶部,所述激光雷达30至少用于获取所述机器人100前方的物体的信息。通过将所述激光雷达30设于所述机器人100的顶部,可避免所述激光雷达30被遮挡,从而可防止所述激光雷达30发射的激光被遮挡,而影响所述机器人100前方物体的信息的获取。
在一些实施例中,所述视觉传感器20至少设于所述机器人100的前端,所述视觉传感器20至少用于获取所述机器人100正前方的图像,所述前端为所述机器人100正常行驶时的行进方向上的最前端。通过将所述视觉传感器20设于所述机器人100的前端,可直接获取到所述机器人正前方的图像,其包括正前方的地面及障碍物的图像。
其中,所述激光雷达30可设于所述机器人100的顶部且靠近所述前端设置,从而使得所述激光雷达30的侦测范围尽量为所述机器人100的前方。
其中,通过将所述激光雷达30设于所述机器人100的顶部以及将所述视觉传感器20设于所述机器人100的前端,即将所述激光雷达30及所述视觉传感器20设于所述机器人100的不同位置,可增大所述机器人100对环境信息的感知范围,获取更全面的环境信息。
在一些实施例中,所述激光雷达30及所述视觉传感器20还可设于所述机器人100的侧边、前端及尾部,所述尾部为所述机器人100正常行驶时的行进方向上的最尾端。
请参阅图2与图3,图2为本申请实施例提供的机器人100的结构示意图,图3为图2所示的机器人100的俯视图。在一些实施例中,如图2与图3所示,所述机器人100至少包括第一激光雷达31和第二激光雷达32,所述第一激光雷达31及所述第二激光雷达32分别设于所述机器人100顶部的沿预设方向(如图3所示的A方向)的相对两侧,所述第一激光雷达31发射的激光位于第一平面81,所述第二激光雷达32发射的激光位于第二平面82,所述第一平面81与地面的第一交线91以及所述第二平面82与地面的第二交线92均与所述机器人100正常行驶时的行进方向呈夹角设置,所述预设方向垂直于所述机器人100正常行驶时的行进方向(如图3所示的B方向)。
其中,所述第一激光雷达31及所述第二激光雷达32分别设于所述机器人100顶部的沿预设方向的第一侧101和第二侧102,所述第一侧101和第二侧102相对。
其中,所述夹角可大于0°且小于等于90°。
其中,所述第一激光雷达31和所述第二激光雷达32可均为单线激光雷达。所述第一激光雷达31包括第一激光发射器,所述第二激光雷达32包括第二激光发射器,所述第一激光发射器可绕第一预设中心线旋转并在旋转时发射单线激光,所述第一激光发射器绕所述第一预设中心线旋转时发射的单线激光所在的平面为所述第一平面81,所述第一平面81与地面的交线为所述第一交线91,所述第一交线91与所述行进方向呈夹角设置,所述第一交线91与所述行进方向的夹角如图3中α所示,所述第二激光发射器可绕第二预设中心线旋转并在旋转时发射单线激光,所述第二激光发射器绕所述第二预设中心线旋转时发射的单线激光所在的平面为所述第二平面82,所述第二平面82与地面的交线为所述第二交线92,所述第二交线92与所述行进方向呈夹角设置,所述第二交线92与所述行进方向的夹角如图3中β所示。所述第一预设中心线从所述第一侧101沿远离所述机器人100的方向向外延伸,且与所述机器人100的顶部平面呈夹角设置,所述第二预设中心线从所述第二侧102沿远离所述机器人100的方向向外延伸,且与所述机器人100的顶部平面呈夹角设置。
其中,所述第一平面81与地面存在第一交线91,即所述第一平面81与地面呈夹角设置,所述第二平面82与地面存在第二交线92,即所述第二平面82与地面呈夹角设置。通过设置所述第一平面81与地面呈夹角以及设置所述第二平面82与地面呈夹角,使得所述第一激光雷达31及所述第二激光雷达32可获取到所述机器人100前方地面的信息,有利于所述第一激光雷达31及所述第二激光雷达32获取所述机器人100前方地面的草坪区域的信息。
其中,所述第一平面81与地面或者障碍物的交线为所述第一激光雷达31的第一扫描线,所述第一激光雷达31用于获取前方物体的对应于所述第一扫描线的部位的信息,即获取前方物体的与所述第一平面81相交的部位的信息,该信息包括前方物体的对应于第一扫描线的部位相对于所述机器人100的距离和角度;所述第二平面82与地面或者障碍物的交线为所述第二激光雷达32的第二扫描线,所述第二激光雷达32用于获取前方物体的对应于所述第二扫描线的部位的信息,即获取前方物体的与所述第二平面82相交的部位的信息,该信息包括前方物体的对应于第二扫描线的部位相对于所述机器人100的距离和角度。
其中,通过设置所述第一激光雷达31及所述第二激光雷达32分别位于所述机器人100顶部的沿预设方向的相对两侧,可增大所述机器人100对前方环境的侦测范围,并且所述第一激光雷达31发射的激光所在的第一平面81与地面的第一交线91以及所述第二激光雷达32发射的激光所在的第二平面82与地面的第二交线92均与所述机器人100的行进方向呈夹角设置,即所述第一平面81与所述行进方向呈夹角设置,所述第二平面82与所述行进方向呈夹角设置,使得所述第一激光雷达31及所述第二激光雷达32不仅可侦测所述机器人100正前方的环境还可侦测正前方之外的前方区域,例如所述机器人100的左前方及右前方的物体的信息,可进一步增大所述机器人100对前方环境的侦测范围,进而获取到更多的环境信息。
在一些实施例中,所述第一平面81与所述第二平面82相交,且所述第一平面81与所述第二平面82的相交线靠近所述机器人100的前端,使得所述第一激光雷达31及所述第二激光雷达32的侦测范围尽量为所述机器人100的前方。
在一些实施例中,所述第一激光雷达31和所述第二激光雷达32对称设置于所述机器人100的顶部的相对两侧,且所述第一平面81与所述第二平面82相交,使得所述第一激光雷达31及所述第二激光雷达32分别至少获取所述机器人100前进方向上左前方的物体的信息及右前方的物体的信息,或者分别至少获取所述机器人100前进方向上右前方的物体的信息及左前方的物体的信息。其中,所述第一平面81与所述第二平面82可相对于参考平面对称设置,所述参考平面垂直于所述机器人100并经过所述机器人100的中心,且平行于所述行进方向。
其中,当所述第一激光雷达31设于所述机器人100的顶部左侧,所述第二激光雷达32设于所述机器人100的顶部右侧时,所述第一激光雷达31用于获取所述机器人100行进方向上右前方的物体的信息,所述第二激光雷达32用于至少获取所述机器人100行进方向上左前方的物体的信息;当所述第二激光雷达32设于所述机器人100的顶部左侧,所述第一激光雷达31设于所述机器人100的顶部右侧时,所述第二激光雷达32用于至少获取所述机器人100前进方向上右前方的物体的信息,所述第一激光雷达31用于获取所述机器人100前进方向上左前方的物体的信息。
在一些实施例中,所述第一交线91与所述机器人正常行驶时的行进方向的夹角以及所述第二交线92与所述机器人正常行驶时的行进方向的夹角均为10°-80°中的值,使得所述第一激光雷达31及所述第二激光雷达32的侦测范围较大,且能够侦测所述机器人100前方的环境。在所述第一交线91与所述机器人正常行驶时的行进方向的夹角小于10°时,所述第一激光雷达31的侦测范围较小,在所述第一交线91与所述机器人正常行驶时的行进方向的夹角大于80°时,所述第一激光雷达31的侦测范围主要为所述机器人100的侧边的环境,不利于获取所述机器人100前方的物体的信息。所述第二交线92与所述机器人正常行驶时的行进方向的夹角处于10°-80°之外时,同理,不再赘述。
其中,所述第一交线91与所述机器人正常行驶时的行进方向的夹角越大,所述第二交线92与所述机器人正常行驶时的行进方向的夹角越大,所述第一激光雷达31及所述第二激光雷达32的侦测范围越大。
在一些实施例中,所述第一交线91与所述机器人正常行驶时的行进方向的夹角以及所述第二交线92与所述机器人正常行驶时的行进方向的夹角可相等。
在一些实施例中,所述机器人100还包括毫米波雷达60,所述毫米波雷达60至少用于获取所述草坪区域中被草叶遮挡的物体的信息。所述处理器40用于至少根据所述位姿信息、所述激光雷达30获取到的机器人100前方的物体的信息和所述毫米波雷达60获取到的被草叶遮挡的物体的信息构建所述点云地图。
其中,通过所述毫米波雷达60获取所述草坪区域中被草叶遮挡的物体的信息,使得所述机器人100在所述草坪区域进行割草时,可避开被草叶遮挡的物体。
在一些实施例中,所述处理器40还用于根据所述毫米波雷达60获取到的被草叶遮挡的物体的信息,判断所述被草叶遮挡的物体是否为障碍物,并在确定所述被草叶遮挡的物体为障碍物时,控制所述机器人100避开所述被草叶遮挡的物体的位置行驶,或者,在所述机器人100行驶至靠近所述被草叶遮挡的物体的位置时,控制调高所述切割组件50至所述切割组件50的底部与地面的距离大于所述被草叶遮挡的物体的高度,并控制所述切割组件50割草。
其中,所述被草叶遮挡的物体的信息包括所述被草叶遮挡的物体相对于所述机器人100的距离及角度和所述被草叶遮挡的物体的尺寸。
其中,所述毫米波雷达60朝向所述草坪区域发射毫米波信号,所述毫米波信号穿透草叶后投射到被草叶遮挡的物体,并在所述被草叶遮挡的物体上产生回波信号,所述回波信号又穿透草叶并被所述毫米波雷达60接收,所述毫米波雷达60根据发射的毫米波信号以及接收到的回波信号对所述被草叶遮挡的物体进行成像,并确定所述被草叶遮挡的物体相对于所述机器人100的距离及角度和所述被草叶遮挡的物体的尺寸。
其中,所述机器人100可为割草机器人,所述机器人100的切割组件50可包括旋刀模组和/或滚刀模组,所述机器人100在草坪区域行驶时,所述切割组件50用于对草叶进行切割。
其中,所述处理器40用于接收所述毫米波雷达60获取到的所述草坪区域中被草叶遮挡的物体的信息,并在接收到所述草坪区域中被草叶遮挡的物体的信息时,比较所述被草叶遮挡的物体的尺寸与预设尺寸的大小,并在所述被草叶遮挡的物体的尺寸大于或等于所述预设尺寸时,确定所述被草叶遮挡的物体为障碍物,否则,确定所述被草叶遮挡的物体非障碍物。
其中,所述被草叶遮挡的物体的尺寸可为所述被草叶遮挡的物体的外轮廓尺寸,具体可包括高度及宽度,所述预设尺寸可包括预设高度及预设宽度,所述处理器40在所述被草叶遮挡的物体的高度大于等于所述预设高度和/或宽度大于等于所述预设宽度时,确定所述被草叶遮挡的物体为障碍物;在所述被草叶遮挡的物体的高度小于所述预设高度且宽度小于所述预设宽度时,确定所述被草叶遮挡的物体非障碍物。
其中,所述预设宽度可根据所述机器人100的实际尺寸进行设定,避免所述机器人100被障碍物卡住或阻碍所述机器人100行驶即可,例如所述预设宽度可为所述机器人100两个前轮之间的距离。所述预设高度可为所述机器人100的底部与地面的最短距离。
在一些实施例中,所述被草叶遮挡的物体的高度大于等于所述预设高度和/或宽度大于等于所述预设宽度,所述处理器40确定所述被草叶遮挡的物体为障碍物,并控制所述机器人100行驶过程中避开所述被草叶遮挡的物体。
在另一些实施例中,所述切割组件50正常切割时切割组件50的底部与地面的距离等于所述机器人与地面的最短距离,所述预设高度为所述切割组件50正常切割时切割组件50的底部与地面的距离,所述切割组件50正常切割时与地面的距离可根据所述机器人100的实际设计需求设定。其中,所述切割组件50的高度可调节,所述处理器40可控制调节所述切割组件50底部的高度大于所述切割组件50正常切割时切割组件50底部与地面的距离。所述处理器40还用于在所述被草叶遮挡的物体的宽度小于所述预设宽度时,判断所述被草叶遮挡的物体的高度是否大于所述切割组件50正常切割时切割组件50的底部与地面的距离,并在所述被草叶遮挡的物体的高度大于所述切割组件50正常切割时切割组件50的底部与地面的距离,且小于所述切割组件50被调节至最高位置时切割组件50的底部与地面的距离时,控制调高所述切割组件50至所述切割组件50的底部与地面的距离大于所述被草叶遮挡的物体的高度,使得切割组件50可对位于所述被草叶遮挡的物体上方的草叶进行切割,从而不仅能剪去位于所述被草叶遮挡的物体上方的草叶,达到修剪效果,而且可避免所述被草叶遮挡的物体对所述切割组件50的切割造成影响,例如,所述被草叶遮挡的物体卷入所述切割组件50而损坏切割组件50的内部结构,或者,所述被草叶遮挡的物体卡在所述切割组件50的刀刃之间而损坏刀刃,进而能够保护所述切割组件50,延长其使用寿命。
其中,在所述被草叶遮挡的物体的宽度小于所述预设宽度,且所述被草叶遮挡的物体的高度大于或等于所述切割组件50被调节至最高位置时切割组件50的底部与地面的距离时,控制所述机器人100避开所述被草叶遮挡的物体的位置行驶。
在其它实施例中,所述毫米波雷达60在确定所述草坪区域存在被草叶遮挡的物体时,发送存在被草叶遮挡的物体的信息至所述处理器40,所述处理器40在接收到存在被草叶遮挡的物体的信息时,即控制所述机器人100避开所述被草叶遮挡的物体的位置行驶。
在一些实施例中,所述处理器40在确定所述被草叶遮挡的物体非障碍物时,控制所述机器人100在所述草坪区域正常行驶,无需避开所述被草叶遮挡的物体。
在一些实施例中,所述毫米波雷达60在所述行进方向上可位于所述切割组件50的前方,当所述机器人100在草坪区域正常行驶并进行割草时,所述毫米波雷达60获取所述草坪区域的位于所述机器人100前方的部分区域中被草叶遮挡的物体的信息,并发送至所述处理器40,所述处理器40在接收到所述草坪区域的位于所述机器人100前方的部分区域中被草叶遮挡的物体的信息时,判断所述草坪区域的位于所述机器人100前方的部分区域中被草叶遮挡的障碍物是否为障碍物,并在确定被草叶遮挡的物体为障碍物时,控制所述机器人100避开所述被草叶遮挡的物体的位置行驶,或者,在所述机器人100行驶至靠近所述被草叶遮挡的物体的位置时,控制调高所述切割组件50至所述切割组件50的底部与地面的距离大于所述被草叶遮挡的物体的高度。
在一些实施例中,所述切割组件50包括滚刀模组,所述滚刀模组包括滚轴、滚刀刀片及定刀刀片,所述滚刀刀片沿所述滚轴的周向延伸并固定于所述滚轴的外周,所述定刀刀片与所述滚刀刀片间隔设置而形成剪切间隙,所述处理器40可控制所述滚轴转动,而带动所述滚刀刀片沿所述滚轴的周向转动,转动的滚刀刀片将草叶揽入滚刀刀片与所述定刀刀片之间,并通过与定刀刀片形成剪切间隙而对揽入的草叶进行切割,其中,所述切割组件50的底部与地面的距离可为所述滚刀刀片转动至最低点时与地面的距离。
在一些实施例中,所述切割组件50包括旋刀模组,所述旋刀模组包括转轴及多个旋刀,所述多个旋刀固定于所述转轴的外周,所述多个旋刀处于同一平面并与地面平行,所述处理器40可控制所述转轴转动,而带动所述多个旋刀沿所述转轴的周向转动,转动的旋刀对草叶进行切割,其中,所述切割组件50的底部与地面的距离可为所述多个旋刀与地面的距离。
其中,所述毫米波雷达60的穿透能力较强,能够穿过草叶检测到被草叶遮挡的物体,本申请实施例通过设置所述毫米波雷达60,并根据所述毫米波雷达60检测到的被草叶遮挡的物体的信息判断所述被草叶遮挡的物体是否为障碍物,并在所述被草叶遮挡的物体为障碍物时,控制所述机器人100避开所述被草叶遮挡的物体行驶或者调高所述切割组件50,能够使得割草工作顺利进行,并且能够避免所述切割组件50损坏。
其中,所述毫米波雷达60还可根据实际需求设于所述机器人100的其它位置。
在一些实施例中,所述机器人100还包括超声波雷达70,至少设于所述机器人100的侧边和/或后端,用于获取所述机器人100侧边和/或后方的物体的信息,所述后端为所述机器人100正常行驶时的行进方向上的最后端。所述处理器40用于至少根据所述位姿信息、所述激光雷达获取到的机器人100前方的物体的信息和所述超声波雷达70获取到的所述机器人100侧边和/或后方的物体的信息构建所述点云地图。
其中,通过获取所述机器人100的侧边和/或后方的物体的信息,使得所述机器人100在进行路径规划时,可避开机器人100的侧边和/或后方的障碍物,从而避免所述机器人100与侧边和/或后方的障碍物发生碰撞。
其中,所述超声波雷达70还可根据实际需求设于所述机器人100的其它位置。
请参阅图4,为本申请一实施例提供的地图构建与定位方法,应用于前述的任一实施例提供的机器人100。如图4所示,所述地图构建与定位方法包括以下步骤:
S10:获取所述机器人100的运动参数,所述运动参数包括加速度及角速度。
S20:获取所述机器人100前方的图像。
S30:获取所述机器人100前方的物体的信息,所述机器人100前方的物体的信息包括所述物体相对于所述机器人100的距离和角度。
S40:根据获取到的运动参数以及获取到的图像确定所述机器人100的位姿信息。
S50:至少根据所述位姿信息和获取到的机器人100前方的物体的信息构建点云地图。
S60:至少根据所述点云地图确定所述机器人100的位置及所述机器人100前方的障碍物的位置。
本申请实施例提供的地图构建与定位方法,通过根据前方物体相对于机器人100的距离和角度以及机器人100的位姿信息能够构建得到精确的三维地图,有利于机器人100获取到准确的机器人100位置信息及障碍物信息,进而进行精确地路径规划并进行避障。
请参阅图5,为本申请另一实施例提供的地图构建与定位方法。在一些实施例中,如图5所示,所述地图构建与定位方法还包括以下步骤:
S70:获取所述机器人100前方的地面的激光反射率。
S80:根据获取到的激光反射率,判断所述机器人100前方的地面是否包括草坪区域以及在前方的地面包括草坪区域时确定草坪区域的边界线;和/或,根据获取到的图像判断所述机器人100前方的地面是否包括草坪区域以及在前方的地面包括草坪区域时确定草坪区域的边界线。
在一些实施例中,所述根据获取到的激光反射率,判断所述机器人100前方的地面是否包括草坪区域,包括:在获取到的激光反射率处于预设的激光反射率范围之内时,确定所述机器人100前方的地面包括草坪区域。
在一些实施例中,所述地图构建与定位方法还包括:获取所述草坪区域中被草叶遮挡的物体的信息;至少根据所述位姿信息、获取到的机器人前方的物体的信息和获取到的被草叶遮挡的物体的信息构建所述点云地图。
在一些实施例中,所述地图构建与定位方法还包括:获取所述机器人100侧边和/或后方的物体的信息,所述后方为所述机器人100正常行驶时的行进方向上的后方;至少根据所述位姿信息、获取到的机器人100前方的物体的信息和获取到的所述机器人100侧边和/或后方的物体的信息构建所述点云地图。
在一些实施例中,获取到的所述机器人100前方的图像包括RGB图,所述地图构建与定位方法还包括:至少根据所述位姿信息、所述RGB图和获取到的机器人100前方的物体的信息构建所述点云地图,并对所述点云地图进行语义识别,以得到所述机器人100前方的障碍物的语义信息。
本申请实施例还提供一种机器人的控制方法,应用于所述机器人100,所述机器人的控制方法包括前述的任一实施例提供的地图构建与定位方法,所述控制方法还包括:根据获取到的被草叶遮挡的物体的信息,判断所述被草叶遮挡的物体是否为障碍物;在确定所述被草叶遮挡的物体为障碍物时,控制所述机器人100避开所述被草叶遮挡的物体的位置行驶,或者,在所述机器人100行驶至靠近所述被草叶遮挡的物体的位置时,控制调高所述切割组件50至所述切割组件50的底部与地面的距离大于所述被草叶遮挡的物体的高度,并控制所述切割组件50割草。
其中,所述地图构建与定位方法、机器人的控制方法与前述的机器人100对应,更详细的描述可参见前述的机器人100的各个实施例的内容,所述地图构建与定位方法与前述的机器人100的内容也可相互参照。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
以上是本申请实施例的实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请实施例原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本申请的保护范围。
Claims (10)
1.一种机器人,其特征在于,所述机器人包括:
运动传感器,用于获取所述机器人的运动参数,所述运动参数包括加速度及角速度;
视觉传感器,用于获取所述机器人前方的图像;
激光雷达,用于获取所述机器人前方的物体的信息,所述机器人前方的物体的信息包括所述物体相对于所述机器人的距离和角度;以及
处理器,用于根据所述运动传感器获取到的运动参数以及所述视觉传感器获取到的图像确定所述机器人的位姿信息;
所述激光雷达还用于获取所述机器人前方的地面的激光反射率;所述处理器还用于根据所述激光雷达获取到的激光反射率和所述视觉传感器获取到的图像,判断所述机器人前方的地面是否包括草坪区域以及在前方的地面包括草坪区域时确定草坪区域的边界线;
所述机器人还包括毫米波雷达,所述毫米波雷达至少用于获取所述草坪区域中被草叶遮挡的物体的信息;所述处理器还用于至少根据所述位姿信息、所述激光雷达获取到的机器人前方的物体的信息、确定出的所述草坪区域的边界线和所述毫米波雷达获取到的被草叶遮挡的物体的信息构建点云地图,并至少根据所述点云地图确定所述机器人的位置及所述机器人前方的障碍物的位置;
所述激光雷达至少设于所述机器人的顶部,所述机器人至少包括第一激光雷达和第二激光雷达,所述第一激光雷达及所述第二激光雷达分别设于所述机器人顶部的沿预设方向的相对两侧,所述第一激光雷达发射的激光位于第一平面,所述第二激光雷达发射的激光位于第二平面,所述第一平面与地面的第一交线以及所述第二平面与地面的第二交线均与所述机器人正常行驶时的行进方向呈夹角设置,所述预设方向垂直于所述机器人正常行驶时的行进方向。
2.根据权利要求1所述的机器人,其特征在于,所述处理器用于在所述激光雷达获取到的激光反射率处于预设的激光反射率范围之内时,确定所述机器人前方的地面包括草坪区域并确定所述草坪区域的边界线。
3.根据权利要求1所述的机器人,其特征在于,所述视觉传感器至少设于所述机器人的前端,所述前端为所述机器人正常行驶时的行进方向上的最前端。
4.根据权利要求1所述的机器人,其特征在于,所述第一交线与所述机器人正常行驶时的行进方向的夹角以及所述第二交线与所述机器人正常行驶时的行进方向的夹角均为10°-80°中的值。
5.根据权利要求1所述的机器人,其特征在于,所述机器人还包括超声波雷达,至少设于所述机器人的侧边和/或后端,用于获取所述机器人侧边和/或后方的物体的信息,所述后端为所述机器人正常行驶时的行进方向上的最后端;所述处理器用于至少根据所述位姿信息、所述激光雷达获取到的机器人前方的物体的信息和所述超声波雷达获取到的所述机器人侧边和/或后方的物体的信息构建所述点云地图。
6.根据权利要求1所述的机器人,其特征在于,所述视觉传感器获取到的图像包括RGB图,所述处理器用于至少根据所述位姿信息、所述RGB图和所述激光雷达获取到的机器人前方的物体的信息构建所述点云地图,并对所述点云地图进行语义识别,以得到所述机器人前方的障碍物的语义信息。
7.一种地图构建与定位方法,应用于机器人,其特征在于,所述地图构建与定位方法包括:
获取所述机器人的运动参数,所述运动参数包括加速度及角速度;
获取所述机器人前方的图像;
获取所述机器人前方的物体的信息,所述机器人前方的物体的信息包括所述物体相对于所述机器人的距离和角度;
根据获取到的运动参数以及获取到的图像确定所述机器人的位姿信息;
至少根据所述位姿信息和获取到的机器人前方的物体的信息构建点云地图;以及
至少根据所述点云地图确定所述机器人的位置及所述机器人前方的障碍物的位置;
获取所述机器人前方的地面的激光反射率;
根据获取到的激光反射率和获取到的图像,判断所述机器人前方的地面是否包括草坪区域以及在前方的地面包括草坪区域时确定草坪区域的边界线;
所述机器人包括毫米波雷达,所述方法还包括:
获取所述草坪区域中被草叶遮挡的物体的信息;
所述至少根据所述位姿信息和获取到的机器人前方的物体的信息构建点云地图,包括:
至少根据所述位姿信息、获取到的机器人前方的物体的信息、确定出的所述草坪区域的边界线和所述毫米波雷达获取到的被草叶遮挡的物体的信息构建所述点云地图;
激光雷达至少设于所述机器人的顶部,所述机器人至少包括第一激光雷达和第二激光雷达,所述第一激光雷达及所述第二激光雷达分别设于所述机器人顶部的沿预设方向的相对两侧,所述第一激光雷达发射的激光位于第一平面,所述第二激光雷达发射的激光位于第二平面,所述第一平面与地面的第一交线以及所述第二平面与地面的第二交线均与所述机器人正常行驶时的行进方向呈夹角设置,所述预设方向垂直于所述机器人正常行驶时的行进方向。
8.根据权利要求7所述的地图构建与定位方法,其特征在于,所述根据获取到的激光反射率,判断所述机器人前方的地面是否包括草坪区域,包括:
在获取到的激光反射率处于预设的激光反射率范围之内时,确定所述机器人前方的地面包括草坪区域。
9.根据权利要求7所述的地图构建与定位方法,其特征在于,所述方法还包括:
获取所述机器人侧边和/或后方的物体的信息;
至少根据所述位姿信息、获取到的机器人前方的物体的信息和获取到的所述机器人侧边和/或后方的物体的信息构建所述点云地图。
10.根据权利要求7所述的地图构建与定位方法,其特征在于,获取到的所述机器人前方的图像包括RGB图,所述方法还包括:
至少根据所述位姿信息、所述RGB图和获取到的机器人前方的物体的信息构建所述点云地图,并对所述点云地图进行语义识别,以得到所述机器人前方的障碍物的语义信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310379347.0A CN116300960B (zh) | 2023-03-31 | 2023-03-31 | 机器人及其地图构建与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310379347.0A CN116300960B (zh) | 2023-03-31 | 2023-03-31 | 机器人及其地图构建与定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116300960A CN116300960A (zh) | 2023-06-23 |
CN116300960B true CN116300960B (zh) | 2024-05-28 |
Family
ID=86779968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310379347.0A Active CN116300960B (zh) | 2023-03-31 | 2023-03-31 | 机器人及其地图构建与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116300960B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108781705A (zh) * | 2018-06-27 | 2018-11-13 | 长安大学 | 一种基于激光扫描雷达传感器的智能割草机及其控制方法 |
CN108829095A (zh) * | 2018-05-11 | 2018-11-16 | 云鲸智能科技(东莞)有限公司 | 地理围栏设置方法及限制机器人运动的方法 |
CN211721124U (zh) * | 2019-12-31 | 2020-10-23 | 福建永强力加动力设备有限公司 | 一种升降割草机 |
CN112042363A (zh) * | 2020-08-28 | 2020-12-08 | 惠州拓邦电气技术有限公司 | 一种割草机的刀片高度调节装置及割草机 |
CN113079801A (zh) * | 2021-04-27 | 2021-07-09 | 河南科技大学 | 基于ros系统的智能割草机器人及激光扫描雷达地图构建方法 |
CN113170663A (zh) * | 2021-04-21 | 2021-07-27 | 中国农业大学 | 一种悬挂式割草机避障轨迹与切割倾角控制装置和方法 |
CN113741441A (zh) * | 2021-08-24 | 2021-12-03 | 科沃斯机器人股份有限公司 | 作业方法及自移动设备 |
CN113940186A (zh) * | 2021-11-15 | 2022-01-18 | 南京苏美达智能技术有限公司 | 一种智能割草机的控制方法 |
CN115167427A (zh) * | 2022-07-18 | 2022-10-11 | 深圳拓邦股份有限公司 | 一种视觉障碍物识别方法、系统及割草机器人 |
CN115589830A (zh) * | 2021-11-15 | 2023-01-13 | 南京苏美达智能技术有限公司(Cn) | 一种用于割草机器人的转动式压力检测装置和割草机器人 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3227432A1 (en) * | 2021-07-28 | 2023-02-02 | Graze, Inc. | Autonomous electric mower system and related methods |
-
2023
- 2023-03-31 CN CN202310379347.0A patent/CN116300960B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829095A (zh) * | 2018-05-11 | 2018-11-16 | 云鲸智能科技(东莞)有限公司 | 地理围栏设置方法及限制机器人运动的方法 |
CN108781705A (zh) * | 2018-06-27 | 2018-11-13 | 长安大学 | 一种基于激光扫描雷达传感器的智能割草机及其控制方法 |
CN211721124U (zh) * | 2019-12-31 | 2020-10-23 | 福建永强力加动力设备有限公司 | 一种升降割草机 |
CN112042363A (zh) * | 2020-08-28 | 2020-12-08 | 惠州拓邦电气技术有限公司 | 一种割草机的刀片高度调节装置及割草机 |
CN113170663A (zh) * | 2021-04-21 | 2021-07-27 | 中国农业大学 | 一种悬挂式割草机避障轨迹与切割倾角控制装置和方法 |
CN113079801A (zh) * | 2021-04-27 | 2021-07-09 | 河南科技大学 | 基于ros系统的智能割草机器人及激光扫描雷达地图构建方法 |
CN113741441A (zh) * | 2021-08-24 | 2021-12-03 | 科沃斯机器人股份有限公司 | 作业方法及自移动设备 |
CN113940186A (zh) * | 2021-11-15 | 2022-01-18 | 南京苏美达智能技术有限公司 | 一种智能割草机的控制方法 |
CN115589830A (zh) * | 2021-11-15 | 2023-01-13 | 南京苏美达智能技术有限公司(Cn) | 一种用于割草机器人的转动式压力检测装置和割草机器人 |
CN115167427A (zh) * | 2022-07-18 | 2022-10-11 | 深圳拓邦股份有限公司 | 一种视觉障碍物识别方法、系统及割草机器人 |
Non-Patent Citations (1)
Title |
---|
熊光明 等.无人驾驶车辆理论与设计.北京理工大学出版社,2021,(第第2版版),第91-92页. * |
Also Published As
Publication number | Publication date |
---|---|
CN116300960A (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019124225A1 (ja) | 農作業車、作業車衝突警戒システム及び作業車 | |
US11178811B2 (en) | Lawn mower robot, system of lawn mower robot and control method of lawn mower robot system | |
WO2020137135A1 (ja) | 作業車両用の障害物検知システム | |
JP6562678B2 (ja) | 自動走行作業車両 | |
US11793111B2 (en) | Harvesting head reel-mounted laser measurement | |
WO2021096722A1 (en) | Robotic mower having multiple operating modes | |
US20210204473A1 (en) | Autonomous lawnmower and steering method thereof | |
WO2020218464A1 (ja) | 収穫機、障害物判定プログラム、障害物判定プログラムを記録した記録媒体、障害物判定方法、農作業機、制御プログラム、制御プログラムを記録した記録媒体、制御方法 | |
CN111343853B (zh) | 农作业车、作业车碰撞警戒系统以及作业车 | |
JP2016187305A (ja) | 移動農機 | |
US20230052257A1 (en) | Lawn mower robot and control method for same | |
CN116300960B (zh) | 机器人及其地图构建与定位方法 | |
EP4066076B1 (en) | Autonomous machine navigation in various lighting environments | |
CN115599085A (zh) | 作业辅助系统 | |
US20220210971A1 (en) | Agricultural Work Machine Such as Harvester | |
JP6877327B2 (ja) | 草刈機 | |
JP2021153508A (ja) | 制御装置及び作業機 | |
CN220840215U (zh) | 机器人 | |
US20220312669A1 (en) | Work machine system and work machine | |
JP2019109695A (ja) | 作業車衝突警戒システム及び作業車 | |
EP3837948A1 (en) | Robot and control method thereof | |
CN115599086A (zh) | 作业辅助系统 | |
WO2023119425A1 (ja) | 作業領域決定装置、芝刈りシステム、作業領域決定方法、および作業領域決定プログラム | |
WO2024004575A1 (ja) | 作業車両、および作業車両の制御方法 | |
WO2023238827A1 (ja) | 農業管理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |