CN112000103B - 一种agv机器人定位、建图与导航的方法及系统 - Google Patents
一种agv机器人定位、建图与导航的方法及系统 Download PDFInfo
- Publication number
- CN112000103B CN112000103B CN202010879608.1A CN202010879608A CN112000103B CN 112000103 B CN112000103 B CN 112000103B CN 202010879608 A CN202010879608 A CN 202010879608A CN 112000103 B CN112000103 B CN 112000103B
- Authority
- CN
- China
- Prior art keywords
- agv robot
- environment map
- current environment
- agv
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013507 mapping Methods 0.000 title claims abstract description 26
- 230000033001 locomotion Effects 0.000 claims abstract description 20
- 230000004888 barrier function Effects 0.000 claims abstract description 17
- 239000003550 marker Substances 0.000 claims description 20
- 238000012216 screening Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 14
- 230000006872 improvement Effects 0.000 description 11
- 230000003068 static effect Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 230000004927 fusion Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种AGV机器人定位、建图与导航的方法,所述方法包括:S101、暂停AGV机器人的自身定位,构建AGV机器人的当前环境地图;S102、标记所述当前环境地图的障碍物,标记AGV机器人在所述当前环境地图的位置信息;S103、获取所述位置信息与所述障碍物的距离;S104、根据所述距离、所述障碍物和AGV机器人自身参数,在原导航基础上配置AGV机器人接下来的运动状态。本发明利用AGV机器人采集的实时地图标记障碍物,基于障碍物和AGV机器人在实时地图的定位信息控制AGV机器人的运动状态。在原有导航的路径规划基础上合理避开障碍物并适当绕行。
Description
技术领域
本发明涉及机器人导航领域,尤其涉及一种AGV机器人定位、建图与导航的方法及系统。
背景技术
对具有单模块化机器人自主定位导航系统(slamware)的机器人来说,安装在机器人底盘的里程计分辨率需要在1mm以下,且总误差最多不能超过5%。常用的里程计为电机编码器,电机编码器按实现原理来分类,包括光电编码器及霍尔编码器;按照其编码方式分类,主要包括增量型和绝对型。对于需要自主定位导航的服务机器人而言,电机里程计的精准度,往往是决定整个机器人定位精度的关键因素之一。
有鉴于此,有必要提供一种AGV机器人定位、建图与导航的方法及系统,以提高整个AGV机器人的定位精度。
发明内容
本发明提供了一种AGV机器人定位、建图与导航的方法及系统,利用AGV机器人采集的实时地图标记障碍物,基于障碍物和AGV机器人在实时地图的定位信息控制AGV机器人的运动状态。在原有导航的路径规划基础上合理避开障碍物并适当绕行。
实现本发明目的的技术方案如下:
一种AGV机器人定位、建图与导航的方法,所述方法包括:
暂停AGV机器人的自身定位,构建AGV机器人的当前环境地图;
标记所述当前环境地图的障碍物,标记AGV机器人在所述当前环境地图的位置信息;
获取所述位置信息与所述障碍物的距离;
根据所述距离、所述障碍物和AGV机器人自身参数,在原导航基础上配置AGV机器人接下来的运动状态。
作为本发明的进一步改进,所述方法还包括:
启用AGV机器人的自身定位,根据所述运动状态微调规划路径。
作为本发明的进一步改进,所述启动AGV机器人的自身定位,包括:
所述当前环境地图构建完成之后,启动AGV机器人的自身定位。
作为本发明的进一步改进,所述根据所述运动状态微调规划路径,包括:
如果所述当前环境地图中所述障碍物有一个且判定为静态障碍物,则AGV机器人绕过障碍物后按照原规划路径继续运动;
如果所述当前环境地图中所述障碍物有多个,且判定为静态障碍物,相邻静态障碍物的间距大于AGV机器人的尺寸,则AGV机器人绕过障碍物后按照原规划路径继续运动;
如果所述当前环境地图中所述障碍物有多个,且判定为静态障碍物,相邻静态障碍物的间距小于AGV机器人的尺寸,则AGV机器人后退预设距离并请求服务器下发微调路径;
如果所述当前环境地图中所述障碍物有一个且判定为动态障碍物,则AGV机器人停止运动,待所述动态障碍物消失后按照原规划路径继续运动;
如果所述当前环境地图中所述障碍物有多个,且判定至少一个为动态障碍物,待所述动态障碍物消失后重新构建当前环境地图。
作为本发明的进一步改进,所述暂停AGV机器人的自身定位,包括:
暂停AGV机器人的自主定位导航模块、里程计定位或GPS定位;
暂停AGV机器人的激光雷达、超声波雷达、超高频雷达或惯性导航系统。
作为本发明的进一步改进,所述构建AGV机器人的当前环境地图,包括:
通过AGV机器人上搭载的摄像头采集其周围的环境图像;
将所述环境图像与旧环境地图的不同标志物进行匹配;
基于旧环境地图在所述环境图像上建立所述标志物的坐标点;
保留所述坐标点、清空旧环境地图;
根据所述坐标点和所述环境图像建立当前环境地图。
作为本发明的进一步改进,所述标志物包括AGV机器人、充电桩、障碍物以及环境中固有的物品。
作为本发明的进一步改进,所述标记所述当前环境地图的障碍物,标记AGV机器人在所述当前环境地图的位置信息,包括:
清空旧环境地图之前标记出旧环境地图的标志物;
从所述当前环境地图中筛选出当前标志物并将该当前标志物处理成灰度图像;
全局匹配旧环境地图的标志物和具有灰度图像的当前标志物,得到差异标志物;
从所述差异标志物中选定障碍物并进行标记;
匹配当前环境地图的各标志物坐标点与旧环境地图的各标志物坐标点,得到AGV机器人在所述当前环境地图的坐标点。
作为本发明的进一步改进,所述获取所述位置信息与所述障碍物的距离,包括:
从所述当前环境地图的标志物中筛分出AGV机器人和各个障碍物;
根据当前环境地图的坐标原点,获取AGV机器人的坐标点信息和各个障碍物的坐标点信息;
基于所述坐标点信息计算得到所述距离。
作为本发明的进一步改进,所述方法还包括:
安装于AGV机器人的激光器向四周发射激光,判断所述激光遇到障碍物形成的激光点与所述当前环境地图标记的所述障碍物是否重合。
作为本发明的进一步改进,所述判断所述激光遇到障碍物形成的激光点与所述当前环境地图标记的所述障碍物是否重合,包括:
从所述当前环境地图获取障碍物距离AGV机器人的第一距离;
遇到障碍物时激光反回至激光器得到第二距离,并且激光在障碍物形成激光点;
根据所述第一距离和所述第二距离判断本障碍物与所述当前环境地图上的障碍物是否重合;
根据所述激光点判断本障碍物的实际位置与所述当前环境地图上本障碍物的预计位置是否一致;
匹配所述实际位置与所述预计位置的一致性,验证障碍物重合度判断的准确性。
作为本发明的进一步改进,所述方法还包括:
如果重合,识别为当前环境地图准确,继续控制AGV机器人运动;
如果不重合,识别为当前环境地图有误差,重新构建AGV机器人的当前环境地图。
与现有技术相比,本发明的有益效果是:
1、本发明利用AGV机器人采集的实时地图标记障碍物,基于障碍物和AGV机器人在实时地图的定位信息控制AGV机器人的运动状态。在原有导航的路径规划基础上合理避开障碍物并适当绕行。
2、本发明采用分图层方式构建地图,最低层为激光扫描方式建图(固定),中间层为AGV机器人实时扫描建图,上层为信息层,信息层供标注用户自定义信息。
附图说明
图1为AGV机器人定位、建图及导航方法的流程图一;
图2为图1步骤S101中暂停AGV机器人自身定位的流程图;
图3为图1步骤S101中构建AGV机器人的当前环境地图的流程图;
图4为图1中步骤S102的流程图;
图5为图1中步骤S103的流程图;
图6为AGV机器人定位、建图及导航方法的流程图二;
图7为AGV机器人定位、建图及导航方法的流程图三;
图8为图7中步骤S706的流程图。
具体实施方式
下面结合附图所示的各实施方式对本发明进行详细说明,但应当说明的是,这些实施方式并非对本发明的限制,本领域普通技术人员根据这些实施方式所作的功能、方法、或者结构上的等效变换或替代,均属于本发明的保护范围之内。
除非上下文另有要求,否则,在整个说明书和权利要求书中,术语“包括(comprise)”及其其他形式例如第三人称单数形式“包括(comprises)”和现在分词形式“包括(comprising)”被解释为开放、包含的意思,即为“包含,但不限于”。在说明书的描述中,术语“一个实施例(one embodiment)”、“一些实施例(some embodiments)”、“示例性实施例(exemplary embodiments)”、“示例(example)”、“特定示例(specific example)”或“一些示例(some examples)”等旨在表明与该实施例或示例相关的特定特征、结构、材料或特性包括在本公开的至少一个实施例或示例中。上述术语的示意性表示不一定是指同一实施例或示例。此外,所述的特定特征、结构、材料或特点可以以任何适当方式包括在任何一个或多个实施例或示例中。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本公开实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
“A、B和C中的至少一个”与“A、B或C中的至少一个”具有相同含义,均包括以下A、B和C的组合:仅A,仅B,仅C,A和B的组合,A和C的组合,B和C的组合,及A、B和C的组合。
“A和/或B”,包括以下三种组合:仅A,仅B,及A和B的组合。
如本文中所使用,根据上下文,术语“如果”、“若”任选地被解释为意思是“当……时”或“在……时”或“响应于确定”或“响应于检测到”。类似地,根据上下文,短语“如果确定……”或“如果检测到[所陈述的条件或事件]”任选地被解释为是指“在确定……时”或“响应于确定……”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
本文中“适用于”或“被配置为”的使用意味着开放和包容性的语言,其不排除适用于或被配置为执行额外任务或步骤的设备。
另外,“基于”的使用意味着开放和包容性,因为“基于”一个或多个所述条件或值的过程、步骤、计算或其他动作在实践中可以基于额外条件或超出所述的值。
如本文所使用的那样,“约”或“近似”包括所阐述的值以及处于特定值的可接受偏差范围内的平均值,其中所述可接受偏差范围如由本领域普通技术人员考虑到正在讨论的测量以及与特定量的测量相关的误差(即,测量系统的局限性)所确定。
本发明公开了一种AGV机器人定位、建图与导航的方法,请参阅图1,该方法包括:
步骤S101、暂停AGV机器人的自身定位,构建AGV机器人的当前环境地图;
本发明采用分图层方式构建地图,最低层为激光扫描方式建图(固定),中间层为AGV机器人实时扫描建图,上层为信息层,信息层供标注用户自定义信息。由于最低层的固定建图构建的是拓扑地图,拓扑地图只反应环境中各点的连接关系,并不能构建集合一致的地图。本发明实施例的AGV机器人在建图时,通过暂停AGV机器人的自身定位,引入随机有限集、以及多目标的贝叶斯滤波器。这样AGV机器人从未知环境的未知地点出发,AGV机器人在来回运动过程中通过重复观测到的障碍物特征(比如墙角,柱子等)定位自身位置和姿态,再根据自身位置增量式构建中间层地图,从而达到最低层和中间层融合的目的。上层是供服务器的其他处理使用的。
本发明实施例的步骤S101中暂停AGV机器人的自身定位,是为了将最低层的固定建图与中间层的实时扫描建图分离,使用实时扫描建图可验证固定建图的准确性,更进一步提高建图精度。
本发明实施例的实时扫描建图,是借助于AGV机器人在周围环境中定位,利用AGV机器人拍摄的当前环境来辅助微调已规划好的路线;AGV机器人拍摄周围图像,用当前周围图像和往常本定位点的周围图像相比较,以支撑对AGV机器人的自身定位的评估。
最低层的建图通常反映了被描绘出来时刻的环境状态,所以最低层的建图并不一定能够反映它被使用时刻的环境状态。在误差和噪音条件下,定位和地图构建技术上的复杂度不支持两者同时获得连续的解。本发明实施例在构建实时扫描建图时把最低层建图和中间层建图通过暂停自身定位的方式分开,中间层建图完成后把自身定位打开,将最低层建图和中间层建图利用AGV机器人自身定位捆绑在一个循环之中。
本发明实施例中构建AGV机器人的当前环境地图,其核心是把一个个障碍物集成到一个一致性的模型上,当前环境地图构建的核心是环境的表达方式以及传感器数据。与之相比,自身定位是在最低层的建图上估测机器人的坐标和姿势;暂定AGV机器人的自身定位时,通常AGV机器人的初始位置已知,利用已知的障碍物坐标、采用追踪方式确定AGV机器人坐标。在构建AGV机器人的当前环境地图之前,AGV机器人还需获取AGV机器人自身的运动学特征和自身的姿态。
需要说明的是,精确的定位需要无偏差的当前环境地图,无偏差的当前环境地图需要精确定位来描绘。本发明实施例利用AGV机器人的自身定位开启和关闭,在自身定位和当前环境地图中不断循环,有效缩小获取的位置信息与障碍物之间距离误差。
需指出,本发明实施例中,AGV机器人进行构建地图时,对所获得的图像进行存储数据库,采取的是矢量存储方式,矢量存储方式是将所采集到的图像(位图)转换后成为矢量图然后进行存储,位图转矢量图的目的是有利于确定目标对象的边缘像素以及目标对象的准确位置信息。矢量图成为目标对象(障碍物/标志物)的图像或者绘图图像,每个目标对象(障碍物/标志物)都是自成一体的实体,具有颜色、形状、轮廓、大小和基于世界坐标系的坐标位置等属性,在本发明实施例中,主要是对每个目标对象的形状和位置使用。矢量图只能靠软件生成,并且矢量图包含多个独立的分离图像。基于世界坐标系的坐标位置确定,是建立直角坐标系、建立一个空间的点与一个有序数组之间的对应关系,利用点的坐标,可以求出空间坐标中亮点的距离,设a(x1,y1,z1)和b(x2,y2,z2)是空间两点,过a和b各作三个分别垂直于坐标轴的平面,这六个平面围成一个以为对角线的长方体,它的三条棱长分别是|x2-x1|,|y2-y1|,|z2-z1|,由于a和b之间的距离d就是该长方体对角线ab的长度,且为直角三角形,故由勾股定理得
三维平面的一般方程为:
Ax+By+Cz+D=0 (1)
式中,A、B、C、D为描述空间特征的常数。
设空间中的点的坐标为(x0,y0,z0),该点在平面上的投影点的坐标为(xp,yp,zp),根据垂直约束条件,得知yp和zp满足以下条件:
式中,yp为(x0,y0,z0)在平面上的投影点y轴坐标,xp为(x0,y0,z0)在平面上的投影点x轴坐标,zp为(x0,y0,z0)在平面上的投影点z轴坐标。
将(2)和(3)代入(1)中求解得到:
将(4)代入(2)(3),可以得到:
由公式(4)(5)(6)得到在空间中的点到平面上的投影坐标(xp,yp,zp)。由此计算公式,可将空间中的物体,落实到平面的地图上。由此得到直角坐标系上的AGV机器人构建的平面地图。
此外,通常由传感器有限的精确度和外加的环境噪声所引起,那么附加到地图上的所有特征都将会含有相应的误差。随着时间的推移和运动的变化,定位和地图构建的误差累计增加,将会对地图本身和机器人的定位、导航等能力的精度产生误差。为了克服这一缺陷,本发明实施例的AGV机器人实时更新当前环境地图,利用当前环境地图补偿精度误差,比如图像匹配法或者环路闭合检测法,或者对现有的地图进行更新和处理,以融合障碍物在不同时间的不同值。
在一些实施例中,步骤S101中暂停AGV机器人的自身定位,可以通过下述步骤S101a至步骤S101b实现。
步骤S101a、暂停AGV机器人的自主定位导航模块、里程计定位或GPS定位;
步骤S101b、暂停AGV机器人的激光雷达、超声波雷达、超高频雷达或惯性导航系统。
当AGV机器人选用激光和视觉导航时,设置AGV机器人的初始位置和目标位置,并使AGV机器人从初始位置开始运动;初始状态下,暂停AGV机器人的自主定位导航模块、里程计定位或GPS定位,通过距离感测单元(激光雷达、超声波雷达、超高频雷达或惯性导航系统)实时采集AGV机器人与障碍物之间的第一距离并将对应的第一距离信号传送至服务器,接下来暂停AGV机器人的距离感测单元(激光雷达、超声波雷达、超高频雷达或惯性导航系统),紧接着AGV机器人静止不动,通过安装于AGV机器人的摄像单元拍摄AGV机器人的周边环境视频并将对应的视频信号传送至服务器;服务器根据第一距离信号得到AGV机器人的第一位置,根据视频信号得到AGV机器人的第二位置,服务器对第一位置与第二位置分别设置不同的置信度以得到AGV机器人的综合位置。
以激光雷达为例,超声波雷达、超高频雷达与下列的激光雷达处理方法相同。激光雷达获取的激光数据和AGV机器人拍摄的当前环境的融合过程。采用Baye估计方法进行当前地图更新。Baye估计是基于Baye定理的条件或后验概率的统计数据融合算法,适用于具有可加高斯噪声的不确定性信息,可以通过已知的向量Z估计出未知状态下n维向量十假定完成既定任务所需的有关的环境信息向量为F,通过传感器获得的数据信息用向量d表示,则数据融合的任务就是要通过数据向量d推导来估计环境向量F,假设P(f,d)是随机向量f和d的联合概率分布密度丽数,则有贝叶斯公式如下:
P(f,d)=P(f{ld)·P(d)=P(f|d).P(f)式中:P(d)、P(O)分别表示d和f的边缘分布密度函数。第一位置和第二位置是从不同坐标系统获取数据,以间接的方式采用贝叶斯估计进行数据融合。
在一些实施例中,请参阅图2,步骤S101中构建AGV机器人的当前环境地图,可以通过下述步骤S101c至步骤S101e实现第二位置的确定。
步骤S101c、通过AGV机器人上搭载的摄像头采集其周围的环境图像;
步骤S101d、将环境图像与旧环境地图的不同标志物进行匹配;
步骤S101e、基于旧环境地图在环境图像上建立标志物的坐标点。
在一些实施例中,请参阅图2,步骤S101中构建AGV机器人的当前环境地图,可以通过下述步骤S101f至步骤S101g实现当前环境地图构建地图。
步骤S101f、保留步骤S101e的坐标点、清空旧环境地图;
步骤S101g、根据坐标点建立当前环境地图。
服务器根据第一距离信号及第二位置得到障碍物的坐标点,并根据障碍物的坐标点建立AGV机器人的周边环境地图。
具体地,上述的初始位置、AGV机器人位置、目标位置、第一位置、第二位置、综合位置及障碍物的坐标点均以世界坐标系作为参考坐标系。在参考坐标系中,第一位置定义为(x1,y1),第二位置定义为(x2,y2),障碍物的坐标点定义为(x,y),则(x,y)=[(x1,y1)*c1+(x2,y2)*c2]/(c1+c2),其中,c1为第一位置的置信度,c2为第二位置的置信度。
本发明实施例中的步骤S101f中,保留步骤S101e的坐标点,即保留了之前旧地图的第三位置,第三位置即旧地图中AGV机器人静止不动的坐标点。
理想状态下,第三位置与第二位置重合,利用第三位置确定第二位置后清空旧环境地图,然后在中间层根据第二位置的坐标点建立当前环境下的障碍物,继而把当前环境的建图与之前中间层融合,以此实现当前环境地图的重建。
步骤S102、标记当前环境地图的障碍物,标记AGV机器人在当前环境地图的位置信息。
旧环境地图和当前环境地图中均标记有障碍物,障碍物可能是固定建筑物(墙体、门、承重柱、电梯、台阶、斜坡)、办公物品(桌子、椅子、充电桩、货物)、移动物(人、其他AGV机器人、运输车辆、电梯)。
旧环境地图和当前环境地图中标记障碍物的过程是:对周围图像进行时间轴对齐、匹配、信度融合操作,从而完成对AGV机器人的当前所处位置周围环境的感知。具体地,(1)根据广角相机采集的周围图像,检测算法能够定位出前方目标物体(固定建筑物、办公物品、移动物)的具体位置并提供其大致的轮廓,这个阶段的误差范围还较大。(2)基于前方目标物体的位置和轮廓,分类算法对前方目标物体进行精确的识别,同时回归算法对其进行特征点定位,进而得到目标紧致的轮廓信息。(3)利用连续帧图像的内容、排除交叉关系和周边环境的干扰,得到关键目标物体的特征抽取。
标记AGV机器人在当前环境地图的位置信息,是根据第二位置信息和第一位置信息反向计算出AGV机器人在当前环境地图的位置信息。具体过程为:在之前已经建立完成的中间层上标记当前环境地图的障碍物,并且根据上述的第一位置和第二位置得到AGV机器人的位置信息。位置信息包括AGV机器人的相对位置、角度以及姿态。在实际应用中,第一位置的置信度与第二位置的置信度的比值等于距离感测单元感测距离的精确度与摄像单元感测距离的精确度的比值;服务器根据第一距离信号及图像数据得到障碍物的位置,并根据障碍物的位置计算出AGV机器人在当前环境地图的位置信息,并且根据上述信息建立AGV机器人的周边环境地图。
在一些实施例中,请参阅图4,步骤S102可以通过下述的步骤S102a至步骤S102e实现。
步骤S102a、清空旧环境地图之前标记出旧环境地图的标志物;
步骤S102b、从当前环境地图中筛选出当前标志物并将该当前标志物处理成灰度图像;
步骤S102c、全局匹配旧环境地图的标志物和具有灰度图像的当前标志物,得到差异标志物;
步骤S102d、从差异标志物中选定障碍物并进行标记;
步骤S102e、匹配当前环境地图的各标志物坐标点与旧环境地图的各标志物坐标点,得到AGV机器人在当前环境地图的坐标点。
在上述步骤中,在清空旧环境地图之前先标记出旧环境地图的标志物,在一些实施例中,该标志物可能是上述的任何障碍物,即标志物可能是固定建筑物(墙体、门、承重柱、电梯、台阶、斜坡)、办公物品(桌子、椅子、充电桩、货物)、移动物(人、其他AGV机器人、运输车辆、电梯)。
在上述步骤中,从当前环境地图中筛选出当前标志物并将该当前标志物处理成灰度图像。在一些实施例中,当前环境中可能存在的标志物有墙体、门、承重柱、电梯、台阶、斜坡、桌子、椅子、充电桩、货物、人、其他AGV机器人、运输车辆、电梯等,在相似物体的甄别上,比如其他大AGV机器人与其他小AGV机器人的高度不同,设立专门的数据组来收集相似AGV机器人的样本,从当前环境地图中快速完成标志物的甄别并完成灰度处理。
在上述步骤中,全局匹配旧环境地图的标志物和具有灰度图像的当前标志物,得到差异标志物。在旧环境地图中标记的标志物与当前环境中的标志物进行对比,选定当前环境中新出现的标志物,将此标志物认定为障碍物并对障碍物进行标记。例如:旧环境地图的标志物有墙体、门、承重柱、电梯、台阶、斜坡、桌子、椅子、充电桩、货物,当前环境中的标志物有墙体、门、承重柱、桌子、椅子、充电桩、人和其他AGV机器人,通过全局匹配旧环境地图的标志物和具有灰度图像的当前标志物,得到的差异物有台阶、斜坡、货物、人和其他AGV机器人。从台阶、斜坡、货物、人和其他AGV机器人中标记出人和其他AGV机器人为障碍物。
选定障碍物后,根据墙体、门、承重柱、桌子、椅子、充电桩、人和其他AGV机器人在旧环境地图中的位置信息,重点匹配出人和其他AGV机器人的位置信息,再根据墙体、门、承重柱、桌子、椅子、充电桩、人和其他AGV机器人的各自位置信息,得到AGV机器人在当前环境地图的坐标点。
步骤S103、根据位置信息与障碍物获取AGV机器人与障碍物间的距离。
由于选定了人和其他AGV机器人为障碍物,通过标定墙体、门、承重柱、桌子、椅子、充电桩、人、其他AGV机器人、本AGV机器人在当前环境地图的坐标点,利用坐标点计算出人、其他AGV机器人距离本AGV机器人的距离。
在一些实施例中,请参阅图5,步骤S103可以通过下述的步骤S103a至步骤S103c实现。
步骤S103a、从当前环境地图的标志物中筛分出AGV机器人和各个障碍物;
步骤S103b、根据当前环境地图的坐标原点,获取AGV机器人的坐标点信息和各个障碍物的坐标点信息;
步骤S103c、基于坐标点信息计算得到距离。
由于旧环境地图的标志物有墙体、门、承重柱、电梯、台阶、斜坡、桌子、椅子、充电桩、货物,当前环境中的标志物有墙体、门、承重柱、桌子、椅子、充电桩、人和其他AGV机器人,因此可通过比对的方式从墙体、门、承重柱、桌子、椅子、充电桩、人和其他AGV机器人中筛选出人和其他AGV机器人为障碍物。另外,由于初始位置和终点位置是以世界坐标系作为参考坐标系的,在进行此步骤时,还需把世界坐标系转换成以摄像头为坐标零点的摄像机坐标系,在摄像机坐标系中获得AGV机器人、人和其他AGV机器人的坐标点。基于AGV机器人、人和其他AGV机器人的坐标点得到本AGV机器人与人之间的距离、本AGV机器人与其他AGV机器人之间的距离。
步骤S104、根据距离、障碍物和AGV机器人自身参数,在原导航基础上配置AGV机器人接下来的运动状态,AGV机器人自身参数包括AGV机器人的自身尺寸。
在步骤S104中,AGV机器人自身参数,包括AGV机器人的宽度、长度、高度、最大允许的运动速度、刹车性能等。
在特定实施例中,旧环境地图的标志物有墙体、门、承重柱、电梯、台阶、斜坡、椅子、充电桩、货物,如果当前环境中的标志物有墙体、门、承重柱、桌子、椅子、充电桩、货物,因此可通过比对的方式从墙体、门、承重柱、桌子、椅子、充电桩、货物中筛选出桌子为障碍物。即当前环境地图中障碍物有桌子一个障碍物,并且连续拍摄AGV机器人当前位置的多张周围图像均判定为桌子是静态障碍物,桌子与旧环境地图的标志物间距足够AGV机器人自身转弯,则服务器控制AGV机器人绕过桌子后按照原规划路径继续运动。
在特定实施例中,旧环境地图的标志物有墙体、门、承重柱、电梯、台阶、斜坡、椅子、充电桩,如果当前环境中的标志物有墙体、门、承重柱、桌子、椅子、充电桩、货物,因此可通过比对的方式从墙体、门、承重柱、桌子、椅子、充电桩、货物中筛选出桌子和货物为障碍物。即当前环境地图中有桌子和货物两个障碍物,并且连续拍摄AGV机器人当前位置的多张周围图像均判定为桌子和货物是静态障碍物,桌子和货物的间距大于AGV机器人的尺寸,则AGV机器人绕过障碍物后按照原规划路径继续运动。
在特定实施例中,旧环境地图的标志物有墙体、门、承重柱、电梯、台阶、斜坡、椅子、充电桩,如果当前环境中的标志物有墙体、门、承重柱、桌子、椅子、充电桩、货物,因此可通过比对的方式从墙体、门、承重柱、桌子、椅子、充电桩、货物中筛选出桌子和货物为障碍物。即当前环境地图中有桌子和货物两个障碍物,并且连续拍摄AGV机器人当前位置的多张周围图像均判定为桌子和货物是静态障碍物,相邻静态障碍物的间距小于AGV机器人的尺寸,则AGV机器人后退预设距离并请求服务器下发微调路径。因为桌子和货物之间的间距小于AGV机器人的尺寸,AGV机器人无法从桌子和货物之间绕行,AGV机器人从远离桌子的货物另一侧绕行、或者AGV机器人从远离货物的桌子另一侧绕行,都有可能成为其他AGV机器人的障碍物,为了减小服务器的运算,本发明实施例才将AGV机器人后退预设距离并请求服务器下发微调路径。
在特定实施例中,旧环境地图的标志物有墙体、门、承重柱、电梯、台阶、斜坡、椅子、充电桩、货物,如果当前环境中的标志物有墙体、门、承重柱、人、椅子、充电桩、货物,因此可通过比对的方式从墙体、门、承重柱、桌子、椅子、充电桩、货物中筛选出桌子为障碍物。即当前环境地图中障碍物有人一个障碍物,并且连续拍摄AGV机器人当前位置的多张周围图像均判定为人是动态障碍物,则AGV机器人停止运动,直到拍摄周围图像中不存在人这个标志物后,按照原规划路径继续运动。
在特定实施例中,旧环境地图的标志物有墙体、门、承重柱、电梯、台阶、斜坡、椅子、充电桩、货物,如果当前环境中的标志物有墙体、门、承重柱、人、椅子、充电桩、货物、桌子、货物,因此可通过比对的方式从墙体、门、承重柱、人、椅子、充电桩、货物、桌子、货物中筛选出人、桌子、货物为障碍物。在人、桌子、货物三个障碍物中人为动态障碍物,桌子和货物为静态障碍物,待人从周围图像中消失后按照上述方法重新重新构建当前环境地图。
另外,在人、桌子、货物三个障碍物中人可能初始状态为动态障碍物,行走几步之后停止,在连续拍摄周围图像时确定为人、桌子和货物均为静态障碍物,接下来判断人、桌子和货物之间的间距,当桌子和货物之间、桌子和人之间、人和货物之间的间距均小于AGV机器人的尺寸,AGV机器人无法从人、桌子和货物之间之间绕行,AGV机器人从远离桌子的货物另一侧绕行、或者AGV机器人从远离货物的桌子另一侧绕行,都有可能成为其他AGV机器人的障碍物,为了减小服务器的运算,本发明实施例才将AGV机器人后退预设距离并请求服务器下发微调路径。当桌子和货物之间、桌子和人之间、人和货物之间的间距有一个大于AGV机器人的尺寸,则服务器控制AGV机器人从大于AGV机器人尺寸的间距处绕行。
在一些特定实施例中,请参阅图6,一种AGV机器人定位、建图与导航的方法包括:
步骤S601、暂停AGV机器人的自身定位,构建AGV机器人的当前环境地图;
步骤S602、标记当前环境地图的障碍物,标记AGV机器人在当前环境地图的位置信息;
步骤S603、根据位置信息与障碍物获取AGV机器人与障碍物间的距离;
步骤S604、根据距离、障碍物和AGV机器人自身参数,在原导航基础上配置AGV机器人接下来的运动状态,AGV机器人自身参数包括AGV机器人的自身尺寸;
步骤S605、启用AGV机器人的自身定位,根据运动状态微调规划路径。
该特定实施例中,在原导航基础上确定出AGV机器人接下来的运动状态之后,开启AGV机器人的自身定位,利用AGV机器人的定位验证之前在当前地图中获得的AGV机器人当前坐标点是否准确。进一步根据运动状态精准把控规划路径。
在一些特定实施例中,请参阅图7,一种AGV机器人定位、建图与导航的方法包括:
步骤S701、暂停AGV机器人的自身定位,构建AGV机器人的当前环境地图;
步骤S702、标记当前环境地图的障碍物,标记AGV机器人在当前环境地图的位置信息;
步骤S703、根据位置信息与障碍物获取AGV机器人与障碍物间的距离;
步骤S704、根据距离、障碍物和AGV机器人自身参数,在原导航基础上配置AGV机器人接下来的运动状态,AGV机器人自身参数包括AGV机器人的自身尺寸;
步骤S705、启用AGV机器人的自身定位,根据运动状态微调规划路径;
步骤S706、安装于AGV机器人的激光器向四周发射激光,判断激光遇到障碍物形成的激光点与当前环境地图标记的障碍物是否重合。
本发明的此特定实施例,是基于激光与视觉融合的AGV机器人定位导航,能够准确定位AGV机器人的位置,并生成环境地图,自动给AGV机器人规划运动路线,以便于AGV机器人能够在较为复杂的环境中正常运动。
在一些实施例中,请参阅图8,步骤S706可以通过下述步骤S706a至步骤S706e实现。
步骤S706a、从当前环境地图获取障碍物距离AGV机器人的第一距离;
步骤S706b、遇到障碍物时激光反回至激光器得到第二距离,并且激光在障碍物形成激光点;
步骤S706c、根据第一距离和第二距离判断本障碍物与当前环境地图上的障碍物是否重合;
步骤S706d、根据激光点判断本障碍物的实际位置与当前环境地图上本障碍物的预计位置是否一致;
步骤S706e、匹配实际位置与预计位置的一致性,验证障碍物重合度判断的准确性。
如果重合,识别为当前环境地图准确,继续控制AGV机器人运动;
如果不重合,识别为当前环境地图有误差,重新构建AGV机器人的当前环境地图。
当AGV机器人选用激光和视觉导航时,设置AGV机器人的初始位置和目标位置,并使AGV机器人从初始位置开始运动;初始状态下,暂停AGV机器人的自主定位导航模块、里程计定位或GPS定位,通过距离感测单元(激光雷达、超声波雷达、超高频雷达或惯性导航系统)实时采集AGV机器人与障碍物之间的第一距离并将对应的第一距离信号传送至服务器,接下来暂停AGV机器人的距离感测单元(激光雷达、超声波雷达、超高频雷达或惯性导航系统),紧接着AGV机器人静止不动,通过安装于AGV机器人的摄像单元拍摄AGV机器人的周边环境视频并将对应的视频信号传送至服务器;服务器根据第一距离信号得到AGV机器人的第一位置,根据视频信号得到AGV机器人的第二位置,服务器对第一位置与第二位置分别设置不同的置信度以得到AGV机器人的综合位置。
本发明实施例利用AGV机器人采集的实时地图标记障碍物,基于障碍物和AGV机器人在实时地图的定位信息控制AGV机器人的运动状态。在原有导航的路径规划基础上合理避开障碍物并适当绕行。
本发明实施例采用分图层方式构建地图,最低层为激光扫描方式建图(固定),中间层为AGV机器人实时扫描建图,上层为信息层,信息层供标注用户自定义信息。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (4)
1.一种AGV机器人定位、建图与导航的方法,其特征在于,所述方法包括:
暂停AGV机器人的自身定位,构建AGV机器人的当前环境地图;通过下述步骤S101c至步骤S101e实现AGV机器人的第二位置的确定,通过下述步骤S101f至步骤S101g实现当前环境地图构建地图;步骤S101c、通过AGV机器人上搭载的摄像头采集其周围的环境图像;步骤S101d、将环境图像与旧环境地图的不同标志物进行匹配;步骤S101e、基于旧环境地图在环境图像上建立标志物的坐标点,得到AGV机器人的第二位置;步骤S101f、保留步骤S101e的坐标点、清空旧环境地图;步骤S101g、根据坐标点建立当前环境地图;保留步骤S101e的坐标点,即保留了之前旧地图的第三位置,第三位置即旧地图中AGV机器人静止不动的坐标点;第三位置与第二位置重合,利用第三位置确定第二位置后清空旧环境地图,然后在中间层根据第二位置的坐标点建立当前环境下的障碍物,继而把当前环境的建图与之前中间层融合,以此实现当前环境地图的重建,中间层为AGV机器人实时扫描建图;
标记所述当前环境地图的障碍物,标记AGV机器人在所述当前环境地图的位置信息;根据第二位置的坐标点和第一位置的坐标点反向计算出AGV机器人在当前环境地图的位置信息;
初始状态下,暂停AGV机器人的自主定位导航模块、里程计定位或GPS定位,通过距离感测单元实时采集AGV机器人与障碍物之间的第一距离并将对应的第一距离信号传送至服务器,服务器根据第一距离信号得到AGV机器人的第一位置;暂停AGV机器人的距离感测单元,紧接着AGV机器人静止不动,通过安装于AGV机器人的摄像单元拍摄AGV机器人的周边环境视频并将对应的视频信号传送至服务器,服务器根据视频信号得到AGV机器人的第二位置;
根据位置信息与所述障碍物获取AGV机器人与障碍物间的距离;所述获取AGV机器人与障碍物的距离,包括:从所述当前环境地图的标志物中筛分出AGV机器人和各个障碍物;根据当前环境地图的坐标原点,获取AGV机器人的坐标点信息和各个障碍物的坐标点信息;基于所述坐标点信息计算得到所述距离;
根据所述距离、所述障碍物和AGV机器人自身参数,在原导航基础上配置AGV机器人接下来的运动状态,所述AGV机器人自身参数包括AGV机器人的自身尺寸;启用AGV机器人的自身定位,根据运动状态微调规划路径;
安装于AGV机器人的激光器向四周发射激光,判断激光遇到障碍物形成的激光点与当前环境地图标记的障碍物是否重合;如果重合,识别为当前环境地图准确,继续控制AGV机器人运动;如果不重合,识别为当前环境地图有误差,重新构建AGV机器人的当前环境地图。
2.根据权利要求1所述的AGV机器人定位、建图与导航的方法,其特征在于,所述暂停AGV机器人的自身定位,包括:
暂停AGV机器人的自主定位导航模块、里程计定位或GPS定位;
暂停AGV机器人的激光雷达、超声波雷达、超高频雷达或惯性导航系统。
3.根据权利要求1所述的AGV机器人定位、建图与导航的方法,其特征在于,所述标记所述当前环境地图的障碍物,标记AGV机器人在所述当前环境地图的位置信息,包括:
清空旧环境地图之前标记出旧环境地图的标志物;
从所述当前环境地图中筛选出当前标志物并将该当前标志物处理成灰度图像;
全局匹配旧环境地图的标志物和具有灰度图像的当前标志物,得到差异标志物;
从所述差异标志物中选定障碍物并进行标记;
匹配当前环境地图的各标志物坐标点与旧环境地图的各标志物坐标点,得到AGV机器人在所述当前环境地图的坐标点。
4.根据权利要求1所述的AGV机器人定位、建图与导航的方法,其特征在于,判断所述激光遇到障碍物形成的激光点与所述当前环境地图标记的所述障碍物是否重合,包括:
从所述当前环境地图获取障碍物距离AGV机器人的第一距离;
遇到障碍物时激光反回至激光器得到第二距离,并且激光在障碍物形成激光点;
根据所述第一距离和所述第二距离判断本障碍物与所述当前环境地图上的障碍物是否重合;
根据所述激光点判断本障碍物的实际位置与所述当前环境地图上本障碍物的预计位置是否一致;
匹配所述实际位置与所述预计位置的一致性,验证障碍物重合度判断的准确性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010879608.1A CN112000103B (zh) | 2020-08-27 | 2020-08-27 | 一种agv机器人定位、建图与导航的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010879608.1A CN112000103B (zh) | 2020-08-27 | 2020-08-27 | 一种agv机器人定位、建图与导航的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112000103A CN112000103A (zh) | 2020-11-27 |
CN112000103B true CN112000103B (zh) | 2023-04-11 |
Family
ID=73471975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010879608.1A Active CN112000103B (zh) | 2020-08-27 | 2020-08-27 | 一种agv机器人定位、建图与导航的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112000103B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112684797B (zh) * | 2020-12-15 | 2023-06-16 | 广东工业大学 | 一种障碍物地图构建方法 |
CN113115622B (zh) * | 2021-03-08 | 2022-09-30 | 深圳拓邦股份有限公司 | 视觉机器人避障控制方法、装置及割草机器人 |
CN113485327B (zh) * | 2021-06-30 | 2024-02-02 | 三一机器人科技有限公司 | 末端工位定位方法、装置及电子设备 |
CN114185342B (zh) * | 2021-11-23 | 2024-03-29 | 季华实验室 | 一种多agv协同货物搬运方法及系统 |
CN115129070B (zh) * | 2022-08-31 | 2022-12-30 | 深圳市欧铠智能机器人股份有限公司 | 一种物联网下的仓储机器人智能避障系统及方法 |
CN118010009B (zh) * | 2024-04-10 | 2024-06-11 | 北京爱宾果科技有限公司 | 一种教育机器人在复杂环境下的多模态导航系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105094130A (zh) * | 2015-07-29 | 2015-11-25 | 广东省自动化研究所 | 激光制导地图构建的agv搬运机器人导航方法和装置 |
CN108007451A (zh) * | 2017-11-10 | 2018-05-08 | 未来机器人(深圳)有限公司 | 货物承载装置位姿的检测方法、装置、计算机设备和存储介质 |
CN109839107A (zh) * | 2019-03-21 | 2019-06-04 | 深圳市三宝创新智能有限公司 | 一种智能机器人导航方法及其导航装置 |
CN110057370A (zh) * | 2019-06-13 | 2019-07-26 | 浙江智玲机器人科技有限公司 | 机器人的定位方法和装置 |
CN110361009A (zh) * | 2019-07-12 | 2019-10-22 | 深圳市银星智能科技股份有限公司 | 一种路径规划方法、路径规划系统以及移动机器人 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8301374B2 (en) * | 2009-08-25 | 2012-10-30 | Southwest Research Institute | Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks |
US20120089292A1 (en) * | 2010-02-14 | 2012-04-12 | Leonid Naimark | Architecture and Interface for a Device-Extensible Distributed Navigation System |
CN108171754A (zh) * | 2016-12-07 | 2018-06-15 | 广州映博智能科技有限公司 | 一种基于双目视觉的机器人导航装置及方法 |
CN107680135B (zh) * | 2017-11-16 | 2019-07-23 | 珊口(上海)智能科技有限公司 | 定位方法、系统及所适用的机器人 |
US10394234B2 (en) * | 2017-12-18 | 2019-08-27 | The Boeing Company | Multi-sensor safe path system for autonomous vehicles |
CN110000786B (zh) * | 2019-04-12 | 2020-09-01 | 珠海市一微半导体有限公司 | 一种基于视觉机器人的历史地图利用方法 |
CN111121753A (zh) * | 2019-12-30 | 2020-05-08 | 炬星科技(深圳)有限公司 | 机器人联合建图方法、设备及计算机可读存储介质 |
-
2020
- 2020-08-27 CN CN202010879608.1A patent/CN112000103B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105094130A (zh) * | 2015-07-29 | 2015-11-25 | 广东省自动化研究所 | 激光制导地图构建的agv搬运机器人导航方法和装置 |
CN108007451A (zh) * | 2017-11-10 | 2018-05-08 | 未来机器人(深圳)有限公司 | 货物承载装置位姿的检测方法、装置、计算机设备和存储介质 |
CN109839107A (zh) * | 2019-03-21 | 2019-06-04 | 深圳市三宝创新智能有限公司 | 一种智能机器人导航方法及其导航装置 |
CN110057370A (zh) * | 2019-06-13 | 2019-07-26 | 浙江智玲机器人科技有限公司 | 机器人的定位方法和装置 |
CN110361009A (zh) * | 2019-07-12 | 2019-10-22 | 深圳市银星智能科技股份有限公司 | 一种路径规划方法、路径规划系统以及移动机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN112000103A (zh) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112000103B (zh) | 一种agv机器人定位、建图与导航的方法及系统 | |
Surmann et al. | An autonomous mobile robot with a 3D laser range finder for 3D exploration and digitalization of indoor environments | |
JP7270338B2 (ja) | リアルタイムのマッピングと位置確認のための方法及び装置 | |
US10496104B1 (en) | Positional awareness with quadocular sensor in autonomous platforms | |
US9329598B2 (en) | Simultaneous localization and mapping for a mobile robot | |
JP4100239B2 (ja) | 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム | |
US8467902B2 (en) | Method and apparatus for estimating pose of mobile robot using particle filter | |
Hinkel et al. | Environment perception with a laser radar in a fast moving robot | |
JPH03201110A (ja) | 自律走行車の位置方位検出装置 | |
Meyer | Time-to-collision from first-order models of the motion field | |
CN106647738A (zh) | 一种无人搬运车的对接路径确定方法及系统及无人搬运车 | |
JP2004276168A (ja) | 移動ロボット用地図作成システム | |
Escalera et al. | Continuous mobile robot localization by using structured light and a geometric map | |
JP2020149186A (ja) | 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 | |
Song et al. | Scale estimation with dual quadrics for monocular object SLAM | |
Cumani et al. | Integrating monocular vision and odometry for SLAM. | |
Shaik et al. | 2D localization in large areas using inexpensive rgbd camera augmented with visual tags | |
Oshima et al. | Automatic planning of laser measurements for a large-scale environment using CPS-SLAM system | |
Fitzgibbons et al. | Application of vision in simultaneous localization and mapping | |
CN114911223A (zh) | 一种机器人导航方法、装置、机器人及存储介质 | |
Cumani et al. | Robot localisation and mapping with stereo vision. | |
Li et al. | CAD-vision-range-based self-localization for mobile robot using one landmark | |
Konno et al. | Improvement of 3D-SLAM Accuracy by Removing Moving Objects on 3D-LiDAR Point Cloud Using Image Recognition in Web Camera | |
Shah et al. | Modeling structured environments using robot vision | |
Weber et al. | An obstacle representation for off-road autonomous driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |