CN106092104B - 一种室内机器人的重定位方法及装置 - Google Patents
一种室内机器人的重定位方法及装置 Download PDFInfo
- Publication number
- CN106092104B CN106092104B CN201610738132.3A CN201610738132A CN106092104B CN 106092104 B CN106092104 B CN 106092104B CN 201610738132 A CN201610738132 A CN 201610738132A CN 106092104 B CN106092104 B CN 106092104B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- laser
- laser point
- candidate region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000004438 eyesight Effects 0.000 claims abstract description 74
- 230000000007 visual effect Effects 0.000 claims abstract description 50
- 230000004888 barrier function Effects 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 13
- 238000012795 verification Methods 0.000 claims description 12
- 238000013459 approach Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 7
- 238000010168 coupling process Methods 0.000 claims description 6
- 238000005859 coupling reaction Methods 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 6
- 230000008878 coupling Effects 0.000 claims description 5
- 235000013399 edible fruits Nutrition 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 7
- 230000004807 localization Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004377 improving vision Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种室内机器人的重定位方法及装置,该方法包括:控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;根据激光点云数据判断机器人在当前环境地图中是否丢失;若是,则根据激光点云数据进行激光重定位、并根据视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;当存在候选区域时,对机器人进行姿态优化,确定机器人当前位置信息和当前姿态信息;当不存在候选区域时,根据激光点云数据控制机器人进行避障移动,直到确定出存在候选区域。本发明实施例采用激光传感器和视觉传感器相结合的方式对机器人进行重定位,提高了机器人重定位的准确性,从而准确地对机器人进行自主导航。
Description
技术领域
本发明涉及室内机器人的控制技术领域,具体而言,涉及一种室内机器人的重定位方法及装置。
背景技术
目前,移动机器人通过传感器感知环境和自身状态,进而实现在有障碍物的环境中面向目标自主运动,这就是通常所说的智能自主移动机器人的导航技术。而定位则是确定移动机器人在工作环境中相对于全局坐标的位置及其本身的姿态,是移动机器人导航的基本环节。然而,在机器人的系统关闭或者断电的情况下,当时机器人的位置和姿态发生变化时,机器人启动后无法定位其所在地图位置和自身姿态,此时需要人为将机器人移动到初始位置重新启动系统获取初始位置和姿态后才能进行自主导航。因此,为了实现机器人在异常情况下自动定位,无须人为干预移动,给出了一系列关于机器人重定位的方法。
当前,相关技术中提供了一种室内机器人的重定位方法,其中,常用的三种重定位方法有:基于信标定位方法、环境地图模型匹配方法、或者基于视觉的定位方法。
具体的,上述基于信标定位方法,具体包括:机器人通过各种传感器接收或观测环境中已知位置的信标,经过计算得出机器人与信标的相对位置,再代入已知的信标位置坐标,解出机器人的绝对坐标来实现定位。但该基于信标定位方法存在安装和维护信标成本高的问题。
具体的,上述环境地图模型匹配方法,具体包括:机器人通过自身的各种传感器探测周围环境,利用感知到的局部环境信息进行局部的地图构造,并与其内部事先存储的完整地图进行匹配。通过匹配关系获得自己在全局环境中的位置,从而确定自身的位置。但该环境地图模型匹配方法仅适于一些结构相对简单的环境,存在应用场景受限的问题。
具体的,上述基于视觉的定位方法,具体包括:利用图像特征点和目标特征点之间的对应关系,根据摄像机模型,由获得的图像特征点坐标和世界坐标求解摄像机在世界坐标系中的位姿,从而求得定位信息,另外,还可以根据序列图像之间的关系,通过一系列已知变换,得出摄像机的三维位置信息。但该基于视觉的定位方法存在定位精度受图像质量影响较大的问题。
在实现本发明的过程中,发明人发现相关技术中至少存在以下问题:由于相关技术中给出的室内机器人的重定位方法存在定位准确度低、应用场景受限的技术问题,无法准确地确定出的机器人的当前位置信息和当前姿态信息,进而无法准确地对机器人进行自主导航。
发明内容
有鉴于此,本发明实施例的目的在于提供一种室内机器人的重定位方法,以提高机器人重定位的准确性,从而准确地对机器人进行自主导航。
第一方面,本发明实施例提供了一种室内机器人的重定位方法,该方法包括:
控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;
根据所述激光点云数据判断室内机器人在当前环境地图中是否丢失;
若是,则根据所述激光点云数据进行激光重定位、以及根据所述视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;
当确定出存在候选区域时,对所述室内机器人进行姿态优化,确定所述室内机器人的当前位置信息和当前姿态信息;
当确定出不存在候选区域时,根据所述激光点云数据控制所述室内机器人进行避障移动,直到确定出存在候选区域。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述根据所述激光点云数据判断室内机器人在当前环境地图中是否丢失,包括:
调取室内机器人当前位姿信息对应的激光点云数据;
验证采集到的所述激光点云数据与调取的所述激光点云数据的一致性;
若验证结果为不一致,则确定所述室内机器人在当前环境地图中已丢失。
结合第一方面的第一种可能的实施方式,本发明实施例提供了第一方面的第二种可能的实施方式,其中,所述验证采集到的所述激光点云数据与调取的所述激光点云数据的一致性,包括:
根据采集到的所述激光点云数据提取第一距离方向直方图;
根据调取的所述激光点云数据提取第二距离方向直方图;
对所述第一距离方向直方图和所述第二距离方向直方图进行直方图特征匹配,确定所述第一距离方向直方图与所述第二距离方向直方图之间的直方图相似度;
当所述直方图相似度小于第一预设阈值时,则确定验证结果为不一致。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,所述根据所述激光点云数据进行激光重定位、以及根据所述视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域,包括:
根据所述激光点云数据进行激光重定位,根据激光重定位结果确定是否存在第一候选区域;
根据所述视觉图像数据进行视觉重定位,根据视觉重定位结果确定是否存在第二候选区域;
当至少存在所述第一候选区域和所述第二候选区域中的一个时,确定存在候选区域。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第四种可能的实施方式,其中,根据所述激光点云数据进行激光重定位,根据激光重定位结果确定是否存在第一候选区域,包括:
对所述激光点云数据对应的距离方向直方图和所述当前环境地图对应的关键帧集合进行直方图特征匹配;
计算所述第一距离方向直方图分别与所述关键帧集合中各个关键帧的相似度;
将所述相似度大于第二预设阈值的关键帧作为第一候选区域。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第五种可能的实施方式,其中,根据所述视觉图像数据进行视觉重定位,根据视觉重定位结果确定是否存在第二候选区域,包括:
利用图像金字塔提取方法对所述视觉图像数据进行ORB特征提取;
利用视觉词袋模型对提取到的ORB特征和所述当前环境地图对应的关键帧集合进行场景匹配,计算所述ORB特征分别与所述关键帧集合中各个关键帧的场景相似度;
将场景相似度大于第三预设阈值的关键帧作为候选关键帧;
对所述ORB特征和确定出的所述候选关键帧进行ORB特征匹配,计算所述ORB特征与所述候选关键帧中各个关键帧的特征相似度;
将所述特征相似度大于第四预设阈值的关键帧作为第二候选区域。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第六种可能的实施方式,其中,对所述室内机器人进行姿态优化,确定所述室内机器人的当前位置信息和当前姿态信息,包括:
将所述第一候选区域和/或所述第二候选区域作为初始位姿信息估计值;
利用迭代最近点算法以所述初始位姿信息估计值作为起始值、以预设步长、以及预设旋转角开始,并缩小所述预设步长,直到缩小后的所述预设步长小于预设的步长阈值,对所述激光点云数据与所述当前环境地图进行特征匹配,得到多个特征匹配相似度;
将多个所述特征匹配相似度中最大值对应的位姿信息作为所述室内机器人的当前位置信息和当前姿态信息。
结合第一方面,本发明实施例提供了第一方面的第七种可能的实施方式,其中,根据所述激光点云数据控制所述室内机器人进行避障移动,包括:
根据所述激光点云数据确定障碍物与所述室内机器人距离最远的方向角度;
根据所述方向角度和公式distance>=R/cos(beta)控制所述室内机器人进行避障移动,其中,distance表示在角度beta下障碍物到激光传感器的距离,beta∈[alpha-π/2,alpha+π/2],R表示室内机器人底盘的半径。
第二方面,本发明实施例还提供了一种室内机器人的重定位装置,该装置包括:
数据采集模块,用于控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;
当前状态确定模块,用于根据所述激光点云数据判断室内机器人在当前环境地图中是否丢失;
重定位模块,用于当室内机器人在当前环境地图中丢失时,则根据所述激光点云数据进行激光重定位、以及根据所述视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;
姿态优化模块,用于当确定出存在候选区域时,对所述室内机器人进行姿态优化,确定所述室内机器人的当前位置信息和当前姿态信息;
避障移动模块,用于当确定出不存在候选区域时,根据所述激光点云数据控制所述室内机器人进行避障移动,直到确定出存在候选区域。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,所述当前状态确定模块包括:
激光数据调取单元,用于调取室内机器人当前位姿信息对应的激光点云数据;
一致性验证单元,用于验证采集到的所述激光点云数据与调取的所述激光点云数据的一致性;
当前状态确定单元,用于若验证结果为不一致,则确定所述室内机器人在当前环境地图中已丢失。
结合第二方面的第一种可能的实施方式,本发明实施例提供了第二方面的第二种可能的实施方式,其中,所述一致性验证单元包括:
第一直方图提取子单元,用于根据采集到的所述激光点云数据提取第一距离方向直方图;
第二直方图提取子单元,用于根据调取的所述激光点云数据提取第二距离方向直方图;
直方图相似度确定子单元,用于对所述第一距离方向直方图和所述第二距离方向直方图进行直方图特征匹配,确定所述第一距离方向直方图与所述第二距离方向直方图之间的直方图相似度;
验证结果确定子单元,用于当所述直方图相似度小于第一预设阈值时,则确定验证结果为不一致。
结合第二方面,本发明实施例提供了第二方面的第三种可能的实施方式,其中,所述重定位模块包括:
激光重定位单元,用于根据所述激光点云数据进行激光重定位,根据激光重定位结果确定是否存在第一候选区域;
视觉重定位单元,用于根据所述视觉图像数据进行视觉重定位,根据视觉重定位结果确定是否存在第二候选区域;
候选区域确定单元,用于当至少存在所述第一候选区域和所述第二候选区域中的一个时,确定存在候选区域。
结合第二方面的第三种可能的实施方式,本发明实施例提供了第二方面的第四种可能的实施方式,其中,所述激光重定位单元包括:
直方图特征匹配子单元,用于对所述激光点云数据对应的距离方向直方图和所述当前环境地图对应的关键帧集合进行直方图特征匹配;
相似度计算子单元,用于计算所述第一距离方向直方图分别与所述关键帧集合中各个关键帧的相似度;
第一候选区域确定子单元,用于将所述相似度大于第二预设阈值的关键帧作为第一候选区域。
结合第二方面的第三种可能的实施方式,本发明实施例提供了第二方面的第五种可能的实施方式,其中,所述视觉重定位单元包括:
ORB特征提取子单元,用于利用图像金字塔提取装置对所述视觉图像数据进行ORB特征提取;
场景相似度计算子单元,用于利用视觉词袋模型对提取到的ORB特征和所述当前环境地图对应的关键帧集合进行场景匹配,计算所述ORB特征分别与所述关键帧集合中各个关键帧的场景相似度;
候选关键帧确定子单元,用于将场景相似度大于第三预设阈值的关键帧作为候选关键帧;
特征相似度计算子单元,用于对所述ORB特征和确定出的所述候选关键帧进行ORB特征匹配,计算所述ORB特征与所述候选关键帧中各个关键帧的特征相似度;
第二候选区域确定子单元,用于将所述特征相似度大于第四预设阈值的关键帧作为第二候选区域。
结合第二方面的第三种可能的实施方式,本发明实施例提供了第二方面的第六种可能的实施方式,其中,所述姿态优化模块包括:
初始值确定单元,用于将所述第一候选区域和/或所述第二候选区域作为初始位姿信息估计值;
特征匹配相似度确定单元,用于利用迭代最近点算法以所述初始位姿信息估计值作为起始值、以预设步长、以及预设旋转角开始,并缩小所述预设步长,直到缩小后的所述预设步长小于预设的步长阈值,对所述激光点云数据与所述当前环境地图进行特征匹配,得到多个特征匹配相似度;
当前位姿信息确定单元,用于将多个所述特征匹配相似度中最大值对应的位姿信息作为所述室内机器人的当前位置信息和当前姿态信息。
结合第二方面,本发明实施例提供了第二方面的第七种可能的实施方式,其中,所述避障移动模块包括:
方向角度确定单元,用于根据所述激光点云数据确定障碍物与所述室内机器人距离最远的方向角度;
避障移动单元,用于根据所述方向角度和公式distance>=R/cos(beta)控制所述室内机器人进行避障移动,其中,distance表示在角度beta下障碍物到激光传感器的距离,beta∈[alpha-π/2,alpha+π/2],R表示室内机器人底盘的半径。
在本发明实施例提供的室内机器人的重定位方法及装置中,该方法包括:控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;根据激光点云数据判断机器人在当前环境地图中是否丢失;若是,则根据激光点云数据进行激光重定位、并根据视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;当存在候选区域时,对机器人进行姿态优化,确定机器人当前位置信息和当前姿态信息;当不存在候选区域时,根据激光点云数据控制机器人进行避障移动,直到确定出存在候选区域。本发明实施例采用激光传感器和视觉传感器相结合的方式对机器人进行重定位,提高了机器人重定位的准确性,从而准确地对机器人进行自主导航。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例所提供的一种室内机器人的重定位方法的流程示意图;
图2示出了本发明实施例所提供的一种室内机器人的重定位装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到由于相关技术中给出的室内机器人的重定位方法存在定位准确度低、应用场景受限的技术问题,无法准确地确定出的机器人的当前位置信息和当前姿态信息,进而无法准确地对机器人进行自主导航。基于此,本发明实施例提供了一种室内机器人的重定位方法及装置,下面通过实施例进行描述。
如图1所示,本发明实施例提供了一种室内机器人的重定位方法,该方法包括步骤S102-S110,具体如下:
步骤S102:控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;
步骤S104:根据上述激光点云数据判断室内机器人在当前环境地图中是否丢失;
步骤S106:若是,则根据上述激光点云数据进行激光重定位、以及根据上述视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;
步骤S108:当确定出存在候选区域时,对上述室内机器人进行姿态优化,确定上述室内机器人的当前位置信息和当前姿态信息;
步骤S110:当确定出不存在候选区域时,根据上述激光点云数据控制上述室内机器人进行避障移动,直到确定出存在候选区域。
其中,定位是指确定移动机器人在工作环境中相对于坐标的位置及该移动机器人的姿态,是移动机器人导航的基本环节,但移动机器人由于系统关闭或者断电后被人移动等异常情况,移动机器人再次启动后无法定位其所在地图位置和自身姿态,此时需要人为将移动机器人移动到初始位置重新启动系统获取初始位置和姿态后才能进行自主导航,因而,为了达到无需人员参与即可完成自主导航的目的,需要对该移动机器人进行重定位,确定该移动机器人的当前位置信息和当前姿态信息。在二维世界中,机器人的位姿通常使用三元组(x0,y0,θ)来表示,其中,(x0,y0)表示机器人在地图中位置信息,θ表示机器人的姿态信息(旋转分量),在本发明提供的实施例中,首先,根据获取的激光点云数据自动判断机器人在当前环境地图中是否丢失;然后,在丢失的情况下,结合激光传感器和视觉传感器进行机器人重定位,进而获取机器人当前所在地图中的位置信息(x0,y0)和姿态信息θ。
其中,由于考虑到激光传感器不受光照变化的影响,视觉定位方法在复杂环境性能表现优异,因而,采用基于视觉传感器和激光传感器相融合的室内机器人重定位技术方法,利用激光传感器采集的数据进行环境地图模型匹配来弥补视觉定位受关照变化影响的缺点,利用视觉重定位弥补环境地图模型匹配方法受复杂环境影响的不足。
在本发明提供的实施例中,采用激光传感器和视觉传感器相结合的方式对机器人进行重定位,提高了机器人重定位的准确性,从而准确地对机器人进行自主导航。
其中,上述根据上述激光点云数据判断室内机器人在当前环境地图中是否丢失,具体包括:
调取室内机器人当前位姿信息对应的激光点云数据;
验证采集到的上述激光点云数据与调取的上述激光点云数据的一致性;
若验证结果为不一致,则确定上述室内机器人在当前环境地图中已丢失。
具体的,上述验证采集到的上述激光点云数据与调取的上述激光点云数据的一致性,具体包括:
根据采集到的上述激光点云数据提取第一距离方向直方图;
根据调取的上述激光点云数据提取第二距离方向直方图;
对上述第一距离方向直方图和上述第二距离方向直方图进行直方图特征匹配,确定上述第一距离方向直方图与上述第二距离方向直方图之间的直方图相似度;
当上述直方图相似度小于第一预设阈值时,则确定验证结果为不一致。
其中,上述距离方向直方图的提取方法具体包括:
按照bin的预设数量将360度进行等分划分,得到包含预设数量bin的直方图;
按照障碍物点的采集角度对激光点云数据进行bin划分;
将各个bin对应的幅值累加至上述直方图对应的bin中,生成距离方向直方图。
具体的,判断当前机器人在所建环境地图中的状态信息,利用当前的激光数据和机器人获取位姿信息在该环境地图中所对应的数据进行一致性判断。将激光传感器采集的激光点云数据转化为距离方向直方图特征,进行直方图匹配,如果匹配得到的直方图相似度超过设定阈值threshold1,则确定当前机器人没有丢失,否则启动重定位功能。
具体的,距离方向直方图:360度线性激光采集的激光点云数据为激光传感器旋转一周获取到各个角度的障碍物到激光传感器的距离distance,将360度(2*PI)根据需要分割成若干个bin,例如:分割成12个bin,每个bin包含30度,整个直方图包含12维,即12个bin,然后,根据每个障碍物点的采集角度进行bin划分,其幅值累加到直方图中即生成了距离方向直方图。
其中,上述根据上述激光点云数据进行激光重定位、以及根据上述视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域,具体包括:
根据上述激光点云数据进行激光重定位,根据激光重定位结果确定是否存在第一候选区域;
根据上述视觉图像数据进行视觉重定位,根据视觉重定位结果确定是否存在第二候选区域;
当至少存在上述第一候选区域和上述第二候选区域中的一个时,确定存在候选区域。
具体的,根据上述激光点云数据进行激光重定位,根据激光重定位结果确定是否存在第一候选区域,具体包括:
对上述激光点云数据对应的距离方向直方图和上述当前环境地图对应的关键帧集合进行直方图特征匹配;
计算上述第一距离方向直方图分别与上述关键帧集合中各个关键帧的相似度;
将上述相似度大于第二预设阈值的关键帧作为第一候选区域。
具体的,利用当前的激光距离方向直方图特征与构建环境地图过程中的各个关键帧进行直方图匹配,如果超过设定阈值threshold2,则作为第一候选区域筛选出来,记作:CandiateLaser。
具体的,根据上述视觉图像数据进行视觉重定位,根据视觉重定位结果确定是否存在第二候选区域,具体包括:
利用图像金字塔提取方法对上述视觉图像数据进行ORB特征提取;
利用视觉词袋模型对提取到的ORB特征和上述当前环境地图对应的关键帧集合进行场景匹配,计算上述ORB特征分别与上述关键帧集合中各个关键帧的场景相似度;
将场景相似度大于第三预设阈值的关键帧作为候选关键帧;
对上述ORB特征和确定出的上述候选关键帧进行ORB特征匹配,计算上述ORB特征与上述候选关键帧中各个关键帧的特征相似度;
将上述特征相似度大于第四预设阈值的关键帧作为第二候选区域。
具体的,ORB特征是目前最优秀的特征提取与匹配算法之一,对于旋转和光照变化有一定的容忍性,同时利用图像金字塔的提取方法,达到尺度不变形的效果。例如,考虑到在一个20m*20m的办公室场景,M=N=50cm,的情况下,需要采集19200张RGB关键帧,在这么大范围的数据集上进行ORB特征匹配,效率比较低。在本发明提供的实施例中,为了提高视觉重定位的效率,利用视觉词袋模型进行相似性区域判断,从而将相似度较高的关键帧作为候选关键帧,记做RelocCanditates,在RelocCanditates中进行ORB特征匹配极大的提高了重定位效率,如果匹配上则作为第二候选区域筛选出,记作:CandiateVision。
其中,视觉词袋模型来源于词袋模型,词袋模型最先应用于自然语言处理中。类比一篇文章有很多文字组合而成,如果将一张图片表示成由许多视觉单词组合而成,就能将在文本检索领域的技巧逆向文件索引的直接利用在图像检索中,以文字检索的效率,图像表示的“文字化”也有助于大规模图像检索系统的效率。
在本发明提供的实施例中,利用视觉词袋模型进行视觉重定位,在视觉匹配时利用视觉词典进行匹配加速,即先利用视觉词袋模型确定候选关键帧,再在确定出的候选关键帧中进行特征匹配的方式,从而提高视觉重定位的效率。
具体的,对上述室内机器人进行姿态优化,确定上述室内机器人的当前位置信息和当前姿态信息,包括:
将上述第一候选区域和/或上述第二候选区域作为初始位姿信息估计值;
利用迭代最近点算法以上述初始位姿信息估计值作为起始值、以预设步长、以及预设旋转角开始,并缩小上述预设步长,直到缩小后的上述预设步长小于预设的步长阈值,对上述激光点云数据与上述当前环境地图进行特征匹配,得到多个特征匹配相似度;
将多个上述特征匹配相似度中最大值对应的位姿信息作为上述室内机器人的当前位置信息和当前姿态信息。
其中,当确定出存在第一候选区域时,则将第一候选区域作为初始位姿信息估计值,同样的,当确定出存在第二候选区域时,则将第二候选区域作为初始位姿信息估计值,当确定出第一候选区域和第二候选区域同时存在时,则将第一候选区域和第二候选区域作为初始位姿信息估计值。
其中,将候选CandiateLaser和CandiateVision候选区域位姿作为初始位姿估计值,使用迭代最近点(ICP)算法将当前激光采集的激光点云数据精确配准到当前环境地图点云中,从而获得当前机器人在该环境地图中的准确位置信息和姿态信息。实验表明,这种方法对于物体位姿识别有很强的稳健性,能够准确地实现机器人位姿计算。
具体的,经过关键帧检索得到L个候选区域(该候选区域包括第一候选区域和/或第二候选区域),可以进一步进行更为精确的匹配,在本发明提供的实施例中采用改进的贪心算法,以候选区域为起始位置,步长StepLen(x,y)和旋转角stepRot开始进行激光点云数据和环境地图的匹配,并不断缩短步长,达到局部收敛,最终选择匹配相似度最大的位置作为重定位输出的位置。
具体的,根据上述激光点云数据控制上述室内机器人进行避障移动,包括:
根据上述激光点云数据确定障碍物与上述室内机器人距离最远的方向角度;
根据上述方向角度和公式distance>=R/cos(beta)控制上述室内机器人进行避障移动,其中,distance表示在角度beta下障碍物到激光传感器的距离,beta∈[alpha-π/2,alpha+π/2],R表示室内机器人底盘的半径。
具体的,机器人在当前点进行匹配时,考虑到可能存在机器人所在位置的特征信息不明显或者没有采集过关键帧的情况,因而,需要机器人自主移动到下一个区域进行重定位。此时机器人处于丢失状态,所以系统创建的环境地图已经无法指导机器人进行移动导航功能,为了保证机器人在移动过程中不碰撞障碍物,需要利用机器人当前采集的激光点云数据指导移动。基于激光数据找到障碍物距离机器人最远的方向alpha,考虑到机器人底盘的半径R,需要保证在机器人左右半径两侧无障碍物,其中,判断方法如下,在[alpha-π/2,alpha+π/2]范围内,激光采集的数据角度为beta∈[alpha-π/2,alpha+π/2],保证distance>=R/cos(beta),distance为在beta角度下障碍物到激光采集器的距离。
在本发明提供的实施例中,当确定出机器人丢失且未匹配到候选区域时,首先在保证机器人与障碍物不发生碰撞的情况下,控制机器人移动至下一个区域,然后重新对机器人进行重定位,从而提高重定位成功率。
进一步的,考虑到室内机器人可能进入一个新的环境中,因此需要构建当前环境地图,其中,构建当前环境地图的过程具体包括:
步骤a:获取机器人的运行记录;
步骤b:根据获取的运行记录判断机器人在当前环境下是否是第一次运行;
步骤c:若是,则根据激光传感器采集的激光点云数据构建环境地图模型;
步骤d:按照预设栅格大小进行关键帧采集,对采集后的栅格进行标记,并确定各个栅格的位置信息和姿态信息;
步骤e:对采集到的关键帧进行特征提取,得到关键帧集合,其中,所述关键帧集合中包含各个栅格的激光特征、视觉特征、位置信息和姿态信息。
另外,为了提高关键帧采集效率,上述步骤还包括:检测当前栅格是否有标记,若否,则执行步骤d,若是,则控制机器人移动至下一栅格。
具体的,在机器人到达新环境第一次启动时,需要进行室内环境的建图。在建图的过程中,定义按照的栅格大小进行关键帧采集,M、N分别表示栅格的长宽,单位为厘米,step为姿态角度采样间隔,针对激光关键帧采集step=2π,实时获取当前机器人的位置(x0,y0)和姿态信息θ,判断每个栅格是否已采集关键帧,若未采集则进行激光数据和RGB数据的关键帧采集并记录当前关键帧的位姿信息(x0,y0,θ),并将该栅格标记为1,再次来到该区域则不进行关键帧采集已节省存储空间。地图创建完成后,对采集的关键帧进行特征提取操作并保存到关键帧集合中,用KeyframeSet表示。
在本发明实施例提供的室内机器人的重定位方法中,采用激光传感器和视觉传感器相结合的方式对机器人进行重定位,提高了机器人重定位的准确性,从而准确地对机器人进行自主导航;进一步的,利用视觉词袋模型进行视觉重定位,在视觉匹配时利用视觉词典进行匹配加速,即先利用视觉词袋模型确定候选关键帧,再在确定出的候选关键帧中进行特征匹配的方式,从而提高视觉重定位的效率;更进一步的,当确定出机器人丢失且未匹配到候选区域时,首先在保证机器人与障碍物不发生碰撞的情况下,控制机器人移动至下一个区域,然后重新对机器人进行重定位,从而提高重定位成功率。
本发明实施例还提供一种室内机器人的重定位装置,如图2所示,该装置包括:
数据采集模块202,用于控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;
当前状态确定模块204,用于根据上述激光点云数据判断室内机器人在当前环境地图中是否丢失;
重定位模块206,用于当室内机器人在当前环境地图中丢失时,则根据上述激光点云数据进行激光重定位、以及根据上述视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;
姿态优化模块208,用于当确定出存在候选区域时,对上述室内机器人进行姿态优化,确定上述室内机器人的当前位置信息和当前姿态信息;
避障移动模块210,用于当确定出不存在候选区域时,根据上述激光点云数据控制上述室内机器人进行避障移动,直到确定出存在候选区域。
在本发明提供的实施例中,采用激光传感器和视觉传感器相结合的方式对机器人进行重定位,提高了机器人重定位的准确性,从而准确地对机器人进行自主导航。
进一步的,上述当前状态确定模块204包括:
激光数据调取单元,用于调取室内机器人当前位姿信息对应的激光点云数据;
一致性验证单元,用于验证采集到的上述激光点云数据与调取的上述激光点云数据的一致性;
当前状态确定单元,用于若验证结果为不一致,则确定上述室内机器人在当前环境地图中已丢失。
进一步的,上述一致性验证单元包括:
第一直方图提取子单元,用于根据采集到的上述激光点云数据提取第一距离方向直方图;
第二直方图提取子单元,用于根据调取的上述激光点云数据提取第二距离方向直方图;
直方图相似度确定子单元,用于对上述第一距离方向直方图和上述第二距离方向直方图进行直方图特征匹配,确定上述第一距离方向直方图与上述第二距离方向直方图之间的直方图相似度;
验证结果确定子单元,用于当上述直方图相似度小于第一预设阈值时,则确定验证结果为不一致。
进一步的,上述重定位模块206包括:
激光重定位单元,用于根据上述激光点云数据进行激光重定位,根据激光重定位结果确定是否存在第一候选区域;
视觉重定位单元,用于根据上述视觉图像数据进行视觉重定位,根据视觉重定位结果确定是否存在第二候选区域;
候选区域确定单元,用于当至少存在上述第一候选区域和上述第二候选区域中的一个时,确定存在候选区域。
进一步的,上述激光重定位单元包括:
直方图特征匹配子单元,用于对上述激光点云数据对应的距离方向直方图和上述当前环境地图对应的关键帧集合进行直方图特征匹配;
相似度计算子单元,用于计算上述第一距离方向直方图分别与上述关键帧集合中各个关键帧的相似度;
第一候选区域确定子单元,用于将上述相似度大于第二预设阈值的关键帧作为第一候选区域。
进一步的,上述视觉重定位单元包括:
ORB特征提取子单元,用于利用图像金字塔提取装置对上述视觉图像数据进行ORB特征提取;
场景相似度计算子单元,用于利用视觉词袋模型对提取到的ORB特征和上述当前环境地图对应的关键帧集合进行场景匹配,计算上述ORB特征分别与上述关键帧集合中各个关键帧的场景相似度;
候选关键帧确定子单元,用于将场景相似度大于第三预设阈值的关键帧作为候选关键帧;
特征相似度计算子单元,用于对上述ORB特征和确定出的上述候选关键帧进行ORB特征匹配,计算上述ORB特征与上述候选关键帧中各个关键帧的特征相似度;
第二候选区域确定子单元,用于将上述特征相似度大于第四预设阈值的关键帧作为第二候选区域。
进一步的,上述姿态优化模块208包括:
初始值确定单元,用于将上述第一候选区域和/或上述第二候选区域作为初始位姿信息估计值;
特征匹配相似度确定单元,用于利用迭代最近点算法以上述初始位姿信息估计值作为起始值、以预设步长、以及预设旋转角开始,并缩小上述预设步长,直到缩小后的上述预设步长小于预设的步长阈值,对上述激光点云数据与上述当前环境地图进行特征匹配,得到多个特征匹配相似度;
当前位姿信息确定单元,用于将多个上述特征匹配相似度中最大值对应的位姿信息作为上述室内机器人的当前位置信息和当前姿态信息。
进一步的,上述避障移动模块210包括:
方向角度确定单元,用于根据上述激光点云数据确定障碍物与上述室内机器人距离最远的方向角度;
避障移动单元,用于根据上述方向角度和公式distance>=R/cos(beta)控制上述室内机器人进行避障移动,其中,distance表示在角度beta下障碍物到激光传感器的距离,beta∈[alpha-π/2,alpha+π/2],R表示室内机器人底盘的半径。
在本发明实施例提供的室内机器人的重定位装置中,采用激光传感器和视觉传感器相结合的方式对机器人进行重定位,提高了机器人重定位的准确性,从而准确地对机器人进行自主导航;进一步的,利用视觉词袋模型进行视觉重定位,在视觉匹配时利用视觉词典进行匹配加速,即先利用视觉词袋模型确定候选关键帧,再在确定出的候选关键帧中进行特征匹配的方式,从而提高视觉重定位的效率;更进一步的,当确定出机器人丢失且未匹配到候选区域时,首先在保证机器人与障碍物不发生碰撞的情况下,控制机器人移动至下一个区域,然后重新对机器人进行重定位,从而提高重定位成功率。
本发明实施例所提供的室内机器人的重定位装置可以为设备上的特定硬件或者安装于设备上的软件或固件等。本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的系统、装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (12)
1.一种室内机器人的重定位方法,其特征在于,所述方法包括:
控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;
根据采集到的激光点云数据判断室内机器人在当前环境地图中是否丢失;
若是,则根据所述采集到的激光点云数据进行激光重定位、以及根据所述视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;
当确定出存在候选区域时,对所述室内机器人进行姿态优化,确定所述室内机器人的当前位置信息和当前姿态信息;
当确定出不存在候选区域时,根据所述采集到的激光点云数据控制所述室内机器人进行避障移动,直到确定出存在候选区域;
所述根据所述采集到的激光点云数据进行激光重定位、以及根据所述视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域,包括:
根据所述采集到的激光点云数据进行激光重定位,根据激光重定位结果确定是否存在第一候选区域;
根据所述视觉图像数据进行视觉重定位,根据视觉重定位结果确定是否存在第二候选区域;
当至少存在所述第一候选区域和所述第二候选区域中的一个时,确定存在候选区域;
对所述室内机器人进行姿态优化,确定所述室内机器人的当前位置信息和当前姿态信息,包括:
将所述第一候选区域和/或所述第二候选区域作为初始位姿信息估计值;
利用迭代最近点算法以所述初始位姿信息估计值作为起始值,以预设步长、以及预设旋转角开始,对所述采集到的激光点云数据与所述当前环境地图进行特征匹配,并缩小所述预设步长,直到缩小后的所述预设步长小于预设的步长阈值,得到多个特征匹配相似度;
将多个所述特征匹配相似度中最大值对应的位姿信息作为所述室内机器人的当前位置信息和当前姿态信息。
2.根据权利要求1所述的方法,其特征在于,所述根据采集到的激光点云数据判断室内机器人在当前环境地图中是否丢失,包括:
调取室内机器人当前位姿信息对应的激光点云数据;
验证所述采集到的激光点云数据与调取的激光点云数据的一致性;
若验证结果为不一致,则确定所述室内机器人在当前环境地图中已丢失。
3.根据权利要求2所述的方法,其特征在于,所述验证所述采集到的激光点云数据与调取的激光点云数据的一致性,包括:
根据所述采集到的激光点云数据提取第一距离方向直方图;
根据所述调取的激光点云数据提取第二距离方向直方图;
对所述第一距离方向直方图和所述第二距离方向直方图进行直方图特征匹配,确定所述第一距离方向直方图与所述第二距离方向直方图之间的直方图相似度;
当所述直方图相似度小于第一预设阈值时,则确定验证结果为不一致。
4.根据权利要求3所述的方法,其特征在于,根据所述采集到的激光点云数据进行激光重定位,根据激光重定位结果确定是否存在第一候选区域,包括:
对所述采集到的激光点云数据对应的第一距离方向直方图和所述当前环境地图对应的关键帧集合进行直方图特征匹配;
计算所述第一距离方向直方图分别与所述关键帧集合中各个关键帧的相似度;
将所述相似度大于第二预设阈值的关键帧作为第一候选区域。
5.根据权利要求4所述的方法,其特征在于,根据所述视觉图像数据进行视觉重定位,根据视觉重定位结果确定是否存在第二候选区域,包括:
利用图像金字塔提取方法对所述视觉图像数据进行ORB特征提取;
利用视觉词袋模型对提取到的ORB特征和所述当前环境地图对应的关键帧集合进行场景匹配,计算所述ORB特征分别与所述关键帧集合中各个关键帧的场景相似度;
将场景相似度大于第三预设阈值的关键帧作为候选关键帧;
对所述ORB特征和确定出的所述候选关键帧进行ORB特征匹配,计算所述ORB特征与所述候选关键帧中各个关键帧的特征相似度;
将所述特征相似度大于第四预设阈值的关键帧作为第二候选区域。
6.根据权利要求1所述的方法,其特征在于,根据所述采集到的激光点云数据控制所述室内机器人进行避障移动,包括:
根据所述采集到的激光点云数据确定障碍物与所述室内机器人距离最远的方向角度;
根据所述方向角度和公式distance>=R/cos(beta)控制所述室内机器人进行避障移动,其中,distance表示在角度beta下障碍物到激光传感器的距离,beta∈[alpha-π/2,alpha+π/2],beta表示激光采集的数据角度,alpha表示所述方向角度,R表示室内机器人底盘的半径。
7.一种室内机器人的重定位装置,其特征在于,所述装置包括:
数据采集模块,用于控制视觉传感器采集视觉图像数据和控制激光传感器采集激光点云数据;
当前状态确定模块,用于根据采集到的激光点云数据判断室内机器人在当前环境地图中是否丢失;
重定位模块,用于当室内机器人在当前环境地图中丢失时,则根据所述采集到的激光点云数据进行激光重定位、以及根据所述视觉图像数据进行视觉重定位,根据激光重定位结果和视觉重定位结果确定是否存在候选区域;
姿态优化模块,用于当确定出存在候选区域时,对所述室内机器人进行姿态优化,确定所述室内机器人的当前位置信息和当前姿态信息;
避障移动模块,用于当确定出不存在候选区域时,根据所述采集到的激光点云数据控制所述室内机器人进行避障移动,直到确定出存在候选区域;
所述重定位模块包括:
激光重定位单元,用于根据所述采集到的激光点云数据进行激光重定位,根据激光重定位结果确定是否存在第一候选区域;
视觉重定位单元,用于根据所述视觉图像数据进行视觉重定位,根据视觉重定位结果确定是否存在第二候选区域;
候选区域确定单元,用于当至少存在所述第一候选区域和所述第二候选区域中的一个时,确定存在候选区域;
所述姿态优化模块包括:
初始值确定单元,用于将所述第一候选区域和/或所述第二候选区域作为初始位姿信息估计值;
特征匹配相似度确定单元,用于利用迭代最近点算法以所述初始位姿信息估计值作为起始值,以预设步长、以及预设旋转角开始,对所述采集到的激光点云数据与所述当前环境地图进行特征匹配,并缩小所述预设步长,直到缩小后的所述预设步长小于预设的步长阈值,得到多个特征匹配相似度;
当前位姿信息确定单元,用于将多个所述特征匹配相似度中最大值对应的位姿信息作为所述室内机器人的当前位置信息和当前姿态信息。
8.根据权利要求7所述的装置,其特征在于,所述当前状态确定模块包括:
激光数据调取单元,用于调取室内机器人当前位姿信息对应的激光点云数据;
一致性验证单元,用于验证所述采集到的激光点云数据与调取的激光点云数据的一致性;
当前状态确定单元,用于若验证结果为不一致,则确定所述室内机器人在当前环境地图中已丢失。
9.根据权利要求8所述的装置,其特征在于,所述一致性验证单元包括:
第一直方图提取子单元,用于根据所述采集到的激光点云数据提取第一距离方向直方图;
第二直方图提取子单元,用于根据调取的激光点云数据提取第二距离方向直方图;
直方图相似度确定子单元,用于对所述第一距离方向直方图和所述第二距离方向直方图进行直方图特征匹配,确定所述第一距离方向直方图与所述第二距离方向直方图之间的直方图相似度;
验证结果确定子单元,用于当所述直方图相似度小于第一预设阈值时,则确定验证结果为不一致。
10.根据权利要求9所述的装置,其特征在于,所述激光重定位单元包括:
直方图特征匹配子单元,用于对所述采集到的激光点云数据对应的第一距离方向直方图和所述当前环境地图对应的关键帧集合进行直方图特征匹配;
相似度计算子单元,用于计算所述第一距离方向直方图分别与所述关键帧集合中各个关键帧的相似度;
第一候选区域确定子单元,用于将所述相似度大于第二预设阈值的关键帧作为第一候选区域。
11.根据权利要求10所述的装置,其特征在于,所述视觉重定位单元包括:
ORB特征提取子单元,用于利用图像金字塔提取装置对所述视觉图像数据进行ORB特征提取;
场景相似度计算子单元,用于利用视觉词袋模型对提取到的ORB特征和所述当前环境地图对应的关键帧集合进行场景匹配,计算所述ORB特征分别与所述关键帧集合中各个关键帧的场景相似度;
候选关键帧确定子单元,用于将场景相似度大于第三预设阈值的关键帧作为候选关键帧;
特征相似度计算子单元,用于对所述ORB特征和确定出的所述候选关键帧进行ORB特征匹配,计算所述ORB特征与所述候选关键帧中各个关键帧的特征相似度;
第二候选区域确定子单元,用于将所述特征相似度大于第四预设阈值的关键帧作为第二候选区域。
12.根据权利要求7所述的装置,其特征在于,所述避障移动模块包括:
方向角度确定单元,用于根据所述采集到的激光点云数据确定障碍物与所述室内机器人距离最远的方向角度;
避障移动单元,用于根据所述方向角度和公式dis tan ce>=R/cos(beta)控制所述室内机器人进行避障移动,其中,distance表示在角度beta下障碍物到激光传感器的距离,beta∈[alpha-π/2,alpha+π/2],beta表示激光采集的数据角度,alpha表示所述方向角度,R表示室内机器人底盘的半径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610738132.3A CN106092104B (zh) | 2016-08-26 | 2016-08-26 | 一种室内机器人的重定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610738132.3A CN106092104B (zh) | 2016-08-26 | 2016-08-26 | 一种室内机器人的重定位方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106092104A CN106092104A (zh) | 2016-11-09 |
CN106092104B true CN106092104B (zh) | 2019-03-15 |
Family
ID=57226018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610738132.3A Expired - Fee Related CN106092104B (zh) | 2016-08-26 | 2016-08-26 | 一种室内机器人的重定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106092104B (zh) |
Families Citing this family (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256543A (zh) * | 2016-12-29 | 2018-07-06 | 纳恩博(北京)科技有限公司 | 一种定位方法及电子设备 |
CN106840166B (zh) * | 2017-02-15 | 2020-07-10 | 北京大学深圳研究生院 | 一种基于词袋树群模型的机器人定位和导航方法 |
CN108571967B (zh) * | 2017-03-13 | 2020-06-26 | 深圳市朗驰欣创科技股份有限公司 | 一种定位方法和装置 |
CN108801254B (zh) * | 2017-05-02 | 2024-06-07 | 北京米文动力科技有限公司 | 一种重定位方法及机器人 |
CN107204014B (zh) | 2017-05-24 | 2019-06-07 | 京东方科技集团股份有限公司 | 智能终端设备的定位方法、装置和智能终端设备 |
CN109492656B (zh) * | 2017-09-11 | 2022-04-29 | 阿波罗智能技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN109506641A (zh) * | 2017-09-14 | 2019-03-22 | 深圳乐动机器人有限公司 | 移动机器人的位姿丢失检测与重定位系统及机器人 |
CN107677279B (zh) * | 2017-09-26 | 2020-04-24 | 上海思岚科技有限公司 | 一种定位建图的方法及系统 |
CN107843261B (zh) * | 2017-10-31 | 2021-07-20 | 国网黑龙江省电力有限公司检修公司 | 一种基于激光扫描数据定位机器人位置的方法和系统 |
CN107808395B (zh) * | 2017-10-31 | 2020-12-04 | 南京维睛视空信息科技有限公司 | 一种基于slam的室内定位方法 |
CN107767450B (zh) * | 2017-10-31 | 2021-05-28 | 南京维睛视空信息科技有限公司 | 一种基于sparse-slam的实时建图方法 |
CN108053446A (zh) * | 2017-12-11 | 2018-05-18 | 北京奇虎科技有限公司 | 基于点云的定位方法、装置及电子设备 |
CN108053447A (zh) * | 2017-12-18 | 2018-05-18 | 纳恩博(北京)科技有限公司 | 基于图像的重定位方法、服务器及存储介质 |
CN109960254B (zh) * | 2017-12-25 | 2022-09-23 | 深圳市优必选科技有限公司 | 机器人及其路径规划方法 |
CN108225362A (zh) * | 2017-12-29 | 2018-06-29 | 驭势科技(北京)有限公司 | 智能驾驶车辆定位方法和系统、计算机存储介质和定位设备 |
CN108455228B (zh) * | 2017-12-29 | 2023-07-28 | 长春师范大学 | 轮胎自动装载系统 |
CN108256060B (zh) * | 2018-01-16 | 2021-02-09 | 广州视源电子科技股份有限公司 | 一种闭环检测方法、装置、终端及存储介质 |
CN108256574B (zh) * | 2018-01-16 | 2020-08-11 | 广东省智能制造研究所 | 机器人定位方法及装置 |
CN108334080B (zh) * | 2018-01-18 | 2021-01-05 | 大连理工大学 | 一种针对机器人导航的虚拟墙自动生成方法 |
CN108303096B (zh) * | 2018-02-12 | 2020-04-10 | 杭州蓝芯科技有限公司 | 一种视觉辅助激光定位系统及方法 |
CN108508891B (zh) * | 2018-03-19 | 2019-08-09 | 珠海市一微半导体有限公司 | 一种机器人重定位的方法 |
CN110319834B (zh) * | 2018-03-30 | 2021-04-23 | 深圳市神州云海智能科技有限公司 | 一种室内机器人定位的方法及机器人 |
CN108665541B (zh) | 2018-04-09 | 2019-06-07 | 北京三快在线科技有限公司 | 一种基于激光传感器的地图生成方法及装置和机器人 |
CN110555883B (zh) * | 2018-04-27 | 2022-07-22 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置及存储介质 |
CN108759844B (zh) * | 2018-06-07 | 2021-11-16 | 科沃斯商用机器人有限公司 | 机器人重定位与环境地图构建方法、机器人及存储介质 |
CN108801268B (zh) * | 2018-06-27 | 2021-03-05 | 广州视源电子科技股份有限公司 | 目标对象的定位方法、装置及机器人 |
CN110727265B (zh) * | 2018-06-28 | 2022-09-23 | 深圳市优必选科技有限公司 | 机器人重定位的方法、装置以及存储装置 |
WO2020000395A1 (en) * | 2018-06-29 | 2020-01-02 | Baidu.Com Times Technology (Beijing) Co., Ltd. | Systems and methods for robust self-relocalization in pre-built visual map |
CN109141393B (zh) * | 2018-07-02 | 2020-12-08 | 北京百度网讯科技有限公司 | 重定位方法、设备及存储介质 |
WO2020019115A1 (zh) * | 2018-07-23 | 2020-01-30 | 深圳前海达闼云端智能科技有限公司 | 融合建图方法、相关装置及计算机可读存储介质 |
CN110967703A (zh) * | 2018-09-27 | 2020-04-07 | 广东美的生活电器制造有限公司 | 使用激光雷达和摄像头的室内导航方法及室内导航装置 |
CN109141437B (zh) * | 2018-09-30 | 2021-11-26 | 中国科学院合肥物质科学研究院 | 一种机器人全局重定位方法 |
CN109431381B (zh) * | 2018-10-29 | 2022-06-07 | 北京石头创新科技有限公司 | 机器人的定位方法及装置、电子设备、存储介质 |
CN109725637B (zh) * | 2018-12-04 | 2021-10-15 | 广东嘉腾机器人自动化有限公司 | 一种agv防丢包调度方法、存储装置及agv交管系统 |
CN109579844B (zh) * | 2018-12-04 | 2023-11-21 | 电子科技大学 | 定位方法及系统 |
CN111307163B (zh) * | 2018-12-11 | 2022-07-22 | 北京地平线机器人技术研发有限公司 | 可移动设备的定位方法、定位装置及电子设备 |
CN111337010B (zh) | 2018-12-18 | 2022-05-03 | 北京地平线机器人技术研发有限公司 | 可移动设备的定位方法、定位装置及电子设备 |
CN111380510B (zh) * | 2018-12-29 | 2022-04-15 | 深圳市优必选科技有限公司 | 重定位方法及装置、机器人 |
CN111380532B (zh) * | 2018-12-29 | 2022-06-28 | 深圳市优必选科技有限公司 | 路径规划方法、装置、终端及计算机存储介质 |
CN111665826A (zh) * | 2019-03-06 | 2020-09-15 | 北京奇虎科技有限公司 | 基于激光雷达与单目相机的深度图获取方法及扫地机器人 |
CN111696157B (zh) * | 2019-03-12 | 2024-06-18 | 北京京东尚科信息技术有限公司 | 图像重定位的确定方法、系统、设备和存储介质 |
CN109993794A (zh) * | 2019-03-29 | 2019-07-09 | 北京猎户星空科技有限公司 | 一种机器人重定位方法、装置、控制设备和存储介质 |
CN110310333B (zh) * | 2019-06-27 | 2021-08-31 | Oppo广东移动通信有限公司 | 定位方法及电子设备、可读存储介质 |
CN112147637A (zh) * | 2019-06-28 | 2020-12-29 | 杭州海康机器人技术有限公司 | 一种机器人重定位方法和装置 |
CN112212871A (zh) * | 2019-07-10 | 2021-01-12 | 阿里巴巴集团控股有限公司 | 一种数据处理方法、装置及机器人 |
CN110412987B (zh) * | 2019-08-21 | 2022-08-16 | 深圳市锐曼智能装备有限公司 | 双激光定位导航方法及机器人 |
CN110686676A (zh) * | 2019-09-12 | 2020-01-14 | 深圳市银星智能科技股份有限公司 | 机器人重定位方法、装置及机器人 |
CN113064410A (zh) * | 2019-12-30 | 2021-07-02 | 北京极智嘉科技股份有限公司 | 机器人、定位方法、电子设备及存储介质 |
CN111123279B (zh) * | 2019-12-31 | 2022-05-27 | 芜湖哈特机器人产业技术研究院有限公司 | 一种融合nd和icp匹配的移动机器人重定位方法 |
CN113137968B (zh) * | 2020-01-16 | 2023-03-14 | 浙江舜宇智能光学技术有限公司 | 基于多传感器融合的重定位方法、重定位装置和电子设备 |
CN111239763A (zh) * | 2020-03-06 | 2020-06-05 | 广州视源电子科技股份有限公司 | 对象的定位方法、装置、存储介质和处理器 |
CN113552586B (zh) * | 2020-04-08 | 2024-04-05 | 杭州萤石软件有限公司 | 一种移动机器人的定位方法和移动机器人 |
CN111337022B (zh) * | 2020-04-10 | 2022-01-21 | 深圳市银星智能科技股份有限公司 | 一种目标障碍物的检测方法、装置和机器人 |
CN113589306B (zh) * | 2020-04-30 | 2023-04-11 | 北京猎户星空科技有限公司 | 定位方法、装置、电子设备及存储介质 |
CN111708047B (zh) * | 2020-06-16 | 2023-02-28 | 浙江华睿科技股份有限公司 | 机器人定位评估方法、机器人及计算机存储介质 |
CN111795701B (zh) * | 2020-07-09 | 2022-06-21 | 上海有个机器人有限公司 | 机器人远程恢复定位方法及装置 |
WO2022012229A1 (zh) * | 2020-07-15 | 2022-01-20 | 京东科技信息技术有限公司 | 机器人的重定位方法及装置、存储介质、电子设备 |
CN112269386B (zh) * | 2020-10-28 | 2024-04-02 | 深圳拓邦股份有限公司 | 对称环境重定位方法、装置及机器人 |
CN114443264B (zh) * | 2020-11-05 | 2023-06-09 | 珠海一微半导体股份有限公司 | 一种基于硬件加速的激光重定位系统及芯片 |
CN112596064B (zh) * | 2020-11-30 | 2024-03-08 | 中科院软件研究所南京软件技术研究院 | 激光与视觉融合的一体化室内机器人全局定位方法 |
CN112488007B (zh) * | 2020-12-04 | 2023-10-13 | 深圳市优必选科技股份有限公司 | 视觉定位方法、装置、机器人及存储介质 |
CN112710299B (zh) * | 2020-12-04 | 2024-05-17 | 深圳市优必选科技股份有限公司 | 一种重定位方法、装置、终端设备及存储介质 |
CN112461230B (zh) * | 2020-12-07 | 2023-05-09 | 优必康(青岛)科技有限公司 | 机器人重定位方法、装置、机器人和可读存储介质 |
CN112797976A (zh) * | 2021-01-18 | 2021-05-14 | 上海钛米机器人股份有限公司 | 定位检测方法、装置、计算机设备以及可读存储介质 |
CN112904908A (zh) * | 2021-01-20 | 2021-06-04 | 济南浪潮高新科技投资发展有限公司 | 基于自动驾驶技术的空气加湿系统及实现方法 |
CN113095227B (zh) * | 2021-04-13 | 2023-11-07 | 京东科技信息技术有限公司 | 一种机器人定位方法、装置、电子设备及存储介质 |
CN113204030B (zh) * | 2021-04-13 | 2024-06-14 | 珠海一微半导体股份有限公司 | 一种多点带约束重定位的方法、芯片和机器人 |
CN113268697A (zh) * | 2021-06-17 | 2021-08-17 | 长沙海格北斗信息技术有限公司 | 基于Go-ICP的室外机器人重定位方法 |
CN113359769B (zh) * | 2021-07-06 | 2022-08-09 | 广东省科学院智能制造研究所 | 室内自主移动机器人复合导航方法及装置 |
CN114012725B (zh) * | 2021-11-05 | 2023-08-08 | 深圳拓邦股份有限公司 | 机器人重定位方法、系统、机器人及存储介质 |
CN114782528A (zh) * | 2022-03-15 | 2022-07-22 | 美的集团(上海)有限公司 | 机器人的定位初始化方法、电子设备及计算机存储介质 |
CN115185278A (zh) * | 2022-07-15 | 2022-10-14 | 广州高新兴机器人有限公司 | 巡逻机器人的重定位方法、装置、介质及设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015017691A1 (en) * | 2013-08-02 | 2015-02-05 | Irobot Corporation | Time-dependent navigation of telepresence robots |
CN104898658A (zh) * | 2014-03-06 | 2015-09-09 | 丰田自动车株式会社 | 自主移动机器人及其控制方法 |
CN104931057A (zh) * | 2015-07-02 | 2015-09-23 | 深圳乐行天下科技有限公司 | 一种机器人的任意位置定位方法、装置及系统 |
CN105258702A (zh) * | 2015-10-06 | 2016-01-20 | 深圳力子机器人有限公司 | 一种基于slam导航移动机器人的全局定位方法 |
CN105652871A (zh) * | 2016-02-19 | 2016-06-08 | 深圳杉川科技有限公司 | 移动机器人的重定位方法 |
CN105843223A (zh) * | 2016-03-23 | 2016-08-10 | 东南大学 | 一种基于空间词袋模型的移动机器人三维建图与避障方法 |
-
2016
- 2016-08-26 CN CN201610738132.3A patent/CN106092104B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015017691A1 (en) * | 2013-08-02 | 2015-02-05 | Irobot Corporation | Time-dependent navigation of telepresence robots |
CN104898658A (zh) * | 2014-03-06 | 2015-09-09 | 丰田自动车株式会社 | 自主移动机器人及其控制方法 |
CN104931057A (zh) * | 2015-07-02 | 2015-09-23 | 深圳乐行天下科技有限公司 | 一种机器人的任意位置定位方法、装置及系统 |
CN105258702A (zh) * | 2015-10-06 | 2016-01-20 | 深圳力子机器人有限公司 | 一种基于slam导航移动机器人的全局定位方法 |
CN105652871A (zh) * | 2016-02-19 | 2016-06-08 | 深圳杉川科技有限公司 | 移动机器人的重定位方法 |
CN105843223A (zh) * | 2016-03-23 | 2016-08-10 | 东南大学 | 一种基于空间词袋模型的移动机器人三维建图与避障方法 |
Non-Patent Citations (4)
Title |
---|
"Mobile robot localization and object pose estimation using optical encoder, vision and laser sensors";Haoxiang Lang 等,;《Proceedings of the IEEE International Conference on Automation and Logistics, Qingdao, China》;20080930;617-622页 |
"助行机器人定位关键技术研究";朱笑笑,;《万方学位论文》;20150730;56-77页 |
"基于激光与单目视觉融合的机器人室内定位与制图研究";梁潇,;《中国优秀硕士论文全文数据库 信息科技辑》;20160415(第04期);8-28页 |
"基于视点特征直方图的激光点云模型的位姿估计";张彪 等,;《光电子·激光》;20130731;第24卷(第7期);1357-1362页 |
Also Published As
Publication number | Publication date |
---|---|
CN106092104A (zh) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106092104B (zh) | 一种室内机器人的重定位方法及装置 | |
CN109506658B (zh) | 机器人自主定位方法和系统 | |
CN105843223B (zh) | 一种基于空间词袋模型的移动机器人三维建图与避障方法 | |
CN111486855B (zh) | 一种具有物体导航点的室内二维语义栅格地图构建方法 | |
JP6896077B2 (ja) | 車両自動パーキングシステム及び方法 | |
CN106940186B (zh) | 一种机器人自主定位与导航方法及系统 | |
CN111199564B (zh) | 智能移动终端的室内定位方法、装置与电子设备 | |
CN107665506B (zh) | 实现增强现实的方法及系统 | |
Tapus et al. | Incremental robot mapping with fingerprints of places | |
CN108051002A (zh) | 基于惯性测量辅助视觉的运输车空间定位方法及系统 | |
CN108682027A (zh) | 基于点、线特征融合的vSLAM实现方法及系统 | |
CN110874100A (zh) | 用于使用视觉稀疏地图进行自主导航的系统和方法 | |
CN109887053A (zh) | 一种slam地图拼接方法及系统 | |
CN109084732A (zh) | 定位与导航方法、装置及处理设备 | |
CN107741234A (zh) | 一种基于视觉的离线地图构建及定位方法 | |
CN112634451A (zh) | 一种融合多传感器的室外大场景三维建图方法 | |
Ragot et al. | Benchmark of visual slam algorithms: Orb-slam2 vs rtab-map | |
CN111652934A (zh) | 定位方法及地图构建方法、装置、设备、存储介质 | |
CN108700890A (zh) | 无人机返航控制方法、无人机和机器可读存储介质 | |
CN108801268A (zh) | 目标对象的定位方法、装置及机器人 | |
WO2020000395A1 (en) | Systems and methods for robust self-relocalization in pre-built visual map | |
CN107665508B (zh) | 实现增强现实的方法及系统 | |
Jebari et al. | Multi-sensor semantic mapping and exploration of indoor environments | |
CN104281840A (zh) | 一种基于智能终端定位识别建筑物的方法及装置 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190315 |