CN105928505A - 移动机器人的位姿确定方法和设备 - Google Patents
移动机器人的位姿确定方法和设备 Download PDFInfo
- Publication number
- CN105928505A CN105928505A CN201610244325.3A CN201610244325A CN105928505A CN 105928505 A CN105928505 A CN 105928505A CN 201610244325 A CN201610244325 A CN 201610244325A CN 105928505 A CN105928505 A CN 105928505A
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- pose
- reference substance
- image
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000005516 engineering process Methods 0.000 claims abstract description 79
- 239000013558 reference substance Substances 0.000 claims description 173
- 238000012937 correction Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 8
- 241000208340 Araliaceae Species 0.000 claims description 4
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 4
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 235000008434 ginseng Nutrition 0.000 claims description 4
- 230000004807 localization Effects 0.000 abstract description 5
- 238000013507 mapping Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 28
- 238000004422 calculation algorithm Methods 0.000 description 26
- 238000010168 coupling process Methods 0.000 description 9
- 238000005859 coupling reaction Methods 0.000 description 9
- 230000008878 coupling Effects 0.000 description 8
- 230000001186 cumulative effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000010606 normalization Methods 0.000 description 7
- 230000004888 barrier function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000013011 mating Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009408 flooring Methods 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000007430 reference method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Manufacturing & Machinery (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明的实施方式涉及移动机器人的位姿确定方法和设备。该方法包括:使用激光扫描仪,利用即时定位与地图构建(SLAM)技术创建移动机器人在其中导航的环境的全局地图;在移动机器人上电时,使用激光扫描仪,利用即时定位与地图构建(SLAM)技术创建针对所述移动机器人的上电时刻的环境的局部地图;以及将局部地图在述全局地图中进行图像匹配,获取移动机器人在全局地图中的初始位姿。根据本发明的实施方式,可以获取移动机器人上电启动时在全局地图中的绝对位姿,实现移动机器人位姿初始化。进一步地,可以对确定的位姿进行校正。
Description
技术领域
本发明的实施方式涉及移动机器人导航中的位姿确定方法,特别是一种基于激光扫描仪的位姿初始化方法,以及位姿校正方法。
背景技术
目前所有导航策略无论是室外还是室内导航,都必须解决移动机器人上电启动时位姿初始化问题,初始位姿的准确性影响后续整个导航的准确性和稳定性。由于目前全球定位系统(GPS)的成熟,在室外可时刻获得基于地球坐标系的绝对位姿,故上电位姿初始化在室外已经得到很好解决。但在室内导航领域,目前仍不成熟。
惯性导航定位技术和激光导航定位技术是目前较为成熟的几种室内导航定位手段中的两种手段。惯性导航定位精度高,但是存在累计误差,上电初始时刻,需配合外部其他设备提供地图和初始位姿。基于激光扫描仪的即时定位与地图构建(SLAM)技术可在新环境下同时建图和定位,第一次创建地图时,初始位姿可为固定值或由其他设备提供,但是在完成创建地图后,上电初始时刻无法确定移动机器人在已有地图中的初始位姿。对于此类的导航定位技术,移动机器人上电初期精准的初始位姿定位是首要问题。
发明内容
有鉴于此,本发明实施方式的所要解决的技术问题之一是为移动机器人确定初始位姿,即移动机器人的位姿初始化。
根据本发明的一个方面,提供一种移动机器人的位姿初始化方法,所述移动机器人包括激光扫描仪。该方法可以包括:使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建所述移动机器人在其中导航的环境的全局地图;在所述移动机器人上电时,使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建针对所述移动机器人的上电时刻的环境的局部地图;以及将所述局部地图在所述全局地图中进行图像匹配,获取所述移动机器人在全局地图中的初始位姿。
进一步地,所述移动机器人还可以包括惯性导航传感器,所述方法还包括:在所述移动机器人的位姿发生改变时,利用所述惯性导航传感器计算所述移动机器人在所述全局地图中的第一位姿;使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建关于所述移动机器人的周围环境的局部地图;将所述局部地图在全局地图中进行图像匹配,获取所述移动机器人在所述全局地图中的第二位姿和与所述第二位姿对应的匹配可信度,其中所述第二位姿为图形匹配得出的所述移动机器人在所述全局地图中的最佳位姿;以及根据所述匹配可信度,确定所述移动机器人的位姿为所述第一位姿或者所述第二位姿。
进一步地,所述匹配可信度为使用所述激光扫描仪在所述局部地图中进行激光扫描获得的障碍轮廓在所述全局地图中的映射轮廓的坐标的像素和、并且对所述像素和进行归一化的结果。
进一步地,所述图像匹配可以采用SIFT算法或模板匹配算法。
进一步地,在创建所述全局地图和所述局部地图时可以都依赖于所述移动机器人所包括的电子指南针的航向角来确定移动机器人的初始位姿。
进一步地,所述方法还可以包括:在移动机器人位姿初始化或者位姿发生改变时,根据移动机器人室内定位技术估计移动机器人的当前位姿;访问参考物数据库,所述参考物数据库包括所述移动机器人配备的摄像头拍摄的、关于至少一个参考物中的每个参考物的一幅参考图像,以及与所述参考图像关联的、所述摄像头拍摄所述参考图像时所述移动机器人的相应真实位姿,并且从所述参考物数据库中选择一个真实位姿和相关联的参考图像,其中所述参考物是室内环境中的静止物体;将所述移动机器人导航至目标位姿,所述目标位姿的数值是根据移动机器人室内定位技术对于所选择的真实位姿的估计值;利用所述移动机器人配备的所述摄像头进行图像拍摄,获得拍摄图像;将所述拍摄图像中包括的参考物图像、即实际参考物图像与所选择的相关联的参考图像中包括的参考物图像、即数据库参考物图像进行对比;根据对比的结果来确定所述移动机器人室内定位技术产生的位姿误差;以及利用所确定的位姿误差对根据所述移动机器人室内定位技术所估计的移动机器人的位姿进行误差校正。
根据本发明的一个方面,提供一种移动机器人的位姿初始化设备,所述移动机器人包括激光扫描仪。该设备可以包括:全局地图创建装置,用于使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建所述移动机器人在其中导航的环境的全局地图;局部地图创建装置,用于在所述移动机器人上电时,使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建针对所述移动机器人的上电时刻的环境的局部地图;以及初始位姿获取装置,用于将所述局部地图在所述全局地图中进行图像匹配,获取所述移动机器人在全局地图中的初始位姿。
根据本发明的一个方面,提供一种在计算机可读存储介质中实现的计算机程序产品,所述计算机可读存储介质具有存储于其中的计算机可读程序代码部分,所述计算机可读程序代码部分被配置为执行根据前述的方法。
根据本发明实施方式的技术方案,可以获取移动机器人上电启动时在全局地图中的绝对位姿,实现移动机器人位姿初始化。可以做到机器人放在任意有效位置点,上电启动时均可确定其准确的初始位姿,即坐标和航向角。进一步可选地,能够及时发现移动机器人在室内导航过程中所产生的位姿误差,从而在必要时可以对该位姿误差进行校正。
从下文结合附图所做出的详细描述中,本发明的这些和其他优点和特征将变得更加明显,其中在整个下文描述的若干附图中,类似的元件将具有类似的编号。
附图说明
图1图示根据本发明的一个实施方式的移动机器人位姿初始化方法的流程图;
图2图示根据本发明一个实施例所创建的全局地图;
图3图示根据本发明一个实施例所创建的局部地图;
图4图示如图3所示的局部地图在如图2所示的全局地图中的匹配示意图;
图5图示根据本发明实施方式的一种模块匹配方法的示意图;
图6图示如图3所示的局部地图中的最小有效地图图像的示意图;
图7图示移动机器人所包括的激光扫描仪的一种可能布置的示意图;
图8图示移动机器人所包括的激光扫描仪的另一种可能布置的示意图;
图9图示根据本发明的一个实施方式的移动机器人位姿初始化设备的框图;
图10图示现有技术的室内定位和导航技术的方法的流程图;
图11图示了基于超宽带(UWB)的定位和导航技术的示意图;
图12图示根据本发明的实施方式的用于移动机器人定位的方法的流程图;
图13图示根据本发明的实施方式的用于移动机器人定位和导航的方法的流程图;
图14A、图14B和图14C图示实际参考物图像相对于数据库参考物图像所可能发生变化的示意图;
图15图示实际参考物图像与数据库参考物图像匹配的示意图;
图16图示了移动机器人拍摄画面中的数据库参考物图像和实际参考物图像的可能的偏差;
图17图示根据本发明的一个实施方式的移动机器人位姿确定方法的流程图;
图18图示根据本发明的一个实施方式的移动机器人位姿确定方法的流程图;
图19图示根据本发明实施方式的一种激光导航测量原理结构图;以及
图20图示根据本发明的一个实施方式的移动机器人位姿确定方法的流程图。
具体实施方式
下文将参考附图更完整地描述本公开内容,其中在附图中显示了本公开内容的实施方式。但是这些实施方式可以用许多不同形式来实现并且不应该被解释为限于本文所述的实施方式。相反地,提供这些实例以使得本公开内容将是透彻和完整的,并且将全面地向本领域的熟练技术人员表达本公开内容的范围。
参考图1,其图示了根据本发明的实施方式的移动机器人的位姿初始化方法100的流程图。移动机器人包括激光扫描仪。
在步骤S110,使用激光扫描仪,利用即时定位与地图构建(SLAM)技术(下文也称为激光SLAM技术)创建移动机器人在其中导航的环境的全局地图。移动机器人在导航环境中的位姿包括坐标和航向角,用(x,y,θ)来表示。
在一个未知环境(比如室内环境)下,采用激光SLAM技术对当前环境进行第一次建图,可以设定地图大小(地图大小应比实际的室内范围大)为2048*2048。建图时移动机器人的假定初始位姿比如可固定为(1024,1024,0)。可以自主地导航移动机器人使其走遍室内范围,也可以人工引导机器人走遍整个室内范围,创建全局地图。创建的地图可以为栅格地图,如图2所示,其示出了作为一个实施例的所创建的全局地图,其中障碍的像素值为0,无障碍的像素值为255,未观测到的像素值为127。可以将创建好的地图进行保存在移动机器人的存储器中,或者移动机器人外部的存储设备中、在后续的步骤中移动机器人可以与该外部存储设备中进行无线或有线通信来获取所保存的全局地图。
在建立了上述地图的情况下,则此后移动机器人的定位、导航、路径规划等均可以以此地图为全局地图,定位点以此图的坐标为绝对位姿。
在步骤S120,在移动机器人上电时,使用激光扫描仪,利用即时定位与地图构建(SLAM)技术创建针对移动机器人的上电时刻的环境的局部地图。
在移动机器人上电重新启动时,可以设置移动机器人的假定初始位姿为(1024,1024,0),开启激光SLAM建图功能,使得移动机器人在原位置自行旋转一周,形成较大的、详细的、360度的局部地图,如图3所示,其示出了作为一个实施例的所创建的局部地图。由于上电时刻移动机器人位姿可能为任意值,故匹配时需考虑360度范围的航向角情况下在地图中的位置。应当理解,要创建360度的局部地图,需要的移动机器人旋转的角度和移动机器人上布置的激光扫描仪数量以及激光扫描仪视野范围有关。
在步骤S130,将局部地图在全局地图中进行图像匹配,获取移动机器人在全局地图中的初始位姿。可以将移动机器人上电重新启动时所创建的360度的局部地图与全局地图采用图像处理方法进行图像匹配,得到其在全局地图中的位置和方向,如图4所示,其示出了如图3所示的局部地图在如图2所示的全局地图中的匹配示意图。从而,根据图像匹配的结果,可以获取移动机器人的在全局地图中的初始位姿,其为绝对位姿。
激光SLAM所创建的地图可以为二维栅格灰度图像,可如图2、图3所示,地图存在复杂性、毛刺、粗糙、不工整等特点,尤其此类二维图像的特征点不是十分明显。同时在创建局部底部的初始时刻,激光所测局部距离信息点为离散的、局部性强、特征点残缺等特点,直接与原始的全局地图进行匹配易出现匹配错误或无法得到正确的匹配。进一步地,为了实现局部地图与全局地图的精准匹配,可以采用的具体图像匹配方式包括但不限于尺度不变特征转换(SIFT,Scale-invariant featuretransform)算法和模板匹配算法,还可以使用直方图匹配、形状匹配、蒙特卡洛等匹配算法。
SIFT算法是用于图像匹配的经典算法之一,用来侦测与描述影像中的局部性特征,它在空间尺度中寻找极值点,并提取出其位置、尺度、旋转不变量。此算法由David Lowe在1999年所发表,2004年完善总结。根据本发明的实施方式,局部地图和全局地图采用完全相同的SLAM算法绘制而成,从图2、图3、图4可以看出,图2所示局部地图是图1所示的全局地图中的一部分,但是位置和朝向随机(由于全局地图是扫描仪的n次扫描结果相叠加的结果,而局部地图是1次扫描的结果,所以肉眼未必能够发现局部地图在全局地图中的位置和朝向,但计算机视觉算法SIFT可以实现)。故图像处理中SIFT算法非常适用于旋转、平移的两幅图像匹配,即本发明实施方式的场景。图3相对于图2进行SIFT特征提取、并进行匹配,得出旋转角度为θt、平移向量为(xt,yt)时为最佳匹配,如图4所示。由于两幅图建图时的移动机器人假定初始位姿设置为相同,比如均为(1024,1024,0),而其中图2作为绝对坐标系,图3中的假定初始位姿(1024,1024,0)实际为图2中当前位姿,经旋转与平移即可得到在图2中的绝对坐标。从而,获取移动机器人在图2的全局地图中的初始位姿POSE为:
POSE=(1024,1024,0)+(xt,yt,θt)
=(1024+xt,1024+yt,θt)。
模板匹配也是用于图像匹配的经典算法之一,用于判断数字图像的模板是否匹配,即模板与原图像进行比较,以确定在原图像中是否存在与该模板相同或相似的区域,若该区域存在,还可确定其位置,认为模板与原图像匹配。根据本发明的实施方式,局部地图和全局地图采用完全相同的SLAM算法绘制而成,从图2、图3、图4可以看出,图2所示局部地图是图1所示的全局地图中的一部分,但是位置和朝向随机。模板匹配常用的方法有平方差匹配法、相关匹配法、相关系数匹配法、归一化平方差法、归一化相关匹配法模板等等。
在一个实施例中,可以采用一种相关匹配法与归一化相关匹配法相结合,匹配相似度则为两幅图像的相关数值。相关数值越大,则越相似。匹配原理示意图如图5所示。图5从左到右依次图示了将局部地图旋转n度,找出最小有效地图,获取偏移坐标(x_offset_n,y_offset_n);提取最小有效地图,作为模板;获得最佳匹配位置(local_x_n,local_y_n)。参考图5,一种示例性匹配算法的具体步骤可以包括:1.提取图3中最小有效地图图像,如图6,即将图3进行裁剪后的地图作为模板;2.裁剪后的地图模板(图6)与原局部地图图像(图3)的水平偏移为(x_offset_1,y_offset_1)。3.采用归一化模板匹配算法,找到图2中与图6最佳匹配位置,获得在图2中图6左上角的坐标(local_x_1,local_y_1),同时获得最佳匹配位置的未归一化相似度result_1。4.将图3顺时针旋转一度,重复前述步骤1、步骤2、步骤3,直到遍历完360度为止。5.获得360个最佳匹配位置,即局部地图遍历360度,每一度均存在一个最佳匹配位置,提取有效地图的水平偏移为(x_offset_n,y_offset_n),对应的匹配位置的模板的左上角坐标为(local_x_n,local_y_n)和匹配相似度result_n,其中n表示旋转的角度。6.比较360个相似度result_n,找出其最大值(记为result_R)对应的水平偏移(x_offset_R,y_offset_R)和左上角坐标(local_x_R,local_y_R)。其中则R表明当航向角顺时针旋转R度为最佳匹配角度,从而获得最佳匹配位姿。7.图3中(1024,1024,0)位姿为上电初始位姿,则根据其在图2中的映射关系可以获取移动机器人在图2的全局地图中的初始位姿POSE为:
POSE=(1024,1024,0)-(x_offset_R,y_offset_R)+(0,0,R)+(local_x_R,local_y_R,0)
=(1024-x_offset_R+local_x_R,1024-y_)。
在获取了移动机器人在全局地图中的初始位姿后,便可利用惯性导航定位技术、激光导航定位技术或者其他适当的导航定位技术或它们的组合对移动机器人在已有全局地图中进行精确定位,实现自动导航功能。
在一个实施例中,移动机器人可包括2个激光雷达作为激光扫描仪,用于创建全局地图和360度局部地图。图7和图8图示移动机器人所包括的激光扫描仪的可能的布置的示意图。如图7所示,2个激光雷达分别安装在移动机器人的前方和后方,从而可直接观测正前方180度和正后方180度范围的距离信息。从而,在创建360局部地图时,无需移动机器人进行360度的旋转,只需旋转90度。如图8所示,2个激光雷达选用可视角为270度的激光雷达,分别被安装在移动机器人的前方左角和后方右角,分别可以观测正前方和左侧以及正后方和右侧。从而,可直接观测机器人周围360度范围距离信息,在创建360局部地图时,无需移动机器人进行旋转。
在一个实施例中,移动机器人可包括电子指南针用于全局地图和局部地图的创建。在未知环境下,采用激光SLAM技术对当前环境进行第一次建图,可以设定地图大小(地图大小应比实际的室内范围大)为2048*2048。建图时移动机器人的初始位置比如可固定为(1024,1024),可按照电子指南针的航向角θ0作为初始航向角,故初始位姿为(1024,1024,θ0)。人工引导走遍整个室内范围,创建的完整的栅格地图并保存。在移动机器人上电重新启动而创建局部地图时,也可以采用电子指南针航向角作为初始航向角。
由于每次建图都是以电子指南针航向角为移动机器人的初始航向角,但由于电子指南针自身误差,同时不同位置处可能受外界磁场变化也会引起一定误差,故上电重启时电子指南针的航向角不能直接作为局部地图中的初始航向角,但一定在电子指南针航向角附近处。设电子指南针最大误差为正负15度,则匹配时仅需考虑30度范围内航向角的地图匹配,大大提高匹配速度和准确率。将局部地图与全局地图采用图像处理方案进行图像匹配,得到当前在原始地图中的初始位姿(绝对位姿)。由于全局地图和局部地图的创建,都依靠电子指南针的航向角确定移动机器人的初始航向角,从而,在采用诸如SIFT和模板匹配两种算法进行地图匹配时,航向角可以约束在正负15度范围内进行匹配,因此可以极大地降低局部地图和全部地图匹配的复杂度。
图9示意性图示根据本发明实施方式的移动机器人的位姿初始化设备900的框图。设备900可以包括:全局地图创建装置910,用于使用激光扫描仪,利用即时定位与地图构建(SLAM)技术创建移动机器人在其中导航的环境的全局地图;局部地图创建装置920,用于在移动机器人上电时,使用激光扫描仪,利用即时定位与地图构建(SLAM)技术创建针对移动机器人的上电时刻的环境的局部地图;以及初始位姿获取装置930,用于将局部地图在全局地图中进行图像匹配,获取移动机器人的初始位姿。
应当理解,设备900中记载的各个装置与参考图1描述的方法100中的各个步骤相对应。由此,上文针对方法100描述的操作和特征同样适用于设备900及其中包含的装置,重复的内容在此不再赘述。
根据本发明的实施方式的移动机器人的位姿初始化方法和设备,可以获取移动机器人上电启动时在全局地图中的绝对位姿,实现移动机器人位姿初始化。可以做到无论机器人放在任意位置点,上电启动时均可确定其准确的初始位姿。
另一方面,随着移动机器人技术的快速发展和日趋成熟,移动机器人在家庭和公共场所等室内环境的应用也越来越广泛。基于移动机器人的各种服务和应用要求移动机器人能够实时了解自身的位姿信息,包括自身位置和航向,然后可以按照规划路径准确到达目的地完成指定任务。因此,室内定位是移动机器人领域的关键技术之一。
室内定位目前出现了各种技术,如超宽带技术、基于无线局为(WLAN)定位技术、激光测距定位技术、基于惯性导航的定位技术、基于里程计的定位技术等。而每种定位技术都存在各自的缺点和局限性,大多数方案采用多种定位技术的组合导航。但是由于每种定位技术所依赖的传感器本身精度限制和周围环境干扰,导致室内定位不可避免地存在位置和航向误差。
在进一步的实施方式中,可以进一步对移动机器人初始化后的位姿或者位姿发生改变后的位姿进行位姿误差校正。下面结合图10-图16来描述具体的误差校正过程。
图10图示了现有技术的室内定位和导航技术的方法1000的流程图。
步骤S1010,室内地图创建。室内地图的创建可以采用卷尺和激光测距仪等方法,测量墙壁的长度和厚度以及相对坐标原点的位置,基于直角坐标系建立室内地图数据库。
步骤S1020,路径规划。路径规划一般是指机器人在有障碍物的环境中,按照一定的评价标准,寻找一条从当前位置到目标位置的无碰撞路径。移动机器人导航引擎在得到目标位置与当前位置信息后,就需要根据地图,计算出最优的路径以及可能的备选路径,将移动机器人导航到目的地。常见的路径规划算法例如包括A*和Dijkstra算法。
步骤S1030,室内导航。移动机器人导航引擎使用所规划的路径将移动机器人导航到目标位置。
移动机器人导航引擎可以采用的定位和导航技术例如可以是基于超宽带(UWB)的定位和导航技术、基于惯性的定位和导航技术、基于无线局域网(WLAN)的定位和导航技术、激光测距定位和导航技术、基于视觉导航的定位和导航技术、基于超声波测距的定位和导航技术、或者它们中的一项或多项的结合。本领域技术人员应当能够理解这些定位和导航技术的基本原理和位姿误差产生的原因,然而考虑到本文的完整性,下面仅以超宽带(UWB)技术和惯性定位和导航技术为例做个简单说明。
超宽带可以测量基站和标签之间的距离信息。将标签安装到移动机器人上,当标签同时测量到三个及以上基站的距离信息时,采用三边测量法就可以计算出移动机器人的位置和航向。图11图示了基于超宽带(UWB)的定位和导航技术的示意图。如图11所示,具体计算步骤可以如下。
1)基站A、B、C的位置为已知,分别为(xa,ya)、(xb,yb)、(xc,yc),利用基站发射的超宽带信号测量的其距离标签T的距离分别为ra、rb和rc;
2)标签T的位置为(xt,yt)。则根据步骤1)的信息,可得出以下公式:
3)由步骤2)中公式,可计算出标签T的位置(xt,yt)为:
4)根据当前时刻标签T的位置(xt,yt)和上一时刻标签T的位置(xt0,yt0),可计算标签T的航向Ψ为:
可见,在超宽带室内定位中,引起位姿误差的因素有两个,一是UWB信号的传播效应,包括非视距传播效应、多径传播效应及远近效应等,二是由于当前时刻标签位置的计算依赖于前一时刻标签位置所带来的累积误差。
惯性定位和导航技术是通过陀螺仪、加速计、里程计等传感器来进行移动机器人的定位和导航。陀螺仪测量移动机器人的角速度,里程计测量移动机器人的移动距离,陀螺仪/里程计可以计算移动机器人的相对变化位置。具体步骤如下:
1)在室内布置多个超宽带基站,并记录基站在室内地图下的位置信息;
2)当组合导航未初始化位置和航向时,如果标签测量到的基站距离信息小于三个,则移动机器人自由行走,直到测量到的基站距离信息不少于三个;
3)当标签测量到三个及以上基站数据时,移动机器人根据标签和基站的距离信息计算移动机器人的位置和航向,完成组合导航的位置和航向初始化;
4)移动机器人根据当前时刻的位置和航向,基于陀螺仪的角速度数据和里程计的距离数据计算下一时刻的位置和航向;
5)当标签测量到三个及以上基站数据时,计算出移动机器人的位置和航向,并与步骤4)所得位置和航向按照设置的比例参数进行融合,并作为移动机器人的真实位置和航向;
6)当标签未测量到三个基站数据时,步骤4)所得位置和航向即为移动机器人的真实位置和航向。
可见,惯性定位和导航技术所使用的传感器的精度会产生即时误差,依赖于前一时刻位姿来计算当前时刻位姿会带来累积误差。
参考图12,其图示根据本发明的实施方式的用于移动机器人定位的方法300的流程图。方法300可以用于确定移动机器人室内定位方法的位姿误差,并且可选地,可以进行位姿误差校正。位姿(也称为定位)可以包括移动机器人的位置和航向,位姿误差可以包括位置误差和航向误差。应当理解,方法300可以结合在方法100的描述所提及的任何一种定位和导航技术而使用。
步骤S310,根据移动机器人室内定位技术估计移动机器人的当前位姿。
步骤S320,访问参考物数据库,所述参考物数据库包括移动机器人配备的摄像头拍摄的、关于至少一个参考物中的每个参考物的一幅或多幅参考图像,以及与所述参考图像关联的、所述摄像头拍摄参考图像时移动机器人的真实位姿,其中所述参考物是用来在其中定位移动机器人的环境中的静止物体,并且从所述参考物数据库中选择一个真实位姿和相关联的参考图像。
在一个实施例中,可以从参考物数据库中选择与所选择的当前位姿所需距离最短的真实位姿。在一个实施例中,可以从参考物数据库中选择从当前位姿导航到所需时间最短的真实位姿。在一个实施例中,可以选择在所需距离和所需时间两个方面较为折中的真实位姿。
步骤S330,将移动机器人导航至所选择的真实位姿,即目标位姿,所述目标位姿是根据所述移动机器人室内定位技术所估计出的。
步骤S340,利用移动机器人配备的摄像头进行图像拍摄,获得拍摄图像。应当注意,该拍摄图像中需要包括参考物图像,该参考物也出现在所选择的相关联的参考图像中;否则,表明移动机器人室内定位技术的累积误差过大了,使得参考物不能出现在移动机器人配备的摄像头的视野中了,至少应当在累积误差积累到出现这种情况之前进行误差校正。在一个实施例中,可以据出现这种情况来定义误差校正阈值。
步骤S350,将所述拍摄图像中包括的参考物图像(也称为实际参考物图像)与所选择的相关联的参考图像中包括的参考物图像(也称为数据库参考物图像)进行对比。对比可以包括形状和/或尺寸方面的对比。形状对比是指判断实际参考物图像相对于数据库参考物图像是否存在变形,比如向左倾斜、向右倾斜,这是由于拍摄时的摄像头的方向不同(表明机器人的航向不同)所引起的。尺寸对比是指判断实际参考物图像相对于数据库参考物图像在形状相同的前提下是否存在大小变化,比如尺寸偏小、尺寸偏大,这是由于拍摄时的摄像头距离参考物的距离不同所引起的。
步骤S360,根据对比的结果来确定移动机器人室内定位技术产生的位姿误差。
在可选的步骤S370,必要时,可以利用所确定的位姿误差对步骤S310中所估计的移动机器人的当前位姿进行误差校正。可以只在确定的位姿误差超过预设的阈值时,才执行此校正步骤。例如,该阈值可以是进行了预设次数的定位和导航,比如执行了3次惯性导航后执行一次位姿误差校正。
进一步地,在步骤S320之前,方法300还可以包括步骤S315,确定是否需要对步骤S310中所估计的移动机器人的当前位姿进行误差确定(未示出)。只有在估计当前位姿的误差可能超过误差阈值时,才执行步骤S320及后续进行,进行位姿误差确认。例如,该误差阈值可以是进行了预设次数的定位和导航,比如执行了3次惯性导航后执行一次位姿误差确定,还可以是航向误差超过了预设的航向误差阈值、和/或位置误差超过了预设的位置误差阈值;或者,该误差阈值可以依据所采用移动机器人室内定位技术而定;或者,该误差阈值可以依据定位所使用传感器的精度而定。
可选地,方法300还可以包括建立参考物数据库的步骤。应当理解,无需针对每次误差确定或者误差校正的方法300的流程都执行建立参考物数据库的步骤。预先建立的参考物数据库也可以为家庭内的不同的移动机器人所共用。可以将参考物数据库存储在移动机器人中,也可以将参考物数据库存储在移动机器人之外的服务器中,在步骤S320中,移动机器人需要与该服务器通信来获取从所述参考物数据库中选择的真实位姿和相关联的参考图像。
参考图13,其图示了根据本发明的实施方式的用于移动机器人定位和导航的方法400的流程图。方法400可以理解为是将图11所示的位姿误差确定和校正方法应用于图10所示的移动机器人定位和导航方法的一个具体实例。
步骤S402,室内地图创建。
步骤S404,建立参考物数据库,具体建立步骤可以如下进行。
1)可以选择固定在墙壁上的电灯开关、消防警钟、电视等作为参考物。所选参考物不局限于以上物体,所有固定在墙壁上的易识别物体和标记均在所述范围之内;或者,还例如可以是固定摆放的家具(比如电视、饮水机等)或者家具上的标记(比如Logo、电子家具的开关按键)等。
2)将移动机器人调整到处于参考物前方,开启摄像头拍摄参考物,存储参考物图像至参考物数据库,并用卷尺或激光测距仪等准确测量此时(进行拍摄时)移动机器人的位姿,包括位置Ptrue和航向Atrue,建立参考物图像与拍摄时的机器人位姿Ptrue和航向Atrue一一对应的参考物数据库记录。参考物数据库不局限某一个参考物,可建立多个参考物图像与拍摄位置和航向的数据库,且同一幅图像中可同时包含多个参考物。
3)以多个角度拍摄同一参考物,和/或以一个或多个角度拍摄不同的参考物,按照步骤2)建立参考物数据库。
步骤S410,根据移动机器人室内定位技术估计移动机器人的当前位姿。
步骤S420,访问参考物数据库,并且从所述参考物数据库中选择一个真实位姿和相关联的参考图像。
步骤S422,路径规划。比如,当监测到定位传感器出现故障、定位系统受到环境干扰等情况时,这可能会导致定位或定向误差超过阈值,移动机器人需要利用参考物进行定位和定向误差确定和修正。移动机器人可以根据当前位姿从参考物数据库中选择距离最近的参考物图像,并将所对应的拍摄位置和航向作为目标定向,根据室内地图计算出从当前位置到目标点的最佳路径,避开墙壁等各种障碍物,指导移动机器人按照规划路径行驶。
步骤S424,室内导航。移动机器人导航引擎使用步骤S422中所计算的路径将移动机器人导航到目标定向。
步骤S430,将移动机器人导航至所选择的真实位姿,即目标位姿,所述目标位姿是根据所述移动机器人室内定位技术所估计出的。
步骤S440,利用移动机器人配备的摄像头进行图像拍摄,获得拍摄图像。
移动机器人到达目的定向后,可以打开摄像头进行数据采集,将摄像画面作为图像存储。由于室内导航存在误差,移动机器人的位置和航向与预期存在差距,导致拍摄的实际参考物与数据库参考物相比,可能存在变形、尺寸偏小和尺寸偏大等问题。
步骤S450,将所述拍摄图像中包括的参考物图像(也称为实际参考物图像)与所选择的相关联的参考图像中包括的参考物图像(也称为数据库参考物图像)进行对比。图14A、图14B和图14C图示摄像头拍摄的实际参考物图像相对于数据库参考物图像所可能发生的变化的示意图,分别图示了实际参考物图像发生变形、尺寸偏大、尺寸偏小的情形。
步骤S460,根据对比的结果来确定移动机器人室内定位技术产生的位姿误差,具体可以包括步骤S4602和S4604。
在步骤S4602,根据对比的结果调整所述移动机器人的航向,使得移动机器人配备的摄像头所拍摄的图像中的参考物图像与所选择的相关联的参考图像中包括的参考物图像趋于一致。
根据摄像头采集的实际参考物图像和数据库参考物图像进行对比,分析两者的匹配情况,判断实际参考物的状态,包括变形、尺寸偏小和尺寸偏大三种。当移动机器人位置偏左、偏右或拍摄航向与数据库的移动人定向不一致时,会导致参考物变形;当移动机器人位置偏前或偏后时,会导致参考物尺寸偏大或偏小。
可以通过调整移动机器人的位置和航向,校正参考物的拍摄效果,实现参考物的拍摄效果与数据库参考物的某一个图像一致。
在步骤S4604,确定所述移动机器人所调整的位姿变化,即为所述移动机器人室内定位技术产生的当前位姿误差,包括位置误差Perr和航向误差Aerr。
步骤S470,利用所确定的位姿误差对步骤S410中所估计的移动机器人的当前位姿进行误差校正。在步骤S460中计算出位置误差Perr和航向误差Aerr后,可以对步骤S410中所估计的位姿,即位置P1和航向A1,进行校正,得到移动机器人的校正后的位姿,位置P1'和A1':
P1’=P1-Perr
A’1=A1-Aerr
在步骤S360和步骤S460中,可以有多种方式确定移动机器人室内定位技术产生的位姿误差。
在第一实施方式中,可以只采用参考物数据库中的参考物的一幅图像,通过调整移动机器人的位置和航向,使拍摄的实际参考物与数据库参考物达到最佳匹配度来进行误差确定,可以执行如下步骤。
步骤S1a,设置移动机器人导航引擎使得移动机器人左右移动的最小距离为d,左右旋转最小角度为θ,预先设定在进行位姿误差确定时要进行的移动次数为左右各为m,要进行的旋转次数左右各为n。移动机器人未进行调整前的位置为P0,航向为A0。
步骤S1b,在移动机器人的当前位姿(P0,A0),保持移动机器人位置不动,将航向依次向左旋转0*θ、1*θ、…、n*θ拍摄参考物,并相应计算实际参考物图像与数据库参考物图像的匹配度S0、S1、…、Sn。然后,向右旋转n*θ,回到航向A0。接着,将机器人的航向依次向右旋转1*θ、2*θ、…、n*θ拍摄参考物,并相应计算实际参考物图像与数据库参考物图像的匹配度Sn+1、Sn+2、…、S2n。然后,向左旋转n*θ,回到航向A0。则,该位姿(P0,A0)所拍摄的实际参考物图像与数据库参考物图像的最高匹配度为D0=MAX{S0,S1,…,S2n},记录该位置的最高匹配度D0、和与D0对应的左右旋转的航向Y0(Y0=j*θ,j属于{-n,…,n}中的某个值),其中j表示取得最高匹配度D0的航向左右旋转的次数。还同时记录移动机器人左右移动的距离L0(L0=i*d,i属于{-m,…,m}中的某个值)。其中i表示移动机器人相对于位姿(P0,A0)进行左右移动的次数,此时,由于移动机器人未进行左右移动,所以i=0。
步骤S1c,移动机器人依次向左移动1*d、2*d、…、m*d,并在每个位置执行步骤S1b,计算并记录相应的最高匹配度Di以及对应的左右移动距离和航向,从而,有{D1,L1,Y1},{D2,L2,Y2},…,{Dm,Lm,Ym}。
步骤S1d,移动机器人回到当前位姿(P0,A0)。然后,移动机器人依次向右移动1*d、2*d、…、m*d,并在每个位置执行步骤S1b,计算并记录相应的最高匹配度Di以及对应的左右移动距离和航向,从而,有{D-1,L-1,Y-1},{D-2,L-2,Y-2},…,{D-m,L-m,Y-m}。
步骤S1e,在不考虑尺寸问题的情况下,实际参考物图像与数据库参考物图像的最佳匹配度为D=MAX{D-m,…,D-1,D0,D1,…,Dm}。根据D所对应的左右移动距离L和左右旋转航向Y调整移动机器人,该状态下所拍摄的实际参考物图像与数据库参考物图像只存在尺寸不一致问题,不存在变形。
步骤S1f,若此时实际参考物图像与数据库参考物图像尺寸也相等,则参考物图像的特征匹配完成,如图15所示,其示出了实际参考物图像与数据库参考物图像尺寸刚好匹配的情形。记录移动机器人此时的位姿为(P1,A1),为室内定位系统的位置和航向输出。则此时,位置误差Perr=P1-Ptrue,航向误差Aerr=A1-Atrue,Ptrue和Atrue为与数据库参考物图像对应的参考物数据库中的移动机器人位姿,包括位置和航向。
若此时实际参考物图像比数据库参考物图像尺寸小,则调整移动机器人前进,直到两者尺寸相等,参考物特征匹配完成,如图15所示。记录移动机器人此时的位姿为(P1,A1),为室内定位系统的位置和航向输出。则此时,位置误差Perr=P1-Ptrue,航向误差Aerr=A1-Atrue,Ptrue和Atrue为与数据库参考物图像对应的参考物数据库中的移动机器人位姿,包括位置和航向。
若此时实际参考物图像比数据库参考物图像尺寸大,则调整移动机器人后退,直到两者尺寸相等,参考物特征匹配完成,如图15所示。记录移动机器人此时的位姿为(P1,A1),为室内定位系统的位置和航向输出。则此时,位置误差Perr=P1-Ptrue,航向误差Aerr=A1-Atrue,Ptrue和Atrue为与数据库参考物图像对应的参考物数据库中的移动机器人位姿,包括位置和航向。
在第一实施方式中,需多次调整移动机器人,比较耗时,且对移动机器人进行左右移动的调整比较麻烦。为此,在第二实施方式中,可采用数据库中一个参考物的多幅图像进行特征匹配,避免左右移动。
在第二实施方式中,参考物数据库包括一个参考物的多幅图像,该多幅图像包括移动机器人在一个拍摄位置拍摄的一幅图像、和在该位置左右各移动m次拍摄的2m幅图像。机器人每次能够左右移动的距离是确定的,例如为d。在第二实施方式中,采用数据库的多幅参考物图像进行匹配,通过调整移动机器人左右旋转(调整航向)和前后移动实现参考物特征匹配,使拍摄的实际参考物与数据库参考物达到最佳匹配度来进行误差确定,可以执行如下步骤。
步骤S2a,保持移动机器人位置不动,调整移动机器人左右旋转(依次改变航向角),使实际参考物图像与多幅数据库参考物图像中的某幅图像的匹配度最高,该状态下所拍摄的实际参考物图像与数据库参考物图像只存在尺寸不一致问题,不存在变形。
步骤S2b,当实际参考物图像与数据库参考物图像尺寸相等时,参考物特征匹配完成;当实际参考物图像尺寸比数据库参考物图像尺寸小时,调整移动机器人前进,直到两者尺寸相等,参考物特征匹配完成;当实际参考物图像尺寸比数据库参考物图像尺寸大时,调整移动机器人后退,直到两者尺寸相等,参考物特征匹配完成。在后两种情况下,将移动机器人移动到参考物数据库中的与最匹配的数据库参考物关联的移动机器人拍摄该图像时的位置。记录移动机器人最后的位姿为(P1,A1),为室内定位系统的位置和航向输出。则此时,位置误差Perr=P1-Ptrue,航向误差Aerr=A1-Atrue,Ptrue和Atrue为与数据库参考物图像对应的参考物数据库中的移动机器人位姿,包括位置和航向。
在第三实施方式中,由于室内地面通常是平坦的,可以假设移动机器人摄像头的高度是固定不变的,则参考物在摄像画面中的相对高度是不变的,只存在左右偏差。图16图示了移动机器人拍摄画面(也称为摄影画面)中的数据库参考物图像和实际参考物图像的可能的偏差。因此,有可能通过偏差距离来反推航向误差,避免移动机器人旋转,减少调整过程,具体步骤如下。
步骤S3a,数据库参考物图像和实际参考物图像距离摄影画面左边缘的距离分别为d1和d2。所述距离可以不局限于左边缘距离,还可以是右边缘距离、或者左边缘和右边缘的结合。
步骤S3b,假设移动机器人旋转角度与摄影画面中的距离系数为f,系数f可以用移动机器人拍摄数据库参考物图像时距离参考物的距离和航向来表示,可以将其与数据库参考物图像相关联的存储在参考物数据库中,则移动机器人的航向误差为:
经过航向误差Aerr校正后所拍摄的实际参考物图像与数据库参考物图像只存在尺寸不一致问题,不存在变形。
步骤S3c,当实际参考物图像与数据库参考物图像尺寸相等时,参考物特征匹配完成;当实际参考物图像尺寸比数据库参考物图像尺寸小时,调整移动机器人前进,直到两者尺寸相等,参考物特征匹配完成;当实际参考物图像尺寸比数据库参考物图像尺寸大时,调整移动机器人后退,直到两者尺寸相等,参考物特征匹配完成。位置误差Perr可以采用第一或者第二实施方式的确定方式。
在第三实施方式中,可以通过实际参考物图像和数据库参考物图像距离摄影画面边缘的距离差来计算航向误差,移动机器人无需左右旋转,但仍需前后调整来计算位置误差。
在第四实施方式中,由于参考物的尺寸与摄像头和参考物的距离有关,因此可根据参考物尺寸差来计算位置误差,具体步骤如下。
步骤S4a,数据库参考物图像和实际参考物图像距离摄影画面左边缘的距离分别为d1和d2。所述距离可以不局限于左边缘距离,还可以是右边缘距离、或者左边缘和右边缘的结合。
步骤S4b,假设移动机器人旋转角度与摄影画面中的距离系数为f,则移动机器人的航向误差为:
经过航向误差Aerr校正后所拍摄的实际参考物图像与数据库参考物图像只存在尺寸不一致问题,不存在变形。
步骤S4c,参考物数据库中参考物尺寸(比如高度)为h1,实际参考物尺寸(比如高度)为h2,摄像头与参考物的距离和尺寸的系数为v,系数v可以用移动机器人拍摄数据库参考物图像时距离参考物的距离来表示,可以将其与数据库参考物图像相关联的存储在参考物数据库中,则移动机器人的位置误差为:
参考图17,其图示了图根据本发明的一个实施方式的移动机器人位姿确定方法1700的流程图。移动机器人包括激光扫描仪和惯性导航传感器。
在步骤S1710,在移动机器人的位姿发生改变时,利用惯性导航传感器计算移动机器人在全局地图中的第一位姿。全局地图可以是针对移动机器人在其中移动的环境而预先创建的。使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术、针对移动机器人在其中导航的环境而预先创建的。
惯性导航传感器可以包括陀螺仪、电子指南针、加速计和里程计中一种或多种。陀螺仪获得机器人可以旋转角度,加速计或里程计可以获取行走距离,电子指南针可以获取机器人绝对航向角。惯性导航的基本原理为:设移动机器人t时刻位姿为(xt,yt,θt),例如采用陀螺仪和里程计传感器获得角度变化信息、前行距离,可以推出t+1时刻的测量位姿(xt+1,yt+1,θt+1)。
在步骤S1720,使用激光扫描仪,利用即时定位与地图构建(SLAM)技术创建关于所述移动机器人的周围环境的局部地图。
在步骤S1730,将局部地图在全局地图中进行图像匹配,获取移动机器人在全局地图中的第二位姿、和与第二位姿对应的匹配可信度。第二位姿为图形匹配得出的移动机器人在全局地图中的最佳位姿。可以采用的具体图像匹配算法可以包括但不限于,尺度不变特征转换(SIFT,Scale-invariantfeature transform)算法和模板匹配算法,还可以使用直方图匹配、形状匹配、蒙特卡洛等匹配算法。
在步骤S1740,根据所获取的匹配可信度,确定移动机器人的位姿为第一位姿或者第二位姿。匹配可信度表示第二位姿的准确度,并且其值越大,表明第二位姿越精确,从而有,当所获取的匹配可信度大于第一阈值时,确定移动机器人的位姿为第二位姿,并且当所获取的匹配可信度小于或者等于第一阈值时,确定移动机器人的位姿为第一位姿。
参考图18,其图示了根据本发明的一个实施方式的移动机器人位姿确定方法1800的流程图。移动机器人包括激光扫描仪和惯性导航传感器。
在步骤S1810,判断移动机器人是否首次出现在新环境中,若判断结果为是,则方法1800前进至步骤S1820,否则,方法1800前进至步骤S1830。
在步骤S1820,使用激光扫描仪,利用即时定位与地图构建(SLAM)技术创建全局地图,并且在移动机器人上电时对移动机器人在该全局地图中的位姿进行初始化。
后续步骤S1830、S1840、S1850和S1860涉及在移动机器人的位姿发生改变时,确定移动机器人在全局地图中的精确位姿,其分别与参考方法1700所描述的步骤S1710、S1720、S1730和S1740相同。
惯性导航定位技术和激光导航定位技术是目前较为成熟的几种室内导航定位手段中的两种手段,二者都需要依赖于预先设定的关于环境的全局地图。另外,惯性导航定位精度高,但是存在累计误差,上电初始时刻,需配合外部其他设备提供地图和初始位姿。基于激光扫描仪的即时定位与地图构建(SLAM)技术可在新环境下同时建图和定位,第一次创建地图时,初始位姿可为固定值或由其他设备提供,但是在完成创建地图后,上电初始时刻无法确定移动机器人在已有地图中的初始位姿。
在步骤S1720和步骤S1840中创建关于移动机器人的位姿发生变化后的周围环境的局部地图的方法,可以采用与步骤S120中创建局部地图的相同的方法。在移动机器人的位姿发生改变并且在步骤S1710或者S1840中、利用惯性导航传感器计算移动机器人在全局地图中的第一位姿之后,可以设置移动机器人的假定位姿为该第一位姿,开启激光SLAM建图功能,使得移动机器人在原位置自行旋转一周,形成较大的、详细的、360度的局部地图。应当理解,要创建360度的局部地图,需要的移动机器人旋转的角度和移动机器人上布置的激光扫描仪数量以及激光扫描仪视野范围有关。
在步骤S1730和步骤S1850中将局部地图在全局地图中进行图像匹配,获取移动机器人在全局地图中的第二位姿、和与第二位姿对应的匹配可信度的方法,可以采用与步骤S130中进行局部地图和全局地图匹配的相类似的方法,从而可以获得在激光SLAM技术下的关于惯性导航传感器计算的第一位姿的第二位姿表示、以及匹配可信度(或称为匹配相似度)。
在用于进行图像匹配的一个实施例中,依据当前惯性导航测量元件定义最大误差范围,在根据惯性导航测量的第一位姿(x1,y1,θ1)最大误差范围内,可以用当前激光扫描的局部地图数据与全局栅格地图基于蒙特卡洛方法进行图像匹配,即采用粒子滤波获取最佳位姿、即第二位姿为(x2,y2,θ2)。附加地,还可以计算最佳匹配的匹配可信度。
关于匹配可信度的计算,在获取最佳位姿后,移动机器人可以获得激光扫描范围(在一定角度范围内按一定频率进行扫描)内的激光扫描距离信息,并且将获得的激光扫描距离信息在原有全局栅格地图上进行映射来计算匹配可信度。
移动机器人在导航时有两个坐标系,一是机器人坐标系(即以激光器为坐标原点,激光器前后方向为Y轴,左右方向为X轴);二是已建立好的全局地图坐标系,即所谓的世界坐标系。全局地图表现的是实际所在环境所有障碍位置的表示,假设在激光观察点在全局地图中(x,y)坐标位置,并且航向角为θ。则从此处向θ角度观察可以获取扫描范围内的障碍物距离信息D1(直接可以从全局地图中获得)。移动机器人配备的激光雷达可以在现实环境中获得扫描范围内的障碍物距离信息D2。D1和D2两个扫描距离信息越相近,则便是可信度越高。这便是激光扫描距离信息与原始地图结合可获得可信度的原理。
实际操作时如下,利用激光雷达在现实中获取的距离信息,映射到全局地图中表示实际障碍所在的坐标,然后与原来全局地图中障碍物做比较,具体做法如下。
在匹配可信度计算时,例如通过惯性导航方式可以获得当前位置和姿态(xc,yc,θc),其并不精确,表明当前准确的位姿就在其附近。假设获得当前的位姿(xc,yc,θc),在此位姿激光雷达可扫描出N个距离(障碍)信息,转换成直角坐标且在机器人坐标系(激光器为坐标原点(0,0),航向角为0)中可以看到激光扫描出的障碍轮廓。而机器人实际在全局地图中的位姿为(xd,yd,θd),依据映射原理可以算出激光扫描出的障碍轮廓在全局地图中的坐标,即N个坐标。N是激光雷达在一定角度范围内按一定频率进行扫描(即在激光扫描范围内进行扫描)获得的对于障碍物在地图中的像素数量。
在一个实施例中,匹配可信度可以根据激光扫描获得的障碍轮廓在全局地图中的映射轮廓(轮廓形状匹配)的坐标的像素和并且归一化来计算。匹配可信度可以选择全局地图中这N个坐标的像素和并归一化。归一化原因是确保每次获得的可信度范围为一定值,由于激光扫描距离范围限制,假设激光扫描可以扫描点数为180个,但由于距离限制实际上测量到有效距离信息的个数小于或等于180个。因此所有有效扫描点像素和不能直接作为可信度,必须除以有效点个数,则可保证可信度dis_temp一定在0~255间。
进一步可选地,由于在二维栅格地图中,障碍像素值为0,故dis_temp越小表明第二位姿越精确。为适应匹配可信度意义,匹配可信度reliability可以为:reliability=255-dis_temp。故匹配可信度越大,表明位姿越精确。激光导航测量原理结构图如图19所示。
参考图20,其图示了根据本发明的一个实施方式的移动机器人位姿确定方法2000的流程图。方法2000在步骤S2060之前的步骤与方法1800中的对应步骤相同。方法2000进一步包括步骤S2070-S2078,用于根据匹配可信度,确定移动机器人的位姿应当为惯性导航计算的第一位姿,还是激光导航计算的第二位姿。
在图20所示的实施方式中,匹配可信度越大,表明位姿越精确。所示意的激光导航和惯性导航选择策略为:当激光导航策略中匹配可信度高于一定阈值时,表明激光导航确定的第二位姿有效,移动机器人的位姿为第二位姿;否则激光导航确定的第一位姿无效,移动机器人的位姿为惯性导航确定的第一位姿。如此,可消除由于外界环境临时变动而导致激光导航策略获得的错误绝对位姿。
在图20所示的实施方式中还能够实现惯性导航的累计误差消除,其原理可以为:通过每时刻激光导航策略均对惯性导航策略的位姿进行修正,故避免了惯性导航累计误差的出现;然而,当环境临时变动时,可导致当前位姿一定时间内连续使用惯性导航数据,即使环境恢复,由于累计误差原因,使得当前位姿与实际位姿存在误差,可导致激光导航策略中匹配可信度永远不满足阈值,从而仅有惯性导航。故当检测到激光导航可信度连续不满足阈值一定时,需要重新进行初始位姿定位,以此循环。
在进一步的实施方式中,可以进一步确定移动机器人惯性导航技术计算的第一位姿的位姿误差,并且对该位姿误差进行误差校正。
应当理解,附图中所示流程图图示了按照本发明各种实施例的方法可能实现的功能和操作,在有些作为替换的实现中,方法流程的执行顺序可以以不同于附图中所标注的顺序发生。
在另一个方面,应当理解,本发明实施方式所提出的各种方法可以被实现为软件、硬件或者软件和软件的组合。硬件可通过被设计来执行上述功能的转用集成电路(ASIC)、数字信号处理器(DSP)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微处理器、其他电子单元或其组合来实现。软件可通过执行上述功能的模块来实现。软件可被存储在存储单元中并由处理器运行。作为存储单元或处理器,可采用本领域技术人员公知的各种单元。因此,本公开内容也意图涵盖能够实现所有这些方法的功能模块架构的装置,这些装置可以被依软件、硬件、或者软件和硬件的结合来实现。
举例而言,本发明实施方式提供了一种移动机器人的室内定位设备。所述移动机器人包括激光扫描仪和惯性导航传感器。该设备可以包括:第一位姿确定装置,用于在所述移动机器人的位姿发生改变时,利用所述惯性导航传感器计算所述移动机器人在全局地图中的第一位姿;局部地图创建装置,用于使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建关于所述移动机器人的周围环境的局部地图;第二位姿确定装置,用于将所述局部地图在全局地图中进行图像匹配,获取所述移动机器人在所述全局地图中的第二位姿、和与所述第二位姿对应的匹配可信度,其中所述第二位姿为图形匹配得出的所述移动机器人在所述全局地图中的最佳位姿,并且其中所述全局地图是使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建的关于所述移动机器人在其中导航的环境的地图,以及最终位姿确定装置,用于根据所述匹配可信度,确定所述移动机器人的位姿为所述第一位姿或者所述第二位姿。
进一步地,所述设备还可以包括:估计装置,用于根据移动机器人室内定位技术估计移动机器人的当前位姿;访问装置,用于访问参考物数据库,所述参考物数据库包括所述移动机器人配备的摄像头拍摄的、关于至少一个参考物中的每个参考物的一幅参考图像,以及与所述参考图像关联的、所述摄像头拍摄所述参考图像时所述移动机器人的相应真实位姿,并且从所述参考物数据库中选择一个真实位姿和相关联的参考图像,其中所述参考物是室内环境中的静止物体;导航装置,用于将所述移动机器人导航至目标位姿,所述目标位姿的数值是根据所述移动机器人室内定位技术对于所选择的真实位姿的估计值;拍摄装置,用于利用所述移动机器人配备的所述摄像头进行图像拍摄,获得拍摄图像;对比装置,用于将所述拍摄图像中包括的参考物图像、即实际参考物图像与所选择的相关联的参考图像中包括的参考物图像、即数据库参考物图像进行对比;以及确定装置,用于根据对比的结果来确定所述移动机器人室内定位技术产生的位姿误差。
进一步地,所述确定装置可以进一步包括:调整和特征匹配装置,用于根据对比的结果调整所述移动机器人的位姿,并且对所述移动机器人配备的所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像进行特征匹配,使得达到最佳匹配度;以及位姿误差确定装置,用于根据特征匹配的结果来确定所述移动机器人室内定位技术产生的位姿误差。
进一步地,所述调整和特征匹配装置可以进一步包括:第一调整和特征匹配装置,用于通过对移动机器人进行以下各项操作中的一项或多项:向左和/或向右移动、向左和/或向右旋转、以及向前和/或向后调整,使得所述移动机器人配备的所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像在形状方面和尺寸方面达到最佳匹配度;第二调整和特征匹配装置,用于通过向左和/或向右旋转移动机器人,使得所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像在形状方面达到最佳匹配度;或者第三调整和特征匹配装置,用于通过向前和/或向后调整移动机器人,使得所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像在尺寸方面达到最佳匹配度。
进一步地,所述参考物数据库还可以包括与所述移动机器人的一个真实位姿相关联的多幅参考图像,所述多幅参考图像包括所述移动机器人配备的摄像头在所述移动机器人的如下位姿拍摄的关于参考物的参考图像集合、以及拍摄每幅参考图像时的所述移动机器人的相应真实位姿:所述移动机器人的所述真实位姿,在所述移动机器人的真实位姿处向左和向右各旋转n次所述移动机器人的最小旋转角度,在所述移动机器人的真实位姿处向左和向右各移动m次所述移动机器人的最小移动距离,以及在所述移动机器人的真实位姿处向左和向右各移动m次所述移动机器人的最小移动距离并且在每个移动后的位置处向左和向右各旋转n次所述移动机器人的最小旋转角度,其中m和n为自然数。所述调整和特征匹配装置可以进一步包括:第四调整和特征匹配装置,用于通过向左和/或向右旋转移动机器人,使得所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述多幅参考图像中包括的数据库参考物图像在形状方面达到最佳匹配度;以及第五调整和特征匹配装置,用于通过向前和/或向后调整移动机器人,使得所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像在尺寸方面达到最佳匹配度。
进一步地,所述确定装置可以进一步包括:第一确定装置,用于根据所述移动机器人室内定位技术估计特征匹配后的所述移动机器人的位姿(P1,A1),并且根据所述特征匹配后的位姿(P1,A1)和所述参考物数据库中存储的、与拍摄所述达到最佳匹配度的参考图像时的所述移动机器人的相应真实位姿来确定所述移动机器人室内定位技术产生的位姿误差。
进一步地,所述确定装置可以进一步包括:第二确定装置,用于通过所述实际参考物图像和所述数据库参考物图像距离各自拍摄图像左边缘或者右边缘的距离差来确定航向误差;或者第三确定装置,用于通过移动机器人拍摄所述实际参考物图像时距离参考物的距离、和参考物数据库中存储的移动机器人拍摄数据库参考物图像时距离参考物的距离来确位姿误差。
本发明实施方式的教导还可以实现为一种可以在计算机可读存储介质中实现的计算机程序产品,所述计算机可读存储介质具有存储于其中的计算机可读程序代码部分,所述计算机可读程序代码部分被配置为执行如前所述的根据本发明实施方式的方法或者所述方法的各个步骤。
根据本发明进一步实施方式的用于移动机器人室内定位的方案,包括前述方法、设备和计算机程序产品,可以及时发现移动机器人在室内导航过程中所产生的位姿误差,并且进一步地,在必要时可以对该位姿误差进行校正。
应当理解,本发明的实施方式的方法或设备可以被以软件、硬件、或者软件和硬件的结合来实现。尽管在上文的详细描述中提及了系统的若干装置或子装置,但是这种划分仅仅是示例性而非强制性的。实际上,根据本发明的示例性实施方式,上文描述的两个或更多装置的特征和功能可以在一个装置中实现。反之,上文描述的一个装置的特征和功能可以进一步划分为由多个装置来实现。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种移动机器人的位姿确定方法,所述移动机器人包括激光扫描仪,其特征在于,所述方法包括:
使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建所述移动机器人在其中导航的环境的全局地图;
在所述移动机器人上电时,使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建针对所述移动机器人的上电时刻的环境的局部地图;以及
将所述局部地图在所述全局地图中进行图像匹配,获取所述移动机器人在全局地图中的初始位姿。
2.根据权利要求1所述的方法,其特征在于,所述移动机器人还包括惯性导航传感器,所述方法还包括:
在所述移动机器人的位姿发生改变时,利用所述惯性导航传感器计算所述移动机器人在所述全局地图中的第一位姿;
使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建关于所述移动机器人的周围环境的局部地图;
将所述局部地图在全局地图中进行图像匹配,获取所述移动机器人在所述全局地图中的第二位姿和与所述第二位姿对应的匹配可信度,其中所述第二位姿为图形匹配得出的所述移动机器人在所述全局地图中的最佳位姿;以及
根据所述匹配可信度,确定所述移动机器人的位姿为所述第一位姿或者所述第二位姿。
3.根据权利要求2所述的方法,其特征在于,所述匹配可信度为使用所述激光扫描仪在所述局部地图中进行激光扫描获得的障碍轮廓在所述全局地图中的映射轮廓的坐标的像素和、并且对所述像素和进行归一化的结果。
4.根据权利要求1所述的方法,其特征在于,还包括:
在移动机器人位姿初始化或者位姿发生改变时,根据移动机器人室内定位技术估计移动机器人的当前位姿;
访问参考物数据库,所述参考物数据库包括所述移动机器人配备的摄像头拍摄的、关于至少一个参考物中的每个参考物的一幅参考图像,以及与所述参考图像关联的、所述摄像头拍摄所述参考图像时所述移动机器人的相应真实位姿,并且从所述参考物数据库中选择一个真实位姿和相关联的参考图像,其中所述参考物是室内环境中的静止物体;
将所述移动机器人导航至目标位姿,所述目标位姿的数值是根据移动机器人室内定位技术对于所选择的真实位姿的估计值;
利用所述移动机器人配备的所述摄像头进行图像拍摄,获得拍摄图像;
将所述拍摄图像中包括的参考物图像、即实际参考物图像与所选择的相关联的参考图像中包括的参考物图像、即数据库参考物图像进行对比;
根据对比的结果来确定所述移动机器人室内定位技术产生的位姿误差;以及
利用所确定的位姿误差对根据所述移动机器人室内定位技术所估计的移动机器人的位姿进行误差校正。
5.根据权利要求4所述的方法,其特征在于,根据对比的结果来确定所述移动机器人室内定位技术产生的位姿误差进一步包括:
根据对比的结果调整所述移动机器人的位姿,并且对所述移动机器人配备的所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像进行特征匹配,使得达到最佳匹配度;以及
根据特征匹配的结果来确定所述移动机器人室内定位技术产生的位姿误差。
6.根据权利要求5所述的方法,其特征在于,所述根据对比的结果调整所述移动机器人的位姿,并且对所述移动机器人配备的所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像进行特征匹配,使得达到最佳匹配度包括:
通过对移动机器人进行以下各项操作中的一项或多项:向左和/或向右移动、向左和/或向右旋转、以及向前和/或向后调整,使得所述移动机器人配备的所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像在形状方面和尺寸方面达到最佳匹配度;
通过向左和/或向右旋转移动机器人,使得所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像在形状方面达到最佳匹配度;或者
通过向前和/或向后调整移动机器人,使得所述摄像头所拍摄的拍摄图像中包括的实际参考物图像与所述数据库参考物图像在尺寸方面达到最佳匹配度。
7.根据权利要求1-6中任一项所述的方法,其特征在于,所述根据特征匹配的结果来确定所述移动机器人室内技术产生的位姿误差包括:
根据所述移动机器人室内定位技术估计特征匹配后的所述移动机器人的位姿(P1,A1),并且根据所述特征匹配后的位姿(P1,A1)和所述参考物数据库中存储的、与拍摄所述达到最佳匹配度的参考图像时的所述移动机器人的相应真实位姿来确定所述移动机器人室内定位技术产生的位姿误差。
8.根据权利要求4所述的方法,其特征在于,根据对比的结果来确定所述移动机器人室内定位技术产生的位姿误差进一步包括:
通过所述实际参考物图像和所述数据库参考物图像距离各自拍摄图像左边缘或者右边缘的距离差来确定航向误差;或者
通过移动机器人拍摄所述实际参考物图像时距离参考物的距离和参考物数据库中存储的移动机器人拍摄数据库参考物图像时距离参考物的距离来确位姿误差。
9.一种移动机器人的位姿确定设备,所述移动机器人包括激光扫描仪,其特征在于,所述设备包括:
全局地图创建装置,用于使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建所述移动机器人在其中导航的环境的全局地图;
局部地图创建装置,用于在所述移动机器人上电时,使用所述激光扫描仪,利用即时定位与地图构建(SLAM)技术创建针对所述移动机器人的上电时刻的环境的局部地图;以及
初始位姿获取装置,用于将所述局部地图在所述全局地图中进行图像匹配,获取所述移动机器人在全局地图中的初始位姿。
10.一种在计算机可读存储介质中实现的计算机程序产品,所述计算机可读存储介质具有存储于其中的计算机可读程序代码部分,所述计算机可读程序代码部分被配置为执行根据权利要求1-8所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610244325.3A CN105928505B (zh) | 2016-04-19 | 2016-04-19 | 移动机器人的位姿确定方法和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610244325.3A CN105928505B (zh) | 2016-04-19 | 2016-04-19 | 移动机器人的位姿确定方法和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105928505A true CN105928505A (zh) | 2016-09-07 |
CN105928505B CN105928505B (zh) | 2019-01-29 |
Family
ID=56838344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610244325.3A Active CN105928505B (zh) | 2016-04-19 | 2016-04-19 | 移动机器人的位姿确定方法和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105928505B (zh) |
Cited By (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106324616A (zh) * | 2016-09-28 | 2017-01-11 | 深圳市普渡科技有限公司 | 一种基于惯性导航单元与激光雷达的地图构建方法 |
CN106356765A (zh) * | 2016-11-11 | 2017-01-25 | 广东电网有限责任公司电力科学研究院 | 一种多任务载荷输电线路巡检机器人及系统 |
CN106525025A (zh) * | 2016-10-28 | 2017-03-22 | 武汉大学 | 一种变电站巡检机器人路线规划导航方法 |
CN106568432A (zh) * | 2016-10-20 | 2017-04-19 | 上海物景智能科技有限公司 | 一种移动机器人初始位姿获取方法和系统 |
CN106950572A (zh) * | 2017-03-28 | 2017-07-14 | 深圳市镭神智能系统有限公司 | 一种自动引导车定位方法及装置 |
CN106996777A (zh) * | 2017-04-21 | 2017-08-01 | 合肥井松自动化科技有限公司 | 一种基于地面图像纹理的视觉导航方法 |
CN107063189A (zh) * | 2017-01-19 | 2017-08-18 | 上海勤融信息科技有限公司 | 基于视觉的定位系统及方法 |
CN107065887A (zh) * | 2017-05-26 | 2017-08-18 | 重庆大学 | 全向移动机器人通道内倒行导航方法 |
CN107144285A (zh) * | 2017-05-08 | 2017-09-08 | 深圳地平线机器人科技有限公司 | 位姿信息确定方法、装置和可移动设备 |
CN107390681A (zh) * | 2017-06-21 | 2017-11-24 | 华南理工大学 | 一种基于激光雷达与地图匹配的移动机器人实时定位方法 |
CN107544507A (zh) * | 2017-09-28 | 2018-01-05 | 速感科技(北京)有限公司 | 可移动机器人移动控制方法及装置 |
CN107742311A (zh) * | 2017-09-29 | 2018-02-27 | 北京易达图灵科技有限公司 | 一种视觉定位的方法及装置 |
CN107807641A (zh) * | 2017-10-25 | 2018-03-16 | 上海思岚科技有限公司 | 用于移动机器人避障的方法 |
CN107817795A (zh) * | 2017-10-25 | 2018-03-20 | 上海思岚科技有限公司 | 用于控制移动机器人建图的方法与系统 |
CN108326845A (zh) * | 2017-12-11 | 2018-07-27 | 浙江捷尚人工智能研究发展有限公司 | 基于双目相机和激光雷达的机器人定位方法、装置及系统 |
CN108387241A (zh) * | 2017-02-02 | 2018-08-10 | 百度(美国)有限责任公司 | 更新自动驾驶车辆的定位地图的方法和系统 |
CN108571960A (zh) * | 2017-03-09 | 2018-09-25 | 深圳市朗驰欣创科技股份有限公司 | 一种定位方法和定位设备 |
CN108759844A (zh) * | 2018-06-07 | 2018-11-06 | 科沃斯商用机器人有限公司 | 机器人重定位与环境地图构建方法、机器人及存储介质 |
CN108759833A (zh) * | 2018-04-25 | 2018-11-06 | 中国科学院合肥物质科学研究院 | 一种基于先验地图的智能车辆定位方法 |
CN108810425A (zh) * | 2017-05-02 | 2018-11-13 | 北京米文动力科技有限公司 | 一种摄像头配置方法及装置 |
CN108801253A (zh) * | 2017-04-27 | 2018-11-13 | 深圳乐动机器人有限公司 | 机器人建图定位系统及机器人 |
CN109141442A (zh) * | 2018-09-07 | 2019-01-04 | 高子庆 | 基于uwb定位与图像特征匹配的导航方法和移动终端 |
CN109241228A (zh) * | 2018-09-04 | 2019-01-18 | 山东理工大学 | 一种多移动机器人协作同步定位与地图构建策略 |
CN109275093A (zh) * | 2018-10-08 | 2019-01-25 | 高子庆 | 基于uwb定位与激光地图匹配的定位方法和移动终端 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
CN109459048A (zh) * | 2019-01-07 | 2019-03-12 | 上海岚豹智能科技有限公司 | 用于机器人的地图加载方法及设备 |
CN109489658A (zh) * | 2018-10-18 | 2019-03-19 | 深圳乐动机器人有限公司 | 一种运动目标定位方法、装置及终端设备 |
CN109489660A (zh) * | 2018-10-09 | 2019-03-19 | 上海岚豹智能科技有限公司 | 机器人定位方法及设备 |
CN109507995A (zh) * | 2017-09-14 | 2019-03-22 | 深圳乐动机器人有限公司 | 机器人地图的管理系统及机器人 |
CN109506641A (zh) * | 2017-09-14 | 2019-03-22 | 深圳乐动机器人有限公司 | 移动机器人的位姿丢失检测与重定位系统及机器人 |
CN109541535A (zh) * | 2019-01-11 | 2019-03-29 | 浙江智澜科技有限公司 | 一种基于uwb和视觉slam的agv室内定位及导航的方法 |
CN109579824A (zh) * | 2018-10-31 | 2019-04-05 | 重庆邮电大学 | 一种融入二维码信息的自适应蒙特卡诺定位方法 |
CN109682368A (zh) * | 2018-11-30 | 2019-04-26 | 上海肇观电子科技有限公司 | 机器人及地图构建方法、定位方法、电子设备、存储介质 |
WO2019104693A1 (zh) * | 2017-11-30 | 2019-06-06 | 深圳市沃特沃德股份有限公司 | 视觉扫地机器人及建立场景地图的方法 |
CN109901590A (zh) * | 2019-03-30 | 2019-06-18 | 珠海市一微半导体有限公司 | 桌面机器人的回充控制方法 |
CN109916411A (zh) * | 2019-03-29 | 2019-06-21 | 韦云智 | 一种机器人的室内定位导航的方法 |
CN109933056A (zh) * | 2017-12-18 | 2019-06-25 | 九阳股份有限公司 | 一种基于slam的机器人导航方法以及机器人 |
CN109949609A (zh) * | 2019-04-30 | 2019-06-28 | 广州小鹏汽车科技有限公司 | 一种车辆的定位修正方法及系统、车辆 |
CN109974704A (zh) * | 2019-03-01 | 2019-07-05 | 深圳市智能机器人研究院 | 一种全局定位与局部定位互校准的机器人及其控制方法 |
CN110148170A (zh) * | 2018-08-31 | 2019-08-20 | 北京初速度科技有限公司 | 一种应用于车辆定位的定位初始化方法及车载终端 |
CN110275181A (zh) * | 2019-07-08 | 2019-09-24 | 武汉中海庭数据技术有限公司 | 一种车载移动测量系统及其数据处理方法 |
CN110307845A (zh) * | 2018-03-27 | 2019-10-08 | 深圳市神州云海智能科技有限公司 | 一种机器人定位的方法及机器人 |
CN110319834A (zh) * | 2018-03-30 | 2019-10-11 | 深圳市神州云海智能科技有限公司 | 一种室内机器人定位的方法及机器人 |
CN110446164A (zh) * | 2019-07-23 | 2019-11-12 | 深圳前海达闼云端智能科技有限公司 | 移动终端定位方法、装置、移动终端和服务器 |
CN110579215A (zh) * | 2019-10-22 | 2019-12-17 | 上海木木机器人技术有限公司 | 基于环境特征描述的定位方法、移动机器人和存储介质 |
CN110631554A (zh) * | 2018-06-22 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 机器人位姿的确定方法、装置、机器人和可读存储介质 |
CN110794434A (zh) * | 2019-11-29 | 2020-02-14 | 广州视源电子科技股份有限公司 | 一种位姿的确定方法、装置、设备及存储介质 |
CN110793525A (zh) * | 2019-11-12 | 2020-02-14 | 深圳创维数字技术有限公司 | 车辆定位方法、设备及计算机可读存储介质 |
CN110869700A (zh) * | 2017-07-28 | 2020-03-06 | 高通股份有限公司 | 用于确定车辆位置的系统和方法 |
CN111094893A (zh) * | 2017-07-28 | 2020-05-01 | 高通股份有限公司 | 机器人式运载工具的图像传感器初始化 |
CN111113405A (zh) * | 2018-11-01 | 2020-05-08 | 阿里巴巴集团控股有限公司 | 一种机器人获得位置服务的方法及机器人 |
TWI693493B (zh) * | 2019-03-11 | 2020-05-11 | 整技科技股份有限公司 | 導引載具控制系統與方法 |
CN111352090A (zh) * | 2018-12-21 | 2020-06-30 | 保定市天河电子技术有限公司 | 集成姿态系统的激光雷达及控制方法 |
CN111380510A (zh) * | 2018-12-29 | 2020-07-07 | 深圳市优必选科技有限公司 | 重定位方法及装置、机器人 |
CN111426316A (zh) * | 2020-06-15 | 2020-07-17 | 北京云迹科技有限公司 | 机器人定位方法、装置、机器人及可读存储介质 |
CN111486842A (zh) * | 2019-01-29 | 2020-08-04 | 深圳市优必选科技有限公司 | 重定位方法及装置、机器人 |
CN111694423A (zh) * | 2019-03-12 | 2020-09-22 | 阿里巴巴集团控股有限公司 | 定位、抓取、数据处理与用于增强现实的显示方法及设备 |
CN111765881A (zh) * | 2019-04-02 | 2020-10-13 | 广达电脑股份有限公司 | 移动装置的定位系统 |
CN111805535A (zh) * | 2020-06-11 | 2020-10-23 | 浙江大华技术股份有限公司 | 一种定位导航方法、装置以及计算机存储介质 |
CN111862219A (zh) * | 2020-07-29 | 2020-10-30 | 上海高仙自动化科技发展有限公司 | 计算机设备定位方法、装置、计算机设备和存储介质 |
CN112154355A (zh) * | 2019-09-19 | 2020-12-29 | 深圳市大疆创新科技有限公司 | 高精度地图定位方法、系统、平台及计算机可读存储介质 |
CN112212851A (zh) * | 2019-07-09 | 2021-01-12 | 深圳市优必选科技股份有限公司 | 一种位姿确定方法、装置、存储介质及移动机器人 |
CN112268561A (zh) * | 2020-10-12 | 2021-01-26 | 西北工业大学 | 一种融合磁场信息的机器人蒙特卡罗定位方法 |
CN112284387A (zh) * | 2020-09-07 | 2021-01-29 | 安克创新科技股份有限公司 | 用于清扫设备的定位方法、清扫设备和存储介质 |
CN112348878A (zh) * | 2020-10-23 | 2021-02-09 | 歌尔光学科技有限公司 | 定位测试方法、装置及电子设备 |
CN112697041A (zh) * | 2020-12-10 | 2021-04-23 | 北京新风航天装备有限公司 | 一种基于蒙特卡洛法的装配位姿测量精度预评估方法 |
CN112767476A (zh) * | 2020-12-08 | 2021-05-07 | 中国科学院深圳先进技术研究院 | 一种快速定位系统、方法及应用 |
CN112781591A (zh) * | 2019-11-06 | 2021-05-11 | 深圳市优必选科技股份有限公司 | 机器人定位方法、装置、计算机可读存储介质及机器人 |
CN112882478A (zh) * | 2021-01-28 | 2021-06-01 | 武汉工程大学 | 一种储罐巡检方法和系统 |
CN113051951A (zh) * | 2021-04-01 | 2021-06-29 | 未来机器人(深圳)有限公司 | 标识码定位方法、装置、计算机设备和存储介质 |
CN113048978A (zh) * | 2021-02-01 | 2021-06-29 | 苏州澜途科技有限公司 | 移动机器人重定位方法及移动机器人 |
CN113124902A (zh) * | 2021-04-19 | 2021-07-16 | 追创科技(苏州)有限公司 | 移动机器人的定位修正方法和装置、存储介质、电子装置 |
CN113183153A (zh) * | 2021-04-27 | 2021-07-30 | 北京猎户星空科技有限公司 | 一种地图创建方法、装置、设备及介质 |
CN113223077A (zh) * | 2021-05-21 | 2021-08-06 | 广州高新兴机器人有限公司 | 基于视觉辅助激光自动初始定位的方法及装置 |
CN113390427A (zh) * | 2021-06-09 | 2021-09-14 | 深圳市优必选科技股份有限公司 | 机器人建图方法、装置、机器人及计算机可读存储介质 |
CN113532441A (zh) * | 2021-08-20 | 2021-10-22 | 河南牧原智能科技有限公司 | 用于对猪舍内载具进行组合导航的方法、装置及存储介质 |
CN113670290A (zh) * | 2021-06-30 | 2021-11-19 | 西南科技大学 | 一种基于多机器人协作的移动机器人室内地图构建方法 |
CN114001728A (zh) * | 2021-11-02 | 2022-02-01 | 诺力智能装备股份有限公司 | 移动机器人的控制方法、装置、存储介质及电子设备 |
CN114102577A (zh) * | 2020-08-31 | 2022-03-01 | 北京极智嘉科技股份有限公司 | 一种机器人及应用于机器人的定位方法 |
CN114199243A (zh) * | 2020-09-18 | 2022-03-18 | 浙江舜宇智能光学技术有限公司 | 用于机器人的位姿估计和运动规划方法、装置和机器人 |
CN114415698A (zh) * | 2022-03-31 | 2022-04-29 | 深圳市普渡科技有限公司 | 机器人、机器人的定位方法、装置和计算机设备 |
CN114440873A (zh) * | 2021-12-30 | 2022-05-06 | 南京航空航天大学 | 封闭环境下磁场叠加的惯性行人slam方法 |
WO2022099889A1 (zh) * | 2020-11-11 | 2022-05-19 | 深圳市优必选科技股份有限公司 | 重定位方法、机器人及计算机可读存储介质 |
CN114827727A (zh) * | 2022-04-25 | 2022-07-29 | 深圳创维-Rgb电子有限公司 | 电视控制方法、装置、电视及计算机可读存储介质 |
CN112215887B (zh) * | 2019-07-09 | 2023-09-08 | 深圳市优必选科技股份有限公司 | 一种位姿确定方法、装置、存储介质及移动机器人 |
GB2620909A (en) * | 2022-07-04 | 2024-01-31 | Opteran Tech Limited | Method and system for determining the structure, connectivity and identity of a physical or logical space or attribute thereof |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11194822A (ja) * | 1998-01-05 | 1999-07-21 | Nissan Motor Co Ltd | 移動ロボットのグローバル地図構築方法 |
US20120089295A1 (en) * | 2010-10-07 | 2012-04-12 | Samsung Electronics Co., Ltd. | Moving robot and method to build map for the same |
US20120106828A1 (en) * | 2010-11-03 | 2012-05-03 | Samsung Electronics Co., Ltd | Mobile robot and simultaneous localization and map building method thereof |
CN102656425A (zh) * | 2009-12-17 | 2012-09-05 | 波音公司 | 利用移动数据的方位和取向确定 |
CN103123727A (zh) * | 2011-11-21 | 2013-05-29 | 联想(北京)有限公司 | 即时定位与地图构建方法和设备 |
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
CN103292804A (zh) * | 2013-05-27 | 2013-09-11 | 浙江大学 | 一种单目自然视觉路标辅助的移动机器人定位方法 |
CN103900583A (zh) * | 2012-12-25 | 2014-07-02 | 联想(北京)有限公司 | 用于即时定位与地图构建的设备和方法 |
CN105258702A (zh) * | 2015-10-06 | 2016-01-20 | 深圳力子机器人有限公司 | 一种基于slam导航移动机器人的全局定位方法 |
CN105371847A (zh) * | 2015-10-27 | 2016-03-02 | 深圳大学 | 一种室内实景导航方法及系统 |
-
2016
- 2016-04-19 CN CN201610244325.3A patent/CN105928505B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11194822A (ja) * | 1998-01-05 | 1999-07-21 | Nissan Motor Co Ltd | 移動ロボットのグローバル地図構築方法 |
CN102656425A (zh) * | 2009-12-17 | 2012-09-05 | 波音公司 | 利用移动数据的方位和取向确定 |
US20120089295A1 (en) * | 2010-10-07 | 2012-04-12 | Samsung Electronics Co., Ltd. | Moving robot and method to build map for the same |
US20120106828A1 (en) * | 2010-11-03 | 2012-05-03 | Samsung Electronics Co., Ltd | Mobile robot and simultaneous localization and map building method thereof |
CN103123727A (zh) * | 2011-11-21 | 2013-05-29 | 联想(北京)有限公司 | 即时定位与地图构建方法和设备 |
CN103900583A (zh) * | 2012-12-25 | 2014-07-02 | 联想(北京)有限公司 | 用于即时定位与地图构建的设备和方法 |
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
CN103292804A (zh) * | 2013-05-27 | 2013-09-11 | 浙江大学 | 一种单目自然视觉路标辅助的移动机器人定位方法 |
CN105258702A (zh) * | 2015-10-06 | 2016-01-20 | 深圳力子机器人有限公司 | 一种基于slam导航移动机器人的全局定位方法 |
CN105371847A (zh) * | 2015-10-27 | 2016-03-02 | 深圳大学 | 一种室内实景导航方法及系统 |
Cited By (126)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106324616B (zh) * | 2016-09-28 | 2019-02-26 | 深圳市普渡科技有限公司 | 一种基于惯性导航单元与激光雷达的地图构建方法 |
CN106324616A (zh) * | 2016-09-28 | 2017-01-11 | 深圳市普渡科技有限公司 | 一种基于惯性导航单元与激光雷达的地图构建方法 |
CN106568432A (zh) * | 2016-10-20 | 2017-04-19 | 上海物景智能科技有限公司 | 一种移动机器人初始位姿获取方法和系统 |
CN106568432B (zh) * | 2016-10-20 | 2019-07-09 | 上海物景智能科技有限公司 | 一种移动机器人初始位姿获取方法和系统 |
CN106525025B (zh) * | 2016-10-28 | 2019-10-11 | 武汉大学 | 一种变电站巡检机器人路线规划导航方法 |
CN106525025A (zh) * | 2016-10-28 | 2017-03-22 | 武汉大学 | 一种变电站巡检机器人路线规划导航方法 |
CN106356765A (zh) * | 2016-11-11 | 2017-01-25 | 广东电网有限责任公司电力科学研究院 | 一种多任务载荷输电线路巡检机器人及系统 |
CN107063189A (zh) * | 2017-01-19 | 2017-08-18 | 上海勤融信息科技有限公司 | 基于视觉的定位系统及方法 |
CN108387241A (zh) * | 2017-02-02 | 2018-08-10 | 百度(美国)有限责任公司 | 更新自动驾驶车辆的定位地图的方法和系统 |
CN108571960A (zh) * | 2017-03-09 | 2018-09-25 | 深圳市朗驰欣创科技股份有限公司 | 一种定位方法和定位设备 |
CN106950572B (zh) * | 2017-03-28 | 2020-09-01 | 深圳市镭神智能系统有限公司 | 一种自动引导车定位方法及装置 |
CN106950572A (zh) * | 2017-03-28 | 2017-07-14 | 深圳市镭神智能系统有限公司 | 一种自动引导车定位方法及装置 |
CN106996777B (zh) * | 2017-04-21 | 2019-02-12 | 合肥井松自动化科技有限公司 | 一种基于地面图像纹理的视觉导航方法 |
CN106996777A (zh) * | 2017-04-21 | 2017-08-01 | 合肥井松自动化科技有限公司 | 一种基于地面图像纹理的视觉导航方法 |
CN108801253B (zh) * | 2017-04-27 | 2021-03-09 | 深圳乐动机器人有限公司 | 机器人建图定位系统及机器人 |
CN108801253A (zh) * | 2017-04-27 | 2018-11-13 | 深圳乐动机器人有限公司 | 机器人建图定位系统及机器人 |
CN108810425B (zh) * | 2017-05-02 | 2024-06-11 | 北京米文动力科技有限公司 | 一种摄像头配置方法及装置 |
CN108810425A (zh) * | 2017-05-02 | 2018-11-13 | 北京米文动力科技有限公司 | 一种摄像头配置方法及装置 |
CN107144285A (zh) * | 2017-05-08 | 2017-09-08 | 深圳地平线机器人科技有限公司 | 位姿信息确定方法、装置和可移动设备 |
CN107065887A (zh) * | 2017-05-26 | 2017-08-18 | 重庆大学 | 全向移动机器人通道内倒行导航方法 |
CN107390681A (zh) * | 2017-06-21 | 2017-11-24 | 华南理工大学 | 一种基于激光雷达与地图匹配的移动机器人实时定位方法 |
CN111094893A (zh) * | 2017-07-28 | 2020-05-01 | 高通股份有限公司 | 机器人式运载工具的图像传感器初始化 |
CN110869700A (zh) * | 2017-07-28 | 2020-03-06 | 高通股份有限公司 | 用于确定车辆位置的系统和方法 |
CN109506641A (zh) * | 2017-09-14 | 2019-03-22 | 深圳乐动机器人有限公司 | 移动机器人的位姿丢失检测与重定位系统及机器人 |
CN109507995B (zh) * | 2017-09-14 | 2022-01-04 | 深圳乐动机器人有限公司 | 机器人地图的管理系统及机器人 |
CN109507995A (zh) * | 2017-09-14 | 2019-03-22 | 深圳乐动机器人有限公司 | 机器人地图的管理系统及机器人 |
CN107544507A (zh) * | 2017-09-28 | 2018-01-05 | 速感科技(北京)有限公司 | 可移动机器人移动控制方法及装置 |
CN107742311A (zh) * | 2017-09-29 | 2018-02-27 | 北京易达图灵科技有限公司 | 一种视觉定位的方法及装置 |
CN107742311B (zh) * | 2017-09-29 | 2020-02-18 | 北京易达图灵科技有限公司 | 一种视觉定位的方法及装置 |
WO2019080681A1 (zh) * | 2017-10-25 | 2019-05-02 | 上海思岚科技有限公司 | 用于控制移动机器人建图的方法与系统 |
CN107807641A (zh) * | 2017-10-25 | 2018-03-16 | 上海思岚科技有限公司 | 用于移动机器人避障的方法 |
CN107817795A (zh) * | 2017-10-25 | 2018-03-20 | 上海思岚科技有限公司 | 用于控制移动机器人建图的方法与系统 |
WO2019104693A1 (zh) * | 2017-11-30 | 2019-06-06 | 深圳市沃特沃德股份有限公司 | 视觉扫地机器人及建立场景地图的方法 |
CN108326845A (zh) * | 2017-12-11 | 2018-07-27 | 浙江捷尚人工智能研究发展有限公司 | 基于双目相机和激光雷达的机器人定位方法、装置及系统 |
CN108326845B (zh) * | 2017-12-11 | 2020-06-26 | 浙江捷尚人工智能研究发展有限公司 | 基于双目相机和激光雷达的机器人定位方法、装置及系统 |
CN109933056B (zh) * | 2017-12-18 | 2022-03-15 | 九阳股份有限公司 | 一种基于slam的机器人导航方法以及机器人 |
CN109933056A (zh) * | 2017-12-18 | 2019-06-25 | 九阳股份有限公司 | 一种基于slam的机器人导航方法以及机器人 |
CN110307845A (zh) * | 2018-03-27 | 2019-10-08 | 深圳市神州云海智能科技有限公司 | 一种机器人定位的方法及机器人 |
CN110319834A (zh) * | 2018-03-30 | 2019-10-11 | 深圳市神州云海智能科技有限公司 | 一种室内机器人定位的方法及机器人 |
CN108759833B (zh) * | 2018-04-25 | 2021-05-25 | 中国科学院合肥物质科学研究院 | 一种基于先验地图的智能车辆定位方法 |
CN108759833A (zh) * | 2018-04-25 | 2018-11-06 | 中国科学院合肥物质科学研究院 | 一种基于先验地图的智能车辆定位方法 |
CN108759844A (zh) * | 2018-06-07 | 2018-11-06 | 科沃斯商用机器人有限公司 | 机器人重定位与环境地图构建方法、机器人及存储介质 |
CN108759844B (zh) * | 2018-06-07 | 2021-11-16 | 科沃斯商用机器人有限公司 | 机器人重定位与环境地图构建方法、机器人及存储介质 |
CN110631554A (zh) * | 2018-06-22 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 机器人位姿的确定方法、装置、机器人和可读存储介质 |
CN110148170A (zh) * | 2018-08-31 | 2019-08-20 | 北京初速度科技有限公司 | 一种应用于车辆定位的定位初始化方法及车载终端 |
CN109241228A (zh) * | 2018-09-04 | 2019-01-18 | 山东理工大学 | 一种多移动机器人协作同步定位与地图构建策略 |
CN109141442A (zh) * | 2018-09-07 | 2019-01-04 | 高子庆 | 基于uwb定位与图像特征匹配的导航方法和移动终端 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
CN109275093B (zh) * | 2018-10-08 | 2021-03-09 | 深圳市锐曼智能装备有限公司 | 基于uwb定位与激光地图匹配的定位方法和移动终端 |
CN109275093A (zh) * | 2018-10-08 | 2019-01-25 | 高子庆 | 基于uwb定位与激光地图匹配的定位方法和移动终端 |
CN109489660A (zh) * | 2018-10-09 | 2019-03-19 | 上海岚豹智能科技有限公司 | 机器人定位方法及设备 |
CN109489658A (zh) * | 2018-10-18 | 2019-03-19 | 深圳乐动机器人有限公司 | 一种运动目标定位方法、装置及终端设备 |
CN109579824B (zh) * | 2018-10-31 | 2022-12-27 | 重庆邮电大学 | 一种融入二维码信息的自适应蒙特卡诺定位方法 |
CN109579824A (zh) * | 2018-10-31 | 2019-04-05 | 重庆邮电大学 | 一种融入二维码信息的自适应蒙特卡诺定位方法 |
CN111113405B (zh) * | 2018-11-01 | 2023-03-31 | 阿里巴巴集团控股有限公司 | 一种机器人获得位置服务的方法及机器人 |
CN111113405A (zh) * | 2018-11-01 | 2020-05-08 | 阿里巴巴集团控股有限公司 | 一种机器人获得位置服务的方法及机器人 |
CN109682368A (zh) * | 2018-11-30 | 2019-04-26 | 上海肇观电子科技有限公司 | 机器人及地图构建方法、定位方法、电子设备、存储介质 |
CN111352090A (zh) * | 2018-12-21 | 2020-06-30 | 保定市天河电子技术有限公司 | 集成姿态系统的激光雷达及控制方法 |
CN111380510A (zh) * | 2018-12-29 | 2020-07-07 | 深圳市优必选科技有限公司 | 重定位方法及装置、机器人 |
CN111380510B (zh) * | 2018-12-29 | 2022-04-15 | 深圳市优必选科技有限公司 | 重定位方法及装置、机器人 |
CN109459048A (zh) * | 2019-01-07 | 2019-03-12 | 上海岚豹智能科技有限公司 | 用于机器人的地图加载方法及设备 |
CN109541535A (zh) * | 2019-01-11 | 2019-03-29 | 浙江智澜科技有限公司 | 一种基于uwb和视觉slam的agv室内定位及导航的方法 |
CN111486842A (zh) * | 2019-01-29 | 2020-08-04 | 深圳市优必选科技有限公司 | 重定位方法及装置、机器人 |
CN111486842B (zh) * | 2019-01-29 | 2022-04-15 | 深圳市优必选科技有限公司 | 重定位方法及装置、机器人 |
CN109974704A (zh) * | 2019-03-01 | 2019-07-05 | 深圳市智能机器人研究院 | 一种全局定位与局部定位互校准的机器人及其控制方法 |
TWI693493B (zh) * | 2019-03-11 | 2020-05-11 | 整技科技股份有限公司 | 導引載具控制系統與方法 |
CN111694423B (zh) * | 2019-03-12 | 2023-05-26 | 阿里巴巴集团控股有限公司 | 定位、抓取、数据处理与用于增强现实的显示方法及设备 |
CN111694423A (zh) * | 2019-03-12 | 2020-09-22 | 阿里巴巴集团控股有限公司 | 定位、抓取、数据处理与用于增强现实的显示方法及设备 |
CN109916411A (zh) * | 2019-03-29 | 2019-06-21 | 韦云智 | 一种机器人的室内定位导航的方法 |
WO2020199589A1 (zh) * | 2019-03-30 | 2020-10-08 | 珠海市一微半导体有限公司 | 桌面机器人的回充控制方法 |
CN109901590A (zh) * | 2019-03-30 | 2019-06-18 | 珠海市一微半导体有限公司 | 桌面机器人的回充控制方法 |
CN111765881B (zh) * | 2019-04-02 | 2022-01-11 | 广达电脑股份有限公司 | 移动装置的定位系统 |
CN111765881A (zh) * | 2019-04-02 | 2020-10-13 | 广达电脑股份有限公司 | 移动装置的定位系统 |
CN109949609B (zh) * | 2019-04-30 | 2020-11-13 | 广州小鹏汽车科技有限公司 | 一种车辆的定位修正方法及系统、车辆 |
CN109949609A (zh) * | 2019-04-30 | 2019-06-28 | 广州小鹏汽车科技有限公司 | 一种车辆的定位修正方法及系统、车辆 |
CN110275181A (zh) * | 2019-07-08 | 2019-09-24 | 武汉中海庭数据技术有限公司 | 一种车载移动测量系统及其数据处理方法 |
CN112215887B (zh) * | 2019-07-09 | 2023-09-08 | 深圳市优必选科技股份有限公司 | 一种位姿确定方法、装置、存储介质及移动机器人 |
CN112212851A (zh) * | 2019-07-09 | 2021-01-12 | 深圳市优必选科技股份有限公司 | 一种位姿确定方法、装置、存储介质及移动机器人 |
CN110446164B (zh) * | 2019-07-23 | 2021-05-04 | 达闼机器人有限公司 | 移动终端定位方法、装置、移动终端和服务器 |
CN110446164A (zh) * | 2019-07-23 | 2019-11-12 | 深圳前海达闼云端智能科技有限公司 | 移动终端定位方法、装置、移动终端和服务器 |
CN112154355A (zh) * | 2019-09-19 | 2020-12-29 | 深圳市大疆创新科技有限公司 | 高精度地图定位方法、系统、平台及计算机可读存储介质 |
CN112154355B (zh) * | 2019-09-19 | 2024-03-01 | 深圳市大疆创新科技有限公司 | 高精度地图定位方法、系统、平台及计算机可读存储介质 |
CN110579215A (zh) * | 2019-10-22 | 2019-12-17 | 上海木木机器人技术有限公司 | 基于环境特征描述的定位方法、移动机器人和存储介质 |
CN112781591A (zh) * | 2019-11-06 | 2021-05-11 | 深圳市优必选科技股份有限公司 | 机器人定位方法、装置、计算机可读存储介质及机器人 |
CN110793525A (zh) * | 2019-11-12 | 2020-02-14 | 深圳创维数字技术有限公司 | 车辆定位方法、设备及计算机可读存储介质 |
CN110794434A (zh) * | 2019-11-29 | 2020-02-14 | 广州视源电子科技股份有限公司 | 一种位姿的确定方法、装置、设备及存储介质 |
CN110794434B (zh) * | 2019-11-29 | 2022-11-15 | 广州视源电子科技股份有限公司 | 一种位姿的确定方法、装置、设备及存储介质 |
CN111805535A (zh) * | 2020-06-11 | 2020-10-23 | 浙江大华技术股份有限公司 | 一种定位导航方法、装置以及计算机存储介质 |
CN111426316A (zh) * | 2020-06-15 | 2020-07-17 | 北京云迹科技有限公司 | 机器人定位方法、装置、机器人及可读存储介质 |
CN111426316B (zh) * | 2020-06-15 | 2020-09-25 | 北京云迹科技有限公司 | 机器人定位方法、装置、机器人及可读存储介质 |
CN111862219A (zh) * | 2020-07-29 | 2020-10-30 | 上海高仙自动化科技发展有限公司 | 计算机设备定位方法、装置、计算机设备和存储介质 |
CN114102577B (zh) * | 2020-08-31 | 2023-05-30 | 北京极智嘉科技股份有限公司 | 一种机器人及应用于机器人的定位方法 |
CN114102577A (zh) * | 2020-08-31 | 2022-03-01 | 北京极智嘉科技股份有限公司 | 一种机器人及应用于机器人的定位方法 |
CN112284387A (zh) * | 2020-09-07 | 2021-01-29 | 安克创新科技股份有限公司 | 用于清扫设备的定位方法、清扫设备和存储介质 |
CN114199243B (zh) * | 2020-09-18 | 2024-05-24 | 浙江舜宇智能光学技术有限公司 | 用于机器人的位姿估计和运动规划方法、装置和机器人 |
CN114199243A (zh) * | 2020-09-18 | 2022-03-18 | 浙江舜宇智能光学技术有限公司 | 用于机器人的位姿估计和运动规划方法、装置和机器人 |
CN112268561A (zh) * | 2020-10-12 | 2021-01-26 | 西北工业大学 | 一种融合磁场信息的机器人蒙特卡罗定位方法 |
CN112348878A (zh) * | 2020-10-23 | 2021-02-09 | 歌尔光学科技有限公司 | 定位测试方法、装置及电子设备 |
CN112348878B (zh) * | 2020-10-23 | 2023-03-21 | 歌尔科技有限公司 | 定位测试方法、装置及电子设备 |
WO2022099889A1 (zh) * | 2020-11-11 | 2022-05-19 | 深圳市优必选科技股份有限公司 | 重定位方法、机器人及计算机可读存储介质 |
CN112767476B (zh) * | 2020-12-08 | 2024-04-26 | 中国科学院深圳先进技术研究院 | 一种快速定位系统、方法及应用 |
CN112767476A (zh) * | 2020-12-08 | 2021-05-07 | 中国科学院深圳先进技术研究院 | 一种快速定位系统、方法及应用 |
CN112697041A (zh) * | 2020-12-10 | 2021-04-23 | 北京新风航天装备有限公司 | 一种基于蒙特卡洛法的装配位姿测量精度预评估方法 |
CN112697041B (zh) * | 2020-12-10 | 2022-03-08 | 北京新风航天装备有限公司 | 一种基于蒙特卡洛法的装配位姿测量精度预评估方法 |
CN112882478A (zh) * | 2021-01-28 | 2021-06-01 | 武汉工程大学 | 一种储罐巡检方法和系统 |
CN112882478B (zh) * | 2021-01-28 | 2022-12-09 | 武汉工程大学 | 一种储罐巡检方法和系统 |
CN113048978B (zh) * | 2021-02-01 | 2023-10-20 | 苏州澜途科技有限公司 | 移动机器人重定位方法及移动机器人 |
CN113048978A (zh) * | 2021-02-01 | 2021-06-29 | 苏州澜途科技有限公司 | 移动机器人重定位方法及移动机器人 |
CN113051951A (zh) * | 2021-04-01 | 2021-06-29 | 未来机器人(深圳)有限公司 | 标识码定位方法、装置、计算机设备和存储介质 |
WO2022222345A1 (zh) * | 2021-04-19 | 2022-10-27 | 追觅创新科技(苏州)有限公司 | 移动机器人的定位修正方法和装置、存储介质、电子装置 |
CN113124902B (zh) * | 2021-04-19 | 2024-05-14 | 追创科技(苏州)有限公司 | 移动机器人的定位修正方法和装置、存储介质、电子装置 |
CN113124902A (zh) * | 2021-04-19 | 2021-07-16 | 追创科技(苏州)有限公司 | 移动机器人的定位修正方法和装置、存储介质、电子装置 |
CN113183153A (zh) * | 2021-04-27 | 2021-07-30 | 北京猎户星空科技有限公司 | 一种地图创建方法、装置、设备及介质 |
CN113223077A (zh) * | 2021-05-21 | 2021-08-06 | 广州高新兴机器人有限公司 | 基于视觉辅助激光自动初始定位的方法及装置 |
WO2022257332A1 (zh) * | 2021-06-09 | 2022-12-15 | 深圳市优必选科技股份有限公司 | 机器人建图方法、装置、机器人及计算机可读存储介质 |
CN113390427A (zh) * | 2021-06-09 | 2021-09-14 | 深圳市优必选科技股份有限公司 | 机器人建图方法、装置、机器人及计算机可读存储介质 |
CN113670290A (zh) * | 2021-06-30 | 2021-11-19 | 西南科技大学 | 一种基于多机器人协作的移动机器人室内地图构建方法 |
CN113670290B (zh) * | 2021-06-30 | 2023-05-12 | 西南科技大学 | 一种基于多机器人协作的移动机器人室内地图构建方法 |
CN113532441B (zh) * | 2021-08-20 | 2024-06-14 | 河南牧原智能科技有限公司 | 用于对猪舍内载具进行组合导航的方法、装置及存储介质 |
CN113532441A (zh) * | 2021-08-20 | 2021-10-22 | 河南牧原智能科技有限公司 | 用于对猪舍内载具进行组合导航的方法、装置及存储介质 |
CN114001728A (zh) * | 2021-11-02 | 2022-02-01 | 诺力智能装备股份有限公司 | 移动机器人的控制方法、装置、存储介质及电子设备 |
CN114440873A (zh) * | 2021-12-30 | 2022-05-06 | 南京航空航天大学 | 封闭环境下磁场叠加的惯性行人slam方法 |
CN114415698A (zh) * | 2022-03-31 | 2022-04-29 | 深圳市普渡科技有限公司 | 机器人、机器人的定位方法、装置和计算机设备 |
CN114827727B (zh) * | 2022-04-25 | 2024-05-07 | 深圳创维-Rgb电子有限公司 | 电视控制方法、装置、电视及计算机可读存储介质 |
CN114827727A (zh) * | 2022-04-25 | 2022-07-29 | 深圳创维-Rgb电子有限公司 | 电视控制方法、装置、电视及计算机可读存储介质 |
GB2620909A (en) * | 2022-07-04 | 2024-01-31 | Opteran Tech Limited | Method and system for determining the structure, connectivity and identity of a physical or logical space or attribute thereof |
Also Published As
Publication number | Publication date |
---|---|
CN105928505B (zh) | 2019-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105928505A (zh) | 移动机器人的位姿确定方法和设备 | |
CN105953798B (zh) | 移动机器人的位姿确定方法和设备 | |
US10481265B2 (en) | Apparatus, systems and methods for point cloud generation and constantly tracking position | |
CN105865451B (zh) | 用于移动机器人室内定位的方法和设备 | |
Iocchi et al. | Visually realistic mapping of a planar environment with stereo | |
US7627447B2 (en) | Method and apparatus for localizing and mapping the position of a set of points on a digital model | |
RU2572637C2 (ru) | Параллельное или выполняемое последовательно в онлайн- и оффлайн- режимах формирование реконструкций для трехмерного обмера помещения | |
CN103119611A (zh) | 基于图像的定位的方法和设备 | |
Ferreira et al. | Real-time optical SLAM-based mosaicking for unmanned underwater vehicles | |
Shen et al. | Localization through fusion of discrete and continuous epipolar geometry with wheel and IMU odometry | |
Kleinert et al. | Inertial aided monocular SLAM for GPS-denied navigation | |
Li et al. | 3D triangulation based extrinsic calibration between a stereo vision system and a LIDAR | |
Gallegos et al. | Indoor SLAM based on composite sensor mixing laser scans and omnidirectional images | |
Karam et al. | Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping | |
Andert et al. | On the safe navigation problem for unmanned aircraft: Visual odometry and alignment optimizations for UAV positioning | |
CN113487726B (zh) | 动作捕捉系统和方法 | |
Ferreira et al. | A real-time mosaicking algorithm using binary features for ROVs | |
CN104166995A (zh) | 一种基于马步测度的Harris-SIFT双目视觉定位方法 | |
Gupta et al. | Terrain‐based vehicle orientation estimation combining vision and inertial measurements | |
Ferreira et al. | An online slam-based mosaicking using local maps for rovs | |
Kaneko et al. | Stata Center Frame: A Novel World Assumption for Self-Localization | |
Krishnaswamy et al. | Sensor fusion for GNSS denied navigation | |
CN117649619B (zh) | 无人机视觉导航定位回收方法、系统、装置及可读存储介质 | |
Autera | Study and development of calibration algorithms of multi-camera systems for precision agriculture robotics | |
Armenakis et al. | Feasibility study for pose estimation of small UAS in known 3D environment using geometric hashing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |