CN116698014A - 一种基于多机器人激光slam和视觉slam地图融合与拼接方法 - Google Patents

一种基于多机器人激光slam和视觉slam地图融合与拼接方法 Download PDF

Info

Publication number
CN116698014A
CN116698014A CN202310809878.9A CN202310809878A CN116698014A CN 116698014 A CN116698014 A CN 116698014A CN 202310809878 A CN202310809878 A CN 202310809878A CN 116698014 A CN116698014 A CN 116698014A
Authority
CN
China
Prior art keywords
map
local
robot
slam
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310809878.9A
Other languages
English (en)
Inventor
赵成龙
张斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN202310809878.9A priority Critical patent/CN116698014A/zh
Publication of CN116698014A publication Critical patent/CN116698014A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明提出了一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法。本发明通过多机器人协同,将多台机器人布置在区域中不同位置,每台机器人通过激光SLAM和视觉SLAM分别构建局部地图,再将视觉SLAM地图转换为二维栅格地图,通过地图融合算法将激光地图和视觉地图融合,最终得到局部二维栅格地图,每台机器人通过无线通信将局部地图信息上传到中心节点。中心节点再对局部地图进行拼接,再将拼接完成之后的全局地图发送给每台机器人,在全局地图上对每台机器人做路径规划,确保区域中每个位置都可以被探索到,最终得到全局地图。本发明克服了单传感器建图的准确性低,易受环境影响等缺陷,通过地图融合得到更加精确的地图。通过多机器人协同建图克服了大范围复杂环境中建图耗时长、计算量大等缺陷。

Description

一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法
技术领域
本发明涉及图像融合与拼接。具体涉及一种基于多机器人激光SLAM和视觉SLAM地图融合拼接方法。
背景技术
随着智能机器人技术的发展,机器人应用逐渐由小范围、单一环境引入到大范围复杂环境中。同时定位与地图构建(SLAM)可以实时感知环境并构建地图,同时完成机器人在环境中的定位。SALM技术是机器人在未知环境中探索、导航和路径规划的重点和关键技术。多机器人协同建图可以克服大范围环境下建图所需时间长、计算量大、对机器人性能要求高等缺陷。与单传感器SALM相比,多传感器耦合SALM可以降低复杂环境对建图精度的影响。
发明内容
本发明提供了一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法。克服了大范围复杂环境中建图所需时间长、计算量大、准确度低和易受环境因素影响等缺陷。本发明技术方案实现如下:
S1、将若干台带有激光雷达、双目摄像头、IMU和编码器的机器人放在区域中的不同位置,确保每一台机器人和中心节点之间可以进行双向无线通信;
S2、机器人开始移动,激光雷达和双目摄像头采集环境数据,IMU和编码器采集机器人本体数据,通过激光SLAM、视觉SLAM算法分别创建局部栅格地图;
S3、通过地图融合算法将局部栅格地图融合得到局部融合地图。并将地图的增量更新传输到中心节点;
S4、中心节点在得到每台机器人传输的局部地图数据后,对局部地图进行拼接以得到范围逐渐增大的全局地图;
S5、中心节点在拼接后的地图上对每台机器人进行路径规划,以保证整个区域都可以被探索到,并将规划的路径信息发送给每台机器人;
S6、重复S2到S5,中心节点每次接收局部地图的更新并拼接优化,直至得到全局地图任务结束。
作为优选,步骤S2具体为:
S21、通过惯性传感器IMU采集机器人的惯性参量角速度和加速度,激光雷达采集距离值,双目摄像头采集图像信息,编码器采集脉冲信号;
S22、将IMU采集到的加速度积分得到速度和位移,再将编码器采集到的脉冲通过计算求解得到每个轮子的速度,通过运动求解算法得到机器人整体的移动速度。通过滤波将两传感器所得速度和位移进行融合,获得机器人位姿;
S23、将雷达数据和S22所得的位姿信息紧耦合通过激光SLAM算法可以得到局部二维栅格地图。将摄像头信息与IMU采集到的惯性量紧耦合传入视觉SLAM算法可得三维稀疏点云图,再将三维稀疏点云图和位姿转换为用跳表树表示的三维地图,三维地图投影于一个平面可得局部二维栅格图。
作为优选,步骤S3具体为:
S31、激光SLAM产生的局部栅格图和视觉SLAM产生的局部栅格图的每个栅格都用0~1概率表示,设定激光SLAM产生的局部栅格图的阈值T1和视觉SLAM经过转换后的局部栅格图的阈值T2;
S32、将占有率与预先分别设定的阈值进行比较,若大于阈值则为占有,小于阈值则为空,保存显示时,1表示占据,0表示空,-1表示不确定;
S33、将两种概率按照栅格占有规则进行判别,其中两者都为空时则判定为空,两者都不确定时判定为不确定,其余则判定为占有,进而产生局部融合地图。
作为优选,步骤S4具体为:
S41、中心节点接收每台机器人发送的局部地图增量更新,将每台机器人的局部地图增量更新添加到对应机器人的地图中,并对每台机器人的局部栅格地图进行优化;
S42、计算每台机器人的局部占据栅格地图之间的变换;
S43、确定地图之间最终的变换;
S44、对拼接得到的全局地图进行优化。
作为优选,步骤S42具体为:
提取每一张局部栅格地图的ORB特征;
对每对局部栅格地图之间的特征进行特征匹配;
求解每对局部栅格地图之间的坐标变换矩阵,使用RANSAC方法对特征进行筛选,使用SVD方法进行坐标变换矩阵的求解,并计算对应匹配的置信度;
形成一张匹配拓扑图,图的顶点为局部栅格地图,边为局部栅格地图之间的变换矩阵和匹配置信度。
作为优选,对应的两张局部占据栅格地图的置信度的计算包括以下步骤:
confidence=inliers_number/(a+b*matched_features_number);
其中,inliers_number表示RANSAC获取的内点数量,matched_features_number表示两张占据栅格地图之间匹配成功的特征点数量;
a,b为非负数,在特定任务中为定值,a根据任务中RANSAC获取的内点数量对置信度的影响确定,RANSAC获取的内点数量影响越大a数值越小,b根据任务中成功匹配的特征点数量对置信度的影响确定,成功匹配的特征点数量影响越大b数值越小。
作为优选,步骤S43具体为:
剔除置信度小于阈值的匹配,即删掉匹配图中的一些置信度不高的边;
在匹配图中寻找加权最大连通分量,即匹配的局部栅格地图数量最多的区域;
在加权最大连通分量中建立最大生成树;
将其中一张局部地图的参考系视为全局参考系,遍历生成树以获得其他地图相对于全局参考系的坐标变换矩阵,实现地图的拼接;
本发明的有益效果:
与单传感器SLAM相比,本发明采用激光SALM与视觉SLAM融合的构图方式,克服了单传感器建图准确度不高、易受环境因素影响等缺点。与单机器人建图相比,本发明采用多机器人协同工作的方式,克服了单机器人在大范围复杂环境下构图所需时间长,计算量大等缺陷。
附图说明
图1本发明的整体流程示意图
图2SLAM建图流程图
图3二维栅格地图融合流程图
图4局部地图拼接流程图
图5局部地图及全局拼接地图示意图
具体实施方式
下面结合附图和具体实施方式对本发明做进一步的说明。
请参阅图1,图1为本发明提供的一实施例中一种基于多机器人激光SLAM和视觉SLAM地图融合拼接方法的流程示意图,具体包括以下步骤:
S1、将若干台带有激光扫描测距雷达和双目摄像头的机器人放在区域中的不同位置,确保每一台机器人和中心节点之间可以进行双向无线通信;
S2、任务开始阶段,每台机器人随机移动。激光雷达和双目摄像头开始采集环境数据,并通过激光SLAM算法和视觉SLAM算法分别创建局部栅格地图;
S3、通过地图融合算法将局部栅格地图融合得到局部地图。并将地图的增量更新传输到中心节点;
S4、中心节点在得到每台机器人传输的地图数据后,对局部地图进行拼接以得到范围逐渐增大的全局地图;
S5、中心节点在拼接后的地图上对每台机器人进行路径规划,以保证整个区域都可以被探索到,并将规划的路径信息发送给每台机器人;
S6、重复S2到S5,中心节点每次接收局部地图的更新并拼接优化,直至得到全局地图任务结束。
请参阅图2,图2为本发明提供的一实施例中激光SLAM建图和视觉SLAM建图的流程示意图,具体包括以下步骤:
S21、通过惯性传感器IMU采集机器人的惯性参量角速度和加速度,激光雷达采集距离值,双目摄像头采集图像信息,编码器采集脉冲信号;
S22、将所有传感器采集的数据都转换到机器人坐标系下,进行时间同步。将IMU采集到的加速度信息积分得到速度和位移,再将编码器采集到的脉冲通过计算求解得到每个轮子的速度,通过运动求解算法得到机器人整体的移动速度。通过滤波将两传感器所得速度和位移进行融合,获得机器人位姿;
S23、激光雷达得到的点云数据和S22所得的位姿信息通过激光SLAM算法,经粒子滤波得到局部二维栅格地图。将摄像头采集到的图像信息与IMU采集到的惯性量传入视觉SLAM算法得到三维稀疏点云图,接收稀疏点云图的关键帧姿态和地图点,并利用图像数据对场景进行基于颜色的视觉分割,将其划分为地面和非地面区域,然后经过本地和全局计数器优化点云数据到栅格图中空闲单元的映射。通过斜率阈值算法确立障碍物,Canny边界检测算法消除边缘虚假障碍,形成二维栅格图。
请参阅图3,图3为本发明提供的一实施例中地图融合的流程示意图,具体包括以下步骤:
S31、将激光SLAM产生的局部栅格图和视觉SLAM产生的局部栅格图的每个栅格都用0~1概率表示,设定激光SLAM产生的局部栅格图的阈值T1和视觉SLAM经过转换后的局部栅格图的阈值T2;
S32、将占有率与预先分别设定的阈值进行比较,若大于阈值则为占有,小于阈值则为空,保存显示时,1表示占据,0表示空,-1表示不确定;
S33、将两种概率按照栅格占有规则进行判别,其中两者都为空时则判定为空,两者都不确定时判定为不确定,其余则判定为占有,进而产生局部融合地图。
请参阅图4,图4为本发明提供的一实施例中地图拼接的流程示意图,图5(a)、(b)、(c)为区域二维栅格地图,图5(d)为拼接后的全局栅格地图,具体包括以下步骤:
S41、中心节点接收每台机器人发送的局部地图增量更新,将机器人的局部地图增量更新添加到对应机器人的地图中,并对每台机器人的局部栅格地图进行优化;
S42、计算每台机器人的局部占据栅格地图之间的变换;
S43、确定地图之间最终的变换;
S44、对拼接得到的全局地图进行优化。
在应用实例中,S42具体为:
提取每一张局部栅格地图的ORB特征;
对每对局部栅格地图之间的特征进行特征匹配;
求解每对局部栅格地图之间的坐标变换矩阵,使用RANSAC方法对特征进行筛选,使用SVD方法进行坐标变换矩阵的求解,并计算对应匹配的置信度;
形成一张匹配拓扑图,图的顶点为局部栅格地图,边为局部栅格地图之间的变换矩阵和匹配置信度;
在应用实例中,对应的两张局部占据栅格地图的置信度的计算具体为:
confidence=inliers_number/(a+b*matched_features_number)
inliers_number表示RANSAC获取的内点数量,matched_features_number表示两张占据栅格地图之间匹配成功的特征点数量;
a,b为非负数,在特定任务中为定值,a根据任务中RANSAC获取的内点数量对置信度的影响确定,RANSAC获取的内点数量影响越大a数值越小,b根据任务中成功匹配的特征点数量对置信度的影响确定,成功匹配的特征点数量影响越大b数值越小。
在应用实例中,步骤S43具体为:
剔除置信度小于阈值的匹配,即删掉匹配图中的一些置信度不高的边;
在匹配图中寻找加权最大连通分量,即匹配的局部栅格地图数量最多的区域;
在加权最大连通分量中建立最大生成树;
将其中一张局部地图的参考系视为全局参考系,遍历生成树以获得其它地图相对于全局参考系的坐标变换矩阵,实现地图的拼接。

Claims (7)

1.一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法。其特征在于,该方法包括以下步骤:
S1、将若干台带有激光雷达、双目摄像头、IMU和编码器的移动机器人放在区域中的不同位置,确保每一台机器人和中心节点之间可以进行双向无线通信;
S2、机器人开始移动,激光雷达和双目摄像头采集环境数据,IMU和编码器采集机器人本体数据,通过激光SLAM、视觉SLAM算法分别创建局部栅格地图;
S3、通过地图融合算法将局部栅格地图融合得到局部融合地图。并将地图的增量更新传输到中心节点;
S4、中心节点在得到每台机器人传输的局部地图数据后,对局部地图进行拼接以得到范围逐渐增大的全局地图;
S5、中心节点在拼接后的地图上对每台机器人进行路径规划,以保证整个区域都可以被探索到,并将规划的路径信息发送给每台机器人;
S6、重复S2到S5,中心节点每次接收局部地图的更新并拼接优化,直至得到全局地图任务结束。
2.如权利要求1所述的一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法,其特征在于,局部栅格地图构建包括以下步骤:
S21、通过惯性传感器IMU采集机器人的惯性参量角速度和加速度,激光雷达采集距离值,双目摄像头采集图象,编码器采集脉冲信号;
S22、将采集到的加速度积分得到速度和位移,再将编码器采集到的脉冲通过计算求解得到每个轮子的速度,通过运动求解算法得到机器人整体的移动速度。通过滤波将两者传感器所得速度和位移进行融合,获得机器人位姿;
S23、将雷达数据和S22所得的位姿信息紧耦合通过激光SLAM算法可以得到局部二维栅格地图。将摄像头信息与IMU采集到的惯性量紧耦合传入视觉SLAM算法可得三维稀疏点云图,再将三维稀疏点云图和位姿转换为用跳表树表示的三维地图,三维地图投影于一个平面可得局部二维栅格图。
3.如权利要求1所述的一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法,其特征在于,栅格地图融合包括以下步骤:
S31、将激光SLAM产生的局部栅格图和视觉SLAM产生的局部栅格图的每个栅格都用0~1概率表示,设定激光SLAM产生的局部栅格图的阈值T1和视觉SLAM经过转换后的局部栅格图的阈值T2;
S32、将占有率与预先分别设定的阈值进行比较,若大于阈值则为占有,小于阈值则为空,保存显示时,1表示占据,0表示空,-1表示不确定;
S33、将两种概率按照栅格占有规则进行判别,其中两者都为空时则判定为空,两者都不确定时判定为不确定,其余则判定为占有,进而产生局部融合地图。
4.如权利要求1所述的一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法,其特征在于,栅格地图拼接包括以下步骤:
S41、中心节点接收每台机器人发送的局部地图增量更新,将每台机器人的局部地图增量更新添加到对应机器人的地图中,并对每台机器人的局部栅格地图进行优化;
S42、计算每台机器人的局部占据栅格地图之间的变换;
S43、确定地图之间最终的变换;
S44、对拼接得到的全局地图进行优化。
5.如权利要求4所述的一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法,其特征在于,计算每台机器人的局部占据栅格地图之间的变换包括以下步骤:
提取每一张局部栅格地图的ORB特征;
对每对局部栅格地图之间的特征进行特征匹配;
求解每对局部栅格地图之间的坐标变换矩阵,使用RANSAC方法对特征进行筛选,使用SVD方法进行坐标变换矩阵的求解,并计算对应匹配的置信度;
形成一张匹配拓扑图,图的顶点为局部栅格地图,边为局部栅格地图之间的变换矩阵和匹配置信度。
6.如权利要求5所述的一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法,其特征在于,对应的两张局部占据栅格地图的置信度的计算包括以下步骤:
confidence=inliers_number/(a+b*matched_features_number);
其中,inliers_number表示RANSAC获取的内点数量,
matched_features_number表示两张占据栅格地图之间匹配成功的特征点数量;
a,b为非负数,在特定任务中为定值,a根据任务中RANSAC获取的内点数量对置信度的影响确定,RANSAC获取的内点数量影响越大a数值越小,b根据任务中成功匹配的特征点数量对置信度的影响确定,成功匹配的特征点数量影响越大b数值越小。
7.如权利要求4所述的一种基于多机器人激光SLAM和视觉SLAM地图融合与拼接方法,其特征在于,确定地图之间的最终变换包括以下步骤:
剔除置信度小于阈值的匹配,即删掉匹配图中的一些置信度不高的边;
在匹配图中寻找加权最大连通分量,即匹配的局部栅格地图数量最多的区域;
在加权最大连通分量中建立最大生成树;
将其中一张局部地图的参考系视为全局参考系,遍历生成树以获得其他地图相对于全局参考系的坐标变换矩阵,实现地图的拼接。
CN202310809878.9A 2023-07-03 2023-07-03 一种基于多机器人激光slam和视觉slam地图融合与拼接方法 Pending CN116698014A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310809878.9A CN116698014A (zh) 2023-07-03 2023-07-03 一种基于多机器人激光slam和视觉slam地图融合与拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310809878.9A CN116698014A (zh) 2023-07-03 2023-07-03 一种基于多机器人激光slam和视觉slam地图融合与拼接方法

Publications (1)

Publication Number Publication Date
CN116698014A true CN116698014A (zh) 2023-09-05

Family

ID=87835779

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310809878.9A Pending CN116698014A (zh) 2023-07-03 2023-07-03 一种基于多机器人激光slam和视觉slam地图融合与拼接方法

Country Status (1)

Country Link
CN (1) CN116698014A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117723048A (zh) * 2023-12-18 2024-03-19 哈尔滨工业大学 一种通信受限下的多机器人压缩通信协同建图方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117723048A (zh) * 2023-12-18 2024-03-19 哈尔滨工业大学 一种通信受限下的多机器人压缩通信协同建图方法及系统

Similar Documents

Publication Publication Date Title
CN109341706B (zh) 一种面向无人驾驶汽车的多特征融合地图的制作方法
CN110726409B (zh) 一种基于激光slam和视觉slam地图融合方法
US11802769B2 (en) Lane line positioning method and apparatus, and storage medium thereof
KR20220053513A (ko) 이미지 데이터 자동 라벨링 방법 및 장치
CN111121754A (zh) 移动机器人定位导航方法、装置、移动机器人及存储介质
CN113269837B (zh) 一种适用于复杂三维环境的定位导航方法
CN110361010B (zh) 一种基于占据栅格地图且结合imu的移动机器人定位方法
WO2020224305A1 (zh) 用于设备定位的方法、装置及设备
CN112197770A (zh) 一种机器人的定位方法及其定位装置
CN110936383A (zh) 一种机器人的障碍物避让方法、介质、终端和装置
CN111260751B (zh) 基于多传感器移动机器人的建图方法
CN108564657B (zh) 一种基于云端的地图构建方法、电子设备和可读存储介质
CN113269878B (zh) 一种基于多传感器的建图方法及系统
CN111413970A (zh) 超宽带与视觉融合的室内机器人定位与自主导航方法
CN110751123B (zh) 一种单目视觉惯性里程计系统及方法
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN116698014A (zh) 一种基于多机器人激光slam和视觉slam地图融合与拼接方法
CN116222577B (zh) 闭环检测方法、训练方法、系统、电子设备及存储介质
CN111768489A (zh) 一种室内导航地图构建方法和系统
CN116295412A (zh) 一种基于深度相机的室内移动机器人稠密建图与自主导航一体化方法
CN114429432B (zh) 一种多源信息分层融合方法、装置及存储介质
CN116429116A (zh) 一种机器人定位方法及设备
CN110780325A (zh) 运动对象的定位方法及装置、电子设备
CN108198241A (zh) 一种三维图像构建的方法和装置
CN116817891A (zh) 一种实时多模态感知的高精地图构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication