CN111089585A - 一种基于传感器信息融合的建图及定位方法 - Google Patents

一种基于传感器信息融合的建图及定位方法 Download PDF

Info

Publication number
CN111089585A
CN111089585A CN201911392532.3A CN201911392532A CN111089585A CN 111089585 A CN111089585 A CN 111089585A CN 201911392532 A CN201911392532 A CN 201911392532A CN 111089585 A CN111089585 A CN 111089585A
Authority
CN
China
Prior art keywords
map
fusion
grid
attitude angle
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911392532.3A
Other languages
English (en)
Inventor
徐军
吴兴圆
马静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN201911392532.3A priority Critical patent/CN111089585A/zh
Publication of CN111089585A publication Critical patent/CN111089585A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Abstract

本发明涉及一种基于信息融合的建图及定位方法。包括以下几个步骤:A、传感器获取机器人本体及周围环境信息;B、处理数据,同时创建局部地图并进行特征匹配构建全局地图;C、采用滤波算法将里程计和IMU测量的数据融合生成机器人新的位姿信息;同时基于贝叶斯算法将Kinect与2D激光雷达获取的环境特征进行融合得到新的特征信息;最后基于新的环境特征和位姿信息构建新的局部地图;D、对新的局部地图与全局地图进行特征匹配完成数据关联,使用新的局部地图更新全局地图,输出全局地图。本发明基于传感器信息融合构建的栅格地图增加了环境特征信息,可探测到三维空间的障碍物;同时里程计与IMU的数据融合互补后提高了定位精度。

Description

一种基于传感器信息融合的建图及定位方法
技术领域
本发明属于移动机器人路径规划领域,具体为一种基于传感器信息融合的构建栅格地图及定位方法。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
当今移动机器人涉及到各行各业,现已广泛应用于家庭服务、工业制造、特种作战和军事作战等领域,而这些领域的移动机器人进行路径规划所用到的核心技术之一就是地图构建与定位。
SLAM(同步定位与地图构建)是路径规划的关键步骤,将直接影响到避障结果,目前单独基于某一种传感器的SLAM进行的路径规划仍存在一系列问题;2D激光雷达仅能获取二维平面点云,利用相邻帧间的点云位姿变换解算误差较大;并且只能检测到二维平面内障碍物的距离及方位,无法直接获得三维空间的障碍物的信息;另外,视觉SLAM受室内环境的影响较大,光线的微弱改变就会影响到建图以及定位精度;并且通过摄像头直接或间接获得的距离信息噪声大,难以与2D激光雷达的精度相比较,同时,由于单目以及双目摄像头获得深度信息需要大量计算,影响到SLAM的实时性。
发明内容
为了解决所述背景技术中单一传感器在建图及定位时存在一些缺点进而影响机器人避障的问题,本发明提供了一种基于传感器信息融合的建图及定位方法,具体包含以下步骤:
A、初始时刻,通过2D激光雷达、深度摄像机、里程计、惯性测量单元IMU获取机器人本体及周围的环境信息;
B、对步骤A获取的环境信息进行滤波、标记、加密等数据处理,同时创建局部地图并进行特征匹配构建初始时刻的全局地图;
C、机器人移动后,首先利用滤波算法将里程计和IMU新测量的数据融合生成新的机器人位姿信息;其次基于贝叶斯算法将深度摄像机Kinect与2D激光雷达获取的环境特征进行融合得到新的特征信息;最后根据新的特征和位姿信息构建新的局部地图;
D、根据步骤C将新的局部地图与全局地图进行特征匹配完成局部地图与全局地图的数据关联,使用新的局部地图更新全局地图,实现增量式地图构建,最终输出全局地图。
优选的,所述步骤C中里程计与IMU对姿态角的融合过程如下:
a、首先通过IMU和里程计分别测量获得机器人的姿态角,并且计算两者之间的差值;
b、然后对姿态角差值与姿态角阈值进行比较,选择出状态估计时所用到的姿态角:当IMU测得的姿态角与编码器里程计测得的姿态角之差大于阈值时,选用IMU测得的姿态角,否则通过加权平均求得姿态角;
c、其次基于扩展卡尔曼滤波EKF对移动机器人的状态进行估计;
d、最后输出机器人的位姿信息。
优选的,所述步骤C中2D激光雷达和深度摄像机Kinect的融合过程如下:
a、利用2D激光雷达和Kinect获取环境信息进而分别构建局部栅格地图,同时对栅格单元Cij进行初始化:每个栅格单元Cij被障碍物占据的概率Po大于阈值To时,Cij的概率值将被设置成1,否则仍为Po,初始化公式是:
Figure BDA0002345388250000031
其中po代表传感器的某一栅格被占据的概率;
b、其次基于贝叶斯定理得到数据融合公式
Figure BDA0002345388250000032
再根据融合公式解得融合后占据栅格的概率
Figure BDA0002345388250000033
其中栅格单元初始化时,在任意给定栅格单元的条件下
Figure BDA0002345388250000034
Figure BDA0002345388250000035
表示2D激光雷达或Kinect栅格被占据的概率;P表示2D激光雷达或Kinect测量距离的估计值;
Figure BDA0002345388250000036
表示先验栅格地图中单元被占据的先验概率;
Figure BDA0002345388250000037
代表对应传感器的某一栅格被占据的概率;
c、最后根据融合模型P结合Cij的状态以及融合后占据栅格的概率模型
Figure BDA0002345388250000038
来完成数据的融合与更新,用新的栅格地图覆盖原始地图,最终实现栅格地图的融合。
与现有技术相比,本发明的有益效果是:
本发明通过贝叶斯和EKF滤波算法将2D激光雷达、深度摄像机Kinect、IMU、里程计获取的信息进行融合建图以及定位,使得栅格地图环境特征信息更加详细,同时提高了定位精度,并且能将三维空间中的某些重要特征完成再现。
附图说明
图1是地图同步定位和建图过程
图2是2D激光雷达和Kinect的融合过程
图3是IMU和里程计的融合过程
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,以下结合附图及具体实施例,对本申请作进一步地详细说明。
实施例一:
请参阅图1,本发明提供如下技术方案:一种基于传感器信息融合的建图及定位方法,包括以下步骤:
1、初始时刻,通过2D激光雷达、深度摄像机Kinect、里程计、惯性测量单元IMU获取机器人本体及周围的环境信息;
2、对步骤A获取的环境信息进行滤波、标记、加密等数据处理,同时创建局部地图并进行特征匹配构建初始时刻的全局地图;
3、机器人移动后,首先利用卡尔曼滤波算法将里程计和IMU新测量的数据融合生成新的机器人位姿信息;其次利用贝叶斯算法将深度摄像机与2D激光雷达将获取的环境特征进行融合得到新的环境特征信息;最后根据新的环境特征和位姿信息构建新的局部地图;
4、根据步骤3将新的局部地图与全局地图进行特征匹配完成局部地图与全局地图的数据关联,使用新的局部地图更新全局地图,实现增量式地图构建,最终输出全局地图。
本实例中请参阅图3,步骤3中里程计与IMU对姿态角的融合过程如下:
a、通过惯性测量单元IMU和里程计分别测量获得机器人的姿态角Ψi、Ψo,并且计算两者之间的差值Ψd
b、然后将姿态角差值Ψd与姿态角阈值Ψt进行比较,选择出状态估计时所用到的姿态角。当IMU测得的姿态角与编码器里程计测得的姿态角之差大于阈值时,选用IMU测得的姿态角,否则通过加权平均求得姿态角;
c、基于扩展卡尔曼滤波EKF对移动机器人的状态进行估计,首先利用预估方程xk=Fkxk-1+Bkuk+wk计算预测值xk|k-1以及预测值和真实值之间的协方差矩阵Pk|k-1;其次基于观测方程zk=Hkxk+vk计算残差yk、残差协方差Sk和卡尔曼增益Kk;最后,根据扩展卡尔曼滤波更新得到Xk,Pk。其中,Fk是作用在k-1时刻状态xk-1上的变换矩阵,uk是k时刻系统的输入量,Bk是作用在控制器向量uk上的控制矩阵,wk是k时刻的高斯噪声,Hk是观测矩阵,vk是k时刻观测的高斯噪声;
d、输出位姿信息。
本发明中将IMU和里程计的信息进行融合能够校正里程计的定位精度,同时提高建图的准确率和避障效率。
本实例中请参阅图2,步骤3中2D激光雷达与深度摄像机Kinect的融合过程如下:
a、首先利用2D激光雷达和深度摄像机Kinect获取环境信息并对栅格单元进行初始化进而分别构建局部地图。将栅格单元Cij初始化就是对每个栅格小单元被占据的概率进行赋值:每个栅格单元Cij被障碍物占据的概率Po大于阈值To时,Cij的概率值将被设置成1,否则仍为Po,初始化公式是:
Figure BDA0002345388250000061
其中Po代表传感器的某一栅格被占据的概率;
b、其次根据贝叶斯定理得到数据融合公式
Figure BDA0002345388250000062
再根据融合公式得到融合后占据栅格的概率
Figure BDA0002345388250000063
其中栅格单元初始化时,在任意给定栅格单元Cij的条件下
Figure BDA0002345388250000064
Figure BDA0002345388250000065
表示2D激光雷达或Kinect栅格被占据的概率;P表示2D激光雷达或Kinect测量距离的估计值;
Figure BDA0002345388250000066
先验栅格地图中单元被占据的先验概率;
Figure BDA0002345388250000067
代表对应传感器的某一栅格被占据的概率。
c、最后根据融合模型P结合Cij的状态以及融合后占据栅格的概率模型
Figure BDA0002345388250000068
来完成数据的融合与更新,用新的栅格地图覆盖原始地图,最终实现栅格地图的融合。
本发明通过贝叶斯算法将2D激光雷达、深度摄像机获取的信息进行融合来构建地图,使得栅格地图环境特征信息更加详细,并且能将三维空间中的某些期望特征完成再现。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (3)

1.一种基于传感器信息融合的建图及定位方法,其特征在于,包括以下步骤:
A、初始时刻,通过2D激光雷达、深度摄像机、里程计、IMU(惯性测量单元)获取机器人本体及周围的环境信息;
B、对步骤A获取的环境信息进行滤波、标记、加密等数据处理,同时创建局部地图并进行特征匹配构建初始时刻的全局地图;
C、机器人移动后,首先利用滤波算法将里程计和IMU新测量的数据融合生成新的机器人位姿信息;其次基于贝叶斯算法将深度摄像机Kinect与2D激光雷达获取的环境特征进行融合得到新的特征信息;最后根据新的特征和位姿信息构建新的局部地图;
D、根据步骤C将新的局部地图与全局地图进行特征匹配完成局部地图与全局地图的数据关联,使用新的局部地图更新全局地图,实现增量式地图构建,最终输出全局地图。
2.根据权利要求书1所述的一种基于传感器信息融合的建图及定位方法,其特征在于,所述步骤C中里程计和IMU对姿态角的融合过程如下:
a、首先通过IMU和里程计分别测量获得机器人的姿态角,并且计算两者之间的差值;
b、然后对姿态角差值与姿态角阈值进行比较,选择出状态估计时所用到的姿态角:当IMU测得的姿态角与编码器里程计测得的姿态角之差大于阈值时,选用IMU测得的姿态角,否则通过加权平均求得姿态角;
c、其次基于扩展卡尔曼滤波EKF对移动机器人的状态进行估计;
d、最后输出机器人的位姿信息。
3.根据权利要求书1所述的一种基于传感器信息融合的建图及定位方法,其特征在于,所述步骤C中2D激光雷达和深度摄像机Kinect的融合过程如下:
a、利用2D激光雷达和Kinect获取环境信息进而分别构建局部栅格地图,同时对栅格单元Cij进行初始化:每个栅格单元Cij被障碍物占据的概率Po大于阈值To时,Cij的概率值将被设置成1,否则仍为Po,初始化公式是:
Figure FDA0002345388240000021
其中Po代表传感器的某一栅格被占据的概率;
b、其次基于贝叶斯定理得到数据融合公式
Figure FDA0002345388240000022
再根据融合公式解得融合后占据栅格的概率
Figure FDA0002345388240000023
其中栅格单元初始化时,在任意给定栅格单元的条件下
Figure FDA0002345388240000024
Figure FDA0002345388240000025
表示2D激光雷达或Kinect栅格被占据的概率;P表示2D激光雷达或Kinect测量距离的估计值;
Figure FDA0002345388240000026
表示先验栅格地图中单元被占据的先验概率;
Figure FDA0002345388240000027
代表对应传感器的某一栅格被占据的概率。
c、最后根据融合模型P结合Cij的状态以及融合后占据栅格的概率模型
Figure FDA0002345388240000028
来完成数据的融合与更新,用新的栅格地图覆盖原始地图,最终实现栅格地图的融合。
CN201911392532.3A 2019-12-30 2019-12-30 一种基于传感器信息融合的建图及定位方法 Pending CN111089585A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911392532.3A CN111089585A (zh) 2019-12-30 2019-12-30 一种基于传感器信息融合的建图及定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911392532.3A CN111089585A (zh) 2019-12-30 2019-12-30 一种基于传感器信息融合的建图及定位方法

Publications (1)

Publication Number Publication Date
CN111089585A true CN111089585A (zh) 2020-05-01

Family

ID=70397653

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911392532.3A Pending CN111089585A (zh) 2019-12-30 2019-12-30 一种基于传感器信息融合的建图及定位方法

Country Status (1)

Country Link
CN (1) CN111089585A (zh)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111025324A (zh) * 2020-01-06 2020-04-17 青梧桐有限责任公司 一种基于测距传感器的户型图生成方法
CN111536964A (zh) * 2020-07-09 2020-08-14 浙江大华技术股份有限公司 机器人定位方法及装置、存储介质
CN111580130A (zh) * 2020-05-25 2020-08-25 中国计量大学 一种基于多传感器融合的建图方法
CN111598916A (zh) * 2020-05-19 2020-08-28 金华航大北斗应用技术有限公司 一种基于rgb-d信息的室内占据栅格地图的制备方法
CN111796600A (zh) * 2020-07-22 2020-10-20 中北大学 一种基于四足机器人的物体识别与跟踪系统
CN111813102A (zh) * 2020-06-06 2020-10-23 浙江中力机械有限公司 一种分布式自主机器人环境地图构建方法
CN111811502A (zh) * 2020-07-10 2020-10-23 北京航空航天大学 一种运动载体多源信息融合导航方法及系统
CN111862214A (zh) * 2020-07-29 2020-10-30 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
CN111942374A (zh) * 2020-08-14 2020-11-17 中国第一汽车股份有限公司 一种障碍物地图生成方法、装置、车辆及存储介质
CN112016612A (zh) * 2020-08-26 2020-12-01 四川阿泰因机器人智能装备有限公司 一种基于单目深度估计的多传感器融合slam方法
CN112066982A (zh) * 2020-09-07 2020-12-11 成都睿芯行科技有限公司 一种在高动态环境下的工业移动机器人定位方法
CN112097774A (zh) * 2020-09-16 2020-12-18 东北大学秦皇岛分校 基于自适应卡尔曼滤波与平均跟踪的分布式地图融合方法
CN112304307A (zh) * 2020-09-15 2021-02-02 浙江大华技术股份有限公司 一种基于多传感器融合的定位方法、装置和存储介质
CN112518739A (zh) * 2020-10-22 2021-03-19 新兴际华集团有限公司 履带式底盘机器人侦察智能化自主导航方法
CN112612788A (zh) * 2020-12-11 2021-04-06 中国北方车辆研究所 一种无导航卫星信号下的自主定位方法
CN112652001A (zh) * 2020-11-13 2021-04-13 山东交通学院 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统
CN112887903A (zh) * 2021-01-26 2021-06-01 东南大学 一种基于软信息融合的通信定位感知一体化方法
CN113093759A (zh) * 2021-04-08 2021-07-09 中国科学技术大学 基于多传感器信息融合的机器人编队构造方法及系统
CN113108773A (zh) * 2021-04-22 2021-07-13 哈尔滨理工大学 一种融合激光与视觉传感器的栅格地图构建方法
CN113238554A (zh) * 2021-05-08 2021-08-10 武汉科技大学 一种基于激光与视觉融合slam技术的室内导航方法及系统
CN113253730A (zh) * 2021-05-20 2021-08-13 南京理工大学 突发事件下机器人地图构建与在线规划方法
CN113432586A (zh) * 2021-06-24 2021-09-24 国网浙江省电力有限公司双创中心 地下管道巡检设备的轨迹测绘方法及地下管道巡检设备
CN113804182A (zh) * 2021-09-16 2021-12-17 重庆邮电大学 一种基于信息融合的栅格地图创建方法
WO2022027611A1 (zh) * 2020-08-07 2022-02-10 苏州珊口智能科技有限公司 移动机器人的定位方法、构建地图的方法及移动机器人
CN114076595A (zh) * 2022-01-19 2022-02-22 浙江吉利控股集团有限公司 道路高精度地图生成方法、装置、设备及存储介质
CN114562994A (zh) * 2022-03-09 2022-05-31 上海应用技术大学 移动机器人处于动态环境中的定位方法
CN114643579A (zh) * 2022-03-29 2022-06-21 深圳优地科技有限公司 一种机器人定位方法、装置、机器人及存储介质
CN115307646A (zh) * 2022-10-08 2022-11-08 浙江光珀智能科技有限公司 一种多传感器融合的机器人定位方法、系统及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109341705A (zh) * 2018-10-16 2019-02-15 北京工业大学 智能探测机器人同时定位与地图构建系统
CN109725327A (zh) * 2019-03-07 2019-05-07 山东大学 一种多机构建地图的方法及系统
CN109933056A (zh) * 2017-12-18 2019-06-25 九阳股份有限公司 一种基于slam的机器人导航方法以及机器人

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109933056A (zh) * 2017-12-18 2019-06-25 九阳股份有限公司 一种基于slam的机器人导航方法以及机器人
CN109341705A (zh) * 2018-10-16 2019-02-15 北京工业大学 智能探测机器人同时定位与地图构建系统
CN109725327A (zh) * 2019-03-07 2019-05-07 山东大学 一种多机构建地图的方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
崔超 等: "《移动机器人路径设计与定位计算》" *
涂刚毅 等: "《基于粒子滤波的移动机器人SLAM算法》" *

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111025324A (zh) * 2020-01-06 2020-04-17 青梧桐有限责任公司 一种基于测距传感器的户型图生成方法
CN111598916A (zh) * 2020-05-19 2020-08-28 金华航大北斗应用技术有限公司 一种基于rgb-d信息的室内占据栅格地图的制备方法
CN111580130A (zh) * 2020-05-25 2020-08-25 中国计量大学 一种基于多传感器融合的建图方法
CN111813102B (zh) * 2020-06-06 2023-11-21 浙江中力机械股份有限公司 一种分布式自主机器人环境地图构建方法
CN111813102A (zh) * 2020-06-06 2020-10-23 浙江中力机械有限公司 一种分布式自主机器人环境地图构建方法
CN111536964B (zh) * 2020-07-09 2020-11-06 浙江大华技术股份有限公司 机器人定位方法及装置、存储介质
CN111536964A (zh) * 2020-07-09 2020-08-14 浙江大华技术股份有限公司 机器人定位方法及装置、存储介质
CN111811502A (zh) * 2020-07-10 2020-10-23 北京航空航天大学 一种运动载体多源信息融合导航方法及系统
CN111796600A (zh) * 2020-07-22 2020-10-20 中北大学 一种基于四足机器人的物体识别与跟踪系统
CN111862214A (zh) * 2020-07-29 2020-10-30 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
CN111862214B (zh) * 2020-07-29 2023-08-25 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
WO2022027611A1 (zh) * 2020-08-07 2022-02-10 苏州珊口智能科技有限公司 移动机器人的定位方法、构建地图的方法及移动机器人
CN111942374A (zh) * 2020-08-14 2020-11-17 中国第一汽车股份有限公司 一种障碍物地图生成方法、装置、车辆及存储介质
CN112016612A (zh) * 2020-08-26 2020-12-01 四川阿泰因机器人智能装备有限公司 一种基于单目深度估计的多传感器融合slam方法
CN112066982A (zh) * 2020-09-07 2020-12-11 成都睿芯行科技有限公司 一种在高动态环境下的工业移动机器人定位方法
CN112066982B (zh) * 2020-09-07 2021-08-31 成都睿芯行科技有限公司 一种在高动态环境下的工业移动机器人定位方法
CN112304307A (zh) * 2020-09-15 2021-02-02 浙江大华技术股份有限公司 一种基于多传感器融合的定位方法、装置和存储介质
CN112097774A (zh) * 2020-09-16 2020-12-18 东北大学秦皇岛分校 基于自适应卡尔曼滤波与平均跟踪的分布式地图融合方法
CN112097774B (zh) * 2020-09-16 2022-08-23 东北大学秦皇岛分校 基于自适应卡尔曼滤波与平均跟踪的分布式地图融合方法
CN112518739A (zh) * 2020-10-22 2021-03-19 新兴际华集团有限公司 履带式底盘机器人侦察智能化自主导航方法
CN112652001A (zh) * 2020-11-13 2021-04-13 山东交通学院 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统
CN112612788B (zh) * 2020-12-11 2024-03-01 中国北方车辆研究所 一种无导航卫星信号下的自主定位方法
CN112612788A (zh) * 2020-12-11 2021-04-06 中国北方车辆研究所 一种无导航卫星信号下的自主定位方法
CN112887903A (zh) * 2021-01-26 2021-06-01 东南大学 一种基于软信息融合的通信定位感知一体化方法
CN112887903B (zh) * 2021-01-26 2022-12-09 东南大学 一种基于软信息融合的通信定位感知一体化方法
CN113093759A (zh) * 2021-04-08 2021-07-09 中国科学技术大学 基于多传感器信息融合的机器人编队构造方法及系统
CN113108773A (zh) * 2021-04-22 2021-07-13 哈尔滨理工大学 一种融合激光与视觉传感器的栅格地图构建方法
CN113238554A (zh) * 2021-05-08 2021-08-10 武汉科技大学 一种基于激光与视觉融合slam技术的室内导航方法及系统
CN113253730A (zh) * 2021-05-20 2021-08-13 南京理工大学 突发事件下机器人地图构建与在线规划方法
CN113253730B (zh) * 2021-05-20 2022-08-09 南京理工大学 突发事件下机器人地图构建与在线规划方法
CN113432586A (zh) * 2021-06-24 2021-09-24 国网浙江省电力有限公司双创中心 地下管道巡检设备的轨迹测绘方法及地下管道巡检设备
CN113804182A (zh) * 2021-09-16 2021-12-17 重庆邮电大学 一种基于信息融合的栅格地图创建方法
CN113804182B (zh) * 2021-09-16 2023-09-29 重庆邮电大学 一种基于信息融合的栅格地图创建方法
CN114076595A (zh) * 2022-01-19 2022-02-22 浙江吉利控股集团有限公司 道路高精度地图生成方法、装置、设备及存储介质
WO2023137865A1 (zh) * 2022-01-19 2023-07-27 浙江吉利控股集团有限公司 道路高精度地图生成方法、装置、设备及存储介质
CN114562994A (zh) * 2022-03-09 2022-05-31 上海应用技术大学 移动机器人处于动态环境中的定位方法
CN114643579A (zh) * 2022-03-29 2022-06-21 深圳优地科技有限公司 一种机器人定位方法、装置、机器人及存储介质
CN114643579B (zh) * 2022-03-29 2024-01-16 深圳优地科技有限公司 一种机器人定位方法、装置、机器人及存储介质
CN115307646A (zh) * 2022-10-08 2022-11-08 浙江光珀智能科技有限公司 一种多传感器融合的机器人定位方法、系统及装置

Similar Documents

Publication Publication Date Title
CN111089585A (zh) 一种基于传感器信息融合的建图及定位方法
CN109211251B (zh) 一种基于激光和二维码融合的即时定位与地图构建方法
Ho et al. Virtual occupancy grid map for submap-based pose graph SLAM and planning in 3D environments
Lee et al. Probabilistic map merging for multi-robot RBPF-SLAM with unknown initial poses
CN108332758B (zh) 一种移动机器人的走廊识别方法及装置
Yap et al. A particle filter for monocular vision-aided odometry
CN112183171A (zh) 一种基于视觉信标建立信标地图方法、装置
CN112444246B (zh) 高精度的数字孪生场景中的激光融合定位方法
Meier et al. Visual‐inertial curve simultaneous localization and mapping: Creating a sparse structured world without feature points
Dong et al. Sparse Gaussian processes for continuous-time trajectory estimation on matrix lie groups
Han et al. Robust ego-motion estimation and map matching technique for autonomous vehicle localization with high definition digital map
Gao et al. Multi-view sensor fusion by integrating model-based estimation and graph learning for collaborative object localization
Sibley et al. A sliding window filter for incremental SLAM
Kitanov et al. Mobile robot self-localization in complex indoor environments using monocular vision and 3D model
Chen et al. An optimal selection of sensors in multi-sensor fusion navigation with factor graph
Barrau et al. Invariant filtering for pose ekf-slam aided by an imu
Valente et al. Evidential SLAM fusing 2D laser scanner and stereo camera
Qayyum et al. Imu aided rgb-d slam
Lee et al. Development of advanced grid map building model based on sonar geometric reliability for indoor mobile robot localization
Zhang et al. Cumulative error estimation from noisy relative measurements
Safin et al. Modern Methods of Map Construction Using Optical Sensors Fusion
Lim et al. MSDPN: Monocular depth prediction with partial laser observation using multi-stage neural networks
Zhao et al. 3D indoor map building with monte carlo localization in 2D map
CN113034538B (zh) 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备
Aditya Implementation of a 4D fast SLAM including volumetric sum of the UAV

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200501