CN110428467B - 一种相机、imu和激光雷达联合的机器人定位方法 - Google Patents

一种相机、imu和激光雷达联合的机器人定位方法 Download PDF

Info

Publication number
CN110428467B
CN110428467B CN201910693989.1A CN201910693989A CN110428467B CN 110428467 B CN110428467 B CN 110428467B CN 201910693989 A CN201910693989 A CN 201910693989A CN 110428467 B CN110428467 B CN 110428467B
Authority
CN
China
Prior art keywords
imu
frame
point
feature points
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910693989.1A
Other languages
English (en)
Other versions
CN110428467A (zh
Inventor
张轶
黄瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201910693989.1A priority Critical patent/CN110428467B/zh
Publication of CN110428467A publication Critical patent/CN110428467A/zh
Application granted granted Critical
Publication of CN110428467B publication Critical patent/CN110428467B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种相机、imu和激光雷达联合的机器人定位方法,通过相机和激光雷达维护较准确周围环境的深度,并通过特征点的连续跟踪构造里程计。本方法能结合相机、imu和激光雷达的优点,建立精确稠密的点云地图,供机器人做路径规划用,通过相机与激光雷达的紧耦合,提高帧间里程计的精度,并达到较高鲁棒性;通过激光与相机实时维护的点云地图,再激光扫描中做里程计的局部优化;通过相机提供的单词信息及imu数据判断回环,在视觉和激光共同提供的点云地图实现进行闭环优化。

Description

一种相机、imu和激光雷达联合的机器人定位方法
技术领域
本发明涉及机器人定位技术领域,尤其涉及一种相机、imu和激光雷达联合的机器人定位方法。
背景技术
随着计算能力和传感器等技术的不断增强,室外巡逻型和安防型机器人的功能也变得日益增大,与此同时,多传感器数据的混合使用也变得日益多样。机器人不再局限于单一的传感器的使用,而可以通过多传感器数据的相互配合从而获得更加准确的环境以及位姿信息。多传感器数据的相互配合使用作为机器人定位的重要手段,需要较强的计算能力,现在计算机的发展正好为此条件提供了良好的基础。
现有机器人方案大多基于摄像机或低线束激光雷达,基于摄像机的方案会带来精度和稳定性不高的问题,单纯基于激光雷达也会带来不能很好进行点云匹配的问题。
发明内容
本发明的目的就在于为了解决上述问题而提供一种相机、imu和激光雷达联合的机器人定位方法,包括如下步骤:
S1:标定激光雷达和相机,使得激光点与像素点达到像素级精度;
S2:设置激光雷达扫描频率、扫描角度、相机帧率及imu频率并进行数据采集;
S3:对imu数据预积分,并通过视觉特征点抑制其误差,实时获取帧间位姿变换信息与特征点信息;
S4:配准特征点与激光点云,选取特征点射线位于激光点云曲率较小区域的特征点对,插值出特征点距离,并对特征点对赋予首要权重;
S5:判断环境光照是否稳定以及点云纹理信息是否丰富,若是则转S6,否则通过imu获得帧间运动数据,并通过局部点云配准进行优化,转S6;
S6:计算位姿变换获得连续跟踪的特征点的深度信息并赋予次要权重;
S7:将点云图加入运动估计模型约束处理;
S8:根据特征点数量及imu激励判断并根据需要插入关键帧进行局部优化;
S9:通过相机获得特征点所维护的单词库,通过比较图像帧编码的单词信息和图像关键帧库的单词信息是否匹配并判断是否连续多帧为回环帧,若是则开启闭环检测进行闭环优化,转S10;否则转S3;
S10:优化全部帧及点云图。
进一步的,所述S7运动估计模型约束处理具体包括:
设:
Figure GDA0002412769980000021
表示本帧特征点位置,
Figure GDA0002412769980000022
表示上一帧特征点位置;
Figure GDA0002412769980000023
为特征点的归一化方向;i表示特征点编号,k表示用于插值特征点的图像帧编号,R表示姿态变换值,T表示位移变换值;
(1)对于能插值出深度的特征点,直接使用位姿转换的估计作为约束,约束公式:
Figure GDA0002412769980000024
(2)对于只能前一帧能插值出深度的特征点,约束公式:
Figure GDA0002412769980000025
Figure GDA0002412769980000026
(3)对于两帧都不能插值出深度的特征点,通过imu的运动,三角化出特征点的位置,使用imu得到位姿变换初值,并在当前帧的基础上进行局部地图优化。
进一步的,所述S10闭环优化具体包括:先通过视觉和imu数据得到当前帧与回环帧相对位姿,再将当前帧及其局部点云图投射到回环帧中,根据点云图得到相对位姿,根据帧间转换,修正闭环中各帧位姿和地图数据。
本发明的有益效果在于:
(1)本发明中imu位姿检测的连续性弥补了视觉里程计对光照变化敏感带来的特征点跟踪不连续或不能提取特征点的情况,同时低成本的imu本身的不精确性可以通过相机和激光雷达得到修正;
(2)基于特征点法,能有效检测回环,消除累计误差;
(3)激光雷达输出的稠密点云可直接用于机器人的运动导航;
(4)两帧间若特征点深度完全无法插值,能够使用imu得到初步的位姿转换,基于激光点云图实现进一步优化;
(5)对光照变化不敏感,较暗的环境下依旧能通过激光雷达与imu的配合做到精确导航。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图对本发明作进一步说明:
如图1所示,本发明本发明的目的就在于为了解决上述问题而提供一种相机、imu和激光雷达联合的机器人定位方法,包括如下步骤:
S1:标定激光雷达和相机,使得激光点与像素点达到像素级精度;
S2:设置激光雷达扫描频率、扫描角度、相机帧率及imu频率并进行数据采集;
S3:对imu数据预积分,并通过视觉特征点抑制其误差,实时获取帧间位姿变换信息与特征点信息;
S4:配准特征点与激光点云,选取特征点射线位于激光点云曲率较小区域的特征点对,插值出特征点距离,并对特征点对赋予首要权重;
S5:判断环境光照是否稳定以及点云纹理信息是否丰富,若是则转S6,否则通过imu获得帧间运动数据,并通过局部点云配准进行优化,转S6;
S6:计算位姿变换获得连续跟踪的特征点的深度信息并赋予次要权重;
S7:将点云图加入运动估计模型约束处理;
S8:根据特征点数量及imu激励判断并根据需要插入关键帧进行局部优化;
S9:通过相机获得特征点所维护的单词库,通过比较图像帧编码的单词信息和图像关键帧库的单词信息是否匹配并判断是否连续多帧为回环帧,若是则开启闭环检测进行闭环优化,转S10;否则转S3;
S10:优化全部帧及点云图。
进一步的,所述S7运动估计模型约束处理具体包括:
设:
Figure GDA0002412769980000041
表示本帧特征点位置,
Figure GDA0002412769980000042
表示上一帧特征点位置;
Figure GDA0002412769980000043
为特征点的归一化方向;i表示特征点编号,k表示用于插值特征点的图像帧编号,R表示姿态变换值,T表示位移变换值;
(1)对于能插值出深度的特征点,直接使用位姿转换的估计作为约束,约束公式:
Figure GDA0002412769980000044
(2)对于只能前一帧能插值出深度的特征点,约束公式:
Figure GDA0002412769980000045
Figure GDA0002412769980000046
(3)对于两帧都不能插值出深度的特征点,通过imu的运动,三角化出特征点的位置,使用imu得到位姿变换初值,并在当前帧的基础上进行局部地图优化。
进一步的,所述S10闭环优化具体包括:先通过视觉和imu数据得到当前帧与回环帧相对位姿,再将当前帧及其局部点云图投射到回环帧中,根据点云图得到相对位姿,根据帧间转换,修正闭环中各帧位姿和地图数据。
视觉特征点被分为3种类型:(1)通过上述相机和激光雷达匹配方法可插值出深度的点云;(2)不能插值出深度,但可通过前后帧运动关系,三角化出连续跟踪的特征点;(3)不能恢复出深度的点。
对于以上三种特征点,在运动估计中一共有以下几种情况:1.相同特征点连续两帧间都能插值出深度;2.连续两帧间前一帧能插值出深度,后一帧不能插值出深度;3.连续两帧都不能插值出深度。
(1)对于能插值出深度的特征点,直接使用位姿转换的估计作为约束,约束公式:
Figure GDA0002412769980000051
(2)对于只能前一帧能插值出深度的特征点,约束公式:
Figure GDA0002412769980000052
Figure GDA0002412769980000053
(3)对于两帧都不能插值出深度的特征点,通过imu的运动,三角化出特征点的位置,使用imu得到位姿变换初值,再将其作为额外的约束考虑,此时,这种约束被赋予极小权重,用于精细化约束运动关系;若此时能值出深度的特征点数目不足以估计帧间转换,则使用imu得到位姿变换初值,并在当前帧的基础上进行局部地图优化。
视觉与imu约束主要作用是配合使用imu和相机,用于实时约束imu的误差,并在光线较暗的地方或是点云纹理信息单一等不好提供特征跟踪的地方进行初步的位姿估计,并使用激光雷达进行局部地图优化,从而恢复出较精确的运动估计信息。
本发明实施例具体实施步骤包括:
S1:准确的标定激光雷达和相机,使得激光点与像素点的对应达到像素级精度;
S2:设置激光雷达扫描频率10Hz,扫描角度360°,相机帧率25Hz,imu频率200Hz并进行数据采集;
S3:对imu数据预积分,并通过视觉特征点抑制其误差,实时获取帧间位姿变换信息与特征点信息;
S4:配准特征点与激光点云,其中只选取特征点射线位于激光点云曲率较小区域的特征点对,插值出较准确的特征点距离,并给这种有激光实际深度的特征点对附较高权重;
S5:在正常环境中运动时(光照稳定,点云纹理信息丰富),能够获取的较为精确的深度的特征点对,解算较为精确的位姿变换,若光照不好或点云纹理信息较少,视觉特征跟踪失败,则使用imu初步得到帧间运动估计,由局部点云匹配做进一步优化;
S6:计算位姿变换获得连续跟踪的特征点的深度信息并赋予较低权重;
S7:将运动恢复出的点云加入运动约束,对运动和建图提供跟多精细化约束,此操作可使对墙壁的建图有更高的平整度,更利于机器人的导航;
S8:根据特征点数量及imu激励判断是否需要插入关键帧,满足设定数量关键帧后进行局部优化,实现对位姿及激光点云图小幅度优化调整;
S9:通过相机得到的特征点所维护的单词库,判断回环:连续多帧都判断为回环帧则判断已经实现回环,之后开启闭环检测;
闭环优化过程中,先通过视觉和imu数据得到粗略的当前帧与回环帧相对位姿,再将当前帧及其局部点云图投射到回环帧中,根据点云图得到精确的相对位姿;最后根据帧间转换,一次修正闭环中的各帧位姿和地图数据;
S10:最后执行全局优化,考虑全局的特征点和地图投影,优化全部帧及对应的点云图。
本发明通过相机和激光雷达维护较准确周围环境的深度图,并通过特征点的连续跟踪构造里程计。本方法能结合相机、imu和激光雷达的优点,建立精确稠密的点云图,供之后机器人做路径规划时用;通过相机与激光雷达的紧耦合,提高帧间里程计的精度,并达到较高鲁棒性;通过激光与相机实时维护的点云图,再激光扫描中做里程计的局部优化;通过相机提供的单词信息及imu数据判断回环,在视觉和激光共同提供的点云图中进行闭环优化。
本发明的有益效果在于:
(1)本发明中imu位姿检测的连续性弥补了视觉里程计对光照变化敏感带来的特征点跟踪不连续或不能提取特征点的情况,同时低成本的imu本身的不精确性可以通过相机和激光雷达得到修正;
(2)基于特征点法,能有效检测回环,消除累计误差;
(3)激光雷达输出的稠密点云可直接用于机器人的运动导航;
(4)两帧间若特征点深度完全无法插值,能够使用imu得到初步的位姿转换,基于激光点云图实现进一步优化;
(5)对光照变化不敏感,较暗的环境下依旧能通过激光雷达与imu的配合做到精确导航。
本发明的技术方案不限于上述具体实施例的限制,凡是根据本发明的技术方案做出的技术变形,均落入本发明的保护范围之内。

Claims (3)

1.一种相机、imu和激光雷达联合的机器人定位方法,其特征在于,包括如下步骤:
S1:标定激光雷达和相机,使得激光点与像素点达到像素级精度;
S2:设置激光雷达扫描频率、扫描角度、相机帧率及imu频率并进行数据采集;
S3:对imu数据预积分,并通过视觉特征点抑制其误差,实时获取帧间位姿变换信息与特征点信息;
S4:配准特征点与激光点云,选取特征点射线位于激光点云曲率较小区域的特征点对,插值出特征点距离,并对特征点对赋予首要权重;
S5:判断环境光照是否稳定以及点云纹理信息是否丰富,若是则转S6,否则通过imu获得帧间运动数据,并通过局部点云配准进行优化,转S6;
S6:计算位姿变换获得连续跟踪的特征点的深度信息并赋予次要权重;
S7:将点云图加入运动估计模型约束处理;
S8:根据特征点数量及imu激励判断并根据需要插入关键帧进行局部优化;
S9:通过相机获得特征点所维护的单词库,通过比较图像帧编码的单词信息和图像关键帧库的单词信息是否匹配并判断是否连续多帧为回环帧,若是则开启闭环检测进行闭环优化,转S10;否则转S3;
S10:优化全部帧及点云图。
2.根据权利要求1所述一种相机、imu和激光雷达联合的机器人定位方法,其特征在于,所述S7运动估计模型约束处理具体包括:
设:
Figure FDA0002412769970000011
表示本帧特征点位置,
Figure FDA0002412769970000012
表示上一帧特征点位置;
Figure FDA0002412769970000013
为特征点的归一化方向;i表示特征点编号,k表示用于插值特征点的图像帧编号,R表示姿态变换值,T表示位移变换值;
(1)对于能插值出深度的特征点,直接使用位姿转换的估计作为约束,约束公式:
Figure FDA0002412769970000021
(2)对于只能前一帧能插值出深度的特征点,约束公式:
Figure FDA0002412769970000022
Figure FDA0002412769970000023
(3)对于两帧都不能插值出深度的特征点,通过imu的运动,三角化出特征点的位置,使用imu得到位姿变换初值,并在当前帧的基础上进行局部地图优化。
3.根据权利要求1所述一种相机、imu和激光雷达联合的机器人定位方法,其特征在于,所述S10闭环优化具体包括:先通过视觉和imu数据得到当前帧与回环帧相对位姿,再将当前帧及其局部点云图投射到回环帧中,根据点云图得到相对位姿,根据帧间转换,修正闭环中各帧位姿和地图数据。
CN201910693989.1A 2019-07-30 2019-07-30 一种相机、imu和激光雷达联合的机器人定位方法 Active CN110428467B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910693989.1A CN110428467B (zh) 2019-07-30 2019-07-30 一种相机、imu和激光雷达联合的机器人定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910693989.1A CN110428467B (zh) 2019-07-30 2019-07-30 一种相机、imu和激光雷达联合的机器人定位方法

Publications (2)

Publication Number Publication Date
CN110428467A CN110428467A (zh) 2019-11-08
CN110428467B true CN110428467B (zh) 2020-05-19

Family

ID=68413126

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910693989.1A Active CN110428467B (zh) 2019-07-30 2019-07-30 一种相机、imu和激光雷达联合的机器人定位方法

Country Status (1)

Country Link
CN (1) CN110428467B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110906923B (zh) * 2019-11-28 2023-03-14 重庆长安汽车股份有限公司 车载多传感器紧耦合融合定位方法、系统、存储介质及车辆
CN111258313B (zh) * 2020-01-20 2022-06-07 深圳市普渡科技有限公司 多传感器融合slam系统及机器人
CN111275763B (zh) * 2020-01-20 2023-10-13 深圳市普渡科技有限公司 闭环检测系统、多传感器融合slam系统及机器人
CN111366153B (zh) * 2020-03-19 2022-03-15 浙江大学 一种激光雷达与imu紧耦合的定位方法
CN111443337B (zh) * 2020-03-27 2022-03-08 北京航空航天大学 一种基于手眼标定的雷达-imu标定方法
CN111553937B (zh) * 2020-04-23 2023-11-21 东软睿驰汽车技术(上海)有限公司 激光点云地图构建方法、装置、设备及系统
CN111595333B (zh) * 2020-04-26 2023-07-28 武汉理工大学 视觉惯性激光数据融合的模块化无人车定位方法及系统
CN112099509B (zh) * 2020-09-24 2024-05-28 杭州海康机器人股份有限公司 地图优化方法、装置及机器人
CN114529603B (zh) * 2020-11-23 2023-05-19 新疆大学 一种基于激光slam与单目视觉slam融合的里程计方法
CN112506200B (zh) * 2020-12-14 2023-12-08 广州视源电子科技股份有限公司 机器人定位方法、装置、机器人及存储介质
CN112985416B (zh) * 2021-04-19 2021-07-30 湖南大学 激光与视觉信息融合的鲁棒定位和建图方法及系统
CN113188546B (zh) * 2021-04-30 2022-09-06 成都市微泊科技有限公司 基于图像识别与人行航位推算的室内定位导航方法
CN113269878B (zh) * 2021-05-26 2023-04-07 上海新纪元机器人有限公司 一种基于多传感器的建图方法及系统
CN113566833A (zh) * 2021-07-28 2021-10-29 上海工程技术大学 一种多传感器融合的车辆定位方法及系统
CN113610910B (zh) * 2021-07-30 2024-04-09 合肥科大智能机器人技术有限公司 一种移动机器人避障方法
CN113721260B (zh) * 2021-08-26 2023-12-12 南京邮电大学 一种激光雷达、双目相机和惯导的在线联合标定方法
CN113447014A (zh) * 2021-08-30 2021-09-28 深圳市大道智创科技有限公司 室内移动机器人、建图方法、定位方法以及建图定位装置
CN114018236B (zh) * 2021-09-30 2023-11-03 哈尔滨工程大学 一种基于自适应因子图的激光视觉强耦合slam方法
CN114370871A (zh) * 2022-01-13 2022-04-19 华南理工大学 一种可见光定位与激光雷达惯性里程计的紧耦合优化方法
CN114648584B (zh) * 2022-05-23 2022-08-30 北京理工大学前沿技术研究院 一种用于多源融合定位的鲁棒性控制方法和系统
CN116774195B (zh) * 2023-08-22 2023-12-08 国网天津市电力公司滨海供电分公司 多传感器联合标定的激励判断与参数自调节方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105856230B (zh) * 2016-05-06 2017-11-24 简燕梅 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法
US20180088234A1 (en) * 2016-09-27 2018-03-29 Carnegie Mellon University Robust Localization and Localizability Prediction Using a Rotating Laser Scanner
CN107967473B (zh) * 2016-10-20 2021-09-24 南京万云信息技术有限公司 基于图文识别和语义的机器人自主定位和导航
CN108073167A (zh) * 2016-11-10 2018-05-25 深圳灵喵机器人技术有限公司 一种基于深度相机与激光雷达的定位与导航方法

Also Published As

Publication number Publication date
CN110428467A (zh) 2019-11-08

Similar Documents

Publication Publication Date Title
CN110428467B (zh) 一种相机、imu和激光雷达联合的机器人定位方法
US12094226B2 (en) Simultaneous localization and mapping method, device, system and storage medium
CN111983639B (zh) 一种基于Multi-Camera/Lidar/IMU的多传感器SLAM方法
US20200116501A1 (en) Map creation method for mobile robot and path planning method based on the map
CN110033489B (zh) 一种车辆定位准确性的评估方法、装置及设备
CN109579840A (zh) 一种点线特征融合的紧耦合双目视觉惯性slam方法
CN107167826B (zh) 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法
CN109465832A (zh) 高精度视觉和imu紧融合定位方法与系统
CN112556719B (zh) 一种基于cnn-ekf的视觉惯性里程计实现方法
CN111366153B (zh) 一种激光雷达与imu紧耦合的定位方法
CN103411587B (zh) 定位定姿方法及系统
Mi et al. A vision-based displacement measurement system for foundation pit
CN113914407B (zh) 一种基于bim与机器视觉的挖掘机开挖隧道精确控制系统
CN111161334B (zh) 一种基于深度学习的语义地图构建方法
CN113763548A (zh) 基于视觉-激光雷达耦合的贫纹理隧洞建模方法及系统
CN112461228B (zh) 一种相似环境下基于imu和视觉的二次回环检测定位方法
CN114485654A (zh) 一种基于高精地图的多传感器融合定位方法及装置
CN115031718A (zh) 一种多传感器融合的无人船同步定位与建图方法(slam)及系统
Zhang LILO: A novel LiDAR–IMU SLAM system with loop optimization
CN113447014A (zh) 室内移动机器人、建图方法、定位方法以及建图定位装置
CN116007609A (zh) 一种多光谱图像和惯导融合的定位方法和计算系统
CN115355904A (zh) 一种针对地面移动机器人的Lidar-IMU融合的slam方法
CN115218889A (zh) 一种基于点线特征融合的多传感器室内定位方法
Zhang et al. An overlap-free calibration method for LiDAR-camera platforms based on environmental perception
CN115344033B (zh) 一种基于单目相机/imu/dvl紧耦合的无人船导航与定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant