CN110261870B - 一种用于视觉-惯性-激光融合的同步定位与建图方法 - Google Patents

一种用于视觉-惯性-激光融合的同步定位与建图方法 Download PDF

Info

Publication number
CN110261870B
CN110261870B CN201910297985.1A CN201910297985A CN110261870B CN 110261870 B CN110261870 B CN 110261870B CN 201910297985 A CN201910297985 A CN 201910297985A CN 110261870 B CN110261870 B CN 110261870B
Authority
CN
China
Prior art keywords
coordinate system
edge
pose
point
loop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910297985.1A
Other languages
English (en)
Other versions
CN110261870A (zh
Inventor
张剑华
潜杰
王曾媛
甘雨
林瑞豪
陈胜勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Huicui Intelligent Technology Co ltd
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910297985.1A priority Critical patent/CN110261870B/zh
Publication of CN110261870A publication Critical patent/CN110261870A/zh
Application granted granted Critical
Publication of CN110261870B publication Critical patent/CN110261870B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种用于视觉‑惯性‑激光融合的同步定位与建图方法,主要涉及多传感器融合、SLAM等技术领域。为了解决单传感器SLAM在定位和建图中精度低、易丢失的问题,本发明提出了一种鲁棒的高精度的视觉、惯性、激光雷达融合的SLAM系统。本发明通过激光雷达的扫描匹配进一步优化紧耦合的视觉惯性里程计,得到更加精确的定位结果。并且当相机或者激光雷达发生退化,导致视觉惯性模块或者扫描匹配模块不能正常工作时,系统自动整合剩余可工作模块,维持稳定的位姿估计。为了移除累计误差,添加了基于外观的回环检测和基于点云的邻近匹配,之后进行六自由度的位姿优化,以保持全局一致性。本发明能够得到鲁棒的高精度的定位和建图效果。

Description

一种用于视觉-惯性-激光融合的同步定位与建图方法
技术领域
本发明涉及机器人视觉、多传感器融合、同步定位与建图(SLAM)等技术领域,具体涉及多传感器融合的同步定位与建图方法。
背景技术
同步定位与建图(SLAM)是一种机器人在未知环境中估计自身运动并且建立周围环境地图的技术。它在无人机、自动驾驶、移动机器人导航、虚拟现实和增强现实等领域有着广泛的应用。为了提高SLAM在不同环境下的定位精度和鲁棒性,人们做了大量的研究。由于SLAM通过安装在机器人上的传感器来感知自身的运动和周围的环境,许多研究试图通过集成多模态传感器来提高运动估计的性能。随着科技的发展,SLAM中常用的传感器体积越来越小,价格越来越低。这使得在一个设备上携带多个传感器,以可接受的价格和体积更好地进行定位和建图成为可能。
发明内容
为了克服现有单传感器SLAM精度不高,在退化环境中容易发生丢失的问题,本发明提出了一种用于视觉-惯性-激光融合的同步定位与建图方法,结合来自相机、惯性测量单元(IMU)、激光雷达的测量数据实现高精度、高鲁棒性的带有回环和邻近检测及全局位姿优化的SALM系统。
为了解决上述的技术问题,本发明的技术方案如下:
一种用于视觉-惯性-激光融合的同步定位与建图方法,包括以下步骤:
1)视觉-惯性-激光里程计,过程如下:
假设相机内参以及三个传感器之间的外参已知,并且传感器之间经过时间同步,相机和激光雷达具有相同的频率;涉及到四个坐标系分别是世界坐标系W,相机坐标系C,惯性测量单元(IMU)坐标系I和激光雷达坐标系L;传感器坐标系C、I、L随着设备的运动而改变,Ci表示在ti时刻的相机坐标系;定义完成初始化后的激光雷达坐标系为世界坐标系;
首先,使用紧耦合的视觉惯性里程计方法估计相邻相机帧之间的相对运动,然后使用获得的动作近似注册这期间接收的点云,接着使用扫描匹配方法进一步优化估计的动作;
根据激光雷达的特性,激光点云被持续性地接收,并注册到坐标系Li中,其中ti是点i的接收时间,Li是ti时刻的激光雷达坐标系;定义tk为第k帧激光扫描的起始时间,tk+1为第k帧激光扫描的结束时间;令
Figure GDA0002764451230000021
为在第k帧激光扫描期间接收到的点云集合;由于传感器经过时间同步,从视觉惯性里程计中得到tk到tk+1期间IMU的相对位姿变换
Figure GDA0002764451230000022
使用激光雷达和IMU之间的外参,计算得到tk到tk+1期间激光雷达的相对位姿变换
Figure GDA0002764451230000023
Figure GDA0002764451230000024
其中
Figure GDA0002764451230000025
是激光雷达和IMU之间的外参;
基于设备在一帧激光扫描期间以匀速运动的假设,使用线性插值获取从第k帧激光扫描的起始时刻到点i接收时的相对位姿变换:
Figure GDA0002764451230000026
然后将点i注册到Lk+1坐标系下:
Figure GDA0002764451230000027
其中
Figure GDA0002764451230000028
是点i在坐标系Li中的齐次坐标;
Figure GDA0002764451230000029
是点i在坐标系Lk+1中的齐次坐标;将点集
Figure GDA00027644512300000210
中的所有点按照上式的方式投影到Lk+1坐标系下得到新的点集Pk
根据点局部表面的平滑度从Pk中提取特征点,特征点分为边缘特征点和平面特征点;令i为Pk中的一点,且S是由激光雷达返回的同一次扫描中与点i连续的点的集合;定义点i局部表面的平滑度为:
Figure GDA00027644512300000211
其中|S|表示集合S中点的数量,边缘特征点有较小的平滑度,平面特征点有较大的平滑度;定义提取的特征点点集为Fk
tk+1时刻预测的世界坐标系下的激光雷达位姿为:
Figure GDA00027644512300000212
其中
Figure GDA00027644512300000213
是经过扫描匹配优化过的tk时刻激光雷达在世界坐标系下的位姿,而带有波浪标注的
Figure GDA00027644512300000214
是没有经过扫描匹配优化的位姿或者变换;
使用估计的转换
Figure GDA00027644512300000215
将Fk中的特征点投影到世界坐标系下;将投影后的特征点跟地图进行匹配,找到边缘特征点对应的边缘线,以及平面特征点对应的平面块;然后计算边缘特征点到边缘线的距离,以及平面特征点到平面块的距离,距离函数的形式如下:
Figure GDA0002764451230000031
将Fk中所有点到各自对应的匹配的距离和写成下面的非线性函数:
Figure GDA0002764451230000032
通过上面的式子,将扫描匹配转换为一个非线性优化问题,并通过最小化d求解;通过高斯-牛顿法求解这个问题,得到优化后的tk+1时刻的雷达位姿
Figure GDA0002764451230000033
最后使用优化后的变换
Figure GDA0002764451230000034
将第k帧激光扫描中接收到的点云注册到世界坐标系下。
2)鲁棒性增强处理,过程如下:
当设备处于缺少结构化信息的环境中时,扫描匹配会失效;当设备处于弱纹理环境中或者发生剧烈运动等情况时,视觉惯性里程计会失效;
当其中一种情况发生时,系统会自动调整剩余可工作模块承担起定位和建图工作;在视觉惯性里程计模块失效的情况下,该模块不再输出动作近似,相反地,它会发送一个信号使得扫描到扫描匹配的模块开始工作;在该模块中,首先从当前帧的点云中提取特征点,然后在上一帧的点云中找到与其匹配的边缘线或平面块,然后计算特征点到它的匹配的距离,最后通过最小化所有特征点到他们匹配的距离和来恢复两帧之间的相对运动;
当处于缺少结构化信息的场景中时,无法提取到足够的几何特征,因此无法有效优化视觉惯性里程计输出的动作近似;在这种情况下,视觉惯性里程计的输出将跳过扫描匹配模块,而直接用于将点云注册到地图中;当设备回到正常的环境当中,所有模块会逐渐恢复正常工作;
3)回环及邻近检测,过程如下:
回环和邻近检测用于移除里程计误差的累积,从而进一步提高定位精度;回环检测是基于视觉外观的,而邻近检测是基于激光扫描的;
为了进行回环和邻近检测,需要维护一个关键帧数据库,每个关键帧包括当前帧在世界坐标系中的位姿、对应的图片以及点云;
基于外观的回环检测是通过DBoW2实现的,受到相机视角的限制,只有当设备处于相同或相近位置且朝向相同时才能够检测到回环;由于本方法采用的3D激光雷达具有360度的视角,邻近检测不受到朝向的限制,也就是说只要设备处于相同或相近的位置,就有可能检测到邻近;
邻近检测的过程如下,先遍历关键帧数据库,根据关键帧在世界坐标系下的位姿计算每个关键帧和当前关键帧之间的相对位姿;如果计算得到平移的距离小于R1,使用之前计算的相对位姿作为先验,然后用扫描匹配进一步更新两者之间的相对位姿;
如果更新后两个关键帧之间的距离小于R2,R2<R1,则认为检测到了邻近;其中R1,R2为经验值;如果超过一个关键帧满足这个要求,则选择较早的作为邻近帧,以最大程度地移除误差累积;为了减少不必要地约束,当前关键帧的前n个关键帧不用来进行回环和邻近检测;
4)六自由度的全局优化,过程如下:
当检测到回环或者邻近后,添加回环边或者邻近边到位姿图中,然后进行6自由度
的位姿优化;每个关键帧对应位姿图中的一个顶点,存在下面三种边连接顶点:
4-1)序列化边
一个顶点与它前面的若干个顶点之间通过序列化边进行连接;序列化边的值为两个顶点之间的相对位姿变换,通过视觉-惯性-激光里程计直接获得;连接顶点i和顶点j的序列化边的值为:
Figure GDA0002764451230000041
Figure GDA0002764451230000042
其中
Figure GDA0002764451230000043
Figure GDA0002764451230000044
分别为从里程计直接获得的关键帧i在世界坐标系下的位置和朝向;
4-2)回环边
如果顶点有回环连接,该顶点会通过回环边和回环顶点建立连接;回环边拥有如上式所定义的6自由度的相对位姿变换;它的值通过pnp求解得到;
4-3)邻近边
如果顶点存在邻近连接,邻近边会在该顶点和邻近顶点之间建立连接,邻近边的值通过点云到点云的匹配得到;
帧i和帧j之间的边的误差为:
Figure GDA0002764451230000045
整个位姿图的序列化边、回环边和邻近边通过最小化下面的代价函数优化:
argmin(q,t)||∑(i,j)∈Ari,j+∑(i,j)∈Bri,j+∑(i,j)∈Cri,j|| (4.3)
其中A是序列化边的集合,B是回环边的集合,C是邻近边的集合;随着时间的增加,位姿图的大小不断增加,由于位姿图的优化时间和图的大小成正相关,降采样过程被用于限制关键帧数据库的大小;在降采样过程中,具有回环或者邻近约束的关键帧被保留下来,其余与周围关键帧距离太近的关键帧则有可能会被移除。
本发明的有益效果为:结合来自相机、惯性测量单元(IMU)、激光雷达的测量数据实现高精度、高鲁棒性。
附图说明
图1是整个系统的结构框图。
图2是扫描匹配模块的结构框图。
图3是视觉惯性里程计模块失效时,系统的结构框图。
图4是扫描匹配模块失效时,系统的结构框图。
图5是邻近检测的示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图5,一种用于视觉-惯性-激光融合的同步定位与建图方法,包括以下步骤:
1)视觉-惯性-激光里程计,过程如下:
假设相机内参以及三个传感器之间的外参已知,并且传感器之间经过时间同步,相机和激光雷达具有相同的频率;本方法涉及到四个坐标系,分别是世界坐标系W,相机坐标系C,惯性测量单元(IMU)坐标系I和激光雷达坐标系L;传感器坐标系C、I、L随着设备的运动而改变,Ci表示在ti时刻的相机坐标系;定义完成初始化后的激光雷达坐标系为世界坐标系;
首先,使用紧耦合的视觉惯性里程计方法估计相邻相机帧之间的相对运动,然后使用获得的动作近似注册这期间接收的点云,接着使用扫描匹配方法进一步优化估计的动作;
扫描匹配模块的步骤如图2所示;根据激光雷达的特性,激光点云被持续性地接收,并注册到坐标系Li中,其中ti是点i的接收时间,Li是ti时刻的激光雷达坐标系;定义tk为第k帧激光扫描的起始时间,tk+1为第k帧激光扫描的结束时间;令
Figure GDA0002764451230000051
为在第k帧激光扫描期间接收到的点云集合;由于传感器经过时间同步,从视觉惯性里程计中得到tk到tk+1期间IMU的相对位姿变换
Figure GDA0002764451230000052
使用激光雷达和IMU之间的外参,计算得到tk到tk+1期间激光雷达的相对位姿变换
Figure GDA0002764451230000053
Figure GDA0002764451230000054
其中
Figure GDA0002764451230000061
是激光雷达和IMU之间的外参;
基于设备在一帧激光扫描期间以匀速运动的假设,使用线性插值获取从第k帧激光扫描的起始时刻到点i接收时的相对位姿变换:
Figure GDA0002764451230000062
然后将点i注册到Lk+1坐标系下:
Figure GDA0002764451230000063
其中
Figure GDA0002764451230000064
是点i在坐标系Li中的齐次坐标;
Figure GDA0002764451230000065
是点i在坐标系Lk+1中的齐次坐标;将点集
Figure GDA0002764451230000066
中的所有点按照上式的方式投影到Lk+1坐标系下得到新的点集Pk
根据点局部表面的平滑度从Pk中提取特征点,特征点分为边缘特征点和平面特征点;令i为Pk中的一点,且S是由激光雷达返回的同一次扫描中与点i连续的点的集合;定义点i局部表面的平滑度为:
Figure GDA0002764451230000067
其中|S|表示集合S中点的数量,边缘特征点有较小的平滑度,平面特征点有较大的平滑度;定义提取的特征点点集为Fk
tk+1时刻预测的世界坐标系下的激光雷达位姿为:
Figure GDA0002764451230000068
其中
Figure GDA0002764451230000069
是经过扫描匹配优化过的tk时刻激光雷达在世界坐标系下的位姿,而带有波浪标注的
Figure GDA00027644512300000610
是没有经过扫描匹配优化的位姿或者变换;
使用估计的转换
Figure GDA00027644512300000611
将Fk中的特征点投影到世界坐标系下;将投影后的特征点跟地图进行匹配,找到边缘特征点对应的边缘线,以及平面特征点对应的平面块;然后计算边缘特征点到边缘线的距离,以及平面特征点到平面块的距离,距离函数的形式如下:
Figure GDA00027644512300000612
将Fk中所有点到各自对应的匹配的距离和写成下面的非线性函数:
Figure GDA00027644512300000613
通过上面的式子,将扫描匹配转换为一个非线性优化问题,并通过最小化d求解;通过高斯-牛顿法求解这个问题,得到优化后的tk+1时刻的雷达位姿
Figure GDA00027644512300000614
最后使用优化后的变换
Figure GDA0002764451230000071
将第k帧激光扫描中接收到的点云注册到世界坐标系下。
2)鲁棒性增强处理,过程如下:
当设备处于缺少结构化信息的环境中时,扫描匹配会失效;当设备处于弱纹理环境中或者发生剧烈运动等情况时,视觉惯性里程计会失效;
当其中一种情况发生时,系统会自动调整剩余可工作模块承担起定位和建图工作;在视觉惯性里程计模块失效的情况下,该模块不再输出动作近似,相反地,它会发送一个信号使得扫描到扫描匹配的模块开始工作,如图3所示;在该模块中,首先从当前帧的点云中提取特征点,然后在上一帧的点云中找到与其匹配的边缘线或平面块,然后计算特征点到它的匹配的距离,最后通过最小化所有特征点到他们匹配的距离和来恢复两帧之间的相对运动;
当处于缺少结构化信息的场景中时,无法提取到足够的几何特征,因此无法有效优化视觉惯性里程计输出的动作近似;在这种情况下,视觉惯性里程计的输出将跳过扫描匹配模块,而直接用于将点云注册到地图中,如图4所示;当设备回到正常的环境当中,所有模块会逐渐恢复正常工作;
3)回环及邻近检测,过程如下:
回环和邻近检测用于移除里程计误差的累积,从而进一步提高定位精度;回环检测是基于视觉外观的,而邻近检测是基于激光扫描的;
为了进行回环和邻近检测,需要维护一个关键帧数据库,每个关键帧包括当前帧在世界坐标系中的位姿、对应的图片以及点云;
基于外观的回环检测是通过DBoW2实现的,受到相机视角的限制,只有当设备处于相同(或相近)位置且朝向相同时才能够检测到回环;由于本方法采用的3D激光雷达具有360度的视角,邻近检测不受到朝向的限制,也就是说只要设备处于相同或(相近的)位置,就有可能检测到邻近;
邻近检测的过程如下,先遍历关键帧数据库,根据关键帧在世界坐标系下的位姿计算每个关键帧和当前关键帧之间的相对位姿;如果计算得到平移的距离小于R1,使用之前计算的相对位姿作为先验,然后用扫描匹配进一步更新两者之间的相对位姿;
如果更新后两个关键帧之间的距离小于R2,R2<R1,则认为检测到了邻近;其中R1,R2为经验值;如果超过一个关键帧满足这个要求,则选择较早的作为邻近帧,以最大程度地移除误差累积;为了减少不必要地约束,当前关键帧的前n个关键帧不用来进行回环和邻近检测;
4)六自由度的全局优化,过程如下:
当检测到回环或者邻近后,添加回环边或者邻近边到位姿图中,然后进行6自由度
的位姿优化;每个关键帧对应位姿图中的一个顶点,存在下面三种边连接顶点:
4-1)序列化边
一个顶点与它前面的若干个顶点之间通过序列化边进行连接;序列化边的值为两个顶点之间的相对位姿变换,通过视觉-惯性-激光里程计直接获得;连接顶点i和顶点j的序列化边的值为:
Figure GDA0002764451230000081
Figure GDA0002764451230000082
其中
Figure GDA0002764451230000083
Figure GDA0002764451230000084
分别为从里程计直接获得的关键帧i在世界坐标系下的位置和朝向;
4-2)回环边
如果顶点有回环连接,该顶点会通过回环边和回环顶点建立连接;回环边拥有如上式所定义的6自由度的相对位姿变换;它的值通过pnp求解得到;
4-3)邻近边
如果顶点存在邻近连接,邻近边会在该顶点和邻近顶点之间建立连接,邻近边的值通过点云到点云的匹配得到;
帧i和帧j之间的边的误差为:
Figure GDA0002764451230000085
整个位姿图的序列化边、回环边和邻近边通过最小化下面的代价函数优化:
argmin(q,t)||∑(i,j)∈Ari,j+∑(i,j)∈Bri,j+∑(i,j)∈Cri,j|| (4.3)
其中A是序列化边的集合,B是回环边的集合,C是邻近边的集合;随着时间的增加,位姿图的大小不断增加,由于位姿图的优化时间和图的大小成正相关,降采样过程被用于限制关键帧数据库的大小;在降采样过程中,具有回环或者邻近约束的关键帧被保留下来,其余与周围关键帧距离太近的关键帧则有可能会被移除。

Claims (1)

1.一种用于视觉-惯性-激光融合的同步定位与建图方法,其特征在于,所述方法包括以下步骤:
1)视觉-惯性-激光里程计,过程如下:
假设相机内参以及三个传感器之间的外参已知,并且传感器之间经过时间同步,相机和激光雷达具有相同的频率;涉及到四个坐标系,分别是世界坐标系W,相机坐标系C,惯性测量单元IMU坐标系I和激光雷达坐标系L;传感器坐标系C、I、L随着设备的运动而改变,Ci表示在ti时刻的相机坐标系;定义完成初始化后的激光雷达坐标系为世界坐标系;首先,使用紧耦合的视觉惯性里程计方法估计相邻相机帧之间的相对运动,然后使用获得的动作近似注册这期间接收的点云,接着使用扫描匹配方法进一步优化估计的动作;根据激光雷达的特性,激光点云被持续性地接收,并注册到坐标系Li中,其中ti是点i的接收时间,Li是ti时刻的激光雷达坐标系;定义tk为第k帧激光扫描的起始时间,tk+1为第k帧激光扫描的结束时间;令
Figure FDA0002764451220000011
为在第k帧激光扫描期间接收到的点云集合;由于传感器经过时间同步,从视觉惯性里程计中得到tk到tk+1期间IMU的相对位姿变换
Figure FDA0002764451220000012
使用激光雷达和IMU之间的外参,计算得到tk到tk+1期间激光雷达的相对位姿变换
Figure FDA0002764451220000013
Figure FDA0002764451220000014
其中
Figure FDA0002764451220000015
是激光雷达和IMU之间的外参;
基于设备在一帧激光扫描期间以匀速运动的假设,使用线性插值获取从第k帧激光扫描的起始时刻到点i接收时的相对位姿变换:
Figure FDA0002764451220000016
然后将点i注册到Lk+1坐标系下:
Figure FDA0002764451220000017
其中
Figure FDA0002764451220000018
是点i在坐标系Li中的齐次坐标;
Figure FDA0002764451220000019
是点i在坐标系Lk+1中的齐次坐标;将点集
Figure FDA00027644512200000110
中的所有点按照上式的方式投影到Lk+1坐标系下得到新的点集Pk
根据点局部表面的平滑度从Pk中提取特征点,特征点分为边缘特征点和平面特征点;令i为Pk中的一点,且S是由激光雷达返回的同一次扫描中与点i连续的点的集合;定义点i局部表面的平滑度为:
Figure FDA00027644512200000111
其中|S|表示集合S中点的数量,边缘特征点有较小的平滑度,平面特征点有较大的平滑度;定义提取的特征点点集为Fk
tk+1时刻预测的世界坐标系下的激光雷达位姿为:
Figure FDA0002764451220000021
其中
Figure FDA0002764451220000022
是经过扫描匹配优化过的tk时刻激光雷达在世界坐标系下的位姿,而带有波浪标注的
Figure FDA0002764451220000023
是没有经过扫描匹配优化的位姿或者变换;
使用估计的转换
Figure FDA0002764451220000024
将Fk中的特征点投影到世界坐标系下;将投影后的特征点跟地图进行匹配,找到边缘特征点对应的边缘线,以及平面特征点对应的平面块;然后计算边缘特征点到边缘线的距离,以及平面特征点到平面块的距离,距离函数的形式如下:
Figure FDA0002764451220000025
将Fk中所有点到各自对应的匹配的距离和写成下面的非线性函数:
Figure FDA0002764451220000026
通过上面的式子,将扫描匹配转换为一个非线性优化问题,并通过最小化d求解;通过高斯-牛顿法求解这个问题,得到优化后的tk+1时刻的雷达位姿
Figure FDA0002764451220000027
最后使用优化后的变换
Figure FDA0002764451220000028
将第k帧激光扫描中接收到的点云注册到世界坐标系下;
2)鲁棒性增强处理,过程如下:
当设备处于缺少结构化信息的环境中时,扫描匹配会失效;当设备处于弱纹理环境中或者发生剧烈运动等情况时,视觉惯性里程计会失效;
当其中一种情况发生时,系统会自动调整剩余可工作模块承担起定位和建图工作;
在视觉惯性里程计模块失效的情况下,该模块不再输出动作近似,相反地,它会发送一个信号使得扫描到扫描匹配的模块开始工作;在该模块中,首先从当前帧的点云中提取特征点,然后在上一帧的点云中找到与其匹配的边缘线或平面块,然后计算特征点到它的匹配的距离,最后通过最小化所有特征点到他们匹配的距离和来恢复两帧之间的相对运动;
当处于缺少结构化信息的场景中时,无法提取到足够的几何特征,因此无法有效优化视觉惯性里程计输出的动作近似;在这种情况下,视觉惯性里程计的输出将跳过扫描匹配模块,而直接用于将点云注册到地图中;当设备回到正常的环境当中,所有模块会逐渐恢复正常工作;
3)回环及邻近检测,过程如下:
回环和邻近检测用于移除里程计误差的累积,从而进一步提高定位精度;回环检测是基于视觉外观的,而邻近检测是基于激光扫描的;
为了进行回环和邻近检测,需要维护一个关键帧数据库,每个关键帧包括当前帧在世界坐标系中的位姿、对应的图片以及点云;
基于外观的回环检测是通过DBoW2实现的,受到相机视角的限制,只有当设备处于相同或相近位置且朝向相同时才能够检测到回环;由于本方法采用的3D激光雷达具有360度的视角,邻近检测不受到朝向的限制,也就是说只要设备处于相同或相近的位置,就有可能检测到邻近;
邻近检测的过程如下,先遍历关键帧数据库,根据关键帧在世界坐标系下的位姿计算每个关键帧和当前关键帧之间的相对位姿;如果计算得到平移的距离小于R1,使用之前计算的相对位姿作为先验,然后用扫描匹配进一步更新两者之间的相对位姿;如果更新后两个关键帧之间的距离小于R2,R2<R1,则认为检测到了邻近;其中R1,R2为经验值;如果超过一个关键帧满足这个要求,则选择较早的作为邻近帧,以最大程度地移除误差累积;为了减少不必要地约束,当前关键帧的前n个关键帧不用来进行回环和邻近检测;
4)六自由度的全局优化,过程如下:
当检测到回环或者邻近后,添加回环边或者邻近边到位姿图中,然后进行6自由度的位姿优化;每个关键帧对应位姿图中的一个顶点,存在下面三种边连接顶点:
4-1)序列化边
一个顶点与它前面的若干个顶点之间通过序列化边进行连接;序列化边的值为两个顶点之间的相对位姿变换,通过视觉-惯性-激光里程计直接获得;连接顶点i和顶点j的序列化边的值为:
Figure FDA0002764451220000031
Figure FDA0002764451220000032
其中
Figure FDA0002764451220000033
Figure FDA0002764451220000034
分别为从里程计直接获得的关键帧i在世界坐标系下的位置和朝向;
4-2)回环边
如果顶点有回环连接,该顶点会通过回环边和回环顶点建立连接;回环边拥有如上式所定义的6自由度的相对位姿变换;它的值通过pnp求解得到;
4-3)邻近边
如果顶点存在邻近连接,邻近边会在该顶点和邻近顶点之间建立连接,邻近边的值通过点云到点云的匹配得到;
帧i和帧j之间的边的误差为:
Figure FDA0002764451220000035
整个位姿图的序列化边、回环边和邻近边通过最小化下面的代价函数优化:
argmin(q,t)||∑(i,j)∈Ari,j+∑(i,j)∈Bri,j+∑(i,j)∈Cri,j|| (4.3)
其中A是序列化边的集合,B是回环边的集合,C是邻近边的集合;随着时间的增加,位姿图的大小不断增加,由于位姿图的优化时间和图的大小成正相关,降采样过程被用于限制关键帧数据库的大小;在降采样过程中,具有回环或者邻近约束的关键帧被保留下来,其余与周围关键帧距离太近的关键帧则有可能会被移除。
CN201910297985.1A 2019-04-15 2019-04-15 一种用于视觉-惯性-激光融合的同步定位与建图方法 Active CN110261870B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910297985.1A CN110261870B (zh) 2019-04-15 2019-04-15 一种用于视觉-惯性-激光融合的同步定位与建图方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910297985.1A CN110261870B (zh) 2019-04-15 2019-04-15 一种用于视觉-惯性-激光融合的同步定位与建图方法

Publications (2)

Publication Number Publication Date
CN110261870A CN110261870A (zh) 2019-09-20
CN110261870B true CN110261870B (zh) 2021-04-06

Family

ID=67913562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910297985.1A Active CN110261870B (zh) 2019-04-15 2019-04-15 一种用于视觉-惯性-激光融合的同步定位与建图方法

Country Status (1)

Country Link
CN (1) CN110261870B (zh)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110702134B (zh) * 2019-10-08 2023-05-05 燕山大学 基于slam技术的车库自主导航装置及导航方法
CN110658828A (zh) * 2019-10-25 2020-01-07 桂林电子科技大学 一种地貌自主探测方法及无人机
CN110823211A (zh) * 2019-10-29 2020-02-21 珠海市一微半导体有限公司 基于视觉slam的多传感器地图构建的方法、装置及芯片
CN110906923B (zh) * 2019-11-28 2023-03-14 重庆长安汽车股份有限公司 车载多传感器紧耦合融合定位方法、系统、存储介质及车辆
CN110873883B (zh) * 2019-11-29 2023-08-29 上海有个机器人有限公司 融合激光雷达和imu的定位方法、介质、终端和装置
CN111197976A (zh) * 2019-12-25 2020-05-26 山东唐口煤业有限公司 一种顾及弱纹理区域多阶段匹配传播的三维重建方法
CN111199578B (zh) * 2019-12-31 2022-03-15 南京航空航天大学 基于视觉辅助激光雷达的无人机三维环境建模方法
CN111240331A (zh) * 2020-01-17 2020-06-05 仲恺农业工程学院 基于激光雷达和里程计slam的智能小车定位导航方法及系统
CN111258313B (zh) * 2020-01-20 2022-06-07 深圳市普渡科技有限公司 多传感器融合slam系统及机器人
CN111308490B (zh) * 2020-02-05 2021-11-19 浙江工业大学 基于单线激光雷达的平衡车室内定位与导航系统
CN111652261A (zh) * 2020-02-26 2020-09-11 南开大学 一种多模态感知融合系统
CN111337943B (zh) * 2020-02-26 2022-04-05 同济大学 一种基于视觉引导激光重定位的移动机器人定位方法
CN111443337B (zh) * 2020-03-27 2022-03-08 北京航空航天大学 一种基于手眼标定的雷达-imu标定方法
CN111540005B (zh) * 2020-04-21 2022-10-18 南京理工大学 基于二维栅格地图的回环检测方法
CN111595333B (zh) * 2020-04-26 2023-07-28 武汉理工大学 视觉惯性激光数据融合的模块化无人车定位方法及系统
CN111337947B (zh) * 2020-05-18 2020-09-22 深圳市智绘科技有限公司 即时建图与定位方法、装置、系统及存储介质
CN111402339B (zh) * 2020-06-01 2020-10-09 深圳市智绘科技有限公司 一种实时定位方法、装置、系统及存储介质
CN111612829B (zh) * 2020-06-03 2024-04-09 纵目科技(上海)股份有限公司 一种高精度地图的构建方法、系统、终端和存储介质
CN111710039B (zh) * 2020-06-03 2024-06-14 纵目科技(上海)股份有限公司 一种高精度地图的构建方法、系统、终端和存储介质
CN111707272B (zh) * 2020-06-28 2022-10-14 湖南大学 一种地下车库自动驾驶激光定位系统
CN112082545B (zh) * 2020-07-29 2022-06-21 武汉威图传视科技有限公司 一种基于imu和激光雷达的地图生成方法、装置及系统
CN111856499B (zh) * 2020-07-30 2021-06-18 浙江华睿科技有限公司 基于激光雷达的地图构建方法和装置
CN111983639B (zh) * 2020-08-25 2023-06-02 浙江光珀智能科技有限公司 一种基于Multi-Camera/Lidar/IMU的多传感器SLAM方法
CN112304307B (zh) * 2020-09-15 2024-09-06 浙江大华技术股份有限公司 一种基于多传感器融合的定位方法、装置和存储介质
CN112161635B (zh) * 2020-09-22 2022-07-05 中山大学 一种基于最小回环检测的协同建图方法
CN112197773B (zh) * 2020-09-30 2022-11-11 江苏集萃未来城市应用技术研究所有限公司 基于平面信息的视觉和激光定位建图方法
CN112230242B (zh) * 2020-09-30 2023-04-25 深兰人工智能(深圳)有限公司 位姿估计系统和方法
CN112067007B (zh) * 2020-11-12 2021-01-29 湖北亿咖通科技有限公司 地图生成方法、计算机存储介质及电子设备
CN112652001B (zh) * 2020-11-13 2023-03-31 山东交通学院 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统
CN112450820B (zh) * 2020-11-23 2022-01-21 深圳市银星智能科技股份有限公司 位姿优化方法、移动机器人及存储介质
CN112396656B (zh) * 2020-11-24 2023-04-07 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法
CN112665575B (zh) * 2020-11-27 2023-12-29 重庆大学 一种基于移动机器人的slam回环检测方法
CN112966542A (zh) * 2020-12-10 2021-06-15 武汉工程大学 一种基于激光雷达的slam系统和方法
CN112785702B (zh) * 2020-12-31 2023-06-20 华南理工大学 一种基于2d激光雷达和双目相机紧耦合的slam方法
CN112634451B (zh) * 2021-01-11 2022-08-23 福州大学 一种融合多传感器的室外大场景三维建图方法
CN113219492A (zh) * 2021-03-30 2021-08-06 苏州市卫航智能技术有限公司 一种河道船舶行驶定位导航的方法及系统
CN113359154A (zh) * 2021-05-24 2021-09-07 邓良波 一种室内外通用的高精度实时测量方法
CN113269094B (zh) * 2021-05-26 2023-01-13 中国科学院自动化研究所 基于特征提取算法和关键帧的激光slam系统及方法
CN113466890B (zh) * 2021-05-28 2024-04-09 中国科学院计算技术研究所 基于关键特征提取的轻量化激光雷达惯性组合定位方法和系统
CN113358112B (zh) * 2021-06-03 2023-01-17 北京超星未来科技有限公司 一种地图构建方法及一种激光惯性里程计
CN113436258B (zh) * 2021-06-17 2023-09-12 中国船舶重工集团公司第七0七研究所九江分部 基于视觉与激光雷达融合的海上浮码头检测方法及系统
CN113436260B (zh) * 2021-06-24 2022-04-19 华中科技大学 基于多传感器紧耦合的移动机器人位姿估计方法和系统
CN113706626B (zh) * 2021-07-30 2022-12-09 西安交通大学 一种基于多传感器融合及二维码校正的定位与建图方法
CN113776519B (zh) * 2021-09-14 2022-10-21 西南科技大学 一种无光动态开放环境下agv车辆建图与自主导航避障方法
CN113781582B (zh) * 2021-09-18 2023-09-19 四川大学 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN113819912A (zh) * 2021-09-30 2021-12-21 中科测试(深圳)有限责任公司 一种基于多传感器数据的高精度点云地图生成方法
CN113947636B (zh) * 2021-10-19 2024-04-26 中南大学 一种基于深度学习的激光slam定位系统及方法
CN114279434B (zh) * 2021-12-27 2024-06-14 驭势科技(北京)有限公司 一种建图方法、装置、电子设备和存储介质
CN114370871A (zh) * 2022-01-13 2022-04-19 华南理工大学 一种可见光定位与激光雷达惯性里程计的紧耦合优化方法
CN114608554B (zh) * 2022-02-22 2024-05-03 北京理工大学 一种手持slam设备以及机器人即时定位与建图方法
CN114910062A (zh) * 2022-03-10 2022-08-16 中国航空工业集团公司沈阳飞机设计研究所 一种多源信息融合的导航定位方法
CN114608561B (zh) * 2022-03-22 2024-04-26 中国矿业大学 一种基于多传感器融合的定位与建图方法及系统
CN114674311B (zh) * 2022-03-22 2024-05-24 中国矿业大学 一种室内定位与建图方法及系统
CN114648584B (zh) * 2022-05-23 2022-08-30 北京理工大学前沿技术研究院 一种用于多源融合定位的鲁棒性控制方法和系统
CN114964212B (zh) * 2022-06-02 2023-04-18 广东工业大学 面向未知空间探索的多机协同融合定位与建图方法
CN115267796B (zh) * 2022-08-17 2024-04-09 深圳市普渡科技有限公司 定位方法、装置、机器人和存储介质
CN115218892A (zh) * 2022-09-20 2022-10-21 成都睿芯行科技有限公司 一种基于多传感器融合的轻量级定位与建图方法
CN115855042B (zh) * 2022-12-12 2024-09-06 北京自动化控制设备研究所 一种基于激光雷达协同辅助的行人视觉导航方法
CN115880364B (zh) * 2023-02-09 2023-05-16 广东技术师范大学 基于激光点云和视觉slam的机器人位姿估计方法
CN116299367B (zh) * 2023-05-18 2024-01-26 中国测绘科学研究院 一种多激光空间标定方法
CN116468858B (zh) * 2023-06-19 2023-08-15 中色蓝图科技股份有限公司 一种基于人工智能的地图融合方法及系统
CN117168441B (zh) * 2023-11-02 2024-02-20 西安因诺航空科技有限公司 一种多传感器融合的slam定位和重建方法及系统
CN117761717B (zh) * 2024-02-21 2024-05-07 天津大学四川创新研究院 一种自动回环三维重建系统及运行方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109544638B (zh) * 2018-10-29 2021-08-03 浙江工业大学 一种用于多传感器融合的异步在线标定方法
CN109507677B (zh) * 2018-11-05 2020-08-18 浙江工业大学 一种结合gps和雷达里程计的slam方法

Also Published As

Publication number Publication date
CN110261870A (zh) 2019-09-20

Similar Documents

Publication Publication Date Title
CN110261870B (zh) 一种用于视觉-惯性-激光融合的同步定位与建图方法
CN110044354B (zh) 一种双目视觉室内定位与建图方法及装置
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN112634451B (zh) 一种融合多传感器的室外大场景三维建图方法
CN108406731B (zh) 一种基于深度视觉的定位装置、方法及机器人
CN112197770B (zh) 一种机器人的定位方法及其定位装置
CN109100730B (zh) 一种多车协同快速建图方法
US12062210B2 (en) Data processing method and apparatus
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN107167826B (zh) 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法
CN113706626B (zh) 一种基于多传感器融合及二维码校正的定位与建图方法
CN115407357B (zh) 基于大场景的低线束激光雷达-imu-rtk定位建图算法
CN113888639B (zh) 基于事件相机与深度相机的视觉里程计定位方法及系统
US11741631B2 (en) Real-time alignment of multiple point clouds to video capture
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN114140527A (zh) 一种基于语义分割的动态环境双目视觉slam方法
CN116468786B (zh) 一种面向动态环境的基于点线联合的语义slam方法
CN115218889A (zh) 一种基于点线特征融合的多传感器室内定位方法
CN116448100A (zh) 一种多传感器融合的近岸无人船slam方法
CN116953723A (zh) 机车检修车间环境中移动机器人即时定位与地图构建方法
CN117367427A (zh) 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法
CN117419719A (zh) 一种融合imu的三维激光雷达定位与建图方法
CN117433515A (zh) 基于多基站uwb和点线式视觉惯性的室内工厂无人机定位方法及系统
CN115344033B (zh) 一种基于单目相机/imu/dvl紧耦合的无人船导航与定位方法
CN116045965A (zh) 一种融合多传感器的环境地图构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230803

Address after: No. 998, Wenyi West Road, Yuhang District, Hangzhou City, Zhejiang Province

Patentee after: HANGZHOU HUICUI INTELLIGENT TECHNOLOGY CO.,LTD.

Address before: The city Zhaohui six districts Chao Wang Road Hangzhou City, Zhejiang province 310014 18

Patentee before: JIANG University OF TECHNOLOGY

TR01 Transfer of patent right