CN116907469A - 多模态数据联合优化的同步定位及建图方法及系统 - Google Patents

多模态数据联合优化的同步定位及建图方法及系统 Download PDF

Info

Publication number
CN116907469A
CN116907469A CN202310311581.XA CN202310311581A CN116907469A CN 116907469 A CN116907469 A CN 116907469A CN 202310311581 A CN202310311581 A CN 202310311581A CN 116907469 A CN116907469 A CN 116907469A
Authority
CN
China
Prior art keywords
laser
inertial
pose
odometer
factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310311581.XA
Other languages
English (en)
Inventor
李从健
王建华
仝其胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Inspur Science Research Institute Co Ltd
Original Assignee
Shandong Inspur Science Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Inspur Science Research Institute Co Ltd filed Critical Shandong Inspur Science Research Institute Co Ltd
Priority to CN202310311581.XA priority Critical patent/CN116907469A/zh
Publication of CN116907469A publication Critical patent/CN116907469A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了多模态数据联合优化的同步定位及建图方法及系统,属于多模态传感器融合的同步定位技术领域,要解决的技术问题为如何将多种传感模式的信息高效融合,实现基于多模态数据的同步定位和建图。应用于配置有相机单元、惯性测量单元、激光雷达单元的装置,基于所述装置提供包括视觉‑惯性里程计模式、激光‑惯性里程计模式以及视觉‑惯性‑激光里程计模式的多模态模式。在环境纹理信息和环境结构信息均不满足预定条件时,通过相机单元、惯性测量单元和激光雷达单元提供视觉‑惯性‑激光里程计模式,在视觉‑惯性‑激光里程计模式下,将相机、雷达与惯性测量单元标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建。

Description

多模态数据联合优化的同步定位及建图方法及系统
技术领域
本发明涉及多模态传感器融合的同步定位技术领域,具体地说是多模态数据联合优化的同步定位及建图方法及系统。
背景技术
同步定位与建图(SLAM)技术旨在利用传感器数据估计环境采集设备在未知场景中的运动状态并建立场景地图,在数字孪生、虚拟现实、增强现实、混合现实、自动驾驶、无人机、移动机器人定位导航及场景图构建等领域有着广泛的应用。相机与激光雷达在环境信息采集中扮演着重要的角色,基于视觉的SLAM技术主要利用单目、双目及RGB-D相机获取环境信息,其价格及计算成本较低,但对光线变化敏感,另外,大尺度场景中深度信息的获取比较困难。另一方面,基于激光雷达的SLAM技术主要利用2D与3D雷达采集环境的几何结构信息,对光线变化不敏感,但当环境结构化信息不明显的场景中,定位精度及鲁棒性较差。
为提高SLAM在不同场景中的定位精度和鲁棒性,多模态传感数据融合定位与建图的方式吸引了研究者广泛关注。另外,随着科技的发展,SLAM技术涉及的传感器,比如相机、雷达、惯性测量单元、GPS等往小型化发展,价格也有所下降,这使得在环境采集设备上部署多种传感器,利用多模态数据进行同步定位与建图成为可能,但仍没有通用的框架将多种传感模式的信息高效地进行融合。
如何将多种传感模式的信息高效融合,实现基于多模态数据的同步定位和建图,是需要解决的技术问题。
发明内容
本发明的技术任务是针对以上不足,提供多模态数据联合优化的同步定位及建图方法,来解决如何将多种传感模式的信息高效融合,实现基于多模态数据的同步定位和建图的技术问题。
第一方面,本发明一种多模态数据联合优化的同步定位及建图方法,应用于配置有相机单元、惯性测量单元、激光雷达单元的装置,基于所述装置提供包括视觉-惯性里程计模式、激光-惯性里程计模式以及视觉-惯性-激光里程计模式的多模态模式;
基于所述多模态模式进行位姿估计以及场景图构建,包括如下步骤:
在环境纹理信息满足预定条件时,通过相机单元和惯性测量单元提供视觉-惯性里程计模式,在视觉-惯性里程计模式下,基于采集的RGB图像以及惯性测量单元的预积分结果进行位姿估计以及场景地图构建;
在环境结构化信息满足预定条件时,通过惯性测量单元和激光雷达单元提供激光-惯性里程计模式,在激光-惯性里程计模式下,基于采集的点云数据进行位姿估计以及场景地图构建;
在环境纹理信息和环境结构信息均不满足预定条件时,通过相机单元、惯性测量单元和激光雷达单元提供视觉-惯性-激光里程计模式,在视觉-惯性-激光里程计模式下,将相机、雷达与惯性测量单元标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建。
作为优选,在视觉-惯性里程计模式下,基于采集的RGB图像以及惯性测量单元的预积分结果进行位姿估计以及场景地图构建,包括如下步骤:
对采集的RGB图像进行特征提取,得到图像特征,并对惯性测量单元的原始数据进行预积分处理,得到惯性测量单元预防积分结果;
基于图像特征和惯性测量单元预积分结果初始化相机位姿,得到相机以及惯性测量单元在世界坐标系中的状态;
通过与局部地图的比较,判断当前采集的RGB图像是否为关键帧,如果是,将所述关键帧加入局部优化任务中,进行局部地图的构建;
基于词袋模型提取关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
基于回环侯选帧与当前帧的相对运动,验证回环是否成立;
基于惯性测量单元约束以及回环检测约束构建任务约束,基于任务约束进行全局优化,得到优化后的位姿。
作为优选,在激光-惯性里程计模式下,基于采集的点云数据进行位姿估计以及场景地图构建,包括如下步骤:
对当前帧点云数据进行畸变矫正;
对于矫正后的点云数据,提取所述点云数据的线特征和面特征;
基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,通过正态分布变换方法获取当前帧点云数据与前一帧点云数据之间的相对运动信息,得到当前帧点云数据与前一帧点云数据之间的位姿变换;
如果位姿变化大于等于设定的阈值,当前帧点云数据作为关键帧,将所述关键帧加入局部优化任务中,进行局部地图的构建;
基于当前帧点云线、面特征及局部地图信息,通过正态分布变换方法,检测回环并构建回环约束。
作为优选,在视觉-惯性-激光里程计模式下,将相机、雷达与惯性测量单元标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建,包括如下步骤:
基于相机与激光雷达的标定,将RGB图像与激光雷达提供的距离信息相融合,得到环境的RGB-D信息;
循环执行如下操作直至完成全局地图的构建:
基于所述RGB-D信息,在激光-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,将通过视觉-惯性里程计模式获得的优化后位姿作为初始位姿,基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,并以在视觉-惯性里程计下得到的回环侯选帧为初始回环检测范围;
通过基于所述RGB-D信息,在视觉-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,以激光-惯性里程计模式下获得的优化后位姿为初始位姿。
作为优选,在视觉-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、视觉里程计因子和视觉回环因子;
在激光-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、激光里程计因子以及激光回环因子;
在视觉-惯性-激光里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、激光里程计因子以及视觉-激光回环因子;
其中,构建惯性测量单元预积分因子包括如下步骤:
以距离当前时刻最近的传感器位姿为基础位姿,计算所述基础位姿与当前时刻惯性测量单元里程计增量位姿变换,通过进行相乘计算得到当前时刻惯性测量单元里程计位姿,其中,对于视觉-惯性里程计模式,所述传感器为相机,对于激光-惯性里程计模式,所述传感器为激光雷达;
计算前一帧与当前帧之间的惯性测量单元预积分量,基于前一帧状态施加惯性测量单元预积分量得到当前帧初始状态估计,对于相邻时刻i和j,惯性测量单元预积分增量Δvij、位置预积分增量Δpij以及旋转预积分增量ΔRij计算公式如下:
其中,vi表示第i时刻的速度,vj表示第j时刻的速度,g表示加速度,Δtij表示第i时刻和第j时刻的时间间隔,pi表示第i时刻的位置,pj表示第j时刻的位置,Ri表示第i时刻的旋转矩阵,Rj表示第j时刻的旋转矩阵;
表示Ri的转置;
对于激光关键帧,基于提取的线特征和面特征,构建激光里程计因子,包括如下步骤:
采用滑窗法创建区域地图
其中,线特征集合
面特征集合
为第i-1刻关键帧的线特征在世界坐标系中的表示,
为第i-1刻关键帧的面特征在世界坐标系中的表示,
第i时刻激光关键帧的线特征及面特征距离计算公式如下:
其中,k,u,v,w表示特征点的索引,与/>为/>对应的线特征上的两个点,与/>为对应的面特征上的三个点,第i时刻激光关键帧相当于世界坐标系的位姿变换Ti表示为:
激光里程计因子
在视觉-惯性里程计模式下,基于词袋模型构建视觉回环因子;
在激光-惯性里程计模式下,基于正态分布变换方法构建激光回环因子;
在视觉-惯性-激光里程计模式下,结合词袋模型和正态分布变换方法构建视觉-激光回环因子,包括如下步骤:
基于词袋模型提取RGB图像对应关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
通过点云数据确定所述回环侯选帧,得到确认的回环帧;
在回环帧附近选取局部地图,通过局部地图进行扫描匹配,得到相对变换位姿,基于相对变换位姿构建回环因子;
其中,在回环帧附近选取局部地图时,选取与回环帧位置和时间距离均大于预设阈值的关键帧,基于选取的关键帧构建局部地图。
作为优选,所述装置还包括GPS传感器,对应的,在用户选择使用GPS传感器时,构建任务约束应包括构建GPS因子;
通过如下步骤构建GPS因子:
将GPS数据转换到局部坐标系中,将GPS和激光雷法标定,实现GPS与激光雷达坐标系的对齐;
基于估计位姿的波动,添加GPS因子,如果估计位姿的波动大于GPS位置波动,添加GPS因子,否则,关闭GPS因子。
第二方面,本发明一种多模态数据联合优化的同步定位及建图系统,应用于配置有相机单元、惯性测量单元、激光雷达单元的装置,所述系统用于基于如第一方面任一项所述的多模态数据联合优化的同步定位及建图方法进行位姿估计以及场景图构建,所述系统包括:
视觉惯性里程计模块,在环境纹理信息满足预定条件时,所述视觉惯性里程计模块用于通过相机单元和惯性测量单元提供视觉-惯性里程计模式,在视觉-惯性里程计模式下,用于基于采集的RGB图像以及惯性测量单元的预积分结果进行位姿估计以及场景地图构建;
激光惯性里程计模块,在环境结构化信息满足预定条件时,所述激光惯性里程计模块用于通过惯性测量单元和激光雷达单元提供激光-惯性里程计模式,在激光-惯性里程计模式下,用于基于采集的点云数据进行位姿估计以及场景地图构建;
视觉-惯性-激光里程计模块,在环境纹理信息和环境结构信息均不满足预定条件时,所述视觉-惯性-激光里程计模块用于通过相机单元、惯性测量单元和激光雷达单元提供视觉-惯性-激光里程计模式,在视觉-惯性-激光里程计模式下,用于将相机、雷达与惯性测量单元标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建;
多模态数据联合优化模块,所述多模态数据联合优化模块用于构建任务约束,包括构建惯性测量单元预积分因子、视觉里程因子、激光里程因子、视觉回环因子、激光回环因子以及视觉-激光回环因子,所述惯性测量单元预积分因子、视觉里程因子、以及视觉回环因子配合作用于视觉-惯性里程计模式下的位姿优化,所述惯性测量单元预积分因子、激光里程因子以及激光回环因子配合作用于激光-惯性里程计模式下位姿优化,所述惯性测量单元预积分因子、激光里程因子、视觉里程因子以及视觉-激光回环因子配合作用于视觉-惯性-激光里程计模式下的位姿优化。8、根据权利要求7所述的多模态数据联合优化的同步定位及建图系统,其特征在于,所述视觉惯性里程计模块用于执行如下实现位姿估计和场景图构建:
对采集的RGB图像进行特征提取,得到图像特征,并对惯性测量单元的原始数据进行预积分处理,得到惯性测量单元预防积分结果;
基于图像特征和惯性测量单元预积分结果初始化相机位姿,得到相机以及惯性测量单元在世界坐标系中的状态;
通过与局部地图的比较,判断当前采集的RGB图像是否为关键帧,如果是,将所述关键帧加入局部优化任务中,进行局部地图的构建;
基于词袋模型提取关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
基于回环侯选帧与当前帧的相对运动,验证回环是否成立;
基于惯性测量单元约束以及回环检测约束构建任务约束,基于任务约束进行全局优化,得到优化后的位姿;
所述激光惯性里程计模块用于执行如下进行位姿估计和场景图构建:
对当前帧点云数据进行畸变矫正;
对于矫正后的点云数据,提取所述点云数据的线特征和面特征;
基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,通过正态分布变换方法获取当前帧点云数据与前一帧点云数据之间的相对运动信息,得到当前帧点云数据与前一帧点云数据之间的位姿变换;
如果位姿变化大于等于设定的阈值,当前帧点云数据作为关键帧,将所述关键帧加入局部优化任务中,进行局部地图的构建;
基于当前帧点云线、面特征及局部地图信息,通过正态分布变换方法,检测回环并构建回环约束;
所述视觉-惯性-激光里程计用于执行如下进行位姿估计以及场景图构建:
基于相机、雷达与惯性测量单元的标定,将RGB图像与激光雷达提供的距离信息相融合,得到环境的RGB-D信息;
循环执行如下操作直至完成全局地图的构建:
基于所述RGB-D信息,在激光-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,将通过视觉-惯性里程计模式获得的优化后位姿作为初始位姿,基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,并以在视觉-惯性里程计下得到的回环侯选帧为初始回环检测范围;
通过基于所述RGB-D信息,在视觉-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,以激光-惯性里程计模式下获得的优化后位姿为初始位姿。
作为优选,在视觉-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、视觉里程计因子和视觉回环因子;
在激光-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、激光里程计因子以及激光回环因子;
在视觉-惯性-激光里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、激光里程计因子以及视觉-激光回环因子;
其中,构建惯性测量单元预积分因子包括如下步骤:
以距离当前时刻最近的传感器位姿为基础位姿,计算所述基础位姿与当前时刻惯性测量单元里程计增量位姿变换,通过进行相乘计算得到当前时刻惯性测量单元里程计位姿,其中,对于视觉-惯性里程计模式,所述传感器为相机,对于激光-惯性里程计模式,所述传感器为激光雷达;
计算前一帧与当前帧之间的惯性测量单元预积分量,基于前一帧状态施加惯性测量单元预积分量得到当前帧初始状态估计,对于相邻时刻i和j,惯性测量单元预积分增量Δvij、位置预积分增量Δpij以及旋转预积分增量ΔRij计算公式如下:
其中,vi表示第i时刻的速度,vj表示第j时刻的速度,g表示加速度,Δtij表示第i时刻和第j时刻的时间间隔,pi表示第i时刻的位置,pj表示第j时刻的位置,Ri表示第i时刻的旋转矩阵,Rj表示第j时刻的旋转矩阵;
表示Ri的转置;
对于激光关键帧,基于提取的线特征和面特征,构建激光里程计因子,包括如下步骤:
采用滑窗法创建区域地图
其中,线特征集合
面特征集合
为第i-1刻关键帧的线特征在世界坐标系中的表示,
为第i-1刻关键帧的面特征在世界坐标系中的表示,
第i时刻激光关键帧的线特征及面特征距离计算公式如下:
其中,k,u,v,w表示特征点的索引,与/>为/>对应的线特征上的两个点,与/>为对应的面特征上的三个点,第i时刻激光关键帧相当于世界坐标系的位姿变换Ti表示为:
激光里程计因子
在视觉-惯性里程计模式下,基于词袋模型构建视觉回环因子;
在激光-惯性里程计模式下,基于正态分布变换方法构建激光回环因子;
在视觉-惯性-激光里程计模式下,结合词袋模型和正态分布变换方法构建视觉-激光回环因子,包括如下步骤:
基于词袋模型提取RGB图像对应关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
通过点云数据确定所述回环侯选帧,得到确认的回环帧;
在回环帧附近选取局部地图,通过局部地图进行扫描匹配,得到相对变换位姿,基于相对变换位姿构建回环因子;
其中,在回环帧附近选取局部地图时,选取与回环帧位置和时间距离均大于预设阈值的关键帧,基于选取的关键帧构建局部地图
作为优选,所述装置还包括GPS传感器,对应的,在用户选择使用GPS传感器时,构建任务约束应包括构建GPS因子;
所述多模态数据联合优化模块用于执行如下构建GPS因子:
将GPS数据转换到局部坐标系中,将GPS和激光雷法标定,实现GPS与激光雷达坐标系的对齐;
基于估计位姿的波动,添加GPS因子,如果估计位姿的波动大于GPS位置波动,添加GPS因子,否则,关闭GPS因子。为为第刻关键帧的面特征在世界坐标系中的表示,为为第刻关键帧的面特征在世界坐标系中的表示,本发明的多模态数据联合优化的同步定位及建图方法及系统具有以下优点:
1、基于视觉、惯性测量单元、激光雷达、GPS等传感数据及回环约束进行联合优化,提高同步定位与建图技术在复杂环境中的精度和鲁棒性,可应用于数字孪生相关产品与平台,实现高精视觉定位与场景图构建,解决虚拟世界与真实世界的精准映射问题;
2、支持多种传感模式的融合,为虚拟孪生世界多传感器融合感知、高精定位与导航、动态目标实时追踪提供多模态融合架构支撑。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
下面结合附图对本发明进一步说明。
图1为实施例1一种多模态数据联合优化的同步定位及建图方法的流程框图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定,在不冲突的情况下,本发明实施例以及实施例中的技术特征可以相互结合。
本发明实施例提供多模态数据联合优化的同步定位及建图方法及系统,用于解决的技术问题。
实施例1:
本发明一种多模态数据联合优化的同步定位及建图方法,应用于配置有相机单元、惯性测量单元、激光雷达单元的装置,基于所述装置提供包括视觉-惯性里程计模式、激光-惯性里程计模式以及视觉-惯性-激光里程计模式的多模态模式。基于所述多模态模式进行位姿估计以及场景图构建,包括如下步骤:
模式一、在环境纹理信息满足预定条件时,通过相机单元和惯性测量单元提供视觉-惯性里程计模式,在视觉-惯性里程计模式下,基于采集的RGB图像以及惯性测量单元的预积分结果进行位姿估计以及场景地图构建;
模式二、在环境结构化信息满足预定条件时,通过惯性测量单元和激光雷达单元提供激光-惯性里程计模式,在激光-惯性里程计模式下,基于采集的点云数据进行位姿估计以及场景地图构建;
模式三、在环境纹理信息和环境结构信息均不满足预定条件时,通过相机单元、惯性测量单元和激光雷达单元提供视觉-惯性-激光里程计模式,在视觉-惯性-激光里程计模式下,将相机与雷达标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建。
其中,在视觉-惯性里程计模式下,基于采集的RGB图像以及惯性测量单元的预积分结果进行位姿估计以及场景地图构建,包括如下步骤:
(1)对采集的RGB图像进行特征提取,得到图像特征,并对惯性测量单元的原始数据进行预积分处理,得到惯性测量单元预防积分结果;
(2)基于图像特征和惯性测量单元预积分结果初始化相机位姿,得到相机以及惯性测量单元在世界坐标系中的状态;
(3)通过与局部地图的比较,判断当前采集的RGB图像是否为关键帧,如果是,将所述关键帧加入局部优化任务中,进行局部地图的构建;
(4)基于词袋模型提取关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
基于回环侯选帧与当前帧的相对运动,验证回环是否成立;
(5)基于惯性测量单元约束以及回环检测约束构建任务约束,基于任务约束进行全局优化,得到优化后的位姿。
在激光-惯性里程计模式下,基于采集的点云数据进行位姿估计以及场景地图构建,包括如下步骤:
(1)对当前帧点云数据进行畸变矫正;
(2)对于矫正后的点云数据,提取所述点云数据的线特征和面特征;
(3)基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,通过正态分布变换方法获取当前帧点云数据与前一帧点云数据之间的相对运动信息,得到当前帧点云数据与前一帧点云数据之间的位姿变换;
(4)如果位姿变化大于等于设定的阈值,当前帧点云数据作为关键帧,将所述关键帧加入局部优化任务中,进行局部地图的构建;
(5)基于当前帧点云线、面特征及局部地图信息,通过正态分布变换方法,检测回环并构建回环约束。
在视觉-惯性-激光里程计模式下,将相机与雷达标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建,包括如下步骤:
(1)基于相机、激光雷达以及惯性测量单元的标定,将RGB图像与激光雷达提供的距离信息相融合,得到环境的RGB-D信息;
(2)循环执行如下操作直至完成全局地图的构建:
(2-1)基于所述RGB-D信息,在激光-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,将通过视觉-惯性里程计模式获得的优化后位姿作为初始位姿,基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,并以在视觉-惯性里程计下得到的回环侯选帧为初始回环检测范围;
(2-2)通过基于所述RGB-D信息,在视觉-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,以激光-惯性里程计模式下获得的优化后位姿为初始位姿。
当场景结构化信息不明显时,难以提取LiDAR点云线、面等几何特征,扫描匹配困难,设备位姿估计及地图构建精度低。场景纹理信息较弱时,图像特征提取困难,设备快速运动或抖动时,图像易模糊,视觉-惯性里程计难以获得设备的精确位姿。本实施例可依据场景特点,柔性化编排视觉、惯性及激光模块以实现复杂场景中的定位与建图。当视觉-惯性模组不能正常感知环境信息时,激光-惯性模块将依据视觉-惯性模组发送的信号,自动启动工作,形成视觉-惯性-激光联合工作模式。
本实施例中,在视觉-惯性里程计模式下,构建任务约束包括构建惯性测量单元约束、视觉约束和回环检测约束,具体的涉及构建惯性测量单元预积分因子、视觉里程因子和视觉回环因子。
在激光-惯性里程计模式下,构建任务约束包括构建惯性测量单元约束、激光雷达约束以及回环检测约束,具体的涉及构建惯性测量单元预积分因子、激光里程计因子以及激光回环因子。
在视觉-惯性-激光里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、视觉里程因子、激光里程计因子以及视觉-激光回环因子。
其中,构建惯性测量单元预积分因子包括如下步骤:
以距离当前时刻最近的传感器位姿为基础位姿,计算所述基础位姿与当前时刻惯性测量单元里程计增量位姿变换,通过进行相乘计算得到当前时刻惯性测量单元里程计位姿,其中,对于视觉-惯性里程计模式,所述传感器为相机,对于激光-惯性里程计模式,所述传感器为激光雷达;
计算前一帧与当前帧之间的惯性测量单元预积分量,基于前一帧状态施加惯性测量单元预积分量得到当前帧初始状态估计,对于相邻时刻i和j,惯性测量单元预积分增量Δvij、位置预积分增量Δpij以及旋转预积分增量ΔRij计算公式如下:
其中,vi表示第i时刻的速度,vj表示第j时刻的速度,g表示加速度,Δtij表示第i时刻和第j时刻的时间间隔,pi表示第i时刻的位置,pj表示第j时刻的位置,Ri表示第i时刻的旋转矩阵,Rj表示第j时刻的旋转矩阵;
表示Ri的转置。
对于激光关键帧,基于提取的线特征和面特征,构建激光里程计因子,包括如下步骤:
采用滑窗法创建区域地图
其中,线特征集合
面特征集合
为第i-1刻关键帧的线特征在世界坐标系中的表示,
为第i-1刻关键帧的面特征在世界坐标系中的表示,
第i时刻激光关键帧的线特征及面特征距离计算公式如下:
其中,k,u,v,w表示特征点的索引,与/>为/>对应的线特征上的两个点,/>与/>为对应的面特征上的三个点,第i时刻激光关键帧相当于世界坐标系的位姿变换Ti表示为:
激光里程计因子
在视觉-惯性里程计模式下,基于词袋模型构建视觉回环因子。
在激光-惯性里程计模式下,基于正态分布变换方法构建激光回环因子。
在视觉-惯性-激光里程计模式下,结合词袋模型和正态分布变换方法构建视觉-激光回环因子,包括如下步骤:
(1)基于词袋模型提取RGB图像对应关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
(2)通过点云数据确定所述回环侯选帧,得到确认的回环帧;
(3)在回环帧附近选取局部地图,通过局部地图进行扫描匹配,得到相对变换位姿,基于相对变换位姿构建回环因子;
其中,在回环帧附近选取局部地图时,选取与回环帧位置和时间距离均大于预设阈值的关键帧,基于选取的关键帧构建局部地图。
本实施例中,视觉-惯性里程计模式以及激光惯性理里程计模式下回环因子的构建采用现有的视觉-惯性里程计模式以及激光惯性理里程计模式中常用的方法,本实施例不做限定。
作为改进,本实施例的装置中还包括GPS传感器,对应的,构建任务约束应包括构建GPS因子。
本实施例中,通过如下步骤构建GPS因子:
(1)将GPS数据转换到局部坐标系中,将GPS和激光雷法标定,实现GPS与激光雷达坐标系的对齐;
(2)基于估计位姿的波动,添加GPS因子,如果估计位姿的波动大于GPS位置波动,添加GPS因子,否则,关闭GPS因子。
本实施例中,依据任务及场景的不同,相机单元与惯性测量单元配合形成视觉惯性里程计,惯性测量单元和激光雷达配合可形成激光惯性里程计,相机单元、惯性测量单元以及激光激光雷达配合,通过柔性编排自动形成视觉-惯性-激光紧耦合的协同工作模式,以应对视觉或激光退化的场景,提高系统的精度及鲁棒性。
实施例2:
本发明一种多模态数据联合优化的同步定位及建图系统,应用于配置有相机单元、惯性测量单元、激光雷达单元的装置,所述系统用于基于如权利要求1-6任一项所述的多模态数据联合优化的同步定位及建图方法进行位姿估计以及场景图构建。该系统包括多模态数据联合优化模块、视觉-惯性里程计模块、激光-惯性里程计模块以及视觉-惯性-激光里程计模块,该系统可基于实施例1公开的进行位姿估计以及场景图构建。
环境纹理信息满足预定条件时,所述视觉-惯性里程计模块用于通过相机单元和惯性测量单元提供视觉-惯性里程计模式,在视觉-惯性里程计模式下,用于基于采集的RGB图像以及惯性测量单元的预积分结果进行位姿估计以及场景地图构建。
本实施例中,视觉-惯性里程计模块用于执行如下实现位姿估计和场景图构建:
(1)对采集的RGB图像进行特征提取,得到图像特征,并对惯性测量单元的原始数据进行预积分处理,得到惯性测量单元预防积分结果;
(2)基于图像特征和惯性测量单元预积分结果初始化相机位姿,得到相机以及惯性测量单元在世界坐标系中的状态;
(3)通过与局部地图的比较,判断当前采集的RGB图像是否为关键帧,如果是,将所述关键帧加入局部优化任务中,进行局部地图的构建;
(4)基于词袋模型提取关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
基于回环侯选帧与当前帧的相对运动,验证回环是否成立;
(5)基于惯性测量单元约束以及回环检测约束构建任务约束,基于任务约束进行全局优化,得到优化后的位姿。
在环境结构化信息满足预定条件时,所述激光惯性里程计模块用于通过惯性测量单元和激光雷达单元提供激光-惯性里程计模式,在激光-惯性里程计模式下,用于基于采集的点云数据进行位姿估计以及场景地图构建。
本实施例中,激光-惯性里程计模块用于执行如下进行位姿估计和场景图构建:
(1)对当前帧点云数据进行畸变矫正;
(2)对于矫正后的点云数据,提取所述点云数据的线特征和面特征;
(3)基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,通过正态分布变换方法获取当前帧点云数据与前一帧点云数据之间的相对运动信息,得到当前帧点云数据与前一帧点云数据之间的位姿变换;
(4)如果位姿变化大于等于设定的阈值,当前帧点云数据作为关键帧,将所述关键帧加入局部优化任务中,进行局部地图的构建;
(5)基于当前帧点云线、面特征及局部地图信息,通过正态分布变换方法,检测回环并构建回环约束。
在环境纹理信息和环境结构信息均不满足预定条件时,所述觉-惯性-激光里程计模块用于通过相机单元、惯性测量单元和激光雷达单元提供视觉-惯性-激光里程计模式,在视觉-惯性-激光里程计模式下,用于将相机与雷达标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建。
本实施例中,视觉-惯性-激光里程计用于执行如下进行位姿估计以及场景图构建:
(1)基于相机、激光雷达以及惯性测量单元的标定,将RGB图像与激光雷达提供的距离信息相融合,得到环境的RGB-D信息;
(2)循环执行如下操作直至完成全局地图的构建:
(2-1)基于所述RGB-D信息,在激光-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,将通过视觉-惯性里程计模式获得的优化后位姿作为初始位姿,基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,并以在视觉-惯性里程计下得到的回环侯选帧为初始回环检测范围;
(2-2)通过基于所述RGB-D信息,在视觉-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,以激光-惯性里程计模式下获得的优化后位姿为初始位姿。
在视觉-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、视觉里程计因子和视觉回环因子;在激光-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、激光里程计因子以及激光回环因子;在视觉-惯性-激光里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、激光里程计因子以及视觉-激光回环因子。
多模态数据联合优化模块用于构建任务约束,包括构建惯性测量单元预积分因子、视觉里程因子、激光里程因子、视觉回环因子、激光回环因子以及视觉-激光回环因子,所述惯性测量单元预积分因子、视觉里程因子、以及视觉回环因子配合作用于视觉-惯性里程计模式下的位姿优化,所述惯性测量单元预积分因子、激光里程因子以及激光回环因子配合作用于激光-惯性里程计模式下位姿优化,所述惯性测量单元预积分因子、激光里程因子、视觉里程因子以及视觉-激光回环因子配合作用于视觉-惯性-激光里程计模式下的位姿优化。
其中,所述多模态数据联合优化模块用于执行如下构建惯性测量单元预积分因子:
(1)以距离当前时刻最近的传感器位姿为基础位姿,计算所述基础位姿与当前时刻惯性测量单元里程计增量位姿变换,通过进行相乘计算得到当前时刻惯性测量单元里程计位姿,其中,对于视觉-惯性里程计模式,所述传感器为相机,对于激光-惯性里程计模式,所述传感器为激光雷达;
(2)计算前一帧与当前帧之间的惯性测量单元预积分量,基于前一帧状态施加惯性测量单元预积分量得到当前帧初始状态估计,对于相邻时刻i和j,惯性测量单元预积分增量Δvij、位置预积分增量Δpij以及旋转预积分增量ΔRij计算公式如下:
其中,vi表示第i时刻的速度,vj表示第j时刻的速度,g表示加速度,Δtij表示第i时刻和第j时刻的时间间隔,pi表示第i时刻的位置,pj表示第j时刻的位置,Ri表示第i时刻的旋转矩阵,Rj表示第j时刻的旋转矩阵;
表示Ri的转置。
对于激光关键帧,所述多模态数据联合优化模块用于基于提取的线特征和面特征,构建激光里程计因子,包括如下步骤:
采用滑窗法创建区域地图
其中,线特征集合/>
面特征集合
为第i-1刻关键帧的线特征在世界坐标系中的表示,
为第i-1刻关键帧的面特征在世界坐标系中的表示,
第i时刻激光关键帧的线特征及面特征距离计算公式如下:
其中,k,u,v,w表示特征点的索引,与/>为/>对应的线特征上的两个点,与/>为对应的面特征上的三个点,第i时刻激光关键帧相当于世界坐标系的位姿变换Ti表示为:
激光里程计因子
在视觉-惯性里程计模式下,多模态数据联合优化模块用于基于词袋模型构建视觉回环因子。
在激光-惯性里程计模式下,多模态数据联合优化模块用于基于正态分布变换方法构建激光回环因子。
在视觉-惯性-激光里程计模式下,多模态数据联合优化模块用于结合词袋模型和正态分布变换方法执行如下构建视觉-激光回环因子,具体如下:
(1)基于词袋模型提取RGB图像对应关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
(2)通过点云数据确定所述回环侯选帧,得到确认的回环帧;
(3)在回环帧附近选取局部地图,通过局部地图进行扫描匹配,得到相对变换位姿,基于相对变换位姿构建回环因子;
其中,在回环帧附近选取局部地图时,选取与回环帧位置和时间距离均大于预设阈值的关键帧,基于选取的关键帧构建局部地图。
作为改进,本实施例所应用的装置还包括GPS传感器,对应的,构建任务约束应包括构建GPS因子。
多模态数据联合优化模块用于执行如下构建GPS因子:
(1)将GPS数据转换到局部坐标系中,将GPS和激光雷法标定,实现GPS与激光雷达坐标系的对齐;
(2)基于估计位姿的波动,添加GPS因子,如果估计位姿的波动大于GPS位置波动,添加GPS因子,否则,关闭GPS因子。
上文通过附图和优选实施例对本发明进行了详细展示和说明,然而本发明不限于这些已揭示的实施例,基与上述多个实施例本领域技术人员可以知晓,可以组合上述不同实施例中的代码审核手段得到本发明更多的实施例,这些实施例也在本发明的保护范围之内。

Claims (10)

1.一种多模态数据联合优化的同步定位及建图方法,其特征在于,应用于配置有相机单元、惯性测量单元、激光雷达单元的装置,基于所述装置提供包括视觉-惯性里程计模式、激光-惯性里程计模式以及视觉-惯性-激光里程计模式的多模态模式;
基于所述多模态模式进行位姿估计以及场景图构建,包括如下步骤:
在环境纹理信息满足预定条件时,通过相机单元和惯性测量单元提供视觉-惯性里程计模式,在视觉-惯性里程计模式下,基于采集的RGB图像以及惯性测量单元的预积分结果进行位姿估计以及场景地图构建;
在环境结构化信息满足预定条件时,通过惯性测量单元和激光雷达单元提供激光-惯性里程计模式,在激光-惯性里程计模式下,基于采集的点云数据进行位姿估计以及场景地图构建;
在环境纹理信息和环境结构信息均不满足预定条件时,通过相机单元、惯性测量单元和激光雷达单元提供视觉-惯性-激光里程计模式,在视觉-惯性-激光里程计模式下,将相机、雷达与惯性测量单元标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建。
2.根据权利要求1所述的多模态数据联合优化的同步定位及建图方法,其特征在于,在视觉-惯性里程计模式下,基于采集的RGB图像以及惯性测量单元的预积分结果进行位姿估计以及场景地图构建,包括如下步骤:
对采集的RGB图像进行特征提取,得到图像特征,并对惯性测量单元的原始数据进行预积分处理,得到惯性测量单元预防积分结果;
基于图像特征和惯性测量单元预积分结果初始化相机位姿,得到相机以及惯性测量单元在世界坐标系中的状态;
通过与局部地图的比较,判断当前采集的RGB图像是否为关键帧,如果是,将所述关键帧加入局部优化任务中,进行局部地图的构建;
基于词袋模型提取关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
基于回环侯选帧与当前帧的相对运动,验证回环是否成立;
基于惯性测量单元约束以及回环检测约束构建任务约束,基于任务约束进行全局优化,得到优化后的位姿。
3.根据权利要求2所述的多模态数据联合优化的同步定位及建图方法,其特征在于,在激光-惯性里程计模式下,基于采集的点云数据进行位姿估计以及场景地图构建,包括如下步骤:
对当前帧点云数据进行畸变矫正;
对于矫正后的点云数据,提取所述点云数据的线特征和面特征;
基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,通过正态分布变换方法获取当前帧点云数据与前一帧点云数据之间的相对运动信息,得到当前帧点云数据与前一帧点云数据之间的位姿变换;
如果位姿变化大于等于设定的阈值,当前帧点云数据作为关键帧,将所述关键帧加入局部优化任务中,进行局部地图的构建;
基于当前帧点云线、面特征及局部地图信息,通过正态分布变换方法,检测回环并构建回环约束。
4.根据权利要求3所述的多模态数据联合优化的同步定位及建图方法,其特征在于,在视觉-惯性-激光里程计模式下,将相机、雷达与惯性测量单元标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建,包括如下步骤:
基于相机与激光雷达的标定,将RGB图像与激光雷达提供的距离信息相融合,得到环境的RGB-D信息;
循环执行如下操作直至完成全局地图的构建:
基于所述RGB-D信息,在激光-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,将通过视觉-惯性里程计模式获得的优化后位姿作为初始位姿,基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,并以在视觉-惯性里程计下得到的回环侯选帧为初始回环检测范围;
通过基于所述RGB-D信息,在视觉-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,以激光-惯性里程计模式下获得的优化后位姿为初始位姿。
5.根据权利要求4所述的多模态数据联合优化的同步定位及建图方法,其特征在于,在视觉-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、视觉里程计因子和视觉回环因子;
在激光-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、激光里程计因子以及激光回环因子;
在视觉-惯性-激光里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、视觉里程因子、激光里程计因子以及视觉-激光回环因子;
其中,构建惯性测量单元预积分因子包括如下步骤:
以距离当前时刻最近的传感器位姿为基础位姿,计算所述基础位姿与当前时刻惯性测量单元里程计增量位姿变换,通过进行相乘计算得到当前时刻惯性测量单元里程计位姿,其中,对于视觉-惯性里程计模式,所述传感器为相机,对于激光-惯性里程计模式,所述传感器为激光雷达;
计算前一帧与当前帧之间的惯性测量单元预积分量,基于前一帧状态施加惯性测量单元预积分量得到当前帧初始状态估计,对于相邻时刻i和j,惯性测量单元预积分增量Δvij、位置预积分增量Δpij以及旋转预积分增量ΔRij计算公式如下:
其中,vi表示第i时刻的速度,vj表示第j时刻的速度,g表示加速度,Δtij表示第i时刻和第j时刻的时间间隔,pi表示第i时刻的位置,pj表示第j时刻的位置,Ri表示第i时刻的旋转矩阵,Rj表示第j时刻的旋转矩阵;
表示Ri的转置。
对于激光关键帧,基于提取的线特征和面特征,构建激光里程计因子,包括如下步骤:
采用滑窗法创建区域地图
其中,线特征集合
面特征集合
为第i-1刻关键帧的线特征在世界坐标系中的表示,
为第i-1刻关键帧的面特征在世界坐标系中的表示,
第i时刻激光关键帧的线特征及面特征距离计算公式如下:
其中,k,u,v,w表示特征点的索引,与/>为/>对应的线特征上的两个点,与/>为对应的面特征上的三个点,第i时刻激光关键帧相当于世界坐标系的位姿变换Ti表示为:
激光里程计因子
在视觉-惯性里程计模式下,基于词袋模型构建视觉回环因子;
在激光-惯性里程计模式下,基于正态分布变换方法构建激光回环因子;
在视觉-惯性-激光里程计模式下,结合词袋模型和正态分布变换方法构建视觉-激光回环因子,包括如下步骤:
基于词袋模型提取RGB图像对应关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
通过点云数据确定所述回环侯选帧,得到确认的回环帧;
在回环帧附近选取局部地图,通过局部地图进行扫描匹配,得到相对变换位姿,基于相对变换位姿构建回环因子;
其中,在回环帧附近选取局部地图时,选取与回环帧位置和时间距离均大于预设阈值的关键帧,基于选取的关键帧构建局部地图。
6.根据权利要求5任一项所述的多模态数据联合优化的同步定位及建图方法,其特征在于,所述装置还包括GPS传感器,对应的,在用户选择使用GPS传感器时,构建任务约束应包括构建GPS因子;
通过如下步骤构建GPS因子:
将GPS数据转换到局部坐标系中,将GPS和激光雷法标定,实现GPS与激光雷达坐标系的对齐;
基于估计位姿的波动,添加GPS因子,如果估计位姿的波动大于GPS位置波动,添加GPS因子,否则,关闭GPS因子。
7.一种多模态数据联合优化的同步定位及建图系统,其特征在于,应用于配置有相机单元、惯性测量单元、激光雷达单元的装置,所述系统用于基于如权利要求1-6任一项所述的多模态数据联合优化的同步定位及建图方法进行位姿估计以及场景图构建,所述系统包括:
视觉惯性里程计模块,在环境纹理信息满足预定条件时,所述视觉惯性里程计模块用于通过相机单元和惯性测量单元提供视觉-惯性里程计模式,在视觉-惯性里程计模式下,用于基于采集的RGB图像以及惯性测量单元的预积分结果进行位姿估计以及场景地图构建;
激光惯性里程计模块,在环境结构化信息满足预定条件时,所述激光惯性里程计模块用于通过惯性测量单元和激光雷达单元提供激光-惯性里程计模式,在激光-惯性里程计模式下,用于基于采集的点云数据进行位姿估计以及场景地图构建;
视觉-惯性-激光里程计模块,在环境纹理信息和环境结构信息均不满足预定条件时,所述视觉-惯性-激光里程计模块用于通过相机单元、惯性测量单元和激光雷达单元提供视觉-惯性-激光里程计模式,在视觉-惯性-激光里程计模式下,将相机、雷达与惯性测量单元标定,基于视觉提供的RGB图像以及激光雷达提供的距离信息进行位姿估计以及场景图构建;
多模态数据联合优化模块,所述多模态数据联合优化模块用于构建任务约束,包括构建惯性测量单元预积分因子、视觉里程因子、激光里程因子、视觉回环因子、激光回环因子以及视觉-激光回环因子,所述惯性测量单元预积分因子、视觉里程因子、以及视觉回环因子配合作用于视觉-惯性里程计模式下的位姿优化,所述惯性测量单元预积分因子、激光里程因子以及激光回环因子配合作用于激光-惯性里程计模式下位姿优化,所述惯性测量单元预积分因子、激光里程因子、视觉里程因子以及视觉-激光回环因子配合作用于视觉-惯性-激光里程计模式下的位姿优化。
8.根据权利要求7所述的多模态数据联合优化的同步定位及建图系统,其特征在于,所述视觉-惯性里程计模块用于执行如下实现位姿估计和场景图构建:
对采集的RGB图像进行特征提取,得到图像特征,并对惯性测量单元的原始数据进行预积分处理,得到惯性测量单元预防积分结果;
基于图像特征和惯性测量单元预积分结果初始化相机位姿,得到相机以及惯性测量单元在世界坐标系中的状态;
通过与局部地图的比较,判断当前采集的RGB图像是否为关键帧,如果是,将所述关键帧加入局部优化任务中,进行局部地图的构建;
基于词袋模型提取关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
基于回环侯选帧与当前帧的相对运动,验证回环是否成立;
基于惯性测量单元约束以及回环检测约束构建任务约束,基于任务约束进行全局优化,得到优化后的位姿;
所述激光-惯性里程计模块用于执行如下进行位姿估计和场景图构建:
对当前帧点云数据进行畸变矫正;
对于矫正后的点云数据,提取所述点云数据的线特征和面特征;
基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,通过正态分布变换方法获取当前帧点云数据与前一帧点云数据之间的相对运动信息,得到当前帧点云数据与前一帧点云数据之间的位姿变换;
如果位姿变化大于等于设定的阈值,当前帧点云数据作为关键帧,将所述关键帧加入局部优化任务中,进行局部地图的构建;
基于当前帧点云线、面特征及局部地图信息,通过正态分布变换方法,检测回环并构建回环约束;
所述视觉-惯性-激光里程计用于执行如下进行位姿估计以及场景图构建:
基于相机、雷达与惯性测量单元的标定,将RGB图像与激光雷达提供的距离信息相融合,得到环境的RGB-D信息;
循环执行如下操作直至完成全局地图的构建:
基于所述RGB-D信息,在激光-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,将通过视觉-惯性里程计模式获得的优化后位姿作为初始位姿,基于线特征和面特征,将当前帧点云数据与前一帧点云数据进行匹配,并以在视觉-惯性里程计下得到的回环侯选帧为初始回环检测范围;
通过基于所述RGB-D信息,在视觉-惯性里程计模式下进行位姿估计以及场景地图构建,在位姿估计以及场景地图构建过程中,以激光-惯性里程计模式下获得的优化后位姿为初始位姿。
9.根据权利要求8所述的多模态数据联合优化的同步定位及建图系统,其特征在于,
在视觉-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、视觉里程计因子和视觉回环因子;
在激光-惯性里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、激光里程计因子以及激光回环因子;
在视觉-惯性-激光里程计模式下,构建任务约束包括构建惯性测量单元预积分因子、激光里程计因子以及视觉-激光回环因子;
其中,构建惯性测量单元预积分因子包括如下步骤:
以距离当前时刻最近的传感器位姿为基础位姿,计算所述基础位姿与当前时刻惯性测量单元里程计增量位姿变换,通过进行相乘计算得到当前时刻惯性测量单元里程计位姿,其中,对于视觉-惯性里程计模式,所述传感器为相机,对于激光-惯性里程计模式,所述传感器为激光雷达;
计算前一帧与当前帧之间的惯性测量单元预积分量,基于前一帧状态施加惯性测量单元预积分量得到当前帧初始状态估计,对于相邻时刻i和j,惯性测量单元预积分增量Δvij、位置预积分增量Δpij以及旋转预积分增量ΔRij计算公式如下:
其中,vi表示第i时刻的速度,vj表示第j时刻的速度,g表示加速度,Δtij表示第i时刻和第j时刻的时间间隔,pi表示第i时刻的位置,pj表示第j时刻的位置,Ri表示第i时刻的旋转矩阵,Rj表示第j时刻的旋转矩阵;
表示Ri的转置;
对于激光关键帧,基于提取的线特征和面特征,构建激光里程计因子,包括如下步骤:
采用滑窗法创建区域地图
其中,线特征集合
面特征集合
为第i-1刻关键帧的线特征在世界坐标系中的表示,
为第i-1刻关键帧的面特征在世界坐标系中的表示,
第i时刻激光关键帧的线特征及面特征距离计算公式如下:
其中,k,u,v,w表示特征点的索引,与/>为/>对应的线特征上的两个点,与/>为对应的面特征上的三个点,第i时刻激光关键帧相当于世界坐标系的位姿变换Ti表示为:
激光里程计因子
在视觉-惯性里程计模式下,基于词袋模型构建视觉回环因子;
在激光-惯性里程计模式下,基于正态分布变换方法构建激光回环因子;
在视觉-惯性-激光里程计模式下,结合词袋模型和正态分布变换方法构建视觉-激光回环因子,包括如下步骤:
基于词袋模型提取RGB图像对应关键帧的词袋信息,基于关键帧的词袋信息进行回环检测,得到回环候选帧;
通过点云数据确定所述回环侯选帧,得到确认的回环帧;
在回环帧附近选取局部地图,通过局部地图进行扫描匹配,得到相对变换位姿,基于相对变换位姿构建回环因子;
其中,在回环帧附近选取局部地图时,选取与回环帧位置和时间距离均大于预设阈值的关键帧,基于选取的关键帧构建局部地图为为第刻关键帧的面特征在世界坐标系中的表示。
10.根据权利要求9所述的多模态数据联合优化的同步定位及建图系统,其特征在于,所述装置还包括GPS传感器,对应的,在用户选择使用GPS传感器时,构建任务约束应包括构建GPS因子;
所述多模态数据联合优化模块用于执行如下构建GPS因子:
将GPS数据转换到局部坐标系中,将GPS和激光雷法标定,实现GPS与激光雷达坐标系的对齐;
基于估计位姿的波动,添加GPS因子,如果估计位姿的波动大于GPS位置波动,添加GPS因子,否则,关闭GPS因子。
CN202310311581.XA 2023-03-24 2023-03-24 多模态数据联合优化的同步定位及建图方法及系统 Pending CN116907469A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310311581.XA CN116907469A (zh) 2023-03-24 2023-03-24 多模态数据联合优化的同步定位及建图方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310311581.XA CN116907469A (zh) 2023-03-24 2023-03-24 多模态数据联合优化的同步定位及建图方法及系统

Publications (1)

Publication Number Publication Date
CN116907469A true CN116907469A (zh) 2023-10-20

Family

ID=88349917

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310311581.XA Pending CN116907469A (zh) 2023-03-24 2023-03-24 多模态数据联合优化的同步定位及建图方法及系统

Country Status (1)

Country Link
CN (1) CN116907469A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117706544A (zh) * 2024-02-04 2024-03-15 新泰坦空气净化技术(北京)有限公司 一种智能环保远程监测系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117706544A (zh) * 2024-02-04 2024-03-15 新泰坦空气净化技术(北京)有限公司 一种智能环保远程监测系统
CN117706544B (zh) * 2024-02-04 2024-04-09 新泰坦空气净化技术(北京)有限公司 一种智能环保远程监测系统

Similar Documents

Publication Publication Date Title
CN110009681B (zh) 一种基于imu辅助的单目视觉里程计位姿处理方法
CN109887057B (zh) 生成高精度地图的方法和装置
CN108406731A (zh) 一种基于深度视觉的定位装置、方法及机器人
CN107449444A (zh) 一种多星图姿态关联的星敏感器内参数标定方法及其装置
CN109631911B (zh) 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法
CN112556719B (zh) 一种基于cnn-ekf的视觉惯性里程计实现方法
CN112577517A (zh) 一种多元定位传感器联合标定方法和系统
CN103411587B (zh) 定位定姿方法及系统
CN110675453B (zh) 一种已知场景中运动目标的自定位方法
CN114526745A (zh) 一种紧耦合激光雷达和惯性里程计的建图方法及系统
CN108613675B (zh) 低成本无人飞行器移动测量方法及系统
CN208323361U (zh) 一种基于深度视觉的定位装置及机器人
CN110751123B (zh) 一种单目视觉惯性里程计系统及方法
Dawood et al. Harris, SIFT and SURF features comparison for vehicle localization based on virtual 3D model and camera
CN114019552A (zh) 一种基于贝叶斯多传感器误差约束的定位置信度优化方法
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN114964276A (zh) 一种融合惯导的动态视觉slam方法
CN116907469A (zh) 多模态数据联合优化的同步定位及建图方法及系统
CN117541655B (zh) 融合视觉语义消除radar建图z轴累积误差的方法
CN116989772B (zh) 一种空地多模态多智能体协同定位与建图方法
CN117310627A (zh) 一种应用于车路协同路侧感知系统的联合标定方法
CN115900732A (zh) 基于路侧相机和车载单元的组合导航方法及系统
CN115112123A (zh) 基于视觉-imu融合的多移动机器人协同定位方法及系统
CN114627253A (zh) 地图构建方法、装置与设备
CN116762094A (zh) 数据处理方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination