CN114018284A - 一种基于视觉的轮速里程计校正方法 - Google Patents

一种基于视觉的轮速里程计校正方法 Download PDF

Info

Publication number
CN114018284A
CN114018284A CN202111191236.4A CN202111191236A CN114018284A CN 114018284 A CN114018284 A CN 114018284A CN 202111191236 A CN202111191236 A CN 202111191236A CN 114018284 A CN114018284 A CN 114018284A
Authority
CN
China
Prior art keywords
coordinate system
wheel speed
pose
camera
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111191236.4A
Other languages
English (en)
Other versions
CN114018284B (zh
Inventor
李一染
危义坤
管西强
张云侠
徐效农
安康
刘翔鹏
宋亚庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Normal University
Original Assignee
Shanghai Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Normal University filed Critical Shanghai Normal University
Priority to CN202111191236.4A priority Critical patent/CN114018284B/zh
Publication of CN114018284A publication Critical patent/CN114018284A/zh
Application granted granted Critical
Publication of CN114018284B publication Critical patent/CN114018284B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于视觉的轮速里程计校正方法,该方法包括以下步骤:步骤1:获取系统的内参数和外参数;步骤2:获取并同步视觉信息和轮速里程计信息;步骤3:基于MSCKF算法对视觉信息和轮速里程计信息进行融合,即根据轮速里程计信息进行状态的预测并根据视觉信息进行状态的更新,以校正轮速里程计;步骤4:判断是否执行完所有的特征点更新;步骤5:若是,则得到当前局部地图位姿,进而得到系统全局定位,若否,则返回步骤2,与现有技术相比,本发明具有校正轮速里程计的时间累积误差、提高定位精度和计算效率高等优点。

Description

一种基于视觉的轮速里程计校正方法
技术领域
本发明涉及多传感器融合技术,尤其是涉及一种基于视觉的轮速里程计校正方法。
背景技术
随着扫地机器人、自动餐车等移动机器人的兴起,人们对移动机器人的运用越来越广。而对移动机器人运动过程中的定位和导航是其完成各种任务的基础。移动机器人的定位主要依赖于各种传感器感知周围环境信息,从而分析获得其与周围环境中各物体的位置关系,进而实现实时的自我定位。但单一传感器物理条件上存在局限性,在实际应用中倘若某一传感器发生错误或误差,SLAM系统则可能出现定位偏差等现象,多传感器信息融合技术可以有效地解决以上问题。
多传感器融合技术可以将多个传感器的定位信息进行有效的数据融合,综合优化,处理得到所需的估计与决策的数据,以增强数据的可靠性和利用性。随着近年来无人驾驶,无人机和移动机器人领域的不断发展,多传感器融合技术也得到迅速的发展。目前得到广泛应用的多传感器信息融合算法有,卡尔曼滤波算法,扩展卡尔曼滤波算法,经典推理法,神经网络算法等。
基于单一传感器如轮速里程计的SLAM技术已经能够有效地提取周围环境信息,完成机器人的定位需求。因此该技术在Turtle Bot等机器人中取得了令人满意的实验结果。尽管如此,该技术目前还存在以下缺陷:
第一,由于差速轮速里程计与真实位姿存在差距,定位误差随时间累积,在大场景长时间的环境中机器人不能获得可靠定位,需要进行人工校正。
第二,基于图像的视觉里程计同样能满足简单的定位需求,但相较于轮速里程计实时性差、高动态环境下同样易出现误差。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于视觉的轮速里程计校正方法。
本发明的目的可以通过以下技术方案来实现:
一种基于视觉的轮速里程计校正方法,该方法包括以下步骤:
步骤1:获取系统的内参数和外参数;
步骤2:获取并同步视觉信息和轮速里程计信息;
步骤3:基于MSCKF算法对视觉信息和轮速里程计信息进行融合,即根据轮速里程计信息进行状态的预测并根据视觉信息进行状态的更新,以校正轮速里程计;
步骤4:判断是否执行完所有的特征点更新;
步骤5:若是,则得到当前局部地图位姿,进而得到系统全局定位,若否,则返回步骤2。
所述的步骤1中,系统的内参数包括相机内参、左右轮轴距b、左轮速系数kl和右轮速系数kr,系统的外参数包括轮速坐标系到相机坐标系的旋转矩阵
Figure BDA0003301186090000021
和轮速坐标系到相机坐标系的平移矩阵CpO
所述的步骤3中,具体包括以下步骤:
步骤31:轮速里程计预测;
步骤32:状态增广;
步骤33:轮速里程计更新。
所述的步骤31中,轮速里程计预测的过程具体包括以下步骤:
步骤311:初始化状态向量和协方差,将滑动窗口的状态分为里程计位姿和相机位姿,总状态为当前里程计位姿增广上N帧的相机位姿,里程计位姿和相机位姿的表达式分别为:
Figure BDA0003301186090000022
Figure BDA0003301186090000023
其中,R为旋转矩阵,G为全局坐标系,O为轮速坐标系,C为相机坐标系,
Figure BDA0003301186090000024
为轮速坐标系到全局坐标系的里程计位姿,
Figure BDA0003301186090000025
为相机坐标系到全局坐标系的相机位姿,
Figure BDA0003301186090000026
为轮速坐标系到地面坐标系的旋转矩阵,GpO为轮速坐标系到全局坐标系的平移矩阵,GpC为相机坐标系到地面坐标系的平移矩阵,SE3为欧式群;
步骤312:根据轮速里程计信息进行状态的预测,基于IMU处理方法对轮速里程计信息进行处理并建立常微分方程:
Figure BDA0003301186090000031
Figure BDA0003301186090000032
Figure BDA0003301186090000033
Figure BDA0003301186090000034
其中,OωO为相对轮速坐标系的瞬时角速度,OvO为相对轮速坐标系的瞬时速度,[OωO]×为瞬时角速度的反对称矩阵,
Figure BDA0003301186090000035
为轮速坐标系到地面坐标系的旋转矩阵,GvO为轮速坐标系到全局坐标系下的瞬时速度,
Figure BDA0003301186090000036
为旋转矩阵的微分,
Figure BDA0003301186090000037
为平移矩阵的微分,kl和kr分别为左轮速系数和右轮速系数,b为左右轮轴距,vl和vr分别为左轮的速度和右轮的速度;
步骤313:采用欧拉积分对步骤312得到的常微分方程进行积分,以进行均值的预测:
Figure BDA0003301186090000038
Figure BDA0003301186090000039
其中,
Figure BDA00033011860900000310
为k+1时刻轮速坐标系到地面坐标系的旋转矩阵,GPOk+1为k+1时刻轮速坐标系到全局坐标系的平移矩阵,
Figure BDA00033011860900000311
为k时刻轮速坐标系到地面坐标系的旋转矩阵,GPOk为k时刻轮速坐标系到全局坐标系的平移矩阵,Δt为k时刻与k+1时刻之间的时间差,{ΔR,Δp}为位姿增量;
步骤314:对于协方差进行预测,定义旋转的误差为:
Figure BDA00033011860900000312
其中,δθ为旋转误差量,
Figure BDA00033011860900000313
为轮速坐标系到地面坐标系的旋转矩阵的估计值;
步骤315:得到相对于里程计位姿
Figure BDA0003301186090000041
的雅克比和相对于位姿增量{ΔR,Δp}的雅克比分别为:
Figure BDA0003301186090000042
Figure BDA0003301186090000043
其中,Φ为相对于里程计位姿的雅克比,F为相对于位姿增量的雅克比;
步骤316:根据雅克比对协方差进行预测,协方差矩阵的预测公式为:
Figure BDA0003301186090000044
其中,Q为位姿增量{ΔR,Δp}的噪声,根据位姿增量的大小进行设置,
Figure BDA0003301186090000045
为里程计位姿
Figure BDA0003301186090000046
对应的协方差,维度为6×6,
Figure BDA0003301186090000047
为N帧相机位姿对应的协方差矩阵,维度为6N×6N,
Figure BDA0003301186090000048
为里程计位姿与N帧相机位姿之间的关联协方差。
所述的步骤311中,总状态的状态向量为:
Figure BDA0003301186090000049
其中,χ为状态向量,N为相机的帧数,
Figure BDA00033011860900000410
为相机坐标系到全局坐标系的第N帧相机位姿;
协方差的分块矩阵为:
Figure BDA00033011860900000411
其中,
Figure BDA00033011860900000412
为里程计位姿
Figure BDA00033011860900000413
对应的协方差,维度为6×6,
Figure BDA00033011860900000414
为N帧相机位姿
Figure BDA00033011860900000415
对应的协方差,维度为6N×6N,
Figure BDA00033011860900000416
为里程计位姿与N帧相机位姿之间的关联协方差。
所述的步骤32中,状态增广的过程具体包括以下步骤:
步骤321:当新产生一帧图像时,通过里程计位姿计算得到相机位姿:
Figure BDA0003301186090000051
Figure BDA0003301186090000052
其中,
Figure BDA0003301186090000053
为相机坐标系到全局坐标系的旋转矩阵,
Figure BDA0003301186090000054
为轮速坐标系到全局坐标系的旋转矩阵,
Figure BDA0003301186090000055
为相机坐标系到轮速坐标系的旋转矩阵,GpC为相机坐标系到全局坐标系的平移矩阵,GpO为轮速坐标系到全局坐标系的平移矩阵,OpC为相机坐标系到轮速坐标系的平移矩阵;
步骤322:将相机位姿放到原状态向量χ里得到增广状态向量,并对协方差矩阵进行扩展:
Figure BDA0003301186090000056
Figure BDA0003301186090000057
其中,J为协方差矩阵相对于原状态向量χ的雅克比,J的第一列和第二列为相对于里程计位姿
Figure BDA0003301186090000058
的雅克比,
Figure BDA0003301186090000059
为轮速坐标系到相机坐标系的旋转矩阵,[OpC]×为轮速坐标系到相机坐标系的平移矩阵的反对称矩阵。
所述的步骤33中,轮速里程计更新的过程包括对一个特征点的处理、对多个特征点的处理以及边缘化处理。
所述的对一个特征点的处理过程具体包括以下步骤:
步骤331:根据特征点对多个历史相机状态的约束更新状态向量,每个用以进行更新的特征点Gpf均被滑窗内的M帧相机观测到,特征点Gpf在其中一帧图像上的投影方程为:
Figure BDA00033011860900000510
其中,π为相机的投影函数,
Figure BDA00033011860900000511
为相机坐标系到全局坐标系的旋转矩阵的转置,Zi为特征点Gpf在相机第i帧图像上的投影,
Figure BDA00033011860900000512
为第i帧图像的特征点,i为相机图像的帧数,
Figure BDA00033011860900000513
为通过里程计位姿计算得到相机位姿;
步骤332:将特征点在其中一帧图像上的投影方程线性化:
Figure BDA0003301186090000061
其中,ri为残差,表示特征点在相机第i帧图像上的投影误差,
Figure BDA0003301186090000062
为残差ri对于第i帧状态向量χi的雅克比,
Figure BDA0003301186090000063
为残差ri对第i帧图像的特征点
Figure BDA0003301186090000064
的雅克比,δχi为第i帧状态向量χi的差值,
Figure BDA0003301186090000065
为第i帧图像的特征点
Figure BDA0003301186090000066
的差值;
步骤333:将特征点的3D位置恢复,一个特征点具有M帧相机的观测,将M帧相机的观测堆叠在一起得到一个线性化方程:
r=Hχδχ+HfδGpf
其中,Hχ为M帧相机的观测堆叠后的残差r对整个状态向量χ的雅克比,Hf为M帧相机的观测堆叠后的残差r对特征点Gpf的雅克比;
步骤334:在线性化方程左右两边同时乘以一个满足条件ATHf=0的矩阵AT,以消除线性化方程中关于特征点的部分:
ATr=ATHχδχ+ATHfδGpf
ATHf=0
ATr=ATHχδχ
其中,AT为Hf的左零空间,δχ为状态向量χ的差值,用以消除线性化方程中关于特征点的部分;
步骤335:求解矩阵A,即对Hf进行QR分解,再对Hf左乘
Figure BDA0003301186090000067
得到一个不含特征点的线性方程
Figure BDA0003301186090000068
Figure BDA0003301186090000069
Figure BDA00033011860900000610
A=Q2
Figure BDA00033011860900000611
其中,Q2与Q1为对Hf进行QR分解后的标准正交矩阵,Q2与Q1正交,R1为对Hf进行QR分解后的上三角矩阵,
Figure BDA00033011860900000612
为Hf左乘AT后的矩阵,
Figure BDA00033011860900000613
为不含特征点的线性方程,
Figure BDA00033011860900000614
Figure BDA00033011860900000615
分别表示残差r和雅克比Hf在左零空间上的投影。
所述的对多个特征点的处理过程具体包括以下步骤:
步骤336:一个特征点对应一个线性方程,将所有特征点对应的线性方程堆叠起来得到一个总线性方程:
r*=H*δχ
其中,r*为所有特征点堆叠后的残差,H*为残差r*对所有特征点的雅克比;
步骤337:对总线性方程进行QR分解,进行一次压缩,具体是对H*进行QR分解,并将分解后的H*代入到总线性方程中:
Figure BDA0003301186090000071
R2=TH
Figure BDA0003301186090000072
其中,Q3与Q4为对H*进行QR分解后的标准正交矩阵,Q3与Q4正交,R1为对H*进行QR分解后的上三角矩阵,TH表示行数为H的上三角矩阵;
步骤339:总线性方程的左右两边同时乘以[Q3 Q4]T,最后得到一个压缩后的总线性方程,压缩后的总线性方程的行数最大值与状态的维度相同,用以进行EKF更新:
Figure BDA0003301186090000073
Figure BDA0003301186090000074
其中,rn为压缩后的总线性方程。
所述的边缘化处理具体为:
将滑动窗口的状态中最旧的一帧状态及其对应的协方差去掉,去掉的这帧里的所有特征点均用以进行更新。
与现有技术相比,本发明具有以下优点:
第一,本方法使用MSCKF(多状态约束下的卡尔曼滤波器)算法,在特征层将视觉信息与轮速信息进行融合,能够有效校正轮速里程计的时间累积误差,最终达到提高定位精度的效果,并且具有鲁棒性好的特点。
第二,本方法的定位准确率优于在KAIST URBAN DATA SET数据集上的主流算法,并且使用Givens Rotation(吉文斯旋转)方法求解,具有较高的计算效率,以达到较高的实时性。
附图说明
图1为本发明的流程示意图。
图2为MSCKF信息融合过程的示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图2所示,本发明提供了一种基于视觉的轮速里程计校正方法,该方法包括以下步骤:
步骤1:获取系统的内参数和外参数;
步骤2:获取并同步视觉信息和轮速里程计信息;
步骤3:基于MSCKF(多状态约束下的卡尔曼滤波器)算法对视觉信息和轮速里程计信息进行融合,即根据轮速里程计信息进行状态的预测并根据视觉信息进行状态的更新,以校正轮速里程计;
步骤4:判断是否执行完所有的特征点更新;
步骤5:若是,则得到当前局部地图位姿,进而得到系统全局定位,若否,则返回步骤2。
在步骤3中,对视觉信息和轮速里程计信息进行融合的过程具体包括以下步骤:
步骤301:轮速里程计预测:将滑动窗口(Sliding Windows Filter,SWF)的状态分为里程计位姿和相机位姿,里程计位姿的表达式为:
Figure BDA0003301186090000081
其中,R为旋转矩阵,G为全局坐标系,O为轮速坐标系,C为相机坐标系,
Figure BDA0003301186090000082
为轮速坐标系到全局坐标系的里程计位姿,
Figure BDA0003301186090000083
为轮速坐标系到地面坐标系的旋转矩阵,GpO为轮速坐标系到全局坐标系的平移矩阵,SE3为特殊欧式群(Special Euclidean Group)。
相机位姿的表达式为:
Figure BDA0003301186090000084
其中,
Figure BDA0003301186090000091
为相机坐标系到全局坐标系的相机位姿,GpC为相机坐标系到地面坐标系的平移矩阵;
总状态为当前里程计位姿增广上N帧的相机位姿,状态向量为:
Figure BDA0003301186090000092
其中,χ为状态向量,N为状态向量里增广相机位姿的帧数,
Figure BDA0003301186090000093
为相机坐标系到全局坐标系的第N帧相机位姿;
协方差的分块矩阵为:
Figure BDA0003301186090000094
其中,
Figure BDA0003301186090000095
为里程计位姿
Figure BDA0003301186090000096
的协方差,维度为6×6,
Figure BDA0003301186090000097
为对应N帧相机位姿的协方差矩阵,维度为6N×6N,
Figure BDA0003301186090000098
为里程计位姿与N帧相机位姿之间的关联协方差;
根据轮速里程计信息进行状态的预测并根据视觉信息进行状态的更新,首先根据轮速里程计信息进行状态的预测,基于IMU处理方法对轮速里程计信息进行处理并建立常微分方程:
Figure BDA0003301186090000099
Figure BDA00033011860900000910
Figure BDA00033011860900000911
Figure BDA00033011860900000912
其中,OωO为相对轮速坐标系的顺时角速度,类似于IMU gyrosope的测量,是个3D量,但实际上轮速计只能测到2D的旋转,只有能测到绕z轴的角速度,OvO为瞬时速度,同样是个3D量,但轮速也只能测到沿x轴方向的速度,kl和kr分别为左轮的速度和右轮的速度,[OωO]×为瞬时角速度的反对称矩阵,
Figure BDA0003301186090000101
为轮速坐标系到全局坐标系下的瞬时速度,vl和vr分别为左轮的速度和右轮的速度;
采用欧拉积分对常微分方程进行积分,以进行均值的预测:
Figure BDA0003301186090000102
Figure BDA0003301186090000103
其中,
Figure BDA0003301186090000104
为k+1时刻轮速坐标系到地面坐标系的旋转矩阵,GPOk+1为k+1时刻轮速坐标系到全局坐标系的平移矩阵,
Figure BDA0003301186090000105
为k时刻轮速坐标系到地面坐标系的旋转矩阵,GPOk为k时刻轮速坐标系到全局坐标系的平移矩阵,Δt为k时刻与k+1时刻之间的时间差,{ΔR,Δp}为位姿增量;
对于协方差的预测,先求雅克比,首先定义旋转矩阵的误差为:
Figure BDA0003301186090000106
其中,δθ为旋转误差量,
Figure BDA0003301186090000107
为轮速坐标系到地面坐标系的旋转矩阵的估计值;那么可以求得,相对于里程计位姿
Figure BDA0003301186090000108
的雅克比为:
Figure BDA0003301186090000109
其中,Φ为相对于里程计位姿的雅克比,OωO为相对轮速坐标系的顺时角速度,OvO为瞬时速度;
相对于位姿增量{ΔR,Δp}的雅克比为:
Figure BDA00033011860900001010
其中,F为相对于位姿增量的雅克比;
得到协方差矩阵的预测公式:
Figure BDA00033011860900001011
其中,Q为位姿增量{ΔR,Δp}的噪声,根据位姿增量的大小进行设置,
Figure BDA00033011860900001012
为里程计位姿
Figure BDA00033011860900001013
的协方差,维度为6×6,
Figure BDA00033011860900001014
为对应N帧相机位姿的协方差矩阵,维度为6N×6N,
Figure BDA0003301186090000111
为里程计位姿与N帧相机位姿之间的关联协方差。
步骤302:进行状态增广:当新来一帧图像时,通过里程计位姿计算得到相机位姿:
Figure BDA0003301186090000112
Figure BDA0003301186090000113
其中,
Figure BDA0003301186090000114
为相机坐标系到全局坐标系的旋转矩阵,
Figure BDA0003301186090000115
为轮速坐标系到全局坐标系的旋转矩阵,
Figure BDA0003301186090000116
为相机坐标系到轮速坐标系的旋转矩阵,GpC为相机坐标系到全局坐标系的平移矩阵,GpO为轮速坐标系到全局坐标系的平移矩阵,OpC为相机坐标系到轮速坐标系的平移矩阵;
将相机位姿放到原状态向量里得到增广之后的状态向量,并对协方差矩阵进行扩展:
Figure BDA0003301186090000117
Figure BDA0003301186090000118
其中,J为协方差矩阵相对于原状态向量χ(增广之前的状态向量)的雅克比,χ为原状态向量,J的第一列和第二列为相对于里程计位姿
Figure BDA0003301186090000119
的雅克比,
Figure BDA00033011860900001110
为轮速坐标系到相机坐标系的旋转矩阵,[OpC]×为轮速坐标系到相机坐标系的平移矩阵的反对称矩阵。
步骤303:对轮速里程计进行更新:
步骤A:一个特征点的处理:
每个用以做更新的特征点Gpf会被滑窗内的M帧相机观测到,特征点Gpf在其中一帧图像上的投影方程为:
Figure BDA00033011860900001111
其中,π为相机的投影函数,
Figure BDA00033011860900001112
为相机坐标系到全局坐标系的旋转矩阵的转置,Zi为特征点
Figure BDA00033011860900001113
在相机第i帧图像上的投影,
Figure BDA00033011860900001114
为第i帧图像的特征点,i为相机图像的帧数,
Figure BDA0003301186090000121
为通过里程计位姿计算得到相机位姿;
将投影方程线性化:
Figure BDA0003301186090000122
其中,ri为残差,表示特征点在相机第i帧图像上的投影误差,
Figure BDA0003301186090000123
为残差ri对于第i帧状态向量χi的雅克比,
Figure BDA0003301186090000124
为残差ri对第i帧图像的特征点
Figure BDA0003301186090000125
的雅克比,δχi为第i帧状态向量χi的差值,
Figure BDA0003301186090000126
为第i帧图像的特征点
Figure BDA0003301186090000127
的差值;
计算对整个状态向量χ的雅克比
Figure BDA0003301186090000128
需要获得特征点
Figure BDA0003301186090000129
所以需要将特征点的3D位置恢复,因为一个特征点具有M帧相机的观测,所以将M帧相机的观测堆叠在一起得到一个线性化方程:
r=Hχδχ+HfδGpf
但是线性化方程里有特征点Gpf,而状态里面没有特征点Gpf,不能直接用以进行EKF更新,通过在线性化方程左右两边同时乘以一个满足ATHf=0的矩阵AT将HfδGpf消掉:
ATr=ATHχδχ+ATHfδGpf
ATHf=0
ATr=ATHχδχ
其中,AT为Hf的左零空间,用以消除线性化方程中关于特征点的部分。
进而求解矩阵A,即对Hf进行QR分解,对Hf左乘
Figure BDA00033011860900001210
Q2与Q1正交,得到一个不含特征点的线性方程
Figure BDA00033011860900001211
Figure BDA00033011860900001212
Figure BDA00033011860900001213
A=Q2
Figure BDA00033011860900001214
其中,Q2与Q1为对Hf进行QR分解后的标准正交矩阵,Q2与Q1正交,R1为对Hf进行QR分解后的上三角矩阵,
Figure BDA00033011860900001215
为Hf左乘AT后的矩阵,
Figure BDA00033011860900001216
为不含特征点的线性方程,
Figure BDA00033011860900001217
Figure BDA00033011860900001218
分别表示残差r和雅克比Hf在左零空间上的投影。
总线性方程的行数很大,直接用来做EKF更新效率很低,因此对总线性方程进行QR分解,进行一次压缩,具体是对H*做QR分解:
带入到总线性方程中得到:
Figure BDA0003301186090000131
R2=TH
总线性方程的左右两边同时乘以[Q1 Q2]T得到:
Figure BDA0003301186090000132
最后得到一个压缩后的总线性方程:
Figure BDA0003301186090000133
其中,Q3与Q4为对H*进行QR分解后的标准正交矩阵,Q3与Q4正交,R1为对H*进行QR分解后的上三角矩阵,TH表示行数为H的上三角矩阵。
压缩后的总线性方程的行数最大值能够与状态向量的维度相同,最终压缩后的总线性方程用以进行EKF更新。
步骤C:边缘化处理
进行边缘化操作,即如何删除滑窗里的状态,将最旧的一帧状态及其对应的协方差去掉,去掉的这一帧里的所有特征点都被用以进行更新操作。
为了验证本发明的性能,本实施例使用FLIR公司的FL3-U3-20E4C-C款全局快门彩色双目相机,相机频率为10Hz,相机分辨率为1289x 560,双目相机图像以10Hz的频率采集,并以无损PNG格式存储在未校正的8位拜耳阵列图像中,图像的拜耳阵列为RGGB,轮速编码器为RLS公司的LM13款磁性旋转编码器,编码器频率为100Hz,编码器精度为4096PPR,基于上述传感器数据,本发明比纯轮速里程计精度更好。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于视觉的轮速里程计校正方法,其特征在于,该方法包括以下步骤:
步骤1:获取系统的内参数和外参数;
步骤2:获取并同步视觉信息和轮速里程计信息;
步骤3:基于MSCKF算法对视觉信息和轮速里程计信息进行融合,即根据轮速里程计信息进行状态的预测并根据视觉信息进行状态的更新,以校正轮速里程计;
步骤4:判断是否执行完所有的特征点更新;
步骤5:若是,则得到当前局部地图位姿,进而得到系统全局定位,若否,则返回步骤2。
2.根据权利要求1所述的一种基于视觉的轮速里程计校正方法,其特征在于,所述的步骤1中,系统的内参数包括相机内参、左右轮轴距b、左轮速系数kl和右轮速系数kr,系统的外参数包括轮速坐标系到相机坐标系的旋转矩阵
Figure FDA0003301186080000011
和轮速坐标系到相机坐标系的平移矩阵CpO
3.根据权利要求1所述的一种基于视觉的轮速里程计校正方法,其特征在于,所述的步骤3中,具体包括以下步骤:
步骤31:轮速里程计预测;
步骤32:状态增广;
步骤33:轮速里程计更新。
4.根据权利要求3所述的一种基于视觉的轮速里程计校正方法,其特征在于,所述的步骤31中,轮速里程计预测的过程具体包括以下步骤:
步骤311:初始化状态向量和协方差,将滑动窗口的状态分为里程计位姿和相机位姿,总状态为当前里程计位姿增广上N帧的相机位姿,里程计位姿和相机位姿的表达式分别为:
Figure FDA0003301186080000012
Figure FDA0003301186080000013
其中,R为旋转矩阵,G为全局坐标系,O为轮速坐标系,C为相机坐标系,
Figure FDA0003301186080000014
为轮速坐标系到全局坐标系的里程计位姿,
Figure FDA0003301186080000015
为相机坐标系到全局坐标系的相机位姿,
Figure FDA0003301186080000016
为轮速坐标系到地面坐标系的旋转矩阵,GpO为轮速坐标系到全局坐标系的平移矩阵,GpC为相机坐标系到地面坐标系的平移矩阵,SE3为欧式群;
步骤312:根据轮速里程计信息进行状态的预测,基于IMU处理方法对轮速里程计信息进行处理并建立常微分方程:
Figure FDA0003301186080000021
Figure FDA0003301186080000022
Figure FDA0003301186080000023
Figure FDA0003301186080000024
其中,OωO为相对轮速坐标系的瞬时角速度,OvO为相对轮速坐标系的瞬时速度,[OωO]×为瞬时角速度的反对称矩阵,
Figure FDA0003301186080000025
为轮速坐标系到地面坐标系的旋转矩阵,GvO为轮速坐标系到全局坐标系下的瞬时速度,
Figure FDA0003301186080000026
为旋转矩阵的微分,
Figure FDA0003301186080000027
为平移矩阵的微分,kl和kr分别为左轮速系数和右轮速系数,b为左右轮轴距,vl和vr分别为左轮的速度和右轮的速度;
步骤313:采用欧拉积分对步骤312得到的常微分方程进行积分,以进行均值的预测:
Figure FDA0003301186080000028
Figure FDA0003301186080000029
其中,
Figure FDA00033011860800000210
为k+1时刻轮速坐标系到地面坐标系的旋转矩阵,GPOk+1为k+1时刻轮速坐标系到全局坐标系的平移矩阵,
Figure FDA00033011860800000211
为k时刻轮速坐标系到地面坐标系的旋转矩阵,GPOk为k时刻轮速坐标系到全局坐标系的平移矩阵,Δt为k时刻与k+1时刻之间的时间差,{ΔR,Δp}为位姿增量;
步骤314:对于协方差进行预测,定义旋转的误差为:
Figure FDA0003301186080000031
其中,δθ为旋转误差量,
Figure FDA0003301186080000032
为轮速坐标系到地面坐标系的旋转矩阵的估计值;
步骤315:得到相对于里程计位姿
Figure FDA0003301186080000033
的雅克比和相对于位姿增量{ΔR,Δp}的雅克比分别为:
Figure FDA0003301186080000034
Figure FDA0003301186080000035
其中,Φ为相对于里程计位姿的雅克比,F为相对于位姿增量的雅克比;
步骤316:根据雅克比对协方差进行预测,协方差矩阵的预测公式为:
Figure FDA0003301186080000036
其中,Q为位姿增量{ΔR,Δp}的噪声,根据位姿增量的大小进行设置,
Figure FDA0003301186080000037
为里程计位姿
Figure FDA0003301186080000038
对应的协方差,维度为6×6,
Figure FDA0003301186080000039
为N帧相机位姿对应的协方差矩阵,维度为6N×6N,
Figure FDA00033011860800000310
为里程计位姿与N帧相机位姿之间的关联协方差。
5.根据权利要求4所述的一种基于视觉的轮速里程计校正方法,其特征在于,所述的步骤311中,总状态的状态向量为:
Figure FDA00033011860800000311
其中,χ为状态向量,N为相机的帧数,
Figure FDA00033011860800000312
为相机坐标系到全局坐标系的第N帧相机位姿;
协方差的分块矩阵为:
Figure FDA00033011860800000313
其中,
Figure FDA00033011860800000314
为里程计位姿
Figure FDA00033011860800000315
对应的协方差,维度为6×6,
Figure FDA00033011860800000316
为N帧相机位姿
Figure FDA00033011860800000317
对应的协方差,维度为6N×6N,
Figure FDA00033011860800000318
为里程计位姿与N帧相机位姿之间的关联协方差。
6.根据权利要求3所述的一种基于视觉的轮速里程计校正方法,其特征在于,所述的步骤32中,状态增广的过程具体包括以下步骤:
步骤321:当新产生一帧图像时,通过里程计位姿计算得到相机位姿:
Figure FDA0003301186080000041
Figure FDA0003301186080000042
其中,
Figure FDA0003301186080000043
为相机坐标系到全局坐标系的旋转矩阵,
Figure FDA0003301186080000044
为轮速坐标系到全局坐标系的旋转矩阵,
Figure FDA0003301186080000045
为相机坐标系到轮速坐标系的旋转矩阵,GpC为相机坐标系到全局坐标系的平移矩阵,GpO为轮速坐标系到全局坐标系的平移矩阵,OpC为相机坐标系到轮速坐标系的平移矩阵;
步骤322:将相机位姿放到原状态向量χ里得到增广状态向量,并对协方差矩阵进行扩展:
Figure FDA0003301186080000046
Figure FDA0003301186080000047
其中,J为协方差矩阵相对于原状态向量χ的雅克比,J的第一列和第二列为相对于里程计位姿
Figure FDA0003301186080000048
的雅克比,
Figure FDA0003301186080000049
为轮速坐标系到相机坐标系的旋转矩阵,[OpC]×为轮速坐标系到相机坐标系的平移矩阵的反对称矩阵。
7.根据权利要求3所述的一种基于视觉的轮速里程计校正方法,其特征在于,所述的步骤33中,轮速里程计更新的过程包括对一个特征点的处理、对多个特征点的处理以及边缘化处理。
8.根据权利要求7所述的一种基于视觉的轮速里程计校正方法,其特征在于,所述的对一个特征点的处理过程具体包括以下步骤:
步骤331:根据特征点对多个历史相机状态的约束更新状态向量,每个用以进行更新的特征点Gpf均被滑窗内的M帧相机观测到,特征点Gpf在其中一帧图像上的投影方程为:
Figure FDA00033011860800000410
其中,π为相机的投影函数,
Figure FDA0003301186080000051
为相机坐标系到全局坐标系的旋转矩阵的转置,Zi为特征点Gpf在相机第i帧图像上的投影,
Figure FDA0003301186080000052
为第i帧图像的特征点,i为相机图像的帧数,
Figure FDA0003301186080000053
为通过里程计位姿计算得到相机位姿;
步骤332:将特征点在其中一帧图像上的投影方程线性化:
Figure FDA0003301186080000054
其中,ri为残差,表示特征点在相机第i帧图像上的投影误差,
Figure FDA0003301186080000055
为残差ri对于第i帧状态向量χi的雅克比,
Figure FDA0003301186080000056
为残差ri对第i帧图像的特征点
Figure FDA0003301186080000057
的雅克比,δχi为第i帧状态向量χi的差值,
Figure FDA0003301186080000058
为第i帧图像的特征点
Figure FDA0003301186080000059
的差值;
步骤333:将特征点的3D位置恢复,一个特征点具有M帧相机的观测,将M帧相机的观测堆叠在一起得到一个线性化方程:
r=Hχδχ+HfδGpf
其中,Hχ为M帧相机的观测堆叠后的残差r对整个状态向量χ的雅克比,Hf为M帧相机的观测堆叠后的残差r对特征点Gpf的雅克比;
步骤334:在线性化方程左右两边同时乘以一个满足条件ATHf=0的矩阵AT,以消除线性化方程中关于特征点的部分:
ATr=ATHχδχ+ATHfδGpf
ATHf=0
ATr=ATHχδχ
其中,AT为Hf的左零空间,δχ为状态向量χ的差值,用以消除线性化方程中关于特征点的部分;
步骤335:求解矩阵A,即对Hf进行QR分解,再对Hf左乘
Figure FDA00033011860800000510
得到一个不含特征点的线性方程
Figure FDA00033011860800000511
Figure FDA00033011860800000512
Figure FDA00033011860800000513
A=Q2
Figure FDA00033011860800000514
其中,Q2与Q1为对Hf进行QR分解后的标准正交矩阵,Q2与Q1正交,R1为对Hf进行QR分解后的上三角矩阵,
Figure FDA0003301186080000061
为Hf左乘AT后的矩阵,
Figure FDA0003301186080000062
为不含特征点的线性方程,
Figure FDA0003301186080000063
Figure FDA0003301186080000064
分别表示残差r和雅克比Hf在左零空间上的投影。
9.根据权利要求8所述的一种基于视觉的轮速里程计校正方法,其特征在于,所述的对多个特征点的处理过程具体包括以下步骤:
步骤336:一个特征点对应一个线性方程,将所有特征点对应的线性方程堆叠起来得到一个总线性方程:
r*=H*δχ
其中,r*为所有特征点堆叠后的残差,H*为残差r*对所有特征点的雅克比;
步骤337:对总线性方程进行QR分解,进行一次压缩,具体是对H*进行QR分解,并将分解后的H*代入到总线性方程中:
Figure FDA0003301186080000065
R2=TH
Figure FDA0003301186080000066
其中,Q3与Q4为对H*进行QR分解后的标准正交矩阵,Q3与Q4正交,R1为对H*进行QR分解后的上三角矩阵,TH表示行数为H的上三角矩阵;
步骤339:总线性方程的左右两边同时乘以[Q3 Q4]T,最后得到一个压缩后的总线性方程,压缩后的总线性方程的行数最大值与状态的维度相同,用以进行EKF更新:
Figure FDA0003301186080000067
Figure FDA0003301186080000068
其中,rn为压缩后的总线性方程。
10.根据权利要求9所述的一种基于视觉的轮速里程计校正方法,其特征在于,所述的边缘化处理具体为:
将滑动窗口的状态中最旧的一帧状态及其对应的协方差去掉,去掉的这帧里的所有特征点均用以进行更新。
CN202111191236.4A 2021-10-13 2021-10-13 一种基于视觉的轮速里程计校正方法 Active CN114018284B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111191236.4A CN114018284B (zh) 2021-10-13 2021-10-13 一种基于视觉的轮速里程计校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111191236.4A CN114018284B (zh) 2021-10-13 2021-10-13 一种基于视觉的轮速里程计校正方法

Publications (2)

Publication Number Publication Date
CN114018284A true CN114018284A (zh) 2022-02-08
CN114018284B CN114018284B (zh) 2024-01-23

Family

ID=80055862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111191236.4A Active CN114018284B (zh) 2021-10-13 2021-10-13 一种基于视觉的轮速里程计校正方法

Country Status (1)

Country Link
CN (1) CN114018284B (zh)

Citations (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104864889A (zh) * 2015-05-29 2015-08-26 山东鲁能智能技术有限公司 一种基于视觉的机器人里程计校正系统及方法
JP2017122960A (ja) * 2016-01-05 2017-07-13 マツダ株式会社 車両位置推定装置
CN107942748A (zh) * 2017-11-28 2018-04-20 上海师范大学 一种机械臂空间动态避障感应手环及控制系统
US20190061791A1 (en) * 2017-08-29 2019-02-28 Comet Electronics, LLC High speed thermal imaging system and method
KR20190040818A (ko) * 2017-10-11 2019-04-19 재단법인대구경북과학기술원 차량 내부 센서, 카메라, 및 gnss 단말기를 이용한 3차원 차량 항법 시스템
CN109945858A (zh) * 2019-03-20 2019-06-28 浙江零跑科技有限公司 用于低速泊车驾驶场景的多传感融合定位方法
CN110070712A (zh) * 2019-04-12 2019-07-30 同济大学 一种低速清扫车全局定位系统及方法
CN110262495A (zh) * 2019-06-26 2019-09-20 山东大学 可实现移动机器人自主导航与精确定位的控制系统及方法
CN110411457A (zh) * 2019-08-27 2019-11-05 纵目科技(上海)股份有限公司 基于行程感知与视觉融合的定位方法、系统、终端和存储介质
CN110458885A (zh) * 2019-08-27 2019-11-15 纵目科技(上海)股份有限公司 基于行程感知与视觉融合的定位方法、系统、终端和存储介质
CN110986939A (zh) * 2020-01-02 2020-04-10 东南大学 一种基于imu预积分的视觉惯性里程计方法
KR20200107382A (ko) * 2019-03-07 2020-09-16 에스케이텔레콤 주식회사 차량용 센서의 보정 정보 획득 장치 및 방법
CN111707272A (zh) * 2020-06-28 2020-09-25 湖南大学 一种地下车库自动驾驶激光定位系统
CN111795686A (zh) * 2020-06-08 2020-10-20 南京大学 一种移动机器人定位与建图的方法
CN111811506A (zh) * 2020-09-15 2020-10-23 中国人民解放军国防科技大学 视觉/惯性里程计组合导航方法、电子设备及存储介质
CN111986506A (zh) * 2020-07-20 2020-11-24 苏州易航远智智能科技有限公司 基于多视觉系统的机械式停车位泊车方法
CN112014113A (zh) * 2019-05-29 2020-12-01 上海淞泓智能汽车科技有限公司 一种室内整车硬件在环试验装置
CN112050809A (zh) * 2020-10-08 2020-12-08 吉林大学 轮式里程计与陀螺仪信息融合的无人车定向定位方法
CN112105961A (zh) * 2019-07-26 2020-12-18 深圳市大疆创新科技有限公司 基于多数据融合的定位方法、可移动平台及存储介质
CN112102406A (zh) * 2020-09-09 2020-12-18 东软睿驰汽车技术(沈阳)有限公司 单目视觉的尺度修正方法、装置及运载工具
CN112129297A (zh) * 2020-09-25 2020-12-25 重庆大学 一种多传感器信息融合的自适应校正室内定位方法
CN112506195A (zh) * 2020-12-02 2021-03-16 吉林大学 基于视觉和底盘信息的车辆自主定位系统及定位方法
CN112734852A (zh) * 2021-03-31 2021-04-30 浙江欣奕华智能科技有限公司 一种机器人建图方法、装置及计算设备
CN112734841A (zh) * 2020-12-31 2021-04-30 华南理工大学 一种用轮式里程计-imu和单目相机实现定位的方法
CN112985450A (zh) * 2021-02-09 2021-06-18 东南大学 一种具有同步时间误差估计的双目视觉惯性里程计方法
CN113223161A (zh) * 2021-04-07 2021-08-06 武汉大学 一种基于imu和轮速计紧耦合的鲁棒全景slam系统和方法
CN113358112A (zh) * 2021-06-03 2021-09-07 北京超星未来科技有限公司 一种地图构建方法及一种激光惯性里程计
CN113483755A (zh) * 2021-07-09 2021-10-08 北京易航远智科技有限公司 一种基于非全局一致地图的多传感器组合定位方法及系统
CN115790617A (zh) * 2022-10-29 2023-03-14 武汉中海庭数据技术有限公司 基于相机感知的车道边线修正方法及系统

Patent Citations (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104864889A (zh) * 2015-05-29 2015-08-26 山东鲁能智能技术有限公司 一种基于视觉的机器人里程计校正系统及方法
JP2017122960A (ja) * 2016-01-05 2017-07-13 マツダ株式会社 車両位置推定装置
US20190061791A1 (en) * 2017-08-29 2019-02-28 Comet Electronics, LLC High speed thermal imaging system and method
KR20190040818A (ko) * 2017-10-11 2019-04-19 재단법인대구경북과학기술원 차량 내부 센서, 카메라, 및 gnss 단말기를 이용한 3차원 차량 항법 시스템
CN107942748A (zh) * 2017-11-28 2018-04-20 上海师范大学 一种机械臂空间动态避障感应手环及控制系统
KR20200107382A (ko) * 2019-03-07 2020-09-16 에스케이텔레콤 주식회사 차량용 센서의 보정 정보 획득 장치 및 방법
CN109945858A (zh) * 2019-03-20 2019-06-28 浙江零跑科技有限公司 用于低速泊车驾驶场景的多传感融合定位方法
CN110070712A (zh) * 2019-04-12 2019-07-30 同济大学 一种低速清扫车全局定位系统及方法
CN112014113A (zh) * 2019-05-29 2020-12-01 上海淞泓智能汽车科技有限公司 一种室内整车硬件在环试验装置
CN110262495A (zh) * 2019-06-26 2019-09-20 山东大学 可实现移动机器人自主导航与精确定位的控制系统及方法
CN112105961A (zh) * 2019-07-26 2020-12-18 深圳市大疆创新科技有限公司 基于多数据融合的定位方法、可移动平台及存储介质
CN110411457A (zh) * 2019-08-27 2019-11-05 纵目科技(上海)股份有限公司 基于行程感知与视觉融合的定位方法、系统、终端和存储介质
CN110458885A (zh) * 2019-08-27 2019-11-15 纵目科技(上海)股份有限公司 基于行程感知与视觉融合的定位方法、系统、终端和存储介质
CN110986939A (zh) * 2020-01-02 2020-04-10 东南大学 一种基于imu预积分的视觉惯性里程计方法
CN111795686A (zh) * 2020-06-08 2020-10-20 南京大学 一种移动机器人定位与建图的方法
CN111707272A (zh) * 2020-06-28 2020-09-25 湖南大学 一种地下车库自动驾驶激光定位系统
CN111986506A (zh) * 2020-07-20 2020-11-24 苏州易航远智智能科技有限公司 基于多视觉系统的机械式停车位泊车方法
CN112102406A (zh) * 2020-09-09 2020-12-18 东软睿驰汽车技术(沈阳)有限公司 单目视觉的尺度修正方法、装置及运载工具
CN111811506A (zh) * 2020-09-15 2020-10-23 中国人民解放军国防科技大学 视觉/惯性里程计组合导航方法、电子设备及存储介质
CN112129297A (zh) * 2020-09-25 2020-12-25 重庆大学 一种多传感器信息融合的自适应校正室内定位方法
CN112050809A (zh) * 2020-10-08 2020-12-08 吉林大学 轮式里程计与陀螺仪信息融合的无人车定向定位方法
CN112506195A (zh) * 2020-12-02 2021-03-16 吉林大学 基于视觉和底盘信息的车辆自主定位系统及定位方法
CN112734841A (zh) * 2020-12-31 2021-04-30 华南理工大学 一种用轮式里程计-imu和单目相机实现定位的方法
CN112985450A (zh) * 2021-02-09 2021-06-18 东南大学 一种具有同步时间误差估计的双目视觉惯性里程计方法
CN112734852A (zh) * 2021-03-31 2021-04-30 浙江欣奕华智能科技有限公司 一种机器人建图方法、装置及计算设备
CN113223161A (zh) * 2021-04-07 2021-08-06 武汉大学 一种基于imu和轮速计紧耦合的鲁棒全景slam系统和方法
CN113358112A (zh) * 2021-06-03 2021-09-07 北京超星未来科技有限公司 一种地图构建方法及一种激光惯性里程计
CN113483755A (zh) * 2021-07-09 2021-10-08 北京易航远智科技有限公司 一种基于非全局一致地图的多传感器组合定位方法及系统
CN115790617A (zh) * 2022-10-29 2023-03-14 武汉中海庭数据技术有限公司 基于相机感知的车道边线修正方法及系统

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
AN , K 等: "Internal features in basin of attraction fof the simplest walking model", 《JOURNAL OF MACHNICAL SCIENCE AND TECHNOLOGY》, vol. 29, no. 11, pages 4913 - 4921, XP035567764, DOI: 10.1007/s12206-015-1039-4 *
危义坤: "基于多传感器融合视觉SLAM的人员跟随问题的研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 10, pages 1138 - 252 *
周阳: "基于多传感器融合的移动机器人SLAM算法研究", 《中国国优秀硕士学位论文全文数据库信息科技辑》, no. 9, pages 1140 - 27 *
彭文正;敖银辉;黄晓涛;王鹏飞;: "多传感器信息融合的自动驾驶车辆定位与速度估计", 传感技术学报, no. 08, pages 66 - 74 *
李一染 等: "无人驾驶车转向系统自抗扰控制的研究", 《上海师范大学学报》, vol. 39, no. 2, pages 156 - 160 *
李传立;尚俊娜;李芳;: "单目视觉人工路标辅助INS的组合导航定位方法", 传感技术学报, no. 01, pages 72 - 77 *
高波;施家栋;王建中;闫国栋;: "基于SLAM的移动机器人自主返航控制系统设计", 机器人技术与应用, no. 05, pages 23 - 29 *

Also Published As

Publication number Publication date
CN114018284B (zh) 2024-01-23

Similar Documents

Publication Publication Date Title
CN107516326B (zh) 融合单目视觉和编码器信息的机器人定位方法和系统
CN111795686B (zh) 一种移动机器人定位与建图的方法
CN106679648B (zh) 一种基于遗传算法的视觉惯性组合的slam方法
Li et al. Improving the accuracy of EKF-based visual-inertial odometry
CN110517324B (zh) 基于变分贝叶斯自适应算法的双目vio实现方法
CN110702107A (zh) 一种单目视觉惯性组合的定位导航方法
CN111089585A (zh) 一种基于传感器信息融合的建图及定位方法
CN110146099B (zh) 一种基于深度学习的同步定位与地图构建方法
CN110595466B (zh) 轻量级的基于深度学习的惯性辅助视觉里程计实现方法
CN112837352B (zh) 基于图像的数据处理方法、装置及设备、汽车、存储介质
CN114001733B (zh) 一种基于地图的一致性高效视觉惯性定位算法
CN108731700B (zh) 一种视觉惯性里程计中的加权欧拉预积分方法
Zhang et al. Vision-aided localization for ground robots
CN113483755B (zh) 一种基于非全局一致地图的多传感器组合定位方法及系统
CN112652001B (zh) 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN110793526A (zh) 基于可穿戴单目视觉和惯性传感器融合的行人导航方法及系统
CN113188557A (zh) 一种融合语义特征的视觉惯性组合导航方法
CN109443355B (zh) 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法
CN114993298A (zh) 基于ekf的模板匹配vo与轮式里程计融合定位方法
CN109443353B (zh) 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法
CN108827287B (zh) 一种复杂环境下的鲁棒视觉slam系统
CN113155152B (zh) 基于李群滤波的相机与惯性传感器空间关系自标定方法
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN114018284B (zh) 一种基于视觉的轮速里程计校正方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant