CN112747750B - 一种基于单目视觉里程计和imu融合的定位方法 - Google Patents

一种基于单目视觉里程计和imu融合的定位方法 Download PDF

Info

Publication number
CN112747750B
CN112747750B CN202011621950.8A CN202011621950A CN112747750B CN 112747750 B CN112747750 B CN 112747750B CN 202011621950 A CN202011621950 A CN 202011621950A CN 112747750 B CN112747750 B CN 112747750B
Authority
CN
China
Prior art keywords
axis
imu
representing
robot
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011621950.8A
Other languages
English (en)
Other versions
CN112747750A (zh
Inventor
于慧君
蓝天保
彭倍
魏敦文
周吴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011621950.8A priority Critical patent/CN112747750B/zh
Publication of CN112747750A publication Critical patent/CN112747750A/zh
Application granted granted Critical
Publication of CN112747750B publication Critical patent/CN112747750B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers

Abstract

本发明公开了一种基于单目视觉里程计和IMU融合的定位方法,包括以下步骤:S1:采集图像信息并传输至机器人主控系统,对图像进行特征点处理;S2:获取IMU的三轴加速度和三轴角速度,进行处理得到IMU数据,并传输至机器人主控系统;S3:利用机器人主控系统进行特征点匹配,得到视觉里程计数据;S4:对IMU数据和视觉里程计数据进行融合,得到融合后的机器人位姿;S5:对发生回环的机器人位姿进行重定位。本发明的定位方法使用滤波思想进行多传感器数据的融合来进一步优化定位信息,将IMU与单目视觉里程计结合起来,克服相互的缺点,保留各自的优点,提高了单目视觉里程计定位在动态环境下视觉定位的鲁棒性。

Description

一种基于单目视觉里程计和IMU融合的定位方法
技术领域
本发明属于移动机器人技术领域,具体涉及一种基于单目视觉里程计和IMU融合的定位方法。
背景技术
多传感器融合是机器人定位与导航中未来发展的方向之一,而多传感器融合中,IMU与视觉信息的融合又是十分重要的部分。由于单目相机具有成本较低且体积较小的优点,在机器人视觉定位中被广泛使用。但是,单目相机无法获取深度信息,所以缺乏尺度信息,纯视觉定位系统在动态环境下鲁棒性差,定位精度不高;同时,使用滤波思想进行IMU数据和单目视觉里程计数据的融合,复杂噪声环境会对融合数据产生不可抗拒的干扰,所以亟需提供一种方法以解决这些问题。
发明内容
本发明的目的是为了解决定位过程中单目视觉在动态物体影响下定位效果和鲁棒性差的问题,同时解决IMU累积误差的问题和降低在复杂噪声环境下噪声野值带来数据融合的误差问题,提出了一种基于单目视觉里程计和IMU融合的定位方法。
本发明的技术方案是:一种基于单目视觉里程计和IMU融合的定位方法包括以下步骤:
S1:利用单目相机采集图像信息并传输至机器人主控系统,利用机器人主控系统对图像进行特征点处理;
S2:利用底盘控制系统获取IMU的三轴加速度和三轴角速度,进行处理得到IMU数据,并传输至机器人主控系统;
S3:根据底盘控制系统传输的IMU数据,利用机器人主控系统进行特征点匹配,得到视觉里程计数据;
S4:利用最大相关熵卡尔曼滤波法,对IMU数据和视觉里程计数据进行融合,得到融合后的机器人位姿;
S5:利用DBoW2算法对发生回环的机器人位姿进行重定位,完成基于单目视觉里程计和IMU融合的定位。
本发明的有益效果是:本发明的定位方法使用滤波思想进行多传感器数据的融合来进一步优化定位信息,将IMU与单目视觉里程计结合起来,克服相互的缺点,保留各自的优点,提高了单目视觉里程计定位在动态环境下视觉定位的鲁棒性,解决了IMU累计误差不能消除的问题;同时,通过采用基于最大相关熵卡尔曼滤波算法对IMU数据和视觉里程计数据进行融合,提高了定位系统在复杂噪声环境下工作的定位精度。在地图纹理变化迅速,出现场景单一,图像特征点少的情况下,能够有效地调整特征点处理机制,提高特征点匹配机制的准确。
进一步地,步骤S1包括以下子步骤:
S11:利用单目相机采集图像信息并传输至机器人主控系统,利用机器人主控系统提取图像信息的ORB特征点;
S12:判断ORB特征点是否大于设定阈值,若是则进行四叉树均匀化再进入步骤S3,否则直接进入步骤S3。
上述进一步方案的有益效果是:在本发明中,在视觉定位系统中,特征点的提取与处理至关重要。特征点的提取与处理会直接影响后续特征点匹配的精度和速度,从而影响整个定位系统的运行速度和定位精度。对图像信息进行特征点的处理,更好地适应地图纹理丰富度的变化,增强鲁棒性。优化的特征点处理方法可以更应对:1.在地图纹理度较低的情况下,直接进行特征点匹配,确保存在足够的特征点进行后续单目相机的位姿解算;2.在地图纹理度高的情况下,进行特征点均匀化,有效避免特征点聚集,无用特征点繁多,提高特征点匹配精度。
进一步地,步骤S2包括以下子步骤:
S21:利用底盘控制系统获取IMU的三轴加速度α和三轴角速度W;
S22:对三轴加速度α和三轴角速度W进行低通滤波处理;
S23:在离散周期内,对低通滤波处理后的三轴加速度α和三轴角速度W分别进行一次积分,得到三轴相对速度V和三轴旋转信息R,对三轴加速度α进行二次积分,得到三轴平移信息T;
S24:三轴旋转信息R和三轴平移信息T作为IMU数据,并将低通滤波处理后的三轴加速度α、三轴角速度W、三轴相对速度V和IMU数据传输至机器人主控系统。
上述进一步方案的有益效果是:在本发明中,对三轴加速度和角速度进行低通滤波,可以降低复杂环境中噪声野值带来的影响。
进一步地,步骤S3包括以下子步骤:
S31:根据底盘控制系统传输的IMU数据,计算固定频率Δt下的三轴相对位移ΔT和三轴相对旋转ΔR;
S32:根据三轴相对位移ΔT和三轴相对旋转ΔR,利用2D-2D算法进行特征点匹配;
S33:设置图像关键帧和图像跟踪固定大小滑动窗口;
S34:对匹配后的特征点建立重投影误差代价函数,并计算最小重投影误差,进行全局优化,得到图像关键帧之间的相对平移数据Tv和相对旋转数据Rv,并将相对平移数据Tv和相对旋转数据Rv作为视觉里程计数据。
上述进一步方案的有益效果是:在本发明中,根据优化的匹配机制进行特征点的匹配。建立图像跟踪固定大小滑动窗口,用于维持计算量;视觉里程计根据前后两帧计算的相对位移和相对旋转受到图像数据的直接影响(动态环境和场景复杂度),具有不稳定性和精度较低的缺点。根据IMU的数据,计算相对位移和相对旋转,来代替视觉里程计解算的数据,能够提高特征点匹配精度和系统鲁棒性。
进一步地,步骤S31中,三轴相对位移ΔT的计算公式为:
ΔT=VΔt
其中,Δt表示固定频率,V表示三轴相对速度;
三轴相对旋转ΔR的计算公式为:
ΔR=WΔt
其中,W表示三轴角速度;
步骤S32中,进行特征点匹配的方法为:根据三轴相对位移ΔT和三轴相对旋转ΔR,计算同一特征点在当前帧投影的像素坐标P2,并根据同一特征点在当前帧投影的像素坐标P2在设定匹配搜索范围阈值th内进行特征点匹配,图像投影像素坐标P2的计算公式为:
P2 TFP1=0
其中,F=K-TEK-1,E=ΔT^ΔR,K表示相机内参,E表示本质矩阵,F表示基础矩阵,P1表示同一特征点在上一时刻帧投影的像素坐标;
步骤S33中,设置图像关键帧的方法为:将图像信息的第一帧设定为图像关键帧,若当前图像跟踪上一个图像关键帧的特征点数小于设定阈值,则把当前帧设定为新的图像关键帧;否则不设定。
进一步地,步骤S34中,建立重投影误差代价函数的计算公式为:
Δξ=ui-K exp(ξ)Pi
其中,Δξ表示重投影误差,i表示当前帧匹配后的第i个特征点,ui表示第i个特征点的像素平面坐标,exp(·)表示指数运算,K表示相机内参,ξ表示三轴相对位移ΔT和三轴相对旋转ΔR的外积,Pi表示第i个特征点的特征点空间坐标;
最小重投影误差ξ*的计算公式为:
Figure BDA0002874137810000051
其中,
Figure BDA0002874137810000052
表示最小重投影误差值运算,n表示图像关键帧数量;
进行全局优化的代价函数F的计算公式为:
Figure BDA0002874137810000053
其中,eij表示第i个特征点在第j关键帧图像中的重投影误差,m表示当前帧匹配后的特征点数量。
上述进一步方案的有益效果是:在本发明中,通过对极几何、三维重建和P3P等算法,建立重投影误差代价函数;最小重投影误差是对所有当前帧匹配后的特征点进行重投影误差的2范数进行最优化求解,最终解算出优化后的图像关键帧之间的相对平移和相对旋转数据(即视觉里程计数据),为后续滤波器融合提供观测信息。
进一步地,步骤S4包括以下子步骤:
S41:构建系统状态方程和系统观测方程;
S42:在系统状态方程和系统观测方程中,利用最大相关熵卡尔曼滤波法,对IMU数据和视觉里程计数据进行融合,得到融合后的机器人位姿。
进一步地,步骤S41中,系统状态方程的表达式为:
X(k+1)=AX(k)+Bu(k)+v(k+1)
X=[Tx,Ty,Tz,Rx,Ry,Rz,Vx,Vy,Vz,Wx,Wy,Wz]T
u=[αxyz]T
Figure BDA0002874137810000061
Figure BDA0002874137810000062
其中,X(k+1)表示当前时刻的状态向量,A表示系统状态矩阵,X(k)表示上一时刻的状态向量,B表示输入矩阵,u(k)表示输入向量,v(k+1)表示当前噪声,Tx表示IMU解算的x轴位移量,Ty表示IMU解算的y轴位移量,Tz表示IMU解算的z轴位移量,Rx表示IMU解算的x轴旋转量,Ry表示IMU解算的y轴旋转量,Rz表示IMU解算的z轴旋转量,Vx表示当前机器人x轴速度,Vy表示当前机器人y轴速度,Vz表示当前机器人z轴速度,Wx表示当前机器人x轴角速度,Wy表示当前机器人y轴角速度,Wz表示当前机器人z轴角速度,αx表示当前机器人x轴加速度,αy表示当前机器人y轴加速度,αz表示当前机器人z轴加速度,Δt表示固定频率;
步骤S41中,系统观测方程的表达式为:
Y(k+1)=HX(k+1)+w(k+1)
Figure BDA0002874137810000071
Figure BDA0002874137810000072
其中,Y(k+1)表示当前观测真实值,H表示观测矩阵,w(k+1)表示当前观测噪声,
Figure BDA0002874137810000073
表示相机解算的世界坐标系下的x轴位移量,
Figure BDA0002874137810000074
表示相机解算的世界坐标系下的y轴位移量,
Figure BDA0002874137810000075
表示相机解算的世界坐标系下的z轴位移量,
Figure BDA0002874137810000076
表示相机解算的世界坐标系下的x轴旋转量,
Figure BDA0002874137810000077
表示相机解算的世界坐标系下的y轴旋转量,
Figure BDA0002874137810000078
表示相机解算的世界坐标系下的z轴旋转量。
进一步地,步骤S5包括以下子步骤:
S51:提取图像关键帧的100个ORB特征点;
S52:根据每个ORB特征点的描述子,利用DBoW2算法计算当前帧与之前图像关键帧的相似度大小s(a,b);
S53:根据相似度大小s(a,b)判断是否发生回环,若是则进入步骤S54,否则返回步骤S4;
S54:将当前帧的ORB特征点与回环检测到的帧进行ORB描述子匹配;
S55:将描述子匹配得到的匹配点进行RANSAC误匹配剔除;
S56:对RANSAC误匹配剔除后的匹配点,利用3D-3D算法计算当前帧在世界坐标系中相对位置的优化函数,完成基于单目视觉里程计和IMU融合的定位。
上述进一步方案的有益效果是:在本发明中,随着机器人的运动,机器人的路径还是会与实际路径发生一定的偏移,所以需要使用回环检测模块降低累积误差对机器人路径的影响。进行回环检测后,机器人路径重新进行了调整,得到更加精准的最终结果。若发生回环,根据回环候选帧进行位置计算,并纠正回环中其他关键帧的位置。
进一步地,步骤S52中,当前帧与之前图像关键帧的相似度大小s(a,b)的计算公式为:
Figure BDA0002874137810000081
其中,W表示图像关键帧的描述子数量,a表示关键帧特征点描述子集合,b表示当前帧特征点描述子集合;
步骤S53中,若相似度大小s(a,b)大于设定阈值,则发生回环,否则未发生回环;
步骤S54中,进行ORB描述子匹配的方法为对应描述子的汉明距离;
步骤S56中,当前帧在世界坐标系中相对位置的优化函数的计算公式为:
Figure BDA0002874137810000082
其中,Tp表示当前帧在世界坐标系下的相对位移,Rp表示前帧在世界坐标系下的相对旋转,i为当前帧与图像关键帧的第i个匹配特征点,pi表示当前帧的第i个匹配点,pi′为与pi对应的关键帧中的匹配点,n为当前帧与图像关键帧匹配成功的特征点数量。
上述进一步方案的有益效果是:在本发明中,当图像关键帧和当前帧特征点的描述子完全相同时,将得到1;完全相反时(a为0的地方b为1)得到0。这样就定义了两个描述向量的相似性,也就定义了图像之间的相似程度。寻求最优的Tp和Rp使得优化函数误差最小,即为解算出的相对位姿数据。
附图说明
图1为基于单目视觉里程计和IMU融合的定位方法的流程图;
图2为定位系统的结构示意图;
图3为特征点匹配机制原理示意图;
图4为回环检测示意图。
具体实施方式
下面结合附图对本发明的实施例作进一步的说明。
在描述本发明的具体实施例之前,为使本发明的方案更加清楚完整,首先对本发明中出现的缩略语和关键术语定义进行说明:
IMU:惯性测量单元(英文:Inertial measurement unit,简称IMU)是测量物体三轴姿态角(或角速率)以及加速度的装置。
2D-2D算法:对极约束算法。
3D-3D算法:英文:Iterative Closest Point,简称ICP,指迭代最近点算法。
如图1所示,本发明提供了一种基于单目视觉里程计和IMU融合的定位方法,包括以下步骤:
S1:利用单目相机采集图像信息并传输至机器人主控系统,利用机器人主控系统对图像进行特征点处理;
S2:利用底盘控制系统获取IMU的三轴加速度和三轴角速度,进行处理得到IMU数据,并传输至机器人主控系统;
S3:根据底盘控制系统传输的IMU数据,利用机器人主控系统进行特征点匹配,得到视觉里程计数据;
S4:利用最大相关熵卡尔曼滤波法,对IMU数据和视觉里程计数据进行融合,得到融合后的机器人位姿;
S5:利用DBoW2算法对发生回环的机器人位姿进行重定位,完成基于单目视觉里程计和IMU融合的定位。
在本发明实施例中,如图2所示,通过单目相机获取周围环境的图像信息并传输至机器人主控系统,由机器人主控系统对图像信息进行分析处理;通过底盘控制系统获取IMU的数据并处理,将处理后的数据传输至机器人主控系统;机器人主控系统根据底盘控制系统传输的数据进行特征点匹配、信息的融合等操作,最终反馈数据至底盘操作系统,控制机器人的运动。
在本发明实施例中,如图1所示,步骤S1包括以下子步骤:
S11:利用单目相机采集图像信息并传输至机器人主控系统,利用机器人主控系统提取图像信息的ORB特征点;
S12:判断ORB特征点是否大于设定阈值,若是则进行四叉树均匀化再进入步骤S3,否则直接进入步骤S3。
在本发明中,在视觉定位系统中,特征点的提取与处理至关重要。特征点的提取与处理会直接影响后续特征点匹配的精度和速度,从而影响整个定位系统的运行速度和定位精度。对图像信息进行特征点的处理,更好地适应地图纹理丰富度的变化,增强鲁棒性。优化的特征点处理方法可以更应对:1.在地图纹理度较低的情况下,直接进行特征点匹配,确保存在足够的特征点进行后续单目相机的位姿解算;2.在地图纹理度高的情况下,进行特征点均匀化,有效避免特征点聚集,无用特征点繁多,提高特征点匹配精度。
如图3所示,在实施方式中,可以对Raul Mur-Artal,J.M.M.Montiel和JuanD.Tardos提出的ORB_SLAM算法中的特征点处理方式进行优化。该特征点处理方式是通过对提取的特征点进行四叉树均匀化,从而达到特征点均匀化的效果。
在本发明实施例中,如图1所示,步骤S2包括以下子步骤:
S21:利用底盘控制系统获取IMU的三轴加速度α和三轴角速度W;
S22:对三轴加速度α和三轴角速度W进行低通滤波处理;
S23:在离散周期内,对低通滤波处理后的三轴加速度α和三轴角速度W分别进行一次积分,得到三轴相对速度V和三轴旋转信息R,对三轴加速度α进行二次积分,得到三轴平移信息T;
S24:三轴旋转信息R和三轴平移信息T作为IMU数据,并将低通滤波处理后的三轴加速度α、三轴角速度W、三轴相对速度V和IMU数据传输至机器人主控系统。
在本发明中,对三轴加速度和角速度进行低通滤波,可以降低复杂环境中噪声野值带来的影响。
在本发明实施例中,如图1所示,步骤S3包括以下子步骤:
S31:根据底盘控制系统传输的IMU数据,计算固定频率Δt下的三轴相对位移ΔT和三轴相对旋转ΔR;
S32:根据三轴相对位移ΔT和三轴相对旋转ΔR,利用2D-2D算法进行特征点匹配;
S33:设置图像关键帧和图像跟踪固定大小滑动窗口;
S34:对匹配后的特征点建立重投影误差代价函数,并计算最小重投影误差,进行全局优化,得到图像关键帧之间的相对平移数据Tv和相对旋转数据Rv,并将相对平移数据Tv和相对旋转数据Rv作为视觉里程计数据。
在本发明中,根据优化的匹配机制进行特征点的匹配。建立图像跟踪固定大小滑动窗口,用于维持计算量;视觉里程计根据前后两帧计算的相对位移和相对旋转受到图像数据的直接影响(动态环境和场景复杂度),具有不稳定性和精度较低的缺点。根据IMU的数据,计算相对位移和相对旋转,来代替视觉里程计解算的数据,能够提高特征点匹配精度和系统鲁棒性。
在本发明实施例中,如图1所示,步骤S31中,三轴相对位移ΔT的计算公式为:
ΔT=VΔt
其中,Δt表示固定频率,V表示三轴相对速度;
三轴相对旋转ΔR的计算公式为:
ΔR=WΔt
其中,W表示三轴角速度;
步骤S32中,进行特征点匹配的方法为:根据三轴相对位移ΔT和三轴相对旋转ΔR,计算同一特征点在当前帧投影的像素坐标P2,并根据同一特征点在当前帧投影的像素坐标P2在设定匹配搜索范围阈值th内进行特征点匹配,图像投影像素坐标P2的计算公式为:
P2 TFP1=0
其中,F=K-TEK-1,E=ΔT^ΔR,K表示相机内参,E表示本质矩阵,F表示基础矩阵,P1表示同一特征点在上一时刻帧投影的像素坐标;
步骤S33中,设置图像关键帧的方法为:将图像信息的第一帧设定为图像关键帧,若当前图像跟踪上一个图像关键帧的特征点数小于设定阈值,则把当前帧设定为新的图像关键帧;否则不设定。
在本发明实施例中,如图1所示,步骤S34中,建立重投影误差代价函数的计算公式为:
Δξ=ui-K exp(ξ)Pi
其中,Δξ表示重投影误差,i表示当前帧匹配后的第i个特征点,ui表示第i个特征点的像素平面坐标,exp(·)表示指数运算,K表示相机内参,ξ表示三轴相对位移ΔT和三轴相对旋转ΔR的外积,Pi表示第i个特征点的特征点空间坐标;
最小重投影误差ξ*的计算公式为:
Figure BDA0002874137810000131
其中,
Figure BDA0002874137810000132
表示最小重投影误差值运算,n表示图像关键帧数量;
进行全局优化的代价函数F的计算公式为:
Figure BDA0002874137810000133
其中,eij表示第i个特征点在第j关键帧图像中的重投影误差,m表示当前帧匹配后的特征点数量。
在本发明中,通过对极几何、三维重建和P3P等算法,建立重投影误差代价函数;最小重投影误差是对所有当前帧匹配后的特征点进行重投影误差的2范数进行最优化求解,最终解算出优化后的图像关键帧之间的相对平移和相对旋转数据(即视觉里程计数据),为后续滤波器融合提供观测信息。
在本发明实施例中,如图1所示,步骤S4包括以下子步骤:
S41:构建系统状态方程和系统观测方程;
S42:在系统状态方程和系统观测方程中,利用最大相关熵卡尔曼滤波法,对IMU数据和视觉里程计数据进行融合,得到融合后的机器人位姿。
在本发明实施例中,如图1所示,步骤S41中,系统状态方程的表达式为:
X(k+1)=AX(k)+Bu(k)+v(k+1)
X=[Tx,Ty,Tz,Rx,Ry,Rz,Vx,Vy,Vz,Wx,Wy,Wz]T
u=[αxyz]T
Figure BDA0002874137810000141
Figure BDA0002874137810000142
其中,X(k+1)表示当前时刻的状态向量,A表示系统状态矩阵,X(k)表示上一时刻的状态向量,B表示输入矩阵,u(k)表示输入向量,v(k+1)表示当前噪声,Tx表示IMU解算的x轴位移量,Ty表示IMU解算的y轴位移量,Tz表示IMU解算的z轴位移量,Rx表示IMU解算的x轴旋转量,Ry表示IMU解算的y轴旋转量,Rz表示IMU解算的z轴旋转量,Vx表示当前机器人x轴速度,Vy表示当前机器人y轴速度,Vz表示当前机器人z轴速度,Wx表示当前机器人x轴角速度,Wy表示当前机器人y轴角速度,Wz表示当前机器人z轴角速度,αx表示当前机器人x轴加速度,αy表示当前机器人y轴加速度,αz表示当前机器人z轴加速度,Δt表示固定频率;
步骤S41中,系统观测方程的表达式为:
Y(k+1)=HX(k+1)+w(k+1)
Figure BDA0002874137810000151
Figure BDA0002874137810000152
其中,Y(k+1)表示当前观测真实值,H表示观测矩阵,w(k+1)表示当前观测噪声,
Figure BDA0002874137810000153
表示相机解算的世界坐标系下的x轴位移量,
Figure BDA0002874137810000154
表示相机解算的世界坐标系下的y轴位移量,
Figure BDA0002874137810000155
表示相机解算的世界坐标系下的z轴位移量,
Figure BDA0002874137810000156
表示相机解算的世界坐标系下的x轴旋转量,
Figure BDA0002874137810000157
表示相机解算的世界坐标系下的y轴旋转量,
Figure BDA0002874137810000158
表示相机解算的世界坐标系下的z轴旋转量。
在本发明实施例中,如图4所示,步骤S5包括以下子步骤:
S51:提取图像关键帧的100个ORB特征点;
S52:根据每个ORB特征点的描述子,利用DBoW2算法计算当前帧与之前图像关键帧的相似度大小s(a,b);
S53:根据相似度大小s(a,b)判断是否发生回环,若是则进入步骤S54,否则返回步骤S4;
S54:将当前帧的ORB特征点与回环检测到的帧进行ORB描述子匹配;
S55:将描述子匹配得到的匹配点进行RANSAC误匹配剔除;
S56:对RANSAC误匹配剔除后的匹配点,利用3D-3D算法计算当前帧在世界坐标系中相对位置的优化函数,完成基于单目视觉里程计和IMU融合的定位。
在本发明中,随着机器人的运动,机器人的路径还是会与实际路径发生一定的偏移,所以需要使用回环检测模块降低累积误差对机器人路径的影响。进行回环检测后,机器人路径重新进行了调整,得到更加精准的最终结果。若发生回环,根据回环候选帧进行位置计算,并纠正回环中其他关键帧的位置。
在实施方式中,本发明以Badong Chen等人提出的Maximum correntropy Kalmanfilter(MCKF算法)作为本申请的多传感器融合的融合算法。该滤波器算法无论是在高斯噪声环境下,还是非高斯噪声环境下,都能够快速地进行数据的融合,有效地降低复杂环境下噪声野值带来的定位误差。
在本发明实施例中,如图1所示,步骤S52中,当前帧与之前图像关键帧的相似度大小s(a,b)的计算公式为:
Figure BDA0002874137810000161
其中,W表示图像关键帧的描述子数量,a表示关键帧特征点描述子集合,b表示当前帧特征点描述子集合;
步骤S53中,若相似度大小s(a,b)大于设定阈值,则发生回环,否则未发生回环;
步骤S54中,进行ORB描述子匹配的方法为对应描述子的汉明距离;
步骤S56中,当前帧在世界坐标系中相对位置的优化函数的计算公式为:
Figure BDA0002874137810000162
其中,Tp表示当前帧在世界坐标系下的相对位移,Rp表示前帧在世界坐标系下的相对旋转,i为当前帧与图像关键帧的第i个匹配特征点,pi表示当前帧的第i个匹配点,pi′为与pi对应的关键帧中的匹配点,n为当前帧与图像关键帧匹配成功的特征点数量。
在本发明中,当图像关键帧和当前帧特征点的描述子完全相同时,将得到1;完全相反时(a为0的地方b为1)得到0。这样就定义了两个描述向量的相似性,也就定义了图像之间的相似程度。寻求最优的Tp和Rp使得优化函数误差最小,即为解算出的相对位姿数据。
本发明的工作原理及过程为:本发明提供了一种单目视觉和IMU融合定位方案,包括:首先,在ROS系统中获取当前环境的图像数据,并对所述图像进行特征点的处理;其次,通过底盘控制芯片获取并处理IMU的数据,最后传输数据至ROS系统;再次,根据底盘控制芯片上传的数据,进行特征点的匹配;然后,使用基于最大相关熵卡尔曼滤波算法(MCKF)对IMU的数据和单目视觉里程计解算出的数据进行融合;最后对局部地图进行回环检测。本发明通过使用滤波思想进行多传感器数据的融合来进一步优化定位信息,将IMU与单目视觉里程计结合起来,克服相互的缺点,保留各自的优点,能够克服定位过程中单目视觉在动态物体影响下定位效果和鲁棒性差的问题,同时解决IMU累积误差的问题和降低在复杂噪声环境数据融合的误差。
本发明的有益效果为:本发明的定位方法使用滤波思想进行多传感器数据的融合来进一步优化定位信息,将IMU与单目视觉里程计结合起来,克服相互的缺点,保留各自的优点,提高了单目视觉里程计定位在动态环境下视觉定位的鲁棒性,解决了IMU累计误差不能消除的问题;同时,通过采用基于最大相关熵卡尔曼滤波算法对IMU数据和视觉里程计数据进行融合,提高了定位系统在复杂噪声环境下工作的定位精度。在地图纹理变化迅速,出现场景单一,图像特征点少的情况下,能够有效地调整特征点处理机制,提高特征点匹配机制的准确。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (8)

1.一种基于单目视觉里程计和IMU融合的定位方法,其特征在于,包括以下步骤:
S1:利用单目相机采集图像信息并传输至机器人主控系统,利用机器人主控系统对图像进行特征点处理;
S2:利用底盘控制系统获取IMU的三轴加速度和三轴角速度,进行处理得到IMU数据,并传输至机器人主控系统;
S3:根据底盘控制系统传输的IMU数据,利用机器人主控系统进行特征点匹配,得到视觉里程计数据;
S4:利用最大相关熵卡尔曼滤波法,对IMU数据和视觉里程计数据进行融合,得到融合后的机器人位姿;
S5:利用DBoW2算法对发生回环的机器人位姿进行重定位,完成基于单目视觉里程计和IMU融合的定位;
所述步骤S4包括以下子步骤:
S41:构建系统状态方程和系统观测方程;
S42:在系统状态方程和系统观测方程中,利用最大相关熵卡尔曼滤波法,对IMU数据和视觉里程计数据进行融合,得到融合后的机器人位姿;
所述步骤S41中,系统状态方程的表达式为:
X(k+1)=AX(k)+Bu(k)+v(k+1)
X=[Tx,Ty,Tz,Rx,Ry,Rz,Vx,Vy,Vz,Wx,Wy,Wz]T
u=[αxyz]T
Figure FDA0003714784970000021
Figure FDA0003714784970000022
其中,X(k+1)表示当前时刻的状态向量,A表示系统状态矩阵,X(k)表示上一时刻的状态向量,B表示输入矩阵,u(k)表示输入向量,v(k+1)表示当前噪声,Tx表示IMU解算的x轴位移量,Ty表示IMU解算的y轴位移量,Tz表示IMU解算的z轴位移量,Rx表示IMU解算的x轴旋转量,Ry表示IMU解算的y轴旋转量,Rz表示IMU解算的z轴旋转量,Vx表示当前机器人x轴速度,Vy表示当前机器人y轴速度,Vz表示当前机器人z轴速度,Wx表示当前机器人x轴角速度,Wy表示当前机器人y轴角速度,Wz表示当前机器人z轴角速度,αx表示当前机器人x轴加速度,αy表示当前机器人y轴加速度,αz表示当前机器人z轴加速度,Δt表示固定频率;
所述步骤S41中,系统观测方程的表达式为:
Y(k+1)=HX(k+1)+w(k+1)
Figure FDA0003714784970000031
Figure FDA0003714784970000032
其中,Y(k+1)表示当前观测真实值,H表示观测矩阵,w(k+1)表示当前观测噪声,
Figure FDA0003714784970000033
表示相机解算的世界坐标系下的x轴位移量,
Figure FDA0003714784970000034
表示相机解算的世界坐标系下的y轴位移量,
Figure FDA0003714784970000035
表示相机解算的世界坐标系下的z轴位移量,
Figure FDA0003714784970000036
表示相机解算的世界坐标系下的x轴旋转量,
Figure FDA0003714784970000037
表示相机解算的世界坐标系下的y轴旋转量,
Figure FDA0003714784970000038
表示相机解算的世界坐标系下的z轴旋转量。
2.根据权利要求1所述的基于单目视觉里程计和IMU融合的定位方法,其特征在于,所述步骤S1包括以下子步骤:
S11:利用单目相机采集图像信息并传输至机器人主控系统,利用机器人主控系统提取图像信息的ORB特征点;
S12:判断ORB特征点是否大于设定阈值,若是则进行四叉树均匀化再进入步骤S3,否则直接进入步骤S3。
3.根据权利要求1所述的基于单目视觉里程计和IMU融合的定位方法,其特征在于,所述步骤S2包括以下子步骤:
S21:利用底盘控制系统获取IMU的三轴加速度α和三轴角速度W;
S22:对三轴加速度α和三轴角速度W进行低通滤波处理;
S23:在离散周期内,对低通滤波处理后的三轴加速度α和三轴角速度W分别进行一次积分,得到三轴相对速度V和三轴旋转信息R,对三轴加速度α进行二次积分,得到三轴平移信息T;
S24:三轴旋转信息R和三轴平移信息T作为IMU数据,并将低通滤波处理后的三轴加速度α、三轴角速度W、三轴相对速度V和IMU数据传输至机器人主控系统。
4.根据权利要求1所述的基于单目视觉里程计和IMU融合的定位方法,其特征在于,所述步骤S3包括以下子步骤:
S31:根据底盘控制系统传输的IMU数据,计算固定频率Δt下的三轴相对位移ΔT和三轴相对旋转ΔR;
S32:根据三轴相对位移ΔT和三轴相对旋转ΔR,利用2D-2D算法进行特征点匹配;
S33:设置图像关键帧和图像跟踪固定大小滑动窗口;
S34:对匹配后的特征点建立重投影误差代价函数,并计算最小重投影误差,进行全局优化,得到图像关键帧之间的相对平移数据Tv和相对旋转数据Rv,并将相对平移数据Tv和相对旋转数据Rv作为视觉里程计数据。
5.根据权利要求4所述的基于单目视觉里程计和IMU融合的定位方法,其特征在于,所述步骤S31中,三轴相对位移ΔT的计算公式为:
ΔT=VΔt
其中,Δt表示固定频率,V表示三轴相对速度;
三轴相对旋转ΔR的计算公式为:
ΔR=WΔt
其中,W表示三轴角速度;
所述步骤S32中,进行特征点匹配的方法为:根据三轴相对位移ΔT和三轴相对旋转ΔR,计算同一特征点在当前帧投影的像素坐标P2,并根据同一特征点在当前帧投影的像素坐标P2在设定匹配搜索范围阈值th内进行特征点匹配,图像投影像素坐标P2的计算公式为:
P2 TFP1=0
其中,F=K-TEK-1,E=ΔT^ΔR,K表示相机内参,E表示本质矩阵,F表示基础矩阵,P1表示同一特征点在上一时刻帧投影的像素坐标;
所述步骤S33中,设置图像关键帧的方法为:将图像信息的第一帧设定为图像关键帧,若当前图像跟踪上一个图像关键帧的特征点数小于设定阈值,则把当前帧设定为新的图像关键帧;否则不设定。
6.根据权利要求4所述的基于单目视觉里程计和IMU融合的定位方法,其特征在于,所述步骤S34中,建立重投影误差代价函数的计算公式为:
Δξ=ui-K exp(ξ)Pi
其中,Δξ表示重投影误差,i表示当前帧匹配后的第i个特征点,ui表示第i个特征点的像素平面坐标,exp(·)表示指数运算,K表示相机内参,ξ表示三轴相对位移ΔT和三轴相对旋转ΔR的外积,Pi表示第i个特征点的特征点空间坐标;
最小重投影误差ξ*的计算公式为:
Figure FDA0003714784970000051
其中,
Figure FDA0003714784970000052
表示最小重投影误差值运算,n表示图像关键帧数量;
进行全局优化的代价函数F的计算公式为:
Figure FDA0003714784970000053
其中,eij表示第i个特征点在第j关键帧图像中的重投影误差,m表示当前帧匹配后的特征点数量。
7.根据权利要求1所述的基于单目视觉里程计和IMU融合的定位方法,其特征在于,所述步骤S5包括以下子步骤:
S51:提取图像关键帧的100个ORB特征点;
S52:根据每个ORB特征点的描述子,利用DBoW2算法计算当前帧与之前图像关键帧的相似度大小s(a,b);
S53:根据相似度大小s(a,b)判断是否发生回环,若是则进入步骤S54,否则返回步骤S4;
S54:将当前帧的ORB特征点与回环检测到的帧进行ORB描述子匹配;
S55:将描述子匹配得到的匹配点进行RANSAC误匹配剔除;
S56:对RANSAC误匹配剔除后的匹配点,利用3D-3D算法计算当前帧在世界坐标系中相对位置的优化函数,完成基于单目视觉里程计和IMU融合的定位。
8.根据权利要求7所述的基于单目视觉里程计和IMU融合的定位方法,其特征在于,所述步骤S52中,当前帧与之前图像关键帧的相似度大小s(a,b)的计算公式为:
Figure FDA0003714784970000061
其中,W表示图像关键帧的描述子数量,a表示关键帧特征点描述子集合,b表示当前帧特征点描述子集合;
所述步骤S53中,若相似度大小s(a,b)大于设定阈值,则发生回环,否则未发生回环;
所述步骤S54中,进行ORB描述子匹配的方法为对应描述子的汉明距离;
所述步骤S56中,当前帧在世界坐标系中相对位置的优化函数的计算公式为:
Figure FDA0003714784970000071
其中,Tp表示当前帧在世界坐标系下的相对位移,Rp表示前帧在世界坐标系下的相对旋转,i为当前帧与图像关键帧的第i个匹配特征点,pi表示当前帧的第i个匹配点,pi′为与pi对应的关键帧中的匹配点,n为当前帧与图像关键帧匹配成功的特征点数量。
CN202011621950.8A 2020-12-30 2020-12-30 一种基于单目视觉里程计和imu融合的定位方法 Active CN112747750B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011621950.8A CN112747750B (zh) 2020-12-30 2020-12-30 一种基于单目视觉里程计和imu融合的定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011621950.8A CN112747750B (zh) 2020-12-30 2020-12-30 一种基于单目视觉里程计和imu融合的定位方法

Publications (2)

Publication Number Publication Date
CN112747750A CN112747750A (zh) 2021-05-04
CN112747750B true CN112747750B (zh) 2022-10-14

Family

ID=75650337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011621950.8A Active CN112747750B (zh) 2020-12-30 2020-12-30 一种基于单目视觉里程计和imu融合的定位方法

Country Status (1)

Country Link
CN (1) CN112747750B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113790728A (zh) * 2021-09-29 2021-12-14 佛山市南海区广工大数控装备协同创新研究院 一种基于视觉里程计的松耦合多传感器融合定位算法
CN113959341B (zh) * 2021-10-14 2024-04-26 江苏科技大学 光学结构位移测量方法、系统及存储介质
CN114993338B (zh) * 2022-03-24 2024-03-15 浙江大学 基于多段独立地图序列的一致性高效视觉惯性里程计算法
CN115087092B (zh) * 2022-05-25 2024-02-27 电子科技大学 一种多传感器最大相关熵拓展信息滤波分层融合方法
CN115235475B (zh) * 2022-09-23 2023-01-03 成都凯天电子股份有限公司 一种基于mcc的ekf-slam后端导航路径优化方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104134209A (zh) * 2014-07-18 2014-11-05 北京国电富通科技发展有限责任公司 一种视觉导航中的特征提取与匹配方法及系统
CN110658816A (zh) * 2019-09-27 2020-01-07 东南大学 一种基于智能组件的移动机器人导航与控制方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018081366A1 (en) * 2016-10-26 2018-05-03 The Charles Stark Draper Laboratory, Inc. Vision-aided inertial navigation with loop closure
US10466361B2 (en) * 2017-03-14 2019-11-05 Toyota Research Institute, Inc. Systems and methods for multi-sensor fusion using permutation matrix track association
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
CN110375738B (zh) * 2019-06-21 2023-03-14 西安电子科技大学 一种融合惯性测量单元的单目同步定位与建图位姿解算方法
CN110617814A (zh) * 2019-09-26 2019-12-27 中国科学院电子学研究所 单目视觉和惯性传感器融合的远距离测距系统及方法
CN110598370B (zh) * 2019-10-18 2023-04-14 太原理工大学 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计
CN111156984B (zh) * 2019-12-18 2022-12-09 东南大学 一种面向动态场景的单目视觉惯性slam方法
CN111880573B (zh) * 2020-07-31 2022-09-06 电子科技大学 一种基于视觉惯导融合的四旋翼自主导航方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104134209A (zh) * 2014-07-18 2014-11-05 北京国电富通科技发展有限责任公司 一种视觉导航中的特征提取与匹配方法及系统
CN110658816A (zh) * 2019-09-27 2020-01-07 东南大学 一种基于智能组件的移动机器人导航与控制方法

Also Published As

Publication number Publication date
CN112747750A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN112747750B (zh) 一种基于单目视觉里程计和imu融合的定位方法
CN112815939B (zh) 移动机器人的位姿估计方法及计算机可读存储介质
Mourikis et al. A dual-layer estimator architecture for long-term localization
US20220051031A1 (en) Moving object tracking method and apparatus
CN110751123B (zh) 一种单目视觉惯性里程计系统及方法
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN115371665B (zh) 一种基于深度相机和惯性融合的移动机器人定位方法
CN114623817B (zh) 基于关键帧滑窗滤波的含自标定的视觉惯性里程计方法
CN113503873B (zh) 一种多传感器融合的视觉定位方法
CN114001733A (zh) 一种基于地图的一致性高效视觉惯性定位算法
Li et al. A binocular MSCKF-based visual inertial odometry system using LK optical flow
Zheng et al. SE (2)-constrained visual inertial fusion for ground vehicles
Zhang et al. Continuous GNSS-RTK aided by LiDAR/inertial odometry with intelligent GNSS selection in urban canyons
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN109459046B (zh) 悬浮式水下自主航行器的定位和导航方法
Strelow et al. Extending shape-from-motion to noncentral onmidirectional cameras
Li et al. RD-VIO: Robust visual-inertial odometry for mobile augmented reality in dynamic environments
CN115015956A (zh) 一种室内无人车的激光与视觉slam系统
CN114821113A (zh) 基于自适应鲁棒核的单目视觉惯性slam方法与系统
Jung et al. Pose tracking of moving sensor using monocular camera and IMU sensor
Zhong et al. A factor graph optimization mapping based on normaldistributions transform
CN114119885A (zh) 图像特征点匹配方法、装置及系统、地图构建方法及系统
Chathuranga et al. Aerial image matching based relative localization of a uav in urban environments
Winkens et al. Optical truck tracking for autonomous platooning
Chiang et al. Seamless Realtime Lane Level Vehicular Navigation in Gnss Challenging Environments Using a Rtk Gnss/imu/vins Integration Scheme

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant