CN111156998B - 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 - Google Patents

一种基于rgb-d相机与imu信息融合的移动机器人定位方法 Download PDF

Info

Publication number
CN111156998B
CN111156998B CN201911367625.0A CN201911367625A CN111156998B CN 111156998 B CN111156998 B CN 111156998B CN 201911367625 A CN201911367625 A CN 201911367625A CN 111156998 B CN111156998 B CN 111156998B
Authority
CN
China
Prior art keywords
camera
imu
pose
point
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911367625.0A
Other languages
English (en)
Other versions
CN111156998A (zh
Inventor
戴诗陆
欧建永
杨辰光
王柠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan Newhinken Intelligent Technology Co ltd
South China University of Technology SCUT
Original Assignee
Foshan Newhinken Intelligent Technology Co ltd
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan Newhinken Intelligent Technology Co ltd, South China University of Technology SCUT filed Critical Foshan Newhinken Intelligent Technology Co ltd
Priority to CN201911367625.0A priority Critical patent/CN111156998B/zh
Publication of CN111156998A publication Critical patent/CN111156998A/zh
Application granted granted Critical
Publication of CN111156998B publication Critical patent/CN111156998B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C9/00Measuring inclination, e.g. by clinometers, by levels

Abstract

本发明公开了一种基于RGB‑D相机与IMU信息融合的移动机器人定位方法,包括下述步骤:(1)建立针孔相机模型;(2)建立IMU测量模型;(3)结构光相机深度计算与基于特征点匹配的位姿变换计算;(4)IMU预积分姿态解算以及IMU坐标系与相机坐标系的转换;(5)RGB‑D数据与IMU数据融合过程以及相机位姿优化过程,最终获得精准的定位姿态。本发明使用RGB‑D相机与IMU的传感器组合的定位,很好的利用了IMU在短时间的快速运动具有较好的状态估计的特性,而相机具有静态条件下基本不漂移的特性,从而使定位系统具有较好的静态特性和动态特性,使机器人能适应低速运动场合和高速运动场合。

Description

一种基于RGB-D相机与IMU信息融合的移动机器人定位方法
技术领域
本发明属于智能移动机器人感知领域,具体涉及一种基于RGB-D相机与IMU信息融合的定位方法。
背景技术
近几十年,随着科技的不断进步,生产生活中自动化智能化的程度不断提升,移动机器人由于其本身具有能独立完成某项任务的能力,今后必然将在人类生产生活中发挥巨大的作用。例如太空探索,海洋探测,工业矿井探测等这些由人类去完成危险程度很大甚至无法完成的任务,有了机器人的参与都将更好更快更安全地去完成这些危险任务。智能移动机器人的自主移动需要不断获取自身的位姿信息,为移动机器人的导航与路径规划提供相应的定位信息。
目前可知的常用于移动机器人定位的传感器包括GPS系统、激光雷达、视觉传感器、惯性传感器等。使用GPS差分定位的系统可以提供较为精准的全球定位信息,但是在室内环境以及室外存在遮挡的地方由于无法接受GPS卫星信号而导致定位失败。其次,即使使用差分GPS定位,其定位精度也仅有分米级别。使用多线激光雷达的定位系统通过获取点云数据并使用ICP等算法可以获得精准的位姿,但是多线激光雷达的价格较为昂贵且体积较大。使用惯性传感器也可以用于机器人位姿解算,其中高精度的惯性测量单元通过积分可以得到较为精准的位姿,但是成本较高,而廉价的MENS惯性测量单元由于数据漂移较为严重,直接积分解算位姿很容易导致位姿的发散,很难用于机器人定位。使用立体视觉的方法,如双目相机或者RGB-D相机利用视觉SLAM算法可以获得精准的定位信息,视觉定位的方法静态性能较好,但是当移动机器人快速移动时易。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于RGB-D相机与IMU信息融合的定位方法,根据该定位方法可计算出较为精准机器人的位置与姿态,且该定位系统具有较强的鲁棒性。
为了达到上述目的,本发明采用以下技术方案:
一种基于RGB-D相机与IMU信息融合的移动机器人定位方法,包括下述步骤:
(1)建立针孔相机模型,所述针孔相机模型用于明确实际采集的二维图像点与对应的空间中三维点的相机坐标的数学关系;
(2)建立IMU测量模型,确定IMU测量数据与状态参数速度、位姿、偏差的关系;
(3)基于针孔相机模型可知二维相机坐标计算三维相机坐标的数学关系,基于结构光相机深度计算与基于特征点匹配的位姿变换计算,利用相机求解空间点深度信息的原理,从而恢复出空间点的三维信息,对于相机不同时刻的图像帧,假设在已知图像帧间多组匹配的三维空间点的情况下通过匹配点的信息求解两帧图像间的坐标变换K,t,从而迭代求解机器人的定位信息;
(4)IMU预积分姿态解算以及IMU坐标系与相机坐标系的转换,IMU通过本身的测量计算出IMU中心在世界坐标的位姿,通过已知的IMU与相机的坐标变换,可以求解出初步的相机位姿,并以此来预测相机位姿,加速特征点匹配;
(5)通过特征点匹配可求解出机器人位姿,由IMU测量解算出的IMU位姿可以加速特征点匹配,在匹配的基础上构建重投影误差进一步优化机器人位姿,最终获得精准的定位姿态。
作为优选的技术方案,步骤(1)中,使用MyntEye-D相机,根据其视角参数与畸变特性,可将其建模成针孔模型,以下简称针孔相机模型,针孔相机模型可表述为,在相机的视野范围内,三维空间中的一点P,其反射光线必通过相机光心,并在二维相机平面上成像为点P′,且P与P′符合如下数学转换关系:
Figure GDA0003502948760000021
其中P′表示像素坐标,
Figure GDA0003502948760000022
是像素坐标的齐次坐标表示形式;P是P′对应的三维空间点,
Figure GDA0003502948760000023
是在当前相机坐标系下的相机坐标,K是相机内参矩阵,K中的fx,fy,cx,cy是与相机焦距和相机中心位置相关的参数。
作为优选的技术方案,步骤(2)中,所述IMU测量模型如下:
Figure GDA0003502948760000024
其中上标g表示陀螺仪,上标a表示加速度计,上标w表示在世界坐标系中,上标b表示IMU体坐标系,故有
Figure GDA0003502948760000025
表示为加速度计陀螺仪的测量值,ab,wb表示为加速度计陀螺仪的真实值,gw表示重力向量在世界坐标系中的表示,qbw表示IMU位姿旋转变换的四元数表示,ng,na表示陀螺仪加速度计测量的高斯白噪声,bg,ba表示陀螺仪加速度计的偏差,它们被建模成随机游走,其对时间的导数服从正态分布。
作为优选的技术方案,步骤(3)中,结构光相机深度计算与基于特征点匹配相机坐标变换的计算方法具体为:
所述对于结构光深度相机得到深度信息的原理公式为:
Figure GDA0003502948760000031
其中f为相机焦距,uL,uR为图像点在左右相机平面上的横轴的成像坐标轴,b为左右相机光心的距离即基线大小,z为待求点深度大小,即到相机平面的距离,结构相机中深度的计算实际由相机自身计算并输出结果,故深度z为已知信息;
所述基于特征点匹配的位姿变换计算具体为:
Figure GDA0003502948760000032
其中P表示空间点的世界坐标,p1,p2表示空间点投影到两个平面上的像素坐标,即匹配的特征点,z1,z2表示空间点到两个平面上的深度,K表示相机内参矩阵,R,t表示图像帧之间的旋转变换和平移变换,即通过多组匹配点求解图像帧间的旋转R和平移t。
作为优选的技术方案,步骤(4)中,由IMU测量值解算IMU世界坐标的方法,具体为:
Figure GDA0003502948760000033
其中
Figure GDA0003502948760000034
为i,j时刻相对世界坐标系的位置,Vj w,Vi w为i,j时刻相对世界坐标系的速度,
Figure GDA0003502948760000035
为i,j时刻相对世界坐标系的角度的四元数表示,中使用
Figure GDA0003502948760000036
Figure GDA0003502948760000037
为i时刻的陀螺仪和加速度计的真实值,Δt为两相邻IMU数据间的时间间隔。
作为优选的技术方案,步骤(5)中,相机重投影误差ei的最终定义为:
Figure GDA0003502948760000038
其中
Figure GDA0003502948760000039
为当前帧像素坐标的齐次坐标表示,[Xi,Yi,Zi,1]T为三维空间点世界坐标的齐次坐标表示方法,K为相机内参,
Figure GDA00035029487600000310
为最终需要优化的当前帧的世界坐标变化,通过对残差构造最小二乘并对
Figure GDA00035029487600000311
进行优化,其代价函数ε*为:
Figure GDA00035029487600000312
最终使用Levenberg-Marquadt算法对位姿状态
Figure GDA00035029487600000313
进行优化。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明采用松耦合方式结合RGB-D图像数据与IMU测量数据,即IMU通过积分得到6自由度位姿,RGB-D通过特征点匹配然后通过位姿变换计算出位姿,在此过程中使用IMU计算出位姿预测相机当前时刻地位姿,通过反向投影,加速特征点匹配。匹配之后通过BA优化即可得到当前时刻准确的位姿,下一次IMU积分的起始位姿都基于当前时刻相机优化的位姿。因此这样很好的利用了IMU在短时间的快速运动具有较好的状态估计的特性,而相机具有静态条件下基本不漂移的特性,从而使定位系统具有较好的静态特性和动态特性,使机器人能适应低速运动场合和高速运动场合。
2、本发明在传感器融合的算法过程中,使用IMU数据预测当前状态的相机位姿,可以加速相机特征点的匹配,使算法更加具有实时性。
3.、本发明在实际应用场景中使用结构光深度惯导相机,可使算法能运行在室内外等更加复杂的场景。
附图说明
图1为IMU信息与RGB-D信息融合流程图。
图2为针孔相机投影模型示意图。
图3为像素坐标表示示意图。
图4为双目结构光相机深度计算原理示意图。
图5为相机信息与IMU信息融合示意图。
图6为所使用的相机IMU坐标示意图。
图7为前后图像对空间某一特征点匹配示意图。
图8为相机重投影误差示意图。
图9为MyntEye-D相机实际场景定位测试结果。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例基于RGB-D相机与IMU融合的移动机器人定位的方法,具体实时步骤如下所述:
步骤(1):建立针孔相机模型。
考虑如图2所示的针孔相机模型,其中
Figure GDA0003502948760000051
平面为成像平面,
Figure GDA0003502948760000052
平面为相机平面。其中xyz为相机坐标,相机坐标中的z轴垂直于相机平面,xy轴分别平行于相机的两个边框并与z轴构成右手坐标系。平面坐标系x′y′为与xy轴分别平行。o为相机光心,o′为通过光心与z轴平行的直线与成像平面α的交点,oo′为焦距,其大小为f。假设三维空间中的一点P在相机坐标系下的坐标为(X,Y,Z),该点投影到成像平面上为点P′,点P′在x′y′下的坐标为(X′,Y′),由小孔成像中的相似三角形,可知:
Figure GDA0003502948760000053
空间中的点投影到像素平面上的成像点在读入处理器中用像素坐标表示。如图3所示,其中以图2中像素成像平面的点M为原点(0,0),坐标轴的方向与相机坐标的xy轴平行。由相机成像的原理可知:
Figure GDA0003502948760000054
其中mn代表像素坐标在实际成像平面上与成像点物理尺度的比例,一般情况下αβ是相等的,不然成像会有尺寸畸变。将小孔成像比例式带入其中,即有:
Figure GDA0003502948760000055
令fx=αf,fy=βf,即有:
Figure GDA0003502948760000056
将像素坐标表示成齐次坐标的形式,与相机坐标的关系式为:
Figure GDA0003502948760000057
这里的3×3的矩阵K被称为相机的内参矩阵,在相机出厂后便固定不变,可以通过一定的标定手段获得,如张定友棋盘格标定方法。
步骤(2):建立IMU测量模型。
IMU即惯性测量单元,主要由两部分组成,一部分为陀螺仪,能测量三个坐标方向的角速度,一部分叫加速度计,可测量三个方向的加速度。在IMU的计算中,我们一般将东北天坐标系设置为世界坐标系,将机器人的起点设置为世界坐标系的原点,即IMU的测量模型如下所示:
Figure GDA0003502948760000061
其中上标g表示陀螺仪,上标a表示加速度计。上标w表示在世界坐标系中,上标b表示IMU体坐标系。故有
Figure GDA0003502948760000062
表示为加速度计陀螺仪的测量值。ab,wb表示为加速度计陀螺仪的真实值。gw表示重力向量在世界坐标系中的表示,qbw表示IMU位姿旋转变换的四元数表示。ng,na表示陀螺仪加速度计测量的高斯白噪声。bg,ba表示陀螺仪加速度计的偏差,它们被建模成随机游走,即其对时间的导数服从正态分布。对于一个IMU系统,其高斯白噪声和随机游走中的相关参数可以通过相关的方法标定出来,例如Allen方差标定法。
步骤(3):描述结构光相机深度计算与基于特征点匹配的位姿变换计算。
本发明中使用的是双目结构光深度相机,其深度计算原理和普通双目一样都是通过三角化计算深度。结构光的作用是通过特殊编码方式将特定结构的光斑投射到物体上,可加速双目特征点的匹配,在纹理不明显的场景也可通过结构光的光斑来进行匹配。具体的计算方式如图4所示。双目相机的左右相机的相机坐标轴一般重合,仅横轴上相差基线长度。假设一空间点P在双目相机的左目和右目上成像为点PL和PR。OL和OR为左右光圈中心,f为焦距,uL,uR为左右相机平面上的横轴的成像坐标轴,b为左右相机光心的距离即基线大小,该点深度大小为z,即到相机平面的距离。由相关三角形关系可得:
Figure GDA0003502948760000063
即有深度z为:
Figure GDA0003502948760000064
因此对空间一个点,我们可以通过深度相机获取其相机坐标。对于运动中的相机我们可以对前后两帧中同一相机中的特征点进行匹配,通过多组相机匹配点,我们可以利用P3P,Epnp等算法,计算出两帧图像之间的位姿变换。如图7所示,其中I2为当前图像帧,I1为上一图像帧,o1,o2为对应图像的相机光心,对于空间中一点P,其在图像I1,I2的像素坐标为p1,p2,设在第一帧的坐标系下点P的坐标表示为(X,Y,Z),对空间中的两个相机位姿的关系可以由一欧式变换表示,欧式变换包含旋转变换R和平移变换t,即有如下等式成立:
Figure GDA0003502948760000065
z1,z2为空间点P在图像I1,I2上的深度大小,p1,p2均采用其次坐标表示,K为相机内参矩阵,因此通过多组匹配点即可以计算出相机I1,I2之间的位姿变换,通过位姿变换间的矩阵乘法运算,即可以计算出每一帧相对第一帧之间的位姿变换,即定义下的世界坐标的位姿。
步骤(4):描述IMU预积分姿态解算以及IMU坐标系与相机坐标系转换。
由上述步骤我们可知通过匹配特征点计算位姿变换可以迭代计算出当前相机所在的世界坐标,同样由IMU积分同样可以计算出六自由度的位姿。简单地思考,角速度积分可以计算出角度,加速度积分可以计算出速度,速度积分可以得到距离。在IMU计算中我们以东北天坐标系作为世界坐标系。东北天坐标系中的z轴指向天空,与地心方向或者重力方向相反,x轴方向平行于纬线,y轴方向平行于经线。这里定义t时刻IMU体坐标相对世界坐标系中的速度,位置和角度为
Figure GDA0003502948760000071
在这里旋转
Figure GDA0003502948760000072
使用四元数进行表示,已知速度,位置和角度对时间的导数为:
Figure GDA0003502948760000073
其中
Figure GDA0003502948760000074
是t时刻相对世界坐标系的加速度,
Figure GDA0003502948760000075
是t时刻IMU坐标系角速度的值。
Figure GDA0003502948760000076
为四元数的乘法运算符。其中
Figure GDA0003502948760000077
根据定义可知为:
Figure GDA0003502948760000078
其中
Figure GDA0003502948760000079
是t时刻IMU坐标系加速度的值,gw为世界坐标系中的重力向量,由导数关系可知,通过对i时刻到j时刻间的测量值积分,可得到j相对世界坐标的位置,速度和角度,如下所示:
Figure GDA00035029487600000710
其中Δt为i,j之间的时间间隔,
Figure GDA00035029487600000711
为i,j时刻相对世界坐标系的位置,Vi w,Vj w为i,j时刻相对世界坐标系的速度,
Figure GDA00035029487600000712
为i,j时刻相对世界坐标系的角度的四元数表示,本发明中使用欧拉积分进行离散化积分运算,具体表达式如下所示:
Figure GDA00035029487600000713
其中
Figure GDA00035029487600000714
Figure GDA00035029487600000715
为i时刻的真实值,由IMU测量方程以及欧拉积分定义可得:
Figure GDA0003502948760000081
其中
Figure GDA0003502948760000082
为i时刻的测量值,
Figure GDA0003502948760000083
为i时刻的bias。那么这样便可以通过IMU的积分计算IMU坐标系相对世界坐标系的位姿,若将IMU测量的位姿与相机测量的位姿进行融合,那么就必须计算相机坐标系与IMU坐标系的位姿变换,本发明中所使用MyntEye-D相机的坐标系定义如图6所示,在位姿运算中我们一般使用变换矩阵进行表示,设相机坐标系到IMU坐标系的旋转变换为Rbc,平移变换为tbc,那么变换矩阵可定义为Tbc:
Figure GDA0003502948760000084
一般情况下,IMU与相机变换参数Tbc通过提前标定获得。
步骤(5):描述RGB-D数据与IMU数据融合过程以及相机位姿优化过程。
由上述我们可知IMU和RGB-D相机都可以通过各自的方式计算出自身坐标系与世界坐标系的位姿变换,那么怎么融合这两部分的计算呢。本发明使用一种松耦合的方式,充分考虑到IMU测量短期内具有快速响应并且精准度可接受的这一特点,将IMU短期内的测量用于预测相机当前时刻的位姿,这样便可以将上一时刻的位姿通过位姿变换投影到当前图像帧上,特征点仅需要在投影点的领域内及进行特征点描述子的匹配,当计算值小于一定的阈值便可认为为匹配点,这样相对于暴力匹配算法或者K近邻算法具有更好的时间复杂度和空间复杂度,具体运行图示如图5所示:其中Ilast为上一帧图像的相机位姿,为已经优化的已知的位姿;Inow为当前帧相机的真实位姿,是未知的待求得相机位姿;Ipredict是在Ilast的基础上结合IMU的测量值,并进行相机IMU坐标变换估计的相机位姿。由于相机的采集频率远低于IMU数据的频率,因此在两帧图像之间存在多个IMU数据,图中U1~Un即为IMU测量数据,本发明所使用的深度惯导相机,相机频率为30HZ,IMU频率为200HZ,因此两帧图像之间存在6~7个IMU数据值。在Ilast图像上存在p1~pn共n个特征点,Inow存在p′1~p′n共n个特征点,Ilast通过预测的位姿Ipredict将特征点p1~pn反向投影至Inow上,并在阴影圆圈的领域内进行特征点描述子匹配,本发明所用的特征为ORB特征,ORB特征为二进制描述子,所用的距离度量为汉明距离,汉明距离即二进制描述子间不同比特的数目,可使用异或运算符加速运算。
对于实际的融合过程,设Ilast图像帧的坐标变换为
Figure GDA0003502948760000085
为已知的数据。Ilast到Inow之间有n个IMU数据为{U1,U2…Un}。预测的相机Ipredict的位姿为
Figure GDA0003502948760000086
其求解过程可以通过下面3个步骤计算出来:
Figure GDA0003502948760000087
Figure GDA0003502948760000091
通过匹配的特征点坐标变换之后便可以求解出当前相机较为精准的位姿
Figure GDA0003502948760000092
为了得到更为精准的位姿,在计算得到
Figure GDA0003502948760000093
之后会对所有匹配的特征点,执行一次BundleAdjustment优化,BundleAdjustment优化的过程即为相机重投影误差最小化的过程,具体示意图如图8所示:其中Ilast为上一相机帧,其位姿变换
Figure GDA0003502948760000094
在上一次优化中已经计算出来;Inow为当前相机位姿,在前期的特征点匹配已经计算出初步的相机位姿值
Figure GDA0003502948760000095
通过将Ilast上的特征点
Figure GDA0003502948760000096
投影到Inow上得到投影点
Figure GDA0003502948760000097
这样得到的投影点就会与原有通过匹配得到的特征点
Figure GDA0003502948760000098
之间就构成了误差项e。在这里定义空间中三维坐标点Pi,其在Ilast上的投影点为
Figure GDA0003502948760000099
点反向投影至Inow上得到点
Figure GDA00035029487600000910
Inow上和
Figure GDA00035029487600000911
匹配的坐标点为
Figure GDA00035029487600000912
设投影点
Figure GDA00035029487600000913
的图像坐标为
Figure GDA00035029487600000914
匹配点的图像坐标
Figure GDA00035029487600000915
Figure GDA00035029487600000916
故相机重投影误差定义为:
Figure GDA00035029487600000917
令三维空间Pi特征点坐标为[Xi,Yi,Zi],由针孔相机模型可知
Figure GDA00035029487600000918
的齐次坐标为:
Figure GDA00035029487600000919
综上所述,相机重投影误差ei的最终定义为:
Figure GDA00035029487600000920
其中
Figure GDA00035029487600000921
自动转换成其次坐标进行预算。最终通过对所有残差构造最小二乘并对
Figure GDA00035029487600000922
进行优化,具体的代价函数ε*为:
Figure GDA00035029487600000923
本发明中使用Levenberg-Marquadt算法对位姿状态
Figure GDA00035029487600000924
进行优化。最终能获得比较精准的定位位姿。
(6)使用MyntEye-D相机在移动机器人平台上的算法测试。
通过一系列对深度惯导相机的标定操作,得到如下相机参数:
Figure GDA0003502948760000101
然后在TurtleBoot2移动机器人平台上进行测试,首先将MyntEye-D相机固定在机器人中心,MyntEye-D相机中已经集成了RGB-D模块与IMU模块。接着将TurtleBoot2的串口控制线连接至笔记本USB口上,MyntEye-D也与笔记本USB口连接,其中TurtleBoot2移动机器人平台由自身的电池供电,MyntEye-D相机通过USB由笔记本供电。最终笔记本上开启TurtleBoot2遥控程序与MyntEye-D相机定位程序使移动机器人在实验室2.5m*7m的矩形过道上在移动机器人上运行一周同时将定位算法计算得到的位姿保存成TUM数据集的格式(三维坐标+四元数),最终将保存的数据在MatLab上绘制出XZ二维的平面坐标图,如图9所示。可以看出实际的轨迹基本符合实际场景的尺度,从而证明算法的可行性。实验结果表明无论在室内或室外环境中,均具有较高的定位精度和较强的鲁棒性。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.一种基于RGB-D相机与IMU信息融合的移动机器人定位方法,其特征在于,包括下述步骤:
(1)建立针孔相机模型,所述针孔相机模型用于明确实际采集的二维图像点与对应的空间中三维点的相机坐标的数学关系;
(2)建立IMU测量模型,确定IMU测量数据与状态参数速度、位姿、偏差的关系;
(3)基于针孔相机模型计算二维相机坐标,建立二维相机坐标与三维相机坐标的数学关系,基于结构光相机深度计算与基于特征点匹配的位姿变换计算,利用相机求解空间点深度信息的原理,从而恢复出空间点的三维信息,对于相机不同时刻的图像帧,假设在已知图像帧间多组匹配的三维空间点的情况下通过匹配点的信息求解两帧图像间的坐标变换K,t,从而迭代求解机器人的定位信息;
步骤(3)中,结构光相机深度计算与基于特征点匹配相机坐标变换的计算方法具体为:
所述对于结构光深度相机得到深度信息的原理公式为:
Figure FDA0003502948750000011
其中f为相机焦距,uL,uR为图像点在左右相机平面上的横轴的成像坐标轴,b为左右相机光心的距离即基线大小,z为待求点深度大小,即到相机平面的距离,结构相机中深度的计算实际由相机自身计算并输出结果,故深度z为已知信息;
所述基于特征点匹配的位姿变换计算具体为:
Figure FDA0003502948750000012
其中P表示空间点的世界坐标,p1,p2表示空间点投影到两个平面上的像素坐标,即匹配的特征点,z1,z2表示空间点到两个平面上的深度,K表示相机内参矩阵,R,t表示图像帧之间的旋转变换和平移变换,即通过多组匹配点求解图像帧间的旋转R和平移t;
(4)IMU预积分姿态解算以及IMU坐标系与相机坐标系的转换,IMU通过本身的测量计算出IMU中心在世界坐标的位姿,通过已知的IMU与相机的坐标变换,求解出初步的相机位姿,并以此来预测相机位姿,加速特征点匹配;
(5)通过特征点匹配求解出机器人位姿,由IMU测量解算出的IMU位姿加速特征点匹配,在匹配的基础上构建重投影误差进一步优化机器人位姿,最终获得精准的定位姿态;
步骤(5)中,相机重投影误差ei的最终定义为:
Figure FDA0003502948750000021
其中
Figure FDA0003502948750000022
为当前帧像素坐标的齐次坐标表示,[Xi,Yi,Zi,1]T为三维空间点世界坐标的齐次坐标表示方法,K为相机内参,
Figure FDA0003502948750000023
为最终需要优化的当前帧的世界坐标变化,通过对残差构造最小二乘并对
Figure FDA0003502948750000024
进行优化,其代价函数ε*为:
Figure FDA0003502948750000025
最终使用Levenberg-Marquadt算法对位姿状态
Figure FDA0003502948750000026
进行优化。
2.根据权利要求1所述基于RGB-D相机与IMU信息融合的移动机器人定位方法,其特征在于,步骤(1)中,使用MyntEye-D相机,根据其视角参数与畸变特性,将其建模成针孔模型,以下简称针孔相机模型,针孔相机模型表述为,在相机的视野范围内,三维空间中的一点P,其反射光线必通过相机光心,并在二维相机平面上成像为点P′,且P与P′符合如下数学转换关系:
Figure FDA0003502948750000027
其中P′表示像素坐标,
Figure FDA0003502948750000028
是像素坐标的齐次坐标表示形式;P是P′对应的三维空间点,
Figure FDA0003502948750000029
是在当前相机坐标系下的相机坐标,K是相机内参矩阵,K中的fx,fy,cx,cy是与相机焦距和相机中心位置相关的参数。
3.根据权利要求1所述基于RGB-D相机与IMU信息融合的移动机器人定位方法,其特征在于,步骤(2)中,所述IMU测量模型如下:
Figure FDA00035029487500000210
其中上标g表示陀螺仪,上标a表示加速度计,上标w表示在世界坐标系中,上标b表示IMU体坐标系,故有
Figure FDA00035029487500000211
表示为加速度计陀螺仪的测量值,ab,wb表示为加速度计陀螺仪的真实值,gw表示重力向量在世界坐标系中的表示,qbw表示IMU位姿旋转变换的四元数表示,ng,na表示陀螺仪加速度计测量的高斯白噪声,bg,ba表示陀螺仪加速度计的偏差,它们被建模成随机游走,其对时间的导数服从正态分布。
4.根据权利要求1所述基于RGB-D相机与IMU信息融合的移动机器人定位方法,其特征在于,步骤(4)中,由IMU测量值解算IMU世界坐标的方法,具体为:
Figure FDA0003502948750000031
其中
Figure FDA0003502948750000032
为i,j时刻相对世界坐标系的位置,Vj w,Vi w为i,j时刻相对世界坐标系的速度,
Figure FDA0003502948750000033
为i,j时刻相对世界坐标系的角度的四元数表示,中使用
Figure FDA0003502948750000034
Figure FDA0003502948750000035
为i时刻的陀螺仪和加速度计的真实值,Δt为两相邻IMU数据间的时间间隔。
CN201911367625.0A 2019-12-26 2019-12-26 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 Active CN111156998B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911367625.0A CN111156998B (zh) 2019-12-26 2019-12-26 一种基于rgb-d相机与imu信息融合的移动机器人定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911367625.0A CN111156998B (zh) 2019-12-26 2019-12-26 一种基于rgb-d相机与imu信息融合的移动机器人定位方法

Publications (2)

Publication Number Publication Date
CN111156998A CN111156998A (zh) 2020-05-15
CN111156998B true CN111156998B (zh) 2022-04-15

Family

ID=70558537

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911367625.0A Active CN111156998B (zh) 2019-12-26 2019-12-26 一种基于rgb-d相机与imu信息融合的移动机器人定位方法

Country Status (1)

Country Link
CN (1) CN111156998B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311685B (zh) * 2020-05-12 2020-08-07 中国人民解放军国防科技大学 一种基于imu与单目图像的运动场景重构无监督方法
CN114119885A (zh) * 2020-08-11 2022-03-01 中国电信股份有限公司 图像特征点匹配方法、装置及系统、地图构建方法及系统
CN112053383A (zh) * 2020-08-18 2020-12-08 东北大学 一种机器人实时定位的方法及装置
CN112033422B (zh) * 2020-08-28 2023-11-21 的卢技术有限公司 一种多传感器融合的slam方法
CN112229420A (zh) * 2020-08-31 2021-01-15 南京航空航天大学 一种用于飞机蒙皮对缝测量的线激光标定方法
CN112146647B (zh) * 2020-09-11 2022-11-15 珠海一微半导体股份有限公司 一种地面纹理的双目视觉定位方法及芯片
CN112734765B (zh) * 2020-12-03 2023-08-22 华南理工大学 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN112747746A (zh) * 2020-12-25 2021-05-04 珠海市一微半导体有限公司 基于单点tof的点云数据获取方法、芯片和移动机器人
CN112907742A (zh) * 2021-02-18 2021-06-04 湖南国科微电子股份有限公司 一种视觉同步定位与建图方法、装置、设备及介质
CN113776556A (zh) * 2021-05-30 2021-12-10 南京理工大学 基于数据融合的陀螺仪与相机相对位置矩阵标定方法
CN113340310B (zh) * 2021-07-08 2024-03-15 深圳市人工智能与机器人研究院 一种移动机器人台阶地形识别定位方法及相关装置
CN113624228B (zh) * 2021-07-26 2024-01-26 中国科学院上海微系统与信息技术研究所 一种图像传感器和加速度计的同步标定装置及方法
CN113610149B (zh) * 2021-08-05 2024-03-26 上海氢枫能源技术有限公司 氢气压缩机的位姿实时显示方法及系统
CN113834488B (zh) * 2021-11-25 2022-03-25 之江实验室 基于结构光阵列远程识别的机器人空间姿态解算方法
CN114252073B (zh) * 2021-11-25 2023-09-15 江苏集萃智能制造技术研究所有限公司 一种机器人姿态数据融合方法
CN115423758B (zh) * 2022-08-15 2023-07-11 山东电力建设第三工程有限公司 一种全场精细化dni预测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及系统
CN109166149A (zh) * 2018-08-13 2019-01-08 武汉大学 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN109540126A (zh) * 2018-12-03 2019-03-29 哈尔滨工业大学 一种基于光流法的惯性视觉组合导航方法
CN109648558A (zh) * 2018-12-26 2019-04-19 清华大学 机器人曲面运动定位方法及其运动定位系统
CN109993113A (zh) * 2019-03-29 2019-07-09 东北大学 一种基于rgb-d和imu信息融合的位姿估计方法
CN110009681A (zh) * 2019-03-25 2019-07-12 中国计量大学 一种基于imu辅助的单目视觉里程计位姿处理方法
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
CN110375738A (zh) * 2019-06-21 2019-10-25 西安电子科技大学 一种融合惯性测量单元的单目同步定位与建图位姿解算方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及系统
CN109166149A (zh) * 2018-08-13 2019-01-08 武汉大学 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN109540126A (zh) * 2018-12-03 2019-03-29 哈尔滨工业大学 一种基于光流法的惯性视觉组合导航方法
CN109648558A (zh) * 2018-12-26 2019-04-19 清华大学 机器人曲面运动定位方法及其运动定位系统
CN110009681A (zh) * 2019-03-25 2019-07-12 中国计量大学 一种基于imu辅助的单目视觉里程计位姿处理方法
CN109993113A (zh) * 2019-03-29 2019-07-09 东北大学 一种基于rgb-d和imu信息融合的位姿估计方法
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
CN110375738A (zh) * 2019-06-21 2019-10-25 西安电子科技大学 一种融合惯性测量单元的单目同步定位与建图位姿解算方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
四旋翼飞行器滤波法视觉惯导里程计的研究;万旭东;《中国优秀硕士学位论文全文数据库工程科技II辑》;20190815(第8期);1-106 *
基于单目视觉融合惯导的定位技术研究;皮金柱;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20191215(第12期);1-80 *
多位姿信息融合的双目视觉惯性里程计研究;王延东;《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》;20190815(第8期);1-132 *

Also Published As

Publication number Publication date
CN111156998A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN109887057B (zh) 生成高精度地图的方法和装置
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
CN109885080B (zh) 自主控制系统及自主控制方法
CN112347840A (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN106017463A (zh) 一种基于定位传感装置的飞行器定位方法
CN107909614B (zh) 一种gps失效环境下巡检机器人定位方法
CN108170297B (zh) 实时六自由度vr/ar/mr设备定位方法
CN113551665B (zh) 一种用于运动载体的高动态运动状态感知系统及感知方法
CN112734765A (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
Ramezani et al. Omnidirectional visual-inertial odometry using multi-state constraint Kalman filter
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
Veth et al. Stochastic constraints for efficient image correspondence search
CN113674412B (zh) 基于位姿融合优化的室内地图构建方法、系统及存储介质
Hinzmann et al. Flexible stereo: constrained, non-rigid, wide-baseline stereo vision for fixed-wing aerial platforms
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN114608554A (zh) 一种手持slam设备以及机器人即时定位与建图方法
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
Irmisch et al. Simulation framework for a visual-inertial navigation system
Aminzadeh et al. Implementation and performance evaluation of optical flow navigation system under specific conditions for a flying robot
CN114529585A (zh) 基于深度视觉和惯性测量的移动设备自主定位方法
Hou et al. A Loosely-Coupled GNSS-Visual-Inertial Fusion for State Estimation Based On Optimation
Mansour et al. Depth estimation with ego-motion assisted monocular camera
Schmitt et al. Estimation of the absolute camera pose for environment recognition of industrial robotics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant