CN110706279B - 基于全局地图与多传感器信息融合的全程位姿估计方法 - Google Patents

基于全局地图与多传感器信息融合的全程位姿估计方法 Download PDF

Info

Publication number
CN110706279B
CN110706279B CN201910923232.7A CN201910923232A CN110706279B CN 110706279 B CN110706279 B CN 110706279B CN 201910923232 A CN201910923232 A CN 201910923232A CN 110706279 B CN110706279 B CN 110706279B
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
coordinate system
global
vio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910923232.7A
Other languages
English (en)
Other versions
CN110706279A (zh
Inventor
孟子阳
郝运
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910923232.7A priority Critical patent/CN110706279B/zh
Publication of CN110706279A publication Critical patent/CN110706279A/zh
Application granted granted Critical
Publication of CN110706279B publication Critical patent/CN110706279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Abstract

本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,涉及导航领域。该方法首先搭建包含各传感器的无人机系统;对传感器进行标定,获得每个传感器对应参数,并对无人机系统进行初始化;利用各传感器获得载体无人机当前所处位姿的量测信息,并利用视觉惯性里程计VIO系统的图像信息构造并维护局部地图;构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机系统对应VIO系统每一当前帧的最优状态变量,并更新当前帧下局部坐标系和全局坐标系间的转换关系,将局部地图转换为全局地图。本发明能够利用全局优化的方式将无人机搭载的所有传感器的量测和全局地图信息进行融合,提升无人机系统位姿估计的准确性和可靠性。

Description

基于全局地图与多传感器信息融合的全程位姿估计方法
技术领域
本发明涉及导航领域,具体涉及一种基于全局地图与多传感器信息融合的全程位姿估计方法。
背景技术
在自动驾驶、搜救、侦查等领域,对无人系统的需求日益提升,而无人系统的定位问题是其中的基础。目前,存在很多采用相机和激光雷达等传感器进行无人系统的局部位姿估计的技术,并且其中也有和IMU(惯性测量单元)结合形成的组合导航系统,它们在局部区域内可以实现对无人系统精确的位姿估计。例如,慕尼黑工业大学于2014年提出的LSD-SLAM(基于直接法的大范围单目即时定位和地图构建方法)基于直接法实现大规模环境下的位姿确定和地图构建;苏黎世联邦理工学院于2015年提出的ROVIO(鲁棒的视觉惯性里程计)算法,是一种基于卡尔曼滤波算法的单目视觉惯性里程计。但是上述的方式在实际应用中仍然存在一些缺陷,一是没有固定的全局参考,即在相同环境下,从不同的起点出发也可能得到不同的位姿估计结果,不利于之后的重复利用;二是缺少全局度量,局部估计随着时间推移容易产生漂移,使得长时间、大区域的局部估计不够准确。
GPS、磁强计和气压计等传感器不依赖于局部参考系,可以得到系统的全局测量,这些测量是不存在漂移的。但是由于传感器的特性,上述传感器的测量结果是存在噪声的,不能用于精确的控制和导航。例如GPS的测量精度在米级,并且测量频率较低且不连续。因此考虑不同传感器的特点,将传感器信息进行融合的结果会有更好的效果和性能。
而在一些较为恶劣的环境中,例如GPS工作时断时续,磁场或气压不够稳定等条件下,利用已存在的全局地图信息可以结合其他所有传感器的量测结果可以提供更为精确的全局位姿估计。
目前,常用的多传感器信息融合方法采用滤波方式。2013年,苏黎世联邦理工学院自动化系统实验室提出了一种基于扩展卡尔曼滤波算法的多传感器融合框架;2014年,香港科技大学也提出了一种基于无迹卡尔曼滤波的多传感器融合方法。但滤波算法需要相对较为准确的初始值预测,以及滤波算法对时间同步较为敏感,迟到的测量量会使得整个结果不够准确,而采用基于优化的方法会得到更有效准确的结果。2018年,香港科技大学提出一种多传感器融合框架,采用VINS-MONO(一种鲁棒通用的单目视觉惯性状态估计器)的输出和GPS、磁强计等传感器的输出进行融合,利用因子图优化的方式得到无人系统的位姿估计结果,但是该方法在整个过程中没有考虑全局坐标系和局部坐标系之间的对齐问题,并且在某些传感器失效的情况下,结果的准确性并不够可靠。
发明内容
本发明的目的是为克服已有技术的不足之处,提出一种基于全局地图与多传感器信息融合的全程位姿估计方法。本发明能够利用全局优化的方式将无人机搭载的所有传感器的量测和全局地图信息进行融合,而全局地图的存在可以在其他传感器失效的情况下对无人机系统载体进行位姿估计,提升无人机系统位姿估计的准确性和可靠性。
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,其特征在于,包括以下步骤:
1)搭建包含各传感器的无人机系统;具体方法为:选定一台无人机,在无人机上分别搭载各传感器,包括:视觉惯性里程计VIO系统、GPS、磁强计和气压计;其中,所述VIO系统包含相机和惯性测量单元IMU,相机镜头方向与无人机前进方向一致;
2)在步骤1)搭建完毕的无人机系统中,对各传感器进行标定,分别获得每个传感器对应的参数,包括:相机的内外参矩阵,IMU的内参数和测量噪声,相机坐标系和IMU坐标系之间的相对位姿关系,磁强计噪声和气压计噪声;
标定完成后,对无人机系统进行初始化,包括:对各传感器信息输出的时间对齐,确定各传感器坐标系和载体无人机坐标系之间的位姿关系,确定无人机系统初始状态下的基帧变换矩阵;其中,全局坐标系为东北天ENU坐标系,局部坐标系为VIO系统第一帧图像所对应的相机位姿,VIO系统的本体坐标系即为无人机系统的本体坐标系;
3)利用各传感器获得载体无人机当前所处位姿的量测信息,并利用VIO系统得到的图像信息构造并维护局部地图;
选用局部坐标系下的无人机系统的状态变量为:
Figure GDA0003033055340000021
Figure GDA0003033055340000022
其中,χl为局部坐标系下的无人机系统状态变量,n为VIO系统的滑动窗口的大小,χt为载体无人机在VIO系统第t帧图像时对应的状态变量,
Figure GDA0003033055340000023
为无人机在VIO系统第t帧图像时的位置,
Figure GDA0003033055340000024
为无人机在VIO系统第t帧图像时的速度,
Figure GDA0003033055340000025
为无人机在VIO系统第t帧图像时的姿态,上标l表示状态变量为相对于局部坐标系所得,ba为IMU中加速度计的噪声,bg为IMU中陀螺仪的噪声;
在相机帧中观测到特征之后,以
Figure GDA0003033055340000031
表示特征点i在局部坐标系中的三维坐标,m为路标点的个数;
最终对VIO系统在局部坐标系下的位姿估计,即无人机系统在局部坐标系下的位姿估计,为如下非线性最小二乘问题:
Figure GDA0003033055340000032
其中,rB和rC分别代表惯性测量的误差和视觉测量的误差,WB为惯性测量的协方差,WC为视觉测量的协方差;对该非线性最小二乘问题求解,得到VIO系统在局部坐标系中6自由度位姿实时估计,将四元数
Figure GDA0003033055340000033
转换为旋转矩阵
Figure GDA0003033055340000034
则VIO系统的位姿估计表示为
Figure GDA0003033055340000035
4)构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机对应VIO系统当前帧的最优状态变量;具体步骤如下:
4-1)将VIO系统第t帧图像记为当前帧,选择全局坐标系下无人机系统状态变量
Figure GDA0003033055340000036
为在全局坐标系下对应VIO系统第t帧图像的无人机位姿,其中
Figure GDA0003033055340000037
表示VIO系统第t帧图像下无人机在全局坐标系下的位置,
Figure GDA0003033055340000038
表示VIO系统第t帧图像下无人机在全局坐标系下的姿态,上标w表示相对于全局坐标系;
4-2)以状态变量xt为因子图变量节点,以无人机系统上搭载的各传感器获得的测量信息和由全局地图获得无人机的位姿信息为因子图因子节点,构建多传感器信息融合框架;
4-3)在所有传感器测量均为独立,且噪声满足高斯分布的条件下,将无人机系统在全局坐标系下的状态估计问题描述为:
Figure GDA0003033055340000039
其中,
Figure GDA00030330553400000310
为无人机在全局坐标系下的最优状态变量,
Figure GDA00030330553400000311
S为各传感器量测集合,k为不同传感器的量测,z为测量值,
Figure GDA00030330553400000312
为根据状态变量xt得到的估计值,
Figure GDA00030330553400000313
为方差,下标t代表第t帧;
4-4)构建因子图因子节点表达式;
4-4-1)GPS因子:
VIO系统第t帧图像对应的在全局坐标系下的GPS量测为:
Figure GDA0003033055340000041
其中,
Figure GDA0003033055340000042
代表VIO系统第t帧图像对应的GPS的量测,
Figure GDA0003033055340000043
为无人机由GPS量测
Figure GDA0003033055340000044
得到的在全局坐标系下的三维坐标;
则VIO系统第t帧图像对应的GPS因子表示为:
Figure GDA0003033055340000045
4-4-2)磁强计因子:
通过查表得到在全局坐标系下局部区域的磁场强度zw,根据当前帧对应的磁场量测
Figure GDA0003033055340000046
得到磁强计因子表示为:
Figure GDA0003033055340000047
其中,
Figure GDA0003033055340000048
为磁强计和本体坐标系之间的坐标转换关系,
Figure GDA0003033055340000049
为当前帧相对于全局坐标系的坐标转换关系,上标m代表磁强计;
4-4-3)气压计因子:
令同一高度气压恒定,根据当前帧对应的高度测量值
Figure GDA00030330553400000410
将气压计因子表示为:
Figure GDA00030330553400000411
其中,h代表气压计;
4-4-4)全局地图因子:
全局地图因子为将特征点像素坐标与全局地图点云中对应的3D点按照当前估计的位姿进行投影所得到的位置相比较得到的误差,称为重投影误差,具体表达式为:
Figure GDA00030330553400000412
其中,
Figure GDA00030330553400000413
为当前帧对应的特征点像素坐标,ui为第i个特征点的像素坐标,Π(·)为相机投影函数,
Figure GDA00030330553400000414
为第i个特征点在全局坐标系下的三维坐标,s为特征点个数;
其中,
Figure GDA00030330553400000415
Figure GDA00030330553400000416
经过基帧变换矩阵变换得到,利用VIO系统第t-1帧图像下基帧变换矩阵
Figure GDA0003033055340000051
将局部地图转换为全局地图,即
Figure GDA0003033055340000052
式中
Figure GDA0003033055340000053
Figure GDA0003033055340000054
Figure GDA0003033055340000055
Figure GDA0003033055340000056
分别对应的齐次坐标;
当t=1时,基帧变换矩阵为步骤2)得到的的无人机系统初始状态下的基帧变换矩阵;
4-5)将因子图因子节点表达式代入式(1)进行求解,得到无人机系统对应VIO系统第t帧图像的最优状态变量,输出在当前帧下对无人机系统的全局位姿估计结果wTt
5)进行基帧变换,得到当前帧下局部坐标系和全局坐标系之间的转换关系,将局部地图转换为全局地图;
根据步骤4)的结果得到VIO系统第t帧图像下无人机系统在全局坐标系下的位姿wTt,利用VIO系统得到无人机系统在局部坐标系下的位姿lTt,则第t帧时基帧变换描述为:
wTt lwTt·(lTt)-1
6)当相机获取第t+1帧图像时,令t=t+1,将该图像作为新的当前帧,然后重新返回步骤3)。
本发明的特点及有益效果:
本发明提出的基于全局地图与多传感器信息融合的全程位姿估计方法,能够利用全局优化的方式将传感器测量量和全局地图信息进行融合,保证无人机系统精确的全局位姿估计。在某些传感器(比如GPS)信号较差甚至失效的条件下,全局地图依然能够为无人机系统提供准确的全局位姿。在极端环境或需要频繁往复观测的环境下,比如扫地机器人反复清扫或是战场上强干扰等环境下,系统具有较高的精度和鲁棒性。
附图说明
图1是本发明方法的总体流程图;
图2是本发明一个实施例的因子图示例图;
图3是本发明一个实施例的包含全部变量节点的因子图示例图;
图4是本发明的工作原理图。
具体实施方式
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,下面结合附图和具体实施例对本发明的技术方案做进一步的说明。
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,整体流程如图1所示,包括以下步骤:
1)搭建包含各传感器的无人机系统,具体方法为:选定一台无人机(可采用常规型号),在无人机上分别搭载各传感器,包括:VIO(视觉惯性里程计)系统、GPS、磁强计和气压计;其中,所述VIO系统包含相机和IMU(惯性测量单元),相机镜头方向与无人机前进方向一致,VIO系统、GPS磁强计、气压计均可以集成在无人机的飞控板上。所述VIO系统、GPS、磁强计和气压计均可采用常规型号部件,VIO系统、GPS、磁强计和气压计的重量总和不超过无人机的额定载荷;
2)在步骤1)搭建完毕的无人机系统中,对各传感器进行标定,分别获得每个传感器对应的参数。包括:相机的内外参矩阵,IMU的内参数和测量噪声,相机坐标系和IMU坐标系之间的相对位姿关系,磁强计和气压计的噪声。其中,相机、IMU、GPS等已有成熟的标定方法,比如相机的张正友标定法、IMU的误差分析标定法等。
标定完成后,对无人机系统进行初始化,包括:对各传感器信息输出的时间对齐,确定各传感器坐标系和载体(即无人机)坐标系之间的位姿关系,确定无人机系统初始状态下的基帧变换矩阵(局部坐标系和全局坐标系之间的变换矩阵);
具体地,考虑载体为无人机,各传感器已经通过标定获得各项参数,全局坐标系为ENU(东北天)坐标系,局部坐标系为VIO系统第一帧图像所对应的相机位姿,且认为VIO系统的本体坐标系即为无人机系统的本体坐标系。
3)利用各传感器获得载体当前所处位姿的量测信息,并利用VIO系统得到的图像信息构造并维护局部地图;
具体地,目前已存在成熟的VIO系统可以为载体提供无人机的局部位姿和局部地图。采用苏黎世联邦理工学院提出的OKVIS(基于关键帧的视觉惯性同步定位和建图方法),选用局部坐标系下的状态变量为:
Figure GDA0003033055340000061
Figure GDA0003033055340000062
其中,χl为局部坐标系下的无人机系统状态变量,n为VIO系统的滑动窗口的大小,χt为载体(无人机)在VIO系统第t帧图像时对应的状态变量,
Figure GDA0003033055340000063
为为载体在VIO系统第t帧图像时的位置,
Figure GDA0003033055340000064
为为载体在VIO系统第t帧图像时的速度,
Figure GDA0003033055340000065
为为载体在VIO系统第t帧图像时的姿态,上标l表示状态变量为相对于局部坐标系所得,ba为IMU中加速度计的噪声,bg为IMU中陀螺仪的噪声。一般来说,IMU第一次测量所得的相机位姿被设定为局部坐标系。在相机帧中观测到特征之后,以
Figure GDA0003033055340000066
表示特征点i在局部坐标系中的三维坐标,m为路标点(路标点即为二维特征点转化为三维形式的点)的个数。最终对VIO系统在局部坐标系下的位姿估计,即无人机系统在局部坐标系下的位姿估计,可以看做如下非线性最小二乘问题:
Figure GDA0003033055340000071
其中,rB和rC分别代表惯性测量的误差和视觉测量的误差,WB为惯性测量的协方差,WC为视觉测量的协方差。对该非线性最小二乘问题求解,得到VIO系统在局部坐标系中6自由度位姿实时估计,将四元数
Figure GDA0003033055340000072
转换为旋转矩阵
Figure GDA0003033055340000073
那么VIO系统的位姿估计可以表示为
Figure GDA0003033055340000074
并且VIO系统可以实现局部地图的构造和维护。
4)构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机对应VIO系统当前帧的最优状态变量;
具体地,本实施例中因子图构建示例图如图2所示。图中,xt为变量节点,表示无人机系统在全局坐标系下的状态变量;GPS、磁强计、气压计的量测信息以及根据全局地图得到的量测信息为因子节点,因子节点和变量节点之间有边相连,从而可构建基于因子图的多传感器信息融合框架。图3所示即为本发明实施例中由全部变量节点构成的因子图示例图。
具体步骤如下:
4-1)将VIO系统第t帧图像记为当前帧,选择全局坐标系下无人机系统状态变量
Figure GDA0003033055340000075
为在全局坐标系下对应VIO系统第t帧图像的载体位姿,其中
Figure GDA0003033055340000076
表示VIO系统第t帧图像下无人机在全局坐标系下的位置,
Figure GDA0003033055340000077
表示VIO系统第t帧图像下无人机在全局坐标系下的姿态,上标w表示相对于全局坐标系;
4-2)以状态变量xt为因子图变量节点,以无人机系统上搭载的各传感器获得的测量信息和由全局地图获得无人机的位姿信息为因子图因子节点,构建多传感器信息融合框架;
4-3)在所有传感器测量均为独立,且噪声满足高斯分布的条件下,将无人机系统在全局坐标系下的状态估计问题描述为:
Figure GDA0003033055340000078
其中,
Figure GDA0003033055340000081
为无人机在全局坐标系下的最优状态变量,
Figure GDA0003033055340000082
式中S为各传感器量测集合,k为不同传感器的量测,z为测量值,
Figure GDA0003033055340000083
为根据状态变量xt得到的估计值,
Figure GDA0003033055340000084
为方差,下标t代表第t帧。
4-4)构建因子图因子节点表达式;
具体地,在步骤4-5)中,各因子图因子节点表达式如下:
4-4-1)GPS因子:
以使用ENU坐标为例,得到VIO系统第t帧图像对应的在ENU全局坐标系下的GPS量测为:
Figure GDA0003033055340000085
其中,
Figure GDA0003033055340000086
代表VIO系统第t帧图像对应的GPS的量测,
Figure GDA0003033055340000087
为载体由GPS量测
Figure GDA0003033055340000088
得到的在全局坐标系下的三维坐标;
则VIO系统第t帧图像对应的GPS因子可以表示为:
Figure GDA0003033055340000089
4-4-2)磁强计因子:
假设磁强计已经校准且没有误差,通过查表得到在ENU坐标系下局部区域的磁场强度zw并假设为恒定。根据当前帧对应的磁场测量量
Figure GDA00030330553400000810
可以得到磁强计因子可以表示为:
Figure GDA00030330553400000811
其中,
Figure GDA00030330553400000812
为当前帧对应的特征点像素坐标,ui为第i个特征点的像素坐标,Π(·)为相机投影函数,
Figure GDA00030330553400000813
为第i个特征点在全局坐标系下的三维坐标,,s为特征点个数
4-4-3)气压计因子:
假设同一高度气压恒定,根据当前帧对应的高度测量值
Figure GDA00030330553400000814
可以将气压计因子表示为:
Figure GDA00030330553400000815
其中,h代表气压计。
4-4-4)全局地图因子:
全局地图因子为将特征点像素坐标与全局地图点云中对应的3D点按照当前估计的位姿进行投影所得到的位置相比较得到的误差,称为重投影误差,具体表达式为:
Figure GDA0003033055340000091
其中,
Figure GDA0003033055340000092
为当前帧对应的特征点像素坐标,ui为第i个特征点的像素坐标,Π(·)为相机投影函数,由相机标定过程确定,
Figure GDA0003033055340000093
为第i个特征点在全局坐标系下的三维坐标,n为特征点个数;
具体地,
Figure GDA0003033055340000094
Figure GDA0003033055340000095
经过基帧变换矩阵变换得到,在步骤2)中,利用VIO系统得到的图像信息构造并维护局部地图,其中局部地图的三维点坐标即为
Figure GDA0003033055340000096
利用上一个周期(即VIO系统第t-1帧图像下)步骤5)所求得的基帧变换矩阵
Figure GDA0003033055340000097
可以将局部地图转换为全局地图,即
Figure GDA0003033055340000098
式中
Figure GDA0003033055340000099
Figure GDA00030330553400000910
Figure GDA00030330553400000911
Figure GDA00030330553400000912
分别对应的齐次坐标。
当t=1时,基帧变换矩阵为步骤2)得到的的无人机系统初始状态下的基帧变换矩阵。
4-5)将因子图因子节点表达式代入式(1),进行求解,即可求得无人机系统对应VIO系统第t帧图像的最优状态变量,即输出在当前帧下对无人机系统的全局位姿估计结果。
具体地,采用Google Ceres Solver库对此因子优化问题进行求解,得到当前帧对应的无人机系统最优位姿估计结果。
5)进行基帧变换,得到当前帧下局部坐标系和全局坐标系之间的转换关系,将局部地图转换为全局地图;
具体地,根据步骤4)的结果,可以得到VIO系统第t帧图像下无人机系统在全局坐标系下的位姿wTt,利用VIO系统得到无人机系统在局部坐标系下的位姿lTt,则第t帧时基帧变换可以描述为:
wTt lwTt·(lTt)-1
利用上述关系即可将当前帧下局部地图转换为全局地图。
6)当相机获取新的一帧图像(t+1帧)时,将该新的图像作为新的当前帧(第t帧),然后重新返回步骤3);当t大于n时,保留状态变量xt与其之前的n-1个状态变量共同作为滑动窗口中的状态变量,并按照先后顺序重新对保留的n个状态变量更新下标为1到n,此时有t=n,同理在步骤3)中也应为保留状态变量χt与其之前的n-1个状态变量共同作为滑动窗口中的状态变量,并按照先后顺序重新对保留的n个状态变量更新下标为1到n。
本发明的整体工作原理如图4所示,各传感器和通过全局地图获得的量测信息分别输入至主要VIO系统和全局位姿估计器,VIO系统输出局部地图和局部位姿,全局位姿估计器输出全局位姿,也是所需求的系统输出,利用全局位姿和局部位姿求得基帧变换矩阵,将局部地图转换为全局地图服务于下一帧的无人机系统的全局位姿估计。
根据本发明提出的基于全局地图与多传感器信息融合的全程位姿估计方法,能够利用全局优化的方式将所有传感器的测量量进行融合,而全局地图的存在可以在其他传感器失效的情况下对载体进行位姿估计,提升位姿估计的准确性和可靠性。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (1)

1.一种基于全局地图与多传感器信息融合的全程位姿估计方法,其特征在于,包括以下步骤:
1)搭建包含各传感器的无人机系统;具体方法为:选定一台无人机,在无人机上分别搭载各传感器,包括:视觉惯性里程计VIO系统、GPS、磁强计和气压计;其中,所述VIO系统包含相机和惯性测量单元IMU,相机镜头方向与无人机前进方向一致;
2)在步骤1)搭建完毕的无人机系统中,对各传感器进行标定,分别获得每个传感器对应的参数,包括:相机的内外参矩阵,IMU的内参数和测量噪声,相机坐标系和IMU坐标系之间的相对位姿关系,磁强计噪声和气压计噪声;
标定完成后,对无人机系统进行初始化,包括:对各传感器信息输出的时间对齐,确定各传感器坐标系和载体无人机坐标系之间的位姿关系,确定无人机系统初始状态下的基帧变换矩阵;其中,全局坐标系为东北天ENU坐标系,局部坐标系为VIO系统第一帧图像所对应的相机位姿,VIO系统的本体坐标系即为无人机系统的本体坐标系;
3)利用各传感器获得载体无人机当前所处位姿的量测信息,并利用VIO系统得到的图像信息构造并维护局部地图;
选用局部坐标系下的无人机系统的状态变量为:
Figure FDA0002972659290000011
Figure FDA0002972659290000012
其中,χl为局部坐标系下的无人机系统状态变量,n为VIO系统的滑动窗口的大小,χt为载体无人机在VIO系统第t帧图像时对应的状态变量,
Figure FDA0002972659290000013
为无人机在VIO系统第t帧图像时的位置,
Figure FDA0002972659290000014
为无人机在VIO系统第t帧图像时的速度,
Figure FDA0002972659290000015
为无人机在VIO系统第t帧图像时的姿态,上标l表示状态变量为相对于局部坐标系所得,ba为IMU中加速度计的噪声,bg为IMU中陀螺仪的噪声;
在相机帧中观测到特征之后,以
Figure FDA0002972659290000016
表示特征点i在局部坐标系中的三维坐标,m为路标点的个数;
最终对VIO系统在局部坐标系下的位姿估计,即无人机系统在局部坐标系下的位姿估计,为如下非线性最小二乘问题:
Figure FDA0002972659290000017
其中,rB和rC分别代表惯性测量的误差和视觉测量的误差,WB为惯性测量的协方差,WC为视觉测量的协方差;对该非线性最小二乘问题求解,得到VIO系统在局部坐标系中6自由度位姿实时估计,将四元数
Figure FDA0002972659290000021
转换为旋转矩阵
Figure FDA0002972659290000022
则VIO系统的位姿估计表示为
Figure FDA0002972659290000023
4)构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机对应VIO系统当前帧的最优状态变量;具体步骤如下:
4-1)将VIO系统第t帧图像记为当前帧,选择全局坐标系下无人机系统状态变量
Figure FDA0002972659290000024
为在全局坐标系下对应VIO系统第t帧图像的无人机位姿,其中
Figure FDA0002972659290000025
表示VIO系统第t帧图像下无人机在全局坐标系下的位置,
Figure FDA0002972659290000026
表示VIO系统第t帧图像下无人机在全局坐标系下的姿态,上标w表示相对于全局坐标系;
4-2)以状态变量xt为因子图变量节点,以无人机系统上搭载的各传感器获得的测量信息和由全局地图获得无人机的位姿信息为因子图因子节点,构建多传感器信息融合框架;
4-3)在所有传感器测量均为独立,且噪声满足高斯分布的条件下,将无人机系统在全局坐标系下的状态估计问题描述为:
Figure FDA0002972659290000027
其中,
Figure FDA0002972659290000028
为无人机在全局坐标系下的最优状态变量,
Figure FDA0002972659290000029
S为各传感器量测集合,k为不同传感器的量测,z为测量值,
Figure FDA00029726592900000210
为根据状态变量xt得到的估计值,
Figure FDA00029726592900000211
为方差,下标t代表第t帧;
4-4)构建因子图因子节点表达式;
4-4-1)GPS因子:
VIO系统第t帧图像对应的在全局坐标系下的GPS量测为:
Figure FDA00029726592900000212
其中,
Figure FDA00029726592900000213
代表VIO系统第t帧图像对应的GPS的量测,
Figure FDA00029726592900000214
为无人机由GPS量测
Figure FDA00029726592900000215
得到的在全局坐标系下的三维坐标;
则VIO系统第t帧图像对应的GPS因子表示为:
Figure FDA0002972659290000031
4-4-2)磁强计因子:
通过查表得到在全局坐标系下局部区域的磁场强度zw,根据当前帧对应的磁场量测
Figure FDA0002972659290000032
得到磁强计因子表示为:
Figure FDA0002972659290000033
其中,
Figure FDA0002972659290000034
为磁强计和本体坐标系之间的坐标转换关系,
Figure FDA0002972659290000035
为当前帧相对于全局坐标系的坐标转换关系,上标m代表磁强计;
4-4-3)气压计因子:
令同一高度气压恒定,根据当前帧对应的高度测量值
Figure FDA0002972659290000036
将气压计因子表示为:
Figure FDA0002972659290000037
其中,h代表气压计;
4-4-4)全局地图因子:
全局地图因子为将特征点像素坐标与全局地图点云中对应的3D点按照当前估计的位姿进行投影所得到的位置相比较得到的误差,称为重投影误差,具体表达式为:
Figure FDA0002972659290000038
其中,
Figure FDA0002972659290000039
为当前帧对应的特征点像素坐标,ui为第i个特征点的像素坐标,Π(·)为相机投影函数,
Figure FDA00029726592900000310
为第i个特征点在全局坐标系下的三维坐标,s为特征点个数;
其中,
Figure FDA00029726592900000311
Figure FDA00029726592900000312
经过基帧变换矩阵变换得到,利用VIO系统第t-1帧图像下基帧变换矩阵
Figure FDA00029726592900000313
将局部地图转换为全局地图,即
Figure FDA00029726592900000314
式中
Figure FDA00029726592900000315
Figure FDA00029726592900000316
Figure FDA00029726592900000317
Figure FDA00029726592900000318
分别对应的齐次坐标;
当t=1时,基帧变换矩阵为步骤2)得到的的无人机系统初始状态下的基帧变换矩阵;
4-5)将因子图因子节点表达式代入式(1)进行求解,得到无人机系统对应VIO系统第t帧图像的最优状态变量,输出在当前帧下对无人机系统的全局位姿估计结果wTt
5)进行基帧变换,得到当前帧下局部坐标系和全局坐标系之间的转换关系,将局部地图转换为全局地图;
根据步骤4)的结果得到VIO系统第t帧图像下无人机系统在全局坐标系下的位姿wTt,利用VIO系统得到无人机系统在局部坐标系下的位姿lTt,则第t帧时基帧变换描述为:
wTt lwTt·(lTt)-1
6)当相机获取第t+1帧图像时,令t=t+1,将该图像作为新的当前帧,然后重新返回步骤3)。
CN201910923232.7A 2019-09-27 2019-09-27 基于全局地图与多传感器信息融合的全程位姿估计方法 Active CN110706279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910923232.7A CN110706279B (zh) 2019-09-27 2019-09-27 基于全局地图与多传感器信息融合的全程位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910923232.7A CN110706279B (zh) 2019-09-27 2019-09-27 基于全局地图与多传感器信息融合的全程位姿估计方法

Publications (2)

Publication Number Publication Date
CN110706279A CN110706279A (zh) 2020-01-17
CN110706279B true CN110706279B (zh) 2021-09-07

Family

ID=69198211

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910923232.7A Active CN110706279B (zh) 2019-09-27 2019-09-27 基于全局地图与多传感器信息融合的全程位姿估计方法

Country Status (1)

Country Link
CN (1) CN110706279B (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111258313B (zh) * 2020-01-20 2022-06-07 深圳市普渡科技有限公司 多传感器融合slam系统及机器人
CN111272192A (zh) * 2020-02-11 2020-06-12 清华大学 用于滑移转向机器人的联合位姿确定方法及装置
CN111366153B (zh) * 2020-03-19 2022-03-15 浙江大学 一种激光雷达与imu紧耦合的定位方法
CN111707275B (zh) * 2020-05-12 2022-04-29 驭势科技(北京)有限公司 一种定位方法、装置、电子设备及计算机可读存储介质
CN111797688A (zh) * 2020-06-02 2020-10-20 武汉大学 一种基于光流和语义分割的视觉slam方法
CN111805535B (zh) * 2020-06-11 2022-06-07 浙江大华技术股份有限公司 一种定位导航方法、装置以及计算机存储介质
CN113819914A (zh) * 2020-06-19 2021-12-21 北京图森未来科技有限公司 一种地图构建方法及装置
CN112304307A (zh) * 2020-09-15 2021-02-02 浙江大华技术股份有限公司 一种基于多传感器融合的定位方法、装置和存储介质
CN114322996B (zh) * 2020-09-30 2024-03-19 阿里巴巴集团控股有限公司 一种多传感器融合定位系统的位姿优化方法和装置
CN112268559B (zh) * 2020-10-22 2023-03-28 中国人民解放军战略支援部队信息工程大学 复杂环境下融合slam技术的移动测量方法
CN112305576A (zh) * 2020-10-31 2021-02-02 中环曼普科技(南京)有限公司 一种多传感器融合的slam算法及其系统
CN112577494B (zh) * 2020-11-13 2022-11-18 上海航天控制技术研究所 一种适用于月球车的slam方法、电子设备及存储介质
CN112097768B (zh) * 2020-11-17 2021-03-02 深圳市优必选科技股份有限公司 机器人位姿的确定方法、装置、机器人及存储介质
CN112446905B (zh) * 2021-01-29 2021-05-11 中国科学院自动化研究所 基于多自由度传感关联的三维实时全景监控方法
CN112914731A (zh) * 2021-03-08 2021-06-08 上海交通大学 基于增强现实的介入机器人无接触遥操系统及标定方法
CN113204039A (zh) * 2021-05-07 2021-08-03 深圳亿嘉和科技研发有限公司 一种应用于机器人的rtk-gnss外参标定方法
CN113340295B (zh) * 2021-06-16 2021-12-21 广东工业大学 一种多个测距传感器的无人艇近岸实时定位与建图方法
CN114088104B (zh) * 2021-07-23 2023-09-29 武汉理工大学 一种自动驾驶场景下的地图生成方法
CN113776543B (zh) * 2021-07-27 2023-11-28 武汉中海庭数据技术有限公司 一种车辆融合定位方法、系统、电子设备及存储介质
CN113587934B (zh) * 2021-07-30 2024-03-19 深圳市普渡科技有限公司 一种机器人、室内定位方法、装置和可读存储介质
CN113628284B (zh) * 2021-08-10 2023-11-17 深圳市人工智能与机器人研究院 位姿标定数据集生成方法、装置、系统、电子设备及介质
CN113625774B (zh) * 2021-09-10 2023-07-21 天津大学 局部地图匹配与端到端测距多无人机协同定位系统和方法
CN114001733B (zh) * 2021-10-28 2024-03-15 浙江大学 一种基于地图的一致性高效视觉惯性定位算法
CN114322994B (zh) * 2022-03-10 2022-07-01 之江实验室 一种基于离线全局优化的多点云地图融合方法和装置
CN114648584B (zh) * 2022-05-23 2022-08-30 北京理工大学前沿技术研究院 一种用于多源融合定位的鲁棒性控制方法和系统
CN117629204A (zh) * 2022-08-16 2024-03-01 北京三快在线科技有限公司 定位方法和设备
CN115200591B (zh) * 2022-09-16 2022-12-09 毫末智行科技有限公司 一种位姿确定方法、装置、整车控制器及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105783913A (zh) * 2016-03-08 2016-07-20 中山大学 一种融合车载多传感器的slam装置及其控制方法
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN110274588A (zh) * 2019-06-19 2019-09-24 南京航空航天大学 基于无人机集群信息的双层嵌套因子图多源融合导航方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050234679A1 (en) * 2004-02-13 2005-10-20 Evolution Robotics, Inc. Sequential selective integration of sensor data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105783913A (zh) * 2016-03-08 2016-07-20 中山大学 一种融合车载多传感器的slam装置及其控制方法
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN110274588A (zh) * 2019-06-19 2019-09-24 南京航空航天大学 基于无人机集群信息的双层嵌套因子图多源融合导航方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Relative pose estimation of underwater robot by fusing inertial sensors and optical image;Jinwoo Choi等;《 2014 11th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI)》;20150512;204-208 *
基于椭圆特征的无人机自主着陆位姿估计方法;李斐等;《第三十二届中国控制会议》;20130726;3805-3810 *

Also Published As

Publication number Publication date
CN110706279A (zh) 2020-01-17

Similar Documents

Publication Publication Date Title
CN110706279B (zh) 基于全局地图与多传感器信息融合的全程位姿估计方法
CN110243358B (zh) 多源融合的无人车室内外定位方法及系统
CN105698765B (zh) 双imu单目视觉组合测量非惯性系下目标物位姿方法
CN104729506B (zh) 一种视觉信息辅助的无人机自主导航定位方法
CN106767752B (zh) 一种基于偏振信息的组合导航方法
CN109522832B (zh) 基于点云片段匹配约束和轨迹漂移优化的回环检测方法
CN108036785A (zh) 一种基于直接法与惯导融合的飞行器位姿估计方法
CN106772524B (zh) 一种基于秩滤波的农业机器人组合导航信息融合方法
CN107909614B (zh) 一种gps失效环境下巡检机器人定位方法
CN111025366B (zh) 基于ins及gnss的网格slam的导航系统及方法
CN108981687A (zh) 一种视觉与惯性融合的室内定位方法
Mercado et al. Gps/ins/optic flow data fusion for position and velocity estimation
CN114323033B (zh) 基于车道线和特征点的定位方法、设备及自动驾驶车辆
CN109507706B (zh) 一种gps信号丢失的预测定位方法
CN113933818A (zh) 激光雷达外参的标定的方法、设备、存储介质及程序产品
CN112147599B (zh) 基于样条函数的3d激光雷达和惯性传感器外参标定方法
CN114690229A (zh) 一种融合gps的移动机器人视觉惯性导航方法
Chen et al. An optimal selection of sensors in multi-sensor fusion navigation with factor graph
Liu et al. 3D LiDAR aided GNSS real-time kinematic positioning via coarse-to-fine batch optimization for high accuracy mapping in dense urban canyons
Ćwian et al. GNSS-augmented lidar slam for accurate vehicle localization in large scale urban environments
CN104655132A (zh) 一种基于加速度计的机体弹性变形角估计方法
CN115290090A (zh) 基于多传感器信息融合的slam地图构建方法
CN114915913A (zh) 一种基于滑窗因子图的uwb-imu组合室内定位方法
Hang et al. Optimization method of MEMS IMU/LADAR integrated navigation system based on Compressed-EKF
Luo et al. An imu/visual odometry integrated navigation method based on measurement model optimization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant