CN110706279A - 基于全局地图与多传感器信息融合的全程位姿估计方法 - Google Patents

基于全局地图与多传感器信息融合的全程位姿估计方法 Download PDF

Info

Publication number
CN110706279A
CN110706279A CN201910923232.7A CN201910923232A CN110706279A CN 110706279 A CN110706279 A CN 110706279A CN 201910923232 A CN201910923232 A CN 201910923232A CN 110706279 A CN110706279 A CN 110706279A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
coordinate system
global
vio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910923232.7A
Other languages
English (en)
Other versions
CN110706279B (zh
Inventor
孟子阳
郝运
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910923232.7A priority Critical patent/CN110706279B/zh
Publication of CN110706279A publication Critical patent/CN110706279A/zh
Application granted granted Critical
Publication of CN110706279B publication Critical patent/CN110706279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,涉及导航领域。该方法首先搭建包含各传感器的无人机系统;对传感器进行标定,获得每个传感器对应参数,并对无人机系统进行初始化;利用各传感器获得载体无人机当前所处位姿的量测信息,并利用视觉惯性里程计VIO系统的图像信息构造并维护局部地图;构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机系统对应VIO系统每一当前帧的最优状态变量,并更新当前帧下局部坐标系和全局坐标系间的转换关系,将局部地图转换为全局地图。本发明能够利用全局优化的方式将无人机搭载的所有传感器的量测和全局地图信息进行融合,提升无人机系统位姿估计的准确性和可靠性。

Description

基于全局地图与多传感器信息融合的全程位姿估计方法
技术领域
本发明涉及导航领域,具体涉及一种基于全局地图与多传感器信息融合的全程位姿估计方法。
背景技术
在自动驾驶、搜救、侦查等领域,对无人系统的需求日益提升,而无人系统的定位问题是其中的基础。目前,存在很多采用相机和激光雷达等传感器进行无人系统的局部位姿估计的技术,并且其中也有和IMU(惯性测量单元)结合形成的组合导航系统,它们在局部区域内可以实现对无人系统精确的位姿估计。例如,慕尼黑工业大学于2014年提出的LSD-SLAM(基于直接法的大范围单目即时定位和地图构建方法)基于直接法实现大规模环境下的位姿确定和地图构建;苏黎世联邦理工学院于2015年提出的ROVIO(鲁棒的视觉惯性里程计)算法,是一种基于卡尔曼滤波算法的单目视觉惯性里程计。但是上述的方式在实际应用中仍然存在一些缺陷,一是没有固定的全局参考,即在相同环境下,从不同的起点出发也可能得到不同的位姿估计结果,不利于之后的重复利用;二是缺少全局度量,局部估计随着时间推移容易产生漂移,使得长时间、大区域的局部估计不够准确。
GPS、磁强计和气压计等传感器不依赖于局部参考系,可以得到系统的全局测量,这些测量是不存在漂移的。但是由于传感器的特性,上述传感器的测量结果是存在噪声的,不能用于精确的控制和导航。例如GPS的测量精度在米级,并且测量频率较低且不连续。因此考虑不同传感器的特点,将传感器信息进行融合的结果会有更好的效果和性能。
而在一些较为恶劣的环境中,例如GPS工作时断时续,磁场或气压不够稳定等条件下,利用已存在的全局地图信息可以结合其他所有传感器的量测结果可以提供更为精确的全局位姿估计。
目前,常用的多传感器信息融合方法采用滤波方式。2013年,苏黎世联邦理工学院自动化系统实验室提出了一种基于扩展卡尔曼滤波算法的多传感器融合框架;2014年,香港科技大学也提出了一种基于无迹卡尔曼滤波的多传感器融合方法。但滤波算法需要相对较为准确的初始值预测,以及滤波算法对时间同步较为敏感,迟到的测量量会使得整个结果不够准确,而采用基于优化的方法会得到更有效准确的结果。2018年,香港科技大学提出一种多传感器融合框架,采用VINS-MONO(一种鲁棒通用的单目视觉惯性状态估计器)的输出和GPS、磁强计等传感器的输出进行融合,利用因子图优化的方式得到无人系统的位姿估计结果,但是该方法在整个过程中没有考虑全局坐标系和局部坐标系之间的对齐问题,并且在某些传感器失效的情况下,结果的准确性并不够可靠。
发明内容
本发明的目的是为克服已有技术的不足之处,提出一种基于全局地图与多传感器信息融合的全程位姿估计方法。本发明能够利用全局优化的方式将无人机搭载的所有传感器的量测和全局地图信息进行融合,而全局地图的存在可以在其他传感器失效的情况下对无人机系统载体进行位姿估计,提升无人机系统位姿估计的准确性和可靠性。
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,其特征在于,包括以下步骤:
1)搭建包含各传感器的无人机系统;具体方法为:选定一台无人机,在无人机上分别搭载各传感器,包括:视觉惯性里程计VIO系统、GPS、磁强计和气压计;其中,所述VIO系统包含相机和惯性测量单元IMU,相机镜头方向与无人机前进方向一致;
2)在步骤1)搭建完毕的无人机系统中,对各传感器进行标定,分别获得每个传感器对应的参数,包括:相机的内外参矩阵,IMU的内参数和测量噪声,相机坐标系和IMU坐标系之间的相对位姿关系,磁强计噪声和气压计噪声;
标定完成后,对无人机系统进行初始化,包括:对各传感器信息输出的时间对齐,确定各传感器坐标系和载体无人机坐标系之间的位姿关系,确定无人机系统初始状态下的基帧变换矩阵;其中,全局坐标系为东北天ENU坐标系,局部坐标系为VIO系统第一帧图像所对应的相机位姿,VIO系统的本体坐标系即为无人机系统的本体坐标系;
3)利用各传感器获得载体无人机当前所处位姿的量测信息,并利用VIO系统得到的图像信息构造并维护局部地图;
选用局部坐标系下的无人机系统的状态变量为:
Figure BDA0002218175420000021
Figure BDA0002218175420000022
其中,χl为局部坐标系下的无人机系统状态变量,n为VIO系统的滑动窗口的大小,χt为载体无人机在VIO系统第t帧图像时对应的状态变量,
Figure BDA0002218175420000023
为无人机在VIO系统第t帧图像时的位置,
Figure BDA0002218175420000024
为无人机在VIO系统第t帧图像时的速度,
Figure BDA0002218175420000025
为无人机在VIO系统第t帧图像时的姿态,上标l表示状态变量为相对于局部坐标系所得,ba为IMU中加速度计的噪声,bg为IMU中陀螺仪的噪声;
在相机帧中观测到特征之后,以
Figure BDA0002218175420000031
表示特征点i在局部坐标系中的三维坐标,m为路标点的个数;
最终对VIO系统即无人机系统在局部坐标系下的位姿估计为如下非线性最小二乘问题:
其中,rB和rC分别代表惯性测量的误差和视觉测量的误差,WB为惯性测量的协方差,WC为视觉测量的协方差;对该非线性最小二乘问题求解,得到VIO系统在局部参考系中6自由度位姿实时估计,将四元数
Figure BDA0002218175420000033
转换为旋转矩阵
Figure BDA0002218175420000034
则VIO系统的位姿估计表示为
Figure BDA0002218175420000035
4)构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机对应VIO系统当前帧的最优状态变量;具体步骤如下:
4-1)将VIO系统第t帧图像记为当前帧,选择全局坐标系下无人机系统状态变量
Figure BDA0002218175420000036
为在全局坐标系下对应VIO系统第t帧图像的无人机位姿,其中
Figure BDA0002218175420000037
表示VIO系统第t帧图像下无人机在全局坐标系下的位置,
Figure BDA0002218175420000038
表示VIO系统第t帧图像下无人机在全局坐标系下的姿态,上标w表示相对于全局坐标系;
4-2)以状态变量xt为因子图变量节点,以无人机系统上搭载的各传感器获得的测量信息和由全局地图获得无人机的位姿信息为因子图因子节点,构建多传感器信息融合框架;
4-3)在所有传感器测量均为独立,且噪声满足高斯分布的条件下,将无人机系统在全局坐标系下的状态估计问题描述为:
Figure BDA0002218175420000039
其中,
Figure BDA00022181754200000310
为无人机在全局坐标系下的最优状态变量,
Figure BDA00022181754200000311
S为各传感器量测集合,k为不同传感器的量测,z为测量值,
Figure BDA00022181754200000312
为根据状态变量xt得到的估计值,
Figure BDA00022181754200000313
为方差,下标t代表第t帧;
4-4)构建因子图因子节点表达式;
4-4-1)GPS因子:
VIO系统第t帧图像对应的在全局坐标系下的GPS量测为:
Figure BDA0002218175420000041
其中,
Figure BDA0002218175420000042
代表VIO系统第t帧图像对应的GPS的量测,
Figure BDA0002218175420000043
为无人机由GPS量测
Figure BDA0002218175420000044
得到的在全局坐标系下的三维坐标;
则VIO系统第t帧图像对应的GPS因子表示为:
Figure BDA0002218175420000045
4-4-2)磁强计因子:
通过查表得到在全局坐标系下局部区域的磁场强度zw,根据当前帧对应的磁场量测
Figure BDA0002218175420000046
得到磁强计因子表示为:
其中,
Figure BDA0002218175420000048
为磁强计和本体坐标系之间的坐标转换关系,
Figure BDA0002218175420000049
为当前帧相对于全局坐标系的坐标转换关系,上标m代表磁强计;
4-4-3)气压计因子:
假设同一高度气压恒定,根据当前帧对应的高度测量值
Figure BDA00022181754200000410
将气压计因子表示为:
Figure BDA00022181754200000411
其中,h代表气压计;
4-4-4)全局地图因子:
全局地图因子为将特征点像素坐标与全局地图点云中对应的3D点按照当前估计的位姿进行投影所得到的位置相比较得到的误差,称为重投影误差,具体表达式为:
Figure BDA00022181754200000412
其中,
Figure BDA00022181754200000413
为当前帧对应的特征点像素坐标,ui为第i个特征点的像素坐标,Π(·)为相机投影函数,
Figure BDA00022181754200000414
为第i个特征点在全局坐标系下的三维坐标,s为特征点个数;
其中,经过基帧变换矩阵变换得到,利用VIO系统第t-1帧图像下基帧变换矩阵
Figure BDA0002218175420000051
将局部地图转换为全局地图,即
Figure BDA0002218175420000052
式中
Figure BDA0002218175420000053
Figure BDA0002218175420000054
Figure BDA0002218175420000055
Figure BDA0002218175420000056
分别对应的齐次坐标;
当t=1时,基帧变换矩阵为步骤2)得到的的无人机系统初始状态下的基帧变换矩阵;
4-5)将因子图因子节点表达式代入式(1)进行求解,得到无人机系统对应VIO系统第t帧图像的最优状态变量,输出在当前帧下对无人机系统的全局位姿估计结果wTt
5)进行基帧变换,得到当前帧下局部坐标系和全局坐标系之间的转换关系,将局部地图转换为全局地图;
根据步骤4)的结果得到VIO系统第t帧图像下无人机系统在全局坐标系下的位姿wTt,利用VIO系统得到无人机系统在局部坐标系下的位姿lTt,则第t帧时基帧变换描述为:
wTt lwTt·(lTt)-1
6)当相机获取第t+1帧图像时,令t=t+1,将该图像作为新的当前帧,然后重新返回步骤3)。
本发明的特点及有益效果:
本发明提出的基于全局地图与多传感器信息融合的全程位姿估计方法,能够利用全局优化的方式将传感器测量量和全局地图信息进行融合,保证无人机系统精确的全局位姿估计。在某些传感器(比如GPS)信号较差甚至失效的条件下,全局地图依然能够为无人机系统提供准确的全局位姿。在极端环境或需要频繁往复观测的环境下,比如扫地机器人反复清扫或是战场上强干扰等环境下,系统具有较高的精度和鲁棒性。
附图说明
图1是本发明方法的总体流程图;
图2是本发明一个实施例的因子图示例图;
图3是本发明一个实施例的包含全部变量节点的因子图示例图;
图4是本发明的工作原理图。
具体实施方式
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,下面结合附图和具体实施例对本发明的技术方案做进一步的说明。
本发明提出一种基于全局地图与多传感器信息融合的全程位姿估计方法,整体流程如图1所示,包括以下步骤:
1)搭建包含各传感器的无人机系统,具体方法为:选定一台无人机(可采用常规型号),在无人机上分别搭载各传感器,包括:VIO(视觉惯性里程计)系统、GPS、磁强计和气压计;其中,所述VIO系统包含相机和IMU(惯性测量单元),相机镜头方向与无人机前进方向一致,VIO系统、GPS磁强计、气压计均可以集成在无人机的飞控板上。所述VIO系统、GPS、磁强计和气压计均可采用常规型号部件,VIO系统、GPS、磁强计和气压计的重量总和不超过无人机的额定载荷;
2)在步骤1)搭建完毕的无人机系统中,对各传感器进行标定,分别获得每个传感器对应的参数。包括:相机的内外参矩阵,IMU的内参数和测量噪声,相机坐标系和IMU坐标系之间的相对位姿关系,磁强计和气压计的噪声。其中,相机、IMU、GPS等已有成熟的标定方法,比如相机的张正友标定法、IMU的误差分析标定法等。
标定完成后,对无人机系统进行初始化,包括:对各传感器信息输出的时间对齐,确定各传感器坐标系和载体(即无人机)坐标系之间的位姿关系,确定无人机系统初始状态下的基帧变换矩阵(局部坐标系和全局坐标系之间的变换矩阵);
具体地,考虑载体为无人机,各传感器已经通过标定获得各项参数,全局坐标系为ENU(东北天)坐标系,局部坐标系为VIO系统第一帧图像所对应的相机位姿,且认为VIO系统的本体坐标系即为无人机系统的本体坐标系。
3)利用各传感器获得载体当前所处位姿的量测信息,并利用VIO系统得到的图像信息构造并维护局部地图;
具体地,目前已存在成熟的VIO系统可以为载体提供无人机的局部位姿和局部地图。采用苏黎世联邦理工学院提出的OKVIS(基于关键帧的视觉惯性同步定位和建图方法),选用局部坐标系下的状态变量为:
Figure BDA0002218175420000061
Figure BDA0002218175420000062
其中,χl为局部坐标系下的无人机系统状态变量,n为VIO系统的滑动窗口的大小,χt为载体(无人机)在VIO系统第t帧图像时对应的状态变量,
Figure BDA0002218175420000063
为为载体在VIO系统第t帧图像时的位置,
Figure BDA0002218175420000064
为为载体在VIO系统第t帧图像时的速度,为为载体在VIO系统第t帧图像时的姿态,上标l表示状态变量为相对于局部坐标系所得,ba为IMU中加速度计的噪声,bg为IMU中陀螺仪的噪声。一般来说,IMU第一次测量所得的相机位姿被设定为局部坐标系。在相机帧中观测到特征之后,以表示特征点i在局部坐标系中的三维坐标,m为路标点(路标点即为二维特征点转化为三维形式的点)的个数。最终对VIO系统(即无人机系统)在局部坐标系下的位姿估计可以看做如下非线性最小二乘问题:
Figure BDA0002218175420000071
其中,rB和rC分别代表惯性测量的误差和视觉测量的误差,WB为惯性测量的协方差,WC为视觉测量的协方差。对该非线性最小二乘问题求解,得到VIO系统在局部参考系中6自由度位姿实时估计,将四元数
Figure BDA0002218175420000072
转换为旋转矩阵
Figure BDA0002218175420000073
那么VIO系统的位姿估计可以表示为
Figure BDA0002218175420000074
并且VIO系统可以实现局部地图的构造和维护。
4)构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机对应VIO系统当前帧的最优状态变量;
具体地,本实施例中因子图构建示例图如图2所示。图中,xt为变量节点,表示无人机系统在全局坐标系下的状态变量;GPS、磁强计、气压计的量测信息以及根据全局地图得到的量测信息为因子节点,因子节点和变量节点之间有边相连,从而可构建基于因子图的多传感器信息融合框架。图3所示即为本发明实施例中由全部变量节点构成的因子图示例图。
具体步骤如下:
4-1)将VIO系统第t帧图像记为当前帧,选择全局坐标系下无人机系统状态变量
Figure BDA0002218175420000075
为在全局坐标系下对应VIO系统第t帧图像的载体位姿,其中
Figure BDA0002218175420000076
表示VIO系统第t帧图像下无人机在全局坐标系下的位置,表示VIO系统第t帧图像下无人机在全局坐标系下的姿态,上标w表示相对于全局坐标系;
4-2)以状态变量xt为因子图变量节点,以无人机系统上搭载的各传感器获得的测量信息和由全局地图获得无人机的位姿信息为因子图因子节点,构建多传感器信息融合框架;
4-3)在所有传感器测量均为独立,且噪声满足高斯分布的条件下,将无人机系统在全局坐标系下的状态估计问题描述为:
其中,为无人机在全局坐标系下的最优状态变量,
Figure BDA00022181754200000710
式中S为各传感器量测集合,k为不同传感器的量测,z为测量值,
Figure BDA0002218175420000081
为根据状态变量xt得到的估计值,
Figure BDA0002218175420000082
为方差,下标t代表第t帧。
4-4)构建因子图因子节点表达式;
具体地,在步骤4-5)中,各因子图因子节点表达式如下:
4-4-1)GPS因子:
以使用ENU坐标为例,得到VIO系统第t帧图像对应的在ENU全局坐标系下的GPS量测为:
Figure BDA0002218175420000083
其中,
Figure BDA0002218175420000084
代表VIO系统第t帧图像对应的GPS的量测,
Figure BDA0002218175420000085
为载体由GPS量测
Figure BDA0002218175420000086
得到的在全局坐标系下的三维坐标;
则VIO系统第t帧图像对应的GPS因子可以表示为:
4-4-2)磁强计因子:
假设磁强计已经校准且没有误差,通过查表得到在ENU坐标系下局部区域的磁场强度zw并假设为恒定。根据当前帧对应的磁场测量量
Figure BDA0002218175420000088
可以得到磁强计因子可以表示为:
Figure BDA0002218175420000089
其中,为当前帧对应的特征点像素坐标,ui为第i个特征点的像素坐标,Π(·)为相机投影函数,
Figure BDA00022181754200000811
为第i个特征点在全局坐标系下的三维坐标,,s为特征点个数
4-4-3)气压计因子:
假设同一高度气压恒定,根据当前帧对应的高度测量值可以将气压计因子表示为:
Figure BDA00022181754200000813
其中,h代表气压计。
4-4-4)全局地图因子:
全局地图因子为将特征点像素坐标与全局地图点云中对应的3D点按照当前估计的位姿进行投影所得到的位置相比较得到的误差,称为重投影误差,具体表达式为:
Figure BDA0002218175420000091
其中,
Figure BDA0002218175420000092
为当前帧对应的特征点像素坐标,ui为第i个特征点的像素坐标,Π(·)为相机投影函数,由相机标定过程确定,
Figure BDA0002218175420000093
为第i个特征点在全局坐标系下的三维坐标,n为特征点个数;
具体地,
Figure BDA0002218175420000095
经过基帧变换矩阵变换得到,在步骤2)中,利用VIO系统得到的图像信息构造并维护局部地图,其中局部地图的三维点坐标即为
Figure BDA0002218175420000096
利用上一个周期(即VIO系统第t-1帧图像下)步骤5)所求得的基帧变换矩阵
Figure BDA0002218175420000097
可以将局部地图转换为全局地图,即
Figure BDA0002218175420000098
式中
Figure BDA0002218175420000099
Figure BDA00022181754200000911
Figure BDA00022181754200000912
分别对应的齐次坐标。
当t=1时,基帧变换矩阵为步骤2)得到的的无人机系统初始状态下的基帧变换矩阵。
4-5)将因子图因子节点表达式代入式(1),进行求解,即可求得无人机系统对应VIO系统第t帧图像的最优状态变量,即输出在当前帧下对无人机系统的全局位姿估计结果。
具体地,采用Google Ceres Solver库对此因子优化问题进行求解,得到当前帧对应的无人机系统最优位姿估计结果。
5)进行基帧变换,得到当前帧下局部坐标系和全局坐标系之间的转换关系,将局部地图转换为全局地图;
具体地,根据步骤4)的结果,可以得到VIO系统第t帧图像下无人机系统在全局坐标系下的位姿wTt,利用VIO系统得到无人机系统在局部坐标系下的位姿lTt,则第t帧时基帧变换可以描述为:
wTt lwTt·(lTt)-1
利用上述关系即可将当前帧下局部地图转换为全局地图。
6)当相机获取新的一帧图像(t+1帧)时,将该新的图像作为新的当前帧(第t帧),然后重新返回步骤3);当t大于n时,保留状态变量xt与其之前的n-1个状态变量共同作为滑动窗口中的状态变量,并按照先后顺序重新对保留的n个状态变量更新下标为1到n,此时有t=n,同理在步骤3)中也应为保留状态变量χt与其之前的n-1个状态变量共同作为滑动窗口中的状态变量,并按照先后顺序重新对保留的n个状态变量更新下标为1到n。
本发明的整体工作原理如图4所示,各传感器和通过全局地图获得的量测信息分别输入至主要VIO系统和全局位姿估计器,VIO系统输出局部地图和局部位姿,全局位姿估计器输出全局位姿,也是所需求的系统输出,利用全局位姿和局部位姿求得基帧变换矩阵,将局部地图转换为全局地图服务于下一帧的无人机系统的全局位姿估计。
根据本发明提出的基于全局地图与多传感器信息融合的全程位姿估计方法,能够利用全局优化的方式将所有传感器的测量量进行融合,而全局地图的存在可以在其他传感器失效的情况下对载体进行位姿估计,提升位姿估计的准确性和可靠性。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (1)

1.一种基于全局地图与多传感器信息融合的全程位姿估计方法,其特征在于,包括以下步骤:
1)搭建包含各传感器的无人机系统;具体方法为:选定一台无人机,在无人机上分别搭载各传感器,包括:视觉惯性里程计VIO系统、GPS、磁强计和气压计;其中,所述VIO系统包含相机和惯性测量单元IMU,相机镜头方向与无人机前进方向一致;
2)在步骤1)搭建完毕的无人机系统中,对各传感器进行标定,分别获得每个传感器对应的参数,包括:相机的内外参矩阵,IMU的内参数和测量噪声,相机坐标系和IMU坐标系之间的相对位姿关系,磁强计噪声和气压计噪声;
标定完成后,对无人机系统进行初始化,包括:对各传感器信息输出的时间对齐,确定各传感器坐标系和载体无人机坐标系之间的位姿关系,确定无人机系统初始状态下的基帧变换矩阵;其中,全局坐标系为东北天ENU坐标系,局部坐标系为VIO系统第一帧图像所对应的相机位姿,VIO系统的本体坐标系即为无人机系统的本体坐标系;
3)利用各传感器获得载体无人机当前所处位姿的量测信息,并利用VIO系统得到的图像信息构造并维护局部地图;
选用局部坐标系下的无人机系统的状态变量为:
Figure FDA0002218175410000011
Figure FDA0002218175410000012
其中,χl为局部坐标系下的无人机系统状态变量,n为VIO系统的滑动窗口的大小,χt为载体无人机在VIO系统第t帧图像时对应的状态变量,
Figure FDA0002218175410000013
为无人机在VIO系统第t帧图像时的位置,为无人机在VIO系统第t帧图像时的速度,为无人机在VIO系统第t帧图像时的姿态,上标l表示状态变量为相对于局部坐标系所得,ba为IMU中加速度计的噪声,bg为IMU中陀螺仪的噪声;
在相机帧中观测到特征之后,以
Figure FDA0002218175410000016
表示特征点i在局部坐标系中的三维坐标,m为路标点的个数;
最终对VIO系统即无人机系统在局部坐标系下的位姿估计为如下非线性最小二乘问题:
Figure FDA0002218175410000017
其中,rB和rC分别代表惯性测量的误差和视觉测量的误差,WB为惯性测量的协方差,WC为视觉测量的协方差;对该非线性最小二乘问题求解,得到VIO系统在局部参考系中6自由度位姿实时估计,将四元数
Figure FDA0002218175410000021
转换为旋转矩阵则VIO系统的位姿估计表示为
Figure FDA0002218175410000023
4)构建基于因子图的多传感器信息融合框架,利用因子图优化得到无人机对应VIO系统当前帧的最优状态变量;具体步骤如下:
4-1)将VIO系统第t帧图像记为当前帧,选择全局坐标系下无人机系统状态变量
Figure FDA0002218175410000024
为在全局坐标系下对应VIO系统第t帧图像的无人机位姿,其中
Figure FDA0002218175410000025
表示VIO系统第t帧图像下无人机在全局坐标系下的位置,
Figure FDA0002218175410000026
表示VIO系统第t帧图像下无人机在全局坐标系下的姿态,上标w表示相对于全局坐标系;
4-2)以状态变量xt为因子图变量节点,以无人机系统上搭载的各传感器获得的测量信息和由全局地图获得无人机的位姿信息为因子图因子节点,构建多传感器信息融合框架;
4-3)在所有传感器测量均为独立,且噪声满足高斯分布的条件下,将无人机系统在全局坐标系下的状态估计问题描述为:
Figure FDA0002218175410000027
其中,为无人机在全局坐标系下的最优状态变量,
Figure FDA0002218175410000029
S为各传感器量测集合,k为不同传感器的量测,z为测量值,
Figure FDA00022181754100000210
为根据状态变量xt得到的估计值,
Figure FDA00022181754100000211
为方差,下标t代表第t帧;
4-4)构建因子图因子节点表达式;
4-4-1)GPS因子:
VIO系统第t帧图像对应的在全局坐标系下的GPS量测为:
Figure FDA00022181754100000212
其中,代表VIO系统第t帧图像对应的GPS的量测,
Figure FDA00022181754100000214
为无人机由GPS量测
Figure FDA00022181754100000215
得到的在全局坐标系下的三维坐标;
则VIO系统第t帧图像对应的GPS因子表示为:
Figure FDA0002218175410000031
4-4-2)磁强计因子:
通过查表得到在全局坐标系下局部区域的磁场强度zw,根据当前帧对应的磁场量测得到磁强计因子表示为:
Figure FDA0002218175410000033
其中,为磁强计和本体坐标系之间的坐标转换关系,
Figure FDA0002218175410000035
为当前帧相对于全局坐标系的坐标转换关系,上标m代表磁强计;
4-4-3)气压计因子:
假设同一高度气压恒定,根据当前帧对应的高度测量值
Figure FDA0002218175410000036
将气压计因子表示为:
其中,h代表气压计;
4-4-4)全局地图因子:
全局地图因子为将特征点像素坐标与全局地图点云中对应的3D点按照当前估计的位姿进行投影所得到的位置相比较得到的误差,称为重投影误差,具体表达式为:
Figure FDA0002218175410000038
其中,
Figure FDA0002218175410000039
为当前帧对应的特征点像素坐标,ui为第i个特征点的像素坐标,Π(·)为相机投影函数,
Figure FDA00022181754100000310
为第i个特征点在全局坐标系下的三维坐标,s为特征点个数;
其中,
Figure FDA00022181754100000311
Figure FDA00022181754100000312
经过基帧变换矩阵变换得到,利用VIO系统第t-1帧图像下基帧变换矩阵
Figure FDA00022181754100000313
将局部地图转换为全局地图,即
Figure FDA00022181754100000314
式中
Figure FDA00022181754100000315
Figure FDA00022181754100000316
Figure FDA00022181754100000317
Figure FDA00022181754100000318
分别对应的齐次坐标;
当t=1时,基帧变换矩阵为步骤2)得到的的无人机系统初始状态下的基帧变换矩阵;
4-5)将因子图因子节点表达式代入式(1)进行求解,得到无人机系统对应VIO系统第t帧图像的最优状态变量,输出在当前帧下对无人机系统的全局位姿估计结果wTt
5)进行基帧变换,得到当前帧下局部坐标系和全局坐标系之间的转换关系,将局部地图转换为全局地图;
根据步骤4)的结果得到VIO系统第t帧图像下无人机系统在全局坐标系下的位姿wTt,利用VIO系统得到无人机系统在局部坐标系下的位姿lTt,则第t帧时基帧变换描述为:
wTt lwTt·(lTt)-1
6)当相机获取第t+1帧图像时,令t=t+1,将该图像作为新的当前帧,然后重新返回步骤3)。
CN201910923232.7A 2019-09-27 2019-09-27 基于全局地图与多传感器信息融合的全程位姿估计方法 Active CN110706279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910923232.7A CN110706279B (zh) 2019-09-27 2019-09-27 基于全局地图与多传感器信息融合的全程位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910923232.7A CN110706279B (zh) 2019-09-27 2019-09-27 基于全局地图与多传感器信息融合的全程位姿估计方法

Publications (2)

Publication Number Publication Date
CN110706279A true CN110706279A (zh) 2020-01-17
CN110706279B CN110706279B (zh) 2021-09-07

Family

ID=69198211

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910923232.7A Active CN110706279B (zh) 2019-09-27 2019-09-27 基于全局地图与多传感器信息融合的全程位姿估计方法

Country Status (1)

Country Link
CN (1) CN110706279B (zh)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111258313A (zh) * 2020-01-20 2020-06-09 深圳市普渡科技有限公司 多传感器融合slam系统及机器人
CN111272192A (zh) * 2020-02-11 2020-06-12 清华大学 用于滑移转向机器人的联合位姿确定方法及装置
CN111366153A (zh) * 2020-03-19 2020-07-03 浙江大学 一种激光雷达与imu紧耦合的定位方法
CN111707275A (zh) * 2020-05-12 2020-09-25 驭势科技(北京)有限公司 一种定位方法、装置、电子设备及计算机可读存储介质
CN111797688A (zh) * 2020-06-02 2020-10-20 武汉大学 一种基于光流和语义分割的视觉slam方法
CN111805535A (zh) * 2020-06-11 2020-10-23 浙江大华技术股份有限公司 一种定位导航方法、装置以及计算机存储介质
CN112097768A (zh) * 2020-11-17 2020-12-18 深圳市优必选科技股份有限公司 机器人位姿的确定方法、装置、机器人及存储介质
CN112268559A (zh) * 2020-10-22 2021-01-26 中国人民解放军战略支援部队信息工程大学 复杂环境下融合slam技术的移动测量方法
CN112305576A (zh) * 2020-10-31 2021-02-02 中环曼普科技(南京)有限公司 一种多传感器融合的slam算法及其系统
CN112304307A (zh) * 2020-09-15 2021-02-02 浙江大华技术股份有限公司 一种基于多传感器融合的定位方法、装置和存储介质
CN112446905A (zh) * 2021-01-29 2021-03-05 中国科学院自动化研究所 基于多自由度传感关联的三维实时全景监控方法
CN112577494A (zh) * 2020-11-13 2021-03-30 上海航天控制技术研究所 一种适用于月球车的slam方法、电子设备及存储介质
CN113204039A (zh) * 2021-05-07 2021-08-03 深圳亿嘉和科技研发有限公司 一种应用于机器人的rtk-gnss外参标定方法
CN113229941A (zh) * 2021-03-08 2021-08-10 上海交通大学 基于增强现实的介入机器人无接触遥操系统及标定方法
CN113252051A (zh) * 2020-02-11 2021-08-13 北京图森智途科技有限公司 一种地图构建方法及装置
CN113340295A (zh) * 2021-06-16 2021-09-03 广东工业大学 一种多个测距传感器的无人艇近岸实时定位与建图方法
CN113587934A (zh) * 2021-07-30 2021-11-02 深圳市普渡科技有限公司 一种机器人、室内定位方法、装置和可读存储介质
CN113628284A (zh) * 2021-08-10 2021-11-09 深圳市人工智能与机器人研究院 位姿标定数据集生成方法、装置、系统、电子设备及介质
CN113625774A (zh) * 2021-09-10 2021-11-09 天津大学 局部地图匹配与端到端测距多无人机协同定位系统和方法
CN113776543A (zh) * 2021-07-27 2021-12-10 武汉中海庭数据技术有限公司 一种车辆融合定位方法、系统、电子设备及存储介质
CN113819914A (zh) * 2020-06-19 2021-12-21 北京图森未来科技有限公司 一种地图构建方法及装置
CN114001733A (zh) * 2021-10-28 2022-02-01 浙江大学 一种基于地图的一致性高效视觉惯性定位算法
CN114088104A (zh) * 2021-07-23 2022-02-25 武汉理工大学 一种自动驾驶场景下的地图生成方法
CN114255275A (zh) * 2020-09-14 2022-03-29 华为技术有限公司 一种构建地图的方法及计算设备
CN114322996A (zh) * 2020-09-30 2022-04-12 阿里巴巴集团控股有限公司 一种多传感器融合定位系统的位姿优化方法和装置
CN114322994A (zh) * 2022-03-10 2022-04-12 之江实验室 一种基于离线全局优化的多点云地图融合方法和装置
CN114543794A (zh) * 2021-12-29 2022-05-27 西北工业大学 一种视觉惯性里程计与间断性rtk融合的绝对定位方法
CN114648584A (zh) * 2022-05-23 2022-06-21 北京理工大学前沿技术研究院 一种用于多源融合定位的鲁棒性控制方法和系统
CN115200591A (zh) * 2022-09-16 2022-10-18 毫末智行科技有限公司 一种位姿确定方法、装置、整车控制器及可读存储介质
CN115711616A (zh) * 2022-06-09 2023-02-24 同济大学 一种室内室外穿越无人机的平顺定位方法及装置
WO2024037295A1 (zh) * 2022-08-16 2024-02-22 北京三快在线科技有限公司 定位

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050234679A1 (en) * 2004-02-13 2005-10-20 Evolution Robotics, Inc. Sequential selective integration of sensor data
CN105783913A (zh) * 2016-03-08 2016-07-20 中山大学 一种融合车载多传感器的slam装置及其控制方法
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN110274588A (zh) * 2019-06-19 2019-09-24 南京航空航天大学 基于无人机集群信息的双层嵌套因子图多源融合导航方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050234679A1 (en) * 2004-02-13 2005-10-20 Evolution Robotics, Inc. Sequential selective integration of sensor data
CN105783913A (zh) * 2016-03-08 2016-07-20 中山大学 一种融合车载多传感器的slam装置及其控制方法
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN110274588A (zh) * 2019-06-19 2019-09-24 南京航空航天大学 基于无人机集群信息的双层嵌套因子图多源融合导航方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JINWOO CHOI等: "Relative pose estimation of underwater robot by fusing inertial sensors and optical image", 《 2014 11TH INTERNATIONAL CONFERENCE ON UBIQUITOUS ROBOTS AND AMBIENT INTELLIGENCE (URAI)》 *
李斐等: "基于椭圆特征的无人机自主着陆位姿估计方法", 《第三十二届中国控制会议》 *

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111258313A (zh) * 2020-01-20 2020-06-09 深圳市普渡科技有限公司 多传感器融合slam系统及机器人
CN111272192A (zh) * 2020-02-11 2020-06-12 清华大学 用于滑移转向机器人的联合位姿确定方法及装置
CN113252051A (zh) * 2020-02-11 2021-08-13 北京图森智途科技有限公司 一种地图构建方法及装置
CN111366153B (zh) * 2020-03-19 2022-03-15 浙江大学 一种激光雷达与imu紧耦合的定位方法
CN111366153A (zh) * 2020-03-19 2020-07-03 浙江大学 一种激光雷达与imu紧耦合的定位方法
CN111707275A (zh) * 2020-05-12 2020-09-25 驭势科技(北京)有限公司 一种定位方法、装置、电子设备及计算机可读存储介质
CN111707275B (zh) * 2020-05-12 2022-04-29 驭势科技(北京)有限公司 一种定位方法、装置、电子设备及计算机可读存储介质
CN111797688A (zh) * 2020-06-02 2020-10-20 武汉大学 一种基于光流和语义分割的视觉slam方法
CN111805535A (zh) * 2020-06-11 2020-10-23 浙江大华技术股份有限公司 一种定位导航方法、装置以及计算机存储介质
CN113819914A (zh) * 2020-06-19 2021-12-21 北京图森未来科技有限公司 一种地图构建方法及装置
CN113819914B (zh) * 2020-06-19 2024-06-07 北京图森未来科技有限公司 一种地图构建方法及装置
CN114255275A (zh) * 2020-09-14 2022-03-29 华为技术有限公司 一种构建地图的方法及计算设备
CN112304307A (zh) * 2020-09-15 2021-02-02 浙江大华技术股份有限公司 一种基于多传感器融合的定位方法、装置和存储介质
CN114322996A (zh) * 2020-09-30 2022-04-12 阿里巴巴集团控股有限公司 一种多传感器融合定位系统的位姿优化方法和装置
CN114322996B (zh) * 2020-09-30 2024-03-19 阿里巴巴集团控股有限公司 一种多传感器融合定位系统的位姿优化方法和装置
CN112268559B (zh) * 2020-10-22 2023-03-28 中国人民解放军战略支援部队信息工程大学 复杂环境下融合slam技术的移动测量方法
CN112268559A (zh) * 2020-10-22 2021-01-26 中国人民解放军战略支援部队信息工程大学 复杂环境下融合slam技术的移动测量方法
CN112305576A (zh) * 2020-10-31 2021-02-02 中环曼普科技(南京)有限公司 一种多传感器融合的slam算法及其系统
CN112577494A (zh) * 2020-11-13 2021-03-30 上海航天控制技术研究所 一种适用于月球车的slam方法、电子设备及存储介质
CN112097768B (zh) * 2020-11-17 2021-03-02 深圳市优必选科技股份有限公司 机器人位姿的确定方法、装置、机器人及存储介质
CN112097768A (zh) * 2020-11-17 2020-12-18 深圳市优必选科技股份有限公司 机器人位姿的确定方法、装置、机器人及存储介质
CN112446905A (zh) * 2021-01-29 2021-03-05 中国科学院自动化研究所 基于多自由度传感关联的三维实时全景监控方法
CN112446905B (zh) * 2021-01-29 2021-05-11 中国科学院自动化研究所 基于多自由度传感关联的三维实时全景监控方法
CN113229941B (zh) * 2021-03-08 2023-05-26 上海交通大学 基于增强现实的介入机器人无接触遥操系统及标定方法
CN113229941A (zh) * 2021-03-08 2021-08-10 上海交通大学 基于增强现实的介入机器人无接触遥操系统及标定方法
CN113204039A (zh) * 2021-05-07 2021-08-03 深圳亿嘉和科技研发有限公司 一种应用于机器人的rtk-gnss外参标定方法
CN113340295A (zh) * 2021-06-16 2021-09-03 广东工业大学 一种多个测距传感器的无人艇近岸实时定位与建图方法
CN114088104B (zh) * 2021-07-23 2023-09-29 武汉理工大学 一种自动驾驶场景下的地图生成方法
CN114088104A (zh) * 2021-07-23 2022-02-25 武汉理工大学 一种自动驾驶场景下的地图生成方法
CN113776543B (zh) * 2021-07-27 2023-11-28 武汉中海庭数据技术有限公司 一种车辆融合定位方法、系统、电子设备及存储介质
CN113776543A (zh) * 2021-07-27 2021-12-10 武汉中海庭数据技术有限公司 一种车辆融合定位方法、系统、电子设备及存储介质
CN113587934A (zh) * 2021-07-30 2021-11-02 深圳市普渡科技有限公司 一种机器人、室内定位方法、装置和可读存储介质
CN113587934B (zh) * 2021-07-30 2024-03-19 深圳市普渡科技有限公司 一种机器人、室内定位方法、装置和可读存储介质
CN113628284A (zh) * 2021-08-10 2021-11-09 深圳市人工智能与机器人研究院 位姿标定数据集生成方法、装置、系统、电子设备及介质
CN113628284B (zh) * 2021-08-10 2023-11-17 深圳市人工智能与机器人研究院 位姿标定数据集生成方法、装置、系统、电子设备及介质
CN113625774A (zh) * 2021-09-10 2021-11-09 天津大学 局部地图匹配与端到端测距多无人机协同定位系统和方法
CN114001733B (zh) * 2021-10-28 2024-03-15 浙江大学 一种基于地图的一致性高效视觉惯性定位算法
CN114001733A (zh) * 2021-10-28 2022-02-01 浙江大学 一种基于地图的一致性高效视觉惯性定位算法
CN114543794B (zh) * 2021-12-29 2024-07-30 西北工业大学 一种视觉惯性里程计与间断性rtk融合的绝对定位方法
CN114543794A (zh) * 2021-12-29 2022-05-27 西北工业大学 一种视觉惯性里程计与间断性rtk融合的绝对定位方法
CN114322994A (zh) * 2022-03-10 2022-04-12 之江实验室 一种基于离线全局优化的多点云地图融合方法和装置
CN114322994B (zh) * 2022-03-10 2022-07-01 之江实验室 一种基于离线全局优化的多点云地图融合方法和装置
CN114648584B (zh) * 2022-05-23 2022-08-30 北京理工大学前沿技术研究院 一种用于多源融合定位的鲁棒性控制方法和系统
CN114648584A (zh) * 2022-05-23 2022-06-21 北京理工大学前沿技术研究院 一种用于多源融合定位的鲁棒性控制方法和系统
CN115711616A (zh) * 2022-06-09 2023-02-24 同济大学 一种室内室外穿越无人机的平顺定位方法及装置
WO2024037295A1 (zh) * 2022-08-16 2024-02-22 北京三快在线科技有限公司 定位
CN115200591A (zh) * 2022-09-16 2022-10-18 毫末智行科技有限公司 一种位姿确定方法、装置、整车控制器及可读存储介质

Also Published As

Publication number Publication date
CN110706279B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN110706279B (zh) 基于全局地图与多传感器信息融合的全程位姿估计方法
CN110243358B (zh) 多源融合的无人车室内外定位方法及系统
CN105698765B (zh) 双imu单目视觉组合测量非惯性系下目标物位姿方法
CN106767752B (zh) 一种基于偏振信息的组合导航方法
CN109991636A (zh) 基于gps、imu以及双目视觉的地图构建方法及系统
CN114323033B (zh) 基于车道线和特征点的定位方法、设备及自动驾驶车辆
CN111025366B (zh) 基于ins及gnss的网格slam的导航系统及方法
CN110187375A (zh) 一种基于slam定位结果提高定位精度的方法及装置
CN113933818A (zh) 激光雷达外参的标定的方法、设备、存储介质及程序产品
CN109631894A (zh) 一种基于滑动窗口的单目视觉惯性紧耦合方法
CN112923919B (zh) 基于图优化的行人定位方法及系统
Mercado et al. Gps/ins/optic flow data fusion for position and velocity estimation
CN109708632A (zh) 一种面向移动机器人的激光雷达/ins/地标松组合导航系统及方法
CN113503872B (zh) 一种基于相机与消费级imu融合的低速无人车定位方法
CN117739972B (zh) 一种无全球卫星定位系统的无人机进近阶段定位方法
Han et al. Tightly coupled optimization-based GPS-visual-inertial odometry with online calibration and initialization
Chen et al. An optimal selection of sensors in multi-sensor fusion navigation with factor graph
CN114690229A (zh) 一种融合gps的移动机器人视觉惯性导航方法
CN114915913A (zh) 一种基于滑窗因子图的uwb-imu组合室内定位方法
Ćwian et al. GNSS-augmented lidar slam for accurate vehicle localization in large scale urban environments
Liu et al. 3D LiDAR aided GNSS real-time kinematic positioning via coarse-to-fine batch optimization for high accuracy mapping in dense urban canyons
CN117687059A (zh) 一种车辆定位的方法、装置、电子设备及存储介质
CN117710476A (zh) 基于单目视觉的无人机位姿估计与稠密建图方法
Zhong et al. Trajectory Smoothing Using GNSS/PDR Integration Via Factor Graph Optimization in Urban Canyons
CN104655132A (zh) 一种基于加速度计的机体弹性变形角估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant