CN113432602B - 基于多传感器融合的无人机位姿估计方法 - Google Patents

基于多传感器融合的无人机位姿估计方法 Download PDF

Info

Publication number
CN113432602B
CN113432602B CN202110700271.8A CN202110700271A CN113432602B CN 113432602 B CN113432602 B CN 113432602B CN 202110700271 A CN202110700271 A CN 202110700271A CN 113432602 B CN113432602 B CN 113432602B
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
image
residual
gps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110700271.8A
Other languages
English (en)
Other versions
CN113432602A (zh
Inventor
罗楠
王义峰
霍振锋
李晟硕
梁婕
卢波
杜欣蔚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202110700271.8A priority Critical patent/CN113432602B/zh
Publication of CN113432602A publication Critical patent/CN113432602A/zh
Application granted granted Critical
Publication of CN113432602B publication Critical patent/CN113432602B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)

Abstract

本发明提出了一种基于多传感器融合的无人机位姿估计方法,用于复杂环境中无人机的自主定位,实现步骤是:分别获取视觉传感器、IMU和GPS传感器的数据,之后对不同传感器的数据进行处理并构建对应的视觉残差、IMU残差和GPS残差,构建过程中给IMU残差和GPS残差赋予不同的权重,之后融合不同传感器的残差,并使用非线性方法进行优化,得到无人机的位姿。本发明在融合多传感器数据进行无人机位姿求解时,考虑了不同传感器所获数据之间的差异,提高了无人机的位姿估计精度。

Description

基于多传感器融合的无人机位姿估计方法
技术领域
本发明属于目标跟踪技术领域,特别涉及一种基于多传感器融合的无人机位姿估计方法,可用于复杂环境中无人机的自主定位。
背景技术
无人机位姿估计方法的主要任务是,通过对自身携带传感器获取到的数据进行优化处理,从而实现对无人机的定位。在无人机位姿估计中,单目视觉系统通过跟踪多幅图像之间的共同特征,利用多视图几何关系求解图像之间的位置和姿态,在低动态、场景特征丰富的情况下具有较高的精度;而惯性测量单元IMU具有很好的自主性,受环境的影响较小。随着信息科学和通信技术的发展,目前已存在大量的位姿估计方法应用于无人机定位。但是,由于没有环境先验信息以及不同传感器获取到的数据存在不同的噪声等客观因素,使得实时精确的定位无人机仍是一个巨大的挑战。
例如申请公布号为CN111024066A,名称为“一种无人机视觉-惯性融合室内定位方法”的专利申请,公开了一种基于视觉传感器和IMU融合的无人机位姿估计方法,该方法首先对相机获取的图像进行特征点提取,然后对惯性传感器IMU的测量数据进行预积分,得到任意两帧图像间无人机的运动轨迹与姿态,之后紧耦合视觉、惯性里程计对无人机的状态进行估计。该方法存在的不足之处是,在利用两种不同的传感器数据融合求解无人机位姿时,并没有考虑不同传感器数据带来的差异,比如不同传感器中蕴含的噪声程度以及类型都不大相同,因此所求得的无人机位姿精度不是很高。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于多传感器融合的无人机位姿估计方法,旨在解决现有技术在融合多传感器数据进行无人机位姿求解时,没有考虑不同传感器数据之间的差异,从而使得求解的无人机位姿精度较低。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)获取多传感器数据:
(1a)获取无人机携带的视觉传感器以10Hz-30Hz的频率采集M幅不同的地面灰度图像X={Xm|1≤m≤M},IMU传感器以100Hz-200Hz的频率采集N组不同的无人机加速度数据A={An|1≤n≤N}和角速度数据W={Wn|1≤n≤N},以及GPS传感器以20Hz-100Hz的频率采集不同的Z组无人机位置数据G={(Oz,Lz,Hz)|1≤z≤Z},其中M≥20,Xm表示第m幅地面灰度图像,N≥200,An、Wn分别表示t时刻无人机的加速度、角速度,Z≥40,Oz、Lz、Hz分别表示t时刻无人机的经度值、纬度值、高度值;
(2)计算每个特征点Fc的视觉残差Ec
对每幅地面灰度图像Xm进行特征点提取,得到X对应的特征点集合X'={Xm'|1≤m≤M},并计算特征点集合Xm'中每个特征点Fc的视觉残差Ec,其中Xm'表示Xm对应的包括C个特征点的特征点子集合F={Fc|1≤c≤C},C≥30;
(3)计算每幅图像与相邻图像对应无人机位置之间的IMU残差E(m,m+1)
采用预积分方法,通过t时刻无人机的加速度An和角速度Wn计算相邻地面灰度图像Xm及相邻图像Xm+1之间的位移增量P(m,m+1)、速度增量V(m,m+1)和旋转增量Q(m,m+1),并通过P(m,m+1)、V(m,m+1)和Q(m,m+1),计算Xm与Xm+1对应无人机位置之间的IMU残差E(m,m+1)
(4)计算每幅图像对应无人机位置的GPS残差Ez
将GPS采集的Z组无人机位置数据G转换为东北天坐标系下的坐标G'={(Oz',Lz',Hz')|1≤z≤Z},并计算每幅图像Xm在Gz'下的对应无人机位置的GPS残差Ez
(5)获取无人机位姿估计结果:
通过每个特征点Fc的视觉残差Ec、每幅图像Xm及相邻图像Xm+1对应无人机位置之间的IMU残差E(m,m+1)和每幅图像Xm对应无人机位置的GPS残差Ez,构建多传感器残差Etight,并采用非线性优化方法对Etight进行优化,得到t时刻无人机的位姿,其中:
Etight=Ec+W(m,m+1)·E(m,m+1)+Wz·Ez
W(m,m+1)表示图像Xm及相邻图像Xm+1对应无人机位置之间的IMU残差E(m,m+1)的权重,Wz表示每幅图像Xm对应无人机位置的GPS残差Ez的权重。
本发明与现有技术相比,具有以下优点:
1.本发明首先计算每个特征点的视觉残差、每幅图像与相邻图像对应无人机位置之间的IMU残差,以及每幅图像对应无人机位置的GPS残差,并对三个残差进行融合,然后对融合后的多传感器残差进行优化,得到每个时刻无人机的位姿,避免了现有技术中仅采用视觉传感器和IMU传感器导致的长期运行中出现的累计漂移现象对无人机位姿估计精度的影响,有效提高了无人机的定位精度。
2.本发明在获得每个特征点的视觉残差、每幅图像与相邻图像对应无人机位置之间的IMU残差,以及每幅图像对应无人机位置的GPS残差后,对IMU残差和GPS残差赋予不同的权重,之后再对三个残差融合,并对融合后的多传感器残差进行优化,得到每个时刻无人机的位姿,避免了现有技术中对获得的多传感器残差直接融合,从而忽略了不同传感器数据之间的差异对无人机位姿估计精度的影响,有效提高了无人机的定位精度。
附图说明
图1是本发明的实现流程图;
图2为本发明与现有技术在相同EuRoC数据序列下无人机真实位姿的仿真对比图。
具体实施方式
以下结合附图和具体实施例,对本发明作进一步详细描述。
参照图1,本发明包括如下步骤。
步骤1)获取传感器的数据:
获取无人机携带的视觉传感器以10Hz-30Hz的频率采集M幅不同的地面灰度图像X={Xm|1≤m≤M},IMU传感器以100Hz-200Hz的频率采集N组不同的无人机加速度数据A={An|1≤n≤N}和角速度数据W={Wn|1≤n≤N},以及GPS传感器以20Hz-100Hz的频率采集不同的Z组无人机位置数据G={(Oz,Lz,Hz)|1≤z≤Z},其中M≥20,Xm表示第m幅地面灰度图像,N≥200,An、Wn分别表示t时刻无人机的加速度、角速度,Z≥40,Oz、Lz、Hz分别表示t时刻无人机的经度值、纬度值、高度值,在本发明实施例中,视觉传感器采用的频率是20Hz,IMU传感器采用的频率是200Hz,GPS传感器采用的频率是20Hz,图像总数M为3040幅,IMU组数N为30401,GPS组数Z为3040。
步骤2)计算每个特征点Fc的视觉残差:
对于视觉传感器获取的图像,因为要尽可能的保存图像的信息,同时当场景和相机视角发生少量改变时,还希望能从图像中判断哪些地方是同一个点,因此采用基于特征点的方式对图像进行特征提取。
对每幅地面灰度图像Xm进行特征点提取,得到X对应的特征点集合X'={Xm'|1≤m≤M},并计算特征点集合Xm'中每个特征点Fc的视觉残差Ec,其中Xm'表示Xm对应的包括C个特征点的特征点子集合F={Fc|1≤c≤C},C≥30;
其中对每幅地面灰度图像Xm进行特征点提取,实现步骤为:
步骤2a)对每幅地面灰度图像Xm使用OpenCV提取至少30个FAST特征点;
步骤2b)在每个特征点周围随机选取256对像素点,如果先选取像素点的亮度大于后选取像素点的亮度,则将该特征点的描述子对应位置设为1,否则设置为0,得到该特征点的描述子;
步骤2c)基于灰度不变假设,如果相邻图像Xm+1有与之匹配的特征点,即描述子相同,则将该特征点保留下来,得到Xm对应的特征点子集合F;
计算特征点集合Xm'中每个特征点Fc的视觉残差Ec,计算公式为:
Figure BDA0003129916290000041
其中,xc、yc、zc分别表示第Fc个特征点在第Xm幅图像归一化坐标系下的横坐标值、纵坐标值、竖坐标值,rc和vc分别表示第Fc个特征点在第Xm个图像像素坐标系下的横坐标值和纵坐标值。
步骤3)计算每幅图像与相邻图像对应无人机位置之间的IMU残差;
采用预积分方法,通过t时刻无人机的加速度An和角速度Wn计算相邻地面灰度图像Xm及相邻图像Xm+1之间的位移增量P(m,m+1)、速度增量V(m,m+1)和旋转增量Q(m,m+1),并通过P(m,m+1)、V(m,m+1)和Q(m,m+1),计算Xm与Xm+1对应无人机位置之间的IMU残差E(m,m+1)
上述所述的预积分公式及地面灰度图像Xm与Xm+1对应无人机位置之间的IMU残差E(m,m+1),计算公式如下:
Figure BDA0003129916290000051
Figure BDA0003129916290000052
Figure BDA0003129916290000053
Figure BDA0003129916290000054
其中,u1(t)、u2(t)分别表示t时刻无人机加速度和角速度中的噪声,R(m,t)表示从第Xm幅图像对应的无人机位置到t时刻无人机位置的旋转变化量,Pm表示第Xm幅图像与第1幅图像分别对应无人机的位置差值,Vm表示第Xm幅图像对应无人机的速度,qm表示第Xm幅图像与第1幅图像分别对应无人机的旋转差值,Δt(m,m+1)表示第Xm幅图像与相邻的第Xm+1幅图像之间的时间差值,g表示重力加速度,
Figure BDA0003129916290000055
表示四元数乘法操作。
步骤4)计算每幅图像对应无人机位置的GPS残差Ez
将GPS采集的Z组无人机位置数据G转换为东北天坐标系下的坐标G'={(Oz',Lz',Hz')|1≤z≤Z},并计算每幅图像Xm在Gz'下的对应无人机位置的GPS残差Ez
上述所述的坐标转换公式如下:
O'z=(γ+Hz)cos(Oz)cos(Lz)
L'z=(γ+Hz)cos(Oz)sin(Lz)
H'z=(γ(1-σ2)+Hz)sin(Oz)
其中,Oz'表示t时刻无人机在东北天坐标系中位姿的横坐标值,L'z表示t时刻无人机在东北天坐标系中位姿的纵坐标值,Hz'表示t时刻无人机在东北天坐标系中位姿的竖坐标值,Oz表示t时刻无人机的维度值,Lz表示t时刻无人机的经度值,Hz表示t时刻无人机的高度值,γ表示基准椭球体的曲率半径,σ表示基准椭球体的偏心率。
上述每幅图像Xm在Gz'下的对应无人机位置的GPS残差Ez,计算公式为:
Ez=Pm-G'z(t)
其中,Pm表示第Xm幅图像与第1幅图像分别对应无人机的位置差值,G'z(t)表示t时刻与第1个图像时刻分别对应在东北天坐标下的坐标差值。
步骤5)获取无人机位姿估计结果:
视觉传感器和IMU传感器在局部范围内可以获得较高精度的无人机位姿,但是随着无人机长时间的运行,将会出现累计漂移现象,而GPS传感器由于可以提供全局一致的信息,可以大幅度减少这种累计漂移现象,因此在现有技术的基础上加入了GPS传感器。
由于每个传感器获得的残差都包含了无人机的位姿信息,因此对上述获得的多传感器残差进行融合,并使用非线性方法进行优化,得到每个时刻无人机的位姿。
通过每个特征点Fc的视觉残差Ec、每幅图像Xm及相邻图像Xm+1对应无人机位置之间的IMU残差E(m,m+1)和每幅图像Xm对应无人机位置的GPS残差Ez,构建多传感器残差Etight,并采用非线性优化方法对Etight进行优化,得到t时刻无人机的位姿,其中:
Etight=Ec+W(m,m+1)·E(m,m+1)+Wz·Ez
W(m,m+1)表示图像Xm及相邻图像Xm+1对应无人机位置之间的IMU残差E(m,m+1)的权重,Wz表示每幅图像Xm对应无人机位置的GPS残差Ez的权重。
由于不同传感器中蕴含的噪声程度以及类型都不大相同,因此在构造IMU残差E(m,m+1)和每幅图像Xm对应无人机位置的GPS残差Ez时,给每个残差添加不同的权重,使得最后融合的多传感器残差考虑了不同传感器数据之间的差异。
上述所述的W(m,m+1)和Wz,其计算公式如下:
Figure BDA0003129916290000071
Figure BDA0003129916290000072
其中,R'm表示采用非线性优化后的第Xm幅图像所对应无人机的优化位姿,R(m,u)表示通过IMU数据获得的第Xm幅图像的初始位姿,R(m,g)表示通过GPS数据获得的第Xm幅图像的初始位姿,||·||表示取模运算。
下面结合仿真实验对本发明的技术效果作进一步说明。
1.仿真条件和内容:
仿真实验的硬件测试平台是:处理器为CPU intel Core i7-4790,主频为3.6GHz,内存12GB。
仿真实验的软件平台为:Ubuntu 18.04LTS,64位操作系统和Melodic版本的ROS(Robot Operating System)。
仿真实验数据来自于EuRoC数据集,该数据集是由携带双目相机、IMU、VICON0以及LEICA0等设备的六旋翼微型飞行器在苏黎世联邦理工学院的一个厂房和一个普通房间内采集的数据。该系列数据集上的每条数据都可以提供频率为20Hz的灰度图像序列,频率为200Hz的惯性传感器数据(加速度计和陀螺仪读数),以及模拟生成的频率为20Hz的无人机经纬度信息,并且提供亚毫米级的运动轨迹真值。使用EuRoC数据集中的MH_02_easy和MH_05_difficult数据序列,对本发明与现有的基于视觉传感器和IMU融合的无人机位姿估计方法无人机真实位姿进行对比仿真,其结果如图2所示。
2.仿真结果分析:
参照图2,其中图2(a)是本发明方法与现有技术方法在数据序列MH_02_easy上估计的位姿与数据序列真实的位姿对比曲线图。图2(a)中的横坐标表示在二维空间中无人机的位置坐标沿着x轴移动对应的值,纵坐标表示在二维空间中无人机的位置坐标沿着y轴移动对应的值,单位为米m。图2(a)中以虚线标示的曲线表示用本发明方法估计的无人机位姿轨迹曲线,以点线标示的曲线表示用现有技术方法估计的无人机位姿轨迹曲线,以实线标示的曲线表示此数据序列上无人机的真实位姿轨迹曲线。
图2(b)表示本发明方法与现有技术方法在数据序列MH_05_difficult上估计的位姿与数据序列真实的位姿对比曲线图。
由图2(a)和图2(b)可以看出,本发明方法估计得到的无人机位姿轨迹曲线与真实的无人机位姿轨迹曲线几乎趋于一致,并且明显优于用现有技术方法得到的无人机位姿轨迹曲线,表明本发明方法估计的无人机位姿轨迹曲线具有较高的精度。

Claims (5)

1.一种基于多传感器融合的无人机位姿估计方法,其特征在于,包括如下步骤:
(1)获取多传感器数据:
(1a)获取无人机携带的视觉传感器以10Hz-30Hz的频率采集M幅不同的地面灰度图像X={Xm|1≤m≤M},IMU传感器以100Hz-200Hz的频率采集N组不同的无人机加速度数据A={An|1≤n≤N}和角速度数据W={Wn|1≤n≤N},以及GPS传感器以20Hz-100Hz的频率采集不同的Z组无人机位置数据G={(Oz,Lz,Hz)|1≤z≤Z},其中M≥20,Xm表示第m幅地面灰度图像,N≥200,An、Wn分别表示t时刻无人机的加速度、角速度,Z≥40,Oz、Lz、Hz分别表示t时刻无人机的经度值、纬度值、高度值;
(2)计算每个特征点Fc的视觉残差:
对每幅地面灰度图像Xm进行特征点提取,得到X对应的特征点集合X'={Xm'|1≤m≤M},并计算特征点集合Xm'中每个特征点Fc的视觉残差Ec,其中Xm'表示Xm对应的包括C个特征点的特征点子集合F={Fc|1≤c≤C},C≥30;
(3)计算每幅图像与相邻图像对应无人机位置之间的IMU残差;
采用预积分方法,通过t时刻无人机的加速度An和角速度Wn计算相邻地面灰度图像Xm及相邻图像Xm+1之间的位移增量P(m,m+1)、速度增量V(m,m+1)和旋转增量Q(m,m+1),并通过P(m,m+1)、V(m,m+1)和Q(m,m+1),计算Xm与Xm+1对应无人机位置之间的IMU残差E(m,m+1)
(4)计算每幅图像对应无人机位置的GPS残差Ez
将GPS采集的Z组无人机位置数据G转换为东北天坐标系下的坐标G'={(Oz',Lz',Hz')|1≤z≤Z},并计算每幅图像Xm在Gz'下的对应无人机位置的GPS残差Ez
(5)获取无人机位姿估计结果:
通过每个特征点Fc的视觉残差Ec、每幅图像Xm及相邻图像Xm+1对应无人机位置之间的IMU残差E(m,m+1)和每幅图像Xm对应无人机位置的GPS残差Ez,构建多传感器残差Etight,并采用非线性优化方法对Etight进行优化,得到t时刻无人机的位姿,其中:
Etight=Ec+W(m,m+1)·E(m,m+1)+Wz·Ez
其中,W(m,m+1)表示图像Xm及相邻图像Xm+1对应无人机位置之间的IMU残差E(m,m+1)的权重,Wz表示每幅图像Xm对应无人机位置的GPS残差Ez的权重。
2.根据权利要求1所述的基于多传感器融合的无人机位姿估计方法,其特征在于,步骤(2)中所述的计算特征点集合Xm'中每个特征点Fc的视觉残差Ec,计算公式为:
Figure FDA0003129916280000021
其中,xc、yc、zc分别表示第Fc个特征点在第Xm幅图像归一化坐标系下的横坐标值、纵坐标值、竖坐标值,rc和vc分别表示第Fc个特征点在第Xm个图像像素坐标系下的横坐标值和纵坐标值。
3.根据权利要求1所述的基于多传感器融合的无人机位姿估计方法,其特征在于,步骤(3)中所述的相邻地面灰度图像Xm及相邻图像Xm+1之间的位移增量P(m,m+1)、速度增量V(m,m+1)和旋转增量Q(m,m+1),以及Xm与Xm+1对应无人机位置之间的IMU残差E(m,m+1),其计算公式分别为:
Figure FDA0003129916280000031
Figure FDA0003129916280000032
Figure FDA0003129916280000033
Figure FDA0003129916280000034
其中,u1(t)、u2(t)分别表示t时刻无人机加速度和角速度中的噪声,R(m,t)表示从第Xm幅图像对应的无人机位置到t时刻无人机位置的旋转变化量,Pm表示第Xm幅图像与第1幅图像分别对应无人机的位置差值,Vm表示第Xm幅图像对应无人机的速度,qm表示第Xm幅图像与第1幅图像分别对应无人机的旋转差值,Δt(m,m+1)表示第Xm幅图像与相邻的第Xm+1幅图像之间的时间差值,g表示重力加速度,
Figure FDA0003129916280000035
表示四元数乘法操作。
4.根据权利要求1所述的基于多传感器融合的无人机位姿估计方法,其特征在于,步骤(4)中所述的计算每幅图像Xm在Gz'下的对应无人机位置的GPS残差Ez,计算公式为:
Ez=Pm-G'z(t)
其中,Pm表示第Xm幅图像与第1幅图像分别对应无人机的位置差值,G'z(t)表示t时刻与第1个图像时刻分别对应在东北天坐标下的坐标差值。
5.根据权利要求1所述的基于多传感器融合的无人机位姿估计方法,其特征在于,步骤(5)中所述的图像Xm及相邻图像Xm+1对应无人机位置之间的IMU残差E(m,m+1)的权重W(m,m+1),以及每幅图像Xm对应无人机位置的GPS残差Ez的权重Wz,计算公式分别为:
Figure FDA0003129916280000041
Figure FDA0003129916280000042
其中,R'm表示采用非线性优化后的第Xm幅图像所对应无人机的优化位姿,R(m,u)表示通过IMU数据获得的第Xm幅图像的初始位姿,R(m,g)表示通过GPS数据获得的第Xm幅图像的初始位姿,||·||表示取模运算。
CN202110700271.8A 2021-06-23 2021-06-23 基于多传感器融合的无人机位姿估计方法 Active CN113432602B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110700271.8A CN113432602B (zh) 2021-06-23 2021-06-23 基于多传感器融合的无人机位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110700271.8A CN113432602B (zh) 2021-06-23 2021-06-23 基于多传感器融合的无人机位姿估计方法

Publications (2)

Publication Number Publication Date
CN113432602A CN113432602A (zh) 2021-09-24
CN113432602B true CN113432602B (zh) 2022-12-02

Family

ID=77753562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110700271.8A Active CN113432602B (zh) 2021-06-23 2021-06-23 基于多传感器融合的无人机位姿估计方法

Country Status (1)

Country Link
CN (1) CN113432602B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111595333A (zh) * 2020-04-26 2020-08-28 武汉理工大学 视觉惯性激光数据融合的模块化无人车定位方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110010026A1 (en) * 2009-07-13 2011-01-13 Utah State University Calibration Method for Aerial Vehicles
CN111354042B (zh) * 2018-12-24 2023-12-01 深圳市优必选科技有限公司 机器人视觉图像的特征提取方法、装置、机器人及介质
CN111121767B (zh) * 2019-12-18 2023-06-30 南京理工大学 一种融合gps的机器人视觉惯导组合定位方法
CN111880207B (zh) * 2020-07-09 2022-12-23 南京航空航天大学 一种基于小波神经网络的视觉惯性卫星紧耦合定位方法
CN112902953B (zh) * 2021-01-26 2022-10-04 中国科学院国家空间科学中心 一种基于slam技术的自主位姿测量方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111595333A (zh) * 2020-04-26 2020-08-28 武汉理工大学 视觉惯性激光数据融合的模块化无人车定位方法及系统

Also Published As

Publication number Publication date
CN113432602A (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN106780699B (zh) 一种基于sins/gps和里程计辅助的视觉slam方法
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN108052103B (zh) 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
CN109708649B (zh) 一种遥感卫星的姿态确定方法及系统
US7071970B2 (en) Video augmented orientation sensor
CN109443348B (zh) 一种基于环视视觉和惯导融合的地下车库库位跟踪方法
CN107909614B (zh) 一种gps失效环境下巡检机器人定位方法
CN106529538A (zh) 一种飞行器的定位方法和装置
US11062475B2 (en) Location estimating apparatus and method, learning apparatus and method, and computer program products
CN110533719B (zh) 基于环境视觉特征点识别技术的增强现实定位方法及装置
EP3132231A1 (en) A method and system for estimating information related to a vehicle pitch and/or roll angle
CN112050806B (zh) 一种移动车辆的定位方法及装置
CN110388919B (zh) 增强现实中基于特征图和惯性测量的三维模型定位方法
CN109214254B (zh) 一种确定机器人位移的方法及装置
CN104848861A (zh) 一种基于图像消失点识别技术的移动设备姿态测量方法
CN105324792A (zh) 用于估计移动元件相对于参考方向的角偏差的方法
CN113052897A (zh) 定位初始化方法和相关装置、设备、存储介质
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
CN110503684A (zh) 相机位姿估计方法和装置
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN114690229A (zh) 一种融合gps的移动机器人视觉惯性导航方法
CN114529585A (zh) 基于深度视觉和惯性测量的移动设备自主定位方法
CN112862818B (zh) 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法
Huttunen et al. A monocular camera gyroscope

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant