CN116753953A - 一种基于视觉的无人机组合导航方法 - Google Patents

一种基于视觉的无人机组合导航方法 Download PDF

Info

Publication number
CN116753953A
CN116753953A CN202310615345.7A CN202310615345A CN116753953A CN 116753953 A CN116753953 A CN 116753953A CN 202310615345 A CN202310615345 A CN 202310615345A CN 116753953 A CN116753953 A CN 116753953A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
measurement
matrix
moment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310615345.7A
Other languages
English (en)
Inventor
江新奇
贺希格图
徐勇超
王京伟
朱宴南
李金柱
张伟
侯玉山
张延续
黄磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jarud Banner Zahazuoer Coal Industry Co ltd
Original Assignee
Jarud Banner Zahazuoer Coal Industry Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jarud Banner Zahazuoer Coal Industry Co ltd filed Critical Jarud Banner Zahazuoer Coal Industry Co ltd
Priority to CN202310615345.7A priority Critical patent/CN116753953A/zh
Publication of CN116753953A publication Critical patent/CN116753953A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种基于视觉的无人机组合导航方法,先通过视觉系统获取到图像,计算得到无人机相对于标签中心的位置信息,接着选取组合导航的状态向量,构建状态向量的预测方程,然后选取视觉输出的位置信息作为量测,计算量测矩阵,利用量测向量在EKF滤波中对状态向量进行修正,完成组合导航模型的建立,在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测,完成基于视觉的无人机组合导航方法设计,本发明将视觉系统得到的无人机相对于标签中心的位置信息和IMU数据进行融合,可直接输出无人机高精度的姿态、速度与位置,不需要建立复杂的误差模型。

Description

一种基于视觉的无人机组合导航方法
技术领域
本发明属于无人机技术领域,具体涉及一种基于视觉的无人机组合导航方法。
背景技术
目前,无人机技术的发展突飞猛进,基于无人机的应用领域也越来越广泛。在军事侦查、战场监视、火灾探测、环境与交通监测方面都得到了广泛的应用。无人机在执行任务期间周围环境复杂多变,为了顺利完成任务,优秀的组合导航方法至关重要。目前无人机常用的定位方法为卫星惯性组合导航算法,但是卫星导航系统容易受到干扰或者欺骗,造成无人机无法定位,或者定位不准确,为了提高在GPS拒止情况下无人机的生存能力,需要研究一种自主导航方法。
因此研究一种自主组合导航方法是解决这一问题的关键。
发明内容
本发明的目的在于克服上述现有技术的不足,提供一种基于视觉的无人机组合导航方法。
为了解决技术问题,本发明的技术方案是:一种基于视觉的无人机组合导航方法,包括以下步骤:
步骤1:首先通过视觉系统进行视觉信息采集,然后通过采集到的图像信息与标签库进行匹配,匹配到标签之后输出识别信息,根据识别信息计算无人机相对于标签中心的位置信息;
步骤2:选取组合导航的状态向量Xk,构建状态向量的预测方程,然后选取步骤1的位置信息作为量测,构建量测预测方程,计算量测矩阵Hk,通过量测向量在EKF滤波中对状态向量进行修正,完成组合导航模型的建立;
步骤3:在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测,完成基于视觉的无人机组合导航方法设计。
优选的,所述步骤1具体为:
步骤1-1:通过视觉系统获取到图像信息后与标签库进行匹配,匹配到标签之后输出识别信息;
步骤1-2:对标签坐标系和图像像素坐标系进行定义,标签坐标系的定义:坐标原点位于标签中心,x轴指向标签前方,y轴指向标签右方;图像像素坐标系的定义:图像像素坐标系的原点在图像的左上角,坐标单位为像素,单个像素的大小为w;因此识别信息包括:标签x轴长度在图像像素坐标系中的像素个数lxp、标签y轴长度在图像像素坐标系中的像素个数lyp、标签中心相对于图像中心的距离在图像像素坐标系x轴所占像素的大小dxp、标签中心相对于图像中心的距离在图像像素坐标系y轴所占像素的大小dyp,以及目标识别状态;
步骤1-3:根据标签在图像像素坐标系的大小(lxp,lyp)、标签实际大小(lx,ly)、单个像素的大小w以及标签中心相对于图像中心的距离在图像像素坐标系所占像素的大小(dxp,dyp)计算无人机相对于标签中心的位置信息,即水平位置和垂直位置;
所述水平位置计算公式为:
其中:
dx为无人机距离标签的x方向的距离;
dy为无人机距离标签的y方向的距离;
所述垂直位置计算公式为:
其中:
dz为无人机距离标签的z方向的距离;
f为视觉系统的相机焦距。
优选的,所述步骤1-1中的标签为正方形,标签中可嵌套多个标签图案,最大的标签图案边长为1m,最小的标签图案为0.05m。
优选的,所述步骤1-2中的目标识别状态包括图像异常、查询无目标、识别结果不稳定和识别稳定。
优选的,所述步骤2具体为:
步骤2-1:选取无人机的姿态四元数、速度、位置、陀螺零偏与加速度计零偏为状态向量Xk,即:
其中q0为无人机姿态四元数实部,q1、q2、q3为无人机姿态四元数虚部,vn为无人机北向速度,ve为无人机东向速度,vd为无人机地向速度,pn为无人机北向位置,pe为无人机东向位置,pd为无人机地向位置,εx为x轴陀螺零偏,εy为y轴陀螺零偏,εz为z轴陀螺零偏,/>为x轴加速度计零偏,/>为y轴加速度计零偏,/>为z轴加速度计零偏;
步骤2-2:构建状态向量的预测方程;
其中:
Xk-1为k-1时刻状态向量;
Φk/k-1为状态转移矩阵;
为k时刻状态向量预测值;
通过计算状态向量预测值与状态向量的雅克比矩阵计算出状态转移矩阵Φk/k-1
步骤2-3:选取步骤1的位置信息作为无人机的位置量测Zk=[dx dy dz]T,构建无人机位置量测预测方程为:
其中:
为无人机位置量测预测值;
为无人机位置状态预测值;
Hk为量测矩阵,为3×3单位阵;
通过计算位置量测预测值与位置状态预测值的雅克比矩阵即计算出位置的量测矩阵Hk
步骤2-4:EKF滤波,利用量测向量在EKF滤波中对状态向量进行修正;
步骤2-4-1:状态预测
步骤2-4-2:状态误差协方差矩阵预测
步骤2-4-3:滤波器增益
步骤2-4-4:状态误差协方差矩阵更新
步骤2-4-5:进行数据融合,对状态进行更新:
其中:
Pk-1为k-1时刻EKF滤波状态误差协方差矩阵;
为k时刻EKF滤波状态误差协方差矩阵预测值;
Qk-1为k-1时刻系统噪声矩阵;
Rk为k时刻量测噪声矩阵;
Kk为k时刻滤波器增益矩阵;
Pk为k时刻EKF滤波状态误差协方差矩阵;
为一步状态转移矩阵;
为量测矩阵的转置;
Xk为状态向量;
Zk为量测向量。
优选的,所述步骤2-2中无人机的姿态四元数预测方程为:
其中:
为k时刻无人机姿态四元数预测;
qk-1为k-1时刻无人机姿态四元数;
Δq为k-1至k时刻无人机姿态四元数变化量;
为四元数相乘;
k-1至k时刻无人机姿态四元数变化量计算公式为:
其中:
Δθx为k-1至k时刻无人机x轴角增量;
Δθy为k-1至k时刻无人机y轴角增量;
Δθz为k-1至k时刻无人机z轴角增量;
k-1至k时刻无人机各轴角增量计算公式为:
Δθx=(ωxx)·Δt
Δθy=(ωyy)·Δt
Δθz=(ωzz)·Δt
其中:
ωx为无人机x轴陀螺输出的角速度;
εx为无人机x轴陀螺零偏;
ωy为无人机y轴陀螺输出的角速度;
εy为无人机y轴陀螺零偏;
ωz为无人机z轴陀螺输出的角速度;
εz为无人机z轴陀螺零偏;
Δt为k-1至k时刻时间间隔。
优选的,所述步骤2-2中无人机的速度预测方程为:
其中:
为无人机k时刻速度预测;
vk-1为无人机k-1时刻速度;
g0为无人机飞行地点当地重力加速度;
为载体坐标系至导航坐标系的坐标转换矩阵;
Δv为k-1至k时刻速度增量;
载体坐标系至导航坐标系的坐标转换矩阵的计算公式为:
k-1至k时刻速度增量的计算公式为:
其中:
ax为无人机x轴加速度计输出的加速度;
为无人机x轴加速度计零偏;
ay为无人机y轴加速度计输出的加速度;
为无人机y轴加速度计零偏;
az为无人机z轴加速度计输出的加速度;
为无人机z轴加速度计零偏。
优选的,所述步骤2-2中无人机的位置预测方程为:
其中:
为k时刻无人机位置状态预测值;
pk-1为k-1时刻无人机位置;
vk-1为k-1时刻无人机速度。
优选的,所述步骤2-2中无人机陀螺零偏与加速度计零偏的预测方程为:
其中:
为k时刻无人机陀螺零偏预测值;
εk-1为k-1时刻无人机陀螺零偏;
为k时刻无人机加速度计零偏预测值;
为k-1时刻无人机加速度计零偏。
优选的,所述步骤3中在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测具体为:在进行EKF滤波时分别对每个量测进行一致性检测,一致性检测通过后再进行协方差矩阵正定性检测,即步骤2-4-4,假如该量测没有通过一致性检测,则只进行状态预测与状态误差协方差矩阵预测,即步骤2-4-1和步骤2-4-2;
所述量测一致性检测方法为:
假设北向位置量测为pn,北向位置量测预测值为将北向位置量测值与北向位置量测预测值做差记为/>假设量测噪声阵Rk中对应的北向位置量测噪声为/>误差协方差矩阵/>中对应的北向位置误差为/>量测一致性检测公式如下:
其中k为系数;
其它量测的一致性检测与北向位置的一致性检测相同;
所述协方差矩阵正定性检测方法为:
在进行步骤2-4-4时,需要保证Pk为正定矩阵,根据步骤2-4-4可知需要保证/>的每个对角线元素分别大于KHP对应对角线元素,滤波器协方差矩阵正定性检测公式如下:
与现有技术相比,本发明的优点在于:
(1)本发明提出的一种基于视觉的无人机组合导航方法,先通过视觉系统获取到图像,计算得到无人机相对于标签中心的位置信息,接着选取组合导航的状态向量,构建状态向量的预测方程,然后选取视觉输出的位置信息作为量测,计算量测矩阵,利用量测向量在EKF滤波中对状态向量进行修正,完成组合导航模型的建立,在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测,完成基于视觉的无人机组合导航方法设计,本发明将视觉系统得到的无人机相对于标签中心的位置信息和IMU数据进行融合,可直接输出无人机高精度的姿态、速度与位置,不需要建立复杂的误差模型;
(2)本发明提出的一种基于视觉的无人机组合导航方法,可在GPS拒止环境下通过视觉系统对标签进行图像采样,然后根据标签信息,实时计算无人机相对于标签中心的位置信息,并实时输出,然后与IMU数据融合,提供高精度的姿态、速度以及位置信息;
(3)本发明提出的一种基于视觉的无人机组合导航方法,在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测,当进行EKF滤波时分别对每个量测进行一致性检测,一致性检测通过后再进行协方差矩阵正定性检测,假如该量测没有通过一致性检测,则只进行状态预测与状态误差协方差矩阵预测,将一致性检测设置在步骤2-4-2状态误差协方差矩阵预测和步骤2-4-3滤波器增益之间,如一致性检测未通过则不需计算滤波器增益,可大大减少CPU的计算量,本发明导航方法计算量小,实时性高;
(4)本发明提出的一种基于视觉的无人机组合导航方法可实时对量测信息进行一致性检测,防止误差较大的量测对滤波器造成不利的影响,增加了系统的鲁棒性;本发明还可实时对滤波器协方差矩阵进行正定性检测,防止滤波器发散,并及时对滤波器进行调整。
附图说明
图1为本发明标签坐标系示意图;
图2为本发明图像像素坐标系示意图;
图3为本发明水平位置计算示意图;
图4为本发明垂直位置计算示意图;
图5为本发明一种基于视觉的无人机组合导航方法流程图;
图6为本发明序贯滤波的实施流程图;
图7为本发明位置融合结果示意图;
图8为本发明位置融合结果示意图。
具体实施方式
下面结合实施例描述本发明具体实施方式:
本发明提出的一种基于视觉的组合导航方法的具体实施方式如下:
步骤1:首先通过视觉系统进行视觉信息采集,然后通过采集到的图像信息与标签库进行匹配,匹配到标签之后输出识别信息,根据识别信息计算无人机相对于标签中心的位置信息;
步骤2:选取组合导航的状态向量Xk,构建状态向量的预测方程,然后选取步骤1的位置信息作为量测,构建量测预测方程,计算量测矩阵Hk,通过量测向量在EKF滤波中对状态向量进行修正,完成组合导航模型的建立;
步骤3:在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测,完成基于视觉的无人机组合导航方法设计。
优选的,所述步骤1具体为:
步骤1-1:通过视觉系统获取到图像信息后与标签库进行匹配,匹配到标签之后输出识别信息;
步骤1-2:对标签坐标系和图像像素坐标系进行定义,标签坐标系的定义:坐标原点位于标签中心,x轴指向标签前方,y轴指向标签右方;图像像素坐标系的定义:图像像素坐标系的原点在图像的左上角,坐标单位为像素,单个像素的大小为w;因此识别信息包括:标签x轴长度在图像像素坐标系中的像素个数lxp、标签y轴长度在图像像素坐标系中的像素个数lyp、标签中心相对于图像中心的距离在图像像素坐标系x轴所占像素的大小dxp、标签中心相对于图像中心的距离在图像像素坐标系y轴所占像素的大小dyp,以及目标识别状态;
步骤1-3:根据标签在图像像素坐标系的大小(lxp,lyp)、标签实际大小(lx,ly)、单个像素的大小w以及标签中心相对于图像中心的距离在图像像素坐标系所占像素的大小(dxp,dyp)计算无人机相对于标签中心的位置信息,即水平位置和垂直位置;
所述水平位置计算公式为:
其中:
dx为无人机距离标签的x方向的距离;
dy为无人机距离标签的y方向的距离;
所述垂直位置计算公式为:
其中:
dz为无人机距离标签的z方向的距离;
f为视觉系统的相机焦距。
优选的,所述步骤1-1中的标签为正方形,标签中可嵌套多个标签图案,最大的标签图案边长为1m,最小的标签图案为0.05m。
优选的,所述步骤1-2中的目标识别状态包括图像异常、查询无目标、识别结果不稳定和识别稳定。
优选的,所述步骤2具体为:
步骤2-1:选取无人机的姿态四元数、速度、位置、陀螺零偏与加速度计零偏为状态向量Xk,即:
其中q0为无人机姿态四元数实部,q1、q2、q3为无人机姿态四元数虚部,vn为无人机北向速度,ve为无人机东向速度,vd为无人机地向速度,pn为无人机北向位置,pe为无人机东向位置,pd为无人机地向位置,εx为x轴陀螺零偏,εy为y轴陀螺零偏,εz为z轴陀螺零偏,/>为x轴加速度计零偏,/>为y轴加速度计零偏,/>为z轴加速度计零偏;
步骤2-2:构建状态向量的预测方程;
其中:
Xk-1为k-1时刻状态向量;
Φk/k-1为状态转移矩阵;
为k时刻状态向量预测值;
通过计算状态向量预测值与状态向量的雅克比矩阵计算出状态转移矩阵Φk/k-1
步骤2-3:选取步骤1的位置信息作为无人机的位置量测Zk=[dx dy dz]T,构建无人机位置量测预测方程为:
其中:
为无人机位置量测预测值;
为无人机位置状态预测值;
Hk为量测矩阵,为3×3单位阵;
通过计算位置量测预测值与位置状态预测值的雅克比矩阵即计算出位置的量测矩阵Hk
步骤2-4:EKF滤波,利用量测向量在EKF滤波中对状态向量进行修正;
步骤2-4-1:状态预测
步骤2-4-2:状态误差协方差矩阵预测
步骤2-4-3:滤波器增益
步骤2-4-4:状态误差协方差矩阵更新
步骤2-4-5:进行数据融合,对状态进行更新:
其中:
Pk-1为k-1时刻EKF滤波状态误差协方差矩阵;
为k时刻EKF滤波状态误差协方差矩阵预测值;
Qk-1为k-1时刻系统噪声矩阵;
Rk为k时刻量测噪声矩阵;
Kk为k时刻滤波器增益矩阵;
Pk为k时刻EKF滤波状态误差协方差矩阵;
为一步状态转移矩阵;
为量测矩阵的转置;
Xk为状态向量;
Zk为量测向量。
优选的,所述步骤2-2中无人机的姿态四元数预测方程为:
其中:
为k时刻无人机姿态四元数预测;
qk-1为k-1时刻无人机姿态四元数;
Δq为k-1至k时刻无人机姿态四元数变化量;
为四元数相乘;
k-1至k时刻无人机姿态四元数变化量计算公式为:
其中:
Δθx为k-1至k时刻无人机x轴角增量;
Δθy为k-1至k时刻无人机y轴角增量;
Δθz为k-1至k时刻无人机z轴角增量;
k-1至k时刻无人机各轴角增量计算公式为:
Δθx=(ωxx)·Δt
Δθy=(ωyy)·Δt
Δθz=(ωzz)·Δt
其中:
ωx为无人机x轴陀螺输出的角速度;
εx为无人机x轴陀螺零偏;
ωy为无人机y轴陀螺输出的角速度;
εy为无人机y轴陀螺零偏;
ωz为无人机z轴陀螺输出的角速度;
εz为无人机z轴陀螺零偏;
Δt为k-1至k时刻时间间隔。
优选的,所述步骤2-2中无人机的速度预测方程为:
其中:
为无人机k时刻速度预测;
vk-1为无人机k-1时刻速度;
g0为无人机飞行地点当地重力加速度;
为载体坐标系至导航坐标系的坐标转换矩阵;
Δv为k-1至k时刻速度增量;
载体坐标系至导航坐标系的坐标转换矩阵的计算公式为:
k-1至k时刻速度增量的计算公式为:
其中:
ax为无人机x轴加速度计输出的加速度;
为无人机x轴加速度计零偏;
ay为无人机y轴加速度计输出的加速度;
为无人机y轴加速度计零偏;
az为无人机z轴加速度计输出的加速度;
为无人机z轴加速度计零偏。
优选的,所述步骤2-2中无人机的位置预测方程为:
其中:
为k时刻无人机位置状态预测值;
pk-1为k-1时刻无人机位置;
vk-1为k-1时刻无人机速度。
优选的,所述步骤2-2中无人机陀螺零偏与加速度计零偏的预测方程为:
其中:
为k时刻无人机陀螺零偏预测值;
εk-1为k-1时刻无人机陀螺零偏;
为k时刻无人机加速度计零偏预测值;
为k-1时刻无人机加速度计零偏。
优选的,所述步骤3中在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测具体为:在进行EKF滤波时分别对每个量测进行一致性检测,一致性检测通过后再进行协方差矩阵正定性检测,即步骤2-4-4,假如该量测没有通过一致性检测,则只进行状态预测与状态误差协方差矩阵预测,即步骤2-4-1和步骤2-4-2;
所述量测一致性检测方法为:
假设北向位置量测为pn,北向位置量测预测值为将北向位置量测值与北向位置量测预测值做差记为/>假设量测噪声阵Rk中对应的北向位置量测噪声为/>误差协方差矩阵/>中对应的北向位置误差为/>量测一致性检测公式如下:/>
其中k为系数;
其它量测的一致性检测与北向位置的一致性检测相同;
所述协方差矩阵正定性检测方法为:
在进行步骤2-4-4时,需要保证Pk为正定矩阵,根据步骤2-4-4可知需要保证/>的每个对角线元素分别大于KHP对应对角线元素,滤波器协方差矩阵正定性检测公式如下:
实施例1
下面结合附图对本发明提出的一种基于视觉的无人机组合导航方法的原理进行详细说明。
步骤1:计算视觉系统的位置信息;
视觉系统获取到图像后进行图像匹配,匹配完成后输出识别信息,识别信息包含如下数据:
1)标签x轴长度在图像像素坐标系中的像素个数lxp
2)标签y轴长度在图像像素坐标系中的像素个数lyp
3)标签中心相对于图像中心的距离在图像像素坐标系x轴所占像素的大小dxp
4)标签中心相对于图像中心的距离在图像像素坐标系y轴所占像素的大小dyp
5)目标识别状态表示sta。
sta包含如下几种状态:
1)图像异常;
2)查询无目标;
3)识别结果不稳定;
4)识别稳定。
如图1所示,标签坐标系的定义:坐标原点位于标签中心,x轴指向标签前方,y轴指向标签右方。
如图2所示,图像像素坐标系的定义:图像像素坐标系的原点在图像的左上角,坐标单位为像素,单个像素的大小为(w)。
本发明的标签为正方形,可嵌套多个标签图案,最大的标签图案边长为1m,最小的标签图案为0.05m,那么根据标签在图像像素坐标系的大小(lxp,lyp)、标签实际大小(lx,ly)、单个像素的大小为(w)以及标签中心相对于图像中心的距离在图像像素坐标系所占像素的大小(dxp,dyp);
如图3所示的水平位置计算示意图,求取水平位置方法如下:
根据相似三角形关系那么有如下关系成立,
/>
其中字母含义如下表示:
1)dx:表示无人机距离标签的x方向的距离。
2)dy:表示无人机距离标签的y方向的距离。
如图4所示的垂直位置计算示意图,求取垂直位置,即高度计算公式如下:
其中字母含义如下表示:
1)dz:表示无人机距离标签的z方向的距离。
2)f:表示相机的焦距。
至此视觉系统的位置信息计算完成。
步骤2:
步骤2-1:选取无人机的姿态四元数、速度、位置、陀螺零偏与加速度计零偏为状态向量Xk,即:
其中为q0为无人机姿态四元数实部,q1、q2、q3为无人机姿态四元数虚部,vn为无人机北向速度,ve为无人机东向速度,vd为无人机地向速度,pn为无人机北向位置,pe为无人机东向位置,pd为无人机地向位置,εx为x轴陀螺零偏,εy为y轴陀螺零偏,εz为z轴陀螺零偏,为x轴加速度计零偏,/>为y轴加速度计零偏,/>为z轴加速度计零偏。
步骤2-2:构建状态向量的预测方程:
其中:
Xk-1为k-1时刻状态向量;
Φk/k-1为状态转移矩阵;
为k时刻状态向量预测值;
下面介绍状态向量预测值与Φk/k-1的计算过程:
首先介绍无人机姿态四元数的状态预测
其中:
为k时刻无人机姿态四元数预测;
qk-1为k-1时刻无人机姿态四元数;
Δq为k-1至k时刻无人机姿态四元数变化量;
为四元数相乘;
k-1至k时刻无人机姿态四元数变化量计算公式为:
其中:
Δθx为k-1至k时刻无人机x轴角增量;
Δθy为k-1至k时刻无人机y轴角增量;
Δθz为k-1至k时刻无人机z轴角增量;
k-1至k时刻无人机各轴角增量计算公式为:
Δθx=(ωxx)·Δt
Δθy=(ωyy)·Δt
Δθz=(ωzz)·Δt
其中:
ωx为无人机x轴陀螺输出的角速度;
εx为无人机x轴陀螺零偏;
ωy为无人机y轴陀螺输出的角速度;
εy为无人机y轴陀螺零偏;
ωz为无人机z轴陀螺输出的角速度;
εz为无人机z轴陀螺零偏;
Δt为k-1至k时刻时间间隔;
至此无人机姿态四元数预测完成。
下面介绍无人机速度预测
其中:
为无人机k时刻速度预测;
vk-1为无人机k-1时刻速度;
g0为无人机飞行地点当地重力加速度;
为载体坐标系至导航坐标系的坐标转换矩阵;
Δv为k-1至k时刻速度增量;
载体坐标系至导航坐标系的坐标转换矩阵的计算公式如下:
k-1至k时刻速度增量的计算公式如下:
其中:
ax为无人机x轴加速度计输出的加速度;
为无人机x轴加速度计零偏;
ay为无人机y轴加速度计输出的加速度;
为无人机y轴加速度计零偏;
az为无人机z轴加速度计输出的加速度;
为无人机z轴加速度计零偏。
无人机的位置预测方程为:
其中:
为k时刻无人机位置状态预测值;
pk-1为k-1时刻无人机位置;
vk-1为k-1时刻无人机速度。
至此,无人机位置预测完成。
下面介绍无人机陀螺零偏与加速度计零偏的预测
其中:
为k时刻无人机陀螺零偏预测值;
εk-1为k-1时刻无人机陀螺零偏;
为k时刻无人机加速度计零偏预测值;
为k-1时刻无人机加速度计零偏。;
至此无人机的状态向量的预测全部完成,只需计算状态向量预测值与状态向量的雅克比矩阵即可计算出状态转移矩阵Φk/k-1
步骤2-3:下面介绍量测矩阵的计算;
选取步骤1的位置信息作为无人机的位置量测Zk=[dx dy dz]T,构建无人机位置量测预测方程为:
其中:
为无人机位置量测预测值;
为无人机位置状态预测值;
Hk为量测矩阵,为3×3单位阵;
通过计算位置量测预测值与位置状态预测值的雅克比矩阵即计算出位置的量测矩阵Hk,至此已完成位置量测矩阵的计算;
步骤2-4:EKF滤波实施过程如下:
步骤2-4-1:状态预测
步骤2-4-2:状态误差协方差矩阵预测
步骤2-4-3:滤波器增益
/>
步骤2-4-4:状态误差协方差矩阵更新
步骤2-4-5:进行数据融合,对状态进行更新
其中:
Pk-1为k-1时刻EKF滤波状态误差协方差矩阵;
为k时刻EKF滤波状态误差协方差矩阵预测值;
Qk-1为k-1时刻系统噪声矩阵;
Rk为k时刻量测噪声矩阵;
Kk为k时刻滤波器增益矩阵;
Pk为k时刻EKF滤波状态误差协方差矩阵;
为一步状态转移矩阵;
为量测矩阵的转置;
Xk为状态向量;
Zk为量测向量。
步骤3:在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测,完成基于视觉的无人机组合导航方法设计。
如图6所示,为了增加系统的鲁棒性,避免误差较大的量测对滤波器造成不利的影响,需要实时对量测进行一致性检测,为了实现对每个量测分别进行一致性检测,需要将上述EKF滤波形式设计为序贯滤波的形式,下面介绍对量测进行一致性检测的方法。
假设北向位置量测为pn,北向位置量测预测值为将北向位置量测值与北向位置量测预测值做差记为/>假设量测噪声阵(Rk)中对应的北向位置量测噪声为/>误差协方差矩阵/>中对应的北向位置误差为/>量测一致性检测公式如下:
其中k为系数,一般认为量测噪声阵(Rk)与误差协方差矩阵中对应的量测误差是在1σ下计算的,而且/>与/>均为误差的平方,若要使一致性检测在3σ下通过,k一般取9,具体值可根据提供量测数据的传感器进行设置。
其它量测的一致性检测与北向位置的一致性检测相同,在进行EKF滤波时分别对每个量测进行一致性检测,一致性检测通过后再进行滤波器协方差矩阵正定性检测,即EKF步骤2-4-4,假如该量测没有通过一致性检测,则只进行状态预测与状态误差协方差矩阵预测,不进行滤波器协方差矩阵正定性检测,即EKF滤波的步骤2-4-1与步骤2-4-2,为了减小CPU的计算量,一致性检测步骤一般EKF滤波步骤2-4-2与步骤2-4-3之间,假如一致性检测未通过则不需计算滤波器增益,可大大减少CPU的计算量。
至此量测一致性检测已完成,下面介绍对滤波器协方差矩阵正定性检测;
在进行滤波器协方差矩阵更新时,即EKF滤波步骤2-4-4,需要保证Pk为正定矩阵,根据EKF滤波步骤2-4-4公式可知需要保证/>的每个对角线元素分别大于KHP对应对角线元素,滤波器协方差矩阵正定性检测公式如下:
进行EKF滤波时,只有量测通过一致性检测,滤波器协方差矩阵通过正定性检测才可利用该量测对滤波器状态进行修正,只要有一个检测未通过,均不可利用该量测对滤波器状态进行修正,只进行状态预测与状态误差协方差矩阵预测,即EKF滤波的步骤2-4-1与步骤2-4-2。
至此基于视觉的无人机组合导航方法设计完成。
应用实施例
在无人机精准降落过程中,使用本发明提出的组合导航方法,在整个降落过程中,使用飞机挂载的吊舱进行图像数据的采集,将采集的图像实时传输给NX板进行计算,输出识别信息,并将识别信息传输至飞控,飞控将识别信息与IMU数据进行融合,实时输出高精度无人机定位结果,实现了低成本的精准降落过程,位置融合结果(视觉系统获得的位置信息与IMU数据融合出的位置,即图6中滤波器输出的Xk)如图7和8所示,图中实线为IMU数据,虚线为视觉系统获得的位置信息,从图中可看出位置精度达到厘米级。
所述IMU数据为角速度和加速度数据。
本发明的原理如下:
如图5所示,本发明提出的一种基于视觉的无人机组合导航方法,首先利用视觉系统对标签进行图像数据采样,接着进行图像标签匹配,然后根据标签的识别信息,实时计算无人机相对于标签中心的位置信息(解算图像定位信息),并实时输出,将位置信息作为量测,构建无人机位置量测预测方程,通过量测向量在EKF滤波中对状态向量进行修正,对IMU数据采集,接着进行状态预测(公式1),进行协方差矩阵预测(公式2),此时对每个量测进行一致性检测,一致性检测通过后再进行协方差矩阵正定性检测(假如该量测没有通过一致性检测,则只进行状态预测与状态误差协方差矩阵预测),使通过视觉系统得到的无人机相对于标签中心的位置信息与IMU数据进行融合(公式5),输出高精度的姿态、速度以及位置信息,该定位方法在GPS拒止条件下,依然可以实时输出高精度的无人机姿态、速度以及位置信息。
本发明提出的一种基于视觉的无人机组合导航方法,先通过视觉系统获取到图像计算得到无人机相对于标签中心的位置信息,接着选取组合导航的状态向量,构建状态向量的预测方程,然后选取视觉输出的位置信息作为量测,计算量测矩阵,利用量测向量在EKF滤波中对状态向量进行修正,完成组合导航模型的建立,在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测,完成基于视觉的无人机组合导航方法设计,本发明将视觉系统得到的无人机相对于标签中心的位置信息和IMU数据进行融合,可直接输出无人机高精度的姿态、速度与位置,不需要建立复杂的误差模型。
本发明提出的一种基于视觉的无人机组合导航方法,可在GPS拒止环境下通过视觉系统对标签进行图像采样,然后根据标签信息,实时计算无人机相对于标签中心的位置,并实时输出,然后与IMU数据融合,提供高精度的姿态、速度以及位置信息。
本发明提出的一种基于视觉的无人机组合导航方法,在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测,当进行EKF滤波时分别对每个量测进行一致性检测,一致性检测通过后再进行协方差矩阵正定性检测,假如该量测没有通过一致性检测,则只进行状态预测与状态误差协方差矩阵预测,将一致性检测设置在步骤2-4-2状态误差协方差矩阵预测和步骤2-4-3滤波器增益之间,如一致性检测未通过则不需计算滤波器增益,可大大减少CPU的计算量,本发明导航方法计算量小,实时性高,系统的鲁棒性高。
本发明提出的一种基于视觉的无人机组合导航方法可实时对量测信息进行一致性检测,防止误差较大的量测对滤波器造成影响,还可实时对滤波器协方差矩阵进行正定性检测,防止滤波器发散,并及时对滤波器进行调整。
上面对本发明优选实施方式作了详细说明,但是本发明不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
不脱离本发明的构思和范围可以做出许多其他改变和改型。应当理解,本发明不限于特定的实施方式,本发明的范围由所附权利要求限定。

Claims (10)

1.一种基于视觉的无人机组合导航方法,其特征在于,包括以下步骤:
步骤1:首先通过视觉系统进行视觉信息采集,然后通过采集到的图像信息与标签库进行匹配,匹配到标签之后输出识别信息,根据识别信息计算无人机相对于标签中心的位置信息;
步骤2:选取组合导航的状态向量Xk,构建状态向量的预测方程,然后选取步骤1的位置信息作为量测,构建量测预测方程,计算量测矩阵Hk,通过量测向量在EKF滤波中对状态向量进行修正,完成组合导航模型的建立;
步骤3:在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测,完成基于视觉的无人机组合导航方法设计。
2.根据权利要求1所述的一种基于视觉的无人机组合导航方法,其特征在于,所述步骤1具体为:
步骤1-1:通过视觉系统获取到图像信息后与标签库进行匹配,匹配到标签之后输出识别信息;
步骤1-2:对标签坐标系和图像像素坐标系进行定义,标签坐标系的定义:坐标原点位于标签中心,x轴指向标签前方,y轴指向标签右方;图像像素坐标系的定义:图像像素坐标系的原点在图像的左上角,坐标单位为像素,单个像素的大小为w;因此识别信息包括:标签x轴长度在图像像素坐标系中的像素个数lxp、标签y轴长度在图像像素坐标系中的像素个数lyp、标签中心相对于图像中心的距离在图像像素坐标系x轴所占像素的大小dxp、标签中心相对于图像中心的距离在图像像素坐标系y轴所占像素的大小dyp,以及目标识别状态;
步骤1-3:根据标签在图像像素坐标系的大小(lxp,lyp)、标签实际大小(lx,ly)、单个像素的大小w以及标签中心相对于图像中心的距离在图像像素坐标系所占像素的大小(dxp,dyp)计算无人机相对于标签中心的位置信息,即水平位置和垂直位置;
所述水平位置计算公式为:
其中:
dx为无人机距离标签的x方向的距离;
dy为无人机距离标签的y方向的距离;
所述垂直位置计算公式为:
其中:
dz为无人机距离标签的z方向的距离;
f为视觉系统的相机焦距。
3.根据权利要求2所述的一种基于视觉的无人机组合导航方法,其特征在于,所述步骤1-1中的标签为正方形,标签中可嵌套多个标签图案,最大的标签图案边长为1m,最小的标签图案为0.05m。
4.根据权利要求2所述的一种基于视觉的无人机组合导航方法,其特征在于,所述步骤1-2中的目标识别状态包括图像异常、查询无目标、识别结果不稳定和识别稳定。
5.根据权利要求1所述的一种基于视觉的无人机组合导航方法,其特征在于,所述步骤2具体为:
步骤2-1:选取无人机的姿态四元数、速度、位置、陀螺零偏与加速度计零偏为状态向量Xk,即:
其中q0为无人机姿态四元数实部,q1、q2、q3为无人机姿态四元数虚部,vn为无人机北向速度,ve为无人机东向速度,vd为无人机地向速度,pn为无人机北向位置,pe为无人机东向位置,pd为无人机地向位置,εx为x轴陀螺零偏,εy为y轴陀螺零偏,εz为z轴陀螺零偏,/>为x轴加速度计零偏,/>为y轴加速度计零偏,/>为z轴加速度计零偏;
步骤2-2:构建状态向量的预测方程;
其中:
Xk-1为k-1时刻状态向量;
Φk/k-1为状态转移矩阵;
为k时刻状态向量预测值;
通过计算状态向量预测值与状态向量的雅克比矩阵计算出状态转移矩阵Φk/k-1
步骤2-3:选取步骤1的位置信息作为无人机的位置量测Zk=[dx dy dz]T,构建无人机位置量测预测方程为:
其中:
为无人机位置量测预测值;
为无人机位置状态预测值;
Hk为量测矩阵,为3×3单位阵;
通过计算位置量测预测值与位置状态预测值的雅克比矩阵即计算出位置的量测矩阵Hk
步骤2-4:EKF滤波,利用量测向量在EKF滤波中对状态向量进行修正;
步骤2-4-1:状态预测
步骤2-4-2:状态误差协方差矩阵预测
步骤2-4-3:滤波器增益
步骤2-4-4:状态误差协方差矩阵更新
步骤2-4-5:进行数据融合,对状态进行更新:
其中:
Pk-1为k-1时刻EKF滤波状态误差协方差矩阵;
为k时刻EKF滤波状态误差协方差矩阵预测值;
Qk-1为k-1时刻系统噪声矩阵;
Rk为k时刻量测噪声矩阵;
Kk为k时刻滤波器增益矩阵;
Pk为k时刻EKF滤波状态误差协方差矩阵;
为一步状态转移矩阵;
为量测矩阵的转置;
Xk为状态向量;
Zk为量测向量。
6.根据权利要求5所述的一种基于视觉的无人机组合导航方法,其特征在于,所述步骤2-2中无人机的姿态四元数预测方程为:
其中:
为k时刻无人机姿态四元数预测;
qk-1为k-1时刻无人机姿态四元数;
Δq为k-1至k时刻无人机姿态四元数变化量;
为四元数相乘;
k-1至k时刻无人机姿态四元数变化量计算公式为:
其中:
Δθx为k-1至k时刻无人机x轴角增量;
Δθy为k-1至k时刻无人机y轴角增量;
Δθz为k-1至k时刻无人机z轴角增量;
k-1至k时刻无人机各轴角增量计算公式为:
Δθx=(ωxx)·Δt
Δθy=(ωyy)·Δt
Δθz=(ωzz)·Δt
其中:
ωx为无人机x轴陀螺输出的角速度;
εx为无人机x轴陀螺零偏;
ωy为无人机y轴陀螺输出的角速度;
εy为无人机y轴陀螺零偏;
ωz为无人机z轴陀螺输出的角速度;
εz为无人机z轴陀螺零偏;
Δt为k-1至k时刻时间间隔。
7.根据权利要求5所述的一种基于视觉的无人机组合导航方法,其特征在于,所述步骤2-2中无人机的速度预测方程为:
其中:
为无人机k时刻速度预测;
vk-1为无人机k-1时刻速度;
g0为无人机飞行地点当地重力加速度;
为载体坐标系至导航坐标系的坐标转换矩阵;
Δv为k-1至k时刻速度增量;
载体坐标系至导航坐标系的坐标转换矩阵的计算公式为:
k-1至k时刻速度增量的计算公式为:
其中:
ax为无人机x轴加速度计输出的加速度;
为无人机x轴加速度计零偏;
ay为无人机y轴加速度计输出的加速度;
为无人机y轴加速度计零偏;
az为无人机z轴加速度计输出的加速度;
为无人机z轴加速度计零偏。
8.根据权利要求5所述的一种基于视觉的无人机组合导航方法,其特征在于,所述步骤2-2中无人机的位置预测方程为:
其中:
为k时刻无人机位置状态预测值;
pk-1为k-1时刻无人机位置;
vk-1为k-1时刻无人机速度。
9.根据权利要求5所述的一种基于视觉的无人机组合导航方法,其特征在于,所述步骤2-2中无人机陀螺零偏与加速度计零偏的预测方程为:
其中:
为k时刻无人机陀螺零偏预测值;
εk-1为k-1时刻无人机陀螺零偏;
为k时刻无人机加速度计零偏预测值;
为k-1时刻无人机加速度计零偏。
10.根据权利要求5所述的一种基于视觉的无人机组合导航方法,其特征在于:所述步骤3中在组合导航模型中加入量测一致性检测与协方差矩阵正定性检测具体为:在进行EKF滤波时分别对每个量测进行一致性检测,一致性检测通过后再进行协方差矩阵正定性检测,即步骤2-4-4,假如该量测没有通过一致性检测,则只进行状态预测与状态误差协方差矩阵预测,即步骤2-4-1和步骤2-4-2;
所述量测一致性检测方法为:
假设北向位置量测为pn,北向位置量测预测值为将北向位置量测值与北向位置量测预测值做差记为/>假设量测噪声阵Rk中对应的北向位置量测噪声为/>误差协方差矩阵/>中对应的北向位置误差为/>量测一致性检测公式如下:
其中k为系数;
其它量测的一致性检测与北向位置的一致性检测相同;
所述协方差矩阵正定性检测方法为:
在进行步骤2-4-4时,需要保证Pk为正定矩阵,根据步骤2-4-4可知需要保证/>的每个对角线元素分别大于KHP对应对角线元素,滤波器协方差矩阵正定性检测公式如下:
CN202310615345.7A 2023-05-25 2023-05-25 一种基于视觉的无人机组合导航方法 Pending CN116753953A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310615345.7A CN116753953A (zh) 2023-05-25 2023-05-25 一种基于视觉的无人机组合导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310615345.7A CN116753953A (zh) 2023-05-25 2023-05-25 一种基于视觉的无人机组合导航方法

Publications (1)

Publication Number Publication Date
CN116753953A true CN116753953A (zh) 2023-09-15

Family

ID=87952389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310615345.7A Pending CN116753953A (zh) 2023-05-25 2023-05-25 一种基于视觉的无人机组合导航方法

Country Status (1)

Country Link
CN (1) CN116753953A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117848331A (zh) * 2024-03-06 2024-04-09 河北美泰电子科技有限公司 基于视觉标签地图的定位方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117848331A (zh) * 2024-03-06 2024-04-09 河北美泰电子科技有限公司 基于视觉标签地图的定位方法及装置

Similar Documents

Publication Publication Date Title
CN111102978B (zh) 一种车辆运动状态确定的方法、装置及电子设备
CN109461190B (zh) 测量数据处理装置及测量数据处理方法
Wu et al. Vision-aided inertial navigation for flight control
CN106289246B (zh) 一种基于位置和姿态测量系统的柔性杆臂测量方法
CN112505737B (zh) 一种gnss/ins组合导航方法
CN108845335A (zh) 一种基于图像和导航信息的无人机地面目标定位方法
CN108375383B (zh) 多相机辅助的机载分布式pos柔性基线测量方法和装置
CN109269512B (zh) 行星着陆图像与测距融合的相对导航方法
CN111426320A (zh) 一种基于图像匹配/惯导/里程计的车辆自主导航方法
CN111798523A (zh) 星相机在轨定标定姿及遥感影像几何定位方法、系统
CN111189442B (zh) 基于cepf的无人机多源导航信息状态预测方法
CN116753953A (zh) 一种基于视觉的无人机组合导航方法
CN108444468B (zh) 一种融合下视视觉与惯导信息的定向罗盘
Liu et al. Tightly coupled modeling and reliable fusion strategy for polarization-based attitude and heading reference system
Gu et al. Airborne distributed POS flexible baseline measurement method based on MCLS
CN117268372B (zh) 融合磁导航信息的ins/gnss组合导航方法和系统
CN114777768A (zh) 一种卫星拒止环境高精度定位方法、系统及电子设备
Fei et al. A Novel Approach Based on MEMS-Gyro's Data Deep Coupling for Determining the Centroid of Star Spot.
CN107764268B (zh) 一种机载分布式pos传递对准的方法和装置
CN111207734B (zh) 一种基于ekf的无人机组合导航方法
Zhao et al. Distributed filtering-based autonomous navigation system of UAV
CN115855063A (zh) 基于绝对姿态递推修正的交会对接敏感器数据预处理方法
CN115930948A (zh) 一种果园机器人融合定位方法
CN111812668B (zh) 绕机检查装置及其定位方法、存储介质
CN113465570B (zh) 一种基于高精度imu的气浮台初始对准方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination