CN110598370B - 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 - Google Patents
基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 Download PDFInfo
- Publication number
- CN110598370B CN110598370B CN201910993971.3A CN201910993971A CN110598370B CN 110598370 B CN110598370 B CN 110598370B CN 201910993971 A CN201910993971 A CN 201910993971A CN 110598370 B CN110598370 B CN 110598370B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- ekf
- state
- attitude
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
Abstract
本发明提出了一种基于SIP和EKF相融合的姿态解算方法,属于无人机状态估计领域,主要用于解决捷联惯性测量单元(IMU)噪声大、精度低的缺点和常规的姿态解算算法精度不高等问题。针对多旋翼无人机的姿态估计问题,还提出了一种利用机载摄像机进行姿态估计的方法。然而,EKF的精度和鲁棒性在一定程度上受到现有的适用于许多刚体的线性恒速过程模型的限制。为此,本发明提出了一种具有多旋翼无人机特点的非线性恒速过程模型,在考虑EKF实现的基础上,进一步设计了一种能够处理任意数量特征点的通用对应方法。所提出的SIP和EKF相融合的方法比现有的滤波方法具有更好的抗噪声和抗遮挡能力,并有效提高了姿态角的解算精度。
Description
技术领域
本发明属于无人机状态估计领域,具体涉及一种基于生存信息势(SIP)和扩展卡尔曼滤波(EKF)融合的姿态解算方法。
背景技术
目前,多旋翼无人机正被广泛应用于许多领域。例如,Amazon已经设计并测试了一个未来的交付系统prime Air,该系统使用多旋翼无人机交付货物。PRENAV使用一个地面机器人和一个多旋翼无人机协同(地空协同)执行工业检查。准确可靠的姿态估计是这些无人机自主运行的基础问题。虽然全球定位系统(GPS)是常用的,但不适用于城市或建筑物内部等没有GPS的情况。相比之下,基于视觉的导航方法不依赖GPS,可以在近距离内提供高精度的姿态。针对小型多旋翼无人机的中央处理器(CPU)容量有限的特点,本发明仅利用单目相机对多旋翼无人机进行视觉伺服(基于视觉的控制)姿态估计。在现有的单目运动捕捉系统中,如Vicon和OptiTrack在单相机模式下,往往会发生由于遮挡或相机视场(FOV)引起的标记缺失,当检测到的标记数小于3时,往往无法获得准确的姿态信息。因此,本发明拟从以下两个方面解决这一问题:(1)使用鱼眼相机,因为它可以提供一个非常大的FOV(约180°)的图像,而不需要外部镜子或旋转设备;(2)提出一种含较少未知数的非线性恒速过程模型。
在计算机视觉中,从n个三维-二维点对应关系估计标定相机的位姿,称为透视-n点(PnP)问题。刚体姿态估计问题很容易转化为PnP问题。因此,现有的刚体(包括多旋翼无人机)姿态估计方法一般可分为三类:线性方法、迭代方法和递归方法。线性方法简单直观,但对噪声敏感。迭代法具有较高的精度和鲁棒性,但计算量比线性方法大,容易陷入局部极小值。递归方法依赖于时间滤波方法,尤其是卡尔曼滤波。这些方法准确、高效,适用于图像序列处理。由于测量模型在系统状态下是非线性的(由摄像机成像模型决定),因此常采用扩展卡尔曼滤波器(EKF)对刚性物体进行视觉伺服。然而,EKF过程模型是一个线性恒速过程模型,适用于许多刚体,对于多旋翼无人机来说不是一个非常合适的模型(需要检测更多的标记才能观察状态)。另一方面,大多数递归方法都是基于传统摄像机的,它们服从针孔投影模型,具有有限的FOV。但这些方法不能直接应用于鱼眼相机的姿态估计,因为鱼眼相机可以提供一个非常大的FOV(约180°)以及针孔相机模型不再有效。
为了解决过程建模问题,提出了一种具有多旋翼无人机特点的非线性恒速过程模型。在此基础上,提出了一种结合过程模型和单眼视觉信息下的融合SIP和EKF的方法。该过程模型提高了姿态估计对噪声和遮挡的鲁棒性。本发明从可观测性的角度出发,将摄像机观测到的特征点的最小数量由3个减少到2个。此外,由于采用了通用的相机模型,所提出的融合最大熵和EKF的方法适用于传统相机以及鱼眼相机。本发明的研究成果有助于提高单摄像机运动捕捉系统或地空协同系统的鲁棒性。此外,大多数基于视觉的EKF方法的实现需要知道3D-2D点对应关系。对于P4P这种单目姿态估计的对应算法,如果在图像中检测到的特征点少于4个(如遮挡或相机FOV引起的),该算法就会失败。这意味着EKF不能在这些情况下工作。为了解决对应问题,本发明还提出了一种将EKF与P4P算法相结合的通用对应方法,该方法可以处理任意数量的图像点。
发明内容
由于现有的应用在无人机姿态角上的数据融合算法各有其不足之处,比如互补滤波原理简单,能够滤去噪声和抑制漂移,但不容易确定合适的高通和低通截止频率,因此精度不高;共轭梯度法滤波和互补滤波相结合在姿态解算中的应用,存在迭代计算量和精度的平衡问题;扩展卡尔曼滤波(EKF)和无迹卡尔曼滤波(UKF)是卡尔曼滤波对非线性系统的滤波方法,EKF存在线性化误差和截断误差,对一般的非线性系统影响不大;UKF在收敛速度和估计精度中要高于EKF,但其计算量要比EKF大,并且它们的系统噪声和观测噪声不容易确定,解算的姿态角容易受到噪声干扰。故本发明用于解决该问题,为了进一步减小估计误差,提出了一种基于SIP和EKF相融合的姿态解算方法。该方法主要包括两个部分,第一部分为SIP和EKF的基本介绍及算法流程;第二部分为二者的融合阶段。
本发明是采用如下技术方案实现的:基于SIP和EKF融合的多旋翼无人机鲁棒姿态估计,具体包括下述内容:
(1)、构建模型,具体步骤如下:
11)、建立相机坐标系(Oc-XcYcZc)和图像坐标系(o-xy);
14)、建立机体坐标系(Ob-XbYbZb)和世界坐标系(Ow-XwYwZw);
16)、然后将Pj从体坐标系到世界坐标系的转换描述为 为世界坐标系中第j个特征点的坐标向量,为体坐标系中第j个特征点的坐标向量,为转换矩阵,将Pj从世界坐标系到相机坐标系的转换描述为 为相机坐标系中第j个特征点的坐标向量,然后联立和可得 其中,
将定义的测量模型与其相结合,相比于测量模型与无人机线性恒速过程模型xk=Axk-1+γk相结合,估计误差会明显减小;
(2)基于SIP和EKF融合的姿态解算方法,主要步骤如下:
21)、利用经验SIP计算SIP;
其中,P(k)是状态协方差矩阵P(k-1)的估计,Q为系统噪声协方差矩阵;
其中,R为观测噪声协方差矩阵;
28)、状态协方差矩阵更新:P(k)=(I-K(k)Hk)P(k);
进一步的讲,13)中的相机通用模型为r(θ)=k1θ+k2θ3+k3θ5+k4θ7+k5θ9+…。
进一步的讲,16)、中的Pj为多旋翼无人机刚性固定的第j个特征点。
进一步的讲,16)、中的转换矩阵为
进一步的讲,21)中利用经验SIP计算SIP的详细过程为
进一步的讲,29)、中的状态更新方程和观测更新方程由状态方程和观测方程更新得到。
本发明的有益效果如下:
1、本发明提出了一种具有多旋翼无人机特点的非线性恒速过程模型,此模型与测量模型相结合可以有效地减小估计误差;
2、本发明提出了一种将EKF与P4P算法相结合的通用对应方法,该方法可以处理任意数量的特征点。
3、在新工艺模型和通用相机模型的基础上,提出了一种适用于通用镜头相机的EKF方法;
4、与现有滤波方法相比,本发明提出的融合SIP和EKF的方法对噪声和遮挡具有更强的鲁棒性。
附图说明
图1为一般相机模型。
图2为不同坐标系的说明。
图3EKF流程图。
图4SIP和EKF结合的原理图。
具体实施方式
第一步,建立相机坐标系和图像坐标系,利用相机模型,导出成像点的图像坐标以及像素坐标;
第二步,再建立机体坐标系和世界坐标系,用表示机体坐标系和世界坐标系之间的相对姿态,T=[X Y Z]T表示相对位置坐标,表示相对取向(俯仰角θ、偏航角和横滚角φ),我们一开始知道的是体坐标系下特征点的坐标,然后利用转换矩阵将其转化为世界坐标系下特征点的坐标,进而转化为相机坐标系下特征点的坐标,最后求出图像坐标系下特征点的二维坐标,再转化为二维像素坐标;
基于SIP和EKF融合的姿态解算方法,主要步骤如下:
步骤S1、生存信息势(SIP)的基本思想是将传统表达式中的密度函数替换为生存函数,这个新的定义似乎更自然、更合理,因为生存函数(分布函数)比概率密度函数(PDF)更规则、更一般。从某种意义上说,这与信息势(IP)和Renyi熵的关系是平行的。作为一种自适应准则,SIP相对于IP具有以下优点:(1)在连续域和离散域具有一致的定义;(2)它不是移位不变的,其值随分布位置而变化;(3)从样本数据可以很容易地计算(不需要核计算和核宽度的选择),估计渐近收敛于真实值;(4)由于分布函数比密度函数更有规则,因此它是一个更有力的度量。
步骤S11)、对于随机变量X,α阶SIP可表示为:
步骤S12)、通常用以下经验SIP来计算SIP:
其中,N为样本数量,当x为标量时S=1;
步骤S2、EKF算法流程,如图3所示,具体步骤如下:
步骤S21)、建立系统的状态方程和观测方程:
步骤S26)、状态协方差矩阵更新:P(k)=(I-K(k)Hk)P(k)。步骤S3、SIP和EKF的融合阶段,如图4所示,具体步骤如下:
下面结合附图对本发明的具体实施进行详细说明。
步骤S1、建立相机坐标系和图像坐标系,利用相机模型,导出成像点的图像坐标以及像素坐标。
步骤S11)、建立相机坐标系(Oc-XcYcZc)和图像坐标系(o-xy),如图1所示;
步骤S13)、利用相机通用模型r(θ)=k1θ+k2θ3+k3θ5+k4θ7+k5θ9+…,可以得到p(鱼眼相机成像点)或p’(针孔相机成像点)的图像坐标然后求出p或p’的像素坐标 mu,mv分别表示单位距离在水平方向和垂直方向上的像素个数。
步骤S2、再建立机体坐标系和世界坐标系,用表示机体坐标系和世界坐标系之间的相对姿态,T=[X Y Z]T表示相对位置坐标,表示相对取向,我们一开始知道的是体坐标系下特征点的坐标,然后利用转换矩阵将其转化为世界坐标系下特征点的坐标,进而转化为相机坐标系下特征点的坐标,最后求出图像坐标系下特征点的二维坐标,再转化为二维像素坐标。
步骤S21)、建立机体坐标系(Ob-XbYbZb)和世界坐标系(Ow-XwYwZw),如图2所示;
步骤S22)、用表示机体坐标系和世界坐标系之间的相对姿态,然后将Pj(多旋翼无人机刚性固定的第j个特征点)从体坐标系到世界坐标系的转换描述为为世界坐标系中第j个特征点的坐标向量,为体坐标系中第j个特征点的坐标向量,为转换矩阵。然后将Pj从世界坐标系到相机坐标系的转换描述为为相机坐标系中第j个特征点的坐标向量。然后联立和 可得其中,
将定义的测量模型与其相结合,相比于测量模型与无人机线性恒速过程模型xk=Axk-1+γk相结合,估计误差会明显减小。
以上所述仅为本发明的具体实施例,但本发明所保护范围的结构特征并不限于此,任何本领域的技术人员在本发明的领域内,所作的变化或修饰皆涵盖在本发明的专利范围内。
Claims (6)
1.基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:具体包括下述内容:
(1)、构建模型,具体步骤如下:
11)、建立相机坐标系(Oc-XcYcZc)和图像坐标系(o-xy);
13)、利用相机通用模型r(θ)=k1θ+k2θ3+k3θ5+k4θ7+k5θ9+…,可以得到p鱼眼相机成像点或p’针孔相机成像点的图像坐标然后求出p或p’的像素坐标 其中,mu,mv分别表示单位距离在水平方向和垂直方向上的像素个数,u0,v0表示像素坐标的初始值;
14)、建立机体坐标系(Ob-XbYbZb)和世界坐标系(Ow-XwYwZw);
16)、然后将Pj多旋翼无人机刚性固定的第j个特征点从体坐标系到世界坐标系的转换描述为为世界坐标系中第j个特征点的坐标向量,为体坐标系中第j个特征点的坐标向量,为转换矩阵,将Pj从世界坐标系到相机坐标系的转换描述为为相机坐标系中第j个特征点的坐标向量,然后联立和 可得其中,
(2)基于生存信息势和EKF融合的姿态解算方法,主要步骤如下:
21)、利用经验生存信息势计算生存信息势:
其中,N为样本数量,当x为标量时S=1;
其中,P(k)是状态协方差矩阵P(k-1)的估计,Q为系统噪声协方差矩阵;
其中,R为观测噪声协方差矩阵;
28)、状态协方差矩阵更新:P(k)=(I-K(k)Hk)P(k);
2.根据权利要求1所述的基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:13)中的相机通用模型为r(θ)=k1θ+k2θ3+k3θ5+k4θ7+k5θ9+...。
3.根据权利要求1所述的基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:16)中的Pj为多旋翼无人机刚性固定的第j个特征点。
6.根据权利要求1所述的基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:29)中的状态更新方程和观测更新方程由状态方程和观测方程更新得到。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910993971.3A CN110598370B (zh) | 2019-10-18 | 2019-10-18 | 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910993971.3A CN110598370B (zh) | 2019-10-18 | 2019-10-18 | 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110598370A CN110598370A (zh) | 2019-12-20 |
CN110598370B true CN110598370B (zh) | 2023-04-14 |
Family
ID=68851086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910993971.3A Active CN110598370B (zh) | 2019-10-18 | 2019-10-18 | 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110598370B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111207734B (zh) * | 2020-01-16 | 2022-01-07 | 西安因诺航空科技有限公司 | 一种基于ekf的无人机组合导航方法 |
CN111342875B (zh) * | 2020-03-04 | 2021-01-26 | 电子科技大学 | 一种基于DoA估计的无人机通信鲁棒波束成形方法 |
CN112747750B (zh) * | 2020-12-30 | 2022-10-14 | 电子科技大学 | 一种基于单目视觉里程计和imu融合的定位方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106643737A (zh) * | 2017-02-07 | 2017-05-10 | 大连大学 | 风力干扰环境下四旋翼飞行器姿态解算方法 |
CN107228664A (zh) * | 2017-05-02 | 2017-10-03 | 太原理工大学 | 矿用陀螺测斜仪捷联惯导系统姿态解算及零速校正方法 |
CN107957680A (zh) * | 2017-11-20 | 2018-04-24 | 太原理工大学 | 基于生存信息势的批式反应器反应过程的控制器 |
CN107976192A (zh) * | 2017-11-16 | 2018-05-01 | 太原理工大学 | 一种综采工作面采运装备的姿态求解与预测方法 |
CN108873917A (zh) * | 2018-07-05 | 2018-11-23 | 太原理工大学 | 一种面向移动平台的无人机自主着陆控制系统及方法 |
CN108958226A (zh) * | 2018-08-08 | 2018-12-07 | 太原理工大学 | 基于生存信息势—主成分分析算法的te过程故障检测方法 |
CN109540126A (zh) * | 2018-12-03 | 2019-03-29 | 哈尔滨工业大学 | 一种基于光流法的惯性视觉组合导航方法 |
CN110081878A (zh) * | 2019-05-17 | 2019-08-02 | 东北大学 | 一种多旋翼无人机的姿态及位置确定方法 |
CN110231029A (zh) * | 2019-05-08 | 2019-09-13 | 西安交通大学 | 一种水下机器人多传感器融合数据处理方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3726884B2 (ja) * | 2001-04-25 | 2005-12-14 | 学校法人日本大学 | 慣性計測装置を用いた姿勢推定装置及び方法並びにプログラム |
US8219267B2 (en) * | 2010-05-27 | 2012-07-10 | Honeywell International Inc. | Wind estimation for an unmanned aerial vehicle |
US9037314B2 (en) * | 2010-06-21 | 2015-05-19 | Optimal Ranging, Inc. | UAV power line position and load parameter estimation |
-
2019
- 2019-10-18 CN CN201910993971.3A patent/CN110598370B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106643737A (zh) * | 2017-02-07 | 2017-05-10 | 大连大学 | 风力干扰环境下四旋翼飞行器姿态解算方法 |
CN107228664A (zh) * | 2017-05-02 | 2017-10-03 | 太原理工大学 | 矿用陀螺测斜仪捷联惯导系统姿态解算及零速校正方法 |
CN107976192A (zh) * | 2017-11-16 | 2018-05-01 | 太原理工大学 | 一种综采工作面采运装备的姿态求解与预测方法 |
CN107957680A (zh) * | 2017-11-20 | 2018-04-24 | 太原理工大学 | 基于生存信息势的批式反应器反应过程的控制器 |
CN108873917A (zh) * | 2018-07-05 | 2018-11-23 | 太原理工大学 | 一种面向移动平台的无人机自主着陆控制系统及方法 |
CN108958226A (zh) * | 2018-08-08 | 2018-12-07 | 太原理工大学 | 基于生存信息势—主成分分析算法的te过程故障检测方法 |
CN109540126A (zh) * | 2018-12-03 | 2019-03-29 | 哈尔滨工业大学 | 一种基于光流法的惯性视觉组合导航方法 |
CN110231029A (zh) * | 2019-05-08 | 2019-09-13 | 西安交通大学 | 一种水下机器人多传感器融合数据处理方法 |
CN110081878A (zh) * | 2019-05-17 | 2019-08-02 | 东北大学 | 一种多旋翼无人机的姿态及位置确定方法 |
Non-Patent Citations (3)
Title |
---|
Convergence of a fixed-point algorithm under maximum correntropy criterion;B. Chen et al.,;《IEEE Signal Processing Letters 》;20151231;第22卷(第10期);第1723-1727页 * |
Markov localization for mobile robots in dynamic environments;Fox D et al.,;《Journal of Artificial Intelligence Research》;19991231(第11期);第391-427页 * |
无人机四旋翼飞行姿态稳定性控制优化;李方良 等;《计算机仿真》;20161031;第33卷(第10期);第43-47页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110598370A (zh) | 2019-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110243358B (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN109887057B (zh) | 生成高精度地图的方法和装置 | |
WO2020037492A1 (en) | Distance measuring method and device | |
CN112304307A (zh) | 一种基于多传感器融合的定位方法、装置和存储介质 | |
CN110598370B (zh) | 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 | |
CN105352509B (zh) | 地理信息时空约束下的无人机运动目标跟踪与定位方法 | |
US11906983B2 (en) | System and method for tracking targets | |
CN107727079A (zh) | 一种微小型无人机全捷联下视相机的目标定位方法 | |
CN110517324B (zh) | 基于变分贝叶斯自适应算法的双目vio实现方法 | |
CN111338383B (zh) | 基于gaas的自主飞行方法及系统、存储介质 | |
CN109300143B (zh) | 运动向量场的确定方法、装置、设备、存储介质和车辆 | |
CN110865650B (zh) | 基于主动视觉的无人机位姿自适应估计方法 | |
Michot et al. | Bi-objective bundle adjustment with application to multi-sensor slam | |
Eynard et al. | Real time UAV altitude, attitude and motion estimation from hybrid stereovision | |
WO2024027350A1 (zh) | 车辆定位方法、装置、计算机设备、存储介质 | |
WO2020038720A1 (en) | Apparatus, method and computer program for detecting the form of a deformable object | |
CN114013449A (zh) | 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆 | |
CN114494629A (zh) | 一种三维地图的构建方法、装置、设备及存储介质 | |
Unicomb et al. | Distance function based 6dof localization for unmanned aerial vehicles in gps denied environments | |
Xian et al. | Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach | |
CN110736457A (zh) | 一种基于北斗、gps和sins的组合导航方法 | |
Mostafa et al. | Optical flow based approach for vision aided inertial navigation using regression trees | |
Hong et al. | Visual inertial odometry using coupled nonlinear optimization | |
Wang et al. | Micro aerial vehicle navigation with visual-inertial integration aided by structured light | |
CN115930948A (zh) | 一种果园机器人融合定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |