CN110598370B - 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 - Google Patents

基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 Download PDF

Info

Publication number
CN110598370B
CN110598370B CN201910993971.3A CN201910993971A CN110598370B CN 110598370 B CN110598370 B CN 110598370B CN 201910993971 A CN201910993971 A CN 201910993971A CN 110598370 B CN110598370 B CN 110598370B
Authority
CN
China
Prior art keywords
coordinate system
ekf
state
attitude
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910993971.3A
Other languages
English (en)
Other versions
CN110598370A (zh
Inventor
李志鹏
程兰
任密蜂
阎高伟
续欣莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiyuan University of Technology
Original Assignee
Taiyuan University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiyuan University of Technology filed Critical Taiyuan University of Technology
Priority to CN201910993971.3A priority Critical patent/CN110598370B/zh
Publication of CN110598370A publication Critical patent/CN110598370A/zh
Application granted granted Critical
Publication of CN110598370B publication Critical patent/CN110598370B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization

Abstract

本发明提出了一种基于SIP和EKF相融合的姿态解算方法,属于无人机状态估计领域,主要用于解决捷联惯性测量单元(IMU)噪声大、精度低的缺点和常规的姿态解算算法精度不高等问题。针对多旋翼无人机的姿态估计问题,还提出了一种利用机载摄像机进行姿态估计的方法。然而,EKF的精度和鲁棒性在一定程度上受到现有的适用于许多刚体的线性恒速过程模型的限制。为此,本发明提出了一种具有多旋翼无人机特点的非线性恒速过程模型,在考虑EKF实现的基础上,进一步设计了一种能够处理任意数量特征点的通用对应方法。所提出的SIP和EKF相融合的方法比现有的滤波方法具有更好的抗噪声和抗遮挡能力,并有效提高了姿态角的解算精度。

Description

基于SIP和EKF融合的多旋翼无人机鲁棒姿态估计
技术领域
本发明属于无人机状态估计领域,具体涉及一种基于生存信息势(SIP)和扩展卡尔曼滤波(EKF)融合的姿态解算方法。
背景技术
目前,多旋翼无人机正被广泛应用于许多领域。例如,Amazon已经设计并测试了一个未来的交付系统prime Air,该系统使用多旋翼无人机交付货物。PRENAV使用一个地面机器人和一个多旋翼无人机协同(地空协同)执行工业检查。准确可靠的姿态估计是这些无人机自主运行的基础问题。虽然全球定位系统(GPS)是常用的,但不适用于城市或建筑物内部等没有GPS的情况。相比之下,基于视觉的导航方法不依赖GPS,可以在近距离内提供高精度的姿态。针对小型多旋翼无人机的中央处理器(CPU)容量有限的特点,本发明仅利用单目相机对多旋翼无人机进行视觉伺服(基于视觉的控制)姿态估计。在现有的单目运动捕捉系统中,如Vicon和OptiTrack在单相机模式下,往往会发生由于遮挡或相机视场(FOV)引起的标记缺失,当检测到的标记数小于3时,往往无法获得准确的姿态信息。因此,本发明拟从以下两个方面解决这一问题:(1)使用鱼眼相机,因为它可以提供一个非常大的FOV(约180°)的图像,而不需要外部镜子或旋转设备;(2)提出一种含较少未知数的非线性恒速过程模型。
在计算机视觉中,从n个三维-二维点对应关系估计标定相机的位姿,称为透视-n点(PnP)问题。刚体姿态估计问题很容易转化为PnP问题。因此,现有的刚体(包括多旋翼无人机)姿态估计方法一般可分为三类:线性方法、迭代方法和递归方法。线性方法简单直观,但对噪声敏感。迭代法具有较高的精度和鲁棒性,但计算量比线性方法大,容易陷入局部极小值。递归方法依赖于时间滤波方法,尤其是卡尔曼滤波。这些方法准确、高效,适用于图像序列处理。由于测量模型在系统状态下是非线性的(由摄像机成像模型决定),因此常采用扩展卡尔曼滤波器(EKF)对刚性物体进行视觉伺服。然而,EKF过程模型是一个线性恒速过程模型,适用于许多刚体,对于多旋翼无人机来说不是一个非常合适的模型(需要检测更多的标记才能观察状态)。另一方面,大多数递归方法都是基于传统摄像机的,它们服从针孔投影模型,具有有限的FOV。但这些方法不能直接应用于鱼眼相机的姿态估计,因为鱼眼相机可以提供一个非常大的FOV(约180°)以及针孔相机模型不再有效。
为了解决过程建模问题,提出了一种具有多旋翼无人机特点的非线性恒速过程模型。在此基础上,提出了一种结合过程模型和单眼视觉信息下的融合SIP和EKF的方法。该过程模型提高了姿态估计对噪声和遮挡的鲁棒性。本发明从可观测性的角度出发,将摄像机观测到的特征点的最小数量由3个减少到2个。此外,由于采用了通用的相机模型,所提出的融合最大熵和EKF的方法适用于传统相机以及鱼眼相机。本发明的研究成果有助于提高单摄像机运动捕捉系统或地空协同系统的鲁棒性。此外,大多数基于视觉的EKF方法的实现需要知道3D-2D点对应关系。对于P4P这种单目姿态估计的对应算法,如果在图像中检测到的特征点少于4个(如遮挡或相机FOV引起的),该算法就会失败。这意味着EKF不能在这些情况下工作。为了解决对应问题,本发明还提出了一种将EKF与P4P算法相结合的通用对应方法,该方法可以处理任意数量的图像点。
发明内容
由于现有的应用在无人机姿态角上的数据融合算法各有其不足之处,比如互补滤波原理简单,能够滤去噪声和抑制漂移,但不容易确定合适的高通和低通截止频率,因此精度不高;共轭梯度法滤波和互补滤波相结合在姿态解算中的应用,存在迭代计算量和精度的平衡问题;扩展卡尔曼滤波(EKF)和无迹卡尔曼滤波(UKF)是卡尔曼滤波对非线性系统的滤波方法,EKF存在线性化误差和截断误差,对一般的非线性系统影响不大;UKF在收敛速度和估计精度中要高于EKF,但其计算量要比EKF大,并且它们的系统噪声和观测噪声不容易确定,解算的姿态角容易受到噪声干扰。故本发明用于解决该问题,为了进一步减小估计误差,提出了一种基于SIP和EKF相融合的姿态解算方法。该方法主要包括两个部分,第一部分为SIP和EKF的基本介绍及算法流程;第二部分为二者的融合阶段。
本发明是采用如下技术方案实现的:基于SIP和EKF融合的多旋翼无人机鲁棒姿态估计,具体包括下述内容:
(1)、构建模型,具体步骤如下:
11)、建立相机坐标系(Oc-XcYcZc)和图像坐标系(o-xy);
12)、设P=[X,Y,Z]T,P点方向上的单位向量可表示为
Figure BDA0002239176970000041
Figure BDA0002239176970000042
Figure BDA0002239176970000043
13)、利用相机通用模型得到p或p’的图像坐标
Figure BDA0002239176970000044
然后求出p或p’的像素坐标
Figure BDA0002239176970000045
其中,mu,mv分别表示单位距离在水平方向上的像素个数和单位距离在垂直方向上的像素个数;
14)、建立机体坐标系(Ob-XbYbZb)和世界坐标系(Ow-XwYwZw);
15)、用
Figure BDA0002239176970000046
表示机体坐标系和世界坐标系之间的相对姿态,T=[X Y Z]T表示机体坐标系和世界坐标系之间的相对位置坐标,
Figure BDA0002239176970000047
Figure BDA0002239176970000048
表示机体坐标系和世界坐标系之间的相对取向,
其中,
Figure BDA0002239176970000049
分别表示俯仰角、偏航角和横滚角;
16)、然后将Pj从体坐标系到世界坐标系的转换描述为
Figure BDA00022391769700000410
Figure BDA00022391769700000411
为世界坐标系中第j个特征点的坐标向量,
Figure BDA00022391769700000412
为体坐标系中第j个特征点的坐标向量,
Figure BDA00022391769700000413
为转换矩阵,将Pj从世界坐标系到相机坐标系的转换描述为
Figure BDA00022391769700000414
Figure BDA00022391769700000415
为相机坐标系中第j个特征点的坐标向量,然后联立
Figure BDA00022391769700000416
Figure BDA00022391769700000417
可得
Figure BDA00022391769700000418
Figure BDA0002239176970000051
其中,
Figure BDA0002239176970000052
17)、最后将Pj映射到
Figure BDA0002239176970000053
处,其坐标可根据13)求出;
18)、已知三维到二维特征对应的
Figure BDA00022391769700000516
则定义测量矢量与状
态矢量之间的测量模型可以表示为zk=g(xk)+vk,其中,
Figure BDA0002239176970000054
是nF个特征点的测量矢量,vk是测量噪声矢量;
19)、将无人机非线性恒速过程模型描述为
Figure BDA0002239176970000055
Figure BDA0002239176970000056
其中,
Figure BDA0002239176970000057
Figure BDA0002239176970000058
Figure BDA0002239176970000059
将定义的测量模型与其相结合,相比于测量模型与无人机线性恒速过程模型xk=Axk-1k相结合,估计误差会明显减小;
(2)基于SIP和EKF融合的姿态解算方法,主要步骤如下:
21)、利用经验SIP计算SIP;
22)、因为存在3个姿态角参数
Figure BDA00022391769700000510
当SIP的值达到最小时,有无穷多个解,结合矩量法得到确定的一组解;
23)、建立系统的状态方程和观测方程:
Figure BDA00022391769700000511
其中,
Figure BDA00022391769700000512
24)、状态一步预测:
Figure BDA00022391769700000513
其中,
Figure BDA00022391769700000514
是状态变量X(k)的估计,Fk-1是状态一步转移矩阵;
25)、状态一步预测协方差矩阵:
Figure BDA00022391769700000515
其中,P(k)是状态协方差矩阵P(k-1)的估计,Q为系统噪声协方差矩阵;
26)、卡尔曼增益更新:
Figure BDA0002239176970000061
其中,R为观测噪声协方差矩阵;
27)、状态更新:
Figure BDA0002239176970000062
28)、状态协方差矩阵更新:P(k)=(I-K(k)Hk)P(k);
29)、通过SIP解算得到的姿态角,再结合EKF的状态更新方程和观测更新方程得到最后的姿态角
Figure BDA0002239176970000063
进一步的讲,13)中的相机通用模型为r(θ)=k1θ+k2θ3+k3θ5+k4θ7+k5θ9+…。
进一步的讲,16)、中的Pj为多旋翼无人机刚性固定的第j个特征点。
进一步的讲,16)、中的转换矩阵为
Figure BDA0002239176970000064
进一步的讲,21)中利用经验SIP计算SIP的详细过程为
Figure BDA0002239176970000071
其中,重力因素
Figure BDA0002239176970000072
F为生存函数,I为信息势,之后为演算过程。
进一步的讲,29)、中的状态更新方程和观测更新方程由状态方程和观测方程更新得到。
本发明的有益效果如下:
1、本发明提出了一种具有多旋翼无人机特点的非线性恒速过程模型,此模型与测量模型相结合可以有效地减小估计误差;
2、本发明提出了一种将EKF与P4P算法相结合的通用对应方法,该方法可以处理任意数量的特征点。
3、在新工艺模型和通用相机模型的基础上,提出了一种适用于通用镜头相机的EKF方法;
4、与现有滤波方法相比,本发明提出的融合SIP和EKF的方法对噪声和遮挡具有更强的鲁棒性。
附图说明
图1为一般相机模型。
图2为不同坐标系的说明。
图3EKF流程图。
图4SIP和EKF结合的原理图。
具体实施方式
第一步,建立相机坐标系和图像坐标系,利用相机模型,导出成像点的图像坐标以及像素坐标;
第二步,再建立机体坐标系和世界坐标系,用
Figure BDA0002239176970000081
表示机体坐标系和世界坐标系之间的相对姿态,T=[X Y Z]T表示相对位置坐标,
Figure BDA0002239176970000082
表示相对取向(俯仰角θ、偏航角
Figure BDA0002239176970000083
和横滚角φ),我们一开始知道的是体坐标系下特征点的坐标,然后利用转换矩阵
Figure BDA0002239176970000084
将其转化为世界坐标系下特征点的坐标,进而转化为相机坐标系下特征点的坐标,最后求出图像坐标系下特征点的二维坐标,再转化为二维像素坐标;
第三步,构建测量矢量与状态矢量之间的测量模型zk=g(xk)+vk,g(xk)可通过第一步和第二步求出,再结合非线性恒速过程模型
Figure BDA0002239176970000085
从而达到更好的减小估计误差的目的。
基于SIP和EKF融合的姿态解算方法,主要步骤如下:
步骤S1、生存信息势(SIP)的基本思想是将传统表达式中的密度函数替换为生存函数,这个新的定义似乎更自然、更合理,因为生存函数(分布函数)比概率密度函数(PDF)更规则、更一般。从某种意义上说,这与信息势(IP)和Renyi熵的关系是平行的。作为一种自适应准则,SIP相对于IP具有以下优点:(1)在连续域和离散域具有一致的定义;(2)它不是移位不变的,其值随分布位置而变化;(3)从样本数据可以很容易地计算(不需要核计算和核宽度的选择),估计渐近收敛于真实值;(4)由于分布函数比密度函数更有规则,因此它是一个更有力的度量。
步骤S11)、对于随机变量X,α阶SIP可表示为:
Figure BDA0002239176970000091
其中,
Figure BDA0002239176970000092
是随机向量|X|的多元生存函数,并且它与姿态角参数
Figure BDA0002239176970000093
有关;
步骤S12)、通常用以下经验SIP来计算SIP:
Figure BDA0002239176970000094
其中,N为样本数量,当x为标量时S=1;
步骤S13)、因为存在3个姿态角参数
Figure BDA0002239176970000095
当SIP的值达到最小时,可能有无穷多个解,我们结合矩量法(MM)可以得到确定的一组解。
步骤S2、EKF算法流程,如图3所示,具体步骤如下:
步骤S21)、建立系统的状态方程和观测方程:
Figure BDA0002239176970000101
步骤S22)、状态一步预测:
Figure BDA0002239176970000102
Figure BDA0002239176970000103
是状态变量X(k)的估计,Fk-1状态一步转移矩阵;
步骤S23)、状态一步预测协方差矩阵:
Figure BDA0002239176970000104
Figure BDA0002239176970000105
P(k)是状态协方差矩阵P(k-1)的估计,Q为系统噪声协方差矩阵;
步骤S24)、卡尔曼增益更新:
Figure BDA0002239176970000106
R为观测噪声协方差矩阵;
步骤S25)、状态更新:
Figure BDA0002239176970000107
步骤S26)、状态协方差矩阵更新:P(k)=(I-K(k)Hk)P(k)。步骤S3、SIP和EKF的融合阶段,如图4所示,具体步骤如下:
步骤S31)、通过SIP将参数估计问题转化为熵优化问题,并结合MM解算得到一组姿态估计量
Figure BDA0002239176970000108
步骤S32)、将SIP解算得到的姿态角与EKF的状态更新方程和观测更新方程相结合,得到最后的姿态角
Figure BDA0002239176970000109
下面结合附图对本发明的具体实施进行详细说明。
步骤S1、建立相机坐标系和图像坐标系,利用相机模型,导出成像点的图像坐标以及像素坐标。
步骤S11)、建立相机坐标系(Oc-XcYcZc)和图像坐标系(o-xy),如图1所示;
步骤S12)、设P=[X,Y,Z]T,那么P点方向上的单位向量可表示为
Figure BDA0002239176970000111
Figure BDA00022391769700001118
步骤S13)、利用相机通用模型r(θ)=k1θ+k2θ3+k3θ5+k4θ7+k5θ9+…,可以得到p(鱼眼相机成像点)或p’(针孔相机成像点)的图像坐标
Figure BDA0002239176970000112
然后求出p或p’的像素坐标
Figure BDA0002239176970000113
Figure BDA0002239176970000114
mu,mv分别表示单位距离在水平方向和垂直方向上的像素个数。
步骤S2、再建立机体坐标系和世界坐标系,用
Figure BDA0002239176970000115
表示机体坐标系和世界坐标系之间的相对姿态,T=[X Y Z]T表示相对位置坐标,
Figure BDA0002239176970000116
表示相对取向,我们一开始知道的是体坐标系下特征点的坐标,然后利用转换矩阵
Figure BDA0002239176970000117
将其转化为世界坐标系下特征点的坐标,进而转化为相机坐标系下特征点的坐标,最后求出图像坐标系下特征点的二维坐标,再转化为二维像素坐标。
步骤S21)、建立机体坐标系(Ob-XbYbZb)和世界坐标系(Ow-XwYwZw),如图2所示;
步骤S22)、用
Figure BDA0002239176970000118
表示机体坐标系和世界坐标系之间的相对姿态,然后将Pj(多旋翼无人机刚性固定的第j个特征点)从体坐标系到世界坐标系的转换描述为
Figure BDA0002239176970000119
为世界坐标系中第j个特征点的坐标向量,
Figure BDA00022391769700001110
为体坐标系中第j个特征点的坐标向量,
Figure BDA00022391769700001111
为转换矩阵。然后将Pj从世界坐标系到相机坐标系的转换描述为
Figure BDA00022391769700001112
为相机坐标系中第j个特征点的坐标向量。然后联立
Figure BDA00022391769700001113
Figure BDA00022391769700001114
Figure BDA00022391769700001115
可得
Figure BDA00022391769700001116
其中,
Figure BDA00022391769700001117
Figure BDA0002239176970000121
注:转换矩阵
Figure BDA0002239176970000122
Figure BDA0002239176970000123
步骤S23)、最后将Pj映射到
Figure BDA0002239176970000124
处,其坐标可根据步骤S1求出。
步骤S3、构建测量矢量与状态矢量之间的测量模型zk=g(xk)+vk,再结合非线性恒速过程模型
Figure BDA00022391769700001212
从而达到减小估计误差的目的。
步骤S31)、如果已知三维到二维特征对应的
Figure BDA0002239176970000125
则定义测量矢量与状态矢量之间的测量模型可以表示为zk=g(xk)+vk
Figure BDA0002239176970000126
是nF个特征点的测量矢量,vk是测量噪声矢量;
步骤S32)、将无人机非线性恒速过程模型描述为
Figure BDA0002239176970000127
Figure BDA0002239176970000128
其中,
Figure BDA0002239176970000129
Figure BDA00022391769700001210
Figure BDA00022391769700001211
将定义的测量模型与其相结合,相比于测量模型与无人机线性恒速过程模型xk=Axk-1k相结合,估计误差会明显减小。
以上所述仅为本发明的具体实施例,但本发明所保护范围的结构特征并不限于此,任何本领域的技术人员在本发明的领域内,所作的变化或修饰皆涵盖在本发明的专利范围内。

Claims (6)

1.基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:具体包括下述内容:
(1)、构建模型,具体步骤如下:
11)、建立相机坐标系(Oc-XcYcZc)和图像坐标系(o-xy);
12)、设P=[X,Y,Z]T,P点方向上的单位向量可表示为
Figure FDA0004119263500000011
Figure FDA0004119263500000012
Figure FDA0004119263500000013
13)、利用相机通用模型r(θ)=k1θ+k2θ3+k3θ5+k4θ7+k5θ9+…,可以得到p鱼眼相机成像点或p’针孔相机成像点的图像坐标
Figure FDA0004119263500000014
然后求出p或p’的像素坐标
Figure FDA0004119263500000015
Figure FDA0004119263500000016
其中,mu,mv分别表示单位距离在水平方向和垂直方向上的像素个数,u0,v0表示像素坐标的初始值;
14)、建立机体坐标系(Ob-XbYbZb)和世界坐标系(Ow-XwYwZw);
15)、用
Figure FDA00041192635000000111
表示机体坐标系和世界坐标系之间的相对姿态,T=[X Y Z]T表示机体坐标系和世界坐标系之间的相对位置坐标,
Figure FDA0004119263500000017
Figure FDA0004119263500000018
表示机体坐标系和世界坐标系之间的相对取向,
其中,θ,
Figure FDA0004119263500000019
φ分别表示俯仰角、偏航角和横滚角;
16)、然后将Pj多旋翼无人机刚性固定的第j个特征点从体坐标系到世界坐标系的转换描述为
Figure FDA00041192635000000110
为世界坐标系中第j个特征点的坐标向量,
Figure FDA0004119263500000021
为体坐标系中第j个特征点的坐标向量,
Figure FDA00041192635000000218
为转换矩阵,将Pj从世界坐标系到相机坐标系的转换描述为
Figure FDA0004119263500000022
为相机坐标系中第j个特征点的坐标向量,然后联立
Figure FDA0004119263500000023
Figure FDA0004119263500000024
Figure FDA0004119263500000025
可得
Figure FDA0004119263500000026
其中,
Figure FDA0004119263500000027
Figure FDA0004119263500000028
17)、最后将Pj映射到
Figure FDA0004119263500000029
处,其坐标可根据13)求出;
18)、已知三维到二维特征对应的
Figure FDA00041192635000000210
则定义测量矢量与状态矢量之间的测量模型可以表示为zk=g(xk)+vk
其中,
Figure FDA00041192635000000211
是nF个特征点的测量矢量,vk是测量噪声矢量;
19)、将无人机非线性恒速过程模型描述为
Figure FDA00041192635000000212
Figure FDA00041192635000000213
其中,xk
Figure FDA00041192635000000214
Figure FDA00041192635000000215
Figure FDA00041192635000000216
将定义的测量模型与其相结合,相比于测量模型与无人机线性恒速过程模型xk=Axk-1k相结合,估计误差会明显减小;
(2)基于生存信息势和EKF融合的姿态解算方法,主要步骤如下:
21)、利用经验生存信息势计算生存信息势:
Figure FDA00041192635000000217
其中,N为样本数量,当x为标量时S=1;
22)、因为存在3个姿态角参数θ,
Figure FDA0004119263500000031
φ,当生存信息势的值达到最小时,有无穷多个解,结合矩量法得到确定的一组解;
23)、建立系统的状态方程和观测方程:
Figure FDA0004119263500000032
其中,状态一步转移矩阵
Figure FDA0004119263500000033
观测矩阵
Figure FDA0004119263500000034
24)、状态一步预测:
Figure FDA0004119263500000035
其中,
Figure FDA0004119263500000036
是状态变量X(k)的估计;
25)、状态一步预测协方差矩阵:
Figure FDA0004119263500000037
其中,P(k)是状态协方差矩阵P(k-1)的估计,Q为系统噪声协方差矩阵;
26)、卡尔曼增益更新:
Figure FDA0004119263500000038
其中,R为观测噪声协方差矩阵;
27)、状态更新:
Figure FDA0004119263500000039
28)、状态协方差矩阵更新:P(k)=(I-K(k)Hk)P(k);
29)、通过生存信息势解算得到的姿态角,再结合EKF的状态更新方程和观测更新方程得到最后的姿态角
Figure FDA00041192635000000310
2.根据权利要求1所述的基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:13)中的相机通用模型为r(θ)=k1θ+k2θ3+k3θ5+k4θ7+k5θ9+...。
3.根据权利要求1所述的基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:16)中的Pj为多旋翼无人机刚性固定的第j个特征点。
4.根据权利要求1所述的基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:16)中的转换矩阵为
Figure FDA0004119263500000041
5.根据权利要求1所述的基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:21)中利用经验生存信息势计算生存信息势的详细过程为
Figure FDA0004119263500000042
其中,重力因素
Figure FDA0004119263500000043
F为生存函数,I为信息势,之后为演算过程。
6.根据权利要求1所述的基于生存信息势和EKF融合的多旋翼无人机鲁棒姿态估计,其特征在于:29)中的状态更新方程和观测更新方程由状态方程和观测方程更新得到。
CN201910993971.3A 2019-10-18 2019-10-18 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 Active CN110598370B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910993971.3A CN110598370B (zh) 2019-10-18 2019-10-18 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910993971.3A CN110598370B (zh) 2019-10-18 2019-10-18 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计

Publications (2)

Publication Number Publication Date
CN110598370A CN110598370A (zh) 2019-12-20
CN110598370B true CN110598370B (zh) 2023-04-14

Family

ID=68851086

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910993971.3A Active CN110598370B (zh) 2019-10-18 2019-10-18 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计

Country Status (1)

Country Link
CN (1) CN110598370B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111207734B (zh) * 2020-01-16 2022-01-07 西安因诺航空科技有限公司 一种基于ekf的无人机组合导航方法
CN111342875B (zh) * 2020-03-04 2021-01-26 电子科技大学 一种基于DoA估计的无人机通信鲁棒波束成形方法
CN112747750B (zh) * 2020-12-30 2022-10-14 电子科技大学 一种基于单目视觉里程计和imu融合的定位方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106643737A (zh) * 2017-02-07 2017-05-10 大连大学 风力干扰环境下四旋翼飞行器姿态解算方法
CN107228664A (zh) * 2017-05-02 2017-10-03 太原理工大学 矿用陀螺测斜仪捷联惯导系统姿态解算及零速校正方法
CN107957680A (zh) * 2017-11-20 2018-04-24 太原理工大学 基于生存信息势的批式反应器反应过程的控制器
CN107976192A (zh) * 2017-11-16 2018-05-01 太原理工大学 一种综采工作面采运装备的姿态求解与预测方法
CN108873917A (zh) * 2018-07-05 2018-11-23 太原理工大学 一种面向移动平台的无人机自主着陆控制系统及方法
CN108958226A (zh) * 2018-08-08 2018-12-07 太原理工大学 基于生存信息势—主成分分析算法的te过程故障检测方法
CN109540126A (zh) * 2018-12-03 2019-03-29 哈尔滨工业大学 一种基于光流法的惯性视觉组合导航方法
CN110081878A (zh) * 2019-05-17 2019-08-02 东北大学 一种多旋翼无人机的姿态及位置确定方法
CN110231029A (zh) * 2019-05-08 2019-09-13 西安交通大学 一种水下机器人多传感器融合数据处理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3726884B2 (ja) * 2001-04-25 2005-12-14 学校法人日本大学 慣性計測装置を用いた姿勢推定装置及び方法並びにプログラム
US8219267B2 (en) * 2010-05-27 2012-07-10 Honeywell International Inc. Wind estimation for an unmanned aerial vehicle
US9037314B2 (en) * 2010-06-21 2015-05-19 Optimal Ranging, Inc. UAV power line position and load parameter estimation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106643737A (zh) * 2017-02-07 2017-05-10 大连大学 风力干扰环境下四旋翼飞行器姿态解算方法
CN107228664A (zh) * 2017-05-02 2017-10-03 太原理工大学 矿用陀螺测斜仪捷联惯导系统姿态解算及零速校正方法
CN107976192A (zh) * 2017-11-16 2018-05-01 太原理工大学 一种综采工作面采运装备的姿态求解与预测方法
CN107957680A (zh) * 2017-11-20 2018-04-24 太原理工大学 基于生存信息势的批式反应器反应过程的控制器
CN108873917A (zh) * 2018-07-05 2018-11-23 太原理工大学 一种面向移动平台的无人机自主着陆控制系统及方法
CN108958226A (zh) * 2018-08-08 2018-12-07 太原理工大学 基于生存信息势—主成分分析算法的te过程故障检测方法
CN109540126A (zh) * 2018-12-03 2019-03-29 哈尔滨工业大学 一种基于光流法的惯性视觉组合导航方法
CN110231029A (zh) * 2019-05-08 2019-09-13 西安交通大学 一种水下机器人多传感器融合数据处理方法
CN110081878A (zh) * 2019-05-17 2019-08-02 东北大学 一种多旋翼无人机的姿态及位置确定方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Convergence of a fixed-point algorithm under maximum correntropy criterion;B. Chen et al.,;《IEEE Signal Processing Letters 》;20151231;第22卷(第10期);第1723-1727页 *
Markov localization for mobile robots in dynamic environments;Fox D et al.,;《Journal of Artificial Intelligence Research》;19991231(第11期);第391-427页 *
无人机四旋翼飞行姿态稳定性控制优化;李方良 等;《计算机仿真》;20161031;第33卷(第10期);第43-47页 *

Also Published As

Publication number Publication date
CN110598370A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
CN110243358B (zh) 多源融合的无人车室内外定位方法及系统
CN109887057B (zh) 生成高精度地图的方法和装置
WO2020037492A1 (en) Distance measuring method and device
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN110598370B (zh) 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计
CN105352509B (zh) 地理信息时空约束下的无人机运动目标跟踪与定位方法
US11906983B2 (en) System and method for tracking targets
CN107727079A (zh) 一种微小型无人机全捷联下视相机的目标定位方法
CN110517324B (zh) 基于变分贝叶斯自适应算法的双目vio实现方法
CN111338383B (zh) 基于gaas的自主飞行方法及系统、存储介质
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
CN110865650B (zh) 基于主动视觉的无人机位姿自适应估计方法
Michot et al. Bi-objective bundle adjustment with application to multi-sensor slam
Eynard et al. Real time UAV altitude, attitude and motion estimation from hybrid stereovision
WO2024027350A1 (zh) 车辆定位方法、装置、计算机设备、存储介质
WO2020038720A1 (en) Apparatus, method and computer program for detecting the form of a deformable object
CN114013449A (zh) 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
CN114494629A (zh) 一种三维地图的构建方法、装置、设备及存储介质
Unicomb et al. Distance function based 6dof localization for unmanned aerial vehicles in gps denied environments
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN110736457A (zh) 一种基于北斗、gps和sins的组合导航方法
Mostafa et al. Optical flow based approach for vision aided inertial navigation using regression trees
Hong et al. Visual inertial odometry using coupled nonlinear optimization
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
CN115930948A (zh) 一种果园机器人融合定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant