CN106708066B - 基于视觉/惯导的无人机自主着陆方法 - Google Patents

基于视觉/惯导的无人机自主着陆方法 Download PDF

Info

Publication number
CN106708066B
CN106708066B CN201611173957.1A CN201611173957A CN106708066B CN 106708066 B CN106708066 B CN 106708066B CN 201611173957 A CN201611173957 A CN 201611173957A CN 106708066 B CN106708066 B CN 106708066B
Authority
CN
China
Prior art keywords
inertial navigation
surf
navigation
moment
characteristic point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611173957.1A
Other languages
English (en)
Other versions
CN106708066A (zh
Inventor
高嘉瑜
李江
武云云
陈佳
原彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 20 Research Institute
Original Assignee
CETC 20 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 20 Research Institute filed Critical CETC 20 Research Institute
Publication of CN106708066A publication Critical patent/CN106708066A/zh
Application granted granted Critical
Publication of CN106708066B publication Critical patent/CN106708066B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0676Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments

Abstract

本发明提供了一种基于视觉/惯导的无人机自主着陆方法,首先利用视觉导航算法求解无人机位置及位姿;然后利用视觉导航求解的无人机位姿作为惯导的初始值,开始求解惯性导航参数;利用惯导相邻时间获取的参数剔除实时图像与参考图像SURF匹配的误匹配点对;最后利用无迹卡尔曼滤波组合导航参数,实时调整无人机位姿进行着陆引导。本发明可以提高视觉导航算法的实时性,使视觉系统保持长时间的高精度;解决了单一惯导的误差发散不可以单独使用的问题,在视觉导航解算失败的情况下也能提供载体的导航参数。

Description

基于视觉/惯导的无人机自主着陆方法
技术领域
本发明涉及一种无人机自主着陆方法,属于组合导航领域。
背景技术
视觉导航技术是利用数字图像处理技术,对机载图像传感器所获取的航拍图像进行处理和分析,最终得到无人机导航控制所需要的位姿参数的技术。图像处理的大信息量等特点使得无人机在视觉导航定位时实时性不能得到满足,因此需要一种快速实时图像匹配算法来解决这一问题。
惯导技术是一种传统的不接收外来的无线电信号,也不向外部辐射能量的自主式导航技术。惯性导航设备具有全天候、全时空工作能力和很好的隐蔽性,能够提供短期高精度、高稳定性的导航参数。但是,惯性导航设备是一个时间积分系统,其误差随着时间迅速累积且垂直定位功能不好,不可以单独使用,因此需要通过引入另一种导航源对惯导长时间累积的误差进行修正。
发明内容
为了克服现有技术的不足,本发明提供一种基于视觉/惯导的无人机自主着陆方法,通过视觉和惯性导航组合的方法来设计无人机自主着陆系统,利用惯性导航来快速剔除视觉导航图像匹配的误匹配点提高视觉导航的实时性,通过无迹卡尔曼滤波 (UKF)的方式将视觉导航输出参数与惯导进行组合,用视觉来修正惯性导航误差,解决惯导随时间误差累积较大的问题。
本发明解决其技术问题所采用的技术方案包括以下步骤:
1)利用视觉导航算法求解无人机位置及位姿,步骤如下:
1.1)利用无人机机载摄像头获取实时图像;
1.2)判断获取的实时图像是否为第一帧图像,若是,转到步骤1.3),否则转到步骤1.4);
1.3)提取实时图像的SURF特征点,与参考图像的SURF特征点进行SURF匹配,利用RANSAC算法剔除SURF误匹配点对,获取正确的SURF匹配点对,转到步骤 1.7);
1.4)判断实时图像帧数是否为设定的固定周期T的倍数,若是,转到步骤1.5),否则转到步骤1.6);
1.5)提取实时图像的SURF特征点,与参考图像的SURF特征点进行SURF匹配,转到步骤3);
1.6)利用LK光流法跟踪上一帧实时图像提取的SURF特征点;
1.7)利用获取的SURF匹配点对进行无人机位姿解算;
2)利用无人机位姿作为惯导的初始值,开始求解惯性导航参数,步骤如下:
2.1)利用陀螺输出的角速度观测值,采用四元数法进行姿态更新,然后将更新后的四元数转换成姿态矩阵k表示上一时刻,k+1表示当前时刻,L为导航坐标系,b为载体坐标系;
2.2)根据姿态矩阵中元素的值,计算载体的姿态,包括航向角、俯仰角、翻滚角;
2.3)利用姿态矩阵,将加速度计输出的比力观测值fb由载体坐标系转换到导航坐标系,得到导航坐标系下的比例观测值
2.4)有害加速度的补偿:对fL进行哥氏加速度修正和正常重力补偿,得到载体在地球表面的加速度其中,ΩL ie为地球自转角速度三维分量构成的反对称阵,ΩL el为L系相对于地固系旋转角速度三维分量构成的反对称阵,vL为速度矢量,gL为地球重力矢量;
2.5)利用加速度进行积分得到速度增量,得到当前时刻的速度vL k+1=vL k+a.Δt;
2.6)利用速度进行积分得到位置增量,进而得到当前时刻的位置
3)利用惯导相邻时间获取的参数剔除实时图像与参考图像SURF匹配的误匹配点对,步骤如下:
3.1)获取时刻t与时刻t+Δt的惯导参数;
3.2)求取时刻t与时刻t+Δt之间的惯导参数变换;
3.3)获取t时刻特征点在摄像头成像平面上的投影点坐标为Wt=[u,v]T,其中,u、v表示投影点在图像坐标系中的坐标值;
3.4)根据特征点匹配方法得到t+Δt时刻特征点在摄像头成像平面上的投影点坐标为Wt+Δt
3.5)获取视觉导航t时刻到t+Δt时刻投影点坐标变化D=wt+Δt-wt=[xi,yi]T
3.6)预测t+Δt时刻投影点坐标 为时刻t到t+Δt之间飞行器航向变化,T为时刻t到t+Δt之间投影点平移向量;
3.7)得到特征点坐标变化向量
3.8)定义匹配误差
3.9)误匹配点Pem={P(x,y)|ex>dx,ey>dy},其中dx,dy分别为预先设定的匹配误差阈值;
3.10)将误匹配点剔除;返回步骤1.7);
4)利用无迹卡尔曼滤波组合导航参数;
5)利用获取的无人机参数实时调整无人机位姿进行着陆引导。
本发明的有益效果是:
(1)本发明利用惯性导航计算得到的位置和姿态来对视觉导航匹配算法中的误匹配点实现快速剔除,不仅可以提高视觉导航算法的实时性,而且可以使视觉系统保持长时间的高精度;
(2)本发明采用视觉导航修正惯导,解决了单一惯导在导航着陆阶段,垂直定位功能较差,误差发散不可以单独使用的问题,且在视觉导航解算失败的情况下,组合系统则完全依靠惯性导航来提供载体的导航参数。
附图说明
图1是本发明步骤流程示意图;
图2是惯导系统修正视觉导航系统原理图;
图3是视觉导航修正惯导系统的原理图;
图4是仿真验证系统程序流程图;
图5是仿真结果图。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
本发明的组合导航方法是按以下步骤1)至步骤4)的基础上循环运行:
步骤1)利用视觉导航算法求解无人机位置及位姿包括1.1)~1.8);
1.1)利用无人机机载摄像头获取实时图像,转到步骤1.2);
1.2)判断获取的实时图像是否为第一帧图像,若是转到步骤1.3),否则转到步骤1.4);
1.3)第一帧图像处理过程如下:
1.3.1)对实时获取的图像进行预处理,提取实时图像的SURF特征点,转到步骤1.3.2);
1.3.2)将实时图像提取的SURF特征点与参考图像的SURF特征点进行 SURF匹配,转到步骤1.3.3);
1.3.3)利用RANSAC算法剔除SURF误匹配点对,获取正确的SURF匹配点对,转到步骤1.8),执行完后转到步骤2);
1.4)判断当前获取的实时图像帧数是否为T的倍数(T为预先设定的固定周期,本算法取T=5),若是转到步骤1.5),否则转到步骤1.7);
1.5)对实时获取的图像进行预处理,提取实时图像的SURF特征点,转到步骤1.6);
1.6)将实时图像提取的SURF特征点与参考图像的SURF特征点进行SURF匹配,转到步骤3),执行完后转到步骤1.8);
1.7)利用LK光流法跟踪上一帧实时图像提取的SURF特征点,转到步骤1.8);
1.8)利用获取的SURF匹配点对进行无人机位姿解算;
步骤2)利用视觉导航求解的无人机位姿作为惯导的初始值开始求解惯性导航参数包括2.1)~2.6)顺序执行;
2.1)姿态更新:利用陀螺输出的角速度观测值,采用四元数法进行姿态更新,然后将更新后的四元数转换成姿态矩阵,记为k表示上一时刻,k+1表示当前时刻,L为导航坐标系,b为载体坐标系;
2.2)姿态提取:根据姿态矩阵中元素的值,计算载体的姿态,包括航向角、俯仰角、翻滚角;
2.3)比力分解:利用姿态矩阵,将加速度计输出的比力观测值fb由载体坐标系转换到导航坐标系,
2.4)有害加速度的补偿:对fL进行哥氏加速度修正和正常重力补偿,得到载体在地球表面的加速度,如下所示: a=fL-(2ΩL ieL el)vL+gL其中ΩL ie为地球自转角速度三维分量构成的反对称阵,ΩL el为L系相对于地固系旋转角速度三维分量构成的反对称阵,vL为速度矢量,gL为地球重力矢量;
2.5)积分求取速度;利用加速度进行积分得到速度增量,进而得到当前时刻的速度vL k+1如下所示:vL k+1=vL k+a.Δt;
2.6)积分求取位置:利用速度进行积分得到位置增量,进而得到当前时刻的位置rL k+1,如下所示:
步骤3)利用惯导相邻时间获取的参数剔除实时图像与参考图像SURF匹配的误匹配点对,包括3.1)~3.10)顺序执行;
3.1)获取时刻t与时刻t+Δt的惯导参数(t与t+Δt为视觉导航mT帧数对应时刻与(m+1)T帧数对应的时刻,m为整数);
3.2)求取时刻T与时刻t+Δt之间的惯导参数变换;
3.3)获取t时刻特征点在摄像头成像平面上的投影点坐标为Wt=[u,v]T,其中,u、v表示投影点在图像坐标系中的坐标值;
3.4)根据特征点匹配方法得到t+Δt时刻特征点在摄像头成像平面上的投影点坐标为Wt+Δt
3.5)获取视觉导航t时刻到t+Δt时刻投影点坐标变化D=wt+Δt-wt=[xi,yi]T
3.6)根据惯导参数预测t+Δt时刻投影点坐标为: 为时刻t到t+Δt之间飞行器航向变化,T为时刻t到 t+Δt之间投影点平移向量;
3.7)根据惯导系统得到的特征点坐标变化向量
3.8)定义匹配误差:
3.9)误匹配点可以表示为:Pem={P(x,y)|ex>dx,ey>dy}其中dx,dy分别为预先设定的匹配误差阈值;
3.10)将满足Pem={P(x,y)|ex>dx,ey>dy}的误匹配点剔除。
步骤4)利用无迹卡尔曼滤波组合导航参数
4.1)求解状态方程;
4.2)求解量测方程;
4.3)无迹卡尔曼滤波器设计;
步骤5)利用获取的无人机参数实时调整无人机位姿进行着陆引导。
本发明的实施例如图1所示,在以下步骤1)至步骤4)的基础上循环运行:
步骤1):利用视觉导航算法求解无人机位置及位姿包括1.1)~1.8);
1.1)利用无人机机载摄像头获取实时图像,转到步骤1.2);
1.2)判断获取的实时图像是否为第一帧图像,若是转到步骤1.3),否则转到步骤1.4);
1.3)第一帧图像处理过程如下:
1.3.1)对实时获取的图像进行预处理,提取实时图像的SURF特征点,转到步骤1.3.2);
1.3.2)将实时图像提取的SURF特征点与参考图像的SURF特征点进行SURF匹配,转到步骤1.3.3);
1.3.3)利用RANSAC算法剔除SURF误匹配点对,获取正确的SURF匹配点对,转到步骤1.8),执行完后转到步骤2);
1.4)判断当前获取的实时图像帧数是否为T的倍数(T为预先设定的固定周期,本算法取T=5),若是转到步骤1.5),否则转到步骤1.7);
1.5)对实时获取的图像进行预处理,提取实时图像的SURF特征点,转到步骤1.6);
1.6)将实时图像提取的SURF特征点与参考图像的SURF特征点进行SURF匹配,转到步骤3),执行完后转到步骤1.8);
1.7)利用LK光流法跟踪上一帧实时图像提取的SURF特征点,转到步骤1.8);
1.8)利用获取的SURF匹配点对进行无人机位姿解算;
步骤2);利用视觉导航求解的无人机位姿作为惯导的初始值开始求解惯性导航参数包括2.1)~2.6);
2.1)姿态更新:利用陀螺输出的角速度观测值,采用四元数法进行姿态更新,然后将更新后的四元数转换成姿态矩阵,记为k表示上一时刻,k+1表示当前时刻,L为导航坐标系,b为载体坐标系;
2.2)姿态提取:根据姿态矩阵中元素的值,计算载体的姿态,包括航向角、俯仰角、翻滚角;
2.3)比力分解:利用姿态矩阵,将加速度计输出的比力观测值fb由载体坐标系转换到导航坐标系,
2.4)有害加速度的补偿:对fL进行哥氏加速度修正和正常重力补偿,得到载体在地球表面的加速度,如下所示:
a=fL-(2ΩL ieL el)vL+gL其中ΩL ie为地球自转角速度三维分量构成的反对称阵,ΩL el为L系相对于地固系旋转角速度三维分量构成的反对称阵,vL为速度矢量,gL为地球重力矢量;
2.5)积分求取速度;利用加速度进行积分得到速度增量,进而得到当前时刻的速度vL k+1如下所示:vL k+1=vL k+a.Δt;
2.6)积分求取位置:利用速度进行积分得到位置增量,进而得到当前时刻的位置rL k+1,如下所示:
步骤3);利用惯导相邻时间获取的参数剔除实时图像与参考图像SURF匹配的误匹配点对,包括3.1)~3.10);
3.1)获取时刻t与时刻t+Δt的惯导参数(t与t+Δt为视觉导航mT帧数对应时刻与(m+1)T帧数对应的时刻,m为整数);
3.2)求取时刻T与时刻t+Δt之间的惯导参数变换;
3.3)获取t时刻特征点在摄像头成像平面上的投影点坐标为Wt=[u,v]T
3.4)根据特征点匹配方法得到t+Δt时刻特征点在摄像头成像平面上的投影点坐标为Wt+Δt
3.5)获取视觉导航t时刻到t+Δt时刻投影点坐标变化D=wt+Δt-wt=[xi,yi]T
3.6)根据惯导参数预测t+Δt时刻投影点坐标为: 为时刻t到t+Δt之间飞行器航向变化,T为时刻t到t+Δt之间投影点平移向量;
3.7)根据惯导系统得到的特征点坐标变化向量
3.8)定义匹配误差:
3.9)误匹配点可以表示为:Pem={P(x,y)|ex>dx,ey>dy}其中dx,dy分别为预先设定的匹配误差阈值;
3.10)将满足Pem={P(x,y)|ex>dx,ey>dy}的误匹配点剔除。
步骤4)利用无迹卡尔曼滤波组合导航参数具体实施过程见图3所示:
4.1)系统状态方程求解:
Xk+1=f(Xk,Wk)
式中,状态向量X为:
L-无人机所在位置的纬度;λ-无人机所在位置的经度;h-无人机的高度;δVe-无人机在地理系中的东向速度;δVn-无人机在地理系中的北向速度;δVu-无人机在地理系中的天向速度;-无人机俯仰角;-无人机横滚角;-无人机航向角;f(.)为9维向量函数,Wk为9维系统过程噪声。
4.2)系统量测方程求解:
由算机视觉定位几何关系图得量测方程如下所示:
Zk=h(Xk,Vk)
其中Zk为量测矩阵,X为状态向量,Vk为系统观测噪声。
4.3)组合滤波器设计:
4.3.1)在滤波开始时设定初始估计值和初始误差方程方差:
4.3.2)计算Sigma点设状态变量为n维,计算2n+1个采样点及其权值,这里n取9;
4.3.3)计算时间更新方程
4.3.5)滤波更新
式中:分别为计算y的均值和方差权值: i=1,...,2n;α,β,λ为3个参数,其中 1e-4≤α≤1,λ=0或3-n,β=0
步骤5)利用获取的无人机参数实时调整无人机位姿进行着陆引导。
将获取的无人机姿态参数送入飞行控制系统,控制无人机进行着陆。
以上为无人机基于视觉/惯导组合的自主着陆方法步骤。
本发明的仿真验证系统利用虚拟现实技术和可视化技术,具体实施图4所示:模拟了真实的无人机飞行环境,具有沉浸式的真实感,解决了无人机自主着陆视景仿真模拟的问题,将视觉、惯导组合着陆算法与三维视景仿真软件结合,通过多通道展示整个着陆阶段并实时的计算和显示组合着陆导航所需数据。
给定实验体初始时刻的位置(L00),姿态以及速度即实验体初始时刻的导航信息。仿真结果如下:经过100s的仿真,从图5中可以看出,实验体的位置误差、速度误差以及姿态误差的误差基本上都是在0附近,误差曲线是收敛的。从这些结果可以看出,实验体导航信息的误差得到了较好的控制,同时也说明了本文中所提出的组合导航方案是可行的。

Claims (1)

1.一种基于视觉/惯导的无人机自主着陆方法,其特征在于包括下述步骤:
1)利用视觉导航算法求解无人机位置及位姿,步骤如下:
1.1)利用无人机机载摄像头获取实时图像;
1.2)判断获取的实时图像是否为第一帧图像,若是,转到步骤1.3),否则转到步骤1.4);
1.3)提取实时图像的SURF特征点,与参考图像的SURF特征点进行SURF匹配,利用RANSAC算法剔除SURF误匹配点对,获取正确的SURF匹配点对,转到步骤1.7);
1.4)判断实时图像帧数是否为设定的固定周期T的倍数,若是,转到步骤1.5),否则转到步骤1.6);
1.5)提取实时图像的SURF特征点,与参考图像的SURF特征点进行SURF匹配,转到步骤3);
1.6)利用LK光流法跟踪上一帧实时图像提取的SURF特征点;
1.7)利用获取的SURF匹配点对进行无人机位姿解算;
2)利用无人机位姿作为惯导的初始值,开始求解惯性导航参数,步骤如下:
2.1)利用陀螺输出的角速度观测值,采用四元数法进行姿态更新,然后将更新后的四元数转换成姿态矩阵k表示上一时刻,k+1表示当前时刻,L为导航坐标系,b为载体坐标系;
2.2)根据姿态矩阵中元素的值,计算载体的姿态,包括航向角、俯仰角、翻滚角;
2.3)利用姿态矩阵,将加速度计输出的比力观测值fb由载体坐标系转换到导航坐标系,得到导航坐标系下的比例观测值
2.4)有害加速度的补偿:对fL进行哥氏加速度修正和正常重力补偿,得到载体在地球表面的加速度a=fL-(2ΩL ieL el)vL+gL,其中,ΩL ie为地球自转角速度三维分量构成的反对称阵,ΩL el为L系相对于地固系旋转角速度三维分量构成的反对称阵,vL为速度矢量,gL为地球重力矢量;
2.5)利用加速度进行积分得到速度增量,得到当前时刻的速度vL k+1=vL k+a.Δt;
2.6)利用速度进行积分得到位置增量,进而得到当前时刻的位置
3)利用惯导相邻时间获取的参数剔除实时图像与参考图像SURF匹配的误匹配点对,步骤如下:
3.1)获取时刻t与时刻t+Δt的惯导参数;
3.2)求取时刻t与时刻t+Δt之间的惯导参数变换;
3.3)获取t时刻特征点在摄像头成像平面上的投影点坐标为Wt=[u,v]T,其中,u、v表示投影点在图像坐标系中的坐标值;
3.4)根据特征点匹配方法得到t+Δt时刻特征点在摄像头成像平面上的投影点坐标为Wt+Δt
3.5)获取视觉导航t时刻到t+Δt时刻投影点坐标变化D=wt+Δt-wt=[xi,yi]T
3.6)预测t+Δt时刻投影点坐标 为时刻t到t+Δt之间飞行器航向变化,T为时刻t到t+Δt之间投影点平移向量;
3.7)得到特征点坐标变化向量
3.8)定义匹配误差
3.9)误匹配点Pem={P(x,y)|ex>dx,ey>dy},其中dx,dy分别为预先设定的匹配误差阈值;
3.10)将误匹配点剔除;返回步骤1.7);
4)利用无迹卡尔曼滤波组合导航参数;
5)利用获取的无人机参数实时调整无人机位姿进行着陆引导。
CN201611173957.1A 2015-12-20 2016-12-19 基于视觉/惯导的无人机自主着陆方法 Active CN106708066B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2015109636623 2015-12-20
CN201510963662 2015-12-20

Publications (2)

Publication Number Publication Date
CN106708066A CN106708066A (zh) 2017-05-24
CN106708066B true CN106708066B (zh) 2019-07-26

Family

ID=58939161

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611173957.1A Active CN106708066B (zh) 2015-12-20 2016-12-19 基于视觉/惯导的无人机自主着陆方法

Country Status (1)

Country Link
CN (1) CN106708066B (zh)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107014380B (zh) * 2017-05-26 2020-01-07 西安科技大学 基于飞行器的视觉导航与惯性导航的组合导航方法
CN107389088B (zh) * 2017-05-27 2020-11-17 纵目科技(上海)股份有限公司 车载惯性导航的误差修正方法、装置、介质及设备
CN107389968B (zh) * 2017-07-04 2020-01-24 武汉视览科技有限公司 一种基于光流传感器和加速度传感器的无人机定点实现方法和装置
CN109387192B (zh) * 2017-08-02 2022-08-26 湖南云箭格纳微信息科技有限公司 一种室内外连续定位方法及装置
CN107747941B (zh) * 2017-09-29 2020-05-15 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
CN107861501A (zh) * 2017-10-22 2018-03-30 北京工业大学 地下污水处理厂智能机器人自主定位导航系统
CN107869989B (zh) * 2017-11-06 2020-02-07 东北大学 一种基于视觉惯导信息融合的定位方法及系统
CN107727079B (zh) * 2017-11-30 2020-05-22 湖北航天飞行器研究所 一种微小型无人机全捷联下视相机的目标定位方法
CN108413970B (zh) * 2017-12-25 2021-11-16 达闼科技(北京)有限公司 一种定位方法、云系统、电子设备及计算机程序产品
CN108444468B (zh) * 2018-02-06 2020-08-04 浙江大学 一种融合下视视觉与惯导信息的定向罗盘
CN108490972A (zh) * 2018-03-21 2018-09-04 深圳臻迪信息技术有限公司 飞行器的飞行控制方法、系统以及电子设备
CN108594848B (zh) * 2018-03-29 2021-01-22 上海交通大学 一种基于视觉信息融合的无人机分阶段自主着艇方法
CN108645404B (zh) * 2018-03-30 2021-05-11 西安建筑科技大学 一种小型多旋翼无人机姿态解算方法
CN108827287B (zh) * 2018-04-10 2021-12-21 南京航空航天大学 一种复杂环境下的鲁棒视觉slam系统
CN108827339B (zh) * 2018-04-10 2021-06-15 南京航空航天大学 一种基于惯性辅助的高效视觉里程计
CN110388939A (zh) * 2018-04-23 2019-10-29 湖南海迅自动化技术有限公司 一种基于航拍图像匹配的车载惯导定位误差修正方法
CN108592951B (zh) * 2018-05-30 2019-08-02 中国矿业大学 一种基于光流法的采煤机捷联惯导初始对准系统及方法
CN109029451A (zh) * 2018-06-28 2018-12-18 中国人民解放军空军工程大学 基于网络信标矫正的小型无人机自主定位方法
CN108983812B (zh) * 2018-07-25 2021-06-04 哈尔滨工业大学 一种无人机海上着陆的船载控制系统
CN109238277B (zh) * 2018-08-01 2020-10-27 清华大学 视觉惯性数据深度融合的定位方法及装置
CN109520497B (zh) * 2018-10-19 2022-09-30 天津大学 基于视觉和imu的无人机自主定位方法
CN109612333B (zh) * 2018-11-08 2021-07-09 北京航天自动控制研究所 一种面向可重复使用火箭垂直回收的视觉辅助导引系统
CN109341700B (zh) * 2018-12-04 2023-06-30 中国航空工业集团公司西安航空计算技术研究所 一种低能见度下固定翼飞机视觉辅助着陆导航方法
CN109341686B (zh) * 2018-12-04 2023-10-27 中国航空工业集团公司西安航空计算技术研究所 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法
CN109857128B (zh) * 2018-12-18 2022-07-15 丰翼科技(深圳)有限公司 无人机视觉定点降落方法、系统、设备及存储介质
CN109658461B (zh) * 2018-12-24 2023-05-26 中国电子科技集团公司第二十研究所 一种基于虚拟仿真环境的合作二维码的无人机定位方法
CN109655058A (zh) * 2018-12-24 2019-04-19 中国电子科技集团公司第二十研究所 一种惯性/视觉智能化组合导航方法
CN110006423B (zh) * 2019-04-04 2020-11-06 北京理工大学 一种自适应惯导和视觉组合导航方法
CN110081881B (zh) * 2019-04-19 2022-05-10 成都飞机工业(集团)有限责任公司 一种基于无人机多传感器信息融合技术的着舰引导方法
US11922819B2 (en) 2019-04-22 2024-03-05 Wonder Robotics Ltd System and method for autonomously landing a vertical take-off and landing (VTOL) aircraft
CN110058604A (zh) * 2019-05-24 2019-07-26 中国科学院地理科学与资源研究所 一种基于计算机视觉的无人机精准降落系统
CN111504323A (zh) * 2020-04-23 2020-08-07 湖南云顶智能科技有限公司 基于异源图像匹配与惯性导航融合的无人机自主定位方法
CN111538350B (zh) * 2020-05-07 2023-06-23 烟台南山学院 一种采用三段柔化切换实现无人机的高度全自动飞行的方法
CN111708377B (zh) * 2020-06-21 2022-10-25 西北工业大学 基于惯导/飞控系统信息融合的飞行控制方法
CN111880573B (zh) * 2020-07-31 2022-09-06 电子科技大学 一种基于视觉惯导融合的四旋翼自主导航方法
CN111968035B (zh) * 2020-08-05 2023-06-20 成都圭目机器人有限公司 基于损失函数的图像相对旋转角计算方法
CN112102403B (zh) * 2020-08-11 2022-11-25 国网安徽省电力有限公司淮南供电公司 用于输电塔场景下的自主巡检无人机的高精度定位方法及其系统
CN113390410B (zh) * 2021-08-04 2023-01-13 北京云恒科技研究院有限公司 一种适用于无人机的惯性组合导航方法
CN113465598B (zh) * 2021-08-04 2024-02-09 北京云恒科技研究院有限公司 一种适用于无人机的惯性组合导航系统
CN114577205B (zh) * 2022-02-10 2023-06-06 北京空间飞行器总体设计部 一种基于序列图像的行星软着陆自主导航陆标优选方法
CN114777745A (zh) * 2022-04-08 2022-07-22 南京信息工程大学 一种基于无迹卡尔曼滤波的倾斜取证建模方法
CN116518981B (zh) * 2023-06-29 2023-09-22 中国人民解放军国防科技大学 基于深度学习匹配和卡尔曼滤波的飞行器视觉导航方法
CN116793340B (zh) * 2023-08-29 2023-11-24 陕西德鑫智能科技有限公司 一种无人机自动着陆导航方法、装置及电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101109640A (zh) * 2006-07-19 2008-01-23 北京航空航天大学 基于视觉的无人驾驶飞机自主着陆导航系统
CN103424114B (zh) * 2012-05-22 2016-01-20 同济大学 一种视觉导航/惯性导航的全组合方法
CN102991681A (zh) * 2012-12-25 2013-03-27 天津工业大学 无人机视觉着陆系统中地面目标识别方法
US9315248B2 (en) * 2013-09-24 2016-04-19 Eddie Hugh Williams Modular rapid development system for building underwater robots and robotic vehicles

Also Published As

Publication number Publication date
CN106708066A (zh) 2017-05-24

Similar Documents

Publication Publication Date Title
CN106708066B (zh) 基于视觉/惯导的无人机自主着陆方法
CN106017463B (zh) 一种基于定位传感装置的飞行器定位方法
EP3158293B1 (en) Sensor fusion using inertial and image sensors
EP3158412B1 (en) Sensor fusion using inertial and image sensors
Bayard et al. Vision-based navigation for the NASA mars helicopter
EP3158417B1 (en) Sensor fusion using inertial and image sensors
CN109540126A (zh) 一种基于光流法的惯性视觉组合导航方法
EP3158411B1 (en) Sensor fusion using inertial and image sensors
Redding et al. Vision-based target localization from a fixed-wing miniature air vehicle
Shen et al. Optical flow sensor/INS/magnetometer integrated navigation system for MAV in GPS-denied environment
CN106352897B (zh) 一种基于单目视觉传感器的硅mems陀螺误差估计与校正方法
CN110017837A (zh) 一种姿态抗磁干扰的组合导航方法
CN110081875A (zh) 一种仿鸽子智能的无人机自主导航系统及方法
CN106672265B (zh) 一种基于光流信息的小天体定点着陆制导控制方法
CN111504323A (zh) 基于异源图像匹配与惯性导航融合的无人机自主定位方法
CN109341686A (zh) 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法
Rhudy et al. Wide-field optical flow aided inertial navigation for unmanned aerial vehicles
Wang et al. Monocular vision and IMU based navigation for a small unmanned helicopter
Dong et al. An autonomous navigation scheme for UAV in approach phase
Kaiser et al. Localization and control of an aerial vehicle through chained, vision-based pose reconstruction
Allak et al. AMADEE-18: Vision-based unmanned aerial vehicle navigation for Analog Mars Mission (AVI-NAV)
Ready et al. Inertially aided visual odometry for miniature air vehicles in gps-denied environments
Zhou et al. Adaptive noise identification in vision-assisted motion estimation for unmanned aerial vehicles
Wee et al. A Unified Method for Vision Aided Navigation of Autonomous Systems
Wang et al. Loose Coupled Initialization Method for Visual Inertial Navigation in Outdoor Low Altitude Flight Environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant