CN104729506B - 一种视觉信息辅助的无人机自主导航定位方法 - Google Patents

一种视觉信息辅助的无人机自主导航定位方法 Download PDF

Info

Publication number
CN104729506B
CN104729506B CN201510137688.2A CN201510137688A CN104729506B CN 104729506 B CN104729506 B CN 104729506B CN 201510137688 A CN201510137688 A CN 201510137688A CN 104729506 B CN104729506 B CN 104729506B
Authority
CN
China
Prior art keywords
vision ranging
unmanned plane
vision
error
inertial navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510137688.2A
Other languages
English (en)
Other versions
CN104729506A (zh
Inventor
赵龙
王丁
周明月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201510137688.2A priority Critical patent/CN104729506B/zh
Publication of CN104729506A publication Critical patent/CN104729506A/zh
Application granted granted Critical
Publication of CN104729506B publication Critical patent/CN104729506B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled

Abstract

本发明公开了一种视觉信息辅助的无人机自主导航定位方法,该定位方法目的是利用视觉传感器以及相应视觉测程算法,提供准确的无人机导航定位信息。该方法通过组合式视觉测程算法来推算无人机的速度和位置信息,用于辅助惯性导航定位。在GNSS信号可用时,利用惯性导航/GNSS组合导航来修正惯性导航系统误差,并建立视觉测程评估准则;当GNSS信号不可用时,利用视觉测程评估准则对组合式视觉测程算法获得的视觉测程结果进行评估,利用视觉测程结果和视觉测程评估结果估计并补偿惯导系统的误差,为无人机提供连续、可靠的导航定位信息。本发明能够长时间连续、稳定地为无人机控制系统提供精确的导航定位信息。

Description

一种视觉信息辅助的无人机自主导航定位方法
技术领域
本发明涉及一种视觉信息辅助的无人机自主导航定位方法,特别是一种基于视觉测程结果辅助惯性导航系统的无人机自主导航定位方法,适用于无人机自主导航和定位系统。
背景技术
无人机是一类低风险低成本,可以自主运作完成各项任务的自动化飞行载具,被广泛用于自动运输、区域监视、灾后重建、复杂环境探测以及地面目标跟踪等军民用领域中。为了在无人监测的情况下自主完成任务,一个稳定、快速、精确的导航系统对于无人机而言至关重要。由于低成本惯性导航系统误差发散很快,依靠单一的低成本惯性导航系统很无法满足实际应用要求。将惯性导航系统与GNSS信息进行融合来获得无人机精确导航定位信息的方法已被广泛应用。但由于当GNSS信号受到外界干扰或欺骗,甚至信号转发源被摧毁时,GNSS系统无法长期提供稳定可靠的定位信息。因此,在军民用领域中,尤其是室内、丛林、多雨地区等应用环境下,尚不能完全依赖于GNSS来辅助惯性导航实现无人机的精确导航定位。为了解决这个问题,引入适当的导航传感器和新的导航算法来解决GNSS短期和长期故障时无人机自主导航定位问题,已成为军民用领域无人机应用研究的重点。
视觉传感器作为一种兼具导航传感器和任务传感器双重特性的设备,因其体积小,安装简单,信息丰富等特点,在无人机上已经得到了广泛应用。而且基于视觉传感器的导航算法无需增添额外设备即可提供较准确的导航信息,是目前研究与应用的重点。
本发明中提到一种视觉信息辅助的无人机自主导航定位方法,该方法根据视觉测程原理,通过组合式视觉测程算法来推算无人机的速度和位置信息,用于辅助惯性导航定位。在GNSS信号可用时,利用惯性导航/GNSS组合导航来修正惯性导航系统误差,并建立视觉测程评估准则;当GNSS信号不可用时,利用视觉测程评估准则对组合式视觉测程算法获得的视觉测程结果进行评估,利用视觉测程结果和视觉测程评估结果估计并补偿惯导系统的误差,为无人机提供连续、可靠的导航定位信息。
本发明与其它无人机自主导航和定位方法不同在于:在当前已公开发表的文献中,依靠视觉导航结果辅助惯性导航系统提供无人机的导航定位信息,但这些导航方法在实际应用中无法根据外部环境和导航结果有针对性地采取不同的导航策略,且无法评估视觉导航信息的有效性,使视觉导航信息易受误差影响,无法提供长时间稳定的导航信息而导致无法完成预定任务,甚至导致无人机和机载设备有损毁的风险。
发明内容
本发明要解决的技术问题:为解决在GNSS信号短时间和长时间不可用时,导航系统能够长时间提供稳定的姿态和定位信息来控制无人机并稳定、可靠地完成既定任务,提出一种视觉信息辅助的无人机自主导航定位方法。
本发明采用的技术方案为:一种视觉信息辅助的无人机自主导航定位方法,其特征在于通过组合式视觉测程算法提供较准确的视觉测程结果;在GNSS信号可用时,利用惯性导航/GNSS组合导航来修正惯性导航系统误差,并建立视觉测程评估准则;当GNSS信号不可用时,利用视觉测程评估准则对组合式视觉测程算法获得的视觉测程结果进行评估,利用视觉测程结果和视觉测程评估结果估计并补偿惯导系统的误差,为无人机提供连续、可靠的导航定位信息。具体实现步骤为:
(1)将采集到的图像分为普通帧与关键帧,利用光流估计方法获得普通帧的帧间匹配,利用特征匹配方法获得关键帧的帧间匹配,进而根据最小误差准则,选取基于单应性矩阵的视觉测程方式和基于基础矩阵的视觉测程方式中的最优者来分别计算普通帧与关键帧的帧间运动参数,并将两种帧间运动参数进行组合来获得视觉测程结果,其具体方法为:
a1、以视觉传感器输出的图像序列作为普通帧序列,利用金字塔Lucas-Kanade光流估计方法估计普通帧间的光流场,实现普通帧的帧间匹配;同时,取第一帧为关键帧,且每隔八个普通帧取出一帧作为关键帧,利用基于SURF的特征匹配算法实现关键帧的帧间匹配;利用随机采样一致性RANSAC算法分别剔除普通帧的帧间匹配和关键帧的帧间匹配中的误匹配点,当关键帧的帧间匹配数小于设定的阈值,给出错误标识1;
a2、从普通帧的帧间匹配点和关键帧的帧间匹配点中分别随机选取匹配点总数的50%来建立图像帧间单应性矩阵和基础矩阵约束方程分别为:
x'=Hx (1)
x'TFx=0 (2)
通过求解式(1)和(2)获得图像帧间单应性矩阵与基础矩阵;重复上述计算过程三次,分别获得独立的三组单应性矩阵和基础矩阵,如果单应性矩阵的误差小于基础矩阵的误差,则无人机外部环境为平坦空旷的二维环境,通过对单应性矩阵进行分解来获得无人机相对运动参数;如果单应性矩阵的误差大于基础矩阵的误差,则无人机外部环境为复杂的三维环境,通过对基础矩阵进行分解来获得无人机相对运动参数;在针对关键帧的帧间匹配展开计算时,如果得到的两种矩阵误差均大于设定的阈值,给出错误标识2;
a3、如果新采集的图像未被选为关键帧,按照a2中计算过程来计算普通帧的帧间运动参数,并根据前一个普通帧计算出的无人机位置和速度信息来计算当前帧无人机的位置和速度信息作为视觉测程结果;
a4、如果新采集的图像被选取为关键帧,按照a2中计算过程来计算关键帧的帧间运动参数,并对关键帧的帧间运动参数计算过程进行评估检测;如果未检测到错误标识,则当前关键帧为有效关键帧,利用当前关键帧的帧间运动参数和前一关键帧计算出的无人机位置和速度计算当前帧无人机的位置和速度信息作为视觉测程结果;如果出现在a1中所述的错误标识1或在a2中所述的错误标识2,则当前关键帧为无效关键帧,并将当前关键帧按普通帧进行处理,按a3中的计算过程来计算视觉测程结果。
(2)当GNSS信号可用时,利用一个七状态Kalman滤波器实现惯导系统/GNSS组合,估计并补偿惯导系统的误差,获得精确的无人机的位置、速度和姿态全状态导航定位信息,并以全状态导航定位信息为基准值,计算视觉测程结果的误差,建立视觉测程评估准则,其具体方法为:
b1、根据惯性导航系统误差方程建立惯性导航系统状态方程为:
式中,X(t)T=[φENU,δVE,δVN,δL,δλ]为连续时间系统状态;上标T为转置;E、N和U分别为东北天地理坐标系的坐标轴指向;t为时间;φE、φN和φU分别为惯性导航系统在东、北和天向的平台误差角;δVE和δVN分别为惯性导航系统东向和北向的速度误差;δL和δλ分别为惯性导航系统北向和东向位置误差;W(t)为系统噪声;F(t)和G(t)分别为状态转移矩阵和系统噪声矩阵;RN和RM分别为卯酉圈和子午面半径;
b2、利用GNSS输出的位置和速度与惯性导航系统输出的位置和速度的差值为观测量建立系统的量测方程为:
式中,ZS为GNSS与惯性导航系统输出值相减获得的量测值;分别为惯性导航系统输出的东向和北向的速度;LI和λI分别为惯性导航系统输出北向位置和东向位置;分别为GNSS输出的东向和北向的速度;LS和λS分别为GNSS输出的北向位置和东向位置;上标或下标中的I和S分别为惯性导航系统和GNSS的输出值;VS=[vE vN vL vλ]T为GNSS接收机的噪声;
b3、对式(3)进行离散化,利用Kalman滤波实时估计并补偿惯性导航系统的误差,并获得无人机精确的位置、速度和姿态信息;
b4、以惯导系统/GNSS组合导航系统获得精确的位置信息为基准值,计算视觉测程结果的误差为:
式中ee、en和eu分别为视觉测程结果的东向、北向和天向误差,计算视觉测程结果的误差e的均值ea和最大值em,并设置测量值的可信度为{i}i=1…n,且n满足如下关系
(n-1)ea<em<nea (7)
式中,e、ea、em、n和{i}i=1…n的值在每次计算新的视觉测程结果后自动更新。
(3)当GNSS信号不可用时,利用运动模型预测无人机的运动信息,计算无人机运动的预测值与视觉测程结果的误差,根据这一误差和视觉测程评估准则得出视觉测程评估结果,其具体方法为:
c1、根据在两次图像采样之间无人机加速度保持不变,建立无人机运动预测方程为:
a(k+1)=a(k)
v(k+1)=v(k)+a(k)T (8)
s(k+1)=s(k)+v(k)T
式中,a(k)、v(k)和s(k)分别为无人机在第k次图像采样时的加速度、速度和位置;a(k+1)、v(k+1)和s(k+1)分别为无人机在第k+1次图像采样时的加速度、速度和位置,T为采样周期;计算视觉测程和模型预测获得无人机位置的误差ec,当误差ec满足
(i-1)ea<ec<iea (9)
则该次量测值的可信度为i,将i作为视觉测程评估结果输出。
(4)根据视觉测程评估结果,利用七状态Kalman滤波融合视觉测程结果和惯性导航系统信息,估计并补偿惯性导航系统的误差,获得无人机精确的位置、速度和姿态信息,其具体方法为:
d1、利用视觉测程结果中的水平速度和位置与惯性导航系统输出的水平速度和位置的差值为量测值,建立系统的量测方程为:
式中,ZV为视觉测程结果与惯性导航系统输出信息相减获得的量测值;分别为视觉测程结果中的东向和北向的速度;LV和λV分别为视觉测程结果中的北向位置和东向位置;上标或下标中的I和V分别为惯性导航系统的输出值和视觉测程结果;VV=[vE vNvL vλ]T为视觉测程结果的噪声;i为c1中确定的视觉测程评估结果;
d2、对式(3)进行离散化,利用七状态Kalman滤波方法实时估计并补偿惯性导航系统的误差,获得视觉信息辅助惯性导航的无人机精确的位置、速度和姿态信息。
本发明和现有技术相比的优点在于:
本发明利用不同的帧间匹配方法和不同的帧间关系约束,构建组合式视觉测程算法,并根据运算过程和结果智能提供准确的视觉测程信息;当GNSS信号可用时,建立惯导/GNSS组合导航系统,并利用其导航信息建立视觉测程评估准则;根据视觉测程信息及其评估结果,利用七状态Kalman滤波方法估计并补偿惯性导航系统的误差,从而实现了在GNSS信号不可用时,利用视觉信息辅助惯性导航实时获得无人机精确的位置、速度和姿态信息,保证无人机长时间稳定可靠地飞行和操控。
附图说明
图1为本发明一种视觉信息辅助的无人机自主导航定位方法的原理图;
图2为本发明中组合式视觉测程算法原理图;
图3为本发明在GNSS信号可用时视觉测程评估准则确定方法示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进一步说明。
本发明一种视觉信息辅助的无人机自主导航定位方法的具体实现步骤如下:
(1)对加速度计、陀螺仪、磁传感器、气压高度计和视觉传感器进行标定和误差补偿;
(2)如图1所示,根据惯性导航系统力学方程编排,利用加速度计和陀螺仪的输出值实时计算无人机的运动信息,包括位置、速度和姿态;
(3)如图2所示,将采集到的图像分为普通帧与关键帧,利用光流估计方法获得普通帧的帧间匹配,利用特征匹配方法获得关键帧的帧间匹配,进而根据最小误差准则,选取基于单应性矩阵的视觉测程方式和基于基础矩阵的视觉测程方式中的最优者来分别计算普通帧与关键帧的帧间运动参数,并将两种帧间运动参数进行组合来获得视觉测程结果,其具体方法为:
a1、以视觉传感器输出的图像序列作为普通帧序列,利用金字塔Lucas-Kanade光流估计方法估计普通帧间的光流场,实现普通帧的帧间匹配;同时,取第一帧为关键帧,且每隔八个普通帧取出一帧作为关键帧,利用基于SURF的特征匹配算法实现关键帧的帧间匹配;利用随机采样一致性RANSAC算法分别剔除普通帧的帧间匹配和关键帧的帧间匹配中的误匹配点,当关键帧的帧间匹配数小于设定的阈值,给出错误标识1;
a2、从普通帧的帧间匹配点和关键帧的帧间匹配点中分别随机选取匹配点总数的50%来建立图像帧间单应性矩阵和基础矩阵约束方程分别为:
x'=Hx (1)
x'TFx=0 (2)
通过求解式(1)和(2)获得图像帧间单应性矩阵与基础矩阵;重复上述计算过程三次,分别获得独立的三组单应性矩阵和基础矩阵,如果单应性矩阵的误差小于基础矩阵的误差,则无人机外部环境为平坦空旷的二维环境,通过对单应性矩阵进行分解来获得无人机相对运动参数;如果单应性矩阵的误差大于基础矩阵的误差,则无人机外部环境为复杂的三维环境,通过对基础矩阵进行分解来获得无人机相对运动参数;在针对关键帧的帧间匹配展开计算时,如果得到的两种矩阵误差均大于设定的阈值,给出错误标识2;
a3、如果新采集的图像未被选为关键帧,按照a2中计算过程来计算普通帧的帧间运动参数,并根据前一个普通帧计算出的无人机位置和速度信息来计算当前帧无人机的位置和速度信息作为视觉测程结果;
a4、如果新采集的图像被选取为关键帧,按照a2中计算过程来计算关键帧的帧间运动参数,并对关键帧的帧间运动参数计算过程进行评估检测;如果未检测到错误标识,则当前关键帧为有效关键帧,利用当前关键帧的帧间运动参数和前一关键帧计算出的无人机位置和速度计算当前帧无人机的位置和速度信息作为视觉测程结果;如果出现在a1中所述的错误标识1或在a2中所述的错误标识2,则当前关键帧为无效关键帧,并将当前关键帧按普通帧进行处理,按a3中的计算过程来计算视觉测程结果。
(4)如图3所示,当GNSS信号可用时,利用一个七状态Kalman滤波器实现惯导系统/GNSS组合,估计并补偿惯导系统的误差,获得精确的无人机的位置、速度和姿态全状态导航定位信息,并以全状态导航定位信息为基准值,计算视觉测程结果的误差,建立视觉测程评估准则,其具体方法为:
b1、根据惯性导航系统误差方程建立惯性导航系统状态方程为:
式中,X(t)T=[φENU,δVE,δVN,δL,δλ]为连续时间系统状态;上标T为转置;E、N和U分别为东北天地理坐标系的坐标轴指向;t为时间;φE、φN和φU分别为惯性导航系统在东、北和天向的平台误差角;δVE和δVN分别为惯性导航系统东向和北向的速度误差;δL和δλ分别为惯性导航系统北向和东向位置误差;W(t)为系统噪声;F(t)和G(t)分别为状态转移矩阵和系统噪声矩阵;RN和RM分别为卯酉圈和子午面半径;
b2、利用GNSS输出的位置和速度与惯性导航系统输出的位置和速度的差值为观测量建立系统的量测方程为:
式中,ZS为GNSS与惯性导航系统输出值相减获得的量测值;分别为惯性导航系统输出的东向和北向的速度;LI和λI分别为惯性导航系统输出北向位置和东向位置;分别为GNSS输出的东向和北向的速度;LS和λS分别为GNSS输出的北向位置和东向位置;上标或下标中的I和S分别为惯性导航系统和GNSS的输出值;VS=[vE vN vL vλ]T为GNSS接收机的噪声;
b3、对式(3)进行离散化,利用Kalman滤波实时估计并补偿惯性导航系统的误差,并获得无人机精确的位置、速度和姿态信息;
b4、以惯导系统/GNSS组合导航系统获得精确的位置信息为基准值,计算视觉测程结果的误差为:
式中ee、en和eu分别为视觉测程结果的东向、北向和天向误差,计算视觉测程结果的误差e的均值ea和最大值em,并设置测量值的可信度为{i}i=1…n,且n满足如下关系
(n-1)ea<em<nea (7)
式中,e、ea、em、n和{i}i=1…n的值在每次计算新的视觉测程结果后自动更新。
(5)当GNSS信号不可用时,利用运动模型预测无人机的运动信息,计算无人机运动的预测值与视觉测程结果的误差,根据这一误差和视觉测程评估准则得出视觉测程评估结果,其具体方法为:
c1、根据在两次图像采样之间无人机加速度保持不变,建立无人机运动预测方程为:
a(k+1)=a(k)
v(k+1)=v(k)+a(k)T (8)
s(k+1)=s(k)+v(k)T
式中,a(k)、v(k)和s(k)分别为无人机在第k次图像采样时的加速度、速度和位置;a(k+1)、v(k+1)和s(k+1)分别为无人机在第k+1次图像采样时的加速度、速度和位置,T为采样周期;计算视觉测程和模型预测获得无人机位置的误差ec,当误差ec满足
(i-1)ea<ec<iea (9)
则该次量测值的可信度为i,将i作为视觉测程评估结果输出。
(6)根据视觉测程评估结果,利用七状态Kalman滤波融合视觉测程结果和惯性导航系统信息,估计并补偿惯性导航系统的误差,获得无人机精确的位置、速度和姿态信息,其具体方法为:
d1、利用视觉测程结果中的水平速度和位置与惯性导航系统输出的水平速度和位置的差值为量测值,建立系统的量测方程为:
式中,ZV为视觉测程结果与惯性导航系统输出信息相减获得的量测值;分别为视觉测程结果中的东向和北向的速度;LV和λV分别为视觉测程结果中的北向位置和东向位置;上标或下标中的I和V分别为惯性导航系统的输出值和视觉测程结果;VV=[vE vNvL vλ]T为视觉测程结果的噪声;i为c1中确定的视觉测程评估结果;
d2、对式(3)进行离散化,利用七状态Kalman滤波方法实时估计并补偿惯性导航系统的误差,获得视觉信息辅助惯性导航的无人机精确的位置、速度和姿态信息。
惯性导航系统力学方程编排、惯性导航系统误差方程以及内插和外推算法以及视觉测程中基于SURF的特征匹配算法、金字塔Lucas-Kanade光流估计方法、单应性矩阵估计与分解方法、基础矩阵估计与分解方法和RANSAC方法都是相关领域公知和常用的方法,不再赘述。
本发明中涉及到的本领域公知技术未详细阐述。

Claims (1)

1.一种视觉信息辅助的无人机自主导航定位方法,其特征在于:利用组合式视觉测程算法获取无人机的视觉测程结果,当GNSS信号可用时,利用惯性导航/GNSS组合导航来修正惯性导航系统误差,建立视觉测程评估准则;当GNSS信号不可用时,利用视觉测程评估准则对视觉测程结果进行评估,将经评估后的视觉测程信息与惯性导航系统信息进行融合,估计并补偿惯导系统的误差,为无人机提供连续、可靠的导航定位信息,其具体实现过程:
步骤(1)、将采集到的图像分为普通帧与关键帧,利用光流估计方法获得普通帧的帧间匹配,利用特征匹配方法获得关键帧的帧间匹配,进而根据最小误差准则,选取基于单应性矩阵的视觉测程方式和基于基础矩阵的视觉测程方式中的最优者来分别计算普通帧与关键帧的帧间运动参数,并将两种帧间运动参数进行组合来获得视觉测程结果;
步骤(2)、当GNSS信号可用时,利用一个七状态Kalman滤波器实现惯导系统/GNSS组合,估计并补偿惯导系统的误差,获得精确的无人机的位置、速度和姿态全状态导航定位信息,并以全状态导航定位信息为基准值,计算视觉测程结果的误差,建立视觉测程评估准则;
步骤(3)、当GNSS信号不可用时,利用运动模型预测无人机的运动信息,计算无人机运动的预测值与视觉测程结果的误差,根据这一误差和视觉测程评估准则得出视觉测程评估结果;
步骤(4)、根据视觉测程评估结果,利用七状态Kalman滤波融合视觉测程结果和惯性导航系统信息,估计并补偿惯性导航系统的误差,获得无人机精确的位置、速度和姿态信息。
CN201510137688.2A 2015-03-27 2015-03-27 一种视觉信息辅助的无人机自主导航定位方法 Active CN104729506B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510137688.2A CN104729506B (zh) 2015-03-27 2015-03-27 一种视觉信息辅助的无人机自主导航定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510137688.2A CN104729506B (zh) 2015-03-27 2015-03-27 一种视觉信息辅助的无人机自主导航定位方法

Publications (2)

Publication Number Publication Date
CN104729506A CN104729506A (zh) 2015-06-24
CN104729506B true CN104729506B (zh) 2017-11-14

Family

ID=53453630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510137688.2A Active CN104729506B (zh) 2015-03-27 2015-03-27 一种视觉信息辅助的无人机自主导航定位方法

Country Status (1)

Country Link
CN (1) CN104729506B (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105137875B (zh) * 2015-08-21 2018-12-28 湖北三江航天红峰控制有限公司 一种模拟器飞行安全监控方法
CN106595699A (zh) * 2015-10-14 2017-04-26 陕西飞机工业(集团)有限公司 一种航空惯性导航装置标定提醒方法
US9513629B1 (en) * 2015-10-30 2016-12-06 Sony Mobile Communications, Inc. Methods and devices for heart rate controlled drones
CN105447853B (zh) 2015-11-13 2018-07-13 深圳市道通智能航空技术有限公司 飞行装置、飞行控制系统及方法
US10132933B2 (en) * 2016-02-02 2018-11-20 Qualcomm Incorporated Alignment of visual inertial odometry and satellite positioning system reference frames
CN105806342B (zh) * 2016-03-02 2019-02-22 上海交通大学 基于机器学习的无人机运动速度预测方法
JP6475772B2 (ja) * 2016-05-09 2019-02-27 ツーアンツ インク.TwoAntz Inc. 視覚的測位によるナビゲーション装置およびその方法
CN106017463B (zh) * 2016-05-26 2019-02-26 浙江大学 一种基于定位传感装置的飞行器定位方法
CN106813662A (zh) * 2016-06-08 2017-06-09 极翼机器人(上海)有限公司 一种基于光流的导航方法
CN107543539B (zh) * 2016-06-29 2021-06-01 联芯科技有限公司 一种无人机的位置信息获取方法及无人机
CN109983414A (zh) * 2016-12-07 2019-07-05 深圳市大疆创新科技有限公司 用于支持在可移动平台中进行同步的系统和方法
CN106780699B (zh) * 2017-01-09 2020-10-16 东南大学 一种基于sins/gps和里程计辅助的视觉slam方法
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及系统
CN107478221A (zh) * 2017-08-11 2017-12-15 黄润芳 一种用于移动终端的高精度定位方法
CN108007474A (zh) * 2017-08-31 2018-05-08 哈尔滨工业大学 一种基于地面标识的无人飞行器自主定位及位姿校正技术
CN107590878A (zh) * 2017-09-13 2018-01-16 中国人民解放军火箭军工程大学 一种无人机飞行安全预测评估装置及方法
CN107941212B (zh) * 2017-11-14 2020-07-28 杭州德泽机器人科技有限公司 一种视觉与惯性联合定位方法
CN108981687B (zh) * 2018-05-07 2021-01-15 清华大学 一种视觉与惯性融合的室内定位方法
CN109490931A (zh) * 2018-09-03 2019-03-19 天津远度科技有限公司 飞行定位方法、装置及无人机
CN111121744A (zh) * 2018-10-30 2020-05-08 千寻位置网络有限公司 基于传感单元的定位方法及装置、定位系统及移动终端
CN109459777B (zh) * 2018-11-21 2021-08-17 北京木业邦科技有限公司 一种机器人、机器人定位方法及其存储介质
CN109341685B (zh) * 2018-12-04 2023-06-30 中国航空工业集团公司西安航空计算技术研究所 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
CN109857128B (zh) * 2018-12-18 2022-07-15 丰翼科技(深圳)有限公司 无人机视觉定点降落方法、系统、设备及存储介质
CN109931926B (zh) * 2019-04-04 2023-04-25 山东智翼航空科技有限公司 一种基于站心坐标系的小型无人机无缝自主式导航方法
CN110455286A (zh) * 2019-07-22 2019-11-15 深圳联合飞机科技有限公司 一种无人机导航方法、导航装置、电子设备及存储介质
CN110456822A (zh) * 2019-08-23 2019-11-15 西安爱生技术集团公司 一种中小型无人机双余度自主测量飞控系统
CN110597252B (zh) * 2019-09-03 2021-01-05 安徽江淮汽车集团股份有限公司 自动驾驶汽车融合定位控制方法、装置、设备及存储介质
CN111612334A (zh) * 2020-05-20 2020-09-01 上海评驾科技有限公司 一种基于车联网数据的驾驶行为风险评级的判定方法
CN112068168B (zh) * 2020-09-08 2024-03-15 中国电子科技集团公司第五十四研究所 一种基于视觉误差补偿的地质灾害未知环境组合导航方法
CN112284396B (zh) * 2020-10-29 2023-01-03 的卢技术有限公司 一种适用于地下停车场的车辆定位方法
CN114136315B (zh) * 2021-11-30 2024-04-16 山东天星北斗信息科技有限公司 一种基于单目视觉辅助惯性组合导航方法及系统
CN116088020A (zh) * 2022-12-23 2023-05-09 中国铁路设计集团有限公司 一种基于低成本传感器集成的融合轨道三维重建方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0795455A1 (de) * 1996-03-14 1997-09-17 Siemens Aktiengesellschaft Verfahren zur Eigenortung eines spurgeführten Fahrzeugs und Einrichtung zur Durchführung des Verfahrens
JP2002029500A (ja) * 2000-07-19 2002-01-29 Mitsubishi Heavy Ind Ltd 軌道上作業機の誘導システム
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
CN103162687A (zh) * 2013-03-07 2013-06-19 中国人民解放军国防科学技术大学 基于信息可信度的图像/惯导组合导航方法
CN103697889A (zh) * 2013-12-29 2014-04-02 北京航空航天大学 一种基于多模型分布式滤波的无人机自主导航与定位方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8666661B2 (en) * 2006-03-31 2014-03-04 The Boeing Company Video navigation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0795455A1 (de) * 1996-03-14 1997-09-17 Siemens Aktiengesellschaft Verfahren zur Eigenortung eines spurgeführten Fahrzeugs und Einrichtung zur Durchführung des Verfahrens
JP2002029500A (ja) * 2000-07-19 2002-01-29 Mitsubishi Heavy Ind Ltd 軌道上作業機の誘導システム
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
CN103162687A (zh) * 2013-03-07 2013-06-19 中国人民解放军国防科学技术大学 基于信息可信度的图像/惯导组合导航方法
CN103697889A (zh) * 2013-12-29 2014-04-02 北京航空航天大学 一种基于多模型分布式滤波的无人机自主导航与定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
INS/双星组合导航系统仿真平台研究;赵龙等;《系统仿真学报》;20050831;第17卷(第8期);1888-1890,1915 *
Real-time onboard visual-inertial state estimation;Stephan Weiss等;《International Conference on Robotics and Automation》;20121231;957-964 *

Also Published As

Publication number Publication date
CN104729506A (zh) 2015-06-24

Similar Documents

Publication Publication Date Title
CN104729506B (zh) 一种视觉信息辅助的无人机自主导航定位方法
CN109029417B (zh) 基于混合视觉里程计和多尺度地图的无人机slam方法
CN103697889B (zh) 一种基于多模型分布式滤波的无人机自主导航与定位方法
CN113029137B (zh) 一种多源信息自适应融合定位方法及系统
CN106772524B (zh) 一种基于秩滤波的农业机器人组合导航信息融合方法
CN111426320B (zh) 一种基于图像匹配/惯导/里程计的车辆自主导航方法
CN108871336A (zh) 一种车辆位置估算系统及方法
Yun et al. IMU/Vision/Lidar integrated navigation system in GNSS denied environments
KR101908534B1 (ko) 이동체의 위치 및 자세 결정 장치 및 방법
Sabatini et al. Low-cost navigation and guidance systems for Unmanned Aerial Vehicles. Part 1: Vision-based and integrated sensors
Dumble et al. Airborne vision-aided navigation using road intersection features
Sabatini et al. Navigation and guidance system architectures for small unmanned aircraft applications
Suzuki et al. Development of a SIFT based monocular EKF-SLAM algorithm for a small unmanned aerial vehicle
CN109387198A (zh) 一种基于序贯检测的惯性/视觉里程计组合导航方法
Vezinet et al. State of the art of image-aided navigation techniques for aircraft approach and landing
JP7203805B2 (ja) 移動体の定位誤差の分析
de Haag et al. sUAS swarm navigation using inertial, range radios and partial GNSS
Ćwian et al. GNSS-augmented lidar slam for accurate vehicle localization in large scale urban environments
Deneault et al. Tracking ground targets with measurements obtained from a single monocular camera mounted on an unmanned aerial vehicle
CN105874352B (zh) 使用旋转半径确定设备与船只之间的错位的方法和装置
Abdelaziz et al. Low-cost indoor vision-based navigation for mobile robots
Afia et al. A GNSS/IMU/WSS/VSLAM hybridization using an extended kalman filter
Hosen et al. A vision-aided nonlinear observer for fixed-wing UAV navigation
Garcia-Fernandez et al. Collaborative navigation simulation tool using kalman filter with implicit constraints
Wee et al. A Unified Method for Vision Aided Navigation of Autonomous Systems

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant