CN111024066A - 一种无人机视觉-惯性融合室内定位方法 - Google Patents

一种无人机视觉-惯性融合室内定位方法 Download PDF

Info

Publication number
CN111024066A
CN111024066A CN201911277743.2A CN201911277743A CN111024066A CN 111024066 A CN111024066 A CN 111024066A CN 201911277743 A CN201911277743 A CN 201911277743A CN 111024066 A CN111024066 A CN 111024066A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
indoor positioning
frame
sliding window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911277743.2A
Other languages
English (en)
Other versions
CN111024066B (zh
Inventor
侯建永
魏春燕
金古烃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Aeronautical Radio Electronics Research Institute
Original Assignee
China Aeronautical Radio Electronics Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Aeronautical Radio Electronics Research Institute filed Critical China Aeronautical Radio Electronics Research Institute
Priority to CN201911277743.2A priority Critical patent/CN111024066B/zh
Publication of CN111024066A publication Critical patent/CN111024066A/zh
Application granted granted Critical
Publication of CN111024066B publication Critical patent/CN111024066B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明属于无人机导航室内定位技术领域,公开了一种无人机视觉‑惯性融合室内定位方法。利用双目视差法获得特征点的尺度信息;以金字塔LK光流算法跟踪特征点;并剔除误匹配的特征点;同时对惯性测量数据预积分,保持传感器间的数据同步;构建滑动窗口,对关键帧进行选择与边缘化管理,并采用图优化方式估计无人机的位置、姿态、速度、重力方向以及惯性器件的漂移。最后设计了无人机在动态环境下的室内定位以及对曾到达的位置进行闭环检测与重室内定位的功能,有效提高了无人机室内定位的精度与鲁棒性。

Description

一种无人机视觉-惯性融合室内定位方法
技术领域
本发明属于无人机导航室内定位技术领域,尤其涉及一种无人机视觉-惯性融合室内定位方法。
背景技术
当无人机进行室内定位时,信号受建筑物等因素的影响,导致卫星室内定位精度较低;惯性传感器存在漂移误差,采用积分运算使得长时间工作下误差累积;激光雷达室内定位精度虽高,但因其高昂的价格而得不到广泛的应用。
发明内容
针对上述问题,本发明的目的在于提供一种无人机视觉-惯性融合室内定位方法,解决在缺少卫星室内定位情况下的无人机室内定位定姿问题。
为实现上述目的,本发明提供如下技术方案:
一种无人机视觉-惯性融合室内定位方法,所述室内定位方法应用于加载有双目相机和惯性传感器的无人机定位系统中,所述方法包括:
S1,对双目相机获得的图像进行ORB特征提取,确定左右图像的匹配关系,并初步估计无人机的位置和姿态;
S2,对惯性传感器的测量数据进行预积分,确定任意两帧图像间无人机的运动轨迹与姿态;
S3,根据所述初步估计无人机的位置和姿态,以及任意两帧图像间无人机的运动轨迹和姿态,对双目相机和惯性传感器进行校准;
S4,采用基于滑动窗口的紧耦合双目视觉-惯性里程计对无人机的状态进行估计,根据所述无人机的状态进行室内定位。
本发明技术方案的特点和进一步的改进为:
(1)S1中,对双目相机获得的图像进行ORB特征提取,提取的特征点在相机坐标系下的坐标为:
Figure RE-GDA0002401972930000021
Figure RE-GDA0002401972930000022
Figure RE-GDA0002401972930000023
式中,[Xc,Yc,Zc]T为任意特征点P带尺度的相机坐标;f为相机焦距,UL和VL分别为点特征点PL在相机坐标系下的横、纵坐标,b为双目光心间实际距离;d 为视差,d=uL-uR;(uO,vO)为左目相机光心坐标;
采用金字塔LK光流法对提取的特征点进行特征跟踪,确定左右图像的匹配关系。
(2)S1中,初步估计无人机的位置和姿态,具体为:
对当前图像帧进行特征提取,并与先前图像帧的特征点进行LK光流跟踪;若有大于预设个特征点的稳定跟踪,则使用五点法恢复相机的室内定位,否则将当前图像特征存入滑动窗口,并等待新的图像帧;
相机的室内定位恢复以后,计算当前图像帧中特征点的三维空间坐标,并对滑动窗口内的其他帧图像进行室内定位估计;
对滑动窗口内的图像帧进行全局光束调整,最小化特征点的重投影误差,完成无人机的位置和姿态的估计。
(3)S3,对双目相机和惯性传感器进行校准包括:对陀螺仪和加速度漂移的校准,对无人机速度和重力方向的校准。
(4)S4,采用基于滑动窗口的紧耦合双目视觉-惯性里程计对无人机的状态进行估计时,关键帧的选择方法为:
距离上一次插入关键帧经过了20帧图像;
当前帧跟踪的特征点少于50个。
(5)S4,采用基于滑动窗口的紧耦合双目视觉-惯性里程计对无人机的状态进行估计时,边缘化滑动窗口的方法为:
若当前帧是关键帧,则边缘化滑动窗口内最老的关键帧;
若当前帧不是关键帧,则剔除当前帧的视觉测量数据,保存惯性测量数据。
(6)S4,采用基于滑动窗口的紧耦合双目视觉-惯性里程计对无人机的状态进行估计时,利用光流跟踪获得的像素点运动速度以及利用IMU预积分进行重投影计算获得的特征点像素速度进行对比,排除位于环境中的动态物体上的特征点。
(7)在S4之后,所述方法还包括:利用词袋模型进行闭环检测,采用室内定位图进行全局优化,实现无人机的重室内定位。
本发明的一种无人机视觉-惯性融合室内定位法,在无人机上搭载双目相机和惯性传感器,通过双目相机获取室内环境图像信息,联合优化惯性测量单元(Inertialmeasurement unit,以下简称IMU)预积分数据,估计无人机位置、姿态、速度、重力方向以及陀螺仪与加速度计的漂移。采用词袋模型进行无人机闭环检测,使用全局室内定位图优化实现无人机的室内定位,消除长时间工作的累积误差,以获得无人机在室内的精确定位数据。
附图说明
图1为视觉-惯性融合定位系统框图;
图2为双目视差法示意图;
图3为系统初始化示意图;
图4为滑动窗口内关键帧边缘化示意图;
图5为系统重室内定位示意图;
图6为全局室内定位图优化示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提供一种无人机视觉-惯性融合室内定位方法,将双目视觉传感器与IMU以紧耦合方式进行融合。利用双目视差法获得特征点的尺度信息;以金字塔LK光流算法跟踪特征点;使用RANSAC(随机采样一致性)算法,剔除误匹配的特征点;同时对惯性测量数据预积分,保持传感器间的数据同步;构建滑动窗口,对关键帧进行选择与边缘化管理,并采用图优化方式估计无人机的位置、姿态、速度、重力方向以及惯性器件的漂移。最后设计了无人机在动态环境下的室内定位以及对曾到达的位置进行闭环检测与重室内定位的功能,有效提高了无人机室内定位的精度与鲁棒性。
图1为本发明进行无人机视觉-惯性融合室内定位解算的总体流程图。
步骤1:数据预处理
对双目获得的图像进行ORB特征提取,并确定左右图像的匹配关系。
首先对双目获得的图像进行提取ORB特征点,双目相机的成像模型,如图 2所示。图中,点P为物体特征点位置,OL和OR分别为左目相机和右目相机,由双目视差法获得特征点P的在相机坐标系下的坐标为:
Figure RE-GDA0002401972930000041
Figure RE-GDA0002401972930000042
Figure RE-GDA0002401972930000043
式中,[Xc,Yc,Zc]T为点P带尺度的相机坐标;f为相机焦距,UL和VL分别为点PL在相机坐标系下的横、纵坐标,b为基线,即双目光心间实际距离;d为视差,d=uL-uR;(uO,vO)为左目相机光心坐标。
然后采用金字塔LK光流法进行特征跟踪(这里跟踪的作用应该是建立特征点之间的匹配关系),确定左右图像的匹配关系。金字塔LK光流算法流程为:
①对第一帧与第二帧图像构建各自的5层图像金字塔;
②将第一帧原图像检测出的特征点的横纵坐标缩小为原来的1/16,即得到第一帧原图像的金字塔最顶层的角点坐标;
③用第一帧原图像的金字塔最顶层的角点坐标作为角点在第二帧图像的金字塔最顶层的坐标预测值;
④从图像金字塔最顶层开始,对当前金字塔层,利用LK光流法对第二帧角点坐标预测值进行匹配和修正;
⑤若未到达图像金字塔底层,则将第一帧图像的当前金字塔层中的特征点横纵坐标以及第二帧图像的当前金字塔层用LK光流法修正后的角点的横纵坐标都乘以2,得到第一帧图像的下一层金字塔层特征点的横纵坐标和第二帧图像的下一层金字塔预测特征点的横纵坐标。否则返回④。
步骤2:视觉-惯性融合估计及校准计算
系统初始化方法,从步骤1的纯视觉估计中,可以获得尺度信息,并粗略估计系统的重力、速度、陀螺仪与加速度漂移,如图3所示,通过初始化,将视觉传感器测量值与惯导预积分值对齐。
(1)滑动窗口(是视觉SLAM系统中的一种通用手段,就是把连续n帧的信息放在一个滑动窗口内,一起解算信息)内的纯视觉估计
在步骤一中对最新的图像帧进行特征提取,并与先前图像帧特征点尝试进行LK光流跟踪。此时若能有大于30个特征点的稳定跟踪,则使用五点法恢复相机的室内定位,即旋转与平移矩阵。否则就将当前图像特征存入滑动窗口,并等待新的图像帧。其次,相机的初始室内定位恢复以后,计算特征点的三维空间坐标,并对滑动窗口内的其他帧图像进行室内定位估计。最后,对窗口内的图像帧进行全局光束调整,最小化特征点的重投影误差。完成利用纯视觉估计系统的位置和姿态
(2)IMU-相机校准
(a)陀螺仪漂移校准
用一阶线性化更新预积分,构造代价函数,在滑动窗口内利用最小二乘法最小化代价函数,对陀螺仪漂移bω进行初始化。
(b)速度、重力粗校准
构造估计量
Figure RE-GDA0002401972930000061
其中
Figure RE-GDA0002401972930000062
为第k帧图像在载体坐标系下的速度;
Figure RE-GDA0002401972930000063
为在c0帧图像参考系下的重力向量。构建代价函数,在滑动窗口内利用最小二乘法求解上式,可以获得每帧图像的速度与c0帧图像参考系下的重力向量
Figure RE-GDA0002401972930000064
(c)重力精校准
由于加速度计测量的是包括重力加速度大小与方向在内的载体线加速度值,故排除重力加速度的干扰,获得载体真实的线加速度在IMU测量数据的利用中起着至关重要的作用。大多数情况下,重力的幅值大小都可认为是已知的,将世界坐标系下重力向量Gɡw分解到所求得重力向量
Figure RE-GDA0002401972930000065
的方向上:
ɡw=[0 0 1]T
Figure RE-GDA0002401972930000066
Figure RE-GDA0002401972930000067
Figure RE-GDA0002401972930000068
Figure RE-GDA0002401972930000069
式中,ɡw为世界坐标系下重力的方向向量;
Figure RE-GDA00024019729300000610
为单位向量,G为重力的幅值标量;
Figure RE-GDA00024019729300000611
为世界坐标系到c0帧图像参考系的旋转变换。
通过上式可以得到c0帧图像参考系至世界坐标系的旋转变换
Figure RE-GDA00024019729300000612
于是,所有以c0帧图像为参考系的量均可以转换到世界坐标系(·)w下。至此,搭载双目相机和惯性传感器的无人机系统的初始化完成(得到初始状态量)。
步骤3:基于视觉-惯性融合的无人机室内定位解算
系统初始化后,在此采用基于滑动窗口的紧耦合双目视觉-惯性里程计对定位系统(搭载双目相机和惯性传感器的无人机系统)状态进行精确鲁棒估计。
(1)关键帧选择与边缘化策略
由于在此提出的视觉-惯性里程计是采用对滑动窗口内的关键帧优化方式进行状态量估计,为了限制系统计算复杂度,需要限制窗口中图像的数量,对窗口中冗余的关键帧进行边缘化,保证系统的实时性;同时又要确保窗口插入的关键帧的质量,提高优化结果的准确性,故系统对关键帧的选择与边缘化的策略需进行特殊设计。
(a)关键帧选择
关键帧的选择需要考虑到插入滑动窗口的关键帧的质量,同时也需要保证窗口内关键帧的更新速率,防止在无人机在运动中,滑动窗口内的最新关键帧与当前帧时间间隔太长,造成跟踪失败的情况。关键帧的选择策略如下所述:
①距离上一次插入关键帧经过了20帧图像;
②当前帧跟踪的特征点少于50个。
(b)边缘化策略
同样是考虑滑动窗口内关键帧的数量与质量,需要对滑动窗口内的关键帧、 IMU状态量xk以及特征点进行边缘化处理,以保证滑动窗口内关键帧的流动性。如图4所示,边缘化策略如下所述:
①当前帧若是关键帧,则边缘化滑动窗口内最老的关键帧;
②当前帧若不是关键帧,则剔除当前帧的视觉测量数据,保存IMU测量数据。
边缘化策略采用Sobel进行计算。在此构建一个基于所有边缘化测量数据的先验项,并加入到现有的先验项中。
(2)动态环境下的鲁棒跟踪
对特征点的跟踪采用五层金字塔LK光流算法,算法能获得特征点对应的像素点的运动速度。由于空间中特征点相对相机的运动速度与其在图像平面上投影得到的像素点的运动速度具有对应关系,故可就用此对应关系获得重投影速度,与光流法获得的像素速度进行比较,从而在静态环境中分离出动态的特征点,再将其剔除,以保证跟踪的特征点均位于静态物体上,最大程度确保优化结果的准确性,同时提高无人机室内定位的鲁棒性。
静态环境下,特征点对应的像素点的运动速度与无人机的真实室内定位具有约束关系,故提高动态环境下无人机室内定位鲁棒性的策略为:
①视觉-惯性里程计使用光流算法对特征角点进行跟踪优化,获得无人机的位置、速度、姿态、重力、IMU陀螺仪与加速度计的漂移;
②计算获得特征点的像素速度误差;
③若特征点的像素速度误差大于阈值,剔除该特征点,并重复①;
④若特征点的像素速度误差小于阈值,则继续对图像进行跟踪。
步骤4:闭环检测与重室内定位
采用一种紧耦合的重室内定位方式,在无人机到达先前到过的位置时,能够进行闭环检测,构建新的约束,同时进行高精度的重室内定位,消除系统长时间工作的累积误差,如图5所示。图中,①②为闭环检测过程;③为重室内定位过程;④⑤⑥为多重闭环约束的构建同时重室内定位过程,详细步骤如下:
(1)闭环检测
采用词袋模型进行闭环检测。使用基于公开数据集训练的词袋,并在视觉里程计对关键帧提取ORB特征点后计算每帧图像的单词向量,并将关键帧的空间与图像特征点信息以及单词向量存储在在此构建的视觉数据库中。对新图像帧提取ORB特征后,计算其单词向量并带入视觉数据库进行查询,查询结果返回与当前帧有相似单词向量的闭环候选帧。闭环候选帧是与当前帧的相似度大于当前帧与滑动窗口内最新关键帧相似度三倍的关键帧。
在完成初步闭环检测后,在此获得了闭环候选帧。由于与滑动窗口内的连续关键帧存在许多共视点,构建起数据库中闭环候选帧与窗口中连续关键帧间的闭环约束。由于ORB特征匹配存在大量误匹配的情况,需要对其进行特殊的处理。在此采用RANSAC算法去除特征点的误匹配情况,具体处理步骤为:
①2D-2D:对空间特征点在当前帧的2D图像上的投影点与在数据库中关键帧的2D图像上的投影点之间,采用RANSAC算法进行基础矩阵测试,剔除部分坏点;
②3D-2D:对窗口中已知的空间特征点的3D位置与其在数据库中关键帧的 2D图像上的投影点之间,采用RANSAC算法进行PnP测试,剔除剩下的坏点。
(2)闭环重室内定位
在获得最终的连续闭环帧后,对滑动窗口中的所有关键帧进行重室内定位。在重室内定位过程中,数据库中闭环帧的只为优化提供约束,其室内定位在优化过程中不发生变化。滑动窗口中重室内定位过程的优化项包括窗口内IMU测量数据、视觉测量数据、以及与闭环帧间共视的空间特征点。
(3)全局室内定位优化
经过室内定位优化过程,滑动窗口内关键帧的累积误差被消除,但窗口外的数据库中的关键帧误差却依旧存在,故需要对数据库中的关键帧进行一次全局优化,以消除其累积误差,如图6所示。
考虑到系统的计算资源有限,在此采用室内定位图进行全局优化,即全局优化估计的状态量为各关键帧的位置与姿态。由于无人机的俯仰与滚转角可直接由IMU测量获得,因此待优化的室内定位只有四个自由度(x、y、z、航向角)。
1)室内定位图中添加关键帧
无人机在检测到闭环并重室内定位后继续向前运动,滑动窗口中继续添加新的关键帧,最老的关键帧被边缘化出窗口,这时,将被边缘化的关键帧被当作新的结点添加进室内定位图中,并建立结点的两种边。
①建立顺序边:最新加入室内定位图的关键帧i与数据库中最近的关键帧j建立顺序边,顺序边包括位置
Figure RE-GDA0002401972930000101
约束与航向角
Figure RE-GDA0002401972930000102
约束:
Figure RE-GDA0002401972930000103
Figure RE-GDA0002401972930000104
②建立闭环边:若被边缘化的关键帧为闭环帧,则建立其与数据库中有闭环关系的关键帧之间的闭环边,与上式类似。
2)四自由度室内定位图全局优化
利用视觉-惯性里程计估计获得的俯仰、滚转角度计算第i帧与第j帧间的四自由度室内定位残差,对四自由度室内定位全局优化代价函数进行优化。
考虑到全局室内定位图优化占有资源较多,在此将其放在一个独立的线程里运行,保证系统的正常运行。
3)室内定位图管理
由于全局室内定位图随着无人机工作时间的增长而变得原来越庞大,为了确保系统能进行长时间的工作,在此对室内定位图进行适当地管理,限制其规模。其策略为:所有包含闭环边的关键帧将全部保留,其余的在时间和特征上太相近的帧将被剔除。
本发明提出一种无人机视觉-惯性融合室内定位方法,由于室内环境空间有限,光照变化较小,且室内无人机运动速度较慢,在此采用双目视觉与IMU作为传感器,首先通过对惯性测量数据进行预积分,预测两帧图像间无人机的运动轨迹与姿态,同时,双目相机间进行ORB特征提取与匹配,通过双目视差法得特征点的尺度信息,并采用光流法对提取的特征点进行跟踪,获得特征点像素的运动速度,使用迭代最近点(Iterative closest point,ICP)方法估计无人机的室内定位,再结合IMU的预测,完成初步室内定位。在完成传感器预处理和系统初始化后,采用IMU与视觉紧耦合的方式,对无人机的位置、速度、姿态、陀螺仪与加速度计的漂移以及双目视觉传感器相机与IMU的外参进行优化估计;利用光流跟踪获得的像素点运动速度以及利用IMU预积分进行重投影计算获得的特征点像素速度进行对比,排除由于特征点位于环境中的动态物体上而对系统估计造成的影响,从而实现高精度的室内定位。最后利用词袋模型进行闭环检测,采用室内定位图进行全局优化,实现无人机的重室内定位,消除无人机长时间工作的累积误差,保持定位精度。
本发明的优点在于:是一种低成本、易实现的无人机室内实时定位方法,可推广运用在其它需要室内精确定位的机器人上。克服单一传感器漂移、易受环境干扰等确定,有效提高了机器人室内定位的精度与鲁棒性。

Claims (8)

1.一种无人机视觉-惯性融合室内定位方法,其特征在于,所述室内定位方法应用于加载有双目相机和惯性传感器的无人机定位系统中,所述方法包括:
S1,对双目相机获得的图像进行ORB特征提取,确定左右图像的匹配关系,并初步估计无人机的位置和姿态;
S2,对惯性传感器的测量数据进行预积分,确定任意两帧图像间无人机的运动轨迹与姿态;
S3,根据所述初步估计无人机的位置和姿态,以及任意两帧图像间无人机的运动轨迹和姿态,对双目相机和惯性传感器进行校准;
S4,采用基于滑动窗口的紧耦合双目视觉-惯性里程计对无人机的状态进行估计,根据所述无人机的状态进行室内定位。
2.根据权利要求1所述的一种无人机视觉-惯性融合室内定位方法,其特征在于,S1中,对双目相机获得的图像进行ORB特征提取,提取的特征点在相机坐标系下的坐标为:
Figure FDA0002310270000000011
Figure FDA0002310270000000012
Figure FDA0002310270000000013
式中,[Xc,Yc,Zc]T为任意特征点P带尺度的相机坐标;f为相机焦距,UL和VL分别为点特征点PL在相机坐标系下的横、纵坐标,b为双目光心间实际距离;d为视差,d-uL-uR;(uO,vO)为左目相机光心坐标;
采用金字塔LK光流法对提取的特征点进行特征跟踪,确定左右图像的匹配关系。
3.根据权利要求1所述的一种无人机视觉-惯性融合室内定位方法,其特征在于,S1中,初步估计无人机的位置和姿态,具体为:
对当前图像帧进行特征提取,并与先前图像帧的特征点进行LK光流跟踪;若有大于预设个特征点的稳定跟踪,则使用五点法恢复相机的室内定位,否则将当前图像特征存入滑动窗口,并等待新的图像帧;
相机的室内定位恢复以后,计算当前图像帧中特征点的三维空间坐标,并对滑动窗口内的其他帧图像进行室内定位估计;
对滑动窗口内的图像帧进行全局光束调整,最小化特征点的重投影误差,完成无人机的位置和姿态的估计。
4.根据权利要求1所述的一种无人机视觉-惯性融合室内定位方法,其特征在于,S3,对双目相机和惯性传感器进行校准包括:对陀螺仪和加速度漂移的校准,对无人机速度和重力方向的校准。
5.根据权利要求1所述的一种无人机视觉-惯性融合室内定位方法,其特征在于,S4,采用基于滑动窗口的紧耦合双目视觉-惯性里程计对无人机的状态进行估计时,关键帧的选择方法为:
距离上一次插入关键帧经过了20帧图像;
当前帧跟踪的特征点少于50个。
6.根据权利要求1所述的一种无人机视觉-惯性融合室内定位方法,其特征在于,S4,采用基于滑动窗口的紧耦合双目视觉-惯性里程计对无人机的状态进行估计时,边缘化滑动窗口的方法为:
若当前帧是关键帧,则边缘化滑动窗口内最老的关键帧;
若当前帧不是关键帧,则剔除当前帧的视觉测量数据,保存惯性测量数据。
7.根据权利要求1所述的一种无人机视觉-惯性融合室内定位方法,其特征在于,S4,采用基于滑动窗口的紧耦合双目视觉-惯性里程计对无人机的状态进行估计时,利用光流跟踪获得的像素点运动速度以及利用IMU预积分进行重投影计算获得的特征点像素速度进行对比,排除位于环境中的动态物体上的特征点。
8.根据权利要求1所述的一种无人机视觉-惯性融合室内定位方法,其特征在于,在S4之后,所述方法还包括:利用词袋模型进行闭环检测,采用室内定位图进行全局优化,实现无人机的重室内定位。
CN201911277743.2A 2019-12-10 2019-12-10 一种无人机视觉-惯性融合室内定位方法 Active CN111024066B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911277743.2A CN111024066B (zh) 2019-12-10 2019-12-10 一种无人机视觉-惯性融合室内定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911277743.2A CN111024066B (zh) 2019-12-10 2019-12-10 一种无人机视觉-惯性融合室内定位方法

Publications (2)

Publication Number Publication Date
CN111024066A true CN111024066A (zh) 2020-04-17
CN111024066B CN111024066B (zh) 2023-08-01

Family

ID=70206544

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911277743.2A Active CN111024066B (zh) 2019-12-10 2019-12-10 一种无人机视觉-惯性融合室内定位方法

Country Status (1)

Country Link
CN (1) CN111024066B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402339A (zh) * 2020-06-01 2020-07-10 深圳市智绘科技有限公司 一种实时定位方法、装置、系统及存储介质
CN111610800A (zh) * 2020-05-26 2020-09-01 电子科技大学 一种松耦合无人机控制系统
CN111795686A (zh) * 2020-06-08 2020-10-20 南京大学 一种移动机器人定位与建图的方法
CN111932616A (zh) * 2020-07-13 2020-11-13 清华大学 一种利用并行计算加速的双目视觉惯性里程计方法
CN112037261A (zh) * 2020-09-03 2020-12-04 北京华捷艾米科技有限公司 一种图像动态特征去除方法及装置
CN112146660A (zh) * 2020-09-25 2020-12-29 电子科技大学 一种基于动态词向量的室内地图定位方法
CN112307917A (zh) * 2020-10-21 2021-02-02 国网上海市电力公司 一种融合视觉里程计及imu的室内定位方法
CN112577493A (zh) * 2021-03-01 2021-03-30 中国人民解放军国防科技大学 一种基于遥感地图辅助的无人机自主定位方法及系统
CN112669196A (zh) * 2021-03-16 2021-04-16 浙江欣奕华智能科技有限公司 一种硬件加速引擎中因子图优化数据的方法和设备
CN112729283A (zh) * 2020-12-21 2021-04-30 西北工业大学 一种基于深度相机/mems惯导/里程计组合的导航方法
CN113155126A (zh) * 2021-01-04 2021-07-23 航天时代飞鸿技术有限公司 一种基于视觉导航的多机协同目标高精度定位系统及方法
CN113340293A (zh) * 2021-05-28 2021-09-03 上海高仙自动化科技发展有限公司 一种定位方法、装置、电子设备及存储介质
CN113920194A (zh) * 2021-10-08 2022-01-11 电子科技大学 基于视觉惯性融合的四旋翼飞行器定位方法
CN114088087A (zh) * 2022-01-21 2022-02-25 深圳大学 无人机gps-denied下高可靠高精度导航定位方法和系统
CN114199243A (zh) * 2020-09-18 2022-03-18 浙江舜宇智能光学技术有限公司 用于机器人的位姿估计和运动规划方法、装置和机器人
CN114485623A (zh) * 2022-02-16 2022-05-13 东南大学 一种聚焦距离的相机-imu-uwb融合精准定位方法
CN115307626A (zh) * 2021-05-06 2022-11-08 北京航通云科技有限公司 一种应用于小型无人机的冗余定位方法
CN115597498A (zh) * 2022-12-13 2023-01-13 成都铂贝科技有限公司(Cn) 一种无人机定位及速度估计方法
WO2023155258A1 (zh) * 2022-02-21 2023-08-24 武汉大学 基于关键帧滑窗滤波的含自标定的视觉惯性里程计方法
CN117470248A (zh) * 2023-12-27 2024-01-30 四川三江数智科技有限公司 一种移动机器人室内定位方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102788580A (zh) * 2012-06-20 2012-11-21 天津工业大学 无人机视觉导航中的飞行路线合成方法
CN109191504A (zh) * 2018-08-01 2019-01-11 南京航空航天大学 一种无人机目标跟踪方法
CN109520497A (zh) * 2018-10-19 2019-03-26 天津大学 基于视觉和imu的无人机自主定位方法
CN110044354A (zh) * 2019-03-28 2019-07-23 东南大学 一种双目视觉室内定位与建图方法及装置
WO2019157925A1 (zh) * 2018-02-13 2019-08-22 视辰信息科技(上海)有限公司 视觉惯性里程计的实现方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102788580A (zh) * 2012-06-20 2012-11-21 天津工业大学 无人机视觉导航中的飞行路线合成方法
WO2019157925A1 (zh) * 2018-02-13 2019-08-22 视辰信息科技(上海)有限公司 视觉惯性里程计的实现方法及系统
CN109191504A (zh) * 2018-08-01 2019-01-11 南京航空航天大学 一种无人机目标跟踪方法
CN109520497A (zh) * 2018-10-19 2019-03-26 天津大学 基于视觉和imu的无人机自主定位方法
CN110044354A (zh) * 2019-03-28 2019-07-23 东南大学 一种双目视觉室内定位与建图方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张玉龙;张国山;: "基于关键帧的视觉惯性SLAM闭环检测算法", no. 11 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111610800A (zh) * 2020-05-26 2020-09-01 电子科技大学 一种松耦合无人机控制系统
CN111402339A (zh) * 2020-06-01 2020-07-10 深圳市智绘科技有限公司 一种实时定位方法、装置、系统及存储介质
CN111795686A (zh) * 2020-06-08 2020-10-20 南京大学 一种移动机器人定位与建图的方法
CN111795686B (zh) * 2020-06-08 2024-02-02 南京大学 一种移动机器人定位与建图的方法
CN111932616B (zh) * 2020-07-13 2022-10-14 清华大学 一种利用并行计算加速的双目视觉惯性里程计方法
CN111932616A (zh) * 2020-07-13 2020-11-13 清华大学 一种利用并行计算加速的双目视觉惯性里程计方法
CN112037261A (zh) * 2020-09-03 2020-12-04 北京华捷艾米科技有限公司 一种图像动态特征去除方法及装置
CN114199243A (zh) * 2020-09-18 2022-03-18 浙江舜宇智能光学技术有限公司 用于机器人的位姿估计和运动规划方法、装置和机器人
CN112146660A (zh) * 2020-09-25 2020-12-29 电子科技大学 一种基于动态词向量的室内地图定位方法
CN112146660B (zh) * 2020-09-25 2022-05-03 电子科技大学 一种基于动态词向量的室内地图定位方法
CN112307917A (zh) * 2020-10-21 2021-02-02 国网上海市电力公司 一种融合视觉里程计及imu的室内定位方法
CN112729283A (zh) * 2020-12-21 2021-04-30 西北工业大学 一种基于深度相机/mems惯导/里程计组合的导航方法
CN113155126B (zh) * 2021-01-04 2023-10-20 航天时代飞鸿技术有限公司 一种基于视觉导航的多机协同目标高精度定位系统及方法
CN113155126A (zh) * 2021-01-04 2021-07-23 航天时代飞鸿技术有限公司 一种基于视觉导航的多机协同目标高精度定位系统及方法
CN112577493A (zh) * 2021-03-01 2021-03-30 中国人民解放军国防科技大学 一种基于遥感地图辅助的无人机自主定位方法及系统
CN112669196A (zh) * 2021-03-16 2021-04-16 浙江欣奕华智能科技有限公司 一种硬件加速引擎中因子图优化数据的方法和设备
CN115307626A (zh) * 2021-05-06 2022-11-08 北京航通云科技有限公司 一种应用于小型无人机的冗余定位方法
CN113340293A (zh) * 2021-05-28 2021-09-03 上海高仙自动化科技发展有限公司 一种定位方法、装置、电子设备及存储介质
CN113920194A (zh) * 2021-10-08 2022-01-11 电子科技大学 基于视觉惯性融合的四旋翼飞行器定位方法
CN113920194B (zh) * 2021-10-08 2023-04-21 电子科技大学 基于视觉惯性融合的四旋翼飞行器定位方法
CN114088087B (zh) * 2022-01-21 2022-04-15 深圳大学 无人机gps-denied下高可靠高精度导航定位方法和系统
WO2023138007A1 (zh) * 2022-01-21 2023-07-27 深圳大学 无人机gps-denied下高可靠高精度导航定位方法和系统
CN114088087A (zh) * 2022-01-21 2022-02-25 深圳大学 无人机gps-denied下高可靠高精度导航定位方法和系统
CN114485623A (zh) * 2022-02-16 2022-05-13 东南大学 一种聚焦距离的相机-imu-uwb融合精准定位方法
CN114485623B (zh) * 2022-02-16 2024-02-23 东南大学 一种聚焦距离的相机-imu-uwb融合精准定位方法
WO2023155258A1 (zh) * 2022-02-21 2023-08-24 武汉大学 基于关键帧滑窗滤波的含自标定的视觉惯性里程计方法
CN115597498A (zh) * 2022-12-13 2023-01-13 成都铂贝科技有限公司(Cn) 一种无人机定位及速度估计方法
CN117470248A (zh) * 2023-12-27 2024-01-30 四川三江数智科技有限公司 一种移动机器人室内定位方法
CN117470248B (zh) * 2023-12-27 2024-04-02 四川三江数智科技有限公司 一种移动机器人室内定位方法

Also Published As

Publication number Publication date
CN111024066B (zh) 2023-08-01

Similar Documents

Publication Publication Date Title
CN111024066B (zh) 一种无人机视觉-惯性融合室内定位方法
CN109993113B (zh) 一种基于rgb-d和imu信息融合的位姿估计方法
CN110044354B (zh) 一种双目视觉室内定位与建图方法及装置
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN111210463B (zh) 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及系统
CN107869989B (zh) 一种基于视觉惯导信息融合的定位方法及系统
CN108253963B (zh) 一种基于多传感器融合的机器人自抗扰定位方法以及定位系统
CN112197770B (zh) 一种机器人的定位方法及其定位装置
CN109676604B (zh) 机器人曲面运动定位方法及其运动定位系统
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN111161337B (zh) 一种动态环境下的陪护机器人同步定位与构图方法
CN109443348A (zh) 一种基于环视视觉和惯导融合的地下车库库位跟踪方法
CN112734765A (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN114693754B (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与系统
CN113503873B (zh) 一种多传感器融合的视觉定位方法
US20160055646A1 (en) Method for estimating the angular deviation of a mobile element relative to a reference direction
CN111932674A (zh) 一种线激光视觉惯性系统的优化方法
CN115371665B (zh) 一种基于深度相机和惯性融合的移动机器人定位方法
CN109871024A (zh) 一种基于轻量级视觉里程计的无人机位姿估计方法
CN112556719A (zh) 一种基于cnn-ekf的视觉惯性里程计实现方法
CN115936029A (zh) 一种基于二维码的slam定位方法及装置
CN108827287B (zh) 一种复杂环境下的鲁棒视觉slam系统
CN112731503B (zh) 一种基于前端紧耦合的位姿估计方法及系统
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant