CN107687850A - 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法 - Google Patents

一种基于视觉和惯性测量单元的无人飞行器位姿估计方法 Download PDF

Info

Publication number
CN107687850A
CN107687850A CN201710617653.8A CN201710617653A CN107687850A CN 107687850 A CN107687850 A CN 107687850A CN 201710617653 A CN201710617653 A CN 201710617653A CN 107687850 A CN107687850 A CN 107687850A
Authority
CN
China
Prior art keywords
thread
depth
frame
new
measurement unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710617653.8A
Other languages
English (en)
Other versions
CN107687850B (zh
Inventor
苏俊钦
刘开展
叶允明
李旭涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN201710617653.8A priority Critical patent/CN107687850B/zh
Publication of CN107687850A publication Critical patent/CN107687850A/zh
Application granted granted Critical
Publication of CN107687850B publication Critical patent/CN107687850B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明提供了一种基于视觉和惯性测量单元的无人飞行器位姿估计方法,包括并行的跟踪线程、局部地图线程和深度滤波器线程,所述跟踪线程用于跟踪摄像机的相对运动、视觉信息和惯性信息融合,所述局部地图线程用于检测新的FAST角点,估计三角化测量3D点的深度,并在初始化时对齐视觉和惯性帧,所述深度滤波器线程用于更新3D点的种子。本发明的有益效果是:采用基于视觉和惯性测量单元信息融合的方法,通过跟踪、深度滤波、局部地图三个并行线程,可以达到较高的精度,并且有较高的运行效率,在计算能力受限的嵌入式设备上也能达到较快的估计速度,能满足实时性较高的使用场合。

Description

一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
技术领域
本发明涉及无人飞行器位姿估计方法,尤其涉及一种基于视觉和惯性测量单元的无人飞行器位姿估计方法。
背景技术
在传统无人飞行器视觉导航中,传统方法是基于GPS/IMU融合的位姿估计来导航。IMU具有较高的输出频率,作为短期内的位姿状态;GPS刷新频率较低,不存在累积误差;基于滤波的方法,利用IMU和GPS传感器数据来估计无人飞行器的位姿。
传统的基于GPS/IMU融合的位姿估计,在无GPS信号情况该方法存在累计误差,如在室内的导航。另外GPS精度有限,因此传统基于GPS/IMU融合的位姿估计的精度不高;GPS的刷新频率较低,在实时性要求高的位姿估计应用中,基于GPS/IMU融合的位姿估计不能有效地工作。
发明内容
为了解决现有技术中的问题,本发明提供了一种基于视觉和惯性测量单元的无人飞行器位姿估计方法。
本发明提供了一种基于视觉和惯性测量单元的无人飞行器位姿估计方法,包括并行的跟踪线程、局部地图线程和深度滤波器线程,所述跟踪线程用于跟踪摄像机的相对运动、视觉信息和惯性信息融合,所述局部地图线程用于检测新的FAST角点,估计三角化测量3D点的深度,并在初始化时对齐视觉和惯性帧,所述深度滤波器线程用于更新3D点的种子。
作为本发明的进一步改进,所述跟踪线程通过半直接法实现视觉里程计的初始化,跟踪特征点和估计摄像机姿态,先是计算IMU预积分,获取IMU帧中的运动状态并根据外参矩阵将其转换到相机帧,作为相机位姿的先验信息,然后基于稀疏模型的图像对齐估计相对运动,特征块对齐优化3D点在当前图像帧的二维投影坐标,进一步精细化3D点坐标和相机位置姿态,最后通过连续帧之间的因子图优化来更新IMU状态的姿态,速度和偏移。
作为本发明的进一步改进,在局部地图线程中,检测帧队列中新关键帧上的FAST特征点,并在参考帧中通过光流跟踪新特征点,找出新关键帧和参考帧之间的特征点对应关系,通过参考帧和新关键帧之间的特征点的对应关系和相对姿态,对新特征点进行三角化处理,并获得新关键帧中新特征的深度,将新特征点添加到深度过滤器中作为种子点进行优化,通过光速平差法优化地图中的局部关键帧。
作为本发明的进一步改进,在深度滤波器线程中,深度滤波器是运行概率深度滤波器,以优化新特征点的深度,当新特征点深度的误差低于阈值时,新特征点的深度收敛,将新特征点作为3D点插入到地图中,作为候选3D点,并且这些新的3D点立即用于跟踪线程。
作为本发明的进一步改进,所述跟踪线程包括以下步骤:
S101、判断视觉-IMU对齐初始化是否完成,如果否,则跳到步骤S103,如果是,则进入下一步骤;
S102、计算IMU预积分,IMU相对位姿先验求解,并作为先验位姿;
S103、半稠密视觉跟踪,直接法图像对齐、特征点对齐、位姿优化、3D点结构优化;
S104、视觉-IMU信息融合;
S105、判断是否为关键帧,如果是,则进入关键帧队列,进行局部地图线程,如果否,则进行帧队列,进行深度滤波器线程。
作为本发明的进一步改进,所述局部地图线程包括以下步骤:
S201、FAST角点检测和KLT光流跟踪新特征点;
S202、三角化新特征点,获取深度信息,插入新队列至深度滤波器线程;
S203、光束平差法优化;
S204、判断视觉-IMU对齐是初始化是否完成,如果是,则进行地图更新,如果否,则进行光束平差法优化和视觉-IMU对齐初始化。
作为本发明的进一步改进,所述深度滤波器线程包括以下步骤:
S301、深度滤波器更新种子点深度和不确定性;
S302、判断种子点是否深度收敛,如果是,则向地图插入新种子点作为3D结构候选点。
本发明的有益效果是:通过上述方案,采用基于视觉和惯性测量单元信息融合的方法,通过跟踪、深度滤波、局部地图三个并行线程,可以达到较高的精度,并且有较高的运行效率,在计算能力受限的嵌入式设备上也能达到较快的估计速度,能满足实时性较高的使用场合。
附图说明
图1是本发明一种基于视觉和惯性测量单元的无人飞行器位姿估计方法的示意图。
图2是基于因子图优化的视觉-惯性融合示意图。
图3是在公共数据集The EuRoC MAV Dataset位置估计定性对比在MH_01_easy数据集进行实验对比的示意图。
图4是在公共数据集The EuRoC MAV Dataset位置估计定性对比在MH_03_medium数据集进行实验对比的示意图。
图5是在公共数据集The EuRoC MAV Dataset位置估计定性对比在MH_05_difficult数据集进行实验对比的示意图。
图6是在公共数据集The EuRoC MAV Dataset与OKVIS方法求解的位置的定性对比在MH_01_easy数据集进行实验对比的示意图。
图7是在公共数据集The EuRoC MAV Dataset与OKVIS方法求解的位置的定性对比在MH_03_medium数据集进行实验对比的示意图。
图8是在公共数据集The EuRoC MAV Dataset与OKVIS方法求解的位置的定性对比在MH_05_difficult数据集进行实验对比的示意图。
具体实施方式
下面结合附图说明及具体实施方式对本发明作进一步说明。
如图1所示,一种基于视觉和惯性测量单元的无人飞行器位姿估计方法,包括并行的跟踪线程、局部地图线程和深度滤波器线程,所述跟踪线程用于跟踪摄像机的相对运动、视觉信息和惯性信息融合,所述局部地图线程用于检测新的FAST角点,估计三角化测量3D点的深度,并在初始化时对齐视觉和惯性帧,所述深度滤波器线程用于更新3D点的种子。
跟踪线程通过半直接法实现视觉里程计的初始化,跟踪特征点和估计摄像机姿态。第一步是计算IMU预积分,获取IMU帧中的运动状态并根据外参矩阵将其转换到相机帧,作为相机位姿的先验信息,然后基于稀疏模型的图像对齐估计相对运动,特征块对齐优化3D点在当前图像帧的二维投影坐标,进一步精细化3D点坐标和相机位置姿态,最后通过连续帧之间的因子图优化来更新IMU状态的姿态,速度和偏移。
在局部地图线程中,检测帧队列中新关键帧上的FAST特征点,并在参考帧中通过光流跟踪这些新些特征点点,找出新关键帧和参考帧之间的特征点对应关系。通过参考帧和新关键帧之间的特征点的对应关系和相对姿态,本发明可以对这些新特征点进行三角化处理,并获得新关键帧中新特征的深度。然而,新关键帧的新特征点的深度存在比较大的误差。因此,这些新特征点需要添加到深度过滤器中作为种子点进行优化。最后,本发明通过光速平差法优化地图中的局部关键帧。
深度滤波器是运行概率深度滤波器,以优化新特征的深度。当特征点深度的误差低于阈值时,特征点的深度收敛,本发明将新的特征点作为3D点插入到地图中,作为候选3D点,并且这些新的3D点可以立即用于跟踪线程。
图2是视觉-惯性融合方法,用因子图表示状态(位置、速度、IMU角速度和加速度的偏置)最大后验估计,通过最小化后验估计的负对数来求解视觉-惯性融合的位姿估计。
图3至图5是在公共数据集The EuRoC MAV Dataset位置估计定性对比:分别在MH_01_easy、MH_03_medium、MH_05_difficult数据集进行实验对比。
表1在公共数据集The EuRoC MAV Dataset位置定量对比
由图3至图5和表1可以看出,本发明的估计方法求解的位置误差很小。
图6至图8是在公共数据集The EuRoC MAV Dataset与OKVIS方法求解的位置的定性对比:分别在MH_01_easy、MH_03_medium、MH_05_difficult数据集进行实验对比。
表2在公共数据集The EuRoC MAV Dataset与OKVIS求解的位置误差的定量对比
由图6至图8和表2可以看出,本发明的估计方法求解的位置精度在三个数据集上都比OKVIS方法高。
表3在公共数据集MH_01_easy上,三个线程的运行时间
其中实验运行于Intel Core i5 6200U,2.3GHz CPU and an 16GB RAM笔记本电脑,实时性可以达到100Hz的估计速度,在嵌入式设备上如树莓派也能达到30Hz。
本发明提供的一种基于视觉和惯性测量单元的无人飞行器位姿估计方法,采用基于视觉和惯性测量单元信息融合的方法,通过跟踪、深度滤波、局部地图三个线程,对IMU数据进行预积分,得到位姿的先验,对视觉数据跟踪获取位姿估计,并通过因子优化对视觉和惯性测量单元数据进行融合,可以达到很高的精度(位置误差≤1m),并且有较高的运行效率,在计算能力受限的嵌入式设备上也能达到30Hz的估计速度,能满足实时性较高的使用场合。
本发明提供的一种基于视觉和惯性测量单元的无人飞行器位姿估计方法,主要应用于无人飞行器位姿估计,是基于单目视觉和惯性测量单元的估计方法,该发明包括以下三个部分:1)单目视觉SLAM初始化、视觉SLAM与IMU对齐初始化;2)IMU预积分、半稠密视觉里程计跟踪以及基于图优化的视觉惯性信息融合;3)后端三角测量法获取FAST特征点的深度、深度滤波器和光束平差法优化。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (7)

1.一种基于视觉和惯性测量单元的无人飞行器位姿估计方法,其特征在于:包括并行的跟踪线程、局部地图线程和深度滤波器线程,所述跟踪线程用于跟踪摄像机的相对运动、视觉信息和惯性信息融合,所述局部地图线程用于检测新的FAST角点,估计三角化测量3D点的深度,并在初始化时对齐视觉和惯性帧,所述深度滤波器线程用于更新3D点的种子。
2.根据权利要求1所述的基于视觉和惯性测量单元的无人飞行器位姿估计方法,其特征在于:所述跟踪线程通过半直接法实现视觉里程计的初始化,跟踪特征点和估计摄像机姿态,先是计算IMU预积分,获取IMU帧中的运动状态并根据外参矩阵将其转换到相机帧,作为相机位姿的先验信息,然后基于稀疏模型的图像对齐估计相对运动,特征块对齐优化3D点在当前图像帧的二维投影坐标,进一步精细化3D点坐标和相机位置姿态,最后通过连续帧之间的因子图优化来更新IMU状态的姿态,速度和偏移。
3.根据权利要求1所述的基于视觉和惯性测量单元的无人飞行器位姿估计方法,其特征在于:在局部地图线程中,检测帧队列中新关键帧上的FAST特征点,并在参考帧中通过光流跟踪新特征点,找出新关键帧和参考帧之间的特征点对应关系,通过参考帧和新关键帧之间的特征点的对应关系和相对姿态,对新特征点进行三角化处理,并获得新关键帧中新特征的深度,将新特征点添加到深度过滤器中作为种子点进行优化,通过光速平差法优化地图中的局部关键帧。
4.根据权利要求1所述的基于视觉和惯性测量单元的无人飞行器位姿估计方法,其特征在于:在深度滤波器线程中,深度滤波器是运行概率深度滤波器,以优化新特征点的深度,当新特征点深度的误差低于阈值时,新特征点的深度收敛,将新特征点作为3D点插入到地图中,作为候选3D点,并且这些新的3D点立即用于跟踪线程。
5.根据权利要求1所述的基于视觉和惯性测量单元的无人飞行器位姿估计方法,其特征在于,所述跟踪线程包括以下步骤:
S101、判断视觉-IMU对齐初始化是否完成,如果否,则跳到步骤S103,如果是,则进入下一步骤;
S102、计算IMU预积分,IMU相对位姿先验求解,并作为先验位姿;
S103、半稠密视觉跟踪,直接法图像对齐、特征点对齐、位姿优化、3D点结构优化;
S104、视觉-IMU信息融合;
S105、判断是否为关键帧,如果是,则进入关键帧队列,进行局部地图线程,如果否,则进行帧队列,进行深度滤波器线程。
6.根据权利要求1所述的基于视觉和惯性测量单元的无人飞行器位姿估计方法,其特征在于,所述局部地图线程包括以下步骤:
S201、FAST角点检测和KLT光流跟踪新特征点;
S202、三角化新特征点,获取深度信息,插入新队列至深度滤波器线程;
S203、光束平差法优化;
S204、判断视觉-IMU对齐是初始化是否完成,如果是,则进行地图更新,如果否,则进行光束平差法优化和视觉-IMU对齐初始化。
7.根据权利要求1所述的基于视觉和惯性测量单元的无人飞行器位姿估计方法,其特征在于,所述深度滤波器线程包括以下步骤:
S301、深度滤波器更新种子点深度和不确定性;
S302、判断种子点是否深度收敛,如果是,则向地图插入新种子点作为3D结构候选点。
CN201710617653.8A 2017-07-26 2017-07-26 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法 Active CN107687850B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710617653.8A CN107687850B (zh) 2017-07-26 2017-07-26 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710617653.8A CN107687850B (zh) 2017-07-26 2017-07-26 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法

Publications (2)

Publication Number Publication Date
CN107687850A true CN107687850A (zh) 2018-02-13
CN107687850B CN107687850B (zh) 2021-04-23

Family

ID=61152994

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710617653.8A Active CN107687850B (zh) 2017-07-26 2017-07-26 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法

Country Status (1)

Country Link
CN (1) CN107687850B (zh)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108594848A (zh) * 2018-03-29 2018-09-28 上海交通大学 一种基于视觉信息融合的无人机分阶段自主着艇方法
CN108614567A (zh) * 2018-06-20 2018-10-02 安徽酷哇机器人有限公司 智能环卫作业车控制系统
CN108716917A (zh) * 2018-04-16 2018-10-30 天津大学 一种基于elm融合惯性和视觉信息的室内定位方法
CN108731700A (zh) * 2018-03-22 2018-11-02 东南大学 一种视觉惯性里程计中的加权欧拉预积分方法
CN108986162A (zh) * 2018-06-28 2018-12-11 四川斐讯信息技术有限公司 基于惯性测量单元和视觉信息的菜品和背景分割方法
CN108986037A (zh) * 2018-05-25 2018-12-11 重庆大学 基于半直接法的单目视觉里程计定位方法及定位系统
CN109029448A (zh) * 2018-06-28 2018-12-18 东南大学 单目视觉惯性定位的imu辅助跟踪模型
CN109079799A (zh) * 2018-10-23 2018-12-25 哈尔滨工业大学(深圳) 一种基于仿生的机器人感知控制系统及控制方法
CN109141396A (zh) * 2018-07-16 2019-01-04 南京航空航天大学 辅助信息与随机抽样一致算法融合的无人机位姿估计方法
CN109238277A (zh) * 2018-08-01 2019-01-18 清华大学 视觉惯性数据深度融合的定位方法及装置
CN109307508A (zh) * 2018-08-29 2019-02-05 中国科学院合肥物质科学研究院 一种基于多关键帧的全景惯导slam方法
CN109669474A (zh) * 2018-12-21 2019-04-23 国网安徽省电力有限公司淮南供电公司 基于先验知识的多旋翼无人机自适应悬停位置优化算法
CN109767470A (zh) * 2019-01-07 2019-05-17 浙江商汤科技开发有限公司 一种跟踪系统初始化方法及终端设备
CN109784196A (zh) * 2018-12-20 2019-05-21 哈尔滨工业大学深圳研究生院 视觉信息判识方法、装置、设备及存储介质
CN109816726A (zh) * 2019-01-29 2019-05-28 京东方科技集团股份有限公司 一种基于深度滤波器的视觉里程计地图更新方法和系统
CN110261877A (zh) * 2019-06-26 2019-09-20 南京航空航天大学 一种基于改进图优化slam的地空协同视觉导航方法及装置
CN110274588A (zh) * 2019-06-19 2019-09-24 南京航空航天大学 基于无人机集群信息的双层嵌套因子图多源融合导航方法
CN110595468A (zh) * 2019-09-25 2019-12-20 中国地质科学院地球物理地球化学勘查研究所 一种基于深度学习的三分量感应线圈姿态测量系统及方法
CN110706279A (zh) * 2019-09-27 2020-01-17 清华大学 基于全局地图与多传感器信息融合的全程位姿估计方法
CN110874569A (zh) * 2019-10-12 2020-03-10 西安交通大学 一种基于视觉惯性融合的无人机状态参数初始化方法
CN111028227A (zh) * 2019-12-17 2020-04-17 江西洪都航空工业集团有限责任公司 一种数控机床快速找正方法
CN111288989A (zh) * 2020-02-25 2020-06-16 浙江大学 一种小型无人机视觉定位方法
CN111780754A (zh) * 2020-06-23 2020-10-16 南京航空航天大学 基于稀疏直接法的视觉惯性里程计位姿估计方法
CN111798485A (zh) * 2020-06-30 2020-10-20 武汉大学 一种利用imu增强的事件相机光流估计方法及系统
CN112150547A (zh) * 2019-06-28 2020-12-29 北京初速度科技有限公司 一种确定车体位姿的方法、装置及环视视觉里程计系统
CN112567429A (zh) * 2018-09-07 2021-03-26 华为技术有限公司 用于执行同步定位与地图构建的设备和方法
CN113155126A (zh) * 2021-01-04 2021-07-23 航天时代飞鸿技术有限公司 一种基于视觉导航的多机协同目标高精度定位系统及方法
CN113654555A (zh) * 2021-09-14 2021-11-16 上海智驾汽车科技有限公司 一种基于多传感器数据融合的自动驾驶车辆高精定位方法
CN114979456A (zh) * 2021-02-26 2022-08-30 影石创新科技股份有限公司 视频数据的防抖处理方法、装置、计算机设备和存储介质
CN115711616A (zh) * 2022-06-09 2023-02-24 同济大学 一种室内室外穿越无人机的平顺定位方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455984A (zh) * 2013-09-02 2013-12-18 清华大学深圳研究生院 一种Kinect深度图像获取方法与装置
CN104732518A (zh) * 2015-01-19 2015-06-24 北京工业大学 一种基于智能机器人地面特征的ptam改进方法
CN105809687A (zh) * 2016-03-08 2016-07-27 清华大学 一种基于图像中边沿点信息的单目视觉测程方法
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
US20160305784A1 (en) * 2015-04-17 2016-10-20 Regents Of The University Of Minnesota Iterative kalman smoother for robust 3d localization for vision-aided inertial navigation
CN106056664A (zh) * 2016-05-23 2016-10-26 武汉盈力科技有限公司 一种基于惯性和深度视觉的实时三维场景重构系统及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455984A (zh) * 2013-09-02 2013-12-18 清华大学深圳研究生院 一种Kinect深度图像获取方法与装置
CN104732518A (zh) * 2015-01-19 2015-06-24 北京工业大学 一种基于智能机器人地面特征的ptam改进方法
US20160305784A1 (en) * 2015-04-17 2016-10-20 Regents Of The University Of Minnesota Iterative kalman smoother for robust 3d localization for vision-aided inertial navigation
CN105809687A (zh) * 2016-03-08 2016-07-27 清华大学 一种基于图像中边沿点信息的单目视觉测程方法
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN106056664A (zh) * 2016-05-23 2016-10-26 武汉盈力科技有限公司 一种基于惯性和深度视觉的实时三维场景重构系统及方法

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108731700A (zh) * 2018-03-22 2018-11-02 东南大学 一种视觉惯性里程计中的加权欧拉预积分方法
CN108731700B (zh) * 2018-03-22 2020-07-31 东南大学 一种视觉惯性里程计中的加权欧拉预积分方法
CN108594848A (zh) * 2018-03-29 2018-09-28 上海交通大学 一种基于视觉信息融合的无人机分阶段自主着艇方法
CN108594848B (zh) * 2018-03-29 2021-01-22 上海交通大学 一种基于视觉信息融合的无人机分阶段自主着艇方法
CN108716917A (zh) * 2018-04-16 2018-10-30 天津大学 一种基于elm融合惯性和视觉信息的室内定位方法
CN108986037B (zh) * 2018-05-25 2020-06-16 重庆大学 基于半直接法的单目视觉里程计定位方法及定位系统
CN108986037A (zh) * 2018-05-25 2018-12-11 重庆大学 基于半直接法的单目视觉里程计定位方法及定位系统
CN108614567A (zh) * 2018-06-20 2018-10-02 安徽酷哇机器人有限公司 智能环卫作业车控制系统
CN108986162A (zh) * 2018-06-28 2018-12-11 四川斐讯信息技术有限公司 基于惯性测量单元和视觉信息的菜品和背景分割方法
CN108986162B (zh) * 2018-06-28 2022-02-22 杭州吉吉知识产权运营有限公司 基于惯性测量单元和视觉信息的菜品和背景分割方法
CN109029448A (zh) * 2018-06-28 2018-12-18 东南大学 单目视觉惯性定位的imu辅助跟踪模型
CN109141396A (zh) * 2018-07-16 2019-01-04 南京航空航天大学 辅助信息与随机抽样一致算法融合的无人机位姿估计方法
CN109141396B (zh) * 2018-07-16 2022-04-26 南京航空航天大学 辅助信息与随机抽样一致算法融合的无人机位姿估计方法
CN109238277A (zh) * 2018-08-01 2019-01-18 清华大学 视觉惯性数据深度融合的定位方法及装置
CN109307508A (zh) * 2018-08-29 2019-02-05 中国科学院合肥物质科学研究院 一种基于多关键帧的全景惯导slam方法
CN112567429A (zh) * 2018-09-07 2021-03-26 华为技术有限公司 用于执行同步定位与地图构建的设备和方法
CN109079799B (zh) * 2018-10-23 2021-11-12 哈尔滨工业大学(深圳) 一种基于仿生的机器人感知控制系统及控制方法
CN109079799A (zh) * 2018-10-23 2018-12-25 哈尔滨工业大学(深圳) 一种基于仿生的机器人感知控制系统及控制方法
CN109784196A (zh) * 2018-12-20 2019-05-21 哈尔滨工业大学深圳研究生院 视觉信息判识方法、装置、设备及存储介质
CN109669474A (zh) * 2018-12-21 2019-04-23 国网安徽省电力有限公司淮南供电公司 基于先验知识的多旋翼无人机自适应悬停位置优化算法
CN109669474B (zh) * 2018-12-21 2022-02-15 国网安徽省电力有限公司淮南供电公司 基于先验知识的多旋翼无人机自适应悬停位置优化算法
CN109767470A (zh) * 2019-01-07 2019-05-17 浙江商汤科技开发有限公司 一种跟踪系统初始化方法及终端设备
CN109767470B (zh) * 2019-01-07 2021-03-02 浙江商汤科技开发有限公司 一种跟踪系统初始化方法及终端设备
CN109816726A (zh) * 2019-01-29 2019-05-28 京东方科技集团股份有限公司 一种基于深度滤波器的视觉里程计地图更新方法和系统
CN110274588A (zh) * 2019-06-19 2019-09-24 南京航空航天大学 基于无人机集群信息的双层嵌套因子图多源融合导航方法
CN110261877A (zh) * 2019-06-26 2019-09-20 南京航空航天大学 一种基于改进图优化slam的地空协同视觉导航方法及装置
CN110261877B (zh) * 2019-06-26 2024-06-11 南京航空航天大学 一种基于改进图优化slam的地空协同视觉导航方法及装置
CN112150547A (zh) * 2019-06-28 2020-12-29 北京初速度科技有限公司 一种确定车体位姿的方法、装置及环视视觉里程计系统
CN112150547B (zh) * 2019-06-28 2024-03-12 北京魔门塔科技有限公司 一种确定车体位姿的方法、装置及环视视觉里程计系统
CN110595468A (zh) * 2019-09-25 2019-12-20 中国地质科学院地球物理地球化学勘查研究所 一种基于深度学习的三分量感应线圈姿态测量系统及方法
CN110706279B (zh) * 2019-09-27 2021-09-07 清华大学 基于全局地图与多传感器信息融合的全程位姿估计方法
CN110706279A (zh) * 2019-09-27 2020-01-17 清华大学 基于全局地图与多传感器信息融合的全程位姿估计方法
CN110874569B (zh) * 2019-10-12 2022-04-22 西安交通大学 一种基于视觉惯性融合的无人机状态参数初始化方法
CN110874569A (zh) * 2019-10-12 2020-03-10 西安交通大学 一种基于视觉惯性融合的无人机状态参数初始化方法
CN111028227A (zh) * 2019-12-17 2020-04-17 江西洪都航空工业集团有限责任公司 一种数控机床快速找正方法
CN111288989B (zh) * 2020-02-25 2021-11-05 浙江大学 一种小型无人机视觉定位方法
CN111288989A (zh) * 2020-02-25 2020-06-16 浙江大学 一种小型无人机视觉定位方法
CN111780754A (zh) * 2020-06-23 2020-10-16 南京航空航天大学 基于稀疏直接法的视觉惯性里程计位姿估计方法
CN111798485A (zh) * 2020-06-30 2020-10-20 武汉大学 一种利用imu增强的事件相机光流估计方法及系统
CN111798485B (zh) * 2020-06-30 2022-07-19 武汉大学 一种利用imu增强的事件相机光流估计方法及系统
CN113155126B (zh) * 2021-01-04 2023-10-20 航天时代飞鸿技术有限公司 一种基于视觉导航的多机协同目标高精度定位系统及方法
CN113155126A (zh) * 2021-01-04 2021-07-23 航天时代飞鸿技术有限公司 一种基于视觉导航的多机协同目标高精度定位系统及方法
CN114979456A (zh) * 2021-02-26 2022-08-30 影石创新科技股份有限公司 视频数据的防抖处理方法、装置、计算机设备和存储介质
CN114979456B (zh) * 2021-02-26 2023-06-30 影石创新科技股份有限公司 视频数据的防抖处理方法、装置、计算机设备和存储介质
CN113654555A (zh) * 2021-09-14 2021-11-16 上海智驾汽车科技有限公司 一种基于多传感器数据融合的自动驾驶车辆高精定位方法
CN115711616A (zh) * 2022-06-09 2023-02-24 同济大学 一种室内室外穿越无人机的平顺定位方法及装置

Also Published As

Publication number Publication date
CN107687850B (zh) 2021-04-23

Similar Documents

Publication Publication Date Title
CN107687850A (zh) 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN108682027A (zh) 基于点、线特征融合的vSLAM实现方法及系统
CN110979346B (zh) 确定车辆所处车道的方法、装置及设备
CN109461208B (zh) 三维地图处理方法、装置、介质和计算设备
CN110874100A (zh) 用于使用视觉稀疏地图进行自主导航的系统和方法
CN105606102B (zh) 一种基于格网模型的pdr室内定位方法及系统
CN109974743B (zh) 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计
US10645668B2 (en) Indoor positioning system and method based on geomagnetic signals in combination with computer vision
CN111882602B (zh) 基于orb特征点和gms匹配过滤器的视觉里程计实现方法
CN114966734A (zh) 一种结合多线激光雷达的双向深度视觉惯性位姿估计方法
CN114323033B (zh) 基于车道线和特征点的定位方法、设备及自动驾驶车辆
CN109242899B (zh) 一种基于在线视觉词典的实时定位与地图构建方法
WO2023142353A1 (zh) 一种位姿预测方法及装置
Laflamme et al. Driving datasets literature review
CN112907633B (zh) 动态特征点识别方法及其应用
Wang et al. Improving RGB-D SLAM accuracy in dynamic environments based on semantic and geometric constraints
CN112432653B (zh) 基于点线特征的单目视觉惯性里程计方法
WO2024120269A1 (zh) 一种融合点云地图、运动模型和局部特征的位置识别方法
CN112731503B (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN116758311A (zh) 一种适合弱光环境的视觉slam构建方法
Wang et al. A survey of simultaneous localization and mapping on unstructured lunar complex environment
Lai et al. A survey of deep learning application in dynamic visual SLAM
CN115031735A (zh) 基于结构特征的单目视觉惯性里程计系统的位姿估计方法
Zhang et al. IQ-VIO: adaptive visual inertial odometry via interference quantization under dynamic environments
CN108732925B (zh) 智能设备的行进控制方法、装置和智能设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant