CN114529585A - 基于深度视觉和惯性测量的移动设备自主定位方法 - Google Patents
基于深度视觉和惯性测量的移动设备自主定位方法 Download PDFInfo
- Publication number
- CN114529585A CN114529585A CN202210166102.5A CN202210166102A CN114529585A CN 114529585 A CN114529585 A CN 114529585A CN 202210166102 A CN202210166102 A CN 202210166102A CN 114529585 A CN114529585 A CN 114529585A
- Authority
- CN
- China
- Prior art keywords
- mobile equipment
- depth
- vision
- data acquisition
- autonomous positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 20
- 238000005457 optimization Methods 0.000 claims abstract description 18
- 238000010168 coupling process Methods 0.000 claims abstract description 14
- 230000008878 coupling Effects 0.000 claims abstract description 10
- 238000005859 coupling reaction Methods 0.000 claims abstract description 10
- 238000013461 design Methods 0.000 claims abstract description 5
- 238000010276 construction Methods 0.000 claims abstract description 3
- 238000011161 development Methods 0.000 claims abstract description 3
- 230000008569 process Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开一种室内环境下基于深度视觉和惯性测量的移动设备自主定位方法,同时在位姿估计的理论框架以及技术实现上展开探索,最终开发了一套室内移动设备自主定位系统,可以通过手持的方式进行场景扫描并快速准确地估计设备位姿。数据采集端由平板电脑、彩色相机、深度相机和惯性测量单元组成,可实现多源数据的采集、预处理和发布等功能。定位终端接收来自数据采集端发布的数据,并实现基于滑动窗口策略的多源信息紧耦合方法,实时估计移动设备的位姿状态。本发明的主要创新点在于:轻量便携的传感器数据采集端的开发、深度视觉与惯性测量紧耦合优化问题的构建、基于关键帧策略的滑动窗口算法的设计三部分。
Description
技术领域
本发明涉及以深度视觉和惯性测量对移动设备进行自主定位的方法,尤其涉及一种基于滑动窗口策略的多源信息紧耦合方法。
背景技术
为了确保无人机、机器人、自动驾驶车辆等可自主移动设备能够安全可靠地完成任务,基于多源数据融合的移动设备自主定位技术已成为近年来的热门话题。该技术最早提出于 1986年的国际机器人与自动化大会,提出了创建一致的概率地图问题及其理论框架和计算问题是机器人领域需要解决的基本问题。移动设备自主定位技术可以理解为将一个可移动设备放置于未知环境中,是否有方法使其通过搭载的传感器观测数据估计自身位置和姿态。移动设备所处的环境决定了自主定位功能实现所要搭载的传感器类型,GPS、雷达等传感设备可以用于移动设备在开阔的室外环境下的精确定位。但是对于室内移动设备,视觉、惯性测量传感器因其成本较低,占用空间小,获取环境信息较为全面等优点更具优势。在数据融合方面,早期的主流方案均基于滤波算法实现移动设备的位置和姿态更新,但是基于马尔可夫性的滤波方法无法将当前时刻与历史时刻的移动设备状态进行关联,且滤波方法需要保存状态量的均值和方差等参数,在大范围环境下的状态数据存储量极大。目前的大多数移动设备自主定位技术均基于非线性优化理论,具体实现过程涉及几何学、图论和概率估计的交叉,且已经具备了成熟的实现框架。
本发明实现了移动设备在室内环境下基于深度视觉和惯性测量的自主定位,同时在位姿估计的理论框架以及技术实现上展开探索,最终开发了一套便携、实用的移动设备室内自主定位系统,可以通过手持的方式进行场景扫描并快速准确地估计设备位姿。自主定位系统可划分为两部分,分别是用来获取深度视觉和惯性测量值的可移动数据采集端和实现多源数据紧耦合算法的自主定位终端。数据采集端包括彩色相机、深度相机、惯性测量单元(IMU)、数据预处理模块和无线通信模块,三种传感器设备在移动设备扫描室内环境过程中采集彩色图像、深度图像和移动设备的运动加速度和角速度,数据预处理模块用来实现传感器的标定任务,无线通信模块将数据采集端的多源数据传输至自主定位终端。自主定位终端用来实现基于滑动窗口策略的多源信息紧耦合方法,实时估计移动设备在每个离散时刻的位姿状态。
发明内容
本发明为了实现移动设备在未知环境下的自主定位,提出了一种基于滑动窗口策略的多源信息紧耦合方法,并开发了一套便携、实用的移动设备室内自主定位系统。
基于深度视觉与惯性测量的移动设备自主定位方法,其主要创新点在于:轻量便携的传感器数据采集端的开发、深度视觉与惯性测量紧耦合优化问题的构建、基于关键帧策略的滑动窗口算法的设计三部分。
所述传感器数据采集端以平板电脑为核心,基于其自身搭载的彩色相机、惯性测量单元和外置的深度相机构成如图1所示的数据采集端硬件平台,数据预处理模块和无线通信模块分别实现传感器的标定和传感器数据在局域网中的发布。
所述深度视觉与惯性测量紧耦合优化问题建立了深度视觉观测和惯性测量与系统状态之间的关系,并构建了一个系统状态量统一的非线性优化问题,可以同时估计移动设备的位置、姿态、速度以及惯性测量单元的偏置。
所述基于关键帧策略的滑动窗口算法将图像特征点对的数量和特征点集的平均视差作为关键帧的判断标准,过滤具有较多重复信息的图像帧,并通过移除历史状态变量的方式动态更新非线性优化问题中的待优化状态变量,进而控制优化问题的求解规模,保障移动设备自主定位的实时性。
本发明的优点在于:
(1)本发明通过搭建可移动数据采集端实现室内环境的多源数据采集,并基于数据采集端实现传感器的标定和数据的无线传输。与大部分基于线缆连接的数据采集设备相比,本发明具有明显的实用性、便携性和可移植性。
(2)本发明提出一种基于紧耦合和非线性优化的多源数据融合方案,通过构造状态量统一的非线性优化问题同时估计移动设备的位置、姿态、速度和惯性测量单元的偏置。
(3)本发明实现了基于关键帧策略的滑动窗口算法,通过关键帧判断标准有效过滤了大量彩色图像和深度图像中的冗余信息,并通过滑动窗口实现了待优化状态变量的动态更新,进而提升了移动设备自主定位系统的实时性。
附图说明
图1为本发明给出的数据采集端硬件平台实物图片;
图2为本发明给出的基于深度视觉与惯性测量的移动设备自主定位方法的实现框架;
图3为本发明提供的多角度棋盘格图像;
图4为本发明提供的提取角点后的棋盘格图像;
图5为本发明提供的棋盘格角点重投影误差分布图;
图6为本发明提供的局域网下的网络通信方式示意图;
图7为本发明提供的移动设备自主定位方法的初始化步骤流程图;
图8为本发明提供的基于公开深度视觉和移动设备运动轨迹数据重建的高质量场景三维模型图;
图9为本发明提供的移动设备在三维空间中的运动轨迹图;
图10为本发明提供的三种定位方法在三组测试实验中的绝对位姿估计误差曲线图;
具体实施方式
下面结合附图对本发明提供的基于深度视觉与惯性测量的移动设备自主定位方法进行详细说明。
本发明给出的基于深度视觉与惯性测量的移动设备自主定位方法的实现框架如图2所示。按照具体实施步骤,可以将整个流程划分为三部分,分别是数据采集与传输、深度视觉与惯性测量结果的对齐、基于滑动窗口的多源数据紧耦合算法。数据采集与传输部分的所有功能均基于iOS开发,硬件设备包括第六代iPad和Occipital公司推出的Structure深度相机。其他两部分的算法全部基于C++开发,硬件设备为搭载Linux操作系统的台式机。
数据采集之前需要对所有的传感器设备进行标定,相机内参标定的目的是确定空间物体表面某点的三维位置与其在图像中对应点的相互关系,并建立相机成像的几何模型,本发明使用张氏标定法对彩色相机和深度相机的内参进行标定。首先获取如图3所示的多角度棋盘格图像,并提取每张图像中完整的棋盘格角点,如图4所示。给出待标定参数的初始估计值,基于相机成像模型对空间中的棋盘格角点进行投影,并根据成像模型的角点投影坐标结果和提取的图像角点坐标建立多参数的非线性优化问题,最后通过列文伯格-马夸尔特(Levenberg Marquardt,LM)算法进行迭代求解。为客观评估相机内参标定精度,将所有图像帧中的棋盘格角点投影到如图5左半部分所示的同一张图像下,不同颜色的角点表示来自不同的图像,可以发现不同图像帧中的同一角点有很好的对应关系,所有图像帧中的棋盘格角点重投影误差分布如图5右半部分所示,98%的棋盘角点重投影误差在x轴和y轴方向上都小于0.5个像素,最大误差也不超过1个像素。对于惯性测量单元,本发明假设其随机噪声服从高斯分布,并通过Allan方差法对惯性测量单元的偏置和随机游走方差进行标定。
本发明提供的数据采集端能够实现局域网下的传感器数据无线实时传输。图片数据的实时传输对网络带宽要求较高,本发明对深度图像和彩色图像进行了压缩处理,以发布/订阅作为网络通信方式,根据相应规范设计如图6所示的数据发布和订阅过程。其中数据采集端作为数据发布节点,用来实现移动设备自主定位的台式机一端作为数据订阅节点。
本发明提供的如图7所示的深度视觉与惯性测量结果的对齐方案实现了移动设备自主定位的初始化过程。当惯性测量单元获得足够的激励后,开始建立相邻图像帧之间的视觉约束关系,并基于特征点之间的几何约束关系计算相邻图像帧间的移动设备相对位姿。在位姿估计合理的情况,先后执行基于滑动窗口内的SFM(Structure From Motion)算法和滑动窗口外的PnP(Perspective-n-Point)算法,得到滑动窗口内所有图像帧对应时刻的移动设备位置和姿态。计算特征点三维坐标过程中直接查询深度图像上对应点的深度值,而无需引入三角测量算法。最后基于惯性测量预积分结果和深度视觉估计结果构建非线性最小二乘问题,实现对滑动窗口内所有时刻的移动设备运动速度以及重力方向进行初始化。
本发明提供的基于滑动窗口的多源数据紧耦合算法充分利用每个传感器的原始数据,同时估计决定移动设备位置和姿态的所有状态变量,并通过关键帧策略和滑动窗口机制控制了算法规模,有效降低了系统的运行时间。该算法具体实施流程如下:
第1步,提取图像中具有一定辨识度的角点作为特征点,通过LK(Lucas Kanade)光流法对非首帧图像的已有特征点进行跟踪,并采用对级约束剔除误差较大的匹配特征点对。特别地,为了保证特征点数量满足跟踪算法需求以及特征点的均匀分布,本发明在特征点检测过程中引入了图像遮罩机制(Mask),即对上一帧已经存在的特征角点及其附近指定大小的邻域进行标记,新的特征角点仅能在未标记的区域进行提取;
第2步,构建基于深度视觉的残差函数,基于相邻图像帧中的相同特征点之间的视觉约束可以构建关于移动设备位置和姿态变量的捆绑优化(Bundle Adjustment)问题,观测量是特征角点在不同图像帧上的像素坐标,则有基于深度视觉的残差函数:
第4步,构建基于惯性测量的残差函数,待优化状态变量设为两个图像帧时刻对应的移动设备位置pwb、速度vw、姿态qwb和IMU的加速度计偏置ba、陀螺仪偏置bg,观测量即第3步计算得到的预积分值,则有残差函数:
除了旋转误差之外,其他残差表达式都是通过直接相减得到的,而旋转误差是通过计算两个四元数之间的角度误差。
第5步,整合滑动窗口内所有上述待优化状态变量,并构造深度视觉残差函数和惯性测量残差函数的求和形式以形成新的残差函数,实现多源数据的紧耦合。
第6步,计算残差函数对所有状态量的雅各比矩阵,深度视觉残差和惯性测量残差的协方差,最后通过Ceres非线性优化库求解状态变量,完成移动设备的位姿估计。
本发明核心代码由C++开发,并在彩色-深度-IMU数据集上验证有效。为了获得基于不同运动轨迹的测试数据集,本发明根据公开的深度视觉和移动设备运动轨迹数据重建了如图 8所示的高质量场景三维模型,采用虚拟相机模型按照预设轨迹对三维模型进行彩色和深度图像采集,同时根据设定好的运动方程仿真得到惯性测量单元的输出数据,从而得到可用于评价基于深度视觉与惯性测量的移动设备自主定位方法性能的多个数据集。
本发明设计了三组测试实验用于评估所提方法性能,移动设备在三维空间中的运动轨迹如图9所示,其中第2组测试实验的移动设备运动轨迹在第1组的基础上添加了y轴方向的正弦运动,第3组测试实验在第1组实验的基础上增大了移动设备在每个时刻的角速度,所以空间轨迹与第1组是一致的。
本发明提供的移动设备自主定位方法与经典的直接稀疏里程计算法(DSO,DirectSparse Odometry)和当前主流的VINS-Mono算法进行了对比,图10给出了三种方法在三组测试实验中的绝对位姿估计误差曲线。可以看到,本发明提出的基于深度视觉与惯性测量的定位方法的绝对轨迹误差在任一测试数据集下都是最低的,具有更小的方差和均值,表现更为稳定。例如第三组数据集包含了较大幅度的三轴旋转,会有短暂时刻的视野空白和图像模糊情况,这导致DSO里程计出现了较大的绝对轨迹误差,而本发明提出的方法与VINS-Mono都充分利用了惯性测量数据,能够在一定程度上克服上述问题。VINS-Mono里程计相比,本发明融合了深度信息,解决了单目视觉存在尺度不确定性的问题。
Claims (4)
1.基于深度视觉与惯性测量的移动设备自主定位方法,其特征在于:轻量便携的传感器数据采集端的开发、深度视觉与惯性测量紧耦合优化问题的构建、基于关键帧策略的滑动窗口算法的设计三部分。
2.对于权利要求1所述的传感器数据采集端以平板电脑为核心,基于其自身搭载的彩色相机、惯性测量单元和外置的深度相机构成数据采集端硬件平台,数据预处理模块和无线通信模块分别实现传感器的标定和传感器数据在局域网中的发布。
3.对于权利要求1所述的深度视觉与惯性测量紧耦合优化问题分别建立了深度视觉观测和惯性测量与系统状态之间的关系,尤其是在深度视觉残差函数的建立过程中直接采用深度图像中的距离信息解决了单目视觉不能获取尺度信息的问题,并结合两个残差函数构建了一个系统状态量统一的非线性优化问题,可以同时估计移动设备的位置、姿态、速度以及惯性测量单元的偏置。
4.根据权利要求1所述的基于关键帧策略的滑动窗口算法将图像特征点对的数量和特征点集的平均视差作为关键帧的判断标准,过滤具有较多重复信息的图像帧,并通过移除历史状态变量的方式动态更新非线性优化问题中的待优化状态变量,进而控制优化问题的求解规模,保障移动设备自主定位的实时性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210166102.5A CN114529585A (zh) | 2022-02-23 | 2022-02-23 | 基于深度视觉和惯性测量的移动设备自主定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210166102.5A CN114529585A (zh) | 2022-02-23 | 2022-02-23 | 基于深度视觉和惯性测量的移动设备自主定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114529585A true CN114529585A (zh) | 2022-05-24 |
Family
ID=81625335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210166102.5A Pending CN114529585A (zh) | 2022-02-23 | 2022-02-23 | 基于深度视觉和惯性测量的移动设备自主定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114529585A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117596394A (zh) * | 2024-01-18 | 2024-02-23 | 之江实验室 | 一种自适应精度的深度图帧间压缩方法 |
CN117760428A (zh) * | 2024-02-22 | 2024-03-26 | 西北工业大学 | 一种基于多立体视觉惯性紧耦合的自主定位方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及系统 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110717927A (zh) * | 2019-10-10 | 2020-01-21 | 桂林电子科技大学 | 基于深度学习和视惯融合的室内机器人运动估计方法 |
WO2020087846A1 (zh) * | 2018-10-31 | 2020-05-07 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN111609868A (zh) * | 2020-05-29 | 2020-09-01 | 电子科技大学 | 一种基于改进光流法的视觉惯性里程计方法 |
CN111932674A (zh) * | 2020-06-30 | 2020-11-13 | 博雅工道(北京)机器人科技有限公司 | 一种线激光视觉惯性系统的优化方法 |
CN113610001A (zh) * | 2021-08-09 | 2021-11-05 | 西安电子科技大学 | 基于深度相机和imu组合的室内移动终端定位方法 |
-
2022
- 2022-02-23 CN CN202210166102.5A patent/CN114529585A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及系统 |
WO2020087846A1 (zh) * | 2018-10-31 | 2020-05-07 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110717927A (zh) * | 2019-10-10 | 2020-01-21 | 桂林电子科技大学 | 基于深度学习和视惯融合的室内机器人运动估计方法 |
CN111609868A (zh) * | 2020-05-29 | 2020-09-01 | 电子科技大学 | 一种基于改进光流法的视觉惯性里程计方法 |
CN111932674A (zh) * | 2020-06-30 | 2020-11-13 | 博雅工道(北京)机器人科技有限公司 | 一种线激光视觉惯性系统的优化方法 |
CN113610001A (zh) * | 2021-08-09 | 2021-11-05 | 西安电子科技大学 | 基于深度相机和imu组合的室内移动终端定位方法 |
Non-Patent Citations (1)
Title |
---|
徐玲;蔡慧;郑恩辉;花江峰;刘政;王谈谈;: "基于关键帧的视觉惯性定位算法", 科技通报, no. 05, 31 May 2020 (2020-05-31) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117596394A (zh) * | 2024-01-18 | 2024-02-23 | 之江实验室 | 一种自适应精度的深度图帧间压缩方法 |
CN117596394B (zh) * | 2024-01-18 | 2024-05-24 | 之江实验室 | 一种自适应精度的深度图帧间压缩方法 |
CN117760428A (zh) * | 2024-02-22 | 2024-03-26 | 西北工业大学 | 一种基于多立体视觉惯性紧耦合的自主定位方法 |
CN117760428B (zh) * | 2024-02-22 | 2024-04-30 | 西北工业大学 | 一种基于多立体视觉惯性紧耦合的自主定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN110296691B (zh) | 融合imu标定的双目立体视觉测量方法与系统 | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
US8896660B2 (en) | Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments | |
CN111750853B (zh) | 一种地图建立方法、装置及存储介质 | |
CN111338383B (zh) | 基于gaas的自主飞行方法及系统、存储介质 | |
CN112734765A (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 | |
CN114529585A (zh) | 基于深度视觉和惯性测量的移动设备自主定位方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN114323033A (zh) | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 | |
CN112179357A (zh) | 基于单目相机的平面运动目标视觉导航方法及系统 | |
Karam et al. | Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping | |
CN115371673A (zh) | 一种未知环境中基于Bundle Adjustment的双目相机目标定位方法 | |
Andert | Drawing stereo disparity images into occupancy grids: Measurement model and fast implementation | |
Xian et al. | Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach | |
Huttunen et al. | A monocular camera gyroscope | |
Jensen et al. | Laser range imaging using mobile robots: From pose estimation to 3D-models | |
Wang et al. | Micro aerial vehicle navigation with visual-inertial integration aided by structured light | |
CN116380039A (zh) | 一种基于固态激光雷达和点云地图的移动机器人导航系统 | |
CN111862146A (zh) | 一种目标对象的定位方法及装置 | |
CN115307646A (zh) | 一种多传感器融合的机器人定位方法、系统及装置 | |
Blaer et al. | Two stage view planning for large-scale site modeling | |
CN108344972A (zh) | 基于光栅投射立体视觉的机器人视觉系统及导航方法 | |
Uno et al. | Deep Inertial Underwater Odometry System. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |