CN116659490A - 低成本视觉-惯性融合的slam方法 - Google Patents
低成本视觉-惯性融合的slam方法 Download PDFInfo
- Publication number
- CN116659490A CN116659490A CN202310585303.3A CN202310585303A CN116659490A CN 116659490 A CN116659490 A CN 116659490A CN 202310585303 A CN202310585303 A CN 202310585303A CN 116659490 A CN116659490 A CN 116659490A
- Authority
- CN
- China
- Prior art keywords
- error
- imu
- calculating
- frame
- low cost
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000004927 fusion Effects 0.000 title claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 230000001133 acceleration Effects 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims description 8
- 230000005484 gravity Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000009897 systematic effect Effects 0.000 claims description 4
- 230000000052 comparative effect Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000013507 mapping Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种低成本视觉和惯性融合的SLAM方法,步骤包括:步骤S1、通过MCU对相机与IMU进行时间同步,并读取原始数据;步骤S2、对每帧图像进行FAST角点检测,并挑选关键帧;步骤S3、利用IMU原始数据粗略解算初始两个关键帧之间的位姿关系,并进行三角测量,获取深度信息,从而完成初始化;步骤S4、使用光流算法跟踪角点特征,计算当前帧和地图帧之间的光度误差作为残差;步骤S5、计算卡尔曼增益和修正方程;步骤S6、更新误差状态卡尔曼滤波器的状态;步骤S7、重置滤波器误差和协方差矩阵;步骤S8、更新轨迹并注册地图。本发明是一种可以部署在低成本处理器上的高效快速的定位方法。
Description
技术领域
本发明涉及多源传感器融合、同步定位与建图以及嵌入式技术领域,具体地说,是一种低成本视觉-惯性融合的SLAM方法。
背景技术
实时构建未知环境的三维地图,并在地图中进行定位(即SimultaneousLocalization And Mapping,SLAM),对于自主智能系统在未知环境中安全导航至关重要。准确且稳定的定位为自主智能系统的控制器提供状态反馈,是自主智能系统可以有效执行任务的前提。随着应用的范围不断扩大,自主智能系统的任务场景变得越来越复杂多样,自主智能系统如多旋翼无人机、自动驾驶汽车、无人工程机器人等对环境的感知需求日益提高。而定位与建图是无人系统感知功能的主要组成部分。在此背景下,寻求一种解决方案使得自主智能系统能够充分地感知周围环境显得十分必要。
在过去的二十年中,使用SLAM在具有挑战性的环境中进行实时状态估计和绘图取得了巨大的成功。LAM技术的基本思路是通过机器人的传感器获取环境信息,相机、惯性测量单元(Inertial Measurement Unit,IMU)等,然后通过算法对这些信息进行处理,实现机器人的自身定位和环境地图的构建。但大部分局限于其巨大的计算量需求,无法应用在低成本的硬件上。随着机器人应用的普及,寻找一种能够在低成本处理器上运行的SLAM算法变得尤为重要。
相比于其他类型的相机(双目相机、RGB-D相机等),单目相机是最常用的相机类型之一,它只有一个镜头,可以捕捉到二维RGB图像。由于只有一个视角,单目相机需要通过运动恢复来确定相机的位置和姿态。单目相机的优点是成本低、易于使用。
IMU是一种用于测量物体加速度和角速度的设备。IMU通常指加速度计和陀螺仪的组合。IMU可以测量出物体的加速度和角速度,从而来计算物体的姿态、位置和运动轨迹等信息。MEMS IMU是一种基于微机电系统(MEMS)技术的IMU,具有体积小、重量轻、功耗低、成本低等优点,因此被广泛应用于机器人领域。
基于视觉的方法特别适合用于位置识别,并在纹理丰富的环境中表现良好,但它们的性能非常容易收到光照变化、快速运动和初始化的影响。基于惯性的方法不会受到外部环境变化的影响,但由于消费级IMU内部的噪声和偏移,往往会在长时间工作时失效。因此将两者传感器进行融合,可以有效弥补但传感器方案各自的缺点。在视觉-惯性系统中,通过IMU可以解决纯视觉无法测量深度而带来的尺度问题,并直接测量出线加速度和角速度。
目前基于视觉和惯性融合的SLAM算法都是运行在基于Linux的ROS系统上,因此其硬件成本必然居高不下。
发明内容
本发明的目的在于提供一种低成本视觉-惯性融合的SLAM算法与系统,在保证精度和性能的前提下,解决现有技术中计算量大、硬件成本高、系统功耗高的缺点。
为了实现上述目的,本发明目的的技术解决方案为:一种低成本视觉-惯性融合的SLAM方法,包括如下步骤:
步骤S1、通过MCU输出固定频率PWM信号对相机与IMU进行同步,使得相机与IMU数据的时间戳一致,通过MCU的DCMI和SPI接口分别读取相机原始图像和IMU的原始线加速度和角速度数据;
步骤S2、分别对每帧图像进行FAST角点检测,并挑选关键帧;
步骤S3、利用IMU中加速度计和磁力计原始数据,初步解算两个相邻关键帧之间的位姿关系,并对两帧进行三角测量,获取深度信息,从而完成算法初始化;
步骤S4、使用光流算法跟踪角点特征,计算当前帧和地图帧之间特征点图块的光度误差,并作为误差姿态卡尔曼滤波器的残差;
步骤S5、计算观测方程相比误差状态的雅可比矩阵,从而计算卡尔曼增益、协方差矩阵和修正方程;
步骤S6、根据系统模型更新误差状态卡尔曼滤波器的状态,包括位姿关系误差、速度误差、加速度计偏移误差、陀螺仪偏移误差和重力加速度误差,从而计算出相应的估计值;
步骤S7、重置滤波器误差,计算相应的雅可比矩阵,并重置系统协方差矩阵;
步骤S8、更新轨迹并注册地图。
本发明与现有技术相比,其显著优点:完全基于特征点的优化算法虽然精度较高,但计算量太大;基于直接法的算法虽然速度快,但缺乏稳定性。本发明的方法结合了以上两种算法的优点,在降低计算量的同时并且拥有足够的性能和稳定性。同时,和基于Linux的ROS方案不同,本发明将算法部署到MCU(Micro Controller Unit,微控制单元)上,从而使得硬件成本、重量体积和功耗等都大幅降低,对机器人的广泛应用具有非常重要的推动意义。
附图说明
图1是本发明中视觉和惯性融合的SLAM方法的流程示意图。
图2是本发明中平台框架的示意图。
具体实施方式
本发明提出的低成本视觉和惯性融合的SLAM方法,面向对成本要求有严格控制的机器人相关领域。通过一个紧耦合的误差状态卡尔曼滤波算法,能够快速有效地融合相机和IMU的数据,并且不需要较高的计算量。因此该方法可以部署到MCU上,而不是MPU平台上。基于MCU方案的SLAM系统的提出,可以将成本降低至百元级别,并且整个系统的重量和功耗将远远低于传统方案,其应用场景必然非常广阔。
图1揭示了本发明一实施列的低成本视觉和惯性融合的SLAM方法和系统的流程图,如图1所示,本发明提出的低成本视觉和惯性融合的SLAM方法和系统,包括如下步骤:
步骤S1、通过MCU输出固定频率PWM信号对相机与IMU进行同步,使得相机与IMU数据的时间戳一致,通过MCU的DCMI和SPI接口分别读取相机原始图像和IMU的原始线加速度和角速度数据;
步骤S2、分别对每帧图像进行FAST角点检测,并挑选关键帧;
步骤S3、利用IMU中加速度计和磁力计原始数据,粗略解算两个相邻关键帧之间的位姿关系,并对两帧进行三角测量,获取深度信息,从而完成算法初始化;
步骤S4、使用光流算法跟踪角点特征,计算当前帧和地图帧之间特征点图块的光度误差,并作为误差姿态卡尔曼滤波器的残差;
步骤S5、计算观测方程相比误差状态的雅可比矩阵,从而计算卡尔曼增益、协方差矩阵和修正方程;
步骤S6、根据系统模型更新误差状态卡尔曼滤波器的状态,包括位姿关系误差、速度误差、加速度计偏移误差、陀螺仪偏移误差和重力加速度误差,从而计算出相应的估计值;
步骤S7、重置滤波器误差,计算相应的雅可比矩阵,并重置系统协方差矩阵;
步骤S8、更新轨迹并注册地图。
下文将对这些步骤进行详细描述。应理解,在本发明范围内,本发明的上述各技术特征和在下文(如实施例)中具体描述的各技术特征之间都可以互相组合,相互关联,从而构成优选的技术方案。
使用ARM Coterx-M7内核的MCU作为核心控制器来运行核心算法,并用以读取传感器数据、存储和输出计算结果,如图2所示,具体包括:
通过芯片的DCMI接口连接相机,来读取图像数据;
通过芯片的SPI接口连接IMU,来读取IMU中加速度计和陀螺仪的数据;
通过芯片的定时器接口输出PWM信号,对相机和IMU测量进行时间同步;
通过芯片的SDMMC接口连接SD卡,来记录SLAM算法的输出数据,包括位姿惯性、速度、IMU偏移误差、重力以及地图信息等;
通过芯片的QSPI接口挂载的高速片外Flash,来存储系统关键信息(如相机和IMU的外参、系统运行失败Log等);
步骤S1,进一步包括以下步骤:
步骤S11、MCU输出固定频率PWM信号对相机与IMU进行同步,触发相机和IMU测量;
步骤S12、MCU通过DCMI接口读取当前所触发的相机原始彩色图像数据;
步骤S13、MCU通过SPI接口读取当前所触发的IMU中加速度计测量的原始线加速度和陀螺仪测量的原始角速度。
步骤S2,进一步包括以下步骤:
步骤S21、对每帧图像进行FAST角点检测;
步骤S22、若当前帧中的特征点超过n个,则把当前帧设置为关键帧。
步骤S3,进一步包括以下步骤:
步骤S31、利用IMU中加速度计和陀螺仪原始数据,粗略解算两个相邻关键帧之间的位姿关系T;
加速度计测量模型为:
其中,表示从全局坐标系到IMU坐标系的旋转矩阵,/>是在全局坐标系下IMU的速度,Gg表示全局坐标系下的重力加速度,ba表示加速度计的漂移,/>表示漂移的导数为高斯白噪声,na表示加速度计的噪声为高斯白噪声。陀螺仪测量模型为:
其中,是在全局坐标系下IMU的角速度,bw表示陀螺仪的漂移,/>表示漂移的导数为高斯白噪声,nw表示陀螺仪的噪声为高斯白噪声。
步骤S32、为了计算特征点的深度信息,设第一帧图片中特征点和第二帧图片中特征点的归一化坐标为x1和x2,深度分别为d1和d2,满足如下关系:
若已知d2,对上式左乘一个相对于两侧同时与x2做外积,所以可通过最小二乘法求解如下公式,求出深度d1:
步骤S4,进一步包括以下步骤:
步骤S41、使用光流算法跟踪角点特征;
步骤S42、计算当前帧和地图帧之间特征点图块的光度误差,并作为误差姿态卡尔曼滤波器的残差
其中,表示特征点在当前帧图像中的亮度,Γ表示表示特征点在全局地图中图像中的亮度。
步骤S5,进一步包括以下步骤:
步骤S51、计算观测方程相比误差状态δXIMU的雅可比矩阵H:
步骤S52、计算卡尔曼增益K:
K=PpredHT(HPpredHT+V)-1
步骤S53、计算协方差矩阵P:
P=Ppred-K(HPpredHT+V)KT
步骤S54、计算滤波器误差状态δXIMU的修正方程:
其中,δXIMU表示系统的误差状态,分别为旋转误差、位置误差、线速度误差、陀螺仪偏移误差、加速度偏移误差和重力加速度误差:
δXIMU=[δθT δpT δvT δbw T δba T δgT]T
步骤S6,进一步包括以下步骤:
步骤S61、更新误差状态:
其中,表示系统误差状态的估计值,F表示系统误差的雅可比矩阵:
步骤S62、根据上面的误差状态估计,更新系统的名义状态:
其中,上式分别为系统的旋转矩阵、位置、线速度、陀螺仪偏移、加速度计偏移和重力加速度的名义值。
步骤S7,进一步包括以下步骤:
步骤S71、重置滤波器误差:
δXIMU=0
步骤S72、计算相应的雅可比矩阵:
步骤S73、重置系统协方差矩阵:
Prst=JkPJk T
步骤S8,进一步包括以下步骤:
步骤S81、更新轨迹,将运动的轨迹路线通过MCU的SDIO接口保存到SD卡中,方便后续使用;
步骤S82、注册地图,将特征点的信息通过MCU的SDIO接口保存到SD卡中,方便后续使用。
Claims (9)
1.一种低成本视觉-惯性融合的SLAM方法,其特征在于,包括如下步骤:
步骤S1、通过MCU输出固定频率PWM信号对相机与IMU进行同步,使得相机与IMU数据的时间戳一致,通过MCU的DCMI和SPI接口分别读取相机原始图像和IMU的原始线加速度和角速度数据;
步骤S2、分别对每帧图像进行FAST角点检测,并挑选关键帧;
步骤S3、利用IMU中加速度计和磁力计原始数据,初步解算两个相邻关键帧之间的位姿关系,并对两帧进行三角测量,获取深度信息,从而完成算法初始化;
步骤S4、使用光流算法跟踪角点特征,计算当前帧和地图帧之间特征点图块的光度误差,并作为误差姿态卡尔曼滤波器的残差;
步骤S5、计算观测方程相比误差状态的雅可比矩阵,从而计算卡尔曼增益、协方差矩阵和修正方程;
步骤S6、根据系统模型更新误差状态卡尔曼滤波器的状态,包括位姿关系误差、速度误差、加速度计偏移误差、陀螺仪偏移误差和重力加速度误差,从而计算出相应的估计值;
步骤S7、重置滤波器误差,计算相应的雅可比矩阵,并重置系统协方差矩阵;
步骤S8、更新轨迹并注册地图。
2.根据权利要求1所述的低成本视觉-惯性融合的SLAM方法,其特征在于:步骤S1中,硬件平台使用ARM Coterx-M7内核的MCU作为核心控制器,并用以读取传感器数据、存储和输出计算结果,具体包括:
通过芯片的DCMI接口连接相机,来读取图像数据;
通过芯片的SPI接口连接IMU,来读取IMU中加速度计和陀螺仪的数据;
通过芯片的定时器接口输出PWM信号,对相机和IMU测量进行时间同步;
通过芯片的SDMMC接口连接SD卡,记录SLAM方法的输出数据,包括位姿惯性、速度、IMU偏移误差、重力以及地图信息;
通过芯片的QSPI接口挂载的高速片外Flash,来存储系统关键信息。
3.根据权利要求1所述的低成本视觉-惯性融合的SLAM方法,其特征在于,步骤S2所述挑选关键帧的方法为:若当前帧中的特征点超过30个,则将当前帧设置为关键帧。
4.根据权利要求1所述的低成本视觉-惯性融合的SLAM方法,其特征在于,所述步骤S3包括以下步骤:
步骤S31、利用IMU中加速度计和陀螺仪原始数据,粗略解算两个相邻关键帧之间的位姿关系T;
加速度计测量模型为:
其中,表示从全局坐标系到IMU坐标系的旋转矩阵,/>是在全局坐标系下IMU的速度,Gg表示全局坐标系下的重力加速度,ba表示加速度计的漂移,/>表示漂移的导数为高斯白噪声,na表示加速度计的噪声为高斯白噪声;
陀螺仪测量模型为:
其中,是在全局坐标系下IMU的角速度,bω表示陀螺仪的漂移,/>表示漂移的导数为高斯白噪声,nω表示陀螺仪的噪声为高斯白噪声;
步骤S32、计算特征点的深度信息,设第一帧图片中特征点和第二帧图片中特征点的归一化坐标为x1和x2,深度分别为d1和d2,满足如下关系:
若已知d2,对上式左乘一个相对于两侧同时与x2做外积,可通过最小二乘法求解如下公式,求出深度d1:
5.根据权利要求1所述的低成本视觉-惯性融合的SLAM方法,其特征在于,所述步骤S4包括以下步骤:
步骤S41、使用光流算法跟踪角点特征;
步骤S42、计算当前帧和地图帧之间特征点图块的光度误差,并作为误差姿态卡尔曼滤波器的残差
其中,表示特征点在当前帧图像中的亮度,Γ表示表示特征点在全局地图中图像中的亮度。
6.根据权利要求1所述的低成本视觉-惯性融合的SLAM方法,其特征在于,所述步骤S5包括以下步骤:
步骤S51、计算观测方程相比误差状态δXIMU的雅可比矩阵H:
步骤S52、计算卡尔曼增益K:
K=PpredHT(HPpredHT+V)-1
步骤S53、计算协方差矩阵P:
P=Pred-K(HPpredHT+V)KT
步骤S54、计算滤波器误差状态δXIMU的修正方程:
其中,δXIMU表示系统的误差状态,分别为旋转误差、位置误差、线速度误差、陀螺仪偏移误差、加速度偏移误差和重力加速度误差:
δXIMU=[δθT δpT δvT δbω T δba T δgT]T。
7.根据权利要求1所述的低成本视觉-惯性融合的SLAM算法,其特征在于,所述步骤S6包括以下步骤:
步骤S61、更新误差状态:
其中,表示系统误差状态的估计值,F表示系统误差的雅可比矩阵:
步骤S62、根据上面的误差状态估计,更新系统的名义状态:
其中,上式分别为系统的旋转矩阵、位置、线速度、陀螺仪偏移、加速度计偏移和重力加速度的名义值。
8.根据权利要求1所述的低成本视觉-惯性融合的SLAM算法与系统,其特征在于,所述步骤S7包括以下步骤:
步骤S71、重置滤波器误差:
δXIMU=0
步骤S72、计算相应的雅可比矩阵:
步骤S73、重置系统协方差矩阵:
Prst=JkPJk T。
9.根据权利要求1所述的低成本视觉-惯性融合的SLAM算法,其特征在于,所述步骤S8包括以下步骤:
步骤S81、更新轨迹,将运动的轨迹路线通过MCU的SDIO接口保存到SD卡中;
步骤S82、注册地图,将特征点的信息通过MCU的SDIO接口保存到SD卡中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310585303.3A CN116659490A (zh) | 2023-05-22 | 2023-05-22 | 低成本视觉-惯性融合的slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310585303.3A CN116659490A (zh) | 2023-05-22 | 2023-05-22 | 低成本视觉-惯性融合的slam方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116659490A true CN116659490A (zh) | 2023-08-29 |
Family
ID=87712936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310585303.3A Pending CN116659490A (zh) | 2023-05-22 | 2023-05-22 | 低成本视觉-惯性融合的slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116659490A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116883502A (zh) * | 2023-09-05 | 2023-10-13 | 深圳市智绘科技有限公司 | 相机位姿和路标点位置的确定方法、装置、介质及设备 |
-
2023
- 2023-05-22 CN CN202310585303.3A patent/CN116659490A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116883502A (zh) * | 2023-09-05 | 2023-10-13 | 深圳市智绘科技有限公司 | 相机位姿和路标点位置的确定方法、装置、介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109540126B (zh) | 一种基于光流法的惯性视觉组合导航方法 | |
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
CN111024066B (zh) | 一种无人机视觉-惯性融合室内定位方法 | |
CN109211241B (zh) | 基于视觉slam的无人机自主定位方法 | |
Schmid et al. | Stereo vision and IMU based real-time ego-motion and depth image computation on a handheld device | |
CN111220153B (zh) | 基于视觉拓扑节点和惯性导航的定位方法 | |
CN110044354A (zh) | 一种双目视觉室内定位与建图方法及装置 | |
CN107909614B (zh) | 一种gps失效环境下巡检机器人定位方法 | |
CN108052103B (zh) | 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法 | |
CN114088087B (zh) | 无人机gps-denied下高可靠高精度导航定位方法和系统 | |
US20180075614A1 (en) | Method of Depth Estimation Using a Camera and Inertial Sensor | |
CN111197984A (zh) | 一种基于环境约束下的视觉-惯性运动估计方法 | |
WO2019104571A1 (zh) | 图像处理方法和设备 | |
CN110533719B (zh) | 基于环境视觉特征点识别技术的增强现实定位方法及装置 | |
CN112116651B (zh) | 一种基于无人机单目视觉的地面目标定位方法和系统 | |
CN111279354A (zh) | 图像处理方法、设备及计算机可读存储介质 | |
CN113137968B (zh) | 基于多传感器融合的重定位方法、重定位装置和电子设备 | |
CN115371665B (zh) | 一种基于深度相机和惯性融合的移动机器人定位方法 | |
CN116659490A (zh) | 低成本视觉-惯性融合的slam方法 | |
Huttunen et al. | A monocular camera gyroscope | |
CN112862818B (zh) | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 | |
CN113701750A (zh) | 一种井下多传感器的融合定位系统 | |
CN116952229A (zh) | 无人机定位方法、装置、系统和存储介质 | |
Ling et al. | RGB-D inertial odometry for indoor robot via keyframe-based nonlinear optimization | |
Aminzadeh et al. | Implementation and performance evaluation of optical flow navigation system under specific conditions for a flying robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |