CN113516714A - 基于imu预积分信息加速特征匹配的视觉slam方法 - Google Patents
基于imu预积分信息加速特征匹配的视觉slam方法 Download PDFInfo
- Publication number
- CN113516714A CN113516714A CN202110798869.5A CN202110798869A CN113516714A CN 113516714 A CN113516714 A CN 113516714A CN 202110798869 A CN202110798869 A CN 202110798869A CN 113516714 A CN113516714 A CN 113516714A
- Authority
- CN
- China
- Prior art keywords
- point
- feature
- current frame
- matching
- imu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010354 integration Effects 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000000007 visual effect Effects 0.000 title claims abstract description 21
- 230000001133 acceleration Effects 0.000 title claims description 10
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000000265 homogenisation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3844—Data obtained from position sensors only, e.g. from inertial navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于IMU预积分信息加速特征匹配的视觉SLAM方法,为实现快速并且准确的两帧图像之间特征匹配,利用图像帧与帧之间惯性传感器预积分出的位姿变化,估计出上一帧特征点对应的空间点投影到当前帧中图像的位置,同时考虑观测误差以及IMU预积分出的位姿变化量误差的存在,在理论投影点周围的一定范围内搜索,利用特征点的特征描述的汉明距离进行匹配。同时,由于在特征点理想区域进行特征匹配,减少了误匹配,可信度高,同时能够实现加速特征匹配的效果。
Description
技术领域
本发明提供一种基于IMU预积分信息加速特征匹配的视觉SLAM方法,属于图像处理技术领域。
背景技术
高效并且准确的匹配到不同视角图像中的同一物体,是计算机视觉应用中的第一步,也是视觉SLAM系统中很重要的一步。虽然图像在计算机中是以灰度矩形的形式存在的,由于灰度受光照的影响,并且当图像视角发生变化后,同一物体的灰度值也会跟着变化,因此仅仅利用图像的灰度并不能准确的找出图像中的同一物体。为了能够更好的进行图像匹配,需要在图像中选择具有代表性的区域,如图像中的角点、直线、边缘和一些区块。特征匹配可以获取不同视角图像中的同一物体,从而获取到位姿变化以及空间点位置。目前特征点匹配主要是基于暴力匹配的方法,即通过匹配两个不同视角图像中所有特征的描述子,使用描述子最为相近的作为匹配对。暴力匹配会极大的增加匹配时间,并且会增大误匹配的可能性。而基于恒速模型进行特征匹配,假设机体的运动是恒速的,推算出上一帧特征点在当前帧的位置,在理论特征点投影在当前帧的周围进行特征搜索与匹配,恒速模型是基于恒速假设,如果机体的运动是急速变化的,则该假设会不成立,模型也会失效。
CN110207693A提供一种鲁棒立体视觉惯性预积分SLAM方法,根据惯性传感器预积分信息,通过预积分预测出上一帧的特征点在当前帧相机坐标系下的空间位置,通过寻找该空间位置内的特征点,通过暴力匹配,寻找到特征对。但该方法首先需要当前特征点的空间位置,即只适用于立体匹配,但对于3D-2D匹配,即PnP特征匹配,无法知道当前帧中特征点对应的空间位置时,并不能成功实现特征匹配的功能。同时,该方法在空间中寻找相似特征点,计算量较大。并且,在匹配阶段,仅使用汉明距离作为匹配依据,增加误匹配的可能性。
CN111160362A提供一种FAST特征均匀化提取与基于IMU的帧间特征误匹配去除方法,利用IMU预积分的信息剔除误匹配特征点,其虽然可以减少误匹配,但对于搜索匹配空间并不会减少,进而匹配时间也不会减少,仅仅是减少了误匹配的可能性。
发明内容
本发明提供一种基于惯性传感器加速特征匹配的视觉SLAM方法。目前的视觉SLAM系统中,分为前端和后端,后端主要是整体优化,而前端需要实时准确的特征匹配,进而完成视觉里程计。而特征匹配目前使用的主要是基于恒速模型以及暴力匹配的方式,消耗大量的运算时间以及计算资源。
本发明为了实现快速并且准确的两帧图像之间特征匹配,利用图像帧与帧之间惯性传感器预积分出的位姿变化,估计出上一帧特征点对应的空间点投影到当前帧中图像的位置,同时考虑观测误差以及IMU预积分出的位姿变化量误差的存在,在理论投影点周围的一定范围内搜索,利用特征点的特征描述的汉明距离进行匹配。同时,由于在特征点理想区域进行特征匹配,减少了误匹配,可信度高,同时能够实现加速特征匹配的效果。
在特征匹配阶段,需要在当前图像帧中提取点特征,提取到点特征后再对每个点特征计算对应的描述子用于特征匹配。并将提取到的点特征以及对应的描述子储存起来,方便后续的与下一帧进行特征匹配。在当前时刻,将当前帧中的特征点与上一帧中的点特征进行匹配,获取特征点对。在匹配阶段,本发明为加快特征的匹配以及减少误匹配的可能性。
具体技术方案为:
基于IMU预积分信息加速特征匹配的视觉SLAM方法,包括以下步骤:
S1、提取特征点;
对上一帧与当前帧图像中分别提取点特征,并存储,为下面的匹配提供特征点;使用FAST算法提取图像特征点,并利用ORB算法计算特征点描述子;
S2、使用IMU预积分计算位姿变化;
采集两帧图像之间的IMU数据,使用IMU预积分公式,计算出两帧图像之间的位姿变化,其中IMU预积分模型的输入是上一帧与当前帧之间IMU所采集到的所有角速度以及加速度,输出为此过程中IMU的旋转矩阵R以及平移向量t。
S3、根据特征点以及IMU预积分出的位姿变化,计算特征点对应的空间点在当前帧中的理想位置;本发明方案适用于单目、双目以及RGBD相机视觉SLAM系统,具体步骤如下:
(1)若视觉SLAM系统使用的是单目相机,即在每一帧中,对于点特征对应的空间点并不能获取到其真实的空间坐标点,仅能获取到其在上一帧图像的投影位置。使用对极约束公式:
上式中,根据K为相机内参,在系统运行前通过标定获取,以及(u1,v1,1)是空间点P在上一帧相机坐标归一化平面的投影也是已知的,获取空间点P在当前帧相机坐标系下归一化屏幕的投影(u2,v2,1),利用u2、v2构成的直线约束,即空间点P在当前帧的理想投影位置,在该直线附近设定搜索区域搜索对应于空间点P在当前帧的投影位置。
(2)若视觉SLAM系统使用的是双目相机或RGBD相机,通过双目相机中的左右两帧图像中通过三角化获得深度信息进而获得特征点的空间位置或RGBD相机可以直接输出特征点对应的空间点位置,即获取空间点P的空间位置,由坐标转换公式,空间点P在当前帧投影的位置:
上式中K是相机内参,通过出厂参数或SLAM系统运行前通过标定获得,而P在上一时刻通过双目相机的三角化或RGBD相机直接获得其空间位置,R、t是通过步骤①上一帧与当前帧之间的惯导预积分获得,是上一帧与当前帧之间机体的位姿变化量,通过上式,获得p2(u2,v2,1)的位置,为一个确定点。
S4、由于惯导有偏差,预积分出的旋转矩阵R和向量t具有一定的偏差以及相机投影过程中也存在误差,在上一步骤计算出的理想位置划定一定区域,即当前帧中特征点的搜索区域。确定搜索区域后,计算搜索区域里的所有特征点与上一帧中待匹配特征点的汉明距离,如小于一定的范围,则匹配成功,成功一对特征点对;否则,匹配失败,上一帧中的点特征在当前帧中跟踪失败,即在当前帧中没有对应的点特征与其匹配。
本发明具有的技术效果:
1、通过实验对比,对于上一帧中每一个特征点在当前帧中的搜索区域会极大的减小,特征匹配的速度大大提升,匹配效率更高;
2、通过实验对比,对于上一帧中每一个特征点在当前帧中所搜区域是空间点P在当前帧投影的理想位置附近划定的,因此误匹配数量大幅减少,准确率大幅提高;
3、通过本方法作为视觉SLAM前端,SLAM系统前端匹配时间大幅减少,精度也较大幅度提升。
附图说明
图1为本发明的流程示意图;
图2为实施例1单目视觉SLAM特征匹配示意图;
图3为实施例2双目、RGBD相机视觉SLAM特征匹配示意图。
具体实施方式
结合实施例说明本发明的具体技术方案。
本发明的方法流程如图1所示,本发明适用于单目、双目以及RGBD相机视觉SLAM系统,由于单目视觉SLAM与双目、RGBD相机视觉SLAM的匹配方案不同,因此对其分开说明实例。
实施例1
如图2所示,单目视觉SLAM:
S1、提取特征点;
对上一帧与当前帧图像中提取点特征,并存储,为下面的匹配提供特征点。使用FAST算法提取图像特征点,并利用ORB算法计算特征点描述子。将上一帧中所有的特征点放在集合M中,将当前帧中所有特征点放在集合N中。
S2、使用IMU预积分计算位姿变化;
采集两帧图像之间的IMU数据,使用IMU预积分公式,计算出两帧图像之间的位姿变化,具体为将上一帧与当前帧之间IMU所采集到的所有角速度以及加速度输入到IMU预积分模型中,通过该模型计算出旋转矩阵R以及平移向量t。
S3、根据特征点以及IMU预积分出的位姿变化,计算特征点对应的空间点在当前帧中的理想位置;
对于上一帧特征点集合M中的任意一特征点p1,使用对极约束公式(1),计算出p1对应空间点P在当前帧投影的理想位置p2,p2在当前帧中的一条直线上;
S4、在步骤S3计算出的直线附近划定一定区域,由于p1对应空间点P在当前帧投影的理想位置p2在一条直线上,因此划定的区域为条状区域,将特征点集合N中位于该条状区域中的所有特征点取出,并与特征点p1进行特征匹配,若从集合N中取出的某一特征点与特征点p1的特征描述子之间的汉明距离小于一定的阈值,则匹配成功,即特征点p1在当前帧中有对应的特征点;若从集合N中取出的所有特征点与特征点p1的特征描述子之间的汉明距离都不满足一定的阈值,则匹配不成功,即特征点p1在当前帧中没有对应的特征点,也即是特征点p1对应的空间点在当前帧中观测不到。
S5、对于集合M中的所有特征点,进行S1—S4步骤。
实施例2
如图3所示,双目、RGBD相机视觉SLAM:
S1、提取特征点;
对上一帧与当前帧图像中提取点特征,并存储,为下面的匹配提供特征点。使用FAST算法提取图像特征点,并利用ORB算法计算特征点描述子。将上一帧中所有的特征点放在集合M中,将当前帧中所有特征点放在集合N中。
S2、使用IMU预积分计算位姿变化;
采集两帧图像之间的IMU数据,使用IMU预积分公式,计算出两帧图像之间的位姿变化,具体为将上一帧与当前帧之间IMU所采集到的所有角速度以及加速度输入到IMU预积分模型中,通过该模型计算出旋转矩阵R以及平移向量t。
S3、根据特征点以及IMU预积分出的位姿变化,计算特征点对应的空间点在当前帧中的理想位置;
在上一帧中在双目相机中的左右两帧图像中通过三角化获得深度信息进而获得特征点的空间位置或RGBD相机可以直接输出特征点对应的空间点位置,即获取空间点P的空间位置,由坐标转换公式(2),计算出p1对应空间点P在当前帧投影的理想位置p2在一个确定的点上;
S4、在步骤S3计算出的点附近划定一定区域,由于p1对应空间点P在当前帧投影的理想位置p2在一个确定的点上,因此划定的区域为圆形区域,将特征点集合N中位于该圆形区域中的所有特征点取出,并与特征点p1进行特征匹配,若从集合N中取出的某一特征点与特征点p1的特征描述子之间的汉明距离小于一定的阈值,则匹配成功,即特征点p1在当前帧中有对应的特征点;若从集合N中取出的所有特征点与特征点p1的特征描述子之间的汉明距离都不满足一定的阈值,则匹配不成功,即特征点p1在当前帧中没有对应的特征点,也即是特征点p1对应的空间点在当前帧中观测不到。
S5、对于集合M中的所有特征点,进行步骤S1—S4步骤。
Claims (4)
1.基于IMU预积分信息加速特征匹配的视觉SLAM方法,其特征在于,包括以下步骤:
S1、提取特征点;
对上一帧与当前帧图像中分别提取点特征,并存储,为下面的匹配提供特征点;
S2、使用IMU预积分计算位姿变化;
采集两帧图像之间的IMU数据,使用IMU预积分公式,计算出两帧图像之间的位姿变化,其中IMU预积分模型的输入是上一帧与当前帧之间IMU所采集到的所有角速度以及加速度,输出为此过程中IMU的旋转矩阵R以及平移向量t;
S3、根据特征点以及IMU预积分出的位姿变化,计算特征点对应的空间点在当前帧中的理想位置;
S4、由于惯导有偏差,预积分出的旋转矩阵R和向量t具有一定的偏差以及相机投影过程中也存在误差,在上一步骤计算出的理想位置划定一定区域,即当前帧中特征点的搜索区域;
确定搜索区域后,计算搜索区域里的所有特征点与上一帧中待匹配特征点的汉明距离,如小于一定的范围,则匹配成功,成功一对特征点对;否则,匹配失败,上一帧中的点特征在当前帧中跟踪失败,即在当前帧中没有对应的点特征与其匹配。
2.根据权利要求1所述的基于IMU预积分信息加速特征匹配的视觉SLAM方法,其特征在于,S1中使用FAST算法提取图像特征点,并利用ORB算法计算特征点描述子。
4.根据权利要求1所述的基于IMU预积分信息加速特征匹配的视觉SLAM方法,其特征在于,S3中,若视觉SLAM系统使用的是双目相机或RGBD相机,通过双目相机中的左右两帧图像中通过三角化获得深度信息进而获得特征点的空间位置或RGBD相机可以直接输出特征点对应的空间点位置,即获取空间点P的空间位置,由坐标转换公式,空间点P在当前帧投影的位置:
上式中K是相机内参,通过出厂参数或SLAM系统运行前通过标定获得,而P在上一时刻通过双目相机的三角化或RGBD相机直接获得其空间位置,R、t是通过步骤S1上一帧与当前帧之间的惯导预积分获得,是上一帧与当前帧之间机体的位姿变化量,通过上式,获得p2(u2,v2,1)的位置,为一个确定点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110798869.5A CN113516714B (zh) | 2021-07-15 | 2021-07-15 | 基于imu预积分信息加速特征匹配的视觉slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110798869.5A CN113516714B (zh) | 2021-07-15 | 2021-07-15 | 基于imu预积分信息加速特征匹配的视觉slam方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113516714A true CN113516714A (zh) | 2021-10-19 |
CN113516714B CN113516714B (zh) | 2024-08-13 |
Family
ID=78067310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110798869.5A Active CN113516714B (zh) | 2021-07-15 | 2021-07-15 | 基于imu预积分信息加速特征匹配的视觉slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113516714B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665540A (zh) * | 2018-03-16 | 2018-10-16 | 浙江工业大学 | 基于双目视觉特征和imu信息的机器人定位与地图构建系统 |
CN109465832A (zh) * | 2018-12-18 | 2019-03-15 | 哈尔滨工业大学(深圳) | 高精度视觉和imu紧融合定位方法与系统 |
CN110009681A (zh) * | 2019-03-25 | 2019-07-12 | 中国计量大学 | 一种基于imu辅助的单目视觉里程计位姿处理方法 |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
WO2019157925A1 (zh) * | 2018-02-13 | 2019-08-22 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计的实现方法及系统 |
CN110207693A (zh) * | 2019-05-21 | 2019-09-06 | 南京航空航天大学 | 一种鲁棒立体视觉惯性预积分slam方法 |
CN110763251A (zh) * | 2019-10-18 | 2020-02-07 | 华东交通大学 | 视觉惯性里程计优化的方法及系统 |
WO2020087846A1 (zh) * | 2018-10-31 | 2020-05-07 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN111121767A (zh) * | 2019-12-18 | 2020-05-08 | 南京理工大学 | 一种融合gps的机器人视觉惯导组合定位方法 |
CN111160362A (zh) * | 2019-11-27 | 2020-05-15 | 东南大学 | 一种fast特征均匀化提取与基于imu的帧间特征误匹配去除方法 |
CN111582123A (zh) * | 2020-04-29 | 2020-08-25 | 华南理工大学 | 一种基于信标识别与视觉slam的agv定位方法 |
-
2021
- 2021-07-15 CN CN202110798869.5A patent/CN113516714B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019157925A1 (zh) * | 2018-02-13 | 2019-08-22 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计的实现方法及系统 |
CN108665540A (zh) * | 2018-03-16 | 2018-10-16 | 浙江工业大学 | 基于双目视觉特征和imu信息的机器人定位与地图构建系统 |
WO2020087846A1 (zh) * | 2018-10-31 | 2020-05-07 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN109465832A (zh) * | 2018-12-18 | 2019-03-15 | 哈尔滨工业大学(深圳) | 高精度视觉和imu紧融合定位方法与系统 |
CN110009681A (zh) * | 2019-03-25 | 2019-07-12 | 中国计量大学 | 一种基于imu辅助的单目视觉里程计位姿处理方法 |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN110207693A (zh) * | 2019-05-21 | 2019-09-06 | 南京航空航天大学 | 一种鲁棒立体视觉惯性预积分slam方法 |
CN110763251A (zh) * | 2019-10-18 | 2020-02-07 | 华东交通大学 | 视觉惯性里程计优化的方法及系统 |
CN111160362A (zh) * | 2019-11-27 | 2020-05-15 | 东南大学 | 一种fast特征均匀化提取与基于imu的帧间特征误匹配去除方法 |
CN111121767A (zh) * | 2019-12-18 | 2020-05-08 | 南京理工大学 | 一种融合gps的机器人视觉惯导组合定位方法 |
CN111582123A (zh) * | 2020-04-29 | 2020-08-25 | 华南理工大学 | 一种基于信标识别与视觉slam的agv定位方法 |
Non-Patent Citations (2)
Title |
---|
吴斌 等: "惯性导航辅助图像特征匹配方法研究", 激光与光电子学进展, vol. 57, no. 10 * |
龚赵慧 等: "基于视觉惯性融合的半直接单目视觉里程计", 机器人, vol. 42, no. 5 * |
Also Published As
Publication number | Publication date |
---|---|
CN113516714B (zh) | 2024-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11285613B2 (en) | Robot vision image feature extraction method and apparatus and robot using the same | |
CN110389348B (zh) | 基于激光雷达与双目相机的定位与导航方法及装置 | |
US11668571B2 (en) | Simultaneous localization and mapping (SLAM) using dual event cameras | |
CN112634451B (zh) | 一种融合多传感器的室外大场景三维建图方法 | |
CN112304307B (zh) | 一种基于多传感器融合的定位方法、装置和存储介质 | |
US12062210B2 (en) | Data processing method and apparatus | |
Kneip et al. | Robust real-time visual odometry with a single camera and an IMU | |
CN109579825B (zh) | 基于双目视觉和卷积神经网络的机器人定位系统及方法 | |
US20170161546A1 (en) | Method and System for Detecting and Tracking Objects and SLAM with Hierarchical Feature Grouping | |
CN108519102B (zh) | 一种基于二次投影的双目视觉里程计算方法 | |
US10636190B2 (en) | Methods and systems for exploiting per-pixel motion conflicts to extract primary and secondary motions in augmented reality systems | |
Seiskari et al. | HybVIO: Pushing the limits of real-time visual-inertial odometry | |
KR101544021B1 (ko) | 3차원 지도 생성 장치 및 3차원 지도 생성 방법 | |
CN113888639B (zh) | 基于事件相机与深度相机的视觉里程计定位方法及系统 | |
WO2023005457A1 (zh) | 位姿计算方法和装置、电子设备、可读存储介质 | |
CN112419497A (zh) | 基于单目视觉的特征法与直接法相融合的slam方法 | |
CN112484746A (zh) | 一种基于地平面的单目视觉辅助激光雷达里程计方法 | |
Kostavelis et al. | Visual odometry for autonomous robot navigation through efficient outlier rejection | |
WO2023087681A1 (zh) | 定位初始化方法、装置、计算机可读存储介质和计算机程序产品 | |
CN115661341A (zh) | 一种基于多传感器融合的实时动态语义建图方法与系统 | |
US20180200614A1 (en) | 6DoF Inside-Out Tracking Game Controller | |
CN115761164A (zh) | 逆透视ipm图像生成的方法和装置 | |
CN116758311A (zh) | 一种适合弱光环境的视觉slam构建方法 | |
CN113516714B (zh) | 基于imu预积分信息加速特征匹配的视觉slam方法 | |
WO2023283929A1 (zh) | 双目相机外参标定的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |