CN115265560A - 基于视觉slam的高精定位方法、系统及存储介质 - Google Patents
基于视觉slam的高精定位方法、系统及存储介质 Download PDFInfo
- Publication number
- CN115265560A CN115265560A CN202210904189.1A CN202210904189A CN115265560A CN 115265560 A CN115265560 A CN 115265560A CN 202210904189 A CN202210904189 A CN 202210904189A CN 115265560 A CN115265560 A CN 115265560A
- Authority
- CN
- China
- Prior art keywords
- processing
- precision positioning
- slam
- data
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000000007 visual effect Effects 0.000 title claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 50
- 238000005457 optimization Methods 0.000 claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 16
- 230000009467 reduction Effects 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 239000002994 raw material Substances 0.000 claims 1
- 230000008901 benefit Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉SLAM的高精定位方法、系统及存储介质,包括:步骤1.传感器数据预处理;步骤2.在摄像头数据预处理完成后,对数据进行前端里程计处理和回环检测处理;所述视觉里程计处理为估算相邻两个图像间相机运动轨迹,以及确定出局部地图;回环检测处理为将任意两张图做一遍特征匹配,根据特征点的匹配情况来确定两幅图是否存在关联;步骤3.将回环处理后的数据和前端里程计处理后的数据进行后端非线性优化处理,所述后端非线性优化处理为对视觉SLAM中的噪声进行降噪处理;步骤4.构建SLAM高精定位地图。本发明能够在GNSS信号失锁或者雷达感知出现故障时,仍能够为自动驾驶提供有效的高精度定位。
Description
技术领域
本发明属于自动驾驶的高精定位系统技术领域,具体涉及一种基于视觉SLAM的高精定位方法、系统及存储介质。
背景技术
相机作为唯一外部传感器的SLAM(Simultaneous Localization And Mapping),被称为视觉 SLA M(即同时定位与地图构建)。由于相机具有成本低、体积小轻、重量轻,很容易将其放到商品硬件上的优点,且图像含有丰富的信息,视觉SLAM得到巨大发展,根据采用不同类型的视觉传感器,当前可以将视觉SLAM主要分三类:仅用一个相机作为唯一外部传感器的单目视觉SLAM;使用多个相机作为传感器的立体视觉SLAM,其中双目立体视觉方案的应用最多;基于单目相机与红外传感器结合构成的传感器的RGBD SLAM(即基于深度相机的SLAM)。
SLAM创建的地图的好坏对之后自主的定位、路径规划以及壁障的性能起到一个决定性的作用。参考文献《Stability-based Scale Estimaton for Monocular SLAM》和《ORB-SLAM: an Open Source SLAM system for RGB-D Cameras 》,当前视觉SLAM技术中:单目视觉SLAM成本低、应用活、轻便,但是在同一时刻下单目视觉SLAM方案只能够捕获一张图像,因此只能够基于图像数据计算环境物体的航向信息,无法有效获取可靠的深度信息。双目视觉SLAM基于外极线几何约束原理,能够匹配左右两个相机的特征,因此能够直接获取完整的特征数据;然而其系统设计相对复杂,系统成本较高,视角范围受限制,不能够获取远处场景。对于RGBD SLAM,这种算法能够获得彩色图像的同时获得深度图像,从而便于获得深度信息,且能够获得稠密的地图,且有效探测距离较长,但是成本相对高,体积大,从而可应用环境有限。
因此,有必要开发一种基于视觉SLAM的高精定位方法、系统及存储介质。
发明内容
本发明的目的在于提供一种基于视觉SLAM的高精定位方法、系统及存储介质,能在GNSS信号失锁或者雷达感知出现故障时,仍能为自动驾驶提供有效的高精度定位,提升高精定位系统的冗余,防止汽车在自动驾驶过程中,因定位失效时引发的安全事故。
第一方面,本发明所述的一种基于视觉SLAM的高精定位方法,包括以下步骤:
步骤1.传感器数据预处理:对摄像头输出的图像信息进行特征抽取、分割和匹配特征点处理;
步骤2. 在摄像头数据预处理完成后,对数据进行前端里程计处理和回环检测处理;
所述视觉里程计处理为估算相邻两个图像间相机运动轨迹,以及确定出局部地图;
所述回环检测处理为将任意两张图做一遍特征匹配,根据特征点的匹配情况来确定两幅图是否存在关联,若存在关联,则证明存在回环,否则表示不存在回环;
步骤3.将回环处理后的数据和前端里程计处理后的数据进行后端非线性优化处理,所述后端非线性优化处理为对视觉SLAM中的噪声进行降噪处理;
步骤4.基于后端非线性优化处理后的数据构建SLAM高精定位地图通过识别到的特征与地图中原有信息对比,得出具体位姿,即得到定位结果。
可选地,所述步骤1中,
通过特征提取方法SIFT,SURT,或 ORB来提取图像特征点;
在提取特征点过程中,构建尺度空间,检测极值点,获得尺度不变性;
通过特征算法将特征点过滤,并在图像上进行精确定位;
基于图像局部的梯度方向计算两幅图特征向量之间的欧氏距离,并以此作为特征点的相似性判断度量,并分配给每个关键点位置一个或多个方向。
可选地,所述步骤2中,所述视觉里程计处理过程,具体为:
Sa1.搭建VO框架实现视觉里程计;
Sa2.确定基本的数据结构;
Sa3.选取图像记录轨迹中的关键帧,所述关键帧为具有标志性信息的数据帧;
Sa4.记录路标,即记录图像中的特征点,将新收到的帧与地图中的路标进行匹配,计算出摄像头的位姿。每个时刻对应一个相应的位姿,位姿的变换过程即为摄像头的运动轨迹;
Sa5.对标志信息的坐标进行变换,确定出标志性目标的方位。
可选地,所述步骤2中,所述回环检测处理过程中,在验证关联性过程中,设置相似性评分:s(A, B),其中,A,B表示两个向量,如果s(A, B)=1-||A-B||*1/w, 若两个向量完全相等,则结果为1,表示两幅图存在关联,若完全相反,则结果为0,表示两幅图不存在关联。
可选地,所述步骤3中,所述后端非线性优化处理,具体为:
基于运动方程和观测方程求解出非线性最小二乘,即确定出最优的降噪系数,基于最优的降噪系数对图像中的噪声进行降噪处理,其中:
运动方程: Xk=F(Xk-1, Uk)+Wk;
观测方程:Xk,j=H(Yj, Xk)+Vk, j;
其中:Xk为k时刻的所求的状态量,Uk为k时刻系统的输入,Wk为运动过程中加入的噪声;Xk,j为当在Xk位置上看到目标点Yj产生的观测数据,Vk, j为观测过程的噪声。
第二方面,本发明所述的一种基于视觉SLAM的高精定位系统,包括存储器和控制器,所述存储器内存储有计算机可读程序,所述计算机可读程序被控制器调用时能执行如本发明所述的基于视觉SLAM的高精定位方法的步骤。
第三方面,本发明所述的一种存储介质,其内存储有计算机可读程序,所述计算机可读程序被调用时能执行如本发明所述的基于视觉SLAM的高精定位方法的步骤。
本发明具有以下优点:
(1)本发明改善了单目视觉SLAM、双目视觉SLAM及RGB-D SLAM中存在的缺陷;相较于卡尔曼滤波的松耦合融合方式,基于非线性优化方式,将三种单一视觉SLAM算法紧耦合融合,能够使得视觉定位模块在剧烈震动、猛烈加减速和旋转时,仍然能够保持稳定的精度,避免了目标跟踪丢失,提升了整体的定位精度。当与惯性元件、轮机里程计、卫星定位系统、室内基站定位系统等辅助定位设备联合标定时,紧耦合融合方式能够便于实时相互动态标定。
(2)本方法涉及到的算法模型相对于其它SLAM算法而言,算法结构更加稳定,能够在纹理丰富的动态环境中长时间、稳定工作,并且能够为汽车定位系统提供非常可靠、精确的点云匹配。此外,这种视觉SLAM算法所依赖的投影数学模型(即上述步骤所述的模型),具有较强的兼容性,能够将长、短基数不一致的单双目摄像头相结合,因此能够最大限度提升视觉定位精度,增强对中近距离的障碍物的感知能力,提高地图构建的准确度。因为本发明能够将被动视觉与深度相机的结合,再结和RGB-D SLAM算法,能够按照场景的距离进行不同速度和不同精度的定位。
附图说明
图1为本实施例的流程图;
图2为本实施例中贝叶斯网络概率图;
图3为本实施例中贝叶斯因子图;
图4为本实施例中视觉算法匹配图。
具体实施方式
以下将结合附图对本发明进行详细的说明。
如图1所示,本实施例中,本发明所述的一种基于视觉SLAM的高精定位系统,包括以下步骤:
步骤1.传感器数据预处理:对摄像头输出的图像信息进行特征抽取、分割和匹配特征点处理;
步骤2. 在摄像头数据预处理完成后,对数据进行前端里程计处理和回环检测处理;
所述视觉里程计处理为估算相邻两个图像间相机运动轨迹,以及确定出局部地图;
所述回环检测处理为将任意两张图做一遍特征匹配,根据特征点的匹配情况来确定两幅图是否存在关联,若存在关联,则证明存在回环,否则表示不存在回环;
步骤3.将回环处理后的数据和前端里程计处理后的数据进行后端非线性优化处理,所述后端非线性优化处理为对视觉SLAM中的噪声进行降噪处理;
步骤4.基于后端非线性优化处理后的数据构建SLAM高精定位地图通过识别到的特征与地图中原有信息对比,得出具体位姿,即得到定位结果。
本实施例中,所述步骤1中,当对摄像头接收到的感知数据完成处理后,进行特征检测和匹配,通过特征提取方法SIFT(即尺度不变特征变换),SURT(即放大稳健变换),或ORB(即特征提取与检测)来提取图像特征点;在提取特征点过程中,构建尺度空间,检测极值点,获得尺度不变性。通过特征算法将特征点过滤,并在图像上进行精确定位。基于图像局部的梯度方向计算两幅图特征向量之间的欧氏距离,并以此作为特征点的相似性判断度量,并分配给每个关键点位置一个或多个方向。所有后面的对图像数据的操作都相对于关键点的方向、尺度和位置进行变换,从而提供对于这些变换的不变性。
例如,对于图像f(x, y),灰度级变换T将产生一个输出图像g(x, y),并且g(x, y)图像中每一个输入像素点的值均由f(x, y)决定,也即是g(x, y)=T(f(x, y))。T(f(x, y))为灰度值变换函数,由于灰度值是有限个,在进行灰度级变换时,通常采用映射方式实现。
本实施例中,所述步骤2中,所述视觉里程计处理过程,具体为:
Sa1搭建VO框架实现视觉里程计,
Sa2.确定基本的数据结构;
Sa3.选取图像记录轨迹中的关键帧,所述关键帧为具有标志性信息的数据帧;
Sa4.记录路标,即记录图像中的特征点,将新收到的帧与地图中的路标进行匹配,计算出摄像头的位姿。每个时刻对应一个相应的位姿,位姿的变换过程即为摄像头的运动轨迹;
Sa5.对标志信息的坐标进行变换,确定出标志性目标的方位。
本实施例中,所述步骤2中,所述回环检测处理过程中,在验证关联性过程中,设置相似性评分:s(A, B),其中,A,B表示两个向量,如果s(A, B)=1-||A-B||*1/w, 若两个向量完全相等,则结果为1,表示两幅图存在关联,若完全相反,则结果为0,表示两幅图不存在关联。
本实施例中,所述步骤3中,所述后端非线性优化处理,即对摄像头位姿及整个有地图点3D坐标进行优化。当回环检测成功后,回环约束会被增加至地图里,然后采取位姿图优化算法对回环的优化进行提升,将顶点视为摄像头位姿,边视为位姿间相对变换的图(即位姿图)。优化过程中,整体闭环误差按照地图将被均匀分配至所有的位姿上。采取的图优化算法为RGB-D SLAM,此算法的位姿图里,每条边将生成一个权重值,因此在基于此算法优化过程中,相对于不确定性高的边,不确定性较低的边只需要较少的补偿误差,并且会针对图像里的每个顶点补充进行闭环检测,进而得到最佳优化处理后的整图。具体数学实现方式为:
基于运动方程和观测方程求解出非线性最小二乘,即确定出最优的降噪系数,基于最优的降噪系数对图像中的噪声进行降噪处理,其中:
运动方程: Xk=F(Xk-1, Uk)+Wk;
观测方程:Xk,j=H(Yj, Xk)+Vk, j;
其中:Xk为k时刻的所求的状态量,Uk为k时刻系统的输入,Wk为运动过程中加入的噪声;Xk,j为当在Xk位置上看到目标点Yj产生的观测数据,Vk, j为观测过程的噪声。
特征点检测及匹配完成后,进行后端优化(Backend Optimization)。后端优化利用因子图优化方式。基于贝叶斯网络,视觉SLAM可以表达为一个动态的贝叶斯网络。贝叶斯网络是一种概率图,由随机变量节点和表达随机变量条件独立性的边组成,形成一个有向无环图(即图2所示的贝叶斯网络概率图,其中,I表环境变量,即观测到的环境特征、Z代表观测量、X代表位姿状态、U代表系统输入),并且能够表达所有变量,以及各个方程给出的变量之间的条件概率关系。通过调整贝叶斯网络中随机变量的值,能使得概率值达到最大。而概率是由多项因子组成,因此贝叶斯网络图又能够转化成因子图(即图3所示的贝叶斯因子图,图中,I表环境变量,即观测到的环境特征、Z代表观测量、X代表位姿状态、f代表状态间的函数关系),因子图是无向图,表示优化变量的节点和表示因子的因子节点,通过稀疏QR分解、Schur补或者Cholesky分解,加速对因子图优化的求解。
对图像训练之后,进行特征提取,并将其特征描述空间由K中心点聚类方法离散化为个簇,以此创建第一节点层。后续每层通过对每个簇重复执行这个操作过程获得,最终获得W个叶子节点。
此段话是对图1前端视觉里程计的说明。对图像进行训练指的是将传感器获得的图像数据进行分割,灰度化等。每个簇创建得到一层节点,即为叶子节点。
本实施例中,一种基于视觉SLAM的高精定位系统,包括存储器和控制器,所述存储器内存储有计算机可读程序,所述计算机可读程序被控制器调用时能执行如本发明所述的基于视觉SLAM的高精定位方法的步骤。
本实施例中,一种存储介质,其内存储有计算机可读程序,所述计算机可读程序被调用时能执行如本发明所述的基于视觉SLAM的高精定位方法的步骤。
Claims (7)
1.一种基于视觉SLAM的高精定位方法,其特征在于,包括以下步骤:
步骤1.传感器数据预处理:对摄像头输出的图像信息进行特征抽取、分割和匹配特征点处理;
步骤2. 在摄像头数据预处理完成后,对数据进行前端里程计处理和回环检测处理;
所述视觉里程计处理为估算相邻两个图像间相机运动轨迹,以及确定出局部地图;
所述回环检测处理为将任意两张图做一遍特征匹配,根据特征点的匹配情况来确定两幅图是否存在关联,若存在关联,则证明存在回环,否则表示不存在回环;
步骤3.将回环处理后的数据和前端里程计处理后的数据进行后端非线性优化处理,所述后端非线性优化处理为对视觉SLAM中的噪声进行降噪处理;
步骤4.基于后端非线性优化处理后的数据构建SLAM高精定位地图,通过识别到的特征与地图中原有信息对比,得出具体位姿,即得到定位结果。
2.根据权利要求1所述的基于视觉SLAM的高精定位方法,其特征在于:所述步骤1中,
通过特征提取方法SIFT,SURT,或 ORB来提取图像特征点;
在提取特征点过程中,构建尺度空间,检测极值点,获得尺度不变性;
通过特征算法将特征点过滤,并在图像上进行精确定位;
基于图像局部的梯度方向计算两幅图特征向量之间的欧氏距离,并以此作为特征点的相似性判断度量,并分配给每个关键点位置一个或多个方向。
3.根据权利要求2所述的基于视觉SLAM的高精定位方法,其特征在于:所述步骤2中,所述视觉里程计处理过程,具体为:
Sa1.搭建VO框架实现视觉里程计;
Sa2.确定基本的数据结构;
Sa3.选取图像记录轨迹中的关键帧,所述关键帧为具有标志性信息的数据帧;
Sa4.记录路标,即记录图像中的特征点,将新收到的帧与地图中的路标进行匹配,计算出摄像头的位姿,每个时刻对应一个相应的位姿,位姿的变换过程即为摄像头的运动轨迹;
Sa5.对标志信息的坐标进行变换,确定出标志性目标的方位。
4.根据权利要求3所述的基于视觉SLAM的高精定位方法,其特征在于:所述步骤2中,所述回环检测处理过程中,在验证关联性过程中,设置相似性评分:s(A, B),其中,A,B表示两个向量,如果s(A, B)=1-||A-B||*1/w, 若两个向量完全相等,则结果为1,表示两幅图存在关联,若完全相反,则结果为0,表示两幅图不存在关联。
5.根据权利要求4所述的基于视觉SLAM的高精定位方法,其特征在于:所述步骤3中,所述后端非线性优化处理,具体为:
基于运动方程和观测方程求解出非线性最小二乘,即确定出最优的降噪系数,基于最优的降噪系数对图像中的噪声进行降噪处理,其中:
运动方程: Xk=F(Xk-1, Uk)+Wk;
观测方程:Xk,j=H(Yj, Xk)+Vk, j;
其中:Xk为k时刻的所求的状态量,Uk为k时刻系统的输入, Wk为运动过程中加入的噪声;Xk,j为当在Xk位置上看到目标点Yj产生的观测数据,Vk, j为观测过程的噪声。
6.一种基于视觉SLAM的高精定位系统,其特征在于:包括存储器和控制器,所述存储器内存储有计算机可读程序,所述计算机可读程序被控制器调用时能执行如权利要求1至5任一所述的基于视觉SLAM的高精定位方法的步骤。
7.一种存储介质,其特征在于:其内存储有计算机可读程序,所述计算机可读程序被调用时能执行如权利要求1至5任一所述的基于视觉SLAM的高精定位方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210904189.1A CN115265560A (zh) | 2022-07-28 | 2022-07-28 | 基于视觉slam的高精定位方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210904189.1A CN115265560A (zh) | 2022-07-28 | 2022-07-28 | 基于视觉slam的高精定位方法、系统及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115265560A true CN115265560A (zh) | 2022-11-01 |
Family
ID=83770956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210904189.1A Withdrawn CN115265560A (zh) | 2022-07-28 | 2022-07-28 | 基于视觉slam的高精定位方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115265560A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建系统 |
CN109341694A (zh) * | 2018-11-12 | 2019-02-15 | 哈尔滨理工大学 | 一种移动探测机器人的自主定位导航方法 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN111444853A (zh) * | 2020-03-27 | 2020-07-24 | 长安大学 | 一种视觉slam的回环检测方法 |
CN112179373A (zh) * | 2020-08-21 | 2021-01-05 | 同济大学 | 一种视觉里程计的测量方法及视觉里程计 |
-
2022
- 2022-07-28 CN CN202210904189.1A patent/CN115265560A/zh not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建系统 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN109341694A (zh) * | 2018-11-12 | 2019-02-15 | 哈尔滨理工大学 | 一种移动探测机器人的自主定位导航方法 |
CN111444853A (zh) * | 2020-03-27 | 2020-07-24 | 长安大学 | 一种视觉slam的回环检测方法 |
CN112179373A (zh) * | 2020-08-21 | 2021-01-05 | 同济大学 | 一种视觉里程计的测量方法及视觉里程计 |
Non-Patent Citations (2)
Title |
---|
吕霖华;: "基于视觉的即时定位与地图重建(V-SLAM)综述", 中国战略新兴产业, no. 04, 28 January 2017 (2017-01-28), pages 67 - 70 * |
杜鹏飞: "基于图优化的单目视觉SLAM关键技术研究", 中国优秀硕士学位论文全文数据库信息科技辑, 15 December 2018 (2018-12-15), pages 138 - 1453 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112734852B (zh) | 一种机器人建图方法、装置及计算设备 | |
JP6760114B2 (ja) | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム | |
CN112197770B (zh) | 一种机器人的定位方法及其定位装置 | |
Jeong et al. | The road is enough! Extrinsic calibration of non-overlapping stereo camera and LiDAR using road information | |
Chien et al. | Visual odometry driven online calibration for monocular lidar-camera systems | |
JP2020067439A (ja) | 移動体位置推定システムおよび移動体位置推定方法 | |
CN111623773B (zh) | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 | |
CN114758504B (zh) | 一种基于滤波校正的网联车超速预警方法及系统 | |
Ji et al. | RGB-D SLAM using vanishing point and door plate information in corridor environment | |
CN117218350A (zh) | 一种基于固态雷达的slam实现方法及系统 | |
Zhang | LILO: A Novel Lidar–IMU SLAM System With Loop Optimization | |
US20210304518A1 (en) | Method and system for generating an environment model for positioning | |
Wang et al. | 3D-LIDAR based branch estimation and intersection location for autonomous vehicles | |
CN117824667A (zh) | 一种基于二维码和激光的融合定位方法及介质 | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
Etxeberria-Garcia et al. | Visual odometry in challenging environments: an urban underground railway scenario case | |
Pishehvari et al. | Robust range-doppler registration with hd maps | |
Chen et al. | Inertial aided 3D LiDAR SLAM with hybrid geometric primitives in large-scale environments | |
CN115265560A (zh) | 基于视觉slam的高精定位方法、系统及存储介质 | |
Pishehvari et al. | Range-Doppler Registration | |
Sasiadek et al. | Accurate feature matching for autonomous vehicle navigation in urban environments | |
CN117392347B (zh) | 一种地图构建方法、装置、计算机设备及可读存储介质 | |
Ravindranath et al. | 3D-3D Self-Calibration of Sensors Using Point Cloud Data | |
CN116399322A (zh) | 一种基于水面多传感器融合的slam建图方法 | |
Salimzadeh | Visual State Estimation for Autonomous Navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20221101 |
|
WW01 | Invention patent application withdrawn after publication |