CN115265560A - 基于视觉slam的高精定位方法、系统及存储介质 - Google Patents

基于视觉slam的高精定位方法、系统及存储介质 Download PDF

Info

Publication number
CN115265560A
CN115265560A CN202210904189.1A CN202210904189A CN115265560A CN 115265560 A CN115265560 A CN 115265560A CN 202210904189 A CN202210904189 A CN 202210904189A CN 115265560 A CN115265560 A CN 115265560A
Authority
CN
China
Prior art keywords
processing
precision positioning
slam
data
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202210904189.1A
Other languages
English (en)
Inventor
肖乔木
熊周兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Changan Automobile Co Ltd
Original Assignee
Chongqing Changan Automobile Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Changan Automobile Co Ltd filed Critical Chongqing Changan Automobile Co Ltd
Priority to CN202210904189.1A priority Critical patent/CN115265560A/zh
Publication of CN115265560A publication Critical patent/CN115265560A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉SLAM的高精定位方法、系统及存储介质,包括:步骤1.传感器数据预处理;步骤2.在摄像头数据预处理完成后,对数据进行前端里程计处理和回环检测处理;所述视觉里程计处理为估算相邻两个图像间相机运动轨迹,以及确定出局部地图;回环检测处理为将任意两张图做一遍特征匹配,根据特征点的匹配情况来确定两幅图是否存在关联;步骤3.将回环处理后的数据和前端里程计处理后的数据进行后端非线性优化处理,所述后端非线性优化处理为对视觉SLAM中的噪声进行降噪处理;步骤4.构建SLAM高精定位地图。本发明能够在GNSS信号失锁或者雷达感知出现故障时,仍能够为自动驾驶提供有效的高精度定位。

Description

基于视觉SLAM的高精定位方法、系统及存储介质
技术领域
本发明属于自动驾驶的高精定位系统技术领域,具体涉及一种基于视觉SLAM的高精定位方法、系统及存储介质。
背景技术
相机作为唯一外部传感器的SLAM(Simultaneous Localization And Mapping),被称为视觉 SLA M(即同时定位与地图构建)。由于相机具有成本低、体积小轻、重量轻,很容易将其放到商品硬件上的优点,且图像含有丰富的信息,视觉SLAM得到巨大发展,根据采用不同类型的视觉传感器,当前可以将视觉SLAM主要分三类:仅用一个相机作为唯一外部传感器的单目视觉SLAM;使用多个相机作为传感器的立体视觉SLAM,其中双目立体视觉方案的应用最多;基于单目相机与红外传感器结合构成的传感器的RGBD SLAM(即基于深度相机的SLAM)。
SLAM创建的地图的好坏对之后自主的定位、路径规划以及壁障的性能起到一个决定性的作用。参考文献《Stability-based Scale Estimaton for Monocular SLAM》和《ORB-SLAM: an Open Source SLAM system for RGB-D Cameras 》,当前视觉SLAM技术中:单目视觉SLAM成本低、应用活、轻便,但是在同一时刻下单目视觉SLAM方案只能够捕获一张图像,因此只能够基于图像数据计算环境物体的航向信息,无法有效获取可靠的深度信息。双目视觉SLAM基于外极线几何约束原理,能够匹配左右两个相机的特征,因此能够直接获取完整的特征数据;然而其系统设计相对复杂,系统成本较高,视角范围受限制,不能够获取远处场景。对于RGBD SLAM,这种算法能够获得彩色图像的同时获得深度图像,从而便于获得深度信息,且能够获得稠密的地图,且有效探测距离较长,但是成本相对高,体积大,从而可应用环境有限。
因此,有必要开发一种基于视觉SLAM的高精定位方法、系统及存储介质。
发明内容
本发明的目的在于提供一种基于视觉SLAM的高精定位方法、系统及存储介质,能在GNSS信号失锁或者雷达感知出现故障时,仍能为自动驾驶提供有效的高精度定位,提升高精定位系统的冗余,防止汽车在自动驾驶过程中,因定位失效时引发的安全事故。
第一方面,本发明所述的一种基于视觉SLAM的高精定位方法,包括以下步骤:
步骤1.传感器数据预处理:对摄像头输出的图像信息进行特征抽取、分割和匹配特征点处理;
步骤2. 在摄像头数据预处理完成后,对数据进行前端里程计处理和回环检测处理;
所述视觉里程计处理为估算相邻两个图像间相机运动轨迹,以及确定出局部地图;
所述回环检测处理为将任意两张图做一遍特征匹配,根据特征点的匹配情况来确定两幅图是否存在关联,若存在关联,则证明存在回环,否则表示不存在回环;
步骤3.将回环处理后的数据和前端里程计处理后的数据进行后端非线性优化处理,所述后端非线性优化处理为对视觉SLAM中的噪声进行降噪处理;
步骤4.基于后端非线性优化处理后的数据构建SLAM高精定位地图通过识别到的特征与地图中原有信息对比,得出具体位姿,即得到定位结果。
可选地,所述步骤1中,
通过特征提取方法SIFT,SURT,或 ORB来提取图像特征点;
在提取特征点过程中,构建尺度空间,检测极值点,获得尺度不变性;
通过特征算法将特征点过滤,并在图像上进行精确定位;
基于图像局部的梯度方向计算两幅图特征向量之间的欧氏距离,并以此作为特征点的相似性判断度量,并分配给每个关键点位置一个或多个方向。
可选地,所述步骤2中,所述视觉里程计处理过程,具体为:
Sa1.搭建VO框架实现视觉里程计;
Sa2.确定基本的数据结构;
Sa3.选取图像记录轨迹中的关键帧,所述关键帧为具有标志性信息的数据帧;
Sa4.记录路标,即记录图像中的特征点,将新收到的帧与地图中的路标进行匹配,计算出摄像头的位姿。每个时刻对应一个相应的位姿,位姿的变换过程即为摄像头的运动轨迹;
Sa5.对标志信息的坐标进行变换,确定出标志性目标的方位。
可选地,所述步骤2中,所述回环检测处理过程中,在验证关联性过程中,设置相似性评分:s(A, B),其中,A,B表示两个向量,如果s(A, B)=1-||A-B||*1/w, 若两个向量完全相等,则结果为1,表示两幅图存在关联,若完全相反,则结果为0,表示两幅图不存在关联。
可选地,所述步骤3中,所述后端非线性优化处理,具体为:
基于运动方程和观测方程求解出非线性最小二乘,即确定出最优的降噪系数,基于最优的降噪系数对图像中的噪声进行降噪处理,其中:
运动方程: Xk=F(Xk-1, Uk)+Wk
观测方程:Xk,j=H(Yj, Xk)+Vk, j
其中:Xk为k时刻的所求的状态量,Uk为k时刻系统的输入,Wk为运动过程中加入的噪声;Xk,j为当在Xk位置上看到目标点Yj产生的观测数据,Vk, j为观测过程的噪声。
第二方面,本发明所述的一种基于视觉SLAM的高精定位系统,包括存储器和控制器,所述存储器内存储有计算机可读程序,所述计算机可读程序被控制器调用时能执行如本发明所述的基于视觉SLAM的高精定位方法的步骤。
第三方面,本发明所述的一种存储介质,其内存储有计算机可读程序,所述计算机可读程序被调用时能执行如本发明所述的基于视觉SLAM的高精定位方法的步骤。
本发明具有以下优点:
(1)本发明改善了单目视觉SLAM、双目视觉SLAM及RGB-D SLAM中存在的缺陷;相较于卡尔曼滤波的松耦合融合方式,基于非线性优化方式,将三种单一视觉SLAM算法紧耦合融合,能够使得视觉定位模块在剧烈震动、猛烈加减速和旋转时,仍然能够保持稳定的精度,避免了目标跟踪丢失,提升了整体的定位精度。当与惯性元件、轮机里程计、卫星定位系统、室内基站定位系统等辅助定位设备联合标定时,紧耦合融合方式能够便于实时相互动态标定。
(2)本方法涉及到的算法模型相对于其它SLAM算法而言,算法结构更加稳定,能够在纹理丰富的动态环境中长时间、稳定工作,并且能够为汽车定位系统提供非常可靠、精确的点云匹配。此外,这种视觉SLAM算法所依赖的投影数学模型(即上述步骤所述的模型),具有较强的兼容性,能够将长、短基数不一致的单双目摄像头相结合,因此能够最大限度提升视觉定位精度,增强对中近距离的障碍物的感知能力,提高地图构建的准确度。因为本发明能够将被动视觉与深度相机的结合,再结和RGB-D SLAM算法,能够按照场景的距离进行不同速度和不同精度的定位。
附图说明
图1为本实施例的流程图;
图2为本实施例中贝叶斯网络概率图;
图3为本实施例中贝叶斯因子图;
图4为本实施例中视觉算法匹配图。
具体实施方式
以下将结合附图对本发明进行详细的说明。
如图1所示,本实施例中,本发明所述的一种基于视觉SLAM的高精定位系统,包括以下步骤:
步骤1.传感器数据预处理:对摄像头输出的图像信息进行特征抽取、分割和匹配特征点处理;
步骤2. 在摄像头数据预处理完成后,对数据进行前端里程计处理和回环检测处理;
所述视觉里程计处理为估算相邻两个图像间相机运动轨迹,以及确定出局部地图;
所述回环检测处理为将任意两张图做一遍特征匹配,根据特征点的匹配情况来确定两幅图是否存在关联,若存在关联,则证明存在回环,否则表示不存在回环;
步骤3.将回环处理后的数据和前端里程计处理后的数据进行后端非线性优化处理,所述后端非线性优化处理为对视觉SLAM中的噪声进行降噪处理;
步骤4.基于后端非线性优化处理后的数据构建SLAM高精定位地图通过识别到的特征与地图中原有信息对比,得出具体位姿,即得到定位结果。
本实施例中,所述步骤1中,当对摄像头接收到的感知数据完成处理后,进行特征检测和匹配,通过特征提取方法SIFT(即尺度不变特征变换),SURT(即放大稳健变换),或ORB(即特征提取与检测)来提取图像特征点;在提取特征点过程中,构建尺度空间,检测极值点,获得尺度不变性。通过特征算法将特征点过滤,并在图像上进行精确定位。基于图像局部的梯度方向计算两幅图特征向量之间的欧氏距离,并以此作为特征点的相似性判断度量,并分配给每个关键点位置一个或多个方向。所有后面的对图像数据的操作都相对于关键点的方向、尺度和位置进行变换,从而提供对于这些变换的不变性。
例如,对于图像f(x, y),灰度级变换T将产生一个输出图像g(x, y),并且g(x, y)图像中每一个输入像素点的值均由f(x, y)决定,也即是g(x, y)=T(f(x, y))。T(f(x, y))为灰度值变换函数,由于灰度值是有限个,在进行灰度级变换时,通常采用映射方式实现。
本实施例中,所述步骤2中,所述视觉里程计处理过程,具体为:
Sa1搭建VO框架实现视觉里程计,
Sa2.确定基本的数据结构;
Sa3.选取图像记录轨迹中的关键帧,所述关键帧为具有标志性信息的数据帧;
Sa4.记录路标,即记录图像中的特征点,将新收到的帧与地图中的路标进行匹配,计算出摄像头的位姿。每个时刻对应一个相应的位姿,位姿的变换过程即为摄像头的运动轨迹;
Sa5.对标志信息的坐标进行变换,确定出标志性目标的方位。
本实施例中,所述步骤2中,所述回环检测处理过程中,在验证关联性过程中,设置相似性评分:s(A, B),其中,A,B表示两个向量,如果s(A, B)=1-||A-B||*1/w, 若两个向量完全相等,则结果为1,表示两幅图存在关联,若完全相反,则结果为0,表示两幅图不存在关联。
本实施例中,所述步骤3中,所述后端非线性优化处理,即对摄像头位姿及整个有地图点3D坐标进行优化。当回环检测成功后,回环约束会被增加至地图里,然后采取位姿图优化算法对回环的优化进行提升,将顶点视为摄像头位姿,边视为位姿间相对变换的图(即位姿图)。优化过程中,整体闭环误差按照地图将被均匀分配至所有的位姿上。采取的图优化算法为RGB-D SLAM,此算法的位姿图里,每条边将生成一个权重值,因此在基于此算法优化过程中,相对于不确定性高的边,不确定性较低的边只需要较少的补偿误差,并且会针对图像里的每个顶点补充进行闭环检测,进而得到最佳优化处理后的整图。具体数学实现方式为:
基于运动方程和观测方程求解出非线性最小二乘,即确定出最优的降噪系数,基于最优的降噪系数对图像中的噪声进行降噪处理,其中:
运动方程: Xk=F(Xk-1, Uk)+Wk
观测方程:Xk,j=H(Yj, Xk)+Vk, j
其中:Xk为k时刻的所求的状态量,Uk为k时刻系统的输入,Wk为运动过程中加入的噪声;Xk,j为当在Xk位置上看到目标点Yj产生的观测数据,Vk, j为观测过程的噪声。
特征点检测及匹配完成后,进行后端优化(Backend Optimization)。后端优化利用因子图优化方式。基于贝叶斯网络,视觉SLAM可以表达为一个动态的贝叶斯网络。贝叶斯网络是一种概率图,由随机变量节点和表达随机变量条件独立性的边组成,形成一个有向无环图(即图2所示的贝叶斯网络概率图,其中,I表环境变量,即观测到的环境特征、Z代表观测量、X代表位姿状态、U代表系统输入),并且能够表达所有变量,以及各个方程给出的变量之间的条件概率关系。通过调整贝叶斯网络中随机变量的值,能使得概率值达到最大。而概率是由多项因子组成,因此贝叶斯网络图又能够转化成因子图(即图3所示的贝叶斯因子图,图中,I表环境变量,即观测到的环境特征、Z代表观测量、X代表位姿状态、f代表状态间的函数关系),因子图是无向图,表示优化变量的节点和表示因子的因子节点,通过稀疏QR分解、Schur补或者Cholesky分解,加速对因子图优化的求解。
对图像训练之后,进行特征提取,并将其特征描述空间由K中心点聚类方法离散化为个簇,以此创建第一节点层。后续每层通过对每个簇重复执行这个操作过程获得,最终获得W个叶子节点。
此段话是对图1前端视觉里程计的说明。对图像进行训练指的是将传感器获得的图像数据进行分割,灰度化等。每个簇创建得到一层节点,即为叶子节点。
本实施例中,一种基于视觉SLAM的高精定位系统,包括存储器和控制器,所述存储器内存储有计算机可读程序,所述计算机可读程序被控制器调用时能执行如本发明所述的基于视觉SLAM的高精定位方法的步骤。
本实施例中,一种存储介质,其内存储有计算机可读程序,所述计算机可读程序被调用时能执行如本发明所述的基于视觉SLAM的高精定位方法的步骤。

Claims (7)

1.一种基于视觉SLAM的高精定位方法,其特征在于,包括以下步骤:
步骤1.传感器数据预处理:对摄像头输出的图像信息进行特征抽取、分割和匹配特征点处理;
步骤2. 在摄像头数据预处理完成后,对数据进行前端里程计处理和回环检测处理;
所述视觉里程计处理为估算相邻两个图像间相机运动轨迹,以及确定出局部地图;
所述回环检测处理为将任意两张图做一遍特征匹配,根据特征点的匹配情况来确定两幅图是否存在关联,若存在关联,则证明存在回环,否则表示不存在回环;
步骤3.将回环处理后的数据和前端里程计处理后的数据进行后端非线性优化处理,所述后端非线性优化处理为对视觉SLAM中的噪声进行降噪处理;
步骤4.基于后端非线性优化处理后的数据构建SLAM高精定位地图,通过识别到的特征与地图中原有信息对比,得出具体位姿,即得到定位结果。
2.根据权利要求1所述的基于视觉SLAM的高精定位方法,其特征在于:所述步骤1中,
通过特征提取方法SIFT,SURT,或 ORB来提取图像特征点;
在提取特征点过程中,构建尺度空间,检测极值点,获得尺度不变性;
通过特征算法将特征点过滤,并在图像上进行精确定位;
基于图像局部的梯度方向计算两幅图特征向量之间的欧氏距离,并以此作为特征点的相似性判断度量,并分配给每个关键点位置一个或多个方向。
3.根据权利要求2所述的基于视觉SLAM的高精定位方法,其特征在于:所述步骤2中,所述视觉里程计处理过程,具体为:
Sa1.搭建VO框架实现视觉里程计;
Sa2.确定基本的数据结构;
Sa3.选取图像记录轨迹中的关键帧,所述关键帧为具有标志性信息的数据帧;
Sa4.记录路标,即记录图像中的特征点,将新收到的帧与地图中的路标进行匹配,计算出摄像头的位姿,每个时刻对应一个相应的位姿,位姿的变换过程即为摄像头的运动轨迹;
Sa5.对标志信息的坐标进行变换,确定出标志性目标的方位。
4.根据权利要求3所述的基于视觉SLAM的高精定位方法,其特征在于:所述步骤2中,所述回环检测处理过程中,在验证关联性过程中,设置相似性评分:s(A, B),其中,A,B表示两个向量,如果s(A, B)=1-||A-B||*1/w, 若两个向量完全相等,则结果为1,表示两幅图存在关联,若完全相反,则结果为0,表示两幅图不存在关联。
5.根据权利要求4所述的基于视觉SLAM的高精定位方法,其特征在于:所述步骤3中,所述后端非线性优化处理,具体为:
基于运动方程和观测方程求解出非线性最小二乘,即确定出最优的降噪系数,基于最优的降噪系数对图像中的噪声进行降噪处理,其中:
运动方程: Xk=F(Xk-1, Uk)+Wk
观测方程:Xk,j=H(Yj, Xk)+Vk, j
其中:Xk为k时刻的所求的状态量,Uk为k时刻系统的输入, Wk为运动过程中加入的噪声;Xk,j为当在Xk位置上看到目标点Yj产生的观测数据,Vk, j为观测过程的噪声。
6.一种基于视觉SLAM的高精定位系统,其特征在于:包括存储器和控制器,所述存储器内存储有计算机可读程序,所述计算机可读程序被控制器调用时能执行如权利要求1至5任一所述的基于视觉SLAM的高精定位方法的步骤。
7.一种存储介质,其特征在于:其内存储有计算机可读程序,所述计算机可读程序被调用时能执行如权利要求1至5任一所述的基于视觉SLAM的高精定位方法的步骤。
CN202210904189.1A 2022-07-28 2022-07-28 基于视觉slam的高精定位方法、系统及存储介质 Withdrawn CN115265560A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210904189.1A CN115265560A (zh) 2022-07-28 2022-07-28 基于视觉slam的高精定位方法、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210904189.1A CN115265560A (zh) 2022-07-28 2022-07-28 基于视觉slam的高精定位方法、系统及存储介质

Publications (1)

Publication Number Publication Date
CN115265560A true CN115265560A (zh) 2022-11-01

Family

ID=83770956

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210904189.1A Withdrawn CN115265560A (zh) 2022-07-28 2022-07-28 基于视觉slam的高精定位方法、系统及存储介质

Country Status (1)

Country Link
CN (1) CN115265560A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
CN109341694A (zh) * 2018-11-12 2019-02-15 哈尔滨理工大学 一种移动探测机器人的自主定位导航方法
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN111444853A (zh) * 2020-03-27 2020-07-24 长安大学 一种视觉slam的回环检测方法
CN112179373A (zh) * 2020-08-21 2021-01-05 同济大学 一种视觉里程计的测量方法及视觉里程计

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN109341694A (zh) * 2018-11-12 2019-02-15 哈尔滨理工大学 一种移动探测机器人的自主定位导航方法
CN111444853A (zh) * 2020-03-27 2020-07-24 长安大学 一种视觉slam的回环检测方法
CN112179373A (zh) * 2020-08-21 2021-01-05 同济大学 一种视觉里程计的测量方法及视觉里程计

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吕霖华;: "基于视觉的即时定位与地图重建(V-SLAM)综述", 中国战略新兴产业, no. 04, 28 January 2017 (2017-01-28), pages 67 - 70 *
杜鹏飞: "基于图优化的单目视觉SLAM关键技术研究", 中国优秀硕士学位论文全文数据库信息科技辑, 15 December 2018 (2018-12-15), pages 138 - 1453 *

Similar Documents

Publication Publication Date Title
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
JP6760114B2 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
CN112197770B (zh) 一种机器人的定位方法及其定位装置
Jeong et al. The road is enough! Extrinsic calibration of non-overlapping stereo camera and LiDAR using road information
Chien et al. Visual odometry driven online calibration for monocular lidar-camera systems
JP2020067439A (ja) 移動体位置推定システムおよび移動体位置推定方法
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN114758504B (zh) 一种基于滤波校正的网联车超速预警方法及系统
Ji et al. RGB-D SLAM using vanishing point and door plate information in corridor environment
CN117218350A (zh) 一种基于固态雷达的slam实现方法及系统
Zhang LILO: A Novel Lidar–IMU SLAM System With Loop Optimization
US20210304518A1 (en) Method and system for generating an environment model for positioning
Wang et al. 3D-LIDAR based branch estimation and intersection location for autonomous vehicles
CN117824667A (zh) 一种基于二维码和激光的融合定位方法及介质
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
Etxeberria-Garcia et al. Visual odometry in challenging environments: an urban underground railway scenario case
Pishehvari et al. Robust range-doppler registration with hd maps
Chen et al. Inertial aided 3D LiDAR SLAM with hybrid geometric primitives in large-scale environments
CN115265560A (zh) 基于视觉slam的高精定位方法、系统及存储介质
Pishehvari et al. Range-Doppler Registration
Sasiadek et al. Accurate feature matching for autonomous vehicle navigation in urban environments
CN117392347B (zh) 一种地图构建方法、装置、计算机设备及可读存储介质
Ravindranath et al. 3D-3D Self-Calibration of Sensors Using Point Cloud Data
CN116399322A (zh) 一种基于水面多传感器融合的slam建图方法
Salimzadeh Visual State Estimation for Autonomous Navigation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20221101

WW01 Invention patent application withdrawn after publication