CN116124161A - 一种基于先验地图的LiDAR/IMU融合定位方法 - Google Patents

一种基于先验地图的LiDAR/IMU融合定位方法 Download PDF

Info

Publication number
CN116124161A
CN116124161A CN202211655028.XA CN202211655028A CN116124161A CN 116124161 A CN116124161 A CN 116124161A CN 202211655028 A CN202211655028 A CN 202211655028A CN 116124161 A CN116124161 A CN 116124161A
Authority
CN
China
Prior art keywords
map
imu
point cloud
real
lidar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211655028.XA
Other languages
English (en)
Inventor
潘树国
陆新宇
高旺
赵庆
刘宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202211655028.XA priority Critical patent/CN116124161A/zh
Publication of CN116124161A publication Critical patent/CN116124161A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders

Abstract

本发明公开了一种基于先验地图的LiDAR/IMU融合定位方法,首先对先验点云地图按照自定义网格大小进行分块,以解决大场景点云地图无法在计算能力受限的平台上加载和运行的问题;再设计基于LiDAR/IMU的融合定位方案,通过正态分布变换(NDT)算法进行激光雷达点云与分块地图的匹配,将实时点云与先验地图进行关联;其中还采用IMU预积分为地图匹配提供高频的初始猜测,将相邻两个激光雷达帧之间的IMU测量数据的积分转换到IMU坐标系下进行,实时计算相邻两时刻的速度、位置和旋转,为地图匹配提供高频的初始猜测,估计车辆实时位姿,实现位置定位。与传统NDT定位方法相比较,在定位鲁棒性和准确性上均有大幅度提高。

Description

一种基于先验地图的LiDAR/IMU融合定位方法
技术领域
本发明属于多传感器融合定位的技术领域,主要涉及了一种基于先验地图的LiDAR/I MU融合定位方法。
背景技术
对于高级自动驾驶系统而言,精确的全球参考定位是其能够稳定运行的关键之一。全球导航卫星系统(GNSS)能够在地球表面或近地空间的任何地点为用户提供全天候全球参考定位结果,但其定位精度很大程度上取决于周围环境的卫星观测条件,例如在城市峡谷中,由于建筑物的反射和阻塞引起的多径效应和非视距接收将大大提高GNSS定位误差。因此,在全球定位系统缺失或其它外部定位设备失效的情况下,如何为无人系统提供绝对位姿成为当下研究热点。
基于先验地图和激光雷达的配准定位为绝对定位数据来源的缺失提供了一个有效的替代方案,地图可以通过SLAM模块进行构建与更新。但是,现有方法大多仅依靠激光雷达单一传感器进行配准定位,未加入其它辅助传感器进行耦合,系统的鲁棒性不高,在复杂环境下易发生定位失败的情况,且当处理大场景点云地图时,计算能力受限的平台无法进行加载或运行,容易造成平台计算负荷过大的后果。
发明内容
本发明正是针对现有技术中定位鲁棒性有待提高和大场景点云地图无法在计算能力受限的平台上加载和运行的问题,提供一种基于先验地图的LiDAR/IMU融合定位方法,首先对先验点云地图按照自定义网格大小进行分块,以解决大场景点云地图无法在计算能力受限的平台上加载和运行的问题;再设计基于LiDAR/I MU的融合定位方案,通过正态分布变换(NDT)算法进行激光雷达点云与分块地图的匹配,将实时点云与先验地图进行关联;其中还采用IMU预积分为地图匹配提供高频的初始猜测,将相邻两个激光雷达帧之间的IMU测量数据的积分转换到IMU坐标系下进行,实时计算相邻两时刻的速度、位置和旋转,为地图匹配提供高频的初始猜测,估计车辆实时位姿,实现位置定位。与传统NDT定位方法相比较,在定位鲁棒性和准确性上均有大幅度提高。
为了实现上述目的,本发明采取的技术方案是:一种基于先验地图的LiDAR/IMU融合定位方法,包括以下步骤:
S1,先验地图分块:将先验地图中的Z轴坐标去掉,仅对X、Y轴方向上的点云按照自定义的网格大小进行方形网格的划分,在定位时,当载体运动至地图边缘时,对地图进行更新加载;
S2,基于NDT的激光雷达点云与分块地图匹配:将激光雷达扫描到的实时点云经过降采样与体素滤波过后,通过NDT配准与经过步骤S1分块后的先验地图进行关联,并估计实时姿态;激光雷达扫描到的实时点云
Figure BDA0004012340170000021
作为源点云,先验地图的目标点云
Figure BDA0004012340170000022
估计的实时姿态即对对源点云进行旋转和平移:
Figure BDA0004012340170000023
式中,
Figure BDA0004012340170000024
表示所求的位姿,R和t分别代表旋转和平移分量,s表示待求的六维参数,即
Figure BDA0004012340170000025
qi和qi′分别表示旋转与平移前后的源点云和;
S3,IMU预积分的高频初始猜测:采用IMU预积分为步骤S2中的地图匹配提供高频的初始猜测,将相邻两个激光雷达帧之间的IMU测量数据的积分转换到IMU坐标系下进行,实时计算相邻两时刻的速度、位置和旋转,为地图匹配提供高频的初始猜测;
S4,定位:结合步骤S2的地图匹配及步骤S3的初始参测结果,推断载体运动,实现位置定位。
作为本发明的一种改进,所述步骤S1中当载体运动至地图边缘时,地图更新并加载的方式为:
map_xmin-m≤x≤map_xmax+m
map_ymin-m≤y≤map_ymax+m
其中,x,y分别代表载体当前位置,map_xmin、map_xmax、map_ymin和map_ymax分别表示已加载地图的四个顶点位置,m是加载地图时,离地图边缘的距离。
作为本发明的一种改进,所述步骤S2中,将实时点云与先验地图进行关联的目标函数为:
Figure BDA0004012340170000031
其中,μ表示均值,∑表示协方差;
将实时点云与先验地图进行关联的残差函数为:
fi(p)=qi′-μ
其中,f(·)表示概率密度函数;
计算残差函数关于待求参数s的雅可比J(p),同时求解增量方程HΔxk=g,其中H=J(p)·J(p)T,g=-J(p)·f(p),便可迭代优化得到待求参数s,即平移和旋转分量。
作为本发明的另一种改进,所述步骤S3中,IMU利用其加速度计和陀螺仪测量自身的加速度和角速度以消除源点与目标点联合概率中潜在的局部最小值,具体如下:
Figure BDA0004012340170000032
Figure BDA0004012340170000033
其中,
Figure BDA0004012340170000034
Figure BDA0004012340170000035
为IMU在IMU坐标系下时刻t的角速度与加速度原始测量值;bt是bias;nt是白噪声;at和ωt是在bias和白噪声下的加速度和角速度;
Figure BDA0004012340170000036
为世界坐标系至IMU坐标系的转换矩阵;g是世界坐标系下的重力常量。
作为本发明的另一种改进,所述步骤S3中将相邻两个激光雷达帧之间的IMU测量数据的积分转换到IMU坐标系下进行,具体为:
Figure BDA0004012340170000037
Figure BDA0004012340170000041
Figure BDA0004012340170000042
其中,Δvij,Δpij和ΔRij分别为i时刻到j时刻之间的速度、位置和旋转。
与现有技术相比,本发明具有的有益效果:提出了一种基于先验地图的LiDAR/IMU融合定位方法,在全球定位系统缺失或其它外部定位设备失效的情况下提供绝对定位数据来源。首先,针对大场景点云地图无法在计算能力受限的平台上加载和运行的问题,将先验地图按照指定网格大小进行分块并初始化以减少资源消耗;接着,通过(NDT)算法实现激光雷达点云与先验地图的匹配定位,同时采用IMU预积分为地图匹配提供高频的初始猜测,进一步提高定位的精准性和稳定性。
附图说明
图1是本发明一种基于先验地图的LiDAR/IMU融合定位方法的步骤流程图;
图2是本发明方法步骤S1先验地图分块的步骤流程图;
图3是本发明实施例1中未分块地图与分块地图的对比示意图;
图4是本发明方法测试例中采用KITTI09计算耗时的对比图;
图5是本发明方法测试例中用于定位的先验地图及实验装置示意图;
图6是本发明方法测试例中序列5的计算耗时对比图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
实施例1
一种基于先验地图的LiDAR/IMU融合定位方法,如图1所示,具体步骤如下:
步骤S1,先验地图的分块:
该步骤的主要思路是去掉Z轴,仅对X、Y方向上的点云按照自定义的网格大小进行方形网格的划分。在定位时,当载体运动至地图边缘时,更新并加载地图,该方法可以大大减少内存消耗。其大致思路如附图2所示,首先根据当前位置判断载体是否处于地图边缘,若是,则加载并发布可用地图,与此同时继续采用NDT配准进行实时位姿的估计。
地图加载的条件如下式(1)所示:
Figure BDA0004012340170000054
其中,x,y分别代表载体当前位置,map_xmin、map_xmax、map_ymin和map_ymax分别表示已加载地图的四个顶点位置,m可由所分割的网格大小确定,是决定在离地图边缘多少距离下需要加载新地图的因素。
本实施例以图3中的场景为例,在校园周围采集了一张大型场景地图进行测试,其中上图为未分割的地图,下图为按照200m的网格大小分割后的地图。当地图未分割时,加载需要耗时4s左右,当地图进行分割后,加载耗时仅需要1.5s左右,计算耗时大约减少了60%左右。
步骤S2,基于NDT的激光雷达点云与分块地图匹配:
基于激光雷达的匹配定位的原理是将实时点云与先验地图进行关联,其采用NDT算法来实现上述关联并估计实时姿态。该步骤将激光雷达扫描到的实时点云作为源点云Q,将先验地图作为目标点云P,如式(2):
Figure BDA0004012340170000051
同时如式(3)所示将联合概率最大作为目标函数:
Figure BDA0004012340170000052
式中f(·)表示概率密度函数,
Figure BDA0004012340170000053
表示所要求解的六维参数
若被分割的栅格中包含五个及以上的点,则计算该栅格的均值和协方差,如式(4)和式(5)所示:
Figure BDA0004012340170000061
Figure BDA0004012340170000062
式中μ表示均值,∑表示协方差,pi表示栅格中的点,Np表示栅格中点的数量。
根据预测的位姿,对源点进行旋转和平移:
Figure BDA0004012340170000063
式中
Figure BDA0004012340170000064
表示雷达坐标系至世界坐标系的转换,即所求的位姿,R和t分别代表旋转和平移分量。
接着,旋转和平移后的源点与目标点集中的点在同一坐标系下(世界坐标系),此时可计算得到所有的点的联合概率:
Figure BDA0004012340170000065
再通过取对数、去除常数项等方式简化问题,得到最终的目标函数与残差函数:
Figure BDA0004012340170000066
fi(p)=qi′-μ (9)
最后,按照高斯牛顿法的流程,只需要计算残差函数关于待求参数的雅可比J(p),同时求解增量方程HΔxk=g,其中H=J(p)·J(p)T,g=-J(p)·f(p),便可迭代优化得到待求参数
Figure BDA0004012340170000067
即平移和旋转分量。
步骤S3,IMU预积分提供高频初始参测
当源点云和目标点云输入至算法后,NDT便会执行配准同时输出位姿估计,但NDT配准的性能很大程度上取决于姿态估计的初始猜测。与传统的激光雷达配准方案不同,该步骤采用IMU预积分提供高频的初始猜测,以消除式(7)中的潜在局部最小值。IMU利用其加速度计和陀螺仪测量自身的加速度和角速度,其测量值定义如下:
Figure BDA0004012340170000071
Figure BDA0004012340170000072
式中
Figure BDA0004012340170000073
Figure BDA0004012340170000074
为IMU在IMU坐标系下时刻t的角速度与加速度原始测量值。bt是bias,nt是白噪声。at和ωt是在bias和白噪声下的加速度和角速度。
Figure BDA0004012340170000075
为世界坐标系至IMU坐标系的转换矩阵。g是世界坐标系下的重力常量。
于是,利用IMU的测量值来推断载体的运动。载体在t+Δt时刻的速度、位置、旋转可以由下式(12)(13)(14)计算得到:
Figure BDA0004012340170000076
Figure BDA0004012340170000077
Figure BDA0004012340170000078
式中
Figure BDA0004012340170000079
这里假设角速度和加速度在上述积分过程中保持不变。
由于IMU的测量频率远大于激光雷达,若按照上述方法计算进行积分计算,Rt的值一旦进行改动,则需要重新计算旋转矩阵Rt+Δt,vt+Δt和pt+Δt也是同理,因此,在激光雷达每两帧之间计算式(12)-(14)会导致算法耗时大幅增加,导致系统无法实时运行。
IMU预积分的处理方式能够很好地避免重复计算积分的问题,它将相邻两个激光雷达帧之间的IMU测量数据的积分转换到IMU坐标系下进行,其原理如下所示:
Figure BDA00040123401700000710
Figure BDA00040123401700000711
Figure BDA0004012340170000081
Δvij,Δpij和ΔRij分别为i时刻到j时刻之间的速度、位置和旋转。
步骤S4,结合步骤S2的地图匹配及步骤S3的初始参测结果,推断载体运动,至此,完成位置定位。
测试例
根据公共数据集和自采数据集对本发明的技术方案进行测试和量化评估,利用KITTI数据集中较有代表性的05,07和09三个序列进行定位精度的评估。其中05序列为大型小镇场景;07序列为小规模的小镇场景,路测特征丰富,可以较好实现NDT配准;09序列为环形轨迹,结合了小镇环境与开阔场景,其中开阔场景易对NDT配准带来挑战。实验结果如下所示:
表1.KITTI数据集实验结果对比
Figure BDA0004012340170000082
如上表所示,指标栏目中左侧为定位精度,右侧为有效位姿点的个数。本发明提出的方法相较于传统NDT方法在三个序列上的定位精度均有提升,分别为2.86%,6.83%和4.98%。同时,该方案在定位有效点个数上也有少量增加。
进一步,以KITTI09序列为例,进行算法的运行速度测试,结果如图4所示。图中的Y轴为NDT进行一次配准的耗时,X轴为配准得到的该序列位姿数量。圈状点为传统NDT算法的耗时,而叉状点为本文所提方法的耗时,很容易从图中看出,本文所提方法每次配准耗时明显低于传统NDT算法,计算得到,传统NDT配准平均每次耗时24.2ms,本文所提方法平均每次耗时17.1ms,提升了29.3%。
接着采用Velodyne-16 LiDAR和一套组合导航设备进行数据的采集,并借助回环检测构建厘米级精度的先验地图。如附图5所示,a和b分别是生成的先验地图及其轨迹,c是采集数据的实验设备。本实验在地图1所在场景和地图2所在场景以不同车速且在不同时段下分别采集了三组数据,用来分析算法的性能。其中序列1-3为地图1场景的数据,序列4-6为地图2场景的数据。实验结果如下:
表2.自采数据集实验结果对比
Figure BDA0004012340170000091
观察实验结果可以发现,在不同车速且不同时段下,相较于传统NDT,本发明提出的方法在各个序列上的定位精度均得到了不同程度的提升。以序列5为例,进行算法的运行速度测试,结果如附图6所示,与KITTI09序列的测试结果相同,本发明所提方法每次配准耗时明显低于传统NDT算法,计算得到,传统NDT配准平均每次耗时53.4ms,本文所提方法平均每次耗时44.9s,提升了15.9%。由于该序列的环境结构特征较为丰富,因此相对于KITTI09序列来说,NDT的配准时间会相应增加。
综上,本发明方法针对大场景点云地图无法在计算能力受限的平台上加载和运行的问题,将先验地图按照指定网格大小进行分块并初始化以减少资源消耗;然后,通过(NDT)算法实现激光雷达点云与先验地图的匹配定位,同时采用IMU预积分为地图匹配提供高频的初始猜测,进一步提高定位的精准性和稳定性,相较于传统NDT定位方法,性能和精度上大大提高。
需要说明的是,以上内容仅仅说明了本发明的技术思想,不能以此限定本发明的保护范围,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰均落入本发明权利要求书的保护范围之内。

Claims (5)

1.一种基于先验地图的LiDAR/IMU融合定位方法,其特征在于,包括以下步骤:
S1,先验地图分块:将先验地图中的Z轴坐标去掉,仅对X、Y轴方向上的点云按照自定义的网格大小进行方形网格的划分,在定位时,当载体运动至地图边缘时,对地图进行更新加载;
S2,基于NDT的激光雷达点云与分块地图匹配:将激光雷达扫描到的实时点云经过降采样与体素滤波过后,通过NDT配准与经过步骤S1分块后的先验地图进行关联,并估计实时姿态;激光雷达扫描到的实时点云
Figure FDA0004012340160000011
作为源点云,先验地图的目标点云
Figure FDA0004012340160000012
估计的实时姿态即对源点云进行旋转和平移:
Figure FDA0004012340160000013
式中,
Figure FDA0004012340160000014
表示所求的位姿,R和t分别代表旋转和平移分量,s表示待求的六维参数,即
Figure FDA0004012340160000015
qi和qi′分别表示旋转与平移前后的源点云和;
S3,IMU预积分的高频初始猜测:采用IMU预积分为步骤S2中的地图匹配提供高频的初始猜测,将相邻两个激光雷达帧之间的IMU测量数据的积分转换到IMU坐标系下进行,实时计算相邻两时刻的速度、位置和旋转,为地图匹配提供高频的初始猜测;
S4,定位:结合步骤S2的地图匹配及步骤S3的初始参测结果,推断载体运动,实现位置定位。
2.如权利要求1所述的一种基于先验地图的LiDAR/IMU融合定位方法,其特征在于:所述步骤S1中当载体运动至地图边缘时,地图更新并加载的方式为:
map_xmin-m≤c≤map_xmax+m
map_ymin-m≤y≤map_ymax+m
其中,x,y分别代表载体当前位置,map_xmin、map_xmax、map_ymin和map_ymax分别表示已加载地图的四个顶点位置,m是加载地图时,离地图边缘的距离。
3.如权利要求2所述一种基于先验地图的LiDAR/IMU融合定位方法,其特征在于:所述步骤S2中,将实时点云与先验地图进行关联的目标函数为:
Figure FDA0004012340160000021
其中,μ表示均值,∑表示协方差;
将实时点云与先验地图进行关联的残差函数为:
fi(p)=qi′-μ
其中,f(·)表示概率密度函数;
计算残差函数关于待求参数s的雅可比J(p),同时求解增量方程HΔxk=g,其中H=J(p)·J(p)T,g=-J(p)·f(p),便可迭代优化得到待求参数s,即平移和旋转分量。
4.如权利要求2或3所述一种基于先验地图的LiDAR/IMU融合定位方法,其特征在于:所述步骤S3中,IMU利用其加速度计和陀螺仪测量自身的加速度和角速度以消除源点与目标点联合概率中潜在的局部最小值,具体如下:
Figure FDA0004012340160000022
Figure FDA0004012340160000023
其中,
Figure FDA0004012340160000024
Figure FDA0004012340160000025
为IMU在IMU坐标系下时刻t的角速度与加速度原始测量值;bt是bias;nt是白噪声;at和ωt是在bias和白噪声下的加速度和角速度;
Figure FDA0004012340160000026
为世界坐标系至IMU坐标系的转换矩阵;g是世界坐标系下的重力常量。
5.如权利要求4所述一种基于先验地图的LiDAR/IMU融合定位方法,其特征在于:所述步骤S3中将相邻两个激光雷达帧之间的IMU测量数据的积分转换到IMU坐标系下进行,具体为:
Figure FDA0004012340160000027
Figure FDA0004012340160000028
Figure FDA0004012340160000029
其中,Δvij,Δpij和ΔRij分别为i时刻到j时刻之间的速度、位置和旋转。
CN202211655028.XA 2022-12-22 2022-12-22 一种基于先验地图的LiDAR/IMU融合定位方法 Pending CN116124161A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211655028.XA CN116124161A (zh) 2022-12-22 2022-12-22 一种基于先验地图的LiDAR/IMU融合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211655028.XA CN116124161A (zh) 2022-12-22 2022-12-22 一种基于先验地图的LiDAR/IMU融合定位方法

Publications (1)

Publication Number Publication Date
CN116124161A true CN116124161A (zh) 2023-05-16

Family

ID=86303699

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211655028.XA Pending CN116124161A (zh) 2022-12-22 2022-12-22 一种基于先验地图的LiDAR/IMU融合定位方法

Country Status (1)

Country Link
CN (1) CN116124161A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116518992A (zh) * 2023-04-14 2023-08-01 之江实验室 一种退化场景下的无人车定位方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116518992A (zh) * 2023-04-14 2023-08-01 之江实验室 一种退化场景下的无人车定位方法和装置

Similar Documents

Publication Publication Date Title
CN112347840B (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
Li et al. Multi-sensor fusion for navigation and mapping in autonomous vehicles: Accurate localization in urban environments
CN112268559B (zh) 复杂环境下融合slam技术的移动测量方法
CN110412635B (zh) 一种环境信标支持下的gnss/sins/视觉紧组合方法
CN105760811B (zh) 全局地图闭环匹配方法及装置
CN112639502A (zh) 机器人位姿估计
CN110849374A (zh) 地下环境定位方法、装置、设备及存储介质
CN111402339B (zh) 一种实时定位方法、装置、系统及存储介质
JP2019518222A (ja) リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
CN109522832B (zh) 基于点云片段匹配约束和轨迹漂移优化的回环检测方法
CN112987065B (zh) 一种融合多传感器的手持式slam装置及其控制方法
US10288425B2 (en) Generation of map data
CN114001733B (zh) 一种基于地图的一致性高效视觉惯性定位算法
CN110081881A (zh) 一种基于无人机多传感器信息融合技术的着舰引导方法
WO2021021862A1 (en) Mapping and localization system for autonomous vehicles
CN113674412B (zh) 基于位姿融合优化的室内地图构建方法、系统及存储介质
Dill et al. Seamless indoor-outdoor navigation for unmanned multi-sensor aerial platforms
CN110412596A (zh) 一种基于图像信息和激光点云的机器人定位方法
CN115540850A (zh) 一种激光雷达与加速度传感器结合的无人车建图方法
CN116124161A (zh) 一种基于先验地图的LiDAR/IMU融合定位方法
CN112797985A (zh) 基于加权扩展卡尔曼滤波的室内定位方法及室内定位系统
Srinara et al. Performance analysis of 3D NDT scan matching for autonomous vehicles using INS/GNSS/3D LiDAR-SLAM integration scheme
CN113959437A (zh) 一种用于移动测量设备的测量方法及系统
Forno et al. Techniques for improving localization applications running on low-cost IoT devices
CN113554705B (zh) 一种变化场景下的激光雷达鲁棒定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination