CN114353799A - 搭载多线激光雷达的无人驾驶平台室内快速全局定位方法 - Google Patents
搭载多线激光雷达的无人驾驶平台室内快速全局定位方法 Download PDFInfo
- Publication number
- CN114353799A CN114353799A CN202111644910.XA CN202111644910A CN114353799A CN 114353799 A CN114353799 A CN 114353799A CN 202111644910 A CN202111644910 A CN 202111644910A CN 114353799 A CN114353799 A CN 114353799A
- Authority
- CN
- China
- Prior art keywords
- point
- map
- template
- vector
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提出了一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,属于测绘遥感和无人驾驶技术领域,用于解决室内机器人全局定位中存在的速度较慢、成功率较低、稳定性差、定位成本高等问题,包括:基于激光里程计算法拼接无人驾驶场景全局参考点云地图,生成候选通行点,以模拟移动平台在地图中可能出现的位置;遍历所有候选通行点处,朝向不同角度时所采集的格网模板向量,构建地图大规模特征矩阵,并构建基于单侧杰卡德距离的KD树,在KD树中搜索出最佳匹配的格网模板向量,根据对应的索引计算移动平台的位置和朝向,实现移动平台的快速定位。本方法定位速度快,为无人驾驶、机器人导航定位提供一种快速有效的定位方案。
Description
技术领域
本发明属于测绘遥感和无人驾驶技术领域,具体涉及一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法。
背景技术
随着人工智能领域不断革新,无人驾驶以及机器人技术已逐渐进入物流配送、共享出行、矿山开采、环卫清洁、公共交通等众多领域,为降低作业成本,推动新一代产业智能化提供技术支持。作为移动机器人的核心模块之一,准确的导航定位,可为机器人完成特定任务提供基础保障。全局定位是机器人在无其他先验知识的情况下,通过传感器感知某些信息进而确定自身位姿。快速、准确的全局定位可有效解决机器人的位置初始化、绑架丢失等问题。此外,适当的采用全局定位也有助于减少由于长时间运行造成的位姿漂移等问题。
目前,基于视觉传感器的定位方案中,以词袋(BOW,Bag of Words)模型为代表,通过构建字典与特征匹配相结合的方式,实现实时数据与地图数据关联,求解位姿进而实现定位。但是视觉传感器的量测范围较小、易受光照影响,在实际工作中难以保证准确性,易造成安全隐患,实际应用较为受限。基于外源信息的方案中,以人工架设视觉标志为代表,易在信号中断或视觉遮挡时无法工作,其定位不稳定性同样会增加产品的安全隐患。在无卫星信号的复杂室内环境下,由于WiFi信号的传输范围问题,对机器人的定位辅助效果不佳。而多线激光雷达(LiDAR,Light Detection and Ranging),量测范围远,不受光照影响,十分有利于机器人产品的落地。但基于LiDAR的全局定位方案中,目前切实可行的方案较少,常用策略是借助传统的点云配准方法,根据实时数据与已建立的稠密参考点云地图进行联合匹配求解。但由于地图点云的数据海量,使得定位效率较低,同时传统的迭代最近点(ICP,Iterative Closest Point)类配准方法对于数据的初值过于依赖,有时无法取得良好结果。
为此,本发明提出了一种仅搭载多线激光雷达的无人驾驶平台室内快速全局定位方法。所提出的方法克服了传统方法中位姿计算时依赖初值的问题,可在大范围室内场景下应用。由于激光传感器不受光照变化影响,相比视觉方案更加稳定。同时不需要任何外源辅助信息,可有效降低机器人产品成本。此外,该方法定位速度极快,可快速求解机器人全局位姿,有利于提高机器人各模块的协作效率。在提高定位效率的同时,可有效减少机器人绑架现象的出现,提高机器人产品的安全性能。
发明内容
本发明为解决室内机器人全局定位中存在的速度较慢、成功率较低、稳定性差、定位成本高等问题。提出一种在移动平台上搭载一台多线激光雷达,基于格网模板匹配的室内快速全局定位方法。首先,预先在无人驾驶场景环绕采集数据,拼接、处理全局参考点云地图。然后,在全局地图范围内,通过候选通行点近似预测移动平台在地图中可能出现的位置,并通过在不同角度下的邻域格网模板描述近似估计移动平台的朝向。其次,在全局范围内构建大规模特征矩阵,并提出构建基于单侧杰卡德距离(Jaccard Distance)的KD树。最后,用实时点云生成的格网模板向量在KD树中搜索出最佳匹配的特征模板向量,确定激光雷达在地图中的位置和朝向,实现移动平台的快速定位。
为实现上述目的,本发明所设计的搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,主要包括以下步骤:
步骤1,针对多帧离线LiDAR点云,基于激光里程计算法拼接无人驾驶场景全局参考点云地图;
步骤2,在全局参考点云地图范围内基于等间距采样生成候选通行点,以模拟移动平台在地图中可能出现的位置;
步骤3,遍历全局参考点云地图所有候选通行点处,朝向不同角度时所采集的格网模板向量,构建地图大规模特征矩阵;
步骤4,结合地图大规模特征矩阵,构建基于单侧杰卡德距离的KD树,并离线保存空间索引结构;
步骤5,结合实时点云生成的格网模板信息,在KD树中搜索出最佳匹配的格网模板向量,根据对应的索引计算移动平台的位置和朝向。
进一步的,步骤1的具体实现包括如下子步骤;
步骤1.1,采用激光里程计算法LOAM(Lidar Odometry and Mapping in Real-time)计算出各帧点云之间的相对位姿,选取关键帧,并利用相对位姿将关键帧点云转换至同一坐标系下拼接全局参考点云地图,其中LOAM通过最小化特征点总距离来计算点云间相对位姿,特征点总距离包括(a)点到线距离:
(b)点到面距离:
式中p,q和m特征点构成的平面为i点所对应的平面段。
步骤1.2,结合平台预估高度信息滤除地面、棚顶两类主要干扰因素,以保留场景中鲁棒的构筑物,其中滤波公式如下:
进一步的,步骤2的具体实现包括如下子步骤;
步骤2.2,利用包围盒在XOY面的坐标极值信息,通过固定间距生成采样点作为候选通行点,采样点计算公式如下:
步骤2.3,利用点云处理软件的快速拓扑裁剪功能,剔除部分明显不合理的候选通行点。
进一步的,步骤3的具体实现方式如下;
步骤3.1,遍历所有地图候选通行点,在每一点处:以当前点为中心,分别将地图旋转不同角度θ,角度计算方式如下:
θ=κα,κ∈N+,θ∈(0,2π] (5)
式中α为角度分辨率;
步骤3.2,在旋转角度θ下,生成以当前通行点为中心的nt行nt列的方形格网模板,作为模拟移动平台在该通行点位置处朝向为θ角度时的邻域信息描述;格网模板计算方式如下:
步骤3.3,将每一个候选通行点每一朝向对应的格网模板,转为1行nt×nt列的向量,并将所有向量组成一个地图大规模特征矩阵。
进一步的,步骤4的具体实现方式如下;
步骤4.1,为描述实时采集的LiDAR点云和地图候选通行点某朝向下的两格网模板向量的相似性,同时在计算相似性时,更多关注地物信息,提出单侧杰卡德距离描述两向量A、B的相似性,向量A即为实时数据,向量B即为地图数据,具体计算方式为:
式中,向量A为实时LiDAR点云格网模板向量,向量B为地图候选通行点格网模板向量,A、B为两个一维向量,向量中存在地物点时,该位置元素值为1,不存在地物点时,该位置元素值为0,n(0,0),n(0,1),n(1,0)和n(1,1)分别为两向量A、B中分别为(0,0),(0,1),(1,0)和(1,1)的元素数量;
步骤4.2,在对实时点云生成的格网模板向量搜索时,各元素分布已确定,进一步简化单侧杰卡德距离为n(1,0)+n(0,1)+n(0,0),并以此作为距离函数在地图大规模特征矩阵中构建KD树。
进一步的,步骤5的具体实现方式如下;
步骤5.1,在实时定位时,对于传入系统的原始LiDAR点云数据,结合平台预估高度信息,对实时LiDAR点云进行直通滤波,滤除棚顶和地面两类干扰地物,并计算出其邻域格网模板向量;
步骤5.2,在KD树中采用KNN搜索出最佳匹配的候选通行点和朝向对应的模板特征向量;
步骤5.3,算法判断当前定位是否有效,通过式(8)计算当前匹定位分数ψ,设定评分阈值,若ψ大于预先设定阈值,则认为全局定位成功;此时将最佳匹配的模板特征向量对应的通行点作为移动平台的位置,对应的角度则为移动平台的朝向,否则全局定位失败;
其中n(1,0)和n(1,1)分别为模板向量A元素为1模板向量B为0的元素数量,以及模板向量A、B元素同为1的元素数量,模板向量A为实时LiDAR点云格网模板向量,模板向量B为地图候选通行点格网模板向量,模板向量中存在地物点时,该位置元素值为1,其余位置为0。
进一步的,步骤1.1中激光雷达坐标系正方向朝向为:X轴为平台前进方向,Y轴为前进方向左侧,Z轴为竖直向上。
进一步的,步骤3.1中角度分辨率取3度。
进一步的,步骤5中采用KNN(K Nearest Neighbor)搜索出最佳匹配的模板向量。
1)本发明解决了无人驾驶、机器人定位导航的核心模块,即全局定位。本发明提出了基于格网模板匹配的方法在全局地图内快速确定了搭载多线激光雷达移动平台的位置和朝向,克服了无人驾驶和机器人导航定位领域全局定位困难的问题。
2)本发明无需依赖其他外源辅助设备,仅需在移动平台上架设一台多线激光雷达,即可实现全局定位,降低了无人驾驶系统的成本,大幅提升了该发明方法的适用性。
3)本发明原理简单,定位速度极快,可在大范围室内场景下实现毫秒级定位,极大地提高了定位效率,为无人驾驶、机器人系统提供了一种有效的定位方案。鉴于较快的定位速度,可以有效解决实际运行过程中,由于部分不可抗力的因素导致的机器人绑架等问题,提高无人驾驶系统的安全性。
采用本发明可更加快速、准确地实现无人驾驶车辆、移动机器人等运动平台的快速全局定位,单次定位耗时约5ms,且无需依赖其他外源信息,在降低无人系统成本的同时,极大地提高了无人驾驶、机器人导航定位领域的定位效率。同时快速的全局定位可以有效解决实时运行过程中出现的绑架丢失等问题,进一步保证了无人驾驶的安全性。因此,本发明方法对于无人驾驶、和机器人等领域具有重大意义,进一步加速了无人驾驶产业商业化进程
附图说明
图1为本发明的流程图。
图2为本发明中全局地图候选通行点提取结果。
图3为本发明中邻域格网模板示意图。
图4为地图大规模特征矩阵示意图。
图5为本发明中的定位结果示意图。
具体实施方式
实施1,如图1所示,一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,主要包括以下步骤:
步骤1,针对多帧离线LiDAR点云,基于激光里程计拼接无人驾驶场景全局参考点云地图。
首先,在特定无人驾驶场景下环绕采集数据,以便于充分记录场景环境信息。采用激光里程计算法LOAM,计算出各点云之间的相对位姿,每间隔10帧选取1次关键帧,根据相对位姿将各关键帧点云转换至同一坐标系下拼接成全局参考点云地图;
然后,通过估计激光雷达中心距地面的高度、以及激光雷达距离棚顶距离,设置两个高度阈值,保留Z坐标在两阈值范围内的点云(实验设置激光雷达坐标系正方向朝向为:X轴为平台前进方向,Y轴为前进方向左侧,Z轴为竖直向上。其中,地面高度阈值为负)。
本实施例中,步骤1的具体实现方式如下:
步骤1.1,采用激光里程计算法LOAM(Lidar Odometry and Mapping in Real-time)计算出各帧点云之间的相对位姿,选取关键帧点云,并利用相对位姿将其转换至同一坐标系下拼接为参考点云地图。其中LOAM通过最小化特征点总距离来计算各帧点云间相对位姿,特征点总距离包括(a)点到线距离:
(b)点到面距离:
式中p,q和m特征点构成的平面为i点所对应的平面段。
步骤1.2,结合平台预估高度信息滤除全局参考点云地图中地面、棚顶两类主要干扰因素,以保留场景中鲁棒的构筑物信息。其中滤波公式如下:
步骤2,在全局参考点云地图范围内部生成候选通行点,通过大量的通行点模拟移动平台在地图中可能出现的位置。
首先,计算全局参考点云地图的最小包围盒,确定其在X、Y、Z三个方向的坐标最大值和最小值信息。
然后,利用X和Y方向的坐标最值,设置固定距离长度,分别在X和Y方向固定距离采样生成采样点,作为全局候选通行点,如图2中场景内部空旷区域产生的点。
最后,利用点云处理软件的快速拓扑裁剪功能,在通行点与全局地图点云叠加显示的目视效果下,快速拓扑裁剪部分明显不合理的候选通行点。
本实施例中,步骤2的具体实现方式如下:
步骤2.2,利用包围盒在XOY面的坐标极值信息,通过固定间距生成采样点作为候选通行点。采样点计算公式如下:
步骤2.3,利用点云处理软件的快速拓扑裁剪功能,剔除部分明显不合理的候选通行点。
步骤3,模拟移动平台在地图各候选通行点处,朝向不同角度时所采集的格网模板向量,构建地图大规模特征矩阵。
首先,遍历地图所有候选通行点,在每一个候选点处,以当前候选点为旋转中心,角度分辨率取值3度,依次递增角度旋转地图点云。
然后,在每一个旋转角度下,生成图3所示的40行40列的二维格网模板,如果格网范围内存在地物点云时格网值为1,否则为0。
最后,将所有候选通行点处每一个旋转角度下的二进制二维格网模板,分解为如图4中的1行1600列的一维模板向量,将所有候选点处对应所有角度下的模板向量,组合成如图4中的ncp×120行1600列的大规模特征矩阵,其中ncp为候选通行点数量。
本实施例中,步骤3的具体实现方式如下:
步骤3.1,遍历所有地图候选通行点,在每一点处:以当前点为中心,分别将地图旋转不同角度θ,角度计算方式如下:
θ=κα,κ∈N+,θ∈(0,2π] (5)
式中α为角度分辨率。
步骤3.2,在旋转角度θ下,生成以当前候选通行点为中心的nt行nt列的方形格网模板,作为模拟移动平台在该通行点位置处朝向为θ角度时的邻域信息描述。格网模板计算方式如下:
步骤3.3,将每一个候选通行点每一朝向对应的格网模板,转为1行nt×nt列的一维向量,并将所有候选通行点所有朝向的模板向量,组成一个地图大规模特征矩阵。
步骤4,针对全局候选点生成的地图大规模特征矩阵,利用所提出的单侧杰卡德距离,构建KD树并离线保存空间索引结构,以提高实时运行中,利用单帧点云数据进行全局定位时的搜索速度。
首先,根据上述单侧杰卡德距离和地图大规模特征矩阵,将构建的KD树空间索引离线保存。
然后,在开启全局定位模块时,只需加载索引文件即可,无须重新构建KD树。在全局定位中,地图数据的处理为离线单独处理,在进行实时定位时,只需使用地图数据处理后的结果。当无人驾驶场景发生较大变化,需更新场景地图时,重复上述地图处理流程一次即可,否则无须重复处理地图操作,以提高全局定位效率。
本实施例中,步骤4的具体实现方式如下;
步骤4.1,为描述实时采集的LiDAR点云和地图候选通行点某朝向下的两格网模板向量的相似性。同时在计算相似性时,更多关注地物信息(模板向量中存在地物点时,该位置元素值为1),该发明提出了单侧杰卡德距离描述两向量A(实时数据)、B(地图数据)的相似性,其计算方式为:
式中,向量A为实时LiDAR点云格网模板向量,向量B为地图候选通行点格网模板向量,A、B为两个一维向量,向量中存在地物点时,该位置元素值为1,不存在地物点时,该位置元素值为0,n(0,0),n(0,1),n(1,0)和n(1,1)分别为两向量A、B中分别为(0,0),(0,1),(1,0)和(1,1)的元素数量;
步骤4.2,在对实时LiDAR点云生成的格网模板向量搜索时,各元素分布已确定,因此可进一步简化单侧杰卡德距离为n(1,0)+n(0,1)+n(0,0),并以此作为距离函数在地图大规模特征矩阵中构建KD树。
步骤5,利用实时单点云生成的格网模板信息,采用KNN搜索策略在构建的KD树中搜索出最佳匹配的模板向量,进一步计算出移动平台的位置和朝向。
首先,为避免数据差异较大影响匹配效果,应尽可能使用与地图处理时所使用的两个高度阈值相近的阈值,对实时传入定位系统的LiDAR点云进行滤波,生成图3的格网模板,并降维成图4中的一维模板特征向量。
然后,在预先全局地图中构建的KD树中采用KNN搜索出最佳匹配的特征向量,并按照对应的索引,计算出移动平台的位置和朝向。
最后,计算当前定位匹配分数ψ,并预先设定评分阈值为0.7,若ψ大于0.7则认为全局定位成功;此时将最佳匹配的特征向量对应的通行点作为移动平台的位置,对应的角度则为移动平台的朝向,否则全局定位失败;定位效果如图5所示,图中W点为真值点,Q点为本发明方法定位结果。
本实施例中,步骤5的具体实现方式如下;
步骤5.1,在实时定位时,对于传入系统的原始LiDAR点云数据。结合平台预估高度信息,对实时LiDAR点云进行直通滤波,滤除棚顶和地面等干扰地物,并计算出其邻域格网模板向量。
步骤5.2,在KD树中采用KNN搜索出最佳匹配的候选通行点和朝向对应的模板特征向量。
步骤5.3,算法判断当前定位是否有效,通过式(8)计算当前匹定位分数ψ,设定评分阈值,若ψ大于预先设定阈值,则认为全局定位成功。此时将最佳匹配的模板向量对应的通行点作为移动平台的位置,对应的角度则为移动平台的朝向。否则全局定位失败。
其中n(1,0)和n(1,1)分别为模板向量A元素为1模板向量B为0的元素数量,以及模板向量A、B元素同为1的元素数量,模板向量A为实时LiDAR点云格网模板向量,模板向量B为地图候选通行点格网模板向量,模板向量中存在地物点时,该位置元素值为1,其余位置为0。
选取室内大厅(场景1)、走廊(场景2)和大厅走廊混合场景(场景3)各548帧、4529帧、1103帧16线雷达点云测试定位性能。实验结果如表1所示。表1中tx为X方向误差,ty为Y方向误差,td(m)为距离误差。在平均面积约800平方米的室内场景,全局定位成功率达到91%以上,平均位置误差约0.2m,实时定位耗时约5ms,定位速度非常快,其定位速度超过目前绝大部分自主定位方案,可为无人驾驶、机器人导航定位提供一个有效、可靠的定位解决方案。
表1全局定位算法在不同场景下测试性能
以上所述仅为本发明的优选实施例而已,并不用以限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,其特征在于,包括以下步骤:
步骤1,针对多帧离线LiDAR点云,基于激光里程计算法拼接无人驾驶场景全局参考点云地图;
步骤2,在全局参考点云地图范围内基于等间距采样生成候选通行点,以模拟移动平台在地图中可能出现的位置;
步骤3,遍历全局参考点云地图所有候选通行点处,朝向不同角度时所采集的格网模板向量,构建地图大规模特征矩阵;
步骤4,结合地图大规模特征矩阵,构建基于单侧杰卡德距离的KD树,并离线保存空间索引结构;
步骤5,结合实时点云生成的格网模板信息,在KD树中搜索出最佳匹配的格网模板向量,根据对应的索引计算移动平台的位置和朝向。
2.根据权利要求1所述的一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,其特征在于:步骤1的具体实现包括如下子步骤;
步骤1.1,采用激光里程计算法LOAM(Lidar Odometry and Mapping in Real-time)计算出各帧点云之间的相对位姿,选取关键帧,并利用相对位姿将关键帧点云转换至同一坐标系下拼接全局参考点云地图,其中LOAM通过最小化特征点总距离来计算点云间相对位姿,特征点总距离包括(a)点到线距离:
(b)点到面距离:
式中p,q和m特征点构成的平面为i点所对应的平面段;
步骤1.2,结合平台预估高度信息滤除地面、棚顶两类主要干扰因素,以保留场景中鲁棒的构筑物,其中滤波公式如下:
3.根据权利要求1所述的一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,其特征在于:步骤2的具体实现包括如下子步骤;
步骤2.2,利用包围盒在XOY面的坐标极值信息,通过固定间距生成采样点作为候选通行点,采样点计算公式如下:
步骤2.3,利用点云处理软件的快速拓扑裁剪功能,剔除部分明显不合理的候选通行点。
4.根据权利要求1所述的一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,其特征在于:步骤3的具体实现方式如下;
步骤3.1,遍历所有候选通行点,在每一点处:以当前点为中心,分别将地图旋转不同角度θ,角度计算方式如下:
θ=κα,κ∈N+,θ∈(0,2π] (5)
式中α为角度分辨率;
步骤3.2,在旋转角度θ下,生成以当前通行点为中心的nt行nt列的方形格网模板,作为模拟移动平台在该通行点位置处朝向为θ角度时的邻域信息描述;格网模板计算方式如下:
步骤3.3,将每一个候选通行点每一朝向对应的格网模板,转为1行nt×nt列的向量,并将所有向量组成一个地图大规模特征矩阵。
5.根据权利要求1所述的一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,其特征在于:步骤4的具体实现方式如下;
步骤4.1,为描述实时采集的LiDAR点云和地图候选通行点某朝向下的两格网模板向量的相似性,同时在计算相似性时,更多关注地物信息,提出单侧杰卡德距离描述两向量A、B的相似性,具体计算方式为:
式中,向量A为实时LiDAR点云格网模板向量,向量B为地图候选通行点格网模板向量,A、B为两个一维向量,向量中存在地物点时,该位置元素值为1,不存在地物点时,该位置元素值为0,n(0,0),n(0,1),n(1,0)和n(1,1)分别为两向量A、B中分别为(0,0),(0,1),(1,0)和(1,1)的元素数量;
步骤4.2,在对实时点云生成的格网模板向量搜索时,各元素分布已确定,进一步简化单侧杰卡德距离为n(1,0)+n(0,1)+n(0,0),并以此作为距离函数在地图大规模特征矩阵中构建KD树。
6.根据权利要求1所述的一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,其特征在于:步骤5的具体实现方式如下;
步骤5.1,在实时定位时,对于传入系统的原始LiDAR点云数据,结合平台预估高度信息,对实时LiDAR点云进行直通滤波,滤除棚顶和地面两类干扰地物,并计算出其邻域格网模板向量;
步骤5.2,在KD树中采用KNN搜索出最佳匹配的候选通行点和朝向对应的模板特征向量;
步骤5.3,算法判断当前定位是否有效,通过式(8)计算当前匹定位分数ψ,设定评分阈值,若ψ大于预先设定阈值,则认为全局定位成功;此时将最佳匹配的模板特征向量对应的通行点作为移动平台的位置,对应的角度则为移动平台的朝向,否则全局定位失败;
其中n(1,0)和n(1,1)分别为模板向量A元素为1模板向量B为0的元素数量,以及模板向量A、B元素同为1的元素数量,模板向量A为实时LiDAR点云格网模板向量,模板向量B为地图候选通行点格网模板向量,模板向量中存在地物点时,该位置元素值为1,其余位置为0。
7.根据权利要求2所述的一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,其特征在于:步骤1.1中激光雷达坐标系正方向朝向为:X轴为平台前进方向,Y轴为前进方向左侧,Z轴为竖直向上。
8.根据权利要求2所述的一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,其特征在于:步骤3.1中角度分辨率取3度。
9.根据权利要求2所述的一种搭载多线激光雷达的无人驾驶平台室内快速全局定位方法,其特征在于:步骤5中采用KNN(K Nearest Neighbor)搜索出最佳匹配的模板向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111644910.XA CN114353799B (zh) | 2021-12-30 | 2021-12-30 | 搭载多线激光雷达的无人驾驶平台室内快速全局定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111644910.XA CN114353799B (zh) | 2021-12-30 | 2021-12-30 | 搭载多线激光雷达的无人驾驶平台室内快速全局定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114353799A true CN114353799A (zh) | 2022-04-15 |
CN114353799B CN114353799B (zh) | 2023-09-05 |
Family
ID=81103687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111644910.XA Active CN114353799B (zh) | 2021-12-30 | 2021-12-30 | 搭载多线激光雷达的无人驾驶平台室内快速全局定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114353799B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115170630A (zh) * | 2022-06-30 | 2022-10-11 | 小米汽车科技有限公司 | 地图生成方法、装置、电子设备、车辆和存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180075643A1 (en) * | 2015-04-10 | 2018-03-15 | The European Atomic Energy Community (Euratom), Represented By The European Commission | Method and device for real-time mapping and localization |
US20190080203A1 (en) * | 2017-09-11 | 2019-03-14 | Baidu Online Network Technology (Beijing) Co, Ltd | Method And Apparatus For Outputting Information |
CN110414396A (zh) * | 2019-07-19 | 2019-11-05 | 中国人民解放军海军工程大学 | 一种基于深度学习的无人艇感知融合算法 |
CN110967020A (zh) * | 2019-11-29 | 2020-04-07 | 畅加风行(苏州)智能科技有限公司 | 一种面向港口自动驾驶的同时制图与定位 |
CN111522043A (zh) * | 2020-04-30 | 2020-08-11 | 北京联合大学 | 一种无人车激光雷达快速重新匹配定位方法 |
CN111707272A (zh) * | 2020-06-28 | 2020-09-25 | 湖南大学 | 一种地下车库自动驾驶激光定位系统 |
CN112256589A (zh) * | 2020-11-11 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 一种仿真模型的训练方法、点云数据的生成方法及装置 |
CN112347840A (zh) * | 2020-08-25 | 2021-02-09 | 天津大学 | 视觉传感器激光雷达融合无人机定位与建图装置和方法 |
CN113269837A (zh) * | 2021-04-27 | 2021-08-17 | 西安交通大学 | 一种适用于复杂三维环境的定位导航方法 |
-
2021
- 2021-12-30 CN CN202111644910.XA patent/CN114353799B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180075643A1 (en) * | 2015-04-10 | 2018-03-15 | The European Atomic Energy Community (Euratom), Represented By The European Commission | Method and device for real-time mapping and localization |
US20190080203A1 (en) * | 2017-09-11 | 2019-03-14 | Baidu Online Network Technology (Beijing) Co, Ltd | Method And Apparatus For Outputting Information |
CN110414396A (zh) * | 2019-07-19 | 2019-11-05 | 中国人民解放军海军工程大学 | 一种基于深度学习的无人艇感知融合算法 |
CN110967020A (zh) * | 2019-11-29 | 2020-04-07 | 畅加风行(苏州)智能科技有限公司 | 一种面向港口自动驾驶的同时制图与定位 |
CN111522043A (zh) * | 2020-04-30 | 2020-08-11 | 北京联合大学 | 一种无人车激光雷达快速重新匹配定位方法 |
CN111707272A (zh) * | 2020-06-28 | 2020-09-25 | 湖南大学 | 一种地下车库自动驾驶激光定位系统 |
CN112347840A (zh) * | 2020-08-25 | 2021-02-09 | 天津大学 | 视觉传感器激光雷达融合无人机定位与建图装置和方法 |
CN112256589A (zh) * | 2020-11-11 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 一种仿真模型的训练方法、点云数据的生成方法及装置 |
CN113269837A (zh) * | 2021-04-27 | 2021-08-17 | 西安交通大学 | 一种适用于复杂三维环境的定位导航方法 |
Non-Patent Citations (3)
Title |
---|
PENGWEI ZHOU: "T-LOAM:Truncated Least Squares LIDAR-Only Odometry and Mapping in Real Time", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》, vol. 60 * |
丁超: "基于激光雷达的大范围环境地图构建与重定位", 《中国优秀硕士论文全文数据库(电子期刊)》 * |
史鹏程: "顾及室内场景特征的多线激光雷达初始定位", 《测绘学报》, vol. 50, no. 11, pages 1594 - 1603 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115170630A (zh) * | 2022-06-30 | 2022-10-11 | 小米汽车科技有限公司 | 地图生成方法、装置、电子设备、车辆和存储介质 |
CN115170630B (zh) * | 2022-06-30 | 2023-11-21 | 小米汽车科技有限公司 | 地图生成方法、装置、电子设备、车辆和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114353799B (zh) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pfrunder et al. | Real-time autonomous ground vehicle navigation in heterogeneous environments using a 3D LiDAR | |
CN110737271B (zh) | 一种水面机器人自主巡航系统及方法 | |
CN107422730A (zh) | 基于视觉导引的agv运输系统及其驾驶控制方法 | |
Chambers et al. | Perception for a river mapping robot | |
CN112346463B (zh) | 一种基于速度采样的无人车路径规划方法 | |
Li et al. | Road DNA based localization for autonomous vehicles | |
CN114332360A (zh) | 一种协同三维建图方法及系统 | |
CN110749895B (zh) | 一种基于激光雷达点云数据的定位方法 | |
CN110705385B (zh) | 一种障碍物角度的检测方法、装置、设备及介质 | |
Fedorenko et al. | Global UGV path planning on point cloud maps created by UAV | |
CN113345008A (zh) | 一种考虑轮式机器人位姿估计的激光雷达动态障碍物检测方法 | |
CN114004869A (zh) | 一种基于3d点云配准的定位方法 | |
CN111862200B (zh) | 一种煤棚内无人机定位方法 | |
Kim et al. | Autonomous mobile robot localization and mapping for unknown construction environments | |
Bian et al. | A point-line-based SLAM framework for UAV close proximity transmission tower inspection | |
CN113674355A (zh) | 一种基于相机与激光雷达的目标识别与定位方法 | |
CN114998276A (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
CN114353799B (zh) | 搭载多线激光雷达的无人驾驶平台室内快速全局定位方法 | |
Gálai et al. | Crossmodal point cloud registration in the Hough space for mobile laser scanning data | |
CN117406771B (zh) | 一种基于四旋翼无人机的高效自主探索方法、系统及设备 | |
Yan et al. | RH-Map: Online Map Construction Framework of Dynamic Object Removal Based on 3D Region-wise Hash Map Structure | |
CN114923477A (zh) | 基于视觉与激光slam技术的多维度空地协同建图系统和方法 | |
CN113554705A (zh) | 一种变化场景下的激光雷达鲁棒定位方法 | |
Hwang et al. | Robust 2D map building with motion-free ICP algorithm for mobile robot navigation | |
Liu et al. | Campus guide: A lidar-based mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |