CN113671511A - 一种面向区域场景的激光雷达高精度定位方法 - Google Patents

一种面向区域场景的激光雷达高精度定位方法 Download PDF

Info

Publication number
CN113671511A
CN113671511A CN202110871052.6A CN202110871052A CN113671511A CN 113671511 A CN113671511 A CN 113671511A CN 202110871052 A CN202110871052 A CN 202110871052A CN 113671511 A CN113671511 A CN 113671511A
Authority
CN
China
Prior art keywords
point cloud
laser radar
plane
unmanned vehicle
reflector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110871052.6A
Other languages
English (en)
Inventor
季博文
吕品
赖际舟
李志敏
袁诚
方玮
郑国庆
温烨贝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202110871052.6A priority Critical patent/CN113671511A/zh
Publication of CN113671511A publication Critical patent/CN113671511A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开了一种面向区域场景的激光雷达高精度定位方法,包括如下步骤:步骤(1)在区域周围放置反光板,利用激光雷达在区域内构建反光板点云地图FM;步骤(2)利用无人车周期采集第k时刻激光雷达点云数据,对激光雷达点云进行预处理得到预处理后点云集合S(k);步骤(3)通过点云匹配,解耦优化无人车位姿;步骤(4)重复步骤(2)和步骤(3),直到无人车导航结束。本发明能够在一定区域内,实现基于三维激光雷达的高精度定位。

Description

一种面向区域场景的激光雷达高精度定位方法
技术领域
本发明属于自主导航与制导领域,涉及一种面向区域场景的激光雷达高精度定位方法。
背景技术
随着智能化程度的提高,无人车的运用越来越广泛,涉及到物流、安防、巡检等各个领域。对自身位姿的精准估计是无人车完成任务的前提,常用的导航方式包括卫星/惯性组合导航、视觉导航、激光雷达导航等。为完成某些特殊任务,无人车被要求在一定区域内对自身位姿拥有高精度的估计,如自主充电。卫星/惯性组合导航常用于室外等开阔场景下,在卫星受遮挡的情况下表现不佳。常用的激光雷达SLAM方法和视觉SLAM方法无法满足其定位需求。
现有的技术中,主流的方法包括磁条导引、视觉二维码定位和激光雷达定位。磁条导引通过磁带引导无人车沿预定轨迹行驶,但其铺设成本高,且轨迹改变难度大,无法灵活地调整路线。基于视觉的方法通过识别二维码获取二维码中的位置信息,从而引导无人车到达指定区域。但是视觉传感器受光照强度的影响较大,在弱光的环境下工作效果不佳。基于激光的定位方法多采用二维激光雷达,利用圆柱型反光标志物进行辅助定位。但二维激光雷达感知范围有限,容易受到遮挡,对环境要求较高。
发明内容
本发明所要解决的技术问题是:提供一种面向区域场景的激光雷达高精度定位方法,以解决无人车在特殊场景下的精准定位问题。
本发明为解决上述技术问题采用以下技术方案:
一种面向区域场景的激光雷达高精度定位方法,包括步骤如下:
步骤(1):在区域周围放置反光板,利用激光雷达在区域内构建反光板点云地图FM
步骤(2):利用无人车周期采集第k时刻激光雷达点云数据,对激光雷达点云进行预处理得到预处理后点云集合S(k);
步骤(3):通过点云匹配,解耦优化无人车位姿;
步骤(4):重复步骤(2)和步骤(3),直到无人车导航结束。
进一步的,所述步骤(1)具体为:
步骤11)在区域后方、左方、右方各放置一块反光板,反光板要求为平面,大小至少为1m*1m,反光板中心与无人车上激光雷达保存同一高度;
步骤12)将无人车停放至区域中心,采集激光雷达点云;
步骤13)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合Q(k);
步骤14)通过Ransac算法提取出反光板的点云集合{FM},并存储其对应平面的法向量。
进一步的,所述步骤14)具体包括如下步骤:
141)根据步骤13)中筛选后的点云集合Q(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算Q(k)中所有点云与该平面之间的差值di,di小于0.05m的点被认定为内点,记录此时的内点数;
142)重复步骤141),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云F1
143)从点云集合Q(k)从剔除F1,重复步骤141)、142),得到F2
144)从点云集合Q(k)从剔除F1、F2,重复步骤141)、142),得到F3;从而得到反光板点云地图{FM}={F1,F2,F3}。
进一步的,所述步骤(2)中,对激光雷达点云进行预处理,包括如下步骤:
步骤21)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合I(k);
步骤22)通过Ransac算法提取出反光板的点云集合{S(k)},并存储其对应平面的法向量。
进一步的,所述步骤22)具体包括如下步骤:
221)根据步骤21)中筛选后的点云集合I(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算I(k)中所有点云与该平面之间的差值dk,dk小于0.05m的点被认定为内点,记录此时的内点数;
222)重复步骤221),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云S1
223)从点云集合I(k)从剔除S1,重复步骤221)、222),得到S2
224)从点云集合I(k)从剔除S1、S2,重复步骤(1)、(2),得到S3;从而得到预处理后点云集合{S(k)}={S1,S2,S3}。
进一步的,所述步骤(3)中,解耦优化无人车位姿,包括如下步骤:
步骤31)以k-1时刻无人车位姿Tk-1为初值,对预处理后的点云集合S(k)进行坐标变换得到S′(k),变换方法如下:
Figure BDA0003189171560000031
其中si表示S(k)中的点,si′表示S′(k)中的点,si∈S(k),s′i∈S′(k);si=[six,siy,siz]T,s′i=[s′ix,s′iy,s′iz]T,six,siy,siz代表S(k)中点的三维坐标,s′ix,s′iy,s′iz代表S′(k)中点的三维坐标;
步骤32)对于当前时刻预处理后的点云集合S′(k)中的每个点s′i,在点云地图FM中寻找最近点mi作为对应点;
Figure BDA0003189171560000032
为mi所属平面的法向量;构建非线性最小二乘问题如下:
Figure BDA0003189171560000033
式中ΔM4×4代表变换位姿矩阵,如下所示:
Figure BDA0003189171560000034
其中,α、β、γ代表无人车的三轴姿态角,tx、ty、tz代表无人车的三轴位置;假设每次优化的姿态角为小量,对ΔM4×4进行近似处理得到:
Figure BDA0003189171560000041
不考虑高度的优化,得到新的线性最小二乘问题:
Figure BDA0003189171560000042
其中,
Figure BDA0003189171560000043
通过构建正规方程对其进行求解,从而得到新的迭代初值
Figure BDA0003189171560000044
步骤33)重复步骤31)、步骤32),直到迭代30次或者
Figure BDA0003189171560000045
小于阈值
Figure BDA0003189171560000046
时,认为迭代结束,得到最终的优化结果T′,该结果即为无人车第k时刻解算的位姿Tk
本方法的有益效果为:与现有技术相比,本发明能够在一定区域内,实现基于三维激光雷达的高精度定位。
附图说明
图1为本发明的流程图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
本发明实施例提供了一种面向区域场景的激光雷达高精度定位方法,流程图如图1所示,包括步骤如下:
步骤(1):在区域周围放置反光板,利用激光雷达在区域内构建反光板点云地图FM
步骤11)在区域后方、左方、右方各放置一块反光板,反光板要求为平面,大小至少为1m*1m,反光板中心与无人车上激光雷达保存同一高度;
步骤12)将无人车停放至区域中心,采集激光雷达点云;
步骤13)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合Q(k);
步骤14)通过Ransac算法提取出反光板的点云集合{FM},并存储其对应平面的法向量。
所述步骤14)具体包括如下步骤:
141)根据步骤13)中筛选后的点云集合Q(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算Q(k)中所有点云与该平面之间的差值di,di小于0.05m的点被认定为内点,记录此时的内点数;
142)重复步骤141),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云F1
143)从点云集合Q(k)从剔除F1,重复步骤141)、142),得到F2
144)从点云集合Q(k)从剔除F1、F2,重复步骤141)、142),得到F3;从而得到反光板点云地图{FM}={F1,F2,F3}。
步骤(2):利用无人车周期采集第k时刻激光雷达点云数据,对激光雷达点云进行预处理得到预处理后点云集合S(k);
步骤21)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合I(k);
步骤22)通过Ransac算法提取出反光板的点云集合{S(k)},并存储其对应平面的法向量。
所述步骤22)具体包括如下步骤:
221)根据步骤21)中筛选后的点云集合I(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算I(k)中所有点云与该平面之间的差值dk,dk小于0.05m的点被认定为内点,记录此时的内点数;
222)重复步骤221),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云S1
223)从点云集合I(k)从剔除S1,重复步骤221)、222),得到S2
224)从点云集合I(k)从剔除S1、S2,重复步骤(1)、(2),得到S3;从而得到预处理后点云集合{S(k)}={S1,S2,S3}。
步骤(3):通过点云匹配,解耦优化无人车位姿。
步骤31)以k-1时刻无人车位姿Tk-1为初值,对预处理后的点云集合S(k)进行坐标变换得到S′(k),变换方法如下:
Figure BDA0003189171560000061
其中si表示S(k)中的点,si′表示S′(k)中的点,si∈S(k),s′i∈S′(k);si=[six,siy,siz]T,s′i=[s′ix,s′iy,s′iz]T,six,siy,siz代表S(k)中点的三维坐标,s′ix,s′iy,s′iz代表S′(k)中点的三维坐标;
步骤32)对于当前时刻预处理后的点云集合S′(k)中的每个点s′i,在点云地图FM中寻找最近点mi作为对应点;
Figure BDA0003189171560000062
为mi所属平面的法向量;构建非线性最小二乘问题如下:
Figure BDA0003189171560000063
式中ΔM4×4代表变换位姿矩阵,如下所示:
Figure BDA0003189171560000064
其中,α、β、γ代表无人车的三轴姿态角,tx、ty、tz代表无人车的三轴位置;假设每次优化的姿态角为小量,对ΔM4×4进行近似处理得到:
Figure BDA0003189171560000071
不考虑高度的优化,得到新的线性最小二乘问题:
Figure BDA0003189171560000072
其中,
Figure BDA0003189171560000073
通过构建正规方程对其进行求解,从而得到新的迭代初值
Figure BDA0003189171560000074
步骤33)重复步骤31)、步骤32),直到迭代30次或者
Figure BDA0003189171560000075
小于阈值
Figure BDA0003189171560000076
时,认为迭代结束,得到最终的优化结果T′,该结果即为无人车第k时刻解算的位姿Tk
步骤(4):重复步骤(2)和步骤(3),直到无人车导航结束。

Claims (6)

1.一种面向区域场景的激光雷达高精度定位方法,其特征在于,包括步骤如下:
步骤(1):在区域周围放置反光板,利用激光雷达在区域内构建反光板点云地图FM
步骤(2):利用无人车周期采集第k时刻激光雷达点云数据,对激光雷达点云进行预处理得到预处理后点云集合S(k);
步骤(3):通过点云匹配,解耦优化无人车位姿;
步骤(4):重复步骤(2)和步骤(3),直到无人车导航结束。
2.根据权利要求1所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤(1)具体为:
步骤11)在区域后方、左方、右方各放置一块反光板,反光板要求为平面,大小至少为1m*1m,反光板中心与无人车上激光雷达保存同一高度;
步骤12)将无人车停放至区域中心,采集激光雷达点云;
步骤13)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合Q(k);
步骤14)通过Ransac算法提取出反光板的点云集合{FM},并存储其对应平面的法向量。
3.根据权利要求2所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤14)具体包括如下步骤:
141)根据步骤13)中筛选后的点云集合Q(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算Q(k)中所有点云与该平面之间的差值di,di小于0.05m的点被认定为内点,记录此时的内点数;
142)重复步骤141),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云F1
143)从点云集合Q(k)从剔除F1,重复步骤141)、142),得到F2
144)从点云集合Q(k)从剔除F1、F2,重复步骤141)、142),得到F3;从而得到反光板点云地图{FM}={F1,F2,F3}。
4.根据权利要求1所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤(2)中,对激光雷达点云进行预处理,包括如下步骤:
步骤21)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合I(k);
步骤22)通过Ransac算法提取出反光板的点云集合{S(k)},并存储其对应平面的法向量。
5.根据权利要求4所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤22)具体包括如下步骤:
221)根据步骤21)中筛选后的点云集合I(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算I(k)中所有点云与该平面之间的差值dk,dk小于0.05m的点被认定为内点,记录此时的内点数;
222)重复步骤221),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云S1
223)从点云集合I(k)从剔除S1,重复步骤221)、222),得到S2
224)从点云集合I(k)从剔除S1、S2,重复步骤(1)、(2),得到S3;从而得到预处理后点云集合{S(k)}={S1,S2,S3}。
6.根据权利要求1所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤(3)中,解耦优化无人车位姿,包括如下步骤:
步骤31)以k-1时刻无人车位姿Tk-1为初值,对预处理后的点云集合S(k)进行坐标变换得到S′(k),变换方法如下:
Figure FDA0003189171550000021
其中si表示S(k)中的点,s′i表示S′(k)中的点,si∈S(k),s′i∈S′(k);si=[six,siy,siz]T,s′i=[s′ix,s′iy,s′iz]T,six,siy,siz代表S(k)中点的三维坐标,s′ix,s′iy,s′iz代表S′(k)中点的三维坐标;
步骤32)对于当前时刻预处理后的点云集合S′(k)中的每个点s′i,在点云地图FM中寻找最近点mi作为对应点;
Figure FDA0003189171550000031
为mi所属平面的法向量;构建非线性最小二乘问题如下:
Figure FDA0003189171550000032
式中ΔM4×4代表变换位姿矩阵,如下所示:
Figure FDA0003189171550000033
其中,α、β、γ代表无人车的三轴姿态角,tx、ty、tz代表无人车的三轴位置;假设每次优化的姿态角为小量,对ΔM4×4进行近似处理得到:
Figure FDA0003189171550000034
不考虑高度的优化,得到新的线性最小二乘问题:
Figure FDA0003189171550000035
其中,
Figure FDA0003189171550000036
通过构建正规方程对其进行求解,从而得到新的迭代初值
Figure FDA0003189171550000037
步骤33)重复步骤31)、步骤32),直到迭代30次或者
Figure FDA0003189171550000038
小于阈值
Figure FDA0003189171550000039
时,认为迭代结束,得到最终的优化结果T′,该结果即为无人车第k时刻解算的位姿Tk
CN202110871052.6A 2021-07-30 2021-07-30 一种面向区域场景的激光雷达高精度定位方法 Pending CN113671511A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110871052.6A CN113671511A (zh) 2021-07-30 2021-07-30 一种面向区域场景的激光雷达高精度定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110871052.6A CN113671511A (zh) 2021-07-30 2021-07-30 一种面向区域场景的激光雷达高精度定位方法

Publications (1)

Publication Number Publication Date
CN113671511A true CN113671511A (zh) 2021-11-19

Family

ID=78540896

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110871052.6A Pending CN113671511A (zh) 2021-07-30 2021-07-30 一种面向区域场景的激光雷达高精度定位方法

Country Status (1)

Country Link
CN (1) CN113671511A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115220012A (zh) * 2022-09-20 2022-10-21 成都睿芯行科技有限公司 一种基于反光板定位方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109613546A (zh) * 2018-11-10 2019-04-12 浙江大学 基于三维激光雷达辅助定位的转炉炉腔三维测量方法及测量装置
CN111993155A (zh) * 2020-06-16 2020-11-27 华南理工大学 一种基于激光雷达的机床防碰撞系统及方法
CN112308928A (zh) * 2020-10-27 2021-02-02 北京航空航天大学 一种无标定装置的相机与激光雷达自动标定方法
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109613546A (zh) * 2018-11-10 2019-04-12 浙江大学 基于三维激光雷达辅助定位的转炉炉腔三维测量方法及测量装置
CN111993155A (zh) * 2020-06-16 2020-11-27 华南理工大学 一种基于激光雷达的机床防碰撞系统及方法
CN112308928A (zh) * 2020-10-27 2021-02-02 北京航空航天大学 一种无标定装置的相机与激光雷达自动标定方法
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
NURUNNABI, A等: "Robust statistical approaches for local planar surface fitting in 3D laser scanning data", 《ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING》 *
SUCHOCKI, C等: "Comparison of Time-of-Flight and Phase-Shift TLS Intensity Data for the Diagnostics Measurements of Buildings", 《MATERIALS》 *
左万权;钱东海;赵伟;徐慧慧;刘洋;: "基于ICP算法的激光定位反光板匹配研究", 自动化仪表, no. 06, pages 64 - 67 *
左万权等: "基于ICP算法的激光定位反光板匹配研究", 《自动化仪表》, pages 64 - 67 *
黄凌潇: "基于三维激光扫描技术的点云滤波与平面拟合算法", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》, pages 36 - 42 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115220012A (zh) * 2022-09-20 2022-10-21 成都睿芯行科技有限公司 一种基于反光板定位方法

Similar Documents

Publication Publication Date Title
CN111862672B (zh) 基于顶视图的停车场车辆自定位及地图构建方法
CN108647646B (zh) 基于低线束雷达的低矮障碍物的优化检测方法及装置
Pfeiffer et al. Modeling dynamic 3D environments by means of the stixel world
CN114842438A (zh) 用于自动驾驶汽车的地形检测方法、系统及可读存储介质
Liu et al. Real-time 6d lidar slam in large scale natural terrains for ugv
CN106556395A (zh) 一种基于四元数的单目视觉系统的导航方法
CN113706710A (zh) 基于fpfh特征差异的虚拟点多源点云融合方法及系统
CN111862200B (zh) 一种煤棚内无人机定位方法
CN111928860A (zh) 一种基于三维曲面定位能力的自主车辆主动定位方法
CN115639823A (zh) 崎岖起伏地形下机器人地形感知与移动控制方法及系统
CN115342821A (zh) 一种复杂未知环境下的无人车导航代价地图构建方法
Pang et al. Low-cost and high-accuracy LiDAR SLAM for large outdoor scenarios
Cai et al. A lightweight feature map creation method for intelligent vehicle localization in urban road environments
Liu et al. Dloam: Real-time and robust lidar slam system based on cnn in dynamic urban environments
Xiong et al. Road-Model-Based road boundary extraction for high definition map via LIDAR
CN113671511A (zh) 一种面向区域场景的激光雷达高精度定位方法
CN114792338A (zh) 基于先验三维激光雷达点云地图的视觉融合定位方法
Pan et al. PIN-SLAM: LiDAR SLAM Using a Point-Based Implicit Neural Representation for Achieving Global Map Consistency
Zhang et al. Accurate real-time SLAM based on two-step registration and multimodal loop detection
Yuan et al. BTC: A Binary and Triangle Combined Descriptor for 3D Place Recognition
Kim et al. Automatic multiple lidar calibration based on the plane features of structured environments
CN115371662A (zh) 一种基于概率栅格移除动态对象的静态地图构建方法
Jiao et al. Global self-localization of redundant robots based on visual tracking
CN113554705A (zh) 一种变化场景下的激光雷达鲁棒定位方法
Huang et al. Ground filtering algorithm for mobile LIDAR using order and neighborhood point information

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination