CN113671511A - 一种面向区域场景的激光雷达高精度定位方法 - Google Patents
一种面向区域场景的激光雷达高精度定位方法 Download PDFInfo
- Publication number
- CN113671511A CN113671511A CN202110871052.6A CN202110871052A CN113671511A CN 113671511 A CN113671511 A CN 113671511A CN 202110871052 A CN202110871052 A CN 202110871052A CN 113671511 A CN113671511 A CN 113671511A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- laser radar
- plane
- unmanned vehicle
- reflector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 238000005457 optimization Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000011426 transformation method Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003245 working effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种面向区域场景的激光雷达高精度定位方法,包括如下步骤:步骤(1)在区域周围放置反光板,利用激光雷达在区域内构建反光板点云地图FM;步骤(2)利用无人车周期采集第k时刻激光雷达点云数据,对激光雷达点云进行预处理得到预处理后点云集合S(k);步骤(3)通过点云匹配,解耦优化无人车位姿;步骤(4)重复步骤(2)和步骤(3),直到无人车导航结束。本发明能够在一定区域内,实现基于三维激光雷达的高精度定位。
Description
技术领域
本发明属于自主导航与制导领域,涉及一种面向区域场景的激光雷达高精度定位方法。
背景技术
随着智能化程度的提高,无人车的运用越来越广泛,涉及到物流、安防、巡检等各个领域。对自身位姿的精准估计是无人车完成任务的前提,常用的导航方式包括卫星/惯性组合导航、视觉导航、激光雷达导航等。为完成某些特殊任务,无人车被要求在一定区域内对自身位姿拥有高精度的估计,如自主充电。卫星/惯性组合导航常用于室外等开阔场景下,在卫星受遮挡的情况下表现不佳。常用的激光雷达SLAM方法和视觉SLAM方法无法满足其定位需求。
现有的技术中,主流的方法包括磁条导引、视觉二维码定位和激光雷达定位。磁条导引通过磁带引导无人车沿预定轨迹行驶,但其铺设成本高,且轨迹改变难度大,无法灵活地调整路线。基于视觉的方法通过识别二维码获取二维码中的位置信息,从而引导无人车到达指定区域。但是视觉传感器受光照强度的影响较大,在弱光的环境下工作效果不佳。基于激光的定位方法多采用二维激光雷达,利用圆柱型反光标志物进行辅助定位。但二维激光雷达感知范围有限,容易受到遮挡,对环境要求较高。
发明内容
本发明所要解决的技术问题是:提供一种面向区域场景的激光雷达高精度定位方法,以解决无人车在特殊场景下的精准定位问题。
本发明为解决上述技术问题采用以下技术方案:
一种面向区域场景的激光雷达高精度定位方法,包括步骤如下:
步骤(1):在区域周围放置反光板,利用激光雷达在区域内构建反光板点云地图FM;
步骤(2):利用无人车周期采集第k时刻激光雷达点云数据,对激光雷达点云进行预处理得到预处理后点云集合S(k);
步骤(3):通过点云匹配,解耦优化无人车位姿;
步骤(4):重复步骤(2)和步骤(3),直到无人车导航结束。
进一步的,所述步骤(1)具体为:
步骤11)在区域后方、左方、右方各放置一块反光板,反光板要求为平面,大小至少为1m*1m,反光板中心与无人车上激光雷达保存同一高度;
步骤12)将无人车停放至区域中心,采集激光雷达点云;
步骤13)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合Q(k);
步骤14)通过Ransac算法提取出反光板的点云集合{FM},并存储其对应平面的法向量。
进一步的,所述步骤14)具体包括如下步骤:
141)根据步骤13)中筛选后的点云集合Q(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算Q(k)中所有点云与该平面之间的差值di,di小于0.05m的点被认定为内点,记录此时的内点数;
142)重复步骤141),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云F1;
143)从点云集合Q(k)从剔除F1,重复步骤141)、142),得到F2;
144)从点云集合Q(k)从剔除F1、F2,重复步骤141)、142),得到F3;从而得到反光板点云地图{FM}={F1,F2,F3}。
进一步的,所述步骤(2)中,对激光雷达点云进行预处理,包括如下步骤:
步骤21)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合I(k);
步骤22)通过Ransac算法提取出反光板的点云集合{S(k)},并存储其对应平面的法向量。
进一步的,所述步骤22)具体包括如下步骤:
221)根据步骤21)中筛选后的点云集合I(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算I(k)中所有点云与该平面之间的差值dk,dk小于0.05m的点被认定为内点,记录此时的内点数;
222)重复步骤221),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云S1;
223)从点云集合I(k)从剔除S1,重复步骤221)、222),得到S2;
224)从点云集合I(k)从剔除S1、S2,重复步骤(1)、(2),得到S3;从而得到预处理后点云集合{S(k)}={S1,S2,S3}。
进一步的,所述步骤(3)中,解耦优化无人车位姿,包括如下步骤:
步骤31)以k-1时刻无人车位姿Tk-1为初值,对预处理后的点云集合S(k)进行坐标变换得到S′(k),变换方法如下:
其中si表示S(k)中的点,si′表示S′(k)中的点,si∈S(k),s′i∈S′(k);si=[six,siy,siz]T,s′i=[s′ix,s′iy,s′iz]T,six,siy,siz代表S(k)中点的三维坐标,s′ix,s′iy,s′iz代表S′(k)中点的三维坐标;
式中ΔM4×4代表变换位姿矩阵,如下所示:
不考虑高度的优化,得到新的线性最小二乘问题:
本方法的有益效果为:与现有技术相比,本发明能够在一定区域内,实现基于三维激光雷达的高精度定位。
附图说明
图1为本发明的流程图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
本发明实施例提供了一种面向区域场景的激光雷达高精度定位方法,流程图如图1所示,包括步骤如下:
步骤(1):在区域周围放置反光板,利用激光雷达在区域内构建反光板点云地图FM;
步骤11)在区域后方、左方、右方各放置一块反光板,反光板要求为平面,大小至少为1m*1m,反光板中心与无人车上激光雷达保存同一高度;
步骤12)将无人车停放至区域中心,采集激光雷达点云;
步骤13)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合Q(k);
步骤14)通过Ransac算法提取出反光板的点云集合{FM},并存储其对应平面的法向量。
所述步骤14)具体包括如下步骤:
141)根据步骤13)中筛选后的点云集合Q(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算Q(k)中所有点云与该平面之间的差值di,di小于0.05m的点被认定为内点,记录此时的内点数;
142)重复步骤141),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云F1;
143)从点云集合Q(k)从剔除F1,重复步骤141)、142),得到F2;
144)从点云集合Q(k)从剔除F1、F2,重复步骤141)、142),得到F3;从而得到反光板点云地图{FM}={F1,F2,F3}。
步骤(2):利用无人车周期采集第k时刻激光雷达点云数据,对激光雷达点云进行预处理得到预处理后点云集合S(k);
步骤21)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合I(k);
步骤22)通过Ransac算法提取出反光板的点云集合{S(k)},并存储其对应平面的法向量。
所述步骤22)具体包括如下步骤:
221)根据步骤21)中筛选后的点云集合I(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算I(k)中所有点云与该平面之间的差值dk,dk小于0.05m的点被认定为内点,记录此时的内点数;
222)重复步骤221),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云S1;
223)从点云集合I(k)从剔除S1,重复步骤221)、222),得到S2;
224)从点云集合I(k)从剔除S1、S2,重复步骤(1)、(2),得到S3;从而得到预处理后点云集合{S(k)}={S1,S2,S3}。
步骤(3):通过点云匹配,解耦优化无人车位姿。
步骤31)以k-1时刻无人车位姿Tk-1为初值,对预处理后的点云集合S(k)进行坐标变换得到S′(k),变换方法如下:
其中si表示S(k)中的点,si′表示S′(k)中的点,si∈S(k),s′i∈S′(k);si=[six,siy,siz]T,s′i=[s′ix,s′iy,s′iz]T,six,siy,siz代表S(k)中点的三维坐标,s′ix,s′iy,s′iz代表S′(k)中点的三维坐标;
式中ΔM4×4代表变换位姿矩阵,如下所示:
不考虑高度的优化,得到新的线性最小二乘问题:
步骤(4):重复步骤(2)和步骤(3),直到无人车导航结束。
Claims (6)
1.一种面向区域场景的激光雷达高精度定位方法,其特征在于,包括步骤如下:
步骤(1):在区域周围放置反光板,利用激光雷达在区域内构建反光板点云地图FM;
步骤(2):利用无人车周期采集第k时刻激光雷达点云数据,对激光雷达点云进行预处理得到预处理后点云集合S(k);
步骤(3):通过点云匹配,解耦优化无人车位姿;
步骤(4):重复步骤(2)和步骤(3),直到无人车导航结束。
2.根据权利要求1所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤(1)具体为:
步骤11)在区域后方、左方、右方各放置一块反光板,反光板要求为平面,大小至少为1m*1m,反光板中心与无人车上激光雷达保存同一高度;
步骤12)将无人车停放至区域中心,采集激光雷达点云;
步骤13)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合Q(k);
步骤14)通过Ransac算法提取出反光板的点云集合{FM},并存储其对应平面的法向量。
3.根据权利要求2所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤14)具体包括如下步骤:
141)根据步骤13)中筛选后的点云集合Q(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算Q(k)中所有点云与该平面之间的差值di,di小于0.05m的点被认定为内点,记录此时的内点数;
142)重复步骤141),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云F1;
143)从点云集合Q(k)从剔除F1,重复步骤141)、142),得到F2;
144)从点云集合Q(k)从剔除F1、F2,重复步骤141)、142),得到F3;从而得到反光板点云地图{FM}={F1,F2,F3}。
4.根据权利要求1所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤(2)中,对激光雷达点云进行预处理,包括如下步骤:
步骤21)根据激光雷达点云的强度信息,筛选出强度值高于100的点云集合I(k);
步骤22)通过Ransac算法提取出反光板的点云集合{S(k)},并存储其对应平面的法向量。
5.根据权利要求4所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤22)具体包括如下步骤:
221)根据步骤21)中筛选后的点云集合I(k),从该点云数据中选取至少3个点,利用最小二乘法拟合得到平面方程参数,计算I(k)中所有点云与该平面之间的差值dk,dk小于0.05m的点被认定为内点,记录此时的内点数;
222)重复步骤221),记录内点数量最多的平面参数以及对应的内点,该平面参数为最佳模型参数;直到迭代30次时,认为迭代结束,计算出的最佳模型参数即为拟合得到的平面方程参数,对应的内点即为提取的反光板的点云S1;
223)从点云集合I(k)从剔除S1,重复步骤221)、222),得到S2;
224)从点云集合I(k)从剔除S1、S2,重复步骤(1)、(2),得到S3;从而得到预处理后点云集合{S(k)}={S1,S2,S3}。
6.根据权利要求1所述一种面向区域场景的激光雷达高精度定位方法,其特征在于,所述步骤(3)中,解耦优化无人车位姿,包括如下步骤:
步骤31)以k-1时刻无人车位姿Tk-1为初值,对预处理后的点云集合S(k)进行坐标变换得到S′(k),变换方法如下:
其中si表示S(k)中的点,s′i表示S′(k)中的点,si∈S(k),s′i∈S′(k);si=[six,siy,siz]T,s′i=[s′ix,s′iy,s′iz]T,six,siy,siz代表S(k)中点的三维坐标,s′ix,s′iy,s′iz代表S′(k)中点的三维坐标;
式中ΔM4×4代表变换位姿矩阵,如下所示:
不考虑高度的优化,得到新的线性最小二乘问题:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110871052.6A CN113671511A (zh) | 2021-07-30 | 2021-07-30 | 一种面向区域场景的激光雷达高精度定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110871052.6A CN113671511A (zh) | 2021-07-30 | 2021-07-30 | 一种面向区域场景的激光雷达高精度定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113671511A true CN113671511A (zh) | 2021-11-19 |
Family
ID=78540896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110871052.6A Pending CN113671511A (zh) | 2021-07-30 | 2021-07-30 | 一种面向区域场景的激光雷达高精度定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113671511A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115220012A (zh) * | 2022-09-20 | 2022-10-21 | 成都睿芯行科技有限公司 | 一种基于反光板定位方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109613546A (zh) * | 2018-11-10 | 2019-04-12 | 浙江大学 | 基于三维激光雷达辅助定位的转炉炉腔三维测量方法及测量装置 |
CN111993155A (zh) * | 2020-06-16 | 2020-11-27 | 华南理工大学 | 一种基于激光雷达的机床防碰撞系统及方法 |
CN112308928A (zh) * | 2020-10-27 | 2021-02-02 | 北京航空航天大学 | 一种无标定装置的相机与激光雷达自动标定方法 |
CN112396656A (zh) * | 2020-11-24 | 2021-02-23 | 福州大学 | 一种视觉与激光雷达融合的室外移动机器人位姿估计方法 |
-
2021
- 2021-07-30 CN CN202110871052.6A patent/CN113671511A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109613546A (zh) * | 2018-11-10 | 2019-04-12 | 浙江大学 | 基于三维激光雷达辅助定位的转炉炉腔三维测量方法及测量装置 |
CN111993155A (zh) * | 2020-06-16 | 2020-11-27 | 华南理工大学 | 一种基于激光雷达的机床防碰撞系统及方法 |
CN112308928A (zh) * | 2020-10-27 | 2021-02-02 | 北京航空航天大学 | 一种无标定装置的相机与激光雷达自动标定方法 |
CN112396656A (zh) * | 2020-11-24 | 2021-02-23 | 福州大学 | 一种视觉与激光雷达融合的室外移动机器人位姿估计方法 |
Non-Patent Citations (5)
Title |
---|
NURUNNABI, A等: "Robust statistical approaches for local planar surface fitting in 3D laser scanning data", 《ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING》 * |
SUCHOCKI, C等: "Comparison of Time-of-Flight and Phase-Shift TLS Intensity Data for the Diagnostics Measurements of Buildings", 《MATERIALS》 * |
左万权;钱东海;赵伟;徐慧慧;刘洋;: "基于ICP算法的激光定位反光板匹配研究", 自动化仪表, no. 06, pages 64 - 67 * |
左万权等: "基于ICP算法的激光定位反光板匹配研究", 《自动化仪表》, pages 64 - 67 * |
黄凌潇: "基于三维激光扫描技术的点云滤波与平面拟合算法", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》, pages 36 - 42 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115220012A (zh) * | 2022-09-20 | 2022-10-21 | 成都睿芯行科技有限公司 | 一种基于反光板定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111862672B (zh) | 基于顶视图的停车场车辆自定位及地图构建方法 | |
CN108647646B (zh) | 基于低线束雷达的低矮障碍物的优化检测方法及装置 | |
Pfeiffer et al. | Modeling dynamic 3D environments by means of the stixel world | |
CN114842438A (zh) | 用于自动驾驶汽车的地形检测方法、系统及可读存储介质 | |
Liu et al. | Real-time 6d lidar slam in large scale natural terrains for ugv | |
CN106556395A (zh) | 一种基于四元数的单目视觉系统的导航方法 | |
CN113706710A (zh) | 基于fpfh特征差异的虚拟点多源点云融合方法及系统 | |
CN111862200B (zh) | 一种煤棚内无人机定位方法 | |
CN111928860A (zh) | 一种基于三维曲面定位能力的自主车辆主动定位方法 | |
CN115639823A (zh) | 崎岖起伏地形下机器人地形感知与移动控制方法及系统 | |
CN115342821A (zh) | 一种复杂未知环境下的无人车导航代价地图构建方法 | |
Pang et al. | Low-cost and high-accuracy LiDAR SLAM for large outdoor scenarios | |
Cai et al. | A lightweight feature map creation method for intelligent vehicle localization in urban road environments | |
Liu et al. | Dloam: Real-time and robust lidar slam system based on cnn in dynamic urban environments | |
Xiong et al. | Road-Model-Based road boundary extraction for high definition map via LIDAR | |
CN113671511A (zh) | 一种面向区域场景的激光雷达高精度定位方法 | |
CN114792338A (zh) | 基于先验三维激光雷达点云地图的视觉融合定位方法 | |
Pan et al. | PIN-SLAM: LiDAR SLAM Using a Point-Based Implicit Neural Representation for Achieving Global Map Consistency | |
Zhang et al. | Accurate real-time SLAM based on two-step registration and multimodal loop detection | |
Yuan et al. | BTC: A Binary and Triangle Combined Descriptor for 3D Place Recognition | |
Kim et al. | Automatic multiple lidar calibration based on the plane features of structured environments | |
CN115371662A (zh) | 一种基于概率栅格移除动态对象的静态地图构建方法 | |
Jiao et al. | Global self-localization of redundant robots based on visual tracking | |
CN113554705A (zh) | 一种变化场景下的激光雷达鲁棒定位方法 | |
Huang et al. | Ground filtering algorithm for mobile LIDAR using order and neighborhood point information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |