CN112070800B - 一种基于三维点云极化地图表征的智能车定位方法及系统 - Google Patents
一种基于三维点云极化地图表征的智能车定位方法及系统 Download PDFInfo
- Publication number
- CN112070800B CN112070800B CN202010717785.XA CN202010717785A CN112070800B CN 112070800 B CN112070800 B CN 112070800B CN 202010717785 A CN202010717785 A CN 202010717785A CN 112070800 B CN112070800 B CN 112070800B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- node
- map
- polarization
- polarization map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010287 polarization Effects 0.000 title claims abstract description 114
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000036544 posture Effects 0.000 claims abstract description 10
- 238000003860 storage Methods 0.000 claims abstract description 7
- 238000004590 computer program Methods 0.000 claims description 13
- 238000012512 characterization method Methods 0.000 claims description 7
- 238000005520 cutting process Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000004519 manufacturing process Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 230000004807 localization Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 23
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000013480 data collection Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Navigation (AREA)
Abstract
本发明公开一种基于三维点云极化地图表征的智能车定位方法、系统及计算机可读存储介质,属于智能车定位技术领域,解决了现有技术中智能车的定位误差较大的问题。一种基于三维点云极化地图表征的智能车定位方法,包括以下步骤:根据全局位置信息、点云的二维特征及三维特征制作出极化地图;采集待定位节点的初步GPS坐标数据,根据初步GPS坐标及极化地图中节点的GPS坐标,得到待定位节点的初定位范围;根据待定位节点的点云及待定位节点的初定位范围,获取极化地图中的最近地图节点;根据极化图子块获取角特征点和面特征点,根据角特征点、面特征点及最近地图节点,获取待定位节点车辆的位置和姿态。本发明所述方法减小了智能车的定位误差。
Description
技术领域
本发明涉及智能车定位技术领域,尤其是涉及一种基于三维点云极化地图表征的智能车定位方法、系统及计算机可读存储介质。
背景技术
随着现代社会智能化和信息化的增强,智能车已经成为当今世界研究的热点;在中国,基于政策和经济的支持,智能车发展迅速,在智能车的研究和推广过程中,定位技术是核心关键之一;由于激光雷达高频、远程且高精度的数据采集,使得其在车辆定位中被广泛运用。目前基于激光的主流定位方法为SLAM(同步定位与建图);SLAM主要分为里程计和优化两部分,里程计根据帧间点云匹配结果计算车辆的运动,其中基于特征点云的帧间匹配算法最受研究者关注;虽然通过帧间特征匹配可快速获取车辆位姿,但是随着车辆行驶距离增长及帧间匹配次数增多,累计误差逐渐增大,SLAM算法中通过三维重建构图消除累计误差,校正定位轨迹,但是其地图是在线生成的,且需要实时更新,资源占用过大,同时,由于点云数据量大、重复点及阻隔点的存在,需要进行下采样等处理,制图过程复杂,并且随着定位距离的增长,仍然会有较大的累计误差存在。
发明内容
有鉴于此,本发明提供了一种基于三维点云极化地图表征的智能车定位方法、系统及计算机可读存储介质,以解决现有技术中智能车的定位误差较大的技术问题。
一方面,本发明提供了一种基于三维点云极化地图表征的智能车定位方法,包括以下步骤:
在待定位路段采集路段的点云数据及惯导数据,根据所述惯导数据获取全局位置信息,根据点云数据获取点云的二维特征及三维特征,根据所述全局位置信息、点云的二维特征及三维特征制作出极化地图;
采集待定位节点的初步GPS坐标数据,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,得到待定位节点的初定位范围;
根据待定位节点的点云及待定位节点的初定位范围,获取极化地图中的最近地图节点;
根据极化图子块获取角特征点和面特征点,根据所述角特征点、面特征点及最近地图节点,获取待定位节点车辆的位置和姿态。
进一步地,所述在待定位路段采集路段的点云数据及惯导数据,具体包括,通过激光雷达扫描在惯导定位接收器上的点云集合,计算点云集合的质心,以点云集合的质心作为组合惯导定位接收器在激光雷达坐标系中的位置,等距的方式在待定位路段采集路段的点云数据及惯导数据。
进一步地,所述根据点云数据获取点云的二维特征,具体包括,根据点云所在的扫描线及水平视场角度获取点云的像素坐标,以点云数据与激光雷达的欧式距离作为灰度值进行投影,生成极化图,切割极化图获取图像子块,对图像子块提取SURF和ORB 全局特征。
进一步地,所述根据点云数据获取点云的三维特征,具体包括,进行地面点的提取并在所述极化图上对所述地面点进行标记,对极化图上未标记的点进行聚类,设置聚类阈值,将点云数小于所述聚类阈值的点簇去除,将未除去的点云在极化图上标记,通过所述极化图上已标记的点获取面特征点和角特征点。
进一步地,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,得到待定位节点的初定位范围,具体包括,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,计算待定位节点与地图节点的欧式距离,确定地图节点集合,以所述地图节点集合作为待定位节点的初定位范围。
进一步地,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,计算待定位节点与地图节点的欧式距离,具体包括,计算待定位节点的初步GPS数据经转化后的欧式坐标以及极化地图中节点的GPS数据经转化后的欧式坐标,根据两种欧式坐标,获取,计算待定位节点与地图节点的欧式距离。
进一步地,所述根据待定位节点的点云及待定位节点的初定位范围,获取极化地图中的最近地图节点,具体包括,将待定位节点的点云转化成极化图并进行切割及预处理,提取预处理后的极化图子块的SURF和ORB全局特征,将所述SURF和ORB全局特征与初定位范围的SURF和ORB全局特征进行对应的特征匹配,获取极化地图中的最近地图节点。
进一步地,所述根据所述角特征点、面特征点及最近地图节点,获取待定位节点车辆的位置和姿态,具体包括,将待定位节点和最近地图节点利用点到线的匹配方式进行角特征点匹配,利用点到面的匹配方式进行面特征点匹配;利用标定的GPS接收机位置参数和组合惯导定位接收器位置参数对匹配点云对进行坐标修正,利用修正后的匹配点云求解出待定位节点与最近地图节点的旋转矩阵R和平移向量T,根据地图节点的全局位置信息,获取待定位节点车辆的位置和姿态。
另一方面,本发明还提供了一种基于三维点云极化地图表征的智能车定位系统,包括处理器以及存储器,所述存储器上存储有计算机程序,所述计算机程序被所述处理器执行时,实现如上述任一技术方案所述的基于三维点云极化地图表征的智能车定位方法。
另一方面,本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机该程序被处理器执行时,实现如上述任一技术方案所述的基于三维点云极化地图表征的智能车定位方法。
与现有技术相比,本发明的有益效果包括:通过在待定位路段采集路段的点云数据及惯导数据,根据所述惯导数据获取全局位置信息,根据点云数据获取点云的二维特征及三维特征,根据所述全局位置信息、点云的二维特征及三维特征制作出极化地图;采集待定位节点的初步GPS坐标数据,根据所述初步GPS坐标数据及极化地图中节点的 GPS坐标数据,得到待定位节点的初定位范围;根据待定位节点的点云及待定位节点的初定位范围,获取极化地图中的最近地图节点;根据极化图子块获取角特征点和面特征点,根据所述角特征点、面特征点及最近地图节点,获取待定位节点车辆的位置和姿态;减小了智能车的定位误差。
附图说明
图1为本发明实施例1所述的基于三维点云极化地图表征的智能车定位方法的流程示意图;
图2为本发明实施例1所述的SURF和ORB全局特征图;
图3为本发明实施例1所述的最终的聚类结果示意图;
图4为本发明实施例1所述的定位轨迹图;
图5为本发明实施例1所述的定位误差图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例1
本发明实施例提供了一种基于三维点云极化地图表征的智能车定位方法,其流程示意图,如图1所示,所述方法包括以下步骤:
S1、在待定位路段采集路段的点云数据及惯导数据,根据所述惯导数据获取全局位置信息,根据点云数据获取点云的二维特征及三维特征,根据所述全局位置信息、点云的二维特征及三维特征制作出极化地图;
S2、采集待定位节点的初步GPS坐标数据,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,得到待定位节点的初定位范围;
S3、根据待定位节点的点云及待定位节点的初定位范围,获取极化地图中的最近地图节点;
S4、根据极化图子块获取角特征点和面特征点,根据所述角特征点、面特征点及最近地图节点,获取待定位节点车辆的位置和姿态。
一个具体实施例中,利用LiDAR(激光雷达)对组合惯导定位接收器进行标定,获取组合惯导定位接收器在LiDAR坐标系中的位置,通过标定获取的位置参数用于在线定位中的坐标修正;利用数据采集车辆搭载LiDAR和组合惯导结合RTK(Real-time kinematic)在待定位路段采集数据,离线处理每个数据节点,制作极化地图;制作极化地图,具体为,设PI={pI1,pI2,L,pIi,L}为LiDAR扫描在惯导定位接收器上的点云集合,计算PI的质心坐标pINS,并以此作为组合惯导定位接收器在LiDAR坐标系中的位置,计算公式为
上式中,nI为PI中点云数量,标定完成之后,(采集内容)以等距的方式在待定位路段进行数据采集,采集频率为1m/次,每次数据采集包含一帧点云数据和一条高精度惯导数据;
需要说明的是,组合惯导结合RTK仅用于构建极化地图,在线定位时采用普通GPS接收机即可;数据采集完成后,离线处理每个数据节点,处理步骤为:全局位置表征,二维特征表征,三维特征表征。利用高精度惯导数据提取全局位置信息,全局位置信息包含GPS信息和欧拉角,其中,欧拉角由翻滚角(Roll)、俯仰角(Pitch)和航向角(Yaw)组成;
优选的,所述在待定位路段采集路段的点云数据及惯导数据,具体包括,通过激光雷达扫描在惯导定位接收器上的点云集合,计算点云集合的质心,以点云集合的质心作为组合惯导定位接收器在激光雷达坐标系中的位置,等距的方式在待定位路段采集路段的点云数据及惯导数据;
优选的,所述根据点云数据获取点云的二维特征,具体包括,根据点云所在的扫描线及水平视场角度获取点云的像素坐标,以点云数据与激光雷达的欧式距离作为灰度值进行投影,生成极化图,切割极化图获取图像子块,对图像子块提取SURF和ORB全局特征;
一个具体实施例中,对于获取点云的二维特征,需要将点云转化成极化图,由于VLP-16LiDAR有16条扫描线,水平视场为360°,水平角分辨率为0.2°,所以极化图的分辨率为1800×16,设P={p1,p2,L,pi,L}为数据采集节点点云,根据点云所在的扫描线及水平视场角度确认其像素坐标,以点云与LiDAR的欧式距离作为灰度值进行投影,生成极化图;其次,切割极化图获取图像子块,对图像子块进行预处理并提取SURF (Speeded Up RobustFeatures)和ORB(Oriented FAST and Rotated BRIEF)全局特征;
另一个具体实施例中,将极化图切割成N个图像子块,例如,N=30,图像子块分辨率为60×16,对图像子块进行直方图均衡化和尺寸归一化(63×63)处理;将处理后的图像子块中心作为特征点,整个图像子块作为特征点的邻域;计算特征描述符,并将此描述符作为图像子块的全局特征描述符;最终,得到的SURF全局特征描述符是一个64 维的向量,ORB全局特征是一个256位的二进制字符串,SURF和ORB全局特征图,如图2所示,图2中,上方对应SURF,下方对应ORB,提取点云的三维特征,利用极化图进行点云聚类;由于地面点云在后续的面特征点提取中具有重要的意义,为避免经聚类筛选而被剔除掉,在进行聚类之前,需要提取地面点,将其作为一类特殊的点簇;地面点的提取仅在俯仰角小于0°的扫描线中进行;
通过对相邻两条扫描线中处于同一水平视场角度的两个点云连接线的俯仰角进行评估,完成地面点的提取并在极化图上对这些点进行标记;利用基于图像的点云聚类方法对极化图上未标记的点进行聚类,需要说明的是,定位车辆在嘈杂多变的环境中,小物体(例如树叶、小瓶子等)可能会在后续的特征点云提取中形成琐碎且不可靠的特征点云,而车辆在两次不同的扫描中,很难扫到同一个小物体;所以,为了提取到可靠的特征点云,需要剔除这些小物体聚类点云,设置阈值kp,将点云数小于kp的点簇去除,例如kp=30;最终的聚类结果示意图,如图3所示,图3左边为原始点云,将聚类保留的点云在极化图上进行标记;
优选的,所述根据点云数据获取点云的三维特征,具体包括,进行地面点的提取并在所述极化图上对所述地面点进行标记,对极化图上未标记的点进行聚类,设置聚类阈值,将点云数小于所述聚类阈值的点簇去除,将未除去的点云在极化图上标记,通过所述极化图上已标记的点获取面特征点和角特征点;
一个具体实施例中,三维特征分为面特征点和角特征点,通过极化图上已标记的点完成特征提取,首先计算点云pi的粗糙度ci,计算公式为:
上式中,S为与pi在极化图上呈行连续的点集,均匀分布在pi两侧;ri为pi在极化图中对应点的灰度值;rj为S中第j个点云在极化图中对应点的灰度值;设置粗糙度阈值cth,ci小于cth的为面特征点,ci大于cth的为角特征点;为了让特征点云均匀分布,将极化图沿水平方向划分为数个相等大小的子图像,按照ci的大小对子图像每行点云进行排序,从每行点云中分别挑选Ne个具有最大ci的角特征点和Np个具有最小ci的面特征点,将极化图分为6个子图像(图像子块),Ne=20,Np=40;
优选的,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,得到待定位节点的初定位范围,具体包括,根据所述初步GPS坐标数据及极化地图中节点的 GPS坐标数据,计算待定位节点与地图节点的欧式距离,确定地图节点集合,以所述地图节点集合作为待定位节点的初定位范围;
一个具体实施例中,设待定位节点L的粗(初步)GPS为gl=(al,bl),地图节点序列Mi的高精度GPS为Gm={gm1,gm2,L,gmi,L}={(am1,bm2),(am2,bm2),L,(ami,bmi),L},计算待定位节点与地图节点的欧式距离,设置阈值kg,筛选符合要求的地图节点,计算公式为
Dl={Umi|dist(Ul,Umi)≤kg}
上式中Ul=(Xl,Yl)为待定位节点的粗GPS数据经转化后的欧式坐标;Umi=(Xmi,Ymi)为第i个地图节点的高精度GPS数据经转化后的欧式坐标;trans()为GPS坐标转欧式坐标的公式;dist()为欧式距离计算公式;Dl为符合要求的地图节点集合;由于普通GPS的定位精度为10m,所以kg=10;
优选的,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,计算待定位节点与地图节点的欧式距离,具体包括,计算待定位节点的初步GPS数据经转化后的欧式坐标以及极化地图中节点的GPS数据经转化后的欧式坐标,根据两种欧式坐标,获取,计算待定位节点与地图节点的欧式距离;
优选的,所述根据待定位节点的点云及待定位节点的初定位范围,获取极化地图中的最近地图节点,具体包括,将待定位节点的点云转化成极化图并进行切割及预处理,提取预处理后的极化图子块的SURF和ORB全局特征,将所述SURF和ORB全局特征与初定位范围的SURF和ORB全局特征进行对应的特征匹配,获取极化地图中的最近地图节点;
一个具体实施例中,待定位节点与初定位结果分别进行SURF和ORB全局特征匹配;分别计算相匹配SURF和ORB特征点对之间距离的加权均值,并以此作为不同图像之间的SURF和ORB特征距离,最终,得到的SURF全局特征描述符是一个64维的向量,ORB 全局特征是一个256位的二进制字符串;具体计算公式为
上式中nf为相匹配的特征点对数目;di为第i个相匹配特征点对之间的距离,df为不同极化图之间的特征距离;加权特征匹配算法通过对图像进行区域划分,将区域图像作为特征并进行匹配,利用匹配特征间的距离加权均值作为不同图像的特征距离,更加准确的表达了不同图像的相似度;特征匹配完成之后,利用WH-KNN算法获取最近的地图节点,WH-KNN算法通过引入权值解决识别模糊性问题,结合加权特征匹配算法,极大提高了最近节点检测的正确率;
优选的,所述根据所述角特征点、面特征点及最近地图节点,获取待定位节点车辆的位置和姿态,具体包括,将待定位节点和最近地图节点利用点到线的匹配方式进行角特征点匹配,利用点到面的匹配方式进行面特征点匹配;利用标定的GPS接收机位置参数和组合惯导定位接收器位置参数对匹配点云对进行坐标修正,利用修正后的匹配点云求解出待定位节点与最近地图节点的旋转矩阵R和平移向量T,根据地图节点的全局位置信息,获取待定位节点车辆的位置和姿态;
一个具体实施例中,通过待定位节点极化图完成点云聚类、特征点云提取及特征匹配,再利用L-M算法求解位姿转换关系,完成最终定位;点云聚类方法、特征点云提取方法与制图时所用方法相同;
需要说明的是,待定位节点只需要从子图像每行点云中挑选数量较少的角特征点和面特征点,角特征点和面特征点的挑选数量分别为2和4;特征点云提取完成后,进行特征点匹配及位姿转换关系求解;首先,待定位节点和最近地图节点利用点到线的匹配方式进行角特征点匹配,利用点到面的匹配方式进行面特征点匹配,其次,利用标定的 GPS接收机位置参数pGPS和组合惯导定位接收器位置参数pINS对匹配点云对进行坐标修正;在地图数据采集时,以组合惯导定位接收器代替车辆的位置,而在线定位时,以GPS 接收机代替车辆的位置,所以应将点云坐标原点分别移至两者处,求解两者的位姿转换关系,坐标修正公式为
xafter=xbefore-xc,yafter=ybefore-yc,zafter=zbefore-zc
式中:pbefore=(xbefore,ybefore,zbefore)为修正前的点云坐标;pafter=(xafter,yafter,zafter)为修正后的点云坐标;(xc,yc,zc)为GPS接收机或组合惯导定位接收器位置参数;最后,利用修正后的匹配点云对坐标及L-M算法求解出待定位节点与最近地图节点的旋转矩阵R和平移向量T,再结合地图节点的全局位置信息,可获取待定位节点车辆的位置和姿态,完成最终定位
一个具体实施例中,在某高校内,验证路线长为600m,覆盖面积为15000m2,在闭环路线上采集数据构建极化地图,数据采集频率为1m/次;极化地图构建完成后,进行在线定位实验,地图采集和在线定位时间间隔超过24h;该闭环路线上共786个待定位节点,在该闭环路线上的定位轨迹示意图,如图4所示,定位误差示意图,如图5所示;在该闭环路线上,正确定位最近地图节点个数为773,节点定位准确率为98.3%,度量级定位精度为33.2cm,最大定位误差为42.9cm,满足智能车定位需求。
实施例2
本发明实施例提供了一种基于三维点云极化地图表征的智能车定位系统,包括处理器以及存储器,所述存储器上存储有计算机程序,所述计算机程序被所述处理器执行时,实现如上述实施例1所述的基于三维点云极化地图表征的智能车定位方法。
实施例3
本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机该程序被处理器执行时,实现如上述实施例1所述的基于三维点云极化地图表征的智能车定位方法。
本发明公开了一种基于三维点云极化地图表征的智能车定位方法、系统及计算机可读存储介质,通过在待定位路段采集路段的点云数据及惯导数据,根据所述惯导数据获取全局位置信息,根据点云数据获取点云的二维特征及三维特征,根据所述全局位置信息、点云的二维特征及三维特征制作出极化地图;采集待定位节点的初步GPS坐标数据,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,得到待定位节点的初定位范围;根据待定位节点的点云及待定位节点的初定位范围,获取极化地图中的最近地图节点;根据极化图子块获取角特征点和面特征点,根据所述角特征点、面特征点及最近地图节点,获取待定位节点车辆的位置和姿态;减小了智能车的定位误差;
本发明所述技术方案,以极化图为节点,融合了全局位置信息、点云的二维特征和三维特征,结合多尺度定位方法实现智能车定位,满足智能车的定位精度的需求,且鲁棒性强、定位成本低、定位计算过程简单。
以上所述本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所做出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。
Claims (8)
1.一种基于三维点云极化地图表征的智能车定位方法,其特征在于,包括以下步骤:
在待定位路段采集路段的点云数据及惯导数据,根据所述惯导数据获取全局位置信息,根据点云数据获取点云的二维特征及三维特征,根据所述全局位置信息、点云的二维特征及三维特征制作出极化地图;
采集待定位节点的初步GPS坐标数据,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,得到待定位节点的初定位范围;
根据待定位节点的点云及待定位节点的初定位范围,获取极化地图中的最近地图节点;
根据极化图子块获取角特征点和面特征点,根据所述角特征点、面特征点及最近地图节点,获取待定位节点车辆的位置和姿态;
所述根据待定位节点的点云及待定位节点的初定位范围,获取极化地图中的最近地图节点,具体包括,将待定位节点的点云转化成极化图并进行切割及预处理,提取预处理后的极化图子块的SURF和ORB全局特征,将所述SURF和ORB全局特征与初定位范围的SURF和ORB全局特征进行对应的特征匹配,获取极化地图中的最近地图节点;
所述根据所述角特征点、面特征点及最近地图节点,获取待定位节点车辆的位置和姿态,具体包括,将待定位节点和最近地图节点利用点到线的匹配方式进行角特征点匹配,利用点到面的匹配方式进行面特征点匹配;利用标定的GPS接收机位置参数和组合惯导定位接收器位置参数对匹配点云对进行坐标修正,利用修正后的匹配点云求解出待定位节点与最近地图节点的旋转矩阵和平移向量/>,根据地图节点的全局位置信息,获取待定位节点车辆的位置和姿态。
2.根据权利要求1所述的基于三维点云极化地图表征的智能车定位方法,其特征在于,所述在待定位路段采集路段的点云数据及惯导数据,具体包括,通过激光雷达扫描在惯导定位接收器上的点云集合,计算点云集合的质心,以点云集合的质心作为组合惯导定位接收器在激光雷达坐标系中的位置,等距的方式在待定位路段采集路段的点云数据及惯导数据。
3.根据权利要求1所述的基于三维点云极化地图表征的智能车定位方法,其特征在于,所述根据点云数据获取点云的二维特征,具体包括,根据点云所在的扫描线及水平视场角度获取点云的像素坐标,以点云数据与激光雷达的欧式距离作为灰度值进行投影,生成极化图,切割极化图获取图像子块,对图像子块提取SURF和ORB全局特征。
4.根据权利要求3所述的基于三维点云极化地图表征的智能车定位方法,其特征在于,所述根据点云数据获取点云的三维特征,具体包括,进行地面点的提取并在所述极化图上对所述地面点进行标记,对极化图上未标记的点进行聚类,设置聚类阈值,将点云数小于所述聚类阈值的点簇去除,将未除去的点云在极化图上标记,通过所述极化图上已标记的点获取面特征点和角特征点。
5.根据权利要求1所述的基于三维点云极化地图表征的智能车定位方法,其特征在于,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,得到待定位节点的初定位范围,具体包括,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,计算待定位节点与地图节点的欧式距离,确定地图节点集合,以所述地图节点集合作为待定位节点的初定位范围。
6.根据权利要求5所述的基于三维点云极化地图表征的智能车定位方法,其特征在于,根据所述初步GPS坐标数据及极化地图中节点的GPS坐标数据,计算待定位节点与地图节点的欧式距离,具体包括,计算待定位节点的初步GPS数据经转化后的欧式坐标以及极化地图中节点的GPS数据经转化后的欧式坐标,根据两种欧式坐标,获取,计算待定位节点与地图节点的欧式距离。
7.一种基于三维点云极化地图表征的智能车定位系统,其特征在于,包括处理器以及存储器,所述存储器上存储有计算机程序,所述计算机程序被所述处理器执行时,实现如权利要求1-6任一所述的基于三维点云极化地图表征的智能车定位方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机该程序被处理器执行时,实现如权利要求1-6任一所述的基于三维点云极化地图表征的智能车定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010717785.XA CN112070800B (zh) | 2020-07-23 | 2020-07-23 | 一种基于三维点云极化地图表征的智能车定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010717785.XA CN112070800B (zh) | 2020-07-23 | 2020-07-23 | 一种基于三维点云极化地图表征的智能车定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112070800A CN112070800A (zh) | 2020-12-11 |
CN112070800B true CN112070800B (zh) | 2024-03-26 |
Family
ID=73656554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010717785.XA Active CN112070800B (zh) | 2020-07-23 | 2020-07-23 | 一种基于三维点云极化地图表征的智能车定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112070800B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113156455A (zh) * | 2021-03-16 | 2021-07-23 | 武汉理工大学 | 基于路侧多激光雷达感知的车定位系统、方法、装置和介质 |
CN113607166B (zh) * | 2021-10-08 | 2022-01-07 | 广东省科学院智能制造研究所 | 基于多传感融合的自主移动机器人室内外定位方法及装置 |
CN113587930B (zh) * | 2021-10-08 | 2022-04-05 | 广东省科学院智能制造研究所 | 基于多传感融合的自主移动机器人室内外导航方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109099923A (zh) * | 2018-08-20 | 2018-12-28 | 江苏大学 | 基于激光、摄像机、gps与惯导融合的道路场景表征系统及其方法 |
CN109166140A (zh) * | 2018-07-27 | 2019-01-08 | 长安大学 | 一种基于多线激光雷达的车辆运动轨迹估计方法及系统 |
CN110780285A (zh) * | 2019-10-24 | 2020-02-11 | 深圳市镭神智能系统有限公司 | 激光雷达与组合惯导的位姿标定方法、系统及介质 |
CN110927743A (zh) * | 2019-12-05 | 2020-03-27 | 武汉理工大学 | 一种基于多线激光点云极化表征的智能车定位方法 |
CN111174782A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 位姿估计方法、装置、电子设备及计算机可读存储介质 |
-
2020
- 2020-07-23 CN CN202010717785.XA patent/CN112070800B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109166140A (zh) * | 2018-07-27 | 2019-01-08 | 长安大学 | 一种基于多线激光雷达的车辆运动轨迹估计方法及系统 |
CN109099923A (zh) * | 2018-08-20 | 2018-12-28 | 江苏大学 | 基于激光、摄像机、gps与惯导融合的道路场景表征系统及其方法 |
CN110780285A (zh) * | 2019-10-24 | 2020-02-11 | 深圳市镭神智能系统有限公司 | 激光雷达与组合惯导的位姿标定方法、系统及介质 |
CN110927743A (zh) * | 2019-12-05 | 2020-03-27 | 武汉理工大学 | 一种基于多线激光点云极化表征的智能车定位方法 |
CN111174782A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 位姿估计方法、装置、电子设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112070800A (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112070800B (zh) | 一种基于三维点云极化地图表征的智能车定位方法及系统 | |
CN110097093B (zh) | 一种异源图像精确匹配方法 | |
CN111583369B (zh) | 一种基于面线角点特征提取的激光slam方法 | |
CN111145228B (zh) | 基于局部轮廓点与形状特征融合的异源图像配准方法 | |
CN112362072B (zh) | 一种复杂城区环境中的高精度点云地图创建系统及方法 | |
CN105740798B (zh) | 一种基于结构分析的点云场景物体识别方法 | |
CN103136525B (zh) | 一种利用广义Hough变换的异型扩展目标高精度定位方法 | |
CN103822616A (zh) | 一种图分割与地形起伏约束相结合的遥感影像匹配方法 | |
CN106096497B (zh) | 一种针对多元遥感数据的房屋矢量化方法 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN110866934A (zh) | 基于规范性编码的复杂点云分割方法及系统 | |
CN107862319B (zh) | 一种基于邻域投票的异源高分光学影像匹配误差剔除方法 | |
CN111783722B (zh) | 一种激光点云的车道线提取方法和电子设备 | |
CN111354083A (zh) | 一种基于原始激光点云的递进式建筑物提取方法 | |
CN112396655B (zh) | 一种基于点云数据的船舶目标6d位姿估计方法 | |
CN114972968A (zh) | 基于多重神经网络的托盘识别和位姿估计方法 | |
CN105303567A (zh) | 融合图像尺度不变特征变换和个体熵相关系数的图像配准方法 | |
CN114463396B (zh) | 一种利用平面形状和拓扑图投票的点云配准方法 | |
CN109598261B (zh) | 一种基于区域分割的三维人脸识别方法 | |
CN111899291B (zh) | 基于多源维度分解的城市点云从粗到精的自动配准方法 | |
CN116878542A (zh) | 一种抑制里程计高度漂移的激光slam方法 | |
CN111080649A (zh) | 一种基于黎曼流形空间的图像分割处理方法及系统 | |
CN116664855A (zh) | 适用于行星探测车影像的深度学习三维稀疏重建方法及系统 | |
CN115909274A (zh) | 面向自动驾驶的动态障碍物检测方法 | |
CN114926637A (zh) | 基于多尺度距离图与点云语义分割的园林地图构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |