CN113191459B - 一种基于路侧激光雷达的在途目标分类方法 - Google Patents

一种基于路侧激光雷达的在途目标分类方法 Download PDF

Info

Publication number
CN113191459B
CN113191459B CN202110582129.8A CN202110582129A CN113191459B CN 113191459 B CN113191459 B CN 113191459B CN 202110582129 A CN202110582129 A CN 202110582129A CN 113191459 B CN113191459 B CN 113191459B
Authority
CN
China
Prior art keywords
point cloud
target
point
frame
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110582129.8A
Other languages
English (en)
Other versions
CN113191459A (zh
Inventor
侯福金
张营超
李岩
吴建清
宋修广
张涵
李利平
宋彦颉
霍光
杨梓梁
刘世杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong High Speed Construction Management Group Co ltd
Shandong University
Original Assignee
Shandong High Speed Construction Management Group Co ltd
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong High Speed Construction Management Group Co ltd, Shandong University filed Critical Shandong High Speed Construction Management Group Co ltd
Priority to CN202110582129.8A priority Critical patent/CN113191459B/zh
Publication of CN113191459A publication Critical patent/CN113191459A/zh
Application granted granted Critical
Publication of CN113191459B publication Critical patent/CN113191459B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种基于路侧激光雷达的在途目标分类方法,包括:(1)点云数据收集;(2)地面拟合;(3)背景滤除;(4)目标聚集;对背景滤除后的三维点云数据进行聚类操作,将属于同一个物体的所有点划分的一类;(5)轨迹追踪;基于全局距离搜索的方法对车辆进行追踪,将当前帧的某一车辆与前一帧的同一车辆进行关联;(6)提取目标侧面轮廓的参数,建立数据库;(7)通过复合分类器实现目标类别的分类。本发明基于对激光雷达所收集到的点云数据进行处理分析,对道路上的目标进行识别,从而掌握区域路段交通参与者的类型及流量,对于道路设计、行车安全与控制、交通拥堵疏导等应用具有重要意义。

Description

一种基于路侧激光雷达的在途目标分类方法
技术领域
本发明属于目标检测与分类领域,具体是基于路侧激光雷达采集的点云数据,经过对数据进行背景滤除、目标聚类、轨迹追踪、标定等预处理,实现对在途目标的分类。
背景技术
近年来,我国经济社会发展迅猛,人口和车辆日益增多,交通需求不断增加,给交通系统运营带来愈发沉重的负担。为了减轻交通系统的负担,需要对交通量进行详细地调查,为后续交通规划做铺垫。道路通行目标的准确分类及统计是交通量调查的必要环节,更是分析交通问题、缓解交通拥堵的有效手段。掌握区域路段交通参与者(包括行人、非机动车和机动车)的类型及流量,对于道路设计、行车安全与控制、交通拥堵疏导等应用具有重要意义。
当前日趋严重的交通难题对道路目标分类技术提出了更高的要求,高速公路行车过程中,若能掌握路段不同车型的交通行为,则可对该路段的通行用户做出行驶调控提示以及事故预警,起到丰富导航信息的作用,为未来车联网时代的普及部署作铺垫。当前已经有了相关的道路目标检测算法,主要分为:侵入式目标分类技术、车载和机载目标分类技术等。
侵入式目标分类技术是将车辆检测设备安装在道路路面结构上部或下部来进行目标信息感知与分类。通过侵入式技术检测设备能够获取车身长度、车轴数量、信号/波形特征,并利用不同道路目标上述参数信息的差异性进行目标分类。该技术因为其传感器安装位置离通行目标很近,可有效捕捉车身及运动信息,故通常能够实现较高的分类准确率。但它的缺点也十分明显,该技术在安装和维修过程中,需要刨开路面结构,施工路段交通必须封闭以保证工人和通行者安全,这导致技术成本颇高且耗时耗力。
车载和机载目标分类技术是将摄像头、激光雷达等设备安装在移动车辆、无人机、卫星等载体上,对交通情况进行监测从而实现目标分类。车载目标分类技术虽具有灵活、可控性强、分类成功率较高等优势,但在车联网还未普及的今天,车载激光雷达采集的数据信息尚无法很好的用于实时交通监测系统。随着激光雷达的成本大幅降低,使得激光雷达的大量布施成为可能,它也因此逐渐成为交通监测设备的新兴热门代表。激光雷达分为机械激光雷达与固态激光雷达两种,机械激光雷达带有控制激光发射角度的旋转部件,而固态激光雷达则无需机械旋转部件,故机械激光雷达有一个明显的优势就是其360°视场,本发明中均采用机械激光雷达,后简称为激光雷达。激光雷达具有以下的优势:(1)相比于用摄像头、侵入式、车载机载等设备而言,激光雷达不受光照条件制约;(2)点云数据计算机处理效率更高;(3)对目标三维外形信息感知清晰;(4)可以实现360°无缝监测;(5)可长期持续监测,不破坏路面和阻碍交通;(6)获取数据稳定,容错率高。
在使用激光雷达时,需要用到点云聚类处理,传统的DBSCAN密度聚类算法主要原理为:当某一区域聚集在一起的点密度足够高时,则认为该区域内为同一簇的点,从而实现分簇。该算法包括两个参数:领域半径(ε)和最小领域点数(M)。领域半径描述了当点与点之间距离多近时,它们会被看作是同一簇;而最小领域点数描述了一个簇的形成需包含多少个邻域点。虽然该算法的计算效率高,但其没有考虑目标在不同高度上的点云分布,对于那些可能在长度或宽度区别不明显,但在高度上有明显差别的在途目标,用这种方式聚类识别出的目标点云无法满足后面进一步的目标信息提取,需要对该算法进行一定的改进后使用。
发明内容
鉴于上述问题,本发明针对如何使用路侧激光雷达采集的点云数据分类道路目标的问题,围绕对目标点云信息提取、识别追踪、特征提取最终实现目标分类的过程开展研究工作,进而实现对目标进行有效管理。本发明提供了一种基于路侧激光雷达的在途目标分类方法。
术语解释:
1、RANSAC:RANSAC是Random Sample Consensus(随机抽样一致性)的缩写。它可以从一组包含“局外点”的观测数据集中,通过迭代方式估计数学模型的参数。与最小二乘法类似,但最小二乘法将集合中的“局外点”与“局内点”都考虑进数学模型中,而RANSAC可以通过迭代的方式,仅仅考虑“局内点”,从而拟合出合理的数学模型。
2、点云图:这里指激光雷达扫描出的点云图。根据激光测量原理得到的点,包括三维坐标(XYZ)和激光反射强度(Intensity),在对雷达周围完成采样时,得到的是一个点的集合,称之为“点云图”。
3、地面点:激光雷达扫描到实际地面时,在点云图中也会生成相应的点云,这部分点就叫做地面点。
4、非地面点:在全部点云图中,除地面点以外的所有点均称为非地面点。
5、3D-DBSCAN:是一种基于密度的空间聚类算法。该算法将具有足够密度的区域划分为簇,并在具有噪声的空间数据库中发现任意形状的簇,它将簇定义为密度相连的点的最大集合。需要注意的是该算法考虑了空间的点云分布,包括簇的长度、宽度和高度。
6、核心点:如果一个点的ε邻域(相当于半径为ε)内包含的点数大于等于M(阈值),则该点就是核心点。
7、噪声点:如过一个点ε邻域内包含的点数小于M,那么该点就是噪声点。
8、密度直达:若一个点处于另一核心点的ε邻域中,则称该点是由此核心点密度直达的。
9、与核心点密度可达:若一个点可与另一核心点通过一系列相邻之间互相密度直达的点关联起来,则称该点与这一核心点是密度可达的。
10、密度相连:若两个未知相互关系的点,已知两者均与同一点密度可达,则称这两个点是密度相连的。
11、随机森林分类器(Random Forest,RF):随机森林分类器是一种通过集成学习的思想将多棵树集成的一种算法,它的基本单元是决策树,而它的本质是属于机器学习的一大分支——集成学习方法。从直观角度来解释,每棵决策树都是一个分类器,那么对于一个输入样本,N棵树就会有N个分类结果。而RF集成了所有的分类投票结果,将投票次数最多的类别指定为最终的输出,这就是RF分类器的原理。
12、支持向量机分类器(Support Vector Machine,SVM):SVM的本质模型是特征空间中最大化间隔的线性分类器,是一种二分类模型。作为一种线性分类器,分类的对象要求是线性可分的。
13、反向传播神经网络(Backpropagation Neural Network,BPNN):BPNN是一种按误差反向传播算法训练的多层前馈网络,它能够存储和学习大量的输入-输出的映射关系,并且不用事前得到这个映射关系的数学模型。BPNN通过梯度最速下降的学习规则,借助反向传播不断调整网络的权值和阈值,直至网络的误差平方和达到最小值。
14、自适应增强(Adaptive Boosting,AdaBoost):Boosting系列算法的原理主要是将多个弱分类器增强为一个强分类器,大部分Boosting系列的算法都是根据前一个分类器的分类效果对样本分布进行调整,然后再用调整后的“新分布样本”去训练下一个分类器,如此迭代直到把所有弱分类器都训练完,最后这些弱分类器被组合成一个强分类器。
15、SDUITC数据集:SDUITC数据集是基于路侧激光雷达监测道路在途目标通行而采集的目标点云信息数据库,其包含内容如下:1、采集目标的视频录像截图;2、目标的点云簇数据;三、特征表格(csv格式),其中特征表格包含目标点云簇包含的点云个数(N)、目标点云簇最大长度(Lmax)、点云簇中的点云距激光雷达的最小距离(D)、点云簇的高度值序列(Hseq)、点云簇的最大高度(Hmax)等5个特征组成。
本发明的技术方案为:
一种基于路侧激光雷达的在途目标分类方法,包括步骤如下:
(1)点云数据收集;
点云数据收集指的是在路侧放置激光雷达,收集车辆及周围环境的点云数据,点云数据是指在计算机中存储为点的空间坐标信息以及点云密度信息;
(2)地面拟合;
从步骤(1)收集的点云数据中拟合出地面线;
(3)背景滤除;
步骤(2)拟合出的地面线上的为在途目标,地面线下的为地面点,采用RANSAC方法将步骤(2)拟合出的地面线上的在途目标提取出来,得到在途目标;实现背景滤除。
(4)目标聚集;
对背景滤除后得到的在途目标进行聚类操作,将属于同一个物体的所有点划分的一类;
(5)轨迹追踪;
由于激光的直线传播,远车道的车辆存在被近车道车辆遮挡的情况,故在三维点云中,车辆的点云图会出现消失或变形。因此,为了防止对目标产生重复误识别或漏识别,基于全局距离搜索的方法对车辆进行追踪,将当前帧的某一车辆与前一帧的同一车辆进行关联;
(6)提取目标侧面轮廓的参数,建立数据库;
所述目标侧面轮廓的参数包括车身长度、最大高度、高度序列、点云个数、距激光雷达距离;其中高度序列为:将车辆的点云目标均分为若干段,从车头至车尾,依次取每一段点云的最大高度,组成的高度集合即为高度序列;
所述数据库包括采集目标的视频录像截图、目标点云簇信息数据、特征表格(csv格式);其中特征表格包括目标点云簇信息数据包括的点云个数(N)、目标点云簇最大长度(Lmax)、点云簇中的点云距激光雷达的最小距离(D)、点云簇的高度值序列(Hseq)、点云簇的最大高度(Hmax);
(7)通过复合分类器实现目标类别的分类。
根据本发明优选的,步骤(1)中,通过32线激光雷达扫描通过道路上的车辆,经过背景滤除,得到在途目标的三维点云数据,所述32线激光雷达的型号为RS-LiDAR-32。采集过程中的现场点云数据可通过Ubuntu系统rviz可视化模块实时显示。
根据本发明优选的,步骤(2)中,基于RANSAC的三阶曲面多项式估计模型的拟合地面分割方法即PL3-RANSAC方法进行地面拟合,所述三阶曲面多项式估计模型如式(I)所示:
z=a0+a1x+a2y+a3xy+a4x2+a5y2+a6x2y+a7xy2+a8x3+a9y3 (I)
式(I)中:
z——拟合出的三维曲面上点的z轴坐标(高度方向);
x——拟合出的三维曲面上点的x轴坐标(行车方向);
y——拟合出的三维曲面上点的y轴坐标(与行车方向垂直的方向);
a0-a9——表示三维曲面方程中的系数。
进一步优选的,步骤(2)中,地面拟合的具体实现步骤包括:
S1:从初始点云图中提取点云数据的范围,x、y方向不设限制,以z=0是地面为前提,令z=[-maxDis,maxDis],maxDis为z方向的限定取值;
S2:从单独某一帧点云图中S1限定的范围中随机抽取数据点;
S3:处理点云图,如果该点云图是首帧,则运行S6,否则,运行S4;
S4:判断S2抽取的数据点与目前已估计出的三阶曲面多项式估计模型(通过三阶曲面方程建模)的距离误差,距离误差通过抽取的数据点与目前已估计出的三阶曲面多项式估计模型的z方向差值的绝对值计算,如式(Ⅱ)所示:
zerr=|z0-zold| (Ⅱ)
式(Ⅱ)中,zerr代表z方向距离误差,z0为抽取的数据点z坐标值,zold为目前已估计出的三阶曲面多项式估计模型上对应的z坐标值;
令e1为误差阈值即误差参数,保留zerr小于e1的数据点,即为地面点;
S5:在S4中去除了非地面点,设保留下的地面点z坐标值为znew,将znew与zold进行加权平均,加权公式如式(Ⅲ)所示:
znew2=w1znew+w2zold (Ⅲ)
式(Ⅲ)中,w1及w2为加权系数;
S6:直接进行三阶曲面拟合,估计出的三阶曲面拟合方程的zold距离,通过三阶曲面拟合方程即式(I)求取;
S7:从S1中限定的范围中抽取数据点,判断数据点的z0与S6中估计出的三阶曲面拟合方程的zold距离误差,若小于误差阈值e2,则认为是地面点,否则,则认为该点为非地面点;
S8:重复S2-S6直至推出最佳三阶曲面多项式估计模型。
根据本发明优选的,步骤(4)中,采用3D-DBSCAN密度聚类算法进行目标聚集,具体实现过程包括:
从任意一个未被访问过的点云图中的数据点作为启始点开始,计算并检索启始点的ε空间范围,ε空间范围是指以该启始点为圆心,ε为半径做圆,形成的空间球形,如果该启始点的ε空间范围内有大于最小领域点数M的数据点,则认为这些点构成了一簇;否则(即范围内不包含有足够多的点),则标记此启始点为噪声点;
若发现一点是一簇的密集部分(即与核心点密度可达),则认为该点的ε空间范围是这簇的一部分,从而领域内的所有数据点也被添加进该簇中,这个过程一直持续到找到所有密度相连的簇为止;接着,一个新的未被访问过的启始点被搜索出来,重复上述过程,得到相应密度相连的所有簇或噪声点。
进一步优选的,ε=1.2,M=6。
根据本发明优选的,步骤(5)中,将通过3D-DBSCAN密度聚类算法聚类后的在途目标轮廓的点云簇分别赋以不同类簇号,用t表示,在轨迹追踪之前,先标记每一帧中的点云,设Pi是第i帧中的点云集合,点云集合Pi中的点用ID号j标记,则类簇号为t的目标点云的第i帧数据,表示为Qt,i={Pt,i,1,Pt,i,2,...Pt,i,j};其中,Pt,i,j中的t表示车辆类簇号,i表示帧号,j表示点云集合中点的ID号,Qt,i代表第i帧中类簇号为t的目标点云信息的存储矩阵;设当前追踪的目标类簇号为t,基于全局距离搜索的轨迹追踪的实现步骤包括:
S9:查询并从矩阵Qt,i中计算前一帧中类簇号为t的车辆距离激光雷达最近的点,记这点为At
S10:计算当前帧矩阵Qt,i中所有类簇号的目标距离激光雷达最近的点到At的距离dn,判断并筛选出满足dn小于minDis的点,其中,minDis为阈值参数;
S11:计算并选出S10中具有最小值mindn的点,mindn指的是相邻帧的目标点云簇两角点的最小距离,检索到该点所在的类簇,并记录类簇号;
S12:用相同的方式判断点云数据pcd文件中截取下来的每一帧,将满足S10、S11中条件的点所属的类簇号在不同帧中关联起来并赋以新类簇号k(可以认为是第k辆车的点云簇);属于新类簇号k目标在不同帧中的点云信息存储矩阵表示为:CarDk={Qk,1,Qk,2,...Qk,i};Qk,i表示新的类簇号k在第i帧中的点云信息;CarDk表示类簇号k的点云信息存储矩阵。
进一步优选的,步骤S12中的关联方法为:在相邻帧中,若两个目标点云簇量角点的最小距离mindn小于minDis,则认为这两个点云簇为同一个在途目标的不同帧点云图上的显示,则在计算机内将两者标记为同一点云簇。
进一步优选的,minDis设置为2.2m。
根据本发明优选的,步骤(6)中,在激光雷达的扫描区域的一组关联帧中,遍历每一帧中的目标点云信息CarDk,目标点云信息CarDk是指类簇号k的点云信息存储矩阵,并从目标点云信息CarDk中提取目标点云个数N,记标签为k的车辆第i帧目标点云个数为Nki,则标签为k的车辆的最大点云数计算公式如式(Ⅳ)所示:
Nkmax=max{Nki∈CarDk|i=1,2,3,...,imax}; (Ⅳ)
记录出现最大点云数的帧数ikmax,则标签为k的车辆的5个分类特征均提取自标签为k的车辆打包信息第ikmax帧的点云数据,i值均取ikmax
目标点云个数N定义为出现最大点云数的那一帧目标点云所包含的点云个数,即为公式(Ⅳ)中的Nkmax,N=Nkmax
将聚类后的目标点云投影至xy平面,x轴方向为车辆行驶方向,y轴为垂直于道路方向,可见,在不考虑车辆因变道或掉头的特殊情况下目标点云最大长度Lmax定义为:关联轨迹点云个数最多的帧中,目标聚类点云x轴方向的最大值与x轴方向最小值差值的绝对值。
距激光雷达距离D定义为车辆在轨迹过程中点云数最多的一帧中目标点云集距激光雷达的xy方向的最小距离,即将所有的点都在xy平面上投影,计算点云距离激光雷达的最小距离;
将车辆聚类后的点云图沿着长度方向即x方向均分成n个条柱,则第n个条柱所在x区间为(xn-1,xn),每个条柱内包含其所在x区间范围内的全部目标点云;
假设第n个条柱的高度为Hn,其由该条柱x区间范围内目标点的最大高度确定,那么,高度值序列Hseq表示为:Hseq={H1,H2,...Hn};最大高度Hmax表示为:Hmax=max Hseq
根据本发明优选的,步骤(6)中,数据库建立步骤为:
S13:通过特征表格(csv格式)获取目标出现帧;实现过程为:通过聚类算法判断当前帧上是否存在在途目标,若存在,则按照顺序记录下该在途目标出现在第几帧,以csv格式记录在特征表格中;若不存在,则进行下一帧的判别直至判断完所有帧;
S14:可视化点云数据并与视频录像截图对应;实现过程:将存储点云数据的pcd格式一帧一帧的截取,并与一帧一帧的视频录像截图进行对照,将其与同一时间一起测得的视频录像截图对应起来;
S15:利用数据点提取工具MATLAB刷亮框选目标点云数据并导出目标点云簇信息;实现过程:利用数据点提取工具MATLAB刷亮框选在途目标的点云簇;并对在途目标的点云簇进行处理,得到目标点云簇信息数据包括的点云个数(N)、目标点云簇最大长度(Lmax)、点云簇中的点云距激光雷达的最小距离(D)、点云簇的高度值序列(Hseq)、点云簇的最大高度(Hmax);
S16:视频录像截图目标;实现过程:将S15中激光雷达所记录的点云簇所对应的真实在途目标,在视频录像文件中通过截图的方式截取出来,用作对比;
S17:根据类别划分标准在特征表格中对照输入编号;根据对在途目标的编号,在特征表格分类框下填下对应的编号。
根据本发明优选的,步骤(7)的具体实现过程包括:
S16:四种分类器使用SDUITC训练集分别完成训练;四种分类器包括RF分类器、SVM分类器、BPNN分类器、AdaBoost分类器;
SDUITC训练集包含行人、摩托车(电动车)、小轿车、SUV、微小型客车、小型货车、单元卡车、皮卡、公交车、大型货车10种类型,将其分别编号为0-9共10种类型;
S17:使用测试集进行测试;SDUITC数据集划分为10份,随机选择其中的2份作为测试集,另外8份作为SDUITC训练集;
S18:同时并行四种分类器,使每种分类器都对测试集中的测试样本作出类别预测,记预测的类别为pl,则某一分类器的预测类别为pl_N
S19:根据四种分类器每个子类别对应的F1score值,对四种分类器预测类别进行权重赋值,通过加权投票的方式,推选出预测类别;即复合分类器预测结果表示如式(Ⅴ)所示:
plmerge=(plRF×F1score_plRF+…+plSVM×F1score_plSVM)/5 (Ⅴ)
其中,plmerge表示复合分类器预测的类别,plRF为RF分类器的预测类别,F1score_plRF为RF分类器在预测类别plRF时的加权权重,plSVM为SVM分类器的预测类别,F1score_plSVM为SVM分类器在预测类别plSVM时的加权权重。
同理,F1score_plSVM为SVM在预测类别plSVM时的加权权重。
S20:加权投票后的预测结果即为复合分类器的最终结果。
本发明的有益效果为:
基于对激光雷达所收集到的点云数据进行处理分析,对道路上的目标进行识别,从而掌握区域路段交通参与者(包括行人、非机动车和机动车)的类型及流量,对于道路设计、行车安全与控制、交通拥堵疏导等应用具有重要意义。
附图说明
图1是本发明基于路侧激光雷达的在途目标分类方法流程示意图;
图2是本发明传统RANSAC算法拟合的平面地面示意图;
图3是本发明三阶曲面拟合流程示意图;
图4是本发明在途目标角点提取示意图;
图5是本发明在途目标目标点云最大长度示意图;
图6是本发明车辆点云条柱划分示意图;
图7(a)为使用普通RANSAC算法得到的地面线;
图7(b)为使用改进后的RANSAC算法即本发明三阶曲面拟合得到的地面线。
图8为滤除地面线后的点云图示意图。
具体实施方式
下面结合说明书附图和实施例对本发明作进一步限定,但不限于此。
实施例1
一种基于路侧激光雷达的在途目标分类方法,如图1所示,包括步骤如下:
(1)点云数据收集;
点云数据收集指的是在路侧放置激光雷达,收集车辆及周围环境的点云数据,点云数据是指在计算机中存储为点的空间坐标信息以及点云密度信息;
(2)地面拟合;
从步骤(1)收集的点云数据中拟合出地面线;
(3)背景滤除;
步骤(2)拟合出的地面线上的为在途目标,地面线下的为地面点,采用RANSAC方法将步骤(2)拟合出的地面线上的在途目标提取出来,得到在途目标;实现背景滤除。
(4)目标聚集;
对背景滤除后得到的在途目标进行聚类操作,将属于同一个物体的所有点划分的一类;在点云聚类时,考虑高度方向上的点云密度,与传统的DBSCAN密度聚类算法不同的是,DBSCAN仅考虑平面上的点云密度分布,但是改进后的聚类算法考虑的是三维点云图。
(5)轨迹追踪;
由于激光的直线传播,远车道的车辆存在被近车道车辆遮挡的情况,故在三维点云中,车辆的点云图会出现消失或变形。因此,为了防止对目标产生重复误识别或漏识别,基于全局距离搜索的方法对车辆进行追踪,将当前帧的某一车辆与前一帧的同一车辆进行关联;
(6)提取目标侧面轮廓的参数,建立数据库;
目标侧面轮廓的参数包括车身长度、最大高度、高度序列、点云个数、距激光雷达距离;其中高度序列为:将车辆的点云目标均分为若干段,从车头至车尾,依次取每一段点云的最大高度,组成的高度集合即为高度序列;
数据库包括采集目标的视频录像截图、目标点云簇信息数据、特征表格(csv格式);其中特征表格包括目标点云簇信息数据包括的点云个数(N)、目标点云簇最大长度(Lmax)、点云簇中的点云距激光雷达的最小距离(D)、点云簇的高度值序列(Hseq)、点云簇的最大高度(Hmax);
(7)通过复合分类器实现目标类别的分类。
建立了名为SDUITC的数据库,该数据库中包含行人、摩托车(电动车)、小轿车、SUV、微小型客车、小型货车、单元卡车、皮卡、公交车、大型货车等10种类型,将其分别编号为0~9共10种类型。为了能够将10种目标更好地进行分类,采用的分类器主要有随机森林(RF)、支持向量机(SVM)、反向传播神经网络(BPNN)、自适应增强算法(AdaBoost)四种分类方法。
RF分类器具有数据集适应能力强(可处理高维数据)、训练速度快、适合大数据集等优势;但也有对于噪音比较大的数据集,容易出现过拟合的缺点。AdaBoost分类器具有抗过拟合能力强、能够在短时间内得到较好预测结果、精度高等优势;但异常样本在训练过程中容易获得较高的权重,影响最终强分类器的预测。
实施例2
根据实施例1所述的一种基于路侧激光雷达的在途目标分类方法,其区别在于:
步骤(1)中,通过32线激光雷达扫描通过道路上的车辆,经过背景滤除,得到在途目标的三维点云数据,32线激光雷达的型号为RS-LiDAR-32。采集过程中的现场点云数据可通过Ubuntu系统rviz可视化模块实时显示。
步骤(2)中,本发明提出了一种新的地面拟合方法。如图2所示,传统RANSAC算法估计地面的方法是将地面看作是一个平面模型,但其也有不足,比如现实道路路面并不是平面,这就使分割后识别的地面线容易出现不完整的现象,或发生将一部分车辆点云误识别为地面线的情况。因此,本发明提出一种基于RANSAC的三阶曲面多项式估计模型的拟合地面分割方法即PL3-RANSAC方法进行地面拟合,三阶曲面多项式估计模型如式(I)所示:
z=a0+a1x+a2y+a3xy+a4x2+a5y2+a6x2y+a7xy2+a8x3+a9y3 (I)
式(I)中:
z——拟合出的三维曲面上点的z轴坐标(高度方向);
x——拟合出的三维曲面上点的x轴坐标(行车方向);
y——拟合出的三维曲面上点的y轴坐标(与行车方向垂直的方向);
a0-a9——表示三维曲面方程中的系数。
步骤(2)中,地面拟合的具体实现步骤包括:
S1:从初始点云图(即刚架设好激光雷达,还未有车辆通过时的初始阶段的某一帧。激光雷达在采集点云数据时,保存格式为点云图的专属pcd格式,类似于视频文件,可以一帧一帧的将点云图从pcd格式文件中提取出来)中提取点云数据的范围,因为要对地面进行估计,因此,x、y方向不设限制,以z=0是地面为前提,令z=[-maxDis,maxDis],maxDis为z方向的限定取值;
S2:从单独某一帧点云图(pcd文件中某一帧点云图,类似于从视频文件中截取一帧图片)中S1限定的范围中随机抽取数据点;(包括“地面点”和“非地面点”,需要后面做出判断)。
S3:处理点云图,如果该点云图是从pcd文件中截取的首帧(首帧的判断方法:每一帧点云图都是按照顺序从pcd文件中截取出来的,在地面线拟合时,将这些帧点云图按顺序输入地面线拟合程序,则第一次输入的就是首帧,此后的均不是首帧),则运行S6,否则,运行S4;
S4:判断S2抽取的数据点与目前已估计出的三阶曲面多项式估计模型(通过三阶曲面方程建模)的距离误差,距离误差通过抽取的数据点与目前已估计出的三阶曲面多项式估计模型的z方向差值的绝对值计算,如式(Ⅱ)所示:
zerr=|z0-zold| (Ⅱ)
式(Ⅱ)中,zerr代表z方向距离误差,z0为抽取的数据点z坐标值,zold为目前已估计出的三阶曲面多项式估计模型上对应的z坐标值;
令e1为误差阈值即误差参数,保留zerr小于e1的数据点,即为地面点;
S5:在S4中去除了非地面点,设保留下的地面点z坐标值为znew,将znew与zold进行加权平均,加权公式如式(Ⅲ)所示:
znew2=w1znew+w2zold (Ⅲ)
式(Ⅲ)中,w1及w2为加权系数;
S6:直接进行三阶曲面拟合,估计出的三阶曲面拟合方程的zold距离,通过三阶曲面拟合方程即式(I)求取;
S7:从S1中限定的范围中抽取数据点,判断数据点的z0与S6中估计出的三阶曲面拟合方程的zold距离误差,若小于误差阈值e2,则认为是地面点,否则,则认为该点为非地面点;
S8:重复S2-S6直至推出最佳三阶曲面多项式估计模型。
本发明三阶曲面拟合流程示意图见图3所示。实现效果见图7(a)图7(b)所示,图7(a)为使用普通RANSAC算法得到的地面线;图7(b)为使用改进后的RANSAC算法即本发明三阶曲面拟合得到的地面线。
实施例3
根据实施例2所述的一种基于路侧激光雷达的在途目标分类方法,其区别在于:
步骤(4)中,采用3D-DBSCAN密度聚类算法进行目标聚集,与传统DBSCAN算法不同的是,3D-DBSCAN密度聚类算法新增了z方向上的点云数据,将平面点云聚类扩展到立体点云聚类操作。具体实现过程包括:
从任意一个未被访问过的点云图中的数据点作为启始点开始,计算并检索启始点的ε空间范围,ε空间范围是指以该启始点为圆心,ε为半径做圆,形成的空间球形,如果该启始点的ε空间范围内有大于最小领域点数M的数据点,则认为这些点构成了一簇;否则(即范围内不包含有足够多的点),则标记此启始点为噪声点;
标记后的启始点可能会出现在其他点的有足够多的点的ε空间范围内,从而成为其他簇的一份子。若发现一点是一簇的密集部分(即与核心点密度可达),则认为该点的ε空间范围是这簇的一部分,从而领域内的所有数据点也被添加进该簇中,这个过程一直持续到找到所有密度相连的簇为止;接着,一个新的未被访问过的启始点被搜索出来,重复上述过程,得到相应密度相连的所有簇或噪声点。
ε=1.2,M=6。M是最小领域点数,即一个数据点的空间范围内至少需要存在6个数据点,才不会将该数据点当做是噪声点。经过相关测试,采用ε=1.2,M=6的3D-DBSCAN算法可以实现相邻车道并行的两车(间距在3m以内)的点云进行聚类分簇。经过聚类后就能得到包含在途目标轮廓的点云簇。
步骤(5)中,将通过3D-DBSCAN密度聚类算法聚类后的在途目标轮廓的点云簇分别赋以不同类簇号,用t表示,在轨迹追踪之前,先标记每一帧中的点云,设Pi是第i帧中的点云集合,点云集合Pi中的点用ID号j标记,则类簇号为t的目标点云的第i帧数据,表示为Qt,i={Pt,i,1,Pt,i,2,...Pt,i,j};其中,Pt,i,j中的t表示车辆类簇号,i表示帧号,j表示点云集合中点的ID号,Qt,i代表第i帧中类簇号为t的目标点云信息的存储矩阵;设当前追踪的目标类簇号为t,
与传统DBSCAN算法不同的是,3D-DBSCAN密度聚类算法新增了z方向上的点云数据,将平面点云聚类扩展到立体点云聚类操作,滤除地面线后的点云图见图8所示。
该算法以任意一个未被访问过的点开始,计算并检索启始点的ε空间范围,如果范围内有足够多的点,则认为这些点构成了一簇;否则(即范围内不包含有足够多的点),则标记此启始点为噪声点。刚才标记的启始点可能会出现在其他点足够大的ε范围内,从而成为其他簇的一份子。若发现一点是一簇的密集部分(即与核心点密度可达),则将该点的ε领域也认为是这簇的一部分,从而领域内的所有点也被添加进该簇中,这个过程一直持续到找到所有密度相连的簇为止。然后,一个新的未被访问过的启始点被搜索出来,重复上述过程,得到相应密度相连的所有簇或噪声点。
基于全局距离搜索的轨迹追踪的实现步骤包括:
S9:查询并从矩阵Qt,i中计算前一帧中类簇号为t的车辆距离激光雷达最近的点,记这点为At
S10:计算当前帧矩阵Qt,i中所有类簇号的目标距离激光雷达最近的点到At的距离dn,判断并筛选出满足dn小于minDis的点,其中,minDis为阈值参数;
S11:计算并选出S10中具有最小值mindn的点,mindn指的是相邻帧的目标点云簇两角点的最小距离,如图4所示,检索到该点所在的类簇,并记录类簇号;
S12:用相同的方式判断点云数据pcd文件中截取下来的每一帧,将满足S10、S11中条件的点所属的类簇号在不同帧中关联起来并赋以新类簇号k(可以认为是第k辆车的点云簇);属于新类簇号k目标在不同帧中的点云信息存储矩阵表示为:CarDk={Qk,1,Qk,2,...Qk,i};Qk,i表示新的类簇号k在第i帧中的点云信息;CarDk表示类簇号k的点云信息存储矩阵。
步骤S12中的关联方法为:在相邻帧中,若两个目标点云簇量角点的最小距离mindn小于minDis,则认为这两个点云簇为同一个在途目标的不同帧点云图上的显示,则在计算机内将两者标记为同一点云簇。
本发明采用角点作为不同帧关联的关键点,图4为角点提取示意图,其中箭头表示目标点云距离激光雷达的最短距离,相邻帧中的目标点云用不同标志的云点给出,激光雷达位于(0,0)处。在图4中相邻帧点云被判断为同一类簇的前提下,相邻帧的目标两角点的距离即为mindn
在某一帧点云图中,点云簇有很多数据点组成,根据空间中两点之间的距离公式,得到点云簇中各点到激光雷达的距离,通过比较得到距离激光雷达最近的点,用来代替目标点云簇距离激光雷达的距离,该点称为角点。每一个在途目标的角点都通过这样的方法进行提取。
对于相邻帧来说,若两个点云簇角点的距离小于minDis(这里取2.2m),则认为这两个点云簇是同一目标在不同帧上的点云簇。这时在计算机上将这两者标记为新类簇号k。除此之外,继续追踪与该两帧相邻的其他帧,直至找到该在途目标的全部点云簇,将其都标记为新类簇号k,这样就实现了对不同帧点云簇的追踪操作。
minDis设置为2.2m。
该算法有两个重点:一是不同帧相互关联时目标点云关键点的选取,二是阈值参数minDis。阈值minDis过大会导致相邻帧关联的是与目标较近的另一目标,若取值过小,则会导致在目标自身行驶速度较快时无法完成相邻帧数据的关联,即无法被追踪,故本发明将阈值minDis设置为2.2m。采用ε=1.2,M=6的3D-DBSCAN算法可以实现将相邻车道并行的两车(间距在3m以内)的点云进行聚类分簇。
实施例4
根据实施例3所述的一种基于路侧激光雷达的在途目标分类方法,其区别在于:
步骤(6)中,特征提取的对象为关联帧中聚类后的目标点云,为规避目标距激光雷达距离变化对点云特征提取的影响,本发明提出一种基于关联点云数最值的特征提取方法。在激光雷达的扫描区域的一组关联帧中,遍历每一帧中的目标点云信息CarDk,目标点云信息CarDk是指类簇号k的点云信息存储矩阵,并从目标点云信息CarDk中提取目标点云个数N,记标签为k的车辆第i帧目标点云个数为Nki,则标签为k的车辆的最大点云数计算公式如式(Ⅳ)所示:
Nkmax=max{Nki∈CarDk|i=1,2,3,...,imax}; (Ⅳ)
记录出现最大点云数的帧数ikmax,则标签为k的车辆的5个分类特征均提取自标签为k的车辆打包信息第ikmax帧的点云数据,i值均取ikmax
目标点云个数N定义为出现最大点云数的那一帧目标点云所包含的点云个数,即为公式(Ⅳ)中的Nkmax,N=Nkmax
将聚类后的目标点云投影至xy平面,x轴方向为车辆行驶方向,y轴为垂直于道路方向,可见,在不考虑车辆因变道或掉头的特殊情况下目标点云最大长度Lmax定义为:关联轨迹点云个数最多的帧中,目标聚类点云x轴方向的最大值与x轴方向最小值差值的绝对值;见图5所示。
距激光雷达距离D定义为车辆在轨迹过程中点云数最多的一帧中目标点云集距激光雷达的xy方向的最小距离,即将所有的点都在xy平面上投影,计算点云距离激光雷达的最小距离;
将车辆聚类后的点云图沿着长度方向即x方向均分成n个条柱,则第n个条柱所在x区间为(xn-1,xn),每个条柱内包含其所在x区间范围内的全部目标点云,示意图见图6。在本发明中,n值取15。假设第n个条柱的高度为Hn,其由该条柱x区间范围内目标点的最大高度确定,那么,高度值序列Hseq表示为:Hseq={H1,H2,...Hn};需要注意的是,该序列总是从车辆的头部至尾部按顺序提取排列的,即双向车道行驶的车,无论是从激光雷达左边驶向右边还是由右至左,均按照先头后尾的顺序提取高度值。
最大高度Hmax表示为:Hmax=maxHseq
目标最大高度特征选取的意义在于,在分类任务中,可以通过这一特征迅速的区分大尺寸车型与小车型,而不必对高度序列进行逐个分析和筛选,为分类减轻计算负担。
步骤(6)中,数据库建立步骤为:
S13:通过特征表格(csv格式)获取目标出现帧;csv格式文件由任意数目的记录(文本或数字)组成,记录间以某种换行符分隔;每条记录由字段组成,字段间的分隔符是其它字符或字符串,最常见的是逗号或制表符。实现过程为:通过聚类算法判断当前帧上是否存在在途目标,若存在,则按照顺序记录下该在途目标出现在第几帧,以csv格式记录在特征表格中;若不存在,则进行下一帧的判别直至判断完所有帧;
S14:可视化点云数据并与视频录像截图对应;在采集数据的时候,不光有激光雷达(记录在途目标的点云数据),还有摄像机(记录在途目标的影像数据)。实现过程:将存储点云数据的pcd格式一帧一帧的截取,并与一帧一帧的视频录像截图进行对照,将其与同一时间一起测得的视频录像截图对应起来;
S15:利用数据点提取工具MATLAB刷亮框选目标点云数据并导出目标点云簇信息;实现过程:利用数据点提取工具MATLAB刷亮框选在途目标的点云簇(目标点云数据);(相当于在点云图中将在途目标的点云簇标定出来,即人告诉计算机这个点云簇是何种在途目标)。并对在途目标的点云簇进行处理,得到目标点云簇信息数据包括的点云个数(N)、目标点云簇最大长度(Lmax)、点云簇中的点云距激光雷达的最小距离(D)、点云簇的高度值序列(Hseq)、点云簇的最大高度(Hmax);
S16:视频录像截图目标;实现过程:将S15中激光雷达所记录的点云簇所对应的真实在途目标,在视频录像文件中通过截图的方式截取出来,用作对比;
S17:根据类别划分标准在特征表格中对照输入编号;根据对在途目标的编号(行人、摩托车(电动车)、小轿车、SUV、微小型客车、小型货车、单元卡车、皮卡、公交车、大型货车等10种类型,将其分别编号为0~9),在特征表格分类框下填下对应的编号。
实施例5
根据实施例4所述的一种基于路侧激光雷达的在途目标分类方法,其区别在于:
步骤(7)的具体实现过程包括:
设目标类别为i,i∈{0,1,…,9};N∈{RF,AdaBoost,BPNN,SVM};
则某个分类器某个类别的F1score表示为:F1score_N_i。以F1score为衡量指标,基于上一节描述的测试和评价过程对比每个子类别对应的四种分类器的F1score值,并根据F1score大小进行权重赋值。
在机器学习中,有如下表1所示:
表1
预测为真 预测为假
真实为真 TP FN
真实为假 FP TN
预测准确率为:
Figure BDA0003086366710000151
精确率为:
Figure BDA0003086366710000152
召回率为:
Figure BDA0003086366710000161
F1score
Figure BDA0003086366710000162
S16:四种分类器使用SDUITC训练集分别完成训练;四种分类器包括RF分类器、SVM分类器、BPNN分类器、AdaBoost分类器;
SDUITC训练集包含行人、摩托车(电动车)、小轿车、SUV、微小型客车、小型货车、单元卡车、皮卡、公交车、大型货车10种类型,将其分别编号为0-9共10种类型;
为了能够将10种目标更好地进行分类,采用的分类器主要有随机森林(RF)、支持向量机(SVM)、反向传播神经网络(BPNN)、自适应增强算法(AdaBoost)四种分类方法。
RF分类器具有数据集适应能力强(可处理高维数据)、训练速度快、适合大数据集等优势;但也有对于噪音比较大的数据集,容易出现过拟合的缺点。AdaBoost分类器具有抗过拟合能力强、能够在短时间内得到较好预测结果、精度高等优势;但异常样本在训练过程中容易获得较高的权重,影响最终强分类器的预测。BPNN分类器具有良好的泛化能力、非线性映射能力出众、具有自学习和自适应能力、样本容忍度高等优势;但收敛速度慢,且容易出现局部极小化,导致训练失败的问题。SVM分类器具有高维度样本性能良好、鲁棒性好等优势;但对参数调节和函数选择较为敏感。不同分类器对于不同的类别分类能力具有差异,并且不同分类器对于不均衡样本的适应能力也不同。为了尽可能地提高多分类模型的精度并减弱样本不均衡的影响,本发明基于“集成学习”的思想,将四种分类器视为子分类器,提出一种多分类算法并行工作、组合分类的符合分类器。
S17:使用测试集进行测试;SDUITC数据集划分为10份,随机选择其中的2份作为测试集,另外8份作为SDUITC训练集;使用训练集对分类器进行训练;使用测试集检测分类器的训练结果是否理想。
S18:同时并行四种分类器,使每种分类器都对测试集中的测试样本作出类别预测,记预测的类别为pl,则某一分类器的预测类别为pl_N
S19:根据四种分类器每个子类别对应的F1score值,对四种分类器预测类别进行权重赋值,通过加权投票的方式,推选出预测类别;即复合分类器预测结果表示如式(Ⅴ)所示:
plmerge=(plRF×F1score_plRF+…+plSVM×F1score_plSVM)/5 (Ⅴ)
其中,plmerge表示复合分类器预测的类别,plRF为RF分类器的预测类别,F1score_plRF为RF分类器在预测类别plRF时的加权权重,plSVM为SVM分类器的预测类别,F1score_plSVM为SVM分类器在预测类别plSVM时的加权权重。
同理,F1score_plSVM为SVM在预测类别plSVM时的加权权重。
例如,对于类别2,四种分类器的F1score分别为0.7、0.8、0.9、0.9(对应RF、AdaBoost、BPNN、SVM),当RF预测结果为类别2时,应乘以系数0.7。
S20:加权投票后的预测结果即为复合分类器的最终结果。
以上所述仅为本发明的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于路侧激光雷达的在途目标分类方法,其特征在于,包括步骤如下:
(1)点云数据收集;
点云数据是指在计算机中存储为点的空间坐标信息以及点云密度信息;
(2)地面拟合;
从步骤(1)收集的点云数据中拟合出地面线;
(3)背景滤除;
步骤(2)拟合出的地面线上的为在途目标,地面线下的为地面点,采用RANSAC方法将步骤(2)拟合出的地面线上的在途目标提取出来,得到在途目标;
(4)目标聚集;
对背景滤除后得到的在途目标进行聚类操作,将属于同一个物体的所有点划分的一类;
(5)轨迹追踪;
基于全局距离搜索的方法对车辆进行追踪,将当前帧的某一车辆与前一帧的同一车辆进行关联;
(6)提取目标侧面轮廓的参数,建立数据库;
所述目标侧面轮廓的参数包括车身长度、最大高度、高度序列、点云个数、距激光雷达距离;其中高度序列为:将车辆的点云目标均分为若干段,从车头至车尾,依次取每一段点云的最大高度,组成的高度集合即为高度序列;
所述数据库包括采集目标的视频录像截图、目标点云簇信息数据、特征表格;其中特征表格包括目标点云簇信息数据包括的点云个数、目标点云簇最大长度、点云簇中的点云距激光雷达的最小距离、点云簇的高度值序列、点云簇的最大高度;
(7)通过复合分类器实现目标类别的分类;
步骤(2)中,地面拟合的具体实现步骤包括:
S1:从初始点云图中提取点云数据的范围,x、y方向不设限制,以z=0是地面为前提,令z=[-maxDis,maxDis],maxDis为z方向的限定取值;
S2:从单独某一帧点云图中S1限定的范围中随机抽取数据点;
S3:处理点云图,如果该点云图是首帧,则运行S6,否则,运行S4;
S4:判断S2抽取的数据点与目前已估计出的三阶曲面多项式估计模型的距离误差,距离误差通过抽取的数据点与目前已估计出的三阶曲面多项式估计模型的z方向差值的绝对值计算,如式(II)所示:
zerr=|z0-zold| (II)
式(II)中,zerr代表z方向距离误差,z0为抽取的数据点z坐标值,zold为目前已估计出的三阶曲面多项式估计模型上对应的z坐标值;
令e1为误差阈值即误差参数,保留zerr小于e1的数据点,即为地面点;
S5:在S4中去除了非地面点,设保留下的地面点z坐标值为znew,将znew与zold进行加权平均,加权公式如式(Ⅲ)所示:
znew2=w1znew+w2zold (Ⅲ)
式(Ⅲ)中,w1及w2为加权系数;
S6:直接进行三阶曲面拟合,估计出的三阶曲面拟合方程的zold距离,通过三阶曲面拟合方程即式(Ⅰ)求取;
S7:从S1中限定的范围中抽取数据点,判断数据点的z0与S6中估计出的三阶曲面拟合方程的zold距离误差,若小于误差阈值e2,则认为是地面点,否则,则认为该点为非地面点;
S8:重复S2-S6直至推出最佳三阶曲面多项式估计模型;
通过3D-DBSCAN密度聚类算法聚类,步骤(5)中,将通过3D-DBSCAN密度聚类算法聚类后的在途目标轮廓的点云簇分别赋以不同类簇号,用t表示,在轨迹追踪之前,先标记每一帧中的点云,设Pi是第i帧中的点云集合,点云集合Pi中的点用ID号j标记,则类簇号为t的目标点云的第i帧数据,表示为Qt,i={Pt,i,1,Pt,i,2,...Pt,i,j};其中,Pt,i,j中的t表示车辆类簇号,i表示帧号,j表示点云集合中点的ID号,Qt,i代表第i帧中类簇号为t的目标点云信息的存储矩阵;设当前追踪的目标类簇号为t,基于全局距离搜索的轨迹追踪的实现步骤包括:
S9:查询并从矩阵Qt,i中计算前一帧中类簇号为t的车辆距离激光雷达最近的点,记这点为At
S10:计算当前帧矩阵Qt,i中所有类簇号的目标距离激光雷达最近的点到At的距离dn,判断并筛选出满足dn小于min Dis的点,其中,minDis为阈值参数;
S11:计算并选出S10中具有最小值mindn的点,mindn指的是相邻帧的目标点云簇两角点的最小距离,检索到该点所在的类簇,并记录类簇号;
S12:用相同的方式判断点云数据中截取下来的每一帧,将满足S10、S11中条件的点所属的类簇号在不同帧中关联起来并赋以新类簇号k;属于新类簇号k目标在不同帧中的点云信息存储矩阵表示为:CarDk={Qk,1,Qk,2,...Qk,i};Qk,i表示新的类簇号k在第i帧中的点云信息;CarDk表示类簇号k的点云信息存储矩阵。
2.根据权利要求1所述的一种基于路侧激光雷达的在途目标分类方法,其特征在于,步骤(2)中,基于RANSAC的三阶曲面多项式估计模型的拟合地面分割方法即PL3-RANSAC方法进行地面拟合,所述三阶曲面多项式估计模型如式(Ⅰ)所示:
z=a0+a1x+a2y+a3xy+a4x2+a5y2+a6x2y+a7xy2+a8x3+a9y3 (Ⅰ)
式(Ⅰ)中:
z——拟合出的三维曲面上点的z轴坐标;
x——拟合出的三维曲面上点的x轴坐标;
y——拟合出的三维曲面上点的y轴坐标;
a0-a9——表示三维曲面方程中的系数。
3.根据权利要求1所述的一种基于路侧激光雷达的在途目标分类方法,其特征在于,步骤(4)中,采用3D-DBSCAN密度聚类算法进行目标聚集,具体实现过程包括:
从任意一个未被访问过的点云图中的数据点作为启始点开始,计算并检索启始点的ε空间范围,ε空间范围是指以该启始点为圆心,ε为半径做圆,形成的空间球形,如果该启始点的ε空间范围内有大于最小领域点数M的数据点,则认为这些点构成了一簇;否则,则标记此启始点为噪声点;
若发现一点是一簇的密集部分,则认为该点的ε空间范围是这簇的一部分,从而领域内的所有数据点也被添加进该簇中,这个过程一直持续到找到所有密度相连的簇为止;接着,一个新的未被访问过的启始点被搜索出来,重复上述过程,得到相应密度相连的所有簇或噪声点。
4.根据权利要求3所述的一种基于路侧激光雷达的在途目标分类方法,其特征在于,步骤(4)中,ε=1.2,M=6。
5.根据权利要求1所述的一种基于路侧激光雷达的在途目标分类方法,其特征在于,步骤S12中的关联方法为:在相邻帧中,若两个目标点云簇量角点的最小距离mindn小于minDis,则认为这两个点云簇为同一个在途目标的不同帧点云图上的显示,则将两者标记为同一点云簇。
6.根据权利要求5所述的一种基于路侧激光雷达的在途目标分类方法,其特征在于,minDis设置为2.2m。
7.根据权利要求1所述的一种基于路侧激光雷达的在途目标分类方法,其特征在于,步骤(6)中,在激光雷达的扫描区域的一组关联帧中,遍历每一帧中的目标点云信息CarDk,目标点云信息CarDk是指类簇号k的点云信息存储矩阵,并从目标点云信息CarDk中提取目标点云个数N,记标签为k的车辆第i帧目标点云个数为Nki,则标签为k的车辆的最大点云数计算公式如式(Ⅳ)所示:
Nkmax=max{Nki∈CarDk|i=1,2,3,...,imax}; (Ⅳ)
记录出现最大点云数的帧数ikmax,则标签为k的车辆的5个分类特征均提取自标签为k的车辆打包信息第ikmax帧的点云数据,i值均取ikmax
目标点云个数N定义为出现最大点云数的那一帧目标点云所包含的点云个数,即为公式(Ⅳ)中的Nkmax,N=Nkmax
将聚类后的目标点云投影至xy平面,x轴方向为车辆行驶方向,y轴为垂直于道路方向,目标点云最大长度Lmax定义为:关联轨迹点云个数最多的帧中,目标聚类点云x轴方向的最大值与x轴方向最小值差值的绝对值;
距激光雷达距离D定义为车辆在轨迹过程中点云数最多的一帧中目标点云集距激光雷达的xy方向的最小距离,即将所有的点都在xy平面上投影,计算点云距离激光雷达的最小距离;
将车辆聚类后的点云图沿着长度方向即x方向均分成n个条柱,则第n个条柱所在x区间为(xn-1,xn),每个条柱内包含其所在x区间范围内的全部目标点云;
假设第n个条柱的高度为Hn,其由该条柱x区间范围内目标点的最大高度确定,那么,高度值序列Hseq表示为:Hseq={H1,H2,...Hn};最大高度Hmax表示为:Hmax=max Hseq
8.根据权利要求1所述的一种基于路侧激光雷达的在途目标分类方法,其特征在于,步骤(6)中,数据库建立步骤为:
S13:通过特征表格获取目标出现帧;实现过程为:通过聚类算法判断当前帧上是否存在在途目标,若存在,则按照顺序记录下该在途目标出现在第几帧,以csv格式记录在特征表格中;若不存在,则进行下一帧的判别直至判断完所有帧;
S14:可视化点云数据并与视频录像截图对应;实现过程:将存储点云数据一帧一帧的截取,并与一帧一帧的视频录像截图进行对照,将其与同一时间一起测得的视频录像截图对应起来;
S15:利用数据点提取工具MATLAB刷亮框选目标点云数据并导出目标点云簇信息;实现过程:利用数据点提取工具MATLAB刷亮框选在途目标的点云簇;并对在途目标的点云簇进行处理,得到目标点云簇信息数据包括的点云个数、目标点云簇最大长度、点云簇中的点云距激光雷达的最小距离、点云簇的高度值序列、点云簇的最大高度;
S16:视频录像截图目标;实现过程:将S15中激光雷达所记录的点云簇所对应的真实在途目标,在视频录像文件中通过截图的方式截取出来,用作对比;
S17:根据类别划分标准在特征表格中对照输入编号;根据对在途目标的编号,在特征表格分类框下填下对应的编号。
9.根据权利要求1所述的一种基于路侧激光雷达的在途目标分类方法,其特征在于,步骤(7)的具体实现过程包括:
S16:四种分类器使用SDUITC训练集分别完成训练;四种分类器包括RF分类器、SVM分类器、BPNN分类器、AdaBoost分类器;
SDUITC训练集包含行人、摩托车、小轿车、SUV、微小型客车、小型货车、单元卡车、皮卡、公交车、大型货车10种类型,将其分别编号为0-9共10种类型;
S17:使用测试集进行测试;SDUITC数据集划分为10份,随机选择其中的2份作为测试集,另外8份作为SDUITC训练集;
S18:同时并行四种分类器,使每种分类器都对测试集中的测试样本作出类别预测,记预测的类别为p1,则某一分类器的预测类别为pl_N
S19:根据四种分类器每个子类别对应的F1score值,对四种分类器预测类别进行权重赋值,通过加权投票的方式,推选出预测类别;即复合分类器预测结果表示如式(Ⅴ)所示:
plmerge=(plRF×F1score_plRF+…+plSVM×F1score_plSVM)/5 (Ⅴ)
其中,plmerge表示复合分类器预测的类别,plRF为RF分类器的预测类别,F1score_plRF为RF分类器在预测类别plRF时的加权权重,plSVM为SVM分类器的预测类别,F1score_plSVM为SVM分类器在预测类别plSVM时的加权权重;
同理,F1score_plSVM为SVM在预测类别plSVM时的加权权重;
S20:加权投票后的预测结果即为复合分类器的最终结果。
10.根据权利要求1-8任一所述的一种基于路侧激光雷达的在途目标分类方法,其特征在于,步骤(1)中,通过32线激光雷达扫描通过道路上的车辆,经过背景滤除,得到在途目标的三维点云数据,所述32线激光雷达的型号为RS-LiDAR-32。
CN202110582129.8A 2021-05-27 2021-05-27 一种基于路侧激光雷达的在途目标分类方法 Active CN113191459B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110582129.8A CN113191459B (zh) 2021-05-27 2021-05-27 一种基于路侧激光雷达的在途目标分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110582129.8A CN113191459B (zh) 2021-05-27 2021-05-27 一种基于路侧激光雷达的在途目标分类方法

Publications (2)

Publication Number Publication Date
CN113191459A CN113191459A (zh) 2021-07-30
CN113191459B true CN113191459B (zh) 2022-09-09

Family

ID=76985563

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110582129.8A Active CN113191459B (zh) 2021-05-27 2021-05-27 一种基于路侧激光雷达的在途目标分类方法

Country Status (1)

Country Link
CN (1) CN113191459B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113605766B (zh) * 2021-08-06 2023-09-05 恩际艾科技(苏州)有限公司 一种汽车搬运机器人的探测系统及位置调整方法
TWI797705B (zh) * 2021-08-06 2023-04-01 飛鳥車用電子股份有限公司 高效率及高準確的雷達訊號處理方法
CN113640826B (zh) * 2021-08-11 2023-10-20 山东大学 一种基于3d激光点云的障碍物识别方法及系统
CN114048851A (zh) * 2021-10-29 2022-02-15 广东坚美铝型材厂(集团)有限公司 基于不均衡间隔的语义特征自学习方法、设备及存储介质
CN113759337B (zh) * 2021-11-09 2022-02-08 深圳安德空间技术有限公司 针对地下空间数据的三维探地雷达实时解译方法及系统
CN114093165A (zh) * 2021-11-17 2022-02-25 山东大学 一种基于路侧激光雷达的车辆-行人冲突自动识别方法
CN113866743B (zh) * 2021-12-06 2022-03-15 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种用于车路协同感知的路侧激光点云精简方法和系统
CN114460582B (zh) * 2021-12-14 2023-04-14 江苏航天大为科技股份有限公司 一种基于点云速度的毫米波雷达大车识别方法
CN118435080A (zh) * 2021-12-22 2024-08-02 华为技术有限公司 一种目标识别方法和装置
CN114495026A (zh) * 2022-01-07 2022-05-13 武汉市虎联智能科技有限公司 一种激光雷达识别方法、装置、电子设备和存储介质
CN114359876B (zh) * 2022-03-21 2022-05-31 成都奥伦达科技有限公司 一种车辆目标识别方法及存储介质
CN114812435B (zh) * 2022-04-29 2023-10-20 苏州思卡信息系统有限公司 一种车辆三维点云数据滤波方法
CN115050192B (zh) * 2022-06-09 2023-11-21 南京矽典微系统有限公司 基于毫米波雷达的停车位检测的方法及应用
CN115015959B (zh) * 2022-06-28 2024-08-02 中山大学 一种基于人工信标的无人车辆激光雷达建图与定位方法
CN116091437B (zh) * 2022-12-30 2024-02-02 苏州思卡信息系统有限公司 一种基于3d点云的轮轴个数检测方法
CN116721246B (zh) * 2023-07-14 2024-03-19 酷哇科技有限公司 连续帧点云快速标注方法及系统
CN116740662B (zh) * 2023-08-15 2023-11-21 贵州中南锦天科技有限责任公司 一种基于激光雷达的车轴识别方法及系统
CN118038415B (zh) * 2024-04-12 2024-07-05 厦门中科星晨科技有限公司 基于激光雷达的车辆识别方法、装置、介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105022910A (zh) * 2015-04-23 2015-11-04 北京建筑大学 一种三维CSG-BRep模型的拓扑元素的访问方法
CN106023314A (zh) * 2016-05-05 2016-10-12 南通职业大学 一种基于回转轴方向映射的b样条母曲线拟合方法
CN111192311A (zh) * 2019-12-31 2020-05-22 武汉中海庭数据技术有限公司 一种高精度地图制作中纵向减速标线自动提取方法和装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8072337B2 (en) * 2009-02-23 2011-12-06 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for tracking and locating explosives and explosive materials worldwide using micro RF transponders
GB2532948B (en) * 2014-12-02 2021-04-14 Vivo Mobile Communication Co Ltd Object Recognition in a 3D scene
CN104392476B (zh) * 2014-12-04 2017-07-21 上海岩土工程勘察设计研究院有限公司 基于最小包围盒算法提取隧道三维轴线的方法
CN106355030B (zh) * 2016-09-20 2019-01-25 浙江大学 一种基于层次分析法和加权投票决策融合的故障检测方法
CN109190573B (zh) * 2018-09-12 2021-11-12 阿波罗智能技术(北京)有限公司 应用于无人驾驶车辆的地面检测方法、电子设备、车辆
EP3735678A4 (en) * 2018-11-13 2021-03-24 Beijing Didi Infinity Technology and Development Co., Ltd. COLORED DOT CLOUD GENERATION PROCESSES AND SYSTEMS
CN110110802B (zh) * 2019-05-14 2020-09-15 南京林业大学 基于高阶条件随机场的机载激光点云分类方法
CN110595479B (zh) * 2019-09-23 2023-11-17 云南电网有限责任公司电力科学研究院 一种基于icp算法的slam轨迹评估方法
CN111242031B (zh) * 2020-01-13 2023-08-01 禾多科技(北京)有限公司 基于高精度地图的车道线检测方法
CN111337941B (zh) * 2020-03-18 2022-03-04 中国科学技术大学 一种基于稀疏激光雷达数据的动态障碍物追踪方法
CN111985322B (zh) * 2020-07-14 2024-02-06 西安理工大学 一种基于激光雷达的道路环境要素感知方法
CN112562405A (zh) * 2020-11-27 2021-03-26 山东高速建设管理集团有限公司 一种雷达视频智能融合与预警方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105022910A (zh) * 2015-04-23 2015-11-04 北京建筑大学 一种三维CSG-BRep模型的拓扑元素的访问方法
CN106023314A (zh) * 2016-05-05 2016-10-12 南通职业大学 一种基于回转轴方向映射的b样条母曲线拟合方法
CN111192311A (zh) * 2019-12-31 2020-05-22 武汉中海庭数据技术有限公司 一种高精度地图制作中纵向减速标线自动提取方法和装置

Also Published As

Publication number Publication date
CN113191459A (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
CN113191459B (zh) 一种基于路侧激光雷达的在途目标分类方法
CN111680542B (zh) 基于多尺度特征提取和Pointnet神经网络的钢卷点云识别与分类方法
Chen et al. Deep integration: A multi-label architecture for road scene recognition
CN111985322B (zh) 一种基于激光雷达的道路环境要素感知方法
CN108830188B (zh) 基于深度学习的车辆检测方法
Hsieh et al. Automatic traffic surveillance system for vehicle tracking and classification
CN110660222B (zh) 一种智能环保道路黑烟车辆电子抓拍系统
US6556692B1 (en) Image-processing method and apparatus for recognizing objects in traffic
CN104951784A (zh) 一种车辆无牌及车牌遮挡实时检测方法
CN109508731A (zh) 一种基于融合特征的车辆重识别方法、系统及装置
KR101977052B1 (ko) 무인비행체를 이용한 도로상태 조사시스템 및 이를 이용한 조사방법
Jain et al. Performance analysis of object detection and tracking algorithms for traffic surveillance applications using neural networks
CN112487905A (zh) 一种车辆周边行人危险等级预测方法及系统
Sikirić et al. Classifying traffic scenes using the GIST image descriptor
CN115620261A (zh) 基于多传感器的车辆环境感知方法、系统、设备及介质
Li et al. RETRACTED ARTICLE: Design of traffic object recognition system based on machine learning
CN114675275A (zh) 一种基于4d毫米波雷达与激光雷达融合的目标检测方法
CN115861968A (zh) 一种基于实时点云数据的动态障碍物剔除方法
Thiruppathiraj et al. Automatic pothole classification and segmentation using android smartphone sensors and camera images with machine learning techniques
He et al. Deep learning based geometric features for effective truck selection and classification from highway videos
Lin et al. Vehicle detection and tracking using low-channel roadside LiDAR
Vellaidurai et al. A novel oyolov5 model for vehicle detection and classification in adverse weather conditions
CN110414386A (zh) 基于改进scnn网络的车道线检测方法
Hammoudi et al. Towards a model of car parking assistance system using camera networks: Slot analysis and communication management
Li et al. Street tree segmentation from mobile laser scanning data using deep learning-based image instance segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Hou Fujin

Inventor after: Yang Ziliang

Inventor after: Liu Shijie

Inventor after: Zhang Yingchao

Inventor after: Li Yan

Inventor after: Wu Jianqing

Inventor after: Song Xiuguang

Inventor after: Zhang Han

Inventor after: Li Liping

Inventor after: Song Yanjia

Inventor after: Huo Guang

Inventor before: Song Xiuguang

Inventor before: Liu Shijie

Inventor before: Hou Fujin

Inventor before: Zhang Yingchao

Inventor before: Zhang Han

Inventor before: Li Liping

Inventor before: Song Yanjia

Inventor before: Wu Jianqing

Inventor before: Huo Guang

Inventor before: Li Yan

Inventor before: Yang Ziliang

GR01 Patent grant
GR01 Patent grant