CN105701479B - 基于目标特征的智能车辆多激光雷达融合识别方法 - Google Patents
基于目标特征的智能车辆多激光雷达融合识别方法 Download PDFInfo
- Publication number
- CN105701479B CN105701479B CN201610107300.9A CN201610107300A CN105701479B CN 105701479 B CN105701479 B CN 105701479B CN 201610107300 A CN201610107300 A CN 201610107300A CN 105701479 B CN105701479 B CN 105701479B
- Authority
- CN
- China
- Prior art keywords
- target
- vehicle
- signature
- feature
- intelligent vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Abstract
本发明请求保护一种基于目标特征的智能车辆多激光雷达融合识别方法,涉及智能车辆环境感知领域。包括的步骤如下:1.对采集的数据进行预处理,提取目标几何特征,判定目标类别;2.计算目标几何相似度,根据相似度进行目标匹配;3.采用基于距离加权融合的方法对目标几何特征进行融合;4.采用基于多特征的目标跟踪方法对目标进行跟踪,获取目标相对运动特征;5.利用卫星定位系统采集的车辆运动特征,获得目标绝对运动特征;6.根据目标绝对运动特征以及目标特征模型对目标类别进行修正;7.栅格化目标特征,并进行栅格表示。本发明利用目标特征对多激光雷达进行融合,提升了系统对目标的识别能力,增强车辆行驶过程中的安全性。
Description
技术领域
本发明属于智能车辆环境感知技术领域,涉及多传感器融合技术,主要是基于目标特征的智能车辆多激光雷达融合识别方法。
背景技术
智能车辆是一个具有环境感知、规划决策、操作控制等功能,并且能实现无人驾驶的车辆。它能依靠自身的多种传感器实时采集车辆周围的道路、障碍信息实现无人驾驶以及自动避障,从而减少交通事故,提高交通安全性。
其中,环境感知技术是智能车辆中的难点和关键点。
传统的环境感知中,单一的传感器由于各自具有一定的局限性,已经不能为系统提供足够的环境信息;所以如何利用多种传感器进行数据融合,提高智能车辆的环境感知能力具有重要意义与实用价值。
中国专利申请:一种智能车辆中多激光雷达数据融合系统和方法(申请号:201210309515.0)公开了一种智能车辆中多激光雷达数据融合系统,包括规划决策上位机、多激光雷达融合的上位机、1个四线雷达、4个单线激光雷达、路由器;该系统将障碍物信息分别通过网口和串口传输到多激光雷达融合的上位机进行融合,然后将信息传递给决策上位机。该系统虽然可以提供障碍信息给上位机,但是其结构复杂,成本较高,实用性受限制。
中国专利申请:一种基于无人驾驶汽车的多激光雷达栅格地图融合系统(申请号:201410252993.1)公开了一种无人驾驶汽车的多激光雷达栅格地图融合系统,包括激光雷达、交换机和工控机;其激光雷达融合方法主要利用栅格化编码的不同进行数据融合。该系统只是考虑了采用栅格对障碍进行编码,未考虑针对不同目标进行栅格化情况。
中国专利申请:一种基于多激光雷达的行人目标跟踪方法(申请号:201110107137.3)公开了一种基于多激光雷达的行人目标跟踪方法,该系统建立行人的脚步运动模型,并通过卡尔曼滤波对行人运动状态进行跟踪,最终获得稳定的目标轨迹和相关统计信息。该系统虽然能较好检测出行人信息,但未考虑车辆,静态障碍物等特征目标。
中国专利申请:一种基于多传感器的汽车感知系统及感知方法(申请号:201410080250.0)公开了一种基于多传感器的汽车感知系统及感知方法,多个超声波传感器、单线激光雷达,MCU;该系统通过结合超声波传感器和激光雷达二个优先级别的传感器,采用二级关系保证汽车行驶过程中最大限度保证检测的实时性。该系统虽然能够保证较高的实时性,但不能区分目标类别。
本发明针对传统的智能车辆多激光雷达数据融合方法:栅格地图融合法,对目标类别识别能力的不足的问题。提出一种利用目标特征物来实现多种激光雷达数据融合的方法。本发明考虑了目标几何特征和运动特征对多传感器融合的影响,根据目标相似度对进行目标匹配、融合,提升了系统对目标的识别能力。该系统结构简单,实用范围性更加广泛,扩展性高,能满足多种实际情况的需求。
发明内容
针对以下现有的不足,提出了一种提升多激光雷达融合系统对目标的感知能力,增强智能车辆在无人驾驶以及辅助驾驶中的安全性的基于目标特征的智能车辆多激光雷达融合识别方法。本发明的技术方案如下:一种基于目标特征的智能车辆多激光雷达融合识别方法,其包括以下步骤:
步骤1、对采集的若干智能车辆的传感器数据进行预处理,然后提取目标几何特征,判定目标的类别;
步骤2、计算目标的几何相似度,根据几何相似度进行目标匹配;
步骤3、采用基于距离加权融合的方法对目标几何特征进行融合;
步骤4、采用基于多特征的目标跟踪方法对目标进行跟踪,获取目标相对运动特征;
步骤/5、利用卫星定位系统采集车辆的运动特征,获得目标绝对运动特征;
步骤6、根据目标绝对运动特征以及目标特征模型对目标类别进行修正;
步骤7、栅格化目标特征,并进行栅格表示。
进一步的,步骤1所述对采集的若干智能车辆的传感器数据进行预处理,包括步骤:(1)建立车辆坐标系,并将智能车辆的传感器数据坐标变换到车辆坐标系;(2)去除车辆坐标系感知范围外的目标;(3)激光雷达扫描点的聚类采用基于距离的聚类方法进行聚类分析。
进一步的,所述步骤1所述目标特征是由三种特征组成:目标几何特征,运动特征,信息特征。其中目标几何特征包括:目标中心的坐标,目标长度,目标宽度,目标包含的特征线段数,线段间夹角,目标类别;运动特征包括:目标速度,目标运动方向信息;信息特征包括:目标编号,采集雷达编号,融合标志。
进一步的,几何特征提取方法:首先利用IEPF算法和最小二乘法对聚类目标提取,获得聚类分割起始点,线段数,线段夹角;目标的类别利用目标模型对目标进行判定。
进一步的,所述步骤2中计算目标的几何相似度,为距离相似度,面积相似度,线段相似度三种的权重相加。
进一步的,步骤3在融合时只对目标中心的坐标,目标长度、目标宽度三种几何特征进行融合。
进一步的,所述步骤4包括:在数据关联时利用多特征计算出候选目标的关联概率,然后根据关联概率进行目标与跟踪器的关联,最后采用卡尔曼滤波进行状态估计。
进一步的,所述步骤6根据目标绝对运动特征以及目标特征模型对目标类别进行修正,其模型规则如下::车辆,速度>10km/h;行人,速度3.6kmh-7km/h;自行车:速度6km/h-25km/h;其他动态目标:速度>3km/h;静态障碍物:速度<2km/h。
进一步的,所述步骤7栅格化目标特征,并进行栅格表示具体为:
系统栅格地图生成时,选取规格为20cm*20cm的单位栅格对目标感知范围进行栅格化,组成775*110的栅格地图,每个栅格的数据采用:栅格名称,状态,目标类别,百分比的数据格式进行表示,其中栅格状态分为占据和未占据;目标类别分为五种目标:车辆,行人,自行车,动态目标和静态障碍物;百分比代表目标所占栅格的百分比。
本发明的优点及有益效果如下:
本发明提出一种基于目标特征的智能车辆多激光雷达融合识别系统和方法。本发明考虑目标特征在数据融合过程中影响,一方面通过计算目标几何相似度,进行目标匹配及融合,能够解决融合过程中目标形状特征信息丢失等问题,扩展车辆对目标的感知能力;另一方面通过特征相似度计算特征目标的关联概率,并通过卡尔曼滤波获取目标运动特征,对目标类别进行修正,提高目标识别精度与可靠性。
过上述两个方面,本发明可以有效提高多激光雷达融合系统对目标的类别的感知能力,增强智能车辆在无人驾驶以及辅助驾驶中的安全性,具有重要意义与实用价值。
附图说明
图1.图1是本发明提供优选实施例基于目标特征的智能车辆多激光雷达数据融合系统总体框架;
图2.本发明基于目标特征的智能车辆多激光雷达数据融合方法步骤流程图;
图3.本发明基于目标特征的智能车辆多激光雷达数据融合方法几何目标特征提取流程图;
图4.本发明基于目标特征的智能车辆多激光雷达数据融合方法基于多特征的目标跟踪算法流程图。
具体实施方式
本发明提出一种基于目标特征的智能车辆多激光雷达融合识别系统和方法,该系统和方法利用目标特征对多激光雷达进行融合,提升融合后系统对目标的感知能力,增强智能车辆在无人驾驶以及辅助驾驶中的安全性。
以下结合附图和具体实例对本发明的具体实施方式进行描述。
如图1所示为基于目标特征的智能车辆多激光雷达数据融合系统总体框架。该系统由单线激光雷达,四线激光雷达,卫星定位系统和计算机构成。系统包括几何特征提取,目标融合,目标跟踪,目标修正,目标栅格化五个过程。
如图2所示为基于目标特征的智能车辆多激光雷达数据融合方法总体流程图,其融合步骤如下:
步骤1:对采集的数据进行预处理,提取目标几何特征,判定目标类别。
(1)坐标变换
车辆坐标系是以车辆前方两个四线激光雷达连线中心位置为原点,水平方向为X轴,竖直方向为Y轴,建立的笛卡尔坐标系。
根据每个激光雷达安装位置以及安装角度,并结合实验对激光雷达进行标定,得到激光雷达坐标系相对于车辆坐标系的旋转偏移角度,然后进行转换。
(2)去除感知范围外的点(目标)
其目标感知范围是由多个激光雷达扫描范围组成的车辆周边360°感知区域。选取车辆前方100m,左右两侧10m,车辆后方50m,以及车辆尺寸长5m宽2m,组成长155m,宽22m的矩形区域作为目标感知有效区域,对于有效目标感知区域外的数据进行清除。
(3)聚类分析
激光雷达扫描点的聚类采用基于距离的聚类方法进行聚类,原理是计算每个点之间的欧氏距离,如果其距离大阈值Dmax,则该点为断点。
Dmax的计算公式为:
其中,rn-1为雷达点的深度值,σr为激光雷达的测量误差,Δφ为激光雷达的角度分辨率,λ为阈值参数。
(4)几何特征提取
目标特征是由三种特征组成:目标几何特征,运动特征,信息特征。
几何特征包括:目标中心的坐标,目标长度,目标宽度,目标包含的特征线段数,线段间夹角,目标类别;运动特征包括:目标速度,目标运动方向信息;信息特征包括:目标编号,采集雷达编号,融合标志。
几何特征提取方法:首先利用IEPF(Interative End Point Fitting)算法和最小二乘法对聚类目标提取,获得聚类分割起始点,线段数,线段夹角。
再按照如下的方法对的特征进一步提取:
①对于包含特征线段为1的目标,其坐标为线段的中点坐标,目标长度为线段长,宽度为ε(视目标类型而定)。
②对于包含特征线段为2的目标,其坐标为两线段始末点连线的中心坐标,目标长度,宽度分别为两条线段长度。
③对于包含特征线段大于2的目标,其坐标为第一条起点与最后一条线段末点连线的中心坐标,长度和宽度分别取包含线段中两个端点横、纵坐标距离的最大值。
(5)目标模型判定
利用目标模型对目标进行判定,其目标模型如下:
①车辆:包含线段数为1或2,长3.5m-5.0m,宽1.5-2m;,线段夹角90°或0°
②行人:包含线段数1,长0.1m-0.4m;
③自行车:包含线段数1,长1.5m-2.0m;
④未知目标:除①②③外;
步骤2:计算目标几何相似度,根据相似度进行目标匹配。
选取距离相似度,面积相似度,线段相似度三种作为相似度的衡量标准。每种衡量标准计算公式如下:
(1)距离相似度
距离的度量采用欧氏距离,即衡量二维平面上两目标中心a(x1,y1)与b(x2,y2)间的欧氏距离:
(2)面积相似度
Speople,Scar,Sbike,Sbike分为代表四类目标的面积,length代表目标长度,width代表宽度,L为目标包含的线段数量,ξ代表L=1时目标的宽度。
(3)相似度
线段相似度是两目标包含的线段数之差:Lab=La-Lb。
综上所述,目标几何相似度的计算式如下:
Dab=θ1dab+θ2Sab+θ3Lab (4)
其中θ1,θ2,θ3为分别三种标准的权重,Dab为目标相似程度。
步骤3:采用基于距离加权融合的方法对目标几何特征进行融合。
该方法是通过计算目标到各激光雷达的距离,进而计算出了目标的综合可信度,最后由综合可信度对目标进行融合。在融合时只对目标中心的坐标,目标长度、目标宽度三种几何特征进行融合。
对于匹配的两个目标a、b,其车辆坐标系坐标分别为(xa,ya),(xb,yb),经过坐标转换可以得到其相对各自采集雷达的距离坐标为(xa',ya'),(xb',yb')。
则到各自雷达原点的距离为
由于激光雷达距离分辨率随着距离的增加而减少,故其检测的可信度受目标到雷达的距离影响。对于三种特征,其融合计算式如下:
融合后坐标中心(xf,yf)为:
融合后的长宽lf,宽度wf为:
步骤4:采用基于多特征的目标跟踪方法对目标进行跟踪,获取目标相对运动特征。
利用多特征融的目标跟踪方法,主要是在数据关联时利用多特征计算出候选目标的关联概率,然后根据关联概率进行目标与跟踪器的关联,最后采用卡尔曼滤波进行状态估计。详细计算方法如下:
假设第k+1次扫描中设别出m个目标,当前时刻存在n个跟踪器,计算k+1次扫描时第i个目标O'k+1与第j个跟踪器tk的关联概率如下,具体为:
(1)特征相似度计算
利用步骤2所示的相似度计算方法,计算出第k+1时刻第i个目标O'k与第j个跟踪器上一时刻目标Ok的相似度矩阵。考虑到目标类型不会发生突变,即不将类别不同的目标进行关联,在计算时,首先判别目标类别再进行目标特征相似度。目标与跟踪器的相似度矩阵为:
其中Dij为第i个目标相对于第j个跟踪器上一个时刻的目标的相似度,若目标类别不相同,则Dij=0。
(2)关联概率计算
将目标相似度作为关联概率的衡量标准,可计算出关联概率矩阵为:
其中
其中,Pij为第i个目标相对于第j个跟踪器的关联概率。
假设第j个跟踪器对于第i个目标有最大关联概率max(Pij),则第j个跟踪器对目标i可能存在关联关系,当且仅当max(Pij)>ξ(ξ为阈值)时,才判定其相互关联。
(3)卡尔曼滤波
设k时刻目标i的状态估计为其相应的估计误差协方差矩阵为Pi(k,k-1),卡尔曼滤波过程主要包含如下五个步骤,分别包括状态一步预测、一步预测误差协方差计算、滤波增益计算、状态估计和滤波误差协方差计算:
Pi(k,k-1)=Φ(k)Pi(k-1,k-1)ΦT(k)+ΓQ(k)ΓT (10)
Κi(k)=Pi(k,k-1)HT(k)[H(k)Pi(k,k-1)HT(k)+R(k)]-1 (11)
Pi(k,k)=[I-Κi(k)H(k)]Pi(k,k-1) (13)
其中即为目标i在k时刻状态的最优估计。Φ(k-1)为状态转移矩阵,即目标运动模型;Γ(k-1)为噪声输入矩阵;Zi(k)为目标i在k时刻的观测向量,H(k)是k时刻的观测矩阵;过程噪声{w(k)}与观测噪声{v(k)}是零均值的Gaussian白噪声序列,分别表示目标运动模型误差与目标位置的观测误差,方差阵为Q、R。
由于激光雷达两帧间隔较短,车辆位移较小,因此采用线性卡卡尔曼滤波器对每个目标进行跟踪。目标的状态向量Xi(k,k)Xk包括目标x,y方向的位置和速度,观测向量Zi(k)为目标在X方向和Y方向的位置。
X(k)={xok vxk yok vyk}T (14)
Z(k)={xok yok}T (15)
则目标运动的状态方程与观测方程为
Xi(k,k-1)=Φ(k-1)Xi(k-1,k-1) (16)
Zi(k)=H(k)Xi(k,k)+Q (17)
其中,Xi(k,k-1)为目标i在k时刻的状态向量,Φ(k-1)为状态转移矩阵,即目标运动模型,对道路目标一般采用匀速模型,即:
Δt为传感器采集1帧数据所用的时间。
测量矩阵为:
过程噪声输入协方差矩阵Γ(k-1)为:
其中,式中δp为所加过程噪声。
测量噪声的协方差矩阵为:
其中,式中δm为所加测量噪声。
步骤5:利用卫星定位系统采集的车辆运动特征,获得目标绝对运动特征。
对于目标绝对运动特征,对相对运动特征和车辆运动特征求矢量和,如下式子所示:
步骤6:根据目标绝对运动特征以及目标特征模型对目标类别进行修正。
其模型规则如下:
①车辆:速度>10km/h;
②行人:速度3.6kmh-7km/h;
③自行车:速度6km/h-25km/h;
④动态目标:速度>3km/h;
⑤静态障碍物:速度<2km/h。
步骤7:栅格化目标特征,并进行栅格表示。
该系统栅格地图生成时,选取规格为20cm*20cm的单位栅格对目标感知范围进行栅格化,组成775*110的栅格地图。每个栅格的数据采用(栅格名称,状态,目标类别,百分比)的数据格式进行表示,其中栅格状态分为占据和未占据;目标类别分为五种目标:车辆,行人,自行车,动态目标和静态障碍物;百分比代表目标所占栅格的百分比。
目标特征栅格化时,通过计算目标围成区域所占栅格面积的比例,若其超过一定的阈值,则认为其栅格占据。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,包括各类参数的改动,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (8)
1.一种基于目标特征的智能车辆多激光雷达融合识别方法,其特征在于,包括以下步骤:
步骤1、对采集的若干智能车辆的传感器数据进行预处理,然后提取目标几何特征,判定目标的类别;步骤1所述对采集的若干智能车辆的传感器数据进行预处理,包括步骤:(1)建立车辆坐标系,并将智能车辆的传感器数据坐标变换到车辆坐标系;(2)去除车辆坐标系感知范围外的目标;(3)激光雷达扫描点的聚类,采用基于距离的聚类方法进行聚类分析;
步骤2、计算目标的几何相似度,根据几何相似度进行目标匹配;
步骤3、采用基于距离加权融合的方法对目标几何特征进行融合;
步骤4、采用基于多特征的目标跟踪方法对目标进行跟踪,获取目标相对运动特征;
步骤5、利用卫星定位系统采集车辆的运动特征,获得目标绝对运动特征;
步骤6、根据目标绝对运动特征以及目标特征模型对目标类别进行修正;
步骤7、栅格化目标特征,并进行栅格表示。
2.根据权利要求1所述的基于目标特征的智能车辆多激光雷达融合识别方法,其特征在于,所述步骤1所述目标特征是由三种特征组成:目标几何特征,运动特征,信息特征,其中目标几何特征包括:目标中心的坐标,目标长度,目标宽度,目标包含的特征线段数,线段间夹角,目标类别;运动特征包括:目标速度,目标运动方向信息;信息特征包括:目标编号,采集雷达编号,融合标志。
3.根据权利要求2所述的基于目标特征的智能车辆多激光雷达融合识别方法,其特征在于,几何特征提取方法:首先利用IEPF算法和最小二乘法对聚类目标提取,获得聚类分割起始点,线段数,线段夹角;目标的类别利用目标模型对目标进行判定。
4.根据权利要求1所述的基于目标特征的智能车辆多激光雷达融合识别方法,其特征在于,所述步骤2中计算目标的几何相似度,为距离相似度,面积相似度,线段相似度三种的权重相加。
5.根据权利要求1所述的基于目标特征的智能车辆多激光雷达融合识别方法,其特征在于,步骤3在融合时只对目标中心的坐标,目标长度、目标宽度三种几何特征进行融合。
6.根据权利要求1所述的基于目标特征的智能车辆多激光雷达融合识别方法,其特征在于,所述步骤4包括:在数据关联时利用多特征计算出候选目标的关联概率,然后根据关联概率进行目标与跟踪器的关联,最后采用卡尔曼滤波进行状态估计。
7.根据权利要求1所述的基于目标特征的智能车辆多激光雷达融合识别方法,其特征在于,所述步骤6根据目标绝对运动特征以及目标特征模型对目标类别进行修正,其模型规则如下:车辆,速度>10km/h;行人,速度3.6kmh-7km/h;自行车:速度6km/h-25km/h;其他动态目标:速度>3km/h;静态障碍物:速度<2km/h。
8.根据权利要求1所述的基于目标特征的智能车辆多激光雷达融合识别方法,其特征在于,所述步骤7栅格化目标特征,并进行栅格表示具体为:
系统栅格地图生成时,选取规格为20cm*20cm的单位栅格对目标感知范围进行栅格化,组成775*110的栅格地图,每个栅格的数据采用:栅格名称,状态,目标类别,百分比的数据格式进行表示,其中栅格状态分为占据和未占据;目标类别分为五种目标:车辆,行人,自行车,动态目标和静态障碍物;百分比代表目标所占栅格的百分比。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610107300.9A CN105701479B (zh) | 2016-02-26 | 2016-02-26 | 基于目标特征的智能车辆多激光雷达融合识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610107300.9A CN105701479B (zh) | 2016-02-26 | 2016-02-26 | 基于目标特征的智能车辆多激光雷达融合识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105701479A CN105701479A (zh) | 2016-06-22 |
CN105701479B true CN105701479B (zh) | 2019-03-08 |
Family
ID=56223507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610107300.9A Active CN105701479B (zh) | 2016-02-26 | 2016-02-26 | 基于目标特征的智能车辆多激光雷达融合识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105701479B (zh) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106371080B (zh) * | 2016-08-24 | 2018-10-26 | 电子科技大学 | 基于几何结构特征和多特征综合的雷达目标识别方法 |
CN106969779B (zh) * | 2017-03-17 | 2020-05-12 | 重庆邮电大学 | 基于dsrc的智能车辆地图融合系统及方法 |
CN107063275B (zh) * | 2017-03-24 | 2020-05-12 | 重庆邮电大学 | 基于路侧设备的智能车辆地图融合系统及方法 |
CN108733042B (zh) * | 2017-04-19 | 2021-11-09 | 上海汽车集团股份有限公司 | 自动驾驶车辆的目标跟踪方法及装置 |
CN107505940A (zh) * | 2017-08-08 | 2017-12-22 | 速感科技(北京)有限公司 | 自动引导车辆上的双激光雷达控制方法、系统及定位方法 |
CN107918386B (zh) * | 2017-10-25 | 2021-01-01 | 北京汽车集团有限公司 | 用于车辆的多传感器数据融合方法、装置及车辆 |
CN107807542A (zh) * | 2017-11-16 | 2018-03-16 | 北京北汽德奔汽车技术中心有限公司 | 自动驾驶仿真系统 |
CN108152832A (zh) * | 2017-12-11 | 2018-06-12 | 开沃新能源汽车集团有限公司 | 通过激光雷达探测目标障碍物的方法 |
CN108152824A (zh) * | 2017-12-29 | 2018-06-12 | 思博赛睿(北京)科技有限公司 | 一种基于激光雷达的网球定位系统及方法 |
DE102018201570A1 (de) * | 2018-02-01 | 2019-08-01 | Robert Bosch Gmbh | Multiple-Target-Object-Tracking-Verfahren, Vorrichtung und Computerprogramm zum Durchführen eines Multiple-Target-Object-Tracking für bewegliche Objekte |
CN108710828B (zh) * | 2018-04-18 | 2021-01-01 | 北京汽车集团有限公司 | 识别目标物的方法、装置和存储介质以及车辆 |
CN109001757B (zh) * | 2018-05-31 | 2022-12-20 | 重庆大学 | 一种基于2d激光雷达的车位智能检测方法 |
CN109031373B (zh) * | 2018-06-08 | 2020-12-18 | 北京航天光华电子技术有限公司 | 一种变电站巡检机器人导航系统及方法 |
CN110378360B (zh) * | 2018-08-01 | 2021-10-15 | 北京京东尚科信息技术有限公司 | 目标标定方法、装置、电子设备及可读存储介质 |
CN108717540B (zh) * | 2018-08-03 | 2024-02-06 | 浙江梧斯源通信科技股份有限公司 | 基于2d激光雷达区分行人和车辆的方法及装置 |
CN110969178B (zh) * | 2018-09-30 | 2023-09-12 | 毫末智行科技有限公司 | 自动驾驶车辆的数据融合系统、方法及自动驾驶系统 |
CN109870680B (zh) * | 2018-10-26 | 2020-08-04 | 北京润科通用技术有限公司 | 一种目标分类方法及装置 |
CN109543601A (zh) * | 2018-11-21 | 2019-03-29 | 电子科技大学 | 一种基于多模态深度学习的无人车目标检测方法 |
CN109558854B (zh) * | 2018-12-05 | 2021-04-06 | 百度在线网络技术(北京)有限公司 | 障碍物感知方法、装置、电子设备及存储介质 |
CN111415520A (zh) * | 2018-12-18 | 2020-07-14 | 北京航迹科技有限公司 | 处理交通目标的系统和方法 |
CN109934868B (zh) * | 2019-03-18 | 2021-04-06 | 北京理工大学 | 一种基于三维点云与卫星图匹配的车辆定位方法 |
CN111723835A (zh) * | 2019-03-21 | 2020-09-29 | 北京嘀嘀无限科技发展有限公司 | 车辆移动轨迹区分方法、装置和电子设备 |
CN109977885A (zh) * | 2019-03-29 | 2019-07-05 | 成都纳雷科技有限公司 | 一种基于多普勒特征的人车自动识别方法及装置 |
CN110599779B (zh) * | 2019-08-09 | 2021-04-30 | 山西省煤炭地质物探测绘院 | 一种基于车速分析的智慧路灯自检系统 |
CN110501684B (zh) * | 2019-08-23 | 2022-12-23 | 北京航天朗智科技有限公司 | 雷达数据处理装置及雷达数据处理方法 |
CN111289969B (zh) * | 2020-03-27 | 2022-03-04 | 北京润科通用技术有限公司 | 一种车载雷达运动目标融合方法及装置 |
CN112598009A (zh) * | 2020-09-29 | 2021-04-02 | 中科劲点(北京)科技有限公司 | 基于运动分析的车辆分类方法及系统 |
CN112527929B (zh) * | 2020-10-20 | 2023-12-08 | 深圳银星智能集团股份有限公司 | 一种栅格地图编码方法及其装置、电子设备 |
CN112731371B (zh) * | 2020-12-18 | 2024-01-23 | 重庆邮电大学 | 一种激光雷达与视觉融合的集成化目标跟踪系统及方法 |
CN112926514A (zh) * | 2021-03-26 | 2021-06-08 | 哈尔滨工业大学(威海) | 一种多目标检测及跟踪方法、系统、存储介质及应用 |
CN113296092B (zh) * | 2021-05-24 | 2023-01-20 | 北京环境特性研究所 | 基于多源信息融合的雷达探测方法、装置及存储介质 |
CN115600158B (zh) * | 2022-12-08 | 2023-04-18 | 奥特贝睿(天津)科技有限公司 | 一种无人车多传感器融合方法 |
CN117197182B (zh) * | 2023-11-07 | 2024-02-27 | 华诺星空技术股份有限公司 | 雷视标定方法、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102087786A (zh) * | 2010-02-09 | 2011-06-08 | 陈秋和 | 基于信息融合的智能交通人、车、路的信息处理方法及系统 |
CN104751119A (zh) * | 2015-02-11 | 2015-07-01 | 中国科学院大学 | 基于信息融合的行人快速检测跟踪方法 |
CN105261035A (zh) * | 2015-09-15 | 2016-01-20 | 杭州中威电子股份有限公司 | 一种高速公路运动目标跟踪方法及装置 |
CN105277190A (zh) * | 2014-06-30 | 2016-01-27 | 现代自动车株式会社 | 用于车辆自定位的装置和方法 |
CN105335683A (zh) * | 2014-05-26 | 2016-02-17 | 富士通株式会社 | 对象检测方法和对象检测装置 |
-
2016
- 2016-02-26 CN CN201610107300.9A patent/CN105701479B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102087786A (zh) * | 2010-02-09 | 2011-06-08 | 陈秋和 | 基于信息融合的智能交通人、车、路的信息处理方法及系统 |
CN105335683A (zh) * | 2014-05-26 | 2016-02-17 | 富士通株式会社 | 对象检测方法和对象检测装置 |
CN105277190A (zh) * | 2014-06-30 | 2016-01-27 | 现代自动车株式会社 | 用于车辆自定位的装置和方法 |
CN104751119A (zh) * | 2015-02-11 | 2015-07-01 | 中国科学院大学 | 基于信息融合的行人快速检测跟踪方法 |
CN105261035A (zh) * | 2015-09-15 | 2016-01-20 | 杭州中威电子股份有限公司 | 一种高速公路运动目标跟踪方法及装置 |
Non-Patent Citations (1)
Title |
---|
基于多特征融合的运动目标识别;郑林;《系统仿真学报》;20040531;第1节到第4节 |
Also Published As
Publication number | Publication date |
---|---|
CN105701479A (zh) | 2016-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105701479B (zh) | 基于目标特征的智能车辆多激光雷达融合识别方法 | |
Wu et al. | 3D multi-object tracking in point clouds based on prediction confidence-guided data association | |
CN110850403B (zh) | 一种多传感器决策级融合的智能船水面目标感知识别方法 | |
Sato et al. | Multilayer lidar-based pedestrian tracking in urban environments | |
CN108647646B (zh) | 基于低线束雷达的低矮障碍物的优化检测方法及装置 | |
CN103064086B (zh) | 一种基于深度信息的车辆跟踪方法 | |
Lenz et al. | Sparse scene flow segmentation for moving object detection in urban environments | |
WO2022141914A1 (zh) | 一种基于雷视融合的多目标车辆检测及重识别方法 | |
CN109947119A (zh) | 一种基于多传感器融合的移动机器人自主跟随系统及方法 | |
CN109684921A (zh) | 一种基于三维激光雷达的道路边界检测与跟踪方法 | |
CN109144072A (zh) | 一种基于三维激光的机器人智能避障方法 | |
Erbs et al. | Moving vehicle detection by optimal segmentation of the dynamic stixel world | |
Wang et al. | Bionic vision inspired on-road obstacle detection and tracking using radar and visual information | |
Mueller et al. | GIS-based topological robot localization through LIDAR crossroad detection | |
CN114998276B (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
CN101840579A (zh) | 一种利用视频分割与粒子滤波实现多目标跟踪方法 | |
Zhang et al. | Multiple vehicle-like target tracking based on the velodyne lidar | |
Knoeppel et al. | Robust vehicle detection at large distance using low resolution cameras | |
CN103425764A (zh) | 一种基于视频的车辆匹配方法 | |
He et al. | A novel multi-source vehicle detection algorithm based on deep learning | |
CN115308732A (zh) | 一种融合毫米波雷达与深度视觉的多目标检测与跟踪方法 | |
Bar et al. | Moving car detection and spectral restoration in a single satellite WorldView-2 imagery | |
Zhou et al. | Asl-slam: A lidar slam with activity semantics-based loop closure | |
Lian et al. | A local environment model based on multi-sensor perception for intelligent vehicles | |
CN103279748B (zh) | 一种基于sift–cof特征光流的道路检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |