CN113065428A - 基于特征选择的自动驾驶目标识别方法 - Google Patents
基于特征选择的自动驾驶目标识别方法 Download PDFInfo
- Publication number
- CN113065428A CN113065428A CN202110299333.9A CN202110299333A CN113065428A CN 113065428 A CN113065428 A CN 113065428A CN 202110299333 A CN202110299333 A CN 202110299333A CN 113065428 A CN113065428 A CN 113065428A
- Authority
- CN
- China
- Prior art keywords
- data
- features
- feature
- correlation
- entropy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000004422 calculation algorithm Methods 0.000 claims description 51
- 238000012706 support-vector machine Methods 0.000 claims description 15
- 238000011156 evaluation Methods 0.000 claims description 14
- 238000007637 random forest analysis Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 11
- 230000001133 acceleration Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 8
- 238000010845 search algorithm Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000002790 cross-validation Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000010187 selection method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 241000402754 Erythranthe moschata Species 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000005299 abrasion Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
基于特征选择的自动驾驶目标识别方法属于目标识别技术领域,本发明围绕基于差分相关信息熵的特征选择和提取展开,通过较好的特征选择和提取方法,方便分类器将目标区分开,实现计算机对不同目标的识别,为自动驾驶车辆在道路上对运动物体识别提供一种新思路。
Description
技术领域
本发明属于目标识别技术领域,尤其涉及一种基于特征选择的自动驾驶目标识别方法。
背景技术
近年来随着深度学习的发展,自动驾驶汽车成为减少交通事故、缓解交通拥堵等问题的有效途径之一。自动驾驶车辆关键技术之一就是对道路上其他行驶车辆的识别,以便车辆进行判断并进行变道、停车等不同操作。
目前国内外很多科技企业和教育研究机构已经开展了无人驾驶汽车的多种里程路测。美国高速公路安全管理局(NHTSA)将自动驾驶划分为六个阶段即L0-L5,但至今只有特斯拉和谷歌Waymo的测试车辆达到了L3级(有条件自动化驾驶),其他公司的无人驾驶技术依旧徘徊在L2级(部分自动化驾驶),在没有人为参与的情况下,测试车辆还是不能很好地处理复杂多变的道路状况。而对真实驾驶场景的快速准确的检测与算法处理则是自动驾驶中所面临的众多难题之一,也是最重要的部分之一。
在国内外的文献中了解到基于特征选择的移动目标识别是自动驾驶的重要算法之一。特征选择可以消除无关和冗余特征,降低空间复杂度,提高机器学习模型的准确性和效率。特征选择的优点概述如下:降维可以降低学习模型的计算复杂度;降噪可以提高分类精度;更可解释的特征可以有助于识别和监测目标问题或功能类型。
特征选择方法一般有三种:Wrappers,Filters and Embeded。Filter methods将分类过程和特征选择部分分开,并定义一个标准称作“相关性指数”或“评分”,以独立于任何特定分类器评估数据的统计,从而提取通用的特征,而不加入特定的假设。Wrappermethods的特征选择过程包括搜索策略、评价函数和性能函数。首先利用搜索策略在特征空间中进行搜索,将搜索策略分为穷举、顺序和随机三类。其次利用评价函数对候选特征子集的优劣进行评价。最后利用性能函数对所选特征子集进行验证。Emeded methods克服了Wrapper methods需要更多计算量和Filter分类并不充足的特点。
发明内容
本发明公开了一种基于特征选择的自动驾驶目标识别方法,主要围绕基于差分相关信息熵的特征选择和提取展开,克服了现有的最小冗余最大相关(mRMR)的贪婪特征选择算法的局限性,可以在一定程度上检测出相关的多变量特征之间的关系,通过较好的特征选择和提取方法,方便分类器将目标区分开,实现计算机对不同目标的识别,为自动驾驶车辆在道路上对运动物体识别提供一种新思路。
1、一种基于特征选择的自动驾驶目标识别方法,其特征在于,包括:
步骤1、获取来自雷达和相机的自动驾驶目标识别数据,并进行数据预处理;
步骤2、基于最小冗余最大相关(mRMR)框架提出了一种新的特征子集评价方法,即差分相关信息法熵(DCIE);
步骤3、结合前向搜索算法,使用随机森林分类器(RF)和支持向量机分类器(SVM),实现特征子集的选择。
2、进一步,步骤1中,将摄像机和雷达收集到的数据信息进行预处理,对于摄像机数据利用图像滤波过滤掉干扰信息,然后可分类为车道线、行人、车辆、交通标志牌、交通信号灯型,其中,对于车道的识别需要进行边缘提取和二值化,通过直线拟合算法计算出车道方程;对于其余类型的图片进行,可将分类器模型进行训练构成不同的数据集;对于雷达收集到的数据,对数据清洗后进行标注,最终形成雷达数据集;
针对汽车速度分类,有多个汽车速度样本,特征为主要速度和其相关的活动标签,分别为来自加速度计的三轴加速度(总加速度),来自陀螺仪的三轴角速度,具有时域和频域变量的561特征向量;数据形式为每一个样本数据针对每一个特征只有一个数值,针对此样本数据会有人工标记的分类结果。
3、进一步,步骤2中,对DCIE进行了详细的定义;基于标签数据,设i为选取的数据,是多个汽车速度样本,0≤i≤M,M为数据总量,则每个特征Ai都可以用一个M维向量表示为Ai=(ai,1,ai,2,…,ai,M),特征为主要速度和其相关的活动标签,分别为来自加速度计的三轴加速度,来自陀螺仪的三轴角速度,具有时域和频域变量的561特征向量;特征选择的目的是发现将Ai量化为Ai=(ai,1,ai,2,…,ai,P);
首先,构造一个特征集S的随机特征矩阵如下:
其中R携带所有特征的互信息,N=|S|;式中,rij=r(ai,aj)为ai与aj计算的相关性度量,0≤i,j≤N;
得到特征与标签之间的相关值,并通过在矩阵R中加入标签与特征的互信息表示特征与标签之间的关系定义R′;
相关信息熵作为变量之间相关性的不确定度度量,其值在[0,1]之间;多变量之间的相关度越大,冗余度越小,相关信息熵越大;矩阵R′的相关信息熵NR′测量特征子集与标签之间的相关性,R的相关信息熵HR表示特征子集中特征之间的相关性;在算法的执行过程中,所选择的特征应该与标签有较强的相关性;即特征与类别之间的相关信息熵越大,特征之间的相关信息熵越小,选择的特征子集越好;因此,HR′应大于HR;故以此定义DCIE,并记为IR:
其中C为标签,利用IR对选出来的特征子集进行评价。
4、进一步,上述步骤已完成特征选择和提取,获得了最优特征选择排序;步骤3中,按照应选择的特征子集个数,使用序列前向搜索(SFS)作为搜索策略,向所选特征子集添加新特征;训练随机森林分类器(RF)和支持向量机分类器(SVM),并进行十倍交叉验证(随机);而其后对数据的测试即采用此分类器形成分类结果;选择了精确率、准确率、召回率和F1评分作为评估标准,评估哪种算法可更好地实现自动驾驶车辆在道路上对运动物体的目标分类。
附图说明
图1本发明的流程图;
图2a在Vehicle数据集上使用SVM分类器的不同特征选择算法的精度性能比较;
图2b在Vehicle数据集上使用RF分类器的不同特征选择算法的精度性能比较;
图2c在Vehicle数据集上使用SVM分类器的不同特征选择算法的F1评分性能比较;
图2d在Vehicle数据集上使用RF分类器的不同特征选择算法的F1评分性能比较;
图3a在Smartphone数据集上使用SVM分类器的不同特征选择算法的精度性能比较;
图3b在Smartphone数据集上使用RF分类器的不同特征选择算法的精度性能比较;
图3c在Smartphone数据集上使用SVM分类器的不同特征选择算法的F1评分性能比较;
图3d在Smartphone数据集上使用RF分类器的不同特征选择算法的F1评分性能比较;
具体实施方式
如图1所示,本发明提供一种基于特征选择的自动驾驶目标识别方法,包括:步骤1、获取来自雷达和相机的自动驾驶目标识别数据,并进行数据预处理;步骤2、基于最小冗余最大相关(mRMR)框架提出了一种新的特征子集评价方法,即差分相关信息法熵(DCIE);步骤3、结合前向搜索算法,使用随机森林分类器(RF)和支持向量机分类器(SVM),实现特征子集的选择。
步骤一、获取来自雷达和相机的自动驾驶目标识别数据,并进行数据预处理;
自动驾驶车辆依靠传感器、执行器、算法等来执行驾驶任务。自动驾驶车辆上安装了摄像头和激光雷达等设备,激光雷达传感器每秒会发送成千上万条激光信号,激光被反射后可被激光雷达上的接收器接收,进而根据时间差算出距离,可用于监视附近车辆的位置,测量与其他车辆间的距离,检测道路边缘等;摄像头是自动驾驶中最常用的传感器之一,可检测交通信号灯,读取路标,跟踪其他车辆并寻找行人。
对于摄像头识别到的2D图像数据,所获取到的图像中包含车道线磨损、树木、阴影等诸多无用信息,容易对识别产生干扰。于是利用图像滤波过滤掉干扰信息,最大程度的保留识别目标相关信息。通常采用的双边滤波是一种基于空间分布的高斯滤波器,充分考虑图像亮度信息,将高斯滤波的滤波权系数进行优化,最后再与图像信息作卷积运算。此方法能够保证边缘信息的清晰并且达到滤波效果,并且使图像边缘更加平滑。
对处理后的图片进行分类,可分类成:车道线、行人、车辆、交通标志牌、交通信号灯等不同类型,每一类采用不同的标注方法对图像进行标注。对于车道线识别,预处理后进行边缘提取和二值化,在边缘提取的过程中,通常使用Sobel、Prewitt等算子。提取了车道线后可用鲁棒的直线拟合算法确定车道线方程,将整个车道从图像背景中分离出来。对于行人的识别,可利用支持向量机、神经网络等分类器,基于统计学习构建人脸分类器。对于车辆的检测,可利用卷积神经网络提取车辆特征,然后用支持向量机训练部件模型及空间位置模型,构建深度网络,将车辆特征与部件模型和空间位置模型进行串联,进行车辆的识别。对于交通标志的识别,首先对色彩进行识别,确定色彩分割的阈值;然后进行形状检测和检验,交通标志主要有正三角形、圆形、长方形和正方形,通常利用Hough直线变换检测直线,利用随机连续椭圆采样检测圆形;对于交通标志内部象形图,同对车辆的检测方法一致,采用卷积神经网络,训练分类器模型。对于交通信号灯的识别,对图像进行彩色分割,噪声去除,并进行区域标记,然后进行分类器模型的训练。在进行完以上的工作后将图片和标注文件按照顺序依次读入保存,形成数据集。
雷达工作模式为脉冲-多普勒模式,为连续时间采样后的离散数字信号,在数据预处理时进行数据下变频处理、抽取滤波处理以及脉冲压缩处理,形成时域脉冲数据序列,并提出丢帧数据。然后进行数据标注,获取确定时刻数据中目标真值,包括目标的数目、序号、速度及距离。在进行完以上的工作后将处理后的数据读入保存,形成数据集。
数据形式为每一个样本数据针对每一个特征只有一个数值,针对此样本数据会有人工标记的分类结果。
步骤二、基于最小冗余最大相关(mRMR)框架提出了一种新的特征子集评价方法,即差分相关信息法熵(DCIE);
首先定义一个标准来选择传统的相关度量,包括互信息(MI),皮尔逊相关系数(Pearson),斯皮尔曼系数(Spearman)和距离相关系数(Distcorr);
基于标签数据,设i为选取的数据,是多个汽车速度样本,0≤i≤M,M为数据总量,则每个特征Ai都可以用一个M维向量表示为Ai=(ai,1,ai,2,…,ai,M),特征为主要速度和其相关的活动标签,分别为来自加速度计的三轴加速度(总加速度),来自陀螺仪的三轴角速度,具有时域和频域变量的561特征向量。特征选择的目的是发现并保持良好的可分性,将Ai量化为Ai=(ai,1,ai,2,…,ai,P)。
在基于信息的特征选择算法中,主要目标是找到一个对目标类z具有最大依赖性的特征集Sm。利用最大依赖准则,将互信息关系定义为:
为了减少特征之间的依赖关系,通过添加最小冗余条件来选择互斥特征。结合上述两个约束的准则称为“最小冗余最大相关性”(mRMR)。
我们发现相关性度量的选择对后续的DCIE计算至关重要,因此,我们提出了一个新的度量来进行选择过程。我们比较了几种传统的相关性度量方法,包括互信息(MI),皮尔逊相关系数(Pearson),斯皮尔曼系数(Spearman)和距离相关系数(Distcorr)。如上所述。为了便于计算,假设有一个更好的相关性度量方法,会在发现的特征和标签之间产生较大的差距。换句话说,如果可以用一个变量来计算特征之间的离散度,那么随着数据点数量的增加,变量的影响会更加显著,这符合mRMR框架的原则。因此,我们定义即相关性度量方法:
KR=sR′-sR (2)
其中sR和sR′分别表示原始数据和扩展后数据的标准差。因此,选择KR值最大时的相关性度量作为最后计算DCIE的方法。
然后我们对DCIE进行了详细的定义。首先,构造一个特征集S的随机特征矩阵如下:
其中R携带所有特征的互信息,N=|S|。式中,rij=r(ai,aj)为ai与aj计算的相关性度量,0≤i,j≤N。
我们用同样的方法得到特征与标签之间的相关值,并通过在矩阵R中加入标签与特征的互信息表示特征与标签之间的关系定义R′。
相关信息熵作为变量之间相关性的不确定度度量,其值在[0,1]之间。多变量之间的相关度越大,冗余度(如重叠信息)越小,相关信息熵越大。矩阵R′的相关信息熵HR′测量特征子集与标签之间的相关性,R的相关信息熵HR表示特征子集中特征之间的相关性。在算法的执行过程中,所选择的特征应该与标签有较强的相关性。即特征与类别之间的相关信息熵越大,特征之间的相关信息熵越小,选择的特征子集越好。因此,HR′应大于HR。故我们以此定义DCIE,并记为IR:
其中c为标签,利用IR对选出来的特征子集进行评价,较好的特征子集对应IR的数值相应增大。结果表明,IR不仅可以表示特征与标签之间的关系,还可以显示不同特征之间的关系。
我们的方法是一种直接评价特征子集的方法,可以替代传统的mRMR算法。此算法可与多种搜索策略相结合。以前向搜索SFS为例,DCIE选择过程可以分为以下几个步骤:
Step 1:使用空集初始化选定特征子集。
Step 2:将具有最大差分相关信息熵的特征加入到选定特征子集Ai,形成新的特征子集,用Ai′表示,计算候选特征子集的HR由公式(3)(5)计算。
Step 3:计算HR′由公式(4)(5)计算,IR指标值由公式(6)计算。
Step 4:将其余特征依次加入选定特征子集Ai,上述过程将被迭代,直至遍历完剩余所有特征。
Step 5:选择IR指标值最高的特征添加到选定特征子集,形成新的选定特征子集。
Step 6:如此反复,直至所有特征都进入选定特征子集。
Step 7:输出选定特征子集。
步骤三、结合前向搜索算法,使用随机森林分类器(RF)和支持向量机分类器(SVM),实现特征子集的选择
上述步骤已完成特征选择和提取,获得了最优特征选择排序。按照应选择的特征子集个数,使用序列前向搜索(SFS)作为搜索策略,向所选特征子集添加新特征。
在启发式搜索中,在搜索路径的控制信息中加入关于待解决问题的某些特征,可指导搜索向最有希望达到目标结点的方向前进。前向搜索算法(SFS)属于启发式搜索中的一种,可被描述为特征子集X从空集开始,每次选择一个特征x加入特征子集X,使得特征函数最优。结合前向搜索算法可使搜索时间变短,搜索效率提高。
训练随机森林分类器(RF)和支持向量机分类器(SVM),并进行十倍交叉验证(随机)。
分类器是一个分类函数或分类模型,在数据挖掘中可对样本进行分类。本发明使用随机森林和支持向量机两种分类器对样本进行训练和测试。随机森林是一个包含多个决策树的分类器,首先从N个训练样本中有放回抽样方式抽取N次,形成一个训练集,并用未抽到的样本进行测试,评估其误差。采用随机森林分类器具有可处理大量的输入变数、处理速度快等优点。支持向量机是按监督学习方式对数据进行二元分类的广义线性分类器,目的是找到各类样本点到超平面距离最远的最大间隔超平面。采用支持向量机的方式可找出对任务至关重要的样本,并且决策函数由少数的支持向量所确定,某种意义上避免了维数灾难。
最后对数据的测试即采用此分类器形成分类结果。选择精确率、准确率、召回率和F1评分作为评估标准,评估哪种算法可更好地实现自动驾驶车辆在道路上对运动物体的目标分类。
实验与结果分析
本发明实验是在12个自动驾驶连续数据集上进行的,来自UCI机器学习知识库。实验结合前向搜索算法,使用随机森林分类器(RF)和支持向量机分类器(SVM),实现特征子集的选择。
为加快实验进度,我们选择已完成预处理的数据集进行实验。数据形式为每一个样本数据针对每一个特征只有一个数值,针对此样本数据会有人工标记的分类结果。
我们使用了两个具有代表性的数据集进行速度分类与车辆种类分类,这两种也是在自动驾驶目标识别中较为重要的识别元素,其他数据集为判定算法有效性所使用。
针对车辆种类分类,我们使用的是Vehicle数据集,该数据集的目的是使用从轮廓提取的一组特征,将给定轮廓分类为四种类型的车辆之一。数据集来源为对于相机拍摄的车辆轮廓,针对有关于此分类目标,即车辆种类,选取有关于车辆种类的特征,例如不同角度的形状特征,特征的选取方法一般为专家选取。从要区分的对象的示例轮廓中提取的形状特征的度量用于通过计算机归纳生成分类规则树,得到分类结果。该对象分类策略已成功用于区分受约束仰角和所有旋转角度观察的模型车,厢型车和公共汽车的轮廓。
针对速度分类,我们使用了Smartphone数据集。该数据集并非是针对车辆测速,该数据集是通过智能手机APP统计得到的人类活动识别(HAR)。其包含三部分主要速度和其相关的活动标签,分别为来自加速度计的三轴加速度(总加速度),来自陀螺仪的三轴角速度,具有时域和频域变量的561特征向量。虽然人的活动相对于车的方向与速度更加复杂,但其与我们车辆测速的需求是不谋而合的。故我们挑选了人的速度分类数据集进行实验。
两个变量之间相关性的计算是DCIE算法的基础。目前,相关指标的计算方法有许多:互信息(MI),皮尔逊相关系数(Pearson),斯皮尔曼系数(Spearman)和距离相关系数(Distcorr)等。我们的算法需要首先选择最佳的相关性度量,即等式2。得到的结果中,不同的数据集会导致对相关措施的不同选择。对于大多数数据集,皮尔逊相关系数要比其他方法要好得多。同时,MIFS作为Zoo数据集、Synthetic数据集和Epileptic数据集的相关度量更有效,Distcorr对Diabetes数据集、Musk数据集和Glass数据集更有效。
为了比较DCIE算法与其他特征选择算法的性能,实现最有效的分类,即对道路上被识别的目标进行更好地分类,如判断车辆种类和车辆、行人速度等,我们对几种流行的算法进行了比较和评价,包括最小冗余最大相关(mRMR),fsvFS,无限特征选择(infFS),快速无限特征选择(infFS-fast),reliefF,互信息特征选择,序列前向搜索算法的LW索引(SFS-LW),以及联合最大信息熵(FS-JMIE)的特征选择方法。按照应选择的特征子集个数,使用序列前向搜索(SFS)作为搜索策略,向所选特征子集添加新特征。训练随机森林分类器(RF)和支持向量机分类器(SVM),并进行十倍交叉验证(随机)。而其后对数据的测试即采用此分类器形成分类结果。选择了精确率、准确率、召回率和F1评分作为评估标准,评估哪种算法可更好地实现自动驾驶车辆在道路上对运动物体的目标分类
从图2和图3可知,这四个图表显示了Vehicle数据集不同特征选择算法的性能比较,其中X轴表示所选特征子集的大小(从1到N),Y轴表示精确率或F1度量。
在车辆种类分类数据集中,DCIE的精确率明显优于其他算法,平均比次优算法高0.6%,平均比最差算法高2.4%。F1分数平均比次优算法高出约0.9%,平均比最差算法高出约3.8%。因此我们的算法可以很好地应用于受约束仰角和所有旋转角度的车辆轮廓分类。对于道路上的自动驾驶车辆来说,DCIE算法可以更快速且精准地进行道路车辆分类,优化环境感知算法的执行效率。
在速度分类数据集中,DCIE的精确率明显优于其他算法,平均比次优算法高0.4%,平均比最差算法高3.5%。此数据集的有效实验评估有助于自动驾驶车辆更快速地感知周边车辆和行人的速度,更准确地针对不同的车辆速度和行人速度进行决策规划。
可以看出,用DCIE作为特征选择方法进行自动驾驶目标分类有良好的优势,可以进行更精确的分类。
然后我们比较了不同方法的总体性能,例如,Musk数据集的SVM分类的平均精度的排名顺序为riliefF>DCIE>mRMR>MIFS>FS-JMIE>fsvFS>SFS-LW>infFS>infFS-fast,对于Usps数据集的RF分类,不同算法的F1-score排序顺序为DCIE>mRMR>MIFS>infF-fast>reliefF>FS-JMIE>SFS-LW>fsvFS>MIFS。
综上所述,这些算法根据其性能大致可以分为三个层次。第一列到第三列构成第一梯队的算法——DCIE、mRMR和reliefF;第四列到第六列构成第二梯队的算法——SFS-LW、fsvFS和MIFS;剩下的算法组成的第三梯队——infFS-fast,FS-JMIE和infFS。
在所有数据集上,基于准确率,DCIE算法排名第一到第三的次数为20次,排名第四到第六的次数为2次,从未排名第七到第九。根据F1-score,DCIE排名第一至第三有16次,第四至第六有6次,从未排名第七至第九。因此,DCIE具有良好的性能预测能力。
同时,我们计算了每种算法位于第一名到第三名的总次数,并分别根据准确率和F1-score进行统计,结果如表1所示。显然,数目越大,算法的整体性能越好。因此,它再次证明了DCIE应用于自动驾驶目标分类及其他目标分类中的分类效果良好,有助于自动驾驶车辆及其他分类器针对已有特征进行特征选择,得出更快速精准的分类结果,使自动驾驶车辆的环境感知具有更快的反应速度。
最后,支持向量机分类器(SVM)的分类结果总体较好,总体排名较高。随机森林分类器(RF)在一些数据集上表现较好,在其他数据集上表现较差,分类效果总体不稳定。
表1.每种算法位于第一名到第三名的总次数
本发明使用自动驾驶中激光雷达和相机检测的分类数据,作为数据集,采用构造差分相关信息熵的方法消除不相关和多余的特征,以提高机器学习模型的分类准确性。本发明DCIE方法克服了现有的基于mRMR的贪婪特征选择方法的局限性,它可以在一定程度上检测出相关的多变量特征之间的关系。实验结果表明了DCIE方法的有效性,可以对自动驾驶信息进行更好地分类。
但与此同时,我们的方法还是有不足之处,当维数过高时,分类效果不是很理想。因为在这种情况下,噪声特征值有一个很大的扩展,所以它们不等于常数。基本上,当维数过高时,样本特征值精确度下降。但是在自动驾驶中的分类中,大部分情况下维数较适中,所以本方法还是较适用于自动驾驶信息分类,可以让自动驾驶车辆在道路行驶中拥有更精准的分类与识别,更好地感知周围环境。
Claims (4)
1.一种基于特征选择的自动驾驶目标识别方法,其特征在于,包括:
步骤1、获取来自雷达和相机的自动驾驶目标识别数据,并进行数据预处理;
步骤2、基于最小冗余最大相关(mRMR)框架提出了一种新的特征子集评价方法,即差分相关信息法熵(DCIE);
步骤3、结合前向搜索算法,使用随机森林分类器(RF)和支持向量机分类器(SVM),实现特征子集的选择。
2.如权利要求1所述的基于特征选择的自动驾驶目标识别方法,其特征在于,步骤1中,将摄像机和雷达收集到的数据信息进行预处理,对于摄像机数据利用图像滤波过滤掉干扰信息,然后可分类为车道线、行人、车辆、交通标志牌、交通信号灯型,其中,对于车道的识别需要进行边缘提取和二值化,通过直线拟合算法计算出车道方程;对于其余类型的图片进行,可将分类器模型进行训练构成不同的数据集;对于雷达收集到的数据,对数据清洗后进行标注,最终形成雷达数据集;
针对汽车速度分类,有多个汽车速度样本,特征为主要速度和其相关的活动标签,分别为来自加速度计的三轴加速度(总加速度),来自陀螺仪的三轴角速度,具有时域和频域变量的561特征向量;数据形式为每一个样本数据针对每一个特征只有一个数值,针对此样本数据会有人工标记的分类结果。
3.如权利要求1所述的基于特征选择的自动驾驶目标识别方法,其特征在于,步骤2中,对DCIE进行了详细的定义;基于标签数据,设i为选取的数据,是多个汽车速度样本,0≤i≤M,M为数据总量,则每个特征Ai都可以用一个M维向量表示为Ai=(ai,1,ai,2,…,ai,M),特征为主要速度和其相关的活动标签,分别为来自加速度计的三轴加速度,来自陀螺仪的三轴角速度,具有时域和频域变量的561特征向量;特征选择的目的是发现将Ai量化为Ai=(ai,1,ai,2,…,ai,P);
首先,构造一个特征集S的随机特征矩阵如下:
其中R携带所有特征的互信息,N=|S|;式中,rij=r(ai,aj)为ai与aj计算的相关性度量,0≤i,j≤N;
得到特征与标签之间的相关值,并通过在矩阵R中加入标签与特征的互信息表示特征与标签之间的关系定义R′;
相关信息熵作为变量之间相关性的不确定度度量,其值在[0,1]之间;多变量之间的相关度越大,冗余度越小,相关信息熵越大;矩阵R′的相关信息熵HR′测量特征子集与标签之间的相关性,R的相关信息熵HR表示特征子集中特征之间的相关性;在算法的执行过程中,所选择的特征应该与标签有较强的相关性;即特征与类别之间的相关信息熵越大,特征之间的相关信息熵越小,选择的特征子集越好;因此,HR′应大于HR;故以此定义DCIE,并记为IR:
其中C为标签,利用IR对选出来的特征子集进行评价。
4.如权利要求1所述的基于特征选择的自动驾驶目标识别方法,其特征在于,上述步骤已完成特征选择和提取,获得了最优特征选择排序;步骤3中,按照应选择的特征子集个数,使用序列前向搜索(SFS)作为搜索策略,向所选特征子集添加新特征;训练随机森林分类器(RF)和支持向量机分类器(SVM),并进行十倍交叉验证(随机);而其后对数据的测试即采用此分类器形成分类结果;选择了精确率、准确率、召回率和F1评分作为评估标准,评估哪种算法可更好地实现自动驾驶车辆在道路上对运动物体的目标分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110299333.9A CN113065428A (zh) | 2021-03-21 | 2021-03-21 | 基于特征选择的自动驾驶目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110299333.9A CN113065428A (zh) | 2021-03-21 | 2021-03-21 | 基于特征选择的自动驾驶目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113065428A true CN113065428A (zh) | 2021-07-02 |
Family
ID=76562768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110299333.9A Pending CN113065428A (zh) | 2021-03-21 | 2021-03-21 | 基于特征选择的自动驾驶目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113065428A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113722566A (zh) * | 2021-08-18 | 2021-11-30 | 南斗六星系统集成有限公司 | 一种自动驾驶车辆功能稳定性评定的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106991447A (zh) * | 2017-04-06 | 2017-07-28 | 哈尔滨理工大学 | 一种嵌入式多类别属性标签动态特征选择算法 |
CN107609472A (zh) * | 2017-08-04 | 2018-01-19 | 湖南星云智能科技有限公司 | 一种基于车载双摄像头的无人驾驶汽车机器视觉系统 |
CN110068818A (zh) * | 2019-05-05 | 2019-07-30 | 中国汽车工程研究院股份有限公司 | 通过雷达和图像采集设备进行交通路口车辆及行人检测的工作方法 |
CN110263635A (zh) * | 2019-05-14 | 2019-09-20 | 中国人民解放军火箭军工程大学 | 基于结构森林和PCANet的标志物检测与识别方法 |
-
2021
- 2021-03-21 CN CN202110299333.9A patent/CN113065428A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106991447A (zh) * | 2017-04-06 | 2017-07-28 | 哈尔滨理工大学 | 一种嵌入式多类别属性标签动态特征选择算法 |
CN107609472A (zh) * | 2017-08-04 | 2018-01-19 | 湖南星云智能科技有限公司 | 一种基于车载双摄像头的无人驾驶汽车机器视觉系统 |
CN110068818A (zh) * | 2019-05-05 | 2019-07-30 | 中国汽车工程研究院股份有限公司 | 通过雷达和图像采集设备进行交通路口车辆及行人检测的工作方法 |
CN110263635A (zh) * | 2019-05-14 | 2019-09-20 | 中国人民解放军火箭军工程大学 | 基于结构森林和PCANet的标志物检测与识别方法 |
Non-Patent Citations (2)
Title |
---|
XIUJUAN WANG等: "Feature Selection Method Based on Differential Correlation Information Entropy", NEURAL PROCESSING LETTERS, 1 August 2020 (2020-08-01), pages 1339 - 1358, XP037257611, DOI: 10.1007/s11063-020-10307-7 * |
王世峰等: "无人驾驶汽车环境感知技术综述", 《长春理工大学学报(自然科学版)》, 15 February 2017 (2017-02-15), pages 1 - 6 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113722566A (zh) * | 2021-08-18 | 2021-11-30 | 南斗六星系统集成有限公司 | 一种自动驾驶车辆功能稳定性评定的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7090105B2 (ja) | 珍しい事例の分類 | |
Azim et al. | Layer-based supervised classification of moving objects in outdoor dynamic environment using 3D laser scanner | |
CN111126224A (zh) | 车辆检测方法及分类识别模型训练方法 | |
CN111274926B (zh) | 图像数据筛选方法、装置、计算机设备和存储介质 | |
Cabral et al. | An automatic survey system for paved and unpaved road classification and road anomaly detection using smartphone sensor | |
CN111950488B (zh) | 一种改进的Faster-RCNN遥感图像目标检测方法 | |
CN106570439B (zh) | 一种车辆检测方法及装置 | |
KR20200027889A (ko) | CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
Jain et al. | Performance analysis of object detection and tracking algorithms for traffic surveillance applications using neural networks | |
Li et al. | Robust vehicle detection in high-resolution aerial images with imbalanced data | |
CN112738470A (zh) | 一种高速公路隧道内停车检测的方法 | |
Soni et al. | A review on strategic pavement maintenance with machine learning techniques | |
CN116872961B (zh) | 用于智能驾驶车辆的控制系统 | |
CN113065428A (zh) | 基于特征选择的自动驾驶目标识别方法 | |
CN111832463A (zh) | 一种基于深度学习的交通标志检测方法 | |
Panizzi et al. | Private or Public Parking Type Classifier on the Driver’s Smartphone | |
Lushan et al. | Supervising vehicle using pattern recognition: Detecting unusual behavior using machine learning algorithms | |
Ranganayaki et al. | Machine Learning Approaches on Pedestrian Detection in an autonomous vehicle | |
Sugiharto et al. | Comparison of SVM, Random Forest and KNN Classification By Using HOG on Traffic Sign Detection | |
Ponn et al. | Performance Analysis of Camera-based Object Detection for Automated Vehicles. | |
CN116541715B (zh) | 目标检测方法、模型的训练方法、目标检测系统及装置 | |
Martinec et al. | Data collecting, analysis, classification methods, and approaches of the road pavement defects detection | |
Sahay et al. | Multi-Object Detection and Tracking Using Machine Learning | |
JP7280426B1 (ja) | 物体検出装置および物体検出方法 | |
Akshaya et al. | Deep CNN based Road Sign Recognition for Vehicles using Raspberry Pi 3B |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |