CN107862341A - 一种车辆检测方法 - Google Patents
一种车辆检测方法 Download PDFInfo
- Publication number
- CN107862341A CN107862341A CN201711206911.XA CN201711206911A CN107862341A CN 107862341 A CN107862341 A CN 107862341A CN 201711206911 A CN201711206911 A CN 201711206911A CN 107862341 A CN107862341 A CN 107862341A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- classifier
- sample
- training
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供了一种基于结构型Haar特征和Adaboost算法的车辆检测方法,包括以下步骤:构造车辆的结构型Haar特征并与基本Haar特征组成新增特征库,并利用该特征库提取样本特征值;采用Adaboost算法训练分类器,提取自适应分类阈值,得到最佳弱分类器;多次迭代训练多个弱分类器,加权平均成强分类器;训练多个强分类器,组成级联分类器;利用级联分类器进行车辆检测,并对初始检测结果进行灰度对称性验证,验证后的结果分类合并得到最终的检测结果。
Description
技术领域
本发明涉及一种目标检测技术,特别是一种基于结构型Haar特征和Adaboost算法的车辆检测方法。
背景技术
智能交通管理系统是目前21世纪道路交通管理的发展趋势。高速公路的不断快速发展和车辆管理体制的不断完善,为智能交通管理系统进入实际应用领域提供了契机。车辆检测技术作为智能交通中的关键技术,在日常生活中有着广泛的应用前景。智能交通对于视频车辆检测技术有着实时性和准确性等严苛的要求。而在检测时,视频图像中复杂的背景以及各式各样的干扰,是目前视频车辆检测技术面临的问题。而随着国内外学者的不断努力,各式各样的检测算法层出不穷。
目前,比较成熟的车辆检测算法可以分为以下几类:
(1)基于特征的车辆检测算法。车辆作为刚体目标,它本身具有很多良好的特征可以利用,利用这些显著的特征可以将车辆从图像中识别出来。目前使用最多的特征主要包括对称性、颜色、阴影、边缘以及车灯等。这类算法的优点在于特征直观、易于实现、实时性好,但是算法的鲁棒性较差,面对外部环境的变化和道路中的与车辆特征相似的物体很可能导致无法检测到车辆。
(2)基于光流的目标检测算法。基于光流的目标检测算法是利用光流方程计算出每个像素点的运动状态矢量,从而发现运动的像素点,并且能够对这些像素点进行跟踪。在摄像机运动、背景变化时,光流法也能检测出运动目标,并且它能同时完成运动目标检测和跟踪,但是该方法的计算复杂度高,在没有专用硬件支持的情况下很难做到实时检测,同时光流场的计算非常容易受到噪声、光照变化和背景扰动的影响。采用光流场计算的方法也很难将运动目标的轮廓完整地提取出来。
(3)基于背景差分法的目标检测算法,如多帧平均法,IIR滤波法,高斯建模法等都是侧重于背景差分法中背景的建立或背景的更新机制。在这类目标检测算法中,首先根据一定的原理建立背景模型,然后利用输入一帧图像和背景模型比较,不同的则是运动目标,得到运动目标像素,反之则是背景像素,得到检测结果。此类算法的缺点是由于通常需要缓冲若干帧来学习背景,因此往往需要消耗大量的内存,这使其使用范围受到了限制。此外,对于大范围的背景扰动,此类算法的检测效果也不理想。
(4)基于统计学习的算法,由于这类方法对噪声、阴影、光线等变化比较鲁棒,正在越来越多的应用于运动目标检测的过程中。它利用了独立或成组的像素特征来构建或者更新背景模型,采用学习概率来抑制误识(即减少将不属于目标集的目标标注为目标对象)的概率。
Adaboost算法是一种基于统计、学习的方法,它是一种自适应boosting方法,它在海量的特征库中进行学习并且选出少量的具有高效性的特征来组成各级的弱的分类器,之后根据弱分类器训练强的分类器,最后将多个强分类器按照一定的规则组合成为一个级联的分类器。
发明内容
本发明的目的在于提供一种基于结构型Haar特征和Adaboost算法的车辆检测方法,本算法不但能保证良好的检测精度,降低误检率,还有效地缩短了训练的时间。
实现本发明目的的技术方案为:一种基于结构型Haar特征和Adaboost算法的车辆检测方法,包括以下步骤:
步骤1,构造车辆的结构型Haar特征并与基本Haar特征组成新增特征库,并利用该特征库提取样本特征值;
步骤2,采用Adaboost算法训练分类器,提取自适应分类阈值,得到最佳弱分类器;
步骤3,多次迭代训练多个弱分类器,加权平均成强分类器;
步骤4,训练多个强分类器,组成级联分类器;
步骤5,利用级联分类器进行车辆检测,并对初始检测结果进行灰度对称性验证,验证后的结果分类合并得到最终的检测结果。
采用上述方法,步骤1构造结构型Haar特征组成新增特征库计算相应特征值的具体过程在于:
步骤1.1,设计车辆的3种结构型Haar矩形特征,包括车辆与路面等外界环境外接的Haar特征;车辆头部的车灯、车牌等具有与其他物体高区分度的Haar特征;车辆尾部的车灯、车牌等具有与其他物体高区分度的Haar特征;
步骤1.2,结合水平边缘、垂直边缘、水平中心、垂直中心和对角特征在内的5种基本的Haar特征组成新增Haar特征库;
步骤1.3,利用积分图加速算法提取所有样本特征值。
采用上述方法,步骤2中对于第i个Haar特征在训练样本集上的弱分类器hi
其中,x代表样本,feai(x)为第i个类Haar特征feai在样本x上的取值,pi是分类方向符号,pi∈[-1,+1],θi为分类器hi的阈值;hi的训练过程如下:
步骤2.1,记所有训练样本的该特征值构成的向量为Vec,将Vec中的元素由小到大排序得到新的向量SortVec;
步骤2.2,遍历上述排序后的特征值,针对每一个特征值SortVec[j]计算以下四个值:
(1)全部车辆样本的权重之和T+;
(2)所有非车辆样本的权重之和T-;
(3)在此特征值SortVec[j]对应样本之前的所有车辆样本的权重之和S+;
(4)在此特征值SortVec[j]对应样本之前的所有非车辆样本的权重之和S-;
步骤2.3,根据式(2)计算排序好的特征值下的分类误差:
ej=min(S++(T--S-),S-+(T+-S+)) (2)
遍历所有特征,选取分类误差最小的特征训练得到的弱分类器作为最优弱分类器;
步骤2.4,以上得到的分类误差最小的位置计为η,
获取特征值小于等于SortVec[η]时类别输出为Label的先验概率为
P1(Lable|SortVec[k]≤SortVec[η])=∑yk=Lablewk/∑k≤ηwk (4)
特征值大于等于SortVec[η]时类别输出为为-Label的先验概率为:
P2(-Lable|SortVec[k]≥SortVec[η+1])=∑yk=-Lablewk/∑k≤η+1wk (5)
其中,Lable∈[-1,+1],wk为下标为k的训练样本的权值,yk为下标为k的训练样本的真实标签;
步骤2.5,根据样本的分布规律,设置分类阈值如下:
采用上述方法,步骤5.1,读入待检测图像;
步骤5.2,产生不同尺寸和位置的子窗口,假设得到的候选子窗口数量为num;
步骤5.3,导入级联分类器的参数;
步骤5.4,对于每一子窗口,将其归一化为24×24,利用训练过程选择的Haar特征来计算相应特征值;使用车辆的分类器对得到的每一子窗口进行分类,如果为车辆,则保存该子窗口的位置信息,得到初始检测结果;
步骤5.5,对初始检测结果进行灰度对称性操作,剔除误判窗口;
步骤5.6,对不同尺寸下检测挑选的子窗口进行分类合并处理,得到最终检测结果。
本发明与现有技术相比,其显著优点为:
(1)构造了基于先验特征的结构型Haar特征,解决了原有的相邻矩形特征无法有效训练识别分离区域的问题。对由Adaboost算法得出的特征库进行分析,找到最高效的分类特征,以车辆为例设计3种结构型Haar矩形特征,包括车辆与路面等外界环境外接的Haar特征;车辆头部的车灯、车牌等具有与其他物体高区分度的Haar特征;车辆尾部的车灯、车牌等具有与其他物体高区分度的Haar特征,结合5种基本Haar特征组成新增特征库,提高了分类器的准确性和训练速度。
(2)提出了自适应分类阈值的优化方法,解决传统阈值不能反映训练样本的分布规律的问题。分别计算特征值小于等于和大于分类误差最小的特征值的类别一致的先验概率,再根据这两类概率值计算分类阈值。该方法考虑了样本的分布规律,可以选出对训练器最有意义的特征值,将弱分类器的总个数减少,提高了Adaboost训练的速度,解决掉Adaboost训练过程中计算量庞大,消耗较长时间的缺点。
(3)增加了灰度对称性验证,提高了车辆检测的可靠性。假设检测子窗口宽度为W,找出垂直对称轴,在对称轴两侧0.3W像素范围内进行灰度对称性检测。验证时,为了提高实时性,对图像进行抽样检测,将不具有灰度对称性的初始检测结果作为误判窗口剔除,从而降低误检率,提高了车辆检测的可靠性。
下面结合说明书附图对本发明做进一步描述。
附图说明
图1为本发明基于结构型Haar特征和Adaboost算法的车辆检测方法的流程图。
图2为车辆轮廓的Haar特征示意图。
图3为车辆头部的Haar特征示意图。
图4车辆尾部的Haar特征示意图。
图5为五种基本的Haar特征示意图。
图6为矩形区域D的积分图计算示意图。
图7为训练样本样例示意图,其中,图(a)为正样本示意图,图(b)为负样本示意图。
图8为不同Haar特征库的第一级强联分类器训练结果比较示意图。
图9为测试样本样例示意图,其中,图(a)为正样本示意图,图(b)为负样本示意图。
图10为不同算法的测试结果比较示意图。
图11为传统方法检测结果示意图。
图12为本发明检测结果示意图。
图13为不同检测方法的视频车辆检测结果示意图。
具体实施方式
结合图1,一种基于结构型Haar特征和Adaboost算法的车辆检测方法,包括如下步骤:
步骤1,构造结构型Haar特征,加入5种基本Haar特征,组成新增特征库,并利用该特征库提取样本特征值;
步骤2,采用Adaboost算法训练分类器,提取自适应分类阈值,得到最佳弱分类器;
步骤3,多次迭代训练多个弱分类器,加权平均成强分类器;
步骤4,训练多个强分类器,组成级联分类器;
步骤5,利用级联分类器进行车辆检测,并对初始检测结果进行灰度对称性验证,验证后的结果分类合并得到最终的检测结果。
步骤1,构造结构型Haar特征,加入5种基本Haar特征,组成新增特征库,并利用该特征库提取样本特征值。利用新增特征库提取特征值的步骤为:
步骤1.1,以车辆为例设计3种结构型Haar矩形特征,包括车辆与路面等外界环境外接的Haar特征,如图2所示;车辆头部的车灯、车牌等具有与其他物体高区分度的Haar特征,如图3所示;车辆尾部的车灯、车牌等具有与其他物体高区分度的Haar特征,如图4所示。
步骤1.2,结合5种基本的Haar特征,即水平边缘、垂直边缘、水平中心、垂直中心和对角特征,如图5所示,组成新增Haar特征库。
步骤1.3,Haar特征定义为图像中相邻区域内像素灰度值总和的差,即白色区域的像素和减去黑色区域的像素和。利用积分图加速算法提取所有样本特征值。
对于积分图像中任意一像素点(x,y)的积分图:
其中ii(x,y)表示像素点(x,y)的积分图,i(x',y')为样本图像中点(x',y')的像素值。将图像遍历一次即可计算出所有区域的积分图。
借助积分图像,由特征矩形的端点可以快速计算出Haar特征值。如图6所示,点1处的值表示区域A的灰度值,简记为P1;点2处的值表示区域A+B的灰度和,简记为P2;点3处的值表示区域A+C的灰度和,简记为P3;点4处的值表示区域A+B+C+D的灰度和,简记为P4。则矩形区域D的灰度值可表示为P1+P4-P2-P3。
步骤2,采用Adaboost算法训练分类器,提取自适应分类阈值,得到最佳弱分类器。
对于每一种Haar特征,训练一个对应的弱分类器,然后在所有弱分类器中挑选在训练样本中分类误差最低的那个作为该训练集中的最佳弱分类器。训练第i个Haar特征在训练样本集上的弱分类器,对应的弱分类器的形式为:
x代表样本,feai(x)为第i个类Haar特征feai在样本x上的取值,pi是分类方向符号,pi∈[-1,+1],θi为分类器hi的阈值。
训练第i个Haar特征对应弱分类器的具体步骤包括:
步骤2.1,记所有训练样本的该特征值构成的向量为Vec,将Vec中的元素由小到大排序得到新的向量SortVec;
步骤2.2,遍历上述排序后的特征值,针对每一个特征值SortVec[j],需要计算以下四个值:
A.全部正样本(车辆样本)的权重之和T+;
B.所有负样本(非车辆样本)的权重之和T-;
C.在此特征值SortVec[j]对应样本之前的所有正样本(车辆样本)的权重之和S+;
D.在此特征值SortVec[j]对应样本之前的所有负样本(非车辆样本)的权重之和S-;
上述四个值的计算方法为现有的方法,先初始化训练样本的权值分布,然后训练该轮弱分类器的过程中更新权值分布,用于下一轮迭代训练,具体步骤见文献:赵起超.无人车视觉导航中的前方车辆检测方法研究[D].南京理工大学,2016(第三章)。
此时可按下式计算该特征值下的分类误差:
ej=min(S++(T--S-),S-+(T+-S+)) (3)
这样通过将排序好的特征值进行一次遍历,每次都计算相应特征值的分类误差,则遍历完成时按使分类误差最小训练得到特征SortVec[j]的弱分类器。遍历所有特征,选取分类误差最小的特征训练得到的弱分类器作为最优弱分类器。
步骤2.3,以上得到的分类误差最小的位置为η,计算分类阈值。
传统的计算分类阈值的方法是求平均值的方法,即:
然而,这种计算阈值的方法并没有较好地反映训练样本的分布规律,为此,提出一种自适应的分类阈值计算方法:设当特征值小于等于SortVec[η]时,类别输出为Label(Label∈{-1,+1}),当特征值大于等于SortVec[η]时,输出为-Label。于是可得特征值小于等于SortVec[η]时类别为Label的先验概率为
P1(Lable|SortVec[k]≤SortVec[η])=∑yk=Lablewk/∑k≤ηwk (5)
特征值大于等于SortVec[η+1]时类别为-Label的先验概率为:
P2(-Lable|SortVec[k]≥SortVec[η+1])=∑yk=-Lablewk/∑k≤η+1wk (6)
其中wk为下标为k的训练样本的权值,yk为下标为k的训练样本的真实标签。
以上得到的两类的概率值反映了两类训练样本的分布规律,根据样本的分布规律,设置分类阈值如下:
步骤3,多次迭代训练多个弱分类器,加权平均成强分类器。训练强分类器的步骤包括:
步骤3.1,设定初值,强分类器的最小检测率dmin,最大的误检率fmax;
步骤3.2,迭代多次得到多个弱分类器,加权平均组合成强分类器;
步骤3.3,当前强分类器满足检测率dcur≥dmin、误检率fcur≤fmax时,停止迭代,记录下强分类器。
步骤4,训练多个强分类器,组成级联分类器。训练级联分类器的步骤包括:
步骤4.1,将级联的分类器的最大误检率设为Fmax,强分类器的最大的误检率为fmax,强分类器的最小检测率dmin,计算级联的分类器的最大的层数为
M=log(Fmax)/log(fmax) (8)
步骤4.2,训练第i个强分类器,i∈[1,M],使得误检率fi≤fmax,检测率di≥dmin,将前i个强分类器构造成级联分类器,令该级联分类器的误检率Fi等于fi×Fi-1,其中F0=1;
步骤4.3,Fi大于Fmax时,将正样本拿来验证,若通过该级联分类器的车辆样本的数量为N,则改变下一轮训练强分类器的车辆样本的数目为N,N为已经训练得到的强分类器组成的级联分类器判别为车辆的车辆样本的数量;
将负样本拿来验证,滤除掉被否决掉的非目标,从非车辆样本中补充非车辆样本的数量为numPos/ratio,ratio定义为非车辆样本与车辆样本的比率,如下所示:
ratio=numNeg/numPos (9)
其中,numPos为车辆样本数量,numNeg为非车辆样本数量。
令i=i+1,重复步骤4.2。所述否决掉即为分类器判别为负样本,也就是分类器对该样本的判别输出为0;
步骤4.4,当Fi小于等于Fmax时,结束迭代,记录当前级联分类器参数。
步骤5,利用级联分类器进行车辆检测,并对初始检测结果进行灰度对称性验证,验证后的结果分类合并得到最终的检测结果,车辆检测具体步骤为:
步骤5.1,读入待检测图像,所述监测图像是指级联分类器训练完成后用来检测图像内是否存在车辆以及车辆位置的图像;
步骤5.2,产生不同尺寸和位置的子窗口,假设得到的候选子窗口数量为num;
步骤5.3,导入级联分类器的参数;
步骤5.4,for k=1,…num
1)将第k个子窗口归一化为24×24,利用训练过程选择的Haar特征来计算相应特征值;
2)使用车辆的分类器对得到的第k个子窗口进行分类,如果为车辆,则保存该子窗口的位置信息,得到初始检测结果;
步骤5.5,对初始检测结果进行灰度对称性,剔除误判窗口。假设检测子窗口宽度为W,找出垂直对称轴,提取对称轴两侧0.3W范围内的像素灰度值,判断灰度是否对称性。将不具有灰度对称性的初始检测结果作为误判窗口剔除,保存具有对称性的检测子窗口的位置参数。实际验证时,为了提高实时性,对图像进行抽样检测。
步骤5.6,对不同尺寸下检测挑选的子窗口进行分类合并处理。设两个矩形窗口的位置的参数分为别r1=(x1,y1,w1,h1),r2=(x2,y2,w2,h2),其中r1,r2分别为两个窗口的位置参数,x1,y1,w1,h1分别表示第一个窗口的顶点坐标,窗口的宽和高,x2,y2,w2,h2分别表示第二个窗口的顶点坐标,窗口的宽和高。
如果两个窗口有下列条件:
α=[w1×0.2],[*]表示取整
x1-α≤x2≤x1+α
y1-α≤y2≤y1+α
w1/1.2≤w2≤1.2×w2 (10)
其中,α为一个中间参数。满足以上条件,则进行合并,得到并显示最终检测结果。
下面结合仿真实例对本发明做进一步的说明。
本发明利用MATLAB R2014a来实现该算法的模拟仿真,试验选用微机配置为:CPU为AMDA62.1GHz,内存为4.0GB。
在训练级联分类器时,选用了2300张正样本、4500张负样本作为训练样本,如图7所示。在训练过程中,将强分类器的最小检测率设为dmin,根据一般规定,设定为dmin=0.999,最大的误检率设定为fmax=0.5。
为了验证本发明对分类器训练速度的提升,利用不同Haar特征库进行多轮训练弱分类器,使其构造的强分类器达到设定的指标。图8是不同Haar特征的第一级强分类器的训练结果。
从图8中可以看出,利用新增结构型Haar特征库提取的特征总数略多于基本特征库提取的特征总数,其导致每轮弱分类器的训练耗时稍有增加,但训练轮数降低,使得强分类器的总训练时间减少,从而实现了加快训练速度的目的。
为了验证本算法训练所得分类器对正负样本的判别性能,选取1000张车辆图片和1500张非车辆图片作为测试样本,如图9所示。分别利用传统Adaboost算法和本文算法对测试样本进行分类,测试比较不同分类算法的性能,图10为不同算法的测试结果对比。
由图10可知,本发明训练所得分类器的检测率为95.9%,误检率为1.4%。相对于传统Adaboost分类器,其检测率提高了4.6%,误检率降低了2.1%。实验证明,本发明提高了分类器的分类准确性和可靠性。
为了验证本发明的车辆检测性能,分别利用基于传统Adaboost分类器的检测方法和本文方法对视频车辆进行检测,分析比较其检测结果。图11、图12分别是传统方法和本文方法对车辆视频源第39、47、194帧目标检测后的图像,原始视频为AVI格式,其中用矩形框表示出的即为检测目标。图13为不同检测方法的视频车辆检测结果。
实验发现实际视频车辆的检测率略低于样本车辆的检测率,原因可能是由于训练样本的限制,使部分车辆无法准确判别;或者视频中车辆大小和位置不一,由于检测子窗口的尺寸和移动步长的限制,部分车辆无法准确判别,也可能是.由于检测子窗口的分类合并策略限制,导致部分车辆不能被检测框选中。但是相比于传统的Adaboost分类器检测算法,本文方法对视频车辆的检测性能得到了提升,更为准确(由图11、图12可以看出)。如图13所示,本文检测方法的检测率比传统方法提高了4.1%,误检率降低了1.2%。由此可以说明,本文方法的检测性能更为优越。
Claims (9)
1.一种车辆检测方法,其特征在于,包括以下步骤:
步骤1,构造车辆的结构型Haar特征并与基本Haar特征组成新增特征库,并利用该特征库提取样本特征值;
步骤2,采用Adaboost算法训练分类器,提取自适应分类阈值,得到最佳弱分类器;
步骤3,多次迭代训练多个弱分类器,加权平均成强分类器;
步骤4,训练多个强分类器,组成级联分类器;
步骤5,利用级联分类器进行车辆检测,并对初始检测结果进行灰度对称性验证,验证后的结果分类合并得到最终的检测结果。
2.根据权利要求1所述的方法,其特征在于,步骤1构造结构型Haar特征组成新增特征库计算相应特征值的具体过程在于:
步骤1.1,设计车辆的3种结构型Haar矩形特征,包括车辆与路面等外界环境外接的Haar特征;车辆头部的车灯、车牌等具有与其他物体高区分度的Haar特征;车辆尾部的车灯、车牌等具有与其他物体高区分度的Haar特征;
步骤1.2,结合水平边缘、垂直边缘、水平中心、垂直中心和对角特征在内的5种基本的Haar特征组成新增Haar特征库;
步骤1.3,利用积分图加速算法提取所有样本特征值。
3.根据权利要求2所述的方法,其特征在于,步骤1.3的具体过程为:
便利图像所有像素点,根据式(9)获取积分图像中任意一像素点(x,y)的积分图:
其中ii(x,y)表示像素点(x,y)的积分图,i(x',y')为样本图像中点(x',y')的像素值。
4.根据权利要求1所述的方法,其特征在于,步骤2中对于第i个Haar特征在训练样本集上的弱分类器hi
其中,x代表样本,feai(x)为第i个类Haar特征feai在样本x上的取值,pi是分类方向符号,pi∈[-1,+1],θi为分类器hi的阈值;hi的训练过程如下:
步骤2.1,记所有训练样本的该特征值构成的向量为Vec,将Vec中的元素由小到大排序得到新的向量SortVec;
步骤2.2,遍历上述排序后的特征值,针对每一个特征值SortVec[j]计算以下四个值:
(1)全部车辆样本的权重之和T+;
(2)所有非车辆样本的权重之和T-;
(3)在此特征值SortVec[j]对应样本之前的所有车辆样本的权重之和S+;
(4)在此特征值SortVec[j]对应样本之前的所有非车辆样本的权重之和S-;
步骤2.3,根据式(2)计算排序好的特征值下的分类误差:
ej=min(S++(T--S-),S-+(T+-S+)) (2)
遍历所有特征,选取分类误差最小的特征训练得到的弱分类器作为最优弱分类器;
步骤2.4,以上得到的分类误差最小的位置计为η,
获取特征值小于等于SortVec[η]时类别输出为Label的先验概率为
特征值大于等于SortVec[η+1]时类别输出为为-Label的先验概率为:
其中,Lable∈[-1,+1],wk为下标为k的训练样本的权值,yk为下标为k的训练样本的真实标签;
步骤2.5,根据样本的分布规律,设置分类阈值如下:
。
5.根据权利要求4所述的方法,其特征在于,步骤3中训练强分类器的具体设计过程为:
步骤3.1,设定强分类器的最小检测率dmin,最大的误检率fmax;
步骤3.2,迭代多次得到多个弱分类器,加权平均组合成强分类器;
步骤3.3,当前强分类器满足检测率dcur≥dmin、误检率fcur≤fmax时,停止迭代,记录下强分类器。
6.根据权利要求5所述的方法,其特征在于,步骤4训练级联分类器的具体过程为:
步骤4.1,将级联的分类器的最大误检率设为Fmax,强分类器的最大的误检率为fmax,强分类器的最小检测率dmin,计算级联的分类器的最大的层数为
M=log(Fmax)/log(fmax) (7)
步骤4.2,训练第i个强分类器,i∈[1,M],使得误检率fi≤fmax,检测率di≥dmin,将前i个强分类器构造成级联分类器,令该级联分类器的误检率Fi等于fi×Fi-1,其中F0=1;
步骤4.3,Fi大于Fmax时,若通过该级联分类器的车辆样本的数量为N,则改变下一轮训练强分类器的车辆样本的数目为N;
从非车辆样本中补充非车辆样本的数量为numPos/ratio,ratio定义为非车辆样本与车辆样本的比率,如下所示:
ratio=numNeg/numPos (8)
其中,numPos为车辆样本数量,numNeg为非车辆样本数量。
令i=i+1,重复步骤4.2。
步骤4.4,当Fi小于等于Fmax时,结束迭代,记录当前级联分类器参数。
7.根据权利要求1所述的方法,其特征在于,步骤5利用级联分类器进行车辆检测的具体过程在于:
步骤5.1,读入待检测图像;
步骤5.2,产生不同尺寸和位置的子窗口,假设得到的候选子窗口数量为num;
步骤5.3,导入级联分类器的参数;
步骤5.4,对于每一子窗口,将其归一化为24×24,利用训练过程选择的Haar特征来计算相应特征值;使用车辆的分类器对得到的每一子窗口进行分类,如果为车辆,则保存该子窗口的位置信息,得到初始检测结果;
步骤5.5,对初始检测结果进行灰度对称性操作,剔除误判窗口;
步骤5.6,对不同尺寸下检测挑选的子窗口进行分类合并处理,得到最终检测结果。
8.根据权利要求7所述的方法,其特征在于,步骤5.5对初始检测结果进行灰度对称性的具体过程为:
步骤5.5.1,假设检测子窗口宽度为W,找出垂直对称轴;
步骤5.5.2,提取对称轴两侧0.3W范围内的像素灰度值,判断灰度是否对称性;
步骤5.5.3,将不具有灰度对称性的初始检测结果作为误判窗口剔除,保存具有对称性的检测子窗口的位置参数。
9.根据权利要求,7所述的方法,其特征在于,步骤5.6对不同尺寸下检测挑选的子窗口进行分类合并处理的具体过程为:
设两个矩形窗口的位置的参数分为别r1=(x1,y1,w1,h1),r2=(x2,y2,w2,h2),其中r1,r2分别为两个窗口的位置参数,x1,y1,w1,h1分别表示第一个窗口的顶点坐标、窗口的宽和高,x2,y2,w2,h2分别表示第二个窗口的顶点坐标、窗口的宽和高;
如果两个窗口有下列条件:
其中,α为一个中间参数,[*]表示取整;
满足以上条件,则进行合并,得到最终检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711206911.XA CN107862341A (zh) | 2017-11-27 | 2017-11-27 | 一种车辆检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711206911.XA CN107862341A (zh) | 2017-11-27 | 2017-11-27 | 一种车辆检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107862341A true CN107862341A (zh) | 2018-03-30 |
Family
ID=61702900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711206911.XA Pending CN107862341A (zh) | 2017-11-27 | 2017-11-27 | 一种车辆检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107862341A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635633A (zh) * | 2018-10-26 | 2019-04-16 | 平安科技(深圳)有限公司 | 电子装置、票据识别方法及存储介质 |
CN109859236A (zh) * | 2019-01-02 | 2019-06-07 | 广州大学 | 运动物体检测方法、系统、计算设备及存储介质 |
CN110059771A (zh) * | 2019-05-10 | 2019-07-26 | 合肥工业大学 | 一种在排序支持下的交互车辆数据分类方法 |
CN110909781A (zh) * | 2019-11-14 | 2020-03-24 | 长安大学 | 一种基于车辆倒车镜的车辆检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101964063A (zh) * | 2010-09-14 | 2011-02-02 | 南京信息工程大学 | 一种改进的AdaBoost分类器构造方法 |
CN106971193A (zh) * | 2016-11-23 | 2017-07-21 | 南京理工大学 | 基于结构型Haar和Adaboost的目标检测方法 |
-
2017
- 2017-11-27 CN CN201711206911.XA patent/CN107862341A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101964063A (zh) * | 2010-09-14 | 2011-02-02 | 南京信息工程大学 | 一种改进的AdaBoost分类器构造方法 |
CN106971193A (zh) * | 2016-11-23 | 2017-07-21 | 南京理工大学 | 基于结构型Haar和Adaboost的目标检测方法 |
Non-Patent Citations (4)
Title |
---|
DMYTRO PELESHKO ET AL: "Research of Usage of Haar-like Features and AdaBoost Algorithm in Viola-Jones Method of Object Detection", 《2013 12TH INTERNATIONAL CONFERENCE ON THE EXPERIENCE OF DESIGNING AND APPLICATION OF CAD SYSTEMS IN MICROELECTRONICS (CADSM)》 * |
PAUL VIOLA ET AL: "Robust Real-Time Face Detection", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 * |
余小角等: "一种基于类Haar特征和AdaBoost算法的前车检测方法", 《微型机与应用》 * |
张谦: "基于改进Adaboost算法的视频车辆轮廓检测算法研究", 《中国优秀硕士学位论文全文数据库工程科技II辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635633A (zh) * | 2018-10-26 | 2019-04-16 | 平安科技(深圳)有限公司 | 电子装置、票据识别方法及存储介质 |
CN109859236A (zh) * | 2019-01-02 | 2019-06-07 | 广州大学 | 运动物体检测方法、系统、计算设备及存储介质 |
CN110059771A (zh) * | 2019-05-10 | 2019-07-26 | 合肥工业大学 | 一种在排序支持下的交互车辆数据分类方法 |
CN110059771B (zh) * | 2019-05-10 | 2021-01-15 | 合肥工业大学 | 一种在排序支持下的交互车辆数据分类方法 |
CN110909781A (zh) * | 2019-11-14 | 2020-03-24 | 长安大学 | 一种基于车辆倒车镜的车辆检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109977812B (zh) | 一种基于深度学习的车载视频目标检测方法 | |
CN111310583B (zh) | 一种基于改进的长短期记忆网络的车辆异常行为识别方法 | |
CN108830188B (zh) | 基于深度学习的车辆检测方法 | |
CN109829403B (zh) | 一种基于深度学习的车辆防碰撞预警方法及系统 | |
CN107133974B (zh) | 高斯背景建模与循环神经网络相结合的车型分类方法 | |
CN107766821B (zh) | 基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法及系统 | |
KR100912746B1 (ko) | 교통 표지판 탐지를 위한 방법 | |
CN108921083B (zh) | 基于深度学习目标检测的非法流动摊贩识别方法 | |
CN103034836B (zh) | 道路标志检测方法和道路标志检测设备 | |
CN101916383B (zh) | 基于多摄像机的车辆检测跟踪识别系统 | |
Pamula | Road traffic conditions classification based on multilevel filtering of image content using convolutional neural networks | |
CN102509091B (zh) | 一种飞机尾号识别方法 | |
CN109255350B (zh) | 一种基于视频监控的新能源车牌检测方法 | |
CN110119726B (zh) | 一种基于YOLOv3模型的车辆品牌多角度识别方法 | |
CN103824081B (zh) | 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法 | |
CN107122776A (zh) | 一种基于卷积神经网络的交通标志检测与识别方法 | |
CN109255326B (zh) | 一种基于多维信息特征融合的交通场景烟雾智能检测方法 | |
CN107862341A (zh) | 一种车辆检测方法 | |
CN104978567A (zh) | 基于场景分类的车辆检测方法 | |
CN108388871B (zh) | 一种基于车身回归的车辆检测方法 | |
CN104156731A (zh) | 基于人工神经网络的车牌识别系统与方法 | |
CN113657305B (zh) | 一种基于视频的黑烟车辆及林格曼黑度等级智能检测方法 | |
CN114973207B (zh) | 一种基于目标检测的路标识别方法 | |
CN106529461A (zh) | 一种基于积分特征通道和svm训练器的车型识别算法 | |
CN111209905B (zh) | 一种基于深度学习与ocr技术相结合的污损遮挡号牌识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180330 |