CN106485283B - 一种基于Online Boosting的粒子滤波行人目标跟踪方法 - Google Patents
一种基于Online Boosting的粒子滤波行人目标跟踪方法 Download PDFInfo
- Publication number
- CN106485283B CN106485283B CN201610911390.7A CN201610911390A CN106485283B CN 106485283 B CN106485283 B CN 106485283B CN 201610911390 A CN201610911390 A CN 201610911390A CN 106485283 B CN106485283 B CN 106485283B
- Authority
- CN
- China
- Prior art keywords
- target
- particle
- pedestrian
- tracking
- moment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
一种基于Online Boosting的粒子滤波跟踪方法,属于目标跟踪或图像处理技术。本发明通过对跟踪环境中具体情形进行分析,对跟踪行人相互遮挡建立遮挡矩阵,构成粒子滤波模型的中的加权因子,以此来对遮挡行人进行有效刻画,同时在改进的粒子滤波模型中,利用了Online Boosting实时更新刻画目标的优点,对跟踪过程中偏离目标进行了有效的抑制,能够有效的避免目标跟踪过程漂移的发生,使得跟踪更加的准确和鲁棒。本发明充分有效利用了行人运动过程的有效信息,在下一时刻行人目标跟踪时,在目标周围区域进行粒子重建,使得模型能很快地收敛,计算速度快,跟踪准确,同时,本方法对噪声具有较强的鲁棒性,算法稳定性较高。
Description
技术领域
本发明属于目标跟踪或图像处理技术,即在图像序列或者视频中,采用检测与跟踪相关方法,对特定目标进行持续跟踪。具体涉及Online Boosting和粒子滤波在跟踪过程中的应用。
背景技术
行人检测与跟踪是通过对图像序列或视频监控中的行人目标进行检测、提取、识别和跟踪,以获得行人的位置、速度、加速度以及运动轨迹等参数,是实现对行人行为分析及获得更深层次行为理解的重要步骤。在视频监控、智能人机交互、机器人视觉导航、智能交通、车辆辅助驾驶系统中、行为分析以及医疗诊断等方面有着广泛的应用,因此有着重要的研究意义和应用价值。但是,由于人体的非刚性和运动的随意性,且经常会有光照、行人姿态变化、复杂背景以及遮挡等影响,使得复杂环境下行人跟踪仍然面临许多问题。
滑动窗口法解决了多姿态的检测问题,然而仍然不能满足跟踪中光线、姿态等的动态变化,为了解决行人运动过程中的姿态、短时间遮挡以及光线等问题,Helmut Grabner等人提出了Online Boosting算法,其主要思想是在线训练分类器,提取行人最新特征,从而能及时更新行人的运动模型。Online Boosting能够很好的适应行人姿态以及光线问题,但对于稍长时间的遮挡问题,由于更新时将遮挡物作为前景进行了更新,将前景当成目标的一部分,虽然具有自适应能力,在遮挡时能检测行人位置,但在目标远离遮挡时,OnlineBoosting不足以很好的跟踪。
粒子滤波能够处理任意非线性、非高斯分布的系统,且速度较快,因而常应用在目标跟踪场景中,能较好地适应场景和目标的变化。但在粒子滤波算法中,粒子多样性匮乏现象是影响粒子跟踪算法的一个重要因素。Arulampalam M S等人采用粒子重抽样策略来简化退化的现象的影响,对粒子权重较大的粒子进行多次选中,会造成样本多样性退化,带来采样枯竭的问题。因此在粒子滤波中并不能简单地采用直接选取最大权值的方法,我们可以对粒子根据跟踪的情况进行重新生成,从而解决此问题。Eberhart R C提出粒子群优化算法(PSO),PSO中每个粒子根据单个最优和全局最优进行更新,能快速地搜到到最优解,具有较好的跟踪能力。然而在粒子模型中,如果不采用目标未遮挡时的信息,会同样面临上面提到的问题:在长时间目标遮挡停留的时候能较好的适应,但是离开遮挡时粒子并不能快速适应,同时,在长时间目标遮挡的时候,粒子描述的能力也会退化。因此,鉴于简单特征的观测模型在复杂环境和背景、噪声干扰等因素影响下所具有的目标识别能力有限,需要对状态空间模型进行改进,增强粒子对目标的跟踪能力。
发明内容
本发明的目的是为了克服现有的粒子滤波跟踪方法的不足之处,以提高行人跟踪的准确性以及鲁棒性,特提供一种基于新构建的遮挡模型和Online Boosting算法的粒子滤波跟踪方法。该方法的主要思路是先对行人遮挡情况进行分析建模,利用OnlineBoosting在线更新跟踪目标的特征,以此来对粒子加权模型进行改进,在改进粒子模型的时候,同时结合检测信息来抑制粒子更新偏离跟踪目标,以此来提高目标跟踪准确度。
本发明详细技术方案是一种基于Online Boosting的粒子滤波行人目标跟踪方法,该方法步骤如下:
步骤1:提取目标先验信息
步骤1-1:采用公共数据集构建目标训练模型;利用现有公共数据集分别提取行人的梯度直方图特征和Luv颜色空间特征,然后进行特征融合,采用SVM(支持向量机)进行训练,得到行人分类器g(x);
步骤1-2:对需要检测的图像,采用滑动窗口方法检测目标;对初始帧采用滑动窗口方法,检测需要跟踪的行人目标,提取目标区域trk,其中k为检测到的第k个行人;
步骤2:建立Online Boosting模型
步骤2-1:构建弱分类器:采用LBP特征或者梯度直方图特征构建弱分类器;具体为:
对于LBP特征,采用近邻学习生成一个距离函数D(·),建立弱分类器:
其中,pj和nj分别表示正、负样本的聚类中心,x目标向量、j表示目标的编号、fj(x)为目标投影函数、sign(·)符号函数,
对于Hog特征,可以找出行人和非行人的特征分布,然后简单地确定θ,利用下式即可:
其中,βj为偏置项,θ为阈值;
步骤2-2:训练强分类器;用上述弱分类器构成多个选择子(Selctors),每个选择子包含多个弱分类器,利用步骤一得到的目标区域进行初始化,在每一个选择子中选择最小错误率的弱分类器,同时计算权重,最后利用下式组合成强分类器
hstrong(x)=sign(conf(x))
其中,conf(x)为最后检测的可信度,以此可信度作为粒子滤波器权值的部分参数,就可以对目标进行检测跟踪;表示选择子,αj表示加权系数;
步骤3:对遮挡行人进行建模,假设目标i被目标j遮挡,如下:
步骤3-1:对两个目标的重叠区域进行积分,公式为:
zij=∫Ni(t)·Nj(t)dt
其中,其中ci第i个目标均值,Ci为方差;上式的积分结果为一个高斯函数:zij=N(ti;tj,Cij),其中Cij=Ci+Cj,关注的遮挡时的重叠区域,采用下式来进行计算
其中:Cij为i和j重叠区域,Vij为协方差,cj为第j个目标均值;
步骤3-2:定义目标的遮挡矩阵为:
Φ=(Φij)i,j
其中Φij=σij·Vij,i≠j,Φii=0;对于Φ中某一行i和任意j列,Φij表示i被j遮挡的部分;目标i的所有遮挡为j行的和,即:∑jΦij;目标i的可见部分为:max(0,1-∑jΦij);采用指数函数来定义目标的可见部分,公式为:
vi(X)=exp(-∑jΦij),
其中:X为待求目标,Xj表示第j个目标;
步骤4:构建粒子加权模型;
第i个粒子t-1时刻的权重为t时刻的粒子权重为粒子权重的变化情况为:
其中,ko,kd,ks,kv为相应项的加权系数,同时有ko+kd+ks+kv=1;
步骤4-1:强分类器检测的结果ρ(i) o,t:对于第t时刻的i个粒子p(i) t,获得最后的相似度,得到ρ(i) o,t:
ρ(i) o,t=corf(p(i) t)
其中conf(p(i) t)为Onling Boosting的置信度计算公式;
步骤4-2:当前粒子距上一次目标跟踪的位置的距离ρ(i) d,t:从目标运动过程来看,如果某个粒子距上一时刻的目标距离较远,那么该粒子描述跟踪目标的能力就较低,反之,如果粒子距上一时刻目标位置较近,则可信度较高。由于目标处于运动状态,上一个时刻的位置不一定是当前目标的位置,因此,为了增加可信度,对上一个时刻目标所处的位置周围某个区域的粒子设置相同的权重,而处于此区域以外的粒子随距离的增加而递减,即:
其中,ε为一个固定数值,由行人目标运动的速度来度量;D(i) t为第i个粒子距离上一时刻目标的位置。
步骤4-3:与上一次跟踪的相似度ρ(i) s,t:由于行人的非刚性,因此上一时刻目标和当前时刻目标已经处于完全不同的状态,但是由于每一帧时间足够短,因此每一帧中行人外观变化不是特别大,因此,对特征变化太大的目标置一个较小的权重,对相似性很高的目标置一个较大的权重,即:
ρ(i) s,t=exp(-(Ft (i)-Ft-1)2)
其中Ft (i)为第i个粒子在t时刻的特征(使用HOG+LUV特征进行描述),Ft-1为t-1时刻行人目标的特征;
行人的可见部分ρ(i) v,t:目标被遮挡的情况下可信度降低,可见部分的值也应该减小,而目标不存在遮挡时,可见部分应该增加;采用如下公式表示:
其中,bbi为目标未遮挡时的大小,V(i)为目标被目标j遮挡时的大小,为目标i与目标j的距离,ζ为距离阈值,根据实际情况确定;
步骤5:预测位置,进行跟踪和更新
由粒子滤波公式得到目标的最终位置,并跟新初始值和权系数;
x(t)=f(x(t-1),u(t),w(t))
y(t)=h(x(t),e(t))
其中,x(t)为t时刻状态,u(t)为t时刻控制量,w(t)和e(t)为观测模型和噪声模型,f(·)为观测方程,h(·)为状态方程,y(t)为最后的状态。
本发明的核心在于粒子滤波模型的重新构建过程,主要采用了Onling Boosting方法来进行最后检测的可信度描述,如果检测的区域可信度较低,那么粒子权重将变小,以此来对粒子更新过程中偏离跟踪目标进行抑制。同时,对遮挡目标进行了分析,描述了目标被遮挡情形下可见区域的面积,以此来改善粒子的置信度。按此方法建立的粒子模型对具体场景中所涉及的问题进行了建模,进行跟踪时具有更好的准确性和鲁棒性,适用于复杂场景中的行人跟踪。
附图说明
图1为本发明的流程图。
图2为Onling Boostin算法框架。
具体实施方式
下面对本发明做进一步的说明。
Onling Boostin分类器的构建方法中,对于每一个选择器,利用分类器里预测样本标签,同时计算错误,即:如果预测样本标签正确,有λcorr=λcorr+λ,否则λwrong=λwrong+λ,最后计算错误率,然后,选择错误率最小的弱分类器作为分类器,并计算分类器的权重。同时更新λ,最后获得强分类器。另外,为了提高速度,也可以将所有选择器进行合并,相当于每个选择器都包括全部特征池(各种特征的弱分类器),这样做的另一个优点是包括了全部的特征。
在构建遮挡模型时,目标i在某个区域中,用bb(Xi)来进行表示。但是,如果采用行人本身的区域面积来描述,会在计算过程中出现不可导的情况,于是我们采用高斯指示函数来进行描述,即:选择高斯函数的另一个原因是现实场景中大多数物体可以用圆或者椭圆来进行近似。另外,两个目标的重叠区域的积分式zij=∫Ni(x)·Nj(x)dx中的积分结果仍然是一个高斯函数:zij=N(ci;cj,Cij),其中Cij=Ci+Cj,这样便于计算。
Claims (1)
1.一种基于Online Boosting的粒子滤波行人目标跟踪方法,该方法步骤如下:
步骤1:提取目标先验信息
步骤1-1:采用公共数据集构建目标训练模型;利用现有公共数据集分别提取行人的Hog(梯度直方图)特征和Luv颜色空间特征,然后进行特征融合,采用SVM(支持向量机)进行训练,得到行人分类器g(x);
步骤1-2:对需要检测的图像,采用滑动窗口方法检测目标;对初始帧采用滑动窗口方法,检测需要跟踪的行人目标,提取目标区域trk,其中k为检测到的第k个行人;
步骤2:建立Online Boosting模型
步骤2-1:构建弱分类器:提取LBP特征或者Hog构建弱分类器;具体为:
对于LBP特征,采用近邻学习生成一个距离函数D(·),建立弱分类器:
其中,pj和nj分别表示正、负样本的聚类中心,x目标向量、j表示目标的编号、fj(x)为目标投影函数、sign(·)符号函数,
对于Hog特征,可以找出行人和非行人的特征分布,然后简单地确定θ,利用下式即可:
其中,βj为偏置项,θ为阈值;
步骤2-2:训练强分类器;用上述弱分类器构成多个选择子(Selctors),每个选择子包含多个弱分类器,利用步骤1得到的目标区域进行初始化,在每一个选择子中选择最小错误率的弱分类器,同时计算权重,最后利用下式组合成强分类器,如图2所示
hstrong(x)=sign(conf(x))
其中,conf(x)为最后检测的可信度,以此可信度作为粒子滤波器权值的部分参数,就可以对目标进行检测跟踪;表示选择子,αj表示加权系数;
步骤3:对遮挡行人进行建模,假设目标i被目标j遮挡,如下:
步骤3-1:对两个目标的重叠区域进行积分,公式为:
zij=∫Ni(t)·Nj(t)dt
其中,其中ci第i个目标均值,Ci为方差;上式的积分结果为一个高斯函数:zij=N(ci;cj,Cij),其中Cij=Ci+Cj,关注的遮挡时的重叠区域,采用下式来进行计算
其中:Cij为i和j重叠区域,Vij为协方差,cj为第j个目标均值;
步骤3-2:定义目标的遮挡矩阵为:
Φ=(Φij)i,j
其中Φij=σij·Vij,i≠j,Φii=0;对于Φ中某一行i和任意j列,Φij表示i被j遮挡的部分;目标i的所有遮挡为j行的和,即:∑jΦij;目标i的可见部分为:max(0,1-∑jΦij);采用指数函数来定义目标的可见部分,公式为:
vi(X)=exp(-∑jΦij),
其中:X为待求目标,Xj第j个目标;
步骤4:构建粒子加权模型;
第i个粒子t-1时刻的权重为t时刻的粒子权重为粒子权重的变化情况为:
其中,ko,kd,ks,kv为相应项的加权系数,同时有ko+kd+ks+kv=1;
步骤4-1:强分类器检测的结果ρ(i) o,t:对于第t时刻的i个粒子p(i) t,获得最后的相似度,得到ρ(i) o,t:
ρ(i) o,t=conf(p(i) t)
其中conf(·)为Onling Boosting的置信度计算公式;
步骤4-2:当前粒子距上一次目标跟踪的位置的距离ρ(i) d,t:从目标运动过程来看,如果某个粒子距上一时刻的目标距离较远,那么该粒子描述跟踪目标的能力就较低,反之,如果粒子距上一时刻目标位置较近,则可信度较高;由于目标处于运动状态,上一个时刻的位置不一定是当前目标的位置,因此,为了增加可信度,对上一个时刻目标所处的位置周围某个区域的粒子设置相同的权重,而处于此区域以外的粒子随距离的增加而递减,即:
其中,ε为一个较小的数值,由行人目标运动的速度来度量;D(i) t为第i个粒子距离上一时刻目标的位置;
步骤4-3:与上一次跟踪的相似度ρ(i) s,t:由于行人的非刚性,因此上一时刻目标和当前时刻目标已经处于完全不同的状态,但是由于每一帧时间足够短,因此每一帧中行人外观变化不是特别大,因此,对特征变化太大的目标置一个较小的权重,对相似性很高的目标置一个较大的权重,即:
ρ(i) s,t=exp(-(Ft (i)-Ft-1)2)
其中Ft (i)为第i个粒子在t时刻使用HOG+LUV特征进行描述的特征,Ft-1为t-1时刻行人目标的特征;
行人的可见部分ρ(i) v,t:目标被遮挡的情况下可信度降低,可见部分的值也应该减小,而目标不存在遮挡时,可见部分应该增加;采用如下公式表示:
其中,bbi为目标未遮挡时的大小,V(i)为目标被目标j遮挡时的大小,为目标i与目标j的距离,ζ为距离阈值,根据实际情况确定;
步骤5:预测位置,进行跟踪和更新
由粒子滤波公式得到目标的最终位置,并跟新初始值和权系数;
x(t)=f(x(t-1),u(t),w(t))
y(t)=h(x(t),e(t))
其中,x(t)为t时刻状态,u(t)为t时刻控制量,w(t)和e(t)为观测模型和噪声模型,f(·)为观测方程,h(·)为状态方程,y(t)为最后的状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610911390.7A CN106485283B (zh) | 2016-10-19 | 2016-10-19 | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610911390.7A CN106485283B (zh) | 2016-10-19 | 2016-10-19 | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106485283A CN106485283A (zh) | 2017-03-08 |
CN106485283B true CN106485283B (zh) | 2019-06-21 |
Family
ID=58270185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610911390.7A Active CN106485283B (zh) | 2016-10-19 | 2016-10-19 | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106485283B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108694356B (zh) * | 2017-04-10 | 2024-05-07 | 京东方科技集团股份有限公司 | 行人检测装置及方法、辅助驾驶系统 |
CN109740533A (zh) * | 2018-12-29 | 2019-05-10 | 北京旷视科技有限公司 | 遮挡比例确定方法、装置和电子系统 |
CN111427381A (zh) * | 2019-12-31 | 2020-07-17 | 天嘉智能装备制造江苏股份有限公司 | 基于操纵人员着装标识的小型扫路车的跟随工作的控制方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101814149B (zh) * | 2010-05-10 | 2012-01-25 | 华中科技大学 | 一种基于在线学习的自适应级联分类器训练方法 |
CN102831409B (zh) * | 2012-08-30 | 2016-09-28 | 苏州大学 | 基于粒子滤波的运动行人视频自动跟踪方法及系统 |
CN103324932B (zh) * | 2013-06-07 | 2017-04-12 | 东软集团股份有限公司 | 基于视频的车辆检测跟踪方法和系统 |
CN103617426B (zh) * | 2013-12-04 | 2017-02-01 | 东北大学 | 一种自然环境干扰和有遮挡时的行人目标检测方法 |
CN104601964B (zh) * | 2015-02-06 | 2018-09-21 | 武汉大学 | 非重叠视域跨摄像机室内行人目标跟踪方法及系统 |
CN106023252A (zh) * | 2016-05-16 | 2016-10-12 | 浙江理工大学 | 一种基于oab算法的多摄像机人体跟踪方法 |
-
2016
- 2016-10-19 CN CN201610911390.7A patent/CN106485283B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106485283A (zh) | 2017-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105405151B (zh) | 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法 | |
CN106169188B (zh) | 一种基于蒙特卡洛树搜索的对象跟踪方法 | |
CN101867699B (zh) | 基于分块的非特定目标实时跟踪方法 | |
CN110135314A (zh) | 一种基于深度轨迹预测的多目标跟踪方法 | |
CN102682302B (zh) | 一种基于关键帧的多特征融合的人体姿态识别方法 | |
CN103020986B (zh) | 一种运动目标跟踪方法 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN106875424A (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
CN104616319B (zh) | 基于支持向量机的多特征选择目标跟踪方法 | |
CN106408594A (zh) | 基于多伯努利特征协方差的视频多目标跟踪方法 | |
CN107679516B (zh) | 基于多尺度高斯-马尔科夫随机场模型的下肢运动识别方法 | |
CN105654139A (zh) | 一种采用时间动态表观模型的实时在线多目标跟踪方法 | |
CN107564035B (zh) | 基于重要区域识别和匹配的视频跟踪方法 | |
CN106485283B (zh) | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 | |
CN106023155A (zh) | 基于水平集的在线目标轮廓跟踪方法 | |
CN105976397B (zh) | 一种目标跟踪方法 | |
CN106599785A (zh) | 人体3d特征身份信息库的建立方法及设备 | |
CN110388926A (zh) | 一种基于手机地磁和场景图像的室内定位方法 | |
CN105930808A (zh) | 一种基于vector boosting模板更新的运动目标跟踪方法 | |
CN107230219A (zh) | 一种单目机器人上的目标人发现与跟随方法 | |
CN110348492A (zh) | 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法 | |
CN104778699A (zh) | 一种自适应对象特征的跟踪方法 | |
CN104463909A (zh) | 基于信度组合地图模型的视觉目标跟踪方法 | |
Batool et al. | Telemonitoring of daily activities based on multi-sensors data fusion | |
CN106056078A (zh) | 一种基于多特征回归式集成学习的人群密度估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |