CN102521612A - 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 - Google Patents

一种基于协同关联粒子滤波的多视频目标主动跟踪方法 Download PDF

Info

Publication number
CN102521612A
CN102521612A CN2011104248695A CN201110424869A CN102521612A CN 102521612 A CN102521612 A CN 102521612A CN 2011104248695 A CN2011104248695 A CN 2011104248695A CN 201110424869 A CN201110424869 A CN 201110424869A CN 102521612 A CN102521612 A CN 102521612A
Authority
CN
China
Prior art keywords
target
sample
observation
particle
sampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011104248695A
Other languages
English (en)
Other versions
CN102521612B (zh
Inventor
丁永生
韩华
郝矿荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN 201110424869 priority Critical patent/CN102521612B/zh
Publication of CN102521612A publication Critical patent/CN102521612A/zh
Application granted granted Critical
Publication of CN102521612B publication Critical patent/CN102521612B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明属智能视频处理技术领域,涉及一种多视频目标主动跟踪方法,特别是涉及一种基于协同关联粒子滤波的多视频目标主动跟踪方法,包括基于视觉注意主动发现新目标、建议分布建立、样本采集、协同关联权值计算、状态输出和重采样,应用视觉注意机制检测目标,以实现对突然进入场景的新目标的主动跟踪,以及建立新的建议分布时所需目标状态信息的检测;采用协同数据关联方法对目标航迹进行关联并计算粒子权值。本发明利用视觉注意机制“主动发现”目标,解决了目标的出现、消失,以及交互目标的合并、分裂以及过遮挡造成的误跟踪及跟踪丢失问题;很好的解决了复杂情况下普通多目标跟踪算法的跟踪失败及误跟踪等问题。

Description

一种基于协同关联粒子滤波的多视频目标主动跟踪方法
技术领域
本发明属智能视频处理技术领域,涉及一种多视频目标主动跟踪方法,特别是涉及一种基于协同关联粒子滤波的多视频目标主动跟踪方法。
背景技术
传统的视频监控系统仅能在危害事件发生后,通过视频画面的回放来获取线索,这并不能从根本上减少危害事件的发生。智能视频监控系统则可以在危害事情发生之前发出预警,防患于未然。智能视频监控系统中,智能分析系统是最关键的组成部分,它目前有两种架构方式,即嵌入式视频分析和纯软件视频分析,无论是哪种架构,智能视频分析软件都必须完成包括目标检测、跟踪、分类及规则定义等所有功能。在智能视频监控软件中检测到目标后都必须对目标进行实时跟踪,以便实现接下来的分类、行为分析及规则定义等功能,由此可见对视频目标进行实时跟踪是非常重要的环节。
多目标跟踪问题的研究在军事及民用领域都具有重要意义,相比单目标跟踪问题,其面临的难题主要是:状态量测和多个目标之间的关联,以及每个运动目标的模型估计问题。经过半个世纪的发展,很多经典的多目标跟踪算法已提出,主要包括:最近邻滤波法、联合概率数据关联法、多假设跟踪滤波法以及基于随机集理论的多目标跟踪方法。但是,这些方法仅利用了在统计意义上与被跟踪目标的预测位置最近的量测作为候选目标测量,通过该候选测量更新航迹,但是这些方法在实际应用中往往会发生误跟踪和跟踪丢失等现象。其中一些则假定场景中目标数目不变,不符合实际情况。还有一些会随着目标数量的增加计算量急剧上升,限制了其在实际中的应用。虽然有算法将随机集理论与贝叶斯理论结合起来,为解决多目标跟踪问题提供了一个较完备的理论体系,但是很难获得解析形式的最优状态解。另外,虽然粒子滤波算法可以得到解析形式的最优状态解集,但是粒子滤波没有数据关联模块,目标的状态最终是由一个集合形式描述,具体哪个状态对应哪个目标是不清楚的,因此,单个目标的运动航迹无法得知。简单的粒子滤波和联合概率数据关联结合可以解决这个问题,但是,由于多目标间的交互运动和杂波干扰,状态估计中很难将目标观测与该目标状态关联,从而导致跟踪性能下降。另外,在常规的粒子滤波饿联合概率数据关联算法中都没有无法加入交互目标直接的遮挡对算法跟踪的影响。
发明内容
本发明的目的是提供一种多视频目标主动跟踪方法,特别是提供一种基于协同关联粒子滤波的多视频目标主动跟踪方法。
为了实现上述目的,本发明采用的技术方案是:
一种基于协同关联粒子滤波的多视频目标主动跟踪方法,包括基于视觉注意主动发现新目标、建议分布建立、样本采集、协同关联权值计算、状态输出和重采样,应用视觉注意机制检测目标,以实现对突然进入场景的新目标的主动跟踪,以及建立新的建议分布时所需目标状态信息的检测;采用协同数据关联方法对目标航迹进行关联并计算粒子权值;具体依次包括以下步骤:
(1)视觉注意主动发现新目标:
k-1时刻(k≥1),对视频图像用视觉注意机制算法计算场景中存在的目标,计算目标的显著图特征qd
建立协同关联矩阵Ok,所述的协同关联矩阵Ok表示两两目标间的遮挡关系,矩阵中的第i行第j列对应的元素记为Oi,j,表示目标i与j的遮挡关系;当两两目标间的欧氏距离小于目标宽度的一半时,Oi,j=1(i≠j),表示目标i遮挡了目标j;其它情况Oi,j=0(i≠j),表示两目标间没有发生遮挡;只要i=j,那么Oi,j=0;Oi,j与Oj,i不能同时为1,如果目标i的宽度大于j,则Oi,j=1,反之,Oj,i=1;
如果发现新目标,则
①建立如下采样建议分布
qnew(Xk|Xk-1,Z1:k)=αqd(Xk|Xk-1,Z1:k)+(1-α)p(Xk|Xk-1);
其中,
qnew(Xk|Xk-1,Z1:k)为新目标的建议分布;
qd(Xk|Xk-1,Z1:k)为新目标的视觉显著图特征,X为待估计的当前帧的目标状态,由目标的中心点坐标及对应矩形的长短半轴的长度组成;
Z为观测量;α是比例系数,α∈(0,1),可动态调整;
②初始化粒子集:在所述的视频图像中,根据先验概率P0采集N个粒子样本组成k-1时刻的新目标的初始样本集该初始样本集即为初始化的粒子集,其中
Figure BDA0000121192510000022
表示第i个初始样本,将
Figure BDA0000121192510000023
定义为每个初始样本的权值,N=100~10000;
③更新协同关联矩阵Ok
(2)各目标协同采样:为得到样本集
Figure BDA0000121192510000031
首先根据所述的采样建议分布和Ok采集样本Xk;其中
Figure BDA0000121192510000032
是采样得到的第i个样本,
Figure BDA0000121192510000033
表示第i个样本的权值,
Figure BDA0000121192510000034
Figure BDA0000121192510000035
表示第m个目标采样得到的第i个样本;smk是协同因子,表示k时刻目标m被遮挡的深度信息,smk取值取决于Ok;若k时刻Oi,j=1,则si,k=1,表示目标i遮挡,sj,k=2表示目标j被遮挡,采样时只采目标i的样本,目标j放弃采样过程;如果Oi,j=0,则smk=0,表示目标没有遮挡或被遮挡,目标i和j都需要采样;
(3)计算协同概率数据关联概率和权值,更新粒子集:
I.利用(2)中采样得到的样本,
①根据联合概率数据关联算法(JPDA)计算协同数据关联概率概率为 β m , t = Σ θ ∈ Θ m , t Cγ M k - θ = Π ( m , t ) ∈ θ p m , t , 其中 p m , t = 1 ( 2 π ) Q / 2 | S m , t | 1 / 2 exp ( - d m , t 2 2 ) ; θ是关联事件集合,每个联合关联事件θ唯一确定目标观测与目标状态的关联;令Θm,t表示为观测m关联到目标t的所有有效联合关联事件集合,
Figure BDA0000121192510000038
为联合关联事件集合的势,Mk表示观测数,为虚警观测;γ为虚警观测概率,
Figure BDA00001211925100000310
为Zk中所有虚警观测概率,C为归一化常数,Q为观测变量的维数;
Figure BDA00001211925100000311
为归一化的观测更新度量,|·|为行列式表示,Sm,t为观测集协方差;
②粒子权值计算:对于目标t,根据联合数据关联概率βm,t,对粒子集中的N个样本
Figure BDA00001211925100000312
计算权值
Figure BDA00001211925100000313
的权值可表示为
Figure BDA00001211925100000315
其中,p(Zk,t|Xk,t)是视频目标的观测概率;
II.更新粒子集
Figure BDA00001211925100000316
(4)状态输出;
k时刻,对于目标t=1,…,T,视频多目标的状态等于用样本求取的估计值,该估计值用最小均方误差估计(MMSE估计)方法来计算,即估计值
Figure BDA00001211925100000317
等于
Figure BDA00001211925100000318
(5)重采样:根据(3)中的
Figure BDA00001211925100000319
采用累计分布重采样算法采样得到
Figure BDA00001211925100000320
令粒子权值为重新组成粒子集
Figure BDA0000121192510000042
(6)循环:令k=k+1,重复(1)~(5);直到本视频序列结束。
所述的一种基于协同关联粒子滤波的多视频目标主动跟踪方法,在所述的步骤(1)①中比例系数α取值与视觉注意检测信息中运动显著图特征在总的显著图特征中的比重ξ相等,即α=ξ,ξ=qm/qd,其中qm为运动显著图,qd为总的显著图特征。
所述的一种基于协同关联粒子滤波的多视频目标主动跟踪方法,在所述的步骤(3)I.
②中视频目标的观测概率p(Zk,t|Xk,t)采用基于核的HSV颜色和空间特征来建立。
有益效果
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:本发明基于协同关联粒子滤波的多视频目标主动跟踪方法,利用视觉注意机制“主动发现”目标,解决了目标的出现、消失,以及交互目标的合并、分裂以及过遮挡造成的误跟踪及跟踪丢失问题;很好的解决了复杂情况下普通多目标跟踪算法的跟踪失败及误跟踪等问题。如果有新目标出现,视觉注意机制可以很快的发现并主动跟踪;并合理利用目标的状态信息建立多目标建议分布,比单一利用目标状态转移概率建立建议分布更符合目标真实情况的。协同数据关联概率能在目标数不确定的情况下很好实现多目标的关联,并有效计算多目标粒子权值。在目标数不确定的多目标跟踪情况下,传统的算法很难做到多目标的有效关联,协同算法的加入,可以综合利用多个目标的关联信息进行多目标关联,相比普通的联合概率数据关联算法,其有效性和准确性得到很大的提高。另外,协同关联矩阵的加入可以在算法运行时充分考虑目标相互遮挡造成的影响,提高了跟踪的准确率。
具体实施方式
下面结合具体实施方式,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明的实施方式涉及一种基于协同关联粒子滤波的多视频目标主动跟踪方法,包括基于视觉注意主动发现新目标、建议分布建立、样本采集、协同关联权值计算、状态输出和重采样等步骤实现智能视频的多目标跟踪。本发明采用视觉注意机制“主动发现”目标,可有效解决新目标出现,目标消失,遮挡等交互式干扰的影响,并可利用目标的状态信息建立建议分布,比利用单一的状态转移概率建立建议分布更符合目标的真实情况。协同关联数据概率的应用,比简单的概率数据关联能更好的处理复杂多目标交互情况下的多目标关联及粒子权值计算问题。
具体步骤如下:
(1)视觉注意主动发现新目标:
k-1时刻(k≥1),对视频图像用视觉注意机制算法计算场景中存在的目标,计算目标的显著图特征qd。所谓显著性特征即为将多个底层特征融合形成的一个总的显著性测度,通过该显著性测度形成一幅反映显著性特征差异的视觉显著图,并通过返回抑制和注意焦点转移获得一系列显著位置。常规的提取场景图像的显著性特征、形成视觉显著图的方法是:首先建立图像的多特征尺度表示,然后针对每个特征通道,提取局部对比度特征,最后将不同类型的特征融合成总的显著性特征、并形成视觉显著图。
建立协同关联矩阵Ok,所述的协同关联矩阵Ok表示两两目标间的遮挡关系,矩阵中的第i行第j列对应的元素记为Oi,j,表示目标i与j的遮挡关系;当两两目标间的欧氏距离小于目标宽度的一半时,Oi,j=1(i≠j),表示目标i遮挡了目标j;其它情况Oi,j=0(i≠j),表示两目标间没有发生遮挡;只要i=j,那么Oi,j=0;Oi,j与Oj,i不能同时为1,如果目标i的宽度大于j,则Oi,j=1,反之,Oj,i=1;
如果发现新目标,则
①建立如下采样建议分布
qnew(Xk|Xk-1,Z1:k)=αqd(Xk|Xk-1,Z1:k)+(1-α)p(Xk|Xk-1);
其中,
qnew(Xk|Xk-1,Z1:k)为新目标的建议分布;
qd(Xk|Xk-1,Z1:k)为新目标的视觉显著图特征,X为待估计的当前帧的目标状态,由目标的中心点坐标及对应矩形的长短半轴的长度组成;
Z为观测量;α是比例系数,α∈(0,1),可动态调整;
②初始化粒子集:在所述的视频图像中,根据先验概率p0采集N个粒子样本组成k-1时刻的新目标的初始样本集
Figure BDA0000121192510000061
该初始样本集即为初始化的粒子集,其中
Figure BDA0000121192510000062
表示第i个初始样本,将
Figure BDA0000121192510000063
定义为每个初始样本的权值,N=100~10000;
③更新协同关联矩阵Ok
(2)各目标协同采样:为得到样本集首先根据所述的采样建议分布和Ok采集样本Xk;其中是采样得到的第i个样本,
Figure BDA0000121192510000066
表示第i个样本的权值,
Figure BDA0000121192510000067
Figure BDA0000121192510000068
表示第m个目标采样得到的第i个样本;smk是协同因子,表示k时刻目标m被遮挡的深度信息,smk取值取决于Ok;若k时刻Oi,j=1,则si,k=1,表示目标i遮挡,sj,k=2表示目标j被遮挡,采样时只采目标i的样本,目标j放弃采样过程;如果Oi,j=0,则smk=0,表示目标没有遮挡或被遮挡,目标i和j都需要采样。
为说明在连续视频序列中的采样,需首先说明一下状态转移。状态转移描述了视频目标的动态过程,因此,状态转移模型能刻画视频目标在连续两帧之间的运动特性。一般地,目标的状态转移模型都能概率化为有限阶的状态转移概率p(Xk|Xj:k-1),其中,0<j<k-1。如果将状态转移模型选用随机漂移模型,那么视频目标在第k-1帧图像的位置加上高斯扰动即为其在第k帧的图像上的新位置。假设视频目标的状态向量X表示其在二维图像上的位置,即X=[x,y]T,那么k时刻视频目标的状态Xk为:
Xk=Xk-1+Uk
其中,Uk为二维零均值高斯噪声,故Uk=[ux,k,uy,k]T。一般都假设随机成分比较大(即噪声的方差比较大),使得该模型能够更好地跟踪视频目标。时刻根据随机漂移模型和上一刻的粒子
Figure BDA0000121192510000069
采样得到下一刻的粒子
Figure BDA00001211925100000610
(3)计算协同概率数据关联概率和权值,更新粒子集:样本的权值决定了该样本对目标状态的近似能力,因此样本的权值计算是非常重要的,为详细说明粒子权值的计算过程,一下分两部分进行说明。
I.利用(2)中采样得到的样本,
①计算协同数据关联概率:设k时刻场景中T个跟踪目标状态为Xk={Xk,1,…,Xk,T},目标观测为
Figure BDA0000121192510000071
在联合概率数据关联滤波框架下,联合关联事件θ是数据关联对(m,t)∈{1,…,Mk}×{1,…,T}构成的关联事件集合,每个联合关联事件θ唯一确定目标观测与目标状态的关联。令Θm,t表示为观测m关联到目标t的所有有效联合关联事件集合,则其数据关联后验概率可表示为:
β m , t = Σ θ ∈ Θ m , t p ( θ | Z 1 : k )
假设数据关联过程是马尔科夫过程,对于单个联合关联事件θ,根据贝叶斯公式关联概率p(θ|Z1:k)可表示为:p(θ|Z1:k)=p(θ|Z1:k,X1:k)=p(θ|Zk,X1:k)=Cp(Zk|θ,X1:k)p(θ|X1:k)
其中C为归一化常数,p(θ|X1:k)表示在给定目标状态下联合关联事件θ的概率(在此假设事件是等概率的,即p(θ|X1:k)可近似为常数),p(Zk|θ,X1:k)表示给定目标状态和特定的联合关联事件下的目标观测概率。
一般,观测向量
Figure BDA0000121192510000073
中存在由杂波引起的虚警。如果联合关联事件集合的势为
Figure BDA0000121192510000074
则虚警观测可表示为
Figure BDA0000121192510000075
令虚警观测概率为γ,则在Zk中所有虚警观测概率为
Figure BDA0000121192510000076
则目标观测概率可表示为:
p ( Z k | θ , X 1 : k ) = γ ( M k - θ = ) Π ( m , t ) ∈ θ p m , t
粒子集
Figure BDA0000121192510000078
上,观测集的均值
Figure BDA0000121192510000079
和协方差
Figure BDA00001211925100000710
可定义为:
μ Z ^ k , t = 1 N Σ i = 1 N H ( X k , t ( i ) )
S Z ^ k , t = 1 N Σ i = 1 N [ H ( X k , t ( i ) ) - μ Z ^ k , t ] [ H ( X k , t ( i ) ) - μ Z ^ k , t ] T
根据Gating技术,由以上统计信息可将视觉目标t的有效观测区域定义为:
Ω k , t ( ϵ ) = { Z k , m : d k , t 2 ( Z k , m ) ≤ ϵ }
其中
Figure BDA00001211925100000714
为归一化的观测更新度量,可表示为
d m , t 2 ( Z k , m ) = ( Z k , m - μ Z 6 k , t ) T S Z ^ k , t - 1 ( Z k , m - μ Z ^ k , t )
因此由Gating技术,数据联想概率可表示为:
β m , t = Σ θ ∈ Θ m , t Cγ M k - θ = Π ( m , t ) ∈ θ p m , t
p m , t = 1 ( 2 π ) Q / 2 | S m , t | 1 / 2 exp ( - d m , t 2 2 )
其中,Q为观测变量的维数;|·|为行列式表示。
②粒子权值计算。假设场景中各目标状态独立,那么可对T个目标进行独立协同采样,此处采用基于共生机制的协同算法。把多目标跟踪问题,分解成单独的子目标跟踪,因此,单个目标的状态估计相当于多目标跟踪的部分解,不同目标的状态估计构成的一个共生体对应多目标的状态估计跟踪。并通过协同联合概率数据关联将观测与目标的采样粒子关联。对于目标t,其采样粒子集为
Figure BDA0000121192510000082
根据联合数据关联概率,采样粒子
Figure BDA0000121192510000083
的权值可表示为:
ω k , t ( i ) = Σ m = 1 M k β m , t p ( Z k , m | X k , t ( i ) )
对于上式,视频目标观测概率p(Zk,t|Xk,t)还需再做定义,通常目标的观测概率定义为某种视觉特征的概率分布,在此采用视觉注意机制多所划定的区域颜色和空间特征的概率分布,因此p(Zk,t|Xk,t)的计算取决于所划定视觉目标的统计描述,在此采用基于核的HSV颜色和空间特征描述,并以此为基础建立视觉目标的观测概率分布。
假设将视频目标的颜色分布离散化为B级,颜色量化函数为b(lm):R2→{1,…,B},表示把位置lm处的像素颜色值量化并将其分配到颜色分布相应的颜色级。因此,对于视频目标状态X,其颜色分布定义为:
p l ( u ) = C Σ m = 1 M k ( | | l - l m h | | ) δ ( b ( l m ) - u )
其中,l表示视频目标的中心(x,y),由目标X确定;M表示目标区域的总像素数,
Figure BDA0000121192510000086
表示目标区域的大小;k(·)表示核函数(一般选高斯核函数);δ(·)为Kronecker Deita函数;C为归一化常数,且
C = 1 Σ m = 1 M k ( | | l - l m h | | )
对于视频目标观测概率分布的计算,在视频跟踪的初始帧选定参考目标Xc,利用上述方法建立参考目标的颜色分布{q(u)}u=1,...,B。在第k帧,设视频目标状态Xk的第i个采样
Figure BDA0000121192510000088
所对应的图像区域颜色分布为{p(u)}u=1,...,B,样本
Figure BDA0000121192510000091
表示视频目标在第k帧的一假定状态。于是,样本
Figure BDA0000121192510000092
与参考目标Xc的相似性度量可利用其颜色分布的相似性度量建立,在此用Bhattacharyya系数来建立,且Bhattacharyya系数定义为:
ρ [ p ( u ) , q ( u ) ] = Σ u = 1 B p ( u ) q ( u )
则样本
Figure BDA0000121192510000094
与参考目标Xc的相似性度量可定义为:
D 1 ( p , q ) = 1 - ρ [ p ( u ) , q ( u ) ]
D(p,q)为Bhattacharyya距离。对于空间位置分布的定义与对颜色的定义相似,其相似性度量表示为D2(p,q)。
最后,通过混合高斯建模,视频目标的观测概率分布定义为:
p ( Z k , t ( i ) | X k , t ( i ) ) = 1 2 π e - λ ( D 1 2 - D 2 2 ) / 2
其中,λ为控制参数。据此可以计算得到粒子集
Figure BDA0000121192510000097
的权值并进行归一化,则有 w k , t ( i ) = w k , t ( i ) / Σ i = 1 N w k , t ( i ) .
因此对于目标t,其加权采样粒子集为
Figure BDA00001211925100000910
通过上述一系列计算可实现该多目标的状态估计。
(4)状态输出;k时刻,对于目标t=1,…,T,视频多目标的状态等于用样本求取的估计值,该估计值用最小均方误差估计(MMSE估计)方法来计算,即估计值
Figure BDA00001211925100000911
等于 E ( X k , t ) = Σ i = 1 N ω k , t ( i ) X k , t ( i ) .
(5)重采样:根据(3)中的采用累计分布重采样算法采样得到
Figure BDA00001211925100000914
令粒子权值为
Figure BDA00001211925100000915
重新组成粒子集
Figure BDA00001211925100000916
具体过程如下:
①计算粒子集
Figure BDA00001211925100000917
的累积权值
Figure BDA00001211925100000918
②产生[0,1]上均匀分布的随机数u;
③在粒子集中搜索使得
Figure BDA0000121192510000101
的最小j,并令
Figure BDA0000121192510000102
④使得粒子集
Figure BDA0000121192510000103
即形成新的粒子集
Figure BDA0000121192510000104
(6)循环:令k=k+1,重复(1)~(5);直到本视频序列结束。

Claims (3)

1.一种基于协同关联粒子滤波的多视频目标主动跟踪方法,其特征是包括以下步骤:
(1)视觉注意主动发现新目标:
k-1时刻(k≥1),对视频图像用视觉注意机制算法计算场景中存在的目标,计算目标的显著图特征qd
建立协同关联矩阵Ok,所述的协同关联矩阵Ok表示两两目标间的遮挡关系,矩阵中的第i行第j列对应的元素记为Oi,j,表示目标i与j的遮挡关系;当两两目标间的欧氏距离小于目标宽度的一半时,Oi,j=1(i≠j),表示目标i遮挡了目标j;其它情况Oi,j=0(i≠j),表示两目标间没有发生遮挡;只要i=j,那么Oi,j=0;Oi,j与Oj,i不能同时为1,如果目标i的宽度大于j,则Oi,j=1,反之,Oj,i=1;
如果发现新目标,则
①建立如下采样建议分布
qnew(Xk|Xk-1,Z1:k)=αqd(Xk|Xk-1,Z1:k)+(1-α)p(Xk|Xk-1);
其中,
qnew(Xk|Xk-1,Z1:k)为新目标的建议分布;
qd(Xk|Xk-1,Z1:k)为新目标的视觉显著图特征,X为待估计的当前帧的目标状态,由目标的中心点坐标及对应矩形的长短半轴的长度组成;
Z为观测量;α是比例系数,α∈(0,1);
②初始化粒子集:在所述的视频图像中,根据先验概率p0采集N个粒子样本组成k-1时刻的新目标的初始样本集
Figure FDA0000121192500000011
该初始样本集即为初始化的粒子集,其中表示第i个初始样本,将
Figure FDA0000121192500000013
定义为每个初始样本的权值,N=100~10000;
③更新协同关联矩阵Ok
(2)各目标协同采样:为得到样本集
Figure FDA0000121192500000014
首先根据所述的采样建议分布和Ok采集样本Xk;其中
Figure FDA0000121192500000015
是采样得到的第i个样本,
Figure FDA0000121192500000016
表示第i个样本的权值,
Figure FDA0000121192500000017
Figure FDA0000121192500000018
表示第m个目标采样得到的第i个样本;smk是协同因子,表示k时刻目标m被遮挡的深度信息,smk取值取决于Ok;若k时刻Oi,j=1,则si,k=1,表示目标i遮挡,sj,k=2表示目标j被遮挡,采样时只采目标i的样本,目标j放弃采样过程;如果Oi,j=0,则smk=0,表示目标没有遮挡或被遮挡,目标i和j都需要采样;
(3)计算协同概率数据关联概率和权值,更新粒子集:
I.利用(2)中采样得到的样本,
①根据联合概率数据关联算法(JPDA)计算协同数据关联概率概率为 β m , t = Σ θ ∈ Θ m , t Cγ M k - θ = Π ( m , t ) ∈ θ p m , t , 其中 p m , t = 1 ( 2 π ) Q / 2 | S m , t | 1 / 2 exp ( - d m , t 2 2 ) ; θ是关联事件集合,每个联合关联事件θ唯一确定目标观测与目标状态的关联;令Θm,t表示为观测m关联到目标t的所有有效联合关联事件集合,
Figure FDA0000121192500000023
为联合关联事件集合的势,Mk表示观测数,
Figure FDA0000121192500000024
为虚警观测;γ为虚警观测概率,
Figure FDA0000121192500000025
为Zk中所有虚警观测概率,C为归一化常数,Q为观测变量的维数;
Figure FDA0000121192500000026
为归一化的观测更新度量,|·|为行列式表示,Sm,t为观测集协方差;
②粒子权值计算:对于目标t,根据联合数据关联概率βm,t,对粒子集中的N个样本计算权值
Figure FDA0000121192500000028
Figure FDA0000121192500000029
的权值可表示为
Figure FDA00001211925000000210
其中,p(Zk,t|Xk,t)是视频目标的观测概率;
II.更新粒子集
Figure FDA00001211925000000211
(4)状态输出;
k时刻,对于目标t=1,…,T,所述的多视频目标的状态等于用样本求取的估计值,该估计值用最小均方误差估计(MMSE估计)方法来计算,即估计值
Figure FDA00001211925000000212
等于 E ( X k , t ) = Σ i = 1 N ω k , t ( i ) X k , t ( i ) ;
(5)重采样:根据(3)中的采用累计分布重采样算法采样得到
Figure FDA00001211925000000215
令粒子权值为
Figure FDA00001211925000000216
重新组成粒子集
(6)循环:令k=k+1,重复(1)~(5);直到本视频序列结束。
2.根据权利要求1所述的一种基于协同关联粒子滤波的多视频目标主动跟踪方法,所述的比例系数α取值与视觉注意检测信息中运动显著图特征在总的显著图特征中的比重ξ相等,即α=ξ,ξ=qm/qd,其中qm为运动显著图,qd为总的显著图特征。
3.根据权利要求1所述的一种基于协同关联粒子滤波的多视频目标主动跟踪方法,所述的视频目标的观测概率p(Zk,t|Xk,t)采用基于核的HSV颜色和空间特征来建立。
CN 201110424869 2011-12-16 2011-12-16 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 Expired - Fee Related CN102521612B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110424869 CN102521612B (zh) 2011-12-16 2011-12-16 一种基于协同关联粒子滤波的多视频目标主动跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110424869 CN102521612B (zh) 2011-12-16 2011-12-16 一种基于协同关联粒子滤波的多视频目标主动跟踪方法

Publications (2)

Publication Number Publication Date
CN102521612A true CN102521612A (zh) 2012-06-27
CN102521612B CN102521612B (zh) 2013-03-27

Family

ID=46292523

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110424869 Expired - Fee Related CN102521612B (zh) 2011-12-16 2011-12-16 一种基于协同关联粒子滤波的多视频目标主动跟踪方法

Country Status (1)

Country Link
CN (1) CN102521612B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831620A (zh) * 2012-08-03 2012-12-19 南京理工大学 基于多假设跟踪数据关联的红外弱小目标搜索跟踪方法
CN104794737A (zh) * 2015-04-10 2015-07-22 电子科技大学 一种深度信息辅助粒子滤波跟踪方法
CN105898691A (zh) * 2016-03-14 2016-08-24 河海大学常州校区 基于粒子化和积算法的无线传感器网络目标跟踪方法
CN106127119A (zh) * 2016-06-16 2016-11-16 山东大学 基于彩色图像和深度图像多特征的联合数据关联方法
CN106443622A (zh) * 2016-09-13 2017-02-22 哈尔滨工程大学 一种基于改进联合概率数据关联的分布式目标跟踪方法
CN107038714A (zh) * 2017-04-17 2017-08-11 西安理工大学 多型视觉传感协同目标跟踪方法
CN108182447A (zh) * 2017-12-14 2018-06-19 南京航空航天大学 一种基于深度学习的自适应粒子滤波目标跟踪方法
CN110334639A (zh) * 2019-06-28 2019-10-15 北京精英系统科技有限公司 一种过滤图像分析检测算法的错误检测结果的装置和方法
CN111862157A (zh) * 2020-07-20 2020-10-30 重庆大学 一种机器视觉与毫米波雷达融合的多车辆目标跟踪方法
CN112748735A (zh) * 2020-12-18 2021-05-04 重庆邮电大学 一种引入颜色特征的扩展目标跟踪方法
CN112970031A (zh) * 2018-09-11 2021-06-15 瑞典爱立信有限公司 用于关联视频中的目标的方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101098461A (zh) * 2007-07-05 2008-01-02 复旦大学 一种视频目标跟踪中的全遮挡处理方法
CN101404086A (zh) * 2008-04-30 2009-04-08 浙江大学 基于视频的目标跟踪方法及装置
CN101493943A (zh) * 2008-01-25 2009-07-29 中国科学院计算技术研究所 一种粒子滤波跟踪方法和跟踪装置
JP2009188977A (ja) * 2008-01-07 2009-08-20 Victor Co Of Japan Ltd 目標追尾装置
CN101840579A (zh) * 2010-01-28 2010-09-22 浙江大学 一种利用视频分割与粒子滤波实现多目标跟踪方法
CN101872482A (zh) * 2010-06-08 2010-10-27 东华大学 一种基于免疫遗传粒子滤波的智能视频跟踪方法
EP2259221A1 (en) * 2009-06-03 2010-12-08 ETH Zurich Computer system and method for tracking objects in video data
WO2011102072A1 (ja) * 2010-02-19 2011-08-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101098461A (zh) * 2007-07-05 2008-01-02 复旦大学 一种视频目标跟踪中的全遮挡处理方法
JP2009188977A (ja) * 2008-01-07 2009-08-20 Victor Co Of Japan Ltd 目標追尾装置
CN101493943A (zh) * 2008-01-25 2009-07-29 中国科学院计算技术研究所 一种粒子滤波跟踪方法和跟踪装置
CN101404086A (zh) * 2008-04-30 2009-04-08 浙江大学 基于视频的目标跟踪方法及装置
EP2259221A1 (en) * 2009-06-03 2010-12-08 ETH Zurich Computer system and method for tracking objects in video data
CN101840579A (zh) * 2010-01-28 2010-09-22 浙江大学 一种利用视频分割与粒子滤波实现多目标跟踪方法
WO2011102072A1 (ja) * 2010-02-19 2011-08-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
CN101872482A (zh) * 2010-06-08 2010-10-27 东华大学 一种基于免疫遗传粒子滤波的智能视频跟踪方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831620B (zh) * 2012-08-03 2015-09-30 南京理工大学 基于多假设跟踪数据关联的红外弱小目标搜索跟踪方法
CN102831620A (zh) * 2012-08-03 2012-12-19 南京理工大学 基于多假设跟踪数据关联的红外弱小目标搜索跟踪方法
CN104794737A (zh) * 2015-04-10 2015-07-22 电子科技大学 一种深度信息辅助粒子滤波跟踪方法
CN104794737B (zh) * 2015-04-10 2017-12-15 电子科技大学 一种深度信息辅助粒子滤波跟踪方法
CN105898691A (zh) * 2016-03-14 2016-08-24 河海大学常州校区 基于粒子化和积算法的无线传感器网络目标跟踪方法
CN105898691B (zh) * 2016-03-14 2019-06-04 河海大学常州校区 基于粒子化和积算法的无线传感器网络目标跟踪方法
CN106127119B (zh) * 2016-06-16 2019-03-08 山东大学 基于彩色图像和深度图像多特征的联合数据关联方法
CN106127119A (zh) * 2016-06-16 2016-11-16 山东大学 基于彩色图像和深度图像多特征的联合数据关联方法
CN106443622A (zh) * 2016-09-13 2017-02-22 哈尔滨工程大学 一种基于改进联合概率数据关联的分布式目标跟踪方法
CN106443622B (zh) * 2016-09-13 2018-12-07 哈尔滨工程大学 一种基于改进联合概率数据关联的分布式目标跟踪方法
CN107038714A (zh) * 2017-04-17 2017-08-11 西安理工大学 多型视觉传感协同目标跟踪方法
CN107038714B (zh) * 2017-04-17 2020-01-14 西安理工大学 多型视觉传感协同目标跟踪方法
CN108182447A (zh) * 2017-12-14 2018-06-19 南京航空航天大学 一种基于深度学习的自适应粒子滤波目标跟踪方法
CN108182447B (zh) * 2017-12-14 2020-04-21 南京航空航天大学 一种基于深度学习的自适应粒子滤波目标跟踪方法
CN112970031A (zh) * 2018-09-11 2021-06-15 瑞典爱立信有限公司 用于关联视频中的目标的方法
CN110334639A (zh) * 2019-06-28 2019-10-15 北京精英系统科技有限公司 一种过滤图像分析检测算法的错误检测结果的装置和方法
CN110334639B (zh) * 2019-06-28 2021-08-10 北京精英系统科技有限公司 一种过滤图像分析检测算法的错误检测结果的装置和方法
CN111862157A (zh) * 2020-07-20 2020-10-30 重庆大学 一种机器视觉与毫米波雷达融合的多车辆目标跟踪方法
CN111862157B (zh) * 2020-07-20 2023-10-10 重庆大学 一种机器视觉与毫米波雷达融合的多车辆目标跟踪方法
CN112748735A (zh) * 2020-12-18 2021-05-04 重庆邮电大学 一种引入颜色特征的扩展目标跟踪方法
CN112748735B (zh) * 2020-12-18 2022-12-27 重庆邮电大学 一种引入颜色特征的扩展目标跟踪方法

Also Published As

Publication number Publication date
CN102521612B (zh) 2013-03-27

Similar Documents

Publication Publication Date Title
CN102521612B (zh) 一种基于协同关联粒子滤波的多视频目标主动跟踪方法
Boult et al. Into the woods: Visual surveillance of noncooperative and camouflaged targets in complex outdoor settings
CN102881024B (zh) 一种基于tld的视频目标跟踪方法
CN101493520B (zh) 一种基于二维Gamma分布的SAR图像变化检测方法
Bloisi et al. Argos—A video surveillance system for boat traffic monitoring in Venice
CN101141633A (zh) 一种复杂场景中的运动目标检测与跟踪方法
CN102243765A (zh) 基于多相机的多目标定位跟踪方法及系统
CN104050685A (zh) 基于粒子滤波视觉注意力模型的运动目标检测方法
CN101127122A (zh) 一种内容自适应渐进式遮挡分析目标跟踪算法
CN108074224B (zh) 一种陆生哺乳动物与鸟类的监测方法及其监测装置
CN102456226A (zh) 兴趣区域的追踪系统、方法及计算机程序产品
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
CN111160365A (zh) 基于检测器和跟踪器相结合的无人机目标跟踪方法
CN104133983A (zh) 基于加权负一阶rd和的多目标伯努利分布式融合方法
Zhao et al. Accurate and efficient vehicle detection framework based on SSD algorithm
Xu et al. Dynamic obstacle detection based on panoramic vision in the moving state of agricultural machineries
Li et al. Object tracking in satellite videos: Correlation particle filter tracking method with motion estimation by Kalman filter
CN102982556A (zh) 基于流形上粒子滤波算法的视频目标跟踪方法
Maaspuro A low-resolution IR-array as a doorway occupancy counter in a smart building
CN102005052A (zh) 基于核密度估计的遮挡人体跟踪方法
CN104199006A (zh) 一种基于多假设联合分布滤波器的随机集跟踪方法
Verma et al. Modular multi target tracking using LSTM networks
CN102663770A (zh) 基于三重粒子的粒子滤波视觉目标跟踪方法
Mura et al. Reconstructing Complex Indoor Environments with Arbitrary Wall Orientations.
Mei et al. Measuring crowd collectiveness via global motion correlation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130327

Termination date: 20151216

EXPY Termination of patent right or utility model