CN102521612B - 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 - Google Patents
一种基于协同关联粒子滤波的多视频目标主动跟踪方法 Download PDFInfo
- Publication number
- CN102521612B CN102521612B CN 201110424869 CN201110424869A CN102521612B CN 102521612 B CN102521612 B CN 102521612B CN 201110424869 CN201110424869 CN 201110424869 CN 201110424869 A CN201110424869 A CN 201110424869A CN 102521612 B CN102521612 B CN 102521612B
- Authority
- CN
- China
- Prior art keywords
- target
- probability
- video
- sample
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 239000002245 particle Substances 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000001914 filtration Methods 0.000 title claims abstract description 15
- 238000005070 sampling Methods 0.000 claims abstract description 28
- 230000000007 visual effect Effects 0.000 claims abstract description 28
- 230000007246 mechanism Effects 0.000 claims abstract description 11
- 238000012952 Resampling Methods 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 230000005484 gravity Effects 0.000 claims description 2
- 230000002452 interceptive effect Effects 0.000 abstract description 4
- 230000008034 disappearance Effects 0.000 abstract description 3
- 238000012545 processing Methods 0.000 abstract description 2
- 238000000926 separation method Methods 0.000 abstract 1
- 238000004364 calculation method Methods 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000011524 similarity measure Methods 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明属智能视频处理技术领域,涉及一种多视频目标主动跟踪方法,特别是涉及一种基于协同关联粒子滤波的多视频目标主动跟踪方法,包括基于视觉注意主动发现新目标、建议分布建立、样本采集、协同关联权值计算、状态输出和重采样,应用视觉注意机制检测目标,以实现对突然进入场景的新目标的主动跟踪,以及建立新的建议分布时所需目标状态信息的检测;采用协同数据关联方法对目标航迹进行关联并计算粒子权值。本发明利用视觉注意机制“主动发现”目标,解决了目标的出现、消失,以及交互目标的合并、分裂以及过遮挡造成的误跟踪及跟踪丢失问题;很好的解决了复杂情况下普通多目标跟踪算法的跟踪失败及误跟踪等问题。
Description
技术领域
本发明属智能视频处理技术领域,涉及一种多视频目标主动跟踪方法,特别是涉及一种基于协同关联粒子滤波的多视频目标主动跟踪方法。
背景技术
传统的视频监控系统仅能在危害事件发生后,通过视频画面的回放来获取线索,这并不能从根本上减少危害事件的发生。智能视频监控系统则可以在危害事情发生之前发出预警,防患于未然。智能视频监控系统中,智能分析系统是最关键的组成部分,它目前有两种架构方式,即嵌入式视频分析和纯软件视频分析,无论是哪种架构,智能视频分析软件都必须完成包括目标检测、跟踪、分类及规则定义等所有功能。在智能视频监控软件中检测到目标后都必须对目标进行实时跟踪,以便实现接下来的分类、行为分析及规则定义等功能,由此可见对视频目标进行实时跟踪是非常重要的环节。
多目标跟踪问题的研究在军事及民用领域都具有重要意义,相比单目标跟踪问题,其面临的难题主要是:状态量测和多个目标之间的关联,以及每个运动目标的模型估计问题。经过半个世纪的发展,很多经典的多目标跟踪算法已提出,主要包括:最近邻滤波法、联合概率数据关联法、多假设跟踪滤波法以及基于随机集理论的多目标跟踪方法。但是,这些方法仅利用了在统计意义上与被跟踪目标的预测位置最近的量测作为候选目标测量,通过该候选测量更新航迹,但是这些方法在实际应用中往往会发生误跟踪和跟踪丢失等现象。其中一些则假定场景中目标数目不变,不符合实际情况。还有一些会随着目标数量的增加计算量急剧上升,限制了其在实际中的应用。虽然有算法将随机集理论与贝叶斯理论结合起来,为解决多目标跟踪问题提供了一个较完备的理论体系,但是很难获得解析形式的最优状态解。另外,虽然粒子滤波算法可以得到解析形式的最优状态解集,但是粒子滤波没有数据关联模块,目标的状态最终是由一个集合形式描述,具体哪个状态对应哪个目标是不清楚的,因此,单个目标的运动航迹无法得知。简单的粒子滤波和联合概率数据关联结合可以解决这个问题,但是,由于多目标间的交互运动和杂波干扰,状态估计中很难将目标观测与该目标状态关联,从而导致跟踪性能下降。另外,在常规的粒子滤波饿联合概率数据关联算法中都没有无法加入交互目标直接的遮挡对算法跟踪的影响。
发明内容
本发明的目的是提供一种多视频目标主动跟踪方法,特别是提供一种基于协同关联粒子滤波的多视频目标主动跟踪方法。
为了实现上述目的,本发明采用的技术方案是:
一种基于协同关联粒子滤波的多视频目标主动跟踪方法,包括基于视觉注意主动发现新目标、建议分布建立、样本采集、协同关联权值计算、状态输出和重采样,应用视觉注意机制检测目标,以实现对突然进入场景的新目标的主动跟踪,以及建立新的建议分布时所需目标状态信息的检测;采用协同数据关联方法对目标航迹进行关联并计算粒子权值;具体依次包括以下步骤:
(1)视觉注意主动发现新目标:
k-1时刻(k≥1),对视频图像用视觉注意机制算法计算场景中存在的目标,计算目标的显著图特征qd;
建立协同关联矩阵Ok,所述的协同关联矩阵Ok表示两两目标间的遮挡关系,矩阵中的第i行第j列对应的元素记为Oi,j,表示目标i与j的遮挡关系;当两两目标间的欧氏距离小于目标宽度的一半时,Oi,j=1(i≠j),表示目标i遮挡了目标j;其它情况Oi,j=0(i≠j),表示两目标间没有发生遮挡;只要i=j,那么Oi,j=0;Oi,j与Oj,i不能同时为1,如果目标i的宽度大于j,则Oi,j=1,反之,Oj,i=1;
如果发现新目标,则
①建立如下采样建议分布
qnew(Xk|Xk-1,Z1:k)=αqd(Xk|Xk-1,Z1:k)+(1-α)p(Xk|Xk-1);
其中,
qnew(Xk|Xk-1,Z1:k)为新目标的建议分布;
qd(Xk|Xk-1,Z1:k)为新目标的视觉显著图特征,X为待估计的当前帧的目标状态,由目标的中心点坐标及对应矩形的长短半轴的长度组成;
Z为观测量;α是比例系数,α∈(0,1),可动态调整;
②初始化粒子集:在所述的视频图像中,根据先验概率P0采集N个粒子样本组成k-1时刻的新目标的初始样本集该初始样本集即为初始化的粒子集,其中表示第i个初始样本,将定义为每个初始样本的权值,N=100~10000;
③更新协同关联矩阵Ok;
(2)各目标协同采样:为得到样本集首先根据所述的采样建议分布和Ok采集样本Xk;其中是采样得到的第i个样本,表示第i个样本的权值, 表示第m个目标采样得到的第i个样本;smk是协同因子,表示k时刻目标m被遮挡的深度信息,smk取值取决于Ok;若k时刻Oi,j=1,则si,k=1,表示目标i遮挡,sj,k=2表示目标j被遮挡,采样时只采目标i的样本,目标j放弃采样过程;如果Oi,j=0,则smk=0,表示目标没有遮挡或被遮挡,目标i和j都需要采样;
(3)计算协同概率数据关联概率和权值,更新粒子集:
I.利用(2)中采样得到的样本,
①根据联合概率数据关联算法(JPDA)计算协同数据关联概率概率为 其中 θ是关联事件集合,每个联合关联事件θ唯一确定目标观测与目标状态的关联;令Θm,t表示为观测m关联到目标t的所有有效联合关联事件集合,为联合关联事件集合的势,Mk表示观测数,为虚警观测;γ为虚警观测概率,为Zk中所有虚警观测概率,C为归一化常数,Q为观测变量的维数;为归一化的观测更新度量,|·|为行列式表示,Sm,t为观测集协方差;
(4)状态输出;
(6)循环:令k=k+1,重复(1)~(5);直到本视频序列结束。
所述的一种基于协同关联粒子滤波的多视频目标主动跟踪方法,在所述的步骤(1)①中比例系数α取值与视觉注意检测信息中运动显著图特征在总的显著图特征中的比重ξ相等,即α=ξ,ξ=qm/qd,其中qm为运动显著图,qd为总的显著图特征。
所述的一种基于协同关联粒子滤波的多视频目标主动跟踪方法,在所述的步骤(3)I.
②中视频目标的观测概率p(Zk,t|Xk,t)采用基于核的HSV颜色和空间特征来建立。
有益效果
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:本发明基于协同关联粒子滤波的多视频目标主动跟踪方法,利用视觉注意机制“主动发现”目标,解决了目标的出现、消失,以及交互目标的合并、分裂以及过遮挡造成的误跟踪及跟踪丢失问题;很好的解决了复杂情况下普通多目标跟踪算法的跟踪失败及误跟踪等问题。如果有新目标出现,视觉注意机制可以很快的发现并主动跟踪;并合理利用目标的状态信息建立多目标建议分布,比单一利用目标状态转移概率建立建议分布更符合目标真实情况的。协同数据关联概率能在目标数不确定的情况下很好实现多目标的关联,并有效计算多目标粒子权值。在目标数不确定的多目标跟踪情况下,传统的算法很难做到多目标的有效关联,协同算法的加入,可以综合利用多个目标的关联信息进行多目标关联,相比普通的联合概率数据关联算法,其有效性和准确性得到很大的提高。另外,协同关联矩阵的加入可以在算法运行时充分考虑目标相互遮挡造成的影响,提高了跟踪的准确率。
具体实施方式
下面结合具体实施方式,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明的实施方式涉及一种基于协同关联粒子滤波的多视频目标主动跟踪方法,包括基于视觉注意主动发现新目标、建议分布建立、样本采集、协同关联权值计算、状态输出和重采样等步骤实现智能视频的多目标跟踪。本发明采用视觉注意机制“主动发现”目标,可有效解决新目标出现,目标消失,遮挡等交互式干扰的影响,并可利用目标的状态信息建立建议分布,比利用单一的状态转移概率建立建议分布更符合目标的真实情况。协同关联数据概率的应用,比简单的概率数据关联能更好的处理复杂多目标交互情况下的多目标关联及粒子权值计算问题。
具体步骤如下:
(1)视觉注意主动发现新目标:
k-1时刻(k≥1),对视频图像用视觉注意机制算法计算场景中存在的目标,计算目标的显著图特征qd。所谓显著性特征即为将多个底层特征融合形成的一个总的显著性测度,通过该显著性测度形成一幅反映显著性特征差异的视觉显著图,并通过返回抑制和注意焦点转移获得一系列显著位置。常规的提取场景图像的显著性特征、形成视觉显著图的方法是:首先建立图像的多特征尺度表示,然后针对每个特征通道,提取局部对比度特征,最后将不同类型的特征融合成总的显著性特征、并形成视觉显著图。
建立协同关联矩阵Ok,所述的协同关联矩阵Ok表示两两目标间的遮挡关系,矩阵中的第i行第j列对应的元素记为Oi,j,表示目标i与j的遮挡关系;当两两目标间的欧氏距离小于目标宽度的一半时,Oi,j=1(i≠j),表示目标i遮挡了目标j;其它情况Oi,j=0(i≠j),表示两目标间没有发生遮挡;只要i=j,那么Oi,j=0;Oi,j与Oj,i不能同时为1,如果目标i的宽度大于j,则Oi,j=1,反之,Oj,i=1;
如果发现新目标,则
①建立如下采样建议分布
qnew(Xk|Xk-1,Z1:k)=αqd(Xk|Xk-1,Z1:k)+(1-α)p(Xk|Xk-1);
其中,
qnew(Xk|Xk-1,Z1:k)为新目标的建议分布;
qd(Xk|Xk-1,Z1:k)为新目标的视觉显著图特征,X为待估计的当前帧的目标状态,由目标的中心点坐标及对应矩形的长短半轴的长度组成;
Z为观测量;α是比例系数,α∈(0,1),可动态调整;
②初始化粒子集:在所述的视频图像中,根据先验概率p0采集N个粒子样本组成k-1时刻的新目标的初始样本集该初始样本集即为初始化的粒子集,其中表示第i个初始样本,将定义为每个初始样本的权值,N=100~10000;
③更新协同关联矩阵Ok;
(2)各目标协同采样:为得到样本集首先根据所述的采样建议分布和Ok采集样本Xk;其中是采样得到的第i个样本,表示第i个样本的权值, 表示第m个目标采样得到的第i个样本;smk是协同因子,表示k时刻目标m被遮挡的深度信息,smk取值取决于Ok;若k时刻Oi,j=1,则si,k=1,表示目标i遮挡,sj,k=2表示目标j被遮挡,采样时只采目标i的样本,目标j放弃采样过程;如果Oi,j=0,则smk=0,表示目标没有遮挡或被遮挡,目标i和j都需要采样。
为说明在连续视频序列中的采样,需首先说明一下状态转移。状态转移描述了视频目标的动态过程,因此,状态转移模型能刻画视频目标在连续两帧之间的运动特性。一般地,目标的状态转移模型都能概率化为有限阶的状态转移概率p(Xk|Xj:k-1),其中,0<j<k-1。如果将状态转移模型选用随机漂移模型,那么视频目标在第k-1帧图像的位置加上高斯扰动即为其在第k帧的图像上的新位置。假设视频目标的状态向量X表示其在二维图像上的位置,即X=[x,y]T,那么k时刻视频目标的状态Xk为:
Xk=Xk-1+Uk
其中,Uk为二维零均值高斯噪声,故Uk=[ux,k,uy,k]T。一般都假设随机成分比较大(即噪声的方差比较大),使得该模型能够更好地跟踪视频目标。时刻根据随机漂移模型和上一刻的粒子采样得到下一刻的粒子
(3)计算协同概率数据关联概率和权值,更新粒子集:样本的权值决定了该样本对目标状态的近似能力,因此样本的权值计算是非常重要的,为详细说明粒子权值的计算过程,一下分两部分进行说明。
I.利用(2)中采样得到的样本,
①计算协同数据关联概率:设k时刻场景中T个跟踪目标状态为Xk={Xk,1,…,Xk,T},目标观测为在联合概率数据关联滤波框架下,联合关联事件θ是数据关联对(m,t)∈{1,…,Mk}×{1,…,T}构成的关联事件集合,每个联合关联事件θ唯一确定目标观测与目标状态的关联。令Θm,t表示为观测m关联到目标t的所有有效联合关联事件集合,则其数据关联后验概率可表示为:
假设数据关联过程是马尔科夫过程,对于单个联合关联事件θ,根据贝叶斯公式关联概率p(θ|Z1:k)可表示为:p(θ|Z1:k)=p(θ|Z1:k,X1:k)=p(θ|Zk,X1:k)=Cp(Zk|θ,X1:k)p(θ|X1:k)
其中C为归一化常数,p(θ|X1:k)表示在给定目标状态下联合关联事件θ的概率(在此假设事件是等概率的,即p(θ|X1:k)可近似为常数),p(Zk|θ,X1:k)表示给定目标状态和特定的联合关联事件下的目标观测概率。
根据Gating技术,由以上统计信息可将视觉目标t的有效观测区域定义为:
因此由Gating技术,数据联想概率可表示为:
其中,Q为观测变量的维数;|·|为行列式表示。
②粒子权值计算。假设场景中各目标状态独立,那么可对T个目标进行独立协同采样,此处采用基于共生机制的协同算法。把多目标跟踪问题,分解成单独的子目标跟踪,因此,单个目标的状态估计相当于多目标跟踪的部分解,不同目标的状态估计构成的一个共生体对应多目标的状态估计跟踪。并通过协同联合概率数据关联将观测与目标的采样粒子关联。对于目标t,其采样粒子集为根据联合数据关联概率,采样粒子的权值可表示为:
对于上式,视频目标观测概率p(Zk,t|Xk,t)还需再做定义,通常目标的观测概率定义为某种视觉特征的概率分布,在此采用视觉注意机制多所划定的区域颜色和空间特征的概率分布,因此p(Zk,t|Xk,t)的计算取决于所划定视觉目标的统计描述,在此采用基于核的HSV颜色和空间特征描述,并以此为基础建立视觉目标的观测概率分布。
假设将视频目标的颜色分布离散化为B级,颜色量化函数为b(lm):R2→{1,…,B},表示把位置lm处的像素颜色值量化并将其分配到颜色分布相应的颜色级。因此,对于视频目标状态X,其颜色分布定义为:
其中,l表示视频目标的中心(x,y),由目标X确定;M表示目标区域的总像素数,表示目标区域的大小;k(·)表示核函数(一般选高斯核函数);δ(·)为Kronecker Deita函数;C为归一化常数,且
对于视频目标观测概率分布的计算,在视频跟踪的初始帧选定参考目标Xc,利用上述方法建立参考目标的颜色分布{q(u)}u=1,...,B。在第k帧,设视频目标状态Xk的第i个采样所对应的图像区域颜色分布为{p(u)}u=1,...,B,样本表示视频目标在第k帧的一假定状态。于是,样本与参考目标Xc的相似性度量可利用其颜色分布的相似性度量建立,在此用Bhattacharyya系数来建立,且Bhattacharyya系数定义为:
D(p,q)为Bhattacharyya距离。对于空间位置分布的定义与对颜色的定义相似,其相似性度量表示为D2(p,q)。
最后,通过混合高斯建模,视频目标的观测概率分布定义为:
②产生[0,1]上均匀分布的随机数u;
(6)循环:令k=k+1,重复(1)~(5);直到本视频序列结束。
Claims (3)
1.一种基于协同关联粒子滤波的多视频目标主动跟踪方法,其特征是包括以下步骤:
(1)视觉注意主动发现新目标:
k-1时刻(k≥1),对视频图像用视觉注意机制算法计算场景中存在的目标,计算目标的显著图特征qd;
建立协同关联矩阵Ok,所述的协同关联矩阵Ok表示两两目标间的遮挡关系,矩阵中的第i行第j列对应的元素记为Oi,j,表示目标i与j的遮挡关系;当两两目标间的欧氏距离小于目标宽度的一半时,Oi,j=1(i≠j),表示目标i遮挡了目标j;其它情况Oi,j=0(i≠j),表示两目标间没有发生遮挡;只要i=j,那么Oi,j=0;Oi,j与Oj,i不能同时为1,如果目标i的宽度大于j,则Oi,j=1,反之,Oj,i=1;
如果发现新目标,则
①建立如下采样建议分布
qnew(Xk|Xk-1,Z1:k)=αqd(Xk|Xk-1,Z1:k)+(1-α)p(Xk|Xk-1);
其中,
qnew(Xk|Xk-1,Z1:k)为新目标的建议分布;
qd(Xk|Xk-1,Z1:k)为新目标的视觉显著图特征,X为待估计的当前帧的目标状态,由目标的中心点坐标及对应矩形的长短半轴的长度组成;
Z为观测量;α是比例系数,α∈(0,1);
p(Xk|Xk-1)为目标的状态转移概率;
②初始化粒子集:在所述的视频图像中,根据先验概率p0采集N个粒子样本组成k-1时刻的新目标的初始样本集该初始样本集即为初始化的粒子集,其中表示第i个初始样本,将定义为每个初始样本的权值,N=100~10000;
③更新协同关联矩阵Ok;
(2)各目标协同采样:为得到样本集首先根据所述的采样建议分布和Ok采集样本Xk;其中是采样得到的第i个样本,表示第i个样本的权值, 表示第m个目标采样得到的第i个样本;smk是协同因子,表示k时刻目标m被遮挡的深度信息,smk取值取决于Ok;若k时刻Oi,j=1,则si,k=1,表示目标i遮挡,sj,k=2表示目标j被遮挡,采样时只采目标i的样本,目标j放弃采样过程;如果Oi,j=0,则smk=0,表示目标没有遮挡或被遮挡,目标i和j都需要采样;
(3)计算协同概率数据关联概率和权值,更新粒子集:
I.利用(2)中采样得到的样本,
①根据联合概率数据关联算法(JPDA)计算协同数据关联概率为 其中 θ是关联事件集合,每个联合关联事件θ唯一确定目标观测与目标状态的关联;令Θm,t表示为观测m关联到目标t的所有有效联合关联事件集合,为联合关联事件集合的势,Mk表示观测数,为虚警观测;γ为虚警观测概率,为Zk中所有虚警观测概率,C为归一化常数,Q为观测变量的维数;为归一化的观测更新度量,|·|为行列式表示,Sm,t为观测集协方差;
(4)状态输出;
(6)循环:令k=k+1,重复(1)~(5);直到本视频序列结束。
2.根据权利要求1所述的一种基于协同关联粒子滤波的多视频目标主动跟踪方法,所述的比例系数α取值与视觉注意检测信息中运动显著图特征在总的显著图特征中的比重ξ相等,即α=ξ,ξ=qm/qd,其中qm为运动显著图,qd为总的显著图特征。
3.根据权利要求1所述的一种基于协同关联粒子滤波的多视频目标主动跟踪方法,所述的视频目标的观测概率p(Zk,t|Xk,t)采用基于核的HSV颜色和空间特征来建立。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110424869 CN102521612B (zh) | 2011-12-16 | 2011-12-16 | 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110424869 CN102521612B (zh) | 2011-12-16 | 2011-12-16 | 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102521612A CN102521612A (zh) | 2012-06-27 |
CN102521612B true CN102521612B (zh) | 2013-03-27 |
Family
ID=46292523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110424869 Expired - Fee Related CN102521612B (zh) | 2011-12-16 | 2011-12-16 | 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102521612B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831620B (zh) * | 2012-08-03 | 2015-09-30 | 南京理工大学 | 基于多假设跟踪数据关联的红外弱小目标搜索跟踪方法 |
CN104794737B (zh) * | 2015-04-10 | 2017-12-15 | 电子科技大学 | 一种深度信息辅助粒子滤波跟踪方法 |
CN105898691B (zh) * | 2016-03-14 | 2019-06-04 | 河海大学常州校区 | 基于粒子化和积算法的无线传感器网络目标跟踪方法 |
CN106127119B (zh) * | 2016-06-16 | 2019-03-08 | 山东大学 | 基于彩色图像和深度图像多特征的联合数据关联方法 |
CN106443622B (zh) * | 2016-09-13 | 2018-12-07 | 哈尔滨工程大学 | 一种基于改进联合概率数据关联的分布式目标跟踪方法 |
CN107038714B (zh) * | 2017-04-17 | 2020-01-14 | 西安理工大学 | 多型视觉传感协同目标跟踪方法 |
CN108182447B (zh) * | 2017-12-14 | 2020-04-21 | 南京航空航天大学 | 一种基于深度学习的自适应粒子滤波目标跟踪方法 |
EP3850542A1 (en) * | 2018-09-11 | 2021-07-21 | Telefonaktiebolaget Lm Ericsson (Publ) | Method for associating objects in a video |
CN110334639B (zh) * | 2019-06-28 | 2021-08-10 | 北京精英系统科技有限公司 | 一种过滤图像分析检测算法的错误检测结果的装置和方法 |
CN111862157B (zh) * | 2020-07-20 | 2023-10-10 | 重庆大学 | 一种机器视觉与毫米波雷达融合的多车辆目标跟踪方法 |
CN112748735B (zh) * | 2020-12-18 | 2022-12-27 | 重庆邮电大学 | 一种引入颜色特征的扩展目标跟踪方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101098461A (zh) * | 2007-07-05 | 2008-01-02 | 复旦大学 | 一种视频目标跟踪中的全遮挡处理方法 |
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
CN101493943A (zh) * | 2008-01-25 | 2009-07-29 | 中国科学院计算技术研究所 | 一种粒子滤波跟踪方法和跟踪装置 |
JP2009188977A (ja) * | 2008-01-07 | 2009-08-20 | Victor Co Of Japan Ltd | 目標追尾装置 |
CN101840579A (zh) * | 2010-01-28 | 2010-09-22 | 浙江大学 | 一种利用视频分割与粒子滤波实现多目标跟踪方法 |
CN101872482A (zh) * | 2010-06-08 | 2010-10-27 | 东华大学 | 一种基于免疫遗传粒子滤波的智能视频跟踪方法 |
EP2259221A1 (en) * | 2009-06-03 | 2010-12-08 | ETH Zurich | Computer system and method for tracking objects in video data |
WO2011102072A1 (ja) * | 2010-02-19 | 2011-08-25 | パナソニック株式会社 | 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム |
-
2011
- 2011-12-16 CN CN 201110424869 patent/CN102521612B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101098461A (zh) * | 2007-07-05 | 2008-01-02 | 复旦大学 | 一种视频目标跟踪中的全遮挡处理方法 |
JP2009188977A (ja) * | 2008-01-07 | 2009-08-20 | Victor Co Of Japan Ltd | 目標追尾装置 |
CN101493943A (zh) * | 2008-01-25 | 2009-07-29 | 中国科学院计算技术研究所 | 一种粒子滤波跟踪方法和跟踪装置 |
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
EP2259221A1 (en) * | 2009-06-03 | 2010-12-08 | ETH Zurich | Computer system and method for tracking objects in video data |
CN101840579A (zh) * | 2010-01-28 | 2010-09-22 | 浙江大学 | 一种利用视频分割与粒子滤波实现多目标跟踪方法 |
WO2011102072A1 (ja) * | 2010-02-19 | 2011-08-25 | パナソニック株式会社 | 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム |
CN101872482A (zh) * | 2010-06-08 | 2010-10-27 | 东华大学 | 一种基于免疫遗传粒子滤波的智能视频跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102521612A (zh) | 2012-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102521612B (zh) | 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 | |
CN101141633A (zh) | 一种复杂场景中的运动目标检测与跟踪方法 | |
CN109544592B (zh) | 针对相机移动的运动目标检测算法 | |
CN109284705B (zh) | 一种交通监控视频的异常检测方法 | |
CN113011367A (zh) | 一种基于目标轨迹的异常行为分析方法 | |
Bloisi et al. | Argos—A video surveillance system for boat traffic monitoring in Venice | |
CN105405151A (zh) | 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法 | |
Bhaskar et al. | Autonomous detection and tracking under illumination changes, occlusions and moving camera | |
CN108521554A (zh) | 大场景多目标协同跟踪方法、智能监控系统、交通系统 | |
CN104732559B (zh) | 一种基于rgb‑d数据的多目标检测与跟踪方法 | |
CN106780567B (zh) | 一种融合颜色和梯度直方图的免疫粒子滤波扩展目标跟踪方法 | |
KR20190023389A (ko) | 변화점 검출을 활용한 다중클래스 다중물체 추적 방법 | |
CN110349188B (zh) | 基于tsk模糊模型的多目标跟踪方法、装置及存储介质 | |
Denman et al. | Multi-spectral fusion for surveillance systems | |
CN105469054A (zh) | 正常行为的模型构建方法及异常行为的检测方法 | |
CN110717934A (zh) | 一种基于strcf的抗遮挡目标跟踪方法 | |
Wang et al. | Effective multiple pedestrian tracking system in video surveillance with monocular stationary camera | |
Xiao et al. | Collaborative tracking for multiple objects in the presence of inter-occlusions | |
Gong et al. | Multi-target trajectory tracking in multi-frame video images of basketball sports based on deep learning | |
Pece | From cluster tracking to people counting | |
Yasir et al. | YOLOv8-BYTE: Ship tracking algorithm using short-time sequence SAR images for disaster response leveraging GeoAI | |
Aitfares et al. | Suspicious behavior detection of people by monitoring camera | |
Cancela et al. | Hierarchical framework for robust and fast multiple-target tracking in surveillance scenarios | |
CN105740819A (zh) | 一种基于整数规划的人群密度估计方法 | |
Walsh et al. | Detecting tracking failures from correlation response maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130327 Termination date: 20151216 |
|
EXPY | Termination of patent right or utility model |