CN102148921A - 基于动态群组划分的多目标跟踪方法 - Google Patents

基于动态群组划分的多目标跟踪方法 Download PDF

Info

Publication number
CN102148921A
CN102148921A CN 201110113290 CN201110113290A CN102148921A CN 102148921 A CN102148921 A CN 102148921A CN 201110113290 CN201110113290 CN 201110113290 CN 201110113290 A CN201110113290 A CN 201110113290A CN 102148921 A CN102148921 A CN 102148921A
Authority
CN
China
Prior art keywords
target
group
particle
goal
state space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201110113290
Other languages
English (en)
Other versions
CN102148921B (zh
Inventor
卢汉清
王金桥
杨杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JIANGSU RUIAOFENG SOFTWARE TECHNOLOGY Co Ltd
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN 201110113290 priority Critical patent/CN102148921B/zh
Publication of CN102148921A publication Critical patent/CN102148921A/zh
Application granted granted Critical
Publication of CN102148921B publication Critical patent/CN102148921B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明是基于动态群组划分的多目标跟踪方法,所述多目标跟踪方法包括步骤如下:S1:对于视频场景中的某一时刻,首先判定是否有目标进入或离开场景区域,根据检测结果更新目标集合;S2:设定目标集合的分组阈值,使用层次聚类按距离对上一时刻目标集合进行聚类,根据上一时刻的聚类结果,将上一时刻目标位置分成不同群组;S3:为目标集合中的每个群组分配一个跟踪器,跟踪器根据群组内每个目标上一时刻的位置状态,加上群组内每个目标当前时刻在图像上的观测值,使用贝叶斯框架推断每个目标在当前时刻位置的最优值,用每个目标当前时刻位置的最优值更新目标集合中各个目标的位置状态,为推断各个目标的下一时刻的位置做准备。

Description

基于动态群组划分的多目标跟踪方法
技术领域
本发明涉及计算机视觉领域,尤其涉及智能视频分析领域中的一种多目标的检测与跟踪。
背景技术
随着视觉计算理论等基础科学的发展以及各种应用场合对机器视觉的需求不断增长,计算机视觉得到更广泛的应用。计算机智能视频监控是计算机视觉领域一个新兴的应用方向和备受关注的前沿课题。主要是利用计算机视觉技术对视频信号进行处理、分析和理解,并对视频监控系统进行控制,从而使视频监控系统具有像人一样的智能。智能视频监控系统主要目标是减少对人工的依赖,自动完成复杂环境中对人和车辆等感兴趣目标的实时检测以及对其行为的分析和描述。完成这些任务涉及到计算机视觉领域中许多核心技术。其中对视频场景中多个感兴趣目标的持续跟踪是其中的核心技术之一,是视频场景分析、目标行为理解等诸多高层分析任务的基础。
现有的多目标跟踪通常基于两种方法。一种方法是使用多个单目标跟踪器,即一个跟踪器跟踪一个目标。这种多目标跟踪方法对于跟踪表观特征不同的多个目标比较准确,而且算法效率也比较高。表观特征差异较大的目标相互之间影响较小。但是对于表面特征完全一样或者相似的目标,当这些目标发生交互或者靠地比较近的时候,相互独立的单目标跟踪器通常会跟同时跟踪到具有最好的表观观测的目标上,发生目标合并错误,这时使用多个单目标器跟踪的策略就会失败。另一种方法是采用集中的方案,即将所有目标的状态连接起来构成一个联合状态空间。通过在这一联合状态空间中搜索出最优的目标联合状态,以上提到的基于集中思想的跟踪器,尽管可以处理目标之间交互带来的影响,但是由于高维的联合状态空间所引入的复杂性,使得这些跟踪方法的计算代价非常大。因此当跟踪的目标数较多的时侯,联合状态空间的方法比较难满足实时性的应用。
由上述分析可见在多目标跟踪中,使用多个独立的单目标跟踪器跟踪多个目标,计算简单跟踪效率较高,但当目标离得比较近的时候会发生目标合并错误,导致跟踪失败;而在联合状态空间中采用集中思想使用一个多目标跟踪器,虽然从理论上可以解决目标跟踪的合并错误,但是由于联合状态空间维度较高,使得计算的复杂度大大增加。
发明内容
本发明的目的是解决现有技术中使用多个独立的单目标跟踪器跟踪多个表观相似的目标,当目标离得比较近的时候,发生目标合并错误;以及在联合状态空间中使用一个多目标跟踪器时,由于联合状态空间维度较高,使得计算的复杂度大大增加的技术缺陷。为此本发明提供一种视频分析领域内多目标自动检测和跟踪的方法。
为了实现所述目的,本发明提供了一种基于动态群组划分的多目标跟踪的方法,实现所述方法步骤是:
步骤S1:对于视频场景中的某一时刻,首先使用目标检测器检测场景边缘处,判定是否有目标进入或离开场景区域,根据检测结果更新目标集合,将新进入场景的目标加入目标集合,将离开的目标从目标集合中去除;使用AdaBoost算法和梯度方向直方图(HOG)特征学习出目标检测器,同时使用AdaBoost从梯度方向直方图特征中选出一组稀疏特征表示目标,形成目标的稀疏表示;
步骤S2:设定目标集合的分组阈值,使用层次聚类按距离对上一时刻目标集合进行聚类,根据上一时刻的聚类结果,将上一时刻目标位置分成不同群组;
步骤S3:为目标集合中的每个群组分配一个跟踪器,跟踪器根据群组内每个目标上一时刻的位置状态,加上群组内每个目标当前时刻在图像上的观测值,使用贝叶斯框架推断每个目标在当前时刻位置的最优值,使用AdaBoost选出来的稀疏特征表示目标的观测值,用每个目标当前时刻位置的最优值更新目标集合中各个目标的位置状态,为推断各个目标的下一时刻的位置做准备。
优选实施例,选出一组稀疏特征具体步骤如下:
步骤S21:提取目标的表观特征组成特征集;
步骤S22:使用AdaBoost方法从特征集中选择出最有区分力的一组特征,用选出的特征构成对目标的一个稀疏表示;
步骤S23:用目标的稀疏表示构建贝叶斯跟踪框架中的观测模型,用于表示目标的观测。
优选实施例,在设定分组阈值时,遵循最小分组原则,所述最小分组原则是在保证目标之间没有交互的情况下,分成尽可能多的群组。
优选实施例,对于只包含一个目标的群组,使用单目标跟踪器估计目标当前时刻位置。
优选实施例,对于包含多个目标的群组,使用多目标跟踪器,在多个目标的联合状态空间求解多个目标位置的最优值。
优选实施例,所述跟踪器使用基于MCMC的粒子滤波器对每个群组进行跟踪,每个群组的目标数目为动态变化。
优选实施例,对于包含多个目标群组的分裂步骤如下:当包含多个目标群组分裂成不同的单目标群组时,将多目标状态空间中的粒子按照其分量对应的单目标直接分裂成多个单目标状态空间中的粒子;所述多目标状态空间中的每个粒子为多目标的联合状态,所述单目标状态空间中的每个粒子为单个目标的状态。
优选实施例,对于包含多个目标合并成一个群组的步骤如下:当各个单目标的群组合并成多目标的群组时,根据各个单目标状态空间中的粒子,在多目标状态空间中重采样,得到多目标状态空间中的粒子;所述多目标状态空间中的每个粒子为多目标的联合状态,所述单目标状态空间中的每个粒子为单个目标的状态。
本发明通过自动检测进出场景的目标,对场景中的目标按位置聚类分组,对场景中的多个目标标实现动态分组跟踪,遵循最小分组原则,用以提高跟踪算法的效率。解决了多目标跟踪时,使用多个单目标跟踪器容易发生目标合并的错误,以及将所有的目标在联合状态空间跟踪时效率低下的问题。本发明兼顾了多目标跟踪的准确性与效率。
附图说明
图1为本发明实施例提供的跟踪与检测的流程图。
图2为本发明实施例提供的使用层次聚类进行目标分组的示意图。
图3为本发明实施例提供的由联合状态空间中的多目标分裂为多个独立状态空间中的单目标的示意图。
图4为本发明实施例提供的由多个独立状态空间中的单目标重采样得到联合状态空间中的多目标的示意图。
图5为本发明实施例提供的多目标分组跟踪分组的实施效果图。
图6为本发明实施例提供的多个单目标跟踪器的实施效果图。
图7为本发明实施例提供的分组跟踪处理目标交互的实施效果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明对于场景中的多个目标采取动态分组跟踪,首先对存在于目标集合中的多个目标按照位置进行聚类,将距离比较近可能会发生交互的目标聚类为一组。使用层次聚类的方法,设定相应的类间距离的阈值后,自动生成相应的组别数以及场景中各个目标的组别标签。根据聚类的结果对于每一个目标组,分配一个跟踪器;如果该组只包含一个目标,则使用一个单目标跟踪器;如果该组包含多个目标,则使用一个多目标跟踪器。
对于场景中的多个目标采取分组跟踪,即对于分散独立的单个目标采用单目标跟踪器跟踪;而对于在局部汇集的多个目标采用在联合状态空间里的多目标跟踪器。
本发明实施例提供了一种多目标自动检测,分组跟踪的方法。克服了传统方法准确性与效率不能够兼顾的情况。下面对本发明实施例的实现过程进行详细介绍。图1为提供了本发明实施例的流程图,分为跟踪与检测模块。
对于检测模块,发明实施例使用训练好的目标分类器,在目标的进口和出口检测目标。我们为场景中存在的目标维护一个目标集合,集合中包含了场景中每个目标的状态也就是目标的位置。对于检测器在进口和出口区域检测到的目标,如果没有存在于目标集合中,我们将其添加到目标集合中。反之,如果有目标集合中的目标存在于进口和出口区域,而在连续若干帧中没有被检测器检测到,则我们认为该目标已经离开视频场景,将其从目标集合中删除。
对于目标分类器,我们通过大量正负样本的离线学习得到,我们使用AdaBoost学习目标分类器,使用目标的梯度方向直方图(HOG)特征。同时我们使用AdaBoost从特征集中选择出最有能力区分目标的特征分量,最终形成一个稀疏的特征向量用来表示目标。
对于目标的跟踪,发明实施例采样了分组跟踪的思路。在跟踪模块中,首先我们对存在于目标集合中的多个目标按照位置进行聚类,将距离比较近可能会发生交互的目标聚类为一组。使用层次聚类的方法,设定相应的类间距离的阈值后,自动生成相应的组别数以及场景中各个目标的组别标签。根据聚类的结果对于每一个目标组,我们分配一个跟踪器;如果该组只包含一个对象,则使用一个单目标跟踪器;如果该组包含多个目标,则使用一个多目标跟踪器。最后根据跟踪结果跟新目标集合中的目标。
对于聚类分组,本发明实施例使用层次聚类的方法,层次聚类并不需要事先知道类别数,得到的结果是一棵层次树,可以根据实际需要从层次树任意一层切分得到不同的类别数的聚类结果。在我们的目标分组中设定相应的组间距离的阈值后,系统能够自动生成相应的组别数以及场景中各个目标的组别标签。具体过程由图2示意。
图2使用层次聚类进行目标分组,显示了分布在不同位置的5个目标,使用层次聚类方法通过4次迭代,可以得到5种不同情况的聚类结果,也就是可以有5种分组方式。分别如下表示:
1.每个目标各自为一组,一共分为5组;
2.目标3和目标4为一组,其他目标各自为一组;一共分为4组;
3.目标3和目标4为一组,目标2和目标5为一组,目标1为一组,一共分为3组;
4.目标2、3、4和5为一组,目标1为一组,一共分为2组;
5.所有目标为同一组,一共分为1组;
本发明实施例使用分组原则是在目标之间没有相互影响的情况下,尽可能分多的组,也就是相应地设置尽可能小的组间距离的阈值,使得每个组内包含的目标数目尽可能的少,这样能够最大限度的提高跟踪的效率。
对目标分组之后,我们需要对每组使用一个跟踪器,对于包含单目标的组使用单目标跟踪器,对于包含多目标的组使用多目标跟踪器。本发明实施例使用基于贝叶斯框架的跟踪器。下面对简单描述在贝叶斯框架下的跟踪问题
贝叶斯框架下跟踪问题描述
从贝叶斯理论的角度来看,跟踪问题就是从所有的观测信息Z1:t={Z1,Z2,...Zt}中推理出t时刻状态变量Xt的值,即估计后验概率p(Xt|Z1:t)。其中
Figure BDA0000059038280000061
为目标集合状态,Xit为单个目标的状态。分为单目标跟踪和多目标跟踪两种情况。
1.贝叶斯框架下单目标跟踪
假定在贝叶斯框架下跟踪目标集中的第i个目标Xit,由贝叶斯理论可以得到单目标跟踪器的描述,如公式(1)所示:
p(Xit|Z1:t)=cP(Zi|Xit)∫p(Xit|Xi(t-1))p(Xi(t-1)|Z1:t-1)dXi(t-1)    (1)
这里,Xit表示了目标i在t时刻的状态;p(Xit|Z1:t)为t时刻目标Xit的后验概率;p(Xit|Xi(t-1))为目标Xit的动态模型;表示了由目标i在t-1时刻的状态Xi(t-1)预测其在t时刻的状态Xit的模型;p(Zt|Xit)为目标Xit的观测模型,p(Zt|Xit)定义了目标的观测模型,表示在t时刻目标状态变量为Xit时,观测值为Zt的概率;其中Z1:t={Z1,Z2,...Zt}为各个时刻的观测值,c是规范化常量。
2.贝叶斯框架下多目标跟踪
贝叶斯框架下多目标跟踪的问题与单目标相似,同样是通过动态模型和观测模型确定后验概率分布。不同的是,由于存在多个目标,需要在多个目标的联合状态空间中估计贝叶斯框架的后验概率。多目标跟踪可以使用贝叶斯框架描述如下:
P(Xt|Z1:t)=cP(Zt|Xt)∫P(Xt|Xt-1)P(Xt-1|Z1:t-1)dXt-1    (2)
上式中Xt为联合状态,即各个目标状态的集合
Figure BDA0000059038280000071
P(Zt|Xt)是观测模型;P(Xt|Xt-1)是运动模型,给定Xt-1预测Xt的概率分布;多目标跟踪的目标就是在给定观测值情况下,在联合状态空间中确定后验概率P(Xt|Z1:t),其中Z1:t={Z1,Z2,...Zt}为各个时刻的观测值,c是规范化常量。由于多目标跟踪是将目标的集合作为一个高维空间中的变量,由于目标集合中的目标之间存在相互影响和关联,使得高维空间中动态模型变得相对复杂。
3.贝叶斯框架中的动态模型
在本节中,我们将描述贝叶斯框架中,动态模型的建立。对于多目标跟踪,如果每个目标相互独立,没有发生交互的话,则整体的动态模型可以分解为各个单目标的动态模型,表示如下:
P ( X t | X t - 1 ) ∝ Π i P ( X it | X i ( t - 1 ) ) - - - ( 3 )
其中,单个目标的状态包括x方向和y方向的位置信息,即Xit={xit,yit}。单目标的动态模型P(Xit|Xi(t-1))表示为:
Xit=Xi(t-1)+vit+r    (4)
vit表示目标i在当前的速度,r~N(0,∑)表示高斯噪声。
当目标离得比较近时,我们需要考虑目标之间的相互影响,在本文中我们使用马尔可夫随机场(MRF)表示目标之间的交互模型。一个马尔可夫随机场由一个无向图表示(V,E)表示,图中的顶点V表示目标的集合;图中的边E表示目标之间的关联。为了简化计算,我们只考虑目标之间的两两交互。因此系统的动态模型可以表示如下:
Figure BDA0000059038280000073
这里,表示了两个目标之间交互的模型,我们可以加入一些相关的先验知识表示目标的交互。本文使用Gibbs分布表示两个目标的交互。
Figure BDA0000059038280000075
这里f(Xit,Xjt)是惩罚函数,f(Xit,Xjt)=λd(Xit,Xjt)d(Xit,Xjt)表示目标Xit和Xjt之间的距离;λ表示权重系数,用来调节惩罚项的大小。
4.贝叶斯框架中的观测模型
观测模型p(Zt|Xt)表示了当状态空间中的状态变量为Xt时,观测空间中观测值的概率测度。由于每个目标的观测相对独立,因此多目标的观测可以被分解为各个单目标的观测,如下式所示:
p ( Z t | X t ) ∝ Π i p ( Z t | X it ) - - - ( 7 )
目标观测的表示主要目的是提取目标的表观,形状等观测特征,并形成特征向量或矩阵等表达形式。我们提取目标的HOG特征,并使用AdaBoost选择出HOG特征中最有能力区分目标的特征分量,最终形成一个稀疏的特征向量。本文使用这个稀疏的特征向量表示目标。因此,给定任意目标状态变量Xit指定的任意目标区域,我们可以提取其HOG特征相对应的稀疏的特征向量,形成目标相应的观测值Zt,由归一化的单位特征向量(z1(Xit)...,zm(Xit))表示。观测模型由观测特征向量与模板之间的Bhattacharyya系数度量。
基于MCMC的粒子滤波器实现贝叶斯滤波器
公式(1)所示的贝叶斯滤波器通常不容易获得其解析解,通常是使用基于蒙特卡罗的方法得到其近似解。本发明实施例使用基于马尔可夫链采样的蒙特卡罗方法即MCMC方法,MCMC的方法使用一组不带权重的粒子表示后验概率分布,通过设计一个平稳的马尔科夫链,使用贝叶斯模型的后验概率作为马尔可夫链的平稳分布,通过马尔科夫链获得采样粒子,使得采样粒子更加多样化。在本发明实施例中,对每个跟踪器使用一组无权重的粒子表示。对于单目标跟踪器这组粒子表示了单个目标的状态;对于多目标跟踪器,这组粒子表示了多个目标的联合状态。
本发明实施例通过对多目标跟踪器中粒子的分裂,以及单目标跟踪器中粒子的重采样组合,来处理目标变化的分组,也就是各个组的目标拆分以及重新组合的情况。
对于包含多个目标的分组,当目标分裂成不同的组时,我们按照其粒子相对应单目标的分量分裂粒子即可;如图3所示由联合状态空间中的多目标分裂为多个独立状态空间中的单目标的示意图,图3中左边是一个多目标跟踪器,大矩形表示了多个目标的联合状态空间,其中的圆形表示了单个目标,所有目标在联合状态空间相互关联。图3中右边是多个相互独立的单目标跟踪器,每个小矩形表示了单个目标独立的状态空间,每个目标在其相应的状态空间中独立表示。
对于单目标的组合并成多目标的组时,我们通过对表示各个单目标组的粒子进行重采样,得到表示多目标的跟踪器的粒子,如图4所示。
实施效果
为了评估本文提出的方法,我们在监控视频上测试我们的方法。图5显示了一段测试视频的结果,其图5至图7中的(a)、(b)、(c)、(d),(e)及(f)分别显示了第117,172,218,249,309,342帧图像。图5中显示了各帧图像中的目标分组情况,以及每个组的跟踪结果。
根据我们方法中提出的最小分组原则,即在目标互不影响的前提下尽可能分更多的组,使每组包含的目标最少。图5显示了分组结果,在图5中的(a)、图5中的(b)中5个目标分为5组;图5的中(c)、图5中的(d)中场景里左边两个目标由于距离过近合并为一组,其余目标分组情况没有发生变化;图5中的(e)及图5中的(f)中两个合并为同组的目标由于相互分开,重新又成为两个独立的组。
为了显示同组目标相互作用的效果,图6,图7分别显示了多个单目标跟踪器和我们提出的分组跟踪的方法对于场景中两个合并成同组目标的跟踪结果。在图6及图7中的(a)、(b)、(c)、(d)、(e)及(f)分别显示了第141,172,218,249,309,342帧图像。在图6中,使用多个单目标跟踪器,当目标之间保持一定的距离时,跟踪效果很好,如图6中的(a)和图6中的(b)所示;但当目标之间的距离比较近的时候,两个单目标器会同时跟踪到观测值较好的目标上,由于目标姿态不断变化,使得观测值的好坏也不断变化,这也可能导致跟踪器在目标之间震荡,如图6中的(c),图6中的(d)所示;当目标分离时,由于多个跟踪器已经同时跟踪到同一目标,所以就产生了其他目标丢失的现象,图6中的(e)和(f)中最前面的目标,也就是在图6中的(a),图6中的(b)中被红色方框标注的行人发生了跟踪丢失。在图7中,由于将距离较近相互影响的目标分到同一个组内,对该组使用一个多目标跟踪器,跟踪组内目标的联合状态,所以即使在图7中的(c)和(d)中,目标之间的距离比较近的时候,两个目标仍然能被很好的跟踪上。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (8)

1.一种基于动态群组划分的多目标跟踪方法,其特征在于实现多目标跟踪,步骤如下:
步骤S1:对于视频场景中的某一时刻,首先使用目标检测器检测场景边缘处,判定是否有目标进入或离开场景区域,根据检测结果更新目标集合,将新进入场景的目标加入目标集合,将离开的目标从目标集合中去除;使用AdaBoost算法和梯度方向直方图(HOG)特征学习出目标检测器,同时使用AdaBoost从梯度方向直方图特征中选出一组稀疏特征表示目标,形成目标的稀疏表示;
步骤S2:设定目标集合的分组阈值,使用层次聚类按距离对上一时刻目标集合进行聚类,根据上一时刻的聚类结果,将上一时刻目标位置分成不同群组;
步骤S3:为目标集合中的每个群组分配一个跟踪器,跟踪器根据群组内每个目标上一时刻的位置状态,加上群组内每个目标当前时刻在图像上的观测值,使用贝叶斯框架推断每个目标在当前时刻位置的最优值,使用AdaBoost选出来的稀疏特征表示目标的观测值,用每个目标当前时刻位置的最优值更新目标集合中各个目标的位置状态,为推断各个目标的下一时刻的位置做准备。
2.根据权利要求1所述的基于动态群组划分的多目标跟踪方法,其特征在于,选出一组稀疏特征具体步骤如下:
步骤S21:提取目标的表观特征组成特征集;
步骤S22:使用AdaBoost方法从特征集中选择出最有区分力的一组特征,用选出的特征构成对目标的一个稀疏表示;
步骤S23:用目标的稀疏表示构建贝叶斯跟踪框架中的观测模型,用于表示目标的观测。
3.根据权利要求1所述的基于动态群组划分的多目标跟踪方法,其特征在于,在设定分组阈值时,遵循最小分组原则,所述最小分组原则是在保证目标之间没有交互的情况下,分成尽可能多的群组。
4.根据权利要求1所述的基于动态群组划分的多目标跟踪方法,其特征在于,对于只包含一个目标的群组,使用单目标跟踪器估计目标当前时刻位置。
5.根据权利要求1所述的基于动态群组划分的多目标跟踪方法,其特征在于,对于包含多个目标的群组,使用多目标跟踪器,在多个目标的联合状态空间求解多个目标位置的最优值。
6.根据权利要求1所述的基于动态群组划分的多目标跟踪方法,其特征在于,所述跟踪器使用基于MCMC的粒子滤波器对每个群组进行跟踪,每个群组的目标数目为动态变化。
7.根据权利要求1所述的基于动态群组划分的多目标跟踪方法,其特征在于,对于包含多个目标的群组分裂步骤如下:
当包含多个目标群组分裂成不同的单目标群组时,将多目标状态空间中的粒子按照其分量对应的单目标直接分裂成多个单目标状态空间中的粒子;所述多目标状态空间中的每个粒子为多目标的联合状态,所述单目标状态空间中的每个粒子为单个目标的状态。
8.根据权利要求1所述的基于动态群组划分的多目标跟踪方法,其特征在于,对于包含多个目标合并成一个群组的步骤如下:
当各个单目标的群组合并成多目标的群组时,根据各个单目标状态空间中的粒子,在多目标状态空间中重采样,得到多目标状态空间中的粒子;所述多目标状态空间中的每个粒子为多目标的联合状态,所述单目标状态空间中的每个粒子为单个目标的状态。
CN 201110113290 2011-05-04 2011-05-04 基于动态群组划分的多目标跟踪方法 Expired - Fee Related CN102148921B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110113290 CN102148921B (zh) 2011-05-04 2011-05-04 基于动态群组划分的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110113290 CN102148921B (zh) 2011-05-04 2011-05-04 基于动态群组划分的多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN102148921A true CN102148921A (zh) 2011-08-10
CN102148921B CN102148921B (zh) 2012-12-12

Family

ID=44422896

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110113290 Expired - Fee Related CN102148921B (zh) 2011-05-04 2011-05-04 基于动态群组划分的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN102148921B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102592138A (zh) * 2011-12-30 2012-07-18 上海电力学院 基于多模块稀疏投影的密集场景目标跟踪方法
CN102663409A (zh) * 2012-02-28 2012-09-12 西安电子科技大学 一种基于hog-lbp描述的行人跟踪方法
CN103077535A (zh) * 2012-12-31 2013-05-01 中国科学院自动化研究所 一种基于多任务联合稀疏表示的目标跟踪方法
CN103413143A (zh) * 2013-07-29 2013-11-27 西北工业大学 基于动态稀疏投影的视频目标跟踪方法
CN104200237A (zh) * 2014-08-22 2014-12-10 浙江生辉照明有限公司 一种基于核化相关滤波高速自动多目标跟踪方法
CN104718560A (zh) * 2012-10-09 2015-06-17 Sk电信有限公司 用于估计单体的大小的图像监测装置及其方法
CN105894535A (zh) * 2016-03-30 2016-08-24 中国科学院地理科学与资源研究所 一种基于贝叶斯的涡旋自动追踪方法
CN106447698A (zh) * 2016-09-28 2017-02-22 深圳市鸿逸达科技有限公司 一种基于距离传感器的多行人跟踪方法和系统
CN106682573A (zh) * 2016-11-15 2017-05-17 中山大学 一种单摄像头的行人跟踪方法
CN107092808A (zh) * 2014-09-18 2017-08-25 中国人民解放军海军航空工程学院 一种编队目标合并机动模式下的跟踪方法
CN107239744A (zh) * 2017-05-15 2017-10-10 深圳奥比中光科技有限公司 人体关联关系的监控方法、系统及存储装置
CN107677997A (zh) * 2017-09-28 2018-02-09 杭州电子科技大学 基于GLMB滤波和Gibbs采样的扩展目标跟踪方法
CN108280964A (zh) * 2018-02-02 2018-07-13 深圳市盛路物联通讯技术有限公司 一种数据处理的方法及装置
CN108921880A (zh) * 2018-06-11 2018-11-30 西安电子科技大学 一种基于多个单跟踪器的视觉多目标跟踪方法
WO2021155653A1 (zh) * 2020-02-06 2021-08-12 青岛理工大学 基于协作差分进化滤波的人手-物体交互过程跟踪方法
CN113777943A (zh) * 2021-09-13 2021-12-10 珠海格力电器股份有限公司 一种智能设备控制方法、装置、智能设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
CN1738426A (zh) * 2005-09-09 2006-02-22 南京大学 一种视频运动目标分割与跟踪方法
JP2010041526A (ja) * 2008-08-07 2010-02-18 Chiba Univ 自動追尾装置
CN101795400A (zh) * 2010-03-16 2010-08-04 上海复控华龙微系统技术有限公司 一种婴幼儿主动跟踪监护的方法及其实现系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
CN1738426A (zh) * 2005-09-09 2006-02-22 南京大学 一种视频运动目标分割与跟踪方法
JP2010041526A (ja) * 2008-08-07 2010-02-18 Chiba Univ 自動追尾装置
CN101795400A (zh) * 2010-03-16 2010-08-04 上海复控华龙微系统技术有限公司 一种婴幼儿主动跟踪监护的方法及其实现系统

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102592138B (zh) * 2011-12-30 2014-04-30 上海电力学院 基于多模块稀疏投影的密集场景目标跟踪方法
CN102592138A (zh) * 2011-12-30 2012-07-18 上海电力学院 基于多模块稀疏投影的密集场景目标跟踪方法
CN102663409A (zh) * 2012-02-28 2012-09-12 西安电子科技大学 一种基于hog-lbp描述的行人跟踪方法
CN102663409B (zh) * 2012-02-28 2015-04-22 西安电子科技大学 一种基于hog-lbp描述的行人跟踪方法
CN104718560B (zh) * 2012-10-09 2017-05-17 Sk电信有限公司 用于估计单体的大小的图像监测装置及其方法
CN104718560A (zh) * 2012-10-09 2015-06-17 Sk电信有限公司 用于估计单体的大小的图像监测装置及其方法
CN103077535A (zh) * 2012-12-31 2013-05-01 中国科学院自动化研究所 一种基于多任务联合稀疏表示的目标跟踪方法
CN103077535B (zh) * 2012-12-31 2015-09-30 中国科学院自动化研究所 一种基于多任务联合稀疏表示的目标跟踪方法
CN103413143A (zh) * 2013-07-29 2013-11-27 西北工业大学 基于动态稀疏投影的视频目标跟踪方法
CN103413143B (zh) * 2013-07-29 2017-02-08 西北工业大学 基于动态稀疏投影的视频目标跟踪方法
CN104200237A (zh) * 2014-08-22 2014-12-10 浙江生辉照明有限公司 一种基于核化相关滤波高速自动多目标跟踪方法
CN104200237B (zh) * 2014-08-22 2019-01-11 浙江生辉照明有限公司 一种基于核化相关滤波高速自动多目标跟踪方法
CN107092808A (zh) * 2014-09-18 2017-08-25 中国人民解放军海军航空工程学院 一种编队目标合并机动模式下的跟踪方法
CN107092808B (zh) * 2014-09-18 2020-09-08 中国人民解放军海军航空工程学院 一种编队目标合并机动模式下的跟踪方法
CN105894535A (zh) * 2016-03-30 2016-08-24 中国科学院地理科学与资源研究所 一种基于贝叶斯的涡旋自动追踪方法
CN105894535B (zh) * 2016-03-30 2019-05-31 中国科学院地理科学与资源研究所 一种基于贝叶斯的涡旋自动追踪方法
CN106447698A (zh) * 2016-09-28 2017-02-22 深圳市鸿逸达科技有限公司 一种基于距离传感器的多行人跟踪方法和系统
CN106447698B (zh) * 2016-09-28 2019-07-02 深圳市鸿逸达科技有限公司 一种基于距离传感器的多行人跟踪方法和系统
CN106682573B (zh) * 2016-11-15 2019-12-03 中山大学 一种单摄像头的行人跟踪方法
CN106682573A (zh) * 2016-11-15 2017-05-17 中山大学 一种单摄像头的行人跟踪方法
CN107239744A (zh) * 2017-05-15 2017-10-10 深圳奥比中光科技有限公司 人体关联关系的监控方法、系统及存储装置
CN107677997A (zh) * 2017-09-28 2018-02-09 杭州电子科技大学 基于GLMB滤波和Gibbs采样的扩展目标跟踪方法
CN107677997B (zh) * 2017-09-28 2021-06-29 杭州电子科技大学 基于GLMB滤波和Gibbs采样的扩展目标跟踪方法
CN108280964A (zh) * 2018-02-02 2018-07-13 深圳市盛路物联通讯技术有限公司 一种数据处理的方法及装置
CN108921880A (zh) * 2018-06-11 2018-11-30 西安电子科技大学 一种基于多个单跟踪器的视觉多目标跟踪方法
CN108921880B (zh) * 2018-06-11 2022-05-03 西安电子科技大学 一种基于多个单跟踪器的视觉多目标跟踪方法
WO2021155653A1 (zh) * 2020-02-06 2021-08-12 青岛理工大学 基于协作差分进化滤波的人手-物体交互过程跟踪方法
CN113777943A (zh) * 2021-09-13 2021-12-10 珠海格力电器股份有限公司 一种智能设备控制方法、装置、智能设备和存储介质

Also Published As

Publication number Publication date
CN102148921B (zh) 2012-12-12

Similar Documents

Publication Publication Date Title
CN102148921B (zh) 基于动态群组划分的多目标跟踪方法
CN110472496B (zh) 一种基于目标检测与跟踪的交通视频智能分析方法
Atev et al. Learning traffic patterns at intersections by spectral clustering of motion trajectories
CN109509214B (zh) 一种基于深度学习的船舶目标跟踪方法
CN103077423B (zh) 基于视频流的人群数量估计、局部人群聚集状态以及人群跑动状态检测方法
CN110379168B (zh) 一种基于Mask R-CNN的交通车辆信息获取方法
US20110026770A1 (en) Person Following Using Histograms of Oriented Gradients
CN104657740A (zh) 用于分割用于车辆的驾驶员辅助系统的环境模型的占用栅格的方法和设备
CN102447835A (zh) 无盲区多目标协同跟踪方法及系统
CN102982341A (zh) 一种可跨摄像机的自适应人群密度估计方法
CN112578673B (zh) 无人方程式赛车多传感器融合的感知决策与跟踪控制方法
CN112298194B (zh) 一种车辆的换道控制方法及装置
CN106355604A (zh) 图像目标跟踪方法与系统
CN104637058A (zh) 一种基于图像信息的客流量识别统计方法
CN105760849A (zh) 基于视频的目标对象行为数据获取方法及装置
CN107730889B (zh) 一种基于交通视频的目标车辆检索方法
CN103310190A (zh) 基于异构主动视觉网络的人脸图像样本采集优化方法
CN113033899B (zh) 无人驾驶邻近车辆轨迹预测方法
CN103488993A (zh) 一种基于fast的人群异常行为识别方法
CN106446922A (zh) 一种人群异常行为分析方法
CN101576952A (zh) 一种检测静止目标的方法和装置
CN113592905B (zh) 基于单目摄像头的车辆行驶轨迹预测方法
CN109343051A (zh) 一种用于高级辅助驾驶的多传感器数据融合方法
CN104517125A (zh) 高速物体的图像实时跟踪方法与系统
Filatov et al. Any motion detector: Learning class-agnostic scene dynamics from a sequence of lidar point clouds

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: JIANGSU RUIAOFENG SOFTWARE TECHNOLOGY CO., LTD.

Free format text: FORMER OWNER: INSTITUTE OF AUTOMATION, CHINESE ACADEMY OF SCIENCES

Effective date: 20140721

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 100190 HAIDIAN, BEIJING TO: 210032 NANJING, JIANGSU PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20140721

Address after: 210032 Jiangsu province Nanjing city Pukou high tech Zone Huidalu No. 9 Zijin community room 221

Patentee after: JIANGSU RUIAOFENG SOFTWARE TECHNOLOGY CO., LTD.

Address before: 100190 Zhongguancun East Road, Beijing, No. 95, No.

Patentee before: Institute of Automation, Chinese Academy of Sciences

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121212

Termination date: 20180504

CF01 Termination of patent right due to non-payment of annual fee