CN102592138A - 基于多模块稀疏投影的密集场景目标跟踪方法 - Google Patents

基于多模块稀疏投影的密集场景目标跟踪方法 Download PDF

Info

Publication number
CN102592138A
CN102592138A CN2011104514246A CN201110451424A CN102592138A CN 102592138 A CN102592138 A CN 102592138A CN 2011104514246 A CN2011104514246 A CN 2011104514246A CN 201110451424 A CN201110451424 A CN 201110451424A CN 102592138 A CN102592138 A CN 102592138A
Authority
CN
China
Prior art keywords
target
multimode
vector
module
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011104514246A
Other languages
English (en)
Other versions
CN102592138B (zh
Inventor
邵洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Electric Power
University of Shanghai for Science and Technology
Original Assignee
Shanghai University of Electric Power
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Electric Power filed Critical Shanghai University of Electric Power
Priority to CN201110451424.6A priority Critical patent/CN102592138B/zh
Publication of CN102592138A publication Critical patent/CN102592138A/zh
Application granted granted Critical
Publication of CN102592138B publication Critical patent/CN102592138B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种基于多模块稀疏投影的密集场景目标跟踪方法,用稀疏投影法表征目标特征,针对密集场景中的严重的互遮挡问题,设计了基于多模块核彩色直方图的重构矩阵,并由此设计了相应的目标匹配和更新算法。此目标跟踪方法实现公共场所人流密集场景的目标自动跟踪,同时针对密集场景中的严重的互遮挡问题也给出了解决方法。

Description

基于多模块稀疏投影的密集场景目标跟踪方法
技术领域
本发明涉及一种计算机视觉领域,特别涉及一种基于多模块稀疏投影的密集场景目标跟踪方法。
背景技术
随着经济的飞速发展,社会的城市化程度越来越高,城市的人口密度越来越大,在公共场所的人群管理问题日益突出。出于对安全保障的需求,大多数的公共场所都安装了闭路电视监控系统(CCTV),特别在地铁、机场等客流密集场所,能够实现大范围的实时图像采集。然而,大多数采集到的影像必须依赖人工监视或者仅作为资料记录保存,没有能够达到实时智能监控的效果。
目标检测和跟踪是计算机视觉领域的基本方法,也为公共场所的智能监控提出了新的解决方法。虽然近年来目标检测与跟踪算法已有巨大的发展,然而密集场景中的目标跟踪对于传统跟踪算法而已仍然是一项巨大的挑战,其中最关键的原因在于传统算法很难区分场景中的大量混杂人群。由于运动的目标相互重叠的充斥了图像的整个或大部分区域,因此单个目标的背景通常为非静止状态。一方面,基于背景去除的静态背景目标检测和跟踪算法无法适用于此类场景;另一方面,基于运动背景的目标检测和跟踪算法无法处理存在大量互遮挡问题的场景。然而,往往在人群密集场所的异常事故发生率较其他场所更高,行人跟踪是人流密度和数据统计、群体行为分析的基础方法之一,所以关于密集场景的目标跟踪的研究在视频监控领域具有更大的发展需求和应用前景。
一个固定摄像头监控系统能够捕获到场景中所有的运动变化,而密集场景中的人群运动会体现为时间与空间域中大量具有不同速度和方向的像素变化。有时,由于人群过于拥挤,或遵循某些运动规则,使得场景中只存在有限种类的运动模式,这一类场景可以被称为有规律的密集场景。比如,排队下楼梯的人群,一群进行马拉松运动的人,或者马路上行驶的车辆等。除此以外,还有另一些密集场景中的运动是无序而杂乱的,在这种情况下,任意时刻发生在任意位置上的运动均不可预料。比如,在广场上自由行走的人,或者某个展览会场中随意参观的人群。这一类型可以称之为随机密集场景。近年来,大多数与密集场景目标跟踪有关的研究方法都只能解决规律密集场景中的目标跟踪。比如利用运动流检测密集客流运动模型或利用训练得到视频区域中每个模块的HMM状态转换模型实现模块运动路径判断。然而对于随机运动的密集场景,此类方法无法正确检测出任意单个目标的运动轨迹。其余一些关注密集场景中单人跟踪的研究成果经实验表明只能处理密集度较低,仅存在有限遮挡的场景。
稀疏投影法是一种针对目标特征的稀疏编码方式,它是压缩感知理论的一个方面。压缩感知理论突破了传统的奈奎斯特采样定理规定的范畴,采用远低于奈奎斯特标准的方式进行数据采样并仍能精确恢复原始信号。近两年这一方法被广泛应用于如人脸识别、图像恢复、纹理分割等研究领域,其原理为通过将目标特征向量(矩阵)投影至模板子空间实现模板权重系数向量的稀疏表达,这种稀疏表达体现为仅与目标特征最相关的子模板权重系数为非零值。作为一种特征提取和表示方法,稀疏投影法表现出了超然的优势和效果,但其适用于不同场景时还有很多需要斟酌的地方。比如重构矩阵的设计,算法的优化等。
发明内容
本发明是针对随机运动的密集场景无法正确检测出任意单个目标的运动轨迹的问题,提出了一种基于多模块稀疏投影的密集场景目标跟踪方法,实现公共场所人流密集场景的目标自动跟踪方法。
本发明的技术方案为:一种基于多模块稀疏投影的密集场景目标跟踪方法,包括如下具体步骤:
1)建立基于观测模型的多模块稀疏表示模型:                                               
Figure 2011104514246100002DEST_PATH_IMAGE002
,其中A为重构权值向量,T为模板重构基向量,
Figure 2011104514246100002DEST_PATH_IMAGE004
表示存在的噪声,重构矩阵T实现对目标x的稀疏投影;
2)以第一帧图像为模板人为选定目标,由此得到其中心点位置和区域大小,并根据这一数据初始化重构矩阵T,重构权重向量初始值为各分量均为1;
3)进入下一帧,通过粒子滤波器计算获得多个目标预测中心点位置;
4)针对每一个预测位置对应的目标预测区域进行分块,并计算其多模块观测模型X ,
Figure 2011104514246100002DEST_PATH_IMAGE006
Figure 2011104514246100002DEST_PATH_IMAGE008
表示目标的第n个特征向量,
Figure 2011104514246100002DEST_PATH_IMAGE010
,即共有N个特征向量,每个模块对应一个特征向量;
5)根据
Figure DEST_PATH_IMAGE012
计算得到最优目标位置
Figure DEST_PATH_IMAGE014
,作为当前帧的目标跟踪结果,其中最优重建权值向量
Figure 2011104514246100002DEST_PATH_IMAGE016
通过
Figure 2011104514246100002DEST_PATH_IMAGE018
得到,每个模块的重建权值向量
Figure 2011104514246100002DEST_PATH_IMAGE020
相互独立;
6)根据
Figure 174113DEST_PATH_IMAGE014
及其相对应的重构权重向量的值,更新重构矩阵T;
7)返回步骤3)进行下一帧的跟踪。
所述步骤4)观测模型X采用一种多特征表示方法建立,输入目标信号特征的数学表达从传统使用的向量形式转换为包含多向量的矩阵形式,算法在彩色直方图表示的基础上引入了一种多模块核彩色直方图表示法:将目标表示成一个矩形区域,将其分成7个部分模块,多模块核彩色直方图表示法的计算基于这7个部分子模块实现,第1个直方图基于整个前景物体区域;第2个到第5个直方图基于将目标矩形区四等份的四个子区域的计算;若保持目标矩形区的中心点不变,产生一个大小为原始矩形一半面积的区域,那么此区域为第6子模块,剩余部分为第7子模块;7个子模块分别对应特征矩阵
Figure 2011104514246100002DEST_PATH_IMAGE022
中的一个特征向量
Figure 601421DEST_PATH_IMAGE008
,因此在这里N=7,若定义
Figure 441201DEST_PATH_IMAGE024
为第n个子模块中的像素点,子模块n的中心点用
Figure 734910DEST_PATH_IMAGE026
表示,高斯核
Figure 27351DEST_PATH_IMAGE028
用于计算像素点的权重值,以实现越远离中心点的像素值对最终直方图分布结果影响越小。
本发明的有益效果在于:本发明基于多模块稀疏投影的密集场景目标跟踪方法,实现公共场所人流密集场景的目标自动跟踪,同时针对密集场景中的严重的互遮挡问题也给出了解决方法。
附图说明
图1为本发明多模块核彩色直方图的7个模块划分示例。
具体实施方式
由于稀疏投影法能够更为有效精确的表征目标特征,因此将其应用于密集客流场景的目标跟踪。针对密集场景中的严重的互遮挡问题,设计了基于多模块核彩色直方图的重构矩阵。并由此设计了相应的目标匹配和更新算法。
稀疏表示法
假设对第i个对象类存在充分的训练样本集,
Figure 946766DEST_PATH_IMAGE030
,则对于任意属于同一类的测试样本
Figure 641052DEST_PATH_IMAGE032
,可以通过训练样本的线性加权和来表示,即:
Figure 604198DEST_PATH_IMAGE034
     (1)
然而,因为测试样本所属类未知,因此重新定义矩阵T由k个对象类的n个训练样本组成,即:
Figure 107041DEST_PATH_IMAGE038
   (2)
因此,x能够通过所有训练样本的线性组合来表示,即有:
Figure 468883DEST_PATH_IMAGE040
(3)
其中,T被称为重构矩阵,为重构加权系数向量。现在已知x和T,求解
Figure 886275DEST_PATH_IMAGE042
。然而由于这个方程组有无穷多解,因此从另一种方面考虑,如果仅希望解尽可能稀疏,比如
Figure 85175DEST_PATH_IMAGE044
尽可能的小,即其中非零元素个数尽可能少,则可以求得满足这一条件的最优解。此时,
Figure 800059DEST_PATH_IMAGE046
,除第i个对象类的样本所对应的系数为非零值外,其他
Figure 59002DEST_PATH_IMAGE042
所含元素全为0,称
Figure 875648DEST_PATH_IMAGE042
为基于T的x的稀疏表达。
其严格定义为:
Figure 612660DEST_PATH_IMAGE048
              (4)
可以证明,在存在满足某种条件的常数的情况下,如果
Figure 378939DEST_PATH_IMAGE052
    (5)
则0范数优化与1范数优化问题的解相同。由此可以得到寻找x的稀疏表达的过程可以定义为:
Figure 417302DEST_PATH_IMAGE054
               (6)
由于1范数求解问题为一个凸优化问题,因此,式(6)的解即为式(3)问题的唯一解。所谓凸优化(Convex Optimization)问题,是指目标函数为凸函数,约束变量取值于一个凸集中的优化问题。
事实上,由于在实际工程处理中都存在噪声,因此式(3)在实际应用中应写成如下形式:
Figure 936498DEST_PATH_IMAGE056
                 (7)
则通过1范数求解
Figure 271664DEST_PATH_IMAGE042
的最优稀疏值的计算为公式(8)所示。
Figure 62903DEST_PATH_IMAGE058
            (8)
本发明实现方法中采用的观测模型:
本发明采用一种多特征表示方法建立观测模型:
Figure 141717DEST_PATH_IMAGE022
Figure 452744DEST_PATH_IMAGE060
表示目标的第n个特征向量。因此在本模型中,输入目标信号特征的数学表达从传统使用的向量形式转换为包含多向量的矩阵形式。为了使此观测模型矩阵中不仅包含目标的整体信息还包含局部信息,算法在彩色直方图表示的基础上引入了一种多模块核彩色直方图表示法,如图1所示。
如果将目标表示成一个矩形区域,那么可以将其分成7个部分模块。多模块核彩色直方图表示法的计算基于这7个部分子模块实现。第1个直方图基于整个前景物体区域,第2个到第5个直方图基于将目标矩形区四等份的四个子区域的计算。若保持目标矩形区的中心点不变,产生一个大小为原始矩形一半面积的区域,那么此区域为第6子模块,剩余部分为第7子模块。7个子模块分别对应特征矩阵
Figure 958812DEST_PATH_IMAGE022
中的一个特征向量
Figure 175029DEST_PATH_IMAGE008
,因此在这里N=7。
若定义为第n个子模块中的像素点,子模块n的中心点用
Figure 472336DEST_PATH_IMAGE026
表示,高斯核
Figure 726468DEST_PATH_IMAGE028
用于计算像素点的权重值,以实现越远离中心点的像素值对最终直方图分布结果影响越小。因此,
Figure 164403DEST_PATH_IMAGE008
的第j个颜色统计特征值为:
Figure 647337DEST_PATH_IMAGE062
   (9)
上式中,
Figure 119906DEST_PATH_IMAGE064
表示第n个子模块中像素值等于j的像素点的组合,c为归一化系数。因此,可以得到
Figure 780826DEST_PATH_IMAGE008
的表示,
Figure 706057DEST_PATH_IMAGE008
为d维向量:
             (10)
基于观测模型的稀疏表示模型
根据建立的观测模型,在基本的稀疏表示方法的基础上,设计适用于本类应用的重构矩阵T。因此,这一部分的关键问题是如何使用基于模板子空间的重构矩阵T实现对目标x的稀疏投影表示,T的每一列向量被称为模板重构基向量,
Figure 319758DEST_PATH_IMAGE004
表示存在的噪声。重构权值向量A可由求解1范数正则化最小二乘问题求得,这一方法将在下一部分具体论述。 
Figure 915693DEST_PATH_IMAGE002
                       (11)
 在密集场景视频跟踪中,噪声和部分遮挡是最常见的两种问题。尤其遮挡的发生常常会使目标检测结果产生不可预料的错误从而影响整个跟踪过程的正确性。遮挡体现为一片非目标区域占据了目标位置,且大多数情况下,仅有部分目标区域被遮挡。因此,在本方法中,目标区域被分成了多个分割模块进行特征提取,这样,非遮挡区域提取的特征仍然可以在稀疏投影过程中确认目标的最优估计位置。相对应于这一思路,重构矩阵
Figure DEST_PATH_IMAGE068
,共包含N组模板,每组模板分别对应一个目标模块。每组中包括M个不同的模板
Figure DEST_PATH_IMAGE070
。每个模板的初始化都在视频的第一帧计算得到,对应于同一子模块的不同模板的采集位置是通过对原模板位置的上下左右单像素距离移动得到。之后在每一帧的计算中将对模板值进行更新以适应目标运动变化。假设当前帧的某一跟踪目标的特征表示为
Figure DEST_PATH_IMAGE072
。作为公式(11)的扩展,任一子模块特征均可表示为:
Figure DEST_PATH_IMAGE074
                   (12)
Figure DEST_PATH_IMAGE076
,是本算法使用的重建权值向量。
基于稀疏重构的目标匹配方法:
目标实现稀疏表示后,在跟踪过程中通过将稀疏特征重构,并与预测区域匹配的方法确定其在当前时刻(帧)的最优位置。目标位置预测采用粒子滤波的方法完成,在粒子滤波后,可以得到多个当前时刻(帧)的目标预测点(粒子),将粒子滤波产生的粒子
Figure DEST_PATH_IMAGE078
作为候选观测区域的中心点,大小为初始模板大小,根据观测模型计算出相应值代入根据公式(12),即将每个粒子对应位置的多模块外表特征X用于基于模板匹配的稀疏投影。因此首先我们需要计算X与重建权重向量A的关系。在已知重构矩阵T的情况下,定义函数,通过L1正则化最小二乘问题计算观测候选项
Figure DEST_PATH_IMAGE082
Figure 639804DEST_PATH_IMAGE008
的置信度,以及最优稀疏向量
Figure 402224DEST_PATH_IMAGE016
Figure DEST_PATH_IMAGE084
                 (13)
式中,
Figure DEST_PATH_IMAGE086
为正则化参数。通过第一项
Figure DEST_PATH_IMAGE088
可以得到稀疏投影重建差。这一项的值越小,模板与观测项子模块就越相似。第二项为稀疏向量正则化,这一项的存在保证了求解L1最小值问题的结果将更有利于范数较大的模板,即假设当模板
Figure DEST_PATH_IMAGE090
为当前帧最优模板时,
Figure DEST_PATH_IMAGE092
越大,所需重建权重越小,
Figure 288326DEST_PATH_IMAGE080
的值也越小。
是公式(13)中的潜在变量,因此,为了能够找到最优跟踪结果,需要针对每一个
Figure 1198DEST_PATH_IMAGE008
最小化公式(13)。L1正则化最小二乘问题可通过Lasso问题求解法实现,这一方法已存在公开代码,在此不再赘述。
求解出对应于每个
Figure 567309DEST_PATH_IMAGE008
的重建权值向量
Figure 603398DEST_PATH_IMAGE094
后,最优重建权值向量
Figure 291868DEST_PATH_IMAGE016
通过下式得到:
Figure 678987DEST_PATH_IMAGE018
                     (14)
每个模块的重建权值向量
Figure 94794DEST_PATH_IMAGE020
相互独立,因此,每个向量的优化也相互独立。针对目标整体特征
Figure 250969DEST_PATH_IMAGE082
,式(14)的优化过程可以表示为求解:
Figure DEST_PATH_IMAGE096
                (15)
Figure 110340DEST_PATH_IMAGE016
相对应的观察候选项是最终跟踪结果。用表示t帧时
Figure DEST_PATH_IMAGE100
个观察粒子对应外表状态特征,则最终跟踪结果表示为:
Figure 594543DEST_PATH_IMAGE012
                 (16)
重构矩阵的更新:
目标物体的外表特征会随着内外部因素的变化而发生改变。因此,为了更稳定的实现精确跟踪,在重构矩阵T在设定初值后必须每帧在线更新。为了能够自适应的更新模板,本算法充分使用了重建权重向量A的特点。重建权重向量A是一个稀疏向量,其中每一个元素值
Figure DEST_PATH_IMAGE102
可看作每一个子模板的权重,观测值与子模板的关联越大,相应的权重值越大,因此A的元素值可看作子模板与观测值的关联程度。除此之外,式(13)中
Figure 141936DEST_PATH_IMAGE088
项的存在表明,与观测值最相关的子模板
Figure 152618DEST_PATH_IMAGE104
的范数越大,其对应的权重
Figure 933623DEST_PATH_IMAGE102
值越小。而式中的第二项
Figure DEST_PATH_IMAGE106
的存在使我们期望A的范数尽可能的小。因此,在模板的自动更新过程中,我们需要给关联度更大的模板赋予更大的范数值。
当重构矩阵T初始化后,将对其进行归一化计算。因此,从第2帧开始的第t帧,我们都可以将
Figure DEST_PATH_IMAGE108
的梯度下降值作为调节量实现对
Figure DEST_PATH_IMAGE110
的更新。
Figure DEST_PATH_IMAGE112
                (17)
上式中的
Figure DEST_PATH_IMAGE114
来自于公式(13),
Figure DEST_PATH_IMAGE116
。        (18)
因此,得到:
Figure DEST_PATH_IMAGE118
。                (19)
在更新后,T再进行归一化处理。
Figure DEST_PATH_IMAGE120
为学习率,可以看到在式(19)中,的存在使得随着时间的推移,当前目标的变化对模板变化的影响逐渐变小。
具体实施步骤:
1、以第一帧图像为模板人为选定目标,由此得到其中心点位置和区域大小。并根据这一数据初始化重构矩阵T。重构权重向量初始值为各分量均为1。
2、进入下一帧,通过粒子滤波器计算获得多个目标预测中心点位置。
3、针对每一个预测位置对应的目标预测区域,计算其观测模型X。
4、根据公式(16)计算得到最优目标位置
Figure 279023DEST_PATH_IMAGE014
,作为当前帧的目标跟踪结果。
5、根据
Figure 787364DEST_PATH_IMAGE014
及其相对应的重构权重向量的值,更新重构矩阵T。
6、继续到第2步开始执行。

Claims (2)

1.一种基于多模块稀疏投影的密集场景目标跟踪方法,其特征在于,包括如下具体步骤:
1)建立基于观测模型的多模块稀疏表示模型,其中A为重构权值向量,T为模板重构基向量,
Figure 73834DEST_PATH_IMAGE004
表示存在的噪声,重构矩阵T实现对目标x的稀疏投影;
2)以第一帧图像为模板人为选定目标,由此得到其中心点位置和区域大小,并根据这一数据初始化重构矩阵T,重构权重向量初始值为各分量均为1;
3)进入下一帧,通过粒子滤波器计算获得多个目标预测中心点位置;
4)针对每一个预测位置对应的目标预测区域进行分块,并计算其多模块观测模型X ,
Figure 847755DEST_PATH_IMAGE006
Figure 712943DEST_PATH_IMAGE008
表示目标的第n个特征向量,
Figure 664849DEST_PATH_IMAGE010
,即共有N个特征向量,每个模块对应一个特征向量;
5)根据计算得到最优目标位置,作为当前帧的目标跟踪结果,其中最优重建权值向量
Figure DEST_PATH_IMAGE016
通过
Figure DEST_PATH_IMAGE018
得到,每个模块的重建权值向量
Figure DEST_PATH_IMAGE020
相互独立;
6)根据
Figure 919485DEST_PATH_IMAGE014
及其相对应的重构权重向量的值,更新重构矩阵T;
7)返回步骤3)进行下一帧的跟踪。
2.根据权利要求1所述基于多模块稀疏投影的密集场景目标跟踪方法,其特征在于,所述步骤4)观测模型X采用一种多特征表示方法建立,输入目标信号特征的数学表达从传统使用的向量形式转换为包含多向量的矩阵形式,算法在彩色直方图表示的基础上引入了一种多模块核彩色直方图表示法:将目标表示成一个矩形区域,将其分成7个部分模块,多模块核彩色直方图表示法的计算基于这7个部分子模块实现,第1个直方图基于整个前景物体区域;第2个到第5个直方图基于将目标矩形区四等份的四个子区域的计算;若保持目标矩形区的中心点不变,产生一个大小为原始矩形一半面积的区域,那么此区域为第6子模块,剩余部分为第7子模块;7个子模块分别对应特征矩阵
Figure DEST_PATH_IMAGE022
中的一个特征向量
Figure 42293DEST_PATH_IMAGE008
,因此在这里N=7,若定义
Figure DEST_PATH_IMAGE024
为第n个子模块中的像素点,子模块n的中心点用
Figure DEST_PATH_IMAGE026
表示,高斯核
Figure DEST_PATH_IMAGE028
用于计算像素点的权重值,以实现越远离中心点的像素值对最终直方图分布结果影响越小。
CN201110451424.6A 2011-12-30 2011-12-30 基于多模块稀疏投影的密集场景目标跟踪方法 Expired - Fee Related CN102592138B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110451424.6A CN102592138B (zh) 2011-12-30 2011-12-30 基于多模块稀疏投影的密集场景目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110451424.6A CN102592138B (zh) 2011-12-30 2011-12-30 基于多模块稀疏投影的密集场景目标跟踪方法

Publications (2)

Publication Number Publication Date
CN102592138A true CN102592138A (zh) 2012-07-18
CN102592138B CN102592138B (zh) 2014-04-30

Family

ID=46480748

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110451424.6A Expired - Fee Related CN102592138B (zh) 2011-12-30 2011-12-30 基于多模块稀疏投影的密集场景目标跟踪方法

Country Status (1)

Country Link
CN (1) CN102592138B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103024349A (zh) * 2012-11-13 2013-04-03 大连民族学院 一种基于稀疏限制的mle视频目标跟踪方法
CN103077537A (zh) * 2013-01-15 2013-05-01 北京工业大学 基于l1正则化的实时运动目标跟踪的新方法
CN103077535A (zh) * 2012-12-31 2013-05-01 中国科学院自动化研究所 一种基于多任务联合稀疏表示的目标跟踪方法
CN103440645A (zh) * 2013-08-16 2013-12-11 东南大学 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法
CN105007057A (zh) * 2015-07-09 2015-10-28 杭州电子科技大学 一种针对有限集跟踪滤波器的均匀密集杂波稀疏方法
CN105096343A (zh) * 2015-08-14 2015-11-25 中国联合网络通信集团有限公司 一种移动目标跟踪方法及装置
CN106203360A (zh) * 2016-07-15 2016-12-07 上海电力学院 基于多级过滤模型的密集场景人群分群检测算法
CN106874881A (zh) * 2017-02-23 2017-06-20 电子科技大学 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法
CN109508575A (zh) * 2017-09-14 2019-03-22 深圳超多维科技有限公司 人脸跟踪方法及装置、电子设备和计算机可读存储介质
CN110189356A (zh) * 2019-04-24 2019-08-30 沈阳大学 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法
CN110648351A (zh) * 2019-09-19 2020-01-03 安徽大学 基于稀疏表示的多外观模型融合目标跟踪方法及其装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法
CN102148921A (zh) * 2011-05-04 2011-08-10 中国科学院自动化研究所 基于动态群组划分的多目标跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法
CN102148921A (zh) * 2011-05-04 2011-08-10 中国科学院自动化研究所 基于动态群组划分的多目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MIKEL RODRIGUEZ,ET AL.: "《Tracking in Unstructured Crowded Scenes》", 《2009 IEEE 12TH INTERNATIONAL CONFERENCE ON COMPUTER VISION》, 31 December 2009 (2009-12-31), pages 1389 - 1396 *
XUE MEI,HAIBIN LING: "《Robust Visual Tracking and Vehicle》", 《TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 33, no. 11, 30 November 2011 (2011-11-30), pages 2259 - 2272 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103024349B (zh) * 2012-11-13 2015-05-13 大连民族学院 一种基于稀疏限制的mle视频目标跟踪方法
CN103024349A (zh) * 2012-11-13 2013-04-03 大连民族学院 一种基于稀疏限制的mle视频目标跟踪方法
CN103077535A (zh) * 2012-12-31 2013-05-01 中国科学院自动化研究所 一种基于多任务联合稀疏表示的目标跟踪方法
CN103077535B (zh) * 2012-12-31 2015-09-30 中国科学院自动化研究所 一种基于多任务联合稀疏表示的目标跟踪方法
CN103077537A (zh) * 2013-01-15 2013-05-01 北京工业大学 基于l1正则化的实时运动目标跟踪的新方法
CN103077537B (zh) * 2013-01-15 2015-07-15 北京工业大学 基于l1正则化的实时运动目标跟踪的新方法
CN103440645B (zh) * 2013-08-16 2016-04-27 东南大学 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法
CN103440645A (zh) * 2013-08-16 2013-12-11 东南大学 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法
CN105007057B (zh) * 2015-07-09 2018-08-24 杭州电子科技大学 一种针对有限集跟踪滤波器的均匀密集杂波稀疏方法
CN105007057A (zh) * 2015-07-09 2015-10-28 杭州电子科技大学 一种针对有限集跟踪滤波器的均匀密集杂波稀疏方法
CN105096343A (zh) * 2015-08-14 2015-11-25 中国联合网络通信集团有限公司 一种移动目标跟踪方法及装置
CN105096343B (zh) * 2015-08-14 2018-10-30 中国联合网络通信集团有限公司 一种移动目标跟踪方法及装置
CN106203360A (zh) * 2016-07-15 2016-12-07 上海电力学院 基于多级过滤模型的密集场景人群分群检测算法
CN106874881A (zh) * 2017-02-23 2017-06-20 电子科技大学 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法
CN106874881B (zh) * 2017-02-23 2019-09-24 电子科技大学 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法
CN109508575A (zh) * 2017-09-14 2019-03-22 深圳超多维科技有限公司 人脸跟踪方法及装置、电子设备和计算机可读存储介质
CN110189356A (zh) * 2019-04-24 2019-08-30 沈阳大学 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法
CN110189356B (zh) * 2019-04-24 2023-05-12 沈阳大学 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法
CN110648351A (zh) * 2019-09-19 2020-01-03 安徽大学 基于稀疏表示的多外观模型融合目标跟踪方法及其装置

Also Published As

Publication number Publication date
CN102592138B (zh) 2014-04-30

Similar Documents

Publication Publication Date Title
CN102592138B (zh) 基于多模块稀疏投影的密集场景目标跟踪方法
Wang et al. Pixel-wise crowd understanding via synthetic data
Ke et al. Multi-dimensional traffic congestion detection based on fusion of visual features and convolutional neural network
Yang et al. Video scene understanding using multi-scale analysis
Saleemi et al. Scene understanding by statistical modeling of motion patterns
CN103116987B (zh) 一种基于监控视频处理的车流统计和违规检测的方法
Apeltauer et al. Automatic vehicle trajectory extraction for traffic analysis from aerial video data
CN104680557A (zh) 视频序列图像中的异常行为智能检测方法
Li et al. Traffic anomaly detection based on image descriptor in videos
Giannakeris et al. Speed estimation and abnormality detection from surveillance cameras
CN102750712B (zh) 一种基于局部时空流形学习的运动目标分割方法
CN101729872A (zh) 一种基于视频监控图像自动判别道路交通状态的方法
Bour et al. Crowd behavior analysis from fixed and moving cameras
Gong et al. Local distinguishability aggrandizing network for human anomaly detection
CN110633678A (zh) 一种基于视频图像的快速高效的车流量计算方法
CN114372503A (zh) 一种集群车辆运动轨迹预测方法
CN106384359A (zh) 运动目标跟踪方法和电视
Desai et al. Smart road surveillance using image processing
Sun et al. Automated human use mapping of social infrastructure by deep learning methods applied to smart city camera systems
Kwon et al. Scene modeling-based anomaly detection for intelligent transport system
Kaviani et al. A new method for traffic density estimation based on topic model
Khan et al. Integrated analysis and synthesis of pedestrian dynamics: First results in a real world case study
Delavarian et al. Multi‐camera multiple vehicle tracking in urban intersections based on multilayer graphs
Parvathy et al. Anomaly detection using motion patterns computed from optical flow
Shahraki et al. A trajectory based method of automatic counting of cyclist in traffic video data

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140430

Termination date: 20161230