CN107194950A - 一种基于慢特征分析的多人跟踪方法 - Google Patents

一种基于慢特征分析的多人跟踪方法 Download PDF

Info

Publication number
CN107194950A
CN107194950A CN201710287811.8A CN201710287811A CN107194950A CN 107194950 A CN107194950 A CN 107194950A CN 201710287811 A CN201710287811 A CN 201710287811A CN 107194950 A CN107194950 A CN 107194950A
Authority
CN
China
Prior art keywords
path segment
slow
video
tracking
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710287811.8A
Other languages
English (en)
Other versions
CN107194950B (zh
Inventor
聂为之
彭文娟
苏育挺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201710287811.8A priority Critical patent/CN107194950B/zh
Publication of CN107194950A publication Critical patent/CN107194950A/zh
Application granted granted Critical
Publication of CN107194950B publication Critical patent/CN107194950B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

一种基于慢特征分析的多人跟踪方法,包括:采用基于部分的可变形模型方法检测视频中每帧出现的人;获取视频中人的运动轨迹的特征向量;将提取的特征向量作为输入,采用增量慢特征分析方法训练每个轨迹片段的个体传递函数,通过个体传递函数提取每个轨迹片段的慢特征;采用图匹配方法计算轨迹片段间的匹配分数,得到不同轨迹之间的相似性,其中相似性最大的为最佳匹配的轨迹片段,利用最佳匹配轨迹片段更新个体传递函数;重复上述过程,直至测试视频结束;将最佳匹配轨迹片段融合,得到每个跟踪对象的一个轨迹。本发明避免了变化的场景和对象遮挡对轨迹生成可靠性的负面影响,提高了跟踪精度,降低了计算的复杂度。

Description

一种基于慢特征分析的多人跟踪方法
技术领域
本发明涉及一种多人跟踪方法。特别是涉及一种基于慢特征分析的多人跟踪方法。
背景技术
多目标跟踪已成为过去十年的一个先进研究热点,该技术具有广泛的应用和发展前景[1],如目标跟踪和识别,智能视频监控,交通控制,医疗诊断和工业机器人等。多目标跟踪技术近年来取得了巨大的成就,但由于图像的快速变化和对象运动的复杂性,多目标跟踪它也变得非常困难。
近年来,提出了许多方法来处理多人跟踪问题,这些方法主要包含三个关键技术,对象检测,轨迹生成和数据关联。
针对对象检测,已经开发了许多方法以获得准确的结果。Gall等人[2]利用广义休克变换来处理对象检测,其中单个对象部分的检测对整个对象的质心的可能位置进行概率投票;Sermanet等人[3]提出了一种完全连接的层被训练以预测用于假定单个对象的本地化任务的框坐标;但这些方法没有带来大的改进。轨迹生成步骤中,可以使用许多传统的跟踪算法[4],包括Meanshift和Kalman。然而,遮挡条件通常限制这些方法的性能;Bae等人应用在线提供的检测来增加可靠的轨迹。Wen等人应用检测的空间-时间信息来产生一组可靠的轨迹片段;所有这些方法都用于产生短期轨迹,这使跟踪结果很难有的大的改进。数据关联是跟踪进度中的关键步骤,它决定了最终跟踪的准确性。Perez等人[5]提出了基于粒子滤波视觉跟踪器融合三个线索的新方法。其跟踪由相机捕获的图像序列中的指定对象或感兴趣区域,并且随着对象的照明,运动和位置的变化而实现良好的鲁棒性,但是其不考虑用于多个对象跟踪的自适应系统;Babenko等人[6]提出了一种新颖的在线多实例学习(MIL)算法,以避免由于跟踪器中的微小不精确导致的跟踪误差,并且其在对象跟踪中实现了良好的结果。然而,它不能很好地处理自适应问题。
多人跟踪问题目前面临的主要挑战为:在动态变化的复杂场景中,多人跟踪问题受到照明的变化、图像分辨率和多物体遮挡的影响,使得检测和跟踪结果的鲁棒性受到很大制约。
发明内容
本发明所要解决的技术问题是,提供一种能够提高跟踪精度,降低计算的复杂度的基于慢特征分析的多人跟踪方法。
本发明所采用的技术方案是:一种基于慢特征分析的多人跟踪方法,包括如下步骤:
1)采用基于部分的可变形模型方法检测视频中每帧出现的人;
2)获取视频中人的运动轨迹的特征向量;
3)将提取的特征向量作为输入,采用增量慢特征分析方法训练每个轨迹片段的个体传递函数,通过个体传递函数提取每个轨迹片段的慢特征;
4)采用图匹配方法计算轨迹片段间的匹配分数,得到不同轨迹之间的相似性,其中相似性最大的为最佳匹配的轨迹片段,利用最佳匹配轨迹片段更新个体传递函数;
5)重复步骤2)~步骤4),直至测试视频结束;
6)将最佳匹配轨迹片段融合,得到每个跟踪对象的一个轨迹。
步骤1)首先通过背景差分,得到每个视频帧的运动区域,然后应用基于部分的人体检测器检测前景中的人体。
步骤2)包括:
(1)利用时间和空间约束,将视频中人的运动轨迹生成一组可靠的轨迹片段;
(2)将生成的轨迹片段平均地分割成八个部分,提取每一部分的方向梯度直方图和色度饱和度亮度特征;
(3)将所有八个部分的特征连接成一个特征向量。
步骤3)包括:通过非线性函数对轨迹片段的特征空间进行非线性扩展,将慢特征分析转化为线性分析,采用互补的增量主成份分析算法预处理视频数据和顺序输入的特征向量以计算主成分,采用次要成份分析算法处理慢特征提取,最终得到目标函数最优解的线性组合,即每个轨迹片段的慢特征。
本发明的一种基于慢特征分析的多人跟踪方法,避免了变化的场景和对象遮挡对轨迹生成可靠性的负面影响,提高了跟踪精度,降低了计算的复杂度。具有如下有益效果:
1.提出了一种新的跟踪框架来处理多个对象跟踪,重新设计轨迹片的特征提取方法,有效提高最终跟踪精度;
2.对多个对象跟踪问题首次使用缓慢特征分析,并获得了明显的改善;
3.所提出的方法具有很强的适应性,可以在多视图场景中用于对象跟踪。
附图说明
图1是本发明一种基于慢特征分析的多人跟踪方法的流程图;
图2是Pets-2012测试集的跟踪效果图。
具体实施方式
下面结合实施例和附图对本发明的一种基于慢特征分析的多人跟踪方法做出详细说明。
研究表明:行人可以被看作是一个长时间的运动和变化的信号,慢特征分析[7]可以从快速变化的输入信号中提取缓慢变化的特征或不变的特征,非常适合于提取行人的特征。本发明提出了一种基于慢特征分析的多人跟踪方法。
如图1所示,本发明的一种基于慢特征分析的多人跟踪方法,包括如下步骤:
1)采用基于部分的可变形模型(DPM)方法检测视频中每帧出现的人;具体是,首先通过背景差分,得到每个视频帧的运动区域,然后应用基于部分的人体检测器检测前景中的人体。
基于DPM方法[8]利用根滤波器在检测区域上定位人体的各个部分,人体的最终决策分数由所有的部分滤波器和根过滤器的响应计算。一个含有n个部分的被检人体的模型可以用n+2维向量(F0,p1,...,pi,...,pn,b)表示,F0为根滤波器,代表人体的整体轮廓,pi为第i个部分,b表示偏置项。位置(x0,y0)处的检测分数:
其中,n表示人体部分总数;s(pi)表示第i个部分的分数:
s(pi)=Fpi·φ(H,pi)-dpi·φd(dx,dy)
其中,Fpi表示第i个部分滤波器;φ(H,pi)表示在特征金字塔H级中坐标为(x0,y0)处检测窗口特征向量;dpi表示第i部分实际位置相对于锚点的形变代价;代表形变特征。
当行人体可以被根滤波器检测到时,每一个部分滤波器可以用于定位特定的身体部分,并将其得分投入到最终决策分数。
2)获取视频中人的运动轨迹的特征向量x(t)=[x1(t),...,xD(t)]T;包括:
(1)利用时间和空间约束,将视频中人的运动轨迹生成一组可靠的轨迹片段T={t1,...,tN}。
轨迹片段可以基于上述人体检测结果通过逐帧关联生成,检测结果可能包括许多故障,例如漂移,遮挡等。因此,实施中只选择可靠的轨迹片段,当连续帧中人体的边界框足够近并且在人体附近没有额外的边界框时,轨迹片段被认为是可靠的。
(2)将生成的轨迹片段平均地分割成八个部分,提取每一部分的方向梯度直方图(HoG)和色度饱和度亮度(HSV)特征;
(3)将所有八个部分的特征连接成一个特征向量,即对人体的每个部分应用归一化,将所有八个部分特征连接成一个特征向量x(t)=[x1(t),...,xD(t)]T
3)将提取的特征向量x(t)=[x1(t),...,xD(t)]T作为输入,采用增量慢特征分析(IncSFA)方法训练每个轨迹片段的个体传递函数g(x)=[g1(x),...,gj(x)]T,通过个体传递函数提取每个轨迹片段的慢特征y(t)=[y1(t),...,yJ(t)]T;包括:
通过非线性函数对轨迹片段的特征空间进行非线性扩展,将慢特征分析转化为线性分析,检测对象的慢特征可以表示为:yj(t)=gj(x(t)),其中j∈{1,...,J},通过SFA方法找到使输出信号尽可能缓慢变化的瞬时函数gj(x)。
采用互补的增量主成份分析(CCIPCA)算法预处理视频数据和顺序输入的特征向量以计算主成分,具体是:
采用对时间的一阶导数平方均值的方法来衡量变化的速率,求解变化速率最慢的优化问题目标函数为:其中表示输出信号y关于时间t的一阶导数,<·>表示时间平均。考虑瞬时函数gj(x)被约束为一组非线性函数集h的线性组合,即定义z(t)=h(x(t)),则目标函数可以表示为:
为寻找这样的h,对z(t)进行白化处理:使z(t)的协方差矩阵成为一个单位矩阵,即<zzT>=I,同时,白化过程减去了矩阵的平均值,即<z>=0,白化矩阵S可由主成分分析方法计算得到。
下面介绍白化矩阵的具体求解过程:
计算函数可以写为:其中,u=x-E[x],d∈{1,...,D},E[uuT]为特征序列的协方差期望矩阵,表示广义特征向量,表示特征值。将特征值排序使得白化过程可表示为其中, 是对角矩阵,其每一个元素为 通过CCIPCA估计得到。
具体的估计公式为:
通过对矩阵进行主成分分析,得到对应的J个规范特征向量和J个最小特征值的集合,进行标准化后得到:
采用次要成份分析(MCA)算法处理慢特征提取,最终得到目标函数最优解的线性组合,即每个轨迹片段的慢特征。具体是:
定义对于正定矩阵C,其特征向量表示为γI-C,其中,γ>λ1,λ1为自相关矩阵的最大特征值。
考虑学习速率,采用一种评估合适的学习速率的方法[9]如下:
w(t)=1.5w(t-1)-ηCdw(t-1)-η(wT(t-1)w(t-1))w(t-1)
其中,ηλ1=0.5、||w(0)||2≠0、||wT(0)w*||2≠0,的第一个次分量,可以通过CCIPCA计算得到;w(0)为第一特征估计,并且精确特征向量附属于最小特征值。
对于任意的d>1,Cd计算公式为:
其中,γ需要大于的最大特征值,根据一般设置,通过MCA可以计算出信号的最大特征值W(t)。
最后,轨迹片段提取的慢特征为:y(t)=z(t)TW(t)。
4)采用图匹配方法(CGM)计算轨迹片段间的匹配分数S(p,q),得到不同轨迹之间的相似性,其中相似性最大的为最佳匹配的轨迹片段,利用最佳匹配轨迹片段更新个体传递函数g(x);
轨迹片段p与轨迹片段q间匹配分数计算公式为:
其中,Dscale为比例因子,Dscale=0.1;分数越高,匹配效果越好,选择最佳匹配结果更新个体传递函数g(x)。
5)重复步骤2)~步骤4),直至测试视频结束;
6)将最佳匹配轨迹片段融合,得到每个跟踪对象的一个轨迹。
下面给出一实例
本实例选用PETS 2012数据集来测试跟踪方法的性能。该数据集包括8个视频序列,这些视频序列的分辨率是768×576,数据集中存在遮挡、拥挤的场景和杂乱的背景,具有一定挑战性,其所有的视频序列来自同一个场景在不同的角度,所以数据集可以看作是一个多摄像机跟踪数据集。测试结果如图2所示。
评估标准
不失一般性的,本实例使用标准的CLEARMOT指标[10]评估跟踪结果,共有三个指标TA、DP和DA。其中,DA和DP用于测试检测结果,分数越高越好;TA用于评价跟踪的实例结果,分数越高越好;TA和DA之间的差异可用于评估匹配结果,分数越小越好。
对比算法
实例中将本方法与Nie等人提出的方法进行对比:
Nie等人提出的方法:通过相邻帧中的对象定位结果之间的逐帧关联生成可靠的轨迹,所产生的轨迹片通过考虑空间和时间约束来相关联,以输出个人的整个轨迹。
实验结果
由表1可知,SFA可以有效地提高基于传统视觉特征的跟踪精度。这是由于SFA可以有效地从原始特征向量提取鲁棒性特征,并减少冗余信息,以改善最终跟踪结果;由表2可知,本方法胜过比较的方法。这是由于Nie等人提出的方法忽略跟踪对象在时间序列中的形状变化,本方法充分轨迹的形状变化并利用平均图像来提取全局特征。实验结果验证了本方法的可行性与优越性。
表1
Datasets HoG SFA-HoG CNN SFA-CNN
PETS2012 34.1 36.2 77.3 78.1
表2
Method MOTA MODA MODP
Nieetal[6](%) 72.4 72.8 75.8
SFG+HSV&HSV(%) 74.9 75.1 75.2
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
[1]李彤.智能视频监控下的多目标跟踪技术研究[D].中国科学技术大学,2013.[2]Juergen Gall andVictor Lempitsky.Class-specific hough forests forobjectdetection.In Decision forests for computer vision andmedical imageanalysis,pages 143–157.Springer,2013.
[3]Pierre Sermanet,David Eigen,Xiang Zhang,Micha¨el Mathieu,RobFergus,andYannLeCun.Overfeat:Integrated recognition,localization anddetectionusing convolutional networks.arXiv preprint arXiv:1312.6229,2013.
[4]刘守达.基于多目标跟踪及轨迹组合优化的视频摘要[D].厦门大学,2014.
[5]P.Perez,J.Vermaak,andA.Blake.Data fusion for visual trackingwithparticles.Proceedings of the IEEE,92(3):495–513,2004.
[6]Boris Babenko,Ming Hsuan Yang,and Serge Belongie.Robust objecttrackingwith online multiple instance learning.Pattern Analysis andMachineIntelligence IEEE Transactions on,33(8):1619–1632,2011.
[7]陈婷婷,阮秋琦,安高云.视频中人体行为的慢特征提取算法[J].智能系统学报,2015,03:381-386.
[8]李斌.基于DPM的交通标志检测算法研究[D].北京交通大学,2015
[9].J¨urgenSchmidhuber andDaniel Prelinger.Discovering predictableclassifications.
Neural Computation,5(4):625–635,1993.
[10]R.Kasturi,D.B.Goldgof,P.Soundararajan,and et al.Frameworkforperformance evaluation of face,text,and vehicle detection and trackinginvideo:Data,metrics,and protocol.IEEE Trans.PatternAnal.Mach.Intell.,31(2):319–336,2009.

Claims (4)

1.一种基于慢特征分析的多人跟踪方法,其特征在于,包括如下步骤:
1)采用基于部分的可变形模型方法检测视频中每帧出现的人;
2)获取视频中人的运动轨迹的特征向量;
3)将提取的特征向量作为输入,采用增量慢特征分析方法训练每个轨迹片段的个体传递函数,通过个体传递函数提取每个轨迹片段的慢特征;
4)采用图匹配方法计算轨迹片段间的匹配分数,得到不同轨迹之间的相似性,其中相似性最大的为最佳匹配的轨迹片段,利用最佳匹配轨迹片段更新个体传递函数;
5)重复步骤2)~步骤4),直至测试视频结束;
6)将最佳匹配轨迹片段融合,得到每个跟踪对象的一个轨迹。
2.根据权利要求1所述的一种基于慢特征分析的多人跟踪方法,其特征在于,步骤1)首先通过背景差分,得到每个视频帧的运动区域,然后应用基于部分的人体检测器检测前景中的人体。
3.根据权利要求1所述的一种基于慢特征分析的多人跟踪方法,其特征在于,步骤2)包括:
(1)利用时间和空间约束,将视频中人的运动轨迹生成一组可靠的轨迹片段;
(2)将生成的轨迹片段平均地分割成八个部分,提取每一部分的方向梯度直方图和色度饱和度亮度特征;
(3)将所有八个部分的特征连接成一个特征向量。
4.根据权利要求1所述的一种基于慢特征分析的多人跟踪方法,其特征在于,步骤3)包括:通过非线性函数对轨迹片段的特征空间进行非线性扩展,将慢特征分析转化为线性分析,采用互补的增量主成份分析算法预处理视频数据和顺序输入的特征向量以计算主成分,采用次要成份分析算法处理慢特征提取,最终得到目标函数最优解的线性组合,即每个轨迹片段的慢特征。
CN201710287811.8A 2017-04-26 2017-04-26 一种基于慢特征分析的多人跟踪方法 Expired - Fee Related CN107194950B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710287811.8A CN107194950B (zh) 2017-04-26 2017-04-26 一种基于慢特征分析的多人跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710287811.8A CN107194950B (zh) 2017-04-26 2017-04-26 一种基于慢特征分析的多人跟踪方法

Publications (2)

Publication Number Publication Date
CN107194950A true CN107194950A (zh) 2017-09-22
CN107194950B CN107194950B (zh) 2020-06-12

Family

ID=59872537

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710287811.8A Expired - Fee Related CN107194950B (zh) 2017-04-26 2017-04-26 一种基于慢特征分析的多人跟踪方法

Country Status (1)

Country Link
CN (1) CN107194950B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108696722A (zh) * 2018-05-28 2018-10-23 广东工业大学 一种目标监测方法、系统及设备和存储介质
CN110349184A (zh) * 2019-06-06 2019-10-18 南京工程学院 基于迭代滤波和观测判别的多行人跟踪方法
WO2019200738A1 (zh) * 2018-04-20 2019-10-24 平安科技(深圳)有限公司 数据特征提取的方法、装置、计算机设备和存储介质
CN111325089A (zh) * 2018-12-13 2020-06-23 安讯士有限公司 跟踪对象的方法和设备
CN114677609A (zh) * 2020-12-24 2022-06-28 广州慧睿思通人工智能技术有限公司 一种目标跟踪方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105320764A (zh) * 2015-10-26 2016-02-10 天津大学 一种基于增量慢特征的3d模型检索方法及其检索装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105320764A (zh) * 2015-10-26 2016-02-10 天津大学 一种基于增量慢特征的3d模型检索方法及其检索装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈婷婷等: "视频中人体行为的慢特征提取算法", 《智能系统学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019200738A1 (zh) * 2018-04-20 2019-10-24 平安科技(深圳)有限公司 数据特征提取的方法、装置、计算机设备和存储介质
CN108696722A (zh) * 2018-05-28 2018-10-23 广东工业大学 一种目标监测方法、系统及设备和存储介质
CN108696722B (zh) * 2018-05-28 2024-02-20 广东工业大学 一种目标监测方法、系统及设备和存储介质
CN111325089A (zh) * 2018-12-13 2020-06-23 安讯士有限公司 跟踪对象的方法和设备
CN110349184A (zh) * 2019-06-06 2019-10-18 南京工程学院 基于迭代滤波和观测判别的多行人跟踪方法
CN110349184B (zh) * 2019-06-06 2022-08-09 南京工程学院 基于迭代滤波和观测判别的多行人跟踪方法
CN114677609A (zh) * 2020-12-24 2022-06-28 广州慧睿思通人工智能技术有限公司 一种目标跟踪方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN107194950B (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
CN108470332B (zh) 一种多目标跟踪方法及装置
Jiang et al. Acquisition of localization confidence for accurate object detection
CN107194950A (zh) 一种基于慢特征分析的多人跟踪方法
CN107240122A (zh) 基于时空连续相关滤波的视频目标跟踪方法
Khan et al. Disam: Density independent and scale aware model for crowd counting and localization
Wang et al. Low-resolution human pose estimation
CN114529799A (zh) 一种基于改进型yolov5算法的飞机多目标跟踪方法
Soleimanitaleb et al. Single object tracking: A survey of methods, datasets, and evaluation metrics
CN112541424A (zh) 复杂环境下行人跌倒的实时检测方法
Xie et al. Feature consistency-based prototype network for open-set hyperspectral image classification
Rapuru et al. Correlation-based tracker-level fusion for robust visual tracking
CN113850221A (zh) 一种基于关键点筛选的姿态跟踪方法
Mrabti et al. Human motion tracking: A comparative study
Li et al. Robust visual tracking with occlusion judgment and re-detection
Zhang et al. Detecting abnormal events via hierarchical Dirichlet processes
CN112991394A (zh) 基于三次样条插值和马尔科夫链的kcf目标跟踪方法
Liu et al. Multipedestrian online tracking based on social force-predicted deformable key-points mapping via compressive sensing
Pillai et al. Fine-Tuned EfficientNetB4 Transfer Learning Model for Weather Classification
CN109636834A (zh) 基于tld改进算法的视频车辆目标跟踪算法
CN112614158B (zh) 一种采样框自适应的多特征融合在线目标跟踪方法
Li et al. Online parallel framework for real-time visual tracking
Xudong et al. Pedestrian detection and tracking with deep mutual learning
Tomé et al. Detection of anomalies in surveillance scenarios using mixture models
Li et al. Review of Multi-Object Tracking Based on Deep Learning
Rozhbayani et al. Real-Time Human Detection and Tracking Based on Deep Learning Technique

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200612

CF01 Termination of patent right due to non-payment of annual fee