CN110189362A - 基于多分支自编码对抗网络的高效目标跟踪方法 - Google Patents

基于多分支自编码对抗网络的高效目标跟踪方法 Download PDF

Info

Publication number
CN110189362A
CN110189362A CN201910452361.2A CN201910452361A CN110189362A CN 110189362 A CN110189362 A CN 110189362A CN 201910452361 A CN201910452361 A CN 201910452361A CN 110189362 A CN110189362 A CN 110189362A
Authority
CN
China
Prior art keywords
target
frame
tracking
search
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910452361.2A
Other languages
English (en)
Other versions
CN110189362B (zh
Inventor
王菡子
吴强强
刘祎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201910452361.2A priority Critical patent/CN110189362B/zh
Publication of CN110189362A publication Critical patent/CN110189362A/zh
Application granted granted Critical
Publication of CN110189362B publication Critical patent/CN110189362B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

基于多分支自编码对抗网络的高效目标跟踪方法。在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对;使用均方误差损失,通过全监督的方式对所提出的目标概率生成器进行初步训练;引入判别器,加入对抗训练的方式共同优化目标概率生成器和判别器;给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板;给定测试帧,以当前目标长宽的N倍大小的窗口进行随机的位移来得到搜索区域;将搜索区域和目标模板输入目标概率生成器,输出得到目标概率图,选取目标概率图中最大值点的位置作为目标中心;根据目标概率图分布估计目标在当前帧的尺度;根据当前帧估计的目标区域进行目标模板更新。

Description

基于多分支自编码对抗网络的高效目标跟踪方法
技术领域
本发明涉及计算机视觉技术,尤其是涉及基于多分支自编码对抗网络的高效目标跟踪方法。
背景技术
目标跟踪是计算机视觉领域的一项基础性研究,在当前许多实时性要求较高的领域,如车辆自动驾驶、无人机导航等领域,目标跟踪均在其中扮演了极其重要的角色。因此,如何设计鲁棒的实时目标跟踪方法应用于实际中的不同任务具有十分重要的意义。
在近几年中,深度卷积神经网络在计算机视觉领域的各个应用(如目标检测、实例分割等)中均取得了巨大的成功。其很大程度上可以归因于大量有标记数据集的提出。深度卷积神经网络可以从有标记的数据集中学习到更好的特征表达,从而取得远比传统方法更好的性能表现。深度神经网络在不同计算机视觉上的成功应用极大启发了目标跟踪领域的研究者,近几年,大量基于深度卷积神经网络的目标跟踪方法被提出,其主要可以分为两大类:
(1)基于端到端训练的深度卷积神经网络目标跟踪方法;
(2)基于深度特征的深度相关滤波方法。
基于端到端训练的深度卷积神经网络目标跟踪方法主要着重于设计有效的端到端训练的目标跟踪网络,而基于深度特征的深度相关滤波方法主要研究深度卷积特征在相关滤波跟踪框架中的有效应用。
当前研究者们主要研究基于判别式模型的目标跟踪方法,如上述的基于深度卷积神经网络的目标跟踪方法。基于判别式模型的目标跟踪方法通常将目标跟踪任务看作是一个二分类问题,使用训练得到的二分类模型对前景和背景进行区分。然而,由于复杂的模型在线优化过程,使得此类方法难以达到现实应用中对目标跟踪方法实时性的要求,因此难以在现实应用中使用。例如基于二分类深度模型的MDNet方法,由于其复杂的在线优化过程,MDNet方法的运行速度仅有约1FPS,这一速度远远未达到工业界应用的实时需求(大于25FPS)。在近几年,生成式对抗网络被成功运用于各个计算机视觉任务,如目标检测、行人再识别等任务。然而在目标跟踪领域,生成式对抗网络的应用仍然较为的受限,其主要原因为在目标跟踪任务中,跟踪算法往往仅能获取较为有效的目标在线样本,有限的在线样本极大地限制了生成式对抗网络的在线学习,使其无法完全收敛。同时,在线学习会极大地影响跟踪算法的跟踪速度。
发明内容
本发明的目的在于提供一种基于多分支自编码对抗网络的高效目标跟踪方法。
本发明包括以下步骤:
1)在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对;
在步骤1)中,所述在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对的具体方法可为:在有标注的离线目标跟踪数据集中,选取任意视频序列a,在a中,首先选取第t帧中的目标作为目标模板,然后将第t帧作为起始帧,在后50帧内随机选取一帧得到目标搜索区域样本;通过上述方式,收集了大量的目标模板和目标搜索区域样本对;所述有标记的离线目标跟踪数据集可为ILSVRC-VID(O.Russakovsky,J.Deng and H.Su,“Imagenet large scale visual recognition challenge,”inInt.J.Comput.Vis.,vol.115,no.3,pp.211–252,2015.)视频目标检测数据集。
2)使用均方误差损失,通过全监督的方式对所提出的目标概率生成器进行初步训练,具体方法如下:
L(rm,n,Gz,s)=||rm,n-Gz,s||2
其中,Gz,s为目标概率生成器所输出的目标概率分布图,rm,n则表示标签目标概率分布,其中,x,y∈{1,...,128},H和W分别表示目标的高和宽;z和s分别表示目标模板和目标搜索区域,m和n为目标样本在搜索区域s中的中心位置坐标;σ设置为4×10-1
3)引入判别器,加入对抗训练的方式共同优化目标概率生成器和判别器,使得目标概率生成器学习到更具有判别力的特征,具体过程如下:
其中,D为判别器,λ为平衡对抗损失和均方损失的超参数。
在步骤3)中,所述λ可为10-4
4)给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板;
在步骤4)中,所述给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板的具体方法可为:根据测试视频中第一帧中标记的目标区域,采样得到目标模板,并采用双线性插值将目标模板大小调整为255×255×3。
5)给定测试帧,以当前目标长宽的N倍大小的窗口进行随机的位移来得到搜索区域;
在步骤5)中,所述N可为2.5。
6)将搜索区域和目标模板输入目标概率生成器,输出得到目标概率图,选取目标概率图中最大值点的位置作为目标中心,确定目标中心过程如下:
其中,Gz,s(x,y)表示生成的目标概率图在(x,y)位置处的值;
7)根据目标概率图分布估计目标在当前帧的尺度,尺度估计过程描述如下:首先令K表示尺度的数量,对于评估其对应的目标尺度,其中,高为ekHt-1,宽为ekWt-1,e为尺度因子,其过程如下:
其中, 最终,目标在当前第t帧中的尺度估计为:
在步骤7)中,所述K可为33,e可为1.02;η可为2.5×10-1
8)根据当前帧估计的目标区域进行目标模板更新。
在步骤8)中,所述根据当前帧估计的目标区域进行目标模板更新的具体方法可为:令为(t-1)帧的目标模板,使用学习率w来更新得到第t帧的目标模板:
其中,w可为5×10-3
与现有技术相比,本发明将目标跟踪任务定义为一个目标概率生成问题,首先提出了一个轻量级的基于神经网络的目标概率生成器,其能有效估计目标在搜索区域的概率分布。为了有效训练目标概率生成器,首先对其使用均方损失进行训练,然后,引入对抗损失对其进一步训练,使其能生成更为准确的目标概率分布图。
基于训练得到的目标概率生成器,本发明提出了一种新的基于多分支自编码对抗网络的高效目标跟踪方法。在在线跟踪过程中,根据给定的搜索区域和目标模板,所提出的基于多分支自编码对抗网络的目标跟踪方法可以准确的预测目标在搜索区域中的目标概率分布,通过查找响应值最高的点来确定目标的中心坐标。此外,根据预测的目标概率分布,所提跟踪方法能通过多尺度估计方法来有效估计目标在当前帧的尺度。最后,为了适应目标在线的表观变化,所提跟踪方法对目标模板进行进一步学习更新。本发明所提出的跟踪方法的运行速度要比传统基于判别式模型的深度卷积神经网络目标跟踪算法的运行速度要快得多,本章所提的跟踪算法在单GPU平台上能达到123.6FPS,大约分别为主流的基于分类的深度跟踪方法MDNet和SANet速度的117和1165倍。本发明所提出的跟踪方法的速度优势主要来源于:
(1)本发明中使用的骨架网络具有更少的网络参数。
(2)无需耗时的模型在线优化操作。
(3)仅需单次前项计算即可得到目标位置和尺度。
附图说明
图1为本发明所提出的目标概率生成器结构及其生成目标概率图。
具体实施方式
下面结合附图和实施例对本发明的方法作详细说明。
参见图1,本发明实施例包括以下步骤:
1)在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对,具体方法为:在有标注的离线目标跟踪数据集中,选取任意视频序列a,在a中,首先选取第t帧中的目标作为目标模板,然后将第t帧作为起始帧,在后50帧内随机选取一帧得到目标搜索区域样本;通过上述方式,收集了大量的目标模板和目标搜索区域样本对;所述有标记的离线目标跟踪数据集可为ILSVRC-VID(O.Russakovsky,J.Deng and H.Su,“Imagenet large scale visual recognition challenge,”in Int.J.Comput.Vis.,vol.115,no.3,pp.211–252,2015.)视频目标检测数据集。
2)使用均方误差损失,通过全监督的方式对所提出的目标概率生成器进行初步训练,具体方法如下:
L(rm,n,Gz,s)=||rm,n-Gz,s||2
其中,Gz,s为目标概率生成器所输出的目标概率分布图,rm,n则表示标签目标概率分布,其中,x,y∈{1,...,128},H和W分别表示目标的高和宽;z和s分别表示目标模板和目标搜索区域,m和n为目标样本在搜索区域s中的中心位置坐标;σ设置为4×10-1
3)引入判别器,加入对抗训练的方式共同优化目标概率生成器和判别器,使得目标概率生成器学习到更具有判别力的特征,具体过程如下:
其中,D为判别器,λ为平衡对抗损失和均方损失的超参数,λ为10-4
4)给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板,具体方法为:根据测试视频中第一帧中标记的目标区域,采样得到目标模板,并采用双线性插值将目标模板大小调整为255×255×3。
5)给定测试帧,以当前目标长宽的N倍大小的窗口进行随机的位移来得到搜索区域;所述N为2.5。
6)将搜索区域和目标模板输入目标概率生成器,输出得到目标概率图,选取目标概率图中最大值点的位置作为目标中心,确定目标中心过程如下:
其中,Gz,s(x,y)表示生成的目标概率图在(x,y)位置处的值;
7)根据目标概率图分布估计目标在当前帧的尺度,尺度估计过程描述如下:首先令K表示尺度的数量,对于评估其对应的目标尺度,其中,高为ekHt-1,宽为ekWt-1,e为尺度因子,其过程如下:
其中, 最终,目标在当前第t帧中的尺度估计为:
其中,K为33,e为1.02;η为2.5×10-1
8)根据当前帧估计的目标区域进行目标模板更新,具体方法为:令为(t-1)帧的目标模板,使用学习率w来更新得到第t帧的目标模板:
其中,w可为5×10-3
表1为本发明与其他10个目标跟踪方法在OTB-2013数据集上所取得的精度和速度对比。从表1中可以看到,本发明不仅能达到远超实时的跟踪速度,而且能取得较为优异的跟踪精度。
表1
方法 精度(%) 速度(FPS)
本发明 75.4 123.6
SCM 59.7 0.5
ASLA 53.2 8.5
VTD 57.6 5.7
VTS 57.5 5.7
LSK 50.5 5.5
GOTURN 62.0 165.0
DSST 74.0 28.3
Re3 46.0 113.7
KCF 74.1 172.0
TLD 60.8 28.1
在表1中:SCM对应为W.Zhong等人提出的方法(W.Zhong,H.Lu,and M.-H.Yang,“Robust Object Tracking via Sparse Collaborative Appearance Model,”in IEEETrans.Image Process.,vol.23,no.5,2014,pp.2356-2368.)
ASLA对应为X.Jia等人提出的方法(X.Jia,H.Hone and M.-H.Yang,“VisualTracking via Adaptive Structural Local Sparse Appearance Model,”in Proc.IEEEConf.Comput.Vis.Pattern Recognit.,2012,pp.1822-1829.)
VTD对应为J.Kwon等人提出的方法(J.Kwon and K.M.Lee,“Visual TrackingDecomposition,”in Proc.IEEE Conf.Comput.Vis.Pattern Recognit.,2010,pp.1269-1276.)
VTS对应为J.Kwon等人提出的方法(J.Kwon and K.M.Lee,“Tracking bySampling Trackers,”in Proc.IEEE Int.Conf.Comput.Vis.,2011,pp.1195-1202.)
LSK对应为B.Liu等人提出的方法(B.Liu,J.Huang,L.Yang and C.Kulikowsk,“Visual Tracking Using Local Sparse Appearance Model and K-Selection,”inProc.IEEE Conf.Comput.Vis.Pattern Recognit.,2011,pp.1313-1320.)
GOTURN对应为D.Held等人提出的方法(D.Held,S.Thrun and S.Savaresei,“Learning to Track at 100fps with Deep Regression Networks,”inProc.Eur.Cofnf.Comput.Vis.,2016,pp.749-765.)
Re3对应为D.Gorden等人提出的方法(D.Gorden,A.Farhadi and D.Fox,“Re3:Real-time Recurrent Regression Networks for Object Tracking,”in IEEE Robo.AndAuto.Lett.,vol.3,no.2,2017,pp.749-765.)
KCF对应为J.F.Henriques等人提出的方法(J.F.Henriques,R.Caseiro,P.Martins and J.Batista,“High-speed Tracking with Kernelized CorrelationFilters,”in IEEE Trans.Pattern Anal.Mach.Intell.,vol.37,no.3,2015,pp.783-596.)
DSST对应为M.Danelljan等人提出的方法(M.Danelljan,G.Hager,F.S.Khan andM.Felsberg,“Discriminative Scale Spece Tracking,”in IEEE Trans.PatternAnal.Mach.Intell.,vol.39,no.8,2017,pp.1561-1575.)
TLD对应为Z.Kalal等人提出的方法(Z.Kalal,K.Mikolajczyk and J.Matas,“Tracking-learning-detection,”in IEEE Trans.Pattern Anal.Mach.Intell.,vol.34,no.7,2012,pp.1409-1422)。

Claims (7)

1.基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于包括以下步骤:
1)在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对;
2)使用均方误差损失,通过全监督的方式对所提出的目标概率生成器进行初步训练,具体方法如下:
L(rm,n,Gz,s)=||rm,n-Gz,s||2
其中,Gz,s为目标概率生成器所输出的目标概率分布图,rm,n则表示标签目标概率分布,其中,x,y∈{1,...,128},H和W分别表示目标的高和宽;z和s分别表示目标模板和目标搜索区域,m和n为目标样本在搜索区域s中的中心位置坐标;σ设置为4×10-1
3)引入判别器,加入对抗训练的方式共同优化目标概率生成器和判别器,使得目标概率生成器学习到更具有判别力的特征,具体过程如下:
其中,D为判别器,λ为平衡对抗损失和均方损失的超参数;
4)给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板;
5)给定测试帧,以当前目标长宽的N倍大小的窗口进行随机的位移来得到搜索区域;
6)将搜索区域和目标模板输入目标概率生成器,输出得到目标概率图,选取目标概率图中最大值点的位置作为目标中心,确定目标中心过程如下:
其中,Gz,s(x,y)表示生成的目标概率图在(x,y)位置处的值;
7)根据目标概率图分布估计目标在当前帧的尺度,尺度估计过程描述如下:首先令K表示尺度的数量,对于评估其对应的目标尺度,其中,高为ekHt-1,宽为ekWt-1,e为尺度因子,其过程如下:
其中, 最终,目标在当前第t帧中的尺度估计为:
8)根据当前帧估计的目标区域进行目标模板更新。
2.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤1)中,所述在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对的具体方法为:在有标注的离线目标跟踪数据集中,选取任意视频序列a,在a中,首先选取第t帧中的目标作为目标模板,然后将第t帧作为起始帧,在后50帧内随机选取一帧得到目标搜索区域样本;通过上述方式,收集大量的目标模板和目标搜索区域样本对;所述有标记的离线目标跟踪数据集为ILSVRC-VID视频目标检测数据集。
3.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤3)中,所述λ为10-4
4.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤4)中,所述给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板的具体方法为:根据测试视频中第一帧中标记的目标区域,采样得到目标模板,并采用双线性插值将目标模板大小调整为255×255×3。
5.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤5)中,所述N为2.5。
6.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤7)中,所述K为33,e为1.02;η为2.5×10-1
7.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤8)中,所述根据当前帧估计的目标区域进行目标模板更新的具体方法为:令为(t-1)帧的目标模板,使用学习率w来更新得到第t帧的目标模板:
其中,w为5×10-3
CN201910452361.2A 2019-05-28 2019-05-28 基于多分支自编码对抗网络的高效目标跟踪方法 Active CN110189362B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910452361.2A CN110189362B (zh) 2019-05-28 2019-05-28 基于多分支自编码对抗网络的高效目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910452361.2A CN110189362B (zh) 2019-05-28 2019-05-28 基于多分支自编码对抗网络的高效目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110189362A true CN110189362A (zh) 2019-08-30
CN110189362B CN110189362B (zh) 2020-12-25

Family

ID=67718227

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910452361.2A Active CN110189362B (zh) 2019-05-28 2019-05-28 基于多分支自编码对抗网络的高效目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110189362B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807795A (zh) * 2019-10-31 2020-02-18 北方工业大学 一种基于MDnet的无人机遥感目标跟踪方法及装置
CN111488932A (zh) * 2020-04-10 2020-08-04 中国科学院大学 一种基于帧率感知的自监督视频时-空表征学习方法
CN111681263A (zh) * 2020-05-25 2020-09-18 厦门大学 基于三值量化的多尺度对抗性目标跟踪算法
CN112183600A (zh) * 2020-09-22 2021-01-05 天津大学 一种基于动态记忆库模板更新的目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257148A (zh) * 2018-01-17 2018-07-06 厦门大学 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
CN108764085A (zh) * 2018-05-17 2018-11-06 上海交通大学 基于生成对抗网络的人群计数方法
CN108960086A (zh) * 2018-06-20 2018-12-07 电子科技大学 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法
US20190122072A1 (en) * 2017-10-19 2019-04-25 Nokia Technologies Oy Reverse neural network for object re-identification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190122072A1 (en) * 2017-10-19 2019-04-25 Nokia Technologies Oy Reverse neural network for object re-identification
CN108257148A (zh) * 2018-01-17 2018-07-06 厦门大学 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
CN108764085A (zh) * 2018-05-17 2018-11-06 上海交通大学 基于生成对抗网络的人群计数方法
CN108960086A (zh) * 2018-06-20 2018-12-07 电子科技大学 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
QIANGQIANG WU 等: ""DSNet: Deep and Shallow Feature Learning for Efficient Visual Tracking"", 《ARXIV:1811.02208V1》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807795A (zh) * 2019-10-31 2020-02-18 北方工业大学 一种基于MDnet的无人机遥感目标跟踪方法及装置
CN111488932A (zh) * 2020-04-10 2020-08-04 中国科学院大学 一种基于帧率感知的自监督视频时-空表征学习方法
CN111488932B (zh) * 2020-04-10 2021-03-16 中国科学院大学 一种基于帧率感知的自监督视频时-空表征学习方法
CN111681263A (zh) * 2020-05-25 2020-09-18 厦门大学 基于三值量化的多尺度对抗性目标跟踪算法
CN111681263B (zh) * 2020-05-25 2022-05-03 厦门大学 基于三值量化的多尺度对抗性目标跟踪算法
CN112183600A (zh) * 2020-09-22 2021-01-05 天津大学 一种基于动态记忆库模板更新的目标跟踪方法
CN112183600B (zh) * 2020-09-22 2021-04-27 天津大学 一种基于动态记忆库模板更新的目标跟踪方法

Also Published As

Publication number Publication date
CN110189362B (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN110189362A (zh) 基于多分支自编码对抗网络的高效目标跟踪方法
CN109816689B (zh) 一种多层卷积特征自适应融合的运动目标跟踪方法
CN109146921B (zh) 一种基于深度学习的行人目标跟踪方法
CN105263113B (zh) 一种基于众包的WiFi位置指纹地图构建方法及其系统
CN105335986B (zh) 基于特征匹配和MeanShift算法的目标跟踪方法
CN109858406B (zh) 一种基于关节点信息的关键帧提取方法
CN105809672B (zh) 一种基于超像素和结构化约束的图像多目标协同分割方法
CN106295564B (zh) 一种邻域高斯结构和视频特征融合的动作识别方法
CN110110094A (zh) 基于社交网络知识图谱的跨网络人物关联方法
CN111476817A (zh) 一种基于yolov3的多目标行人检测跟踪方法
CN104615983A (zh) 基于递归神经网络和人体骨架运动序列的行为识别方法
CN106714110A (zh) 一种Wi‑Fi位置指纹地图自动构建方法及系统
CN108520530A (zh) 基于长短时记忆网络的目标跟踪方法
CN108682022B (zh) 基于对抗迁移网络的视觉跟踪方法及系统
CN111259735B (zh) 基于多级预测特征增强卷积神经网络的单人姿态估计方法
CN104038792B (zh) 用于iptv监管的视频内容分析方法及设备
CN109934846A (zh) 基于时间和空间网络的深度集成目标跟踪方法
CN110569706A (zh) 一种基于时间和空间网络的深度集成目标跟踪算法
Zhu et al. Tiny object tracking: A large-scale dataset and a baseline
CN104484890A (zh) 基于复合稀疏模型的视频目标跟踪方法
CN108830170A (zh) 一种基于分层特征表示的端到端目标跟踪方法
CN106127161A (zh) 基于级联多层检测器的快速目标检测方法
CN111583300A (zh) 一种基于富集目标形态变化更新模板的目标跟踪方法
CN112131928B (zh) 一种rgb-d图像特征融合的人体姿态实时估计方法
CN114802303A (zh) 障碍物轨迹预测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant