CN110189362B - 基于多分支自编码对抗网络的高效目标跟踪方法 - Google Patents

基于多分支自编码对抗网络的高效目标跟踪方法 Download PDF

Info

Publication number
CN110189362B
CN110189362B CN201910452361.2A CN201910452361A CN110189362B CN 110189362 B CN110189362 B CN 110189362B CN 201910452361 A CN201910452361 A CN 201910452361A CN 110189362 B CN110189362 B CN 110189362B
Authority
CN
China
Prior art keywords
target
frame
template
search area
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910452361.2A
Other languages
English (en)
Other versions
CN110189362A (zh
Inventor
王菡子
吴强强
刘祎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201910452361.2A priority Critical patent/CN110189362B/zh
Publication of CN110189362A publication Critical patent/CN110189362A/zh
Application granted granted Critical
Publication of CN110189362B publication Critical patent/CN110189362B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

基于多分支自编码对抗网络的高效目标跟踪方法。在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对;使用均方误差损失,通过全监督的方式对所提出的目标概率生成器进行初步训练;引入判别器,加入对抗训练的方式共同优化目标概率生成器和判别器;给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板;给定测试帧,以当前目标长宽的N倍大小的窗口进行随机的位移来得到搜索区域;将搜索区域和目标模板输入目标概率生成器,输出得到目标概率图,选取目标概率图中最大值点的位置作为目标中心;根据目标概率图分布估计目标在当前帧的尺度;根据当前帧估计的目标区域进行目标模板更新。

Description

基于多分支自编码对抗网络的高效目标跟踪方法
技术领域
本发明涉及计算机视觉技术,尤其是涉及基于多分支自编码对抗网络的高效目标跟踪方法。
背景技术
目标跟踪是计算机视觉领域的一项基础性研究,在当前许多实时性要求较高的领域,如车辆自动驾驶、无人机导航等领域,目标跟踪均在其中扮演了极其重要的角色。因此,如何设计鲁棒的实时目标跟踪方法应用于实际中的不同任务具有十分重要的意义。
在近几年中,深度卷积神经网络在计算机视觉领域的各个应用(如目标检测、实例分割等)中均取得了巨大的成功。其很大程度上可以归因于大量有标记数据集的提出。深度卷积神经网络可以从有标记的数据集中学习到更好的特征表达,从而取得远比传统方法更好的性能表现。深度神经网络在不同计算机视觉上的成功应用极大启发了目标跟踪领域的研究者,近几年,大量基于深度卷积神经网络的目标跟踪方法被提出,其主要可以分为两大类:
(1)基于端到端训练的深度卷积神经网络目标跟踪方法;
(2)基于深度特征的深度相关滤波方法。
基于端到端训练的深度卷积神经网络目标跟踪方法主要着重于设计有效的端到端训练的目标跟踪网络,而基于深度特征的深度相关滤波方法主要研究深度卷积特征在相关滤波跟踪框架中的有效应用。
当前研究者们主要研究基于判别式模型的目标跟踪方法,如上述的基于深度卷积神经网络的目标跟踪方法。基于判别式模型的目标跟踪方法通常将目标跟踪任务看作是一个二分类问题,使用训练得到的二分类模型对前景和背景进行区分。然而,由于复杂的模型在线优化过程,使得此类方法难以达到现实应用中对目标跟踪方法实时性的要求,因此难以在现实应用中使用。例如基于二分类深度模型的MDNet方法,由于其复杂的在线优化过程,MDNet方法的运行速度仅有约1FPS,这一速度远远未达到工业界应用的实时需求(大于25FPS)。在近几年,生成式对抗网络被成功运用于各个计算机视觉任务,如目标检测、行人再识别等任务。然而在目标跟踪领域,生成式对抗网络的应用仍然较为的受限,其主要原因为在目标跟踪任务中,跟踪算法往往仅能获取较为有效的目标在线样本,有限的在线样本极大地限制了生成式对抗网络的在线学习,使其无法完全收敛。同时,在线学习会极大地影响跟踪算法的跟踪速度。
发明内容
本发明的目的在于提供一种基于多分支自编码对抗网络的高效目标跟踪方法。
本发明包括以下步骤:
1)在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对;
在步骤1)中,所述在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对的具体方法可为:在有标注的离线目标跟踪数据集中,选取任意视频序列a,在a中,首先选取第t帧中的目标作为目标模板,然后将第t帧作为起始帧,在后50帧内随机选取一帧得到目标搜索区域样本;通过上述方式,收集了大量的目标模板和目标搜索区域样本对;所述有标记的离线目标跟踪数据集可为ILSVRC-VID(O.Russakovsky,J.Deng and H.Su,“Imagenet large scale visual recognition challenge,”inInt.J.Comput.Vis.,vol.115,no.3,pp.211–252,2015.)视频目标检测数据集。
2)使用均方误差损失,通过全监督的方式对所提出的目标概率生成器进行初步训练,具体方法如下:
L(rm,n,Gz,s)=||rm,n-Gz,s||2
其中,Gz,s为目标概率生成器所输出的目标概率分布图,rm,n则表示标签目标概率分布,
Figure BDA0002075546740000021
其中,x,y∈{1,...,128},H和W分别表示目标的高和宽;z和s分别表示目标模板和目标搜索区域,m和n为目标样本在搜索区域s中的中心位置坐标;σ设置为4×10-1
3)引入判别器,加入对抗训练的方式共同优化目标概率生成器和判别器,使得目标概率生成器学习到更具有判别力的特征,具体过程如下:
Figure BDA0002075546740000022
其中,D为判别器,λ为平衡对抗损失和均方损失的超参数。
在步骤3)中,所述λ可为10-4
4)给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板;
在步骤4)中,所述给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板的具体方法可为:根据测试视频中第一帧中标记的目标区域,采样得到目标模板,并采用双线性插值将目标模板大小调整为255×255×3。
5)给定测试帧,以当前目标长宽的N倍大小的窗口进行随机的位移来得到搜索区域;
在步骤5)中,所述N可为2.5。
6)将搜索区域和目标模板输入目标概率生成器,输出得到目标概率图,选取目标概率图中最大值点的位置作为目标中心,确定目标中心过程如下:
Figure BDA0002075546740000031
其中,Gz,s(x,y)表示生成的目标概率图在(x,y)位置处的值;
7)根据目标概率图分布估计目标在当前帧的尺度,尺度估计过程描述如下:首先令K表示尺度的数量,对于
Figure BDA0002075546740000032
评估其对应的目标尺度,其中,高为ekHt-1,宽为ekWt-1,e为尺度因子,其过程如下:
Figure BDA0002075546740000033
Figure BDA0002075546740000034
其中,
Figure BDA0002075546740000035
Figure BDA0002075546740000036
最终,目标在当前第t帧中的尺度估计为:
Figure BDA0002075546740000037
Figure BDA0002075546740000038
在步骤7)中,所述K可为33,e可为1.02;η可为2.5×10-1
8)根据当前帧估计的目标区域进行目标模板更新。
在步骤8)中,所述根据当前帧估计的目标区域进行目标模板更新的具体方法可为:令
Figure BDA0002075546740000039
为(t-1)帧的目标模板,使用学习率w来更新得到第t帧的目标模板:
Figure BDA00020755467400000310
其中,w可为5×10-3
与现有技术相比,本发明将目标跟踪任务定义为一个目标概率生成问题,首先提出了一个轻量级的基于神经网络的目标概率生成器,其能有效估计目标在搜索区域的概率分布。为了有效训练目标概率生成器,首先对其使用均方损失进行训练,然后,引入对抗损失对其进一步训练,使其能生成更为准确的目标概率分布图。
基于训练得到的目标概率生成器,本发明提出了一种新的基于多分支自编码对抗网络的高效目标跟踪方法。在在线跟踪过程中,根据给定的搜索区域和目标模板,所提出的基于多分支自编码对抗网络的目标跟踪方法可以准确的预测目标在搜索区域中的目标概率分布,通过查找响应值最高的点来确定目标的中心坐标。此外,根据预测的目标概率分布,所提跟踪方法能通过多尺度估计方法来有效估计目标在当前帧的尺度。最后,为了适应目标在线的表观变化,所提跟踪方法对目标模板进行进一步学习更新。本发明所提出的跟踪方法的运行速度要比传统基于判别式模型的深度卷积神经网络目标跟踪算法的运行速度要快得多,本章所提的跟踪算法在单GPU平台上能达到123.6FPS,大约分别为主流的基于分类的深度跟踪方法MDNet和SANet速度的117和1165倍。本发明所提出的跟踪方法的速度优势主要来源于:
(1)本发明中使用的骨架网络具有更少的网络参数。
(2)无需耗时的模型在线优化操作。
(3)仅需单次前项计算即可得到目标位置和尺度。
附图说明
图1为本发明所提出的目标概率生成器结构及其生成目标概率图。
具体实施方式
下面结合附图和实施例对本发明的方法作详细说明。
参见图1,本发明实施例包括以下步骤:
1)在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对,具体方法为:在有标注的离线目标跟踪数据集中,选取任意视频序列a,在a中,首先选取第t帧中的目标作为目标模板,然后将第t帧作为起始帧,在后50帧内随机选取一帧得到目标搜索区域样本;通过上述方式,收集了大量的目标模板和目标搜索区域样本对;所述有标记的离线目标跟踪数据集可为ILSVRC-VID(O.Russakovsky,J.Deng and H.Su,“Imagenet large scale visual recognition challenge,”in Int.J.Comput.Vis.,vol.115,no.3,pp.211–252,2015.)视频目标检测数据集。
2)使用均方误差损失,通过全监督的方式对所提出的目标概率生成器进行初步训练,具体方法如下:
L(rm,n,Gz,s)=||rm,n-Gz,s||2
其中,Gz,s为目标概率生成器所输出的目标概率分布图,rm,n则表示标签目标概率分布,
Figure BDA0002075546740000051
其中,x,y∈{1,...,128},H和W分别表示目标的高和宽;z和s分别表示目标模板和目标搜索区域,m和n为目标样本在搜索区域s中的中心位置坐标;σ设置为4×10-1
3)引入判别器,加入对抗训练的方式共同优化目标概率生成器和判别器,使得目标概率生成器学习到更具有判别力的特征,具体过程如下:
Figure BDA0002075546740000052
其中,D为判别器,λ为平衡对抗损失和均方损失的超参数,λ为10-4
4)给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板,具体方法为:根据测试视频中第一帧中标记的目标区域,采样得到目标模板,并采用双线性插值将目标模板大小调整为255×255×3。
5)给定测试帧,以当前目标长宽的N倍大小的窗口进行随机的位移来得到搜索区域;所述N为2.5。
6)将搜索区域和目标模板输入目标概率生成器,输出得到目标概率图,选取目标概率图中最大值点的位置作为目标中心,确定目标中心过程如下:
Figure BDA0002075546740000053
其中,Gz,s(x,y)表示生成的目标概率图在(x,y)位置处的值;
7)根据目标概率图分布估计目标在当前帧的尺度,尺度估计过程描述如下:首先令K表示尺度的数量,对于
Figure BDA0002075546740000054
评估其对应的目标尺度,其中,高为ekHt-1,宽为ekWt-1,e为尺度因子,其过程如下:
Figure BDA0002075546740000055
Figure BDA0002075546740000056
其中,
Figure BDA0002075546740000057
Figure BDA0002075546740000058
最终,目标在当前第t帧中的尺度估计为:
Figure BDA0002075546740000059
Figure BDA00020755467400000510
其中,K为33,e为1.02;η为2.5×10-1
8)根据当前帧估计的目标区域进行目标模板更新,具体方法为:令
Figure BDA0002075546740000061
为(t-1)帧的目标模板,使用学习率w来更新得到第t帧的目标模板:
Figure BDA0002075546740000062
其中,w可为5×10-3
表1为本发明与其他10个目标跟踪方法在OTB-2013数据集上所取得的精度和速度对比。从表1中可以看到,本发明不仅能达到远超实时的跟踪速度,而且能取得较为优异的跟踪精度。
表1
方法 精度(%) 速度(FPS)
本发明 75.4 123.6
SCM 59.7 0.5
ASLA 53.2 8.5
VTD 57.6 5.7
VTS 57.5 5.7
LSK 50.5 5.5
GOTURN 62.0 165.0
DSST 74.0 28.3
Re3 46.0 113.7
KCF 74.1 172.0
TLD 60.8 28.1
在表1中:SCM对应为W.Zhong等人提出的方法(W.Zhong,H.Lu,and M.-H.Yang,“Robust Object Tracking via Sparse Collaborative Appearance Model,”in IEEETrans.Image Process.,vol.23,no.5,2014,pp.2356-2368.)
ASLA对应为X.Jia等人提出的方法(X.Jia,H.Hone and M.-H.Yang,“VisualTracking via Adaptive Structural Local Sparse Appearance Model,”in Proc.IEEEConf.Comput.Vis.Pattern Recognit.,2012,pp.1822-1829.)
VTD对应为J.Kwon等人提出的方法(J.Kwon and K.M.Lee,“Visual TrackingDecomposition,”in Proc.IEEE Conf.Comput.Vis.Pattern Recognit.,2010,pp.1269-1276.)
VTS对应为J.Kwon等人提出的方法(J.Kwon and K.M.Lee,“Tracking bySampling Trackers,”in Proc.IEEE Int.Conf.Comput.Vis.,2011,pp.1195-1202.)
LSK对应为B.Liu等人提出的方法(B.Liu,J.Huang,L.Yang and C.Kulikowsk,“Visual Tracking Using Local Sparse Appearance Model and K-Selection,”inProc.IEEE Conf.Comput.Vis.Pattern Recognit.,2011,pp.1313-1320.)
GOTURN对应为D.Held等人提出的方法(D.Held,S.Thrun and S.Savaresei,“Learning to Track at 100fps with Deep Regression Networks,”inProc.Eur.Cofnf.Comput.Vis.,2016,pp.749-765.)
Re3对应为D.Gorden等人提出的方法(D.Gorden,A.Farhadi and D.Fox,“Re3:Real-time Recurrent Regression Networks for Object Tracking,”in IEEE Robo.AndAuto.Lett.,vol.3,no.2,2017,pp.749-765.)
KCF对应为J.F.Henriques等人提出的方法(J.F.Henriques,R.Caseiro,P.Martins and J.Batista,“High-speed Tracking with Kernelized CorrelationFilters,”in IEEE Trans.Pattern Anal.Mach.Intell.,vol.37,no.3,2015,pp.783-596.)
DSST对应为M.Danelljan等人提出的方法(M.Danelljan,G.Hager,F.S.Khan andM.Felsberg,“Discriminative Scale Spece Tracking,”in IEEE Trans.PatternAnal.Mach.Intell.,vol.39,no.8,2017,pp.1561-1575.)
TLD对应为Z.Kalal等人提出的方法(Z.Kalal,K.Mikolajczyk and J.Matas,“Tracking-learning-detection,”in IEEE Trans.Pattern Anal.Mach.Intell.,vol.34,no.7,2012,pp.1409-1422)。

Claims (7)

1.基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于包括以下步骤:
1)在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对;
2)使用均方误差损失,通过全监督的方式对所提出的目标概率生成器进行初步训练,具体方法如下:
L(rm,n,Gz,s)=||rm,n-Gz,s||2
其中,Gz,s为目标概率生成器所输出的目标概率分布图,rm,n则表示标签目标概率分布,
Figure FDA0002075546730000011
其中,x,y∈{1,...,128},H和W分别表示目标的高和宽;z和s分别表示目标模板和目标搜索区域,m和n为目标样本在搜索区域s中的中心位置坐标;σ设置为4×10-1
3)引入判别器,加入对抗训练的方式共同优化目标概率生成器和判别器,使得目标概率生成器学习到更具有判别力的特征,具体过程如下:
Figure FDA0002075546730000012
其中,D为判别器,λ为平衡对抗损失和均方损失的超参数;
4)给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板;
5)给定测试帧,以当前目标长宽的N倍大小的窗口进行随机的位移来得到搜索区域;
6)将搜索区域和目标模板输入目标概率生成器,输出得到目标概率图,选取目标概率图中最大值点的位置作为目标中心,确定目标中心过程如下:
Figure FDA0002075546730000013
其中,Gz,s(x,y)表示生成的目标概率图在(x,y)位置处的值;
7)根据目标概率图分布估计目标在当前帧的尺度,尺度估计过程描述如下:首先令K表示尺度的数量,对于
Figure FDA0002075546730000014
评估其对应的目标尺度,其中,高为ekHt-1,宽为ekWt-1,e为尺度因子,其过程如下:
Figure FDA0002075546730000015
Figure FDA0002075546730000016
其中,
Figure FDA0002075546730000021
Figure FDA0002075546730000022
最终,目标在当前第t帧中的尺度估计为:
Figure FDA0002075546730000023
Figure FDA0002075546730000024
8)根据当前帧估计的目标区域进行目标模板更新。
2.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤1)中,所述在有标记的离线目标跟踪数据集中收集大量目标模板和包含有目标的搜索区域样本对的具体方法为:在有标注的离线目标跟踪数据集中,选取任意视频序列a,在a中,首先选取第t帧中的目标作为目标模板,然后将第t帧作为起始帧,在后50帧内随机选取一帧得到目标搜索区域样本;通过上述方式,收集大量的目标模板和目标搜索区域样本对;所述有标记的离线目标跟踪数据集为ILSVRC-VID视频目标检测数据集。
3.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤3)中,所述λ为10-4
4.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤4)中,所述给定测试视频中的第一帧,采样其标注的目标区域作为初始目标模板的具体方法为:根据测试视频中第一帧中标记的目标区域,采样得到目标模板,并采用双线性插值将目标模板大小调整为255×255×3。
5.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤5)中,所述N为2.5。
6.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤7)中,所述K为33,e为1.02;η为2.5×10-1
7.如权利要求1所述基于多分支自编码对抗网络的高效目标跟踪方法,其特征在于在步骤8)中,所述根据当前帧估计的目标区域进行目标模板更新的具体方法为:令
Figure FDA0002075546730000025
为(t-1)帧的目标模板,使用学习率w来更新得到第t帧的目标模板:
Figure FDA0002075546730000026
其中,w为5×10-3
CN201910452361.2A 2019-05-28 2019-05-28 基于多分支自编码对抗网络的高效目标跟踪方法 Active CN110189362B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910452361.2A CN110189362B (zh) 2019-05-28 2019-05-28 基于多分支自编码对抗网络的高效目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910452361.2A CN110189362B (zh) 2019-05-28 2019-05-28 基于多分支自编码对抗网络的高效目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110189362A CN110189362A (zh) 2019-08-30
CN110189362B true CN110189362B (zh) 2020-12-25

Family

ID=67718227

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910452361.2A Active CN110189362B (zh) 2019-05-28 2019-05-28 基于多分支自编码对抗网络的高效目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110189362B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807795B (zh) * 2019-10-31 2022-07-22 北方工业大学 一种基于MDnet的无人机遥感目标跟踪方法及装置
CN111488932B (zh) * 2020-04-10 2021-03-16 中国科学院大学 一种基于帧率感知的自监督视频时-空表征学习方法
CN111681263B (zh) * 2020-05-25 2022-05-03 厦门大学 基于三值量化的多尺度对抗性目标跟踪算法
CN112183600B (zh) * 2020-09-22 2021-04-27 天津大学 一种基于动态记忆库模板更新的目标跟踪方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257148A (zh) * 2018-01-17 2018-07-06 厦门大学 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
CN108764085A (zh) * 2018-05-17 2018-11-06 上海交通大学 基于生成对抗网络的人群计数方法
CN108960086A (zh) * 2018-06-20 2018-12-07 电子科技大学 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11188783B2 (en) * 2017-10-19 2021-11-30 Nokia Technologies Oy Reverse neural network for object re-identification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257148A (zh) * 2018-01-17 2018-07-06 厦门大学 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
CN108764085A (zh) * 2018-05-17 2018-11-06 上海交通大学 基于生成对抗网络的人群计数方法
CN108960086A (zh) * 2018-06-20 2018-12-07 电子科技大学 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"DSNet: Deep and Shallow Feature Learning for Efficient Visual Tracking";Qiangqiang Wu 等;《arXiv:1811.02208v1》;20181106;正文第1-16页 *

Also Published As

Publication number Publication date
CN110189362A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
CN110189362B (zh) 基于多分支自编码对抗网络的高效目标跟踪方法
Li et al. GradNet: Gradient-guided network for visual object tracking
Zhang et al. SCSTCF: spatial-channel selection and temporal regularized correlation filters for visual tracking
Yang et al. Collaborative learning of gesture recognition and 3d hand pose estimation with multi-order feature analysis
CN108399435B (zh) 一种基于动静特征的视频分类方法
CN110738690A (zh) 一种基于多目标追踪框架的无人机视频中车速校正方法
CN108682022B (zh) 基于对抗迁移网络的视觉跟踪方法及系统
CN112348849A (zh) 一种孪生网络视频目标跟踪方法及装置
CN107067410B (zh) 一种基于增广样本的流形正则化相关滤波目标跟踪方法
CN109508686B (zh) 一种基于层次化特征子空间学习的人体行为识别方法
CN105809672A (zh) 一种基于超像素和结构化约束的图像多目标协同分割方法
Han et al. Fast learning of spatially regularized and content aware correlation filter for visual tracking
Yu et al. Deep temporal model-based identity-aware hand detection for space human–robot interaction
Levine Exploring deep and recurrent architectures for optimal control
CN107844739B (zh) 基于自适应同时稀疏表示的鲁棒性目标追踪方法
CN109544600A (zh) 一种基于上下文相关和判别相关滤波器的目标跟踪方法
Zhang et al. A background-aware correlation filter with adaptive saliency-aware regularization for visual tracking
CN104376308A (zh) 一种基于多任务学习的人体动作识别方法
Yao RETRACTED ARTICLE: Deep learning analysis of human behaviour recognition based on convolutional neural network analysis
Ikram et al. Real time hand gesture recognition using leap motion controller based on CNN-SVM architechture
CN112883928A (zh) 一种基于深度神经网络的多目标追踪算法
Li et al. Visual tracking by dynamic matching-classification network switching
Zhang et al. Robust correlation tracking in unmanned aerial vehicle videos via deep target-specific rectification networks
CN109492530A (zh) 基于深度多尺度时空特征的健壮性视觉物体跟踪算法
Sun et al. Robust object tracking with the inverse relocation strategy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant