CN113052875A - 一种基于状态感知模板更新的目标跟踪算法 - Google Patents

一种基于状态感知模板更新的目标跟踪算法 Download PDF

Info

Publication number
CN113052875A
CN113052875A CN202110338092.4A CN202110338092A CN113052875A CN 113052875 A CN113052875 A CN 113052875A CN 202110338092 A CN202110338092 A CN 202110338092A CN 113052875 A CN113052875 A CN 113052875A
Authority
CN
China
Prior art keywords
target
template
updating
tracking
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110338092.4A
Other languages
English (en)
Inventor
贾海涛
邓文浩
王子彦
贾宇明
任利
许文波
田浩琨
张诗涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110338092.4A priority Critical patent/CN113052875A/zh
Publication of CN113052875A publication Critical patent/CN113052875A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种改进的基于状态感知模板更新的目标跟踪技术。在目标跟踪时,随着图像采集设备和目标之间角度的变化,或者目标本身特性造成的形态变化,会造成图像序列中目标形状、大小上的变化,即目标形变问题,给目标跟踪算法带来了一定的挑战。本发明根据目标形变问题,基于SiamRPN算法提出了一种基于状态感知模板更新的Siamese目标跟踪技术,从两个角度来着手改进目标跟踪里的模板更新。一是如何进行模板更新,结合元学习的思想,构建模板更新网络,实现快速可靠的模板更新。二是何时进行模板更新,通过构建一个长短记忆网络来对目标状态进行判断,决定更新目标模板的时机。本发明能有效的解决长时目标跟踪场景下的目标模板更新的问题。

Description

一种基于状态感知模板更新的目标跟踪算法
技术领域
本发明涉及计算机视觉中的目标跟踪领域,针对长时目标跟踪场景下的目标形变问题,提出一种改进的状态感知模板更新的目标跟踪算法。
背景技术
视觉目标跟踪技术,是计算机视觉的重要基础技术之一,也一直是计算机视觉领域中的一个重要课题和研究热点。其旨在通过在视频中的初始帧给定目标的初始位置,进而在后续的视频序列中能够估计出目标的位置和大小。目前,目标跟踪在计算机视觉研究领域受到了广泛的关注,同时在机器智能领域拥有广泛的应用,包括在军事制导、自动驾驶、人机交互、智能监控以及智能交通等方面。
在目标跟踪时,随着图像采集设备和目标之间角度的变化,或者目标本身特性造成的形态变化,往往也会造成图像序列中目标形状、大小上的变化,即目标形变问题。在长时跟踪场景,由于序列较长,此时目标前后形态、大小往往会发生较大的变化,这给目标跟踪算法带来了一定的挑战。
针对目标形变问题,主要通过模板更新使得跟踪器能够适应目标的变化。目前常见的模板更新方法多为简单的对目标特征进行组合,这种方法可以一定程度上适应目标的形变,但是同时也会引入当前帧目标的背景信息,这部分信息往往是不必要的,长久以往,反而会造成误差累积,同样会导致目标偏移和丢失。
发明内容
为了克服上述现有技术的不足,优化目标跟踪算法对于目标跟踪场景下的目标形变问题的适应能力,本发明提出了一种改进的基于状态感知模板更新的目标跟踪技术。该技术基于SiamRPN目标跟踪算法,从如何更新和何时更新两个角度进行了改进。
本发明所采用的技术方案是:
步骤1:开始基于状态感知模板更新的目标跟踪算法;
步骤2:读取视频序列,读取第一帧图像,选择目标,对目标进行特征提取,作为初始目标模板;
步骤3:判断视频序列是否结束,若未结束,进入步骤4;若结束,则直接结束基于状态感知模板更新的目标跟踪算法;
步骤4:基础跟踪模块,读取下一帧图像,以上一帧目标位置为中心建立候选区域,并进行特征提取,使用候选区域特征和目标模板进行分类和回归,获得该帧的最佳候选目标;
步骤5:状态感知模块,根据当前帧目标信息和之前帧所留下的时域信息,判断当前帧目标所处的状态;
步骤6:根据该状态决定是否对目标模板进行更新,若进行更新,则进入步骤7;若不需要更新,则进入步骤2;
步骤7:模板更新模块,基于元学习思路,将当前目标模板,初始目标模板和上一帧模板模板相结合进行目标模板更新,并在下一帧的跟踪里使用新的模板进行搜索匹配,进入步骤2。
与现有技术相比,本发明的有益效果是:
(1)结合元学习的思想,修改网络的训练思路,使得网络可以通过一次或几次的迭代达到一个较好的收敛效果,从而实现快速可靠的模板更新;
(2)通过构建一个长短记忆网络来对目标状态进行判断,决定更新目标模板的时机,从而进一步减少背景误差带来的影响。
附图说明
图1为:基于自适应模板更新的Siamese目标跟踪算法整体框图。
图2为:基础跟踪模块结构图。
图3为:基础跟踪模块网络参数。
图4为:目标跟踪表述为one-shot learning示意图。
图5为:模板更新模块结构图。
具体实施方式
下面结合附图对本发明进一步说明。
本发明提出了一种改进的基于自适应模板更新的Siamese模板跟踪算法,旨在优化目标跟踪算法对于目标形变问题的适应能力。算法总体框架如图1所示。
该算法由基础跟踪模块、模板更新模块和状态感知模块三个模块组成。基础跟踪模块主要对于搜索区域中可靠的对象进行回归和分类;状态感知模块旨在动态的判断目标当前的状态,决定是否进入模板更新模块;模板更新模块则专注于能够快速有效的进行目标的模板更新。
(1)基础跟踪模块
基础跟踪模块如图2所示,其结构和SiamRPN算法相似。由模板分支和搜索分支两个分支组成,模板分支将第一帧给定的目标图像z作为输入,搜索分支则将基于上一帧目标位置得出的当前帧的局部搜索区域x作为输入。通过一个共享参数的孪生网络
Figure BDA0002998389930000031
对z和x执行相同的变换,嵌入至公共特征空间用于后续的任务。在嵌入空间中进行二者的互相关。表示为式(1)所示。
Figure BDA0002998389930000032
其中*表示互相关运算,
Figure BDA0002998389930000033
表示用于特征提取的孪生网络,[.]i表示用于特定子任务的计算,i表示子任务的类型,主要有用于分类的cls和用于回归的reg。
对于分类的cls子任务和回归的reg子任务,则如图3-3右边部分所示。经过孪生网络的目标特征
Figure BDA0002998389930000034
和搜索特征
Figure BDA0002998389930000035
分别经过了一个分类卷积层和回归卷积层,扩展成了2k个通道的
Figure BDA0002998389930000036
和4k个通道的
Figure BDA0002998389930000037
以及通道数不变的
Figure BDA0002998389930000038
Figure BDA0002998389930000039
最后,将分类子任务的两个特征和回归子任务的两个特征分别进行卷积计算,得出和相似度得分图用于判断目标位置,以及对应的目标边界框偏移量数组[x,dy,dw,dh],取其中的最大值即可得出当前跟踪目标所在位置和尺度。
在训练基础跟踪网络时,从选定视频片段中随机采样出两帧图像,根据标注信息获取其中一帧的目标图像z,获取另一帧的搜索区域图像X,二者组成(X,z)对。并根据X中目标位置生成真实的置信图y∈{-1,+1}17×17,其中目标位置的值为+1,否则为-1。使用的逻辑损失函数如下式(2)所示。、
Figure BDA00029983899300000310
其中,p表示响应图中每个可能位置P的集合中的一个位置,而ζ(y[p]))是一个加权函数,用于改善标签不平衡的问题。
为了提高跟踪器对于相同类别目标的判别能力,在训练时使用了一种语义否定的方式,通过分别构造目标不同类别和相同类别的负样本。和目标不同类别的负样本可以避免跟踪器在目标形变或遮挡等情况时漂移至背景图像上,而相同类别的负样本则使得跟踪器专注于细粒度表示,在一定程度上抑制相似目标的影响。同时,为了进一步发挥跟踪网络的潜力,还使用了平移,比例变化和光照变化等图像增强方式进行数据增强。
在基础跟踪模块,综合考量跟踪器的速度和性能的因素,本章参考SiamRPN算法,使用一种修改的AlexNet作为特征提取网络。使用5个卷积层,并在前两个卷积层之后使用2个核为3、步长为2的池化层。在每个卷积层之后插入归一化层。网络具体参数如图3所示。
之后,将目标特征和搜索区域特征送入至RPN进行目标尺度和位置的回归,由于跟踪时两个相邻帧之间目标的变化不会很大,因此,本章所使用的anchor ratio设为[0.33,0.5,1,2,3]。
损失函数使用Adam优化器进行了优化,batch size为8,设置学习率为10-4,并运行95000次迭代。
(2)模板更新模块
模板更新模块旨在能够学习到形变后目标的特征,并尽可能的忽略其背景信息带来的影响。可以注意到在SiamRPN算法中,作者首次将目标跟踪算法表述为一种“one-shotlearning”的任务,该任务旨在通过一次学习中从目标的单个样本中学习到网络参数。这样,可以将基础跟踪模块中的目标特征提取分支认为是一种元学习过程,从单个目标样本中学习到了一组参数,学习到的参数则用于在搜索分支中对目标进行检测,从而跟踪到目标。而在SiamRPN的跟踪过程中,元学习器只在第一帧被触发,在后续帧中则执行检测任务。因此,基础跟踪模块又可以表示为图4所示。
通过这种表述方式,可以看出,要对目标模板更新,主要针对元学习器进行改进,提出一种改进的模板更新方法。通过学习一个通用函数来对模板进行更新,表示如下式(3)。
Figure BDA0002998389930000041
其中要学习的函数φ(.)根据初始的目标模板
Figure BDA0002998389930000042
当前帧所使用的目标模板
Figure BDA0002998389930000043
以及根据当前帧跟踪目标提取的模板Ti来进行模板更新。本质上,这个函数是通过整合当前帧目标特征Ti中的新信息,去对之前的模板
Figure BDA0002998389930000044
进行更新,可以适应当前帧中目标的变化。同时由于在这些目标模板中最可靠的信息仍然是初始的模板信息,因此在每次更新时还考虑了初始模板
Figure BDA0002998389930000045
模板更新模块的结构图如图5所示。
其中特征提取部分使用的依旧为基础跟踪模块下的特征提取网络。从初始帧中给定的初始目标进行
Figure BDA0002998389930000051
的提取。通过之前帧中更新得出的
Figure BDA00029983899300000519
对当前帧进行预测,并特征提取得Ti。并将
Figure BDA0002998389930000052
Figure BDA0002998389930000053
和Ti三个特征组成模板更新网络的输入。之后,通过一系列卷积层处理此输入,并输出预测的新累积模板
Figure BDA0002998389930000054
同时,由于初始帧的模板
Figure BDA0002998389930000055
时该模块中唯一的真实信息,其余输入皆为预测信息。因此,为了保证更新模板的有效性,本章还使用了一种残差的策略,将
Figure BDA0002998389930000056
跨层连接至模块输出。这样,在跟踪时对跟踪模板进行更新的同时,可以较为完整的保留目标初始特征,在一定程度上防止遮挡情况发生时背景信息对跟踪器造成的干扰。
在训练模板更新网络时,主要目标是该模块所预测的模板
Figure BDA00029983899300000520
应和下一帧中的目标真实位置特征
Figure BDA0002998389930000057
相匹配。因此,通过最小化
Figure BDA0002998389930000058
Figure BDA0002998389930000059
之间的欧式距离来对网络进行训练。损失函数定义为下式(4)。
Figure BDA00029983899300000510
由上式(4)可知,为了训练网络,首先需要获取三元组
Figure BDA00029983899300000511
Figure BDA00029983899300000512
通过从对应帧中真实目标位置提取特征,可以得到初始帧模板
Figure BDA00029983899300000513
和下一帧的模板
Figure BDA00029983899300000514
而对于上一帧更新得出的模板
Figure BDA00029983899300000515
和当前帧跟踪得出的Ti,这需要一帧一帧的累积计算和预测,要在预测的同时对网络进行迭代更新,过程非常繁琐。因此,在初始训练时,先使用传统的线性方式更新模板,获取初始的
Figure BDA00029983899300000516
和Ti。在后续阶段,则可以使用已知的
Figure BDA00029983899300000517
和Ti进行计算和更新网络,并不断的对
Figure BDA00029983899300000518
和Ti也进行更新。
在模板更新模块,使用一个两层的卷积神经网络进行模板更新,一层为1×1×3·C×96的卷积层,之后经过一个Relu的激活函数后,进入一个1×1×96×C的卷积层。其中C表示的式基础跟踪模块中提取特征的维数,本章中C=512。
权重从0开始初始化,使用大小为64的批处理大小训练模型。使用动量为0.9,衰减为0.0005的随机梯度下降(SGD)。
(3)状态感知模块
一个好的模板更新器可以准确的捕捉目标的形变以及抑制目标的背景信息,但是若该更新出现在不适当的情况下,同样也会出现跟踪器的降级甚至跟踪漂移。因此,本章提出一个状态感知模块,旨在利用跟踪时的时序信息,对当前的跟踪状态进行判断,决定跟踪器是否进行模板更新。状态感知模块主要可分为信息提取部分和状态感知部分。
信息提取部分。在这里,首先基于基础跟踪模块,通过挖掘其中目标的时序信息、位置信息、尺度信息以及置信值信息来进行状态感知模块中输入部分的构建。
位置尺度信息:在第t帧中,跟踪器会输出一个目标的位置和尺度信息bt=[xt,yt,wt,ht],其中(xt,yt)表示目标左上角的坐标,(wt,ht)表示目标的宽度高度。此边界框反映了当前帧中目标对象的几何形状。但是,若结合时域,这一系列的目标位置和尺度信息就包含了目标的运动信息,例如速度,加速度和缩放比例变化。
置信值信息:文本跟踪器可以被认为是区分目标与周围背景的分类任务,其在跟踪过程中会将搜索区域构建成置信图Rt的形式,置信图中的最大值st即对应为最有可能的目标。在时域中,一系列的最大置信值的变化情况也包含了目标的一些状态信息。置信值信息如式(5)所示。
st=max(Rt) (5)
时序信息:将上述目标的位置尺度信息,置信值信息,根据时序,集成到一个矩阵中,如式(6)所示。
Figure BDA0002998389930000061
其中xt是由bt,st组成的列向量。ts用于平衡历史信息和当前信息的步长。将上述信息送入状态感知网络进行状态判断。
状态感知网络。在目标跟踪时,通常根据当前帧得出的目标最大置信值判定为目标,对于目标所处于的状态也是通过置信图的置信值大小、峰值旁瓣比(PSR)、平均峰值相关能量和MAX-PSR等信息来进行人工判断的,这些方法仅仅依赖当前帧的信息,而目标跟踪是一种严重依赖时间序列的过程。因此,本章中所提出的状态感知模块希望可以通过一种方式能够利用目标跟踪时产生的信息结合时序信息,对当前帧的目标状态进行判断。
循环神经网络是一种用于处理序列形数据的神经网络,能够处理序列变化的数据,而长短记忆网络是一种特殊的RNN,可以在长时的序列中有更好的表现。其数学描述如式(7)所示。
Figure BDA0002998389930000071
其中σ(.)和tanh(.)分别表示sigmoid激活函数和tanh激活函数,⊙表示对应元素逐个相乘的运算W、U和b表示需要学习的权重矩阵和偏差向量。下标f、i、o和c分别表示遗忘门、输入门、输出门和记忆单元。xt表示LSTM单元的输入向量,ft、it和ot分别表示遗忘门的激活向量、输入门的激活向量和输出门的激活向量,ct表示记忆单元状态向量,ht表示隐层状态向量。
将上面信息提取所得的Xt输入到这样的LSTM模型中,最后由两个全连接层进行处理得出一个二分类的结果,返回当前目标跟踪状态,用于决定目标是否进行模板更新。
在训练状态感知模块时,首先进行正负样本的采集和判定。使用以上基础跟踪模块和模板更新模块的跟踪器在一系列序列上运行测试,并记录下每一帧的结果。每帧的结果包括该帧的目标框,响应值等信息。并使用下式(8)的方式确定标签。
Figure BDA0002998389930000072
其中bt表示当前跟踪器得出的目标框,gt表示当前帧目标真实位置。本章通过交并比的方式来对正负样本进行判定,不过并未使用交并比在0到0.5间的样本,以此来保证训练收敛。同时类似模板更新模块的训练方式,通过不断的保存跟踪结果,然后以此训练并保存用于下一次训练跟踪结果,这种迭代的方式来进行该模块的训练。
在状态感知模块,使用一个具有完全连接层的LSTM网络。LSTM网络中具有64个单元。ts,t1和t2分别设置为20、8和3。遗忘偏差设置为1.0。最后,将输出发送到两个具有64个隐藏单元的完全连接的层中,以获取最终的二进制值。LSTM的每个训练阶段的批处理大小为16,并通过100000次迭代进行训练,学习率为10-4

Claims (3)

1.一种基于状态感知模板更新的目标跟踪算法,其特征在于,包括以下步骤:
步骤1:开始基于状态感知模板更新的目标跟踪算法;
步骤2:读取视频序列,读取第一帧图像,选择目标,对目标进行特征提取,作为初始目标模板;
步骤3:判断视频序列是否结束,若未结束,进入步骤4;若结束,则直接结束基于状态感知模板更新的目标跟踪算法;
步骤4:基础跟踪模块,读取下一帧图像,以上一帧目标位置为中心建立候选区域,并进行特征提取,使用候选区域特征和目标模板进行分类和回归,获得该帧的最佳候选目标;
步骤5:状态感知模块,根据当前帧目标信息和之前帧所留下的时域信息,判断当前帧目标所处的状态;
步骤6:根据该状态决定是否对目标模板进行更新,若进行更新,则进入步骤7;若不需要更新,则进入步骤2;
步骤7:模板更新模块,基于元学习思路,将当前目标模板,初始目标模板和上一帧模板模板相结合进行目标模板更新,并在下一帧的跟踪里使用新的模板进行搜索匹配,进入步骤2。
2.如权利要求1所述方法,其特征在于,步骤5中的状态感知使用长短记忆网络,将跟踪时序上的信息作为输入,输出为0和1,决定是否更新,其中时序信息长度设为10帧。
3.如权利要求1所述方法,其特征在于,步骤7中的模板更新方法基于元学习构建神经网络来实现,并使用一种残差策略将目标初始模板跨层连接至模块输出,这样,在跟踪时对跟踪模板进行更新的同时,可以较为完整的保留目标初始特征,在一定程度上防止遮挡情况发生时背景信息对跟踪器造成的干扰。
CN202110338092.4A 2021-03-30 2021-03-30 一种基于状态感知模板更新的目标跟踪算法 Pending CN113052875A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110338092.4A CN113052875A (zh) 2021-03-30 2021-03-30 一种基于状态感知模板更新的目标跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110338092.4A CN113052875A (zh) 2021-03-30 2021-03-30 一种基于状态感知模板更新的目标跟踪算法

Publications (1)

Publication Number Publication Date
CN113052875A true CN113052875A (zh) 2021-06-29

Family

ID=76516163

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110338092.4A Pending CN113052875A (zh) 2021-03-30 2021-03-30 一种基于状态感知模板更新的目标跟踪算法

Country Status (1)

Country Link
CN (1) CN113052875A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861379A (zh) * 2022-12-21 2023-03-28 山东工商学院 孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100310127A1 (en) * 2009-06-08 2010-12-09 Nikon Corporation Subject tracking device and camera
KR20120066429A (ko) * 2010-12-14 2012-06-22 중앙대학교 산학협력단 복수의 오브젝트를 추적하는 장치 및 방법
CN105184822A (zh) * 2015-09-29 2015-12-23 中国兵器工业计算机应用技术研究所 一种目标跟踪模板更新方法
CN110647836A (zh) * 2019-09-18 2020-01-03 中国科学院光电技术研究所 一种鲁棒的基于深度学习的单目标跟踪方法
CN111144364A (zh) * 2019-12-31 2020-05-12 北京理工大学重庆创新中心 一种基于通道注意更新机制的孪生网络目标跟踪方法
CN111583300A (zh) * 2020-04-23 2020-08-25 天津大学 一种基于富集目标形态变化更新模板的目标跟踪方法
CN111640136A (zh) * 2020-05-23 2020-09-08 西北工业大学 一种复杂环境中的深度目标跟踪方法
EP3723046A1 (en) * 2017-12-29 2020-10-14 Huawei Technologies Co., Ltd. Target tracking method and device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100310127A1 (en) * 2009-06-08 2010-12-09 Nikon Corporation Subject tracking device and camera
KR20120066429A (ko) * 2010-12-14 2012-06-22 중앙대학교 산학협력단 복수의 오브젝트를 추적하는 장치 및 방법
CN105184822A (zh) * 2015-09-29 2015-12-23 中国兵器工业计算机应用技术研究所 一种目标跟踪模板更新方法
EP3723046A1 (en) * 2017-12-29 2020-10-14 Huawei Technologies Co., Ltd. Target tracking method and device
CN110647836A (zh) * 2019-09-18 2020-01-03 中国科学院光电技术研究所 一种鲁棒的基于深度学习的单目标跟踪方法
CN111144364A (zh) * 2019-12-31 2020-05-12 北京理工大学重庆创新中心 一种基于通道注意更新机制的孪生网络目标跟踪方法
CN111583300A (zh) * 2020-04-23 2020-08-25 天津大学 一种基于富集目标形态变化更新模板的目标跟踪方法
CN111640136A (zh) * 2020-05-23 2020-09-08 西北工业大学 一种复杂环境中的深度目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
余志超,张瑞红: "结合深度轮廓特征的改进孪生网络跟踪算法", 《西安电子科技大学学报》 *
谢颍晓: "基于时空采样网络的目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库(电子期刊)》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861379A (zh) * 2022-12-21 2023-03-28 山东工商学院 孪生网络基于局部可信模板进行目标模板更新的视频跟踪方法
CN115861379B (zh) * 2022-12-21 2023-10-20 山东工商学院 孪生网络基于局部可信模板进行模板更新的视频跟踪方法

Similar Documents

Publication Publication Date Title
Huang et al. A novel nonlocal-aware pyramid and multiscale multitask refinement detector for object detection in remote sensing images
CN112069896B (zh) 一种基于孪生网络融合多模板特征的视频目标跟踪方法
CN111144364B (zh) 一种基于通道注意更新机制的孪生网络目标跟踪方法
CN113221905B (zh) 基于均匀聚类的语义分割的无监督域适应方法、装置、系统和存储介质
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN111898504B (zh) 一种基于孪生循环神经网络的目标跟踪方法及系统
CN112258554B (zh) 基于注意力机制的双流层次孪生网络目标跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN112434599B (zh) 一种基于噪声通道的随机遮挡恢复的行人重识别方法
Vaquero et al. Dual-branch CNNs for vehicle detection and tracking on LiDAR data
CN112149538A (zh) 一种基于多任务学习的行人重识别方法
Huang et al. Siamsta: Spatio-temporal attention based siamese tracker for tracking uavs
CN114419151A (zh) 一种基于对比学习的多目标跟踪方法
CN115187786A (zh) 一种基于旋转的CenterNet2目标检测方法
Sahbi et al. Frugal Learning for Interactive Satellite Image Change Detection
Wang et al. Multiple pedestrian tracking with graph attention map on urban road scene
CN113052875A (zh) 一种基于状态感知模板更新的目标跟踪算法
Li A deep learning-based text detection and recognition approach for natural scenes
Huang et al. Bidirectional tracking scheme for visual object tracking based on recursive orthogonal least squares
CN116051601A (zh) 一种深度时空关联的视频目标跟踪方法及系统
Lin et al. A novel micro-defect classification system based on attention enhancement
Kalirajan et al. Deep Learning for Moving Object Detection and Tracking
Chen et al. Building Extraction from Remote Sensing Images with Conditional Generative Adversarial Networks
CN110163106A (zh) 一体式纹身检测与识别方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210629