CN112183600B - 一种基于动态记忆库模板更新的目标跟踪方法 - Google Patents

一种基于动态记忆库模板更新的目标跟踪方法 Download PDF

Info

Publication number
CN112183600B
CN112183600B CN202010999748.2A CN202010999748A CN112183600B CN 112183600 B CN112183600 B CN 112183600B CN 202010999748 A CN202010999748 A CN 202010999748A CN 112183600 B CN112183600 B CN 112183600B
Authority
CN
China
Prior art keywords
template
dynamic memory
tracking
memtrack
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010999748.2A
Other languages
English (en)
Other versions
CN112183600A (zh
Inventor
刘婧
王晗
苏育挺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202010999748.2A priority Critical patent/CN112183600B/zh
Publication of CN112183600A publication Critical patent/CN112183600A/zh
Application granted granted Critical
Publication of CN112183600B publication Critical patent/CN112183600B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于动态记忆库模板更新的目标跟踪方法,所述方法包括:构建目标跟踪的MemTrack基础网络框架;将MemTrack基础网络框架中的初始帧模板特征参照即将进入动态记忆库的已有模板特征进行最小二乘映射;将动态记忆库内写入更新后的模板特征参照处理后的模板特征进行最小二乘映射;在训练阶段,使用ILSVRC VID数据集,参照MemTrack的网络结构方式进行训练。本发明可进行模板更新,提供可靠的模板,在针对目标遮挡、形变和旋转等具有挑战的环境下,具有良好的性能。

Description

一种基于动态记忆库模板更新的目标跟踪方法
技术领域
本发明涉及目标跟踪领域,尤其涉及一种基于动态记忆库模板更新的目标跟踪方法。
背景技术
随着社会信息化程度不断提高,电子设备产生大量信息,其中主要为视频信息,分析或利用视频信息的一项基础性技术是目标跟踪。对于很多种应用场景,比如无人驾驶,只有提取道路面运动物体的轨迹,才有可能针对该物体进行一系列的躲避动作,以保持安全距离。所以,大量的应用场景需要对视频进行目标跟踪处理,在此基础上做出相应的数据分析,进而做出相应的判断。
目标跟踪是指在设备获取的视频序列上,对其中的一个目标或者多个目标进行跟踪。预先给出目标在初始帧上的信息,包括位置信息和形状大小信息,通常使用一个包含目标的矩形框来表示。在后续帧上,通过目标跟踪算法得到目标的位置和大小的信息。目标跟踪的算法,可分为基于生成式的算法和基于判别式的算法。早期的算法比如光流法,均值漂移法,属于基于生成式的算法。目前主流的目标跟踪算法都是基于判别式的,其中又可分为基于相关滤波的算法和基于深度学习的算法。相关滤波算法,有KCF[1],MOSSE[2], SRDCF[3],C-COT[4]和ECO[5]等。在基于深度学习的算法中,又可分为两小类。第一类是自SiamFC[6]在2016年提出后,形成了基于孪生网络的算法,著名算法有SiamRPN[7], SiamRPN++[8]和SiamMask[9]等。第二类是其他深度学习算法,主要包括MDNet[10], VITAL[11]和ATOM[12]等。
由于视频序列中,目标存在形变,遮挡和旋转等问题,这使得目标跟踪十分具有挑战性。单一使用初始帧模板进行自始至终地模板匹配任务,这种方式对于跟踪算法性能提升有很大限制。因此,引入模板更新机制是必要的。但是简单的模板更新机制,比如简单地将上一帧的跟踪结果,作为下一帧的模板进行使用,会使性能不升反降。因为在跟踪任务中,只有初始帧模板是完全可信的,网络无法判断出当前的跟踪结果是否准确,是否需要修正;所以简单的模板更新机制会造成错误传播,降低性能。
发明内容
本发明提供了一种基于动态记忆库模板更新的目标跟踪方法,本发明可进行模板更新,提供可靠的模板,在针对目标遮挡、形变和旋转等具有挑战的环境下,具有良好的性能,详见下文描述:
一种基于动态记忆库模板更新的目标跟踪方法,所述方法包括:
构建目标跟踪的MemTrack基础网络框架;
将MemTrack基础网络框架中的初始帧模板特征参照即将进入动态记忆库的已有模板特征进行最小二乘映射;
将动态记忆库内写入更新后的模板特征参照处理后的模板特征进行最小二乘映射;
在训练阶段,使用ILSVRC VID数据集,参照MemTrack的网络结构方式进行训练。
其中,所述将MemTrack基础网络框架中的初始帧模板特征参照即将进入动态记忆库的已有模板特征进行最小二乘映射具体为:
Figure BDA0002693870330000021
Figure BDA0002693870330000022
其中,T0表示初始帧模板特征,Update表示最小二乘法映射,
Figure BDA0002693870330000023
表示跟踪结果的模板特征,
Figure BDA0002693870330000024
表示经过最小二乘法映射后的模板特征,
Figure BDA0002693870330000025
表示离散傅里叶变换,
Figure BDA0002693870330000026
表示离散傅里叶逆变换,
Figure BDA00026938703300000212
表示共轭,λ、translr1表示超参数,
Figure BDA0002693870330000027
表示输入到动态记忆库的模板特征。
进一步地,所述将动态记忆库内写入更新后的模板特征参照动态记忆库中处理后的模板特征进行最小二乘映射具体为:
Figure BDA0002693870330000028
Mt+1(j)=(1-translr2)M′t(j)+translr2(M"t(j)-M′t(j))
其中,
Figure BDA0002693870330000029
为对已经进行写入更新的存储单元M′t(j)进行离散傅里叶变换,
Figure BDA00026938703300000210
为对已经进行写入更新的存储单元M′t(j)进行离散傅里叶变换后取共轭,
Figure BDA00026938703300000211
为对写入权重最大的存储单元M′t,max进行离散傅里叶变换,M"t(j)为最终更新完成的第j个动态记忆库模板特征,translr2表示超参数。
本发明提供的技术方案的有益效果是:
1、本发明以MemTrack[13]为基础框架,使用最小二乘法的映射方式,对动态记忆库的模板更新方式进行改进,对将进入动态记忆库的模板进行映射变换,用已存在的模板特征表示进入动态记忆库的模板特征,最终使得存在动态记忆库中的模板特征既含有当前帧的信息又含有过去帧的信息;
2、本发明对已经入动态记忆库的模板进行映射变换,使动态记忆库输出的模板既包含当前帧的信息,又包含过去帧的信息;最终,既提高模板的可信度,又提高模板所含信息量;通过基准数据库测试,本发明所提出的算法在性能上获得提升,可以得到更好的主观和客观结果。
附图说明
图1为一种基于动态记忆库模板更新的目标跟踪方法的流程图;
图2为基于动态记忆库模板更新的目标跟踪的网络框图;
图3为对比算法在OTB100测试的Success图和Precision图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
实施例1
本发明实施例提供了一种基于动态记忆库模板更新的目标跟踪方法,参见图1,该方法包括以下步骤:
101:构建目标跟踪算法的基础网络框架;
即首先搭建MemTrack的网络结构。MemTrack网络结构建立在SiamFC基础之上,包含两个特征提取分支和一个生成响应图的相关运算。除此之外,MemTrack网络结构在搜索分支上含有注意力模块和LSTM[14](长短期记忆网络)模块,以便根据当前状态生成各种参数。同时,在MemTrack网络结构中加入动态记忆库以及相关的读写控制模块。
其中,MemTrack的网络结构、SiamFC、LSTM模块均为本领域技术人员所公知,本发明实施例对此不做赘述。
102:在MemTrack的网络结构基础上加入最小二乘法映射函数;
将初始帧模板特征参照即将进入动态记忆库的模板特征进行最小二乘映射;将动态记忆库内存在的模板特征参照已进入动态记忆库的模板特征进行最小二乘映射。
103:在训练阶段,使用ILSVRC VID[15]数据集,参照MemTrack的网络结构方式进行训练;
首先,对每个视频序列进行随机采样,采样后的样本保持一个时间顺序,用来生成训练样本。训练时网络学习率按照指数衰减的方式更新,使用RMSProp优化器更新网络参数。训练过程加入尺度平滑变换函数和尺度变换惩罚。
其中,RMSProp优化器、尺度平滑变换函数和尺度变换惩罚均为本领域技术人员所公知,本发明实施例对此不做赘述。
104:在测试阶段,首先利用初始帧信息对网络参数进行初始化。通过卷积神经网络,对搜索区域进行特征提取,并将提取到的特征输入到注意力模块进行参数更新;根据注意力模块的输出和LSTM上一时刻的状态,对LSTM状态进行更新,生成各项控制或权重参数;综合当前动态记忆库内模板特征生成输出模板特征,与初始模板特征相加作为用于搜索目标的最终模板特征;将最终模板特征与搜索区域特征进行相关运算,生成响应图,计算得到目标的位置偏移和尺寸大小,完成对当前帧的目标跟踪。对跟踪结果进行特征提取并将其作为新的模板特征,参照初始模板帧特征进行最小二乘法变换后,输入动态记忆库;对输入动态记忆库的模板特征,参照动态记忆库内已有的模板帧特征进行最小二乘法变换后,对动态记忆库进行动态更新。
综上所述,本发明实施例通过步骤101至步骤104设计了一种基于动态记忆库模板更新的目标跟踪方法。在MemTrack原有网络结构基础上,引入最小二乘法映射变换。将初始帧模板和动态记忆库内已存在模板,参照写入动态记忆库的模板进行最小二乘法映射变换,使其富含初始帧模板信息和已存在模板信息。既提高了初始帧模板对网络的影响,又提高模板的可信度。本发明实施例是对MemTrack网络的在线更新机制的增强,使其面对大尺度变化,形变,旋转和遮挡等具有挑战性的目标跟踪环境,可以获得更好的性能。
实施例2
下面对实施例1中的方案进行进一步地介绍,详见下文描述:
201:构建SiamFC的目标跟踪框架;
视觉目标跟踪任务希望在给定初始帧信息的情况下,可以跟踪任意的目标。无论目标是否发生外观变化,算法都可以准确且实时进行跟踪。近年来,在目标跟踪领域,模板匹配的方法受到学者大量关注。模板匹配是指将初始帧模板和搜索帧的候选区域进行相关运算,找出最相似的候选区域作为当前帧跟踪结果。模板匹配方法可以获得良好的性能和可实时运行的速度,其中以SiamFC为基础框架的目标跟踪算法尤为受到关注。但模板匹配法的精确度和通过目标检测进行跟踪的算法仍有较大差距。其中一项关键原因是模板匹配法往往单纯使用初始帧信息进行匹配跟踪,不能包含目标外观变化信息,即没有模板更新机制。然而简单的模板更新机制,往往会降低算法性能。比如,最简单的模板更新机制:将上一帧的跟踪结果作为当前帧的模板,这种简单的方式会导致跟踪失败。因为不是每一帧的跟踪结果都是正确的,以此方式进行跟踪,会造成差错传播,进而跟踪失败。
因此加入模板更新机制,需要考虑的问题是如何提高更新后模板的可信度。在目标跟踪中,最可信的是初始帧模板信息,其余所有跟踪结果都是基于此生成。所以,提高初始帧模板在模板更新机制中的影响是合理且重要的。本发明实施例中,对跟踪结果进行特征提取并将其作为新的模板特征,参照初始模板帧特征进行映射变换后输入动态记忆库,正是基于这样的思想。
模板更新的目的是丰富模板信息,以适应当前目标的外观变化。在不降低可信度的前提下,如何提高更新后模板的信息量是模板更新的重要问题。本发明实施例在MemTrack 网络结构的基础上,通过对输入动态记忆库的模板特征参照动态记忆库内已有的模板帧特征进行映射变化的方式,增加更新后模板所含的信息量。
最小二乘法映射变换将计算转化到频域中通过FFT(快速傅立叶变换)迅速计算出,可以较小的计算开销提高网络的适应目标能力。同时最小二乘法映射变换可以看做一个简单的网络层,方便地插入到网络之中提高性能。
基于以上分析,本发明实施例提出的算法可对MemTrack算法的性能进行提升。
本发明实施例的算法网络结构如图2所示。
SiamFC的目标跟踪框架为,
Figure BDA0002693870330000051
其中,f(·)表示利用卷积神经网络进行特征提取,Xt表示第t帧的搜索区域,
Figure BDA0002693870330000052
表示与搜索区域用于相关运算的模板特征,corr(·,·)表示相关运算,St表示第t帧的响应图。寻找响应图St上的最大峰值,进行线性插值放大,并得到跟踪结果。
网络中注意力模块利用提取到的特征,生成表示目标特征的向量at,并将其输入到 LSTM模块中,即:
Figure BDA0002693870330000053
f*(St)=AvgPoolingn×n(f(St)) (3)
其中,αt,i为网络生成的权重系数,f(St)表示搜索帧候选区域的特征,
Figure BDA0002693870330000061
表示对
Figure BDA0002693870330000062
进行的n×n全局平均池化生成的c维向量,i表示第i个候选区域。根据表示目标特征的向量at和之前的LSTM状态ht-1与ct-1,按照LSTM[15]的更新方式生成当前状态ht和ct,AvgPoolingn×n表示n×n的全局平均池化,
Figure 1
表示实数域,*为区别标记,仅用于区别f(St)和f*(St)。f*(St)表示经过全局平均池化的搜索帧候选区域的特征。
202:在跟踪过程中,使用初始帧模板信息对网络进行初始化,从第二帧开始跟踪,过程如下:
在使用卷积神经网络提取搜索区域特征后,从动态记忆库
Figure BDA0002693870330000063
中读取模板
Figure BDA0002693870330000064
表示如下:
Figure BDA0002693870330000065
其中,N表示动态记忆库中存储单元数,Mt(j)表示第j个存储单元存储的模板, j∈[0,7],
Figure BDA0002693870330000066
表示对第j个存储单元的读取权重。
读取权重
Figure BDA0002693870330000067
根据网络当前状态生成,即:
Figure BDA0002693870330000068
kt=Wkht+bk (6)
βt=1+log(1+exp(Wβht+bβ)) (7)
其中,ht为LSTM当前状态,Wβ和bβ表示网络全连接层参数,C(x,y)表示余弦相似度,
Figure BDA0002693870330000069
Figure BDA00026938703300000610
表示对Mt(j)进行的n×n全局平均池化生成的c维向量,Wk和bk表示网络全连接层参数,j′为第j′个存储单元存储的模板。
在得到
Figure BDA00026938703300000611
后,加入初始帧模板T0,得到最终与搜索区域用于相关运算的模板
Figure BDA00026938703300000612
Figure BDA00026938703300000613
rt=σ(Wrht+br) (9)
其中,ht为LSTM当前状态,Wr和br表示网络全连接层参数,rt为保留权重,表示从动态记忆库中读取的模板
Figure BDA0002693870330000071
对最终用于相关运算的模板
Figure BDA0002693870330000072
的影响程度,σ为sigmod 激活函数。
在进行相关运算后,可得到响应图St,寻找响应图St上的最大峰值,按照SiamFC的方式进行插值运算,返回到搜索帧上,并得到跟踪结果。
然后进入第二部分,更新动态记忆库。输入动态记忆库的模板
Figure BDA0002693870330000073
是将初始帧模板特征参照跟踪结果
Figure BDA0002693870330000074
进行最小二乘映射,所述变换为:
Figure BDA0002693870330000075
Figure BDA0002693870330000076
其中,T0表示初始模板特征,Update表示最小二乘法映射,
Figure BDA0002693870330000077
表示离散傅里叶变换,
Figure BDA0002693870330000078
表示离散傅里叶逆变换,
Figure BDA00026938703300000715
表示共轭,λ、translr1表示超参数。
利用
Figure BDA0002693870330000079
对动态记忆库进行更新,Mt表示动态记忆库单元内已存在的模板特征,j∈[0,7],wt(j)wew为根据LSTM状态生成的写入权重[1],更新过程为:
Figure BDA00026938703300000710
其中,Mt(j)表示第j个存储单元存储的模板,Mt′(j)表示写入更新完成的第j个动态记忆库模板特征。
根据写入权重wt(j)wew得到所有存储单元中写入权重最大的存储单元M′t,max。M′t内已有的模板帧特征参照M′t,max进行最小二乘法映射,所述变换为:
Figure BDA00026938703300000711
Mt+1(j)=(1-translr2)M′t(j)+translr2(M"t(j)-M′t(j)) (14)
其中,translr2表示超参数,
Figure BDA00026938703300000712
为对已经进行写入更新的存储单元M′t(j)进行离散傅里叶变换,
Figure BDA00026938703300000713
为对已经进行写入更新的存储单元M′t(j)进行离散傅里叶变换后取共轭,
Figure BDA00026938703300000714
为对写入权重最大的存储单元M′t,max进行离散傅里叶变换,M"t(j)为最终更新完成的第j个动态记忆库模板特征。
203:在训练阶段使用RMSProp优化算法;
Figure BDA0002693870330000081
st=βst-1+(1-β)gt 2 (16)
Figure BDA0002693870330000082
其中,gt表示第t步损失函数对参数θ的偏导数,α和β表示超参数,ε为超参数避免分母过小为零,J(θt)为以θt为参数的网络的损失函数,st为累计平方梯度,
Figure BDA0002693870330000083
表示对参数θ求偏导数。
训练时用的损失函数和样本真值的定义,参考SiamFC使用的交叉熵损失函数和样本真值定义方式。
实施例3
下面结合具体的实验数据对实施例1和2中的方案进行效果评估,详见下文描述:
301:数据组成
测试集由OTB100[16]数据库中的100个视频序列构成。
302:评估准则
本发明主要采用两种评价指标对目标跟踪算法的性能进行评估:
Precision图在OTB(目标跟踪基准库)数据集中提出,用于衡量跟踪算法的准确性,即跟踪结果的中心位置与真实的中心位置之间的误差。通过计算被跟踪目标的中心位置与所有帧的手动标记的真实值之间的平均欧几里德距离。然后计算两者之间的距离小于给定阈值的帧数,并将这些帧数除以总帧数。最后可以得到Precision图,一条随阈值变化而变化的百分比曲线。通常以将20像素点为阈值对应的精度值,作为该跟踪算法的精度值代表。
Success图,用于衡量跟踪算法得出的矩形框的准确程度。首先计算跟踪结果与真实值之间的交并比S,即:
Figure BDA0002693870330000084
其中,rt表示跟踪结果,r0表示真实值,|·|表示计算该区域的像素点个数。S实际上是计算跟踪结果的矩形框与真实矩形框的面积之间的交并比。如果S大于给定阈值,认为跟踪成功,反之认为跟踪失败。与Precision图相同,计算成功的帧数与总帧数之间的比值,得到一条随阈值变化而变化的百分比曲线,称之为Precision图。以将50%为阈值对应的成功率值,作为该跟踪算法的成功率值代表。
303:对比算法
在评估性能测试阶段,本发明实施例与3种深度学习方法SiameseFC-3s[8],UDT[17], MemTrack[1]和1种相关滤波算法CFNet[18]进行比较。Success图和Precision图分别如图3所示。
表1展示几种算法在OTB100上测试得到的最好评价结果,其中MemTrack是本发明的基础框架。从表1中可以看到,本发明的评价结果Success和Precision较MemTrack分别提升了1.3%和1.9%,在Success上,比Siamese-3s提升5.7%,说明本发明可以有效提升基于孪生网络的目标跟踪算法应对目标外观变化的能力。同时在Precision上,比 SiamFC-3s高6.8%。相较于无监督的UDT算法性能也有所提升。与早期的相关滤波类算法CFNet相比,性能有显著提升。
表1
Figure BDA0002693870330000091
参考文献
[1]HenriquesF,Caseiro Rui,Martins Pedro,et al.High-Speed Trackingwith Kernelized Correlation Filters[J]//IEEE Transactions on Pattern Analysisand Machine Intelligence,2014, 37(3):583-596.
[2]Bolme Ds.Visual Object Tracking Using Adaptive Correlation Filters[C]//IEEE Conference on Computer Vision and Pattern Recognition Year,2010:2544-2550
[3]Danelljan Martin,Hager Gustav,Shahbaz Khan Fahad,et al.LearningSpatially Regularized Correlation Filters for Visual Tracking[C]//IEEEInternational Conference on Computer Vision, 2015:4310-4318.
[4]Danelljan Martin,Robinson Andreas,Khan Fahad Shahbaz,et al.Beyondcorrelation filters: Learning Continuous Convolution Operators for VisualTracking[C]//European Conference on Computer Vision,2016:472-488.
[5]Danelljan Martin,Bhat Goutam,Shahbaz Khan Fahad,et al.Eco:Efficient Convolution Operators for Tracking[C]//IEEE Conference on ComputerVision and Pattern Recognition, 2017:6638-6646.
[6]Bertinetto Luca,Valmadre Jack,Henriques Joao F,et al.Fully-Convolutional Siamese Networks for Object Tracking[C]//European Conference onComputer Vision,2016:850-865.
[7]Li Bo,Yan Junjie,Wu Wei,et al.High Performance Visual Trackingwith Siamese Region Proposal Network[C]//IEEE Conference on Computer Visionand Pattern Recognition,2018: 8971-8980.
[8]Li Bo,Wu Wei,Wang Qiang,et al.SiamRPN++:Evolution of SiameseVisual Tracking with Very Deep Networks[C]//IEEE Conference on ComputerVision and Pattern Recognition,2019: 4282-4291.
[9]Wang Qiang,Zhang Li,Bertinetto Luca,et al.Fast Online ObjectTracking and Segmentation: A unifying approach[C]//IEEE Conference onComputer Vision and Pattern Recognition,2019: 1328-1338.
[10]Nam Hyeonseob,Han Bohyung.Learning Multi-Domain ConvolutionalNeural Networks for Visual Tracking[C]//IEEE Conference on Computer Visionand Pattern Recognition,2016: 4293-4302.
[11]Song Yibing,Ma Chao,Wu Xiaohe,et al.VITAL:VIsual Tracking viaAdversarial Learning[C]//IEEE Conference on Computer Vision and PatternRecognition,2018:8990-8999.
[12]Danelljan Martin,Bhat Goutam,Khan Fahad Shahbaz,et al.ATOM:Accurate Tracking by Overlap Maximization[C]//IEEE Conference on ComputerVision and Pattern Recognition, 2019:4660-4669.
[13]Yang Tianyu,Chan Antoni B.Learning Dynamic Memory Networks forObject Tracking[C]//European Conference on Computer Vision ,2018:152-167.
[14]Hochreiter S,Schmidhuber J.Long short-term memory[J]//Neuralcomputation,1997,9(8): 1735-1780.
[15]Deng Jia,Dong Wei,Socher Richard,et al.ImageNet:A Large-ScaleHierarchical Image Database[C]//IEEE Conference on Computer Vision andPattern Recognition,2009:248-255.
[16]WuYi,Lim Jongwoo,YangMing-Hsuan.Object TrackingBenchmark[J]//IEEETransactions onPatternAnalysis and Machine Intelligence,2015,37(9):1834-1848.
[17]WangNing,Song Yibing,Ma Chao,etal.Unsupervised Deep Tracking[C]//IEEE Conference onComputer Vision and PatternRecognition,2019:1308-1317.
[18]Valmadre Jack,Bertinetto Luca,Henriques Joao,et al.End-to-endrepresentationlearning for Correlation Filter based tracking[C]//IEEEConference on Computer Vision and Pattern Recognition,2017:2805-2813.
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于动态记忆库模板更新的目标跟踪方法,其特征在于,所述方法包括:
1)构建目标跟踪的MemTrack基础网络框架;
2)将MemTrack基础网络框架中的初始帧模板特征参照即将进入动态记忆库的已有模板特征进行最小二乘映射;
3)将动态记忆库内写入更新后的模板特征参照处理后的模板特征进行最小二乘映射;
4)在训练阶段,使用ILSVRC VID数据集,参照MemTrack的网络结构方式进行训练;
其中,步骤2)具体为:
Figure FDA0002973616430000011
Figure FDA0002973616430000012
其中,T0表示初始帧模板特征,Update表示最小二乘法映射,
Figure FDA0002973616430000013
表示跟踪结果的模板特征,
Figure FDA0002973616430000014
表示经过最小二乘法映射后的模板特征,
Figure FDA0002973616430000015
表示离散傅里叶变换,
Figure FDA0002973616430000016
表示离散傅里叶逆变换,★表示共轭,且、translr1表示超参数,
Figure FDA0002973616430000017
表示输入到动态记忆库的模板特征;
其中,步骤3)具体为:
Figure FDA0002973616430000018
Mt+1(j)=(1-translr2)M′t(j)+translr2(M″t(j)-M′t(j))
其中,
Figure FDA0002973616430000019
为对已经进行写入更新的存储单元M′t(j)进行离散傅里叶变换,
Figure FDA00029736164300000110
为对已经进行写入更新的存储单元M′t(j)进行离散傅里叶变换后取共轭,
Figure FDA00029736164300000111
为对写入权重最大的存储单元M′t,max进行离散傅里叶变换,M″t(j)为最终更新完成的第j个动态记忆库模板特征,translr2表示超参数。
CN202010999748.2A 2020-09-22 2020-09-22 一种基于动态记忆库模板更新的目标跟踪方法 Active CN112183600B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010999748.2A CN112183600B (zh) 2020-09-22 2020-09-22 一种基于动态记忆库模板更新的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010999748.2A CN112183600B (zh) 2020-09-22 2020-09-22 一种基于动态记忆库模板更新的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112183600A CN112183600A (zh) 2021-01-05
CN112183600B true CN112183600B (zh) 2021-04-27

Family

ID=73955183

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010999748.2A Active CN112183600B (zh) 2020-09-22 2020-09-22 一种基于动态记忆库模板更新的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112183600B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052874B (zh) * 2021-03-18 2022-01-25 上海商汤智能科技有限公司 目标跟踪方法及装置、电子设备和存储介质
CN113158904B (zh) * 2021-04-23 2022-07-29 天津大学 一种基于双掩膜模板更新的孪生网络目标跟踪方法及装置
CN113610888B (zh) * 2021-06-29 2023-11-24 南京信息工程大学 一种基于高斯平滑的孪生网络目标跟踪方法
CN115861376A (zh) * 2022-12-06 2023-03-28 国能九江发电有限公司 一种基于缓存的密集目标追踪方法、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101458650A (zh) * 2007-12-13 2009-06-17 华为技术有限公司 多核系统中检测内存传递异常的装置和方法
CN106408592A (zh) * 2016-09-09 2017-02-15 南京航空航天大学 一种基于目标模板更新的目标跟踪方法
CN110189362A (zh) * 2019-05-28 2019-08-30 厦门大学 基于多分支自编码对抗网络的高效目标跟踪方法
CN111583300A (zh) * 2020-04-23 2020-08-25 天津大学 一种基于富集目标形态变化更新模板的目标跟踪方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110321937B (zh) * 2019-06-18 2022-05-17 哈尔滨工程大学 一种Faster-RCNN结合卡尔曼滤波的运动人体跟踪方法
CN111027586A (zh) * 2019-11-04 2020-04-17 天津大学 一种基于新型响应图融合的目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101458650A (zh) * 2007-12-13 2009-06-17 华为技术有限公司 多核系统中检测内存传递异常的装置和方法
CN106408592A (zh) * 2016-09-09 2017-02-15 南京航空航天大学 一种基于目标模板更新的目标跟踪方法
CN110189362A (zh) * 2019-05-28 2019-08-30 厦门大学 基于多分支自编码对抗网络的高效目标跟踪方法
CN111583300A (zh) * 2020-04-23 2020-08-25 天津大学 一种基于富集目标形态变化更新模板的目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Efficient scalable spatiotemporal visual tracking based on recurrent neural networks;Yue Ming等;《Multimedia Tools and Applications (2020)》;20191118;摘要 *
Learning Dynamic Memory Networks for Obeject tracking;tianyu yang等;《15th ECCV 2018》;20180914;摘要 *
目标跟踪中基于光流映射的模板更新算法;张静等;《激光与光电子学进展》;20200527;第57卷(第22期);摘要 *

Also Published As

Publication number Publication date
CN112183600A (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
CN112183600B (zh) 一种基于动态记忆库模板更新的目标跟踪方法
CN110598543B (zh) 基于属性挖掘和推理的模型训练方法及行人再识别方法
CN111583300B (zh) 一种基于富集目标形态变化更新模板的目标跟踪方法
CN113361636B (zh) 一种图像分类方法、系统、介质及电子设备
Zhu et al. Tiny object tracking: A large-scale dataset and a baseline
Zhang et al. Sparse learning-based correlation filter for robust tracking
Zheng et al. Siamese deformable cross-correlation network for real-time visual tracking
CN111815681A (zh) 基于深度学习和判别式模型训练的目标跟踪方法及存储器
Qin et al. SHREC’22 track: Sketch-based 3D shape retrieval in the wild
Li et al. Robust visual tracking with occlusion judgment and re-detection
Yu et al. Deep metric learning with dynamic margin hard sampling loss for face verification
Xu et al. Dilated-aware discriminative correlation filter for visual tracking
Ma et al. Study on computer vision target tracking algorithm based on sparse representation
CN113158904B (zh) 一种基于双掩膜模板更新的孪生网络目标跟踪方法及装置
Zhang et al. Clustering noisy trajectories via robust deep attention auto-encoders
CN113743455A (zh) 目标检索方法、装置、电子设备及存储介质
He et al. Variable scale learning for visual object tracking
CN116911377A (zh) 基于迁移学习的辐射源个体识别方法、设备及介质
CN106251364A (zh) 目标跟踪方法及装置
JP2023029236A (ja) オブジェクト検出モデルを訓練するための方法及びオブジェクト検出方法
Dong et al. A robust tracking algorithm with on online detector and high-confidence updating strategy
Pang et al. Target tracking based on siamese convolution neural networks
CN111724409A (zh) 一种基于密集连接孪生神经网络的目标跟踪方法
Yang et al. Rotation robust non-rigid point set registration with Bayesian student’st mixture model
Li et al. MFCFSiam: A Correlation‐Filter‐Guided Siamese Network with Multifeature for Visual Tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant