CN110807793B - 一种基于孪生网络的目标跟踪方法 - Google Patents

一种基于孪生网络的目标跟踪方法 Download PDF

Info

Publication number
CN110807793B
CN110807793B CN201910930500.8A CN201910930500A CN110807793B CN 110807793 B CN110807793 B CN 110807793B CN 201910930500 A CN201910930500 A CN 201910930500A CN 110807793 B CN110807793 B CN 110807793B
Authority
CN
China
Prior art keywords
target
frame
image
network
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910930500.8A
Other languages
English (en)
Other versions
CN110807793A (zh
Inventor
申富饶
姜少魁
李俊
赵健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Heguang Intelligent Manufacturing Research Institute Co ltd
Nanjing University
Original Assignee
Nanjing Heguang Intelligent Manufacturing Research Institute Co ltd
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Heguang Intelligent Manufacturing Research Institute Co ltd, Nanjing University filed Critical Nanjing Heguang Intelligent Manufacturing Research Institute Co ltd
Priority to CN201910930500.8A priority Critical patent/CN110807793B/zh
Publication of CN110807793A publication Critical patent/CN110807793A/zh
Application granted granted Critical
Publication of CN110807793B publication Critical patent/CN110807793B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于孪生网络的目标跟踪方法,包括:步骤1,读入要跟踪的图像序列或者视频的第一帧,并通过框选的方式指定所要跟踪的目标的位置;步骤2:记录跟踪目标的位置,并将目标的RGB图像输入网络,得到特征图;步骤3:读入图像序列或者视频的下一帧,选择上一帧目标位置周围的部分图像输入网络,得到特征图;步骤四:将两张特征图进行卷积操作,获得新的特征图;步骤五:在新的特征图上用小卷积核进行卷积,得到更抽象的特征图;步骤六:将最后的特征图经过全连接层,输出目标在当前帧的坐标与图像中心的偏移量以及宽高比;步骤七:根据步骤六的输出,在当前帧画出目标的位置。

Description

一种基于孪生网络的目标跟踪方法
技术领域
本发明涉及一种基于孪生网络的目标跟踪方法。
背景技术
目标跟踪(Object Tracking)技术旨在通过计算机视觉在连续的图片序列或者视频中确定目标的位置。目标跟踪可以将不同帧联系起来,从而更加充分地利用视频或者图片序列的信息。不同于目标检测(object detection),目标跟踪得到不仅仅是目标当前所在的位置,还可以分析出目标的运动以及移动轨迹,这也使得目标跟踪具有非常重要的研究价值。目标跟踪可以应用在无人驾驶当中,分析车辆或者行人的运动,通过预测轨迹判断是否存在安全隐患;以及监控人流密度大的区域,通过分析行人的行走路径判断是否有可疑人员等等。另外,在单目标跟踪中,可以通过模板更加快速地得到目标在当前帧的位置,还可以在目标检测失效的时候发生作用,找到目标的位置。
目前,单目标跟踪方法分为滤波类方法、检测与跟踪相结合的方法、深度学习方法三类。其中滤波类的方法主要是依靠引入了快速傅里叶变换,从而使算法有了很大提升;检测和跟踪相结合的方法则是利用了目标检测的结果于跟踪结果进行融合;深度学习方法主要是利用卷积神经网络,通过回归目标的位置,得到理想的结果。
滤波类的方法起源于信号处理领域,传统的滤波类方法例如粒子滤波,由于资源开销大没有被广泛使用,但是滤波的思想开始应用在目标跟踪上。随着时间的推移,相关滤波开始进入研究者的视线,最早的可用于目标跟踪的相关滤波算法是MOSSE,后来又在MOSSE的基础上引入了更多性能更好的算法。其中最先满足实时性的是CSK算法,通过使用高斯核计算两帧之间的相关性,得到响应最大的值作为目标在当前帧的中心点。在此基础之上,又有研究者加入了多颜色通道特征,KCF算法诞生了,KCF算法凭借相对较高的准确度以及较快的速度让研究者们看到了目标跟踪算法的希望。最近几年出现的ECO、UPDT算法等仍然在满足实时性的同时保持着较高准确度。参考文献:Bolme,David.Beveridge,J.Drapper,Bruce and Lui Yui.Visual Object Tracking using Adaptive CorrelatioFilters.CVPR,2010。
检测与跟踪相结合方法的典范便是TLD,该算法提出之时确实引起了不小轰动,结合了检测结果的跟踪效果确实不错。但同时这种方法也引来了较大争议,跟踪本应该是用来弥补检测的不足,而在跟踪中引入检测的结果,有些背离目标跟踪任务的初衷。参考文献:Zdenek Kalal,Krystian Mikolajczyk,and Jiri Matas,Tracking-Learning-Detection.IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,VOL.6,NO.1,JANUARY 2010。
现在主流的目标跟踪算法除了滤波类方法就是深度学习方法。深度学习近几年的崛起,让研究人员看到了它无穷的可能性,目标跟踪自然也不例外。最近比较火的Siamese系列则是一个很好的例子,端对端的设计可以大大降低使用难度。可惜美中不足的是,随着准确度越来越高,网络的层数和结构也愈加复杂起来,速度中等。在一些配置不高的环境下难以达到令人满意的效果。参考文献:Bo Li,Wei Wu,Qiang Wang,Fangyi Zhang,JunliangXing,Junjie Yan.SiamRPN++:Evolution of Siamese Visual Tracking with Very DeepNetworks.CVPR2019。
通过上述分析可以发现,传统滤波类方法技巧性较强,需要设计者有较高的数学功底,滤波类方法模板设计困难且繁琐,而深度学习则可以通过神经网络提取深度特征,大大提高跟踪效果。当前目标跟踪并没有发挥深度学习最好的效果,也就是在保持准确度的同时,速度也应该能够足够快。深度学习领域的跟踪发展方向不应该是过度追求准确度而牺牲速度,而是应该在保证速度的同时不损失较多的准确度。
发明内容
发明目的:滤波类单目标跟踪方法设计特征困难,技巧性强,很难达到较好的跟踪效果;结合检测的方法有违目标跟踪任务的初衷,加上检测方法的深网络会使跟踪速度更加缓慢;而主流的使用深度学习的网络大多用到了较深的网络提取图片特征,并且使用借鉴了目标检测的多个锚点用来回归目标的位置,速度和传统方法相比仍然有很大差距,没有将深度特征的优势完全发挥出来。
为了解决上述问题,本发明公开了一种基于孪生网络的和无锚点的单目标跟踪方法,该方法可以在保证不大幅度降低跟踪的效果下,明显提高跟踪的效率,并且在该方法在硬件环境不理想的情况下也能保证快速地运行。该方法可以使用在任何单目标跟踪的场景,包括如下步骤:
步骤1,使用ImageNetVID、GOT数据集生成训练集和验证集;
步骤2,使用步骤1生成的训练集和验证集训练网络N,所述网络N包括特征提取网络N1、卷积核K1、K2、K3以及全连接层C1
步骤3,读入即将跟踪的图像序列或者视频的第一帧F1,并通过手动框选的方式指定所要跟踪的目标的位置L1
步骤4:记录跟踪目标在第一帧的位置L1,并裁取视频的第一帧F1中L1位置的图像I1,将其输入特征提取网络N1,得到特征图M1
步骤5:读入图像序列或者视频的下一帧F2,在上一帧的图像I1中选择目标位置周围的图像X输入特征提取网络M,得到特征图M2
步骤6:将特征图M1和特征图M2分别使用卷积核K1、K2进行卷积,得到特征图M3、M4
步骤7:将两张特征图M3、M4进行卷积操作,得到新的特征图M5
步骤8:在新的特征图M5上用卷积核K3进行卷积,得到更高抽象级别的特征图M6
步骤9:将最后的特征图M6通过全连接层C1,输出结果;
步骤10:根据步骤9的输出结果,在当前帧画出目标的位置(比如可以用opencv的函数);
步骤11:重复步骤4至步骤10,直至处理完成整个视频或者图片序列。
本发明中,步骤1包括如下步骤:
步骤1-1:在当前长度为p的视频或者图片序列中随机选择n帧F1,F2...Fn,Fn表示第n帧的视频或者图片;
步骤1-2,对于步骤1-1中挑选的每一帧Fi,i取值为1~n,随机选择km
Figure BDA0002220169660000031
p>kj>i;
步骤1-3,对于步骤1-2帧中的每一帧
Figure BDA0002220169660000032
在当前帧附近随机范围内选取区域,作为要寻找的范围x,对应的Fi中目标所在区域作为要跟踪的目标template;
步骤1-4:对两个数据集ImageNetVID、GOT分别执行步骤1-1到步骤1-3,数据集ImageNetVID中的图像执行完后得到的结果作为训练集,数据集GOT中的图像执行完后得到的结果作为验证集。
本发明中,步骤2包括如下步骤:
步骤2-1:将训练集中的数据划分为K(K建议取64或者128)个一组,每组训练数据包括要跟踪的目标template、要寻找的范围x以及目标位置L;
步骤2-2:将每一组数据对应的要跟踪的目标template和要寻找的范围x传入网络N中,计算得到网络输出O;
步骤2-3:计算输出O与目标位置的L1loss,L1loss表示预测值与真实值的绝对误差平均值,并通过反向传播算法更新网络N的参数,其中,每一组训练数据的L1loss计算公式为:
Figure BDA0002220169660000041
其中,1<=i<=K,1<=j<=4,Lij表示第i个数据的目标位置(j代表第j个分量),Oij代表第i个数据对应的网络输出(j代表第j个分量)。
反向传播算法参考:
Rumelhart,David E.;Hinton,Geoffrey E.;Williams,Ronald J.(8 October1986).″Learning representations by back-propagating errors″.Nature.323(6088):533-536.
步骤2-4:循环2-1至2-3,直至训练集中的数据均训练完成。
本发明中,步骤4中,目标的图像I1是RGB(红绿蓝)三通道图片,并且不会经过任何其他图片处理。
本发明中,步骤4和步骤5中,所述特征提取网络N1包括4个连续的卷积池化层,每个卷积池化层由一个大小为3*3的卷积核与大小与2的最大池化层组成。
本发明中,步骤5中,图像X并非I1的全部内容,而是位于目标位置L1,和完整的图像I1之间所有可能的位置。
本发明中,步骤6中,卷积核K1、K2均为128通道大小为3*3的小卷积核。
本发明中,步骤7中,两张特征图M1和M2直接进行卷积操作,得到的新特征图M3只有一层。
本发明中,步骤8中,K3是通道为1大小为3*3的小型卷积核。
本发明中,步骤9中,设定网络N的输出结果为O1、O2、O3、O4,则当前帧中目标的位置target_x、target_y、target_w、target_h计算公式为:
target_x=O1*w+center_x/2,
target_y=O2*w+center_y/2,
target_w=w*03
targe_h=h*O4
Figure BDA0002220169660000051
Figure BDA0002220169660000052
Figure BDA0002220169660000053
其中,target_x表示目标左上角在当前帧的x轴坐标,target_y表示目标左上角在当前帧的y轴坐标,target_w表示目标宽度target_w,target_h表示目标高度,w表示图像X的宽度,h表示图像X的高度。
有益效果:本发明提出的这种端到端的方法,充分发挥了深度特征的优点,能够比较准确地跟踪到目标,并且由于网络本身结构比较简单,效率也比较高,在普通配置的笔记本上也能达到20+fps的效果,速度远远超过现在主流的跟踪算法。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1为本发明从数据集中生成测试集和验证集的示意图。
图2为本发明图像X经过特征提取网络的示意图。
图3为本发明模板template经过特征提取网络的示意图。
图4是本发明实现目标跟踪的总体流程图。
图5a是本发明步骤3中在第一帧中选定目标的示意图。
图5b是本发明运行在该图片序列上某一帧的跟踪结果。
具体实施方式
图1是本发明方法的流程图,包括如下11个步骤:
步骤1,使用ImageNetVID、GOT数据集生成训练集和验证集,生成方式如图1所示,某一帧的目标作为模板(图1左方),另一帧目标附近的范围作为目标跟踪的作用区域(图1右方);
步骤2,使用步骤1生成的训练集和验证集训练网络N(如图4所示),所述网络N包括特征提取网络N1、卷积核K1、K2、K3以及全连接层C1
步骤3,读入即将跟踪的图像序列或者视频的第一帧F1,并通过框选的方式指定所要跟踪的目标的位置L1,见图5a;
步骤4:记录跟踪目标在第一帧的位置L1,并将图像中L1位置的图像I1输入特征提取网络N1,得到特征图M1,图2为图像进过特征提取网络最终生成特征图的过程;
步骤5:读入图像序列或者视频的下一帧F2,在上一帧的图像I1中选择目标位置周围的图像X输入特征提取网络N1,得到特征图M2,图3为图像进过特征提取网络最终生成特征图的过程;
步骤6:将特征图M1和特征图M2分别使用卷积核K1、K2进行卷积,得到特征图M3、M4,即图4左边部分;
步骤7:将两张特征图M3、M4进行卷积操作(图d中*所指),得到新的特征图M5
步骤8:在新的特征图M5上用卷积核K3进行卷积,得到更高抽象级别的特征图M6,见图d右方;
步骤9:将最后的特征图M6通过全连接层C1,输出四个值,分别为:目标左上角在当前帧的x轴坐标target_x和图像X中心x轴坐标center_x偏移量与X宽度的比例O1、目标左上角在当前帧的y轴坐标target_y和图像X中心y轴坐标center_y偏移量与x高度的比例O2、目标高度target_h与图像X高度h之比O3以及输出目标宽度target_w与图像X宽度w之比O4
步骤10:根据步骤9的输出,在当前帧画出目标的位置,如图4下方和图5b所示;
步骤11:重复步骤4至步骤10,直至处理完成整个视频或者图片序列。
实施例
为了验证本发明方法的有效性,实际采集了包括不同光照、场景的视频和图片序列进行实例验证,对每帧的图像进行处理,跟踪得到每帧目标的位置。本实施例现以VOT2015数据集中的一个图片序列为例,按照以下步骤进行追踪:
1、使用ImageNetVID、GOT数据集生成训练集和验证集;
2、使用生成的训练集和验证集训练特征提取网络N1,卷积核K1、K2、K3以及全连接层C1
3、读入该序列的第一帧,并通过框选的方式指定所要跟踪的目标的位置L1,如图5a所示;
4、记录跟踪目标在第一帧的位置L1,并将图像中L1位置的图像I1输入特征提取网络N1,得到特征图M1
5、读入该序列的下一帧F2,在上一帧的图像I1中选择目标位置周围的图像X输入特征提取网络N1,得到特征图M2
6、将特征图M1和特征图M2分别使用卷积核K1、K2进行卷积,得到特征图M3、M4
7、将两张特征图M3、M4进行卷积操作,得到新的特征图M5
8、在新的特征图M5上用卷积核K3进行卷积,得到更高抽象级别的特征图M6
9、将最后的特征图M6通过全连接层C1,输出四个值,分别为O1、O2、O3、O4
10、计算当前帧中目标的位置target_x、target_y、target_w、target_h,并显示在当前帧上,如图5b所示;
11、重复上述过程,直至处理完成整个图片序列。
本发明提供了一种基于孪生网络的目标跟踪方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (10)

1.一种基于孪生网络的目标跟踪方法,其特征在于,包括如下步骤:
步骤1,使用ImageNetVID、GOT数据集生成训练集和验证集;
步骤2,使用步骤1生成的训练集和验证集训练网络N,所述网络N包括特征提取网络N1、卷积核K1、K2、K3以及全连接层C1
步骤3,读入即将跟踪的图像序列或者视频的第一帧F1,并通过框选的方式指定所要跟踪的目标的位置L1
步骤4:记录跟踪目标在第一帧的位置L1,并裁取视频的第一帧F1中L1位置的图像I1,将其输入特征提取网络N1,得到特征图M1
步骤5:读入图像序列或者视频的下一帧F2,在上一帧的图像I1中选择目标位置周围的图像X输入特征提取网络N1,得到特征图M2
步骤6:将特征图M1和特征图M2分别使用卷积核K1、K2进行卷积,得到特征图M3、M4
步骤7:将两张特征图M3、M4进行卷积操作,得到新的特征图M5
步骤8:在新的特征图M5上用卷积核K3进行卷积,得到更高抽象级别的特征图M6
步骤9:将最后的特征图M6通过全连接层C1,输出结果;
步骤10:根据步骤9的输出结果,在当前帧画出目标的位置;
步骤11:重复步骤4至步骤10,直至处理完成整个视频或者图片序列。
2.根据权利要求1所述的方法,其特征在于,步骤1包括如下步骤:
步骤1-1:在当前长度为p的视频或者图片序列中随机选择n帧F1,F2...Fn,Fn表示第n帧的视频或者图片;
步骤1-2,对于步骤1-1中挑选的每一帧Fi,i取值为1~n,随机选择km
Figure FDA0003431205460000011
p>kj>i;
步骤1-3,对于步骤1-2帧中的每一帧
Figure FDA0003431205460000012
在当前帧附近随机范围内选取区域,作为要寻找的范围x,对应的Fi中目标所在区域作为要跟踪的目标template,template在x中的位置记做L;
步骤1-4:对两个数据集ImageNetVID、GOT分别执行步骤1-1到步骤1-3,数据集ImageNetVID中的图像执行完后得到的结果作为训练集,数据集GOT中的图像执行完后得到的结果作为验证集。
3.根据权利要求2所述的方法,其特征在于,步骤2包括如下步骤:
步骤2-1:将训练集中的数据划分为K个一组,每组训练数据包括要跟踪的目标template、要寻找的范围x以及目标位置L;
步骤2-2:将每一组数据对应的要跟踪的目标template和要寻找的范围x传入网络N中,计算得到网络输出O;
步骤2-3:计算输出O与目标位置的L1loss,L1loss表示预测值与真实值的绝对误差平均值,并通过反向传播算法更新网络N的参数,其中,每一组训练数据的L1loss计算公式为:
Figure FDA0003431205460000021
其中,1<=i<=K,1<=j<=4,Lij表示第i个数据的目标位置,Oij代表第i个数据对应的网络输出;
步骤2-4:循环2-1至2-3,直至训练集中的数据均训练完成。
4.根据权利要求3所述的方法,其特征在于,步骤4中,图像I1是RGB三通道图片。
5.根据权利要求4所述的方法,其特征在于,步骤4和步骤5中,所述特征提取网络N1包括4个连续的卷积池化层,每个卷积池化层由一个大小为3*3的卷积核与大小为2的最大池化层组成。
6.根据权利要求5所述的方法,其特征在于,步骤5中,图像X并非I1的全部内容,而是位于目标位置L1,和完整的图像I1之间所有可能的位置。
7.根据权利要求6所述的方法,其特征在于,步骤6中,卷积核K1、K2均为128通道大小为3*3的小卷积核。
8.根据权利要求7所述的方法,其特征在于,步骤7中,两张特征图M1和M2直接进行卷积操作,得到的新特征图M3只有一层。
9.根据权利要求8所述的方法,其特征在于,步骤8中,K3是通道为1大小为3*3的小型卷积核。
10.根据权利要求9中所述的方法,其特征在于,步骤9中,设定网络N的输出结果为O1、O2、O3、O4,则当前帧中目标的位置target_x、target_y、target_w、target_h计算公式为:
target_x=O1*w+center_x/2,
target_y=O2*w+center_y/2,
target_w=w*O3
target_h=h*O4
Figure FDA0003431205460000031
Figure FDA0003431205460000032
Figure FDA0003431205460000033
其中,target_x表示目标左上角在当前帧的x轴坐标,target_y表示目标左上角在当前帧的y轴坐标,target_w表示目标宽度target_w,target_h表示目标高度,h表示图像X的高度,w表示图像X的宽度。
CN201910930500.8A 2019-09-29 2019-09-29 一种基于孪生网络的目标跟踪方法 Active CN110807793B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910930500.8A CN110807793B (zh) 2019-09-29 2019-09-29 一种基于孪生网络的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910930500.8A CN110807793B (zh) 2019-09-29 2019-09-29 一种基于孪生网络的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110807793A CN110807793A (zh) 2020-02-18
CN110807793B true CN110807793B (zh) 2022-04-22

Family

ID=69487916

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910930500.8A Active CN110807793B (zh) 2019-09-29 2019-09-29 一种基于孪生网络的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110807793B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113344976B (zh) * 2021-06-29 2024-01-23 常州工学院 一种基于目标物表征点估计的视觉跟踪方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法
US9940534B1 (en) * 2016-10-10 2018-04-10 Gyrfalcon Technology, Inc. Digital integrated circuit for extracting features out of an input image based on cellular neural networks
CN108665485A (zh) * 2018-04-16 2018-10-16 华中科技大学 一种基于相关滤波与孪生卷积网络融合的目标跟踪方法
CN108846855A (zh) * 2018-05-24 2018-11-20 北京飞搜科技有限公司 目标跟踪方法及设备
CN109191491A (zh) * 2018-08-03 2019-01-11 华中科技大学 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统
CN109493364A (zh) * 2018-09-26 2019-03-19 重庆邮电大学 一种结合残差注意力和上下文信息的目标跟踪算法
CN109543559A (zh) * 2018-10-31 2019-03-29 东南大学 基于孪生网络和动作选择机制的目标跟踪方法及系统
WO2019094094A1 (en) * 2017-11-13 2019-05-16 Siemens Aktiengesellschaft Part identification using a locally learned threedimensional (3d) landmark database
CN110245678A (zh) * 2019-05-07 2019-09-17 华中科技大学 一种异构孪生区域选取网络及基于该网络的图像匹配方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10204299B2 (en) * 2015-11-04 2019-02-12 Nec Corporation Unsupervised matching in fine-grained datasets for single-view object reconstruction
US10902243B2 (en) * 2016-10-25 2021-01-26 Deep North, Inc. Vision based target tracking that distinguishes facial feature targets

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9940534B1 (en) * 2016-10-10 2018-04-10 Gyrfalcon Technology, Inc. Digital integrated circuit for extracting features out of an input image based on cellular neural networks
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法
WO2019094094A1 (en) * 2017-11-13 2019-05-16 Siemens Aktiengesellschaft Part identification using a locally learned threedimensional (3d) landmark database
CN108665485A (zh) * 2018-04-16 2018-10-16 华中科技大学 一种基于相关滤波与孪生卷积网络融合的目标跟踪方法
CN108846855A (zh) * 2018-05-24 2018-11-20 北京飞搜科技有限公司 目标跟踪方法及设备
CN109191491A (zh) * 2018-08-03 2019-01-11 华中科技大学 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统
CN109493364A (zh) * 2018-09-26 2019-03-19 重庆邮电大学 一种结合残差注意力和上下文信息的目标跟踪算法
CN109543559A (zh) * 2018-10-31 2019-03-29 东南大学 基于孪生网络和动作选择机制的目标跟踪方法及系统
CN110245678A (zh) * 2019-05-07 2019-09-17 华中科技大学 一种异构孪生区域选取网络及基于该网络的图像匹配方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Distractor-aware Siamese Networks for Visual Object Tracking;Zheng Zhu 等;《Computer Vision and Pattern Recognition》;20180818;1-17 *
High Performance Visual Tracking with Siamese Region Proposal Network;Bo Li 等;《 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;8971-8980 *
SiamRPN++: Evolution of Siamese Visual Tracking with Very Deep Networks;Bo Li 等;《Computer Vision and Pattern Recognition》;20181231;4282-4291 *
基于深度学习的目标跟踪方法研究现状与展望;罗海波 等;《红外与激光工程》;20170525;第46卷(第5期);1-7 *
自组织增量学习神经网络综述;邱天宇 等;《软件学报》;20160419;第34卷(第5期);2230-2247 *

Also Published As

Publication number Publication date
CN110807793A (zh) 2020-02-18

Similar Documents

Publication Publication Date Title
Wang et al. Detect globally, refine locally: A novel approach to saliency detection
Vu et al. Robust anomaly detection in videos using multilevel representations
Chaoxia et al. Information-guided flame detection based on faster R-CNN
CN108764085B (zh) 基于生成对抗网络的人群计数方法
CN109360232B (zh) 基于条件生成对抗网络的室内场景布局估计方法和装置
CN109508684B (zh) 一种视频中人体行为识别的方法
Fernandez-Sanjurjo et al. Real-time visual detection and tracking system for traffic monitoring
CN112016591A (zh) 一种图像识别模型的训练方法及图像识别方法
CN107274433A (zh) 基于深度学习的目标跟踪方法、装置及存储介质
CN112233147B (zh) 一种基于双路孪生网络的视频运动目标跟踪方法及装置
Pezzementi et al. Putting image manipulations in context: robustness testing for safe perception
Zhu et al. Multi-drone-based single object tracking with agent sharing network
CN109492596B (zh) 一种基于K-means聚类和区域推荐网络的行人检测方法及系统
Cioppa et al. A bottom-up approach based on semantics for the interpretation of the main camera stream in soccer games
CN113011329A (zh) 一种基于多尺度特征金字塔网络及密集人群计数方法
CN111723693A (zh) 一种基于小样本学习的人群计数方法
JP7136500B2 (ja) ノイズチャネルに基づくランダム遮蔽回復の歩行者再識別方法
CN110826411B (zh) 一种基于无人机图像的车辆目标快速识别方法
CN110084837B (zh) 基于无人机视频的目标检测与跟踪方法
CN110909741A (zh) 一种基于背景分割的车辆再识别方法
CN107688830A (zh) 一种用于案件串并的现勘视觉信息关联图层生成方法
KR20180109658A (ko) 영상 처리 방법과 장치
CN112668532A (zh) 基于多阶段混合注意网络的人群计数方法
Cancela et al. Unsupervised trajectory modelling using temporal information via minimal paths
US20230154139A1 (en) Systems and methods for contrastive pretraining with video tracking supervision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant