CN108898620A - 基于多重孪生神经网络与区域神经网络的目标跟踪方法 - Google Patents

基于多重孪生神经网络与区域神经网络的目标跟踪方法 Download PDF

Info

Publication number
CN108898620A
CN108898620A CN201810619827.9A CN201810619827A CN108898620A CN 108898620 A CN108898620 A CN 108898620A CN 201810619827 A CN201810619827 A CN 201810619827A CN 108898620 A CN108898620 A CN 108898620A
Authority
CN
China
Prior art keywords
target
neural network
multiple twin
regional
twin neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810619827.9A
Other languages
English (en)
Other versions
CN108898620B (zh
Inventor
王菡子
刘祎
严严
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201810619827.9A priority Critical patent/CN108898620B/zh
Publication of CN108898620A publication Critical patent/CN108898620A/zh
Application granted granted Critical
Publication of CN108898620B publication Critical patent/CN108898620B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

基于多重孪生神经网络与区域神经网络的目标跟踪方法,涉及计算机视觉技术。通过使用预训练的多重孪生神经网络,将目标跟踪问题转化为可更新的实例检索问题。同时采用预训练的区域神经网络,以解决目标丢失后的重检测问题。首先在大型视觉识别数据库上训练多重孪生神经网络对目标进行实例检索,然后在目标跟踪过程中运用预训练的区域神经网络对丢失目标进行重新检测,进一步辅助获取最终目标的位置,实现实时的目标跟踪。首先在大型视觉识别数据库上训练多重孪生神经网络对目标进行实例检索,然后在目标跟踪过程中运用预训练的区域神经网络对丢失目标进行重新检测,进一步辅助获取最终目标的位置,实现实时的目标跟踪的。

Description

基于多重孪生神经网络与区域神经网络的目标跟踪方法
技术领域
本发明涉及计算机视觉技术,尤其是涉及基于多重孪生神经网络与区域神经网络的目标跟踪方法。
背景技术
人类感知世界一个重要来源就通过图像信息,研究表明人类获取外界信息中大约有80%~90%的信息来自于人类眼睛获取的图像信息。目标跟踪是图像信息理解中的一个常见视觉任务。目标跟踪在实际生活中有着丰富的应用,比如可以在用户提供的视频序列中对感兴趣的目标进行实时的跟踪;会议或会场管理人员可以利用来自动化的目标跟踪系统分析会场人员的行动模式从而做出更好的决策。因此,运用计算机视觉实现自动目标跟踪具有重要的现实意义。
目标跟踪是计算机视觉研究领域的热点之一,过去几十年以来,目标跟踪的研究取得了长足的发展。从经典的均值漂移(Meanshift)、粒子滤波(Particle Filter)跟踪算法,到基于检测(Tracking By Detection)的跟踪算法及相关滤波(Correlation Filter)的跟踪算法,再到最近基于深度学习(Deep Learning)的跟踪算法。最近主要取得的研究进展主要是基于相关滤波的跟踪算法以及基于深度学习的跟踪算法。相关滤波的跟踪算法的雏形于2012年提出,利用傅立叶变换快速实现学习和检测。学习检测过程高效,证明过程完备。利用快速傅立叶变换,CSK方法的跟踪帧率能达到几百帧。随后,提出了基于HOG特征的KCF方法,提出了循环矩阵的求解,解决了密集采样(Dense Sampling)的问题,是现存最典型的相关滤波类方法。后续还有考虑多尺度或颜色特征(Color Naming)的方法以及用深度学习提取的特征结合KCF的方法。从它的发展过程来看,考虑的尺度越来越多,特征信息也更加丰富,计算复杂度越来越高,但总体上说,相关滤波系列的跟踪方法在实时性上优势明显,采用哪种改进版本的方法视具体的应用而定。相关滤波的方法也有一些缺陷,比如目标的快速移动,形状变化大导致更多背景被学习进来等都会对CF系列方法造成影响。基于深度学习的目标跟踪算法,最初是把CNN学习到的特征,应用于相关滤波或Struck的跟踪框架,从而得到更好的跟踪结果。通过卷积网络提取的特征,更优于HOG或CN特征,但同时计算复杂度增加。CNN网络不同层的卷积输出都可以作为跟踪的特征,对于如何有效地利用深度学习的特征,M.Danelljan也做了大量的工作,提出对背景进行正则化处理的SRDCF。另一种基于深度学习的跟踪算法是通过搭建一个CNN网络结构,选择样本进行离线训练,在线微调网络实现目标跟踪,这类方法主要有MDNET、SANET。这两类方法的跟踪性能都有较大的提升,但由于保欢乐大量的参数都很难达到实时地跟踪效果。
发明内容
本发明的目的在于提供可通过使用预训练的多重孪生神经网络,将目标跟踪问题转化为可更新的实例检索问题,同时采用了预训练的区域神经网络,以解决目标丢失后的重检测问题的基于多重孪生神经网络与区域神经网络的目标跟踪方法。
本发明包括以下步骤:
1)给定一段视频序列,其中第一帧包含已标记的目标,定义原始输入图像帧的尺寸、目标的原始尺寸Co以及目标的搜索范围Cs;其中,代表一个矩形区域;目标的原始尺寸Co和目标的搜索范围Cs将作为多重孪生神经网络的输入,用于进行基于实例检索的目标跟踪,原始输入图像帧的尺寸Cf,将作为区域神经网络的输入,用于进行实现丢失目标的重检测;
2)基于步骤1)中定义的图像帧的尺寸Cf、目标的原始尺寸Co以及目标的搜索范围Cs,多重孪生神经网络有三个输入,分别为第一帧目标、当前面目标模板和当前帧搜索范围,分别将第一帧目标以及面目标模板输入尺寸定义为Co,当前帧搜索范围输入尺寸定义为Cs
所述多重孪生神经网络使用视觉识别数据集ILSVRC_DET进行预训练,ILSVRC_DET数据集包含45万张图片,总共拥有30个类别,该数据集中的45万张图片被标记有类别信息与目标位置,多重孪生神经网络用于目标检索,第一个卷积层拥有96个11×11×3的卷积核,并输出96个原始图像的特征图,之后采用修正线性单元激活函数以及最大池化层,并在最后一层使用互相关层的,所述多重孪生神经网络采用实例检索的方法进行目标跟踪并采用全卷积结构和多分支并行结构,因此,用多重孪生神经网络进行目标跟踪比起一般的基于神经网络的目标跟踪方法有更好地实时性和分辨度,训练过程中采用的损失函数l为:
l(y,v)=log(1+exp(-yv)) (1)
其中,y被称为目标标注,每一帧对应了一个目标标注,采用目标分割的方法进行目标标注,v代表一对样本之间的相似分数;
3)把步骤1)中定义的原始输入图像帧的尺寸Cf用于定义区域神经网络的输入尺寸,区域神经网络有且仅有一个输入并在仅在目标丢失的情况下使用,区域神经网络使用视觉识别数据集ILSVRC中常见得20个目标种类进行预训练,用于对丢失的目标进行重检测;
4)将视频序列第一帧与目标分别输入多重孪生神经网络,获取候选目标Cj
5)对步骤4)中得到的候选目标进行互相关操作,同时判断多重孪生神经网络是否丢失目标,当所用的搜索帧与候选目标之间的差距过大时,判断为目标丢失;
6)根据步骤5)中得到的结果进行选择,若目标丢失,则通过区域神经网络进行重检测重新获取目标;若目标并未丢失,则直接通过计算获取最佳候选目标,实现目标跟踪。
在步骤2)中,所述多重孪生神经网络及其输入尺寸可包括以下子步骤:
(1)当目标图像不为Co时,对应的图像将缩放或扩大为Co
(2)原始图像不可过小;
(3)发明所设计的深度神经网络中的最大池化层使用3*3的区域;
(4)发明所设计的深度神经网络总共拥有五个卷积层与两个池化层以及一个互相关层。
在步骤3)中,所述区域神经网络可包括以下子步骤:
(1)所设计的区域神经网络能够重检测常用的20类目标;
(2)所设计的区域神经网络在需要的时候可以重新训练从而实现更多目标的重检测。
在步骤4)中,所述将视频序列第一帧与目标分别输入多重孪生神经网络,获取候选目标Cj的具体方法可为:将步骤2)中多重孪生神经网络应用于实例检索,同时将产生的分数图转化到实数域产生新的独立损失函数L,来输出候选结果Cj(1≤j≤2):
其中,u为分数图在实数域D中的结果,每一个目标标注y对应一个实数域结果。
在步骤5)中,所述互相关操作可包括以下子步骤:
(1)所使用的互相关算法为卷积算法;
(2)所使用的对两对候选目标采用分别判别的方式。
在步骤6)中,所述目标跟踪方法可包括以下子步骤:
(1)所使用的实例检索方法有三个尺度,基于原始输入目标大小进行变换;
(2)所使用的判断阈值的设置应该适当。
本发明通过使用预训练的多重孪生神经网络,将目标跟踪问题转化为可更新的实例检索问题。本发明同时采用了预训练的区域神经网络,以解决目标丢失后的重检测问题。首先在大型视觉识别数据库上训练多重孪生神经网络对目标进行实例检索,然后在目标跟踪过程中运用预训练的区域神经网络对丢失目标进行重新检测,进一步辅助获取最终目标的位置,实现实时的目标跟踪。
本发明首先在大型视觉识别数据库上训练多重孪生神经网络对目标进行实例检索,然后在目标跟踪过程中运用预训练的区域神经网络对丢失目标进行重新检测,进一步辅助获取最终目标的位置,实现实时的目标跟踪的。
附图说明
图1为本发明实施例的整体网络结构示意图。
图2为本发明实施例的目标跟踪结果示意图。在图2中:
CF2对应为Chao Ma等人提出的方法(Chao Ma,Jia-Bin Huang,Xiaokang Yangand Ming-Hsuan Yang."Hierarchical Convolutional Features for VisualTracking."in Proc.IEEE Int.Conf.Comput.Vis.(ICCV),2015,pp.3074-3082.);
SINT对应为Ran Tao等人提出的方法(Ran Tao,Efstratios Gavves,ArnoldW.M.Smeulders."Siamese Instance Search for Tracking."in Proc.IEEEConf.Comput.Vis.Pattern Recognit.(CVPR),2016,pp.1420–1429.);
SRDCF对应为M.Danelljan等人提出的方法(M.Danelljan,G.Hager,F.S.Khan,andM.Felsberg,“Learning spatially regularized correlation filters for visualtracking,”in Proc.IEEE Int.Conf.Comput.Vis.(ICCV),2015,pp.4310–4318.);
SiamFC对应为Luca Bertinetto等人提出的方法(Luca Bertinetto,JackValmadre, F.Henriques,Andrea Vedaldi,Philip H.S.Torr.“Fully-ConvolutionalSiamese Networks for Object Tracking.”in Proc.Eur.Comput.Vis.Conf.(ECCV)Workshops,2016,pp.850–865.);
Staple对应为Luca Bertinetto等人提出的方法(Luca Bertinetto,JackValmadre,Stuart Golodetz,Ondrej Miksik,Philip H.S.Torr.“Staple:ComplementaryLearners for Real-Time Tracking.”in Proc.IEEE Conf.Comput.Vis.PatternRecognit.(CVPR),2016,pp.1401-1409.);
KCF对应为J.F.Henriques等人提出的方法(J.F.Henriques,R.Caseiro,P.Martins,and J.Batista,“High-speed tracking with kernelized correlationfilters,”IEEE Trans.Pattern Anal.Mach.Intell.(TPAMI),vol.37,no.3,pp.583–596,2015.)。
具体实施方式
下面结合附图和实施例对本发明的方法作详细说明。
参见图1,本发明实施例的实施方式包括以下步骤:
1)给定一段视频序列,其中第一帧包含已标记的目标,定义原始输入图像帧的尺寸Cf(其中代表一个矩形区域),目标的原始尺寸Co,以及目标的搜索范围Cs。其中目标的原始尺寸Co,以及目标的搜索范围Cs将作为多重孪生神经网络的输入,用于进行基于实例检索的目标跟踪。原始输入图像帧的尺寸Cf,将作为区域神经网络的输入,用于进行实现丢失目标的重检测。
2)基于步骤1)中定义的图像帧的尺寸Cf,目标的原始尺寸Co,以及目标的搜索范围Cs,多重孪生神经网络有三个输入,分别为第一帧目标,当前面目标模板,当前帧搜索范围,分别将第一帧目标以及面目标模板输入尺寸定义为Co,当前帧搜索范围输入尺寸定义为Cs
该神经网络使用大型视觉识别数据集ILSVRC_DET进行预训练。ILSVRC_DET数据集包含45万张图片,总共拥有30个类别,该数据集中的45万张图片被标记有类别信息与目标位置。多重孪生神经网络用于目标检索,第一个卷积层拥有96个11×11×3的卷积核,并输出96个原始图像的特征图,之后采用修正线性单元激活函数以及最大池化层,并在最后一层使用互相关层的。该神经网络采用实例检索的方法进行目标跟踪并采用全卷积结构和多分支并行结构,因此,用该网络进行目标跟踪比起一般的基于神经网络的目标跟踪方法有更好的实时性和分辨度。训练过程中采用的损失函数l为
l(y,v)=log(1+exp(-yv)) (1)
其中,y被称为目标标注,每一帧对应了一个目标标注,采用目标分割的方法进行目标标注,v代表一对样本之间的相似分数。
3)把步骤1)中定义的原始输入图像帧的尺寸Cf用于定义区域神经网络的输入尺寸,区域神经网络有且仅有一个输入并在仅在目标丢失的情况下使用,该神经网络使用大型视觉识别数据集ILSVRC中常见得20个目标种类进行预训练,用于对丢失的目标进行重检测。
4)将视频序列第一帧与目标分别输入多重孪生神经网络,获取候选目标Cj
把步骤2)中多重孪生神经网络应用于实例检索,同时将产生的分数图转化到实数域产生新的独立损失函数L,来输出候选结果Cj(1≤j≤2):
其中,u为分数图在实数域D中的结果,每一个目标标注对应了一个实数域结果。
5)对步骤4)中得到的候选目标进行互相关操作,同时判断多重孪生神经网络是否丢失目标。当所用的搜索帧与候选目标之间的差距过大时,判断为目标丢失。
6)根据步骤5)中得到的结果进行选择,若目标丢失,则通过区域神经网络进行重检测重新获取目标;若目标并未丢失,则直接通过计算获取最佳候选目标,实现目标跟踪。
在步骤2)中,多重孪生神经网络及其输入尺寸包括以下子步骤:
(1)当目标图像不为Co时,对应的图像将缩放或扩大为Co
(2)原始图像不可过小。
(3)所设计的深度神经网络中的最大池化层使用3×3的区域。
(4)所设计的深度神经网络总共拥有五个卷积层与两个池化层以及一个互相关层。
在步骤3)中的区域神经网络可包括以下子步骤:
(1)所设计的区域神经网络能够重检测常用的20类目标。
(2)所设计的区域神经网络在需要的时候可以重新训练从而实现更多目标的重检测。
在步骤5)中,所述互相关操作可包括以下子步骤:
(1)所使用的互相关算法为卷积算法。
(2)所使用的对两对候选目标采用分别判别的方式。
在步骤6)中,所述目标跟踪方法可包括以下子步骤:
(1)所使用的实例检索方法有三个尺度,基于原始输入目标大小进行变换。
(2)所使用的判断阈值的设置应该适当。
针对视频序列使用多重孪生网络与区域神经网络相结合的方法获得视频序列当前帧的目标位置,实现目标跟踪。本发明整体网络结构示意图如图1所示。最终的目标跟踪结果示意图如图2所示。
表1
算法 精度 成功率 速度(每秒帧数)
本发明 0.892 0.670 25
CF2(2015) 0.891 0.635 9
SINT(2016) 0.851 0.626 4
SRDCF(2015) 0.838 0.606 5
SiamFC(2016) 0.801 0.605 85
Staple(2016) 0.793 0.600 80
KCF(2015) 0.741 0.513 200
本发明与其余算法在CVPR2013数据集上的目标跟踪评价在表1中给出。

Claims (6)

1.基于多重孪生神经网络与区域神经网络的目标跟踪方法,其特征在于包括以下步骤:
1)给定一段视频序列,其中第一帧包含已标记的目标,定义原始输入图像帧的尺寸、目标的原始尺寸Co以及目标的搜索范围Cs;其中, 代表一个矩形区域;目标的原始尺寸Co和目标的搜索范围Cs将作为多重孪生神经网络的输入,用于进行基于实例检索的目标跟踪,原始输入图像帧的尺寸Cf,将作为区域神经网络的输入,用于进行实现丢失目标的重检测;
2)基于步骤1)中定义的图像帧的尺寸Cf、目标的原始尺寸Co以及目标的搜索范围Cs,多重孪生神经网络有三个输入,分别为第一帧目标、当前面目标模板和当前帧搜索范围,分别将第一帧目标以及面目标模板输入尺寸定义为Co,当前帧搜索范围输入尺寸定义为Cs
所述多重孪生神经网络使用视觉识别数据集ILSVRC_DET进行预训练,ILSVRC_DET数据集包含45万张图片,总共拥有30个类别,该数据集中的45万张图片被标记有类别信息与目标位置,多重孪生神经网络用于目标检索,第一个卷积层拥有96个11×11×3的卷积核,并输出96个原始图像的特征图,之后采用修正线性单元激活函数以及最大池化层,并在最后一层使用互相关层的,所述多重孪生神经网络采用实例检索的方法进行目标跟踪并采用全卷积结构和多分支并行结构,因此,用多重孪生神经网络进行目标跟踪比起一般的基于神经网络的目标跟踪方法有更好地实时性和分辨度,训练过程中采用的损失函数l为:
l(y,v)=log(1+exp(-yv))
其中,y被称为目标标注,每一帧对应了一个目标标注,采用目标分割的方法进行目标标注,v代表一对样本之间的相似分数;
3)把步骤1)中定义的原始输入图像帧的尺寸Cf用于定义区域神经网络的输入尺寸,区域神经网络有且仅有一个输入并在仅在目标丢失的情况下使用,区域神经网络使用视觉识别数据集ILSVRC中常见得20个目标种类进行预训练,用于对丢失的目标进行重检测;
4)将视频序列第一帧与目标分别输入多重孪生神经网络,获取候选目标Cj
5)对步骤4)中得到的候选目标进行互相关操作,同时判断多重孪生神经网络是否丢失目标,当所用的搜索帧与候选目标之间的差距过大时,判断为目标丢失;
6)根据步骤5)中得到的结果进行选择,若目标丢失,则通过区域神经网络进行重检测重新获取目标;若目标并未丢失,则直接通过计算获取最佳候选目标,实现目标跟踪。
2.如权利要求1所述基于多重孪生神经网络与区域神经网络的目标跟踪方法,其特征在于在步骤2)中,所述多重孪生神经网络及其输入尺寸包括以下子步骤:
(1)当目标图像不为Co时,对应的图像将缩放或扩大为Co
(2)原始图像不可过小;
(3)发明所设计的深度神经网络中的最大池化层使用3×3的区域;
(4)发明所设计的深度神经网络总共拥有五个卷积层与两个池化层以及一个互相关层。
3.如权利要求1所述基于多重孪生神经网络与区域神经网络的目标跟踪方法,其特征在于在步骤3)中,所述区域神经网络包括以下子步骤:
(1)所设计的区域神经网络能够重检测常用的20类目标;
(2)所设计的区域神经网络在需要的时候可以重新训练从而实现更多目标的重检测。
4.如权利要求1所述基于多重孪生神经网络与区域神经网络的目标跟踪方法,其特征在于在步骤4)中,所述将视频序列第一帧与目标分别输入多重孪生神经网络,获取候选目标Cj的具体方法为:将步骤2)中多重孪生神经网络应用于实例检索,同时将产生的分数图转化到实数域产生新的独立损失函数L,输出候选结果Cj,其中,1≤j≤2):
其中,u为分数图在实数域D中的结果,每一个目标标注y对应一个实数域结果。
5.如权利要求1所述基于多重孪生神经网络与区域神经网络的目标跟踪方法,其特征在于在步骤5)中,所述互相关操作包括以下子步骤:
(1)所使用的互相关算法为卷积算法;
(2)所使用的对两对候选目标采用分别判别的方式。
6.如权利要求1所述基于多重孪生神经网络与区域神经网络的目标跟踪方法,其特征在于在步骤6)中,所述目标跟踪方法包括以下子步骤:
(1)所使用的实例检索方法有三个尺度,基于原始输入目标大小进行变换;
(2)所使用的判断阈值的设置应该适当。
CN201810619827.9A 2018-06-14 2018-06-14 基于多重孪生神经网络与区域神经网络的目标跟踪方法 Active CN108898620B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810619827.9A CN108898620B (zh) 2018-06-14 2018-06-14 基于多重孪生神经网络与区域神经网络的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810619827.9A CN108898620B (zh) 2018-06-14 2018-06-14 基于多重孪生神经网络与区域神经网络的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108898620A true CN108898620A (zh) 2018-11-27
CN108898620B CN108898620B (zh) 2021-06-18

Family

ID=64345227

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810619827.9A Active CN108898620B (zh) 2018-06-14 2018-06-14 基于多重孪生神经网络与区域神经网络的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108898620B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948510A (zh) * 2019-03-14 2019-06-28 北京易道博识科技有限公司 一种文档图像实例分割方法及装置
CN109977913A (zh) * 2019-04-08 2019-07-05 北京奇艺世纪科技有限公司 一种目标检测网络训练方法、装置及电子设备
CN110135365A (zh) * 2019-05-20 2019-08-16 厦门大学 基于幻觉对抗网络的鲁棒目标跟踪方法
CN110210551A (zh) * 2019-05-28 2019-09-06 北京工业大学 一种基于自适应主体敏感的视觉目标跟踪方法
CN110309729A (zh) * 2019-06-12 2019-10-08 武汉科技大学 基于异常峰值检测和孪生网络的跟踪与重检测方法
CN110570397A (zh) * 2019-08-13 2019-12-13 创新奇智(重庆)科技有限公司 一种基于深度学习模版匹配算法检测成衣印花缺陷的方法
CN110689556A (zh) * 2019-09-09 2020-01-14 苏州臻迪智能科技有限公司 跟踪方法、装置及智能设备
CN110992378A (zh) * 2019-12-03 2020-04-10 湖南大学 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统
CN111275736A (zh) * 2020-01-07 2020-06-12 中国科学院大学 一种基于目标场景一致性的无人机视频多目标跟踪方法
CN111291679A (zh) * 2020-02-06 2020-06-16 厦门大学 一种基于孪生网络的目标特定响应注意力目标跟踪方法
CN111339975A (zh) * 2020-03-03 2020-06-26 华东理工大学 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法
CN111738063A (zh) * 2020-05-08 2020-10-02 华南理工大学 船舶目标跟踪方法、系统、计算机设备及存储介质
CN111768432A (zh) * 2020-06-30 2020-10-13 中国科学院自动化研究所 基于孪生深度神经网络的动目标分割方法及系统
CN112119627A (zh) * 2019-08-14 2020-12-22 深圳市大疆创新科技有限公司 基于云台的目标跟随方法、装置、云台和计算机存储介质
CN113032957A (zh) * 2021-02-22 2021-06-25 太原理工大学 一种基于数字孪生技术的类复眼光电系统的构建方法
CN113130014A (zh) * 2021-04-23 2021-07-16 华东交通大学 一种基于多分支神经网络的稀土萃取模拟方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469299A (zh) * 2016-08-31 2017-03-01 北京邮电大学 一种车辆搜索方法及装置
CN106650630A (zh) * 2016-11-11 2017-05-10 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
CN107452025A (zh) * 2017-08-18 2017-12-08 成都通甲优博科技有限责任公司 目标跟踪方法、装置及电子设备
KR20180042011A (ko) * 2016-10-17 2018-04-25 한화테크윈 주식회사 감시 방법 및 시스템
US20180129934A1 (en) * 2016-11-07 2018-05-10 Qualcomm Incorporated Enhanced siamese trackers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469299A (zh) * 2016-08-31 2017-03-01 北京邮电大学 一种车辆搜索方法及装置
KR20180042011A (ko) * 2016-10-17 2018-04-25 한화테크윈 주식회사 감시 방법 및 시스템
US20180129934A1 (en) * 2016-11-07 2018-05-10 Qualcomm Incorporated Enhanced siamese trackers
CN106650630A (zh) * 2016-11-11 2017-05-10 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
CN107452025A (zh) * 2017-08-18 2017-12-08 成都通甲优博科技有限责任公司 目标跟踪方法、装置及电子设备

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948510A (zh) * 2019-03-14 2019-06-28 北京易道博识科技有限公司 一种文档图像实例分割方法及装置
CN109948510B (zh) * 2019-03-14 2021-06-11 北京易道博识科技有限公司 一种文档图像实例分割方法及装置
CN109977913A (zh) * 2019-04-08 2019-07-05 北京奇艺世纪科技有限公司 一种目标检测网络训练方法、装置及电子设备
CN109977913B (zh) * 2019-04-08 2021-11-05 北京奇艺世纪科技有限公司 一种目标检测网络训练方法、装置及电子设备
CN110135365A (zh) * 2019-05-20 2019-08-16 厦门大学 基于幻觉对抗网络的鲁棒目标跟踪方法
CN110210551A (zh) * 2019-05-28 2019-09-06 北京工业大学 一种基于自适应主体敏感的视觉目标跟踪方法
CN110210551B (zh) * 2019-05-28 2021-07-30 北京工业大学 一种基于自适应主体敏感的视觉目标跟踪方法
CN110309729A (zh) * 2019-06-12 2019-10-08 武汉科技大学 基于异常峰值检测和孪生网络的跟踪与重检测方法
CN110570397A (zh) * 2019-08-13 2019-12-13 创新奇智(重庆)科技有限公司 一种基于深度学习模版匹配算法检测成衣印花缺陷的方法
CN112119627A (zh) * 2019-08-14 2020-12-22 深圳市大疆创新科技有限公司 基于云台的目标跟随方法、装置、云台和计算机存储介质
CN110689556A (zh) * 2019-09-09 2020-01-14 苏州臻迪智能科技有限公司 跟踪方法、装置及智能设备
CN110992378A (zh) * 2019-12-03 2020-04-10 湖南大学 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统
CN111275736A (zh) * 2020-01-07 2020-06-12 中国科学院大学 一种基于目标场景一致性的无人机视频多目标跟踪方法
CN111291679A (zh) * 2020-02-06 2020-06-16 厦门大学 一种基于孪生网络的目标特定响应注意力目标跟踪方法
CN111291679B (zh) * 2020-02-06 2022-05-27 厦门大学 一种基于孪生网络的目标特定响应注意力目标跟踪方法
CN111339975A (zh) * 2020-03-03 2020-06-26 华东理工大学 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法
CN111339975B (zh) * 2020-03-03 2023-04-21 华东理工大学 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法
CN111738063A (zh) * 2020-05-08 2020-10-02 华南理工大学 船舶目标跟踪方法、系统、计算机设备及存储介质
CN111738063B (zh) * 2020-05-08 2023-04-18 华南理工大学 船舶目标跟踪方法、系统、计算机设备及存储介质
CN111768432A (zh) * 2020-06-30 2020-10-13 中国科学院自动化研究所 基于孪生深度神经网络的动目标分割方法及系统
CN111768432B (zh) * 2020-06-30 2022-06-10 中国科学院自动化研究所 基于孪生深度神经网络的动目标分割方法及系统
CN113032957A (zh) * 2021-02-22 2021-06-25 太原理工大学 一种基于数字孪生技术的类复眼光电系统的构建方法
CN113032957B (zh) * 2021-02-22 2022-03-29 太原理工大学 一种基于数字孪生技术的类复眼光电系统的构建方法
CN113130014A (zh) * 2021-04-23 2021-07-16 华东交通大学 一种基于多分支神经网络的稀土萃取模拟方法及系统
CN113130014B (zh) * 2021-04-23 2023-02-07 华东交通大学 一种基于多分支神经网络的稀土萃取模拟方法及系统

Also Published As

Publication number Publication date
CN108898620B (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN108898620B (zh) 基于多重孪生神经网络与区域神经网络的目标跟踪方法
Hasan et al. Learning temporal regularity in video sequences
Tsironi et al. An analysis of convolutional long short-term memory recurrent neural networks for gesture recognition
Zhang et al. Multimodal learning for facial expression recognition
Munir et al. Illumination invariant facial expression recognition using selected merged binary patterns for real world images
Bilal et al. A hybrid method using haar-like and skin-color algorithm for hand posture detection, recognition and tracking
Zhang et al. BoMW: Bag of manifold words for one-shot learning gesture recognition from kinect
Dai et al. Tan: Temporal aggregation network for dense multi-label action recognition
Gammulle et al. Coupled generative adversarial network for continuous fine-grained action segmentation
SS et al. Feed forward neural network based eye localization and recognition using hough transform
Ayral et al. Temporal stochastic softmax for 3d cnns: An application in facial expression recognition
CN106874825A (zh) 人脸检测的训练方法、检测方法和装置
Zhao et al. Cbph-net: A small object detector for behavior recognition in classroom scenarios
Patil et al. Performance analysis of static hand gesture recognition approaches using artificial neural network, support vector machine and two stream based transfer learning approach
Shivakumara et al. Fractional means based method for multi-oriented keyword spotting in video/scene/license plate images
CN116110089A (zh) 一种基于深度自适应度量学习的面部表情识别方法
Tur et al. Isolated sign recognition with a siamese neural network of RGB and depth streams
CN114743133A (zh) 一种轻量化的小样本视频分类识别方法及系统
Mohana et al. Emotion recognition from facial expression using hybrid CNN–LSTM network
Huang et al. SVTN: Siamese visual tracking networks with spatially constrained correlation filter and saliency prior context model
Lin et al. CapsNet meets SIFT: A robust framework for distorted target categorization
Sable et al. An adaptive entropy based scale invariant face recognition face altered by plastic surgery
Sharrma et al. Vision based static hand gesture recognition techniques
CN113887509B (zh) 一种基于图像集合的快速多模态视频人脸识别方法
Kadhim et al. Face recognition in multiple variations using deep learning and convolutional neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant