CN112053386B - 基于深度卷积特征自适应集成的目标跟踪方法 - Google Patents

基于深度卷积特征自适应集成的目标跟踪方法 Download PDF

Info

Publication number
CN112053386B
CN112053386B CN202010896617.1A CN202010896617A CN112053386B CN 112053386 B CN112053386 B CN 112053386B CN 202010896617 A CN202010896617 A CN 202010896617A CN 112053386 B CN112053386 B CN 112053386B
Authority
CN
China
Prior art keywords
target
current frame
representing
iteration
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010896617.1A
Other languages
English (en)
Other versions
CN112053386A (zh
Inventor
田小林
张艺帆
李娇娇
高文星
王露
杨坤
焦李成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202010896617.1A priority Critical patent/CN112053386B/zh
Publication of CN112053386A publication Critical patent/CN112053386A/zh
Application granted granted Critical
Publication of CN112053386B publication Critical patent/CN112053386B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于深度卷积特征自适应集成的目标跟踪方法,其步骤如下:提取深度卷积特征;计算核相关滤波器;使用集成矢量更新公式更新当前帧的集成矢量;利用自适应集成计算公式预测当前帧图像的目标位置;使用深度卷积特征更新公式,更新当前帧的深度卷积特征;将选完含有待跟踪目标视频图像序列迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。本发明通过集成特征,克服了现有技术存在的跟踪器不能充分利用不同通道目标特征包含的信息,使得本发明在目标跟踪过程中更加准确地获取待跟踪目标位置,增强了目标跟踪的准确性和可靠性。

Description

基于深度卷积特征自适应集成的目标跟踪方法
技术领域
本发明属于图像处理技术领域,更进一步涉及计算机视觉图像处理技术领域中的一种基于深度卷积特征和自适应集成的目标跟踪方法。本发明采用一种基于深度卷积特征自适应集成相关滤波器的方法,实现视频监控、医疗保健、智能交通、机器人导航、人机交互、虚拟现实等领域的运动目标跟踪。
背景技术
目标跟踪的主要任务是估计视频中目标的轨迹,即从视频图像序列中检测出待跟踪的运动目标,进而在每一帧图像中确定出运动目标的位置。目标跟踪最流行的方法之一是检测跟踪,检测跟踪通常根据判别式学习模型,在线学习一个二进制分类器将目标和背景分离。这类方法的目标是设计一个鲁棒的分类器,动态捕捉目标和背景的差异性特征,适应跟踪过程中的视角、光照、姿态等变化。
西安电子科技大学在其拥有的专利技术“基于深度卷积特征分层响应融合的目标跟踪方法”(专利申请号201910341675.5,授权公告号CN 110084836 A)中公开了一种基于深度卷积特征分层响应融合的目标跟踪方法。该方法的步骤是,使用卷积神经网络提取多通道的目标特征,分别将不同通道的目标特征通过滤波器得到目标响应矩阵,使用所有通道响应矩阵两两点乘相加的方法融合响应矩阵,融合后响应矩阵最大元素的位置为目标中心位置,一定程度上缓解了当目标严重遮挡时跟踪失败的问题。但是,该方法仍然存在的不足在于,人为给定融合权重,导致相关滤波器不能充分利用不同通道目标特征包含的信息进行跟踪,从而当目标周围出现相似干扰物的时候很难做到稳定跟踪。
西安电子科技大学在其拥有的专利技术“基于深度特征自适应相关滤波的目标跟踪方法”(专利申请号201910473963.6,授权公告号CN 110223323 A)中公开一种基于深度特征自适应相关滤波的目标跟踪方法。该方法的步骤是,使用卷积神经网络提取目标区域不同通道的特征,分别在不同通道的目标特征上训练相关滤波器,将所有通道的跟踪器线性组合得到一个强跟踪器,得到效果更好的输出结果,防止目标丢失的发生。但是,该方法仍然存在的不足在于,跟踪器线性组合时的权重容易受到初始设置值的影响,同时该方法是根据上一帧的跟踪结果进行权重计算,未体现当前帧的目标特性,导致权重计算存在时间上的歧义,使构建的跟踪器在预测目标位置时产生一定的偏差。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于深度卷积特征自适应集成的目标跟踪方法,用于解决当目标周围出现相似干扰物时跟踪器不能充分利用不同通道目标特征包含的信息导致跟踪不够稳定,而且得到的目标位置不够准确的问题。
实现本发明目的的思路是,利用卷积神经网络VGG-19,提取目标区域多通道的深度卷积特征,通过核相关滤波器和集成矢量计算公式得到核相关滤波器和集成矢量,使用集成矢量对深度卷积特征加权求和,得到一个集成特征,并计算核相关滤波器在该集成特征上产生的响应矩阵,最后,响应矩阵最大元素的位置为目标的中心位置。
为实现上述目的,本发明的具体步骤如下:
(1)提取深度卷积特征:
(1a)从含有待跟踪目标视频图像序列中选取一帧未选过的图像作为当前帧;
(1b)将当前帧中含有目标的区域内所有像素输入到卷积神经网络VGG-19中,将该网络的第10层、第28层、第37层输出的3个通道特征拼接为一个目标区域多通道的深度卷积特征;
(2)计算核相关滤波器:
(2a)计算当前帧当前迭代的核相关滤波器;
(2b)按照下式,计算当前帧当前迭代的集成矢量;
Figure BDA0002658650180000021
其中,dj表示当前帧第j次迭代的集成矢量,
Figure BDA0002658650180000022
表示求平方根操作,p表示当前帧的深度卷积特征,*表示复共轭操作,⊙表示点乘操作,αj表示当前帧第j次迭代的核相关滤波器,T表示转置操作,v表示含有目标区域的标签,λ表示正则系数;
(2c)计算当前帧当前迭代的最小二乘目标损失差值;
(2d)判断当前迭代的最小二乘目标损失差值是否满足终止条件,若是,则执行步骤(2e),否则,将j+1作为当前帧当前迭代次数后执行步骤(2a);
(2e)使用核相关滤波器更新公式更新当前帧的核相关滤波器;
(3)使用下述集成矢量更新公式,更新当前帧的集成矢量;
Figure BDA0002658650180000023
其中,dt'表示当前帧更新后的集成矢量,ε表示取值0.01集成矢量学习率,k表示深度卷积特征点乘复共轭的深度卷积特征操作,αt-1表示前一帧的核相关滤波器,αt表示当前帧的核相关滤波器;
(4)利用自适应集成计算公式预测当前帧图像的目标位置:
(4a)使用自适应集成计算公式,分别计算当前帧以及前一帧的深度卷积特征加权集成后得到的目标集成特征;
(4b)使用响应矩阵计算公式,计算核相关滤波器在当前帧目标集成特征上产生的响应矩阵;
(4c)将响应矩阵中最大元素的位置作为当前帧待跟踪目标的中心位置;
(5)使用深度卷积特征更新公式更新当前帧的深度卷积特征;
(6)判断是否选完含有待跟踪目标视频图像序列中的所有帧图像,若是,则执行步骤(7),否则,执行步骤(1);
(7)将迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。
本发明与现有的技术相比具有以下优点:
第一,由于本发明利用自适应集成计算公式,将目标特征的所有通道特征进行自适应集成得到集成特征,集成特征具有不同通道特征的互补特性,保留了不同通道特征的语义信息和细节信息,使得深度卷积特征对跟踪目标的表达更加充分,采用集成特征描述目标,克服了现有技术存在的跟踪器不能充分利用不同通道目标特征包含的信息,使得本发明在目标跟踪过程中更加准确地获取待跟踪目标位置。
第二,由于本发明利用集成矢量更新公式,在视频序列每一帧上更新集成矢量,使得集成矢量在线根据视频序列每一帧面临的,在线更新集成矢量,而不是直接使用第一帧的集成矢量,一定程度上避免了特征表达在时间上的歧义,使集成特征能够根据当前帧图像特性对目标特征集成,增强了目标跟踪的准确性和可靠性。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面结合附图对本发明实施例和效果做进一步的描述。
参照图1,对本发明实现步骤做进一步的描述。
步骤1,提取深度卷积特征。
从含有待跟踪目标视频图像序列中选取一帧未选过的图像作为当前帧。
将当前帧中含有目标的区域内所有像素输入到卷积神经网络VGG-19中,将该网络的第10层、第28层、第37层输出的3个通道特征拼接为一个目标区域多通道的深度卷积特征。
步骤2,计算核相关滤波器。
第1步,按照下式,计算当前帧当前迭代的核相关滤波器:
Figure BDA0002658650180000041
其中,αj表示当前帧第j次迭代的核相关滤波器,dj-1表示当前帧第j-1次迭代的集成矢量,T表示转置操作,p表示当前帧的深度卷积特征,*表示复共轭操作,⊙表示点乘操作,d0表示当前帧第j=1次迭代时的前一帧集成矢量,v表示含有目标区域的标签,λ表示正则系数。
第2步,按照下式,计算当前帧当前迭代的集成矢量:
Figure BDA0002658650180000042
其中,dj表示当前帧第j次迭代的集成矢量,
Figure BDA0002658650180000043
表示求平方根操作。
第3步,按照下式,计算当前帧当前迭代的最小二乘目标损失差值:
L=L'-L”=||α'(d'Tp*⊙pd')-v||2-||α”(d”Tp*⊙pd”)-v||2
其中,L表示当前帧当前迭代的最小二乘目标损失差值,L'表示当前帧当前迭代的最小二乘目标损失值,L”表示当前帧前一次迭代的最小二乘目标损失值,|| ||2表示L2范数操作,α'表示当前帧当前迭代的核相关滤波器,d'表示当前帧当前迭代的集成矢量,α”表示当前帧前一次迭代的核相关滤波器,d”表示当前帧前一次迭代的集成矢量。
第4步,判断当前迭代的最小二乘目标损失差值是否满足终止条件,若是,则执行本步骤的第5步,否则,将j+1作为当前帧当前迭代次数后执行本步骤的第1步。
所述终止条件是指满足下述条件之一的情形:
条件1,当前迭代次数是否达到最大迭代次数100;
条件2,最小二乘目标损失差值是否小于取值0.005的阈值。
第5步,使用下述核相关滤波器更新公式更新当前帧的核相关滤波器:
Figure BDA0002658650180000051
其中,αt表示当前帧的核相关滤波器,
Figure BDA0002658650180000052
表示取值0.01的核相关滤波器学习率,dt-1表示前一帧的集成矢量,dt表示当前帧的集成矢量。
步骤3,使用下述集成矢量更新公式,更新当前帧的集成矢量:
Figure BDA0002658650180000053
其中,dt'表示当前帧更新后的集成矢量,ε表示取值0.01集成矢量学习率,k表示深度卷积特征点乘复共轭的深度卷积特征操作,αt-1表示前一帧的核相关滤波器。
步骤4,利用自适应集成计算公式预测当前帧图像的目标位置。
使用下述自适应集成计算公式,分别计算当前帧以及前一帧的深度卷积特征加权集成后得到的目标集成特征:
Figure BDA0002658650180000054
其中,G表示当前帧或者前一帧的深度卷积特征加权集成后得到的目标集成特征,∑表示求和操作,n表示深度卷积特征的通道总数,di'表示前一帧集成矢量的第i'个系数,gi表示深度卷积特征中的第i个通道的深度卷积特征,i与i'的取值对应相等。
使用下述响应矩阵计算公式,计算核相关滤波器在当前帧目标集成特征上产生的响应矩阵:
Figure BDA0002658650180000055
其中,R表示响应矩阵,
Figure BDA0002658650180000056
表示傅立叶逆变换操作,u表示前一帧的目标集成特征,z表示当前帧的目标集成特征,α表示前一帧的核相关滤波器,^表示傅立叶变换操作。
将响应矩阵中最大元素的位置作为当前帧待跟踪目标的中心位置。
步骤5,使用下述深度卷积特征更新公式,更新当前帧的深度卷积特征:
pt=η*pt-1+(1-η)*pt'
其中,pt表示当前帧更新后的深度卷积特征,η表示取值0.01的深度卷积特征学习率,*表示乘法操作,pt-1表示前一帧的深度卷积特征,pt'表示当前帧更新前的深度卷积特征。
步骤6,判断是否选完含有待跟踪目标视频图像序列中的所有帧图像,若是,则执行步骤7,否则,执行步骤1。
步骤7,将迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。
下面结合仿真实验对本发明的效果做进一步说明。
1.仿真实验条件:
本发明仿真实验的硬件测试平台是:处理器为CPU intel Core i5-6500,主频为3.2GHz,内存8GB;
本发明仿真实验的软件平台为:Windows 7旗舰版,64位操作系统,MATLABR2017b。
仿真实验所用数据来自Object tracking benchmark 2015数据库中的一段行人在街道上走动的视频图像序列,该视频图像序列共有199帧视频图像。
2.仿真内容仿真结果分析:
本发明仿真实验是从由199帧图像组成的视频序列中选取了第一帧和第32帧图像,将第一帧和第32帧图像合成一个小视频序列进行仿真实验。首先,将第一帧中行人所在的位置作为待跟踪目标的位置,利用本发明步骤2中计算得到的核相关滤波器,分别在未自适应集成的目标特征和自适应集成的目标特征上,自动跟踪第32帧中行人的位置,将两次结果进行对比。
下面结合图2的仿真图对本发明的效果做进一步的描述。
图2(a)为仿真实验所用数据中的199帧图像组成的视频序列中选取的第一帧图像,图2(b)为仅使用本发明步骤2中计算得到的核相关滤波器在未自适应集成的目标特征上,自动跟踪第32帧图像中跟踪目标位置的结果图,图2(c)为利用本发明仿真实验的结果图。
图2(a)中白色的矩形框表示的是第一帧图像中待跟踪目标的位置。图2(b)中的白色矩形框表示使用步骤2中计算得到的核相关滤波器和未自适应集成的目标特征,对第32帧中行人位置的跟踪结果图。图2(c)中的白色矩形框表示使用本发明步骤2中计算得到的核相关滤波器和本发明步骤4中自适应集成得到的集成特征,对第32帧中行人位置的跟踪结果图。
由图2(b)可以看出,使用未自适应集成的目标特征和核相关滤波器对第32帧的图像进行跟踪的结果,该行人的头部已经不在白色矩形框内,目标周围的相似干扰物严重影响了核相关滤波器的判断能力,跟踪器将相似干扰物误认为待跟踪目标,而把真实目标的一部分误判为背景。由此可见,使用未自适应集成的目标特征得到的跟踪结果严重偏离真实目标。
由图2(c)可以看出,使用集成特征和核相关滤波器对第32帧的图像进行跟踪的结果,该行人的头部包含在白色矩形框内,核相关滤波器能自动调整对目标特征细节信息的关注,更好的区分目标和相似干扰物。由此可见,使用集成特征得到的跟踪结果比较准确。
以上仿真实验表明:引入目标的集成特征,能够让核相关滤波器更好的利用不同通道的目标特征包含的信息进行跟踪,使预测的位置更加准确,增强了目标跟踪的准确性和可靠性。

Claims (5)

1.一种基于深度卷积特征自适应集成的目标跟踪方法,其特征在于,利用集成矢量对目标区域多通道的深度卷积特征进行自适应集成,对集成矢量在线更新,使特征表达符合当前帧的目标特性,该方法具体步骤包括如下:
(1)提取深度卷积特征:
(1a)从含有待跟踪目标视频图像序列中选取一帧未选过的图像作为当前帧;
(1b)将当前帧中含有目标的区域内所有像素输入到卷积神经网络VGG-19中,将该网络的第10层、第28层、第37层输出的3个通道特征拼接为一个目标区域多通道的深度卷积特征;
(2)计算核相关滤波器:
(2a)按照下式,计算当前帧当前迭代的核相关滤波器:
Figure FDA0004042516610000011
其中,dj-1表示当前帧第j-1次迭代的集成矢量,d0表示当前帧第j=1次迭代时的前一帧集成矢量;
(2b)按照下式,计算当前帧当前迭代的集成矢量;
Figure FDA0004042516610000012
其中,dj表示当前帧第j次迭代的集成矢量,
Figure FDA0004042516610000013
表示求平方根操作,p表示当前帧的深度卷积特征,*表示复共轭操作,⊙表示点乘操作,αj表示当前帧第j次迭代的核相关滤波器,T表示转置操作,v表示含有目标区域的标签,λ表示正则系数;
(2c)按照下式,计算当前帧当前迭代的最小二乘目标损失差值:
L=L'-L”=α'(d'Tp*⊙pd')-v2-α”(d”Tp*⊙pd”)-v2
其中,L表示当前帧当前迭代的最小二乘目标损失差值,L'表示当前帧当前迭代的最小二乘目标损失值,L”表示当前帧前一次迭代的最小二乘目标损失值,2表示L2范数操作,α'表示当前帧当前迭代的核相关滤波器,d'表示当前帧当前迭代的集成矢量,α”表示当前帧前一次迭代的核相关滤波器,d”表示当前帧前一次迭代的集成矢量;
(2d)判断当前迭代的最小二乘目标损失差值是否满足终止条件,若是,则执行步骤(2e),否则,将j+1作为当前帧当前迭代次数后执行步骤(2a);
(2e)使用下述核相关滤波器更新公式,更新当前帧的核相关滤波器:
Figure FDA0004042516610000021
其中,
Figure FDA0004042516610000022
表示取值0.01的核相关滤波器学习率,dt-1表示前一帧的集成矢量,dt表示当前帧的集成矢量;
(3)使用下述集成矢量更新公式,更新当前帧的集成矢量;
Figure FDA0004042516610000023
其中,dt'表示当前帧更新后的集成矢量,ε表示取值0.01集成矢量学习率,k表示深度卷积特征点乘复共轭的深度卷积特征操作,αt-1表示前一帧的核相关滤波器,αt表示当前帧的核相关滤波器;
(4)利用自适应集成计算公式预测当前帧图像的目标位置:
(4a)使用自适应集成计算公式,分别计算当前帧以及前一帧的深度卷积特征加权集成后得到的目标集成特征;
(4b)使用响应矩阵计算公式,计算核相关滤波器在当前帧目标集成特征上产生的响应矩阵;
(4c)将响应矩阵中最大元素的位置作为当前帧待跟踪目标的中心位置;
(5)使用深度卷积特征更新公式更新当前帧的深度卷积特征;
(6)判断是否选完含有待跟踪目标视频图像序列中的所有帧图像,若是,则执行步骤(7),否则,执行步骤(1);
(7)将迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。
2.根据权利要求1所述的基于深度卷积特征自适应集成的目标跟踪方法,其特征在于,步骤(2d)中所述终止条件是指满足下述条件之一的情形:
条件1,当前迭代次数是否达到最大迭代次数100;
条件2,最小二乘目标损失差值是否小于取值0.005的阈值。
3.根据权利要求1所述的基于深度卷积特征自适应集成的目标跟踪方法,其特征在于,步骤(4a)中所述的自适应集成计算公式如下:
Figure FDA0004042516610000031
其中,G表示当前帧或者前一帧的深度卷积特征加权集成后得到的目标集成特征,∑表示求和操作,n表示深度卷积特征的通道总数,di'表示前一帧集成矢量的第i'个系数,gi表示深度卷积特征中的第i个通道的深度卷积特征,i与i'的取值对应相等。
4.根据权利要求1所述的基于深度卷积特征自适应集成的目标跟踪方法,其特征在于,步骤(4b)中所述的响应矩阵计算公式如下:
Figure FDA0004042516610000032
其中,R表示响应矩阵,
Figure FDA0004042516610000033
表示傅立叶逆变换操作,u表示前一帧的目标集成特征,z表示当前帧的目标集成特征,α表示前一帧的核相关滤波器,表示傅立叶变换操作。
5.根据权利要求1所述的基于深度卷积特征自适应集成的目标跟踪方法,其特征在于,步骤(5)中所述的深度卷积特征更新公式如下:
pt=η*pt-1+(1-η)*pt'
其中,pt表示当前帧更新后的深度卷积特征,η表示取值0.01的深度卷积特征学习率,*表示乘法操作,pt-1表示前一帧的深度卷积特征,pt'表示当前帧更新前的深度卷积特征。
CN202010896617.1A 2020-08-31 2020-08-31 基于深度卷积特征自适应集成的目标跟踪方法 Active CN112053386B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010896617.1A CN112053386B (zh) 2020-08-31 2020-08-31 基于深度卷积特征自适应集成的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010896617.1A CN112053386B (zh) 2020-08-31 2020-08-31 基于深度卷积特征自适应集成的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112053386A CN112053386A (zh) 2020-12-08
CN112053386B true CN112053386B (zh) 2023-04-18

Family

ID=73606573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010896617.1A Active CN112053386B (zh) 2020-08-31 2020-08-31 基于深度卷积特征自适应集成的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112053386B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140501A (zh) * 2022-01-30 2022-03-04 南昌工程学院 目标跟踪方法、装置及可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN108876816A (zh) * 2018-05-31 2018-11-23 西安电子科技大学 基于自适应目标响应的目标跟踪方法
CN109934846A (zh) * 2019-03-18 2019-06-25 南京信息工程大学 基于时间和空间网络的深度集成目标跟踪方法
CN110084836A (zh) * 2019-04-26 2019-08-02 西安电子科技大学 基于深度卷积特征分层响应融合的目标跟踪方法
CN110751673A (zh) * 2018-07-23 2020-02-04 中国科学院长春光学精密机械与物理研究所 一种基于集成学习的目标跟踪方法
AU2020100371A4 (en) * 2020-03-12 2020-04-16 Jilin University Hierarchical multi-object tracking method based on saliency detection
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108701210B (zh) * 2016-02-02 2021-08-17 北京市商汤科技开发有限公司 用于cnn网络适配和对象在线追踪的方法和系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN108876816A (zh) * 2018-05-31 2018-11-23 西安电子科技大学 基于自适应目标响应的目标跟踪方法
CN110751673A (zh) * 2018-07-23 2020-02-04 中国科学院长春光学精密机械与物理研究所 一种基于集成学习的目标跟踪方法
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法
CN109934846A (zh) * 2019-03-18 2019-06-25 南京信息工程大学 基于时间和空间网络的深度集成目标跟踪方法
CN110084836A (zh) * 2019-04-26 2019-08-02 西安电子科技大学 基于深度卷积特征分层响应融合的目标跟踪方法
AU2020100371A4 (en) * 2020-03-12 2020-04-16 Jilin University Hierarchical multi-object tracking method based on saliency detection

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Hedged Deep Tracking;Yuankai Qi et al;《Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20161231;全文 *
一种基于多特征自适应融合的运动目标跟踪算法;尹宏鹏等;《光电子.激光》;20100615(第06期);全文 *
基于像素可信度和空间位置的运动目标跟踪;施华等;《计算机研究与发展》;20051016(第10期);全文 *
基于卷积特征的核相关自适应目标跟踪;王守义等;《中国图象图形学报》;20170916(第09期);全文 *
基于核相关滤波的视频目标跟踪算法研究;贺业梅;《中国优秀硕士学位论文全文数据库》;20200115;全文 *

Also Published As

Publication number Publication date
CN112053386A (zh) 2020-12-08

Similar Documents

Publication Publication Date Title
US11908244B2 (en) Human posture detection utilizing posture reference maps
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
CN109190537B (zh) 一种基于掩码感知深度强化学习的多人物姿态估计方法
CN110084836B (zh) 基于深度卷积特征分层响应融合的目标跟踪方法
US20220101654A1 (en) Method for recognizing actions, device and storage medium
CN110879982B (zh) 一种人群计数系统及方法
CN107945210B (zh) 基于深度学习和环境自适应的目标跟踪方法
CN109919245A (zh) 深度学习模型训练方法及装置、训练设备及存储介质
CN111915644B (zh) 孪生导向锚框rpn网络的实时目标跟踪方法
CN111724370B (zh) 基于不确定性和概率的多任务图像质量评估方法及系统
CN111507184B (zh) 基于并联空洞卷积和身体结构约束的人体姿态检测方法
CN115375737A (zh) 基于自适应时间与序列化时空特征的目标跟踪方法与系统
CN115577768A (zh) 半监督模型训练方法和装置
Ye et al. An improved efficientNetV2 model based on visual attention mechanism: application to identification of cassava disease
CN112053386B (zh) 基于深度卷积特征自适应集成的目标跟踪方法
CN114723784A (zh) 一种基于域适应技术的行人运动轨迹预测方法
Gong et al. Distractor-aware neuron intrinsic learning for generic 2D medical image classifications
CN116861262B (zh) 一种感知模型训练方法、装置及电子设备和存储介质
CN116524062B (zh) 一种基于扩散模型的2d人体姿态估计方法
Son et al. Partial convolutional LSTM for spatiotemporal prediction of incomplete data
CN114550047A (zh) 一种行为速率引导的视频行为识别方法
CN112507940B (zh) 一种基于差分指导表示学习网络的骨骼动作识别方法
CN111914751B (zh) 一种图像人群密度识别检测方法及系统
CN113870320A (zh) 一种基于深度神经网络的行人追踪监控方法及系统
CN114140524A (zh) 一种多尺度特征融合的闭环检测系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant