CN112053386B - 基于深度卷积特征自适应集成的目标跟踪方法 - Google Patents
基于深度卷积特征自适应集成的目标跟踪方法 Download PDFInfo
- Publication number
- CN112053386B CN112053386B CN202010896617.1A CN202010896617A CN112053386B CN 112053386 B CN112053386 B CN 112053386B CN 202010896617 A CN202010896617 A CN 202010896617A CN 112053386 B CN112053386 B CN 112053386B
- Authority
- CN
- China
- Prior art keywords
- target
- current frame
- representing
- iteration
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010354 integration Effects 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 28
- 239000013598 vector Substances 0.000 claims abstract description 44
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 230000004044 response Effects 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 14
- 230000003044 adaptive effect Effects 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 230000017105 transposition Effects 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims 1
- 230000007547 defect Effects 0.000 abstract description 2
- 238000004088 simulation Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- YOBAEOGBNPPUQV-UHFFFAOYSA-N iron;trihydrate Chemical compound O.O.O.[Fe].[Fe] YOBAEOGBNPPUQV-UHFFFAOYSA-N 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于深度卷积特征自适应集成的目标跟踪方法,其步骤如下:提取深度卷积特征;计算核相关滤波器;使用集成矢量更新公式更新当前帧的集成矢量;利用自适应集成计算公式预测当前帧图像的目标位置;使用深度卷积特征更新公式,更新当前帧的深度卷积特征;将选完含有待跟踪目标视频图像序列迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。本发明通过集成特征,克服了现有技术存在的跟踪器不能充分利用不同通道目标特征包含的信息,使得本发明在目标跟踪过程中更加准确地获取待跟踪目标位置,增强了目标跟踪的准确性和可靠性。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及计算机视觉图像处理技术领域中的一种基于深度卷积特征和自适应集成的目标跟踪方法。本发明采用一种基于深度卷积特征自适应集成相关滤波器的方法,实现视频监控、医疗保健、智能交通、机器人导航、人机交互、虚拟现实等领域的运动目标跟踪。
背景技术
目标跟踪的主要任务是估计视频中目标的轨迹,即从视频图像序列中检测出待跟踪的运动目标,进而在每一帧图像中确定出运动目标的位置。目标跟踪最流行的方法之一是检测跟踪,检测跟踪通常根据判别式学习模型,在线学习一个二进制分类器将目标和背景分离。这类方法的目标是设计一个鲁棒的分类器,动态捕捉目标和背景的差异性特征,适应跟踪过程中的视角、光照、姿态等变化。
西安电子科技大学在其拥有的专利技术“基于深度卷积特征分层响应融合的目标跟踪方法”(专利申请号201910341675.5,授权公告号CN 110084836 A)中公开了一种基于深度卷积特征分层响应融合的目标跟踪方法。该方法的步骤是,使用卷积神经网络提取多通道的目标特征,分别将不同通道的目标特征通过滤波器得到目标响应矩阵,使用所有通道响应矩阵两两点乘相加的方法融合响应矩阵,融合后响应矩阵最大元素的位置为目标中心位置,一定程度上缓解了当目标严重遮挡时跟踪失败的问题。但是,该方法仍然存在的不足在于,人为给定融合权重,导致相关滤波器不能充分利用不同通道目标特征包含的信息进行跟踪,从而当目标周围出现相似干扰物的时候很难做到稳定跟踪。
西安电子科技大学在其拥有的专利技术“基于深度特征自适应相关滤波的目标跟踪方法”(专利申请号201910473963.6,授权公告号CN 110223323 A)中公开一种基于深度特征自适应相关滤波的目标跟踪方法。该方法的步骤是,使用卷积神经网络提取目标区域不同通道的特征,分别在不同通道的目标特征上训练相关滤波器,将所有通道的跟踪器线性组合得到一个强跟踪器,得到效果更好的输出结果,防止目标丢失的发生。但是,该方法仍然存在的不足在于,跟踪器线性组合时的权重容易受到初始设置值的影响,同时该方法是根据上一帧的跟踪结果进行权重计算,未体现当前帧的目标特性,导致权重计算存在时间上的歧义,使构建的跟踪器在预测目标位置时产生一定的偏差。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于深度卷积特征自适应集成的目标跟踪方法,用于解决当目标周围出现相似干扰物时跟踪器不能充分利用不同通道目标特征包含的信息导致跟踪不够稳定,而且得到的目标位置不够准确的问题。
实现本发明目的的思路是,利用卷积神经网络VGG-19,提取目标区域多通道的深度卷积特征,通过核相关滤波器和集成矢量计算公式得到核相关滤波器和集成矢量,使用集成矢量对深度卷积特征加权求和,得到一个集成特征,并计算核相关滤波器在该集成特征上产生的响应矩阵,最后,响应矩阵最大元素的位置为目标的中心位置。
为实现上述目的,本发明的具体步骤如下:
(1)提取深度卷积特征:
(1a)从含有待跟踪目标视频图像序列中选取一帧未选过的图像作为当前帧;
(1b)将当前帧中含有目标的区域内所有像素输入到卷积神经网络VGG-19中,将该网络的第10层、第28层、第37层输出的3个通道特征拼接为一个目标区域多通道的深度卷积特征;
(2)计算核相关滤波器:
(2a)计算当前帧当前迭代的核相关滤波器;
(2b)按照下式,计算当前帧当前迭代的集成矢量;
其中,dj表示当前帧第j次迭代的集成矢量,表示求平方根操作,p表示当前帧的深度卷积特征,*表示复共轭操作,⊙表示点乘操作,αj表示当前帧第j次迭代的核相关滤波器,T表示转置操作,v表示含有目标区域的标签,λ表示正则系数;
(2c)计算当前帧当前迭代的最小二乘目标损失差值;
(2d)判断当前迭代的最小二乘目标损失差值是否满足终止条件,若是,则执行步骤(2e),否则,将j+1作为当前帧当前迭代次数后执行步骤(2a);
(2e)使用核相关滤波器更新公式更新当前帧的核相关滤波器;
(3)使用下述集成矢量更新公式,更新当前帧的集成矢量;
其中,dt'表示当前帧更新后的集成矢量,ε表示取值0.01集成矢量学习率,k表示深度卷积特征点乘复共轭的深度卷积特征操作,αt-1表示前一帧的核相关滤波器,αt表示当前帧的核相关滤波器;
(4)利用自适应集成计算公式预测当前帧图像的目标位置:
(4a)使用自适应集成计算公式,分别计算当前帧以及前一帧的深度卷积特征加权集成后得到的目标集成特征;
(4b)使用响应矩阵计算公式,计算核相关滤波器在当前帧目标集成特征上产生的响应矩阵;
(4c)将响应矩阵中最大元素的位置作为当前帧待跟踪目标的中心位置;
(5)使用深度卷积特征更新公式更新当前帧的深度卷积特征;
(6)判断是否选完含有待跟踪目标视频图像序列中的所有帧图像,若是,则执行步骤(7),否则,执行步骤(1);
(7)将迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。
本发明与现有的技术相比具有以下优点:
第一,由于本发明利用自适应集成计算公式,将目标特征的所有通道特征进行自适应集成得到集成特征,集成特征具有不同通道特征的互补特性,保留了不同通道特征的语义信息和细节信息,使得深度卷积特征对跟踪目标的表达更加充分,采用集成特征描述目标,克服了现有技术存在的跟踪器不能充分利用不同通道目标特征包含的信息,使得本发明在目标跟踪过程中更加准确地获取待跟踪目标位置。
第二,由于本发明利用集成矢量更新公式,在视频序列每一帧上更新集成矢量,使得集成矢量在线根据视频序列每一帧面临的,在线更新集成矢量,而不是直接使用第一帧的集成矢量,一定程度上避免了特征表达在时间上的歧义,使集成特征能够根据当前帧图像特性对目标特征集成,增强了目标跟踪的准确性和可靠性。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面结合附图对本发明实施例和效果做进一步的描述。
参照图1,对本发明实现步骤做进一步的描述。
步骤1,提取深度卷积特征。
从含有待跟踪目标视频图像序列中选取一帧未选过的图像作为当前帧。
将当前帧中含有目标的区域内所有像素输入到卷积神经网络VGG-19中,将该网络的第10层、第28层、第37层输出的3个通道特征拼接为一个目标区域多通道的深度卷积特征。
步骤2,计算核相关滤波器。
第1步,按照下式,计算当前帧当前迭代的核相关滤波器:
其中,αj表示当前帧第j次迭代的核相关滤波器,dj-1表示当前帧第j-1次迭代的集成矢量,T表示转置操作,p表示当前帧的深度卷积特征,*表示复共轭操作,⊙表示点乘操作,d0表示当前帧第j=1次迭代时的前一帧集成矢量,v表示含有目标区域的标签,λ表示正则系数。
第2步,按照下式,计算当前帧当前迭代的集成矢量:
第3步,按照下式,计算当前帧当前迭代的最小二乘目标损失差值:
L=L'-L”=||α'(d'Tp*⊙pd')-v||2-||α”(d”Tp*⊙pd”)-v||2
其中,L表示当前帧当前迭代的最小二乘目标损失差值,L'表示当前帧当前迭代的最小二乘目标损失值,L”表示当前帧前一次迭代的最小二乘目标损失值,|| ||2表示L2范数操作,α'表示当前帧当前迭代的核相关滤波器,d'表示当前帧当前迭代的集成矢量,α”表示当前帧前一次迭代的核相关滤波器,d”表示当前帧前一次迭代的集成矢量。
第4步,判断当前迭代的最小二乘目标损失差值是否满足终止条件,若是,则执行本步骤的第5步,否则,将j+1作为当前帧当前迭代次数后执行本步骤的第1步。
所述终止条件是指满足下述条件之一的情形:
条件1,当前迭代次数是否达到最大迭代次数100;
条件2,最小二乘目标损失差值是否小于取值0.005的阈值。
第5步,使用下述核相关滤波器更新公式更新当前帧的核相关滤波器:
步骤3,使用下述集成矢量更新公式,更新当前帧的集成矢量:
其中,dt'表示当前帧更新后的集成矢量,ε表示取值0.01集成矢量学习率,k表示深度卷积特征点乘复共轭的深度卷积特征操作,αt-1表示前一帧的核相关滤波器。
步骤4,利用自适应集成计算公式预测当前帧图像的目标位置。
使用下述自适应集成计算公式,分别计算当前帧以及前一帧的深度卷积特征加权集成后得到的目标集成特征:
其中,G表示当前帧或者前一帧的深度卷积特征加权集成后得到的目标集成特征,∑表示求和操作,n表示深度卷积特征的通道总数,di'表示前一帧集成矢量的第i'个系数,gi表示深度卷积特征中的第i个通道的深度卷积特征,i与i'的取值对应相等。
使用下述响应矩阵计算公式,计算核相关滤波器在当前帧目标集成特征上产生的响应矩阵:
将响应矩阵中最大元素的位置作为当前帧待跟踪目标的中心位置。
步骤5,使用下述深度卷积特征更新公式,更新当前帧的深度卷积特征:
pt=η*pt-1+(1-η)*pt'
其中,pt表示当前帧更新后的深度卷积特征,η表示取值0.01的深度卷积特征学习率,*表示乘法操作,pt-1表示前一帧的深度卷积特征,pt'表示当前帧更新前的深度卷积特征。
步骤6,判断是否选完含有待跟踪目标视频图像序列中的所有帧图像,若是,则执行步骤7,否则,执行步骤1。
步骤7,将迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。
下面结合仿真实验对本发明的效果做进一步说明。
1.仿真实验条件:
本发明仿真实验的硬件测试平台是:处理器为CPU intel Core i5-6500,主频为3.2GHz,内存8GB;
本发明仿真实验的软件平台为:Windows 7旗舰版,64位操作系统,MATLABR2017b。
仿真实验所用数据来自Object tracking benchmark 2015数据库中的一段行人在街道上走动的视频图像序列,该视频图像序列共有199帧视频图像。
2.仿真内容仿真结果分析:
本发明仿真实验是从由199帧图像组成的视频序列中选取了第一帧和第32帧图像,将第一帧和第32帧图像合成一个小视频序列进行仿真实验。首先,将第一帧中行人所在的位置作为待跟踪目标的位置,利用本发明步骤2中计算得到的核相关滤波器,分别在未自适应集成的目标特征和自适应集成的目标特征上,自动跟踪第32帧中行人的位置,将两次结果进行对比。
下面结合图2的仿真图对本发明的效果做进一步的描述。
图2(a)为仿真实验所用数据中的199帧图像组成的视频序列中选取的第一帧图像,图2(b)为仅使用本发明步骤2中计算得到的核相关滤波器在未自适应集成的目标特征上,自动跟踪第32帧图像中跟踪目标位置的结果图,图2(c)为利用本发明仿真实验的结果图。
图2(a)中白色的矩形框表示的是第一帧图像中待跟踪目标的位置。图2(b)中的白色矩形框表示使用步骤2中计算得到的核相关滤波器和未自适应集成的目标特征,对第32帧中行人位置的跟踪结果图。图2(c)中的白色矩形框表示使用本发明步骤2中计算得到的核相关滤波器和本发明步骤4中自适应集成得到的集成特征,对第32帧中行人位置的跟踪结果图。
由图2(b)可以看出,使用未自适应集成的目标特征和核相关滤波器对第32帧的图像进行跟踪的结果,该行人的头部已经不在白色矩形框内,目标周围的相似干扰物严重影响了核相关滤波器的判断能力,跟踪器将相似干扰物误认为待跟踪目标,而把真实目标的一部分误判为背景。由此可见,使用未自适应集成的目标特征得到的跟踪结果严重偏离真实目标。
由图2(c)可以看出,使用集成特征和核相关滤波器对第32帧的图像进行跟踪的结果,该行人的头部包含在白色矩形框内,核相关滤波器能自动调整对目标特征细节信息的关注,更好的区分目标和相似干扰物。由此可见,使用集成特征得到的跟踪结果比较准确。
以上仿真实验表明:引入目标的集成特征,能够让核相关滤波器更好的利用不同通道的目标特征包含的信息进行跟踪,使预测的位置更加准确,增强了目标跟踪的准确性和可靠性。
Claims (5)
1.一种基于深度卷积特征自适应集成的目标跟踪方法,其特征在于,利用集成矢量对目标区域多通道的深度卷积特征进行自适应集成,对集成矢量在线更新,使特征表达符合当前帧的目标特性,该方法具体步骤包括如下:
(1)提取深度卷积特征:
(1a)从含有待跟踪目标视频图像序列中选取一帧未选过的图像作为当前帧;
(1b)将当前帧中含有目标的区域内所有像素输入到卷积神经网络VGG-19中,将该网络的第10层、第28层、第37层输出的3个通道特征拼接为一个目标区域多通道的深度卷积特征;
(2)计算核相关滤波器:
(2a)按照下式,计算当前帧当前迭代的核相关滤波器:
其中,dj-1表示当前帧第j-1次迭代的集成矢量,d0表示当前帧第j=1次迭代时的前一帧集成矢量;
(2b)按照下式,计算当前帧当前迭代的集成矢量;
其中,dj表示当前帧第j次迭代的集成矢量,表示求平方根操作,p表示当前帧的深度卷积特征,*表示复共轭操作,⊙表示点乘操作,αj表示当前帧第j次迭代的核相关滤波器,T表示转置操作,v表示含有目标区域的标签,λ表示正则系数;
(2c)按照下式,计算当前帧当前迭代的最小二乘目标损失差值:
L=L'-L”=α'(d'Tp*⊙pd')-v2-α”(d”Tp*⊙pd”)-v2
其中,L表示当前帧当前迭代的最小二乘目标损失差值,L'表示当前帧当前迭代的最小二乘目标损失值,L”表示当前帧前一次迭代的最小二乘目标损失值,2表示L2范数操作,α'表示当前帧当前迭代的核相关滤波器,d'表示当前帧当前迭代的集成矢量,α”表示当前帧前一次迭代的核相关滤波器,d”表示当前帧前一次迭代的集成矢量;
(2d)判断当前迭代的最小二乘目标损失差值是否满足终止条件,若是,则执行步骤(2e),否则,将j+1作为当前帧当前迭代次数后执行步骤(2a);
(2e)使用下述核相关滤波器更新公式,更新当前帧的核相关滤波器:
(3)使用下述集成矢量更新公式,更新当前帧的集成矢量;
其中,dt'表示当前帧更新后的集成矢量,ε表示取值0.01集成矢量学习率,k表示深度卷积特征点乘复共轭的深度卷积特征操作,αt-1表示前一帧的核相关滤波器,αt表示当前帧的核相关滤波器;
(4)利用自适应集成计算公式预测当前帧图像的目标位置:
(4a)使用自适应集成计算公式,分别计算当前帧以及前一帧的深度卷积特征加权集成后得到的目标集成特征;
(4b)使用响应矩阵计算公式,计算核相关滤波器在当前帧目标集成特征上产生的响应矩阵;
(4c)将响应矩阵中最大元素的位置作为当前帧待跟踪目标的中心位置;
(5)使用深度卷积特征更新公式更新当前帧的深度卷积特征;
(6)判断是否选完含有待跟踪目标视频图像序列中的所有帧图像,若是,则执行步骤(7),否则,执行步骤(1);
(7)将迭代终止时当前帧的目标中心位置作为待跟踪目标的中心位置。
2.根据权利要求1所述的基于深度卷积特征自适应集成的目标跟踪方法,其特征在于,步骤(2d)中所述终止条件是指满足下述条件之一的情形:
条件1,当前迭代次数是否达到最大迭代次数100;
条件2,最小二乘目标损失差值是否小于取值0.005的阈值。
5.根据权利要求1所述的基于深度卷积特征自适应集成的目标跟踪方法,其特征在于,步骤(5)中所述的深度卷积特征更新公式如下:
pt=η*pt-1+(1-η)*pt'
其中,pt表示当前帧更新后的深度卷积特征,η表示取值0.01的深度卷积特征学习率,*表示乘法操作,pt-1表示前一帧的深度卷积特征,pt'表示当前帧更新前的深度卷积特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010896617.1A CN112053386B (zh) | 2020-08-31 | 2020-08-31 | 基于深度卷积特征自适应集成的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010896617.1A CN112053386B (zh) | 2020-08-31 | 2020-08-31 | 基于深度卷积特征自适应集成的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112053386A CN112053386A (zh) | 2020-12-08 |
CN112053386B true CN112053386B (zh) | 2023-04-18 |
Family
ID=73606573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010896617.1A Active CN112053386B (zh) | 2020-08-31 | 2020-08-31 | 基于深度卷积特征自适应集成的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112053386B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114140501A (zh) * | 2022-01-30 | 2022-03-04 | 南昌工程学院 | 目标跟踪方法、装置及可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107240122A (zh) * | 2017-06-15 | 2017-10-10 | 国家新闻出版广电总局广播科学研究院 | 基于时空连续相关滤波的视频目标跟踪方法 |
CN108876816A (zh) * | 2018-05-31 | 2018-11-23 | 西安电子科技大学 | 基于自适应目标响应的目标跟踪方法 |
CN109934846A (zh) * | 2019-03-18 | 2019-06-25 | 南京信息工程大学 | 基于时间和空间网络的深度集成目标跟踪方法 |
CN110084836A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
CN110751673A (zh) * | 2018-07-23 | 2020-02-04 | 中国科学院长春光学精密机械与物理研究所 | 一种基于集成学习的目标跟踪方法 |
AU2020100371A4 (en) * | 2020-03-12 | 2020-04-16 | Jilin University | Hierarchical multi-object tracking method based on saliency detection |
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108701210B (zh) * | 2016-02-02 | 2021-08-17 | 北京市商汤科技开发有限公司 | 用于cnn网络适配和对象在线追踪的方法和系统 |
-
2020
- 2020-08-31 CN CN202010896617.1A patent/CN112053386B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107240122A (zh) * | 2017-06-15 | 2017-10-10 | 国家新闻出版广电总局广播科学研究院 | 基于时空连续相关滤波的视频目标跟踪方法 |
CN108876816A (zh) * | 2018-05-31 | 2018-11-23 | 西安电子科技大学 | 基于自适应目标响应的目标跟踪方法 |
CN110751673A (zh) * | 2018-07-23 | 2020-02-04 | 中国科学院长春光学精密机械与物理研究所 | 一种基于集成学习的目标跟踪方法 |
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN109934846A (zh) * | 2019-03-18 | 2019-06-25 | 南京信息工程大学 | 基于时间和空间网络的深度集成目标跟踪方法 |
CN110084836A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
AU2020100371A4 (en) * | 2020-03-12 | 2020-04-16 | Jilin University | Hierarchical multi-object tracking method based on saliency detection |
Non-Patent Citations (5)
Title |
---|
Hedged Deep Tracking;Yuankai Qi et al;《Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20161231;全文 * |
一种基于多特征自适应融合的运动目标跟踪算法;尹宏鹏等;《光电子.激光》;20100615(第06期);全文 * |
基于像素可信度和空间位置的运动目标跟踪;施华等;《计算机研究与发展》;20051016(第10期);全文 * |
基于卷积特征的核相关自适应目标跟踪;王守义等;《中国图象图形学报》;20170916(第09期);全文 * |
基于核相关滤波的视频目标跟踪算法研究;贺业梅;《中国优秀硕士学位论文全文数据库》;20200115;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112053386A (zh) | 2020-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11908244B2 (en) | Human posture detection utilizing posture reference maps | |
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN109190537B (zh) | 一种基于掩码感知深度强化学习的多人物姿态估计方法 | |
CN110084836B (zh) | 基于深度卷积特征分层响应融合的目标跟踪方法 | |
US20220101654A1 (en) | Method for recognizing actions, device and storage medium | |
CN110879982B (zh) | 一种人群计数系统及方法 | |
CN107945210B (zh) | 基于深度学习和环境自适应的目标跟踪方法 | |
CN109919245A (zh) | 深度学习模型训练方法及装置、训练设备及存储介质 | |
CN111915644B (zh) | 孪生导向锚框rpn网络的实时目标跟踪方法 | |
CN111724370B (zh) | 基于不确定性和概率的多任务图像质量评估方法及系统 | |
CN111507184B (zh) | 基于并联空洞卷积和身体结构约束的人体姿态检测方法 | |
CN115375737A (zh) | 基于自适应时间与序列化时空特征的目标跟踪方法与系统 | |
CN115577768A (zh) | 半监督模型训练方法和装置 | |
Ye et al. | An improved efficientNetV2 model based on visual attention mechanism: application to identification of cassava disease | |
CN112053386B (zh) | 基于深度卷积特征自适应集成的目标跟踪方法 | |
CN114723784A (zh) | 一种基于域适应技术的行人运动轨迹预测方法 | |
Gong et al. | Distractor-aware neuron intrinsic learning for generic 2D medical image classifications | |
CN116861262B (zh) | 一种感知模型训练方法、装置及电子设备和存储介质 | |
CN116524062B (zh) | 一种基于扩散模型的2d人体姿态估计方法 | |
Son et al. | Partial convolutional LSTM for spatiotemporal prediction of incomplete data | |
CN114550047A (zh) | 一种行为速率引导的视频行为识别方法 | |
CN112507940B (zh) | 一种基于差分指导表示学习网络的骨骼动作识别方法 | |
CN111914751B (zh) | 一种图像人群密度识别检测方法及系统 | |
CN113870320A (zh) | 一种基于深度神经网络的行人追踪监控方法及系统 | |
CN114140524A (zh) | 一种多尺度特征融合的闭环检测系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |