CN109816689B - 一种多层卷积特征自适应融合的运动目标跟踪方法 - Google Patents
一种多层卷积特征自适应融合的运动目标跟踪方法 Download PDFInfo
- Publication number
- CN109816689B CN109816689B CN201811552949.7A CN201811552949A CN109816689B CN 109816689 B CN109816689 B CN 109816689B CN 201811552949 A CN201811552949 A CN 201811552949A CN 109816689 B CN109816689 B CN 109816689B
- Authority
- CN
- China
- Prior art keywords
- target
- filter
- scale
- frame
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种多层卷积特征自适应融合的运动目标跟踪方法,属于计算机视觉领域。本发明首先在第一帧图像中,初始化目标区域,利用已训练好的深度网络框架VGG‑19提取目标图像块的第一和第五层卷积特征,通过相关滤波器学习训练得到两个模板;其次在下一帧,以上一帧目标的预测位置和尺度大小提取检测样本特征,并和上一帧的两个模板进行卷积,即得到两层特征的响应图;然后对所得到的响应图依据APCE测量方法计算权重,自适应加权融合响应图来确定目标的最终位置;确定位置后通过提取目标多个尺度的方向梯度直方图特征估计目标最佳尺度。本发明更准确的定位目标,提高了跟踪精度。
Description
技术领域
本发明公开了一种多层卷积特征自适应融合的运动目标跟踪方法,属于计算机视觉领域。
背景技术
运动目标跟踪是计算机视觉领域的一个重要研究方向,它在军事和民用方面都有着十分广泛的应用,例如战场监视、智能交通系统、人机交互等。
自从2012年AlexNet在图像分类工作中取得巨大成功以来,一系列CNN(Convolutional Neural Network,CNN)框架不断刷新纪录。相较与AlexNet,VGGNet最大的改进就是用多个3×3(3×3是能够捕获上下左右和中心概念的最小尺寸)的卷积核代替一个大尺寸卷积核,增强了网络泛化能力,Top-5错误率减少到7.3%。在VOT2017挑战赛上有人将VGGNet换成网络更深的GoogLeNet和ResNet,但是性能方面并没有得到很大提升;在计算机视觉竞赛ILSVRC上,和以上几种网络相比,VGGNet在定位方面获得第一名,所以可以采用VGGNet网络提取特征。
自Bolme等人提出误差最小平方和算法以来,相关滤波跟踪算法层出不穷,一些基于手工特征(HOG、Color Name)的相关滤波算法在目标快速跟踪方面表现出优异的性能,但是对于目标发生的剧烈形变、遮挡或出现相似物体干扰等各种复杂的情况,缺少目标语义信息的手工特征不能达到很好的鲁棒性。在相关滤波算法中,特征是决定跟踪效果的重要因素之一,特征的进一步发展就是卷积特征。一些跟踪算法利用VGGNet网络提取卷积特征以全卷积层的输出作为特征提取层,全卷积层与语义信息密切相关,对于高级视觉识别问题是有效的,但是视觉跟踪的目的是精确定位目标,不是推断它们的语义类,仅使用全卷积层的特征无法精确定位目标。
发明内容
本发明要解决的技术问题是提供一种多层卷积特征自适应融合的运动目标跟踪方法,用以解决传统手工特征如梯度方向直方图特征(Histogram of Oriented Gradient,HOG)、颜色特征(Color Name,CN)无法全面的表达目标,这些特征难以捕捉目标的语义信息,对形变、旋转等复杂外观变化没有良好的鲁棒性,在不同场景下跟踪性能差异较大的缺陷,并且能够根据可靠性判断依据APCE计算每层卷积层的权重,提高了跟踪精度。
本发明采用的技术方案是:一种多层卷积特征自适应融合的运动目标跟踪方法,方法将目标跟踪中采用传统手工特征的方法改进为卷积特征,并对目标尺度进行估计。首先在第一帧图像中,初始化目标区域,利用已训练好的深度网络框架VGG-19提取目标区域的第一和第五层卷积特征,通过相关滤波器学习训练得到两个模板;其次在下一帧,以上一帧目标的预测位置和尺度大小提取检测样本特征,并和上一帧的两个模板进行卷积,即得到两层特征的响应图;然后对所得到的响应图(response map)依据APCE(Average Peak toCorrelation Energy)测量方法计算权重,自适应加权融合响应图来确定目标的最终位置;确定位置后通过提取目标多个尺度的方向HOG特征估计目标最佳尺度。
所述方法的具体步骤如下:
Step1、初始化目标并在其所在的图像中选取目标区域;具体为以目标所在位置为中心,采集一个尺寸为目标2倍大小的图像块作为目标区域。
Step2、利用已训练好的VGG-19网络提取目标区域的第1层和第5层卷积特征作为训练样本,用训练样本训练得到对应的位置滤波器模板;
使用在ImageNet上训练得到的VGG-19网络提取目标区域的第1层和第5层卷积特征,设p表示卷积特征图,f表示采样特征图,采样特征图f中第i个位置的特征向量为fi:
其中aij为权重,pj表示卷积特征图中第j个位置的特征向量,通过建立最小化损失函数训练最优滤波器:
其中g表示滤波器h的期望输出,λ为正则化系数,l表示维度,l∈{1,…,d},fl表示在第l维的采样特征,*表示循环相关,将上式转换到频域求解得到频域在第l维的滤波器Hl:
Step3、在新一帧图像的目标区域中提取两层卷积特征得到两个检测样本,分别计算两个检测样本与前一帧图像的目标区域中训练得到的位置滤波器的相关得分,即得到两层特征的响应图;
在新一帧的目标区域提取卷积特征作为检测样本z,计算与步骤2训练得到滤波器的相关得分y,即得到该特征的响应图:
5、根据权利要求1所述的多层卷积特征自适应融合的运动目标跟踪方法,其特征在于:所述Step4的具体步骤为:
对Step3中的图像分别计算第1层和第5层卷积特征响应图的APCE(Average Peakto Correlation Energy,平均峰值与相关能量),设图像为第t帧,
Fmax,表示响应图y中最高的响应分数,Fmin表示响应图y中最小的响应分数,Fm,n表示响应图y中第m行,第n列的响应分数;mean表示对括号内所有累加数求均值;
对每层响应图的APCE归一化[0,1],计算权重值得到w1、w2;
对两层卷积响应进行特征融合得到响应值yt:
yt=w1×yt,1+w2×yt,2
计算yt的最大值,得到目标在第t帧的最终位置。
Step4、依据APCE测量方法计算两层特征响应图的权重值,加权融合两层特征的响应图,选取最大值作为目标当前位置;
Step5、确定位置后,以当前位置为中心,截取图像不同尺度的样本特征,通过HOG特征构建尺度金字塔训练尺度滤波器,获取尺度响应最大值为目标当前尺度;
确定目标位置后,以目标新位置为中心,截取图像不同尺度的样本特征,以P×R表示当前帧的目标大小,aqP×aqR为尺度提取样本,q表示尺度因子,s表示尺度样本个数,然后提取这些图像的HOG特征训练一个尺度滤波器Hs,用以估计目标尺度,尺度滤波器Hs和位置滤波器H的求得过程相同;
在下一帧中,以上述方法截取不同尺度的图像块,组成新的特征,通过步骤Step3中相同的方法和尺度滤波器Hs得到ys的值,ys为两层特征融合得到的响应值,ys中最大值对应的尺度为最终尺度估计的结果。
Step6、更新尺度滤波器;
对尺度滤波器Hs进行更新的公式为:
其中η表示学习率,每一帧图像中尺度滤波器都进行更新,式中Bt,s表示在t帧时尺度滤波器第l维的分子和分母,Bt-1,s为上一帧尺度滤波器的分子分母,表示第t帧时尺度滤波器期望输出的频域描述的共轭复数,表示第t帧时训练尺度滤波器的训练样本第l维的频域描述,表示第t帧时训练尺度滤波器的训练样本第k维的频域描述的共轭复数。
Step7、更新位置滤波器;
位置滤波器进行更新的公式为:
式中Bt表示在第t帧时,位置滤波器h第l维的分子和分母,Bt-1为上一帧位置滤波器的分子分母,表示第t帧位置滤波器h期望输出的频域描述的共轭复数,表示第t帧时训练位置滤波器h的训练样本第l维的频域描述,第t帧时训练位置滤波器的训练样本第k维的频域描述的共轭复数。
Step8、重复步骤3至7直到目标跟踪结束。
本发明的有益效果是:
1、使用多层卷积特征自适应融合的运动目标跟踪方法
传统手工特征如梯度方向直方图特征(HOG)、颜色特征(CN)对目标细微形变、光照变化等有较好的适应能力,但是这些特征难以捕捉目标的语义信息,对形变、旋转等复杂外观变化没有良好的鲁棒性,容易造成模型漂移导致跟踪失败。在相关滤波算法中,特征是决定跟踪效果的重要因素之一,特征的进一步发展就是卷积特征,卷积特征能够更好地表达目标外观。
2、使用多层卷积特征表达目标外观
一些跟踪算法利用VGGNet网络提取卷积特征以全卷积层的输出作为特征提取层,全卷积层与语义信息密切相关,对于高级视觉识别问题是有效的,但是视觉跟踪的目的是精确定位目标,不是推断它们的语义类,仅使用全卷积层的特征无法精确定位目标。本发明提取第一和第五卷积层作为输出,CNN的高层(例如Layer5)特征包含更多的语义特性,对旋转和形变等外观变化具有不变性,能够处理较大的目标变化以对目标进行范围定位,但是空间分辨率较低,对平移和尺度都有不变性,无法精确定位目标;而低层(例如Layer1)特征包含了纹理和颜色等丰富的细节信息,空间分辨率高,适合高精度定位目标,准确性很强,但是不变性较差。两层特征在目标定位时互补。
3、使用可靠性判断依据计算权重值
给目标响应分配固定权重值对测试序列不具有普遍性,需要做大量实验找到合适的权重值。本发明使用了APCE方法自适应融合响应具有可靠性,节省了大量实验时间。
4、通过构建尺度金字塔训练尺度滤波器估计目标尺度
运动过程中目标尺度大小是变化的,当跟踪框是固定大小时,遇到目标变大的情况,只能获取目标的局部信息,目标变小时,跟踪框里出现干扰的背景信息,影响算法的跟踪精确度。为解决这一问题,本发明通过构建尺度金字塔训练尺度滤波器估计目标尺度,跟踪框随着目标尺度的大小变化,极大地减少了在目标跟踪过程中因固定跟踪框带来的错误信息。
总结:多层卷积特征自适应融合的运动目标跟踪方法在相关滤波算法的跟踪框架上融合了多层卷积特征的属性信息,根据高低卷积层的互补特性,很好的表达了目标外观。依据APCE计算权重,每层响应图自适应融合以确定最后的位置,提高跟踪精度。其次通过构建尺度金字塔自适应的更新目标尺度。
附图说明
图1为本发明方法的流程图;
图2中(a)表示目标采样图;(b)为第1层卷积特征的响应图;(c)为第5层卷积特征的响应图;(d)为融合后的响应图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步的说明。
实施例1:如图1所示,一种多层卷积特征自适应融合的运动目标跟踪方法,所述方法的具体步骤如下:
Step1、对输入图像初始化目标并选取目标区域,先对第一帧图像进行处理,以其目标位置为中心,采集一个尺寸为目标2倍大小的图像块;
Step2、利用已训练好的深度网络框架VGG-19提取目标区域的第1和第5层卷积特征作为训练样本,用训练样本训练位置滤波器模板。
Step3、对第二帧图像的目标区域中提取两层卷积特征得到两个检测样本,分别计算两个检测样本与第一帧中训练得到的位置滤波器的相关得分,即得到两层特征的响应图。
Step4、依据APCE测量方法计算两层特征响应图的权重值,加权融合两层特征的响应图,选取最大值作为目标当前位置;
Step5、确定位置后,以当前位置为中心,截取图像不同尺度的样本特征,通过HOG特征构建尺度金字塔训练尺度滤波器,获取尺度响应最大值为目标当前尺度;
Step6、更新尺度滤波器;
Step7、更新位置滤波器;
Step8、重复步骤3至7直到跟踪结束,即对第三帧图像直至视频最后一帧图像做步骤3-7相同的处理。
实施例2:下面以具体的视频处理来说明,Step1、根据所述输入图像第一帧,以目标位置为中心,采集一个尺寸为目标2倍大小的图像块,如图2(a)所示。
Step2、使用在ImageNet上训练得到的VGG-19网络提取目标的卷积特征。随着CNN的前向传播,加强了不同类别物体之间的语义区分,同时也降低了可以用来精确定位目标的空间分辨率。例如,输入图像大小为224×224,而第5池化层(pool layer)的全卷积特征输出尺寸为7×7,是输入图像尺寸的1/32,这种低空间分辨率不足以准确地定位目标,为了解决以上问题,我们将第1和第5层的卷积特征通过双线性插值到样本尺寸以精确估计位置。设p表示卷积特征图,f表示采样特征图,第i个位置的特征向量fi为:
其中权重aij取决于i和相邻特征向量j的位置,pj表示卷积特征图中第j个位置的特征向量,特征f的大小为M x N x d,M,N,d分别表示特征的长宽和通道数。通过建立最小化损失函数(2)式训练最优滤波器:
其中g表示滤波器h的期望输出,λ为正则化系数,λ=1.28,l表示特征的某一维度,l∈{1,…,d},fl表示在第l维的采样特征,*表示循环相关,傅里叶变换能够大大提高卷积运算的速度,所以可以转换到频域快速求解。对(2)式求解得到频域在第l维的滤波器Hl:
式中,Hl、G、F分别为是hl、g、f的频域描述,分别表示G、F的共轭复数,其中k∈{1,…,d},Fk表示在第k维的采样特征,是Fl的共轭复数,Al、B为滤波器的分子分母,其中l是某一维度的固定值,k是变量。此步骤得到位置滤波器模板,完成了位置滤波器的训练过程。
Step3、上述计算方法得到位置滤波器,完成了位置滤波器的训练过程。此处对目标进行检测,在新一帧的目标区域提取卷积特征作为检测样本z,计算与步骤2训练得到滤波器H的相关得分y,即得到该特征的响应图:如图2(b)、2(c)所示:
Step4、在t帧时,分别计算第1和第5卷积特征响应图的APCE:
Fmax,,Fmin,,Fm,,n分别表示每层响应图y中最高、最小和在第m行,第n列的响应分数;mean表示对括号内所有累加数求均值。
对每层响应图的APCE归一化[0,1],计算权重值得到w1、w2。
在t帧,我们使用一种自适应融合的方法对两层卷积响应进行特征融合得到响应值yt,如图2(d)所示。
yt=w1×yt,1+w2×yt,2(6)
计算yt的最大值,得到目标在第t帧的最终位置。
Step确定目标位置后,以目标新位置为中心,截取图像不同尺度的样本特征。以P×R表示当前帧的目标大小,aqP×aqR为尺度提取样本,q表示尺度因子,a=1.02,s表示尺度样本个数,s=33,然后提取这些图像的HOG特征训练一个尺度滤波器Hs,用以估计目标尺度,尺度滤波器Hs和位置滤波器H的应用方式和原理相同,所以Hs可由式(3)计算得到;
在下一帧中,以上述方法截取不同尺度的图像块,组成新的特征,通过公式(4)和尺度滤波器Hs相关进而得到ys的值(求取方法和位置估计类似),ys中最大值对应的尺度为最终尺度估计的结果。
Step6、对尺度滤波器进行更新,更新公式为:
其中η表示学习率以赋予滤波器历史“记忆”,η=0.0075。每一帧中尺度滤波器都进行更新,式中Bt,s表示在t帧时尺度滤波器第l维的分子和分母,Bt-1,s为上一帧尺度滤波器的分子分母,表示第t帧时尺度滤波器期望输出的频域描述的共轭复数,表示第t帧时训练尺度滤波器的训练样本第l维的频域描述,表示第t帧时训练尺度滤波器的训练样本第k维的频域描述的共轭复数,其中k∈{1,…,d},公式中的脚标s没有特殊含义,只是为了对应尺度滤波器Hs,将其和位置滤波器区分。
Step7、以固定学习率η对位置滤波器进行更新,更新公式为:
式中Bt表示在第t帧时,位置滤波器h第l维的分子和分母,Bt-1为上一帧位置滤波器的分子分母,表示第t帧位置滤波器期望输出的频域描述的共轭复数,表示第t帧时训练位置滤波器h的训练样本第l维的频域描述,第t帧时训练位置滤波器的训练样本第k维的频域描述的共轭复数,其中k∈{1,…,d}。
Step8、算法运行至此,第t帧运行结束,目标位置、尺度以及所有滤波器都已经更新完成,下一帧重复运行步骤3至7至视频结束。
为了验证与使用了传统手工特征的相关滤波算法DSST、KCF、CN和同样使用卷积特征的算法HCF相比,本发明方法针对目标在跟踪过程中发生的的快速运动(BlurOwll、Bolt2、Jumping),遮挡(Shaking、Coke),形变(Skiing),旋转(MotoRolling、Skiing),光照变化(Shaking、MotoRolling)等复杂情况仍变现良好,在20组视频序列上对几种方法进行对比实验,表1为对5种算法的整体性能分析。
表1 20个视频序列的平均CLE、DP、OP
表中加粗的数据表示最优的结果,本发明采用中心位置误差CLE(CenterLocation Error),距离精度DP(Distance Precision),重叠精度OP(Overlap Precision)为评价指标。CLE为跟踪目标中心点的位置与场景中真实目标中心位置的误差,用欧式距离表示,误差越小,位置越准确;DP为目标中心位置和真实位置的欧氏距离误差小于一定阈值的帧数的百分比。当某一帧跟踪器预测的目标框和真实位置的目标框重叠率OL高于一定的阈值时,则认为该帧跟踪成功。从表1的各项指标可以看出,本发明算法跟踪鲁棒性综合最优。表2,表3为基于部分视频序列的分析。
表2 5种算法在8个视频中的CLE对比
表3 5种算法在8个视频中的DP对比
由表2、表3可以看出,在CarScale序列的测试结果表明:与同样使用了尺度估计的DSST算法相比,本发明(使用了卷积特征)更加鲁棒。并且对于跟踪过程中目标遇到的快速运动(BlurOwll、Bolt2、Jumping),遮挡(Shaking、Coke),形变(Skiing),旋转(MotoRolling、Skiing),光照变化(Shaking、MotoRolling)等复杂情况变现良好。
Claims (5)
1.一种多层卷积特征自适应融合的运动目标跟踪方法,其特征在于:包括如下步骤:
Step1、初始化目标并在其所在的图像中选取目标区域;
Step2、利用已训练好的VGG-19网络提取目标区域的第1层和第5层卷积特征作为训练样本,用训练样本训练得到对应的位置滤波器模板;
所述步骤Step2具体步骤如下:
使用在ImageNet上训练得到的VGG-19网络提取目标区域的第1层和第5层卷积特征,设p表示卷积特征图,f表示采样特征图,采样特征图f中第i个位置的特征向量为fi:
其中aij为权重,pj表示卷积特征图中第j个位置的特征向量,通过建立最小化损失函数训练最优滤波器:
其中g表示滤波器h的期望输出,λ为正则化系数,l表示维度,l∈{1,...,d},fl表示在第l维的采样特征,*表示循环相关,将上式转换到频域求解得到频域在第l维的滤波器Hl:
Step3、在新一帧图像的目标区域中提取两层卷积特征得到两个检测样本,分别计算两个检测样本与前一帧图像的目标区域中训练得到的位置滤波器的相关得分,即得到两层特征的响应图;
Step4、依据APCE测量方法计算两层特征响应图的权重值,加权融合两层特征的响应图,选取最大值作为目标当前位置;
Step5、确定位置后,以当前位置为中心,截取图像不同尺度的样本特征,通过HOG特征构建尺度金字塔训练尺度滤波器,获取尺度响应最大值为目标当前尺度;
Step6、更新尺度滤波器;
对尺度滤波器Hs进行更新的公式为:
其中η表示学习率,每一帧图像中尺度滤波器都进行更新,式中Bt,s表示在t帧时尺度滤波器第l维的分子和分母,Bt-1,s为上一帧尺度滤波器的分子分母,表示第t帧时尺度滤波器期望输出的频域描述的共轭复数,表示第t帧时训练尺度滤波器的训练样本第l维的频域描述,表示第t帧时训练尺度滤波器的训练样本第k维的频域描述的共轭复数;
Step7、更新位置滤波器;
位置滤波器进行更新的公式为:
式中Bt表示在第t帧时,位置滤波器h第l维的分子和分母,Bt-1为上一帧位置滤波器的分子分母,表示第t帧位置滤波器h期望输出的频域描述的共轭复数,表示第t帧时训练位置滤波器h的训练样本第l维的频域描述,第t帧时训练位置滤波器的训练样本第k维的频域描述的共轭复数;
Step8、重复步骤3至7直到目标跟踪结束。
2.根据权利要求1所述的多层卷积特征自适应融合的运动目标跟踪方法,其特征在于:所述步骤Step1的具体步骤如下:以目标所在位置为中心,采集一个尺寸为目标2倍大小的图像块作为目标区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811552949.7A CN109816689B (zh) | 2018-12-18 | 2018-12-18 | 一种多层卷积特征自适应融合的运动目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811552949.7A CN109816689B (zh) | 2018-12-18 | 2018-12-18 | 一种多层卷积特征自适应融合的运动目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109816689A CN109816689A (zh) | 2019-05-28 |
CN109816689B true CN109816689B (zh) | 2022-07-19 |
Family
ID=66602116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811552949.7A Active CN109816689B (zh) | 2018-12-18 | 2018-12-18 | 一种多层卷积特征自适应融合的运动目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109816689B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570454B (zh) * | 2019-07-19 | 2022-03-22 | 华瑞新智科技(北京)有限公司 | 一种检测异物入侵的方法及装置 |
CN110660080A (zh) * | 2019-09-11 | 2020-01-07 | 昆明理工大学 | 一种基于学习率调整融合多层卷积特征的多尺度目标跟踪方法 |
CN110706253B (zh) * | 2019-09-19 | 2022-03-08 | 中国科学院自动化研究所 | 基于表观特征和深度特征的目标跟踪方法、系统、装置 |
CN110659619A (zh) * | 2019-09-27 | 2020-01-07 | 昆明理工大学 | 一种基于深度时空信息的相关滤波跟踪方法 |
CN110689559B (zh) * | 2019-09-30 | 2022-08-12 | 长安大学 | 一种基于密集卷积网络特征的视觉目标跟踪方法 |
CN110781951B (zh) * | 2019-10-23 | 2022-06-24 | 中国科学院自动化研究所 | 丘脑动态分配的多视皮层信息融合的视觉跟踪方法及系统 |
CN111027586A (zh) * | 2019-11-04 | 2020-04-17 | 天津大学 | 一种基于新型响应图融合的目标跟踪方法 |
CN111008996B (zh) * | 2019-12-09 | 2023-04-07 | 华侨大学 | 一种通过分层特征响应融合的目标跟踪方法 |
CN111260687B (zh) * | 2020-01-10 | 2022-09-27 | 西北工业大学 | 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法 |
CN111612816B (zh) * | 2020-04-30 | 2023-10-31 | 中国移动通信集团江苏有限公司 | 运动目标跟踪的方法、装置、设备及计算机存储介质 |
CN111612001B (zh) * | 2020-05-28 | 2023-04-07 | 华侨大学 | 一种基于特征融合的目标跟踪定位方法 |
CN112069896B (zh) * | 2020-08-04 | 2022-12-02 | 河南科技大学 | 一种基于孪生网络融合多模板特征的视频目标跟踪方法 |
CN112348847B (zh) * | 2020-10-26 | 2023-08-15 | 南京邮电大学 | 一种目标尺度自适应跟踪方法 |
CN112329784A (zh) * | 2020-11-23 | 2021-02-05 | 桂林电子科技大学 | 一种基于时空感知及多峰响应的相关滤波跟踪方法 |
CN113763417B (zh) * | 2020-12-10 | 2023-07-21 | 四川大学 | 一种基于孪生网络和残差结构的目标跟踪方法 |
CN112560695B (zh) * | 2020-12-17 | 2023-03-24 | 中国海洋大学 | 水下目标跟踪方法、系统、存储介质、设备、终端及应用 |
CN112762841A (zh) * | 2020-12-30 | 2021-05-07 | 天津大学 | 一种基于多分辨率深度特征的桥梁动位移监测系统及方法 |
CN112767440B (zh) * | 2021-01-07 | 2023-08-22 | 江苏大学 | 一种基于siam-fc网络的目标跟踪方法 |
CN112819865B (zh) * | 2021-02-26 | 2024-02-09 | 西安理工大学 | 基于自适应正则特征联合时间关联的相关滤波跟踪方法 |
CN113177970B (zh) * | 2021-04-29 | 2022-07-19 | 燕山大学 | 基于自适应特征融合的多尺度滤波目标跟踪方法 |
CN113538509B (zh) * | 2021-06-02 | 2022-09-27 | 天津大学 | 基于自适应相关滤波特征融合学习的视觉跟踪方法及装置 |
CN113298851B (zh) * | 2021-07-07 | 2023-09-26 | 沈阳航空航天大学 | 一种基于多尺度多特征的目标图像跟踪方法 |
CN113658217B (zh) * | 2021-07-14 | 2024-02-23 | 南京邮电大学 | 一种自适应目标跟踪方法、装置及存储介质 |
CN113920168B (zh) * | 2021-11-02 | 2024-09-03 | 中音讯谷科技有限公司 | 一种音视频控制设备中图像跟踪方法 |
CN114219836B (zh) * | 2021-12-15 | 2022-06-03 | 北京建筑大学 | 一种基于时空信息辅助的无人机视频车辆跟踪方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108701210B (zh) * | 2016-02-02 | 2021-08-17 | 北京市商汤科技开发有限公司 | 用于cnn网络适配和对象在线追踪的方法和系统 |
JP6614611B2 (ja) * | 2016-02-29 | 2019-12-04 | Kddi株式会社 | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 |
CN107016689A (zh) * | 2017-02-04 | 2017-08-04 | 中国人民解放军理工大学 | 一种尺度自适应的相关滤波对冲目标跟踪方法 |
CN107240122A (zh) * | 2017-06-15 | 2017-10-10 | 国家新闻出版广电总局广播科学研究院 | 基于时空连续相关滤波的视频目标跟踪方法 |
CN107644430A (zh) * | 2017-07-27 | 2018-01-30 | 孙战里 | 基于自适应特征融合的目标跟踪 |
CN107680119A (zh) * | 2017-09-05 | 2018-02-09 | 燕山大学 | 一种基于时空上下文融合多特征及尺度滤波的跟踪算法 |
CN107644217B (zh) * | 2017-09-29 | 2020-06-26 | 中国科学技术大学 | 基于卷积神经网络和相关滤波器的目标跟踪方法 |
CN107818575A (zh) * | 2017-10-27 | 2018-03-20 | 深圳市唯特视科技有限公司 | 一种基于分层卷积的视觉对象跟踪方法 |
CN108133489A (zh) * | 2017-12-21 | 2018-06-08 | 燕山大学 | 一种增强的多层卷积视觉跟踪方法 |
CN108288282B (zh) * | 2017-12-26 | 2022-04-08 | 浙江工业大学 | 一种基于卷积神经网络的自适应特征选择目标跟踪方法 |
CN108549839B (zh) * | 2018-03-13 | 2021-09-28 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN108573499B (zh) * | 2018-03-16 | 2021-04-02 | 东华大学 | 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 |
CN108665481B (zh) * | 2018-03-27 | 2022-05-31 | 西安电子科技大学 | 多层深度特征融合的自适应抗遮挡红外目标跟踪方法 |
CN108550126A (zh) * | 2018-04-18 | 2018-09-18 | 长沙理工大学 | 一种自适应相关滤波器目标跟踪方法及系统 |
-
2018
- 2018-12-18 CN CN201811552949.7A patent/CN109816689B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109816689A (zh) | 2019-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816689B (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN108053419B (zh) | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 | |
CN109285179B (zh) | 一种基于多特征融合的运动目标跟踪方法 | |
CN111311666B (zh) | 一种融合边缘特征和深度学习的单目视觉里程计方法 | |
CN108734151A (zh) | 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法 | |
CN107016689A (zh) | 一种尺度自适应的相关滤波对冲目标跟踪方法 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN110097575B (zh) | 一种基于局部特征及尺度池的目标跟踪方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN111340842B (zh) | 一种基于联合模型的相关滤波目标跟踪方法 | |
CN107424177A (zh) | 基于连续相关滤波器的定位修正长程跟踪算法 | |
CN104574445A (zh) | 一种目标跟踪方法及装置 | |
CN110033473A (zh) | 基于模板匹配和深度分类网络的运动目标跟踪方法 | |
CN112085765B (zh) | 结合粒子滤波及度量学习的视频目标跟踪方法 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
CN111429485B (zh) | 基于自适应正则化和高信度更新的跨模态滤波跟踪方法 | |
CN111754545A (zh) | 一种基于iou匹配的双滤波器视频多目标跟踪方法 | |
CN113240697B (zh) | 一种生菜多光谱图像前景分割方法 | |
CN109410249B (zh) | 一种结合深度特征与手绘特征自适应的目标追踪方法 | |
CN108830170A (zh) | 一种基于分层特征表示的端到端目标跟踪方法 | |
CN110660080A (zh) | 一种基于学习率调整融合多层卷积特征的多尺度目标跟踪方法 | |
CN111640138A (zh) | 一种目标跟踪方法、装置、设备及存储介质 | |
CN112489088A (zh) | 一种基于记忆单元的孪生网络视觉跟踪方法 | |
CN110660077A (zh) | 一种融合多个特征的多尺度目标跟踪方法 | |
CN116777956A (zh) | 基于多尺度航迹管理的运动目标筛选方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |