CN108573499A - 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 - Google Patents

一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 Download PDF

Info

Publication number
CN108573499A
CN108573499A CN201810218274.6A CN201810218274A CN108573499A CN 108573499 A CN108573499 A CN 108573499A CN 201810218274 A CN201810218274 A CN 201810218274A CN 108573499 A CN108573499 A CN 108573499A
Authority
CN
China
Prior art keywords
target
scale
target location
response
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810218274.6A
Other languages
English (en)
Other versions
CN108573499B (zh
Inventor
冯帆
沈波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
National Dong Hwa University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN201810218274.6A priority Critical patent/CN108573499B/zh
Publication of CN108573499A publication Critical patent/CN108573499A/zh
Application granted granted Critical
Publication of CN108573499B publication Critical patent/CN108573499B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,包括:根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;在每一层特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;当目标发生遮挡时,利用时空上下文模型重新确定目标位置;更新模型,为下一帧目标位置和尺寸的确定做准备。本发明提高了视觉目标跟踪的精确度和鲁棒性。

Description

一种基于尺度自适应和遮挡检测的视觉目标跟踪方法
技术领域
本发明涉及视觉目标跟踪技术领域,特别是涉及一种基于尺度自适应和遮挡检测的视觉目标跟踪方法。
背景技术
视觉目标跟踪是计算机视觉中一项具有挑战性的任务,它被广泛应用于视频监控、人机交互、医学成像和机器人学。视觉目标跟踪在视频的第一帧给出目标的位置和边界框,然后估计之后每一帧的目标位置和边界大小。由于目标在视频中容易发生外观变化,诸如尺度变化、遮挡、光照变化、旋转等,因此现阶段还没有任何一种目标跟踪方法可以适应于所有的跟踪场景。
目前在视觉目标跟踪研究中,使用的特征主要是手工设计特征,如梯度直方图(histogram oforientation gradients,HOG)特征、颜色名称(color names,CN)特征等,和单层或少层卷积特征,它们对样本没有足够强的表示能力。同时,大多数的视觉目标跟踪方法都采用固定大小的边界框来跟踪目标,不能解决尺度变化的问题。此外,在处理目标遮挡的问题上,现存的视觉目标跟踪方法缺乏一种能够有效检测遮挡的机制来判断目标遮挡的发生,进而避免跟踪模板的污染和算法计算复杂度的提高,实现对遮挡的处理和目标位置的重新确定。
发明内容
本发明所要解决的技术问题是提供一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,能够解决目标尺度变化和遮挡的问题,进而提高视觉目标跟踪的精确度和鲁棒性。
本发明解决其技术问题所采用的技术方案是:提供一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,包括以下步骤:
(1)根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;
(2)在每一层样本特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;
(3)在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;
(4)计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;
(5)当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置;
(6)更新模型,为下一帧目标位置和尺寸的确定做准备。
所述步骤(1)中的提取不同层的卷积特征具体为:将裁剪的图像块输入预训练的VGGNet-19卷积神经网络,分别提取conv1-2,conv2-2,conv3-4,conv4-4和conv5-4层的卷积特征作为样本的特征图,每一层的特征图的尺寸相同。
所述步骤(2)具体为:利用上一帧第l层的样本特征图x构建非线性岭回归模型,学习核相关滤波器w;在当前帧到来时,同样提取第l层的样本特征图z,进而求得该层的响应图fl;采用将fl线性叠加的方法得到响应总图f,其最大值的位置即为当前帧的目标位置;所述线性叠加的方法为:其中,μl为第l层响应图的权重。
所述步骤(3)具体为:首先在上一帧的目标位置处采集N个样本,N为奇数,每个样本的尺寸为RrP×RrQ,其中,P×Q表示上一帧的目标尺寸,Rr表示集合R中第r个元素,u为尺度乘子;然后将不同尺度的样本放缩至相同尺寸,并将其均调整为一维向量;最后经过尺度滤波器得到尺度响应ys,进而得到当前帧的最佳尺度
所述步骤(4)具体为:计算响应总图f的峰值旁瓣比,其中,mp为响应总图f的峰值,μsl和σsl分别为旁瓣的均值和标准差;当PSR≥τ时,判定目标不发生遮挡;当PSR<τ时,判定目标发生遮挡,τ为设定的阈值。
所述步骤(5)中时空上下文模型为:其中分别表示第t-1帧的时空上下文模型和空间上下文模型,ρ是学习率,为目标可能出现的位置;其中,表示离散傅里叶变换,表示离散傅里叶反变换,b是正则化参数,t*为上一帧确定的目标位置,γ是尺度参数,δ是形状参数,I(t)为t位置处的灰度值;其中,a是正则化参数,ε是尺度参数。
所述步骤(6)中更新模型包括更新核相关滤波、尺度和时空上下文模型。
有益效果
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:本发明使用了比手工设计特征和单层或少层卷积特征有更强表示能力的多层卷积特征来表示样本,融入了尺度自适应机制,提出了新的目标遮挡检测和解决的方案。本发明和传统方法相比能够解决目标尺度变化和遮挡的问题,进而提高视觉目标跟踪的精确度和鲁棒性。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明的实施方式涉及一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,如图1所示,包括以下步骤:根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;在每一层特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置;更新模型,为下一帧目标位置和尺寸的确定做准备。具体如下:
步骤1、根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,将图像块做预处理操作:首先将图像块尺寸调整为225×225像素大小,然后求出所有像素点的像素均值,再用每个像素点的像素值减去像素均值得到归一化的图像块。将预处理后的图像块输入已去除全连接层和分类层的预训练的VGGNet-19卷积神经网络,分别提取conv1-2,conv2-2,conv3-4,conv4-4和conv5-4层的卷积特征作为样本的特征图,每一层特征图的尺寸均为M N D。
步骤2、在每一层特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置。具体步骤如下:
步骤2.1、在当前帧目标位置处采集训练样本,训练核相关滤波器。x为训练样本第l层的特征图,w为对应层的核相关滤波器,其它各层类似。我们通过最小化带有L2约束的平方误差来求解核相关滤波器w:
其中,||·||表示L2范数;·表示内积;表示从线性空间到非线性空间的映射;xm,n为x沿M和N方向的循环移位样本,(m,n)∈{0,1,...,M-1}×{0,1,...,N-1};高斯函数标签σ为核化带宽;λ为正则化参数。公式(1)的结果w可以用样本的线性组合来计算,即其中α是系数。于是将求解w转化为求解α,进而可得
其中,表示离散傅里叶变换(discret fourier transform,DFT),表示离散傅里叶反变换,y={y(m,n)|(m,n)∈{0,1,2,...,M-1}×{0,1,2,...,N-1}}。在这里采用高斯核来计算内积其中,σk是核带宽,⊙表示哈达玛(Hadamard)积,表示复共轭。
步骤2.2、当下一帧到来时,在上一帧目标位置处采集测试样本(z为测试样本第l层的特征图),通过前一帧训练的该层的核相关滤波器,求得该层的响应图
其它层响应图的求解方法类似。
步骤2.3、将不同层的响应图fl线性叠加得到响应总图其中,μl为不同层响应图的权重。进而得到当前帧的目标位置
步骤3、在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度。具体步骤如下:
步骤3.1、首先在当前帧的目标位置处采集N(N为奇数)个样本,每个样本的尺寸为RrP×RrQ,其中,P×Q表示上一帧的目标尺寸,Rr表示集合R中第r个元素,u为尺度乘子;然后将不同尺度的样本放缩至相同尺寸P×Q,并将其均调整为一维向量PQ×1;最后将N个PQ×1的向量拼接成PQ×N的尺度特征图xs,并用xs i表示尺度特征图的第i通道,i∈{1,2,...,PQ},显然xs i的维度为1×N。
步骤3.2、用尺度特征图训练尺度滤波器。通过最小化下面的损失函数来求解尺度滤波器:
其中,*表示循环相关操作;ws i是尺度滤波器的第i通道,其维度与xs i相同;ys是尺度高斯标签,σs是核化带宽;λs是正则化参数。解公式(4)可得,
步骤3.3、当下一帧到来时,在上一帧的目标位置处同样采集N个不同尺寸的样本,得到待检测的尺度特征图zs,经过上一帧训练得到的尺度滤波器,得到尺度响应:
进而得到当前帧的最佳尺度
步骤4、计算响应总图的峰值旁瓣比,判断目标是否发生遮挡。具体步骤如下:计算响应总图f的峰值旁瓣比,其中,mp为f的峰值,μsl和σsl分别为旁瓣的均值和标准差。当PSR≥τ时,判定目标不发生遮挡;当PSR<τ时,判定目标发生遮挡,τ为设定的阈值。
步骤5、当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置。具体步骤如下:
步骤5.1、在贝叶斯框架下建立目标可能出现位置的置信图m(t)=P(t|o),其中,表示可能的目标位置,o表示目标出现。我们使用t*表示上一帧的目标位置,并定义上下文特征集S={s(c)=(I(c),c)|c∈Ω(t*)}。其中,表示上下文特征的位置,I(c)是位置c处的灰度值,Ω(t*)是位置t*的临近区域。由此可见,上下文特征由灰度信息和位置信息构成。置信图m(t)可进一步写为
其中,P(t|s(c),o)是条件概率,P(s(c)|o)是上下文先验概率。
步骤5.2、依次建立条件概率模型、上下文先验概率模型和置信图模型。首先建立条件概率模型,它指明了目标位置t和上下文c之间的空间上下文模型,即
P(t|s(c),o)=hsc(t-c) (8)
其中,hsc为空间上下文模型。然后建立上下文先验概率模型,它指明了局部上下文的外观,即
P(s(c)|o)=I(c)wσ(c-t*) (9)
在这里权重函数其中,a是正则化参数,ε是尺度参数。最后,目标可能出现位置的置信图定义为
其中,b是正则化参数,γ是尺度参数,δ是形状参数。
步骤5.3、求解空间上下文模型,并得到时空上下文模型,进而得到目标位置。将公式(8)、(9)和(10)带入公式(7),有
其中,表示卷积操作。根据卷积定理,公式(11)可以进一步写为
进而求得空间上下文模型为
在第t-1帧,我们求得空间上下文模型为并求得第t-1帧的目标位置当第t帧到来时,首先得到时空上下文模型其中ρ是学习率。然后,在目标位置处裁剪局部上下文区域建立上下文特征集最后,计算第t帧的置信图
因此,在第t帧的最佳目标位置可以表示为
步骤6、更新核相关滤波、尺度和时空上下文模型,为下一帧目标位置和尺寸的确定做准备。具体步骤如下:更新核相关滤波模型:xt+1=(1-β)xt+βxt+1,αt+1=(1-β)αt+βαt+1,β是学习率;更新尺度模型:η是学习率;更新时空上下文模型:ρ是学习率。
步骤7、在视觉目标跟踪领域的标准测试集OTB-50上对提出的跟踪方法进行测试,做出定量和定性分析,并与其它跟踪方法进行比较。
不难发现,本发明使用了比手工设计特征和单层或少层卷积特征有更强表示能力的多层卷积特征来表示样本,融入了尺度自适应机制,提出了新的目标遮挡检测和解决的方案。本发明和传统方法相比能够解决目标尺度变化和遮挡的问题,并在视觉目标跟踪的精确度和鲁棒性上都得到了提高。

Claims (7)

1.一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,包括以下步骤:
(1)根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;
(2)在每一层样本特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;
(3)在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;
(4)计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;
(5)当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置;
(6)更新模型,为下一帧目标位置和尺寸的确定做准备。
2.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(1)中的提取不同层的卷积特征具体为:将裁剪的图像块输入预训练的VGGNet-19卷积神经网络,分别提取conv1-2,conv2-2,conv3-4,conv4-4和conv5-4层的卷积特征作为样本的特征图,每一层的特征图的尺寸相同。
3.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(2)具体为:利用上一帧第l层的样本特征图x构建非线性岭回归模型,学习核相关滤波器w;在当前帧到来时,同样提取第l层的样本特征图z,进而求得该层的响应图fl;采用将fl线性叠加的方法得到响应总图f,其最大值的位置即为当前帧的目标位置;所述线性叠加的方法为:其中,μl为第l层响应图的权重。
4.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(3)具体为:首先在上一帧的目标位置处采集N个样本,N为奇数,每个样本的尺寸为RrP×RrQ,其中,P×Q表示上一帧的目标尺寸,Rr表示集合R中第r个元素,r=1,2,...N,u为尺度乘子;然后将不同尺度的样本放缩至相同尺寸,并将其均调整为一维向量;最后经过尺度滤波器得到尺度响应ys,进而得到当前帧的最佳尺度
5.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(4)具体为:计算响应总图f的峰值旁瓣比,其中,mp为响应总图f的峰值,μsl和σsl分别为旁瓣的均值和标准差;当PSR≥τ时,判定目标不发生遮挡;当PSR<τ时,判定目标发生遮挡,τ为设定的阈值。
6.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(5)中时空上下文模型为:其中分别表示第t-1帧的时空上下文模型和空间上下文模型,ρ是学习率,为目标可能出现的位置;其中,表示离散傅里叶变换,表示离散傅里叶反变换,b是正则化参数,t*为上一帧确定的目标位置,γ是尺度参数,δ是形状参数,I(t)为t位置处的灰度值;其中,a是正则化参数,ε是尺度参数。
7.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(6)中更新模型包括更新核相关滤波、尺度和时空上下文模型。
CN201810218274.6A 2018-03-16 2018-03-16 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 Active CN108573499B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810218274.6A CN108573499B (zh) 2018-03-16 2018-03-16 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810218274.6A CN108573499B (zh) 2018-03-16 2018-03-16 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108573499A true CN108573499A (zh) 2018-09-25
CN108573499B CN108573499B (zh) 2021-04-02

Family

ID=63574342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810218274.6A Active CN108573499B (zh) 2018-03-16 2018-03-16 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108573499B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492530A (zh) * 2018-10-10 2019-03-19 重庆大学 基于深度多尺度时空特征的健壮性视觉物体跟踪算法
CN109816689A (zh) * 2018-12-18 2019-05-28 昆明理工大学 一种多层卷积特征自适应融合的运动目标跟踪方法
CN109816693A (zh) * 2019-01-28 2019-05-28 中国地质大学(武汉) 基于多峰响应的抗遮挡相关滤波跟踪方法及系统/装置
CN109948525A (zh) * 2019-03-18 2019-06-28 Oppo广东移动通信有限公司 拍照处理方法、装置、移动终端以及存储介质
CN110533690A (zh) * 2019-08-08 2019-12-03 河海大学 特征融合与学习率优化的核相关滤波水下目标跟踪方法
CN110599519A (zh) * 2019-08-27 2019-12-20 上海交通大学 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN110660079A (zh) * 2019-09-11 2020-01-07 昆明理工大学 一种基于时空上下文的单目标跟踪方法
CN111210461A (zh) * 2019-12-30 2020-05-29 成都慧视光电技术有限公司 一种自适应尺度变化的实时相关滤波跟踪算法
CN111815981A (zh) * 2019-04-10 2020-10-23 黑芝麻智能科技(重庆)有限公司 用于检测远距离道路上的物体的系统和方法
CN112364891A (zh) * 2020-10-20 2021-02-12 西安理工大学 一种基于样本分类的自适应去污方法
CN115131401A (zh) * 2022-06-20 2022-09-30 武汉大学 基于多尺度多方向核相关滤波的遥感视频目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1744128B1 (de) * 2005-07-14 2012-02-08 Leopold Kostal GmbH & Co. KG Verfahren zum Bestimmen der absoluten Winkelstellung des Lenkrades eines Kraftfahrzeugs
CN104091348A (zh) * 2014-05-19 2014-10-08 南京工程学院 融合显著特征和分块模板的多目标跟踪方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1744128B1 (de) * 2005-07-14 2012-02-08 Leopold Kostal GmbH & Co. KG Verfahren zum Bestimmen der absoluten Winkelstellung des Lenkrades eines Kraftfahrzeugs
CN104091348A (zh) * 2014-05-19 2014-10-08 南京工程学院 融合显著特征和分块模板的多目标跟踪方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHAO MA 等: "《Hierarchical Convolutional Features for Visual Tracking》", 《ICCV 2015》 *
YUNLONG LIN 等: "《A kernel Correlation Filter based Scale-Adaptive Tracker: The Full Occlusion Case》", 《2017 CHINESE AUTOMATION CONGRESS》 *
魏全禄 等: "《基于相关滤波器的视觉目标跟踪综述》", 《计算机科学》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492530A (zh) * 2018-10-10 2019-03-19 重庆大学 基于深度多尺度时空特征的健壮性视觉物体跟踪算法
CN109492530B (zh) * 2018-10-10 2022-03-04 重庆大学 基于深度多尺度时空特征的健壮性视觉物体跟踪方法
CN109816689A (zh) * 2018-12-18 2019-05-28 昆明理工大学 一种多层卷积特征自适应融合的运动目标跟踪方法
CN109816693A (zh) * 2019-01-28 2019-05-28 中国地质大学(武汉) 基于多峰响应的抗遮挡相关滤波跟踪方法及系统/装置
CN109948525A (zh) * 2019-03-18 2019-06-28 Oppo广东移动通信有限公司 拍照处理方法、装置、移动终端以及存储介质
CN111815981A (zh) * 2019-04-10 2020-10-23 黑芝麻智能科技(重庆)有限公司 用于检测远距离道路上的物体的系统和方法
CN110533690A (zh) * 2019-08-08 2019-12-03 河海大学 特征融合与学习率优化的核相关滤波水下目标跟踪方法
CN110533690B (zh) * 2019-08-08 2022-02-11 河海大学 特征融合与学习率优化的核相关滤波水下目标跟踪方法
CN110599519A (zh) * 2019-08-27 2019-12-20 上海交通大学 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN110599519B (zh) * 2019-08-27 2022-11-08 上海交通大学 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN110660079A (zh) * 2019-09-11 2020-01-07 昆明理工大学 一种基于时空上下文的单目标跟踪方法
CN111210461A (zh) * 2019-12-30 2020-05-29 成都慧视光电技术有限公司 一种自适应尺度变化的实时相关滤波跟踪算法
CN111210461B (zh) * 2019-12-30 2023-06-02 成都慧视光电技术有限公司 一种自适应尺度变化的实时相关滤波跟踪算法
CN112364891A (zh) * 2020-10-20 2021-02-12 西安理工大学 一种基于样本分类的自适应去污方法
CN115131401A (zh) * 2022-06-20 2022-09-30 武汉大学 基于多尺度多方向核相关滤波的遥感视频目标跟踪方法
CN115131401B (zh) * 2022-06-20 2024-04-12 武汉大学 基于多尺度多方向核相关滤波的遥感视频目标跟踪方法

Also Published As

Publication number Publication date
CN108573499B (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
CN108573499A (zh) 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法
CN108986140B (zh) 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
US11468697B2 (en) Pedestrian re-identification method based on spatio-temporal joint model of residual attention mechanism and device thereof
CN110310264A (zh) 一种基于dcnn的大尺度目标检测方法、装置
CN109409190A (zh) 基于梯度直方图和Canny边缘检测器的行人检测方法
CN108447078A (zh) 基于视觉显著性的干扰感知跟踪算法
CN111611874B (zh) 基于ResNet和Canny的人脸口罩佩戴检测方法
CN110879982B (zh) 一种人群计数系统及方法
Zhang et al. Region of interest extraction in remote sensing images by saliency analysis with the normal directional lifting wavelet transform
CN106570486A (zh) 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
CN110110601A (zh) 基于多时空注意力模型的视频行人重识别算法及装置
CN107833221A (zh) 一种基于多通道特征融合和机器学习的漏水监测方法
CN108647625A (zh) 一种表情识别方法及装置
CN106778687A (zh) 基于局部评估和全局优化的注视点检测方法
Gao et al. Detection and characterization of the fetal heartbeat in free-hand ultrasound sweeps with weakly-supervised two-streams convolutional networks
CN107169994A (zh) 基于多特征融合的相关滤波跟踪方法
CN108021869A (zh) 一种结合高斯核函数的卷积神经网络跟踪方法
CN112766218B (zh) 基于非对称联合教学网络的跨域行人重识别方法和装置
Wu et al. Patchwise dictionary learning for video forest fire smoke detection in wavelet domain
CN116977674A (zh) 图像匹配方法、相关设备、存储介质及程序产品
CN108009512A (zh) 一种基于卷积神经网络特征学习的人物再识别方法
CN110751670B (zh) 一种基于融合的目标跟踪方法
CN113033356B (zh) 一种尺度自适应的长期相关性目标跟踪方法
Liu et al. Design of face detection and tracking system
CN117237994A (zh) 一种油气作业区人员计数及行为检测方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant