CN108573499B - 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 - Google Patents

一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 Download PDF

Info

Publication number
CN108573499B
CN108573499B CN201810218274.6A CN201810218274A CN108573499B CN 108573499 B CN108573499 B CN 108573499B CN 201810218274 A CN201810218274 A CN 201810218274A CN 108573499 B CN108573499 B CN 108573499B
Authority
CN
China
Prior art keywords
scale
target
response
target position
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810218274.6A
Other languages
English (en)
Other versions
CN108573499A (zh
Inventor
冯帆
沈波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN201810218274.6A priority Critical patent/CN108573499B/zh
Publication of CN108573499A publication Critical patent/CN108573499A/zh
Application granted granted Critical
Publication of CN108573499B publication Critical patent/CN108573499B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,包括:根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;在每一层特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;当目标发生遮挡时,利用时空上下文模型重新确定目标位置;更新模型,为下一帧目标位置和尺寸的确定做准备。本发明提高了视觉目标跟踪的精确度和鲁棒性。

Description

一种基于尺度自适应和遮挡检测的视觉目标跟踪方法
技术领域
本发明涉及视觉目标跟踪技术领域,特别是涉及一种基于尺度自适应和遮挡检测的视觉目标跟踪方法。
背景技术
视觉目标跟踪是计算机视觉中一项具有挑战性的任务,它被广泛应用于视频监控、人机交互、医学成像和机器人学。视觉目标跟踪在视频的第一帧给出目标的位置和边界框,然后估计之后每一帧的目标位置和边界大小。由于目标在视频中容易发生外观变化,诸如尺度变化、遮挡、光照变化、旋转等,因此现阶段还没有任何一种目标跟踪方法可以适应于所有的跟踪场景。
目前在视觉目标跟踪研究中,使用的特征主要是手工设计特征,如梯度直方图(histogram of orientation gradients,HOG)特征、颜色名称(color names,CN)特征等,和单层或少层卷积特征,它们对样本没有足够强的表示能力。同时,大多数的视觉目标跟踪方法都采用固定大小的边界框来跟踪目标,不能解决尺度变化的问题。此外,在处理目标遮挡的问题上,现存的视觉目标跟踪方法缺乏一种能够有效检测遮挡的机制来判断目标遮挡的发生,进而避免跟踪模板的污染和算法计算复杂度的提高,实现对遮挡的处理和目标位置的重新确定。
发明内容
本发明所要解决的技术问题是提供一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,能够解决目标尺度变化和遮挡的问题,进而提高视觉目标跟踪的精确度和鲁棒性。
本发明解决其技术问题所采用的技术方案是:提供一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,包括以下步骤:
(1)根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;
(2)在每一层样本特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;
(3)在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;
(4)计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;
(5)当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置;
(6)更新模型,为下一帧目标位置和尺寸的确定做准备。
所述步骤(1)中的提取不同层的卷积特征具体为:将裁剪的图像块输入预训练的VGGNet-19卷积神经网络,分别提取conv1-2,conv2-2,conv3-4,conv4-4和conv5-4层的卷积特征作为样本的特征图,每一层的特征图的尺寸相同。
所述步骤(2)具体为:利用上一帧第l层的样本特征图x构建非线性岭回归模型,学习核相关滤波器w;在当前帧到来时,同样提取第l层的样本特征图z,进而求得该层的响应图fl;采用将fl线性叠加的方法得到响应总图f,其最大值的位置即为当前帧的目标位置;所述线性叠加的方法为:
Figure BDA0001599299500000021
其中,μl为第l层响应图的权重。
所述步骤(3)具体为:首先在上一帧的目标位置处采集N个样本,N为奇数,每个样本的尺寸为RrP×RrQ,其中,P×Q表示上一帧的目标尺寸,Rr表示集合R中第r个元素,r=1,2,...N,
Figure BDA0001599299500000022
u为尺度乘子;然后将不同尺度的样本放缩至相同尺寸,并将其均调整为一维向量;最后经过尺度滤波器得到尺度响应ys,进而得到当前帧的最佳尺度
Figure BDA0001599299500000023
所述步骤(4)具体为:计算响应总图f的峰值旁瓣比,
Figure BDA0001599299500000024
其中,mp为响应总图f的峰值,μsl和σsl分别为旁瓣的均值和标准差;当PSR≥τ时,判定目标不发生遮挡;当PSR<τ时,判定目标发生遮挡,τ为设定的阈值。
所述步骤(5)中时空上下文模型为:
Figure BDA0001599299500000025
其中
Figure BDA0001599299500000026
Figure BDA00015992995000000211
分别表示第t-1帧的时空上下文模型和空间上下文模型,ρ是学习率,
Figure BDA0001599299500000027
为目标可能出现的位置;
Figure BDA0001599299500000028
其中,
Figure BDA0001599299500000029
表示离散傅里叶变换,
Figure BDA00015992995000000210
表示离散傅里叶反变换,b是正则化参数,
Figure BDA0001599299500000032
为上一帧确定的目标位置,γ是尺度参数,δ是形状参数,
Figure BDA0001599299500000033
Figure BDA0001599299500000034
位置处的灰度值;
Figure BDA0001599299500000031
其中,a是正则化参数,ε是尺度参数。
所述步骤(6)中更新模型包括更新核相关滤波、尺度和时空上下文模型。
有益效果
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:本发明使用了比手工设计特征和单层或少层卷积特征有更强表示能力的多层卷积特征来表示样本,融入了尺度自适应机制,提出了新的目标遮挡检测和解决的方案。本发明和传统方法相比能够解决目标尺度变化和遮挡的问题,进而提高视觉目标跟踪的精确度和鲁棒性。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明的实施方式涉及一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,如图1所示,包括以下步骤:根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;在每一层特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置;更新模型,为下一帧目标位置和尺寸的确定做准备。具体如下:
步骤1、根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,将图像块做预处理操作:首先将图像块尺寸调整为225×225像素大小,然后求出所有像素点的像素均值,再用每个像素点的像素值减去像素均值得到归一化的图像块。将预处理后的图像块输入已去除全连接层和分类层的预训练的VGGNet-19卷积神经网络,分别提取conv1-2,conv2-2,conv3-4,conv4-4和conv5-4层的卷积特征作为样本的特征图,每一层特征图的尺寸均为M N D。
步骤2、在每一层特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置。具体步骤如下:
步骤2.1、在当前帧目标位置处采集训练样本,训练核相关滤波器。x为训练样本第l层的特征图,w为对应层的核相关滤波器,其它各层类似。我们通过最小化带有L2约束的平方误差来求解核相关滤波器w:
Figure BDA0001599299500000041
其中,||·||表示L2范数;·表示内积;
Figure BDA0001599299500000042
表示从线性空间到非线性空间的映射;xm,n为x沿M和N方向的循环移位样本,(m,n)∈{0,1,...,M-1}×{0,1,...,N-1};高斯函数标签
Figure BDA0001599299500000043
σ为核化带宽;λ为正则化参数。公式(1)的结果w可以用样本的线性组合来计算,即
Figure BDA0001599299500000044
其中α是系数。于是将求解w转化为求解α,进而可得
Figure BDA0001599299500000045
其中,
Figure BDA0001599299500000046
表示离散傅里叶变换(discret fourier transform,DFT),
Figure BDA0001599299500000047
表示离散傅里叶反变换,y={y(m,n)|(m,n)∈{0,1,2,...,M-1}×{0,1,2,...,N-1}}。在这里采用高斯核来计算内积
Figure BDA0001599299500000048
其中,σk是核带宽,⊙表示哈达玛(Hadamard)积,-表示复共轭。
步骤2.2、当下一帧到来时,在上一帧目标位置处采集测试样本(z为测试样本第l层的特征图),通过前一帧训练的该层的核相关滤波器,求得该层的响应图
Figure BDA0001599299500000049
其它层响应图的求解方法类似。
步骤2.3、将不同层的响应图fl线性叠加得到响应总图
Figure BDA0001599299500000051
其中,μl为不同层响应图的权重。进而得到当前帧的目标位置
Figure BDA0001599299500000052
步骤3、在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度。具体步骤如下:
步骤3.1、首先在当前帧的目标位置处采集N(N为奇数)个样本,每个样本的尺寸为RrP×RrQ,其中,P×Q表示上一帧的目标尺寸,Rr表示集合R中第r个元素,r=1,2,...N,
Figure BDA0001599299500000053
u为尺度乘子;然后将不同尺度的样本放缩至相同尺寸P×Q,并将其均调整为一维向量PQ×1;最后将N个PQ×1的向量拼接成PQ×N的尺度特征图xs,并用xs i表示尺度特征图的第i通道,i∈{1,2,...,PQ},显然xs i的维度为1×N。
步骤3.2、用尺度特征图训练尺度滤波器。通过最小化下面的损失函数来求解尺度滤波器:
Figure BDA0001599299500000054
其中,*表示循环相关操作;ws i是尺度滤波器的第i通道,其维度与xs i相同;ys是尺度高斯标签,
Figure BDA0001599299500000055
σs是核化带宽;λs是正则化参数。解公式(4)可得,
Figure BDA0001599299500000056
步骤3.3、当下一帧到来时,在上一帧的目标位置处同样采集N个不同尺寸的样本,得到待检测的尺度特征图zs,经过上一帧训练得到的尺度滤波器,得到尺度响应:
Figure BDA0001599299500000057
进而得到当前帧的最佳尺度
Figure BDA0001599299500000058
步骤4、计算响应总图的峰值旁瓣比,判断目标是否发生遮挡。具体步骤如下:计算响应总图f的峰值旁瓣比,
Figure BDA0001599299500000061
其中,mp为f的峰值,μsl和σsl分别为旁瓣的均值和标准差。当PSR≥τ时,判定目标不发生遮挡;当PSR<τ时,判定目标发生遮挡,τ为设定的阈值。
步骤5、当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置。具体步骤如下:
步骤5.1、在贝叶斯框架下建立目标可能出现位置的置信图m(t)=P(t|o),其中,
Figure BDA0001599299500000062
表示可能的目标位置,o表示目标出现。我们使用
Figure BDA0001599299500000066
表示上一帧的目标位置,并定义上下文特征集
Figure BDA0001599299500000067
其中,
Figure BDA0001599299500000063
表示上下文特征的位置,I(c)是位置c处的灰度值,
Figure BDA0001599299500000068
是位置
Figure BDA0001599299500000069
的临近区域。由此可见,上下文特征由灰度信息和位置信息构成。置信图m(t)可进一步写为
Figure BDA0001599299500000064
其中,P(t|s(c),o)是条件概率,P(s(c)|o)是上下文先验概率。
步骤5.2、依次建立条件概率模型、上下文先验概率模型和置信图模型。首先建立条件概率模型,它指明了目标位置t和上下文c之间的空间上下文模型,即
P(t|s(c),o)=hsc(t-c) (8)
其中,hsc为空间上下文模型。然后建立上下文先验概率模型,它指明了局部上下文的外观,即
Figure BDA00015992995000000610
在这里权重函数
Figure BDA0001599299500000065
其中,a是正则化参数,ε是尺度参数。最后,目标可能出现位置的置信图定义为
Figure BDA0001599299500000071
其中,b是正则化参数,γ是尺度参数,δ是形状参数。
步骤5.3、求解空间上下文模型,并得到时空上下文模型,进而得到目标位置。将公式(8)、(9)和(10)带入公式(7),有
Figure BDA0001599299500000072
其中,
Figure BDA0001599299500000073
表示卷积操作。根据卷积定理,公式(11)可以进一步写为
Figure BDA0001599299500000074
进而求得空间上下文模型为
Figure BDA0001599299500000075
在第t-1帧,我们求得空间上下文模型为
Figure BDA0001599299500000076
并求得第t-1帧的目标位置
Figure BDA0001599299500000077
当第t帧到来时,首先得到时空上下文模型
Figure BDA0001599299500000078
其中ρ是学习率。然后,在目标位置
Figure BDA00015992995000000715
处裁剪局部上下文区域
Figure BDA0001599299500000079
建立上下文特征集
Figure BDA00015992995000000710
最后,计算第t帧的置信图
Figure BDA00015992995000000711
因此,在第t帧的最佳目标位置可以表示为
Figure BDA00015992995000000712
步骤6、更新核相关滤波、尺度和时空上下文模型,为下一帧目标位置和尺寸的确定做准备。具体步骤如下:更新核相关滤波模型:xt+1=(1-β)xt+βxt+1,αt+1=(1-β)αt+βαt+1,β是学习率;更新尺度模型:
Figure BDA00015992995000000713
η是学习率;更新时空上下文模型:
Figure BDA00015992995000000714
ρ是学习率。
步骤7、在视觉目标跟踪领域的标准测试集OTB-50上对提出的跟踪方法进行测试,做出定量和定性分析,并与其它跟踪方法进行比较。
不难发现,本发明使用了比手工设计特征和单层或少层卷积特征有更强表示能力的多层卷积特征来表示样本,融入了尺度自适应机制,提出了新的目标遮挡检测和解决的方案。本发明和传统方法相比能够解决目标尺度变化和遮挡的问题,并在视觉目标跟踪的精确度和鲁棒性上都得到了提高。

Claims (7)

1.一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,包括以下步骤:
(1)根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;
(2)在每一层样本特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;
(3)在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;
(4)计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;
(5)当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置;
(6)更新模型,为下一帧目标位置和尺寸的确定做准备。
2.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(1)中的提取不同层的卷积特征具体为:将裁剪的图像块输入预训练的VGGNet-19卷积神经网络,分别提取conv1-2,conv2-2,conv3-4,conv4-4和conv5-4层的卷积特征作为样本的特征图,每一层的特征图的尺寸相同。
3.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(2)具体为:利用上一帧第l层的样本特征图x构建非线性岭回归模型,学习核相关滤波器w;在当前帧到来时,同样提取第l层的样本特征图z,进而求得该层的响应图fl;采用将fl线性叠加的方法得到响应总图f,其最大值的位置即为当前帧的目标位置;所述线性叠加的方法为:
Figure FDA0001599299490000011
其中,μl为第l层响应图的权重。
4.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(3)具体为:首先在上一帧的目标位置处采集N个样本,N为奇数,每个样本的尺寸为RrP×RrQ,其中,P×Q表示上一帧的目标尺寸,Rr表示集合R中第r个元素,r=1,2,...N,
Figure FDA0001599299490000012
u为尺度乘子;然后将不同尺度的样本放缩至相同尺寸,并将其均调整为一维向量;最后经过尺度滤波器得到尺度响应ys,进而得到当前帧的最佳尺度
Figure FDA0001599299490000013
Figure FDA0001599299490000021
5.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(4)具体为:计算响应总图f的峰值旁瓣比,
Figure FDA0001599299490000022
其中,mp为响应总图f的峰值,μsl和σsl分别为旁瓣的均值和标准差;当PSR≥τ时,判定目标不发生遮挡;当PSR<τ时,判定目标发生遮挡,τ为设定的阈值。
6.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(5)中时空上下文模型为:
Figure FDA0001599299490000023
其中
Figure FDA0001599299490000024
Figure FDA0001599299490000025
分别表示第t-1帧的时空上下文模型和空间上下文模型,ρ是学习率,
Figure FDA0001599299490000026
为目标可能出现的位置;
Figure FDA0001599299490000027
其中,
Figure FDA0001599299490000028
表示离散傅里叶变换,
Figure FDA0001599299490000029
表示离散傅里叶反变换,b是正则化参数,
Figure FDA00015992994900000211
为上一帧确定的目标位置,γ是尺度参数,δ是形状参数,
Figure FDA00015992994900000212
Figure FDA00015992994900000213
位置处的灰度值;
Figure FDA00015992994900000210
其中,a是正则化参数,ε是尺度参数。
7.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(6)中更新模型包括更新核相关滤波、尺度和时空上下文模型。
CN201810218274.6A 2018-03-16 2018-03-16 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 Active CN108573499B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810218274.6A CN108573499B (zh) 2018-03-16 2018-03-16 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810218274.6A CN108573499B (zh) 2018-03-16 2018-03-16 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108573499A CN108573499A (zh) 2018-09-25
CN108573499B true CN108573499B (zh) 2021-04-02

Family

ID=63574342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810218274.6A Active CN108573499B (zh) 2018-03-16 2018-03-16 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108573499B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492530B (zh) * 2018-10-10 2022-03-04 重庆大学 基于深度多尺度时空特征的健壮性视觉物体跟踪方法
CN109816689B (zh) * 2018-12-18 2022-07-19 昆明理工大学 一种多层卷积特征自适应融合的运动目标跟踪方法
CN109816693A (zh) * 2019-01-28 2019-05-28 中国地质大学(武汉) 基于多峰响应的抗遮挡相关滤波跟踪方法及系统/装置
CN109948525A (zh) * 2019-03-18 2019-06-28 Oppo广东移动通信有限公司 拍照处理方法、装置、移动终端以及存储介质
US10943132B2 (en) * 2019-04-10 2021-03-09 Black Sesame International Holding Limited Distant on-road object detection
CN110533690B (zh) * 2019-08-08 2022-02-11 河海大学 特征融合与学习率优化的核相关滤波水下目标跟踪方法
CN110599519B (zh) * 2019-08-27 2022-11-08 上海交通大学 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN110660079A (zh) * 2019-09-11 2020-01-07 昆明理工大学 一种基于时空上下文的单目标跟踪方法
CN111210461B (zh) * 2019-12-30 2023-06-02 成都慧视光电技术有限公司 一种自适应尺度变化的实时相关滤波跟踪算法
CN112364891B (zh) * 2020-10-20 2024-08-02 广东七号智算技术有限公司 一种基于样本分类的自适应去污方法
CN115131401B (zh) * 2022-06-20 2024-04-12 武汉大学 基于多尺度多方向核相关滤波的遥感视频目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1744128B1 (de) * 2005-07-14 2012-02-08 Leopold Kostal GmbH & Co. KG Verfahren zum Bestimmen der absoluten Winkelstellung des Lenkrades eines Kraftfahrzeugs
CN104091348A (zh) * 2014-05-19 2014-10-08 南京工程学院 融合显著特征和分块模板的多目标跟踪方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1744128B1 (de) * 2005-07-14 2012-02-08 Leopold Kostal GmbH & Co. KG Verfahren zum Bestimmen der absoluten Winkelstellung des Lenkrades eines Kraftfahrzeugs
CN104091348A (zh) * 2014-05-19 2014-10-08 南京工程学院 融合显著特征和分块模板的多目标跟踪方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
《A kernel Correlation Filter based Scale-Adaptive Tracker: The Full Occlusion Case》;Yunlong Lin 等;《2017 Chinese Automation Congress》;20171231;全文 *
《Hierarchical Convolutional Features for Visual Tracking》;Chao Ma 等;《ICCV 2015》;20151231;全文 *
《基于相关滤波器的视觉目标跟踪综述》;魏全禄 等;《计算机科学》;20161130;第43卷(第11期);全文 *

Also Published As

Publication number Publication date
CN108573499A (zh) 2018-09-25

Similar Documents

Publication Publication Date Title
CN108573499B (zh) 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法
CN109670429B (zh) 一种基于实例分割的监控视频多目标人脸检测方法及系统
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN107563433B (zh) 一种基于卷积神经网络的红外小目标检测方法
CN109101897A (zh) 水下机器人的目标检测方法、系统及相关设备
CN111027497B (zh) 基于高分辨率光学遥感影像的弱小目标快速检测方法
CN104732546B (zh) 区域相似性和局部空间约束的非刚性sar图像配准方法
CN110084201B (zh) 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法
CN109993744B (zh) 一种海上逆光环境下的红外目标检测方法
CN115147418B (zh) 缺陷检测模型的压缩训练方法和装置
CN113536963A (zh) 基于轻量化yolo网络的sar图像飞机目标检测方法
CN112651381A (zh) 基于卷积神经网络的视频图像中家畜识别方法及装置
CN108509826B (zh) 一种遥感影像的道路识别方法及其系统
Krylov et al. False discovery rate approach to unsupervised image change detection
CN110751671B (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
CN109241932B (zh) 一种基于运动方差图相位特征的热红外人体动作识别方法
CN113033356B (zh) 一种尺度自适应的长期相关性目标跟踪方法
CN110751670B (zh) 一种基于融合的目标跟踪方法
CN111275687B (zh) 一种基于连通区域标记的细粒度图像拼接检测方法
CN113313179A (zh) 一种基于l2p范数鲁棒最小二乘法的噪声图像分类方法
CN109285148B (zh) 基于重加权低秩和增强稀疏的红外弱小目标检测方法
CN111681266A (zh) 船舶跟踪方法、系统、设备及存储介质
CN101630369A (zh) 一种基于小波分形特征的行人检测方法
CN108959355B (zh) 一种船只分类方法、装置及电子设备
CN113239860B (zh) 一种基于视频的烟火检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant