CN108573499B - 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 - Google Patents
一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 Download PDFInfo
- Publication number
- CN108573499B CN108573499B CN201810218274.6A CN201810218274A CN108573499B CN 108573499 B CN108573499 B CN 108573499B CN 201810218274 A CN201810218274 A CN 201810218274A CN 108573499 B CN108573499 B CN 108573499B
- Authority
- CN
- China
- Prior art keywords
- scale
- target
- response
- target position
- current frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000000007 visual effect Effects 0.000 title claims abstract description 24
- 238000001514 detection method Methods 0.000 title claims abstract description 15
- 230000004044 response Effects 0.000 claims abstract description 44
- 238000010586 diagram Methods 0.000 claims abstract description 16
- 238000001914 filtration Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 2
- 230000006978 adaptation Effects 0.000 claims 5
- 239000010410 layer Substances 0.000 description 31
- 230000008859 change Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 239000002356 single layer Substances 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004451 qualitative analysis Methods 0.000 description 2
- 238000004445 quantitative analysis Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,包括:根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;在每一层特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;当目标发生遮挡时,利用时空上下文模型重新确定目标位置;更新模型,为下一帧目标位置和尺寸的确定做准备。本发明提高了视觉目标跟踪的精确度和鲁棒性。
Description
技术领域
本发明涉及视觉目标跟踪技术领域,特别是涉及一种基于尺度自适应和遮挡检测的视觉目标跟踪方法。
背景技术
视觉目标跟踪是计算机视觉中一项具有挑战性的任务,它被广泛应用于视频监控、人机交互、医学成像和机器人学。视觉目标跟踪在视频的第一帧给出目标的位置和边界框,然后估计之后每一帧的目标位置和边界大小。由于目标在视频中容易发生外观变化,诸如尺度变化、遮挡、光照变化、旋转等,因此现阶段还没有任何一种目标跟踪方法可以适应于所有的跟踪场景。
目前在视觉目标跟踪研究中,使用的特征主要是手工设计特征,如梯度直方图(histogram of orientation gradients,HOG)特征、颜色名称(color names,CN)特征等,和单层或少层卷积特征,它们对样本没有足够强的表示能力。同时,大多数的视觉目标跟踪方法都采用固定大小的边界框来跟踪目标,不能解决尺度变化的问题。此外,在处理目标遮挡的问题上,现存的视觉目标跟踪方法缺乏一种能够有效检测遮挡的机制来判断目标遮挡的发生,进而避免跟踪模板的污染和算法计算复杂度的提高,实现对遮挡的处理和目标位置的重新确定。
发明内容
本发明所要解决的技术问题是提供一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,能够解决目标尺度变化和遮挡的问题,进而提高视觉目标跟踪的精确度和鲁棒性。
本发明解决其技术问题所采用的技术方案是:提供一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,包括以下步骤:
(1)根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;
(2)在每一层样本特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;
(3)在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;
(4)计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;
(5)当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置;
(6)更新模型,为下一帧目标位置和尺寸的确定做准备。
所述步骤(1)中的提取不同层的卷积特征具体为:将裁剪的图像块输入预训练的VGGNet-19卷积神经网络,分别提取conv1-2,conv2-2,conv3-4,conv4-4和conv5-4层的卷积特征作为样本的特征图,每一层的特征图的尺寸相同。
所述步骤(2)具体为:利用上一帧第l层的样本特征图x构建非线性岭回归模型,学习核相关滤波器w;在当前帧到来时,同样提取第l层的样本特征图z,进而求得该层的响应图fl;采用将fl线性叠加的方法得到响应总图f,其最大值的位置即为当前帧的目标位置;所述线性叠加的方法为:其中,μl为第l层响应图的权重。
所述步骤(3)具体为:首先在上一帧的目标位置处采集N个样本,N为奇数,每个样本的尺寸为RrP×RrQ,其中,P×Q表示上一帧的目标尺寸,Rr表示集合R中第r个元素,r=1,2,...N,u为尺度乘子;然后将不同尺度的样本放缩至相同尺寸,并将其均调整为一维向量;最后经过尺度滤波器得到尺度响应ys,进而得到当前帧的最佳尺度
所述步骤(4)具体为:计算响应总图f的峰值旁瓣比,其中,mp为响应总图f的峰值,μsl和σsl分别为旁瓣的均值和标准差;当PSR≥τ时,判定目标不发生遮挡;当PSR<τ时,判定目标发生遮挡,τ为设定的阈值。
所述步骤(5)中时空上下文模型为:其中和分别表示第t-1帧的时空上下文模型和空间上下文模型,ρ是学习率,为目标可能出现的位置;其中,表示离散傅里叶变换,表示离散傅里叶反变换,b是正则化参数,为上一帧确定的目标位置,γ是尺度参数,δ是形状参数,为位置处的灰度值;其中,a是正则化参数,ε是尺度参数。
所述步骤(6)中更新模型包括更新核相关滤波、尺度和时空上下文模型。
有益效果
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:本发明使用了比手工设计特征和单层或少层卷积特征有更强表示能力的多层卷积特征来表示样本,融入了尺度自适应机制,提出了新的目标遮挡检测和解决的方案。本发明和传统方法相比能够解决目标尺度变化和遮挡的问题,进而提高视觉目标跟踪的精确度和鲁棒性。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明的实施方式涉及一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,如图1所示,包括以下步骤:根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;在每一层特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置;更新模型,为下一帧目标位置和尺寸的确定做准备。具体如下:
步骤1、根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,将图像块做预处理操作:首先将图像块尺寸调整为225×225像素大小,然后求出所有像素点的像素均值,再用每个像素点的像素值减去像素均值得到归一化的图像块。将预处理后的图像块输入已去除全连接层和分类层的预训练的VGGNet-19卷积神经网络,分别提取conv1-2,conv2-2,conv3-4,conv4-4和conv5-4层的卷积特征作为样本的特征图,每一层特征图的尺寸均为M N D。
步骤2、在每一层特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置。具体步骤如下:
步骤2.1、在当前帧目标位置处采集训练样本,训练核相关滤波器。x为训练样本第l层的特征图,w为对应层的核相关滤波器,其它各层类似。我们通过最小化带有L2约束的平方误差来求解核相关滤波器w:
其中,||·||表示L2范数;·表示内积;表示从线性空间到非线性空间的映射;xm,n为x沿M和N方向的循环移位样本,(m,n)∈{0,1,...,M-1}×{0,1,...,N-1};高斯函数标签σ为核化带宽;λ为正则化参数。公式(1)的结果w可以用样本的线性组合来计算,即其中α是系数。于是将求解w转化为求解α,进而可得
其中,表示离散傅里叶变换(discret fourier transform,DFT),表示离散傅里叶反变换,y={y(m,n)|(m,n)∈{0,1,2,...,M-1}×{0,1,2,...,N-1}}。在这里采用高斯核来计算内积其中,σk是核带宽,⊙表示哈达玛(Hadamard)积,-表示复共轭。
步骤2.2、当下一帧到来时,在上一帧目标位置处采集测试样本(z为测试样本第l层的特征图),通过前一帧训练的该层的核相关滤波器,求得该层的响应图
其它层响应图的求解方法类似。
步骤3、在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度。具体步骤如下:
步骤3.1、首先在当前帧的目标位置处采集N(N为奇数)个样本,每个样本的尺寸为RrP×RrQ,其中,P×Q表示上一帧的目标尺寸,Rr表示集合R中第r个元素,r=1,2,...N,u为尺度乘子;然后将不同尺度的样本放缩至相同尺寸P×Q,并将其均调整为一维向量PQ×1;最后将N个PQ×1的向量拼接成PQ×N的尺度特征图xs,并用xs i表示尺度特征图的第i通道,i∈{1,2,...,PQ},显然xs i的维度为1×N。
步骤3.2、用尺度特征图训练尺度滤波器。通过最小化下面的损失函数来求解尺度滤波器:
步骤3.3、当下一帧到来时,在上一帧的目标位置处同样采集N个不同尺寸的样本,得到待检测的尺度特征图zs,经过上一帧训练得到的尺度滤波器,得到尺度响应:
步骤4、计算响应总图的峰值旁瓣比,判断目标是否发生遮挡。具体步骤如下:计算响应总图f的峰值旁瓣比,其中,mp为f的峰值,μsl和σsl分别为旁瓣的均值和标准差。当PSR≥τ时,判定目标不发生遮挡;当PSR<τ时,判定目标发生遮挡,τ为设定的阈值。
步骤5、当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置。具体步骤如下:
步骤5.1、在贝叶斯框架下建立目标可能出现位置的置信图m(t)=P(t|o),其中,表示可能的目标位置,o表示目标出现。我们使用表示上一帧的目标位置,并定义上下文特征集其中,表示上下文特征的位置,I(c)是位置c处的灰度值,是位置的临近区域。由此可见,上下文特征由灰度信息和位置信息构成。置信图m(t)可进一步写为
其中,P(t|s(c),o)是条件概率,P(s(c)|o)是上下文先验概率。
步骤5.2、依次建立条件概率模型、上下文先验概率模型和置信图模型。首先建立条件概率模型,它指明了目标位置t和上下文c之间的空间上下文模型,即
P(t|s(c),o)=hsc(t-c) (8)
其中,hsc为空间上下文模型。然后建立上下文先验概率模型,它指明了局部上下文的外观,即
其中,b是正则化参数,γ是尺度参数,δ是形状参数。
步骤5.3、求解空间上下文模型,并得到时空上下文模型,进而得到目标位置。将公式(8)、(9)和(10)带入公式(7),有
进而求得空间上下文模型为
步骤6、更新核相关滤波、尺度和时空上下文模型,为下一帧目标位置和尺寸的确定做准备。具体步骤如下:更新核相关滤波模型:xt+1=(1-β)xt+βxt+1,αt+1=(1-β)αt+βαt+1,β是学习率;更新尺度模型:η是学习率;更新时空上下文模型:ρ是学习率。
步骤7、在视觉目标跟踪领域的标准测试集OTB-50上对提出的跟踪方法进行测试,做出定量和定性分析,并与其它跟踪方法进行比较。
不难发现,本发明使用了比手工设计特征和单层或少层卷积特征有更强表示能力的多层卷积特征来表示样本,融入了尺度自适应机制,提出了新的目标遮挡检测和解决的方案。本发明和传统方法相比能够解决目标尺度变化和遮挡的问题,并在视觉目标跟踪的精确度和鲁棒性上都得到了提高。
Claims (7)
1.一种基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,包括以下步骤:
(1)根据上一帧确定的目标位置和尺寸,在当前帧裁剪出图像块,并提取不同层的卷积特征作为样本特征图;
(2)在每一层样本特征图上采用核相关滤波方法得到响应图,然后将不同层的响应图线性叠加得到响应总图,其最大值所对应的位置即为当前帧的目标位置;
(3)在目标位置处采集不同尺寸的样本,并调整至相同尺寸,经过尺度滤波器得到尺度响应,其最大值对应的尺度即为当前帧的最佳尺度;
(4)计算响应总图的峰值旁瓣比,判断目标是否发生遮挡;
(5)当目标不发生遮挡时,不更新目标位置,当目标发生遮挡时,利用时空上下文模型重新确定目标位置;
(6)更新模型,为下一帧目标位置和尺寸的确定做准备。
2.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(1)中的提取不同层的卷积特征具体为:将裁剪的图像块输入预训练的VGGNet-19卷积神经网络,分别提取conv1-2,conv2-2,conv3-4,conv4-4和conv5-4层的卷积特征作为样本的特征图,每一层的特征图的尺寸相同。
7.根据权利要求1所述的基于尺度自适应和遮挡检测的视觉目标跟踪方法,其特征在于,所述步骤(6)中更新模型包括更新核相关滤波、尺度和时空上下文模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810218274.6A CN108573499B (zh) | 2018-03-16 | 2018-03-16 | 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810218274.6A CN108573499B (zh) | 2018-03-16 | 2018-03-16 | 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108573499A CN108573499A (zh) | 2018-09-25 |
CN108573499B true CN108573499B (zh) | 2021-04-02 |
Family
ID=63574342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810218274.6A Active CN108573499B (zh) | 2018-03-16 | 2018-03-16 | 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108573499B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492530B (zh) * | 2018-10-10 | 2022-03-04 | 重庆大学 | 基于深度多尺度时空特征的健壮性视觉物体跟踪方法 |
CN109816689B (zh) * | 2018-12-18 | 2022-07-19 | 昆明理工大学 | 一种多层卷积特征自适应融合的运动目标跟踪方法 |
CN109816693A (zh) * | 2019-01-28 | 2019-05-28 | 中国地质大学(武汉) | 基于多峰响应的抗遮挡相关滤波跟踪方法及系统/装置 |
CN109948525A (zh) * | 2019-03-18 | 2019-06-28 | Oppo广东移动通信有限公司 | 拍照处理方法、装置、移动终端以及存储介质 |
US10943132B2 (en) * | 2019-04-10 | 2021-03-09 | Black Sesame International Holding Limited | Distant on-road object detection |
CN110533690B (zh) * | 2019-08-08 | 2022-02-11 | 河海大学 | 特征融合与学习率优化的核相关滤波水下目标跟踪方法 |
CN110599519B (zh) * | 2019-08-27 | 2022-11-08 | 上海交通大学 | 基于领域搜索策略的抗遮挡相关滤波跟踪方法 |
CN110660079A (zh) * | 2019-09-11 | 2020-01-07 | 昆明理工大学 | 一种基于时空上下文的单目标跟踪方法 |
CN111210461B (zh) * | 2019-12-30 | 2023-06-02 | 成都慧视光电技术有限公司 | 一种自适应尺度变化的实时相关滤波跟踪算法 |
CN112364891B (zh) * | 2020-10-20 | 2024-08-02 | 广东七号智算技术有限公司 | 一种基于样本分类的自适应去污方法 |
CN115131401B (zh) * | 2022-06-20 | 2024-04-12 | 武汉大学 | 基于多尺度多方向核相关滤波的遥感视频目标跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1744128B1 (de) * | 2005-07-14 | 2012-02-08 | Leopold Kostal GmbH & Co. KG | Verfahren zum Bestimmen der absoluten Winkelstellung des Lenkrades eines Kraftfahrzeugs |
CN104091348A (zh) * | 2014-05-19 | 2014-10-08 | 南京工程学院 | 融合显著特征和分块模板的多目标跟踪方法 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107680119A (zh) * | 2017-09-05 | 2018-02-09 | 燕山大学 | 一种基于时空上下文融合多特征及尺度滤波的跟踪算法 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
-
2018
- 2018-03-16 CN CN201810218274.6A patent/CN108573499B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1744128B1 (de) * | 2005-07-14 | 2012-02-08 | Leopold Kostal GmbH & Co. KG | Verfahren zum Bestimmen der absoluten Winkelstellung des Lenkrades eines Kraftfahrzeugs |
CN104091348A (zh) * | 2014-05-19 | 2014-10-08 | 南京工程学院 | 融合显著特征和分块模板的多目标跟踪方法 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107680119A (zh) * | 2017-09-05 | 2018-02-09 | 燕山大学 | 一种基于时空上下文融合多特征及尺度滤波的跟踪算法 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
《A kernel Correlation Filter based Scale-Adaptive Tracker: The Full Occlusion Case》;Yunlong Lin 等;《2017 Chinese Automation Congress》;20171231;全文 * |
《Hierarchical Convolutional Features for Visual Tracking》;Chao Ma 等;《ICCV 2015》;20151231;全文 * |
《基于相关滤波器的视觉目标跟踪综述》;魏全禄 等;《计算机科学》;20161130;第43卷(第11期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108573499A (zh) | 2018-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108573499B (zh) | 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 | |
CN109670429B (zh) | 一种基于实例分割的监控视频多目标人脸检测方法及系统 | |
CN107016357B (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN107563433B (zh) | 一种基于卷积神经网络的红外小目标检测方法 | |
CN109101897A (zh) | 水下机器人的目标检测方法、系统及相关设备 | |
CN111027497B (zh) | 基于高分辨率光学遥感影像的弱小目标快速检测方法 | |
CN104732546B (zh) | 区域相似性和局部空间约束的非刚性sar图像配准方法 | |
CN110084201B (zh) | 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 | |
CN109993744B (zh) | 一种海上逆光环境下的红外目标检测方法 | |
CN115147418B (zh) | 缺陷检测模型的压缩训练方法和装置 | |
CN113536963A (zh) | 基于轻量化yolo网络的sar图像飞机目标检测方法 | |
CN112651381A (zh) | 基于卷积神经网络的视频图像中家畜识别方法及装置 | |
CN108509826B (zh) | 一种遥感影像的道路识别方法及其系统 | |
Krylov et al. | False discovery rate approach to unsupervised image change detection | |
CN110751671B (zh) | 一种基于核相关滤波与运动估计的目标跟踪方法 | |
CN109241932B (zh) | 一种基于运动方差图相位特征的热红外人体动作识别方法 | |
CN113033356B (zh) | 一种尺度自适应的长期相关性目标跟踪方法 | |
CN110751670B (zh) | 一种基于融合的目标跟踪方法 | |
CN111275687B (zh) | 一种基于连通区域标记的细粒度图像拼接检测方法 | |
CN113313179A (zh) | 一种基于l2p范数鲁棒最小二乘法的噪声图像分类方法 | |
CN109285148B (zh) | 基于重加权低秩和增强稀疏的红外弱小目标检测方法 | |
CN111681266A (zh) | 船舶跟踪方法、系统、设备及存储介质 | |
CN101630369A (zh) | 一种基于小波分形特征的行人检测方法 | |
CN108959355B (zh) | 一种船只分类方法、装置及电子设备 | |
CN113239860B (zh) | 一种基于视频的烟火检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |