CN107730536B - 一种基于深度特征的高速相关滤波物体追踪方法 - Google Patents

一种基于深度特征的高速相关滤波物体追踪方法 Download PDF

Info

Publication number
CN107730536B
CN107730536B CN201710835455.9A CN201710835455A CN107730536B CN 107730536 B CN107730536 B CN 107730536B CN 201710835455 A CN201710835455 A CN 201710835455A CN 107730536 B CN107730536 B CN 107730536B
Authority
CN
China
Prior art keywords
search
feature map
target
tracking
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710835455.9A
Other languages
English (en)
Other versions
CN107730536A (zh
Inventor
庄骏飞
董远
白洪亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SUZHOU FEISOU TECHNOLOGY Co.,Ltd.
Original Assignee
Suzhou Feisou Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Feisou Technology Co ltd filed Critical Suzhou Feisou Technology Co ltd
Priority to CN201710835455.9A priority Critical patent/CN107730536B/zh
Publication of CN107730536A publication Critical patent/CN107730536A/zh
Application granted granted Critical
Publication of CN107730536B publication Critical patent/CN107730536B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度特征图的高速相关滤波物体追踪方法,步骤包括:根据开始追踪的第一帧图像确定追踪目标搜索尺度;初始化追踪目标的初始特征图,选取conv3特征图作为初始特征图;对所述初始特征图进行滤波;对滤波后的初始特征图进行处理生成标签;获取最小允许权重;对追踪目标进行模型更新;根据上一帧中追踪目标所在的位置和尺寸确定当前帧中目标所在位置和尺寸。本发明相对于传统滤波方法,在复杂环境条件下如光照变化、遮挡等情况都有很好的跟踪效果。此外还具有良好的实时性:在GPU NVIDIA GTX1080上可以到达98fps。最后,还具有模型小的特点:imagenet‑vgg‑2048网络模型大小达到330M而压缩后的模型仅1.1M。

Description

一种基于深度特征的高速相关滤波物体追踪方法
技术领域
本发明涉及追踪算法领域,具体涉及一种基于深度特征的高速相关滤波物体追踪方法。
背景技术
现在的追踪算法主要分为两大类,一类是基于相关滤波的传统跟踪算法,另一类是基于卷积神经网络CNN的深度学习算法。第一类跟踪算法主要提取目标的HOG、CN等传统特征,这类特征鲁棒性较差,对于遮挡、高速运动、光照变化等复杂环境情况下追踪效果差。基于卷积神经网络CNN的深度学习跟踪算法虽然可以有效解决特征鲁棒性差的问题,但是由于网络结构复杂,计算量大等问题严重影响了跟踪算法的实时性。
发明内容
本发明的目的。在本发明中,结合CNN特征和相关滤波传统跟踪算法,在保证算法鲁棒性的基础上提高跟踪速度,使算法达到实时跟踪。
为了实现上述目的,本发明提供了一种基于深度特征的高速相关滤波物体追踪方法,包括,
确定追踪目标搜索尺度;
初始化追踪目标的初始特征图,选取conv3特征图作为初始特征图;
通过所述初始特征图得到标签及对应权重;
根据上一帧追踪目标所在的位置和尺寸得到训练区域,提取训练区域作为训练样本;
将该训练样本提取conv3第二特征图,对第二特征图进行L2归一化;
将归一化的第二特征图进行处理,训练并更新所述追踪模型;
根据更新的所述追踪模型确定当前帧中目标所在位置和尺寸,输出追踪结果。
进一步的,如前述的方法,所述确定追踪目标搜索尺度,具体为:预设最大搜索尺度及最小搜索尺度,根据追踪目标尺寸得出搜索初定尺度,如果所述搜索初定尺度大于最大尺度则取最大搜索尺度,如果所述搜索初定尺度小于最小搜索尺度则取最小搜索尺度,所述追踪目标搜索尺度的搜索区域为正方形。
更进一步的,如前述的方法,根据所述初始化追踪目标的初始特征图,选取conv3特征图作为初始特征图,具体为:以所述追踪目标搜索尺度作为搜索尺度,以追踪目标的中心为中心,提取所述追踪目标搜索尺度的搜索区域的卷积特征,选取conv3特征图作为初始特征图,步长为2对特征图降采样。
更进一步的,如前述的方法,通过所述初始特征图得到标签,具体为:对所述conv3特征图进行离散傅里叶变换,建立相应cos窗函数对其进行滤波;根据所述追踪目标搜索尺度的搜索区域的尺寸,使用泊松方程生成相应的空间高斯分布标签,所述泊松方程如公式(1)所示:
Figure GDA0001508105720000021
更进一步的,如前述的方法,通过所述初始特征图得到对应权重,具体为:将学习率lr定为0.012,以如下所示公式(2)定义最小允许权重,其中nSamples为最大保留训练样本数预设定为50;
lr×(1-lr)2×nSamples (2)。
更进一步的,如前述的方法,所述对第二特征图进行L2归一化,具体采用如下公式(3):
Figure GDA0001508105720000022
更进一步的,如前述的方法,所述将归一化的所述第二特征图进行处理,训练并更新所述追踪模型;具体包括:
将归一化的所述第二特征图进行cos窗滤波,然后进行傅里叶变换得到频谱图,再使用插值函数将所述频谱图投影到连续域内,通过公式(4)将特征图融合到连续域内,将连续域内的特征图作为新样本更新训练集;
Figure GDA0001508105720000031
其中J{xd}(t)代表在连续域内的特征图的总和,xd[n]代表d维度的特征图在公式中相当于权重,
Figure GDA0001508105720000032
代表三次样条插值函数;
根据所述新样本集计算新样本能量,根据新样本能量,使用共轭迭代的方法对相关滤波器进行更新。
更进一步的,如前述的方法,根据更新的所述追踪模型确定当前帧中目标所在位置和尺寸,具体为:
根据上一帧追踪目标所在的位置和尺寸,以目标所在位置为中心,并增大至若干倍得到新区域,在当前帧图像内提取新区域作为搜索区域;将搜索区域输入imagenet-vgg-2048网络内提取三个尺度的特征图A/B/C,对特征图A/B/C进行L2归一化并进行cos窗滤波,进行傅里叶变换得到频谱图后使用三次样条插值函数将特征图投影到连续域内,最后将特征图A/B/C和相关滤波器进行卷积得到目标在搜索区域内的分数,得分最高的位置为追踪目标所在位置,同时更新追踪目标现在的尺度作为目标的尺寸。
更进一步的,如前述的方法,所述将搜索区域输入imagenet-vgg-2048网络内提取三个尺度的特征图A/B/C;具体为:
将搜索区域输入imagenet-vgg-2048网络内提取三个尺度分别是0.95、1.00、1.05的特征图A/B/C。
更进一步的,如前述的方法,所述得到训练区域的方法具体为:以追踪目标所在位置的中心为中心,并增大至若干倍得到训练区域。
在上述技术方案中,本发明相对于传统滤波方法,在复杂环境条件下如光照变化、遮挡等情况都有很好的跟踪效果。本发明简化imagenet-vgg-m-2048的模型,仅保留需要提取的conv3层的特征图,其余层全部删除。设置3个搜索尺度保证了较高的精度和速度。初始化滤波器时的共轭迭代次数优化为50次,传统相关滤波追踪初始迭代次数在200次以上,导致第一帧追踪速度过低,无法实现实时追踪。此外还具有实时性良好和模型小的特点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1所示为本发明一种实施例中方法流程示意图;
图2所示为本发明中在遮挡标签下的实际跟踪效果图;
图3所示为本发明中在运动变化标签下的实际跟踪效果图;
图4所示为本发明中在尺寸变化标签下的实际跟踪效果图;
图5所示为本发明中在光照变化标签下的实际跟踪效果图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面将结合附图对本发明作进一步的详细介绍。
如图1所示,本发明提供一种基于深度特征图的高速相关滤波物体追踪方法,包括:追踪目标的模型初始化、追踪目标的模型更新和确定追踪目标所在位置;
一、所述追踪目标的模型初始化包括:
S1.确定追踪目标搜索尺度:初始化确定追踪目标搜索尺度,预设最大搜索尺度及最小搜索尺度,优选的所述最大搜索尺度为250*250像素大小的区域,所述最小搜索尺度为200*200像素;根据追踪目标尺寸得出搜索初定尺度,如果所述搜索初定尺度大于最大尺度则取最大搜索尺度,如果所述搜索初定尺度小于最小搜索尺度则取最小搜索尺度,所述追踪目标搜索尺度的搜索区域为正方形,优选的,如果追踪目标搜索尺度的搜索区域是长方形则用添加空白边框像素的方法将其凑成正方形搜素区域。
S2.初始化追踪目标的初始特征图:以所述追踪目标的搜索尺度作为搜索尺度,以追踪目标的中心为中心,提取所述追踪目标搜索尺度的搜索区域的卷积特征,选取conv3(卷积神经网络第三层)特征图作为初始特征图,优选的,选取conv3的96维特征图,且特征图大小优选为109*109像素;步长为2对特征图降采样,所述降采样就是对特征图进行进一步压缩的过程,比如4*4的特征图,经过步长为2的降采样得到2*2的特征图;
S3.通过所述初始特征图得到标签及对应权重:对所述conv3特征图进行离散傅里叶变换,建立相应cos窗函数对其进行滤波;
对滤波后的初始特征图进行处理生成标签:根据所述追踪目标搜索尺度的搜索区域的尺寸,使用泊松方程生成相应的空间高斯分布标签,所述高斯分布标签为目标所在位置的分布概率标签,比如正方形中间分布的可能性最大,则该概率值最大;所述泊松方程如公式(1)所示:
Figure GDA0001508105720000051
获取最小允许权重,将学习率lr定为0.012,以如下所示公式(2)定义最小允许权重,其中nSamples为最大保留训练样本数预设定为50;
lr×(1-lr)2×nSamples (2);
二、追踪目标的模型更新:
S4.根据上一帧追踪目标所在的位置和尺寸(宽w和高h),以追踪目标所在位置的中心为中心,并增大至若干倍(将宽w和高h均扩大4倍)得到训练区域,提取训练区域作为训练样本;
S5.将所述训练样本提取conv3第二特征图,具体的,将该训练样本输入imagenet-vgg-2048压缩网络提取conv3第二特征图;
对所述第二特征图进行L2归一化;具体采用如下公式(3):
Figure GDA0001508105720000061
x1…xn分别指n维特征图。
S6.将归一化的第二特征图进行处理,训练并更新所述追踪模型,具体为:
将归一化的第二特征图进行cos窗滤波,然后进行傅里叶变换得到频谱图,再使用插值函数将所述频谱图投影到连续域内如公式2所示,通过公式(4)将第二特征图融合到连续域内得到第三特征图,将第三特征图作为新样本更新训练集;
Figure GDA0001508105720000062
其中J{xd}(t)代表在连续域内的特征图的总和,xd[n]代表d维度的特征图在公式中相当于权重,
Figure GDA0001508105720000063
代表三次样条插值函数;
根据所述新样本集计算新样本能量,具体将所述新样本与滤波器模板进行卷积获得所述新样本能量,根据所述新样本能量,使用共轭迭代的方法对相关滤波器进行更新;
三、确定目标所在位置:
S7.根据更新的所述追踪模型确定当前帧中目标所在位置和尺寸(宽w和高h),具体为:根据上一帧追踪目标所在的位置和尺寸,以追踪目标所在位置为中心,并增大至若干倍(将宽w和高h均扩大4倍)得到新区域,在当前帧图像内提取新区域作为搜索区域;将搜索区域输入imagenet-vgg-2048网络内提取三个尺度0.95、1.00、1.05的特征图A/B/C,对特征图A/B/C进行L2归一化并进行cos窗滤波,进行傅里叶变换得到频谱图后使用三次样条插值函数将特征图投影到连续域内,具体为将不同特征图用三次样条插值融合在同一域内,主要作用就是将不同大小的特征图融合;最后将特征图A/B/C和相关滤波器进行卷积得到目标在搜索区域内的分数,得分最高的位置为追踪目标所在位置,同时更新追踪目标现在的尺度作为目标的尺寸。
应用例:
具体过程如下:
1)输入视频帧以目标所在中心为当前帧中心4倍大小的尺度作为搜索区域。
2)搜索区域三种不同尺度(0.95、1.00、1.05)输入imagenet-vgg-2048压缩网络提取conv3特征图,每个尺度提取96维度大小为48*48的特征图。最终得到48*48*96*3的所有特征图,其中3为通道数,即为RGB三个通道。
3)所有特征图进行L2归一化处理。
4)将归一化的特征图进行cos窗滤波,然后进行傅里叶变换得到频谱图,频谱图通过三次样条插值函数投影到连续域内。
5)在傅里叶连续域内计算特征图和相关滤波器之间卷积得到的得分,最后将所有特征图的得分相加,得分最大的位置为目标在当前帧的中心并得到目标当前尺度。
本发明在GPU NVIDIA GTX1080上可以到达98fps。imagenet-vgg-2048网络模型大小达到330M而压缩后的模型仅1.1M。如将本方法应用于VOT2016(Visual ObjectTracking)视频数据集,该数据集包含60个序列,每个序列都具有以下标签:(1)遮挡,(2)光照变化,(3)运动变化,(4)尺寸变化,(5)模糊。该视频数据集场景复杂多变,满足现实生活中各种目标追踪需求。该视频数据集给出第一帧的目标初始位置,以EAO(expectedaverageoverlap)为具体评价指标,具体计算方法如下公式所示:
Figure GDA0001508105720000071
其中Φi代表平均重合度,Ns代表视频帧的总数。
在该数据集上本方法可以达到EAO 0.332,可见在复杂环境情况下(遮挡、光照变化等)本方法都能有效追踪目标(如白色框图部分),说明本方法具有良好的鲁棒性,并且98fps速度可进行实时跟踪。如下所述图片分别是各种标签下的实际跟踪效果图:如图2所示为本发明中在遮挡标签下的实际跟踪效果图;如图3所示为本发明中在运动变化标签下的实际跟踪效果图;如图4所示为本发明中在尺寸变化标签下的实际跟踪效果图;如图5所示为本发明中在光照变化标签下的实际跟踪效果图。
以上只通过说明的方式描述了本发明的某些示范性实施例,毋庸置疑,对于本领域的普通技术人员,在不偏离本发明的精神和范围的情况下,可以用各种不同的方式对所描述的实施例进行修正。因此,上述附图和描述在本质上是说明性的,不应理解为对本发明权利要求保护范围的限制。

Claims (8)

1.一种基于深度特征的高速相关滤波物体追踪方法,其特征图在于,包括,
确定追踪目标搜索尺度;
初始化追踪目标的初始特征图,选取conv3特征图作为初始特征图;
通过所述初始特征图得到标签及对应权重;
根据上一帧追踪目标所在的位置和尺寸得到训练区域,提取训练区域作为训练样本;
将该训练样本提取conv3第二特征图,对第二特征图进行L2归一化;
将归一化的第二特征图进行处理,训练并更新追踪模型;具体包括:
将归一化的所述第二特征图进行cos窗滤波,然后进行傅里叶变换得到频谱图,再使用插值函数将所述频谱图投影到连续域内,通过公式(4)将特征图融合到连续域内,将连续域内的特征图作为新样本更新训练集;
Figure FDA0002304788010000011
其中J{xd}(t)代表在连续域内的特征图的总和,xd[n]代表d维度的特征图在公式中相当于权重,
Figure FDA0002304788010000012
代表三次样条插值函数;
根据所述新样本集计算新样本能量,根据新样本能量,使用共轭迭代的方法对相关滤波器进行更新;
根据更新的所述追踪模型确定当前帧中目标所在位置和尺寸,输出追踪结果;
其中,所述根据更新的所述追踪模型确定当前帧中目标所在位置和尺寸,具体为:
根据上一帧追踪目标所在的位置和尺寸,以追踪目标所在位置的中心为中心,并增大至若干倍得到新区域,在当前帧图像内提取新区域作为搜索区域;将搜索区域输入imagenet-vgg-2048网络内提取三个尺度的特征图A/B/C,对特征图A/B/C进行L2归一化并进行cos窗滤波,然后进行傅里叶变换得到频谱图后使用三次样条插值函数将特征图投影到连续域内,最后将特征图A/B/C和相关滤波器进行卷积得到目标在搜索区域内的分数,得分最高的位置为追踪目标所在位置,同时更新追踪目标现在的尺度作为目标的尺寸。
2.如权利要求1所述的方法,其特征在于,所述确定追踪目标搜索尺度,具体为:预设最大搜索尺度及最小搜索尺度,根据追踪目标尺寸得出搜索初定尺度,如果所述搜索初定尺度大于最大尺度则取最大搜索尺度,如果所述搜索初定尺度小于最小搜索尺度则取最小搜索尺度,所述追踪目标搜索尺度的搜索区域为正方形。
3.如权利要求1所述的方法,其特征在于,根据所述初始化追踪目标的初始特征图,选取conv3特征图作为初始特征图,具体为:以所述追踪目标搜索尺度作为搜索尺度,以追踪目标的中心为中心,提取所述追踪目标搜索尺度的搜索区域的卷积特征,选取conv3特征图作为初始特征图,步长为2对特征图降采样。
4.如权利要求1所述的方法,其特征在于,通过所述初始特征图得到标签,具体为:对所述conv3特征图进行离散傅里叶变换,建立相应cos窗函数对其进行滤波;根据所述追踪目标搜索尺度的搜索区域的尺寸,使用泊松方程生成相应的空间高斯分布标签,所述泊松方程如公式(1)所示:
Figure FDA0002304788010000021
5.如权利要求1所述的方法,其特征在于,通过所述初始特征图得到对应权重,具体为:将学习率lr定为0.012,以如下所示公式(2)定义最小允许权重,其中nSamples为最大保留训练样本数预设定为50;
lr×(1-lr)2×nSamples (2)。
6.如权利要求1所述的方法,其特征在于,所述对第二特征图进行L2归一化,具体采用如下公式(3):
Figure FDA0002304788010000031
其中,x1...xn分别指n维特征图。
7.如权利要求1所述的方法,其特征在于,所述将搜索区域输入imagenet-vgg-2048网络内提取三个尺度的特征图A/B/C;具体为:
将搜索区域输入imagenet-vgg-2048网络内提取三个尺度分别是0.95、1.00、1.05的特征图A/B/C。
8.如权利要求1所述的方法,其特征在于,所述得到训练区域的方法具体为:以追踪目标所在位置的中心为中心,并增大至若干倍得到训练区域。
CN201710835455.9A 2017-09-15 2017-09-15 一种基于深度特征的高速相关滤波物体追踪方法 Active CN107730536B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710835455.9A CN107730536B (zh) 2017-09-15 2017-09-15 一种基于深度特征的高速相关滤波物体追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710835455.9A CN107730536B (zh) 2017-09-15 2017-09-15 一种基于深度特征的高速相关滤波物体追踪方法

Publications (2)

Publication Number Publication Date
CN107730536A CN107730536A (zh) 2018-02-23
CN107730536B true CN107730536B (zh) 2020-05-12

Family

ID=61207538

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710835455.9A Active CN107730536B (zh) 2017-09-15 2017-09-15 一种基于深度特征的高速相关滤波物体追踪方法

Country Status (1)

Country Link
CN (1) CN107730536B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985314A (zh) * 2018-05-24 2018-12-11 北京飞搜科技有限公司 目标检测方法及设备
CN109919978B (zh) * 2018-11-12 2021-03-16 中国科学院自动化研究所 受丘脑注意机制调控的信息融合的视觉跟踪方法及系统
CN110033012A (zh) * 2018-12-28 2019-07-19 华中科技大学 一种基于通道特征加权卷积神经网络的生成式目标跟踪方法
CN111383252B (zh) * 2018-12-29 2023-03-24 曜科智能科技(上海)有限公司 多相机目标追踪方法、系统、装置及存储介质
CN110163090B (zh) * 2019-04-11 2023-08-22 江苏大学 一种基于多特征和尺度估计的pcb板标识跟踪方法
CN113327273B (zh) * 2021-06-15 2023-12-19 中国人民解放军火箭军工程大学 一种基于可变窗函数相关滤波的红外目标跟踪方法
CN113723432B (zh) * 2021-10-27 2022-02-22 深圳火眼智能有限公司 一种基于深度学习的智能识别、定位追踪的方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN105844665A (zh) * 2016-03-21 2016-08-10 清华大学 视频对象追踪方法及装置
CN106650592A (zh) * 2016-10-05 2017-05-10 北京深鉴智能科技有限公司 目标追踪系统
CN106875425A (zh) * 2017-01-22 2017-06-20 北京飞搜科技有限公司 一种基于深度学习的多目标追踪系统及实现方法
CN107016689A (zh) * 2017-02-04 2017-08-04 中国人民解放军理工大学 一种尺度自适应的相关滤波对冲目标跟踪方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN105844665A (zh) * 2016-03-21 2016-08-10 清华大学 视频对象追踪方法及装置
CN106650592A (zh) * 2016-10-05 2017-05-10 北京深鉴智能科技有限公司 目标追踪系统
CN106875425A (zh) * 2017-01-22 2017-06-20 北京飞搜科技有限公司 一种基于深度学习的多目标追踪系统及实现方法
CN107016689A (zh) * 2017-02-04 2017-08-04 中国人民解放军理工大学 一种尺度自适应的相关滤波对冲目标跟踪方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Beyond Correlation Filters: Learning Continuous Convolution Operators for Visual Tracking;Martin Danelljan 等;《网页在线公开: https://arxiv.org/abs/1608.03773》;20160901;第1-17页 *
Convolutional Features for Correlation Filter Based Visual Tracking;Martin Danelljan 等;《2015 IEEE International Conference on Computer Vision Workshop (ICCVW)》;20151213;第58-66页 *
Hedged deep tracking;Yuankai Qi 等;《2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20160630;第4303-4311页 *
基于分层卷积特征的自适应目标跟踪;20161126;《激光与光电子学进展》;20161126;第53卷;第121502-(1-12)页 *

Also Published As

Publication number Publication date
CN107730536A (zh) 2018-02-23

Similar Documents

Publication Publication Date Title
CN107730536B (zh) 一种基于深度特征的高速相关滤波物体追踪方法
CN111354017B (zh) 一种基于孪生神经网络及平行注意力模块的目标跟踪方法
CN108470320B (zh) 一种基于cnn的图像风格化方法及系统
CN109583340B (zh) 一种基于深度学习的视频目标检测方法
CN109389556B (zh) 一种多尺度空洞卷积神经网络超分辨率重构方法及装置
CN108734151B (zh) 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法
US10311560B2 (en) Method and system for estimating blur kernel size
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
CN106127688B (zh) 一种超分辨率图像重建方法及其系统
CN109360156A (zh) 基于生成对抗网络的图像分块的单张图像去雨方法
CN109035172B (zh) 一种基于深度学习的非局部均值超声图像去噪方法
CN111260688A (zh) 一种孪生双路目标跟踪方法
CN109711401B (zh) 一种基于Faster Rcnn的自然场景图像中的文本检测方法
CN111091503A (zh) 基于深度学习的图像去失焦模糊方法
US20150310305A1 (en) Learning painting styles for painterly rendering
CN110443775B (zh) 基于卷积神经网络的离散小波变换域多聚焦图像融合方法
CN110246154B (zh) 一种基于ica-r多特征融合与自适应更新的视觉目标跟踪方法
CN110084238A (zh) 基于LadderNet网络的指静脉图像分割方法、装置和存储介质
CN113657528B (zh) 图像特征点提取方法、装置、计算机终端及存储介质
CN110809126A (zh) 一种基于自适应可变形卷积的视频帧插值方法及系统
CN111931722B (zh) 一种结合颜色比率特征的相关滤波跟踪方法
CN107767358A (zh) 一种图像中物体模糊度确定方法和装置
CN111199245A (zh) 油菜害虫识别方法
CN115393225A (zh) 一种基于多层次特征提取融合的低光照图像增强方法
CN111027586A (zh) 一种基于新型响应图融合的目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200407

Address after: 215000 unit 2-b702, creative industry park, No. 328, Xinghu street, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Applicant after: SUZHOU FEISOU TECHNOLOGY Co.,Ltd.

Address before: 100082 Beijing city Haidian District Xitucheng Road 10, High-Tech Mansion BUPT, 1209

Applicant before: BEIJING FEISOU TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant