CN111008991B - 一种背景感知的相关滤波目标跟踪方法 - Google Patents

一种背景感知的相关滤波目标跟踪方法 Download PDF

Info

Publication number
CN111008991B
CN111008991B CN201911171401.2A CN201911171401A CN111008991B CN 111008991 B CN111008991 B CN 111008991B CN 201911171401 A CN201911171401 A CN 201911171401A CN 111008991 B CN111008991 B CN 111008991B
Authority
CN
China
Prior art keywords
target
candidate region
target candidate
filter
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911171401.2A
Other languages
English (en)
Other versions
CN111008991A (zh
Inventor
康文雄
周泳鑫
陈国春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201911171401.2A priority Critical patent/CN111008991B/zh
Publication of CN111008991A publication Critical patent/CN111008991A/zh
Application granted granted Critical
Publication of CN111008991B publication Critical patent/CN111008991B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种背景感知的相关滤波目标跟踪方法,其特征在于:首先通过发掘大范围搜索范围内具有较高置信度的目标候选区,提取多组循环样本组后,由干扰物感知滤波器来进行滤波检测;滤波器执行双任务,从所有候选区中选择出最高置信度的候选区,并通过相关性回归在候选区上估计出一个初步目标位置。基于初步位置,使用基于标准相关滤波器的位置回归器来实现精细回归,获得精确目标位置。本发明方法的背景感知学习拓展了模型感知范围,并有针对性地抑制干扰区的响应;多锚点检测有效地拓展了目标搜索范围,提高了在快速运动、严重遮挡等情况下的跟踪成功率;渐进式目标搜索策略起到数据对齐效应,从而减轻了边缘效应影响。

Description

一种背景感知的相关滤波目标跟踪方法
技术领域
本发明涉及图像处理与分析技术领域,具体地说,涉及一种基于背景感知的相关滤波目标跟踪方法。
背景技术
目标跟踪长久以来都是图像分析领域一个重要的研究课题,在视频监控、人机交互、导航与无人设备等领域都有非常丰富的应用。近年来,伴随着视觉特征表达和统计机器学习的发展,目标跟踪算法的思路也发生了较大的变化。大体上可分为两类:一类是生成式,此类算法以最小化目标重构误差为准则建立模型,注重对目标外观进行有效建模,搜索目标时,根据已建立的目标外观模型寻找最高置信的样本。跟踪过程中,目标外观变化不定,难以得到全局统一的有效表达,同时该算法对背景判别能力弱,易受背景类似物严重干扰。一类是判别式,该算法主要是基于回归模型或“目标-背景”的二分类模型实现跟踪。其优化目标是学习目标与背景的差异。从搜索区以一定的采样策略获取候选样本,然后用训练好的判别器逐一检测并以检测分数最大的候选样本作为估计的当前帧目标。
基于相关滤波器的跟踪算法是今年来一类非常重要的判别式跟踪算法。其基于循环采样的岭回归模型,训练出来的相关滤波器相比之前的跟踪算法能够兼具高速度和优秀的跟踪能力。相关滤波跟踪虽然有多方面的优点,但也存在不少重要的缺陷。其中,最重要的一个缺点是边缘效应,极大的限制了相关滤波算法的性能。
除此之外,目标跟踪算法还面临目标外观突变,运动状态突变、复杂的视频场景、遮挡、暂时性离开视野等诸多难点与问题。
发明内容
本发明的目的在于克服现有技术中的缺点与不足,提供一种基于背景感知的相关滤波目标跟踪方法;该方法解决了在边缘效应的约束下,实现大范围、高效的目标搜索,并让滤波器学习更多背景样本,抑制干扰物的滤波响应,提出的渐进式目标搜索框架逐步对齐搜索区和训练区的分布,缓解了边缘效应,提升目标跟踪的精度和抗干扰能力。
为了达到上述目的,本发明通过下述技术方案予以实现:一种背景感知的相关滤波目标跟踪方法,其特征在于:包括如下步骤:
S1步,给定第一帧图像I1和第一帧图像中目标位置p1;提取训练区基础样本,计算出标准相关滤波器FR;提取高置信度目标候选区的多组循环样本,并利用多组循环样本训练干扰物感知滤波器FD
S2步,输入下一帧图像作为当前帧,在大范围的搜索区内寻找目标相似物,得到具有高置信度的目标候选区W;
S3步,在目标候选区W中以多个目标相似物中心为锚点,提取多组循环样本组,使用干扰物感知滤波器FD进行滤波检测,得到初步目标位置PC
S4步,基于初步位置PC,使用基于标准相关滤波器FR的位置回归器FR来实现精细回归,获得精确的目标位置PR
S5步,判断当前帧是否为最后一帧图像:若是,则结束;否则跳至S2步。
优选地,在所述S1步中,标准相关滤波器FR的数学解为:
Figure GDA0004058310040000021
其中,“
Figure GDA0004058310040000022
”表示对应量的傅里叶变换,“⊙”表示逐元素点乘,“*”表示共轭变换,x表示基础循环样本,y表示循环样本的类高斯分布标签集,λ表示正则化因子。
优选地,所述S2步中,高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置。
优选地,所述高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置,是指采用如下方式之一:
方式一、基于像素级特征的贝叶斯决策模型发掘:
首先分别对目标候选区及目标候选区周围邻域进行像素直方图统计,得到目标候选区及目标候选区周围邻域的颜色统计信息;
然后根据贝叶斯原理,建立用于描述目标候选区及目标候选区周围邻域颜色关系的颜色概率模型;
像素属于目标候选区的概率为:
Figure GDA0004058310040000031
T表示目标候选区,S表示目标邻域,HT(bx)是指在目标候选区中只属于颜色直方图区间bin的像素个数,HS(bx)是指在目标候选区周围邻域中只属于颜色直方图区间bin的像素个数;
HT(bx)=∑T,r[k(r;σ)·Hr(bx)]
Hs(bx)=∑s,r[k(r;σ)·Hr(bx)]
其中,径向权重k(r;σ)=1-(r/σ)2,r表示该像素与目标候选区中心的距离,σ是归一化因子;
之后基于颜色概率模型,对下一帧图像每个像素进行前景概率估计,分别累乘各个目标候选区内所有像素的前景概率,得到各个目标候选区的置信度,以概率的形式输出搜索区的目标位置置信分布,从而得到具有高置信度的目标候选区W;
目标候选区的置信度概率计算公式:
Figure GDA0004058310040000032
其中,xi表示第i个像素点,T表示目标候选区,
Figure GDA0004058310040000033
表示像素点xi颜色属于直方图中的第b区间;H表示搜索区域;
方式二、基于孪生网络的目标候选区发掘:同时输入目标图像和搜索区图像,然后通过权值共享神经网络进行度量特征表达,分别获得目标图像和搜索区图像的特征图;之后经过互相关层的卷积层,一次性获得搜索区各位置的图像块与目标的相似度分数,将相似度分数高的图像块作为具有高置信度的目标候选区W。这里的目标图像是指第一帧以给定的目标位置p1为中心的图像区域。
优选地,所述S3步包括如下步骤:
S3.1步,设发掘的目标相似物的外包框集合为{Ri},计算{Ri}中个元素与前一帧目标相似物的外包框重叠率{Oi};若{Oi}的最小值min{Oi}>ε,其中ε为阈值参数,则将前一帧目标相似物中心也作为一个锚点加入到锚点集合,得到多锚点检测的锚点集{Ai};
S3.2步,以各锚点为中心提取多组循环样本组{C(zi)},其中{C(zi)}表示以zi为基础样本的循环偏移样本组,使用干扰物感知滤波器FD对循环样本组{C(zi)}进行滤波检测,得到以各锚点为中心的目标候选区W的滤波响应图{R};计算各滤波响应图峰值{si}及获取滤波响应峰值位置;
S3.3步,计算各锚点的位置先验分数
Figure GDA0004058310040000041
其中ri表示各锚点与前一帧目标位置的距离,σ为归一化因子;
S3.4步,根据融合的目标置信分数
Figure GDA0004058310040000042
确定最高置信分数的目标候选区,并以该目标候选区的滤波响应峰值位置作为当前帧的初步目标位置PC
优选地,所述S1步的干扰物感知滤波器FD训练方法如下:
Figure GDA0004058310040000043
其中,t表示目标图像区域,di表示第i个干扰物图像区域,λ1为模型正则化项系数,
Figure GDA0004058310040000044
干扰物权重;y是当t=1时目标初始位置以及t>1时输出的最终跟踪结果;
在所述S3.2步中,干扰物感知滤波器FD的滤波检测方法为:
Figure GDA0004058310040000045
其中,z表示循环样本组{C(zi)}中的若干个样本;
在使用多锚点检测得到的多个锚点区域使用干扰物滤波器,可得到各个锚点位置的傅里叶逆变换得到的置信度分数,选取其中置信分数最大的锚点作为初步目标位置PC
Figure GDA0004058310040000046
优选地,在所述S5步中,在判定当前帧不是最后一帧图像时,则更新干扰物感知滤波器FD;设定当前帧为视频的第F帧,干扰物感知滤波器FD更新函数为:
Figure GDA0004058310040000051
其中,
Figure GDA0004058310040000052
θT和θD分别是目标样本和干扰物样本的初始权重,γD和γT为控制权重衰减速度的固定超参;在初始化模型时(即第一帧),设置θT,f=1=1,第二帧之后θT,f>1<<1,θD<θT。/>
优选地,在所述S5步中,在判定当前帧不是最后一帧图像时,则更新标准滤波器FR,设定当前帧为视频的第F帧,以精确位置PR,f=F为中心提取基础样本用于更新模型:
Figure GDA0004058310040000053
计算出滤波器参数h,使用学习率lr对h和hF-1进行线性加权,获得更新后的标准滤波器:hF=Linear(h,hF-1,lr)。
与现有技术相比,本发明具有如下优点与有益效果:
本发明提出的背景感知学习拓展了模型感知范围,并有针对性地抑制干扰区的响应;采用的多锚点检测策略有效地拓展了目标搜索范围,提高了在快速运动、严重遮挡等情况下的跟踪成功率;“候选区集-初步定位-精确回归”的渐进式目标搜索策略起到数据对齐的效应,从而减轻了边缘效应的影响,增大了模型预测的可靠性和准确性,位置精调器还能减少误差累积和防止模型漂移。
附图说明
图1是本发明方法的流程示意图;
图2是本发明方法中目标候选区发掘的方法一示意图;
图3是本发明方法中目标候选区发掘的方法二示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细的描述。
实施例
本实施例一种背景感知的相关滤波目标跟踪方法,其流程如图1所示,包括如下步骤:
S1步,给定第一帧图像I1和第一帧图像中目标位置p1;提取训练区基础样本,计算出标准相关滤波器FR;提取高置信度目标候选区的多组循环样本,并利用多组循环样本训练干扰物感知滤波器FD
S2步,输入下一帧图像作为当前帧,在大范围的搜索区内寻找目标相似物,得到具有高置信度的目标候选区W;
S3步,在目标候选区W中以多个目标相似物中心为锚点,提取多组循环样本组,使用干扰物感知滤波器FD进行滤波检测,得到初步目标位置PC
S4步,基于初步位置PC,使用基于标准相关滤波器FR的位置回归器FR来实现精细回归,获得精确的目标位置PR
S5步,判断当前帧是否为最后一帧图像:若是,则结束;否则跳至S2步。
在所述S1步中,标准相关滤波器FR的数学解为:
Figure GDA0004058310040000061
其中,“
Figure GDA0004058310040000062
”表示对应量的傅里叶变换,“⊙”表示逐元素点乘,“*”表示共轭变换,x表示基础循环样本,y表示循环样本的类高斯分布标签集,λ表示正则化因子。/>
所述S1步的干扰物感知滤波器FD训练方法如下:
Figure GDA0004058310040000063
其中,t表示目标图像区域,di表示第i个干扰物图像区域,λ1为模型正则化项系数,
Figure GDA0004058310040000071
干扰物权重;y是当t=1时目标初始位置以及t>1时输出的最终跟踪结果。
所述S2步中,高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置。
具体地说,是指采用如下方式之一:
方式一、如图2所示,基于像素级特征的贝叶斯决策模型发掘:
首先分别对目标候选区及目标候选区周围邻域进行像素直方图统计,得到目标候选区及目标候选区周围邻域的颜色统计信息;
然后根据贝叶斯原理,建立用于描述目标候选区及目标候选区周围邻域颜色关系的颜色概率模型;
像素属于目标候选区的概率为:
Figure GDA0004058310040000072
T表示目标候选区,S表示目标邻域,HT(bx)是指在目标候选区中只属于颜色直方图区间bin(即第b个区间)的像素个数,HS(bx)是指在目标候选区周围邻域中只属于颜色直方图区间bin的像素个数;
HT(bx)=∑T,r[k(r;σ)·Hr(bx)]
HS(bx)=∑s,r[k(r;σ)·Hr(bx)]
为了是模型更关心中心区域像素,采用径向权重k(r;σ)=1-(r/σ)2,r表示该像素与目标候选区中心的距离,σ是归一化因子;
之后基于颜色概率模型,对下一帧图像每个像素进行前景概率估计,分别累乘各个目标候选区内所有像素的前景概率,得到各个目标候选区的置信度,以概率的形式输出搜索区的目标位置置信分布,从而得到具有高置信度的目标候选区W;
目标候选区的置信度概率计算公式:
Figure GDA0004058310040000081
其中,xi表示第i个像素点,T表示目标候选区,
Figure GDA0004058310040000082
表示像素点xi颜色属于直方图中的第b区间;H表示搜索区域。
方式二、如图3所示,基于孪生网络的目标候选区发掘:同时输入目标图像和搜索区图像,然后通过权值共享神经网络进行度量特征表达,分别获得目标图像和搜索区图像的特征图;之后经过互相关层的卷积层,一次性获得搜索区各位置的图像块与目标的相似度分数,将相似度分数高的图像块作为具有高置信度的目标候选区W。这里的目标图像是指第一帧以给定的目标位置p1为中心的图像区域。
所述S3步包括如下步骤:
S3.1步,设发掘的目标相似物的外包框集合为{Ri},计算{Ri}中个元素与前一帧目标相似物的外包框重叠率{Oi};若{Oi}的最小值min{Oi}>ε,其中ε为阈值参数,则将前一帧目标相似物中心也作为一个锚点加入到锚点集合,得到多锚点检测的锚点集{Ai};
S3.2步,以各锚点为中心提取多组循环样本组{C(zi)},其中{C(zi)}表示以zi为基础样本的循环偏移样本组,使用干扰物感知滤波器FD对循环样本组{C(zi)}进行滤波检测,得到以各锚点为中心的目标候选区W的滤波响应图{R};计算各滤波响应图峰值{si}及获取滤波响应峰值位置;
S3.3步,计算各锚点的位置先验分数
Figure GDA0004058310040000083
其中ri表示各锚点与前一帧目标位置的距离,σ为归一化因子;
S3.4步,根据融合的目标置信分数
Figure GDA0004058310040000084
确定最高置信分数的目标候选区,并以该目标候选区的滤波响应峰值位置作为当前帧的初步目标位置PC
在所述S3.2步中,干扰物感知滤波器FD的滤波检测方法为:
Figure GDA0004058310040000085
其中,z表示循环样本组{C(zi)}中的若干个样本;
在使用多锚点检测得到的多个(一般是1~3个)锚点区域使用干扰物滤波器,可得到各个锚点位置的傅里叶逆变换得到的置信度分数,选取其中置信分数最大的锚点作为初步目标位置PC
Figure GDA0004058310040000091
在所述S5步中,在判定当前帧不是最后一帧图像时,则更新干扰物感知滤波器FD;设定当前帧为视频的第F帧,干扰物感知滤波器FD更新函数为:
Figure GDA0004058310040000092
其中,
Figure GDA0004058310040000093
θT和θD分别是目标样本和干扰物样本的初始权重,γD和γT为控制权重衰减速度的固定超参;在初始化模型时(即第一帧),设置θT,f=1=1,第二帧之后θT,f>1<<1,θD<θT
将干扰物感知滤波器FD更新函数简写成:
Figure GDA0004058310040000094
Figure GDA0004058310040000096
AT,BT,BD可按照如下更新:
Figure GDA0004058310040000097
Figure GDA0004058310040000098
/>
Figure GDA0004058310040000099
则干扰物感知滤波器FD可表示为:
Figure GDA00040583100400000910
即滤波器更新时,可以对AT,BT,BD三项分别进行线性插值的滑动平均更新,学习率为lr=1-γT
在所述S5步中,在判定当前帧不是最后一帧图像时,则更新标准滤波器FR,设定当前帧为视频的第F帧,以精确位置PR,f=F为中心提取基础样本用于更新模型:
Figure GDA0004058310040000101
计算出滤波器参数h,使用学习率lr对h和hF-1进行线性加权,获得更新后的标准滤波器:hF=Linear(h,hF-1,lr)。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种背景感知的相关滤波目标跟踪方法,其特征在于:包括如下步骤:
S1步,给定第一帧图像I1和第一帧图像中目标位置p1;提取训练区基础样本,计算出标准相关滤波器FR;提取高置信度目标候选区的多组循环样本,并利用多组循环样本训练干扰物感知滤波器FD
S2步,输入下一帧图像作为当前帧,在大范围的搜索区内寻找目标相似物,得到具有高置信度的目标候选区W;
S3步,在目标候选区W中以多个目标相似物中心为锚点,提取多组循环样本组,使用干扰物感知滤波器FD进行滤波检测,得到初步目标位置PC
S4步,基于初步位置PC,使用基于标准相关滤波器FR的位置回归器FR来实现精细回归,获得精确的目标位置PR
S5步,判断当前帧是否为最后一帧图像:若是,则结束;否则跳至S2步;
所述S3步包括如下步骤:
S3.1步,设发掘的目标相似物的外包框集合为{Ri},计算{Ri}中个元素与前一帧目标相似物的外包框重叠率{Oi};若{Oi}的最小值min{Oi}>ε,其中ε为阈值参数,则将前一帧目标相似物中心也作为一个锚点加入到锚点集合,得到多锚点检测的锚点集{Ai};
S3.2步,以各锚点为中心提取多组循环样本组{C(zi)},其中{C(zi)}表示以zi为基础样本的循环偏移样本组,使用干扰物感知滤波器FD对循环样本组{C(zi)}进行滤波检测,得到以各锚点为中心的目标候选区W的滤波响应图{R};计算各滤波响应图峰值{si}及获取滤波响应峰值位置;
S3.3步,计算各锚点的位置先验分数
Figure FDA0004058310030000011
其中ri表示各锚点与前一帧目标位置的距离,σ为归一化因子;
S3.4步,根据融合的目标置信分数
Figure FDA0004058310030000012
确定最高置信分数的目标候选区,并以该目标候选区的滤波响应峰值位置作为当前帧的初步目标位置PC
在所述S5步中,在判定当前帧不是最后一帧图像时,则更新干扰物感知滤波器FD;设定当前帧为视频的第F帧,干扰物感知滤波器FD更新函数为:
Figure FDA0004058310030000021
Figure FDA0004058310030000022
其中,
Figure FDA0004058310030000023
θT和θD分别是目标样本和干扰物样本的初始权重,γD和γT为控制权重衰减速度的固定超参;在初始化模型时,即第一帧,设置θT,f=1=1,第二帧之后θT,f>1<<1,θD<θT
在所述S5步中,在判定当前帧不是最后一帧图像时,则更新标准滤波器FR,设定当前帧为视频的第F帧,以精确位置PR,f=F为中心提取基础样本用于更新模型:
Figure FDA0004058310030000024
计算出滤波器参数h,使用学习率lr对h和hF-1进行线性加权,获得更新后的标准滤波器:hF=Linear(h,hF-1,lr)。
2.根据权利要求1所述的背景感知的相关滤波目标跟踪方法,其特征在于:在所述S1步中,标准相关滤波器FR的数学解为:
Figure FDA0004058310030000025
其中,
Figure FDA0004058310030000026
表示对应量的傅里叶变换,“⊙”表示逐元素点乘,“*”表示共轭变换,x表示基础循环样本,y表示循环样本的类高斯分布标签集,λ表示正则化因子。
3.根据权利要求1所述的背景感知的相关滤波目标跟踪方法,其特征在于:所述S2步中,高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置。
4.根据权利要求3所述的背景感知的相关滤波目标跟踪方法,其特征在于:所述高置信度的目标候选区W发掘方法是首先获取大范围的搜索区内目标置信度的空间分布,然后基于该空间分布,用非极大值抑制策略确定少量高置信的位置,是指采用如下方式之一:
方式一、基于像素级特征的贝叶斯决策模型发掘:
首先分别对目标候选区及目标候选区周围邻域进行像素直方图统计,得到目标候选区及目标候选区周围邻域的颜色统计信息;
然后根据贝叶斯原理,建立用于描述目标候选区及目标候选区周围邻域颜色关系的颜色概率模型;
像素属于目标候选区的概率为:
Figure FDA0004058310030000031
T表示目标候选区,S表示目标邻域,HT(bx)是指在目标候选区中只属于颜色直方图区间bin的像素个数,HS(bx)是指在目标候选区周围邻域中只属于颜色直方图区间bin的像素个数;
HT(bx)=∑T,r[k(r;σ)·Hr(bx)]
Hs(bx)=∑s,r[k(r;σ)·Hr(bx)]
其中,径向权重k(r;σ)=1-(r/σ)2,r表示该像素与目标候选区中心的距离,σ是归一化因子;
之后基于颜色概率模型,对下一帧图像每个像素进行前景概率估计,分别累乘各个目标候选区内所有像素的前景概率,得到各个目标候选区的置信度,以概率的形式输出搜索区的目标位置置信分布,从而得到具有高置信度的目标候选区W;
目标候选区的置信度概率计算公式:
Figure FDA0004058310030000032
其中,xi表示第i个像素点,T表示目标候选区,
Figure FDA0004058310030000041
表示像素点xi颜色属于直方图中的第b区间;H表示搜索区域;
方式二、基于孪生网络的目标候选区发掘:同时输入目标图像和搜索区图像,然后通过权值共享神经网络进行度量特征表达,分别获得目标图像和搜索区图像的特征图;之后经过互相关层的卷积层,一次性获得搜索区各位置的图像块与目标的相似度分数,将相似度分数高的图像块作为具有高置信度的目标候选区W;这里的目标图像是指第一帧以给定的目标位置p1为中心的图像区域。
5.根据权利要求1所述的背景感知的相关滤波目标跟踪方法,其特征在于:所述S1步的干扰物感知滤波器FD训练方法如下:
Figure FDA0004058310030000042
其中,t表示目标图像区域,di表示第i个干扰物图像区域,λ1为模型正则化项系数,
Figure FDA0004058310030000043
干扰物权重;y是当t=1时目标初始位置以及t>1时输出的最终跟踪结果;
在所述S3.2步中,干扰物感知滤波器FD的滤波检测方法为:
Figure FDA0004058310030000044
其中,z表示循环样本组{C(zi)}中的若干个样本;
在使用多锚点检测得到的多个锚点区域使用干扰物滤波器,得到各个锚点位置的傅里叶逆变换得到的置信度分数,选取其中置信分数最大的锚点作为初步目标位置PC
Figure FDA0004058310030000045
/>
CN201911171401.2A 2019-11-26 2019-11-26 一种背景感知的相关滤波目标跟踪方法 Active CN111008991B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911171401.2A CN111008991B (zh) 2019-11-26 2019-11-26 一种背景感知的相关滤波目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911171401.2A CN111008991B (zh) 2019-11-26 2019-11-26 一种背景感知的相关滤波目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111008991A CN111008991A (zh) 2020-04-14
CN111008991B true CN111008991B (zh) 2023-05-23

Family

ID=70112827

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911171401.2A Active CN111008991B (zh) 2019-11-26 2019-11-26 一种背景感知的相关滤波目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111008991B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183493A (zh) * 2020-11-05 2021-01-05 北京澎思科技有限公司 目标跟踪的方法、装置以及计算机可读存储介质
CN112507906A (zh) * 2020-12-14 2021-03-16 北京澎思科技有限公司 目标跟踪的方法、装置以及计算机可读存储介质
CN113129337B (zh) * 2021-04-14 2022-07-19 桂林电子科技大学 背景感知跟踪方法、计算机可读存储介质及计算机设备
CN113409357B (zh) * 2021-04-27 2023-10-31 中国电子科技集团公司第十四研究所 一种基于双时空约束的相关滤波目标跟踪方法
CN113947616B (zh) * 2021-09-23 2022-08-30 北京航空航天大学 一种基于层级化感知机的智能目标跟踪及丢失重检方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809713A (zh) * 2016-03-03 2016-07-27 南京信息工程大学 基于在线Fisher判别机制增强特征选择的目标跟踪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809713A (zh) * 2016-03-03 2016-07-27 南京信息工程大学 基于在线Fisher判别机制增强特征选择的目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Gengzheng Pan 等.Correlation filter tracker with siamese: A robust and real-time object tracking framework.《Neurocomputing》.2019,第33-43页. *

Also Published As

Publication number Publication date
CN111008991A (zh) 2020-04-14

Similar Documents

Publication Publication Date Title
CN111008991B (zh) 一种背景感知的相关滤波目标跟踪方法
CN107424177B (zh) 基于连续相关滤波器的定位修正长程跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN108198209B (zh) 在发生遮挡和尺度变化情况下行人跟踪方法
CN109919977B (zh) 一种基于时间特征的视频运动人物跟踪与身份识别方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN108288282B (zh) 一种基于卷积神经网络的自适应特征选择目标跟踪方法
CN109859241B (zh) 自适应特征选择和时间一致性鲁棒相关滤波视觉跟踪方法
CN108961308B (zh) 一种漂移检测的残差深度特征目标跟踪方法
CN112258554A (zh) 基于注意力机制的双流层次孪生网络目标跟踪方法
CN112085765B (zh) 结合粒子滤波及度量学习的视频目标跟踪方法
CN111340842B (zh) 一种基于联合模型的相关滤波目标跟踪方法
CN111950393B (zh) 一种基于边界搜索智能体的时序动作片段分割方法
CN111598928B (zh) 一种基于具有语义评估和区域建议的突变运动目标跟踪方法
CN111208479B (zh) 一种降低深度网络检测中虚警概率的方法
CN110569706A (zh) 一种基于时间和空间网络的深度集成目标跟踪算法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN113344973A (zh) 一种基于时空正则化和特征可靠性评估的目标跟踪方法
CN115187786A (zh) 一种基于旋转的CenterNet2目标检测方法
CN107657627B (zh) 基于人脑记忆机制的时空上下文目标跟踪方法
CN112164093A (zh) 一种基于边缘特征和相关滤波的人物自动跟踪方法
Zhang et al. Residual memory inference network for regression tracking with weighted gradient harmonized loss
CN110660077A (zh) 一种融合多个特征的多尺度目标跟踪方法
CN111161323B (zh) 一种基于相关滤波的复杂场景目标跟踪方法及系统
CN117058192A (zh) 一种融入时空约束和临近区域重检测的长时跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant