CN108549839B - 自适应特征融合的多尺度相关滤波视觉跟踪方法 - Google Patents

自适应特征融合的多尺度相关滤波视觉跟踪方法 Download PDF

Info

Publication number
CN108549839B
CN108549839B CN201810206321.5A CN201810206321A CN108549839B CN 108549839 B CN108549839 B CN 108549839B CN 201810206321 A CN201810206321 A CN 201810206321A CN 108549839 B CN108549839 B CN 108549839B
Authority
CN
China
Prior art keywords
scale
response
weight
formula
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810206321.5A
Other languages
English (en)
Other versions
CN108549839A (zh
Inventor
柳培忠
陈智
刘晓芳
骆炎民
汪鸿翔
杜永兆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quanzhou Zhongfang Hongye Information Technology Co ltd
Huaqiao University
Original Assignee
Quanzhou Zhongfang Hongye Information Technology Co ltd
Huaqiao University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quanzhou Zhongfang Hongye Information Technology Co ltd, Huaqiao University filed Critical Quanzhou Zhongfang Hongye Information Technology Co ltd
Priority to CN201810206321.5A priority Critical patent/CN108549839B/zh
Publication of CN108549839A publication Critical patent/CN108549839A/zh
Application granted granted Critical
Publication of CN108549839B publication Critical patent/CN108549839B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Abstract

本发明公开了一种自适应特征融合的多尺度相关滤波视觉跟踪方法,该方法步骤包括:首先使用上下文感知相关滤波框架分别对目标Hog特征和color特征进行相关滤波,归一化两种特征下的响应值,按照响应值占比分配权重并线性加权融合,得到融合后的最终响应图,然后将其与预定义响应阈值进行判断是否更新滤波模型。最后在跟踪过程中引入尺度相关滤波器,提高算法的尺度适应能力。本发明的方法能够结合多种特征跟踪,发挥各自特征的性能优势,设计一种模型自适应的更新方法,此外还引入了一种精确尺度估计机制。能够有效地提高提高模型的更新质量以及跟踪精确度,并在尺度变化,快速运动,形变,遮挡等复杂场景下具有较好的鲁棒性。

Description

自适应特征融合的多尺度相关滤波视觉跟踪方法
技术领域
本发明涉及计算机视觉的视觉跟踪领域,特别是涉及一种自适应特征融合的多尺度相关滤波视觉跟踪方法。
背景技术
视觉跟踪是计算机视觉领域一个基本研究问题,并且在视频监控,无人驾驶,人机交互,军事制导等领域中有广泛的运用。尽管近十几年来得到较好的发展,并且大量经典优秀的算法相继被提出,但其仍然是一个极具挑战的问题,存在着许多外界因素的干扰,例如光照变化、快速运动、遮挡和形变等。如何实现更加准确地跟踪,以及更好适应各种复杂场景的挑战是目前视觉跟踪领域研究的重要课题。
一方面目前单一特征视觉跟踪算法不能够较好地适应复杂场景的挑战,经常受到目标的尺度变化、形变、快速运动和遮挡等影响而引起跟踪框发生漂移,进而导致跟踪失败。另一方面,在跟踪过程中当目标遇到复杂场景变化后,在此期间将会产生一些错误的跟踪信息,这些信息将会被引入至模型更新过程中,在模型更新时将会被传递至下一帧中,长期积累将会引起模型质量变差,最终导致跟踪失败。
基于如上所述,本发明人对其进一步的探索和研究,提出一种自适应特征融合的多尺度相关滤波视觉跟踪方法。
发明内容
本发明的目的在于提供一种自适应特征融合的多尺度相关滤波视觉跟踪方法,结合多特征融合丰富特征表达的多样性,并提高尺度适应能力,及滤波模型的更新质量,改善算法的跟踪效率。
为了达成上述目的,本发明的解决方案是:
一种自适应特征融合的多尺度相关滤波视觉跟踪方法,包括以下步骤:
步骤1、初始化:目标周围区域,理想尺度滤波输出标准差,滤波器正则化权重因子λ,λ1,λ2,跟踪模型学习因子η,权重更新因子δ,尺度级数S,尺度增量因子a,响应阈值T的初始化设置;并且采用的Hog特征大小为4pixel×4pixel的目标单元,采用M×N的网格单元表示目标候选窗口图像块z的大小,并与跟踪框大小成比例;
步骤2、采用上下文感知相关滤波框架读取视频序列,该框架分为三个步骤,分别为分类器训练、位置预测和模型更新,其中分类器训练的具体步骤如下:
步骤2A、分类器将目标候选窗口图像块z的所有通过循环移位得到的训练样本形成数据矩阵D0和期望输出y,通过优化如下公式(1):
Figure BDA0001595992580000021
可以得到一个对目标图像块具有高响应,对上下文图像块接近零响应的滤波器h;
步骤2B、将上下文图像块作为正则化矩阵加入公式(2):
Figure BDA0001595992580000022
在每一帧中采样k个上下文图像块,其中Di∈Rn×n和D0∈Rn×n为相应的循环矩阵,Rn ×n为n×n维的样本空间,i,k为循环矩阵Di的下标,它们包含了形成各种干扰项和复杂背景的全局上下文图像块,λ1和λ2为正则化权重因子防止过拟合;
步骤2C、由于目标图像块内包含许多上下文图像块,而且生成了一个(k+1)n×n维的数据矩阵C∈R(k+1)n×n,公式(2)写成如下公式(3):
Figure BDA0001595992580000031
其中
Figure BDA0001595992580000032
Figure BDA0001595992580000033
为新的期望输出。
步骤2D、由于目标函数fp(h,C)是凸函数,可以通过求导将其最小化得到公式(4):
Figure BDA0001595992580000034
其中,λ1为正则化权重,
Figure BDA0001595992580000035
为新的期望输出;
步骤2E、利用循环矩阵的性质可求得其在傅利叶域的封闭解为:
Figure BDA0001595992580000036
其中,·为矩阵元素之间的点积,λ1和λ2为正则化权重更新因子防止过拟合;
通过公式(5)训练得到一个对目标图像块具有高响应而对上下文区域具有低响应的滤波器h,并将其用于目标位置预测;
位置预测具体步骤如下:将得到的滤波器h和下一帧候选窗口图像块z卷积,Z为其循环矩阵,然后查找所有测试样本响应向量yp(z,h)的最大响应的位置为目标的预测位置,对于给定的单个候选窗口图像块z,分类器的响应输出为如下公式(6):
Figure BDA0001595992580000041
其中
Figure BDA0001595992580000042
为逆傅里叶变换,·表示元素点积运算;
模型更新的具体步骤如下:采用线性插值法来更新参数,其更新方式如下公式(7a)、(7b):
Figure BDA0001595992580000043
Figure BDA0001595992580000044
其中i是当前帧的序号,η是学习因子,
Figure BDA0001595992580000045
为预测位置由训练样本通过公式(5)得到的分类器参数;
Figure BDA0001595992580000046
为预测位置的目标外观模型;
步骤3、采用上下文感知相关滤波框架对目标图像块提取Hog特征;
步骤3A、使用公式(6)计算滤波响应值记为HogRt
步骤3B、对计算得到的响应值HogRt进行归一化处理,并根据响应值所占比例分配权重;Hog特征在t帧的归一化权重为如下公式(8):
Figure BDA0001595992580000047
其中,fHog为Hog特征对应分类器的输出响应值,fCN为CN特征对应分类器的输出响应值;
步骤4、采用上下文感知相关滤波框架对目标图像块提取颜色(CN)特征;
步骤4A、使用公式(6)计算滤波响应值记为CNRt
步骤4B、对计算得到的响应值CNRt进行归一化处理,并根据响应值所占比例分配权重,CN特征在t帧的归一化权重为如下公式(8):
Figure BDA0001595992580000048
其中,fHog为Hog特征对应分类器的输出响应值,fCN为CN特征对应分类器的输出响应值;
步骤5、用第t帧的权重来更新原有的Hog特征权重:
Figure BDA0001595992580000051
其中δ为权重更新因子,第一帧权重更新因子设为0.5,
Figure BDA0001595992580000052
为Hog特征在第t帧权重,
Figure BDA0001595992580000053
步骤6、用第t帧的权重来更新原有的CN特征权重:
Figure BDA0001595992580000054
其中δ为权重更新因子,第一帧权重更新因子设为0.5,
Figure BDA0001595992580000055
为CN特征在第t帧权重,
Figure BDA0001595992580000056
步骤7、根据各特征响应值大小为Hog特征和CN特征分配权重,将得到的最终融合后的响应图进行线性加权融合得到如下公式(12):
Figure BDA0001595992580000057
并将得到的最大响应图Rmax用于目标的初始位置估计;
步骤8、引入一种自适应尺度估计机制,提高尺度变化适应能力,具体步骤如下:
首先提取尺度评估目标图像块尺寸为:
Figure BDA0001595992580000058
其中,P、R分别为目标前一帧的宽、高,a为尺度因子,s为尺度滤波长度;
步骤8A、由于输入样本中某一个图像块具有d维特征描述,为了得到最佳尺度相关滤波器w,可以通过最小化如下代价函数即公式(14):
Figure BDA0001595992580000061
其中,w为相关滤波器,g为理想相关输出,l表示特征的某一维度,λ为正则项系数;
步骤8B、公式(14)在频域中的解为公式(15):
Figure BDA0001595992580000062
其中
Figure BDA0001595992580000063
Figure BDA0001595992580000064
代表复共轭,λ为正则项权重因子,t为帧序号;d,k为特征维度数;
步骤8C、为了得到鲁棒的结果,对公式(15)中的Wl分子分母分别进行更新:
Figure BDA0001595992580000065
Figure BDA0001595992580000066
其中η为学习因子,
Figure BDA0001595992580000067
代表复共轭,λ为正则项权重因子,t为帧序号,d,k为特征维度数;
步骤8D、在下一帧中,尺度滤波器的响应可通过求解公式(18)来确定:
Figure BDA0001595992580000068
步骤9、设定一个响应阈值T,当公式(12)得到的最大响应值Rmax>T时,更新位置滤波模型即公式(7a)和公式(7b),尺度滤波模型即公式(16)和公式(17);
步骤9A、当前序列滤波模型更新结束后,然后再更新公式(10)、公式(11)对应的两种特征权重更新因子;
步骤10、若公式(12)得到的最大响应值Rmax<T,则不更新当前序列滤波模型,而采用步骤8所述的尺度估计方法进行尺度估计,并进入至下一帧目标的跟踪。
采用上述技术方案后,本发明具有以下特点:
一、结合了Hog和CN等多种特征对目标表观,能够充分地利用各自特征的性能优势,可以有效地避免单一特征表达有限的问题,提高了算法的整体性能。
二、采用一种模型自适应的更新方法来更新位置和尺度滤波模型,与传统的跟踪方法每帧更新模型不同的是通过设定预定义响应阈值,将融合后得到的最终滤波响应值与预定义阈值进行判断是否更新模型,这样可以在一定程度上避免一些错误的更新信息被传递至下一帧,可以提高模型更新质量以及跟踪效率。
三、本发明基于上下文感知相关滤波框架,该框架能够在一定程度上提高目标在激烈外观变化以及背景混乱下跟踪性能,并且在跟踪过程中引入一种自适应尺度估计方法,能够在一定程度上提高尺度变化适应能力,提高算法跟踪精度。
下面结合附图和具体实施方式对本发明的技术方案进行详细说明。
附图说明
图1是本发明一种自适应特征融合的多尺度相关滤波视觉跟踪方法的流程简图。
图2是本发明在OTB-2015数据集中在60个视频序列的精确度曲线和成功率曲线图。
图3是本发明在OTB-2015数据集中在60个数据属性精确度曲线和成功率曲线图。
具体实施方式
如图1所示本发明实施例揭示的一种自适应特征融合的多尺度相关滤波视觉跟踪方法,具体包括以下步骤:
一种自适应特征融合的多尺度相关滤波视觉跟踪方法,包括以下步骤:
步骤1、初始化:目标周围区域,理想尺度滤波输出标准差,滤波器正则化权重因子λ,λ1,λ2,跟踪模型学习因子η,权重更新因子δ,尺度级数S,尺度增量因子a,响应阈值T的初始化设置;并且采用的Hog特征大小为4pixel×4pixel的目标单元,采用M×N的网格单元表示目标候选窗口图像块z的大小,并与跟踪框大小成比例;
步骤2、采用上下文感知相关滤波框架读取视频序列,该框架分为三个步骤,分别为分类器训练、位置预测和模型更新,其中分类器训练的具体步骤如下:
步骤2A、分类器将目标候选窗口图像块z的所有通过循环移位得到的训练样本形成数据矩阵D0和期望输出y,通过优化如下公式(1):
Figure BDA0001595992580000081
可以得到一个对目标图像块具有高响应,对上下文图像块接近零响应的滤波器h;
步骤2B、将上下文图像块作为正则化矩阵加入公式(2):
Figure BDA0001595992580000091
在每一帧中采样k个上下文图像块,其中Di∈Rn×n和D0∈Rn×n为相应的循环矩阵,Rn ×n为n×n维的样本空间,i,k为循环矩阵Di的下标,它们包含了形成各种干扰项和复杂背景的全局上下文图像块,λ1和λ2为正则化权重因子防止过拟合;
步骤2C、由于目标图像块内包含许多上下文图像块,而且生成了一个(k+1)n×n维的数据矩阵C∈R(k+1)n×n,公式(2)写成如下公式(3):
Figure BDA0001595992580000092
其中
Figure BDA0001595992580000093
Figure BDA0001595992580000094
为新的期望输出。
步骤2D、由于目标函数fp(h,C)是凸函数,可以通过求导将其最小化得到公式(4):
Figure BDA0001595992580000095
其中,λ1为正则化权重,
Figure BDA0001595992580000096
为新的期望输出;
步骤2E、利用循环矩阵的性质可求得其在傅利叶域的封闭解为:
Figure BDA0001595992580000097
其中,·为矩阵元素之间的点积,λ1和λ2为正则化权重更新因子防止过拟合;
通过公式(5)训练得到一个对目标图像块具有高响应而对上下文区域具有低响应的滤波器h,并将其用于目标位置预测;
位置预测具体步骤如下:将得到的滤波器h和下一帧候选窗口图像块z卷积,Z为其循环矩阵,然后查找所有测试样本响应向量yp(z,h)的最大响应的位置为目标的预测位置,对于给定的单个候选窗口图像块z,分类器的响应输出为如下公式(6):
Figure BDA0001595992580000101
其中
Figure BDA0001595992580000102
为逆傅里叶变换,·表示元素点积运算;
模型更新的具体步骤如下:采用线性插值法来更新参数,其更新方式如下公式(7a)、(7b):
Figure BDA0001595992580000103
Figure BDA0001595992580000104
其中i是当前帧的序号,η是学习因子,
Figure BDA0001595992580000105
为预测位置由训练样本通过公式(5)得到的分类器参数;
Figure BDA0001595992580000106
为预测位置的目标外观模型;
步骤3、采用上下文感知相关滤波框架对目标图像块提取Hog特征;
步骤3A、使用公式(6)计算滤波响应值记为HogRt
步骤3B、对计算得到的响应值HogRt进行归一化处理,并根据响应值所占比例分配权重;Hog特征在t帧的归一化权重为如下公式(8):
Figure BDA0001595992580000107
其中,fHog为Hog特征对应分类器的输出响应值,fCN为CN特征对应分类器的输出响应值;
步骤4、采用上下文感知相关滤波框架对目标图像块提取颜色(CN)特征;
步骤4A、使用公式(6)计算滤波响应值记为CNRt
步骤4B、对计算得到的响应值CNRt进行归一化处理,并根据响应值所占比例分配权重,CN特征在t帧的归一化权重为如下公式(8):
Figure BDA0001595992580000111
其中,fHog为Hog特征对应分类器的输出响应值,fCN为CN特征对应分类器的输出响应值;
步骤5、用第t帧的权重来更新原有的Hog特征权重:
Figure BDA0001595992580000112
其中δ为权重更新因子,第一帧权重更新因子设为0.5,
Figure BDA0001595992580000113
为Hog特征在第t帧权重,
Figure BDA0001595992580000114
步骤6、用第t帧的权重来更新原有的CN特征权重:
Figure BDA0001595992580000115
其中δ为权重更新因子,第一帧权重更新因子设为0.5,
Figure BDA0001595992580000116
为CN特征在第t帧权重,
Figure BDA0001595992580000117
步骤7、根据各特征响应值大小为Hog特征和CN特征分配权重,将得到的最终融合后的响应图进行线性加权融合得到如下公式(12):
Figure BDA0001595992580000118
并将得到的最大响应图Rmax用于目标的初始位置估计;
步骤8、引入一种自适应尺度估计机制,提高尺度变化适应能力,具体步骤如下:
首先提取尺度评估目标图像块尺寸为:
Figure BDA0001595992580000121
其中,P、R分别为目标前一帧的宽、高,a为尺度因子,s为尺度滤波长度;
步骤8A、由于输入样本中某一个图像块具有d维特征描述,为了得到最佳尺度相关滤波器w,可以通过最小化如下代价函数即公式(14):
Figure BDA0001595992580000122
其中,w为相关滤波器,g为理想相关输出,l表示特征的某一维度,λ为正则项系数;
步骤8B、公式(14)在频域中的解为公式(15):
Figure BDA0001595992580000123
其中
Figure BDA0001595992580000124
Figure BDA0001595992580000125
代表复共轭,λ为正则项权重因子,t为帧序号;d,k为特征维度数;
步骤8C、为了得到鲁棒的结果,对公式(15)中的Wl分子分母分别进行更新:
Figure BDA0001595992580000126
Figure BDA0001595992580000127
其中η为学习因子,
Figure BDA0001595992580000128
代表复共轭,λ为正则项权重因子,t为帧序号,d,k为特征维度数;
步骤8D、在下一帧中,尺度滤波器的响应可通过求解公式(18)来确定:
Figure BDA0001595992580000131
步骤9、设定一个响应阈值T,当公式(12)得到的最大响应值Rmax>T时,更新位置滤波模型即公式(7a)和公式(7b),尺度滤波模型即公式(16)和公式(17);
步骤9A、当前序列滤波模型更新结束后,然后再更新公式(10)、公式(11)对应的两种特征权重更新因子;
步骤10、若公式(12)得到的最大响应值Rmax<T,则不更新当前序列滤波模型,而采用步骤8所述的尺度估计方法进行尺度估计,并进入至下一帧目标的跟踪,具体实施步骤详见图1,实验效果详见图2及图3。
上述实施例和图式并非限定本发明的产品形态和式样,任何所属技术领域的普通技术人员对其所做的适当变化或修饰,皆应视为不脱离本发明的专利范畴。

Claims (1)

1.一种自适应特征融合的多尺度相关滤波视觉跟踪方法,包括以下步骤:
步骤1、初始化:目标周围区域,理想尺度滤波输出标准差,滤波器正则化权重因子λ,λ1,λ2,跟踪模型学习因子η,权重更新因子δ,尺度级数S,尺度增量因子a,响应阈值T的初始化设置;并且采用的Hog特征大小为4pixel×4pixel的目标单元,采用M×N的网格单元表示目标候选窗口图像块z的大小,并与跟踪框大小成比例;
步骤2、采用上下文感知相关滤波框架读取视频序列,该框架分为三个步骤,分别为分类器训练、位置预测和模型更新,其中分类器训练的具体步骤如下:
步骤2A、分类器将目标候选窗口图像块z的所有通过循环移位得到的训练样本形成数据矩阵D0和期望输出y,通过优化如下公式(1):
Figure FDA0003071143990000011
可以得到一个对目标图像块具有高响应,对上下文图像块接近零响应的滤波器h;
步骤2B、将上下文图像块作为正则化矩阵加入公式(2):
Figure FDA0003071143990000012
在每一帧中采样k个上下文图像块,其中Di∈Rn×n和D0∈Rn×n为相应的循环矩阵,Rn×n为n×n维的样本空间,i,k为循环矩阵Di的下标,它们包含了形成各种干扰项和复杂背景的全局上下文图像块,λ1和λ2为正则化权重因子防止过拟合;
步骤2C、由于目标图像块内包含许多上下文图像块,而且生成了一个(k+1)n×n维的数据矩阵C∈R(k+1)n×n,公式(2)写成如下公式(3):
Figure FDA0003071143990000021
其中
Figure FDA0003071143990000022
Figure FDA0003071143990000023
为新的期望输出;
步骤2D、由于目标函数fp(h,C)是凸函数,可以通过求导将其最小化得到公式(4):
Figure FDA0003071143990000024
其中,λ1为正则化权重,
Figure FDA0003071143990000025
为新的期望输出;
步骤2E、利用循环矩阵的性质可求得其在傅利叶域的封闭解为:
Figure FDA0003071143990000026
其中,·为矩阵元素之间的点积,λ1和λ2为正则化权重更新因子防止过拟合;
通过公式(5)训练得到一个对目标图像块具有高响应而对上下文区域具有低响应的滤波器h,并将其用于目标位置预测;
位置预测具体步骤如下:将得到的滤波器h和下一帧候选窗口图像块z卷积,Z为其循环矩阵,然后查找所有测试样本响应向量yp(z,h)的最大响应的位置为目标的预测位置,对于给定的单个候选窗口图像块z,分类器的响应输出为如下公式(6):
Figure FDA0003071143990000027
其中
Figure FDA0003071143990000031
为逆傅里叶变换,·表示元素点积运算;
模型更新的具体步骤如下:采用线性插值法来更新参数,其更新方式如下公式(7a)、(7b):
Figure FDA0003071143990000032
Figure FDA0003071143990000033
其中i是当前帧的序号,η是学习因子,
Figure FDA0003071143990000034
为预测位置由训练样本通过公式(5)得到的分类器参数;
Figure FDA0003071143990000035
为预测位置的目标外观模型;
步骤3、采用上下文感知相关滤波框架对目标图像块提取Hog特征;
步骤3A、使用公式(6)计算滤波响应值记为HogRt
步骤3B、对计算得到的响应值HogRt进行归一化处理,并根据响应值所占比例分配权重;Hog特征在t帧的归一化权重为如下公式(8):
Figure FDA0003071143990000036
其中,fHog为Hog特征对应分类器的输出响应值,fCN为CN特征对应分类器的输出响应值;
步骤4、采用上下文感知相关滤波框架对目标图像块提取颜色特征CN;
步骤4A、使用公式(6)计算滤波响应值记为CNRt
步骤4B、对计算得到的响应值CNRt进行归一化处理,并根据响应值所占比例分配权重,CN特征在t帧的归一化权重为如下公式(8):
Figure FDA0003071143990000037
其中,fHog为Hog特征对应分类器的输出响应值,fCN为CN特征对应分类器的输出响应值;
步骤5、用第t帧的权重来更新原有的Hog特征权重:
Figure FDA0003071143990000041
其中δ为权重更新因子,第一帧权重更新因子设为0.5,
Figure FDA0003071143990000042
为Hog特征在第t帧权重,
Figure FDA0003071143990000043
步骤6、用第t帧的权重来更新原有的CN特征权重:
Figure FDA0003071143990000044
其中δ为权重更新因子,第一帧权重更新因子设为0.5,
Figure FDA0003071143990000045
为CN特征在第t帧权重,
Figure FDA0003071143990000046
步骤7、根据各特征响应值大小为Hog特征和CN特征分配权重,将得到的最终融合后的响应图进行线性加权融合得到如下公式(12):
Figure FDA0003071143990000047
并将得到的最大响应图Rmax用于目标的初始位置估计;
步骤8、引入一种自适应尺度估计机制,提高尺度变化适应能力,具体步骤如下:
首先提取尺度评估目标图像块尺寸为:
Figure FDA0003071143990000048
其中,P、R分别为目标前一帧的宽、高,a为尺度因子,s为尺度滤波长度;
步骤8A、由于输入样本中某一个图像块具有d维特征描述,为了得到最佳尺度相关滤波器w,可以通过最小化如下代价函数即公式(14):
Figure FDA0003071143990000051
其中,w为相关滤波器,g为理想相关输出,l表示特征的某一维度,λ为滤波器正则化权重因子;
步骤8B、公式(14)在频域中的解为公式(15):
Figure FDA0003071143990000052
其中
Figure FDA0003071143990000053
Figure FDA0003071143990000054
代表复共轭,λ为正则项权重因子,t为帧序号;d,k为特征维度数;
步骤8C、为了得到鲁棒的结果,对公式(15)中的Wl分子分母分别进行更新:
Figure FDA0003071143990000055
Figure FDA0003071143990000056
其中η为学习因子,
Figure FDA0003071143990000057
代表复共轭,λ为正则项权重因子,t为帧序号,d,k为特征维度数;
步骤8D、在下一帧中,尺度滤波器的响应可通过求解公式(18)来确定:
Figure FDA0003071143990000058
步骤9、设定一个响应阈值T,当公式(12)得到的最大响应值Rmax>T时,更新位置滤波模型即公式(7a)和公式(7b),尺度滤波模型即公式(16)和公式(17);
步骤9A、当前序列滤波模型更新结束后,然后再更新公式(10)、公式(11)对应的两种特征权重更新因子;
步骤10、若公式(12)得到的最大响应值Rmax<T,则不更新当前序列滤波模型,而采用步骤8所述的尺度估计方法进行尺度估计,并进入至下一帧目标的跟踪。
CN201810206321.5A 2018-03-13 2018-03-13 自适应特征融合的多尺度相关滤波视觉跟踪方法 Active CN108549839B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810206321.5A CN108549839B (zh) 2018-03-13 2018-03-13 自适应特征融合的多尺度相关滤波视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810206321.5A CN108549839B (zh) 2018-03-13 2018-03-13 自适应特征融合的多尺度相关滤波视觉跟踪方法

Publications (2)

Publication Number Publication Date
CN108549839A CN108549839A (zh) 2018-09-18
CN108549839B true CN108549839B (zh) 2021-09-28

Family

ID=63516291

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810206321.5A Active CN108549839B (zh) 2018-03-13 2018-03-13 自适应特征融合的多尺度相关滤波视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN108549839B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734722B (zh) * 2018-04-18 2022-03-15 南京邮电大学 一种基于psr的视觉跟踪错误修正方法
CN109741366B (zh) * 2018-11-27 2022-10-18 昆明理工大学 一种融合多层卷积特征的相关滤波目标跟踪方法
CN109740448B (zh) * 2018-12-17 2022-05-10 西北工业大学 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
CN109816689B (zh) * 2018-12-18 2022-07-19 昆明理工大学 一种多层卷积特征自适应融合的运动目标跟踪方法
CN110211149B (zh) * 2018-12-25 2022-08-12 湖州云通科技有限公司 一种基于背景感知的尺度自适应核相关滤波跟踪方法
CN110009660B (zh) * 2019-03-06 2021-02-12 浙江大学 基于相关性滤波器算法的物体位置追踪方法
CN110070563A (zh) * 2019-04-30 2019-07-30 山东大学 基于联合感知的相关性滤波器目标跟踪方法及系统
CN110276784B (zh) * 2019-06-03 2021-04-06 北京理工大学 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法
CN110660079A (zh) * 2019-09-11 2020-01-07 昆明理工大学 一种基于时空上下文的单目标跟踪方法
CN111008996B (zh) * 2019-12-09 2023-04-07 华侨大学 一种通过分层特征响应融合的目标跟踪方法
CN110992402B (zh) * 2019-12-13 2023-05-30 杭州电子科技大学 基于特征融合的相关滤波目标跟踪方法
CN111145121B (zh) * 2019-12-27 2023-02-28 安徽工业大学 一种强化多特征融合的置信项滤波器目标跟踪方法
CN111260738A (zh) * 2020-01-08 2020-06-09 天津大学 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN111260691B (zh) * 2020-01-18 2023-04-25 温州大学 一种基于上下文感知回归时空正则相关滤波跟踪方法
CN111680713B (zh) * 2020-04-26 2023-11-03 中国科学院上海微系统与信息技术研究所 一种基于视觉检测的无人机对地目标跟踪与逼近方法
CN111968156A (zh) * 2020-07-28 2020-11-20 国网福建省电力有限公司 一种自适应超特征融合的视觉跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107146240A (zh) * 2017-05-05 2017-09-08 西北工业大学 基于相关滤波和显著性检测的航拍视频目标跟踪方法
CN107578423A (zh) * 2017-09-15 2018-01-12 杭州电子科技大学 多特征分层融合的相关滤波鲁棒跟踪方法
CN107644430A (zh) * 2017-07-27 2018-01-30 孙战里 基于自适应特征融合的目标跟踪
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9613273B2 (en) * 2015-05-19 2017-04-04 Toyota Motor Engineering & Manufacturing North America, Inc. Apparatus and method for object tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107146240A (zh) * 2017-05-05 2017-09-08 西北工业大学 基于相关滤波和显著性检测的航拍视频目标跟踪方法
CN107644430A (zh) * 2017-07-27 2018-01-30 孙战里 基于自适应特征融合的目标跟踪
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN107578423A (zh) * 2017-09-15 2018-01-12 杭州电子科技大学 多特征分层融合的相关滤波鲁棒跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
《Robust visual tracking via patch based kernel correlation filters with adaptive multiple feature ensemble》;Wei Chen,et al;《Neurocomputing》;20160623;第214卷;第607-617页 *
《基于自适应特征选择的多尺度相关滤波跟踪》;沈秋,等;《光学学报》;20150531;第37卷(第5期);第1-10页 *
《特征融合和模型自适应更新相结合的相关滤波目标跟踪》;王暐,等;《光学 精密工程》;20160831;第24卷(第8期);第2059-2066页 *
《自适应特征融合的核相关滤波跟踪算法》;熊昌镇;《计算机辅助设计与图形学学报》;20170630;第29卷(第6期);第1068-1075页 *

Also Published As

Publication number Publication date
CN108549839A (zh) 2018-09-18

Similar Documents

Publication Publication Date Title
CN108549839B (zh) 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN111291679B (zh) 一种基于孪生网络的目标特定响应注意力目标跟踪方法
CN108776975B (zh) 一种基于半监督特征和滤波器联合学习的视觉跟踪方法
CN107369166B (zh) 一种基于多分辨率神经网络的目标跟踪方法及系统
CN110969250B (zh) 一种神经网络训练方法及装置
CN111768432A (zh) 基于孪生深度神经网络的动目标分割方法及系统
CN111260738A (zh) 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN111080675B (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN110349190B (zh) 自适应学习的目标跟踪方法、装置、设备及可读存储介质
CN108038435B (zh) 一种基于卷积神经网络的特征提取与目标跟踪方法
CN110084201B (zh) 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法
CN109166139B (zh) 一种结合快速背景抑制的尺度自适应目标跟踪方法
KR102093577B1 (ko) 학습네트워크를 이용한 예측 영상 생성 방법 및 예측 영상 생성 장치
CN110276784B (zh) 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法
CN110992401A (zh) 目标跟踪方法、装置、计算机设备和存储介质
CN110895820A (zh) 一种基于kcf的尺度自适应目标跟踪方法
CN107657627B (zh) 基于人脑记忆机制的时空上下文目标跟踪方法
CN110378932B (zh) 一种基于空间正则矫正的相关滤波视觉跟踪方法
KR20210093875A (ko) 비디오 분석 방법 및 연관된 모델 훈련 방법, 기기, 장치
CN110659641B (zh) 一种文字识别的方法、装置及电子设备
CN111062406B (zh) 一种面向异构领域适应的半监督最优传输方法
CN110827327A (zh) 一种基于融合的长期目标跟踪方法
CN113177970B (zh) 基于自适应特征融合的多尺度滤波目标跟踪方法
CN112348847B (zh) 一种目标尺度自适应跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant