CN111951298A - 一种融合时间序列信息的目标跟踪方法 - Google Patents

一种融合时间序列信息的目标跟踪方法 Download PDF

Info

Publication number
CN111951298A
CN111951298A CN202010594455.6A CN202010594455A CN111951298A CN 111951298 A CN111951298 A CN 111951298A CN 202010594455 A CN202010594455 A CN 202010594455A CN 111951298 A CN111951298 A CN 111951298A
Authority
CN
China
Prior art keywords
target
representing
frame
parameter
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010594455.6A
Other languages
English (en)
Other versions
CN111951298B (zh
Inventor
张振军
白金舟
王耀南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202010594455.6A priority Critical patent/CN111951298B/zh
Publication of CN111951298A publication Critical patent/CN111951298A/zh
Application granted granted Critical
Publication of CN111951298B publication Critical patent/CN111951298B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合时间序列信息的目标跟踪方法,包括以下步骤:步骤1,输入图像序列,根据第t‑1帧图像中的初始位置pt和尺度st,提取目标的HOG特征和CN颜色特征;步骤2,将目标特征与余弦窗口进行点乘,然后进行傅里叶变换得到目标特征;步骤3,用第t‑1帧的响应图计算响应变量Π、参数
Figure DDA0002556006750000011
及参数
Figure DDA0002556006750000012
步骤4,将第1帧到第t‑1帧相关滤波器进行时序建模;步骤5,用最小二乘法求出相关滤波器时序模型的自回归参数
Figure DDA0002556006750000013
步骤6,求解目标函数计算出相关滤波ft、参数θt及λt;步骤7,在第t帧中的候选区域进行特征提取和预处理,并与相关滤波器进行点乘运算作得到响应图,通响应图确定当前帧的目标位置和尺度,该方法可以有效提高目标跟踪的精度和准确率。

Description

一种融合时间序列信息的目标跟踪方法
技术领域
本发明涉及计算机视觉技术领域,特别是涉及一种融合时间序列信息的目标跟踪方法。
背景技术
计算机视觉是人工智能的主要分支,其主要任务是研究如何让机器可以像人一样理解及感知我们所处的物理世界,进而让机器人可以像人一样对物理世界的变化作出反应。随着诸如高性能图形处理器(GPU)及张量处理器的等硬件设备和并行计算等软件技术的出现,计算机视觉也得到了快速的发展。计算机视觉算法在很多任务上(如目标跟踪、检测)都达到了与人类相当的能力。视觉跟踪技术是计算机视觉领域中一项基础而关键的技术。在智能安防、交通监控、无人驾驶、人机交互及现代化军事等诸多实际问题中都有着广泛而重要的应用。
视觉目标跟踪技术的方法主要有三大类:第一类是基于生成模型的视觉跟踪方法。这种方法的主要思想是提取正样本特征构建表观模型,在图中搜索与模型最匹配的区域作为跟踪的结果。但是这种方法主要利用了目标的信息,没有使用到背景信息,因此在处理图像中出现与目标相似的物体时,效果很差。第二类是基于判别模型的视觉跟踪算法。与生成式模型不同的是,判别式模型同时考虑了目标和背景信息,它利用提取的目标和背景信息来训练分类器,在检测时,将分类器与候选样本进行操作得到响应图,将响应图中的最大值作为目标的位置,当确定新的目标位置时,采集新的样本,对分类器进行跟新。第三类是基于深度学习的目标跟踪方法主要是利用深度特征强大的表征能力来进行跟踪。按照利用深度特征的方式可分为基于预训练深度特征的跟踪和基于离线训练特征的跟踪。基于深度特征的视觉跟踪算法在精度上有很大的提升,但算法的实时性仍然有待提高。
现有的视觉跟踪技术虽然在跟踪的准确性和高效性都有很大的提高,但仍然存在许多具有挑战性的问题没有解决。这些问题包括如何利用视频序列在时间域的连续性提升表观模型的性能,如何更有效的利用正则项进行空间约束等。因此,针对以上这些问题,亟需提供一种准确性高,速度快的视觉目标跟踪方法。
名词解释:
HOG特征:是用于目标检测的特征描述器,它是用来计算局部图像梯度方向的统计值。
CN颜色特征:是将RGB颜色空间映射到11维颜色属性空间上得到的视觉特征。
ADMM算法:交替方向乘子法(ADMM)是一种解决可分解凸优化问题的简单方法,尤其在解决大规模问题上,利用ADMM算法可以将原问题的目标函数等价的分解成若干个可求解的子问题,然后并行求解每一个子问题,最后协调子问题的解就得到原问题的全局解。
发明内容
本发明的目的在于针对现有视觉跟踪技术的缺陷,提出了一种基于自回归建模和自适应空间约束的视觉跟踪方法,该方法在跟踪的精度和成功率上都有明显的提高。
本发明的目的通过以下技术方案实现:
提供了一种融合时间序列信息的目标跟踪方法,包括以下步骤:
步骤1,输入图像序列,根据第t-1帧图像中的初始位置pt和尺度st,提取目标的HOG特征和CN颜色特征,将特征进行融合得到目标特征x;
步骤2,将目标特征x与余弦窗进行点乘然后进行傅里叶变换;
步骤3,用第t-1帧图像的的响应图计算局部响应变量Π、参数
Figure BDA0002556006730000021
Figure BDA0002556006730000022
及参数
Figure BDA0002556006730000023
步骤4,将第1帧到第t-1帧相关滤波器进行时序建模得到相关滤波器时序模型;
步骤5,用最小二乘法求出相关滤波器时序模型的自回归参数
Figure BDA0002556006730000033
步骤6,求解目标函数计算出相关滤波ft、参数θt及λt
步骤7,在第t帧中的候选区域进行特征提取和预处理得到目标特征x,然后与相关滤波器ft在傅里叶域进行点乘运算操作,得到响应图,通过响应图确定当前帧的目标位置和尺度。
进一步的改进,所述步骤1的具体步骤为:
输入图像序列,根据t-1帧图像中的目标的初始位置pt和尺度st,提取目标的HOG特征和CN颜色特征;
其中:提取HOG特征的具体方法是:首先将图像分成大小相等的图像块即细胞单元;然后计算细胞单元中各个像素的梯度,进行归一化,得到梯度直方图,将这些梯度直方图联合构成HOG特征;提取CN颜色特征的具体步骤是:将RGB颜色空间映射到11维颜色属性空间上即得到CN颜色特征,然后将HOG特征和颜色特征CN进行融合得到目标特征x。
进一步的改进,所述步骤2的具体步骤为:
将目标特征与余弦窗进行点乘然后进行傅里叶变换
其中余弦窗的公式为:
Figure BDA0002556006730000034
其中,xij为原图像片中的像素值;i表示图片中的横坐标,j表示图片中的纵坐标,n表示图片中有多少个像素,π为圆周率。
进一步的改进,所述步骤3的具体步骤为:
采用以下公式计算局部变化向量Π、参数
Figure BDA0002556006730000031
Figure BDA0002556006730000032
局部变化向量Π=[|Π1|,|Π2|,…,|ΠT],向量Π的第i个元素定义为:
Figure BDA0002556006730000041
式中[ψΔ]代表移位运算,Ri t-2表示第t-2帧响应图Rt-2中的第i个元素;t-1表示图像序列为第t-1帧的时刻;Rt-1表示第t-1帧的响应图;T表示向量Π的个数;
参数
Figure BDA0002556006730000042
Figure BDA0002556006730000043
式中
Figure BDA0002556006730000044
用来裁剪响应图的中心部分,u表示为空间正则化矩阵,δ=0.2;T表示矩阵的行和列;
Figure BDA0002556006730000045
表示T行T列的矩阵,t表示矩阵的行和列,Pt表示t行t列的矩阵;t≤T;
参数
Figure BDA0002556006730000046
Figure BDA0002556006730000047
式中
Figure BDA00025560067300000411
和υ代表的是超参数,设置为
Figure BDA0002556006730000048
域值θ为0.3;当全局响应的变化高于域值θ时,代表响应图中出现异常,如果低于域值θ,相关滤波器的时间约束变松弛;||Π||2表示向量Π的2范数;
参数
Figure BDA0002556006730000049
Figure BDA00025560067300000410
式中Rt-1代表第t-1帧的响应图,max表示取响应图的最大值。
进一步的改进,所述步骤4的具体步骤为:
在第1帧到第t-1帧利用相关滤波器建立时间序列{f1,f2.f3,…ft-1},序列数据ft-1大小是M×N×C;ft-1表示第t-1帧的滤波器,M表示滤波器的长度,N表示滤波器的宽度,C表示滤波器的通道数;
将相关滤波器进行自回归建模得到:
ft=φft-1t
式中εt是零均值独立同分布白噪声序列,方差为σ2,且εt与f1,f2,…,ft-1独立;φ表示自回归参数。
进一步的改进,所述步骤5的具体步骤为:
用最小二乘法,求解ft=φft-1t中的自回归参数
模型ft=φft-1t写成
S(φ)=(ft-ft-1φ)T(ft-ft-1φ)=ft Tft-2ft Tft-1φ+φTft-1 Tft-1φ
对上式进行求导,可得
Figure BDA0002556006730000051
因此,参数φ的最小二乘估计为:
φ=(ft-1 Tft-1)-1ft-1 Tft
其中,S(φ)表示目标函数,T表示矩阵的转置。
进一步的改进,所述步骤6的具体步骤为:
求解目标函数计算出相关滤波ft、优化求解的时间正则项参数θt及参数λt的步骤如下:
目标函数为:
Figure BDA0002556006730000061
式中ft-1表示t-1时刻的相关滤波器大小是M×N×C,φ表示当前时刻和前一时刻滤波器的自相关参数大小是m×n×c,m表示自相关参数的长度,n表示自相关参数的宽,c表示自相关参数的维数,
Figure BDA0002556006730000062
为参数,θt代表优化求解的时间正则项参数,
Figure BDA0002556006730000063
为常量,d表示相关滤波器通道的维数,
Figure BDA0002556006730000064
表示维数为d的样本特征,
Figure BDA0002556006730000065
表示维数为d的相关滤波器,y表示高斯标签函数,D表示总的通道数;
目标函数是凸函数,通过ADMM算法进行全局最小化求解,通过引入辅助变量
Figure BDA0002556006730000066
其中F∈CT×T代表正交矩阵,∧代表离散傅里叶变化;T表示矩阵的行和列,K表示辅助变量的个数,
Figure BDA0002556006730000067
表示第K个辅助变量;
Figure BDA0002556006730000068
目标函数的增广拉格朗日形式写成:
其中,
Figure BDA0002556006730000069
表示拉格朗日乘法子的傅里叶变换;
Figure BDA00025560067300000610
表示通道为d的辅助变量
Figure BDA0002556006730000071
表示通道为d目标特征,λ表示正则化参数;γ表示正则化参数步长的大小;
Figure BDA0002556006730000072
表示通道数为d的相关滤波器;
引入变量
Figure BDA0002556006730000073
目标函数写成:
Figure BDA0002556006730000074
Figure BDA0002556006730000075
表示第k个辅助变量V,
Figure BDA0002556006730000076
表示第k个辅助变量m,
Figure BDA0002556006730000077
表示通道数为d的相关滤波器;
通过ADMM求解下列子问题
Figure BDA0002556006730000078
Figure BDA0002556006730000079
Figure BDA00025560067300000710
Figure BDA00025560067300000711
Figure BDA00025560067300000712
其中,
Figure BDA0002556006730000081
通道数为d的目标特征,
Figure BDA0002556006730000082
表示通道数为d的辅助变量g;γi表示正则化参数的步长,
Figure BDA0002556006730000083
表示第i+1步的变量G,
Figure BDA0002556006730000084
表示第i+1步的变量H;
进一步的改进,所述步骤7的具体步骤为:
在当前帧的目标区域提取目标特征xt,与步骤6求出的相关滤波器进行点乘运算得到目标的响应图;
计算的公式为:
Figure BDA0002556006730000085
式中xt表示目标特征,ft表示步骤6求得相关滤波器,
Figure BDA0002556006730000086
表示点乘运算操作;
在响应图R中的最大值所在的位置就是目标在当前帧的位置。
本发明的有益效果在于:
本发明是基于自回归建模的视觉跟踪方法,利用视频序列时域上的连续性,将相关滤波器进行自回归建模,同时还利用响应图来自适应调整时间正则项和空间正则项的参数,该方法在跟踪的精度和成功率上都有明显的提升,可以广泛的应用域智能视频监控、无人驾驶等领域。
附图说明
利用附图对本发明做进一步说明,但附图中的内容不构成对本发明的任何限制。
图1为本发明的基于自回归建模的视觉跟踪方法的流程示意图。
图2为步骤4中将第1帧到第t-1帧的相关滤波其进行时序建模的方法图示。
图3(a)是目标在目标形变下跟踪的结果图。
图3(b)是目标在快速运动下跟踪的结果图。
图3(c)是目标在光照变化下跟踪的结果图。
图3(d)是目标在运动模糊下跟踪的结果图。
具体实施方式
为了使发明的目的、技术方案及优点更加清楚明白,以下结合附图及实例,对本发明进行进一步的详细说明。
具体实施方式
本发明是一种融合时间序列信息的目标跟踪方法,如图所示,包括如下步骤:
步骤1,输入图像序列,根据t-1帧图像中的初始位置pt和尺度st,提取目标的HOG特征和CN颜色特征。
其中:HOG特征是用于目标检测的特征描述器,它是用来计算局部图像梯度方向的统计值。提取HOG特征的具体方法是:首先将图像分成大小相等的图像块,这些组成的图像块也叫细胞单元。然后在这些细胞单元中计算各个像素的梯度,进行归一化,得到梯度直方图,最后将这些梯度直方图联合就构成了特征描述器。CN颜色特征具有丰富的表现力和较高的辨识度。提取CN颜色特征的具体步骤是将RGB颜色空间映射到11维颜色属性空间上。
步骤2,将目标特征与余弦窗进行点乘然后进行傅里叶变换。
其中余弦窗的公式为:
Figure BDA0002556006730000091
其中,xij为原图像片中的像素值i表示图片中的横坐标,j表示图片中的纵坐标,n表示图片中有多少个像素,π为圆周率。
步骤3,采用以下公式计算局部变量Π、参数
Figure BDA0002556006730000092
Figure BDA0002556006730000093
局部变化向量Π=[|Π1|,|Π2|,…,|ΠT|],向量Π的第i个元素定义为:
Figure BDA0002556006730000094
式中[ψΔ]代表移位运算,
Figure BDA0002556006730000101
表示第响应图Rt-1中的第i个元素;t-1表示图像序列为第t-1帧的时刻;Rt-1表示第t-1帧的响应图,Rt-2表示第t-2帧的响应图。
参数
Figure BDA0002556006730000102
Figure BDA0002556006730000103
式中
Figure BDA0002556006730000104
用来裁剪响应图的中心部分,Π表示为局部变量,u为空间正则化矩阵,δ=0.2,T表示矩阵的行和列;
Figure BDA0002556006730000105
表示T行T列的矩阵,t表示矩阵的行和列,Pt表示t行t列的矩阵。
参数
Figure BDA0002556006730000106
Figure BDA0002556006730000107
式中
Figure BDA00025560067300001011
和υ代表的是超参数,设置为
Figure BDA0002556006730000108
域值θ为0.3;当全局响应的变化高于域值θ时,代表响应图中出现异常,如果低于域值θ,相关滤波器的时间约束变松弛。
参数
Figure BDA0002556006730000109
Figure BDA00025560067300001010
式中Rt-1代表第t-1帧的响应图,max表示取响应图的最大值。
步骤4,在第1帧到第t-1帧利用相关滤波器建立时间序列{f1,f2.f3,…ft-1},序列数据ft-1大小是M×N×C;ft-1表示第t-1帧的滤波器,M表示滤波器的长度,N表示滤波器的宽度,C表示滤波器的通道数。
将相关滤波器进行自回归建模得到:
ft=φft-1t
式中εt是零均值独立同分布白噪声序列,方差为σ2,且εt与f1,f2,…,ft-1独立;φ表示自回归参数。
步骤5,用最小二乘法,求解ft=φft-1t中的自回归参数模型ft=φft-1t写成
S(φ)=(ft-ft-1φ)T(ft-ft-1φ)=ft Tft-2ft Tft-1φ+φTft-1 Tft-1φ
对上式进行求导,可得
Figure BDA0002556006730000111
因此,参数φ的最小二乘估计为:
φ=(ft-1 Tft-1)-1ft-1 Tft
其中,S(φ)表示目标函数,T表示矩阵的转置。
步骤6,求解目标函数计算出相关滤波ft、参数θt及参数λt
目标函数为:
Figure BDA0002556006730000112
式中ft-1表示t-1时刻的相关滤波器大小是M×N×C,M表示滤波器的长度,N表示滤波器的宽度,C表示滤波器的通道数,φ表示当前时刻和前一时刻滤波器的自相关参数大小是m×n×c,m表示自相关参数的长度,n表示自相关参数的宽,C表示自相关参数的维数,
Figure BDA0002556006730000121
为参数,θt代表优化求解的时间正则项参数,
Figure BDA0002556006730000122
为常量,d表示相关滤波器通道的维数,
Figure BDA0002556006730000123
表示维数为d的样本特征,
Figure BDA0002556006730000124
表示维数为d的相关滤波器,y表示标签函数,D表示总的通道数。
目标函数是凸函数,通过ADMM算法进行全局最小化求解,通过引入辅助变量
Figure BDA0002556006730000125
其中F∈CT×T代表正交矩阵,∧代表离散傅里叶变化;T表示矩阵的行和列,K表示辅助变量的个数,
Figure BDA0002556006730000126
表示第K个辅助变量;
Figure BDA0002556006730000127
目标函数的增广拉格朗日形式写成:
其中,
Figure BDA00025560067300001210
表示拉格朗日乘法子的傅里叶变换;
Figure BDA00025560067300001211
表示通道为d的辅助变量,
Figure BDA00025560067300001212
表示通道为d目标特征,λ表示正则化参数;γ表示正则化参数步长的大小;
Figure BDA0002556006730000128
表示通道数为d的相关滤波器;
引入变量
Figure BDA0002556006730000129
目标函数写成:
Figure BDA0002556006730000131
Figure BDA0002556006730000132
表示第k个辅助变量V,
Figure BDA0002556006730000133
表示第k个辅助变量m,
Figure BDA0002556006730000134
表示通道数为d的相关滤波器;
通过ADMM求解下列子问题
Figure BDA0002556006730000135
Figure BDA0002556006730000136
Figure BDA0002556006730000137
Figure BDA0002556006730000138
Figure BDA0002556006730000139
其中,
Figure BDA00025560067300001310
通道数为d的目标特征,
Figure BDA00025560067300001311
表示通道数为d的辅助变量g;γi表示正则化参数的步长,
Figure BDA00025560067300001312
表示第i+1步的变量G,
Figure BDA00025560067300001313
表示第i+1步的变量H。
步骤7,在当前帧的目标区域提取目标特征xt,与步骤6求出的相关滤波器进行点乘运算得到目标的响应图。
计算的公式为:
Figure BDA0002556006730000141
式中xt表示目标特征,ft表示相关滤波器,
Figure BDA0002556006730000142
表示点乘运算操作;
在响应图R中的最大值所在的位置就是目标在当前帧的位置。
自回归模型是统计上一种处理时间序列的方法,用同一变数xt的之前各期来预测本期的表现,能够有效利用视频序列的连续性来提高预测的精度。本发明将视频跟踪的相关滤波器进行自回归建模(步骤4),然后利用最小二乘法求出自相关参数(步骤),能够有效使用跟踪过程中的历史样本信息来解决目标出现外观变化,剧烈形变的问题。同时,本发明利用响应图来自适应调整时间正则项和空间正则项的参数(步骤3),使得跟踪的结果在精度和成功率上都有所提高。最后,本发明使用交替方向乘子法(步骤6)进行优化求解目标函数,有效的降低了计算的复杂度,从而使该方法能够满足实时性的应用要求。
具体的实验与结果分析
为了说明本发明的有效性,我们将本发明方法与其他7种视觉跟踪方法在OTB2013数据集上进行性能比较,跟踪精度和成功率的结果见表1。ECO_HC跟踪方法采用的是手工设计的HOG特征和CN颜色特征,并使用卷积操作进行因式分解,使得该算法在速度和精度上较高。SAMF跟踪方法是相关滤波类方法,该方法主要解决了跟踪过程中目标的尺度估计问题,DSST目标跟踪方法是将目标位置和尺度估计看成两个最优化问题,先对目标进行位置估计,然后对目标进行尺度估计,而SAMF方法是将目标位置和尺度估计看成一个问题,同时求出目标的位置和尺度。STAPLE方法是在DSST方法上引入了颜色直方图,将相关滤波响应和颜色直方图响应进行融合,从而得到最终的响应图。
表1:8种视觉跟踪方法的实验统计结果
本发明方法 STRCF ECO_HC SAMF_AT lct2 STAPLE MOSSE_CA CSK
精度 0.892 0.889 0.880 0.833 0.821 0.782 0.610 0.545
成功率 0.687 0.678 0.654 0.615 0.593 0.573 0.451 0.398
表1中的实验统计结果显示:无论是在精度上还是成功率上本发明的方法都比其他方法的结果要好。在精度上本发明的方法相比于ECO_HC和SAMF_AT算法在精度上分别提高了1.4%和7.1%。在成功率上,本发明方法比ECO_HC和SAMF_AT算法在成功率上分别提高了5%和11%,因此本发明的方法在成功率上也取得了良好的效果。
综上所述,本发明利用视频序列在时域上的连续性,将相关滤波器进行自回归建模,然后用最小二乘法求出自相关参数,能有效解决目标出现外观变化,剧烈形变的问题。同时,本发明利用响应图来自适应调整时间正则项和空间正则项的参数,优化求解出更有鲁棒性的相关滤波器,使得本发明的方法在精度和成功率上都有显著的提升,可以广泛的应用与智能视频监控、无人驾驶等实际应用中。
最后应当说明的是,以上实施例仅用于说明本发明的技术方案而非对本发明保护范围的限制,尽管参照较佳实施例对本发明作了详细说明,本领域的普通技术人员应当了解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。

Claims (8)

1.一种融合时间序列信息的目标跟踪方法,其特征在于,包括以下步骤:
步骤1,输入图像序列,根据第t-1帧图像中的初始位置pt和尺度st,提取目标的HOG特征和CN颜色特征,将特征进行融合得到目标特征x;
步骤2,将目标特征x与余弦窗进行点乘然后进行傅里叶变换;
步骤3,用第t-1帧图像的的响应图计算局部响应变量Π、参数
Figure FDA0002556006720000011
Figure FDA0002556006720000012
及参数
Figure FDA0002556006720000013
步骤4,将第1帧到第t-1帧相关滤波器进行时序建模得到相关滤波器时序模型;
步骤5,用最小二乘法求出相关滤波器时序模型的自回归参数
Figure FDA0002556006720000014
步骤6,求解目标函数计算出相关滤波ft、参数θt及λt
步骤7,在第t帧中的候选区域进行特征提取和预处理得到目标特征x,然后与相关滤波器ft在傅里叶域进行点乘运算操作,得到响应图,通过响应图确定当前帧的目标位置和尺度。
2.根据权利要求1所述的一种融合时间序列信息的目标跟踪方法,
其特征在于,所述步骤1的具体步骤为:
输入图像序列,根据t-1帧图像中的目标的初始位置pt和尺度st,提取目标的HOG特征和CN颜色特征;
其中:提取HOG特征的具体方法是:首先将图像分成大小相等的图像块即细胞单元;然后计算细胞单元中各个像素的梯度,进行归一化,得到梯度直方图,将这些梯度直方图联合构成HOG特征;提取CN颜色特征的具体步骤是:将RGB颜色空间映射到11维颜色属性空间上即得到CN颜色特征,然后将HOG特征和颜色特征CN进行融合得到目标特征x。
3.根据权利要求2所述的一种基于融合时间序列信息的目标跟踪方法,其特征在于,所述步骤2的具体步骤为:
将目标特征与余弦窗进行点乘然后进行傅里叶变换
其中余弦窗的公式为:
Figure FDA0002556006720000021
其中,xij为原图像片中的像素值;i表示图片中的横坐标,j表示图片中的纵坐标,n表示图片中有多少个像素,π为圆周率。
4.根据权利要求3所述的一种融合时间序列信息的目标跟踪方法,其特征在于,所述步骤3的具体步骤为:
采用以下公式计算局部变化向量Π、参数
Figure FDA0002556006720000022
Figure FDA0002556006720000023
局部变化向量Π=[|Π1|,|Π2|,…,|ΠT|],向量Π的第i个元素定义为:
Figure FDA0002556006720000024
式中[ψΔ]代表移位运算,
Figure FDA0002556006720000025
表示第t-2帧响应图Rt-2中的第i个元素;t-1表示图像序列为第t-1帧的时刻;Rt-1表示第t-1帧的响应图;T表示向量Π的个数;
参数
Figure FDA0002556006720000026
Figure FDA0002556006720000027
式中
Figure FDA0002556006720000028
用来裁剪响应图的中心部分,u表示为空间正则化矩阵,δ=0.2;T表示矩阵的行和列;
Figure FDA0002556006720000029
表示T行T列的矩阵,t表示矩阵的行和列,Pt表示t行t列的矩阵;t≤T;
参数
Figure FDA00025560067200000210
Figure FDA00025560067200000211
式中
Figure FDA0002556006720000033
和υ代表的是超参数,设置为
Figure FDA0002556006720000034
υ=2×10-5,域值θ为0.3;当全局响应的变化高于域值θ时,代表响应图中出现异常,如果低于域值θ,相关滤波器的时间约束变松弛;||Π||2表示向量Π的2范数;
参数
Figure FDA0002556006720000031
Figure FDA0002556006720000032
式中Rt-1代表第t-1帧的响应图,max表示取响应图的最大值。
5.根据权利要求4所述的一种融合时间序列信息的目标跟踪方法,其特征在于,所述步骤4的具体步骤为:
在第1帧到第t-1帧利用相关滤波器建立时间序列{f1,f2.f3,…ft-1},序列数据ft-1大小是M×N×C;ft-1表示第t-1帧的滤波器,M表示滤波器的长度,N表示滤波器的宽度,C表示滤波器的通道数;
将相关滤波器进行自回归建模得到:
ft=φft-1t
式中εt是零均值独立同分布白噪声序列,方差为σ2,且εt与f1,f2,…,ft-1独立;φ表示自回归参数。
6.根据权利要求5所述的一种融合时间序列信息的目标跟踪方法,其特征在于,所述步骤5的具体步骤为:
用最小二乘法,求解ft=φft-1t中的自回归参数
模型ft=φft-1t写成
S(φ)=(ft-ft-1φ)T(ft-ft-1φ)=ft Tft-2ft Tft-1φ+φTft-1 Tft-1φ
对上式进行求导,可得
Figure FDA0002556006720000041
因此,参数φ的最小二乘估计为:
φ=(ft-1 Tft-1)-1ft-1 Tft
其中,S(φ)表示目标函数,T表示矩阵的转置。
7.根据权利要求6所述的一种融合时间序列信息的目标跟踪方法,
其特征在于,所述步骤6的具体步骤为:
求解目标函数计算出相关滤波ft、优化求解的时间正则项参数θt及参数λt的步骤如下:
目标函数为:
Figure FDA0002556006720000042
式中ft-1表示t-1时刻的相关滤波器大小是M×N×C,φ表示当前时刻和前一时刻滤波器的自相关参数大小是m×n×c,m表示自相关参数的长度,n表示自相关参数的宽,c表示自相关参数的维数,
Figure FDA0002556006720000043
为参数,θt代表优化求解的时间正则项参数,
Figure FDA0002556006720000044
为常量,d表示相关滤波器通道的维数,
Figure FDA0002556006720000045
表示维数为d的样本特征,
Figure FDA0002556006720000046
表示维数为d的相关滤波器,y表示高斯标签函数,D表示总的通道数;
目标函数是凸函数,通过ADMM算法进行全局最小化求解,通过引入辅助变量
Figure FDA0002556006720000051
其中F∈CT×T代表正交矩阵,∧代表离散傅里叶变化;T表示矩阵的行和列,K表示辅助变量的个数,
Figure FDA0002556006720000052
表示第K个辅助变量;
Figure FDA0002556006720000053
目标函数的增广拉格朗日形式写成:
其中,
Figure FDA0002556006720000057
表示拉格朗日乘法子的傅里叶变换;
Figure FDA0002556006720000059
表示通道为d的辅助变量,
Figure FDA0002556006720000058
表示通道为d目标特征,λ表示正则化参数;γ表示正则化参数步长的大小;
Figure FDA0002556006720000054
表示通道数为d的相关滤波器;
引入变量
Figure FDA0002556006720000055
目标函数写成:
Figure FDA0002556006720000056
Figure FDA00025560067200000510
表示第k个辅助变量V,
Figure FDA00025560067200000511
表示第k个辅助变量m,ft d表示通道数为d的相关滤波器;
通过ADMM求解下列子问题
Figure FDA0002556006720000061
Figure FDA0002556006720000062
Figure FDA0002556006720000063
Figure FDA0002556006720000064
Figure FDA0002556006720000065
其中,
Figure FDA0002556006720000067
通道数为d的目标特征,
Figure FDA0002556006720000068
表示通道数为d的辅助变量g;γi表示正则化参数的步长,
Figure FDA0002556006720000069
表示第i+1步的变量G,
Figure FDA00025560067200000610
表示第i+1步的变量H。
8.根据权利保护要求7所述的一种融合时间序列信息的目标跟踪方法,其特征在于,所述步骤7的具体步骤为:
在当前帧的目标区域提取目标特征xt,与步骤6求出的相关滤波器进行点乘运算得到目标的响应图;
计算的公式为:
Figure FDA0002556006720000066
式中xt表示目标特征,ft表示步骤6求得相关滤波器,
Figure FDA00025560067200000611
表示点乘运算操作;
在响应图R中的最大值所在的位置就是目标在当前帧的位置。
CN202010594455.6A 2020-06-25 2020-06-25 一种融合时间序列信息的目标跟踪方法 Active CN111951298B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010594455.6A CN111951298B (zh) 2020-06-25 2020-06-25 一种融合时间序列信息的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010594455.6A CN111951298B (zh) 2020-06-25 2020-06-25 一种融合时间序列信息的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111951298A true CN111951298A (zh) 2020-11-17
CN111951298B CN111951298B (zh) 2024-03-08

Family

ID=73337756

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010594455.6A Active CN111951298B (zh) 2020-06-25 2020-06-25 一种融合时间序列信息的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111951298B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819856A (zh) * 2021-01-22 2021-05-18 同济大学 一种应用于无人机的目标跟踪方法及自定位方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160239982A1 (en) * 2014-08-22 2016-08-18 Zhejiang Shenghui Lighting Co., Ltd High-speed automatic multi-object tracking method and system with kernelized correlation filters
CN107993250A (zh) * 2017-09-12 2018-05-04 北京飞搜科技有限公司 一种快速多目标行人追踪和分析方法及其智能装置
KR20180105876A (ko) * 2017-03-16 2018-10-01 한국전자통신연구원 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치
KR101980653B1 (ko) * 2018-07-19 2019-05-21 한화시스템 주식회사 표적 탐지 및 추적 방법
US20190162507A1 (en) * 2017-11-24 2019-05-30 Huntercraft Limited Automatic target point tracing method for electro-optical sighting system
US20190166030A1 (en) * 2012-12-05 2019-05-30 Origin Wireless, Inc. Method, apparatus, server and system for vital sign detection and monitoring
US20200074341A1 (en) * 2018-08-30 2020-03-05 NEC Laboratories Europe GmbH Method and system for scalable multi-task learning with convex clustering
CN111260691A (zh) * 2020-01-18 2020-06-09 温州大学 一种基于上下文感知回归时空正则相关滤波跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190166030A1 (en) * 2012-12-05 2019-05-30 Origin Wireless, Inc. Method, apparatus, server and system for vital sign detection and monitoring
US20160239982A1 (en) * 2014-08-22 2016-08-18 Zhejiang Shenghui Lighting Co., Ltd High-speed automatic multi-object tracking method and system with kernelized correlation filters
KR20180105876A (ko) * 2017-03-16 2018-10-01 한국전자통신연구원 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치
CN107993250A (zh) * 2017-09-12 2018-05-04 北京飞搜科技有限公司 一种快速多目标行人追踪和分析方法及其智能装置
US20190162507A1 (en) * 2017-11-24 2019-05-30 Huntercraft Limited Automatic target point tracing method for electro-optical sighting system
KR101980653B1 (ko) * 2018-07-19 2019-05-21 한화시스템 주식회사 표적 탐지 및 추적 방법
US20200074341A1 (en) * 2018-08-30 2020-03-05 NEC Laboratories Europe GmbH Method and system for scalable multi-task learning with convex clustering
CN111260691A (zh) * 2020-01-18 2020-06-09 温州大学 一种基于上下文感知回归时空正则相关滤波跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
任俊丽;郭浩;董亚飞;刘茹;安居白;王妍;: "自适应尺度突变目标跟踪", 中国图象图形学报, no. 06 *
王鹏;孙梦宇;王海燕;李晓艳;吕志刚;: "结合自适应空间权重的改进型时空正则项跟踪算法", 西安交通大学学报, no. 05 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819856A (zh) * 2021-01-22 2021-05-18 同济大学 一种应用于无人机的目标跟踪方法及自定位方法
CN112819856B (zh) * 2021-01-22 2022-10-25 同济大学 一种应用于无人机的目标跟踪方法及自定位方法

Also Published As

Publication number Publication date
CN111951298B (zh) 2024-03-08

Similar Documents

Publication Publication Date Title
CN108053419B (zh) 基于背景抑制和前景抗干扰的多尺度目标跟踪方法
CN108986140B (zh) 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
US10860879B2 (en) Deep convolutional neural networks for crack detection from image data
Li et al. Robust visual tracking based on convolutional features with illumination and occlusion handing
Romeo et al. Crop row detection in maize fields inspired on the human visual perception
CN106127197B (zh) 基于显著标签排序的图像显著性目标检测方法和装置
CN105740758A (zh) 基于深度学习的互联网视频人脸识别方法
Souly et al. Visual saliency detection using group lasso regularization in videos of natural scenes
CN107067410B (zh) 一种基于增广样本的流形正则化相关滤波目标跟踪方法
Zhang et al. MBLT: Learning motion and background for vehicle tracking in satellite videos
CN105740915A (zh) 一种融合感知信息的协同分割方法
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
Tripathi et al. Detecting temporally consistent objects in videos through object class label propagation
CN110135435B (zh) 一种基于广度学习系统的显著性检测方法及装置
CN111951298B (zh) 一种融合时间序列信息的目标跟踪方法
CN117437691A (zh) 一种基于轻量化网络的实时多人异常行为识别方法及系统
CN109492530B (zh) 基于深度多尺度时空特征的健壮性视觉物体跟踪方法
CN111127407A (zh) 一种基于傅里叶变换的风格迁移伪造图像检测装置及方法
CN113223037B (zh) 一种面向大规模数据的无监督语义分割方法及系统
Bourennane et al. An enhanced visual object tracking approach based on combined features of neural networks, wavelet transforms, and histogram of oriented gradients
Lan et al. Robust visual object tracking with spatiotemporal regularisation and discriminative occlusion deformation
Huberman-Spiegelglas et al. Single image object counting and localizing using active-learning
Kacete et al. [POSTER] Decision Forest For Efficient and Robust Camera Relocalization
Shi et al. Visual tracking utilizing robust complementary learner and adaptive refiner
Zhang et al. Adaptively learning background-aware correlation filter for visual tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant