CN109859244B - 一种基于卷积稀疏滤波的视觉跟踪方法 - Google Patents

一种基于卷积稀疏滤波的视觉跟踪方法 Download PDF

Info

Publication number
CN109859244B
CN109859244B CN201910058846.3A CN201910058846A CN109859244B CN 109859244 B CN109859244 B CN 109859244B CN 201910058846 A CN201910058846 A CN 201910058846A CN 109859244 B CN109859244 B CN 109859244B
Authority
CN
China
Prior art keywords
matrix
target
tracking
convolution
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910058846.3A
Other languages
English (en)
Other versions
CN109859244A (zh
Inventor
毕瑞星
马钟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Microelectronics Technology Institute
Original Assignee
Xian Microelectronics Technology Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Microelectronics Technology Institute filed Critical Xian Microelectronics Technology Institute
Priority to CN201910058846.3A priority Critical patent/CN109859244B/zh
Publication of CN109859244A publication Critical patent/CN109859244A/zh
Application granted granted Critical
Publication of CN109859244B publication Critical patent/CN109859244B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积稀疏滤波的视觉跟踪方法,包括以下步骤:1)采用卷积稀疏滤波方法进行离线训练,在跟踪视频序列上进行无监督特征学习,以得到一组卷积核;2)以此卷积核组成卷积神经网络进行在线跟踪,从而对输入图像进行特征提取;3)结合核化相关滤波跟踪框架,实现对目标的跟踪。发明的基于卷积稀疏滤波的视觉跟踪方法,该方法基于深度学习原理,自动学习待跟踪目标的特征,从而可以利用大数据的优势,获得更稳定、更有区分力的特征,进而实现高精度、高鲁棒性的跟踪效果。本发明基于卷积稀疏滤波跟踪方法,具有准确率高、速度快及跟踪效果稳健的特点。

Description

一种基于卷积稀疏滤波的视觉跟踪方法
技术领域
本发明属于视觉跟踪技术领域,尤其是一种基于卷积稀疏滤波的视觉跟踪方法。
背景技术
视觉跟踪是计算机视觉研究领域中的热点,有着广泛的应用。而跟踪技术对运算速度的要求很高,无法达到实时即意味着难以实用。目前跟踪效果最好的方法均为基于深度学习的方法。其中效果最好的跟踪算法是韩国浦项工科大学的Hyeonseob Nam和BohyungHan提出的MDNet,该方法基于卷积神经网络(CNN)的多域学习框架,将域无关信息从特定域信息中分离出来,以获取有效的表示。首次实现了直接使用视频序列作为训练数据。此外,他们还将难样本挖掘技术整合进在线学习中,成为提升该算法性能的一个关键。但由于在跟踪过程中还需要利用跟踪时的数据对模型进行fine-tune训练,导致该算法速度很慢。在普通PC机上处理1帧就需要3~5秒,难以实用。另外,他们的目标位置预测是通过随机裁框,对这些框进行分类,最后再对分类出的框进行框回归(bounding box regression)以得到精确的目标位置。该策略显然不是目标位置预测的最优策略,且同样运算速度较慢。因此,为将此类高性能算法实用化,可以从两个方面进行改进:一是仅离线训练,跟踪过程中只进行预测,避免运算量巨大的训练部分,从而提高跟踪速度;另一方面是直接采用框回归以得到目标的位置。
根据此思路,斯坦福大学的David Held等人提出了一种叫做GOTURN的跟踪算法。他们的模型仅进行离线训练,在跟踪过程中不进行训练,并且他们的目标位置预测是通过bounding box regression直接得到,这些做法大大提高了算法速度。他们报告该算法可达到100fps,但这些措施了降低了算法的跟踪性能,根据他们报告的跟踪效果,其跟踪性能与传统的DSST,SAMF,KCF算法近似。而且,其报告的速度是在GPU平台上得到的,如该算法在Titan X GPU上可以达到165fps,在GTX 680GPU上可以达到100fps,但在cpu上只能达到2.7fps,同样难以实用。从现有算法的分析可以看出,基于深度学习的方法采用跟踪视频序列进行训练,获取了数据的有效表示,从而得到了较好的跟踪效果,但较深的网络深度带来了大的计算量,难以满足实时跟踪的效果,使得此类算法难以在工程实践中应用。
在视觉系统目标跟踪时,要求跟踪实时性强,并且跟踪结果精度高,鲁棒性强,所以如何在保证跟踪实时性的前提下,提高跟踪的精度和鲁棒性是一个非常亟待解决的问题。
发明内容
本发明的目的在于克服上述现有技术的缺点,提供一种基于卷积稀疏滤波的视觉跟踪方法。
为达到上述目的,本发明采用以下技术方案予以实现:
一种基于卷积稀疏滤波的视觉跟踪方法,包括以下步骤:
1)采用卷积稀疏滤波方法对目标特征提取矩阵进行离线训练,在跟踪视频序列上进行无监督特征学习,得到最优特征提取矩阵;
2)在线跟踪过程中初始化跟踪器,用最优特征提取矩阵卷积得到初始模板特征和岭回归解;
3)利用最优特征提取矩阵对测试图像提取特征得到的测试样本特征,利用核函数计算测试样本特征与初始模板特征的相关性,而后卷积岭回归解,得到预测目标位置,更新跟踪器,实现对目标的跟踪。
进一步的,步骤1)具体包括步骤:
101)获取训练数据集;
102)在多组图像序列中随机选择目标矩形内的多个子块图像,将每个子块图像排列成列向量形式作为目标训练样本,记作e={e1,e2,...en};
103)用随机数初始化权值矩阵,得到初始化后的权值矩阵W={wi,j}∈Rm×n,随机数取值范围为0到样本数目之间的任意值,权值矩阵维度与目标训练样本维度相同;
104)将初始化后权值矩阵W与目标训练样本e线性运算,得到G=W·e,其中G={gi};
105)将激活函数h(g)对G逐元素运算,得到激活后的特征矩阵F={fj (i)}∈Rm,其中,激活函数h(g)为非线性函数;
106)对激活后的特征矩阵F行规范化得到
Figure GDA0003578822400000031
其中,
Figure GDA0003578822400000032
|| ||1和|| ||2分别表示向量的1范数和2范数;
107)对矩阵
Figure GDA0003578822400000033
列规范化得到
Figure GDA0003578822400000034
其中
Figure GDA0003578822400000035
108)对矩阵
Figure GDA0003578822400000036
先行后列求取梯度
Figure GDA0003578822400000037
109)更新网络权重
Figure GDA0003578822400000038
将更新后的W′替换步骤104)中的W;
110)重复步骤104)~109),直至矩阵
Figure GDA0003578822400000039
的1范数收敛,此时的W即为最优的特征提取矩阵。
进一步的,步骤110)中的矩阵
Figure GDA0003578822400000041
的1范数为
Figure GDA0003578822400000042
当其取得最小值时得到的W为最优的特征提取矩阵。
进一步的,步骤2)具体包括以下步骤:
201)在输入的图像序列或视频中,获取初始帧图像信息IR(i,j),选择待跟踪的目标R0
202)创建跟踪器T,对跟踪器进行初始化,设置搜索范围tpad、学习率tLr、模块大小ttmsz、高斯带宽σ和正则项λ;
203)以目标框中心位置为搜索框中心,R0×ttmsz为大小的区域图像,作为初始模板图像;
204)用最优特征提取矩阵W,对初始帧图像
Figure GDA0003578822400000043
卷积提取特征
Figure GDA0003578822400000044
作为初始模板特征,
Figure GDA0003578822400000045
205)生成中心对称的高斯权重窗
Figure GDA0003578822400000046
其中m、n是高斯窗大小;
206)用高斯核函数计算样本间的相关性,
Figure GDA0003578822400000047
在初始化跟踪中x'=x,exp()表示自然常数e为底的指数函数,σ表示高斯带宽,是初始化参数;
207)求解核函数矩阵在带二范数惩罚的最小二乘回归下的特征解α=(K+λI)-1y,其中I表示单位矩阵,λ表示10-5的正则项,是初始化参数,y表示以m、n为宽、高的二维高斯矩阵。
进一步的,步骤207)中,当K是循环矩阵时,
Figure GDA0003578822400000048
进一步的,步骤3)具体包括以下步骤:
301)在当前帧IR(i,j),记作t帧,Rt-1是上一帧目标位置,外扩tpad×Rt-1,测试图像
Figure GDA0003578822400000051
在上一帧目标位置的Rt-1周围外扩tpad×Rt-1×Sc,作为放大的测试图像;
在上一帧目标位置Rt-1周围外扩
Figure GDA0003578822400000052
倍,作为缩小的测试图像;
302)用最优特征提取矩阵W,对测试图像
Figure GDA0003578822400000053
提取特征
Figure GDA0003578822400000054
得到测试样本特征z;
303)计算测试样本特征z与初始模板特征x的高斯核相关Kz=C(kxz),对核相关矩阵与岭回归解α卷积运算,得到f(z)=(Kz)Tα,变换到傅里叶域,得到响应矩阵
Figure GDA0003578822400000055
响应矩阵中最大值为
Figure GDA0003578822400000056
此时响应矩阵中的位置Os=1(i,j)为相同尺度下预测目标位置;
将放大的测试图像做与测试图像
Figure GDA0003578822400000057
相同的运算,得到最大响应值
Figure GDA0003578822400000058
最大响应值在图像中的位置
Figure GDA0003578822400000059
记放大尺度下的预测目标位置;
将缩小的测试图像做与测试图像
Figure GDA00035788224000000510
相同的运算,得到最大响应值
Figure GDA00035788224000000511
最大响应值在图像中的位置
Figure GDA00035788224000000512
记缩小尺度下的预测目标位置;
304)将步骤303)得到的响应分别与其对应的缩放尺度乘积,其中最大值
Figure GDA00035788224000000513
为最终预测目标置信度Pt,其对应的尺度为预测目标缩放的尺度S,其对应的位置即为预测目标对应位置Rt
305)对预测目标对应位置Rt特征提取,以学习率tLr为频率更新训练模板特征x和特征解αt
306)重复步骤301)-步骤305),直至跟踪结束。
与现有技术相比,本发明具有以下有益效果:
本发明的一种基于卷积稀疏滤波的视觉跟踪方法,与传统的跟踪算法一般采用手动设计的特征提取方法相比,该方法基于深度学习原理,自动学习待跟踪目标的特征,从而可以利用大数据的优势,获得更稳定、更有区分力的特征,进而实现高精度、高鲁棒性的跟踪效果。同时,跟踪算法采用核相关框架,使用目标及周围区域的循环矩阵采集正负样本,利用岭回归训练目标检测器,并利用循环矩阵在傅里叶空间对角化性质,将矩阵运算转化为元素点乘,大幅度降低运算量,提高了运算速度,使算法满足实时性要求。综上,本发明基于卷积稀疏滤波跟踪方法,具有准确率高、速度快及跟踪效果稳健的特点。
附图说明
图1为本发明基于卷积稀疏滤波跟踪方法中稀疏滤波训练特征提取矩阵流程图;
图2为本发明基于卷积稀疏滤波跟踪方法中跟踪器初始化流程示意图;
图3为本发明基于卷积稀疏滤波跟踪方法中跟踪器更新目标位置流程示意图;
图4为VOT数据集上训练得到的特征;
图5为初始标注目标和利用本发明跟踪目标实际效果图,其中,a为初始标注目标,b为利用本发明跟踪目标实际效果图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面结合附图对本发明做进一步详细描述:
参见图1,图1为本发明基于卷积稀疏滤波跟踪方法中稀疏滤波训练特征提取矩阵流程图,包括以下步骤:
101)获取适合图像目标跟踪的图像数据集,可选择国际上公开的数据集,如VOT,OTB等,这里以VOT数据集为例进行说明;
102)在整个数据集n个图像序列上,在标注的目标图像内随机选择m个5×5子块图像,作为目标训练样本e={e1,e2,...en};
103)用0到样本数n之间的随机数初始化权重矩阵得到初始化之后的权重矩阵W,其维度与目标训练样本e维度相同;
104)将初始化后权值矩阵W与目标训练样本e线性运算,得到G=W·e,其中G={gi};
105)选择非线性函数
Figure GDA0003578822400000071
对y逐元素运算,得到特征矩阵F=h(g),其中F={fi,j};
106)对矩阵F行规范化得到
Figure GDA0003578822400000072
其中
Figure GDA0003578822400000073
其中|| ||1和|| ||2表示向量的1范数和2范数;
107)对矩阵
Figure GDA0003578822400000081
列规范化得到
Figure GDA0003578822400000082
其中
Figure GDA0003578822400000083
108)以上运算保证提取矩阵具有种群稀疏性、高散度性,求矩阵
Figure GDA0003578822400000084
的1范数,即
Figure GDA0003578822400000085
109)对矩阵
Figure GDA0003578822400000086
先行后列求取梯度
Figure GDA0003578822400000087
110)更新网络权重
Figure GDA0003578822400000088
将更新后的W′替换步骤104)中的W;
111)重复步骤104)~110),直到L(W)收敛,此时的W即为最优的特征提取矩阵。
参见图4,图4为VOT数据集上训练得到的特征,特征具有显著的梯度纹理信息,与其他HOG特征、Haar特征相比,是从被跟踪目标统计学习得到的特征,并不是人为设定的方法提取特征,具有更好的鉴别性和更高的准确性。
参见图2,图2为本发明基于卷积稀疏滤波跟踪方法中跟踪器初始化流程示意图,包括以下步骤:
201)获取图像信息IR(i,j),选择被跟踪的目标R0
202)创建跟踪器T,跟踪器为结构体,包括多个跟踪过程中用到的变量。对跟踪器进行初始化,设置搜索范围tpad=2.5、学习率tLr=0.85模板大小ttmsz=96,模板更新阈值0.1,线性插值因子0.012,正则化参数0.0001,高斯核带宽0.6,高斯核目标带宽0.125,等参数;
203)以目标框中心为搜索框中心,round(R0×tpad/ttmsz)×ttmsz大小创建滑动窗(round()表示向下取整),保持目标窗口比例,在初始图像中截取包含目标及周围的图像,并做缩放,与滑动窗大小保持一致,再次将目标图像缩放,与特征提取矩阵W大小一致,作为训练样本;
204)用离线训练得到的特征提取矩阵W,对训练样本图像
Figure GDA0003578822400000091
卷积提取特征
Figure GDA0003578822400000092
作为初始模板特征
Figure GDA0003578822400000093
即初始模板特征;
205)生成中标准高斯权重窗
Figure GDA0003578822400000094
(方差为1,均值为0),其中m、n是高斯窗大小,与目标窗一致;
206)计算样本间的高斯核函数相关性K=k(x,x),此时x即时训练样本又是测试样本,得到特征投影K;
207)求解核函数矩阵在岭回归下的特征解α=(K+λI)-1y,其中()-1表示逆矩阵;当K是循环矩阵时,
Figure GDA0003578822400000095
参见图3,图3为本发明基于卷积稀疏滤波跟踪方法中跟踪器更新目标位置流程示意图,包括以下步骤:
301)在当前帧IR(i,j),记作t帧,Rt-1是上一帧目标位置,外扩tpad×Rt-1,测试图像
Figure GDA0003578822400000096
在上一帧目标位置的Rt-1周围外扩tpad×Rt-1×Sc,作为放大的测试图像;
在上一帧目标位置Rt-1周围外扩
Figure GDA0003578822400000097
倍,作为缩小的测试图像;
302)用最优特征提取矩阵W,对测试图像
Figure GDA0003578822400000098
提取特征
Figure GDA0003578822400000099
得到测试样本特征z;
303)计算测试样本特征z与初始模板特征x的高斯核相关Kz=C(kxz),对核相关矩阵与岭回归解α卷积运算,得到f(z)=(Kz)Tα,变换到傅里叶域,得到响应矩阵
Figure GDA00035788224000000910
响应矩阵中最大值为
Figure GDA00035788224000000911
此时响应矩阵中的位置Os=1(i,j)为相同尺度下预测目标位置;
将放大的测试图像做与测试图像
Figure GDA00035788224000000912
相同的运算,得到最大响应值
Figure GDA00035788224000000913
最大响应值在图像中的位置
Figure GDA0003578822400000101
记放大尺度下的预测目标位置;
将缩小的测试图像做与测试图像
Figure GDA0003578822400000102
相同的运算,得到最大响应值
Figure GDA0003578822400000103
最大响应值在图像中的位置
Figure GDA0003578822400000104
记缩小尺度下的预测目标位置;
304)将步骤303)得到的响应分别与其对应的缩放尺度乘积,其中最大值
Figure GDA0003578822400000105
为最终预测目标置信度Pt,其对应的尺度为预测目标缩放的尺度S,其对应的位置即为预测目标对应位置Rt
305)对预测目标对应位置Rt特征提取,以学习率tLr为频率更新训练模板特征x和特征解αt
306)重复步骤301)-步骤305),直至跟踪结束。
参见图5,图5为初始标注目标和本发明跟踪目标实际效果图,说明利用本发明的跟踪方法能够有效的跟踪目标。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (5)

1.一种基于卷积稀疏滤波的视觉跟踪方法,其特征在于,包括以下步骤:
1)采用卷积稀疏滤波方法对目标特征提取矩阵进行离线训练,在跟踪视频序列上进行无监督特征学习,得到最优特征提取矩阵;
步骤1)具体包括步骤:
101)获取训练数据集;
102)在多组图像序列中随机选择目标矩形内的多个子块图像,将每个子块图像排列成列向量形式作为目标训练样本,记作e={e1,e2,...en};
103)用随机数初始化权值矩阵,得到初始化后的权值矩阵W={wi,j}∈Rm×n,随机数取值范围为0到样本数目之间的任意值,权值矩阵维度与目标训练样本维度相同;
104)将初始化后权值矩阵W与目标训练样本e线性运算,得到G=W·e,其中G={gi};
105)将激活函数h(g)对G逐元素运算,得到激活后的特征矩阵
Figure FDA0003578822390000011
其中,激活函数h(g)为非线性函数;
106)对激活后的特征矩阵F行规范化得到
Figure FDA0003578822390000012
其中,
Figure FDA0003578822390000013
|| ||1和|| ||2分别表示向量的1范数和2范数;
107)对矩阵
Figure FDA0003578822390000014
列规范化得到
Figure FDA0003578822390000015
其中
Figure FDA0003578822390000016
108)对矩阵
Figure FDA0003578822390000017
先行后列求取梯度
Figure FDA0003578822390000018
109)更新网络权重
Figure FDA0003578822390000019
将更新后的W′替换步骤104)中的W;
110)重复步骤104)~109),直至矩阵
Figure FDA00035788223900000110
的1范数收敛,此时的W即为最优的特征提取矩阵;
2)在线跟踪过程中初始化跟踪器,用最优特征提取矩阵卷积得到初始模板特征和岭回归解;
3)利用最优特征提取矩阵对测试图像提取特征得到的测试样本特征,利用核函数计算测试样本特征与初始模板特征的相关性,而后卷积岭回归解,得到预测目标位置,更新跟踪器,实现对目标的跟踪。
2.根据权利要求1所述的基于卷积稀疏滤波的视觉跟踪方法,其特征在于,步骤110)中的矩阵
Figure FDA0003578822390000021
的1范数为
Figure FDA0003578822390000022
当其取得最小值时得到的W为最优的特征提取矩阵。
3.根据权利要求1所述的基于卷积稀疏滤波的视觉跟踪方法,其特征在于,步骤2)具体包括以下步骤:
201)在输入的图像序列或视频中,获取初始帧图像信息IR(i,j),选择待跟踪的目标R0
202)创建跟踪器T,对跟踪器进行初始化,设置搜索范围tpad、学习率tLr、模块大小ttmsz、高斯带宽σ和正则项λ;
203)以目标框中心位置为搜索框中心,R0×ttmsz为大小的区域图像,作为初始模板图像;
204)用最优特征提取矩阵W,对初始帧图像
Figure FDA0003578822390000023
卷积提取特征
Figure FDA0003578822390000024
作为初始模板特征,
Figure FDA0003578822390000025
205)生成中心对称的高斯权重窗
Figure FDA0003578822390000026
其中m、n是高斯窗大小;
206)用高斯核函数计算样本间的相关性,
Figure FDA0003578822390000027
在初始化跟踪中x'=x,exp()表示自然常数e为底的指数函数,σ表示高斯带宽,是初始化参数;
207)求解核函数矩阵在带二范数惩罚的最小二乘回归下的特征解α=(K+λI)-1y,其中I表示单位矩阵,λ表示10-5的正则项,是初始化参数,y表示以m、n为宽、高的二维高斯矩阵。
4.根据权利要求3所述的基于卷积稀疏滤波的视觉跟踪方法,其特征在于,步骤207)中,当K是循环矩阵时,
Figure FDA0003578822390000031
5.根据权利要求3或4所述的基于卷积稀疏滤波的视觉跟踪方法,其特征在于,步骤3)具体包括以下步骤:
301)在当前帧IR(i,j),记作t帧,Rt-1是上一帧目标位置,外扩tpad×Rt-1,测试图像
Figure FDA0003578822390000032
在上一帧目标位置的Rt-1周围外扩tpad×Rt-1×Sc,作为放大的测试图像;
在上一帧目标位置Rt-1周围外扩
Figure FDA0003578822390000033
倍,作为缩小的测试图像;
302)用最优特征提取矩阵W,对测试图像
Figure FDA0003578822390000034
提取特征
Figure FDA0003578822390000035
得到测试样本特征z;
303)计算测试样本特征z与初始模板特征x的高斯核相关Kz=C(kxz),对核相关矩阵与岭回归解α卷积运算,得到f(z)=(Kz)Tα,变换到傅里叶域,得到响应矩阵
Figure FDA0003578822390000036
响应矩阵中最大值为
Figure FDA0003578822390000037
此时响应矩阵中的位置Os=1(i,j)为相同尺度下预测目标位置;
将放大的测试图像做与测试图像
Figure FDA0003578822390000038
相同的运算,得到最大响应值
Figure FDA0003578822390000039
最大响应值在图像中的位置
Figure FDA00035788223900000310
记放大尺度下的预测目标位置;
将缩小的测试图像做与测试图像
Figure FDA00035788223900000311
相同的运算,得到最大响应值
Figure FDA00035788223900000312
最大响应值在图像中的位置
Figure FDA0003578822390000041
记缩小尺度下的预测目标位置;
304)将步骤303)得到的响应分别与其对应的缩放尺度乘积,其中最大值
Figure FDA0003578822390000042
为最终预测目标置信度Pt,其对应的尺度为预测目标缩放的尺度S,其对应的位置即为预测目标对应位置Rt
305)对预测目标对应位置Rt特征提取,以学习率tLr为频率更新训练模板特征x和特征解αt
306)重复步骤301)-步骤305),直至跟踪结束。
CN201910058846.3A 2019-01-22 2019-01-22 一种基于卷积稀疏滤波的视觉跟踪方法 Active CN109859244B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910058846.3A CN109859244B (zh) 2019-01-22 2019-01-22 一种基于卷积稀疏滤波的视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910058846.3A CN109859244B (zh) 2019-01-22 2019-01-22 一种基于卷积稀疏滤波的视觉跟踪方法

Publications (2)

Publication Number Publication Date
CN109859244A CN109859244A (zh) 2019-06-07
CN109859244B true CN109859244B (zh) 2022-07-08

Family

ID=66895616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910058846.3A Active CN109859244B (zh) 2019-01-22 2019-01-22 一种基于卷积稀疏滤波的视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN109859244B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111862167B (zh) * 2020-07-21 2022-05-10 厦门大学 一种基于稀疏紧凑相关滤波器的快速鲁棒目标跟踪方法
CN111815681A (zh) * 2020-09-04 2020-10-23 中国科学院自动化研究所 基于深度学习和判别式模型训练的目标跟踪方法及存储器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106887011A (zh) * 2017-01-20 2017-06-23 北京理工大学 一种基于cnn和cf的多模板目标跟踪方法
CN107145850A (zh) * 2017-04-28 2017-09-08 西安电子科技大学 一种基于稀疏滤波特征选择的目标识别方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107644217A (zh) * 2017-09-29 2018-01-30 中国科学技术大学 基于卷积神经网络和相关滤波器的目标跟踪方法
CN108734151A (zh) * 2018-06-14 2018-11-02 厦门大学 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017088050A1 (en) * 2015-11-26 2017-06-01 Sportlogiq Inc. Systems and methods for object tracking and localization in videos with adaptive image representation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106887011A (zh) * 2017-01-20 2017-06-23 北京理工大学 一种基于cnn和cf的多模板目标跟踪方法
CN107145850A (zh) * 2017-04-28 2017-09-08 西安电子科技大学 一种基于稀疏滤波特征选择的目标识别方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107644217A (zh) * 2017-09-29 2018-01-30 中国科学技术大学 基于卷积神经网络和相关滤波器的目标跟踪方法
CN108734151A (zh) * 2018-06-14 2018-11-02 厦门大学 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Fusing Crowd Density Maps and Visual Object Trackers for People Tracking in;Weihong Ren等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;第5353-5362页 *
Learning Multi-Domain Convolutional Neural Networks for Visual Tracking;Hyeonseob Nam等;《2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20161212;第4293-4302页 *
Learning to Track at 100 FPS with Deep;David Held等;《Computer Vision-ECCV 2016》;20160917;第9905卷;第749-765页 *

Also Published As

Publication number Publication date
CN109859244A (zh) 2019-06-07

Similar Documents

Publication Publication Date Title
Sun et al. Fast and latent low-rank subspace clustering for hyperspectral band selection
Zhang et al. Age progression/regression by conditional adversarial autoencoder
CN109345508B (zh) 一种基于两阶段神经网络的骨龄评价方法
CN105095862B (zh) 一种基于深度卷积条件随机场的人体动作识别方法
CN108537102B (zh) 基于稀疏特征与条件随机场的高分辨sar图像分类方法
CN112348849B (zh) 一种孪生网络视频目标跟踪方法及装置
CN108038435B (zh) 一种基于卷积神经网络的特征提取与目标跟踪方法
CN105868769A (zh) 图像中的人脸关键点定位方法及装置
CN112016682B (zh) 视频表征学习、预训练方法及装置、电子设备、存储介质
CN106204597B (zh) 一种基于自步式弱监督学习的视频物体分割方法
CN103425996A (zh) 一种并行分布式的大规模图像识别方法
CN114092699B (zh) 基于迁移学习的群猪图像分割的方法及系统
CN110188654A (zh) 一种基于移动未裁剪网络的视频行为识别方法
CN109859244B (zh) 一种基于卷积稀疏滤波的视觉跟踪方法
CN106157330A (zh) 一种基于目标联合外观模型的视觉跟踪方法
CN112861718A (zh) 一种轻量级特征融合人群计数方法及系统
CN113111716A (zh) 一种基于深度学习的遥感影像半自动标注方法和装置
CN114299279B (zh) 基于脸部检测和识别的无标记群体恒河猴运动量估计方法
CN117253122A (zh) 玉米种子近似品种筛选方法、装置、设备及存储介质
Firouznia et al. Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking
Xiao et al. Self-explanatory deep salient object detection
CN109492530B (zh) 基于深度多尺度时空特征的健壮性视觉物体跟踪方法
CN116311472A (zh) 基于多层次图卷积网络的微表情识别方法及装置
CN115908923A (zh) 基于注意力引导3d神经网络的脑部磁共振图像分类系统
CN111914751B (zh) 一种图像人群密度识别检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant