CN109859244B - 一种基于卷积稀疏滤波的视觉跟踪方法 - Google Patents
一种基于卷积稀疏滤波的视觉跟踪方法 Download PDFInfo
- Publication number
- CN109859244B CN109859244B CN201910058846.3A CN201910058846A CN109859244B CN 109859244 B CN109859244 B CN 109859244B CN 201910058846 A CN201910058846 A CN 201910058846A CN 109859244 B CN109859244 B CN 109859244B
- Authority
- CN
- China
- Prior art keywords
- matrix
- target
- tracking
- convolution
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000001914 filtration Methods 0.000 title claims abstract description 28
- 230000000007 visual effect Effects 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 31
- 239000011159 matrix material Substances 0.000 claims description 79
- 238000012360 testing method Methods 0.000 claims description 36
- 230000004044 response Effects 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000012886 linear function Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 12
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 125000004122 cyclic group Chemical group 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积稀疏滤波的视觉跟踪方法,包括以下步骤:1)采用卷积稀疏滤波方法进行离线训练,在跟踪视频序列上进行无监督特征学习,以得到一组卷积核;2)以此卷积核组成卷积神经网络进行在线跟踪,从而对输入图像进行特征提取;3)结合核化相关滤波跟踪框架,实现对目标的跟踪。发明的基于卷积稀疏滤波的视觉跟踪方法,该方法基于深度学习原理,自动学习待跟踪目标的特征,从而可以利用大数据的优势,获得更稳定、更有区分力的特征,进而实现高精度、高鲁棒性的跟踪效果。本发明基于卷积稀疏滤波跟踪方法,具有准确率高、速度快及跟踪效果稳健的特点。
Description
技术领域
本发明属于视觉跟踪技术领域,尤其是一种基于卷积稀疏滤波的视觉跟踪方法。
背景技术
视觉跟踪是计算机视觉研究领域中的热点,有着广泛的应用。而跟踪技术对运算速度的要求很高,无法达到实时即意味着难以实用。目前跟踪效果最好的方法均为基于深度学习的方法。其中效果最好的跟踪算法是韩国浦项工科大学的Hyeonseob Nam和BohyungHan提出的MDNet,该方法基于卷积神经网络(CNN)的多域学习框架,将域无关信息从特定域信息中分离出来,以获取有效的表示。首次实现了直接使用视频序列作为训练数据。此外,他们还将难样本挖掘技术整合进在线学习中,成为提升该算法性能的一个关键。但由于在跟踪过程中还需要利用跟踪时的数据对模型进行fine-tune训练,导致该算法速度很慢。在普通PC机上处理1帧就需要3~5秒,难以实用。另外,他们的目标位置预测是通过随机裁框,对这些框进行分类,最后再对分类出的框进行框回归(bounding box regression)以得到精确的目标位置。该策略显然不是目标位置预测的最优策略,且同样运算速度较慢。因此,为将此类高性能算法实用化,可以从两个方面进行改进:一是仅离线训练,跟踪过程中只进行预测,避免运算量巨大的训练部分,从而提高跟踪速度;另一方面是直接采用框回归以得到目标的位置。
根据此思路,斯坦福大学的David Held等人提出了一种叫做GOTURN的跟踪算法。他们的模型仅进行离线训练,在跟踪过程中不进行训练,并且他们的目标位置预测是通过bounding box regression直接得到,这些做法大大提高了算法速度。他们报告该算法可达到100fps,但这些措施了降低了算法的跟踪性能,根据他们报告的跟踪效果,其跟踪性能与传统的DSST,SAMF,KCF算法近似。而且,其报告的速度是在GPU平台上得到的,如该算法在Titan X GPU上可以达到165fps,在GTX 680GPU上可以达到100fps,但在cpu上只能达到2.7fps,同样难以实用。从现有算法的分析可以看出,基于深度学习的方法采用跟踪视频序列进行训练,获取了数据的有效表示,从而得到了较好的跟踪效果,但较深的网络深度带来了大的计算量,难以满足实时跟踪的效果,使得此类算法难以在工程实践中应用。
在视觉系统目标跟踪时,要求跟踪实时性强,并且跟踪结果精度高,鲁棒性强,所以如何在保证跟踪实时性的前提下,提高跟踪的精度和鲁棒性是一个非常亟待解决的问题。
发明内容
本发明的目的在于克服上述现有技术的缺点,提供一种基于卷积稀疏滤波的视觉跟踪方法。
为达到上述目的,本发明采用以下技术方案予以实现:
一种基于卷积稀疏滤波的视觉跟踪方法,包括以下步骤:
1)采用卷积稀疏滤波方法对目标特征提取矩阵进行离线训练,在跟踪视频序列上进行无监督特征学习,得到最优特征提取矩阵;
2)在线跟踪过程中初始化跟踪器,用最优特征提取矩阵卷积得到初始模板特征和岭回归解;
3)利用最优特征提取矩阵对测试图像提取特征得到的测试样本特征,利用核函数计算测试样本特征与初始模板特征的相关性,而后卷积岭回归解,得到预测目标位置,更新跟踪器,实现对目标的跟踪。
进一步的,步骤1)具体包括步骤:
101)获取训练数据集;
102)在多组图像序列中随机选择目标矩形内的多个子块图像,将每个子块图像排列成列向量形式作为目标训练样本,记作e={e1,e2,...en};
103)用随机数初始化权值矩阵,得到初始化后的权值矩阵W={wi,j}∈Rm×n,随机数取值范围为0到样本数目之间的任意值,权值矩阵维度与目标训练样本维度相同;
104)将初始化后权值矩阵W与目标训练样本e线性运算,得到G=W·e,其中G={gi};
105)将激活函数h(g)对G逐元素运算,得到激活后的特征矩阵F={fj (i)}∈Rm,其中,激活函数h(g)为非线性函数;
进一步的,步骤2)具体包括以下步骤:
201)在输入的图像序列或视频中,获取初始帧图像信息IR(i,j),选择待跟踪的目标R0;
202)创建跟踪器T,对跟踪器进行初始化,设置搜索范围tpad、学习率tLr、模块大小ttmsz、高斯带宽σ和正则项λ;
203)以目标框中心位置为搜索框中心,R0×ttmsz为大小的区域图像,作为初始模板图像;
207)求解核函数矩阵在带二范数惩罚的最小二乘回归下的特征解α=(K+λI)-1y,其中I表示单位矩阵,λ表示10-5的正则项,是初始化参数,y表示以m、n为宽、高的二维高斯矩阵。
进一步的,步骤3)具体包括以下步骤:
在上一帧目标位置的Rt-1周围外扩tpad×Rt-1×Sc,作为放大的测试图像;
303)计算测试样本特征z与初始模板特征x的高斯核相关Kz=C(kxz),对核相关矩阵与岭回归解α卷积运算,得到f(z)=(Kz)Tα,变换到傅里叶域,得到响应矩阵响应矩阵中最大值为此时响应矩阵中的位置Os=1(i,j)为相同尺度下预测目标位置;
305)对预测目标对应位置Rt特征提取,以学习率tLr为频率更新训练模板特征x和特征解αt;
306)重复步骤301)-步骤305),直至跟踪结束。
与现有技术相比,本发明具有以下有益效果:
本发明的一种基于卷积稀疏滤波的视觉跟踪方法,与传统的跟踪算法一般采用手动设计的特征提取方法相比,该方法基于深度学习原理,自动学习待跟踪目标的特征,从而可以利用大数据的优势,获得更稳定、更有区分力的特征,进而实现高精度、高鲁棒性的跟踪效果。同时,跟踪算法采用核相关框架,使用目标及周围区域的循环矩阵采集正负样本,利用岭回归训练目标检测器,并利用循环矩阵在傅里叶空间对角化性质,将矩阵运算转化为元素点乘,大幅度降低运算量,提高了运算速度,使算法满足实时性要求。综上,本发明基于卷积稀疏滤波跟踪方法,具有准确率高、速度快及跟踪效果稳健的特点。
附图说明
图1为本发明基于卷积稀疏滤波跟踪方法中稀疏滤波训练特征提取矩阵流程图;
图2为本发明基于卷积稀疏滤波跟踪方法中跟踪器初始化流程示意图;
图3为本发明基于卷积稀疏滤波跟踪方法中跟踪器更新目标位置流程示意图;
图4为VOT数据集上训练得到的特征;
图5为初始标注目标和利用本发明跟踪目标实际效果图,其中,a为初始标注目标,b为利用本发明跟踪目标实际效果图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面结合附图对本发明做进一步详细描述:
参见图1,图1为本发明基于卷积稀疏滤波跟踪方法中稀疏滤波训练特征提取矩阵流程图,包括以下步骤:
101)获取适合图像目标跟踪的图像数据集,可选择国际上公开的数据集,如VOT,OTB等,这里以VOT数据集为例进行说明;
102)在整个数据集n个图像序列上,在标注的目标图像内随机选择m个5×5子块图像,作为目标训练样本e={e1,e2,...en};
103)用0到样本数n之间的随机数初始化权重矩阵得到初始化之后的权重矩阵W,其维度与目标训练样本e维度相同;
104)将初始化后权值矩阵W与目标训练样本e线性运算,得到G=W·e,其中G={gi};
111)重复步骤104)~110),直到L(W)收敛,此时的W即为最优的特征提取矩阵。
参见图4,图4为VOT数据集上训练得到的特征,特征具有显著的梯度纹理信息,与其他HOG特征、Haar特征相比,是从被跟踪目标统计学习得到的特征,并不是人为设定的方法提取特征,具有更好的鉴别性和更高的准确性。
参见图2,图2为本发明基于卷积稀疏滤波跟踪方法中跟踪器初始化流程示意图,包括以下步骤:
201)获取图像信息IR(i,j),选择被跟踪的目标R0;
202)创建跟踪器T,跟踪器为结构体,包括多个跟踪过程中用到的变量。对跟踪器进行初始化,设置搜索范围tpad=2.5、学习率tLr=0.85模板大小ttmsz=96,模板更新阈值0.1,线性插值因子0.012,正则化参数0.0001,高斯核带宽0.6,高斯核目标带宽0.125,等参数;
203)以目标框中心为搜索框中心,round(R0×tpad/ttmsz)×ttmsz大小创建滑动窗(round()表示向下取整),保持目标窗口比例,在初始图像中截取包含目标及周围的图像,并做缩放,与滑动窗大小保持一致,再次将目标图像缩放,与特征提取矩阵W大小一致,作为训练样本;
206)计算样本间的高斯核函数相关性K=k(x,x),此时x即时训练样本又是测试样本,得到特征投影K;
参见图3,图3为本发明基于卷积稀疏滤波跟踪方法中跟踪器更新目标位置流程示意图,包括以下步骤:
在上一帧目标位置的Rt-1周围外扩tpad×Rt-1×Sc,作为放大的测试图像;
303)计算测试样本特征z与初始模板特征x的高斯核相关Kz=C(kxz),对核相关矩阵与岭回归解α卷积运算,得到f(z)=(Kz)Tα,变换到傅里叶域,得到响应矩阵响应矩阵中最大值为此时响应矩阵中的位置Os=1(i,j)为相同尺度下预测目标位置;
305)对预测目标对应位置Rt特征提取,以学习率tLr为频率更新训练模板特征x和特征解αt;
306)重复步骤301)-步骤305),直至跟踪结束。
参见图5,图5为初始标注目标和本发明跟踪目标实际效果图,说明利用本发明的跟踪方法能够有效的跟踪目标。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (5)
1.一种基于卷积稀疏滤波的视觉跟踪方法,其特征在于,包括以下步骤:
1)采用卷积稀疏滤波方法对目标特征提取矩阵进行离线训练,在跟踪视频序列上进行无监督特征学习,得到最优特征提取矩阵;
步骤1)具体包括步骤:
101)获取训练数据集;
102)在多组图像序列中随机选择目标矩形内的多个子块图像,将每个子块图像排列成列向量形式作为目标训练样本,记作e={e1,e2,...en};
103)用随机数初始化权值矩阵,得到初始化后的权值矩阵W={wi,j}∈Rm×n,随机数取值范围为0到样本数目之间的任意值,权值矩阵维度与目标训练样本维度相同;
104)将初始化后权值矩阵W与目标训练样本e线性运算,得到G=W·e,其中G={gi};
2)在线跟踪过程中初始化跟踪器,用最优特征提取矩阵卷积得到初始模板特征和岭回归解;
3)利用最优特征提取矩阵对测试图像提取特征得到的测试样本特征,利用核函数计算测试样本特征与初始模板特征的相关性,而后卷积岭回归解,得到预测目标位置,更新跟踪器,实现对目标的跟踪。
3.根据权利要求1所述的基于卷积稀疏滤波的视觉跟踪方法,其特征在于,步骤2)具体包括以下步骤:
201)在输入的图像序列或视频中,获取初始帧图像信息IR(i,j),选择待跟踪的目标R0;
202)创建跟踪器T,对跟踪器进行初始化,设置搜索范围tpad、学习率tLr、模块大小ttmsz、高斯带宽σ和正则项λ;
203)以目标框中心位置为搜索框中心,R0×ttmsz为大小的区域图像,作为初始模板图像;
207)求解核函数矩阵在带二范数惩罚的最小二乘回归下的特征解α=(K+λI)-1y,其中I表示单位矩阵,λ表示10-5的正则项,是初始化参数,y表示以m、n为宽、高的二维高斯矩阵。
5.根据权利要求3或4所述的基于卷积稀疏滤波的视觉跟踪方法,其特征在于,步骤3)具体包括以下步骤:
在上一帧目标位置的Rt-1周围外扩tpad×Rt-1×Sc,作为放大的测试图像;
303)计算测试样本特征z与初始模板特征x的高斯核相关Kz=C(kxz),对核相关矩阵与岭回归解α卷积运算,得到f(z)=(Kz)Tα,变换到傅里叶域,得到响应矩阵响应矩阵中最大值为此时响应矩阵中的位置Os=1(i,j)为相同尺度下预测目标位置;
305)对预测目标对应位置Rt特征提取,以学习率tLr为频率更新训练模板特征x和特征解αt;
306)重复步骤301)-步骤305),直至跟踪结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910058846.3A CN109859244B (zh) | 2019-01-22 | 2019-01-22 | 一种基于卷积稀疏滤波的视觉跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910058846.3A CN109859244B (zh) | 2019-01-22 | 2019-01-22 | 一种基于卷积稀疏滤波的视觉跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109859244A CN109859244A (zh) | 2019-06-07 |
CN109859244B true CN109859244B (zh) | 2022-07-08 |
Family
ID=66895616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910058846.3A Active CN109859244B (zh) | 2019-01-22 | 2019-01-22 | 一种基于卷积稀疏滤波的视觉跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109859244B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862167B (zh) * | 2020-07-21 | 2022-05-10 | 厦门大学 | 一种基于稀疏紧凑相关滤波器的快速鲁棒目标跟踪方法 |
CN111815681A (zh) * | 2020-09-04 | 2020-10-23 | 中国科学院自动化研究所 | 基于深度学习和判别式模型训练的目标跟踪方法及存储器 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
CN107145850A (zh) * | 2017-04-28 | 2017-09-08 | 西安电子科技大学 | 一种基于稀疏滤波特征选择的目标识别方法 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107644217A (zh) * | 2017-09-29 | 2018-01-30 | 中国科学技术大学 | 基于卷积神经网络和相关滤波器的目标跟踪方法 |
CN108734151A (zh) * | 2018-06-14 | 2018-11-02 | 厦门大学 | 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017088050A1 (en) * | 2015-11-26 | 2017-06-01 | Sportlogiq Inc. | Systems and methods for object tracking and localization in videos with adaptive image representation |
-
2019
- 2019-01-22 CN CN201910058846.3A patent/CN109859244B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
CN107145850A (zh) * | 2017-04-28 | 2017-09-08 | 西安电子科技大学 | 一种基于稀疏滤波特征选择的目标识别方法 |
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107644217A (zh) * | 2017-09-29 | 2018-01-30 | 中国科学技术大学 | 基于卷积神经网络和相关滤波器的目标跟踪方法 |
CN108734151A (zh) * | 2018-06-14 | 2018-11-02 | 厦门大学 | 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
Fusing Crowd Density Maps and Visual Object Trackers for People Tracking in;Weihong Ren等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;第5353-5362页 * |
Learning Multi-Domain Convolutional Neural Networks for Visual Tracking;Hyeonseob Nam等;《2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20161212;第4293-4302页 * |
Learning to Track at 100 FPS with Deep;David Held等;《Computer Vision-ECCV 2016》;20160917;第9905卷;第749-765页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109859244A (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | Fast and latent low-rank subspace clustering for hyperspectral band selection | |
Zhang et al. | Age progression/regression by conditional adversarial autoencoder | |
CN109345508B (zh) | 一种基于两阶段神经网络的骨龄评价方法 | |
CN105095862B (zh) | 一种基于深度卷积条件随机场的人体动作识别方法 | |
CN108537102B (zh) | 基于稀疏特征与条件随机场的高分辨sar图像分类方法 | |
CN112348849B (zh) | 一种孪生网络视频目标跟踪方法及装置 | |
CN108038435B (zh) | 一种基于卷积神经网络的特征提取与目标跟踪方法 | |
CN105868769A (zh) | 图像中的人脸关键点定位方法及装置 | |
CN112016682B (zh) | 视频表征学习、预训练方法及装置、电子设备、存储介质 | |
CN106204597B (zh) | 一种基于自步式弱监督学习的视频物体分割方法 | |
CN103425996A (zh) | 一种并行分布式的大规模图像识别方法 | |
CN114092699B (zh) | 基于迁移学习的群猪图像分割的方法及系统 | |
CN110188654A (zh) | 一种基于移动未裁剪网络的视频行为识别方法 | |
CN109859244B (zh) | 一种基于卷积稀疏滤波的视觉跟踪方法 | |
CN106157330A (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN112861718A (zh) | 一种轻量级特征融合人群计数方法及系统 | |
CN113111716A (zh) | 一种基于深度学习的遥感影像半自动标注方法和装置 | |
CN114299279B (zh) | 基于脸部检测和识别的无标记群体恒河猴运动量估计方法 | |
CN117253122A (zh) | 玉米种子近似品种筛选方法、装置、设备及存储介质 | |
Firouznia et al. | Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking | |
Xiao et al. | Self-explanatory deep salient object detection | |
CN109492530B (zh) | 基于深度多尺度时空特征的健壮性视觉物体跟踪方法 | |
CN116311472A (zh) | 基于多层次图卷积网络的微表情识别方法及装置 | |
CN115908923A (zh) | 基于注意力引导3d神经网络的脑部磁共振图像分类系统 | |
CN111914751B (zh) | 一种图像人群密度识别检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |