CN103886325B - 一种分块的循环矩阵视频跟踪方法 - Google Patents

一种分块的循环矩阵视频跟踪方法 Download PDF

Info

Publication number
CN103886325B
CN103886325B CN201410054635.XA CN201410054635A CN103886325B CN 103886325 B CN103886325 B CN 103886325B CN 201410054635 A CN201410054635 A CN 201410054635A CN 103886325 B CN103886325 B CN 103886325B
Authority
CN
China
Prior art keywords
sub
goal
target
image block
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410054635.XA
Other languages
English (en)
Other versions
CN103886325A (zh
Inventor
于慧敏
曾雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201410054635.XA priority Critical patent/CN103886325B/zh
Publication of CN103886325A publication Critical patent/CN103886325A/zh
Application granted granted Critical
Publication of CN103886325B publication Critical patent/CN103886325B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开一种分块的循环矩阵视频跟踪方法,包括以下步骤:首先,将目标分成个相同大小的子目标,并对每个子目标进行加余弦窗预处理;然后,分别对每个子目标进行循环矩阵跟踪,得到每个子目标的跟踪结果,并计算该结果的置信度;最终,融合这些子目标跟踪结果和置信度,得到目标的真实位置。本发明利用分治的思想,将目标进行分块处理,对每个子目标分别进行循环矩阵跟踪,充分利用了目标和背景的空间分布信息,提高了视频跟踪算法的鲁棒性。本发明能够对复杂场景视频进行鲁棒跟踪,有效的处理目标尺度变化、严重遮挡、目标快速变化和3D旋转等情况。此外,本发明的跟踪速度快,其视频处理速度可达到几十帧每秒,完全满足实时要求。

Description

一种分块的循环矩阵视频跟踪方法
技术领域
本发明属于计算机视觉与模式识别领域,涉及一种对视频目标进行跟踪的方法。
背景技术
目标跟踪是计算机视觉领域的一个极具有挑战性的研究课题,在智能视频监控、增强现实、手势识别以及自动驾驶等方面具有广泛的应用前景。高效的目标跟踪算法需要解决跟踪过程中的目标尺度变化、光照变化、部分遮挡、相机旋转和目标快速变化等问题,近二十年来,人们提出了许多算法,其中,基于在线学习的方法是目标视频跟踪领域的主流方法。
基于在线学习的算法主要可以分为两类:基于生成模型的目标跟踪算法和基于判别模型的目标跟踪算法。基于生成模型的跟踪算法首先学习一个目标表现模型,然后在每帧图像上搜索与该模型最相似的目标。基于判别模型的跟踪算法将目标跟踪问题看作是一个二元分类问题,通过在线学习一个分类器将目标和背景分开。
基于判别模型的跟踪算法需要提取大量正负样本,并在线或离线训练分类器,计算量很大,仅适合用于对跟踪的实时性要求不高的场合。因此,Henriques等人提出了一种非常快速的跟踪算法,即循环矩阵跟踪算法,该算法的跟踪速度可达几百帧每秒。虽然循环矩阵跟踪算法也是基于判别模型的视频跟踪算法,但是,它与其他分类器跟踪算法有很大的不同。基于判别模型的跟踪算法一般采用稀疏随机采样的方式提取正负训练样本,而循环矩阵跟踪算法则采用密集采样的方式提取正负样本。稀疏采样忽略了样本之间的内在结构,而且样本存在很多重叠,使得训练数据有很大的冗余。如果采用密集采样的话,提取图像块的过程会产生一个循环矩阵,该矩阵能够与傅里叶分析联系起来。利用快速傅里叶变换,能够快速的学习分类器,极大的提高视频跟踪速度。
循环矩阵跟踪算法计算量小,目标定位精度高,在很多情况下都能实现稳定的跟踪。然而,当目标快速变化、尺度变化和严重遮挡这些情况同时发生时,循环矩阵跟踪算法容易丢失目标。因为循环矩阵跟踪算法仅提取目标本身及其周围的背景信息,而忽略了图像中的其他大部分背景信息,当遇到跟踪场景非常复杂的情况时,跟踪出现漂移,甚至失败。
发明内容
本发明的目的是克服现有技术的不足,提供一种分块的循环矩阵视频跟踪方法。
分块的循环矩阵视频跟踪方法包含以下步骤:
1)用一个矩形图像像素集来表示目标O,目标O大小为h×w,将目标O分成3×3个相同大小的子目标,并对每个子目标进行加余弦窗预处理;
2)对每个子目标进行循环矩阵跟踪,得到每个子目标的跟踪结果;
3)按如下公式更新每个子目标跟踪结果的置信度,
C t i = λ w C t - 1 i + ( 1 - λ w ) C ^ t i
式中,λw是滤波系数,取值在0至1之间,是在当前帧中,子目标i的估计权值,是在前一帧中,子目标i的估计权值,更新全部子目标的置信度之后,进行归一化处理;
4)根据每个子目标的跟踪结果和置信度,计算目标的真实位置(xt,yt),
x t = Σ i = 1 N C t i x t i
y t = Σ i = 1 N C t i y t i .
所述的步骤1)为:
(1)将目标O分成3×3个相同大小的子目标,用表示分块之后的目标模板,其中,N=9,表示子目标i的在第t帧的位置,是子目标i的估计权值,它表示子目标i跟踪结果的可信程度,称作置信度,满足条件:
(2)将目标O分块之后,对每个子目标,选取一个包含该子目标的图像块进行加余弦窗预处理,图像块的大小为{h/3,w/3}×(1+β),其中,β是一个常数,取值为1,对该图像块进行加余弦窗预处理的公式为:
x ij = ( x ij raw - 0.5 ) sin ( πi / n ) sin ( πj / n ) , ∀ i , j = 0 , . . . , n - 1 .
式中,为图像块中坐标(i,j)处的原像素值,xij为对图像块进行预处理之后的像素值,图像块大小为n×n。
所述的步骤2)中,对每个子目标进行循环矩阵跟踪的具体方法如下:
(1)计算训练样本标记矩阵y的初始值,其中,训练样本标记矩阵y的元素yij为:
y ij = exp ( - ( ( i - i ′ ) 2 + ( j - j ′ ) 2 ) / s 2 ) , ∀ i , j = 0 , . . . , n - 1
式中,s为带宽,(i′,j′)为该子目标初始位置的中心坐标;
(2)以前一帧图像的目标位置为中心,在当前帧图像中截取一个图像块x,图像块x的大小为该子目标大小的(1+β′)倍,β′为一个常数,然后计算图像块x的高斯核函数矩阵κ(x,z),公式为:
k=exp(-1/σ2(‖x‖2+‖z‖2-2F-1(F(x)⊙F*(z))))
式中,z是前一帧图像中包含该子目标并具有循环结构的图像块,F和F-1分别为傅里叶变换和逆变换,利用快速傅里叶变换进行运算,⊙是对应项相乘,*表示复共轭,σ=0.2,如果当前帧图像为视频的第1帧图像,则有z=x;
(3)计算核正则化最小二乘分类器的α值,
α = F - 1 ( F ( y ) F ( k ) + λ )
式中,λ为正则化参数,y为训练样本标记矩阵,k为高斯核函数矩阵;
(4)通过滑动窗口的方式得到图像块x的所有子窗口,循环矩阵跟踪算法利用高斯核函数的循环结构同时计算所有子窗口的响应
响应最大的子窗口即为该子目标的真实位置;
(5)根据当前帧中该子目标的真实位置,更新α和z,
α=(1-ξ)α+ξα′
z=(1-ξ)z+ξz′
其中,α和z是前一帧的值,α′和z′当前帧的值,ξ为线性插值系数;
(6)读入下一帧图像,跳转到步骤(2)处进行下一帧处理。
所述的步骤3)中的的估算公式为:
C ^ t i = η t i 1 1 + e λ D ( mdst ( L t i , L t j ) - T D )
式中,是所有子窗口的响应;表示该子目标的位置同其他子目标位置的欧氏距离的均值;λD是一个常数,取值为0.25,TD是一个常数,取值在20至50之间。
本发明的有益效果是:
1)提出了一种分块的循环矩阵视频跟踪方法,该方法利用分治的思想,将目标进行分块处理,对每个子目标分别进行循环矩阵跟踪,充分利用了目标和背景的空间分布信息,提高了视频跟踪算法的鲁棒性。
2)本发明能够对复杂场景视频进行鲁棒跟踪,能够有效处理目标尺度变化、严重遮挡、目标快速变化和3D旋转等情况。
3)本发明比循环矩阵跟踪算法更加鲁棒,在跟踪过程中,当同时遇到目标姿态快速变化、尺度变化和严重遮挡等复杂的情况时,循环矩阵跟踪算法容易丢失目标,而本发明则保持着良好的鲁棒性。
4)本发明的跟踪速度很快,其视频处理速度可达到几十帧每秒,完全满足实时要求。
附图说明
图1(a)为本发明的目标分块示意图;
图1(b)为本发明的目标初始置信度;
图2为分块的循环矩阵视频跟踪方法流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。
本发明提出了一种分块的循环矩阵视频跟踪方法。本发明利用分治思想,采用将目标分块的方式进行跟踪,充分利用了目标的空间分布信息,提高了目标跟踪的鲁棒性。本算法首先将目标分成3×3个子目标,然后分别对每个子目标进行循环矩阵跟踪,对于每个子目标的跟踪结果,赋予不同的置信度,最后,根据这些子目标跟踪结果及置信度得到目标的真实位置。
如图1和图2所示,分块的循环矩阵视频跟踪方法包含以下步骤:
1)用一个矩形图像像素集来表示目标O,目标O大小为h×w,将目标O分成3×3个相同大小的子目标,并对每个子目标进行加余弦窗预处理;
2)对每个子目标进行循环矩阵跟踪,得到每个子目标的跟踪结果;
3)按如下公式更新每个子目标跟踪结果的置信度,
C t i = λ w C t - 1 i + ( 1 - λ w ) C ^ t i
式中,λw是滤波系数,取值在0至1之间,是在当前帧中,子目标i的估计权值,是在前一帧中,子目标i的估计权值,更新全部子目标的置信度之后,进行归一化处理;
4)根据每个子目标的跟踪结果和置信度,计算目标的真实位置(xt,yt),
x t = Σ i = 1 N C t i x t i
y t = Σ i = 1 N C t i y t i .
所述的步骤1)为:
(1)将目标O分成3×3个相同大小的子目标,用表示分块之后的目标模板,其中,N=9,表示子目标i的在第t帧的位置,是子目标i的估计权值,它表示子目标i跟踪结果的可信程度,称作置信度,满足条件:
(2)将目标O分块之后,对每个子目标,选取一个包含该子目标的图像块进行加余弦窗预处理,图像块的大小为{h/3,w/3}×(1+β),其中,β是一个常数,取值为1,对该图像块进行加余弦窗预处理的公式为:
x ij = ( x ij raw - 0.5 ) sin ( πi / n ) sin ( πj / n ) , ∀ i , j = 0 , . . . , n - 1 .
式中,为图像块中坐标(i,j)处的原像素值,xij为对图像块进行预处理之后的像素值,图像块大小为n×n。
所述的步骤2)中,对每个子目标进行循环矩阵跟踪的具体方法如下:
(1)计算训练样本标记矩阵y的初始值,其中,训练样本标记矩阵y的元素yij为:
y ij = exp ( - ( ( i - i ′ ) 2 + ( j - j ′ ) 2 ) / s 2 ) , ∀ i , j = 0 , . . . , n - 1
式中,s为带宽,(i′,j′)为该子目标初始位置的中心坐标;
(2)以前一帧图像的目标位置为中心,在当前帧图像中截取一个图像块x,图像块x的大小为该子目标大小的(1+β′)倍,β′为一个常数,然后计算图像块x的高斯核函数矩阵κ(x,z),公式为:
k=exp(-1/σ2(‖x‖2+‖z‖2-2F-1(F(x)⊙F*(z))))
式中,z是前一帧图像中包含该子目标并具有循环结构的图像块,F和F-1分别为傅里叶变换和逆变换,利用快速傅里叶变换进行运算,⊙是对应项相乘,*表示复共轭,σ=0.2,如果当前帧图像为视频的第1帧图像,则有z=x;
(3)计算核正则化最小二乘分类器的α值,
α = F - 1 ( F ( y ) F ( k ) + λ )
式中,λ为正则化参数,y为训练样本标记矩阵,k为高斯核函数矩阵;
(4)通过滑动窗口的方式得到图像块x的所有子窗口,循环矩阵跟踪算法利用高斯核函数的循环结构同时计算所有子窗口的响应
响应最大的子窗口即为该子目标的真实位置;
(5)根据当前帧中该子目标的真实位置,更新α和z,
α=(1-ξ)α+ξα′
z=(1-ξ)z+ξz′
其中,α和z是前一帧的值,α′和z′当前帧的值,ξ为线性插值系数;
(6)读入下一帧图像,跳转到步骤(2)处进行下一帧处理。
所述的步骤3)中的的估算公式为:
C ^ t i = η t i 1 1 + e λ D ( mdst ( L t i , L t j ) - T D )
式中,是所有子窗口的响应;表示该子目标的位置同其他子目标位置的欧氏距离的均值;λD是一个常数,取值为0.25,TD是一个常数,取值在20至50之间。
实施例1
一种分块的循环矩阵跟踪方法,包括以下步骤:
1)读入一段视频的初始图像帧,初始化目标位置参数{x,y,w,h},其中{x,y}为目标左上角像素点的坐标,w和h表示目标的宽度和高度。
2)如图1(a)所示,对目标进行分块,并初始化子目标块的置信度,如图1(b)所示。
3)将目标分块之后,对每个子目标,选取一个包含该子目标的图像块进行加余弦窗预处理,图像块的大小为{h/3,w/3}×(1+β),其中,β=1,对该图像块进行加余弦窗预处理:
x ij = ( x ij raw - 0.5 ) sin ( πi / n ) sin ( πj / n ) , ∀ i , j = 0 , . . . , n - 1
式中,为图像块中坐标(i,j)处的原像素值,xij为对图像块进行预处理之后的像素值,图像块大小为n×n。
4)计算训练样本标记矩阵y的初始值,这里,矩阵y的元素yij为:
y ij = exp ( - ( ( i - i ′ ) 2 + ( j - j ′ ) 2 ) / s 2 ) , ∀ i , j = 0 , . . . , n - 1
式中,s=1/16,(i′,j′)为目标初始位置的中心坐标。
5)对每个子目标,以该子目标在前一帧图像中的位置为中心,在当前帧图像中截取一个图像块x,图像块x的大小为该子目标大小的(1+β′)倍,β′=1,然后计算图像块x的高斯核函数矩阵κ(x,z),公式为:
k=exp(-1/σ2(‖x‖2+‖z‖2-2F-1(F(x)⊙F*(z))))
式中,z是前一帧图像中,一个包含目标,并具有循环结构的图像块,F和F-1分别为傅里叶变换和逆变换,利用快速傅里叶变换进行运算,⊙是对应项相乘,*表示复共轭,σ=0.2,如果当前帧图像为视频的第1帧图像,则有z=x;
6)计算每个子目标的核正则化最小二乘分类器的α值,
α = F - 1 ( F ( y ) F ( k ) + λ )
式中,λ=0.01,为正则化参数,矩阵y为训练样本标记矩阵,k为高斯核函数矩阵。
7)通过滑动窗口的方式得到图像块x的所有子窗口,循环矩阵跟踪算法利用高斯核函数的循环结构同时计算所有子窗口的响应
响应最大的子窗口即为目标的真实位置
8)根据当前帧中目标的真实位置,更新α和z,
α=(1-ξ)α+ξα′
z=(1-ξ)z+ξz′
其中,α和z是前一帧的值,α′和z′当前帧的值,ξ=0.075,为线性插值系数。
9)更新每个子目标跟踪结果的置信度
C t i = λ w C t - 1 i + ( 1 - λ w ) C ^ t i
式中,λw=0.95,是滤波系数,,是在当前帧中,子目标i的估计权值,其估算方法为:
C ^ t i = η t i 1 1 + e λ D ( mdst ( L t i , L t j ) - T D )
式中,是所有子窗口的响应;表示该子目标的位置同其他子目标位置的欧氏距离的均值;λD是一个常数,取值为0.25,TD=25。
11)重复步骤5)至步骤9),直到9个子目标均已处理完毕。
12)根据每个子目标的跟踪结果和置信度计算目标的真实位置(xt,yt):
x t = Σ i = 1 N C t i x t i
y t = Σ i = 1 N C t i y t i .
13)判断是否为视频最后一帧,如果是的话,整个算法流程结束,不是的话,读入下一帧图像,然后,转到步骤3)。
以上所述仅为本发明的较佳实施例而已,并不以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种分块的循环矩阵视频跟踪方法,其特征在于,包含以下步骤:
1)用一个矩形图像像素集来表示目标O,目标O大小为h×w,将目标O分成3×3个相同大小的子目标,并对每个子目标进行加余弦窗预处理;
2)对每个子目标进行循环矩阵跟踪,得到每个子目标的跟踪结果;
3)按如下公式更新每个子目标跟踪结果的置信度,
C t i = λ w C t - 1 i + ( 1 - λ w ) C ^ t i
式中,λw是滤波系数,取值在0至1之间,是在当前帧中,子目标i的估计权值,是在前一帧中,子目标i的估计权值,更新全部子目标的置信度之后,进行归一化处理;
的估算公式为:
C ^ t i = η t i 1 1 + e λ D ( m d s t ( L t i , L t j ) - T D )
式中, 是所有子窗口的响应;表示该子目标的位置同其他子目标位置的欧氏距离的均值,其中分别表示子目标i和j在第t帧的位置;λD是一个常数,取值为0.25,TD是一个常数,取值在20至50之间;
4)根据每个子目标的跟踪结果和置信度,计算目标的真实位置(xt,yt),
x t = Σ i = 1 N C t i x t i
y t = Σ i = 1 N C t i y t i
其中:上标N表示i的上限值,分别为子目标i在第t帧的横坐标和纵坐标。
2.根据权利要求1所述的一种分块的循环矩阵视频跟踪方法,其特征在于,所述的步骤1)为:
(1)将目标O分成3×3个相同大小的子目标,用表示分块之后的目标模板,其中,N=9,表示子目标i的在第t帧的位置,是子目标i的估计权值,它表示子目标i跟踪结果的可信程度,称作置信度,满足条件:
(2)将目标O分块之后,对每个子目标,选取一个包含该子目标的图像块进行加余弦窗预处理,图像块的大小为{h/3,w/3}×(1+β),其中,β是一个常数,取值为1,对该图像块进行加余弦窗预处理的公式为:
x i j = ( x i j r a w - 0.5 ) s i n ( π i / n ) s i n ( π j / n ) , ∀ i , j = 0 , ... , n - 1.
式中,为图像块中坐标(i,j)处的原像素值,xij为对图像块进行预处理之后的像素值,图像块大小为n×n,n为图像块边长对应的子目标个数。
3.根据权利要求2所述的一种分块的循环矩阵视频跟踪方法,其特征在于,所述的步骤2)中,对每个子目标进行循环矩阵跟踪的具体方法如下:
(1)计算训练样本标记矩阵y的初始值,其中,训练样本标记矩阵y的元素yij为:
y i j = exp ( - ( ( i - i ′ ) 2 + ( j - j ′ ) 2 ) / s 2 ) , ∀ i , j = 0 , ... , n - 1
式中,s为带宽,(i′,j′)为该子目标初始位置的中心坐标;
(2)以前一帧图像的目标位置为中心,在当前帧图像中截取一个图像块x,图像块x的大小为该子目标大小的(1+β′)倍,β′为一个常数,然后计算图像块x的高斯核函数矩阵κ(x,z),公式为:
k=exp(-1/σ2(||x||2+||z||2-2F-1(F(x)⊙F*(z))))
式中,z是前一帧图像中包含该子目标并具有循环结构的图像块,F和F-1分别为傅里叶变换和逆变换,利用快速傅里叶变换进行运算,⊙是对应项相乘,*表示复共轭,σ=0.2,如果当前帧图像为视频的第1帧图像,则有z=x;
(3)计算核正则化最小二乘分类器的α值,
α = F - 1 ( F ( y ) F ( k ) + λ )
式中,λ为正则化参数,y为训练样本标记矩阵,k为高斯核函数矩阵;
(4)通过滑动窗口的方式得到图像块x的所有子窗口,循环矩阵跟踪算法利用高斯核函数的循环结构同时计算所有子窗口的响应
响应最大的子窗口即为该子目标的真实位置;
(5)根据当前帧中该子目标的真实位置,更新α和z,
α=(1-ξ)α+ξα′
z=(1-ξ)z+ξz′
其中,α和z是前一帧的值,α′和z′当前帧的值,ξ为线性插值系数;
(6)读入下一帧图像,跳转到步骤(2)处进行下一帧处理。
CN201410054635.XA 2014-02-18 2014-02-18 一种分块的循环矩阵视频跟踪方法 Active CN103886325B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410054635.XA CN103886325B (zh) 2014-02-18 2014-02-18 一种分块的循环矩阵视频跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410054635.XA CN103886325B (zh) 2014-02-18 2014-02-18 一种分块的循环矩阵视频跟踪方法

Publications (2)

Publication Number Publication Date
CN103886325A CN103886325A (zh) 2014-06-25
CN103886325B true CN103886325B (zh) 2017-02-01

Family

ID=50955208

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410054635.XA Active CN103886325B (zh) 2014-02-18 2014-02-18 一种分块的循环矩阵视频跟踪方法

Country Status (1)

Country Link
CN (1) CN103886325B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104933542B (zh) * 2015-06-12 2018-12-25 临沂大学 一种基于计算机视觉的物流仓储监控方法
CN104899611B (zh) * 2015-06-26 2018-09-25 小米科技有限责任公司 确定图像中卡片位置的方法及装置
CN106709934A (zh) * 2016-08-25 2017-05-24 上海瞬动科技有限公司合肥分公司 频域高斯核函数图像追踪方法
CN106408593B (zh) * 2016-09-18 2019-05-17 东软集团股份有限公司 一种基于视频的车辆跟踪方法及装置
CN108154522B (zh) * 2016-12-05 2022-07-12 赛灵思电子科技(北京)有限公司 目标追踪系统
CN106887012A (zh) * 2017-04-11 2017-06-23 山东大学 一种基于循环矩阵的快速自适应多尺度目标跟踪方法
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN107424171B (zh) * 2017-07-21 2020-01-03 华中科技大学 一种基于分块的抗遮挡目标跟踪方法
CN107748873B (zh) * 2017-10-31 2019-11-26 河北工业大学 一种融合背景信息的多峰目标跟踪方法
CN108875547B (zh) * 2018-04-16 2022-06-17 中国科学院信息工程研究所 一种面向资源受限环境的目标跟踪方法及装置
CN109740593B (zh) * 2018-12-18 2020-11-13 全球能源互联网研究院有限公司 样本中至少一个预定目标的位置确定方法及装置
WO2023128790A1 (en) * 2021-12-30 2023-07-06 Autonomous Non-Profit Organization For Higher Education "Skolkovo Institute Of Science And Technology" Image segmentation with super resolution and frequency domain enhancements

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101697227A (zh) * 2009-10-30 2010-04-21 武汉工程大学 一种图像薛定谔变换方法及其应用
CN102073984A (zh) * 2011-01-10 2011-05-25 武汉工程大学 一种图像ⅱ型薛定谔变换方法
CN102231204A (zh) * 2011-06-20 2011-11-02 南京航空航天大学 一种序列图像自适应正则超分辨率重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101697227A (zh) * 2009-10-30 2010-04-21 武汉工程大学 一种图像薛定谔变换方法及其应用
CN102073984A (zh) * 2011-01-10 2011-05-25 武汉工程大学 一种图像ⅱ型薛定谔变换方法
CN102231204A (zh) * 2011-06-20 2011-11-02 南京航空航天大学 一种序列图像自适应正则超分辨率重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Exploiting the Circulant Structure of Tracking-by-detection with Kernels;J. F. Henriques等;《Computer Vision-ECCV》;20121031;第4页第2.1部分,第5页第2.2部分,第6页第2.4部分,第7页第2.5部分,第7页第3.1部分,第9页-第10页第4.1部分以及第12页第1段 *
一种快速彩色图像匹配算法;高富强等;《计算机应用》;20051130;第2605页第4部分 *
适用于遮挡车辆检测的子块带权模板匹配方法;李璟等;《计算机应用研究》;20120731;第2751页第1.1部分以及第2752页第1.2部分 *

Also Published As

Publication number Publication date
CN103886325A (zh) 2014-06-25

Similar Documents

Publication Publication Date Title
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN104574445B (zh) 一种目标跟踪方法
Li et al. Robust visual tracking based on convolutional features with illumination and occlusion handing
CN108346159A (zh) 一种基于跟踪-学习-检测的视觉目标跟踪方法
CN106204638A (zh) 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法
CN107506702A (zh) 基于多角度的人脸识别模型训练及测试系统及方法
CN107424171A (zh) 一种基于分块的抗遮挡目标跟踪方法
CN105260749B (zh) 基于方向梯度二值模式和软级联svm的实时目标检测方法
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN106778570B (zh) 一种行人实时检测与跟踪方法
CN103778436B (zh) 一种基于图像处理的行人姿态检测方法
CN106778687A (zh) 基于局部评估和全局优化的注视点检测方法
CN104123529A (zh) 人手检测方法及系统
CN109191488B (zh) 一种基于csk与tld融合算法的目标跟踪系统及方法
CN106023245A (zh) 基于中智集相似度量测的静态背景下运动目标检测方法
CN105844665A (zh) 视频对象追踪方法及装置
CN103593679A (zh) 一种基于在线机器学习的视觉人手跟踪方法
CN110674674A (zh) 一种基于yolo v3的旋转目标检测方法
CN105279769A (zh) 一种联合多特征的层次粒子滤波跟踪方法
CN104301585A (zh) 一种运动场景中特定种类目标实时检测方法
CN106887012A (zh) 一种基于循环矩阵的快速自适应多尺度目标跟踪方法
CN103020614A (zh) 基于时空兴趣点检测的人体运动识别方法
CN104537686A (zh) 基于目标时空一致性和局部稀疏表示的跟踪方法及装置
Yang et al. Visual tracking with long-short term based correlation filter
CN108681691A (zh) 一种基于无人水面艇的海上船艇快速检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant