CN104751493A - 基于梯度纹理特征的稀疏跟踪方法 - Google Patents
基于梯度纹理特征的稀疏跟踪方法 Download PDFInfo
- Publication number
- CN104751493A CN104751493A CN201510190523.1A CN201510190523A CN104751493A CN 104751493 A CN104751493 A CN 104751493A CN 201510190523 A CN201510190523 A CN 201510190523A CN 104751493 A CN104751493 A CN 104751493A
- Authority
- CN
- China
- Prior art keywords
- template
- gradient texture
- dictionary
- sparse
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明通过联合使用梯度纹理特征和目标的仿射变换参数构建目标的外观模型,提出一种稀疏跟踪方法,包括如下步骤:构建初始字典,抽取候选粒子,构建梯度纹理特征,抽取字典模板的梯度纹理特征,抽取候选样本的梯度纹理特征,用字典中的所有模板线性表示候选样本,求解稀疏系数,构建重构误差。梯度纹理特征能很好地解决因旋转、尺度以及光照变化等问题引起的目标外观变化。仿射变换能够有效处理由于尺度变换或者视角变换带来的挑战。采用增量子空间学习的方法对模板进行更新,有效抑制跟踪漂移并能处理目标遮挡等问题。本发明提出的基于梯度纹理特征的稀疏跟踪方法,在复杂场景下能保持目标跟踪的稳定性,提高跟踪器的精度。
Description
技术领域
本发明属于图像处理和计算机视觉领域,涉及一种基于梯度纹理特征的跟踪方法。可应用于人机交互和视频监控等领域。
背景技术
目标跟踪在计算机视觉领域占有极其重要的地位,例如自动监控、视频检索以及人机交互等。目前针对目标跟踪这一问题,许多研究者在理论上和应用上取得了一些成果。
Mei等人(Xue Mei,Ling Haibin.Robust visual tracking using l1minimization[C].ComputerVision,2009IEEE 12th International Conference on.IEEE,2009:1436-1443.)率先将稀疏表示引入到跟踪问题并且取得了比较好的效果,该算法联合目标模板和遮挡模板构成字典,然后用字典中所有模板的线性组合来表示候选样本,通过L1最小化求解稀疏系数,最终将跟踪问题转化为寻找具有最小重构误差的候选样本问题。有研究者们基于该方法进行改进,东南大学提出的专利申请“一种基于自适应粒子滤波和稀疏表示的目标跟踪算法”(专利申请号:201310357510.X,公开号:CN 103440645 A)公开了一种基于自适应粒子滤波和稀疏表示的目标跟踪算法,对环境光照变化以及遮挡等情况具有很强的鲁棒性。此发明和大多数稀疏跟踪方法一样,是基于灰度信息的特征描述目标,但灰度特征一般无法处理目标的旋转、姿态变化等问题。针对此问题,本发明提出一种采用新特征的稀疏跟踪方法。
目标特征的选取对一个高性能的跟踪器具有非常重要的作用。大部分跟踪器都是基于目标的灰度、形状以及边缘等特征。Martin等人提出将colorname特征用于目标跟踪,并达到了很好的效果。在这些特征中,纹理是描述目标外观的一种重要特征,同时也是一个强大的视觉线索,可以用于描述和识别物体表面。提取纹理特征能够用简化的方式准确地描述大量的数据,并提高后期处理的总体质量。到目前为止,研究者提出了很多鲁棒的纹理特征,可以很好地解决图像的旋转、尺度以及光照变化等问题。
一般地,图像基本特征的提取主要是基于两个数学概念:微分几何和尺度空间理论。微分几何方法假设图像的特征可以从局部各向异性变化的像素强度中获得。最近,微分特征提取方法吸引了更多的关注。其中,高斯导数滤波器就是一个鲁棒的微分方法。
Sochen等人从几何分析的角度入手,利用嵌入映射来重新定义图像,并将极小化曲面的概念引入到图像处理领域。可将二维图像平面映射到三维空间,也即保持图像的二维坐标不变,用x轴和y轴表示,图像的灰度值则映射到z轴。由此提出将曲线的曲率以及曲面的平均曲率等图像的局部特性运用到图像降噪中,能够很好地去除噪声。然而图像的很多重要特征,例如边缘、角点特征等容易受到曲率流或者局部曲率流的影响,从而导致部分曲线边缘在曲率流的作用下变得模糊。而高斯曲率是主曲率的乘积,它能够很好地保持不能被曲率流或平均曲率流保护的结构特征。因此基于高斯曲率的模型具有非常好的保纹理特性。Hanbay等人提出利用高斯曲率和平均曲率代替HOG中传统的梯度计算方式,并运用到纹理分类中取得了很好的效果(Hanbay K,Alpaslan N,Talu M F,et al.Continuous rotation invariant features forgradient-based texture classification[J].Computer Vision and Image Understanding,2015,132:87-101.)。基于以上思想,本发明提出采用基于平均曲率和高斯曲率的梯度纹理特征描述目标外观,并将其与稀疏表示相结合,实现感兴趣目标的跟踪。
发明内容
为了跟踪器在目标发生遮挡,面内外旋转,尺度变化,运动模糊,光照变化等复杂情况下,依然可以准确地跟踪目标,本发明通过在粒子滤波框架下,联合使用梯度纹理特征和目标仿射参数构建目标的外观模型,提出了一种简单且鲁棒的稀疏跟踪方法。
为了解决由目标的光照变化、姿态变化和遮挡等外观变化引起的跟踪漂移,本发明提出了一种基于梯度纹理特征的稀疏跟踪方法,在复杂场景下能保持目标跟踪的稳定性,提高跟踪器的精度。
本发明的技术方案为:
一种基于梯度纹理特征的稀疏跟踪方法,包括如下步骤:
(1)步骤一:构建初始字典。通过简单跟踪器跟踪前n帧视频序列,将得到的跟踪结果用于构造字典模板T=[T1,T2,…,Tn],其中Ti(i=1,…,n)表示第i个模板,n表示模板数目。
(2)步骤二:抽取候选粒子。在目标跟踪过程中,相邻帧之间目标移动很小,对新的一帧图像,在上一帧跟踪目标位置周围进行高斯采样,选取目标的运动仿射参数作为目标的状态变量,表示为其中xt,yt,θt,st,λt,分别表示目标在第t帧x,y坐标、旋转角度、尺度变化、宽高比、倾斜度。
(3)步骤三:构建梯度纹理特征。高斯函数用公式表示为:图像I的一阶和二阶偏导数用以下方式定义:
其中*表示卷积,Gx和Gy分别表示G关于x和y的一阶偏导数,Gxx,Gxy和Gyy分别表示G关于x和y的二阶偏导数。
图像曲面I的平均曲率H和高斯曲率K可以用以下公式计算得:
由平均曲率和高斯曲率构成的梯度纹理特征F如下所示:
(4)步骤四:抽取字典模板的梯度纹理特征。对于每个模板,抽取其梯度纹理特征并向量化为特征向量,重新构建字典为D=[d1,d2,…,dn]∈Rd×n,其中di(i=1,…,n)表示第i模板向量化后的特征向量,d是每个模板的向量维数。
(5)步骤五:抽取候选样本的梯度纹理特征。候选样本采用与字典模板相同的特征,提取它们的梯度纹理特征,用F=[f1,f2,…,fN]∈Rd×N描述N个候选样本,fi(i=1,…,N)表示第i个候选样本的特征向量,d是每个模板的向量维数。
(6)步骤六:用字典中的所有模板线性表示候选样本,则可将字典模板用以下方式线性表示:
fi=Dαi+ε=αi1d1+αi2d2+…+αindn+εi,i=1,…,N (5)
式中,D=[d1,d2,…,dn]是由前n帧图像中目标观测向量矩阵的特征向量构成的字典,εi表示残差项,αi=[αi1,αi2,…,αin]∈Rn是第i个候选样本的稀疏系数。
(7)步骤七:求解稀疏系数。通过L1范数最小化求解:
其中,λ为正则化参数,控制系数αi的稀疏度。
(8)步骤八:构建重构误差。利用字典模板与候选样本进行候选样本的误差重构,重构误差计算如下:
(9)构建似然函数。主要思想是利用重构误差来构建似然函数:候选粒子对应的稀疏表示的重构误差越小,则它的稀疏表示越可靠,稀疏系数也越可靠,因此,这样的候选粒子被赋予更大的权重,即似然概率越大。利用最大似然估计,当前时刻的跟踪结果则为具有最大似然概率的粒子,即
(10)模板更新。在动态场景用固定模板进行跟踪很容易失败,因为没有考虑到由于光照和姿态变化等因素引起的外观变化。然而,如果过于频繁地对模板进行更新,跟踪器很可能被错误的跟踪结果影响,随着错误的累计使得跟踪器偏离真正的目标。本发明采用增量子空间学习的方法来适应目标模板的外观变化,从而减少了遮挡等因素对目标模板的影响。
(11)评价准则。本发明采用四种评价准则评估跟踪器的性能:中心位置误差(CenterLocation Error,CLE)、重叠率(Overlap Rate,OR)、精度图(precision plots)和成功率图(successplots)。中心位置误差是计算估计目标的中心位置和真实位置之间的平均欧氏距离。重叠率是计算跟踪结果目标框与真实结果目标框的重叠率。在精度图中,精度是基于一系列阈值绘制的,通过在像素灰度值为20时的精度值来进行跟踪器性能排序。成功率图描述了基于一系列阈值的重叠精度(overlap precision OP)。OP定义为超出重叠率阈值t的帧数百分比,t∈[0,1],并利用曲线下的面积(area under the curve AUC)来进行跟踪器性能排序。
有益效果:
本发明通过联合使用梯度纹理特征和目标的仿射变换参数构建目标的外观模型,提出了一种简单但鲁棒的稀疏跟踪方法。梯度纹理特征具有旋转不变性,能很好地解决因旋转、尺度以及光照变化等问题引起的目标外观变化。仿射变换的使用,能够有效处理由于尺度变换或者视角变换带来的挑战。在粒子滤波框架下,提取目标模板和候选粒子的梯度纹理特征,用字典模板对每个候选粒子进行稀疏表示,求解稀疏系数并实现重构,将具有最小重构误差的粒子作为跟踪结果。同时采用增量子空间学习的方法对模板进行更新,有效抑制跟踪漂移并能处理目标遮挡等问题。本发明提出的基于梯度纹理特征的稀疏跟踪方法,在目标发生遮挡,面内外旋转,尺度变化,光照变化等复杂情况下,依然可以准确地跟踪目标。
附图说明
图1为本发明提供的稀疏跟踪方法的系统流程图;
图2为本发明抽取候选粒子的示意图;
图3为图像梯度纹理特征的构建过程;
图4为本发明与其他4种跟踪器的中心位置误差图;
图5为本发明与其他4种跟踪器的重叠率图;
图6为本发明与其他9种跟踪器的精度图;
图7为本发明与其他9种跟踪器的成功率图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施方式,进一步阐明本发明。本发明提供的基于梯度纹理特征的稀疏跟踪方法,如图1所示,具体包括以下操作步骤:
(1)步骤一:构建初始字典。首先构建字典模板库,通过简单跟踪器跟踪视频序列前12帧(包含第一帧),将跟踪得到的跟踪结果用于构造字典模板T=[T1,T2,…,T12],其中Ti(i=1,…,12)表示第i个模板。将字典模板的尺寸归一化为32×32。
(2)步骤二:抽取候选粒子。在新的一帧图像到来时,需要抽取候选粒子。设每帧抽取600个粒子,每帧抽取的粒子数量可以根据情况进行调整。如图2所示,在上一帧跟踪目标位置周围进行高斯采样,选取目标的运动仿射参数作为目标的状态变量,表示为其中xt,yt,θt,st,λt,分别表示目标在第t帧x,y坐标、旋转角度、尺度变化、宽高比、倾斜度。St中的每个参数都服从独立高斯分布,表示为p(St|St-1)=N(St;St-1,Σ),其中Σ是一个对角协方差矩阵,对角元素是运动仿射参数的方差对抽取的候选粒子尺寸归一化为32×32。
(3)步骤三:构建梯度纹理特征。按照图3的步骤构建图像的梯度纹理特征。高斯函数用公式表示为:图像I的一阶和二阶偏导数用以下方式定义:
其中*表示卷积,Gx和Gy分别表示G关于x和y的一阶偏导数,Gxx,Gxy和Gyy分别表示G关于x和y的二阶偏导数。
图像曲面I的平均曲率H和高斯曲率K可以用以下公式计算得:
由平均曲率和高斯曲率构成的梯度纹理特征F如下所示:
(4)步骤四:抽取字典模板的梯度纹理特征。对于每个模板,抽取其梯度纹理特征并向量化为特征向量,重新构建字典为D=[d1,d2,…,d12]∈Rd×12,其中di(i=1,…,12)表示第i模板向量化后的特征向量,d是每个模板的向量维数,本例中d=1024。
(5)步骤五:抽取候选样本的梯度纹理特征。候选样本采用与字典模板相同的特征,提取它们的梯度纹理特征,用F=[f1,f2,…,fN]∈Rd×N描述N个候选样本,fi(i=1,…,N)表示第i个候选样本的特征向量,d是每个模板的向量维数。本例中候选样本数目设为N=600,向量维数设为d=1024。
(6)步骤六:用字典中的所有模板线性表示候选样本,则可将字典模板用以下方式线性表示:
fi=Dαi+ε=αi1d1+αi2d2+…+αi12d12+εi,i=1,…,600 (12)
式中,D=[d1,d2,…,d12]是由前12帧图像中目标观测向量矩阵的特征向量构成的字典,εi表示残差项,αi=[αi1,αi2,…,αi12]∈R12是第i个候选样本的稀疏系数。
(7)步骤七:求解稀疏系数。通过L1范数最小化求解:
其中,λ为正则化参数,控制系数αi的稀疏度。
(8)步骤八:构建重构误差。利用字典模板与候选样本进行候选样本的误差重构,重构误差计算如下:
(9)构建似然函数。主要思想是利用重构误差来构建似然函数:候选粒子对应的稀疏表示的重构误差越小,则它的稀疏表示越可靠,稀疏系数也越可靠,因此,这样的候选粒子被赋予更大的权重,即似然概率越大。利用最大似然估计,当前时刻的跟踪结果则为具有最大似然概率的粒子,即
(10)模板更新。跟踪过程中,采取每5帧对字典模板更新一次,通过稀疏表示和增量子空间学习来实现对字典模板的更新。
(11)评价准则。本发明采用四种评价准则评估跟踪器的性能:中心位置误差(CenterLocation Error,CLE)、重叠率(Overlap Rate,OR)精度图(precision plots)和成功率图(successplots)。中心位置误差是计算估计目标的中心位置和真实位置之间的平均欧氏距离。重叠率是计算跟踪结果目标框与真实结果目标框的重叠率。本发明采用空间鲁棒性评估(spatialrobustness evaluation,SRE)的精度图和成功率图分析。SRE将跟踪器从第一帧开始运行,但目标位置初始值发生了变化,其中包括:4个方向的中心点偏移、4个方向的角点偏移以及4种目标框大小的变化。在精度图中,横坐标表示位置误差阈值(Location error threshold),单位是像素,纵坐标表示精度(Precision)。位置误差是通过计算算法跟踪结果与目标真实值之间的目标中心位置的欧式距离。当测得的位置误差小于阈值时,则认为跟踪结果是准确的。本发明用误差阈值为像素灰度值20时对应的精度来估测不同的跟踪器,精确度越高说明跟踪器性能越好。在成功率图中,横坐标表示重叠阈值(Overlap threshold),纵坐标表示成功率(Successrate),重叠率是通过计算跟踪结果目标框与真实结果目标框的重叠率获得的。当重叠率大于阈值时,跟踪结果视为准确。在本发明中,曲线下面积(AUC)用于评估不同的跟踪器,AUC越大的跟踪器性能越好。
通过上述四种评价方式,选取30个视频序列验证本实施例提供的目标跟踪方法,这些视频序列含有不同的挑战因素,包括:光照变化(IV)、尺寸变化(SV)、遮挡(OCC)、变形(DEF)、快速运动(FM)、运动模糊(MB)、面内旋转(IPR)、超出范围(OV)、面外旋转(OPR)、背景混乱(BC)和低分辨率(LR)。同时,将本发明设计的跟踪器与现有的9种跟踪方式进行了比较,包括Frag、IVT、MIL、VTD、TLD、MTT、ASLA、SCM以及LSK。图4展示了对于视频序列deer,本发明提出的方法和其他4种跟踪器的中心位置误差结果图。图5展示对于视频序列carScale,本发明提出的方法和其他4种跟踪器的重叠率对比结果图。图6和图7分别为本发明和其他9种跟踪器的精度图和成功率图。
由此可见,本发明提供的目标跟踪方法,与已有的算法相比,算法精度有了明显的提高,跟踪结果更为稳定。
Claims (6)
1.一种基于梯度纹理特征的稀疏跟踪方法,其特征在于:包括如下步骤:
(1)步骤一:构建初始字典,通过简单跟踪器跟踪前n帧视频序列,将得到的跟踪结果用于构造字典模板T=[T1,T2,...,Tn],其中Ti(i=1,...,n)表示第i个模板,n表示模板数目;
(2)步骤二:抽取候选粒子,在目标跟踪过程中,相邻帧之间目标移动很小,对新的一帧图像,在上一帧跟踪目标位置周围进行高斯采样,选取目标的运动仿射参数作为目标的状态变量,表示为其中xt,yt,θt,st,λt,分别表示目标在第t帧x,y坐标、旋转角度、尺度变化、宽高比、倾斜度;
(3)步骤三:构建梯度纹理特征,高斯函数用公式表示为:图像I的一阶和二阶偏导数用以下方式定义:
其中*表示卷积,Gx和Gy分别表示G关于x和y的一阶偏导数,Gxx,Gxy和Gyy分别表示G关于x和y的二阶偏导数,
图像曲面I的平均曲率H和高斯曲率K用以下公式计算得:
由平均曲率和高斯曲率构成的梯度纹理特征F如下所示:
(4)步骤四:抽取字典模板的梯度纹理特征,对于每个模板,抽取其梯度纹理特征并向量化为特征向量,重新构建字典为D=[d1,d2,...,dn]∈Rd×n,其中di(i=1,...,n)表示第i模板向量化后的特征向量,d是每个模板的向量维数;
(5)步骤五:抽取候选样本的梯度纹理特征,候选样本采用与字典模板相同的特征,提取它们的梯度纹理特征,用F=[f1,f2,...,fN]∈Rd×N描述N个候选样本,fi(i=1,...,N)表示第i个候选样本的特征向量,d是每个模板的向量维数;
(6)步骤六:用字典中的所有模板线性表示候选样本,将字典模板用以下方式线性表示:
fi=Dαi+ε=αi1d1+αi2d2+…+αindn+εi,i=1,...,N
式中,D=[d1,d2,...,dn]是由前n帧图像中目标观测向量矩阵的特征向量构成的字典,εi表示残差项,αi=[αi1,αi2,…,αin]∈Rn是第i个候选样本的稀疏系数;
(7)步骤七:求解稀疏系数。通过L1范数最小化求解:
其中,λ为正则化参数,控制系数αi的稀疏度;
(8)步骤八:构建重构误差。利用字典模板与候选样本进行候选样本的误差重构,重构误差计算如下:
2.根据权利要求1所述的基于梯度纹理特征的稀疏跟踪方法,其特征在于:利用重构误差来构建似然函数:候选粒子对应的稀疏表示的重构误差越小,则它的稀疏表示越可靠,稀疏系数也越可靠;利用最大似然估计,当前时刻的跟踪结果则为具有最大似然概率的粒子,即
3.根据权利要求1所述的基于梯度纹理特征的稀疏跟踪方法,其特征在于:采用增量子空间学习的方法来适应目标模板的外观变化,从而减少对目标模板的影响。
4.根据权利要求3所述的基于梯度纹理特征的稀疏跟踪方法,其特征在于:在跟踪过程中,采取每5帧对字典模板更新一次,通过稀疏表示和增量子空间学习来实现对字典模板的更新。
5.根据权利要求1所述的基于梯度纹理特征的稀疏跟踪方法,其特征在于:采用四种评价准则评估跟踪器的性能:中心位置误差(Center Location Error,CLE)、重叠率(Overlap Rate,OR)、精度图(precision plots)和成功率图(success plots)。
6.根据权利要求5所述的基于梯度纹理特征的稀疏跟踪方法,其特征在于:采用空间鲁棒性评估(spatial robustness evaluation,SRE)的精度图和成功率图分析。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510190523.1A CN104751493A (zh) | 2015-04-21 | 2015-04-21 | 基于梯度纹理特征的稀疏跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510190523.1A CN104751493A (zh) | 2015-04-21 | 2015-04-21 | 基于梯度纹理特征的稀疏跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104751493A true CN104751493A (zh) | 2015-07-01 |
Family
ID=53591112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510190523.1A Pending CN104751493A (zh) | 2015-04-21 | 2015-04-21 | 基于梯度纹理特征的稀疏跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104751493A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389833A (zh) * | 2015-12-24 | 2016-03-09 | 南京信息工程大学 | 一种基于在线迭代子空间学习的目标跟踪方法 |
CN106097387A (zh) * | 2016-05-31 | 2016-11-09 | 电子科技大学 | 一种基于单帧随机稀疏采样的快速目标搜索算法 |
CN106296733A (zh) * | 2016-08-04 | 2017-01-04 | 中国科学院长春光学精密机械与物理研究所 | 一种图像中目标跟踪方法 |
CN108364301A (zh) * | 2018-02-12 | 2018-08-03 | 中国科学院自动化研究所 | 基于跨时重叠率的视觉跟踪算法稳定性评估方法及装置 |
CN108961308A (zh) * | 2018-06-01 | 2018-12-07 | 南京信息工程大学 | 一种漂移检测的残差深度特征目标跟踪方法 |
CN109377514A (zh) * | 2018-09-29 | 2019-02-22 | 中国科学院长春光学精密机械与物理研究所 | 目标跟踪方法、装置、设备及计算机可读存储介质 |
CN110148155A (zh) * | 2019-04-19 | 2019-08-20 | 浙江万里学院 | 一种多特征与自适应标准对冲相结合的目标跟踪方法 |
CN110232705A (zh) * | 2019-05-17 | 2019-09-13 | 沈阳大学 | 一种融合分数阶变分调整的反向低秩稀疏学习目标跟踪方法 |
US11889227B2 (en) | 2020-10-05 | 2024-01-30 | Samsung Electronics Co., Ltd. | Occlusion processing for frame rate conversion using deep learning |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102262736A (zh) * | 2011-07-21 | 2011-11-30 | 西北工业大学 | 空间目标图像分类与识别方法 |
CN103295242A (zh) * | 2013-06-18 | 2013-09-11 | 南京信息工程大学 | 一种多特征联合稀疏表示的目标跟踪方法 |
CN103440645A (zh) * | 2013-08-16 | 2013-12-11 | 东南大学 | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 |
CN104091350A (zh) * | 2014-06-20 | 2014-10-08 | 华南理工大学 | 一种利用运动模糊信息的物体跟踪方法 |
CN104484890A (zh) * | 2014-12-18 | 2015-04-01 | 上海交通大学 | 基于复合稀疏模型的视频目标跟踪方法 |
-
2015
- 2015-04-21 CN CN201510190523.1A patent/CN104751493A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102262736A (zh) * | 2011-07-21 | 2011-11-30 | 西北工业大学 | 空间目标图像分类与识别方法 |
CN103295242A (zh) * | 2013-06-18 | 2013-09-11 | 南京信息工程大学 | 一种多特征联合稀疏表示的目标跟踪方法 |
CN103440645A (zh) * | 2013-08-16 | 2013-12-11 | 东南大学 | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 |
CN104091350A (zh) * | 2014-06-20 | 2014-10-08 | 华南理工大学 | 一种利用运动模糊信息的物体跟踪方法 |
CN104484890A (zh) * | 2014-12-18 | 2015-04-01 | 上海交通大学 | 基于复合稀疏模型的视频目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
KAZIM HANBAY: "Continuous rotation invariant features for gradient-based texture classification", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389833A (zh) * | 2015-12-24 | 2016-03-09 | 南京信息工程大学 | 一种基于在线迭代子空间学习的目标跟踪方法 |
CN105389833B (zh) * | 2015-12-24 | 2018-11-27 | 南京信息工程大学 | 一种基于在线迭代子空间学习的目标跟踪方法 |
CN106097387B (zh) * | 2016-05-31 | 2019-01-22 | 电子科技大学 | 一种基于单帧随机稀疏采样的快速目标搜索方法 |
CN106097387A (zh) * | 2016-05-31 | 2016-11-09 | 电子科技大学 | 一种基于单帧随机稀疏采样的快速目标搜索算法 |
CN106296733A (zh) * | 2016-08-04 | 2017-01-04 | 中国科学院长春光学精密机械与物理研究所 | 一种图像中目标跟踪方法 |
CN106296733B (zh) * | 2016-08-04 | 2020-02-14 | 中国科学院长春光学精密机械与物理研究所 | 一种图像中目标跟踪方法 |
CN108364301A (zh) * | 2018-02-12 | 2018-08-03 | 中国科学院自动化研究所 | 基于跨时重叠率的视觉跟踪算法稳定性评估方法及装置 |
CN108961308A (zh) * | 2018-06-01 | 2018-12-07 | 南京信息工程大学 | 一种漂移检测的残差深度特征目标跟踪方法 |
CN108961308B (zh) * | 2018-06-01 | 2021-07-02 | 南京信息工程大学 | 一种漂移检测的残差深度特征目标跟踪方法 |
CN109377514A (zh) * | 2018-09-29 | 2019-02-22 | 中国科学院长春光学精密机械与物理研究所 | 目标跟踪方法、装置、设备及计算机可读存储介质 |
CN110148155A (zh) * | 2019-04-19 | 2019-08-20 | 浙江万里学院 | 一种多特征与自适应标准对冲相结合的目标跟踪方法 |
CN110232705A (zh) * | 2019-05-17 | 2019-09-13 | 沈阳大学 | 一种融合分数阶变分调整的反向低秩稀疏学习目标跟踪方法 |
CN110232705B (zh) * | 2019-05-17 | 2023-05-12 | 沈阳大学 | 一种融合分数阶变分调整的反向低秩稀疏学习目标跟踪方法 |
US11889227B2 (en) | 2020-10-05 | 2024-01-30 | Samsung Electronics Co., Ltd. | Occlusion processing for frame rate conversion using deep learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104751493A (zh) | 基于梯度纹理特征的稀疏跟踪方法 | |
Salzmann et al. | Combining discriminative and generative methods for 3d deformable surface and articulated pose reconstruction | |
CN105719352B (zh) | 人脸三维点云超分辨率融合方法及应用其的数据处理装置 | |
CN111368759B (zh) | 基于单目视觉的移动机器人语义地图构建系统 | |
CN101924871A (zh) | 基于均值偏移的视频目标跟踪方法 | |
CN104036523A (zh) | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 | |
CN104794737A (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN104091350A (zh) | 一种利用运动模糊信息的物体跟踪方法 | |
Kwon et al. | Visual tracking via particle filtering on the affine group | |
CN111860651A (zh) | 一种基于单目视觉的移动机器人半稠密地图构建方法 | |
Wang et al. | Gesture Feature Extraction and Recognition Based on Image Processing. | |
CN103886287A (zh) | 一种基于3d投影的跨视角步态识别方法 | |
Wang et al. | Hand posture recognition from disparity cost map | |
Kanaujia et al. | Part segmentation of visual hull for 3d human pose estimation | |
CN111724428A (zh) | 基于图上信号模型的深度图采样与重构方法 | |
Li et al. | Optical flow estimation and denoising of video images based on deep learning models | |
Chen et al. | An image restoration and detection method for picking robot based on convolutional auto-encoder | |
CN108694348B (zh) | 一种基于自然特征的跟踪注册方法及装置 | |
Tangkuampien et al. | Real-Time Human Pose Inference using Kernel Principal Component Pre-image Approximations. | |
Kumar et al. | Fragment-based real-time object tracking: A sparse representation approach | |
CN111899284B (zh) | 一种基于参数化esm网络的平面目标跟踪方法 | |
Bi | A motion image pose contour extraction method based on B-spline wavelet | |
CN113158942A (zh) | 一种运动人体行为检测的分割算法及装置 | |
Marras et al. | Online learning and fusion of orientation appearance models for robust rigid object tracking | |
Shaheen et al. | A comparison of 3d model-based tracking approaches for human motion capture in uncontrolled environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150701 |
|
RJ01 | Rejection of invention patent application after publication |