CN103440645A - 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 - Google Patents
一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 Download PDFInfo
- Publication number
- CN103440645A CN103440645A CN201310357510XA CN201310357510A CN103440645A CN 103440645 A CN103440645 A CN 103440645A CN 201310357510X A CN201310357510X A CN 201310357510XA CN 201310357510 A CN201310357510 A CN 201310357510A CN 103440645 A CN103440645 A CN 103440645A
- Authority
- CN
- China
- Prior art keywords
- target
- template
- fritter
- utilize
- sampling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提出了一种基于自适应粒子滤波和稀疏表示的目标跟踪算法,使用改进的自适应粒子滤波技术作为跟踪算法框架,并且利用分块稀疏表示模型建立目标的观测相似度模型,利用自适应分块技术对目标进行分块,构建当前目标状态的结构稀疏直方图,以计算当前目标状态的观测相似度,利用遮挡检测机制检测遮挡,更新目标/背景字典模板以及目标模板直方图,以捕获跟踪过程中目标的外形改变以及环境的变化,利用可变方向乘子法解决稀疏表示中的L1优化问题,提升所述目标跟踪算法的执行速度。本发明对跟踪目标姿态变化,环境光照变化以及遮挡等情况具有很强的鲁棒性。
Description
技术领域
本发明属于计算机视觉领域,具体涉及智能监控领域,特别涉及一种基于自适应粒子滤波和分块稀疏表示模型的复杂环境下的目标跟踪算法。
背景技术
基于视觉的目标跟踪技术在许多计算机视觉应用领域,诸如机器人技术、视频监控、医学图像分析等起到重要的作用。尽管在最近几十年基于视觉的目标跟踪技术取得了一定的发展,但是在一些复杂的环境下,譬如有复杂背景、光照变化剧烈、目标外形改变等场合,现有的视觉跟踪技术仍不能很好地完成跟踪任务。考虑到跟踪任务的复杂性,如何设计一个鲁棒性较强的跟踪算法,同时在实时性方面有较好的表现,是计算机视觉领域一个重要的课题。
目前常见的视觉跟踪算法主要有两大类:基于创成式的方法和基于分类的方法。基于创成式的跟踪算法主要通过寻找下一帧与目标相似度最高的区域进行跟踪,可以使用单外表模型和多外表模型计算相似度。常见的单外表模型包括使用颜色、纹理以及形状等信息进行描述,颜色外表模型有:RGB直方图特征,如文献“Huang, T., Russell, S.. Object identification in a Bayesian context [C]. International Joint Conferences on Artificial Intelligence, 1997: 1276-1283.”纹理外表模型有:LBP纹理特征,如文献“陈远,陈锻生. 一种融合LBP纹理特征的多姿态人脸跟踪方法[J].华侨大学学报,2010,Vol.31,No.3.”多外表模型尝试用多种单外表模型的结合,以提高模型的鲁棒性,如使用HOG颜色特征和LAB纹理特征来进行跟踪,如文献“Yang, B., Lin, G.Y. Integration of Lab model and EHOG for human appearance matching across disjoint camera views [J]. Journal of Southeast University (English Edition), v 28, n 4, p 422-427, December 2012.”一些经典的基于创成式跟踪算法主要包括:特征根跟踪器、均值漂移跟踪器以及协方差跟踪器等。
基于分类的跟踪方法将目标跟踪问题转变为一个目标分类问题,通过将某个区域分类为目标或背景来实现持续跟踪。使用分类来进行跟踪通常涉及到分类器的学习,可以通过监督或半监督的方式来学习分类器,进而进行目标跟踪。根据分类器的不同,常见的基于分类的跟踪方法包括:使用支持向量机(SVM)进行分类跟踪,如文献“S. Avidan. “Support vector tracking”. IEEE Transactions on Pattern Analysis and Machine Intelligence, 26(8):1064-1072, 2004.”使用多示例训练器(MIL)进行分类跟踪,如文献“S. Avidan. “Support vector tracking”. IEEE Transactions on Pattern Analysis and Machine Intelligence, 26(8):1064-1072, 2004.”其他常见的训练器还包括稀疏贝叶斯分类器以及P-N学习分类器等等。
稀疏跟踪算法是近年来发展比较迅速的一种新兴跟踪算法,属于创成式跟踪方法。由于算法是基于一系列的模板库得到的最终结果,因此对于光照变化、复杂环境以及姿态改变等都具有较好的鲁棒性,如文献“X. Mei and H. Ling. “Robust visual tracking using L1 minimization”. 12th International Conference on Computer Vision, Kyoto ,Japan, 2009(1436-1443).”但是,由于模板库往往采用目标的整体模板作为特征,因此对目标遮挡的情况处理效果不佳。同时,在解稀疏系数时需要解L1优化问题,具体解法的计算量较大,往往影响了算法的实际使用。
因此,对稀疏跟踪算法进行改进优化,是其在原有的强鲁棒性的基础上,增加对遮挡情况的处理能力以及提高算法的执行速度,具有显著的现实意义。
发明内容
本发明的目的在于提出一种基于自适应粒子滤波和稀疏表示的目标跟踪算法,此方法对跟踪目标姿态变化,环境光照变化以及遮挡等情况具有很强的鲁棒性。
为解决上述技术问题,本发明采用的一个技术方案是:
提供一种基于自适应粒子滤波和稀疏表示的目标跟踪算法,具体为:
使用改进的自适应粒子滤波技术作为跟踪算法框架,利用目标的运动信息来确定采样所需要的粒子数目和采样范围;
利用分块稀疏表示模型建立目标的观测相似度模型,首先构建目标/背景字典模板以及目标模板直方图,利用自适应分块技术对目标进行分块,利用目标的分块信息并且结合分块的身份信息以及位置信息,构建当前目标状态的结构稀疏直方图,利用巴氏距离计算当前目标状态的结构稀疏直方图和目标模板直方图之间的距离,从而计算当前目标状态的观测相似度;利用遮挡检测机制检测遮挡,利用遮挡信息更新目标/背景字典模板以及目标模板直方图,以捕获跟踪过程中目标的外形改变以及环境的变化。
在本发明一个较佳实施例中,所述的基于自适应粒子滤波和稀疏表示的目标跟踪算法使用改进的自适应粒子滤波技术作为跟踪算法框架,主要步骤如下:
110)采样参考点的确定
利用目标前一帧的状态以及前一帧的预测速度得到目标当前时刻的采样参考点,提出的自适应运动模型定义为:
,
其中xk-1+ v*k-1即为目标当前时刻的采样参考点,xk-1是目标前一帧的状态,v*k-1是前一帧的预测速度;
120)采样范围的确定
采样范围由步骤110)中的Σk决定,Σk可由目标的标准化速度向量V以及运动信息矩阵D来计算(Σk=VDV-1),其中运动信息矩阵D由目标的速度峰值ρk以及可调参数γ决定,D=diag(ρk, γρk), γ∈[0,1],γ权衡了采样的有效性和非线性;当γ=0时,仅考虑采样的非线性,此时提出的采样方法和普通的各向异性高斯采样相同;当γ=1时,仅考虑采样的有效性,即认为目标在做线性运动;γ由目标之前一段时间内的运动方向一致性以及加速度信息决定,定义如下:
其中,d(k)表示方向的一致性,a(k)表示加速度信息,C是归一化常数,μ表示加速度信息对可调参数γ的贡献;
130)采样粒子数目的确定
利用可调参数γ以及采样粒子数目的上下限来动态地调整采样的粒子数目,定义如下:
其中,Jmin 表示采样粒子数目的下限,Jmax表示采样粒子数目的上限。
在本发明一个较佳实施例中,所述的基于自适应粒子滤波和稀疏表示的目标跟踪算法使用自适应分块稀疏表示模型作为目标的观测模型,主要步骤如下:
210)目标/背景字典模板的建立
根据第一帧的目标信息分别建立目标与背景的分块字典模板:首先手动选取目标矩形区域,并将目标矩形区域周围一定范围的区域作为背景区域,利用滑动的小块分别在目标区域和背景区域重叠的采样,并对采集的样本进行k均值聚类计算,将各自得到的k个具有典型性的样本分别作为目标和背景的字典模板,目标/背景字典模板在跟踪过程中需要不断地进行更新;
220)目标自适应分块
利用目标小块的身份信息对目标进行自适应分块:对于每个目标小块,利用欧氏距离计算该目标小块与模板小块的相似度,挑选出与其最相似的p个模板小块,并利用这p个模板小块的身份来判断该目标小块的身份信息,根据这p个模板小块中目标成分和背景成分的多少,将该目标小块归于目标、背景或者不确定状态;
当得到所有目标小块的身份信息后,就可以对目标进行自适应分割,在分割目标时,首先进行粗略划分,分别判断每个目标小块的身份,然后依据所有目标小块的身份信息判断分割是否有效,分割的有效性ES定义为:
其中NT表示属于目标的目标小块的数目,NU表示属于不确定状态的目标小块数目;若分割有效性大于给定阈值,则认为该分割满足跟踪需要;否则,将目标进行更细的分割,并计算其分割有效性判断分割是否满足要求;
230)观测相似度计算
利用自适应分块稀疏表示来计算目标的外表相似度:根据稀疏原理,对于某个观测值yi,可以利用解L1优化问题得到它的稀疏系数xi,L1优化问题定义如下:
其中,D表示目标模板,对于分块稀疏表示问题,得到每一个目标小块的稀疏系数,并将它们按照结构信息和身份信息组合起来,就能够得到当前目标状态的结构稀疏直方图,定义如下:
其中hi表示目标某个目标小块的稀疏直方图,Pi表示该目标小块的身份信息,k(di)是一个各向同性的核,用来表示距离的影响;
在第一帧使用同样的直方图提取方法可以得到目标模板直方图,利用巴氏距离计算当前目标状态的稀疏直方图和目标模板稀疏直方图的距离,就能够得到当前目标状态的观测相似度,即当前目标状态是真实目标状态的概率;
240)更新策略
稀疏表示中的目标/背景字典模板和目标模板直方图都需要不断地更新,以适应变化的场景;目标/背景字典模板通过在当前跟踪结果重采样进行更新,采样方法和步骤210)相同,通常目标/背景字典模板每隔10帧就重采样一次,当检测到遮挡的时候,目标字典模板停止更新,背景字典模板仍需要更新;
目标模板直方图需要更新以捕捉目标在跟踪过程中的外形变化,通过加权的方式,将当前目标状态的结构稀疏直方图逐渐的融合到目标模板直方图中,定义如下:
,
其中Hn表示新的目标模板直方图,Hf表示旧的目标模板直方图,Hc表示当前目标状态的结构稀疏直方图,φ是学习因子;
250)遮挡检测机制
利用目标小块的身份信息建立遮挡检测机制:因遮挡一般发生在边缘,定义目标的最外层的小块区域为遮挡检测区域,如果在所述遮挡检测区域内的任意一条边或者两条相邻的边上,被判断为属于背景的小块数目与小块总数之比大于预定阈值,就认为发生了遮挡。
在本发明一个较佳实施例中,所述的基于自适应粒子滤波和稀疏表示的目标跟踪算法利用可变方向乘子法解决稀疏表示中的L1优化问题。
本发明的有益效果是:本发明一种基于自适应粒子滤波和稀疏表示的目标跟踪算法,对稀疏跟踪算法进行改进优化,增加了对遮挡情况的处理能力以及提高了算法的执行速度,对跟踪目标姿态变化,环境光照变化以及遮挡等情况具有很强的鲁棒性。
附图说明
图1是本发明基于自适应粒子滤波和稀疏表示的目标跟踪方法的系统流程图;
图2是本发明中采用的采样模型示意图;
图3是本发明中采样区域示意图;
图4 是本发明中目标自适应分割示意图;
图5 是本发明中遮挡检测区域示意图。
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
图1给出了基于自适应粒子滤波和稀疏表示的目标跟踪方法的系统流程图:使用改进的自适应粒子滤波技术作为跟棕算法的框架,主要工作是建立自适应运动粒子滤波模型以及用于计算观测相似度的自适应分块稀疏表示模型。建立自适应运动粒子滤波模型主要包括三个方面的工作,即确定采样参考点、确定采样范围以及确定采样粒子数目。利用目标前一帧的状态以及前一帧的预测速度可以得到目标当前时刻的采样参考点,采样范围由目标的运动速度、运动方向一致性以及加速度等诸多因素决定,采样的粒子数目与采样范围有关,一般采样范围大的话,需要的采样粒子数目也比较大。建立自适应分块稀疏表示模型主要有三个方面的工作,即自适应分块、建立基于分块的结构稀疏直方图以及使用可变方向乘子法解L1优化问题。自适应分块是通过计算目标小块与目标/背景字典模板的相似度,从而确定目标小块的身份,进而通过分割有效性来对目标进行合理的分块。通过对每个目标小块计算稀疏系数,并结合该小块的身份信息以及结构信息,可以构建基于分块的结构稀疏直方图,从而通过比较其与目标模板直方图的巴氏距离来计算当前目标状态的观测相似度。可变方向乘子法用来解决求解稀疏系数时遇到的L1优化问题,可以显著地提高算法的执行速度。
本发明的具体操作步骤:
1)建立自适应采样模型
粒子滤波是常见的目标跟踪算法框架,其中粒子采样模型决定了跟踪的效率和精度。常见的是利用各向异性高斯分布进行采样,但是这种方式采样效率偏低,没有充分利用目标自身的信息。本发明提出了一种自适应采样模型,合理地利用了目标的运动信息,提高了采样的效率以及精度。自适应采样模型定义如下:
其中,xk-1+ v*k-1即为目标当前时刻的采样参考点,xk-1是目标前一帧的状态,v*k-1是前一帧的预测速度。Σk决定了采样范围,它由目标的标准化速度向量V以及运动信息矩阵D来计算(Σk=VDV-1)。其中运动信息矩阵D由目标的速度峰值ρk以及可调参数γ决定,D=diag(ρk, γρk), γ∈[0,1]。本发明使用之前数帧的运动一致性以及加速度信息自适应地确定γ,定义如下:
其中,d(k)表示方向的一致性,a(k)表示加速度信息,C是归一化常数,μ表示加速度信息对确定γ的贡献。本发明使用的采样模型示意图如图2所示,分别对应了线性运动的采样、非线性运动的采样以及线性运动中突然遭遇转向时候的采样。
2)确定采样粒子数目
采样粒子的数目受到采样范围大小的影响,一般采样范围越大,所需要的采样粒子数目就越多。本发明利用1)中提到的可调参数γ来确定采样粒子数目,定义如下:
其中,Jmin 表示采样粒子数目的下限,Jmax表示采样粒子数目的上限。
3)构建目标/背景的稀疏字典模板
使用稀疏表示模型来计算目标状态的观测相似度,首先要构建目标/背景的稀疏字典模板,通常在第一帧完成目标/背景稀疏字典模板的构建工作。首先手动选取目标矩形区域,并将目标矩形区域周围一定范围的区域作为背景区域。利用滑动的小块(此小块的面积等于目标分块后各小块的面积)分别在目标区域和背景区域重叠的采样,并对采集的样本进行k均值聚类计算,各得到k个具有典型性的样本作为目标和背景的字典模板。目标/背景采样区域示意图如图3所示。
4)对目标进行自适应分块
在跟踪过程中,遮挡会对跟踪的效果产生很大的影响,往往导致跟踪漂移。遮挡发生时,部分目标会被遮住导致其信息无法利用,但是可以利用目标可见部分的信息进行持续跟踪,通常采用分块的方法处理遮挡情况。本发明提出一种自适应分块技术,对于目标分割后的每个小块,利用欧氏距离计算该小块与模板(包括目标模板和背景模板)小块的相似度,挑选出与其最相似的p个模板小块,并利用这p个模板小块的身份来判断目标小块的身份。根据这p个模板小块属于目标的小块多还是属于背景的小块多,可以将目标的某个小块的身份归为目标、背景或者不确定状态。在得到了某个目标所有小块的身份信息后,可以利用分割有效性来对目标进行分块:首先进行粗分,计算该次分割的分割有效性,如果大于给定阈值,分割结束;否则,进行进一步细分。通常至多5*5的分割就可以满足表示目标的需要,图4为本发明中目标自适应分割示意图,分别给出了对目标的分割情况以及对应每次分割的分割有效性。
5)计算目标当前状态的观测相似度
计算目标当前状态的观测相似度,是实现准确跟踪的前提。观测相似度计算步骤如下:
①计算稀疏系数
根据稀疏原理,对于某个观测值yi,可以通过解L1优化问题得到它的稀疏系数xi,L1优化问题定义如下:
其中,D表示目标模板。本发明使用可变方向乘子法来解决L1优化问题,显著地提高了算法的执行速度。
②建立结构稀疏直方图
得到了每个目标小块的稀疏系数以及目标小块的身份信息后,就能够建立结构稀疏直方图来表示当前的候选目标状态。每个小块的结构稀疏直方图定义为:
其中hi表示目标某小块的稀疏直方图,Pi表示该小块的身份信息,如果该小块属于背景的话,那么它很有可能被遮挡了,因此也就不会用来表示目标信息(Pi=0)。k(di)是一个各向同性的核,用来表示距离的影响,离目标中心较远的小块有比较小的权重。将所有目标小块的稀疏直方图串联起来,就得到了当前目标状态的结构稀疏直方图。
注意,需要在第一帧中使用相同的方法建立目标的模板直方图。
③计算观测相似度
利用巴氏距离计算当前目标状态的结构稀疏直方图与目标的模板直方图之间的距离,就能够计算出当前目标状态的观测相似度,即当前目标状态是目标真实状态的可能性。
6)检测遮挡情况
在目标跟踪过程中,如果发生遮挡时进行了错误的跟踪,就会将非目标信息错当成目标信息,最终导致跟踪失败。同时,当目标被遮挡时,如果利用此时目标的信息进行更新,就会将错误的信息引进来,导致目标外表模型失效。因此,能够有效检测跟踪过程中遇到的遮挡至关重要。本发明利用所有边缘目标小块的身份信息建立了一个遮挡检测机制:由于遮挡一般首先发生在目标边缘,定义目标的最外层的小块区域为遮挡检测区域,如果任意一条边或者两条相邻的边上,被判断为属于背景的小块数目与这些边包含的小块总数之比大于一定阈值,就认为发生了遮挡。遮挡检测区域示意图如图5所示。
7)更新目标/背景字典模板以及模板稀疏直方图
稀疏表示中的目标/背景字典模板和目标模板直方图都需要不断地更新,以适应跟踪过程中目标外形的改变以及背景的变化。目标/背景字典模板通过在当前跟踪结果处重采样进行更新,采样方法和步骤1)提到的方法一致。通常目标/背景字典模板每隔10帧就重采样一次,当检测到遮挡的时候,目标字典模板停止更新,背景字典模板仍需要更新。
目标模板直方图需要不断更新以捕捉目标在跟踪过程中的外形变化。本发明通过加权的方法,将当前目标状态的结构稀疏直方图逐渐融合到目标模板直方图中,定义如下:
,
其中Hn表示新的目标模板直方图,Hf表示旧的目标模板直方图,Hc表示当前目标状态的结构稀疏直方图,φ是学习因子,用来调节当前目标状态的结构稀疏直方图对新的目标模板直方图的贡献。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (4)
1.一种基于自适应粒子滤波和稀疏表示的目标跟踪算法,其特征在于,
使用改进的自适应粒子滤波技术作为跟踪算法框架,利用目标的运动信息来确定采样所需要的粒子数目和采样范围;
利用分块稀疏表示模型建立目标的观测相似度模型,首先构建目标/背景字典模板以及目标模板直方图,利用自适应分块技术对目标进行分块,利用目标的分块信息并且结合分块的身份信息以及位置信息,构建当前目标状态的结构稀疏直方图,利用巴氏距离计算当前目标状态的结构稀疏直方图和目标模板直方图之间的距离,从而计算当前目标状态的观测相似度;利用遮挡检测机制检测遮挡,利用遮挡信息更新目标/背景字典模板以及目标模板直方图,以捕获跟踪过程中目标的外形改变以及环境的变化。
2.根据权利要求1所述的基于自适应粒子滤波和稀疏表示的目标跟踪算法,其特征在于, 使用改进的自适应粒子滤波技术作为跟踪算法框架,主要步骤如下:
110)采样参考点的确定
利用目标前一帧的状态以及前一帧的预测速度得到目标当前时刻的采样参考点,提出的自适应运动模型定义为:
其中xk-1+ v*k-1即为目标当前时刻的采样参考点,xk-1是目标前一帧的状态,v*k-1是前一帧的预测速度;
120)采样范围的确定
采样范围由步骤110)中的Σk决定,Σk可由目标的标准化速度向量V以及运动信息矩阵D来计算(Σk=VDV-1),其中运动信息矩阵D由目标的速度峰值ρk以及可调参数γ决定,D=diag(ρk, γρk), γ∈[0,1],γ权衡了采样的有效性和非线性;当γ=0时,仅考虑采样的非线性,此时提出的采样方法和普通的各向异性高斯采样相同;当γ=1时,仅考虑采样的有效性,即认为目标在做线性运动;γ由目标之前一段时间内的运动方向一致性以及加速度信息决定,定义如下:
其中,d(k)表示方向的一致性,a(k)表示加速度信息,C是归一化常数,μ表示加速度信息对可调参数γ的贡献;
130)采样粒子数目的确定
利用可调参数γ以及采样粒子数目的上下限来动态地调整采样的粒子数目,定义如下:
其中,Jmin 表示采样粒子数目的下限,Jmax表示采样粒子数目的上限。
3.根据权利要求1所述的基于自适应粒子滤波和稀疏表示的目标跟踪算法,其特征在于,使用自适应分块稀疏表示模型作为目标的观测模型,主要步骤如下:
210)目标/背景字典模板的建立
根据第一帧的目标信息分别建立目标与背景的分块字典模板:首先手动选取目标矩形区域,并将目标矩形区域周围一定范围的区域作为背景区域,利用滑动的小块分别在目标区域和背景区域重叠的采样,并对采集的样本进行k均值聚类计算,将各自得到的k个具有典型性的样本分别作为目标和背景的字典模板,目标/背景字典模板在跟踪过程中需要不断地进行更新;
220)目标自适应分块
利用目标小块的身份信息对目标进行自适应分块:对于每个目标小块,利用欧氏距离计算该目标小块与模板小块的相似度,挑选出与其最相似的p个模板小块,并利用这p个模板小块的身份来判断该目标小块的身份信息,根据这p个模板小块中目标成分和背景成分的多少,将该目标小块归于目标、背景或者不确定状态;
当得到所有目标小块的身份信息后,就可以对目标进行自适应分割,在分割目标时,首先进行粗略划分,分别判断每个目标小块的身份,然后依据所有目标小块的身份信息判断分割是否有效,分割的有效性ES定义为:
其中NT表示属于目标的目标小块的数目,NU表示属于不确定状态的目标小块数目;若分割有效性大于给定阈值,则认为该分割满足跟踪需要;否则,将目标进行更细的分割,并计算其分割有效性判断分割是否满足要求;
230)观测相似度计算
利用自适应分块稀疏表示来计算目标的外表相似度:根据稀疏原理,对于某个观测值yi,可以利用解L1优化问题得到它的稀疏系数xi,L1优化问题定义如下:
其中,D表示目标模板,对于分块稀疏表示问题,得到每一个目标小块的稀疏系数,并将它们按照结构信息和身份信息组合起来,就能够得到当前目标状态的结构稀疏直方图,定义如下:
,
其中hi表示目标某个目标小块的稀疏直方图,Pi表示该目标小块的身份信息,k(di)是一个各向同性的核,用来表示距离的影响;
在第一帧使用同样的直方图提取方法可以得到目标模板直方图,利用巴氏距离计算当前目标状态的稀疏直方图和目标模板稀疏直方图的距离,就能够得到当前目标状态的观测相似度,即当前目标状态是真实目标状态的概率;
240)更新策略
稀疏表示中的目标/背景字典模板和目标模板直方图都需要不断地更新,以适应变化的场景;目标/背景字典模板通过在当前跟踪结果重采样进行更新,采样方法和步骤210)相同,通常目标/背景字典模板每隔10帧就重采样一次,当检测到遮挡的时候,目标字典模板停止更新,背景字典模板仍需要更新;
目标模板直方图需要更新以捕捉目标在跟踪过程中的外形变化,通过加权的方式,将当前目标状态的结构稀疏直方图逐渐的融合到目标模板直方图中,定义如下:
其中Hn表示新的目标模板直方图,Hf表示旧的目标模板直方图,Hc表示当前目标状态的结构稀疏直方图,φ是学习因子;
250)遮挡检测机制
利用目标小块的身份信息建立遮挡检测机制:因遮挡一般发生在边缘,定义目标的最外层的小块区域为遮挡检测区域,如果在所述遮挡检测区域内的任意一条边或者两条相邻的边上,被判断为属于背景的小块数目与小块总数之比大于预定阈值,就认为发生了遮挡。
4.根据权利要求1所述的基于自适应粒子滤波和稀疏表示的目标跟踪算法,其特征在于,利用可变方向乘子法解决稀疏表示中的L1优化问题。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310357510.XA CN103440645B (zh) | 2013-08-16 | 2013-08-16 | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310357510.XA CN103440645B (zh) | 2013-08-16 | 2013-08-16 | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103440645A true CN103440645A (zh) | 2013-12-11 |
CN103440645B CN103440645B (zh) | 2016-04-27 |
Family
ID=49694338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310357510.XA Expired - Fee Related CN103440645B (zh) | 2013-08-16 | 2013-08-16 | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103440645B (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103985143A (zh) * | 2014-05-30 | 2014-08-13 | 上海交通大学 | 基于字典学习的视频中判别性在线目标跟踪方法 |
CN104200495A (zh) * | 2014-09-25 | 2014-12-10 | 重庆信科设计有限公司 | 一种视频监控中的多目标跟踪方法 |
CN104467742A (zh) * | 2014-12-16 | 2015-03-25 | 中国人民解放军海军航空工程学院 | 基于高斯混合模型的传感器网络分布式一致性粒子滤波器 |
CN104751493A (zh) * | 2015-04-21 | 2015-07-01 | 南京信息工程大学 | 基于梯度纹理特征的稀疏跟踪方法 |
CN104751484A (zh) * | 2015-03-20 | 2015-07-01 | 西安理工大学 | 一种运动目标检测方法及实现运动目标检测方法的检测系统 |
CN104766343A (zh) * | 2015-03-27 | 2015-07-08 | 电子科技大学 | 一种基于稀疏表示的视觉目标跟踪方法 |
CN104899567A (zh) * | 2015-06-05 | 2015-09-09 | 重庆大学 | 基于稀疏表示的小弱运动目标跟踪方法 |
CN105046717A (zh) * | 2015-05-25 | 2015-11-11 | 浙江师范大学 | 一种鲁棒性的视频目标对象跟踪方法 |
CN105096343A (zh) * | 2015-08-14 | 2015-11-25 | 中国联合网络通信集团有限公司 | 一种移动目标跟踪方法及装置 |
CN105139418A (zh) * | 2015-08-04 | 2015-12-09 | 山东大学 | 一种新型的基于分块策略的视频跟踪方法 |
CN105469431A (zh) * | 2015-12-21 | 2016-04-06 | 电子科技大学 | 基于稀疏子空间的追踪方法 |
CN105513093A (zh) * | 2015-12-10 | 2016-04-20 | 电子科技大学 | 一种基于低秩矩阵表示的目标跟踪方法 |
CN106097387A (zh) * | 2016-05-31 | 2016-11-09 | 电子科技大学 | 一种基于单帧随机稀疏采样的快速目标搜索算法 |
CN106203291A (zh) * | 2016-07-01 | 2016-12-07 | 昆明理工大学 | 一种基于形态成分分析与自适应字典学习的场景图像文字检测的方法 |
CN106393106A (zh) * | 2016-09-13 | 2017-02-15 | 东南大学 | 参数自适应密化的机器人nurbs曲线运动插补方法 |
CN106815863A (zh) * | 2017-01-17 | 2017-06-09 | 湖南优象科技有限公司 | 一种基于双向鉴别信息的目标跟踪方法 |
CN106940891A (zh) * | 2016-12-12 | 2017-07-11 | 首都师范大学 | 基于hsv的目标跟踪方法及系统 |
CN107368785A (zh) * | 2017-06-16 | 2017-11-21 | 浙江万里学院 | 多核局部约束的视频目标跟踪方法 |
CN107527356A (zh) * | 2017-07-21 | 2017-12-29 | 华南农业大学 | 一种基于懒交互方式的视频跟踪方法 |
CN107680120A (zh) * | 2017-09-05 | 2018-02-09 | 南京理工大学 | 基于稀疏表示和转移受限粒子滤波的红外小目标跟踪方法 |
CN107844739A (zh) * | 2017-07-27 | 2018-03-27 | 电子科技大学 | 基于自适应同时稀疏表示的鲁棒性目标追踪方法 |
CN109146918A (zh) * | 2018-06-11 | 2019-01-04 | 西安电子科技大学 | 一种基于分块的自适应相关目标定位方法 |
CN109377514A (zh) * | 2018-09-29 | 2019-02-22 | 中国科学院长春光学精密机械与物理研究所 | 目标跟踪方法、装置、设备及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853491A (zh) * | 2010-04-30 | 2010-10-06 | 西安电子科技大学 | 基于并行稀疏谱聚类的sar图像分割方法 |
CN102592138A (zh) * | 2011-12-30 | 2012-07-18 | 上海电力学院 | 基于多模块稀疏投影的密集场景目标跟踪方法 |
CN103150713A (zh) * | 2013-01-29 | 2013-06-12 | 南京理工大学 | 利用图像块分类稀疏表示与自适应聚合的图像超分辨方法 |
-
2013
- 2013-08-16 CN CN201310357510.XA patent/CN103440645B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853491A (zh) * | 2010-04-30 | 2010-10-06 | 西安电子科技大学 | 基于并行稀疏谱聚类的sar图像分割方法 |
CN102592138A (zh) * | 2011-12-30 | 2012-07-18 | 上海电力学院 | 基于多模块稀疏投影的密集场景目标跟踪方法 |
CN103150713A (zh) * | 2013-01-29 | 2013-06-12 | 南京理工大学 | 利用图像块分类稀疏表示与自适应聚合的图像超分辨方法 |
Non-Patent Citations (3)
Title |
---|
MEI X,LING H B: "Robust visual tracking and vehicle classification via sparse representation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
MENG YANG ET AL: "Relaxed Collaborative Representation for Pattern Classification", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
高琳 等: "基于稀疏表达的遮挡目标跟踪算法", 《计算机工程》 * |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103985143A (zh) * | 2014-05-30 | 2014-08-13 | 上海交通大学 | 基于字典学习的视频中判别性在线目标跟踪方法 |
CN104200495B (zh) * | 2014-09-25 | 2017-03-29 | 重庆信科设计有限公司 | 一种视频监控中的多目标跟踪方法 |
CN104200495A (zh) * | 2014-09-25 | 2014-12-10 | 重庆信科设计有限公司 | 一种视频监控中的多目标跟踪方法 |
CN104467742A (zh) * | 2014-12-16 | 2015-03-25 | 中国人民解放军海军航空工程学院 | 基于高斯混合模型的传感器网络分布式一致性粒子滤波器 |
CN104751484A (zh) * | 2015-03-20 | 2015-07-01 | 西安理工大学 | 一种运动目标检测方法及实现运动目标检测方法的检测系统 |
CN104751484B (zh) * | 2015-03-20 | 2017-08-25 | 西安理工大学 | 一种运动目标检测方法及实现运动目标检测方法的检测系统 |
CN104766343A (zh) * | 2015-03-27 | 2015-07-08 | 电子科技大学 | 一种基于稀疏表示的视觉目标跟踪方法 |
CN104766343B (zh) * | 2015-03-27 | 2017-08-25 | 电子科技大学 | 一种基于稀疏表示的视觉目标跟踪方法 |
CN104751493A (zh) * | 2015-04-21 | 2015-07-01 | 南京信息工程大学 | 基于梯度纹理特征的稀疏跟踪方法 |
CN105046717A (zh) * | 2015-05-25 | 2015-11-11 | 浙江师范大学 | 一种鲁棒性的视频目标对象跟踪方法 |
CN105046717B (zh) * | 2015-05-25 | 2019-03-19 | 浙江师范大学 | 一种鲁棒性的视频目标对象跟踪方法 |
CN104899567A (zh) * | 2015-06-05 | 2015-09-09 | 重庆大学 | 基于稀疏表示的小弱运动目标跟踪方法 |
CN105139418A (zh) * | 2015-08-04 | 2015-12-09 | 山东大学 | 一种新型的基于分块策略的视频跟踪方法 |
CN105096343B (zh) * | 2015-08-14 | 2018-10-30 | 中国联合网络通信集团有限公司 | 一种移动目标跟踪方法及装置 |
CN105096343A (zh) * | 2015-08-14 | 2015-11-25 | 中国联合网络通信集团有限公司 | 一种移动目标跟踪方法及装置 |
CN105513093B (zh) * | 2015-12-10 | 2018-02-16 | 电子科技大学 | 一种基于低秩矩阵表示的目标跟踪方法 |
CN105513093A (zh) * | 2015-12-10 | 2016-04-20 | 电子科技大学 | 一种基于低秩矩阵表示的目标跟踪方法 |
CN105469431A (zh) * | 2015-12-21 | 2016-04-06 | 电子科技大学 | 基于稀疏子空间的追踪方法 |
CN106097387B (zh) * | 2016-05-31 | 2019-01-22 | 电子科技大学 | 一种基于单帧随机稀疏采样的快速目标搜索方法 |
CN106097387A (zh) * | 2016-05-31 | 2016-11-09 | 电子科技大学 | 一种基于单帧随机稀疏采样的快速目标搜索算法 |
CN106203291A (zh) * | 2016-07-01 | 2016-12-07 | 昆明理工大学 | 一种基于形态成分分析与自适应字典学习的场景图像文字检测的方法 |
CN106203291B (zh) * | 2016-07-01 | 2019-07-05 | 昆明理工大学 | 一种基于形态成分分析与自适应字典学习的场景图像文字检测的方法 |
CN106393106B (zh) * | 2016-09-13 | 2018-11-06 | 东南大学 | 参数自适应密化的机器人nurbs曲线运动插补方法 |
CN106393106A (zh) * | 2016-09-13 | 2017-02-15 | 东南大学 | 参数自适应密化的机器人nurbs曲线运动插补方法 |
CN106940891B (zh) * | 2016-12-12 | 2020-01-03 | 首都师范大学 | 基于hsv的目标跟踪方法及系统 |
CN106940891A (zh) * | 2016-12-12 | 2017-07-11 | 首都师范大学 | 基于hsv的目标跟踪方法及系统 |
CN106815863A (zh) * | 2017-01-17 | 2017-06-09 | 湖南优象科技有限公司 | 一种基于双向鉴别信息的目标跟踪方法 |
CN107368785A (zh) * | 2017-06-16 | 2017-11-21 | 浙江万里学院 | 多核局部约束的视频目标跟踪方法 |
CN107527356A (zh) * | 2017-07-21 | 2017-12-29 | 华南农业大学 | 一种基于懒交互方式的视频跟踪方法 |
CN107527356B (zh) * | 2017-07-21 | 2020-12-11 | 华南农业大学 | 一种基于懒交互方式的视频跟踪方法 |
CN107844739A (zh) * | 2017-07-27 | 2018-03-27 | 电子科技大学 | 基于自适应同时稀疏表示的鲁棒性目标追踪方法 |
CN107844739B (zh) * | 2017-07-27 | 2020-09-04 | 电子科技大学 | 基于自适应同时稀疏表示的鲁棒性目标追踪方法 |
CN107680120A (zh) * | 2017-09-05 | 2018-02-09 | 南京理工大学 | 基于稀疏表示和转移受限粒子滤波的红外小目标跟踪方法 |
CN107680120B (zh) * | 2017-09-05 | 2021-04-16 | 南京理工大学 | 基于稀疏表示和转移受限粒子滤波的红外小目标跟踪方法 |
CN109146918A (zh) * | 2018-06-11 | 2019-01-04 | 西安电子科技大学 | 一种基于分块的自适应相关目标定位方法 |
CN109377514A (zh) * | 2018-09-29 | 2019-02-22 | 中国科学院长春光学精密机械与物理研究所 | 目标跟踪方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103440645B (zh) | 2016-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103440645A (zh) | 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法 | |
CN106096538B (zh) | 基于定序神经网络模型的人脸识别方法及装置 | |
CN107844785B (zh) | 一种基于尺度估计的人脸检测方法 | |
CN102831404B (zh) | 手势检测方法及系统 | |
CN102270308B (zh) | 一种基于五官相关aam模型的面部特征定位方法 | |
CN103020992B (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
Arif et al. | Automated body parts estimation and detection using salient maps and Gaussian matrix model | |
CN102663409A (zh) | 一种基于hog-lbp描述的行人跟踪方法 | |
CN102592115B (zh) | 一种人手定位方法及系统 | |
CN103886589A (zh) | 面向目标的自动化高精度边缘提取方法 | |
CN109145717A (zh) | 一种在线学习的人脸识别方法 | |
CN107909081A (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN102194108A (zh) | 一种聚类线性鉴别分析特征选择的笑脸表情识别方法 | |
CN104167006B (zh) | 一种任意手形的手势跟踪方法 | |
CN109063625A (zh) | 一种基于级联深度网络的人脸关键点检测方法 | |
CN110956099B (zh) | 一种动态手势指令识别方法 | |
CN108960185A (zh) | 基于YOLOv2的车辆目标检测方法及系统 | |
CN105654505B (zh) | 一种基于超像素的协同跟踪算法和系统 | |
CN109886267A (zh) | 一种基于最优特征选择的低对比度图像显著性检测方法 | |
CN102880864A (zh) | 一种从流媒体文件中抓拍人脸的方法 | |
CN109241814A (zh) | 基于yolo神经网络的行人检测方法 | |
CN105069745A (zh) | 基于普通图像传感器及增强现实技术的带表情变脸系统及方法 | |
CN107123130A (zh) | 一种基于超像素和混合哈希的核相关滤波目标跟踪方法 | |
CN103544478A (zh) | 一种全方位人脸检测的方法及系统 | |
CN111814760B (zh) | 人脸识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160427 Termination date: 20160816 |