CN104361609B - 一种基于稀疏表示的目标跟踪方法 - Google Patents
一种基于稀疏表示的目标跟踪方法 Download PDFInfo
- Publication number
- CN104361609B CN104361609B CN201410655529.7A CN201410655529A CN104361609B CN 104361609 B CN104361609 B CN 104361609B CN 201410655529 A CN201410655529 A CN 201410655529A CN 104361609 B CN104361609 B CN 104361609B
- Authority
- CN
- China
- Prior art keywords
- sparse
- target
- mrow
- msub
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明涉及目标跟踪技术。本发明公开了一种基于稀疏表示的目标跟踪方法。本发明的技术方案,利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习,在此基础上,利用更新后的稀疏表示模型求得稀疏系数,然后根据求得的稀疏系数,计算得到重构残差,再以重构残差最小的目标作为跟踪目标并对过完备字典进行实时更新,再根据粒子滤波跟踪方法,预测目标在下一时刻的位置,得到估计目标,最后以得到的估计目标和更新的过完备字典返回稀疏表示模型进行重复迭代。本发明将稀疏学习思想引入基于稀疏表示的粒子滤波跟踪算法,可以在遮挡不稀疏的情况下,对遮挡进行稀疏学习和建立遮挡模型,并根据更新后的稀疏表示模型对目标进行精确跟踪。
Description
技术领域
本发明涉及目标跟踪技术,特别涉及用于遮挡目标跟踪的一种基于稀疏表示的粒子滤波跟踪方法。
背景技术
在目标跟踪技术中,传统的目标跟踪方法有基于目标模式搜索匹配的Mean-Shift跟踪算法(参见Comaniciu D,Ramesh V,Meer P.Kernel-Based Object Tacking.IEEETrans on Pattern Analysis and Machine Intelligence,2003,25(5):564-577)、基于分类的Boosting目标跟踪算法(参见]Avidan S.Ensemble Tracking.IEEE Trans onPattern Analysis and Machine Intelligence,2007,29(2):261-271)、基于卡尔曼滤波的跟踪算法(参见Yim J,Jeong S,Gwon K,et al.Improvement of Kalman Filters forWLAN Based Indoor Tracking.Expert Systems with Applications,2010,37(1):426-433)和基于粒子滤波的跟踪算法(参见Wang Zhaowen,Yang Xiaokang,Xu Yi,etal.CamShift Guided Particle Filter for Visual Tracking.Pattern RecognitionLetters,2009,30(4):407-413)。近年来,稀疏表达理论在计算机视觉领域发挥着重要作用,该方法有效地解决了光照、姿态变化以及遮挡情况下的目标识别问题。X.Mei首次将稀疏表达应用于视觉跟踪,通过求解最优稀疏解来有效地解决遮挡问题,这种方法不仅能有效应对光照变化,而且在发生大面积遮挡时也能保持稳定。但是,此方法的前提条件是引起目标变化的遮挡是稀疏的,然而这种稀疏性假设并不是在所有情况下都会成立,现有技术很难在遮挡不稀疏的情况下对目标进行跟踪。
目前,遮挡问题是视觉目标跟踪中的一个难点,由于被遮挡目标在图像上的观测不完整,目标表达模型与观测之间的匹配度会急剧降低,很容易产生误匹配而使系统跟丢目标。针对这个问题,研究者们将稀疏表示应用于目标跟踪,通过求解最优稀疏解来有效解决目标遮挡问题。但是,此类方法的前提条件是引起目标变化的遮挡是稀疏的,然而这种稀疏性假设并不是在所有情况下都会成立,现有技术很难在遮挡不稀疏的情况下对目标进行跟踪。
发明内容
本发明所要解决的技术问题,就是针对现有技术的缺点,提供一种基于稀疏表示的目标跟踪方法,利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习和建立遮挡模型,从而保证了在遮挡不稀疏的情况下,仍能对遮挡目标进行精确跟踪。
本发明解决所述技术问题采用的技术方案是,一种基于稀疏表示的目标跟踪方法,其特征在于,该方法包括以下步骤:
步骤S1,利用输入图像得到目标,并初始化过完备字典;
步骤S2,根据所述过完备字典建立稀疏表示模型;
步骤S3,利用所述稀疏表示模型,判断目标是否存在遮挡;
步骤S4,如果不存在遮挡,则采用分段正交匹配跟踪方法得到稀疏系数;
步骤S5,如果存在遮挡,则利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习和建立遮挡模型;
步骤S6,通过稀疏学习构造一个惩罚项将遮挡的空间连续性和先验信息进行有效的合并,并加入到稀疏表示模型,所述稀疏表示模型数学表达式为:
其中为跟踪目标;D为过完备字典;为稀疏向量;为存在遮挡向量;wml为相邻节点m和节点l的关联度,em和el分别为节点m和节点l的像素值,λ和γ是权衡参量;
步骤S7,利用更新的稀疏表示模型,计算得到稀疏系数;
步骤S8,利用步骤S7得到的稀疏系数,计算得到重构残差;
步骤S9,具有最小重构残差的目标即为跟踪目标;
步骤S10,根据步骤S9得到的跟踪目标,对过完备字典进行更新;
步骤S11,采用粒子滤波跟踪方法预测步骤S9得到的跟踪目标在下一时刻的位置;
步骤S12,根据步骤S11的粒子滤波跟踪方法,得到估计目标;
步骤S13,利用步骤S10更新的过完备字典和步骤S12得到的估计目标返回步骤S2建立稀疏表示模型进行重复迭代。
具体的,所述过完备字典包括目标模板和琐碎模板。
具体的,所述目标模板包括静态模板和动态模板。
本发明的有益效果是,将稀疏学习思想引入基于稀疏表示的粒子滤波跟踪算法,可以在遮挡不稀疏的情况下,对遮挡进行稀疏学习和建立遮挡模型,并根据更新后的稀疏表示模型对目标进行精确跟踪。本发明方法解决了目标跟踪中遮挡不稀疏的问题,确保了在遮挡不稀疏的情况下,目标跟踪算法仍具有很好的鲁棒性。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图及具体实施方式,详细描述本发明的技术方案。
本发明利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习,在此基础上,利用更新后的稀疏表示模型求得稀疏系数,然后根据求得的稀疏系数,计算得到重构残差,再以重构残差最小的目标作为跟踪目标并对过完备字典进行实时更新,再根据粒子滤波跟踪方法,预测目标在下一时刻的位置,得到估计目标,最后以得到的估计目标和更新的过完备字典返回稀疏表示模型进行重复迭代。
本发明流程如图1所示,包括:
步骤S1,利用输入图像得到目标,并初始化过完备字典。
在该步骤中,利用Gabor特征建立过完备字典。过完备字典包括目标模板和琐碎模板,目标模板又包括静态模板和动态模板,其中动态模板用于对字典进行更新。
步骤S2,根据步骤S1得到的过完备字典,建立稀疏表示模型。
在该步骤中,稀疏表示模型为:其中为跟踪目标,D为过完备字典,为稀疏向量,为存在遮挡。
步骤S3,利用步骤S2得到的稀疏表示模型,判断目标是否存在遮挡。
步骤S4,对于步骤S3的判断,如果不存在遮挡,则采用分段正交匹配跟踪方法得到稀疏系数。
步骤S5,对于步骤S3的判断,如果存在遮挡,则利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习和建立遮挡模型。
步骤S6,根据步骤S5的稀疏学习,加入一个惩罚项来更新稀疏表示模型。
本步骤中,通过稀疏学习构造一个惩罚项将遮挡的空间连续性和先验信息进行有效的合并,并加入到稀疏表示模型,得到的稀疏表示模型数学表达式为:
其中为跟踪目标;D为过完备字典;为稀疏向量;为存在遮挡向量;wml为相邻节点m和节点l的关联度,em和el分别为节点m和节点l的像素值,λ和γ是权衡参量。
步骤S7,利用步骤S6更新的稀疏表示模型,计算得到稀疏系数。
步骤S8,利用步骤S7得到的稀疏系数,计算得到重构残差。其数学表达式为:r=y-Dx,其中r为重构残差,y为估计目标,D为过完备字典,x为稀疏系数。
步骤S9,根据步骤S8得到的重构残差进行判断,具有最小重构残差目标的即为跟踪目标。
步骤S10,根据步骤S9得到的跟踪目标,对过完备字典进行更新。
在本步骤中,过完备字典更新采用如下策略:首先,利用当前的跟踪结果替换动态模板中可靠性较弱的的原子,然后利用过完备字典更新方法K-SVD对整个过完备字典进行更新。
步骤S11,利用粒子滤波跟踪方法预测步骤S9得到的跟踪目标在下一时刻的位置。
本步骤粒子滤波跟踪方法中,以重构残差作为更新粒子权重的观测似然度。
步骤S12,根据步骤S11的粒子滤波跟踪方法,得到估计目标。
步骤S13,利用步骤S10更新的过完备字典和步骤S12得到的估计目标返回步骤S2建立稀疏表示模型。
Claims (3)
1.一种基于稀疏表示的目标跟踪方法,其特征在于,该方法包括以下步骤:
步骤S1,利用输入图像得到目标,并初始化过完备字典;
步骤S2,根据所述过完备字典建立稀疏表示模型;
步骤S3,利用所述稀疏表示模型,判断目标是否存在遮挡;
步骤S4,如果不存在遮挡,则采用分段正交匹配跟踪方法得到稀疏系数;
步骤S5,如果存在遮挡,则利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习和建立遮挡模型;
步骤S6,通过稀疏学习构造一个惩罚项将遮挡的空间连续性和先验信息进行有效的合并,并加入到稀疏表示模型,所述稀疏表示模型数学表达式为:
<mrow>
<mi>min</mi>
<msub>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>y</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>|</mo>
<mo>|</mo>
</mrow>
<mn>1</mn>
</msub>
<mo>+</mo>
<mi>&lambda;</mi>
<msub>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>e</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>|</mo>
<mo>|</mo>
</mrow>
<mn>1</mn>
</msub>
<mo>+</mo>
<mi>&gamma;</mi>
<munder>
<mi>&Sigma;</mi>
<mrow>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>l</mi>
<mo>)</mo>
</mrow>
<mo>&Element;</mo>
<mi>E</mi>
</mrow>
</munder>
<msub>
<mi>w</mi>
<mi>ml</mi>
</msub>
<msub>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>e</mi>
<mi>m</mi>
</msub>
<mo>-</mo>
<msub>
<mi>e</mi>
<mi>l</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
<mn>1</mn>
</msub>
</mrow>
<mrow>
<mi>st</mi>
<mo>.</mo>
<mover>
<mi>y</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>=</mo>
<mi>D</mi>
<mover>
<mi>x</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>+</mo>
<mover>
<mi>e</mi>
<mo>&RightArrow;</mo>
</mover>
</mrow>
其中为跟踪目标;D为过完备字典;为稀疏向量;为存在遮挡向量;wml为相邻节点m和节点l的关联度,em和el分别为节点m和节点l的像素值,λ和γ是权衡参量;
步骤S7,利用更新的稀疏表示模型,计算得到稀疏系数;
步骤S8,利用步骤S7得到的稀疏系数,计算得到重构残差;
步骤S9,具有最小重构残差的目标即为跟踪目标;
步骤S10,根据步骤S9得到的跟踪目标,对过完备字典进行更新;
步骤S11,采用粒子滤波跟踪方法预测步骤S9得到的跟踪目标在下一时刻的位置;
步骤S12,根据步骤S11的粒子滤波跟踪方法,得到估计目标;
步骤S13,利用步骤S10更新的过完备字典和步骤S12得到的估计目标返回步骤S2建立稀疏表示模型进行重复迭代。
2.根据权利要求1所述的一种基于稀疏表示的目标跟踪方法,其特征在于,所述过完备字典包括目标模板和琐碎模板。
3.根据权利要求2所述的一种基于稀疏表示的目标跟踪方法,其特征在于,所述目标模板包括静态模板和动态模板。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410655529.7A CN104361609B (zh) | 2014-11-18 | 2014-11-18 | 一种基于稀疏表示的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410655529.7A CN104361609B (zh) | 2014-11-18 | 2014-11-18 | 一种基于稀疏表示的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104361609A CN104361609A (zh) | 2015-02-18 |
CN104361609B true CN104361609B (zh) | 2017-12-01 |
Family
ID=52528867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410655529.7A Active CN104361609B (zh) | 2014-11-18 | 2014-11-18 | 一种基于稀疏表示的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104361609B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105046717B (zh) * | 2015-05-25 | 2019-03-19 | 浙江师范大学 | 一种鲁棒性的视频目标对象跟踪方法 |
CN104899567A (zh) * | 2015-06-05 | 2015-09-09 | 重庆大学 | 基于稀疏表示的小弱运动目标跟踪方法 |
CN105007057B (zh) * | 2015-07-09 | 2018-08-24 | 杭州电子科技大学 | 一种针对有限集跟踪滤波器的均匀密集杂波稀疏方法 |
CN105469431A (zh) * | 2015-12-21 | 2016-04-06 | 电子科技大学 | 基于稀疏子空间的追踪方法 |
CN106203495B (zh) * | 2016-07-01 | 2020-03-17 | 广东技术师范学院 | 一种基于稀疏判别学习的目标跟踪方法 |
CN108932731B (zh) * | 2017-05-24 | 2021-02-05 | 上海云从企业发展有限公司 | 基于先验信息的目标跟踪方法及系统 |
CN107292246A (zh) * | 2017-06-05 | 2017-10-24 | 河海大学 | 基于hog‑pca和迁移学习的红外人体目标识别方法 |
CN107437259A (zh) * | 2017-08-08 | 2017-12-05 | 西安科技大学 | 一种矿井用单摄像头运动目标跟踪方法 |
CN107481269B (zh) * | 2017-08-08 | 2020-07-03 | 西安科技大学 | 一种矿井用多摄像头运动目标连续跟踪方法 |
CN108492312B (zh) * | 2018-02-26 | 2021-06-29 | 大连大学 | 光照变化下基于逆向稀疏表示的视觉跟踪方法 |
CN108961696A (zh) * | 2018-06-20 | 2018-12-07 | 中国船舶重工集团公司第七〇九研究所 | 一种海洋核动力平台的预警系统及预警方法 |
CN110189357A (zh) * | 2019-04-28 | 2019-08-30 | 南京工程学院 | 面向复杂环境的图像目标特征提取与实时跟踪方法 |
CN110569807B (zh) * | 2019-09-09 | 2023-10-20 | 深圳市上欧新材料有限公司 | 面向复杂场景的多源目标跟踪方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955951A (zh) * | 2014-05-09 | 2014-07-30 | 合肥工业大学 | 基于正则化模板与重建误差分解的快速目标跟踪方法 |
-
2014
- 2014-11-18 CN CN201410655529.7A patent/CN104361609B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955951A (zh) * | 2014-05-09 | 2014-07-30 | 合肥工业大学 | 基于正则化模板与重建误差分解的快速目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
利用改进的稀疏表示处理FGB传感信号;陈勇 等;《光电子•激光》;20141031;第25卷(第10期);1936-1942 * |
基于稀疏表达的遮挡目标跟踪算法;高琳 等;《计算机工程》;20120831;第38卷(第15期);5-8 * |
Also Published As
Publication number | Publication date |
---|---|
CN104361609A (zh) | 2015-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104361609B (zh) | 一种基于稀疏表示的目标跟踪方法 | |
Iyer et al. | Geometric consistency for self-supervised end-to-end visual odometry | |
CN104616318B (zh) | 一种视频序列图像中的运动目标跟踪方法 | |
CN104200494B (zh) | 一种基于光流的实时视觉目标跟踪方法 | |
CN104050685B (zh) | 基于粒子滤波视觉注意力模型的运动目标检测方法 | |
CN104820997B (zh) | 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法 | |
Grudic et al. | Outdoor Path Labeling Using Polynomial Mahalanobis Distance. | |
CN103077535A (zh) | 一种基于多任务联合稀疏表示的目标跟踪方法 | |
Salmane et al. | Object tracking using Harris corner points based optical flow propagation and Kalman filter | |
CN105631405A (zh) | 基于多级分块的交通视频智能识别背景建模方法 | |
Ding et al. | Simultaneous body part and motion identification for human-following robots | |
Yoon et al. | Filling in the blanks: Reconstructing microscopic crowd motion from multiple disparate noisy sensors | |
CN101739714B (zh) | 一种从图像中重建枝干模型的方法 | |
CN113989719A (zh) | 一种工地盗窃监测方法及系统 | |
CN106778479A (zh) | 一种基于节体对象的动作识别方法 | |
Lindgren et al. | Boom-vio: Bootstrapped monocular visual-inertial odometry with absolute trajectory estimation through unsupervised deep learning | |
Kang et al. | Robust data association for object-level semantic slam | |
Lenac et al. | Revival of filtering based SLAM? Exactly sparse delayed state filter on Lie groups | |
Wang et al. | Robust and fast mapping based on direct methods | |
Wang et al. | Towards bio-inspired unsupervised representation learning for indoor aerial navigation | |
Duan | Visual smart navigation for UAV mission-oriented flight | |
Lee et al. | A non-iterative pose-graph optimization algorithm for fast 2D SLAM | |
Zhu et al. | Articulated human motion tracking with foreground learning | |
Pugeault et al. | Temporal accumulation of oriented visual features | |
Daher et al. | From SLAM to CAD Maps and Back Using Generative Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |