CN104361609A - 一种基于稀疏表示的目标跟踪方法 - Google Patents

一种基于稀疏表示的目标跟踪方法 Download PDF

Info

Publication number
CN104361609A
CN104361609A CN201410655529.7A CN201410655529A CN104361609A CN 104361609 A CN104361609 A CN 104361609A CN 201410655529 A CN201410655529 A CN 201410655529A CN 104361609 A CN104361609 A CN 104361609A
Authority
CN
China
Prior art keywords
sparse
target
tracking
complete dictionary
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410655529.7A
Other languages
English (en)
Other versions
CN104361609B (zh
Inventor
陈勇
冷佳旭
张立波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201410655529.7A priority Critical patent/CN104361609B/zh
Publication of CN104361609A publication Critical patent/CN104361609A/zh
Application granted granted Critical
Publication of CN104361609B publication Critical patent/CN104361609B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明涉及目标跟踪技术。本发明公开了一种基于稀疏表示的目标跟踪方法。本发明的技术方案,利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习,在此基础上,利用更新后的稀疏表示模型求得稀疏系数,然后根据求得的稀疏系数,计算得到重构残差,再以重构残差最小的目标作为跟踪目标并对过完备字典进行实时更新,再根据粒子滤波跟踪方法,预测目标在下一时刻的位置,得到估计目标,最后以得到的估计目标和更新的过完备字典返回稀疏表示模型进行重复迭代。本发明将稀疏学习思想引入基于稀疏表示的粒子滤波跟踪算法,可以在遮挡不稀疏的情况下,对遮挡进行稀疏学习和建立遮挡模型,并根据更新后的稀疏表示模型对目标进行精确跟踪。

Description

一种基于稀疏表示的目标跟踪方法
技术领域
本发明涉及目标跟踪技术,特别涉及用于遮挡目标跟踪的一种基于稀疏表示的粒子滤波跟踪方法。
背景技术
在目标跟踪技术中,传统的目标跟踪方法有基于目标模式搜索匹配的Mean-Shift跟踪算法(参见Comaniciu D,Ramesh V,Meer P.Kernel-Based Object Tacking.IEEE Trans on PatternAnalysis and Machine Intelligence,2003,25(5):564-577)、基于分类的Boosting目标跟踪算法(参见]Avidan S.Ensemble Tracking.IEEE Trans on Pattern Analysis and MachineIntelligence,2007,29(2):261-271)、基于卡尔曼滤波的跟踪算法(参见Yim J,Jeong S,Gwon K,et al.Improvement of Kalman Filters for WLAN Based Indoor Tracking.Expert Systemswith Applications,2010,37(1):426-433)和基于粒子滤波的跟踪算法(参见Wang Zhaowen,Yang Xiaokang,Xu Yi,et al.CamShift Guided Particle Filter for Visual Tracking.PatternRecognition Letters,2009,30(4):407-413)。近年来,稀疏表达理论在计算机视觉领域发挥着重要作用,该方法有效地解决了光照、姿态变化以及遮挡情况下的目标识别问题。X.Mei首次将稀疏表达应用于视觉跟踪,通过求解最优稀疏解来有效地解决遮挡问题,这种方法不仅能有效应对光照变化,而且在发生大面积遮挡时也能保持稳定。但是,此方法的前提条件是引起目标变化的遮挡是稀疏的,然而这种稀疏性假设并不是在所有情况下都会成立,现有技术很难在遮挡不稀疏的情况下对目标进行跟踪。
目前,遮挡问题是视觉目标跟踪中的一个难点,由于被遮挡目标在图像上的观测不完整,目标表达模型与观测之间的匹配度会急剧降低,很容易产生误匹配而使系统跟丢目标。针对这个问题,研究者们将稀疏表示应用于目标跟踪,通过求解最优稀疏解来有效解决目标遮挡问题。但是,此类方法的前提条件是引起目标变化的遮挡是稀疏的,然而这种稀疏性假设并不是在所有情况下都会成立,现有技术很难在遮挡不稀疏的情况下对目标进行跟踪。
发明内容
本发明所要解决的技术问题,就是针对现有技术的缺点,提供一种基于稀疏表示的目标跟踪方法,利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习和建立遮挡模型,从而保证了在遮挡不稀疏的情况下,仍能对遮挡目标进行精确跟踪。
本发明解决所述技术问题采用的技术方案是,一种基于稀疏表示的目标跟踪方法,其特征在于,该方法包括以下步骤:
步骤S1,利用输入图像得到目标,并初始化过完备字典;
步骤S2,根据所述过完备字典建立稀疏表示模型;
步骤S3,利用所述稀疏表示模型,判断目标是否存在遮挡;
步骤S4,如果不存在遮挡,则采用分段正交匹配跟踪方法得到稀疏系数;
步骤S5,如果存在遮挡,则利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习和建立遮挡模型;
步骤S6,通过稀疏学习构造一个惩罚项将遮挡的空间连续性和先验信息进行有效的合并,并加入到稀疏表示模型,所述稀疏表示模型数学表达式为:
min | | y → | | 1 + λ | | e → | | 1 + γ Σ ( m , l ) ∈ E w ml | | e m - e l | | 1
sy . y → = D x → + e →
其中为跟踪目标;D为过完备字典;为稀疏向量;为存在遮挡向量;wml为相邻节点m和节点l的关联度,em和el分别为节点m和节点l的像素值,λ和γ是权衡参量;
步骤S7,利用更新的稀疏表示模型,计算得到稀疏系数;
步骤S8,利用步骤S7得到的稀疏系数,计算得到重构残差;
步骤S9,具有最小重构残差的目标即为跟踪目标;
步骤S10,根据步骤S9得到的跟踪目标,对过完备字典进行更新;
步骤S11,采用粒子滤波跟踪方法预测步骤S9得到的跟踪目标在下一时刻的位置;
步骤S12,根据步骤S11的粒子滤波跟踪方法,得到估计目标;
步骤S13,利用步骤S10更新的过完备字典和步骤S12得到的估计目标返回步骤S2建立稀疏表示模型进行重复迭代。
具体的,所述过完备字典包括目标模板和琐碎模板。
具体的,所述目标模板包括静态模板和动态模板。
本发明的有益效果是,将稀疏学习思想引入基于稀疏表示的粒子滤波跟踪算法,可以在遮挡不稀疏的情况下,对遮挡进行稀疏学习和建立遮挡模型,并根据更新后的稀疏表示模型对目标进行精确跟踪。本发明方法解决了目标跟踪中遮挡不稀疏的问题,确保了在遮挡不稀疏的情况下,目标跟踪算法仍具有很好的鲁棒性。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图及具体实施方式,详细描述本发明的技术方案。
本发明利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习,在此基础上,利用更新后的稀疏表示模型求得稀疏系数,然后根据求得的稀疏系数,计算得到重构残差,再以重构残差最小的目标作为跟踪目标并对过完备字典进行实时更新,再根据粒子滤波跟踪方法,预测目标在下一时刻的位置,得到估计目标,最后以得到的估计目标和更新的过完备字典返回稀疏表示模型进行重复迭代。
本发明流程如图1所示,包括:
步骤S1,利用输入图像得到目标,并初始化过完备字典。
在该步骤中,利用Gabor特征建立过完备字典。过完备字典包括目标模板和琐碎模板,目标模板又包括静态模板和动态模板,其中动态模板用于对字典进行更新。
步骤S2,根据步骤S1得到的过完备字典,建立稀疏表示模型。
在该步骤中,稀疏表示模型为:其中为跟踪目标,D为过完备字典,为稀疏向量,为存在遮挡。
步骤S3,利用步骤S2得到的稀疏表示模型,判断目标是否存在遮挡。
步骤S4,对于步骤S3的判断,如果不存在遮挡,则采用分段正交匹配跟踪方法得到稀疏系数。
步骤S5,对于步骤S3的判断,如果存在遮挡,则利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习和建立遮挡模型。
步骤S6,根据步骤S5的稀疏学习,加入一个惩罚项来更新稀疏表示模型。
本步骤中,通过稀疏学习构造一个惩罚项将遮挡的空间连续性和先验信息进行有效的合并,并加入到稀疏表示模型,得到的稀疏表示模型数学表达式为:
min | | y → | | 1 + λ | | e → | | 1 + γ Σ ( m , l ) ∈ E w ml | | e m - e l | | 1
sy . y → = D x → + e →
其中为跟踪目标;D为过完备字典;为稀疏向量;为存在遮挡向量;wml为相邻节点m和节点l的关联度,em和el分别为节点m和节点l的像素值,λ和γ是权衡参量。
步骤S7,利用步骤S6更新的稀疏表示模型,计算得到稀疏系数。
步骤S8,利用步骤S7得到的稀疏系数,计算得到重构残差。其数学表达式为:r=y-Dx,其中r为重构残差,y为估计目标,D为过完备字典,x为稀疏系数。
步骤S9,根据步骤S8得到的重构残差进行判断,具有最小重构残差目标的即为跟踪目标。
步骤S10,根据步骤S9得到的跟踪目标,对过完备字典进行更新。
在本步骤中,过完备字典更新采用如下策略:首先,利用当前的跟踪结果替换动态模板中可靠性较弱的的原子,然后利用过完备字典更新方法K-SVD对整个过完备字典进行更新。
步骤S11,利用粒子滤波跟踪方法预测步骤S9得到的跟踪目标在下一时刻的位置。
本步骤粒子滤波跟踪方法中,以重构残差作为更新粒子权重的观测似然度。
步骤S12,根据步骤S11的粒子滤波跟踪方法,得到估计目标。
步骤S13,利用步骤S10更新的过完备字典和步骤S12得到的估计目标返回步骤S2建立稀疏表示模型。

Claims (3)

1.一种基于稀疏表示的目标跟踪方法,其特征在于,该方法包括以下步骤:
步骤S1,利用输入图像得到目标,并初始化过完备字典;
步骤S2,根据所述过完备字典建立稀疏表示模型;
步骤S3,利用所述稀疏表示模型,判断目标是否存在遮挡;
步骤S4,如果不存在遮挡,则采用分段正交匹配跟踪方法得到稀疏系数;
步骤S5,如果存在遮挡,则利用遮挡的空间连续性和先验信息对遮挡进行稀疏学习和建立遮挡模型;
步骤S6,通过稀疏学习构造一个惩罚项将遮挡的空间连续性和先验信息进行有效的合并,并加入到稀疏表示模型,所述稀疏表示模型数学表达式为:
min | | y → | | 1 + λ | | e → | | 1 + γ Σ ( m , l ) ∈ E w ml | | e m - e l | | 1
st . y → = D x → + e →
其中为跟踪目标;D为过完备字典;为稀疏向量;为存在遮挡向量;wml为相邻节点m和节点l的关联度,em和el分别为节点m和节点l的像素值,λ和γ是权衡参量;
步骤S7,利用更新的稀疏表示模型,计算得到稀疏系数;
步骤S8,利用步骤S7得到的稀疏系数,计算得到重构残差;
步骤S9,具有最小重构残差的目标即为跟踪目标;
步骤S10,根据步骤S9得到的跟踪目标,对过完备字典进行更新;
步骤S11,采用粒子滤波跟踪方法预测步骤S9得到的跟踪目标在下一时刻的位置;
步骤S12,根据步骤S11的粒子滤波跟踪方法,得到估计目标;
步骤S13,利用步骤S10更新的过完备字典和步骤S12得到的估计目标返回步骤S2建立稀疏表示模型进行重复迭代。
2.根据权利要求1所述的一种基于稀疏表示的目标跟踪方法,其特征在于,所述过完备字典包括目标模板和琐碎模板。
3.根据权利要求2所述的一种基于稀疏表示的目标跟踪方法,其特征在于,所述目标模板包括静态模板和动态模板。
CN201410655529.7A 2014-11-18 2014-11-18 一种基于稀疏表示的目标跟踪方法 Active CN104361609B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410655529.7A CN104361609B (zh) 2014-11-18 2014-11-18 一种基于稀疏表示的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410655529.7A CN104361609B (zh) 2014-11-18 2014-11-18 一种基于稀疏表示的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN104361609A true CN104361609A (zh) 2015-02-18
CN104361609B CN104361609B (zh) 2017-12-01

Family

ID=52528867

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410655529.7A Active CN104361609B (zh) 2014-11-18 2014-11-18 一种基于稀疏表示的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN104361609B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899567A (zh) * 2015-06-05 2015-09-09 重庆大学 基于稀疏表示的小弱运动目标跟踪方法
CN105007057A (zh) * 2015-07-09 2015-10-28 杭州电子科技大学 一种针对有限集跟踪滤波器的均匀密集杂波稀疏方法
CN105046717A (zh) * 2015-05-25 2015-11-11 浙江师范大学 一种鲁棒性的视频目标对象跟踪方法
CN105469431A (zh) * 2015-12-21 2016-04-06 电子科技大学 基于稀疏子空间的追踪方法
CN106203495A (zh) * 2016-07-01 2016-12-07 广东技术师范学院 一种基于稀疏判别学习的目标跟踪方法
CN107292246A (zh) * 2017-06-05 2017-10-24 河海大学 基于hog‑pca和迁移学习的红外人体目标识别方法
CN107437259A (zh) * 2017-08-08 2017-12-05 西安科技大学 一种矿井用单摄像头运动目标跟踪方法
CN107481269A (zh) * 2017-08-08 2017-12-15 西安科技大学 一种矿井用多摄像头运动目标连续跟踪方法
CN108492312A (zh) * 2018-02-26 2018-09-04 大连大学 光照变化下基于逆向稀疏表示的视觉跟踪方法
CN108932731A (zh) * 2017-05-24 2018-12-04 上海云从企业发展有限公司 基于先验信息的目标跟踪方法及系统
CN108961696A (zh) * 2018-06-20 2018-12-07 中国船舶重工集团公司第七〇九研究所 一种海洋核动力平台的预警系统及预警方法
CN110189357A (zh) * 2019-04-28 2019-08-30 南京工程学院 面向复杂环境的图像目标特征提取与实时跟踪方法
CN110569807A (zh) * 2019-09-09 2019-12-13 深圳市迪米欧科技有限公司 面向复杂场景的多源目标跟踪方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955951A (zh) * 2014-05-09 2014-07-30 合肥工业大学 基于正则化模板与重建误差分解的快速目标跟踪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955951A (zh) * 2014-05-09 2014-07-30 合肥工业大学 基于正则化模板与重建误差分解的快速目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
陈勇 等: "利用改进的稀疏表示处理FGB传感信号", 《光电子•激光》 *
高琳 等: "基于稀疏表达的遮挡目标跟踪算法", 《计算机工程》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046717B (zh) * 2015-05-25 2019-03-19 浙江师范大学 一种鲁棒性的视频目标对象跟踪方法
CN105046717A (zh) * 2015-05-25 2015-11-11 浙江师范大学 一种鲁棒性的视频目标对象跟踪方法
CN104899567A (zh) * 2015-06-05 2015-09-09 重庆大学 基于稀疏表示的小弱运动目标跟踪方法
CN105007057B (zh) * 2015-07-09 2018-08-24 杭州电子科技大学 一种针对有限集跟踪滤波器的均匀密集杂波稀疏方法
CN105007057A (zh) * 2015-07-09 2015-10-28 杭州电子科技大学 一种针对有限集跟踪滤波器的均匀密集杂波稀疏方法
CN105469431A (zh) * 2015-12-21 2016-04-06 电子科技大学 基于稀疏子空间的追踪方法
CN106203495A (zh) * 2016-07-01 2016-12-07 广东技术师范学院 一种基于稀疏判别学习的目标跟踪方法
CN106203495B (zh) * 2016-07-01 2020-03-17 广东技术师范学院 一种基于稀疏判别学习的目标跟踪方法
CN108932731B (zh) * 2017-05-24 2021-02-05 上海云从企业发展有限公司 基于先验信息的目标跟踪方法及系统
CN108932731A (zh) * 2017-05-24 2018-12-04 上海云从企业发展有限公司 基于先验信息的目标跟踪方法及系统
CN107292246A (zh) * 2017-06-05 2017-10-24 河海大学 基于hog‑pca和迁移学习的红外人体目标识别方法
CN107481269A (zh) * 2017-08-08 2017-12-15 西安科技大学 一种矿井用多摄像头运动目标连续跟踪方法
CN107437259A (zh) * 2017-08-08 2017-12-05 西安科技大学 一种矿井用单摄像头运动目标跟踪方法
CN108492312A (zh) * 2018-02-26 2018-09-04 大连大学 光照变化下基于逆向稀疏表示的视觉跟踪方法
CN108492312B (zh) * 2018-02-26 2021-06-29 大连大学 光照变化下基于逆向稀疏表示的视觉跟踪方法
CN108961696A (zh) * 2018-06-20 2018-12-07 中国船舶重工集团公司第七〇九研究所 一种海洋核动力平台的预警系统及预警方法
CN110189357A (zh) * 2019-04-28 2019-08-30 南京工程学院 面向复杂环境的图像目标特征提取与实时跟踪方法
CN110569807A (zh) * 2019-09-09 2019-12-13 深圳市迪米欧科技有限公司 面向复杂场景的多源目标跟踪方法

Also Published As

Publication number Publication date
CN104361609B (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
CN104361609A (zh) 一种基于稀疏表示的目标跟踪方法
Choi et al. Looking to relations for future trajectory forecast
Zhu et al. Object tracking in structured environments for video surveillance applications
Newman et al. Outdoor SLAM using visual appearance and laser ranging
WO2015010451A1 (zh) 一种从单幅图像检测道路的方法
US20110182469A1 (en) 3d convolutional neural networks for automatic human action recognition
CN102722697B (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
CN104680508A (zh) 卷积神经网络和基于卷积神经网络的目标物体检测方法
Babu et al. Online adaptive radial basis function networks for robust object tracking
CN104021559A (zh) 基于互信息和Harris角点检测的图像配准方法
Kim et al. Predicting pedestrian trajectories using velocity-space reasoning
Gil et al. Occupancy grid based graph-SLAM using the distance transform, SURF features and SGD
Ding et al. Simultaneous body part and motion identification for human-following robots
CN111738074A (zh) 基于弱监督学习的行人属性识别方法、系统及装置
CN103996207A (zh) 一种物体跟踪方法
Zhang et al. Visual odometry based on random finite set statistics in urban environment
Steinbring et al. High-accuracy real-time whole-body human motion tracking based on constrained nonlinear kalman filtering
Dong et al. Weighted triplet loss based on deep neural networks for loop closure detection in VSLAM
Yoon et al. Filling in the blanks: Reconstructing microscopic crowd motion from multiple disparate noisy sensors
Başeski et al. Using multi-modal 3D contours and their relations for vision and robotics
Cuntoor et al. Human-robot teamwork using activity recognition and human instruction
Weng et al. CyLKs: Unsupervised Cycle Lucas-Kanade Network for Landmark Tracking
Guo et al. 3D object detection and tracking based on streaming data
Suresh et al. Online learning neural tracker
Kao et al. A Posture Features Based Pedestrian Trajectory Prediction with LSTM

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant