CN104899896A - 一种基于子空间特征的多任务学习目标跟踪方法 - Google Patents

一种基于子空间特征的多任务学习目标跟踪方法 Download PDF

Info

Publication number
CN104899896A
CN104899896A CN201510324826.8A CN201510324826A CN104899896A CN 104899896 A CN104899896 A CN 104899896A CN 201510324826 A CN201510324826 A CN 201510324826A CN 104899896 A CN104899896 A CN 104899896A
Authority
CN
China
Prior art keywords
target
particle
tracking
task learning
subspace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510324826.8A
Other languages
English (en)
Other versions
CN104899896B (zh
Inventor
李映
胡晓华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dongguan Xiaorui Motor Technology Co ltd
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201510324826.8A priority Critical patent/CN104899896B/zh
Publication of CN104899896A publication Critical patent/CN104899896A/zh
Application granted granted Critical
Publication of CN104899896B publication Critical patent/CN104899896B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于子空间特征的多任务学习目标跟踪方法,充分利用子空间和稀疏重建在目标外观建模方面的优势,将l1算法引入到子空间中,借助多任务学习(MTT)的方法来挖掘各个粒子之间的相互关系。构造字典时不再采用图像模板,而是利用PCA的特征子空间构成,并加入琐碎模板以重建噪声。将每一个粒子稀疏表达系数的求解看作是MTT中的一个单任务学习问题,通过施加常用的混合范数l2,1来联合求解所有粒子的稀疏表示系数,并借助Accelerated Proximal Gradient(APG)方法来进行多任务稀疏表示的求解。相较于l1跟踪的方法,MTT方法通过挖掘粒子之间的相关性来提高跟踪效果和降低跟踪的计算复杂度。

Description

一种基于子空间特征的多任务学习目标跟踪方法
技术领域
本发明属于计算机数据图像处理技术,具体涉及一种基于子空间特征的多任务学习目标跟踪方法。
背景技术
目标跟踪算法有着广阔的应用场景。在智能视频监控、智能交通、机器人视觉、视频索引等领域都起着重要的作用。此外,目标跟踪在人工智能、内容检索、精确制导、人机交互、医疗诊断等领域都得到了广泛的研究和运用。
尽管目标跟踪算法的研究已经进行了很多年,但此领域仍然存在着许多困难和挑战。目标跟踪仍是计算机视觉领域中的热点问题之一。目前,仍然没有一个良好的算法能够较好地全面处理目标跟踪领域的问题。
近年来,基于各种子空间的外观模型得到了学者们的广泛研究。一种是基于增量PCA子空间的目标跟踪算法,另一种是基于稀疏表示的目标跟踪算法,即l1最小化跟踪。基于增量PCA子空间的目标跟踪算法,通过在线更新可以有效的解决目标较大外观变化和长时间跟踪导致的漂移问题,然而对部分遮挡却很敏感。稀疏表示方法将目标在一个字典上进行稀疏线性表示,这个字典可以实时在线更新,以反映目标的外观变化。这种表示方法已经被实验证明对于目标的部分遮挡比较有效,会提升目标跟踪的效果。然而,稀疏表示方法在每一帧图像上会进行大量的l1优化,这导致计算量比较大。同时,在粒子滤波的框架下,计算量会随着粒子数目的增多而线性增加。最近,一些学者提出来的一些加速l1优化求解的方法被应用到目标跟踪中,但这类方法都是假设各个粒子之间的稀疏表示过程是相互独立的,忽略粒子之间的关系容易导致目标的漂移,尤其是当目标在外观有显著变化时。此外这些算法主要采用图像模板作为字典,从而使得超完备字典的维数很高,计算量大,而且图像原始灰度特征容易受光照以及相似背景等影响。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于子空间特征的多任务学习目标跟踪方法。
技术方案
一种基于子空间特征的多任务学习目标跟踪方法,其特征在于步骤如下:
步骤1:读取第一帧图像数据以及目标块在第一帧图像中的参数[x,y,w,h],在目标周围根据高斯分布随机产生m个粒子点,并记录其坐标(xi,yi),i=1,2,L,m;每个粒子代表了一个目标样本;
其中:x,y表示目标中心的横纵坐标,w,h表示目标的宽和高;
步骤2:采用仿射变换将每个目标样本区域规划到一个M×N的标准图像块z∈RM×N
步骤3:对每个目标样本使用增量PCA算法,提取每个目标样本的视觉特征表示向量ui
步骤4:将所有目标样本对应的列向量ui组合到一起为D=[u1,u2,L,um],引入琐碎模板Id∈Rd×d实现重构噪声和遮挡,构成一个大小为d×(m+d)维的字典V=[D Id];其中:Id为单位矩阵;
步骤5:读取下一帧图像,在上一帧图像的目标块周围随机选取n个粒子点,记录粒子点坐标(xk,yk)k=1,2,L,n;每个粒子点代表了一个候选目标,每个粒子点按步骤2的特征表示方法得到一个列向量yi
步骤6:将所有待选目标粒子对应的向量组合在一起得到矩阵Y=[y1,y2,...,yn],利用字典表示为:
Y = D t I d Z E ⇒ Y = BC
根据 min C | | Y - BC | | F 2 + λ | | C | | 2,1 , 求解得到系数 C = Z E ;
其中:λ是联合稀疏正则项和可靠重建项之间的平衡系数;||Ci||2是Ci的l2范数,Ci是矩阵C的第i行;
步骤7:对步骤5产生的n个候选目标,计算每个候选目标的重构误差以其中重构误差最小的粒子[x,y,w,h]作为目标跟踪的结果;
判断是否处理完所有图像序列的所有帧,若没有,则转到步骤4继续;若处理完,则跟踪结束。
有益效果
本发明提出的一种基于子空间特征的多任务学习目标跟踪方法,充分利用子空间和稀疏重建在目标外观建模方面的优势,将l1算法引入到子空间中,借助多任务学习(MTT)的方法来挖掘各个粒子之间的相互关系。构造字典时不再采用图像模板,而是利用PCA的特征子空间构成,并加入琐碎模板以重建噪声。将每一个粒子稀疏表达系数的求解看作是MTT中的一个单任务学习问题,通过施加常用的混合范数l2,1来联合求解所有粒子的稀疏表示系数,并借助Accelerated Proximal Gradient(APG)方法来进行多任务稀疏表示的求解。相较于l1跟踪的方法,MTT方法通过挖掘粒子之间的相关性来提高跟踪效果和降低跟踪的计算复杂度。
本发明在子空间的基础上,在特征子空间上构造字典,计算量大大减小,引入琐碎模板解决了遮挡问题,同时能够更加有效地表示目标,克服了光照变化、尺度变化等问题。在稀疏表示框架下,引入多任务学习方法,充分挖掘粒子之间的相互关系,实现了红外目标的快速鲁棒跟踪。
附图说明
图1本发明方法的流程图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明在第一帧目标确定的基础上,首先采用PCA子空间特征表示方法进行目标表示,并引入琐碎模板构造用于稀疏表示的字典。其次,对粒子滤波方法产生的候选目标,进行联合稀疏表示,求解得到表示系数。最后,选取其中重构误差最小的候选目标作为跟踪结果。具体如下步骤如下,流程可参考附图。
1)读取第一帧图像数据以及目标块在第一帧图像中的参数[x,y,w,h],在目标周围根据高斯分布随机选取m个粒子点(m取600),并记录其坐标(xi,yi)i=1,2,L,m,每个粒子代表了一个目标样本,其中x,y表示目标中心的横纵坐标,w,h表示目标的宽和高。
2)对前10帧序列图像,使用粒子滤波跟踪算法,使用跟踪到的目标外观模型初始化子空间。
3)对所有的候选粒子点进行仿射变换将目标区域规划到一个M×N(32×32)的标准图像块z∈RM×N
4)对步骤3)产生的每个目标样本z∈RM×N,使用增量PCA算法,提取其视觉特征表示向量ui(主分量个数取16)。
5)将所有粒子对应的列向量ui组合到一起即D=[u1,u2,L,um],为重构噪声和遮挡引入琐碎模板Id∈Rd×d(Id为单位矩阵),构成了一个大小为d×(m+d)维的目标特征模板(字典)V=[D Id]。
6)读取下一帧图像,在上一帧图像目标周围随机产生n个粒子点,记录其坐标(xk,yk),k=1,2,L,n。每个粒子点代表了一个候选目标,每个粒子点按步骤3的特征表示方法可以得到一个列向量yi
7)将所有待选目标粒子对应的向量组合在一起得到矩阵Y=[y1,y2,...,yn],利用目标特征模板(字典)进行表示,即:
Y = D t I d Z E ⇒ Y = BC
这里,我们寻求表示系数C的稀疏性,即根据此目标函数,求解得到系数 C = Z E . 其中λ是联合稀疏正则项和可靠重建项之间的平衡系数。同时,我们定义这里||Ci||2是Ci的l2范数,Ci是矩阵C的第i行。
使用Accelarated Proximal Gradient(APG)方法求解上式,上式中的||C||2,1就是非平滑的约束项。APG方法是在更新当前的系数矩阵C(k)和一个聚合矩阵V(k)中迭代进行,当解或目标函数的变化比设定好的阈值低时就停止迭代,认为此时已经收敛。
8)对于粒子滤波产生的n个候选目标求候选目标的重构误差选择其中重构误差最小的粒子[x,y,w,h]作为目标跟踪的结果。
判断是否处理完所有图像序列的所有帧。若没有,则转到步骤5继续;若处理完,则算法结束。
本发明利用目标图像的灰度特征信息作为目标模板构造字典,通过对每个候选目标计算l1范数最小化进行稀疏求解,计算其重构误差得到每个粒子的概率,从而实现目标跟踪。考虑到这种方法字典的维数过高,且对每个粒子求解l1最小化的过程相当耗时,无法满足算法的实时性,以及灰度特征易受噪声、光照变化和相似物体干扰等影响的问题,本发明利用PCA子空间特征构造字典,不但很好的保持了原始图像特征,还具备更好的表示能力,同时借用多任务学习思想,充分挖掘粒子间的相关性,降低了跟踪过程的计算复杂度并提高了跟踪效果。

Claims (1)

1.一种基于子空间特征的多任务学习目标跟踪方法,其特征在于步骤如下:
步骤1:读取第一帧图像数据以及目标块在第一帧图像中的参数[x,y,w,h],在目标周围根据高斯分布随机产生m个粒子点,并记录其坐标(xi,yi),i=1,2,L,m;每个粒子代表了一个目标样本;
其中:x,y表示目标中心的横纵坐标,w,h表示目标的宽和高;
步骤2:采用仿射变换将每个目标样本区域规划到一个M×N的标准图像块z∈RM×N
步骤3:对每个目标样本使用增量PCA算法,提取每个目标样本的视觉特征表示向量ui
步骤4:将所有目标样本对应的列向量ui组合到一起为D=[u1,u2,L,um],引入琐碎模板Id∈Rd×d实现重构噪声和遮挡,构成一个大小为d×(m+d)维的字典V=[D Id];其中:Id为单位矩阵;
步骤5:读取下一帧图像,在上一帧图像的目标块周围随机选取n个粒子点,记录粒子点坐标(xk,yk)k=1,2,L,n;每个粒子点代表了一个候选目标,每个粒子点按步骤2的特征表示方法得到一个列向量yi
步骤6:将所有待选目标粒子对应的向量组合在一起得到矩阵Y=[y1,y2,...,yn],利用字典表示为:
Y = D t I d Z E ⇒ Y = BC
根据 min C | | Y - BC | | F 2 + λ | | C | | 2,1 , 求解得到系数 C = Z E ;
其中:λ是联合稀疏正则项和可靠重建项之间的平衡系数;||Ci||2是Ci的l2范数,Ci是矩阵C的第i行;
步骤7:对步骤5产生的n个候选目标,计算每个候选目标的重构误差以其中重构误差最小的粒子[x,y,w,h]作为目标跟踪的结果;
判断是否处理完所有图像序列的所有帧,若没有,则转到步骤4继续;若处理完,则跟踪结束。
CN201510324826.8A 2015-06-12 2015-06-12 一种基于子空间特征的多任务学习目标跟踪方法 Active CN104899896B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510324826.8A CN104899896B (zh) 2015-06-12 2015-06-12 一种基于子空间特征的多任务学习目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510324826.8A CN104899896B (zh) 2015-06-12 2015-06-12 一种基于子空间特征的多任务学习目标跟踪方法

Publications (2)

Publication Number Publication Date
CN104899896A true CN104899896A (zh) 2015-09-09
CN104899896B CN104899896B (zh) 2018-03-02

Family

ID=54032541

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510324826.8A Active CN104899896B (zh) 2015-06-12 2015-06-12 一种基于子空间特征的多任务学习目标跟踪方法

Country Status (1)

Country Link
CN (1) CN104899896B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760857A (zh) * 2016-03-18 2016-07-13 武汉大学 一种高光谱遥感影像目标探测方法
CN106228574A (zh) * 2016-07-19 2016-12-14 中国联合网络通信集团有限公司 目标跟踪方法及装置
CN107274412A (zh) * 2017-05-18 2017-10-20 北京环境特性研究所 基于红外图像的小目标检测的方法
CN109324595A (zh) * 2018-09-19 2019-02-12 西安理工大学 一种基于增量pca的工业监测数据分类方法
CN109377514A (zh) * 2018-09-29 2019-02-22 中国科学院长春光学精密机械与物理研究所 目标跟踪方法、装置、设备及计算机可读存储介质
CN114648509A (zh) * 2022-03-25 2022-06-21 中国医学科学院肿瘤医院 一种基于多分类任务的甲状腺癌检出系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473790A (zh) * 2013-08-29 2013-12-25 西北工业大学 基于增量Bi-2DPCA学习和稀疏表示的在线目标跟踪方法
CN103514600A (zh) * 2013-09-13 2014-01-15 西北工业大学 一种基于稀疏表示的红外目标快速鲁棒跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473790A (zh) * 2013-08-29 2013-12-25 西北工业大学 基于增量Bi-2DPCA学习和稀疏表示的在线目标跟踪方法
CN103514600A (zh) * 2013-09-13 2014-01-15 西北工业大学 一种基于稀疏表示的红外目标快速鲁棒跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TIANZHU ZHANG ET AL.: "Robust Visual Tracking via Multi-Task Sparse Learning", 《PROCEEDINGS OF THE 2012 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
XUE MEI, HAIBIN LING: "Robust Visual Tracking using l1 Minimization", 《2009 IEEE12TH INTERNATIONAL CONFFERENCE ON COMPUTER VISION》 *
曹晓丽 等: "基于2DPCA和稀疏表示的目标跟踪算法", 《中国包装工业》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760857A (zh) * 2016-03-18 2016-07-13 武汉大学 一种高光谱遥感影像目标探测方法
CN106228574A (zh) * 2016-07-19 2016-12-14 中国联合网络通信集团有限公司 目标跟踪方法及装置
CN107274412A (zh) * 2017-05-18 2017-10-20 北京环境特性研究所 基于红外图像的小目标检测的方法
CN109324595A (zh) * 2018-09-19 2019-02-12 西安理工大学 一种基于增量pca的工业监测数据分类方法
CN109377514A (zh) * 2018-09-29 2019-02-22 中国科学院长春光学精密机械与物理研究所 目标跟踪方法、装置、设备及计算机可读存储介质
CN114648509A (zh) * 2022-03-25 2022-06-21 中国医学科学院肿瘤医院 一种基于多分类任务的甲状腺癌检出系统

Also Published As

Publication number Publication date
CN104899896B (zh) 2018-03-02

Similar Documents

Publication Publication Date Title
CN104899896B (zh) 一种基于子空间特征的多任务学习目标跟踪方法
CN102592112B (zh) 基于隐马尔科夫模型判断手势运动方向的方法
CN111199207B (zh) 基于深度残差神经网络的二维多人体姿态估计方法
CN108038420A (zh) 一种基于深度视频的人体行为识别方法
CN102682452A (zh) 基于产生式和判别式结合的人体运动跟踪方法
CN103955951B (zh) 基于正则化模板与重建误差分解的快速目标跟踪方法
CN110310351A (zh) 一种基于草图的三维人体骨骼动画自动生成方法
CN102663779A (zh) 基于随机高斯隐变量的人体运动跟踪方法
CN103473790A (zh) 基于增量Bi-2DPCA学习和稀疏表示的在线目标跟踪方法
CN109614896A (zh) 一种基于递归卷积神经网络的视频内容语义理解的方法
Cheng et al. DDU-Net: A dual dense U-structure network for medical image segmentation
Mo et al. Point-by-point feature extraction of artificial intelligence images based on the Internet of Things
CN104778670A (zh) 一种基于多元统计模型的分形小波自适应图像去噪方法
CN106056627A (zh) 一种基于局部鉴别性稀疏表示的鲁棒目标跟踪方法
Zhang et al. Multi-source information fused generative adversarial network model and data assimilation based history matching for reservoir with complex geologies
Xia et al. [Retracted] Gesture Tracking and Recognition Algorithm for Dynamic Human Motion Using Multimodal Deep Learning
Lombardi et al. Latenthuman: Shape-and-pose disentangled latent representation for human bodies
Li et al. Lode: Locally conditioned eikonal implicit scene completion from sparse lidar
Yang et al. Exploring rich intermediate representations for reconstructing 3D shapes from 2D images
CN103020984B (zh) 基于稀疏表达的三维人体运动数据补全方法
CN104537694B (zh) 一种基于关键帧的在线学习的离线视频跟踪方法
CN101364307A (zh) 一种高维动态数据处理方法
CN113298136B (zh) 一种基于alpha散度的孪生网络跟踪方法
CN107330912A (zh) 一种基于多特征融合的稀疏表示的目标追踪方法
Zou et al. Event-based human pose tracking by spiking spatiotemporal transformer

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180920

Address after: 523808 Zhongsheng silver building, No. three road, Songshan Lake headquarters, Dongguan, Guangdong, 20

Patentee after: Dongguan Sanhang civil Military Integration Innovation Institute

Address before: 710072 No. 127 Youyi West Road, Shaanxi, Xi'an

Patentee before: Northwestern Polytechnical University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220505

Address after: 523000 Room 201, building 2, No. 28, Houjie section, Houda Road, Houjie Town, Dongguan City, Guangdong Province

Patentee after: DONGGUAN XIAORUI MOTOR TECHNOLOGY CO.,LTD.

Address before: 523808 Zhongsheng silver building, No. three road, Songshan Lake headquarters, Dongguan, Guangdong, 20

Patentee before: DONGGUAN SANHANG CIVIL-MILITARY INTEGRATION INNOVATION Research Institute