CN106570884A - 基于在线更新字典模型的目标跟踪方法 - Google Patents
基于在线更新字典模型的目标跟踪方法 Download PDFInfo
- Publication number
- CN106570884A CN106570884A CN201610879754.8A CN201610879754A CN106570884A CN 106570884 A CN106570884 A CN 106570884A CN 201610879754 A CN201610879754 A CN 201610879754A CN 106570884 A CN106570884 A CN 106570884A
- Authority
- CN
- China
- Prior art keywords
- dictionary
- target
- coefficient
- tracking
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于在线更新字典模型的目标跟踪方法,包括:根据给定的初始目标位置,在视频的前N帧,利用最近邻算法KNN实现初始跟踪,获得每一帧对应的目标区域。将每个目标区域分为大小相同的一些图像子块,将得到的图像子块进行组合得到字典。根据字典P进行跟踪:根据当前帧的目标位置,在下一帧以其为中心在周围进行随机采样,以字典元素为基,对每个候选目标区域进行基于稀疏表示的重建,抽取稀疏表示的系数矩阵C。选取最稀疏矩阵对应的区域为最佳目标区域,作为跟踪结果。在跟踪过程中,对字典进行更新。本发明具有较高的鲁棒性、准确性和实时性。
Description
技术领域
本发明属视频处理领域,涉及一种基于在线更新字典模型的目标跟踪方法。
背景技术
视觉目标跟踪是计算机视觉研究领域中的一个重要课题。目标跟踪是对图像序列中的目标进行检测,提取、识别和跟踪,从而获得目标的运动参数,例如位置、速度和加速度等信息,为对目标做进一步的分析与理解提供帮助。随着计算机技术的不断发展,计算能力得到了极大提高、廉价高性能摄像头的广泛应用、以及自动视频分析需求的不断增长,基于视觉的目标跟踪方法研究成为计算机视觉中的研究热点。该技术被广泛应用于机器人控制、视频监控、驾驶助理、动作识别和人机交互等领域中。
在目标跟踪过程中,跟踪目标的运动突变,跟踪目标和场景的模式变化、非刚体形变、目标与目标以及背景间的遮挡和图像采集设备的运动等都会影响目标的跟踪效果,在目标的背景、形态、姿势、大小和光照条件发生强烈变化的情况下,对目标进行稳健、实时的跟踪有一定的难度,因此需要提高目标跟踪方法在复杂环境下的鲁棒性、准确性和实时性。
发明内容
本发明的目的在于提供一种在复杂环境下具有较高的鲁棒性、准确性和实时性的目标跟踪方法。本发明利用字典模型将目标分为子块进行建模,更加注重局部特征,另外利用在线更新实现跟踪对于目标外形变化、光照等问题的适应性,提高跟踪算法的稳定性和准确性。技术方案如下:
一种基于在线更新字典模型的目标跟踪方法,包括下列步骤:
第一步:根据给定的初始目标位置,在视频的前N帧,利用最近邻算法KNN实现初始跟踪,获得每一帧对应的目标区域。其中N可以自由设定。
第二步:将第一步得到的每个目标区域分为大小相同的一些图像子块,将得到的图像子块进行组合得到字典P。
第三步:得到字典P之后,根据字典P进行跟踪:根据当前帧的目标位置,在下一帧以其为中心在周围进行随机采样,以字典元素为基,对每个候选目标区域进行基于稀疏表示的重建,抽取稀疏表示的系数矩阵C。
第四步:选取最稀疏矩阵对应的区域为最佳目标区域,作为跟踪结果。
第五步:在跟踪过程中,每隔L帧进行一次稀疏表示系数矩阵C的检测,得到系数质量q作为是否更新字典的标志;预设一个更新阈值,若q较小,小于此阈值,则系数矩阵比较稀疏,则表明现有字典信息完备,字典不需要更新;否则,q较大,大于此阈值,系数矩阵呈现值小而密集的特征,表明字典需要进行更新,其中,系数质量定义为:
其中表示ci中第j个系数,表示矩阵C中所有非零系数的数量,表示取值大于阈值thr的系数的数量。
第六步:在形成字典的N个目标区域中,选取前N/10个目标区域为静态部分,它们在跟踪过程中不会发生变化;剩余部分为字典的动态部分,它们会随着跟踪过程中目标的变化而变化,若根据第五步,字典需要更新,则添加新捕捉的目标区域所对应的图像子块到字典的最后,并删除动态部分的最前一个目标区域对应的图像子块。
第三步中,稀疏表示系数矩阵C的计算方法可以如下:
对于一个新的候选目标区域Y,将其分为相同大小的一些子块[y1,y2...,yn]∈Rm ×n,其中n是子块数目,yi∈Rm×1是第i个子块对应的向量,每一个子块可表示成字典中基元素的线性组合:
yi=P·ci+ei (1)
其中ci是稀疏表示的系数,ei是表示误差,候选目标区域Y可以表示为
Y=PC+E (2)
其中C=[c1,c2,...,cn]∈R(N×n)×n是系数矩阵,E=[e1,e2,...,en]∈Rm×n表示由遮挡或者形变等引起的误差,系数矩阵C通过求解下列最优化问题得到,其中λ为调整系数:
本发明涉及字典学习和稀疏表示,提出基于在线更新字典模型的目标跟踪方法,既可以存储目标的最原始信息以防止跟踪过程中的漂移,又可以在线更新以实现对目标变化的适应。本发明所提出的基于在线更新字典模型的目标跟踪方法能够很好地实现目标跟踪,并且能够适应光照,形变和尺度变换等问题,在应用中具有鲁棒性。
附图说明
图1跟踪流程。第一行的步骤实现初始阶段跟踪,第二行步骤实现基于字典的跟踪并实现在线更新。
图2字典形成示意图。第一列为不同帧的目标区域,第二列为归一化之后的图像块,第三列为分块处理之后的各子块示意,所有子块形成字典,字典元素分为静态和动态两部分。
图3候选目标区域的稀疏表示系数。(a)系数稀疏(b)系数稠密
具体实施方式
本发明提出一种基于字典表示和在线更新的目标跟踪方法,建立字典模型对跟踪目标进行基于稀疏表示和系数统计的建模表示,为了适应物体在运动中的变化,引入在线更新方法对字典进行更新。包括以下步骤:
第一步:在视频的前N帧,根据给定的初始目标位置,利用最近邻算法KNN实现初始跟踪,得到每一帧对应的目标区域为Ti,其中i对应帧数,组合得到集合[T1,T2,...,TN]作为形成字典的模板元素。
第二步:对于一个目标区域T,将其分为相同大小的一些子块[p1,p2,...,pn]∈Rm ×n,其中n是子块数目,pi∈Rm×1是一个子块对应的向量。根据第一步,前N帧得到N个目标区域,将每个区域进行分块处理,得到的所有图像子块字典P
P=[p11,p12,...,p1n,p21,p22,...,pN1,pN2,...,pNn]∈Rm×(N×n) (1)
其中pij表示第i帧目标区域的第j个子块。
第三步:字典形成之后,跟踪过程基于字典实现。根据当前帧的位置,在下一帧以其为中心在其周围进行随机采样,作为候选目标区域,计算每个候选目标区域基于字典的稀疏表示矩阵C。计算方法如下:
对于一个新的候选目标区域Y,将其分为相同大小的一些子块[y1,y2...,yn]∈Rm ×n,其中n是子块数目,yi∈Rm×1是第i个子块对应的向量。每一个子块可以表示成字典中基元素的线性组合,
yi=P·ci+ei (2)
其中ci是稀疏表示的系数,ei是表示误差。由此,候选目标区域Y可以表示为
Y=PC+E (3)
其中C=[c1,c2,...,cn]∈R(N×n)×n是系数矩阵,E=[e1,e2,...,en]∈Rm×n表示由遮挡或者形变等引起的误差。系数矩阵C可以通过求解下列最优化问题得到
第四步:对于给定的目标区域集合Z=[z1,z2,...,zt],根据贝叶斯跟踪在第三步随机采样得到的所有区域中寻找拥有最大后验概率的候选目标区域xt,即
其中p(xt|Z)表示后验概率,表示状态估计。p(xt|Z)可以用下式进行估计,
其中p(xt|xt-1)表示连续两帧之间的动态模型,p(zt|xt)表示在给定状态xt的情况下出现zt的概率。其中,p(xt|xt-1)=N(xt;xt-1,Σ),N表示正态分布,其中对角矩阵Σ的元素是仿射变换参数的方差。仿射变换用于估计两帧之间的运动。p(zt|xt)可以利用字对其进行建模。计算方法如下:
(1)由于字典元素排列有序,所以对于候选目标区域的一个子块yi,它对应的系数ci可以被分成几个部分其中是第k个模板的系数矩阵。
(2)由此计算
其中ui∈RN×1是第i个图像子块,A是归一化因子。
(3)将一个参考目标区域所有图像子块的ui组合形成矩阵U=[u1,u2,...,un],然后提取每个ui的最大值作为候选目标区域的特征f
f=[u1max,u2max,...,unmax] (8)
其中uimax表示ui中的最大值。由此可得,
第五步:在跟踪过程中,每隔L帧进行一次系数质量检测,并且此次检查之前的L个目标区域会作为一组数据暂时保存,供更新使用。得到的系数矩阵如果比较稀疏,则表明现有字典信息完备,可以利用有限元素完全表达新的候选目标区域,则当前字典不需要更新;否则,系数矩阵呈现值小而密集的特征,则表明新的候选目标区域含有字典内没有包含的信息,此时字典需要进行更新。系数质量定义为:
其中表示ci中第j个系数,表示矩阵C中所有非零系数的数量,表示取值大于thr的系数的数量。
第六步:如果q大于设定的阈值,则更新字典。在形成字典的N个模板中,选取前N/10个模板为静态部分,此部分在跟踪过程中不会发生变化;剩余模板元素为字典的动态部分,这一部分会随着跟踪过程中目标的变化而变化。计算方法如下:
利用增量更新方法对存储的L个目标区域进行计算可以得到
Y=M+BCnew (11)
其中Y是候选目标区域,M是L个目标区域之间的公共部分,B是基向量矩阵,Cnew是目标变化部分所对应的系数矩阵。根据稀疏表示原理,得到C'和重建的目标,重建目标用来替换动态字典部分最原始的模板元素,至此一次更新完成,回到步骤三重复执行即可。
Claims (2)
1.一种基于在线更新字典模型的目标跟踪方法,包括下列步骤:
第一步:根据给定的初始目标位置,在视频的前N帧,利用最近邻算法KNN实现初始跟踪,获得每一帧对应的目标区域,其中N可以自由设定;
第二步:将第一步得到的每个目标区域分为大小相同的一些图像子块,将得到的图像子块进行组合得到字典P;
第三步:得到字典P之后,根据字典P进行跟踪:根据当前帧的目标位置,在下一帧以其为中心在周围进行随机采样,以字典元素为基,对每个候选目标区域进行基于稀疏表示的重建,抽取稀疏表示的系数矩阵C;
第四步:选取最稀疏矩阵对应的区域为最佳目标区域,作为跟踪结果;
第五步:在跟踪过程中,每隔L帧进行一次稀疏表示系数矩阵C的检测,得到系数质量q作为是否更新字典的标志;预设一个更新阈值,若q较小,小于此阈值,则系数矩阵比较稀疏,则表明现有字典信息完备,字典不需要更新;否则,q较大,大于此阈值,系数矩阵呈现值小而密集的特征,表明字典需要进行更新,其中,系数质量定义为:
其中表示ci中第j个系数,表示矩阵C中所有非零系数的数量,表示取值大于阈值thr的系数的数量;
第六步:在形成字典的N个目标区域中,选取前N/10个目标区域为静态部分,它们在跟踪过程中不会发生变化;剩余部分为字典的动态部分,它们会随着跟踪过程中目标的变化而变化,若根据第五步,字典需要更新,则添加新捕捉的目标区域所对应的图像子块到字典的最后,并删除动态部分的最前一个目标区域对应的图像子块。
2.根据权利要求1所述的基于在线更新字典模型的目标跟踪方法,其特征在于,第三步中,稀疏表示系数矩阵C的计算方法如下:
对于一个新的候选目标区域Y,将其分为相同大小的一些子块[y1,y2...,yn]∈Rm×n,其中n是子块数目,yi∈Rm×1是第i个子块对应的向量,每一个子块可表示成字典中基元素的线性组合:
yi=P·ci+ei
其中ci是稀疏表示的系数,ei是表示误差,候选目标区域Y可以表示为
Y=PC+E
其中C=[c1,c2,...,cn]∈R(N×n)×n是系数矩阵,E=[e1,e2,...,en]∈Rm×n表示由遮挡或者形变等引起的误差,系数矩阵C通过求解下列最优化问题得到,其中λ为调整系数:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610879754.8A CN106570884A (zh) | 2016-09-30 | 2016-09-30 | 基于在线更新字典模型的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610879754.8A CN106570884A (zh) | 2016-09-30 | 2016-09-30 | 基于在线更新字典模型的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106570884A true CN106570884A (zh) | 2017-04-19 |
Family
ID=58531645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610879754.8A Pending CN106570884A (zh) | 2016-09-30 | 2016-09-30 | 基于在线更新字典模型的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106570884A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165680A (zh) * | 2018-08-01 | 2019-01-08 | 东南大学 | 基于视觉slam的室内场景下单一目标物体字典模型改进方法 |
CN111429481A (zh) * | 2020-03-18 | 2020-07-17 | 重庆邮电大学 | 一种基于自适应表达的目标追踪方法、装置及终端 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130245429A1 (en) * | 2012-02-28 | 2013-09-19 | Siemens Aktiengesellschaft | Robust multi-object tracking using sparse appearance representation and online sparse appearance dictionary update |
CN105976395A (zh) * | 2016-04-27 | 2016-09-28 | 宁波大学 | 一种基于稀疏表示的视频目标跟踪方法 |
-
2016
- 2016-09-30 CN CN201610879754.8A patent/CN106570884A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130245429A1 (en) * | 2012-02-28 | 2013-09-19 | Siemens Aktiengesellschaft | Robust multi-object tracking using sparse appearance representation and online sparse appearance dictionary update |
CN105976395A (zh) * | 2016-04-27 | 2016-09-28 | 宁波大学 | 一种基于稀疏表示的视频目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
JIACHEN YANG: "《Robust visual tracking using adaptive local appearance model for smart transportation》", 《MULTIMED TOOLS APPL》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165680A (zh) * | 2018-08-01 | 2019-01-08 | 东南大学 | 基于视觉slam的室内场景下单一目标物体字典模型改进方法 |
CN109165680B (zh) * | 2018-08-01 | 2022-07-26 | 东南大学 | 基于视觉slam的室内场景下单一目标物体字典模型改进方法 |
CN111429481A (zh) * | 2020-03-18 | 2020-07-17 | 重庆邮电大学 | 一种基于自适应表达的目标追踪方法、装置及终端 |
CN111429481B (zh) * | 2020-03-18 | 2022-08-05 | 重庆邮电大学 | 一种基于自适应表达的目标追踪方法、装置及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304795A (zh) | 基于深度强化学习的人体骨架行为识别方法及装置 | |
CN107194418B (zh) | 一种基于对抗特征学习的水稻蚜虫检测方法 | |
CN110334589B (zh) | 一种基于空洞卷积的高时序3d神经网络的动作识别方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN103793477B (zh) | 用于生成视频摘要的系统及方法 | |
CN111259735B (zh) | 基于多级预测特征增强卷积神经网络的单人姿态估计方法 | |
CN112434599B (zh) | 一种基于噪声通道的随机遮挡恢复的行人重识别方法 | |
CN107146237A (zh) | 一种基于在线状态学习与估计的目标跟踪方法 | |
CN114677323A (zh) | 一种室内动态场景下基于目标检测的语义视觉slam定位方法 | |
CN111882546A (zh) | 基于弱监督学习的三分支卷积网络织物疵点检测方法 | |
CN109614896A (zh) | 一种基于递归卷积神经网络的视频内容语义理解的方法 | |
CN111898566B (zh) | 姿态估计方法、装置、电子设备和存储介质 | |
CN114999637B (zh) | 多角度编码与嵌入式互学习的病理图像诊断方法与系统 | |
CN114821299B (zh) | 一种遥感图像变化检测方法 | |
CN111382709A (zh) | 一种基于无人机巡检的绝缘子图像检测方法 | |
CN106570884A (zh) | 基于在线更新字典模型的目标跟踪方法 | |
CN116524062B (zh) | 一种基于扩散模型的2d人体姿态估计方法 | |
Zhang | Sports action recognition based on particle swarm optimization neural networks | |
CN105096343A (zh) | 一种移动目标跟踪方法及装置 | |
CN114708645A (zh) | 物件辨识装置及物件辨识方法 | |
CN110929013A (zh) | 一种基于bottom-up attention和定位信息融合的图片问答实现方法 | |
Firouznia et al. | Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking | |
Ni et al. | Enhanced knowledge distillation for face recognition | |
CN113592906B (zh) | 一种基于标注帧特征融合的长视频目标跟踪方法及系统 | |
CN112507940B (zh) | 一种基于差分指导表示学习网络的骨骼动作识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170419 |