CN103714556A - 一种基于金字塔表观模型的运动目标跟踪方法 - Google Patents

一种基于金字塔表观模型的运动目标跟踪方法 Download PDF

Info

Publication number
CN103714556A
CN103714556A CN201410005499.5A CN201410005499A CN103714556A CN 103714556 A CN103714556 A CN 103714556A CN 201410005499 A CN201410005499 A CN 201410005499A CN 103714556 A CN103714556 A CN 103714556A
Authority
CN
China
Prior art keywords
target
pyramid
apparent
observation
piecemeal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410005499.5A
Other languages
English (en)
Inventor
胡卫明
刘洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201410005499.5A priority Critical patent/CN103714556A/zh
Publication of CN103714556A publication Critical patent/CN103714556A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于金字塔表观模型的运动目标跟踪方法,包括:给出待跟踪目标物体在初始帧里面的状态和观测;采用金字塔分割和增量主成分分析的方法对跟踪目标进行金字塔表观建模;在金字塔表观模型中融入跟踪目标的纹理信息;在金字塔表观模型中融入跟踪目标的形状信息;将跟踪目标在当前帧的状态加上随机扰动作为下一帧的粒子,将所得粒子的观测与目标在当前帧的观测分别进行金字塔表观建模并进行比较,选定最为相似的粒子对应的观测作为被跟踪的目标在下一帧的状态;对选定观测的金字塔表观模型从低层至高层逐层计算所有分块的重构误差,并与设定的阈值进行比较,对重构误差小于阈值的分块进行表观更新。

Description

一种基于金字塔表观模型的运动目标跟踪方法
技术领域
本发明涉及计算机视觉领域,特别涉及可视化跟踪(Visual tracking)中的表观建模技术。
背景技术
基于移动摄像机的运动目标跟踪是近年来计算机视觉领域里的前沿研究方向之一,也是该领域中的难点之一。该任务最大的挑战与难点在于如何对目标进行有效地表达,而目标表达大多数是通过对目标表观进行建模来实现的。因此,如何构建一个好的表观模型对目标跟踪起着至关重要的作用。特别是在时序数据流中,目标的表观是随着时间而变化的,同时还可能受到各种因素的干扰。此外,还要满足实际应用的低计算复杂度的要求。这样就给我们提出一个严峻的挑战,那就是如何构建一个低复杂度的、鲁棒的、并且自适应的表观模型,这对目标的运动跟踪是非常重要的。
近年来,利用增量PCA算法对跟踪目标进行子空间学习成为了目标表观建模最有效的方法。该方法可以通过对子空间特征基和均值的在线更新,捕捉目标随时间的变化,达到目标表观在线更新的目的。
发明内容
为了解决现有技术的问题,本发明的目的在于提出一种有效的表观建模方法,以满足移动摄像机的复杂场景下(剧烈运动、光照变化,噪声,部分遮挡,形变等)鲁棒的运动目标跟踪。
为了实现上述目的,本发明提出了一种基于金字塔表观模型的运动目标跟踪方法,包括步骤如下:
步骤1:给出待跟踪目标物体在初始帧里面的状态和观测;
步骤2:采用金字塔分割和增量主成分分析的方法对跟踪目标进行金字塔表观建模;
步骤3:在金字塔表观模型中融入跟踪目标的纹理信息;
步骤4:在金字塔表观模型中融入跟踪目标的形状信息;
步骤5:将跟踪目标在当前帧的状态加上随机扰动作为下一帧的粒子,将所得粒子的观测与目标在当前帧的观测分别进行金字塔表观建模并进行比较,选定最为相似的粒子对应的观测作为被跟踪的目标在下一帧的状态;
步骤6:对选定观测的金字塔表观模型从低层至高层逐层计算所有分块的重构误差,并与设定的阈值进行比较,对重构误差小于阈值的分块进行表观更新。
本发明的有益效果:
1)本发明在增量子空间学习的基础上,引入多尺度分析的思想,对目标进行三层空间金字塔分割,利用目标的空间结构信息建立更加有效的表观模型,不仅保证了有效的目标跟踪,也为后续的特征融合以及选择性表观更新提供了基础。
2)本发明充分利用了金字塔结构,在像素特征的基础上,进一步融合了类Haar特征和PHOG特征,加入了目标的纹理信息和形状信息,对目标进行更加有效地描述,使跟踪结果更加鲁棒。
3)基于本发明中提出的金字塔表观分割的方法,提出了一种新的选择性的表观模型更新方法,该方法能够更加准确有效地捕捉目标的表观变化,保证鲁棒的目标跟踪。
附图说明
图1是本发明提出的基于金字塔表观模型的运动目标跟踪方法流程图;
图2是本发明实施例中金字塔表观分割示意图;
图3是本发明中金字塔表观模型中定义的类Haar特征示意图;
图4是本发明中金字塔表观模型某一层中的某个类Haar特征;
图5是本发明中金字塔表观模型中的PHOG特征示意图;
图6是本发明中采用金字塔表观模型和选择性表观更新的跟踪方法(pyd)与未采用金字塔表观模型的跟踪方法(ivt)在目标姿势变化以及遭受严重遮挡情况下的实验结果图;
图7是上述两种跟踪方法在该视频上的量化对比结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
本发明提出了一种基于金字塔表观模型的运动目标跟踪方法。该方法具体运行的硬件和编程语言并没有限制,用任何语言编写都可以完成,为此其他工作模式不再赘述。优选地,可以采用一台具有3.2G赫兹中央处理器和4G字节内存的计算机并用Matlab语言编制完成基于金字塔表观模型的运动目标跟踪的工作程序,实现本发明提出的上述方法。
图1示出了本发明提出的基于金字塔表观模型的运动目标跟踪方法流程图。如图1所示,该方法包括:
步骤1、给出待跟踪目标物体在初始帧里面的状态和观测;
步骤2、对目标进行金字塔表观建模:采用金字塔分割和增量主成分分析的方法对跟踪目标进行表观建模;
步骤3、在金字塔表观模型中融入跟踪目标的纹理信息:利用表观的金字塔结构,构造类Haar特征来描述目标的纹理信息;
步骤4、在金字塔表观模型中融入跟踪目标的形状信息:利用表观的金字塔结构,融入PHOG特征来描述目标的形状信息;
步骤5、目标跟踪:由每个物体在当前帧的状态加上随机扰动作为下一帧的粒子,并在下一帧里面得到目标的观测值,将这些粒子的观测与目标在当前帧的观测分别进行金字塔表观建模并进行比较,选择最为相似的粒子对应的观测作为被跟踪的目标在下一帧的状态;
步骤6、选择性表观更新:对金字塔表观模型从低层至高层逐层计算所有分块的重构误差,并与设定的阈值进行比较,对重构误差小于阈值的分块进行表观更新,重构误差大于阈值的分块意味着被噪声干扰,则不进行表观更新,保持表观不变。
下面详细介绍本发明公开的上述基于金字塔表观模型的运动目标跟踪方法中各个步骤的具体实现细节。
步骤1中给出待跟踪目标物体在初始帧里面的状态和观测,具体包括:
假定目标在连续两帧图像之间的运动是仿射运动,这样两帧之间的目标仿射运动参数就可以用来表征目标的状态。本发明中采用Xt=(xt,yt,φt,st,αt,βt)这六个参数来表示目标在t时刻的状态,其中,xt和yt表示目标相对于上一时刻的状态在二维平面上的平移位置信息,φt表示目标的旋转角度,st表示目标的尺度变化,αt表示目标的长宽比的变化,βt表示长宽之间的角度变化。在初始帧里面,给出一个紧致的包围框框住待跟踪的目标物体,根据目标物体的位置、宽度、高度、倾斜角度等,得到目标的初始状态X1=(x1,y1,φ1,s1,α1,β1)。提取包围框内的图像信息,作为目标物体在初始帧中的观测Y1。该图像信息可以是经常使用的像素灰度值信息,也可以是本发明引入的类Haar特征和PHOG特征。得到目标物体在初始帧中的状态和观测之后,在初始状态X1上面加上一组服从高斯分布的随机扰动,作为在下一帧里面的一组粒子,并提取出这些粒子在下一帧图像里面对应的观测,运用模板匹配的方法得到初始m帧的粗略跟踪结果,即运用模板匹配的方法得到与上一帧目标的观测最相似的粒子作为当前帧的粗略跟踪结果。
步骤2中对目标进行金字塔表观建模,具体是采用金字塔分割和增量主成分分析的方法对跟踪目标进行表观建模:
通过初始化,已经得到了被跟踪的目标物体在初始m帧里面的状态,本发明优选实施例中将这m帧图像里的目标物体图像区域用插值的方法规整到32×32的模板{I1,I2,…,Ii,…,Im},每个模板I为32×32的像素灰度值矩阵,以便于对大小相同的模板进行多层金字塔分割。
图2示出了本发明实施例中金字塔表观分割示意图。如图2所示,本实施例中,以三层金字塔分割为例说明。第l=0层为跟踪目标物体本身;第l=1层为将目标物体分成2×2=4个大小相等的子块,由于目标物体图像区域被规整到32×32的大小,因此每个子块的大小为16×16;第l=2层为将l=1层中的每块再分为2×2=4个大小相等的子块,即一共为4×4=16个子块,每个子块的大小为8×8。金字塔表观模型也可以根据需要分成多层,本发明优选实施例中进行的是三层金字塔分割。
金字塔分割之后,再利用高斯核函数对金字塔每层中的每个子块给予不同的权重,层与层之间处于较高层级的子块具有较大的权重,同一层中靠近中间部分的子块具有较大的权重。
最后,再利用主成分分析(PCA)算法,对金字塔每层每个分块学习一个低维的子空间表观。假设金字塔分割后一共有n个分块,以第j个分块为例,PCA算法通过对目标初始所有m帧图像里第j个分块{I1 j,I2 j,…,Im j}进行学习,求出它们的平均图像
Figure BDA0000453713930000051
同时求出协方差矩阵
Figure BDA0000453713930000052
然后用协方差矩阵的特征向量Uj作为低维子空间的基向量。或者,也可以通过对图像矩阵
Figure BDA0000453713930000053
进行奇异值分解
Figure BDA0000453713930000054
来得到子空间的基向量Uj,其中Uj和Vj都是正交矩阵。这样就可以对金字塔的n个分块各学到一个分别以U1,U2,…,Uj,…,Un为基向量的子空间表观,通过这些基向量U1,U2,…,Uj,…,Un可以分别重构出金字塔的每个分块,即所建立的金字塔表观模型为分别以U1,U2,…,Uj,…,Un为基向量的子空间。
由于跟踪目标的表观很可能因为一些内在因素或外在因素而发生剧烈变化,如以人脸为例:头的转动或表情变化等。因此,在线更新表观模型来反映这些表观变化对一个鲁棒的跟踪器来说是非常重要的。随着跟踪程序的运行,每一帧新来的图像都会有新的观测被确定为跟踪结果。当这些新的观测加入时,利用增量PCA算法,通过在线更新子空间的特征基和均值,更新目标表观。
步骤3中在金字塔表观模型中融入跟踪目标的纹理信息,具体为利用表观的金字塔结构,构造类Haar特征来描述目标的纹理信息:
在本发明优选实施例中的金字塔表观模型中,除了基于跟踪目标的原始像素灰度值特征,用PCA算法建立以U1,U2,…,Un为基的子空间表观,描述目标的亮度信息;还利用金字塔特有的结构构造了一种类Haar特征,用同样的方法建立另一组以U1 Haar,U2 Haar,…,Un Haar为基的子空间表观,来描述目标的纹理信息,更加全面地刻画目标。
类Haar特征是由Haar小波变换得到的,它通过一幅图像内相邻区域的灰度差,也就是亮度关系来描述目标,反应了图像的局部纹理特征。利用快速计算矩形特征的积分图像,可以快速地计算类Haar特征。
由所述金字塔表观模型知,跟踪目标已经经过层层分割,每一层的每个分块中都包含四个大小相等的子块,这些子块就自然地形成了相邻图像区域,可以用它们各自像素值之和之间的差分来构造类Haar特征。
图3示出了本发明中金字塔表观模型中定义的类Haar特征示意图。本发明对金字塔每一层的每个图像分块,定义六种类Haar特征。如图3所示,所述六种类Haar特征分别是:横向两个相邻子块像素值和之差,如图3(a)和(b)所示;纵向两个相邻子块像素值和之差,如图3(c)和(d)所示;对角线两个子块像素值和之差,如图3(e)和(f)所示,总共六种类Haar特征。
利用以上构造的金字塔表观模型中每个分块的六种类Haar特征,可以逐层构造整个跟踪目标的类Haar特征。
图4示出了本发明中金字塔表观模型某一层中的某个类Haar特征。如图4所示,图4(a)为金字塔第l=1层的第一种类Haar特征,(b)为金字塔第l=1层的第五种类Haar特征,(c)为金字塔第l=2层的第一种类Haar特征。金字塔第l=0层的类Haar特征数目为6,第l=1层的类Haar特征数目为6×41,第l=n层的类Haar特征数目为6×4n。按金字塔层级由高到低,每层中子块顺序从左至右、从上至下,每个子块中六种特征按定义的先后顺序,将所有的类Haar特征组成特征向量,表示如下:
Feature Haar = ( h l 0 1 , h l 0 2 , h l 0 3 , h l 0 4 , h l 0 5 , h l 0 6 ; h l 1 1 , h l 1 2 , h l 1 3 , . . . , h l 1 6 × 4 1 ,
h l 2 1 , h l 2 2 , h l 2 3 , . . . , h l 2 6 × 4 2 ; h l 3 1 , h l 3 2 , h l 3 3 , . . . , h l 3 6 × 4 3 )
此类Haar特征向量在基于金字塔表观模型的目标跟踪中作为像素值特征的补充,反映了跟踪目标的纹理特征,更充分地利用了目标的表观信息,使跟踪结果更加有效。
所述子空间基向量U1 Haar,U2 Haar,…,Un Haar使用与步骤2同样的方法进行计算,只不过计算使用的图像特征I为类Haar特征组成的特征向量。
步骤4中在金字塔表观模型中融入跟踪目标的形状信息,具体为利用表观的金字塔结构,融入PHOG特征来描述目标的形状信息:
在本发明优选实施例中的金字塔表观模型中,除了使用像素灰度值特征和类Haar特征描述跟踪目标的亮度信息和纹理信息,还可以很自然地利用表观模型的金字塔结构,加入金字塔梯度方向直方图(PHOG)特征,用PCA算法建立一组以U1 PHOG,U2 PHOG,…,Un PHOG为基的子空间表观,来描述跟踪目标的形状信息。
金字塔梯度方向直方图(PHOG)是利用空间金字塔的方法来统计梯度方向直方图(HOG)特征。HOG本身反映了图像的形状信息、边缘信息,在利用空间金字塔统计的时候,本发明中又得到了形状信息的空间分布,从而使描述目标的特征更加丰富和精确。PHOG将一幅图像表示为既包含局部形状信息,又包含形状空间分布的一个直方图。局部形状信息是通过计算局部图像区域的梯度,统计梯度方向分布得到的;而空间信息是通过将图像不断分块,也就是在不同的分辨率下统计图像梯度方向分布。
具体地说,首先对目标图像分层分块地建立金字塔表观,然后分层次地在每个分块上计算图像梯度,通过统计梯度方向建立HOG特征直方图,最后将这些直方图首尾链接起来组成PHOG特征的向量,使用与像素灰度特征和类Haar特征相同的方法建立一组以U1 PHOG,U2 PHOG,…,Un PHOG为基的子空间表观。
图5示出了本发明中金字塔表观模型中的PHOG特征示意图。如图5所示,(a)为输入图像,即待跟踪的目标;(b)为输入图像PHOG直方图,由金字塔l=0,1,2三层的直方图向量(f),(g),(h)首尾链接而成;(c)为金字塔l=0层的边缘图像;(d)为金字塔l=1层的边缘图像;(e)为金字塔l=2层的边缘图像;(f)为l=0层的梯度方向直方图;(g)为l=1层的梯度方向直方图;(h)为l=2层的梯度方向直方图。对于空间金字塔的第l层,沿着图像的每一维有2l个分割,那么该层就可以被分为4l个块。如果l=0层可以用K维的HOG特征来表示的话,即K维向量,那么l=1层就可以表示为4×K维向量,第l层可以表示为4l×K维向量,整个图像的PHOG描述子的维数为K×∑4l
所述子空间基向量U1 Haar,U2 Haar,…,Un Haar使用与步骤2同样的方法进行计算,只不过计算使用的图像特征I为PHOG特征向量。
在本发明提出的基于金字塔表观模型的目标跟踪方法中,使用了包含形状信息的PHOG特征,与像素灰度值特征、类Haar特征融合,使目标跟踪更加鲁棒,效果更加精确。
步骤5中目标跟踪,具体为由每个物体在当前帧的状态加上随机扰动作为下一帧的粒子,并在下一帧里面得到目标的观测值,将这些粒子的观测与目标在当前帧的观测分别进行金字塔表观建模并进行比较,选择最为相似的粒子对应的观测作为被跟踪的目标在下一帧的状态。
目标跟踪就是在下一帧寻找与当前帧最佳的匹配,之前已经对跟踪目标建立了金字塔表观模型。在当前帧的状态上面加上一组服从高斯分布的随机扰动,作为在下一帧里面的K个粒子。找出这些粒子在下一帧图像里面对应的观测值,进行金字塔表观建模,并提取每个分块的像素灰度值特征、类Haar特征和PHOG特征来描述运动目标的亮度信息、纹理信息和形状信息,分别用F1,F2,F3表示。对于任一粒子,假设金字塔分割后一共有n个分块,则第j个分块在第i种特征下与目标物体的重构误差reij为:
re ij = | | ( F i - F i ‾ ) - U i j U i jT ( F i - F i ‾ ) | | 2
其中,
Figure BDA0000453713930000082
为已经学到的第i种特征下第j个分块的子空间表观的基向量。这样,该粒子的第j个分块在第i种特征下与目标物体的相似度sij为:
sij∝exp(-reij)
则该粒子与目标物体的相似度为三种特征F1,F2,F3下的相似度之和,其中每种特征的相似度为金字塔所有n个分块的相似度之积。最终,每个粒子与目标物体的相似度为:
s ∝ Σ i = 1 3 Π j = 1 n s ij ∝ Σ i = 1 3 Π j = 1 n exp ( - re ij )
假定目标在连续两帧图像之间的运动是仿射运动,这样两帧之间的目标仿射运动参数就可以用来表征目标的状态Xt=(xt,ytφt,st,αt,βt)。其中,xt,yt,φt,st,αt,βt分别表示位置、旋转角、尺度、纵横比和倾斜方向。对于所有K个粒子对应的观测值
Figure BDA0000453713930000084
使用粒子滤波器来找出最相似的粒子作为目标在下一帧的状态,即通过贝叶斯推导计算目标状态的后验概率p(Xt|Yt):
p ( X t | Y t ) ∝ p ( Y t k | X t ) ∫ p ( X t | X t - 1 ) p ( X t - 1 | Y t - 1 ) dX t - 1
其中,p(Xt-1|Yt-1)为t-1时刻的目标状态的后验概率,在t-1时刻已经求得,在这里为已知。
Figure BDA0000453713930000092
表示在给定目标状态Xt的情况下第k个粒子的观测值
Figure BDA0000453713930000093
发生的概率,它与前面求得的粒子与物体的相似度s成正比。p(Xt|Xt-1)表示目标状态动态转移概率模型,即从目标状态Xt-1到Xt的转移概率,在实验中,目标状态动态转移概率模型被假定为高斯模型,即:
p(Xt|Xt-1)=N(Xt;Xt-1,∑)
其中,N(Xt;Xt-1,∑)为一个以Xt-1为均值,∑为协方差矩阵的高斯函数。t-1时刻的目标状态Xt-1为该高斯模型的均值;∑表示一个对角协方差矩阵,其六个对角元素分别为目标状态六个参数的方差
Figure BDA0000453713930000094
这样,通过粒子滤波器贝叶斯推导的最大后验估计(MAP),寻找后验概率最大的粒子,即最相似的粒子作为目标在下一帧的状态。
步骤6中选择性表观更新,具体为对金字塔表观模型从低层至高层逐层计算所有分块的重构误差,并与设定的阈值进行比较,对重构误差小于阈值的分块使用增量PCA算法进行表观更新,重构误差大于阈值的分块意味着被噪声干扰,则不进行表观更新,保持表观不变。
表观更新对于跟踪来讲有着很重要的意义,因为在线地学习目标表观的变化,能够为跟踪提供实时的最新的目标,对目标跟踪中的光照变化,姿态变化,遮挡等干扰具有鲁棒的效果。对于光照变化,姿态变化等,都是一种全局的变化,这时需要对表观进行全局的更新。但对于遮挡这种情况,一般是局部遮挡到严重遮挡,这时候如果对表观进行全局更新的话,则会从被遮挡的地方引进很大的噪声,这样,在目标从遮挡中出来时,这些引进的噪声很容易导致丢失目标。所以,对于诸如遮挡等局部变化下的表观更新,就不能采取全局更新的策略。这时就可以利用金字塔表观模型,对每个分块进行选择性的局部更新。具体的,对金字塔从低层至高层逐层计算各个分块的观测值对当前表观的重构误差,对重构误差小于设定阈值的分块进行表观更新,对重构误差大于设定阈值的分块则不进行表观更新,同时,对高层级中包含这些子块的分块也不进行表观更新。
这样就可以对金字塔从低层至高层对各个分块进行选择性地表观更新,既能保证对由于光照,姿态变化等引起的目标的表观变化进行学习,同时还能避免对由于遮挡引起的目标表观变化进行错误的学习。
图6示出了本发明中采用金字塔表观模型和选择性表观更新的跟踪方法(pyd)与未采用金字塔表观模型的跟踪方法(ivt)在目标姿势变化以及遭受严重遮挡情况下的实验结果图。如图6所示,第二行为pyd的跟踪结果,与第一行ivt的跟踪结果相比,效果要好很多。
图7示出了上述两种跟踪方法在该视频上的量化对比结果。如图7所示,横轴为视频的帧数,纵轴为跟踪误差,采用金字塔表观模型的跟踪方法(pyd)的跟踪误差明显小于未采用金字塔表观模型的跟踪方法(ivt)。尤其在550帧至700帧跟踪目标遭受严重遮挡时,pyd的跟踪误差远远小于ivt。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于金字塔表观模型的运动目标跟踪方法,其包括以下步骤:
步骤1:给出待跟踪目标物体在初始帧里面的状态和观测;
步骤2:采用金字塔分割和增量主成分分析的方法对跟踪目标进行金字塔表观建模;
步骤3:在金字塔表观模型中融入跟踪目标的纹理信息;
步骤4:在金字塔表观模型中融入跟踪目标的形状信息;
步骤5:将跟踪目标在当前帧的状态加上随机扰动作为下一帧的粒子,将所得粒子的观测与目标在当前帧的观测分别进行金字塔表观建模并进行比较,选定最为相似的粒子对应的观测作为被跟踪的目标在下一帧的状态;
步骤6:对选定观测的金字塔表观模型从低层至高层逐层计算所有分块的重构误差,并与设定的阈值进行比较,对重构误差小于阈值的分块进行表观更新。
2.按照权利要求1所述的运动目标跟踪方法,其特征在于,步骤1具体包括:
步骤11:将跟踪目标在初始帧中的位置信息、旋转角度、尺度、长宽比、长宽之间的角度作为初始状态,将跟踪目标的图像信息作为物体的观测;
步骤12:运用模板匹配的方法得到接下来m帧的粗略跟踪结果,作为初始m帧的状态,m为大于1的自然数。
3.按照权利要求1所述的运动目标跟踪方法,其特征在于,步骤2中对目标进行金字塔表观建模,包括步骤如下:
步骤21:对初始m帧中的跟踪目标图像进行三层金字塔分割;
步骤22:利用高斯核函数对金字塔每一层中的每个子块分配不同的权重;
步骤23:利用主成分分析算法,对金字塔每层每个分块学习一个低维的子空间表观,并用增量主成分分析算法在线更新所述子空间的特征基和均值,进而在线更新跟踪目标的表观模型。
4.按照权利要求3所述的运动目标跟踪方法,其特征在于,步骤23中所述子空间表观的基向量如下获得:
步骤231:根据所述初始m帧中跟踪目标的图像的每个分块求出其对应的图像平均值;
步骤232:根据所述图像平均值求出每个分块对应的协方差矩阵;
步骤233:将所述协方差矩阵的特征向量作为一个低维子空间的基向量。
5.按照权利要求1所述的运动目标跟踪方法,其特征在于,步骤3中在金字塔表观模型中融入跟踪目标的纹理信息,包括步骤如下:
步骤31:利用跟踪目标的金字塔表观模型,对每个分块按顺序构造六种类Haar特征;
步骤32:按金字塔层级由高到低,每层中分块顺序从左至右、从上至下,每个分块中六种特征按定义的先后顺序,将所有的类Haar特征组成特征向量;
步骤33:利用所述类Haar特征组成特征向量进行学习得到一组类Haar特征对应的低维子空间的基向量。
6.按照权利要求5所述的运动目标跟踪方法,其特征在于,所述六种类Haar特征分别是:横向两个相邻分块像素值和之差,纵向两个相邻分块像素值和之差,对角线两个分块像素值和之差。
7.按照权利要求1所述的运动目标跟踪方法,其特征在于,步骤4中在金字塔表观模型中融入跟踪目标的形状信息,包括步骤如下:
步骤41:利用跟踪目标的金字塔表观,分层分块地在每块图像上统计HOG特征直方图;
步骤42:将每个分块的HOG特征直方图按金字塔层级由高到低,每层中子块从左至右、从上至下的顺序连接起来,组成PHOG特征向量;
步骤43:利用所述PHOG特征向量进行学习得到一组PHOG特征对应的低维子空间的基向量。
8.按照权利要求1所述的运动目标跟踪方法,其特征在于,步骤5包括步骤如下:
步骤51:将每个跟踪目标在当前帧的状态上加上随机扰动,作为该物体在下一帧里面的粒子;
步骤52:将这些粒子的观测与跟踪目标在当前帧的观测分别进行金字塔表观建模并进行比较,选择最为相似的粒子对应的观测作为被跟踪的目标在下一帧的状态。
9.按照权利要求8所述的运动目标跟踪方法,其特征在于,步骤52中与跟踪目标在当前帧的观测最为相似的粒子为如下所示后验概率最大的粒子:
p ( X t | Y t ) ∝ p ( Y t k | X t ) ∫ p ( X t | X t - 1 ) p ( X t - 1 | Y t - 1 ) dX t - 1
其中,p(Xt-1|Yt-1)为t-1帧的目标状态的后验概率,
Figure FDA0000453713920000032
表示在给定第t帧跟踪目标状态Xt的情况下第k个粒子的观测值
Figure FDA0000453713920000033
发生的概率,其与粒子的观测和跟踪目标在t-1帧的观测相似度s成正比;p(Xt|Xt-1)表示跟踪目标状态的转移概率,从目标状态Xt-1到Xt的转移概率,如下计算:
p(Xt|Xt-1)=N(Xt;Xt-1,∑)
其中,N(Xt;Xt-1,∑)为一个以Xt-1为均值,∑为协方差矩阵的高斯函数;t-1帧的目标状态Xt-1为该高斯模型的均值;∑表示一个对角协方差矩阵,其六个对角元素分别为目标状态平移位置信息、旋转角度、尺度变化、长宽比变化、长宽之间的角度变化的方差
Figure FDA0000453713920000034
10.按照权利要求9所述的运动目标跟踪方法,其特征在于,所述粒子的观测和跟踪目标在t-1帧的观测相似度s如下计算:
s ∝ Σ i = 1 3 Π j = 1 n s ij ∝ Σ i = 1 3 Π j = 1 n exp ( - re ij )
其中,i为像素灰度值特征、类Haar特征和PHOG特征三种特征之一,n为所有分块数目,sij是粒子的第j个分块在第i种特征下与跟踪目标的相似度,reij是粒子的第j个分块在第i种特征下与跟踪目标的重构误差,如下计算:
re ij = | | ( F i - F i ‾ ) - U i j U i jT ( F i - F i ‾ ) | | 2
其中,
Figure FDA0000453713920000037
为已经学到的第i种特征下第j个分块的子空间表观的基向量,Fi为每个分块的第i种特征,
Figure FDA0000453713920000038
为每个分块的第i种特征的均值。
CN201410005499.5A 2014-01-06 2014-01-06 一种基于金字塔表观模型的运动目标跟踪方法 Pending CN103714556A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410005499.5A CN103714556A (zh) 2014-01-06 2014-01-06 一种基于金字塔表观模型的运动目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410005499.5A CN103714556A (zh) 2014-01-06 2014-01-06 一种基于金字塔表观模型的运动目标跟踪方法

Publications (1)

Publication Number Publication Date
CN103714556A true CN103714556A (zh) 2014-04-09

Family

ID=50407499

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410005499.5A Pending CN103714556A (zh) 2014-01-06 2014-01-06 一种基于金字塔表观模型的运动目标跟踪方法

Country Status (1)

Country Link
CN (1) CN103714556A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184779A (zh) * 2015-08-26 2015-12-23 电子科技大学 一种基于快速特征金字塔的车辆多尺度跟踪方法
CN105930794A (zh) * 2016-04-20 2016-09-07 东北大学 一种基于云计算的室内场景识别方法
CN108734139A (zh) * 2018-05-24 2018-11-02 辽宁工程技术大学 基于特征融合及svd自适应模型更新的相关滤波跟踪方法
WO2019085929A1 (zh) * 2017-10-31 2019-05-09 比亚迪股份有限公司 图像处理方法及其装置、安全驾驶方法
CN109903281A (zh) * 2019-02-28 2019-06-18 中科创达软件股份有限公司 一种基于多尺度的目标检测方法及装置
CN110310303A (zh) * 2019-05-06 2019-10-08 南昌嘉研科技有限公司 图像分析多目标跟踪方法
CN110414414A (zh) * 2019-07-25 2019-11-05 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN111627044A (zh) * 2020-04-26 2020-09-04 上海交通大学 基于深度网络的目标追踪攻击与防御方法
CN112257540A (zh) * 2020-10-16 2021-01-22 齐鲁工业大学 一种自适应的抗遮挡动态目标实时跟踪方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101105836A (zh) * 2007-07-06 2008-01-16 哈尔滨工程大学 运动背景的红外图像实时目标识别与跟踪器及方法
CN101923718A (zh) * 2009-06-12 2010-12-22 新奥特(北京)视频技术有限公司 基于粒子滤波和光流矢量的视频目标跟踪方法的优化方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101105836A (zh) * 2007-07-06 2008-01-16 哈尔滨工程大学 运动背景的红外图像实时目标识别与跟踪器及方法
CN101923718A (zh) * 2009-06-12 2010-12-22 新奥特(北京)视频技术有限公司 基于粒子滤波和光流矢量的视频目标跟踪方法的优化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WENHAN LUO 等: "EFFICIENT BLOCK-DIVISION MODEL FOR ROBUST MULTIPLE OBJECT TRACKING", 《SPEECH AND SIGNAL PROCESSING》 *
刘洋: "金字塔表观跟踪与半监督轨迹学习", 《中国科学院自动化研究所机构知识库》 *
杨淑莹 等: "基于模拟退火的粒子滤波在目标跟踪中的应用", 《光电子·激光》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184779B (zh) * 2015-08-26 2018-04-06 电子科技大学 一种基于快速特征金字塔的车辆多尺度跟踪方法
CN105184779A (zh) * 2015-08-26 2015-12-23 电子科技大学 一种基于快速特征金字塔的车辆多尺度跟踪方法
CN105930794A (zh) * 2016-04-20 2016-09-07 东北大学 一种基于云计算的室内场景识别方法
WO2019085929A1 (zh) * 2017-10-31 2019-05-09 比亚迪股份有限公司 图像处理方法及其装置、安全驾驶方法
CN108734139B (zh) * 2018-05-24 2021-12-14 辽宁工程技术大学 基于特征融合及svd自适应模型更新的相关滤波跟踪方法
CN108734139A (zh) * 2018-05-24 2018-11-02 辽宁工程技术大学 基于特征融合及svd自适应模型更新的相关滤波跟踪方法
CN109903281A (zh) * 2019-02-28 2019-06-18 中科创达软件股份有限公司 一种基于多尺度的目标检测方法及装置
CN110310303A (zh) * 2019-05-06 2019-10-08 南昌嘉研科技有限公司 图像分析多目标跟踪方法
CN110414414A (zh) * 2019-07-25 2019-11-05 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN110414414B (zh) * 2019-07-25 2022-02-18 合肥工业大学 基于多层级特征深度融合的sar图像舰船目标鉴别方法
CN111627044A (zh) * 2020-04-26 2020-09-04 上海交通大学 基于深度网络的目标追踪攻击与防御方法
CN111627044B (zh) * 2020-04-26 2022-05-03 上海交通大学 基于深度网络的目标追踪攻击与防御方法
CN112257540A (zh) * 2020-10-16 2021-01-22 齐鲁工业大学 一种自适应的抗遮挡动态目标实时跟踪方法及系统

Similar Documents

Publication Publication Date Title
Yang et al. Every pixel counts: Unsupervised geometry learning with holistic 3d motion understanding
CN103714556A (zh) 一种基于金字塔表观模型的运动目标跟踪方法
Yang et al. Lego: Learning edge with geometry all at once by watching videos
CN110443842B (zh) 基于视角融合的深度图预测方法
Reda et al. Sdc-net: Video prediction using spatially-displaced convolution
Cagniart et al. Probabilistic deformable surface tracking from multiple videos
Zhang et al. Cross-view cross-scene multi-view crowd counting
CN105654492A (zh) 基于消费级摄像头的鲁棒实时三维重建方法
Chen et al. End-to-end learning of object motion estimation from retinal events for event-based object tracking
CN104050685B (zh) 基于粒子滤波视觉注意力模型的运动目标检测方法
Bešić et al. Dynamic object removal and spatio-temporal RGB-D inpainting via geometry-aware adversarial learning
CN102682452A (zh) 基于产生式和判别式结合的人体运动跟踪方法
CN102156995A (zh) 一种运动相机下的视频运动前景分割方法
CN112784736A (zh) 一种多模态特征融合的人物交互行为识别方法
CN104794737A (zh) 一种深度信息辅助粒子滤波跟踪方法
CN107609571A (zh) 一种基于lark特征的自适应目标跟踪方法
Károly et al. Optical flow-based segmentation of moving objects for mobile robot navigation using pre-trained deep learning models
Liu et al. A survey on deep learning methods for scene flow estimation
Allain et al. On mean pose and variability of 3d deformable models
Li et al. Spatiotemporal road scene reconstruction using superpixel-based Markov random field
JP2021071749A (ja) 3dモデル生成装置および方法
Keck et al. Recovery and reasoning about occlusions in 3D using few cameras with applications to 3D tracking
Wu et al. Super-efficient echocardiography video segmentation via proxy-and kernel-based semi-supervised learning
Liu et al. 3D Human Pose and Shape Estimation from Video
Zhang et al. Saliency-based foreground trajectory extraction using multiscale hybrid masks for action recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140409