CN1741069A - 基于自适应表面模型的概率视频跟踪方法 - Google Patents

基于自适应表面模型的概率视频跟踪方法 Download PDF

Info

Publication number
CN1741069A
CN1741069A CN 200510029899 CN200510029899A CN1741069A CN 1741069 A CN1741069 A CN 1741069A CN 200510029899 CN200510029899 CN 200510029899 CN 200510029899 A CN200510029899 A CN 200510029899A CN 1741069 A CN1741069 A CN 1741069A
Authority
CN
China
Prior art keywords
sigma
model
target
formula
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN 200510029899
Other languages
English (en)
Inventor
敬忠良
李安平
胡士强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN 200510029899 priority Critical patent/CN1741069A/zh
Publication of CN1741069A publication Critical patent/CN1741069A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于自适应表面模型的概率视频跟踪方法,用于计算机视觉、图像处理与模式识别领域。本发明首先用三个混合高斯分量来描述目标表面的像素变化过程,然后利用在线的EM算法来自适应更新混合高斯模型参数,最后将自适应表面模型结合到粒子滤波算法中。本发明通过自适应更新表面模型使得跟踪的鲁棒性大大提高,可广泛应用于基于视觉的控制、视频监控系统、视频会议系统、机器人视觉导航系统、工业产品监控系统、军事目标跟踪系统等各类民用及军用系统中,具有广阔的市场前景和应用价值。

Description

基于自适应表面模型的概率视频跟踪方法
技术领域
本发明涉及的是一种用于视频处理技术领域的方法,具体地说,是一种基于自适应表面模型的概率视频跟踪方法。
背景技术
视频跟踪在许多场合下都具有非常重要的应用,如基于视觉的控制、智能机器人、智能监视系统以及基于视频的目标识别。视频跟踪一直存在一较难处理的问题,即:如何处理跟踪期间目标表面的变化;目标表面的变化可能由于目标姿态变化、目标形变、光照变化以及遮挡而引起的。因此对于一个视频跟踪器来说,一个很重要的议题就是设计一个鲁棒的表面模型,这个模型能适应目标表面在跟踪期间所发生的变化。目前多数跟踪算法中,所采用的表面模型在跟踪期间或固定不变或被快速更新。在第一种情况下,表面模型从第一帧图像中提取出,然后在后续的序列帧中找出与该表面模型信息最相似的目标区域,认为该区域即为要跟踪的目标,这种表面模型在跟踪期间保持不变;在第二种情况下,表面模型每帧或每隔几帧利用前一帧的跟踪结果来更新。这两种方法在很多场合下均不适用。如果表面模型固定不变,则跟踪器在目标出现光照变化、姿态变化或发生遮挡时容易出现跟踪失败;但如果表面模型更新太快,则跟踪器会由于遮挡或前些帧的跟踪累积误差而利用错误的表面信息来跟踪目标。因此对于一个鲁棒的跟踪器而言,一个合适的更新策略就显得非常重要,该更新策略即要能适应目标表面的缓慢变化,也要能适应目标表面的快速变化。
经对现有技术文献的检索发现,A.D.Jepson等在《IEEE Transactions onPattern Analysis and Machine Intelligence》(pp.1296-1311,2003)上发表“Robust online appearance models for visual tracking”(视频跟踪中的鲁棒在线表面模型,模式分析与机器智能IEEE杂志)。该文提出了一种自适应WSL表面模型,他们用三个混合分量(W,S和L分量)来描述目标表面的变化。W分量描述相邻两帧之间目标表面的变化,S分量描述目标表面的缓慢变化量,L分量描述目标表面的异常变化量。他们的算法在处理光照变化、目标姿态变化以及面部表情变化等具有较强的鲁棒性。但是他们的表面模型是基于“相位”信息的,即利用小波对目标表面的灰度信息进行处理,这种处理方法一般运算量较大;另一方面,作者在文章中指出他们的算法在目标发生完全遮挡时,总是出现跟踪失败,其中的原因是:当目标发生完全遮挡时,表面模型中的S分量变得不可靠,而W分量的权重会快速增大,其影响力远远超过其他两个分量,因此当目标被完全遮挡时,他们的跟踪器类似于基于两帧差的跟踪,所以他们的算法容易跟踪遮挡部分。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种基于自适应表面模型的概率视频跟踪方法,使其提高对复杂环境下运动目标的跟踪能力。
本发明是通过以下技术方案实现的,本发明首先将表面模型中像素值的变化过程用三个混合高斯分量描述,然后利用在线的EM算法自适应更新这些高斯参数,保证混合高斯模型能反映出目标表面的变化,最后将该表面模型结合到粒子滤波算法中,实现自适应观测模型的设计,提高视频跟踪的鲁棒性。
本发明包括以下步骤:
(1)建立混合表面模型
假设第i个像素的历史观测值Z1:t(i)={Z1(i),K,Zt(i)}彼此之间是一个独立过程,那么目标表面中第i个像素的当前观测值Zt(i)的概率可由下面的混合高斯分量描述:
p ( Z t ( i ) | Θ t ( i ) ) = Σ m = 1 3 π m , t ( i ) p ( Z t ( i ) | Θ m , t ( i ) ) , Σ m = 1 3 π m , t ( i ) = 1 - - - ( 1 )
式中:θm,t(i)=(μm,t(i),σm,t(i)); Θ t ( i ) = ( π m , t ( i ) , θ m , t ( i ) ) m = 1 3 ; πm,t(i);是第m个高斯分量的权重;p(Zt(i)|θm,t(i))是正态密度函数:
p ( Z t ( i ) | θ m , t ( i ) ) = N ( Z t ( i ) ; μ m , t ( i ) , σ m , t 2 ( i ) ) = 1 2 π σ m , t ( i ) exp ( - ( Z t ( i ) - μ m , t ( i ) ) 2 2 σ m , t 2 ( i ) ) - - - ( 2 )
式中:μm,t(i)和σm,t(i)分别为第m个高斯分量的均值和方差。
在跟踪期间,目标表面会由于姿态变化、光照影响,以及遮挡或其中任意几种情况的综合而发生较明显的变化,使得利用单个高斯分量很难描述目标表面像素值的变化过程。如果目标表面仅由某一种因素而导致变化,则利用单个高斯分量能达到较好的描述效果;然而实际中,目标的表面会由于多种因素综合在一起而发生变化。本发明采用了三个混合高斯分量来描述目标表面每个像素值的变化过程。每个高斯分量都可以近似描述由某一种因素所导致目标表面的变化过程,因此利用混合高斯模型能更准确地描述目标表面像素值的变化过程。
(2)模型参数更新
为了反映出目标表面的变化,混合表面模型中的高斯参数在跟踪期间应被自适应更新。当获得目标当前时刻的观测值Zt时,则前一时刻表面模型中的高斯参数,即(πm,t-1(i),μm,t-1(i),σm,t-1(i))m=1 3,将按照下面的式子被在线更新:
o m , t ( i ) = π m , t - 1 ( i ) p ( Z t ( i ) | θ m , t - 1 ( i ) ) p ( Z t ( i ) | Θ t - 1 ( i ) ) - - - ( 3 )
πm,t(i)=απm,t-1(i)+(1-α)om,t(i)                        (4)
μm,t(i)=[1-βm,t(i)]μm,t-1(i)+βm,t(i)Zt(i)             (5)
σ m , t 2 ( i ) [ 1 - β m , t ( i ) ] σ m , t - 1 2 ( i ) + β m , t ( i ) [ Z t ( i ) - μ m , t ( i ) ] 2 - - - ( 6 )
式中: β m , t ( i ) = ( 1 - α ) o m , t ( i ) π m , t ( i ) , i=1,…,d,d为表面模型中总的像素个数。
本发明依据传统EM算法的思想,在一些近似假设条件下,推导出在线计算公式(3)、(4)、(5)和(6),通过这组公式实现混合表面模型中高斯参数的在线更新。
(3)基于自适应表面模型的概率跟踪
在进行目标状态估计时,本发明采用了粒子滤波算法。粒子滤波算法是一种基于蒙特卡罗方法的新滤波算法。该滤波算法通过一组带权重的粒子来描述目标状态的后验分布,这种描述对目标的运动(观测)模型以及过程(观测)噪声的分布没有特别要求,因此对非线性-非高斯估计问题表现出较强的鲁棒性。粒子滤波算法的实现步骤如下:
步骤1:重要性采样
在重要性采样步,首先t-1时刻的粒子{Xt-1 (j)}j=1 N通过运动模型p(Xt (j)|Xt-1 (j)传递到下一时刻;然后在给定的观测值Yt,每个被传递的粒子
Figure A20051002989900081
被赋予权值 w t ( j ) ∝ p ( Y t | X ~ t ( j ) ) , 最后归一化这些权值 w t ( j ) = w t ( j ) / Σ j = 1 N w t ( j ) .
步骤2:重采样
在重采样步,粒子 { X ~ t ( j ) , w t ( j ) } j = 1 N 将被重新采样,每个粒子被选择的次数与它的权值大小成正比,权值越大的粒子被选择的可能性越大。
步骤3:状态估计
在估计出目标的后验分布后,目标的状态可由两种方式得到,第一种为最小均方根误差估计方法:
X ^ t = E [ X t | Y 1 : t ] ≈ 1 N Σ j = 1 N X t ( j ) - - - ( 7 )
另一种方法为最大后验估计:
X ^ t = arg max p X t ( X t | Y 1 : t ) ≈ arg max X t w t ( j ) - - - ( 8 )
在设计粒子滤波算法时,观测模型的设计非常重要,本发明将粒子滤波算法中的观测模型设计成基于自适应表面模型,即将观测模型中的似然函数用混合高斯分量来描述,这些混合高斯参数通过在线的更新公式(3)、(4)、(5)和(6)根据过去时刻的观测值来在线调节,实现了自适应观测模型的设计。
(4)遮挡处理
在视频跟踪中,经常出现目标遮挡情况。本发明在处理遮挡时,采用了鲁棒的统计技术。发明中选取了鲁棒的Huber误差函数ρ,通过该误差函数来降低遮挡部分的像素对目标状态估计的影响,它具有如下形式:
ρ ( ϵ ) = c ( | ϵ | + c 2 ) if | ϵ | > c 1 2 ϵ 2 otherwise - - - ( 9 )
式中:C为一尺度参数,ε为误差量。
一般情况下,目标在发生遮挡区域内的像素表现出较大的图像误差。当某像素的图像误差越大,则误差函数会赋以该像素的估计权重越小,从而达到降低其对目标状态估计的影响。通过采用鲁棒统计技术,使得发明中所提的方法在目标发生遮挡时,也能表现出较好的跟踪效果。
本发明提出了一种自适应表面模型,该模型能适应跟踪期间目标表面的变化。由于目标表面在跟踪期间可能由于多种因素的综合而发生明显变化,因此,本发明采用了三个混合高斯分量来描述目标表面像素值的变化过程,这种描述能更准确反映出像素值的变化过程。为了反映出目标表面的变化,开发了一在线的EM估计算法,通过这个在线算法实现表面模型中混合高斯参数的自适应更新;在估计目标状态时,采用了粒子滤波算法,该滤波算法对解决视频跟踪中的非线性-非高斯估计问题表现出较强的鲁棒性,在设计粒子滤波时,设计了基于自适应表面模型的观测模型,将观测模型中的似然函数用混合高斯分量来描述,这些混合高斯参数根据过去时刻的观测值通过在线的计算公式被在线调节,实现了自适应观测模型的设计,提高了观测模型的鲁棒性;在处理遮挡时,采用了鲁棒的统计技术来降低遮挡部分像素对目标状态估计的影响。
本发明通过将自适应表面模型结合到粒子滤波算法中,大大提高了视频跟踪的鲁棒性,可以广泛应用于基于视觉的控制、视频监控系统、视频会议系统、机器人视觉导航系统、工业产品监控系统、军事目标跟踪系统等各类民用及军用系统中,具有广阔的市场前景和应用价值。
附图说明
图1为一女子头部的跟踪效果图。
其中:图1(a)为固定表面模型时的跟踪效果图;图1(b)为本发明的跟踪效果图。
图2为不同光照下的人脸跟踪效果图。
其中:图2(a)为固定表面模型时的跟踪效果图;图2(b)为本发明的跟踪效果图。
图3为不同姿态下的人脸跟踪效果图。
其中:图3(a)为固定表面模型时的跟踪效果图;图3(b)为本发明的跟踪效果图。
图4为本发明中的方法在部分遮挡及表情变化情况下的人脸跟踪效果图。
其中:图4(a)为部分遮挡情况下的跟踪效果图;图4(b)为表情变化下的跟踪效果图。
图5为本发明中的方法在完全遮挡下的人头跟踪效果图。
具体实施方式
1.跟踪初始化
在视频目标跟踪中,一般目标的初始位置由一些检测算法或手工初始化得到;在本发明中,目标在第一帧图像中的位置采用了手工初始化,即通过手工标定目标在第一帧图像中的位置。
2.混合表面模型
本发明采用了三个混合高斯分量来描述目标表面每个像素值的变化过程。假设第i个像素的历史值Z1:t(i)={Z1(i),K,Zt(i)}彼此之间是一个独立过程,那么第i个像素的当前观测值Zt(i)的概率可以由下式估计出:
p ( Z t ( i ) | Θ t ( i ) ) = Σ m = 1 3 π m , t ( i ) p ( Z t ( i ) | θ m , t ( i ) ) , Σ m = 1 3 π m , t ( i ) = 1 - - - ( 10 )
式中:θm,t(i)=(μm,t(i),σm,t(i)); Θ t ( i ) = ( π m , t ( i ) , θ m , t ( i ) ) m = 1 3 ; πm,t(i)是第m个高斯分量的权重;
p(Zt(i)|θm,t(i))是正态密度函数:
p ( Z t ( i ) | θ m , t ( i ) ) = N ( Z t ( i ) ; μ m , t ( i ) , σ m , t 2 ( i ) ) = 1 2 π σ m , t ( i ) exp ( - ( Z t ( i ) - μ m , t ( i ) ) 2 2 σ m , t 2 ( i ) ) - - - ( 11 )
式中:μm,t(i)和σm,t(i)分别为第m个高斯分量的均值和方差。
3.模型参数更新
为适应目标表面的变化,(10)式中的高斯参数,即Θt(i),应被在线估计出。本发明开发了一种在线EM算法来估计这些高斯参数。为了使得参数的估计更多依赖于最近时刻的观测值,定义了一衰减因子α,则第i个像素历史观测值的对数似然函数可以表示如下:
L ( Θ t ( i ) | Z 1 : t ( i ) ) = Σ k = 1 t α t - k log [ Σ m = 1 3 π m , t ( i ) p ( Z t ( i ) | θ m , t ( i ) ) ] - - - ( 12 )
式中:α∈(0,1]表示过去的观测值对当前参数估计的贡献程度。
与传统的EM算法思想相似,如果给定Θt(i)一个初始的猜测值,那么Θt(i)可以通过迭代下面的两个步骤求出:
步骤1.E-step
o m , k ( i ) = p ( m | Z k ( i ) , Θ t - 1 ( i ) ) = π m , t - 1 ( i ) p ( Z k ( i ) | θ m , t - 1 ( i ) ) Σ m = 1 3 π m , t - 1 ( i ) p ( Z k ( i ) | θ m , t - 1 ( i ) ) - - - ( 13 )
步骤2.M-step
π m , t ( i ) = Σ k = 1 t α t - k o m , k ( i ) Σ m = 1 3 Σ k = 1 t α t - k o m , k ( i ) - - - ( 14 )
μ m , t ( i ) = Σ k = 1 t α t - k o m , k ( i ) Z k ( i ) Σ k = 1 t α t - k o m , k ( i ) - - - ( 15 )
σ m , t 2 ( i ) = Σ k = 1 t α t - k o m , k ( i ) [ Z k ( i ) - μ m , t ( i ) ] 2 Σ k = 1 t α t - k o m , k ( i ) - - - ( 16 )
在这儿,前一时刻的参数Θt-1(i)被作为最初的猜测参数。但如果按照上面的两个步骤来计算Θt(i),那么在计算om,k(i)时,需要将以前时刻的所有观测都要储存下来,这对于基于图像的目标跟踪来说在实际应用中是不可能做到的,因此需通过一些假设来推导出一组近似公式来代替(13)式、(14)式、(15)式、和(16)式。
考虑到在实际中,这些高斯参数随着时间的变化较缓慢,因此可以假设om,t(i)≈om,t-1(i),在这种假设条件下,可以得到如下的一组递推公式:
对于πm,t(i),可以得到:
π m , t ( i ) = Σ k = 1 t α t - k o m , k ( i ) Σ m = 1 3 Σ k = 1 t α t - k o m , k ( i )
= α Σ k = 1 t - 1 α t - 1 - k Σ k = 1 t - 1 α t - 1 - k o m , k ( i ) Σ k = 1 t - 1 α t - 1 - k + o m , t ( i ) Σ k = 1 t α t - k - - - ( 17 )
≈ α Σ k = 1 t - 1 α t - 1 - k π m , t - 1 ( i ) + o m , t ( i ) Σ k = 1 t α t - k = α Σ k = 1 t - 1 α t - 1 - k Σ k = 1 t α t - k π m , t - 1 ( i ) + 1 Σ k = 1 t α t - k o m , t ( i )
如果时间t较大的话,有: Σ k = 1 t α t - k ≈ 1 1 - α , 则(8)式可以简化为:
πm,t(i)=απm,t-1(i)+(1-α)om,t(i)          (18)
对于μm,t(i),可以得到:
μ m , t ( i ) = Σ k = 1 t α t - k o m , k ( i ) Z k ( i ) Σ k = 1 t α t - k o m , k ( i )
= α Σ k = 1 t - 1 α t - 1 - k o m , k ( i ) Σ k = 1 t - 1 α t - 1 - k o m , k ( i ) Z k ( i ) Σ k = 1 t - 1 α t - 1 - k o m , k ( i ) + o m , t ( i ) Z t ( i ) Σ k = 1 t α t - k o m , k ( i )
≈ α Σ k = 1 t - 1 α t - 1 - k o m , k ( i ) Σ k = 1 t α t - k o m , k ( i ) μ m , t - 1 ( i ) + o m , t ( i ) Σ k = 1 t α t - k o m , k ( i ) Z t ( i ) - - - ( 19 )
=[1-βm,t(i)]μm,t-1(i)+βm,t(i)Zt(i)
其中:
β m , t ( i ) = o m , t ( i ) Σ k = 1 t α t - k o m , k ( i ) = o m , t ( i ) π m , t ( i ) Σ k = 1 t α t - k ≈ ( 1 - α ) o m , t ( i ) π m , t ( i ) - - - ( 20 )
对于σj,t 2(i),可以得到:
σ m , t 2 ( i ) = Σ k = 1 t α t - k o m , k ( i ) [ Z k ( i ) - μ m , t ( i ) ] 2 Σ k = 1 t α t - k o m , k ( i )
≈ α Σ k = 1 t - 1 α t - 1 - k o m , k ( i ) Σ k = 1 t - 1 α t - 1 - k o m , k ( i ) [ Z k ( i ) - μ m , t - 1 ( i ) ] 2 Σ k = 1 t - 1 α t - 1 - k o m , k ( i ) + o m , t ( i ) [ Z t ( i ) - μ m , t ( i ) ] 2 Σ k = 1 t α t - k o m , k ( i )
≈ α Σ k = 1 t - 1 α t - 1 - k o m , k ( i ) Σ k = 1 t α t - k o m , k ( i ) σ m , t - 1 2 ( i ) + o m , t ( i ) Σ k = 1 t α t - k o m , k ( i ) [ Z t ( i ) - μ m , t ( i ) ] 2 - - - ( 21 )
= [ 1 - β m , t ( i ) ] σ m , t - 1 2 ( i ) + β m , t ( i ) [ Z t ( i ) - μ m , t ( i ) ] 2
对以上推导进行总结,得到以下一组递推公式:
o m , t ( i ) = π m , t - 1 ( i ) p ( Z t ( i ) | θ m , t - 1 ( i ) ) p ( Z t ( i ) | Θ t - 1 ( i ) ) - - - ( 22 )
πm,t(i)=απm,t-1(i)+(1-α)om,t(i)                           (23)
β m , t ( i ) = ( 1 - α ) o m , t ( i ) π m , t ( i ) - - - ( 24 )
μm,t(i)=[1-βm,t(i)]μm,t-1(i)+βm,t(i)Zt(i)               (25)
σ m , t 2 ( i ) = [ 1 - β m , t ( i ) ] σ m , t - 1 2 ( i ) + β m , t ( i ) [ Z t ( i ) - μ m , t ( i ) ] 2 - - - ( 26 )
(22)-(26)式表明了在计算Θt(i)时,不需存储所有的观测值,而只需存储前一时刻的参数值Θt-1(i),这就大大降低了计算机的存储容量。
在试验中,一旦获得当前时刻的观测值,则根据(22)-(26)式来更新前一时刻的模型(混合高斯模型)参数,这种更新使得混合模型能反映出目标表面的变化过程。该更新过程需要一个初始化步骤,偶尔需要一个复位步骤,这是由于更新过程变得不可靠或目标表面发生突然变化所致。具体的更新步骤包括:初始化步骤、更新步骤和复位步骤。在初始化步骤,表面模型中每个像素的分布先由第一个高斯分量来描述,其余的高斯分量在后续的更新过程中逐渐被初始化。在更新步骤,当前像素的观测值首先与现存的三个高斯分量进行比较,如果发现至少有一个分量与当前的像素值匹配,那么就按照(22)-(26)式来更新高斯参数,匹配的定义是:像素值在某一分布的Tσ(试验中Tσ=3)个方差以内。如果没有一个高斯分量与当前像素匹配,则进行复位操作。复位的产生主要有两个原因;第一个是:对于当前像素来说,更新过程变得不可靠;第二个是:当前像素相对于前些时刻的值变化迅速。在第一种情况下,权重最小的高斯分量将被选择出来,其均值复位到最初模板的像素值,方差复位到最初的方差,权重复位为较小值;在第二种情况下,与第一种情况不同的是直接将均值复位到当前观测的像素值,以使混合模型中包含目标表面的快速变化量。本发明设计了一个计算器来计算每个分量的连续复位次数;如果当计算器的值超过了某一设定值(试验中为5),那么就认为当前像素发生了迅速变化。在复位后,权重被归一化处理。在发明中,当判断到目标发生遮挡时,则整个更新过程将不被执行,即表面模型保持不变。
4.粒子滤波算法
在贝叶斯滤波框架下,跟踪问题可认为是后验概率密度的一个传递过程。有关目标状态的所有信息均可以从后验密度分布p(Xt|Y1:t)中推导出。贝叶斯滤波主要由两步组成:预测和更新。
步骤1:预测
在预测步,第t时刻的先验分布p(Xt|Y1:t-1)可以从t-1时刻的后验分布p(Xt-1|Y1:t-1)根据下式推导出:
p ( X t | Y 1 : t - 1 ) = ∫ p ( X t | X t - 1 ) p ( X t - 1 | Y 1 : t - 1 ) d X t - 1 - - - ( 27 )
式中:p(Xt|Xt-1)描述了目标状态变化过程,它一般由目标的运动模型决定:
Xt=Ft(Xt-1,Ut)                      (28)
式中:Ft(·,·)描述目标的运动方式;Ut为系统噪声。
步骤2:更新
在更新步,t时刻的观测值Yt按照贝叶斯规则对先验分布p(Xt|Y1:t-1)进行更新:
p ( X t | Y 1 : t ) = p ( Y t | X t ) p ( X t | Y 1 : t - 1 ) ∫ p ( Y t | X t ) p ( X t | Y 1 : t - 1 ) d X t - - - ( 29 )
式中:p(Yt|Xt)为目标的观测似然,它一般由目标的观测模型决定:
Yt=Ht(Xt,Vt)                                         (30)
式中:Ht(·,·)描述目标的观测模型;Vt为观测噪声。
(27)式和(29)式之间的递推关系为跟踪问题提供了一组最优的解。当函数Ft(·,·)和Ht(·,·)为非线性,以及Ut和Vt为高斯噪声时,这组解具有解析的形式;然而在多数情况下,这种条件不能满足,因此解析形式的解很难得到,需采用蒙特卡罗方法来近似求解。
粒子滤波是一种基于蒙特卡罗方法的新滤波算法,它能有效解决非线性、非高斯情况下的状态估计问题。粒子滤波算法通过一组带权重的粒子来逼近目标状态的后验分布,当粒子的数目趋于无穷大时,则这些粒子在理论上可以逼近状态的真实后验分布。粒子滤波算法一般包括重要性采样、重采样以及状态估计三个步骤。在重要性采样步,首先,t-1时刻的粒子{Xt-1 (j)}j=1 N通过运动模型p(Xt (j)|Xt-1 (j))传递到下一时刻;然后,在给定的观测值Yt,每个被传递的粒子
Figure A20051002989900151
被赋予权值 w t ( j ) ∝ p ( Y t | X ~ t ( j ) ) , 最后,归一化这些权值 w t ( j ) = w t ( j ) / Σ j = 1 N w t ( j ) . 在重采样步,粒子 { X ~ t ( j ) , w t ( j ) } j = 1 N 将被重新采样,每个粒子被选择的次数与它的权值大小成正比,权值越大的粒子被选择的可能性越大。在估计出目标的后验分布后,目标的状态可以由两种方式得到,第一种为最小均方根误差估计方法(MMSE);另一种方法为最大后验估计(MAP)。发明中采用了第一种状态估计方法。
4.1  粒子滤波中运动模型的设计
目标在图像中的运动可以看成是对目标区域的一组参数映射变化过程,映射参数定义为Wt=(ut,vt,st,rt),其中ut,vt,st,rt分别对应目标区域的平移(x和y方向上)、比例和旋转。每个映射参数由下面的运动模型描述:
式中:Xt=(ut,wt,vt,wt,st,rt)T;Ut为零均值的高斯噪声,其协方差为∑;∑为一对角矩阵,对角线上的元素分别对应Wt中四个参数的方差,即:σu 2,σr 2,σs 2,σr 2
4.2  粒子滤波中观测模型的设计
在粒子滤波中,目标观测模型是基于自适应表面模型设计的。给定一个粒子状态Xt (j),则目标的候选区域可以由下面的映射变化得到:
x t y t = s t ( j ) cos ( r t ( j ) ) - sin ( r t ( j ) ) sin ( r t ( j ) ) cos ( r t ( j ) ) x t - 1 y t - 1 + u t ( j ) v t ( j ) - - - ( 32 )
式中:xt=(xt,yt)T为目标候选区域内的像素点位置;xt-1=(xt-1,yt-1)T为t-1时刻目标真实区域内的像素点位置。如果用函数ψ(·,·)表示(32)式中的映射关系,则(32)式可以写成:
x t = ψ ( x t - 1 , X t ( j ) ) - - - ( 33 )
在得到目标候选区域后,则该区域的观测可以描述如下:
Z ^ t ( j ) = I t ( ψ ( x t - 1 , X t ( j ) ) ) - - - ( 34 )
式中:It(ψ(xt-1,Xt (j)))为像素点ψ(xt-1,Xt (j))在当前图像It中的灰度值。得到对应于状态Xt (j)下的观测值
Figure A20051002989900164
后,观测似然p(Yt|Xt (j))设计如下:
p ( Y t | X t ( j ) ) = p ( Z ^ t ( j ) | X t ( j ) ) = Π i = 1 d { Σ m = 1 3 π m , t - 1 ( i ) N ( Z ^ t ( j ) ( i ) ; μ m , t - 1 ( i ) , σ m , t - 1 2 ( i ) ) } - - - ( 35 )
式中: N ( Z ^ t ( j ) ( i ) ; μ m - 1 , t ( i ) , σ m , t - 1 2 ( i ) ) 为正态密度函数;{πm,t-1(i),μm,t-1(i),σm,t-1(i)}m=1 3为第i个像素在t-1时刻的表面模型At-1中的混合高斯参数;d为表面模型中像素的个数。当获得当前时刻的观测值Zt时,则参数{πm,t-1(i),μm,t-1(i),σm,t-1(i)}m=1 3将按照模型参数更新的步骤被更新,保证混合高斯模型能反映出目标表面的变化。
5.遮挡处理
一般情况下,位于遮挡区域内的像素会产生较大的图像误差,称这些像素为“异常像素”(outlier pixels)。“异常像素”对状态估计的影响应该减小。鲁棒的统计技术提供了这种功能。
发明中采用了鲁棒的Huber误差函数ρ。针对发明中的问题,函数ρ具有如下的形式:
ρ ( Z t ( i ) - μ m , t - 1 ( i ) σ m , t - 1 ( i ) ) = T σ ( | Z t ( i ) - μ m , t - 1 ( i ) σ m , t - 1 ( i ) | - T σ 2 ) if ∀ m = 1,2 , 3 , | Z t ( i ) - μ m , t - 1 ( i ) σ m , t - 1 ( i ) | > T σ 1 2 ( Z t ( i ) - μ m , t - 1 ( i ) σ m , t - 1 ( i ) ) 2 otherwise - - - ( 36 )
式中:Zt(i)为第i个像素的当前观测值;(μm,t-1(i),σm,t-1(i))为第i个像素在t-1时刻表面模型At-1中第m个高斯分量的参数;在试验中,如果没有任何一个高斯分量匹配Zt(i)的话,即: ∀ m = 1,2,3 , | Z t ( i ) - μ m , t - 1 ( i ) σ m , t - 1 ( i ) | > T σ , 则认为第i个像素为“异常像素”;当第i个像素为“异常像素”时,则(35)式中的正态密度函数用下式替代:
N ( Z ^ t ( j ) ( i ) ; μ m , t - 1 ( i ) , σ m , t - 1 2 ( i ) ) = 1 2 π σ m , t - 1 ( i ) exp ( - ρ ( Z ^ t ( j ) ( i ) - μ m , t - 1 ( i ) σ m , t - 1 ( i ) ) )
= 1 2 π σ m , t - 1 ( i ) exp ( - T σ ( | Z ^ t ( j ) ( i ) - μ m , t - 1 ( i ) σ m , t - 1 ( i ) | - T σ 2 ) ) - - - ( 37 )
这个替代使得“异常像素”对似然函数的计算影响变小,从而对状态估计的影响也变小。
如果在当前观测值Zt中,“异常像素”的个数dout超过某一比例γ的话,即:dout/d>γ,则认为目标发生了遮挡,在试验中,选取γ=0.2。一旦发生遮挡,则当前的更新过程停止,即:At=At-1
如图1所示,试验结果表明:本发明中的方法在头部发生旋转时,具有较好的跟踪效果。
如图2所示,试验结果表明:本发明中的方法在处理不同光照下的跟踪具有较强的鲁棒性。
如图3所示,试验结果表明:本发明中的方法在处理不同姿态下的目标跟踪,也表现出很好的跟踪效果。
如图4所示,试验结果表明:本发明中的方法在目标发生部分遮挡以及表情发生变化情况下,表现出较强的鲁棒性。
如图5所示,试验结果表明:本发明中的方法能有效地处理完全遮挡情况下的跟踪,表现出较好的跟踪效果。

Claims (4)

1.一种基于自适应表面模型的概率视频跟踪方法,其特征在于,首先将表面模型中像素值的变化过程用三个混合高斯分量描述,然后利用在线的EM算法自适应更新这些高斯参数,保证混合高斯模型能反映出目标表面的变化,最后将该表面模型结合到粒子滤波算法中,实现自适应观测模型的设计,提高视频跟踪的鲁棒性。
2.根据权利要求1所述的基于自适应表面模型的概率视频跟踪方法,其特征是,包括以下步骤:
(1)建立混合表面模型
假设第i个像素的历史观测值Z1:t(i)={Z1(i),K,Zt(i)}彼此之间是—个独立过程,那么目标表面中第i个像素的当前观测值Zt(i)的概率可由下面的混合高斯分量描述:
p ( Z t ( i ) | Θ t ( i ) ) = Σ m = 1 3 π m , t ( i ) p ( Z t ( i ) | θ m , t ( i ) ) , Σ m = 1 3 π m , t ( i ) = 1 - - - - ( 1 )
式中:θm,t(i)=(μm,t(i),σm,t(i)); Θ t ( i ) = ( π m , t ( i ) , θ m , t ( i ) ) m = 1 3 ; πm,t(i)是第m个高斯分量的权重;p(Zt(i)|θm,t(i))是正态密度函数:
p ( Z t ( i ) | θ m , t ( i ) ) = N ( Z t ( i ) ; μ m , t ( i ) , σ m , t 2 ( i ) ) = 1 2 π σ m , t ( i ) exp ( ( Z t ( i ) - μ m , t ( i ) ) 2 2 σ m , t 2 ( i ) ) - - - ( 2 )
式中:μm,t(i)和σm,t(i)分别为第m个高斯分量的均值和方差;
(2)模型参数更新
为了反映出目标表面的变化,混合表面模型中的高斯参数在跟踪期间应被自适应更新,当获得目标当前时刻的观测值Zt时,则前一时刻表面模型中的高斯参数,即(πm,t-1(i),μm,t-1(i),σm,t-1(i))m=1 3,将按照下面的式子被在线更新:
o m , t ( i ) = π m , t - 1 ( i ) p ( Z t ( i ) | θ m , t - 1 ( i ) ) p ( Z t ( i ) | Θ t - 1 ( i ) ) - - - ( 3 )
πm,t(i)=απm,t-1(i)+(1-α)om,t(i)                   (4)
μm,t(i)=[1-βm,t(i)]μm,t-1(i)+βm,t(i)Zt(i)        (5)
σ m , t 2 ( i ) = [ 1 - β m , t ( i ) ] σ m , t - 1 2 ( i ) + β m , t ( i ) [ Z t ( i ) - μ m , t ( i ) ] 2 - - - - ( 6 )
式中: β m , t ( i ) = ( 1 - α ) o m , t ( i ) π m , t ( i ) , i=1,…,d,d为表面模型中总的像素个数;
(3)基于自适应表面模型的概率跟踪
在进行目标状态估计时,采用粒子滤波算法,该算法通过一组带权重的粒子来描述目标状态的后验分布,将观测模型中的似然函数用混合高斯分量来描述,这些混合高斯参数通过在线的更新公式(3)、(4)、(5)和(6),根据过去时刻的观测值来在线调节,实现自适应观测模型的设计;
(4)遮挡处理
在视频跟踪中,经常出现目标遮挡情况,在处理遮挡时,采用鲁棒的统计技术。
3.根据权利要求1或2所述的基于自适应表面模型的概率视频跟踪方法,其特征是,所述的粒子滤波算法,包括以下步骤:
步骤1:重要性采样
在重要性采样步,首先t-1时刻的粒子{Xt-1 (j)}j=1 N通过运动模型p(Xt (j)|Xt-1 (j))传递到下一时刻;然后在给定的观测值Yt,每个被传递的粒子 被赋予权值 w t ( j ) ∝ p ( Y t | X ~ t ( j ) ) , 最后归一化这些权值 w t ( j ) = w t ( j ) / Σ j = 1 N w t ( j ) ;
步骤2:重采样
在重采样步,粒子
Figure A2005100298990003C7
将被重新采样,每个粒子被选择的次数与它的权值大小成正比,权值越大的粒子被选择的可能性越大;
步骤3:状态估计
在估计出目标的后验分布后,目标的状态可由两种方式得到,第一种为最小均方根误差估计方法:
X ^ t = E [ X t | Y 1 : t ] ≈ 1 N Σ j = t N X t ( j ) - - - - ( 7 )
另一种方法为最大后验估计:
X ^ t = arg max X t p ( X t | Y 1 : t ) ≈ arg max X t w t ( j ) - - - - ( 8 ) .
4.根据权利要求2所述的基于自适应表面模型的概率视频跟踪方法,其特征是,所述的鲁棒的统计技术,其方法是:选取鲁棒的Huber误差函数ρ,通过该误差函数来降低遮挡部分的像素对目标状态估计的影响,它具有如下形式:
ρ ( ϵ ) = c ( | ϵ | + c 2 ) if | ϵ | > c 1 2 ϵ 2 otherwise - - - - ( 9 )
式中:C为一尺度参数,ε为误差量,当某像素的图像误差越大,则误差函数会赋以该像素的估计权重越小,从而达到降低其对目标状态估计的影响。
CN 200510029899 2005-09-22 2005-09-22 基于自适应表面模型的概率视频跟踪方法 Pending CN1741069A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200510029899 CN1741069A (zh) 2005-09-22 2005-09-22 基于自适应表面模型的概率视频跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200510029899 CN1741069A (zh) 2005-09-22 2005-09-22 基于自适应表面模型的概率视频跟踪方法

Publications (1)

Publication Number Publication Date
CN1741069A true CN1741069A (zh) 2006-03-01

Family

ID=36093440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200510029899 Pending CN1741069A (zh) 2005-09-22 2005-09-22 基于自适应表面模型的概率视频跟踪方法

Country Status (1)

Country Link
CN (1) CN1741069A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339655B (zh) * 2008-08-11 2010-06-09 浙江大学 基于目标特征和贝叶斯滤波的视觉跟踪方法
CN101369346B (zh) * 2007-08-13 2010-09-15 北京航空航天大学 一种视频运动目标自适应窗口的跟踪方法
CN101551909B (zh) * 2009-04-09 2011-02-02 上海交通大学 基于核及目标连续自适应分布特征的跟踪方法
CN101493943B (zh) * 2008-01-25 2011-03-23 中国科学院计算技术研究所 一种粒子滤波跟踪方法和跟踪装置
CN102064783A (zh) * 2010-11-02 2011-05-18 浙江大学 一种概率假设密度粒子滤波器的设计方法及滤波器
CN101051385B (zh) * 2006-04-07 2011-11-23 欧姆龙株式会社 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置
CN102422324A (zh) * 2009-04-28 2012-04-18 Nec软件有限公司 年龄估计设备、方法和程序
CN103095992A (zh) * 2013-03-01 2013-05-08 天津三星光电子有限公司 一种数码相机
CN104573614A (zh) * 2013-10-22 2015-04-29 北京三星通信技术研究有限公司 用于跟踪人脸的设备和方法
CN105139424A (zh) * 2015-08-25 2015-12-09 四川九洲电器集团有限责任公司 基于信号滤波的目标跟踪方法
CN105427340A (zh) * 2015-11-09 2016-03-23 西安电子科技大学昆山创新研究院 基于改进箱粒子滤波的视频目标跟踪方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101051385B (zh) * 2006-04-07 2011-11-23 欧姆龙株式会社 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置
CN101369346B (zh) * 2007-08-13 2010-09-15 北京航空航天大学 一种视频运动目标自适应窗口的跟踪方法
CN101493943B (zh) * 2008-01-25 2011-03-23 中国科学院计算技术研究所 一种粒子滤波跟踪方法和跟踪装置
CN101339655B (zh) * 2008-08-11 2010-06-09 浙江大学 基于目标特征和贝叶斯滤波的视觉跟踪方法
CN101551909B (zh) * 2009-04-09 2011-02-02 上海交通大学 基于核及目标连续自适应分布特征的跟踪方法
US9036923B2 (en) 2009-04-28 2015-05-19 Nec Solution Innovators, Ltd. Age estimation apparatus, age estimation method, and age estimation program
CN102422324A (zh) * 2009-04-28 2012-04-18 Nec软件有限公司 年龄估计设备、方法和程序
CN102064783B (zh) * 2010-11-02 2013-09-04 浙江大学 一种概率假设密度粒子滤波器的设计方法及滤波器
CN102064783A (zh) * 2010-11-02 2011-05-18 浙江大学 一种概率假设密度粒子滤波器的设计方法及滤波器
CN103095992A (zh) * 2013-03-01 2013-05-08 天津三星光电子有限公司 一种数码相机
CN104573614A (zh) * 2013-10-22 2015-04-29 北京三星通信技术研究有限公司 用于跟踪人脸的设备和方法
CN104573614B (zh) * 2013-10-22 2020-01-03 北京三星通信技术研究有限公司 用于跟踪人脸的设备和方法
CN105139424A (zh) * 2015-08-25 2015-12-09 四川九洲电器集团有限责任公司 基于信号滤波的目标跟踪方法
CN105139424B (zh) * 2015-08-25 2019-01-18 四川九洲电器集团有限责任公司 基于信号滤波的目标跟踪方法
CN105427340A (zh) * 2015-11-09 2016-03-23 西安电子科技大学昆山创新研究院 基于改进箱粒子滤波的视频目标跟踪方法
CN105427340B (zh) * 2015-11-09 2018-03-06 西安电子科技大学昆山创新研究院 基于改进箱粒子滤波的视频目标跟踪方法

Similar Documents

Publication Publication Date Title
CN1741069A (zh) 基于自适应表面模型的概率视频跟踪方法
CN1928889A (zh) 图像处理装置和方法
CN1828632A (zh) 目标检测装置、学习装置、目标检测系统及目标检测方法
CN1302437C (zh) 使用Kernel Fisher faces的面部识别的方法和系统
CN1897015A (zh) 基于机器视觉的车辆检测和跟踪方法及系统
CN101068342A (zh) 基于双摄像头联动结构的视频运动目标特写跟踪监视方法
CN1977286A (zh) 对象识别方法及其设备
US9600884B2 (en) Object shape aligning apparatus, object processing apparatus and methods thereof
CN1822024A (zh) 一种人脸特征点定位方法
CN1885310A (zh) 人脸模型训练模块及方法、人脸实时认证系统及方法
US8542912B2 (en) Determining the uniqueness of a model for machine vision
CN101059836A (zh) 一种人眼定位及人眼状态识别方法
CN1924926A (zh) 一种基于二维模糊聚类的超声图像分割方法
CN1687959A (zh) 基于人脸几何尺寸归一化的人脸图像识别方法
CN1828668A (zh) 基于嵌入式隐马尔可夫模型与交叉熵的台风中心定位方法
CN109567839B (zh) 髋关节x光图像自动分析方法
US8542905B2 (en) Determining the uniqueness of a model for machine vision
Mangold et al. Vision-based screw head detection for automated disassembly for remanufacturing
CN1870051A (zh) 基于神经网络和形态学的红外弱小目标单帧检测方法
CN102592290A (zh) 一种针对水下显微视频的运动目标区域检测方法
CN101055467A (zh) 一种基于idp的工业过程动态优化系统及方法
CN1438605A (zh) 啤酒瓶凸性字符提取与识别硬件系统及处理方法
CN110570450B (zh) 一种基于级联的上下文感知框架的目标跟踪方法
Bégin et al. Auto-exposure algorithm for enhanced mobile robot localization in challenging light conditions
CN1226017C (zh) 基于辐射模板的旋转人脸检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication