CN102999766B - 基于时空结构上下文关系在线学习的目标跟踪方法 - Google Patents

基于时空结构上下文关系在线学习的目标跟踪方法 Download PDF

Info

Publication number
CN102999766B
CN102999766B CN201210359621.XA CN201210359621A CN102999766B CN 102999766 B CN102999766 B CN 102999766B CN 201210359621 A CN201210359621 A CN 201210359621A CN 102999766 B CN102999766 B CN 102999766B
Authority
CN
China
Prior art keywords
target
context model
probability
tracking target
moment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210359621.XA
Other languages
English (en)
Other versions
CN102999766A (zh
Inventor
李子青
文珑银
雷震
易东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Keaosen Data Technology Co Ltd
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201210359621.XA priority Critical patent/CN102999766B/zh
Publication of CN102999766A publication Critical patent/CN102999766A/zh
Application granted granted Critical
Publication of CN102999766B publication Critical patent/CN102999766B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时空结构上下文关系在线学习的目标跟踪方法,用于对视频中出现的目标图像进行跟踪,该方法包括如下步骤:建立目标跟踪的时间结构上下文模型和空间结构上下文模型;在该视频帧中对目标可能出现的区域进行采样,得到采样图像;将所述采样图像输入所述时间结构上下文模型和空间结构上下文模型中,得到该采样图像中的各采样点为目标所在区域的时间概率结果和空间概率结果;将所述空间概率结果和时间概率进行融合,得到各采样点属于目标区域的后验概率,将所述后验概率的最大值所对应的采样点作为目标跟踪的最终结果。本发明能够在事先不了解目标任何信息,不了解目标所在场景的任何信息条件下,通过对目标表象特征的自动在线学习,准确的将目标的位置定位出来。

Description

基于时空结构上下文关系在线学习的目标跟踪方法
技术领域
本发明涉及模式识别以及计算机视觉技术领域,具体涉及目标跟踪技术,特别是一种基于时空结构上下文关系在线学习的目标跟踪方法。
背景技术
目标跟踪具有很多的实际应用,例如人机交互、视频监控、虚拟现实等等。对于绝大多数的情况,跟踪器需要对目标进行长时间跟踪,而且很难获得目标出现的场景,目标表象信息的先验知识,因此就需要跟踪器根据目标在跟踪过程中的变化进行在线的自动学习,以对目标的变化具有更好的鲁棒性。
在实际的应用过程中,运动目标最基本也是最有效的信息就是时间与空间的表象信息,而对于已经提出的在线学习方法往往并没有对这两个基本的信息进行充分的考虑。现有的方法均是主要关注目标本身的表象变化,主要分为两大类,一类是基于产生式模型(GenerativeModel)的在线学习方法,此方法关注直接对目标本身表象特征进行建模,使得其对目标本身表达更完善;另外一类是基于鉴别式模型(DiscriminativeModel)的在线学习的方法,此方法重点关注的是目标与背景之间的区别,通过对目标与背景间区别的学习,达到对目标的准确定位跟踪。此两类方法在一些有限制条件的场景下表现较好,但是对于一般实际应用的非限制条件场景下,其效果不甚理想,因此将时间表象信息与空间表象信息同时考虑势在必行。
发明内容
(一)要解决的技术问题
本发明所要解决的技术问题是现有的目标跟踪方法无法有效利用时间和空间表象信息,以致目标跟踪效果在非限制条件场景下效果不佳的问题。
(二)技术方案
本发明提出一种目标跟踪方法,用于对视频中出现的目标图像进行跟踪,包括如下步骤:
建立目标跟踪的时间结构上下文模型和空间结构上下文模型;
在该视频帧中对目标可能出现的区域进行采样,得到采样图像;
将所述采样图像输入所述时间结构上下文模型和空间结构上下文模型中,得到该采样图像中的各采样点为目标区域的时间概率结果和空间概率结果;
将所述空间概率结果和时间概率进行融合,得到各采样点属于目标区域的后验概率,将所述后验概率的最大值所对应的采样点作为目标跟踪的最终结果。
(三)有益效果
本发明通过同时考虑目标的时间与空间结构上下文信息,能够在事先不了解目标任何信息,不了解目标所在场景的任何信息的条件下,通过跟踪器自身对目标表象特征的自动学习,准确的将目标的位置定位出来。
附图说明
图1是本发明的目标跟踪方法的一个实施例的流程图;
图2是本发明的目标跟踪方法的另一个实施例的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
本发明提出了一种基于时间和空间结构上下文信息的目标表象特征在线学习方法,该方法的原理模型由两部分组成:一部分为时间结构上下文,主要对目标表象特征在时间上的一致性进行建模,对目标的各种变化进行自适应的学习,使得跟踪器在非限制的环境中能对目标进行长时间稳定跟踪;另一部分为空间结构上下文,主要对目标表象特征与其周围背景表象特征的关系进行建模,通过对目标特征与背景特征差异的编码进行学习,从而对在复杂场景中且有相似目标的情况下,对此差异的学习使得跟踪器具有更好的鉴别力,使得跟踪器不会跟踪到相似目标上,而造成跟踪偏移问题。
一方面,对于时间上下文模型,本发明提出一种新的增量子空间学习方法,相比于现有的子空间学习方法,本发明的方法考虑使用将更新样本结合在一起,进行去噪后,再进行更新,并且在更新过程中,将样本的噪声考虑在内,使得对目标表象变化进行更加精确的学习。
另一方面,对于空间上下文模型,现有的方法均是考虑在周围环境中与目标相似或运动相一致的物体,对此物体与目标间的关系进行建模,这种模型往往都非常复杂。而且在复杂环境中,满足这样条件并且稳定存在的物体并不常见,因此极大程度限制了这些算法的应用。由此,本发明提出可以不必寻找这样的物体,而考虑目标整个周围的环境。虽然周围环境时刻在变化且其与目标表象的关系也在变化,因此这些关系往往是较弱的。但是考虑到多个弱的关系通过适当组合就能够形成一个很强的关系,本发明中称之为“支持场”,而这也就体现了一句中国古老的俗语:“三个臭皮匠,顶个诸葛亮”。
本发明的“支持场”的建立由模式识别领域著名的Adaboost算法来完成。考虑到多示例技术在模式识别领域的成功应用,因此在本发明中,我们考虑使用Adaboost的变形形式,基于多示例Boosting的在线算法进行各种弱特征的选择与组合。
在对弱关系建模时,我们充分考虑目标本身的结构信息,将目标本身分成若干块儿,这样就形成了若干的弱关系,进而使用多示例的boosting算法来挑选最具鉴别力的弱关系形成“支持场”。最后通过将时间上下文模型所得到的目标可能所在状态与空间上下文模型所得到的目标可能所在状态进行融合,找出目标可能所在状态概率最大处,进而得到目标的最优状态,并认为此状态即为目标在当前帧的跟踪结果。
通过对目标所在最优状态对应的表象信息进行判断,若其所得到的置信度(目标所在状态表象为目标本身的概率)大于一定阈值,那么就使用此最优状态对时间结构上下文模型与空间结构上下文模型进行更新,之后进入下一帧的跟踪处理;否则直接进入下一帧的跟踪处理。
图1是本发明的目标跟踪方法的一个实施例的流程图。如图1所示,本发明的方法包括如下步骤:
步骤S1、首先,输入视频帧。
步骤S2、判断是否已为目标建立模型,所述模型包括时间结构上下文模型和空间结构上下文模型,所述目标是指需要跟踪的目标。如果判断为没有建立,则建立目标跟踪的时间结构上下文模型和空间结构上下文模型;
步骤S3、在该视频帧中对目标可能出现的区域进行采样,得到采样图像。
根据本发明的具体实施方式,可在所述目标在该视频帧的上一帧中的位置的周围圆形区域内进行采样。
步骤S4、将所述采样图像输入所述时间结构上下文模型中,得到该采样图像中的各采样点为目标所在区域的时间概率结果,另一方面,将所述采样图像输入到所述空间结构上下文模型中,得到该采样图像中各采样点为目标区域的空间概率结果。
步骤S5、将前述空间概率结果和时间概率结果进行融合,得到各采样点属于目标区域的后验概率。
步骤S6、将所述后验概率最大值所对应的采样点作为目标跟踪的最终结果,即所谓的最大后验概率解(MaximumAPosterioriprobability,MAP)。
按照上述所言,本发明的目标跟踪方法的过程可以由如下的式子来表达:
p(Zt|O1:t)∝p(Ot|Zt)∫p(Zt|Zt-1)p(Zt-1|O1:t-1)dZt-1(1)
其中Zt为目标在时刻t的状态信息,包括目标的位置、速度、尺度信息。Ot为目标在时刻t的观测值,Ol:t为目标从时刻1到时刻t之间的观测值。本发明中,我们使用贪婪的算法来进行搜索,即是在目标上一帧为中心,一定半径的范围内进行搜索采样,最后的两个模型得到的概率融合结果的MAP值解。根据本发明的具体实施方式,MAP值可以由如下的式子表示:
Z t * = arg max Z t { p ( O t | Z t ) } = arg max Z t { e - ( 1 - α ) U ( Z t ) - αU ( Z t | f ( Z t ) ) } - - - ( 2 )
其中U(Zt)表示时间上下文模型所对应概率的能量函数,U(Zt|f(Zt))表示空间上下文模型所对应的概率的能量函数,f(Zt)表示目标周围区域对其的一个强的“支持场”,此“支持场”即是指通过对这个场的建模,可为确定目标所在位置提供有效的信息。α为时间结构上下文模型和空间结构上下文模型的一个平衡参数。
下面分别介绍本发明的模型中用到的时间结构上下文模型与空间结构上下文模型。
时间结构上下文模型:
目标跟踪是一个物理和心理学上的连续过程,也就是说所有以前的信息都可以用来预测下一帧的目标状态,而下一帧的目标状态和前一帧的表象信息有或多或少的相关性。基于这个假设,我们采用全局时间结构上下文信息来提取历史表象信息,并使其作为估计目标状态的另一个全局限制条件。
我们提出一种新的增量式线性子空间方法来为表征目标信息的高维特征空间降维,从而存储和有效利用更多的目标历史信息。该方法在更新步骤时考虑更新子空间降维的能量耗散,因此能获得更加准确的目标特征信息描述。同时,它使用相邻帧的联合样本作为输入,因此我们称此方法为增量式多实例子空间学习方法(IMISL)。这种学习方法使用更多的最有代表性的特征向量来更新,使序列样本中的相关性噪声得到有效消除。
观测值Ot是一个在时刻t的d维图像向量。结构Ωt=(μt,Vt,Λt,nt)中分别表示在时刻t的向量均值,特征向量,特征向量值以及子空间向量数量。下式用以评估属于子空间的目标候选概率:
U ( Z t ) = ϵ ( O t ) 2 2 σ t 2 + ( d - q ) log σ t + Σ i = 1 q ( G i , t 2 2 λ i , t + 1 2 log λ i , t )
其中U(Zt)是该时间结构上下文模型中的候选目标概率,Zt为目标在时刻t的状态信息,Ot为目标在时刻t的观测值,Ol:t为目标从时刻1到时刻t之间的观测值,重建误差q为子空间建立时的压缩维度,σt为压缩降维过程中的能量损失,Gi,t为降维投影的隐空间中间变量,结构Ωt=(μt,Vt,Λt,nt)中分别表示在时刻t的向量均值、特征向量、特征向量值以及子空间向量数量。
增量式子空间学习方法的核心问题是更新策略。本发明的策略使用子空间而不是传统的单样本,即把两个子空间合并成一个子空间。我们首先需要把D个更新实例压缩到一个局部子空间,子空间的建立过程可以通过矩阵EVD分解或者有效EM算法完成。然后采用η截断方法来决定子空间的降维程度并保持能量。具体步骤如下:
(1)首先,对于更新样本实例oi,更新子空间样本均值μ(k)。如下
μ(k+l)=ρμ(k)+(1-ρ)μ(l),μ(k)为时刻k所构建的子空间的均值,μ(l)为新建立的更新子空间的均值。
其中nk为在时刻k所具有的样本数,l为新增样本数。计算训练数据的均值μ(k)和协方差矩阵S(k)时刻k所构建子空间对应的协方差矩阵,如下:
μ ( k ) = 1 k Σ i = 1 k o i
S ( k ) = 1 k Σ i = 1 k ( o i - μ ( k ) ) ( o i - μ ( k ) ) T
其中oi为更新样本,
(2)然后据此更新得到合并子空间的观测协方差矩阵S(k+l)
S ( k + l ) = ( ρ σ k 2 + ( 1 - ρ ) σ l 2 ) I + L L T
其中σk和σl分别为协方差矩阵S(k)和S(l)降维的能量耗散, L = ( ρ ( λ i , k - σ k 2 ) v 1 , k , · · · , ( 1 - ρ ) ( λ q l , l - σ l 2 ) v q l , l , y ) , y = n k · l ( n k + l ) 2 ( μ ( k ) - μ ( l ) ) . 考虑到计算复杂度,我们分解 Q ( q + 1 ) × ( q + 1 ) = L T L = Σ β β T α , 得到
Q=UГUT
其中Г=diag{ξ1,ξ2,...,ξq+1},UTU=I,计算得到矩阵Vqk+ql+1如下
V q k + q l + 1 = LUΓ - 1 2 = [ v 1 , k + 1 , . . . , v q k + q l + 1 , k + l ]
由协方差矩阵S(k+l)的前qk+ql+1个特征值组成,自此观察协方差矩阵改写为
S ( k + l ) = ( ρ σ k 2 + ( 1 - ρ ) σ l 2 ) I + Σ i = 1 q k + q l + 1 ξ i υ i , k + 1 υ i , k + l T
其中前qk+ql+1个特征值更新步骤为同时σ更新步骤为 σ k + l 2 = 1 d - q k + l ( Σ i = q k + l + 1 q k + q k + 1 λ i , k + 1 + ( d - q k - q l - 1 ) σ ( k + l ) 2 ) ,
其中为中间变量其中,nk为在时刻k所具有的样本数,l为新增样本数。
(3)采用η截断方法来决定子空间的降维程度并保持能量,即
q k + l = arg min i ( Σ i λ i , k + l Σ j = 1 q k + q l + 1 ξ j ≥ η )
空间结构上下文模型:
局部空间上下文信息可由所跟踪的目标周围区域获得,如前所述,与已有的方法不同,在本发明中我们使用周围的块状区域作为局部上下文信息。为了检测物体和人脸,局部上下文已经在心理学中被研究。而在计算机视觉领域的已有研究中已经证明了在物体检测中局部上下文的有效性,同时在人脸检测中,若引入人脸周围轮廓信息,同样能够有效地改进人脸检测的性能。
我们定义一个新的概念辅助点(contributor),其是指目标周围能用来帮助进行目标定位的关键点。与已有的基于空间信息的方法不同的是,本发明的方法关注目标和辅助点之间的弱关联,然后把这些弱关联都联合起来组成一个强分类器来确定目标位置。多示例Boosting方法被用来有效地选择最具表示能力的辅助点来构建强支持场。
本发明首先通过Hessian算法在距离目标中心点周围一定半径内搜索,选择提取一些SURF特征点,若提取的特征点数量大于所预先设定的特征点数,则从其中随机选出相应的点作为特征点,否则再另外随机在此区域内产生相应点补足预先设定的特征点数;特征点产生之后,通过计算特征点对应区域像素值与目标区域像素值的差异,进而构建目标周围的辅助点的待选集,进而通过boosting算法来选择最具鉴别力的特征作为目标周围的辅助点。
所谓Boosting方法是指一种将多个鉴别力较弱的分类器整合为一个具有较强鉴别力的分类器的方法。其思想相当的简单,即是对某一数据分布建立若干个模型(比如分类),一般这种模型比较简单,称为弱分类器(weaklearner),每次分类都将上一次分错的数据权重提高一点再进行分类,这样最终得到的分类器在测试数据与训练数据上都可以得到比较好的成绩。
对于多示例boosting,每一个被选出来的弱分类器对应于一个弱关联,并且这些弱关联都被联合起来给候选样本打分。该投票表示如下:
U ( Z t | f ( Z t ) ) ∝ - Σ i h t i
其中U(Zt|f(Zt))表示空间上下文模型所对应的能量函数,f(Zt)表示在时刻t目标周围区域与对其的一个强的“支持场”,是在t时刻被选出来的第i个弱分类器。
选择辅助点
对于辅助点的选择,我们使用基于快速Hessian算法的SURF特征用来找到目标周围的辅助点。在更新过程中,在目标中心周围以rd×w为宽,rd×h为高的矩形里产生SURF表述算子,其中rd是缩放因子,在一种具体实施方式中,w和h是当前帧中的目标的宽度和高度。如果提取出来的候选辅助点比所需要的多,我们就随机选择其中的一些作为最终的辅助点。如果候选辅助点比所需要的少,我们就随机在这个矩形内再产生一些点。
特征构建
为了引入目标的结构信息,我们把目标和辅助点分成许多块,因此每块之间的关系就可以作为结构信息。结构信息来自两部分:一个是目标块和辅助点块之间的互对偶特征,另一个是目标内部块之间的自对偶特征,最终的特征池就由这些关系组成。各个块内的像素值之和的差值就是所求的结构特征。这些目标和辅助点之间的结构特征表达了支持场内的整体和细节信息。
在一种具体实施方式中,把目标和辅助点各自分成N=n1×n2块(在实验中n1=5,n2=5),I(x,y)表示图像中(x,y)位置的像素值,Pi(s)表示对应于目标状态s的第i个目标块或者辅助点块。在这里我们定义两个块之间的距离函数d(Pm(s1),Pn(s2))为:
d ( P m ( s 1 ) , P n ( s 2 ) ) = Σ ( i , j ) ∈ P m ( s 1 ) I ( i , j ) - Σ ( i , j ) ∈ P n ( s 2 ) I ( i , j )
下一步我们将所有的这些弱关系组成特征池,则Boosting算法可在其中挑选最具鉴别力的特征来组成具有较强鉴别力的“支持场”。如前面讲述的,处于的状态s的目标的辅助点为组成的集合f(s)={f1(s),…,fK(s)}。对偶特征池F由两部分组成:自对偶特征池Fsp和互对偶特征池Fmp,也就是F=FspUFmp。目标的自对偶特征池为Fsp={d(Pi(s),Pj(s))|i=1,…,N;j=1,…,N;i≠j}
目标和它辅助点的互对偶特征池为
Fmp={d(Pi(s),Pj(fk(s)))|i=1,…,N;j=1,…,N;k=1,…,K}
然后我们使用多示例boosting算法来选择一些最具鉴别性的关系来构建支持场。在本发明中采用普通的基于在线单高斯的弱分离器。
图2是本发明的目标跟踪方法的另一个实施例的流程图。如图2所示,该实施例的方法的步骤除了上述实施例中的步骤S1~S6之外,还包括如下步骤:
步骤S7、判断模型更新条件是否满足,如果满足模型更新条件,则执行步骤S8,如果不满足模型更新条件,则返回步骤S1,重新建立模型,包括时间结构上下文模型与空间结构上下文模型。对于模型的更新条件,采用预先对两个模型分别设定一个更新保守阈值,若跟踪器在上一帧所找到的目标位置对应的样本为正的概率均分别大于了这两个保守阈值,则此样本会用来分别更新模型,否则不更新。
步骤S8、对所述时间结构上下文模型和/或所述空间结构上下文模型进行更新。对于时间结构上下文模型,按照上文中提到的增量子空间学习方法对时间结构上下文模型进行更新;对于空间结构上下文模型,按照上文中提到的选择辅助点,特征构建方法来构建特征池,进而使用多实例Boosting的特征学习方法来选择具有鉴别力的弱特征分类器,从而完成模型的更新。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种目标跟踪方法,用于对视频中出现的目标图像进行跟踪,其特征在于,包括如下步骤:
建立目标跟踪的时间结构上下文模型和空间结构上下文模型,所述时间结构上下文模型为其中U(Zt)是该时间结构上下文模型中的候选目标概率所对应的能量函数,Zt为目标在时刻t的状态信息,Ot为目标在时刻t的观测值,O1:t为目标从时刻1到时刻t之间的所有观测值,重建误差ε(Ot),q为子空间建立时的压缩维度,σt表示压缩维度过程中的能量损失量,Gi,t表示将目标观察量投影到的隐空间中间变量,结构Ωt=(μt,Vtt,nt)中分别表示在时刻t的样本均值、特征向量、特征向量值以及子空间样本数量,λi,t为时刻t的特征值,d为样本特征维度;
在视频帧中对目标可能出现的区域进行采样,得到采样图像;
将所述采样图像输入所述时间结构上下文模型和空间结构上下文模型中,得到该采样图像中的各采样点为目标所在区域的时间概率结果和空间概率结果;
将所述空间概率结果和时间概率结果进行融合,得到各采样点属于目标区域的后验概率,将所述后验概率的最大值所对应的采样点作为目标跟踪的最终结果。
2.如权利要求1所述的目标跟踪方法,其特征在于,所述状态信息Zt包括目标位置、速度以及长宽信息。
3.如权利要求1所述的目标跟踪方法,其特征在于,还包括对所述时间结构上下文模型进行更新的步骤,该更新步骤包括对所述时间结构上下文模型中的特征向量、特征向量值、样本均值、保留维度、压缩维度时的能量损失量以及样本数量进行更新。
4.如权利要求3所述的目标跟踪方法,其特征在于,其中特征向量的更新步骤为其中qk为未更新前保留维度,ql为新建立子空间的保留维度,k为时刻,L,U,Γ为中间变量,l为新增样本数。
5.如权利要求3所述的目标跟踪方法,其特征在于,其中特征向量值的更新步骤为其中ξi为中间变量。
6.如权利要求3所述的目标跟踪方法,其特征在于,其中样本均值的更新步骤为,μ(k+l)=ρμ(k)+(1-ρ)μ(l),其中μ(k)为时刻k所构建的子空间的均值,μ(l)为新建立的更新子空间的均值,为中间变量,nk为在时刻k所具有的样本数,l为新增样本数。
7.如权利要求4所述的目标跟踪方法,其特征在于,其中保留维度的更新步骤为其中λi,k+l为原有子空间与新建立子空间融合之后子空间的特征向量值,η为能量保留阈值,ξj为中间过程变量。
8.如权利要求3所述的目标跟踪方法,其特征在于,其中压缩维度过程中能量损失的更新步骤为其中λi,k+l为更新后的特征向量值,d为样本特征维度,qk+l为此刻更新保留维度,qk为未更新前保留维度,ql为新建立子空间的保留维度,为中间变量,为中间变量其中,nk为在时刻k所具有的样本数,l为新增样本数,其中σk和σl分别为协方差矩阵S(k)和S(l)降维的能量耗散。
9.如权利要求3所述目标跟踪方法,其特征在于,其中模型样本数的更新步骤为:nk=nk+l,其中,nk为在时刻k所具有的样本数,l为新增样本数。
10.如权利要求1所述的目标跟踪方法,其特征在于,所述空间结构上下文模型为其中U(Zt|f(Zt))表示空间结构上下文模型所对应的能量函数,f(Zt)表示在时刻t目标周围区域对其的一个强的支持场,是在t时刻被选出来的第i个弱分类器。
11.如权利要求10所述的目标跟踪方法,其特征在于,所述建立空间结构上下文模型的步骤包括如下步骤:
首先通过Hessian算法在距离目标中心点周围一定半径内搜索,选择提取一些SURF特征点,若提取的特征点数量大于所预先设定的特征点数,则从其中随机选出相应的点作为特征点,否则再另外随机在此区域内产生相应点补足预先设定的特征点数;
特征点产生之后,通过计算特征点对应区域像素值与目标区域像素值的差异,进而构建目标周围的辅助点的待选集,进而通过boosting算法来选择最具鉴别力的特征作为目标周围的辅助点。
12.如权利要求11所述的目标跟踪方法,其特征在于,该方法还包括对所述空间结构上下文模型进行更新的步骤,该更新步骤包括对所述空间结构上下文模型中的辅助点进行更新。
13.如权利要求12所述的目标跟踪方法,其特征在于,其中辅助点的更新步骤为:首先通过Hessian算法找到特征点待选集,进而再使用boosting算法找出其中最具鉴别力的特征点以及其所对应的弱分类器即第i个特征。
14.如权利要求1所述的目标跟踪方法,其特征在于,其中将所述空间概率结果和时间概率结果进行融合,得到各采样点属于目标区域的后验概率,将所述后验概率的最大值所对应的采样点作为目标跟踪的最终结果的步骤为:
根据来确定跟踪目标,其中U(Zt)表示时间上下文模型所对应概率的能量函数,U(Zt|f(Zt))表示空间上下文模型所对应概率的能量函数,f(Zt)表示目标周围区域与对其的一个强的支持场,α为时间结构上下文模型和空间结构上下文模型的一个平衡参数。
CN201210359621.XA 2012-09-24 2012-09-24 基于时空结构上下文关系在线学习的目标跟踪方法 Active CN102999766B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210359621.XA CN102999766B (zh) 2012-09-24 2012-09-24 基于时空结构上下文关系在线学习的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210359621.XA CN102999766B (zh) 2012-09-24 2012-09-24 基于时空结构上下文关系在线学习的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN102999766A CN102999766A (zh) 2013-03-27
CN102999766B true CN102999766B (zh) 2016-05-18

Family

ID=47928315

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210359621.XA Active CN102999766B (zh) 2012-09-24 2012-09-24 基于时空结构上下文关系在线学习的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN102999766B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443354B2 (en) 2013-04-29 2016-09-13 Microsoft Technology Licensing, Llc Mixed reality interactions
CN106127766B (zh) * 2016-06-24 2018-12-25 国家新闻出版广电总局广播科学研究院 基于空间耦合关系和历史模型的目标跟踪方法
JP2018049316A (ja) * 2016-09-20 2018-03-29 株式会社東芝 センサ診断装置、センサ診断方法、およびプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
《Contextual Constraints based Linear Discriminant Analysis》;Zhen Lei,Stan Li;《Preprint submitted to Pattern Recognition Letters》;20110727;第1-24页 *
《ROBUST SPATIO-TEMPORAL FEATURE TRACKING》;Matthias Heinrichs 等;《The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences》;20081231;第XXXVII卷;第51-56页 *
《基于最大后验概率的图像匹配相似性指标研究》;冯祖仁,吕娜,李良福;《自动化学报》;20070131;第33卷(第1期);第1-8页 *
《基于自适应跟踪窗尺度的人脸探测》;雷震 等;《计算机科学》;20100430;第37卷(第4期);第281-284页 *

Also Published As

Publication number Publication date
CN102999766A (zh) 2013-03-27

Similar Documents

Publication Publication Date Title
CN105405154B (zh) 基于颜色-结构特征的目标对象跟踪方法
CN106127204A (zh) 一种全卷积神经网络的多方向水表读数区域检测算法
CN107247956A (zh) 一种基于网格判断的快速目标检测方法
CN103093212B (zh) 基于人脸检测和跟踪截取人脸图像的方法和装置
CN108921875A (zh) 一种基于航拍数据的实时车流检测与追踪方法
CN109598684B (zh) 结合孪生网络的相关滤波跟踪方法
CN103324677B (zh) 一种可分级的快速图像gps位置估计方法
CN107862705A (zh) 一种基于运动特征和深度学习特征的无人机小目标检测方法
CN107230267B (zh) 基于人脸识别算法的幼儿园智能签到方法
CN109146921A (zh) 一种基于深度学习的行人目标跟踪方法
CN110084165A (zh) 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法
CN107563328A (zh) 一种基于复杂环境下的人脸识别方法及系统
US20150310275A1 (en) Method and device for calculating number and moving direction of pedestrians
CN107633226A (zh) 一种人体动作跟踪识别方法及系统
CN107909027A (zh) 一种具有遮挡处理的快速人体目标检测方法
CN112668483A (zh) 一种融合行人重识别和人脸检测的单目标人物跟踪方法
CN107657625A (zh) 融合时空多特征表示的无监督视频分割方法
CN111832400A (zh) 一种基于概率神经网络的口罩佩戴情况的监测系统及方法
CN107146237A (zh) 一种基于在线状态学习与估计的目标跟踪方法
CN107463881A (zh) 一种基于深度增强学习的人物图像搜索方法
CN109087337B (zh) 基于分层卷积特征的长时间目标跟踪方法及系统
CN108537143B (zh) 一种基于重点区域特征比对的人脸识别方法与系统
CN108960115A (zh) 基于角点的多方向文本检测方法
CN103150552B (zh) 一种基于人头计数的驾驶培训管理方法
CN107230219A (zh) 一种单目机器人上的目标人发现与跟随方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20160309

Address after: 100190 Zhongguancun East Road, Beijing, No. 95, No.

Applicant after: Institute of Automation, Chinese Academy of Sciences

Address before: 100190 Zhongguancun East Road, Beijing, No. 95, No.

Applicant before: Institute of Automation, Chinese Academy of Sciences

Applicant before: Authenmetric Co., Ltd.

C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160830

Address after: 100191, Haidian District, Zhichun Road, Beijing No. 7 to the real building, block D, 17, 1702

Patentee after: Beijing Keaosen Data Technology Co. Ltd.

Address before: 100190 Zhongguancun East Road, Beijing, No. 95, No.

Patentee before: Institute of Automation, Chinese Academy of Sciences