CN101051385A - 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置 - Google Patents

特定被摄体跟踪方法和装置以及特征部跟踪方法和装置 Download PDF

Info

Publication number
CN101051385A
CN101051385A CN 200610072568 CN200610072568A CN101051385A CN 101051385 A CN101051385 A CN 101051385A CN 200610072568 CN200610072568 CN 200610072568 CN 200610072568 A CN200610072568 A CN 200610072568A CN 101051385 A CN101051385 A CN 101051385A
Authority
CN
China
Prior art keywords
feature portion
specific shot
observation model
sample
likelihood score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 200610072568
Other languages
English (en)
Other versions
CN101051385B (zh
Inventor
艾海舟
李源
黄畅
劳世红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Omron Corp
Original Assignee
Tsinghua University
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University, Omron Corp filed Critical Tsinghua University
Priority to CN200610072568XA priority Critical patent/CN101051385B/zh
Publication of CN101051385A publication Critical patent/CN101051385A/zh
Application granted granted Critical
Publication of CN101051385B publication Critical patent/CN101051385B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了基于特征部检测的特定被摄体跟踪方法和装置以及特征部跟踪方法和装置。基于特征部检测的特定被摄体跟踪方法使用粒子滤波器对视频序列的多帧图像逐帧地以子窗口划分进行计算处理,以确定特定被摄体的位置和大小,所述特征部是特定被摄体的一部分,其特征在于,所述粒子滤波器的观测模型包括特征部观测模型,该特征部观测模型用于确定图像被子窗口划分出的子图像是特征部的似然度。

Description

特定被摄体跟踪方法和装置以及特征部跟踪方法和装置
技术领域
本发明涉及基于特征部检测的特定被摄体的跟踪方法和装置,以及特征部跟踪方法和装置。更具体地,本发明涉及基于人脸检测的头部跟踪方法和装置,以及人脸跟踪方法和装置。
背景技术
物体(如人脸、头部、其他人体部位、汽车、行人等)跟踪是计算机视觉领域普遍关注的研究课题,而头部跟踪作为其子问题之一,应用前景尤其广阔,在视觉监视、人体运动分析、摄像机自动对焦、智能导播和人机交互中都发挥着重要作用。
由于跟踪问题本身的复杂性,在计算机视觉领域,存在着大量的文献从各种角度研究各种不同形式的跟踪问题。不仅应用环境千变万化,跟踪对象各不相同,而且由于实际应用系统的需要和视频跟踪问题本质上的复杂性,不同的研究工作会对问题做出不同的假设、提出不同的目标。人脸、头部跟踪也是如此。已有的人脸、头部跟踪方法根据其视觉线索的特定化程度大致可以分为两类,一类主要使用色彩、角点、边缘、背景差分等比较通用的视觉线索(文献[4][11][12][13]),另一类则采用比较精细且复杂的几何及纹理模型(文献[14][15][16])。前一类方法事实上可以用于人脸/头部之外的绝大多数其他跟踪目标,虽然这些视觉线索的通用性使这类方法对目标和场景的变化有比较好的适应性,但是由于缺乏对特定跟踪目标的知识,在比较差的跟踪环境中往往缺乏对目标和背景噪声的区分力。第二类方法主要用于人脸跟踪或者脸部特征点的跟踪。它们一般要求跟踪目标比较清晰,不包含大小、位姿、光照,以及背景的剧烈变化。
相对于跟踪问题,检测问题与之长期处于相对独立的位置。其部分原因在于,一方面,跟踪面对的是视频序列,一旦被跟踪目标初始化以后,有大量的帧间相似性信息可以利用,而并不要求对人脸这个特殊的模式有所理解;相对而言,人脸检测问题就要复杂得多,其利用的特征都是经过对大量样本的学习得到的,用于检测的分类器也相当复杂。另一方面,跟踪问题一般要求实时性,即对速度的要求比较高,因此检测一般只作为跟踪过程的初始化。而且,特别的,对于头部跟踪问题,必然要求人脸检测器是覆盖多视角的。尽管人脸检测问题已被研究多年(文献([10][9][7][8][2]),但是满足上述要求的检测器却问世不久。继2001年P.Viola和M.Jones提出了基于Haar型特征和AdaBoost算法的层叠分类器方法(文献[7])并将其应用于正面人脸检测,达到了实时效果,其后出现了一大批关于人脸检测的研究(包括一些高速的多视角人脸检测系统(文献[8][2]))。这些进展使得将人脸检测用于视频成为可能。
将检测器应用于跟踪问题的尝试目前还很少(文献[18][5][6])。其中文献[18]采用的方法和本文将要探讨的方法差异较大(先采用背景差分的方法在每一帧图像中检测出行人,然后通过图搜索的方式建立已检测目标之间的时序关系从而实现跟踪),其他两篇文献从不同角度尝试了将检测程序引入基于粒子滤波器的跟踪算法,其中文献[5]将检测器作为观测模型实现人脸跟踪,而文献[6]用检测结果作来预测目标状态,实现对人体的跟踪。文献[5]是与本发明的方法比较接近的一篇文献,但是文献[5]使用文献[9]的检测器进行人脸跟踪,其主要缺陷在于处理速度比较慢(26s每帧(352×288像素))。
发明内容
因而,本发明鉴于现有技术的上述问题而提出,用以克服上述现有技术的一个或更多个缺点,并提供至少一种有益的选择。
具体地,本发明的一个目的在于,提供一种基于特征部(如人脸)检测的特定被摄体(如头部)跟踪方法和装置,用于从视频序列中确定目标特定被摄体的位置和大小,并且要适应尽可能多的场景和目标变化,以应用于摄像和摄影设备的自动对焦等。为了获得鲁棒的跟踪性能,本发明将特征部检测器融入跟踪过程中。
本发明的另一目的在于,提供一种特征部(如人脸)跟踪方法和装置,用于从视频序列中确定目标特征部的位置和大小,并且要适应尽可能多的场景和目标变化,以应用于摄像和摄影设备的自动对焦等。
为了实现本发明的目的,根据本发明的一个方面,提供了一种基于特征部检测的特定被摄体跟踪方法,其使用粒子滤波器对视频序列的多帧图像逐帧地以子窗口划分进行计算处理,以确定特定被摄体的位置和大小,所述特征部是特定被摄体的一部分,其特征在于,所述粒子滤波器的观测模型包括特征部观测模型,该特征部观测模型用于确定图像被子窗口划分出的子图像是特征部的似然度。
为了实现本发明的目的,根据本发明的又一方面,提供了一种基于特征部检测的特定被摄体跟踪装置,其使用粒子滤波器对视频序列的多帧图像逐帧地以子窗口划分进行计算处理,以确定特定被摄体的位置和大小,所述特征部是特定被摄体的一部分,其特征在于,所述粒子滤波器的观测模型包括特征部观测模型,该特征部观测模型用于确定图像被子窗口划分出的子图像是特征部的似然度。
为了实现本发明的目的,根据本发明的另一方面,提供了一种特征部跟踪方法,其使用粒子滤波器对视频序列的多帧图像逐帧地以子窗口划分进行计算处理,以确定特征部的位置和大小,其特征在于,所述粒子滤波器的观测模型包括特征部观测模型,该特征部观测模型用于确定图像被子窗口划分出的子图像是特征部的似然度。
为了实现本发明的目的,根据本发明的再一方面,提供了一种特征部跟踪装置,其使用粒子滤波器对视频序列的多帧图像逐帧地以子窗口划分进行计算处理,以确定特定被摄体的位置和大小,所述特征部是特定被摄体的一部分,其特征在于,所述粒子滤波器的观测模型包括特征部观测模型,该特征部观测模型用于确定图像被子窗口划分出的子图像是特征部的似然度。
附图说明
图1是示出人脸状态量的图;
图2示出了使用层分类器来获得置信度的过程;
图3示出了样本分别为正例和反例的分布图;
图4示出了样本为正例和反例的先验概率之比;
图5是示出头部状态量的图;
图6是示出头部的梯度信息的图;
图7是色彩观测模型的彩色直方图;
图8是色彩观测模型输出的似然度图;
图9是不同姿态下的头部彩色直方图;
图10示出了不同姿态下头部轮廓和人脸的关系;
图11示出了根据本发明实施例的基于人脸检测的头部跟踪过程的流程图;
图12示出了各种测试视频的跟踪结果示例;
图13示出了本发明方法与传统方法的测试结果对比;
图14示出了根据本发明实施例的人脸跟踪过程的流程图;
图15示出了根据本发明一个实施例的基于人脸检测的头部跟踪装置的示意框图;
图16示出了根据本发明另一实施例的基于人脸检测的头部跟踪装置的示意框图;
图17示出了根据本发明又一实施例的基于人脸检测的头部跟踪装置的示意框图;以及
图18示出了根据本发明一个实施例的人脸跟踪装置的示意框图。
具体实施方式
下面,参照附图,分别以人脸和头部作为具体的检测和跟踪对象,对本发明的优选实施例进行详细说明。
1、跟踪方法的一般原理
所谓头部跟踪是指,针对输入的图像序列,通过在每一帧图像中得到头部的状态(大小和位置)及其与上一帧中的头部状态的对应关系,确定图像序列中的头部的运动轨迹的过程。在本发明所采用的算法中,用一个加权样本集来描述目标状态可能的分布。每个样本对应一个特定大小和位置的图像子窗口,其权重代表这个子窗口是目标头部的概率(权重越大,这个子窗口越有可能是目标),通过人脸检测器和其他视觉线索给出。每输入一帧图像时,首先根据一定运动预测模型改变上一帧的样本的位置和大小(起到预测当前目标状态的作用);然后利用当前帧的图像信息,对每个新样本子窗口进行分析(使用人脸检测器和色彩、梯度等线索),得到它是目标头部的概率,更新样本权重;最后利用新的样本权重对每个样本的大小和位置进行加权平均,所得的平均大小和位置作为对当前帧中目标状态的估计,输出作为跟踪结果。
本发明所提出的跟踪方法,以粒子滤波器作为跟踪算法框架。一方面,利用人脸检测器弥补了传统跟踪线索缺乏对跟踪目标的先验知识的缺陷;另一方面,扩展了传统粒子滤波器的采样过程,实现了人脸检测信息和其他视觉线索的数据融合。
粒子滤波器作为一种广泛采用的跟踪算法,基于贝叶斯概率建立了跟踪问题的数学模型并使用采样的方法来实现贝叶斯推测的过程。以下将首先简单介绍粒子滤波器的概念,并明确一些符号和提法的意义。
在跟踪问题中,首先用一组参数描述目标在某一时刻的状态,这组参数即是状态向量,记为xt(t为表示时刻的下标,下同),而Xt={x1,...,xt}表示到t时刻为止目标物体的运动序列。另一方面,观测值是由图像序列中的每一帧提取得到的特征和信息,用一个特征向量yt表示,称为观测向量,同时称Yt={y1,...,yt}为到t时刻为止的观测量。
观测量是可以从输入图像序列直接得到的,状态量不能直接得到,是隐含的。运动跟踪的问题就是从观测空间的随机序列推测状态空间中的一个轨迹。理想的状况是,在每一时刻t,求得分布p(xt|Yt),一旦该分布已知,就可以估计出一个最优的状态量作为跟踪结果。最常用的有最小均方误差估计(MMSE),可求得状态量的最佳估计为 x ^ t = ∫ x t p ( x t | Y t ) dx t ; 也可以采用最大后验概率估计(MAP),求得 x ^ t = arg m ax x t p ( x t | Y t ) , 等等。而求解该目标分布p(xt|Yt)的方法包括两步:预测和更新。预测的过程就是根据过去时刻的观测值预测当前状态值可能的分布:p(xt|Yt-1)。预测的计算方法是:
p(xt|Yt-1)=∫p(xt|xt-1)p(xt-1|Yt-1)dxt-1             (1)
注意到预测过程并没有用到t时刻(当前时刻)的观测信息,那么,在得到了当前状态的观测值之后,可以根据该观测值对预测的结果进行更新,得到对当前状态新的估计p(xt|Yt),这就是更新。更新的计算公式为:
p(xt|Yt)∝p(yt|xt)p(xt|Yt-1)                          (2)
在给定状态转移模型p(xt|xt-1)和观测模型p(yt|xt)之后,反复进行预测和更新的操作就可以按在线的方式对目标物体的运动状态进行跟踪。其中状态转移模型就是在前一时刻目标状态的基础上推测当前时刻目标的可能分布;观测模型则负责根据当前时刻的图像信息对任何一个可能的目标状态给出其可能性。
由于解析计算的困难,在算法实现中,用加权样本(粒子)来模拟概率分布(CONDENSATION算法[1])。算法首先根据初始分布p(x0)取样得到初始样本集
Figure A20061007256800141
其中 π 0 ( i ) = 1 N p , 这里Np表示样本的个数。随后,在每一时刻,首先对上一时刻的样本集进行重采样,获得一个等权重的样本集,重采样并没有改变样本集表示的状态分布(P(xt-1|Yt-1)),但减少了无效样本(即权重很小的样本),防止样本退化。在预测步骤中,根据状态转移模型对样本进行更新,更新后的样本集表示的是P(xt|Yt-1)。在校正步骤中,根据当前时刻的观测量给出样本权重,使得样本集表示的分布变为P(xt|Yt)。
粒子滤波器(CONDENSATION)采用加权采样的方法对于跟踪问题给出了一个一般的解决方法,然而,若要将这种方法应用于实际的视觉跟踪问题,必然需要对其中的抽象概念根据问题进行具体化,例如状态量和观测量等,尤其是关系到跟踪性能的观测模型p(yt|xt)。以下分别描述由人脸检测器构建的人脸观测模型以及由颜色和梯度信息构建的头部观测模型,最后再对传统的粒子滤波器进行扩充以融合以上观测模型。
2、人脸观测模型
根据人脸跟踪问题所关注的目标,可以定义状态向量为:xf=(xf,yf,s)。其中(xf,yf)表示目标人脸在图像中的坐标,s表示人脸的大小(参见图1)。由于观测模型是人脸检测器,所以观测量y即对应人脸。以下针对人脸跟踪问题建立观测模型p(yface|xf)。
在人脸跟踪问题中,观测模型p(yface|xf)的含义为,对于给定的状态向量xf=(xf,yf,s),与其所表示的位置和大小相对应的图像子窗口是人脸的似然度(likelihood)的大小。设与状态向量xf对应的图像子窗口为Ix,那么该似然度可以表示为p(人脸|Ix)。
虽然本发明采用的树状人脸检测器(文献[2])会对每个通过检测的子窗口给出一个,但仅仅对通过检测的子窗口给出置信度是不够的,作为一个观测模型,需要对任意一个子窗口给出一个似然度。因此,另一个直观的想法是,对输入的子窗口,输出它通过的最后一个层分类器(文献[2])给出的置信度。但是在实验中很容易发现,不同的层分类器(尤其是处于不同层的层分类器)输出的置信度对于不同的子窗口不具有可比性。
层分类器所输出的置信度的这一特点,是由分类器的训练过程所决定的。我们知道,向量推进算法(Vector Boost)(文献[2])的学习过程是基于大量已标定样本数据,用多个弱分类器的线性组合构成一个强分类器。因而强分类器的输出置信度是其包含的弱分类器输出的置信度的组合。
参照图2,每个弱分类器输出的置信度是这样得到的:对于当前样本集合中的每个样本,计算该弱分类器对应的Haar型特征值,根据这个特征值将样本投入查找表的不同槽中。而每个槽对应的置信度,是由落入该槽中的正例样本(即,是人脸的样本)和反例样本(即,不是人脸的样本)的统计关系确定的。也就是说,分类器输出的置信度仅由特征值落入同一个槽中的样本决定,而不是一个整体性的度量,这也从一个侧面说明了为何不能简单地用分类器输出的置信度来比较子窗口类似人脸的程度。
因此,采用如下方法从整体上把握正例和反例的分布情况。
首先,要求的似然度p(人脸|Ix)可以展开如下:
Figure A20061007256800161
Figure A20061007256800162
Figure A20061007256800163
其中
Figure A20061007256800164
为人脸和非人脸的先验概率之比。要计算似然度p(人脸|Ix),我们要分别计算p(人脸|Ix)、p(非人脸|Ix)和r。
在训练完一个层分类器时,假设正例和反例在当前分类器的输出置信度空间中分别服从单高斯分布,将正、反例样本按照该层分类器输出的置信度进行统计,可以得到两个高斯分布的均值和方差(参见图3)。这两个高斯分布可以分别用来近似p(人脸|Ix)和p(非人脸|Ix)。
另一方面,在整个树状分类器的训练过程中,用于训练每个强分类器的样本也有所不同,已经被父结点分类器所排斥的样本将不再参加子结点分类器的训练(图4),因而每个层分类器面对的样本中,正、反例样本的先验概率也是不同的,即r也不同。因为每个层分类器排斥正例和反例的比率都是在训练过程中设定的,若假定人脸和非人脸模式的原始先验概率之比为一个常数r0(例如1∶106),就可以计算出任意一个层分类器所面对的人脸和非人脸模式的先验概率(参见图4)。假定当前要计算层分类器v对应的人脸和非人脸的先验概率比为rv,设在从树状检测器的根节点层分类器v0到v的路径上经过的层分类器依次为v0,v1,...,vl,并且vi对应的正例通过率和反例排斥率分别为αi和βi,i=1...l。那么层分类器v对应的人脸和非人脸的先验概率比rv为:
r v = r 0 Π i = 0 l α i 1 - β i - - - ( 4 )
综合以上几点,对任意一个输入的图像子窗口Ix,假设其在检测过程中通过的层数最大的层分类器为v,我们可以获得人脸和非人脸模式在该层分类器特征空间中的大致分布pv(人脸|Ix)和pv(非人脸|Ix),以及人脸和非人脸模式的先验概率之比rv。则所求的Ix是人脸的似然度可计算如下:
Figure A20061007256800171
而之所以选择Ix通过的层数最大的层分类器来估计似然度,是因为在树状分类器中,层数越深,分类器对样本空间的划分却细,对人脸和非人脸模式的分类也越精确。
至此,我们已将人脸检测器的输出转化为一个观测模型的输出,可以直接用于比较各个输入子窗口类似人脸的程度。
3、头部跟踪中使用的其他视觉线索
为了在人脸不可见的情况下继续跟踪目标,需要加入新的不依赖人脸的观测模型,作为人脸检测器的补充。我们选择了两种视觉线索分别建立观测模型,其一是头部轮廓的梯度线索(文献[11]),其二是轮廓内部的色彩线索(文献[12][4])。这两种图像线索在其他有关跟踪技术的现有技术文献中已有提及,因此此处只做简要描述。
3-1、轮廓梯度信息
对某个椭圆轮廓样本(参见图5),在圆周均匀选取度量线,即垂直于轮廓曲线的法向线段(固定长度L)。观测时,在轮廓曲线上每隔一段距离取一条度量线,只考察这些度量线上的梯度情况。图6是有关头部的轮廓梯度信息的图。在图6中,(a)示出了原图像和椭圆轮廓样本,(b)示出了水平方向梯度强度,(c)示出了垂直方向梯度强度,而(d)示出了度量线上的采样点梯度强度(梯度方向为轮廓法线方向),其中的灰色线段为一条度量线。
对每条度量线lj,假定其单位方向向量为 (即轮廓的法向),用Sobel算子可以计算出lj上一点z处的水平、垂直方向的梯度值分别为gx(z)和gy(z),则该点处沿
Figure A20061007256800173
的梯度大小为 g ( z ) = ( g x ( z ) , g y ( z ) ) · n ^ j . 求出lj上所有观测点中梯度最大值: g max ( l j ) = max z ∈ l j { g ( z ) } . 则对所有度量线,整个椭圆轮廓的梯度累加和为: G = Σ j g max ( l j ) . 为了构成梯度观测模型的输出,使用一个类似正态分布的函数将这个累加和作一定的变换,使得它的取值平滑并且范围一定,适合用于对样本进行加权:
p ( y grad ient | x h ) ∝ exp - ( G max - G ) 2 2 σ G 2 - - - ( 6 )
其中,取 σ G = G max - G min 3 , Gmax和Gmin分别是所有不同轮廓的梯度累加和中的最大值和最小值。
3-2、颜色信息
对色彩信息的利用,我们采用彩色直方图的形式。直方图的构成如下:色彩空间为(B-G,G-R,R+G+B),三维互相独立,分别离散化为16个槽,因此一个直方图包含48个槽,记为:H=(h1,h2,...,h48),其中hi表示落入第i个槽中的像素数占目标区域总像素数的比例。具体地,参照图7,其中(a)示出了原始图像和轮廓,而(b)示出了轮廓内部图像的彩色直方图。
为了基于颜色信息对状态量xh=(xh,yh,a,b)进行观测(即获取p(ycolor|xh)),需要将xh确定的直方图和参考直方图进行对比(越接近参考直方图,则p(ycolor|xh)应越大)。为此,定义直方图之间的距离度量如下(记参考直方图为Href=(href,1,href,2,...,href,48),x对应的直方图为Hx=(hx,1,hx,2,...,hx,48)):
Bhattacharyya系数: ρ ( H ref , H x ) = Σ i = 1 48 H ref , i H x , i - - - ( 7 )
直方图距离: D ( H ref , H x ) = 1 - ρ ( H ref , H x ) - - - ( 8 )
观测似然度: p ( y color | x h ) = 1 2 π σ col exp ( D 2 ( H ref , H x ) 2 σ col 2 ) - - - ( 9 )
其中,σcol通过实验选取为0.1。图8表示色彩观测模型输出的似然度,其中(a)为原始图像,而(b)示出了色彩观测模型输出的似然度,图中每点的亮度正比于以该点为中心的椭圆轮廓的似然度(大小均为左侧人物的头部大小),参考直方图从左侧人物获得。可以看出由于两个人物头部颜色相近,因此都获得了比较高的似然度。
参考直方图是在跟踪开始时,通过人脸检测器自动初始化或者通过手工初始化来确定的,因此比较准确。然而在跟踪过程中,由于光照、姿态的变化,目标的颜色可能发生很大的改变,所以在跟踪初始建立的单个参考直方图很可能不够理想。人脸检测器提供的姿态信息可以帮助改善这一状况,算法中我们建立三种不同的参考直方图(参照图9,示出了正面(Frontal)、侧面((Half)profile)、人脸不可见((Half)rear)这三种不同姿态下的头部彩色直方图),分别在目标第一次出现相应姿态时初始化。使用色彩观测模型时,假定目标在两帧之间没有明显的姿态变化,根据上一帧的姿态来选择最邻近的参考直方图,与之进行比较,计算色彩似然度。
4、扩展的粒子滤波器
梯度、色彩,以及人脸检测器三个观测模型中,前两者的观测对象是头部,后者的观测对象为人脸。同前文,记头部状态量为xh=(xh,yh,a,b)(上标h表示头部(head)),人脸状态量为xf=(xf,yf,s)(上标f表示人脸(face))。
此时,不仅要处理不同的视觉线索之间的关系,还要处理不同的状态量之间的关系,因为粒子滤波器只能对应一个状态向量(直接决定了对什么进行采样)。对于多个状态向量的问题,文献[4]有所提及,但是[4]中的不同状态量都是包含和被包含的关系,例如针对谈话人脸部颜色观测量的状态向量可能是(x,y,s),含有位置和大小的信息;而针对谈话人声音观测量的状态向量是(x,y),除了不含有大小信息,位置信息和前面一个状态向量是完全一致的,因此不会对采样过程有大的影响。但在我们的问题里,人脸的状态量和头部的状态量不论是位置还是大小都存在一种比较复杂的关系(受姿态、人的样貌的影响)。以下介绍本发明所采用的算法。
考虑到头部是跟踪的最终目标,并且头部可见是脸部可见的必要条件,因此定义粒子滤波器的状态向量x=xh=(xh,yh,a,b),脸部状态量xf=(xf,yf,s)作为辅助状态量。
首先推导滤波器的观测模型。基于头部状态量的观测量包含色彩观测量和梯度观测量两种:ycolor和ygradient;而基于人脸状态量的观测量为yface
假定头部观测量和脸部观测量彼此独立,则有:
p(y|x)=p(ycolor|xh)p(ygradient|xh)p(yface|xh)                 (10)
其中,p(ycolor|xh)由色彩观测给出,p(ygradient|xh)由梯度模型给出。但是p(yface|xh)不能由人脸检测器直接给出。若以p(xf|xh)表示人的头部状态xh=(xh,yh,a,b)和脸部状态xf=(xf,yf,s)的关系,则有:
p(yface|xh)=∫p(yface|xf)p(xf|xh)dxf                          (11)
其中,p(yface|xf)由人脸检测器直接给出。
因此,粒子滤波器的观测模型为:
p(y|x)=p(ycolor|xh)p(ygradient|xh)∫p(yface|xf)p(xf|xh)dxf    (12)
对于任意给出的一个样本xh=(xh,yh,a,b),对∫p(yface|xf)p(xf|xh)dxf的计算可以借鉴粒子滤波器的基本思想——采样。即用xf的样本集{xf,(i)}来模拟p(xf|xh)的分布,对每个xf,(i)计算p(yface|xf,(i)),得到:
p ( y face | x h ) = · Σ i p ( y face | x f , ( i ) ) .
其中,头部状态和人脸状态的关系p(xf|xh)可以用单高斯分布近似,即假设对给定的椭圆模型的头部状态xc=(xc,yc,a,b)((xc,yc)表示椭圆的中心,a、b分别表示椭圆的短轴和长轴,参见图5),其相应的人脸状态xf=(xf,yf,s)满足:人脸中心横坐标 相对于头部中心横坐标xc的偏移量和头部横轴长度的比值服从高斯分布。纵坐标依此类推。人脸大小和头部横轴长度的比值服从高斯分布:
d x = ( x f + s 2 - x c a ) - N ( μ x , σ x ) - - - ( 13 )
d y = ( y f + s 2 - y c b ) - N ( μ y , σ y ) - - - ( 14 )
λ = ( s a ) - N ( μ s , σ s ) - - - ( 15 )
高斯分布的参数通过实际数据统计得到,数据中的人脸位置由检测器确定,头部位置通过手工来标定。参照图10,示出了不同姿态下头部轮廓和人脸的关系,其中(a)示出了正面(Frontal)、半侧面(Half profile)以及全侧面(Full profile)这三种不同姿态下的示例,而(b)示出了约2000个真实数据中的人脸中心相对于头部的位置(头部中心在原点,大小规范到[-1,1]x[-1,1])。由此注意到,对于不同姿态,人脸和头部的相对位置分布不同,鉴于人脸检测器可以提供目标的姿态信息(包含五种:左全侧面、左半侧面、正面、右半侧面,以及右全侧面),本发明对五种姿态分别建立上述高斯模型来近似p(xf|xh)。
5、基于人脸检测的头部跟踪方法
5-1、跟踪方法的流程
下面参照图11的流程图对根据本发明的基于人脸检测的头部跟踪方法的过程进行描述。
首先,在步骤S100处,进行初始化处理。具体地,对输入的视频序列的第一帧进行人脸检测,在检测到的目标周围作高斯随机采样作为初始样本集
Figure A20061007256800211
每个样本x0 (i)的形式为(xc,yc,a,b),其中Np为样本数。
接下来,随时间变化对视频序列中的每一帧图像按以下流程进行处理。
假定在时刻t-1样本集为{xt-1 (i),πt-1 (i)}1 Np,则对于时刻t的图像帧顺序执行以下处理。
在步骤S110处,对{xt-1 (i),πt-1 (i)}1 Np进行重采样,使得每个样本的权重相等,即
Figure A20061007256800212
在步骤S120处,根据运动模型预测头部样本的位置和大小。即,根据状态转移模型从p(xt|xt-1 (i))采样得到xt (i),形成t时刻的样本集
Figure A20061007256800213
接下来,对于样本集
Figure A20061007256800214
中的每个样本xt (i)进行更新处理。具体地,在步骤130处,利用头部观测量(颜色和梯度)来计算头部似然度,使得样本 π t h , ( i ) ∝ p ( y grad ient | x t ( i ) ) p ( y color | x t ( i ) ) .
随后,在步骤S140处,对于每个头部样本,根据人脸和头部的位置大小关系模型p(xf|xt (i))随机采样获得M个人脸样本构成的人脸样本集{xf,(j)}1 M。接着,在步骤S150处,利用人脸检测器来计算样本集{xf,(j)}1 M中的每个人脸样本的人脸似然度,并对计算结果进行累加,使得
π t f , ( i ) ∝ Σ j = 1 M p ( y f | x f , ( j ) ) .
接下来,在步骤S160处,通过确定总的人脸似然度是否大于设定的阈值,来判断目标人脸是否可见。具体地,在步骤S160处,若判断前面计算出的总的人脸似然度 &Sigma; i = 1 N p &pi; t f , ( i ) > &Gamma; , 则认为人脸可见,处理流程相应地转向步骤S180,在此将样本xt (i)的权重更新为 &pi; t ( i ) &Proportional; &pi; t h , ( i ) &pi; t f , ( i ) ; 相反,若判断前面计算出的总的人脸似然度 &Sigma; i = 1 N p &pi; t f , ( i ) < &Gamma; , 则认为人脸不可见,从而处理流程转向步骤S170,在此将样本xt (i)的权重更新为 &pi; t ( i ) &Proportional; &pi; t h , ( i ) .
接下来,在步骤S190处,利用最小均方误差 x ^ t = &Sigma; i = 1 N p x t ( i ) &CenterDot; &pi; t ( i ) 来估计跟踪目标的状态,并将其输出作为目标在当前帧的位置和大小。
其中,之所以要在步骤S160处判断总的人脸似然度是否大于阈值,是因为当人脸不可见时,观察模型(12)中的p(yface|xc)是没有意义的(可能很小,因为检测器检测不到人脸)。当人脸似然度之和很小时,认为人脸不可见,不将p(yface|xh)计入p(y|x)。
5-2、测试结果
针对上面描述的头部跟踪方法,使用来自电影剪辑的视频序列进行了测试。具体地,使用了家用数字摄像机和网络摄像头拍摄的视频片断,以及一些其他相关文献中使用过的视频序列。其内容涵盖了各种不同大小、位置、姿态的人脸/头部,包括很多具有挑战性的情况,例如光照变化、低亮度或低对比度、模糊、遮挡等等。图12示出了其中一些示例,其中,(a)示出了不同姿态及嘈杂背景下的测试结果,(b)示出了不均衡光照和快速运动下的测试结果,(c)示出了存在遮挡的情况下的测试结果,而(d)示出了拥挤场景下的测试结果。
我们把测试视频分为三个不同类别测试集,第一个为电影视频片断(共50个片断,11424帧),第二个为摄像头摄制的工作台前使用者的视频以及文献[11]使用的测试视频(共10个片断,3156帧),第三个为家用数字摄像机摄制的录像(共23个片断,17916帧)。测试了两种跟踪方法,一种是只使用颜色直方图和轮廓梯度的标准粒子滤波器算法,而另一种是本发明所述的算法。表1记录了两种方法分别针对三个测试集的跟踪成功率。测试时,每隔12帧选取一帧判断在该帧处是否正确跟踪,而正确跟踪的标注就是跟踪结果的包围矩形和真实目标的包围矩形的面积比在[0.5,1.5]之间,而跟踪结果的中心位置不超出真实目标的包围矩形边界。成功率为正确跟踪的帧数占所有测试帧数的百分比。图13示出了不同方法之间的对比,其中,(a)表示对第一帧的目标进行自动初始化,以及用Sobel算子得到的梯度强度图(可见梯度噪音较大,头部轮廓梯度不明显),(b)是出了逐帧对人脸进行检测的结果,(c)表示只使用颜色和梯度模型进行跟踪的结果,而(d)表示利用本发明的方法进行跟踪的结果。
表1不同测试集的结果对比
  算法   电影数据集   Webcam数据集   家用数字摄像机数据集
  本发明   87.18%   91.63%   83.39%
  色彩和梯度   69.64%   68.44%   46.54%
对于320×240像素的视频,跟踪速度可达到每秒15帧左右(在一台配置Pentium M740(1.73MHz)CPU和512M RAM的笔记本电脑上,包括获得视频(读视频文件)和播放跟踪结果)。而在跟踪算法中采用的人脸检测器的检测速度在每秒10帧左右(对每帧做全检测)。可见将人脸检测器改变为粒子滤波器的观测模型后,对时序信息的利用使跟踪时用于人脸检测的计算量大为减少。
6、基于人脸检测的头部跟踪方法的其他实施方式
在上面描述的跟踪方法中,使用了涉及人脸、梯度、色彩这三个观测量在内的改进粒子滤波器。但是,本领域技术人员很容易想到,也可以将人脸观测量与梯度观测量或色彩观测量相组合而构成另选的改进粒子滤波器,显然,基于此所实现的头部跟踪方法,由于减少了对头部观测模型的计算量,可以取得进一步提高跟踪速度的效果。
基于人脸观测量、梯度观测量以及色彩观测量相互独立的假设,参照上面的公式(9)所示的改进的粒子滤波器的计算模型,很容易以下的粒子滤波器模型:
将人脸观测量与梯度观测量相组合:
p(y|x)=p(ygradient|xh)∫p(yface|xf)p(xf|xh)dxf        (16)
将人脸观测量与色彩观测量相组合:
p(y|x)=p(ycolor|xh)∫p(yface|xf)p(xf|xh)dxf           (17)
基于上述的改进粒子滤波器的头部跟踪方法的处理流程与参照图11所述的流程类似,这里不再详述。
本领域技术人员还应当明白,还可以将人脸观测模型与其他头部观测模型相结合,来实现其他的基于人脸检测的头部跟踪方法,但其精神实质显然都落在本发明的范围之内。
7、基于人脸检测器的人脸跟踪方法
根据第2节所导出的人脸观测模型,也很容易实现一种人脸跟踪方法。下面参照图14的流程图来对本发明的人脸跟踪方法进行描述。
对于人脸跟踪,不涉及头部状态量。因此以下的所有状态量(包括样本)x均指人脸状态量xF=(xF,yF,s)。
首先,在步骤S200处,进行初始化处理。具体地,对输入的视频序列的第一帧进行人脸检测,在检测到的目标周围作高斯随机采样作为初始样本集
Figure A20061007256800241
每个样本x0 (i)的形式为(xc,yc,a,b),其中Np为样本数。
接下来,随时间变化对视频序列中的每一帧图像按以下流程进行处理。
假定在时刻t-1样本集为{xt-1 (i),πt-1 (i)}1 Np,则对时刻t的图像帧执行如下处理。
在步骤S210,对{xt-1 (i),πt-1 (i)}1 Np进行重采样,使得每个样本的权重相等,即
接下来,在步骤S220,根据运动模型来预测人脸样本的位置和大小。即,根据状态转移模型从p(xt|xt-1 (i))采样得到xt (i),形成t时刻的样本集
Figure A20061007256800252
接着,在步骤S230,对每个样本xt (i),利用人脸检测器来计算其人脸似然度,作为样本权重,即,使样本 &pi; t ( i ) &Proportional; p ( y F | x t ( i ) ) .
在步骤S240处,利用加权平均(即,期望估计) x ^ t = &Sigma; i = 1 N p x t ( i ) &CenterDot; &pi; t ( i ) 来估计跟踪目标的状态,并将其输出,作为目标在当前帧的位置和大小。
由此,实现了对于视频序列中的人脸的跟踪。
8、关于目标的初始化以及目标的“丢弃”
在多目标跟踪中,为了能在跟踪过程中发现新出现的目标,需要不时地对视频帧进行人脸检测。但是并不需要对每一帧都进行全检测(指检测所有位置以及大小的图像子窗口),否则就退化成逐帧检测,耗费大量时间,而且事实上也不需要在一个目标出现的第一帧就检测出来。因此实际采用的方式是将一次全检测分配到连续的若干帧中进行,在每一帧只对局部的或特定大小范围的子窗口进行检测。
这种初始化新目标的方式对人脸或者头部跟踪都适用。对人脸跟踪,对检测到的人脸的位置、大小做高斯扰动获得初始的样本集。对头部跟踪,发现人脸后,利用人脸和头部的先验位置、大小关系来初始化头部状态的样本集。
如果一个目标在“更新”步骤(S170、S180、S230)中获得的总样本权重低于一定阈值,且持续若干帧,则丢弃该目标。
9、基于人脸检测的头部跟踪装置
基于上面所述的头部跟踪方法,结合现有的信息处理装置,还可以实现基于人脸检测的头部跟踪装置。下面,分别参照图15-17对根据本发明的基于人脸检测的头部跟踪装置进行描述。
图15示出了根据第一实施例的基于人脸检测的头部跟踪装置100。
头部跟踪装置100包括初始化单元110、重采样单元120、样本预测单元130、第一头部似然度计算单元140、人脸似然度计算单元150、第一样本权重更新单元160、以及状态估计与更新单元170。
首先,在初始化单元110处,进行初始化处理。具体地,对输入的视频序列的第一帧进行人脸检测,在检测到的目标周围作高斯随机采样作为初始样本集
Figure A20061007256800261
每个样本x0 (i)的形式为(xc,yc,a,b),其中Np为样本数。
接下来,分别在头部跟踪装置100的其他各组成单元处对视频序列中的每一帧图像进行相应的处理。
假定在时刻t-1样本集为{xt-1 (i),πt-1 (i)}1 Np,则对于时刻t的图像帧顺序执行以下处理。
在重采样单元120处,对{xt-1 (i),πt-1 (i)}1 Np进行重采样,使得每个样本的权重相等,即
Figure A20061007256800262
接着,在样本预测单元130处,根据运动模型预测头部样本的位置和大小。即,根据状态转移模型从p(xt|xt-1 (i))采样得到xt (i),形成t时刻的样本集
Figure A20061007256800263
接下来,在头部似然度计算单元140处,利用头部观测量(颜色和梯度)来计算头部似然度,使得样本 &pi; t h , ( i ) &Proportional; p ( y grad ient | x t ( i ) ) p ( y color | x t ( i ) ) .
随后,在人脸似然度计算单元150处,对于每个头部样本,根据人脸和头部的位置大小关系模型p(xf|xt (i))随机采样获得M个人脸样本构成的人脸样本集{xf,(j)}1 M,利用人脸检测器来计算样本集{xf,(j)}1 M中的每个人脸样本的人脸似然度,并对计算结果进行累加,使得 &pi; t f , ( i ) &Proportional; &Sigma; j = 1 M p ( y f | x f , ( j ) ) .
接下来,在第一样本权重更新单元160处,通过确定总的人脸似然度是否大于设定的阈值,来判断目标人脸是否可见。具体地,若判断前面计算出的总的人脸似然度 &Sigma; i = 1 N p &pi; i f , ( i ) > &Gamma; , 则认为人脸可见,从而将样本xt (i)的权重更新为 &pi; t ( i ) &Proportional; &pi; t h , ( i ) &pi; t f , ( i ) ; 相反,若判断前面计算出的总的人脸似然度 &Sigma; i = 1 N p &pi; t f , ( i ) < &Gamma; , 则认为人脸不可见,从而将样本xt (i)的权重更新为 &pi; t ( i ) &Proportional; &pi; t h , ( i ) .
接下来,在状态估计与输出单元170处,利用最小均方误差 x ^ t = &Sigma; i = 1 N p x t ( i ) &CenterDot; &pi; t ( i ) 来估计跟踪目标的状态,并将其输出作为目标在当前帧的位置和大小。
图16示出了根据第二实施例的基于人脸检测的头部跟踪装置200。头部跟踪装置200与头部跟踪装置100的不同之处在于,由第二头部似然度计算单元240代替了第一头部似然度计算单元140。下面仅对第二头部似然度计算单元240的操作进行描述,而略去对其他相同单元的描述。
在第二头部似然度计算单元240处,与第一头部似然度计算单元140所不同的是,仅利用梯度观测量来计算头部似然度,使得样本
&pi; t h , ( i ) &Proportional; p ( y grad ient | x t ( i ) ) .
图17示出了根据第三实施例的基于人脸检测的头部跟踪装置300。头部跟踪装置300与头部跟踪装置100的不同之处在于,由第三头部似然度计算单元340代替了第一头部似然度计算单元140。下面仅对第三头部似然度计算单元340的操作进行描述,而略去对其他相同单元的描述。
在第三头部似然度计算单元340处,与第一头部似然度计算单元140所不同的是,仅利用色彩观测量来计算头部似然度,使得样本
&pi; t h , ( i ) &Proportional; p ( y color | x t ( i ) ) .
在各实施例的头部跟踪装置中,各单元可以一体地实现在具有实现上述功能的计算机程序的计算机或单片机设备中,也可以各由分立的信息处理装置构成。
10、人脸跟踪装置
基于上面所述的人脸跟踪方法,结合现有的信息处理装置,还可以实现人脸跟踪装置。下面,参照图18对根据本发明的人脸跟踪装置400进行描述。
如图18所示,人脸跟踪装置400包括初始化单元405、重采样单元410、样本预测单元420、人脸似然度计算单元430、以及状态估计与输出单元440。
对于人脸跟踪,不涉及头部状态量。因此以下的所有状态量(包括样本)x均指人脸状态量xF=(xF,yF,s)。
首先,在初始化单元405处,进行初始化处理。具体地,对输入的视频序列的第一帧进行人脸检测,在检测到的目标周围作高斯随机采样作为初始样本集
Figure A20061007256800281
每个样本x0 (i)的形式为(xc,yc,a,b),其中Np为样本数。
假定在时刻t-1样本集为{xt-1 (i),πt-1 (i)}1 Np,则对时刻t的图像帧分别在各单元处进行相应的处理。
具体地,在重采样单元410处,对{xt-1 (i),πt-1 (i)}1 Np进行重采样,使得每个样本的权重相等,即
接下来,在样本预测单元420处,根据运动模型来预测人脸样本的位置和大小。即,根据状态转移模型从p(xt|xt-1 (i))采样得到xt (i),形成t时刻的样本集
Figure A20061007256800283
接着,在人脸似然度计算单元430处,对于每个样本xt (i),利用人脸检测器来计算其人脸似然度,作为样本权重,即,使样本 &pi; t ( i ) &Proportional; p ( y F | x t ( i ) ) .
最后,在状态估计与输出单元440处,利用加权平均(即,期望估计) x ^ t = &Sigma; i = 1 N p x t ( i ) &CenterDot; &pi; t ( i ) 来估计跟踪目标的状态,并将其输出,作为目标在当前帧的位置和大小。
上述单元可以一体地实现在具有实现所述功能的计算机程序的计算机或单片机设备中,也可以各由分立的信息处理装置构成。
虽然,在上面的示例中,本发明所提供的方法都是针对人脸和头部进行的,但本发明不限于人脸和头部,而也可以应用于其它物体(如人体的其它部位、汽车、行人等)。
进一步,根据本发明的实施例,本发明的目的还可以通过使计算机或单片机等执行上述操作的计算机程序来实现。
另外,应当明白,在各个实施例中,可以通过专门的电路或线路(例如,互连以执行专门功能的离散逻辑门)、通过由一个或更多个处理器执行的程序指令,或者通过两者的组合来执行所述各个动作。因此,可以通过多种不同的形式来实施上述多个方面,并且所有这些形式都被认为处于所描述内容的范围内。对于上述多个方面中的每一个,任何这种形式的实施例在此都可以指“被构造用来执行所述动作的逻辑”,或者另选地,是指“执行或者能够执行所述动作的逻辑”。
进一步,根据本发明的实施例,本发明的目的还可以由计算机可读介质来实现,所述介质存储上述的程序。计算机可读介质可以是能够包含、存储、传达、传播或传送程序,以由执行系统、设备或装置使用的或与指令执行系统、设备或装置相结合的任何装置。该计算机可读介质例如可以是,但不限于,电子、磁、光、电磁、红外或半导体系统、设备、装置或传播介质。该计算机可读介质的更具体的示例(非穷尽列举)可以包括:具有一根或更多根导线的电连接、便携式计算机磁盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪存)、光纤,以及便携式光盘只读存储器(CDROM)。
本发明实施例的上述说明仅用于例示和说明的目的,而非旨在穷尽本发明或将其限于所公开的具体形式。本领域技术人员应当明白,所选择并描述的实施例仅是为了最佳地解释本发明的原理及其实际应用,以适于特定的预期应用,而在不脱离由权利要求及其等同物所限定的发明范围的情况下,可以对本发明进行各种修改和变型。
参考文献
1.Isard,M.,Blake,A.:Condensation-conditional density propagation for visualtracking.IJCV 28(1)(1998)5-28
2.Huang,C.,Ai,H.,Li,Y.,Lao,S.:Vector boosting for rotation invariant multi-viewface detection.In:ICCV.(2005)
3.Birchfield,S.,Rangarajan,S.:Spatiograms versus histograms for region-basedtracking.In:CVPR.(2005)
4.Perez,P.,Vermaak,J.,Blake,A.:Data fusion for visual tracking with particles.Proceedings of IEEE(issue on State Estimation)(2004)
5.Verma,R.C.,Schmid,C.,Mikolajczyk,K.:Face detection and tracking in a videoby propagating detection probabilities.PAMI 25(10)(2003)1215-1228
6.Okuma,K.,Taleghani,A.,D.,F.,Little,J.J.,Lowe,D.G.:A boosted particle filter:Multitarget detection and tracking.In:ECCV.(2004)
7.Viola,P.,Jones,M.:Robust real-time object detection.In:IEEE Workshop onStatistical and Theories of Computer Vision.(2001)
8.Wu,B.,Ai,H.,Huang,C.,Lao,S.:Fast rotation invariant multi-view face detectionbased on real adaboost.In:Intl.Conf.on Automatic Face and Gesture Recognition.(2004)
9.Schneiderman,H.,Kanade,T.:A statistical to 3d object detection applied to facesand cars.In:CVPR.(2000)
10.Rowley,H.A.:Neural Network-based Human Face Detection.PhD thesis,Carnegie Mellon University(1999)
11.Birchfield,S.:Elliptical head tracking using intensity gradients and colorhistograms.In:CVPR.(1998)
12.Comaniciu,D.,Ramesh,V.,Meer,P.:Real-time tracking of non-rigid objectsusing mean shift.In:CVPR.(2000)
13.Perez,P.,Hue,C.,Vermaak,J.,Gangnet,M.:Color-based probabilistic tracking.In:ECCV.(2002)
14.Matthews,I.,Baker,S.:Active appearance models revisited.Technical ReportCMU-RI-TR-03-02,The Robotics Institute,Carnegie Mellon University(2002)
15.Cootes,T.F.,Edwards,G.J.,Taylor,C.J.:Active appearance models.PAMI 23(6)(2001)681-684
16.Cascia,M.L.,Sclaroff,S.,Athitsos,V.:Fast,reliable head tracking under varyingillumination:An approach based on registration of texture-mapped 3d models.PAMI 22(4)(2000)322-336
17.Vermaak,J.,Doucet,A.,Perez,P.:Maintaining multi-modality through mixturetracking.In:ICCV.(2003)
18.M.Han,A.Sethiy,W.Hua,Y.Gong,A Detection-Based Multiple ObjectTracking Method,ICIP 2004,pp.3605-3608

Claims (37)

1、一种基于特征部检测的特定被摄体跟踪方法,其使用粒子滤波器对视频序列的多帧图像逐帧地以子窗口划分进行计算处理,以确定特定被摄体的位置和大小,所述特征部是特定被摄体的一部分,
其特征在于,所述粒子滤波器的观测模型包括特征部观测模型,该特征部观测模型用于确定图像被子窗口划分出的子图像是特征部的似然度。
2、根据权利要求1所述的特定被摄体跟踪方法,其特征在于,所述特征部观测模型是包括多层分类器的树状检测器,所述多层分类器对子图像是特征部的似然度进行计算。
3、根据权利要求2所述的特定被摄体跟踪方法,其特征在于,所述多层分类器采用以下观测模型来计算子图像是特征部的似然度:
p ( y F | x F ) = p ( F | I x ) = r v &CenterDot; p v ( F | I x ) r v &CenterDot; p v ( F | I x ) + p v ( NF | I x ) ,
其中,xF是表示特征部的状态向量,yF表示观测量,F表示特征部,Ix表示子窗口划分出的对应于状态向量xF的子图像,NF表示非特征部,v表示多层分类器的层数,rv表示与第v层分类器相对应的F和NF模式的先验概率比,pv(F|Ix)和pv(NF|Ix)分别表示在第v层分类器下子图像Ix是特征部的概率和子图像Ix是NF的概率,p(yF|xF)和p(F|Ix)表示最终计算出的子图像是特征部的似然度。
4、根据权利要求3所述的特定被摄体跟踪方法,其特征在于,所述状态向量xF具体为(xF,yF,s),其中,(xF,yF)表示特征部在图像中的位置坐标,而s表示特征部的大小。
5、根据权利要求1-4中的任何一项所述的特定被摄体跟踪方法,其特征在于,所述粒子滤波器的观测模型还包括特定被摄体观测模型。
6、根据权利要求5所述的特定被摄体跟踪方法,其特征在于,所述特征部观测模型与特定被摄体观测模型相互独立。
7、根据权利要求5所述的特定被摄体跟踪方法,其特征在于,所述特定被摄体观测模型涉及梯度观测量和色彩观测量中的任一个或全部两个。
8、根据权利要求7所述的特定被摄体跟踪方法,其特征在于,所述粒子滤波器的观测模型具体地为以下公式中的任何一个:
p(y|x)=p(ycolor|xH)p(ygradient|xH)∫p(yF|xF)p(xF|xH)dxF
p(y|x)=p(ygradient|xH)∫p(yF|xF)p(xF|xH)dxF,以及
p(y|x)=p(ycolor|xH)∫p(yF|xF)p(xF|xH)dxF
其中,F表示特征部,H表示特定被摄体,x表示状态向量,y表示观测量,xH表示特定被摄体的状态向量,xF表示特征部的状态向量,yF表示特征部的观测量,ycolor和ygradient分别表示颜色观测量和梯度观测量,p(y|x)、p(ycolor|xH)、p(ygradient|xH)、p(yF|xF)、p(xF|xH)分别表示x状态向量下y的概率、xH状态向量下ycolor的概率、xH状态向量下ygradient的概率、xF状态向量下yF的概率,以及xH状态向量下xF的概率。
9、根据权利要求8所述的特定被摄体跟踪方法,其特征在于,状态向量xH由椭圆模型来表示,其具体地为(xH,yH,a,b),其中,(xH,yH)表示椭圆的中心在图像中的坐标,a,b分别表示椭圆的短轴和长轴。
10、根据权利要求9所述的特定被摄体跟踪方法,其特征在于,p(xF|xH)可以近似为单高斯分布。
11、根据权利要求7-10中的任何一项所述的特定被摄体跟踪方法,其特征在于,包括以下步骤:
初始化步骤,对输入的视频序列的第一帧作特征部检测,在检测到的特征部周围进行高斯随机采样,获得初始样本集;
重采样步骤,对于时刻t-1时的样本集进行重采样,使得每个样本的权重相等,其中t表示当前时刻;
样本预测步骤,根据状态转移模型从t-1时刻的状态量获得t时刻的状态量,从而形成t时刻的样本集;
权重更新步骤,对每个样本的权重首先使用特定被摄体的颜色观测模型和梯度观测模型中的任一个或全部两个进行更新,再使用特征部观测模型进行更新;
状态估计与输出步骤,根据预测步骤获得的样本与更新步骤获得的更新后的权重,对所跟踪的特定被摄体的状态进行估计,并输出估计出的状态。
12、根据权利要求11所述的特定被摄体跟踪方法,其特征在于,所述权重更新步骤,使用特征部观测模型对权重进行更新并累加特征部的似然度,若整个样本空间上的总似然度大于阈值时,判断特征部可见,并利用所述总似然度对权重进行更新;否则,若整个样本空间上的总的似然度不大于所述阈值,则不利用所述总似然度对权重进行更新。
13、根据任一前述权利要求所述的特定被摄体跟踪方法,其特征在于,所述特定被摄体具体地为人的头部,而所述特征部具体地为人脸。
14、一种基于特征部检测的特定被摄体跟踪装置,其使用粒子滤波器对视频序列的多帧图像逐帧地以子窗口划分进行计算处理,以确定特定被摄体的位置和大小,所述特征部是特定被摄体的一部分,
其特征在于,所述粒子滤波器的观测模型包括特征部观测模型,该特征部观测模型用于确定图像被子窗口划分出的子图像是特征部的似然度。
15、根据权利要求14所述的特定被摄体跟踪装置,其特征在于,所述特征部观测模型是包括多层分类器的树状检测器,所述多层分类器对子图像是特征部的似然度进行计算。
16、根据权利要求15所述的特定被摄体跟踪装置,其特征在于,所述多层分类器采用以下观测模型来计算子图像是特征部的似然度:
p ( y F | x F ) = p ( F | I x ) = r v &CenterDot; p v ( F | I x ) r v &CenterDot; p v ( F | I x ) + p v ( NF | I x ) ,
其中,xF是表示特征部的状态向量,yF表示观测量,F表示特征部,Ix表示子窗口划分出对应于状态向量xF的子图像,NF表示非特征部,v表示多层分类器的层数,rv表示与第v层分类器相对应的F和NF模式的先验概率比,pv(F|Ix)和pv(NF|Ix)分别表示在第v层分类器下子图像Ix是特征部的概率和子图像Ix是NF的概率,p(yF|xF)和p(F|Ix)表示最终计算出的子图像是特征部的似然度。
17、根据权利要求16所述的特定被摄体跟踪装置,其特征在于,所述状态向量xF具体为(xF,yF,s),其中,(xF,yF)表示特征部在图像中的位置坐标,而s表示特征部的大小。
18、根据权利要求14-17中的任何一项所述的特定被摄体跟踪装置,其特征在于,所述粒子滤波器的观测模型还包括特定被摄体观测模型。
19、根据权利要求18所述的特定被摄体跟踪装置,其特征在于,所述特征部观测模型与特定被摄体观测模型相互独立。
20、根据权利要求18所述的特定被摄体跟踪装置,其特征在于,所述特定被摄体观测模型涉及梯度观测量和色彩观测量中的任一个或全部两个。
21、根据权利要求20所述的特定被摄体跟踪装置,其特征在于,所述粒子滤波器的观测模型具体地为以下公式中的任何一个:
p(y|x)=p(ycolor|xH)p(ygradient|xH)∫p(yF|xF)p(xF|xH)dxF
p(y|x=p(ygradient|xH)∫p(yF|xF)p(xF|xH)dxF,以及
p(y|x)=p(ycolor|xH)∫p(yF|xF)p(xF|xH)dxF
其中,F表示特征部,H表示特定被摄体,x表示状态向量,y表示观测量,xH表示特定被摄体的状态向量,xF表示特征部的状态向量,yF表示特征部的观测量,ycolor和ygradient分别表示颜色观测量和梯度观测量,p(y|x)、p(ycolor|xH)、p(ygradient|xH)、p(yF|xF)、p(xF|xH)分别表示x状态向量下y的概率、xH状态向量下ycolor的概率、xH状态向量下ygradient的概率、xF状态向量下yF的概率,以及xH状态向量下xF的概率。
22、根据权利要求21所述的特定被摄体跟踪装置,其特征在于,状态向量xH由椭圆模型来表示,其具体地为(xH,yH,a,b),其中,(xH,yH)表示椭圆的中心在图像中的坐标,a,b分别表示椭圆的短轴和长轴。
23、根据权利要求22所述的特定被摄体跟踪方法,其特征在于,p(xF|xH)可以近似为单高斯分布。
24、根据权利要求20-23中的任何一项所述的特定被摄体跟踪装置,其特征在于,还包括以下单元:
初始化单元,对输入的视频序列的第一帧作特征部检测,在检测到的特征部周围进行高斯随机采样,获得初始样本集;
重采样单元,对于时刻t-1时的样本集进行重采样,使得每个样本的权重相等;
样本预测单元,根据状态转移模型从t-1时刻的状态量获得t时刻的状态量,从而形成t时刻的样本集;
特定被摄体似然度计算单元,使用特定被摄体观测模型来计算特定被摄体似然度;
特征部似然度计算单元,使用特征部观测模型来计算特征部的似然度;
样本权重更新单元,对每个样本的权重首先使用特定被摄体的颜色观测模型和梯度观测模型中的任一个或全部两个进行更新;并且,在特征部似然度计算单元所计算出的特征部的似然度在样本空间上求和后的总似然度大于阈值时,利用总似然度对权重进行更新,否则,不利用所述总似然度对权重进行更新;
状态估计与输出单元,根据样本预测单元获得的样本与样本权重更新单元获得的更新后的权重,对所跟踪的特定被摄体的状态进行估计,并输出估计出的状态。
25、根据权利要求14-24中的任何一项所述的特定被摄体跟踪装置,其特征在于,所述特定被摄体具体地为人的头部,而所述特征部具体地为人脸。
26、一种特征部跟踪方法,其使用粒子滤波器对视频序列的多帧图像逐帧地以子窗口划分进行计算处理,以确定特征部的位置和大小,
其特征在于,所述粒子滤波器的观测模型为特征部观测模型,该特征部观测模型用于确定图像被子窗口划分出的子图像是特征部的似然度。
27、根据权利要求26所述的特征部跟踪方法,其特征在于,所述特征部观测模型是包括多层分类器的树状检测器,所述多层分类器对子图像是特征部的似然度进行计算。
28、根据权利要求27所述的特征部跟踪方法,其特征在于,所述多层分类器采用以下观测模型来计算子图像是特征部的似然度:
p ( y F | x F ) = p ( F | I x ) = r v &CenterDot; p v ( F | I x ) r v &CenterDot; p v ( F | I x ) + p v ( NF | I x ) ,
其中,xF是表示特征部的状态向量,yF表示观测量,F表示特征部,Ix表示子窗口划分出对应于状态向量xF的子图像,NF表示非特征部,v表示多层分类器的层数,rv表示与第v层分类器相对应的F和NF模式的先验概率比,pv(F|Ix)和pv(NF|Ix)分别表示在第v层分类器下子图像Ix是特征部的概率和子图像Ix是NF的概率,p(yF|xF)和p(F|Ix)表示最终计算出的子图像是特征部的似然度。
29、根据权利要求28所述的特征部跟踪方法,其特征在于,所述状态向量xF具体为(xF,yF,s),其中,(xF,yF)表示特征部在图像中的位置坐标,而s表示特征部的大小。
30、根据权利要求29所述的特征部跟踪方法,其特征在于,包括以下步骤:
初始化步骤,对输入的视频序列的第一帧作特征部检测,在检测到的特征部周围进行高斯随机采样,获得初始样本集;
重采样步骤,对于时刻t-1时的样本集进行重采样,使得每个样本的权重相等;
样本预测步骤,根据状态转移模型从t-1时刻的状态量获得t时刻的状态量,从而形成t时刻的样本集;
权重更新步骤,对每个样本的权重使用特征部观测模型进行更新;
状态估计与输出步骤,根据预测步骤获得的样本与更新步骤获得的更新后的权重,对所跟踪的特定被摄体的状态进行估计,并输出估计出的状态。
31、根据权利要求26-29中的任何一项所述的特征部跟踪方法,其特征在于,所述特征部具体地为人脸。
32、一种特征部跟踪装置,其使用粒子滤波器对视频序列的多帧图像逐帧地以子窗口划分进行计算处理,以确定特征部的位置和大小,
其特征在于,所述粒子滤波器的观测模型为特征部观测模型,该特征部观测模型用于确定图像被子窗口划分出的子图像是特征部的似然度。
33、根据权利要求32所述的特征部跟踪装置,其特征在于,所述特征部观测模型是包括多层分类器的树状检测器,所述多层分类器对子图像是特征部的似然度进行计算。
34、根据权利要求33所述的特征部跟踪装置,其特征在于,所述多层分类器采用以下观测模型来计算子图像是特征部的似然度:
p ( y F | x F ) = p ( F | I x ) = r v &CenterDot; p v ( F | I x ) r v &CenterDot; p v ( F | I x ) + p v ( NF | I x ) ,
其中,xF是表示特征部的状态向量,yF表示观测量,F表示特征部,Ix表示子窗口划分出的对应于状态向量xF的子图像,NF表示非特征部,v表示多层分类器的层数,rv表示与第v层分类器相对应的F和NF模式的先验概率比,pv(F|Ix)和pv(NF|Ix)分别表示在第v层分类器下子图像Ix是特征部的概率和子图像Ix是NF的概率,p(yF|xF)和p(F|Ix)表示最终计算出的子图像是特征部的似然度。
35、根据权利要求34所述的特征部跟踪装置,其特征在于,所述状态向量xF具体为(xF,yF,s),其中,(xF,yF)表示特征部在图像中的位置坐标,而s表示特征部的大小。
36、根据权利要求35所述的特征部跟踪装置,其特征在于,包括以下单元:
初始化单元,对输入的视频序列的第一帧作特征部检测,在检测到的特征部周围进行高斯随机采样,获得初始样本集;
重采样单元,对于时刻t-1时的样本集进行重采样,使得每个样本的权重相等;
样本预测单元,根据状态转移模型从t-1时刻的状态量获得t时刻的状态量,从而形成t时刻的样本集;
权重更新单元,对每个样本的权重使用特征部观测模型进行更新;
状态估计与输出单元,根据样本预测单元获得的样本与权重更新单元获得的更新后的权重,对所跟踪的特定被摄体的状态进行估计,并输出估计出的状态。
37、根据权利要求32-36中的任何一项所述的特定部跟踪装置,其特征在于,所述特征部具体地为人脸。
CN200610072568XA 2006-04-07 2006-04-07 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置 Expired - Fee Related CN101051385B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200610072568XA CN101051385B (zh) 2006-04-07 2006-04-07 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200610072568XA CN101051385B (zh) 2006-04-07 2006-04-07 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置

Publications (2)

Publication Number Publication Date
CN101051385A true CN101051385A (zh) 2007-10-10
CN101051385B CN101051385B (zh) 2011-11-23

Family

ID=38782788

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200610072568XA Expired - Fee Related CN101051385B (zh) 2006-04-07 2006-04-07 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置

Country Status (1)

Country Link
CN (1) CN101051385B (zh)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101872477A (zh) * 2009-04-24 2010-10-27 索尼株式会社 检测图像中的对象的方法、装置,及包括该装置的系统
CN101931747A (zh) * 2008-09-25 2010-12-29 三洋电机株式会社 图像处理装置及电子设备
CN101930611A (zh) * 2009-06-10 2010-12-29 霍尼韦尔国际公司 多视图面部追踪
CN101493943B (zh) * 2008-01-25 2011-03-23 中国科学院计算技术研究所 一种粒子滤波跟踪方法和跟踪装置
CN102064783A (zh) * 2010-11-02 2011-05-18 浙江大学 一种概率假设密度粒子滤波器的设计方法及滤波器
CN102063625A (zh) * 2010-12-10 2011-05-18 浙江大学 一种用于多视角下多目标追踪的改进型粒子滤波方法
CN102103754A (zh) * 2009-12-21 2011-06-22 佳能株式会社 被摄体跟踪设备、被摄体区域提取设备及其控制方法
CN101604449B (zh) * 2009-07-02 2011-07-20 浙江大学 一种基于并行粒子滤波的图像目标跟踪方法及装置
CN102214291A (zh) * 2010-04-12 2011-10-12 云南清眸科技有限公司 一种快速准确的基于视频序列的人脸检测跟踪方法
CN102436662A (zh) * 2011-11-29 2012-05-02 南京信息工程大学 一种非重叠视域多摄像机网络中的人体目标跟踪方法
CN101763636B (zh) * 2009-09-23 2012-07-04 中国科学院自动化研究所 视频序列中的三维人脸位置和姿态跟踪的方法
CN101814187B (zh) * 2009-12-29 2012-07-18 天津市亚安科技股份有限公司 基于多级特征的视频跟踪方法
CN102693544A (zh) * 2011-03-25 2012-09-26 索尼公司 图像处理设备、图像处理方法、记录介质和程序
CN101960322B (zh) * 2008-02-27 2013-04-24 亚洲大学校产学协力团 在三维空间中基于使用声音传感器的粒子滤波器的物体跟踪方法
CN103309643A (zh) * 2012-03-14 2013-09-18 欧姆龙株式会社 图像处理器及图像处理方法
CN103795933A (zh) * 2014-03-03 2014-05-14 联想(北京)有限公司 一种图像处理方法及电子设备
CN104544746A (zh) * 2013-10-21 2015-04-29 耐克创新有限合伙公司 柔软物品的自动修整
CN104758004A (zh) * 2015-04-21 2015-07-08 深圳开立生物医疗科技股份有限公司 病灶追踪方法、装置和超声系统
WO2015172735A1 (en) * 2014-05-16 2015-11-19 Mediatek Inc. Detection devices and methods for detecting regions of interest
CN105279773A (zh) * 2015-10-27 2016-01-27 杭州电子科技大学 一种基于tld框架的改进型视频跟踪优化方法
CN105744152A (zh) * 2014-12-25 2016-07-06 佳能株式会社 被摄体追踪设备、摄像设备和被摄体追踪方法
CN105930808A (zh) * 2016-04-26 2016-09-07 南京信息工程大学 一种基于vector boosting模板更新的运动目标跟踪方法
CN106156688A (zh) * 2015-03-10 2016-11-23 上海骏聿数码科技有限公司 一种动态人脸识别方法及系统
CN106657812A (zh) * 2008-03-03 2017-05-10 威智伦分析公司 动态物件分类
CN107240118A (zh) * 2017-05-19 2017-10-10 成都信息工程大学 一种基于rgb颜色直方图的判别式跟踪方法
CN108352068A (zh) * 2015-11-18 2018-07-31 皇家飞利浦有限公司 用于估计测试对象的绝对尺寸大小的方法和设备
CN108510436A (zh) * 2018-03-28 2018-09-07 清华大学 一种冷冻电镜三维重构中重构参数搜索方法和系统
CN110691197A (zh) * 2019-11-04 2020-01-14 上海摩象网络科技有限公司 一种拍摄追踪的方法、装置、电子设备
CN112912759A (zh) * 2018-10-24 2021-06-04 株式会社电装 物体跟踪装置
CN117692583A (zh) * 2023-12-04 2024-03-12 中国人民解放军92941部队 一种基于位置信息校验的图像辅助导播方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020198681A1 (en) * 2001-06-13 2002-12-26 Kouritzin Michael A. Flexible efficient branching particle tracking algorithms
US7046188B2 (en) * 2003-08-14 2006-05-16 Raytheon Company System and method for tracking beam-aspect targets with combined Kalman and particle filters
JP2005165688A (ja) * 2003-12-02 2005-06-23 Fuji Xerox Co Ltd 複数対象物追跡方法及びシステム
CN1741069A (zh) * 2005-09-22 2006-03-01 上海交通大学 基于自适应表面模型的概率视频跟踪方法

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101493943B (zh) * 2008-01-25 2011-03-23 中国科学院计算技术研究所 一种粒子滤波跟踪方法和跟踪装置
CN101960322B (zh) * 2008-02-27 2013-04-24 亚洲大学校产学协力团 在三维空间中基于使用声音传感器的粒子滤波器的物体跟踪方法
CN106657812A (zh) * 2008-03-03 2017-05-10 威智伦分析公司 动态物件分类
US10417493B2 (en) 2008-03-03 2019-09-17 Avigilon Analytics Corporation Video object classification with object size calibration
CN106657812B (zh) * 2008-03-03 2020-04-03 威智伦分析公司 一种相机系统及动态物件分类方法
US10699115B2 (en) 2008-03-03 2020-06-30 Avigilon Analytics Corporation Video object classification with object size calibration
CN101931747A (zh) * 2008-09-25 2010-12-29 三洋电机株式会社 图像处理装置及电子设备
CN101872477A (zh) * 2009-04-24 2010-10-27 索尼株式会社 检测图像中的对象的方法、装置,及包括该装置的系统
CN101872477B (zh) * 2009-04-24 2014-07-16 索尼株式会社 检测图像中的对象的方法、装置,及包括该装置的系统
CN101930611A (zh) * 2009-06-10 2010-12-29 霍尼韦尔国际公司 多视图面部追踪
CN101930611B (zh) * 2009-06-10 2016-08-17 霍尼韦尔国际公司 多视图面部追踪
CN101604449B (zh) * 2009-07-02 2011-07-20 浙江大学 一种基于并行粒子滤波的图像目标跟踪方法及装置
CN101763636B (zh) * 2009-09-23 2012-07-04 中国科学院自动化研究所 视频序列中的三维人脸位置和姿态跟踪的方法
CN102103754B (zh) * 2009-12-21 2014-05-07 佳能株式会社 被摄体跟踪设备、被摄体区域提取设备及其控制方法
CN102103754A (zh) * 2009-12-21 2011-06-22 佳能株式会社 被摄体跟踪设备、被摄体区域提取设备及其控制方法
CN101814187B (zh) * 2009-12-29 2012-07-18 天津市亚安科技股份有限公司 基于多级特征的视频跟踪方法
CN102214291A (zh) * 2010-04-12 2011-10-12 云南清眸科技有限公司 一种快速准确的基于视频序列的人脸检测跟踪方法
CN102064783B (zh) * 2010-11-02 2013-09-04 浙江大学 一种概率假设密度粒子滤波器的设计方法及滤波器
CN102064783A (zh) * 2010-11-02 2011-05-18 浙江大学 一种概率假设密度粒子滤波器的设计方法及滤波器
CN102063625A (zh) * 2010-12-10 2011-05-18 浙江大学 一种用于多视角下多目标追踪的改进型粒子滤波方法
CN102063625B (zh) * 2010-12-10 2012-12-26 浙江大学 一种用于多视角下多目标追踪的改进型粒子滤波方法
CN102693544A (zh) * 2011-03-25 2012-09-26 索尼公司 图像处理设备、图像处理方法、记录介质和程序
CN102436662B (zh) * 2011-11-29 2013-07-03 南京信息工程大学 一种非重叠视域多摄像机网络中的人体目标跟踪方法
CN102436662A (zh) * 2011-11-29 2012-05-02 南京信息工程大学 一种非重叠视域多摄像机网络中的人体目标跟踪方法
CN103309643A (zh) * 2012-03-14 2013-09-18 欧姆龙株式会社 图像处理器及图像处理方法
CN104544746A (zh) * 2013-10-21 2015-04-29 耐克创新有限合伙公司 柔软物品的自动修整
CN104544746B (zh) * 2013-10-21 2019-05-10 耐克创新有限合伙公司 柔软物品的自动修整
CN103795933B (zh) * 2014-03-03 2018-02-23 联想(北京)有限公司 一种图像处理方法及电子设备
CN103795933A (zh) * 2014-03-03 2014-05-14 联想(北京)有限公司 一种图像处理方法及电子设备
US9892336B2 (en) 2014-05-16 2018-02-13 Mediatek Inc. Detection devices and methods for detecting regions of interest
CN105556539A (zh) * 2014-05-16 2016-05-04 联发科技股份有限公司 检测兴趣区域的检测装置和方法
WO2015172735A1 (en) * 2014-05-16 2015-11-19 Mediatek Inc. Detection devices and methods for detecting regions of interest
CN105744152A (zh) * 2014-12-25 2016-07-06 佳能株式会社 被摄体追踪设备、摄像设备和被摄体追踪方法
US10013632B2 (en) 2014-12-25 2018-07-03 Canon Kabushiki Kaisha Object tracking apparatus, control method therefor and storage medium
CN105744152B (zh) * 2014-12-25 2019-06-18 佳能株式会社 被摄体追踪设备、摄像设备和被摄体追踪方法
CN106156688A (zh) * 2015-03-10 2016-11-23 上海骏聿数码科技有限公司 一种动态人脸识别方法及系统
CN104758004B (zh) * 2015-04-21 2018-05-04 深圳开立生物医疗科技股份有限公司 超声影像中感兴趣区域的追踪方法、装置和超声系统
CN104758004A (zh) * 2015-04-21 2015-07-08 深圳开立生物医疗科技股份有限公司 病灶追踪方法、装置和超声系统
CN105279773A (zh) * 2015-10-27 2016-01-27 杭州电子科技大学 一种基于tld框架的改进型视频跟踪优化方法
CN108352068A (zh) * 2015-11-18 2018-07-31 皇家飞利浦有限公司 用于估计测试对象的绝对尺寸大小的方法和设备
CN105930808A (zh) * 2016-04-26 2016-09-07 南京信息工程大学 一种基于vector boosting模板更新的运动目标跟踪方法
CN107240118A (zh) * 2017-05-19 2017-10-10 成都信息工程大学 一种基于rgb颜色直方图的判别式跟踪方法
CN107240118B (zh) * 2017-05-19 2020-10-09 成都信息工程大学 一种基于rgb颜色直方图的判别式跟踪方法
CN108510436A (zh) * 2018-03-28 2018-09-07 清华大学 一种冷冻电镜三维重构中重构参数搜索方法和系统
CN108510436B (zh) * 2018-03-28 2020-09-15 清华大学 一种冷冻电镜三维重构中重构参数搜索方法和系统
CN112912759A (zh) * 2018-10-24 2021-06-04 株式会社电装 物体跟踪装置
CN110691197A (zh) * 2019-11-04 2020-01-14 上海摩象网络科技有限公司 一种拍摄追踪的方法、装置、电子设备
CN117692583A (zh) * 2023-12-04 2024-03-12 中国人民解放军92941部队 一种基于位置信息校验的图像辅助导播方法及装置

Also Published As

Publication number Publication date
CN101051385B (zh) 2011-11-23

Similar Documents

Publication Publication Date Title
CN101051385A (zh) 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置
CN108985186B (zh) 一种基于改进YOLOv2的无人驾驶中行人检测方法
JP4722923B2 (ja) コンピュータビジョンによりシーンをモデル化する方法
CN1897015A (zh) 基于机器视觉的车辆检测和跟踪方法及系统
Shantaiya et al. A survey on approaches of object detection
KR20110124222A (ko) 전경-배경 제약 조건 전파를 기초로 하는 비디오 매팅
Liu et al. Cast shadow removal combining local and global features
Zheng et al. Improvement of grayscale image 2D maximum entropy threshold segmentation method
Klein et al. Boosting scalable gradient features for adaptive real-time tracking
Zhang et al. Visual saliency based object tracking
Liu et al. Impact of the lips for biometrics
CN106250878B (zh) 一种结合可见光和红外图像的多模态目标跟踪方法
Spampinato et al. Evaluation of tracking algorithm performance without ground-truth data
CN1781122A (zh) 用于搜索被认为是面部图像的区域的方法、系统和程序
Guo et al. DeblurSLAM: A novel visual SLAM system robust in blurring scene
CN111161219B (zh) 一种适用于阴影环境的鲁棒单目视觉slam方法
Nakamura et al. Few-shot adaptive object detection with cross-domain cutmix
Göring et al. Semantic Segmentation using GrabCut.
CN116958052A (zh) 一种基于yolo和注意力机制的印刷电路板缺陷检测方法
Jiang Finding approximate convex shapes in rgbd images
Xing et al. Shadow detecting using particle swarm optimization and the Kolmogorov test
CN107491761B (zh) 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法
Yin et al. Spatial divide and conquer with motion cues for tracking through clutter
JP2005176339A (ja) 動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体
Wu et al. Robust lip localization on multi-view faces in video

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111123

CF01 Termination of patent right due to non-payment of annual fee