CN101221620B - 人脸跟踪方法 - Google Patents
人脸跟踪方法 Download PDFInfo
- Publication number
- CN101221620B CN101221620B CN2007103036522A CN200710303652A CN101221620B CN 101221620 B CN101221620 B CN 101221620B CN 2007103036522 A CN2007103036522 A CN 2007103036522A CN 200710303652 A CN200710303652 A CN 200710303652A CN 101221620 B CN101221620 B CN 101221620B
- Authority
- CN
- China
- Prior art keywords
- people
- class
- face
- face position
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 239000011159 matrix material Substances 0.000 claims description 63
- 238000012549 training Methods 0.000 claims description 32
- 239000002245 particle Substances 0.000 claims description 19
- 239000012141 concentrate Substances 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 abstract description 6
- 238000005728 strengthening Methods 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000009833 condensation Methods 0.000 description 2
- 230000005494 condensation Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005309 stochastic process Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种人脸跟踪方法,用于在连续的视频图像序列中跟踪人脸位置。所述方法包括以下步骤:确定第一帧图像中的人脸位置;利用该第一帧图像,通过最大分类间隔准则确定特征子空间;从该第二帧图像起,依次读取视频序列中的图像;对于所读取的每一帧图像,利用上一帧图像中的人脸位置和该特征子空间,确定该当前帧图像中的人脸位置;以及,每隔预定数量的帧更新该特征子空间。本发明采用了最大分类间隔准则,从而增强了人脸特征提取的鲁棒性。同时本发明还采用增量学习方法来在线更新特征子空间,既提高了跟踪效果又满足了实时性要求。
Description
技术领域
本发明涉及人脸跟踪领域,特别是涉及一种在连续的视频图像序列中跟踪人脸位置的方法。
背景技术
人脸跟踪是指在连续的视频图像序列中跟踪一个或多个人脸。人脸跟踪在许多场合下都具有非常重要的应用,如智能视频监控、人机交互、出入控制等等。现有的人脸跟踪方法一般都是利用线性判别分析(LDA)来提取人脸特征,进而进行人脸跟踪。但是常用的线性判别分析会涉及到矩阵求逆的问题。然而,对于高维稀疏矩阵通常难于进行求逆运算,从而使得特征提取的鲁棒性差。当利用线性判别分析进行人脸跟踪时,容易受到人脸表情、姿态、光照等因素影响。
发明内容
本发明的目的在于提供一种鲁棒性好的人脸跟踪方法,以克服上面提到的一个或多个缺陷。
为实现上述目的,本发明提出了一种人脸跟踪方法,用于在连续的视频图像序列中跟踪人脸位置。该方法包括以下步骤:对第一帧图像进行人脸识别,以确定该第一帧图像中的人脸位置;从该第一帧图像中选取多个样本组成训练样本集,根据每个样本与该第一帧图像中人脸位置的距离远近对所述多个样本进行分类;利用该第一帧图像的训练样本集,通过最大分类间隔准则确定人脸图像的特征子空间;从该第二帧图像起,依次读取视频序列中的图像;对于所读取的每一帧图像,利用上一帧图像中的人脸位置和该特征子空间,确定该当前帧图像中的人脸位置;以及,每隔预定数量的帧,从新的图像帧中选取新样本补充到原有的训练样本集中以更新训练样本集,然后利用更新后的训练样本集来更新该特征子空间。
优选地,所述确定当前帧图像中的人脸位置的步骤包括:构造当前帧图像的人脸位置关于上一帧图像的人脸位置的概率分布模型;从所述概率分布模型中随机抽取多个粒子;在每个粒子处分别获取当前帧图像的人脸观测值;构造当前帧人脸观测值在当前帧图像中人脸位置处的似然分布模型;利用该概率分布模型和似然分布模型分别计算每个粒子的后验值;以及,选取后验值最大的粒子作为当前帧图像中的人脸位置。
该第一帧图像中的人脸位置利用Adaboost人脸监测器来确定。
优选地,所述确定特征子空间的步骤包括:从该第一帧图像中选取多个样本组成训练样本集;根据各样本与该第一帧图像中人脸位置的距离远近对其进行分类;计算该训练样本集的类内散度矩阵和类间散度矩阵;以及,利用计算得到的类内散度矩阵和类间散度矩阵来计算该特征子空间。
优选地,所述多个样本被分成正样本和负样本两类,其中位于已确定的人脸位置附近的为正样本,而距离该已确定的人脸位置较远的为负样本。
优选地,所述更新特征子空间的步骤通过增量学习法实现,包括:从当前帧图像中选取多个新样本,加入到该训练样本集中;根据各新样本与当前帧人脸位置的距离远近对所述新样本进行分类;利用原有样本中各类样本的类均值以及该新样本更新类间散度矩阵和类内散度矩阵;以及,利用该更新后的类间散度矩阵和类内散度矩阵来更新特征子空间。
所述更新类间散度矩阵和类内散度矩阵的步骤通过批量更新法实现,该批量更新法是一次利用所有的新样本来更新类间散度矩阵和类内散度矩阵。
可选地,所述更新类间散度矩阵和类内散度矩阵的步骤通过序列更新法实现,该序列更新法是每次利用一个新样本对类间散度矩阵和类内散度矩阵进行更新,并重复多次以完成最终的更新,其中,重复的次数与该新样本的数量相对应。
所述人脸位置用人脸的中心位置、宽度、高度以及旋转角度来表示。
本发明采用最大分类间隔准则提取人脸特征,避免了矩阵求逆运算,即使在数据稀疏的情况下也能正常进行特征提取处理,提高了特征提取的鲁棒性。同时,本发明还采用增量学习算法来在线更新表示人脸的特征子空间,进一步提高了算法的跟踪能力,同时运算量小,可以达到实时处理的要求。可以在光照变化,目标姿态改变以及发生部分遮挡的情况下也能够实时地跟踪目标。
下面结合附图和详细实施方式对本发明进行详细说明。
附图说明
图1示出了根据本发明一个实施例的人脸跟踪方法;
图2示出了获取特征子空间的步骤;
图3示出了基于CONDENSATION算法确定当前帧的人脸位置的步骤;
图4示出了利用增量学习法更新特征子空间的步骤。
具体实施方式
在下面的例子中,使用可旋转的矩形框 来表示第t帧图像中的人脸位置,其中,xt和yt分别表示人脸中心位置的横、纵坐标,sx t表示人脸的宽度,sy t表示人脸的高度,θt表示人脸的旋转角度。然而,应当清楚,根据本发明,人脸位置也可以使用更多或更少的特征量来表示。
图1示出了根据本发明的方法进行人脸跟踪的主要步骤。
首先,从视频图像序列中读取第一帧图像I1,并确定第一帧图像中的人脸位置X1(步骤S10)。该人脸位置X1又称为初始人脸位置。根据本发明的一个实施例,第一帧图像中的人脸位置可利用Adaboost人脸监测器来确定。
然后,基于最大分类间隔准则,从第一帧图像I1中选取多个样本构成训练样本集,并以此来确定样本的特征子空间W(步骤S20)。最大分类间隔准则由Li,H.等人于2003年提出(参见Li,Haifeng.,Jiang,Tao.and Zhang,Keshu.,Efficient and Robust Feature Extraction by Maximum Margin Criterion,InProceedings of the Advances in Neural Information Processing Systems 16,Vancouver,Canada,2004,MIT Press,2003:97-104.),其基本原理如下:
设有N个已知分类类别的训练样本(x1,c1),…,(xN,cN),共分为M类。其中,xi,i=1,2,…,N表示D维的样本数据;ci是xi的类别标签,ci∈{C1,C2,…,CM},Cc,c=1,2,…,M为样本的类别,第c类样本(即,类别标签为Cc的样本)的个数为Nc。这N个样本构成一个训练样本集。
最大分类间隔准则的表达式为:
J=tr(Sb-Sw) (1)
其中,Sb和Sw分别为训练样本集的类间散度矩阵和类内散度矩阵,它们可以通过下式求得:
其中,x表示全部N个样本的均值,
Nc表示第c类样本的个数,
xc表示第c类样本的均值(又称类均值),
样本的特征子空间W可以通过最大化下式来获得:
J(W)=tr(WT(Sb-Sw)W) (4)
一般情况下,特征子空间W为列正交矩阵,从而,式(4)可以转化为求解以下的约束最优化问题:
约束条件为 k=1,2,…,K,K为矩阵(Sb-Sw)的特征值个数。
经过推导,可以得到上述约束最优化问题的解:
(Sb-Sw)wk=λkwk,k=1,2,…,K (6)
其中,λk为矩阵(Sb-Sw)的特征值,wk是与特征值λk相对应的特征向量,特征子空间W由这些特征向量wk构成。
根据本发明的一个优选实施例,当特征子空间W由矩阵(Sb-Sw)最大的d个特征值所对应的特征向量构成时,即可以认为J(W)取到最大值。其中,d应满足以下条件:
其中,T为预先确定的阈值,根据实际情况可以取0.9~0.99之间的任意数值。
这时,式(6)可以转化为
(Sb-Sw)wk=λkwk,k=1,2,…,d (7)
这样,在得到了训练样本以及阈值T后,就可以通过式(7)计算出特征子空间W。需要注意的是,传统的线性判别分析(LDA)法通常是计算矩阵Sw -1Sb的特征值来提取人脸特征,因而需要计算矩阵Sw的逆矩阵Sw -1,从而,在数据稀疏的情况下,求逆运算使得LDA算法整体不够稳定。然而,对于本发明来说,利用式(7)计算矩阵(Sb-Sw)特征值即可提取人脸特征,从而不涉及矩阵的求逆运算,即使在数据稀疏的情况下也能正常有效地计算出特征子空间,提高了特征提取的鲁棒性。
如图2所示,根据本发明的一个实施例,特征子空间W可通过以下步骤获得:首先,从第一帧图像I1中选取多个图像块作为样本组成训练样本集(步骤S21);然后,根据每个样本与该第一帧图像中人脸位置的距离远近对该样本进行分类(步骤S22),优选地,样本被分为两类,其中位于初始人脸位置X1附近的图像块为正样本,而距离初始人脸位置X1较远的图像块为负样本;接下来,利用式(2)和式(3)分别计算类间散度矩阵Sb和类内散度矩阵Sw(步骤S23);最后,利用式(7)即可计算得到样本的特征子空间W(步骤S24)。在这里,在选取图像块作为样本时,图像块的宽度和高度分别与初始人脸位置X1中的宽度sx 1和高度sy 1相对应。
接下来,从该第二帧图像起,依次读取视频序列中的各帧图像(步骤S30)。由于是在连续的视频图像序列中对人脸位置进行跟踪,因而,在第一帧图像中的人脸位置X1和特征子空间W已经确定的情况下,之后每一帧图像中的人脸位置都可以用上一帧图像的人脸位置和特征子空间来确定(步骤S40)。在下面的说明中,用Xt和Xt-1分别表示当前帧和上一帧图像中的人脸位置。
根据本发明的一个优选实施例,人脸位置Xt可以基于CONDENSATION算法来确定,具体如图3所示。首先,构造当前帧图像的人脸位置Xt关于上一帧图像的人脸位置Xt-1的概率分布p(Xt|Xt-1)(步骤S41)。一般来说,人脸运动的动态过程具有马尔科夫性,并且其随机过程可以看作是高斯随机游走。如前所述, 从而概率分布模型p(Xt|Xt-1)可以表示为:
其中,函数N(·|μ,σ2)表示均值为μ,方差为σ2的高斯分布,例如,N(xt|xt-1,σx 2)表示xt的均值为xt-1且方差为σx 2的高斯分布。
之后,从概率分布p(Xt|Xt-1)中随机抽取多个粒子,例如n个粒子{Xt i}i=1 n,(步骤S42)。
接下来,对应于每个粒子Xt i处,分别从当前帧图像It中获取人脸观测值Zt i(步骤S43)。观测值Zt i可以用当前帧图像的像素灰度值来表示。具体来说,从图像It中对应于粒子Xt i的位置选取一图像块It i,该图像块的宽度和高度分别对应于粒子Xt i中的人脸宽度和高度;然后,将图像块It i的像素灰度矩阵中的所有列向量按顺序排成一列,从而展开得到一个列向量。该列向量即为在粒子Xt i处的人脸观测值Zt i。
接下来,构造人脸观测值Zt在当前帧人脸位置Xt处的似然分布模型p(Zt|Xt)(步骤S44):
p(Zt|Xt)∝exp(-α‖WTZt-WTZp||2) (9)
其中,α是一个正的常数,Zt表示对应于人脸位置Xt处的观测值,Zp表示所有正样本的观测值的平均;‖.‖表示L2范数。
接下来,对于每个粒子Xt i分别计算其后验值p(Xt i|Zt i,Xt-1)(步骤S45):
其中,const为与粒子Xt i无关的常量;
p(Xt i|Xt-1)为利用式(8)计算得到的粒子Xt i的概率值;
p(Zt i|Zt i)为利用式(9)计算得到的观测值Zt i在粒子Xt i处的观测似然值。
最后,选取后验值最大的那个粒子作为当前第t帧图像中的人脸位置Xt(步骤S46),从而实现对当前帧图像中人脸位置的定位。
当然,在获得了特征子空间W之后,还可以利用其他的多种方法来获取当前帧的人脸位置。
依此类推,继续读取下一帧图像It+1并重复步骤S40,从而可以对整个视频序列中的人脸位置进行跟踪。
随着视频序列中图像的不断到来,由于特征子空间中不包含新的图像数据信息,利用该特征子空间确定出的人脸位置的精度会逐渐降低。因而,在跟踪过程中需要不断地对特征子空间进行更新。如图1所示,更新特征子空间的步骤(步骤S50)可以在确定当前帧图像中的人脸位置之后进行。优选地,可以每隔预定数量的帧更新一次特征子空间,以提高系统的运算速度。该间隔帧数可以根据视频中每秒的帧数来确定,每秒的帧数越多,间隔帧数越大。
更新特征子空间通常需要从新的图像中选取新样本补充到原有的训练样本集中,然后利用更新后的训练样本集来进行特征子空间的更新。对特征子空间的更新可以利用最大分类间隔准则重新训练所有的样本(包括新样本和原来的样本)来实现。然而,当采用这种方法时,随着选取的样本越来越多,计算量也会越来越大,以至于系统将无法承受。在本发明的一个优选实施例中,采取了增量学习法来更新特征子空间。
图4示出了利用增量学习法更新特征子空间的步骤。首先,从当前帧图像中选取多个新样本,例如L个新样本{yi}i=1 L,并将它们加入到当前的训练样本集中(步骤S51),训练样本集中原有样本xi的数量为N。然后,对于每个新样本yi,根据其距离在前面步骤S40中检测出的当前帧人脸位置Xt的远近,对其进行分类(步骤S52),得到每个样本yi的类别标号li。然后,利用训练集中原有样本{xi}i=1 N的类均值{xc}c=1 M以及新样本{yi}i=1 L来更新原有的类间散度矩阵和类内散度矩阵(步骤S53)。
在这里,根据新增样本的个数L的不同,可以选择不同的更新计算方法。
如果新样本的数目L比较大,优选地,可以使用如下的批量更新方法。
更新后的类间散度矩阵记作S′b,满足:
其中,N′c为更新后的训练样本集中第c类样本的个数;
x′c为更新后的训练样本集中第c类样本的类均值;
x′为更新后的训练样本集中所有样本的均值。
具体来说,N′c=Nc+Lc;x′c=(Ncxc+Lcyc)/N′c,其中yc为第c类新样本的类均值,Lc是第c类新样本的个数;x′=(Nx+Ly)/(N+L),其中y为所有新样本的均值。
更新后的类内散度矩阵记作S′w满足:
其中,Dc是第c类新样本的类均值yc与第c类原有样本类均值xc的散度矩阵:
Dc=(yc-xc)(yc-xc)T
Fc是第c类新样本的类内散度矩阵:
如果新样本的数目L比较小,优选地,可以使用如下的序列更新方法。
序列更新方法是每次利用一个新样本来更新训练样本集的类间散度矩阵和类内散度矩阵;重复L次后,即可完成全部的更新工作。具体来说,对于一个新增样本yi,其类别为li,首先,计算更新后的训练样本集中所有样本的均值x′:
x′=(Nx+yi)/(N+1) (13)
接下来,按照式(11)计算更新后的类间散度矩阵S′b。
最后,计算更新后的类内散度矩阵S′w:
重复上述操作L次之后,即可获得更新后的类间散度矩阵S′b和类内散度矩阵S′w。
与通过式(2)和式(3)重新计算更新后的训练样本集的类间散度矩阵S′b和类内散度矩阵S′w相比,利用上面提到的两种增量计算方法计算S′b和S′w可以大幅度降低运算量,从而能实现对视频中人脸位置的实时跟踪。
当S′b和S′w确定后,就可以利用式(7)来重新确定特征向量继而更新特征子空间(步骤S54)。
应当指出,虽然通过上述实施方式对本发明进行了描述,然而本发明还可有其它多种实施方式。在不脱离本发明精神和范围的前提下,熟悉本领域的技术人员显然可以对本发明做出各种相应的改变和变形,但这些改变和变形都应当属于本发明所附权利要求及其等效物所保护的范围内。
Claims (7)
1.一种人脸跟踪方法,用于在连续的视频图像序列中跟踪人脸位置,其特征在于,包括以下步骤:
对第一帧图像进行人脸识别,以确定该第一帧图像中的人脸位置;
从该第一帧图像中选取多个样本组成训练样本集,根据每个样本与该第一帧图像中人脸位置的距离远近对所述多个样本进行分类;
利用该第一帧图像的训练样本集,通过最大分类间隔准则确定人脸图像的特征子空间;
从第二帧图像起,依次读取视频序列中的各帧图像;
对于所读取的每一帧图像,利用上一帧图像中的人脸位置和该特征子空间,确定当前帧图像中的人脸位置;以及
每隔预定数量的帧,从新的图像帧中选取新样本补充到原有的训练样本集中以更新训练样本集,然后利用更新后的训练样本集来更新该特征子空间。
2.根据权利要求1所述的方法,其特征在于,所述确定当前帧图像中的人脸位置的步骤包括:
构造当前帧图像的人脸位置关于上一帧图像的人脸位置的概率分布模型;
从所述概率分布模型中随机抽取多个粒子;
在每个粒子处分别获取当前帧图像的人脸观测值;
构造当前帧人脸观测值在当前帧图像中人脸位置处的似然分布模型;
利用该概率分布模型和似然分布模型分别计算每个粒子的后验值;以及
选取后验值最大的粒子作为当前帧图像中的人脸位置。
3.根据权利要求1所述的方法,其特征在于,该第一帧图像中的人脸位置利用Adaboost人脸监测器来确定。
4.根据权利要求1所述的方法,其特征在于,所述确定特征子空间的步骤包括:
计算该训练样本集的类内散度矩阵和类间散度矩阵;以及
利用计算得到的类内散度矩阵和类间散度矩阵来计算该特征子空间。
5.根据权利要求4所述的方法,其特征在于,所述多个样本被分成正样本和负样本两类,其中位于已确定的人脸位置附近的为正样本,而距离该已确定的人脸位置较远的为负样本。
6.根据权利要求1所述的方法,其特征在于,所述更新特征子空间的步骤通过增量学习法实现,包括:
从当前帧图像中选取多个新样本,加入到该训练样本集中;
根据各新样本与当前帧人脸位置的距离远近对所述新样本进行分类;
利用原有样本中各类样本的类均值以及该新样本更新类间散度矩阵和类内散度矩阵;以及
利用该更新后的类间散度矩阵和类内散度矩阵来更新特征子空间,
其中所述更新类间散度矩阵和类内散度矩阵的步骤通过批量更新法或者序列更新法来实现,所述批量更新法是一次利用所有的新样本来更新类间散度矩阵和类内散度矩阵;所述序列更新法是每次利用一个新样本对类间散度矩阵和类内散度矩阵进行更新,并重复多次以完成最终的更新,其中重复的次数与该新样本的数量相对应。
7.根据前述权利要求中任一项所述的方法,其特征在于,所述人脸位置用人脸的中心位置、宽度、高度以及旋转角度来表示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2007103036522A CN101221620B (zh) | 2007-12-20 | 2007-12-20 | 人脸跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2007103036522A CN101221620B (zh) | 2007-12-20 | 2007-12-20 | 人脸跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101221620A CN101221620A (zh) | 2008-07-16 |
CN101221620B true CN101221620B (zh) | 2011-04-06 |
Family
ID=39631445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2007103036522A Expired - Fee Related CN101221620B (zh) | 2007-12-20 | 2007-12-20 | 人脸跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101221620B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5441151B2 (ja) * | 2008-12-22 | 2014-03-12 | 九州日本電気ソフトウェア株式会社 | 顔画像追跡装置及び顔画像追跡方法並びにプログラム |
CN102096800B (zh) * | 2009-12-14 | 2014-11-19 | 北京中星微电子有限公司 | 一种图像信息获取方法及装置 |
WO2012071677A1 (en) * | 2010-11-29 | 2012-06-07 | Technicolor (China) Technology Co., Ltd. | Method and system for face recognition |
CN102697482B (zh) * | 2011-03-14 | 2016-01-20 | 西门子公司 | 使用自适应判别学习和测量融合的导管跟踪的方法和系统 |
US9014423B2 (en) | 2011-03-14 | 2015-04-21 | Siemens Aktiengesellschaft | Method and system for catheter tracking in fluoroscopic images using adaptive discriminant learning and measurement fusion |
US8639040B2 (en) * | 2011-08-10 | 2014-01-28 | Alcatel Lucent | Method and apparatus for comparing videos |
CN102592135B (zh) * | 2011-12-16 | 2013-12-18 | 温州大学 | 融合目标空间分布和时序分布特征子空间的视觉跟踪方法 |
CN102609682B (zh) * | 2012-01-13 | 2014-02-05 | 北京邮电大学 | 一种针对感兴趣区域的反馈式行人检测方法 |
CN103024349B (zh) * | 2012-11-13 | 2015-05-13 | 大连民族学院 | 一种基于稀疏限制的mle视频目标跟踪方法 |
CN102970510B (zh) * | 2012-11-23 | 2015-04-15 | 清华大学 | 人脸视频传输方法 |
CN103310466B (zh) * | 2013-06-28 | 2016-02-17 | 安科智慧城市技术(中国)有限公司 | 一种单目标跟踪方法及其实现装置 |
CN103605964A (zh) * | 2013-11-25 | 2014-02-26 | 上海骏聿数码科技有限公司 | 基于图像在线学习的人脸检测方法及系统 |
CN105426829B (zh) * | 2015-11-10 | 2018-11-16 | 深圳Tcl新技术有限公司 | 基于人脸图像的视频分类方法和装置 |
CN106326853B (zh) * | 2016-08-19 | 2020-05-15 | 厦门美图之家科技有限公司 | 一种人脸跟踪方法及装置 |
CN108717530B (zh) * | 2018-05-21 | 2021-06-25 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
TWI719591B (zh) | 2019-08-16 | 2021-02-21 | 緯創資通股份有限公司 | 物件追蹤方法及其電腦系統 |
CN110969101A (zh) * | 2019-11-21 | 2020-04-07 | 浙江工业大学 | 一种基于hog和特征描述子的人脸检测与跟踪方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1794264A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 视频序列中人脸的实时检测与持续跟踪的方法及系统 |
CN1959701A (zh) * | 2005-11-03 | 2007-05-09 | 中国科学院自动化研究所 | 实时的从视频中跟踪多个人脸的方法 |
-
2007
- 2007-12-20 CN CN2007103036522A patent/CN101221620B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1959701A (zh) * | 2005-11-03 | 2007-05-09 | 中国科学院自动化研究所 | 实时的从视频中跟踪多个人脸的方法 |
CN1794264A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 视频序列中人脸的实时检测与持续跟踪的方法及系统 |
Non-Patent Citations (2)
Title |
---|
郭志波 等.一类视频序列中的人脸检测与实时跟踪算法.计算机工程与应用43 28.2007,43(28),190-192,213. |
郭志波等.一类视频序列中的人脸检测与实时跟踪算法.计算机工程与应用43 28.2007,43(28),190-192,213. * |
Also Published As
Publication number | Publication date |
---|---|
CN101221620A (zh) | 2008-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101221620B (zh) | 人脸跟踪方法 | |
US10867167B2 (en) | Collaborative deep network model method for pedestrian detection | |
Elgammal et al. | Learning dynamics for exemplar-based gesture recognition | |
CN104574445B (zh) | 一种目标跟踪方法 | |
CN103366367B (zh) | 基于像素数聚类的模糊c-均值灰度图像分割方法 | |
CN111814584A (zh) | 基于多中心度量损失的多视角环境下车辆重识别方法 | |
CN106683073B (zh) | 一种车牌的检测方法及摄像机和服务器 | |
CN105488815A (zh) | 一种支持目标尺寸变化的实时对象跟踪方法 | |
CN102054170B (zh) | 基于极小化上界误差的视觉跟踪方法 | |
CN102147851A (zh) | 多角度特定物体判断设备及多角度特定物体判断方法 | |
Šegvić et al. | Exploiting temporal and spatial constraints in traffic sign detection from a moving vehicle | |
CN102663429A (zh) | 运动目标的运动模式分类和动作识别的方法 | |
CN112818755B (zh) | 一种基于主动学习的步态识别方法 | |
CN106055653A (zh) | 基于图像语义注释的视频浓缩对象检索方法 | |
CN103237197B (zh) | 用于鲁棒跟踪的自适应多特征融合的方法 | |
CN114549470B (zh) | 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法 | |
CN104616319A (zh) | 基于支持向量机的多特征选择目标跟踪方法 | |
CN105321188A (zh) | 基于前景概率的目标跟踪方法 | |
CN104778699A (zh) | 一种自适应对象特征的跟踪方法 | |
Liu et al. | Performance-enhancing network pruning for crowd counting | |
Gad et al. | Real-time lane instance segmentation using SegNet and image processing | |
CN115880529A (zh) | 基于注意力和解耦知识蒸馏的鸟类细粒度分类方法及系统 | |
US20220188345A1 (en) | Search apparatus, training apparatus, search method, training method, and program | |
CN108320301B (zh) | 一种基于跟踪学习检测的目标跟踪优化方法 | |
Bai et al. | A hierarchical face recognition method based on local binary pattern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110406 Termination date: 20111220 |