CN101482923B - 视频监控中人体目标的检测与性别识别方法 - Google Patents

视频监控中人体目标的检测与性别识别方法 Download PDF

Info

Publication number
CN101482923B
CN101482923B CN2009100136509A CN200910013650A CN101482923B CN 101482923 B CN101482923 B CN 101482923B CN 2009100136509 A CN2009100136509 A CN 2009100136509A CN 200910013650 A CN200910013650 A CN 200910013650A CN 101482923 B CN101482923 B CN 101482923B
Authority
CN
China
Prior art keywords
skin
human body
background
prospect
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009100136509A
Other languages
English (en)
Other versions
CN101482923A (zh
Inventor
刘云
王传旭
张祥光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao University of Science and Technology
Original Assignee
刘云
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 刘云 filed Critical 刘云
Priority to CN2009100136509A priority Critical patent/CN101482923B/zh
Publication of CN101482923A publication Critical patent/CN101482923A/zh
Application granted granted Critical
Publication of CN101482923B publication Critical patent/CN101482923B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种视频监控中人体目标的检测与性别识别方法,包括:a、根据采集到的图片数据库在HSV彩色空间建立前景皮肤和背景的直方图;b、利用贝叶斯分类器对输入视频的每个像素点进行前景和背景的判决,进而分割出其中的人体皮肤区域;c、利用人体肤色的生物特征在复合彩色空间(E,R/G,H)下对前景皮肤和背景进行再次分割,以消除背景中肤色相近色物体的干扰,获得准确的人体目标;d、根据获得的人体目标中的人脸图像利用模式识别方法进行性别识别。本发明将人的面部皮肤特征作为人体的主要标识,对存在于视频图像中的人体目标进行检测,从而克服了光照变化和背景相近色干扰所产生的不利影响,提高了目标性别的正确识别。

Description

视频监控中人体目标的检测与性别识别方法
技术领域
本发明属于图像信息处理技术领域,具体地说,是涉及一种在视频监控图像中对人脸进行自动检测并利用模式识别方法对检查到的人脸进行性别识别的技术。
背景技术
人脸是人类的重要生物特征,可以反映了一个人的身份、年龄、情感和性别等重要信息。而性别分类在心理学领域和机器视觉领域得到了广泛关注,早期的计算机视觉性别分类大都是基于神经网络的机器学习方法,包括Gollomb等的两层神经元网络SEXNET,在30×30的人脸图片上进行性别判别,在90张图片(男女各45张)中性别正确识别率达到91.9%;Edelman等用人脸的3个不同部分(整个人脸、人脸上半部分和下半部分)分别训练,采用线性神经元网络进行分类,并对3种情况的分类性能做了分析比较;Tamura等利用了与Gollomb相近的技术,采用多层神经网络对不同分辨率的人脸进行了分类分析,在8×8的超低分辨率下可以得到平均7%的错误率。以上基于神经网络的性别识别方法,需要的人脸训练样本数量比较大,且泛化能力差;另外,神经网络的训练速度比较慢,难以在视频监控中实时实现人脸的性别识别。近年,BabackMoghaddam和M.H.Yang首次将支持向量机方法引入性别判别领域,采用像素特征并与RBF网络、FLD、最邻近分类器等经典分类方法做了比较,用FERET人脸库做了分类实验,证明了支持向量机(SVM)分类的有效性。
但是,上述这些方法大都只能对静态人脸图像进行性别识别,而视频监控场景受到光照变化的影响以及背景相近色的干扰,因而对人脸的检测和性别的识别带来很大挑战。
发明内容
本发明针对现有人体目标检测方法中普遍存在的“光照变化”和“背景相近色干扰”两个棘手问题,提供了一种全新的人体目标检测方法,利用人的面部皮肤特征作为人体的主要标识,来对存在于视频图像中的人体目标进行检测,从而实现对人脸的可靠分割;进而针对获得的人脸图像进行性别分类,从而实现了在视频监控中人体目标的性别识别。
为解决上述技术问题,本发明采用以下技术方案予以实现:
一种视频监控中人体目标的检测与性别识别方法,包括以下步骤:
a、根据采集到的图片数据库在HSV彩色空间建立前景皮肤和背景的直方图;
b、利用贝叶斯分类器对输入视频的每个像素点进行前景和背景的判决,进而分割出其中的人体皮肤区域;
c、利用人体肤色的生物特征在复合彩色空间(E,R/G,H)下对前景皮肤和背景进行再次分割,以消除背景中肤色相近色物体的干扰,获得准确的人体目标;
d、根据获得的人体目标中的人脸图像利用模式识别方法进行性别识别。
其中,在所述步骤a中,当光照发生剧烈变化时,采用三维仿射变换对皮肤分布区域的帧间变化进行建模,通过三维仿射变换公式预测出当前帧中皮肤区域在HSV坐标系中的分布区域,进而统计出当前帧中前景皮肤和背景的直方图。
进一步的,所述三维仿射变换所需的8个参量采用线性组合预测模型进行预测;其中,所述线性组合预测模型采用对两个或者多个现有的预测模型进行线性组合的方法来构建。
优选的,所述线性组合预测模型采用维纳一步预测模型和二阶马尔科夫预测模型组成。
其中,在所述线性组合预测模型中,采用平方和误差为精度综合评价指标来确定所述维纳一步预测模型和二阶马尔科夫预测模型的最优组合权重,即加权系数,以构建出所述的线性组合预测模型。
又进一步的,在对前景皮肤直方图进行更新时,通过所述线性组合预测模型预测得到第t+1时刻输入帧的前景皮肤区域在HSV彩色空间分布的8个参数向量后,首先利用所述的三维仿射变换和直方图统计求出第t+1时刻输入帧的前景皮肤的预测直方图,然后利用t时刻前景皮肤的直方图和所述预测直方图的加权平均值,求出第t+1时刻输入帧的前景皮肤的直方图。
而对于背景直方图的更新,则采用过去两帧的背景直方图的加权平均得到当前帧的背景直方图分布。
再进一步的,在所述步骤c中,利用人体肤色中的红色分量占据主导位置的这一生物特性,在复合彩色空间(E,R/G,H)下建立空间模型,利用参数阈值:E>13.4224、R/G<1.7602、H<23.89对前景皮肤和背景进行再次分割,以消除背景中肤色相近色物体的干扰;其中,所述H分量来自(H,S,V)空间,表示色度;R/G是(R,G,B)空间中R和G分量的比值;E分量来自(Y,E,S)空间,表示色度,且E=0.5*(red-green)。
更进一步的,在所述步骤c和d之间还包括步骤c1:
c1、将经过再次分割后的图像输入形态学滤波器,进而利用邻域相关性特点将人脸修复成完整图像。
然后,将通过所述形态学滤波器产生的人脸图像进行尺度规范化,进而利用训练好的支持向量机对人脸图像的性别进行识别。
与现有技术相比,本发明的优点和积极效果是:本发明将人的面部皮肤特征作为人体的主要标识,对存在于视频图像中的人体目标进行检测,进而克服了光照变化和背景相近色干扰对人体识别所造成的不利影响,提高了在视频监控系统中人体目标的性别识别。
结合附图阅读本发明实施方式的详细描述后,本发明的其他特点和优点将变得更加清楚。
附图说明
图1是发明所提出的视频监控中人体目标的检测与性别识别方法的一种实施例的结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细地说明。
在连续的视频图像序列中,人体目标的运动情况是随机的,即有时运动有时静止,基于运动特征(如高斯混合模型方法、背景差分法等)分割人体目标的方法,当人体运动很缓慢或者静止的时候,就会变得无效。而皮肤颜色是人体表面最为显著的特征之一,不依赖于细节特征,具有较高的稳定性且与大多数背景物体的颜色相区别。因此,采用基于人体肤色特征的人体目标分割方法,即使在分割、预测和跟踪过程中光照变化较大时,这种方法也能对皮肤进行很可靠的分割。
本发明所提出的人体目标检测方法,其设计思路是:借助采集到的图片数据库在HSV彩色空间建立初始的前景皮肤和背景的直方图,进而求出各类概率值。在光照基本不发生变化时,利用Bayes分类器对输入视频的每个像素点进行前景和背景的判决,进而分割出其中的人体皮肤区域。当光照发生剧烈变化时,前景皮肤和背景的直方图分布会随之变化,因此,分割之前应该对当前帧的直方图分布进行重新估计。为保证光照变化条件下的分割精度,假设每帧肤色区域像素在HSV彩色空间的分布构成相对集中的“点云”三维几何体,光照变化时每帧“点云”三维几何体在HSV空间位置的变化都可以通过平移、缩放和旋转来参数化,因而可用三维仿射变换对皮肤分布区域的帧间变化进行建模(假设皮肤区域的变化是整体变化,不考虑局部的变形)。在一定长度的观察窗内,首先,采用维纳一步预测模型和二阶马尔科夫预测模型组成的线性组合预测模型来对三维仿射变换所需的8个参量进行预测;其次,通过三维仿射变换公式预测出当前帧中皮肤区域在HSV坐标系中的分布区域,进而可统计出当前帧中前景皮肤和背景的直方图分布。然后,再利用Bayes分类器对当前帧进行皮肤区域的分割,以保证光照变化时人体目标分割算法的鲁棒性;最后,为了克服复杂背景中的肤色相近色物体的干扰,利用人体肤色生物特征并结合形态学滤波器,可有效克服初分割结果中大片相近色的干扰,从而得到理想的人体目标。
在获得了准确的人体目标后,根据检测到的人脸图像利用模式识别方法便可以进行性别识别。
下面以一个具体的实施例来详细阐述所述视频监控中人体目标的检测与性别识别方法的具体实现过程。
实施例一,在本实施例中,利用视频监控系统获取连续的视频图像序列,以建立起图像数据库,进而调用如图1所示的人体目标检测与性别识别方法来获得待检测目标的性别。下面详细描述所述人体目标检测与性别识别方法的具体执行步骤。
第一步,在所述视频图像序列中读取一帧图像数据。在本实施例中,为了保证检测程序能够循环运行,这里定义为读取下一帧图像数据。
第二步,利用贝叶斯分类器进行肤色检测。
基于像素级的人体肤色贝叶斯分类检测原理,是根据当前帧的肤色区域与背景区域(非肤色区域)的颜色直方图分布,分别计算某一像素属于肤色区域和非肤色区域的条件概率来进行分类的。该统计分类器的关键是计算出当前待分割帧的肤色区域与背景区域的颜色分布直方图。
为了获得所述的颜色分布直方图,本实施例采用三维仿射变换对皮肤分布区域的帧间变化进行建模,以预测当前待分割帧的颜色直方图分布。
通过视频监控系统采集到的视频图像一般在RGB颜色空间,颜色分辨率为256×256×256。为了减少运算量,在保证精度的条件下,可以采用32×32×32颜色分辨率来计算直方图的分布。得到的结果显示:该分辨率在分割中不仅能保证分辨率的要求,而且还会降低运算量。另外,低维直方图的优势主要是需要较少的训练像素,倘若估计256×256×256的直方图,则需要多出512倍的训练数据。
统计每个直方图条中某一颜色(rgb)像素的数目以及前景皮肤和背景的像素的总数,可以计算得到各类概率密度,记为:p(fg)、p(bg)、P(rgb|fg)和P(rgb|bg)。其中,fg代表前景,bg代表背景,rgb为像素颜色,rgb∈R3。考查皮肤颜色分布的不同表现,可以推断出皮肤颜色分布的一些结构特点,即皮肤颜色在彩色空间分布很集中地占据一个紧凑的区域。近年来,在皮肤物理外观上的研究表明,皮肤反射区直接紧密地与光照相关,而且试验证明:当光照强度没有剧烈变化时,皮肤颜色分布变化是平滑的,每一帧皮肤颜色的分布在彩色空间中,都仅占某一小部分区域,因此,在背景光照变化的环境下,可以通过跟踪那一小部分区域的轨迹变化来表征相应的皮肤颜色变化。
为了模型化和预测这种变化,需要假设在彩色空间皮肤颜色的分布所经历的运动类型。这里假设肤色分布作为整体变化,即不能有任何局部的变形,这类似于假设全局的光照在图像的所有皮肤片上有均匀的表现。皮肤颜色的分布区域上HSV(hue、saturation、value,即色相、饱和度和亮度)参数随每帧时间间隔非线性平滑改变。为了进一步简化预测模型,限定该区域仅发生最重要的三种仿射转变:平移、旋转和缩放。
每帧皮肤区域各像素点的色彩坐标(h,s,v)在HSV彩色空间组成一个紧凑的三维几何体(离散的),相邻两帧皮肤区域的这种三维几何体的演变(由于光照变化和目标运动引起)可以借助仿射变换的旋转、平移、缩放过程来描述,该仿射变换需要8个参数X=[TH,TS,TV,SH,SS,SV,θ,φ]T来刻画,其中,Ti表示平移;Si表示旋转;θ,φ表示几何体旋转的角度。
为了获得所述三维仿射变换所需要的8个参数,通常采用的方法是通过选择一种现有的预测模型来对该仿射变换所需的8个参量进行预测。由于没有任何一种预测方法或预测模型会在各种情况下都比其他方法或模型表现得更好。因此,为了实时地估计和预测肤色分布状态,需要对其建立一个全新的预测模型。对复杂系统的预测仅仅应用一种预测方法,往往很难进行精确而可靠的预测。如果对同一预测问题采用各种不同的预测方法并加以适当的组合,则可以较充分地利用各种信息,达到提高预测精度的目的。因此,本实施例采用对现有的两个或者多个预测模型进行线性组合的方法来预测当前待预测帧的仿射变换所需要的8个参数。
本实施例以采用维纳(Weiner)一步预测模型和二阶马尔科夫(Markov)预测模型为例来组成线性组合预测模型,以预测下一帧的8个参数。为了达到更好的预测效果,基于平方和误差最小原理将这两种预测算法进行线性组合,以构造一种新的线性组合预测模型。
下面对维纳一步预测模型和二阶马尔科夫预测模型以及采用这两种预测模型所构造出的线性组合预测模型分别进行详细描述。
1、维纳一步预测模型
视频图像皮肤区域在HSV彩色空间随光照的帧间变化是符合布朗运动规则的,而布朗漫步运动可用稳态高斯过程描述。因此,本实施例选用维纳一步预测方法来预测当前待预测帧的仿射变换所需要的8个参数。将仿射变换中8维列向量Xn的任一分量表示为x(n),可通过维纳一步预测模型预测x(n)随光照的变化。维纳一步预测的原理是由过去p个观测数据x(n-1),x(n-2),...,x(n-p)的某种线性组合,来预测当前数据x(n),用公式表示为:
x ^ ( n ) = - Σ k - 1 p a pk x ( n - k ) - - - ( 1 )
如果令apk=-h(k),则 x ^ ( n ) = Σ k = 1 p h ( k ) x ( n - k ) = x ( n ) * h ( n ) . 由此可见,维纳一步预测器对应一个长度为p的FIR滤波器,其单位脉冲响应即为h(n)。
误差函数e(n)表达式为:
e ( n ) = x ( n ) - x ^ ( n ) = x ( n ) + Σ k = 1 p a pk x ( n - k ) = Σ k = 0 p a pk x ( n - k ) ap0=1            (2)
均方误差E[e2]为:
E [ e 2 ] = E [ x ( n ) - x ^ ( n ) ] 2 = E [ x ( n ) + Σ k = 1 p a pk x ( n - k ) ] 2 - - - ( 3 )
为求出使E[e2(n)]最小的{apk},k=1,2,…,p,将上式对各apk求偏导数,并令其等于0,得
∂ E [ e 2 ] ∂ a pl = 2 E [ e ∂ e ∂ a pl ] = 2 E [ ex ( n - l ) ] = 0 , l=1,2,…,p    (4)
整理可得:
Figure G2009100136509D00084
此式称为Yule-walker方程,它反映了相关函数与最佳单位脉冲响应之间的关系。
Yule-walker方程的解就是维纳预测器的系数,也就是FIR数字滤波器的单位脉冲响应h(n),此时维纳预测器的输出是信号的最佳一步预测。其中,Yule-walker方程可通过Levinson算法求解。
2、二阶Markov预测模型
记Xn为已知的第n帧的8维列向量X=[TH,TS,TV,SH,SS,SV,θ,φ]T,X为Xn的期望值,Xn+1为要预测的第n+1帧的8维列向量,A0、A1是8×8矩阵,B为8×1矩阵,ωn为随机部分。二阶马尔科夫预测模型用公式表示为:
Xn+1=A0Xn-1+A1Xn+(1-A0-A1)X+Bωn    (6)
二阶马尔科夫预测模型共有三个参数A0,A1和B。矩阵A0,A1表示帧间的相关性,决定了运动模型的确定部分;而B决定随机部分,随机部分通过标准高斯分布来模型化,它通过加权系数B加入到Xn+1中。所以,可将公式(6)变形为:
(Xn+1-A0Xn-1-A1Xn)~N(0,|B|2)。    (7)
采用MLE算法估计这些参数,并且在估计过程中并不直接求解B,而是估计C=BBT。在长度为m帧的观察窗内,前m-2帧用来估计参数A0、A1和B,第m-1和第m帧与要预测的第m+1帧相关性强,用来预测第m+1帧的8维参数向量Xm+1。前m-2帧的仿射变换参数向量(Xn+1-A0Xn-1-A1Xn)的联合概率密度函数为:
L ( X 1 , · · · , X n | A 0 , A 1 , B ) = - 1 2 Σ n = 1 m - 2 | B - 1 ( X n + 1 - A 0 X n - 1 - A 1 X n ) | 2 - ( m - 2 ) log | B | - - - ( 8 )
将上式分别对A0,A1求偏导,并令偏导为零,得出下面的等式:
Figure G2009100136509D00092
其中,
S ij = Σ n = 1 m - 2 X ( n - 1 ) + i X ( n - 1 ) + j T i,j=0,1,2
                    (10)
从而求出A0,A1
将公式(9)对B求偏导,令偏导为零,并将求出的A0,A1代入得:
Figure G2009100136509D00095
其中,
Z(A0,A1)=S22+A1S11A1 T+A0S00A0 T-S21A1 T
           -S20A0 T+A1S10A0 T-A1S12-A0S02+A0S01A1    (12)
如果将三维仿射变换的8个参数视为独立的变量,则估计动态模型的参数仅需要较少的观察帧(m)。本系统至少需要4帧,但是,帧数越多估计得越好。在本实施例中,优选取8到30帧效果较好。最后将前m-2帧估计得到的参数A0、A1、B和第m-1、m帧的两个向量Xm-1、Xm代入公式(6),即可计算出要预测的第m+1帧的8维参数向量Xm+1
3、线性组合预测模型
建立线性组合预测模型的一个重要步骤是对组合权重进行优化,其目的是通过选择组合权重向量,使线性组合预测模型的精度满足预测对象的要求。常见的预测模型精度综合评价指标有:平方和误差(SSE)、平均误差(MAE)、均方误差(MSE)、平均百分比误差(MAPE)、均方百分比误差(MSPE)等。本实施例从线性组合预测模型绝对误差序列出发,根据统计学思想对线性组合预测模型进行精度分析,以选择合适的组合权重。
用ft,i i=1,2表示组合中的t时刻第i个预测模型,则线性组合预测模型可以表示为ft=k1ft,1+k2ft,2,其误差为 e t = Σ i = 1 2 k i e t , i ; 其中,ki为第i种预测模型的组合权重。设t时刻第i个预测模型的预测绝对误差为et,i=ft,i-yt(i=1,2)。线性组合预测模型f的精度信息包含在绝对误差序列e1,e2中。
为使线性组合预测模型绝对误差序列分布为优化模型,本实施例以平方和误差(SSE)为精度综合评价指标,观察窗长度为N,即
SSE = 1 N Σ t = 1 N e t 2 = 1 N Σ t = 1 N [ Σ i = 1 2 k i e t , i ] 2 = 1 N Σ t = 1 N [ [ k 1 k 2 ] e t , 1 e t , 2 [ e t , 1 e t , 2 ] k 1 k 2 ]
= 1 N Σ t = 1 N [ [ k 1 k 2 ] e t , 1 2 e t , 1 e t , 2 e t , 1 e t , 2 e t , 2 2 k 1 k 2 ] = 1 N Σ t = 1 N [ [ k 1 k 2 ] A m k 1 k 2 ] = 1 N K T A m K - - - ( 13 )
满足平方和误差(SSE)的 K = k 1 k 2 即为线性组合预测模型的最优组合权重,即通过求解下式:
min ( SSE ) = 1 N min ( K T A m K )
st Σ i = 1 2 k i = 1 k i ≥ 0 i = 1,2 - - - ( 14 )
便可以得到 K = k 1 k 2 .
由于Am为对称正定矩阵,可进行Cholesky分解Am=BBT,其中,B为下三角矩阵,公式(13)可写为 min ( SSE ) = 1 N min ( K T B T BK ) = 1 N min ( | | BK | | 2 2 ) . 可见最优解K即为满足一定条件的方程BK=0的最小二乘解,即K∈B{1,4},B{1,4}表示B的广义{1,4}-逆。
根据以上的分析,如果对每帧的单项预测模型进行无偏性调整,并不影响组合权重向量的计算。为了叙述方便,用est_x_LPC表示维纳一步预测模型得到的预测信号,est_x_MLE表示二阶马尔可夫预测模型得到的预测信号。无偏性调整的过程可以用信号的值减去信号的均值,利用mean()表示求解信号均值的函数,则
e_LPC=x-est_x_LPC;
e_MLE=x-est_x_MLE;
f1=e_LPC-mean(e_LPC);
f2=e_MLE-mean(e_MLE)
显然,f1和f2代表无偏性调整后的误差。
根据式(14)研究如何求解组合权重向量。Rm为元素全为1的m维行向量,E可根据式(13)得到。具体到组合预测模型只用到了两种基本的预测模型,则
E = f 1 f 2 f 1 f 2
Rm=R2=(1     1)                        (15)
组合权值的计算表示为:
W0=(inv(E)*Rm′)/(Rm*inv(E)*Rm′);     (16)
其中,inv()返回一个矩阵的逆矩阵:
E-1=inv(E)    (17)
此时,已经求出了加权系数W0,线性组合预测模型的预测信号只需要由两种基本模型的预测信号线性加权求和即可得到:
est_x_LIN=W0(1)*est_x_LPC+W0(2)*est_x_MLE。                 (18)
第t+1时刻输入帧的前景皮肤区域在HSV彩色空间分布的8维参数向量Xn+1通过上述线性组合预测模型(18)预测得到后,利用三维仿射变换和直方图统计可求出该帧的预测直方图Prdct_Hh,s,v(t+1)。为考虑直方图的关联性,第t+1时刻输入帧分割的直方图应为当前帧和预测结果Prdct_Hh,s,v(t+1)的加权平均值:
Hh,s,v(t+1)=(1-afg)Hh,s,v(t)+afg·prdct_Hh,s,v(t+1)   (19)
afg在0到1之间取值,表示更新的速度。当afg=0说明无适应,afg=1说明直方图无记忆地全更新。严格来说,背景和皮肤颜色分布都要更新适应,但当摄像机固定不动或缓慢移动时,可以认为背景分布变化缓慢,因而认为背景分布的改变远小于前景分布的改变。这里只对前景颜色的变化预测,对背景直方图分布的更新是用过去两帧的背景直方图的加权平均得到:
Hh,s,v_bg(t+1)=(1-abg)Hh,s,v_bg(t-1)+abgHh,s,v_bg(t)  (20)
最佳更新常数的选择一般通过经验得到,通过实验表明:对于半适应的系统,取afg=0.2、afg=0.10效果最好。
在获得了当前待分割帧的直方图分布后,统计每个直方图条中某一颜色(rgb)像素的数目以及前景皮肤和背景的像素的总数,可以计算得到各类概率密度:p(fg)、p(bg)、P(rgb|fg)和P(rgb|bg),进而利用Bayes分类器对当前帧进行皮肤区域的分割。
下面具体阐述一下如何通过Bayes分类器来分割当前帧中的皮肤区域。
针对当前帧图像中任意一点像素的颜色rgb,通过上述颜色分布直方图得到的是条件概率P(rgb|fg)和P(rgb|bg),而在皮肤分割时更关心的是P(fg|rgb)和P(bg|rgb),利用贝叶斯公式得:
P ( fg | rgb ) = P ( rgb | fg ) · P ( fg ) P ( rgb | fg ) · P ( fg ) + P ( rgb | bg ) · P ( bg ) - - - ( 21 )
P ( bg | rgb ) = P ( rgb | bg ) · P ( bg ) P ( rgb | fg ) · P ( fg ) + P ( rgb | bg ) · P ( bg ) - - - ( 22 )
令P(fg|rgb)和P(bg|rgb)的比率称为分类界限K,是误分类的极限值,则
K < P ( fg | rgb ) P ( bg | rgb ) = P ( rgb | fg ) P ( fg ) P ( rgb | bg ) P ( bg ) - - - ( 23 )
计算得:
K &times; 1 - P ( fg ) P ( fg ) < P ( rgb | fg ) P ( rgb | bg ) - - - ( 24 )
其中,P(fg)是图像中任意像素可能为皮肤的概率。很明显,这个概率随图像不同而改变,但利用一个足够大的数据集就可得到一个最佳的概率。用整个图像数据库作为数据集,则P(fg)可以表示为:
P ( fg ) = N foreground N foreground + N background - - - ( 25 )
其中,Nforeground是前景直方图中像素的总数,Nbackground是背景直方图中像素的总数。在基于人脸的视频监控系统中,一般要求P(fg)不小于0.08。极限K的选择应使正确分类达到至少85%,并且错误警报少于25%,根据大量实验获得:极限取K=0.067。
上面所介绍的像素分类的结果是一个二进制的图像模板,当(24)式成立时,该像素位置判为1,与前景皮肤像素相对应;否则,判为0,与背景像素相对应。为了将噪声影响最小化,在二进制模板进入学习阶段前对其采用形态学滤波器进行滤波处理。
第三步,利用人体肤色的生物特性对图像进行再分割,并结合形态学滤波器消除相近色干扰,修复人脸图像。
在文献G.Gomez,M.Sanchez,and L.Enrique Sucar,“On Selectingan Appropriate Colour Space for Skin Detection”,”MICAI 2005,LNAI 2313,pp.69-78,2002.中,对Compaq数据库中12000个具有肤色和非肤色图像进行统计分析发现:人体肤色在彩色空间(R,G,B)中,具有更高成分的红色(Red)分量,尤其是R/G的比值更为突出,它明显地区别于非肤色区域。而且,该比值随光照不会发生明显的变化。文献中所揭示的图形数据显示肤色(R,G,B)分量之间的比值稳定在:1.1≤R/G≤3,1.0≤G/B≤1.3;而非肤色区域三个分量的比值关系一般为:0.8≤R/B≤12,0.8≤R/G≤1.4,0.5≤G/B≤1.7。可见,肤色区域的分布相对较集中,而非肤色区域的分布更广泛,具有更大的随机性。
通常情况下分割是在单独的肤色空间,如RGB,YCBCR,HSV等空间中,根据肤色聚类性设定合适的阈值来分割肤色。但是,单独在每个彩色空间下的分割都有其特定的局限性,上述在RGB空间虽然肤色与非肤色大致占据不同的区域,但它们仍有一部分重合,并且该空间对光照变化比较敏感。文献对常用的彩色空间HSV、YIQ、RGB-Y、YES、YUV、CMY、CIE、XYZ、GB等进行了分析比较后认为,没有一个空间能很好地将肤色和非肤色区域彻底分开,因而提出了一种组合彩色空间的概念,该三维空间的三个分量是互补的,它们的组合能够最大限度地将肤色和非肤色区域分开,即尽可能地减少两者的重叠区域,以便更好的分割肤色。
该文献提出的组合彩色空间为(E,R/G,H),其中,E分量来自彩色空间(Y,E,S);R/G是(R,G,B)空间中R和G分量的比值;H分量来自(H,S,V)空间。彩色空间(Y,E,S)各分量的含义如下:Y是亮度,E和S是色度空间,其中,E=0.5*(red-green);彩色空间(H,S,V)各分量的含义如下:分量H和S是色度,V是亮度。文献中给出了它们的取值范围,分别为:E>13.4224,R/G<1.7602,H<23.89。其中,E和R/G两个分量充分考虑了人体肤色中的红色分量占据主导位置的这一生物特性,两个分量联合起来表明:20+green<red<1.7602*green。文献后面对H分量的取值做了进一步调整:-17.4545<H<26.6666,这样得到的彩色空间对室内和室外采集到的图像进行实验,肤色分割识别率分别为97.95%和93.74%。
总之,该文献所提出的组合彩色空间(E,R/G,H)比常见的任何单独彩色空间相比,具有将肤色和非肤色分离的特性。因此,在上述贝叶斯初分割的基础上,本实施例采用该文献所提出的方法,利用人体肤色的生物特征在复合彩色空间(E,R/G,H)下进行再分割,即建立E,R/G,H空间模型,利用前面提到的给定的参数阈值:E>13.4224,R/G<1.7602,-17.4545<H<26.6666,来进一步消除背景中肤色相近色物体的干扰。
利用文献所提出的方法对图像进行再分割后,可有效克服初分割结果中大片相近色的干扰,但是同时也会将原本属于皮肤区域部分的一些像素当作背景去除掉,使输出的人脸图像产生空洞。基于此,本实施例将经过再次分割后产生的图像输入形态学滤波器,利用邻域相关性特点将人脸修复成完整图像,并去除掉预留的背景像素。
第四步,检测通过所述形态学滤波器输出的皮肤图像中是否有人脸,若没有,则返回第一步;否则,执行下一步。
第五步,人脸定位与性别识别。
在获得了人脸的数据信息后,可以通过目前的多种模式识别方法来实现对性别的分类,比如基于神经网络的机器学习方法、最邻近分类器或者支持向量机SVM等。在本实施例中,优选采用SVM对人脸进行性别识别。
SVM是建立在SLT的VC维理论和结构风险最小化原理的基础上,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度)和泛化能力(即无错误地识别任意样本的能力)之间寻找最佳折衷,以期获得最好的推广能力。SVM能够有效地避免经典学习方法中出现的过学习、欠学习以及陷入局部极小点等诸多问题。SVM将输入空间线性不可分问题,通过非线性变换转化为某个高维空间中的线性可分的问题,在高维的变换空间中寻找最优分类面,通过核函数巧妙的在输入空间实现高维空间中的内积运算实现分类,而且计算复杂度并没有增加,SVM是针对二分类问题的强分类器,而人脸性别分类问题是典型的二分类问题,因此,本实施例采用SVM作为性别判别器。
将检测到的人脸图像的尺寸进行规范化,定位出21×18的人脸图像,然后转变为每个向量的维数为378×1的向量。将这些特征向量送入训练好的支持向量机SVM,调用识别函数svm-predict,进而实现对人脸图像的性别测试。
所述识别函数svm-predict的输入为检测出的人脸区域经过插值下采样变为规格大小的人脸图像,即21×18的人脸图像,并将其展开为像素值的向量作为测试样本,即378×1的向量。此外,还需要将训练生成的支持向量机模型送入svm-predict函数。函数的输出为类别标号,如:+1代表男性,-1代表女性,此处的标号应当是与训练时规定的一致。对各种不同的视频图像进行人脸检测与性别识别,识别率比较如表1所示。
Figure G2009100136509D00161
表1
本发明的人体目标检测方法将人的面部皮肤特征作为人体的主要标识,对存在于视频图像中的人体目标进行检测,从而克服了光照变化和背景相近色干扰所产生的不利影响,实现了在视频监控系统中人体目标的准确检测以及性别的正确识别。当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的普通技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。

Claims (6)

1.一种视频监控中人体目标的检测与性别识别方法,包括以下步骤:
a、根据采集到的图片数据库在HSV彩色空间建立前景皮肤和背景的直方图;
b、利用贝叶斯分类器对输入视频的每个像素点进行前景和背景的判决,进而分割出其中的人体皮肤区域;
c、利用人体肤色的生物特征在复合彩色空间(E,R/G,H)下对前景皮肤和背景进行再次分割,以消除背景中肤色相近色物体的干扰,获得准确的人体目标;
d、根据获得的人体目标中的人脸图像利用模式识别方法进行性别识别;
其中,在所述步骤a中,当光照发生剧烈变化时,采用三维仿射变换对皮肤分布区域的帧间变化进行建模,通过三维仿射变换公式预测出当前帧中皮肤区域在HSV坐标系中的分布区域,进而统计出当前帧中前景皮肤和背景的直方图;所述三维仿射变换所需的8个参数X=[TH,TS,TV,SH,SS,SV,θ,φ]T采用线性组合预测模型进行预测;所述线性组合预测模型是采用基于平方和误差最小原理将维纳一步预测模型和二阶马尔科夫预测模型进行线性组合构建的;其中,Ti表示平移;Si表示旋转;θ,φ表示几何体旋转的角度。
2.根据权利要求1所述的视频监控中人体目标的检测与性别识别方法,其特征在于:通过所述线性组合预测模型预测得到第t+1时刻输入帧的前景皮肤区域在HSV彩色空间分布的8个参数后,首先利用所述的三维仿射变换和直方图统计求出第t+1时刻输入帧的前景皮肤的预测直方图,然后利用t时刻前景皮肤的直方图和所述预测直方图的加权平均值,求出第t+1时刻输入帧的前景皮肤的直方图。
3.根据权利要求1所述的视频监控中人体目标的检测与性别识别方法,其特征在于:采用过去两帧的背景直方图的加权平均得到当前帧的背景直方图分布。
4.根据权利要求1至3中任一项所述的视频监控中人体目标的检测与性别识别方法,其特征在于:在所述步骤c中,利用人体肤色中的红色分量占据主导位置的这一生物特性,在复合彩色空间(E,R/G,H)下建立空间模型,利用参数阈值:E>13.4224、R/G<1.7602、H<23.89对前景皮肤和背景进行再次分割,以消除背景中肤色相近色物体的干扰;其中,所述H分量来自(H,S,V)空间,表示色度;R/G是(R,G,B)空间中R和G分量的比值;E分量来自(Y,E,S)空间,表示色度,且E=0.5*(red-green)。
5.根据权利要求1至3中任一项所述的视频监控中人体目标的检测与性别识别方法,其特征在于:在所述步骤c和d之间还包括步骤c1:
c1、将经过再次分割后的图像输入形态学滤波器,进而利用邻域相关性特点将人脸修复成完整图像。
6.根据权利要求5所述的视频监控中人体目标的检测与性别识别方法,其特征在于:将通过所述形态学滤波器产生的人脸图像进行尺度规范化,然后利用训练好的支持向量机对人脸图像的性别进行识别。
CN2009100136509A 2009-01-19 2009-01-19 视频监控中人体目标的检测与性别识别方法 Expired - Fee Related CN101482923B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100136509A CN101482923B (zh) 2009-01-19 2009-01-19 视频监控中人体目标的检测与性别识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100136509A CN101482923B (zh) 2009-01-19 2009-01-19 视频监控中人体目标的检测与性别识别方法

Publications (2)

Publication Number Publication Date
CN101482923A CN101482923A (zh) 2009-07-15
CN101482923B true CN101482923B (zh) 2012-05-23

Family

ID=40880023

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100136509A Expired - Fee Related CN101482923B (zh) 2009-01-19 2009-01-19 视频监控中人体目标的检测与性别识别方法

Country Status (1)

Country Link
CN (1) CN101482923B (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2587451A4 (en) * 2010-06-23 2015-04-08 Univ Osaka DEVICE FOR DETECTING MOVING OBJECTS
CN102521594A (zh) * 2011-12-06 2012-06-27 康佳集团股份有限公司 一种目标精确提取的方法及其系统
US8565486B2 (en) * 2012-01-05 2013-10-22 Gentex Corporation Bayesian classifier system using a non-linear probability function and method thereof
CN102902986A (zh) * 2012-06-13 2013-01-30 上海汇纳网络信息科技有限公司 自动性别识别系统及方法
CN102903120A (zh) * 2012-07-19 2013-01-30 中国人民解放军国防科学技术大学 基于时空条件信息的运动目标检测方法
CN102800077B (zh) * 2012-07-20 2014-08-20 西安电子科技大学 贝叶斯非局部均值图像修复方法
CN103679116B (zh) * 2012-09-03 2016-10-12 云汉芯城(上海)互联网科技股份有限公司 检测场景内目标数量的方法及装置
CN102938054B (zh) * 2012-09-06 2015-07-01 北京工业大学 基于视觉注意模型的压缩域敏感图像识别方法
CN103116763B (zh) * 2013-01-30 2016-01-20 宁波大学 一种基于hsv颜色空间统计特征的活体人脸检测方法
CN103971111B (zh) * 2013-02-04 2018-07-06 联想(北京)有限公司 图像处理方法以及终端设备
CN104392223B (zh) * 2014-12-05 2017-07-11 青岛科技大学 二维视频图像中的人体姿态识别方法
EP3689557A1 (en) * 2016-05-20 2020-08-05 Google LLC Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment
KR101980603B1 (ko) 2016-05-20 2019-05-22 구글 엘엘씨 오브젝트(들)를 캡처하는 이미지(들)에 기초하는 그리고 환경에서의 미래 로봇 움직임에 대한 파라미터(들)에 기초하여 로봇 환경에서의 오브젝트(들)의 모션(들)을 예측하는 것과 관련된 머신 학습 방법들 및 장치
CN106402457A (zh) * 2016-10-31 2017-02-15 广西大学 一种适用于女厕的水龙头
CN106845440B (zh) * 2017-02-13 2020-04-10 山东万腾电子科技有限公司 一种增强现实图像处理方法及系统
CN107633252B (zh) * 2017-09-19 2020-04-21 广州市百果园信息技术有限公司 肤色检测方法、装置及存储介质
CN108460811B (zh) * 2018-03-09 2022-05-06 珠海方图智能科技有限公司 面部图像处理方法、装置及计算机设备
CN109034100B (zh) * 2018-08-13 2021-03-26 成都云盯科技有限公司 人脸图样检测方法、装置、设备及存储介质
CN109190692B (zh) * 2018-08-21 2021-11-23 北京师范大学 基于生物大脑认知和抉择机理的运动物体识别方法及系统
CN110188754B (zh) 2019-05-29 2021-07-13 腾讯科技(深圳)有限公司 图像分割方法和装置、模型训练方法和装置
CN110427868A (zh) * 2019-07-30 2019-11-08 上海工程技术大学 一种行人重识别中的特征提取方法
CN110414461A (zh) * 2019-08-02 2019-11-05 湖南德雅坤创科技有限公司 一种人体目标检测方法、装置和计算机可读存储介质
CN111175480A (zh) * 2020-01-13 2020-05-19 北京奇云诺德信息科技有限公司 一种血液生化指标计算性别和年龄的方法
CN113326400B (zh) * 2021-06-29 2024-01-12 合肥高维数据技术有限公司 基于深度伪造视频检测的模型的评价方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1300804A2 (en) * 2001-10-05 2003-04-09 Lg Electronics Inc. Face detecting method by skin color recognition
US6678407B1 (en) * 1998-03-31 2004-01-13 Nec Corporation Method and device of light source discrimination, skin color correction, and color image correction, and storage medium thereof capable of being read by computer
CN1700238A (zh) * 2005-06-23 2005-11-23 复旦大学 在彩色数字图像和视频中分割出人体皮肤区域的方法
CN101251890A (zh) * 2008-03-13 2008-08-27 西安交通大学 基于多色域选择性形态学处理的视频图像肤色检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6678407B1 (en) * 1998-03-31 2004-01-13 Nec Corporation Method and device of light source discrimination, skin color correction, and color image correction, and storage medium thereof capable of being read by computer
EP1300804A2 (en) * 2001-10-05 2003-04-09 Lg Electronics Inc. Face detecting method by skin color recognition
CN1700238A (zh) * 2005-06-23 2005-11-23 复旦大学 在彩色数字图像和视频中分割出人体皮肤区域的方法
CN101251890A (zh) * 2008-03-13 2008-08-27 西安交通大学 基于多色域选择性形态学处理的视频图像肤色检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
G.Gomez,etc..On selecting an Appropriate Colour Space for Skin Detection.Lecture Notes in Computer Science.Springer Berlin,2002,2313第69-78页. *
王传旭.视频图像中人体目标的检测方法研究.中国博士学位论文全文数据库.中国海洋大学,2008,第59、66页. *

Also Published As

Publication number Publication date
CN101482923A (zh) 2009-07-15

Similar Documents

Publication Publication Date Title
CN101482923B (zh) 视频监控中人体目标的检测与性别识别方法
CN110111340B (zh) 基于多路割的弱监督实例分割方法
CN108304798B (zh) 基于深度学习及运动一致性的街面秩序事件视频检测方法
US20230289979A1 (en) A method for video moving object detection based on relative statistical characteristics of image pixels
Smith et al. Tracking the visual focus of attention for a varying number of wandering people
Gowsikhaa et al. Suspicious Human Activity Detection from Surveillance Videos.
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
CN107767405A (zh) 一种融合卷积神经网络的核相关滤波目标跟踪方法
CN108447078A (zh) 基于视觉显著性的干扰感知跟踪算法
CN101971190A (zh) 实时身体分割系统
CN110298297A (zh) 火焰识别方法和装置
Subudhi et al. Statistical feature bag based background subtraction for local change detection
CN113344475B (zh) 基于序列模态分解的变压器套管缺陷识别方法及系统
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN112434566B (zh) 客流统计方法、装置、电子设备及存储介质
Liu et al. Smoke-detection framework for high-definition video using fused spatial-and frequency-domain features
Huang et al. Soft-margin mixture of regressions
CN113435432B (zh) 视频异常检测模型训练方法、视频异常检测方法和装置
Wang et al. Background extraction based on joint gaussian conditional random fields
Qin et al. A robust framework combined saliency detection and image recognition for garbage classification
Hsiao et al. Background initialization and foreground segmentation for bootstrapping video sequences
García-González et al. Background subtraction by probabilistic modeling of patch features learned by deep autoencoders
CN113297972A (zh) 一种基于数据融合深度学习的变电站设备缺陷智能分析方法
CN111353343A (zh) 一种基于视频监控的营业厅服务规范质检方法
Sahoo et al. Adaptive feature fusion and spatio-temporal background modeling in KDE framework for object detection and shadow removal

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: QINGDAO UNIVERSITY OF SCIENCE + TECHNOLOGY

Free format text: FORMER OWNER: LIU YUN

Effective date: 20121224

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20121224

Address after: 266061 Shandong Province, Qingdao city Laoshan District Songling Road No. 99, Qingdao University of Science & Technology

Patentee after: Qingdao University of Science & Technology

Address before: No. 506, P.O. Box 69, Qingdao University of Science & Technology 266061 Shandong high tech Zone in Qingdao City, Chung Ling Road

Patentee before: Liu Yun

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120523

Termination date: 20130119

CF01 Termination of patent right due to non-payment of annual fee