CN102737235B - 基于深度信息和彩色图像的头部姿势估计方法 - Google Patents

基于深度信息和彩色图像的头部姿势估计方法 Download PDF

Info

Publication number
CN102737235B
CN102737235B CN201210224426.6A CN201210224426A CN102737235B CN 102737235 B CN102737235 B CN 102737235B CN 201210224426 A CN201210224426 A CN 201210224426A CN 102737235 B CN102737235 B CN 102737235B
Authority
CN
China
Prior art keywords
mrow
head
image
msub
slice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210224426.6A
Other languages
English (en)
Other versions
CN102737235A (zh
Inventor
谭铁牛
孙哲南
唐云祁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Zhongke Hongxing Technology Co ltd
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201210224426.6A priority Critical patent/CN102737235B/zh
Publication of CN102737235A publication Critical patent/CN102737235A/zh
Application granted granted Critical
Publication of CN102737235B publication Critical patent/CN102737235B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度信息和彩色图像的头部姿势估计方法,该方法首先在深度信息灰度图中使用直方图投影方法快速定位头部位置;然后在彩色图像中使用肤色检测算法去除头部区域肤色之外的头发噪声和衣服噪声;再利用摄像机成像原理归一化头部区域分辨率,并对深度信息灰度图做均衡化处理;最后对所得归一化深度图像提取切片子区域几何向量集来描述头部姿势的变化规律。本发明利用了深度信息灰度图和彩色图像的特性、人脸的几何特性尤其是人脸关于鼻尖的对称性,设计了一种新颖的头部姿势描述特征码,并使用随机森林回归器来估计头部姿势,具有实时性好、精度高、鲁棒性高和可靠性高的优点,可广泛应用于人脸识别和人机交互等应用场景。

Description

基于深度信息和彩色图像的头部姿势估计方法
技术领域
本发明涉及数字图像处理、模式识别和统计学习等技术领域,特别是一种基于深度信息和彩色图像的头部姿势估计方法。
背景技术
二十世纪50年代以来,计算机技术的出现极大地改变了人类生产生活的方式。与此同时,人类的日益增长的需求也推动着计算机技术的飞速发展。随着社会的进步,基于键盘和鼠标这种传统输入方式的计算机技术已经满足不了人们生活的需要,人们呼吁一种基于视觉的智能交互技术,这种技术能让机器掌握人的姿势或动作进而理解人的意图。智能交互领域的重要研究课题之一——头部姿势估计,在人脸识别、视点跟踪和辅助驾驶等方向上有着广泛的应用。
关于头部姿势估计的传统方法大多基于二维灰度或彩色图像。谭铁牛等(CN1601549)融合了人脸的形状、肤色、纹理、运动等信息使用机器学习的方法得到人脸的位置和姿态参数。Y·胡等(CN1573660)通过检测面部关键点包括左右眼中心、左右嘴角、鼻尖等5个关键点,采用由粗到精的方法来确定用户的头部姿势信息。谢东海等(CN1866271)使用主动形状模型ASM检测定位人脸器官,进而估计出人脸的姿态。赵清杰等(CN101889928A)把人脸划分为7个状态:无头势、右侧、左侧、半右侧、半左侧、仰头、低头,通过鼻尖信息来判断脸部所处状态,进而控制轮椅的运动。这些方法在一定程度上满足了实时应用需求,具有独特价值,但是这类方法的精度不够高并且受光照和噪声的影响较大,有待进一步改善。
相对于上述方法,基于深度信息的头部姿势估计方法具有天然的优越性。第一,深度图中的像素值具有明确的物理意义,它可以度量空间中一点到摄像机的距离信息。第二,基于深度信息的图像处理方法可以快速精确地从场景中分割出感兴趣的区域。第三,该类方法受光照变化的影响较小。这类方法可实时地、较为准确地估计出变化幅度较大的头部姿势。例如,文献M.D.Breitenstein,D.Kuettel,T.Weise,L.Van Gool,H.Pfister,Real-time face pose estimation from single range images,IEEE Conference onComputer Vision and Pattern Recognition,2008,提出了一种基于单幅深度信息图的实时头部姿势估计系统,该系统在10度误差范围内估计精度可达80.8%,但是它需要GPU的辅助,应用有限。文献G.Fanelli,J.Gall,L.Van Gool,Real Time Head Pose Estimation with Random RegressionForests,IEEE Conference on Computer Vision and Pattern Recognition,2011,也提出了一种基于单幅深度信息图的实时头部姿势估计系统,它利用随机森林的快速高效性也可满足实时应用需求,10度误差范围内的估计精度可达90.4%,可较为精确地估计出头部姿势,但是估计精度还有很大的改进空间。
近年来,随着深度传感技术Light coding的出现深度摄像机的制作成本大大降低。基于此技术,2010年底微软推出一款名为“Kinect”的游戏传感器,可实时地获取场景的深度信息和彩色图像,并以大众消费品价格出售。Kinect的出现为头部姿势方法提供了新的发展平台。本发明设计一种基于Kinect的头部姿势估计方法,该方法利用Kinect所获取的深度图像和彩色图像的特性,实时、精确地完成头部姿势估计。基于深度图像的特性简单快速地把目标从背景中分割出来并定位到头部区域;基于彩色图像的特性实时地除去头部区域的头发噪声和服饰噪声。同时,本方法还设计了一种新颖、鲁棒的头部姿势描述子——切片子区域几何向量,它以头部深度图像的物理属性为基础,利用人脸关于鼻尖的对称特性,可准确地表达头部姿势的变化规律,具备精度高、鲁棒性高的优点。
发明内容
本发明的目的是提供一种基于深度信息和彩色图像相结合的头部姿势估计方法,即利用头部的深度信息和彩色图像来实时地估计头部姿势。
本发明提出的一种基于深度信息和彩色图像的头部姿势估计方法,其特征在于,该方法包括以下步骤:
步骤S1,建立头部姿势训练图像库,该训练图像库中的每一训练样本均包括一一对应的深度信息灰度图和彩色图像;
步骤S2,基于深度信息灰度图对其中的头部位置进行粗定位,得到粗定位的头部图像;
步骤S3,基于与所述深度信息灰度图对应的彩色图像对所述步骤S2得到的粗定位的头部图像进行噪声去除;
步骤S4,对去噪后的头部图像中的头部分辨率和深度信息灰度图像素值进行归一化处理;
步骤S5,对于归一化后的头部深度信息灰度图,提取其切片子区域三维质心向量集A;
步骤S6,对于归一化后的头部深度信息灰度图,提取其切片子区域几何向量集B;
步骤S7,基于所述步骤S5提取出的切片子区域三维质心向量集A、所述步骤S6提取出的切片子区域几何向量集B,使用训练图像库中的训练图像数据训练随机森林回归器,得到随机森林回归器模型;
步骤S8,采集需要进行头部姿势估计的一一对应的深度信息灰度图和彩色图像,并利用所述步骤S2-S5提取出待估计图像的切片子区域三维质心向量集A;
步骤S9,基于所述待估计图像的切片子区域三维质心向量集A,使用所述步骤S7中训练得到的随机森林回归器模型初步估计待估计图像中的头部姿势;
步骤S10,根据初步估计出的头部姿势检测鼻尖的位置,并根据检测得到的鼻尖的位置,利用所述步骤S6提取出待估计图像的切片子区域几何向量集B;
步骤S11,基于所述步骤S10得到的待估计图像的切片子区域几何向量集B,使用所述步骤S7中训练得到的随机森林回归器模型精确估计待估计图像中的头部姿势。
本发明方法对于人脸识别、人机交互等领域的发展具有重要意义,其主要优点如下:
1.本发明充分利用了深度信息和彩色图像的特性,深度信息灰度图用于头部定位分割与特征提取,彩色图像用于噪声去除,具有实时性好的特性。
2.本发明基于人脸的几何对称特性,设计的切片子区域几何向量集能很好地描述头部姿势的变化规律,对噪声有很好的抑制作用,具有良好的鲁棒性和较高的估计精度。
3.本发明使用随机森林回归器来估计头部姿势,具有训练速度快、泛化性能好、回归结果稳定等优点。
4.本发明所使用的特征简单有效,对硬件没有特殊要求,而且不涉及复杂的计算,易于使用。
综上所述,在不依赖任何特殊硬件的情况下,本发明可实时、准确地估计出头部姿势,这使得多姿态人脸识别、视点估计成为可能。一方面,基于本发明的多姿态人脸识别技术可极大提高人脸识别的识别精度,因此本发明可广泛应用于使用人脸进行身份认证或者识别的系统中。另一方面,基于本发明的人机交互技术能保证机器实时地掌握人的视点情况进而理解人的意图,因此本发明也能广泛应用于人机交互的场景中。
附图说明
图1为本发明基于深度信息和彩色图像的头部姿势估计方法流程图;
图2为训练图像库中来自不同性别的深度信息灰度图及彩色图像;
图3为基于直方图投影的头部定位算法示意图;
图4为头部图像中头发噪声和服饰噪声的示意图;
图5为头部图像噪声去除和归一化结果的示意图;
图6为头部二维深度图像的三维模型及头部切片示意图;
图7为切片子区域几何向量示意图;
图8为头部姿势参数模型;
图9为鼻子形状随头部姿势变化示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
深度图像(深度信息灰度图)和彩色图像是数字空间对物理世界的两种映像,它们各具特性,各具应用优势。深度信息灰度图是对物理世界的距离映像,其像素值表示空间物体表面某一点到摄像机的距离信息,受光照变化影响较小,可用于快速检测分割目标物体、设计鲁棒头部姿势特征;彩色图像是物理世界色彩空间的真实反映,往往含有丰富的纹理色彩信息,可用于区分人脸、头发和服饰区域。基于此,本发明提出一种基于深度信息和彩色图像的头部姿势估计方法。本方法基于Kinect所采集的深度信息及彩色图像实现深度信息快速预处理,然后基于归一化的深度图设计一种精确、鲁棒的头部姿势描述子并使用机器学习的方法估计头部姿势。
图1为本发明基于深度信息和彩色图像的头部姿势估计方法流程图,如图1所示,本发明提出的基于深度信息和彩色图像的头部姿势估计方法主要包括离线学习和在线估计两个模块:离线学习模块主要完成离线状态下对随机森林回归器的学习训练,包括建立头部姿势训练图像库S1、头部粗定位(S2)、噪声去除(S3)、深度信息归一化(S4)、提取切片子区域几何向量集A(S5)、提取切片子区域几何向量集B(S6)和训练随机森林回归器(S7)七个部分;在线估计模块主要完成在线状态下使用训练所得的回归器估计头部姿势,包括深度信息和彩色图像的采集(S8)、头部粗定位(S2)、噪声去除(S3)、深度信息归一化(S4)、提取切片子区域几何向量集A(S5)、提取切片子区域几何向量集B(S6)、使用随机森林回归器初步估计头部姿势(S9)、鼻尖检测(S10)和使用随机森林回归器精确估计头部姿势(S11)九个部分。其中,头部粗定位(S2)、噪声去除(S3)、深度信息归一化(S4)、提取切片子区域几何向量集A(S5)、提取切片子区域几何向量集B(S6)为这两个模块的公共部分。本发明所述方法的基本原理是:首先,利用基于机器学习的方法训练一个随机森林回归器;然后使用训练所得的回归器实时地估计所采集图像的头部姿势。
具体来说,本发明提出的基于深度信息和彩色图像的头部姿势估计方法包括以下几个步骤:
步骤S1,建立头部姿势训练图像库,该训练图像库中的每一训练样本均包括一一对应的深度信息灰度图和彩色图像;
鉴于本方法是基于有监督学习的,需要逐一标定训练样本图像的头部姿势。为了保证本发明方法的泛化性能,训练库中的头部图像应具有多样性,它们采自不同种族、不同性别以及不同发型的人。本发明使用文献Fanelli,G.,Weise,T.,Gall,J.,Gool,L.V.:Real time head pose estimation fromconsumer depth cameras.The33rd Annual Symposium of the GermanAssociation for Pattern Recognition,2011,所发布的数据库作为训练图像库。图2(a)和(b)示出了训练图像库中来自不同性别的深度信息灰度图和彩色图像。
步骤S2,基于深度信息灰度图对其中的头部位置进行粗定位,得到粗定位的头部图像;
头部粗定位是离线学习模块和在线估计模块的公有部分,主要是基于深度信息灰度图来粗定位头部位置。在头部姿态变化较大的情况下,基于彩色图像的头部检测算法很难准确、快速地检测定位到头部位置,本发明利用深度信息灰度图的深度信息特性提出的一种头部定位算法可简单快速实现头部定位,其原理示意图如图3所示。
该头部定位算法进一步包括以下几个步骤:
步骤S21,首先,使用阈值法把目标人从深度信息灰度图背景中分割出来;
深度信息灰度图中,像素值大于T的所有像素点被视为背景,像素值小于等于T的所有像素点即为目标,因此,把深度信息灰度图中背景像素点的像素值置为最大深度值便可简单地把目标分割出来,如图3(a)所示。
步骤S22,然后分别计算分割出的目标人区域沿水平方向和垂直方向的投影直方图Histo_h和Histo_v,分别如图3(c)、(b)所示;
步骤S23,基于投影直方图Histo_h和Histo_v计算分割出的目标人区域中最高点G的坐标(Gx,Gy),具体计算方法如下:
G x = arg max x ( Histo _ h ( x ) )
G y = arg min y ( Histo _ v ( y ) ) , s . t . Histo _ v ( y ) > 0
即,Gx为使得Histo_h(x)最大时对应x的值,Gy为使得Histo_v(y)最小并满足Histo_v(y)大于0时对应y的值。
步骤S24,确定G点的坐标后,将以G点为顶边中心、以w为宽、以h为高的长方形区域R作为粗定位的头部图像,其中,w∈[140,160],h∈[100,120]。
步骤S3,基于与所述深度信息灰度图对应的彩色图像对所述步骤S2得到的粗定位的头部图像进行噪声去除;
在头部图像中,头发和服饰是主要的噪声来源。深度信息灰度图中的像素值表示空间中一点到摄像机的距离信息,因此利用深度信息灰度图可方便地把目标人从背景中分离出来,但很难检测出目标头部的头发和服饰噪声;相反,彩色图像含有丰富的彩色纹理信息,利用彩色图像可容易地检测出头部图像中的头发和服饰噪声。
图4中的头部图像为步骤S2中头部粗定位的结果,其中,(a)和(c)为粗定位后的头部深度信息图,与之相对应的彩色图像为(b)和(d)。本发明使用肤色检测算法来去除头部图像中的头发和服饰噪声。噪声去除结果如图5(a)(b)(d)(e)所示。所述肤色检测算法为现有技术中通用的检测方法,这里不再赘述。
步骤S4,对去噪后的头部图像中的头部分辨率和深度信息灰度图像素值进行归一化处理;
所述步骤S4主要完成两个任务:头部分辨率归一化和深度信息灰度图像素值分布归一化。
步骤S41,头部分辨率归一化;
根据摄像机成像原理,头部分辨率的大小与成像距离成反比,成像距离越大,所成像的分辨率越小;成像距离越小,所成像的分辨率越大。因此通过归一化成像距离便可归一化头部分辨率,具体包括以下几个步骤:
步骤S411,首先,计算头部图像中脸部区域的平均深度值adv(averagedepth value):
adv = 1 n Σ i = 1 n P i
其中,n表示脸部区域中像素点的个数,Pi表示第i个像素点的深度值。
步骤S412,然后,计算图像缩放因子sf(scale factor):
sf = adv 800
步骤S413,最后,使用缩放因子sf对头部深度图像进行归一化处理。
步骤S42,深度信息灰度图像素值分布归一化;
去除噪声后的深度信息灰度图的像素值分布往往是不均衡的,如图5(a)(d)所示,图5(b)(e)为其相应彩色图像。本发明采用如下步骤来对去除噪声后的深度信息灰度图的像素值做均衡化处理:
步骤S421,首先,计算深度信息灰度图的直方图H;
步骤S422,然后,分别计算归一化阈值low和high:
low = arg max &nu; ( &Sigma; i = 0 &nu; H [ i ] ) , s . t . &Sigma; i = 0 v H [ i ] < 0.05 * &Sigma; i = 0 255 H [ i ]
high = arg max &nu; ( &Sigma; i = &nu; 255 &nu; H [ i ] ) , s . t . &Sigma; i = &nu; 255 H [ i ] < 0.05 * &Sigma; i = 0 255 H [ i ]
其中,v为0到255的正整数。
步骤S423,最后,使用归一化阈值low和high的值对深度信息灰度图进行归一化处理:
Figure GDA0000446183830000083
其中,为归一化之后的深度信息灰度图像素值,Pi为归一化之前的深度信息灰度图像素值。
图5(c)(f)所示为根据所述步骤S4归一化后的深度信息灰度图。
步骤S5,对于归一化后的头部深度信息灰度图,提取其切片子区域三维质心向量集A;
该步骤中,提取出的切片子区域几何向量集A作为后续训练和实时估计时所需的特征。
对于一幅二维深度图像,其像素值P的变化规律可描述为像素点坐标(x,y)的函数P=F(x,y)。若x,y连续,则P=F(x,y)是三维空间上的一个曲面。因此一幅二维深度图像可视为如图6(a)(b)所示的三维空间上的点集,其中,XOY为图像成像平面,Z轴对应像素点的深度信息值,对于深度信息灰度图,Z∈[0,255]。以垂直于Z轴的两个平面P1和P2对上述三维头部模型做截取操作如图6(b)所示,处于两个平面间的像素点的集合定义为头部的一个切片,其正向视图如图6(c)所示,对于深度图像I,其切片可表示为:
Sω(I)={(x,y)|1≤P(x,y)≤1+d}
其中,Sω(I)表示深度图像I的一个切片,ω=(1,d)表示切片参数,1为下灰度阈值(对应图6(b)中平面P1沿Z轴的坐标值),d为两切面间的距离,1+d为上灰度阈值(对应图6(b)中平面P2沿Z轴的坐标值),P(x,y)为像素点(x,y)的灰度值。
沿横向(或者环向)和纵向(或者径向)把头部的一个切片s分别分成m、n等份,如图7(a)所示,可得m*n个子区域,图7(a)的左侧视图如图7(b)所示,切片s中第i*j个子区域的三维质心定义如下:
Centoid ( s , i , j ) = ( x , y , z ) = ( &Sigma; ( x k , y k ) &Element; s ( i , j ) x k N ( s , i , j ) , &Sigma; ( x k , y k ) &Element; s ( i , j ) y k N ( s , i , j ) , &Sigma; ( x k , y k ) &Element; s ( i , j ) P ( x k , y k ) N ( s , i , j ) )
其中,Centoid(s,i,j)表示切片s中第i*j个子区域的三维质心,s(i,j)表示切片的第i*j个子区域,(xk,yk)表示子区域中的像素点坐标,P(xk,yk)表示像素点(xk,yk)的深度值,N(s,i,j)为切片s中第i*j个子区域像素点的个数。
所有切片子区域的三维质心所组成的向量便是本步骤所要提取的特征A。
步骤S6,对于归一化后的头部深度信息灰度图,提取其切片子区域几何向量集B;
由子区域三维质心和鼻尖决定的三维几何向量CCS(s,i,j)可定义为:
CCS(s,i,j)=(Δx,Δy,Δz)
Δx=nx-Centoid(s,i,j)|x,
Δy=ny-Centoid(s,i,j)|y
Δz=P(nx,ny)-Centoid(s,i,j)|z
其中,(nx,ny)为鼻尖所在位置的坐标(离线学习模块中,鼻尖的位置由手工标定所得;在线估计模块中,鼻尖的位置由鼻尖检测算法所得),Centoid(s,i,j)|x表示切片子区域质心坐标的x分量,Centoid(s,i,j)|y表示切片子区域质心坐标的y分量,Centoid(s,i,j)|z表示切片子区域质心坐标的z分量,P(nx,ny)表示像素点(nx,ny)的深度值。
则切片s生成的切片子区域几何向量集可形式化表达如下:
CCS(s)={CCS(s,i,j)|1≤i≤m,1≤j≤n}
其中,m为切片s沿横向(或者环向)的等份数,n为切片s沿纵向(或者径向)的等份数。
切片s的个数由参数1和d决定,1和d的取值范围分别为:1∈[0,255],d∈[0,255-1],因此每一幅深度图像最多可产生
Figure GDA0000446183830000101
个切片。本发明中,1取值为0到255的等差数列,公差为10;d取值为[1,255]的等差数列,公差为10。
头部深度图像切片子区域几何向量集B由其所有切片所生成的切片子区域几何向量集共同组成。
步骤S7,基于所述步骤S5提取出的切片子区域三维质心向量集A、所述步骤S6提取出的切片子区域几何向量集B,使用训练图像库中的训练图像数据训练随机森林回归器,得到随机森林回归器模型;
如图8所示,头部姿势可用一个自由度为3的向量(α,β,γ)进行表达,因此头部姿势估计问题可视为由切片子区域三维质心向量集特征和切片子区域几何向量集特征到(α,β,γ)的回归问题,α,β,γ为头部姿势的三个参数,其中,α表示绕y轴的旋转角度,β表示绕z轴的旋转角度,γ表示绕x轴的旋转角度。本发明使用随机森林来完成头部姿势参数的回归。
构建训练随机森林回归器的基本思想是通过自助法(boor-strap)重采样技术,不断生成训练样本用于训练生成多个决策树进而组成随机森林。本发明采用传统随机森林的训练方法,其具体训练方法为现有技术,此处不再赘述,本发明中所使用树的数目为30。
步骤S8,采集需要进行头部姿势估计的一一对应的深度信息灰度图和彩色图像,并利用所述步骤S2-S5提取出待估计图像的切片子区域三维质心向量集A;
该步骤中,使用微软发布的体感游戏传感器Kinect来采集一一对应的深度信息灰度图及彩色图像。采集到的深度信息灰度图的深度值进一步归一化到0到255范围内。
步骤S9,基于所述待估计图像的切片子区域三维质心向量集A,使用所述步骤S7中训练得到的随机森林回归器模型初步估计待估计图像中的头部姿势;
将提取到的特征A—待估计图像的切片子区域三维质心向量集输入到所述步骤S7中训练得到随机森林回归器模型,便可得到待估计图像中初步估计得到的头部姿势。
步骤S10,根据初步估计出的头部姿势检测鼻尖的位置,并根据检测得到的鼻尖的位置,利用所述步骤S6提取出待估计图像的切片子区域几何向量集B;
随着头部姿势的变化,图像中鼻子形状变化显著,如图9所示,因此大范围姿势变化情况下的鼻子检测是计算机视觉领域的一个难题。但是当头部姿势在小范围内(如20度以内)变化时,鼻子形状基本上保持不变,基于此现象本发明使用分而治之的思想来检测鼻尖位置。
所述步骤S10进一步包括以下步骤:
步骤S101,采集各种头部姿势下的鼻子图像作为模板;
步骤S102,利用步骤S9所得的头部姿势参数,使用与其参数最接近的姿势下的鼻子模板,采用模板匹配的方法来检测鼻尖的位置。模板匹配算法是计算机视觉领域里的一种传统经典算法,这里不再复述。
步骤S11,基于所述步骤S10得到的待估计图像的切片子区域几何向量集B,使用所述步骤S7中训练得到的随机森林回归器模型精确估计待估计图像中的头部姿势。
将提取到的特征B—待估计图像的切片子区域几何向量集输入到所述步骤S7中训练得到随机森林回归器模型,便可得到待估计图像中头部姿势的精确估计。
应用案例1:基于深度信息和彩色图像的头部姿势估计方法在远距离多模态生物特征识别通关系统中的应用。
本发明可广泛应用于远距离多模态生物特征识别通关系统中。随着生物特征识别技术的出现,基于生物识别技术的自动通关系统孕育而生。作为生物特征识别的重要方向之一,人脸识别和虹膜识别技术已经有了比较成熟的发展,然而它们需要用户的高度配合才能顺利完成识别任务。当通过用户不知道怎么配合或者不愿配合时,通关系统的吞吐量将会受到影响。基于深度信息的头部姿势估计方法在远距离多模态生物特征识别通关系统能主动实时地掌握通关用户的头部状态,调度或调整摄像头去适应人的状态以抓取一幅可用于识别的人脸或者虹膜图像。假设合法通关用户张三在通关过程中始终看向其左前方某人或者某物,通关系统利用本发明方法估计出该用户的头部姿势后便可调度位于张三左前方的摄像头来获取张三的生物特征图像。这样无论通关用户看向其前方的任意一个方向,通关系统都能保证用户顺利通关。
应用案例2:基于深度信息和彩色图像的头部姿势估计方法在安全监控场景中的应用。
本发明提出的基于深度信息和彩色图像的头部姿势估计方法可以应用于安全监控系统中。在安全监控场景中,系统能对场景中出现的非法人员进行实时地监控并能及时报警。例如:某区域只有合法工作人员才能正常出入。张三是间谍,想要盗取该区域里的机密。当张三进入该区域时,系统就能自动捕获张三在各个姿态下的人脸和虹膜图像,经匹配发现张三不是合法工作人员,马上发出警报通知警卫将其绳之以法。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于深度信息和彩色图像的头部姿势估计方法,其特征在于,该方法包括以下步骤:
步骤S1,建立头部姿势训练图像库,该训练图像库中的每一训练样本均包括一一对应的深度信息灰度图和彩色图像;
步骤S2,基于深度信息灰度图对其中的头部位置进行粗定位,得到粗定位的头部图像;
步骤S3,基于与所述深度信息灰度图对应的彩色图像对所述步骤S2得到的粗定位的头部图像进行噪声去除;
步骤S4,对去噪后的头部图像中的头部分辨率和深度信息灰度图像素值进行归一化处理;
步骤S5,对于归一化后的头部深度信息灰度图,提取其切片子区域三维质心向量集A;
步骤S6,对于归一化后的头部深度信息灰度图,提取其切片子区域几何向量集B;
步骤S7,基于所述步骤S5提取出的切片子区域三维质心向量集A、所述步骤S6提取出的切片子区域几何向量集B,使用训练图像库中的训练图像数据训练随机森林回归器,得到随机森林回归器模型;
步骤S8,采集需要进行头部姿势估计的一一对应的深度信息灰度图和彩色图像,并利用所述步骤S2-S5提取出待估计图像的切片子区域三维质心向量集A;
步骤S9,基于所述待估计图像的切片子区域三维质心向量集A,使用所述步骤S7中训练得到的随机森林回归器模型初步估计待估计图像中的头部姿势;
步骤S10,根据初步估计出的头部姿势检测鼻尖的位置,并根据检测得到的鼻尖的位置,利用所述步骤S6提取出待估计图像的切片子区域几何向量集B;
步骤S11,基于所述步骤S10得到的待估计图像的切片子区域几何向量集B,使用所述步骤S7中训练得到的随机森林回归器模型精确估计待估计图像中的头部姿势;
所述切片子区域三维质心向量集A为所述头部深度信息灰度图多个切片的子区域的三维质心所组成的向量,所述切片子区域三维质心向量集A的建立包括以下步骤:
步骤S51,以垂直于一个轴Z的两个平面P1和P2对所述头部深度信息灰度图I构成的三维头部模型做截取操作,得到处于两个平面间的像素点的集合:
Sω(I)={(x,y)|1≤P(x,y)≤1+d}
其中,Sω(I)称为头部深度信息灰度图I的一个切片;ω=(1,d)表示切片参数;1为下灰度阈值,即平面P1沿Z轴的坐标值;d为两切面间的距离,1+d为上灰度阈值,即平面P2沿Z轴的坐标值;P(x,y)为像素点(x,y)的灰度值;
步骤S52,将一个切片s沿横向和纵向或者沿环向和径向分别分成m、n等份,得到m*n个子区域;
步骤S53,所述切片s中第i*j个子区域的三维质心为:
Centoid ( s , i , j ) = ( x , y , z ) = ( &Sigma; ( x k , y k ) &Element; s ( i , j ) x k N ( s , i , j ) , &Sigma; ( x k , y k ) &Element; s ( i , j ) y k N ( s , i , j ) , &Sigma; ( x k , y k ) &Element; s ( i , j ) P ( x k , y k ) N ( s , i , j ) )
其中,Centoid(s,i,j)表示切片s中第i*j个子区域的三维质心,s(i,j)表示切片s的第i*j个子区域,(xk,yk)表示子区域中的像素点坐标,P(xk,yk)表示像素点(xk,yk)的深度值,N(s,i,j)为切片s中第i*j个子区域像素点的个数;
步骤S54,将所有切片子区域的三维质心组成所述切片子区域三维质心向量集A;
所述切片子区域几何向量集B由多个切片的切片子区域几何向量集共同组成,所述切片子区域几何向量集B的建立包括以下步骤:
步骤S61,计算每个子区域的三维质心和鼻尖决定的三维几何向量CCS(s,i,j):
CCS(s,i,j)=(Δx,Δy,Δz),
Δx=nx-Centoid(s,i,j)|x,
Δy=ny-Centoid(s,i,j)|y
Δz=P(nx,ny)-Centoid(s,i,j)|z
其中,(nx,ny)为鼻尖所在位置的坐标,Centoid(s,i,j)|x表示切片子区域质心坐标的x分量,Centoid(s,i,j)|y表示切片子区域质心坐标的y分量,Centoid(s,i,j)|z表示切片子区域质心坐标的z分量,P(nx,ny)表示像素点(nx,ny)的深度值;
步骤S62,根据所述每个子区域的三维几何向量CCS(s,i,j)得到切片s的切片子区域几何向量集CCS(s):
CCS(s)={CCS(s,i,j)|1≤i≤m,1≤j≤n};
步骤S63,由所有切片的切片子区域几何向量集CCS(s)共同组成所述切片子区域几何向量集B。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2中对头部位置进行粗定位的步骤进一步包括以下几个步骤:
步骤S21,使用阈值法把目标人从深度信息灰度图背景中分割出来;
步骤S22,分别计算分割出的目标人区域沿水平方向和垂直方向的投影直方图Histo_h和Histo_v;
步骤S23,基于投影直方图Histo_h和Histo_v计算分割出的目标人区域中最高点G的坐标;
步骤S24,将以G点为顶边中心、以w为宽、以h为高的长方形区域R作为粗定位的头部图像,w∈[140,160],h∈[100,120]。
3.根据权利要求2所述的方法,其特征在于,所述步骤S21进一步为:将深度信息灰度图中像素值大于T的所有像素点视为背景,像素值小于等于T的所有像素点视为目标,将深度信息灰度图中背景像素点的像素值置为最大深度值即可将目标分割出来。
4.根据权利要求2所述的方法,其特征在于,所述步骤S23中,最高点G的坐标(Gx,Gy)按照下式计算:
G x = arg max x ( Histo _ h ( x ) )
Gy=argminy(Histo_v(y)),s.t.Histo_v(y)>0,
其中,Gx为使得Histo_h(x)最大时对应x的值,Gy为使得Histo_v(y)最小并满足Histo_v(y)大于0时对应y的值。
5.根据权利要求1所述的方法,其特征在于,所述步骤S4中对去噪后的头部图像中的头部分辨率进行归一化处理的步骤进一步包括以下几个步骤:
步骤S411,计算头部图像中脸部区域的平均深度值adv:
adv = 1 n &Sigma; i = 1 n P i
其中,n表示脸部区域中像素点的个数,Pi表示第i个像素点的深度值;
步骤S412,计算图像缩放因子sf:
sf = adv 800
步骤S413,使用缩放因子sf对头部分辨率进行归一化处理。
6.根据权利要求1所述的方法,其特征在于,所述步骤S4中对去噪后的头部图像中的深度信息灰度图像素值进行归一化处理的步骤进一步包括以下几个步骤:
步骤S421,计算深度信息灰度图的直方图H;
步骤S422,分别计算归一化阈值low和high:
low = arg max &nu; ( &Sigma; i = 0 &nu; H [ i ] ) , s . t . &Sigma; i = 0 v H [ i ] < 0.05 * &Sigma; i = 0 255 H [ i ]
high = arg max &nu; ( &Sigma; i = &nu; 255 &nu; H [ i ] ) , s . t . &Sigma; i = &nu; 255 H [ i ] < 0.05 * &Sigma; i = 0 255 H [ i ]
其中,v为0到255的正整数;
步骤S423,使用计算出来的归一化阈值low和high对深度信息灰度图进行归一化处理:
Figure FDA0000446183820000051
其中,
Figure FDA0000446183820000052
为归一化之后的深度信息灰度图像素值,Pi为归一化之前的深度信息灰度图像素值。
7.根据权利要求1所述的方法,其特征在于,所述步骤S8进一步包括将采集到的深度信息灰度图的深度值归一化到0到255范围内。
8.根据权利要求1所述的方法,其特征在于,所述步骤S10进一步包括以下步骤:
步骤S101,采集各种头部姿势下的鼻子图像作为模板;
步骤S102,利用所述步骤S9得到的头部姿势参数,使用与其参数最接近的姿势下的鼻子模板,采用模板匹配的方法来检测鼻尖的位置。
CN201210224426.6A 2012-06-28 2012-06-28 基于深度信息和彩色图像的头部姿势估计方法 Active CN102737235B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210224426.6A CN102737235B (zh) 2012-06-28 2012-06-28 基于深度信息和彩色图像的头部姿势估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210224426.6A CN102737235B (zh) 2012-06-28 2012-06-28 基于深度信息和彩色图像的头部姿势估计方法

Publications (2)

Publication Number Publication Date
CN102737235A CN102737235A (zh) 2012-10-17
CN102737235B true CN102737235B (zh) 2014-05-07

Family

ID=46992704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210224426.6A Active CN102737235B (zh) 2012-06-28 2012-06-28 基于深度信息和彩色图像的头部姿势估计方法

Country Status (1)

Country Link
CN (1) CN102737235B (zh)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102968222A (zh) * 2012-11-07 2013-03-13 电子科技大学 一种基于深度摄像机的多点触摸设备
CN103971112B (zh) * 2013-02-05 2018-12-07 腾讯科技(深圳)有限公司 图像特征提取方法及装置
CN104182742B (zh) * 2013-05-20 2018-03-13 比亚迪股份有限公司 头部姿态识别方法及系统
GB2515343B (en) * 2013-06-21 2018-02-07 Toshiba Res Europe Limited Methods and systems for generating a three dimensional representation of a subject
CN103489219B (zh) * 2013-09-18 2017-02-01 华南理工大学 基于深度图像分析的3d发型效果仿真系统
CN103530651A (zh) * 2013-10-22 2014-01-22 东南大学 一种基于标记分布的头部姿态估计方法
CN103644894B (zh) * 2013-12-10 2016-03-09 大连交通大学 一种复杂曲面目标识别及三维位姿测量的方法
CN104598915B (zh) * 2014-01-24 2017-08-11 深圳奥比中光科技有限公司 一种手势识别方法与装置
CN103745218B (zh) * 2014-01-26 2017-02-15 清华大学 一种深度图像中的姿势识别方法及装置
CN103824089B (zh) * 2014-02-17 2017-05-03 北京旷视科技有限公司 一种基于级联回归的人脸3d姿态识别方法
CN103971116A (zh) * 2014-04-24 2014-08-06 西北工业大学 基于Kinect的感兴趣区域检测方法
CN103971380B (zh) * 2014-05-05 2016-09-28 中国民航大学 基于rgb-d的行人尾随检测方法
CN104517289B (zh) * 2014-12-12 2017-08-08 浙江大学 一种基于混合摄像机的室内场景定位方法
US9792521B2 (en) * 2014-12-26 2017-10-17 Here Global B.V. Extracting feature geometries for localization of a device
US9519061B2 (en) * 2014-12-26 2016-12-13 Here Global B.V. Geometric fingerprinting for localization of a device
CN104952221B (zh) * 2015-07-09 2017-06-13 深圳大学 智能防近视台灯
CN105260732A (zh) * 2015-11-26 2016-01-20 小米科技有限责任公司 图片处理方法及装置
CZ2015919A3 (cs) * 2015-12-18 2017-09-13 Vysoké Učení Technické V Brně Způsob kontroly barvy oděvu a/nebo pokrývky hlavy osoby
CN105740688B (zh) * 2016-02-01 2021-04-09 腾讯科技(深圳)有限公司 解锁的方法和装置
CN106547356B (zh) * 2016-11-17 2020-09-11 科大讯飞股份有限公司 智能交互方法和装置
US10373369B2 (en) 2017-03-16 2019-08-06 Qualcomm Technologies, Inc. Three-dimensional pose estimation of symmetrical objects
CN107145865B (zh) * 2017-05-08 2020-03-27 浙江立地信息科技有限公司 一种人脸身份认证系统
CN109033920B (zh) * 2017-06-08 2021-10-08 株式会社理光 一种可抓取目标的识别方法、装置及计算机可读存储介质
CN107808128B (zh) * 2017-10-16 2021-04-02 深圳市云之梦科技有限公司 一种虚拟形象重建人体五官测量的方法及系统
CN108154176B (zh) * 2017-12-22 2021-11-05 北京工业大学 一种针对单一深度图像的3d人体姿态估计算法
CN108345869B (zh) * 2018-03-09 2022-04-08 南京理工大学 基于深度图像和虚拟数据的驾驶人姿态识别方法
CN108960302B (zh) * 2018-06-20 2021-06-04 同济大学 一种基于随机森林的头部姿态估计方法
CN111160292B (zh) * 2019-12-31 2023-09-22 上海易维视科技有限公司 人眼检测方法
CN111160291B (zh) * 2019-12-31 2023-10-31 上海易维视科技有限公司 基于深度信息与cnn的人眼检测方法
CN113989349B (zh) * 2021-10-25 2022-11-25 北京百度网讯科技有限公司 图像生成方法、图像处理模型的训练方法、图像处理方法
CN116704587B (zh) * 2023-08-02 2023-10-20 山东建筑大学 融合纹理信息和深度信息的多人头部姿态估计方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1573660A (zh) * 2003-05-30 2005-02-02 微软公司 头部姿势估算方法和系统
CN1601549A (zh) * 2003-09-26 2005-03-30 中国科学院自动化研究所 基于多特征融合的人脸定位与头部姿势识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201025191A (en) * 2008-12-31 2010-07-01 Altek Corp Method of building skin color model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1573660A (zh) * 2003-05-30 2005-02-02 微软公司 头部姿势估算方法和系统
CN1601549A (zh) * 2003-09-26 2005-03-30 中国科学院自动化研究所 基于多特征融合的人脸定位与头部姿势识别方法

Also Published As

Publication number Publication date
CN102737235A (zh) 2012-10-17

Similar Documents

Publication Publication Date Title
CN102737235B (zh) 基于深度信息和彩色图像的头部姿势估计方法
CN105574518B (zh) 人脸活体检测的方法和装置
TWI383325B (zh) 臉部表情辨識
JP3962803B2 (ja) 頭部検出装置、頭部検出方法および頭部検出プログラム
WO2017219391A1 (zh) 一种基于三维数据的人脸识别系统
Soltany et al. Fast and accurate pupil positioning algorithm using circular Hough transform and gray projection
Sohail et al. Detection of facial feature points using anthropometric face model
Boutellaa et al. On the use of Kinect depth data for identity, gender and ethnicity classification from facial images
Sarode et al. Facial expression recognition
JP2013186546A (ja) 人物検索システム
CN110796101A (zh) 一种嵌入式平台的人脸识别方法及系统
Nguyen et al. Fingertip detection with morphology and geometric calculation
Chaudhary et al. A vision-based method to find fingertips in a closed hand
Mohamed et al. A new method for face recognition using variance estimation and feature extraction
Xu et al. MultiView-based hand posture recognition method based on point cloud
Nguyen et al. Finger extraction from scene with grayscale morphology and BLOB analysis
Peng et al. Binocular dance pose recognition and body orientation estimation via multilinear analysis
Tang et al. Face pose estimation based on integral slice features of single depth images
Poursaberi et al. Modified multiscale vesselness filter for facial feature detection
Dutta et al. Expression and occlusion invariant 3D face recognition based on region classifier
Vankayalapati et al. Extraction of facial features for the real-time human gender classification
Pears et al. Isoradius contours: New representations and techniques for 3D face registration and matching
Batista Locating facial features using an anthropometric face model for determining the gaze of faces in image sequences
Spyridonos et al. Multi-threshold lip contour detection
JP2008165578A (ja) 動体の動作表現方法および動作認識方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20181108

Address after: 300457 Tianjin city Tianjin economic and Technological Development Zone Second Avenue 57 TEDA MSD-G1 block 1005 unit

Patentee after: TIANJIN ZHONGKE HONGXING TECHNOLOGY CO.,LTD.

Address before: 100190 Zhongguancun East Road, Haidian District, Haidian District, Beijing

Patentee before: Institute of Automation, Chinese Academy of Sciences

TR01 Transfer of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Head pose estimation method based on depth information and color images

Effective date of registration: 20220822

Granted publication date: 20140507

Pledgee: Zhongguancun Technology Leasing Co.,Ltd.

Pledgor: TIANJIN ZHONGKE HONGXING TECHNOLOGY CO.,LTD.

Registration number: Y2022980013197

PE01 Entry into force of the registration of the contract for pledge of patent right
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20121017

Assignee: Zhongguancun Technology Leasing Co.,Ltd.

Assignor: TIANJIN ZHONGKE HONGXING TECHNOLOGY CO.,LTD.

Contract record no.: X2022980014554

Denomination of invention: Head pose estimation method based on depth information and color images

Granted publication date: 20140507

License type: Exclusive License

Record date: 20220905

EE01 Entry into force of recordation of patent licensing contract
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20220906

Granted publication date: 20140507

Pledgee: Zhongguancun Technology Leasing Co.,Ltd.

Pledgor: TIANJIN ZHONGKE HONGXING TECHNOLOGY CO.,LTD.

Registration number: Y2022980013197

PC01 Cancellation of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Head pose estimation method based on depth information and color images

Effective date of registration: 20220907

Granted publication date: 20140507

Pledgee: Zhongguancun Technology Leasing Co.,Ltd.

Pledgor: TIANJIN ZHONGKE HONGXING TECHNOLOGY CO.,LTD.

Registration number: Y2022110000208

PE01 Entry into force of the registration of the contract for pledge of patent right
EC01 Cancellation of recordation of patent licensing contract

Assignee: Zhongguancun Technology Leasing Co.,Ltd.

Assignor: TIANJIN ZHONGKE HONGXING TECHNOLOGY CO.,LTD.

Contract record no.: X2022980014554

Date of cancellation: 20231016

EC01 Cancellation of recordation of patent licensing contract
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20231017

Granted publication date: 20140507

Pledgee: Zhongguancun Technology Leasing Co.,Ltd.

Pledgor: TIANJIN ZHONGKE HONGXING TECHNOLOGY CO.,LTD.

Registration number: Y2022110000208

PC01 Cancellation of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Head pose estimation method based on depth information and color images

Granted publication date: 20140507

Pledgee: Bohai Bank Co.,Ltd. Tianjin Branch

Pledgor: TIANJIN ZHONGKE HONGXING TECHNOLOGY CO.,LTD.

Registration number: Y2024120000040

PE01 Entry into force of the registration of the contract for pledge of patent right