CN104123529B - 人手检测方法及系统 - Google Patents
人手检测方法及系统 Download PDFInfo
- Publication number
- CN104123529B CN104123529B CN201310147976.7A CN201310147976A CN104123529B CN 104123529 B CN104123529 B CN 104123529B CN 201310147976 A CN201310147976 A CN 201310147976A CN 104123529 B CN104123529 B CN 104123529B
- Authority
- CN
- China
- Prior art keywords
- mrow
- contrast
- image
- human hand
- msub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种人手检测方法,包括:获取当前场景的深度图像和彩色图像;从所述深度图像中分割出场景的前景蒙版图,并利用所述深度图像和彩色图像与前景蒙版图生成前景深度图像和前景彩色图像;利用在前景深度图像和前景彩色图像上进行显著性检测获得人手所在区域的多个候选区域;以及对所述多个候选区域进行评分,并选择得分最高的候选区域作为人手所在区域以及输出该区域的包围盒。
Description
技术领域
本发明涉及一种人手检测方法以及使用该方法的人手检测系统。具体而言,本发明涉及一种利用人手的显著性来检测人手方法以及使用该方法的人手检测系统。
背景技术
目前,人机交互已经从触摸交互进展到采用检测操作人员的手势和姿势来执行人际交互。具体而言,就是通过捕获显示屏幕以及屏幕前操作人员的场景图像,并对所获得图像进行处理,获得操作人员的操作动作,并将操作人员的动作转换成机器的操作指令,从而实现人机交互。这种人机交互通常需要检测操作人员的手势。而检测手势的最基本的检测在于检测到操作人员的手。即人手检测。鉴于人手自身的特性,例如,皮肤颜色以及人手特有的形状,人们通常基于手的肤色或轮廓在图像中识别人手。
在美国专利US2011/0279663A1中,介绍了一种基于视觉的人手检测方法。该方法在前景图上进行边缘检测从而获得手指边缘及指尖,然后结合这两类信息来定位人手。这是基于手的特定形状来进行检测的具体例子。在美国专利US2012/0027263A1中,介绍了一种手势检测方法,其中的人手检测的步骤利用运动历史图、线性支持向量机及描述物体形状信息的有向梯度直方图特征。另外,在美国专利US7590262中,介绍了一种基于深度信息的视觉跟踪技术。该发明在深度图上提取边缘信息,然后将这些边缘构建出多个轮廓。将获得的轮廓和已有的人手的轮廓模型进行匹配,选出匹配度最高的以确定人手的位置。但是,上述人手检测方法都不能很好的应对运动模糊、背景中有类似肤色的物体、光照变化等情况。此外,上述方法多需要启动手势。
发明内容
为此,本发明提出一种能够有效处理上述复杂环境,并且能在单帧图像上进行检测人手的方法。该方法还可以用于初始化基于人手轨迹进行操作控制的系统。
根据本发明的一个方面,提供了一种人手检测方法,包括:获取当前场景的深度图像和彩色图像;从所述深度图像中分割出场景的前景蒙版图,并利用所述深度图像和彩色图像与前景蒙版图生成前景深度图像和前景彩色图像;利用在前景深度图像和前景彩色图像上进行显著性检测获得人手所在区域的多个候选区域;以及对所述多个候选区域进行评分,并选择得分最高的候选区域作为人手所在区域以及输出该区域的包围盒。
根据本发明的人手检测方法,所述从所述深度图像中分割出场景的前景蒙版图,利用所述深度图像和彩色图像与前景蒙版图生成前景深度图像和前景彩色图像的步骤包括:通过对深度图像进行连通域检测,将所检测连通域确定为物体,从而将深度图像按物体划分成多个区域;基于一个预定深度阈值,执行二值化处理,以便从所述多个区域中选择出前景区域从而生成前景蒙版图;以及将所述前景蒙版图分别和所述深度图像和彩色图像进行“与”操作,分别生成前景深度图像和前景彩色图像。
根据本发明的人手检测方法,所述利用在前景深度图像和前景彩色图像上进行显著性检测获得人手所在区域的多个候选区域的步骤包括:利用前景深度图像计算出深度对比度图以及利用前景彩色图像计算出色调对比度图和饱和度对比度图;基于深度对比度图、色调对比度图和饱和度对比度图任意两者相对另外一个投票计算所述另外一个对比度图的权值图;基于所述对比度图以及对应的权值图,进行融合形成显著性图;以及基于预定阈值对所述显著性图进行二值化处理,以便获得人手所在区域的多个候选区域。
根据本发明的另一个方面,提供了一种人手检测系统,包括:图像获取单元,获取当前场景的深度图像和彩色图像;前景分割单元,从所述深度图像中分割出场景的前景蒙版图,并利用所述深度图像和彩色图像与前景蒙版图生成前景深度图像和前景彩色图像;显著性检测单元,利用在前景深度图像和前景彩色图像上进行显著性检测获得人手所在区域的多个候选区域;区域选择单元,对所述多个候选区域进行评分,并选择得分最高的候选区域作为人手所在区域以及输出该区域的包围盒。
本发明不需要启动手势及运动信息。本发明能够很好的处理多种复杂情况,比如图像中运动模糊,场景中类肤色物体,人机交互过程中光照有变化,人手及脸部重叠等。
附图说明
通过阅读结合附图考虑的以下本发明的优选实施例的详细描述,将更好地理解本发明的以上和其他目标、特征、优点和技术及工业重要性。
图1是采用了根据本发明的人手检测方法的应用系统的示意图。
图2所示的是根据本发明的人手检测系统的功能模块示意图。
图3所示的是根据本发明的前景分割单元所执行的操作的流程图。
图4所示的是显著性检测单元实施的人手显著性检测的总体流程图。
图5所示的是显著性检测单元计算对比度图的流程图。
图6所示是显著性检测单元基于对比度图生成对应权值图的流程图。
图7所示的是将对比度图与对应权值图融合为显著性图的示意图。
图8所示的是根据本本发明由区域选择单元从显著性图的人手候选区域中选择人手所在区域的流程图。
图9所示为本发明涉及的一个硬件框图。
具体实施方式
下面结合附图描述本发明实施例。
本发明提供了一种利用手的显著性及深度信息在单帧视频上检测人手的系统。图1是采用了根据本发明的人手检测方法的应用系统的示意图。如图1所示,图中示出了一个人际交互的场景,例如,一个人在投影屏幕前进行演讲。该系统100包括深度摄像机101以及计算机102。深度摄像机101可以是任意一种能够提供场景深度信息的摄像机,比如PrimeSensor、Kinect等。在图1所示的应用场景中,用户正在使用手势控制计算机102中的程序。本发明可以检测到该应用场景中的人手位置,人手的运动可以作为设备的输入命令。集成了本发明人手检测方法的应用程序可以用于初始化基于轨迹控制的系统。更具体地说,安装了本发明人手检测方法的计算机102分析深度摄像机101拍摄到的每帧图像,然后输出用户手的位置信息,其中,每帧图像包括一幅深度及一幅彩色图像。图1所示的装置100仅为本发明的一个应用示例,实际应用中可能会多于或少于其所包含的设备个数,或者使用不同的设备。
图2所示的是根据本发明的人手检测系统的功能模块示意图。人手检测系统200接收图像获取单元201所拍摄并输入的一帧图像。该图像包括某一时刻在含有背景以及操作者的场景的深度图像和彩色图像。图像获取单元201是图1中所示的深度摄像机101的功能模块。如图2所示,本发明的人手检测系统还包括:前景分割单元202,用于分割出当前场景中的前景区域;显著性检测单元203,用于计算前景深度图像和前景彩色图像的显著性,并生成人手的候选区域;区域选择单元204,用于从候选区域中选择出人手区域。系统输入为场景的深度及彩色图像,输出为人手区域的包围盒205。
图3所示的是根据本发明的前景分割单元202所执行的操作的流程图。如图3所示,深度摄像机201捕获某一时刻场景的一帧图像201,该帧图像包括一幅深度图像201a和一幅彩色图像201b。深度图像201a是一幅灰度图像,其像素值表示该场景中物体到深度摄像机的距离。而彩色图像201b是一幅RGB图像。在深度图像201a上进行连通域分析301,检测到的每一个连通域为一个物体,从而将该图像按物体划分成多个区域。这里使用的连通域分析可以被替换为其他分类方法,比如聚类。这些分类方法都是现有的方法,在此不赘述。根据深度值从上述连通域中选择出前景区域。用所有区域的平均深度作为阈值,阈值化处理连通域分析的结果图,其中,前景区域为1,其他区域为0,从而生成一幅前景蒙版图302,即通过阈值将连通域分析的结果图二值化为前景蒙版图。前景区域的含义是包含用户或/及场景中其他靠近摄像机的物体的区域。将前景蒙版图302和深度图像201a进行“与”操作303,生成前景深度图像304。将前景蒙版图302和彩色图像201b进行“与”操作305,生成前景彩色图像306。其中,所谓的“与”操作303为保留深度图像201a中对应前景蒙版图302值为1的区域,将其余区域的深度置为0。而所谓的“与”操作305与“与”操作303类似,不同的是,它需要反过来将前景蒙版图302的值为1的区域复制为彩色图像201b对应部分的三个通道,因为彩色图像201b有三个通道,而前景蒙版图302的值为0的其余部分为空白。通过上述处理,从而获得输入图像的前景深度图304以及前景彩色图306。通过这种分割,能够显著降低了后续检测步骤的计算量。
图4-7一起图释了由显著性检测单元203实施的人手显著性检测的流程。总体而言,显著性检测单元203从颜色和深度两个方面信息出发,利用前景深度图像和前景彩色图像检测出前景区域中的显著性区域,作为人手的候选区域。对于颜色信息,人手的颜色与大多数物体具有区分性,并且本申请分别处理颜色的色调和饱和度,从而可以应对前景中有类似肤色的物体的情况。本申请将彩色图像201b从RGB颜色空间转换到HSV颜色空间,从而得到色调和饱和度两个分量。这种转换属于现有技术,因此不在此详述转换过程。对于深度信息,由于在交互操作中,人手到摄像机的距离内没有其他物体,因而人手在深度上是显著的。因此,显著性检测包括色调、饱和度及深度三方面的计算及融合。首先分别计算色调对比度图、饱和度对比度图及深度对比度图,然后计算对应的权值图,最后将三种对比度图按照各自对应的权值图融合起来,生成显著性图。其中,权值图的像素表示其对应对比度图的像素属于人手区域的概率值。
图4所示的是显著性检测单元203实施的人手显著性检测的总体流程图。如图4所示,显著性计算单元203首先接收前景分割单元202输入前景深度图像304和前景彩色图像306。显著性检测单元203最后输出是一幅包含多个人手候选区域的蒙版图405。在接收到前景深度图像304和前景彩色图像306之后,在步骤401处,显著性计算单元203计算输入图像的对比度图505。
图5所示的是显著性检测单元203计算对比度图505的流程图。为简便说明,以下用I表示输入图像,其对应的对比度图C包含三个对比度图,即对比度图CD,CT,CS。也就是说,图5中的步骤401需要针对前景深度图像304和前景彩色图像306的前景色调图像、前景饱和度图像及前景深度图像三个方面执行三遍。
如图5所示,在步骤501中,对图像I的每一个非0值像素i采用多密度采样方法选择其邻域像素j(j=1...ni),其中ni是像素i的邻域像素个数。所谓的多密度采样方法就是在距离像素i越近的位置所采邻域像素越多,在距离像素i远的位置采样少。采用非0值像素点,可以减少计算量。具体而言,以像素i为原点选取m等分个方向。在上述m个方向上,分别以r为步长进行采样,直到图像I的边界。通常,实验中m的值取为8。当然如果为了获得更精确的经过m的值可以取16。m也可以取为4。其中步长r通常为2个像素距离。也可以为3、4个像素,这可以根据具体应用的需要而改变。通过这种采样,分别对应前景色调图像、前景饱和度图像及前景深度图像,获取个图像的采样点的色调值、饱和度值以及深度值。
随后,在步骤502中,针对三种图像的每一个,利用公式[1]计算每个作为原点的像素i和被采样像素j之间的差dij。
dij=|Ii-Ij|2,i=1...N. [1]
其中,Ii是像素点i的像素值,N是图像I的尺寸。更具体地,对于计算深度对比度图,Ii表示像素点i的深度值;对于计算色调对比度图,Ii表示像素点i的颜色色调值;对于计算饱和度对比度图,Ii表示像素点i的颜色饱和度值。而对于采样点也是如此。
随后,在步骤503,为每个被采样的像素点对应的像素值差赋予一定的权值,该权值采用公式[2]来计算邻域像素j的高斯权值wij。
其中,σp是高斯权值的尺度因子,实验中取值为0.25;pi像素i的位置。||pi-pj||表示位置pi和pj的欧式距离。公式[2]体现了,对于越远的采样点,其所赋予的权值越低,而越近的采样点,权值越高。
最后,在步骤504,采用公式[3]计算作为原点的像素i的对比度Ci,即累加所有采样点与原点像素之间像素值差与对应权值乘积,从而获得该原点像素的对比度值。
针对三种前景图像I的每一种的每个像素,执行上述步骤,最后得到每种前景图像I的对比度图505。对比度图是逐像素计算得到的,对比度图的像素值表示该位置上的像素相对于图像的其他像素的显著值。由于人手在颜色和深度两方面都比场景中的其他物体显著,所以对比度图中值越大的像素属于人手的可能性越高。更具体而言,对比度图505包含三幅图像,分别是由前景彩色图像306的色调通道计算得到的色调对比度图CT、由前景彩色图像306的饱和度通道计算得到的饱和度对比度图CS及由前景深度图像304计算得到的深度对比度图CD。
在获得三幅对比度图505之后,需要对这三幅图进行融合,以获得综合体现人手显著性的图。为此,返回参见图4,在步骤402,针对每幅对比度图505,计算计算对比度图505对应的权值图605,即为后面将三幅对比度图505融合为显著性图SM702(后面将描述),为每幅对比度图505生成权值图。
图6所示是显著性检测单元203基于对比度图505生成对应权值图605的流程图。也就是说,针对色调对比度图CT、饱和度对比度图CS以及深度对比度图CD,生成色调对比度图CT、饱和度对比度图CS以及深度对比度图CD分别对应的权值图WT、WS以及WD。权值图是对对比度图置信度的一种描述。
权值图WT、WS以及WD是通过计算对比度图CD、CT以及CS彼此之间的投票得到的。此处,投票是对对比度图之间差别的一种描述。权值图的像素值表示其对应的对比度图的置信度,该值越大对比度图越可信。步骤402计算每幅对比度图Cc获得的投票,并将投票结果累计起来作为权值Wc(c=D,T,S)。
如图6所示,在步骤601处,针对每幅对比度图,计算相互之间的错误概率。下面仅以对比度图CD作为投票对象来进行描述,同样这种投票过程同样需要适用于对比度图CT以及CS。
具体而言,首先,为对比度图CD,CT,CS计算对应的梯度向量图Gc,其中Gc是二元组(Dc,Mc)(c=D,T,S),Dc是梯度方向,Mc是梯度幅值。计算像素的梯度属于本领域的常用技术手段,因此不进行详述。
然后,计算Cc对Cd的投票。Cc对Cd的投票描述的是在假设Cc为正确的条件下,Cd也是正确的可能性。
具体而言,首先计算Cd在Cc为正确的条件下错误的概率。通常,如果Cc是正确的情况下Cd是错误的,那么他们的梯度向量的方向必然不同,两个向量之间存在夹角。根据向量的三角形法则,两个向量的差是两向量夹角所对应的边的长度。因此,Cd在Cc为正确的条件下错误的概率的计算定义为公式[4]。其中,F用于应对两向量夹角为钝角的情况,如公式[5]所表示。
c,d=D,T,S;c≠d.[5]
其中,表示Cc是错误的,表示Cc是正确的,θ是向量GC和Gd的夹角。
接着,如图6所示,在步骤602处,采用公式[6]计算Cc对Cd的投票,
公式[6]表明,Cc是正确的情况下Cd是错误的可能性越高,Cc对Cd的投票越小。上述步骤601针对对比图的每个像素进行。
在步骤603中,基于针对每个对比度图进行投票结果,计算每个对比度图的权值图。具体而言,就是采用公式[7]对比度图Cd权值图Wd(d=D,T,S)为其余对比度图对其投票的求和,
针对比度图的投票结果进行求和,获得各自对应的权值图WT、WS以及WD。
为了方便处理,在步骤604处,采用公式[8]对权值图进行了归一化,
由此获得归一化的权值图605。通过这种归一化处理获得的权值表示不同变量(三种对比度图)在总体图中的比例份额。。
之后,返回参见图4。在步骤403中,对比度图505在对应的权值图605的约束下加权求和得到显著性图SM702。图7所示的是将对比度图与对应权值图融合为显著性图的示意图。所述显著性图SM702采用公式[7]计算得到,具体为,
显著性图SM702是综合考虑色调、饱和度及深度三方面后得到的显著性描述,其像素值表示对应像素点属于人手区域的可能性。
之后,返回参见图4。在步骤404中,对显著性图SM702基于阈值α采用公式[10]进行二值化处理,得到一幅包含多个人手的候选区域的蒙版图H405。
其中,每个候选区域的尺寸为SC(i)(i=1...k),k是候选区域的个数。
随后,返回参见图2,在显著性检测单元203通过上述显著性检测步骤获得被二值化后的显著性图SM702之后,由区域选择单元204从k个候选区域中选出最终的人手所在区域。
图8所示的是根据本本发明由区域选择单元204从显著性图SM702的人手候选区域中选择人手所在区域的流程图。总体而言,就是对显著性图SM702的人手候选区域每一个进行打分,将得分最高的候选区域作为选为人手所在区域。
具体而言,如图8所示,在步骤801处,沿着场景的背景到深度相机的深度方向,将深度分成多个直方图的柱格,并基于深度值计算前景深度图像201a的直方图,并将属于直方图同一个柱的像素组成一个超像素。超像素的大小为SS(i)(i=1...t),其中t是超像素的个数,也是所分柱格的个数,并且t不小于k。接着,在步骤802中,用所获得的超像素的编号来标记候选区域蒙版图H,得到候选区域与超像素之间的对应关系。
然后,在步骤803中,采用公式[11]逐一计算标记后的候选区域与其对应的超像素的大小比例R(i),
之后,在步骤804处,计算被标记后的候选区域内所有像素点i的平均深度值A(i)。接着,在步骤805针对每个候选区域,基于上述所计算得到的每个候选区域比例R(i)以及平均深度值A(i),采用采用公式[12]计算标记后的候选区域SC(i)的分数Score(i),
Score(i)=R(i)*A(i),(i=1...k) [12]
最后,在步骤806处,从所有候选区域SC(i)中选出分数最高的候选区域作为人手所在区域并输出该区域的包围盒。
总体而言,所述区域选择单元204的选择过程就是在步骤805中根据前景深度图像的超像素801来为候选区域打分,步骤806选择分数最高的区域作为人手区域,输出该区域的包围盒807。步骤805计算分数时,综合考虑尺寸比例和深度两方面信息。由于人手相对于身体的其他部分来说尺寸较小,因此,人手区域比其他区域具有更高的尺寸比例。由于在人机交互操作中,没有其他物体与人手处在同一深度,因此,人手区域比其他区域具有更高的平均深度。
图9所示为本发明涉及的一个硬件框图,装置900包括用户输入设备901,处理单元902至904,显示设备905,RAM906,CPU907。
在说明书中说明的一系列操作能够通过硬件、软件、或者硬件与软件的组合来执行。当由软件执行该一系列操作时,可以把其中的计算机程序安装到内置于专用硬件的计算机中的存储器中,使得计算机执行该计算机程序。或者,可以把计算机程序安装到能够执行各种类型的处理的通用计算机中,使得计算机执行该计算机程序。
例如,可以把计算机程序预先存储到作为记录介质的硬盘或者ROM(只读存储器)中。或者,可以临时或者永久地存储(记录)计算机程序到可移动记录介质中,诸如软盘、CD-ROM(光盘只读存储器)、MO(磁光)盘、DVD(数字多功能盘)、磁盘、或半导体存储器。可以把这样的可移动记录介质作为封装软件提供。
本发明已经参考具体实施例进行了详细说明。然而,很明显,在不背离本发明的精神的情况下,本领域技术人员能够对实施例执行更改和替换。换句话说,本发明用说明的形式公开,而不是被限制地解释。要判断本发明的要旨,应该考虑所附的权利要求。
Claims (8)
1.一种人手检测方法,包括:
获取当前场景的深度图像和彩色图像;
从所述深度图像中分割出场景的前景蒙版图,并利用所述深度图像和彩色图像与前景蒙版图生成前景深度图像和前景彩色图像,其中将所述前景蒙版图分别和所述深度图像和彩色图像进行“与”操作,分别生成前景深度图像和前景彩色图像;
利用在前景深度图像和前景彩色图像上进行显著性检测获得人手所在区域的多个候选区域;对所述多个候选区域进行评分,并选择得分最高的候选区域作为人手所在区域以及输出该区域的包围盒,
其中所述利用在前景深度图像和前景彩色图像上进行显著性检测获得人手所在区域的多个候选区域的步骤包括:
利用前景深度图像计算出深度对比度图以及利用前景彩色图像计算出色调对比度图和饱和度对比度图;
基于深度对比度图、色调对比度图和饱和度对比度图任意两者相对另外一个投票计算所述另外一个对比度图的权值图;
基于所述对比度图以及对应的权值图,进行融合形成显著性图;以及
基于预定阈值对所述显著性图进行二值化处理,以便获得人手所在区域的多个候选区域。
2.根据权利要求1所述的人手检测方法,其中所述从所述深度图像中分割出场景的前景蒙版图,利用所述深度图像和彩色图像与前景蒙版图生成前景深度图像和前景彩色图像的步骤包括:
通过对深度图像进行连通域检测,将所检测连通域确定为物体,从而将深度图像按物体划分成多个区域;
基于一个预定深度阈值,执行二值化处理,以便从所述多个区域中选择出前景区域从而生成前景蒙版图。
3.根据权利要求1所述的人手检测方法,其中所述利用前景深度图像计算出深度对比度图CD以及利用前景彩色图像计算出色调对比度图CT和饱和度对比度图CS的步骤包括针对深度图、彩色图像变换后的色调图以及饱和度图进行如下步骤:
以三种图像之一的图像I的每一个像素i为原点选取m等分个方向,并在所述m个方向上,分别以r为步长进行采样邻域像素j,其中,j=1...ni,直到图像I的边界,其中ni是像素i的邻域像素个数;
采用基于公式[1]计算每个像素对i和j之间的差dij
dij=|Ii-Ij|2,i=1...N. [1]
其中,Ii是像素i的像素值,N是图像I的尺寸;
基于公式[2]计算邻域像素j的高斯权值wij,
<mrow>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>p</mi>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mo>&lsqb;</mo>
<mn>2</mn>
<mo>&rsqb;</mo>
</mrow>
其中,σp是高斯权值的尺度因子,pi像素i的位置;以及
采用公式[3]基于所计算的dij和权值wij计算像素i的对比度Ci,获得各个对比度图
<mrow>
<msub>
<mi>C</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>i</mi>
</msub>
</munderover>
<msub>
<mi>d</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<msub>
<mi>w</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mo>&lsqb;</mo>
<mn>3</mn>
<mo>&rsqb;</mo>
<mo>.</mo>
</mrow>
4.根据权利要求1或3所述的人手检测方法,其中所述基于深度对比度图CD、色调对比度图CT和饱和度对比度图CS任意两者相对另外一个投票计算所述另外一个对比度图的权值图的步骤包括:
针对每个对比度图计算对应的由梯度方向Dc和梯度幅值Mc二元组(Dc,Mc)表达的梯度向量图Gc,在此c=D,T,S;
针对任意对比度图Cd计算其余对比度图Cc对它的投票,获得投票结果Vdc,在此c,d=D,T,S;c≠d;
针对对比度图Cd的投票结果采用公式[7]进行求和获得对应的权值Wd,在此d=D,T,S,
<mrow>
<msub>
<mi>W</mi>
<mi>d</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>c</mi>
<mo>&NotEqual;</mo>
<mi>d</mi>
</mrow>
<mrow>
<mi>D</mi>
<mo>,</mo>
<mi>T</mi>
<mo>,</mo>
<mi>S</mi>
</mrow>
</munderover>
<msub>
<mi>V</mi>
<mrow>
<mi>d</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mo>&lsqb;</mo>
<mn>7</mn>
<mo>&rsqb;</mo>
</mrow>
对所获得权值采用公式[8]执行归一化处理,从而获得归一化的权值图,
<mrow>
<msubsup>
<mi>W</mi>
<mi>d</mi>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfrac>
<msub>
<mi>W</mi>
<mi>d</mi>
</msub>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mi>d</mi>
<mrow>
<mi>D</mi>
<mo>,</mo>
<mi>T</mi>
<mo>,</mo>
<mi>S</mi>
</mrow>
</munderover>
<msub>
<mi>W</mi>
<mi>d</mi>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mo>&lsqb;</mo>
<mn>8</mn>
<mo>&rsqb;</mo>
<mo>.</mo>
</mrow>
其中Wd,在此,d=D,T,S。
5.根据权利要求4所述的人手检测方法,其中所述针对任意对比度图Cd计算其余对比度图Cc对它的投票,获得投票结果Vdc的步骤包括:
采用公式[4]和[5]计算Cd在Cc为正确的条件下错误的概率,
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>C</mi>
<mo>-</mo>
<mi>d</mi>
</msubsup>
<mo>|</mo>
<msubsup>
<mi>C</mi>
<mo>+</mo>
<mi>c</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mi>M</mi>
<mi>d</mi>
</msup>
<mo>*</mo>
<mi>sin</mi>
<mi>&theta;</mi>
<mo>*</mo>
<mi>F</mi>
<mo>;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mo>&lsqb;</mo>
<mn>4</mn>
<mo>&rsqb;</mo>
</mrow>
<mrow>
<mi>F</mi>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>1</mn>
<mo>+</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mo>|</mo>
<msup>
<mi>D</mi>
<mi>c</mi>
</msup>
<mo>-</mo>
<msup>
<mi>D</mi>
<mi>d</mi>
</msup>
<mo>|</mo>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mo>&lsqb;</mo>
<mn>5</mn>
<mo>&rsqb;</mo>
</mrow>
c,d=D,T,S;c≠d.
其中,表示Cc是错误的,表示Cc是正确的,θ是向量Gc和Gd的夹角;以及
采用公式[6]计算Cc对Cd的投票,
<mrow>
<msub>
<mi>V</mi>
<mrow>
<mi>d</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>1</mn>
<mo>+</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>C</mi>
<mo>-</mo>
<mi>d</mi>
</msubsup>
<mo>|</mo>
<msubsup>
<mi>C</mi>
<mo>+</mo>
<mi>c</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mo>&lsqb;</mo>
<mn>6</mn>
<mo>&rsqb;</mo>
</mrow>
其中c,d=D、T、S,且c≠d。
6.根据权利要求5所述的人手检测方法,其中所述基于所述对比度图以及对应的权值图进行融合形成显著性图的步骤包括:
采用公式[9],对对比度图的值以及对应的权值图的权值的乘积进行累加求和
以及
采用公式[10]基于预定阈值对其进行二值化处理,获得人手所在区域的多个候选区域,
<mrow>
<mi>H</mi>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>1</mn>
<mo>,</mo>
<mi>S</mi>
<mi>M</mi>
<mo>></mo>
<mi>&alpha;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>0</mn>
<mo>,</mo>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
<mo>.</mo>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mo>&lsqb;</mo>
<mn>10</mn>
<mo>&rsqb;</mo>
</mrow>
其中,每个候选区域的尺寸为SC(i),其中i=1...k,k是候选区域的个数,α是显著性图SM的阈值。
7.根据权利要求6所述的人手检测方法,其中所述对所述多个候选区域进行评分的步骤包括:
计算前景深度图像的直方图,将属于直方图同一个柱的像素组成一个超像素SS(i),在此,i=1...t,其中t是超像素的个数,并且t不小于k;
用上述超像素的编号标记对应候选区域;
采用公式[11]计算标记后的候选区域与其对应的超像素的比例R(i),
在此i=1...k [11]
计算标记后的候选区域i的平均深度值A(i);以及
采用公式[12]计算标记后的候选区域i的分数Score(i),
Score(i)=R(i)*A(i),在此,i=1...k [12]。
8.一种人手检测系统,包括:
图像获取单元,获取当前场景的深度图像和彩色图像;
前景分割单元,从所述深度图像中分割出场景的前景蒙版图,并利用所述深度图像和彩色图像与前景蒙版图生成前景深度图像和前景彩色图像,其中将所述前景蒙版图分别和所述深度图像和彩色图像进行“与”操作,分别生成前景深度图像和前景彩色图像;
显著性检测单元,利用在前景深度图像和前景彩色图像上进行显著性检测获得人手所在区域的多个候选区域;
区域选择单元,对所述多个候选区域进行评分,并选择得分最高的候选区域作为人手所在区域以及输出该区域的包围盒,
其中所述显著性检测单元被配置为:
利用前景深度图像计算出深度对比度图以及利用前景彩色图像计算出色调对比度图和饱和度对比度图;
基于深度对比度图、色调对比度图和饱和度对比度图任意两者相对另外一个投票计算所述另外一个对比度图的权值图;
基于所述对比度图以及对应的权值图,进行融合形成显著性图;以及
基于预定阈值对所述显著性图进行二值化处理,以便获得人手所在区域的多个候选区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310147976.7A CN104123529B (zh) | 2013-04-25 | 2013-04-25 | 人手检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310147976.7A CN104123529B (zh) | 2013-04-25 | 2013-04-25 | 人手检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104123529A CN104123529A (zh) | 2014-10-29 |
CN104123529B true CN104123529B (zh) | 2018-04-10 |
Family
ID=51768937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310147976.7A Active CN104123529B (zh) | 2013-04-25 | 2013-04-25 | 人手检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104123529B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105043722A (zh) * | 2015-07-28 | 2015-11-11 | 哈尔滨工程大学 | 一种反射镜反射率的测量方法 |
CN107851309A (zh) * | 2016-04-05 | 2018-03-27 | 华为技术有限公司 | 一种图像增强方法及装置 |
CN107516102B (zh) * | 2016-06-16 | 2020-10-23 | 北京市商汤科技开发有限公司 | 图像数据分类与建立分类模型方法、装置及系统 |
CN106504751A (zh) * | 2016-08-01 | 2017-03-15 | 深圳奥比中光科技有限公司 | 自适应唇语交互方法以及交互装置 |
CN106250867B (zh) * | 2016-08-12 | 2017-11-14 | 南京华捷艾米软件科技有限公司 | 一种基于深度数据的人体骨骼跟踪系统的实现方法 |
CN107016388B (zh) * | 2017-03-02 | 2019-11-15 | 浙江华睿科技有限公司 | 一种一维码区域的定位方法及装置 |
CN107657625A (zh) * | 2017-09-11 | 2018-02-02 | 南京信息工程大学 | 融合时空多特征表示的无监督视频分割方法 |
CN108227919B (zh) * | 2017-12-22 | 2021-07-09 | 潍坊歌尔电子有限公司 | 用户手指位置信息的确定方法及装置、投影仪、投影系统 |
CN109598206B (zh) * | 2018-11-09 | 2021-10-29 | 歌尔光学科技有限公司 | 动态手势识别方法及装置 |
CN109712105B (zh) * | 2018-12-24 | 2020-10-27 | 浙江大学 | 一种结合彩色和深度信息的图像显著目标检测方法 |
CN110276260B (zh) * | 2019-05-22 | 2021-06-08 | 杭州电子科技大学 | 一种基于深度摄像头的商品检测方法 |
CN110335342B (zh) * | 2019-06-12 | 2020-12-08 | 清华大学 | 一种用于沉浸式模拟器的手部模型实时生成方法 |
CN111652136B (zh) * | 2020-06-03 | 2022-11-22 | 苏宁云计算有限公司 | 基于深度图像的行人检测方法及装置 |
CN112887605B (zh) * | 2021-01-26 | 2022-09-30 | 维沃移动通信有限公司 | 图像防抖方法、装置及电子设备 |
CN113744400A (zh) * | 2021-09-09 | 2021-12-03 | 网易(杭州)网络有限公司 | 地形蒙版选区确定方法、装置及计算机设备 |
CN117576488B (zh) * | 2024-01-17 | 2024-04-05 | 海豚乐智科技(成都)有限责任公司 | 一种基于目标图像重建的红外弱小目标检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073985A (zh) * | 2010-12-23 | 2011-05-25 | 清华大学 | 基于像素点匹配的缩放图像的客观质量评价方法和装置 |
CN102789568A (zh) * | 2012-07-13 | 2012-11-21 | 浙江捷尚视觉科技有限公司 | 一种基于深度信息的手势识别方法 |
JP2013020616A (ja) * | 2011-07-07 | 2013-01-31 | Ricoh Co Ltd | オブジェクト追跡方法及びオブジェクト追跡装置 |
CN102945079A (zh) * | 2012-11-16 | 2013-02-27 | 武汉大学 | 一种基于智能识别与控制的立体投影系统与方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI528224B (zh) * | 2010-11-15 | 2016-04-01 | 財團法人資訊工業策進會 | 三維動態操控方法及裝置 |
-
2013
- 2013-04-25 CN CN201310147976.7A patent/CN104123529B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073985A (zh) * | 2010-12-23 | 2011-05-25 | 清华大学 | 基于像素点匹配的缩放图像的客观质量评价方法和装置 |
JP2013020616A (ja) * | 2011-07-07 | 2013-01-31 | Ricoh Co Ltd | オブジェクト追跡方法及びオブジェクト追跡装置 |
CN102789568A (zh) * | 2012-07-13 | 2012-11-21 | 浙江捷尚视觉科技有限公司 | 一种基于深度信息的手势识别方法 |
CN102945079A (zh) * | 2012-11-16 | 2013-02-27 | 武汉大学 | 一种基于智能识别与控制的立体投影系统与方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104123529A (zh) | 2014-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104123529B (zh) | 人手检测方法及系统 | |
Keller et al. | A new benchmark for stereo-based pedestrian detection | |
Buehler et al. | Upper body detection and tracking in extended signing sequences | |
Payet et al. | From contours to 3d object detection and pose estimation | |
Li et al. | Robust visual tracking based on convolutional features with illumination and occlusion handing | |
US20110025834A1 (en) | Method and apparatus of identifying human body posture | |
CN103218605B (zh) | 一种基于积分投影与边缘检测的快速人眼定位方法 | |
JP5227629B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
Hu et al. | Recognising human-object interaction via exemplar based modelling | |
CN107292318B (zh) | 基于中心暗通道先验信息的图像显著性物体检测方法 | |
Zhu et al. | An optimization approach for localization refinement of candidate traffic signs | |
CN109598234A (zh) | 关键点检测方法和装置 | |
CN104102904B (zh) | 一种静态手势识别方法 | |
CN103336967B (zh) | 一种手部运动轨迹检测方法及装置 | |
CN104202547A (zh) | 投影画面中提取目标物体的方法、投影互动方法及其系统 | |
CN109508661B (zh) | 一种基于物体检测和姿态估计的举手者检测方法 | |
Zeng et al. | Reference-based defect detection network | |
Yi et al. | Motion keypoint trajectory and covariance descriptor for human action recognition | |
Li et al. | Estimating visual saliency through single image optimization | |
Stiene et al. | Contour-based object detection in range images | |
JP5027030B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
CN104765440A (zh) | 手检测方法和设备 | |
CN108681691A (zh) | 一种基于无人水面艇的海上船艇快速检测方法 | |
Liu et al. | Double Mask R‐CNN for Pedestrian Detection in a Crowd | |
Chen et al. | Headnet: pedestrian head detection utilizing body in context |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |