CN108564070B - 用于提取手势的方法及其装置 - Google Patents

用于提取手势的方法及其装置 Download PDF

Info

Publication number
CN108564070B
CN108564070B CN201810427112.3A CN201810427112A CN108564070B CN 108564070 B CN108564070 B CN 108564070B CN 201810427112 A CN201810427112 A CN 201810427112A CN 108564070 B CN108564070 B CN 108564070B
Authority
CN
China
Prior art keywords
image
gesture
depth image
determining
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810427112.3A
Other languages
English (en)
Other versions
CN108564070A (zh
Inventor
刘小磊
楚明磊
陈丽莉
张�浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Optoelectronics Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201810427112.3A priority Critical patent/CN108564070B/zh
Publication of CN108564070A publication Critical patent/CN108564070A/zh
Application granted granted Critical
Publication of CN108564070B publication Critical patent/CN108564070B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明的实施例提供了用于提取手势的方法。在该方法中,获取手势的彩色图像和整体深度图像。根据彩色图像,确定彩色图像中的肤色区域,并根据整体深度图像,确定位于第一距离范围内的第一深度图像。根据所述第一深度图像和所述肤色区域,确定手势深度图像,并将手势深度图像转换成三维空间图像。在所述三维空间图像中,确定与预设点之间的距离位于第二距离内的空间点,并在所述手势深度图像中,确定与所述空间点对应的部分为手势区域。根据本发明的实施例,能够准确地提取手势,并具有较好的实时性。

Description

用于提取手势的方法及其装置
技术领域
本发明涉及手势识别领域,尤其涉及用于提取手势的方法及其装置。
背景技术
随着虚拟现实(VR)和增强现实(AR)技术的发展,人机交互越来越受到关注。手势作为一种重要的人机交互方式,在VR/AR技术领域得到了广泛的应用。
深度相机可以同时获取彩色图像(例如,RGB图像)和深度图像,因此,深度相机也被众多VR/AR设备的厂家作为主要的相机。利用深度相机对VR/AR设备进行手势提取成为了主流趋势。但是,简单的手势提取算法不能很好的去除周围环境的干扰,而复杂的算法又不能达到系统所要求的实时性。
发明内容
本发明的实施例提供了用于提取手势的方法及其装置,能够准确地提取手势,并具有较好的实时性。
根据本发明的第一方面,提供了一种用于提取手势的方法。在该方法中,获取手势的彩色图像和整体深度图像。根据在彩色图像确定彩色图像中的肤色区域,并根据整体深度图像确定位于第一距离范围内的第一深度图像。根据第一深度图像和肤色区域,确定手势深度图像。将手势深度图像转换成三维空间图像。在三维空间图像中,确定与预设点之间的距离位于第二距离内的空间点,并在手势深度图像中,确定与空间点对应的部分为手势区域。
在本发明的实施例中,预设点基于拍摄手势的图像设备与手势的相对位置而确定。
在本发明的实施例中,预设点是距离图像设备最远的空间点。
在本发明的实施例中,根据第一深度图像和肤色区域,确定手势深度图像包括:在第一深度图像中,确定与肤色区域对应的区域为手势深度图像。
在本发明的实施例中,将手势深度图像转换成三维空间图像包括:通过以下公式,将手势深度图像中的像素的像素坐标(u,v)转换成三维空间图像中的空间点的三维坐标(x,y,z):x=(u*d-d*Cx)/fx;y=(v*d-d*Cy)/fy;z=d,其中,fx、fy表示拍摄手势的图像设备在x轴和y轴上的焦距,Cx、Cy表示手势深度图像的中心和图像设备的光轴的中心在x和y方向上的偏移,d表示所述手势深度图像中各像素点的深度值。
在本发明的实施例中,根据彩色图像确定彩色图像中的肤色区域包括:将彩色图像中的像素的R、G和B分量转换成YCrCb空间中的Y、Cr和Cb分量;对YCrCb空间中的Y、Cr和Cb分量进行非线性变换,以获得Cr’和Cb’分量;以及确定包括Cr’分量的值在133至173的范围内并且Cb’分量的值在77至127的范围内的像素的区域为肤色区域。
在本发明的实施例中,对YCrCb空间中的Y、Cr和Cb分量进行非线性变换,以获得Cr’和Cb’分量包括:对Y分量进行变换以获得
Figure BDA0001652385230000021
Figure BDA0001652385230000022
Figure BDA0001652385230000023
Figure BDA0001652385230000024
对Y分量进行变换以获得肤色区域的宽度Wcb和Wcr
Figure BDA0001652385230000031
以及
基于Wcb和Wcr进行非线性变换以获得Cr’和Cb’分量:
Figure BDA0001652385230000032
其中,Ki、Kh为常数,Ymin、Ymax为常数,Wci、WLci、WHci为常数,i=b或r。
在本发明的实施例中,基于肤色区域,对彩色图像进行二值化处理。
在本发明的实施例中,所述二值化处理包括:将所述彩色图像中的肤色区域的像素的灰度设为255,将所述彩色图像中肤色区域以外的像素的灰度设为0。
在本发明的实施例中,所述方法还包括以下步骤中的至少一个:
将第一深度图像之外的像素的灰度设置为零;
将手势深度图像之外的像素的灰度设置为零;
将手势区域之外的像素的灰度设置为零。
在本发明的实施例中,第一距离范围是0.5米至1米。
在本发明的实施例中,第二距离是在0.16米至0.23米内。
根据本发明的第二方面,提供了一种用于提取手势的装置。该装置包括:一个或多个处理器;存储器,其与处理器耦接,并存储有计算机程序指令;与所述处理器耦接的图像设备,被配置为采集手势的彩色图像和整体深度图像;其中,计算机程序指令在被处理器执行时使得装置:获取手势的彩色图像和整体深度图像;根据彩色图像确定彩色图像中的肤色区域;根据整体深度图像确定位于第一距离范围内的第一深度图像;根据第一深度图像和肤色区域,确定手势深度图像;将手势深度图像转换成三维空间图像;在三维空间图像中,确定与预设点之间的距离位于第二距离内的空间点;以及在手势深度图像中,确定与空间点对应的部分为手势区域。
在本发明的实施例中,预设点基于拍摄手势的图像设备与手势的相对位置来确定。
在本发明的实施例中,预设点是距离图像设备最远的空间点。
在本发明的实施例中,计算机程序指令在被处理器执行时使得装置通过以下操作根据第一深度图像和肤色区域确定手势深度图像:在第一深度图像中,将与肤色区域对应的区域确定为手势深度图像。
在本发明的实施例中,计算机程序指令在被处理器执行时使得装置通过以下操作将手势深度图像转换成三维空间图像:通过以下公式,将手势深度图像中的像素的像素坐标(u,v)转换成三维空间图像中的空间点的三维坐标(x,y,z):x=(u*d-d*Cx)/fx;y=(v*d-d*Cy)/fy;z=d,其中,fx、fy表示拍摄手势的图像设备在x轴和y轴上的焦距,Cx、Cy表示手势深度图像的中心和图像设备的光轴的中心在x和y方向上的偏移,d表示所述手势深度图像中各像素点的深度值。
在本发明的实施例中,计算机程序指令在被处理器执行时使得装置通过以下操作根据彩色图像确定彩色图像中的肤色区域:将彩色图像中的像素的R、G和B分量转换成YCrCb空间中的Y、Cr和Cb分量;对YCrCb空间中的Y、Cr和Cb分量进行非线性变换,以获得Cr’和Cb’分量;以及确定包括Cr’分量的值在133至173的范围内并且Cb’分量的值在77至127的范围内的像素的区域为肤色区域。
在本发明的实施例中,计算机程序指令在被处理器执行时进一步使得装置基于肤色区域,对彩色图像进行二值化处理。
在本发明的实施例中,计算机程序指令在被处理器执行时使得装置将第一深度图像之外的像素的灰度设置为零。
在本发明的实施例中,计算机程序指令在被处理器执行时使得装置将手势深度图像之外的像素的灰度设置为零。
在本发明的实施例中,计算机程序指令在被处理器执行时使得装置将手势区域之外的像素的灰度设置为零。根据本发明的实施例,通过结合手势的彩色图像和整体深度图像,能够去除其它环境因素的干扰,准确地提取手势,并具有较好的实时性。
适应性的进一步的方面和范围从本文中提供的描述变得明显。应当理解,本申请的各个方面可以单独或者与一个或多个其它方面组合实施。还应当理解,本文中的描述和特定实施例旨在说明的目的,并不旨在限制本申请的范围。
附图说明
本文中描述的附图用于仅对所选择的实施例的说明的目的,并不是所有可能的实施方式,并且不旨在限制本申请的范围,其中:
图1是根据本发明的实施例的用于提取手势的方法的示意性流程图;
图2示出了示例性的手势的深度图像;
图3是说明图1所示的实施例中确定肤色区域的过程的示意性流程图;
图4是根据本发明的实施例的用于提取手势的装置的示意性框图。
具体实施方式
为使本发明的实施例的目的、技术方案和优点更加清楚,下面将结合本发明的实施例的附图,对本发明的实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。下文中将参考附图并结合实施例来详细说明本发明的实施例。需要说明的是,在不冲突的情况下,本发明中的实施例中的特征可以相互组合。
图1是根据本发明的实施例的用于提取手势的方法的示意性流程图。如图1所示,在步骤102中,获取手势的彩色图像和整体深度图像。在本发明的实施例中,可通过图像设备(例如,深度相机)拍摄手势,得到手势的彩色图像和整体深度图像。其中,彩色图像和整体深度图像可具有相同的图像大小。
在彩色图像中,图像的每个像素可由R、G、B分量构成,其中R、G、B是由不同的灰度来表示。通过R、G、B三个分量可呈现出彩色图像。图2示出了示例性的手势的整体深度图像。通常在深度图像中,每个像素的灰度与深度对应。深度表示所拍摄的对象到图像设备的距离。在本发明的实施例中,灰度越大,表示与图像设备的距离越近;灰度越小,表示与图像设备的距离越远。在一个例子中,灰度255可表示与图像设备距离最近,灰度0表示与图像设备距离最远。
然后,在步骤104中,根据彩色图像,在彩色图像中确定肤色区域,以便在彩色图像中区分具有肤色的手势与其它不具有肤色的部分。
图3是说明图1所示的实施例中确定肤色区域的过程的示意性流程图。如图3所示,首先,在步骤1042中,将彩色图像中的各像素的R、G和B分量转换成YCrCb空间中的Y、Cr和Cb分量。在本发明的实施例中,可通过如下公式进行转换:
Figure BDA0001652385230000061
在式(1)中,R表示红色分量,G表示绿色分量,B表示蓝色分量,Y表示亮度分量,Cb表示蓝色分量,Cr表示红色分量。本领域的技术人员知道,还可以采用其它方法将R、G和B分量转换成Y、Cr和Cb分量。
然后,在步骤1044中,对YCrCb空间中的Y、Cr和Cb分量进行非线性变换,以获得Cr’和Cb’分量。在本发明的实施例中,首先,通过如下公式对Y分量进行变换以获得
Figure BDA0001652385230000062
Figure BDA0001652385230000063
Figure BDA0001652385230000064
Figure BDA0001652385230000065
在式(2)和(3)中,Ki、Kh为常数,表示函数的分段阈值,其中,Ki=125、Kh=188;Ymin、Ymax也为常数,表示肤色区域中Y分量的最小值和最大值,它们可由实验数据得到,其中,Ymin=16、Ymax=235。
接着,计算肤色区域的宽度Wcb(Y)和Wcr(Y),可通过如下分段函数计算:
Figure BDA0001652385230000071
在式(4)中,i=b或r,其中,Wcb=46.97、WLcb=23、WHcb=14,Wcr=38.76、WLcr=20、WHcr=10。
最终,基于Wcb和Wcr进行非线性变换以获得Cr’和Cb’分量:
Figure BDA0001652385230000072
在式(5)中,i=b或r。
经过上述转换后,色彩空间YCr’Cb’对于肤色区域具有较强的鲁棒性。
在步骤1046中,将Cr’分量和Cb’分量的值设置在预定范围内,然后确定包括这些像素的区域为肤色区域。在一个示例实施例中,肤色区域中的像素的Cr’分量和Cb’分量的值可以在以下范围中:133<Cr’<173、77<Cb’<127。
虽然以上已经详细描述了确定彩色图像中的肤色区域的一个示例,但本领域的技术人员知道,还可以采用其它方法来确定彩色图像中的肤色区域。
在本发明的实施例中,可基于肤色区域,对彩色图像进行二值化处理,以将彩色图像中的肤色区域标识出来。在一个示例实施例中,可将肤色区域中的像素的灰度设置为255(即,肤色区域表示为白色),并将肤色区域之外的像素的灰度设置为0(即,非肤色区域表示为黑色)。因此,利用二值255和0可以将彩色图像中的肤色区域标识出来。
继续参考图1,在步骤106中,根据整体深度图像确定位于第一距离范围内的第一深度图像。在本发明的实施例中,第一深度图像可基于图像设备与手势的相对位置来确定。在一个示例实施例中,图像设备可被穿戴在发出手势的对象上(例如,戴在对象的头部上或位于对象的身体前)。在这种情况下,手势与图像设备之间的最远距离是手臂的长度,而手臂的长度通常是在0.5米至1米的范围内。因此,在整体深度图像中,可确定具有灰度与0.5米至1米距离范围对应的像素,并将包括这些像素的图像确定为第一深度图像。在一个示例实施例中,在整体深度图像中,可将第一深度图像之外的像素的灰度设置为0(即,表示为黑色)。通过该过程,可去除其它对象(例如,远距离的其它对象)的干扰。
在步骤108中,根据第一深度图像和肤色区域确定手势深度图像。在本发明的实施例中,如前所述,彩色图像和整体深度图像具有相同的图像大小,因此,可以在第一深度图像中,确定与肤色区域中的像素对应的像素,然后将包括这些像素的图像确定为手势深度图像。在一个示例实施例中,在第一深度图像中,可以将手势深度图像之外的像素的灰度设置为零,从而将手势深度图像标识出来。
通过上述过程,可以粗略地将手势区分出来。为了更准确地确定手势区域,在步骤110中,将手势深度图像转换成三维空间图像。在本发明的实施例中,可通过以下公式,将手势深度图像中的像素的像素坐标(u,v)转换成三维空间图像中的空间点的三维坐标(x,y,z):
x=(u*d-d*Cx)/fx;
y=(v*d-d*Cy)/fy;
z=d,
其中,fx、fy表示图像设备在x轴和y轴上的焦距,Cx、Cy表示手势深度图像的中心和图像设备的光轴的中心在x和y方向上的偏移,d表示手势深度图像中各像素点的深度值。所述深度值就是图像设备在采集手势深度图像时手势深度图像中的各点与图像设备的实际距离。通过该过程,可将手势深度图像中的像素一一对应到构成三维空间图像的空间点。
继续参考图1,在步骤112中,在三维空间图像中,确定与预设点之间的空间距离在第二距离内的空间点。在本发明的实施例中,在三维空间图像中,可基于图像设备与手势的相对位置确定预设点。如上所述,图像设备可被穿戴在发出手势的对象上(例如,戴在对象的头部上或位于对象的身体前)。在这种情况下,对象在发出手势时,手势与图像设备的距离最远。因此,预设点可以是距离图像设备最远的空间点。可替换地,如果图像设备没有穿戴在发出手势的对象上,例如,位于该对象的对面,则对象在发出手势时,手势与图像设备的距离最近。在这种情况下,预设点可以是距离图像设备最近的空间点。通常,对象的手的大小是在0.16米至0.23米内。因此,在本发明的实施例中,第二距离可从0.16米至0.23米的范围内选择。。
由于手势深度图像中的像素与三维空间图像中的空间点一一对应,因此,在步骤114中,在手势深度图像中,可以确定与步骤112中所确定的空间点一一对应的像素,然后将包括这些像素的部分确定为手势区域。在一个示例实施例中,在手势深度图像中,可以将手势区域之外的像素的灰度设置为0(即,表示为黑色)。通过上述过程,可以去除手臂等其它因素的干扰,从而将手部所发出的手势提取出来。
通过以上描述可以看出,采用根据本发明的实施例的方法,通过结合手势的彩色图像和整体深度图像,可以去除手部之外的其它对象的干扰,缩小了手势区域的范围,准确地提取手势。此外,根据本发明的实施例的手势提取的方法简单快速,具有较好的实时性。
图1所示的流程图仅仅用于示例,其中,步骤104可以与步骤106并行执行,或者可以先执行步骤106再执行步骤104。本领域的技术人员知道,可以对所示的流程图或其中描述的步骤进行各种变形。
图4是根据本发明的实施例的用于提取手势的装置50的示意性步骤图。如图4所示,装置50包括一个或多个处理器502以及存储器504、与所述处理器耦接的图像设备508,被配置为采集手势的彩色图像和整体深度图像。存储器504与处理器502通过总线与I/O接口506耦接,并存储计算机程序指令。
当计算机程序指令由处理器502执行时,装置50可获取手势的彩色图像和整体深度图像。装置50可根据彩色图像在彩色图像中确定肤色区域。装置50还可根据整体深度图像确定位于第一距离范围内的第一深度图像。装置50可根据第一深度图像和肤色区域确定手势深度图像。然后,装置50将手势深度图像转换成三维空间图像。接着,装置50在三维空间图像中,确定与预设点之间的距离位于第二距离内的空间点。最后,装置50在手势深度图像中确定与空间点对应的部分为手势区域。
在本发明的实施例中,装置50可进一步在三维空间图像中,基于拍摄手势的图像设备与手势的相对位置确定预设点。在本发明的实施例中,在图像设备被穿戴在发出手势的对象上时,装置50可进一步将距离图像设备最远的空间点确定为预设点。
在本发明的实施例中,装置50可在第一深度图像中,将与肤色区域对应的区域确定为手势深度图像。
在本发明的实施例中,装置50可通过以下公式,将手势深度图像中的像素的像素坐标(u,v)转换成三维空间图像的空间点的三维坐标(x,y,z):x=(u*d-d*Cx)/fx;y=(v*d-d*Cy)/fy;z=d,其中,fx、fy表示拍摄手势的图像设备在x轴和y轴上的焦距,Cx、Cy表示手势深度图像的中心和图像设备的光轴的中心在x和y方向上的偏移,d表示所述手势深度图像中各像素点的深度值。
在本发明的实施例中,装置50可进一步将彩色图像中的像素的R、G和B分量转换成YCrCb空间中的Y、Cr和Cb分量。然后,对YCrCb空间中的Y、Cr和Cb分量进行非线性变换,以获得Cr’和Cb’分量。最后,确定包括Cr’分量的值在133至173的范围内并且Cb’分量的值在77至127的范围内的像素的区域为肤色区域。
在本发明的实施例中,装置50还可基于肤色区域,对彩色图像进行二值化处理。
在本发明的实施例中,装置50还可将第一深度图像之外的像素的灰度设置为零。
在本发明的实施例中,装置50还可将手势深度图像之外的像素的灰度设置为零。
在本发明的实施例中,装置50还可将手势区域之外的像素的灰度设置为零。
在本发明的实施例中,图像设备可以是深度相机。可替换地,图像设备可以是集成有深度相机的可穿戴设备,例如VR/AR设备。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (11)

1.一种用于提取手势的方法,包括:
获取所述手势的彩色图像和整体深度图像;
根据所述彩色图像确定所述彩色图像中的肤色区域;
根据所述整体深度图像确定位于第一距离范围内的第一深度图像,其中,所述第一距离范围被设定为人的手臂的长度的范围;
根据所述第一深度图像和所述肤色区域,确定手势深度图像;
将所述手势深度图像转换成三维空间图像;
在所述三维空间图像中,确定与预设点之间的空间距离位于第二距离内的空间点,其中,所述第二距离被设定为人的手部的大小;以及
在所述手势深度图像中,确定与所述空间点对应的部分为手势区域,
其中,如果拍摄所述手势的图像设备被穿戴在发出所述手势的对象上,则所述预设点是距离所述图像设备最远的空间点;如果拍摄所述手势的图像设备未被穿戴在发出所述手势的对象上,则所述预设点是距离所述图像设备最近的空间点。
2.根据权利要求1所述的方法,其中,根据所述第一深度图像和所述肤色区域,确定手势深度图像包括:在所述第一深度图像中,确定与所述肤色区域对应的区域为所述手势深度图像。
3.根据权利要求1所述的方法,其中,将所述手势深度图像转换成所述三维空间图像包括:
通过以下公式,将所述手势深度图像中的像素的像素坐标(u,v)转换成三维空间图像中的空间点的三维坐标(x,y,z):
x=(u*d-d*Cx)/fx;
y=(v*d-d*Cy)/fy;
z=d,
其中,fx、fy表示拍摄所述手势的图像设备在x轴和y轴上的焦距,Cx、Cy表示所述手势深度图像的中心和所述图像设备的光轴的中心在x和y方向上的偏移,d表示所述手势深度图像中各像素点的深度值。
4.根据权利要求1所述的方法,其中,根据所述彩色图像确定所述彩色图像中的肤色区域包括:
将所述彩色图像中的像素的R、G和B分量转换成YCrCb空间中的Y、Cr和Cb分量;
对YCrCb空间中的Y、Cr和Cb分量进行非线性变换,以获得Cr’和Cb’分量;以及
确定包括所述Cr’分量的值在133至173的范围内并且所述Cb’分量的值在77至127的范围内的像素的区域为所述肤色区域。
5.根据权利要求4所述的方法,其中,对所述YCrCb空间中的所述Y、Cr和Cb分量进行所述非线性变换,以获得所述Cr’和Cb’分量包括:
对Y分量进行变换以获得
Figure FDA0002996903980000021
Figure FDA0002996903980000022
Figure FDA0002996903980000023
Figure FDA0002996903980000024
对Y分量进行变换以获得所述肤色区域的宽度Wcb和Wcr
Figure FDA0002996903980000025
基于Wcb和Wcr进行非线性变换以获得所述Cr’和Cb’分量:
Figure FDA0002996903980000026
其中,Ki、Kh为常数,Ymin、Ymax为常数,Wci、WLci、WHci为常数,i=b或r。
6.根据权利要求1至5中任一项所述的方法,还包括:基于所述肤色区域,对所述彩色图像进行二值化处理。
7.根据权利要求6所述的方法,所述二值化处理包括:
将所述彩色图像中的肤色区域的像素的灰度设为255,将所述彩色图像中肤色区域以外的像素的灰度设为0。
8.根据权利要求6所述的方法,还包括以下步骤中的至少一个:
将所述第一深度图像之外的像素的灰度设置为零;
将所述手势深度图像之外的像素的灰度设置为零;
将所述手势区域之外的像素的灰度设置为零。
9.根据权利要求1所述的方法,其中,所述第一距离范围是0.5米至1米。
10.根据权利要求1或9所述的方法,其中,所述第二距离是在0.16米至0.23米内。
11.一种用于提取手势的装置,包括:
一个或多个处理器;
存储器,其与所述处理器耦接,并存储有计算机程序指令;
与所述处理器耦接的图像设备,被配置为采集手势的彩色图像和整体深度图像;
其中,所述计算机程序指令在被所述处理器执行时使得所述装置:
获取手势的彩色图像和整体深度图像;
根据所述彩色图像确定所述彩色图像中的肤色区域;
根据所述整体深度图像确定位于第一距离范围内的第一深度图像,其中,所述第一距离范围被设定为人的手臂的长度的范围;
根据所述第一深度图像和所述肤色区域,确定手势深度图像;
将所述手势深度图像转换成三维空间图像;
在所述三维空间图像中,确定与预设点之间的空间距离位于第二距离内的空间点,其中,所述第二距离被设定为人的手部的大小;以及
在所述手势深度图像中,确定与所述空间点对应的部分为手势区域,
其中,如果拍摄所述手势的图像设备被穿戴在发出所述手势的对象上,则所述预设点是距离所述图像设备最远的空间点;如果拍摄所述手势的图像设备未被穿戴在发出所述手势的对象上,则所述预设点是距离所述图像设备最近的空间点。
CN201810427112.3A 2018-05-07 2018-05-07 用于提取手势的方法及其装置 Active CN108564070B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810427112.3A CN108564070B (zh) 2018-05-07 2018-05-07 用于提取手势的方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810427112.3A CN108564070B (zh) 2018-05-07 2018-05-07 用于提取手势的方法及其装置

Publications (2)

Publication Number Publication Date
CN108564070A CN108564070A (zh) 2018-09-21
CN108564070B true CN108564070B (zh) 2021-05-11

Family

ID=63538152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810427112.3A Active CN108564070B (zh) 2018-05-07 2018-05-07 用于提取手势的方法及其装置

Country Status (1)

Country Link
CN (1) CN108564070B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128435B (zh) * 2021-04-27 2022-11-22 南昌虚拟现实研究院股份有限公司 图像中手部区域分割方法、装置、介质及计算机设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8655021B2 (en) * 2012-06-25 2014-02-18 Imimtek, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
CN104598915A (zh) * 2014-01-24 2015-05-06 深圳奥比中光科技有限公司 一种手势识别方法与装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102982557B (zh) * 2012-11-06 2015-03-25 桂林电子科技大学 基于深度相机的空间手势姿态指令处理方法
CN103941866B (zh) * 2014-04-08 2017-02-15 河海大学常州校区 一种基于Kinect深度图像的三维手势识别方法
CN106909872A (zh) * 2015-12-22 2017-06-30 江苏达科智能科技有限公司 人手轮廓识别方法
CN105930784B (zh) * 2016-04-15 2017-10-13 济南大学 一种手势识别方法
CN106485222A (zh) * 2016-10-10 2017-03-08 上海电机学院 一种基于肤色分层的人脸检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8655021B2 (en) * 2012-06-25 2014-02-18 Imimtek, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
CN104598915A (zh) * 2014-01-24 2015-05-06 深圳奥比中光科技有限公司 一种手势识别方法与装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Pedro Trindade et al..Hand gesture recognition using color and depth images enhanced with hand angular pose data.《2012 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI)》.2012, *
Truong Quang Vinh et al..Hand gesture recognition based on depth image using kinect sensor.《2015 2nd National Foundation for Science and Technology Development Conference on Information and Computer Science (NICS)》.2015, *

Also Published As

Publication number Publication date
CN108564070A (zh) 2018-09-21

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US8467596B2 (en) Method and apparatus for object pose estimation
TWI395145B (zh) 手勢辨識系統及其方法
US20170323465A1 (en) Image processing apparatus, image processing method, and storage medium
CN111345029B (zh) 一种目标追踪方法、装置、可移动平台及存储介质
TWI394093B (zh) 一種影像合成方法
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2000105829A (ja) 顔パーツ検出方法及びその装置
CN110956114A (zh) 人脸活体检测方法、装置、检测系统及存储介质
KR101624801B1 (ko) 전경 물체 추출을 위한 매팅 방법 및 이를 수행하는 장치
KR20150130767A (ko) 사용자의 손 영역을 검출하기 위한 사용자 손 검출 장치 및 그 동작 방법
US11315360B2 (en) Live facial recognition system and method
US20050147304A1 (en) Head-top detecting method, head-top detecting system and a head-top detecting program for a human face
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
CN108399617B (zh) 一种动物健康状况的检测方法和装置
CN108564070B (zh) 用于提取手势的方法及其装置
KR20070103895A (ko) 손 제스쳐 인식 시스템 및 방법
JP2019205205A (ja) 画像処理装置、画像処理方法、およびプログラム
WO2019229855A1 (ja) 物体検出装置、物体検出システム、物体検出方法、およびプログラムを記録する記録媒体
JPH11306325A (ja) 対象物検出装置及び対象物検出方法
WO2022127916A1 (zh) 图像处理方法、描述子提取方法及其装置、电子设备
JP5051671B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2019168930A (ja) 画像処理装置、画像処理方法及びプログラム
JP7321772B2 (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant