CN103597515B - 用于识别张开的或闭合的手的系统 - Google Patents

用于识别张开的或闭合的手的系统 Download PDF

Info

Publication number
CN103597515B
CN103597515B CN201280027618.6A CN201280027618A CN103597515B CN 103597515 B CN103597515 B CN 103597515B CN 201280027618 A CN201280027618 A CN 201280027618A CN 103597515 B CN103597515 B CN 103597515B
Authority
CN
China
Prior art keywords
hand
filter
user
pixel
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280027618.6A
Other languages
English (en)
Other versions
CN103597515A (zh
Inventor
A·安布鲁斯
K·D·李
A·坎贝尔
D·哈利
B·芒特
A·罗布斯
D·奥斯本
S·赖特
N·沙卡斯
D·希尔
D·麦克洛克
A·巴兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN103597515A publication Critical patent/CN103597515A/zh
Application granted granted Critical
Publication of CN103597515B publication Critical patent/CN103597515B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Abstract

公开了涉及用于生成目标用户的计算机模型的流水线的系统和方法,该计算机模型包括用户的手的手模型,用户的手在NUI系统中由图像传感器捕捉。该计算机模型表示对用户的一个或多个手的位置的最佳估计,以及该一个或多个手是处于张开状态还是闭合状态。所生成的手模型可由游戏或其他应用使用来将其确定为用户姿势和控制动作。

Description

用于识别张开的或闭合的手的系统
背景
在过去,诸如计算机游戏和多媒体应用之类的计算应用使用控制器、遥控器、键盘、鼠标等来允许用户操纵应用的游戏角色或其他方面。近来,计算机游戏和多媒体应用已开始使用相机和软件姿势识别引擎来提供自然用户界面(“NUI”)。使用NUI,检测、解释原始关节数据和用户姿势并将其用于控制游戏人物或应用的其他方面。
NUI系统的挑战之一是在图像传感器的视场中区分人并正确地标识他或她的身体部位(包括手和手指)在视场中的位置。用于跟踪手臂、腿、头部和躯干的例程是已知的。然而,给定用户手部的细微细节和各种位置,常规系统不能够满意地识别并跟踪用户的身体(包括手指和手)位置。检测用户的手是张开的还是闭合的可被用在各种控制和/或应用度量中。使系统能够可靠地检测用户的一个或多个手是张开的还是闭合的状态会是有用的。
概述
本文公开了用于使用NUI系统来识别和跟踪用户的骨架关节(包括手和手指位置以及手是张开的还是闭合的)的各系统和方法。在各示例中,对手和手指位置的跟踪可被NUI系统用于触发诸如选择、参与、或抓取及拖曳屏幕上的对象之类的事件。各种其他姿势、控制动作和应用可被本技术启用以用于识别和跟踪手和手指位置及运动。通过确定用户手部的张开或闭合状态,用户与NUI或其他系统的交互可以增多,且可以向用户呈现更简单和更直观的界面。
在一个示例中,本公开涉及一种用于生成包括一个或多个手指的用户的手的模型的方法,包括:(a)接收表示与传感器交互的用户的位置的位置数据,该位置数据包括表示用户的手的深度和图像数据中的至少一者;以及(b)分析该位置数据以标识手是处于张开的还是闭合的状态,该步骤(b)包括以下步骤:(b)(1)从该步骤(a)中捕捉的位置数据中分析深度数据,以将该位置数据分割成手的数据,以及(b)(2)通过将一个或多个过滤器应用于该步骤(b)(1)中所标识的手的图像数据来提取一组特征描述符,该一个或多个过滤器相比于手边界外的图像数据来分析手的图像数据,以辨别包括手形状的手的特征。
在又一示例中,本公开涉及一种用于确定被检测的手是张开还是闭合的系统,该系统包括操作地耦合到计算设备的传感机制,该系统包括:骨架识别引擎,用于从包括图像和深度数据中的至少一者的收到数据中识别用户的骨架的至少一部分,图像分割引擎,用于将身体的一个或多个区域分割成表示用户的手的区域,以及描述符提取引擎,用于提取表示包括一个或多个手指的手以及手是张开还是闭合的数据,该描述符提取引擎应用多个过滤器来分析表示手的区域中的像素,多个过滤器中的每一过滤器确定手的位置以及张开或闭合状态,该描述符提取引擎组合每一过滤器的结果以得到手是张开还是闭合的最佳估计。
在另一示例中,本公开涉及一种不包括已调制数据信号的计算机可读存储介质,该计算机可读存储介质具有用于对处理器编程以执行用于针对自然用户界面生成包括一个或多个手指的用户的手部模型的方法的计算机可执行指令,该方法包括:(a)接收与自然用户界面进行交互的用户的图像数据,(b)分析该图像数据,以在该图像数据中标识手,以及(c)将所标识的手的图像数据针对预定义的手位置进行比较,以确定用户是否已执行以下预定义的手姿势或控制动作之一:(c)(1)抓取姿势;(c)(2)释放姿势;(c)(3)拉取姿势,其中手被确定为紧密围绕虚拟对象并致动该虚拟对象;(c)(4)通过标识张开的手来发起并保持动作;以及(c)(5)通过标识闭合的手来终止动作。
提供本概述是为了以简化的形式介绍将在以下详细描述中进一步描述的选择的概念。本概述不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中所提及的任何或所有缺点的实现。
附图说明
图1A示出了目标识别、分析和跟踪系统的示例实施例。
图1B示出了目标识别、分析和跟踪系统的另一示例实施例。
图1C示出了目标识别、分析和跟踪系统的又一示例实施例。
图2示出了可以在目标识别、分析和跟踪系统中使用的捕捉设备的示例实施例。
图3示出了用于表示人类目标的示例性身体模型。
图4示出了用于表示人类目标的示例性骨架模型的基本上正面的视图。
图5示出了用于表示人类目标的示例性骨架模型的斜视图。
图6示出了根据本发明技术的一个实施例的用于跟踪目标的流水线的流程图。
图7例示根据本公开的一个实施例的确定用户手部状态的示例方法。
图8是根据本公开的一个实施例的图像分割引擎的操作的流程图。
图9是根据本公开的一个实施例的像素分类过滤器的操作的流程图。
图10是根据本公开的一个实施例的像素分类过滤器的操作的决策树。
图11A和11B例示根据本公开的一个实施例的使用像素分类过滤器进行的指尖标识。
图12例示根据本公开的一个实施例的使用像素分类过滤器进行的手指标识。
图13例示根据本公开的一个实施例的使用像素分类过滤器所标识的手的一部分。
图14例示根据本公开的一个实施例的使用像素分类过滤器进行的手和手指标识。
图15是根据本公开的一个实施例的曲率分析过滤器的操作的流程图。
图16例示根据本公开的一个实施例的使用曲率分析过滤器进行的手和手指标识。
图17例示根据本公开的一个实施例的使用深度直方图过滤器进行的张开和闭合的手的分析。
图18例示根据本公开的一个实施例的使用统计过滤器的张开和闭合的手的图像。
图19是根据本公开的一个实施例的自然抓取过滤器的操作的流程图。
图20是用于基于手过滤器对手位置进行分类的管理员过滤器的流程图。
图21A示出了可用于解释目标识别、分析和跟踪系统中的一个或多个姿势的计算环境的示例实施例。
图21B示出了可用于解释目标识别、分析和跟踪系统中的一个或多个姿势的计算环境的另一示例实施例。
具体实施方式
现在将参考附图1A-21B来描述本发明技术的各实施例,这些实施例一般涉及用于生成由NUI系统中的图像传感器所捕捉的目标用户的计算机模型(包括该用户的手和/或手指的手模型)的流水线。计算机模型可为所捕捉的图像数据的每一帧生成一次,并表示对在所捕捉的帧期间用户位置(包括姿态)的最佳估计。为每一帧生成的手模型可由游戏或其他应用使用来将其确定为用户姿势和控制动作。手模型还可被反馈回到流水线中以帮助将来的模型确定。
最初参考图1A-2,用于实现本发明技术的硬件包括目标识别、分析和跟踪系统10,该系统可用于识别、分析和/或跟踪诸如用户18等人类目标。目标识别、分析和跟踪系统10的各个实施例包括用于执行游戏或其他应用程序的计算环境12。计算环境12可包括硬件组件和/或软件组件,以使计算环境12可用于执行诸如游戏和非游戏应用程序之类的应用。在一个实施例中,计算环境12可包括诸如标准化处理器、专用处理器、微处理器之类的处理器,该处理器可执行存储在处理器可读的存储设备上的用于执行此处所描述的过程的指令。
系统10还包括捕捉设备20,捕捉设备20用于捕捉与捕捉设备所感测的一个或多个用户和/或对象有关的图像和音频数据。在各实施例中,捕捉设备20可用于捕捉与一个或多个用户的身体和手移动和/或姿势和话音相关的信息,该信息由计算环境接收并且用于呈现游戏或其他应用的各方面、与这些方面交互和/或控制这些方面。以下更详细地解释计算环境12和捕捉设备20的示例。
目标识别、分析和跟踪系统10的各个实施例可连接到具有显示器14的音频/视觉(A/V)设备16。设备16可以例如是可向用户提供游戏或应用视觉和/或音频的电视机、电话、用于计算机的监视器、高清电视机(HDTV)等。例如,计算环境12可包括诸如图形卡之类的视频适配器和/或诸如声卡之类的音频适配器,这些适配器可提供与游戏或其他应用程序相关联的音频/视觉信号。A/V设备16可从计算环境12接收音频/视觉信号,并且随后可向用户18输出与这些音频/视觉信号相关联的游戏或应用程序视觉和/或音频。根据一个实施例,音频/视觉设备16可经由例如S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆、分量视频电缆等连接到计算环境12。
在各个实施例中,计算环境12、A/V设备16和捕捉设备20可协作以在显示器14上呈现化身或屏上角色19。例如,图1A示出用户18正在玩足球游戏应用。跟踪并使用用户的移动来使化身19的移动动画化。在各个实施例中,化身19模仿用户18在现实世界空间中的移动,使得用户18可执行对化身19在显示器14上的移动和动作进行控制的移动和姿势。
如上面解释的,运动估计例程(诸如骨架映射系统)可能缺乏检测用户的细微姿势(诸如,用户手的移动)的能力。例如,如图1B所示,用户可能希望通过用他的手来滚动并控制用户界面21来与NUI系统10进行交互。或者,用户可诸如举例而言通过张开和/或闭合她的手(如图1C中23和25所示)来尝试执行各种姿势。
因此下面描述的系统和方法将涉及用户手部状态的确定。例如,闭合和张开手的动作可被这样的系统用于触发诸如选择、参与、或抓取和拖曳屏幕上的对象(例如,对象27(图1C))之类的事件。这些动作将以其他方式对应于在使用控制器时按下按钮。这些经过提炼的无控制器交互可用作基于手部挥舞或回旋的途径的替换,后者可能是非直观或麻烦的。各种其他姿势、控制动作和应用可被本发明技术启用以用于识别和跟踪手部运动,其中的某些将在下文中更详细地描述。通过如下所述地确定用户手部状态,用户与系统的交互可以增多,且可以向用户呈现更简单和更直观的界面。
图1A-1B包括静态的背景对象23,诸如地板、椅子和植物。这些对象是在捕捉设备20所捕捉的视场(FOV)内的对象,但是不逐帧改变。除了所示的地板、椅子和植物,静态对象可以是捕捉设备20中的图像相机拾取的任何对象。场景内的附加静态对象可包括任何墙、天花板、窗、门、墙面装饰等。
系统10及其组件的合适的示例在以下共同待审的专利申请中找到,这些专利申请全部特此通过引用结合于此:于2009年5月29日提交的名称为“Environment And/OrTarget Segmentation(环境和/或目标分割)”的美国专利申请S/N.12/475,094;于2009年7月29日提交的名称为“Auto Generating a Visual Representation(自动生成视觉表示)”的美国专利申请S/N.12/511,850;于2009年5月29日提交的名称为“Gesture Tool(姿势工具)”的美国专利申请S/N.12/474,655;于2009年10月21日提交的名称为“Pose TrackingPipeline(姿态跟踪流水线)”的美国专利申请S/N.12/603,437;于2009年5月29日提交的名称为“Device for Identifying and Tracking Multiple Humans Over Time(用于随时间标识和跟踪多个人的设备)”的美国专利申请S/N.12/475,308;于2009年10月7日提交的名称为“Human Tracking System(人类跟踪系统)”的美国专利申请S/N.12/575,388;于2009年4月13日提交的名称为“Gesture Recognizer System Architecture(姿势识别器系统架构)”的美国专利申请S/N.12/422,661;以及于2009年2月23日提交的名称为“StandardGestures(标准姿势)”的美国专利申请S/N.12/391,150。
图2示出可在目标识别、分析和跟踪系统10中使用的捕捉设备20的一个示例实施例。在一个示例实施例中,捕捉设备20可被配置成经由任何合适的技术来捕捉具有可包括深度值的深度图像的视频,这些技术包括例如飞行时间、结构化光、立体图像等。根据一个实施例,捕捉设备20可以将所计算的深度信息组织成“Z层”,即可与从深度相机沿其视线延伸的Z轴相垂直的层。X和Y轴可被定义为与Z轴垂直。Y轴可以是垂直的,而X轴可以是水平的。X、Y和Z轴一起定义捕捉设备20所捕捉的3-D真实世界空间。
如图2所示,捕捉设备20可包括图像相机组件22。根据一个示例实施例,图像相机组件22可以是可捕捉场景的深度图像的深度相机。深度图像可以包括所捕捉场景的二维(2-D)像素区域,其中2-D像素区域中的每个像素都可表示深度值,比如例如所捕捉场景中的对象距相机的以厘米、毫米等为单位的长度或距离。
如图2所示,根据一个示例实施例,图像相机组件22可包括可用于捕捉场景的深度图像的IR光组件24、三维(3-D)相机26,以及RGB相机28。例如,在飞行时间分析中,捕捉设备20的IR光组件24可将红外光发射到场景上,并且随后可使用传感器(未示出)、用例如3-D相机26和/或RGB相机28来检测从场景中的一个或多个目标和物体的表面反向散射的光。
在一些实施例中,可以使用脉冲红外光,以使得可以测量出射光脉冲与相应入射光脉冲之间的时间,并且将其用于确定从捕捉设备20到场景中的目标或物体上的特定位置的物理距离。另外,在其他示例实施例中,可以将出射光波的相位与入射光波的相位相比较来确定相移。该相移然后可以用于确定从捕获设备20到目标或物体上的特定位置的物理距离。
根据另一示例性实施例,飞行时间分析可被用来通过经由包括例如快门式光脉冲成像在内的各种技术分析反射光束随时间的强度间接地确定从捕捉设备20到目标或物体上的特定位置的物理距离。
在另一示例实施例中,捕捉设备20可以使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即被显示成诸如网格图案或条纹图案的已知图案的光)可以经由例如IR光组件24被投射到场景上。在落到场景中的一个或多个目标或物体的表面上以后,作为响应,图案可以变为变形的。图案的这样的变形可以被例如3-D相机26和/或RGB相机28捕捉,并且随后可被分析以确定从捕捉设备20到目标或物体上的特定位置的物理距离。
根据另一实施例,捕捉设备20可包括可以从不同的角度观察场景的两个或更多个在物理上分开的相机,以获取可以被解析以生成深度信息的视觉立体数据。在另一示例实施例中,捕捉设备20可使用点云数据(point cloud data)和目标数字化技术来检测用户的特征。其他传感器系统可被用在又一些实施例中,诸如举例而言能够检测x、y和z轴的超声系统。
捕捉设备20还可包括话筒30。话筒30可包括可接收声音并将其转换成电信号的换能器或传感器。根据一个实施例,话筒30可用于减少目标识别、分析和跟踪系统10中的捕捉设备20与计算环境12之间的反馈。另外,话筒30可用于接收也可由用户提供的音频信号,以控制可由计算环境12执行的诸如游戏应用、非游戏应用等之类的应用。
在一示例实施例中,捕捉设备20还可包括能与图像相机组件22通信的处理器32。处理器32可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令可包括用于接收深度图像的指令、用于确定合适的目标是否可包括在深度图像中的指令、用于将合适的目标转换成该目标的骨架表示或模型的指令、或任何其他合适的指令。
捕捉设备20还可包括存储器组件34,存储器组件34可存储可由处理器32执行的指令、3-D相机或RGB相机捕捉到的图像或图像的帧、或任何其他合适的信息、图像等。根据一示例实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的存储组件。如图2所示,在一个实施例中,存储器组件34可以是与图像相机组件22和处理器32通信的单独组件。根据另一个实施例,可将存储器组件34集成到处理器32和/或图像相机组件22中。
如图2所示,捕捉设备20可经由通信链路36与计算环境12通信。通信链路36可以是包括例如USB连接、火线连接、以太网电缆连接等有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等无线连接。根据一个实施例,计算环境12可以经由通信链路36向捕捉设备20提供时钟,该时钟可用于确定何时要捕捉例如场景。
另外,捕捉设备20可提供由例如3-D照相机26和/或RGB照相机28所捕捉的深度信息和图像。有了这些设备的帮助,可根据本发明技术开发部分骨架模型,其中所得数据经由通信链路36提供给计算环境12。
计算环境12还可包括用于如下所解释地识别姿势的姿势识别引擎190。根据本系统,计算环境12还可包括骨架识别引擎192、图像分割引擎194、描述符提取引擎196以及分类器引擎198。这些软件引擎的每一种都会在以下更详细地描述。
图3示出了由骨架识别引擎192所生成的示例身体模型70的非限制视觉表示。身体模型70是所建模的目标(例如,图1A和1B的用户18)的机器表示。身体模型可包括一个或多个数据结构,该一个或多个数据结构包括一组变量,该组变量一起以游戏或其他应用/操作系统的语言来定义被建模的目标。
目标的模型可在不背离本公开的范围的情况下不同地被配置。在一些示例中,模型可包括将目标表示为包括刚性和/或可变形形状、或身体部位的三维模型的一个或多个数据结构。每一身体部位可被表征为数学图元,其示例包括但不限于球体、各向异性地缩放的球体、圆直方柱体、各向异性圆直方柱体、平滑圆直方柱体、方框、斜面方框、棱直方柱等。
例如,图3的身体模型70包括身体部位bp1至bp14,其各自表示被建模的目标的不同部分。每一身体部位都是三维形状。例如,bp3是表示被建模的目标的左手的矩形棱直方柱,而bp5是表示被建模的目标的左上臂的八角棱直方柱。身体模型70是示例性的,因为身体模型可包含任意数量的身体部位,其各自可以是被建模的目标的相应部位的任何机器可理解的表示。
包括两个或更多身体部位的模型还可包括一个或多个关节。每一关节可允许一个或多个身体部位相对于一个或多个其他身体部位移动。例如,表示人类目标的模型可包括多个刚性和/或可变形身体部位,其中一些身体部位可表示人类目标的相应解剖学身体部位。此外,该模型的每一身体部位可包括一个或多个结构件(即,“骨骼”或骨架部位),且关节位于相邻骨骼的交叉点处。应当理解,一些骨骼可对应于人类目标中的解剖学骨骼,和/或一些骨骼在人类目标中可能不具有相应的解剖学骨骼。
骨骼和关节可共同构成骨架模型,它们可以是身体模型的构成元素。在一些实施例中,骨架模型可代替另一类型的模型(诸如,图3的模型70)来使用。骨架模型可包括每一身体部位的一个或多个骨架构件以及相邻骨架构件之间的关节。示例性骨架模型80和示例性骨架模型82分别在图4和5中示出。图4示出了从正面看的具有关节j1到j33的骨架模型80。图5示出如从斜视图查看的也具有关节j1至j33的骨架模型82。骨架模型可在不背离本发明的精神的情况下包括更多或更少的关节。在下文中所解释的本系统的其他实施例使用具有31个关节的骨架模型来操作。
上述身体部位模型和骨架模型是可用作被建模的目标的机器表示的非限制模型类型示例。其他模型也在本公开的范围之内。例如,一些模型可包括多边形网格、片、非均匀理性B样条、细分表面、或其他高阶表面。模型还可包括表面纹理和/或其他信息来更准确地表示被建模的目标的衣着、头发和/或其他方面。模型可任选地包括与当前姿态、一个或多个过去的姿态和/或模型物理学有关的信息。应当理解,可摆姿态的各种不同的模型与本文描述的目标识别、分析和跟踪是兼容的。
用于生成捕捉设备20视场内的一个或多个用户的骨架模型的软件流水线是已知的。一种这样的系统在例如2010年9月7日提交的题为“System For Fast,ProbabilisticSkeletal Tracking(用于快速、概率性骨架跟踪的系统)”的美国专利申请S/N.12/876,418中公开,该申请在此通过引用整体结合于此。在特定条件下,例如在用户足够接近捕捉设备20且用户的至少一只手可从其他背景噪声中区分开来的情况下,软件流水线还能够为这只手和/或FOV内一个或多个用户的手指生成手模型。
图6是用于识别和跟踪用户的手和/或手指的软件流水线的流程图。在步骤200,流水线从捕捉设备20接收深度图像。图7中的302例示用户的一部分的深度图像。深度图像中的每一像素包含深度信息,例如如通过灰度梯度在图7中例示的。例如,在302,如用户左手的深黑区域所指示的,左手更靠近捕捉设备20。捕捉设备或深度摄像机捕捉观察场景内的用户的图像。如下所述,用户的深度图像可被用来确定用户的各区域的距离信息、用户的尺度信息、曲率和用户的骨架信息。
在步骤204,如上所述,流水线的骨架识别引擎192估计用户的骨架模型,以便从步骤200所获取的深度图像中获取虚拟骨架。例如,在图7中,虚拟骨架304被示为从302所示的用户的深度图像估计。
在步骤208,流水线经由流水线的图像分割引擎194来分割用户的一只或多只手。在某些示例中,除手之外,图像分割引擎194可另外地分割身体的一个或多个区域。分割用户的手部包括标识深度图像中对应于手的区域,其中标识至少部分地基于步骤204中所获得的骨架信息。图7例示了基于所估计的骨架304将用户的深度图像分割成不同区域306(如不同阴影的区域所指示)的示例。图7示出所定位的与用户举起的右手对应的手部区域308。
可以用各种方式来分割或定位手或身体区域,并可基于上文描述的骨架估计中标识的所选关节。作为一个示例,深度图像中的手部检测和定位可以是基于所估计的骨架中估计的手腕和/或手端关节。例如,在某些实施例中,深度图像中的手部分割可使用对手部关节周围的深度图像的拓扑搜索来执行,从而将深度图像中的附近局部极值定位成指尖候选。图像分割引擎194随后通过考虑如从所估计的骨架中确定的身体大小比例因子以及边界标识的深度不连续性来分割手的其余部分。
作为另一示例,可采用泛洪填充法来标识深度图像中与用户手部对应的区域。在泛洪填充法中,可以从初始点和初始方向开始搜索深度图像,例如初始点可以是腕关节,初始方向可以是从肘部到腕关节的方向。可基于在初始方向上的投影来对深度图像中的邻近像素进行迭代计分,作为对背离肘部且朝向手端的点赋予偏好的方式,而深度一致性约束(诸如深度不连续性)可被用来标识深度图像中用户手部的边界或极值。在某些示例中,例如可使用阈值距离值,来基于固定值或按比例地基于所估计的用户的尺寸在初始方向的正向和反向两者上限制深度图搜索。
作为另一示例,可使用根据骨架关节(例如腕或手端关节)放置的边界圆或其他合适的边界形状来包含深度图像中的所有像素,直到深度不连续。例如,可使得窗口划过边界圆以标识深度不连续,这可用于在深度图像的手部区域中建立边界。
定界形状方法还可用于围绕手掌中心放置定界形状,手掌中心可被迭代地标识。这种迭代定界方法的一个示例被公开在:David Tuft的题为“Kinect Developer Summitat GDC2011:Kinect for XBOX360(2011年游戏开发者大会之Kinect开发者峰会:针对XBOX360的Kinect)”的演示,作为附件1附在此;以及由K.Abe,H.Saito,S.Ozawa在IEEE系统、人类、和控制论国际会议学报,2000年第2卷上发表的“3D drawing system via handmotion recognition from cameras(经由来自相机的手部运动识别的3D绘制系统)”,该出版物在此通过引用整体结合于此。
一般而言,这种方法涉及用于从模型中挑出像素的若干遍迭代。在每一遍中,该方法选出以手为中心的圆或其他形状外部的像素。接着,该方法选出(沿手臂向量)距手的端部太远的像素。随后该方法执行边缘检测步骤,以对手部边界进行边缘检测并且移除未连接的岛。根据这种方法的示例步骤在图8的流程图中示出。在步骤224,围绕手的中心生成定界形状,手的中心由来自骨架识别引擎192的手关节数据给出。定界形状大到足以涵盖整只手,并且是三维的。在步骤226,选出定界形状外部的像素。
在深度图像中可能会发生用户的手接近他或她的身体、或接近用户的第二只手,且来自那些其他身体部位的数据最初将被包括在所分割的图像中。可执行连接的组件标记来在所分割的图像中标记不同的质心。该质心(最有可能是手)基于其大小和手关节的位置来选择。未被选择的这些质心可被选出。在步骤230,还可选出沿自所附手臂的向量距手的端部太远的像素。
来自骨架识别引擎192的骨架数据可能是噪声,因此针对手的数据被进一步细化以标识手的中心。这可通过迭代该图像并且测量每一像素到手部轮廓边缘的距离来完成。图像分割引擎194随后可执行加权平均以计算出最大/最小距离。即,在步骤232,对于所分割的手部图像中的每一像素,标识沿x和y轴到手部轮廓边缘的最大距离,并且标识沿x和y轴到手部轮廓边缘的最小距离。取到该边缘的距离作为权重,且随后跨所有测量的像素取所确定的各最小距离的加权平均,以计算出图像内可能的手部位置的中心(步骤234)。使用新中心,该过程可被重复迭代,直到掌心从先前迭代的改变在某一容差内。
在一些方法中,当用户向外举起手、或将手举过躯干、或在躯干前举起手时可执行手部区域分割。这样,由于手部区域更容易和身体区分开,因此深度图像中的手部区域的标识会较不模糊。手部图像在用户的手掌位于面向捕捉设备20时特别清晰,此时手部特征可被检测作为轮廓。这些特征可以是噪声,但是有轮廓的手允许基于例如使用各种不同的方法检测手指之间的间隙以及看到手的总体形状并且对其映射,来作出关于手正在做什么的有见识的决定。检测那些间隙和其他特征允许识别特定手指,以及该手指正指向何处的一般方向。
应理解上述的示例性手部分割的例子是作为举例目的提出,并不旨在限制本发明的范围。通常,任何手部或身体部位分割方法都可单独使用,彼此结合使用,和/或与上述的一种示例性方法结合使用。
继续图7的流水线,步骤210涉及提取区域(例如,如在步骤208中所标识的深度图像中与手部对应的区域)的形状描述符。步骤210中的形状描述符由描述符提取引擎196提取,并且可以是被用于对手部区域进行分类的手部区域的任何适当的表示。在某些实施例中,形状描述符可以是用于编码或描述手部区域形状的向量或数字集合。
描述符提取引擎196可在步骤210使用各种过滤器中的任一个来提取形状描述符。一种过滤器可被称为像素分类器,现在将参考图9的流程图、图10的决策树以及图11-14的图示来描述。在步骤240,选择所分割的图像的前景中的像素。这些是至少在名义上被认为是用户手部的一部分的像素。围绕所选像素取预定义大小的框,其中所选像素位于中心。在各实施例中,框的大小可被选为标准化手指宽度的1.5倍。“标准化手指”是已基于骨架模型的大小以及检测到的用户距捕捉设备20的距离而被调整成标准化大小的用户手指。针对名义上被认为是手的一部分的每一像素相继运行以下步骤。
在步骤242,像素分类器过滤器确定框的多少边缘被相交。相交是图像从前景(手上)变换到背景(不在手上)的地方。例如,图11A示出手指276、手指上所选择的像素278、以及上面描述的半径为r围绕该像素的框280。框沿单个边缘在两点处被相交,即,点281a和281b。点281a和281b是图像从前景(手指)变换到背景的地方。出于定义如以下解释的手部质心的目的,所有与其相应框280的边缘具有两个相交点的像素278都被视为指尖(或如以下解释的指节或手臂的一部分)。
在步骤246,像素分类器过滤器确定相交是在同一边缘上还是在不同边缘上。如图11B中可见,手指可沿两个相邻边缘而不是沿着同一边缘与框280相交。这一信息可用于确定手指所指向的方向,如以下解释的。
出于定义如以下解释的手部质心的目的,与指尖相反,与像素的框280相交于四个点的该像素将被视为手指。例如,图12示出一个示例,其中所选择的像素278足够远离指尖,且存在与框280的四个相交点281a、281b、281c和281d。
在图9流程图中的步骤242以及图10决策树中的264,像素分类器过滤器检查框280有多少边缘相交。如果没有边缘相交,则在265所选择的像素被视为在用户手掌内。即,由于框280的大小被选择成使得如果像素位于手指或指尖中,则至少两个边缘将相交,因此如果像素位于手上且没有边缘相交,则像素被视为位于手掌中。如果两个边缘相交,则如以下解释的,过滤器前进到266以检查不相交边缘的角是实的(在手掌上)还是空的(背景)。如果在267四个边缘相交,则如以上解释的,它被视为是手指,。如果在268框280的边相交六次,则这被视为无效读数且被丢弃(步骤250)。
再次参考266,其中两个边缘相交,则它可能是指尖,但它也可能是两个相邻手指之间的空间。因此,像素分类器过滤器检查不相交的边缘的角(步骤248)。在不相交的边缘的角是实的情况下,这意味着框位于那些角处的手上,且相交点定义相邻手指之间的谷。相反,在不相交的边缘的角是空的(如与266相关联的图示中所示)情况下,这意味着框位于那些角处的背景像素上,且相交点定义手的一部分。
如果角是空的,则在269像素分类器过滤器检查相交点之间的距离(被称为弦长)是否小于手指的最大宽度(步骤252)。即,在存在两个相交点的情况下,它可能是如图11A所示的指尖。然而,像素还可能是手臂的一部分或手的一部分(诸如指节),如图13所示。如果这样,则弦长282可能大于手指的最大宽度。如果这样,在271(图10)像素278(针对像素278来检查框280)被认为位于手臂或指节上。
除了标识指尖或手指之外,两点或四点相交也可揭示指尖/手指正指向的方向。例如,在图11A中,存在小于手指最大宽度的两个相交,因此确定了像素278位于指尖中。然而,给定这样的相交,可以作出关于指尖正指向的方向的推断。这同样适用于图12中示出的手指。图11A示出手指276笔直向上指。但指尖276也可能在其他向上的方向上指着。来自指尖276中的点278附近的其他点的信息可用于进一步作出关于方向的推断。
图11B示出两点相交,该两点相交提供关于手指/指尖正指向的方向的附加推断。即,可从至共用角的距离之比来推断方向。换言之,点281a和281b之间的弦长定义了三角形的斜边,还包括点281a、281b和共用角之间的侧边。可以推断该手指正在与斜边垂直的方向上指着。
可能会发生举着手而两个手指并在一起、三个手指并在一起、或四个手指并在一起。因此,在使用针对手中每一像素的框208来运行以上步骤之后,该过程可使用稍微大于两个手指并在一起的最大宽度的框280来重复,并且随后使用稍微大于三个手指并在一起的最大宽度的框280来再次重复等。
一旦像素分类器过滤器数据被收集,在步骤258(图9)像素分类器过滤器接着尝试从该数据中构建手模型。如以下揭示的,根据这一信息,分类器引擎198能够确定手是张开的还是闭合的。存在所标识的小区域、或质心,诸如例如作为指尖的区域,以及作为手掌的区域,以及来自手部分割步骤的手掌中心的概念。分类器引擎198随后检查那些未被分类成指尖但由于它们相交于四个点而被分类成手指的手指质心。还针对手指和指尖区域标识方向定向。如果手指质心与指尖质心对齐,且它们彼此位于正确的相对位置,则算法连接那些质心作为属于同一手指。
接着,手指区域的定向用于基于骨架大小以及手指被认为有多大来投影手指的指节被认为是在哪里。手指之间的任何所标识的谷的大小、位置和定向也可用于确认所确定的手模型。接着,将所投影的指节位置连接到手掌。在完成后,像素分类器引擎确定骨架手模型284,其中的两个示例在图4中示出。该模型包括连接到手指质心、连接到指节质心、连接到手掌质心的指尖质心。与已知几何结构和手距已知手臂位置的可能位置有关的数据还可用于验证或怀疑所确定的指尖的位置、手指、指节和/或手掌质心位置,以及用于丢弃可被确定为无法形成手的一部分的质心数据。
即使手的一个或多个部分从手模型中丢失,以上仍将构建该模型。例如,手指可能已被遮挡,或者太接近用户的身体或要检测的另一个手。或者用户可能失去一手指。像素分类器过滤器将使用它检测到的手指和手部位置来构建手模型。
可作为像素分类过滤器的附加或替代而运行的另一种过滤器可被称为曲率分析过滤器。这种过滤器聚焦于沿所分割的手部轮廓的边界的曲率,以便在尝试区分手指时确定峰和谷。参考图15中的流程图,在步骤286,以第一像素开始,检查八个周围像素以确定手上的下一像素是哪个。由此,为了每一像素与下一像素之间的连接性,向该每一像素分配0到7之间的一个值。这些数字的链围绕手部轮廓被构建,这给出手部边界。在步骤288,这些值可被转换成围绕手部的角度和轮廓线,以提供手部轮廓线和各个峰的图,诸如图16所示。这些用于生成手部轮廓线和峰的步骤在例如由加拿大魁北克省蒙特利尔市麦吉尔大学计算机视觉和机器人实验室的F.Leymarie,M.D.Levine于1988年发表的题为“Curvaturemorphology(曲率形态学)”的文献中被描述,该文献通过引用整体结合于此。
围绕手部轮廓的各个峰在步骤289中被标识,并且各自针对该峰的各个特征来分析。峰可通过起始点、峰和结束点来定义。如以下解释的,这三个点可形成三角形。可被检查的峰的各个特征包括例如:
·峰的宽度;
·给定峰的最大高度;
·峰内曲率样本的平均高度;
·峰形比(最大高度/平均高度);
·峰的面积;
·手到峰的距离;
·肘到手的方向(x、y和z);
·峰的方向和手臂方向的叉积(手臂方向和峰的方向之间的角度有多小);以及
·峰起始点与最大点之间的向量和最大点与结束点之间的向量的叉积。
在步骤290,这一信息可通过各种机器学习技术(诸如举例而言支持向量机)来运行,以区分手指和手。支持向量机是已知的,并且例如在C.Cortes和V.Vapnik于1995年9月在Machine Learning(机器学习),20(3):273-297上发表的题为“Support-VectorNetworks(支持向量网络)”以及Vladimir N.Vapnik于1995年在纽约Springer发表的题为“Nature of Statistical Learning(统计学习的本质)”中描述,这两者通过引用整体结合于此。其他机器学习技术可被使用并且包括例如回归、最近邻居、(无)监督群集等。在各实施例中,噪声数据可使用隐马尔可夫模型来平滑,以维护手的状态并且滤除噪声。曲率分析过滤器工作良好以标识面朝捕捉设备20的张开的手,但也可被用于标识闭合的手。
上述过滤器可被称为轮廓过滤器,因为它们检查与手部轮廓有关的数据。可使用的进一步的过滤器是直方图过滤器并且被称为深度过滤器,因为它使用深度数据来构建手模型。这一过滤器可作为上述过滤器的附加或替代使用,并且这一过滤器在用户已将他或她的手指向图像捕捉设备20时特别有用。
在直方图过滤器中,可以构建手部区域中的距离直方图。例如,这一直方图可包括15个直方柱,其中每个直方柱包括手部区域中在Z方向(深度)上距最接近相机的点的距离在特定距离范围内的点的数量,这一特定距离范围与这个直方柱关联。例如,这一直方图中的第一个直方柱可包括手部区域中到手质心的距离在0和0.40厘米之间的点的数量,第二个直方柱包括手部区域中到手质心的距离在0.40和0.80厘米之间的点的数量,以此类推。这样,可构建一个矢量来编码手部的形状。这些矢量例如还可根据估计的身体尺寸被标准化。
一般而言,通过分析这些直方柱上的分布,可以确定指向捕捉设备20的手是张开的还是闭合的。如果分布是前部重的(front heavy)(最前面几个直方柱相比于最后面几个直方柱具有大量像素),则可以推断手是闭合的如果分布是后部重的(back heavy)(最后面几个直方柱相比于最前面几个直方柱具有大量像素),则可以推断手是张开的且指向捕捉设备20。由此,张开或闭合状态可从如直方图所指示的质量分布推断。或者,直方图可被各种机器学习分类技术(如这里描述的)用作学习自动预测手的状态的特征。
在另一示例性方法中,可基于手部区域中的点到来自用户的估计骨架的关节、骨节或手掌平面(例如肘关节、腕关节)的距离和/或角度等来构建直方图。图17例示指示针对张开的手和闭合的手所确定的直方图的两个图。
又一过滤器是傅立叶描述符。傅里叶描述符的构建可包括对手部区域的轮廓线进行编码,例如通过将手部区域中从每一像素到手部区域的周界的距离映射到手部边界的椭圆拟合的半径,然后对该映射执行傅里叶变换。此外,例如可相对于所估计的身体尺寸来标准化这些描述符。这些描述符可以是相对于平移、缩放和旋转不变的。
再一过滤器包括确定手部区域的凸性,例如通过确定手部区域的轮廓线中一个区域与手部区域的凸包之比。
在上述过滤器提供信息不足的情况下可使用的又一过滤器被称为不连续性过滤器。这样的过滤器不提供识别或定位信息,但假定图像是手的图像并且标识手是张开的还是闭合的。不连续性过滤器基于以下事实:握紧的拳头相对平滑,并且相比于张开的手的轮廓线具有较少的轮廓线不连续性。因此,如果所测量的轮廓线不连续性小于某一预定阈值,则不连续性过滤器标识闭合的手。如果所测量的轮廓线不连续性大于该预定阈值,则不连续性过滤器标识张开的手。这样的图像数据的示例在图18中示出。
用于检测手的张开/闭合状态的又一过滤器被称为自然抓取过滤器。一般而言,自然抓取过滤器检测其中用户朝捕捉设备20伸出手并且张开及闭合他或她的手的移动。手掌可以面向和可以不面向捕捉设备20。自然抓取过滤器的进一步解释参考图19的流程图来解释。在步骤291,执行进一步分割。该进一步分割检查肘到手的向量,该肘到手的向量由骨架识别引擎192给出并且描述小臂。自然抓取过滤器随后迭代当前手部分割,并且对于每一像素,自然抓取过滤器计算出该像素距肘有多远。只有那些距肘最远的像素被维护,其中最远的被定义成基于用户的特定骨架尺寸的窗口。作为一个示例,对于成年人,它可能是四英寸的窗口,并且在距肘最远的点处开始。该窗口可针对儿童或较小的某个人而改变。
此时,可执行三个子过滤器中的一个或多个。第一个测量深度改变或跳跃。在步骤292,深度跳跃子过滤器在新分割的手部图像中迭代每一像素行和列。迭代可在所有行随后在所有列上执行,或反之亦然。这一子过滤器对深度跳跃数进行计数,其中深度跳跃被认为是图像中从一个像素到下一个像素的深度读数中的大跳跃。在迭代所有行和列后,子过滤器得到具有深度跳跃的行和列的百分比。
基于该百分比,深度跳跃子过滤器可形成关于手是否为张开或闭合的合理估计。闭合的手相比于张开的手将具有少得多的深度跳跃,因为给定手指之间的空间,张开的手将具有深度跳跃(深度跳跃还可由其他原因导致,诸如相机数据噪声导致例如张开的手指)。由于深图跳跃子过滤器的输出是一百分比,因此它对于手部尺寸是不变的。基于从测试中所确立的某一预定义的阈值百分比值,输出可以是二元的(张开/闭合)。另选地或附加地,输出可以是带有置信度值(百分比有多接近该阈值)的张开/闭合输出。
第二个子过滤器可被称为圆形子过滤器。在步骤293,圆形子过滤器检查新分割的手部图像的轮廓,以便确定该轮廓是否为大致圆形。如果是大致圆形,则这指示闭合的手。如果手以任何方式为张开的,其中所分割的图像包括手指或来自相机的额外噪声,则轮廓将较不圆。
作出该确定的方式用于计算新分割的手的质量中心,并且随后检查该图像的轮廓半径的标准偏差。握紧的拳头接近于圆形,并且从中心到轮廓边缘的不同半径的标准偏差将相对小。对于非圆形的某些东西而言标准偏差会较高,因为存在更多变化。由此,基于标准偏差值,圆形子过滤器输出关于手是张开的还是闭合的估计。该过滤器还得出手在轮廓上是垂直于来自捕捉设备的射线还是指向捕捉设备。基于从测试中所确立的某一预定义的阈值标准偏差值,圆形子过滤器的输出可以是二元的(张开/闭合)。另选地或替换地,输出可以是带有置信度值(标准偏差有多接近该阈值)的张开/闭合输出。
第三个子过滤器可被称为球拍(paddle)子过滤器。在步骤294,球拍子过滤器检查用户是否已伸展他们的手或他们的手指,因此张开的手(但他们的所有手指都并在一起)基本上形成一球拍。球拍子过滤器生成带有从指尖向后朝向肘的直方柱的直方图,并且检查这些直方柱中每一直方柱中的像素数量。球拍子过滤器随后分析这些直方柱是否表现为正在变大,或者这些直方柱是否正保持恒定且最终变小。
想法是当手举着如球拍那样而指尖并起来时,指尖处将存在较少像素且它们将朝手的中心生长。相反,如果手闭合握成拳头,拳头所在的顶部处将存在相对更多像素,并且将朝向手腕和手臂逐渐减少。因此,通过使用球拍子过滤器的直方图,并且使用当手成球拍(对照拳头)时的已知外形来分析所获得的直方柱,球拍子过滤器能够提供关于所分割的手是张开的还是闭合的估计。同样,基于从测试中所确立的某一预定义的阈值,球拍子过滤器的输出可以是二元的(张开/闭合)。另选地或附加地,输出可以是带有置信度值(该值有多接近阈值)的张开/闭合输出。
在步骤295,组合来自这些子过滤器的结果,以获取关于手是张开的还是闭合的最终输出或估计。步骤295的组合使用了决策树,决策树查看这些过滤器中每一者的张开和闭合以及置信度值,并且将它们组合在一起以得到最终张开/闭合输出。决策树可被定制,以使每一子过滤器的强势最大化而使弱势最小化。深度跳跃子过滤器可能最可靠。因此,当深度跳跃子过滤器的输出具有大于某一阈值的置信度时,这可被取作最终输出。
圆形子过滤器的结果可能是下一最可靠的。如果深度跳跃子过滤器的结果不具有大于该阈值的置信度,或深度跳跃子过滤器与圆形子过滤器的输出不一致,则圆形子过滤器的结果连同其置信度值可被考虑。如果是高置信度值,则圆形子过滤器的输出可被取作最终输出。
球拍子过滤器的结果可能是下一个最可靠的。如果深度跳跃子过滤器或圆形子过滤器都没有提供置信结果,则在球拍过滤器的结果具有大于某一阈值的置信度值的情况下,该结果可被视为并用作最终输出。
同一决策树类型的分析可用于考虑其他上述过滤器的结果。在一个实施例中,如果曲率分析过滤器提供具有置信度大于某一预定阈值的输出,则该结果可被取作最终输出。如果曲率分析过滤器的置信度不大于该阈值,则直方图过滤器的置信度可被检查。如果大于某一预定阈值,则该结果可被取作最终输出。如果直方图过滤器的置信度不大于该阈值,则自然抓取过滤器的置信度可被检查。如果大于某一预定阈值,则该结果可被取作最终输出。
上述这些过滤器可被标准化和/或对不同大小的手是不变的。这些不同的过滤器还可扩展到多个玩家,以及扩展到每一个这样的玩家的双手。
应理解,这些形状描述符的过滤器示例本质上是示例性的,并非旨在限制本发明的范围。通常,手部区域的任意合适形状描述符都可单独使用,或彼此结合使用,和/或与上述的一种示例性方法结合使用。例如,诸如上述的直方图或向量的形状描述符可被混合并匹配、组合、和/或连接到更大的向量中,等等。这可允许标识那些不能够通过孤立地查看它们来标识的新图案。这些过滤器可通过使用历史帧数据来增强,历史帧数据可指示例如所标识的手指是否与前一帧中所标识的手指偏离太多。
继续图6中示出的流水线,在步骤214,通过使用来自上述这些过滤器的信息,分类器引擎198(图2)能够对手进行分类。例如,可根据所存储的训练数据对在步骤210提取的形状描述符进行分类以估计手部的状态。举例来说,如图7的310处所例示,手部可被分类为张开的或闭合的。在某些示例中,训练数据可包括经过标注的各种手部状态的深度图像示例。训练数据可以是真实的或合成生成的,描绘不同身体尺寸和手臂方位的全部或上身3D模型以及不同的关节手部姿势,这些不同的关节手部姿势是基于运动捕捉或手工设计的手部姿势。可降低合成图像的质量以模拟有噪声的真实图像。
在某些示例中,在分类步骤214中使用的训练数据可以是基于预先确定的手部示例集合。可以基于其对照手部区域的形状描述符作比较的代表性手部状态,来分组或标注手部示例。
在某些示例中,可使用不同的元数据来划分训练数据。例如,训练数据可包括多个手部状态示例并例如根据以下的一个或多个进行划分:手的侧向(例如左或右),手的方位(例如小臂角度或小臂方位),深度,和/或用户的身体尺寸。将这些训练手部示例划分为单独的子集可降低每一部分中手部形状的变化性,这可使得手部状态的整体分类更准确。
另外在某些示例中,训练数据可以是特定于个别应用程序的。也就是说,训练数据可依赖于在给定应用中的期望动作,例如游戏中的期望活动等。此外,在某些示例中,训练数据可以是用户专用的。例如,应用或游戏可包括训练模块,其中用户执行一个或多个训练练习以校准训练数据。例如,用户可作出一系列张开或闭合手的姿势以建立训练数据集,该训练数据集用于在与系统的后续交互期间估计用户手部状态。
可以各种方式基于训练示例来执行用户手部分类。例如,可在分类中采用各种机器学习技术。非限制性示例包括:支持向量机训练、回归、最近邻居、(未)监督聚类等等。
图20示出用于组合上述各个过滤器的结果的管理员过滤器。例如,曲率分析过滤器、深度直方图过滤器、不连续性过滤器、图20中未示出的其他张开/闭合过滤器以及与手臂方向有关的数据可被提供给诸如支持向量机之类的机器。这些结果可使用隐马尔可夫模型来细化以提供对张开或闭合的手的指示。如上面提到的,通过知道从所分析的它们的骨架推导的用户距相机的距离以及手部尺寸,这里描述的各个过滤器中所使用的轮廓可被缩放成对手部尺寸和传感器距离是不变的。
如上所述,这些分类技术可使用各种手部状态的标注深度图像示例,用于预测所观察的手部处于多个状态之一的可能性。另外,可以在分类步骤期间或之后向分类添加置信度。例如,可以根据训练数据或通过将S函数或其他合适的误差函数拟合到分类步骤的输出,来将置信区间赋予所估计的手部状态。
作为分类手部状态的简单、非限制性示例,有两种可能的手部状态,张开或闭合,例如图7的310处所示。在这一示例中,训练数据可包括两种标注手部集合:表示张开或近似张开的手部状态的手部示例的第一集合和表示闭合或近似闭合的手部状态的手部示例的第二集合。这样,当给定所识别的手部区域的所提取的形状描述符时,可以将所识别的手部区域的所提取的形状描述符与第一(张开)和第二(闭合)手部集合的手部示例比较以确定所识别的手部区域落入每一集合的可能性。随后可根据更高的可能性估计出手部的状态。
除了张开或闭合的手部状态以外,本技术还可用于标识特定的手指取向,诸如举例而言用一个或多个手指指向特定方向。本技术还可用于标识各种手部位置,其中手指处于张开状态与闭合状态之间的某个位置并且在x、y、z笛卡尔空间内以各种角度来定向。
例如,如图7的310处所示,所标识的手部区域被确定为有更高的可能性是张开的,从而被如此分类。另外在某些示例中,被确定的所标识的手部为特定手部状态的可能性可以用来建立手部状态估计的置信区间。
在各实施例中,在步骤216(图6),可采用各种分类后过滤步骤来提高手部状态估计的准确性。例如,可对预测的连续深度图像帧之间的手部状态应用时间一致性过滤,如低通过滤步骤,以平滑预测并减少时间抖动,例如由虚假手部运动、传感器噪声、或偶然分类错误引起的时间抖动。也就是说,可执行根据来自捕捉设备或传感器的多个深度图像的用户手部的多个状态的估计,以及执行多个估计的时间过滤以估计手部状态。此外,在某些示例中,分类结果可以偏向一个状态或另一状态(例如偏向张开或闭合手),因为某些应用程序可能比其他应用程序对虚假正值(在一个方向或另一方向)更敏感。
在步骤220,图6的流水线可基于所估计的手部状态输出每一帧的响应。例如可将命令输出至计算系统的控制台,例如计算系统10的控制台12。作为另一示例,可将响应输出至显示设备,例如显示设备16。这样,所估计的用户运动,包括所估计的手部状态可被转换成给系统10的控制台12的命令,从而用户可以如上述般与系统交互。此外,可执行上述的方法或过程以确定用户身体任何部位的状态估计,例如嘴巴、眼睛等。例如,可以使用上述的方法估计用户身体部位的姿势。
本技术允许与NUI系统进行各种各样的交互,诸如图1A-1C所示的。存在各种各样的自然交互,这些自然交互基于手/手指移动、或将大的身体运动和精细粒度的手部控制进行组合,这些自然交互对于创建新识别的姿势、更身临其境的体验以及引人入胜的游戏是合乎需要的。这些使用和交互包括但不限于以下:
·抓取/释放机制——通过能够准确地对每一帧确定用户的手是张开的还是闭合的,NUI系统或应用能够精确地确定它何时执行抓取或释放运动。由此,例如,在其中用户正在投掷对象的游戏中,NUI系统或应用能够确定当用户打算释放所投掷的对象时的精确释放点(从闭合的手变换成张开的手)。其他示例包括但不限于攀爬、射弹弓、掷气球、以及拉取虚拟杆。
·拉取对象——使用张开和闭合手部检测来拉取虚拟对象——绳、杆等等。
·发起/终止动作——张开手以发起和保持一动作,闭合手以终止该动作。示例包括使用游戏中的消防水龙带——张开手打开它,手和手臂取向指向该水龙带,闭合手关闭它。
构想了其他手指和手的交互。
图21A示出了可以用于在目标识别、分析和跟踪系统中解释用户的一个或多个位置和运动的计算环境的示例实施例。上文参考图1A-2所描述的诸如计算环境12等计算环境可以是诸如游戏控制台等多媒体控制台600。如图21A所示,多媒体控制台600具有中央处理单元(CPU)601,所述CPU具有一级高速缓存602、二级高速缓存604,以及闪存ROM606。一级高速缓存602和二级高速缓存604临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU601可被提供为具有一个以上的核,并且由此具有附加的一级高速缓存602和二级高速缓存604。闪存ROM606可存储在多媒体控制台600通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)608和视频编码器/视频编解码器(编码器/解码器)614形成用于高速和高分辨率图形处理的视频处理流水线。经由总线从GPU608向视频编码器/视频编解码器614运送数据。视频处理流水线向A/V(音频/视频)端口640输出数据,用于传输至电视机或其他显示器。存储器控制器610连接到GPU608,以便于处理器对各种类型的存储器612(诸如,但不限于RAM)的访问。
多媒体控制台600包括优选地在模块618上实现的I/O控制器620、系统管理控制器622、音频处理单元623、网络接口控制器624、第一USB主控制器626、第二USB主控制器628以及前面板I/O子部件630。USB控制器626和628用作外围控制器642(1)-642(2)、无线适配器648、以及外置存储器设备646(例如,闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口624和/或无线适配器648提供对网络(例如,因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中的任何一种。
提供系统存储器643来存储在引导过程期间加载的应用数据。提供媒体驱动器644,并且其可包括DVD/CD驱动器、硬盘驱动器,或其他可移动媒体驱动器等。媒体驱动器644可内置或外置于多媒体控制台600。应用数据可经由媒体驱动器644访问,以供多媒体控制台600执行、回放等。媒体驱动器644经由诸如串行ATA总线或其他高速连接(例如IEEE1394)等总线连接到I/O控制器620。
系统管理控制器622提供与确保多媒体控制台600的可用性相关的各种服务功能。音频处理单元623和音频编解码器632形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元623与音频编解码器632之间传输。音频处理流水线将数据输出到A/V端口640,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件630支持暴露在多媒体控制台600的外表面上的电源按钮650和弹出按钮652、以及任何LED(发光二极管)或其他指示器的功能。系统供电模块636向多媒体控制台600的组件供电。风扇638冷却多媒体控制台600内的电路。
多媒体控制台601内的CPU608、GPU610、存储器控制器600、以及各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台600通电时,应用数据可从系统存储器643加载到存储器612和/或高速缓存602、604中,并且可在CPU601上执行。应用可在导航到多媒体控制台600上可用的不同媒体类型时呈现提供一致的用户体验的图形用户界面。在操作中,媒体驱动器644中所包含的应用和/或其他媒体可从媒体驱动器644启动或播放,以将附加功能提供给多媒体控制台600。
多媒体控制台600可通过简单地将该系统连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台600允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口624或无线适配器648可用的宽带连接集成的情况下,多媒体控制台600还可作为更大网络社区中的参与者来操作。
当多媒体控制台600通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可以包括存储器保留量(例如,16MB)、CPU和GPU周期保留量(例如,5%)、网络带宽保留量(例如,8kbs)等。因为这些资源是在系统引导时保留的,所以所保留的资源从应用的角度而言是不存在的。
具体而言,存储器保留量优选地足够大,以包含启动内核、并发系统应用程序和驱动程序。CPU保留量优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留量,通过使用GPU中断来调度代码以将弹出窗口渲染为覆盖图,从而显示由系统应用生成的轻量消息(例如,弹出窗口)。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在完整的用户界面被并发系统应用使用的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率和引起TV重新同步。
在多媒体控制台600引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识出作为系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU601上运行,以便提供对应用而言一致的系统资源视图。调度是为了使在控制台上运行的游戏应用的高速缓存中断最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所描述的)在系统应用活动时控制游戏应用的音频级别(例如,静音、衰减)。
输入设备(例如,控制器642(1)和642(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器优选控制输入流的切换,而无需知道游戏应用的知识,并且驱动器维护关于焦点切换的状态信息。相机26、28和捕捉设备20可为控制台600定义附加输入设备。
图21B示出了计算环境720的另一示例实施例,它可以是用来解释目标识别、分析和跟踪系统中的一个或多个位置和运动的图1A-2中示出的计算环境12。计算系统环境720只是合适的计算环境的一个示例,并且不旨在对当前公开的主题的使用范围或功能提出任何限制。也不应当将计算环境720解释为对示例性操作环境720中所示的任一组件或其组合有任何依赖性或要求。在一些实施例中,各个所示的计算元素可包括被配置成实例化本公开的特定方面的电路。例如,本公开中使用的术语电路可包括被配置成通过固件或开关来执行功能的专用硬件组件。在其他示例实施例中,术语电路可包括通过体现可操作以执行功能的逻辑的软件指令来配置的通用处理单元、存储器等。在电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。由此,对于硬件实现还是软件实现的选择是设计选择之一并留给实现者。
在图21B中,计算环境720包括通常包括各种计算机可读介质的计算机741。计算机可读介质可以是能由计算机741访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器722包括诸如ROM723和RAM760之类的易失性和/或非易失性存储器形式的计算机存储介质。包含诸如在启动期间帮助在计算机741内的元件之间传输信息的基本例程的基本输入/输出系统724(BIOS)通常存储在ROM723中。RAM760通常包含处理单元759可立即访问和/或当前正在操作的数据和/或程序模块。作为示例而非限制,图21B示出了操作系统725、应用程序726、其他程序模块727,以及程序数据728。图21B还包括具有用于高速和高分辨率的图形处理和存储的相关联的视频存储器730的图形处理器单元(GPU)729。GPU729可通过图形接口731连接到系统总线721。
计算机741也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。只作为示例,图21B示出了读写不可移动非易失性磁性介质的硬盘驱动器738、读写可移动非易失性磁盘754的磁盘驱动器739、以及读写诸如CDROM或其他光学介质之类的可移动的非易失性光盘753的光盘驱动器740。可在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器738通常通过诸如接口734之类的不可移动存储器接口连接到系统总线721,并且磁盘驱动器739和光盘驱动器740通常通过诸如接口735之类的可移动存储器接口连接到系统总线721。
上面所讨论的并且在图21B中所示出的驱动器以及它们的相关联的计算机存储介质,为计算机741提供了计算机可读的指令、数据结构、程序模块及其他数据的存储。例如,在图21B中,硬盘驱动器738被示为存储了操作系统758、应用程序757,其他程序模块756,以及程序数据755。注意,这些组件可与操作系统725、应用程序726、其他程序模块727和程序数据728相同,也可与它们不同。在此操作系统758、应用程序757、其他程序模块756以及程序数据755被给予了不同的编号,以说明至少它们是不同的副本。用户可通过诸如键盘751和定点设备752(通常称为鼠标、跟踪球或触摸垫)之类的输入设备将命令和信息输入计算机741。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其他输入设备通常通过耦合到系统总线的用户输入接口736连接到处理单元759,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其他接口和总线结构来连接。相机26、28和捕捉设备20可为控制台700定义附加输入设备。监视器742或其他类型的显示设备也经由诸如视频接口732之类的接口连接至系统总线721。除了监视器以外,计算机还可包括诸如扬声器744和打印机743之类的其他外围输出设备,它们可通过输出外围接口733来连接。
计算机741可使用到一个或多个远程计算机(诸如,远程计算机746)的逻辑连接而在联网环境中操作。远程计算机746可以是个人计算机、服务器、路由器、网络PC、对等设备或其他公共网络节点,通常包括上文参考计算机741所描述的许多或全部元件,但是图21B中只示出了存储器存储设备747。图21B中所描绘的逻辑连接包括局域网(LAN)745和广域网(WAN)749,但是也可以包括其他网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机741通过网络接口或适配器737连接到LAN745。当在WAN联网环境中使用时,计算机741通常包括调制解调器750或用于通过诸如因特网等WAN749建立通信的其他手段。调制解调器750可以是内置的或外置的,可经由用户输入接口736或其他适当的机制连接到系统总线721。在联网环境中,相对于计算机741所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图21B示出了驻留在存储器设备747上的远程应用程序748。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
本发明系统的前述详细描述是出于说明和描述的目的而提供的。这并不旨在穷举本发明系统或将本发明系统限于所公开的精确形式。鉴于上述教导,许多修改和变型都是可能的。选择所述实施例以最好地解释本发明系统的原理及其实践应用,从而允许本领域技术人员能够在各种实施例中并采用各种适于所构想的特定用途的修改来最好地利用本发明系统。本发明系统的范围旨在由所附权利要求书来定义。

Claims (10)

1.一种用于生成包括一个或多个手指的用户的手的模型的方法,包括:
(a)接收表示与传感器交互的用户的位置的位置数据,所述位置数据包括表示用户的手的深度和图像数据中的至少一者;以及
(b)分析所述位置数据以标识手是处于张开的还是闭合的状态,所述步骤(b)包括以下步骤:
(b)(1)从所述步骤(a)中捕捉的位置数据分析深度数据,以将所述位置数据分割成手的图像数据,包括:从所述深度数据中识别用户的骨架的至少一部分以及将身体的一个或多个区域分割成表示用户的手的区域;以及
(b)(2)通过将一个或多个过滤器应用于所述步骤(b)(1)中所标识的手的图像数据来提取一组特征描述符,所述一个或多个过滤器分析表示手的区域中的像素以辨别包括手的形状的手的特征,其中所述一个或多个过滤器中的每一个过滤器的结果被组合以得到手是张开还是闭合的最佳估计;
其中所述一个或多个过滤器包括曲率分析过滤器,所述曲率分析过滤器聚焦于沿所分割的手部轮廓的边界的曲率,以便在尝试区分手指时确定峰和谷。
2.如权利要求1所述的方法,其特征在于,还包括以下步骤:运行经由所述传感器接收命令的应用,并且基于如所述步骤(b)中所标识的手是张开的还是闭合的来影响所述应用中的控制动作。
3.如权利要求1所述的方法,其特征在于,所述步骤(b)(1)包括以下步骤:分析从所述图像数据构建的质心以定位手的最佳候选。
4.如权利要求1所述的方法,其特征在于,所述步骤(b)(1)还包括以下步骤:分析手的最佳候选以确定手的中心的最佳候选。
5.如权利要求1所述的方法,其特征在于,所述步骤(b)(2)中的通过将一个或多个过滤器应用于所述步骤(b)(1)中所标识的手的图像数据来提取一组特征描述符包括应用像素分类器的步骤,应用像素分类器包括以下步骤:
在手的形状描述符的边界内选择像素,
围绕每一像素构建预定大小的框,每一框在所述形状描述符的平面中被构建,
确定与每一框的相交点,所述图像数据于所述相交点处在前景点和背景点之间变换,以及
根据为每一所检查的像素分析每一框的相交点,标识手是张开的还是闭合的。
6.如权利要求1所述的方法,其特征在于,所述步骤(b)(2)中的通过将一个或多个过滤器应用于所述步骤(b)(1)中所标识的手的图像数据来提取一组特征描述符包括应用所述曲率分析过滤器的步骤,应用所述曲率分析过滤器包括以下步骤:
沿着手的形状描述符的边界选择像素,
检查所选择的像素周边的多个像素,并且向所选择的像素分配值,所述值指示哪个周边像素也是沿着选择描述符的边界,
将所述值转换成手周围的角度和轮廓线,包括峰和谷,以及
确定哪些峰表示手的张开的手指或闭合的手指。
7.一种用于确定所检测的手是张开的还是闭合的系统,所述系统包括操作地耦合到计算设备的传感机制,所述系统包括:
骨架识别引擎,用于从包括图像和深度数据的至少一者的收到数据中识别用户的骨架的至少一部分;
图像分割引擎,用于将身体的一个或多个区域分割成表示用户的手的区域;以及
描述符提取引擎,用于提取表示包括一个或多个手指的手以及手是张开还是闭合的数据,所述描述符提取引擎应用多个过滤器来分析表示手的区域中的像素,所述多个过滤器中的每一过滤器确定手的位置以及张开或闭合状态,所述描述符提取引擎组合每一过滤器的结果以得到手是张开还是闭合的最佳估计;
其中所述多个过滤器包括曲率分析过滤器,所述曲率分析过滤器聚焦于沿所分割的手部轮廓的边界的曲率,以便在尝试区分手指时确定峰和谷。
8.如权利要求7所述的系统,其特征在于,所述描述符提取引擎的多个过滤器包括不连续性过滤器,所述不连续性过滤器测量被假定为手的形状周围的轮廓线不连续性,所述不连续性过滤器在所述轮廓线不连续性小于预定阈值时标识闭合的手。
9.如权利要求7所述的系统,其特征在于,所述描述符提取引擎包括自然抓取过滤器,所述自然抓取过滤器检测手朝向所述传感机制的移动以及手的手指是张开的还是闭合的。
10.一种用于针对自然用户界面生成包括一个或多个手指的用户的手的模型的方法,所述方法包括:
(a)接收与自然用户界面进行交互的用户的图像数据;
(b)分析所述图像数据,以在所述图像数据中标识手,包括:所述图像数据中识别用户的骨架的至少一部分以及将身体的一个或多个区域分割成表示用户的手的区域;以及
(c)通过将一个或多个过滤器应用于所标识的手的像素以将表示所标识的手的区域中的像素针对预定义的手位置进行比较,以确定用户是否已执行以下预定义的手姿势或控制动作之一,其中所述一个或多个过滤器中的每一个过滤器的结果被组合以得到手是张开还是闭合的最佳估计:
(c)(1)抓取姿势;
(c)(2)释放姿势;
(c)(3)拉取姿势,其中手被确定为紧密围绕虚拟对象并致动所述虚拟对象;以及
(c)(4)通过标识张开的手来发起并保持动作;以及
(c)(5)通过标识闭合的手来终止动作;
其中所述一个或多个过滤器包括曲率分析过滤器,所述曲率分析过滤器聚焦于沿所分割的手部轮廓的边界的曲率,以便在尝试区分手指时确定峰和谷。
CN201280027618.6A 2011-06-06 2012-06-04 用于识别张开的或闭合的手的系统 Active CN103597515B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161493857P 2011-06-06 2011-06-06
US61/493,857 2011-06-06
US13/299,857 US8929612B2 (en) 2011-06-06 2011-11-18 System for recognizing an open or closed hand
US13/299,857 2011-11-18
PCT/US2012/040788 WO2012170359A2 (en) 2011-06-06 2012-06-04 System for recognizing an open or closed hand

Publications (2)

Publication Number Publication Date
CN103597515A CN103597515A (zh) 2014-02-19
CN103597515B true CN103597515B (zh) 2017-10-24

Family

ID=47261742

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280027618.6A Active CN103597515B (zh) 2011-06-06 2012-06-04 用于识别张开的或闭合的手的系统

Country Status (6)

Country Link
US (1) US8929612B2 (zh)
EP (1) EP2718899A4 (zh)
JP (1) JP6021902B2 (zh)
KR (1) KR101931837B1 (zh)
CN (1) CN103597515B (zh)
WO (1) WO2012170359A2 (zh)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
DE102012101152C5 (de) * 2012-02-14 2019-02-14 Pixformance Sports Gmbh System und Verfahren zur automatischen Kontrolle der korrekten Durchführung einer Fitnessübung
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
JP6360050B2 (ja) * 2012-07-13 2018-07-18 ソフトキネティック ソフトウェア 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
US9838573B2 (en) * 2012-09-18 2017-12-05 Samsung Electronics Co., Ltd Method for guiding controller to move to within recognizable range of multimedia apparatus, the multimedia apparatus, and target tracking apparatus thereof
US9501140B2 (en) * 2012-11-05 2016-11-22 Onysus Software Ltd Method and apparatus for developing and playing natural user interface applications
TWI471815B (zh) * 2012-12-07 2015-02-01 Chunghwa Picture Tubes Ltd 手勢辨識裝置及方法
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
JP6195893B2 (ja) * 2013-02-19 2017-09-13 ミラマ サービス インク 形状認識装置、形状認識プログラム、および形状認識方法
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9342230B2 (en) * 2013-03-13 2016-05-17 Microsoft Technology Licensing, Llc Natural user interface scrolling and targeting
US9142034B2 (en) 2013-03-14 2015-09-22 Microsoft Technology Licensing, Llc Center of mass state vector for analyzing user motion in 3D images
US9159140B2 (en) 2013-03-14 2015-10-13 Microsoft Technology Licensing, Llc Signal analysis for repetition detection and analysis
EP2982422A1 (en) * 2013-04-02 2016-02-10 NEC Solution Innovators, Ltd. Body-motion assessment device, dance assessment device, karaoke device, and game device
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
CN104345873A (zh) * 2013-08-06 2015-02-11 北大方正集团有限公司 用于网络视频会议系统的文件操作方法和装置
US11120491B2 (en) 2013-09-24 2021-09-14 Ebay Inc. Method, medium, and system for social media based recommendations
DE102013017264A1 (de) * 2013-10-17 2015-04-23 Dräger Medical GmbH Verfahren für die Überwachung eines Patienten innerhalb eines medizinischen Überwachungsbereichs
US9400925B2 (en) * 2013-11-15 2016-07-26 Facebook, Inc. Pose-aligned networks for deep attribute modeling
JP6425299B2 (ja) * 2013-12-10 2018-11-21 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
EP2891950B1 (en) 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
US20150199592A1 (en) * 2014-01-14 2015-07-16 Microsoft Corporation Contour-based classification of objects
US9618618B2 (en) 2014-03-10 2017-04-11 Elwha Llc Systems and methods for ultrasonic position and motion detection
US9437002B2 (en) 2014-09-25 2016-09-06 Elwha Llc Systems and methods for a dual modality sensor system
US9739883B2 (en) 2014-05-16 2017-08-22 Elwha Llc Systems and methods for ultrasonic velocity and acceleration detection
US9563956B2 (en) * 2014-03-26 2017-02-07 Intel Corporation Efficient free-space finger recognition
US10013710B2 (en) * 2014-04-17 2018-07-03 Ebay Inc. Fashion preference analysis
US10304248B2 (en) 2014-06-26 2019-05-28 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service
WO2015199502A1 (ko) * 2014-06-26 2015-12-30 한국과학기술원 증강현실 상호 작용 서비스 제공 장치 및 방법
US20150379770A1 (en) 2014-06-27 2015-12-31 David C. Haley, JR. Digital action in response to object interaction
KR101515845B1 (ko) 2014-08-07 2015-05-04 스타십벤딩머신 주식회사 동작 인식 방법 및 동작 인식 장치
US9922245B2 (en) * 2014-08-15 2018-03-20 Konica Minolta Laboratory U.S.A., Inc. Method and system for recognizing an object
KR101525011B1 (ko) * 2014-10-07 2015-06-09 동국대학교 산학협력단 Nui 기반의 실감형 가상공간 디스플레이 제어장치 및 제어방법
KR102357680B1 (ko) 2014-11-17 2022-02-03 삼성전자주식회사 이벤트에 기반하여 객체의 이동을 감지하는 장치 및 방법
DE102014017166A1 (de) * 2014-11-20 2016-05-25 Audi Ag Verfahren zum Betreiben einer Objektbewertungsvorrichtung für ein Kraftfahrzeug, Objektbewertungsvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Objektbewertungsvorrichtung
US20160210780A1 (en) 2015-01-20 2016-07-21 Jonathan Paulovich Applying real world scale to virtual content
US9846968B2 (en) 2015-01-20 2017-12-19 Microsoft Technology Licensing, Llc Holographic bird's eye view camera
US10217379B2 (en) 2015-01-30 2019-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Modifying vision-assist device parameters based on an environment classification
US10037712B2 (en) * 2015-01-30 2018-07-31 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist devices and methods of detecting a classification of an object
US10255687B2 (en) * 2015-02-05 2019-04-09 Pixart Imaging Inc. Distance measurement system applicable to different reflecting surfaces and operating method thereof
KR102097016B1 (ko) * 2015-02-09 2020-04-06 한국전자통신연구원 동작 분석 장치 및 방법
PL411337A1 (pl) * 2015-02-23 2016-08-29 Samsung Electronics Polska Spółka Z Ograniczoną Odpowiedzialnością Sposób interakcji z obrazami wolumetrycznymi za pomocą gestów i system do interakcji z obrazami wolumetrycznymi za pomocą gestów
US10156721B2 (en) 2015-03-09 2018-12-18 Microsoft Technology Licensing, Llc User-based context sensitive hologram reaction
US9558389B2 (en) * 2015-03-24 2017-01-31 Intel Corporation Reliable fingertip and palm detection
KR101653622B1 (ko) 2015-05-07 2016-09-05 고려대학교 산학협력단 엣지 정보 추출을 위한 이미지 센서
WO2016201678A1 (zh) * 2015-06-18 2016-12-22 周谆 虚拟车辆人机交互方法和系统
US9995823B2 (en) 2015-07-31 2018-06-12 Elwha Llc Systems and methods for utilizing compressed sensing in an entertainment system
US10057078B2 (en) * 2015-08-21 2018-08-21 Samsung Electronics Company, Ltd. User-configurable interactive region monitoring
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
US10019072B2 (en) 2016-01-01 2018-07-10 International Business Machines Corporation Imagined grid fingertip input editor on wearable device
US11854308B1 (en) * 2016-02-17 2023-12-26 Ultrahaptics IP Two Limited Hand initialization for machine learning based gesture recognition
JP6538961B2 (ja) * 2016-03-04 2019-07-03 株式会社ソニー・インタラクティブエンタテインメント 制御装置
JP6688990B2 (ja) * 2016-04-28 2020-04-28 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび記録媒体
CN105929962B (zh) * 2016-05-06 2018-12-14 四川大学 一种360°全息实时交互方法
KR101723220B1 (ko) 2016-05-16 2017-04-05 주식회사 고영로보틱스 마커를 사용하지 않고 몸통 및 손의 위치를 인식하는 방법
US20190302963A1 (en) * 2016-06-01 2019-10-03 Carnegie Mellon University Hybrid depth and infrared image sensing and method for enhanced touch tracking on ordinary surfaces
EP4131172A1 (en) * 2016-09-12 2023-02-08 Dassault Systèmes Deep convolutional neural network for 3d reconstruction of a real object
JP6452658B2 (ja) * 2016-09-27 2019-01-16 キヤノン株式会社 情報処理装置、およびその制御方法ならびにプログラム
US11625898B2 (en) 2016-10-11 2023-04-11 Valve Corporation Holding and releasing virtual objects
US10307669B2 (en) 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US10888773B2 (en) 2016-10-11 2021-01-12 Valve Corporation Force sensing resistor (FSR) with polyimide substrate, systems, and methods thereof
WO2018082498A1 (en) * 2016-11-01 2018-05-11 The Hong Kong University Of Science And Technology Mid-air finger pointing detection for device interaction
US10620779B2 (en) 2017-04-24 2020-04-14 Microsoft Technology Licensing, Llc Navigating a holographic image
WO2018198272A1 (ja) 2017-04-27 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント 制御装置、情報処理システム、制御方法、及びプログラム
JP6824838B2 (ja) 2017-07-07 2021-02-03 株式会社日立製作所 作業データ管理システム及び作業データ管理方法
US10586335B2 (en) * 2017-08-28 2020-03-10 Intel Corporation Hand segmentation in a 3-dimensional image
DE102017216000A1 (de) * 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera
WO2019077652A1 (ja) 2017-10-16 2019-04-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラデバイス、及び情報処理装置
GB201719058D0 (en) * 2017-11-17 2018-01-03 Ocado Innovation Ltd Control device and method for a robot system
CN108376416A (zh) * 2018-01-16 2018-08-07 天津大学 一种图像生成方法以及装置
US10296102B1 (en) * 2018-01-31 2019-05-21 Piccolo Labs Inc. Gesture and motion recognition using skeleton tracking
US10241588B1 (en) 2018-01-31 2019-03-26 Piccolo Labs Inc. System for localizing devices in a room
CN108830150B (zh) * 2018-05-07 2019-05-28 山东师范大学 一种基于三维人体姿态估计方法及装置
KR20210023864A (ko) * 2018-06-20 2021-03-04 밸브 코포레이션 가상 객체의 유지 및 해제
EP3807746B1 (en) * 2018-06-20 2023-07-26 Valve Corporation Holding and releasing virtual objects
KR102203933B1 (ko) * 2018-11-26 2021-01-15 재단법인 실감교류인체감응솔루션연구단 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치
CN110695990A (zh) * 2019-09-23 2020-01-17 江苏理工学院 一种基于Kinect手势识别的机械臂控制系统
DE102020129164A1 (de) * 2020-11-05 2022-05-05 Gestigon Gmbh Verfahren und vorrichtung zur unterscheidung von verschiedenen konfigurationszuständen eines objekts auf der grundlage einer bildlichen darstellung des objekts
CN112651360B (zh) * 2020-12-31 2023-04-07 福州大学 一种小样本下骨架动作识别方法
CN112990115B (zh) * 2021-04-21 2021-09-14 广州市玄武无线科技股份有限公司 一种用于冰柜陈列识别的拍摄方法及系统
JP2023049861A (ja) 2021-09-29 2023-04-10 富士通株式会社 推定プログラム、推定方法、および推定装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
CN101901350A (zh) * 2010-07-23 2010-12-01 北京航空航天大学 一种基于特征向量的静态手势识别方法
CN102063618A (zh) * 2011-01-13 2011-05-18 中科芯集成电路股份有限公司 互动系统中的动态手势识别方法

Family Cites Families (178)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
JPH0519957A (ja) * 1991-07-15 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 情報の入力方法
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
DE69229474T2 (de) 1991-12-03 2000-03-02 French Sportech Corp Interaktives videosystem zur beobachtung und zum training der leistungsfähigkeit einer person
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
EP0958002A4 (en) 1996-05-08 2001-03-28 Real Vision Corp REAL-TIME SIMULATION USING POSITION DETECTION
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
EP0959444A4 (en) 1996-08-14 2005-12-07 Nurakhmed Nurislamovic Latypov METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6384819B1 (en) 1997-10-15 2002-05-07 Electric Planet, Inc. System and method for generating an animatable character
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
EP1059970A2 (en) 1998-03-03 2000-12-20 Arena, Inc, System and method for tracking and assessing movement skills in multidimensional space
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US7202898B1 (en) 1998-12-16 2007-04-10 3Dv Systems Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3732757B2 (ja) * 2001-06-08 2006-01-11 株式会社東芝 画像認識方法および画像認識装置
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
TW554293B (en) * 2002-03-29 2003-09-21 Ind Tech Res Inst Method for extracting and matching hand gesture features of image
US7821541B2 (en) 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
EP1497160B2 (de) 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS &amp; ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
EP1631937B1 (en) 2003-06-12 2018-03-28 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
CN1860429A (zh) 2003-09-30 2006-11-08 皇家飞利浦电子股份有限公司 定义内容窗口在显示器上的位置、尺寸和/或内容的姿势
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
HUE049974T2 (hu) 2005-01-07 2020-11-30 Qualcomm Inc Képeken lévõ objektumok észlelése és követése
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
CN101137996A (zh) 2005-01-07 2008-03-05 格斯图尔泰克股份有限公司 基于光流的倾斜传感器
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
WO2006099597A2 (en) 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
KR101403172B1 (ko) 2005-05-17 2014-06-03 퀄컴 인코포레이티드 방위-감응 신호 출력
DE602005010696D1 (de) 2005-08-12 2008-12-11 Mesa Imaging Ag Hochempfindliches, schnelles Pixel für Anwendung in einem Bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US9317124B2 (en) 2006-09-28 2016-04-19 Nokia Technologies Oy Command input by hand gestures captured from camera
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US8144148B2 (en) 2007-02-08 2012-03-27 Edge 3 Technologies Llc Method and system for vision-based interaction in a virtual environment
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
TW200907764A (en) 2007-08-01 2009-02-16 Unique Instr Co Ltd Three-dimensional virtual input and simulation apparatus
US7949157B2 (en) * 2007-08-10 2011-05-24 Nitin Afzulpurkar Interpreting sign language gestures
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
WO2009128064A2 (en) 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
JP2010072840A (ja) * 2008-09-17 2010-04-02 Denso Corp 画像表示方法、画像表示装置及びそれを用いた操作装置
US8379987B2 (en) * 2008-12-30 2013-02-19 Nokia Corporation Method, apparatus and computer program product for providing hand segmentation for gesture analysis
US8428311B2 (en) * 2009-02-25 2013-04-23 Honda Motor Co., Ltd. Capturing and recognizing hand postures using inner distance shape contexts
US8744121B2 (en) * 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
WO2011007390A1 (ja) * 2009-07-15 2011-01-20 株式会社 東芝 画像処理装置、及びインターフェース装置
US20110025689A1 (en) 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9213890B2 (en) * 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
US8385596B2 (en) * 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US8488888B2 (en) * 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
CN101901350A (zh) * 2010-07-23 2010-12-01 北京航空航天大学 一种基于特征向量的静态手势识别方法
CN102063618A (zh) * 2011-01-13 2011-05-18 中科芯集成电路股份有限公司 互动系统中的动态手势识别方法

Also Published As

Publication number Publication date
KR101931837B1 (ko) 2018-12-21
CN103597515A (zh) 2014-02-19
EP2718899A4 (en) 2015-07-01
EP2718899A2 (en) 2014-04-16
JP6021902B2 (ja) 2016-11-09
JP2014524071A (ja) 2014-09-18
US20120308140A1 (en) 2012-12-06
WO2012170359A2 (en) 2012-12-13
KR20140028064A (ko) 2014-03-07
US8929612B2 (en) 2015-01-06
WO2012170359A3 (en) 2013-02-21

Similar Documents

Publication Publication Date Title
CN103597515B (zh) 用于识别张开的或闭合的手的系统
US9943755B2 (en) Device for identifying and tracking multiple humans over time
RU2605370C2 (ru) Система для распознавания и отслеживания пальцев
US8775916B2 (en) Validation analysis of human target
CN102222431B (zh) 用于翻译手语的计算机实现的方法
CN102693413B (zh) 运动识别
US8953844B2 (en) System for fast, probabilistic skeletal tracking
CN103608844B (zh) 全自动动态关节连接的模型校准
US8660303B2 (en) Detection of body and props
CN102129152B (zh) 具有集成vcsel阵列的深度投影仪系统
US9245177B2 (en) Limiting avatar gesture display
US9489042B2 (en) Scenario-specific body-part tracking
CN102262440B (zh) 多模态性别识别
US20130077820A1 (en) Machine learning gesture detection
CN107077730A (zh) 基于剪影的肢寻找器确定
CN102591456B (zh) 对身体和道具的检测
MEENA A FRAMEWORK FOR HUMAN ACTIVITY RECOGNITION USING DEPTH AND SKELETON EVIDENCE
Hu A Generic Gesture Recognition Approach based on Visual Perception

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150728

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150728

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

GR01 Patent grant
GR01 Patent grant