CN103477352A - 使用深度图像的姿势识别 - Google Patents

使用深度图像的姿势识别 Download PDF

Info

Publication number
CN103477352A
CN103477352A CN2011800700003A CN201180070000A CN103477352A CN 103477352 A CN103477352 A CN 103477352A CN 2011800700003 A CN2011800700003 A CN 2011800700003A CN 201180070000 A CN201180070000 A CN 201180070000A CN 103477352 A CN103477352 A CN 103477352A
Authority
CN
China
Prior art keywords
posture
hand
measurement
depth
thumb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011800700003A
Other languages
English (en)
Inventor
X·童
D·丁
W·李
Y·张
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN103477352A publication Critical patent/CN103477352A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

此处公开了与使用深度图像的姿势识别相关联的方法、装置和制品。在各种实施例中,装置可以包括被配置为确定面部是否存在于由深度相机所生成的相应图像帧的一个或多个灰度图像中的面部检测引擎,和被配置为在由深度相机所生成的一个或多个深度图像中跟踪手部的手部跟踪引擎。装置还可以包括被配置为基于手部跟踪引擎的跟踪结果提取特征并至少部分地基于所提取的特征推断手部姿势的特征提取和姿势推断引擎。还公开和声明了其它实施例。

Description

使用深度图像的姿势识别
技术领域
本公开的实施例涉及数据处理的领域,特别是与姿势识别相关联的方法、装置和制品。
背景技术
除非另外指明,本节中所描述的材料不是本申请中的权利要求书的现有技术且不因为被包括在本节中而被承认为是现有技术。
随着智能电视、智能电话和平板机的迅速发展,存在着创造发明性的特征/使用模型以便基于更高的计算能力、更大带宽和更丰富的内容向顾客提供更好的个人化服务、社交网络和增值服务(added value service,AVS)的迫切需求。用户交互在用户体验中扮演重要角色。在已有的用户接口技术中,通常采用键盘、鼠标、跟踪球和其它点击设备。姿势是一种自然的交互方法,而且已经在现实的日常生活中广泛利用。大多数已有的姿势识别系统利用依赖于光线、照明和其它环境条件的公共网络相机。结果是,当前的姿势识别系统通常是不稳定或低效的。
附图说明
作为示例实施例而非限制,在附图中呈现了本公开的各实施例,附图中相同的标记指示相似的元素,附图中:
图1根据本公开的各种实施例示出了姿势识别布置的概述;
图2根据本公开的各种实施例更详尽地示出了图1的基于姿势的输入服务;
图3根据本公开的各种实施例示出了姿势识别方法;
图4根据本公开的各种实施例示出了示例深度图像;
图5根据本公开的各实施例示出了适合用来实践图1的计算装置的示例计算机系统;以及
图6根据本公开的各实施例示出了具有被配置为使装置实践图3的方法的一些或全部方面的编程指令的制品。
具体实施方式
此处公开了与使用深度图像的姿势识别相关联的方法、装置和制品。在各种实施例中,装置可以包括被配置为确定面部是否存在于由深度相机所生成的相应图像帧的一个或多个灰度图像中的面部检测引擎,和被配置为在由深度相机所生成的一个或多个深度图像中跟踪手部的手部跟踪引擎。装置还可以包括被配置为基于手部跟踪引擎的跟踪结果提取特征并至少部分地基于所提取的特征推断手部姿势的特征提取和姿势推断引擎。
在各种实施例中,可以将面部检测引擎配置为使用例如Haar-Cascade模型来分析灰度图像以确定面部是否存在于一个或多个灰度图像中。而且,可以将面部检测引擎或手部跟踪引擎配置为使用一个或多个深度图像来确定面部和相机之间的距离测量。
在各种实施例中,还可以将手部跟踪引擎配置为选择在大小方面比所述一个或多个深度图像小的深度图像的相应区域,以便至少部分地基于所确定的面部和相机之间的距离来检测和跟踪手部。还可以将手部跟踪引擎配置为确定手部的位置测量。可以将手部跟踪引擎配置为,使用借助概率密度梯度的均值偏移过滤,对一个或多个深度图像中的相应图像以手部中心的(x,y)坐标对来确定位置测量。
在各种实施例中,可以将特征提取和姿势推断引擎配置为提取偏心率测量、紧致度测量、方向测量、矩形测量、水平中心测量、垂直中心测量、最小边界框角度测量或最小边界框宽高比测量、左右测量差或上下测量差中的一个或多个。而且,可以将特征提取和姿势推断引擎配置为基于所提取的特征推断张开的手部姿势、闭起的手部拳头姿势、大拇指朝上的姿势、大拇指朝下的姿势、大拇指朝左的姿势或大拇指朝右的姿势中的一个。另外,还可以将特征提取和姿势推断引擎配置为通知应用关于所推断的手部姿势。
在各种实施例中,装置还可以包括相机。装置可以是从台式计算机、膝上型计算机、平板计算机、服务器、智能手机、个人数字助理、游戏控制台或机顶盒中选择的一个。
在各种实施例中,第一方法可以包括由计算装置在由深度相机所生成的一个或多个深度图像的所选相应区域中跟踪手部,其中所选相应区域在大小方面比所述相应的一个或多个深度图像小。第一方法还可以包括由计算设备至少部分地基于跟踪的结果推断手部姿势。
在各种实施例中,第二方法可以包括由计算装置从由深度相机所生成的图像帧的深度图像的相应区域中提取一个或多个特征。第二方法还可以包括由计算装置至少部分地基于从深度图像所提取的一个或多个特征来推断姿势。
现在将使用由本领域技术人员为将其工作的实质传达给本领域其他技术人员而普遍采用的术语进一步描述说明性实施例的各种方面。然而对于那些本领域技术人员显而易见的是,可以将替代实施例实践为所述方面的仅仅一部分。为了解释的目的,叙述了具体数字、材料和配置以提供对说明性实施例的全面理解。然而对于本领域技术人员显而易见的是,没有这些具体细节也可以实践各替代实施例。在其它实例中,省略或简化了公知的特征以便不阻碍说明性实施例。
还以最有助于理解说明性实施例的方式将各种操作进而描述为多个具体操作;然而描述的顺序不应被解释为暗示这些操作必然是依赖顺序的。特别是,这些操作不必以呈现的顺序被执行。以括号的格式描述的特征指示所述特征为可选特征,例如,“应用服务的(分区的)实例”指示所述应用服务可为/可不为“分区的”。
重复使用了短语“在一实施例中”。此短语通常不指同一实施例;但可指。除非上下文另外指明,术语“包含”、“具有”和“包括”是同义的。短语“A/B”意味着“A或B”。短语“A和/或B”意味着“(A)、(B)或(A和B)”。短语“A、B和C中的至少一个”意味着“(A)、(B)、(C)、(A和B)、(A和C)、(B和C)或(A、B和C)”。短语“(A)B”意味着“(B)或(AB)”,即A是可选的。
图1根据本公开的各种实施例示出了姿势识别布置的概述。如所示的,对于各实施例,计算装置102结合基于姿势的输入服务114,可以耦合于具有深度特征的相机106以便使人员104能够使用姿势,特别是手部姿势,向在装置102上操作的应用112提供输入。
除了基于姿势的输入服务(以下为GBIS)114之外,计算装置102可以是本领域内已知的多个计算设备中的任何一个。这样的计算设备的示例包括但不限于台式计算机、膝上型计算机、平板计算机、智能电话、个人数字助理、游戏控制台和/或机顶盒。同样,除了可以通过由GBIS114提供的服务接收姿势输入之外,应用112可以是得益于姿势输入的多个应用(例如游戏、媒体播放器、视频应用等)中的任何一个。对于各实施例,除了应用112和GBIS114之外,装置102还可以包括系统服务116以用来提供各种各样的系统服务,包括但不限于对应用112和GBIS114的通信服务和对相机106的外设服务。计算装置102和相机106之间的耦合可以是有线或无线的。对于各实施例,还可以将系统服务116配置为支持通过计算装置102对网络的访问。网络可以是有线或无线的、局域或广域的、私有或公共的,包括例如因特网(Internet)。
相机106可以是本领域内已知的被配置为捕捉和输出图像帧,包括确定目标物体与相机的距离、输出各种图像帧的深度图像和灰度图像的任何深度相机。适用相机的示例可以是DImager,可从日本的松下(Panasonic)获得。DImager被配置为通过测量近红外线的“飞行时间”(Time-of-Flight)来计算到目标物体的距离。DImager的水平视野是60度左右且其垂直视野是44度左右。分辨率是160×120像素左右。操作范围从1.2到9.0米。它同时输出范围(深度)图像和红外灰度图像。过程速度可达到30帧/秒(fps)。也可以采用具有生成深度和灰度图像的能力的其它深度相机来代替实践本公开。
所支持的姿势可以是依赖于应用的。在各种实施例中,所支持的姿势可以基于所提取的特征包括张开的手部姿势、闭起的手部拳头姿势、大拇指朝上的姿势、大拇指朝下的姿势、大拇指朝左的姿势或大拇指朝右的姿势。
图2根据本公开的各种实施例更详尽地示出了图1的基于姿势的输入服务。如所示的,对于各实施例,GBIS114可以包括互相操作地相耦合的面部检测引擎202、手部跟踪引擎204、特征提取和姿势推断引擎206和手部数据队列212。可以将面部检测引擎202配置为使用由相机106所生成的图像帧的灰度图像来确定面部是否存在于图像帧中。可以将手部跟踪引擎204配置为使用图像帧的深度图像跟踪手部,并将手部跟踪数据的结果输出到手部数据队列212。可以将特征提取和姿势推断引擎206配置为处理手部跟踪数据、从手部跟踪数据提取特征和至少部分地基于所提取的特征来推断手部姿势。
在各种实施例中,可以将面部检测引擎202配置为使用灰度图像和各种面部检测技术例如Haar-Cascade模型来确定面部是否存在于图像帧中。而且,对于各实施例,可以将面部检测引擎202配置为使用一个或多个深度图像来确定面部和相机之间的距离测量。在替换性实施例中,相反,可以将手部跟踪引擎204配置为使用一个或多个深度图像来确定面部和相机之间的距离测量。
在各种实施例中,可以将手部跟踪引擎204配置为,仅在面部检测引擎202已确定了面部存在于图像帧的灰度图像中之后执行手部检测和跟踪。在各种实施例中,可以将手部跟踪引擎204配置为当手部数据队列212为空时或每N帧执行手部检测。N可等于例如10。检测到手部之后,手部跟踪引擎204可以跟踪手部并将手部跟踪数据输出到手部数据队列212,直到手部已在预定数量个图像帧中停止出现。手部跟踪数据可以包括位置测量,诸如手的地点、大小和深度,以下将更全面的描述。检测和跟踪的有条件配置可以降低计算资源的消耗。
而且,在各种实施例中,可以将手部跟踪引擎204配置为选择在大小方面比所述一个或多个深度图像小的深度图像的相应区域,以便至少部分地基于所确定的面部和相机之间的距离来以跟踪手部。更具体地,可以将手部跟踪引擎204配置为选择深度图像的表示捕捉人的比其身体离相机更近的部分(手部)的地区的相应区域。通常,可期望用户通常用其身体前面的手来做手部姿势,即,比所确定的面部距离到相机更近的距离或深度。
在各种实施例中,还可以将手部跟踪引擎204配置为在跟踪区域以内确定手部的位置测量。可以将手部跟踪引擎204配置为,使用借助概率密度梯度的均值偏移过滤,对一个或多个深度图像中的相应图像以手部中心的(x,y)坐标对来确定地点位置测量。更具体地,可以将手部跟踪引擎204配置为使用以下公式来确定中心的(x,y)坐标:
x ′ = Σ ( x , y ) ∈ ROI p ( x , y ) x ∑ ( x , y ) ∈ ROI p ( x , y ) . . . ( 1 )
y ′ = Σ ( x , y ) ∈ ROI p ( x , y ) y Σ ( x , y ) ∈ ROI p ( x , y ) . . . ( 2 )
其中p(x,y)通常是概率密度,此处具体指深度信息;ROI表示感兴趣的区域;且x’和y’是估计的手部中心的(x,y)坐标。如较早描述的,可以将手部跟踪引擎204配置为还确定手部的大小测量。
在各种实施例中,还可以将手部跟踪引擎204配置为使用深度、形状和大小信息执行验证以确认手部区域是否有效。在确定了任何手部跟踪结果是有效还是不可靠之后,可以将手部跟踪结果或多个结果从手部数据队列212中删除。
在各种实施例中,可以将特征提取和姿势推断引擎206配置为,对各种深度图像,从手部跟踪数据中提取偏心率测量、紧致度测量、方向测量、矩形测量、水平中心测量、垂直中心测量、最小边界框角度测量、最小边界框宽高比测量、左右测量差或上下测量差中的一个或多个。而且,可以将特征提取和姿势推断引擎206配置为基于所提取的特征推断张开的手部姿势、闭起的手部拳头姿势、大拇指朝上的姿势、大拇指朝下的姿势、大拇指朝左的姿势或大拇指朝右的姿势中的一个,214。另外,还可以将特征提取和姿势推断引擎206配置为经由例如系统服务116通知应用例如应用112关于所推断的手部姿势。
在各种实施例中,可以使用有多层感知(multi-layer perception,MLP)的分类器来实现推断逻辑。MLP分类器使用线性计算操作来提高计算效率。而且,可以使用已知样本训练分类器。在各种实施例中,为了使推断结果平滑,可以采用包含在当前时间戳之前流失的数个帧的时间滑窗来对推断结果投票,并可以输出有最多投票的推断结果。
图3根据本公开的各种实施例示出了姿势识别方法。如所示的,对于各实施例,方法300可以从块302开始,其中有深度信息的图像帧被接收。方法可以从块302前进到块304,其中使用例如面部检测技术和灰度图像来确定人员特别是面部是否存在于图像帧中。
方法可以从块304前进到块306,其中可以使用深度图像检测并跟踪人员的手部。方法可以从块306前进到块308,其中可以至少部分地基于手部跟踪数据推断手部姿势。方法可以从块308前进到块310,其中消息可以被送到系统服务以便路由到有兴趣的应用,通知应用关于所推断的手部姿势。
方法可以从块310前进到块312,其中系统服务可以将消息路由到有兴趣的应用,通知应用关于所推断的手部姿势。方法可以从块312前进到块314,其中应用可以对作为输入的对所推断的手部姿势的接收进行响应。
图4根据本公开的各种实施例示出了示例深度图像。灰度级的更高密度(更暗)表示特征到相机的距离更远。
如所示的,在各种实施例中,为了计算效率起见,用于确定人员的存在的面部检测技术的应用可以聚焦于深度图像402的面部区域404。类似地,如较早描述的,为了计算效率起见,手部跟踪可以聚焦于其中区域以内的物体离相机更近的在大小方面较小的区域。仅为了说明性的目的,由于示例的灰度级,有意将区域404和406保持得分别比面部和手部小。实际上区域404和406通常比所示出的区域大,分别涵盖面部和手部,尽管公开的实践可以用如所示的较小区域来实践。
图5根据本公开的各种实施例示出了适合用来实践图1的计算装置的示例计算机系统。如所示的,计算系统500可以包括多个处理器或处理器核502,和系统存储器504。为了本申请包括权利要求书起见,除非上下文清楚地另外要求,认为术语“处理器”和“处理器核”为同义的。另外,计算系统500可以包括大容量存储设备506(诸如盘、硬盘驱动器、紧致盘只读存储器(CDROM)等)、输入/输出设备508(诸如显示器、键盘、光标控制等)和通信接口510(诸如网络接口卡、调制解调器等)。这些元素可以经由表示一个或多个总线的系统总线512互相耦合。在多个总线的情况下,它们可以由一个或多个总线桥(未示出)桥接。
这些元素中的每一个执行其本领域内已知的常规功能。特别是,可以采用系统存储器504和大容量存储506来存储实现GBIS114和相关功能的编程指令的工作备份和永久备份,此处共同表示为计算逻辑522。功能的各种组件、模块或例程可以由处理器502支持的汇编程序指令或能被编译进这样的指令的诸如C的高级语言来实现。
编程指令的永久备份可以通过例如诸如紧致盘(CD)的分布介质(未示出)或通过通信接口510(从分布服务器(未示出))在工厂中或在现场放入永久存储506中。即,可以采用具有代理程序实现的一个或多个分布介质来分布代理和为各种计算设备编程。
这些元素502-512的构成是已知的,因此不做进一步描述。
图6根据本公开的实施例示出了具有被配置为使装置能够实践基于面部识别的控制方法和装置的编程指令的制品。如所示的,制品600可以包括计算机可读非瞬态存储介质602。存储介质602可以包括被配置为实现图1的GBIS114的编程指令604。
存储介质602表示各种各样本领域内已知的持久存储介质,包括但不限于闪存、光盘或磁盘。特别是,编程指令604可以响应于装置对其的执行使装置能够执行包括如下的操作:
由计算装置在由深度相机所生成的一个或多个深度图像的所选相应区域中跟踪手部,其中所选相应区域在大小方面比相应的一个或多个深度图像小;以及
由所述计算设备至少部分地基于所述跟踪的结果推断手部姿势。
在替换性实施例中,特别是编程指令604可以响应于装置对其的执行使装置能够执行包括如下的操作:
由计算装置从由深度相机所生成的图像帧的深度图像的相应区域中提取一个或多个特征;以及
由所述计算装置至少部分地基于从所述深度图像所提取的一个或多个特征推断姿势。
尽管此处说明并描述了具体实施例,但本领域技术人员可以理解,可以用各种替换和/或等价实现来替换所示出并描述的具体实施例而不背离本发明的实施例的范围。本申请旨在覆盖此处讨论的实施例的任何改编或变型。因此,本发明的实施例明白地旨在仅由权利要求书及其等效方案来限制。

Claims (30)

1.一种装置,所述装置包括:
被配置为确定面部是否存在于由深度相机所生成的相应图像帧的一个或多个灰度图像中的面部检测引擎;
耦合于所述面部检测引擎的手部跟踪引擎,所述手部跟踪引擎被配置为在所述面部检测引擎确定面部存在于所述一个或多个灰度图像中之后在由所述深度相机所生成的一个或多个深度图像中跟踪手部;以及
耦合于所述手部跟踪引擎的特征提取和姿势推断引擎,所述特征提取和姿势推断引擎被配置为基于所述手部跟踪引擎的跟踪结果提取特征并至少部分地基于所提取的特征推断手部姿势。
2.如权利要求1所述的装置,其中所述面部检测引擎被配置为使用Haar-Cascade模型分析所述灰度图像以确定面部是否存在于所述一个或多个灰度图像中。
3.如权利要求1所述的装置,其中所述面部检测引擎或所述手部跟踪引擎还被配置为使用所述一个或多个深度图像确定所述面部和所述相机之间的距离测量。
4.如权利要求1所述的装置,其中所述手部跟踪引擎还被配置为选择在大小方面比所述一个或多个深度图像小的深度图像的相应区域,以便至少部分地基于所述确定的面部和相机之间的距离跟踪手部。
5.如权利要求4所述的装置,其中所述手部跟踪引擎还被配置为确定所述手部的位置测量。
6.如权利要求5所述的装置,其中所述手部跟踪引擎被配置为,使用借助概率密度梯度的均值偏移过滤,对所述一个或多个深度图像中的相应图像以所述手部中心的(x,y)坐标对来确定所述位置测量。
7.如权利要求1所述的装置,其中所述特征提取和姿势推断引擎被配置为提取偏心率测量、紧致度测量、方向测量、矩形测量、水平中心测量、垂直中心测量、最小边界框角度测量、最小边界框宽高比测量、左右测量差或上下测量差中的一个或多个。
8.如权利要求1所述的装置,其中所述特征提取和姿势推断引擎被配置为基于所提取的特征推断张开的手部姿势、闭起的手部拳头姿势、大拇指朝上的姿势、大拇指朝下的姿势、大拇指朝左的姿势或大拇指朝右的姿势中的一个。
9.如权利要求1所述的装置,其中所述特征提取和姿势推断引擎还被配置为通知应用关于所推断的手部姿势。
10.如权利要求1所述的装置,其特征在于,还包括相机。
11.如权利要求1所述的装置,其中装所述置是从台式计算机、膝上型计算机、平板计算机、服务器、智能电话、个人数字助理、游戏控制台或机顶盒中选择的一个。
12.一种方法,所述方法包括:
由计算装置在由深度相机所生成的一个或多个深度图像的所选相应区域中跟踪手部,其中所选相应区域在大小方面比相应的一个或多个深度图像小;以及
由所述计算设备至少部分地基于所述跟踪的结果推断手部姿势。
13.如权利要求12所述的方法,其中跟踪包括对所述深度图像确定所述手部的位置测量。
14.如权利要求13所述的方法,其中对所述深度图像确定所述手部的位置测量包括使用借助概率密度梯度的均值偏移过滤确定所述手部中心的(x,y)坐标对。
15.如权利要求12所述的方法,其中推断包括至少部分地基于所述跟踪的结果从所选相应区域中提取一个或多个特征,以及至少部分地基于所提取的一个或多个特征推断手部姿势。
16.如权利要求15所述的方法,其中提取一个或多个特征包括提取偏心率测量、紧致度测量、方向测量、矩形测量、水平中心测量、垂直中心测量、最小边界框角度测量、最小边界框宽高比测量、左右测量差或上下测量差中的一个或多个。
17.如权利要求12所述的方法,其中推断姿势包括推断张开姿势、拳头姿势、大拇指朝上的姿势、大拇指朝下的姿势、大拇指朝左的姿势或大拇指朝右的姿势中的一个。
18.一种方法,所述方法包括:
由计算装置从由深度相机所生成的图像帧的深度图像的相应区域中提取一个或多个特征;以及
由所述计算装置至少部分地基于从所述深度图像所提取的一个或多个特征推断姿势。
19.如权利要求18所述的方法,其中提取一个或多个特征包括提取偏心率测量、紧致度测量、方向测量、矩形测量、水平中心测量、垂直中心测量、最小边界框角度测量、最小边界框宽高比测量、左右测量差或上下测量差中的一个或多个。
20.如权利要求18所述的方法,其中从深度图像的相应区域中提取一个或多个特征包括从被表示为包含手部的深度图像的相应区域中提取一个或多个特征。
21.如权利要求18所述的方法,其中推断姿势包括推断张开姿势、拳头姿势、大拇指朝上的姿势、大拇指朝下的姿势、大拇指朝左的姿势或大拇指朝右的姿势中的一个。
22.计算机可读非瞬态存储介质,所述存储介质包括:
存储在所述存储介质中并被配置为响应于所述装置对编程指令的执行而使装置执行包括以下操作的多个编程指令:
在由深度相机所生成的一个或多个深度图像的所选相应区域中跟踪手部,其中所选相应区域在大小方面比所述相应的一个或多个深度图像小;以及
至少部分地基于所述跟踪的结果推断手部姿势。
23.如权利要求22所述的存储介质,其中跟踪包括对所述深度图像确定所述手部的位置测量。
24.如权利要求23所述的存储介质,其中对所述深度图像确定所述手部的位置测量包括使用借助概率密度梯度的均值偏移过滤确定所述手部中心的(x,y)坐标对。
25.如权利要求22所述的存储介质,其中推断包括至少部分地基于所述跟踪的结果提取所选相应区域的一个或多个特征,以及至少部分地基于所提取的一个或多个特征推断手部姿势。
26.如权利要求25所述的存储介质,其中提取一个或多个特征包括提取偏心率测量、紧致度测量、方向测量、矩形测量、水平中心测量、垂直中心测量、最小边界框角度测量、最小边界框宽高比测量、左右测量差或上下测量差中的一个或多个。
27.如权利要求22所述的存储介质,其中推断姿势包括推断张开姿势、拳头姿势、大拇指朝上的姿势、大拇指朝下的姿势、大拇指朝左的姿势或大拇指朝右的姿势中的一个。
28.如权利要求22所述的存储介质,其中所述操作还包括确定面部是否存在于相对应于由深度相机所生成的相应图像帧的一个或多个灰度图像的所述一个或多个深度图像中。
29.如权利要求28所述的存储介质,其中确定面部是否存在包括使用Haar-Cascade模型分析所述一个或多个灰度图像。
30.如权利要求28所述的存储介质,其中所述操作还包括使用所述一个或多个深度图像确定所述面部和所述相机之间的距离测量。
CN2011800700003A 2011-04-11 2011-04-11 使用深度图像的姿势识别 Pending CN103477352A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/072581 WO2012139268A1 (en) 2011-04-11 2011-04-11 Gesture recognition using depth images

Publications (1)

Publication Number Publication Date
CN103477352A true CN103477352A (zh) 2013-12-25

Family

ID=47008773

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011800700003A Pending CN103477352A (zh) 2011-04-11 2011-04-11 使用深度图像的姿势识别

Country Status (5)

Country Link
US (2) US8718327B2 (zh)
EP (1) EP2697743A4 (zh)
CN (1) CN103477352A (zh)
TW (1) TWI512645B (zh)
WO (1) WO2012139268A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846403A (zh) * 2017-01-04 2017-06-13 北京未动科技有限公司 一种三维空间中手部定位的方法、装置及智能设备
CN107133984A (zh) * 2017-03-24 2017-09-05 深圳奥比中光科技有限公司 深度相机与主体设备的标定方法与系统
CN111582067A (zh) * 2020-04-22 2020-08-25 西南大学 人脸表情识别方法、系统、存储介质、计算机程序、终端
CN113762068A (zh) * 2018-05-31 2021-12-07 谷歌有限责任公司 用于估计手的当前姿势的方法和电子装置

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012139268A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Gesture recognition using depth images
US8781221B2 (en) * 2011-04-11 2014-07-15 Intel Corporation Hand gesture recognition system
US20130077820A1 (en) * 2011-09-26 2013-03-28 Microsoft Corporation Machine learning gesture detection
TWI454966B (zh) * 2012-04-24 2014-10-01 Wistron Corp 手勢控制方法及手勢控制裝置
WO2014039732A2 (en) * 2012-09-05 2014-03-13 Element, Inc. System and method for biometric authentication in connection with camera-equipped devices
US20140111617A1 (en) * 2012-10-23 2014-04-24 Lsi Corporation Optical source driver circuit for depth imager
TWI536259B (zh) 2012-12-28 2016-06-01 緯創資通股份有限公司 手勢辨識模組及手勢辨識方法
TWI486820B (zh) * 2012-12-28 2015-06-01 Wistron Corp 用於互動系統之座標轉換方法及電腦系統
CN104182742B (zh) * 2013-05-20 2018-03-13 比亚迪股份有限公司 头部姿态识别方法及系统
CN103366188B (zh) * 2013-07-08 2017-07-07 中科创达软件股份有限公司 一种基于拳头检测作为辅助信息的手势跟踪方法
WO2015175670A1 (en) 2014-05-13 2015-11-19 Element, Inc. System and method for electronic key provisioning and access management in connection with mobile devices
US9965728B2 (en) 2014-06-03 2018-05-08 Element, Inc. Attendance authentication and management in connection with mobile devices
CN106155459B (zh) * 2015-04-01 2019-06-14 北京智谷睿拓技术服务有限公司 交互方法、交互装置及用户设备
US10037624B2 (en) 2015-12-29 2018-07-31 Microsoft Technology Licensing, Llc Calibrating object shape
US10565791B2 (en) 2015-12-29 2020-02-18 Microsoft Technology Licensing, Llc Tracking rigged polygon-mesh models of articulated objects
US10186081B2 (en) 2015-12-29 2019-01-22 Microsoft Technology Licensing, Llc Tracking rigged smooth-surface models of articulated objects
US11250376B2 (en) * 2017-08-07 2022-02-15 Standard Cognition, Corp Product correlation analysis using deep learning
US10474991B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Deep learning-based store realograms
IL282574B2 (en) 2017-09-18 2023-10-01 Element Inc Methods, systems and media for detecting forgeries in mobile authentication
CN109145803B (zh) * 2018-08-14 2022-07-22 京东方科技集团股份有限公司 手势识别方法及装置、电子设备、计算机可读存储介质
US11783707B2 (en) 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
BR112021018149B1 (pt) 2019-03-12 2023-12-26 Element Inc Método implementado por computador para detectar falsificação de reconhecimento de identidade biométrica usando a câmera de um dispositivo móvel, sistema implementado por computador e meio de armazenamento legível por computador não transitório
US11030774B2 (en) 2019-03-19 2021-06-08 Ford Global Technologies, Llc Vehicle object tracking
US11460851B2 (en) 2019-05-24 2022-10-04 Ford Global Technologies, Llc Eccentricity image fusion
US11521494B2 (en) 2019-06-11 2022-12-06 Ford Global Technologies, Llc Vehicle eccentricity mapping
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
WO2021184356A1 (en) 2020-03-20 2021-09-23 Huawei Technologies Co., Ltd. Methods and systems for hand gesture-based control of a device
EP4115264A4 (en) * 2020-03-23 2023-04-12 Huawei Technologies Co., Ltd. METHODS AND SYSTEMS FOR CONTROLLING A DEVICE BASED ON HAND GESTURES
KR20210138923A (ko) * 2020-05-13 2021-11-22 삼성전자주식회사 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법
US12046047B2 (en) 2021-12-07 2024-07-23 Ford Global Technologies, Llc Object detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
CN101324954A (zh) * 2007-06-11 2008-12-17 索尼株式会社 图像处理设备、图像显示设备、成像设备、其图像处理方法和程序
CN101388115A (zh) * 2008-10-24 2009-03-18 北京航空航天大学 一种结合纹理信息的深度图像自动配准方法
CN101401124A (zh) * 2006-03-20 2009-04-01 奥林巴斯株式会社 图像信息处理装置、判定方法以及计算机程序
WO2010144050A1 (en) * 2009-06-08 2010-12-16 Agency For Science, Technology And Research Method and system for gesture based manipulation of a 3-dimensional image of object

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
US6363160B1 (en) * 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7409092B2 (en) * 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
KR100588042B1 (ko) * 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7668376B2 (en) * 2004-06-30 2010-02-23 National Instruments Corporation Shape feature extraction and classification
US7480414B2 (en) * 2004-10-14 2009-01-20 International Business Machines Corporation Method and apparatus for object normalization using object classification
US9042606B2 (en) * 2006-06-16 2015-05-26 Board Of Regents Of The Nevada System Of Higher Education Hand-based biometric analysis
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
TW201019241A (en) * 2008-11-14 2010-05-16 Topseed Technology Corp Method for identifying and tracing gesture
US8379987B2 (en) * 2008-12-30 2013-02-19 Nokia Corporation Method, apparatus and computer program product for providing hand segmentation for gesture analysis
TWI395145B (zh) * 2009-02-02 2013-05-01 Ind Tech Res Inst 手勢辨識系統及其方法
US8693724B2 (en) * 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8655084B2 (en) * 2009-06-23 2014-02-18 Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, Reno Hand-based gender classification
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP2011217209A (ja) * 2010-03-31 2011-10-27 Sony Corp 電子機器、コンテンツ推薦方法及びプログラム
US20120056995A1 (en) * 2010-08-31 2012-03-08 Texas Instruments Incorporated Method and Apparatus for Stereo-Based Proximity Warning System for Vehicle Safety
EP2689413A4 (en) * 2011-03-25 2015-07-22 Oblong Ind Inc QUICK FINGER FINGER DETECTION TO INITIALIZE A VISION BASED HAND TRACER
WO2012139268A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Gesture recognition using depth images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
CN101401124A (zh) * 2006-03-20 2009-04-01 奥林巴斯株式会社 图像信息处理装置、判定方法以及计算机程序
CN101324954A (zh) * 2007-06-11 2008-12-17 索尼株式会社 图像处理设备、图像显示设备、成像设备、其图像处理方法和程序
CN101388115A (zh) * 2008-10-24 2009-03-18 北京航空航天大学 一种结合纹理信息的深度图像自动配准方法
WO2010144050A1 (en) * 2009-06-08 2010-12-16 Agency For Science, Technology And Research Method and system for gesture based manipulation of a 3-dimensional image of object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SÉBASTIEN CARBINI等: "《Pointing gesture visual recognition for large display》", 《WORKSHOP ON VISUAL OBSERVATION OF DEICTIC GESTURES》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846403A (zh) * 2017-01-04 2017-06-13 北京未动科技有限公司 一种三维空间中手部定位的方法、装置及智能设备
CN106846403B (zh) * 2017-01-04 2020-03-27 北京未动科技有限公司 一种三维空间中手部定位的方法、装置及智能设备
CN107133984A (zh) * 2017-03-24 2017-09-05 深圳奥比中光科技有限公司 深度相机与主体设备的标定方法与系统
CN113762068A (zh) * 2018-05-31 2021-12-07 谷歌有限责任公司 用于估计手的当前姿势的方法和电子装置
CN111582067A (zh) * 2020-04-22 2020-08-25 西南大学 人脸表情识别方法、系统、存储介质、计算机程序、终端
CN111582067B (zh) * 2020-04-22 2022-11-29 西南大学 人脸表情识别方法、系统、存储介质、计算机程序、终端

Also Published As

Publication number Publication date
US20140300539A1 (en) 2014-10-09
EP2697743A4 (en) 2014-09-24
TW201250609A (en) 2012-12-16
US8718327B2 (en) 2014-05-06
EP2697743A1 (en) 2014-02-19
TWI512645B (zh) 2015-12-11
WO2012139268A1 (en) 2012-10-18
US20140037134A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
CN103477352A (zh) 使用深度图像的姿势识别
US10540772B2 (en) Feature trackability ranking, systems and methods
KR102261061B1 (ko) 컨볼루션 신경망을 이용하여 poi 변화를 검출하기 위한 시스템 및 방법
CN109977782B (zh) 基于目标位置信息推理的跨店经营行为检测方法
US10009579B2 (en) Method and system for counting people using depth sensor
CN105405150B (zh) 基于融合特征的异常行为检测方法和装置
AU2018379393B2 (en) Monitoring systems, and computer implemented methods for processing data in monitoring systems, programmed to enable identification and tracking of human targets in crowded environments
Min et al. Support vector machine approach to fall recognition based on simplified expression of human skeleton action and fast detection of start key frame using torso angle
CN106874826A (zh) 人脸关键点跟踪方法和装置
CN105051754A (zh) 用于通过监控系统检测人的方法和装置
CN103985137A (zh) 应用于人机交互的运动物体跟踪方法及系统
CN104160408A (zh) 视频合成的方法和系统
CN102855466B (zh) 一种基于视频图像处理的人数统计方法
Sun et al. Moving vehicle detection and tracking based on optical flow method and immune particle filter under complex transportation environments
CN111145215A (zh) 一种目标跟踪方法及装置
CN103105924A (zh) 人机交互方法和装置
CN103299342A (zh) 提供用于姿势识别的机制的方法和装置
Guo et al. Gesture recognition of traffic police based on static and dynamic descriptor fusion
CN106127810B (zh) 一种视频宏块角点光流的录播系统图像跟踪方法和装置
Li et al. Automatic Counting Method of Fry Based on Computer Vision
Ni et al. An improved kernelized correlation filter based visual tracking method
CN111915713A (zh) 一种三维动态场景的创建方法、计算机设备、存储介质
CN113887384B (zh) 基于多轨迹融合的行人轨迹分析方法、装置、设备及介质
CN112434601B (zh) 基于行车视频的车辆违法检测方法、装置、设备及介质
Xiong et al. Crowd density estimation based on image potential energy model

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20131225