CN103098076B - 电视机控制用手势识别系统 - Google Patents
电视机控制用手势识别系统 Download PDFInfo
- Publication number
- CN103098076B CN103098076B CN201180043241.9A CN201180043241A CN103098076B CN 103098076 B CN103098076 B CN 103098076B CN 201180043241 A CN201180043241 A CN 201180043241A CN 103098076 B CN103098076 B CN 103098076B
- Authority
- CN
- China
- Prior art keywords
- hand
- gesture
- parameter
- holding
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 48
- 230000011218 segmentation Effects 0.000 claims abstract description 27
- 230000009466 transformation Effects 0.000 claims abstract description 11
- 239000000284 extract Substances 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 5
- 230000000903 blocking effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003628 erosive effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 208000028882 split hand Diseases 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000010339 dilation Effects 0.000 description 1
- 238000002224 dissection Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
一种利用与运动信息结合的基于肤色的方法,实现实时分割的手势识别系统。利用Kalman滤波器跟踪手部的质心。计算提取的手部掩膜的手掌中心,手掌底部,以及从手掌中心到轮廓的最大距离。随后比较计算的距离和阈值,以确定当前姿势是“张开”还是“握紧”。在优选实施例中,“张开”姿势和“握紧”姿势之间的转变确定当前手势是处于“选择”状态还是“抓取”状态。
Description
相关申请的交叉引用
本申请要求2010年9月17日提交的美国专利申请12/885072的优先权,通过引用将其全部内容并入于此。
受版权保护的素材公告
本专利文献中的一部分素材受美国和其他国家版权法的版权保护。版权所有人不反对任何人影印再现专利文献或专利公开,因为专利文献或专利公开出现在可公开获得的美国专利商标局文件或档案中,不过在别的方面却保留所有版权。版权所有者从而不放弃其使本专利文献保密的任何权利,包括(但不限于)其按照37C.F.R.§1.14的权利。
技术领域
本发明涉及手势识别,更具体地说,涉及遥控用手势识别。
背景技术
手势识别是一种新兴技术,它能够提供更直接的人机交互方法。手势识别与空间和时间信息有关,可用于为未来的应用替代传统的控制设备。已尝试了手势识别系统,例如,美国专利No.5,534,917。不过,这些系统通常涉及计算密集的复杂分析和/或需要昂贵的硬件。
因而,本发明的目的是一种能够从典型的HD照相机获得输入,和利用一组简单的手势使计算力降至最低的手势识别系统。在下面的说明中,将满足这些目标中的至少一些目标。
发明内容
本发明包含处理作为输入的运动手部的视频,并输出每个图像中的当前手势状态和手部位置的系统和方法。在每个图像中,从背景中分割手部区域,并根据一个或多个参数,将其分类为“张开的手部”或“握紧的手部”。系统结合肤色模型和运动中的一个或多个,以获得实时手部分割性能。典型的应用包括(但不限于)用于基本电视机控制,电视机上的照片和web浏览,和计算机的手势识别。
本发明在仅仅利用单个HD照相机的同时,以较低的计算复杂性,实现用于电视机控制的实时并且用户友好的手势识别系统。
系统利用小型传感器进行手势识别,可利用简单手势,在3米以上的距离控制电视机、计算机或其它设备。组合肤色模型和运动,以便从背景中分离手部区域
操作中,提取几个参数,比如手部大小,手掌中心和手部底部。这些参数被用于把当前手势分成“张开的手部”或“握紧的手部”。系统随后利用不同手势状态之间的转变来控制设备。有益的是,所述方法只利用单个HD照相机获得作为输入的视频序列,同时能够以较低的计算复杂性获得实时性能。
本发明的系统和方法不需要任何昂贵和特殊的传感器。通过利用肤色模型和运动,所述系统能够在没有深度图的情况下,从背景中分割手部区域。本发明的手势组用户友好(易于记住),足以覆盖电视机控制的基本功能。
本发明实用地实现电视机的手势控制,使实时电视机特征成为可能。另外,就本发明的系统来说,不需要使用两部照相机或者一部3D照相机。
在说明书的以下各个部分中,将阐明本发明的其它各个方面,其中,详细说明用于充分公开本发明的优选实施例,而不是对本发明加以限制。
附图说明
参考仅仅用于举例说明的以下附图,可更充分地理解本发明:
图1是按照本发明的手势识别系统的示意图。
图2是图解说明图1的手势识别模块的组件概况的示意图。
图3是按照本发明的分割模块的示意图。
图4是按照本发明,应用于图像的用于前景/背景分离的限界框的例示。
图5A-5E图解说明按照本发明,关于不同手势的成功手部分割结果的图像。
图6A-E图解说明非最佳手部分割的图像。
图7图解说明按照本发明的分割图像帧的二元手部掩膜和计算的参数。
图8图解说明为了得出中心-轮廓距离而评估的图7的掩膜。
图9图解说明按照本发明的用于电视机控制的例证手势组。
图10图解说明按照本发明,可用于特定操作的序列手势组。
图11表示应用于图像的手部限界框的相邻限界框。
图12表示根据分割模型的结果,转换成指示符矩阵的手部图像。
图13图解说明遮挡发生的图像和相应的分割模型。
图14图解说明遮挡发生的另一个图像和相应的分割模型。
图15图解说明脱离遮挡的手部的图像和分割模型。
具体实施方式
更具体地参考附图,出于举例说明的目的,下面用图1-图15中所示的设备具体体现本发明。要理解设备可在结构方面,以及在各个部分的细节方面发生变化,并且方法可在具体步骤和顺序方面发生变化,而不脱离这里公开的基本原理。
图1图解说明本发明的手势识别系统10的示意图。系统10包括传感器12(例如,HD格式照相机等),其输出耦接到接收传感器输入并运行手势识别软件模块18的处理器14。手势识别模块18分析来自传感器12的输入,并提供发送给设备控制应用程序或者用户界面软件16的命令或操作,所述设备控制应用程序或者用户界面软件16可用于控制音量、频道、节目或者设备的其它特征。要理解设备控制应用程序16可被配置成控制电视机、机顶盒、计算机或者其它组件。
图2关于系统10的操作,图解说明手势识别模块18的基本组件。手势识别模块18一般包含3个阶段。在第一阶段中,在分割模块20和跟踪模块22处理来自设备12的输入或拍摄的图像,从而从背景中分割手部区域,以便跟踪。
在第二阶段中,系统10执行特征提取模块24,以便从检测的手部区域中提取必要的特征。
在第三阶段中,通过把提取的特征输入用于姿势/手势识别26的分类器,系统10执行手势识别模块18。手势识别模块18的结果随后被输出给特定的应用程序16,以便控制设备。
阶段1:手部分割
图像分割一般包括向图像中的像素分配标记,以致具有相同标记的像素共有某些视觉特性。本发明的系统10最好利用基于肤色的方法。这种方法以在每个单独的图像内,肤色始终如一(例如,数值不存在重大变化)的假定为基础。这种结构把色度分量和亮度分量分开,以降低对光变化的敏感性。这种方法为低计算复杂性和实时性能创造条件。在优选结构中,来自设备12的输入图像为YCbCr444平面颜色格式。
如图3中图解所示,分割模块20一般包含3个步骤:包含前景/背景分离的第一步骤30,包含模型训练的第二步骤32,和包含像素分类的第三步骤34。
图4图解说明检测手部44位置和大小的前景/背景分离步骤30。在检测到手部44之后,输出手部限界框48。最好利用触发模块(未示出)触发本发明的系统10启动(例如,通过用户举起手部44)。限界框48围绕前景区域40,把背景区42定义为被包围在外框或者搜索区46中的周围图像。这里,搜索区长度被表示成3倍于限界框48的长度L,以覆盖手部44的运动。不过,可以理解其它比率也是适用的。
在模型训练步骤32中,最好利用K-均值聚类(clustering)训练在手部限界框48内的图像40的3-分量高斯混合模型(最好只使用Cb,Cr颜色通道)。K-均值聚类还用于训练在背景区域42内的图像的3-分量高斯混合模型(只使用Cb,Cr颜色通道)。尽管可以使用其它方法(例如,基于直方图的方法),不过优选K-均值算法,因为其它方法通常较慢,并且更加计算密集。
K-均值算法是用于把图像分成K个聚类的迭代技术。K-均值算法通常包括1)随机地或者根据某种试探,挑选K个聚类中心,2)把图像中的每个像素分配给使该像素和聚类中心之间的距离最小化的聚类,3)通过求聚类中的所有像素的平均值,重新计算聚类中心,和4)重复步骤2和3,直到达到收敛为止(例如,没有像素改变聚类)。通常,所述距离是像素和聚类中心之间的平方差或者绝对值差。所述差值可以基于像素颜色、亮度、纹理和位置,或者这些因素的加权组合。
本发明的系统10最好利用基于肤色的方法。这种方法以在每个单独的图像内,肤色始终如一(例如,数值不存在重大变化)的假定为基础。这种结构对光变化敏感,可通过把色度分量和亮度分量分开,加以改善。这种方法为低计算复杂性和实时性能创造条件。在优选结构中,来自设备12的输入图像为YCbCr444平面颜色格式。
为了修正前景40颜色模型,除去不在一般皮肤模型的范围(77≤Cb≤127,133≤Cr≤173)内的所有分量。
如果3个分量都在(或者都不在)皮肤模型范围之内,那么我们根据前景高斯模型,确定最接近任意背景分量的分量,随后除去该分量。剩余的分量随后被用于表示前景区域40。
最好利用GMM和Bayesian决策规则,进行像素分类步骤34。对于每个当前的手部图像,我们利用前一个图像的相同部分作为基准。满足以下标准(关于运动的等式1和2,和关于肤色的等式3)任意之一的像素被视为手部像素(否则,像素被分类为背景像素)(以下公式中,hand表示手,background表示背景):
1.运动和肤色:
|Cb(x,y)-Cbref(x,y)|>5或|Cr(x,y)-Crref(x,y)|>5等式1
和
2*Phand×P(c|hand)>(1-Phand)×P(c|background)等式2
2.肤色:
Phand×P(c|hand)>(1-Phand)×P(c|background)等式3
像素分类步骤34随后最好继之以形态学膨胀和侵蚀算子,以修正获得的二元手部掩膜。
如下利用等式4、5和6,计算像素分类步骤34中的概率:
其中Phand是先前的手部区域与背景区域42之比,P(c|hand)是像素c属于前景(手部)区域40的概率,ghand是像素c属于前景高斯混合模型的第k个分量的概率,pk是第k个分量的先验概率(在模型训练步骤32中训练pk,均值μk和协方差矩阵σk)。
其中P(c|background)是像素c属于背景区域的概率,gbackground是像素c属于背景高斯混合模型的第k个分量的概率,pk是第k个分量的先验概率(在模型训练步骤32中训练pk,均值μk和协方差矩阵σk)。
利用等式6,计算像素c属于GMM分量的概率:
图5A-5E图解说明按照本发明,关于不同手势的成功手部分割结果。对应地,图6A-E中的图像图解说明非最佳的手部分割,其中某些手势的图像具有局部特征,缺少的,不正确的和/或不连续的解剖体,如包围的区域中所示。
跟踪步骤22跟踪作为观察点的分割图像的手掌中心。利用下面详细说明的基于图像的方法,获得手掌中心。
跟踪步骤把Kalman滤波器用于下一帧的实际手部位置和速度的预测和计算(根据对当前帧的观察)。
等式7和8中表示了利用较少计算的例证Kalman滤波器:
Xk=FkXk-1+BkUk+Wk等式7
其中Fk是应用于前一个状态Xk-1的状态转变模型,Bk是应用于控制向量UK的控制输入模型,Wk是假定从具有协方差Qk的零均值多元正态分布得到的处理噪声。
Zk=HkXk+Vk,Vk~N(o,Rk)等式8
其中Hk是把真实状态空间映射到观察空间的观察模型,Vk是被假定为具有协方差Rk的零均值高斯白噪声的观察噪声。
随后输出每个图像中的手部位置(例如,手掌中心的2D位置),并保存为输出结构的一部分。
阶段2:特征提取
图7-8图解说明特征提取模块24的第二阶段的操作。
图7图解说明每个分割的图像帧的二元手部掩膜60。手部掩膜60包括根据原始掩膜和侵蚀掩膜(未示出)之间的差异产生的提取轮廓62,和骨架64。侵蚀掩膜是利用现有技术中一般可用的侵蚀算法获得的,所述侵蚀算法使原始掩膜细化(thin)一个像素。根据把从轮廓62获得的二元形状转换成1像素宽的线条的形态学细化算法,生成骨架64。所述方法可包含本领域中通常已知的任何细化算法,不过通常涉及反复删除轮廓形状62内的像素,以在不缩短轮廓形状62或者分裂轮廓形状62的情况下,收缩轮廓形状62。
随后相对于骨架64分析提取的轮廓62,从而获得手掌中心Cp,手掌中心Cp被定义和计算为骨架64上,距手部轮廓的距离为最大距离r的点。
随后手掌底部Bp被计算为骨架64上,距离手掌中心Cp(在手掌中心Cp下面)r个像素的点。
在对于每个手部掩膜60确定了手掌中心Cp和手掌底部Bp点之后,方向向量VB被计算为通过手掌中心Cp和手掌底部Bp这两个点的线条。
随后计算在方向向量VB的±60°范围内,具有距手掌中心Cp(或者作为替换方案,手掌底部Bp)的最大距离D的轮廓点66(通常是中指指尖)。根据平均解剖学,通常使用±60°的范围。不过,可以相应地改变该范围。
阶段3:手势识别
对于手势识别模块26,通过比较距离D和阈值T,随后把每个手部图像分类成“张开”或“握紧”。阈值T是借助校准步骤获得的,在校准步骤中,分割前5个“张开的手部”图像,获得距离D和手掌半径r的值。随后利用平均值AVE(D+1.5r)/2,计算阈值。
在每个视频中,具有5帧大小的滑动窗口将识别“张开的”或者“握紧的”手势。
“张开”:如果在最近5帧内,存在3个或者更多的张开姿势,那么认为当前姿势是“张开”。
“握紧”:如果在最近5帧内,存在3个或者更多的握紧姿势,那么认为当前姿势是“握紧”。
图9图解说明本发明的手势识别模块26的某些关键功能。“张开”姿势和“握紧”姿势之间的转变可用于指示何时触发了手势“选择”或者“抓取”。
例如,为了触发手势识别系统初始化,可在传感器12的视场内的区域中举起手部44,并以张开手部姿势保持1-2秒,如步骤70中所示。
一旦系统被初始化,在步骤72,就可通过跟踪自由手部运动(例如,手掌中心),把张开的手部用于控制光标(在操作的电视机或设备(例如,机顶盒等)的监视器屏幕上,光标是可见的)。
通过利用手势与不同定时的组合,可以执行特殊的命令,例如,抓取/附着操作74或者选择/检查操作76。图10图解说明可用于抓取/附着操作74或者选择/检查操作76的序列。第一步骤90包括张开手部手势44,该手势可把光标指引到期望的位置(例如,用户界面屏幕上的位置),以便进行检查或选择。借助握紧拳头姿势80,手指向前手势82或者手指捏紧手势84,可以启动第二步骤92,以选择或检查期望的特征。一旦已选择,第三步骤94中的张开手掌姿势44恢复光标的自由移动。
类似地进行抓取/附着操作74,不过,用户应该保持步骤2中的手势80、82或84之一,等待物品附着上。
现在参考图11-15,本发明的系统10最好包括手部-面部遮挡程序,以处理当手部44越过或者非常接近面部102时的情况。
遮挡情况通常受以下假定限制:1)手部具有远远大于面部的运动,2)不存在靠近面部的任何其它的肤色团块,在遮挡期间,不存在手势的变化,3)在遮挡期间,手部在y方向没有任何较大的运动。
如图11中所示,对于每个当前的手部限界框48,通过利用两个矩形94和96,生成在框48的左右两侧的相邻区域。每个矩形94和96高度为1.5L,宽度为L,其中L是限界框48长度。框48、94和96的底部被对齐,以致左右相邻框94和96延伸高过框481/2L。
相邻区域94,96中的所有像素被分类为皮肤像素或非皮肤像素(通过利用先前训练的高斯混合模型)。随后计数每个正方形区域中的皮肤像素的数目。如果所述数目大于阈值(例如,在校准步骤中计算的张开的手部的2/3),那么该正方形被认为包含会导致遮挡的对象。
如图12中所示,根据分割模型104的结果,每个手部图像100被转换成指示符矩阵106。包含对象的框被赋值“1”,否则被赋值“0”。如图12中所示,左侧的相邻框94不满足阈值皮肤像素,从而被赋值“0”,而手部限界框48和右侧相邻框96满足阈值像素计数,从而被赋值“1”。
之后,计算并记录对象CO的质心。检测每对相邻的指示符矩阵(沿着时间轴)。具有1→0的转变的任何位置指示以下之一:1)附近的对象(面部102)合并于手部44,或者2)手部44正在离开对象(例如,面部102)。
测量手部的当前位置与先前记录的对象质心CO的距离,以确定手部44是正在接触该对象,还是正在远离该对象(例如,如果所述距离小于指定百分率(例如,60-75%)的限界框长度L,那么发生遮挡)。
图13图解说明遮挡发生的图像112和相应的分割模型114。如果发生遮挡,那么定义接近于当前质心Cc的位置的备用区域110(具有与质心相同的y)。备用区域110的大小与手部限界框48相同,例如长度L。
图14图解说明遮挡发生的另一个图像116,和相应的分割模型118。在该遮挡期间,整个二元掩膜120(手部44加面部102)的质心Cc被用作预测位置。
图15图解说明脱离遮挡(例如,在备用区域110中检测到对象)的手部44的图像122和分割模型124。对象的质心Cc随后被用作当前手部位置,并重新开始运动跟踪。
总之,本发明的系统10和方法应用与运动信息结合的基于肤色的方法来实现实时分割。利用Kalman滤波器跟踪手部的质心。计算提取的手部掩膜的手掌中心,手掌底部,以及从手掌中心到轮廓的最大距离。随后比较计算的距离和阈值,以确定当前姿势是“张开”还是“握紧”。在优选实施例中,“张开”姿势和“握紧”姿势之间的转变确定当前手势是处于“选择”状态还是“抓取”状态。
参考按照本发明的实施例的方法和系统的流程图,说明了本发明的实施例。这些方法和系统也可被实现成计算机程序产品。在这点上,流程图的每个方框或步骤,和流程图中的各个方框(和/或各个步骤)的组合可用各种装置,比如硬件、固件和/或包括用计算机可读程序代码逻辑具体体现的一个或多个计算机程序指令的软件实现。可以理解,任何这样的计算机程序指令可被加载到计算机,包括(但不限于)通用计算机或专用计算机,或者其它可编程处理设备,从而产生机器,以致在计算机或其它可编程处理设备上执行的计算机程序指令产生实现在一个或多个流程图的一个或多个方框中指定的功能的装置。
因而,流程图的方框支持完成指定功能的装置的组合,实现指定功能的步骤的组合,和实现指定功能的计算机程序指令,比如用计算机可读程序代码逻辑装置具体体现的计算机程序指令。另外显然流程图的每个方框,和流程图中的各个方框的组合可用完成指定功能或步骤的基于专用硬件的计算机系统,或者专用硬件和计算机可读程序代码逻辑装置的组合实现。
此外,这些计算机程序指令,比如用计算机可读程序代码逻辑具体体现的计算机程序指令也可被保存在计算机可读存储器中,所述计算机程序指令可指令计算机或其它可编程处理设备按照特定方式工作,以致保存在计算机可读存储器中的指令产生制品,所述制品包括实现在一个或多个流程图的一个或多个方框中指定的功能的指令装置。计算机程序指令也可被加载到计算机或者其它可编程处理设备上,使得在计算机或其它可编程处理设备上执行一系列的操作步骤,从而产生计算机实现的处理,以致在计算机或其它可编程处理设备上执行的指令提供实现在一个或多个流程图的一个或多个方框中指定的功能的步骤。
于是可以看出,本发明包括以下发明实施例:
1.一种用于遥控设备的手势识别系统,包括:在所述设备附近的位置,捕捉用户的手部的视频数据的传感器;处理捕捉的所述手部的视频数据的处理器;可在所述处理器上运行,以执行以下步骤的程序:根据肤色,分割捕捉的视频中的每个手部图像;提取分割的手部图像的一个或多个参数;跟踪手部图像中的一个或多个参数中的至少一个参数;根据所述一个或多个参数,把手势分类成“张开”或“握紧”;和根据所述手势的识别和所述一个或多个参数的跟踪,操纵所述设备。
2、如在实施例1中所述的系统,其中分割每个手部图像包括:把与所述手部相关的前景区域和围绕所述前景区域的背景区域分开;训练背景区域和前景区域的3分量混合模型;和根据运动和肤色中的一个或多个,对图像像素分类。
3、如在实施例1中所述的系统,其中只利用Cb和Cr颜色通道,分割图像。
4、如在实施例1中所述的系统,其中提取一个或多个参数包括:根据提取的手部的轮廓和骨架,获得用户的手部的手掌中心位置。
5、如在实施例4中所述的系统,其中跟踪一个或多个参数包括利用Kalman滤波器,跟踪手掌中心位置。
6、如在实施例4中所述的系统,其中提取一个或多个参数还包括:获得手掌底部位置;和测量手掌中心位置与提取的图像轮廓上的最远轮廓点之间的距离;所述最远轮廓点在通过手掌底部位置和手掌中心位置的向量的预定角度范围内。
7、如在实施例6中所述的系统,其中把手势分类成“张开”或“握紧”包括:比较到最远轮廓点的距离和阈值;如果到最远轮廓点的距离超出阈值,那么把图像分类成“张开”;如果到最远轮廓点的距离低于阈值,那么把图像分类成“握紧”。
8、如在实施例1中所述的系统,其中设备包含与显示器耦接的用户界面,所述用户界面是在所述显示器上输出的;其中操纵所述设备包括根据所述手势的识别,和所述一个或多个参数的跟踪,向用户界面发送命令。
9、如在实施例8中所述的系统,其中“张开”手势和“握紧”手势之间的转变被用于确定“选择”或“抓取”命令是否被发送给用户界面。
10、如在实施例9中所述的系统,其中张开手势的跟踪被用于确定光标在用户界面上的位置。
11、一种用于遥控设备的手势识别系统,所述设备具有在显示器上显现的用户界面,所述系统包括:在所述设备附近的位置,捕捉用户的手部的视频数据的传感器;处理捕捉的所述手部的视频数据的处理器;可在所述处理器上运行,以执行以下步骤的程序:根据肤色,分割捕捉的视频中的每个手部图像;提取分割的手部图像的一个或多个参数;跟踪手部图像中的所述一个或多个参数;根据所述一个或多个参数,把手势分类成“张开”或“握紧”;和根据所述手势的识别和所述一个或多个参数的跟踪,操纵所述设备;其中操纵所述设备包括根据所述手势的识别,和跟踪所述一个或多个参数的位置,向用户界面发送命令。
12、如在实施例11中所述的系统,其中分割每个手部图像包括:把与所述手部相关的前景区域和围绕所述前景区域的背景区域分开;训练背景区域和前景区域的只包含Cb和Cr颜色通道的3分量混合模型;和根据运动和肤色中的一个或多个,对图像像素分类。
13、如在实施例11中所述的系统,其中提取一个或多个参数包括:根据提取的手部的轮廓和骨架,获得用户的手部的手掌中心位置;根据手掌中心位置,获得手部的手掌底部位置;和测量手掌中心位置与提取的图像轮廓上的最远轮廓点之间的距离;所述最远轮廓点在通过手掌底部位置和手掌中心位置的向量的一定角度范围内。
14、如在实施例13中所述的系统,其中跟踪所述一个或多个参数包括利用Kalman滤波器,跟踪手掌中心位置。
15、如在实施例13中所述的系统,其中把手势分类成“张开”或“握紧”包括:比较到最远轮廓点的距离和阈值;如果到最远轮廓点的距离超出阈值,那么把图像分类成“张开”;如果到最远轮廓点的距离低于阈值,那么把图像分类成“握紧”。
16、如在实施例15中所述的系统,其中“张开”手势和“握紧”手势之间的转变被用于确定“选择”或“抓取”命令是否被发送给用户界面。
17、如在实施例16中所述的系统,其中张开手势的跟踪被用于确定光标在用户界面上的位置。
18、一种利用手势,遥控设备的方法,所述设备具有在显示器上显现的用户界面,所述方法包括:用在所述设备附近位置的传感器,捕捉用户的手部的视频;根据肤色,分割捕捉的视频中的每个手部图像;提取分割的手部图像的一个或多个参数;跟踪手部图像中的所述一个或多个参数中的至少一个参数;根据所述一个或多个参数,把手势分类成“张开”或“握紧”;根据所述手势的识别和所述一个或多个参数的跟踪,操纵所述设备;根据所述手势的识别,和所述一个或多个参数的跟踪,向用户界面发送命令;和在显示器上输出发送的命令,以便操纵所述设备。
19、如在实施例18中所述的方法,其中提取一个或多个参数包括:根据提取的手部的轮廓和骨架,获得用户的手部的手掌中心位置;根据手掌中心位置,获得手部的手掌底部位置;和测量手掌中心位置与提取的图像轮廓上的最远轮廓点之间的距离;所述最远轮廓点在通过手掌底部位置和手掌中心位置的向量的一定角度范围内,其中把手势分类成“张开”或“握紧”包括:比较到最远轮廓点的距离和阈值;如果到最远轮廓点的距离超出阈值,那么把图像分类成“张开”;如果到最远轮廓点的距离低于阈值,那么把图像分类成“握紧”。
20、如在实施例19中所述的方法,其中“张开”手势和“握紧”手势之间的转变被用于确定“选择”或“抓取”命令是否被发送给用户界面;其中张开手势的手掌中心的跟踪被用于确定光标在用户界面上的位置。
虽然上面的说明包含许多细节,不过这些细节不应被理解为限制本发明的范围,而应被理解为仅仅提供本发明的一些目前优选的实施例的例示。于是,要理解本发明的范围完全包含对本领域的技术人员来说显而易见的其它实施例,本发明的范围因而仅仅由附加的权利要求限定,其中除非另有说明,否则对元件的单数引用并不意味“有且仅有一个”,而是“一个或多个”。本领域的普通技术人员已知的上述优选实施例的元件的所有结构、化学或功能等同物引用地明确包含于其中,被权利要求所覆盖。此外,设备或方法不必解决试图由本发明解决的每一个问题,因为它将被权利要求所覆盖。此外,本公开中的元件、组件或方法步骤都不意图贡献给公众,与是否在权利要求中明确地记载了所述元件、组件或方法步骤无关。不应按照35U.S.C.112,第6段的规定解释权利要求的任何要素,除非该要素是利用短语“用于……的装置”明确记载的。
Claims (19)
1.一种用于遥控设备的手势识别系统,包括:
(a)在所述设备附近的位置处,捕捉用户的手部的视频数据的传感器;
(b)处理捕捉的所述手部的视频数据的处理器;以及
(c)能够在所述处理器上运行以执行多个步骤的程序,所述多个步骤包括:
根据肤色,分割捕捉的视频中的每个手部图像;
提取分割的手部图像的一个或多个参数;
跟踪手部图像中的所述一个或多个参数;
根据所述一个或多个参数,把手势分类成“张开”或“握紧”;和
根据所述手势的识别和对所述一个或多个参数的位置的跟踪,操纵所述设备,
其中提取一个或多个参数包括:
根据提取的手部的轮廓和骨架,获得用户的手部的手掌中心位置;和
根据手掌中心位置,获得手部的手掌底部位置。
2.按照权利要求1所述的系统,其中分割每个手部图像包括:
把与所述手部相关的前景区域和围绕所述前景区域的背景区域分开;
训练背景区域和前景区域的3分量混合模型;和
根据运动和肤色中的一个或多个,对图像像素分类。
3.按照权利要求1所述的系统,其中只利用Cb和Cr颜色通道分割图像。
4.按照权利要求1所述的系统,其中跟踪一个或多个参数包括利用Kalman滤波器,跟踪手掌中心位置。
5.按照权利要求1所述的系统,其中提取一个或多个参数还包括:
测量手掌中心位置与提取的图像轮廓上的最远轮廓点之间的距离;和
所述最远轮廓点在通过手掌底部位置和手掌中心位置的矢量的预定角度范围内。
6.按照权利要求5所述的系统,其中把手势分类成“张开”或“握紧”包括:
比较到最远轮廓点的距离和阈值;
如果到最远轮廓点的距离超过所述阈值,那么把图像分类成“张开”;以及
如果到最远轮廓点的距离低于所述阈值,那么把图像分类成“握紧”。
7.按照权利要求1所述的系统,
其中所述设备包含与显示器耦接的用户界面,所述用户界面是在所述显示器上输出的;以及
其中操纵所述设备包括根据所述手势的识别和所述一个或多个参数的跟踪,向用户界面发送命令。
8.按照权利要求7所述的系统,其中“张开”手势和“握紧”手势之间的转变被用于确定“选择”或“抓取”命令是否被发送给用户界面。
9.按照权利要求8所述的系统,其中张开手势的跟踪被用于确定光标在用户界面上的位置。
10.一种用于遥控设备的手势识别系统,所述设备具有在显示器上显现的用户界面,所述手势识别系统包括:
(a)在所述设备附近的位置,捕捉用户的手部的视频数据的传感器;
(b)处理捕捉的所述手部的视频数据的处理器;
(c)能够在所述处理器上运行以执行多个步骤的程序,所述多个步骤包括:
根据肤色,分割捕捉的视频中的每个手部图像;
提取分割的手部图像的一个或多个参数;
跟踪手部图像中的所述一个或多个参数;
根据所述一个或多个参数,把手势分类成“张开”或“握紧”;和
根据所述手势的识别和所述一个或多个参数的跟踪,操纵所述设备;
其中操纵所述设备包括根据所述手势的识别和对所述一个或多个参数的位置的跟踪,向用户界面发送命令,
其中提取一个或多个参数包括:
根据提取的手部的轮廓和骨架,获得用户的手部的手掌中心位置;和
根据手掌中心位置,获得手部的手掌底部位置。
11.按照权利要求10所述的系统,其中分割每个手部图像包括:
把与所述手部相关的前景区域和围绕所述前景区域的背景区域分开;
训练背景区域和前景区域的只包含Cb和Cr颜色通道的3分量混合模型;和
根据运动和肤色中的一个或多个,对图像像素分类。
12.按照权利要求10所述的系统,其中提取一个或多个参数还包括:
测量手掌中心位置与提取的图像轮廓上的最远轮廓点之间的距离;和
所述最远轮廓点在通过手掌底部位置和手掌中心位置的矢量的一定角度范围内。
13.按照权利要求12所述的系统,其中跟踪所述一个或多个参数包括利用Kalman滤波器跟踪手掌中心位置。
14.按照权利要求12中所述的系统,其中把手势分类成“张开”或“握紧”包括:
比较到最远轮廓点的距离和阈值;
如果到最远轮廓点的距离超过所述阈值,那么把图像分类成“张开”;以及
如果到最远轮廓点的距离低于所述阈值,那么把图像分类成“握紧”。
15.按照权利要求14所述的系统,其中“张开”手势和“握紧”手势之间的转变被用于确定“选择”或“抓取”命令是否被发送给用户界面。
16.按照权利要求15所述的系统,其中张开手势的跟踪被用于确定光标在用户界面上的位置。
17.一种利用手势遥控设备的方法,所述设备具有在显示器上显现的用户界面,所述方法包括:
用在所述设备附近位置的传感器,捕捉用户的手部的视频;
根据肤色,分割捕捉的视频中的每个手部图像;
提取分割的手部图像的一个或多个参数;
跟踪手部图像中的所述一个或多个参数中的至少一个参数;
根据所述一个或多个参数,把手势分类成“张开”或“握紧”;
根据所述手势的识别和所述一个或多个参数的跟踪,操纵所述设备;
根据所述手势的识别和所述一个或多个参数的跟踪,向用户界面发送命令;和
在显示器上输出发送的命令,以便操纵所述设备,
其中提取一个或多个参数包括:
根据提取的手部的轮廓和骨架,获得用户的手部的手掌中心位置;和
根据手掌中心位置,获得手部的手掌底部位置。
18.按照权利要求17所述的方法,
其中提取一个或多个参数还包括:
测量手掌中心位置与提取的图像轮廓上的最远轮廓点之间的距离;
所述最远轮廓点在通过手掌底部位置和手掌中心位置的矢量的一定角度范围内,其中把手势分类成“张开”或“握紧”包括:
比较到最远轮廓点的距离和阈值;
如果到最远轮廓点的距离超过所述阈值,那么把图像分类成“张开”;以及
如果到最远轮廓点的距离低于所述阈值,那么把图像分类成“握紧”。
19.按照权利要求18所述的方法,其中“张开”手势和“握紧”手势之间的转变被用于确定“选择”或“抓取”命令是否被发送给用户界面;以及
其中对张开手势的手掌中心的跟踪被用于确定光标在用户界面上的位置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/885,072 US9213890B2 (en) | 2010-09-17 | 2010-09-17 | Gesture recognition system for TV control |
US12/885,072 | 2010-09-17 | ||
PCT/US2011/045287 WO2012036790A1 (en) | 2010-09-17 | 2011-07-26 | Gesture recognition system for tv control |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103098076A CN103098076A (zh) | 2013-05-08 |
CN103098076B true CN103098076B (zh) | 2016-06-22 |
Family
ID=45817410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180043241.9A Active CN103098076B (zh) | 2010-09-17 | 2011-07-26 | 电视机控制用手势识别系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9213890B2 (zh) |
EP (1) | EP2601615B1 (zh) |
KR (1) | KR20130043222A (zh) |
CN (1) | CN103098076B (zh) |
WO (1) | WO2012036790A1 (zh) |
Families Citing this family (134)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006041885A (ja) * | 2004-07-27 | 2006-02-09 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
US8370383B2 (en) | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US8407725B2 (en) | 2007-04-24 | 2013-03-26 | Oblong Industries, Inc. | Proteins, pools, and slawx in processing environments |
US9823747B2 (en) | 2006-02-08 | 2017-11-21 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
US8890813B2 (en) * | 2009-04-02 | 2014-11-18 | Oblong Industries, Inc. | Cross-user hand tracking and shape recognition user interface |
US8531396B2 (en) | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9075441B2 (en) | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9952673B2 (en) | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
US9684380B2 (en) | 2009-04-02 | 2017-06-20 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US8723795B2 (en) | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US9740922B2 (en) | 2008-04-24 | 2017-08-22 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US10824238B2 (en) | 2009-04-02 | 2020-11-03 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US8428368B2 (en) * | 2009-07-31 | 2013-04-23 | Echostar Technologies L.L.C. | Systems and methods for hand gesture control of an electronic device |
US9933852B2 (en) | 2009-10-14 | 2018-04-03 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9971807B2 (en) | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
KR101184460B1 (ko) * | 2010-02-05 | 2012-09-19 | 연세대학교 산학협력단 | 마우스 포인터 제어 장치 및 방법 |
TW201138437A (en) * | 2010-04-30 | 2011-11-01 | Hon Hai Prec Ind Co Ltd | System and method for remotely switching TV channels |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US8929612B2 (en) * | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US11048333B2 (en) * | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
EP2555536A1 (en) | 2011-08-05 | 2013-02-06 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
KR101262700B1 (ko) * | 2011-08-05 | 2013-05-08 | 삼성전자주식회사 | 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치 |
DE102011112447A1 (de) * | 2011-09-03 | 2013-03-07 | Volkswagen Aktiengesellschaft | Verfahren und Anordnung zum Bereitstellen einer graphischen Nutzerschnittstelle, insbesondere in einem Fahrzeug |
US10345911B2 (en) * | 2011-12-23 | 2019-07-09 | Intel Corporation | Mechanism to provide visual feedback regarding computing system command gestures |
US10503373B2 (en) * | 2012-03-14 | 2019-12-10 | Sony Interactive Entertainment LLC | Visual feedback for highlight-driven gesture user interfaces |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
WO2013166513A2 (en) * | 2012-05-04 | 2013-11-07 | Oblong Industries, Inc. | Cross-user hand tracking and shape recognition user interface |
CN103514435A (zh) * | 2012-06-29 | 2014-01-15 | 富士通株式会社 | 手检测方法和装置 |
US9697418B2 (en) * | 2012-07-09 | 2017-07-04 | Qualcomm Incorporated | Unsupervised movement detection and gesture recognition |
WO2014009561A2 (en) | 2012-07-13 | 2014-01-16 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
US20140022158A1 (en) * | 2012-07-18 | 2014-01-23 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling operation mode of device using gesture recognition |
CN103677495B (zh) * | 2012-09-07 | 2017-07-18 | 腾讯科技(深圳)有限公司 | 图标选择装置及方法 |
CN102880865B (zh) * | 2012-09-28 | 2015-06-17 | 东南大学 | 基于肤色与形态特征的动态手势识别方法 |
US9870056B1 (en) * | 2012-10-08 | 2018-01-16 | Amazon Technologies, Inc. | Hand and hand pose detection |
US9310895B2 (en) * | 2012-10-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Touchless input |
CN103778405B (zh) * | 2012-10-17 | 2017-07-04 | 原相科技股份有限公司 | 以自然影像进行的手势辨识方法 |
TWI475422B (zh) * | 2012-10-31 | 2015-03-01 | Wistron Corp | 手勢辨識方法與電子裝置 |
CN102982557B (zh) * | 2012-11-06 | 2015-03-25 | 桂林电子科技大学 | 基于深度相机的空间手势姿态指令处理方法 |
US8805017B2 (en) | 2012-12-13 | 2014-08-12 | Intel Corporation | Gesture pre-processing of video stream to reduce platform power |
US8761448B1 (en) | 2012-12-13 | 2014-06-24 | Intel Corporation | Gesture pre-processing of video stream using a markered region |
TW201423484A (zh) | 2012-12-14 | 2014-06-16 | Pixart Imaging Inc | 動態偵測系統 |
JP5971108B2 (ja) * | 2012-12-18 | 2016-08-17 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US9104240B2 (en) | 2013-01-09 | 2015-08-11 | Intel Corporation | Gesture pre-processing of video stream with hold-off period to reduce platform power |
TWI496094B (zh) * | 2013-01-23 | 2015-08-11 | Wistron Corp | 手勢辨識模組及手勢辨識方法 |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9092665B2 (en) * | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US8994652B2 (en) * | 2013-02-15 | 2015-03-31 | Intel Corporation | Model-based multi-hypothesis target tracker |
US9158381B2 (en) | 2013-02-25 | 2015-10-13 | Honda Motor Co., Ltd. | Multi-resolution gesture recognition |
US9292103B2 (en) | 2013-03-13 | 2016-03-22 | Intel Corporation | Gesture pre-processing of video stream using skintone detection |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
CN103167340B (zh) * | 2013-04-03 | 2016-02-03 | 青岛歌尔声学科技有限公司 | 智能电视手势识别系统及其识别方法 |
US9829984B2 (en) * | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
US20160162039A1 (en) * | 2013-07-21 | 2016-06-09 | Pointgrab Ltd. | Method and system for touchless activation of a device |
CN103440034A (zh) * | 2013-08-19 | 2013-12-11 | 中国科学院深圳先进技术研究院 | 一种基于徒手和单目摄像头实现人机交互的方法和装置 |
KR101641091B1 (ko) | 2013-09-23 | 2016-07-20 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 모션 인식방법 |
US10152136B2 (en) * | 2013-10-16 | 2018-12-11 | Leap Motion, Inc. | Velocity field interaction for free space gesture interface and control |
US9857971B2 (en) * | 2013-12-02 | 2018-01-02 | Industrial Technology Research Institute | System and method for receiving user input and program storage medium thereof |
CN103702156A (zh) * | 2013-12-09 | 2014-04-02 | 乐视致新电子科技(天津)有限公司 | 一种自定义手势轨迹的方法及装置 |
US10126822B2 (en) | 2013-12-16 | 2018-11-13 | Leap Motion, Inc. | User-defined virtual interaction space and manipulation of virtual configuration |
EP2891950B1 (en) | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
US9971491B2 (en) * | 2014-01-09 | 2018-05-15 | Microsoft Technology Licensing, Llc | Gesture library for natural user input |
US20150199592A1 (en) * | 2014-01-14 | 2015-07-16 | Microsoft Corporation | Contour-based classification of objects |
US9990046B2 (en) | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
IL232391A0 (en) * | 2014-04-30 | 2014-08-31 | Pointgrab Ltd | A method and system for controlling accessories |
CN104038799A (zh) * | 2014-05-21 | 2014-09-10 | 南京大学 | 一种面向立体电视的手势操控方法 |
USD762591S1 (en) * | 2014-06-04 | 2016-08-02 | Legrand France | Home control device |
KR101627929B1 (ko) * | 2014-09-15 | 2016-06-07 | 연세대학교 산학협력단 | 제스처 인식기 설정 방법, 제스처 인식 방법 및 그 장치 |
US20160078289A1 (en) * | 2014-09-16 | 2016-03-17 | Foundation for Research and Technology - Hellas (FORTH) (acting through its Institute of Computer | Gesture Recognition Apparatuses, Methods and Systems for Human-Machine Interaction |
US20160085312A1 (en) * | 2014-09-24 | 2016-03-24 | Ncku Research And Development Foundation | Gesture recognition system |
US20170315615A1 (en) * | 2014-12-19 | 2017-11-02 | Hewlett-Packard Development Company, L.P. | Gesture library |
US9536136B2 (en) * | 2015-03-24 | 2017-01-03 | Intel Corporation | Multi-layer skin detection and fused hand pose matching |
KR20160133305A (ko) * | 2015-05-12 | 2016-11-22 | 삼성전자주식회사 | 제스쳐 인식 방법, 컴퓨팅 장치 및 제어 장치 |
CN106295463B (zh) * | 2015-05-15 | 2019-05-07 | 济南大学 | 一种基于特征值的手势识别方法 |
CN105260088B (zh) * | 2015-11-26 | 2020-06-19 | 北京小米移动软件有限公司 | 信息分类展示处理的方法及装置 |
CN105912974A (zh) * | 2015-12-18 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种手势识别方法及装置 |
US9734435B2 (en) * | 2015-12-31 | 2017-08-15 | Microsoft Technology Licensing, Llc | Recognition of hand poses by classification using discrete values |
FR3048108B1 (fr) * | 2016-02-24 | 2019-11-01 | Hins | Procede de reconnaissance de la disposition d'une main dans un flux d'images |
KR101745651B1 (ko) * | 2016-03-29 | 2017-06-09 | 전자부품연구원 | 손 제스처 인식 시스템 및 방법 |
US10529302B2 (en) | 2016-07-07 | 2020-01-07 | Oblong Industries, Inc. | Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold |
CN108073851B (zh) * | 2016-11-08 | 2021-12-28 | 株式会社理光 | 一种抓取手势识别的方法、装置及电子设备 |
CN108230328B (zh) * | 2016-12-22 | 2021-10-22 | 新沂阿凡达智能科技有限公司 | 获取目标对象的方法、装置和机器人 |
DE102017210317A1 (de) | 2017-06-20 | 2018-12-20 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Erfassen einer Nutzereingabe anhand einer Geste |
US20210103031A1 (en) * | 2017-06-27 | 2021-04-08 | Intel Corporation | Gesture recognition radar systems and methods |
CN107678551B (zh) | 2017-10-19 | 2021-12-28 | 京东方科技集团股份有限公司 | 手势识别方法和装置、电子设备 |
CN108230407B (zh) * | 2018-01-02 | 2021-03-23 | 京东方科技集团股份有限公司 | 一种图像的处理方法和装置 |
CN108447087A (zh) * | 2018-02-27 | 2018-08-24 | 方建民 | 利用对象影像找寻适合对象尺寸的物品的方法 |
CN108491820B (zh) * | 2018-04-02 | 2022-04-12 | 京东方科技集团股份有限公司 | 图像中肢体表示信息的识别方法、装置及设备、存储介质 |
CN108564020B (zh) * | 2018-04-08 | 2021-07-13 | 陕西科技大学 | 基于全景3d图像的微手势识别方法 |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
US11169613B2 (en) * | 2018-05-30 | 2021-11-09 | Atheer, Inc. | Augmented reality task flow optimization systems |
TWI710973B (zh) * | 2018-08-10 | 2020-11-21 | 緯創資通股份有限公司 | 手勢識別方法、手勢識別模組及手勢識別系統 |
CN109903313B (zh) * | 2019-02-28 | 2022-04-26 | 中国人民解放军国防科技大学 | 一种基于目标三维模型的实时位姿跟踪方法 |
US11442550B2 (en) * | 2019-05-06 | 2022-09-13 | Samsung Electronics Co., Ltd. | Methods for gesture recognition and control |
CN110287771A (zh) * | 2019-05-10 | 2019-09-27 | 平安科技(深圳)有限公司 | 图像手掌区域提取方法及装置 |
CN110414363B (zh) * | 2019-07-02 | 2022-10-21 | 中国科学院合肥物质科学研究院 | 一种基于高速图像处理的特征识别系统 |
US10991163B2 (en) | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11086406B1 (en) * | 2019-09-20 | 2021-08-10 | Facebook Technologies, Llc | Three-state gesture virtual controls |
US11189099B2 (en) | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
US11170576B2 (en) | 2019-09-20 | 2021-11-09 | Facebook Technologies, Llc | Progressive display of virtual objects |
US11176745B2 (en) | 2019-09-20 | 2021-11-16 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
CN112166436A (zh) * | 2019-12-24 | 2021-01-01 | 商汤国际私人有限公司 | 图像筛选方法及装置、电子设备 |
US11475639B2 (en) | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
CN111191632B (zh) * | 2020-01-08 | 2023-10-13 | 梁正 | 一种基于红外反射手套的手势识别方法及系统 |
CN113128324B (zh) * | 2020-01-16 | 2023-05-02 | 舜宇光学(浙江)研究院有限公司 | 基于深度数据的手势分割方法及其系统和电子设备 |
RU2737231C1 (ru) * | 2020-03-27 | 2020-11-26 | Федеральное государственное бюджетное учреждение науки "Санкт-Петербургский Федеральный исследовательский центр Российской академии наук" (СПб ФИЦ РАН) | Способ многомодального бесконтактного управления мобильным информационным роботом |
CN111597888A (zh) * | 2020-04-09 | 2020-08-28 | 上海容易网电子商务股份有限公司 | 高斯混合模型与cnn结合手势识别方法 |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
CN113473198B (zh) * | 2020-06-23 | 2023-09-05 | 青岛海信电子产业控股股份有限公司 | 一种智能设备的控制方法及智能设备 |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
US11946996B2 (en) | 2020-06-30 | 2024-04-02 | Apple, Inc. | Ultra-accurate object tracking using radar in multi-object environment |
US11227445B1 (en) | 2020-08-31 | 2022-01-18 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US12017791B2 (en) | 2020-09-03 | 2024-06-25 | Rockwell Collins, Inc. | System and method for interpreting gestures and providing control signals |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11113893B1 (en) | 2020-11-17 | 2021-09-07 | Facebook Technologies, Llc | Artificial reality environment with glints displayed by an extra reality device |
US11409405B1 (en) | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
US11461973B2 (en) | 2020-12-22 | 2022-10-04 | Meta Platforms Technologies, Llc | Virtual reality locomotion via hand gesture |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
CN113158912B (zh) * | 2021-04-25 | 2023-12-26 | 北京华捷艾米科技有限公司 | 手势识别方法及装置、存储介质及电子设备 |
US11762952B2 (en) | 2021-06-28 | 2023-09-19 | Meta Platforms Technologies, Llc | Artificial reality application lifecycle |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
US12008717B2 (en) | 2021-07-07 | 2024-06-11 | Meta Platforms Technologies, Llc | Artificial reality environment control through an artificial reality environment schema |
US11503361B1 (en) * | 2021-07-26 | 2022-11-15 | Sony Group Corporation | Using signing for input to search fields |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
KR20230087152A (ko) * | 2021-12-09 | 2023-06-16 | 김병수 | 리모트컨트롤 시스템 |
US11947862B1 (en) | 2022-12-30 | 2024-04-02 | Meta Platforms Technologies, Llc | Streaming native application content to artificial reality devices |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
CN116627262B (zh) * | 2023-07-26 | 2023-10-13 | 河北大学 | 一种基于数据处理的vr交互设备控制方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101419498A (zh) * | 2007-10-22 | 2009-04-29 | 三菱电机株式会社 | 操作输入装置 |
CN102830800A (zh) * | 2012-08-03 | 2012-12-19 | 中国科学技术大学 | 利用手势识别控制数字标牌的方法和系统 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
ATE232621T1 (de) | 1996-12-20 | 2003-02-15 | Hitachi Europ Ltd | Verfahren und system zur erkennung von handgesten |
US6501515B1 (en) * | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
JP2000331170A (ja) * | 1999-05-21 | 2000-11-30 | Atr Media Integration & Communications Res Lab | 手振り認識装置 |
US6738041B2 (en) * | 1999-10-29 | 2004-05-18 | Intel Corporation | Using video information to control cursor position |
EP1148411A3 (en) | 2000-04-21 | 2005-09-14 | Sony Corporation | Information processing apparatus and method for recognising user gesture |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7254268B2 (en) | 2002-04-11 | 2007-08-07 | Arcsoft, Inc. | Object extraction |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
KR100776801B1 (ko) | 2006-07-19 | 2007-11-19 | 한국전자통신연구원 | 화상 처리 시스템에서의 제스처 인식 장치 및 방법 |
US9317124B2 (en) | 2006-09-28 | 2016-04-19 | Nokia Technologies Oy | Command input by hand gestures captured from camera |
FR2911983B1 (fr) | 2007-01-25 | 2009-05-29 | St Microelectronics Sa | Procede de suivi automatique des mouvements de la mains dans une sequence d'images. |
CN101874404B (zh) * | 2007-09-24 | 2013-09-18 | 高通股份有限公司 | 用于语音和视频通信的增强接口 |
US8005263B2 (en) * | 2007-10-26 | 2011-08-23 | Honda Motor Co., Ltd. | Hand sign recognition using label assignment |
CN101491498B (zh) | 2008-01-25 | 2011-07-20 | 广州暨南大学医药生物技术研究开发中心 | 一种aFGF脂质体、制备方法及其应用 |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
WO2010099034A1 (en) * | 2009-02-25 | 2010-09-02 | Honda Motor Co., Ltd. | Capturing and recognizing hand postures using inner distance shape contexts |
US8373654B2 (en) * | 2010-04-29 | 2013-02-12 | Acer Incorporated | Image based motion gesture recognition method and system thereof |
-
2010
- 2010-09-17 US US12/885,072 patent/US9213890B2/en active Active
-
2011
- 2011-07-26 EP EP11825596.7A patent/EP2601615B1/en active Active
- 2011-07-26 WO PCT/US2011/045287 patent/WO2012036790A1/en active Application Filing
- 2011-07-26 CN CN201180043241.9A patent/CN103098076B/zh active Active
- 2011-07-26 KR KR1020137006107A patent/KR20130043222A/ko active Search and Examination
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101419498A (zh) * | 2007-10-22 | 2009-04-29 | 三菱电机株式会社 | 操作输入装置 |
CN102830800A (zh) * | 2012-08-03 | 2012-12-19 | 中国科学技术大学 | 利用手势识别控制数字标牌的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103098076A (zh) | 2013-05-08 |
US20120069168A1 (en) | 2012-03-22 |
EP2601615A4 (en) | 2017-11-22 |
US9213890B2 (en) | 2015-12-15 |
KR20130043222A (ko) | 2013-04-29 |
EP2601615B1 (en) | 2020-09-02 |
WO2012036790A1 (en) | 2012-03-22 |
EP2601615A1 (en) | 2013-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103098076B (zh) | 电视机控制用手势识别系统 | |
CN110147743B (zh) | 一种复杂场景下的实时在线行人分析与计数系统及方法 | |
KR102465532B1 (ko) | 객체 인식 방법 및 장치 | |
US8144932B2 (en) | Image processing apparatus, image processing method, and interface apparatus | |
US20070098222A1 (en) | Scene analysis | |
CN103926999A (zh) | 手掌开合手势识别方法和装置、人机交互方法和设备 | |
JP2017191501A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Nie et al. | Single/cross-camera multiple-person tracking by graph matching | |
CN110688965A (zh) | 基于双目视觉的ipt模拟训练手势识别方法 | |
CN113608663B (zh) | 一种基于深度学习和k-曲率法的指尖跟踪方法 | |
CN109948450A (zh) | 一种基于图像的用户行为检测方法、装置和存储介质 | |
JP2007148663A (ja) | オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム | |
CN103793056A (zh) | 基于距离向量的空中手势漫游控制方法 | |
CN105261038A (zh) | 基于双向光流和感知哈希的指尖跟踪方法 | |
CN114067273A (zh) | 一种夜间机场航站楼热成像显著人体分割检测方法 | |
Kovalenko et al. | Real-time hand tracking and gesture recognition using semantic-probabilistic network | |
KR20130111021A (ko) | 영상처리장치 및 영상처리방법 | |
JP5552946B2 (ja) | 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム | |
CN103020631A (zh) | 基于星型模型的人体运动识别方法 | |
Thabet et al. | Algorithm of local features fusion and modified covariance-matrix technique for hand motion position estimation and hand gesture trajectory tracking approach | |
Yeh et al. | Vision-based virtual control mechanism via hand gesture recognition | |
Jourdheuil et al. | Heterogeneous adaboost with real-time constraints-application to the detection of pedestrians by stereovision | |
KR20210124012A (ko) | 이미지 인식 방법, 장치 및 저장 매체 | |
Mesbahi et al. | Hand gesture recognition based on various deep learning YOLO models | |
Caetano et al. | Magnitude-Orientation Stream network and depth information applied to activity recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |