CN101517515A - 改进型用户接口 - Google Patents

改进型用户接口 Download PDF

Info

Publication number
CN101517515A
CN101517515A CNA2007800353586A CN200780035358A CN101517515A CN 101517515 A CN101517515 A CN 101517515A CN A2007800353586 A CNA2007800353586 A CN A2007800353586A CN 200780035358 A CN200780035358 A CN 200780035358A CN 101517515 A CN101517515 A CN 101517515A
Authority
CN
China
Prior art keywords
posture
hand
dislocation
skin
communication terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007800353586A
Other languages
English (en)
Other versions
CN101517515B (zh
Inventor
汪孔桥
R·塔卡拉
Y·方
H·鲁
Q·刘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of CN101517515A publication Critical patent/CN101517515A/zh
Application granted granted Critical
Publication of CN101517515B publication Critical patent/CN101517515B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种方法,其用于响应于登记和解释对象的预定动作或模式,调用通信终端的操作。其进一步涉及在其中实现本发明的计算机可读介质。

Description

改进型用户接口
技术领域
本发明涉及一种用于将姿势(gesture)映射到通信终端的特定功能的方法。具体地,本发明涉及一种响应于登记和解释对象的预定动作或模式而调用通信终端的操作的方法。此外,本发明还涉及被安排来实现所述方法的计算机程序。
背景技术
在与电子设备(例如计算机终端、照相机、移动电话和电视机)进行交互时,人们已经习惯通过键盘、触敏显示器等来输入信息和操纵这些电子设备。
随着手持设备的逐渐普及以及这些设备的小型化,由于这些设备的输入装置的尺寸的缩小而引起的使用性问题变得明显。因此,正在寻找一种向电子设备(特别是手持电子设备)提供输入的可选方案。此外,另一目标是找到在人类和计算设备之间更加自然的交互。
经过试验的各种输入技术包括与计算设备连接的辅助传感器模态(modality),例如用于获取特定姿势的动作传感器、表面肌肉或神经传感器等。然而,由于使用这样的传感器需要大量的计算能力这一缺陷,因而与此相关的是相当大的成本。
因此,期望开发出一种输入技术,其能够解决由于输入设备的小型化而带来的使用性问题。
发明内容
在下文中,提供了一种基于从一个或多个照相机捕获的手势的自然UI交互系统。利用在移动设备中集成的系统,其将有效地解决小型化硬件和最大化软件输入的冲突,同时,通过手势的交互将大大增强移动设备的使用性。
本发明的一个目的在于提供一种通信终端,其能够通过检测和识别用于控制所述通信终端的预定动作来建立与外部对象的交互。
本发明的目的还在于提供一种具有接近度检测(proximity detection)的通信终端,其针对对于预定动作的检测和识别,用于激活与外部对象的交互。
根据本发明的第一方面通过一种方法来实现以上目的之一,所述方法用于响应于登记和解释对象的预定动作或模式而调用通信终端的操作。因此,实现了一种用于对通信终端(例如移动电话)实现命令输入的方便的解决方案。作为其它优点,提供了一种针对设备小型化和使用性的冲突的直接解决方案。交互更加自然,并且输入不受到设备硬件的小型化的限制。术语“调用”还可解释为关联。
有利地,例如可以通过捕获对象的图像来在视觉上登记和解释动作或模式。有利地,通过例如在通信终端中集成的照相机,容易提供图像输入。
根据一个实施例,所述对象包括手,并且所述预定动作或模式包括手势。作为优点,可以通过使用对于设备的用户接口进行命令输入和导航的手势,实现在人类与计算设备之间的自然交互。此外,用户可以根据预定模式来移动手,所述预定模式可以在先前时刻已经由用户设置,由此调用移动电话的不同操作,例如呼叫消息的发送方,到达下一消息,等等。
根据各个实施例,措辞“登记”可理解为捕获图像数据,并且措辞“解释”可理解为:将对象识别为手,以及识别手的姿势并将其与参考姿势关联。根据本发明的一个实施例,措辞“解释”可理解为包括以下步骤:标识对象,识别所述对象,确定其定向,识别对象并将其与手势关联。可以通过终端的软件来进行解释。
此外,根据本发明的方法的另一实施例,所述操作涉及使用手势向通信终端提供命令输入,并且所述方法包括:
-捕获手势的图像数据201;
-在所述图像数据中标识对象202;
-将对象识别为手203;
-识别所述手的所述对象的特征,并将其与来自一组预定参考姿势中的第一参考姿势关联205;
-提供与所述参考姿势关联的命令输入206。
措辞“捕获图像数据”可理解为:利用图像捕获设备(例如像移动电话的照相机)简单地拍照。
通过措辞“在所述图像数据中标识对象”,其可理解为在图片中找到对象。
根据一个实施例,所述标识涉及对肤色分类。作为优点,可以从图像识别出诸如手这样的类似人类的对象。
根据另一实施例,肤色分类包括实现高斯混合建模(Gaussian mixturemodelling)。因此,模拟强度谱(intensity spectra)和人类肤色的混合特性,并且作为优点,增加在图像中识别包括人类皮肤的对象的精确度。
有利地,可以采取各种技术来改进从姿势的期望区域分离噪声区域的过程。例如,根据一个实施例,颜色分类可以涉及颜色空间分析和/或概率分析。
此外,根据另一实施例,所述颜色空间分析可以涉及将图像数据转换成色度平面(CbCr)颜色空间图像数据。
根据又一实施例,所述对象识别可以涉及使用连通分量(connectedcomponent)提取来消除视觉噪声。
根据一个实施例,所述连通分量提取可以包括以下内容中的任何一个:
-确定对象的纵横比(aspect ratio);
-确定与图像大小相比的对象大小;
-确定与输入图像的边界相连的区域;并且其中,在满足以下要求的情况下消除所述噪声:
-所述纵横比在10以内;
-所述对象大小大于关于输入图像大小所设置的预定值;以及
-存在与所述输入图像的边界相连的仅一个区域,或者存在不满足其它要求的多个区域。
根据一个实施例,所述关联可以涉及确定所述手的定向的步骤,以及涉及:
-确定所述对象的Karhunen-Loeé(KL)轴定向;
-确定所述对象的第一几何中心点;以及
-确定所述对象的凸多边形的第二几何中心点,并且其中,使用所述KL轴的定向来确定所述第一和第二中心点的位置关系。因此,第一几何中心点表示被分割的手区域的几何中心,即手区域的重心。第二几何中心点表示(优选地通过凸多边形来表示的)手区域轮廓的几何中心。通常,第一几何中心点不包括手形的信息。然而,第二几何中心点的位置反映了区域的凸度。因此,通过确定手区域的KL轴,可以确定第一和第二几何中心点相对于彼此的位置关系。已知在两个中心点(或中心)之间的相对位置,可以确定手的位置并识别姿势。
根据另一实施例,所述定向的确定得出以下之一:
-如果所述KL轴沿第一方向延伸,并且所述第一和第二中心点在基本沿所述第一方向的第一移置(displacement)方向上相对于彼此被移置,则进行第一操作,即,例如UP(向上);
-如果所述KL轴沿所述第一方向延伸,并且所述第一和第二中心点在基本沿所述第一方向的所述移置方向上相对于彼此被反向移置,则进行第二操作,即,例如DOWN(向下);
-如果所述KL轴沿基本垂直于所述第一方向的第二方向延伸,并且所述第一和第二中心点在基本沿所述第二方向的第二移置方向上相对于彼此被移置,则进行第三操作,即,例如RIGHT(向右);
-如果所述KL轴沿所述第二方向延伸,并且所述第一和第二中心点在基本沿所述第二方向的所述移置方向上相对于彼此被反向移置,则进行第四操作,即,例如LEFT(向左);
-如果所述中心点基本重合,并且所述姿势的所述对象的第一面积小于先前所识别姿势的先前所确定对象的第二面积的至少一半,则进行第五操作,即,例如OPEN(打开);
-如果所述中心点基本重合,并且所述姿势的所述对象的第一面积大于先前所识别姿势的先前所确定对象的第二面积的至少两倍,并且所述姿势对应于所述先前所识别姿势,则进行第六操作,即,例如CLOSE(关闭);
-如果所述中心点基本重合,并且所述姿势的所述对象的第一面积大于先前所识别姿势的先前所确定对象的第二面积的至少两倍,并且所述姿势不对应于所述先前所识别姿势,则进行第七操作,即,例如STOP(停止)。
根据优选实施例,在共同、一般的参考帧中,所述第一、第二、第三、和第四操作分别对应于向上、向下、向左和向右移动焦点,并且所述第五、第六和第七操作分别对应于打开项目(例如文件、文件夹或图像)、关闭文件夹或图像,以及停止焦点动作。措辞“焦点”涉及项目(例如图像、文件、联系人、细节条目、电话号码等)的焦点。
此外,根据本发明的一个优选实施例,第一KL轴方向垂直向上,并且第二KL轴方向水平向左。
在基本重合的情况下,可以理解为两个中心点彼此邻近并且不必要完全重合。
根据本发明的一个实施例,可以使用所述通信终端所包括的照相机来实现所述登记。
根据本发明的另一实施例,所述通信终端可以包括移动电话。
在该上下文中,措辞“姿势”应当理解为利用手所产生的姿势的单个形式或形状,例如闭合的拳头、张开的手、闭合的手而拇指伸开并且指着一方向。措辞“姿势”还可理解为一组包括一连串在彼此之后的单个姿势,此外还可理解为包括移动的手的姿势,例如用手指在空中打勾(ticking-in-the-air)。
措辞“图像数据”可理解为静态图像或一系列静态图像,例如视频序列。
根据本发明的又一实施例,所述方法还包括步骤:通过接近度检测来进行激活。因此,通过配备有接近度传感器(其检测达到附近对象的范围),可以通过接近度检测来激活用于登记动作的装置,导致其足够使终端接近对象,而不需要令它们进行机械接触。可用的接近度开关可以包括电感类型、电容类型、电磁辐射或超声波类型。检测电磁辐射包括:根据从例如用户的手发出的热来检测的光学传感和红外辐射。
根据本发明的第二方面,通过一种具有计算机可执行组件的计算机可读介质来获得上述目的、优点和特征以及将从以下详细描述中变得明显的各种其他目的、优点和特征,所述计算机可读介质适于:响应于登记和解释对象的预定动作或模式,调用通信终端的操作。
特别地,根据一个实施例,所述计算机可读介质还可适于:
-接收输入;
-捕获所述对象的图像数据;
-在所述图像数据中标识所述对象;
-将所述对象识别为手;
-将所述对象的特征识别为所述手的姿势,并将其与来自一组预定参考姿势中的第一参考姿势关联;
-提供与所述参考对象关联的命令输入。因此,作为优点,本发明的这些特征可在具有下载和运行这样的计算机程序的能力的任何移动通信装置中实现。
换句话说,本发明提供了一种方法,用于通过识别对象的预定动作来控制通信终端的不同操作。在将例如用户的手用作对象的情况下,预定动作可以包括将手闭合成拳头、抓握、挥手、用一个或多个手指进行指点,或者就像模式(例如包括一系列动作)。因此,预定动作可以与通信终端执行的行为、命令或任务相结合或成对。在该上下文中,措辞“控制”还可理解为调用或执行移动通信终端的不同操作。
预定动作可以被识别以便控制:打开和/或关闭媒体内容的项目、访问在项目列表或堆栈中的媒体内容的上一项目或下一项目、删除媒体内容的项目、滚动通过媒体内容的项目的内容、应答输入语音呼叫;在从项目列表中选择的项目上采取措施,呼叫SMS的发送方或结束投影。
输入通信可以包括消息,例如SMS或MMS。而媒体内容或消息可以包括文本、图像、视频或其任意组合。尽管这些消息传递服务是如今最常用的,然而本发明还旨在与其它类型的文本或多媒体消息一起使用。
所述方法还包括步骤:沿着投影光锥(projected cone of light)将对象从投影仪移开,直到获得图像的优选大小。通过实际上将信息保持在手中,用户感觉到在控制呈递(presentation),且仅对他或她自身显露数据。姿势的特性对于用户来说是直观上获得这样的印象和感觉,即,在通信终端外部用手取得图像,并且在已经回顾了信息之后,将其再次放回终端。
所述方法还可以包括以下步骤:将对象移回到设备和/或检测第二锥(second tap)以便结束对所述图像的投影。因此,以直观的方式,用户将仅以相反的顺序来实现与当启动该过程时相同的步骤。
所提及的对象可以是例如通信终端的用户的手。使用手的优点尤其是直接有可能略微将手合拢便将图像从环境中挡住(shield off)。可以使用的其他对象包括报纸、铅笔或者甚至是伞。
预定动作可以通过使用图像获取装置来检测和识别。图像获取装置可以是例如任何类型的数字照相机,例如CMOS照相机。
措辞“解释”还可解释为识别。
可以通过使用对于设备的用户接口进行导航和命令输入的手势来实现在人类与计算设备之间的自然交互。特别地,利用移动照相机设备的可用性,并且通过照相机输入经由手势来实现命令输入的模式识别技术以及强大的图像/视频内容分析是一种便捷的解决方案,期望得到终端用户的高度赞许。
换句话说,通过文中所公开的本发明,输入技术能够提供一种针对设备小型化和使用性的冲突的直接解决方案。交互更加自然。输入不受到设备硬件的小型化的限制。因此,通过本发明所提供的交互方式,提供了一种具有诸多优点的有利的、手部自由的(hands free)解决方案,特别用于手持式通信设备。
附图说明
参照附图,通过以下说明性和非限制性的对本发明优选实施例的具体描述,本发明的上述以及其他目的、特征和优点将被更好地理解,其中:
图1示意性地示出了根据本发明的姿势识别过程的流程图;
图2示意性地示出了根据本发明的方法的框图;
图3示出了多个手势的示意性例子(从a)至f)部分);以及
图4示意性地示出了根据本发明用于手势识别的几何方法的各个定向(从a)至f)部分)。
具体实施方式
在对各个实施例的以下描述中,参照形成各个实施例的一部分的附图,并且通过说明的方式来示出可以在其中实践本发明的各个实施例。应当理解,在不背离本发明的范围的情况下,可以利用其它实施例并且可以进行结构和功能的修改。
图1示意性地示出了在其中实现本发明的通信终端101。终端101能够经由空中接口103与无线电通信网络105(例如公知的系统CDMA2000、D-AMPS、GSM、UMTS、EDGE等)进行通信。该终端包括:处理器107、存储器109,以及作为扩音器111、扬声器113、显示器115和键盘117的形式的输入/输出单元。通过无线电电路119和天线121实现无线电通信。连接至无线电通信网络105的是控制器123。关于这些单元如何通信的细节对于本领域的技术人员来说是已知的,并且因此不再进一步讨论。终端101还包括用于捕获图像数据的成像单元124。
在图2中,描绘了用于使用手势来向通信终端提供命令输入的方法的流程图。特别地,其示出了根据本发明的姿势识别过程。在所示方法的第一步201,利用图像获取装置(优选地,利用移动电话的数字照相机)来捕获手势的图像数据。图像获取装置可以是例如任何类型的数字照相机,如用于图像记录的基于CCD(电荷耦合器件)或CMOS(互补金属氧化物半导体)的照相机。
在该方法的第二步202中,从图像数据中标识一个或多个对象。关于如何实现对象标识的其它细节分别在以下用于肤色划分以及连通分量标记和合并(mergence)208的步骤207和208中进行了概括。
在该方法的第三步203中,检查是否有任何对象对应于手。为此,必须满足多个手势要求,下面结合用于噪声区域消除的步骤209给出了其中的细节。
在该方法的第四步204中,确定手的定向。这是在使用Karhunen-Loeè定向的基于定向的几何方法中实现的,将在下面结合步骤210对其进行进一步详细描述。
在该方法的第五步205中,识别手的姿势,并将其与一组预定姿势中的一个相关联。下面结合步骤211至217进一步详细描述了该步骤的过程。
在该方法的第六步206中,提供与所识别的姿势对应的输入。下面结合步骤218至224较为详细地描述了各种输入备选方案。
关于图2中所示的方法的步骤202,对象标识的过程涉及肤色划分步骤207,用于标识图像中具有肤色的区域。肤色划分或肤色分类的技术可以被描述为将各个图像像素分成皮肤种类和非皮肤种类。为此,使用颜色空间分析。在皮肤划分中已使用了各种各样的颜色空间,例如RGB、HSV和YCbCr等。
RGB颜色空间是用于处理和存储彩色图像数据的最广泛使用的颜色空间之一,但是由于在色度和亮度数据的混合与通道之间的高度相关性,因此其通常不适合用于颜色分析和基于颜色的识别。
基于色调-饱和度(Hue-saturation)的颜色空间(如HSV、HSI、HSL)是这样的模型,即该模型符合人类的直观感知并且类似于艺术家实际如何混合颜色。特别地,色调具有对白光源和环境光以及表面定向的不变特性。
YCbCr是面向硬件的模型。在该颜色空间中,亮度从色度数据中分离。通过从RGB的红和蓝分量减去亮度来形成Cb和Cr值。亮度和色度分量的转换简单性和明显的分离使得这种颜色空间适合于肤色建模[Hsu等人,2002]。
为了选择基于色调的颜色空间或YCbCr空间来使得肤色检测对于亮度不变,利用一组肤色训练数据来分别评估YCbCr和HSV,所述数据包括从各个静态图像和视频帧中提取的550个肤色样本,覆盖大范围的肤色外观(在皮肤样本数据中总共超过2000万个肤色像素)。
在图5中,分别在YCbCr空间a)部分和HSV空间b)部分中绘制了肤色样本500。清楚可见的是,在YCbCr和HSV两个颜色空间中,肤色样本形成单个且紧密的群集501和502。在YCbCr颜色空间中,观察到:强度值Y对于CbCr平面上的分布具有很小的影响,并且在CbCr平面中,样本肤色形成更小的和更紧密的群集。因此,在本发明中,将色度平面(CbCr)直接用于肤色分类,而不考虑强度值。因而,图5的比较说明了为何可优选地选择YCrCb空间用于肤色区域划分。此外,还可以采用该数据来训练用于手区域划分的肤色模型。
为了对肤色划分建模,使用高斯混合模型和期望值最大化(EM)估计。
高斯密度函数以及高斯混合常被用于对肤色进行建模[Yang等人,2002]。通常使用最大似然来估计在单峰高斯分布中的参数。使用高斯混合的动机是基于以下观察:对于具有不同种族背景的人类皮肤的颜色柱状图没有形成单峰分布,但却形成多峰分布。
利用单峰高斯,通过参数化的函数形式来近似计算肤色的类条件(class-conditional)概率分布函数(PDF)[Yang,Waible 1996]。
p ( x | skin ) = g ( x ; m s , C s ) = ( 2 π ) - d / 2 | C s | - 1 / 2 exp { - ( x - m s ) T C s - 1 ( x - m s ) } - - - ( 1 )
其中,d是特征向量的维度,ms是均值向量,Cs是皮肤类别的协方差矩阵。在多峰分布的情况下,通过GMM(高斯混合模型)来近似计算肤色分布。
p ( x | skin ) = Σ i = 1 N s ω s , i g ( x ; m s , i , C s , i ) - - - ( 2 )
通常,使用期望值最大化(EM)算法[Bilmes 1998]得到高斯混合的参数(即,权重ω,均值m,协方差C)。
当数据不完整或具有遗漏的值时,EM算法是从给定数据集得到基本分布的参数的最大似然估计的通用方法。混合密度参数估计问题是EM算法的最广泛使用的应用之一[Xu,Jordan 1996]。
在本发明中,使用YCbCr颜色空间和GMM来实现肤色分类。为了构建GMM模型,使用K-均值[Duda,Hart 2001]算法来设置群集中心,并且然后利用EM算法来估计每个高斯分量的参数。
在这种情况下,用于肤色分类的GMM模型包括20个高斯分量。每个分量是2-元素(Cb和Cr元素)高斯分布。20个高斯分量的参数列出如下。
  编号   权重   中心   协方差
  1   0.0702   (109.8462,151.5873)   (5.2380,6.2722)
  2   0.0657   (99.9267,159.2890)   (2.6080,6.9135)
  3   0.0861   (112.8403,144.3406)   (9.1854,16.0524)
  4   0.0737   (107.4903,157.2522)   (6.6948,5.4418)
  5   0.0393   (96.5935,152.4062)   (31.4322,44.6357)
  6   0.0128   (82.6950,157.0569)   (25.4192,25.2871)
  7   0.0351   (94.6656,170.6002)   (4.7205,16.8803)
  8   0.0626   (116.0954,146.3582)   (8.8988,15.1916)
  9   0.0645   (95.1594,160.7084)   (3.7062,15.6597)
  10   0.0203   (79.6508,170.3406)   (31.2517,39.3632)
  11   0.0552   (120.2977,138.1978)   (9.4732,15.4720)
  12   0.0623   (102.9900,157.9256)   (0.8807,4.7835)
  13   0.0184   (84.0346,181.6167)   (100.3211,52.0002)
  14   0.0428   (102.1408,167.0846)   (26.0495,4.2852)
  15   0.0767   (104.3367,153.5133)   (5.8803,3.6749)
  16   0.0275   (113.8521,155.1590)   (6.8684,11.1284)
  17   0.0509   (104.9962,162.3113)   (21.1715,4.5049)
  18   0.0176   (99.4697,173.3117)   (25.8624,6.2579)
  19   0.0861   (107.1334,147.7768)   (16.2802,13.8575)
  20   0.0323   (88.9360,166.3086)   (5.9463,19.0921)
在肤色分类之后,需要后处理-连通分量提取[Gonzalez,Woods2002],用于噪声区域移除。
在“连通分量标记和合并”的步骤208中,合并应当属于一个对象的相邻区域或分量,并计算区域的大小。基于标记对象的大小信息,实现“噪声区域消除”的步骤209,以便移除那些类似噪声的小区域以及具有规则形状(人为对象)的那些区域。
因此,在划分之后,原始图像变成黑/白图像,其中白色区域代表对象,而黑色区域代表背景。然而,此时白色区域的大小和形状未知。利用连通分量标记,计算对象区域的大小和形状,并且根据一些给定的先验准则,合并属于相同对象的相邻对象区域。在标记和合并的步骤之后,实现噪声区域移除的步骤,以便移除那些小区域以及具有规则形状(人为对象)的那些区域。
根据本发明,在任何的输入姿势图像中应当存在唯一的手区域。在基于颜色皮肤的划分之后,有时候,不仅可以划分手区域,还可以划分其它噪声区域。因而,其中将对象识别为手的步骤203涉及噪声消除的步骤209。因此,如果存在被提取的任何噪声区域,则根据以下规则对其进行移除:
-手区域应当具有10以内的纵横比(步骤210);
-与输入图像大小相比,手区域应当具有足够的大小(步骤211)。可以使用形态上开放的操作(morphological open operation)来移除那些小的孤立区域。
-与输入图像的边界相连的所有区域都可以看作噪声区域,除非仅存在一个满足以上两个规则的被分割的区域(步骤212)。
在噪声区域移除之后,剩余的区域是手区域。
姿势定向分析:
作为将对象与预定对象关联的步骤204的一部分,在步骤210中确定手的定向,以便确定Karhunen-Loeè(KL)定向。这种用于手势识别的基于定向的几何方法包括确定Karhunen-Loeè(KL)定向,以及确定手区域及其凸包(convex hull)的质心(centroid)。
KL定向:
图4示出了如a)至f)部分中所示的KL定向[Pratt 2001]以及在各个定向上手区域的质心。下面进一步给出图4的详细描述。
如下导出KL定向:
假设在输入姿势图像的肤色像素集Ps中每个像素坐标是(xsi,ysi),那么Ps=[ps1 ps2…psN],psi=(xsi,ysi)T,i=1…N是肤色像素的坐标。Ps的均值是Ps=[xs,ys]T,其中xs=∑ixi/N,ys=∑iyi/N。对应的协方差矩阵定义为 C s = 1 N Σ i ( p si - P s ‾ ) ( p si - P s ‾ ) T .
从协方差矩阵Cs可容易地计算出特征值Es=[es1 es2]和对应的特征向量Evs=[evs1 evs2]。因此,与较大的特征值esmax相对应的特征向量evsmax确定了在图像坐标平面中的KL定向,参见图4中的短划线407至412。
手区域及其凸包的质心:
在图4的d)部分中所示的被分割的手区域的情况下,可以分别计算手区域及其凸多边形的质心-C1(x1,y1)和C2(x2,y2)。
x1=∑ixsi/N,y1=∑iysi/N,i=1…N是手区域中的第i个肤色像素。
导出C2(x2,y2)为:
x 2 = ∫ S x x ds ∫ S ds , y 2 = ∫ S y s ds ∫ S ds , S-skin area,ds-skin area element
            (S-皮肤面积,ds-皮肤面积元素)
基于格林定理,
Sxds=-∫Lx2dy,∫Sds=∫Lx*dy,L-perimeter of polygon
(L-多边形的周长)
对于作为一系列线段的多边形,这正好可以被简化成求和,
x 2 = - 2 Σ ( ( x si 2 + x si + 1 2 + x si x si + 1 ) ( y si + 1 - y si ) ) 3 Σ ( ( x si + x si + 1 ) ( y si + 1 - y si ) )
y 2 = - 2 Σ ( ( y si 2 + y si + 1 2 + y si y si + 1 ) ( x si + 1 - x si ) ) 3 Σ ( ( x si + x si + 1 ) ( y si + 1 - y si ) )
通过“简化(shortcutting)”连接手区域的边缘来创建第二质心C2的形状。因而,效果是涂抹(smear)手区域的轮廓(conture),以便使得拇指与手的主体接合(coalesce),并且图像对象的“重心”被移置(displace)。
关于图2中所示的方法的第五步205,以下概括了用于识别以及将手势与一组预定姿势之一进行关联的过程。还包括在以下概括内容中的是如何将姿势映射到各个输入备选方案,如以上步骤206所示,以便提供与所识别的姿势对应的输入。
如果已经计算了手区域的KL定向以及该区域及其凸包的质心,那么可以参照手区域的KL定向,通过这两个质心的位置关系来估计手形状的定向。
根据这里概括的本发明实施例,可用的输入备选方案是UP(向上)、DOWN(向下)、RIGHT(向右)、LEFT(向左)、OPEN(打开)、CLOSE(关闭)和STOP(停止)。然而,可以采用其它的输入备选方案。此外,还可以具有能够与所提供的姿势匹配的其它预定姿势。用户可以例如向系统所识别的一组预定姿势提供各个姿势。因此,提供了一种学习系统,能够根据每个用户的选择和偏好对其进行个性化。
下面可以描述将输入姿势与参考姿势对象进行匹配的原理:通过消除不太可能的备选方案,从预定数目的可用参考对象中选择参考姿势对象,从而选择剩余的最后一个。也就是,例如,已知存在六个不同的备选方案来从中进行选择,那么选择具有最佳对应性的一个。
参照图2,对于步骤211中分离的质心和中心点以及步骤212中接近垂直的KL定向的情况,如果在步骤213中质心第一中心点在质心第二中心点以上,则姿势对应于操作DOWN 218,而如果在步骤213中质心第一中心点在质心第二中心点以下,则姿势对应于操作UP 219。此外,对于步骤211中分离的质心和中心点而在步骤212中却具有接近水平的KL定向的情况,如果在步骤214中质心第一中心点在质心第二中心点的左边,则姿势对应于操作RIGHT 220,而如果在步骤214中质心第一中心点在质心第二中心点的右边,则姿势对应于操作LEFT 221。
为了优化有限数目的姿势的使用,可以将各种输入与单个姿势关联。因此,根据该例,操作CLOSE和STOP都可以与闭合的拳头关联。取决于先前的行为或操作,在步骤217中闭合的拳头的姿势导致不同的操作,例如,如果上一输入是STOP并且上一姿势是张开的手,则导致CLOSE,如步骤223中所示。否则,得到的操作是步骤224所示的STOP。在姿势的凸包的面积是先前姿势的面积的至少两倍(如步骤215所示)并且先前操作是STOP(如步骤216所示)的情况下,那么当前操作是步骤222所示的OPEN。在前一例子中,当最后的操作不是OPEN的情况下,当前操作完全是NO(否)操作,如步骤216所示。
略微不同地,如果手区域的KL定向接近水平并且两个质心彼此分离,则姿势意味着LEFT或RIGHT。而在接近垂直的KL定向的情况下,姿势意味着UP或DOWN。然后使用两个质心的位置关系来确定姿势含义。容易理解,两个质心的差别受到伸开的拇指的影响。如果拇指向左伸开,则凸包的质心位于手区域的质心的左边。对于姿势RIGHT、UP和DOWN,两个质心的位置关系类似于LEFT。另一方面,如果存在手的突出拇指,则凸包的质心将会处于与手区域的质心不同的位置。
根据本发明的另一实施例,应用以下规范:
-使用与UP、DOWN、LEFT和RIGHT相关的姿势来将焦点从一个项目移至另一项目。
-使用OPEN姿势来打开项目,而使用CLOSE姿势来关闭打开的项目。
-从姿势顺序的观点来看,CLOSE姿势应当在OPEN姿势之后。然而,如果存在一个或多个其它姿势,例如在UP/DOWN/LEFT/RIGHT之间,则这些姿势被禁用,并且系统将仅接受OPEN/CLOSE姿势。
-使用STOP姿势来使得焦点停止在项目上。
-STOP姿势和CLOSE姿势具有相同的手势。
-如果系统检测到OPEN姿势,则会登记姿势信息,例如手区域大小、手势(OPEN)。直到系统检测到CLOSE姿势,将不接受其它姿势。
-对于STOP/CLOSE姿势和OPEN姿势,手区域及其凸包的中心点不必完全地重合,但却几乎重合。
-对于CLOSE姿势,手的大小近似小于OPEN姿势的手的大小的两倍。
-如果不存在被登记的OPEN姿势,并且如果系统检测到拳头状姿势,则系统将认为它是STOP姿势,而不是CLOSE姿势。
项目可以包括文档、文件夹、联系人、收件人、多媒体内容(例如图像、音频或视频序列)、提醒、多媒体消息等。
图4将用作说明性例子400,其在a)至f)部分中描述了各个KL定向以及手区域及其凸包的质心。例如,如果手区域的KL定向接近水平407,如图4的a)部分中所示,其中拇指401指向左,并且凸包的质心C2 413位于手区域的质心C1 414的左边时,那么姿势对应于LEFT符号。在b)部分中,在拇指指向右的情况下,其两个质心415和416的位置颠倒。如果手区域的KL定向接近垂直409,如图4的c)部分中所示,其中拇指403指向上,而C2 417位于C1 418之上时,那么姿势对应于UP符号。在d)部分中,在拇指指向下的情况下,其两个质心419和420的位置颠倒。
如果手区域的两个质心C1和C2(421和422)几乎重叠,如e)部分中以张开的手405并且基本垂直的KL轴411所描绘的,以及如图4的f)部分中以闭合的拳头406并且基本水平的KL轴412所描绘的,将姿势分别识别为OPEN和STOP。为了区分是将姿势识别为OPEN还是STOP,假设用于OPEN的张开的手的凸包的面积大约是与STOP相对应的闭合拳头的姿势的面积的两倍大小。用于进行区分的其它启发式方案包括:在STOP之后应当实现OPEN,而CLOSE应当在OPEN之后,等等。
图3描绘了一组预定的固定参考手势300。图3的a)至d)部分示出了拇指指向以下方向的闭合的手:a)指向右301,用于指示向右运动;b)指向左302,用于指示向左运动;c)指向上303,用于指示向上运动;d)指向下304,用于指示向下运动。图3的e)部分示出了闭合的手305,用于指示停止或关闭。图3的f)部分示出了张开的手306,用于指示打开或接受。对于运动的指示可以指的是菜单中的操纵、在项目(例如消息、图像、联系人细节、Web页面、文件等)之间的切换,或者滚动通过项目。其它手势(未示出)包括移动手势,例如用食指在空中画勾,用于指示选择;用食指在空中画叉,用于指示对活动对象(例如消息、图像、高亮区域等)的删除。可以将终端分发给终端用户(包括一组预定手势)。用户还可以根据需要和个人选择来定义个人手势,或者配置手势与关联行为之间的映射。
换句话说,通过提供某些被定义的手势,能够实现用户接口交互。因此,可以将手势用于命令输入以及对字母和数字的录入等。根据一个应用,即媒体库导航,其中使用“Up”来向上移动焦点,使用“Down”来向下移动焦点,使用“Left”来向左移动焦点,使用“Right”来向右移动焦点,“Stop”意味着停止焦点移动,使用“Open”来打开焦点所在的图片,以及使用“Close”来关闭在库中打开的图片。手势还可以用于在图形用户接口上控制对象的移动,例如,在已知的贪吃虫游戏中控制虫子的移动。
根据本发明的一个实施方案,通信终端被配置以便登记和解释对象的动作(优选地,利用内置式照相机并结合用于登记和分析在其前面的动作/模式的软件)。然后,该终端被配置以便:响应于用户的手的预定动作或模式,例如选择和执行一些行为(例如打开和/或关闭媒体内容的项目,访问在项目列表或堆栈中的媒体内容的上一项目或下一项目,删除媒体内容的项目,滚动通过媒体内容的项目的内容,应答输入语音呼叫),在从项目列表中选择的项目上采取措施,呼叫SMS的发送方,或者结合输入通信(例如SMS(短消息服务)或MMS(多媒体消息传递服务))来采取一些措施。在最后两种所讨论的情况下,先前所提及的动作或模式可以包括:可由通信终端解释成删除消息的闭合的拳头,可使用手的斜置(tilting)来到达消息文件夹或列表中的下一消息,向上斜置可指示在列表中前进,并且向下斜置可指示在列表中后退。通过使得手旋转、斜置、绕圈或者来回或上下简单移动,可以将多个行为与不同模式关联。模式还可以包括一系列或一连串的动作。通信终端可被配置以便识别多个预设动作。然而,对于用户来说,也可以配置各个动作,或者调节动作以便更好地匹配现有模式。
因此,使用接近度检测,利用对象的靠近终端的姿势可以触发终端激活投影仪来呈递输入通信的信息。接近度传感器检测何时有物体接近。在检测到有物体接近时给予开关输出的这样的传感器称为接近度开关。
最后,上述发明提供了一种向通信终端提供输入的方便和直观的方式。其很好地适用于结合缩小尺寸的设备来进行提供。特别地,在人的手暴露于液体或其它物质的情形和环境中,其也是方便的,从而不需要与终端的直接物理接触。

Claims (18)

1.一种方法,用于响应于登记和解释对象的预定动作或模式,调用通信终端的操作。
2.根据权利要求1的方法,其中所述对象包括手,并且所述预定动作或模式包括手势。
3.根据权利要求1的方法,其中通过所述终端的软件来实现对动作或模式的所述解释。
4.根据权利要求1的方法,其中所述操作涉及:使用手势来向所述通信终端提供命令输入,并且所述方法包括:
-捕获所述手势的图像数据201;
-在所述图像数据中标识对象202;
-将对象识别为手203;
-将所述对象的特征识别为所述手的姿势,并将其与来自一组预定参考姿势中的第一参考姿势关联205;
-提供与所述参考姿势关联的命令输入206。
5.根据权利要求4的方法,其中所述标识涉及对肤色进行分类。
6.根据权利要求5的方法,其中所述肤色的分类包括进行高斯混合建模。
7.根据权利要求5的方法,其中所述肤色的分类涉及颜色空间分析和/或概率分析。
8.根据权利要求7的方法,其中所述颜色空间分析涉及:将图像数据转换成色度平面(CbCr)颜色空间图像数据。
9.根据权利要求4的方法,其中所述对象识别涉及:使用连通分量提取来消除视觉噪声。
10.根据权利要求9的方法,其中所述连通分量提取包括以下中的任何一个:
-确定所述对象的纵横比;
-确定与图像大小相比的对象大小;
-确定与输入图像的边界相连的区域;并且其中,在满足以下要求的情况下消除所述噪声:
-所述纵横比在10以内;
-所述对象大小大于关于输入图像大小所设置的预定值;以及
-存在与所述输入图像的边界相连的仅一个区域,或者存在不满足其它要求的多个区域。
11.根据权利要求4的方法,其进一步包括:确定所述手的定向204,以及涉及:
-确定所述对象的Karhunen-Loeé(KL)轴定向;
-确定所述对象的第一几何中心点;以及
-确定所述对象的凸多边形的第二几何中心点,并且其中,使用所述KL轴的定向来确定所述第一和第二中心点的位置关系。
12.根据权利要求11的方法,其中所述定向的确定得出以下之一:
-如果所述KL轴沿第一方向延伸,并且所述第一和第二中心点在基本沿所述第一方向的第一移置方向上相对于彼此被移置,则进行第一操作;
-如果所述KL轴沿所述第一方向延伸,并且所述第一和第二中心点在基本沿所述第一方向的所述移置方向上相对于彼此被反向移置,则进行第二操作;
-如果所述KL轴沿基本垂直于所述第一方向的第二方向延伸,并且所述第一和第二中心点在基本沿所述第二方向的第二移置方向上相对于彼此被移置,则进行第三操作;
-如果所述KL轴沿所述第二方向延伸,并且所述第一和第二中心点在基本沿所述第二方向的所述移置方向上相对于彼此被反向移置,则进行第四操作;
-如果所述中心点基本重合,并且所述姿势的所述对象的第一面积小于先前所识别姿势的先前所确定对象的第二面积的至少一半,则进行第五操作;
-如果所述中心点基本重合,所述姿势的所述对象的第一面积大于先前所识别姿势的先前所确定对象的第二面积的至少两倍,并且所述姿势对应于所述先前所识别姿势,则进行第六操作;
-如果所述中心点基本重合,所述姿势的所述对象的第一面积大于先前所识别姿势的先前所确定对象的第二面积的至少两倍,并且所述姿势不对应于所述先前的姿势,则进行第七操作。
13.根据权利要求12的方法,其中所述第一、第二、第三和第四操作分别对应于向上、向下、向左和向右移动焦点,所述第五、第六和第七操作分别对应于打开项目、关闭项目和停止焦点动作。
14.根据权利要求1的方法,其中使用所述通信终端的照相机来实现所述登记。
15.根据权利要求1的方法,其中所述通信终端是移动电话。
16.根据权利要求1的方法,其进一步包括步骤:通过接近度检测来进行激活。
17.一种具有计算机可执行组件的计算机可读介质,其包括:所述计算机可读介质适于响应于登记和解释对象的预定动作或模式,调用通信终端的操作。
18.根据权利要求17的计算机可读介质,其进一步适于:
-接收输入;
-捕获所述对象的图像数据;
-在所述图像数据中标识所述对象;
-将所述对象识别为手;
-将所述对象的特征识别为所述手的姿势,并将其与来自一组预定参考姿势中的第一参考姿势关联;
-提供与所述参考对象关联的命令输入。
CN2007800353586A 2006-09-28 2007-09-24 改进型用户接口 Active CN101517515B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/536,373 2006-09-28
US11/536,373 US9317124B2 (en) 2006-09-28 2006-09-28 Command input by hand gestures captured from camera
PCT/IB2007/002766 WO2008038096A1 (en) 2006-09-28 2007-09-24 Improved user interface

Publications (2)

Publication Number Publication Date
CN101517515A true CN101517515A (zh) 2009-08-26
CN101517515B CN101517515B (zh) 2011-09-14

Family

ID=39110535

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007800353586A Active CN101517515B (zh) 2006-09-28 2007-09-24 改进型用户接口

Country Status (4)

Country Link
US (1) US9317124B2 (zh)
CN (1) CN101517515B (zh)
HK (1) HK1134562A1 (zh)
WO (1) WO2008038096A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102270036A (zh) * 2010-06-04 2011-12-07 宏碁股份有限公司 影像式手部动作辨识系统及其方法
CN102023790B (zh) * 2009-09-22 2013-06-12 宏碁股份有限公司 动态操作互动对象的方法及系统
CN103869962A (zh) * 2012-12-18 2014-06-18 联想(北京)有限公司 一种数据处理方法、装置及电子设备
CN103885572A (zh) * 2012-12-19 2014-06-25 原相科技股份有限公司 开关装置
CN104583902A (zh) * 2012-08-03 2015-04-29 科智库公司 改进的手势的识别
CN104750243A (zh) * 2013-12-27 2015-07-01 日立麦克赛尔株式会社 图像投影装置
CN105117112A (zh) * 2015-09-25 2015-12-02 王占奎 空中交互式智能全息显示系统
CN107846519A (zh) * 2012-06-29 2018-03-27 英特尔公司 用于基于手势的管理的系统和方法

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US20080156989A1 (en) * 2006-12-28 2008-07-03 O2Micro Inc. Motion sensing/recognition by camera applications
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US20080273754A1 (en) * 2007-05-04 2008-11-06 Leviton Manufacturing Co., Inc. Apparatus and method for defining an area of interest for image sensing
US7949157B2 (en) * 2007-08-10 2011-05-24 Nitin Afzulpurkar Interpreting sign language gestures
US8201108B2 (en) * 2007-10-01 2012-06-12 Vsee Lab, Llc Automatic communication notification and answering method in communication correspondance
US7970176B2 (en) * 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US20090295712A1 (en) * 2008-05-29 2009-12-03 Sony Ericsson Mobile Communications Ab Portable projector and method of operating a portable projector
US8113991B2 (en) * 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
US8269842B2 (en) 2008-06-11 2012-09-18 Nokia Corporation Camera gestures for user interface control
KR100978929B1 (ko) * 2008-06-24 2010-08-30 한국전자통신연구원 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말
US8194921B2 (en) 2008-06-27 2012-06-05 Nokia Corporation Method, appartaus and computer program product for providing gesture analysis
CN101626631A (zh) * 2008-07-08 2010-01-13 深圳富泰宏精密工业有限公司 利用影像调用功能的系统及方法
KR101390045B1 (ko) * 2008-12-24 2014-04-30 에릭슨엘지엔터프라이즈 주식회사 통화 장치 및 그 제어 장치
US8379987B2 (en) 2008-12-30 2013-02-19 Nokia Corporation Method, apparatus and computer program product for providing hand segmentation for gesture analysis
CN102317977A (zh) * 2009-02-17 2012-01-11 奥美可互动有限责任公司 用于姿势识别的方法和系统
CN105717989B (zh) * 2009-02-27 2020-02-21 艾卡姆有限公司 基于耳机的电信平台
US20100289753A1 (en) * 2009-05-14 2010-11-18 Microsoft Corporation Adjusting organization of media content on display
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
KR101038323B1 (ko) * 2009-09-24 2011-06-01 주식회사 팬택 영상인식기법을 이용한 화면 프레임 제어장치
US20110074675A1 (en) * 2009-09-29 2011-03-31 Nokia Corporation Method and apparatus for initiating a feature based at least in part on the tracked movement
JP2011081469A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 入力装置
GB2483168B (en) 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
CN102103457B (zh) * 2009-12-18 2013-11-20 深圳富泰宏精密工业有限公司 简报操作系统及方法
IL204436A (en) * 2010-03-11 2016-03-31 Deutsche Telekom Ag A system and method for remote control of online TV by waving hands
US20110268365A1 (en) * 2010-04-30 2011-11-03 Acer Incorporated 3d hand posture recognition system and vision based hand posture recognition method thereof
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
JP5685837B2 (ja) * 2010-06-15 2015-03-18 ソニー株式会社 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
TWI407764B (zh) * 2010-08-16 2013-09-01 Wistron Neweb Corp 跳轉方法、人機界面及無線電話子機
US9118832B2 (en) 2010-08-17 2015-08-25 Nokia Technologies Oy Input method
US8613666B2 (en) * 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8620024B2 (en) 2010-09-17 2013-12-31 Sony Corporation System and method for dynamic gesture recognition using geometric classification
US9213890B2 (en) * 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
EP2630616A4 (en) 2010-10-18 2017-03-22 Nokia Technologies Oy Method and apparatus for providing hand detection
US8768006B2 (en) 2010-10-19 2014-07-01 Hewlett-Packard Development Company, L.P. Hand gesture recognition
US8730157B2 (en) * 2010-11-15 2014-05-20 Hewlett-Packard Development Company, L.P. Hand pose recognition
JP5617581B2 (ja) * 2010-12-08 2014-11-05 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US10061387B2 (en) 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
WO2012139241A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Hand gesture recognition system
US8929612B2 (en) * 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
JP5845002B2 (ja) 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP5747695B2 (ja) * 2011-07-07 2015-07-15 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP5649535B2 (ja) * 2011-08-05 2015-01-07 株式会社東芝 コマンド発行装置、コマンド発行方法およびプログラム
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
JP2013080413A (ja) * 2011-10-05 2013-05-02 Sony Corp 入力装置、入力認識方法
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
WO2013095678A1 (en) * 2011-12-23 2013-06-27 Intel Corporation Mechanism to provide feedback regarding computing system command gestures
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US9619036B2 (en) 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
CN103229127A (zh) 2012-05-21 2013-07-31 华为技术有限公司 一种非接触式手势控制方法及装置
US9646200B2 (en) 2012-06-08 2017-05-09 Qualcomm Incorporated Fast pose detector
KR101947034B1 (ko) 2012-08-21 2019-04-25 삼성전자 주식회사 휴대 기기의 입력 장치 및 방법
TW201423480A (zh) * 2012-12-10 2014-06-16 Pixart Imaging Inc 開關裝置
DE102013001774A1 (de) 2013-01-31 2014-07-31 Audi Ag Verfahren zum Betreiben einer Funktionseinheit sowie Funktionseinheit
DE102013001771B4 (de) 2013-01-31 2014-09-25 Audi Ag Verfahren zum Betreiben einer Funktionseinheit sowie Funktionseinheit
US9524028B2 (en) * 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US10533850B2 (en) 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
RU2013134325A (ru) * 2013-07-22 2015-01-27 ЭлЭсАй Корпорейшн Устройство и способ распознавания жестов на основе анализа множества возможных границ раздела
CN103399699A (zh) * 2013-07-31 2013-11-20 华南理工大学 一种以人手为中心的手势交互方法
US10152136B2 (en) 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9891712B2 (en) 2013-12-16 2018-02-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras with vectors
KR102265143B1 (ko) * 2014-05-16 2021-06-15 삼성전자주식회사 입력 처리 장치 및 방법
WO2015193918A2 (en) * 2014-06-19 2015-12-23 Dreamchip Electronics Private Limited A dimension multiplier (dm) keypad system for entering multi-dimensional data and method thereof
US20150378440A1 (en) * 2014-06-27 2015-12-31 Microsoft Technology Licensing, Llc Dynamically Directing Interpretation of Input Data Based on Contextual Information
CN104123008B (zh) * 2014-07-30 2017-11-03 哈尔滨工业大学深圳研究生院 一种基于静态手势的人机交互方法及系统
JP2016162162A (ja) * 2015-03-02 2016-09-05 株式会社リコー 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法
US20160266647A1 (en) * 2015-03-09 2016-09-15 Stmicroelectronics Sa System for switching between modes of input in response to detected motions
US10095473B2 (en) * 2015-11-03 2018-10-09 Honeywell International Inc. Intent managing system
US10606468B2 (en) 2015-11-20 2020-03-31 International Business Machines Corporation Dynamic image compensation for pre-touch localization on a reflective surface
US9733764B2 (en) * 2015-11-20 2017-08-15 International Business Machines Corporation Tracking of objects using pre-touch localization on a reflective surface
KR101745651B1 (ko) * 2016-03-29 2017-06-09 전자부품연구원 손 제스처 인식 시스템 및 방법
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN112748805B (zh) * 2021-01-12 2023-07-04 深圳佑驾创新科技有限公司 手势控制方法、装置、计算机设备和存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995004977A1 (de) * 1993-08-09 1995-02-16 Siemens Aktiengesellschaft Verfahren zur erkennung der räumlichen lage und drehlage von in geeigneter weise markierten objekten in digitalen bildfolgen
US5533110A (en) * 1994-11-29 1996-07-02 Mitel Corporation Human machine interface for telephone feature invocation
US5946485A (en) * 1996-02-09 1999-08-31 Intervoice Limited Partnership Enhanced graphical development environment for controlling program flow
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
EP1148411A3 (en) * 2000-04-21 2005-09-14 Sony Corporation Information processing apparatus and method for recognising user gesture
US7302280B2 (en) * 2000-07-17 2007-11-27 Microsoft Corporation Mobile phone operation based upon context sensing
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US7123783B2 (en) * 2002-01-18 2006-10-17 Arizona State University Face classification using curvature-based multi-scale morphology
US7200266B2 (en) * 2002-08-27 2007-04-03 Princeton University Method and apparatus for automated video activity analysis
US7321854B2 (en) * 2002-09-19 2008-01-22 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition
US6996460B1 (en) * 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7365737B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Non-uniform gesture precision
JP4241484B2 (ja) * 2004-04-14 2009-03-18 日本電気株式会社 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置
KR20060070280A (ko) * 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
EP1859339A2 (en) * 2005-03-10 2007-11-28 Koninklijke Philips Electronics N.V. System and method for detecting the location, size and shape of multiple objects that interact with a touch screen display
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
KR100738014B1 (ko) * 2006-01-04 2007-07-13 주식회사 팬택 동작 인식을 이용하여 이동통신 단말기에 단문 메시지 전송서비스를 제공하는 시스템 및 방법

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102023790B (zh) * 2009-09-22 2013-06-12 宏碁股份有限公司 动态操作互动对象的方法及系统
CN102270036A (zh) * 2010-06-04 2011-12-07 宏碁股份有限公司 影像式手部动作辨识系统及其方法
CN107846519B (zh) * 2012-06-29 2021-04-06 英特尔公司 用于基于手势的管理的系统和方法
CN107846519A (zh) * 2012-06-29 2018-03-27 英特尔公司 用于基于手势的管理的系统和方法
CN104583902B (zh) * 2012-08-03 2017-06-09 科智库公司 改进的手势的识别
CN104583902A (zh) * 2012-08-03 2015-04-29 科智库公司 改进的手势的识别
CN103869962A (zh) * 2012-12-18 2014-06-18 联想(北京)有限公司 一种数据处理方法、装置及电子设备
CN103885572B (zh) * 2012-12-19 2018-03-09 原相科技股份有限公司 开关装置
CN108132713A (zh) * 2012-12-19 2018-06-08 原相科技股份有限公司 开关装置
CN103885572A (zh) * 2012-12-19 2014-06-25 原相科技股份有限公司 开关装置
CN108132713B (zh) * 2012-12-19 2021-06-18 原相科技股份有限公司 开关装置
CN104750243B (zh) * 2013-12-27 2018-02-23 日立麦克赛尔株式会社 图像投影装置
CN104750243A (zh) * 2013-12-27 2015-07-01 日立麦克赛尔株式会社 图像投影装置
CN105117112A (zh) * 2015-09-25 2015-12-02 王占奎 空中交互式智能全息显示系统

Also Published As

Publication number Publication date
US9317124B2 (en) 2016-04-19
CN101517515B (zh) 2011-09-14
WO2008038096A1 (en) 2008-04-03
HK1134562A1 (en) 2010-04-30
US20080244465A1 (en) 2008-10-02

Similar Documents

Publication Publication Date Title
CN101517515B (zh) 改进型用户接口
CN106502570B (zh) 一种手势识别的方法、装置及车载系统
US10296789B2 (en) Note recognition for overlapping physical notes
US8768006B2 (en) Hand gesture recognition
US9047509B2 (en) Note recognition and association based on grouping indicators
US20120069168A1 (en) Gesture recognition system for tv control
KR20230107415A (ko) 이미지 내 객체를 식별하기 위한 방법 및 상기 방법을실행하기 위한 모바일 디바이스
US20150106754A1 (en) Adding, deleting digital notes from a group of digital notes
CN102520790A (zh) 一种基于图像传感模块的字符输入方法、装置及终端
CN103793056A (zh) 基于距离向量的空中手势漫游控制方法
Meng et al. An extended HOG model: SCHOG for human hand detection
WO2015057793A1 (en) Multi-color channel detection for note recognition and management
Hartanto et al. Real time hand gesture movements tracking and recognizing system
US20230394870A1 (en) Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and mobile device for executing the method
Chang et al. Automatic hand-pose trajectory tracking system using video sequences
Elsayed et al. Hybrid method based on multi-feature descriptor for static sign language recognition
Li Vision based gesture recognition system with high accuracy
CN113282164A (zh) 一种处理方法和装置
TW201401187A (zh) 指尖偵測虛擬觸控之方法及其系統
Passi et al. Real time Static Gesture Detection Using Deep Learning
CN103699890A (zh) 一种扫描输入装置及扫描输入方法
KR101130063B1 (ko) 차세대 통합 디스플레이 장치용 손동작 인식 기반의 콘텐츠 제어 방법
Brancati et al. Dynamic Colour Clustering for Skin Detection Under Different Lighting Conditions
Huang et al. Hand gesture detection and extraction
Anwar et al. A Vision-Based Segmentation Technique Using HSV and YCbCr Color Model

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1134562

Country of ref document: HK

ASS Succession or assignment of patent right

Owner name: NOKIA (CHINA) INVESTMENT CO., LTD.

Free format text: FORMER OWNER: NOKIA OY

Effective date: 20110726

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: ESPOO, FINLAND TO: 100176 NO. 5, EAST RING ROAD MIDDLE, ECONOMIC AND TECHNOLOGICAL DEVELOPMENT ZONE, BEIJING

TA01 Transfer of patent application right

Effective date of registration: 20110726

Address after: 100176 No. 5 East Ring Road, Beijing economic and Technological Development Zone

Applicant after: NOKIA (CHINA) INVESTMENT CO., LTD.

Address before: Espoo, Finland

Applicant before: Nokia Oyj

C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1134562

Country of ref document: HK

ASS Succession or assignment of patent right

Owner name: NOKIA OY

Free format text: FORMER OWNER: NOKIA (CHINA) INVESTMENT CO., LTD.

Effective date: 20140401

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20140401

Address after: Espoo, Finland

Patentee after: Nokia Oyj

Address before: 100176 No. 5 East Ring Road, Beijing economic and Technological Development Zone, Beijing

Patentee before: NOKIA (CHINA) INVESTMENT CO., LTD.

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160114

Address after: Espoo, Finland

Patentee after: Technology Co., Ltd. of Nokia

Address before: Espoo, Finland

Patentee before: Nokia Oyj