CN105378593A - 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 - Google Patents
利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 Download PDFInfo
- Publication number
- CN105378593A CN105378593A CN201380036563.XA CN201380036563A CN105378593A CN 105378593 A CN105378593 A CN 105378593A CN 201380036563 A CN201380036563 A CN 201380036563A CN 105378593 A CN105378593 A CN 105378593A
- Authority
- CN
- China
- Prior art keywords
- hand
- point
- interest
- gesture
- pointer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
本文公开一种通过由测距成像系统提供的深度图像使能基于三维手势的人机自然交互的方法。该方法通过检测、跟踪和分析用户的单手上的奇异兴趣点使能对同步手势的识别,并向用户提供上下文反馈信息。该手的奇异兴趣点包括手尖、指尖、掌心和手的质心,并且用于定义指针的至少一个表示。兴趣点被随时间跟踪并被分析,以使能对由单手执行的“定点”和“激活”手势的顺序和/或同时确定。
Description
技术领域
本发明涉及基于由用户的至少单手执行的手势的人机自然交互及其改进,并且更具体地说,涉及(非排他地)检测利用该单手同步执行的多个三维(3D)手势,诸如,定点(pointing)手势和激活手势。本发明包括:使用用于捕获包括用户的至少一只手在内的3D场景的深度传感成像装置,以及使能对可通过每个单手同时执行的多个3D手势的同步识别的计算装置。具体地,本发明包括:用于对手上的多个奇异兴趣点(POI)进行检测、空间跟踪和分析的装置,所述奇异兴趣点例如:手的末端,指尖,手尖,手的质心和掌心,这些奇异兴趣点被用作3D手势识别的输入。本发明进一步涉及一种图形用户界面系统,其使用由所识别的手和/或手指及其相关的兴趣点执行的三维手势,来使用户能够使用(特别是)同步定点和激活手势自然且直观地与计算机系统交互。
背景技术
常规人机接口通常包括硬件控制系统接口,如,键盘、鼠标、遥控器和定点设备。在具有这些接口的情况下,还需要利用硬件设备本身以这些设备接口使能的方式,进行物理动作(例如,触摸、移动、保持、定点、按下、点击),或者甚至顺序或同时一起进行多个这些动作,从而使控制命令可以被发送到该接口欲与之交互的计算机系统。
最近已经出现自然交互系统,例如,在US-A-2011/0115892中描述了传统的两维(2D)相机被用于捕获可见光谱中的光以及检测用户的手指。然而,由于该种技术的局限性,在被捕获的场景内的手指状的物体,例如,笔,可能被错误地识别或检测为手指,或者对手指的跟踪可能会由于场景的照明度而丢失。但是,先进的成像处理技术使得使用传统的照相机来检测手以及提供输入以允许分析手的末端成为可能。然而,使用这些技术仍然不能准确地(特别是以对不同距离的强健壮性,或以对于背景照明度的强健壮性)分析存在于3D场景中的任何其他末端。
在US-A-2012/0069168中,使用颜色信息,例如使用从场景中提取的手的掩模,来查找不同的与手有关的数据或手参数,如,掌心和掌基部,以及从掌心到手的轮廓或末端的距离。这些距离甚至可以用来评估手是闭合的还是伸开的,并且根据该评估可以确定手是否正在执行有关“选择”或“抓取”的手势。然而,这种基于手势的方法有其局限性,并且不能提供一种可靠的方法来解决与计算机的诸如3D定点之类的交互,也不能在无法区分颜色的黑暗环境下操作。此外,检测出的“抓取”手势不是非常精确,因为提供的距离仅仅是相对测量值,因此不能被用于准确“定点”和“抓取”在传感器或成像装置的不同距离处的虚拟对象。而且,这种方法不能提供以下信息,例如3D场景中两个独立兴趣点之间的准确目标距离,该准确目标距离可强制用于获取准确和可靠的“抓取”手势或还强制用于测量在场景中手的“捏”手势的水平或相对量。
但是,与第三维,即,深度,相关的信息,作为一项重要补充,现在可以通过使用来自距离传感相机的输入来确定。此外,距离传感相机可以操作于,例如,红外光谱而非可见光谱中。由于场景捕获独立于场景的自然照明度,并且无论对象以及兴趣点与图像传感装置的距离多远,对象的绝对尺寸和兴趣点之间的距离都能够确定,因此这样的距离传感相机提供的三维(3D)信息开启了获得更坚固、稳定、可靠和准确的用户手模型的可能性。
到现在为止,尚未实现在三维空间中对手的健壮检测及其跟踪以及对手指和某些其它相关兴趣点的跟踪。此外,也尚未实现对由单手或与其相关的奇异兴趣点顺序或同步执行的不同种类的手势的健壮识别。特别是,目前还没有基于自然3D手势的交互系统,该系统能够确定在三维场景中至少单手上的多个奇异兴趣点,并且跟踪这些兴趣点,使定点和激活手势能够被识别而不会产生假阳性检测(即使这些手势与它们所关联的由单手同时执行)。
在图形用户界面(GUI)技术领域中,使用基于指针的界面是常见的,对触摸或多点触摸界面的使用一直在增加。使用基于指针的界面的表示性输入设备包括鼠标和触摸屏。这种基于至少一个指针的输入设备的优点在于,它们的操作是准确的,命令可以清楚地被区分,并传递到相关联的计算机系统的图形用户界面,例如,硬件鼠标装置,其使用点击按钮同时使能定向并激活一特征,向用户提供了关于他/她的交互的状态的清晰反馈。然而,使用硬件的缺点可能在于,反馈的一部分可能需要部分地通过与硬件设备本身接触来作出。
在用于实现人机交互的图像处理的领域,围绕手指和手的检测、跟踪和识别,以及(以非常有限的比例)围绕手指和手在空间中的运动的识别,最近已开发出几种技术。此外,基于视觉的实时计算机人手指识别大多集中于用于身份验证应用的指纹识别和掌纹识别。此外,为了能够识别在复杂背景中的人手指,跟踪手指运动和用预定义的手势解释手指运动以往受到成像系统的能力和支持成像系统的图像信号处理系统的能力的限制。一个后果是,在对基于手/手指3D手势的自然互动提供清晰无误的反馈方面,目前并没有真正付出任何努力。
同时,已知的是,通过识别和跟踪用户身体一部分(例如,手或手上的手指)的3D维运动来控制指针的自然交互技术表现出相对低的识别率,因为仍然需要明确区分对应于控制的运动和与交互本身无关的运动。解决这个问题的一种常见技术,需要非直观的、很难用的特殊动作,比如,清楚顺序执行的“开始”和/或“停止”手势,这并不符合高效的单手同步“定点”和“激活”手势识别。此外,基于手或手指手势的自然交互技术也存在问题,因为仍难以使由用户在3D空间中的运动导致的指针位移对应于从用户的角度来看的鼠标位移。对于并未遵循基于自然的交互而开发使用的GUI或交互系统来说,特别是对于不能够向执行自然手势的用户提供指示该手势是否被识别出来的反馈的交互系统来说,尤其如此。这与其中激活按钮提供物理点击作为激活反馈的硬件鼠标是完全不同的。
发明内容
在一个方面,本发明涉及在3D点云中检测用户的至少单手的参数和奇异兴趣点的具体实现,所述奇异兴趣点包括但不限于手尖和指尖,所述3D点云是从利用3D测距成像系统捕获的场景中获得的,并且其中,这些3D点的集群表示被考虑的手。不管手的姿态和取向如何,都可能被检测到。
更具体地,本发明涉及检测在单手上的用于使能“定点”手势的至少第一兴趣点,优选地为尖端或末端,并且在优选实施例中,检测至少两个奇异兴趣点,其用于使得可靠的“捏(pinch)”、“抓取(grab)”、“点击”或“拍(snap)”手势能够在相关的顺序或同步交互中被识别出来。
更优选地,本发明涉及检测一个单手上的两个POI,根据该检测,例如,可以从所检测到的末端(如食指尖)中确定至少一个第一POI,而另一POI被确定为手的第二末端,如拇指尖。通常,任何手指可以被指定为该交互所需的两个POI中的一个。
在另一个实施例中,在3D点云内,第一POI可以被确定为例如指尖,如食指尖,而至少第二POI可以被确定为掌心或手的质心。在本实施例中,第二POI可以被用于定点手势,而第一POI可以被用于由食指尖的上下运动触发的激活手势,即“拍”手势,其可以与定点手势同时执行且其中任一种手势都不会被错误检测。
在一个具体的形式中,该方法包括当一些手指粘在一起时允许健壮和有效地确定手尖的手段,例如,第一尖端可以被确定为所检测到的拇指尖,其他尖端可以被确定为对应于手的末端,该末端具有其它各个手指粘在一起,该末端的位置对应于所有的其它指尖的近似平均位置。在其中两个尖端被检测到并且对应的兴趣点被使用的形式中,该方法可以进一步包括确定第三兴趣点,第三兴趣点的位置根据两个尖端来确定,以便生成“中间”兴趣点,该“中间”兴趣点在稍后的过程中用作指针。在一个具体的实施例中,该第三点被确定,以避免其在诸如“捏”手势的过程期间移位,因为两个兴趣点(如尖端)的运动是不对称的,因此对于准确的自然交互可能是有问题的。
应当理解的是,本发明的方法和系统不限于检测手的两个指尖,也可以用于同一只手和/或多只手的更多个指尖或POI。特别是,该方法和系统包括从多个手尖中区分至少两个不同和相对的兴趣点的手段,以便自动确定和选择更适合基于“捏”或“抓取”的交互的兴趣点。
在第二方面,本发明涉及分析一组确定的兴趣点在空间和时间中的布置的具体实现,该组确定的兴趣点至少包括手尖,并且优选地,为与这些手尖相关的一组兴趣点以及它们彼此之间的关系。该分析的目的是在第一子步骤中检测和识别兴趣点中的至少一个随时间的运动,以便使用本领域已知的方法确定动态手势,如“定点”手势或“扫(swipe)”手势。该分析的目的是在第二子步骤中检测和识别兴趣点在一时间在空间中的布置,即,兴趣点在空间中各自的位置,以便识别具体布置和确定在给定时间点的手姿态。在给定时间点的手姿态分析可以使用本领域已知的任何其他方法,例如模式匹配识别方法。优选地,所述手姿态识别可以使用将兴趣点链接在一起的几何参数分析。该分析的目的是在第三子步骤中检测和识别兴趣点在空间中的布置随时间的改变,即,它们各自的位置改变(如果适用的话),以便确定具有手的非静态姿态的动态手势,并将其与具有静态姿态的动态手势区分开来。具体地说,该方法包括识别具有手的非静态姿态的动态手势,该动态手势可以至少为“捏”或“抓取”手势的形式。
在第三方面,本发明涉及一种从兴趣点中确定用作用于与具有反馈装置(例如GUI)的特定系统交互的指针的兴趣点的方法的具体实现,反馈装置的设计兼容至少一个指针的表示,并且优选地,兼容两个指针的表示。该系统的GUI还能够表示具有独立交互能力的不同虚拟对象,其可以与用户的手的兴趣点的表示,即指针,结合使用。更优选地,在GUI的表面的空间中表示的虚拟对象或一些部分可能能够根据由与兴趣点相关的指针或兴趣点本身执行的手势或位置来提供视觉反馈给用户。甚至更优选地,当与用户的手的兴趣点相关的指针或兴趣点本身指向特定位置和/或正在执行手势时,在GUI的表面的空间中表示的虚拟对象或一些部分可能能够以失真、移动、闪烁、高亮或其他方式向用户提供视觉反馈。另外,指针也可以根据其位置、根据所检测到的手势或根据该指针所交互的虚拟对象,来传送视觉反馈。在本发明的一个优选实施例中,交互可以进一步包括自动确定手上的兴趣点的数量,自动确定待显示的指针的数量,并且还自动确定与在GUI上显示的目标上下文相关的指针的表示以及其在GUI的区域内与所述目标的交互。
本发明的其他特征由所附权利要求限定。
附图说明
为了更好地理解本发明,现在将通过示例的方式参考附图进行描述,在附图中:
图1示出根据本发明的方法的三个主要处理步骤的流程图;
图2示出根据本发明的方法的第一主要步骤的四个子步骤的流程图;
图3a至3f示出了当确定一些手参数时需要考虑的用户的手的不同的可用姿势或姿态;
图4a和4b示出了使用两个手指抓取对象的原理,其中两个手指的指尖由根据本发明的方法来确定;
图5a至5d示出了根据本发明的方法确定在手姿态中手尖、掌心和拳尖的定位;
图6示出了呈现“抓取”姿势的手的侧视图,其叠加有手尖、拇指尖、掌心定位和一附加兴趣点的定位;
图7示出了呈现“抓取”姿势的手的正视图,其叠加有手尖、拇指尖的定位以及可被设置为指针的一附加兴趣点的定位;
图8示出了手的距离地图;
图9a和9b分别示出了呈现“捏开”姿态的手的深度地图和相应的响应地图;
图10a和10b分别示出了呈现“捏合”姿态的手的深度地图和相应的响应地图;
图11a和11b中分别示出了深度地图和相应的响应地图,其中拇指产生清晰的响应信号,其它响应对应于手尖;
图12a和12b分别示出了多个末端的深度地图和相应的响应图;
图13示出了包括虚拟对象和与在手尖中确定的兴趣点相关的两个指针的表示的一些交互;以及
图14示出了在使能同时定点和激活手势的姿势中手的侧视图。
具体实施方式
将针对具体实施例并参照某些附图来描述本发明,但本发明不限于此。所描述的附图仅是示意性的和非限制性的。为了图示说明的目的,在附图中,一些元件的尺寸可能被夸大并且未按比例绘制。
此外,如下所述的附图的特定取向不是限制性的,而是通过举例的方式示出。
本文所用的术语“自然交互”或“基于三维(3D)手势的自然交互”是指其中人不必手持、携带或使用任何硬件设备或标记设备的人机交互,且其中交互式计算机系统与成像装置相关,所述成像装置例如为诸如三维(3D)飞行时间(TOF)相机之类的测距成像系统,其用于使用一些计算装置捕获和提取用户所提供的信息(优选地,为可以由计算装置识别的手势的形式),从而控制计算机。
本文所用的术语“姿态”或“姿势”是指在特定时刻的物理手势。这对应于手的一组特定点在空间中的位置的特定布置,尤其是,一组奇异兴趣点在空间中的布置。
本文所用的术语“奇异兴趣点”或“兴趣点”是指用户的手上的奇异点,奇异点即为:手的末端;指尖;手尖;手的质心;掌心;或其位置可以利用从手获得的随时间可被跟踪的其它可靠点中的至少一个的位置来确定的任何其它点。
下文中,术语“兴趣点”或“多个兴趣点”被统称为“POI”,从使用术语“POI”的上下文中可以明确地确定是否正在描述一个或多个兴趣点。
本文所用的术语“手势”指的是一个兴趣点或一组兴趣点在空间中的布置随时间的变化。另外或替代地,术语“手势”也可以指POI的不变布置在空间中的位置随时间的变化。如果姿态不随时间改变,也就是,POI在空间内的布置保持不变,它被描述为静态手势。如果POI的布置保持不变,该布置在空间中的位置随时间变化,它可以被描述为具有静态姿态的动态手势。如果POI的布置随时间变化,则这被描述为具有不同姿态的动态手势。
本文所用的术语“手尖”是指与手的主要末端对应的单一POI。它可以更具体地位于手指末端附近的平均位置。
本文所用的术语“指尖”是指在空间中表示每个单独的指尖或手指末端的几个位置。每个单独的指尖通常被认为是一个POI。
本文所用的术语“手尖”是指手尖,也指指尖。
本文所用的术语“指针”或“多个指针”是指在一个兴趣点或一组选定的POI在虚拟世界中的表示。
本文所用的术语“抓取器(grabber)”是指与手上的POI相关的预定数量的指针。它们基本上包括至少两个指针,用于当用户用他的至少一只手执行“捏手势”时识别手的有意义的末端。当使用拇指和食指时,食指和拇指的指尖分别包括上、下“抓取器”。如果使用多于两个手指时,下“抓取器”可以被定位(fixed)在拇指上,上“抓取器”可以是其他手指的平均位置。此外,使用的术语“下抓取器”和“上抓取器”是指已关联的POI相对于场景的取向。根据POI在场景内的取向,下抓取器”和“上抓取器”可能实际上被认为是左、右“抓取器”。
本文所用的术语“定点”是指“定点手势”。它对应于,例如,使用至少一个手尖或相关的POI作为与真实世界用户相关的参考三维位置,即,在空间中与一末端相对应的位置,该位置可以用于确定在虚拟空间中指针的虚拟表示所在的位置。可根据多种方法来实现对指针的虚拟表示的位置的确定,包括,例如,使用用户POI在真实世界3D空间中的绝对定位,使用用户POI在真实3D空间中相对于一个确定的参考三维位置的相对定位,或使用由两个POI之间的矢量组的主方向(例如,由从掌心到食指尖的矢量限定的方向)确定的相对定位。应该理解的是,“定点”可另外利用几个指针,包括,例如,使用至少两个POI的位置的统计模式。该统计模式可以是例如以下中的至少一个:均值;中值;最大值;最小值或它们的位置的加权和。
本文所用的术语“激活手势”是指由系统识别的、被用作类似于鼠标点击的事件触发器的手势。激活手势可能包括:“捏”手势,手指“拍”手势,和/或“抓取”的手势。
就人体工程学方面的考虑,术语“捏”是指手的聚拢,使得在至少两个POI或其对应的从表示手的部分的指针中选取的指针变得彼此更近。“捏”可以是被识别为用于激活的手势。两个POI之间的距离或相对距离可另外被用于确定与“捏”手势的水平或量相关联的值。
就人体工程学方面的考虑,术语“抓取”是指手的聚拢以使至少两个POI或其对应的从表示手的部分的指针中选取的指针变得彼此更近,直到它们在虚拟世界中的表示之间的距离对应于待“被抓取”的对象或虚拟对象的表示的尺寸。此时,对象可以被认为是“被抓取”,并可以根据用户执行的手势采用以下形式被操纵,例如,挤压,移动,取向,转换,拖曳和放下(drop)等。“抓取”可以是一个被识别的手势。
就人体工程学方面的考虑,术语“拍手势”是指对应于指尖(优选地,食指尖或手尖或其相关联的指针)的POI的上下运动。“拍手势”通常为用作触发事件的激活手势的手势,例如,在人机交互系统中的点击。
本文所用的术语“手参数”是指至少下列与手有关的参数:手尖、掌的中心(称为“掌心”);掌的半径(称为“掌半径”);手掌的法线(称为“掌法线”)时,掌的开放性(称为“掌开放性”),掌的基部,以及掌心与手轮廓的距离。
本文所用的术语“虚拟表示”与“表示”对应于交互对象在虚拟世界中的数字图示。此交互对象可以是来自虚拟世界本身的对象,例如,来自与用户可以与之交互的操作系统的GUI的文件夹。此交互对象也可以是来自真实世界的真实交互对象在虚拟世界中的数字图示,例如,用户的手,其位置随时间被跟踪,从而实现在虚拟世界中与操作系统的GUI的定点或鼠标定点交互。
本发明总体涉及一种用于提供无接触自然交互系统的设备和方法,并且,更具体地,涉及一种用于提供自然交互系统的装置和方法,该自然交互系统使用从手指和/或手本身的3D位置和3D手势和/或手的参数确定的控件以无接触的方式控制至少一个鼠标指针。特别是,利用根据定点和激活手势(其不仅可顺序执行,也可以同步执行)提供合适上下文反馈的系统,可以检测健壮和可靠的定点和激活手势,例如“定点”,“捏”,“抓取”或“拍”手势及其衍生物,以改进3D自然交互的人体工程学。
本发明的方法并不限于经典鼠标类交互,因为它基于3D手势识别,3D手势识别可以提供多点触摸屏交互,或者在有效检测定点和激活操作时,提供比传统鼠标更自然的交互。
根据本发明,提供一种使能人与计算机化系统关于(从由测距相机装置提供的数据提取的)手势信息(即,深度地图或3D点云(也称为一组顶点或顶点))进行主观自然交互的方法和系统。交互利用预定的手参数,即手掌中心和手尖,以确定至少一个指针,并且,优选地至少两个指针,以便与相应设计的GUI进行上下文交互。
该方法包括以下三个主要步骤:
第一步骤包括:检测至少一个手参数及其奇异POI,该POI至少包含掌心和手尖。该第一步骤的目的是要确定多个相关的POI,即,奇异POI或POI,其可以被用于单独地或组合地确定可用于进一步交互的指针。
第二步骤包括:随时间跟踪和分析选择的至少一个POI或其相关指针,以检测手势交互。根据所选择的POI的数量,至少一个定点手势可以被确定。如果根据本发明的一个优选实施例,使用至少两个POI,可以与定点手势独立地或同步地确定“捏”,“抓取”和“手指拍”手势和其潜在的相关交互,如“点击”或“双击”。
在此步骤中,有多种手势被识别,例如:
(i)“定点”手势,其使用手上的单一POI,其中这种单一POI可以是指尖,手尖,手掌中心等。
(ii)“定点”手势,其使用手上的至少两个POI,其中,在一个实施例中,两个POI位置之间的内插有效地提供了另一POI作为指针。用于内插的两个POI可以是:两个指尖;一个指尖与手尖,优选地,例如为拇指,因为从人体工程学角度上,拇指与指尖相对;一个指尖与手掌中心。在另一实施例中,使用两个POI(例如指尖与掌心)之间的方向矢量来确定“定点”手势。将理解,任何两个合适的POI可以用作内插的基础或用于确定方向矢量。
(ⅲ)“激活”或“活化”手势,其使用:至少一个单一POI,例如,使用掌心的“推”手势;至少两个POI以执行“捏”和/或“抓取”;或者移动POI和固定POI以执行“拍”手势。
(iv)同步“定点”和“激活”,其使用至少两个POI,使用例如掌心进行定点,使用一个指尖在“拍”手势中进行激活,或使用两个指尖执行“捏”和/或“抓取”手势。
(v)同步定点和激活,其使用至少三个POI,使用:例如,掌心和两个指尖,掌心和一个指尖和一个手尖,两个指尖和内插POI,或者两个指尖和掌心与内插POI。在一个优选的实施例中,“定点”指针的位置是从两个POI内插的,并且当两个POI被同时用于执行除“定点”手势以外的手势时,该定点指针相对于这两个POI的旋转和单独运动具有不变性。
第三步骤包括使用指针和手势,所述手势是结合具有GUI的系统检测到的,GUI包括虚拟对象,并且提供上下文反馈,以使能符合人体工程学的、直观和自然的交互(例如,当与用户的手的POI的表示交互时,使目标高亮显示和挤压目标的外形)。
根据本发明的一个实施例,图1示出了一个流程图,其示出该方法的三个主要处理步骤,即,检测手参数(步骤100),确定POI,并跟踪和分析POI的运动和手势(步骤101),以及根据上下文确定兴趣点的表示与基于自然无接触手势的兼容性GUI之间的交互(步骤102)。从步骤102中的根据上下文确定提供反馈控制回路,以在步骤100中检测手的参数,如箭头103所指示的。另外,从步骤102中的根据上下文确定到步骤102的确定POI并跟踪和分析其运动和姿势的另一反馈控制回路如箭头104所指示。
本发明的第一步骤(步骤100)的目的是检测手参数,尤其包括手尖,即手尖和指尖,以便能够提供至少一个稳定的POI。优选地,该方法可以进一步包括检测上POI和下POI,从中可以确定稳定的POI。
此外,如果尚未可用,该方法还可以包括确定以下参数中的至少一个:掌半径;手开放性;以及手掌法线。
使用来自所确定的兴趣点中的至少一个兴趣点,该方法进一步包括:确定用于与系统进行交互的至少一个指针,这将在下文中结合步骤102更详细地进行说明。优选地,所述方法包括:确定至少两个指针,所述至少两个指针与对应于用于执行交互的手尖的上POI和下POI相关。
本发明的第一步骤中使用的输入信息至少包括:深度地图或相应的3D点云(即,一组顶点),该3D点云包括用户的至少一只手和标签图像。[3D点云被分割为多个集群,其中每个集群被标记]。所识别的待使用的手的标签和预定义值用来确定待确定的控制点的数量(该预定义的控制点的数量可选地由用户界面通过箭头103所指示的反馈控制回路(如果使能)提供)。另外,也可以使用预定义值来确定待确定的指针数量(该预定义的指针的数量此可以由用户界面通过由箭头103所指示的反馈控制回路(如果使能)提供)。
本发明的第一步骤,步骤100,包括如图2所示的四个处理子步骤,即,检测和确定手掌中心和手尖(步骤200),确定兴趣点(步骤201),利用该POI确定指针(步骤202),以及确定和/或精炼其它的附加手参数,如开放性和手掌法线(步骤203)。
步骤200包括:首先,检测和确定手掌中心,这需要事先计算一“距离变换”,其输出为所识别的待使用的手的距离地图。该手的距离地图是一个图像,其中手的各像素具有等于与手的最近边界的度量距离的值,如在图8中示出的。具体地说,在图8中,所标记的待使用的手与该用户的其它无用标记部分分离,并与背景分离。在该图中,在手的表示中每个像素的内容越暗,则该像素距所标记的手的边界越远。可以利用两次通过手的二进制标签图像来计算出这样的距离地图图像。
几种方法可用于执行距离变换。然而,在本发明的重要的一点是,针对每个像素获得的距离值可以与真实世界中的一度量距离相关,这是因为标签图像的每个像素对应于该3D点云的一个位置,并且该距离地图中的每个距离对应于在真实世界中的距离度量。例如,可以使用两次通过方法来执行该距离变换,其中第一次通过是从二进制标签图像的左上角到右下角,并且第二次通过是相反的方向。对于每次通过,针对每个像素,距离被累加,其对应于由该次通过已处理的所有直接邻居像素的最小值的总和。例如,在第一次通过中,一个像素的直接邻居可以是左侧的像素、对角左侧的像素、上侧的像素和对角右侧的像素。针对当前像素确定的距离可以被确定为这四个邻居像素的最小值加一。此外,考虑到像素的基本几何特性,水平/垂直邻居像素的值可通过预定的因子被加权,例如,通过值5,而对角邻居像素的值可以通过另一预定加权因子被加权,例如,通过值7。7/5的比率的值对应于典型方形像素(7/5=1.4=√2)的对角和侧面之间的保持比率。
为了找到或逼近掌心位置,该方法包括:至少确定其中距离信息强度是手的所有其他像素的最大值的像素位置,并且,在优选的实施例中,可以考虑最小化与先前确定的掌心的距离,以用于实现先前确定的掌心位置的位置平滑变化。
其次,步骤200包括:使用在手的3D点云上进行的主成分分析(PCA)来确定手尖。使用矢量(其中矢量的原点被设定为掌心,矢量的方向被设定为处于由PCA给定的主方向)来计算直方图,从而计数手的正交于该矢量且可以投影到该矢量的各个部分的像素的数目。所述矢量的部分可以例如通过1mm步长的距离度量表示。使用这样确定的直方图,则手尖可被确定为与矢量中手像素的最小值已被投影的部分相对应的区域。在一个优选的最健壮的实施例中,在两个预定的阈值之间的范围可以被限定,例如,95至99%的范围,对应于直方图中具有较少的投影像素的部分,从而对应于手的沿着手在空间中的主方向(被认为是手尖)的最厚部分。
第三,步骤200包括手尖的三维确定,即对应于接近指尖的手末端的区域。为此,“响应图像”被确定,如图9b所示。在响应图像中,像素的值表示被考虑的像素与其八个邻居之间的深度差。高值表示是末端的概率很高。每个像素的值从沿着共同的八个方向(即,上,上左,右,下右,下,下左,左,上左)的八个邻居计算。在每个方向上,与当前点具有2cm的距离的像素被考虑。为了找出在每个方向上,哪个像素对应于距离为2cm的投影,成像设备或相机的说明书连同当前点的深度值被使用。当然,这种操作只对有效像素进行。对于这八个像素,其与当前像素的深度差被确定,并且当前像素的值被视为第三最小值。选择第三最小值是因为,任何非末端由于未连接到一侧上(例如,手掌的一侧)而具有大的值,并且期望手的那些部分不提供作为手指的响应。然而,即使是手指,也可以具有在它们连接到手的一定方向。由于这个原因,具有两个最小响应值的两个方向被忽略。
不幸的是,某些情况下,将不提供对手的每个物理末端的适当的响应,例如,紧攥的拳头将提供对应于手尖的一个单一响应,如图5d所示;并且“停止”(伸开手掌,如图3f和图5a所示)将只提供针对拇指的响应,而不提供针对其它单个手指的响应,而是针对粘在一起的所有其他手指提供一个单一其他响应,例如,如在图11a和11b中的响应图像上的1cm半径的所示的。在图10a和10b中,1002表示手尖的圆,在响应图像(图10b)中,其中,从1001(图10a)的深度图像处可以清楚地看出,没有明确定义的末端。这说明了本发明方法的健壮性在于无论手姿态是什么,给定用于“定点”的至少一个POI,它总是可以提供有效的解决方案。
下面在图11a和11b所示的例子中,仅有针对拇指的一个单一响应和针对粘在一起的所有其他手指的一个单一反应,这提供两个可靠的POI,其可以被选择为“抓取器”用于进一步的交互。
此外,平滑滤波器可应用于响应图像以清理每个单独的响应,例如,可以使用已知的典型高斯滤波器。
此外,根据平滑响应图像和y图像,可以确定连接的部件的图像。这对应于当且仅当两个相邻的像素都在其响应图像都具有正响应值,即它们是末端,并且深度足够接近(<1厘米)时,标签图像给予这两个相邻的像素以相同的标签。换句话说,如果两个相邻的像素的深度值的差大于预定阈值,例如1厘米,或如果它们中的一个在末端响应图像中不具有正响应值,这两个相邻的像素将不会有相同的标签,。此图像然后可用于两个目的:第一个是允许将末端响应组合到一起以形成指尖候选,并从图像中去除不想要的小的响应。如果部件比预定阈值小,例如1厘米,它可能会被丢弃。
在一个实施例中,确定POI的步骤包括:通过从先前确定的手参数(至少包括:掌心,手尖,手尖,或这些参数的组合)中选择至少一个点,来确定至少一个单一POI。这需要例如定义这些参数中的单个作为POI。这可能需要例如定义这些参数中的两个作为POI。这也可能需要定义手参数的一个集合或子集的平均位置作为POI。
在另一个实施例中,确定POI的步骤包括:通过选择手参数中的至少两个或一个手参数与其他几个手参数的组合来确定至少两个POI。优选地,考虑到使用两个兴趣点的交互,例如,用于“抓取”时,第三POI可以被用于“定点”,并可以根据这两个POI来确定。
具体地,根据对应于手尖的标记反应来确定POI,可通过如下方式来实现:基于到其它部件的距离(部件离得越远,其权重越大),在响应图像中计算针对每个标记响应(即部件)的权重。响应图像需要包括至少一个标记部件。在其中预期具有两个指针的情况下,响应需要被分成至少两组。每个组将被用于计算指针或“抓取器”中的一个的位置。为此,有必要找到末端响应图像中具有正响应的手的点中的中心点。如果将使用在末端响应图像中的响应的对手的所有点的简单加权和作为权重,获得的掌心将偏向手的上部,因为该区域有更多的手指可见,因此总体上具有更强的响应。为了避免这种情况,不仅响应的权重被使用,而且还使用与响应所属的部件相关的因子。
如果一个部件远离所有其他部件,它将有较大的权重,并且如果它靠近其他部件,它会具有较小的权重。这确保了分离的手指(在大多数情况下,为拇指)获得比其余手指(如果它们是可见的)更高的权重。如果只有一个其它手指是可见的,则定义这两个手指将具有相同的权重。距离由手跨度标准化,手跨度被计算为手半径乘以例如因子5。
末端的中心被计算为使用其加权响应和与其部件相关联的权重的加权和。
一旦中心被确定,它被用来分离在3D笛卡尔空间中的响应。为此,穿过所确定的中心点的平面被使用。由于目标是,优选地,拇指在该平面的一侧上和其余手指在另一侧上,从一个兴趣点(或“抓取器”)到另一兴趣点的方向被视为垂直于该平面,再加上中心点,提供平面的完整定义。
然而,为了更好地随时间跟踪和提供可靠兴趣点(当将这些点视为“抓取器”时),即保证可靠地确定它们各自随时间的位置,可以优选地使用其前一帧t-1(其中当前帧为t)的位置。对于第一帧,向上轴被用作参考。这种选择没有影响,因为即使初始轴是错误的,该算法也会收敛到正确取向。选择向上轴是因为它是通常姿态中“抓取器”最可能的大体方向。
考虑到在上一步骤中的平面,手的点根据其所在的平面的侧被排序,并且,针对每个组使用该重心,则可以获取针对两个“抓取器”的最佳候选,例如,那些更加接近各重心的点。
然后,指针可被确定为以下之一:手尖;掌心;以及POI。在一个优选的实施例中,在确定了“抓取器”之后,可以计算在“抓取器”之间的附加稳定定点坐标。它可以是“抓取器”的中心,由掌中的移动进行调整。然而,该点的值仅当掌心已经移动超过例如3毫米时被更新。这保证了,即使用户“捏”,如果他/她不移动他/她的手,则指针不动。为了避免抖动,这个过程不是二进制的,相反,对于0和3mm的范围内的手运动,通过新的“抓取器”的中心和前一帧的稳定化点之间的简单线性回归来变平滑。
此外,手掌法线可用于确定手掌本身的方向。使用从掌心到指针位置的矢量与先前确定的手掌法线之间的角度来调节手掌法线。该角度是根据一些自定义参数化被加权,以在这两个信息集合之间进行平滑混合。手掌法线使用PCA来计算,最少重要方向是手掌法线。法线还混有诸如相机方向之类的信息。
此外,可以从距离地图中获取手掌半径,即,距离地图的值除以预定因子,例如5,以提供到手的最近边界的距离的估计,并且,使用相机的说明书和掌心的当前位置的深度值,可以以毫米精度估计手掌半径。
另外,还可以获取作为一个布尔值的手开放性,其表达手是伸开还是闭合的。如果未检测到指尖,则手被认为是闭合的。可以使用在“抓取器”距离和手掌半径之间的比率来更新手开放性。如果该比例小于预定阈值,并且之前认为手是伸开的,则手的开放性将被调整,并标记为闭合。如果该比率变得大于另一预定阈值,手会被认为是伸开的。
总之,本发明的第一步骤的输出包括:优选地,确定至少一个POI,该POI的3D位置将被用于执行基于的3D手势的交互,优选地,确定至少两个POI,其位置被用于基于3D手势识别的、兼容单手同时执行定点和激活3D手势的交互。
本发明的第二步骤(图1中的步骤101)包括随时间跟踪和分析选择的POI或与其相关的指针,以检测的手势和交互。根据在至少一个单手上选择的POI的数量,可单独或同时地独立确定不同的手势。
对于手势确定,首先将各个POI在空间中随时间的位置来用于跟踪和定点目的。特别是当使用由至少一个指针表示或优选地由两个指针表示的至少两个POI时,帧间跟踪确保一致的“定点。在一个实施例中,可以使用单一POI。这POI可以被指定为用于使能定点特征的指针,并且可以被确定为上述前一步骤中检测到的手尖之一。例如,如果没有手尖可用,该指针可以是掌心;如果没有可靠的指尖可用,该指针可以是手尖;如果食指尖可用,则该指针可以是食指尖,因为它自然地用于定点,或者如果需要,该指针可以是任何其他指尖,或使用选自掌心、指尖和手尖的预定手参数的至少两个来计算机化其在3D空间中的位置的另一点。根据本发明的一个优选实施例,GUI上的每个指针表示或至少一个兴趣点的位置的改变的分析还可以使用常规的手势识别方法来分析,所述常规的手势识别方法用于确定如下形式的动态手势,例如,“波”,“推”,“扫”,“圆”,“手指拍”或另一动态手势。确定这种动态手势用于触发将用作交互GUI的输入的事件。这可以与至少一个指针和由该指针指向的对象的位置相结合,但是这种结合不是必需的。
第二,在手势确定中,确定的POI在给定的时间在空间中相对于彼此的位置用于确定手的姿势。其中手的位置不随时间改变的不变手姿势被确定为静态手势。静态手势是手参数的一个子集在空间中的布置。例如,拇指未连接的伸开的手可以对应于“停止”姿势或对应于其布置由拇指尖、掌心和手尖之间形成的直角定义的手势。可以使用在本领域中已知的多种方法来实现手势的检测,例如,使用形状匹配技术。然而,根据本发明的优选实施例中,确定手姿态包括检测POI的一个子集在空间中的布置的几何形状。每个确定的POI(包括手尖和手掌中心中的至少一者)分别连接到彼此。POI之间的链路的距离和方向以及它们的交点的特性(角度)被计算,以确定一组数据参数。根据POI的数量和它们所定义的数据参数,通过与包含待检测的主姿势的数据库进行比较来确定位置。对于每一帧,如果检测到了预期的手姿势之一,则可以触发事件以驱动交互系统。
第三,在手势确定中,确定的POI在空间中的位置随时间相对于彼此的改变,也就是,在手的姿势随时间的改变,用于确定采用如下形式的手动态手势,例如,“捏”,“抓取”,“点击”,“拍”或其它手势。
例如,在一个本发明的实施例中,该方法包括分析定义POI的至少两个手尖以及用于使能“捏”动态手势检测的相关指针。如上所述,“捏”可以对应于两个相对的尖端,这两个相对的尖端可选地显示为能够朝着彼此移动的指针,两个手尖或相关POI或指针之间的距离允许确定“捏”的程度。
在本发明的另一个实施例中,如果“捏”为其中至少两个“抓取器”触摸彼此达一定时间段,然后返回到非接触状态/姿势,则可以确定为“点击”动态手势。
当与在用户界面中表示的虚拟对象进行交互时,可上下文检测“抓取”手势。“抓取”包括检测至少两个POI,这两个POI在GUI中可以以两个指针的形式表示。当两个指针触摸虚拟对象的两个相对侧时,可以检测到“抓取”。
如果用户界面使能“推”手势的话,当至少一个指针的表示触摸虚拟对象表示时,可以检测到“推”手势,并且指针的继续运动在GUI内推动虚拟对象表示。
如果用户界面使能“手指拍”或更简单的“拍”手势的话,当在一只手上选择至少两个POI时,可以检测到“手指拍”或更简单的“拍”手势。第一POI优选对应于掌心或手的质心的近似,提供了可用于定点手势的3D位置,而第二个POI优选对应于一指尖,如食指尖,提供了用于“激活手势”识别的3D位置。该POI在确定速度下以确定幅度和持续时间的上下自然运动定义了可以用作可靠事件触发交互的“手指拍”(或“拍”)手势。该特定实施例的可靠性依赖于一个事实,即指尖和手掌中心尽管在同一只手上,但是两者的位置彼此无关。
本发明的第三个步骤包括一种使能与GUI的人机无接触交互的方法和系统。该方法涉及用于控制界面的手段,该系统涉及用于显示界面和视觉反馈的手段。该方法和系统获益于包括距离测量值和相关信息在内的输入信息,例如从POI提取的定点和激活手势,其中相比于传统的2D无接触交互系统,该POI独立于手到测距成像系统或相机的距离。在本发明中,交互依赖于使用上述步骤确定的手的POI和手势随时间的时空特性分析,特别是,对POI的虚拟表示的分析,即与虚拟对象上下文相关的指针,例如,“定点”交互,“抓取”交互,操纵交互(例如,“捏”,旋转,“拖放”,“推”),然后点击交互(例如,“手指拍”或“拍”)。
下面的描述涉及的实施例例示本发明的不同方面,这些实施例应被视为非限制性的使用在上述步骤中提取的手参数来与屏幕上显示的虚拟对象进行交互。
在描述“定点”交互的第一实施例中,该方法可以包括使用奇异POI,即上面确定的掌心作为参考POI,来确定指针表示在虚拟世界中的位置。手掌的位置随时间的改变触发其表示在改变其虚拟空间中的位置随时间的改变。在真实世界中的位置到虚拟世界中的位置的变换可以是使用1:1绝对比率的线性计算,或者使用1:x的相对比率的线性计算(其中x因子可以由用户预定),或者使用例如由用户预定义的多项式变换比率的非线性计算,或者可具有依赖于手到成像装置之间的距离的比率。
在另一个实施例中,一个类似的方法可以包括使用手尖参考位置来确定指针表示在虚拟世界空间中随时间的位置。在这种特殊情况下,无论手指的配置如何,即,无论手指都结合在一起、部分地结合在一起还是彼此全部分离,手尖都被确定。手指的配置的示例示于图3A至3F。
在另一实施例中,一个类似的方法可以包括使用拳头参考位置(图3c)来确定指针表示在虚拟世界空间中随时间的位置。这种特殊情况可以对应于无法检测到单个指尖的手,并且例如,手到测距成像装置的最接近的位置被确定为拳尖。
在一个优选的实施例中,一个类似的方法可以包括使用至少一个单指尖参考位置来确定指针表示在虚拟世界空间中随时间的位置。这个在实际生活中特别常见和自然的使用单一指尖指向一事物的方式可以对应于例如使用“食”指尖随时间的位置,或在另一个实施例中,使用通过例如手尖的主方向确定的指尖方向。
在另一个优选的实施例中,该方法可以包括使用多个手参数来确定单一指针表示在虚拟世界空间中随时间的位置。例如,该方法可以使用至少两个手参数的加权和来确定单一指针表示的位置。单一指针位置可以对应于所选择的手参数之间的位置。例如,它可以对应于手尖和分离指尖(例如,拇指尖)之间的位置,到所提到的尖端的相应距离由预定加权因子调制。具体地说,当考虑到分离指尖(例如,拇指尖)和另一手尖或指尖是,“捏”运动的不对称性可能要求与分离指尖位置相关的加权因子比与另一尖端相关的加权因子更大,因为该另一尖端移动的幅度将大于拇指尖移动的幅度。这种特定的加权计算(或内插)目的在于获得可靠且稳定的用于定点手势的指针位置,当两个POI(从中可得到指针的位置)正在执行另一手势,例如,激活手势,如“捏”和“抓取”手势,下指针位置被视为例如其中执行最小的运动,因此包括较大加权因子。当这些POI正在执行激活手势时,(从两个POI得到的)指针位置相对于单个POI的独立运动和旋转是不变的。
再如,确定指针的合适加权因子是为了考虑对应于这些指针的每个手参数与掌心的距离;距离越近,其被视为移动得越少,因此具有最大的加权因子。另一示例特别适合于当期望加权相对于手取向不变且独立于手尖和指尖的标识的情况。
在另一个优选的实施例中,该方法可以包括使用多个手参数来确定多个指针表示在虚拟世界空间中随时间的位置。例如,多个指针表示可以包括至少两个手参数的独立表示,例如,对应于手尖的“指针”和对应于拇指尖的“指针”。在衍生的实施例中,可以确定多于两个指针。另一个简单的示例对应于确定待在虚拟世界中表示的三个指针。这三个指针可以是手尖、拇指尖和对应于这两个手参数位置之间的加权位置的另一POI。
在又一实施例中,该方法可以包括根据手姿势来自动定义所表示的指针的数量,因为该姿势可以允许或不允许对手参数的可靠检测。
在再一实施例中,该方法可以优选地包括:特别根据在所使用的GUI中表示的对象,自动定义待利用该GUI进行上下文表示的指针的数量。例如,该方法可以定义单一指针,该指针将对应于手尖,以利用指针表示解析屏幕区域。在屏幕区域包括例如文件夹表示(其例如由于可抓住而兼容至少两个指针交互)的特定位置,该界面将定义两个指针表示,这两个指针表示将对应于两个手参数,例如手尖和分离的指尖(例如,拇指尖)。这些指针的运动随后将允许由GUI认可的文件夹的“抓取”操纵。
在第二实施例中,“抓取”交互,该方法包括使用如上所述被确定为定义参考位置的手参数的掌心来确定单一指针表示在虚拟世界空间中的位置。该方法包括进一步确定手上的两个POI,例如,手尖和拇指尖。交互则包括指向使能“抓取”特征的虚拟对象。当两个POI移动到彼此之间的距离小于预定义阈值时,将发生虚拟对象的“抓取”。此时,虚拟对象的表示将与指针表示的位置相关,并且将相应地移动。当两个兴趣点之间的距离达到第二预定阈值时,虚拟对象将被释放(不再被“抓取”)。
在另一实施例中,该方法包括从手尖中确定多个POI,以及响应地确定两个指针,从而获取这两个指针的视觉反馈,这两个针对可对应于例如手尖和拇指尖。随后,交互将包括指向使能“抓取”特征的虚拟对象。当两个POI各自关于特定限制(这些限制涵盖某些预定阈值,例如以补偿相机或测距成像装置的潜在准确性问题)开始接触虚拟对象表示的边界时,将发生虚拟对象的“抓取”。此时,虚拟对象的表示将与指针表示的位置相关,并且将相应地移动。当至少一个指针和对象的边界之间的距离达到第二预定阈值时,虚拟对象将被释放(不再被“抓取”)。
在另一个优选的实施例中,该方法包括使用从如上述的手参数选择指针,该指针可以对应于一特定POI,该POI的位置被确定为在两个其它的POI之间的位置,这两个其它的POI可以对应于例如拇指尖和食指尖。当指针的表示到达一区域或对象的表示符合“抓取”特征时,指针然后可分裂成至少两个指针,所述至少两个指针与从中确定该特定POI的至少两个POI相关。虚拟对象随后可以被“抓取”并如上所述被操纵。指针的表示保持可见,直到满足另一个条件,例如,所述指针彼此相隔大于预定阈值的距离。当“抓取”的条件不再相关时,重新建立先前的单指针状态。
在第三个实施例中,操纵交互,该方法包括使用从如上述的手参数选择的至少一个指针,优选为两个指针,例如,所述指针可以对应于至少一个手尖。在屏幕上表示的指针相对于虚拟对象的位置可用于触发、控制和停止对虚拟对象的至少一个参数的操纵。例如,触发操纵的开始和结束可以链接到两个指针与虚拟对象的边界的距离;操纵可以包括根据指针的平均位置来确定虚拟对象的位置;虚拟对象的取向可以根据关于显示屏幕的水平和垂直轴确定的从一个指针到另一个指针的方向来确定。
在另一个实施例中,该方法可包括“点击”交互,其使用多个手参数,如果满足一组特定的时空条件,则触发一个事件。例如,当指针位于屏幕上在预期将发生“点击”事件以触发诸如启动应用之类的系统事件的区域时,例如从一文件夹处,当两个POI之间的距离或两个显示的指针之间的距离变得小于预定义阈值达一最大预定义持续时间时,可以触发“点击”手势的检测和相关事件。
在一个优选的实施例中,当指针比虚拟对象的尺寸更靠近时,GUI的虚拟对象可以提供反馈,例如,根据指针间的距离,可以挤压对象。
优选地,交互系统还可以提供视觉反馈信息,例如根据执行的交改变指针或对象的渲染。例如,当对象被两个指针“捏”时,可以生成虚拟对象挤压的视觉反馈。
此外,通过上下文分析指针和虚拟对象各自的位置,可以优化交互,从而改进由虚拟对象使能的交互的效果。例如,使能“抓取”操纵的靠近虚拟对象的两个指针可以被吸引到虚拟对象的边界处,从而改善用户体验。
此外,为了补偿测距成像装置的准确度,或为了改善用户体验从而允许在虚拟空间中并未进行准确接触的情况下与对象交互,可以引入容差。
更优选地,虚拟对象交互能力可能在交互系统启动时预先设定,并根据交互和由用户执行的操纵而动态地改变。例如,对象可以只能旋转而成为旋钮控件,对象可以只能在一个方向上转换并成为滑动器,对象可以只能被按压并成为开关,对象仅在指针离得不是太远时出现,或者对象可以根据其被“抓取”的位置而呈现不同的行为。
为了完整起见,图4示出了通过将至少两个手尖向对象的表面聚拢来“抓取”对象的一种方式。在本实例中,手尖包括拇指尖和食指尖,但也可以是拇指尖和中指、无名指或者小指的指尖。当抓取真实对象时,人们通常毫不困难地将两个或更多个手指向对象的相对侧聚拢,而当并非旨在真实对象而是在空气中执行抓取手势时,人们通常执行明显不对称的手势。通过表示虚拟对象和至少两个指针的视觉反馈(图13),有可能重获以与真实对象类似的方式将指针向虚拟对象聚拢的能力。
图5a至5c示出了如501指示的手尖的定位以及如502和503指示的掌心的定位,对于一些手的姿势,图5d示出了拳头尖和其相关的掌心503和手尖503。
图6示出了呈现“抓取”姿势的手的侧视图,其叠加有手尖(601)、拇指尖(602)、掌心(603)的定位和利用多个手尖计算出的一附加稳定POI(604)的定位。
图7示出了呈现“抓取”姿势的手的正视图,其叠加有手尖(701)、拇指尖(702)的定位以及利用多个手尖计算出的一附加稳定POI(703)的定位。
图8示出了手的距离地图,其中,手的外观或轮廓与手指和拇指一起是可见的。手掌与被视为掌心的部分一起也是可见的,其中掌心用手掌中心的高亮区域表示。
在图9a中示出了呈现“捏开”姿态的手的深度地图901。这里,对应于食指和拇指尖的POI被示出。图9b示出了对应于图9a中所示的深度地图的响应地图902。如可以看到的,响应地图902具有的针对食指尖的清晰响应信号为上抓取器,针对拇指尖的清晰响应信号为下抓取器。
在图10a中示出了呈现“捏合”姿态的手的深度地图1001。只有对应于食指尖的POI是可见的。图10b示出了对应于图10a的深度地图的响应地图1002,并且仅针对食指尖获得清晰的响应信号。
在图11中示出了张开的手的深度地图1101,手上的POI对应于手尖和拇指尖。图11b示出了与图11a的深度地图对应的响应地图1102。在本实例中,从拇指和手尖获得清晰的响应信号。
在图12a中示出了手的深度地图。图12b示出了对应于图12a的深度地图的反应地图。在图12b中,针对手的多个末端获得清晰的响应,在本实例中,为拇指和手指。
图13示出了一些交互,包括虚拟对象(由1306表示)以及与手的一些确定的兴趣点相关的两个指针的表示(由1305表示)的表示。正如1301所指示的,指针不接触虚拟对象。在1302,两个指针都接触虚拟对象,虚拟对象以挤压的形状提供一视觉反馈,挤压的程度与所考虑的指针之间的距离相关。在这种情况下,该对象可被视为被抓取,然后可以根据该指针的进一步相应位置被操纵。在1303,被挤压的虚拟对象可以被视为两个指针被抓住,并且然后可根据指针的相应位置(只要这些指针之间的距离保持等于或小于对象的原尺寸)被操纵。操纵可以是例如以下中的至少一种:例如与1302相比在1303处所示的旋转、转换、变换(例如缩放)或虚拟对象上下文允许的另一变换。
在1304,虚拟对象被完全挤压。在一个实施例中,这种状态可以被链接到触发对象表示的特定行为,例如,形式的变化,并且它还可以与触发与虚拟对象本身不相关的特定事件相关,例如,将应用的启动链接到用户界面。
在图14中示出用户的手的侧视图,其与POI1401(表示食指尖的尖)的定位叠加,可用于激活手势。还叠加有另一POI1402,其与手的质心相关,并且其可以用于定点手势。箭头1403展示“手指拍”激活手势的上下手指手势。
尽管已经结合特定实施例对本发明的各方面进行了描述,但将容易理解,这些方面可以以其它的形式实现。
Claims (40)
1.一种基于三维手势识别系统提供自然人机交互的方法,该方法包括以下步骤:
a)对包括至少一个用户的至少一只手在内的场景进行成像;
b)处理成像场景,以确定与所述至少一只手相关的至少一个兴趣点;
c)跟踪所述至少一个兴趣点,以提供每个兴趣点随时间的跟踪运动;
d)分析每个兴趣点的所述跟踪运动;
e)从分析中确定至少一个手势的执行;以及
f)使用所确定的所述至少一个手势的执行来进行人机交互。
2.根据权利要求1所述的方法,其中,所述至少一个手势包括使用一个兴趣点的定点手势。
3.根据权利要求2所述的方法,其中,所述一个兴趣点包括下列之一:指尖、手尖、掌心、手的质心以及指尖、手尖、掌心和手的质心中的至少两者的组合的衍生物。
4.根据权利要求1所述的方法,其中,所述至少一个手势包括使用一个兴趣点的激活手势。
5.根据权利要求1所述的方法,其中步骤b)确定至少两个兴趣点,并且步骤e)包括:使用对所述至少两个兴趣点的分析,来确定所述至少一个手势的执行。
6.根据权利要求5所述的方法,其中,所述至少一个手势包括使用两个兴趣点的定点手势。
7.根据权利要求6所述的方法,其中,所述定点手势使用从所述两个兴趣点内插的兴趣点。
8.根据权利要求5至7中任一项所述的方法,其中,所述两个兴趣点包括下列任一者:两个指尖、一个指尖和一个手尖、一个指尖和掌心。
9.根据权利要求5至8中任一项所述的方法,进一步包括以下步骤:通过所述两个兴趣点确定两个手势的同步执行。
10.根据权利要求9所述的方法,其中,所述同步执行的两个手势包括定点手势和激活手势。
11.根据权利要求10所述的方法,其中,两个兴趣点包括:提供定点手势的掌心和用于拍手势的指尖。
12.根据权利要求5所述的方法,其中,步骤b)确定至少三个兴趣点,并且步骤e)包括:使用对所述至少三个兴趣点的分析,来确定所述至少一个手势的执行。
13.根据权利要求12所述的方法,进一步包括以下步骤:通过所述三个兴趣点确定两个手势的同时执行。
14.根据权利要求13所述的方法,其中,所述同步执行的两个手势包括定点手势和激活手势。
15.根据权利要求14所述的方法,其中,所述定点手势由单一兴趣点执行,并且所述激活手势由两个兴趣点执行。
16.根据权利要求15所述的方法,其中,所述单一兴趣点对应于掌心。
17.根据权利要求15或16所述的方法,其中,所述激活手势由两个指尖执行,或由指尖和手尖执行。
18.根据权利要求15所述的方法,其中,所述单一兴趣点包括两个指尖之间的内插兴趣点,所述两个指尖提供所述激活手势。
19.根据权利要求15和18中任一项所述的方法,其中,所述定点手势包括:使用两个指尖、掌心和内插兴趣点确定的、具有旋转不变性的定点手势。
20.根据前述权利要求中任一项所述的方法,进一步包括以下步骤:响应于步骤e),提供上下文反馈给用户。
21.一种从由测距成像系统提供的对应于手的一组标记3D点中检测与手相关的参数的方法,确定与每个手参数相关的至少一个特征。
22.根据权利要求21所述的方法,其中,所述与手相关的参数包括:手尖和手掌中心中的至少一个,并且其中,与手尖或手掌中心相关的特征至少为手尖或手掌中心在3D空间中的位置。
23.根据权利要求21或22所述的方法,进一步包括:使用距离地图和PCA分析中的至少一种来确定掌心的位置。
24.根据权利要求21或22所述的方法,进一步包括:通过以与手的所有正交像素被投影到的矢量的直方图中的预定范围对应的方式确定手尖在空间中的位置,来确定手尖的位置,该矢量的特征在于,该矢量的方向与在手3D点云上执行的PCA分析的主方向相关,该矢量的原点位于与手掌中心相关的位置。
25.根据权利要求21至24中任一项所述的方法,进一步包括:通过计算响应地图来确定手尖或末端,每个手尖对应于一组像素,该组像素的值被确定为一组邻居像素中的第三最小值,每个邻居像素在一组预定方向上的预定距离处,并具有与被考虑的像素不同的、高于预定值的深度值。
26.根据权利要求21至25中任一项所述的方法,进一步包括:根据手参数确定至少一个兴趣点在空间中的位置。
27.根据权利要求26所述的方法,进一步包括:根据手参数中与至少两个兴趣点连接的部件相关的参数,确定所述至少两个兴趣点在空间中的位置。
28.根据权利要求26或27所述的方法,进一步包括:自动确定至少两个相对的兴趣点在空间中的位置。
29.根据权利要求26至28中任一项所述的方法,进一步包括:根据兴趣点和手参数,自动确定待表示在交互系统中的至少一个指针,该交互系统能够至少提供视觉反馈信息。
30.根据权利要求29所述的方法,其中,能够提供反馈信息的所述系统是一图形用户界面,该图形用户界面包括能够渲染至少一个指针的虚拟元素,所述虚拟元素与所述至少一个指针进行交互。
31.根据权利要求26至30中任一项所述的方法,进一步包括:跟踪和分析所述指针或相关兴趣点中的至少一个随时间的运动,以确定动态手势。
32.根据权利要求26至31中任一项所述的方法,进一步包括:跟踪和分析多个指针或兴趣点随时间的运动,以确定动态手势。
33.根据权利要求26至32中任一项所述的方法,进一步包括:分析多个兴趣点在空间中的几何布置,以确定静态手势。
34.根据权利要求31至33中任一项所述的方法,其中,所述系统和由至少一个指针表示的用户的手的兴趣点之间的交互是包括对虚拟对象的操纵在内的自然交互,所述操纵包括以下中的至少一种:触摸,挤压,捏,抓取,旋转,推,掉落,点击及其衍生的手势。
35.根据权利要求31至34中任一项所述的方法,其中,交互包括使用由至少一个指针表示的至少两个兴趣点来操纵所述虚拟对象。
36.根据权利要求31至35中任一项所述的方法,其中,交互包括使用由两个指针或抓取器表示的至少两个控制点来操纵虚拟对象。
37.根据权利要求31至36中任一项所述的方法,其中,交互具体包括使用由两个指针或抓取器表示的至少两个控制点和另一个指针来操纵虚拟对象,所述另一个指针的位置被确定为在两个其他指针之间。
38.根据权利要求29至37中任一项的方法,其中,所述反馈信息系统提供上下文信息,所述上下文信息控制手参数中的至少一个手参数的确定、待使用的控制点的确定以及指针的确定。
39.根据权利要求21至38中任一项所述的方法,进一步包括:根据由用户执行的手势以及对象和指针各自在空间中的位置,来修改所述对象和指针在图形用户界面中的表示。
40.一种用于执行根据权利要求1至39中任一项所述的方法的系统。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12176458.3 | 2012-07-13 | ||
EP12176458 | 2012-07-13 | ||
PCT/EP2013/064860 WO2014009561A2 (en) | 2012-07-13 | 2013-07-12 | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105378593A true CN105378593A (zh) | 2016-03-02 |
CN105378593B CN105378593B (zh) | 2019-03-01 |
Family
ID=46798994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380036563.XA Active CN105378593B (zh) | 2012-07-13 | 2013-07-12 | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9864433B2 (zh) |
EP (2) | EP2872967B1 (zh) |
JP (1) | JP6360050B2 (zh) |
KR (1) | KR101757080B1 (zh) |
CN (1) | CN105378593B (zh) |
WO (1) | WO2014009561A2 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105844705A (zh) * | 2016-03-29 | 2016-08-10 | 联想(北京)有限公司 | 一种三维虚拟对象模型生成方法及电子设备 |
CN108536354A (zh) * | 2018-04-04 | 2018-09-14 | 网易(杭州)网络有限公司 | 虚拟现实场景中定位字符位置的方法和装置 |
CN110941328A (zh) * | 2018-09-25 | 2020-03-31 | 未来市股份有限公司 | 基于手势辨认的互动显示方法和装置 |
CN111103967A (zh) * | 2018-10-25 | 2020-05-05 | 北京微播视界科技有限公司 | 虚拟对象的控制方法和装置 |
CN111258413A (zh) * | 2018-11-30 | 2020-06-09 | 北京字节跳动网络技术有限公司 | 虚拟对象的控制方法和装置 |
CN112926423A (zh) * | 2021-02-07 | 2021-06-08 | 青岛小鸟看看科技有限公司 | 捏合手势检测识别方法、装置及系统 |
Families Citing this family (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
CN105378593B (zh) | 2012-07-13 | 2019-03-01 | 索尼深度传感解决方案股份有限公司 | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 |
WO2015006784A2 (en) | 2013-07-12 | 2015-01-15 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US10533850B2 (en) * | 2013-07-12 | 2020-01-14 | Magic Leap, Inc. | Method and system for inserting recognized object data into a virtual world |
US10168873B1 (en) | 2013-10-29 | 2019-01-01 | Leap Motion, Inc. | Virtual interactions for machine control |
US9996797B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Interactions with virtual objects for machine control |
US10416834B1 (en) * | 2013-11-15 | 2019-09-17 | Leap Motion, Inc. | Interaction strength using virtual objects for machine control |
EP2891950B1 (en) | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
WO2015118756A1 (ja) * | 2014-02-10 | 2015-08-13 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
EP2908218B1 (en) * | 2014-02-14 | 2018-03-14 | Omron Corporation | Gesture recognition apparatus and control method of gesture recognition apparatus |
JP6349800B2 (ja) * | 2014-03-12 | 2018-07-04 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
US9996160B2 (en) | 2014-02-18 | 2018-06-12 | Sony Corporation | Method and apparatus for gesture detection and display control |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US20160027214A1 (en) * | 2014-07-25 | 2016-01-28 | Robert Memmott | Mouse sharing between a desktop and a virtual world |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US9858720B2 (en) | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US10123846B2 (en) | 2014-11-13 | 2018-11-13 | Intuitive Surgical Operations, Inc. | User-interface control using master controller |
EP3217910B1 (en) * | 2014-11-13 | 2021-03-31 | Intuitive Surgical Operations, Inc. | Interaction between user-interface and master controller |
DE102014017166A1 (de) | 2014-11-20 | 2016-05-25 | Audi Ag | Verfahren zum Betreiben einer Objektbewertungsvorrichtung für ein Kraftfahrzeug, Objektbewertungsvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Objektbewertungsvorrichtung |
DE102014226546A1 (de) * | 2014-12-19 | 2016-06-23 | Robert Bosch Gmbh | Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug |
JP6603024B2 (ja) | 2015-02-10 | 2019-11-06 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
JP6561400B2 (ja) * | 2015-02-10 | 2019-08-21 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 |
JP6534011B2 (ja) | 2015-02-10 | 2019-06-26 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 |
JP6519075B2 (ja) * | 2015-02-10 | 2019-05-29 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 |
PL411338A1 (pl) * | 2015-02-23 | 2016-08-29 | Samsung Electronics Polska Spółka Z Ograniczoną Odpowiedzialnością | Sposób interakcji z wirtualnymi obiektami w przestrzeni trójwymiarowej oraz system do interakcji z wirtualnymi obiektami w przestrzeni trójwymiarowej |
CN105068662B (zh) * | 2015-09-07 | 2018-03-06 | 哈尔滨市一舍科技有限公司 | 一种用于人机交互的电子设备 |
US10607413B1 (en) * | 2015-09-08 | 2020-03-31 | Ultrahaptics IP Two Limited | Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments |
US10649536B2 (en) * | 2015-11-24 | 2020-05-12 | Intel Corporation | Determination of hand dimensions for hand and gesture recognition with a computing interface |
CN106909871A (zh) * | 2015-12-22 | 2017-06-30 | 江苏达科智能科技有限公司 | 手势指令识别方法 |
CN106909872A (zh) * | 2015-12-22 | 2017-06-30 | 江苏达科智能科技有限公司 | 人手轮廓识别方法 |
US20170185156A1 (en) * | 2015-12-29 | 2017-06-29 | Microsoft Technology Licensing, Llc | Hand tracking for user interface operation at-a-distance |
KR101671831B1 (ko) * | 2016-04-11 | 2016-11-03 | 김수민 | 동작 인식 센서를 이용한 3차원 입력 장치 |
KR101976605B1 (ko) * | 2016-05-20 | 2019-05-09 | 이탁건 | 전자기기 및 그 동작 방법 |
WO2017204120A1 (ja) * | 2016-05-25 | 2017-11-30 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法およびプログラム |
CN107977071B (zh) * | 2016-10-24 | 2020-02-28 | 中国移动通信有限公司研究院 | 一种适用于空间系统的操作方法及装置 |
EP3324270A1 (en) * | 2016-11-16 | 2018-05-23 | Thomson Licensing | Selection of an object in an augmented reality environment |
WO2018157286A1 (zh) | 2017-02-28 | 2018-09-07 | 深圳市大疆创新科技有限公司 | 一种识别方法、设备以及可移动平台 |
CN108230383B (zh) * | 2017-03-29 | 2021-03-23 | 北京市商汤科技开发有限公司 | 手部三维数据确定方法、装置及电子设备 |
US10261595B1 (en) * | 2017-05-19 | 2019-04-16 | Facebook Technologies, Llc | High resolution tracking and response to hand gestures through three dimensions |
US10776763B2 (en) | 2017-09-12 | 2020-09-15 | Paypal, Inc. | System and method for performing gesture-based unified multi-marketplace transactions |
DE102018206676B4 (de) * | 2018-04-30 | 2021-11-04 | Deutsche Bahn Aktiengesellschaft | Verfahren zur Interaktion einer Zeigevorrichtung mit einem auf einer Projektionsfläche eines virtuellen Desktops angeordneten Zielpunkts |
US10635895B2 (en) | 2018-06-27 | 2020-04-28 | Facebook Technologies, Llc | Gesture-based casting and manipulation of virtual content in artificial-reality environments |
CN109063653A (zh) * | 2018-08-07 | 2018-12-21 | 北京字节跳动网络技术有限公司 | 图像处理方法和装置 |
US10942577B2 (en) | 2018-09-26 | 2021-03-09 | Rockwell Automation Technologies, Inc. | Augmented reality interaction techniques |
CN109697407A (zh) * | 2018-11-13 | 2019-04-30 | 北京物灵智能科技有限公司 | 一种图像处理方法及装置 |
EP3926585A4 (en) * | 2019-02-13 | 2022-03-30 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM |
WO2020209624A1 (en) * | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head mounted display device and operating method thereof |
CN111949112A (zh) * | 2019-05-14 | 2020-11-17 | Oppo广东移动通信有限公司 | 对象交互方法及装置、系统、计算机可读介质和电子设备 |
US11189099B2 (en) | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
US11176745B2 (en) | 2019-09-20 | 2021-11-16 | Facebook Technologies, Llc | Projection casting in virtual environments |
EP4031956A1 (en) * | 2019-09-20 | 2022-07-27 | InterDigital CE Patent Holdings, SAS | Device and method for hand-based user interaction in vr and ar environments |
US11170576B2 (en) | 2019-09-20 | 2021-11-09 | Facebook Technologies, Llc | Progressive display of virtual objects |
US10991163B2 (en) | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11086406B1 (en) * | 2019-09-20 | 2021-08-10 | Facebook Technologies, Llc | Three-state gesture virtual controls |
US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
CN110908512A (zh) * | 2019-11-14 | 2020-03-24 | 光沦科技(杭州)有限公司 | 一种基于动态手势坐标映射的人机交互方法 |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11475639B2 (en) | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
CN115443445A (zh) * | 2020-02-26 | 2022-12-06 | 奇跃公司 | 用于可穿戴系统的手部手势输入 |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11227445B1 (en) | 2020-08-31 | 2022-01-18 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
CN116324680A (zh) * | 2020-09-11 | 2023-06-23 | 苹果公司 | 用于操纵环境中的对象的方法 |
US11925863B2 (en) | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
US11113893B1 (en) | 2020-11-17 | 2021-09-07 | Facebook Technologies, Llc | Artificial reality environment with glints displayed by an extra reality device |
CN114639158A (zh) * | 2020-11-30 | 2022-06-17 | 伊姆西Ip控股有限责任公司 | 计算机交互方法、设备和程序产品 |
US11416079B2 (en) | 2020-12-03 | 2022-08-16 | Motorola Mobility Llc | Snap motion gesture detection and response |
CN112488059B (zh) * | 2020-12-18 | 2022-10-04 | 哈尔滨拓博科技有限公司 | 一种基于深度学习模型级联的空间手势控制方法 |
US20220197393A1 (en) * | 2020-12-22 | 2022-06-23 | Snap Inc. | Gesture control on an eyewear device |
US11461973B2 (en) | 2020-12-22 | 2022-10-04 | Meta Platforms Technologies, Llc | Virtual reality locomotion via hand gesture |
US11782577B2 (en) | 2020-12-22 | 2023-10-10 | Snap Inc. | Media content player on an eyewear device |
US11409405B1 (en) | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
US11797162B2 (en) | 2020-12-22 | 2023-10-24 | Snap Inc. | 3D painting on an eyewear device |
US11740313B2 (en) | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
CN112748805B (zh) * | 2021-01-12 | 2023-07-04 | 深圳佑驾创新科技有限公司 | 手势控制方法、装置、计算机设备和存储介质 |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
CN117120962A (zh) * | 2021-04-08 | 2023-11-24 | 斯纳普公司 | 用于控制虚拟和图形元素的映射手部区域之间的双手交互 |
US11861070B2 (en) | 2021-04-19 | 2024-01-02 | Snap Inc. | Hand gestures for animating and controlling virtual and graphical elements |
US11762952B2 (en) | 2021-06-28 | 2023-09-19 | Meta Platforms Technologies, Llc | Artificial reality application lifecycle |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11947862B1 (en) | 2022-12-30 | 2024-04-02 | Meta Platforms Technologies, Llc | Streaming native application content to artificial reality devices |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
US20090110292A1 (en) * | 2007-10-26 | 2009-04-30 | Honda Motor Co., Ltd. | Hand Sign Recognition Using Label Assignment |
US20090254855A1 (en) * | 2008-04-08 | 2009-10-08 | Sony Ericsson Mobile Communications, Ab | Communication terminals with superimposed user interface |
JP2010079332A (ja) * | 2008-09-24 | 2010-04-08 | Mitsubishi Electric Corp | 遠隔操作装置及び遠隔操作方法 |
CN101730874A (zh) * | 2006-06-28 | 2010-06-09 | 诺基亚公司 | 基于免接触的手势的输入 |
CN101977796A (zh) * | 2008-03-19 | 2011-02-16 | 株式会社电装 | 车辆操作输入设备 |
JP2012068690A (ja) * | 2010-09-21 | 2012-04-05 | Univ Of Tsukuba | 手指ジェスチャ検出装置 |
JP2012073658A (ja) * | 2010-09-01 | 2012-04-12 | Shinsedai Kk | コンピュータシステム |
EP2474950A1 (en) * | 2011-01-05 | 2012-07-11 | Softkinetic Software | Natural gesture based user interface methods and systems |
Family Cites Families (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5168531A (en) * | 1991-06-27 | 1992-12-01 | Digital Equipment Corporation | Real-time recognition of pointing information from video |
US5724264A (en) * | 1993-07-16 | 1998-03-03 | Immersion Human Interface Corp. | Method and apparatus for tracking the position and orientation of a stylus and for digitizing a 3-D object |
US5936612A (en) * | 1997-05-30 | 1999-08-10 | Wang; Yanqing | Computer input device and method for 3-D direct manipulation of graphic objects |
WO2001009708A1 (en) * | 1999-07-30 | 2001-02-08 | Yanqing Wang | Computer input device for multiple-dimensional control |
JP2003256850A (ja) | 2001-12-27 | 2003-09-12 | Sanyo Electric Co Ltd | 動き認識装置および画像処理装置並びにプログラム |
JP4355341B2 (ja) | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
JP2006268212A (ja) | 2005-03-23 | 2006-10-05 | Hiroshi Mitsumata | 命令入力装置 |
US20060277466A1 (en) * | 2005-05-13 | 2006-12-07 | Anderson Thomas G | Bimodal user interaction with a simulated object |
WO2008014826A1 (en) * | 2006-08-03 | 2008-02-07 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
US20100023314A1 (en) * | 2006-08-13 | 2010-01-28 | Jose Hernandez-Rebollar | ASL Glove with 3-Axis Accelerometers |
FR2911983B1 (fr) | 2007-01-25 | 2009-05-29 | St Microelectronics Sa | Procede de suivi automatique des mouvements de la mains dans une sequence d'images. |
CN101952818B (zh) | 2007-09-14 | 2016-05-25 | 智慧投资控股81有限责任公司 | 基于姿态的用户交互的处理 |
CN101874404B (zh) | 2007-09-24 | 2013-09-18 | 高通股份有限公司 | 用于语音和视频通信的增强接口 |
US20090172606A1 (en) | 2007-12-31 | 2009-07-02 | Motorola, Inc. | Method and apparatus for two-handed computer user interface with gesture recognition |
JP5077774B2 (ja) * | 2008-03-19 | 2012-11-21 | 株式会社デンソー | 車両用操作入力装置 |
TW201017944A (en) | 2008-08-13 | 2010-05-01 | Sandisk 3D Llc | Methods and apparatus for increasing memory density using diode layer sharing |
JP5156617B2 (ja) | 2008-12-26 | 2013-03-06 | 日本システムウエア株式会社 | 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体 |
US20100177039A1 (en) * | 2009-01-10 | 2010-07-15 | Isaac Grant | Finger Indicia Input Device for Computer |
EP2480955B1 (en) * | 2009-09-22 | 2018-05-16 | Facebook Inc. | Remote control of computer devices |
US20110115892A1 (en) | 2009-11-13 | 2011-05-19 | VisionBrite Technologies, Inc. | Real-time embedded visible spectrum light vision-based human finger detection and tracking method |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US8522308B2 (en) | 2010-02-11 | 2013-08-27 | Verizon Patent And Licensing Inc. | Systems and methods for providing a spatial-input-based multi-user shared display experience |
WO2011127646A1 (en) | 2010-04-13 | 2011-10-20 | Nokia Corporation | An apparatus, method, computer program and user interface |
CN102236409A (zh) | 2010-04-30 | 2011-11-09 | 宏碁股份有限公司 | 基于影像的动作手势辨识方法及系统 |
JP2011258130A (ja) | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US20110317871A1 (en) | 2010-06-29 | 2011-12-29 | Microsoft Corporation | Skeletal joint recognition and tracking system |
US8743064B2 (en) | 2010-09-17 | 2014-06-03 | A.I. Solutions, Inc. | Gesture orbit design |
US9213890B2 (en) | 2010-09-17 | 2015-12-15 | Sony Corporation | Gesture recognition system for TV control |
US8457356B2 (en) | 2010-10-21 | 2013-06-04 | SET Corporation | Method and system of video object tracking |
JP5300825B2 (ja) * | 2010-11-17 | 2013-09-25 | シャープ株式会社 | 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体 |
JP5706672B2 (ja) * | 2010-11-18 | 2015-04-22 | シャープ株式会社 | 指示システム、及び、マウスシステム |
US20110139600A1 (en) * | 2010-11-29 | 2011-06-16 | King Fahd University Of Petroleum And Minerals | Gaseous density convective desalination and cooling system |
US9104308B2 (en) | 2010-12-17 | 2015-08-11 | The Hong Kong University Of Science And Technology | Multi-touch finger registration and its applications |
US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
US9898361B2 (en) * | 2011-01-04 | 2018-02-20 | Seagate Technology Llc | Multi-tier detection and decoding in flash memories |
JP5569973B2 (ja) | 2011-02-01 | 2014-08-13 | Kddi株式会社 | 情報端末装置、方法及びプログラム |
US9201590B2 (en) | 2011-03-16 | 2015-12-01 | Lg Electronics Inc. | Method and electronic device for gesture-based key input |
US9152306B2 (en) | 2011-03-29 | 2015-10-06 | Intel Corporation | Techniques for touch and non-touch user interaction input |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US9104271B1 (en) * | 2011-06-03 | 2015-08-11 | Richard Adams | Gloved human-machine interface |
US8929612B2 (en) * | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
JP5845002B2 (ja) * | 2011-06-07 | 2016-01-20 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
CN103890695B (zh) | 2011-08-11 | 2017-10-13 | 视力移动技术有限公司 | 基于手势的接口系统和方法 |
US20130104086A1 (en) * | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
CN103946863A (zh) | 2011-11-01 | 2014-07-23 | 英特尔公司 | 基于动态姿态的短距离人机交互 |
US9400600B2 (en) | 2011-12-16 | 2016-07-26 | Samsung Electronics Co., Ltd. | Method, apparatus, and graphical user interface for providing visual effects on a touchscreen display |
KR101237472B1 (ko) | 2011-12-30 | 2013-02-28 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
EP2613223A1 (en) | 2012-01-09 | 2013-07-10 | Softkinetic Software | System and method for enhanced gesture-based interaction |
WO2013147804A1 (en) | 2012-03-29 | 2013-10-03 | Intel Corporation | Creation of three-dimensional graphics using gestures |
EP2680228B1 (en) | 2012-06-25 | 2014-11-26 | Softkinetic Software | Improvements in or relating to three dimensional close interactions. |
US8934675B2 (en) * | 2012-06-25 | 2015-01-13 | Aquifi, Inc. | Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints |
US9111135B2 (en) * | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
CN105378593B (zh) | 2012-07-13 | 2019-03-01 | 索尼深度传感解决方案股份有限公司 | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 |
US9152173B2 (en) * | 2012-10-09 | 2015-10-06 | Microsoft Technology Licensing, Llc | Transparent display device |
US9019267B2 (en) * | 2012-10-30 | 2015-04-28 | Apple Inc. | Depth mapping with enhanced resolution |
CA2896985A1 (en) | 2013-01-03 | 2014-07-10 | Meta Company | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US9092665B2 (en) * | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9129155B2 (en) * | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
CN103971400B (zh) * | 2013-02-06 | 2018-02-02 | 阿里巴巴集团控股有限公司 | 一种基于标识码的三维交互的方法和系统 |
US9310851B2 (en) * | 2013-06-03 | 2016-04-12 | Amchael Visual Technology Corporation | Three-dimensional (3D) human-computer interaction system using computer mouse as a 3D pointing device and an operation method thereof |
JP2014235634A (ja) | 2013-06-04 | 2014-12-15 | 国立大学法人 筑波大学 | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム |
US10203812B2 (en) | 2013-10-10 | 2019-02-12 | Eyesight Mobile Technologies, LTD. | Systems, devices, and methods for touch-free typing |
WO2015069252A1 (en) * | 2013-11-07 | 2015-05-14 | Intel Corporation | Object position determination |
US10416834B1 (en) | 2013-11-15 | 2019-09-17 | Leap Motion, Inc. | Interaction strength using virtual objects for machine control |
EP2891950B1 (en) | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
KR20150084524A (ko) * | 2014-01-14 | 2015-07-22 | 삼성전자주식회사 | 디스플레이 장치 및 이의 제어 방법 |
-
2013
- 2013-07-12 CN CN201380036563.XA patent/CN105378593B/zh active Active
- 2013-07-12 EP EP13740229.3A patent/EP2872967B1/en active Active
- 2013-07-12 JP JP2015521026A patent/JP6360050B2/ja active Active
- 2013-07-12 EP EP15188585.2A patent/EP3007039B1/en active Active
- 2013-07-12 WO PCT/EP2013/064860 patent/WO2014009561A2/en active Application Filing
- 2013-07-12 US US14/413,411 patent/US9864433B2/en active Active
- 2013-07-12 KR KR1020157002283A patent/KR101757080B1/ko active IP Right Grant
-
2016
- 2016-12-15 US US15/380,993 patent/US11513601B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
CN101730874A (zh) * | 2006-06-28 | 2010-06-09 | 诺基亚公司 | 基于免接触的手势的输入 |
US20120056804A1 (en) * | 2006-06-28 | 2012-03-08 | Nokia Corporation | Apparatus, Methods And Computer Program Products Providing Finger-Based And Hand-Based Gesture Commands For Portable Electronic Device Applications |
US20090110292A1 (en) * | 2007-10-26 | 2009-04-30 | Honda Motor Co., Ltd. | Hand Sign Recognition Using Label Assignment |
CN101977796A (zh) * | 2008-03-19 | 2011-02-16 | 株式会社电装 | 车辆操作输入设备 |
US20090254855A1 (en) * | 2008-04-08 | 2009-10-08 | Sony Ericsson Mobile Communications, Ab | Communication terminals with superimposed user interface |
JP2010079332A (ja) * | 2008-09-24 | 2010-04-08 | Mitsubishi Electric Corp | 遠隔操作装置及び遠隔操作方法 |
JP2012073658A (ja) * | 2010-09-01 | 2012-04-12 | Shinsedai Kk | コンピュータシステム |
JP2012068690A (ja) * | 2010-09-21 | 2012-04-05 | Univ Of Tsukuba | 手指ジェスチャ検出装置 |
EP2474950A1 (en) * | 2011-01-05 | 2012-07-11 | Softkinetic Software | Natural gesture based user interface methods and systems |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105844705A (zh) * | 2016-03-29 | 2016-08-10 | 联想(北京)有限公司 | 一种三维虚拟对象模型生成方法及电子设备 |
CN105844705B (zh) * | 2016-03-29 | 2018-11-09 | 联想(北京)有限公司 | 一种三维虚拟对象模型生成方法及电子设备 |
CN108536354A (zh) * | 2018-04-04 | 2018-09-14 | 网易(杭州)网络有限公司 | 虚拟现实场景中定位字符位置的方法和装置 |
CN110941328A (zh) * | 2018-09-25 | 2020-03-31 | 未来市股份有限公司 | 基于手势辨认的互动显示方法和装置 |
CN111103967A (zh) * | 2018-10-25 | 2020-05-05 | 北京微播视界科技有限公司 | 虚拟对象的控制方法和装置 |
CN111258413A (zh) * | 2018-11-30 | 2020-06-09 | 北京字节跳动网络技术有限公司 | 虚拟对象的控制方法和装置 |
CN112926423A (zh) * | 2021-02-07 | 2021-06-08 | 青岛小鸟看看科技有限公司 | 捏合手势检测识别方法、装置及系统 |
CN112926423B (zh) * | 2021-02-07 | 2023-08-25 | 青岛小鸟看看科技有限公司 | 捏合手势检测识别方法、装置及系统 |
US11776322B2 (en) | 2021-02-07 | 2023-10-03 | Qingdao Pico Technology Co., Ltd. | Pinch gesture detection and recognition method, device and system |
Also Published As
Publication number | Publication date |
---|---|
EP2872967B1 (en) | 2018-11-21 |
EP3007039B1 (en) | 2018-12-05 |
US11513601B2 (en) | 2022-11-29 |
KR101757080B1 (ko) | 2017-07-11 |
CN105378593B (zh) | 2019-03-01 |
US20170097687A1 (en) | 2017-04-06 |
EP3007039A1 (en) | 2016-04-13 |
WO2014009561A3 (en) | 2014-05-01 |
JP6360050B2 (ja) | 2018-07-18 |
EP2872967A2 (en) | 2015-05-20 |
KR20150034215A (ko) | 2015-04-02 |
US20150153833A1 (en) | 2015-06-04 |
JP2015522195A (ja) | 2015-08-03 |
US9864433B2 (en) | 2018-01-09 |
WO2014009561A2 (en) | 2014-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105378593A (zh) | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 | |
US20230161415A1 (en) | Systems and methods of free-space gestural interaction | |
US20220261112A1 (en) | Systems, devices, and methods for touch-free typing | |
US8552976B2 (en) | Virtual controller for visual displays | |
Sun et al. | Magichand: Interact with iot devices in augmented reality environment | |
Kang et al. | Color based hand and finger detection technology for user interaction | |
CN108845668B (zh) | 人机交互系统和方法 | |
US20110289455A1 (en) | Gestures And Gesture Recognition For Manipulating A User-Interface | |
JP6651388B2 (ja) | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム | |
Wilson et al. | Flowmouse: A computer vision-based pointing and gesture input device | |
Bohari et al. | To draw or not to draw: recognizing stroke-hover intent in non-instrumented gesture-free mid-air sketching | |
Feng et al. | FM: Flexible mapping from one gesture to multiple semantics | |
KR20110033318A (ko) | 영상인식을 이용한 가상마우스 시스템 | |
Yoon et al. | Vision-Based bare-hand gesture interface for interactive augmented reality applications | |
Annabel et al. | Design and Development of Multimodal Virtual Mouse | |
El Magrouni et al. | Approach for the construction of gestural interfaces to control graphical interfaces based on artificial intelligence | |
Kang et al. | Development of real-time gesture recognition system using visual interaction | |
Rossol | Novel Methods for Robust Real-time Hand Gesture Interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Brussels Applicant after: SOFTKINETIC SENSORS N.V. Address before: Brussels Applicant before: Sufte kayetti International Co.,Ltd. |
|
CB02 | Change of applicant information | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20180823 Address after: Brussels Applicant after: Sufte kayetti International Co.,Ltd. Address before: Brussels Applicant before: SOFTKINETIC SOFTWARE |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |