CN102165396A - 挥动约定姿态的增强检测 - Google Patents

挥动约定姿态的增强检测 Download PDF

Info

Publication number
CN102165396A
CN102165396A CN200980137551XA CN200980137551A CN102165396A CN 102165396 A CN102165396 A CN 102165396A CN 200980137551X A CN200980137551X A CN 200980137551XA CN 200980137551 A CN200980137551 A CN 200980137551A CN 102165396 A CN102165396 A CN 102165396A
Authority
CN
China
Prior art keywords
attitude
shape
computer
point
readable medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200980137551XA
Other languages
English (en)
Other versions
CN102165396B (zh
Inventor
伊恩.克拉克森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
GESTURETEK Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GESTURETEK Inc filed Critical GESTURETEK Inc
Publication of CN102165396A publication Critical patent/CN102165396A/zh
Application granted granted Critical
Publication of CN102165396B publication Critical patent/CN102165396B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

挥动约定姿态的增强检测,其中,在运动数据内定义形状,在和被定义的形状对齐的点处采样运动数据,并且,基于被采样的运动数据,确定随着时间移动目标沿着被定义的形状的位置。基于被确定的位置所表现出的模式确定移动目标是否正在做出姿态,并且,如果确定移动目标正在做出姿态则控制应用。

Description

挥动约定姿态的增强检测
相关申请的交叉引用
本申请要求2008年7月25日递交的No.61/083,605号美国临时专利申请的优先权,该临时申请通过引用被完全包含于此。
技术领域
本公开一般地涉及用户输入。
背景技术
已经使用相机来捕获目标的图像。已经发展了对存在于一个或多个图像中的目标的一个或多个图像进行分析以检测该目标的位置的技术。例如,已经使用光流通过对在时间上连续拍摄的目标的多个图像进行分析来检测目标的运动。
发明内容
根据一个一般性实施方案,沿着在运动数据内定义的形状,可以随时间跟踪移动目标的位置。当随着时间以曲线图表示目标的位置(表达为形状的单个维度的比例)时,如果以曲线图表示的位置表现出大致类似正弦曲线的一个或更多个周期的形状,则可以确定该移动目标正在做出挥动、挥击或者摇摆姿态。这种姿态可以映射到控制输入,提高人机接口的准确性。
根据另一个一般性实施方案,一种计算机可读介质利用包括指令的计算机程序编码,所述指令当被执行时工作以导致计算机执行操作。所述操作包括:在运动数据内定义形状,在和定义的形状对齐的点处采样运动数据;以及,基于采样的运动数据,确定随着时间移动目标沿着定义的形状的位置。所述操作还包括基于确定的位置所表现出的模式确定移动目标是否正在做出姿态,以及如果确定移动目标正在做出姿态则控制应用。
实施方案可以包括下列特征中的一个或多个。例如,运动数据可以包括运动历史图,所述运动历史图还包括针对图像的每点提供自从在该点检测到移动目标以来的时间的指示的运动历史数据值。确定随着时间移动目标沿着被定义的形状的位置还可以包括:在第一时间和第二时间,选择和定义的形状对齐并且包括满足预先确定的阈值的采样运动历史数据值的点,以及,选择被选择的点其中之一。确定移动目标的位置还可以包括将在第一时间和第二时间分别选择的一个点作为移动目标的第一位置和第二位置输出。所述一个点可以是选择的点的中值、平均或者随机点。所述操作也可以包括:访问图像,并基于访问的图像生成包括在运动历史图中的运动历史数据值。可以使用光流生成运动历史图。
在其他的例子中,所述模式包括在随着时间确定的位置的曲线图上的正弦或者阶梯正弦的一个周期的形状,所述确定的位置被表达为形状的单个维度的比例。所述操作还可以包括:针对每个点确定是否已经在预先确定的阈值内检测到移动目标;以及,将确定已在预先确定的阈值内检测到移动目标的运动的邻近点进行分组,其中,可以在和定义的形状对齐的分组点的子集处采样运动数据。所述操作还可以包括定义围绕分组点的边界框,其中,相对边界框来定义所述运动数据内的形状的大小和位置。所述形状可以是线段或者弦,例如能够装入分组点内的最长线段。
在进一步的例子中,所述操作可以包括:在运动数据内检测点组;以及,选择点组其中之一,其中,在一个选择的组内定义所述形状。可以基于相对尺寸选择所述一个组。可以以和定义的形状对齐的点的采样数量来采样所述运动数据,并且,所述采样数量可以包括固定数量,或者基于定义的形状的尺寸,或者包括和运动数据内定义的形状对齐的点的对齐数量。基于由确定的位置表现出的模式确定移动目标是否正在做出姿态还可以包括将模式和上阈值标准及下阈值标准以及定时标准进行比较。所述姿态可以是挥击或者挥动,手或者手指姿态。所述操作还可以包括:将确定的位置添加到运动历史,以及,检测所述模式是否存在于运动历史内,或者,对做出姿态的数量进行计数。
在另一一般性实施方案中,一个过程包括:在运动数据内定义形状;在和定义的形状对齐的点处采样运动数据;以及,基于采样的运动数据,确定随着时间移动目标沿着定义的形状的位置。所述过程还可以包括基于由确定的位置所表现出的模式确定移动目标是否正在做出姿态;以及,如果确定移动目标正在做出姿态则控制应用。
在进一步的实施方案中,一种设备包括处理器,所述处理器被配置成:在运动数据内定义形状;在和定义的形状对齐的点处采样运动数据;以及,基于采样的运动数据,确定随着时间移动目标沿着定义的形状的位置。所述处理器还被配置成基于确定的位置所表现出的模式确定移动目标是否正在做出姿态;以及,如果确定移动目标正在做出姿态则控制应用。
上面描述的任一技术的实施方案均可以包括方法、过程、系统、设备、装置、交互作用接口、存储在计算机可读介质上的指令,或者用计算机程序编码的计算机可读介质。在附图和下面的描述中阐明了一个或多个实施方案的细节。从描述和附图以及权利要求,其他的特征将会清晰。
附图说明
图1A和图1B示出了展示姿态识别的上下文图以及相关联的用于确定目标位置的运动历史值曲线图。
图2是设备框图。
图3是示范性过程的流程图。
图4示出了示例性内接形状(inscribed shape)。
图5-图6示出了示例性曲线图。
图7-图8示出了示例性姿态和相关联的曲线图。
图9示出了姿态检测。
图10-图11示出了示例性用户接口。
图12示出了示范性计算设备。
相同的参考数字通篇代表对应的部分。
具体实施方式
根据一个一般性实施方案,沿着在运动数据内定义的形状可以随着时间跟踪移动目标的位置。当随着时间以曲线图表示目标的位置(表达为形状的单个维度的比例)时,如果以曲线图表示的位置表现出大致类似正弦曲线的一个或多个周期的形状,则可以确定该移动目标正在做出挥动、挥击或者摇摆姿态。这种姿态可以被映射到控制输入,提高人机接口的效力和准确性。
在这么做时,取代在用户接口上选择控制,用户可以通过一系列定义姿态的动作来移动(例如移动其手或者其他身体部分),以便调用和该姿态相关联的某个功能。这样,功能可以被实施而不要求使用物理按钮或者用户接口控制,允许更小的用户接口并实现了提高在功能选择上的准确性。此外,通过使用基于相机的输入,消除了在触摸屏上指纹的不良模糊效应,因为不要求用户在身体上接触任何设备来实现控制输入。
因此,在一个例子中,用户通过做出一组定义的姿态和设备进行交互。提供了一种增强的方法,其中,基于在和运动数据内定义的形状对齐的点处采样的运动数据是否表现出预期的模式来识别或者拒绝输入姿态。
如这里通篇所使用的那样,“姿态”旨在指利用人体的一部分做出的非语言沟通的形式,并且和例如讲话的语言沟通相对。例如,姿态可以由第一位置、姿势或表情和第二姿势、位置或表情之间的移动、变化或者变形定义。在日常谈话中使用的常见姿态包括例如:“空中打引号(air quote)”姿态、鞠躬姿态、女性鞠躬礼(curtsey)、吻脸颊、手指或者手运动、屈膝、摇头或者移动、庆祝成功的击掌、点头、悲伤面孔、举起的拳头、敬礼、竖大拇指运动、捏手(pinching)姿态、手或者身体扭动姿态,或者手指指向姿态。
可以使用相机来检测姿态,例如通过分析用户的图像,使用倾斜传感器,例如通过检测用户把持或者倾斜设备的角度、感知设备的移动,或者通过任何其他方法。通过以特定模式或者方式做出一系列运动可以形成姿态。
尽管使用示例性挥动姿态描述这里所述的增强方法,但是在其他的实施方案中,也可以检测任何其他形状或者姿态类型(例如上面描述的示例性姿态)。此外,尽管示例性挥动姿态被描述为“约定(engagement)”姿态,但是在其他实施方案中,使用这种增强方法检测的姿态具有“约定姿态”以外的用途。“约定”姿态(和旨在定义实际命令输入的姿态相反)的进一步描述将在下面更详细地进行描述。
用户可以通过改变身体部分的位置(例如挥动运动)做出姿态(或者可以“作姿态(gesture)”或“做姿势表达(gesticulate)”),或者,用户可以做姿势表达而不改变身体部分的位置(例如,通过做出紧握拳头的姿态,或者通过保持身体部分不动一段时间),尽管增强方法使用例如手指、手和手臂姿态,但是也可以使用其他类型的姿态。例如,如果跟踪用户眼睛的运动,则这里所描述的增强方法可被用来检测左-右“眼扫描”姿态。
图1A是展示姿态识别的上下文图,并且图1B是相关联的用于确定特定时刻的目标位置的运动历史值曲线图。用户102正站在相机104和媒体中心106前面。例如,媒体中心106可以是正播放音乐录音的计算机。用户102以前-后挥动运动来移动其左手108(例如,用户可以做出挥击或者挥动,手或手指姿态)。例如,在时间点t1,用户朝着其身体移动其手108,在时间点t2,用户向侧面移动其手108(在这个例子中远离其身体,或者,从读者的角度向右),并且在时间点t3,用户往回朝着其身体移动其手108。在用户102做出故意的姿态,例如手108的挥动运动的同时,用户可能做出其他故意或者无意的移动,例如右手110的摆动或者小的移动。右手110的这种小的移动可能由身体抖动或者甚至相机104自身的移动引起的。
随着时间流逝,相机104可以拍摄用户102的多个图像。媒体中心106可以处理所述多个图像并生成运动历史图120,运动历史图120可以指示用户随着时间的运动。运动历史图120可以提供运动数据,其针对图像的每点包括自从在该点检测到移动目标以来的时间的指示。媒体中心106可以针对图像中的每个点确定移动目标(例如手108)是否已在预先确定的时间周期内被检测到。可以产生许多个运动历史图120,例如针对每个检测到运动的时间点(例如t1、t2、t3)的一个运动历史图120。
尽管运动历史图120被示出为点的可见网格,运动历史图120可以纯粹作为计算机可读介质上的数据结构存在而没有伴随的可视化。但当被可视化时,在检测到近来的运动的地方,运动历史图120上的点可以作为亮斑(bright spot)(代表高值)出现,当时间流逝而未出现额外的运动时,随着时间衰退为黑色。在特定的时刻,例如,挥击手运动在最近检测到用户的手的地方可以作为亮斑出现,其后跟着的是在挥击手运动开始的地方衰退为黑色的拖尾(trail)。
运动历史图120中被确定已经检测到运动的相邻点可以被分组用于作为单个组、“群(cluster)”或者“团(blob)”处理。通过将点隔离为组,计算成本可以被最小化。作为右手110移动的结果被确定具有运动的点可以被分组为点组122。又例如,作为左手108移动的结果被确定具有运动的点可以被分组为点组124。
针对每个点组,围绕该组可以定义边界框。例如,围绕点组122定义边界框126,并且,围绕点组124定义边界框128。如果用户在其手已经处于竖直位置的同时开始做出姿态,则边界框一般可以被定形为宽矩形。如果用户在其手位于其身侧的同时开始做出姿态,则从其身侧举起手到竖直位置会导致边界框定形为高矩形或者正方形。通过减少运动历史的持久性(例如,增加针对每个像素运动历史值的衰退速率),这种举手运动的效应可被减小,导致边界框被定形为宽矩形多于被定形为正方形。
故意的姿态一般会导致比无意的姿态更大的点组。例如,点组124大于点组122。在某些实施方案中,出于姿态检测的目的,只有最大的点组可以被视为和候选姿态相关联。但是,在其他方法中,较小的点组将被首先考虑、点组均将被同时考虑、或者将基于尺寸或其他标准依次考虑每个组。此外,可以并行地同时检查每个组。
形状可以内接在运动数据内部,或者在运动数据内部定义,其中,可以针对边界框来定义形状的尺寸和位置。例如,线段130可以内接在边界框128内部(例如,在包围最大点组的边界框内部)。线段130的长度可以基于边界框128的尺寸。例如,线段130的长度可以对应于边界框128的较大维度的长度。如下面更详细地描述的那样,其他的线段尺寸和其他的内接形状是可能的。
可以使用和线段130对齐的点采样运动数据。采样数量可以是固定数量(例如3,64或者10000个采样),或者,采样数量可以基于线段130的长度(例如较长的线段可能导致比较短的线段更多的采样点)。
基于采样的运动数据,可以确定手108沿着线段130最后被检测的位置。例如(如图1B中所示),在用户102将其手108移动到左边(从读者的角度)的时间点t1,在线段130的左侧上可能存在相对较高的运动历史数据值。即,线段130的左侧可以具有指示手108的最近运动的值。通过将阈值160施加于沿着线段130采样的点,可以过滤掉或者忽略不那么近来的运动。具有小于阈值的运动历史数据值的采样点可被过滤。
通过从剩余的未被过滤的点162选择点,可以识别手108的位置。例如,未被过滤的点的区域可确定,并且可以选择在该区域内的中值点164(对应于沿着线的18%的位置)。其他的示例性点选择方法包括:在包括未被过滤点的区域的边界上选择点、选择随机点、选择在未被过滤点中具有最高运动历史数据值的点,或者,选择具有和未被过滤点中的平均运动历史数据值相等的运动历史数据值的点。
检测的手的位置可以被表达为线段130的长度的百分比。例如,0%的检测位置对应于在线段130的最左侧上的位置。100%的检测位置对应于在线段130的最右侧上的位置。对应于手108的挥动运动的检测的手位置包括针对时间点t1的18%的检测的手位置132,针对时间点t2的84%的检测的手位置134,以及针对时间点t3的19%的检测的手位置136。
可以在曲线图140上画出随着时间检测的手位置。例如,曲线图140包括曲线图点142-146,分别对应于检测的手位置132-136。曲线图140包括80%的上阈值位置150和20%的下阈值位置152。阈值位置150-152可用来确定用户的运动是否构成挥动。
例如,对于将发生的挥动,用户102可以向左将其手移动到小于下阈值位置152(即,小于20%位置,例如和时间点t1对应的点142所示),然后,沿相反方向移动到大于上阈值位置150(即,大于80%位置,例如和时间点t2应的点144所示),然后往回向左再次至少移动到下阈值位置152(例如和时间点t3对应的点146所示)。取决于用户102在何处开始其运动,通过用户首先越过上阈值位置150也可以发生挥动。
如果曲线图140表现出正弦模式,则可以检测一个或多个挥动姿态。一个挥动姿态可以对应于正弦曲线的一个周期。例如,从点142到点146的曲线图部分是正弦曲线的一个周期,因此对应于一个挥动姿态。即,在用户102将其手108移动回左边,经过下阈值位置152以后,在时间点t3检测到挥动姿态。如果用户继续以前后方式做出姿态,则可以检测到多个挥动姿态,曲线图140的每一个正弦周期一个。
响应于一个或多个挥动姿态的检测,可以控制应用。例如,可增大在媒体中心106上播放的音乐的音量。例如,通过查询将姿态映射到功能的映射数据库,可以确定响应于姿态要执行的功能。所检测的挥动的数量可作为输入提供给被执行的功能。例如,所检测的挥动的数量可以指示将音量增大的量。又例如,用户102可以挥动五次来向媒体中心106提供输入以使电视频道切换到频道号“5”,或者,执行使用系数“5”的另一操作。除了媒体功能以外,一个或多个挥动姿态的检测还可以导致计算机例如在查阅过查找表之后调用任何功能,其中,被计数的挥动的数量可被用作查找表的输入。
图2是用来实施姿态识别的设备200的框图。简单地说,设备200至少包括用户接口201、存储介质202、相机204、处理器205和倾斜传感器209。
用户接口201是用于允许用户和设备200或者用户和由设备200调用的应用进行交互的机制。用户接口201可以提供用于输入和输出两者的机制,允许用户操纵设备或者使设备产生用户操纵的效果。设备200可以利用任何类型的用户接口201,例如图形用户接口(GUI)、语音用户接口,或者触觉用户接口。
用户接口201可以被配置成表现可视显示图像。例如,用户接口201可以是监视器、电视、液晶显示器(LCD)、等离子体显示设备、具有投影仪屏幕的投影仪、自动立体显示器、阴极射线管(CRT)显示器、数字光处理(digital light processing,DLP)显示器,或者任何其他类型的被配置成表现显示图像的显示设备。用户接口201可以包括一个或多个显示设备。在某些配置中,用户接口201可以被配置成显示和应用相关联的图像,例如由应用产生的显示图像,其包括例如虚拟人(avatar)的表示或者目标。
存储介质202存储和记录信息或者数据,并且可以是光存储介质、磁性存储介质、闪存,或者任何其他存储介质类型。至少利用词汇表210和姿态识别模块214对存储介质进行编码。
词汇表210包括关于设备200可以识别的姿态的信息。例如,词汇表210可以包括姿态定义,所述姿态定义针对每个被识别的姿态描述对应于姿态的形状(即,线)、采样的运动历史数据的曲线图预期表现出的模式,以及可用来控制姿态接受或者拒绝的各种阈值参数或者标准。
姿态识别模块214接收由运动传感器(例如相机204和/或倾斜传感器209)捕获的运动数据,并将接收的运动数据和存储在词汇表210中的运动数据进行比较以确定是否已做出可识别的姿态。例如,姿态识别模块可以画出沿着内接在所接收的运动数据中的形状采样的运动历史数据值,并将作为结果的曲线图和存储在词汇表210中的预期的曲线图进行比较。
相机204是用来捕获图像的设备,所述图像或者是静态照片,或者是运动图像序列。相机204可以使用可见频谱的光或者利用电磁频谱的其他部分,例如红外。例如,相机204可以是数码相机、数字摄像机,或者任何其他类型的被配置成捕获图像的设备。相机204可以包括一个或多个相机。在某些例子中,相机204可以被配置成捕获和应用进行交互的用户或者目标的图像。例如,相机204可以被配置成捕获在相机204的视场内用身体在自由空间(例如包围用户的空气)中做姿态表达或者和应用进行交互的用户或者人的图像。
相机204可以是立体相机、飞行时间相机,或者任何其他相机。例如,相机204可以是能够采样背景图像以便检测用户的运动和类似地检测用户的姿态的图像检测器。相机204可以产生灰度图像、彩色图像,或者距离图像,例如能够产生距离图像的立体相机或者飞行时间相机。立体相机可以包括两个在略微不同的视点获取图像的图像传感器,其中,处理器比较从不同的视点获取的图像以计算图像的部分的距离。飞行时间相机可以包括产生光脉冲的发射器,所述光可以是红外光,其中,测量光脉冲从发射器传播到目标并回到传感器的时间以计算图像的部分的距离。
设备200通过有线或者无线路径在电气上连接到相机204和用户接口201,并可操作与它们的通信,并被配置成控制处理器205的操作以提供增强控制。在一种配置中,设备200使用处理器205或者其他的控制电路来执行提供增强的基于相机的输入的应用。尽管相机204可以是和设备200通信的单独的单元(例如网络相机),但是在其他的实施方案中,相机204被内嵌于设备200中,并通过内部总线和设备200的其他部件(诸如处理器205)通信。例如,相机204可以被内嵌于电视或者机顶盒中。
尽管设备200已经被描述为个人计算机(PC)或者机顶盒,但是仅仅是为了简洁的目的才做出这样的描述,并且预期其他的实施方案或者表现形式。例如,设备200可以被实施为电视、超移动个人计算机(ultra-mobile personal computer,UMPC)、移动国际互联网设备(mobile internet device,MID)、数码相框(digital picture frame,DPF)、便携式媒体播放器(portable media player,PMP)、通用或者专用计算机(例如台式计算机、工作站或者膝上型计算机)、服务器、游戏设备或者控制台,或者任何其他类型的包括处理器或者其他被配置成执行指令的控制电路的电子设备,或者任何其他的包括用户接口的装置。
在一个示例性实施方案中,通过使用相机检测做出姿态的用户的图像来发生输入。例如,移动电话可以被放置在桌子上,并且可操作以使用面朝前方相机(face-forward camera)产生用户的图像。例如,所检测的“左挥击”姿态可以将图像向左摇,并且所检测的“右挥击”姿态可以将图像向右摇。或者,使用倾斜传感器209可以识别或者检测姿态,例如通过检测“向左倾斜”姿态将表示向左移动并将图像向左摇或者将图像逆时针旋转,或者,通过检测“向右前倾斜”姿态以便将表示向中间位置(neutral position)的上和右移动,以便放大并将图像向右摇。
因此,倾斜传感器209可以是任何类型的可操作以检测设备200的角位置的模块,例如陀螺仪、加速度计或者基于相机的光流追踪器。就此而言,通过倾斜传感器输入可以对基于图像的输入进行补充或者替代以执行用户期望的功能或者命令。或者说,不使用相机,或者不检测图像内的用户就可以发生用户的姿态的检测。通过以和用户期望操纵用户接口上的图像相同种类的摆动模式(stroke pattern)来移动设备,使用户能够以直接方式控制相同接口或者应用。
图3是流程图,示出了实现响应于识别的姿态的功能调用的计算机实施过程300。简单地说,计算机实施过程300包括:在运动数据内定义形状;在和被定义的形状对齐的点处采样运动数据;基于采样的运动数据,确定随着时间移动目标沿着被定义的形状的位置;基于确定的位置所表现出的模式确定移动目标是否正在做出和定义的形状相关的姿态;以及,如果已经确定(如果确定)移动目标正在做出所述姿态则控制应用。
更具体地,当过程300开始时(S301),在运动数据内定义形状(S302)。运动数据可以由运动历史图提供(例如图1的图120)。可以从随着时间拍摄的用户的多个图像生成运动历史图。运动历史图可以指示用户的随着时间的运动,并且可以提供运动数据,所述运动数据包括针对图像的每个点自从在该点检测到移动目标以来的时间的指示。形状可以在运动数据内定义而无需在用户接口上使形状或者运动数据可视化。
运动数据可以包括被确定具有运动的相邻点的组。对于每一点组,围绕该组可以定义边界框。由于故意的姿态一般将导致比无意的姿态更大的点组,所以在某些实施方案中,出于姿态检测的目的,只有最大的点组可以被视为和候选姿态相关联。但是,在其他的方法中,较小的点组将被首先考虑、点组均将被同时考虑,或者这些组将被基于尺寸或者其他标准依次考虑。
例如线段的形状可以被内接在运动数据内部,或者在运动数据内部定义,其中,可以针对最大的边界框定义形状的尺寸和位置。例如,如图4中所示,可以定义通过边界框406的中心404的水平线段402。可以定义其他的线段,例如线段408或者线段410。线段408是能够装入边界框406内部的分组点内的最长线段。线段410是能够装入边界框406内部的分组点内的最长水平线段。可以定义其他的形状,例如弧412。弧412可以类似前后挥动的用户的手的略微弯曲的运动。
返回图3,在形状已被定义以后,在和被定义的形状对齐的点处采样运动数据(S304)。例如,采样点可以沿着内接线段的边缘对齐。采样数量可以是固定数量(例如1000个采样),或者,采样数量可以基于形状的尺寸(例如,较大的形状可能导致比较小形状更多的样本点)。采样点可以以固定和/或预先确定的距离彼此分开地间隔。在某些实施方案中,在特定姿态至少已被识别一次以后,可以使用较小的样本大小。
在运动数据被采样以后,基于采样的运动数据,可以随着时间确定移动目标沿着定义的形状的位置。例如,可以确定沿着定义的线段的手的位置。在用户手的最后位置的区域中所取的采样点一般将具有相对较高的运动数据历史值(例如,指示用户手的最近的运动)。通过将阈值测试应用于沿着线段采样的点,不那么近来的运动可以被过滤掉或者被忽略。具有小于阈值的运动历史数据值的采样点可被过滤(见图1B)。
通过从剩余的未被过滤的点选择点,可以识别用户手的最近位置。例如,可确定未被过滤的点的区域,并且在该区域内可以选择中值点。其他的示例性点选择方法包括:在包括未被过滤点的区域的边缘上选择点、选择随机点、在未被过滤点中选择具有最高运动历史数据值的点,或者,选择具有和未被过滤点中的平均运动历史数据值相等的运动历史数据值的点。
被检测的手的位置可以被表达为线段的长度的百分比。例如,0%的检测位置可以对应于在线段的最左侧上的位置。100%的检测位置可以对应于在线段的最右侧上的位置。检测的位置可以存储在检测位置的历史中。因为运动数据内形状的定义是动态的,所以通过先前被指定为0%或者100%位置的形状端点的用户的手运动导致形状被延伸,并且更加末端的手位置被指定为新的0%或者100%位置。
在移动目标的位置被确定以后,基于由确定的位置表现出的模式确定移动目标是否正在做出和定义的形状相关的姿态(S308)。例如,可以在曲线图上画出确定的手位置(例如图1的曲线图140)。可以将曲线图的形状和当做出特定定义的姿态时预期出现的曲线图形状的模式进行比较。例如,可以将正弦模式或者阶梯正弦模式预期作为做出挥动姿态的结果。
例如,如图5中所示,曲线图500表现出正弦模式。曲线图500显示了被画出的已随着时间检测到的手位置502-532。曲线图500包括七个正弦周期。因此,可以检测多达七个挥动姿态。在所画出的位置502-506之间存在示例性正弦周期。
在曲线图500上可以执行各种测试以确定是否表现一个或多个可接受的正弦模式。例如,可以执行测试来确定正弦周期是否包括位于下阈值位置540处或其下的第一个被画出的手位置(例如位置502),跟着是位于上阈值位置542处或其上的第二个被画出的手位置(例如位置504),跟着是位于下阈值位置540处或其下的第三个被画出的手位置(例如位置506)。例如,基于这样的测试,下列的正弦周期(被描述为一组被画出的手位置):502-506、506-510、510-514、514-518、518-522、522-526、526-530,可被视为可接受。
在图6中的曲线图600中示出了不可被接受为和挥动姿态对应的正弦周期的例子。曲线图600画出了随着时间检测的手位置。被画出的手位置602-606构成了正弦周期。被画出的手位置602可以是可接受的,因为其在下阈值610以下,并且被画出的手位置604可以是可接受的,因为其在上阈值位置612以上。但是,被画出的手位置606可能是不可接受的,因为其在下阈值位置601以上。被画出的手位置602-606可以对应于以下情形:用户的手起初靠近其身体(即位置602),此后用户移动其手离开其身体(即位置604),但随后将其手往回朝着其身体移动到一半(即位置606)。换句话说,由于被画出的位置606未经过下阈值位置610,所以可以确定用户没有“完成”挥动姿态。
可能不可接受的正弦周期的又一例子是包括被画出的手位置614、616和602的正弦周期。被画出的手位置614可以是可接受的,因为其在下阈值位置610以下。但是,被画出的手位置616可能是不可接受的,因为其不在上阈值位置612以上。被画出的手位置602可以是可接受的,因为其在下阈值位置610以下。被画出的手位置614、616和602对应于用户没有“完成”挥动姿态的情形。换句话说,用户的手起初靠近其身体(即位置614),此后用户移动其手离开其身体,但是仅仅到一半(即位置616),然后将其手往回朝着其身体移动(即位置602)。
可以执行其他的阈值测试。例如,可以测试挥动周期的宽度。如果正弦周期太窄或者太宽,则该正弦周期可能不可被接受为对应于挥动姿态。宽正弦周期,例如图6中所示的在被画出的手位置618、620和622之间的正弦周期可以对应于用户缓慢地来回移动其手。手位置618-622之间的正弦周期是否构成挥动可以依赖于阈值。
例如,可以使用三秒的阈值。可以计算点622和点618之间的时间差并将其与阈值进行比较。如果该时间差大于阈值,则可拒绝正弦周期对应于挥动姿态,因为用户花了太长时间来完成挥动姿态。又例如,如果图5中的点510和514之间计算的时间差(例如2秒)小于阈值(例如3秒),则点510-514之间的正弦周期可被接受为对应于挥动姿态。
图7中示出了可能花了太长时间来完成的挥动姿态的又一例子。用户使用其手704做出挥动姿态702。在用户于时间点t1将其手704移动到右边以后,用户在时间点t2、t3和t4期间暂停(例如保持其手704静止),然后在时间点t5将其手704往回移动到左边。曲线图706画出了随着时间检测的手位置。由于在曲线图706顶部平台(对应于时间点t1到t4)处连续的相同值位置使曲线图706的正弦形状加宽所致,可以根据超过定时阈值来拒绝姿态702。
可将沿着图5-图6中曲线图的各种位置用于阈值测试。如已经描述的那样,可以通过计算正弦周期的峰和/或谷之间的时间差执行测试。也可以基于其他位置执行时间差和其他计算。例如,可以基于将正弦周期首次沿向上方向经过上阈值位置(例如542)的地方(例如位置550)与正弦周期沿相同方向再次经过上阈值的地方(例如552)进行比较执行计算。又例如,阈值测试可以基于将曲线图沿一个方向经过阈值位置的地方(例如沿向上方向经过上阈值位置542,如位置552所示)和曲线图沿另一方向经过相同阈值位置的地方(例如位置554所示)进行比较。
可以由于多于一种原因拒绝曲线图的部分对应于一个或多个挥动姿态。例如,在图6中,位置622、614和604之间的曲线图部分624具有上阈值位置612以上的值(例如在位置622)、下阈值位置610以下的值(例如在位置614),以及在上阈值位置612以上的另一值(例如在位置604)。虽然也许满足经过上和下阈值位置的标准,但是可以由于多个其他原因来拒绝曲线图部分624。
例如,基于位置604和622的定时差可能超过阈值。换句话说,用户可能花了太长时间来再次将其手完全移动到右边。也可以由于违犯方向条件而拒绝曲线图部分624。位置626指示用户在经过下阈值位置610之前逆转方向,并且位置628指示用户在经过上阈值位置612之前再次逆转方向。
图8示出了用户在将其手完全移动到侧面之前逆转方向的场景。用户利用其手804做出来回姿态802。在时间点t1,用户正将其手804移动到右边,然后在时间点t2,将其手804往回移动到左边。但是,虽然差不多回到左边的一半,但是在时间点t4将其手804往回移动到左边之前,用户在时间点t3逆转方向并将其手804短暂地移动到右边。在时间点t5,用户的手804在最左边。曲线图806画出了和姿态802对应的检测的手位置。由于峰808(对应于用户在时间点t4的方向逆转)未到达足够高和/或谷810(对应于用户在时间点t3的方向逆转)未到达足够低所致,可以拒绝曲线图806和正弦模式匹配。
返回图3,定义的姿态可以是单个比划(stroke)形状。姿态可以代表字母数字字符(例如“O”、“8”),或者某个其他的符号或者函数(例如无穷大符号)。一般地,姿态旨在指示表达想法、观点、情绪、沟通、命令、演示或者表情的移动、位置、姿势或者体态。用户可以在持有手持设备的同时做姿态表达,或者,用户可以在其身体的部分上穿戴设备的同时使用一个或多个身体部分做姿态表达。例如,用户的姿态可以是单个或多个手指姿态;单个手姿态;单个手和手臂姿态;单个手和手臂以及身体姿态;双手姿态;头姿势或体态;眼睛位置;面部表情;身体姿势或者体态,或者任何其他表现性身体状态。
用户的姿态可以表达“使能”或者“约定”姿态。约定姿态可以是做出保持了预先确定的时间量的姿势表达的特定手姿势或者手运动序列。一个示例性约定姿态是用户持有手持设备不动三秒钟。另一个例子是在持有手持设备的同时由用户在其面部前方伸出其手臂,并在其头前方按圆圈移动其手臂做出的圆周手运动。又例如,约定姿态可以是用户摇动设备。本质上,约定姿态向设备指明用户为进一步输入的发生做好准备。为减少错误,约定姿态可以是非典型姿态,例如将不会在正常对话期间用身体语言下意识做出的姿态,或者在正常人类活动的一般行为中将不会做出的姿态。
可以得出定义用户的想法、观点、情绪、沟通、命令、演示或者表情的姿态。例如,用户的姿态可以是单个或者多个手指姿态、单个手姿态、单个手和手臂姿态;单个手和手臂以及身体姿态;双手姿态;头姿势或体态上的变化;眼睛位置的变化;面部表情的变化;在持有设备的同时手的移动、身体姿势或者体态的变化,或者任何其他表现性身体状态的变换。
为了简洁,用来做出相关姿态的身体部分一般被称为“控制目标”。例如,用户可以使用其整个身体或者利用其他物理目标表达命令,在这种情况下,其整个身体或者其他物理目标可以是控制目标。用户可以通过眨眼、通过扩展其鼻孔或者通过快速摆动手指更精细地表达命令,在这种情况下,眼皮、鼻子或者手指可以是控制对象。控制对象也可以是物理设备,举几个例子,例如红外手指灯、移动设备、腕表设备、回复反射器,或者遥控器。
有很多从运动数据确定用户的姿态的方法。例如,可以通过使用手、手臂、身体、头或者其他目标位置信息的姿态分析和检测过程来检测“在空气中画圆”或者“将手挥击到一侧”姿态。尽管姿态可涉及两维或者三维位置位移,例如当做出挥击姿态时,但是在其他的实例中,姿态包括没有伴随的位置位移的变换。例如,如果手利用五个伸出的手指和手掌向前发信号通知“停止”,则如果所有五个手指缩成拳而手掌保持向前,则用户的姿态变化,即使手或者手臂的总体位置保持静止。
可以使用启发式技术检测姿态,例如通过对手或者设备位置信息是否通过显式的规则集合进行确定。例如,如果满足下列姿态检测规则,则可以识别“将手挥击到一侧”姿态:(1)在小于预先定义的限制的时间跨度上,水平位置上的变化大于预先定义的距离;(2)在该时间跨度上水平位置单调变化;(3)在该时间跨度上垂直位置上的变化小于预先定义的距离;以及(4)在该时间跨度的末尾的位置比该时间跨度开始处的位置更靠近手检测区域的边界,或者在边界上。
某些姿态利用多个规则集合,这些规则集合按明确的顺序被执行并被满足,其中,规则集合的满足导致系统改变到应用不同的规则集合的状态。这个系统可能不能检测精细的姿态,在这种情况下,可以使用隐式马尔可夫模型,因为这些模型允许特定运动的链被检测,而且也考虑这些运动充分地和姿态配合的总体概率。
为了实现复杂命令的输入并增加输入选项的数量,用于识别用户的姿态的过程还可以包括识别第一方向上的第一位移,和识别第二方向上的第二位移,并将这多个位移聚集为单个姿态。此外,用户姿态的识别可以确定用户姿态的幅度和方向。
回到图3,如果确定移动目标已经做出姿态,则应用被控制(S310),从而结束过程300(S312)。举几个例子,在媒体播放器上可以增大音量,可以启动应用,可以关闭应用或者设备,或者可以发送电子邮件消息。例如,通过查询将姿态映射到功能的映射数据库,可以确定要响应姿态执行的功能。可以将检测的挥动数量作为输入提供给被执行的功能。例如,检测的挥动数量可以被作为输入提供给“快速拨号”功能,挥动计数标识电话呼叫或者文本消息接收人。
图9示出了正方形姿态901的检测。用户902正站在相机904和媒体中心906前面。用户902以正方形姿态901移动其左手908。在时间点t0和t2,之间,用户902将其手908从右向左移动(从读者的角度)。在时间点t2和时间点t4之间,用户902沿向下方向移动其手908。在时间点t4和时间点t6之间,用户902将其手908从左向右移动。在时间点t6和时间点t8之间,用户902沿向上方向移动其手908,手908在其开始的时间点t0处完成。
运动历史图910在边界框914内部包括一组检测点912。线段916-922已内接在点组912内部。对于线段916-922中的每个,可以随着时间对检测的手位置进行检测。检测的手位置可以在曲线图924-930上画出,每个曲线图924-930和线段916-922中的一个相关联。
例如,曲线图924画出沿着水平线段916检测的手位置(即对应于正方形姿态901的顶部)。曲线图926画出沿着垂直线段918检测的手位置(即对应于正方形姿态901的左侧)。曲线图928画出沿着水平线段920检测的手位置(即对应于正方形姿态901的底部)。曲线图930画出沿着垂直线段922检测的手位置(即对应于正方形姿态901的右侧)。
曲线图924示出了随着时间沿着水平线段916检测的手位置。可以定义位置,以使“0%”的位置值指示线段916最右侧上的位置,并且“100%”的位置值指示线段916最左侧上的位置。例如,如曲线图924中所示,在时间点t0,用户的手908在线段916的最右侧(即0%的位置),并且在时间点t2,用户的手908在线段916的最左侧(即100%的位置)。在时间点t8,在线段916的最左侧上再次检测到用户的手908。
曲线图926示出了随着时间沿着垂直线段918检测的手位置。可以定义位置,以使“0%”的位置值指示线段918顶部上的位置,并且“100%”的位置值指示线段918底部上的位置。例如,如曲线图926中所示,在时间点t2,用户的手908在线段918的顶部(即0%的位置),并且在时间点t4,用户的手908在线段918的底部(即100%的位置)。
曲线图928示出了随着时间沿着水平线段920检测的手位置。可以定义位置,以使“0%”的位置值指示线段920最左侧上的位置,并且“100%”的位置值指示线段920最右侧上的位置。例如,如曲线图928中所示,在时间点t4,用户的手908在线段920的最左侧(即0%的位置),并且在时间点t6,用户的手908在线段920的最右侧(即100%的位置)。
曲线图930示出了随着时间沿着垂直线段922检测的手位置。可以定义位置,以使“0%”的位置值指示在线段922底部的位置,并且“100%”的位置值指示在线段922顶部的位置。例如,如曲线图930中所示,在时间点t6,用户的手908在线段922的底部(即0%的位置),并且在时间点t8,用户的手908在线段922的顶部(即100%的位置)。
可以检查曲线图924-930的集合以确定正方形姿态901是否已被做出。即,曲线图924-930中的每个均可以被检测以确定每个曲线图是否指示出现了和正方形姿态901的有关侧对应的子姿态(例如通过将曲线图表现出的模式和预期的曲线图模式进行比较)。如果曲线图924-930中的每个均指示出现了子姿态,并且如果对于定时考虑曲线图924-930彼此对齐,则可以做出关于正方形姿态901的检测的总体确定。如果检测到正方形姿态,则可以控制应用,例如呼叫和用户902相关联的联系人列表中的个人。
图10是包括和做出的挥动姿态相关联的运动历史图1002的用户接口1000。线段1004被内接在包围指示检测到的运动的点的边界框内部。曲线图1006显示了随着时间沿着线段1002检测的用户的手的位置。曲线图1006的形状具有看起来有点像正弦波模式的部分,但是挥动计数标签1008指示还未检测到挥动姿态(也许由于一个或多个阈值测试的失败所致)。
用户接口1000包括可用于配置姿态检测的控制。例如,控制1010可以用来定义控制运动历史值衰退之前的时间长度的持久性值。又例如,控制1012可以用来定义所要求的在挥动姿态中所包括的“挥击”(即,在来回运动中运动到一侧)的数量。
其他的配置控制例子包括高挥动阈值1014和低挥动阈值1016以及定时可接受性1018。高挥动阈值1014和低挥动阈值1016是百分比,在其上(和下),运动历史数据可以通过,以便作为挥动段计数。定时可接受性1018是乘数,通过其判断挥动中的每一段。利用0.1的定时可接受性值1018,挥动段可以被要求在其他挥动段的平均值的90%-110%以内。利用0.2的定时可接受性值1018,挥动段可以被要求在80%-120%以内。换句话说,较低的定时可接受性值1018对应于更好的定时一致性。
图11是包括和做出的挥动姿态相关联的运动历史图1102的用户接口1100。线段1104被内接在包围指示检测到的运动的点的边界框内部。曲线图1106显示了随着时间沿着线段1102检测的用户的手的位置。曲线图1106的部分表现出正弦模式。挥动计数标签1108指示已经检测到6次挥动姿态。
图12是可用来作为客户端或者服务器或者多个服务器实施在本文档中描述的系统和方法的计算设备1200、1250的框图。预期计算设备1200代表各种形式的数字计算机,例如膝上型计算机、台式计算机、工作站、个人数字助理、服务器、刀片服务器、大型机,以及其他的合适的计算机。预期计算设备1250代表各种形式的移动设备,例如个人数字助理、蜂窝电话、智能电话,以及其他类似的计算设备。这里示出的部件、它们的连接和关系,以及它们的功能只意味着示范性的,而不意味着限制在本文档中描述和/或做出要求的方法的实施方案。
计算设备1200包括处理器1202、存储器1204、存储设备1206、连接到存储器1204和高速扩展端口1210的高速接口1208,以及连接到低速总线1214和存储设备1206的低速接口1212。部件1202、1204、1206、1208、1210和1212中的每个使用各种总线互连,并且可以安装在公共母板上或者用其他适当的方式。处理器1202可以处理用于在计算设备1200内执行的指令,包括在存储器1204中或者存储设备1206上存储的指令,以便在例如耦合到高速接口1208的显示器1216的外部输入/输出设备上显示用于GUI的图形信息。在其他的实施方案中,可以适当地使用多个处理器和/或多个总线,以及多个存储器和存储器类型。而且,可以连接多个计算设备1200,每个设备提供必要操作的部分(例如作为服务器组(server bank),一组刀片服务器,或者多处理器系统)。
存储器1204存储计算设备1200内的信息。在一个实施方案中,存储器1204是计算机可读介质。在一个实施方案中,存储器1204是易失性存储器单元。在另一实施方案中,存储器1204是非易失性存储器单元。
存储设备1206能够为计算设备1200提供海量存储。在一个实施方案中,存储设备1206是计算机可读介质。在各种不同的实施方案中,存储设备1206可以是软盘设备、硬盘设备、光盘设备,或者磁带设备、闪存或者其他类似的固态存储设备,或者设备的阵列,包括存储区域网络或者其他结构中的设备。在一个实施方案中,计算机程序产品被具体实施在信息载体中。计算机程序产品包含指令,在执行所述指令时执行例如上面所述的一个或多个方法。信息载体是计算机或者机器可读介质,例如存储器1204、存储设备1206,或者存储器1202上的存储器。
高速控制器1208管理计算设备1200的带宽密集(bandwidth-intensive)操作,而低速控制器1212管理较低带宽密集操作。这种职责分配仅仅是示范性的。在一个实施方案中,高速控制器1208耦合到存储器1204、显示器1216(例如通过图形处理器或者加速器),并且耦合到高速扩展端口1210,高速扩展端口1210可以接纳各种扩展卡(未示出)。在该实施方案中,低速控制器1212耦合到存储设备1206和低速扩展端口1214。可以包括各种通信端口(例如USB、蓝牙、以太网、无线以太网)的低速扩展端口可以,例如通过网络适配器,耦合到一个或多个输入/输出设备,例如键盘、指点设备、扫描仪,或者,例如交换机或者路由器的联网设备。
如图中所示,可以用许多不同形式实施计算设备1200。例如,其可以被实施为标准服务器1220,或者在一组这样的服务器中实施多次。其也可以被实施为机架服务器系统1224的一部分。此外,其可以被实施在例如膝上型计算机1222的个人计算机中。或者,来自计算设备1200的部件可以和例如设备1250的移动设备中的其他部件(未示出)组合。这些设备中的每个均可以包含计算设备1200、1250中的一个或多个,并且,整个系统可以由多个相互通信的计算设备1200、1250组出。计算设备1200可以包括一个或多个传感器(未示出),例如陀螺仪、相机或者GPS(全球定位卫星)追踪器,被配置成检测或者感测计算设备1200的运动或者位置。
计算设备1250至少包括处理器1252、存储器1264、例如显示器1254的输入/输出设备、通信接口1266和收发器1268。设备1250也可以配备存储设备,例如微驱动器或者其他设备,以提供额外的存储。部件1250、1252、1264、1254、1266和1268中的每个使用各种总线互连,并且这些部件中的几个可以被安装在公共母板上,或者以其他适当的方式。计算设备1250可以包括一个或多个传感器(未示出),例如陀螺仪、相机或者GPS(全球定位卫星)追踪器,被配置成检测或者感测计算设备1200的运动或者位置
处理器1252可以处理用于在计算设备1250中执行的指令,包括存储在存储器1264中的指令。处理器也可以包括单独的模拟和数字处理器。处理器可以提供,例如用于设备1250的其他部件的协同,例如用户接口、由设备1250运行的应用,以及设备1250的无线通信的控制。
处理器1252可以通过控制接口1258和耦合到显示器1254的显示接口1256和用户通信。显示器1254可以是例如TFT LCD显示器或者OLED显示器,或者其他适当的显示器技术。显示接口1256可以包括用于驱动显示器1254向用户展现图形以及其他信息的适当电路。控制接口1258可以从用户接收命令,并将其转换用于提交给处理器1252。此外,在和处理器1252的通信中可以提供外部接口1262,以实现设备1250和其他设备的近程通信。以太网接口1262可以提供例如有线通信(例如通过对接过程)或者无线通信(例如通过蓝牙或者其他这种技术)。
存储器1264存储计算设备1250内的信息。在一个实施方案中,存储器1264是计算机可读介质。在一个实施方案中,存储器1264是易失性存储器单元。在另一实施方案中,存储器1264是非易失性存储器单元。扩展存储器1274也可以被提供,并通过扩展接口1272连接到设备1250,扩展接口1272可以包括例如SIMM卡接口。扩展存储器1274可以为设备1250提供额外的存储空间,或者也可以存储用于设备1250的应用或者其他信息。具体来说,扩展存储器1274可以包括实施或者补充上面描述的过程的指令,并且也可以包括安全信息。因此,例如,可以提供扩展存储器1274作为设备1250的安全模块,并且,可以利用允许设备1250的安全使用的指令来对扩展存储器1274进行编程。此外,安全应用以及额外的信息可以通过SIMM卡提供,例如以不可破解方式将标识信息放置在SIMM卡上。
如下面所讨论的那样,存储器可以包括例如闪存和/或MRAM存储器。在一个实施方案中,计算机程序产品被具体实施在信息载体中。计算机程序产品包含指令,所述指令在被执行时执行例如上面所述的一个或多个方法。信息载体是计算机或者机器可读介质,例如存储器1264、扩展存储器1274,或者处理器1252上的存储器。
设备1250可以通过通信接口1266无线地通信,必要的情况下通信接口1266可以包括数字信号处理电路。通信接口1266可以在各种模式或者协议下提供通信,例如GSM语音呼叫、SMS、EMS或者MMS信令、CDMA、TDMA、PDC、WCDMA、CDMA2000或者GPRS,等等。这些通信可以通过例如射频收发器1268发生。此外,短程通信可以发生,例如使用蓝牙、WiFi或者其他这种收发器(未示出)。此外,GPS接收机模块1270可以向设备1250提供额外的无线数据,所述数据可以被运行在设备1250上的应用适当地使用。
设备1250也可以使用音频编码解码器1260可听地通信,音频编码解码器1260可以从用户接收口头信息,并将其转换为可使用的数字信息。音频编码解码器1260同样可以为用户产生可听的声音,例如通过如设备1250的手持机中的扬声器。这些声音可以包括来自语音电话呼叫的声音,可以包括记录的声音(例如语音消息、音乐文件等),并且也可以包括由在设备1250上运行的应用产生的声音。
如图中所示,可以以许多不同形式来实施计算设备1250。例如,其可以被实施为蜂窝电话1280。其也可以被实施为智能电话1282、个人数字助理或者其他类似的移动设备的一部分。
这里描述的系统和技术的各种实施方案可以在数字电子线路、集成电路、专门设计的ASIC(专用集成电路)、计算机硬件、固件、软件,和/或其组合中实现。这各种实施方案可以包括一个或多个计算机程序中的实施方案,所述计算机程序可以在包括至少一个可编程处理器的可编程系统上执行和/或解释,所述处理器可以是专用或者通用的,被耦合成从存储系统、至少一个输入设备和至少一个输出设备接收数据和指令,并将数据和指令发送到该存储系统、至少一个输入设备和至少一个输出设备。
这些计算机程序(也叫做程序、软件、软件应用或者代码)包括用于可编程处理器的机器指令,并且可以用高级程序和/或面向对象编程语言,和/或用汇编语言实施。如这里所使用的,术语“机器可读介质”、“计算机可读介质”指任何用来向可编程处理器提供机器指令和/或数据的计算机程序产品、装置和/或设备(例如磁盘、光盘、存储器、可编程逻辑器件(PLD)),包括接收机器指令作为机器可读信号的机器可读介质。术语“机器可读信号”指用来向可编程处理器提供机器指令和/或数据的任何信号。
为了提供和用户的交互,这里描述的系统和技术可以在具有用于向用户显示信息的显示设备(例如CRT(阴极射线管)或者LCD(液晶显示器)监视器)以及键盘和指点设备(例如鼠标或者轨迹球)的计算机上实施,用户可以通过键盘和指点设备向计算机提供输入。其他种类的设备也可以用来提供和用户的交互,例如,提供给用户的反馈可以是任何形式的感知反馈(例如视觉反馈、听觉反馈或者触摸反馈),并且来自用户的输入可以被以任何形式接收,包括声音、语音或者触摸输入。
这里描述的系统和技术可以被在包括后端部件(例如作为数据服务器)或者包括中间件部件(例如应用程序服务器)或者包括前端部件(例如具有图形用户接口或者网络浏览器的客户端计算机,用户可以通过图形用户接口或者网络浏览器和这里描述的系统和技术的实施方案进行交互),或者这些后端、中间件,或者前端部件的任意组合的计算机系统中实施。系统的部件可以被数字数据通信的任何形式或者介质(例如通信网络)互连。通信网络的例子包括局域网(“LAN”)广域网(“WAN”)和国际互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般相互远离,并且通常通过通信网络进行交互。客户端和服务器的关系因运行在各计算机上并且相互具有客户端-服务器关系的计算机程序而产生。
已经描述了许多实施方案。尽管如此,将会理解不偏离本公开的精神和范围就可以做出各种修改。因此,其他的实施方案在下列权利要求的范围内。

Claims (21)

1.一种用计算机程序编码的计算机可读介质,所述计算机程序包含当被执行时工作以导致计算机执行操作的指令,所述操作包含:
在运动数据内定义形状;
在和定义的形状对齐的点处采样运动数据;
基于采样的运动数据,确定随着时间移动目标沿着定义的形状的位置;
基于确定的位置所表现出的模式确定移动目标是否正在做出姿态;以及
如果确定移动目标正在做出姿态则控制应用。
2.如权利要求1所述的计算机可读介质,其中:
所述运动数据包含运动历史图,所述运动历史图还包含针对图像的每点提供自从在该点检测到移动目标以来的时间的指示的运动历史数据值。
3.如权利要求2所述的计算机可读介质,其中,所述确定随着时间移动目标沿着被定义的形状的位置还包含:
在第一时间和第二时间:
选择和定义的形状对齐并且包含满足预先确定的阈值的采样运动历
史数据值的点,和
选择被选择的点其中之一;以及
将在第一时间和第二时间分别选择的一个点作为移动目标的第一位置和第二位置输出。
4.如权利要求3所述的计算机可读介质,其中,所述一个点包含被选择的点的中值、平均或者随机点。
5.如权利要求2所述的计算机可读介质,还包含当执行时导致计算机执行操作的指令,所述操作包含:
访问图像;以及
基于被访问的图像生成包括在运动历史图中的运动历史数据值。
6.如权利要求4所述的计算机可读介质,其中,使用光流生成所述运动历史图。
7.如权利要求2所述的计算机可读介质,其中,所述模式包含在随着时间确定的位置的曲线图上的正弦的一个周期的形状,所述确定的位置被表达为所述形状的单个维度的比例。
8.如权利要求2所述的计算机可读介质,其中,所述模式包含在随着时间确定的位置的曲线图上的阶梯正弦的一个周期的形状,所述确定的位置被表达为所述形状的单个维度的比例。
9.如权利要求2所述的计算机可读介质,还包含当执行时导致计算机执行操作的指令,所述操作包含:
针对每个点确定是否已经在预先确定的阈值内检测到移动目标;以及
将被确定已经在预先确定的阈值内检测到移动目标的运动的邻近点进行分组,
其中,在和定义的形状对齐的分组点的子集处采样所述运动数据。
10.如权利要求9所述的计算机可读介质,还包含当被执行时导致计算机执行操作的指令,所述操作包含:
定义围绕分组点的边界框,
其中,相对边界框来定义运动数据内的形状的大小和位置。
11.如权利要求10所述的计算机可读介质,其中:
所述形状包含线段或者弦。
12.如权利要求10所述的计算机可读介质,其中,所述形状包含能够装入分组点内的最长线段。
13.如权利要求1所述的计算机可读介质,还包含当执行时导致计算机执行操作的指令,所述操作包含:
在运动数据内检测点组;以及
选择点组其中之一,
其中,在一个选择的组内定义所述形状。
14.如权利要求13所述的计算机可读介质,其中,基于相对尺寸选择所述一个组。
15.如权利要求1所述的计算机可读介质,其中:
以和定义的形状对齐的点的采样数量来采样所述运动数据,以及
采样数量包含固定数量,或者基于被定义的形状的尺寸,或者包含和运动数据内定义的形状对齐的点的对齐数量。
16.如权利要求1所述的计算机可读介质,其中,基于由被确定的位置表现出的模式确定移动目标是否正在做出姿态还包含将模式和上阈值标准及下阈值标准以及定时标准进行比较。
17.如权利要求1所述的计算机可读介质,其中,所述姿态包含挥击或者挥动,手或者手指姿态。
18.如权利要求1所述的计算机可读介质,还包含当执行时导致计算机执行操作的指令,所述操作包含:
将确定的位置添加到运动历史,以及
检测模式是否存在于运动历史内。
19.如权利要求1所述的计算机可读介质,还包含当执行时导致计算机执行操作的指令,所述操作包含:
对做出姿态的数量进行计数。
20.一种计算机实施的方法,包含:
在运动数据内定义形状;
在和定义的形状对齐的点处采样运动数据;
基于采样的运动数据,确定随着时间移动目标沿着定义的形状的位置;
使用至少一个处理器基于确定的位置所表现出的模式确定移动目标是否正在做出姿态;以及
如果确定移动目标正在做出姿态则控制应用。
21.一种包含处理器的设备,所述处理器被配置成:
在运动数据内定义形状;
在和定义的形状对齐的点处采样运动数据;
基于采样的运动数据,确定随着时间移动目标沿着定义的形状的位置;
基于由确定的位置所表现出的模式确定移动目标是否正在做出姿态;和
如果确定移动目标正在做出姿态则控制应用。
CN200980137551.XA 2008-07-25 2009-07-24 挥动约定姿态的增强检测 Active CN102165396B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US8360508P 2008-07-25 2008-07-25
US61/083,605 2008-07-25
PCT/US2009/051698 WO2010011929A1 (en) 2008-07-25 2009-07-24 Enhanced detection of waving engagement gesture

Publications (2)

Publication Number Publication Date
CN102165396A true CN102165396A (zh) 2011-08-24
CN102165396B CN102165396B (zh) 2014-10-29

Family

ID=41570626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200980137551.XA Active CN102165396B (zh) 2008-07-25 2009-07-24 挥动约定姿态的增强检测

Country Status (6)

Country Link
US (2) US8605941B2 (zh)
EP (1) EP2327005B1 (zh)
JP (2) JP5432260B2 (zh)
CN (1) CN102165396B (zh)
ES (1) ES2648049T3 (zh)
WO (1) WO2010011929A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105122183A (zh) * 2013-02-11 2015-12-02 微软技术许可有限责任公司 检测自然用户输入参与
CN110069130A (zh) * 2013-02-22 2019-07-30 环球城市电影有限责任公司 追踪无源指挥棒和基于指挥棒路径启动效果的系统和方法

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
US20140321756A9 (en) * 2008-05-27 2014-10-30 Samsung Electronics Co., Ltd. System and method for circling detection based on object trajectory
WO2010011923A1 (en) 2008-07-24 2010-01-28 Gesturetek, Inc. Enhanced detection of circular engagement gesture
JP5432260B2 (ja) 2008-07-25 2014-03-05 クアルコム,インコーポレイテッド ウェーブエンゲージメントジェスチャの改良された検出
US20100027845A1 (en) * 2008-07-31 2010-02-04 Samsung Electronics Co., Ltd. System and method for motion detection based on object trajectory
US8433101B2 (en) * 2008-07-31 2013-04-30 Samsung Electronics Co., Ltd. System and method for waving detection based on object trajectory
US8744799B2 (en) * 2008-09-25 2014-06-03 Blackberry Limited System and method for analyzing movements of an electronic device
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8553931B2 (en) * 2009-02-11 2013-10-08 Samsung Electronics Co., Ltd. System and method for adaptively defining a region of interest for motion analysis in digital video
US8917239B2 (en) 2012-10-14 2014-12-23 Neonode Inc. Removable protective cover with embedded proximity sensors
US8643628B1 (en) 2012-10-14 2014-02-04 Neonode Inc. Light-based proximity detection system and user interface
US8593399B2 (en) * 2009-02-18 2013-11-26 Kabushiki Kaisha Toshiba Interface apparatus and method for controlling a device
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
DE102009057725A1 (de) * 2009-12-10 2011-06-16 Siemens Enterprise Communications Gmbh & Co. Kg Signalgebende Vorrichtung, Signalisiervorrichtung, Signalgebungsverfahren sowie Signalisierverfahren
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
JP5757063B2 (ja) * 2010-03-29 2015-07-29 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
JP5997699B2 (ja) * 2010-11-01 2016-09-28 トムソン ライセンシングThomson Licensing ジェスチャ入力を検知する方法と装置
CN103415825B (zh) * 2010-12-29 2016-06-01 汤姆逊许可公司 用于手势识别的系统和方法
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
US10088924B1 (en) * 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
JP5862143B2 (ja) * 2011-09-15 2016-02-16 オムロン株式会社 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
KR20130047890A (ko) * 2011-11-01 2013-05-09 삼성전기주식회사 원격 조정 장치 및 원격 조정 장치의 제스처 인식 방법
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
JP6316540B2 (ja) * 2012-04-13 2018-04-25 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びその制御方法
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
JP2013250637A (ja) 2012-05-30 2013-12-12 Toshiba Corp 認識装置
US9400575B1 (en) 2012-06-20 2016-07-26 Amazon Technologies, Inc. Finger detection for element selection
US9213436B2 (en) * 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
KR20140014548A (ko) * 2012-07-24 2014-02-06 삼성전자주식회사 전자 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체
US8819812B1 (en) * 2012-08-16 2014-08-26 Amazon Technologies, Inc. Gesture recognition for device input
US9268407B1 (en) * 2012-10-10 2016-02-23 Amazon Technologies, Inc. Interface elements for managing gesture control
US10324565B2 (en) 2013-05-30 2019-06-18 Neonode Inc. Optical proximity sensor
US10282034B2 (en) 2012-10-14 2019-05-07 Neonode Inc. Touch sensitive curved and flexible displays
US10585530B2 (en) 2014-09-23 2020-03-10 Neonode Inc. Optical proximity sensor
US9164625B2 (en) 2012-10-14 2015-10-20 Neonode Inc. Proximity sensor for determining two-dimensional coordinates of a proximal object
US9921661B2 (en) 2012-10-14 2018-03-20 Neonode Inc. Optical proximity sensor and associated user interface
US9741184B2 (en) 2012-10-14 2017-08-22 Neonode Inc. Door handle with optical proximity sensors
US20140118244A1 (en) * 2012-10-25 2014-05-01 Pointgrab Ltd. Control of a device by movement path of a hand
CN102932597B (zh) * 2012-11-02 2016-08-03 邱虹云 具有wifi接口的天文ccd相机控制器
US9245100B2 (en) * 2013-03-14 2016-01-26 Google Technology Holdings LLC Method and apparatus for unlocking a user portable wireless electronic communication device feature
US9666064B2 (en) * 2013-04-23 2017-05-30 Nec Corporation Information processing system, information processing method and storage medium
US10884493B2 (en) 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
TWI505135B (zh) * 2013-08-20 2015-10-21 Utechzone Co Ltd 顯示畫面的控制系統、輸入裝置及控制方法
KR101544022B1 (ko) 2013-09-10 2015-08-13 경북대학교 산학협력단 자세 추적 방법 및 자세 추적 장치
US9405366B2 (en) * 2013-10-02 2016-08-02 David Lee SEGAL Systems and methods for using imagined directions to define an action, function or execution for non-tactile devices
US20150185829A1 (en) * 2013-12-27 2015-07-02 Datangle, Inc. Method and apparatus for providing hand gesture-based interaction with augmented reality applications
US20150185827A1 (en) * 2013-12-31 2015-07-02 Linkedln Corporation Techniques for performing social interactions with content
US9429398B2 (en) 2014-05-21 2016-08-30 Universal City Studios Llc Optical tracking for controlling pyrotechnic show elements
US10061058B2 (en) 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
US9600999B2 (en) 2014-05-21 2017-03-21 Universal City Studios Llc Amusement park element tracking system
US9433870B2 (en) 2014-05-21 2016-09-06 Universal City Studios Llc Ride vehicle tracking and control system using passive tracking elements
US10025990B2 (en) 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
US10207193B2 (en) 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US9616350B2 (en) 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
US9958946B2 (en) 2014-06-06 2018-05-01 Microsoft Technology Licensing, Llc Switching input rails without a release command in a natural user interface
JP5932082B2 (ja) * 2015-03-04 2016-06-08 株式会社東芝 認識装置
WO2016168982A1 (zh) * 2015-04-21 2016-10-27 华为技术有限公司 一种设置指纹识别器中断阈值的方法、装置和终端设备
US20180089519A1 (en) * 2016-09-26 2018-03-29 Michael Raziel Multi-modal user authentication
US10416757B2 (en) * 2016-12-08 2019-09-17 Raymond Maurice Smit Telepresence system
EP3570740B1 (en) 2017-01-23 2023-08-30 Naqi Logix Inc. Apparatus and method for using imagined direction to perform at least one action
WO2018156970A1 (en) 2017-02-24 2018-08-30 Flir Systems, Inc. Real-time detection of periodic motion systems and methods
CN107633227B (zh) * 2017-09-15 2020-04-28 华中科技大学 一种基于csi的细粒度手势识别方法和系统
US20200012350A1 (en) * 2018-07-08 2020-01-09 Youspace, Inc. Systems and methods for refined gesture recognition
US11442550B2 (en) * 2019-05-06 2022-09-13 Samsung Electronics Co., Ltd. Methods for gesture recognition and control
KR20220098024A (ko) 2019-12-31 2022-07-08 네오노드, 인크. 비 접촉식 터치 입력 시스템
US11282267B2 (en) 2020-07-02 2022-03-22 Cognizant Technology Solutions India Pvt. Ltd. System and method for providing automated data visualization and modification
CN116457744A (zh) * 2020-11-13 2023-07-18 创峰科技 隔空摆动手势的识别方法
CN113469081B (zh) * 2021-07-08 2023-06-06 西南交通大学 一种运动状态识别方法
WO2024115395A1 (en) * 2022-11-28 2024-06-06 Ams-Osram Ag Method for calculating a trajectory of an object, system, computer program and computer-readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030058111A1 (en) * 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Computer vision based elderly care monitoring system
US20060210112A1 (en) * 1998-08-10 2006-09-21 Cohen Charles J Behavior recognition system
JP2007172577A (ja) * 2005-11-25 2007-07-05 Victor Co Of Japan Ltd 操作情報入力装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5523775A (en) 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
US5452371A (en) 1992-05-27 1995-09-19 Apple Computer, Inc. Method of aligning shapes on a display of a computer system
US5687254A (en) 1994-06-06 1997-11-11 Xerox Corporation Searching and Matching unrecognized handwriting
JP3416268B2 (ja) * 1994-06-30 2003-06-16 キヤノン株式会社 画像認識装置及びその方法
KR19990011180A (ko) 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6574266B1 (en) 1999-06-25 2003-06-03 Telefonaktiebolaget Lm Ericsson (Publ) Base-station-assisted terminal-to-terminal connection setup
JP2001111881A (ja) 1999-10-07 2001-04-20 Internatl Business Mach Corp <Ibm> 撮像装置及びその遠隔操作方法
EP1837858B1 (en) * 2000-01-11 2013-07-10 Yamaha Corporation Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
SE0000850D0 (sv) 2000-03-13 2000-03-13 Pink Solution Ab Recognition arrangement
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
JP2003316510A (ja) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。
US6984208B2 (en) 2002-08-01 2006-01-10 The Hong Kong Polytechnic University Method and apparatus for sensing body gesture, posture and movement
EP1408443B1 (en) * 2002-10-07 2006-10-18 Sony France S.A. Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition
JP2004171476A (ja) * 2002-11-22 2004-06-17 Keio Gijuku ハンドパターンスイッチ装置
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050196015A1 (en) * 2004-03-02 2005-09-08 Trw Automotive U.S. Llc Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
JP5038296B2 (ja) 2005-05-17 2012-10-03 クアルコム,インコーポレイテッド 方位感受性信号出力
JP4569555B2 (ja) 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
US7721207B2 (en) * 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
GB2453675B (en) 2006-10-10 2009-09-23 Promethean Ltd Pointing device specific applications/areas for interactive surface
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8007110B2 (en) * 2007-12-28 2011-08-30 Motorola Mobility, Inc. Projector system employing depth perception to detect speaker position and gestures
WO2010011923A1 (en) 2008-07-24 2010-01-28 Gesturetek, Inc. Enhanced detection of circular engagement gesture
JP5432260B2 (ja) 2008-07-25 2014-03-05 クアルコム,インコーポレイテッド ウェーブエンゲージメントジェスチャの改良された検出
US8180368B2 (en) 2008-11-11 2012-05-15 Trueposition, Inc. Femto-cell location by direct methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060210112A1 (en) * 1998-08-10 2006-09-21 Cohen Charles J Behavior recognition system
US20030058111A1 (en) * 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Computer vision based elderly care monitoring system
JP2007172577A (ja) * 2005-11-25 2007-07-05 Victor Co Of Japan Ltd 操作情報入力装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105122183A (zh) * 2013-02-11 2015-12-02 微软技术许可有限责任公司 检测自然用户输入参与
US9785228B2 (en) 2013-02-11 2017-10-10 Microsoft Technology Licensing, Llc Detecting natural user-input engagement
CN105122183B (zh) * 2013-02-11 2018-01-26 微软技术许可有限责任公司 检测自然用户输入参与
CN110069130A (zh) * 2013-02-22 2019-07-30 环球城市电影有限责任公司 追踪无源指挥棒和基于指挥棒路径启动效果的系统和方法
US11373516B2 (en) 2013-02-22 2022-06-28 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path

Also Published As

Publication number Publication date
EP2327005A4 (en) 2016-08-24
ES2648049T3 (es) 2017-12-28
JP2014053045A (ja) 2014-03-20
US8737693B2 (en) 2014-05-27
CN102165396B (zh) 2014-10-29
WO2010011929A1 (en) 2010-01-28
US20100040292A1 (en) 2010-02-18
JP5432260B2 (ja) 2014-03-05
JP5755712B2 (ja) 2015-07-29
JP2011529234A (ja) 2011-12-01
EP2327005B1 (en) 2017-08-23
EP2327005A1 (en) 2011-06-01
US20140055350A1 (en) 2014-02-27
US8605941B2 (en) 2013-12-10

Similar Documents

Publication Publication Date Title
CN102165396B (zh) 挥动约定姿态的增强检测
US8146020B2 (en) Enhanced detection of circular engagement gesture
US10990189B2 (en) Processing of gesture-based user interaction using volumetric zones
CN109840504B (zh) 物品取放行为识别方法、装置、存储介质及设备
KR102182607B1 (ko) 가상 콘트롤러를 위한 손쓰임을 결정하는 방법
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
CN109641153A (zh) 视频流中的对象建模和替换
Kang et al. Recognition-based gesture spotting in video games
US9619035B2 (en) Gesture detection and recognition
KR20210022498A (ko) 반복 신경망들을 통한 포즈 예측
CN109344793A (zh) 用于识别空中手写的方法、装置、设备以及计算机可读存储介质
US10678342B2 (en) Method of virtual user interface interaction based on gesture recognition and related device
CN105324736B (zh) 触摸式和非触摸式用户交互输入的技术
CN105103006A (zh) 飞行去混叠的单个频率时间
CN102226880A (zh) 一种基于虚拟现实的体感操作方法及系统
CN108355347B (zh) 交互控制方法、装置、电子设备及存储介质
CN105378601A (zh) 用于创建表面显示并与其交互的系统和方法
CN109731302A (zh) 运动姿态识别方法、装置及电子设备
CN107111357A (zh) 使用手势元素的手势识别
CN110866940A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
CN110750193B (zh) 一种基于人工智能的场景拓扑确定方法和装置
Bravenec et al. Multiplatform system for hand gesture recognition
WO2023124113A1 (zh) 三维空间中的交互方法、装置、存储介质及电子装置
CN114779944A (zh) 控制指令生成方法和装置
Ripoll Gesture recognition using a depth sensor and machine learning techniques

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: QUALCOMM INC.

Free format text: FORMER OWNER: GESTURE TEK INC.

Effective date: 20120214

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20120214

Address after: California, United States

Applicant after: Qualcomm Inc.

Address before: American California

Applicant before: Gesturetek Inc.

C14 Grant of patent or utility model
GR01 Patent grant