CN101501614B - 用于视觉显示器的虚拟控制器 - Google Patents

用于视觉显示器的虚拟控制器 Download PDF

Info

Publication number
CN101501614B
CN101501614B CN2007800295222A CN200780029522A CN101501614B CN 101501614 B CN101501614 B CN 101501614B CN 2007800295222 A CN2007800295222 A CN 2007800295222A CN 200780029522 A CN200780029522 A CN 200780029522A CN 101501614 B CN101501614 B CN 101501614B
Authority
CN
China
Prior art keywords
controlled variable
background
isolated area
image
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2007800295222A
Other languages
English (en)
Other versions
CN101501614A (zh
Inventor
A·D·威尔森
M·J·辛格莱尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN101501614A publication Critical patent/CN101501614A/zh
Application granted granted Critical
Publication of CN101501614B publication Critical patent/CN101501614B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Processing (AREA)

Abstract

公开了用于视觉显示的虚拟控制器。在一个实现中,照相机捕捉相对于背景的手的图像。该图像被分割成手区域和背景区域。各种手和手指姿势将背景的各部分隔离成各独立区域,然后将用于操纵视觉显示的控制参数分配给这些区域。多个控制参数可以与由两个手形成的、用于高级控制的多个独立区域的属性相关联,该高级控制包括点击、选择、执行、水平移动、垂直移动、卷屏、拖拽、旋转移动、缩放、最大化、最小化、执行文件功能、以及执行菜单选项的同时发生的功能。

Description

用于视觉显示器的虚拟控制器
背景
手移动和手信号是人类表达和交流的自然形式。该知识对人机交互的应用导致了允许人类手势作为计算机输入的基于视觉的计算机技术的开发。计算机视觉是能够以捕捉一个人的手或身体的不受阻碍的运动为目标来实现人类手势输入系统的技术。然而,当前正在开发的许多基于视觉的技术涉及需要非自然手势和附加设备的难以使用的运用。这些技术可以是复杂且庞大的,从而导致由于远离标准的计算机使用位置的重复的手移动而降低效率。
当前计算机输入方法一般涉及使用键盘的文本输入和经由鼠标或指示笔的光标操纵两者。键盘和鼠标之间的反复切换随着时间的推移降低了用户的效率。计算机视觉技术已试图通过利用手移动作为输入来对人机输入任务的效率低下进行改进。在检测发生在诸如键盘等计算机使用期间的常见手位置的情况下,该利用将会是最有效的。许多现有的基于视觉的计算机技术将对定点或伸出的手指的使用用作输入手势。由于定点手势与打字期间的自然手定位类似,难以检测位于或在键盘位置附近的手势。
大多数现有计算机视觉技术利用手势检测和跟踪范例来传感手势和移动。这些检测和跟踪范例是复杂的,其使用复杂的模式识别技术来恢复手的形状和位置。检测和跟踪受到若干因素的限制,包括难以实现合理的计算复杂性,由于人类手移动和手势中的歧义而导致的实际检测中的问题,以及缺乏对允许多于一个用户交互的技术的支持。
概述
提供本概述以便介绍将在以下详细描述中进一步描述的用于视觉显示器的虚拟控制器的简化概念。本概述并不旨在标识所要求保护的主题的必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
在用于视觉显示器的虚拟控制器的一个实现中,照相机或其他传感器检测相对于背景的一个或多个手的图像。该图像被分割成手区域和背景区域,并且在各间隔处对在该图像中通过拇指和一手指做出封闭的环形成的不同的、独立的背景区域-“洞”进行计数(例如,每个手可创建一个洞)。拇指和食指在以此方式使用时被称作“拇指和食指接口”(TAFFI)。其他类型的手和手指接口也是有可能的。至少一个控制参数然后被分配到每一个经识别的洞,或捕捉到的图像中的独立背景区域,该控制参数通常允许用户的手操纵屏幕或监视器上所显示的图像的某一方面。例如,鼠标点击功能可以在手的拇指和食指互相接触以创建在视觉上独立的背景区域时被分配为控制参数。可以分配控制参数以使得显示的图像与同该控制参数相关联的独立区域的形状和/或位置的每一改变相关地,或与正在形成或展开(拇指和食指接触时的高状态以及拇指和食指打开时的低状态)的独立区域相关地改变。
附图简述
在各附图中,使用相同的标号来指示相同的特征和组件:
图1是其中可实现用于视觉显示器的示例性虚拟控制器的示例性基于计算机的系统的图示。
图2是示例性虚拟控制器系统的框图。
图3是图2的虚拟控制器系统的示例性分割器中所使用的图像分割的图示。
图4是示例性拇指和食指接口控制的图示。
图5是用手和手指姿势来控制视觉显示器的示例性方法的流程图。
详细描述
概览
本发明描述了用于视觉显示器的虚拟控制器。在一个实现中,示例性系统通过利用应用于手和手指姿势的基于视觉的计算机技术来提供诸如计算机监视器所特有的视觉用户界面等显示器的导航。在一个实现中,用户在键盘上打字并且然后例如,通过暂停键盘键入并仅将一个手的拇指和食指碰在一起(犹如拿着一小指示笔)来调用“拇指和食指接口”即“TAFFI”。该示例性系统传感该事件并将控制参数分配给由该手指姿势形成的独立背景区域的各属性以便控制虚拟显示器上的图像。
“虚拟”或“虚拟控制器”指的是装置与用户的手缺少物理接触。因此,在一个实现中,虚拟控制器由定位在手和键盘上方的照相机以及从用户的手的视觉图像中导出一个或多个接口的相关联的逻辑组成。分割将手对象与背景(例如,包括键盘)分离开。如果用户将食指与拇指接触(上文中的TAFFI),则该系统识别由该手势创建的独立背景区域并将其制表。即,该系统识别背景的一片段已通过拇指和食指接触以形成封入背景区域的椭圆形“环形洞”的完全封闭的“环”而在视觉上与主背景的剩余部分隔离开。通过除了计算机照相机之外的装置来检测视觉图像也是有可能的。例如,嵌入在键盘或桌子中的2D电极或天线阵列可使用静电或射频技术来对手势“成像”并且以类似于从照相机捕捉图像的方式来处理。
在一个实现中,独立背景区域在其在视觉上由手区域或在一个变型中由图像和/或图像边界中的手区域来与背景的其它部分断开或隔离开时被认为是不同的视觉对象。当手和手指的图像是用于确定独立背景区域的边界的定界实体时,于是在拇指和食指“闭合”(互相接触)时创建的手的拇指和食指之间的椭圆区域就在大约拇指和食指接触的时刻被计作一新的独立背景区域。该新的独立背景区域可被认为是连接分量分析技术中的“连接分量”。这些连接分量或新的独立背景区域-“洞”-此处将被称为“独立背景区域”或仅为“独立区域”。应当理解,该术语指的是例如,连接分量分析技术中的、被认为是不同的视觉对象。
当拇指和食指“打开”时,新形成的独立背景区域消失并再次变成较大的独立背景区域的一部分。
就连接分量分析技术而言,连接分量是二值图像中具有类似属性的、由于属性相似性而分组在一起的一组像素。每一个连接分量通常对应于如由人类观察者观察到的不同的视觉对象。通过图像的手或手指区域的一部分而在视觉上独立于背景的其他部分的该背景的每一部分都可被定义为独立区域,或者在连接分量分析的语言中,被定义为与背景连接分量不同的新形成的连接分量。
当然,其他实现可以使用手的其他手指的移动或接触来形成“洞”或“独立区域”。因此,“TAFFI”应被宽泛地解释为是指在视觉上将背景的一部分与一般背景的剩余部分隔离开的手指和手的配置。例如,人手的拇指和任何其他手指,或仅仅不是拇指的两个手指也可形成“TAFFI”接口。然而,为了简化描述,各实现通常将按照“拇指和食指”来描述。
一旦检测模块将新的独立背景区域与一般背景区域区分开来,系统就将该新识别的独立区域与使得用户能够操纵视觉用户界面上所显示的图像的一个或多个控制参数相关联。视觉用户界面上所显示的图像可以在跟踪独立背景区域的位置、形状、以及甚至存在时经由控制参数来改变。
在一个实现中,一示例性系统能够检测多于一个独立区域,从而允许用户通过其中一个或两个手可参与的多个控制参数来控制显示的图像。多个控制参数与多个独立区域的关联使得对显示的图像的控制与每一检测到的独立区域的形状、位置、和存在的改变相关。因此,对显示的图像的操纵可包括对点击、选择、执行、水平移动、垂直移动、卷屏、拖拽、旋转移动、缩放、最大化和最小化、文件功能、菜单部署和使用等的控制。此外,控制参数还可被分配给多个识别出的独立区域之间的关系。即,例如,在两个独立区域相对于彼此移动时,各种控制参数可被附加到它们之间的距离。例如,当每个手的独立区域远离彼此移动时,图像可缩放或拉伸,或可以按其中独立区域之间的距离改变的维度或向量拉伸。
虽然所描述的用于虚拟控制器的系统和方法的特征和概念可以在许多不同的环境中实现,但是虚拟控制器的实现是在以下示例性系统和环境的上下文中描述的。
示例性环境
图1示出了其中可实现诸如以上所介绍的拇指和食指接口,即TAFFI等虚拟控制器接口技术的示例性系统100。示例性系统100包括视觉用户界面(监视器、屏幕或“显示器”103)上的“显示图像”102、与计算设备105耦合的照相机104、鼠标106、键盘108、在上下文中示出的用户的手110(当然不是该系统的硬件的一部分)、以及由正用作TAFFI的用户的手110(1)形成的视觉上的独立区域112。照相机获得将由示例性TAFFI引擎115使用的捕捉到的手的图像114。(捕捉到的图像114仅出于描述的目的而示出,示例性系统100不必显示该照相机捕捉到了什么。)主存TAFFI引擎115的计算设备105可以是台式机、膝上型计算机、PDA、或能够成功地结合来自照相机104的输入以使得TAFFI引擎115能够检测特定手势并将其用作用户界面输入的其他计算设备105。
照相机104捕捉一个手110(1)构成TAFFI而另一个手110(2)仍然处于“常规”(非TAFFI)打字位置的图像。捕捉到的图像114展示检测到对于形成TAFFI的手110(1)的独立区域112,但是没有检测到对于仍然在打字或使用鼠标以获得附加输入条目的手110(2)的独立区域。由照相机104对独立区域112的检测被显示为捕捉到的图像114中的暗区(112)。该捕捉到的图像114展示了将在以下进一步描述的过程中的一个阶段,其中示例性系统100将手110和背景分隔成连续的、分割的区域,诸如大背景区域、手区域、以及构成由手110(1)的TAFFI形成的独立区域112的较小的背景区域。
系统100可以是提供通过由照相机104或其他传感器检测到的手势输入来控制视觉用户界面的基于视觉的(“计算机视觉”)系统。换言之,示例性系统100可控制可以在包括基于web的显示器的计算设备上操作的许多不同类型的程序或应用的视觉用户界面显示输出。由此,示例性系统100可替换常规用户输入设备,诸如鼠标106,且如果需要的话,键盘108,包括它们的选择、移动、和改变视觉用户界面102中所显示的对象,或甚至输入文本的功能。
虚拟控制器将特定手势和移动检测为用户输入。在所示实施例中,用于检测的照相机104被放置在附连到显示器103的手和键盘上方的某处。放置在该位置的照相机104处理覆盖键盘108的至少大部分的视场并且大致聚焦于处于正常打字位置的用户的手110的平面。在一个实现中,可放置诸如红外或可见LED等灯以照亮手110和键盘108,并且也可定位这些灯以缓解改变环境照明的影响。在某些情况下,环境光线可能是充足的,以使得照相机无需额外的灯来获取图像。在各变型中,照相机104和/或额外的灯可被放置在键盘108的各键之间,以使得照相机104面朝上并能够检测键盘108上方的手势和手的移动。
可以在所示示例性系统100中使用的照相机104的示例是以30Hz的速率获取全分辨率灰度图像的罗技网络摄像头104(加利福尼亚州弗里蒙特市)。照相机104可被附到或者键盘108或者显示器103或者任何合适的地方。
在示例性系统100中,用户的手110(1)可形成TAFFI,其在拇指和食指接触时创建独立于背景区域的剩余部分的视觉区域。在一个实现中,潜在的TAFFI以及一个或多个独立区域112的存在或缺失由实时图像处理例程来检测,该例程在计算设备105中执行以持续地监视并确定两个手110的状态,例如,手110是在打字还是在形成用于输入的姿势。该处理例程可首先确定用户的拇指和食指是否接触。如果手指接触而导致识别出TAFFI形成的独立区域112,则可二维地跟踪该接触的位置。例如,拇指和食指接触的位置可以在计算机105中被注册为定点箭头的位置或光标位置。由此在一个实现中,可以使用该TAFFI形成位置及其相关联的独立区域112的识别来建立光标位置并且控制显示的图像。
其中在一时间间隔内形成、展开并然后再次形成独立区域112的产生独立区域112的快速手移动可模拟或模仿鼠标的“点击”并允许用户选择正在显示的项目。独立区域112的快速形成、展开、并再次形成还可使得用户能够拖拽或滚动所显示项目的所选部分,以水平、垂直或对角方向移动对象,对显示的图像102进行旋转,缩放等。此外,在一个实现中,移动形成更靠近或更远离照相机104的独立区域112的TAFFI可产生对显示的图像的放大和缩小。
经由多个TAFFI来控制显示的图像可涉及多于一个手110。图1所示的示例性系统100是TAFFI控制的一实施例,其中图像操纵从一个手110(1)的TAFFI继续而另一个手110(2)打字并在键盘108处执行其他输入任务。但在TAFFI控制的另一实施例中,两个手110都可形成各自的TAFFI,从而导致照相机104检测到至少两个独立区域112。双手TAFFI控制可提供用于视觉用户界面的精细调整的导航的输入控制。该双手方法提供了除了放大、缩小和旋转移动之外的多方向图像操纵,其中该操纵因为多个TAFFI的独立区域112相对于彼此的交互而变得更复杂。
示例性系统
图2示出了示例性虚拟控制器系统100的各种组件。虚拟控制器系统100的所示配置仅仅是一个示例安排。所示组件或其他类似组件的许多安排在本主题的范围内也是可能的。示例性虚拟控制器系统100具有一些组件,诸如可以用硬件、软件、或硬件、软件、固件等的组合来执行的TAFFI引擎115等。
示例性系统100包括硬件202,如照相机104或其他图像传感器、键盘108和显示器103。TAFFI引擎115包括其他组件,如图像分割器204、独立区域跟踪器206、包括链接模块210的控制参数引擎208。
在一个实现中,照相机104检测被解释为相对于背景的一个或多个手110的图像。捕捉到的图像114的像素包括将用于将图像中的手110与该图像中的背景区分开来的对比度值属性。对于与背景形成对比的手的适用的属性可包括亮度、灰度、色彩分量强度、色彩平面值、向量像素值、色彩图索引值等。在各变型中,照相机104可利用这些属性中的任何一个来将手像素与背景像素区分开来,例如,取决于是否使用红外照明来代替典型的可见光谱。有时,使用红外线来获得捕捉到的图像114导致不同肤色的大多数人的手以与背景类似的对比度出现,而不管由于种族、日晒等的不同而导致的在可见光谱中的皮肤颜色和色调的变化。因此,相对于图像中的背景的手的检测在不管可见的肤色的情况下在红外线中可以是容易实现的。
分割器204由此例如通过根据上述对比度或亮度属性的二值图像分割来将捕捉到的图像114分隔成一个或多个手区域110和背景区域。该二值图像分割将背景区域像素与呈现在捕捉到的图像114中的任何其他(前景)对象或区域的像素区分开来。在一个实现中,分割器204通过首先确定对应于背景区域的像素来分隔图像。背景区域像素各自被分配到一个值,比如二进制值“一”(1)。捕捉到的图像114中的剩余像素各自被分配到一个不同的值,比如“零”(0)。
图3示出了由分割器204执行的二值图像分割的示例300。捕捉到的图像114包括背景对象302和前景中的手对象304。存在用于产生分割的图像的各种技术,其中大多数技术在本领域内是公知的。在一个实现中,分割器204将背景区域像素与呈现在捕捉到的图像114或示例300中的任何其他对象或区域的像素辨别开来。区分二值图像中的像素是通过将对应于背景的每一像素认为是“开”或比如“一”的特定值来实现的。然后可将图像中的每一个其他像素与存储的背景图像的值进行比较。显著地亮于相应的背景像素的任何其他像素值都被认为是新的区域或图像对象的一部分,并且被标记为“关”,或被给予一不同的值,比如“零”。
示例300还可将背景区域302与图像的其他区域的区别示为色差。背景区域302被示为等同于第一个值的较暗的颜色。被示为较亮颜色的手对象304等同于第二个值,从而将其与背景区域302区分开来。
回到图2,独立区域跟踪器206以固定的时间间隔确定背景的多个独立区域112。通过至少一部分非背景手区域(或图像边界)在视觉上独立于背景的其他部分的该背景的每一部分都被定义为独立区域112。对于传感的每一个独立区域112,独立区域跟踪器206找到完全被“0”像素包围(即,不再连续地连接到构成主背景的“1”像素的剩余部分)的“1”像素区域。换言之,独立区域跟踪器206找到由TAFFI的接触的拇指和食指姿势来划定边界的隔离的背景区域。
例如,当独立区域112完全位于由照相机104传感的捕捉到的图像114之内,即,在独立区域112未有任何一部分位于捕捉到的图像114的边界上时,可以确保准确地将该独立区域检测为指示用户选择显示器103上的对象的意图的单独的背景区域。
然而,在一个实现中,独立区域跟踪器206的变型即使在独立区域112的一部分在“屏幕之外”-未作为捕捉到的图像114的一部分来包括时也可传感独立区域112。这可通过将独立区域112定义为由手110的一部分或捕捉到的图像114的边界的一部分从主背景中剪切下来的背景区域。但这仅仅是如何划定独立背景区域的界限的变型。
一旦确立了一个或多个独立区域的存在,链接模块210就将用于操纵用户界面上的视觉图像显示102的控制参数与每一个计数的独立区域相关联。操纵可包括多个机制,包括视觉用户界面中的光标控制。视觉图像显示102的光标控制可以,且仅当检测到独立区域并将其与控制参数相关联时实现。如果对独立区域的检测停止,则控制参数关联停止,并且禁用光标控制和操纵。光标控制可包括多个操纵,包括模仿来自鼠标的输入的“点击”动作。该点击动作允许选择视觉图像显示102的所需部分,跟踪和拖拽,以及多方向移动和光标控制。
链接模块210能够将特定控制参数与手或手指姿势或与手势改变相关联。一旦控制参数被分配或与手或手指姿势相关联,于是控制参数引擎208就可进一步细察(nuance)该手势与该控制参数是如何彼此相关的。例如,仅仅是拇指与食指的接触就可用作“开-关”、二值、高-低、或其他二状态接口或开关。然而可连续地改变的手势属性可被分配来提供对诸如显示图像102在连续区上的逐步移动等显示图像操纵的可变控制。
当链接模块210将可变控制参数分配给例如与相应的独立区域的形状或位置的改变相关的显示图像102的控制时,该可变性方面可通过计算属于每一个独立区域的所有像素的平均位置并且然后跟踪在一个手形成TAFFI时创建的形状的位置的改变来实现。手的移动更改椭圆形的独立区域的方向并导致与所分配的控制参数相关联的显示属性的相应改变。
对显示的图像的控制
图4示出了在捕捉到的图像114的上下文中示出的示例TAFFI 400。捕捉到的图像114的所示部分包括背景区域302、手对象区域110、独立区域112和图像边界408。区域302、110和406中的每一个都可被描述为不同的连接区域或连接分量。TAFFI引擎115将独立区域112与其他连接分量302和110区分开来。
TAFFI引擎115由此可将图像的连接分量的计算用作实现用于视觉显示器的虚拟控制器的基础。更详细而言,连接分量是图像中的一像素子集或区域,其中每一像素都“连接”至该子集中的每一个其他像素。术语“连接”表示这样一个像素集:对于该像素集有可能通过遍历属于该集合的像素从任何其他像素到达每一个像素。当前存在用于计算图像中的一组连接分量的高效的技术。连接分量技术对于确定图像中的形状的特性而言可以是高效的途径,因为它们允许检查由整个图像的像素中的许多像素组成的小分量集合。
计算连接分量的过程可引起对无关连接分量的检测。这些不需要的检测可能混淆由TAFFI或其他示例性接口形成的相关独立区域的判定,并且因此阻碍虚拟控制器的实现。在一个实现中,额外的连接分量的无关检测可通过丢弃具有的像素数量比预定可允许阈值少的连接分量来克服。
在一个实现中,TAFFI引擎115验证一经识别的独立区域112完全位于图像的边界内,即,完全在背景区域302的范围之内。有时,对大小足够并且不包括图像的边界408上的像素的独立区域112的该有限的检测加强了对所需独立区域406的可靠的标识。在这一个实现中,适当的检测通过避免假连接分量候选独立区域,或不是完全位于图像内以及包含该图像的边界408上的部分的独立区域来实现。
但是,在另一实现中,TAFFI引擎115通过检测独立区域112位于捕捉到的图像114中的一部分以及位于越过该图像的边界408的屏幕之外的一部分来检测独立区域112。在该实现中,只要独立区域112连续到遇到和/或超过图像的边界408的点,连接分量分析就继续。这可能在形成TAFFI的手和独立区域112只是部分地位于照相机的视场内,并因此只是部分地位于检测到的图像内时发生。
在一个实现中,TAFFI引擎115使用独立区域112的中心来建立显示的图像102中的光标位置和光标控制。TAFFI引擎115可以对每一个识别出的独立区域112执行静态分析,其中独立区域跟踪器206计算属于每一个独立区域112的所有像素的“形心”或平均像素位置。该计算出的位置是对许多像素位置的概括,导致对于该实现的稳定性和精度。平均像素位置可以在与计算连接分量相同的阶段计算,从而产生以低处理成本提供快速结果的高效技术。
关于作为控制视觉显示器的手段的独立区域406的出现和消失,在一个实现中属于独立区域112的所有像素的平均像素位置仅在独立区域112是在重复的检测过程的一个间隔期间新检测到的时候才建立光标位置和控制。
用对独立区域406的检测进行的光标控制可模仿鼠标输入设备106。类似于鼠标106,用于光标操纵的相对运动可以从由TAFFI 400形成的检测到的独立区域112的当前和过去的位置中计算出。拇指和食指联接在一起是允许如同鼠标输入设备一样的不费力的离合(clutching)行为的自然运动。将卡尔曼过滤器与TAFFI检测一起使用可平滑光标在视觉显示器103上的运动。
示例性TAFFI引擎115支持通过在阈值时间间隔内快速形成、展开、并重新形成独立区域112来选择显示的图像102的对象。这些动作模仿用于“选择”或“执行”功能的鼠标按钮的“点击”,并且还支持从跟踪到拖拽所选对象的转换。例如,拖拽可通过紧接着独立区域112的最近一次形成模仿“鼠标按下”事件来实现。相应的“鼠标松开”事件在独立区域112通过打开拇指和食指消失时生成。例如,在独立区域形成的时刻,可以选择诸如视觉用户界面显示上的文档中的滚动条等对象。紧接着该选择,可以按与可移动鼠标106以便在文档中向下滚动相同的方式移动形成独立区域112的手的位置。
TAFFI引擎115能够提供比只模仿常规的基于鼠标的功能更多的对视觉显示102的控制。独立区域112(连接分量)的各像素位置的均值和协方差可通过计算像素位置的协方差矩阵的本征向量来与独立区域112的形状的定向椭圆模型相关。本征值大小的平方根给出其长轴和短轴大小的空间范围,而椭圆的方向被确定为多至180度歧义的本征向量中的一个的反正切。所产生的歧义可通过采用计算出的方向或+180度旋转的方向来最小化与前一帧的方向差别来解决。
TAFFI引擎115可以从由示例性TAFFI 400创建的独立区域112的椭圆模型中计算出位置、方向和缩放的同时改变。在各种实现中,缩放的改变也可用于检测手朝照相机或远离照相机的移动。这假设形成独立区域112的用户的手一般保持在与照相机104的固定距离范围内以使得独立区域112的大小和形状仅在容差范围内变化,使得方向上的视觉改变对于背景区域302或键盘的平面在某种程度上是有限的。在一个实现中,一重要的考虑是,在整个交互过程中,用户必须在该用户将手相对于照相机或键盘移上移下时维持独立区域的大小-由TAFFI 400形成的椭圆形洞的大小(即,在某些实现中,高度的改变与独立区域的形状的实际改变相混淆)。在其他实现中,TAFFI引擎115使用计算机视觉逻辑来在手移上移下时补偿独立区域大小的改变。
在一个示例性实现中,TAFFI引擎115使用独立区域112的椭圆模型来单手导航诸如由
Figure G2007800295222D00131
LIVE VIRTUAL
Figure G2007800295222D00132
web服务或其他类似的因特网地图服务(华盛顿州雷蒙德市)提供的鸟瞰和卫星影像。通过在虚拟地图的整个视图中移动而进行的导航可由具有在诸如桌子或键盘等背景区域302中移动的独立区域112的TAFFI 400来实现。整张地图的旋转可通过在键盘的2维平面中旋转形成该独立区域112的手来实现,而放大和缩小功能可通过将手移近或远离照相机104来实现。
TAFFI引擎115可实现两个或更多手对于光标控制和导航的使用。逐帧对应策略允许每一个独立区域112被连续地跟踪为被照相机检测到以供输入的第一、第二、第三等区域中的任一个。两个手为了被照相机检测而相对于背景区域302的放置,以及手相对于背景区域302的随后的移动更改独立区域406的椭圆模型的方向,并且导致与经由链接模块210所分配的控制参数的手部移动的定位和位置相关联的视觉用户界面显示的移动。
对与多个手或手指姿势相对应的多个控制参数的同时跟踪允许各种双手交互。再次参考因特网虚拟地图示例,用于导航该虚拟地图的双手输入允许同时改变显示器103上的地图视图的旋转、转换和缩放。因为独立区域406的位置估算是从手的位置中导出的,所以该双手技术能够提供比单手技术所能提供的更稳定的运动估算。该双手技术因此允许:顺时针和逆时针旋转,其中两个手同时在旋转方向上移动;在垂直或水平方向上移动整个视觉用户界面显示视图,其中两个手在所需方向上移动;以及缩放功能,其中放大视觉用户界面显示在两个手开始靠在一起并且稍后伸展远离另一个手时实现,而缩小视觉用户界面显示通过将手从分开的起始位置拉拢在一起来执行。
从独立区域112的椭圆模型中计算出的位置、方向和缩放的同时改变可以在除了标准计算设备环境之外的实现中使用。例如,TAFFI引擎115可控制包括桌子上的照相机和投影仪,但没有诸如鼠标、触摸屏或键盘等附加输入设备的交互式桌面系统。用户将手放在桌面上方,从而形成独立区域406以便提供操纵以及与该桌面和该表面上所显示的材料的交互。类似的实现可包括将显示图像投影到墙上的系统,其中用户可通过担当TAFFI 400的手和手指来控制该显示图像并与其交互。例如,TAFFI引擎115可允许该用户在投影仪演示期间更改幻灯片。
示例性方法
图5示出了经由手或手指姿势来控制视觉显示器的示例性方法500。在该流程图中,操作被概括成单独的框。取决于实现,示例性方法500可以由硬件、软件、或硬件、软件、固件等的组合来执行,例如,由示例性虚拟控制器系统100的组件和/或示例性TAFFI引擎115来执行。
在框502处,经由照相机104捕捉相对于背景的一个或多个手110的图像。对比度、色彩或亮度可以是使得能够在手和周围背景区域之间进行区分的像素属性。手相对于对比背景可更容易地传感。传感手的一个场景是在键盘108处打字时。照相机104捕捉手110和传感为背景区域的一部分的键盘108的图像。红外LED照明也可用于该方法,其提供使得大多数手的肤色对于照相机104看似相似的受控光照。
在框504处,通过二值分割将图像分割成手对象和背景区域。例如,从图像中的任何其他对象或区域的像素中标识并区分出背景区域像素。背景区域像素然后用一值来标记。随后标识图像中的其他对象或区域的像素并将其与存储的背景图像的像素值进行比较。显著地亮于相应的背景像素值的任何像素值都被标记为新的区域或图像的一部分,并被给予不同于背景区域像素的值。图像的不同区域的这一区分和标记是该图像的二值分割。
在框506处,以重复的检测间隔对背景的多个独立区域进行计数。独立区域406被定义为通过手对象110中的一个的至少一部分在视觉上独立于背景的其他部分的背景302的每一部分。例如,当一个手担当拇指和食指接口,即TAFFI时,这个手的拇指和食指创建独立于一般背景区域的剩余部分的封闭区域。该封闭区域形成可向其附加用于操纵视觉显示器的控制参数的新的独立区域112。在一个实现中,该方法测试所检测到的独立区域是否真正独立,即,在一种情况下,独立区域是否具有图像边界上的像素。
在框508处,将用于操纵显示器上的图像的控制参数与每一计数的独立区域或其属性相关联。例如,由用作TAFFI的手创建的独立区域112由照相机104来传感并且与使得用户能够选择用户界面显示上的对象的控制参数相关。随后,第二传感的独立区域112与使得用户能够将先前所选对象移至该用户界面显示上的不同位置的用户界面控制参数相关。该第一和第二独立区域112的快速连续传感可能由快速形成、展开和重新形成独立区域406产生,从而导致与传感的独立区域112相关联的类似鼠标的“点击”功能。
在框510处,显示的图像经由控制参数与被分配给该控制参数的独立区域的属性的每一改变相关地改变。例如,独立区域112的位置可相对于传感照相机104向左或向右移动,并且显示的图像102可跟着移动。传感的独立区域112与控制参数的关联允许根据正用作TAFFI的手的移动、位置和关系来操纵显示的视觉图像102。
上述方法500以及其他相关方法可以在计算机可执行指令的一般上下文中实现。一般而言,计算机可执行指令可包括执行特定功能或实现特定的抽象数据类型的例程、程序、对象、组件、数据结构、过程、模块、功能等。这些方法还能在其中功能由通过通信网络链接的远程处理设备完成的分布式计算环境中实现。在分布式计算环境中,计算机可执行指令可以位于包括存储器存储设备在内的本地和远程计算机存储介质中。
结论
尽管已用对结构特征和/或方法动作专用的语言描述了示例性系统和方法,但可以理解,所附权利要求书中定义的主题不必限于所述具体特征或动作。相反,上述具体特征和动作是作为实现所要求保护的方法、设备、系统等的示例性形式而公开的。

Claims (19)

1.一种用于经由分配给手的移动的控制参数来改变用户界面上的显示的图像的方法,包括:
经由照相机检测相对于背景的一个或多个手的图像(502);
将所述图像分割成手区域和背景区域(504);
每隔一段时间对所述背景的多个独立区域进行计数(506),其中通过所述手区域中的一个的至少一部分而在视觉上独立于所述背景的其他部分的所述背景的每一部分都被定义为独立区域;
将用于操纵用户界面上的显示的图像的控制参数与每一计数的独立区域相关联(508);
经由所述控制参数与同所述控制参数相关联的所述独立区域的形状和/或位置的每一改变相关地改变所述显示的图像(510)。
2.如权利要求1所述的方法,其特征在于,还包括在一相关联的独立区域再次变为连接时将控制参数与该独立区域分离。
3.如权利要求1所述的方法,其特征在于,所述控制参数包括当独立区域在阈值时间间隔内形成、展开、并重新形成时仿真鼠标按钮的动作。
4.如权利要求1所述的方法,其特征在于,所述控制参数包括鼠标指针的仿真和移动。
5.如权利要求1所述的方法,其特征在于,所述控制参数包括光标的移动。
6.如权利要求1所述的方法,其特征在于,所述控制参数包括所述显示的图像相对于所述用户界面的移动。
7.如权利要求6所述的方法,其特征在于,所述移动包括以下各项之一:垂直移动、水平移动、或者旋转移动。
8.如权利要求1所述的方法,其特征在于,所述控制参数包括放大或缩小所述用户界面上的显示的图像的大小。
9.如权利要求1所述的方法,其特征在于,还包括将所述控制参数与两个独立区域之间的关系相关联,每一个独立区域都由相应的手的图像形成。
10.如权利要求9所述的方法,其特征在于,所述控制参数包括与所述两个独立区域之间的变化的距离相关地拉伸所述显示图像。
11.如权利要求9所述的方法,其特征在于,与两个独立区域之间的关系相关联的控制参数控制以下动作之一:与所述两个独立区域之间的线的旋转相关地旋转所述显示图像;
当两个独立区域都以类似的弧方向移动时以顺时针或逆时针方向旋转所述显示的图像;
当两个独立区域以相同的方向同时移动时移动整个显示的图像;以及
当独立区域之间的距离改变时缩放所述显示的图像。
12.如权利要求1所述的方法,其特征在于,所述手区域中的一个的拇指区域和食指区域定义拇指和食指接口(TAFFI),所述拇指区域和所述食指区域在视觉上互相接触以便在视觉上将所述背景的一部分与所述背景的其他部分断开,以便形成独立区域。
13.一种用于经由分配给手的移动的控制参数来改变用户界面上的显示的图像的系统,包括:
用于经由照相机检测相对于背景的一个或多个手的图像的装置;
用于将所述图像分割成手区域和背景区域的装置;
用于每隔一段时间对所述背景的多个独立区域进行计数的装置,其中通过所述手区域中的一个的至少一部分而在视觉上独立于所述背景的其他部分的所述背景的每一部分都被定义为独立区域;
用于将用于操纵用户界面上的显示的图像的控制参数与每一计数的独立区域相关联的装置;
用于经由所述控制参数与同所述控制参数相关联的所述独立区域的形状和/或位置的每一改变相关地改变所述显示的图像的装置。
14.如权利要求13所述的系统,其特征在于,所述系统还包括用于在一相关联的独立区域再次变为连接时将控制参数与该独立区域分离的装置。
15.如权利要求13所述的系统,其特征在于,所述控制参数包括当独立区域在阈值时间间隔内形成、展开、并重新形成时仿真鼠标按钮的动作。
16.如权利要求13所述的系统,其特征在于,所述控制参数包括仿真视觉指示符的移动,所述视觉指示符选自由鼠标指针图像、光标图像和所述显示图像的至少一部分组成的一组视觉指示符,并且其中所述移动包括选自由垂直移动、水平移动、旋转移动、放大移动、以及缩小移动组成的一组移动的移动。
17.如权利要求13所述的系统,其特征在于,所述系统还包括用于将所述控制参数与两个独立区域之间的关系相关联的装置,每一个独立区域都由相应的手的图像形成。
18.如权利要求17所述的系统,其特征在于,所述控制参数包括与所述两个独立区域之间的变化的距离相关地拉伸所述显示的图像。
19.如权利要求17所述的系统,其特征在于,所述控制参数包括与所述两个独立区域之间的线的旋转相关地旋转所述显示的图像。
CN2007800295222A 2006-08-08 2007-05-29 用于视觉显示器的虚拟控制器 Active CN101501614B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/463,183 2006-08-08
US11/463,183 US7907117B2 (en) 2006-08-08 2006-08-08 Virtual controller for visual displays
PCT/US2007/012546 WO2008018943A1 (en) 2006-08-08 2007-05-29 Virtual controller for visual displays

Publications (2)

Publication Number Publication Date
CN101501614A CN101501614A (zh) 2009-08-05
CN101501614B true CN101501614B (zh) 2012-04-18

Family

ID=39033312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007800295222A Active CN101501614B (zh) 2006-08-08 2007-05-29 用于视觉显示器的虚拟控制器

Country Status (14)

Country Link
US (4) US7907117B2 (zh)
EP (1) EP2049976B1 (zh)
JP (1) JP4965653B2 (zh)
KR (1) KR101292467B1 (zh)
CN (1) CN101501614B (zh)
BR (1) BRPI0714232B1 (zh)
CA (4) CA2880054C (zh)
IL (1) IL196018A (zh)
MX (1) MX2009000305A (zh)
MY (1) MY161823A (zh)
NO (1) NO20090116L (zh)
RU (1) RU2439653C2 (zh)
WO (1) WO2008018943A1 (zh)
ZA (1) ZA200810106B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826382A (zh) * 2018-08-10 2020-02-21 纬创资通股份有限公司 手势识别方法、手势识别模块及手势识别系统

Families Citing this family (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US7787706B2 (en) * 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8114172B2 (en) 2004-07-30 2012-02-14 Extreme Reality Ltd. System and method for 3D space-dimension based image processing
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US8060840B2 (en) * 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US20080189661A1 (en) * 2007-02-06 2008-08-07 Jazzbo Technology Inc. Video user interface
US7979315B2 (en) * 2007-03-14 2011-07-12 Microsoft Corporation Virtual features of physical items
US7954067B2 (en) * 2007-03-16 2011-05-31 Apple Inc. Parameter setting superimposed upon an image
US20080229232A1 (en) * 2007-03-16 2008-09-18 Apple Inc. Full screen editing of visual media
WO2009035705A1 (en) 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8073198B2 (en) * 2007-10-26 2011-12-06 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger framing
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
TW201005579A (en) * 2008-07-22 2010-02-01 Asustek Comp Inc Apparatus for reading electric document and method for operating electric document read
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
EP2342642A1 (en) * 2008-09-04 2011-07-13 Extreme Reality Ltd. Method system and software for providing image sensor based human machine interfacing
US20100105479A1 (en) 2008-10-23 2010-04-29 Microsoft Corporation Determining orientation in an external reference frame
CN101727177B (zh) * 2008-10-30 2012-09-19 深圳富泰宏精密工业有限公司 鼠标模拟系统及其应用方法
TWI486821B (zh) * 2008-11-28 2015-06-01 Chi Mei Comm Systems Inc 滑鼠類比系統及其應用方法
US20100241987A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Tear-Drop Way-Finding User Interfaces
US8849570B2 (en) * 2009-03-19 2014-09-30 Microsoft Corporation Projected way-finding
US8121640B2 (en) 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US20100241999A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US20100289912A1 (en) * 2009-05-14 2010-11-18 Sony Ericsson Mobile Communications Ab Camera arrangement with image modification
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US20100309140A1 (en) * 2009-06-05 2010-12-09 Microsoft Corporation Controlling touch input modes
KR20110007806A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 카메라를 이용하여 손동작을 인식하는 장치 및 방법
US8438503B2 (en) * 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
TWI371681B (en) * 2009-09-18 2012-09-01 Primax Electronics Ltd Notebook computer with multi-image capture function
US9218126B2 (en) 2009-09-21 2015-12-22 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
KR101184460B1 (ko) * 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
US8818027B2 (en) * 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
EP2378394A3 (en) * 2010-04-15 2015-03-25 Electronics and Telecommunications Research Institute User interface device and method for recognizing user interaction using same
JP2011234229A (ja) * 2010-04-28 2011-11-17 Olympus Imaging Corp 撮像装置
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US20110289462A1 (en) * 2010-05-20 2011-11-24 Microsoft Corporation Computing Device Magnification Gesture
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
CN101901052B (zh) * 2010-05-24 2012-07-04 华南理工大学 双手互为参考的目标控制方法
FR2960986A1 (fr) * 2010-06-04 2011-12-09 Thomson Licensing Procede de selection d’un objet dans un environnement virtuel
US9009594B2 (en) * 2010-06-10 2015-04-14 Microsoft Technology Licensing, Llc Content gestures
US9132352B1 (en) * 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
CN102402279B (zh) * 2010-09-17 2016-05-25 腾讯科技(深圳)有限公司 基于手势的人机交互方法及系统
US8963836B2 (en) 2010-09-17 2015-02-24 Tencent Technology (Shenzhen) Company Limited Method and system for gesture-based human-machine interaction and computer-readable medium thereof
US9372618B2 (en) 2010-10-01 2016-06-21 Z124 Gesture based application management
WO2012093394A2 (en) * 2011-01-06 2012-07-12 Pointgrab Ltd. Computer vision based two hand control of content
WO2012098534A1 (en) 2011-01-23 2012-07-26 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
WO2012135153A2 (en) * 2011-03-25 2012-10-04 Oblong Industries, Inc. Fast fingertip detection for initializing a vision-based hand tracker
US9189825B2 (en) * 2011-04-12 2015-11-17 Lg Electronics Inc. Electronic device and method for displaying stereoscopic image
US20130335361A1 (en) * 2011-04-22 2013-12-19 Glenn A. Wong Systems and methods for displaying data on large interactive devices
GB2491473B (en) * 2011-05-31 2013-08-14 Pointgrab Ltd Computer vision based control of a device using machine learning
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
US20130009989A1 (en) * 2011-07-07 2013-01-10 Li-Hui Chen Methods and systems for image segmentation and related applications
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US8907906B2 (en) * 2011-09-27 2014-12-09 Z124 Secondary single screen mode deactivation
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9678574B2 (en) 2011-12-23 2017-06-13 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
US10345911B2 (en) * 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
US9684379B2 (en) * 2011-12-23 2017-06-20 Intel Corporation Computing system utilizing coordinated two-hand command gestures
EP2795430A4 (en) 2011-12-23 2015-08-19 Intel Ip Corp TRANSITION MECHANISM FOR A COMPUTER SYSTEM WITH USER DETECTION
KR20130078490A (ko) * 2011-12-30 2013-07-10 삼성전자주식회사 전자 장치 및 그의 제어 방법
US20150220149A1 (en) * 2012-02-14 2015-08-06 Google Inc. Systems and methods for a virtual grasping user interface
CN102609093A (zh) * 2012-02-16 2012-07-25 中国农业大学 用手势控制视频播放的方法及装置
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
ES2443265B1 (es) * 2012-08-16 2014-11-13 Eads Construcciones Aeronauticas, S.A. Banco de fabricación o verificación de mazos eléctricos
GB2507963A (en) * 2012-11-14 2014-05-21 Renergy Sarl Controlling a Graphical User Interface
TWI502519B (zh) 2012-11-21 2015-10-01 Wistron Corp 手勢辨識模組及手勢辨識方法
US20140152566A1 (en) * 2012-12-05 2014-06-05 Brent A. Safer Apparatus and methods for image/sensory processing to control computer operations
KR20140085055A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 전자 장치 및 그의 제어 방법
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US20140282224A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
US9201589B2 (en) 2013-05-21 2015-12-01 Georges Antoine NASRAOUI Selection and display of map data and location attribute data by touch input
US9696812B2 (en) * 2013-05-29 2017-07-04 Samsung Electronics Co., Ltd. Apparatus and method for processing user input using motion of object
GB201314984D0 (en) 2013-08-21 2013-10-02 Sony Comp Entertainment Europe Head-mountable apparatus and systems
EP2846243B1 (en) * 2013-09-04 2019-08-14 Matthias Rath Graphical user interface providing virtual super-zoom functionality
US9727915B2 (en) * 2013-09-26 2017-08-08 Trading Technologies International, Inc. Methods and apparatus to implement spin-gesture based trade action parameter selection
ITCO20130068A1 (it) * 2013-12-18 2015-06-19 Nu Tech S A S Di De Michele Marco & Co Metodo per fornire comandi d'utente ad un elaboratore elettronico e relativi programma per elaborare e circuito elettronico.
US11435895B2 (en) 2013-12-28 2022-09-06 Trading Technologies International, Inc. Methods and apparatus to enable a trading device to accept a user input
KR101844390B1 (ko) * 2014-01-03 2018-04-03 인텔 코포레이션 사용자 인터페이스 제어를 위한 시스템 및 기법
KR20160037508A (ko) * 2014-09-29 2016-04-06 삼성전자주식회사 디스플레이 장치 및 그의 표시 방법
DE102014226553A1 (de) * 2014-12-19 2016-06-23 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
CN104850340B (zh) * 2015-01-30 2018-11-30 小米科技有限责任公司 触控显示屏上的文档显示方法及装置
CN106406507B (zh) * 2015-07-30 2020-03-27 株式会社理光 图像处理方法以及电子设备
CN105159524A (zh) * 2015-08-03 2015-12-16 小米科技有限责任公司 界面显示方法及装置
KR20180123217A (ko) * 2016-02-29 2018-11-15 스마트 램프, 인코포레이티드 디/비/에이 람픽스 컴퓨터화된 시스템을 구비한 사용자 인터페이스를 제공하고 가상 환경과 상호작용하기 위한 방법 및 장치
TWI695296B (zh) * 2016-04-29 2020-06-01 姚秉洋 內建感應器及光源模組之鍵盤裝置
US11182853B2 (en) 2016-06-27 2021-11-23 Trading Technologies International, Inc. User action for continued participation in markets
CN110719760A (zh) * 2017-05-26 2020-01-21 柯惠Lp公司 用于成像装置的控制器
US11360558B2 (en) 2018-07-17 2022-06-14 Apple Inc. Computer systems with finger devices
KR102164706B1 (ko) * 2018-07-19 2020-10-12 한남대학교 산학협력단 초고속 문서작성을 위한 손가락 제스처 인식 기반 마우스
CN110286780B (zh) * 2019-06-26 2022-06-07 西南民族大学 一种基于机器视觉的机电混合式无人值守计算机操作装置
US11430414B2 (en) 2019-10-17 2022-08-30 Microsoft Technology Licensing, Llc Eye gaze control of magnification user interface
US11360587B1 (en) 2020-04-07 2022-06-14 Apple Inc. Deployment systems for computer system finger devices
US20240069643A1 (en) * 2022-08-31 2024-02-29 Youjean Cho Physical gesture interaction with objects based on intuitive design

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US484568A (en) * 1892-10-18 Farm-gate
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPH0736142B2 (ja) 1991-10-10 1995-04-19 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動指示手段の運動停止を認識する方法および情報処理装置
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6115482A (en) 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6269172B1 (en) 1998-04-13 2001-07-31 Compaq Computer Corporation Method for tracking the motion of a 3-D figure
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6204852B1 (en) 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
JP2000298544A (ja) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
US6771834B1 (en) * 1999-07-02 2004-08-03 Intel Corporation Method for segmenting a digital image
US6417836B1 (en) 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
RU2175143C1 (ru) 2000-04-04 2001-10-20 Свириденко Андрей Владимирович Способ дистанционного управления
US6624833B1 (en) 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US6531999B1 (en) 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6795068B1 (en) 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
US7095401B2 (en) 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
JP2002259046A (ja) 2001-02-28 2002-09-13 Tomoya Sonoda 空中で手描きした文字・記号入力システム
US6888960B2 (en) 2001-03-28 2005-05-03 Nec Corporation Fast optimal linear approximation of the images of variably illuminated solid objects for recognition
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
US6943774B2 (en) * 2001-04-02 2005-09-13 Matsushita Electric Industrial Co., Ltd. Portable communication terminal, information display device, control input device and control input method
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US6594616B2 (en) 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
US7340077B2 (en) 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
GB0204652D0 (en) 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
US7821541B2 (en) 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
US20030214481A1 (en) 2002-05-14 2003-11-20 Yongming Xiong Finger worn and operated input device and method of use
US20040001113A1 (en) 2002-06-28 2004-01-01 John Zipperer Method and apparatus for spline-based trajectory classification, gesture detection and localization
US6996460B1 (en) 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US7038661B2 (en) 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
KR100588042B1 (ko) 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
US20050255434A1 (en) 2004-02-27 2005-11-17 University Of Florida Research Foundation, Inc. Interactive virtual characters for training including medical diagnosis training
US20050212753A1 (en) 2004-03-23 2005-09-29 Marvit David L Motion controlled remote controller
JP4708422B2 (ja) 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7710395B2 (en) 2004-07-14 2010-05-04 Alken, Inc. Head-mounted pointing and control device
KR101128572B1 (ko) 2004-07-30 2012-04-23 애플 인크. 터치 감지 입력 장치용 제스처
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
JP4088282B2 (ja) 2004-08-20 2008-05-21 清実 中村 コンピュータ入力方法と装置
US7359564B2 (en) 2004-10-29 2008-04-15 Microsoft Corporation Method and system for cancellation of ambient light using light frequency
WO2006058129A2 (en) 2004-11-23 2006-06-01 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
US7492367B2 (en) 2005-03-10 2009-02-17 Motus Corporation Apparatus, system and method for interpreting and reproducing physical motion
US7317836B2 (en) 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
JP4926799B2 (ja) 2006-10-23 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
US9292092B2 (en) 2007-10-30 2016-03-22 Hewlett-Packard Development Company, L.P. Interactive display system with collaborative gesture detection
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826382A (zh) * 2018-08-10 2020-02-21 纬创资通股份有限公司 手势识别方法、手势识别模块及手势识别系统

Also Published As

Publication number Publication date
CA2880052C (en) 2017-06-27
EP2049976B1 (en) 2018-03-07
IL196018A0 (en) 2009-09-01
JP2010500645A (ja) 2010-01-07
MY161823A (en) 2017-05-15
CA2654744C (en) 2015-10-06
RU2009104062A (ru) 2010-08-20
US8049719B2 (en) 2011-11-01
CA2880054C (en) 2016-08-23
CA2880053C (en) 2016-08-23
US7907117B2 (en) 2011-03-15
CA2880053A1 (en) 2008-02-14
BRPI0714232B1 (pt) 2018-09-18
EP2049976A1 (en) 2009-04-22
ZA200810106B (en) 2010-02-24
KR20090047454A (ko) 2009-05-12
US20080036732A1 (en) 2008-02-14
CA2880054A1 (en) 2008-02-14
JP4965653B2 (ja) 2012-07-04
US20090208057A1 (en) 2009-08-20
BRPI0714232A2 (pt) 2013-01-15
CA2654744A1 (en) 2008-02-14
RU2439653C2 (ru) 2012-01-10
WO2008018943A1 (en) 2008-02-14
CN101501614A (zh) 2009-08-05
US20120105315A1 (en) 2012-05-03
IL196018A (en) 2012-06-28
KR101292467B1 (ko) 2013-08-05
NO20090116L (no) 2009-01-09
MX2009000305A (es) 2009-01-26
EP2049976A4 (en) 2013-06-19
US20110025601A1 (en) 2011-02-03
US8552976B2 (en) 2013-10-08
BRPI0714232A8 (pt) 2017-01-17
US8115732B2 (en) 2012-02-14
CA2880052A1 (en) 2008-02-14

Similar Documents

Publication Publication Date Title
CN101501614B (zh) 用于视觉显示器的虚拟控制器
US20220382379A1 (en) Touch Free User Interface
US10627915B2 (en) Visual collaboration interface
Cabral et al. On the usability of gesture interfaces in virtual reality environments
AU2010366331B2 (en) User interface, apparatus and method for gesture recognition
US20160370967A1 (en) Magnifier panning interface for natural input devices
US9110512B2 (en) Interactive input system having a 3D input space
GB2490199A (en) Two hand control of displayed content
KR100491432B1 (ko) 멀티모달 사용자 인터페이스를 이용한 대화형 전시시스템
Deshpande et al. Vision Based Interactive Devices
CN117311486A (zh) 一种用于光场显示器的交互方法、装置、光场显示器系统
Lange et al. A novel window manager for large screen display

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150508

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150508

Address after: Washington State

Patentee after: Micro soft technique license Co., Ltd

Address before: Washington State

Patentee before: Microsoft Corp.