CN102934060A - 虚拟触摸接口 - Google Patents

虚拟触摸接口 Download PDF

Info

Publication number
CN102934060A
CN102934060A CN2011800279156A CN201180027915A CN102934060A CN 102934060 A CN102934060 A CN 102934060A CN 2011800279156 A CN2011800279156 A CN 2011800279156A CN 201180027915 A CN201180027915 A CN 201180027915A CN 102934060 A CN102934060 A CN 102934060A
Authority
CN
China
Prior art keywords
light
light field
order
image sequence
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011800279156A
Other languages
English (en)
Inventor
许峰雄
张春晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102934060A publication Critical patent/CN102934060A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/021Arrangements integrating additional peripherals in a keyboard, e.g. card or barcode reader, optical scanner
    • G06F3/0213Arrangements providing an integrated pointing device in a keyboard, e.g. trackball, mini-joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

用户可通过在光场内移动指针来向计算设备发出命令。传感器可捕捉从移动的指针反射的光。虚拟触摸引擎可分析由传感器捕捉的作为图像序列中的各光部分的反射光,以响应于该移动向计算设备发出命令。分析图像序列可包括找出该图像序列中的各光部分,确定各光部分的大小,以及确定各光部分的位置。

Description

虚拟触摸接口
背景技术
在传统计算环境中,用户通常使用键盘和鼠标来控制计算机并与其进行交互。例如,用户通常移动鼠标来导航由计算机显示在监视器上的光标。用户还可使用鼠标来向计算机发出有限数量的简单命令(例如,单击并拖曳以突出显示一个项、双击以打开该项、右击以访问命令菜单)。
当今,计算用户寻求更直观、有效、以及强有力的方式来向计算机发出命令。一些设备,如触摸垫、触摸面板(例如,启用触摸的监视器等)、以及可佩戴设备(例如,运动传感器手套),扩展了用户与计算机进行交互的方式。一般而言,触摸垫是位于键盘附近的导航传感器。并非使用传统鼠标来控制光标,用户可以物理地触摸(触合)该触摸垫并在该触摸垫上四处滑动其手指来控制光标。虽然触摸垫可用来代替鼠标来控制计算机,但触摸垫可能不合需要地占用键盘上的大量空间,如当在膝上型计算机设置中实现的情况下。
触摸面板也扩展了用户向计算机发出命令的方式。一般而言,触摸面板将显示器与内置触摸接口进行组合,使得用户可通过物理地触摸屏幕来向计算机发出命令。虽然与触摸垫相比,触摸面板一般对更大范围的操作进行响应(例如,缩放、滚动,等等),但触摸面板易受触摸污迹影响,这可不合需要地抑制屏幕的显示质量。另外,对于用户操作更长时间段而言,触摸面板可能不舒服且厌烦,因为用户可能必须将他们的手臂举起到屏幕上。
可佩戴设备是扩展用户向计算机发出命令的方式的设备的另一示例。一般而言,运动传感器手套使用户能够使用她的手作为自然接口设备。位于该手套上的各传感器检测手运动。随后将该运动转换成对计算机的输入命令。因为运动传感器手套需要多个最优地放置的传感器,所以对用户而言,该设备可能是不合需要地昂贵且笨重。
概述
虚拟触摸接口增强用户在诸如计算环境等智能环境中的交互体验。用户可以通过在由靠近该用户的光源投影的光场内自然地移动指针(如手指、笔等),向计算设备发出命令(如移动光标、选择对象、缩放、滚动、拖动、插入对象、从显示的输入元素列表中选择所需的输入元素等)。从指针反射的光由各种传感器作为图像序列来捕捉。可以分析在图像序列中捕捉的反射光以跟踪指针的移动。然后分析跟踪的移动以向计算设备发出命令。
该虚拟触摸接口可以在各种环境中实现。例如,该虚拟触摸接口可以用于允许用户向计算设备发出命令的台式计算机、膝上型计算机、或移动设备。
附图简述
参考附图描述“具体实施方式”。在附图中,附图标记最左边的数字标识该附图标记首次出现的附图。在不同附图中使用相同的附图标记表示相似或相同的项。
图1是允许用户通过光场向计算设备发出命令的说明性虚拟触摸接口。
图2是包括发出命令的虚拟触摸引擎的说明性环境的示意图。
图3是使用虚拟触摸接口发出命令的说明性过程的流程图。
图4a是示出捕捉移动指针的示例性虚拟接口环境。
图4b是示出在所捕捉的图像中定位移动指针的示例性虚拟接口环境。
图5是对捕捉来自光场中的移动指针的反射的输入进行分析的说明性过程的流程图。
图6是用户通过虚拟触摸接口向计算设备发出的说明性多触摸(multi-touch)命令。
详细描述
概览
当今的计算用户寻求直观、高效和强大的方式来与计算设备交互以便增强其总体计算体验。一种虚拟触摸接口可以增强用户的总体计算体验。当与该虚拟触摸接口交互时,用户可以在光场内移动指针以向计算设备发出命令。如本文所用,“指针”是能够反射光的任何物体,诸如一个或多个手指、钢笔、铅笔、反射器等。在光从指针反射时,各种传感器捕捉光以作为图像序列。然后分析这些图像以发出命令。如本文所用,“命令”是可向计算设备发出的任何命令,诸如移动光标、选择对象、缩放、滚动、旋转、拖动、插入对象、从显示的输入元素列表中选择所需的输入元素等。
本文所述的过程和系统可以用多种方式实现。在下文中参考附图提供示例实现。
说明性环境
图1是说明性虚拟触摸接口环境100。环境100可以包括可连接到网络的计算设备102。该计算设备可以包括显示设备104,诸如监视器以向用户106呈现视频图像。一个或多个光场生成器108可以各自生成光场110以用作鼠标或其他计算设备接口(触摸垫、触摸面板、可佩戴设备等)的替代。光场110可以是平面的形状并且与诸如桌面等工作表面112平行定位。在一些实施方式中,光场110的长宽比基本上等于显示设备104的高宽比。
图1示出由两个光场生成器生成的光场110覆盖工作表面112的一部分。在一些实施方式中,光场可以覆盖整个工作表面112。光场生成器108可以实现为任何数量的可用于发出可见光或任何形式的不可见电磁辐射的设备,如红外线光源、红外激光二极管、和/或光电二极管。例如,光场生成器108可以实现为两个分开的红外发光二极管(LED),每个LED配备有圆柱形透镜以向两个光场发出不可见形式的电磁辐射,如红外线。在一些情况下,这两个光场彼此平行。例如,光场可以包括位于相对于工作表面的第一高度的第一光场和位于相对于工作表面的第二高度的第二光场。在光场由两个光场生成器108生成情况下,每个光场生成器可以独立地操作。例如,可以独立地打开或关闭每个光场生成器。
用户106可以在光场110内移动指针114(如,一个手指、多个手指、钢笔、铅笔等)以向计算设备102发出命令。当用户106在光场110内移动指针114时,光可以从指针114反射并朝向一个或多个传感器116反射,如箭头118所示。当光从指针114反射时,传感器116可以捕捉反射光118。在一些实施方式中,传感器116相对于光场110倾斜并位于光场生成器108附近以最大化反射光118的捕捉强度。例如,可以实现传感器116以使该传感器的焦点居中在所需位置,如要传感的最长距离的三分之二处。在一些实施方式中,传感器116具有覆盖整个工作表面112的视野。
传感器116可以捕捉反射光118以作为图像序列。在一些实施方式中,传感器116被实现为可用于捕捉红外线的红外照相机。或者,传感器116可以是可用于捕捉(可见或不可见的)反射光的任何设备,如照相机、扫描激光二极管、和/或超声波换能器的任意组合。
在传感器116捕捉反射光118以作为图像序列之后,可以分析该图像序列以跟踪指针114的移动。在一些实施方式中,两个照相机可以捕捉反射光118以便确定指针的垂直位置、侧向位置和/或接近位置。如图1所示,垂直位置可以沿坐标系120的Z轴定义(即,垂直于光场110平面的、朝向或离开工作表面112的距离);侧向位置可以沿坐标系120的Y轴定义(即,光场110平面内的、平行于键盘124的端侧122的距离);及接近位置可以沿坐标系120的X轴定义(即,光场110平面内的、朝向或离开光场生成器108的距离)。
例如,如果用户106在光场110内沿X轴朝向传感器116移动其手指,则传感器116可以捕捉从手指反射的光以作为图像序列。然后可以分析在该图像序列中的每个图像中捕捉的反射光以跟踪手指的移动,该移动是减小的接近定位同时垂直定位和侧向定位保持不变。该跟踪的移动(即,接近移动)可以转换为移动光标命令。因此,显示设备104上显示的光标126可以在相应的轨迹128中在显示设备上向左朝文件夹130移动。类似地,如果用户106在Y方向朝向显示设备104移动其手指,则侧向移动可以转换为在显示设备104上向上移动光标126的移动光标命令。
虚拟触摸接口环境100可以用于向计算设备102发出各种命令(单触摸或多触摸)。可发出的命令的一些示例可以包括移动指针114以发出光标命令、在光场110中向上和向下移动指针以发出点击/按压事件、在顺时针圆圈中盘旋指针以发出向下浏览命令(向下滚动、“前进”导航命令等)、在逆时针圆圈中盘旋指针114以发出向上浏览命令(向上滚动、“后退”导航命令等)、将两个手指移动在一起或分开以发出放大/缩小命令、旋转两个手指以发出旋转对象命令、以捏的方式合拢两个手指以发出选择(抓取)和拖动命令、用指针114画出字符以发出对象输入(如键入)命令等。这些示例只是可以通过图1的虚拟触摸接口环境100发出的说明性命令。在其他实施方式中,触摸接口环境100可以用于向计算设备102发出任何单触摸或多触摸事件。
虽然图1示出传感器116连接到键盘124,但应理解,传感器可以按任何方式实现和/或配置。例如,光场生成器108和/或传感器116可以实现为键盘124的集成组件或它们可以作为外围附件安装到键盘。或者,传感器116可以实现为位于光场110的合乎需要的位置附近并与计算设备102(无线或有线地)通信的独立设备。例如,只要传感器116和光场110之间的路径(如视线)不被其他物体挡住,则传感器116就可以位于任何位置。
图2示出其中可以实现虚拟触摸接口以向计算设备102发出命令的计算系统200的示例。计算系统200只是计算环境的一个示例且不旨在对虚拟触摸接口的使用范围或功能提出任何限制。
计算系统200包括能够生成光场、当指针在光场内移动时捕捉来自该指针的反射、分析捕捉到的反射、并基于该分析发出命令的计算设备202。计算设备202可以包括但不限于个人计算机201(1)、移动电话202(2)(包括智能电话)、个人数字助理(PDA)202(M)。还可以想到其他计算设备,诸如电视机、机顶盒、游戏控制台、及响应于传感到光场110内的移动而发出命令的其他电子设备。计算设备202中的每个可以包括一个或多个处理器204和存储器206。
如上所述,计算系统200基于分析从移动指针捕捉到的反射来发出命令。例如,计算系统200可以用于响应于在光场110内移动的指针来控制显示设备104上显示的光标。
在一些实施方式中,计算系统200可以包括光场生成器108(如,红外线光源、红外线激光二极管、和/或光电二极管),光场生成器108可以通过场生成器接口208发出光以生成光场110。如上文参考图1所述,光场生成器108可以是发出诸如红外线等不可见形式的电磁辐射的红外发光二极管(LED)栅。在光场生成器108是LED栅的情况下,场生成器接口208可以控制该LEB栅以生成用户106不可见的红外光场。
在一些实施方式中,计算系统200可以包括通过传感器接口210捕捉从指针反射的光的一个或多个传感器116(如,扫描激光二极管、超声波换能器、和/或照相机)。在一些实施方式中,传感器116可以捕捉反射光以作为图像序列212。
在一些实施方式中,计算系统200可以包括控制连接到计算系统200的显示器的输出接口214。例如,输出接口214可以控制显示设备104上显示的光标。显示设备104可以是独立的单元或可以结合到计算设备202中,如膝上型计算机、移动电话、平板计算机等情况。
存储器206可以包括应用程序、模块和/或数据。在一些实施方式中,该存储器是系统存储器(即,只读存储器(ROM)、随机存取存储器(RAM))、不可移动存储器(即,硬盘驱动器)和/或可移动存储器(即,磁盘驱动器、光盘驱动器)中的一个或多个。为计算设备202存储计算机可读指令、数据结构、程序模块和其他数据的各种计算机存储介质可以包括在存储器206中。在一些实现中,存储器206可以包括分析捕捉从移动指针114反射的光的图像序列212的虚拟触摸引擎216。
虚拟触摸引擎216可以包括接口模块218、跟踪模块220和命令模块222。这些模块可以共同地执行各种操作以基于分析由传感器116捕捉的反射光来发出命令。一般而言,接口模块218生成光场110,跟踪模块220捕捉和分析图像序列212,并且命令模块222基于该分析发出命令。在下面的各节中对这些模块做出附加参考。
说明性操作
图3是基于分析从在光场内移动的指针捕捉到的反射来发出命令的说明性过程300的流程图。过程300可以由虚拟触摸引擎216执行并参考图1和2讨论。
过程300被示为逻辑流图中的一组框,这些框表示可以用硬件、软件或其组合来实现的操作的序列。在软件的上下文中,这些框表示计算机可执行指令,这些指令当由一个或多个处理器执行时使一个或多个处理器执行既定操作。一般而言,计算机可执行指令包括执行特定功能或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等。描述各操作的次序不旨在被解释为限制且任何数量的所述框可以按任何次序组合和/或并行组合以实现该过程。除了过程300之外,在本公开中描述的其他过程也应相应地解释。
在302,场生成器接口208控制光场生成器108(如,LED栅)以生成光场110。在一些实施方式中,场生成器接口208引导光场生成器108平行于诸如桌面等工作表面来投影光场。光场110可以靠近键盘以使用户可以通过键盘和/或光场发出命令而不必移动位置。
在304,传感器接口210控制一个或多个传感器116(如,红外照相机)以捕捉从光场110内的指针反射的光以作为图像序列212。例如,如果用户106在光场110中移动指针114以控制光标,则传感器116可以捕捉从在光场内移动的指针114反射的光。在一些实施方式中,指针114可以是用户的手指以使传感器接口210依赖于用户皮肤的自然反射性来捕捉反射光。在一些情况下,用户106可以通过将反射设备附连到手指上来增加其手指的反射性。或者,指针114可以是包括诸如条形码等反射物品的任何物理物体。应理解,传感器可以捕捉可见光或不可见光。
在306,跟踪模块220分析在图像序列212中捕捉的反射光以跟踪指针114的移动。在306,该跟踪模块可以通过确定在图像序列212的每个图像中捕捉的反射光的位置来跟踪指针的移动。在一些实施方式中,在306,将图像序列中的每个图像作为二维图像来分析以确定反射光的位置。可以按照垂直位置(即,沿Z轴的位置)、侧向位置(即,沿Y轴的位置)、和/或接近位置(即,沿X轴的位置)来确定反射光的位置。
在308,命令模块222基于在306执行的分析来发出命令。例如,如果跟踪模块220基于在306分析在图像序列212中捕捉的反射光跟踪移动的指针作为接近移动,则在308命令模块可以发出移动光标命令以移动显示设备上显示的光标。
图4a示出通过分析捕捉从指针反射的光的图像序列来跟踪该指针的移动的示例性环境400。示例性环境400示出集成到膝上型计算机404的侧部402并可用于通过分析捕捉从指针反射的光的图像序列来跟踪该指针的移动的虚拟触摸设备。虽然图4a示出虚拟触摸设备被集成到膝上型计算机404的侧部402,但虚拟触摸设备可以集成到能够生成光场、当指针在光场中移动时捕捉来自该指针的反射、分析捕捉到的反射,并基于该分析发出命令的任何计算设备中,如台式计算机、移动电话和/或PDA中。在一些实施方式中,虚拟触摸设备内置在计算设备中。或者,虚拟触摸设备可以作为外围附件安装到计算设备上。例如,虚拟触摸设备可以通过通用串行总线(USB)端口通信地耦合到计算设备。
当用户106在光场110内移动指针114时,光场中的光可以从指针114反射并朝传感器一406和传感器二408反射,如箭头118所示。传感器一406和传感器二408都可以捕捉反射光118以作为图像序列410。
图4b示出图4a的图像序列410的说明性图像。图像一412a和图像二412b表示图像序列410中分别从传感器一406和传感器二408捕捉的两个图像。光部分414和416表示其中反射光118(即,从指针114反射的光)分别由传感器406和408捕捉到的区域。图像412中的较暗区域418、420表示其中传感器406、408捕捉环境光或来自较低反射性和/或较远物体的反射的区域。
图像412包括可以用于确定指针114的位置的多个像素422。例如,可以基于光部分414、416的垂直像素距离424、426确定指针114的垂直位置(即,沿Z轴的位置)。可以从图像一412a的垂直像素距离424或图像二412b的垂直像素距离426来计算垂直位置。或者,可以使用图像一412a和图像二412b的垂直像素距离424、426两者来计算指针的垂直位置。应理解,可以使用其他技术来确定垂直位置。例如,虚拟触摸接口可以包括一个位于另一个之上并由预定距离分隔的一个以上平行光场。在这样的情况下,可以基于指针114所穿透的光场的数量来确定垂直位置。穿透的触摸场越多,垂直位置越大。
可以基于光部分的侧向像素距离428、430来确定指针114的侧向位置(即,沿Y轴的位置)。可以从图像一412a的侧向像素距离428或图像二412b的侧向像素距离430来计算侧向位置。或者,可以使用图像一412a和图像二412b的侧向像素距离428、430两者来计算侧向位置。
由于两个图像是从两个不同的照相机(如,传感器406、408)捕捉的,所以可以基于图像412的垂直像素距离424、426和侧向像素距离428、430来三角测量出接近位置(即,沿X轴的位置)。
虽然图4b示出图像412包括单个光部分(即,传感器406、408捕捉光部分414、416作为从单个指针反射的光),但图像412可以包含多个光部分(即,传感器406、408捕捉从光场内的多个指针反射的光)。例如,如果用户106发出多触摸事件(如,缩放、旋转等),则图像412可以包含表示传感器正在捕捉来自光场110内的多个指针的反射光的多个光部分。
图5是分析一个或多个计算事件的图像输入的说明性过程500的流程图。过程500还描述上文所述的跟踪指针移动元素(即,图3的框306)。过程500的操作次序不旨在被解释为限制。
在502,跟踪模块220接收输入。该输入可以是如图1所示捕捉从移动指针114反射的光的图像序列。如图4b所示,反射光可以采取输入中的一个或多个光部分的形式。在该输入中捕捉的光部分可以表示向计算设备发出的命令。
在504,跟踪模块220处理输入。在一些实施方式中,应用高斯滤波器以平滑输入的图像。在504,跟踪模块220可以附加地将输入转换为二进制格式。
在506,跟踪模块220分析输入。操作508至512提供跟踪模块220分析输入的各种子操作。例如,分析输入可以包括在508查找输入中的一个或多个光部分,在510确定光部分的大小,和/或在512确定光部分的位置。
在508,跟踪模块220分析输入以查找光部分。由于输入可以包含单个光部分(如,用户发出单触摸事件)或输入可以包含多个光部分(如,用户发出多触摸事件),所以在508跟踪模块220可以分析输入以查找一个或多个光部分。
在508,跟踪模块220可以利用基于边缘的检测技术来查找光部分。例如,基于边缘的检测技术可以分析输入的色彩强度梯度来定位光部分的边缘,因为光部分和较暗部分之间的色彩强度的差别是明显的。在508,在光部分中的一个或多个部分隐藏的情况下,基于边缘的检测技术可以使用外插技术来查找光部分。
在510,跟踪模块220可以确定光部分的大小。光部分的大小有助于确定用户106是否旨在发出命令。例如,在一些情况下,传感器可以捕捉并非指针114的物体反射的光。在这样的情况下,如果光部分的大小在指针大小的预定范围之外,则在506跟踪模块220可以排除光部分中的一个或多个。光部分的大小可另外用于确定向计算设备发出的命令的类型。例如,如果光部分的大小很大(如,两倍于光部分的正常大小),则这可能表明用户106将两个手指并在一起,如将大拇指和食指捏在一起以发出抓取命令。
在512,跟踪模块220确定输入中的每个光部分的位置。确定光部分的位置可以包括计算垂直像素距离424、426(即,垂直于光场110平面的、朝向或离开工作表面的距离)、计算侧向像素距离428、430(即,光场110平面内的、平行于键盘124的端侧122的距离)、和/或基于每个光部分的垂直像素距离和侧向像素距离来三角测量接近距离(即,光场110平面内的、朝向或离开光场生成器的距离)。
在514,跟踪模块220可以基于在506执行的输入分析来跟踪指针114的移动。一旦基于输入确定了各时刻的位置(如,垂直像素距离、侧向像素距离,和接近距离),则在514,跟踪模块220按时间顺序收集每一指针的位置以作为时间的函数来跟踪指针的移动。
在516,跟踪模块220将跟踪的移动转换为向计算设备发出的命令。例如,如果指针114的接近距离在每个时间顺序的输入中减小而垂直像素距离和侧向像素距离保持不变,则在514跟踪模块220可以跟踪指针的移动以作为在显示设备上向左移动光标的命令。在输入包含多个光部分的情况下,在516跟踪模块220可以将跟踪的移动转换为多触摸事件(作为缩放、旋转等)。例如,如果在508找到两个光部分,且这两个光部分移动得更加靠在一起,则跟踪模块220可以将这样跟踪的移动转换为缩小命令。
在518,命令模块222向计算设备发出命令。在一些实施方式中,在518命令模块222还可以向用户提供反馈以便增强用户的交互体验。例如,反馈可以包括改变对象的外观、显示描述所发出命令的临时窗口,和/或输出描述所发出命令的语音命令中的一个或多个。
图6示出可以向计算设备发出的一些示例性多触摸命令600。根据各实施方式,虚拟触摸接口可以用于发出单触摸命令(如,移动光标、选择对象、向上/向下浏览、向前/向后导航等)或多触摸命令(如,缩放、抓取、拖动等)。例如,用户可以通过将拇指604和食指606碰在一起来发出抓取命令602。响应于抓取命令602,诸如文件夹608等所选择的项可以如同被用户106抓取一样来响应。用户然后可以通过在光场内移动拇指和食指来发出拖动命令610以将文件夹608拖动到所需位置612。当文件夹位于所需位置612时,用户可以分开拇指和食指以模拟放下命令614。响应于放下命令614,可以将文件夹置于所需位置612。
多触摸命令600还示出可以向用户提供反馈以便增强用户的交互体验的一些示例。例如,响应于抓取命令602提供的反馈可以包括用虚线616框住“抓取的”文件夹608、显示描述命令的临时窗口618、和/或输出描述命令的语音指令620中的一个或多个。另外,响应于拖动命令610提供的反馈可以包括显示描述命令的临时窗口622和/或输出描述命令的语音命令624中的一个或多个。
结论
虽然已用结构特征和/或方法动作专用的语言描述了本发明的技术,但应理解,所附权利要求不必限于上述具体特征或动作。相反,上述具体特征和动作是作为实现这样的技术的示例形式公开的。

Claims (10)

1.一种计算机实现的方法,包括:
从源发射光以生成与工作表面平行的光场;
在位于所述光场外的一个或多个传感器处捕捉光作为图像序列,所述光是从位于所述光场内的指针反射的;
分析在所述图像序列中捕捉到的反射光以跟踪所述指针的移动;以及
分析所跟踪的移动以向计算设备发出命令。
2.如权利要求1所述的计算机实现的方法,其特征在于,生成所述光场包括经由一个或多个红外发光二极管(LED)栅生成红外光场,所述红外光场的长宽比基本上等于所述计算设备的显示设备的高宽比。
3.如权利要求1所述的计算机实现的方法,其特征在于,生成所述光场包括经由一个或多个红外激光二极管生成红外光场。
4.如权利要求1所述的计算机实现的方法,其特征在于,所述命令是用于经由所述计算设备操纵用户界面的以下命令之一:缩放命令、导航命令、以及旋转命令。
5.如权利要求1所述的计算机实现的方法,其特征在于,分析所述反射光分析所述图像序列的每一图像的色彩强度梯度来定位所述图像序列的每一图像内的一个或多个光部分的边缘。
6.如权利要求1所述的计算机实现的方法,其特征在于,所述一个或多个传感器包括一个或多个红外相机。
7.如权利要求1所述的计算机实现的方法,其特征在于,分析所述图像序列中的反射光包括:
对于所述图像序列的每一图像,确定所述指针的垂直像素位置;
对于所述图像序列的每一图像,确定所述指针的侧向像素位置;以及
基于所述图像序列的每一图像的所述垂直像素位置和所述侧向像素位置,三角测量出接近位置。
8.一种虚拟触摸接口系统,包括:
一个或多个处理器;以及
存储可由所述一个或多个处理器执行的模块的存储器,所述模块包括:
用于生成红外光场的接口模块;
用于分析光场内的由位于所述光场外的传感器捕捉到图像序列中的移动指针的跟踪模块,所述跟踪模块分析所述移动指针以:(1)定位所述图像序列中的每一图像的一个或多个光部分;(2)基于所定位的一个或多个光部分来跟踪所述移动指针的移动,以及(3)将所跟踪的移动转换成命令;以及
用于向所述计算设备发出所述命令的命令模块。
9.如权利要求8所述的虚拟触摸接口系统,其特征在于,所述跟踪模块还确定所述一个或多个光部分中的每一个的大小。
10.如权利要求8所述的方法,其特征在于,所述命令模块还基于所发出命令提供反馈,所述反馈是以下各项中的一个或多个:改变对象的外观、显示描述所发出命令的临时窗口、以及输出描述所发出命令的语音命令。
CN2011800279156A 2010-06-07 2011-05-20 虚拟触摸接口 Pending CN102934060A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/795,024 2010-06-07
US12/795,024 US20110298708A1 (en) 2010-06-07 2010-06-07 Virtual Touch Interface
PCT/US2011/037416 WO2011156111A2 (en) 2010-06-07 2011-05-20 Virtual touch interface

Publications (1)

Publication Number Publication Date
CN102934060A true CN102934060A (zh) 2013-02-13

Family

ID=45064071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011800279156A Pending CN102934060A (zh) 2010-06-07 2011-05-20 虚拟触摸接口

Country Status (4)

Country Link
US (1) US20110298708A1 (zh)
EP (1) EP2577432A2 (zh)
CN (1) CN102934060A (zh)
WO (1) WO2011156111A2 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9677930B2 (en) 2013-04-29 2017-06-13 Dyna Image Corporation Method of interrupt control and electronic system using the same
CN107340962A (zh) * 2017-04-13 2017-11-10 北京安云世纪科技有限公司 基于虚拟现实设备的输入方法、装置及虚拟现实设备

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060152482A1 (en) * 2005-01-07 2006-07-13 Chauncy Godwin Virtual interface and control device
EP2023812B1 (en) 2006-05-19 2016-01-27 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
TWI414980B (zh) * 2010-09-10 2013-11-11 Chip Goal Electronics Corp 虛擬觸控裝置與相關方法
KR101662726B1 (ko) * 2010-12-29 2016-10-14 삼성전자주식회사 전자 기기의 스크롤 방법 및 장치
KR101789683B1 (ko) * 2011-06-13 2017-11-20 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
WO2013032933A2 (en) 2011-08-26 2013-03-07 Kinecticor, Inc. Methods, systems, and devices for intra-scan motion correction
US10345911B2 (en) * 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
TW201423484A (zh) 2012-12-14 2014-06-16 Pixart Imaging Inc 動態偵測系統
CN103914135B (zh) * 2012-12-28 2018-01-26 原相科技股份有限公司 动态检测系统
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN109008972A (zh) 2013-02-01 2018-12-18 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
US9552073B2 (en) 2013-12-05 2017-01-24 Pixart Imaging Inc. Electronic device
WO2015148391A1 (en) 2014-03-24 2015-10-01 Thomas Michael Ernst Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US9734589B2 (en) 2014-07-23 2017-08-15 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
JP6317699B2 (ja) * 2015-03-27 2018-04-25 株式会社Nttドコモ 位置検出装置及び位置検出方法
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN109859738A (zh) * 2019-01-17 2019-06-07 安徽工程大学 一种采用虚拟键盘的智能音箱及其语言识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101002196A (zh) * 2004-08-10 2007-07-18 摩托罗拉公司 用于手持电子设备的用户接口控制器方法和装置
US20090139778A1 (en) * 2007-11-30 2009-06-04 Microsoft Corporation User Input Using Proximity Sensing
US20090278799A1 (en) * 2008-05-12 2009-11-12 Microsoft Corporation Computer vision-based multi-touch sensing using infrared lasers
CN101581997A (zh) * 2008-05-12 2009-11-18 财团法人工业技术研究院 多点触控位置追踪装置及互动系统与互动影像处理方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4868912A (en) * 1986-11-26 1989-09-19 Digital Electronics Infrared touch panel
US6037937A (en) * 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
EP2264895A3 (en) * 1999-10-27 2012-01-25 Systems Ltd Keyless Integrated keypad system
JP3819654B2 (ja) * 1999-11-11 2006-09-13 株式会社シロク 指示体の識別機能を有する光デジタイザ
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7133031B2 (en) * 2002-10-31 2006-11-07 Microsoft Corporation Optical system design for a universal computing device
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
GB2404819A (en) * 2003-08-05 2005-02-09 Research In Motion Ltd Mobile communications device with integral optical navigation
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US20070159453A1 (en) * 2004-01-15 2007-07-12 Mikio Inoue Mobile communication terminal
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US7534988B2 (en) * 2005-11-08 2009-05-19 Microsoft Corporation Method and system for optical tracking of a pointing object
US8614669B2 (en) * 2006-03-13 2013-12-24 Navisense Touchless tablet method and system thereof
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US7813774B2 (en) * 2006-08-18 2010-10-12 Microsoft Corporation Contact, motion and position sensing circuitry providing data entry associated with keypad and touchpad
US8139045B2 (en) * 2006-12-15 2012-03-20 Lg Display Co., Ltd. Display device having multi-touch recognizing function and driving method thereof
US7468785B2 (en) * 2007-02-14 2008-12-23 Lumio Inc Enhanced triangulation
EP2135155B1 (en) * 2007-04-11 2013-09-18 Next Holdings, Inc. Touch screen system with hover and click input methods
US20080256494A1 (en) * 2007-04-16 2008-10-16 Greenfield Mfg Co Inc Touchless hand gesture device controller
EP2250546A2 (en) * 2008-02-11 2010-11-17 Next Holdings Limited Systems and methods for resolving multitouch scenarios for optical touchscreens
US20110205189A1 (en) * 2008-10-02 2011-08-25 John David Newton Stereo Optical Sensors for Resolving Multi-Touch in a Touch Detection System
US8456320B2 (en) * 2008-11-18 2013-06-04 Sony Corporation Feedback with front light
WO2011011008A1 (en) * 2009-07-23 2011-01-27 Hewlett-Packard Development Company, L.P. Display with an optical sensor
US8179376B2 (en) * 2009-08-27 2012-05-15 Research In Motion Limited Touch-sensitive display with capacitive and resistive touch sensors and method of control
US8320622B2 (en) * 2010-03-29 2012-11-27 Sharp Laboratories Of America, Inc. Color gradient object tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101002196A (zh) * 2004-08-10 2007-07-18 摩托罗拉公司 用于手持电子设备的用户接口控制器方法和装置
US20090139778A1 (en) * 2007-11-30 2009-06-04 Microsoft Corporation User Input Using Proximity Sensing
US20090278799A1 (en) * 2008-05-12 2009-11-12 Microsoft Corporation Computer vision-based multi-touch sensing using infrared lasers
CN101581997A (zh) * 2008-05-12 2009-11-18 财团法人工业技术研究院 多点触控位置追踪装置及互动系统与互动影像处理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9677930B2 (en) 2013-04-29 2017-06-13 Dyna Image Corporation Method of interrupt control and electronic system using the same
CN107340962A (zh) * 2017-04-13 2017-11-10 北京安云世纪科技有限公司 基于虚拟现实设备的输入方法、装置及虚拟现实设备

Also Published As

Publication number Publication date
EP2577432A2 (en) 2013-04-10
WO2011156111A3 (en) 2012-02-23
US20110298708A1 (en) 2011-12-08
WO2011156111A2 (en) 2011-12-15

Similar Documents

Publication Publication Date Title
US11392212B2 (en) Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments
CN102934060A (zh) 虚拟触摸接口
US11567578B2 (en) Systems and methods of free-space gestural interaction
US11237625B2 (en) Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US20200320793A1 (en) Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments
US11181985B2 (en) Dynamic user interactions for display control
US9911240B2 (en) Systems and method of interacting with a virtual object
US20220083880A1 (en) Interactions with virtual objects for machine control
US20190362562A1 (en) Throwable Interface for Augmented Reality and Virtual Reality Environments
US9857868B2 (en) Method and system for ergonomic touch-free interface
US20200004403A1 (en) Interaction strength using virtual objects for machine control
US9063573B2 (en) Method and system for touch-free control of devices
US20120274550A1 (en) Gesture mapping for display device
US20120113223A1 (en) User Interaction in Augmented Reality
Xiao et al. A hand gesture-based interface for design review using leap motion controller
US20230342024A1 (en) Systems and Methods of Interacting with a Virtual Grid in a Three-dimensional (3D) Sensory Space

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1179719

Country of ref document: HK

ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150724

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150724

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130213

REG Reference to a national code

Ref country code: HK

Ref legal event code: WD

Ref document number: 1179719

Country of ref document: HK