CN105593785B - 凝视辅助触摸屏输入 - Google Patents
凝视辅助触摸屏输入 Download PDFInfo
- Publication number
- CN105593785B CN105593785B CN201380080038.8A CN201380080038A CN105593785B CN 105593785 B CN105593785 B CN 105593785B CN 201380080038 A CN201380080038 A CN 201380080038A CN 105593785 B CN105593785 B CN 105593785B
- Authority
- CN
- China
- Prior art keywords
- touch
- signal
- user
- partially
- computing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
公开了与凝视辅助触摸屏输入有关的实施例。在某些实施例中,一种计算系统可接收指示触摸屏上的用户凝视的区域的凝视位置信号,接收指示用户在触摸屏上的触摸的触摸信号,并且至少部分地基于凝视位置信号和触摸信号而生成用于计算系统的输入信号。可公开和/或要求保护其他实施例。
Description
技术领域
本公开一般地涉及数据处理的领域,并且更具体地涉及凝视辅助触摸屏输入。
背景技术
基于触摸屏的设备(诸如平板计算机和智能电话)的用户常常由于设备的在不同种类的触摸之间进行区分并以出乎意料的方式对意外(stray)触摸进行响应的有限能力而感到沮丧。另外,当用户以不寻常的角度(例如,从设备的极右或左侧)观看这些设备时,由于其中触摸的期望位置与触摸的实际位置不对准的视差效应而危及触摸准确度。这些性能限制可显著地降低用户对触摸屏设备的体验质量。
附图说明
通过结合附图的以下详细描述,将很容易理解实施例。为了促进本描述,相同的附图标记指示相同的结构元件。在附图的各图中,实施例是以示例的方式而不是以限制的方式示出。
图1是根据各种实施例的被配置用于凝视辅助触摸屏输入的说明性计算系统的框图。
图2是根据各种实施例的可由图1的计算系统实现的说明性凝视辅助触摸屏输入系统的框图。
图3图示出根据各种实施例的针对用户观看图1的计算系统的触摸屏时的凝视位置信号的生成的情形。
图4图示出根据各种实施例的图1的计算系统的触摸屏上的用户凝视的区域。
图5和6图示出根据各种实施例的用户的凝视的区域、触摸和在处理用户的触摸信号之前和之后在图1的计算系统的触摸屏上再现的显示。
图7图示出根据各种实施例的两个用户观看图1的计算系统的触摸屏。
图8和9图示出根据各种实施例的凝视区域、触摸和在处理两个用户的触摸信号之前和之后在图1的计算系统的触摸屏上再现的显示。
图10图示出根据各种实施例的针对当用户观看图1的计算系统的触摸屏时的位置信号的生成的情形。
图11和12图示出根据各种实施例的在处理位置信号之前和之后在图1的计算系统的触摸屏上再现的显示。
图13—15是根据各种实施例的用于生成凝视辅助触摸屏输入的说明性过程的流程图。
具体实施方式
公开了与凝视辅助触摸屏输入有关的实施例。在某些实施例中,计算系统可接收指示触摸屏上的用户凝视的区域的凝视位置信号,接收指示用户在触摸屏上的触摸的触摸信号,并且至少部分地基于该凝视位置信号和触摸信号而生成用于计算系统的输入信号。
在以下详细描述中,对附图进行参考,其构成本申请的一部分,其中相同的附图标记自始至终表示相同部分,并且其中以图示的方式示出了可实施的实施例。应理解的是在不脱离本公开的范围的情况下,可利用其他实施例并且可以进行结构或逻辑改变。因此,不应在限制性意义上理解以下详细描述。
可以以对理解要求保护的主题最有帮助的方式依次描述各种操作作为多个离散动作或操作。然而,不应将描述的顺序理解为暗示这些操作必须是顺序相关的。特别地,这些操作可不按照呈现的顺序执行。所述的操作可按照与所述实施例不同的顺序执行。可执行各种附加操作和/或在附加实施例中可省略所述操作。
出于本公开的目的,短语“A和/或B”意指(A)、(B)或(A和B)。出于本公开的目的,短语“A、B和/或C”意指(A)、(B)、(C)、(A和B)、(A和C)、(B和C)或(A、B和C)。
本描述使用短语“在实施例中”或“在多个实施例中”,其可每个指代相同或不同实施例中的一个或多个。此外,如相对于本公开的实施例所使用的术语“包括”、“包含”、“具有”等是同义的。如本文所使用的那样,短语“耦合”可意指两个或更多元素进行直接的物理或电接触,或者两个或更多元素并未进行相互的直接接触,但是仍相互合作或交互(例如,经由一个或多个中间元素,其可执行其自己的变换或者具有其自己的效果)。例如,当两个元素与公共元素(例如,存储器设备)通信时,可将两个元素相互耦合。如本文所使用的那样,术语“逻辑”可指代专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理器(共享、专用或组)和/或存储器(共享、专用或组)、组合逻辑电路和/或提供所述功能的其他适当部件、是专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理器(共享、专用或组)和/或存储器(共享、专用或组)、组合逻辑电路和/或提供所述功能的其他适当部件的一部分、或者包括专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理器(共享、专用或组)和/或存储器(共享、专用或组)、组合逻辑电路和/或提供所述功能的其他适当部件。如本文所使用的那样,信号可被部件“接收到”,如果其是在该部件外部或内部生成的并被该部件确认和/或处理的话。
图1描绘了根据各种实施例的被配置用于凝视辅助触摸屏输入的说明性计算系统100。在某些实施例中,计算系统100可被配置成接收指示计算系统的触摸屏上的用户凝视区域的凝视位置信号,接收指示用户在触摸屏上的触摸的触摸信号,并且至少部分地基于凝视位置信号和触摸信号而生成用于计算机系统的输入信号。计算系统100可包括个人计算设备102、触摸屏104以及远程计算设备106。个人计算设备102、触摸屏104和远程计算设备106中的每一个可包括凝视辅助触摸屏输入部件(在图1中分别地示出为凝视辅助触摸屏输入部件114、116和118)。可将凝视辅助触摸屏输入操作适当地分布在计算系统100的凝视辅助触摸屏输入部件114、116和118之间。在本文中讨论了个人计算设备102、触摸屏104和远程计算设备106之间的凝视辅助触摸屏输入操作的分布的若干示例,但是可使用更多或更少部件的任何其他组合或操作的任何其他分布。例如,在某些实施例中,可省略凝视辅助触摸屏输入部件114或凝视辅助触摸屏输入部件118,并且所有适当的凝视辅助触摸屏输入操作(例如,本文所述那些中的任何一个)可由其余凝视辅助触摸屏输入部件执行。在某些实施例中,可将计算系统100配置为下面参考图2所讨论的凝视辅助触摸屏输入系统200。除结合在本文中的本公开的凝视辅助触摸屏输入教导之外,个人计算设备102、触摸屏104以及远程计算设备106可以是在本领域中已知的大量此类设备。下面描述具体的但非限制性示例。
可通过通信路径108、110和112来使能计算系统100的部件之间的通信。通信路径108、110和112每个可包括有线通信路径和/或无线通信路径、通过直接耦合和/或通过个域网、局域网和/或广域网。个人计算设备102、触摸屏104和远程计算设备106中的每一个可包括用于支持通信路径108、110和112的适当硬件,诸如网络接口卡、调制解调器、WiFi设备、蓝牙设备等。在某些实施例中,通信路径108、110和112可以是如图1中所示的部件之间的直接通信路径。如本文所使用的对图1的计算系统100(或在本文中公开的任何系统或设备)的两个部件之间的“直接”通信路径的参考可指代并不通过另一所示部件路由但可通过其他未示出设备(例如,路由器和/或交换机)路由的通信路径。
包括在计算系统100中的每个设备可包括处理设备和存储设备(未示出)。处理设备可包括一个或多个处理设备,诸如一个或多个处理核、ASIC、电子电路、处理器(共享、专用或组)、组合逻辑电路和/或可被配置成处理电子数据的其他适当部件。该存储设备可包括任何适当存储器或大容量存储设备(诸如固态驱动器、磁盘、硬盘驱器、紧凑式盘只读存储器(CD-ROM)等)。包括在计算系统100中的每个计算设备可包括用以将包括在各计算设备中的处理设备、存储设备以及任何其他设备通信耦合的一个或多个总线(以及总线桥,如果适当的话)。存储设备可包括一组计算逻辑,其可包括具有存储在其中的指令的计算机可读介质的一个或多个拷贝,该指令在被计算设备的处理设备执行时可使得计算设备实现本文公开的任何技术和方法或其任何部分。在某些实施例中,计算逻辑可包括下面参考图2所讨论的任何逻辑。
虽然在图1中示为三个单独部件,但可以任何期望方式将个人计算设备102、触摸屏104以及远程计算设备106组合或划分。例如,在计算系统100的某些实施例中,个人计算设备102可以是平板计算机或智能电话,并且触摸屏104可与平板计算机或智能电话成一整体(例如,形成平板计算机或智能电话的表面)。在某些实施例中,触摸屏104可以是独立设备(例如,绘图平板计算机),并且个人计算设备102可以是台式计算机,其被配置成基于通过有线或无线通信路径108从触摸屏104传输到个人计算设备102的触摸数据来执行凝视辅助触摸屏输入操作(诸如本文所述的那些)。在本文中描述了许多附加组合。
个人计算设备102可以是被集成到被配置成穿戴在用户(或“穿戴者”)的身体上的衣服、附件或其他支撑结构中的计算设备。用于可穿戴个人计算设备102的适当支撑结构的示例可除其他之外包括眼镜、头戴式听筒、头发附件(例如,发带或发夹)、耳机、首饰(例如,胸针、耳环或项链)、腕带(例如,手表)、颈带(例如,领带或围巾)、外衣(例如,衬衫、裤子、裙子或夹克)、鞋子、勋带或名牌、接触透镜或可植入式支撑结构等。在某些实施例中,个人计算设备102可以是包括图像捕捉设备(例如,下面讨论的图2的图像捕捉设备232)的可穿戴计算设备。在某些实施例中,个人计算设备102可以是具有图像捕捉设备的腕戴式计算设备。在某些实施例中,个人计算设备102可以是具有面对穿戴者的图像捕捉设备的眼镜安装式计算设备。在某些实施例中,个人计算设备102可以是可穿戴计算,其包括“面对世界”图像捕捉设备(即,指向远离穿戴者方向的图像捕捉设备)。
个人计算设备102可以是台式计算机或独立式计算设备或者被配置用于在口袋、背包或其他携带箱中携带并用于用用户的一只或两只手操作的计算设备。可充当个人计算设备102的计算设备的示例包括蜂窝式电话、智能电话、其他手持式移动通信设备、平板计算机、电子书阅读器、个人数字助理、膝上型计算机或其他此类计算设备。虽然可以以单数提及个人计算设备102(和本文所述的其他部件),但可在个人计算设备102中包括任何数量的个人计算设备(并且类似地,任何部件可以包括多个此类部件)。
可以由例如个人计算设备102上的应用或插件来控制由个人计算设备102执行的图像处理及其他操作。在某些实施例中,个人计算设备102可包括两个或更多计算设备,其中的一个具有比另一个更多的计算资源(例如,处理功率、存储器和/或通信带宽)。例如,个人计算设备102可包括较大平板计算设备和较小手腕或眼镜安装计算设备。在此类实施例中,由较小计算设备捕捉并初步处理的数据(例如,图像、音频或其他传感器数据)可被从较小计算设备传输到较大计算设备以用于进一步处理。
计算设备100可包括触摸屏104。如本文所使用的“触摸屏”可包括提供屏幕的设备,在该屏幕上再现可通过与用户的手指或其他接触器械(例如,触笔)的接触来控制的视觉显示。为了便于讨论,在本文中讨论的主要接触器械可以是用户的手指,但是可使用任何适当的接触器械来代替手指。可用来实现触摸屏104的触摸屏技术的非限制性示例包括电阻触摸屏、表面声波触摸屏、电容触摸屏、基于红外的触摸屏以及任何其他适当触摸屏技术。
触摸屏104可包括用以生成触摸信号的适当传感器硬件和逻辑。触摸信号可包括关于触摸的位置(例如,描述触摸的面积、形状或轮廓的一组或多组(x,y)坐标)、触摸的压力(例如,通过用户的手指或可变形触笔与触摸屏104之间的接触面积或者用压力传感器来测量)、接触持续时间的信息、任何其他适当信息或此类信息的任何组合。在某些实施例中,触摸屏104可被配置成将触摸信号经由有线或无线通信路径(例如,分别是路径108和112)流式传输到个人计算设备102和/或远程计算设备106。在某些实施例中,如上所述,触摸屏104可本地地连接到个人计算设备102(或与之集成)。
远程计算设备106可包括一个或多个服务器(例如,以“云”计算配置布置)或远离个人计算设备102和/或触摸屏104的其他计算设备。可根据任何远程有线或无线通信协议来配置个人计算设备102与远程计算设备106之间的通信路径110以及触摸屏104与远程计算设备106之间的通信路径112。在某些实施例中,远程计算设备106可具有比个人计算设备102或触摸屏104更多的计算资源(例如,处理功率、存储器和/或通信带宽)。因此,在某些实施例中,可将由个人计算设备102和/或触摸屏104捕捉并初步处理的数据(例如,在触摸信号中体现的触摸数据)通过通信路径110和/或112传输到远程计算设备106以用于进一步处理。在某些实施例中,远程计算设备106可执行下面参考图2所讨论的凝视辅助触摸屏输入操作的大部分。在某些实施例中,远程计算设备106可包括用于存储触摸信号、凝视位置信号(下面讨论)或者当计算系统100执行根据本文公开的技术的凝视辅助触摸屏输入操作时可访问的任何其他数据的存储设备。
在本文中公开的凝视辅助触摸屏输入系统的某些实施例中,可不包括计算系统100的部件之间的通信路径中的一个或多个。例如,在某些实施例中,触摸屏104可并不经由通信路径112而直接地与远程计算设备106通信,但是可经由个人计算设备102和通信路径108和110与远程计算设备106通信。
图2是根据各种实施例的说明性凝视辅助触摸屏输入系统200的框图。系统200可包括输入/输出(I/O)设备228、处理逻辑202以及存储设备226。根据各种实施例,可用图1的计算系统100来实现系统200。特别地,可将系统200的部件以任何适当方式分布在计算系统100的部件中的一个或多个之间。可出于说明性目的将系统200的部件描述为由计算系统100实现,但是可通过任何适当配置的计算设备或计算设备的集合来实现系统200。在某些实施例中,可通过计算系统100的个人计算设备102来实现系统200。在某些此类实施例中,触摸屏104可与个人计算设备102成一整体。
系统200可被配置成执行许多凝视辅助触摸屏输入操作中的任何一个。例如,系统200可被配置成接收指示系统200的触摸屏上的用户的触摸的触摸信号,接收指示用户在触摸屏上的用户的凝视的区域的凝视位置信号,并且至少部分地基于凝视位置信号和触摸信号而生成输入信号。可将输入信号例如提供给系统200的操作系统、在系统200上运行的应用、与系统200通信的另一设备或在系统200内部或外部的任何其他部件。
虽然在图2中图示出系统200的许多部件,但各种实施例可在适合于将执行的凝视辅助触摸屏输入操作时省略部件。例如,在某些实施例中,系统200可不包括凝视位置逻辑204,但是可经由有线或无线通信路径与凝视位置逻辑204(在例如单独设备中体现)耦合从而能够从凝视位置逻辑204接收信号和/或向其发送信号。在另一示例中,在某些实施例中,系统200可不包括触摸检测逻辑206,但是其可经由有线或无线通信路径与触摸检测逻辑206(在例如单独设备中体现)耦合从而能够从触摸检测逻辑206接收信号和/或向其发送信号。在另一示例中,系统200的某些实施例可未被配置用于显示调整(如下面所讨论的),并且因此可不包括观看位置逻辑212和/或显示调整逻辑216。
如上所述,系统200可包括I/O设备228。I/O设备228可包括触摸屏104、图像捕捉设备232及其他设备234。触摸屏104可采取上文参考图1所讨论的任何实施例的形式。
在某些实施例中,图像捕捉设备232可包括一个或多个照相机。如本文所使用的术语“照相机”可包括静止图像照相机和视频照相机。照相机可以是模拟的或数字的。在某些实施例中,图像捕捉设备232可捕捉高清晰度视频。在某些实施例中,图像捕捉设备232可被配置成将图像数据(例如,视频数据)经由有线或无线通信路径(例如,分别是路径108和112)流式传输到个人计算设备102和/或远程计算设备106。在某些实施例中,图像捕捉设备232可在本地连接到个人计算设备102(或与之集成),而在其他实施例中,图像捕捉设备232可远离个人计算设备102。
图像捕捉设备232可使用任何成像波长(例如,可见光或红外光)。在某些实施例中,图像捕捉设备232可包括可见光照相机和红外照相机,并且可将由这些设备捕捉的图像组合或者将其单独地处理。在某些实施例中,图像捕捉设备232可包括具有不同取向的两个或更多照相机(例如,安装在可穿戴个人计算设备102上并以“面对世界”取向背对用户的一个照相机,以及安装在个人计算设备102上且当个人计算设备102在使用中时面朝用户的一个照相机)。在某些实施例中,图像捕捉设备232可包括单个图像捕捉设备(例如,单个照相机)。
图像捕捉设备232可包括阵列照相机,其中多个透镜使能对相同物体的多个图像的同时捕捉。由阵列照相机捕捉的每个图像可由于曝光时间、焦距、白平衡等而改变。图像捕捉设备232可包括处理设备,其被配置成执行用于将图像组合的任何已知技术或者提供各种图像浏览体验(例如,与计算系统100的其他部件相结合)。在某些实施例中,图像捕捉设备232可包括深度照相机,其可提供关于被成像场景中的各种对象的深度的信息。某些深度照相机可使用飞行时间技术来确定深度信息。
在某些实施例中,图像捕捉设备232可安装在触摸屏104上或接近于触摸屏104,并且可捕捉触摸屏104的用户的一个或多个图像。这些图像可用来确定用户的凝视的区域(例如,下面参考凝视位置逻辑204所讨论的)和/或确定用户的眼睛相对于触摸屏104的位置(例如,如下面参考观看位置逻辑212所讨论的)。在某些实施例中,可将图像捕捉设备232安装在附着在用户的眼睛上或附近的可穿戴个人计算设备102中,并且可在触摸屏104被使用的同时捕捉触摸屏104的图像。这些图像可用来确定用户凝视的区域(例如,如下面参考凝视位置逻辑204所讨论的)和/或确定用户的眼睛相对于触摸屏104的位置(例如,如下面参考观看位置逻辑212所讨论的)。
包括在I/O设备228中的其他设备234可包括例如任何适当输入、输出或存储设备。可包括在其他设备234中的设备可包括接近传感器(其可安装在用户的眼镜中和触摸屏104中,并且可产生指示用户的眼睛与触摸屏104之间的距离的信号)、一个或多个麦克风(其可在触摸屏104上或接近于触摸屏104安装,并且可基于用户语音的分析对用户的头的位置进行三角测量)或任何其他适当设备。在某些实施例中,其他设备234可包括一个或多个光源,其可与图像捕捉设备232相结合地操作以在图像捕捉期间产生可见光、红外光或其他类型的光以帮助识别图像中的各种特征。例如,某些已知眼睛跟踪技术使用一个或多个红外LED来提供对用户的脸的照明并在角膜的表面上产生反射。该反射可用来对图像中的眼睛和角膜的中心进行定位。
如上所述,系统200可包括处理逻辑202。处理逻辑202可包括许多逻辑部件。在某些实施例中,处理逻辑202可包括凝视位置逻辑204。凝视位置逻辑204可被配置成产生指示触摸屏104上的用户凝视的区域的凝视位置信号。用户凝视的区域可包括用用户眼睛的最高分辨能力(acuity)区域观看的触摸屏104上的一个或多个位置。在某些实施例中,处理逻辑202可包括图像捕捉逻辑210,其可被耦合到凝视位置逻辑204并可被配置成从图像捕捉设备232接收用户的眼睛的图像。凝视位置逻辑204可被配置成至少部分地基于从图像捕捉设备232接收到的图像来生成凝视位置信号。
图3描绘了根据各种实施例的针对当用户306观看系统200的触摸屏104时产生凝视位置信号的情况的两个视图302和304。特别地,触摸屏104被示为包括在个人计算设备102(其可以是例如智能电话或平板设备)中。用户306的凝视可指向触摸屏104且特别地指向触摸屏104上的区域312。用户的眼睛310可在垂直于触摸屏104的表面的方向上位于触摸屏104之上一定距离z处。角度α1可表示瞳孔308指向的角度,如从眼睛310的水平面314测量的那样。角度α2可表示瞳孔308指向的角度,如从用户的眼睛310的垂直面316测量的那样。用距离z以及角度α1和α2来表征用户的凝视,并且(指示凝视区域312的)位置信号相应地由凝视位置逻辑204生成。
在图3中表示的角度和距离仅仅是说明性的,并且凝视位置逻辑204可使用来自任何适当设备的任何适当测量来确定凝视区域312。用于眼睛跟踪的现有技术包括使用被布置成以使能使用三角测量技术来确定与照相机布置的距离的立体配置来捕捉用户眼睛的图像的某些技术。某些技术采用眼睛的物理模型,其可包括角膜的反射和折射性质、瞳孔中心的位置和角膜的曲率中心、中心凹(fovea)从光轴的偏移、角膜的曲率半径以及其他物理参数。可通过凝视位置逻辑204来实现任何适当的凝视跟踪技术。
可以许多方式中的任何一个来表征凝视区域312。在某些实施例中,可将凝视区域312表征为触摸屏104上的点。在某些此类实施例中,凝视位置信号可表示用于触摸屏104的坐标系中的点的坐标(例如,触摸屏104的平面中的二维坐标系中的(x,y)坐标)。在某些实施例中,可将凝视区域312表征为触摸屏104的面积。该面积可具有任何适当形状。例如,凝视区域312可以是圆,并且凝视位置信号可表示圆的中心的坐标,并且还可表示圆的半径。在另一示例中,凝视区域312可以是椭圆,并且凝视位置信号可表示椭圆的焦点的坐标及椭圆的长轴和短轴的长度。图4图示出触摸屏104上的椭圆形凝视区域312,其具有长轴402、短轴404以及中心406。在另一示例中,可将触摸屏104划分成许多标记矩形或其他多边形,并且凝视区域可包括这些分区中的一个或多个。分区的边界和标签可被存储在存储设备226中。在某些此类实施例中,凝视位置信号可表示包括在凝视区域中的每个分区的标签。在另一示例中,凝视区域312可具有任何形状(例如,不规则形状),并且凝视位置信号可表示凝视区域312的周界的坐标。凝视位置逻辑204可使用凝视区域312的任何适当表征。凝视区域312的形状和/或大小可取决于凝视位置逻辑204能够确定用户306的凝视指向哪里的精度。例如,凝视位置逻辑204可识别椭圆形凝视区域,其具有对应于可以以更大的精度确定用户306的凝视的方向的短轴和对应于可以以较小的精度确定用户306的凝视的方向的长轴。
在某些实施例中,处理逻辑202可包括触摸检测逻辑206。触摸检测逻辑206可被配置成生成指示用户在触摸屏104上的触摸的触摸信号。触摸信号可包括关于触摸位置(例如,描述触摸的面积、形状或轮廓的一组或多组(x,y)坐标)、触摸的压力(例如,通过用户的手指或可变形触笔与触摸屏104之间的接触面积或者通过压力传感器来测量的)、接触持续时间的信息、任何其他适当信息或此类信息的任何组合。
在某些实施例中,处理逻辑202可包括输入配准(registration)逻辑208。输入配准逻辑208可被耦合到凝视位置逻辑204和触摸检测逻辑206。输入配准逻辑208可被配置成从凝视位置逻辑204接收凝视位置信号,并从触摸检测逻辑206接收触摸信号。输入配准逻辑208还可被配置成至少部分地基于凝视位置信号和触摸信号生成输入信号。如本文所使用的“输入信号”可以是作为用户输入而提供的任何信号。输入信号可被提供给系统200的硬件或软件部件和/或提供给与系统200分离的设备的硬件或软件部件。输入信号的示例可包括用户在触摸屏104的特定部分上的触摸和该触摸的性质。输入信号的其他示例可以是指示在触摸屏104上显示的特定选项的用户选择、通过与触摸屏104的接触的特定函数的用户调用的信号或指示用户输入的任何其他信号。在某些实施例中,可在系统200的操作系统层级生成由配准逻辑208生成的输入信号。例如,系统200的操作系统可被配置成生成可以被在操作系统中运行的应用查询或者另外监视的触摸信号(例如,地图应用可包括响应于用户在特定位置处敲击而将地图重新置于中心的功能,并且可由被地图应用调用的操作系统级函数提供关于敲击和敲击位置的信息)。在此类实施例中,输入配准逻辑208可在触摸信号被提供给应用之前在操作系统层级处评估触摸信号,并且从而可以用于对此类触摸信号进行“过滤”。在某些实施例中,输入配准逻辑208可在应用层级处操作,并且可被特定应用用来对由操作系统层级函数提供给应用的触摸信号进行“过滤”或者另外处理。
在某些实施例中,输入配准逻辑208可被配置成至少部分地基于触摸信号通过多个预定触摸类型中的一个的选择来生成输入信号。预定触摸类型的示例包括敲击、挥扫、捏以及展开。敲击可包括触摸屏104与用户之间的瞬间单次接触(例如,通过单个手指或触笔)。挥扫可包括触摸屏104与用户之间在直线或曲线(例如,如当用户将她的手指从右向左移动以翻动在触摸屏104上再现的书页时可能是有用的)上的延伸的单次接触。捏可包括触摸屏104与用户之间的两个同时接触点,那些接触点是在触摸屏104的表面上被拖到一起(例如,如当用户在触摸屏104上使她的手指更近地在一起以变焦到所显示网页的一部分时可能是有用的)。展开可包括触摸屏104与用户之间的两个同时接触点,那些接触点在触摸屏104的表面上拉开。触摸类型的其他示例包括例如按下并保持、旋转以及滑动并拖曳。不同的触摸类型可与触摸屏104的不同区域相关联;例如,当用户触摸接近于触摸屏104的边缘的点并快速且短暂地将她的手指朝着触摸屏104的内部滑动时,可被系统200识别“轻弹”触摸类型。各种触摸类型的特性可被存储在存储设备226中,并且可被输入配准逻辑208访问(例如,当输入配准逻辑208将接收的触摸信号与各种触摸类型的存储特性相比较以便选择最好地对应于接收的触摸信号的触摸类型时)。在某些实施例中,如下面所讨论的,由输入配准逻辑208生成的输入信号可指示哪个触摸类型与检测到的触摸相关联。
在某些实施例中,输入配准逻辑208可被配置成至少部分地基于触摸信号和凝视位置信号来选择多个预定触摸类型中的一个。如上所述,在某些实施例中,存储在存储设备226中的触摸类型可包括一个或多个非凝视关联类型和一个或多个凝视关联类型。非凝视关联类型可以是其在触摸屏上的位置通常并不与用户的凝视区域相对应的触摸类型。换言之,非凝视关联类型表示用户将在不看在其上面执行触摸动作的触摸屏部分的情况下执行的触摸动作。在某些实施例中,挥扫可以是非凝视关联类型,因为用户通常不看其中它们正在执行挥扫的相同触摸屏区域。捏可以是非凝视关联类型的另一示例。凝视关联类型可以是其在屏幕上的位置通常与用户的凝视区域相对应的触摸类型。在某些实施例中,敲击可以是凝视关联类型,因为用户通常看着其中它们正在敲击的相同触摸屏区域。
触摸类型是凝视关联还是非凝视关联的可根据上下文而变化(例如,取决于哪个应用正在系统100上执行并在触摸屏104上显示用户界面)。例如,某些应用可使用触摸屏104的不同区域中的挥扫触摸类型来指示各种选项的用户选择。在此类应用中,挥扫触摸类型可以是凝视关联的,因为用户通常将注意对应于其选择的触摸屏104的区域。在其他应用中,可使用挥扫触摸类型来将用户界面的一部分(例如,控制面板)解锁或者例如移动到文档序列中的之前的文档。在此类应用中,挥扫触摸类型可以不是凝视关联的,意味着用户在执行挥扫时将常常看着被触摸区域之外的屏幕区域。存储设备226可存储关于各种触摸类型在各种上下文中(例如,在各种应用、操作系统或其他操作环境中)是凝视关联还是非凝视关联的信息。
在某些实施例中,输入配准逻辑208可被配置成通过根据触摸和凝视区域的相对位置选择凝视关联或非凝视关联的触摸类型来基于凝视位置信号而选择触摸类型。特别地,输入配准逻辑208可至少部分地基于触摸信号来确定触摸位于凝视区域外面。响应于此确定,输入配准逻辑208可选择用于触摸的非凝视关联触摸类型。在某些实施例中,响应于由输入配准逻辑208确定触摸位于凝视区域内,输入配准逻辑可选择用于触摸的凝视关联或非凝视关联触摸类型。
例如,图5图示出触摸屏104上的凝视区域312和若干触摸502、504和506。触摸502和504可表示具有短持续时间且相对于触摸506的扩展接触面积高度局部化的触摸。在某些实施例中,触摸检测逻辑206可分析触摸502、504的特性(例如,针对存储在存储设备226中的一组预定触摸类型,如上文所讨论的),并且可在任何凝视位置信息可用、被接收和/或被处理之前选择用于触摸502、504和506中的每一个的初步触摸类型。在某些实施例中,可以由输入配准逻辑208来进行此初步确定:为了便于举例说明,将此初步确定讨论为由触摸检测逻辑206执行。例如,触摸检测逻辑206可确定触摸502和504基于接触的持续时间和接触的面积而被最好地分类为“敲击”,而触摸506被最好地分类为“滑动”。触摸检测逻辑206(或者输入配准逻辑208,根据情况而定)可生成指示相应触摸类型的用于这些触摸中的每一个的初步触摸类型信号。
输入配准逻辑208可接收初步触摸类型信号(或者可在没有初步触摸类型识别的情况下从触摸检测逻辑206接收触摸信号),并且可确定每个触摸的位置是否在凝视区域312内。如果触摸位置不在凝视区域312内,则输入配准逻辑208可针对该触摸选择非凝视关联触摸类型。如果触摸位置在凝视区域312内,则输入配准逻辑208可针对该触摸选择凝视关联或非凝视关联触摸类型。例如,如图5中所示,触摸502位于凝视区域312内。如果敲击是凝视关联触摸类型,并且触摸502的特性与敲击的特性(例如,存储在存储设备226中)兼容,则输入配准逻辑208可生成指示触摸502是敲击的输入信号。
然而,触摸504并未位于凝视区域312内。如果敲击是凝视关联触摸类型,则输入配准逻辑208可不生成指示触摸504是敲击的输入信号,即使触摸504的非位置特性(例如,接触的面积和持续时间)与敲击的特性兼容。替代地,输入配准逻辑208可寻找与触摸504的特性兼容的另一触摸类型。如果不能找到适当的触摸类型,则输入配准逻辑208可选择“无”类型。在某些实施例中,输入配准逻辑206可通过出于生成输入信号的目的忽略触摸504来选择“无”类型(例如,可将触摸504视为用户与触摸屏104之间的偶然接触)。
如图5中进一步所示,触摸506位于凝视区域312外面。然而,如果触摸506的特性与滑动的特性(例如,存储在存储设备226中)兼容,并且如果滑动是非凝视关联触摸类型,则输入配准逻辑208可生成指示触摸506是滑动的输入信号。
在某些实施例中,输入配准逻辑208可不要求触摸严格地在凝视区域内以使触摸被指定为凝视关联触摸类型。例如,触摸可部分地在凝视区域内且部分地在凝视区域外面。在另一示例中,触摸可在凝视区域内开始并在凝视区域外面结束。在另一示例中,触摸只需要在凝视区域的预定距离内以便被指定为凝视关联触摸类型(如果适当的话)。该预定距离可以是绝对距离(例如,1厘米)、相对距离(例如,在小于或等于凝视区域的半径的10%的凝视区域距离内)或任何其他适当距离。
返回图2,在某些实施例中,处理逻辑202可包括显示逻辑214。显示逻辑214可被耦合到触摸屏104,并且可被配置成引起各种视觉元素在触摸屏104上的显示。在某些实施例中,显示逻辑214可被耦合到输入配准逻辑208,并且可被配置成基于由输入配准逻辑208生成的输入信号而引起一个或多个视觉元素在触摸屏104上的显示。
例如,图5图示出可由显示逻辑214提供的触摸屏104上的显示500。如图5中所示,显示500可包括多个视觉元素,诸如字母框508和主题改变区域510。如果输入配准逻辑208响应于触摸502而生成“敲击”输入信号,如上文所讨论的,则显示逻辑214可基于此输入信号而引起视觉元素在触摸屏104上的显示。此类视觉元素在图6的显示600中被示为阴影框602。如果输入配准逻辑208响应于触摸506而生成“滑动”输入信号,如上文所讨论的,则显示逻辑214可基于此输入信号而引起视觉元素在触摸屏104上的显示。此类视觉元素在显示600中被示为主题图形604,其可替换显示500的主题图形512。
在某些实施例中,凝视位置逻辑204可被配置成生成多个凝视位置信号,每个对应于不同的用户观看触摸屏104。触摸检测逻辑206可被配置成生成多个触摸信号,每个对应于触摸屏104上的不同触摸。在某些实施例中,输入配准逻辑208可被配置成接收多个位置信号和多个触摸信号,并通过将触摸信号的位置与用于每个用户的凝视区域相比较来确定哪些触摸信号对应于哪些用户。特别地,输入配准逻辑208可被配置成接收对应于两个或更多用户中的每一个的凝视区域的位置信号,接收触摸信号,识别最接近于触摸信号的位置的凝视区域,并使触摸信号与对应于最近凝视区域的用户相关联。在某些实施例中,输入配准逻辑208可接收多个触摸信号,基于触摸信号的位置到不同凝视区域的接近度(通过不同的凝视位置信号指示)使触摸信号与不同用户相关联,并至少部分地基于接收到的凝视位置信号和接收到的触摸信号来生成多个不同的输入信号。在某些实施例中,触摸检测逻辑206可至少部分地并行地生成多个触摸信号。在某些实施例中,输入配准逻辑208可至少部分地并行地生成多个输入信号。
图7图示出第一和第二用户702和704观看触摸屏104(如所示,包括在个人计算设备102中)。第一用户702的凝视可指向触摸屏104上的第一区域706,并且第二用户704的凝视可指向触摸屏104上的第二区域708。第一和第二凝视区域706和708在图8中被示为被叠加在触摸屏104的显示800上。如图8中所示,第一和第二凝视区域706和708可具有不同形状,并且可在触摸屏104上具有不同位置。凝视位置逻辑204可生成指示第一和第二凝视区域706和708的第一和第二凝视位置信号,并且可将这些凝视位置信号提供到输入配准逻辑208。
图8还图示出两个触摸802和804。如所示,触摸802落在第一凝视区域706内。在某些实施例中,输入配准逻辑208可被配置成接收第一凝视位置信号(指示第一凝视区域706),接收第一触摸信号(指示触摸802)并确定触摸802落在第一凝视区域706内。响应于该确定,输入配准逻辑208可确定触摸802由第一用户702执行,并且可生成与第一用户702相关联的输入信号。输入配准逻辑208还可被配置成接收第二凝视位置信号(指示第二凝视区域708),接收第二触摸信号(指示触摸804)并确定触摸804至少部分地落在第二凝视区域708内。响应于该确定,输入配准逻辑208可确定触摸804由第二用户704执行,并且可生成与第二用户704相关联的输入信号。
在某些实施例中,输入配准逻辑208可相对于指示第一和第二凝视区域706和708的凝视位置信号的接收而并行地、快速连续地或者按照任何适当顺序来接收指示触摸802和804的触摸信号。因此,输入配准逻辑208可针对所有接收到的凝视位置信号评估所有接收到的触摸信号(例如,在给定时间窗内)以确定哪些触摸信号可与特定凝视位置信号相同的用户相对应。在图8的示例中,输入配准逻辑208可确定触摸802比到第二凝视区域708更接近于第一凝视区域706,并且作为响应,确定触摸802并未与第二用户704相关联。替代地,输入配准逻辑208可确定触摸802比远离第二凝视区域708的预定距离更远,并且作为响应,确定触摸802并未与第二用户704相关联。
在其中输入配准逻辑208生成对应于不同用户的不同输入信号的实施例中,显示逻辑214可被配置成引起至少部分地基于第一输入信号的第一视觉元素和至少部分地基于第二输入信号的第二视觉元素在触摸屏104上的显示。可同时地显示第一和第二视觉元素。
返回图8,显示800还包括第一和第二视觉元素806和808。图8的第一和第二视觉元素806和88是化身,并且可表示例如计算机游戏中的玩家人物或者虚拟世界环境中的代表。第一视觉元素806可与第一用户702相关联(例如,第一视觉元素806可以是由第一用户702控制的玩家人物),并且第二视觉元素808可与第二用户704相关联。在某些实施例中,响应于接收到第一和第二凝视位置信号和指示触摸802和804的触摸信号,输入配准逻辑208可生成指示第一用户702希望将第一视觉元素806移动至触摸802的位置的输入信号和指示第二用户704希望将第二视觉袁术808移动至触摸804的位置的输入信号。响应于这些输入信号,显示逻辑214可引起触摸屏104上的图9的显示900。如图9中所示,第一视觉元素806被重新定位到触摸802的位置902,并且第二视觉元素808被重新定位到触摸804的位置904。以这种方式,输入配准逻辑208可在单个触摸屏上将来自多个用户的输入信号区别开,并且可使能多用户计算应用,诸如玩游戏、文档的编辑、同时网络浏览或任何其他多用户情形。
返回图2,在某些实施例中,处理逻辑202可包括观看位置逻辑212。观看位置逻辑212可被耦合到输入配准逻辑208,并且可生成位置信号,其指示用户的眼睛相对于触摸屏104的位置。在某些实施例中,观看位置逻辑212可被耦合到图像捕捉逻辑210,并且可被配置成至少部分地基于从图像捕捉设备232接收到的用户眼睛的图像而生成位置信号。
图10描绘了针对当用户1006观看触摸屏104(被示为包括在个人计算设备102中)时的位置信号生成的情形的两个视图1002和1004。用户的眼睛1010可在垂直于触摸屏104的表面的方向上位于在触摸屏104之上的距离z处。可在触摸屏104上(或者在参考触摸屏104来定义其位置的任何定位中)定义参考点1008。在某些实施例中,参考点1008可以是在该处图像捕捉设备232位于个人计算设备102上的点。角度β1可表示用户的眼睛1010定位的角度,如从触摸屏104的表面的水平面1014测量的那样。角度β2可表示用户的眼睛1010之间的中心点1018定位的角度,如从参考点1008的垂直面1016测量的那样。可提供距离z以及角度β1和β2来表征用户的眼睛的位置,并且因此由观看位置逻辑212生成位置信号。
图10中表示的角度和距离仅仅是说明性的,并且观看位置逻辑212可使用任何适当的测量来确定用户眼睛的位置以便生成位置信号。例如,某些现有技术使用由相对于触摸屏104安装在已知位置上的图像捕捉设备232捕捉的用户的脸的图像来在用户的脸上创建界标的三维模型,并且从而确定用户的眼睛相对于触摸屏104的位置。在某些实施例中,可在头戴式设备中包括一个或多个设备(例如,包括在一副眼镜中的射频识别标签),并且这些设备可与在触摸屏104上或接近于触摸屏104安装的合作设备(例如,射频识别标签读取器)通信,以确定用户的眼睛与触摸屏104之间的相对位置(例如,基于检测到的射频信号的强度)。可通过观看位置逻辑212来实现用于头部位置建模的任何已知技术。
在某些实施例中,处理逻辑202可包括显示调整逻辑216。显示调整逻辑216可被耦合到观看位置逻辑212,并且可被配置成至少部分地基于由观看位置逻辑212生成的位置信号来生成指示期望视觉畸变的调整信号。特别地,显示调整逻辑216可被配置成确定用户正在观看触摸屏104的角度(例如,基于由观看位置逻辑212生成的位置信号),并且通过使所显示元素在视觉上畸变来生成调整信号以修正显示,使得它们对于用户显得与在用户在垂直于触摸屏104的表面平面的方向上正在观看触摸屏104的情况下它们将看起来的那样相同。如本文所使用的“用户正在观看触摸屏的角度”可包括一个或多个角度测量,其表示用户的眼睛相对于垂直于触摸屏的表面平面的轴的位置。例如,角度可包括两个角度测量。在某些实施例中,显示调整逻辑216可被配置成生成调整信号以便修正当用户从除垂直于触摸屏104的表面平面的角度之外的角度观看触摸屏104时发生的触摸屏104上的显示的表观畸变。此畸变的某些示例可称为“梯形畸变效应”或“墓碑效应”。图11图示出此畸变的示例。在图11中,在触摸屏104上显示期望显示1100(例如,通过显示逻辑214)。然而,当从除垂直于触摸屏104的表面平面的角度之外的角度观看触摸屏104时(例如,如透视图1102所示),显示1100将看起来是畸变的。特别地,如图11中所示,显示1100的更接近于用户的部分1104将相对于显示1100的更加远离用户的部分1106被放大。
显示调整逻辑216可被配置成使用由观看位置逻辑212生成的位置信号来生成指示显示1100的畸变的调整信号,使得从位置信号所指示的位置观看触摸屏104的用户将看到被适当地确定尺寸的显示1100。特别地,显示逻辑214可与显示调整逻辑216耦合,并且可被配置成引起根据由显示调整逻辑216生成的调整信号而畸变的一个或多个视觉元素在触摸屏104上的显示。例如,图12图示出可由显示逻辑214基于由观看位置逻辑212生成的调整信号生成的显示1200。显示1200可相对于期望显示1100畸变。然而,当在触摸屏104上再现显示1200时,从位置信号所指示的位置观看触摸屏104的用户将看到透视图1202,正确地向用户再现期望显示1100。在某些实施例中,显示调整逻辑216可包括畸变的阈值,使得除非用户的位置指示显示的畸变应超过阈值,否则不应进行调整。此类阈值可防止显示调整逻辑216对触摸屏104上的显示进行频繁且轻微的调整,那对于用户而言可能是令人不安的。
图13是图示出根据某些实施例的用于产生凝视辅助触摸屏输入(例如,基于与触摸屏104的接触的输入)的过程1300的流程图。虽然为了举例说明而被示为在特定序列中执行,但过程1300(和本文所述的其他过程)的操作可适当地并行地或者按照任何其他顺序执行。例如,可相对于与接收触摸信号有关的操作并行地、部分并行地或者按照任何适当顺序来执行与接收位置信号有关的操作。
出于说明性目的,可将过程1300(和本文所述的其他过程)的操作描述为由在计算系统100中体现的系统200的部件执行,但是过程1300(和本文所述的其他过程)的操作可由任何适当配置的计算设备或计算设备的集合执行。可根据本文所述的系统100和200的任何实施例来执行过程1300(和本文所述的其他过程)的任何操作。
过程1300可在操作1302处开始,其中可接收指示用户在触摸屏104上的凝视的区域的凝视位置信号(例如,由输入配准逻辑208)。可根据本文所述的任何实施例生成凝视位置信号。在某些实施例中,可基于来自图像捕捉设备232的用户眼睛的图像来生成凝视位置信号。
在操作1304处,可接收指示用户在触摸屏104上的触摸的触摸信号(例如,由输入配准逻辑208)。可根据本文所述的任何实施例生成触摸信号。
在操作1306处,可至少部分地基于凝视位置信号(在操作1302处接收)和触摸信号(在操作1304处接收)来生成(例如,由输入配准逻辑208)输入信号。可根据本文所述的任何实施例生成输入信号。在某些实施例中,操作1306可包括至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个,并且输入信号可指示所选触摸类型。在某些此类实施例中,所述多个预定触摸类型可包括一个或多个非凝视关联类型和一个或多个凝视关联类型。至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个可包括确定触摸信号指示该触摸曾经位于用户的凝视的区域之外,并且响应于确定触摸信号指示该触曾经摸位于用户的凝视的区域之外,选择非凝视关联类型。过程1300然后可结束。
图14是图示出根据某些实施例的用于产生凝视辅助触摸屏输入(例如,基于与触摸屏104的接触的输入)的过程1400的流程图。过程1400可在操作1402处开始,其中可接收(例如,由输入配准逻辑208)多个凝视位置信号,其指示触摸屏104上的相应多个用户的凝视的多个区域。可根据本文所述的任何实施例生成凝视位置信号。例如,可基于来自图像捕捉设备232的用户的眼睛的一个或多个图像来生成凝视位置信号。出于说明性目的,图14的其余讨论可指代两个用户(第一用户和第二用户),但是可将过程1400应用于任何数量的用户。在某些实施例中,可至少部分地并行地在操作1402处接收多个凝视位置信号。
在操作1404处,可接收指示用户在触摸屏104上的触摸的触摸信号(例如,由输入配准逻辑208)。可根据本文所述的任何实施例生成触摸信号。在某些实施例中,触摸信号可不识别哪个用户执行了触摸。在某些实施例中,操作1404可包括接收两个触摸信号,其指示一个或多个用户在触摸屏104上的触摸。在某些实施例中,可至少部分地并行地在操作1404处接收多个触摸信号。
在操作1406处,可至少部分地基于凝视位置信号(在操作1402处接收)和触摸信号(在操作1404处接收)来生成(例如,由输入配准逻辑208)输入信号。可根据本文所述的任何实施例生成输入信号。在某些实施例中,可比较触摸的位置(由在操作1404处接收到的触摸信号指示)与第一和第二用户的凝视区域(由在操作1402处接收到的凝视位置信号指示)(例如,由输入配准逻辑208),并且可向第一和第二用户中的一个分配触摸(例如,由输入配准逻辑208)。此分配可基于到凝视区域的接近度,并且可根据本文所讨论的任何实施例(例如,上文参考图7—9所讨论的那些)来执行。在其中在操作1404处接收到两个触摸信号的过程1400的实施例中,可如上文所讨论的那样向第一和第二用户分配每个触摸信号(例如,由系统200)。在某些实施例中,第一触摸可与第一用户相关联,并且第二触摸可与第二用户相关联。此后,可生成对应于第一和第二触摸的第一和第二输入信号(例如,由系统200)。
在操作1408处,可引起至少部分地基于在操作1406处生成的输入信号的视觉元素的显示(例如,由显示逻辑214)。例如,可引起与第一用户相关联的视觉元素(例如,在计算机游戏中表示第一用户的化身的视觉元素)响应于输入信号的移动。在其中在操作1406处生成第一和第二输入信号的实施例中,可引起至少部分地基于第一输入信号的第一视觉元素和至少部分地基于第二输入信号的第二视觉元素在触摸屏104上的同时显示(例如,由系统200)。上文参考图8—9讨论了此类显示的示例。过程1400然后可结束。
图15是图示出根据某些实施例的用于产生凝视辅助触摸屏输入(例如,基于与触摸屏104的接触的输入)的过程1500的流程图。过程1500可在操作1502处开始,其中,可接收指示用户的眼睛相对于触摸屏104的位置的位置信号(例如,由观看位置逻辑212)。可根据本文所述的任何实施例(例如,上文参考图10—12所讨论的那些)生成位置信号。例如,可基于来自图像捕捉设备232的用户的眼睛的一个或多个图像来生成位置信号。
在操作1504处,可生成指示至少部分地基于在操作1502处接收到的位置信号的期望视觉畸变的调整信号(例如,由显示调整逻辑216)。可根据本文所述的任何实施例生成调整信号。在某些实施例中,调整信号可指示对触摸屏104上的视觉元素的显示的调整以修正从触摸屏104上的用户观点产生的梯形畸变或相关视觉效应。
在操作1506处,可使得根据调整信号畸变的一个或多个视觉元素在触摸屏104上显示(例如,由显示逻辑214)。上文参考图11—12讨论了此类显示的示例。过程1500然后可结束。
在各种实施例中,可以以任何期望的组合将过程1300、1400和1500组合以执行触摸屏相关数据处理操作。例如,在某些实施例中,可执行过程1500(例如,由系统200)以响应于用户的眼睛的位置而连续地调整触摸屏104上的显示。另外,已调整显示可包括与不同用户相关联的不同视觉元素,可响应于根据过程1400生成的来自不同用户的输入信号而调整其显示。组合的过程还可包括上文参考过程1300的各种实施例所讨论的凝视关联和非凝视关联触摸类型操作。因此,可执行这些过程的任何期望组合以改进用户的触摸屏体验。
本文公开的实施例中的各种实施例可改进触摸屏设备的用户体验质量。特别地,某些实施例可改进计算系统在触摸屏上靠近在一起的两个潜在触摸点之间进行区分的能力;通过使用凝视位置信息,计算系统可改进其识别期望触摸点的能力。
在凝视关联和非凝视关联的触摸类型之间的区分的实施例可改进计算系统在不同触摸类型之间区分的能力(例如,降低捏将被错认为敲击的可能性),使能用户与计算系统之间的更好的交互。采用本文公开的显示调整技术的某些实施例可更好地使用户相信其已触摸的触摸屏上的点与其实际上触摸的点对准,减少用户挫败。
以下段落描述了本公开的实施例的示例。示例1是一种具有凝视辅助触摸屏输入的计算系统,包括输入配准逻辑以:接收指示用户在计算系统的触摸屏上的触摸的触摸信号,接收指示触摸屏上的用户凝视的区域的凝视位置信号,以及至少部分地基于凝视位置信号和触摸信号而生成到计算机系统的输入信号。
示例2可包括示例1的主题,并且还可包括凝视位置逻辑,其被耦合到输入配准逻辑,用以生成凝视位置信号。
示例3可包括示例2的主题,并且还可包括图像捕捉逻辑,其被耦合到凝视位置逻辑,用以从图像捕捉设备接收用户的眼睛的图像,其中,凝视位置逻辑用以至少部分地基于接收图像而生成凝视位置信号。
示例4可包括示例1—3中的任一项的主题,并且还可包括触摸检测逻辑,其被耦合到输入配准逻辑,用以生成触摸信号。
示例5可包括示例1—4中的任一项的主题,并且还可指定所述输入配准逻辑用以通过至少部分地基于凝视位置信号和触摸信号对多个预定触摸类型中的一个的选择而生成输入信号,并且该输入信号指示所选触摸类型。
示例6可包括示例5的主题,并且还可指定所述多个预定触摸类型包括一个或多个非凝视关联类型和一个或多个凝视关联类型,并且至少部分地基于凝视位置信号和触摸信号对多个预定触摸类型中的一个的选择包括:至少部分地基于触摸信号来确定触摸位于用户凝视的区域外面;以及响应于触摸在用户凝视的区域外面的确定,选择非凝视关联类型。
示例7可包括示例1—6中的任一项的主题,并且可进一步指定输入配准逻辑进一步用以:接收指示用户在触摸屏上的第二触摸的第二触摸信号;接收指示触摸屏上的用户凝视的第二区域的第二凝视位置信号;至少部分地基于第二触摸信号来确定第二触摸位于用户凝视的第二区域的外面;至少部分地基于第二触摸信号来确定第二触摸信号与任何非凝视关联触摸类型不兼容;以及响应于确定第二触摸定位于用户凝视的第二区域外面并确定第二触摸信号与任何非凝视关联触摸类型不兼容,出于生成输入信号的目的忽略第二触摸信号。
示例8可包括示例1—7中的任一项的主题,并且还可指定所述凝视位置信号是第一凝视位置信号,所述用户是第一用户,所述触摸信号是第一触摸信号,并且所述输入信号是第一输入信号,并且所述输入配准逻辑用以接收指示第二用户在触摸屏上的触摸的第二触摸信号,接收指示触摸屏上的第二用户凝视的区域的第二凝视位置信号,以及至少部分地基于第二凝视位置信号和第二触摸信号而生成第二输入信号。
示例9可包括示例8的主题,并且还可包括触摸检测逻辑,其被耦合到输入配准逻辑,用以至少部分地并行地生成第一和第二触摸信号。
示例10可包括示例8—9中的任一项的主题,并且还可包括显示逻辑,其用以引起在触摸屏上显示至少部分地基于第一输入信号的第一视觉元素和至少部分地基于第二输入信号的第二视觉元素,第一和第二视觉元素被同时地显示。
示例11可包括示例1—10中的任一项的主题,并且还可指定所述输入配准逻辑用以接收指示用户的眼睛相对于触摸屏的位置的位置信号,并且所述输入信号至少部分地基于位置信号。
示例12可包括示例11的主题,并且还可包括观看位置逻辑,其被耦合到输入配准逻辑,用以生成位置信号。
示例13可包括示例11—12中的任一项的主题,并且还可包括:显示调整逻辑,其被耦合到所述观看位置逻辑,用以接收位置信号并至少部分地基于该位置信号而生成指示期望视觉畸变的调整信号;以及显示逻辑,其与所述显示调整逻辑耦合,以引起根据调整信号畸变的一个或多个视觉元素在触摸屏上的显示。
示例14是一种用于生成用于计算系统的凝视辅助触摸屏输入的方法,包括:由计算系统接收凝视位置信号,其指示计算系统的触摸屏上的用户凝视的区域;由计算系统接收触摸信号,其指示用户在触摸屏上的触摸;以及由计算系统至少部分地基于凝视位置信号和触摸信号来生成用于计算系统的输入信号。
示例15可包括示例14的主题,并且还可包括由计算系统从图像捕捉设备接收用户的眼睛的图像,其中,所述凝视位置信号至少部分地基于接收到的图像。
示例16可包括示例14—15中的任一项的主题,并且还可指定至少部分地基于凝视位置信号和触摸信号来生成输入信号包括至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个,并且输入信号指示所选触摸类型。
示例17可包括示例16的主题,其中,所述多个预定触摸类型包括一个或多个非凝视关联类型和一个或多个凝视关联类型,并且其中,至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个包括:确定触摸信号指示触摸位于用户凝视的区域外面;以及响应于确定触摸信号指示触摸位于用户凝视的区域外面,选择非凝视关联类型。
示例18可包括示例14—17中的任一项的主题,并且还可包括:接收指示用户在触摸屏上的第二触摸的第二触摸信号;接收指示触摸屏上的用户凝视的第二区域的第二凝视位置信号;至少部分地基于第二触摸信号来确定第二触摸位于用户凝视的第二区域的外面;至少部分地基于第二触摸信号来确定第二触摸信号与任何非凝视关联触摸类型不兼容;以及响应于确定第二触摸在用户凝视的第二区域外面并确定第二触摸信号与任何非凝视关联触摸类型不兼容,出于生成输入信号的目的忽略第二触摸信号。
示例19可包括示例14—18中的任一项的主题,其中,所述凝视位置信号是第一凝视位置信号,所述用户是第一用户,所述触摸信号是第一触摸信号,并且所述输入信号是第一输入信号,并且其中,该方法还可包括:由计算系统接收第二凝视位置信号,其指示触摸屏上的第二用户凝视的区域;由计算系统接收第二触摸信号,其指示第二用户在触摸屏上的触摸;以及由计算系统至少部分地基于第二凝视位置信号和第二触摸信号来生成第二输入信号。
示例20可包括示例19的主题,其中,接收第一触摸信号由计算系统与接收第二触摸信号至少部分地并行地执行。
示例21可包括示例19—20中的任一项的主题,并且还可包括由计算系统引起在触摸屏上同时显示至少部分地基于第一输入信号的第一视觉元素和至少部分地基于第二输入信号的第二视觉元素。
示例22可包括示例14—21中的任一项的主题,并且还可包括由计算系统接收位置信号,其指示用户的眼睛相对于触摸屏的位置,其中,指示用户在触摸屏上的触摸的触摸信号至少部分地基于该位置信号。
示例23可包括示例22的主题,并且还可包括:由计算系统至少部分地基于位置信号生成指示期望视觉畸变的调整信号;以及引起在触摸屏上显示根据调整信号畸变的一个或多个视觉元素。
示例24是在其上面具有指令的一个或多个计算机可读介质,所述指令在被计算设备的一个或多个处理设备执行时使得计算设备执行示例14—23中的任一项的方法。
示例25是一种装置,包括一个或多个处理设备和在其上面具有指令的一个或多个计算机可读介质,所述指令在被所述一个或多个处理设备执行时使得该装置执行示例14-23中的任一项的方法。
示例26是一种具有凝视辅助触摸屏输入的系统,包括:用于接收指示计算系统的触摸屏上的用户凝视的区域的凝视位置信号的装置;用于接收指示用户在触摸屏上的触摸的触摸信号的装置;以及用于至少部分地基于凝视位置信号和触摸信号而生成用于系统的输入信号的装置。
示例27可包括示例26的主题,并且还可包括用于生成凝视位置信号的装置。
示例28可包括示例27的主题,其中,用于生成凝视位置信号的装置包括用于从图像捕捉设备接收用户的眼睛的图像的装置,其中,凝视位置信号至少部分地基于接收到的图像。
示例29可包括示例26—28中的任一项的主题,并且还可包括用于生成触摸信号的装置。
示例30可包括示例26—29中的任一项的主题,并且还可指定用于至少部分地基于凝视位置信号和触摸信号产生输入信号的装置包括用于至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个的装置,并且该输入信号指示所选触摸类型。
示例31可包括示例30的主题,并且还可指定所述多个预定触摸类型包括一个或多个非凝视关联类型和一个或多个凝视关联类型,并且用于至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个的装置包括:用于确定触摸信号指示触摸位于用户凝视的区域外面的装置;以及用于响应于确定触摸信号指示触摸位于用户凝视的区域外面而选择非凝视关联类型的装置。
示例32可包括示例26—31中的任一项的主题,并且还可包括:用于接收指示用户在触摸屏上的第二触摸的第二触摸信号的装置;用于接收指示触摸屏上的用户凝视的第二区域的第二凝视位置信号的装置;用于至少部分地基于第二触摸信号来确定第二触摸位于用户凝视的第二区域的外面的装置;以及用于至少部分地基于第二触摸信号来确定第二触摸信号与任何非凝视关联触摸类型不兼容的装置;其中用于生成输入信号的装置被配置成,响应于确定第二触摸位于用户凝视的第二区域外面并且第二触摸信号与任何非凝视关联触摸类型不兼容,忽略第二触摸信号。
示例33可包括示例26—32中的任一项的主题,并且还可指定所述凝视位置信号是第一凝视位置信号,所述用户是第一用户,所述触摸信号是第一触摸信号,并且所述输入信号是第一输入信号,并且所述系统还可包括:用于接收指示触摸屏上的第二用户凝视的区域的第二凝视位置信号的装置;用于接收指示第二用户在触摸屏上的触摸的第二触摸信号的装置;以及用于至少部分地基于第二凝视位置信号和第二触摸信号而生成第二输入信号的装置。
示例34可包括示例33的主题,其中,用于接收第一触摸信号的装置被配置成由用于生成第二触摸信号的装置与第二触摸信号的接收至少部分地并行地接收第一触摸信号。
示例35可包括示例33—34中的任一项的主题,并且还可包括用于引起在触摸屏上同时显示至少部分地基于第一输入信号的第一视觉元素和至少部分地基于第二输入信号的第二视觉元素的装置。
示例36可包括示例26—35中的任一项的主题,并且还可包括用于接收指示用户的眼睛相对于触摸屏的位置的位置信号的装置,其中,指示用户在触摸屏上的触摸的触摸信号至少部分地基于该位置信号。
示例37可包括示例36的主题,并且还可包括用于生成位置信号的装置。
示例38可包括示例37的主题,并且还可包括:用于至少部分地基于位置信号生成指示期望视觉畸变的调整信号的装置,以及用于引起在触摸屏上显示根据调整信号畸变的一个或多个视觉元素的装置。
虽然在本文中已图示出并描述了某些实施例,但本领域的技术人员将认识到的是在不脱离范围的情况下可以用预计将实现相同目的的多种替代和/或等价实施例或实现来代替示出并描述的实施例。本领域的技术人员将很容易认识到可用很多种方式来实现实施例。本申请意图涵盖在本文中讨论的实施例的任何修改或变化。
Claims (28)
1.一种具有凝视辅助触摸屏输入的计算系统,包括:
输入配准逻辑,其用以:
接收指示用户在计算系统的触摸屏上的触摸的触摸信号,
接收指示触摸屏上的用户凝视的区域的凝视位置信号,以及
至少部分地基于凝视位置信号和触摸信号而生成到计算机系统的输入信号,
所述输入配准逻辑用于通过至少部分地基于凝视位置信号和触摸信号对多个预定触摸类型中的一个的选择而生成输入信号,并且所述输入信号指示所选触摸类型,
其中,所述多个预定触摸类型包括一个或多个非凝视关联类型和一个或多个凝视关联类型,并且其中,至少部分地基于凝视位置信号和触摸信号对多个预定触摸类型中的一个的选择包括:
至少部分地基于触摸信号对触摸位于用户凝视的区域外面的确定;以及
响应于触摸位于用户凝视的区域外面的确定,对非凝视关联类型的选择。
2.根据权利要求1的计算系统,还包括:
凝视位置逻辑,其被耦合到输入配准逻辑,用以生成凝视位置信号。
3.根据权利要求2的计算系统,还包括:
图像捕捉逻辑,其被耦合到凝视位置逻辑,用以从图像捕捉设备接收用户眼睛的图像;
其中,所述凝视位置逻辑用以至少部分地基于接收到的图像生成凝视位置信号。
4.根据权利要求1的计算系统,还包括:
触摸检测逻辑,其被耦合到输入配准逻辑,用以生成触摸信号。
5.根据权利要求1的计算系统,其中,所述输入配准逻辑进一步用以:
接收指示用户在触摸屏上的第二触摸的第二触摸信号;
接收指示触摸屏上的用户凝视的第二区域的第二凝视位置信号;
至少部分地基于第二触摸信号来确定第二触摸位于用户凝视的第二区域的外面;
至少部分地基于第二触摸信号来确定第二触摸信号与任何非凝视关联类型不兼容;以及
响应于对第二触摸位于用户凝视的第二区域外面的确定以及对第二触摸信号与任何非凝视关联类型不兼容的确定,出于生成输入信号的目的而忽略第二触摸信号。
6.根据权利要求1的计算系统,其中,所述凝视位置信号是第一凝视位置信号,所述用户是第一用户,所述触摸信号是第一触摸信号,并且所述输入信号是第一输入信号,并且其中:
所述输入配准逻辑用以:
接收指示第二用户在触摸屏上的触摸的第二触摸信号,
接收指示触摸屏上的第二用户凝视的区域的第二凝视位置信号,以及
至少部分地基于第二凝视位置信号和第二触摸信号而生成第二输入信号。
7.根据权利要求6的计算系统,还包括:
触摸检测逻辑,其被耦合到输入配准逻辑,用以至少部分地并行地生成第一和第二触摸信号。
8.根据权利要求6的计算系统,还包括:
显示逻辑,其用以引起在触摸屏上对至少部分地基于第一输入信号的第一视觉元素和至少部分地基于第二输入信号的第二视觉元素的显示,第一和第二视觉元素被同时地显示。
9.权利要求1-8中的任一项的计算系统,其中,所述输入配准逻辑进一步用以接收指示用户的眼睛相对于触摸屏的位置的位置信号,并且其中,所述输入信号至少部分地基于位置信号。
10.根据权利要求9的计算系统,还包括:
观看位置逻辑,其被耦合到输入配准逻辑,用以生成位置信号。
11.根据权利要求10的计算系统,还包括:
显示调整逻辑,其被耦合到所述观看位置逻辑,用以接收位置信号并至少部分地基于该位置信号而生成指示期望视觉畸变的调整信号;以及
显示逻辑,其与所述显示调整逻辑耦合,以引起对根据调整信号畸变的一个或多个视觉元素在触摸屏上的显示。
12.一种用于生成用于计算系统的凝视辅助触摸屏输入的方法,包括:
由计算系统接收凝视位置信号,其指示计算系统的触摸屏上的用户凝视的区域;
由计算系统接收触摸信号,其指示用户在触摸屏上的触摸;以及
由计算系统至少部分地基于凝视位置信号和触摸信号来生成用于计算系统的输入信号,
至少部分地基于凝视位置信号和触摸信号来生成输入信号包括至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个,并且
输入信号指示所选触摸类型,
其中,所述多个预定触摸类型包括一个或多个非凝视关联类型和一个或多个凝视关联类型,并且其中,至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个包括:
确定触摸信号指示触摸位于用户凝视的区域外面;以及
响应于确定触摸信号指示触摸位于用户凝视的区域外面,选择非凝视关联类型。
13.根据权利要求12的方法,还包括:
由计算系统从图像捕捉设备接收用户眼睛的图像;
其中,所述凝视位置信号至少部分地基于接收到的图像。
14.根据权利要求12的方法,还包括:
接收指示用户在触摸屏上的第二触摸的第二触摸信号;
接收指示触摸屏上的用户凝视的第二区域的第二凝视位置信号;
至少部分地基于第二触摸信号来确定第二触摸位于用户凝视的第二区域的外面;
至少部分地基于第二触摸信号来确定第二触摸信号与任何非凝视关联类型不兼容;以及
响应于确定第二触摸位于用户凝视的第二区域外面以及第二触摸信号与任何非凝视关联类型不兼容,出于生成输入信号的目的忽略第二触摸信号。
15.根据权利要求12的方法,其中,所述凝视位置信号是第一凝视位置信号,所述用户是第一用户,所述触摸信号是第一触摸信号,并且所述输入信号是第一输入信号,并且其中,该方法还包括:
由计算系统接收第二凝视位置信号,其指示触摸屏上的第二用户凝视的区域;
由计算系统接收第二触摸信号,其指示第二用户在触摸屏上的触摸;以及
由计算系统至少部分地基于第二凝视位置信号和第二触摸信号来生成第二输入信号。
16.根据权利要求15的方法,还包括:
由计算系统引起在触摸屏上对至少部分地基于第一输入信号的第一视觉元素和至少部分地基于第二输入信号的第二视觉元素的同时显示。
17.根据权利要求12的方法,还包括:
由计算系统接收位置信号,其指示用户的眼睛相对于触摸屏的位置,
其中,指示用户在触摸屏上的触摸的触摸信号至少部分地基于该位置信号。
18.根据权利要求17的方法,还包括:
由计算系统至少部分地基于位置信号生成指示期望视觉畸变的调整信号;以及
引起在触摸屏上对根据调整信号畸变的一个或多个视觉元素的显示。
19.一种具有凝视辅助触摸屏输入的系统,包括:
用于接收指示计算系统的触摸屏上的用户凝视的区域的凝视位置信号的装置;
用于接收指示用户在触摸屏上的触摸的触摸信号的装置;以及
用于至少部分地基于凝视位置信号和触摸信号而生成用于系统的输入信号的装置,
用于至少部分地基于凝视位置信号和触摸信号生成输入信号的装置包括用于至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个的装置,并且
该输入信号指示所选触摸类型,
其中,所述多个预定触摸类型包括一个或多个非凝视关联类型和一个或多个凝视关联类型,并且其中,用于至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个的装置包括:
用于确定触摸信号指示触摸位于用户凝视的区域外面的装置;以及
用于响应于确定触摸信号指示触摸位于用户凝视的区域外面而选择非凝视关联类型的装置。
20.根据权利要求19的系统,还包括:
用于接收指示用户在触摸屏上的第二触摸的第二触摸信号的装置;
用于接收指示触摸屏上的用户凝视的第二区域的第二凝视位置信号的装置;
用于至少部分地基于第二触摸信号来确定第二触摸位于用户凝视的第二区域的外面的装置;以及
用于至少部分地基于第二触摸信号来确定第二触摸信号与任何非凝视关联类型不兼容的装置;
其中用于生成输入信号的装置被配置成响应于确定第二触摸位于用户凝视的第二区域外面以及第二触摸信号与任何非凝视关联类型不兼容,忽略第二触摸信号。
21.一种用于生成用于计算系统的凝视辅助触摸屏输入的装置,包括:
用于由计算系统接收凝视位置信号的部件,所述凝视位置信号指示计算系统的触摸屏上的用户凝视的区域;
用于由计算系统接收触摸信号的部件,所述触摸信号指示用户在触摸屏上的触摸;以及
用于由计算系统至少部分地基于凝视位置信号和触摸信号来生成用于计算系统的输入信号的部件,
用于至少部分地基于凝视位置信号和触摸信号来生成输入信号的部件包括用于至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个的部件,并且
输入信号指示所选触摸类型,
所述多个预定触摸类型包括一个或多个非凝视关联类型和一个或多个凝视关联类型,并且其中,用于至少部分地基于凝视位置信号和触摸信号来选择多个预定触摸类型中的一个的部件包括:
用于确定触摸信号指示触摸位于用户凝视的区域外面的部件;以及
用于响应于确定触摸信号指示触摸位于用户凝视的区域外面而选择非凝视关联类型的部件。
22.根据权利要求21所述的装置,还包括:
用于由计算系统从图像捕捉设备接收用户眼睛的图像的部件;
其中,所述凝视位置信号至少部分地基于接收到的图像。
23.根据权利要求21所述的装置,还包括:
用于接收指示用户在触摸屏上的第二触摸的第二触摸信号的部件;
用于接收指示触摸屏上的用户凝视的第二区域的第二凝视位置信号的部件;
用于至少部分地基于第二触摸信号来确定第二触摸位于用户凝视的第二区域的外面的部件;
用于至少部分地基于第二触摸信号来确定第二触摸信号与任何非凝视关联类型不兼容的部件;以及
用于响应于确定第二触摸位于用户凝视的第二区域外面以及第二触摸信号与任何非凝视关联类型不兼容而出于生成输入信号的目的忽略第二触摸信号的部件。
24.根据权利要求21所述的装置,其中,所述凝视位置信号是第一凝视位置信号,所述用户是第一用户,所述触摸信号是第一触摸信号,并且所述输入信号是第一输入信号,并且其中,该装置还包括:
用于由计算系统接收第二凝视位置信号的部件,所述第二凝视位置信号指示触摸屏上的第二用户凝视的区域;
用于由计算系统接收第二触摸信号的部件,所述第二触摸信号指示第二用户在触摸屏上的触摸;以及
用于由计算系统至少部分地基于第二凝视位置信号和第二触摸信号来生成第二输入信号的部件。
25.根据权利要求24所述的装置,还包括:
用于由计算系统引起在触摸屏上对至少部分地基于第一输入信号的第一视觉元素和至少部分地基于第二输入信号的第二视觉元素的同时显示的部件。
26.根据权利要求21所述的装置,还包括:
用于由计算系统接收位置信号的部件,所述位置信号指示用户的眼睛相对于触摸屏的位置,
其中,指示用户在触摸屏上的触摸的触摸信号至少部分地基于该位置信号。
27.根据权利要求26所述的装置,还包括:
用于由计算系统至少部分地基于位置信号生成指示期望视觉畸变的调整信号的部件;以及
用于引起在触摸屏上对根据调整信号畸变的一个或多个视觉元素的显示的部件。
28.一种计算机可读介质,其上存储有指令,所述指令在被执行时促使计算机执行如权利要求12-18中的任一项所述的方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2013/068125 WO2015065478A1 (en) | 2013-11-01 | 2013-11-01 | Gaze-assisted touchscreen inputs |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105593785A CN105593785A (zh) | 2016-05-18 |
CN105593785B true CN105593785B (zh) | 2019-11-12 |
Family
ID=53004878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380080038.8A Active CN105593785B (zh) | 2013-11-01 | 2013-11-01 | 凝视辅助触摸屏输入 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9575559B2 (zh) |
EP (1) | EP3063602B1 (zh) |
JP (1) | JP6165979B2 (zh) |
CN (1) | CN105593785B (zh) |
WO (1) | WO2015065478A1 (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
KR20150083553A (ko) * | 2014-01-10 | 2015-07-20 | 삼성전자주식회사 | 입력 처리 방법 및 장치 |
KR102299076B1 (ko) * | 2014-02-21 | 2021-09-08 | 삼성전자주식회사 | 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치 |
KR101619651B1 (ko) * | 2014-11-26 | 2016-05-10 | 현대자동차주식회사 | 운전자 감시장치 및 그의 조명제어방법 |
JP2016163166A (ja) * | 2015-03-02 | 2016-09-05 | 株式会社リコー | 通信端末、面談システム、表示方法及びプログラム |
TW201703722A (zh) * | 2015-07-21 | 2017-02-01 | 明達醫學科技股份有限公司 | 量測裝置及其運作方法 |
US9990044B2 (en) * | 2015-10-30 | 2018-06-05 | Intel Corporation | Gaze tracking system |
US9905244B2 (en) * | 2016-02-02 | 2018-02-27 | Ebay Inc. | Personalized, real-time audio processing |
US9898082B1 (en) * | 2016-11-01 | 2018-02-20 | Massachusetts Institute Of Technology | Methods and apparatus for eye tracking |
CN107820599B (zh) * | 2016-12-09 | 2021-03-23 | 深圳市柔宇科技股份有限公司 | 用户界面的调整方法、调整系统及头戴显示设备 |
US10936872B2 (en) | 2016-12-23 | 2021-03-02 | Realwear, Inc. | Hands-free contextually aware object interaction for wearable display |
US11099716B2 (en) | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
US10620910B2 (en) | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
WO2018167860A1 (ja) * | 2017-03-15 | 2018-09-20 | 三菱電機株式会社 | タッチジェスチャ判定装置、タッチジェスチャ判定方法、タッチジェスチャ判定プログラム、及びタッチパネル入力装置 |
CN110546601B (zh) * | 2017-04-03 | 2023-09-26 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
US10304209B2 (en) | 2017-04-19 | 2019-05-28 | The Nielsen Company (Us), Llc | Methods and systems to increase accuracy of eye tracking |
US11029834B2 (en) * | 2017-12-20 | 2021-06-08 | International Business Machines Corporation | Utilizing biometric feedback to allow users to scroll content into a viewable display area |
CN109101110A (zh) * | 2018-08-10 | 2018-12-28 | 北京七鑫易维信息技术有限公司 | 一种操作指令执行方法、装置、用户终端及存储介质 |
TWI734024B (zh) * | 2018-08-28 | 2021-07-21 | 財團法人工業技術研究院 | 指向判斷系統以及指向判斷方法 |
US10761648B2 (en) * | 2019-01-16 | 2020-09-01 | Michael D. Marra | Gaze detection interlock feature for touch screen devices |
US11347367B2 (en) * | 2019-01-18 | 2022-05-31 | Dell Products L.P. | Information handling system see do user interface management |
US11169653B2 (en) | 2019-01-18 | 2021-11-09 | Dell Products L.P. | Asymmetric information handling system user interface management |
US11009907B2 (en) | 2019-01-18 | 2021-05-18 | Dell Products L.P. | Portable information handling system user interface selection based on keyboard configuration |
US11379016B2 (en) | 2019-05-23 | 2022-07-05 | Intel Corporation | Methods and apparatus to operate closed-lid portable computers |
TWI804671B (zh) * | 2019-08-28 | 2023-06-11 | 財團法人工業技術研究院 | 互動顯示方法與互動顯示系統 |
US11733761B2 (en) | 2019-11-11 | 2023-08-22 | Intel Corporation | Methods and apparatus to manage power and performance of computing devices based on user presence |
US11809535B2 (en) | 2019-12-23 | 2023-11-07 | Intel Corporation | Systems and methods for multi-modal user device authentication |
US11360528B2 (en) | 2019-12-27 | 2022-06-14 | Intel Corporation | Apparatus and methods for thermal management of electronic user devices based on user activity |
US11474598B2 (en) * | 2021-01-26 | 2022-10-18 | Huawei Technologies Co., Ltd. | Systems and methods for gaze prediction on touch-enabled devices using touch interactions |
CN112987930A (zh) * | 2021-03-17 | 2021-06-18 | 读书郎教育科技有限公司 | 一种实现和大尺寸电子产品便捷交互的方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102866797A (zh) * | 2011-03-25 | 2013-01-09 | 霍尼韦尔国际公司 | 用于提供稳定触摸的触摸屏及方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6204828B1 (en) | 1998-03-31 | 2001-03-20 | International Business Machines Corporation | Integrated gaze/manual cursor positioning system |
JPH11296304A (ja) * | 1998-04-10 | 1999-10-29 | Ricoh Co Ltd | 画面表示入力装置及び視差補正方法 |
SE524003C2 (sv) * | 2002-11-21 | 2004-06-15 | Tobii Technology Ab | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US20110304606A1 (en) * | 2010-06-14 | 2011-12-15 | Oto Technologies, Llc | Method and system for implementing look-ahead protection in a computing device |
US8493390B2 (en) * | 2010-12-08 | 2013-07-23 | Sony Computer Entertainment America, Inc. | Adaptive displays using gaze tracking |
JP2012203671A (ja) * | 2011-03-25 | 2012-10-22 | Nec Casio Mobile Communications Ltd | 電子機器、情報生成方法及びプログラム |
KR101810170B1 (ko) * | 2011-10-10 | 2017-12-20 | 삼성전자 주식회사 | 사용자 위치 기반 이미지 표시 방법 및 장치 |
US20130145304A1 (en) | 2011-12-02 | 2013-06-06 | International Business Machines Corporation | Confirming input intent using eye tracking |
US9691125B2 (en) * | 2011-12-20 | 2017-06-27 | Hewlett-Packard Development Company L.P. | Transformation of image data based on user position |
US10013053B2 (en) * | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
KR101850034B1 (ko) | 2012-01-06 | 2018-04-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
WO2013144807A1 (en) * | 2012-03-26 | 2013-10-03 | Primesense Ltd. | Enhanced virtual touchpad and touchscreen |
KR20150031986A (ko) * | 2013-09-17 | 2015-03-25 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
-
2013
- 2013-11-01 WO PCT/US2013/068125 patent/WO2015065478A1/en active Application Filing
- 2013-11-01 US US14/127,955 patent/US9575559B2/en active Active
- 2013-11-01 JP JP2016524529A patent/JP6165979B2/ja active Active
- 2013-11-01 EP EP13896672.6A patent/EP3063602B1/en active Active
- 2013-11-01 CN CN201380080038.8A patent/CN105593785B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102866797A (zh) * | 2011-03-25 | 2013-01-09 | 霍尼韦尔国际公司 | 用于提供稳定触摸的触摸屏及方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2016533575A (ja) | 2016-10-27 |
WO2015065478A1 (en) | 2015-05-07 |
CN105593785A (zh) | 2016-05-18 |
EP3063602A4 (en) | 2017-08-02 |
EP3063602A1 (en) | 2016-09-07 |
US9575559B2 (en) | 2017-02-21 |
US20150338914A1 (en) | 2015-11-26 |
JP6165979B2 (ja) | 2017-07-19 |
EP3063602B1 (en) | 2019-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105593785B (zh) | 凝视辅助触摸屏输入 | |
US11531402B1 (en) | Bimanual gestures for controlling virtual and graphical elements | |
US20220326781A1 (en) | Bimanual interactions between mapped hand regions for controlling virtual and graphical elements | |
US20220206588A1 (en) | Micro hand gestures for controlling virtual and graphical elements | |
US11393154B2 (en) | Hair rendering method, device, electronic apparatus, and storage medium | |
CN116348836A (zh) | 增强现实中用于交互式游戏控制的手势跟踪 | |
US9395821B2 (en) | Systems and techniques for user interface control | |
CN117178247A (zh) | 用于动画化及控制虚拟和图形元素的手势 | |
CN109643167A (zh) | 基于用户和机器界面之间的检测距离的交互模式选择 | |
CN109074441A (zh) | 基于注视的认证 | |
TW201214266A (en) | Three dimensional user interface effects on a display by using properties of motion | |
CN106168848A (zh) | 显示装置以及显示装置的控制方法 | |
KR20120068253A (ko) | 사용자 인터페이스의 반응 제공 방법 및 장치 | |
WO2021252242A2 (en) | Augmented reality environment enhancement | |
WO2023034012A1 (en) | Handcrafted augmented reality effort evidence | |
JPWO2020031493A1 (ja) | 端末装置および端末装置の制御方法 | |
US20240071020A1 (en) | Real-world responsiveness of a collaborative object | |
US20240070243A1 (en) | Authenticating a selective collaborative object | |
US20240070298A1 (en) | Selective collaborative object access | |
US20240069642A1 (en) | Scissor hand gesture for a collaborative object | |
US20240070299A1 (en) | Revealing collaborative object using countdown timer | |
WO2024049586A1 (en) | Collaborative object associated with a geographical location | |
JP2012155480A (ja) | 携帯型情報機器用入力装置 | |
Cham et al. | Hand Gestures Based Interaction in Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |