CN105283828B - 边框边缘处的触摸检测 - Google Patents

边框边缘处的触摸检测 Download PDF

Info

Publication number
CN105283828B
CN105283828B CN201480032100.0A CN201480032100A CN105283828B CN 105283828 B CN105283828 B CN 105283828B CN 201480032100 A CN201480032100 A CN 201480032100A CN 105283828 B CN105283828 B CN 105283828B
Authority
CN
China
Prior art keywords
contact
thumb
touch
major axis
length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480032100.0A
Other languages
English (en)
Other versions
CN105283828A (zh
Inventor
W·C·韦斯特曼
A·Y·本巴萨特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Publication of CN105283828A publication Critical patent/CN105283828A/zh
Application granted granted Critical
Publication of CN105283828B publication Critical patent/CN105283828B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种外推接近信息以生成触摸节点(还称为触摸像素)的边界列或行并随后将椭圆拟合到包括所述外推的边界触摸节点的触点块的方法。另外,可基于触点的长轴和所述触点到触摸感测表面的边缘的距离将所述触点标识为拇指。

Description

边框边缘处的触摸检测
技术领域
本发明大体上涉及具有触摸感测能力的电子设备。
背景技术
在触摸感测系统中,可从触摸感测表面获取接近图像,并且该图像可分割成多个块,每个块对应于触摸感测表面上或触摸感测表面附近的触点。一个椭圆可拟合至多个块中的每个块。椭圆的参数可被用来标识触点块并生成输入。然而,当触点块位于接近图像的边缘时,拟合的椭圆可能不会准确地表示感测到的触摸物体,其中一些触摸物体可能经过了触摸感测表面的边缘。
发明内容
本发明涉及一种外推接近信息以生成触摸节点(还称为触摸像素)的边界列或行并随后将椭圆拟合到包括所述外推的边界触摸节点的触点块的方法。另外,可基于触点的长轴和所述触点到所述触摸感测表面的边缘的距离将所述触点标识为拇指。
附图说明
图1A和1B示出了根据本发明的示例的包括外推的边界节点的示例性接近图像。
图2示出了根据本发明的示例的外推边界节点以拟合椭圆的示例性方法。
图3示出了根据本发明的示例的触点的长轴对触点到触摸感测表面的边缘的距离的图。
图4示出了根据本发明的示例的将触点标识为拇指的示例性方法。
图5是示出了可用于本发明的一些实施例中的示例性API架构的框图。
图6示出了根据本发明的示例的API的示例性软件栈。
图7是根据本发明的示例的示出了触摸屏和设备的其它组件之间的示例性交互的框图。
图8是根据本发明的示例的示出了可以在任何便携式或非便携式设备内体现的系统架构的示例的框图。
具体实施方式
在以下对示例的描述中将引用附图,附图形成以下描述的一部分并且在附图中以举例方式示出了可实施的具体示例。应当理解,在不脱离所公开的示例的范围的情况下,可使用其它示例并且可进行结构性变更。
尽管本文中公开的示例主要从电容式触摸感测和接近感测方面进行描述和说明,但应理解,示例并不受此限制,而是可适用于其它触摸感测技术,包括仅感测力和/或使用电阻式触摸感测的那些技术。例如,如本文中所论述的“接近图像”可以是电容的图像、电阻的图像和/或力的图像,以及其它可能性。另外,尽管示例主要从列的角度论述,但本文中所公开的方法还可从行的角度使用。
在触摸感测系统中,可从触摸感测表面获取接近图像,该图像可分割成多个块,每个块对应于触摸感测表面上或触摸感测表面附近的触点。一个椭圆可拟合至多个块中的每个块。椭圆的参数可被用来标识触点块并生成输入。例如,可基于拟合椭圆的长轴的长度将触点块标识为拇指。然而,当触点块位于接近图像的边缘时,拟合的椭圆可能不会准确地表示感测到的触摸物体,其中一些触摸物体可能经过了触摸感测表面的边缘。
图1A和1B示出了一种外推接近信息以生成触摸节点(还称为触摸像素)的边界列或行并随后将椭圆拟合至包括外推的边界触摸节点的触点块的方法。
在图1A中,示出了拇指的轮廓,并在边缘列C1和相邻列C2中示出了与该拇指对应的触点块的触摸节点。可分别计算并外推列C1和C2的矩心y1和y2以确定y0,即边界列C0的外推矩心。拇指块的列C1中的触摸节点被复制到列C0中并移位,使得矩心在y0处。另外,可分别计算并外推拇指块的列C1和C2中的触摸节点的和,即和1及和2,以确定和0,并可基于外推的和0适当地缩放复制到列C0的触摸节点。在一些示例中,还可缩减(在该情况下是1/3)列C0中的触摸节点以降低外推中的不确定性。
在图1B中,从电容的接近图像方面示出并描述了算法。也就是说,每个触摸节点是表示触点到该触摸节点的接近度的电容值。图1B还在(1)处示出了覆盖触摸感测表面的边缘的指纹如何会产生误导性接近图像。在(2a)至(4)处,实际指纹的轮廓被示为虚线。在外推边界像素之后,在(4)处估计的实线椭圆更准确地表示在(1)处示出的实际指纹。
图1B还示出了不进行外推的情况下从初始触摸节点估计的普通椭圆100、从包括通过外推来添加的附加边界节点的触摸节点而估计的外推椭圆102以及实际指纹轮廓104。普通椭圆100具有较短的长轴和较长的短轴,而且它的取向点比起实际指纹轮廓104的椭圆更靠近接近图像的上方。通过对比,外推椭圆102的长轴比普通椭圆100的长,而且它的取向更接近于实际指纹轮廓104的取向。可以看出,包括外推边界节点允许具有参数的估计椭圆更接近感测到的触摸物体。
图2示出了根据本发明的示例的外推边界节点以拟合椭圆的示例性方法。可以获取接近图像并将其分割成多个块(200)。多个块中的第一块可包括接近图像的边缘列中的一个或多个触摸节点。另外,第一块可包括与边缘列相邻的列中的一个或多个触摸节点。
可确定边缘列中的第一块的一个或多个触摸节点的边缘列矩心(202)。矩心计算类似于质心计算。例如,矩心可被计算为一个或多个触摸节点的位置的加权平均值,每个位置通过该位置处的触摸节点的相对接近值来加权。可通过类似方式确定相邻列中的第一块的一个或多个触摸节点的相邻列矩心(204)。
可通过边缘列矩心和相邻列矩心的外推来使边缘列中的第一块的一个或多个触摸节点复制到边界列并偏移(206)。在一些示例中,可通过从边缘列矩心减去相邻列矩心以获得位移值来外推矩心。随后可基于位移值使复制到边界列的触摸节点移位。在一些示例中,位移值可为整数或可四舍五入至整数,使得每个触摸节点可基于位移值而简单地移位。
在一些示例中,位移值可以不是整数,并且使边界列中的已复制的触摸节点移位包括基于位移值外推触摸节点。例如,如果位移值为0.6,则对于每个触摸节点,触摸节点的接近值的60%可向上移位至下一触摸节点,接近值的40%可保留在触摸节点中。剩余的40%可被添加到向上移位的60%的下方触摸节点。在一些示例中,可使用基于非整位移值来外推触摸节点的其它方法。
可对边缘列中的第一块的一个或多个触摸节点求和以获得边缘和。这可包括对一个或多个触摸节点的接近值求和。以类似的方式,可对相邻列中的第一块的一个或多个触摸节点求和以获得相邻和。随后可基于边缘和以及相邻和的外推来缩放边界列中的触摸节点(208)。可缩放边界列中的触摸节点,使得边界列中的触摸节点的接近值的和等于边缘和以及相邻和的外推。在一些示例中,外推可以为相邻和至边缘和的轨迹的线性外推。在其它示例中,外推可以为相邻和至边缘和的轨迹的逻辑外推,例如基于双弯曲函数的外推。
一个椭圆可拟合至包括边界列的触摸节点的第一块(210)。在一些示例中,拟合椭圆可包括确定椭圆的参数,例如椭圆的长轴、短轴和取向角。
如上所论述,可基于拟合至触点的椭圆的长轴长度将该触点标识为拇指。然而,覆盖触摸感测表面的边缘的触点可具有较短的长轴,因此该触点可能无法被标识为拇指,直至大多数触点移动到触摸感测表面上。
图3示出了触点的长轴对与触摸感测表面的边缘的距离的图。当触点正位于触摸感测表面的边缘时,触点的长轴非常短,但是当触点从边缘移走并且更多的触点触摸所述表面时,长轴的长度增加,直至该长度稳定至完整触点的长轴的实际长度。虚线300表示可能的阈值长轴长度,在该长度之上的触点可标识为拇指。曲线302表示长轴和与普通手指触点的边缘的距离之间的关系。曲线306表示长轴和与拇指触点的边缘的距离之间的关系。
曲线304表示可用来将触点标识为拇指的参考拇指轮廓。可在一系列时间步长内针对触点来监控长轴以及与边缘的距离,并且可整合并累积触点曲线和参考拇指轮廓304之间的区域。如果整合的值保持为正,如将通过曲线306所示的那样,则所关联的触点可被标识为拇指。如果整合的值变为负,如将通过曲线302所示的那样,则可以确定所关联的触点不是拇指。该方法相当稳健,因为即使非拇指触点在接近边缘时具有非常大的长轴,当从边缘移开时,长轴将缓慢增大,而且将累积足够的负区域,使得触点将不被标识为拇指。在一些示例中,可累积整合的值,且触点可能不被标识,直至超过时间阈值或超过与边缘的距离阈值,以及其它可能性。
图4示出了一种基于触点的长轴和触点与触摸感测表面的边缘的距离而将触点标识为拇指的示例性方法。可获得触点的长轴以及触点与触摸感测表面的边缘的距离(400)。
基于拇指轮廓,可在获得的距离处确定拇指触点的参考长轴(402)。拇指轮廓可能只是距离至长轴值的映射,如图3所示。确定参考长轴可包括基于获得的触点与触摸感测表面的边缘的距离从拇指轮廓获得参考长轴。
可基于参考长轴以及触点的长轴将触点标识为拇指(404)。例如,参考长轴以及触点的长轴可被用来整合触点的曲线与拇指轮廓的曲线之间的区域,如参照图3所描述。如果整合的值为正,可将触点标识为拇指。
在一些示例中,可从触点的长轴减去参考长轴以获得轴差。在一个示例中,如果轴差为正,则可将触点标识为拇指。在其它示例中,可将轴差添加至来自先前时间步长的轴差和。如果轴差和为正,则可将触点标识为拇指。
上面论述的示例可在一个或多个应用编程接口(API)中实现。API是由程序代码组件或硬件组件(在下文中称为“API实现组件”)来实现的接口,允许不同的程序代码组件或硬件组件(在下文中称为“API调用组件”)访问和使用由API实现组件提供的一个或多个函数、方法、流程、数据结构、类和/或其它服务。API可定义在API调用组件和API实现组件之间传递的一个或多个参数。
上述特征可作为应用编程接口(API)的一部分来实现,API可允许使用触摸输入作为输入机制来将API结合到不同的应用程序(例如,电子制表应用程序)中。API可允许API调用组件的开发者(可以是第三方开发者)利用由API实现组件提供的指定特征,例如上面描述的那些特征。可以有一个API调用组件或可以有多于一个此类组件。API可以是计算机系统或程序库提供的源代码接口,以便支持来自应用程序的服务请求。操作系统(OS)可以具有多个API,以允许运行于OS上的应用程序调用那些API中的一个或多个API,服务(例如程序库)可具有多个API,以允许使用服务的应用程序调用那些API中的一个或多个API。可按照在构建应用程序时能够解译或编译的编程语言来指定API。
在一些示例中,API实现组件可提供多于一个API,每个API提供由API实现组件实现的功能的不同视图,或提供访问由API实现组件实现的功能的不同方面的不同方面。例如,API实现组件的一个API可提供第一组功能,并可暴露于第三方开发者,API实现组件的另一个API可被隐藏(不暴露)并提供第一组功能的子组,并且还提供另一组功能,例如不在第一组功能中的测试或调试功能。在其它示例中,API实现组件本身可经由下层API调用一个或多个其它组件,因而既是API调用组件又是API实现组件。
API定义在访问和使用API实现组件的指定特征时API调用组件所使用的语言和参数。例如,API调用组件通过被API暴露的一个或多个API调用或引用(例如由函数调用或方法调用实现)来访问API实现组件的指定特征,并经由API调用或引用来使用参数传递数据和控制信息。API实现组件可响应于来自API调用组件的API调用而通过API返回值。尽管API定义API调用的语法和结果(例如,如何引起API调用以及API调用能干什么),但API可不揭示API调用如何完成由API调用指定的函数。经由调用(API调用组件)和API实现组件之间的一个或多个应用编程接口传输各种API调用。传输API调用可包括发出、发起、引用、调用、接收、返回或响应函数调用或消息;换言之,传输可通过API调用组件或API实现组件来描述动作。API的函数调用或其它引用可通过参数列表或其它结构发送或接收一个或多个参数。参数可以是常数、键、数据结构、对象、对象类、变量、数据类型、指针、数组、列表或指向函数或方法的指针或援引要经由API传递的数据或其它项目的另一种方式。
此外,数据类型或类可以由API提供并由API实现组件实现。因此,API调用组件可利用API中提供的定义声明变量、使用指向这种类型或类的指针、使用或实例化这种类型或类的恒定值。
通常,可使用API来访问由API实现组件提供的服务或数据或启动执行由API实现组件提供的操作或计算。以举例的方式,API实现组件和API调用组件各自可以是操作系统、库、设备驱动程序、API、应用程序或其它模块(应当理解,API实现组件和API调用组件可以是彼此相同或不同类型的模块)中的任一种。在一些情况下,可至少部分地在固件、微码或其它硬件逻辑中实现API实现组件。在一些示例中,API可以允许客户端程序使用由软件开发工具包(SDK)库提供的服务。在其它示例中,应用程序或其它客户端程序可使用由应用程序框架提供的API。在这些示例中,应用程序或客户端程序可以将调用并入由SDK提供和由API提供的函数或方法中,或使用在SDK中定义并由API提供的数据类型或对象。在这些示例中,应用程序框架可为程序提供主要事件循环,该程序对由框架定义的各种事件作出响应。API允许应用程序利用应用程序框架来指定事件和对事件的响应。在一些具体实施中,API调用能够向应用程序报告硬件设备的能力或状态,包括与诸如输入能力和状态、输出能力和状态、处理能力、电源状态、存储容量和状态、通信能力等方面相关的能力或状态,API可部分地由固件、微码或部分地在硬件组件上执行的其它低电平逻辑实现。
API调用组件可以是本地组件(即与API实现组件在同一数据处理系统上)或远程组件(即在不同于API实现组件的数据处理系统上),所述组件经由网络通过API与API实现组件通信。应当理解,API实现组件也可充当API调用组件(即,它可以对不同API实现组件暴露的API进行API调用),API调用组件也可以通过实现暴露于不同API调用组件的API来充当API实现组件。
API可允许用不同编程语言编写的多个API调用组件来与API实现组件通信(从而API可包括用于转换API实现组件和API调用组件之间调用和返回的特征);然而,API可从具体编程语言方面实现。在一个示例中,API调用组件可调用来自不同提供商的API,例如来自OS提供商的一组API和来自插件提供商的另一组API,以及来自另一提供商(例如软件库的提供商)或另一组API的创建者的另一组API。
图5是示出了可用于本发明的一些实施例的示例性API架构的框图。如图5中所示,API架构500包括实现API 520的API实现组件510(例如,操作系统、库、设备驱动程序、API、应用程序、软件或其它模块)。API 520指定可由API调用组件530使用的API实现组件的一个或多个函数、方法、类、对象、协议、数据结构、格式和/或其它特征。API520能够指定至少一个调用约定,该调用约定指定API实现组件中的函数如何从API调用组件接收参数以及函数如何向API调用组件返回结果。API调用组件530(例如操作系统、库、设备驱动程序、API、应用程序、软件或其它模块)通过API 520进行API调用,以访问并使用由API 520指定的API实现组件510的特征。API实现组件510可以响应于API调用而通过API 520向API调用组件530返回值。
应当理解,API实现组件510可包括未通过API 520指定且对于API调用组件530不可用的附加函数、方法、类、数据结构和/或其它特征。应理解,API调用组件530可与API实现组件510在同一系统上,或者可远程定位并通过网络来使用API 520访问API实现组件510。尽管图5示出了单个API调用组件530与API 520交互,但应理解,可用不同语言(或相同语言)编写的与API调用组件530不同的其它API调用组件可使用API 520。
API实现组件510、API 520和API调用组件530可存储在非暂态机器可读存储介质中,其包括用于以机器(例如计算机或其它数据处理系统)可读的形式存储信息的任何机构。例如,机器可读介质包括磁盘、光盘、随机存取存储器、只读存储器、闪存设备等。
在图6所示的示例性软件栈中,应用程序可使用若干服务API调用服务A或B,以及使用若干OS API调用操作系统(OS)。服务A和B可使用若干OS API对OS进行调用。
注意,服务2具有两个API,其中一个(服务2API 1)从应用程序1接收调用并返回值,另一个(服务2API 2)从应用程序2接收调用并返回值。服务1(例如,可以是软件库)对OSAPI 1进行调用并接收返回的值,服务2(例如,可以是软件库)对OS API 1和OS API 2两者进行调用并接收返回的值。应用程序2对OS API 2进行调用并接收返回的值。
图7是示出了触摸屏和设备的其它组件之间的示例性交互的框图。所述示例可包括触摸I/O设备1001,该触摸I/O设备可经由有线或无线通信信道1002来接收用于与计算系统1003进行交互的触摸输入。触控I/O设备1001可用于代替其它输入设备诸如键盘、鼠标等或与其它输入设备结合而向计算系统1003提供用户输入。一个或多个触控I/O设备1001可用于向计算系统1003提供用户输入。触摸I/O设备1001可以是计算系统1003的整体部分(例如,智能手机或平板PC上的触摸屏)或可与计算系统1003分开。
触摸I/O设备1001可包括触摸感测面板,其是完全透明或部分透明的、半透明的、非透明的、不透明的或它们的任何组合。触摸I/O设备1001可被实现为触摸屏、触控板、充当触控板的触摸屏(例如,替代膝上型电脑的触控板的触摸屏)、与任何其它输入设备组合或结合的触摸屏或触控板(例如,设置于键盘上的触摸屏或触控板)或具有用于接收触摸输入的触摸感测表面的任何多维物体。
在一个示例中,实现为触摸屏的触摸I/O设备1001可包括部分或完全定位于显示器的至少一部分上方的透明和/或半透明的触摸感测面板。根据该示例,触摸I/O设备1001用于显示从计算系统1003(和/或另一个来源)传输的图形数据,并且还用于接收用户输入。在其它示例中,触摸I/O设备1001可被实现为集成触摸屏,其中触摸感测组件/设备与显示组件/设备是一体的。在其它示例中,可将触摸屏用作补充或附加的显示屏,以用于显示主显示器的补充或相同图形数据,并用于接收触摸输入。
触摸I/O设备1001可被配置为基于电容、电阻、光学、声学、感应、机械、化学测量来检测设备1001上一个或多个触摸或接近触摸的位置,或者检测可相对于设备1001附近发生的一次或多次触摸或接近触摸来测量的任何现象。可以使用软件、硬件、固件或它们的任何组合来处理所检测到触摸的测量结果,以便标识和追踪一个或多个手势。手势可对应于触摸I/O设备1001上的静止的或非静止的、单个或多个触摸或接近触摸。可通过基本上同时、连续或依次地以特定方式在触摸I/O设备1001上移动一个或多个手指或其它物体来执行手势,如轻敲、按压、摇动、摩擦、扭转、改变取向、用不同压力按压等。手势可以通过但不限于以下动作来表征:在手指之间或用任何一个或多个其它手指进行的夹捏、滑动、轻扫、旋转、屈曲、拖拽或轻敲动作。一个或多个用户可用一只或多只手或它们的任何组合来执行单个手势。
计算系统1003可利用图形数据来驱动显示器以显示图形用户界面(GUI)。GUI可被配置为经由触摸I/O设备1001接收触摸输入。被实现为触摸屏的触摸I/O设备1001可显示GUI。另选地,GUI可被显示在与触控I/O设备1001分开的显示器上。GUI可包括在界面内的特定位置处显示的图形元素。图形元素可包括但不限于各种显示的虚拟输入设备,包括虚拟滚轮、虚拟键盘、虚拟旋钮、虚拟按钮、任何虚拟UI等。用户可在触摸I/O设备1001上的可能与GUI的图形元素相关联的一个或多个特定位置处执行手势。在其它示例中,用户可在与GUI的图形元素的位置无关的一个或多个位置处执行手势。在触摸I/O设备1001上执行的手势可直接或间接地操纵、控制、修改、移动、致动、启动或一般性地影响GUI内的图形元素,该图形元素诸如是光标、图标、媒体文件、列表、文本、所有或部分图像等。例如,就触摸屏而言,用户可通过在触摸屏上的图形元素上方执行手势来与图形元素直接进行交互。或者,触控板一般提供间接交互。手势还可影响未被显示的GUI元素(例如,使得用户界面显现)或可影响计算系统1003内的其它动作(例如,影响GUI的状态或模式、应用程序或操作系统)。与所显示的光标结合,手势可在或可不在触摸I/O设备1001上执行。例如,在触控板上执行手势的情况下,可以在显示屏或触摸屏上显示光标(或指针),并且可经由触控板上的触摸输入来控制光标以与显示屏上的图形对象交互。在直接在触摸屏上执行手势的其它示例中,不管是否有光标或指针显示在触摸屏上,用户都可与触摸屏上的对象直接进行交互。
可响应于或基于触摸I/O设备1001上的触摸或接近触摸而经由通信信道1002向用户提供反馈。可通过光学、机械、电气、嗅觉、声学等或它们的任何组合并且以可变或不可变方式传输反馈。
现在关注可在任何便携式或非便携式设备内实现的系统架构的示例,便携式或非便携式设备包括但不限于通信设备(例如移动电话、智能电话)、多媒体设备(例如MP3播放器、电视、收音机)、便携式或手持式电脑(例如平板电脑、上网本、膝上型电脑)、台式计算机、一体台式计算机、外围设备或任何其它适于包括系统架构2000的系统或设备,包括这些类型设备的两个或更多个的组合。图8是系统2000的一个示例的框图,该系统2000通常包括一个或多个计算机可读介质2001、处理系统2004、I/O子系统2006、射频(RF)电路2008和音频电路2011。这些组件可通过一根或多根通信总线或信号线2003来耦接。
应当理解,图8中所示的架构仅为系统2000的一个示例性架构,并且系统2000可具有比图示更多或更少的组件、或组件的不同配置。图8中所示的各种组件可在硬件、软件、固件或它们的任何组合(包括一个或多个信号处理和/或专用集成电路)中实施。
射频电路2008用于通过无线链路或网络向一个或多个其它设备发送和接收信息,并且包括用于执行该功能的熟知的电路。射频电路2008和音频电路2010经由外围设备接口2016被耦接到处理系统2004。接口2016包括用于在外围设备和处理系统2004之间建立并维持通信的各种已知组件。音频电路2010耦接到音频扬声器2050和麦克风2052,并且包括用于处理从接口2016所接收的语音信号的已知电路以使得用户能够与其它用户进行实时通信。在一些示例中,音频电路2010包括耳机接口(未示出)。
外围设备接口2016将系统的输入外围设备和输出外围设备耦接到处理器2018和计算机可读介质2001。一个或多个处理器2018经由控制器2020与一个或多个计算机可读介质2001进行通信。计算机可读介质2001可以是可存储供一个或多个处理器2018使用的代码和/或数据的任何设备或介质。介质2001可包括存储器分级结构,包括但不限于高速缓存、主存储器和辅助存储器。可使用RAM(例如SRAM、DRAM、DDRAM)、ROM、闪存、磁存储设备和/或光学存储设备(诸如磁盘驱动器、磁带、CD(光盘)和DVD(数字视频光盘))的任何组合来实现该存储器分级结构。介质2001还可包括用于传送指示计算机指令或数据的信息承载信号的传输介质(具有或不具有在其上调制信号的载波)。例如,传输介质可包括通信网络,该通信网络包括但不限于互联网(也称为万维网)、一个或多个内联网、局域网(LAN)、宽局域网(WLAN)、存储区域网(SAN)、城域网(MAN)等。
一个或多个处理器2018运行存储在介质2001中的各种软件组件以执行系统2000的各种功能。在一些示例中,软件组件包括操作系统2022、通信模块(或指令集)2024、触摸处理模块(或指令集)2026、图形模块(或指令集)2028和一个或多个应用程序(或指令集)2030。这些模块和以上提及的应用程序中的每一者对应于用于执行上述一种或多种功能以及在本专利申请中所述的方法(例如,本文所述的计算机实现的方法和其它信息处理方法)的指令集。这些模块(即指令集)不必被实现为独立的软件程序、过程或模块,并因此在各种示例中可组合或以其它方式重新布置这些模块的各种子组。在一些示例中,介质2001可以存储以上所标识的模块和数据结构的子组。此外,介质2001可存储上面未描述的附加模块和数据结构。
操作系统2022包括各种过程、指令集、软件组件和/或驱动器以用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、电源管理等),并且有利于各个硬件组件和软件组件之间的通信。
通信模块2024有利于通过一个或多个外部端口2036或经由射频电路2008来与其它设备进行通信,并且包括各种软件组件以用于处理从射频电路2008和/或外部端口2036所接收的数据。
图形模块2028包括各种已知的软件组件以用于在显示表面上呈现、以动画方式呈现和显示图形对象。在触摸I/O设备2012为触摸感测显示器(例如触摸屏)的示例中,图形模块2028包括用于在触摸感测显示器上渲染、显示和以动画方式呈现对象的组件。
一个或多个应用程序2030可包括安装在系统2000上的任何应用程序,包括但不限于浏览器、地址簿、联系人列表、电子邮件、即时消息、文字处理、键盘仿真、桌面小程序、支持JAVA的应用程序、加密、数字权限管理、语音标识、语音复制、位置确定能力(诸如由全球定位系统(GPS)提供的位置确定能力)、音乐播放器等。
触摸处理模块2026包括用于执行与触摸I/O设备2012相关联的各种任务的各种软件组件,包括但不限于通过触摸I/O设备控制器2032接收和处理从I/O设备2012接收的触摸输入。
I/O子系统2006耦接到触摸I/O设备2012和一个或多个其它I/O设备2014以用于控制或执行各种功能。触摸I/O设备2012通过触摸I/O设备控制器2032与处理系统2004通信,该控制器包括用于处理用户触摸输入的各种组件(例如,扫描硬件)。一个或多个其它输入控制器2034从/向其它I/O设备2014接收/发送电信号。其它I/O设备2014可包括物理按钮、拨号盘、滑动开关、操作杆、键盘、触控板、附加显示屏或它们的任何组合。
如果被实现为触摸屏,那么触摸I/O设备2012在GUI中向用户显示视觉输出。视觉输出可包括文本、图形、视频以及它们的任何组合。一些或全部视觉输出可对应于用户界面对象。触摸I/O设备2012形成从用户接受触摸输入的触摸感测表面。触摸I/O设备2012和触摸屏控制器2032(连同介质2001中的任何关联模块和/或指令集)检测并跟踪触摸I/O设备2012上的触摸或接近触摸(以及触摸的任何移动或释放),并将所检测的触摸输入转换成与图形对象诸如一个或多个用户界面对象交互。在将设备2012实现为触摸屏的情况下,用户可与显示在触摸屏上的图形对象直接进行交互。或者,在设备2012被实现为触摸设备而非触摸屏(例如触控板)的情况下,用户可与实现为I/O设备2014的独立显示屏上显示的图形对象间接交互。
触摸I/O设备2012可类似于以下美国专利申请中所述的多触摸感测表面:6,323,846(Westerman等人)、6,570,557(Westerman等人)和/或6,677,932(Westerman),和/或美国专利公开2002/0015024A1,它们中的每一者据此以引用方式并入。
在触摸I/O设备2012为触摸屏的示例中,触摸屏可使用LCD(液晶显示器)技术、LPD(发光聚合物显示器)技术、OLED(有机LED)或OEL(有机电致发光),尽管在其它实施例中可使用其它显示技术。
可由触摸I/O设备2012基于用户的触摸输入以及正在显示的内容和/或计算系统的一个状态或多个状态提供反馈。可通过光学(例如光信号或所显示的图像)、机械(例如触觉反馈、触摸反馈、力反馈等)、电气(例如电刺激)、嗅觉、声学(例如嘟嘟声等)等或它们的任何组合方式并且以可变或不可变的方式来传输反馈。
系统2000还包括用于为各种硬件组件供电的电力系统2044,并且可包括电源管理系统、一个或多个电源、再充电系统、电源故障检测电路、功率转换器或逆变器、电源状态指示器以及通常与便携式设备中的电力的生成、管理和分配相关联的任何其它组件。
在一些示例中,外围设备接口2016、一个或多个处理器2018和存储器控制器2020可在单个芯片诸如处理系统2004上实施。在一些其它示例中,它们可在单独的芯片上实现。
本发明的示例可有利于更好地识别和标识触摸感测表面边缘附近的触点块,从而利用具有操作直观且容易的触摸感测表面的电子设备。
虽然参照附图对公开的示例进行了全面的描述,但应注意,各种变化和修改对于本领域内的技术人员而言将变得显而易见。应当理解,此类变化和修改被认为包括在由所附权利要求所限定的公开的示例的范围内。

Claims (18)

1.一种包括触摸感测表面的计算设备的方法,所述方法包括:
获得所述触摸感测表面上或所述触摸感测表面附近的接触的长轴的长度;
获得所述接触与所述触摸感测表面的边缘的距离;
基于所获得的距离和预定拇指轮廓,确定所获得的距离处的拇指接触的参考长轴的长度,所述预定拇指轮廓将所述拇指接触与所述触摸感测表面的所述边缘的距离映射到所述拇指接触的所述参考长轴的所述长度;以及
基于所述参考长轴的所述长度和所述接触的所述长轴的所述长度将所述接触标识为拇指。
2.根据权利要求1所述的方法,还包括从所述接触的所述长轴的所述长度减去所述参考长轴的所述长度以获得轴长度差;
其中基于所述参考长轴的所述长度和所述接触的所述长轴的所述长度将所述接触标识为拇指包括基于所述轴长度差将所述接触标识为拇指。
3.根据权利要求2所述的方法,还包括将所述轴长度差添加至来自先前时间步长的轴长度差和;
其中基于所述轴长度差将所述接触标识为拇指包括基于所述轴长度差和将所述接触标识为拇指。
4.根据权利要求3所述的方法,还包括确定所述轴长度差和为正;
其中基于所述轴长度差和将所述接触标识为拇指包括基于所述确定所述轴长度差和为正而将所述接触标识为拇指。
5.根据权利要求1-4中任一项所述的方法,其中在超过从按下所述接触所测量的时间阈值之后将所述接触标识为拇指。
6.根据权利要求1-4中任一项所述的方法,其中在所述接触已达到与所述触摸感测表面的所述边缘的距离阈值之后将所述接触标识为拇指。
7.一种电子设备,包括:
触摸感测表面;
用于执行指令的处理器;以及
与所述处理器耦接以存储指令的存储器,当所述指令由所述处理器执行时,使得所述处理器:
获得所述触摸感测表面上或所述触摸感测表面附近的接触的长轴的长度;
获得所述接触与所述触摸感测表面的边缘的距离;
基于所获得的距离和预定拇指轮廓,确定所获得的距离处的拇指接触的参考长轴的长度,所述预定拇指轮廓将所述拇指接触与所述触摸感测表面的所述边缘的距离映射到所述拇指接触的所述参考长轴的所述长度;以及
基于所述参考长轴的所述长度和所述接触的所述长轴的所述长度将所述接触标识为拇指。
8.根据权利要求7所述的电子设备,其中所述指令还使得所述处理器从所述接触的所述长轴的所述长度减去所述参考长轴的所述长度以获得轴长度差;
其中基于所述参考长轴的所述长度和所述接触的所述长轴的所述长度将所述接触标识为拇指包括基于所述轴长度差将所述接触标识为拇指。
9.根据权利要求8所述的电子设备,其中所述指令还使得所述处理器将所述轴长度差添加至来自先前时间步长的轴长度差和;
其中基于所述轴长度差将所述接触标识为拇指包括基于所述轴长度差和将所述接触标识为拇指。
10.根据权利要求9所述的电子设备,其中所述指令还使得所述处理器确定所述轴长度差和为正;
其中基于所述轴长度差和将所述接触标识为拇指包括基于所述确定所述轴长度差和为正而将所述接触标识为拇指。
11.根据权利要求7-10中任一项所述的电子设备,其中在超过从按下所述接触所测量的时间阈值之后将所述接触标识为拇指。
12.根据权利要求7-10中任一项所述的电子设备,其中在所述接触已达到与所述触摸感测表面的所述边缘的距离阈值之后将所述接触标识为拇指。
13.一种电子设备,包括:
触摸感测表面;
用于获得所述触摸感测表面上或所述触摸感测表面附近的接触的长轴的长度的装置;
用于获得所述接触与所述触摸感测表面的边缘的距离的装置;
用于基于所获得的距离和预定拇指轮廓,确定所获得的距离处的拇指接触的参考长轴的长度的装置,所述预定拇指轮廓将所述拇指接触与所述触摸感测表面的所述边缘的距离映射到所述拇指接触的所述参考长轴的所述长度;以及
用于基于所述参考长轴的所述长度和所述接触的所述长轴的所述长度将所述接触标识为拇指的装置。
14.根据权利要求13所述的电子设备,还包括用于从所述接触的所述长轴的所述长度减去所述参考长轴的所述长度以获得轴长度差的装置;
其中基于所述参考长轴的所述长度和所述接触的所述长轴的所述长度将所述接触标识为拇指包括基于所述轴长度差将所述接触标识为拇指。
15.根据权利要求14所述的电子设备,还包括用于将所述轴长度差添加至来自先前时间步长的轴长度差和的装置;
其中基于所述轴长度差将所述接触标识为拇指包括基于所述轴长度差和将所述接触标识为拇指。
16.根据权利要求15所述的电子设备,还包括用于确定所述轴长度差和为正的装置;
其中基于所述轴长度差和将所述接触标识为拇指包括基于所述确定所述轴长度差和为正而将所述接触标识为拇指。
17.根据权利要求13-16中任一项所述的电子设备,其中在超过从按下所述接触所测量的时间阈值之后将所述接触标识为拇指。
18.根据权利要求13-16中任一项所述的电子设备,其中在所述接触已达到与所述触摸感测表面的所述边缘的距离阈值之后将所述接触标识为拇指。
CN201480032100.0A 2013-06-07 2014-05-01 边框边缘处的触摸检测 Active CN105283828B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361832703P 2013-06-07 2013-06-07
US61/832,703 2013-06-07
US14/192,536 US9477331B2 (en) 2013-06-07 2014-02-27 Touch detection at bezel edge
US14/192,536 2014-02-27
PCT/US2014/036447 WO2014197142A1 (en) 2013-06-07 2014-05-01 Touch detection at bezel edge

Publications (2)

Publication Number Publication Date
CN105283828A CN105283828A (zh) 2016-01-27
CN105283828B true CN105283828B (zh) 2018-02-23

Family

ID=52005051

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480032100.0A Active CN105283828B (zh) 2013-06-07 2014-05-01 边框边缘处的触摸检测

Country Status (8)

Country Link
US (2) US9477331B2 (zh)
EP (1) EP2987061B1 (zh)
KR (1) KR101756579B1 (zh)
CN (1) CN105283828B (zh)
AU (1) AU2014275440B2 (zh)
DE (1) DE112014002687T5 (zh)
HK (1) HK1219150A1 (zh)
WO (1) WO2014197142A1 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9477331B2 (en) 2013-06-07 2016-10-25 Apple Inc. Touch detection at bezel edge
US10809893B2 (en) * 2013-08-09 2020-10-20 Insyde Software Corp. System and method for re-sizing and re-positioning application windows in a touch-based computing device
US9727235B2 (en) * 2013-12-12 2017-08-08 Lenovo (Singapore) Pte. Ltd. Switching an interface mode using an input gesture
US9754347B2 (en) 2014-03-10 2017-09-05 Sony Corporation Method and device for simulating a wide field of view
US9804717B2 (en) 2015-03-11 2017-10-31 Synaptics Incorporated Input sensing and exclusion
CN104731504A (zh) * 2015-03-30 2015-06-24 努比亚技术有限公司 基于无边框终端的应用控制方法及装置
CN108027683A (zh) 2015-07-15 2018-05-11 互联电子公司 力传感边框触摸界面
US20170185287A1 (en) * 2015-12-23 2017-06-29 Nuance Communications, Inc. Adapting a virtual keyboard in the presence of static contact events
US10466839B2 (en) 2016-03-30 2019-11-05 Synaptics Incorporated Dynamic differential algorithm for side touch signals
US10078406B2 (en) 2016-03-31 2018-09-18 Synaptics Incorporated Capacitive side position extrapolation
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
CN108762557A (zh) * 2018-05-22 2018-11-06 北京集创北方科技股份有限公司 一种触摸检测方法和计算机可读存储介质
KR102581974B1 (ko) * 2018-07-31 2023-09-22 삼성디스플레이 주식회사 압력 센서 및 이를 포함하는 표시 장치
WO2020171510A1 (ko) 2019-02-19 2020-08-27 삼성전자 주식회사 터치 회로를 포함하는 전자 장치, 및 그 동작 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101529368A (zh) * 2006-09-06 2009-09-09 苹果公司 用于从手指与触摸屏显示器的接触来确定光标位置的方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5488204A (en) 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
EP1717677B1 (en) 1998-01-26 2015-06-17 Apple Inc. Method and apparatus for integrating manual input
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6188391B1 (en) 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7855718B2 (en) 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US7643010B2 (en) 2007-01-03 2010-01-05 Apple Inc. Peripheral pixel noise reduction
US7916126B2 (en) * 2007-06-13 2011-03-29 Apple Inc. Bottom-up watershed dataflow method and region-specific segmentation based on historic data to identify patches on a touch sensor panel
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8704775B2 (en) * 2008-11-11 2014-04-22 Adobe Systems Incorporated Biometric adjustments for touchscreens
US8154529B2 (en) * 2009-05-14 2012-04-10 Atmel Corporation Two-dimensional touch sensors
TW201118698A (en) 2009-11-27 2011-06-01 Ite Tech Inc Posistion apparatus for touch device and posistion method thereof
US20120019453A1 (en) * 2010-07-26 2012-01-26 Wayne Carl Westerman Motion continuation of touch input
US20120032891A1 (en) 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting
US8593418B2 (en) 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
US20130201155A1 (en) 2010-08-12 2013-08-08 Genqing Wu Finger identification on a touchscreen
US8674956B2 (en) 2011-06-13 2014-03-18 Chimei Innolux Corporation In-cell touch sensor touch area enhancing algorithm
KR20130030167A (ko) 2011-09-16 2013-03-26 주식회사 아이피시티 사용자 입력 감지 장치 및 이를 포함하는 전자 장치
US8810535B2 (en) * 2011-10-18 2014-08-19 Blackberry Limited Electronic device and method of controlling same
US9477331B2 (en) 2013-06-07 2016-10-25 Apple Inc. Touch detection at bezel edge

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101529368A (zh) * 2006-09-06 2009-09-09 苹果公司 用于从手指与触摸屏显示器的接触来确定光标位置的方法

Also Published As

Publication number Publication date
US20140362001A1 (en) 2014-12-11
AU2014275440B2 (en) 2017-03-30
KR20160013211A (ko) 2016-02-03
US10185432B2 (en) 2019-01-22
EP2987061A1 (en) 2016-02-24
US9477331B2 (en) 2016-10-25
WO2014197142A1 (en) 2014-12-11
EP2987061B1 (en) 2019-06-26
KR101756579B1 (ko) 2017-07-10
DE112014002687T5 (de) 2016-03-31
AU2014275440A1 (en) 2015-12-24
CN105283828A (zh) 2016-01-27
HK1219150A1 (zh) 2017-03-24
US20170031511A1 (en) 2017-02-02

Similar Documents

Publication Publication Date Title
CN105283828B (zh) 边框边缘处的触摸检测
US20230005288A1 (en) Enrollment Using Synthetic Fingerprint Image and Fingerprint Sensing Systems
US20220244844A1 (en) Single contact scaling gesture
US10156980B2 (en) Toggle gesture during drag gesture
US10203815B2 (en) Application-based touch sensitivity
US20140173747A1 (en) Disabling access to applications and content in a privacy mode
US20140136987A1 (en) Generation of a user interface based on contacts
US20100095234A1 (en) Multi-touch motion simulation using a non-touch screen computer input device
CN104007894A (zh) 便携式设备及其多应用操作方法
CN104063128B (zh) 一种信息处理方法及电子设备
US20140210742A1 (en) Emulating pressure sensitivity on multi-touch devices
US20190050115A1 (en) Transitioning between graphical interface element modalities based on common data sets and characteristic of user input
US8842088B2 (en) Touch gesture with visible point of interaction on a touch screen
CN104024983B (zh) 用于间接交互设备的交互模型
US20150134492A1 (en) Coordinated image manipulation
Lai et al. Virtual touchpad for cursor control of touchscreen thumb operation in the mobile context
US20190034069A1 (en) Programmable Multi-touch On-screen Keyboard

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1219150

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant