CN102754052A - 用于改变运行模式的方法和设备 - Google Patents

用于改变运行模式的方法和设备 Download PDF

Info

Publication number
CN102754052A
CN102754052A CN2010800641725A CN201080064172A CN102754052A CN 102754052 A CN102754052 A CN 102754052A CN 2010800641725 A CN2010800641725 A CN 2010800641725A CN 201080064172 A CN201080064172 A CN 201080064172A CN 102754052 A CN102754052 A CN 102754052A
Authority
CN
China
Prior art keywords
input
gesture
mode
induction zone
disposal system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010800641725A
Other languages
English (en)
Other versions
CN102754052B (zh
Inventor
S.P.戴
R.A.小特伦特
D.W.吉勒斯皮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Synaptics Inc
Original Assignee
Synaptics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Synaptics Inc filed Critical Synaptics Inc
Publication of CN102754052A publication Critical patent/CN102754052A/zh
Application granted granted Critical
Publication of CN102754052B publication Critical patent/CN102754052B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了一种包括一感应元件(以及可能的其它感应元件)和与该感应元件耦合的处理系统的输入装置。处理系统被配置成在第一模式中运行,响应于识别在感应中的特定的对象运动从在第一模式运行改为在第二模式中运行,以及在第二模式中运行。第一模式可以是指向模式而第二模式可以是增强的手势模式。在指向模式中时,处理系统识别在感应区中的第一型的滑动输入为指向命令,而在增强的手势模式中时识别在感应区中的第一型的滑动输入为多个手势命令(和多个不同的手势动作相关)的一个。同样也公开了方法和程序产品。

Description

用于改变运行模式的方法和设备
优先权数据
本申请要求美国专利申请号12/836,397的优先权,其在2010年7月17日提交,并且要求2009年12月18日提交的美国临时专利申请号61/288,109、2010年3月5日提交的美国临时专利申请号61/311,040以及2010年6月8日提交的美国临时专利申请号61/352,712的优先权,它们全部通过引用被结合于此。
技术领域
本发明总体上涉及电子装置。
背景技术
包括接近式传感器装置(通常也被称为触摸板或者触摸传感器装置)的输入装置在各种电子系统中被广泛地使用。接近式传感器装置典型地包括感应区,其常常被表面区分,其中接近式传感器装置确定一个或者更多的输入对象的存在、位置和/或运动。接近式传感器装置可被用于给电子系统提供界面。例如,接近式传感器装置常常用作较大的计算系统的输入装置(如集成在笔记本或台式电脑中在或作为笔记本或台式电脑的外设的不透明触摸板)。接近式传感器装置也常常被用在较小的计算系统中(如集成在蜂窝电话中的触摸屏)。
对于在输入装置中的改进一直存在需求。
发明内容
公开了包括一感应元件(以及可能其它感应元件)以及耦合到感应元件的处理系统的输入装置。感应元件被配置成检测在感应区中的对象运动。处理系统被配置成在第一模式中运行,响应于识别在感应区中的特定的对象运动而从在第一模式中运行改为在第二模式中运行,以及在第二模式中运行。第一模式可以是指向模式而第二模式可以是增强的手势模式。在增强的手势模式时,处理系统识别和多个不同的手势动作相关的多个手势命令。因此,处理系统在指向模式中识别在感应区中的第一型的滑动输入为指向命令,而在增强的手势模式中识别在感应区中的第一型的滑动输入为多个手势命令中的一个。
公开了操作包括接近式传感器装置和显示屏的电子系统的方法。接近式传感器装置被配置成检测在感应区的对象运动而显示屏被配置成提供视觉显示。该方法包括在指向模式中运行,其中在指向模式中时电子系统被配置成识别在感应区中的多个类型的滑动输入为为了和视觉显示互动的指向命令。该方法还包括响应于识别在感应区中的特定的对象运动为模式改变手势而从在指向模式中运行改为在增强的手势模式中运行。在增强的手势模式中时,电子系统被配置成识别多个类型的滑动输入为在增强的手势模式中时和多个不同的手势动作相关的多个手势命令。该方法也包括提供用户可察觉的反馈指示电子系统在增强的手势模式中运行。
公开了包括至少一个感应元件、被配置成由输入对象接触的输入表面、以及耦合到该至少一个感应元件的处理系统的输入装置。处理系统被配置成操作至少一个感应元件来检测输入对象达到和抬离输入表面,并且响应于模式改变手势的识别,从第一运行模式改变为第二运行模式。模式改变手势包括输入序列,其包括一组输入对象到达输入表面,然后该组输入对象的第一子集抬离输入表面,同时该组输入对象的第二子集留在输入表面上。第一子集和第二子集都是该组输入对象的非空真子集。
公开了承载接近式传感器程序的非暂时性电子媒体的程序装置。该电子媒体由处理系统可读。该输入装置程序由处理系统可执行以操作输入装置来检测输入对象到达和抬离输入表面,识别模式改变手势,以及响应于模式改变手势的识别,从第一运行模式改变为第二运行模式。模式改变手势包括输入序列,其包括多个输入对象到达输入表面,然后多个输入对象的至少一个抬离输入表面,同时多个输入对象的至少另一个留在输入表面上。
附图说明
下面将结合附图描述本发明的优选示例实施例,其中相同的标记指示相同的元件,并且:
图1是根据本发明的实施例的示例性输入装置的框图,
图2-3是根据本发明的实施例,示出图1的示例性输入装置的可能的操作的状态图,
图4-6是根据本发明的实施例的接触状态改变的例子的俯视和侧视/截面图,
图7-11是根据本发明的实施例的示例模式切换手势的俯视图,
图12-14是根据本发明的实施例的示例方法的流程图,
图15是指示增强的手势模式的示例屏幕,以及
图16-18是示出手势命令和示例动作的表。
具体实施方式
以下的详细描述在本质上仅仅是示例的并且不旨在限制本发明或本申请以及本发明的使用。此外,不旨在为在前面的技术领域、背景技术、发明内容或者以下的详细描述中呈现的任何明示或暗示的理论所束缚。
本发明的各种实施例提供帮助提高可用性的输入装置和方法。
现在转至附图,图1是根据本发明的实施例的示例性输入装置100的框图。输入装置100可被配置成向电子系统(未曾示出)提供输入。如在本文件中所使用,“电子系统”(“电子装置”也是)广泛地指向能够电子地处理信息的任何系统。电子系统的一些非限定性的例子包括如下内容。示例电子系统包括所有大小和形状的个人电脑,如台式电脑、笔记本电脑、平板电脑、网页浏览器、书阅读器、以及个人数字助理(PDA)。额外的示例电子系统包括复合输入装置,如包括输入装置100的物理键盘和分离的操纵杆或者按键开关。进一步的示例电子系统包括如数据输入装置(包括远程控制和鼠标)以及数据输出装置(包括显示屏和打印机)的外设。其它的例子包括远程终端,问讯处以及视频游戏机。其它的例子包括通信装置(包括如智能电话的蜂窝电话)以及媒体装置(包括记录器、编辑器、以及如电视、机顶盒、音乐播放器、数字相框、以及数码相机的播放器)。此外,电子系统可以是输入装置的主机或者从属机。
输入装置100可被实施为电子系统的物理部分,或者和电子系统物理分离。只要合适,输入装置100可使用下面的一种或更多种和电子系统的部分通信:总线、网络以及其它有线或者无线的互连。示例包括I2C、SPI、PS/2、通用串行总线(USB)、蓝牙、射频、以及 IRDA。
在图1中,输入装置100被示为被配置以感应由感应区120中一个或更多的输入对象140提供的输入的接近式传感器装置(也常常被称为触摸板或者触摸传感器装置)。示例的输入对象包括手指和笔尖,如图1所示。
传感器区域120包含其中输入装置100能够检测用户输入(例如,由一个或更多的输入对象140提供的用户输入)的输入装置100之上、周围、其中和/或附近的任何空间。特定的感应区的尺寸、形状、以及位置可随各实施例变化很大。在一些实施例中,感应区120从输入装置100的表面在一个或更多的方向延伸至空间中直至信噪比阻碍足够精确的对象检测。在不同的实施例中,感应区120在特定方向上延伸的距离可在小于一毫米、几毫米、厘米、或者更多的量级上,并且可随着所使用的感应技术的类型和期望的精度而变化很大。因此,一些实施例感应包含和输入装置100的任何表面没有接触、和输入装置100的输入表面(例如触摸表面)接触、耦合了一些量的施加的力或者压强的和输入装置100的输入表面的接触、和/或它们的组合的输入。在一些实施例中,当被投影到输入装置100的输入表面上时,感应区120具有矩形形状。
输入装置100可使用传感器组件和感应技术的任何组合来检测在感应区120中的用户输入。输入装置100包括用于检测用户输入的一个或更多的感应元件。作为几个非限定性的例子,输入装置100可使用容性、倒介电(elastive)、阻性、感性、表面声波、和/或光学技术。
一些实施被配置成提供跨越一、两、三、或更高维度空间的图像。一些实施被配置成提供沿着特定的轴或者平面的输入的投影。
在输入装置100的一些阻性实施中,柔性和传导性的第一层被和传导性的第二层被一个或更多的间隔元件所分开。在运行中,一个或更多的电压梯度被越过这些层而创建。按压柔性的第一层可使其充分地偏转以在这些层间创建电接触,导致反映出在这些层间的接触的点的电压输出。这些电压输出可被用于确定位置信息。
在输入装置100的一些感性实施中,一个或更多的感应元件收到由谐振线圈或者线圈对感应的回路电路。电流的幅度、相位以及频率的一些组合可以被用于确定位置信息。
在输入装置100的一些容性实施中,施加电压或者电流以创建电场。附近的输入对象引起在电场中的变化,并且在容性耦合中产生可检测的变化,其可被检测为在电压、电流或者诸如此类中的变化。
一些容性实施使用容性感应元件的阵列或者其它式样来创建电场。在一些容性实施中,分离的感应元件可阻性短接在一起以形成更大的传感器电极。一些容性实施使用阻性片(resistive sheet),其可以是阻性一致的。
一些容性实施使用基于在传感器电极和输入对象之间的容性耦合中的改变的“自电容”(也作“绝对电容”)感应方法。在各实施例中,靠近传感器电极的输入对象改变靠近传感器电极的电场,因而改变测量到的容性耦合。在一个实施中,绝对电容感应方法通过相对参考电压(例如,系统地)调制传感器电极,并且通过检测在传感器电极和输入对象之间的容性耦合而工作。
一些容性实施使用基于在传感器电极之间的容性耦合中的改变的“互电容”(也作“跨越电容”)感应方法。在各实施例中,靠近传感器电极的输入对象改变在传感器电极之间的电场,因而改变测量到的容性耦合。在一个实施中,跨越电容感应方法通过检测在一个或更多的发射电极和一个或更多的接收电极之间的容性耦合而工作。发射传感器电极可基本上相对于参考电压(例如系统地)而被调制从而帮助发射,而接收传感器电极可相对于参考电压基本上维持恒定从而帮助接收。传感器电极可以是专门的发射器或者接收器,或者它们既发射又接收。
在图1中,处理系统(或“处理器”)110被示为输入装置100的部分。处理系统110被配置成操作输入设备100的硬件来检测在感应区120中的输入。处理系统110包括一个或更多的集成电路(IC)的部分或者全部;并且,在一些实施例中,处理系统110也包括固件代码、软件代码、和/或诸如此类。在一些实施例中,包括处理系统110的组件被放置在一起,如靠近输入装置100的感应元件。在其它实施例中,处理系统110的组件被物理地分开,一个或更多的组件接近输入装置100的感应元件,而一个或者更多的组件在别处。例如,输入装置100可以是台式电脑的外设,并且处理系统110可包括被配置成在台式电脑的中央处理单元以及和中央处理单元分离的一个或更多的集成电路(可能有相关的固件)上运行的软件。作为另一个例子,输入装置100可被物理地集成到电话中,并且处理系统110可包括是电话的主处理器的部分的电路和固件。在一些实施中,处理系统110是专用于实施输入装置100。在其它实施例中,处理系统110也实施其它功能,如操作显示屏、驱动触觉制动器等等。
处理系统110可被实施为一组模块,其处理处理系统110的不同功能。每个模块可包括是处理系统110的一部分的电路、固件、软件、或者它们的组合。在各实施例中,模块的不同的组合可以被使用。示例模块包括用于操作如传感器电极和显示屏的硬件的硬件操作模块、用于处理如传感器信号和位置信息的数据处理模块、以及用于报告信息的报告模块。进一步的示例模块包括传感器操作模块,其被配置成操作感应元件来检测输入,识别模块,其被配置成识别如模式改变手势的手势,以及模式改变模块,用于改变运行模式。
在一些实施例中,处理系统110直接通过引起动作响应于在感应区120中的用户输入(或者没有用户输入)。示例动作包括改变运行模式,以及GUI动作,如光标移动、选择、菜单导航以及其它功能。在一些实施例中,处理系统110提供关于输入(或者没有输入)的信息给电子系统的一些部分(例如,给和处理系统110分离的电子系统的中央处理系统,如果这样的分离的中央处理系统存在的话)。在一些实施例中,电子系统的一些部分处理从处理系统110接收到的信息以根据用户输入而动作,如帮助全范围的动作,包括模式改变动作和GUI动作。
例如,在一些实施例中,处理系统110操作输入装置100的感应元件以产生指示在感应区120中的输入(或没有输入)的电信号。在产生提供给电子系统的信息中,处理系统110可对电信号进行任何合适的量的处理。例如,处理系统110可仅仅数字化电信号。作为另一个例子,处理系统110可进行滤波或者其它的信号调节。再作为一个例子,处理系统110可减去或者另外地解决基线,使得信息反映在电信号和基线之间的不同。作为其它的例子,处理系统110可确定“位置信息”,识别输入为命令,识别手写,以及诸如此类。
如这里所使用的“位置信息”广义地包含绝对位置、相对位置、速度、加速度以及其它类型的空间信息。各种形式的位置信息也可包括时间历史分量,如在随时间跟踪运动的例子中。示例的“零维”位置信息包括近/远或接触/不接触信息。示例的“一维”位置信息包括沿轴的位置。示例的“二维”位置信息包括相对于平面的运动。示例的“三维”位置信息包括在空间中的速度。其它的例子包括其它的维度和空间信息的其它代表。
在一些实施例中,输入装置100和由处理系统110或者被一些其它处理系统操作的额外的输入组件一起被实施。这些额外的输入组件可为在感应区120中的输入提供冗余功能性,或者提供一些其它的功能性。图1示出了能够被用于使用输入装置100帮助选择项目的感应区120附近的按钮130。其它类型的额外输入组件包括滑动器、球、轮、开关以及诸如此类。相反,在一些实施例中,输入装置100可没有和其它输入组件一起而被实施。
在一些实施例中,输入装置100包括触摸屏界面,并且感应区120至少重叠部分的显示屏的活动区域。例如,输入装置100可包括基本上透明的重叠显示屏的传感器电极,并且为相关的电子系统提供触摸屏界面。显示屏可以是任何类型的能够向用户显示视觉界面的动态显示器,并且可包括任何类型的发光二极管(LED),有机LED(OLED),阴极射线管(CRT),液晶显示器(LCD)、等离子体、场致发光(EL),或者其它显示技术。输入装置100和显示屏可共享物理元件。例如,一些实施例可使用一些同样的电气组件用于显示和感应。作为另一个例子,显示屏可由处理系统110部分或整体地操作。
应当理解,虽然本发明的许多实施例将在这里在全功能设备的上下文中被描述,但本发明的机制可被分布为各种形式的程序产品(例如软件)。例如,本发明的机制可被实施和分布为在信息承载媒体上的软件程序,其可被电子处理器读取(例如,非暂时性计算机可读和/或可记录/可写信息承载媒体,其可被处理系统110读取)。此外,本发明的各实施例可同样应用,不论用于实施分布的媒体的特定类型。非暂时性电子可读媒体的例子包括各种光盘、存储棒、存储卡、存储模块、以及诸如此类。电子可读媒体可基于闪存、光、磁、全息或任何其它存储技术。
下面的讨论常常明确地提及处理系统110。但是,应当理解,这样的讨论也可应用于除了处理系统110以外的系统。即,除处理系统110以外的系统可单独、彼此一起、或者与处理系统110结合以及诸如此类来实施被讨论的配置和方法。其它的系统的例子包括输入装置100,其它处理系统(例如,相关的电子系统的处理系统,如果这样的处理系统存在并且和相关的处理系统110分离的话)。
例如,如果下面略述的方法明确提及处理系统110,带有处理系统110的电子系统以及和处理系统110分离的中央处理系统可实施使用中央处理系统的方法的部分或全部。该方法的任何剩余部分可由处理系统110或者电子系统的一些其它部分来实施。
图2是示出了图1的输入装置100的可能的操作的状态图。图2以圆圈示出了状态,并且在状态中的转变被示为连接圆圈的箭头。引起转变的事件被相关的转变所命名。处理系统110被配置为在第一模式210和第二模式220中运行。响应于识别在感应区120中的特定的对象运动为模式改变手势215(例如“激活手势”),处理系统110从在第一模式210中运行改变为在第二模式220中运行。
滑动输入包括带有一些量的横向运动的对象运动(一个或更多的对象的运动)。滑动输入可进一步包括几乎没有或没有横向运动的对象运动。例如,在一些包括在感应区120中提供滑动输入的输入对象140可接触的输入界面的实施例中,滑动输入包括带有和比运动阈值更大的输入表面平行的分量的运动。这些滑动输入可进一步包括带有和输入表面垂直的分量的运动。
被识别为指向命令的滑动输入触发一个或更多的指向动作,并且被用于帮助导航和选择。指向动作移动箭头、光标、指针、图标、高亮、以及诸如此类越过或经过桌面图像、菜单、以及其它用户界面组件。
在一些实施例中,第一模式210是“指向模式”而第二模式220是“增强的手势模式”。在指向模式中运行时,处理系统110识别在感应区120中的第一型的滑动输入为第一指向命令。即,在处理系统110在指向模式中运行时,如果在感应区120中提供第一型的滑动输入,处理系统110将把第一型的滑动输入视为指向命令。相反,当在增强的手势模式中运行时,处理系统110识别第一型的滑动输入为它在增强的手势模式中识别的多个手势命令的第一手势命令;多个手势命令和多个不同的手势动作相关。即,在处理系统110在增强的手势模式中运行时,如果在感应区120中提供了第一型的滑动输入,处理系统110将视第一型滑动输入为手势命令而不是指向命令。因此,在指向模式中实施的第一型滑动输入引起和在增强的手势模式中实施的第一型滑动输入不同的结果。例如,第一型滑动输入可具有“C”形。这个第一型滑动输入在指向模式中可引起光标沿着“C”形的路径在显示器上移动,而在增强的手势模式中可引起活动应用关闭。
在一些实施例中,当在指向模式运行时,处理系统110进一步识别在感应区120中的第二型的滑动输入为第二指向命令。并且,处理系统110识别在感应区120中的第二型滑动输入为它在增强的手势模式中识别的多个手势命令中的第二手势命令。第二手势命令和不同于与第一手势命令相关的手势动作的手势动作相关。例如,第二型滑动输入可以是从感应区120的较低的左部开始并且在较高的右部结束的直线一划。在指向模式中,该第二型滑动输入可引起光标在显示器上向右上移动,并且在增强的手势模式中可最大化或恢复显示窗口。
在各实施例中,处理系统110可识别感应区中的3、4、或更多的类型的滑动输入为在指向模式中的指向命令和在增强的手势模式中的手势命令。这些手势命令可以和同样或不同的手势动作相关。
手势命令和动作可以基于一对一,多对一,或者一对多而相关。在多个动作和同一手势命令相关之处,什么动作结果可由上下文或者其它合适的标准而断定。
手势命令的额外的例子包括:两个手指旋转,用于改变图像的取向;多个手指(例如2、3、4个手指)向左、右、上、或下划,用于应用切换或用于媒体控制(例如播放/暂停、停止、下一个、之前);两个手指捏或者展开用于缩放水平调节;一个手指(或多个手指)循环运动用于卷动;三个手指捏或者展开用于剪切、复制、以及粘帖;以及三个手指斜划用于恢复窗口。
手势命令也可及时串在一起以产生不同于单个的手势命令的动作的动作。例如,在一些实施例中,三个手指捏指示复制,而三个手指斜向上划引起窗口在尺寸上最大化。三个手指捏,然后三个手指斜向上划的组合可共享选中的项目,如通过改变对项目的安全访问或者通过将它们贴到网站。
现在转至图16-18,示出了可以各种系统和方法实施的多个示例的手势命令和示例动作。例如,系统可被实施以使得用户在感应区中作出“大写‘X’”的手势将产生“退出窗口”的动作。作为第二个例子,用户在感应区中作出“小写‘b’”的手势将产生到银行网站的动作。
尽管图16-18的示例的手势命令是被示为和特定的动作相关,手势命令可和其它动作相关(代替或者附加于所示的示例动作)。相似地,所示出的示例动作可和其它手势命令相关(代替或者附加于所示的手势命令)。此外,在各个实施例中,增强的手势模式可不包括这些例子、包括这些例子的一些或全部。网站被列在表中作为示例动作之处,适当的情况下,动作可能是导航至网站(例如,在当前窗口或标签中,或者在新的窗口或标签中),或者启动网页浏览器以及导航至网站。
指向模式主要被指向指向动作,并且具有被识别为指向命令的至少一个类型的手势。在各实施例中,在指向模式中的输入的多数导致指向动作。在一些实施例中,多个不同类型的对象运动(例如,具有不同长度、路径方向、形状、时序以及诸如此类)和同一类型的指向命令(例如光标运动)相关。
增强的手势模式主要指向通过手势命令让更多的动作对用户可用,并且具有被识别为手势命令的至少一种手势。在各实施例中,在增强的手势模式中的输入的多数导致手势动作。在一些实施例中,多个不同类型的对象运动(例如,具有不同长度、路径方向、形状、时序以及诸如此类)和不同手势命令(例如本文件中描述的例子)相关。
对指向命令和对手势命令,一些电子装置或者输入装置100通过多输入对象140(多接触)接受输入。具有这样的装置,模式切换可帮助指向和手势命令之间的区分。在一些实施例中,模式切换可使得处理系统110能够支持手势命令,其没有模式切换的话将不会支持。例如,在一些实施例中,第一型的滑动输入可能是在输入装置100的输入表面上手指描绘出问号(“?”)。该滑动输入因此包括曲线路径,然后是轻叩。在指向模式中,画问号的手指可引起光标运动,其先向上曲线运动至右边,并且然后直向下(反映曲线的路径),并且可也引起模拟的按钮点击(源于轻叩)。同时,在增强的手势模式中,画出问号的手指可启动帮助对话或者高亮文本的定向搜索(例如,在台式电脑上或通过网页)。因此,模式切换可帮助区分输入操作的不同的模式以及期望的动作。在一些实施例中,随着模式切换到增强的手势模式,处理系统110可更能够区分来自指向操作的定制的手势和/或特征输入。
在一些实施例中,在指向模式中,处理系统110识别一些输入为手势命令。但是,在指向模式中识别的手势命令的集合和在增强的手势模式中识别的手势命令的集合不同。因此,在指向模式中被视为手势命令的输入在增强的手势模式中可能被识别为不同的手势命令。
在一些实施例中,如图2所示,响应于模式改变事件225,处理系统110从在第二模式220中运行改为在第一模式210中运行。
图3也是状态图,示出了图1的输入装置100的可能的操作。图3示出了对一些实施例的从第二模式220到第一模式210的替代路径。在图3中,处理系统110响应于模式改变手势215从第一模式210切换到第二模式220,响应于事件A325从第二模式220到第三模式330,并且响应于事件B335从第三模式到第一模式210。
尽管图2示出了两个状态(第一模式210和第二模式220)以及在它们之间的两个路径(模式改变手势215和模式改变事件225),并且尽管图3示出了三个状态,在每对状态之间具有单向路径,本发明的各个实施例可具有任意数目的状态和单向或者双向的路径。
模式改变手势215可包含任何合适的特定的对象运动。一些实施例只识别一个类型的特定的对象运动为模式改变手势215,而其它实施例识别多个不同类型的特定的对象运动为模式改变手势215。
什么特定的对象运动被识别为模式改变手势215可在系统到达终端用户之前预定、由终端用户限定、或者二者。什么特定的对象运动被识别为模式改变手势215也可以是固定的(用户不可改变),或者用户可改变。例如,一个或者更多的模式改变手势215可由软件预设,并且用户可不能够改变它们。作为另一个例子,多个模式改变手势215可由软件或者由一些实体在系统到达终端用户之前预设,并且用户可能够选择这些多个模式改变手势215的一个或者更多作为用户喜欢使用的那个(那些)。作为再一个例子,用户可能够轻微的调整模式改变手势215(例如,改变对于被识别为三个手指轻叩的输入是需要的接触的持续时间,对于特定划或者其它手势的特征被接受的大小范围,以及诸如此类)。作为再一个例子,用户可能够实质地改变或影响这些模式改变手势215或者整个地限定模式改变手势215。
在一些实施例中,模式改变手势215包括一个或者更多的输入对象140的接触状态中的改变。接触状态中的改变可包括在接触和不接触之间的改变。例如,图4(a)示出了和在输入装置100的一些实施例中找到的组件452的输入表面450接触的手指440。输入表面450被配置为在其提供在感应区120中的输入时可被手指440接触。组件452可包括传感器基板,其上设置了传感器电极。图4(a)使用圆圈442指示手指440和输入表面450的接触。
从图4(a)移至图4(b),手指440改变接触状态。特别是,手指440已经从输入表面450抬起,不再和输入表面450接触。图4(a)以虚线的圈444指出该非接触状态。(图4(b)也示出了手指440为已经退出了感应区120,尽管在一些实施例中可能并非如此。)图4(a)和图4(b)代表从接触到不接触的手指440的接触状态的改变(反之亦然)。
作为另一个例子,图5(a)示出了手指540和在输入装置100的一些实施例中找到的组件552的输入表面550接触。组件552可相对输入装置100的其它部分被移动(例如,相对于支架554和基座556)。物理地耦合组件552和输入装置的其余和/或引导组件552的移动的机械部分没有被示出。图5(a)和图5(b)代表改变手指540的接触状态。特别是,在图5(b)中,手指540已经压在输入表面550上比在图5(a)至更大的程度,使得输入表面550已经向着基座556被压下距离d。图5(b)指示被压(或者进一步被压)的状态,带有着重的圆圈544。
在一些实施例中,处理系统110考虑手指540的接触状态已经改变,其中距离d比和输入表面550的压下或者其它移动相关的致动距离更大。在一些实施例中,距离d和如锅仔片(snap dome)或者轻触开关的开关的致动相关。例如,输入装置100的一些实施例包括被配置成被输入表面550的充分运动致动的开关。这样的实施例包括在各种商业电话或笔记本电脑中找到的可点击接触传感器。在这样的实施例中,确定在发生的接触状态中的改变可包括确定开关的致动。
图5(a)-5(b)示出了一实施例,其中组件552平移以适应输入表面550的压下。在一些实施例中,输入表面550移动至少部分地经过输入装置100的组件552或者其它组件的变形或者其它的重新配置。如图5(a)-5(b)所示,感应区120也随着输入表面550移动。但是,在一些实施例中,感应区120不随着输入表面550的压下而移动(或不实质地移动)。同样,在一些实施例中,感应区120也随着输入表面550的移动而改变形状。
图5(a)-5(b)示出了一实施例,其中通过检测输入表面550的移动,处理系统110确定压下的接触状态。在一些实施例中,至少部分使用其它的特征,处理系统110确定压下的接触状态。例如,在一些实施例中,处理系统110审查在容性耦合中的改变的量、接触区域、接触区域的形状、接触区域的改变、手指540施加的力或压强(单独地或者和其它输入对象总体)、它们的组合、以及诸如此类。这些特征可由和用于检测在感应区120中的输入同样的感应元件(可能甚至使用在检测在感应区120中的输入时接收的同样的信号)、由其它传感器(包括开关)、或者它们的组合来检测。
图6(a)-(i)示出了在输入表面650上两个输入对象的接触状态的改变的例子。特别是,图6(a)示出了第一接触状态,其中两个输入对象接触(并且没有压或没有更用大的力压上)输入表面650(圆圈621和622所指)。同时,图6(b)-6(i)示出了之后的对于输入对象的接触状态,假设在输入对象的数目中没有改变。图6(b)和6(c)示出了在被压(或更被压)状态的一个输入对象(被着重的圆圈631和634所指)以及和输入表面650不接触的另一个输入对象(被虚线圆圈632和633所指)。图6(d)和6(e)示出了在被压(或更被压)状态的一个输入对象(被着重的圆圈635和638所指)以及和输入表面650接触但不在被压状态的另一输入对象(被圆圈636和637所指)。图6(f)示出了和输入表面650不接触的两个输入对象(被虚线圆圈641和642所指)。图6(g)示出了在被压(或更被压)状态的两个输入对象(被着重的圆圈643和644所指)。图6(h)和6(i)示出了接触(但没有压或更大力地压)输入表面650的一个输入对象(被圆圈645和648所指)以及和输入表面650不接触的另一个输入对象(被虚线的圆圈646和647所指)。
图6(a)结合一个或更多的图6(b)-(i)只示出了一些接触状态改变的例子,而在接触状态改变的其它类型是可能的。例如,开始接触状态可能不同。作为另一个例子,输入对象的数量可能不是在两次都是两个。在这样的例子中,其它的排列是可能的。
在一些实施例中,识别特定的对象运动为模式改变手势215包括:确定在感应区120中检测到的对象运动包括在输入表面上的多个输入对象,并且确定在输入表面上的多个输入对象的至少一个改变其接触状态。在一些实施例中,模式改变手势215包括确定多个输入对象的至少一个多次改变其接触状态。
在一些实施例中,处理系统110识别包括多个输入对象一(或更多)次接触输入表面的特定的对象运动作为模式改变手势215。在识别对象运动为模式改变手势215中,处理系统110可应用各种标准给输入特征,如接触/不接触的持续时间、离输入表面的距离、施加的力、以及诸如此类。
一些实施例识别多个连续检测到的轻叩为模式改变手势215。例如一些实施例可考虑单个输入对象的2、3、4或更多的轻叩为模式改变手势215。作为另一个例子,在一些实施例中,识别特定的对象运动为模式改变手势215包括确定多个输入对象在输入表面上一次(或更多次)基本上同时轻叩。作为一特定的例子,一些实施例可寻找在输入表面上两次轻叩的两个对象,而一些实施可寻找在输入表面上两次轻叩的三个输入对象。作为再一个特定的例子,一些实施例可寻找轻叩输入表面的两个输入对象,接着轻叩输入表面的三个输入对象,或反之亦然。因此,在各个实施例中,被识别为模式切换手势215的特定的对象运动可包括输入对象的数目和重复的任何组合的轻叩。
一些实施例在输入对象的到达,或者输入对象的离开,或者二者的同时性上提出严格的要求。其它的实施例并不如此。例如,一些实施例接受在特定的时期内到达(或离开)的输入对象是“同时的”。特定的时期可符合人的感知能力,使得典型的用户并不感知到输入对象到达或离开时间是不同的。在对到达和离开的时期都指定的实施例中,这些时期可具有同样或者不同的持续时间。
一些实施例可监视单个输入对象返回至输入表面以提供可被识别为手势命令的对象运动。一些实施例可监视多个(例如,2、3个等等)输入对象的返回。一些实施例对返回输入对象的数目不可知,并且考虑在感应区120中提供的下一个输入为可能的手势命令。在一些实施例中具有超时,使得提供手势命令或者可被识别为手势命令的对象运动的输入对象必须在一时期内到达(例如,在特定的对象运动的结束之后,在第二模式的开始之后,以及诸如此类)。
图7示出了在一些实施例中提供可被识别为模式改变手势的示例特定的对象运动的输入对象。在图7(a)中,两个输入对象140和在一些输入装置的实施例中找到的输入表面750不接触(被虚线圆圈741和742所指),尽管它们可能在感应区120中。然后,如图7(b)所示,输入对象和输入表面750接触(被圆圈743和744所指)。然后,如图7(c)所示,输入对象140和输入表面750不接触(被虚线圆圈745和746所指)。该输入序列可被认为包含两个输入对象的单个轻叩。
虽然图7示出了两个输入对象的一轻叩,一些实施例监视其它数目的输入对象的轻叩,包括2、3、以及4个输入对象。一些实施例监视特定输入对象140的轻叩,如整个手,可能结合以一些数目的手指。
同样,虽然图7示出了这样取向的两个对象:它们和输入表面750的更长的边对准,那一取向在确定特定输入是否包括特定的对象运动中可以被也可以不被实施例考虑(其被识别为模式改变手势215)。例如,一些实施例可审查输入对象的对准,并要求它们和输入表面的更长或更短的边对准(或一些其它特征),而一些实施例可审查在输入对象之间的距离、输入对象的类型、输入对象的取向,以及诸如此类。作为另一个例子,一些实施例对这样的变化相似地响应或者并不不同地响应。
作为另一个例子,识别特定的对象运动作为模式改变手势215可包括确定(和输入表面接触的多个输入对象的)一个或更多的输入对象基本上同时地压下或更大力地压在输入表面上。图8示出了提供这样的特定对象运动的两个输入对象。在图8(a)中,两个输入对象接触但不充分地压在输入装置100的一些实施例中找到的输入表面850 (被虚线圆圈841和842所指)。然后,如图8(b)所示,输入对象140压在输入表面850上(被着重的圆圈843和844所指)。然后,如图8(c)所示,输入对象接触但不压输入表面850(被圆圈845和846所指)。
作为另一个例子,在一些实施例中,在接触状态中的变化包括在输入表面上的多个输入对象的至少一个(而不是在输入表面上的多个输入对象的全部)抬离输入表面。在这样的实施例中,识别特定的对象运动为模式改变手势215可包括确定之前在输入表面上的多个输入对象的第一子集已经抬离输入表面,同时多个输入对象的第二子集留在输入表面上。第一和第二子集是多个输入对象的非空的真子集,使得每个子集包括多个输入对象的输入对象的至少一个(而不是所有)。换而言之,在这样的实施例中,识别特定的对象运动为模式改变手势215可包括确定之前在输入表面上的多个输入对象的至少一个已经抬离输入表面,同时多个输入对象的至少另一个留在输入表面上。图9示出了提供这样的特定的对象运动的两个输入对象140。
在图9(a)中,两个输入对象和输入装置100的输入表面950不接触(被虚线圈941和942所指),尽管它们可在从输入表面950延伸的感应区中。然后,如图9(b)所示,输入对象和输入表面950接触(被圈943和944所指)。然后,如图9(c)所示,输入对象的一个和输入表面950接触(被圈945所指),并且输入对象的一个和输入表面950不接触(被虚线圈946所指)。
作为另一个例子,识别特定的对象运动作为模式改变手势215可包括确定多个输入对象基本上同时接触、抬离、并且再接触输入表面。图10示出了提供这样的序列的两个输入对象。在图10(a)中,两个输入对象和输入装置100的输入表面1050不接触(被虚线圆圈1041和1042所指),尽管它们可在从输入表面1050延伸的感应区120中。然后,如图10(b)所示,输入对象和输入表面1050接触(被圈103和1044所指)。然后,如图10(c)所示,输入对象和输入表面1050不接触(被虚线圈1045和1046所指)。然后,如图10(d)所示,输入对象和输入表面1050再次接触(被圈1047和1048所指)。
在一些实施例中,识别特定的对象运动为模式改变手势可能包括检测和一个或更多的如按钮或键盘键的物理功能开关的致动基本上同时发生的特定的对象运动。图11示出了提供这样的序列的例子的一个输入对象。在图11中,在键1170被致动时,和在输入装置100的一些实施例中找到的输入表面1150接触的输入对象描绘出“S”(被圈1142和路径1160所指)。
一些实施例可识别特定的对象运动为模式改变手势215,如果其和压下与模式改变手势215、第一模式210、和/或第二模式220特别相关的一个或更多的键相耦合的话。一些实施例可监视压下对模式改变并不特定的多个键。这些键可以是输入装置100的部分或和输入装置100分离。
例如,输入装置100可结合标准键盘一起被使用,并且特定的对象运动可被识别为模式改变手势215,如果随着特定的对象运动的提供同时致动<shift> 和 <ctrl>键的话。作为另一个例子,一些实施例可监视压下和输入装置100检测到的特定的对象运动耦合的功能键(例如,<control>-<alt>伴上在输入装置100的输入表面上的轻叩或描绘的“S”)。
现在回到图2-3,引起处理系统110从第二模式220(即模式改变事件225或事件A325)到另一模式(例如第一模式210或第三模式230)的事件可包括任何的各种事件。例如,在一些实施例中,处理系统 110被配置成响应于终止事件从在第二模式220中的运行改变,例如识别后续对象运动为终止命令。如在本文件中使用,“后续对象运动”至少部分地发生在感应区120在被识别为模式改变手势215的特定的对象运动之后。终止事件可包括任何合适的用户输入(或没有用户输入),包括被描述为模式改变手势215、在感应区120外的用户输入、以及超时的任何的替换。在具有包括输入后的超时的终止事件的一些实施例中,额外的输入引起在第二模式220中连续的操作直到终止事件完全发生。例如,在一些实施例中,终止事件包括在从感应区120移除输入对象后的超时,以及在超时间隔重设超时期间在感应区120的新的输入对象的出现;这阻止处理系统110切换出第二模式220直到另一移除后的超时。
在各实施例中,终止命令可以和对于那些实施例被识别为模式改变手势215的特定对象运动相同或不同。例如,在一些实施例中,终止命令包括和对那些实施例被识别为模式改变手势215的特定的对象运动匹配的对象运动(例如,终止命令和特定的对象运动都是三个输入对象三次短暂的接触)。作为另一个例子,终止命令可包括和被识别为模式改变手势215的特定的对象运动相似但不相同的对象运动(例如,两者都包括两个输入对象的两次接触,但是模式改变手势215包括较短接触后较长时间的接触,而终止命令包括较长时间的接触后较短的接触)。作为再一个例子,终止命令可包括对象运动,其和被识别为模式改变手势215的特定的对象运动清晰地不同(例如,包括在感应区120中输入对象的不同数目、次序、运动以及诸如此类)。
作为另一个例子,在一些实施例中,处理系统 110被配置成响应于检测到后续对象运动的结束而从在第二模式220中的运行改变。任何合适的方法可被应用于确定对象运动的结束,并且这里强调了一些例子。在一些实施例中,对象运动的结束包括提供对象运动的输入对象退出或在感应区120之外。在一些实施例中,对象运动的结束包括输入对象提供抬离、滑离、或者以不同的方式从输入表面或者感应区120移开(并不必然退出感应区120)的对象运动。在一些实施例中,对象运动的结束包括输入对象提供作出在位置、速度和/或加速度中的快变的对象运动。在一些实施例中,对象运动的结束包括输入对象提供相对静止地停留大于参考量的时间的对象运动。当它们在位置上的改变小于参考量时,当它们从先前的位置不移动超过参考距离时,当它们呈现出小于参考速度的速度时,以及诸如此类时,输入对象可被视为相对静止。
作为另一个例子,在一些实施例中,处理系统 110被配置为响应于识别后续滑动输入为多个手势命令的一个从在第二模式220中的运行改变。在一些实施例中,识别后续滑动输入为在第二模式220中识别的任何的手势命令将从在第二模式220中运行切换处理系统110。在一些实施例中,识别后续滑动输入为在第二模式220中识别的手势命令的特定子集的一个将从在第二模式220中运行切换处理系统110。
作为再一个例子,在一些实施例中,处理系统 110被配置成响应于经过预定量的时间,从在第二模式220中运行改变。预定量的时间可从任何合适的参考而得到参考,如当处理系统110检测被识别为模式改变手势215的特定的对象运动,当处理系统110识别特定的对象运动为模式改变手势215,以及当处理系统110开始在第二模式220中的运行时,在第二模式220中发生的第一滑动输入的开始、中间、或结束。在各实施例中,预定量的时间可在经过预定量的时间的开始之前的任何合适的时间被确定。例子包括:在制造、在启动或离开低功率状态、在登录或其它安全确认时、以及在向第二模式220改变时。预定量的时间也可以是可变的,如响应于环境调节、运行状态、用户偏好、以及输入历史。
图12-14是示出了根据本发明的实施例,配置为在多个模式运行(如图2和3的模式)的图1的输入装置的操作的示例方法的流程图。尽管图12-14示出了特定步骤,一些实施例可具有所示的步骤的子集、额外的其它步骤、或者二者。同样,虽然图12-14示出了步骤的特定顺序,一些实施例具有按不同的顺序的同样的或不同的步骤。此外,如上所注,尽管下面的讨论常常明确提及处理系统,讨论适用于任何合适的系统。
参考图12,根据本发明的示例方法1200包括如下所述。在第一步骤1210,处理系统在指向模式中运行,其中在指向模式中时,处理系统识别在感应区中的第一型的滑动输入为指向命令。在第二步骤1220,处理系统响应于识别在感应区中的特定的对象运动为模式改变手势215从在指向模式中运行变为在增强的手势模式中运行。在第三步骤1230中,处理系统在增强的手势模式中运行。当在增强的手势模式中运行时,处理系统识别在感应区中的第一型的滑动输入为其在增强的手势模式中识别的多个手势命令的一个;多个手势命令和多个不同的手势动作相关。
图13示出了根据本发明用于操作包括显示屏的实施例的示例方法1300。显示屏被配置为在显示屏的活动区域中提供视觉显示。方法1300包括如下内容。在第一步骤1310,电子系统(或处理系统)在指向模式运行。在指向模式中时,电子系统(或处理系统)识别在感应区中的多个类型的滑动输入为指向命令。指向命令可用于在指向模式中时和视觉显示互动,如用于引起在各个方向上显示元件的运动。在第二步骤1320中,电子系统(或处理系统)识别在感应区中的特定的对象运动为模式改变手势。在第三步骤1330中,电子系统(或处理系统)响应于识别在感应区中的特定的对象运动为模式改变手势从在指向模式运行改为在增强的手势模式中运行。在增强的手势模式中时,电子系统(或处理系统)识别多个类型的滑动输入为和多个不同手势动作相关的多个手势命令。在第四步骤1340中,电子系统(或处理系统)提供用户可察觉的反馈指示在增强的手势模式中运行。
图14示出了根据本发明的实施例,用于使用包括被配置成被输入对象接触的输入表面的实施例的示例方法1400。尽管特别结合输入装置而被讨论,这些步骤也可被应用到其它装置,如和输入装置集成或通信的电子系统。同样,输入装置可通过输入装置的处理系统完成这些步骤。在步骤1410,输入装置操作其感应元件来检测输入对象到达和抬离输入表面。在步骤1420中,输入装置识别特定的对象运动为模式改变手势。特定的对象运动包括一组输入对象到达输入表面,然后这组输入对象的第一子集抬离输入表面,使得这组输入对象的第二子集留在输入表面上。第一和第二子集都是到达输入表面的这组输入对象的非空真子集。在步骤1430中,输入装置响应于识别特定的对象运动为模式改变手势从第一运行模式(例如第一模式210)改变为第二运行模式(例如第二模式220)。
因此,一些实施例识别特定的对象运动为模式改变手势215,如果其包括正被放置在输入装置的输入表面上的大量的输入对象(例如手指),然后一个或更多的输入对象抬离输入表面的话。
在一些方法1400的实施例中,通过检测一个(或更多的)输入对象已经在一段时间停止移动、已经从表面移开,等等,输入装置检测对象运动的结束。在一些实施例中也可以使用超时,使得被对象运动的结束触发的动作或模式改变被确认并且在去除后出现一段时间。
在一些方法1400的实施例中,输入装置在第二运行模式中时接受多个手势命令,并且在第二运行模式中时(并且不在第一运行模式时)可实施如下内容。输入装置可识别输入对象的第二子集的一个(或更多)的后续对象运动为在第二运行模式中接受的多个手势命令的一个。
在一些实施例中,输入装置在所有的输入对象已经从输入表面抬离后从第二运行模式改变模式。(例如,在剩下的输入对象已经从表面移开一段时间后)。在具有超时的实施例中,在超时之前的一个或更多的输入对象的返回可引起第二运行模式的延长。在一些实施例中,输入装置提供输出,指示从第二运行模式的改变。
在一些方法1400的实施例中,特定的对象运动(其被识别为模式改变手势215)包括特定数目的输入对象到达和抬离输入表面。例如,输入装置可接受M个输入对象到达输入表面而N个输入对象抬离输入表面,其中M减去N是1(所以抬离输入表面的输入对象的数目比多个到达输入表面的输入对象少一个),是2(所以抬离输入表面的输入对象的数目比多个到达输入表面的输入对象少2个),以及诸如此类。作为具有特定数目的例子,M可以是3,而N可以是2,使得M减去N是1。作为具有特定数目的另一个例子,一些实施例识别用户同时放下两个输入对象在输入表面上,并然后抬起一个。
作为另一个例子,输入装置可接受N个输入对象到达输入表面,然后一个输入对象抬起(导致比N少一个的输入对象留在输入表面上)。
方法1200、1300或1400可进一步包括任何数目的额外的步骤。例如,一些方法进一步包括提供一个或更多的输出指示在运行模式中的改变(例如,从第一运行模式到第二运行模式,从第二运行模式到其它模式,等等)。这样的输出可向其它系统指示模式改变,向用户提供关于运行模式的反馈(例如第一模式210,第二模式220,等等),或二者。反馈可包括视觉反馈、听觉反馈、触觉反馈、或者它们的组合。作为再一个例子,一些方法进一步包括响应于识别在感应区中的第一型的滑动输入作为指向命令在视觉显示上移动图像元件。
在运行模式中的改变可以不被视觉指示给用户,或者可以以任何各种方式被指示。例如,指针图标、背景颜色、显示亮度、或者一些其它视觉元件或者特征可响应于模式切换而改变。指示可取决于模式切换所来或模式切换所往而不同。作为再一个例子,视觉元件或特征可以和活动运行模式相关,使得特定的指针或背景颜色以特定的模式被呈现。非视觉反馈,如听觉或触觉反馈,可补充视觉反馈。
一些实施例可启动特别用于在各模式的一个中使用的应用或显示窗口。图15示出了指示增强的手势模式的示例屏幕。
这里给出的实施例和例子是为了最好地解释本发明和其特定的应用,并且因而使得本领域的技术人员实施和使用本发明而呈现的。但是,本领域的技术人员将会认识到前面的描述和例子仅仅是为了说明和示例的目的而呈现的。给出的说明不旨在穷尽或者将本发明限定于所公开的精确的形式。

Claims (25)

1.输入装置,包括:
被配置成检测在感应区中的对象运动的感应元件;以及
耦合到所述感应元件的处理系统,所述处理系统被配置成:
    在指向模式中运行,其中所述处理系统在指向模式中时识别在所述感应区中的第一型的滑动输入为第一指向命令;
    在增强的手势模式中运行,其中所述处理系统在所述增强的手势模式中时识别和多个不同的手势动作相关的多个手势命令,并且其中所述处理系统在所述增强的手势模式中时识别在所述感应区中的第一型的滑动输入为所述多个手势命令的第一手势命令;以及
    响应于识别在所述感应区中的特定的对象运动,从在所述指向模式中的运行变为在所述增强的手势模式中的运行。
2.如权利要求1所述的输入装置,其中所述处理系统在所述指向模式中时识别在所述感应区中的第二型滑动输入为第二指向命令,其中所述处理系统在所述增强的手势模式中时识别在所述感应区中的所述第二型滑动输入为所述多个手势命令的第二手势命令,并且其中所述第一手势命令和所述第二手势命令和不同的手势动作相关。
3.如权利要求1所述的输入装置,其中所述处理系统进一步被配置成:
响应于检测后续对象运动的结束从所述增强的手势模式变为所述指向模式,所述后续对象运动在所述特定的对象运动之后发生在所述感应区中。
4.如权利要求1所述的输入装置,其中所述处理系统进一步被配置成:
响应于识别后续滑动输入为所述多个手势命令的手势命令,从在所述增强的手势模式中运行变为在所述指向模式中运行,所述后续滑动输入在所述特定的对象运动之后发生在所述感应区中。
5.如权利要求1所述的输入装置,其中所述处理系统进一步被配置成:
响应于识别后续对象运动为中止命令,从在所述增强的手势模式中运行变为在所述指向模式中运行,所述后续对象运动在所述特定的对象运动之后发生在所述感应区中。
6.如权利要求1所述的输入装置,其中所述处理系统进一步被配置成:
响应于经过预定量的时间,从在所述增强的手势模式中运行变为在所述指向模式中运行。
7.如权利要求1所述的输入装置,进一步包括在所述感应区中的输入对象可接触的输入表面,其中所述识别所述特定的对象运动包括:
确定所述特定的对象运动包括多个输入对象在所述输入表面上;以及
确定所述特定的对象运动包括所述多个输入对象的至少一个改变相对于所述输入表面的接触状态。
8.如权利要求7所述的输入装置,进一步包括被配置成被改变相对于所述输入表面的接触状态的所述多个输入对象的至少一个致动的开关,其中所述确定所述特定的对象运动包括所述多个输入对象的至少一个改变接触状态包括:
确定所述开关的致动。
9.如权利要求7所述的输入装置,其中确定所述特定的对象运动包括所述多个输入对象的至少一个改变接触状态包括:
确定所述多个输入对象的至少一个已经抬离所述输入表面,同时所述多个输入对象的至少另一个留在所述输入表面上。
10.如权利要求1所述的输入装置,还包括在所述感应区中的输入对象可接触的输入表面,其中所述识别所述特定的对象运动包括:
识别所述特定的对象运动包括基本上同时轻叩所述输入表面的多个输入对象。
11.如权利要求1所述的输入装置,还包括在所述感应区中的输入对象可接触的输入表面,其中所述识别所述特定的对象运动包括:
识别所述特定的对象运动包括基本上同时接触、基本上同时抬离、以及基本上同时再接触所述输入表面的多个输入对象。
12.如权利要求1所述的输入装置,还包括可致动键,其中所述识别所述特定的对象运动包括:
识别所述特定的对象运动和所述可致动键的致动基本上同时发生。
13.操作包括被配置成在感应区中检测对象运动的接近式传感器装置和被配置成提供视觉显示的显示屏的电子系统的方法,所述方法包括:
在指向模式中运行,其中所述电子系统被配置成在指向模式中时识别在所述感应区中的多个类型的滑动输入为指向命令,用于和所述视觉显示互动;
识别在所述感应区中的特定的对象运动为模式改变手势;
响应于识别所述感应区中的特定的对象运动为模式改变手势从在所述指向模式中运行改为在增强的手势模式中运行,其中所述电子系统被配置成在增强的手势模式中时识别所述多个类型的滑动输入为和多个不同的手势动作相关的多个手势命令;并且
提供用户可察觉的反馈指示所述电子系统在所述增强的手势模式中运行。
14.如权利要求13的方法,进一步包括:
在所述指向模式中运行时识别在所述感应区中的所述多个类型的滑动输入的第一类型为第一指向命令;以及
响应于识别在所述感应区中的所述第一类型的滑动输入为所述第一指向命令而在视觉显示中移动图像元件。
15.如权利要求13的方法,其中所述提供所述用户可察觉的反馈包括:
提供视觉反馈、听觉反馈、以及触觉反馈的至少一个。
16.如权利要求13的方法,其中所述电子系统还包括在所述感应区中的输入对象可接触的输入表面,并且其中所述识别在所述感应区中的所述特定的对象运动为所述模式改变手势包括:
识别所述特定的对象运动包括多个输入对象基本上同时轻叩所述输入表面。
17.如权利要求13的方法,其中所述电子系统还包括被配置成被在所述感应区中的输入对象接触的输入表面和被配置成响应于输入表面移动了致动距离而被致动的开关,并且其中所述识别在所述感应区中的所述特定的对象运动为所述模式改变手势包括:
识别所述特定的对象运动包括随着所述开关的致动,多个输入对象基本上同时在所述输入表面上。
18.输入装置,包括:
至少一个感应元件;
被配置成由输入对象接触的输入表面;以及
耦合到所述至少一个感应元件的处理系统,所述处理系统被配置成:
    操作所述至少一个感应元件以检测输入对象到达和抬离所述输入表面;
    识别包括一组输入对象到达所述输入表面,然后该组输入对象的第一子集抬离所述输入表面,而该组输入对象的第二子集留在所述输入表面上的输入序列为模式改变手势,其中所述第一子集和所述第二子集都是该组输入对象的非空真子集;以及
    响应于所述模式改变手势的识别从第一运行模式变为第二运行模式。
19.如权利要求18的输入装置,其中所述处理系统被进一步配置为:
提供视觉反馈指示在所述第二运行模式中运行。
20.如权利要求18的输入装置,其中所述处理系统被进一步配置为:
在所述第二运行模式而不在所述第一运行模式时,识别所述第二子集的所述输入对象的至少一个为在所述第二运行模式中识别的多个手势命令的手势命令;以及
提供输出指示所述手势命令。
21.如权利要求18的输入装置,其中所述处理系统被进一步配置为:
响应于所述第二子集的所有输入对象抬离所述输入表面,提供第二输出指示从所述第二运行模式的改变。
22.如权利要求18的输入装置,其中所述第一子集由比该组输入对象少一个的输入对象组成。
23.如权利要求18的输入装置,其中从所述第一运行模式向所述第二运行模式的改变和特别用于在所述第二运行模式中使用的应用的启动相关。
24.程序产品,包括:
输入装置程序,所述输入装置程序由处理系统可执行以:
    操作输入装置以检测输入对象到达和抬离输入表面;
    识别包括多个输入对象到达所述输入表面,然后所述多个输入对象的至少一个抬离所述输入表面,而所述多个输入对象的至少另一个留在所述输入表面上的输入序列为模式改变手势;以及
    响应于所述模式改变手势的识别从第一运行模式变为第二运行模式;以及
承载所述输入装置程序的电可阅读媒体,该电媒体由所述处理系统可读。
25.如权利要求24的程序产品,其中所述多个输入对象包括至少三个输入对象。
CN201080064172.5A 2009-12-18 2010-11-30 用于改变运行模式的方法和设备 Active CN102754052B (zh)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US28810909P 2009-12-18 2009-12-18
US61/288109 2009-12-18
US31104010P 2010-03-05 2010-03-05
US61/311040 2010-03-05
US35271210P 2010-06-08 2010-06-08
US61/352712 2010-06-08
US12/836,397 US20110148786A1 (en) 2009-12-18 2010-07-14 Method and apparatus for changing operating modes
US12/836397 2010-07-14
PCT/US2010/058377 WO2011075307A2 (en) 2009-12-18 2010-11-30 Method and apparatus for changing operating modes

Publications (2)

Publication Number Publication Date
CN102754052A true CN102754052A (zh) 2012-10-24
CN102754052B CN102754052B (zh) 2016-10-12

Family

ID=44150328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080064172.5A Active CN102754052B (zh) 2009-12-18 2010-11-30 用于改变运行模式的方法和设备

Country Status (6)

Country Link
US (1) US20110148786A1 (zh)
EP (1) EP2513760B1 (zh)
JP (1) JP5862898B2 (zh)
KR (1) KR101766187B1 (zh)
CN (1) CN102754052B (zh)
WO (1) WO2011075307A2 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102984354A (zh) * 2012-11-05 2013-03-20 惠州Tcl移动通信有限公司 移动终端及其网址访问方法
CN103853448A (zh) * 2012-11-28 2014-06-11 三星显示有限公司 终端和用于操作该终端的方法
CN104469450A (zh) * 2013-09-17 2015-03-25 三星电子株式会社 显示图像的装置和方法
CN105446586A (zh) * 2014-09-19 2016-03-30 三星电子株式会社 显示装置及其控制方法
CN107111377A (zh) * 2015-01-14 2017-08-29 捷豹路虎有限公司 用于控制部件的操作的装置和方法
CN109643045A (zh) * 2016-08-23 2019-04-16 罗伯特·博世有限公司 投影仪的非接触式控制

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US7936341B2 (en) 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US20110252349A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Folders
US8610681B2 (en) * 2010-06-03 2013-12-17 Sony Corporation Information processing apparatus and information processing method
US8799815B2 (en) 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
US8826164B2 (en) 2010-08-03 2014-09-02 Apple Inc. Device, method, and graphical user interface for creating a new folder
EP2622443B1 (en) * 2010-10-01 2022-06-01 Z124 Drag move gesture in user interface
US9104306B2 (en) * 2010-10-29 2015-08-11 Avago Technologies General Ip (Singapore) Pte. Ltd. Translation of directional input to gesture
WO2012064309A1 (en) * 2010-11-11 2012-05-18 Echostar Ukraine L.L.C. Hearing and/or speech impaired electronic device control
US20140002358A1 (en) * 2010-12-23 2014-01-02 Frederick Johannes Bruwer Compact capacitive track pad
CN102692995A (zh) * 2011-03-21 2012-09-26 国基电子(上海)有限公司 具有接近感应功能的电子装置及接近感应控制方法
GB2490108B (en) * 2011-04-13 2018-01-17 Nokia Technologies Oy A method, apparatus and computer program for user control of a state of an apparatus
CN102855077A (zh) * 2011-07-01 2013-01-02 宫润玉 多功能触控板模式切换方法
JP5767525B2 (ja) * 2011-08-08 2015-08-19 東芝アルパイン・オートモティブテクノロジー株式会社 入力装置
US9377867B2 (en) * 2011-08-11 2016-06-28 Eyesight Mobile Technologies Ltd. Gesture based interface system and method
US8723824B2 (en) 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
US20130088434A1 (en) * 2011-10-06 2013-04-11 Sony Ericsson Mobile Communications Ab Accessory to improve user experience with an electronic display
TW201327273A (zh) * 2011-12-23 2013-07-01 Wistron Corp 觸控按鍵模組及其模式切換方法
KR101943419B1 (ko) * 2012-01-06 2019-01-30 삼성전자 주식회사 입력장치, 디스플레이장치, 그 제어방법 및 디스플레이 시스템
US20130179844A1 (en) * 2012-01-06 2013-07-11 Mirko Mandic Input Pointer Delay
KR20130081596A (ko) * 2012-01-09 2013-07-17 삼성전자주식회사 디스플레이 장치, 사용자 입력 장치 및 그 제어 방법
EP2867755A4 (en) * 2012-06-27 2015-07-29 Nokia Corp USE OF A SYMBOL RECOGNITION ENGINE
US8874969B2 (en) 2012-07-09 2014-10-28 Microsoft Corporation Independent hit testing
KR20140011208A (ko) * 2012-07-18 2014-01-28 박철 터치패널을 갖는 개인휴대단말기의 작동방법
US9298295B2 (en) * 2012-07-25 2016-03-29 Facebook, Inc. Gestures for auto-correct
US9030430B2 (en) * 2012-12-14 2015-05-12 Barnesandnoble.Com Llc Multi-touch navigation mode
US8963865B2 (en) * 2012-12-14 2015-02-24 Barnesandnoble.Com Llc Touch sensitive device with concentration mode
US9001064B2 (en) * 2012-12-14 2015-04-07 Barnesandnoble.Com Llc Touch sensitive device with pinch-based archive and restore functionality
JP5835240B2 (ja) * 2013-01-28 2015-12-24 カシオ計算機株式会社 情報処理装置、情報処理方法及びプログラム
KR20140100761A (ko) * 2013-02-07 2014-08-18 한국전자통신연구원 터치식 입력장치에서의 제스처 입력 구분 방법 및 제스처 입력 구분 장치
US20140372903A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Independent Hit Testing for Touchpad Manipulations and Double-Tap Zooming
JP6098435B2 (ja) * 2013-08-22 2017-03-22 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
JPWO2015029222A1 (ja) * 2013-08-30 2017-03-02 富士通株式会社 情報処理装置,表示制御プログラム及び表示制御方法
WO2015065402A1 (en) 2013-10-30 2015-05-07 Bodhi Technology Ventures Llc Displaying relevant use interface objects
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
WO2015095218A1 (en) * 2013-12-16 2015-06-25 Cirque Corporation Configuring touchpad behavior through gestures
US9875019B2 (en) * 2013-12-26 2018-01-23 Visteon Global Technologies, Inc. Indicating a transition from gesture based inputs to touch surfaces
US10845888B2 (en) * 2014-02-13 2020-11-24 Autodesk, Inc. Techniques for integrating different forms of input with different forms of output when interacting with an application
TWI603226B (zh) * 2014-03-21 2017-10-21 立普思股份有限公司 體感偵測器之手勢辨識方法
GB201408258D0 (en) 2014-05-09 2014-06-25 British Sky Broadcasting Ltd Television display and remote control
JP6019074B2 (ja) * 2014-09-16 2016-11-02 京セラドキュメントソリューションズ株式会社 電子機器、及び、タッチパネルの操作方法
US20160091308A1 (en) * 2014-09-30 2016-03-31 Invensense, Inc. Microelectromechanical systems (mems) acoustic sensor-based gesture recognition
CN105760095A (zh) * 2015-01-05 2016-07-13 凌通科技股份有限公司 多点触控电子印刷品以及多点触控电子印刷品的互动方法
JP6230587B2 (ja) * 2015-12-17 2017-11-15 京セラ株式会社 携帯端末
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
JP6696327B2 (ja) * 2016-07-01 2020-05-20 富士ゼロックス株式会社 情報処理装置、画像形成装置およびプログラム
WO2019014888A1 (zh) * 2017-07-20 2019-01-24 深圳市汇顶科技股份有限公司 检测触摸点的方法和触摸控制器
US20190324621A1 (en) * 2018-04-23 2019-10-24 Qualcomm Incorporated System and Methods for Utilizing Multi-Finger Touch Capability to Efficiently Perform Content Editing on a Computing Device
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
CN101052939A (zh) * 2004-07-30 2007-10-10 苹果电脑有限公司 用于触敏输入设备的基于模式的图形用户接口
US7477233B2 (en) * 2005-03-16 2009-01-13 Microsoft Corporation Method and system for providing modifier key behavior through pen gestures
CN101436099A (zh) * 2007-11-16 2009-05-20 捷讯研究有限公司 电子设备的有触感触摸屏

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713676A (ja) * 1993-06-28 1995-01-17 Sony Corp 手書き情報入力装置
JP3151652B2 (ja) * 1995-07-24 2001-04-03 日本アビオニクス株式会社 長い対象物の測定方法とその装置
US5907234A (en) * 1995-08-04 1999-05-25 Siemens Aktiengesellschaft Thyristor-switched capacitor bank
US6057845A (en) * 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6323846B1 (en) * 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
JP2000137571A (ja) * 1998-10-29 2000-05-16 Casio Comput Co Ltd 手書き入力装置及び手書き入力処理プログラムを記録した記録媒体
JP2000137555A (ja) * 1998-11-02 2000-05-16 Sony Corp 情報処理装置及び方法並びに記録媒体
US6639584B1 (en) * 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
GB0017793D0 (en) * 2000-07-21 2000-09-06 Secr Defence Human computer interface
US20020015064A1 (en) * 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
JP4057253B2 (ja) * 2001-05-29 2008-03-05 アルプス電気株式会社 入力装置及び電子機器
US20040215479A1 (en) * 2003-01-31 2004-10-28 Exacttarget, Llc Dynamic content electronic mail marketing system and method
US7382360B2 (en) * 2003-04-15 2008-06-03 Synaptics Incorporated Methods and systems for changing the appearance of a position sensor with a light effect
TWI227445B (en) * 2003-05-28 2005-02-01 Compal Electronics Inc A method capable of promptly switching operation mode of touch device and device thereof
US7372993B2 (en) * 2004-07-21 2008-05-13 Hewlett-Packard Development Company, L.P. Gesture recognition
EP2000894B1 (en) * 2004-07-30 2016-10-19 Apple Inc. Mode-based graphical user interfaces for touch sensitive input devices
JP2006099468A (ja) * 2004-09-29 2006-04-13 Toshiba Corp ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラム
TWI283364B (en) * 2005-04-19 2007-07-01 Elan Microelectronics Corp Touch-sensing device capable of supporting one-dimensional and two-dimensional modes and control method thereof
GB2433402B (en) * 2005-12-14 2007-11-28 Siemens Plc An input device
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
US8587526B2 (en) * 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
JP4762070B2 (ja) * 2006-07-19 2011-08-31 富士通株式会社 手書き入力装置、手書き入力方法、及びコンピュータプログラム
US8511565B2 (en) * 2006-10-17 2013-08-20 Silverbrook Research Pty Ltd Method of providing information via context searching of a printed graphic image
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8896529B2 (en) * 2007-08-01 2014-11-25 Nokia Corporation Apparatus, methods, and computer program products providing context-dependent gesture recognition
US20090058820A1 (en) * 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
US9058077B2 (en) * 2007-11-16 2015-06-16 Blackberry Limited Tactile touch screen for electronic device
US20100177053A2 (en) * 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
US20100064261A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Portable electronic device with relative gesture recognition mode
US8307412B2 (en) * 2008-10-20 2012-11-06 Microsoft Corporation User authentication management
JP4853507B2 (ja) * 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
TWM361674U (en) 2009-02-19 2009-07-21 Sentelic Corp Touch control module
US8769442B2 (en) * 2009-07-07 2014-07-01 Microsoft Corporation System and method for allocating digital graffiti objects and canvasses
US20110029862A1 (en) * 2009-07-30 2011-02-03 Research In Motion Limited System and method for context based predictive text entry assistance
US9465532B2 (en) * 2009-12-18 2016-10-11 Synaptics Incorporated Method and apparatus for operating in pointing and enhanced gesturing modes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
CN101052939A (zh) * 2004-07-30 2007-10-10 苹果电脑有限公司 用于触敏输入设备的基于模式的图形用户接口
US7477233B2 (en) * 2005-03-16 2009-01-13 Microsoft Corporation Method and system for providing modifier key behavior through pen gestures
CN101436099A (zh) * 2007-11-16 2009-05-20 捷讯研究有限公司 电子设备的有触感触摸屏

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102984354A (zh) * 2012-11-05 2013-03-20 惠州Tcl移动通信有限公司 移动终端及其网址访问方法
CN103853448A (zh) * 2012-11-28 2014-06-11 三星显示有限公司 终端和用于操作该终端的方法
CN104469450A (zh) * 2013-09-17 2015-03-25 三星电子株式会社 显示图像的装置和方法
CN105446586A (zh) * 2014-09-19 2016-03-30 三星电子株式会社 显示装置及其控制方法
CN107111377A (zh) * 2015-01-14 2017-08-29 捷豹路虎有限公司 用于控制部件的操作的装置和方法
US10831279B2 (en) 2015-01-14 2020-11-10 Jaguar Land Rover Limited Apparatus and method for controlling operation of a component
CN107111377B (zh) * 2015-01-14 2021-08-10 捷豹路虎有限公司 用于控制部件的操作的装置和方法
CN109643045A (zh) * 2016-08-23 2019-04-16 罗伯特·博世有限公司 投影仪的非接触式控制
CN109643045B (zh) * 2016-08-23 2021-06-15 罗伯特·博世有限公司 投影仪的非接触式控制

Also Published As

Publication number Publication date
KR101766187B1 (ko) 2017-08-08
EP2513760B1 (en) 2018-06-06
JP2013514590A (ja) 2013-04-25
EP2513760A2 (en) 2012-10-24
JP5862898B2 (ja) 2016-02-16
WO2011075307A3 (en) 2011-10-27
US20110148786A1 (en) 2011-06-23
WO2011075307A2 (en) 2011-06-23
KR20120094955A (ko) 2012-08-27
CN102754052B (zh) 2016-10-12
EP2513760A4 (en) 2016-01-06

Similar Documents

Publication Publication Date Title
CN102754052A (zh) 用于改变运行模式的方法和设备
US11886699B2 (en) Selective rejection of touch contacts in an edge region of a touch surface
US9465532B2 (en) Method and apparatus for operating in pointing and enhanced gesturing modes
CN105359065B (zh) 提供附加功能和各功能预览的多功能按键
CN104272240B (zh) 用于修改在用户界面上的虚拟键盘的系统和方法
US8860671B2 (en) Depressable touch sensor
US20140354594A1 (en) Touch-sensitive data carrier and method
US20150100911A1 (en) Gesture responsive keyboard and interface
JP4408429B2 (ja) 入力装置
US20130012319A1 (en) Mechanism for facilitating hybrid control panels within gaming systems
US20110157023A1 (en) Multi-touch detection method
CN105867677A (zh) 一种移动终端及其光标控制方法
CN202533924U (zh) 手写显示屏及手写输入笔
CN102402360A (zh) 手写显示屏、手写输入笔及手写输入方法
AU2015271962B2 (en) Interpreting touch contacts on a touch surface
AU2013205165A1 (en) Interpreting touch contacts on a touch surface
CN107066105B (zh) 具有视觉反馈的输入设备、处理系统和电子系统
KR101919515B1 (ko) 터치스크린을 구비하는 단말에서 데이터 입력 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant