CN109992104A - 用于用户输入与移动设备动作的动态相关联的设备和方法 - Google Patents
用于用户输入与移动设备动作的动态相关联的设备和方法 Download PDFInfo
- Publication number
- CN109992104A CN109992104A CN201811616083.1A CN201811616083A CN109992104A CN 109992104 A CN109992104 A CN 109992104A CN 201811616083 A CN201811616083 A CN 201811616083A CN 109992104 A CN109992104 A CN 109992104A
- Authority
- CN
- China
- Prior art keywords
- user
- mobile device
- finger
- panel
- pressure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/0279—Improving the user comfort or ergonomics
- H04M1/0281—Improving the user comfort or ergonomics for providing single handed use or left/right hand conversion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0339—Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
Abstract
提供了用于用户输入与移动设备动作的动态相关联的设备和方法。与移动设备相关联的用户感测面板可以检测多个手部分的存在或接触。指示存在或接触的来自用户感测面板的信号可以与移动设备动作相关联。为了将信号与移动设备动作相关联,与移动设备相关联的处理器可以确定手部分的身份,并且可以识别经识别的手部分的用户手势。处理器可以在接收信号时致使移动设备动作的执行。
Description
技术领域
本发明涉及用于将用户输入与移动设备动作动态地相关联的设备和方法。
背景技术
诸如智能手机、平板电脑等等的移动设备包括各种触觉用户输入元件,包括例如按钮和开关。这样的用户输入元件经常围绕设备的侧壁布置在用户的手指可以访问所述输入元件的位置。虽然电话设计者可能试图使用户输入元素位于最自然的地方以供用户访问,但是各种因素可能阻碍该目标。功能设计约束(诸如其他内部设备组件的位置)可能迫使用户输入元件的位置远离最优放置。用户可以具有不同的手尺寸、不同的手形状、不同的手指数以及抓握移动设备的不同方式。而且,即使用户输入元件的最优放置也要求用户将设备保持在正确的方位以访问用户输入元件。
与本文描述的实施例一致的系统、设备和方法处理传统移动设备用户输入元件存在的这些和其他缺点。
发明内容
与公开一致的系统、设备和方法提供用户输入与移动设备动作的动态关联。代替与特定设备动作相对应的固定用户输入元件(例如home按钮、音量按钮等等),系统根据用户在持握移动设备时具有的手指和手姿势(position)将用户输入与移动设备动作动态地相关联。当用户抓握移动设备时,系统检测并识别用户抓握设备的手姿势和手部分。然后,系统可以基于由用户的手指之一提供的手势(诸如改变的压力)接收来自用户的输入,而不管该手指的当前放置。因此,例如,来自用户右拇指的改变的压力可以与按压home按钮相对应。当用户拿起电话时,识别右拇指的位置,并且无论所述右拇指的位置在何处,来自所述右拇指的改变的压力被识别为home按钮按压
在实施例中,提供移动设备。移动设备包括至少一个用户感测面板,所述用户感测面板包括压力传感器和至少一个处理器,所述压力传感器配置为响应于并指示多触点触摸而生成压力信号。至少一个处理器配置为接收指示由至少一个压力传感器生成的多触点触摸的压力信号,将压力信号与移动设备的动作相关联,致使移动设备执行动作,以及输出与多触点触摸相关联的触觉控制信号。触觉控制信号配置为激活触觉输出设备以致使触觉效果。
在实施例中,提供将用户输入动态地关联到移动设备动作的方法。方法包括由移动设备的至少一个用户感测面板的压力传感器来生成响应于并指示多触点触摸的压力信号,由至少一个处理器接收由至少一个压力传感器生成的指示多触点触摸的压力信号,由至少一个处理器将压力信号与移动设备的动作相关联,由至少一个处理器致使移动设备执行动作,以及由至少一个处理器输出与多触点触摸相关联的触觉控制信号,触觉控制信号配置为激活触觉输出设备以致使触觉效果。
附图说明
根据如附图中说明的本文的实施例的以下描述,发明的前述和其他特征和优点将显而易见。结合于此并形成描述的部分的附图进一步用于解释发明的原理并使本领域技术人员能够制造和使用发明。图未按比例绘制。
图1说明根据本文的实施例的移动设备;
图2A-2C说明根据本文的实施例的用户感测面板的几个实施例;
图3是图1的系统的示意说明;
图4说明手和手指解剖结构;
图5A-5C说明用于紧握移动设备的各种手姿势;
图6是根据本文的实施例的用户解剖结构、用户手势和移动设备动作之间的关联的示例性表格;
图7是说明根据本文的实施例的用于识别用户输入手势的系统的操作的过程图;
图8是说明根据本文的实施例的用于识别用户输入手势的系统的操作的过程图。
具体实施方式
现在参考图描述本发明的特定实施例,其中相同的附图标记指示相同或功能相似的元件。以下详细描述在本质上仅仅是示例性的,并且不旨在限制发明或发明的应用和使用。而且,以上技术领域、背景技术、发明内容或以下详细描述中提出的任何明确或暗示的理论都不旨在束缚。而且,尽管以下描述主要针对手持计算设备,但本领域技术人员将认识到描述同样适用于其他设备,包括接受用户输入的任何设备,诸如计算机外围设备。
发明的实施例包括将用户输入与移动设备的动作动态地相关联的移动设备。这允许用户基于其紧握移动设备的手指或其他手部分而不是基于移动设备的特定按钮来提供输入。用户可以紧握移动设备并且通过用手部分执行手势(诸如用特定手指增加压力)来执行动作,而不是紧握移动设备并按压特定按钮以执行特定动作(例如通/断电、音量上升/下降)。例如,可以选择用户的右拇指以与移动设备“home”按钮相对应。当用户紧握移动设备时,不管右拇指如何及在何处定位,右拇指的改变的(例如增加的或减少的)压力可以解释为“home”按钮的按钮按压。因此,用户用右拇指在任何位置的输入和与按压“home”按钮相对应的移动设备动作动态地相关联。可以选择不同的手指和其他手部分(包括手掌和拇指鱼际(ball of the thumb))来与不同移动设备动作相对应。根据本文的实施例,手指和手部分的组合可以与移动设备动作相对应。在进一步的实施例中,特定手指或手部分的移动或手势可以与移动设备动作相对应。
移动设备可配置有用户感测面板,所述用户感测面板具有用于感测紧握移动设备的用户的手的一个或多个传感器。移动设备的处理器可以确定用户的哪些手指负责指示多触点触摸的信号的特定部分。例如,当紧握移动设备时,处理器可以确定信号的哪些方面与用户的食指、无名指、中指、小指和拇指相对应。然后,处理器可以识别用户输入动作,诸如虚拟按钮按压和由特定手指执行的手势。然后,处理器可以致使移动设备执行与输入动作相对应的移动设备动作。
图1说明根据本文的实施例的移动设备100。移动设备100包括屏幕面101、用户感测面板102和侧壁103。移动设备100可以包括智能电话、平板电脑、平板手机、游戏控制器和/或任何其他类型的移动计算设备或计算外设。移动设备100的屏幕面101可以包括显示器,并且移动设备100还可以包括典型地包括在移动设备中的任何其他组件,包括但不限于音频输入和输出、处理器、按钮和其他组件。移动设备100包括沿移动设备100的侧面、顶部和底部延伸的侧壁103。图1的移动设备100包括单个屏幕面101和背面(未示出)。在其他实施例中,移动设备100可以包括移动设备的相对侧上的两个屏幕面101。
移动设备100包括至少一个用户感测面板102。移动设备100可以以各种配置包括多个用户感测面板102。在图1的实施例中,移动设备100包括沿相对的侧壁对103的基本上整个长度延伸的两个用户感测面板102。移动设备100可以包括三个或四个用户感测面板102,每个用户感测面板布置在不同的侧壁103上。根据本文的实施例,移动设备100可以包括单个侧壁103上的多个用户感测面板102。根据本文的实施例,用户感测面板102可以沿着侧壁103的至少部分延伸,并且可以或者可以不沿侧壁103的整个长度延伸。用户感测面板102可以位于移动设备100的侧壁103上,可以覆盖移动设备100的侧壁103,可以布置为在移动设备100的侧壁103上直接接触,可以一体并入侧壁103,可以被包括为侧壁103的部分,可以定位以穿过侧壁103的切口突出,或者可以以其他方式相对于侧壁103布置以沿移动设备100的侧面提供传感器区域,所述传感器区域相对于移动设备100的屏幕面101基本上垂直定位。
图2A-2C说明根据本文实施例的用户感测面板102的几个实施例,用户感测面板102是或包括压力传感器、接近传感器、触摸传感器、指纹读取器以及可以检测来自用户的手的部分的接触、压力和/或接近的任何其它传感器。图2A说明包括用户感测面板102的侧壁103,所述用户感测面板102由体现为压力敏感面板或触摸敏感杆的单个压力传感器140组成,沿侧壁103延伸。如说明的,用户感测面板102基本上沿侧壁103的整个长度L以及基本上沿侧壁103的整个深度D延伸。图2B说明包括用户感测面板102的侧壁103,所述用户感测面板102由体现为压力敏感面板的压力传感器141和平行布置的基本上跨越侧壁103的整个长度沿侧壁103延伸的接近传感器150组成。图2C说明包括用户感测面板102的侧壁103,所述用户感测面板102由压力传感器142组成,所述压力传感器142体现为沿侧壁103延伸的压力敏感面板,基本上跨越侧壁103的整个长度,并且具有容纳布置在其中的几个接近传感器151的切口。图2A-2C说明各种实施例,并且不限制可起用户感测面板102作用的传感器的数量、尺寸、形状和布置。如图2A中说明的,侧壁103具有长度L和深度D。
在包括具有压力传感器或需要接触的其他传感器的用户感测面板的实施例中,传感器可配置为生成响应于并指示多触点触摸的压力信号。指示多触点触摸的信号可以包括指示进行接触的位置的位置信息、指示进行接触的位置处的压力量值的信息、指示接触传感器的身体部分的移动的移动指示和/或指示在进行接触的每个位置处的接触面积的接触面积信息。在包括接近传感器的实施例中,传感器可配置为生成响应于并指示多个存在(即多存在定位)的存在信号。指示多存在定位的信号可以包括与多触点触摸信号中提供的信息相同的所有信息,以及指示身体部分或其他物体的非接触接近的接近信息。根据本文的实施例,用户感测面板102可以包括来自以上讨论的两个或更多个类别的传感器,并且因此可以配置用于多模态感测。例如,如图2B中说明的,用户感测面板102可以包括配置为检测多触点触摸的压力传感器(一个或多个),以及配置为检测一个或多个手指的存在或接近的接近传感器(一个或多个)。用户可以使用一个或多个手指、拇指(包括拇指鱼际)、手掌和手的任何其他部分,用手(一只或多只)抓握移动设备100。当持握移动设备100时,用户的手指和手可以在多个地方与用户感测面板(一个或多个)的压力传感器接触,从而创建多触点触摸。
图3说明移动设备100的示意图。如图3中说明的,移动设备100可以包括一个或多个处理器200(本文不同地称为处理器(一个或多个))以及至少一个存储器单元205。移动设备100还可以包括如上所述的一个或多个用户感测面板102,以及更传统的物理或可操纵的用户输入元件206,包括按钮、操纵杆、触发器、麦克风、开关、触摸屏等等。移动设备100还可以包括一个或多个音频和/或视频输出设备201以及一个或多个触觉输出设备202。音频和/或视频输出设备201可以包括扬声器、显示器和/或其他组件。
移动设备100可以执行存储在存储器205中并由处理器200执行的软件指令。处理器200可以包括一个或多个任何类型的通用处理器,并且也可以是专门设计以识别用户输入手势的处理器。处理器200可以是操作移动设备100的所有功能的相同处理器,并且/或者可以包括配置用于本文讨论的目的的专用处理器。处理器200可以执行计算机指令以确定要发送到移动设备100的各个方面以执行移动设备动作的命令。存储器205可以包括一个或多个任何类型的存储设备或非暂时性计算机可读介质,诸如但不限于随机存取存储器(RAM)或只读存储器(ROM)。存储器205也可以位于主机处理器的内部,或者是内部和外部存储器的任何组合。
根据本文的实施例,移动设备100是支持触觉的设备。支持触觉的设备包括具有用于向用户传递触觉效果的一个或多个触觉输出设备202的设备。支持触觉的设备可以是包括一个或多个触觉输出设备202的设备,所述一个或多个触觉输出设备202直接接收(例如)来自本地处理器200和/或来自外部计算机系统的用于致动的触觉命令。支持触觉的设备可以进一步包括一个或多个处理器,所述一个或多个处理器可以在向一个或多个触觉输出设备传递致动信号之前处理或解释所接收的触觉输出信号。支持触觉的设备可进一步包括用户输入元件(例如控制元件,诸如触发器、按钮、操纵杆、操纵板等等)以允许用户与计算机系统交互。支持触觉的设备可以包括支持触觉的外围和控制设备——设计成用作中央设备的附件或外围单元的设备,诸如与本文实施例一致的计算机系统。支持触觉的设备还可以包括移动设备,所述移动设备包括智能手机、智能手表、平板电脑、平板手机和任何其他移动计算设备。因此,支持触觉的设备可以用作计算机系统,并且可以包括触觉输出设备和控制元件。
触觉输出命令可用于直接或间接地致使触觉输出设备202的致动和/或激活。根据本文的实施例,触觉输出命令可以包括经由导线或无线地传输以致使触觉输出设备产生触觉效果的触觉输出信号。触觉输出信号可以包括由触觉输出设备202接收以致使触觉效果的致动信号。触觉输出信号还可以包括在其它系统部件之间传输的信号,所述信号具有关于期望的触觉效果的信息。例如,远程计算机系统处理器可以向与支持触觉的设备(也就是移动设备100)相关联的处理器200输出包含关于要发生的触觉效果的信息的触觉输出信号。处理器200可以接收触觉输出信号,对其进行处理,并将另一触觉输出信号输出到触觉输出设备202以致使触觉效果。因此,触觉输出信号可以包括用于生成触觉效果的任何信号。触觉输出命令还可以包括软件命令。也就是说,软件交互可以生成触觉输出命令,所述触觉输出命令包括用于致使触觉输出设备的致动的信息。以软件命令形式的触觉输出命令可致使处理器200生成以触觉输出信号形式的触觉输出命令。
处理器200可以提供触觉输出命令以激活触觉输出设备202。处理器200可以关于与触觉输出命令一致的要输出的触觉效果的特定特性(例如量值、频率、持续时间等等)来指令触觉输出设备202。处理器200可以检索与来自耦合到其的存储器205的触觉输出命令一致的触觉效果的类型、量值、频率、持续时间或其他特性。根据下文讨论的实施例,可以选择触觉效果的类型、量值、频率、持续时间和其他特性以向用户提供适当反馈。
如支持触觉的设备的领域的技术人员已知的,触觉输出设备202可以包括一个或多个振动、惯性和/或动觉致动器。可能的致动器包括但不限于其中偏心质量由马达移动的偏心旋转质量(“ERM”)致动器、其中附接到弹簧的质量被来回驱动的线性谐振致动器(“LRAs”)、压电致动器、惯性致动器、形状记忆合金、响应于信号变形的电活性聚合物、用于改变刚度的机械装置、静电摩擦(ESF)、超声表面摩擦(USF)、任何其他类型的振动触觉致动器或上述致动器的任何组合。
图4说明一对手300的解剖结构,所述解剖结构说明手掌和手背视图。手300包括几个不同的手部分。手300包括五个手指301。第一手指301是拇指306,剩下的四个手指301是包括食指302、中指303、无名指304和小指305的手指。每个手指301包括远节指骨310和近节指骨312。四个手指302-305中的每一个还包括中间指骨311。拇指306还包括拇指鱼际307。手300还包括手掌308。
图5A-5C说明用户用多触点触摸抓握移动设备100的示例。图5A说明用户抓握移动设备100,其中拇指306的远节指骨310接触移动设备的第一侧壁103A上的第一用户感测面板102A,四个手指302-305中的每一个的远节指骨310在移动设备的第二侧壁103B上的第二用户感测面板102B上。图5B说明用户抓握移动设备100,其中拇指306的远节指骨310和拇指鱼际307接触移动设备的第一侧壁103A上的第一用户感测面板102A,三个手指303-305中的每一个的远节指骨310接触移动设备100的第二侧壁103B上的第二用户感测面板102B,并且食指302的远节指骨310与移动设备100的第三侧壁103C上的第三用户感测面板102C进行接触。图5C说明用户抓握移动设备,其中拇指306的远节指骨310和近节指骨312与移动设备100的第一侧壁103A上的第一用户感测面板102A进行接触,食指302的远节指骨310和中间指骨311与移动设备100的第二侧壁103B上的第二用户感测面板102B进行接触。在图5A-5C中说明的紧握姿势仅是示例性的。与移动设备100的侧壁103A、103B、103C相关联的用户感测面板102A、102B、102C可配置为检测用户的手的任何部分的多触点触摸或多存在定位。
如上文讨论的,与移动设备100相关联的用户感测面板102配置为检测来自用户的手的解剖结构的各种部分的多触点触摸和/或多存在定位。用户感测面板102还配置为向处理器200传输指示多触点触摸和/或多存在定位的信号,例如压力信号、触摸信号、接近信号、接触信号等等。
处理器200配置为接收指示由用户感测面板102传输的多触点触摸和/或多存在定位的信号。在接收信号之后,处理器200配置为分析信号以确定用户的预期输入,确定与预期输入相关联的移动设备动作,并且致使移动设备100执行移动设备动作。
为了确定用户的预期输入,处理器200可分析来自用户感测面板102的信号,以确定提供多触点触摸和/或多存在定位的手指301和其他手部分的解剖学身份。信号可以指示提供多触点触摸和/或多存在定位的手指301和其他手部分中的一个或多个的位置(一个或多个)。信号可以指示由提供多触点接触和/或多存在定位的手指301和其他手部分中的一个或多个致使的压力的量值。信号可进一步指示提供多触点触摸和/或多存在定位的手指301以及其他手部分中的一个或多个的移动。处理器200可以使用信号的位置、接触的面积、量值和移动指示中的一个或多个来确定手指301和其他手部分中的一个或多个的解剖学身份。所识别的解剖学身份可以包括用于紧握移动设备100的手300的任何部分,包括手指301的所有指骨310-312以及拇指鱼际307和手掌308。
处理器200可以使用指示多触点触摸和/或多存在定位的信号基于检测到压力或接近的用户感测面板的传感器的位置来确定提供多触点触摸和/或多存在定位的手指301和其他手部分的解剖学身份。压力或接近检测的位置可以是指沿侧壁103的长度L的位置,并且/或者可以是指沿侧壁103的深度D的位置,即如图2A中说明的。处理器200可确定提供压力或接近的手指301和其他手部分的解剖学身份(例如拇指鱼际307)。
处理器200解析信号以确定多触点触摸和/或多存在定位的组成接触点。在指示多触点触摸和/或多存在定位的信号中(即,通过接触或接近)检测的每个手指或其他手部分可以由接触点401代表。多触点触摸和/或多存在定位的接触点401由用户手指或其他手部分的所检测的接触或接近的特性来限定。例如,如图5A中说明的指示多触点触摸和/或多存在定位的信号限定在第二侧壁103B上的五个接触点401,每个所述接触点针对每一个手指301。处理器200使用不同接触点401的位置和相对间隔来确定每个接触点401所对应的紧握部分的解剖学身份。根据手指301、手指301的部分(例如远节指骨312、中间指骨311或近节指骨310)或者它们代表的其他手部分来识别紧握部分的解剖学身份。代表小指305、无名指304、中指303和食指302的接触点401的位置典型地是连续定位的,因为用户很难颠倒这些手指301中的两个的定位。代表拇指306的接触点401的定位典型地在与其他手指301对面的侧壁103(诸如第一侧壁103A)上。相对间隔也可用于确定解剖学身份。例如,如果侧壁103仅具有三个接触点401,则小指305或食指302可能不与用户感测面板的传感器接触。处理器200可以基于剩余手指301相对于移动设备200的对面侧壁103上的拇指306的相对间隔来确定哪个手指301不与传感器接触。
根据使用用户感测面板中的接近传感器的实施例,不需要接触传感器来确定手指301或其他手部分的位置。在这样的实施例中,接近传感器可以检测与传感器接触和/或靠近传感器的手指301或其他手部分的位置,并且从而建立关联接触点401。这样的实施例可使用与上文描述的方法相同的方法来基于感测的手指301和手部分的位置确定解剖学身份。
处理器200可以使用由用户感测面板102检测的接触点401的面积来确定用于紧握移动设备100的手指301和其他手部的解剖学身份。用户的各种手指301和手部分可以在尺寸上变化,并且因此可以与用户感测面板102具有更大的接触面积。所以,拇指306可具有比小指305更大的接触面积。如图5C中说明的,用多于一个指骨接触移动设备100的手指301可以具有比用单个指骨接触移动设备100的手指301更大的接触面积。因此,处理器200可以使用来自用户感测面板的传感器的接触面积信息来确定用于紧握移动设备100的手指301和其他手部分的解剖学身份。
处理器200可以使用由用户感测面板的传感器检测的压力的量值来确定用于紧握移动设备100的手指301和其他手部分的解剖学身份。当紧握手机时,用户可以用不同的手部分施加不同量的压力。例如,当如图5A中紧握电话时,拇指306和食指302可以分别更加用力地按压用户感测面板102A、102B,然后剩余手指301按压用户感测面板102B,并且从而生成更高量值的压力。
处理器200可以使用由用户感测面板的传感器提供的移动指示来确定紧握手指301和其他手部分的解剖学身份。当抓握移动设备100时,在用户安排他们的手持握移动设备100时用户的紧握可以转移。处理器200可以使用指示表示这样的紧握转移的多触点触摸的信号的移动指示符来确定紧握手指301和其他手部分的解剖学身份。
根据本文的实施例,处理器200可以使用指示多触点触摸和/或多存在定位的信号的多个方面来确定紧握手指301和其他手部分的解剖学身份。例如,处理器200可以将位置信息与压力量值信息结合。处理器200可以使用指示多触点触摸和/或多存在定位的信号的任何一个或所有上述方面来确定一个或多个紧握手指301和其他手部分的解剖学身份。
根据本文的实施例,处理器200可根据经训练的模型来确定紧握手指301和其他手部分的解剖学身份。经训练的模型可以是根据从多个受试者收集的训练数据确定的默认模型。例如,可能要求多个受试者用一系列不同的紧握姿势紧握移动设备100。当受试者在紧握移动设备100时,用户感测面板102可以检测多触点触摸和/或多存在定位,并向处理器200提供响应信号。每个受试者可以以多种不同的方式紧握移动设备100以收集紧握数据。然后,处理器200或位于独立系统中的另一个处理器可以聚合多个受试者的所收集的紧握数据,用于开发默认模型。所收集的紧握数据可以与在生成紧握数据期间使用的手指301和其他手部分的多个紧握姿势相关联。因此,默认模型可以包括多个关联,每个关联在紧握手姿势和指示多触点触摸和/或多存在定位的对应信号之间。当用户与移动设备100交互并且用户感测面板102生成指示多触点触摸和/或多存在定位的信号时,可以将信号与默认模型数据比较以确定紧握手指301和其他手部分的解剖学身份。
根据本文的实施例,经训练的模型可以是用户特定模型。为了生成用户特定模型,处理器200向移动设备100的音频或视频输出设备201(例如屏幕和/或扬声器)发送信号,以致使输出设备请求用户以特定方式紧握移动设备100。输出设备可以向用户进行多个请求,请求多次并且以多个不同手姿势来紧握移动设备100。处理器200可以从用户感测面板102接收指示多触点触摸和/或多存在定位的信号,并将信号的数据与所请求的不同手姿势相关联。处理器200因此可以建立用户特定模型,所述用户特定模型将指示特定多触点触摸和/或多存在定位的信号与各种存储的不同手姿势的对应手姿势相关联。在实施例中,建立用户特定模型可以以默认模型开始。可以使用默认模型作为基础来构建用户特定模型。用户特定模型可以包括基于特定用户进行的请求的对默认模型的改进。用户特定模型还可以包括在用户使用期间进行的改进。例如,当手势未被识别或被错误地识别时,用户可以提供关于手势意图的输入。用户输入可以用于改进用户特定模型。用户特定模型可能是有益的,因为不同用户可能具有与平均手显著不同的手,即他们可能更大或更小,可能具有缺少的手指301,可能具有扭曲的手指301等等。因此,用户特定模型可以有效地允许处理器200识别紧握手指301和其他手部分的解剖学身份。
处理器200还配置为将指示多触点触摸和/或多存在定位的信号与移动设备100的动作相关联。处理器200可以通过将信号的任何部分与动作相关联,将指示多触点触摸和/或多存在定位的信号与移动设备100的动作相关联。
在将信号的部分与动作相关联时,处理器200可基于紧握手指301和手部分的解剖学身份识别用户的手势,并根据手势将信号与移动设备的动作相关联。手势可以由移动、压力、位置、定时和其他特性表征。例如,手势可以由用户的移动表征,例如沿用户感测面板102滑动手指301,相对用户感测面板102移除或替换手指301,轻击用户感测面板102,沿用户感测面板102扫过以及紧握手指301和手部分中的一个或多个的任何其他运动。因此,例如,用户可以通过在用户感测面板102上向上或向下滑动他们的拇指306,或通过在用户感测面板102上轻击他们的食指302来作手势。手势还可以包括增加一个或多个手指301和紧握手部分对用户感测面板102的压力。例如,用户可以用拇指306或食指302更用力地按压,好像他们正在用户感测面板102上按压按钮一样。手势还可以由识别的紧握手指301和手部分的位置表征。例如,手指301的滑动手势不仅可以由滑动移动表征,还可以由滑动手势的长度(即在手势的开始和结束处手指301的位置之间的距离)表征。在识别为音量变化的滑动手势中,滑动更远可能使音量增加更多。在识别为视频擦除手势的滑动手势中,滑动更远可以提高擦除速度。手势还可以由定时表征。例如,可以通过提供来自手指301的压力来发起手势。施加压力跨越的时间长度可以表征手势。在音量控制手势中,手指301保持手势的时间长度可致使音量继续增加或减少,直到手势被释放。
当处理器200已经识别紧握手指301或手部分的解剖学身份时,所识别的解剖结构的特定位置可能对于与移动设备100的动作的关联不再重要。当用户紧握移动设备100时,处理器200可以确定紧握手指301和手部分的解剖学身份。然后,手势的识别基于紧握部分的身份。因此,如果用户与平常略有不同地在握持移动设备100,手势的识别不受影响。例如,图5A中采用的紧握可以在移动设备100上更高或更低地使用,致使手指301位于沿移动设备100的侧壁103A、103B的不同地方。当用户执行手势(例如用拇指306施加改变的压力)时,处理器200识别手势是用拇指306执行的,并且即使拇指306不在适当地方,也将手势与移动设备动作相关联。因此,用户在移动设备100的虚拟按钮面板或虚拟按钮条上按压“虚拟按钮”,并且用户没有必要将紧握手指301布置在物理按钮上。这样的虚拟按钮的使用为用户提供了不同尺寸和形状的手的在与其移动设备100交互的方式中的灵活性,并且消除了用于定位传统移动设备的各种按钮和输入元件通常需要的大量设计工作。
根据本文的实施例,处理器200可配置为将移动设备动作与识别的手姿势和识别的解剖学身份都相关联。如上文讨论的,处理器200可配置为识别用户手姿势。根据识别的用户手姿势,手势识别可以被改变。例如,在第一手姿势中(例如如图5A中示出的),包括来自拇指306的改变的压力的手势可以与第一移动设备动作相关联。在第二、不同的手姿势中(例如如图5C中示出的),包括来自拇指306的改变的压力的手势可以与第二移动设备动作相关联。在可适于移动设备100的经常使用的第一手姿势中,包括改变的压力的拇指手势可以等同于按压移动设备100的home按钮。在用户持握移动设备100观看视频时可以使用的第二手姿势中,来自拇指306的改变的压力可以与音量控制动作、播放/暂停动作或与观看视频相关联的其他动作相关联。
根据本文的实施例,处理器200可配置为基于多个紧握手指301执行的手势,将指示多触点触摸和/或多存在定位的信号与移动设备100的动作相关联。例如,当用户试图作为手势用拇指306增加压力时,也可以要求紧握手指301和手部分的剩余部分施加改变的压力以平衡来自拇指306的压力。处理器200可配置为将指示由一个或多个紧握手指301或手部分施加的压力的信号与移动设备动作相关联。用户可以体验作为改变的拇指306压力的手势,同时处理器200配置为在识别手势时识别其他紧握手指301或手部分中的一个或多个的压力的变化。
根据本文的实施例,处理器200可配置为将指示多触点触摸和/或多存在定位的信号与移动设备100的动作相关联,而无需单独识别紧握手指301和手部分的解剖学身份。当用户执行手势时,来自一个或多个用户感测面板102的信号可以是手势的唯一特性,并且处理器200可以直接将信号与手势相关联,并且从而与移动设备100的动作相关联,而无需执行识别解剖学身份的中间步骤。如上文讨论的,指示多触点触摸和/或多存在定位的信号与移动设备100的动作的关联可根据模型(要么是经训练的默认模型要么是经训练的用户特定模型)来执行,而无需单独识别紧握手指301和手部分的解剖学身份。
根据本文的实施例,处理器200可配置为将指示多触点触摸和/或多存在定位的信号与基于信号的移动设备的动作(如上文讨论的)以及设备的操作模式相关联。例如,如果在电话呼叫期间检测到,食指302的滑动手势可以解释为与音量改变移动设备动作相对应,并且如果在使用web浏览器期间检测到,则可以解释为与滚动动作相对应。因此,手势识别可根据在设备上执行的应用(包括电话呼叫应用、发短信应用、视频应用、游戏应用等等)而被改变。
图6是说明解剖学身份、执行的手势和移动设备动作之间的示例关联的关联表500。处理器200可以识别手指301或手部分的解剖学身份,识别由识别的手指301或手部分执行的手势,并将解剖结构和手势与要执行的移动设备动作相关联。如图6中示出的,处理器200可以基于手指301或手部分来自左还是右手300来识别解剖学身份。多个不同的手势(即用中指303或食指302按压)可对应于相同的移动设备动作。移动设备动作、解剖结构和手势之间的关联可以被预先编程和/或可以被用户定义。可识别的手势和关联动作的一些示例可以包括用拇指306按压以控制锁定/解锁功能,拇指306扫过以控制滚动,用无名指304或小指305向上或向下滑动以控制音量变大或变小,用食指302或中指303按压以使移动设备100静音。图6中示出的移动设备动作仅是示例,并且移动设备100可以执行的任何动作可以与对应手势和解剖结构相关联。
处理器200还配置为致使移动设备100执行确定的移动设备动作。如上文讨论的,在识别手势和与动作的关联之后,处理器200致使动作的执行。处理器200可以直接致使动作,例如通过执行计算机指令,并且/或者可以间接致使动作,例如通过将控制信号传输到移动设备100的另一方面(例如屏幕、音频输出、天线等等)以致使移动设备动作发生。
根据本文的实施例,处理器200还配置为致使输出作为对手势的识别和移动设备动作的执行的确认的反馈。这样的反馈可以包括音频信号,例如嘟嘟声或音调、视频显示和/或触觉输出。如上文讨论的,移动设备100可以包括音频和/或视觉输出设备201以提供反馈。移动设备100还可以包括提供反馈的一个或多个触觉输出设备202。
处理器200可以根据移动设备动作与触觉反馈之间的关联来确定用于确认要执行的移动设备动作的触觉反馈。触觉反馈也可以响应于识别的手势由处理器200发起。不同的移动设备动作和/或不同的手势可与不同的触觉反馈输出相关联。根据本文的实施例,一个或多个不同的移动设备动作可以与相同的触觉反馈输出相关联。处理器200可以生成并输出要由一个或多个触觉输出设备202接收的触觉控制信号,以向用户提供手势被识别了和/或移动设备动作被执行的确认。作为确认提供的触觉反馈可以被选择以与所识别的手势相对应。因此,作为确认提供的触觉反馈有两个目的。首先,响应于手势的触觉反馈的提供确认手势被接收了或识别了。第二,提供的特定触觉反馈可以与所识别的手势相对应,从而向用户确认所识别的手势的身份。这样的触觉反馈用于向用户警告或确认手势被正确或错误地接收。
根据本文的实施例,处理器200可以在识别紧握移动设备100的手指301和其他手部分的解剖学身份时致使触觉反馈。用户可以抓握和拿起移动设备100。在基于指示多触点触摸和/或多存在定位的信号来识别紧握手指301和其他手部分的解剖学身份时,处理器200可以通过触觉输出设备202向用户提供触觉输出以向用户确认处理器200准备好识别用户的手势。因此,当用户拿起移动设备100并接收触觉输出时,即当处理器200识别抓握手指和其他手部分的解剖学身份时,用户就知道系统准备好识别手势。如果用户拿起移动设备100,并且抓握手指和其他手部分的解剖学身份未被识别,则处理器200可以不提供触觉反馈和/或可以提供与未能识别抓握手指和其他手部分具体相关联的触觉反馈。在这样的情况下,用户可以接受缺少触觉反馈或特定的触觉反馈作为系统未准备好识别手势的警报。然后用户可以重定位他们的手以例如增加识别的可能性。
根据本文的实施例,触觉输出设备(一个或多个)可以配置为直接向布置在用户感测面板102上的抓握手指或其他手部分提供触觉反馈。因此,用户感测面板102可以充当虚拟触觉按钮面板或虚拟触觉按钮条。
图7是说明本文描述的执行识别多触点触摸的方法的系统的功能的过程图。在实施例中,图7的过程图的功能可以由存储在移动设备的存储器中并由移动设备100的处理器执行的软件和/或固件来实现。在其他实施例中,可以通过使用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)和/或硬件和软件的任何组合由硬件执行功能。本领域技术人员将理解,图7的功能可以由与移动设备100一致的设备和系统和/或具有本领域已知的另一配置的支持触觉的设备或计算机系统来执行。
图7说明用于识别多触点触摸和/或多存在定位的过程600。由图7说明的过程600被提供为与本文描述的设备和系统一致的方法的示例。过程600的步骤和操作以特定的顺序描述,仅用于示例目的。过程600的步骤和操作可以以不同的顺序执行,可以包括额外的步骤,并且可以包括更少的步骤。尽管过程600的一些步骤和操作是关于包括生成压力信号的压力传感器的用户感测面板的实施例具体描述的,但是这样的描述未有意限制。这些步骤和操作同样可以应用于包括可替代传感器(诸如生成存在信号的接近传感器)的用户感测面板的实施例。
在操作602中,过程600包括由移动设备的用户感测面板的至少一个传感器生成响应于并指示多触点触摸或多存在定位的信号。例如,用户感测面板可以包括用于生成压力信号的压力传感器。生成的压力信号可以包括关于紧握移动设备的手指或其他手部分的位置、量值、接触面积和移动的信息。在进一步的示例中,其他类型的传感器(例如接近传感器等等)可以生成其他类型的信号。
在操作604中,过程600包括由至少一个处理器接收由用户感测面板的至少一个传感器生成的指示多触点触摸和/或多存在定位的信号。信号是响应于移动设备的至少一个侧壁上的多触点触摸或多存在定位而生成的。第一信号可从设置在第一侧壁上的第一用户感测面板的第一传感器接收,以及第二信号可从设置在第二侧壁上的第二用户感测面板的第二传感器接收。移动设备可以包括用户感测面板,其各自的传感器(一个或多个)设置在移动设备的四个或更多的侧壁上。每个侧壁可以包括一个或多个用户感测面板,其上设置有各自的传感器(一个或多个)。在实施例中,处理器从每个传感器接收信号。在进一步的实施例中,处理器接收来自所有传感器的组合的信号。
在操作606中,过程600包括由至少一个处理器将信号与移动设备的动作相关联。指示多触点触摸和/或多存在定位的信号可以与移动设备的动作(诸如通/断电源、改变音量、按压home等等)相关联。
为了将信号与移动设备的动作相关联,可以识别紧握移动设备的手指和其他手部分的解剖学身份,并且可以识别由紧握手指和其他手部分执行的手势。因此,将信号与移动设备的动作相关联可以包括确定手指和其他手部分的解剖学身份,所述手指和其他手部分与用户感测面板的传感器接触或接近。确定手指和其他手部分的解剖学身份可以包括确定传感器检测到压力和/或接近的位置以及确定与每个位置相对应的手指或手部分的解剖学身份。确定手指和其他手部分的解剖学身份还可包括确定传感器检测压力的位置处的压力量值,以及确定与每个位置处的压力相对应的手指和手部分的解剖学身份。用户的紧握可以由创建紧握时他们的手指和其他手部分的位置以及施加的压力的量值、施加压力的接触面积以及手指和其他手部分的移动表征。
根据本文的实施例,可以基于确定的解剖学身份来识别用户的手势。然后可以根据手势执行将信号与移动设备动作相关联。手势可以基于手指或其他手部分的增加的压力、移动、轻击或其他动作来识别。移动设备动作可以与由特定识别的手指或其他手部分执行的特定手势相关联。
根据本文的实施例,使用经训练的模型执行确定紧握手指和其他手部分的解剖学身份。模型可以是默认模型和/或可以是用户特定模型。经训练的模型可用于将指示多触点触摸和/或多存在定位的信号与用户的手相关联。信号可以与信号库(每个信号与特定手姿势相关联)比较以识别用户的手姿势,并且从而识别紧握手指和其他手部分的解剖学身份。经训练的模型可用于提供信号和要执行的移动设备动作之间的直接关联。
在操作608中,过程600包括致使移动设备执行所选择的移动设备动作。移动设备的处理器可以在多触点触摸和/或多存在定位与移动设备动作之间进行关联之后,向移动设备方面发送负责移动设备动作的控制信号。移动设备动作可以由处理器执行,并且控制信号可以是处理器的电路和逻辑内部的信号。处理器可以将控制信号发送到移动设备的另一部分(例如照相机)以执行所选择的动作。
在操作610中,过程600可以包括由至少一个处理器输出与多触点触摸和/或多存在定位相关联的触觉控制信号,所述触觉控制信号配置为激活触觉输出设备以致使触觉效果。处理器可输出触觉控制信号以致使触觉效果,作为多触点触摸和/或多存在定位与移动设备动作相关联的确认。触觉效果可用来向用户发出信号和/或警告:信号由处理器接收了并适当地与动作相关联。根据本文的实施例,取决于要执行的移动设备动作可以输出不同的触觉效果作为确认。这可以允许用户经历区分确认并且毫不含糊地理解期望的移动设备动作被识别了。
图8是说明执行识别多触点触摸的方法中本文描述的系统的功能的过程图。图8的过程图的功能可以由存储在移动设备的存储器中并由移动设备100的处理器执行的软件和/或固件来实现。通过使用专用集成电路(“ASIC”)、可编程门阵列(“PGA”)、现场可编程门阵列(“FPGA”)和/或硬件和软件的任何组合,由硬件也可以执行功能。本领域技术人员将理解,图8的功能可以由与移动设备100一致的设备和系统和/或具有本领域已知的另一配置的支持触觉的设备或计算机系统来执行。
图8说明用于检测与移动设备的用户交互事件并相应地提供响应的过程800。由图8说明的过程800被提供为与本文描述的设备和系统一致的方法的示例。过程800的步骤和操作以特定的顺序描述,仅用于示例目的。过程800的步骤和操作可以以不同的顺序执行,可以包括附加步骤,并且可以包括更少的步骤。尽管关于包括具有生成压力信号的压力传感器的用户感测面板的实施例来具体描述过程800的一些步骤和操作,但是这样的描述未有意限制。这些步骤和操作同样可以应用于包括可替代传感器(诸如生成存在信号的接近传感器)的用户感测面板的实施例。
在操作801中,过程800包括由移动设备的用户感测面板的至少一个传感器来检测用户交互事件。用户交互事件可以包括由用户感测面板检测的多触点触摸和/或多存在定位。用户感测面板生成响应于并指示用户交互事件的信号。例如,用户感测面板的压力传感器可以生成压力信号。生成的压力信号可以包括关于在用户交互事件中紧握移动设备的手指或其他手部分的位置、量值、接触面积和移动的信息。在进一步的示例中,用户感测面板的其他类型的传感器(例如接近传感器等等)可以生成其他类型的信号。
在操作802中,过程800包括由处理器识别执行交互事件的用户解剖结构。因此,处理器可以确定负责交互事件的手指和其他手部分的解剖学身份。识别执行交互事件的用户解剖结构可以包括确定用户感测面板的传感器检测压力和/或接近的位置以及识别与每个位置相对应的用户解剖结构。识别执行交互事件的用户解剖结构可以进一步包括确定在用户感测面板的传感器检测压力的位置处的压力量值以及识别与每个位置处的压力相对应的用户解剖结构。
在操作803中,过程800包括确定和执行适于交互事件和识别的用户解剖结构的设备功能。处理器将检测的交互事件和识别的用户解剖结构与移动设备的功能(例如通/断电源、改变音量、按压home等等)相关联。然后处理器执行移动设备的动作。
在操作804中,过程800包括呈现与所执行的设备功能相关联的反馈。这样的反馈可以包括音频、视觉或触觉反馈,或者这些的任何组合。处理器可以基于执行的设备功能、交互事件和识别的用户解剖结构的任何组合来输出控制信号。控制信号可以配置为致使适当的输出设备(例如音频、视频和/或触觉)向用户提供反馈以确认与多触点触摸和/或多存在定位相关联的触觉控制信号,所述触觉控制信号配置为激活触觉输出设备以致使触觉效果。处理器可以输出触觉控制信号以致使触觉效果,作为多触点触摸和/或多存在定位与移动设备动作相关联了的确认。触觉效果可用来向用户发出信号和/或警告:信号由处理器接收并适当地与动作相关联。根据本文的实施例,取决于要执行的移动设备动作可以输出不同的触觉效果作为确认。这可以允许用户经历区分确认并且毫不含糊地理解期望的移动设备动作被识别了。
因此,提供将用户输入与移动设备动作动态地相关联的设备和方法。虽然上文已描述根据本发明的各种实施例,但是应当理解,它们仅通过说明和示例而不是限制的方式被呈现。对于本领域技术人员将显而易见的是,在不背离发明的精神和范围的情况下,可以在形式和细节中进行各种改变。因此,本发明的广度和范围不应受任何上述示例性实施例的限制,而应仅根据所附权利要求及其等同物来限定。还将理解,本文讨论的每个实施例的每个特征以及本文引用的每个参考的每个特征可以与任何其他实施例的特征结合使用。呈现触觉效果的以上方法的方面可以与本文描述的其他方法以任何结合使用,或者方法可以单独使用。本文讨论的所有专利和出版物全部通过引用并入本文。
Claims (22)
1.一种移动设备,包括:
至少一个用户感测面板,所述至少一个用户感测面板包括压力传感器,所述压力传感器被配置为生成响应于并指示多触点触摸的压力信号;以及
至少一个处理器,所述至少一个处理器被配置为
接收由所述压力传感器生成的指示所述多触点触摸的压力信号,
将所述压力信号与所述移动设备的动作相关联,
致使所述移动设备执行所述动作,以及
输出与所述多触点触摸相关联的触觉控制信号,所述触觉控制信号被配置为激活触觉输出设备以致使触觉效果。
2.如权利要求1所述的移动设备,还包括:
屏幕面、背面和侧壁对,
其中所述至少一个用户感测面板位于所述侧壁对中的至少一个侧壁上,并且沿所述至少一个侧壁的至少部分延伸。
3.如权利要求2所述的移动设备,其中所述至少一个用户感测面板包括第一用户感测面板和第二用户感测面板,并且所述压力传感器是所述第一用户感测面板的第一压力传感器和所述第二用户感测面板的第二压力传感器,以及
其中所述第一用户面板设置在所述侧壁对中的第一侧壁上,并且所述第二用户感测面板设置在所述侧壁对中的第二侧壁上。
4.如权利要求1所述的移动设备,其中所述至少一个处理器还被配置为通过确定用户的提供所述多触点触摸的手指的解剖学身份,将所述压力信号与所述移动设备的所述动作相关联。
5.如权利要求4所述的移动设备,其中所述至少一个处理器还被配置为基于所述解剖学身份识别所述用户的手势,并且根据所述手势将所述压力信号与所述移动设备的所述动作相关联。
6.如权利要求5所述的移动设备,其中所述至少一个处理器还被配置为基于来自至少一个所述手指的改变的压力来识别所述用户的所述手势。
7.如权利要求4所述的移动设备,其中所述至少一个处理器还被配置为根据由所述压力传感器检测到压力的位置确定所述手指的所述解剖学身份。
8.如权利要求4所述的移动设备,其中所述至少一个处理器还被配置为根据由所述压力传感器检测的压力的量值来确定所述手指的所述解剖学身份。
9.如权利要求4所述的移动设备,其中所述至少一个处理器还被配置为根据经训练的模型确定所述手指的所述解剖学身份。
10.如权利要求9所述的移动设备,其中所述经训练的模型包括多触点触摸和手姿势之间的关联。
11.如权利要求9所述的移动设备,其中所述经训练的模型包括多触点触摸和移动设备的动作之间的关联。
12.一种将用户输入动态地关联到移动设备动作的方法,所述方法包括:
由移动设备的至少一个用户感测面板的压力传感器生成响应于并指示多触点触摸的压力信号;
由至少一个处理器接收由所述压力传感器生成的指示所述多触点触摸的所述压力信号,
由所述至少一个处理器将所述压力信号与所述移动设备的动作相关联,
由所述至少一个处理器致使所述移动设备执行所述动作,以及
由所述至少一个处理器输出与所述多触点触摸相关联的触觉控制信号,所述触觉控制信号被配置为激活触觉输出设备以致使触觉效果。
13.如权利要求12所述的方法,其中接收所述压力信号包括接收由所述至少一个用户感测面板上的多触点触摸致使的压力信号,其中所述至少一个用户感测面板设置在所述移动设备的至少一个侧壁上。
14.如权利要求13所述的方法,其中所述至少一个用户感测面板包括第一用户感测面板和第二用户感测面板,所述压力传感器是所述第一用户感测面板的第一压力传感器和所述第二用户感测面板的第二压力传感器,并且所述至少一个侧壁是第一侧壁和第二侧壁,并且其中接收所述压力信号包括:
从设置在所述第一侧壁上的所述第一用户感测面板的所述第一压力传感器接收第一压力信号,以及
从设置在所述第二侧壁上的所述第二用户感测面板的所述第二压力传感器接收第二压力信号。
15.如权利要求12所述的方法,其中将所述压力信号与所述移动设备的所述动作相关联包括确定用户的提供所述多触点触摸的手指的解剖学身份。
16.如权利要求15所述的方法,还包括
基于所述解剖学身份识别所述用户的手势;以及
根据所述手势将所述压力信号与所述移动设备动作相关联。
17.如权利要求16所述的方法,还包括基于来自至少一个所述手指的改变的压力识别所述用户的所述手势。
18.如权利要求15所述的方法,其中确定手指的解剖学身份包括确定由所述用户感测面板的所述压力传感器检测到压力的位置,以及确定与每个位置相对应的所述手指的解剖学身份。
19.如权利要求15所述的方法,其中确定手指的解剖学身份包括确定由所述用户感测面板的所述压力传感器检测的压力的量值,以及确定与每个量值相对应的所述手指的所述解剖学身份。
20.如权利要求15所述的方法,其中确定手指的解剖学身份包括使用经训练的模型。
21.如权利要求20所述的方法,其中使用所述经训练的模型包括将所述多触点触摸与手姿势相关联。
22.如权利要求20所述的方法,其中使用所述经训练的模型包括将所述多触点触摸与移动设备动作相关联。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/858,903 US20190204929A1 (en) | 2017-12-29 | 2017-12-29 | Devices and methods for dynamic association of user input with mobile device actions |
US15/858,903 | 2017-12-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109992104A true CN109992104A (zh) | 2019-07-09 |
Family
ID=64745898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811616083.1A Pending CN109992104A (zh) | 2017-12-29 | 2018-12-28 | 用于用户输入与移动设备动作的动态相关联的设备和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190204929A1 (zh) |
EP (1) | EP3506068A1 (zh) |
JP (1) | JP2019121396A (zh) |
KR (1) | KR20190082140A (zh) |
CN (1) | CN109992104A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114730242A (zh) * | 2019-11-19 | 2022-07-08 | 思睿逻辑国际半导体有限公司 | 用于确定与虚拟按钮的有效人为交互的系统和方法 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10642435B2 (en) | 2018-03-29 | 2020-05-05 | Cirrus Logic, Inc. | False triggering prevention in a resonant phase sensing system |
US10725549B2 (en) | 2018-03-29 | 2020-07-28 | Cirrus Logic, Inc. | Efficient detection of human machine interface interaction using a resonant phase sensing system |
US11092657B2 (en) | 2018-03-29 | 2021-08-17 | Cirrus Logic, Inc. | Compensation of changes in a resonant phase sensing system including a resistive-inductive-capacitive sensor |
US10948313B2 (en) | 2019-02-26 | 2021-03-16 | Cirrus Logic, Inc. | Spread spectrum sensor scanning using resistive-inductive-capacitive sensors |
US11536758B2 (en) | 2019-02-26 | 2022-12-27 | Cirrus Logic, Inc. | Single-capacitor inductive sense systems |
US11402946B2 (en) | 2019-02-26 | 2022-08-02 | Cirrus Logic, Inc. | Multi-chip synchronization in sensor applications |
CN115004144A (zh) | 2020-02-03 | 2022-09-02 | 索尼集团公司 | 电子设备、信息处理方法和程序 |
WO2021174341A1 (en) * | 2020-03-06 | 2021-09-10 | Boréas Technologies Inc. | Mechanical integration of buttons for piezo-electric actuators |
US11579030B2 (en) | 2020-06-18 | 2023-02-14 | Cirrus Logic, Inc. | Baseline estimation for sensor system |
US11868540B2 (en) | 2020-06-25 | 2024-01-09 | Cirrus Logic Inc. | Determination of resonant frequency and quality factor for a sensor system |
US11835410B2 (en) | 2020-06-25 | 2023-12-05 | Cirrus Logic Inc. | Determination of resonant frequency and quality factor for a sensor system |
US11619519B2 (en) | 2021-02-08 | 2023-04-04 | Cirrus Logic, Inc. | Predictive sensor tracking optimization in multi-sensor sensing applications |
US11808669B2 (en) | 2021-03-29 | 2023-11-07 | Cirrus Logic Inc. | Gain and mismatch calibration for a phase detector used in an inductive sensor |
US11821761B2 (en) | 2021-03-29 | 2023-11-21 | Cirrus Logic Inc. | Maximizing dynamic range in resonant sensing |
US11507199B2 (en) | 2021-03-30 | 2022-11-22 | Cirrus Logic, Inc. | Pseudo-differential phase measurement and quality factor compensation |
US11854738B2 (en) | 2021-12-02 | 2023-12-26 | Cirrus Logic Inc. | Slew control for variable load pulse-width modulation driver and load sensing |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102687100A (zh) * | 2010-01-06 | 2012-09-19 | 高通股份有限公司 | 用于提供力敏感输入的用户接口方法和系统 |
CN103379223A (zh) * | 2012-04-26 | 2013-10-30 | Lg电子株式会社 | 移动终端及其控制方法 |
US20150103018A1 (en) * | 2010-08-19 | 2015-04-16 | Canopy Co., Inc. | Enhanced detachable sensory-interface device for a wireless personal communication device and method |
US20160026850A1 (en) * | 2014-07-25 | 2016-01-28 | Motorola Solutions, Inc | Method and apparatus for identifying fingers in contact with a touch screen |
CN107402667A (zh) * | 2016-05-17 | 2017-11-28 | 三星电子株式会社 | 包含显示器的电子设备 |
CN107438819A (zh) * | 2014-10-30 | 2017-12-05 | 蒂莫西·金·因·塞托 | 带有压力感应侧面的电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8957868B2 (en) * | 2011-06-03 | 2015-02-17 | Microsoft Corporation | Multi-touch text input |
CN104380227A (zh) * | 2012-06-15 | 2015-02-25 | 株式会社尼康 | 电子设备 |
US20140118270A1 (en) * | 2012-10-26 | 2014-05-01 | Qualcomm Incorporated | System and method for providing infrared gesture interaction on a display |
WO2015025549A1 (ja) * | 2013-08-22 | 2015-02-26 | シャープ株式会社 | 表示装置、および、タッチ操作処理方法 |
KR20180001358A (ko) * | 2016-06-27 | 2018-01-04 | 엘지전자 주식회사 | 이동 단말기 |
-
2017
- 2017-12-29 US US15/858,903 patent/US20190204929A1/en not_active Abandoned
-
2018
- 2018-12-18 EP EP18213578.0A patent/EP3506068A1/en not_active Withdrawn
- 2018-12-28 KR KR1020180172644A patent/KR20190082140A/ko not_active Application Discontinuation
- 2018-12-28 JP JP2018246491A patent/JP2019121396A/ja active Pending
- 2018-12-28 CN CN201811616083.1A patent/CN109992104A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102687100A (zh) * | 2010-01-06 | 2012-09-19 | 高通股份有限公司 | 用于提供力敏感输入的用户接口方法和系统 |
US20150103018A1 (en) * | 2010-08-19 | 2015-04-16 | Canopy Co., Inc. | Enhanced detachable sensory-interface device for a wireless personal communication device and method |
CN103379223A (zh) * | 2012-04-26 | 2013-10-30 | Lg电子株式会社 | 移动终端及其控制方法 |
US20160026850A1 (en) * | 2014-07-25 | 2016-01-28 | Motorola Solutions, Inc | Method and apparatus for identifying fingers in contact with a touch screen |
CN107438819A (zh) * | 2014-10-30 | 2017-12-05 | 蒂莫西·金·因·塞托 | 带有压力感应侧面的电子设备 |
CN107402667A (zh) * | 2016-05-17 | 2017-11-28 | 三星电子株式会社 | 包含显示器的电子设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114730242A (zh) * | 2019-11-19 | 2022-07-08 | 思睿逻辑国际半导体有限公司 | 用于确定与虚拟按钮的有效人为交互的系统和方法 |
CN114730242B (zh) * | 2019-11-19 | 2023-07-04 | 思睿逻辑国际半导体有限公司 | 用于确定与虚拟按钮的有效人为交互的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3506068A1 (en) | 2019-07-03 |
US20190204929A1 (en) | 2019-07-04 |
KR20190082140A (ko) | 2019-07-09 |
JP2019121396A (ja) | 2019-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109992104A (zh) | 用于用户输入与移动设备动作的动态相关联的设备和方法 | |
US10996765B2 (en) | Controller for finger gesture recognition and method for recognizing finger gesture | |
US8031175B2 (en) | Touch sensitive remote control system that detects hand size characteristics of user and adapts mapping to screen display | |
US7161579B2 (en) | Hand-held computer interactive device | |
EP2778847B1 (en) | Contactor-based haptic feedback generation | |
CN105122256B (zh) | 在手持设备上用于单手及多模式交互的握力传感器阵列及方法 | |
CN104679233B (zh) | 用于生成摩擦和振动触感效果的系统和方法 | |
US8830189B2 (en) | Device and method for monitoring the object's behavior | |
US8031172B2 (en) | Method and apparatus for wearable remote interface device | |
WO2012070682A1 (ja) | 入力装置及び入力装置の制御方法 | |
US8884901B2 (en) | Shaped capacitive touch sensor, devices, and methods of use | |
US20030048260A1 (en) | System and method for selecting actions based on the identification of user's fingers | |
CN106168851A (zh) | 基于预测的接触的触觉效果 | |
CN107807733A (zh) | 用于柔性电子设备的经补偿触觉呈现 | |
US20150009145A1 (en) | Interaction peripheral device capable of controlling an element for touching and grasping multidimensional virtual objects | |
US11307671B2 (en) | Controller for finger gesture recognition and method for recognizing finger gesture | |
EP2431844B1 (en) | Correlated sensor system | |
WO2023219041A1 (ja) | インタラクション装置 | |
JP2021111074A (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
WO2017162493A1 (en) | A control method for a touch sensitive interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190709 |