CN107665089A - 触摸屏上的手指识别 - Google Patents

触摸屏上的手指识别 Download PDF

Info

Publication number
CN107665089A
CN107665089A CN201710816410.7A CN201710816410A CN107665089A CN 107665089 A CN107665089 A CN 107665089A CN 201710816410 A CN201710816410 A CN 201710816410A CN 107665089 A CN107665089 A CN 107665089A
Authority
CN
China
Prior art keywords
touch
finger
computing device
user
mobile computing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710816410.7A
Other languages
English (en)
Other versions
CN107665089B (zh
Inventor
吴根清
宿华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Priority to CN201710816410.7A priority Critical patent/CN107665089B/zh
Publication of CN107665089A publication Critical patent/CN107665089A/zh
Application granted granted Critical
Publication of CN107665089B publication Critical patent/CN107665089B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K17/00Electronic switching or gating, i.e. not by contact-making and –breaking
    • H03K17/94Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated
    • H03K17/96Touch switches
    • H03K17/962Capacitive touch switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Abstract

本申请涉及触摸屏上的手指识别。在一个实施方式中,计算机实现的方法包括:在移动计算设备处接收指示用户用指示器触摸了移动计算设备的触摸屏显示器的第一输入;以及基于除来自用户的对触摸屏显示器的触摸的信息外的信息来确定移动计算设备关于用户的位置。该方法还包括:至少基于所确定的移动计算设备关于用户的位置来将指示器识别为用户的特定的手指或手指类型;以及使用所识别的手指或手指类型来解释在移动计算设备的触摸屏显示器上的所接收的第一输入。

Description

触摸屏上的手指识别
分案说明
本申请属于申请日为2010年8月12日的中国发明专利申请No.201080069527.X的分案申请。
技术领域
本文档总体上描述了用于识别触摸屏上的手指或手指类型的技术、方法、设备和系统。
背景技术
许多移动计算设备(例如,蜂窝电话、智能手机、个人数字助理(PDA)、便携式媒体播放器等)包括触摸屏,其用于向用户图形地展现信息以及用于接收来自通过用户(诸如通过用户的指尖)的物理接触的输入。触摸屏是包括传感器(例如,电容触摸传感器)的图形显示器,所述传感器能够检测用户触摸触摸屏的时间和位置。凭借触摸屏,用户可以通过触摸在触摸屏上显示的图形元素(例如,图标、键等)来向移动计算设备提供输入。例如,当在触摸屏上显示键盘时,用户可以通过使用其手指触摸所显示的键盘上的对应键来键入“helloworld”。
发明内容
本文档描述了用于识别触摸屏上的手指或手指类型以及用于基于所识别的手指或手指类型来解释输入的技术、方法、设备和系统。例如,响应于接收指示用户已触摸了移动计算设备的触摸屏的输入,可以识别已提供了该输入的特定的手指或手指类型。可以使用与用户触摸触摸屏相关联的各种信息来识别特定的手指或手指类型,诸如移动计算设备关于用户的位置(例如,用户正如何握持设备)、与触摸输入相关联的接触区域以及与触摸输入相关联的压力水平。
可以基于所识别的手指或手指类型对触摸输入进行解释。例如,如果用户用其食指触摸在触摸屏上显示的特定图标,则可以执行关于该特定图标的第一动作(例如,运行对应于该图标的应用)。然而,如果用户用其拇指触摸该特定图标,则可以替代地执行第二动作(例如,显示与该图标和/或应用相关联的选项菜单)。并且,可以基于所识别的手指或手指类型来调整输入的可接受位置。例如,设备可以从多个用户的数据或特定用户随着时间推移的使用数据,确定每次用户按压一个或多个特定键时特定的手指在特定方向未碰到该一个或多个特定键,可能由于用户握持设备而使得他们没在直视屏幕。
在一个实施方式中,计算机实现的方法包括:在移动计算设备处接收指示用户用指示器触摸了移动计算设备的触摸屏显示器的第一输入;以及基于除来自用户的对触摸屏显示器的触摸的信息外的信息来确定移动计算设备关于用户的位置。该方法还包括:至少基于所确定的移动计算设备关于用户的位置来将指示器识别为用户的特定的手指或手指类型;以及使用所识别的手指或手指类型来解释在移动计算设备的触摸屏显示器上的所接收的第一输入。
在另一个实施方式中,用于解释在移动计算设备上的触摸屏输入的系统包括:移动计算设备;以及移动计算设备的触摸屏显示器,其被配置成接收指示用户用指示器触摸了触摸屏显示器的输入。该系统还包括移动计算设备的位置提取模块,其被配置成基于除来自用户的对触摸屏显示器的触摸的信息外的信息来确定移动计算设备关于用户的位置。该系统进一步包括用于至少基于所确定的移动计算设备关于用户的位置来将指示器识别为用户的特定的手指或手指类型的装置。该系统另外包括移动计算设备的输入解释器,其被配置成使用用于识别的装置所识别的特定的手指或手指类型来解释在移动计算设备的触摸屏显示器上的所接收的输入。
在另一个实施方式中,计算机实现的方法包括:在移动计算设备处接收指示用户用指示器触摸了移动计算设备的触摸屏的第一输入;以及基于第一输入和与特定图形元素相关联的偏移信息,将第一输入识别为对应于在触摸屏上显示的特定图形元素。在该方法中,与图形元素相关联的偏移信息指示图形元素的输入区域从在触摸屏上显示图形元素的位置偏移的距离和方向。在该方法中,图形元素的输入区域包括在其内所接收的输入被移动计算设备注册为对应于该图形元素的区域。该方法进一步包括:在移动计算设备上执行与该特定图形元素相关联的动作;以及在执行该动作之后,基于在移动计算设备从用户接收的第二输入来确定用户是否意在第一输入对应于该特定图形元素。该方法另外包括:基于用户是否意在第一输入对应于该特定图形元素的确定,调整与该特定图形元素相关联的偏移信息。
在某些情况下,可以实现特定实施例来实现下面优势中的一个或多个。可以容易地识别在触摸屏上提供触摸输入的手指或手指类型。可以通过为与正提供触摸输入的特定的手指或手指类型相关联的位置触摸偏差进行校正,来增加在触摸屏上的触摸输入的准确性。用户可以基于触摸输入来指示触摸屏设备执行的动作的范围可以通过将动作与特定的手指或手指类型相关联来增加。可以在移动计算设备的正常运作期间,通过监视在特定的手指或手指类型已被识别为已触摸了触摸屏之后提供的输入来持续改进和精化手指模型。
在附图和下面的描述中阐述了一个或多个实施例的细节。本发明的其他特征、目的和优势从描述和附图以及从权利要求将是显而易见的。
附图说明
图1A-B是用于识别手指或手指类型并且使用所识别的手指或手指类型来解释触摸输入的示例系统的概念图。
图2是用于识别手指或手指类型并且使用所识别的手指或手指类型来解释触摸输入的示例系统的图。
图3A-C是示出用于使用参考图2描述的示例系统的组件来识别手指或手指类型并且解释触摸输入的示例技术的流程图。
图4A-E是用于确定移动计算设备关于用户的位置的示例移动计算设备的图。
图5A-B是示出用于解释用户所提供的触摸屏输入的示例技术的流程图。
图6A-E是描绘在触摸屏上的触摸偏差的示例的图。
图7图示了可以用来实现在本文档中描述的系统和方法的系统的概念图。
图8是可以用来实现在本文档中描述的系统和方法、作为客户端或作为服务器或多个服务器的计算设备的框图。
在各附图中,相同的参考符号指示相同的元素。
具体实施方式
本文档总体上描述了用于识别已触摸了移动计算设备(例如,移动电话、智能手机、PDA、便携式媒体播放器等)的触摸屏显示器的特定的手指(例如,右手拇指、右手食指、左手拇指等)或手指类型(例如,拇指、手指、食指等)的技术、方法、设备和系统。例如,如果用户使用该用户的右手食指来按压在移动计算设备的触摸屏显示器上显示的虚拟按钮,则移动计算设备可以识别来自该按钮按压的触摸输入由用户的右手食指提供。
在本文档中描述的技术、方法、设备和系统允许触摸输入被移动计算设备基于提供了输入的特定的手指或手指类型来不同对待。例如,取决于被识别为提供触摸输入的手指或手指类型,可以执行特定动作,而不是响应于触摸输入执行相同动作而不考虑提供了该触摸输入的手指或手指类型。例如,移动计算设备可以被配置成将来自用户的拇指和食指的触摸作为“点击左键”对待以及将所有其他触摸(中指、无名指和小指触摸)作为“点击右键”对待——允许用在触摸屏上的触摸输入模拟传统左和右鼠标点击功能性。
在另一个示例中,可以基于触摸了触摸屏的手指或手指类型来校正触摸偏差。触摸偏差可以是在用户触摸触摸屏显示器的实际位置和用户意在触摸的目标位置之间的差异。出于多种原因,用户可能很难在触摸屏上准确触摸目标位置,诸如目标位置在用户正触摸触摸屏时被用户的手指遮挡。取决于触摸触摸屏的手指或手指类型,触摸输入的触摸偏差可以是不同的。例如,当用户用其右手拇指触摸触摸屏时,用户可能在触摸屏上惯常地触摸屏幕从预期目标位置向右10个像素并且向下20个像素。相比之下,当用户用其左手食指触摸触摸屏时,用户可能在触摸屏上惯常地触摸屏幕从目标位置向左5个像素并且向上5个像素。
应用到触摸输入的校正可以随被识别为提供触摸输入的手指或手指类型和与所识别的手指或手指类型相关联的触摸偏差而变化。继续来自先前段落的示例,如果移动计算设备识别用户用其右手拇指在第一位置触摸了触摸屏,则移动计算设备可以通过将触摸输入注册为在从第一位置向左10个像素并且向上20个像素的第二位置,对与用户的右手拇指相关联的触摸偏差(从预期位置向右10个像素并且向下20个像素)进行校正。
手指或手指类型可以由移动计算设备基于多个因素的组合来识别,所述多个因素诸如用户正握持移动计算设备的方式、与触摸了触摸屏的指示器(例如,手指、手指类型)相关联的接触区域、指示器触摸触摸屏的压力水平等。例如,如果用户正将移动计算设备握持在其右手中,则该用户可能更可能用其左手食指和/或右手拇指触摸移动计算设备的触摸屏。在另一个示例中,如果来自触摸移动计算设备的触摸屏的指示器的接触区域相对较小(与当用户触摸触摸屏时的平均接触区域相比),则与用其拇指相比,可能更可能的是,用户用其手指(或指尖)触摸了触摸屏。在进一步示例中,如果来自触摸移动计算设备的触摸屏的指示器的压力水平相对较高(与和用户触摸相关联的平均压力水平相比),则与用其其他手指相比,可能更可能的是,用户用其拇指或食指触摸了移动计算设备的触摸屏。
如在下面更详细说明的,可以单独或组合使用这样的因素来识别触摸了移动计算设备的触摸屏的手指或手指类型。
可以另外使用与手指和手指类型相关联的模型来识别触摸了触摸屏的手指或手指类型。例如,与用户的右手拇指相关联的模型可以将与使用右手拇指来触摸移动计算设备的触摸屏相关联的特性识别为包括:用户将移动计算设备握持在其右手或两只手中、相对较大并且蛋形的接触区域、接触区域的取向趋于沿触摸屏向上从右到左(根据图形用户界面(GUI)在触摸屏上的取向)、相对较高的压力水平等。当移动计算设备接收与部分或全部这些特性相关联的触摸输入时,移动计算设备(单独或结合远程计算系统)可以识别从用户的右手拇指接收了触摸输入。
图1A-B是用于识别手指或手指类型并且使用所识别的手指或手指类型来解释触摸输入的示例系统100和150的概念图。示例系统100被描绘为识别用来触摸移动计算设备的触摸屏显示器的手指或手指类型,并且为与所识别的手指或手指类型相关联的触摸偏差对触摸输入进行校正。示例系统150被描绘为识别用来触摸移动计算设备的触摸屏的手指或手指类型,并且执行与所识别的手指或手指类型相关联的动作。
参考图1A,用户被描绘为用其左手食指106触摸移动计算设备104的触摸屏显示器102。该用户被描绘为将移动计算设备104握持在其右手108中并且试图触摸在触摸屏102上显示的图标109。
移动计算设备104可以是任何适当类型的移动计算设备,诸如移动电话、智能手机、PDA、便携式媒体播放器(例如,便携式视频游戏播放器、便携式音乐播放器、便携式电子阅读器)等。触摸屏102可以是能够接收触摸输入的多种适当类型的触摸屏中的任何一个,诸如电容触摸屏、电阻触摸屏、红外触摸屏等。
可以使用与触摸输入相关联的信息110来识别触摸了触摸屏102的手指(右手食指)或手指类型(手指、食指、右手上的手指等)。例如,信息110可以包括:移动计算设备104关于用户的位置(112a)、与触摸输入相关联的压力水平(112b)、与触摸输入相关联的接触区域(112c)、在触摸屏102上的触摸输入的形状(112d)、在触摸屏102上的触摸输入的取向(112e)。可以使用未包括在示例信息110中的、与触摸输入和/或移动计算设备104相关联的其他信息,来识别触摸了触摸屏102的手指或手指类型(例如,视觉信息(例如,来自相机的手指触摸触摸屏102的图像)、手势信息(例如,用户关于移动计算设备104作出的动作或运动)等)。
关于移动计算设备104的位置的信息112a可以指示关于移动计算设备104与用户的物理接近性的多种信息。例如,信息112a可以指示用户正如何握持移动计算设备104。例如,用户可以用其右手、左手、用两只手、不用手、用食指和拇指握持移动计算设备104、用所有手指和用户的拇指将移动计算设备104握持在用户的手的手掌中(如示例系统100中所描绘)等。在另一个示例中,信息112a可以指示移动计算设备104和/或触摸屏102关于用户的角度。例如,用户可以握持移动计算设备104,以使触摸屏102正面对并且平行于用户、以使触摸屏102垂直于用户、或关于用户的多种相关角度中的任何其他角度。
在为系统100描绘的示例中,信息112a指示用户正将移动计算设备104握持在其右手中。
关于与触摸输入相关联的压力水平的信息112b可以指示当用户在提供触摸输入时用户施加在触摸屏102上的力大小。例如,压力水平范围可以从可以通过对触摸屏102的较轻按压或轻敲生成的较低水平到可以通过用户紧紧挤压在其拇指和食指之间的移动计算设备104产生的较高水平。如示例100中所描绘,信息112b指示接收了具有“较高”压力水平的触摸输入。
关于与触摸输入相关联的接触区域的信息112c可以指示用户的手指106所接触的触摸屏102的区域。例如,在用户用其食指接触触摸屏102时的接触区域可能比与用户用其拇指触摸触摸屏102相关联的接触区域小。在示例100中,信息112c指示与手指106触摸触摸屏102相关联的“中等”接触区域。
关于触摸输入的形状的信息112d指示手指106所触摸的触摸屏102的区域的形状。例如,当用户用其拇指触摸触摸屏102时,作为结果的形状可以比当用户用其食指触摸触摸屏102时产生的形状宽。信息112d可以包括关于接触区域的形状的多种信息,诸如接触区域的长度和宽度、描出接触区域的边缘的数据点等。如示例系统100中所描绘,信息112d指示接触区域的轮廓。
关于触摸输入的取向的信息112e指示触摸输入关于在触摸屏102上显示的信息的取向。例如,对于与触摸屏102上的“显示文本”一致、正在移动计算设备104上显示的信息,手指106的取向从左到右、从接触区域的底部到顶部。
如在步骤114所描绘,使用部分或全部信息112a-e来识别用来触摸触摸屏102的手指或手指类型。可以从信息112a-e作出关于触摸了触摸屏102的手指或手指类型的各种推断。例如,(指定用户正握持移动计算设备104的)信息112a可以指示用户可能使用了其右手拇指或左手手指来触摸触摸屏102。(指定较高压力水平的)信息112b可以指示用户可能用其食指或拇指触摸了触摸屏102。(指定中等接触区域的)信息112c可以指示触摸了触摸屏102的手指可能是用户的食指、中指或无名指,而不是用户的拇指(较大接触区域)或小拇指(较小接触区域)。(指定接触区域的形状的)信息112d可以指示用户可能用其手指而不是其拇指触摸了触摸屏102。(指定触摸输入的取向的)信息112e可以指示用户可能用其左手触摸了触摸屏102。
当被组合时,从部分或全部信息112a-e作出的推断可以指示用户用其左手食指触摸了触摸屏102。例如,基于位置信息112a、压力信息112b和取向信息112e,可以将左手食指识别为触摸了触摸屏102的指示器。从位置信息112a,可以将指示器变窄到用户的右手拇指或用户的左手手指中的一个中的一个。指示器从压力信息112b可以进一步被变窄到用户的右手拇指或左手食指,并且可以从取向信息112e被识别为左手食指。可以单独或以各种组合使用信息112a-e以及未包括在该示例系统100中的其他信息来识别触摸了触摸屏102的手指或手指类型。
作为步骤114的一部分,可以另外使用手指模型116来识别触摸了触摸屏102的手指或手指类型。手指或手指类型的模型定义与来自手指或手指类型的触摸输入相关联的信息112a-e的各种值。例如,用户的左手食指的模型可以为信息112a-e指定下面值:对于位置信息112a,移动计算设备110被握持在用户的右手中;对于压力信息112b,中等或较高压力水平;对于接触区域信息112c,中等接触区域;对于形状信息112d,长方形;以及对于取向信息112e,左到右取向。可以将手指模型116与触摸屏信息112a-e进行比较来识别提供了触摸屏输入的手指或手指类型。
手指模型116可以是特定于用户的,因为用于第一用户的手指模型可以不同于用于第二用户的手指模型。可以基于关于用户的触摸输入和手指识别,学习并持续更新手指模型116。例如,如果用户触摸了触摸屏102,并且不正确地识别了手指或手指类型,则可以基于与触摸输入相关联的信息来调整与不正确地识别的手指或手指类型相关联的模型。可以基于用户继手指或手指类型识别之后所采取的动作来检测不正确的识别。例如,不正确的识别可以通过用户取消或修改与所识别的手指或手指类型相关联地执行的动作来指示。例如,如果移动计算设备104响应于被识别为从用户的小拇指接收的触摸输入而显示菜单,并且响应于显示该菜单,用户从该菜单立即返回到先前屏幕来提供相似触摸输入,则可以将对小拇指的识别标记为不正确,并且可以相应调整与小拇指相关联的模型。
步骤114可以由移动计算设备104单独或结合远离移动计算设备104的计算系统(未描绘)执行。例如,移动计算设备104可以通过网络(例如,无线网络、蜂窝网络、3G网络、4G网络等)向远程计算系统提供部分或全部信息112a-e(或用来确定信息112a-e的数据)以执行手指或手指类型识别。类似地,部分或全部手指模型116可以由远程计算系统维护。为特定用户对手指模型116的远程维护可以允许为该特定用户在移动计算设备104上学习的手指模型116在其他计算设备上被使用。例如,可以跨通过触摸屏显示器接收输入的智能手机和膝上型计算机共享手指模型116,以及这样的协同可以在用户登录每一个相应设备时通过该两个设备的用户的在线账户发生。
在示例系统100中,为与所识别的手指相关联的触摸偏差校正触摸屏输入(步骤118)。如上所述,触摸偏差是在用户实际触摸触摸屏102的位置和用户试图触摸的目标位置之间的差异。触摸偏差可以随提供了触摸输入的手指或手指类型而变化。例如,用户的右手拇指的触摸偏差可以是与用户的左手食指的触摸偏差不同的量和/或方向。
如示例图119中所描绘,用户正试图触摸图标109——触摸屏102上的目标位置。用户触摸在图标109的左边的位置120(实际触摸位置),而不是触摸图标109。在该示例中,与用户的所识别的手指(左手食指)相关联的触摸偏差由ΔX 122和ΔY124指示——意为接收自用户的左手食指的触摸输入一般偏离触摸屏102上的预期目标ΔX 122和ΔY 124。因此,实际触摸位置120(或图标109)的坐标可以通过ΔX 122和ΔY124校正,以使实际触摸位置120与触摸屏102上的预期目标一致。偏差校正图标126描绘了根据所识别的手指的触摸偏差ΔX 122和ΔY 124对触摸输入(或在触摸屏102上显示的图形元素)的调整可以如何将触摸输入的实际位置120调整成预期触摸目标(图标109)。
参考图1B,示例系统150说明了基于被识别为提供触摸输入的手指或手指类型对不同动作的执行。在示例系统150中,用户被描绘为使用其左手食指在显示的“照片”图标156上触摸移动计算设备154的触摸屏152。该用户被描绘为将移动计算设备握持在其右手160中。
使用在上面参考图1A论述的用于识别手指的信息和技术,将触摸输入识别为由用户的食指提供(步骤162)。
在步骤164,执行与用户的食指和“照片”图标156相关联的动作。图形元素(例如,图标、按钮、键、文本域、图像、链接、菜单、视频、桌面背景等)每一个可以与各种动作(如同传统上与右和左鼠标点击相关联的动作)相关联(例如,在图标上点击左键可以促使程序加载与该图标相关联的文档,以及在图标上点击右键可以展现与该文档有关的选项菜单,诸如复制、删除、重命名等)。这些动作可以另外与手指或手指类型相关联,使得可以基于被识别为提供与图形元素有关的触摸输入的手指或手指类型来执行特定动作。例如,用食指触摸图标156可以促使与图标156相关联的第一动作被执行,用拇指触摸图标156可以促使第二动作被执行,以及用小拇指触摸图标156可以促使第三动作在移动计算设备154上被执行。
在所描绘的示例中,与来自食指的触摸输入和图标156相关联的动作促使移动计算设备154显示照片166。
相比之下,当用户用其小拇指168触摸在移动计算设备154的触摸屏152上显示的图标156时,执行不同的动作。响应于接收触摸输入,在步骤170将用户的小拇指识别为已触摸了触摸屏152。在步骤172,执行与小拇指和图标156相关联的动作。在该示例中,与来自小拇指的触摸输入和图标156相关联的动作促使移动计算设备154显示与在移动计算设备154上显示照片有关的照片选项集174。
图2是用于识别手指或手指类型并且使用所识别的手指或手指类型来解释触摸输入的示例系统200的图。系统200类似于在上面参考图1A-B描述的系统100和150。该系统包括带有触摸屏204的移动计算设备202,类似于参考图1A-B描述的移动计算设备104和154。移动计算设备202通过用户用指示器(例如,手指、拇指等)触摸触摸屏204,从用户接收触摸输入。基于该触摸输入,移动计算设备202能够识别触摸了触摸屏204的手指或手指类型,并且根据所识别的手指或手指类型来解释该触摸输入。
触摸屏204(例如,电容触摸屏、电阻触摸屏、红外触摸屏等)是被配置成为移动计算设备202接收输入的移动计算设备202的输入子系统206的一部分。触摸屏204被描绘为包括压力传感器208和接触区域模块210。压力传感器208可以是能够与触摸屏显示器集成或组合在一起的多种适当压力传感器中的任何一个,诸如安装在触摸屏204的表面下面、被配置成基于施加在触摸屏204上的力大小来接收压力读数的压力传感器。压力传感器208可以提供关于施加到触摸屏204的力大小的测量,其可以指示与用户触摸触摸屏204相关联的压力水平。接触区域模块210测量用户所触摸的触摸屏204的区域,并且提供指示与触摸输入相关联的接触区域和/或形状的数据。
除触摸屏204外,所描绘的输入子系统206包括取向和运动传感器212、光传感器214、相机216、设备主体触摸传感器218和网络接口220。取向和运动传感器212可以提供关于移动计算设备202的取向(例如,面向北方、竖立放置(垂直于地面)等)和/或运动(例如,静止、加速向前、以较高速率行进等)的测量。取向和运动传感器212可以是能够提供这样的测量的多种传感器中的任何一个,诸如陀螺仪、加速度计、指南针、全球定位系统(GPS)单元等。
光传感器214可以被放置在移动计算设备202的外部,并且测量环境光量。光传感器214所提供的测量可以指示移动计算设备202的部分是否被用户的手的部分遮盖(例如,用户正握持移动计算设备202的方式在使光传感器214被遮盖)。可以使用相机216来捕捉用户握持和/或触摸触摸屏204的图像和/或视频。可以对所捕捉的图像和/或视频进行分析,以确定移动计算设备202相对于用户的位置和/或识别触摸了触摸屏204的手指或手指类型。
设备主体触摸传感器218是可以在移动计算设备202的主体四周被配置成捕捉与用户正握持移动计算设备202的方式有关的触摸输入的触摸传感器。在图4A-C中提供了设备主体触摸传感器218的示例。
网络接口220与对移动计算设备202是外部的计算系统进行交互,以发送并接收电子信息。网络接口220可以是能够通过网络(例如,局域网(LAN)、因特网、无线网络、对等网络、蜂窝网络、3G网络等)发送并接收信息的多种适当联网接口(例如,以太网卡、无线网卡、蜂窝发射机等)中的任何一个。
可以将通过移动计算设备202的输入子系统206接收的输入提供给接触区域提取模块222、压力水平提取模块224以及位置提取模块226。接触区域提取模块222可以使用从输入子系统206接收的输入来确定与用户触摸触摸屏204相关联的接触区域、形状和/或取向。例如,接触区域提取模块222可以使用触摸屏204和接触区域模块210所提供的信息来确定与触摸输入相关联的接触区域、形状和/或取向。
压力水平提取模块224从输入子系统206所提供的信息,诸如从压力传感器208接收的测量,确定与用户触摸移动计算设备202的触摸屏204相关联的压力水平。
位置提取模块226基于输入子系统206所提供的信息,诸如从取向和运动传感器212、光传感器214、相机216和/或设备主体触摸传感器218接收的测量,来确定移动计算设备202相对于提供了触摸输入的用户的位置。例如,位置提取模块226可以使用通过设备主体触摸传感器218接收的输入来确定用户正如何握持移动计算设备202。在另一个示例中,位置提取模块226可以使用通过取向和运动传感器212接收的输入来确定移动计算设备202关于周围环境的取向。在进一步示例中,位置提取模块226可以使用来自相机216的输入来关于移动计算设备202视觉上定位用户。
模型生成模块228使用接触区域提取模块222、压力水平提取模块224和/或位置提取模块226所确定的信息为特定的手指或手指类型生成模型。如在上面参考图1A所描述,手指模型可以为手指或手指类型定义输入值,并且可以用来识别触摸了触摸屏204的手指或手指类型。模型生成模块228可以在为移动计算设备202训练模型期间以及在移动计算设备202的正常运作期间,生成并更新模型。训练模式可以是在其期间要求用户将所接收的触摸输入识别为是特定的手指或手指类型的操作模式。可以将模型存储在手指模型库230中,手指模型库230可以存储对移动计算设备202是本地和/或远离的手指模型。凭借诸如移动设备服务器系统231的远程计算系统的帮助,可以存储远离移动计算设备202的手指模型。
手指分类器232也可以使用接触区域提取模块222、压力水平提取模块224和/或位置提取模块226所确定的信息来识别触摸了触摸屏204的手指或手指类型。手指分类器232可以使用来自模块222-226的信息来推断提供了触摸输入的手指或手指类型,类似于在上面参考图1A所提供的对手指识别的描述。手指分类器232可以使用来自手指模型库232的手指模型来识别提供了触摸输入的手指或手指类型。
输入解释器234使用手指分类器232对手指或手指类型的识别来解释触摸屏204所接收的触摸输入。输入解释器234包括偏差校正模块236和基于手指的特征模块238。偏差校正模块236为与所识别的手指或手指类型相关联的触摸偏差校正触摸输入,类似于在上面参考图1A所描述的偏差校正。基于手指的特征模块238执行与用户所触摸的图形元素和所识别的手指或手指类型相关联的各种动作,类似于在上面参考图1B所描述的动作。输入解释器234可以使用偏差校正模块236和/或基于手指的特征模块238来解释触摸输入。
输出子系统240基于输入解释器234对所接收的触摸输入的解释向移动计算设备202的用户提供输出。例如,输出子系统240可以促使触摸屏204基于与所识别的手指或手指类型相关联的动作来显示照片166或照片选项174,如参考图1B所描述。输出子系统240可以包括用于向移动计算设备202的用户提供输出的多种设备,诸如显示器242(其可以作为触摸屏204的一部分被包括)、扬声器244和投影仪246。
移动计算设备202可以与无线发射机248(例如,蜂窝网络收发器、无线网络路由器等)无线通信,并且获取对网络250(例如,因特网、公共交换电话网络(PSTN)、蜂窝网络、局域网(LAN)、虚拟专用网络(VPN)等)的访问。通过网络250,移动计算设备202可以与移动设备服务器系统231(一个或多个联网的服务器计算机)通信,移动设备服务器系统231可以被配置成向移动设备202提供移动设备相关服务和数据(例如,提供日历数据、电子邮件数据、将电话呼叫连接到其他电话等)。通过无线发射机248和网络250,移动设备服务器系统231可以实现在上面关于移动计算设备202描述的部分特征,诸如使用存储在手指模型库230中的手指模型来识别手指或手指类型。
图3A-C是示出用于使用参考图2描述的示例系统200的组件来识别手指或手指类型和/或解释触摸输入的示例技术300、330和360的流程图。示例技术300描绘了基于来自用户的触摸输入来构建手指模型。示例技术330描绘了使用可以使用技术300生成的手指模型来识别提供了触摸输入的手指或手指类型。示例技术360描绘了为与可以使用技术330识别的手指或手指类型相关联的触摸偏差校正触摸输入。
参考图3A,技术300以用户用手指n触摸触摸屏(例如,触摸屏204)(步骤302)开始。将与用户触摸触摸屏相关联的输入提供给分别确定与触摸输入相关联的接触区域、与触摸输入相关联的压力水平和移动计算设备(例如,移动计算设备202)关于用户的位置的接触区域提取模块222、压力水平提取模块224和位置提取模块226中的一个或多个。模型生成模块228使用模块222-226中的一个或多个所确定的信息来为手指n生成模型304。可以将手指n的模型304存储在手指模型库(例如,手指模型库230)中以在基于触摸输入识别手指,诸如与技术330一起执行的识别时使用。
参考图3B,技术330以用户用手指触摸触摸屏(步骤332)开始。将与用户触摸触摸屏相关联的输入提供给分别确定与触摸输入相关联的接触区域、与触摸输入相关联的压力水平和移动计算设备关于用户的位置的接触区域提取模块222、压力水平提取模块224和位置提取模块226中的一个或多个。手指分类器232可以使用模块222-226所确定的信息和存储在手指模型库230中的手指模型(包括在技术300中为手指n生成的手指模型304)来识别用户已用手指n触摸了触摸屏(步骤334)。
参考图3C,技术360以用户在触摸屏上的位置(x,y)触摸触摸屏(步骤362)开始。可以使用技术330的手指识别模块364识别触摸屏被手指n触摸。使用为触摸输入识别的手指n,偏差校正模块236基于与手指n相关联的触摸偏差为触摸输入校正位置(x,y)。在该示例中,与手指n相关联的触摸偏差是(Δxn,Δyn),其中Δxn是手指n在触摸屏上的x偏移,Δyn是手指n在触摸屏上的y偏移。基于手指n的偏差校正,为在位置(x,y)的触摸输入确定实际目标位置(x-Δxn,y-Δyn)(步骤366)。
图4A-E是用于确定移动计算设备关于用户的位置的示例移动计算设备的图。图4A-C描绘了包括嵌入在移动计算设备的主体上的触摸传感器402,诸如在上面参考图2描述的设备主体触摸传感器218,的移动计算设备400。触摸传感器402可以是多种适当触摸传感器中的任何一个,诸如电容触摸传感器。移动计算设备400类似于在上面分别参考图1A、1B和2描述的移动计算设备104、154和202。
图4A提供了带有围绕设备400的周边被包括的触摸传感器402的移动计算设备400的正视图。设备400上的触摸传感器402的示例模式允许确定用户正握持的移动计算设备400的部分,其可以指示移动计算设备400关于用户的位置。例如,如果触摸传感器402提供分别位于移动计算设备400的右侧和左侧的部分404和406正被用户触摸,则其可能指示用户正用其右手握持设备——用户的手掌和右手拇指可能正触摸部分404并且用户的右手手指中的一个或多个可能正触摸部分406。在另一个示例中,如果触摸传感器提供分别位于移动计算设备400的顶部和底部的部分408和410正被用户触摸,则其可能指示用户正用两只手横向握持设备400——用户的一只手正触摸部分408并且另一只手正触摸部分410。
图4B描绘了移动计算设备400和触摸传感器402的透视图。触摸传感器402可以跨越移动计算设备400的部分或全部侧面。图4B将示例触摸传感器402描绘为沿移动计算设备400的整侧向下延伸。可以使用触摸传感器402的其他模式和/或置放。
图4C描绘了移动计算设备400的背面的视图。在该示例中,触摸传感器402围绕移动计算设备400的周边被放置。可以使用多种适当触摸屏模式和/或设计中的任何一个。
图4D-E描绘了握持带有包括在设备的主体中的触摸传感器的移动计算设备的用户所提供的触摸输入的示例图420和440。可以使用在示例图420和440中提供的触摸输入来确定移动计算设备关于用户的位置。
参考图4D,示例图420描绘了带有正显示菜单和两个图标的触摸屏424的移动计算设备422。用户被示出为既用其右手426又用其左手428横向握持设备422。包括在设备422的主体中的触摸传感器(例如,触摸传感器402)的部分430可以指示用户正触摸设备的右侧(当设备被横向握持时)。另外,触摸屏424的部分432可以指示用户的右手拇指的部分正远离预期接触点433触摸触摸屏424。包括在设备422的主体中的触摸传感器的部分434和触摸屏424的部分436可以指示用户正触摸设备的左侧。基于正被用户触摸的部分430、432、434和436,可以将移动计算设备422的位置确定为正被用户用两只手握持。
参考图4E,示例图440描绘了包括显示与触摸屏424相同的菜单和图标的触摸屏444的移动计算设备442。用户被示出为用其右手拇指446和右手手指448-454握持设备442。包括在设备442的主体中的触摸传感器可以指示设备的部分456和460正被用户触摸。另外,触摸屏444可以指示触摸屏的部分458和462正被用户触摸。基于被指示为正被用户触摸的部分456-462,可以将移动计算设备442关于用户的位置确定为用户将移动计算设备442握持在其右手中。
图5A-B是示出用于解释用户所提供的触摸屏输入的示例技术500和550的流程图。示例技术500针对识别手指或手指类型,并且使用所识别的手指或手指类型来解释触摸输入。示例技术550针对根据与图形元素相关联的触摸偏差解释对应于该图形元素的触摸输入。示例技术500和550可以使用多种适当计算系统和/或移动计算设备中的任何一个,诸如在上面分别参考图1A、1B、2、4A-C、4D和4E描述的移动计算设备104、154、202、400、422和444,来执行。
参考图5A,技术500在步骤502以接收指示用户触摸了移动计算设备的触摸屏的第一输入开始。例如,用户用其左手食指106触摸移动计算设备104的触摸屏102,如在上面参考图1A所描述。可以确定移动计算设备关于用户的位置(步骤504),可以确定触摸触摸屏的压力水平(步骤506),和/或可以确定触摸的接触区域(步骤508)。例如,步骤504-506可以分别由位置提取模块226、压力水平提取模块224和接触区域提取模块222执行,如在上面参考图2所描述。
访问对应于手指或手指类型的一个或多个模型(步骤510)。例如,可以从手指模型库230检索手指模型,如在上面参考图2所描述。将触摸了触摸屏的指示器识别为特定的手指或手指类型(步骤512)。例如,在步骤114中识别触摸了移动计算设备104的触摸屏102的手指,如在上面参考图1A所描述。使用所识别的手指或手指类型来解释第一输入(步骤514)。例如,在步骤118中,通过为与所识别的手指相关联的触摸偏差进行校正来解释触摸屏输入,如参考图1A所描述。在另一个示例中,在步骤164和172中,通过执行与所识别的手指相关联的动作来解释触摸屏输入,如在上面参考图1B所描述。
在一些实施方式中,可以提供指示已基于第一触摸输入识别了特定的手指或手指类型的输出(步骤516)。例如,如果移动计算设备处于训练模式,则移动计算设备可以显示识别从第一输入识别的特定的手指或手指类型的信息。另外,移动计算设备可以显示向用户要求关于是否正确地识别了手指或手指类型的输入的信息。可以基于用户的对这样的识别询问的响应来调整与所识别的手指或手指类型相关联的模型。
响应于将第一输入解释为所识别的手指或手指类型而接收第二输入(步骤518)。第二输入可以是触摸输入或某个其他类型的输入(例如,用户摇动设备、用户按压移动计算设备上的按钮或键、用户提供音频输入等)。可以基于第二输入来作出是否将指示器正确地识别为特定的手指或手指类型的确定(步骤520)。基于是否确定指示器已被正确地识别为特定的手指或手指类型来更新一个或多个模型(步骤522)。
例如,假设用户用其食指158触摸移动计算设备154的触摸屏152,并且触摸输入被不正确地识别为用户的小拇指168。响应于该识别,移动计算设备154不正确执行与小拇指168相关联的动作,并且向用户展现照片选项174。响应于接收错误屏幕,用户可以提供促使设备回到菜单156,以使用户能够提供将促使设备154展现照片166的输入的第二输入。第二输入可以是与在此示例有关的任何种类的输入,诸如用户触摸在触摸屏上显示的菜单按钮、摇动设备以“取消”先前动作、按压在设备154的主体上的按钮或键等。可以将第二输入识别为指示用户不想查看照片选项174,并且因此,指示器被不正确地识别为是用户的小拇指。可以根据不正确识别对与小拇指168和/或食指158相关联的手指模型进行更新。
在替选示例中,假设响应于用用户的小拇指168触摸触摸屏152向用户展现照片选项174,并且用户前进到与照片选项174交互(例如,将幻灯片从开改变成关)。在该示例中,用户的动作可以指示用户想要查看照片选项174,并且因此,小拇指从第一输入被正确地识别。可以基于第一输入对小指的手指模型进行更新来指示正确识别。
参考图5B,技术550在步骤552以接收指示用户触摸了移动计算设备的触摸屏的第一输入开始。例如,用户用其左手食指106触摸移动计算设备104的触摸屏102,如在上面参考图1A所描述。在一些实施方式中,将触摸了触摸屏的指示器识别为特定的手指或手指类型(步骤554)。例如,在步骤114,识别触摸了移动计算设备104的触摸屏102的手指,如在上面参考图1A所描述。
可以基于与特定图形元素相关联的偏移信息将第一输入识别为对应于在触摸屏上显示的该特定图形元素(步骤556)。图形元素(例如,键、按钮、文本域、图像等)可以具有用来将触摸输入与图形元素正确关联的相关联的触摸偏差。例如,在触摸屏上显示的第一和第二图形元素可以具有指示与第一图形元素相关联的用户触摸偏向左边以及第二图形元素的用户触摸偏向右边的触摸偏差。当接收触摸输入时,可以对图形元素的活动区域(在其中为图形元素接收触摸输入的区域)进行变换以为与该图形元素相关联的触摸偏差进行校正(例如,将图标109的活动区域变换成偏差校正图标126)。可以使用在触摸屏上显示的图形元素的偏差校正活动区域,将触摸输入识别为对应于该图形元素。
与图形元素相关联的触摸偏差可以特定于所识别的手指或手指类型。例如,与图形元素相关联的触摸偏差可以随正触摸该图形元素的手指或手指类型而改变。在另一个示例中,对于位于触摸屏上的各种位置的图形元素,手指或手指类型的触摸偏差可以不同。
还可以为部分或全部手指/手指类型总计触摸偏差。例如,图形元素可以具有用于为所有手指/手指类型处理输入的单个触摸偏差,而不是具有与各种手指/手指类型相关联的触摸偏差。
可以执行与被识别为对应于第一输入的特定图形元素相关联的动作(步骤558)。例如,基于位于偏差校正图标126(图标109的偏差校正活动区域)内的触摸输入120,可以执行与图标109相关联的动作,如在上面参考图1A所描述。
可以基于所接收的第二输入,作出关于用户是否意在触摸特定图形元素的确定(步骤560)。类似于在上面参考图5A描述的步骤518-520,所接收的第二输入可以指示用户是否意在第一输入对应于特定图形元素。可以基于该确定来调整与特定图形元素相关联的偏移信息(步骤562)。如同在上面参考图5A描述的步骤522,可以基于第一输入是被正确还是不正确地识别为对应于特定图形元素,来调整与该特定图形元素相关联的触摸偏差信息。
图6A-E是描绘在触摸屏上的触摸偏差的示例的图。图6A描绘了示出当用户将移动计算设备握持在其右手中时来自右手拇指的触摸输入的示例触摸偏差的图600。对于图形元素602,触摸输入604偏向图形元素602的右边(ΔX1 606)和下边(ΔY1 608)。以触摸偏差(ΔX1 606和ΔY1 608)校正来自用户的右手拇指的触摸输入(当将移动设备握持在用户的右手中时)使触摸输入604的大部分落在用于图形元素602的偏差校正的图形元素610内。
类似于图600,图6B描绘了示出当用户将移动计算设备握持在其左手中时来自右手食指的触摸输入的示例触摸偏差的图620。对于图形元素622,触摸输入624偏向图形元素622的右边(ΔX2 626)和下边(ΔY2 628)。以触摸偏差(ΔX2 626和ΔY2 628)校正来自用户的右手食指的触摸输入(当将移动设备握持在用户的左手中时)使触摸输入624的大部分落在用于图形元素622的偏差校正的图形元素630内。
如图6A-B的并置所指示,与手指相关联的触摸偏差可以变化。例如,与用户的右手食指相关联的触摸偏差(ΔX2 626和ΔY2 628)被描绘为小于与用户的右手拇指相关联的触摸偏差(ΔX1 606和ΔY1 608)。
图6C描绘了跨移动计算设备644的触摸屏642一致的示例触摸偏差的图640。例如,应用到图形元素646的偏差校正(导致偏差校正的图形元素648)被描绘为与应用到图形元素650的偏差校正(导致偏差校正的图形元素652)基本上相同。可以在多种情况下使用一致的触摸偏差,诸如当所识别的手指或手指类型具有独立于移动计算设备644的原点时。
例如,当用户正用其左手握持移动计算设备644并且用其右手食指触摸触摸屏642时,基于用户的右手没在握持设备644,右手食指的原点独立于移动计算设备644。相比之下,用户用其左手拇指触摸设备644,同时还用其左手握持设备,在这种情况下,左手拇指的原点将不独立于设备644——左手拇指的原点大约固定在设备644的左下角附近。
图6D描绘了跨移动计算设备664的触摸屏662不一致的示例触摸偏差的图660。例如,应用到图形元素666的偏差校正(导致偏差校正的图形元素668)被描绘为大于应用到图形元素670的偏差校正(导致偏差校正的图形元素672)。可以在多种情况下使用不一致的触摸偏差,诸如当所识别的手指或手指类型具有不独立于移动计算设备644的原点时。例如,在图660中描绘的触摸偏差的不一致分布可以由用户在将设备664握持在其右手中时使用其右手拇指来触摸触摸屏662产生。最远离原点的图形元素(图形元素666)可以与最大触摸偏差相关联,以及最接近于原点的图形元素(图形元素670)可以与最小触摸偏差相关联。
图6E描绘了跨移动计算设备684的触摸屏682不一致的另一个示例触摸偏差的图680。例如,应用到图形元素686的偏差校正(导致偏差校正的图形元素688)被描绘为与应用到图形元素690的偏差校正(导致偏差校正的图形元素692)在大小和方向上不同。可以在多种情况下应用这种类型的不一致偏差校正,诸如每一个图形元素(例如,图形元素686和690)具有独立的触摸偏差,如在上面参考图5B所描述。
现参考图7,图示了可以用来实现在本文档中描述的系统和方法的系统的概念图。移动计算设备710可以与基站740无线通信,基站740可以通过网络750向移动计算设备提供对许多服务760的无线访问。
在该图示中,移动计算设备710被描绘为包括用于向移动计算设备710的用户展现内容的触摸屏显示设备712的手持式移动电话(例如,智能手机或应用电话)。移动计算设备710包括用于接收影响移动计算设备710的操作的用户输入的各种输入设备(例如,键盘714和触摸屏显示设备712)。在进一步实施方式中,移动计算设备710可以是膝上型计算机、平板计算机、个人数字助理、嵌入式系统(例如,汽车导航系统)、台式计算机或计算机化工作站。
移动计算设备710可以包括各种视觉、听觉和触觉用户输出机制。示例视觉输出机制是显示设备712,其可以视觉上显示组合来提供可见用户界面的视频、图形、图像和文本。例如,显示设备712可以是3.7英寸AMOLED屏幕。其他视觉输出机制可以包括LED状态灯(例如,在已接收了语音邮件时闪烁的灯)。
示例触觉输出机制是被连接到不平衡重量以提供振动警示(例如,振动以向用户警示进入的电话呼叫或确认用户与触摸屏712的接触)的较小电动机。进一步,移动计算设备710可以包括将电子信号转换成声音,例如音乐、可听见警示、或电话呼叫中个人的语音,的一个或多个扬声器720。
用于接收用户输入的示例机制包括键盘714,其可以是全键盘或包括数字“0-7”、“*”和“#”键的传统小键盘。当用户物理上接触或压下键盘键时,键盘714接收输入。用户对追踪球716的操纵或与触控板的交互使用户能够向移动计算设备710供给方向和转率信息(例如,以操纵光标在显示设备712上的位置)。
移动计算设备710可以能够确定与触摸屏显示设备712的物理接触的位置(例如,通过手指或触针的接触位置)。使用触摸屏712,可以产生各种“虚拟”输入机制,其中用户通过接触图形用户界面元素来与在触摸屏712上描绘的图形用户界面元素交互。“虚拟”输入机制的示例是“软键盘”,其中在触摸屏上显示键盘,并且用户通过按压触摸屏712的对应于每一个键的区域来选择键。
移动计算设备710可以包括机械或触敏按钮718a-d。另外,移动计算设备可以包括用于调整一个或多个扬声器720输出的音量的按钮和用于开关移动计算设备的按钮。麦克风722允许移动计算设备710将可听见声音转换成可以被数字编码并存储在计算机可读存储器中、或被传输给另一个计算设备的电子信号。移动计算设备710还可以包括数字指南针、加速度计、接近传感器和环境光传感器。
操作系统可以提供在移动计算设备的硬件(例如,输入/输出机制和执行从计算机可读介质检索到的指令的处理器)和软件之间的接口。示例操作系统包括ANDROID移动设备平台;APPLE IPHONE/MAC OS X操作系统;MICROSOFT WINDOWS 7/WINDOWS MOBILE操作系统;SYMBIAN操作系统;RIM BLACKBERRY操作系统;PALM WEB操作系统;多种UNIX特点的操作系统;或用于计算机化设备的专有操作系统。操作系统可以为对便于在计算设备和用户之间的交互的应用程序的执行提供平台。
移动计算设备710可以用触摸屏712展现图形用户界面。图形用户界面是一个或多个图形界面元素的集合,并且可以是静态的(例如,显示显现为在一段时间内仍然是相同的)、或可以是动态的(例如,图形用户界面包括在没有用户输入的情况下动画化的图形界面元素)。
图形界面元素可以是文本、线条、形状、图像或其组合。例如,图形界面元素可以是在桌面上显示的图标和该图标的相关联文本。在一些示例中,图形界面元素是以用户输入可选的。例如,用户可以通过按压触摸屏的对应于图形界面元素的显示的区域,来选择该图形界面元素。在一些示例中,用户可以操纵追踪球来使单个图形界面元素高亮作为获得焦点。图形界面元素的用户选择可以调用经由移动计算设备的预定义动作。在一些示例中,可选图形界面元素进一步或替选地对应于键盘704上的按钮。按钮的用户选择可以调用预定义动作。
在一些示例中,操作系统提供在打开移动计算设备710、将移动计算设备710从睡眠状态激活时、在对移动计算设备710“解锁”时、或在接收“主页”按钮718c的用户选择时显示的“桌面”用户界面。桌面图形界面可以显示当以用户输入选择时,调用对应应用程序的若干图标。调用的应用程序可以展现替代桌面图形界面的图形界面,直到该应用程序终止或被隐藏看不见。
用户输入可以操纵一序列移动计算设备710操作。例如,单个动作用户输入(例如,对触摸屏的单个轻敲、划过触摸屏、与按钮接触或同时这些的组合)可以调用改变用户界面的显示的操作。在没有用户输入的情况下,用户界面在特定时间可能没有改变。例如,与触摸屏712的多触用户输入可以调用地图应用来“放大”位置,尽管该地图应用可能默认在若干秒之后放大。
桌面图形界面还可以显示“小组件”。小组件是与已被执行的应用程序相关联、并且在受执行的应用程序控制的桌面内容上显示的一个或多个图形界面元素。与可以直到用户选择对应图标才被调用的应用程序不同,小组件的应用程序可以以移动电话开始。进一步,小组件可以不取得全显示的焦点。替代地,小组件可以仅“拥有”桌面的一小部分,显示内容并且接收在桌面的该部分内的触摸屏用户输入。
移动计算设备710可以包括一个或多个位置识别机制。位置识别机制可以包括向操作系统和应用程序提供移动电话的地理位置的估计的硬件和软件集合。位置识别机制可以利用基于卫星的定位技术、基站发射天线识别、多基站三角测量、因特网接入点IP位置确定、基于搜索引擎查询对用户的位置的推断识别、以及用户供给的对位置的识别(例如,通过在位置“登记”)。
移动计算设备710可以包括其他应用模块和硬件。呼叫处理单元可以接收进入电话呼叫的指示,并且向用户提供接听进入电话呼叫的能力。媒体播放器可以允许用户收听音乐或播放电影,其被存储在移动计算设备710的本地存储器中。移动电话710可以包括数码相机传感器,以及对应的图像和视频捕捉和编辑软件。因特网浏览器可以使用户能够通过键入对应于网页的地址或选择到网页的链接来查看来自该网页的内容。
移动计算设备710可以包括与基站740无线传送信息的天线。基站740可以是使移动计算设备710能够随着地理移动移动计算设备而维持与网络750的通信的基站集合(例如,移动电话蜂窝网络)中的许多基站中的一个。计算设备710可以替选地或另外通过Wi-Fi路由器或有线连接(例如,以太网、USB或FIREWIRE)与网络750通信。计算设备710还可以使用蓝牙协议与其他计算设备无线通信、或可以利用自组无线网络。
运作基站网络的服务提供商可以将移动计算设备710连接到网络750,以使得在移动计算设备710和提供服务760的其他计算机化设备之间能够进行通信。尽管可以通过不同网络(例如,服务提供商的内部网络、公共交换电话网络和因特网)提供服务760,然而,网络750被图示为单个网络。服务提供商可以运作在移动计算设备710和与服务760相关联的计算设备之间路由信息分组和语音数据的服务器系统752。
网络750可以将移动计算设备710连接到公共交换电话网络(PSTN)762,以在移动计算设备710和另一个计算设备之间建立语音或传真通信。例如,服务提供商服务器系统752可以从PSTN 762为移动计算设备710接收进入呼叫的指示。相反,移动计算设备710可以将发起和与通过PSTN 762可接入的设备相关联的电话号码的电话呼叫的通信发送给服务提供商服务器系统752。
网络750可以将移动计算设备710与通过IP网络而不是PSTN路由语音通信的因特网协议电话(VoIP)服务764连接。例如,移动计算设备710的用户可以调用VoIP应用并且使用该程序来发起呼叫。服务提供商服务器系统752可以将来自呼叫的语音数据转送给VoIP服务,其可以通过因特网将该呼叫路由到对应计算设备,潜在将PSTN用于该连接的最后一段。
应用存储766可以向移动计算设备710的用户提供浏览用户可以通过网络750下载并且安装在移动计算设备710上的远程存储的应用程序列表的能力。应用存储766可以用作第三方应用开发者所开发的应用库。安装在移动计算设备710上的应用程序可以能够通过网络750与为该应用程序指定的服务器系统通信。例如,VoIP应用程序可以从应用存储766被下载,使用户能够与VoIP服务764通信。
移动计算设备710可以通过网络750访问因特网768上的内容。例如,移动计算设备710的用户可以调用向在指定的统一资源位置可访问的远程计算设备请求数据的web浏览器应用。在各种示例中,部分服务760通过因特网可访问。
移动计算设备可以与个人计算机770通信。例如,个人计算机770可以是移动计算设备710的用户的家用计算机。因此,用户可以能够流送来自其个人计算机770的媒体。用户还可以查看其个人计算机770的文件结构,并且在计算机化设备之间传输所选择的文档。
语音识别服务772可以接收利用移动计算设备的麦克风722记录的语音通信数据,并且将该语音通信转换成对应文本数据。在一些示例中,将经转换的文本作为web查询提供给搜索引擎,并且将响应的搜索引擎搜索结果传输给移动计算设备710。
移动计算设备710可以与社交网络774通信。社交网络可以包括许多成员,其部分已同意关联为熟人。移动计算设备710上的应用程序可以访问社交网络774,以基于移动计算设备的用户的熟人来检索信息。例如,“地址簿”应用程序可以检索用户的熟人的电话号码。在各种示例中,可以基于从用户到其他成员的社交网络距离,向移动计算设备710递送内容。例如,可以基于与用户“亲密”的成员(例如,是“朋友”或“朋友的朋友”的成员)与这样的内容的交互程度,为用户选择广告和新闻文章内容。
移动计算设备710可以通过网络750访问私人联系人776集。每一个联系人可以识别个人并且包括关于该个人的信息(例如,电话号码、电子邮件地址以及生日)。由于联系人集被远离移动计算设备710托管,因此,用户可以跨若干设备访问并维护联系人776作为常见联系人集。
移动计算设备710可以访问基于云的应用程序778。云计算提供被远离移动计算设备710托管、并且可以由设备710使用web浏览器或专用程序来访问的应用程序(例如,字处理器或电子邮件程序)。示例基于云的应用程序包括GOOGLE DOCS字处理器和电子表格服务、GOOGLE GMAIL网页邮件服务以及PICASA图片管理器。
地图服务780可以向移动计算设备710提供街道地图、线路计划信息和卫星图像。示例地图服务是GOOGLE MAPS。地图服务780还可以接收查询并且返回特定于位置的结果。例如,移动计算设备710可以向地图服务780发送移动计算设备的估计位置和对“批萨场所”的用户输入的查询。地图服务780可以返回带有在地图上叠加的、识别附近“批萨场所”的地理位置的“标记”的街道地图。
分路段(turn-by-turn)服务782可以向移动计算设备710提供到用户供给的目的地的分路段路线指引。例如,分路段服务782可以将设备的估计位置的街道级视图连同用于提供指引设备710的用户到目的地的音频命令和叠加箭头的数据一起流送给设备710。
移动计算设备710可以请求各种形式的流媒体784。例如,计算设备710可以请求预记录的视频文件、直播电视节目或直播无线电节目流。提供流媒体的示例服务包括YOUTUBE和PANDORA。
微博服务786可以从移动计算设备710接收没有识别帖子的接收者的用户输入的帖子。微博服务786可以将该帖子散播给微博服务786的同意订阅该用户的其他成员。
搜索引擎788可以从移动计算设备710接收用户输入的文本或口头查询、确定对查询作出响应的因特网可访问文档集、以及向设备710提供信息以显示关于响应的文档的搜索结果列表。在接收口头查询的示例中,语音识别服务772可以将所接收的语音转换成被发送给搜索引擎的文本查询。
可以在服务器系统790中实现这些和其他服务。服务器系统可以是提供服务或一组服务的硬件和软件的组合。例如,一组物理上分离且联网的计算机化设备可以在一起运作为逻辑服务器系统单元来处理向数百单个计算设备提供服务必需的操作。
在各种实施方式中,如果在前操作是不成功的(例如,如果没有执行确定),则不执行“响应于”另一个操作(例如,确定或识别)执行的操作。在本文档中用条件语言描述的特征可以描述可选的实施方式。在一些示例中,从第一设备到第二设备的“传输”包括第一设备将数据放置到网络中,但是可以不包括第二设备接收数据。相反,从第一设备“接收”可以包括从网络接收数据,但是可以不包括第一设备传输数据。
图8是可以用来实现在本文档中描述的系统和方法、作为客户端或作为服务器或多个服务器的计算设备800、850的框图。计算设备800意在表示各种形式的数字计算机,诸如膝上型机、台式机、工作站、个人数字助理、服务器、刀片服务器、大型机以及其他适当的计算机。计算设备850意在表示各种形式的移动设备,诸如个人数字助理、蜂窝电话、智能手机以及其他类似的计算设备。另外,计算设备800或850可以包括通用串行总线(USB)闪存驱动器。USB闪存驱动器可以存储操作系统和其他应用。USB闪存驱动器可以包括输入/输出组件,诸如无线发射机或可以被插入另一个计算设备的USB端口的USB连接器。在此示出的组件、其连接和关系以及其功能意在只是示例性的,并且并不意在限制在本文档中描述和/或主张的实施方式。
计算设备800包括处理器802、存储器804、存储设备806、连接到存储器804和高速扩展端口810的高速接口808以及连接到低速总线814和存储设备806的低速接口812。组件802、804、806、808、810和812中的每一个使用各种总线互连,并且可以视情况被安装在公共主板上或以其他方式安装。处理器802可以处理用于在计算设备800内执行的指令,包括存储在存储器804中或存储设备806上用来在诸如耦接到高速接口808的显示器816的外部输入/输出设备上显示GUI的图形信息的指令。在其他实施方式中,可以视情况使用多个处理器和/或多个总线以及多个存储器和存储器类型。并且,可以连接多个计算设备800,其中每一个设备提供部分必需操作(例如,作为服务器簇、刀片服务器组或多处理器系统)。
存储器804存储在计算设备800内的信息。在一个实施方式中,存储器804是一个或多个易失性存储器单元。在另一个实施方式中,存储器804是一个或多个非易失性存储器单元。存储器804还可以是另一种形式的计算机可读介质,诸如磁或光盘。
存储设备806能够为计算设备800提供海量存储。在一个实施方式中,存储设备806可以是或包含计算机可读介质,诸如软盘设备、硬盘设备、光盘设备或带设备、闪存或其他类似固态存储器设备、或设备阵列,包括在存储域网络或其他配置中的设备。可以将计算机程序产品有形地包含在信息载体中。计算机程序产品还可以包含在被执行时执行诸如上述那些方法的一个或多个方法的指令。信息载体是计算机或机器可读介质,诸如存储器804、存储设备806、或在处理器802上的存储器。
高速控制器808为计算设备800管理带宽密集型操作,而低速控制器812管理较低带宽密集型操作。功能的这样分配只是示例性的。在一个实施方式中,高速控制器808(例如通过图形处理器或加速器)被耦接到存储器804、显示器816,以及被耦接到可以接受各种扩展卡(未示出)的高速扩展端口810。在该实施方式中,低速控制器812被耦接到存储设备806和低速扩展端口814。可以包括各种通信端口(例如,USB、蓝牙、以太网、无线以太网)的低速扩展端口可以被耦接到诸如键盘、指示设备、扫描仪的一个或多个输入/输出设备,或例如通过网络适配器被耦接到诸如交换机或路由器的联网设备。
如附图中所示,可以以多种不同形式实现计算设备800。例如,计算设备800可以被实现为标准服务器820或在一组这样的服务器中被实现多次。计算设备800还可以被实现为机架服务器系统824的一部分。另外,计算设备800可以在诸如膝上型计算机822的个人计算机中实现。替选地,来自计算设备800的组件可以与诸如设备850的移动设备中的其他组件相结合(未示出)。这样的设备中的每一个可以包含计算设备800、850中的一个或多个,以及整个系统可以由相互通信的多个计算设备800、850组成。
除其他组件外,计算设备850包括处理器852、存储器864、诸如显示器854的输入/输出设备、通信接口866以及收发器868。设备850还可以被提供有存储设备,诸如微型驱动器或其他设备,以提供另外存储。组件850、852、864、854、866和868中的每一个使用各种总线互连,以及若干组件可以视情况被安装在公共主板上或以其他方式安装。
处理器852可以执行在计算设备850内的指令,包括存储在存储器864中的指令。处理器可以被实现为包括独立和多个模拟和数字处理器的芯片的芯片集。另外,处理器可以使用多个体系结构中的任何一个来实现。例如,处理器410可以是CISC(复杂指令集计算机)处理器、RISC(精简指令集计算机)处理器或MISC(最小指令集计算机)处理器。处理器可以提供例如对设备850的其他组件的协调,诸如对用户接口、设备850所运行的应用以及经由设备850的无线通信的控制。
处理器852可以通过耦接到显示器854的控制接口858和显示接口856与用户通信。显示器854可以是例如TFT(薄膜晶体管液晶显示)显示器或OLED(有机发光二极管)显示器或其他适当的显示技术。显示接口856可以包括用于驱动显示器854向用户展现图形和其他信息的适当电路。控制接口858可以从用户接收命令并且将命令进行转换以提交给处理器852。另外,可以提供与处理器852通信的外部接口862,以使得设备850能够与其他设备进行近区域通信。外部接口862可以例如在一些实施方式中提供有线通信、或在其他实施方式中提供无线通信,以及还可以使用多个接口。
存储器864存储在计算设备850内的信息。存储器864可以被实现为一个或多个计算机可读介质、一个或多个易失性存储器单元或一个或多个非易失性存储器单元中的一个或多个。还可以提供扩展存储器874,并且通过可以包括例如SIMM(单列直插存储器模块)卡接口的扩展接口872将其连接到设备850。这样的扩展存储器874可以为设备850提供额外的存储空间、或还可以存储用于设备850的应用或其他信息。具体地,扩展存储器874可以包括实现或补充上述过程的指令,以及还可以包括安全信息。因此,例如,扩展存储器874可以被提供为用于设备850的安全模块,以及可以被编程有允许安全使用设备850的指令。另外,安全应用以及另外信息可以经由SIMM卡提供,诸如以不可非法侵入的方式将标识信息放置在SIMM卡上。
如下所述,存储器可以包括例如闪存和/或NVRAM存储器。在一个实施方式中,将计算机程序产品有形地包含在信息载体中。计算机程序产品包含在被执行时执行诸如上述那些方法的一个或多个方法的指令。信息载体是计算机或机器可读介质,诸如存储器864、扩展存储器874、或在处理器852上的存储器或可以例如通过收发器868或外部接口862接收的传播信号。
设备850可以通过视需要可以包括数字信号处理电路的通信接口866无线地通信。通信接口866可以提供在各种模式或协议下的通信,诸如GSM语音呼叫、SMS、EMS或MMS消息收发、CDMA、TDMA、PDC、WCDMA、CDMA2000或GPRS等。可以例如通过射频收发器868来发生这样的通信。另外,诸如使用蓝牙、WiFi或其他这样的收发器(未示出),可以发生短程通信。另外,GPS(全球定位系统)接收器模块870可以向设备850提供可以由运行在设备850上的应用视情况使用的另外的导航和位置相关无线数据。
设备850还可以使用音频编解码器860来可听见地通信,音频编解码器860可以从用户接收口语信息并且将其转换为可用数字信息。同样,音频编解码器860可以诸如通过例如在设备850的送受话器中的扬声器,为用户生成可听见的声音。这样的声音可以包括来自语音电话呼叫的声音,可以包括已记录的声音(例如,语音消息、音乐文件等)以及还可以包括由在设备850上运作的应用所生成的声音。
如附图中所示,可以以多种不同形式实现计算设备850。例如,计算设备850可以被实现为蜂窝电话880。计算设备850还可以被实现为智能手机882、个人数字助理或其他类似移动设备的一部分。
可以以数字电子电路、集成电路、专门设计的ASIC(专用集成电路)、计算机硬件、固件、软件和/或其组合实现在此描述的系统和技术的各种实施方式。这些各种实施方式可以包括在可编程系统上可执行和/或可解释的一个或多个计算机程序中的实现,所述可编程系统包括至少一个可编程处理器,其可以是专用或通用的,被耦接以从存储系统、至少一个输入设备和至少一个输出设备接收数据和指令,以及传输数据和指令到存储系统、至少一个输入设备和至少一个输出设备。
这些计算机程序(也被称为程序、软件、软件应用或代码)包括用于可编程处理器的机器指令,并且可以以高级程序和/或面向对象的编程语言、和/或汇编/机器语言来实现。如在此所使用的,术语“机器可读介质”、“计算机可读介质”是指用于向可编程处理器提供机器指令和/或数据的任何计算机程序产品、装置和/或设备(例如,磁盘、光盘、存储器、可编程逻辑器件(PLD)),包括接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”是指用于向可编程处理器提供机器指令和/或数据的任何信号。
为了提供与用户的交互,在此描述的系统和技术可以在具有下述的计算机上实现:用于向用户显示信息的显示设备(例如,CRT(阴极射线管)或LCD(液晶显示)监视器),以及用户通过其可以向计算机提供输入的键盘和指示设备(例如,鼠标或追踪球)。也可以使用其他类型的设备来提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感知反馈(例如,视觉反馈、听觉反馈或触觉反馈);以及可以以任何形式,包括声学的、话音的或触觉的输入,接收来自用户的输入。
在此描述的系统和技术可以在包括以下的计算系统中实现:后端组件(例如,作为数据服务器);或中间件组件(例如,应用服务器);或前端组件(例如,具有用户通过其可以与在此描述的系统和技术的实现交互的图形用户界面或Web浏览器的客户端计算机);或这样的后端、中间件或前端组件的任何组合。系统的组件可以通过任何形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网("LAN")、广域网("WAN")、对等网络(具有自组或静态成员)、网格计算基础设施以及因特网。
计算系统可以包括客户端和服务器。客户端和服务器通常彼此远离并且典型地通过通信网络交互。客户端和服务器的关系依靠在各个计算机上运行并且彼此具有客户端-服务器关系的计算机程序产生。
尽管已在上面详细描述了一些实施方式,然而,其他修改是可能的。此外,可以使用用于使用所识别的手指或手指类型来解释触摸输入的其他机制。另外,在附图中描绘的逻辑流不需要所示的特定顺序或连续顺序,来获得期望的结果。可以向所述流程提供其他步骤、或可以从所述流程去除步骤,以及可以将其他组件添加到所述系统、或从所述系统移除组件。因此,其他实施方式在所附权利要求的范围内。

Claims (16)

1.一种用于解释在移动计算设备上的触摸屏输入的计算机实现的方法,包括:
在移动计算设备处接收指示用户用指示器触摸了所述移动计算设备的触摸屏显示器的第一输入;
基于除来自所述用户的对所述触摸屏显示器的触摸的信息外的信息来确定所述移动计算设备关于所述用户的位置,其中除来自所述用户的对所述触摸屏显示器的触摸的信息外的信息包括从所述移动计算设备中的取向和运动传感器获取的信息;
至少基于所确定的所述移动计算设备关于所述用户的位置来将所述指示器识别为所述用户的特定的手指或手指类型;以及
使用所识别的手指或手指类型来解释所接收的在所述移动计算设备的所述触摸屏显示器上的第一输入,其中解释所接收的第一输入包括选择与所识别的手指或手指类型相对应的动作;以及
响应于接收到所述第一输入而利用所述移动计算设备执行所选择的动作。
2.根据权利要求1所述的计算机实现的方法,其中确定所述移动计算设备的所述位置所基于的所述信息至少包括除所述触摸屏显示器外的所述移动计算设备的输入子系统的一个或多个组件所提供的信息。
3.根据权利要求1所述的计算机实现的方法,其中确定所述移动计算设备关于所述用户的所述位置包括确定所述用户正如何握持所述移动计算设备。
4.根据权利要求3所述的计算机实现的方法,其中所述用户被确定为正将所述移动计算设备握持在所述用户的右手中、所述用户的左手中、或者所述用户的右手和左手两者中。
5.根据权利要求4所述的计算机实现的方法,其中,当所述用户被确定为正将所述移动计算设备握持在所述用户的一只手中而不是两只手中时,所述指示器被识别为所述用户的正握持所述移动计算设备的手的拇指或所述用户的没在握持所述移动计算设备的另一只手上的手指。
6.根据权利要求1所述的计算机实现的方法,其中,所述移动计算设备被配置成基于将哪个手指或手指类型识别为已经触摸所述触摸屏显示器来执行不同的动作。
7.根据权利要求1所述的计算机实现的方法,进一步包括:确定所述指示器触摸所述触摸屏显示器的压力水平;以及
其中额外地基于所确定的所述指示器触摸所述触摸屏显示器的压力水平来将所述指示器识别为所述特定的手指或手指类型。
8.根据权利要求1所述的计算机实现的方法,进一步包括:确定所述指示器触摸所述触摸屏显示器的接触区域;以及
其中额外地基于所确定的所述指示器触摸所述触摸屏显示器的接触区域来将所述指示器识别为所述特定的手指或手指类型。
9.根据权利要求1所述的计算机实现的方法,进一步包括:访问每一个都对应于手指或手指类型的一个或多个模型;以及
其中使用所述一个或多个被访问的模型来将所述指示器识别为所述特定的手指或手指类型。
10.根据权利要求9所述的计算机实现的方法,进一步包括:
在所述移动计算设备处,接收所述用户响应于使用所识别的手指或手指类型对所述第一输入的解释而提供的第二输入;
基于所述第二输入,确定所述指示器是否被使用所述一个或多个被访问的模型正确地识别为所述特定的手指或手指类型;以及
根据所述指示器是否被确定为已被正确地识别为所述特定的手指或手指类型,更新所述一个或多个被访问的模型。
11.根据权利要求10所述的计算机实现的方法,其中,当所接收的第二输入促使所述移动计算设备取消或修改基于使用所识别的手指或手指类型对所述第一输入的解释来执行的动作时,所述第二输入被确定为指示所述指示器被不正确地识别为所述特定的手指或手指类型。
12.根据权利要求10所述的计算机实现的方法,其中,当所接收的第二输入促使所述移动计算设备执行没有取消或修改基于使用所识别的手指或手指类型对所述第一输入的解释来执行的先前动作的动作时,所述第二输入被确定为指示所述指示器被正确地识别为所述特定的手指或手指类型。
13.根据权利要求10所述的计算机实现的方法,进一步包括:当所述移动计算设备处于训练模式时,在所述移动计算设备上提供指示已从所述第一输入识别所述特定的手指或手指类型并且询问所述用户对所述特定的手指或手指类型的识别是否正确的输出;以及
其中所述第二输入响应于所提供的输出而被接收,并且包括来自所述用户的指示识别是否正确的响应。
14.根据权利要求1所述的计算机实现的方法,其中所述第一输入指示所述用户接触所述触摸屏显示器的示出应用的图标的位置,其中所述移动计算设备被配置成响应于识别所述用户利用第一手指或手指类型接触所述触摸屏显示器而运行所述应用,其中所述移动计算设备被配置成响应于识别所述用户利用与所述第一手指或手指类型不同的第二手指或手指类型接触所述触摸屏显示器而显示与所述图标或所述应用中的至少一个相关联的菜单。
15.一种用于解释在移动计算设备上的触摸屏输入的系统,所述系统包括:
移动计算设备;
所述移动计算设备的触摸屏显示器,其被配置成接收指示用户用指示器触摸了所述触摸屏显示器的输入;
所述移动计算设备的位置提取模块,其被配置成基于除来自所述用户的对所述触摸屏显示器的触摸的信息外的信息来确定所述移动计算设备关于所述用户的位置,其中除来自所述用户的对所述触摸屏显示器的触摸的信息外的信息包括从所述移动计算设备中的取向和运动传感器获取的信息;
用于至少基于所确定的所述移动计算设备关于所述用户的位置来将所述指示器识别为所述用户的特定的手指或手指类型的装置;以及
所述移动计算设备的输入解释器,其被配置成使用所述用于识别的装置所识别的所述特定的手指或手指类型来解释在所述移动计算设备的所述触摸屏显示器上的所接收的输入,其中所述输入解释器包括动作选择模块,所述动作选择模块被配置成选择动作以利用所述移动计算设备来执行,所述动作对应于所述用于识别的装置所识别的所述特定手指或手指类型。
16.根据权利要求15所述的系统,进一步包括:
所述移动计算设备的外壳,其包括被配置成测量所述用户正在触摸所述移动计算设备的所述外壳的位置的一个或多个电容触摸传感器;以及
其中所述移动计算设备的所述位置提取模块被配置成基于来自包括在所述外壳中的所述电容触摸传感器的测量来确定所述移动计算设备关于所述用户的所述位置。
CN201710816410.7A 2010-08-12 2010-08-12 触摸屏上的手指识别 Active CN107665089B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710816410.7A CN107665089B (zh) 2010-08-12 2010-08-12 触摸屏上的手指识别

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710816410.7A CN107665089B (zh) 2010-08-12 2010-08-12 触摸屏上的手指识别
CN201080069527.XA CN103282869B (zh) 2010-08-12 2010-08-12 触摸屏上的手指识别
PCT/CN2010/075930 WO2012019350A1 (en) 2010-08-12 2010-08-12 Finger identification on a touchscreen

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201080069527.XA Division CN103282869B (zh) 2010-08-12 2010-08-12 触摸屏上的手指识别

Publications (2)

Publication Number Publication Date
CN107665089A true CN107665089A (zh) 2018-02-06
CN107665089B CN107665089B (zh) 2021-01-22

Family

ID=45567278

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201080069527.XA Active CN103282869B (zh) 2010-08-12 2010-08-12 触摸屏上的手指识别
CN201710816410.7A Active CN107665089B (zh) 2010-08-12 2010-08-12 触摸屏上的手指识别

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201080069527.XA Active CN103282869B (zh) 2010-08-12 2010-08-12 触摸屏上的手指识别

Country Status (5)

Country Link
US (1) US20130201155A1 (zh)
EP (1) EP2603844B1 (zh)
KR (1) KR20130129914A (zh)
CN (2) CN103282869B (zh)
WO (1) WO2012019350A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399443A (zh) * 2019-07-22 2019-11-01 上海图聚智能科技股份有限公司 地图编辑方法、装置、移动平台及存储介质

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101572768B1 (ko) 2007-09-24 2015-11-27 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US9310905B2 (en) 2010-04-23 2016-04-12 Handscape Inc. Detachable back mounted touchpad for a handheld computerized device
US9678662B2 (en) 2010-04-23 2017-06-13 Handscape Inc. Method for detecting user gestures from alternative touchpads of a handheld computerized device
US9891821B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a control region of a computerized device from a touchpad
US9639195B2 (en) 2010-04-23 2017-05-02 Handscape Inc. Method using finger force upon a touchpad for controlling a computerized system
US9529523B2 (en) 2010-04-23 2016-12-27 Handscape Inc. Method using a finger above a touchpad for controlling a computerized system
US9542032B2 (en) 2010-04-23 2017-01-10 Handscape Inc. Method using a predicted finger location above a touchpad for controlling a computerized system
US9311724B2 (en) 2010-04-23 2016-04-12 Handscape Inc. Method for user input from alternative touchpads of a handheld computerized device
US9891820B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a virtual keyboard from a touchpad of a computerized device
US8892162B2 (en) * 2011-04-25 2014-11-18 Apple Inc. Vibration sensing system and method for categorizing portable device context and modifying device operation
US20150277597A1 (en) * 2011-09-01 2015-10-01 Handscape Inc. Touchpad hand detector
US8773382B2 (en) 2011-10-28 2014-07-08 Nintendo Co., Ltd. Computer-readable storage medium, coordinate processing apparatus, coordinate processing system, and coordinate processing method
JP5827870B2 (ja) 2011-10-28 2015-12-02 任天堂株式会社 座標処理プログラム、座標処理装置、座標処理システムおよび座標処理方法
EP2587348B1 (en) * 2011-10-28 2020-12-02 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
US8760423B2 (en) 2011-10-28 2014-06-24 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
CN103186329B (zh) * 2011-12-27 2017-08-18 富泰华工业(深圳)有限公司 电子设备及其触摸输入控制方法
US9569057B2 (en) * 2012-01-05 2017-02-14 Sony Corporation Information processing apparatus and method for outputting a guiding operation to a user
CN107391014B (zh) * 2012-01-09 2020-10-27 谷歌有限责任公司 具有手指鉴别的智能触摸屏键盘
US9001058B2 (en) * 2012-03-05 2015-04-07 International Business Machines Corporation Computer action detection
CN103365548B (zh) * 2012-04-06 2016-01-06 腾讯科技(深圳)有限公司 触屏移动终端菜单按钮的显示方法和装置
CN106133748B (zh) * 2012-05-18 2020-01-31 苹果公司 用于基于指纹传感器输入来操纵用户界面的设备、方法和图形用户界面
JP5620947B2 (ja) 2012-06-27 2014-11-05 キヤノン株式会社 電子機器およびその制御方法、プログラム並びに記憶媒体
US9223423B2 (en) 2012-07-30 2015-12-29 Facebook, Inc. Touch gesture offset
US20140043277A1 (en) * 2012-08-09 2014-02-13 Nokia Corporation Apparatus and associated methods
KR101936090B1 (ko) * 2012-08-29 2019-01-08 삼성전자주식회사 키 입력 제어 장치 및 방법
CN103677438B (zh) * 2012-09-10 2020-02-21 联想(北京)有限公司 一种数据处理方法及电子设备
EP2749996B1 (en) 2012-12-28 2018-05-30 Sony Mobile Communications Inc. Electronic device and method for improving accuracy of location determination of a user input on a touch panel
CN103984495B (zh) * 2013-02-07 2016-12-28 纬创资通股份有限公司 操作方法以及电子装置
TWI477108B (zh) * 2013-02-22 2015-03-11 Quanta Comp Inc 視訊會議建立方法
US9865266B2 (en) * 2013-02-25 2018-01-09 Nuance Communications, Inc. Method and apparatus for automated speaker parameters adaptation in a deployed speaker verification system
US9203835B2 (en) * 2013-03-01 2015-12-01 Paypal, Inc. Systems and methods for authenticating a user based on a biometric model associated with the user
US8577644B1 (en) 2013-03-11 2013-11-05 Cypress Semiconductor Corp. Hard press rejection
US9436282B2 (en) * 2013-03-14 2016-09-06 Immersion Corporation Contactor-based haptic feedback generation
CN103164160A (zh) * 2013-03-20 2013-06-19 华为技术有限公司 一种左右手交互装置及方法
WO2014176370A2 (en) * 2013-04-23 2014-10-30 Handscape Inc. Method for user input from alternative touchpads of a computerized system
EP2796980B1 (en) * 2013-04-26 2019-04-10 Spreadtrum Communications (Shanghai) Co., Ltd. Apparatus and method for setting a two hand mode to operate a touchscreen
CN103513865A (zh) * 2013-04-27 2014-01-15 展讯通信(上海)有限公司 一种触控设备及控制其配置操作模式的方法、装置
EP2796981B1 (en) * 2013-04-27 2019-06-19 Spreadtrum Communications (Shanghai) Co., Ltd. Apparatus and method for controlling a touchscreen display for one hand operation
WO2014183343A1 (zh) * 2013-05-17 2014-11-20 中兴通讯股份有限公司 通过触摸屏实现触摸板功能的装置、触摸屏和电子设备
US9477331B2 (en) 2013-06-07 2016-10-25 Apple Inc. Touch detection at bezel edge
KR102113674B1 (ko) * 2013-06-10 2020-05-21 삼성전자주식회사 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US9729730B2 (en) * 2013-07-02 2017-08-08 Immersion Corporation Systems and methods for perceptual normalization of haptic effects
CN103389857A (zh) * 2013-07-24 2013-11-13 珠海市魅族科技有限公司 虚拟控件的调整方法和终端
US9548047B2 (en) * 2013-07-31 2017-01-17 Google Technology Holdings LLC Method and apparatus for evaluating trigger phrase enrollment
US9058480B2 (en) * 2013-11-05 2015-06-16 Google Inc. Directional touch unlocking for electronic devices
CN104679358B (zh) 2013-11-27 2019-02-26 华为终端(东莞)有限公司 一种终端
WO2015079450A2 (en) * 2013-11-28 2015-06-04 Hewlett-Packard Development Company, L.P. Electronic device
US9329727B2 (en) 2013-12-11 2016-05-03 Microsoft Technology Licensing, Llc Object detection in optical sensor systems
US20150185850A1 (en) * 2013-12-27 2015-07-02 Farzin Guilak Input detection
US20150205400A1 (en) * 2014-01-21 2015-07-23 Microsoft Corporation Grip Detection
US9430095B2 (en) 2014-01-23 2016-08-30 Microsoft Technology Licensing, Llc Global and local light detection in optical sensor systems
KR20160114158A (ko) * 2014-01-28 2016-10-04 후아웨이 디바이스 컴퍼니 리미티드 단말 장치를 처리하는 방법 및 단말 장치
KR102177150B1 (ko) 2014-02-19 2020-11-10 삼성전자 주식회사 지문인식 장치 및 방법
US9733728B2 (en) * 2014-03-03 2017-08-15 Seiko Epson Corporation Position detecting device and position detecting method
WO2015178893A1 (en) * 2014-05-20 2015-11-26 Handscape Inc. Method using finger force upon a touchpad for controlling a computerized system
US9575560B2 (en) * 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
KR102236279B1 (ko) 2014-06-17 2021-04-02 엘지전자 주식회사 이동단말기 및 그 제어방법
AU2015276995B2 (en) * 2014-06-18 2020-08-27 Google Llc Methods, systems and media for controlling playback of video using a touchscreen
US11099839B2 (en) * 2014-08-06 2021-08-24 International Business Machines Corporation Adaptation of a web application for use by a mobile device
US9430085B2 (en) * 2014-09-12 2016-08-30 Microsoft Technology Licensing, Llc Classification of touch input as being unintended or intended
EP3201737B1 (en) * 2014-09-29 2021-10-27 Hewlett-Packard Development Company, L.P. Virtual keyboard
TWI525500B (zh) * 2014-10-01 2016-03-11 緯創資通股份有限公司 觸控系統、觸控筆、觸控裝置及其控制方法
CN108108041A (zh) * 2014-11-25 2018-06-01 原相科技股份有限公司 对象状态判断方法以及触控装置
DE102014019442A1 (de) * 2014-12-22 2016-06-23 Audi Ag Benutzerschnittstelle für einen Schutzhelm
CN104715026A (zh) * 2015-03-03 2015-06-17 青岛海信移动通信技术股份有限公司 一种文件夹管理方法和智能终端
US10095403B2 (en) 2015-05-05 2018-10-09 International Business Machines Corporation Text input on devices with touch screen displays
KR102423065B1 (ko) 2015-06-04 2022-07-21 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
CN105404404A (zh) * 2015-06-10 2016-03-16 广东小天才科技有限公司 一种修正移动终端参数的方法及装置
US10459561B2 (en) * 2015-07-09 2019-10-29 Qualcomm Incorporated Using capacitance to detect touch pressure
KR101718851B1 (ko) 2015-11-02 2017-03-22 염의준 모바일 디바이스의 터치 입력 방법, 모바일 디바이스 및 컴퓨터 프로그램
US10671272B2 (en) 2015-11-06 2020-06-02 International Business Machines Corporation Touchscreen oriented input integrated with enhanced four-corner indexing
CN105511623B (zh) * 2015-12-15 2018-11-20 深圳先进技术研究院 交互方法及装置
US11146562B2 (en) 2015-12-23 2021-10-12 Motorola Solutions, Inc. System and method for modifying permissions associated with network-based resources via fingerprint entry on communication devices
US9760758B2 (en) * 2015-12-30 2017-09-12 Synaptics Incorporated Determining which hand is being used to operate a device using a fingerprint sensor
TWI584202B (zh) * 2015-12-31 2017-05-21 速博思股份有限公司 指紋辨識裝置
CN105718196A (zh) * 2016-01-18 2016-06-29 惠州Tcl移动通信有限公司 移动终端及其触摸屏上左右手的识别方法
US10049092B2 (en) * 2016-01-29 2018-08-14 Lenovo (Singapore) Pte. Ltd. Text alterations based on body part(s) used to provide input
CN107037951B (zh) * 2016-02-04 2020-02-21 中兴通讯股份有限公司 操作模式自动识别方法及终端
US11287951B2 (en) * 2016-09-16 2022-03-29 Google Llc Systems and methods for a touchscreen user interface for a collaborative editing tool
US20180173867A1 (en) * 2016-11-11 2018-06-21 Samsung Electronics Co., Ltd. Method and electronic device for providing multi-level security
CN106598463B (zh) * 2016-12-20 2020-08-28 努比亚技术有限公司 移动终端及其解锁方法
CN106603848A (zh) * 2016-12-20 2017-04-26 努比亚技术有限公司 移动终端及其解锁方法
US10031977B1 (en) * 2017-01-26 2018-07-24 Rena Maycock Data content filter
CN107193392A (zh) * 2017-04-25 2017-09-22 北京百度网讯科技有限公司 一种在输入法应用中的输入方法和输入装置
CN107273012B (zh) * 2017-06-29 2020-10-27 邳州市润宏实业有限公司 一种握持对象处理方法、设备及计算机可读存储介质
CN110110264A (zh) * 2018-01-10 2019-08-09 华为技术有限公司 触摸热区的调节方法、装置、设备和触摸屏终端设备
JP6430088B1 (ja) * 2018-01-31 2018-11-28 三菱電機株式会社 タッチパネル装置
JP7244231B2 (ja) * 2018-07-27 2023-03-22 京セラ株式会社 電子機器、制御プログラム及び表示制御方法
US10817141B2 (en) 2019-01-21 2020-10-27 Ford Global Technologies, Llc Vehicle input device having offset registration
WO2021016442A1 (en) * 2019-07-23 2021-01-28 Tactual Labs Co. Self-locating controls
US10838544B1 (en) 2019-08-21 2020-11-17 Raytheon Company Determination of a user orientation with respect to a touchscreen device
US10942602B1 (en) 2019-10-30 2021-03-09 Stmicroelectronics Asia Pacific Pte Ltd. Electronic device with finger touch detection and related methods
US11513604B2 (en) 2020-06-17 2022-11-29 Motorola Mobility Llc Selectable response options displayed based-on device grip position
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
CN112130709A (zh) * 2020-09-21 2020-12-25 深圳大学 一种基于电容按键的人机交互方法和交互系统
CN112130710A (zh) * 2020-09-22 2020-12-25 深圳大学 一种基于电容触摸屏的人机交互系统和交互方法
WO2022061500A1 (zh) * 2020-09-22 2022-03-31 深圳大学 一种基于电容触摸屏的人机交互系统和交互方法
US11861084B2 (en) * 2021-11-18 2024-01-02 International Business Machines Corporation Splitting a mobile device display and mapping content with single hand
US11726734B2 (en) 2022-01-13 2023-08-15 Motorola Mobility Llc Configuring an external presentation device based on an impairment of a user

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008084119A (ja) * 2006-09-28 2008-04-10 Kyocera Corp 携帯端末及びその制御方法
CN101582008A (zh) * 2008-05-13 2009-11-18 株式会社Ntt都科摩 信息处理装置和信息处理装置的显示信息编辑方法
CN101655751A (zh) * 2008-08-20 2010-02-24 联想(北京)有限公司 触控的实现方法及装置
WO2010028484A1 (en) * 2008-09-12 2010-03-18 James Franklin Zdralek Bimanual gesture based input and device control system
CN101681209A (zh) * 2007-06-19 2010-03-24 诺基亚公司 具有触摸输入表面的移动设备
CN101714055A (zh) * 2008-10-06 2010-05-26 三星电子株式会社 根据用户的接触模式显示图形用户界面的方法和设备

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US6256021B1 (en) * 1998-09-15 2001-07-03 Ericsson Inc. Apparatus and method of configuring target areas within a touchable item of a touchscreen
US6654484B2 (en) * 1999-10-28 2003-11-25 Catherine Topping Secure control data entry system
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US20030048260A1 (en) * 2001-08-17 2003-03-13 Alec Matusis System and method for selecting actions based on the identification of user's fingers
DE10254922A1 (de) * 2002-11-25 2004-07-15 Alveo Ag Schaumstoff-Formkörper mit dehäsiver Oberflächenausstattung
US20040183833A1 (en) * 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus
GB2440683B (en) * 2005-02-23 2010-12-08 Zienon L L C Method and apparatus for data entry input
JP4702959B2 (ja) * 2005-03-28 2011-06-15 パナソニック株式会社 ユーザインタフェイスシステム
US8542196B2 (en) * 2005-07-22 2013-09-24 Move Mobile Systems, Inc. System and method for a thumb-optimized touch-screen user interface
US8362923B2 (en) * 2005-11-18 2013-01-29 Emergency Traffic Systems Inc. Traffic signal devices and methods of using the same
JP4880304B2 (ja) * 2005-12-28 2012-02-22 シャープ株式会社 情報処理装置および表示方法
WO2007094677A1 (en) * 2006-02-14 2007-08-23 Ge Healthcare As Contrast agents
US7877690B2 (en) * 2006-09-20 2011-01-25 Adobe Systems Incorporated Media system with integrated clip views
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US20080042979A1 (en) * 2007-08-19 2008-02-21 Navid Nikbin Method and apparatus for executing commands or inputting data based on finger's characteristics and Multi-Finger key
CN100498674C (zh) * 2007-09-07 2009-06-10 怡利电子工业股份有限公司 依照键盘字符排列的位置修正打字错误的方法
US8031175B2 (en) * 2008-04-21 2011-10-04 Panasonic Corporation Touch sensitive remote control system that detects hand size characteristics of user and adapts mapping to screen display
DE102008011157B4 (de) * 2008-02-26 2010-10-14 Siemens Aktiengesellschaft Medizinisches Röntgensystem
US8384677B2 (en) * 2008-04-25 2013-02-26 Research In Motion Limited Electronic device including touch-sensitive input surface and method of determining user-selected input
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing
IL196125A0 (en) * 2008-12-23 2009-09-22 Bejamin Zimchoni A method and system for operating a keyboard with multi funcitional keys, using fingerpints recognition
DE102009001686A1 (de) * 2009-03-20 2010-09-23 Henkel Ag & Co. Kgaa Waschhilfsmittel mit antibakterieller Wirkung
US8300023B2 (en) * 2009-04-10 2012-10-30 Qualcomm Incorporated Virtual keypad generator with learning capabilities
US20100265204A1 (en) * 2009-04-21 2010-10-21 Sony Ericsson Mobile Communications Ab Finger recognition for authentication and graphical user interface input
US20110087963A1 (en) * 2009-10-09 2011-04-14 At&T Mobility Ii Llc User Interface Control with Edge Finger and Motion Sensing
US20120032891A1 (en) * 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008084119A (ja) * 2006-09-28 2008-04-10 Kyocera Corp 携帯端末及びその制御方法
CN101681209A (zh) * 2007-06-19 2010-03-24 诺基亚公司 具有触摸输入表面的移动设备
CN101582008A (zh) * 2008-05-13 2009-11-18 株式会社Ntt都科摩 信息处理装置和信息处理装置的显示信息编辑方法
CN101655751A (zh) * 2008-08-20 2010-02-24 联想(北京)有限公司 触控的实现方法及装置
WO2010028484A1 (en) * 2008-09-12 2010-03-18 James Franklin Zdralek Bimanual gesture based input and device control system
CN101714055A (zh) * 2008-10-06 2010-05-26 三星电子株式会社 根据用户的接触模式显示图形用户界面的方法和设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399443A (zh) * 2019-07-22 2019-11-01 上海图聚智能科技股份有限公司 地图编辑方法、装置、移动平台及存储介质

Also Published As

Publication number Publication date
EP2603844A1 (en) 2013-06-19
CN103282869B (zh) 2017-10-13
KR20130129914A (ko) 2013-11-29
US20130201155A1 (en) 2013-08-08
CN103282869A (zh) 2013-09-04
WO2012019350A1 (en) 2012-02-16
EP2603844B1 (en) 2020-05-20
EP2603844A4 (en) 2016-12-14
CN107665089B (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
CN103282869B (zh) 触摸屏上的手指识别
CN104541245B (zh) 用于移动应用管理的方法和系统
US10061487B2 (en) Approaches for sharing data between electronic devices
CN103959745B (zh) 监视应用程序资源消耗的方法和设备
US10193986B2 (en) Method and apparatus for presenting geographical location
US10410180B2 (en) System and method for touch-based communications
CN103761044B (zh) 触摸事件模型编程接口
CN105453612B (zh) 消息服务提供装置以及经由其提供内容的方法
US10217112B2 (en) Issue detection for routing assistance requests
CN110168487B (zh) 一种触摸控制方法及装置
US20140337527A1 (en) Platform shape shifter
US20110065459A1 (en) Content transfer involving a gesture
KR102469179B1 (ko) 프로파일 관리를 위한 대화형 사용자 인터페이스
CN103473253B (zh) 经地理编码的数据的检测及用于其的用户界面
US9654639B1 (en) Resource partitioning for routing on-demand services
CN110795007B (zh) 一种获取截图信息的方法及装置
CN108551519A (zh) 一种信息处理方法、装置、存储介质及系统
CN109697008A (zh) 一种内容分享方法、终端及计算机可读存储介质
CN104516890B (zh) 业务处理方法、装置及电子设备
US9996230B2 (en) Using sections for customization of applications across platforms
CN106909481A (zh) 接口测试方法、接口测试装置和电子设备
CN108874141B (zh) 一种体感浏览方法和装置
CN108900696A (zh) 一种数据处理方法、终端和计算机可读存储介质
CN109213398A (zh) 一种应用快速启动方法、终端及计算机可读存储介质
CN107943687A (zh) 一种设备共享方法、装置、服务器及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: American California

Applicant after: Google limited liability company

Address before: American California

Applicant before: Google Inc.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant