CN110413054B - 响应于触摸输入的上下文敏感动作 - Google Patents

响应于触摸输入的上下文敏感动作 Download PDF

Info

Publication number
CN110413054B
CN110413054B CN201910722883.XA CN201910722883A CN110413054B CN 110413054 B CN110413054 B CN 110413054B CN 201910722883 A CN201910722883 A CN 201910722883A CN 110413054 B CN110413054 B CN 110413054B
Authority
CN
China
Prior art keywords
map
user interface
touch input
electronic device
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910722883.XA
Other languages
English (en)
Other versions
CN110413054A (zh
Inventor
C·D·摩尔
M·范奥斯
B·A·摩尔
P·S·皮蒙特
E·C·瓦克斯曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/964,961 external-priority patent/US9423946B2/en
Application filed by Apple Inc filed Critical Apple Inc
Priority to CN201910722883.XA priority Critical patent/CN110413054B/zh
Publication of CN110413054A publication Critical patent/CN110413054A/zh
Application granted granted Critical
Publication of CN110413054B publication Critical patent/CN110413054B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/10Details of telephonic subscriber devices including a GPS signal receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

本公开的实施例涉及响应于触摸输入的上下文敏感动作。本发明公开了用于响应于触摸输入执行上下文敏感的动作的技术。可显示应用程序的用户界面。可在所显示的用户界面的区域中接收触摸输入,并且可确定上下文。如果上下文是第一上下文则可执行第一动作,而如果上下文是与第一上下文不同的第二上下文则可执行第二动作。在一些实施例中,如果上下文是第一上下文且触摸输入是第一触摸输入则可执行动作,并且如果上下文是第二上下文且触摸输入是第二触摸输入则也可执行该动作。

Description

响应于触摸输入的上下文敏感动作
本申请是国际申请号为PCT/US2014/048250、国际申请日为2014年7月25日、进入中国国家阶段日期为2016年2月5日、中国国家申请号为201480044835.5、发明名称为“响应于触摸输入的上下文敏感动作”的发明专利申请的分案申请。
相关申请的引用
本专利申请涉及与本申请同日提交的标题为“Context Sensitive Actions”的共同拥有的共同未决美国专利申请号13/964,967,该美国专利申请的公开内容全文以引入方式并入本文。
技术领域
本公开整体涉及电子设备,更具体地涉及响应于触摸输入执行上下文敏感的动作的电子设备。
背景技术
电子设备诸如台式计算机和移动设备(例如膝上型计算机、智能电话、平板电脑、媒体播放器等等)已经变得相当流行,并且在我们的日常生活中扮演不可缺少的角色。例如,很多用户几乎到任何地方都携带着移动设备并且将其设备用于各种目的,包括发送、接收和管理文本消息和电子邮件,查看地图、导航(例如使用这样的地图和/或GPS接收器),在商场中购买商品(例如使用无接触式支付系统),拨打和接收电话呼叫和/或访问互联网(例如查找信息)。为了便于这样的功能性,电子设备通常使用能运行各种类型的应用程序的操作系统(OS)。
很多电子设备包括触摸屏用户界面,该触摸屏用户界面能检测来自设备用户的物理接触并执行对应动作。此类设备的示例包括Apple Inc.(Cupertino,California)的
Figure BDA0002157852440000021
和其他设备。例如,很多电子设备能检测用户何时已经(例如利用用户指尖中的一个或多个用户指尖)在触摸屏用户界面上提供了特定手势,诸如单击、双击、拖动、轻扫、捏合、轻弹、旋转、多点触摸手势等等。在接收到这样的手势时,电子设备能生成对应于该手势的事件,所述事件可导致在设备上运行的应用程序执行特定动作。
附图说明
图1-13示出根据本发明一些实施例的用于响应于所接收的触摸输入来执行上下文敏感的动作的技术的示例;
图14示出可结合本发明实施例的一种系统的简化示意图;
图15示出根据本发明实施例的简化流程图,描绘了在不同上下文中响应于接收到相同触摸输入而执行不同动作的一种方法;
图16示出根据本发明实施例的简化流程图,描绘了在不同上下文中为了执行相同动作而要求不同触摸输入的一种方法;
图17示出一种计算机系统的简化框图,该计算机系统可包含根据本发明实施例的用于执行上下文敏感的动作的系统的部件;并且
图18示出根据本发明实施例的用于响应于所接收的触摸输入来执行上下文敏感的动作的一种分布式系统的简化示意图。
具体实施方式
在以下说明中,出于解释的目的,陈述具体细节以便提供对本发明的实施例的透彻理解。但是将显而易见的是,可在没有这些具体细节的情况下实践各种实施例。
本发明的某些实施例涉及一种响应于所接收的触摸输入来执行上下文敏感的动作的电子设备。
例如,介绍了某些实施例,其提供在不同上下文中响应于接收到相同触摸输入而执行不同动作的一种电子设备。电子设备能显示应用程序(例如地图应用程序)的用户界面,并且能在用户界面的区域中接收触摸输入。在一些实施例中,触摸输入可包括手势,诸如拖动、轻扫、捏合、轻弹、单击、双击、旋转、多点触摸手势等等。触摸输入还可包括手势组合、与其他触摸输入结合的一个或多个手势等。在接收到触摸输入时,电子设备可确定上下文。在一些实施例中,上下文可涉及应用程序的模式。例如,应用程序可以是地图应用程序,地图应用程序显示地图数据的表示(例如图形地图片),并且具有标准地图模式和导航模式。对于这样的地图应用程序,所确定的上下文可涉及地图应用程序当前处于标准地图模式中还是导航模式中。
如果电子设备确定触摸输入是在第一上下文中接收的(例如地图应用程序处于标准地图模式中),则电子设备可执行第一动作。例如,如果所接收的触摸输入对应于拖动手势,则第一动作可涉及设备使所显示的地图数据表示沿拖动手势的方向根据拖动手势的长度“移位”(例如图形地图片的线性平移)。然而如果电子设备确定触摸输入是在第二上下文中接收的(例如地图应用程序处于导航模式中),则电子设备可执行与第一动作不同的第二动作。例如,响应于在处于地图应用程序的导航模式中时接收到拖动手势,电子设备可使所显示的地图数据表示根据所接收的拖动手势的长度和方向“平移”。这样的平移可涉及在虚拟感觉上从地图应用程序的用户界面中所显示的用户当前位置模拟用户向左或右“看”的所显示图形地图片的旋转。
还介绍了某些实施例,其提供在不同上下文中为了执行相同动作而要求不同触摸输入的电子设备。电子设备能显示应用程序(例如消息应用程序)的用户界面,并且能在所显示的用户界面的区域中接收触摸输入。在一些实施例中,所接收的触摸输入可对应于一个或多个手势(例如轻扫、捏合、轻弹等)。触摸输入还可包括手势组合、与其他触摸输入结合的一个或多个手势等。在接收到触摸输入时,电子设备可确定上下文。上下文然后可被电子设备用来确定为了执行特定动作而需要的触摸输入。因此,不同动作可以是取决于上下文的。
例如,在一些实施例中,上下文可涉及如由集成的加速度计、位置确定电路等接收的传感器数据所指示的,设备当前处于运动中还是静止的。例如,对于消息应用程序,特定动作可以是消息删除。在设备静止时,用户可提供触摸输入(诸如“短的”轻扫手势)来执行消息删除。然而,为了防止在用户正在走路、慢跑、骑自行车、驾驶等期间(即在设备处于运动中时)无意的消息删除,可能需要“长的”轻扫来删除消息。这样,根据上下文(例如设备是静止的还是被检测为处于运动中),不同触摸输入(例如在设备静止时是“短的”轻扫,并且在设备处于运动中时是“长的”轻扫)被用于执行相同动作(例如删除消息)。
在某些其他实施例中,电子设备接收的触摸输入可以是手势序列。例如,应用程序可以是提示用户输入密码(例如对应于选择字母、数字、符号等的单击序列)来解锁设备的锁定应用程序。为了在用户正在走路、慢跑、骑自行车、驾驶等时(例如一般而言,在设备被检测到处于运动中时)使解锁电子设备更便利,在设备静止时所要求的完整密码的仅仅一部分(例如所述单击选择的子组)可能就足以解锁设备。因此,如果电子设备确定其是静止的,并且所接收的手势序列对应于完整密码,则设备可执行解锁功能,解锁功能提供对设备功能性的用户访问。然而,如果电子设备确定其处于运动中,并且手势序列对应于选择密码字符的特定子组,则尽管还没有输入完整密码,电子设备仍然能执行解锁功能。这是根据上下文(例如设备是静止的还是被检测为处于运动中),不同触摸输入(例如在设备静止时输入完整密码,并且在设备被检测为处于运动中时输入密码子组)被用于执行相同动作(例如解锁设备)的另一示例。
在各种实施例中,本文所使用的“上下文”可以是指任何合适的上下文信息,诸如应用程序模式、用户界面中显示的数据表示(例如横向取向对比于纵向取向)、电子设备的运动、当日时间、位置等。
图1-13示出根据一些实施例的用于响应于所接收的触摸输入来执行上下文敏感的动作的技术的示例。图1-13中所示的示例并非意图进行限制。
在图1-13中,电子设备100被图示为显示对应于电子设备100正在运行的各种应用程序的用户界面。在图1-13所示的示例中,电子设备100被图示为是Apple Inc.(Cupertino,California)所提供的
Figure BDA0002157852440000041
在各种实施例中,电子设备100可以是任何其他合适的计算设备,包括便携式和非便携式设备。这样的计算设备的示例性实施例包括
Figure BDA0002157852440000043
和iPod
Figure BDA0002157852440000042
设备(由Apple Inc.(Cupertino,California)提供)、膝上型计算机、其他移动设备、台式计算机、信息亭等。
在图1-6中,电子设备100被图示为显示对应于电子设备100正在运行的地图应用程序的用户界面102。然而,这并非意图进行限制。本公开中所述的取决于上下文的动作可由被配置为响应于从用户接收的触摸输入来执行动作的任何适当的应用程序来执行。
图1-6示出在不同上下文中响应于接收到相同触摸输入来执行不同动作的电子设备100的示例。在图1中,电子设备100显示地图应用程序的用户界面102。在一些实施例中,地图应用程序可包括不同模式。例如,地图应用程序可提供标准地图模式和导航模式,在标准地图模式中,地图数据(例如图形地图片)被显示给电子设备100的用户,在导航模式中,沿地图的路径信息以相关联的功能性(诸如逐向方向信息)被显示给用户。
如图1中所示,当地图应用处于标准地图模式中时,用户界面102可显示对应于地图的地图数据的二维表示。二维表示并非意图进行限制。在一些其它实施例中,在标准地图模式中可显示地图数据的三维表示。用户界面102中表示的地图数据可被存储在电子设备100的存储器中、外部数据库中等。
如图1中进一步所示,用户界面102可显示指示电子设备100的当前位置的标识符104。在各种实施例中,电子设备100的当前位置可以多种不同方式来确定。例如,电子设备100可使用全球定位系统(GPS)接收器来接收和处理GPS数据。在一些实施例中,电子设备100可利用蜂窝塔三角测量和/或信号强度数据、无线接入点数据、互联网协议(IP)地址等来确定其当前位置。
在一些实施例中,电子设备100显示的地图数据表示可从虚拟相机的角度进行呈现,其中虚拟相机的位置和取向决定所显示的表示。虚拟相机的位置和取向可各自响应于从电子设备100的用户接收的触摸输入而改变,这继而改变所显示的地图数据表示。响应于触摸输入(例如一个或多个手势),电子设备100可执行操作来重新定位虚拟相机(即改变位置和/或取向),并且地图数据的表示基于改变后的参数重新呈现。例如,可通过沿平行于地图数据表示的地平面的线移动(例如平移)虚拟相机来“移位”所显示的表示,从而允许查看不同区域。在一些实施例中,可通过沿着其光轴平移虚拟相机更靠近或远离地平面(或在不移动虚拟相机的情况下通过改变与虚拟相机相关联的焦距或放大因数)来缩放地图数据表示,从而允许视图中的区域被放大或缩小。在一些实施例中,可通过改变虚拟相机的光轴和/或“向上”矢量的取向来旋转地图数据的表示。在一些实施例中,可通过重新定位虚拟相机以改变光轴与地图地平面之间的“倾斜”角度来倾斜所述表示。这样,所显示的地图数据表示可由电子设备100的用户利用不同触摸输入来进行操控。
在地图应用程序处于标准地图模式中期间,用户可能希望移位电子设备100的用户界面102中所显示的地图数据表示的可见部分。如图2中所示,为了使所显示的地图数据表示移位,用户可在显示用户界面102的触摸屏区域106上施加接触(例如手指),并且可在保持与触摸屏的接触的同时沿某个方向(在图2所示的实施例中按箭头108指示向左)移动该接触。这个移动常被称为“拖动”手势。
如图3中所示,响应于所接收的触摸输入,电子设备100可沿所指示方向移位地图数据的表示。在图3所示的实施例中,用户已经将接触从区域106拖动到区域106’。在一些实施例中,所显示的地图数据表示可根据拖动手势的长度(即区域106与区域106’之间的距离)来被移位。因此,如图3中进一步所示,在拖动手势完成后,显示在区域106下面的地图数据表示的位置可以是显示在区域106’下面的相同(或基本相同)的位置。
当在给定上下文中接收到手势时,电子设备100可响应地执行特定动作。因此,在上述实施例中,在地图应用程序正工作于标准地图模式中时接收的拖动手势使地图应用沿拖动手势的方向直线地移位所显示的地图数据表示。然而,如上所述,在某些实施例中,在不同上下文(如图4-6中所示)中接收的相同拖动手势可能使电子设备100执行与移位操作不同的动作。
如前文所述,除了标准地图模式之外,电子设备100运行的地图应用程序还可提供导航模式。该模式在图4中示出。在一些实施例中,在导航模式中,地图应用可输出相对于所显示的地图数据表示的路径信息,包括但不限于从起始位置(可能是当前位置)到目的地位置的逐向方向。在一些实施例中,标识起始位置和/或目的地位置的信息可由电子设备100的用户例如利用触摸输入(例如经由软件键盘)、语音输入(例如利用语音识别电路)等来输入。
如图4中所示,当处于导航模式中时,用户界面102可显示图1-3中所示的地图数据的三维表示,并且还可显示指示电子设备100的当前位置的标识符404和从当前位置到目的地位置的路线410(在图4中,目的地位置在所显示的图形地图片之外)。可使用各种不同技术来确定路线410。在一些实施例中,电子设备100可利用电子设备100存储的信息和/或利用来自存储地理坐标、街道地址、街区、感兴趣位置、地域(例如街道、草坪、水域等)等等的外部数据库的信息来确定路线410。用于确定路线410的数据也可基于第三方提供的地图数据、开发者生成的地图数据、和/或用户生成的地图数据。路线410可以是各种类型的,包括但不限于从一个位置到另一位置的街道路线(例如包括一条或多条公路、高速路、城市街道、道路等)、自行车路线、公共交通路线、步行路线(例如基于人行道的路线)、或任何其他合适的路线。
在某些实施例中,地图应用程序显示的标识符404可包括指示电子设备100的相对取向的方向标识符,如图4中所示。例如,电子设备100可包括利用磁场确定电子设备100的取向的指南针传感器。
如图5中所示,在地图应用程序处于导航模式中时,用户可提供上述(即在标准地图模式的上下文中)相同的拖动手势。例如,用户可在显示用户界面102的触摸屏区域506上施加接触(例如手指),并且可在保持与触摸屏的接触的同时沿箭头508所示的方向移动该接触。
如上所述,如果拖动手势是在地图应用程序正工作于标准地图模式中时被接收到的,则电子设备100可沿拖动手势的方向直线地移位所显示的地图数据表示。然而,在导航模式的上下文中接收到相同拖动手势可使电子设备100执行与移位操作不同的动作。例如,如图6中所示,响应于拖动手势(即将接触从区域506移动到区域506’),地图应用程序可使用户界面102中所显示的地图数据表示被“平移”(而不是图3中所示的被移位)。在某些实施例中,平移可包括在保持在用户界面102上显示(标识符404所指示的)当前位置和路线410的同时在虚拟意义上模拟用户向左或右“看”的所显示图形地图片的旋转。
在某些实施例中,如图5-6中所示,平移可使所显示的地图数据表示绕标识符404旋转。如上所述,旋转可涉及改变虚拟相机的光轴和/或“向上”矢量的取向。然而应该指出的是,在三维表示中,单纯绕光轴旋转可能不能生成所期望的平移效果,尤其是如果光轴不是相对于所显示的地图数据表示的地平面垂直取向的话。相反,可能有利的是生成从另一方向(例如向东看而不是向北看)展示同一区域的视图的旋转。因此,在一些实施例中,与平移相关联的旋转操作可被定义为在平行于所显示地图数据表示的地平面的圆周中移动虚拟相机。圆周的中心可为虚拟相机的光轴与地平面相交的“目标点”,并且圆周的半径可根据虚拟相机的当前取向(例如倾斜角度)和位置来确定。通过绕圆周的运动,虚拟相机可被重新取向以保持指向目标点(例如图4-6中所示的标识符404)的光轴。在光轴垂直于地平面(即竖直向下看)的特定情况下,虚拟相机的圆周运动可成为围绕光轴的旋转。
如图6中所示,用户界面102中显示的地图数据表示已经响应于图5中所示的用户提供的从右向左拖动手势而被平移大约90°。例如,图4-5中水平显示的海德大街现在在图6中竖直地显示。另外,图4-5中竖直显示的路线410现在在图6中水平地显示。在一些实施例中,平移可以响应于从右向左拖动手势是顺时针的、响应于从左向右拖动手势是逆时针的、或者响应于从左向右拖动手势是顺时针的。此外,在一些实施例中,平移可大于或小于90°。例如,(图5中所示)拖动手势开始处的区域506与当前位置的标识符404之间的距离可影响与平移相关联的旋转程度。例如,旋转程度可随着拖动手势开始处区域506与标识符404之间的距离而增大,或者另选地可随着区域506与标识符404之间距离增大而减小。
在一些实施例中,当接触被移除时(即当用户将其手指从触摸屏的区域506’移除时),电子设备100可恢复回到图4-5中所示的地图数据表示,其中当前位置的标识符404被显示在用户界面102的中央处或附近并且路线410指“向上”。在其它实施例中,电子设备100可响应于某种附加用户输入(例如一个或多个手势、按钮输入、语音输入等)、或响应于从平移开始、移除用户手指、或任何其他合适的参考点起测量到经过了预先确定的时间段(例如“超时”功能)而恢复回到图4-5中所示的表示。
如上所述,电子设备100运行的应用程序可响应于在不同上下文中接收到相同触摸输入而执行不同动作。例如,如上所述,地图应用程序可响应于在标准地图模式的上下文中接收到拖动手势而直线地移位所显示的地图数据表示,并且可响应于在导航模式的上下文中接收到拖动手势而平移地图数据表示。在各种实施例中,任何其他适当的应用程序可响应于在不同上下文中接收到相同触摸输入而执行不同动作。根据各种实施例,触摸输入可包括任何适当的触摸输入。例如如上所述,触摸输入可包括一个或多个手势,诸如拖动、轻扫、捏合、轻弹、单击、双击、旋转、多点触摸手势等等。
在各种实施例中,电子设备100可使用任何合适的上下文来确定响应于特定触摸输入执行什么动作。在一些实施例中,第一上下文可涉及用户界面中显示的数据的第一表示,并且第二上下文可涉及该数据的第二表示。例如,电子设备100可基于触摸屏的取向(例如横向、纵向等)而响应于相同触摸输入执行不同动作。在地图应用程序示例中,当用户界面102以横向取向显示(例如第一数据表示)时,电子设备100可能能够利用移位、而不是平移来显示标识符404左边或右边的附加地图数据,这是由于横向取向提供附加的侧向距离。然而,当处于纵向取向(例如第二数据表示)中时,所提供的侧向距离可能不足以在保持显示标识符404的同时显示附加地图数据。因此,在一些实施例中,电子设备100可响应于在横向取向中提供的手势(例如拖动手势)直线地移位地图数据表示,但相反可在相同手势在纵向取向(如图1-6中所示)中被提供的情况下执行平移。
图7-13示出电子设备100在不同上下文中为了执行相同动作而要求不同触摸输入的示例。更具体地,在图7-10中,电子设备100被图示为显示对应于消息应用程序(并且更具体地,电子邮件消息应用程序)的用户界面702。然而,这并非意图进行限制。如上所述,本公开中所述的上下文敏感的动作可由能够对在不同上下文中接收的不同触摸输入进行响应的任何适当的应用程序来执行。
如图7中所示,消息应用程序的用户界面702被电子设备100显示,并且包括可存储在电子设备100的存储器中、远程服务器上等处的电子邮件消息704-714的列表。在一些实施例中,消息应用程序可使电子设备100的用户能通过对电子设备100提供特定触摸输入来删除消息。例如,在一个实施例中,消息应用程序可响应于用户在电子设备100的触摸屏上提供的轻扫手势而执行消息删除。
图8示出利用轻扫手势的消息删除的示例。如图8中所示,用户可在特定消息712上方执行轻扫手势以删除该消息。轻扫手势可通过在消息712附近的触摸屏区域802上施加接触(例如手指)并在保持与触摸屏接触的同时将该接触移动一定距离(在图8所示的实施例中如箭头804所示从左向右)来执行。在一些实施例中,轻扫手势可以是拖动手势(例如如上文参考图1-6所述),但由用户以更高速度或速率来提供。例如,电子设备100能分析用户手指的移动以确定是将该手势解释为拖动还是轻扫。在这样的实施例中,如果手势是以达到或超过某个阈值的速率来提供,则电子设备可将该手势解释为轻扫,而非拖动。在其它实施例中,轻扫手势和拖动手势可被解释为相同触摸输入。因此,在一些实施例中,参考图8-10所述的轻扫手势也可以是参考图1-7所述的拖动手势。
如图9所示,用户已经将接触从区域802移动(即轻扫)到区域802’。响应于接收到轻扫手势,电子设备100可考虑上下文信息以确定是否执行消息删除。在一些实施例中,上下文可涉及设备当前处于运动中还是静止的。例如,为了防止在用户正在走路、慢跑、骑自行车、驾驶等期间提供的无意手势导致消息错误删除,电子设备100可确定其是处于运动中还是静止的。这样的确定可由电子设备100利用任何合适的传感器设备(诸如加速度计、位置确定电路等)来进行。
重新参考图9,在接收到轻扫手势后,电子设备100可确定其是处于运动中还是静止的。如果电子设备100确定其是静止的,则响应于所接收的手势可删除消息712。然而如果电子设备100确定其处于运动中,则电子设备100为了删除消息712可能相反还要求附加的触摸输入。例如,如图9所示,如果电子设备100在其处于运动中期间接收到轻扫手势,则可附加地在用户界面702中在消息712上或附近显示确认元素902。在用户选择确认元素902后,电子设备100于是可删除消息712。当轻扫手势是在电子设备100静止期间被接收时,可以不显示这样的确认元素。在电子设备100处于运动中时要求用户附加地选择确认元素902旨在降低由于因在用户和电子设备100处于运动中期间用户与电子设备100相互作用而可能发生的无意识轻扫所导致的无意的消息删除的发生率。
在一些实施例中,不管电子设备100处于运动中还是静止的,为了删除消息,可能都要求用户选择确认元素902。在这样的实施例中,响应于在电子设备100静止时接收到轻扫手势,确认元素902可被显示在用户界面702中。如上所述,响应于用户选择确认元素902,消息712可被删除。然而如果轻扫手势是在电子设备100处于运动中时被接收到的,则可以不显示确认元素902。在这样的实施例中,通过响应于在电子设备100处于运动中时接收到的轻扫手势不显示确认元素902,能进一步降低无意的消息删除的发生率。
在一些实施例中,在不同上下文中为了删除消息而需要的触摸输入可包括相同手势的不同形式。例如,如图10中所示,电子设备100可识别不同长度的轻扫手势1002、1004,并且所识别的轻扫的起始点和结束点可取决于电子设备100是静止的还是处于运动中。在一些实施例中,如果电子设备100确定其是静止的,则“短的”轻扫手势可能就足以删除消息(例如消息712)。在这样的实施例中,用户可通过在消息712附近在触摸屏区域802上施加接触(例如手指)并沿箭头1002的方向在开始于区域802处且结束于箭头1002的头端处的轻扫运动中移动该接触来生成“短的”轻扫手势。
为了防止在用户正在走路、慢跑、骑自行车、驾驶等时无意的消息删除,电子设备100可要求“长的”轻扫来在电子设备100处于运动中时删除消息。这样的“长的”轻扫可涉及用户在区域802上施加接触(例如手指)并沿箭头1004的方向在开始于区域802处且结束于箭头1004的头端处的轻扫运动中移动该接触。因此,如果电子设备100(例如经由加速度计数据、位置确定电路数据等)确定其处于运动中,则电子设备100可不将“短的”轻扫识别为足以删除消息712。相反,电子设备100可以只有在所接收的触摸输入对应于“长的”轻扫的情况下才执行消息删除。因此,在不同上下文中(例如电子设备100处于运动中或者静止)为了删除消息而需要的触摸输入可包括相同手势的不同形式(例如“长的”轻扫或“短的”轻扫)。由于更长的轻扫可能涉及用户的更多努力,所以消息错误删除的发生率在一些实施例中能被降低。
图10中所示的箭头1002、1004代表不同长度的示例性轻扫手势的路径,并且仅仅作为示例而被提供。在各种实施例中,用于执行消息删除的触摸输入的位置、长度、和/或方向可能不同,并且可使用任何其他适当的触摸输入,包括诸如捏合、轻弹、单击、双击、旋转、多点触摸手势等这样的手势。此外,根据各种实施例,响应于在不同上下文中接收到不同触摸输入可执行任何其他合适的动作。
在一些实施例中,在不同上下文中电子设备100为了执行同一动作而需要的不同触摸输入可包括相同手势的不同序列。例如,如图11-13中所示,电子设备100可显示对应于锁定应用程序的用户界面1102。然而,这并非意图进行限制。本公开中所述的上下文敏感的动作可利用能够响应于在不同上下文中所接收的不同手势序列来执行动作的任何适当的应用程序来执行。
如图11中所示,锁定应用程序的用户界面1102可由电子设备100显示,并且可包括多个用户能选择的密码元素1104。在一些实施例中,如图11中进一步所示,用户界面1102还可包括能在已经选择这些密码元素1104中的一者或多者时为用户提供图形确认的一个或多个选择确认元素1106。
在一些实施例中,锁定应用程序能提示用户输入预先确定的密码以允许访问电子设备100的各种功能性(即“解锁”电子设备100)。例如,为了解锁电子设备100,可需要对应于字符(例如字母、数字、和/或符号)选择的特定手势(诸如单击)序列来“解锁”电子设备100。如图12中所示,用户可通过在对应于数字“1”的密码元素附近的触摸屏区域1202上施加接触(例如手指)、并且然后通过顺序地在对应于数字“2”、“3”、和“4”的密码元素附近施加接触来提供单击手势,从而输入密码1、2、3、4(作为非限制性示例)。
为了允许用户在用户正在走路、慢跑、骑自行车、驾驶等时更容易地解锁电子设备100,在一些实施例中,可以只要求完整密码的一部分(例如单击密码字符选择的子组)。因此,在密码字符正被选择时(或在第一个选择之前),电子设备100可确定上下文信息,诸如电子设备是100处于运动中还是静止的。如上所述,这样的确定可由电子设备100利用任何合适的传感器设备(诸如加速度计、位置确定电路等)来进行。如果电子设备100确定其是静止的,则为了解锁电子设备100,可要求对应于顺序地选择完整密码(例如1、2、3、4)的单击手势。然而,如果电子设备100确定其处于运动中,则特定子组的单击选择可能就足以解锁设备。例如,如图13中所示,如果电子设备100在其处于运动中期间接收到密码的前两个字符(例如1、2),电子设备100就可执行解锁功能,尽管密码的剩余两个字符(例如3、4)还没有被选择。在本发明的各种实施例中,由于触摸输入在用户处于运动中期间可能更难以提供,所以在只接收到完整密码的一部分时就解锁电子设备100可为用户提供使用简易性和便利性。
图14描绘可结合本发明实施例的一种系统1400的简化示意图。在图14所示的实施例中,系统1400包括多个子系统,所述多个子系统包括用户界面(UI)子系统1402、上下文确定子系统1404、动作子系统1406、应用程序子系统1408、以及存储触摸输入、上下文、和动作映射1412的存储器子系统1410。如图14中所示,系统1400还可包括传感器设备1414。可提供一个或多个通信路径,通信路径允许子系统中的一个或多个子系统与彼此通信并且交换数据。图14中所描绘的子系统中的一者或多者可在软件中、硬件中或两者的组合中实现。在一些实施例中,软件可存储在暂态或非暂态介质上(例如存储在存储器中)并且由系统1400的一个或多个处理器执行。
应当理解,图14中所描绘的系统1400可具有除图14中所描绘的那些部件之外的其他部件。另外,图14所示的实施例仅仅是可包含本发明的实施例的系统的一个示例。在一些其他实施例中,系统1400可具有比图14所示的部件更多或更少的部件,可组合两个或更多个部件,或可具有不同的部件配置或布置。在一些实施例中,系统1400可以是电子设备的一部分。例如,系统1400可以是诸如移动电话、智能电话或多功能设备这样的便携式通信设备的一部分。电子设备的示例性实施例包括但不限于来自Apple Inc.(Cupertino,California)的
Figure BDA0002157852440000131
iPod 
Figure BDA0002157852440000132
Figure BDA0002157852440000133
设备。在一些其他实施例中,系统1400还可并入到诸如台式计算机、信息亭等等这样的其他电子设备中。
UI子系统1402可提供允许用户与系统1400进行交互的界面。UI子系统1402可输出信息给用户。例如,UI子系统1402可包括诸如监视器或屏幕这样的显示设备。UI子系统1402还可使用户能够向系统1400提供输入。在一些实施例中,UI子系统1402可包括不但向用户显示信息而且从用户接收输入的触敏界面(有时也称为触摸屏)。例如,在一些实施例中,UI子系统1402能接收来自用户的触摸输入。这样的触摸输入可对应于一个或多个手势,诸如轻扫、拖动、捏合、轻弹、单击、双击、旋转、多点触摸手势等等。在一些实施例中,UI子系统1402可包括允许用户向系统1400提供输入的一个或多个输入设备,非限制性地诸如是鼠标、指针、键盘、或其它输入设备。在某些实施例中,UI子系统1402还可包括麦克风(例如集成的麦克风或通信地耦接至系统1400的外部麦克风)和被配置为促成语音转文本翻译的语音识别电路。
存储器子系统1410可被配置为存储由本发明的一些实施例使用的数据和指令。在一些实施例中,存储器子系统1410可包括易失性存储器,诸如随机存取存储器或RAM(有时称为系统存储器)。由系统1400的一个或多个处理器执行的指令或代码或程序可存储在RAM中。存储器子系统1410还可包括非易失性存储器,诸如一个或多个存储磁盘或存储设备、闪存存储器或其他非易失性存储器设备。在一些实施例中,存储器子系统1410可存储触摸输入、上下文、和动作映射1412。在一些实施例中,映射1412可包括存储各个应用程序的触摸输入(例如手势)、上下文、和对应动作之间的关系的查找表。
如上所述,系统1400可以是电子设备的一部分。因此在一些实施例中,存储器子系统1410可以是电子设备的一部分。然而,在一些实施例中,存储器子系统1410的全部或部分可以是远程服务器计算机(例如能经由因特网访问的基于网络的服务器)的一部分。
在一些实施例中,协同工作的UI子系统1402、上下文确定子系统1404、动作子系统1406、应用程序子系统1408、存储器子系统1410、和传感器设备1414可负责执行与响应于所接收的来自用户的触摸输入来执行上下文敏感的动作有关的处理。例如,上下文确定子系统1404能从UI子系统1402接收用户提供的触摸输入。在一些实施例中,触摸输入可对应于手势、手势组合、与其他触摸输入结合的一个或多个手势等等。上下文确定子系统1404然后可确定触摸输入的当前上下文。上下文确定可基于各种信息源。在一些实施例中,上下文可至少部分地基于应用程序子系统1408提供的应用程序(“应用”)数据来确定。应用数据可包括标识在触摸输入被接收时正在执行的应用程序(诸如地图应用程序、消息应用程序、锁定应用程序、或任何其他合适的应用程序)的数据。在一些实施例中,应用数据还可包括描述应用程序的模式的数据。例如,对于地图应用程序,模式可以是标准地图模式、导航模式等。
上下文确定子系统1404用来确定上下文的信息还可包括从传感器设备1414接收的传感器数据。在一些实施例中,传感器设备可包括加速度计、高度计、位置确定电路(例如GPS接收器、无线或数据网络接收器等)、气压计等。因此,上下文确定子系统1404可确定关于实施系统1400的电子设备的运动的上下文信息。
当上下文被确定时,上下文确定子系统1404可将上下文信息、所接收的触摸输入、和至少一部分应用数据(诸如应用程序的身份)传递给动作子系统1406。在接收后,动作子系统1406可与存储器子系统1410通信以确定是否要执行动作,并且如果要执行的话,还确定执行什么动作。例如,动作子系统1406可通过访问包括在触摸输入被接收时正被执行的应用程序的触摸输入、上下文、和动作映射1412的查找表来进行这个确定。如果响应于所接收的触摸输入且基于所确定的上下文要执行动作,则动作子系统可向应用程序子系统1408传送具有执行特定动作的指令的消息。应用程序子系统1408然后可执行该动作。例如在一些实施例中,应用程序子系统1408可生成所执行动作的图形表示,并且可与UI子系统1402通信以在触摸屏上显示该图形表示给用户。在一些实施例中,上下文确定子系统1404和动作子系统1416可以是应用程序子系统1408的一部分。
图14中描绘的系统1400可以各种配置来提供。在一些实施例中,系统1400可被配置为分布式系统,其中系统1400的一个或多个部件跨一个或多个网络分布在云端。图18示出根据本发明一实施例的用于响应于所接收的触摸输入来执行上下文敏感的动作的一种分布式系统1800的简化示意图。在图18所示的实施例中,上下文确定子系统1404、动作子系统1406、应用程序子系统1408、和存储触摸输入、上下文和动作映射1412的存储器子系统1410被提供在经由网络1806与远程电子设备1804通信耦接的服务器1802上。
网络1806可包括一个或多个通信网络,通信网络可以是互联网、局域网(LAN)、广域网(WAN)、无线或有线网络、内联网、专用网络、公用网络、交换网络或任何其他合适的通信网络。网络1806可包括许多互连系统和通信链路,通信链路包括但不限于硬连线链路、光学链路、卫星或其他无线通信链路、波传播链路,或用于传送信息的任何其他方式。各种通信协议可用于促进通过网络1806传送信息,通信协议包括但不限于TCP/IP协议、HTTP协议、可扩展标记语言(XML)、无线应用协议(WAP)、行业标准组织正在开发的协议、供应商专用协议、自定义协议和其他协议。
在图18所示的配置中,触摸输入可被电子设备1804接收。电子设备1804的用户可提供触摸输入。在一些实施例中,触摸输入可对应于手势、手势组合、与其他触摸输入结合的一个或多个手势等等。电子设备1804还可包括一个或多个传感器设备,诸如加速度计、位置确定电路等等。在一些实施例中,对应于一个或多个手势的触摸输入可经由网络1806被传送给服务器1802。在一些实施例中,所述一个或多个传感器提供的传感器数据也可经由网络1806被传送给服务器1802。上下文确定子系统1404于是可与服务器1802上的动作子系统1802协作来确定上下文。在一些情况下,从电子设备1804接收的传感器数据也可被上下文确定子系统1404用来确定上下文。所接收的触摸输入、上下文、和应用数据可被传递给动作子系统1802,动作子系统1802能访问存储器子系统1410中的触摸输入、上下文、和动作映射1412。例如,在基于上下文、触摸输入、和应用数据确定正确的动作后,该动作可由应用程序子系统1408执行,并且任何相应的图形数据可被传送给电子设备1804用于在显示器上展示给用户。在一些实施例中,动作可由应用程序子系统1408传送给电子设备1804。在这样的实施例中,电子设备1804可执行该动作,并经由显示器将相应图形数据展示给用户。在一些实施例中,动作子系统1406和上下文确定子系统1404可以是服务器1802上的应用程序子系统1408的一部分。
在图18中描绘的配置中,上下文确定子系统1404、动作子系统1406、应用程序子系统1408、和存储器子系统1410定位成远离电子设备1804。在一些实施例中,服务器1802可促成为多个电子设备执行取决于上下文的动作。可同时或以某种序列化方式为多个设备服务。在一些实施例中,服务器1802所提供的服务可提供为基于web的服务或云服务,或在软件即服务(SaaS)模型下提供。
应当理解,不同于图18中描绘的分布式系统1800的各种不同分布式系统配置是可能的。图18所示的实施例因此仅仅是用于响应于触摸输入执行取决于上下文的动作的分布式系统的一个示例并且并非旨在进行限制。
图15示出根据本发明一实施例的一简化流程图,描绘了响应于在不同上下文中接收到相同触摸输入而执行不同动作的一种方法1500。图15中所描绘的处理可在由一个或多个处理器执行的软件(例如,代码、指令、和/或程序)中、硬件中或软件和硬件的组合中实施。软件可存储在非暂态计算机可读存储介质上。图15中所描绘的特定系列的处理步骤并非旨在进行限制。
如图15中所示,在步骤1502,可显示应用程序的用户界面。在一些实施例中,应用程序可以是地图应用程序。然而在各种实施例中,应用程序可以是被配置为响应于从用户接收的触摸输入执行动作的任何适当的应用程序。
在步骤1504,可在所显示的用户界面的区域中接收触摸输入。在一些实施例中,触摸输入可对应于手势、手势组合、与其他触摸输入结合的一个或多个手势等等。在一些实施例中,手势可以是拖动、轻扫、捏合、轻弹、单击、双击、旋转、多点触摸手势等等。
在步骤1506,可确定上下文。在一些实施例中,所确定的上下文可涉及应用程序的模式。例如对于地图应用程序,所确定的上下文可涉及地图应用程序处于标准地图模式中还是处于导航模式中。在一些实施例中,所确定的上下文可涉及用户界面中显示的数据表示。例如,所确定的上下文可涉及数据表示与用户界面的纵向模式相关联还是与用户界面的横向模式相关联。
在步骤1508,可确定上下文是否是第一上下文。例如,第一上下文可涉及地图应用程序的标准地图模式、用户界面的纵向模式、或任何其他合适的上下文。如果上下文被确定为是第一上下文,则方法1500可前进到步骤1510。在步骤1510,响应于确定上下文是第一上下文,可执行第一动作。例如,在一些实施例中,第一动作可以是移位、平移、滚动、缩放和倾斜等等。然而,如果在判断1508处确定上下文不是第一上下文,则方法1500可前进到判断1512。
在判断1512处,可确定上下文是否是与第一上下文不同的第二上下文。例如,第二上下文可涉及地图应用程序的导航模式、用户界面的横向模式、或与第一上下文不同的任何其他合适的上下文。如果上下文被确定为是第二上下文,则方法1500可前进到步骤1514。在步骤1514,可执行与第一动作不同的第二动作。例如,在一些实施例中,如果第一动作是移位、平移、滚动、缩放、或倾斜,则第二动作可以是移位、平移、滚动、缩放、或倾斜中的不同的一者。
如果在判断1512处确定上下文也不是第二上下文,如图15中所示,则方法1500可结束。例如,所接收的触摸输入可能不对应于电子设备要执行的任何动作。另外,在一些实施例中,除了第三动作、第四动作、第五动作等等之外还可以有第三上下文、第四上下文、第五上下文等等。因此,如果在判断1512处确定上下文不是第二上下文,方法1500可涉及附加的上下文确定和执行另外的动作。
作为方法1500的一个非限制性示例,应用程序可以是地图应用程序,并且在步骤1502,地图应用程序的用户界面可被显示。在步骤1504可在所显示的用户界面的区域中接收触摸输入诸如拖动手势,并且在步骤1506可确定上下文。上下文可涉及手势被接收时地图应用程序的模式。例如,上下文可以是与地图应用程序的标准地图模式有关的第一上下文或者与地图应用程序的导航模式(例如逐向方向模式)有关的第二上下文。如果判断1508处确定地图应用程序处于标准地图模式中,则在步骤1510处可响应于拖动手势执行第一动作。例如,第一动作可以是所显示的地图数据表示的直线移位。如上所述,移位可以是沿所接收的轻扫手势的方向且根据所接收的轻扫手势的长度。然而,如果相反,判断1512处确定应用程序处于导航模式中,则在步骤1514可执行第二动作。例如,第二动作可以是用户界面中显示的地图数据表示的平移。
如本文所述,在某些其他实施例中,在不同上下文中为了执行相同动作可能需要不同的触摸输入。图16示出涉及这样的过程的一种方法1600的简化流程图。图16中所描绘的处理可在由一个或多个处理器执行的软件(例如,代码、指令、和/或程序)中、硬件中或软件和硬件的组合中实施。软件可存储在非暂态计算机可读存储介质上。图16中所描绘的特定系列的处理步骤并非旨在进行限制。
如图16中所示,在步骤1602,可显示应用程序的用户界面。在一些实施例中,应用程序可以是消息应用程序。在其他实施例中,应用程序可以是锁定应用程序。然而,在各种实施例中,应用程序可以是能够响应于在不同上下文中接收不同触摸输入而执行动作的任何适当的应用程序。
在步骤1604,可在所显示的用户界面的区域中接收触摸输入。在一些实施例中,触摸输入可对应于手势、手势组合、与其他触摸输入结合的一个或多个手势等等。在一些实施例中,手势可以是拖动、轻扫、捏合、轻弹、单击、双击、旋转、多点触摸手势等等。
在步骤1606,可确定上下文。在一些实施例中,上下文可涉及电子设备的运动,诸如执行方法1600的电子设备是静止的还是处于运动中。在一些实施例中,可基于由传感器设备(诸如加速度计、位置确定电路等)提供的传感器数据来确定电子设备的运动。
在步骤1608,可确定上下文是否是第一上下文。例如,第一上下文可涉及电子设备是静止的(即不处于运动中)。如果上下文被确定为是第一上下文,则方法1600可前进到判断1610。在判断1610处,可确定步骤1604处所接收的触摸输入是否是第一触摸输入。例如,第一触摸输入可以是所显示的用户界面的区域中对应于第一长度的轻扫手势、第一手势序列、或任何其他合适的触摸输入。如果在判断1610处确定在步骤1604处接收的触摸输入不是第一触摸输入,如图16中所示,则方法1600可结束。例如,所接收的触摸输入可能不对应于当在第一上下文中被接收时电子设备要执行的任何动作。然而如果确定触摸输入是第一触摸输入,则方法1600可前进到步骤1612。
如上所述,如果(在判断1608处确定)上下文是第一上下文并且(在判断1610处确定)触摸输入是第一触摸输入,则方法1600可前进到步骤1612,在该步骤执行动作。在各种实施例中,动作可包括消息删除、解锁功能、或任何其他合适的动作。
重新参考判断1608,如果确定上下文不是第一上下文,则方法1600可前进到判断1614。在判断1614处,可确定上下文是否是第二上下文。例如,第二上下文可涉及电子设备处于运动中(例如设备的用户正在走路、慢跑、骑自行车、驾驶等)。如果在判断1614处确定上下文也不是第二上下文,则在一些实施例中,方法1600可结束。例如,所接收的触摸输入可能不对应于电子设备要执行的任何动作。然而,在一些实施例中,还可以有第三上下文、第四上下文、第五上下文等等。因此,如果在判断1614处确定上下文不是第二上下文,则方法1600可涉及附加的上下文确定。然而,如果在判断1614处确定上下文是第二上下文,则方法可前进到判断1616。
在判断1616处,可确定步骤1604处所接收的触摸输入是否是第二触摸输入。例如,第二触摸输入可以是所显示的用户界面的区域中对应于第二长度的轻扫手势(其中第二长度比第一长度长)、包括第一手势序列的子组的第二手势序列、与选择用户界面中显示的确认元素结合的轻扫手势、或任何其他合适的触摸输入。如果确定触摸输入不是第二触摸输入,则在本发明的实施例中,方法1600可结束。例如,所接收的触摸输入可能不对应于当在第二上下文中被接收时电子设备要执行的任何动作。然而,如果确定触摸输入是第二触摸输入,则方法1600可前进到步骤1618。
如上所述,如果(在判断1614处确定)上下文是第二上下文并且(在判断1616处确定)触摸输入是第二触摸输入,则方法1600可前进到步骤1618,在该步骤执行动作(即与步骤1612中相同的动作)。
作为方法1600的一个非限制性示例,应用程序可以是消息(例如电子邮件、SMS、语音消息等)应用程序,并且要执行的动作可以是消息删除。在步骤1602处,消息应用程序的用户界面可被显示,并且在步骤1604处,触摸输入可在所显示的用户界面的区域中被接收。例如,触摸输入可以是包括第一长度的轻扫手势的第一触摸输入或者包括比第一长度长的第二长度的轻扫手势的第二触摸输入。在步骤1606,可确定上下文。上下文可涉及由传感器设备(诸如加速度计、位置确定电路等)提供的传感器数据所指示的执行方法1600的电子设备是静止的还是处于运动中。例如,上下文可以是与电子设备静止有关的第一上下文或者与电子设备处于运动中有关的第二上下文。如果判断1608确定电子设备是静止的,并且如果判断1610确定触摸输入是第一触摸输入(即“短的”轻扫),则在步骤1612可执行消息删除。然而,如果设备处于运动中,则为了执行消息删除可要求第二触摸输入(即“长的”轻扫)。如上所述,要求“长的”轻扫可降低在用户正在走路、慢跑、骑自行车、驾驶等期间无意的消息删除的发生率。因此如果判断1614确定设备处于运动中并且如果判断1616确定触摸输入是“长的”轻扫,则在步骤1618可执行消息删除。
应该指出的是,在以上示例中,“长的”轻扫可包括“短的轻扫”,因为根据一些实施例,触摸输入之间的区别可仅仅在于轻扫长度。因此,重新参考判断1610,如果确定在设备静止的上下文中触摸输入是“长的”轻扫,则方法1600仍然可执行步骤1612的消息删除,因为根据某些实施例,“长的”轻扫可被设备识别为包括“短的”轻扫。
作为方法1600的另一非限制性示例,应用程序可以是锁定应用程序(例如提示用户输入密码),并且动作可以是解锁功能,解锁功能“解锁”执行方法1600的电子设备,因此提供对设备功能性的用户访问。在步骤1602,锁定应用程序的用户界面可被显示,并且在步骤1604,触摸输入可在所显示的用户界面的区域中被接收。例如,触摸输入可以是包括对应于选择密码的第一单击手势序列的第一触摸输入或者包括对应于选择密码字符的一部分或子组的第二单击手势序列的第二触摸输入。在步骤1606,可确定上下文。上下文可涉及由传感器设备(诸如加速度计、位置确定电路等)提供的传感器数据所指示设备是静止的还是处于运动中。例如,上下文可以是与电子设备静止有关的第一上下文或者与电子设备处于运动中有关的第二上下文。如果判断1608确定电子设备是静止的,并且如果判断1610确定触摸输入是第一触摸输入(即对应于选择完整密码的第一单击手势序列),则在步骤1612可执行解锁功能。然而,如果设备处于运动中,则第二触摸输入(即对应于密码字符的子组的第二单击手势序列)可能就足以解锁设备。如上所述,在用户正在走路、慢跑、骑自行车、驾驶等时可能更难提供触摸输入,并因此允许用户在这样的上下文中利用更少的手势解锁设备可能是相当有利的。因此,如果判断1614确定电子设备被确定为处于运动中,并且如果触摸输入是对应于选择密码字符的子组的单击手势序列,则在步骤1618可执行解锁功能。
在一些实施例中,步骤1606、判断1608、和判断1614中的一者或多者可在步骤1604之前执行。例如,如果确定设备处于运动中,则可提示用户只选择对应于完整密码的子组的数量减少的密码字符。然而,在一些实施例中,尽管在设备处于运动中的情况下可能只需要子组来解锁设备,但可提示用户输入完整数量的密码字符。另外在各种实施例中,这个子组可包括密码字符的任何组合。例如,这个子组可包括这组密码字符的连续子组、完整密码的第一个和最后一个字符、或者任何其它合适的组合。
如本文所述,本发明的实施例可涉及一种响应于所接收的来自用户的触摸输入来执行上下文敏感的动作的电子设备。通过规定响应于相同触摸输入在不同上下文中执行不同动作,电子设备的功能性可被扩展,而无需设备识别新的手势。另外,通过在不同上下文中为了执行相同动作而要求不同手势,在一些实施例中,可为电子设备的用户提供便利性。例如,在用户正在走路、慢跑、骑自行车、驾驶等时,与用户静止时相比可能更难在电子设备上准确地输入触摸输入。因此,通过在这样的上下文中识别和响应不同手势,能避免无意的触摸输入,并且能更容易地提供所意欲的触摸输入。
如上所述,本发明的某些实施例涉及一种响应于触摸输入执行上下文敏感的动作的电子设备。例如,介绍了某些实施例,其提供响应于在不同上下文中接收到相同触摸输入而执行不同动作的一种电子设备。电子设备能显示应用程序的用户界面,并且能在所显示的用户界面的区域中接收触摸输入。在一些实施例中,触摸输入可对应于包括单击、双击、拖动、轻扫、捏合、轻弹、旋转或多点触摸手势的手势。电子设备能确定上下文。如果上下文是第一上下文,则电子设备可执行第一动作。如果上下文是与第一上下文不同的第二上下文,则电子设备可执行与第一动作不同的第二动作。
在一些实施例中,第一上下文可涉及应用程序的第一模式,并且第二上下文可涉及应用程序的第二模式。在一些实施例中,应用程序可以是地图应用程序,地图应用程序的第一模式可以是标准地图模式,并且应用程序的第二模式可以是导航模式。在一些实施例中,第一动作可包括移位、平移、滚动、缩放和倾斜,并且第二动作可包括移位、平移、滚动、缩放和倾斜中的不同的一者。在一些实施例中,第一上下文可涉及在用户界面中显示的数据的第一表示,并且第二上下文可涉及在用户界面中显示的该数据的第二表示。例如,地图数据的第一表示可与用户界面的纵向模式相关联,并且数据的第二表示可与用户界面的横向模式相关联。
还介绍了某些实施例,其提供在不同上下文中为了执行相同动作而要求不同触摸输入的电子设备。一种电子设备能显示应用程序的用户界面,并且触摸输入能在所显示的用户界面的区域中被接收。电子设备能确定上下文。如果上下文是第一上下文,则在触摸输入是第一触摸输入的情况下,电子设备可执行动作。如果上下文是与第一上下文不同的第二上下文,则在触摸输入是与第一触摸输入不同的第二触摸输入的情况下,电子设备可执行该动作。
在一些实施例中,触摸输入可对应于一个或多个手势。在一些实施例中,所确定的上下文可涉及电子设备的运动。例如,可基于由电子设备的传感器设备提供的传感器数据来确定电子设备的运动。传感器设备可包括加速度计或位置确定电路。在一些实施例中,第一触摸输入可包括所显示的用户界面的区域中对应于第一长度的轻扫手势,并且第二触摸输入可包括所显示的用户界面的区域中对应于比第一长度长的第二长度的轻扫手势。在一些实施例中,第二触摸输入可包括选择在用户界面中显示的确认元素。在一些实施例中,第一触摸输入可对应于第一手势序列,并且第二触摸输入可对应于包括第一手势序列的子组的第二手势序列。在一些实施例中,动作可包括消息删除或解锁功能。
如上所述,系统1400可结合本发明的实施例。系统1400可响应于在上文中参考图1-13所述的示例性用户界面中的一个或多个示例性用户界面中所接收的本文所述触摸输来入执行上下文敏感的动作,和/或可进一步提供上文中参考图15-16所描述的方法步骤中的一个或多个方法步骤。此外,系统1400可被并入到各种系统和设备中。例如,图17示出一种计算机系统1700的简化框图,该计算机系统可包含根据本发明一实施例的用于响应于接收到触摸输入来执行上下文敏感的动作的系统的部件。如图17所示,计算机系统1700可包括通过总线子系统1704与多个外围子系统进行通信的一个或多个处理器1702。这些外围子系统可包括存储子系统1706(包括存储器子系统1708和文件存储子系统1710)、用户界面输入设备1712、用户界面输出设备1714和网络接口子系统1716。
总线子系统1704提供用于允许计算机系统1700的各种部件和子系统按预期彼此通信的机构。虽然总线子系统1704被示意性地示出为单个总线,但是总线子系统的另选实施例可利用多个总线。
可以实现为一个或多个集成电路(例如常规的微处理器或微控制器)的处理器1702控制计算机系统1700的操作。可提供一个或多个处理器1702。这些处理器可包括单核或多核处理器。在各种实施例中,处理器1702可响应于程序代码执行多种程序,并且可维持多个同时执行的程序或过程。在任何给定时间,要执行的程序代码的部分或全部可驻留在存储子系统1706中和/或一个或多个处理器1702中。通过合适的编程,一个或多个处理器1702可提供上述各种功能性。
网络接口子系统1716提供通向其他计算机系统和网络的接口。网络接口子系统1716用作用于从其他系统接收数据并且从计算机系统1700向其他系统传输数据的接口。例如,网络接口子系统1716可使计算机系统1700能通过互联网连接到一个或多个设备。在一些实施例中,网络接口1716可包括用于访问无线语音和/或数据网络(例如使用蜂窝电话技术;如3G、4G或EDGE的高级数据网络技术;WiFi(IEEE 802.11系列标准)、或其他移动通信技术、或它们的任何组合)的射频(RF)收发器部件;GPS接收器部件;和/或其他部件。在一些实施例中,除了或代替无线接口,网络接口1716可以提供有线网络连接性(例如以太网)。
用户界面输入设备1712可包括:键盘;如鼠标或轨迹球的指针;并入到显示器中的触摸板或触摸屏;滚轮;点击式触摸转盘;刻度盘;按钮;开关;小键盘;如语音识别系统的音频输入设备;麦克风;以及其他类型的输入设备。一般来讲,使用术语“输入设备”旨在包括用于向计算机系统1700输入信息的所有可能类型的设备和机构。例如,在
Figure BDA0002157852440000241
中,用户输入设备1712可包括由
Figure BDA0002157852440000242
提供的一个或多个按钮、可显示软件键盘的触摸屏等等。
用户界面输出设备1714可包括显示器子系统、指示灯,或如音频输出设备的非视觉显示器等。显示器子系统可以为阴极射线管(CRT)、如液晶显示器(LCD)的平板设备、投影设备、触摸屏等等。一般来讲,使用术语“输出设备”旨在包括用于从计算机系统1700输出信息的所有可能类型的设备和机构。例如,软件键盘可利用平板屏幕来显示。
存储子系统1706提供计算机可读存储介质,用于存储提供一些实施例的功能的基本编程和数据构造。存储子系统1706可例如以任何组合方式使用磁盘、闪存存储器或任何其他存储介质来实现,并且可根据需要包括易失性和/或非易失性存储。在由处理器执行时提供上述功能的软件(程序、代码模块、指令)可存储在存储子系统1706中。这些软件模块或指令可由一个或多个处理器1702执行。存储子系统1706还可提供存储库,用于存储根据本发明所使用的数据。存储子系统1706可包括存储器子系统1708和文件/磁盘存储子系统1710。
存储器子系统1708可包括多个存储器,这些存储器包括:用于在程序执行期间存储指令和数据的主随机存取存储器(RAM)1718,和存储有固定指令的只读存储器(ROM)1720。文件存储子系统1710提供对程序和数据文件的永久性(非易失性)存储器存储,并且可包括硬盘驱动器、软盘驱动器及相关联的可移除介质、光盘只读存储器(CD-ROM)驱动器、光驱、可移除介质盒和其他类似的存储器存储介质。
计算机系统1700可以是各种类型的,包括个人计算机、便携式设备(例如
Figure BDA0002157852440000251
)、工作站、网络计算机、大型机、信息亭、服务器或任何其他数据处理系统。由于计算机和网络不断变化的性质,对图17中描绘的计算机系统1700的描述旨在仅仅作为具体示例。比图17中描绘的系统具有更多或更少部件的许多其他配置是可能的。
上述各种实施例可使用专用部件和/或可编程处理器和/或其他可编程设备的任何组合来实现。各种实施例可仅在硬件中、或仅在软件中、或使用它们的组合来实现。本文所述的各种过程可以任何组合方式在同一处理器或不同处理器上实现。因此,在将部件或模块描述为被配置为执行某些操作的情况下,这种配置可例如通过以下方式来实现:设计电子电路以执行操作、将可编程电子电路(诸如微处理器)编程以执行操作、或它们的任何组合。进程可使用多种技术进行通信,这些技术包括但不限于用于进程间通信的常规技术,并且不同的进程对可使用不同的技术,或相同的进程对可在不同时间使用不同的技术。另外,尽管上述实施例可能参考了具体硬件部件和软件部件,但本领域的技术人员应当理解,也可使用硬件部件和/或软件部件的不同组合,并且被描述为在硬件中实现的特定操作也可能在软件中实现,或反之亦然。
各种实施例不限于在某些具体数据处理环境中操作,而是可自由地在多个数据处理环境中操作。另外,虽然已使用特定系列事务来描述实施例,但这并不旨在具有限制性。
因此,虽然已经介绍了本发明的特定实施例,但这些实施例并非旨在进行限制。各种修改和等同物在以下权利要求书的范围内。

Claims (35)

1.一种修改用户界面的方法,包括:
在具有触摸屏显示器的电子设备处:
通过所述触摸屏显示器显示具有标准地图模式和导航模式的地图应用程序的所述用户界面,其中所述地图应用程序的所述标准地图模式包括所述地图应用程序的所述用户界面显示地图的表示的模式,并且所述导航模式包括所述地图应用程序的所述用户界面显示关于所述地图的所述表示的路径信息的模式;
通过所述触摸屏显示器接收所显示的所述用户界面中示出的地图中的第一触摸输入;以及,
响应于接收到所述第一触摸输入,根据所述第一触摸输入修改所述用户界面,其中:
根据确定在所述第一触摸输入被接收到时所述电子设备正在所述地图应用程序的所述标准地图模式中操作,根据所述第一触摸输入修改所述用户界面包括由所述电子设备在所述地图应用程序的所述用户界面中执行第一用户界面动作,同时显示地图的表示;以及
根据确定在所述第一触摸输入被接收到时所述电子设备正在所述地图应用程序的所述导航模式中操作,根据所述第一触摸输入修改所述用户界面包括由所述电子设备在所述地图应用程序的所述用户界面中执行第二用户界面动作,所述第二用户界面动作不同于所述第一用户界面动作并且在显示关于所述地图的所述表示的路径信息时被执行。
2.根据权利要求1所述的方法,其中所述第一触摸输入对应于包括单击、双击、拖动、轻扫、捏合、轻弹,旋转或多点触摸手势的手势。
3.根据权利要求1所述的方法,其中所述第一用户界面动作包括移位、平移、滚动,缩放和倾斜中的一个,并且其中所述第二用户界面动作包括所述移位、所述平移、所述滚动、所述缩放和所述倾斜中的不同的一个。
4.根据权利要求1所述的方法,其中:
所述第一触摸输入是拖动手势,
所述第一用户界面动作平移所述地图的所述表示,以及
所述第二用户界面动作旋转所述地图的所述表示。
5.根据权利要求4所述的方法,其中所述地图的所述表示围绕当前位置标识符旋转。
6.根据权利要求4所述的方法,其中旋转所述地图的所述表示在虚拟意义上模拟向左或向右看,同时保持在所述地图的所述表示上显示当前位置标识符和路线。
7.根据权利要求4所述的方法,其中所述拖动手势利用接触来进行,并且所述方法包括响应于检测到所述接触的移除而撤消所述地图的所述表示的所述旋转。
8.根据权利要求4所述的方法,包括响应于预定时间段的期满,撤消所述地图的所述表示的所述旋转。
9.根据权利要求1所述的方法,包括:
在根据所述第一触摸输入修改所述用户界面之后,检测所述第一触摸输入的结束;以及,
响应于检测到所述第一触摸输入的所述结束:
根据确定在所述第一触摸输入结束时所述电子设备正在所述地图应用程序的所述标准地图模式中操作,将所述用户界面保持为如根据所述第一触摸输入而修改的;以及
根据确定在所述第一触摸输入结束时所述电子设备正在所述地图应用程序的所述导航模式中操作,将所述用户界面恢复回到根据所述第一触摸输入被修改之前的所述用户界面的外观。
10.根据权利要求1所述的方法,其中根据所述第一触摸输入修改所述用户界面包括改变所显示的所述地图的所述表示。
11.根据权利要求10所述的方法,其中改变所显示的所述地图的所述表示包括基于所述第一触摸输入中的移动量来改变所显示的所述地图的所述表示。
12.一种编码有指令的计算机可读存储介质,所述指令在由具有触摸屏显示器的电子设备执行时使得所述电子设备:
通过所述触摸屏显示器显示具有标准地图模式和导航模式的地图应用程序的用户界面;
通过所述触摸屏显示器接收所显示的用户界面中示出的地图中的第一触摸输入;以及,
响应于接收到所述第一触摸输入,根据第一触摸输入修改所述用户界面,其中:
根据确定在所述第一触摸输入被接收到时所述电子设备正在所述地图应用程序的所述标准地图模式中操作,根据所述第一触摸输入修改所述用户界面包括由所述电子设备执行第一用户界面动作,其中在所述标准地图模式中,所述地图应用程序的所述用户界面显示地图的表示;以及
根据确定在所述第一触摸输入被接收到时所述电子设备正在所述地图应用程序的所述导航模式中操作,根据所述第一触摸输入修改所述用户界面包括由所述电子设备执行第二用户界面动作,所述第二用户界面动作不同于所述第一用户界面动作,其中在所述导航模式中,所述地图应用程序的所述用户界面显示关于所述地图的所述表示的路径信息。
13.根据权利要求12所述的计算机可读存储介质,其中所述第一触摸输入对应于包括单击、双击、拖动、轻扫、捏合、轻弹,旋转或多点触摸手势的手势。
14.根据权利要求12所述的计算机可读存储介质,其中所述第一用户界面动作包括移位、平移、滚动,缩放和倾斜中的一个,并且其中所述第二用户界面动作包括所述移位、所述平移、所述滚动、所述缩放和所述倾斜中的不同的一个。
15.根据权利要求12-14中任一项所述的计算机可读存储介质,其中:
所述第一触摸输入是拖动手势,
所述第一用户界面动作平移所述地图的所述表示,以及
所述第二用户界面动作旋转所述地图的所述表示。
16.根据权利要求15所述的计算机可读存储介质,其中所述地图的所述表示围绕当前位置标识符旋转。
17.根据权利要求15所述的计算机可读存储介质,其中旋转所述地图的所述表示在虚拟意义上模拟向左或向右看,同时保持在所述地图的所述表示上显示当前位置标识符和路线。
18.根据权利要求15所述的计算机可读存储介质,其中所述拖动手势利用接触来进行,并且
所述指令包括在由所述电子设备执行时使得所述电子设备进行以下的指令:响应于检测到所述接触的移除而撤消所述地图的所述表示的所述旋转。
19.根据权利要求15所述的计算机可读存储介质,包括在由所述电子设备执行时使得所述电子设备进行以下的指令:响应于预定时间段的期满,撤消所述地图的所述表示的所述旋转。
20.根据权利要求12所述的计算机可读存储介质,包括在由所述电子设备执行时使得所述电子设备进行以下的指令:
在根据所述第一触摸输入修改所述用户界面之后,检测所述第一触摸输入的结束;以及,
响应于检测到所述第一触摸输入的所述结束:
根据确定在所述第一触摸输入结束时所述电子设备在所述地图应用程序的所述标准地图模式中操作,将所述用户界面保持为如根据所述第一触摸输入而修改的;以及
根据确定在所述第一触摸输入结束时所述电子设备在所述地图应用程序的所述导航模式中操作,将所述用户界面恢复回到根据所述第一触摸输入被修改之前的所述用户界面的外观。
21.根据权利要求12所述的计算机可读存储介质,其中根据所述第一触摸输入修改所述用户界面包括改变所显示的所述地图的所述表示。
22.根据权利要求21所述的计算机可读存储介质,其中改变所显示的所述地图的所述表示包括基于所述第一触摸输入中的移动量来改变所显示的所述地图的所述表示。
23.一种用于修改用户界面的电子设备,包括:
触摸屏显示器;
一个或多个处理器;
存储器,以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中并且被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于以下的指令:
通过所述触摸屏显示器显示具有标准地图模式和导航模式的地图应用程序的所述用户界面;
通过所述触摸屏显示器接收所显示的所述用户界面中示出的地图中的第一触摸输入;以及
响应于接收到所述第一触摸输入,根据所述第一触摸输入修改所述用户界面,其中:
根据确定在所述第一触摸输入被接收到时所述电子设备正在所述地图应用程序的所述标准地图模式中操作,根据所述第一触摸输入修改所述用户界面包括由所述电子设备执行第一用户界面动作,其中在所述标准地图模式中,所述地图应用程序的所述用户界面显示地图的表示;以及
根据确定在所述第一触摸输入被接收到时所述电子设备正在所述地图应用程序的所述导航模式中操作,根据所述第一触摸输入修改所述用户界面包括由所述电子设备执行第二用户界面动作,所述第二用户界面动作不同于所述第一用户界面动作,其中在所述导航模式中,所述地图应用程序的所述用户界面显示关于所述地图的所述表示的路径信息。
24.根据权利要求23所述的电子设备,其中所述第一触摸输入对应于包括单击、双击、拖动、轻扫、捏合、轻弹,旋转或多点触摸手势的手势。
25.根据权利要求23所述的电子设备,其中所述第一用户界面动作包括移位、平移、滚动,缩放和倾斜中的一个,并且其中所述第二用户界面动作包括所述移位、所述平移、所述滚动、所述缩放和所述倾斜中的不同的一个。
26.根据权利要求23-25中任一项所述的电子设备,其中:
所述第一触摸输入是拖动手势,
所述第一用户界面动作平移所述地图的所述表示,以及
所述第二用户界面动作旋转所述地图的所述表示。
27.根据权利要求26所述的电子设备,其中所述地图的所述表示围绕当前位置标识符旋转。
28.根据权利要求26所述的电子设备,其中旋转所述地图的所述表示在虚拟意义上模拟向左或向右看,同时保持在所述地图的所述表示上显示当前位置标识符和路线。
29.根据权利要求26所述的电子设备,其中所述拖动手势利用接触来进行,并且所述一个或多个程序包括指令,所述指令用于响应于检测到所述接触的移除而撤消所述地图的所述表示的所述旋转。
30.根据权利要求26所述的电子设备,其中所述一个或多个程序包括指令,所述指令用于响应于预定时间段的期满,撤消所述地图的所述表示的所述旋转。
31.根据权利要求23所述的电子设备,其中所述一个或多个程序包括指令,所述指令用于:
在根据所述第一触摸输入修改所述用户界面之后,检测所述第一触摸输入的结束;以及,
响应于检测到所述第一触摸输入的所述结束:
根据确定在所述第一触摸输入结束时所述电子设备正在所述地图应用程序的所述标准地图模式中操作,保持所述用户界面如根据所述第一触摸输入而修改的;以及
根据确定在所述第一触摸输入结束时所述电子设备正在所述地图应用程序的所述导航模式中操作,将所述用户界面恢复回到根据所述第一触摸输入被修改之前的所述用户界面的外观。
32.根据权利要求23所述的电子设备,其中根据所述第一触摸输入修改所述用户界面包括改变所显示的所述地图的所述表示。
33.根据权利要求23所述的电子设备,其中改变所显示的所述地图的所述表示包括基于所述第一触摸输入中的移动量来改变所显示的所述地图的所述表示。
34.根据权利要求31所述的电子设备,其中根据所述第一触摸输入修改所述用户界面包括改变所显示的所述地图的所述表示。
35.根据权利要求34所述的电子设备,其中改变所显示的所述地图的所述表示包括基于所述第一触摸输入中的移动量来改变所显示的所述地图的所述表示。
CN201910722883.XA 2013-08-12 2014-07-25 响应于触摸输入的上下文敏感动作 Active CN110413054B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910722883.XA CN110413054B (zh) 2013-08-12 2014-07-25 响应于触摸输入的上下文敏感动作

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US13/964,961 US9423946B2 (en) 2013-08-12 2013-08-12 Context sensitive actions in response to touch input
US13/964,961 2013-08-12
US13/964,967 2013-08-12
US13/964,967 US9110561B2 (en) 2013-08-12 2013-08-12 Context sensitive actions
PCT/US2014/048250 WO2015023419A1 (en) 2013-08-12 2014-07-25 Context sensitive actions in response to touch input
CN201480044835.5A CN105453016B (zh) 2013-08-12 2014-07-25 响应于触摸输入的上下文敏感动作
CN201910722883.XA CN110413054B (zh) 2013-08-12 2014-07-25 响应于触摸输入的上下文敏感动作

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201480044835.5A Division CN105453016B (zh) 2013-08-12 2014-07-25 响应于触摸输入的上下文敏感动作

Publications (2)

Publication Number Publication Date
CN110413054A CN110413054A (zh) 2019-11-05
CN110413054B true CN110413054B (zh) 2023-04-28

Family

ID=51398868

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201480044835.5A Active CN105453016B (zh) 2013-08-12 2014-07-25 响应于触摸输入的上下文敏感动作
CN201910722883.XA Active CN110413054B (zh) 2013-08-12 2014-07-25 响应于触摸输入的上下文敏感动作

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201480044835.5A Active CN105453016B (zh) 2013-08-12 2014-07-25 响应于触摸输入的上下文敏感动作

Country Status (3)

Country Link
EP (2) EP3033669B1 (zh)
CN (2) CN105453016B (zh)
WO (1) WO2015023419A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9804759B2 (en) 2012-05-09 2017-10-31 Apple Inc. Context-specific user interfaces
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
CN107921317B (zh) 2015-08-20 2021-07-06 苹果公司 基于运动的表盘和复杂功能块
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
US10203866B2 (en) 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US11036387B2 (en) 2017-05-16 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
CN108319423A (zh) * 2017-12-22 2018-07-24 石化盈科信息技术有限责任公司 一种在触摸屏上显示地图的单手操作方法及装置
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
US11301130B2 (en) 2019-05-06 2022-04-12 Apple Inc. Restricted operation of an electronic device
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
CN115904596B (zh) 2020-05-11 2024-02-02 苹果公司 用于管理用户界面共享的用户界面
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241613A (ja) * 2004-03-01 2005-09-08 Hitachi Ltd ナビゲーションシステム
US7934156B2 (en) * 2006-09-06 2011-04-26 Apple Inc. Deletion gestures on a portable multifunction device
CN102356555A (zh) * 2008-12-23 2012-02-15 三星电子株式会社 用于解锁电子装备的方法和装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7301529B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US8607167B2 (en) * 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
WO2009016607A2 (en) * 2007-08-01 2009-02-05 Nokia Corporation Apparatus, methods, and computer program products providing context-dependent gesture recognition
US9465532B2 (en) * 2009-12-18 2016-10-11 Synaptics Incorporated Method and apparatus for operating in pointing and enhanced gesturing modes
KR101915615B1 (ko) * 2010-10-14 2019-01-07 삼성전자주식회사 모션 기반 사용자 인터페이스 제어 장치 및 방법
US20120313847A1 (en) * 2011-06-09 2012-12-13 Nokia Corporation Method and apparatus for contextual gesture recognition
CN102520858B (zh) * 2011-12-08 2013-12-18 深圳万兴信息科技股份有限公司 一种移动终端的应用控制方法及装置
US8970519B2 (en) * 2012-02-01 2015-03-03 Logitech Europe S.A. System and method for spurious signal detection and compensation on an input device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241613A (ja) * 2004-03-01 2005-09-08 Hitachi Ltd ナビゲーションシステム
US7934156B2 (en) * 2006-09-06 2011-04-26 Apple Inc. Deletion gestures on a portable multifunction device
CN102356555A (zh) * 2008-12-23 2012-02-15 三星电子株式会社 用于解锁电子装备的方法和装置

Also Published As

Publication number Publication date
CN105453016A (zh) 2016-03-30
EP4332725A2 (en) 2024-03-06
CN110413054A (zh) 2019-11-05
EP4332725A3 (en) 2024-06-05
CN105453016B (zh) 2019-08-02
EP3033669B1 (en) 2024-01-17
WO2015023419A1 (en) 2015-02-19
EP3033669A1 (en) 2016-06-22

Similar Documents

Publication Publication Date Title
CN110413054B (zh) 响应于触摸输入的上下文敏感动作
US9110561B2 (en) Context sensitive actions
US11714535B2 (en) Edge gesture interface with smart interactions
US9875023B2 (en) Dial-based user interfaces
CN108027650B (zh) 用于测量显示器之间的角度的方法和使用该方法的电子设备
US11662900B2 (en) Application control using a gesture based trigger
EP3091426B1 (en) User terminal device providing user interaction and method therefor
EP2261784B1 (en) Mobile terminal and method of displaying information in mobile terminal
JP5372157B2 (ja) 拡張現実のためのユーザインターフェース
US9208698B2 (en) Device, method, and graphical user interface for manipulating a three-dimensional map view based on a device orientation
US10042596B2 (en) Electronic device and method for controlling the same
US20110231796A1 (en) Methods for navigating a touch screen device in conjunction with gestures
US20130016122A1 (en) Multifunctional Environment for Image Cropping
JP2011138536A (ja) デバイス上の言語入力インターフェース
EP3722933B1 (en) User interface display method and apparatus therefor
WO2017063443A1 (zh) 一种消息显示方法及装置
US20140337720A1 (en) Apparatus and method of executing function related to user input on screen
CN117742853A (zh) 用于简档管理的交互式用户界面
US20150186029A1 (en) Multiscreen touch gesture to determine relative placement of touch screens
CN109844709B (zh) 用于呈现信息的方法和计算机化系统
US9256358B2 (en) Multiple panel touch user interface navigation
CN111324260B (zh) 用于移动视图的方法和装置
KR20160026252A (ko) 화면 확대 방법, 전자 장치 및 저장 매체
CN107077276B (zh) 用于提供用户界面的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant