CN113190126A - 用于屏幕的手写键盘 - Google Patents

用于屏幕的手写键盘 Download PDF

Info

Publication number
CN113190126A
CN113190126A CN202110446637.3A CN202110446637A CN113190126A CN 113190126 A CN113190126 A CN 113190126A CN 202110446637 A CN202110446637 A CN 202110446637A CN 113190126 A CN113190126 A CN 113190126A
Authority
CN
China
Prior art keywords
text
strokes
stroke
touch
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110446637.3A
Other languages
English (en)
Inventor
R·S·狄克勋
I·乔德里
B·W·格里芬
T·S·乔恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN113190126A publication Critical patent/CN113190126A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Discrimination (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明题为“用于屏幕的手写键盘”。本公开整体涉及在触敏表面上进行手写。在一些示例中,响应于可旋转输入机构来查看并选择在触敏表面上输入的文本建议笔画。在一些示例中,基于触敏表面上的随后输入的笔画来修订从触敏表面上的一组笔画确定的文本。在一些示例中,基于该笔画和前一笔画之间的时间来确定是否在一组笔画中包括该笔画。在一些示例中,中断基于一组笔画来确定文本,以基于该组笔画和第二笔画来确定修订的文本。

Description

用于屏幕的手写键盘
相关申请引用
本申请是中国国家申请号为201710424212.6、申请日为2017年6月7日、发明名称为“用于屏幕的手写键盘”的发明专利申请的分案申请。
技术领域
本公开整体涉及计算机用户界面,并且更具体地涉及用于在小屏幕上进行手写的技术。
背景技术
可穿戴电子设备常常具有用于显示信息并允许与电子设备和其上所存储的内容进行最小量的交互的显示屏。
发明内容
这些可穿戴设备中的一些可穿戴设备包括触敏表面,但屏幕的尺寸很小,使得难以在设备上直接输入文本。其他数据输入方法诸如口述也是可能的,但也具有缺点。在进行消息传送的情况下,仅在有限数量的预定义消息之一适用当前状况时,有一些用途的预定义消息才是适当的。
然而,使用电子设备在小屏幕上进行手写的一些技术通常麻烦并且效率低下。例如,一些现有技术使用复杂并且耗时的用户界面,其可包括多次按键按压或击键。现有技术需要比所需更多的时间,从而浪费用户时间和设备能量。这后一考虑在电池驱动的设备中是特别重要的。
因此,本技术为电子设备提供了更快、更有效的方法和界面,以用于在小屏幕上进行手写。此类方法和界面任选地补充或替换用于在小屏幕上进行手写的其他方法。此类方法和界面减少了对用户所造成的认知负担并且产生更有效的人机界面。对于电池驱动的计算设备,此类方法和界面节省功率并且增加电池两次充电之间的时间间隔。例如,下文描述的技术通过如下方式实现了更有效地识别通过触敏表面输入进行的手写:允许手动和自动修订已被识别的文本,智能收集和处理笔画输入,以及识别何时笔画输入属于当前字符或属于下一个字符。
根据一个实施方案,在具有触敏表面、显示器、可旋转输入机构和一个或多个处理器的便携式电子设备处:在包括消息区域和笔画输入区域的显示器上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一组笔画;基于第一组笔画来确定第一文本;在消息区域中的显示器上显示第一文本;基于第一文本来确定一个或多个建议,其中该一个或多个建议包括对第一文本的一个或多个改变;在确定该一个或多个建议之后,经由可旋转输入机构来接收用户输入;响应于用户输入:显示一个或多个建议中的至少一个建议;以及显示用于指示一个或多个建议中的所选择的建议的选择指示符;在显示至少一个建议或一个或多个建议和选择指示符之后,利用对所选择的建议的显示来替代对第一文本的显示。
公开了存储一个或多个程序的暂态计算机可读存储介质的实施方案,该一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的便携式电子设备的一个或多个处理器执行,该一个或多个程序包括用于进行以下操作的指令:在包括消息区域和笔画输入区域的显示器上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一组笔画;基于第一组笔画来确定第一文本;在消息区域中的显示器上显示第一文本;基于第一文本来确定一个或多个建议,其中该一个或多个建议包括对第一文本的一个或多个改变;在确定该一个或多个建议之后,经由可旋转输入机构来接收用户输入;响应于用户输入:显示一个或多个建议中的至少一个建议;以及显示用于指示一个或多个建议中的所选择的建议的选择指示符;在显示至少一个建议或一个或多个建议和选择指示符之后,利用对所选择的建议的显示来替代对第一文本的显示。
根据一个实施方案,在具有触敏表面、显示器、可旋转输入机构和一个或多个处理器的电子设备处:在包括消息区域和笔画输入区域的显示器上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一组笔画;基于第一组笔画来确定第一文本;在消息区域中显示第一文本;在接收到第一组笔画并且显示第一文本之后,在笔画输入区域中的触敏表面上接收第二组笔画;基于第一组笔画和第二组笔画来确定修订的第一文本;以及利用修订的第一文本来替代对第一文本的显示。
公开了存储一个或多个程序的暂态计算机可读存储介质的实施方案,该一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的电子设备的一个或多个处理器执行,该一个或多个程序包括用于进行以下操作的指令:在包括消息区域和笔画输入区域的显示器上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一组笔画;基于第一组笔画来确定第一文本;在消息区域中显示第一文本;在接收到第一组笔画并且显示第一文本之后,在笔画输入区域中的触敏表面上接收第二组笔画;基于第一组笔画和第二组笔画来确定修订的第一文本;以及利用修订的第一文本来替代对第一文本的显示。
根据一个实施方案,在具有触敏表面、显示器、可旋转输入机构和一个或多个处理器的电子设备处:在包括消息区域和笔画输入区域的显示器上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一组笔画;开始基于第一组笔画来确定第一文本;不在消息区域中显示第一文本,在接收到第一组笔画之后,在笔画输入区域中的触敏表面上接收第二组笔画;基于第一组笔画和第二组笔画来确定修订的第一文本;以及在消息区域中显示修订的第一文本。
公开了存储一个或多个程序的暂态计算机可读存储介质的实施方案,该一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的电子设备的一个或多个处理器执行,该一个或多个程序包括用于进行以下操作的指令:在包括消息区域和笔画输入区域的显示器上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一组笔画;开始基于第一组笔画来确定第一文本;不在消息区域中显示第一文本,在接收到第一组笔画之后,在笔画输入区域中的触敏表面上接收第二组笔画;基于第一组笔画和第二组笔画来确定修订的第一文本;以及在消息区域中显示修订的第一文本。
根据一个实施方案,在具有触敏表面、显示器、可旋转输入机构和一个或多个处理器的电子设备处:在包括消息区域和笔画输入区域的显示器上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一笔画;在接收到第一笔画之后的第一时间,在触敏表面上接收第二笔画,其中第二笔画与第一笔画不同;确定第一时间是否超过阈值时间;根据确定第一时间超过阈值时间,基于第一笔画但不基于第二笔画来确定第一字符;根据确定第一时间小于阈值时间,基于第一笔画和第二笔画来确定第一字符;以及在消息区域中显示第一字符。
公开了存储一个或多个程序的暂态计算机可读存储介质的实施方案,该一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的电子设备的一个或多个处理器执行,该一个或多个程序包括用于进行以下操作的指令:在包括消息区域和笔画输入区域的显示器上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一笔画;在接收到第一笔画之后的第一时间,在触敏表面上接收第二笔画,其中第二笔画与第一笔画不同;确定第一时间是否超过阈值时间;根据确定第一时间超过阈值时间,基于第一笔画但不基于第二笔画来确定第一字符;根据确定第一时间小于阈值时间,基于第一笔画和第二笔画来确定第一字符;以及在消息区域中显示第一字符。
用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的非暂态计算机可读存储介质或其他计算机程序产品中。用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的暂态计算机可读存储介质或其他计算机程序产品中。
因此,为设备提供了更快、更有效的方法和界面以用于在小屏幕上进行手写,由此提高了此类设备的有效性、效率和用户满意度。此类方法和界面可补充或替换用于在小屏幕上进行手写的其他方法。
附图说明
为了更好地理解各种所描述的实施方案,应当结合以下附图参考以下具体实施方式,在附图中类似的附图标号在所有附图中指示对应的部件。
图1A是示出了根据一些实施方案的具有触敏显示器的便携式多功能设备的框图。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框图。
图2示出了根据一些实施方案具有触摸屏的便携式多功能设备。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。
图4A示出了根据一些实施方案的便携式多功能设备上的应用程序的菜单的示例性用户界面。
图4B示出了根据一些实施方案的具有与显示器分开的触敏表面的多功能设备的示例性用户界面。
图5A示出了根据一些实施方案的个人电子设备。
图5B是示出了根据一些实施方案的个人电子设备的框图。
图6A-图6R示出了用于在屏幕上进行手写的示例性用户界面。
图7是示出了用于在触敏表面上进行手写的方法的流程图。
图8示出了电子设备的示例性功能框图。
图9A-图9I示出了用于在屏幕上进行手写的示例性用户界面。
图10是示出了用于在触敏表面上进行手写的方法的流程图。
图11示出了电子设备的示例性功能框图。
图12A-图12L示出了用于在屏幕上进行手写的示例性用户界面。
图13是示出了用于在触敏表面上进行手写的方法的流程图。
图14示出了电子设备的示例性功能框图。
图15A-图15J示出了用于在屏幕上进行手写的示例性用户界面。
图16是示出了用于在触敏表面上进行手写的方法的流程图。
图17示出了电子设备的示例性功能框图。
具体实施方式
下文的描述阐述了示例性方法、参数等。然而,应当认识到,此类描述并非旨在限制本公开的范围,而是作为对示例性实施方案的描述来提供。
存在对提供有效的方法和界面以用于在小屏幕上进行手写的电子设备的需要。例如,具有小的触敏表面的可穿戴设备允许访问和导航一些内容和数据,但这些屏幕当前在直接输入文本数据时难以使用。本文描述的技术能够向触敏表面尤其是具有小尺寸的触敏表面上提供更好的手写输入。此类技术可减轻在小屏幕上输入手写时的用户的认知负担,由此提高生产效率。此外,此类技术可减少本来浪费在冗余用户输入上的处理器功率和电池功率。
下面,图1A-图1B、图2、图3、图4A-图4B和图5A-图5B提供了用于执行用于管理事件通知的技术的示例性设备的描述。图6A-图6R示出了用于管理事件通知的示例性用户界面。图7是示出了根据一些实施方案的管理事件通知的方法的流程图。图6A-图6R中的用户界面用于示出包括图7中的过程的下文描述的过程。
图9A-图9I示出了用于管理事件通知的示例性用户界面。图10是示出了根据一些实施方案的管理事件通知的方法的流程图。图9A-图9I中的用户界面用于示出包括图10中的过程的下文描述的过程。
图12A-图12L示出了用于管理事件通知的示例性用户界面。图13是示出了根据一些实施方案的管理事件通知的方法的流程图。图12A-图12L中的用户界面用于示出包括图13中的过程的下文描述的过程。
图15A-图15J示出了用于管理事件通知的示例性用户界面。图16是示出了根据一些实施方案的管理事件通知的方法的流程图。图15A-图15J中的用户界面用于示出包括图16中的过程的下文描述的过程。
尽管以下描述使用术语“第一”、“第二”等来描述各种元件,但这些元件不应受术语的限制。这些术语只是用于将一个元素与另一元素区分开。例如,第一触摸可被命名为第二触摸并且类似地第二触摸可被命名为第一触摸,而不脱离各种所述实施方案的范围。第一触摸和第二触摸两者都是触摸,但是它们不是同一触摸。
在本文中对各种所描述的实施方案的描述中所使用的术语只是为了描述特定实施方案的目的,而并非旨在进行限制。如在对各种所述实施方案的描述和所附权利要求书中所使用的那样,单数形式“一个”(“a”“an”)“所述”旨在也包括复数形式,除非上下文另外明确地指示。还应当理解,本文中所使用的术语“和/或”是指并且涵盖相关联地列出的项目中的一个或多个项目的任何和全部可能的组合。还应当理解,术语“包括”(“includes”,“including”,“comprises”和/或“comprising”)当在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元素和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元素、部件和/或其分组。
根据上下文,术语“如果”任选地被解释为意思是“当...时”(“when”或“upon”)或“响应于确定”或“响应于检测到”。类似地,根据上下文,短语“如果确定...”或“如果检测到[所陈述的条件或事件]”任选地被解释为意思是“在确定...时”或“响应于确定...”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
描述了电子设备、用于此类设备的用户界面,以及用于使用此类设备的相关联过程的实施方案。在一些实施方案中,该设备是还包含其他功能诸如PDA和/或音乐播放器功能的便携式通信设备,诸如移动电话。便携式多功能设备的示例性实施方案包括但不限于来自Apple Inc.(Cupertino,California)的
Figure BDA0003037175420000071
设备、iPod
Figure BDA0003037175420000072
设备和
Figure BDA0003037175420000073
设备。任选地使用其他便携式电子设备,诸如具有触敏表面(例如,触摸屏显示器和/或触摸板)的膝上型电脑或平板电脑。还应当理解,在一些实施方案中,该设备并非便携式通信设备,而是具有触敏表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在下面的论述中,描述了一种包括显示器和触敏表面的电子设备。然而,应当理解,该电子设备任选地包括一个或多个其他物理用户界面设备,诸如物理键盘、鼠标和/或操纵杆。
该设备通常支持各种应用程序,诸如以下应用程序中的一个或多个应用程序:绘图应用程序、呈现应用程序、文字处理应用程序、网站创建应用程序、盘编辑应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息应用程序、健身支持应用程序、照片管理应用程序、数字相机应用程序、数字视频摄像机应用程序、网页浏览应用程序、数字音乐播放器应用程序、和/或数字视频播放器应用程序。
在设备上执行的各种应用程序任选地使用至少一个共用物理用户界面设备,诸如触敏表面。触敏表面的一种或多种功能以及被显示在设备上的对应信息任选地从一种应用程序调整和/或变化至下一种应用程序和/或在相应应用程序内被调整和/或变化。这样,设备的共用物理架构(诸如触敏表面)任选地利用对于用户而言直观且清楚的用户界面来支持各种应用程序。
现在关注具有触敏显示器的便携式设备的实施方案。图1A是示出了根据一些实施方案的具有触敏显示系统112的便携式多功能设备100的框图。触敏显示器112有时为了方便被叫做“触摸屏”,并且有时可被称为或被叫做“触敏显示器系统”。设备100包括存储器102(其任选地包括一个或多个计算机可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、外围设备接口118、RF电路108、音频电路110、扬声器111、麦克风113、输入/输出(I/O)子系统106、其他输入控制设备116、和外部端口124。设备100任选地包括一个或多个光学传感器164。设备100任选地包括用于检测设备100(例如,触敏表面,诸如设备100的触敏显示系统112)上的接触的强度的一个或多个接触强度传感器165。设备100任选地包括用于在设备100上生成触觉输出的一个或多个触觉输出发生器167(例如,在触敏表面诸如设备100的触敏显示系统112或设备300的触摸板355上生成触觉输出)。这些部件任选地通过一个或多个通信总线或信号线103进行通信。
如在本说明书和权利要求书中所使用的,术语触敏表面上的接触的“强度”是指触敏表面上的接触(例如,手指接触)的力或压力(每单位面积的力),或是指触敏表面上的接触的力或压力的替代物(代用物)。接触的强度具有值范围,该值范围包括至少四个不同的值并且更典型地包括上百个不同的值(例如至少256个)。接触的强度任选地使用各种方法和各种传感器或传感器的组合来确定(或测量)。例如,在触敏表面下方或相邻于触敏表面的一个或多个力传感器任选地用于测量触敏表面上的不同点处的力。在一些具体实施中,来自多个力传感器的力测量被合并(例如,加权平均),以确定估计的接触力。类似地,触笔的压敏顶端任选地用于确定触笔在触敏表面上的压力。另选地,在触敏表面上检测到的接触面积的大小和/或其变化、邻近接触的触敏表面的电容和/或其变化,和/或邻近接触的触敏表面的电阻和/或其变化任选地被用作触敏表面上的接触的力或压力的替代物。在一些具体实施中,接触力或压力的替代测量直接用于确定是否已超过强度阈值(例如,强度阈值以与替代测量对应的单位进行描述)。在一些具体实施中,接触力或压力的替代物测量被转换成估计的力或压力,并且估计的力或压力用于确定是否已超过强度阈值(例如,强度阈值是以压力的单位进行测量的压力阈值)。使用接触的强度作为用户输入的属性允许用户访问用户在实际面积有限的尺寸更小的设备上本来不可访问的附加设备功能,该尺寸更小的设备用于(例如在触敏显示器上)显示示能表示和/或接收用户输入(例如经由触敏显示器、触敏表面或物理控件/机械控件,诸如旋钮或按钮)。
如本说明书和权利要求书中所使用的,术语“触觉输出”是指将由用户通过用户的触摸感检测到的设备相对于设备的先前位置的物理位移、设备的部件(例如,触敏表面)相对于设备的另一个部件(例如,外壳)的物理位移、或部件相对于设备的质心的位移。例如,在设备或设备的部件与用户对触摸敏感的表面(例如,手指、手掌或用户手部的其他部分)接触的情况下,通过物理位移生成的触觉输出将由用户解释为触感,该触感对应于设备或设备的部件的物理特征的所感知的变化。例如,触敏表面(例如,触敏显示器或触控板)的移动任选地由用户解释为对物理致动按钮的“按下点击”或“松开点击”。在一些情况下,用户将感觉到触感,诸如“按下点击”或“松开点击”,即使在通过用户的移动而物理地被按压(例如,被移位)的与触敏表面相关联的物理致动按钮没有移动时。作为另一个示例,即使在触敏表面的光滑度无变化时,触敏表面的移动也会任选地由用户解释为或感测为触敏表面的“粗糙度”。虽然由用户对触摸的此类解释将受到用户的个体化感官知觉的限制,但是存在触摸的许多感官知觉是大多数用户共有的。因此,当触觉输出被描述为对应于用户的特定感官知觉(例如“松开点击”、“按下点击”、“粗糙度”)时,除非另外陈述,否则所生成的触觉输出对应于设备或其部件的物理位移,该物理位移将生成典型(或普通)用户的所描述的感官知觉。
应当理解,设备100仅是一种便携式多功能设备的一个示例,并且设备100任选地具有比所示出的更多或更少的部件,任选地组合两个或更多个部件,或者任选地具有这些部件的不同配置或布置。图1A中所示的各种部件以硬件、软件、或硬件与软件两者的组合来实现,其包括一个或多个信号处理电路和/或专用集成电路。
存储器102任选地包括高速随机存取存储器,并且任选地还包括非易失性存储器,诸如一个或多个磁盘存储设备、闪存存储器设备、或其他非易失性固态存储器设备。存储器控制器122任选地控制设备100的其他部件访问存储器102。
外围设备接口118可用于将设备的输入外围设备和输出外围设备耦接至CPU 120和存储器102。一个或多个处理器120运行或执行被存储在存储器102中的各种软件程序和/或指令集,以执行设备100的各种功能并处理数据。在一些实施方案中,外围设备接口118、CPU 120和存储器控制器122任选地被实现在单个芯片诸如芯片104上。在一些其他实施方案中,它们任选地被实现在独立的芯片上。
RF(射频)电路108接收和发送也被叫做电磁信号的射频信号。RF电路108将电信号转换为电磁信号/将电磁信号转换为电信号,并且经由电磁信号来与通信网络以及其他通信设备进行通信。RF电路108任选地包括用于执行这些功能的熟知的电路,包括但不限于天线系统、RF收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码芯片组、用户身份模块(SIM)卡、存储器等等。RF电路108任选地通过无线通信来与网络以及其他设备进行通信,该网络为诸如互联网(也被称为万维网(WWW))、内联网、和/或无线网络(诸如蜂窝电话网络、无线局域网(LAN)和/或城域网(MAN))。RF电路108任选地包括用于检测近场通信(NFC)场的熟知的电路,诸如通过近程通信无线电部件来进行检测。无线通信任选地使用多种通信标准、协议和技术中的任一者,包括但不限于全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、演进、纯数据(EV-DO)、HSPA、HSPA+、双单元HSPA(DC-HSPDA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、蓝牙低功耗、无线保真(Wi-Fi)(例如,IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n和/或IEEE 802.11ac)、互联网协议语音(VoIP)、Wi-MAX、电子邮件协议(例如,互联网消息访问协议(IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息处理和存在协议(XMPP)、用于即时消息和存在利用扩展的会话发起协议(SIMPLE)、即时消息和存在服务(IMPS))和/或短消息服务(SMS),或者包括在本文档提交日期时还未开发出的通信协议的任何其他适当的通信协议。
音频电路110、扬声器111和麦克风113提供用户与设备100之间的音频接口。音频电路110从外围设备接口118接收音频数据,将音频数据转换为电信号,并将电信号传输到扬声器111。扬声器111将电信号转换为人类可听见的声波。音频电路110还接收由麦克风113根据声波转换的电信号。音频电路110将电信号转换为音频数据,并将音频数据传输到外围设备接口118以用于处理。音频数据任选地由外围设备接口118检索自和/或传输至存储器102和/或RF电路108。在一些实施方案中,音频电路110还包括耳麦插孔(例如,图2中的212)。耳麦插孔提供音频电路110和可移除的音频输入/输出外围设备之间的接口,该可移除的音频输入/输出外围设备诸如仅输出的耳机或者具有输出(例如,单耳耳机或双耳耳机)和输入(例如,麦克风)两者的耳麦。
I/O子系统106将设备100上的输入/输出外围设备诸如触摸屏112和其他输入控制设备116耦接至外围设备接口118。I/O子系统106任选地包括显示控制器156、光学传感器控制器158、强度传感器控制器159、触觉反馈控制器161、和用于其他输入或控制设备的一个或多个输入控制器160。该一个或多个输入控制器160从其他输入控制设备116接收电信号/将电信号发送到其他输入控制设备116。其他输入控制设备116任选地包括物理按钮(例如,下压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击轮等等。在一些另选的实施方案中,一个或多个输入控制器160任选地耦接至以下各项中的任一者(或不耦接至以下各项中的任一者):键盘、红外线端口、USB端口、以及指针设备诸如鼠标。一个或多个按钮(例如,图2中的208)任选地包括用于扬声器111和/或麦克风113的音量控制的增大/减小按钮。一个或多个按钮任选地包括下压按钮(例如,图2中的206)。
快速按下下压按钮任选地解除对触摸屏112的锁定或者任选地开始使用触摸屏上的手势来对设备进行解锁的过程,如于2005年12月23日提交的名称为“Unlocking aDevice by Performing Gestures on an Unlock Image”的美国专利申请11/322,549,即美国专利No.7,657,849中所述的,上述美国专利申请全文以引用方式并入本文。更长地按下下压按钮(例如206)任选地使设备100开机或关机。按钮的一个或多个的功能任选地是可由用户定制的。触摸屏112用于实现虚拟按钮或软按钮以及一个或多个软键盘。
触敏显示器112提供设备和用户之间的输入接口和输出接口。显示控制器156从触摸屏112接收电信号和/或将电信号发送至触摸屏112。触摸屏112向用户显示视觉输出。视觉输出任选地包括图形、文本、图标、视频、和它们的任何组合(统称为“图形”)。在一些实施方案中,一些视觉输出或全部的视觉输出任选地对应于用户界面对象。
触摸屏112具有基于触觉和/或触觉接触来接受来自用户的输入的触敏表面、传感器、或传感器组。触摸屏112和显示控制器156(与存储器102中的任何相关联的模块和/或指令集一起)检测触摸屏112上的接触(和该接触的任何移动或中断),并且将所检测到的接触转换为与被显示在触摸屏112上的用户界面对象(例如,一个或多个软键、图标、网页、或图像)的交互。在一个示例性实施方案中,触摸屏112和用户之间的接触点对应于用户的手指。
触摸屏112任选地使用LCD(液晶显示器)技术、LPD(发光聚合物显示器)技术、或LED(发光二极管)技术,尽管在其他实施方案中使用了其他显示技术。触摸屏112和显示控制器156任选地使用目前已知或以后将开发的多种触摸感测技术中的任何触摸感测技术以及其他接近传感器阵列或用于确定与触摸屏112接触的一个或多个点的其他元素来检测接触及其任何移动或中断,该多种触摸感测技术包括但不限于电容性、电阻性、红外和表面声波技术。在一个示例性实施方案中,使用投射式互电容感测技术,诸如在Apple Inc.(Cupertino,California)的
Figure BDA0003037175420000121
和iPod
Figure BDA0003037175420000122
中发现的技术。
触摸屏112的一些实施方案中的触敏显示器任选地类似于在以下美国专利中所述的多点触敏触摸板:6,323,846(Westerman等人)、6,570,557(Westerman等人)和/或6,677,932(Westerman);和/或美国专利公开2002/0015024A1,这些专利申请中的每个专利申请全文以引用方式并入本文。然而,触摸屏112显示来自设备100的视觉输出,而触敏触摸板不提供视觉输出。
触摸屏112的一些实施方案中的触敏显示器在以下专利申请中进行描述:(1)于2006年5月2日提交的标题为“Multipoint Touch Surface Controller”的美国专利申请No.11/381,313;(2)于2004年5月6日提交的标题为“Multipoint Touchscreen”的美国专利申请No.10/840,862;(3)于2004年7月30日提交的标题为“Gestures For Touch SensitiveInput Devices”的美国专利申请No.10/903,964;(4)于2005年1月31日提交的标题为“Gestures For Touch Sensitive Input Devices”的美国专利申请No.11/048,264;(5)于2005年1月18日提交的标题为“Mode-Based Graphical User Interfaces For TouchSensitive Input Devices”的美国专利申请No.11/038,590;(6)于2005年9月16日提交的标题为“Virtual Input Device Placement On A Touch Screen User Interface”的美国专利申请No.11/228,758;(7)于2005年9月16日提交的标题为“Operation Of AComputerWith A Touch Screen Interface”的美国专利申请No.11/228,700;(8)于2005年9月16日提交的标题为“Activating Virtual Keys Of A Touch-Screen Virtual Keyboard”的美国专利申请No.11/228,737;以及(9)于2006年3月3日提交的标题为“Multi-FunctionalHand-Held Device”的美国专利申请No.11/367,749。所有这些专利申请全文以引用方式并入本文。
触摸屏112任选地具有超过100dpi的视频分辨率。在一些实施方案中,触摸屏具有约160dpi的视频分辨率。用户任选地使用任何合适的物体或附加物诸如触笔、手指等等来与触摸屏112接触。在一些实施方案中,将用户界面设计用于主要与基于手指的接触和手势一起工作,由于手指在触摸屏上的接触面积较大,因此这可能不如基于触笔的输入那样精确。在一些实施方案中,设备将基于手指的粗略输入转化为精确的指针/光标位置或命令,以用于执行用户所期望的动作。
在一些实施方案中,除了触摸屏之外,设备100任选地包括用于激活或去激活特定功能的触摸板(未示出)。在一些实施方案中,触摸板是设备的触敏区域,该触敏区域与触摸屏不同,其不显示视觉输出。触摸板任选地是与触摸屏112分开的触敏表面,或者是由触摸屏形成的触敏表面的延伸。
设备100还包括用于为各种部件供电的电力系统162。电力系统162任选地包括电力管理系统、一个或多个电源(例如,电池、交流电(AC))、再充电系统、电力故障检测电路、功率转换器或逆变器、电力状态指示器(例如,发光二极管(LED))、和与便携式设备中电力的生成、管理和分配相关联的任何其他部件。
设备100任选地还包括一个或多个光学传感器164。图1A示出了耦接至I/O子系统106中的光学传感器控制器158的光学传感器。光学传感器164任选地包括电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光电晶体管。光学传感器164从环境接收通过一个或多个透镜而投射的光,并且将光转换为表示图像的数据。结合成像模块143(也叫做相机模块),光学传感器164任选地捕获静态图像或视频。在一些实施方案中,光学传感器位于设备100的与设备的前部上的触摸屏显示器112相背对的后部上,使得触摸屏显示器能够用作用于静态图像和/或视频图像采集的取景器。在一些实施方案中,光学传感器位于设备的前部,使得在用户在触摸屏显示器上查看其他视频会议参与者时任选地获取该用户的图像,以用于视频会议。在一些实施方案中,光学传感器164的位置可由用户改变(例如通过旋转设备外壳中的透镜和传感器),使得单个光学传感器164与触摸屏显示器一起使用,以用于视频会议和静态图像和/或视频图像采集两者。
设备100任选地还包括一个或多个接触强度传感器165。图1A示出了耦接至I/O子系统106中的强度传感器控制器159的接触强度传感器。接触强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电气力传感器、压电力传感器、光学力传感器、电容式触敏表面、或其他强度传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感器)。接触强度传感器165从环境接收接触强度信息(例如,压力信息或压力信息的代用物)。在一些实施方案中,至少一个接触强度传感器与触敏表面(例如,触敏显示系统112)并置排列或邻近。在一些实施方案中,至少一个接触强度传感器位于设备100的与位于设备100的前部上的触摸屏显示器112相背对的后部上。
设备100任选地还包括一个或多个接近传感器166。图1A示出了耦接至外围设备接口118的接近传感器166。另选地,接近传感器166任选地耦接至I/O子系统106中的输入控制器160。接近传感器166任选地如以下美国专利申请中所述的那样执行:No.11/241,839,标题为“Proximity Detector In Handheld Device”;No.11/240,788,标题为“ProximityDetector In Handheld Device”;No.11/620,702,标题为“Using Ambient Light SensorTo Augment Proximity Sensor Output”;No.11/586,862,标题为“Automated ResponseTo And Sensing Of User Activity In Portable Devices”;以及No.11/638,251,标题为“Methods And Systems For Automatic Configuration Of Peripherals”,这些美国专利申请全文以引用方式并入本文。在一些实施方案中,当多功能设备被置于用户的耳朵附近时(例如,当用户正在进行电话呼叫时),接近传感器关闭并且禁用触摸屏112。
设备100任选地还包括一个或多个触觉输出发生器167。图1A示出了耦接至I/O子系统106中的触觉反馈控制器161的触觉输出发生器。触觉输出发生器167任选地包括一个或多个电声设备诸如扬声器或其他音频部件;和/或用于将能量转换成线性运动的机电设备诸如电机、螺线管、电活性聚合物、压电致动器、静电致动器、或其他触觉输出生成部件(例如,用于将电信号转换成设备上的触觉输出的部件)。接触强度传感器165从触觉反馈模块133接收触觉反馈生成指令,并且在设备100上生成能够由设备100的用户感觉到的触觉输出。在一些实施方案中,至少一个触觉输出发生器与触敏表面(例如,触敏显示系统112)并置排列或邻近,并且任选地通过竖直地(例如,向设备100的表面内/外)或侧向地(例如,在与设备100的表面相同的平面中向后和向前)移动触敏表面来生成触觉输出。在一些实施方案中,至少一个触觉输出发生器传感器位于设备100的与位于设备100的前部上的触摸屏显示器112相背对的后部上。
设备100任选地还包括一个或多个加速度计168。图1A示出了耦接至外围设备接口118的加速度计168。另选地,加速度计168任选地耦接至I/O子系统106中的输入控制器160。加速度计168任选地如以下美国专利公开中所述的那样执行:No.20050190059,标题为“Acceleration-based Theft Detection System for Portable Electronic Devices”和No.20060017692,标题为“Methods And Apparatuses For Operating A Portable DeviceBased On An Accelerometer”,这两个美国专利公开均全文以引用方式并入本文。在一些实施方案中,信息基于对从一个或多个加速度计所接收的数据的分析而在触摸屏显示器上以纵向视图或横向视图被显示。设备100任选地除了一个或多个加速度计168之外还包括用于获取关于设备100的位置和取向(例如,纵向或横向)的信息的磁力仪(未示出)和GPS(或GLONASS或其他全球导航系统)接收器(未示出)。
在一些实施方案中,被存储在存储器102中的软件部件包括操作系统126、通信模块(或指令集)128、接触/运动模块(或指令集)130、图形模块(或指令集)132、文本输入模块(或指令集)134、全球定位系统(GPS)模块(或指令集)135、以及应用程序(或指令集)136。此外,在一些实施方案中,存储器102(图1A)或370(图3)存储设备/全局内部状态157,如图1A和图3中所示的。设备/全局内部状态157包括以下各项中的一者或多者:活动应用程序状态,该活动应用程序状态用于指示哪些应用程序(如果有的话)当前是活动的;显示状态,该显示状态用于指示什么应用程序、视图或其他信息占据触摸屏显示器112的各个区域;传感器状态,该传感器状态包括从设备的各个传感器和输入控制设备116获取的信息;以及关于设备位置和/或姿态的位置信息。
操作系统126(例如,Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS、或嵌入式操作系统诸如VxWorks)包括用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、功率管理等)的各种软件部件和/或驱动程序,并且促进各种硬件部件和软件部件之间的通信。
通信模块128促进通过一个或多个外部端口124与其他设备进行通信,并且还包括用于处理由RF电路108和/或外部端口124所接收的数据的各种软件部件。外部端口124(例如,通用串行总线(USB)、火线等)适于直接耦接至其他设备或通过网络(例如,互联网、无线LAN等)间接耦接。在一些实施方案中,外部端口是与
Figure BDA0003037175420000161
(Apple Inc.的商标)设备上所使用的30针连接器相同的或类似的和/或与其兼容的多针(例如,30针)连接器。
接触/运动模块130任选地检测与触摸屏112(结合显示器控制器156)和其他触敏设备(例如,触摸板或物理点击轮)的接触。接触/运动模块130包括各种软件部件以用于执行与接触检测相关的各种操作,诸如确定是否已发生接触(例如,检测手指按下事件)、确定接触的强度(例如,接触的力或压力,或者接触的力或压力的替代物)、确定是否存在接触的移动并跟踪在触敏表面上的移动(例如,检测一个或多个手指拖动事件)、以及确定接触是否已停止(例如,检测手指抬起事件或者接触中断)。接触/运动模块130从触敏表面接收接触数据。确定接触点的移动任选地包括确定接触点的速率(量值)、速度(量值和方向)、和/或加速度(量值和/或方向的改变),该接触点的移动由一系列接触数据来表示。这些操作任选地被应用于单点接触(例如,单指接触)或者多点同时接触(例如,“多点触摸”/多个手指接触)。在一些实施方案中,接触/运动模块130和显示控制器156检测触摸板上的接触。
在一些实施方案中,接触/运动模块130使用一组一个或多个强度阈值来确定操作是否已由用户执行(例如,确定用户是否已“点击”图标)。在一些实施方案中,根据软件参数来确定强度阈值的至少一个子集(例如,强度阈值不是由特定物理致动器的激活阈值来确定的,并且可在不改变设备100的物理硬件的情况下被调节)。例如,在不改变触控板或触摸屏显示器硬件的情况下,触控板或触摸屏的鼠标“点击”阈值可被设置为预定义的阈值的大范围中的任一个阈值。另外,在一些具体实施中,向设备的用户提供用于调节一组强度阈值中的一个或多个强度阈值(例如,通过调节各个强度阈值和/或通过利用对“强度”参数的系统级点击来一次调节多个强度阈值)的软件设置。
接触/运动模块130任选地检测用户进行的手势输入。触敏表面上的不同手势具有不同的接触图案(例如,所检测到的接触的不同的运动、定时和/或强度)。因此,任选地通过检测特定接触图案来检测手势。例如,检测手指轻击手势包括检测手指按下事件,然后在与手指按下事件相同的位置(或基本上相同的位置)处(例如,在图标的位置处)检测手指抬起(抬离)事件。作为另一个示例,在触敏表面上检测手指轻扫手势包括检测手指按下事件,然后检测一个或多个手指拖动事件,并且随后检测手指抬起(抬离)事件。
图形模块132包括用于在触摸屏112或其他显示器上呈现和显示图形的各种已知的软件部件,包括用于改变所显示的图形的视觉冲击(例如,亮度、透明度、饱和度、对比度、或其他视觉属性)的部件。如本文所用,术语“图形”包括可被显示至用户的任何对象,其非限制性地包括文本、网页、图标(诸如包括软键的用户界面对象)、数字图像、视频、动画等。
在一些实施方案中,图形模块132存储用于表示将要使用的图形的数据。每个图形任选地被分配有对应的代码。图形模块132从应用程序等接收指定将要显示的图形的一个或多个代码,在必要的情况下还接收坐标数据和其他图形属性数据,并且然后生成屏幕图像数据,以输出至显示控制器156。
触觉反馈模块133包括用于生成指令的各种软件部件,这些指令由一个或多个触觉输出发生器167用于响应于与设备100的用户交互而在设备100上的一个或多个位置处产生触觉输出。
任选地作为图形模块132的部件的文本输入模块134提供用于在各种应用程序(例如,联系人137、电子邮件140、IM 141、浏览器147、和需要文本输入的任何其他应用程序)中输入文本的软键盘。
GPS模块135确定设备的位置并提供该信息以用于各种应用程序(例如,提供至电话138以用于基于位置的拨号、提供至相机143作为图片/视频元数据,以及提供至提供基于位置的服务的应用程序,诸如天气桌面小程序、本地黄页桌面小程序、和地图/导航桌面小程序)。
应用程序136任选地包括以下模块(或指令集)或者其子集或超集:
·联系人模块137(有时叫做通讯录或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140;
·即时消息(IM)模块141;
·健身支持模块142;
·用于静态图像和/或视频图像的相机模块143;
·图像管理模块144;
·视频播放器模块;
·音乐播放器模块;
·浏览器模块147;
·日历模块148;
·桌面小程序模块149,其任选地包括以下各项中的一者或多者:天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4、词典桌面小程序149-5、和由用户获取的其他桌面小程序,以及用户创建的桌面小程序149-6;
·用于形成用户创建的桌面小程序149-6的桌面小程序创建器模块150;
·搜索模块151;
·视频和音乐播放器模块152,其合并视频播放器模块和音乐播放器模块;
·记事本模块153;
·地图模块154;和/或
·在线视频模块155。
任选地被存储在存储器102中的其他应用程序136的示例包括其他文字处理应用程序、其他图像编辑应用程序、绘图应用程序、呈现应用程序、支持JAVA的应用程序、加密、数字权益管理、语音识别、和语音复制。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,联系人模块137任选地用于管理通讯录或联系人列表(例如,被存储在存储器102或存储器370中的联系人模块137的应用程序内部状态192中),包括:将一个或多个姓名添加至通讯录;从通讯录中删除一个或多个姓名;使一个或多个电话号码、一个或多个电子邮件地址、一个或多个物理地址或其他信息与姓名关联;将图像与姓名关联;对姓名进行分类和排序;提供电话号码或电子邮件地址,以发起和/或促进通过电话138、视频会议模块139、电子邮件140或IM 141进行的通信等等。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电话模块138任选地用于输入与电话号码对应的字符序列、访问联系人模块137中的一个或多个电话号码、修改已输入的电话号码、拨打相应的电话号码、进行会话、以及当会话完成时断开或挂断。如上所述,无线通信任选地使用多种通信标准、协议和技术中的任一者。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132、文本输入模块134、联系人模块137和电话模块138,视频会议模块139包括根据用户指令来发起、执行和终止用户与一个或多个其他参与方之间的视频会议的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电子邮件客户端模块140包括响应于用户指令来创建、发送、接收和管理电子邮件的可执行指令。结合图像管理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由相机模块143拍摄的静态图像或视频图像的电子邮件。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,即时消息模块141包括用于以下操作的可执行指令:输入与即时消息对应的字符序列、修改先前输入的字符、传输相应即时消息(例如,使用短消息服务(SMS)或多媒体消息服务(MMS)协议以用于基于电话的即时消息或者使用XMPP、SIMPLE或IMPS以用于基于互联网的即时消息)、接收即时消息以及查看所接收的即时消息。在一些实施方案中,所传输和/或接收的即时消息任选地包括图形、照片、音频文件、视频文件、和/或MMS和/或增强消息服务(EMS)中所支持的其他附件。如本文所用,“即时消息”是指基于电话的消息(例如,使用SMS或MMS发送的消息)和基于互联网的消息(例如,使用XMPP、SIMPLE、或IMPS发送的消息)两者。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135、地图模块154和音乐播放器模块,健身支持模块142包括用于以下操作的可执行指令:创建健身(例如具有时间、距离、和/或卡路里燃烧目标);与健身传感器(运动设备)进行通信;接收健身传感器数据;校准用于监视健身的传感器;选择健身音乐并进行播放;以及显示、存储和传输健身数据。
结合触摸屏112、显示控制器156、一个或多个光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132和图像管理模块144,相机模块143包括用于捕获静态图像或视频(包括视频流)并且将它们存储到存储器102中、修改静态图像或视频的特征、或从存储器102删除静态图像或视频的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和相机模块143,图像管理模块144包括用于排列、修改(例如,编辑)、或以其他方式操控、加标签、删除、呈现(例如,在数字幻灯片或相册中)以及存储静态图像和/或视频图像的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,浏览器模块147包括用于根据用户指令来浏览互联网(包括搜索、链接至、接收和显示网页或其部分以及链接至网页的附件和其他文件)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、电子邮件客户端模块140和浏览器模块147,日历模块148包括用于根据用户指令来创建、显示、修改和存储日历以及与日历相关联的数据(例如,日历条目、待办事项等)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序模块149是任选地由用户下载和使用的微型应用程序(例如,天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4、和词典桌面小程序149-5)或由用户创建的微型应用程序(例如,用户创建的桌面小程序149-6)。在一些实施方案中,桌面小程序包括HTML(超文本标记语言)文件、CSS(层叠样式表)文件和JavaScript文件。在一些实施方案中,桌面小程序包括XML(可扩展标记语言)文件和JavaScript文件(例如,Yahoo!桌面小程序)。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序创建器模块150任选地被用户用于创建桌面小程序(例如,将网页的用户指定部分转为桌面小程序)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,搜索模块151包括用于根据用户指令来搜索存储器102中的匹配一个或多个搜索条件(例如,一个或多个用户指定的搜索词)的文本、音乐、声音、图像、视频、和/或其他文件的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108和浏览器模块147,视频和音乐播放器模块152包括允许用户下载和回放以一种或多种文件格式诸如MP3或AAC文件存储的所录制的音乐和其他声音文件的可执行指令,以及显示、呈现或以其他方式回放视频(例如,在触摸屏112上或在经由外部端口124连接的外部显示器上)的可执行指令。在一些实施方案中,设备100任选地包括MP3播放器诸如iPod(Apple Inc.的商标)的功能。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,记事本模块153包括根据用户指令来创建和管理记事本、待办事项等的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135和浏览器模块147,地图模块154任选地用于根据用户指令来接收、显示、修改和存储地图和与地图相关联的数据(例如,驾驶方向、与特定位置处或附近的商店以及其他兴趣点有关的数据、以及其他基于位置的数据)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108、文本输入模块134、电子邮件客户端模块140和浏览器模块147,在线视频模块155包括允许用户访问、浏览、接收(例如,流式接收和/或下载)、回放(例如,在触摸屏上或在经由外部端口124连接的外部显示器上)、发送具有到特定在线视频的链接的电子邮件,以及以其他方式管理一种或多种文件格式诸如H.264的在线视频的指令。在一些实施方案中,即时消息模块141而不是电子邮件客户端模块140用于发送至特定在线视频的链接。在线视频应用程序的附加描述可在于2007年6月20日提交的标题为“PortableMultifunction Device,Method,and Graphical User Interface for Playing OnlineVideos”的美国临时专利申请No.60/936,562和于2007年12月31日提交的标题为“PortableMultifunction Device,Method,and Graphical User Interface for Playing OnlineVideos”的美国专利申请No.11/968,067中找到,这两个专利申请的内容全文以引用方式并入本文。
以上所识别的每个模块和应用程序对应于用于执行上述一种或多种功能以及在本专利申请中所描述的方法(例如,本文中所描述的计算机实现的方法和其他信息处理方法)的一组可执行指令。这些模块(例如,指令集)不必以独立的软件程序、过程或模块实现,因此这些模块的各种子集任选地在各种实施方案中组合或以其他方式重新布置。例如,视频播放器模块任选地与音乐播放器模块组合成单个模块(例如,图1A中的视频和音乐播放器模块152)。在一些实施方案中,存储器102任选地存储上述模块和数据结构的子集。此外,存储器102任选地存储上面未描述的附加模块和数据结构。
在一些实施方案中,设备100是这样一种设备:该设备上的预定义的一组功能的操作唯一地通过触摸屏和/或触摸板来执行。通过使用触摸屏和/或触摸板作为用于设备100的操作的主要输入控制设备,任选地减少设备100上的物理输入控制设备(诸如下压按钮、拨号盘等等)的数量。
唯一地通过触摸屏和/或触摸板执行的该预定义的一组功能任选地包括在用户界面之间的导航。在一些实施方案中,当用户触摸触摸板时,将设备100从设备100上显示的任何用户界面导航到主菜单、home菜单、或根菜单。在此类实施方案中,使用触摸板来实现“菜单按钮”。在一些其他实施方案中,菜单按钮是物理下压按钮或者其他物理输入控制设备,而不是触摸板。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框图。在一些实施方案中,存储器102(图1A)或存储器370(图3)包括事件分类器170(例如,在操作系统126中)、以及相应的应用程序136-1(例如,前述应用程序137-151、155、380-390中的任一个应用程序)。
事件分类器170接收事件信息并确定要将事件信息递送到的应用程序136-1和应用程序136-1的应用程序视图191。事件分类器170包括事件监视器171和事件分配器模块174。在一些实施方案中,应用程序136-1包括应用程序内部状态192,该应用程序内部状态指示当应用程序是活动的或正在执行时被显示在触敏显示器112上的一个或多个当前应用程序视图。在一些实施方案中,设备/全局内部状态157被事件分类器170用于确定哪个(哪些)应用程序当前是活动的,并且应用程序内部状态192被事件分类器170用于确定要将事件信息递送到的应用程序视图191。
在一些实施方案中,应用程序内部状态192包括附加信息,诸如以下各项中的一者或多者:当应用程序136-1恢复执行时将被使用的恢复信息、指示正被应用程序136-1显示的信息或准备好用于被应用程序136-1显示的信息的用户界面状态信息、用于使得用户能够返回到应用程序136-1的前一状态或视图的状态队列、以及用户采取的先前动作的重复/撤销队列。
事件监视器171从外围设备接口118接收事件信息。事件信息包括关于子事件(例如,触敏显示器112上的作为多点触摸手势的一部分的用户触摸)的信息。外围设备接口118传输其从I/O子系统106或传感器(诸如接近传感器166、一个或多个加速度计168和/或麦克风113(通过音频电路110))接收的信息。外围设备接口118从I/O子系统106接收的信息包括来自触敏显示器112或触敏表面的信息。
在一些实施方案中,事件监视器171以预先确定的间隔来向外围设备接口118发送请求。作为响应,外围设备接口118传输事件信息。在其他实施方案中,外围设备接口118仅当存在显著事件(例如,接收到高于预先确定的噪声阈值的输入和/或接收到超过预先确定的持续时间的输入)时才传输事件信息。
在一些实施方案中,事件分类器170还包括命中视图确定模块172和/或活动事件识别器确定模块173。
命中视图确定模块172提供用于在触敏显示器112显示多于一个视图时确定子事件已发生在一个或多个视图内的哪个位置的软件程序。视图由用户可在显示器上查看的控件和其他元素组成。
与应用程序相关联的用户界面的另一个方面是一组视图,在本文中有时也被称为应用程序视图或用户界面窗口,其中信息被显示并且基于触摸的手势发生。在其中检测到触摸的(相应应用程序的)应用程序视图任选地对应于在应用程序的程序化或视图分级结构内的程序化水平。例如,在其中检测到触摸的最低水平视图任选地被称为命中视图,并且被认为是正确输入的事件集任选地至少部分地基于初始触摸的命中视图来确定,该初始触摸开始基于触摸的手势。
命中视图确定模块172接收与基于接触的手势的子事件相关的信息。当应用程序具有在分级结构中组织的多个视图时,命中视图确定模块172将命中视图识别为应对子事件进行处理的分级结构中的最低视图。在大多数情况下,命中视图是发起子事件(例如,形成事件或潜在事件的子事件序列中的第一子事件)在其中发生的最低水平视图。一旦命中视图被命中视图确定模块172识别,命中视图便通常接收与其被识别为命中视图所针对的同一触摸或输入源相关的所有子事件。
活动事件识别器确定模块173确定视图分级结构内的哪个或哪些视图应当接收特定的子事件序列。在一些实施方案中,活动事件识别器确定模块173确定仅命中视图才应接收特定子事件序列。在其他实施方案中,活动事件识别器确定模块173确定包括子事件的物理位置的所有视图是活跃参与的视图,并且因此确定所有活跃参与的视图应接收特定子事件序列。在其他实施方案中,即使触摸子事件完全被局限到与一个特定视图相关联的区域,分级结构中的更高的视图将仍然保持为活跃参与的视图。
事件分配器模块174将事件信息分配到事件识别器(例如,事件识别器180)。在包括活动事件识别器确定模块173的实施方案中,事件分配器模块174将事件信息递送到由活动事件识别器确定模块173确定的事件识别器。在一些实施方案中,事件分配器模块174在事件队列中存储事件信息,该事件信息由相应事件接收器182进行检索。
在一些实施方案中,操作系统126包括事件分类器170。另选地,应用程序136-1包括事件分类器170。在其他实施方案中,事件分类器170是独立的模块,或者是被存储在存储器102中的另一个模块(诸如接触/运动模块130)的一部分。
在一些实施方案中,应用程序136-1包括多个事件处理程序190和一个或多个应用程序视图191,该一个或多个应用程序视图中的每个应用程序视图包括用于处理发生在应用程序的用户界面的相应视图内的触摸事件的指令。应用程序136-1的每个应用程序视图191包括一个或多个事件识别器180。通常,相应应用程序视图191包括多个事件识别器180。在其他实施方案中,事件识别器180中的一个或多个事件识别器是独立模块的一部分,该独立模块诸如用户界面工具包(未示出)或应用程序136-1从中继承方法和其他属性的更高水平的对象。在一些实施方案中,相应事件处理程序190包括以下各项中的一者或多者:数据更新器176、对象更新器177、GUI更新器178、和/或从事件分类器170所接收的事件数据179。事件处理程序190任选地利用或调用数据更新器176、对象更新器177或GUI更新器178,以更新应用程序内部状态192。另选地,应用程序视图191中的一个或多个应用程序视图包括一个或多个相应事件处理程序190。另外,在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178中的一者或多者被包括在相应应用程序视图191中。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件数据179),并且从该事件信息识别事件。事件识别器180包括事件接收器182和事件比较器184。在一些实施方案中,事件识别器180还包括元数据183和事件递送指令188(其任选地包括子事件递送指令)的至少一个子集。
事件接收器182从事件分类器170接收事件信息。事件信息包括关于子事件(例如触摸或触摸移动)的信息。根据子事件,事件信息还包括附加信息诸如子事件的位置。当子事件涉及触摸的运动时,事件信息任选地还包括子事件的速率和方向。在一些实施方案中,事件包括设备从一个取向旋转到另一个取向(例如,从纵向取向旋转到横向取向,或反之亦然),并且事件信息包括关于设备的当前取向(也被称为设备姿态)的对应信息。
事件比较器184将事件信息与预定义的事件或子事件定义进行比较,并且基于该比较来确定事件或子事件,或者确定或更新事件或子事件的状态。在一些实施方案中,事件比较器184包括事件定义186。事件定义186包含事件的定义(例如,预定义的子事件序列),例如事件1(187-1)、事件2(187-2)、以及其他事件。在一些实施方案中,事件187中的子事件包括例如触摸开始、触摸结束、触摸移动、触摸取消、和多点触摸。在一个示例中,事件1(187-1)的定义是显示对象上的双击。例如,双击包括所显示的对象上的预先确定时长的第一次触摸(触摸开始)、预先确定时长的第一次抬起(触摸结束)、所显示的对象上的预先确定时长的第二次触摸(触摸开始)、以及预先确定时长的第二次抬起(触摸结束)。在另一个示例中,事件2(187-2)的定义是显示对象上的拖动。例如,拖动包括所显示的对象上的预先确定时长的触摸(或接触)、触摸在触敏显示器112上的移动、以及触摸的抬起(触摸结束)。在一些实施方案中,事件还包括用于一个或多个相关联的事件处理程序190的信息。
在一些实施方案中,事件定义187包括用于相应用户界面对象的事件的定义。在一些实施方案中,事件比较器184执行命中测试,以确定哪个用户界面对象与子事件相关联。例如,在应用程序视图(其中在触摸显示器112上显示三个用户界面对象)中,当在触敏显示器112上检测到触摸时,事件比较器184执行命中测试,以确定这三个用户界面对象中的哪个用户界面对象与触摸(子事件)相关联。如果每个显示对象与相应的事件处理程序190相关联,则事件比较器使用该命中测试的结果来确定哪个事件处理程序190应当被激活。例如,事件比较器184选择与子事件和触发该命中测试的对象相关联的事件处理程序。
在一些实施方案中,相应事件187的定义还包括延迟动作,该延迟动作将延迟事件信息的递送,直到已确定子事件的序列是否确实对应于或不对应于事件识别器的事件类型之后。
当相应事件识别器180确定子事件系列不与事件定义186中的任何事件匹配时,该相应事件识别器180进入事件不可能、事件失败或事件结束状态,在此之后忽略基于触摸的手势的后续子事件。在这种情况下,对于命中视图保持活动的其他事件识别器(如果有的话)继续跟踪和处理正在进行的基于触摸的手势的子事件。
在一些实施方案中,相应事件识别器180包括具有指示事件递送系统应当如何执行对主动参与的事件识别器的子事件递送的可配置属性、标志和/或列表的元数据183。在一些实施方案中,元数据183包括指示事件识别器彼此如何交互或如何能够交互的可配置属性、标志和/或列表。在一些实施方案中,元数据183包括指示子事件是否递送到视图或程序化分级结构中的不同层级的可配置属性、标志和/或列表。
在一些实施方案中,当事件的一个或多个特定的子事件被识别时,相应的事件识别器180激活与事件相关联的事件处理程序190。在一些实施方案中,相应事件识别器180将与事件相关联的事件信息递送到事件处理程序190。激活事件处理程序190不同于将子事件发送(和延期发送)到相应命中视图。在一些实施方案中,事件识别器180抛出与所识别的事件相关联的标志,并且与该标志相关联的事件处理程序190获取该标志并执行预定义的过程。
在一些实施方案中,事件递送指令188包括子事件递送指令,该子事件递送指令递送关于子事件的事件信息而无需激活事件处理程序。相反,子事件递送指令将事件信息递送到与子事件串相关联的事件处理程序或递送到活跃参与的视图。与子事件序列或与活跃参与的视图相关联的事件处理程序接收事件信息并执行预先确定的过程。
在一些实施方案中,数据更新器176创建和更新在应用程序136-1中所使用的数据。例如,数据更新器176在对联系人模块137中使用的电话号码进行更新,或者对视频播放器模块中所使用的视频文件进行存储。在一些实施方案中,对象更新器177创建和更新在应用程序136-1中使用的对象。例如,对象更新器177创建新用户界面对象或更新用户界面对象的位置。GUI更新器178更新GUI。例如,GUI更新器178准备显示信息,并且将显示信息发送到图形模块132以用于触敏显示器上的显示。
在一些实施方案中,一个或多个事件处理程序190包括或具有对数据更新器176、对象更新器177和GUI更新器178的访问权限。在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178被包括在相应应用程序136-1或应用程序视图191的单个模块中。在其他实施方案中,它们被包括在两个或更多个软件模块中。
应当理解,上述关于触敏显示器上的用户触摸的事件处理的论述还适用于利用输入设备来操作多功能设备100的其他形式的用户输入,并不是所有用户输入都是在触摸屏上发起的。例如,任选地与单次或多次键盘按压或保持结合的鼠标移动和鼠标按钮按压;触摸板上的接触移动,诸如轻击、拖动、滚动等;触笔输入;设备的移动;口头指令;所检测到的眼睛移动;生物特征输入;和/或作为与子事件对应的输入的用于定义要识别的事件的其任意的组合。
图2示出了根据一些实施方案的具有触摸屏112的便携式多功能设备100。触摸屏任选地在用户界面(UI)200内显示一个或多个图形。在该实施方案中以及在下文中描述的其他实施方案中,用户能够通过例如利用一个或多个手指202(在附图中没有按比例绘制)或者利用一个或多个触笔203(在附图中没有按比例绘制)在图形上作出手势来选择这些图形中的一个或多个图形。在一些实施方案中,当用户中断与一个或多个图形的接触时,将发生对一个或多个图形的选择。在一些实施方案中,手势任选地包括一次或多次轻击、一次或多次轻扫(从左向右、从右向左、向上和/或向下)和/或已与设备100发生接触的手指的滚动(从右向左、从左向右、向上和/或向下)。在一些具体实施中或在一些情况下,不经意地与图形接触不会选择图形。例如,当与选择对应的手势是轻击时,在应用程序图标上方扫动的轻扫手势任选地不会选择相应应用程序。
设备100任选地还包括一个或多个物理按钮,诸如“home”或菜单按钮204。如前所述,菜单按钮204任选地用于导航到任选地在设备100上被执行的一组应用程序中的任何应用程序136。另选地,在一些实施方案中,菜单按钮被实现为被显示在触摸屏112上的GUI中的软键。
在一些实施方案中,设备100包括触摸屏112、菜单按钮204、用于使设备通电/断电和用于锁定设备的下压按钮206、一个或多个音量调节按钮208、用户身份模块(SIM)卡槽210、耳麦插孔212、和对接/充电外部端口124。下压按钮206被任选地用于:通过按下按钮并使按钮在下压状态保持预先确定的时间间隔来使设备通电/断电;通过按下按钮并在经过预先确定的时间间隔之前释放按钮来锁定设备;和/或对设备进行解锁或发起解锁过程。在另选的实施方案中,设备100还通过麦克风113来接受用于激活或去激活某些功能的语音输入。设备100还任选地包括用于检测触摸屏112上的接触的强度的一个或多个接触强度传感器165,和/或用于为设备100的用户生成触觉输出的一个或多个触觉输出发生器167。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。设备300不必是便携式的。在一些实施方案中,设备300是膝上型电脑、台式计算机、平板电脑、多媒体播放器设备、导航设备、教育设备(诸如儿童学习玩具)、游戏系统、或控制设备(例如,家用控制器或工业用控制器)。设备300通常包括一个或多个处理单元(CPU)310、一个或多个网络或其他通信接口360、存储器370、和用于使这些部件互连的一个或多个通信总线320。通信总线320任选地包括使系统部件互连并且控制系统部件之间的通信的电路系统(有时叫做芯片组)。设备300包括具有显示器340的输入/输出(I/O)接口330,该显示器通常为触摸屏显示器。I/O接口330还任选地包括键盘和/或鼠标(或其他指向设备)350和触摸板355、用于在设备300上生成触觉输出的触觉输出发生器357(例如,类似于以上参考图1A所述的一个或多个触觉输出发生器167)、传感器359(例如,光学传感器、加速度传感器、接近传感器、触敏传感器、和/或类似于以上参考图1A所述的一个或多个接触强度传感器165的接触强度传感器)。存储器370包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备,并且任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备、或其他非易失性固态存储设备。存储器370任选地包括远离一个或多个CPU 310定位的一个或多个存储设备。在一些实施方案中,存储器370存储与在便携式多功能设备100(图1A)的存储器102中所存储的程序、模块和数据结构类似的程序、模块和数据结构,或它们的子组。此外,存储器370任选地存储在便携式多功能设备100的存储器102中不存在的附加程序、模块和数据结构。例如,设备300的存储器370任选地存储绘图模块380、呈现模块382、文字处理模块384、网站创建模块386、盘编辑模块388、和/或电子表格模块390,而便携式多功能设备100(图1A)的存储器102任选地不存储这些模块。
图3中上述所识别的元件的每个元件任选地被存储在一个或多个先前提到的存储器设备中。上述模块中的每个模块对应于用于执行上述功能的指令集。上述模块或程序(例如,指令集)不必被实现为单独的软件程序、过程或模块,并且因此这些模块的各种子集任选地在各种实施方案中被组合或以其他方式重新布置。在一些实施方案中,存储器370任选地存储上述模块和数据结构的子集。此外,存储器370任选地存储上面未描述的附加模块和数据结构。
现在将注意力转到可在例如便携式多功能设备100上实现的用户界面的实施方案。
图4A示出了根据一些实施方案的用于便携式多功能设备100上的应用程序的菜单的示例性用户界面。类似的用户界面任选地在设备300上实现。在一些实施方案中,用户界面400包括以下元素或者其子集或超集:
·一个或多个无线通信(诸如蜂窝信号和Wi-Fi信号)的一个或多个信号强度指示符402;
·时间404;
·蓝牙指示符405;
·电池状态指示符406;
·具有常用应用程序图标的托盘408,图标诸如:
○电话模块138的被标记为“电话”的图标416,该图标416任选地包括未接来电或语音留言的数量的指示符414;
○电子邮件客户端模块140的被标记为“邮件”的图标418,该图标418任选地包括未读电子邮件的数量的指示符410;
○浏览器模块147的被标记为“浏览器”的图标420;和
○视频和音乐播放器模块152(也被称为iPod(Apple Inc.的商标)模块152)的被标记为“iPod”的图标422;以及
·其他应用程序的图标,图标诸如:
○IM模块141的被标记为“消息”的图标424;
○日历模块148的被标记为“日历”的图标426;
○图像管理模块144的被标记为“照片”的图标428;
○相机模块143的被标记为“相机”的图标430;
○在线视频模块155的被标记为“在线视频”的图标432;
○股市桌面小程序149-2的被标记为“股市”的图标434;
○地图模块154的被标记为“地图”的图标436;
○天气桌面小程序149-1的被标记为“天气”的图标438;
○闹钟桌面小程序149-4的被标记为“时钟”的图标440;
○健身支持模块142的被标记为“健身支持”的图标442;
○记事本模块153的被标记为“记事本”的图标444;以及
○用于设置应用程序或模块的被标记为“设置”的图标446,该图标446提供对设备100及其各种应用程序136的设置的访问。
应当指出的是,图4A中示出的图标标签仅是示例性的。例如,视频和音乐播放器模块152的图标422被标记有“音乐”或“音乐播放器”。其他标签任选地用于各种应用程序图标。在一些实施方案中,相应应用程序图标的标签包括与该相应应用程序图标对应的应用程序的名称。在一些实施方案中,特定应用程序图标的标签不同于与该特定应用程序图标对应的应用程序的名称。
图4B示出了具有与显示器450(例如,触摸屏显示器112)分开的触敏表面451(例如,图3的平板电脑或触摸板355)的设备(例如,图3的设备300)上的示例性用户界面。设备300还任选地包括用于检测触敏表面451上的接触的强度的一个或多个接触强度传感器(例如,传感器359中的一个或多个传感器),和/或用于为设备300的用户生成触觉输出的一个或多个触觉输出发生器357。
尽管将参考触摸屏显示器112(其中组合了触敏表面和显示器)上的输入随后给出示例中的一些示例,但是在一些实施方案中,设备检测与显示器分开的触敏表面上的输入,如图4B中所示。在一些实施方案中,触敏表面(例如,图4B中的451)具有与显示器(例如,450)上的主轴(例如,图4B中的453)对应的主轴(例如,图4B中的452)。根据这些实施方案,设备检测在与显示器上的相应位置对应的位置(例如,在图4B中,460对应于468并且462对应于470)处与触敏表面451的接触(例如,图4B中的460和462)。这样,在触敏表面(例如,图4B中的451)与多功能设备的显示器(图4B中的450)分开时,由设备在触敏表面上检测到的用户输入(例如,接触460和462、以及它们的移动)被该设备用于操控显示器上的用户界面。应当理解,类似的方法任选地用于本文所述的其他用户界面。
另外,虽然主要是参考手指输入(例如,手指接触、手指轻击手势、手指轻扫手势)来给出下面的示例,但是应当理解,在一些实施方案中,这些手指输入中的一个或多个手指输入由来自另一个输入设备的输入(例如,基于鼠标的输入或触笔输入)替换。例如,轻扫手势任选地由鼠标点击(例如,而不是接触),之后是光标沿着轻扫的路径的移动(例如,而不是接触的移动)来替代。作为另一个示例,轻击手势任选地由在光标位于轻击手势的位置上方时的鼠标点击(例如,而不是对接触的检测,之后是终止检测接触)来替代。类似地,当同时检测到多个用户输入时,应当理解的是,多个计算机鼠标任选地被同时使用,或鼠标和手指接触任选地被同时使用。
图5A示出了示例性个人电子设备500。设备500包括主体502。在一些实施方案中,设备500可包括针对设备100和300(例如,图1A-图4B)所述的特征中的一些或全部特征。在一些实施方案中,设备500具有在下文中被称为触摸屏504的触敏显示屏504。作为触摸屏504的替代或补充,设备500具有显示器和触敏表面。与设备100和300的情况一样,在一些实施方案中,触摸屏504(或触敏表面)任选地包括用于检测所施加的接触(例如,触摸)的强度的一个或多个强度传感器。触摸屏504(或触敏表面)的一个或多个强度传感器可提供表示触摸的强度的输出数据。设备500的用户界面可基于触摸强度来对触摸作出响应,这意味着不同强度的触摸可调用设备500上的不同的用户界面操作。
例如,可在如下相关专利申请中找到用于检测和处理触摸强度的示例性技术:于2013年5月8日提交的标题为“Device,Method,and Graphical User Interface forDisplaying User Interface Objects Corresponding to an Application”的国际专利申请No.PCT/US2013/040061,发布为WIPO专利公开No.WO/2013/169849;以及于2013年11月11日提交的标题为“Device,Method,and Graphical User Interface for TransitioningBetween Touch Input to Display Output Relationships”的国际专利申请No.PCT/US2013/069483,发布为WIPO专利公开No.WO/2014/105276,这两个专利申请中的每个专利申请全文以引用方式并入本文。
在一些实施方案中,设备500具有一个或多个输入机构506和508。输入机构506和508(如果包括的话)可以是物理形式的。物理输入机构的示例包括下压按钮和可旋转机构。在一些实施方案中,设备500具有一个或多个附接机构。此类附接机构(如果包括的话)可允许将设备500与例如帽子、眼镜、耳环、项链、衬衣、夹克、手镯、表带、手链、裤子、皮带、鞋子、钱包、背包等附接。这些附接机构允许用户穿戴设备500。
图5B示出了示例性个人电子设备500。在一些实施方案中,设备500可包括相对于图1A、图1B和图3所述的部件中的一些或全部部件。设备500具有将I/O部分514与一个或多个计算机处理器516和存储器518操作性地耦接的总线512。I/O部分514可连接到显示器504,该显示器可具有触敏部件522并且任选地具有强度传感器524(例如,接触强度传感器)。此外,I/O部分514可与通信单元530连接,以用于使用Wi-Fi、蓝牙、近场通信(NFC)、蜂窝和/或其他无线通信技术来接收应用程序和操作系统数据。设备500可包括输入机构506和/或508。例如,输入机构506任选地是可旋转输入设备或者可按压输入设备以及可旋转输入设备。在一些实施方案中,可旋转输入设备是可经由与一个或多个手指的交互而旋转的冠状物、旋钮、环、或滚轮。可旋转输入设备可被安装在设备500的侧面,如图5A中所示,或者在其他位置,诸如被集成在显示器504上或周围。在一些示例中,输入机构508任选地是按钮。
在一些示例中,输入机构508任选地是麦克风。个人电子设备500任选地包括各种传感器,诸如GPS传感器532、加速度计534、定向传感器540(例如,罗盘)、陀螺仪536、运动传感器538和/或其组合,所有这些设备均可操作性地连接到I/O部分514。
个人电子设备500的存储器518可包括用于存储计算机可执行指令的一个或多个非暂态计算机可读存储介质,该可执行指令当由一个或多个计算机处理器516执行时例如可使得计算机处理器执行下述技术,该技术包括方法700(图7)、1000(图10)、1300(图13)和1600(图16)。个人电子设备500不限于图5B的部件和配置,而是可包括多种配置中的其他部件或附加部件。
如本文所用,术语“示能表示”是指任选在设备100、300和/或500(图1、图3和图5)的显示屏上显示的用户交互式图形用户界面对象。例如,图像(例如,图标)、按钮和文本(例如,超链接)任选地各自构成示能表示。
如本文所用,术语“焦点选择器”是指指示用户正在与其进行交互的用户界面的当前部分的输入元件。在包括光标或其他位置标记的一些具体实施中,光标充当“焦点选择器”,使得当光标在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)上方时在触敏表面(例如,图3中的触摸板355或图4B中的触敏表面451)上检测到输入(例如,按压输入)的情况下,该特定用户界面元素根据所检测到的输入而被调节。在包括能够实现与触摸屏显示器上的用户界面元素的直接交互的触摸屏显示器(例如,图1A中的触敏显示系统112或图4A中的触摸屏112)的一些具体实施中,触摸屏上的所检测到的接触充当“焦点选择器”,使得当在触摸屏显示器上在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)的位置处检测到输入(例如,由接触进行的按压输入)时,该特定用户界面元素根据所检测到的输入而被调节。在一些具体实施中,焦点从用户界面的一个区域移动到用户界面的另一个区域,而无需光标的对应移动或触摸屏显示器上的接触的移动(例如,通过使用制表键或箭头键来将焦点从一个按钮移动到另一个按钮);在这些具体实施中,焦点选择器根据用户界面的不同区域之间的焦点的移动而移动。不考虑焦点选择器所采取的具体形式,焦点选择器通常是由用户控制的以便递送与用户界面的用户预期的交互(例如,通过向设备指示用户界面的用户期望与其进行交互的元素)的用户界面元素(或触摸屏显示器上的接触)。例如,在触敏表面(例如,触摸板或触摸屏)上检测到按压输入时,焦点选择器(例如,光标、接触或选择框)在相应按钮上方的位置将指示用户期望激活相应按钮(而不是在设备的显示器上示出的其他用户界面元素)。
如说明书和权利要求中所使用的,接触的“特征强度”这一术语是指基于接触的一个或多个强度的接触的特征。在一些实施方案中,特征强度基于多个强度样本。特征强度任选地基于相对于预定义事件(例如,在检测到接触之后,在检测到接触抬起之前,在检测到接触开始移动之前或之后,在检测到接触结束之前,在检测到接触的强度增大之前或之后和/或在检测到接触的强度减小之前或之后)而言在预先确定的时间段(例如,0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒)期间采集的预定义数量的强度样本或一组强度样本。接触的特征强度任选地基于以下各项中的一者或多者:接触强度的最大值、接触强度的均值、接触强度的平均值、接触强度的前10%处的值、接触强度的半最大值、接触强度的90%最大值等。在一些实施方案中,在确定特征强度时使用接触的持续时间(例如,在特征强度是接触的强度在时间上的平均值时)。在一些实施方案中,将特征强度与一组一个或多个强度阈值进行比较,以确定用户是否已执行操作。例如,该组一个或多个强度阈值任选地包括第一强度阈值和第二强度阈值。在该示例中,特征强度未超过第一阈值的接触导致第一操作,特征强度超过第一强度阈值但未超过第二强度阈值的接触导致第二操作,并且特征强度超过第二阈值的接触导致第三操作。在一些实施方案中,使用特征强度与一个或多个阈值之间的比较来确定是否要执行一个或多个操作(例如,是执行相应操作还是放弃执行相应操作),而不是用于确定执行第一操作还是第二操作。
在一些实施方案中,识别手势的一部分以用于确定特征强度。例如,触敏表面任选地接收连续的轻扫接触,该连续的轻扫接触从起始位置过渡并到达结束位置,在该结束位置处,接触的强度增加。在该示例中,接触在结束位置处的特征强度任选地仅基于连续轻扫接触的一部分,而不是整个轻扫接触(例如,仅结束位置处的轻扫接触的一部分)。在一些实施方案中,在确定接触的特征强度之前任选地向轻扫手势的强度应用平滑化算法。例如,该平滑化算法任选地包括以下各项中的一者或多者:不加权滑动平均平滑化算法、三角平滑化算法、中值滤波器平滑化算法、和/或指数平滑化算法。在一些情况下,这些平滑化算法消除了轻扫接触的强度中的窄的尖峰或凹陷,以实现确定特征强度的目的。
任选地相对于一个或多个强度阈值诸如接触检测强度阈值、轻按压强度阈值、深按压强度阈值和/或一个或多个其他强度阈值来表征触敏表面上的接触的强度。在一些实施方案中,轻按压强度阈值对应于这样的强度:在该强度下设备将执行通常与点击物理鼠标的按钮或触控板相关联的操作。在一些实施方案中,深按压强度阈值对应于这样的强度:在该强度下设备将执行与通常与点击物理鼠标或触控板的按钮相关联的操作不同的操作。在一些实施方案中,当检测到特征强度低于轻按压强度阈值(例如,并且高于标称接触检测强度阈值,比标称接触检测强度阈值低的接触不再被检测到)的接触时,设备将根据接触在触敏表面上的移动来移动焦点选择器,而不执行与轻按压强度阈值或深按压强度阈值相关联的操作。一般来讲,除非另有陈述,否则这些强度阈值在不同组的用户界面附图之间是一致的。
接触的特征强度从低于轻按压强度阈值的强度增大到介于轻按压强度阈值与深按压强度阈值之间的强度有时被称为“轻按压”输入。接触的特征强度从低于深按压强度阈值的强度增大到高于深按压强度阈值的强度有时被称为“深按压”输入。接触的特征强度从低于接触检测强度阈值的强度增大到介于接触检测强度阈值与轻按压强度阈值之间的强度有时被称为检测到触摸表面上的接触。接触的特征强度从高于接触检测强度阈值的强度减小到低于接触检测强度阈值的强度有时被称为检测到接触从触摸表面抬起。在一些实施方案中,接触检测强度阈值为零。在一些实施方案中,接触检测强度阈值大于零。
在本文中所述的一些实施方案中,响应于检测到包括相应按压输入的手势,或响应于检测到利用相应接触(或多个接触)执行的相应按压输入来执行一个或多个操作,其中至少部分地基于检测到该接触(或多个接触)的强度增加到大于按压输入强度阈值而检测相应的按压输入。在一些实施方案中,响应于检测到相应接触的强度增大到高于按压输入强度阈值(例如,相应按压输入的“向下冲程”)来执行相应操作。在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于按压输入强度阈值,并且响应于检测到相应接触的强度随后减小到低于按压输入阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。
在一些实施方案中,设备采用强度滞后以避免有时称为“抖动”的意外输入,其中设备限定或选择与按压输入强度阈值具有预定义关系的滞后强度阈值(例如,滞后强度阈值比按压输入强度阈值低X个强度单位,或滞后强度阈值是按压输入强度阈值的75%、90%、或某个合理的比例)。因此,在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于对应于按压输入强度阈值的滞后强度阈值,并且响应于检测到相应接触的强度随后减小到低于滞后强度阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。类似地,在一些实施方案中,仅在设备检测到接触强度从等于或低于滞后强度阈值的强度增大到等于或高于按压输入强度阈值的强度并且任选地接触强度随后减小到等于或低于滞后强度的强度时才检测到按压输入,并且响应于检测到按压输入(例如,根据环境,接触强度增大或接触强度减小)来执行相应操作。
为了便于解释,任选地,响应于检测到以下各种情况中的任一种情况而触发对响应于与按压输入强度阈值相关联的按压输入或响应于包括按压输入的手势而执行的操作的描述:接触的强度增大到高于按压输入强度阈值、接触的强度从低于滞后强度阈值的强度增大到高于按压输入强度阈值的强度、接触的强度减小到低于按压输入强度阈值、和/或接触的强度减小到低于与按压输入强度阈值对应的滞后强度阈值。另外,在将操作描述为响应于检测到接触的强度减小到低于按压输入强度阈值而执行的示例中,任选地响应于检测到接触的强度减小到低于对应于并且小于按压输入强度阈值的滞后强度阈值来执行操作。
现在将注意力转到在电子设备(诸如便携式多功能设备100、设备300或设备500)上实现的用户界面(“UI”)以及相关联的过程的实施方案。
图6A-图6R示出了根据一些实施方案的用于在屏幕上进行手写的示例性用户界面。这些附图中的用户界面被用于示出包括图7中的过程的下文描述的过程。
图6A示出了电子设备600,其变型包括上述设备100、300或500的一些或所有部件。例如,电子设备600包括显示器601,在一些情况下,其对应于设备300的显示器340或设备500的显示器504。在一些示例中,触敏表面被集成到显示器601中。电子设备600还包括可旋转输入设备602,在一些情况下,其对应于电子设备500的输入机构506。
在图6A中,电子设备600正在显示器601上显示手写界面610。手写界面610包括笔画输入区域608(由点线框表示)和消息区域609(由虚线框表示)。由电子设备600的一个或多个处理器分析在笔画输入区域608中输入的用户笔画,以确定笔画所表示的文本。然后在消息区域609中显示所确定的文本。图6A描绘了部分交叠的笔画输入区域608和消息区域609。在一些情况下,笔画输入区域608和消息区域609完全交叠,共享公共边界但不交叠,分开一定距离,或具有某种其他空间配置。
手写界面610还包括用于指示输入文本完成的示能表示603;用于取消在手写界面610的当前示例中进一步输入文本的示能表示604;用于进入口述模式以接收音频输入的示能表示605;用于删除已输入的文本的示能表示607;以及用于向当前文本中输入空格的示能表示606。在一些情况下,选择示能表示603使得来自消息区域的文本返回到发起手写界面610的程序。例如,如果消息应用程序发起了手写界面610,那么选择示能表示603将使消息区域的文本返回到消息应用程序。
图6B描绘了路径611,其表示用户的手指触摸显示器和笔画输入区域608中的触敏表面的路径。路径611包括指示用户手指遵循的方向的箭头。尽管图6B示出了从用户手指生成的路径611,但在其他情况下,使用其他物体诸如触笔或一个物体。
图6C描绘了对笔画表示612的显示,这是基于触敏表面对用户手指沿图6B的路径611触摸触敏表面的响应的输出而生成的。笔画表示612被显示为一系列点和部分点。笔画表示612的其他外观也是可能的。在一些情况下,笔画表示612的显示强度基于检测到该笔画表示的时间。
图6D示出了电子设备600分析与笔画表示612对应的笔画以确定用于表示笔画的文本的结果。在这种情况下,确定笔画以表示文本614(字母“h”),其现在出现在消息区域609中。笔画表示612不再被显示在笔画输入区域608中。在一些情况下,在已分析出现于笔画输入区域608中的笔画表示以确定对应文本之后,不再显示它们。在一些情况下,出现于笔画输入区域608中的笔画表示经由动画方式例如在分析对应笔画时过渡到消息区域609中的文本。
图6E与图6D相同,只是为了清晰起见,去除了消息区域609和笔画输入区域608的框。电子设备600的其余附图(图6E-图6R、图9A-图9I、图12A-图12L和图15A-图15J)不包括标志消息区域609和笔画输入区域608的视觉框。然而,在这些图中描绘的电子设备600应仍被视为具有与图6A-图6D相同的消息区域和笔画输入区域。
图6F描绘了已被识别的笔画之后的手写界面610,已基于所识别的笔画来确定文本614,并且已确定针对文本614的由指示符616指示的一组一个或多个建议。在一些情况下,确定针对文本614(或消息区域内的其他文本)的该组一个或多个消息基于各种因素和技术,诸如n元模型、消息的上下文、文本的似然自动校正、文本的似然自动完成、用于生成文本614的笔画、设备的上下文、或其他因素。
在图6G中,响应于在输入设备602上接收到输入(例如,滚动或旋转输入),电子设备600显示包含针对消息区域中的文本的一个或多个建议622的建议框620。在一些情况下,一个或多个建议622是针对消息区域中的文本的一组建议中的部分(或全部)建议。在这种情况下,如文本指示618所示的,该建议针对文本“h”,其为消息区域中仅有的文本。在一些情况下,如下所述,仅针对消息区域中给出的文本的一部分来显示建议框。指示符624指示当前选择的建议,该建议初始是为其生成该组一个或多个建议622的初始文本。状态条626表示该组一个或多个建议中的当前选择的建议的位置(即,指示符624的位置),并在移动指示符624以及选择新建议时被更新。
图6H示出了设备600对经由输入设备602接收附加用户输入(例如,滚动输入或旋转输入)的响应。电子设备600响应于用户输入来将指示符624向下移动若干个建议。更新消息区域618,以指示当前选择的建议“hello”。还更新状态条626,以反映指示符624在该组一个或多个建议622中的位置。
图6I描绘了电子设备600对选择建议“hello”的响应。电子设备600更新消息区域,以包括所选择的建议。在一些情况下,响应于输入设备602不再接收用户输入(例如,不再接收滚动输入或旋转输入)而进行选择。在其他情况下,响应于其他用户输入诸如激活按钮、按下输入设备602、触敏表面上的手势或其他用户输入而进行选择。存在指示符616,从而指示有一组一个或多个建议可用于消息区域的文本。响应于接收到附加用户输入(例如,附加滚动输入),可再次显示建议框620和该组一个或多个建议622(图6G)。在一些实施方案中,在建议框中生成并显示基于消息区域中给出的新文本的新的一组一个或多个建议。
图6J描绘了具有笔画表示628的手写界面610。在接收到与笔画对应的输入之后示出手写界面610,但在分析笔画以确定对应文本和建议之前生成笔画表示628,这是通过缺少建议指示符(例如,图6I的指示符616)来指示的。
图6K描绘了已分析与笔画表示628对应的笔画并已确定对应文本之后的手写界面610。在这种情况下,与笔画表示628对应的笔画的对应文本是被显示在消息区域中的字母“w”。空格将前一个文本(“hello”)与新的文本(“w”)分开。在一些情况下,响应于用户输入选择示能表示606来呈现空格。在其他情况下,响应于电子设备600在例如确定“hello”是完整字词之后自动插入空格而呈现该空格。指示符616指示还有一组一个或多个建议可用于消息区域中的文本。
在图6L中,响应于经由输入设备602接收到输入(例如,滚动输入或旋转输入),电子设备600显示包含针对消息区域中的文本的一组一个或多个建议的建议框632。在这种情况下,如文本指示630所示的,该建议针对为消息区域中的由文本指示630突出显示的文本的一部分的文本“w”。
图6M描绘了在电子设备600已处理在触敏表面上接收的很多附加笔画并已在消息区域中确定和显示对应文本之后,电子设备600显示手写界面610。指示符634指示有附加文本可用,但没有被显示。在一些实施方案中,响应于用户输入诸如消息区域上的轻扫手势,查看并访问附加文本。
图6N示出了响应于电子设备600经由输入设备602接收到用户输入(例如,滚动输入)而显示的手写界面610。建议框636包括针对文本“do”的一组建议,如文本指示638所示的。除了以“do”开始的字词之外,建议框636中的该组建议包括针对狗的表情符号。
图6O示出了在电子设备600经由输入设备602接收到进一步的用户输入(例如,滚动输入)之后的手写界面610。用户输入导致建议框636中的该组建议的移动,使得狗的表情符号是当前的选择。手写界面610已相应地将框指示638中的文本更新为狗表情符号。
图6P描绘了电子设备600(例如,响应于用户输入)从建议框636选择狗表情符号建议之后的手写界面610(图6O)。例如,在电子设备600停止经由输入设备602接收用户输入时,电子设备600根据建议框636的识别狗表情符号的选择指示符来选择狗表情符号。消息区域已被更新,以包括狗表情符号。
图6Q描绘了接收到与笔画表示640和642对应的两个附加笔画之后的手写界面610。与笔画表示640对应的T笔画首先被接收,如相对于笔画表示642(对应于稍晚接收的笔画)而言淡出的外观所示的。如果输入与笔画表示640和642对应的笔画之间的时间小于阈值时间,则任选地将与笔画表示640和642对应的笔画一起作为同一组的一部分来分析。然而,如果笔画被一定量的时间分开,则将每个笔画作为不同组的部分单独分析。如图6Q所示,在笔画输入区域中的基本上相同的位置中输入对应有笔画表示640和642的笔画,因为它们是交叠的。
图6R描绘了已分析了与笔画表示640和642对应的笔画以产生文本“to”之后的手写界面610。在一些情况下,无论与笔画表示640和642对应的笔画是一起分析还是单独分析,这个文本都将是相同的。在一些情况下,这个文本取决于与笔画表示640和642对应的笔画是一起分析还是单独分析。
图7是示出了根据一些实施方案的用于使用电子设备来在触敏表面上进行手写的方法的流程图。在具有显示器、触敏表面和可旋转输入设备的设备(例如,100,300,500)处执行方法700。方法700中的一些操作任选地被组合,一些操作的次序任选地被改变并且一些操作任选地被省略。
如下所述,方法700提供了一种用于在触敏表面上进行手写的直观方式。该方法减少了用户对在触敏表面上进行手写的认知负担,从而创建更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快且更有效地在触敏表面上输入手写节省了功率并且增加了电池两次充电之间的时间间隔。
电子设备在显示器上显示(702)包括消息区域(例如,609)和笔画输入区域(例如,608)(例如,显示器和触敏表面的检测并显示经由手指、触笔或其他物体从用户接收的笔画的区域)的用户输入界面(例如,610)。在一些示例中,消息区域(例如,609)和笔画输入区域(例如,608)是部分交叠的。在一些示例中,消息区域完全在笔画输入区域(例如,608)内。在一些示例中,消息区域和笔画输入区域(例如,608)共享边界,但不彼此交叠。在一些示例中,消息区域和笔画输入区域(例如,608)是分开的。在一些示例中,触敏表面小于2in×2in、小于1.5in×1.5in、或小于1in×1in。
电子设备在笔画输入区域(例如,608)中的触敏表面上接收(704)第一组笔画(例如,对应于笔画表示612)(例如,一个或多个连续笔画,其中每个笔画表示字母或字母的一部分)。在一些示例中,第一组笔画表示一个字母、多个字母、一个字词、或多个字词。在一些示例中,显示器在接收笔画时向用户提供第一组笔画的笔画的位置和形状的反馈(例如,对图6C的笔画表示612的显示)。
电子设备基于第一组笔画(例如,对应于笔画表示612)来确定(706)第一文本(例如,字母、多个字母、字词、或多个字词)。在一些示例中,该确定可进一步基于在第一组笔画之前接收的笔画、电子设备的上下文(例如,一天中的时间、位置、当前活动、日历、该消息要发往的人)、或其他信息。
电子设备在消息区域(例如,图6E)中的显示器上显示(708)第一文本(例如,614)。在一些示例中,电子设备在显示第一文本之前显示第一组笔画。在一些示例中,电子设备将对第一组笔画的显示经由动画过渡到对第一组文本的显示。在一些示例中,在电子设备基于第一组笔画来确定第一文本时进行动画显示。
电子设备基于第一文本(例如,614)来确定(710)一个或多个建议(例如,622),其中一个或多个建议(例如,622)包括对第一文本的一个或多个改变(例如,改变可实现建议的完成、校正、或预测)。在一些示例中,一个或多个建议包括针对第一文本的建议拼写校正。在一些示例中,一个或多个建议包括对第一文本的建议完成。在一些示例中,一个或多个建议包括对跟随在第一文本之后的附加字词的预测。
在电子设备确定(712)一个或多个建议(例如,622)之后,电子设备经由可旋转输入机构(例如,602)来接收用户输入。在一些示例中,可旋转输入机构是冠状物、旋钮、环、或轮。在一些示例中,旋转轴垂直于显示器的平面。在一些示例中,旋转轴平行于显示器的平面或被包含在显示器的平面内。在一些示例中,可旋转输入机构位于显示器的侧面上。在一些示例中,可旋转输入机构位于显示器周围。
电子设备响应于用户输入(714)(例如,经由输入设备602接收到的用户输入)来显示(716)一个或多个建议中的至少一个建议(例如,建议框620中的建议622)并显示(718)用于指示一个或多个建议(例如,622)中的所选择的建议的选择指示符(例如,624)。在一些示例中,在周围的图形元素中显示一个或多个建议中的至少一个建议。在一些示例中,响应于用户输入在显示一个或多个建议中的至少一个建议之后立即停止,电子设备停止显示一个或多个建议中的至少一个建议。在一些示例中,选择指示符位于所选择的建议的一侧。在一些示例中,选择指示符围绕一个或多个建议。在一些示例中,选择指示符与所选择的建议集成在一起,诸如改变所选择的建议的颜色或通过其他方式改变外观。
在电子设备显示一个或多个建议(例如,622)中的至少一个建议和选择指示符(例如,624)之后,电子设备利用对所选择的建议的显示来替换(720)对消息区域中的第一文本的显示(例如,图6G与图6H)。在一些示例中,响应于选择指示符向新的建议移动而进行替换。
根据一些实施方案,响应于确定一个或多个建议,电子设备显示有一个或多个建议可用的指示(例如,616)。在一些示例中,首先在对第一文本的第一次显示时显示该指示。在一些示例中,该指示与可旋转输入机构(例如,602)相邻,使得响应于对与可旋转输入机构相邻的指示的显示(例如,图6F的比较指示符616和图6G中的旋转的位置和取向)而将用户吸引到可旋转输入机构,甚至吸引旋转该可旋转输入机构。
根据一些实施方案,进一步响应于接收到用户输入,该电子设备确定用户输入的特征(例如,停止用户输入之后的时间)是否满足第一标准。根据确定满足建议界面中止标准,该电子设备停止显示与一个或多个建议(例如,622)对应的图形界面(例如,620)。
根据一些实施方案,响应于经由可旋转输入机构(例如,输入设备602)继续接收到用户输入,该电子设备将选择指示符(例如,624)从一个或多个建议的第一建议移动到第二建议(例如,图6G和图6H)。
根据一些实施方案,对一个或多个建议的显示包括第一文本、以及第一文本上方的一个或多个大写建议、和第一文本下方的一个或多个小写建议(例如,图6G、图6L、图6N)。
根据一些实施方案,一个或多个建议包括自动完成建议(例如,基于第一文本建议完整的字词)或自动校正建议(例如,针对第一文本的拼写或语法校正)。
根据一些实施方案,一个或多个建议包括基于第一文本而识别的表情符号(例如,图6O)。在一些示例中,第一文本描述表情符号表示的项目(例如,第一文本“狗”产生狗的表情符号建议或第一文本“:)”产生愉快面部表情符号建议)。在一些示例中,第一文本更一般地描述表情符号的特征(例如,第一文本“愉快”产生愉快面部表情符号建议)。
根据一些实施方案,一个或多个建议是使用n元模型来确定的。
根据一些实施方案,在电子设备接收到第一组笔画之前,该电子设备在笔画输入区域中接收第二组笔画(例如,来自前一字词或来自同一字词的前面字母的笔画)。该电子设备基于第二组笔画来确定第二文本。确定一个或多个建议进一步基于第二文本(例如,在分析第一组笔画以确定第一文本时使用第二文本的上下文)。
根据一些实施方案,响应于接收到第一组笔画的至少一部分,该电子设备在笔画输入区域中显示第一组笔画的图形表示(例如,图6C和图6J)。
根据一些实施方案,该电子设备在笔画输入区域中接收第一笔画。在自接收到第一笔画以来已经过某时间段之后,该电子设备在笔画输入区域中接收第二笔画。根据确定该段时间超过阈值,该电子设备在第一组笔画中包括第一笔画和第二笔画。根据确定该段时间时未超过阈值,该电子设备在第一组笔画中包括第一笔画并从第一组笔画中排除第二笔画(例如,图6Q)。
根据一些实施方案,第一文本包括多个字符(例如,图6Q和图6R)。
根据一些实施方案,第一文本是单个字符(例如,图6D)。
根据一些实施方案,该电子设备在笔画输入区域中的位置处收第三笔画(例如,640)。该电子设备在笔画输入区域中的基本上相同的位置处在笔画输入区域中接收第四笔画(例如,642),其中第三笔画和第四笔画两者被包括在第一组笔画中(例如,图6Q)。
根据一些实施方案,第一组笔画是单个连续笔画(例如,612)。
根据一些实施方案,第一组笔画包括多个分立的笔画(例如,640,642)。
根据一些实施方案,用户输入界面包括多个示能表示(例如,603-607),其包括与音频输入(例如,605)对应的示能表示。响应于电子设备接收到选择与音频输入对应的示能表示(例如,605)的用户输入,该电子设备显示音频输入界面以接收口述输入。
根据一些实施方案,该电子设备与对一个或多个建议(例如,622)中的至少一个建议的显示和对选择指示符(例如,624)的显示一起显示滚动指示符(例如,626),其中滚动指示符的尺寸基于一个或多个建议的数量,并且该滚动指示符的位置基于选择指示符在一个或多个建议的数量内的位置(例如,图6G与图6H)。
根据一些实施方案,在利用对所选择的建议的显示来替换对第一文本的显示之后,该电子设备停止显示一个或多个建议中的至少一个建议(例如,6I)。在停止显示一个或多个建议中的至少一个建议之后,该电子设备经由可旋转输入机构(例如,602)来接收附加用户输入。响应于接收到附加用户输入:该电子设备显示一个或多个建议中的至少一个附加建议,并显示选择指示符(例如,如果再次接收到用户输入,则显示同一组建议)。
应当注意,上面相对于方法700所述的过程(例如图7)的详情也以类似方式适用于下文所述的方法。例如,方法1000(图10)、方法1300(图13)和方法1600(图16)任选地包括上面参考方法700所述的各种方法的一个或多个特征。例如,方法1000、1300和1600可以包括方法700作为文本输入和建议的一部分,以补充这些方法的过程。为了简明起见,这些详情在下文中不再重复。
根据一些实施方案,图8示出了根据各种所述实施方案的原理进行配置的电子设备800的示例性功能框图。根据一些实施方案,电子设备800的功能块被配置为执行上文所述的技术。设备800的功能块任选地由执行各种所述示例的原理的硬件、软件或硬件和软件的组合来实现。本领域的技术人员应当理解,图8中所述的功能块任选地被组合或被分离为子块,以便实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图8中所示,电子设备800包括显示单元802、触敏表面单元804、可旋转输入机构单元806、以及耦接至显示单元802、触敏表面单元804、可旋转输入机构单元806的处理单元808。在一些实施方案中,该处理单元808包括显示启用单元810、接收单元812、确定单元814、和包括单元816。
该处理单元808被配置为:在包括消息区域和笔画输入区域的显示单元802上启用对用户输入界面的显示(例如,使用显示启用单元810);在笔画输入区域中的触敏表面单元804上接收第一组笔画(例如,使用接收单元812);基于第一组笔画来确定第一文本(例如,使用确定单元814);在消息区域中的显示单元上启用对第一文本的显示(例如,使用显示启用单元810);基于第一文本来确定一个或多个建议(例如,使用确定单元814),其中一个或多个建议包括对第一文本的一个或多个改变;在确定一个或多个建议之后,经由可旋转输入机构单元806来接收用户输入(例如,使用接收单元812);响应于接收到用户输入:启用对一个或多个建议中的至少一个建议的显示(例如,使用显示启用单元810);以及启用对用于指示一个或多个建议中的所选择的建议的选择指示符的显示(例如,使用显示启用单元810);以及在使得能够显示至少一个建议或一个或多个建议和选择指示符之后,利用对所选择的建议的显示来替代对第一文本的显示(例如,使用显示启用单元810)。
在一些实施方案中,该处理单元808被进一步配置为:响应于确定一个或多个建议,启用对有一个或多个建议可用的指示的显示(例如,使用显示启用单元810)。
在一些实施方案中,该处理单元808被进一步配置为:进一步响应于接收到用户输入,确定用户输入的特征是否满足第一标准(例如,使用确定单元814);根据确定满足建议界面中止标准,停止启用对与一个或多个建议对应的图形界面的显示(例如,使用显示启用单元810)。
在一些实施方案中,该处理单元808被进一步配置为:响应于经由可旋转输入机构单元806继续接收用户输入,将选择指示符从一个或多个建议的第一建议移动到第二建议(例如,使用显示启用单元810)。
在一些实施方案中,启用对一个或多个建议的显示包括第一文本、以及第一文本上方的一个或多个大写建议、和第一文本下方的一个或多个小写建议(例如,使用显示启用单元810)。
在一些实施方案中,一个或多个建议包括自动完成建议或自动校正建议。
在一些实施方案中,一个或多个建议包括基于第一文本而识别的表情符号。
在一些实施方案中,一个或多个建议是使用n元模型来确定的。
在一些实施方案中,该处理单元808被进一步配置为:在接收到第一组笔画之前,在笔画输入区域中接收第二组笔画(例如,使用接收单元812);基于第二组笔画来确定第二文本(例如,使用确定单元814),其中确定一个或多个建议进一步基于第二文本。
在一些实施方案中,该处理单元808被进一步配置为:响应于接收到第一组笔画的至少一部分,在笔画输入区域中启用对第一组笔画的图形表示的显示(例如,使用显示启用单元810)。
在一些实施方案中,该处理单元808被进一步配置为:在笔画输入区域中接收第一笔画(例如,使用接收单元812);在自接收到第一笔画以来已经过某时间段之后,在笔画输入区域中接收第二笔画(例如,使用接收单元812);根据确定该段时间超过阈值,第一组笔画中包括第一笔画和第二笔画(例如,使用包括单元816)在;根据确定该段时间时未超过阈值,在第一组笔画中包括第一笔画(例如,使用包括单元816)而从第一组笔画中排除第二笔画。
在一些实施方案中,第一文本包括多个字符。
在一些实施方案中,第一文本是单个字符。
在一些实施方案中,该处理单元808被进一步配置为:在笔画输入区域中的位置处接收第三笔画(例如,使用接收单元812);在笔画输入区域中的基本上相同的位置处在笔画输入区域中接收第四笔画(例如,使用接收单元812),其中第三笔画和第四笔画两者被包括在第一组笔画中。
在一些实施方案中,第一组笔画是单个连续笔画。
在一些实施方案中,第一组笔画包括多个分立的笔画。
在一些实施方案中,用户输入界面包括多个示能表示,该多个示能表示包括与音频输入对应的示能表示,该处理单元808被进一步配置为:响应于接收到用于选择与音频输入对应的示能表示的用户输入,在显示单元802上启用对音频输入界面的显示以接收口述输入(例如,使用显示启用单元810)。
在一些实施方案中,该处理单元808被进一步配置为:(例如,使用显示启用单元810)与对一个或多个建议中的至少一个建议的显示和对选择指示符的显示一起启用对滚动指示符的显示,其中滚动指示符的尺寸基于一个或多个建议的数量,并且该滚动指示符的位置基于选择指示符在一个或多个建议的数量内的位置。
在一些实施方案中,该处理单元808被进一步配置为:在利用对所选择的建议的显示来替换对第一文本的显示之后:停止启用对一个或多个建议中的至少一个建议的显示(例如,使用显示启用单元810);在停止启用对一个或多个建议中的至少一个建议的显示之后(例如,使用显示启用单元810),经由可旋转输入机构单元来接收附加用户输入(例如,使用接收单元812);响应于接收到附加用户输入:在显示单元802上启用对一个或多个建议中的至少一个附加建议的显示(例如,使用显示启用单元810);并在显示单元802上启用对选择指示符的显示(例如,使用显示启用单元810)。
以上参考图7描述的操作任选地由图1A-图1B或者图8中描绘的部件来实现。例如,接收操作704任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中的事件监视器171检测触敏显示器112上的接触,并且事件分配器模块174将事件信息递送到应用程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测到相应的预定义事件或子事件时,事件识别器180激活与对该事件或子事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用数据更新器176或对象更新器177以更新应用程序内部状态192。在一些实施方案中,事件处理程序190访问相应GUI更新器178,以更新由应用程序显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于图1A-图1B中描绘的部件来实现其他过程。
图9A-图9I示出了根据一些实施方案的用于在屏幕上进行手写的示例性用户界面。这些附图中的用户界面被用于示出包括图10中的过程的下文描述的过程。
图9A示出了显示手写界面610的电子设备600,已相对于图6A-图6R对其进行了描述。电子设备600已在笔画输入区域中接收到与笔画表示900对应的笔画。笔画的表示被显示于显示器上,但对与笔画表示900对应的笔画进行分析以确定第一文本尚未完成。
图9B描绘了电子设备600在笔画输入区域中接收与笔画表示902对应的笔画之后的手写界面610。笔画表示900淡出。在一些情况下,电子设备600根据自接收笔画以来的时间而淡出笔画的表示。因此,与笔画表示902对应的最近接收的笔画与笔画表示900相比更暗。在笔画输入区域上的基本上相同的位置中输入与笔画表示900和902对应的笔画。
图9C描绘了电子设备600在笔画输入区域中的接收到与笔画表示904对应的笔画之后的手写界面610。笔画表示900与其在图9B中外观相比更暗。笔画表示902也淡出。与最近接收的笔画对应的笔画表示904是三个笔画表示中最暗的。在笔画输入区域中的与笔画900基本上相同的位置中输入与笔画表示902和904对应的笔画。
图9D描绘了电子设备600已分析第一组笔画(例如,与笔画表示900,902和904对应的笔画),确定对应的文本为“neo”,并在消息区域中显示该文本之后的手写界面610。图9D中的手写界面610在消息区域中显示文本之后还接收到与笔画表示906对应的笔画。响应于接收到新笔画,该电子设备基于第一组笔画和第二组笔画而确定修订的文本(与笔画表示906对应的笔画)。
图9E描绘了电子设备600已分析第一组笔画和第二组笔画,确定笔画对应于文本“need”并在消息区域中利用新的对应文本来替代先前在消息区域中确定的文本之后的手写界面610。这些附图(图9A-图9E)描绘了电子设备考虑到新接收的笔画如何能够重新分析已分析过的笔画。此类过程可基于后续接收的笔画来辅助对一组笔画进行消歧。该电子设备不需要考虑其是否已接收到针对特定字词的所有笔画或附加笔画是否可能有助于正确分析笔画。图9F-图9I描绘了基于后续接收的笔画来将这一概念应用于修订作为单个字符的文本。
图9F描绘了在电子设备600已接收到与笔画表示908对应的笔画(例如,基本垂直的笔画)之后的手写界面610。电子设备600尚未针与笔画表示908对应的笔画来确定对应的文本。
图9G描绘了在电子设备600已确定由与笔画表示908对应的笔画组成的该组笔画对应于“l”(“L”的小写)之后的手写界面610。在消息区域中显示对应的文本。
图9H描绘了在电子设备600已接收到与笔画表示910对应的笔画之后的手写界面610。电子设备600尚未针对该笔画来确定对应的文本。
图9I描绘了在电子设备600已基于与笔画表示908对应的笔画来确定针对消息区域的新文本并随后接收与笔画表示910对应的笔画之后的手写界面610。与笔画表示910对应的笔画被确定为点,其对应于与笔画表示908对应的基本垂直笔画(例如,与其配对),并利用“i”来替代“l”。
用于确定相对于字词的图9A-图9E中所示以及相对于单个字母的图9F-图9I中所示的修顶文本的过程可基于接收第一组笔画和第二组笔画之间经过的时间段。如果该段时间超过阈值,则独立于第一组笔画来分析第二组笔画并且基于对第一组笔画和第二组笔画的分析而不修订与第一组笔画对应的文本。如果该段时间时未超过阈值,则与第一组笔画一起分析第二组笔画,并可产生针对第一组笔画的修订的文本。
在确定修订的文本时还可考虑设备的上下文。例如,在确定修订的文本时可考虑电子设备的位置、一天中的时间、电子设备的模式、和与电子设备相关联的其他因素。
图10是示出了根据一些实施方案的用于使用电子设备在触敏表面上进行手写的方法的流程图。在具有显示器、触敏表面和可旋转输入设备的设备(例如,100,300,500)处执行方法1000。方法1000中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1000提供了一种用于在触敏表面上进行手写的直观方式。该方法减少了用户对在触敏表面上进行手写的认知负担,从而创建更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快且更有效地在触敏表面上输入手写节省了功率并且增加了电池两次充电之间的时间间隔。
电子设备在显示器上显示(1002)包括消息区域(例如,609)和笔画输入区域(例如,608)(例如,显示器和触敏表面的检测并显示经由手指、触笔或其他物体从用户接收的笔画的区域)的用户输入界面(例如,610)。在一些示例中,消息区域和笔画输入区域是部分交叠的。在一些示例中,消息区域完全在笔画输入区域内。在一些示例中,消息区域和笔画输入区域共享边界,但不彼此交叠。在一些示例中,消息区域和笔画输入区域是分开的。在一些示例中,触敏表面小于2in×2in、小于1.5in×1.5in、或小于1in×1in。
电子设备在笔画输入区域(例如,608)中的触敏表面上接收(1004)第一组笔画(例如,900,902,904)(例如,一个或多个连续笔画,其中每个笔画表示字母或字母的一部分)。在一些示例中,第一组笔画表示一个字母、多个字母、一个字词、或多个字词。在一些示例中,显示器在接收笔画时向用户提供第一组笔画的笔画的位置和形状的反馈(例如,对图9C的笔画900,902,904的显示)。在一些示例中,对第一组笔画的显示基于接收到每个笔画之后的时间,诸如笔画随时间淡出(例如,对图9C的笔画900,902,904的显示)。
电子设备基于第一组笔画(例如,笔画900,902,904)来确定(1006)第一文本(例如,字母、多个字母、字词、或多个字词)。在一些示例中,该确定可进一步基于在第一组笔画之前接收到的笔画。根据一些实施方案,该电子设备基于电子设备在确定修订的第一文本时的当前上下文(例如,时间、位置、当前活动、日历、消息指向的人)来确定修订的第一文本。
电子设备在消息区域(例如,图9D)中的显示器上显示(1008)第一文本(例如,905)。在一些示例中,电子设备在显示第一文本之前显示第一组笔画(例如,图9C)。在一些示例中,电子设备将对第一组笔画的显示经由动画过渡到对第一组文本的显示。在一些示例中,在电子设备基于第一组笔画来确定第一文本时进行动画显示。
该电子设备在接收第一组笔画(例如,笔画900,902,904)并显示第一文本(例如,905)之后,在笔画输入区域中的触敏表面上接收(1010)第二组笔画(例如,906)。在一些示例中,第二组笔画表示字母的一部分、一个字母、多个字母、一个字词、或多个字词。根据一些实施方案,该电子设备在电子设备接收到第二组笔画之前显示第一文本。
该电子设备基于第一组(例如,900,902,904)和第二组笔画(例如,906)来确定(1012)修订的第一文本(例如,907)。根据一些实施方案,在自接收到第一组笔画以来的某时间段之后接收到第二组笔画,其中基于第一组笔画和第二组笔画来确定修订的第一文本是根据确定该段时间低于阈值来进行的。
该电子设备利用修订的第一文本(例如,图9E)来替代(1014)对第一文本的显示(例如,图9D)。根据一些实施方案,在电子设备接收到第二组笔画之后并且在电子设备显示修订的第一文本之后,该电子设备在笔画输入区域中的触敏表面上接收第三组笔画。该电子设备基于第三组笔画来确定第二文本。该电子设备与修订的第一文本一起显示第二文本。
根据一些实施方案,第一组笔画是单个连续笔画,并且第一文本是单个字符(例如,图9F或图9G)。
根据一些实施方案,第二组笔画是单个连续笔画(例如,图9D或图9H)。
根据一些实施方案,修订的第一文本与第一文本的不同仅在于单个字符(例如,比较图9G和图9I)。
根据一些实施方案,修订的第一文本与第一文本的不同仅在于修订的第一文本或第一文本的最后一个字符(例如,比较图9G和图9I)。
根据一些实施方案,图11示出了根据各种所述实施方案的原理进行配置的电子设备1100的示例性功能框图。根据一些实施方案,电子设备1100的功能块被配置为执行上文所述的技术。设备1100的功能块任选地由执行各种所述示例的原理的硬件、软件或硬件和软件的组合来实现。本领域的技术人员应当理解,图11中所述的功能块任选地被组合或被分离为子块,以便实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图11中所示,电子设备1100包括显示单元1102、触敏表面单元1104、可旋转输入机构单元1106、以及耦接至显示单元1102、触敏表面单元1104、可旋转输入机构单元1106的处理单元1108。在一些实施方案中,该处理单元1108包括显示启用单元1110、接收单元1112、和确定单元814。
该处理单元1108被配置为:在包括消息区域和笔画输入区域的显示单元1102上启用对用户输入界面的显示(例如,使用显示启用单元);在笔画输入区域中的触敏表面上接收第一组笔画(例如,使用接收单元1112);基于第一组笔画来确定第一文本(例如,使用确定单元1114);)在消息区域中启用对第一文本的显示(例如,使用显示启用单元1110;)在接收到第一组笔画并显示第一文本之后在笔画输入区域中的触敏表面上接收第二组笔画(例如,使用接收单元1112;基于第一组笔画和第二组笔画来确定修订的第一文本(例如,使用确定单元1114);以及与修订的第一文本一起启用对第一文本的显示(例如,使用显示启用单元1110)。
在一些实施方案中,在自接收第一组笔画以来的某时间段之后接收第二组笔画,并且基于第一组笔画和第二组笔画来确定修订的第一文本是根据确定该段时间低于阈值来进行的。
在一些实施方案中,在接收到第二组笔画之前启用对第一文本的显示。
在一些实施方案中,确定修订的第一文本进一步基于在确定修订的第一文本时的便携式电子设备的当前上下文。
在一些实施方案中,该处理单元1108被进一步配置为:在接收到第二组笔画之后并且在启用对修订的第一文本的显示之后,在笔画输入区域中的触敏表面上接收第三组笔画(例如,使用接收单元1112);基于第三组笔画来确定第二文本(例如,使用确定单元1114);以及与修订的第一文本一起启用对第二文本的显示(例如,使用显示启用单元1110)。
在一些实施方案中,第一组笔画是单个连续笔画,并且第一文本是单个字符。
在一些实施方案中,第二组笔画是单个连续笔画。
在一些实施方案中,修订的第一文本与第一文本的不同仅在于单个字符。
在一些实施方案中,修订的第一文本与第一文本的不同仅在于修订的第一文本或第一文本的最后一个字符。
以上参考图10描述的操作任选地由图1A-图1B或图11中描绘的部件来实现。例如,接收操作1004任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中的事件监视器171检测触敏显示器112上的接触,并且事件分配器模块174将事件信息递送到应用程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测到相应的预定义事件或子事件时,事件识别器180激活与对该事件或子事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用数据更新器176或对象更新器177以更新应用程序内部状态192。在一些实施方案中,事件处理程序190访问相应GUI更新器178,以更新由应用程序显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于图1A-图1B中描绘的部件来实现其他过程。
图12A-图12L示出了根据一些实施方案的用于在屏幕上进行手写的示例性用户界面。这些附图中的用户界面被用于示出包括图13中的过程的下文描述的过程。
图12A-图12H描绘了使用电子设备600利用多个笔画在触敏表面上输入字词“going”的步骤,同时电子设备600在有笔画可用时完整地处理该笔画。相反,图12I-图12L描绘了使用电子设备600利用多个笔画在触敏表面上输入字词“going”的步骤,同时电子设备600在笔画可用时对其进行处理,但中断对前面笔画的分析,以在新笔画可用时重新开始利用新笔画进行分析。在一些情况下,这后一过程相对于前一过程提供了益处。
图12A描绘了在电子设备600接收到笔画1200之后的手写界面610。图12B描绘了电子设备600分析与笔画表示1200对应的笔画的结果(文本1201)。图12C描绘了在电子设备600接收到与笔画表示1202对应的笔画和与笔画表示1204对应的笔画之后的手写界面610。图12D描绘了电子设备600已开始处理与笔画表示1202和1204对应的笔画之后但在电子设备600已确定针对笔画的对应文本之前的手写界面610。在图12D中,通过不再显示笔画表示来指示与笔画表示1202和1204对应的笔画正在被处理的事实。然而,这种行为是示例性的,并非在所有情况下都是真实的。图12D描绘了电子设备600还已接收到笔画1206。即,电子设备600在开始处理与笔画表示1202和1204对应的笔画之后但在电子设备600确定针对笔画的对应文本之前,接收与该笔画表示1206对应的笔画。图12E描绘了完成分析与笔画表示1202和1204对应的笔画并开始分析与笔画表示1206对应的笔画之后但在电子设备600完成分析与笔画表示1206对应的笔画之前的电子设备600。图12F描绘了完成分析与笔画表示1206对应的笔画之后的电子设备600。最后,在图12G中,电子设备600接收最后的笔画(与笔画表示1208对应的笔画)并对其进行处理。结果在图12H中被示为文本1201。因为电子设备600在笔画变得可用时处理笔画以使其完成,所以文本1201是正确的,这是由于电子设备600没有在所有笔画可用时的所有笔画的完整上下文。即使电子设备600已获取图12H中的正确文本,但其可能会一直执行过多或冗余的处理,因为其正在确定文本而无需访问所有笔画的完整上下文。
相反,在图12I-图12L中,输入相同的笔画并在笔画可用时开始处理。然而,电子设备600在每次有新笔画可用时停止处理当前组的笔画。例如,图12I描绘了电子设备600已接收到两个笔画,即与笔画表示1200和1202对应的笔画。图12J描绘了电子设备600已开始处理与笔画表示1200和1202对应的笔画(例如,通过不再显示笔画表示1200和1202来指示,但未必对于所有实施方案都是这样)但在接收到与笔画表示1204和1206对应的笔画时尚未确定对应的文本。在这种情况下,响应于接收到与笔画表示1204和1206对应的笔画(或甚至仅仅与第一次输入的笔画表示1204对应的笔画),电子设备600停止处理与笔画表示1200和1202对应的该组笔画,向该组笔画添加与笔画表示1204和1206对应的笔画,并继续处理该组笔画。图12K描绘输入最终笔画,即与笔画表示1208对应的笔画。类似于输入与笔画表示1204和1206对应的笔画时,因为电子设备600在接收到笔画1208时仍然在处理该组笔画,所以电子设备600停止处理,向该组笔画添加与笔画表示1208对应的笔画,并继续处理该组笔画。在一些情况下,在向该组笔画添加新笔画时,电子设备600重置/重新开始其分析,但并非在所有实施方案中都是这样。
图13是示出了根据一些实施方案的用于使用电子设备来在触敏表面上进行手写的方法的流程图。在具有显示器、触敏表面和可旋转输入设备的设备(例如,100,300,500)处执行方法1300。方法1300中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1300提供了一种用于在触敏表面上进行手写的直观方式。该方法减少了用户对在触敏表面上进行手写的认知负担,从而创建更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快且更有效地在触敏表面上输入手写节省了功率并且增加了电池两次充电之间的时间间隔。
电子设备在显示器上显示(1302)包括消息区域(例如,609)和笔画输入区域(例如,608)(例如,显示器和触敏表面上的检测并显示经由手指、触笔或其他物体从用户接收的笔画的区域)的用户输入界面(例如,610)。在一些示例中,消息区域和笔画输入区域是部分交叠的。在一些示例中,消息区域完全在笔画输入区域内。在一些示例中,消息区域和笔画输入区域共享边界,但不彼此交叠。在一些示例中,消息区域和笔画输入区域是分开的。在一些示例中,触敏表面小于2in×2in、小于1.5in×1.5in、或小于1in×1in。
电子设备在笔画输入区域(例如,608)中的触敏表面上接收(1304)第一组笔画(例如,1200,1202,1204)(例如,一个或多个连续笔画,其中每个笔画表示字母或字母的一部分)。在一些示例中,第一组笔画表示一个字母、多个字母、一个字词、或多个字词。在一些示例中,显示器在接收到笔画时向用户提供第一组笔画的笔画的位置和形状的反馈(例如,对笔画1200,1202,1204的显示)。
电子设备基于第一组笔画(例如,笔画1200,1202,1204)开始(1306)确定第一文本(例如,字母、多个字母、字词、或多个字词)。在一些示例中,该确定可进一步基于在第一组笔画之前接收到的笔画、电子设备的上下文(例如,一天中的时间、位置、当前活动、日历、该消息要发往的人)、或其他信息。
电子设备在笔画输入区域(例如,608)中的触敏表面上接收(1308)第二组笔画(例如,1206)(例如,一个或多个连续笔画,其中每个笔画表示字母或字母的一部分),而无需在消息区域中显示第一文本(例如,图12J)。在一些示例中,第二组笔画表示字母的一部分、一个字母、多个字母、一个字词、或多个字词。在一些示例中,显示器在接收到笔画时向用户提供第一组笔画的笔画的位置和形状的反馈(例如,笔画1206的显示)。根据一些实施方案,该电子设备在接收到第二组笔画之前基于第一组笔画来确定第一文本。
该电子设备基于第一组笔画和第二组笔画来确定修订的第一文本(例如,文本1208)。
该电子设备在消息区域中显示修订的第一文本(例如,文本1208)。
根据一些实施方案,该修订的第一文本包括第一字符,并且其中第一字符不基于第二组笔画(例如,第一字符为“G”,并且不基于笔画1206)。
根据一些实施方案,修订的第一文本包括多个字符,并且多个字符基于第一组笔画(例如,测试包括基于第一组笔画1200和1202的“Go”)。
根据一些实施方案,修订的第一文本包括第二字符,并且其中第二字符不基于第一组笔画(例如,第二字符为不基于第一组笔画,即笔画1200和1202的“i”)。
根据一些实施方案,修订的第一文本是单个字词(例如,文本1208)。
根据一些实施方案,在笔画输入区域上的与笔画输入区域中的输入第二组笔画(例如,1206或1208)的位置基本上相同的位置中输入第一组笔画(例如,1200和1202)。
根据一些实施方案,修订的第一文本包括基于第一组笔画的形状的第一部分以及由第二组笔画提供的上下文(例如,第一组笔画的形状为“n”或“h”,但基于校正字母所沿形状其为有歧义的,该上下文在确定对应字母为“n”时提供了第二笔画,因为第二组笔画的对应文本是“ight”)。
根据一些实施方案,修订的第一文本包括基于第二组笔画的形状的第一部分以及由第一组笔画提供的上下文(例如,第二组笔画的形状为“n”或“h”,但基于校正字母所沿形状其为有歧义的,该上下文在确定对应字母为“n”时提供了第一笔画,因为第一组笔画的对应文本是“tur”)。
根据一些实施方案,图14示出了根据各种所述实施方案的原理进行配置的电子设备1400的示例性功能框图。根据一些实施方案,电子设备1400的功能块被配置为执行上文所述的技术。设备1400的功能块任选地由执行各种所述示例的原理的硬件、软件或硬件和软件的组合来实现。本领域的技术人员应当理解,图14中所述的功能块任选地被组合或被分离为子块,以便实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图14中所示,电子设备1400包括显示单元1402、触敏表面单元1404、可旋转输入机构单元1406、以及耦接至显示单元1402、触敏表面单元1404、可旋转输入机构单元1406的处理单元1408。在一些实施方案中,该处理单元1408包括显示启用单元1410、接收单元1412、和确定单元1414。
该处理单元1408被配置为:在包括消息区域和笔画输入区域的显示器1402上启用对用户输入界面的显示(例如,使用显示启用单元1410);在笔画输入区域中的触敏表面上接收第一组笔画(例如,使用接收单元1412);)开始基于第一组笔画来确定第一文本(例如,使用确定单元1414;不在消息区域中启用对第一文本的显示,在接收第一组笔画之后在笔画输入区域中的触敏表面上接收第二组笔画(例如,使用接收单元1412);基于第一组笔画和第二组笔画来确定修订的第一文本(例如,使用确定单元1414);以及在消息区域中启用对修订的第一文本的显示(例如,使用显示启用单元1410)。
在一些实施方案中,该修订的第一文本包括第一字符,并且其中第一字符不基于第二组笔画。
在一些实施方案中,该修订的第一文本包括多个字符,并且其中多个字符基于第一组笔画。
在一些实施方案中,该修订的第一文本包括第二字符,并且其中第二字符不基于第一组笔画。
在一些实施方案中,该修订的第一文本是单个字符。
在一些实施方案中,该修订的第一文本是单个字词。
在一些实施方案中,在笔画输入区域上的与笔画输入区域中的输入第二组笔画的位置基本上相同的位置中输入第一组笔画。
在一些实施方案中,该处理单元1408被进一步配置为:在接收到第二组笔画之前基于第一组笔画来确定第一文本(例如,使用确定单元1414)。
在一些实施方案中,该修订的第一文本包括基于第一组笔画的形状的第一部分和由第二组笔画提供的上下文。
在一些实施方案中,该修订的第一文本包括基于第二组笔画的形状的第一部分和由第一组笔画提供的上下文。
以上参考图13描述的操作任选地由图1A-1B或图14中描绘的部件来实现。例如,接收操作1304任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中的事件监视器171检测触敏显示器112上的接触,并且事件分配器模块174将事件信息递送到应用程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测到相应的预定义事件或子事件时,事件识别器180激活与对该事件或子事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用数据更新器176或对象更新器177以更新应用程序内部状态192。在一些实施方案中,事件处理程序190访问相应GUI更新器178,以更新由应用程序显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于图1A-图1B中描绘的部件来实现其他过程。
图15A-图15J示出了根据一些实施方案的用于在屏幕上进行手写的示例性用户界面。这些附图中的用户界面被用于示出包括图16中的过程的下文描述的过程。
图15A示出了在电子设备600接收到与笔画组表示1502对应的该组笔画之后的手写界面610,其包括与笔画表示1503对应的笔画以及与笔画表示1504对应的笔画,它们分别是要在图15A中接收的最后两个笔画。笔画组表示1502表示象形字符(例如,简体中文字符)。因为交叠的象形字符可能包含很多笔画并且难以分析(例如,参见图15E仅两个交叠象形字符的示例),电子设备600基于接收到笔画之间的时间在已接收到针对象形字符的所有笔画时确定对应的象形字符。
相对于与笔画表示1503和1504对应的笔画,确定笔画之间的时间(例如,完成与笔画表示1503对应的笔画时的时间到开始与笔画表示1504对应的笔画时的时间)是否超过阈值。如果该时间未超过阈值,则在同一组中将与笔画表示1503和1504对应的笔画一起包括在内,如图15A所示。
如果下一笔画(即,与图15B的笔画表示1506对应的笔画)和与笔画表示1504对应的笔画之间的时间超过阈值,则将与笔画组表示1502对应的该组笔画作为一组一起分析,而没有与笔画表示1506对应的笔画,从而确定对应的象形字符1508。与笔画表示1506对应的笔画将被添加到针对图15C中所示的后续字符的该组笔画(与图15C的笔画组表示1510对应的该组笔画)。这种方法还相对于图16被描述,使得电子设备600能够通过避免同时处理多个象形字符而节省了电池功率。
这种技术还可用于对表示语音学字符以及象形字符的笔画进行消歧。例如,图15F描绘了在电子设备600接收到文本1514和与笔画表示1516对应的笔画之后的手写界面610。在图15G中,接收后续笔画,即与笔画表示1518对应的笔画。基于与笔画表示1516对应的笔画和与笔画表示1518对应的笔画之间的时间,电子设备600可确定与笔画表示1516和1518对应的笔画是否意图是字母“k”以拼写字词“cook”(图H的文本1516)或与笔画表示1516和1518对应的笔画是否是两个独立字符并且意图是拼写“cool”(图15J的文本1520)。
如果笔画之间的时间超过阈值,电子设备600将与笔画表示1516和1518对应的笔画作为不同字符的部分进行处理,如图15H中所示的。与笔画表示1518对应的笔画然后可被独立分析,以例如产生作为字词“car”的一部分的字母“c”(图15H的文本1518)。如果笔画之间的时间时未超过阈值,则将笔画1516和1518作为同一字符的一部分处理,如图15J中所示的。
图16是示出了根据一些实施方案的用于使用电子设备来在触敏表面上进行手写的方法的流程图。在具有显示器、触敏表面和可旋转输入设备的设备(例如,100,300,500)处执行方法1600。方法1600中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1600提供了一种用于在触敏表面上进行手写的直观方式。该方法减少了用户对在触敏表面上进行手写的认知负担,从而创建更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快且更有效地在触敏表面上输入手写节省了功率并且增加了电池两次充电之间的时间间隔。
电子设备在显示器上显示(1602)包括消息区域(例如,609)和笔画输入区域(例如,608)(例如,显示器和触敏表面上的检测并显示经由手指、触笔或其他物体从用户接收的笔画的区域)的用户输入界面(例如,610)。在一些示例中,消息区域和笔画输入区域是部分交叠的。在一些示例中,消息区域完全在笔画输入区域内。在一些示例中,消息区域和笔画输入区域共享边界,但不彼此交叠。在一些示例中,消息区域和笔画输入区域是分开的。在一些示例中,触敏表面小于2in×2in、小于1.5in×1.5in、或小于1in×1in。
该电子设备在笔画输入区域中的触敏表面上接收(1604)第一笔画(例如,笔画1504)。在一些示例中,第一笔画是多个笔画中的最新笔画。
该电子设备在接收第一笔画之后的第一时间在触敏表面上接收(1606)第二笔画(例如,1506)。第二笔画与第一笔画不同(例如,第一笔画和第二笔画不相同并且不是相同笔画的不同部分)。
该电子设备确定(1608)第一时间是否超过阈值时间(例如,从笔画1504结束到笔画1506开始的时间是否大于阈值)。
根据该电子设备确定第一时间超过阈值,该电子设备基于第一笔画(例如,1504)但不基于第二笔画(例如,1506)来确定(1610)第一字符(例如,字符1508)。
根据电子设备确定第一时间(例如,使用笔画1503作为第一笔画,笔画1504作为第二笔画)小于阈值时间,基于第一笔画(例如,1503)和第二笔画(例如,1504)(例如,除该组笔画1502的其他笔画之外)来确定(1612)第一字符(例如,字符1508)。
电子设备在消息区域中显示(1614)第一字符(例如,字符1508)。
根据一些实施方案,该电子设备进一步根据确定第一时间超过阈值时间,基于第二笔画(例如,1506)来确定第二字符(例如,字符1512)。该电子设备在消息区域中与第一字符一起显示第二字符(例如,字符1512)。
根据一些实施方案,对第一字符和第二字符的显示由空格分开(例如,图15I)。
根据一些实施方案,第一字符是语音学字符(例如,图15H和图15J)。
根据一些实施方案,第一字符是象形字符(例如,字符1508)。
根据一些实施方案,图17示出了根据各种所述实施方案的原理进行配置的电子设备1700的示例性功能框图。根据一些实施方案,电子设备1700的功能块被配置为执行上文所述的技术。设备1700的功能块任选地由执行各种所述示例的原理的硬件、软件或硬件和软件的组合来实现。本领域的技术人员应当理解,图17中所述的功能块任选地被组合或被分离为子块,以便实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图17中所示,电子设备1700包括显示单元1702、触敏表面单元1704、可旋转输入机构单元1706、以及耦接至显示单元1702、触敏表面单元1704、可旋转输入机构1706的处理单元1708。在一些实施方案中,该处理单元1708包括显示启用单元1710、接收单元1712、和确定单元1714。
该处理单元1708被配置为:在包括消息区域和笔画输入区域的显示单元1702上启用对用户输入界面的显示(例如,使用显示启用单元1710);在笔画输入区域中的触敏表面单元1704上接收第一笔画(例如,使用接收单元1712);在接收到第一笔画之后的第一时间,在触敏表面单元1704上接收第二笔画(例如,使用接收单元1712),其中第二笔画与第一笔画不同;确定第一时间是否超过阈值时间(例如,使用确定单元1714);根据确定第一时间超过阈值时间,基于第一笔画但不基于第二笔画来确定第一字符(例如,使用确定单元1714);根据确定第一时间小于阈值时间,基于第一笔画和第二笔画来确定第一字符(例如,使用确定单元1714);以及在消息区域中启用对第一字符的显示(例如,使用显示启用单元1710)。
在一些实施方案中,该处理单元1708被进一步配置为:进一步根据确定第一时间超过阈值时间,基于第二笔画来确定第二字符(例如,使用确定单元1714);以及在消息区域中与第一字符一起启用对第二字符的显示(例如,使用显示启用单元1710)。
在一些实施方案中,对第一字符和第二字符的显示由空格分开。
在一些实施方案中,该处理单元1708被进一步配置为:确定与第一字符相关联的上下文(例如,使用确定单元1714);进一步基于上下文来确定第二字符(例如,使用确定单元1714)。
在一些实施方案中,第一字符是语音学字符。
在一些实施方案中,第一字符是象形字符。
以上参考图16描述的操作任选地由图1A-图1B或者图17中描绘的部件来实现。例如,接收操作1604任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中的事件监视器171检测触敏显示器112上的接触,并且事件分配器模块174将事件信息递送到应用程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测到相应的预定义事件或子事件时,事件识别器180激活与对该事件或子事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用数据更新器176或对象更新器177以更新应用程序内部状态192。在一些实施方案中,事件处理程序190访问相应GUI更新器178,以更新由应用程序显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于图1A-图1B中描绘的部件来实现其他过程。
为了解释的目的,前面的描述是通过参考具体实施方案来进行描述的。然而,上面的例示性论述并非旨在是穷尽的或将本发明限制为所公开的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择并描述这些实施方案是为了最好地解释这些技术的原理及其实际应用。本领域的其他技术人员由此能够最好地利用这些技术以及具有适合于所设想的特定用途的各种修改的各种实施方案。
虽然参照附图对本公开以及示例进行了全面的描述,但应当注意,各种变化和修改对于本领域内的技术人员而言将变得显而易见。应当理解,此类变化和修改被认为被包括在由权利要求书所限定的本公开和示例的范围内。

Claims (28)

1.一种用于修订文本的方法,包括:
在具有一个或多个处理器、触摸屏和显示器的电子设备处:
在包括文本区域和笔画输入区域的所述显示器上显示用户输入界面,其中所述文本区域和所述笔画输入区域不交叠;
在所述笔画输入区域中的所述触摸屏上接收第一组笔画;
基于所述第一组笔画来确定第一文本;
在所述文本区域中显示所述第一文本;
在接收到所述第一组笔画并且显示所述第一文本之后,在所述笔画输入区域中的所述触摸屏上接收第二组笔画,其中在自接收到所述第一组笔画以来的某时间段之后,所述第二组笔画被接收到;
如果确定自接收到所述第一组笔画以来的所述时间段低于阈值:
基于所述第一组笔画和所述第二组笔画来确定修订的第一文本;以及
利用所述修订的第一文本来替代对所述第一文本的所述显示;以及
如果确定自接收到所述第一组笔画以来的所述时间段超过所述阈值:
基于所述第二组笔画来确定第二文本而与所述第一组笔画无关;以及
在所述文本区域中显示所述第二文本。
2.根据权利要求1所述的方法,其中显示所述第一文本发生在接收到所述第二组笔画之前。
3.根据权利要求1所述的方法,其中确定所述修订的第一文本进一步基于确定所述修订的第一文本时的所述电子设备的当前上下文。
4.根据权利要求1所述的方法,还包括:
在接收到所述第二组笔画之后并且在显示所述修订的第一文本之后,在所述笔画输入区域中的所述触摸屏上接收第三组笔画;
基于所述第三组笔画来确定第二文本;以及
与所述修订的第一文本一起显示所述第二文本。
5.根据权利要求1所述的方法,其中所述第一组笔画是单个连续笔画,并且所述第一文本是单个字符。
6.根据权利要求1所述的方法,其中所述第二组笔画是单个连续笔画。
7.根据权利要求1所述的方法,其中所述修订的第一文本与所述第一文本的不同仅在于单个字符。
8.根据权利要求1所述的方法,其中所述修订的第一文本与所述第一文本的不同仅在于所述修订的第一文本或所述第一文本的最后一个字符。
9.根据权利要求1所述的方法,其中所述第二组笔画的至少一部分与所述第一组笔画交叠。
10.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的便携式设备的一个或多个处理器执行,所述一个或多个程序包括用于进行以下操作的指令:
在包括文本区域和笔画输入区域的所述显示器上显示用户输入界面,其中所述文本区域和所述笔画输入区域不交叠;
在所述笔画输入区域中的所述触摸屏上接收第一组笔画;
基于所述第一组笔画来确定第一文本;
在所述文本区域中显示所述第一文本;
在接收到所述第一组笔画并且显示所述第一文本之后,在所述笔画输入区域中的所述触摸屏上接收第二组笔画,其中在自接收到所述第一组笔画以来的某时间段之后,所述第二组笔画被接收到;
如果确定自接收到所述第一组笔画以来的所述时间段低于阈值:
基于所述第一组笔画和所述第二组笔画来确定修订的第一文本;以及
利用所述修订的第一文本来替代对所述第一文本的所述显示;以及
如果确定自接收到所述第一组笔画以来的所述时间段超过所述阈值:
基于所述第二组笔画来确定第二文本而与所述第一组笔画无关;以及
在所述文本区域中显示所述第二文本。
11.根据权利要求10所述的计算机可读存储介质,其中显示所述第一文本发生在接收到所述第二组笔画之前。
12.根据权利要求10所述的计算机可读存储介质,其中确定所述修订的第一文本进一步基于确定所述修订的第一文本时的所述电子设备的当前上下文。
13.根据权利要求10所述的计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
在接收到所述第二组笔画之后并且在显示所述修订的第一文本之后,在所述笔画输入区域中的所述触摸屏上接收第三组笔画;
基于所述第三组笔画来确定第二文本;以及
与所述修订的第一文本一起显示所述第二文本。
14.根据权利要求10所述的计算机可读存储介质,其中所述第一组笔画是单个连续笔画,并且所述第一文本是单个字符。
15.根据权利要求10所述的计算机可读存储介质,其中所述第二组笔画是单个连续笔画。
16.根据权利要求10所述的计算机可读存储介质,其中所述修订的第一文本与所述第一文本的不同仅在于单个字符。
17.根据权利要求10所述的计算机可读存储介质,其中所述修订的第一文本与所述第一文本的不同仅在于所述修订的第一文本或所述第一文本的最后一个字符。
18.根据权利要求10所述的计算机可读存储介质,其中所述第二组笔画的至少一部分与所述第一组笔画交叠。
19.一种电子设备,包括:
触敏表面;
显示器;
可旋转输入机构;
一个或多个处理器;以及
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于进行以下操作的指令:
在包括文本区域和笔画输入区域的所述显示器上显示用户输入界面,其中所述文本区域和所述笔画输入区域不交叠;
在所述笔画输入区域中的所述触摸屏上接收第一组笔画;
基于所述第一组笔画来确定第一文本;
在所述文本区域中显示所述第一文本;
在接收到所述第一组笔画并且显示所述第一文本之后,在所述笔画输入区域中的所述触摸屏上接收第二组笔画,其中在自接收到所述第一组笔画以来的某时间段之后,所述第二组笔画被接收到;
如果确定自接收到所述第一组笔画以来的所述时间段低于阈值:
基于所述第一组笔画和所述第二组笔画来确定修订的第一文本;以及
利用所述修订的第一文本来替代对所述第一文本的所述显示;以及
如果确定自接收到所述第一组笔画以来的所述时间段超过所述阈值:
基于所述第二组笔画来确定第二文本而与所述第一组笔画无关;以及
在所述文本区域中显示所述第二文本。
20.根据权利要求19所述的电子设备,其中显示所述第一文本发生在接收到所述第二组笔画之前。
21.根据权利要求19所述的电子设备,其中确定所述修订的第一文本进一步基于确定所述修订的第一文本时的所述电子设备的当前上下文。
22.根据权利要求19所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在接收到所述第二组笔画之后并且在显示所述修订的第一文本之后,在所述笔画输入区域中的所述触摸屏上接收第三组笔画;
基于所述第三组笔画来确定第二文本;以及
与所述修订的第一文本一起显示所述第二文本。
23.根据权利要求19所述的电子设备,其中所述第一组笔画是单个连续笔画,并且所述第一文本是单个字符。
24.根据权利要求19所述的电子设备,其中所述第二组笔画是单个连续笔画。
25.根据权利要求19所述的电子设备,其中所述修订的第一文本与所述第一文本的不同仅在于单个字符。
26.根据权利要求19所述的电子设备,其中所述修订的第一文本与所述第一文本的不同仅在于所述修订的第一文本或所述第一文本的最后一个字符。
27.根据权利要求19所述的电子设备,其中所述第二组笔画的至少一部分与所述第一组笔画交叠。
28.一种电子设备,包括:
触敏表面;
显示器;
可旋转输入机构;以及
用于执行根据权利要求1-9中任一项所述的方法的装置。
CN202110446637.3A 2016-06-12 2017-06-07 用于屏幕的手写键盘 Pending CN113190126A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662349111P 2016-06-12 2016-06-12
US62/349,111 2016-06-12
CN201710424212.6A CN107491186B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201710424212.6A Division CN107491186B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Publications (1)

Publication Number Publication Date
CN113190126A true CN113190126A (zh) 2021-07-30

Family

ID=59054982

Family Applications (4)

Application Number Title Priority Date Filing Date
CN202110452880.6A Pending CN113157113A (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN201710424212.6A Active CN107491186B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN202110446637.3A Pending CN113190126A (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN201711258408.9A Active CN108089727B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CN202110452880.6A Pending CN113157113A (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN201710424212.6A Active CN107491186B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201711258408.9A Active CN108089727B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Country Status (7)

Country Link
US (5) US10228846B2 (zh)
EP (3) EP3324274B1 (zh)
JP (4) JP6495376B2 (zh)
KR (4) KR101978883B1 (zh)
CN (4) CN113157113A (zh)
AU (4) AU2017203816C1 (zh)
DK (2) DK179374B1 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US9465985B2 (en) 2013-06-09 2016-10-11 Apple Inc. Managing real-time handwriting recognition
US20170236318A1 (en) * 2016-02-15 2017-08-17 Microsoft Technology Licensing, Llc Animated Digital Ink
USD798893S1 (en) * 2016-06-11 2017-10-03 Apple Inc. Display screen or portion thereof with animated graphical user interface
DK179374B1 (en) 2016-06-12 2018-05-28 Apple Inc Handwriting keyboard for monitors
DE102016007357A1 (de) * 2016-06-15 2017-12-21 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Kraftfahrzeugeinrichtung mit einer bewegbaren Fensterscheibe, Kraftfahrzeug mit einer solchen Kraftfahrzeugeinrichtung und Verfahren zum Betrieb einer solchen Kraftfahrzeugeinrichtung
US10546061B2 (en) * 2016-08-17 2020-01-28 Microsoft Technology Licensing, Llc Predicting terms by using model chunks
USD868081S1 (en) * 2016-08-26 2019-11-26 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US10533362B2 (en) 2017-06-16 2020-01-14 GM Global Technology Operations LLC Systems and methods for memory and touch position window
US11354503B2 (en) * 2017-07-27 2022-06-07 Samsung Electronics Co., Ltd. Method for automatically providing gesture-based auto-complete suggestions and electronic device thereof
US10810467B2 (en) * 2017-11-17 2020-10-20 Hong Kong Applied Science and Technology Research Institute Company Limited Flexible integrating recognition and semantic processing
KR20190091914A (ko) 2018-01-30 2019-08-07 최원호 온스크린 키보드 제공 방법 및 이를 수행하는 컴퓨팅 디바이스
US20190318652A1 (en) * 2018-04-13 2019-10-17 Microsoft Technology Licensing, Llc Use of intelligent scaffolding to teach gesture-based ink interactions
US20190369754A1 (en) * 2018-06-01 2019-12-05 Apple Inc. Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
KR20200100379A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 전자 장치의 단축 기능 제공 방법 및 이를 사용하는 전자 장치
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
USD931896S1 (en) * 2019-11-20 2021-09-28 Beijing Zhangdianzishi Technology Co., Ltd. Display screen or portion thereof with an animated graphical user interface
KR102120324B1 (ko) 2020-02-13 2020-06-08 최원호 온스크린 키보드 제공 방법 및 이를 수행하는 컴퓨팅 디바이스
KR20230017538A (ko) * 2021-07-28 2023-02-06 삼성전자주식회사 전자 장치 및 필기 인식 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6340967B1 (en) * 1998-04-24 2002-01-22 Natural Input Solutions Inc. Pen based edit correction interface method and apparatus
US20030038788A1 (en) * 2001-08-22 2003-02-27 Pierre Demartines Automatically scrolling handwritten input user interface for personal digital assistants and the like
EP2367097A1 (en) * 2010-03-19 2011-09-21 Research In Motion Limited Portable electronic device and method of controlling same
US20120216113A1 (en) * 2011-02-18 2012-08-23 Google Inc. Touch gestures for text-entry operations
CN103365446A (zh) * 2012-03-28 2013-10-23 联想(北京)有限公司 一种手写输入方法及装置
US20150169948A1 (en) * 2013-12-13 2015-06-18 Kabushiki Kaisha Toshiba Electronic apparatus and method
CN104951175A (zh) * 2014-03-25 2015-09-30 上海三旗通信科技股份有限公司 一种改进的手持设备上的手写多字输入法

Family Cites Families (331)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
JPS5827551B2 (ja) 1979-05-18 1983-06-10 日本電信電話株式会社 オンライン手書き文字認識方式
JPH0614372B2 (ja) 1984-01-23 1994-02-23 日本電信電話株式会社 文字読取方法
JPS60217477A (ja) 1984-04-12 1985-10-31 Toshiba Corp 手書き文字認識装置
JPS61272890A (ja) 1985-05-29 1986-12-03 Canon Inc 手書文字認識装置
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
US5031225A (en) 1987-12-09 1991-07-09 Ricoh Company, Ltd. Character recognition method for recognizing character in an arbitrary rotation position
JPH04504510A (ja) 1989-01-24 1992-08-13 ドルフィン イメージング システムス インコーポレーテッド 頭蓋計測イメージの作成方法及び装置
JP2881866B2 (ja) 1989-11-30 1999-04-12 ソニー株式会社 手書き文字の認識方法及び装置
USRE34476E (en) 1990-05-14 1993-12-14 Norwood Donald D Hybrid information management system for handwriting and text
US5138304A (en) 1990-08-02 1992-08-11 Hewlett-Packard Company Projected image light pen
US5347295A (en) 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
JP2718485B2 (ja) 1990-11-29 1998-02-25 株式会社リコー 文字認識方法
DE69129364T2 (de) 1991-02-01 1998-10-22 Philips Electronics Nv Vorrichtung zur interaktiven Behandlung von Objekten
JP3190074B2 (ja) 1991-09-11 2001-07-16 株式会社東芝 手書き入力装置
US5544257A (en) 1992-01-08 1996-08-06 International Business Machines Corporation Continuous parameter hidden Markov model approach to automatic handwriting recognition
US5652806A (en) 1992-01-10 1997-07-29 Compaq Computer Corporation Input device with data targeting to determine an entry field for a block of stroke data
US5347477A (en) 1992-01-28 1994-09-13 Jack Lee Pen-based form computer
US5583543A (en) 1992-11-05 1996-12-10 Sharp Kabushiki Kaisha Pen input processing apparatus
US5502803A (en) 1993-01-18 1996-03-26 Sharp Kabushiki Kaisha Information processing apparatus having a gesture editing function
US5491758A (en) * 1993-01-27 1996-02-13 International Business Machines Corporation Automatic handwriting recognition using both static and dynamic parameters
US6011865A (en) 1993-05-12 2000-01-04 International Business Machines Corporation Hybrid on-line handwriting recognition and optical character recognition system
EP0632404B1 (en) 1993-07-01 1997-12-29 International Business Machines Corporation Pattern recognition by generating and using zonal features and anti-features
CA2124505C (en) 1993-07-21 2000-01-04 William A. S. Buxton User interface having simultaneously movable tools and cursor
US5710831A (en) 1993-07-30 1998-01-20 Apple Computer, Inc. Method for correcting handwriting on a pen-based computer
JP3353954B2 (ja) 1993-08-13 2002-12-09 ソニー株式会社 手書き入力表示方法および手書き入力表示装置
US5500937A (en) 1993-09-08 1996-03-19 Apple Computer, Inc. Method and apparatus for editing an inked object while simultaneously displaying its recognized object
US5438631A (en) 1993-10-12 1995-08-01 Dai; Xiao-Wei Handwriting and character recognition system
JPH07160827A (ja) 1993-12-09 1995-06-23 Matsushita Electric Ind Co Ltd 手書きストローク編集装置及び方法
JPH07200723A (ja) 1993-12-29 1995-08-04 Canon Inc 文字認識方法及び装置
US5687254A (en) 1994-06-06 1997-11-11 Xerox Corporation Searching and Matching unrecognized handwriting
US5812697A (en) 1994-06-10 1998-09-22 Nippon Steel Corporation Method and apparatus for recognizing hand-written characters using a weighting dictionary
JPH0855182A (ja) 1994-06-10 1996-02-27 Nippon Steel Corp 手書き文字入力装置
JP3486459B2 (ja) 1994-06-21 2004-01-13 キヤノン株式会社 電子情報機器及びその制御方法
JPH0816313A (ja) 1994-07-04 1996-01-19 Sanyo Electric Co Ltd 手書き入力方法及び装置
CN1102275C (zh) 1994-11-14 2003-02-26 摩托罗拉公司 分解手写体输入的装置和方法
US5737443A (en) 1994-11-14 1998-04-07 Motorola, Inc. Method of joining handwritten input
JP2944439B2 (ja) 1994-12-27 1999-09-06 シャープ株式会社 手書き文字入力装置および方法
JP2939147B2 (ja) 1994-12-29 1999-08-25 シャープ株式会社 手書き文字入力表示装置および方法
JPH08228275A (ja) 1995-02-22 1996-09-03 Canon Inc ファクシミリ装置
JP3333362B2 (ja) 1995-04-11 2002-10-15 株式会社日立製作所 文字入力装置
US6016147A (en) 1995-05-08 2000-01-18 Autodesk, Inc. Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device
JPH08314608A (ja) 1995-05-15 1996-11-29 Wacom Co Ltd デジタイザ、デジタイザ用の補助装置及びデジタイザシステム
TW338815B (en) 1995-06-05 1998-08-21 Motorola Inc Method and apparatus for character recognition of handwritten input
US5991441A (en) 1995-06-07 1999-11-23 Wang Laboratories, Inc. Real time handwriting recognition system
JP3437347B2 (ja) 1995-09-08 2003-08-18 キヤノン株式会社 文字認識装置及びその方法及びコンピュータ
US5902968A (en) 1996-02-20 1999-05-11 Ricoh Company, Ltd. Pen-shaped handwriting input apparatus using accelerometers and gyroscopes and an associated operational device for determining pen movement
US5828999A (en) 1996-05-06 1998-10-27 Apple Computer, Inc. Method and system for deriving a large-span semantic language model for large-vocabulary recognition systems
JPH09319829A (ja) 1996-06-03 1997-12-12 Nec Corp オンライン文字認識装置
US5796867A (en) 1996-06-12 1998-08-18 Industrial Technology Research Institute Stroke-number-free and stroke-order-free on-line Chinese character recognition method
US5862256A (en) 1996-06-14 1999-01-19 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by size discrimination
US5864635A (en) 1996-06-14 1999-01-26 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by stroke analysis
JPH1091346A (ja) * 1996-09-10 1998-04-10 Sharp Corp 手書き入力装置及び手書き入力装置制御プログラムを記憶した媒体
US5926566A (en) 1996-11-15 1999-07-20 Synaptics, Inc. Incremental ideographic character input method
JP4115568B2 (ja) 1996-12-18 2008-07-09 シャープ株式会社 文章入力装置
US5953541A (en) 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
JPH10307675A (ja) 1997-05-01 1998-11-17 Hitachi Ltd 手書き文字認識方法及び装置
JP3006545B2 (ja) 1997-06-09 2000-02-07 日本電気株式会社 オンライン文字認識装置
EP2256605B1 (en) 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
WO1999064982A1 (en) 1998-06-09 1999-12-16 Kent Ridge Digital Labs A recognition process
US6408092B1 (en) 1998-08-31 2002-06-18 Adobe Systems Incorporated Handwritten input in a restricted area
JP3775461B2 (ja) 1998-12-03 2006-05-17 セイコーエプソン株式会社 印字装置、その印字方法及び記録媒体
US7881936B2 (en) 1998-12-04 2011-02-01 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US8938688B2 (en) 1998-12-04 2015-01-20 Nuance Communications, Inc. Contextual prediction of user words and user actions
US6970599B2 (en) 2002-07-25 2005-11-29 America Online, Inc. Chinese character handwriting recognition system
US7030863B2 (en) 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
AU5299700A (en) 1999-05-27 2000-12-18 America Online, Inc. Keyboard system with automatic correction
JP2001034399A (ja) * 1999-07-22 2001-02-09 Matsushita Electric Ind Co Ltd 数字キーによる中国語住所入力方法
US6707942B1 (en) * 2000-03-01 2004-03-16 Palm Source, Inc. Method and apparatus for using pressure information for improved computer controlled handwriting recognition, data entry and user authentication
US6760580B2 (en) 2000-03-06 2004-07-06 America Online, Incorporated Facilitating instant messaging outside of user-defined buddy group in a wireless and non-wireless environment
JP4663903B2 (ja) 2000-04-20 2011-04-06 パナソニック株式会社 手書き文字認識装置及び手書き文字認識プログラム並びに手書き文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001325252A (ja) * 2000-05-12 2001-11-22 Sony Corp 携帯端末及びその情報入力方法、辞書検索装置及び方法、媒体
US7177797B1 (en) 2000-08-31 2007-02-13 Semantic Compaction Systems Linguistic retrieval system and method
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
CA2323856A1 (en) 2000-10-18 2002-04-18 602531 British Columbia Ltd. Method, system and media for entering data in a personal computing device
WO2002037933A2 (en) 2000-11-08 2002-05-16 New York University System, process and software arrangement for recognizing handwritten characters
US6918091B2 (en) 2000-11-09 2005-07-12 Change Tools, Inc. User definable interface system, method and computer program product
US6912308B2 (en) * 2000-12-01 2005-06-28 Targus Communications Corp. Apparatus and method for automatic form recognition and pagination
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20020107896A1 (en) 2001-02-02 2002-08-08 Abraham Ronai Patent application drafting assistance tool
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7020917B1 (en) 2001-03-12 2006-04-04 Steris Corporation Radiolucent surgical table with low shadow accessory interface profile
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US20050024341A1 (en) 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US6690364B1 (en) 2001-05-31 2004-02-10 Palm Source, Inc. Method and system for on screen text correction via pen interface
AUPR687701A0 (en) 2001-08-08 2001-08-30 Litster, Gregory John Method of and apparatus for selecting symbols in ideographic languages
US7202857B2 (en) * 2001-08-29 2007-04-10 Microsoft Corporation Manual controlled scrolling
US6952284B2 (en) 2001-08-31 2005-10-04 International Business Machines Corporation Manually operated digital printing device
US7286141B2 (en) 2001-08-31 2007-10-23 Fuji Xerox Co., Ltd. Systems and methods for generating and controlling temporary digital ink
AUPR824301A0 (en) 2001-10-15 2001-11-08 Silverbrook Research Pty. Ltd. Methods and systems (npw001)
US7113172B2 (en) 2001-11-09 2006-09-26 Lifescan, Inc. Alphanumeric keypad and display system and method
JP2003162687A (ja) 2001-11-28 2003-06-06 Toshiba Corp 手書き文字入力装置、手書き文字認識プログラム
JP4212270B2 (ja) 2001-12-07 2009-01-21 シャープ株式会社 文字入力装置、文字入力方法および文字を入力するためのプログラム
JP4050055B2 (ja) 2002-01-10 2008-02-20 株式会社リコー 手書き文字一括変換装置、手書き文字一括変換方法およびプログラム
US20030197736A1 (en) 2002-01-16 2003-10-23 Murphy Michael W. User interface for character entry using a minimum number of selection keys
US20030149978A1 (en) 2002-02-07 2003-08-07 Bruce Plotnick System and method for using a personal digital assistant as an electronic program guide
US7016529B2 (en) 2002-03-15 2006-03-21 Microsoft Corporation System and method facilitating pattern recognition
US20030193481A1 (en) 2002-04-12 2003-10-16 Alexander Sokolsky Touch-sensitive input overlay for graphical user interface
US6986106B2 (en) 2002-05-13 2006-01-10 Microsoft Corporation Correction widget
JP2004213269A (ja) 2002-12-27 2004-07-29 Toshiba Corp 文字入力装置
US7382358B2 (en) 2003-01-16 2008-06-03 Forword Input, Inc. System and method for continuous stroke word-based text input
AU2003303837A1 (en) * 2003-01-30 2004-08-23 Fujitsu Limited Handwriting-input device and method
US7490296B2 (en) * 2003-01-31 2009-02-10 Microsoft Corporation Utility object for specialized data entry
JP3903016B2 (ja) 2003-02-13 2007-04-11 株式会社ジャストシステム 手書き文字認識装置及び方法、並びにプログラム
SG135918A1 (en) * 2003-03-03 2007-10-29 Xrgomics Pte Ltd Unambiguous text input method for touch screens and reduced keyboard systems
US20040183833A1 (en) 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus
US7729542B2 (en) 2003-04-04 2010-06-01 Carnegie Mellon University Using edges and corners for character input
US8479112B2 (en) 2003-05-13 2013-07-02 Microsoft Corporation Multiple input language selection
US20070061753A1 (en) 2003-07-17 2007-03-15 Xrgomics Pte Ltd Letter and word choice text input method for keyboards and reduced keyboard systems
US7571111B2 (en) 2004-03-29 2009-08-04 United Parcel Service Of America, Inc. Computer system for monitoring actual performance to standards in real time
JP2005341387A (ja) 2004-05-28 2005-12-08 Nokia Corp リアルタイムコミュニケーションシステム、及びリアルタイムコミュニケーションに用いる送受信装置及び方法
JP2005341411A (ja) * 2004-05-28 2005-12-08 Matsushita Electric Ind Co Ltd ユーザインタフェース装置
US7764837B2 (en) 2004-09-01 2010-07-27 Hewlett-Packard Development Company, L.P. System, method, and apparatus for continuous character recognition
US7443386B2 (en) 2004-11-01 2008-10-28 Nokia Corporation Mobile phone and method
US7669149B2 (en) * 2004-12-30 2010-02-23 Sap Ag Matching user interface elements to screen reader functions
US8552984B2 (en) 2005-01-13 2013-10-08 602531 British Columbia Ltd. Method, system, apparatus and computer-readable media for directing input associated with keyboard-type device
KR20080007261A (ko) * 2005-04-25 2008-01-17 테직 커뮤니케이션 인코포레이티드 표의문자 언어 구의 사용자 입력을 처리하기 위한 회로,방법 및 시스템
US20060246955A1 (en) 2005-05-02 2006-11-02 Mikko Nirhamo Mobile communication device and method therefor
JP2006323502A (ja) 2005-05-17 2006-11-30 Canon Inc 情報処理装置及びその制御方法、プログラム
US7886233B2 (en) 2005-05-23 2011-02-08 Nokia Corporation Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
US7496547B2 (en) 2005-06-02 2009-02-24 Microsoft Corporation Handwriting recognition using a comparative neural network
US20070016862A1 (en) * 2005-07-15 2007-01-18 Microth, Inc. Input guessing systems, methods, and computer program products
US7873356B2 (en) 2005-09-16 2011-01-18 Microsoft Corporation Search interface for mobile devices
US7634137B2 (en) 2005-10-14 2009-12-15 Microsoft Corporation Unfolded convolution for fast feature extraction
US7646913B2 (en) 2005-12-19 2010-01-12 Microsoft Corporation Allograph based writer adaptation for handwritten character recognition
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US20080008387A1 (en) * 2006-07-06 2008-01-10 Cheng Yi-Hsun E Method and apparatus for recognition of handwritten symbols
JP4762070B2 (ja) 2006-07-19 2011-08-31 富士通株式会社 手書き入力装置、手書き入力方法、及びコンピュータプログラム
US7720316B2 (en) 2006-09-05 2010-05-18 Microsoft Corporation Constraint-based correction of handwriting recognition errors
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8843754B2 (en) 2006-09-15 2014-09-23 Identity Metrics, Inc. Continuous user identification and situation analysis with identification of anonymous users through behaviormetrics
KR100859010B1 (ko) 2006-11-01 2008-09-18 노키아 코포레이션 필기 인식을 위한 장치 및 방법
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US7885456B2 (en) 2007-03-29 2011-02-08 Microsoft Corporation Symbol graph generation in handwritten mathematical expression recognition
US8457946B2 (en) * 2007-04-26 2013-06-04 Microsoft Corporation Recognition architecture for generating Asian characters
CN101311887A (zh) 2007-05-21 2008-11-26 刘恩新 一种计算机手写输入系统及输入方法和编辑方法
US8018441B2 (en) * 2007-06-11 2011-09-13 Samsung Electronics Co., Ltd. Character input apparatus and method for automatically switching input mode in terminal having touch screen
US7983478B2 (en) 2007-08-10 2011-07-19 Microsoft Corporation Hidden markov model based handwriting/calligraphy generation
EP2031485A1 (en) * 2007-08-31 2009-03-04 Research In Motion Limited Handheld electronic device and associated method providing disambiguation of an ambiguous object during editing and selectively providing prediction of future characters
CN101123044A (zh) * 2007-09-13 2008-02-13 无敌科技(西安)有限公司 汉字书写学习方法
JP2009110092A (ja) 2007-10-26 2009-05-21 Alps Electric Co Ltd 入力処理装置
US8010901B1 (en) 2007-10-26 2011-08-30 Sesh, Inc. System and method for automated synchronized co-browsing
US7502017B1 (en) 2007-11-20 2009-03-10 International Business Machines Corporation Handwriting recognizer user interface methods
CN101178633A (zh) 2007-12-13 2008-05-14 深圳华为通信技术有限公司 一种手写屏错误纠正的方法、系统及装置
US8116569B2 (en) 2007-12-21 2012-02-14 Microsoft Corporation Inline handwriting recognition and correction
US8908973B2 (en) 2008-03-04 2014-12-09 Apple Inc. Handwritten character recognition interface
US8650507B2 (en) * 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8610672B2 (en) 2008-04-10 2013-12-17 Nokia Corporation Device and method for stroke based graphic input
US9508059B2 (en) * 2008-04-25 2016-11-29 T-Mobile Usa, Inc. Messaging device having a graphical user interface for initiating communication to recipients
US8341184B2 (en) * 2008-05-07 2012-12-25 Smooth Productions Inc. Communications network system and service provider
JP2009288873A (ja) 2008-05-27 2009-12-10 Ntt Docomo Inc 携帯端末及び文字入力方法
JP2009289188A (ja) 2008-05-30 2009-12-10 Nec Corp 文字入力装置、文字入力方法および文字入力用プログラム
US9355090B2 (en) 2008-05-30 2016-05-31 Apple Inc. Identification of candidate characters for text input
US8073680B2 (en) 2008-06-26 2011-12-06 Microsoft Corporation Language detection service
US8213914B2 (en) * 2008-08-04 2012-07-03 Lg Electronics Inc. Mobile terminal capable of providing web browsing function and method of controlling the mobile terminal
CN101676838B (zh) 2008-09-16 2012-05-23 夏普株式会社 输入装置
US20100104189A1 (en) 2008-10-23 2010-04-29 Aravamudhan Bharath Handwriting Identification Method, Program And Electronic Device
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US8370737B2 (en) 2008-12-27 2013-02-05 Flash Networks, Ltd Method and system for inserting data in a web page that is transmitted to a handheld device
US20100166314A1 (en) 2008-12-30 2010-07-01 Microsoft Corporation Segment Sequence-Based Handwritten Expression Recognition
US8294680B2 (en) * 2009-03-27 2012-10-23 Sony Mobile Communications Ab System and method for touch-based text entry
US8175389B2 (en) 2009-03-30 2012-05-08 Synaptics Incorporated Recognizing handwritten words
US10191654B2 (en) * 2009-03-30 2019-01-29 Touchtype Limited System and method for inputting text into electronic devices
US8111911B2 (en) 2009-04-27 2012-02-07 King Abdulaziz City For Science And Technology System and methods for arabic text recognition based on effective arabic text feature extraction
US8493344B2 (en) * 2009-06-07 2013-07-23 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
CN101930545A (zh) 2009-06-24 2010-12-29 夏普株式会社 手写识别方法和设备
US8391613B2 (en) 2009-06-30 2013-03-05 Oracle America, Inc. Statistical online character recognition
JP2011065623A (ja) 2009-08-21 2011-03-31 Sharp Corp 情報検索装置、情報検索装置の制御方法
JP5487208B2 (ja) 2009-08-27 2014-05-07 株式会社東芝 情報検索装置
TWI490734B (zh) 2009-11-23 2015-07-01 Htc Corp 動態調整手寫輸入之等待時間的方法、電子設備及其相關電腦程式產品
KR101623213B1 (ko) * 2009-12-24 2016-05-31 삼성전자주식회사 펜 입력 장치 및 방법
US8310461B2 (en) 2010-05-13 2012-11-13 Nuance Communications Inc. Method and apparatus for on-top writing
US8930360B2 (en) 2010-05-28 2015-01-06 Yahoo! Inc. System and method for online handwriting recognition in web queries
CN101893987A (zh) 2010-06-01 2010-11-24 华南理工大学 一种电子设备的手写输入方法
TW201201113A (en) 2010-06-22 2012-01-01 Sharp Kk Handwriting recognition method and device
CN101894266A (zh) 2010-06-30 2010-11-24 北京捷通华声语音技术有限公司 一种手写识别方法及系统
KR101486174B1 (ko) 2010-08-24 2015-01-23 노키아 코포레이션 중첩된 수기의 획들을 하나 이상의 그룹으로 분할하는 방법 및 장치
KR101780440B1 (ko) * 2010-08-30 2017-09-22 삼성전자 주식회사 멀티 터치에 따른 리스트 데이터 출력 제어 방법 및 이를 지원하는 휴대 단말기
JP2012079252A (ja) * 2010-10-06 2012-04-19 Fujitsu Ltd 情報端末装置、文字入力方法および文字入力プログラム
TW201216124A (en) 2010-10-12 2012-04-16 Inventec Corp Multi-block handwriting system and method thereof
US8635061B2 (en) 2010-10-14 2014-01-21 Microsoft Corporation Language identification in multilingual text
JP2012108871A (ja) 2010-10-26 2012-06-07 Nec Corp 情報処理装置およびその手書き入力処理方法
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
CN103299254B (zh) 2010-12-02 2016-09-14 诺基亚技术有限公司 用于重叠手写的方法和装置
CN102156608B (zh) * 2010-12-10 2013-07-24 上海合合信息科技发展有限公司 多字符连续书写的手写输入方法
JP5305545B2 (ja) 2011-01-06 2013-10-02 パナソニック株式会社 手書き文字入力装置および携帯端末
US8922489B2 (en) * 2011-03-24 2014-12-30 Microsoft Corporation Text input using key and gesture information
JP5550598B2 (ja) 2011-03-31 2014-07-16 パナソニック株式会社 手書き文字入力装置
EP2698725A4 (en) 2011-04-11 2014-12-24 Nec Casio Mobile Comm Ltd INFORMATION INPUT DEVICE
WO2012143948A2 (en) * 2011-04-18 2012-10-26 Jeswill Hitech Solutions Pvt. Ltd. Method and apparatus for processing content written in an application form using an e-pen
JP2012238295A (ja) 2011-04-27 2012-12-06 Panasonic Corp 手書き文字入力装置及び手書き文字入力方法
CN102135838A (zh) 2011-05-05 2011-07-27 汉王科技股份有限公司 分区输入手写字符串的方法和系统
JP5644658B2 (ja) 2011-05-10 2014-12-24 富士通株式会社 情報処理装置、入力制御方法および入力制御プログラム
CN102722240A (zh) * 2011-05-18 2012-10-10 北京大学深圳研究生院 一种文字信息输入系统、手写输入设备及方法
US8977059B2 (en) 2011-06-03 2015-03-10 Apple Inc. Integrating feature extraction via local sequential embedding for automatic handwriting recognition
EP2535844A3 (en) 2011-06-13 2016-10-19 Google, Inc. Character recognition for overlapping textual user input
US8094941B1 (en) * 2011-06-13 2012-01-10 Google Inc. Character recognition for overlapping textual user input
US20130002553A1 (en) 2011-06-29 2013-01-03 Nokia Corporation Character entry apparatus and associated methods
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8959430B1 (en) 2011-09-21 2015-02-17 Amazon Technologies, Inc. Facilitating selection of keys related to a selected key
CN102455911B (zh) 2011-09-29 2014-10-22 北京壹人壹本信息科技有限公司 手写输入显示装置及控制方法
AU2012316484A1 (en) * 2011-09-30 2014-04-17 Apple Inc. Automatically adapting user interfaces for hands-free interaction
JP5330478B2 (ja) 2011-10-14 2013-10-30 株式会社エヌ・ティ・ティ・ドコモ 入力支援装置、プログラム及び絵文字の入力支援方法
JP2013089131A (ja) 2011-10-20 2013-05-13 Kyocera Corp 装置、方法及びプログラム
KR101978687B1 (ko) * 2011-11-15 2019-05-16 삼성전자주식회사 터치스크린 단말기에서 문자 입력 방법 및 장치
JP6003047B2 (ja) 2011-11-24 2016-10-05 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
KR101338397B1 (ko) 2011-11-28 2013-12-10 장경호 사용자 고유의 필적 생성 시스템 및 그 방법
CN102566933A (zh) 2011-12-31 2012-07-11 广东步步高电子工业有限公司 一种全屏手写有效区分命令手势和字符的方法
CN103186235B (zh) 2011-12-31 2015-11-25 北大方正集团有限公司 一种手写输入的处理方法及装置
KR20130089486A (ko) * 2012-02-02 2013-08-12 삼성전자주식회사 휴대단말기의 키 입력 방법 및 장치
KR101898202B1 (ko) 2012-02-09 2018-09-12 삼성전자주식회사 필기 인식을 위한 필기 입력 가이드 장치 및 방법
US9928651B2 (en) * 2012-02-21 2018-03-27 Mahesh Babu Mariappan Overlaid virtual playground and overlaid virtual information delivery platform for restaurants, catering businesses and other businesses using menu cards, pizza boxes, salt and pepper shakers, and other objects
US9569078B2 (en) 2012-03-06 2017-02-14 Apple Inc. User interface tools for cropping and straightening image
WO2013139032A1 (en) * 2012-03-23 2013-09-26 Microsoft Corporation Rotation-free recognition of handwritten characters
JP2013206141A (ja) 2012-03-28 2013-10-07 Panasonic Corp 文字入力装置、文字入力方法、及び文字入力プログラム
WO2013143131A1 (en) * 2012-03-30 2013-10-03 Nokia Corporation User interfaces, associated apparatus and methods
US8881269B2 (en) * 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
DE112013002410T5 (de) * 2012-05-09 2015-01-22 Apple Inc. Variieren der Ausgabe für eine rechnende Vorrichtung basierend auf Tracking-Fenstern
EP2851843A4 (en) 2012-05-17 2016-04-27 Sharp Kk DISPLAY CONTROL DEVICE, CONTROL PROGRAM, AND DISPLAY DEVICE CONTROL METHOD
JP5248696B1 (ja) 2012-05-25 2013-07-31 株式会社東芝 電子機器、手書き文書作成方法、及び手書き文書作成プログラム
KR102021048B1 (ko) * 2012-07-31 2019-09-11 삼성전자주식회사 사용자 입력을 제어하기 위한 방법 및 그 전자 장치
US9141200B2 (en) * 2012-08-01 2015-09-22 Apple Inc. Device, method, and graphical user interface for entering characters
US20140035823A1 (en) * 2012-08-01 2014-02-06 Apple Inc. Dynamic Context-Based Language Determination
JP2014056389A (ja) 2012-09-12 2014-03-27 Panasonic Corp 文字認識装置、文字認識方法及びプログラム
US10254952B2 (en) 2012-09-26 2019-04-09 Google Llc Progress display of handwriting input
JP6003492B2 (ja) 2012-10-01 2016-10-05 富士ゼロックス株式会社 文字認識装置及びプログラム
US20140098038A1 (en) 2012-10-10 2014-04-10 Microsoft Corporation Multi-function configurable haptic device
US9547375B2 (en) 2012-10-10 2017-01-17 Microsoft Technology Licensing, Llc Split virtual keyboard on a mobile computing device
US9304683B2 (en) 2012-10-10 2016-04-05 Microsoft Technology Licensing, Llc Arced or slanted soft input panels
US9026428B2 (en) 2012-10-15 2015-05-05 Nuance Communications, Inc. Text/character input system, such as for use with touch screens on mobile phones
DE102012020608B4 (de) * 2012-10-19 2018-10-25 Audi Ag Kraftwagen mit einer Eingabevorrichtung zur Handschrifterkennung
JP2014092902A (ja) * 2012-11-02 2014-05-19 Toshiba Corp 電子機器および手書き文書処理方法
JP2014102669A (ja) 2012-11-20 2014-06-05 Toshiba Corp 情報処理装置、情報処理方法およびプログラム
US20140160032A1 (en) 2012-12-07 2014-06-12 Microsoft Corporation Swipe Stroke Input and Continuous Handwriting
US9430133B2 (en) 2012-12-17 2016-08-30 Sap Se Career history exercise with stage card visualization
CN103049207B (zh) * 2012-12-27 2016-01-13 富泰华工业(深圳)有限公司 手写输入识别系统及方法
DE102013009375A1 (de) * 2012-12-28 2014-07-03 Volkswagen Aktiengesellschaft Verfahren zum Eingeben und Erkennen einer Zeichenkette
KR101958517B1 (ko) 2012-12-29 2019-03-14 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US9710462B2 (en) 2013-01-29 2017-07-18 Learning Sites, Inc. System and method for automatically translating an imaged surface of an object
JP5998964B2 (ja) 2013-01-31 2016-09-28 カシオ計算機株式会社 辞書情報表示装置、辞書情報表示方法、辞書情報表示プログラム、辞書情報表示システム、およびそのサーバ装置、端末装置
US20140245221A1 (en) 2013-02-25 2014-08-28 Apple Inc. Intelligent Scrolling In Digital Publications
US9858268B2 (en) * 2013-02-26 2018-01-02 International Business Machines Corporation Chinese name transliteration
US9069462B2 (en) * 2013-03-14 2015-06-30 Nuance Communications, Inc. Recognizing handwriting input using rotatable support lines
US9189157B2 (en) 2013-03-15 2015-11-17 Blackberry Limited Method and apparatus for word prediction selection
JP6102374B2 (ja) 2013-03-15 2017-03-29 オムロン株式会社 読取文字訂正用のプログラムおよび文字読取装置
KR102078785B1 (ko) * 2013-03-15 2020-02-19 구글 엘엘씨 세계어들을 위한 가상 키보드 입력
WO2014147712A1 (ja) * 2013-03-18 2014-09-25 株式会社 東芝 情報処理装置、情報処理方法及びプログラム
WO2014166114A1 (en) * 2013-04-12 2014-10-16 Nokia Corporation An apparatus for text entry and associated methods
US10027723B2 (en) * 2013-04-12 2018-07-17 Provenance Asset Group Llc Method and apparatus for initiating communication and sharing of content among a plurality of devices
JP6229303B2 (ja) 2013-05-16 2017-11-15 富士通株式会社 プログラム、情報処理装置および文字認識方法
JP2014235582A (ja) * 2013-06-03 2014-12-15 コニカミノルタ株式会社 操作制御プログラム及び操作制御方法並びに手書き入力装置
US9495620B2 (en) 2013-06-09 2016-11-15 Apple Inc. Multi-script handwriting recognition using a universal recognizer
US9465985B2 (en) 2013-06-09 2016-10-11 Apple Inc. Managing real-time handwriting recognition
US20140361983A1 (en) 2013-06-09 2014-12-11 Apple Inc. Real-time stroke-order and stroke-direction independent handwriting recognition
WO2014200736A1 (en) * 2013-06-09 2014-12-18 Apple Inc. Managing real - time handwriting recognition
US20140363082A1 (en) 2013-06-09 2014-12-11 Apple Inc. Integrating stroke-distribution information into spatial feature extraction for automatic handwriting recognition
WO2014205648A1 (en) * 2013-06-25 2014-12-31 Nokia Corporation Handwriting recognition based on writing speed
KR102125212B1 (ko) * 2013-08-29 2020-07-08 삼성전자 주식회사 전자 필기 운용 방법 및 이를 지원하는 전자 장치
US10001817B2 (en) * 2013-09-03 2018-06-19 Apple Inc. User interface for manipulating user interface objects with magnetic properties
US10496276B2 (en) * 2013-09-24 2019-12-03 Microsoft Technology Licensing, Llc Quick tasks for on-screen keyboards
US20150100537A1 (en) * 2013-10-03 2015-04-09 Microsoft Corporation Emoji for Text Predictions
US20150116283A1 (en) 2013-10-24 2015-04-30 Livescribe Inc. Paper Strip Presentation Of Grouped Content
US9330331B2 (en) 2013-11-11 2016-05-03 Wipro Limited Systems and methods for offline character recognition
CN103677632A (zh) * 2013-11-19 2014-03-26 三星电子(中国)研发中心 一种虚拟键盘调整方法和移动终端
JP6189451B2 (ja) 2013-12-06 2017-08-30 株式会社東芝 手書き文書情報を処理するための電子機器および方法
US9881224B2 (en) * 2013-12-17 2018-01-30 Microsoft Technology Licensing, Llc User interface for overlapping handwritten text input
US9411508B2 (en) * 2014-01-03 2016-08-09 Apple Inc. Continuous handwriting UI
JP2015148946A (ja) * 2014-02-06 2015-08-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10048802B2 (en) * 2014-02-12 2018-08-14 Apple Inc. Rejection of false turns of rotary inputs for electronic devices
US9286527B2 (en) * 2014-02-20 2016-03-15 Google Inc. Segmentation of an input by cut point classification
JP2015162088A (ja) 2014-02-27 2015-09-07 株式会社東芝 電子機器、方法及びプログラム
US10691332B2 (en) * 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
JP6270565B2 (ja) 2014-03-18 2018-01-31 株式会社東芝 電子機器および方法
US9158426B1 (en) * 2014-03-19 2015-10-13 Google Inc. Touch keyboard calibration
US9524428B2 (en) 2014-04-28 2016-12-20 Lenovo (Singapore) Pte. Ltd. Automated handwriting input for entry fields
AU2015280257B2 (en) * 2014-06-24 2017-08-24 Apple Inc. Character recognition on a computing device
US9946704B2 (en) * 2014-07-18 2018-04-17 Lenovo (Singapore) Pte. Ltd. Tone mark based text suggestions for chinese or japanese characters or words
JP6424506B2 (ja) 2014-07-22 2018-11-21 ブラザー工業株式会社 データ処理装置およびデータ処理プログラム
US20160026730A1 (en) 2014-07-23 2016-01-28 Russell Hasan Html5-based document format with parts architecture
US10254948B2 (en) 2014-09-02 2019-04-09 Apple Inc. Reduced-size user interfaces for dynamically updated application overviews
JP2017527033A (ja) 2014-09-02 2017-09-14 アップル インコーポレイテッド ユーザ入力を受信するためのユーザインタフェース
US9940016B2 (en) 2014-09-13 2018-04-10 Microsoft Technology Licensing, Llc Disambiguation of keyboard input
JP6426417B2 (ja) 2014-09-26 2018-11-21 株式会社東芝 電子機器、方法及びプログラム
JP2016071819A (ja) 2014-10-02 2016-05-09 株式会社東芝 電子機器および方法
GB2564745B (en) * 2014-12-16 2019-08-14 Metail Ltd Methods for generating a 3D garment image, and related devices, systems and computer program products
KR200481600Y1 (ko) 2015-03-06 2016-10-19 대신정밀 주식회사 전자교탁
US9639184B2 (en) * 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10509790B2 (en) * 2015-06-07 2019-12-17 Apple Inc. Electronic message searching
US20180173373A1 (en) 2015-06-12 2018-06-21 Nureva Inc. Method and apparatus for using gestures across multiple devices
CN104932826B (zh) * 2015-06-26 2018-10-12 联想(北京)有限公司 一种信息处理方法和电子设备
US10003938B2 (en) * 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
US10445425B2 (en) * 2015-09-15 2019-10-15 Apple Inc. Emoji and canned responses
US10346510B2 (en) * 2015-09-29 2019-07-09 Apple Inc. Device, method, and graphical user interface for providing handwriting support in document editing
US10643067B2 (en) 2015-10-19 2020-05-05 Myscript System and method of handwriting recognition in diagrams
US20170300559A1 (en) 2016-04-18 2017-10-19 Farzan Fallah Systems and Methods for Facilitating Data Entry into Electronic Devices
WO2017183035A1 (en) * 2016-04-20 2017-10-26 Avi Elazari Reduced keyboard disambiguating system and method thereof
US11262909B2 (en) 2016-06-02 2022-03-01 Myscript System and method for input recognition linguistic resource management
DK179374B1 (en) 2016-06-12 2018-05-28 Apple Inc Handwriting keyboard for monitors
US11580608B2 (en) * 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
US10614607B2 (en) * 2016-06-12 2020-04-07 Apple Inc. Playback of handwritten message
KR102544780B1 (ko) * 2016-07-04 2023-06-19 삼성전자주식회사 필기 입력에 따른 사용자 인터페이스 제어 방법 및 이를 구현한 전자 장치
US20180024726A1 (en) * 2016-07-21 2018-01-25 Cives Consulting AS Personified Emoji
US20180047200A1 (en) * 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
US10109083B2 (en) 2016-08-12 2018-10-23 Adobe Systems Incorporated Local optimization for curvy brush stroke synthesis
JP6698216B2 (ja) * 2016-09-23 2020-05-27 アップル インコーポレイテッドApple Inc. アバターの作成及び編集に関する米国特許商標局への特許出願
EP3533161B1 (en) 2016-10-25 2020-07-29 Telefonaktiebolaget LM Ericsson (PUBL) User-worn device and touch-device for ultrasonic data transmission
US20180121074A1 (en) 2016-10-28 2018-05-03 Microsoft Technology Licensing, Llc Freehand table manipulation
US10558341B2 (en) 2017-02-20 2020-02-11 Microsoft Technology Licensing, Llc Unified system for bimanual interactions on flexible representations of content
US20180329586A1 (en) 2017-05-15 2018-11-15 Apple Inc. Displaying a set of application views
KR20230144661A (ko) * 2017-05-16 2023-10-16 애플 인크. 이모지 레코딩 및 전송
DK179948B1 (en) * 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
WO2018222247A1 (en) 2017-06-02 2018-12-06 Apple Inc. Device, method, and graphical user interface for annotating content
US10430076B2 (en) 2017-12-18 2019-10-01 Motorola Solutions, Inc. Device and method for text entry using two axes at a display device
US10796470B2 (en) * 2018-06-03 2020-10-06 Apple Inc. Optimized avatar asset resource
US20200034025A1 (en) * 2018-07-26 2020-01-30 Lois Jean Brady Systems and methods for multisensory semiotic communications
US20200089402A1 (en) 2018-09-17 2020-03-19 Ca, Inc. Providing one or more new virtual keys in a virtual keyboard that each correspond to a predicted set of characters
US10600228B1 (en) 2018-10-14 2020-03-24 Adobe Inc. Automatic and interactive animation driven by change-based heuristics
US11107261B2 (en) * 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
KR20200101014A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 아바타 추천 및 다운로드를 지원하는 전자 장치
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11188190B2 (en) * 2019-06-28 2021-11-30 Snap Inc. Generating animation overlays in a communication session
WO2021029529A1 (ko) * 2019-08-12 2021-02-18 엘지전자 주식회사 가상 피팅 제공 장치 및 그 제공 방법
US20220350418A1 (en) * 2021-05-03 2022-11-03 Qiusheng Gao Composite computer keyboard
CN113763228B (zh) * 2020-06-01 2024-03-19 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
US11016577B2 (en) * 2020-07-20 2021-05-25 Shenzhen Ajazz Tongchuang Electronic Technology Co., Ltd. Keyboard for live streaming and method thereof
WO2022147167A1 (en) * 2020-12-31 2022-07-07 Snap Inc. Avatar customization system
EP4216167A4 (en) * 2021-01-13 2024-05-01 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND METHOD FOR OPERATING AN AVATAR VIDEO SERVICE

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6340967B1 (en) * 1998-04-24 2002-01-22 Natural Input Solutions Inc. Pen based edit correction interface method and apparatus
US20030038788A1 (en) * 2001-08-22 2003-02-27 Pierre Demartines Automatically scrolling handwritten input user interface for personal digital assistants and the like
EP2367097A1 (en) * 2010-03-19 2011-09-21 Research In Motion Limited Portable electronic device and method of controlling same
US20120216113A1 (en) * 2011-02-18 2012-08-23 Google Inc. Touch gestures for text-entry operations
CN103365446A (zh) * 2012-03-28 2013-10-23 联想(北京)有限公司 一种手写输入方法及装置
US20150169948A1 (en) * 2013-12-13 2015-06-18 Kabushiki Kaisha Toshiba Electronic apparatus and method
CN104951175A (zh) * 2014-03-25 2015-09-30 上海三旗通信科技股份有限公司 一种改进的手持设备上的手写多字输入法

Also Published As

Publication number Publication date
KR102222143B1 (ko) 2021-03-04
JP2019175441A (ja) 2019-10-10
JP2017220231A (ja) 2017-12-14
US10884617B2 (en) 2021-01-05
AU2017203816A1 (en) 2018-01-04
US10228846B2 (en) 2019-03-12
DK179329B1 (en) 2018-05-07
US20230384926A1 (en) 2023-11-30
CN108089727A (zh) 2018-05-29
US11640237B2 (en) 2023-05-02
JP2023093497A (ja) 2023-07-04
AU2020273352A1 (en) 2020-12-17
CN107491186B (zh) 2021-05-07
DK201670624A1 (en) 2018-02-12
KR20190052667A (ko) 2019-05-16
AU2017203816B2 (en) 2018-08-09
KR20170140080A (ko) 2017-12-20
EP3557389A1 (en) 2019-10-23
AU2018260930C1 (en) 2020-04-23
AU2020273352B2 (en) 2022-06-09
EP3255528B1 (en) 2019-05-01
JP2021064380A (ja) 2021-04-22
JP6997734B2 (ja) 2022-01-18
AU2020200191B2 (en) 2020-12-10
US20190163359A1 (en) 2019-05-30
EP3557389B1 (en) 2022-07-27
CN107491186A (zh) 2017-12-19
KR20200013023A (ko) 2020-02-05
CN108089727B (zh) 2021-05-18
EP3324274B1 (en) 2019-09-25
AU2017203816C1 (en) 2020-04-30
EP3324274A1 (en) 2018-05-23
US10466895B2 (en) 2019-11-05
KR101978883B1 (ko) 2019-05-15
CN113157113A (zh) 2021-07-23
KR102342624B1 (ko) 2021-12-22
KR20210023946A (ko) 2021-03-04
KR102072851B1 (ko) 2020-02-03
EP3255528A1 (en) 2017-12-13
AU2018260930A1 (en) 2018-11-29
DK179374B1 (en) 2018-05-28
US20170357438A1 (en) 2017-12-14
US20210124485A1 (en) 2021-04-29
US11941243B2 (en) 2024-03-26
AU2020200191A1 (en) 2020-01-30
DK201670626A1 (en) 2018-01-02
JP6495376B2 (ja) 2019-04-03
JP7289820B2 (ja) 2023-06-12
US20200057556A1 (en) 2020-02-20
AU2018260930B2 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
CN108089727B (zh) 用于屏幕的手写键盘
CN107430488B (zh) 基于活动的阈值和反馈
CN112711375B (zh) 设备配置用户界面
DK201770921A1 (en) Handwriting keyboard for screens

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination