CN101965266A - 能够接受文本输入的无线手持设备以及用于在无线手持设备上输入文本的方法 - Google Patents

能够接受文本输入的无线手持设备以及用于在无线手持设备上输入文本的方法 Download PDF

Info

Publication number
CN101965266A
CN101965266A CN2008801131652A CN200880113165A CN101965266A CN 101965266 A CN101965266 A CN 101965266A CN 2008801131652 A CN2008801131652 A CN 2008801131652A CN 200880113165 A CN200880113165 A CN 200880113165A CN 101965266 A CN101965266 A CN 101965266A
Authority
CN
China
Prior art keywords
key
display screen
character
equipment
indication body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2008801131652A
Other languages
English (en)
Other versions
CN101965266B (zh
Inventor
沈望傅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Creative Technology Ltd
Original Assignee
Creative Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Creative Technology Ltd filed Critical Creative Technology Ltd
Publication of CN101965266A publication Critical patent/CN101965266A/zh
Application granted granted Critical
Publication of CN101965266B publication Critical patent/CN101965266B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种能够接受文本输入的无线手持设备,包括:显示屏以及虚拟键区,该虚拟键区具有显示在显示屏上的多个键;其中,虚拟键区的第一键可操作来响应于指示体对与第一键相对应的在显示屏上的第一区域的第一接触,来将与第一键相关联的第一字符显示在显示屏上所示出的文本段中,第一接触包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着第一方向移动;并且其中,虚拟键区的第一键还可操作来响应于指示体对与第一键相对应的在显示屏上的第一区域的第二接触,来将与第一键相关联的第二字符显示在显示屏上所示出的文本段中,第二接触包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着第二方向移动。

Description

能够接受文本输入的无线手持设备以及用于在无线手持设备上输入文本的方法
技术领域
本发明一般涉及用于通信的无线手持设备,并且具体地涉及向前述设备输入文本。
背景技术
在由于大小限制而不能包括QWERTY键盘的手持电子设备上通常使用数字键区(numeric keypad)。这些设备例如可以包括移动电话、媒体播放器、遥控器等。包括在前述设备中的通信功能(例如即时消息传输、短串消息传输等)数目的增长带来了对利用这些数字键区进行文本输入的需求。
利用数字键区输入文本的常见方式是“多敲击(multi-tap)”方法,其中,以每个键被标有3个或4个字母的方式使得键2至9被标有字母A-Z。为了输入文本,可以通过重复激活相对应的键来键入字母。例如,键6被标有字母“MNO”。单次键按下产生M,双次键按下产生N,而按下键三次产生字母O。虽然这种方法是普通的,然而不可否认,其需要用户手指的高敏捷度,并且也是相当单调的。
另一种利用数字键区输入文本的常见方法涉及预测性文本输入系统。在此方法中,根据初始的单键按下序列来提议所希望的单词/短语。例如,如果键2被按下两次并且键3被按下一次,则可以建议类似“BET,BELL,BETTER”等之类的单词。然而,这种系统的准确性是有问题的,尤其当输入名字、地址和缩略语时,从而可能妨碍而非改进文本输入。
发明内容
在第一方面,提供了一种能够接受文本输入的无线手持设备。该设备包括显示屏;以及虚拟键区,该虚拟键区具有显示在显示屏上的多个键。虚拟键区的第一键可操作来响应于指示体对与第一键相对应的在显示屏上的第一区域的第一接触,来将与第一键相关联的第一字符显示在显示屏上示出的文本段中,第一接触包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着第一方向移动。优选地,虚拟键区的第一键还可操作来响应于指示体对与第一键相对应的在显示屏上的第一区域的第二接触,来将与第一键相关联的第二字符显示在显示屏上示出的文本段中,第二接触包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着第二方向移动。指示体可以是手指或尖笔指示体。
该设备可以根据由用户选择用于显示在文本段中的字符来提供反馈。反馈可以是字符的听觉表示或者字符的视觉表示。有利地,听觉反馈使得用户能够在不看显示屏的情况下向设备输入字符。
优选地,虚拟键区的第一键可操作来响应于与第一键相对应的在显示屏上的第一区域与指示体之间的第一接触的发生,来在显示屏所示的文本段中显示与第一键相关联的第三字符,接触的发生是对第一键的延长的不间断接触。虚拟键区的第一键还可操作来响应于与第一键相对应的在显示屏上的第一区域与指示体之间的至少两次连续接触的发生,来改变显示屏所示出的文本段中与第一键相关联的模式。该模式可以涉及对在显示屏上示出的文本段中生成的字符的大写化和去大写化。
优选地,方向是通过将指示体的随后位置与显示屏上的第一区域相比较来确定的。该设备例如可以是移动电话、媒体播放器、遥控器、PDA等。
有利地,该设备还可以包括用来辅助用户在输入文本时抓握设备的至少一个物理标记,至少一个物理标记例如是设备壳体上的触感的变化、显示屏上的凹痕、显示屏上的凹陷,显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体等。
优选地,设备还可以包括“键定位”模式,用来准确地定位第一键,并且在去激活“键定位”模式之后通过根据第一键参考虚拟键区的其它键,来利用虚拟键区输入文本。
在第二方面中,提供了一种能够接受文本输入的无线手持设备。该设备包括:显示屏;以及虚拟键区,该虚拟键区具有显示在显示屏上的多个键。优选地,虚拟键区的第一键可操作来响应于指示体对与第一键相对应的在显示屏上的第一区域的第一接触的发生,来呈现与第一键相关联的字符的选择,以供在显示屏上示出的文本段中使用,接触的发生是对第一键的延长的不间断接触。响应于指示体的动作来从字符的选择中选择字符。指示体可以是手指或尖笔指示体。
设备可以根据由用户选择用于显示在文本段中的字符来提供反馈。反馈可以是字符的听觉表示或者字符的视觉表示。有利地,听觉反馈使得用户能够在不看显示屏的情况下向设备输入字符。设备例如可以是移动电话、媒体播放器、遥控器、PDA等。
有利地,设备还可以包括用来辅助用户在输入文本时抓握设备的至少一个物理标记,至少一个物理标记例如是设备壳体上的触感的变化、显示屏上的凹痕、显示屏上的凹陷,显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体。
优选地,设备还可以包括“键定位”模式,用来准确地定位第一键,并且在去激活“键定位”模式之后通过根据第一键参考虚拟键区的其它键,来利用虚拟键区输入文本。
优选地,对字符的选择的呈现可以通过将选择显示在显示屏的可用部分上或者向用户读出选择中的字符来进行。在选择的显示中选择字符的动作可以通过利用指示体接触字符来进行。替代地,在读出选择时选择字符的动作可以通过断开指示体与第一键的接触来进行。
在第三方面中,提供了一种能够接受文本输入的无线手持设备。该设备包括显示屏;以及虚拟键区,该虚拟键区具有显示在显示屏上的多个键。优选地,虚拟键区的第一键可操作来响应于指示体对与第一键相对应的在显示屏上的第一区域的初次动作,来将与第一键相关联的第一字符显示在显示屏上示出的文本段中,初次动作包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着顺时针或逆时针圆弧移动,并且随后,对与第一键相关联的字符的选择按由指示体离每个字符的距离所确定的顺序被读出给用户。优选地,一旦用户听见了所希望的字符被读出,则响应于指示体的动作来从字符的选择中选择字符。指示体可以是手指或尖笔指示体。
设备可以根据由用户选择用于显示在文本段中的字符来提供反馈。反馈可以是字符的听觉表示或者字符的视觉表示。有利地,听觉反馈使得用户能够在不看显示屏的情况下向设备输入字符。
设备例如可以是移动电话、媒体播放器、遥控器、PDA等。
有利地,设备还可以包括用来辅助用户在输入文本时抓握设备的至少一个物理标记,至少一个物理标记例如是设备壳体上的触感的变化、显示屏上的凹痕、显示屏上的凹陷,显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体。
优选地,设备还可以包括“键定位”模式,用来准确地定位第一键,并且在去激活“键定位”模式之后通过根据第一键参考虚拟键区的其它键,来利用虚拟键区输入文本。
优选地,在读出选择时选择字符的动作是从包括如下动作的组中选出的:指示体断开与第一键的接触并且再次接触第一键、指示体进一步按下第一键,以及用户扳动包括在手持无线设备中的确认按钮。
在第四方面中,提供了一种用于在手持无线设备上输入文本的方法,该手持无线设备包括显示屏以及具有显示在显示屏上的多个键的虚拟键区。该方法包括:检测指示体对与第一键相对应的在显示屏上的第一区域的第一接触,第一接触包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着第一方向移动;响应于对第一接触的检测在显示屏上示出的文本段中显示与第一键相关联的第一字符;检测指示体对与第一键相对应的在显示屏上的第一区域的第二接触,第二接触包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着第二方向移动;以及响应于对第二接触的检测在显示屏上示出的文本段中显示与第一键相关联的第二字符。指示体可以是手指或尖笔指示体。
优选地,方法还可以包括根据由用户选择用于显示在文本段中的字符来提供反馈。该反馈是字符的听觉表示或者字符的视觉表示。有利地,听觉反馈使得用户能够在不看显示屏的情况下向设备输入字符。
优选地,在该方法中,方向是通过将指示体的随后位置与显示屏上的第一区域相比较来确定的。设备例如可以是移动电话、媒体播放器、遥控器、PDA等。
优选地,该方法还可以包括:检测与第一键相对应的在显示屏上的第一区域与指示体之间的第一接触的发生,接触的发生是对第一键的延长的不间断接触;作为响应,在显示屏上示出的文本段中显示与第一键相关联的第三字符;检测与第一键相对应的在显示屏上的第一区域与指示体之间的至少两次连续接触的发生;以及改变显示屏上示出的文本段中与第一键相关联的模式。优选地,模式涉及对在显示屏上示出的文本段中生成的字符的大写化和去大写化。
优选地,方法还包括在至少一个物理标记的辅助下抓握设备以输入文本,至少一个物理标记例如是设备壳体上的触感的变化、显示屏上的凹痕、显示屏上的凹陷,显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体。
该方法还可以包括在“键定位”模式期间定位第一键,以便在去激活“键定位”模式之后通过根据第一键参考虚拟键区的其它键,来利用虚拟键区输入文本。
在最后一方面中,提供了一种用于在手持无线设备上输入文本的方法,该手持无线设备包括显示屏以及具有显示在显示屏上的多个键的虚拟键区。该方法包括:检测指示体对与第一键相对应的在显示屏上的第一区域的第一接触的发生,接触的发生是对第一键的延长的不间断接触;响应于对第一接触的发生的检测或者对初次动作的检测,来呈现与第一键相关联的字符的选择,以在所示文本段中使用;以及响应于指示体的动作来从字符的选择中选择字符。指示体可以是手指或尖笔指示体。
优选地,该方法还可以包括根据由用户选择用于显示在文本段中的字符来提供反馈。反馈是字符的听觉表示或者字符的视觉表示。有利地,听觉反馈使得用户能够在不看显示屏的情况下向设备输入字符。
优选地,该方法中的方向是通过将指示体的随后位置与显示屏上的第一区域相比较来确定的。该设备例如可以是移动电话、媒体播放器、遥控器、PDA等。
优选地,该方法还可以包括在至少一个物理标记的辅助下抓握设备以输入文本,至少一个物理标记例如是设备壳体上的触感的变化、显示屏上的凹痕、显示屏上的凹陷,显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体。
该方法还可以包括在“键定位”模式期间定位第一键,以便在去激活“键定位”模式之后通过根据第一键参考虚拟键区的其它键,来利用虚拟键区输入文本。
优选地,对字符的选择的呈现可以通过将选择显示在显示屏的可用部分上或者向用户读出选择中的字符来进行。在选择的显示中选择字符的动作是通过利用指示体接触字符来进行的。在读出选择时选择字符的动作是通过断开指示体与第一键的接触来进行的。
初次动作可以包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着顺时针或逆时针圆弧移动。优选地,对与第一键相关联的字符的选择按由指示体到第一键所指示的每个字符的距离所确定的顺序被顺次读出,其中,最接近指示体的字符被读出。在读出选择时选择字符的动作是从包括如下动作的组中选出的:指示体断开与第一键的接触并且再次接触第一键、指示体进一步按下第一键,以及用户扳动包括在手持无线设备中的确认按钮。
附图说明
为了使本发明可以得到全面理解并且容易获得实际效果,现在将以非限制性示例的方式来仅描述本发明的优选实施例,描述参考了所附说明性附图。
图1示出了设备的透视图。
图2示出了设备的第一使用实施例的第一示例。
图3示出了设备的第一使用实施例的第一示例的第一步骤。
图4示出了设备的第一使用实施例的第一示例的第二步骤。
图5示出了设备的第一使用实施例的第一示例的第三步骤。
图6示出了设备的第一使用实施例的第二示例。
图7示出了设备的第一使用实施例的第二示例的第一步骤。
图8示出了设备的第一使用实施例的第二示例的第二步骤。
图9示出了设备的第一使用实施例的第二示例的第三步骤。
图10(a)示出了设备的第二使用实施例。
图10(b)示出了在设备的第二使用实施例中的变化。
图11示出了方法的第一实施例的处理流程。
图12示出了方法的第二实施例的处理流程。
图13示出了视觉反馈的示例表示。
图14示出了“键定位”模式的表示。
图15示出了虚拟键区的键的可能表示。
图16示出了设备的第三使用实施例的第一步骤。
图17示出了设备的第三使用实施例的第二步骤。
图18示出了设备的第三使用实施例的第三步骤。
具体实施方式
参考图1,示出了能够接受文本输入的无线手持设备20。设备20例如可以是移动电话、媒体播放器、遥控器、PDA等。设备20可以包括显示屏22。显示屏22可以是由对触摸敏感的面板(即,触摸屏)制成的。显示屏22可以是电阻式面板或电容式面板。显示屏22可以显示具有优选地像数字键区那样布置的多个键的虚拟键区24。虚拟键区24可以覆盖在显示屏22上,但不必一直出现在显示屏22上。虚拟键区24可以仅在需要时出现。手21,更具体地,手指19被示为与虚拟键区24交互。虽然图1所示的手指19是食指,然而,应当注意,任何其它手指以及拇指可以用来与虚拟键区24交互。此外,虚拟键区24的每个键的形状、数字标签和大小仅仅是代表性的并且不以任何方式受限制。图15示出了为每个键加标签的一些示例。
图2示出了对在第一实施例的第一示例中使用的虚拟键区24的描绘。每个键的标签仅仅是用于第一示例的意图而不是限制性的。图3-5还辅助描述了第一示例。虚拟键区24的第一键“a”26可操作来在显示屏22上示出的文本段28中显示与第一键26相关联的第一字符。在该非限制性实例中,与第一键26相关联的字符为“a、b、c、2以及<字符删除>”。第一字符是响应于手指19对与第一键26相对应的显示屏22上的第一区域32的第一接触而生成的。手指19充当指示体,应当注意,还可以使用尖笔指示体。在第一示例中,第一接触包括:当要从位置(a)移到位置(b)时,手指19在与显示屏22连续接触的同时,手指19与34(在图3中用阴影区域示出)接触并且从第一区域32沿着第一方向36(如图2-5所示的向右的方向上)移动。当用户做这样的动作时,在文本段28中生成了字符“c”。
虚拟键区24的第一键26还可操作来在文本段28中显示与第一键26相关联的另一字符。针对此节,参考图2和图4。第一键26所对应的显示屏22上的第一区域32与手指19之间的第一接触的发生34(在图4中用阴影区域示出)在文本段28中生成“a”12。接触的发生可以在与第一键26不间断的接触的情况下被延长。第一键26所对应的显示屏22上的第一区域32与手指19之间的至少两次连续接触的发生34可以将文本段28中所示的字符的模式从[小写]改为[大写]。应当注意,可以将类似模式切换功能之类的常用功能而不只是一个键包括在键区24中。
然后,当要从位置(c)移到位置(d)时,手指19在与显示屏22连续接触的同时,手指19接触34并从第一区域32沿着第二方向38(如图2-5所示的向上的方向上)移动,则字符“b”14被生成在文本段28中。应注意,手指19的移动不一定在如图2-5所示的第一键26的周边内。
下面的章节被包括来辅助理解第一实施例的第一示例。在手指19与显示屏22连续接触的同时,手指19接触34并从第一区域32沿着第三方向40(如图2所示的向下的方向上)移动,则字符“2”被生成在文本段28中。以类似的方式,在手指19与显示屏22连续接触的同时,手指19接触34并从第一区域32沿着第四方向42(如图2所示的向左的方向上)移动,则在文本段28中激活了针对先前包括的字符的<字符删除>功能。应当注意,可以将类似<字符删除>功能之类的常用功能而不只是一个键包括在键区24中。
第一、第二、第三和第四方向可以通过将手指19的随后位置与显示屏22上的第一区域32相比较来确定。虽然图2-5所示的四个方向是正交的,然而应当注意,这并非强制性的。
在前述第一示例中在设备20上生成字符的期间,设备20可以根据由用户选择用于显示在文本段28中的字符来向用户提供反馈。反馈是字符的听觉表示或字符的视觉表示。听觉表示例如可以是字符的文本至语音转换、字符的特定音调/韵律、字符的可变频率音频信号等等。视觉表示例如可以包括:包括在设备20中的LED阵列(未示出)的闪亮序列、在使字体大小最小化以适合文本段28之前用较大字体60来表示字符(如图13所示),等等。可变频率音频信号可以在人类可听见的频率范围内,但是某些人可能由于诸如年龄、听力障碍等之类的因素而不能听见一些信号。每个键可以具有特定的音调/韵律,并且从每个键的接触发生移动可以生成特定音调/韵律的滑音变化。有利地,设备20的听觉反馈使得用户能够在不看设备20的显示屏22的情况下向设备20输入字符。
为了进一步辅助用户在不看显示屏22的情况下向设备20输入字符,设备20可以包括用来辅助用户按正确的方向和/或正确的位置来抓握设备20的物理标记。物理标记可以在设备20的壳体17上或者在显示屏22上。物理标记例如可以是壳体17的触感的变化(例如,通过利用沟槽16并且通过利用用于壳体17的不同材料)、显示屏22上的凹痕、显示屏22上的凹陷、显示屏22上的粗糙表面区域、作为用于在抓握设备20的同时使手指落在所希望位置的向导的壳体17上的受体,等等。
参考图14,可以用来辅助用户在不看显示屏22的情况下向设备20输入字符的另一特征涉及:将“键定位”模式包括在设备20中。“键定位”模式可以在需要文本输入的每个场合的开始处被自动地激活或者可以在需要时由用户激活。在“键定位”模式中,虚拟键区24可以被呈现在显示屏22中,但是利用虚拟键区24进行实际文本输入在此“键定位”模式期间可能不被使能,“键定位”模式可以在虚拟键区24能够输入文本之前被激活预定时间段。在可能持续达三秒的“键定位”模式中,用户可以使用手指19来感觉虚拟键区24的键,并且与每个键的接触向用户提供了指示与该键相关联的字符的听觉反馈8。以这种方式,用户能够准确地定位第一键,并且在去激活“键定位”模式之后通过利用第一键来参考虚拟键区24的其它键,从而利用虚拟键区24输入文本。
图6示出了在第一实施例的第二示例中使用的虚拟键区24的描绘。虚拟键区240的第一键“2”260可操作来将与第一键260相关联的第一字符显示在显示屏22所示的文本段28中。在此非限制性实例中,与第一键260相关联的字符是“a、b、c、2和<字符删除>”。第一字符是响应于手指19对第一键260所对应的显示屏22上的第一区域320的第一接触而生成的。第一接触包括:当要从位置(e)移到位置(f)时,手指19在与显示屏22连续接触的同时,手指19接触340并且从第一区域320沿着第一方向360(如图6-9所示的向下的方向上)移动。当用户做出这样的动作时,在文本段280中生成字符“c”200。类似地,当要从位置(g)移到位置(h)时,手指19在与显示屏22连续接触的同时,手指19接触340并且从第一区域320沿着第二方向380(如图6-9所示的向上的方向上)移动,则在文本段280中生成字符“a”202。应当注意,手指19的移动不一定在第一键260的周边内。
下面的章节被包括来辅助理解第一实施例的第二示例。当要从位置(i)移到位置(j)时,在手指19与显示屏22连续接触的同时,手指19接触34并从第一区域320沿着第三方向400(如图6-9所示的向右的方向上)移动,则字符“b”204被生成在文本段28中。以类似的方式,在手指19与显示屏22连续接触的同时,手指19接触34并从第一区域320沿着第四方向420(如图6-9所示的向左的方向上)移动,则在文本段28中激活了针对先前包括的字符的<字符删除>功能。应当注意,可以将类似<字符删除>功能之类的常用功能而不只是一个键包括在键区24中。
第一、第二、第三和第四方向可以通过将手指19的随后位置与显示屏22上的第一区域320相比较来确定。虽然图6所示的四个方向是正交的,然而应当注意,这并非强制性的。
虚拟键区240的第一键260还可以操作来在文本段280中显示与第一键260相关联的第五字符。第一键260所对应的显示屏22上的第一区域与手指19之间的第一接触的发生340在文本段280中生成“2”。接触的发生340可以在与第一键260不间断的接触的情况下被延长。第一键26所对应的显示屏22上的第一区域320与手指19之间的至少两次连续接触的发生340可以将文本段28中所示的字符的模式从[小写]改为[大写]。应当注意,可以将类似模式切换功能之类的常用功能而不只是一个键包括在键区24中。
在前述第二示例中在设备20上生成字符的期间,设备20可以根据由用户选择用于显示在文本段280中的字符来向用户提供反馈。反馈是字符的听觉表示或字符的视觉表示。听觉表示例如可以是字符的文本至语音转换、字符的特定音调/韵律、字符的可变频率音频信号等等。视觉表示例如可以包括:包括在设备20中的LED阵列(未示出)的闪亮序列、在使字体大小最小化以适合文本段280之前用较大字体60来表示字符(如图13所示),等等。可变频率音频信号可以在人类可听见的频率范围内,但是某些人可能由于诸如年龄、听力障碍等之类的因素而不能听见一些信号。每个键可以具有特定的音调/韵律,并且从每个键的接触发生移动可以生成特定音调/韵律的滑音变化。有利地,设备20的听觉反馈使得用户能够在不看设备20的显示屏22的情况下向设备20输入字符。
为了进一步辅助用户在不看显示屏22的情况下向设备20输入字符,设备20可以包括用来辅助用户按正确的方向和/或正确的位置来抓握设备20的物理标记。物理标记可以在设备20的壳体17上或者在显示屏22上。物理标记例如可以是壳体17的触感的变化(例如,通过利用沟槽16并且通过利用用于壳体17的不同材料)、显示屏22上的凹痕、显示屏22上的凹陷、显示屏22上的粗糙表面区域、作为用于在抓握设备20的同时使手指落在所希望位置的向导的壳体17上的受体,等等。
参考图14,可以用来辅助用户在不看显示屏22的情况下向设备20输入字符的另一特征涉及:将“键定位”模式包括在设备20中。“键定位”模式可以在需要文本输入的每个场合的开始处被自动地激活或者可以在需要时由用户激活。在“键定位”模式中,虚拟键区24可以被呈现在显示屏22中,但是利用虚拟键区24进行实际文本输入在此“键定位”模式期间可能不被使能,“键定位”模式可以在虚拟键区24能够输入文本之前被激活预定时间段。在可能持续达三秒的“键定位”模式中,用户可以使用手指19来感觉虚拟键区24的键,并且与每个键的接触向用户提供了指示与该键相关联的字符的听觉反馈。以这种方式,用户能够准确地定位第一键,并且在去激活“键定位”模式之后通过利用第一键来参考虚拟键区24的其它键,从而利用虚拟键区24输入文本。
图10(a)示出了对在设备20的第二实施例中使用的虚拟键区24的描绘。在此实施例中,虚拟键区24的第一键“3”26可操作来响应于手指19对第一键26所对应的显示屏22上的第一区域32的第一接触的发生52来在文本段28中显示供使用的与第一键26相关联的字符的选择50。在该非限制性说明实例中,选择50包括“d、e、f、3、D、E、F和<字符删除>”。可见,每个字符的大小写版本可供选择。具有变音标记的元音也可以包括在选择50中。选择50可以被呈现在显示屏22的可用部分中,并且可以响应于手指19对与所希望字符的表示相对应的区域处的显示屏22上的部分的接触来从字符的选择50中选出所希望的字符。根据第一实施例,除手指19以外,还可以使用尖笔指示体。
替代地,如图10(b)所示,取代将选择50呈现在显示屏22上的可用部分,可以在手指19连续接触第一区域32(被示为19(y))的同时向用户读出选择50。一旦所希望的字符被读出给用户,则当手指19与第一区域32之间的接触断开时(被示为19(z)),就产生了对字符的选择。这也有助于用户在不看设备20的显示屏22的情况下向设备20输入字符。
在前述的在设备20上生成字符期间,设备20可以根据由用户选择用于显示在文本段280中的字符来向用户提供反馈。反馈是字符的听觉表示或字符的视觉表示。听觉表示例如可以是字符的选择50的文本至语音转换、字符的特定音调/韵律、字符的可变频率音频信号等等。视觉表示例如可以包括:包括在设备20中的LED阵列(未示出)的闪亮序列、在使字体大小最小化以适合文本段280之前用较大字体60来表示字符(如图13所示),等等。可变频率音频信号可以在人类可听见的频率范围内,但是某些人可能由于诸如年龄、听力障碍等之类的因素而不能听见一些信号。每个键可以具有特定的音调/韵律,并且从每个键的接触发生移动可以生成特定音调/韵律的滑音变化。有利地,设备20的听觉反馈使得用户能够在不看设备20的显示屏22的情况下向设备20输入字符。
为了进一步辅助用户在不看显示屏22的情况下向设备20输入字符,设备20可以包括用来辅助用户按正确的方向和/或正确的位置来抓握设备20的物理标记。物理标记可以在设备20的壳体17上或者在显示屏22上。物理标记例如可以是壳体17的触感的变化(例如,通过利用沟槽16并且通过利用用于壳体17的不同材料)、显示屏22上的凹痕、显示屏22上的凹陷、显示屏22上的粗糙表面区域、作为用于在抓握设备20的同时使手指落在所希望位置的向导的壳体17上的受体,等等。
可以用来辅助用户在不看显示屏22的情况下向设备20输入字符的另一特征涉及:将“键定位”模式包括在设备20中。“键定位”模式可以在需要文本输入的每个场合的开始处被自动地激活或者可以在需要时由用户激活。在“键定位”模式中,虚拟键区24可以被呈现在显示屏22中,但是利用虚拟键区24进行实际文本输入在此“键定位”模式期间可能不被使能,“键定位”模式可以在虚拟键区24能够输入文本之前被激活预定时间段。在可能持续达三秒的“键定位”模式中,用户可以使用手指来感觉虚拟键区24的键,并且与每个键的接触向用户提供了指示与该键相关联的字符的听觉反馈。以这种方式,用户能够准确地定位第一键,并且在去激活“键定位”模式之后通过利用第一键来参考虚拟键区24的其它键,从而利用虚拟键区24输入文本。
再次参考图2,其示出了对在第三实施例中使用的虚拟键区24的描绘。图16-18还辅助描述了第三示例。虚拟键区24的第一键“a”26可操作来在显示屏22上示出的文本段28中显示与第一键26相关联的第一字符。在该非限制性实例中,与第一键26相关联的字符为“a、b、c、2以及<字符删除>”。第一字符是响应于手指19对与第一键26相对应的显示屏22上的第一区域32的初次动作而生成的。手指19充当指示体,应当注意,还可以使用尖笔指示体。在第三实施例中,初次动作包括:当要从位置(m)移到位置(n)时,手指19在与显示屏22连续接触的同时,手指19接触34(在图16中用阴影区域示出)并且从第一区域32沿着顺时针圆弧120移动。当用户做这样的动作时,与第一键26相关联的字符的选择按照由手指19到第一键26所示的每个字符的距离的顺序被读出给用户,其中,最接近手指19的字符被读出。在此示例中,当手指19在接近第一键26上的字符“c”之前接近第一键26上的字符“b”时,“a”、“b”和“c”顺次被读出。当“c”被读出时,用户发起动作以选择“c”10用于在文本段28中生成。该动作例如可以是手指19与第一键26断开接触并再次接触第一键26,手指19进一步地按下第一键26,用户扳动包括在设备20中的确认按钮等。
虚拟键区24的第一键26还可操作来在文本段28中显示与第一键26相关联的另一字符。针对此节,参考图17。显示屏22上的第一区域32与手指19之间的第一接触的发生34(在图17中用阴影区域示出)使得“a”被读出给用户。当“a”被读出时,用户发起动作以选择“a”12用于在文本段28中生成。该动作例如可以是手指19与第一键26断开接触并再次接触第一键26,手指19进一步地按下第一键26,用户扳动包括在设备20中的确认按钮等。接触的发生可以在与第一键26不间断的接触的情况下被延长。第一键26所对应的显示屏22上的第一区域32与手指19之间的至少两次连续接触的发生34可以将文本段28中所示的字符的模式从[小写]改为[大写]。应当注意,可以将类似模式切换功能之类的常用功能而不只是一个键包括在键区24中。
然后,当要从位置(p)移到位置(q)时,手指19在与显示屏22连续接触的同时,手指19接触34并从第一区域32沿着顺时针圆弧120(如图18所示)移动,则字符“a”和“b”在手指19接近第一键26上的字符“b”时被顺次读出。当“b”被读出时,用户发起动作以选择“b”14用于在文本段28中生成。该动作例如可以是手指19与第一键26断开接触并再次接触第一键26,手指19进一步地按下第一键26,用户扳动包括在设备20中的确认按钮等。应注意,手指19的移动不一定在第一键26的周边内。
下面的章节被包括来辅助理解第三实施例。在手指19与显示屏22连续接触的同时,手指19接触34并从第一区域32沿着顺时针圆弧120(在键26的周边附近或之内)移动时,则字符“a、b、c、2和<删除>”在手指移动到前述每个字符附近时被顺序地读出。当所希望的字符被读出时,用户发起动作以选择该字符用于在文本段28中生成。该动作例如可以是手指19与第一键26断开接触并再次接触第一键26,手指19进一步地按下第一键26,用户扳动包括在设备20中的确认按钮等。如在键26上所示的手指离每个字符的距离可以取直线距离。
在前述第一示例中在设备20上生成字符的期间,设备20可以根据由用户选择用于显示在文本段28中的字符来向用户提供反馈。反馈是字符的听觉表示或字符的视觉表示。听觉表示例如可以是字符的文本至语音转换、字符的特定音调/韵律、字符的可变频率音频信号等等。视觉表示例如可以包括:包括在设备20中的LED阵列(未示出)的闪亮序列、在使字体大小最小化以适合文本段28之前用较大字体60来表示字符(如图13所示),等等。可变频率音频信号可以在人类可听见的频率范围内,但是某些人可能由于诸如年龄、听力障碍等之类的因素而不能听见一些信号。每个键可以具有特定的音调/韵律,并且从每个键的接触发生移动可以生成特定音调/韵律的滑音变化。有利地,设备20的听觉反馈使得用户能够在不看设备20的显示屏22的情况下向设备20输入字符。
为了进一步辅助用户在不看显示屏22的情况下向设备20输入字符,设备20可以包括用来辅助用户按正确的方向和/或正确的位置来抓握设备20的物理标记。物理标记可以在设备20的壳体17上或者在显示屏22上。物理标记例如可以是壳体17的触感的变化(例如,通过利用沟槽16并且通过利用用于壳体17的不同材料)、显示屏22上的凹痕、显示屏22上的凹陷、显示屏22上的粗糙表面区域、作为用于在抓握设备20的同时使手指落在所希望位置的向导的壳体17上的受体,等等。
参考图14,可以用来辅助用户在不看显示屏22的情况下向设备20输入字符的另一特征涉及:将“键定位”模式包括在设备20中。“键定位”模式可以在需要文本输入的每个场合的开始处被自动地激活或者可以在需要时由用户激活。在“键定位”模式中,虚拟键区24可以被呈现在显示屏22中,但是利用虚拟键区24进行实际文本输入在此“键定位”模式期间可能不被使能,“键定位”模式可以在虚拟键区24能够输入文本之前被激活预定时间段。在可能持续达三秒的“键定位”模式中,用户可以使用手指19来感觉虚拟键区24的键,并且与每个键的接触向用户提供了指示与该键相关联的字符的听觉反馈8。以这种方式,用户能够准确地定位第一键,并且在去激活“键定位”模式之后通过利用第一键来参考虚拟键区24的其它键,从而利用虚拟键区24输入文本。
虽然在第三实施例中提到了沿着顺时针圆弧移动手指19,然而,应当注意,还可以沿着逆时针圆弧来移动手指19。
在图11所示的另一方面中,提供了一种用于在手持无线设备上输入文本的方法70。手持无线设备应当包括显示屏以及具有显示在显示屏上的多个键的虚拟键区。该设备例如可以是移动电话、媒体播放器、遥控器、PDA等。方法70包括检测指示体对与第一键相对应的显示屏上的第一区域的第一接触。第一接触可以包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着第一方向移到另一位置(72)。指示体可以是手指或尖笔指示体。
响应于对第一接触的检测,可以在显示屏上所示的文本段中生成与第一键相关联的第一字符(74)。类似地,检测指示体对与第一键相对应的显示屏上的第一区域的第二接触(76),将在显示屏上所示的文本段中生成与第一键相关联的第二字符(78),其中,第二接触包括在指示体与显示屏连续接触的同时,指示体接触第一区域并从第一区域沿着第二方向移到另一位置。
第一和第二方向可以通过将指示体的随后位置与显示屏上的第一区域相比较来确定。第一和第二方向不必彼此垂直。还可以根据指示体移动的方向来生成第三以及后续字符。
方法70还可以包括:检测与第一键相对应的显示屏上的第一区域与指示体之间的第一接触的发生(80),接触的发生在与第一键不间断的接触的同时被延长。对第一接触的发生的检测将在显示屏所示的文本段中生成与第一键相关联的第三字符(82)。以类似的方式,对与第一键相对应的显示屏上的第一区域与指示体之间的至少两次连续接触(84)的发生将改变显示屏上示出的文本段中与第一键相关联的模式(86)。模式可以涉及对在显示屏上示出的文本段中生成的字符的大写化和去大写化。
在前述方法70中,可以根据由用户选择用于显示在文本段中的字符来向用户提供反馈(88)。反馈是字符的听觉表示或字符的视觉表示。听觉表示例如可以是字符的文本至语音转换、字符的特定音调/韵律、字符的可变频率音频信号等等。视觉表示例如可以包括:包括在设备中的LED阵列的闪亮序列、在使字体大小最小化以适合文本段28之前用较大字体60来表示字符(如图13所示),等等。可变频率音频信号可以在人类可听见的频率范围内,但是某些人可能由于诸如年龄、听力障碍等之类的因素而不能听见一些信号。每个键可以具有特定的音调/韵律,并且从每个键的接触发生移动可以生成特定音调/韵律的滑音变化。有利地,设备的听觉反馈使得用户能够在不看设备的显示屏的情况下向设备输入字符。
方法70还可以包括按正确的方向和/或正确的位置来正确地抓握设备(69)。就此而言,设备可以包括辅助用户抓握设备的物理标记。物理标记可以在设备的壳体上或者在显示屏上。物理标记例如可以是壳体的触感的变化(例如,通过利用沟槽并且通过利用用于壳体的不同材料)、显示屏上的凹痕、显示屏上的凹陷、显示屏22上的粗糙表面区域、作为用于在抓握设备的同时使手指落在所希望位置的向导的壳体上的受体,等等。
方法70还可以包括定位虚拟键区中的键(71)。可以存在“键定位”模式,其中,虚拟键区可以被呈现在显示屏中,但是利用虚拟键区进行实际文本输入在虚拟键区24能够输入文本之前不被使能达预定时间段。“键定位”模式可以在需要文本输入的每个场合的开始处被自动地激活或者可以在需要时由用户激活。在可能持续达三秒的“键定位”模式中,用户可以使用指示体来感觉虚拟键区的键,并且与每个键的接触向用户提供了指示与该键相关联的字符的听觉反馈。以这种方式,用户能够准确地定位第一键,并且在去激活“键定位”模式之后通过利用第一键来参考虚拟键区的其它键,从而利用虚拟键区输入文本。
在图12所示的最后一方面中,示出了用于在手持无线设备上输入文本的方法90,该手持无线设备包括显示屏以及具有显示在显示屏上的多个键的虚拟键区。该设备例如可以是移动电话、媒体播放器、遥控器、PDA等。方法90包括检测指示体对与第一键相对应的显示屏上的第一区域的第一接触的发生(92),接触的发生在与第一键不间断的接触的同时被延长。然后,在显示屏上的可用部分处显示对在显示屏所示的文本段中使用的与第一键相关联的字符的选择(94)。
用户随后可以通过用手指接触与字符的表示相对应的区域处的显示屏上的可用部分,来从字符的选择中选出该字符(96)。指示体可以是手指或尖笔指示体。
替代地,取代将选择显示在显示屏上的可用部分中,可以在指示体连续接触第一区域的同时向用户读出该选择。一旦所希望的字符被读出给用户,则当指示体与第一区域之间的接触断开时就产生了对字符的选择。这也有助于用户在不看设备的显示屏的情况下向设备输入字符。
可以响应于初次动作来向用户读出选择也是可能的,初次动作是在指示体与显示屏连续接触的同时,在第一键的周边附近或之内,从第一区域沿着顺时针圆弧移动指示体。与第一键相关联的字符的选择按照由指示体到第一键所示的每个字符的距离的顺序被顺次地读出给用户,其中,最接近指示体的字符被读出。当所希望的字符被读出时,用户发起动作以选择该字符用于在文本段中生成。该动作例如可以是指示体与第一键断开接触并再次接触第一键,指示体进一步按下第一键,用户扳动包括在手持无线设备中的确认按钮等。指示体离第一键上所示的每个字符的距离可以取直线距离。
虽然在前面的段落中提到了沿着顺时针圆弧来移动指示体,然而,应当注意,还可以沿着逆时针圆弧来移动指示体。
在前述方法90期间,可以根据由用户选择用于显示在文本段中的字符来向用户提供反馈(98)。反馈是字符的听觉表示或字符的视觉表示。听觉表示例如可以是字符的文本至语音转换、字符的特定音调/韵律、字符的可变频率音频信号等等。视觉表示例如可以包括:包括在设备中的LED阵列的闪亮序列、在使字体大小最小化以适合文本段28之前用较大字体60来表示字符(如图13所示),等等。可变频率音频信号可以在人类可听见的频率范围内,但是某些人可能由于诸如年龄、听力障碍等之类的因素而不能听见一些信号。每个键可以具有特定的音调/韵律,并且从每个键的接触发生移动可以生成特定音调/韵律的滑音变化。有利地,设备的听觉反馈使得用户能够在不看设备的显示屏的情况下向设备输入字符。
方法90还可以包括按正确的方向和/或正确的位置来正确地抓握设备(91)。就此而言,设备可以包括辅助用户抓握设备的物理标记。物理标记可以在设备的壳体上或者在显示屏上。物理标记例如可以是壳体的触感的变化(例如,通过利用沟槽并且通过利用用于壳体的不同材料)、显示屏上的凹痕、显示屏上的凹陷区、显示屏上的粗糙表面区域、作为用于在抓握设备的同时使手指落在所希望位置的向导的壳体上的接受器,等等。
方法90还可以包括定位虚拟键区中的键(91)。可以存在“键定位”模式,其中,虚拟键区可以被呈现在显示屏中,但是利用虚拟键区进行实际文本输入在虚拟键区24能够输入文本之前不被使能达预定时间段。“键定位”模式可以在需要文本输入的每个场合的开始处被自动地激活或者可以在需要时由用户激活。在可能持续达三秒的“键定位”模式中,用户可以使用指示体来感觉虚拟键区的键,并且与每个键的接触向用户提供了指示与该键相关联的字符的听觉反馈。以这种方式,用户能够准确地定位第一键,并且在去激活“键定位”模式之后通过利用第一键来参考虚拟键区的其它键,从而利用虚拟键区输入文本。
尽管在前面的描述中描述了本发明的优选实施例,但是相关领域技术人员将明白,可以在不脱离本发明的情况下对设计或结构的细节作出多种变更或修改。

Claims (56)

1.一种能够接受文本输入的无线手持设备,该设备包括:
显示屏;以及
虚拟键区,该虚拟键区具有显示在所述显示屏上的多个键;
其中,所述虚拟键区的第一键可操作来响应于指示体对与所述第一键相对应的在所述显示屏上的第一区域的第一接触,将与所述第一键相关联的第一字符显示在所述显示屏上所示出的文本段中,所述第一接触包括在所述指示体与所述显示屏连续接触的同时,所述指示体接触所述第一区域并从所述第一区域沿着第一方向移动;以及
其中,所述虚拟键区的所述第一键还可操作来响应于指示体对与所述第一键相对应的在所述显示屏上的所述第一区域的第二接触,来将与所述第一键相关联的第二字符显示在所述显示屏上所示出的所述文本段中,所述第二接触包括在所述指示体与所述显示屏连续接触的同时,所述指示体接触所述第一区域并从所述第一区域沿着第二方向移动。
2.如权利要求1所述的设备,其中,所述指示体是从包括手指和尖笔指示体的组中选出的对象。
3.如权利要求1所述的设备,其中,所述设备根据由用户选择的显示在所述文本段中的字符来提供反馈。
4.如权利要求3所述的设备,其中,所述反馈是字符的听觉表示或者字符的视觉表示。
5.如权利要求4所述的设备,其中,听觉反馈使得用户能够在不看所述显示屏的情况下向所述设备输入字符。
6.如权利要求1所述的设备,其中,所述虚拟键区的所述第一键可操作来响应于与所述第一键相对应的在所述显示屏上的所述第一区域与指示体之间的第一接触的发生,来在所述显示屏上所示出的文本段中显示与所述第一键相关联的第三字符,接触的发生是对所述第一键的延长的不间断接触;以及
其中,所述虚拟键区的所述第一键可操作来响应于与所述第一键相对应的在所述显示屏上的所述第一区域与所述指示体之间的至少两次连续接触的发生,来改变所述显示屏上所示出的文本段中与所述第一键相关联的模式。
7.如权利要求6所述的设备,其中,所述模式涉及对在所述显示屏上所示出的文本段中生成的字符的大写化和去大写化。
8.如权利要求1所述的设备,其中,方向是通过将所述指示体的随后位置与所述显示屏上的所述第一区域相比较来确定的。
9.如权利要求1所述的设备是从包括移动电话、媒体播放器、遥控器和PDA的组中选出的。
10.如权利要求1所述的设备,还包括用来辅助用户在输入文本时抓握所述设备的至少一个物理标记,所述至少一个物理标记是从包括如下标记的组中选出的:所述设备的壳体上的触感的变化、所述显示屏上的凹痕、所述显示屏上的凹陷,所述显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体。
11.如权利要求1所述的设备,还包括“键定位”模式,用来准确地定位第一键,并且在去激活所述“键定位”模式之后通过根据所述第一键参考所述虚拟键区的其它键,来利用所述虚拟键区输入文本。
12.一种能够接受文本输入的无线手持设备,该设备包括:
显示屏;以及
虚拟键区,该虚拟键区具有显示在所述显示屏上的多个键;
其中,所述虚拟键区的第一键可操作来响应于指示体对与所述第一键相对应的在所述显示屏上的第一区域的第一接触的发生,来呈现对与所述第一键相关联的字符的选择,以供在所述显示屏上示出的文本段中使用,接触的发生是对所述第一键的延长的不间断接触;以及
其中,响应于所述指示体的动作来从所述字符的选择中选择字符。
13.如权利要求12所述的设备,其中,所述指示体是从包括手指和尖笔指示体的组中选出的对象。
14.如权利要求12所述的设备,其中,所述设备根据由用户选择用于显示在所述文本段中的字符来提供反馈。
15.如权利要求14所述的设备,其中,所述反馈是字符的听觉表示或者字符的视觉表示。
16.如权利要求15所述的设备,其中,听觉反馈使得用户能够在不看所述显示屏的情况下向所述设备输入字符。
17.如权利要求12所述的设备是从包括移动电话、媒体播放器、遥控器和PDA的组中选出的。
18.如权利要求12所述的设备,还包括用来辅助用户在输入文本时抓握所述设备的至少一个物理标记,所述至少一个物理标记是从包括如下标记的组中选出的:所述设备的壳体上的触感的变化、所述显示屏上的凹痕、所述显示屏上的凹陷,所述显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体。
19.如权利要求12所述的设备,还包括“键定位”模式,用来准确地定位第一键,并且在去激活所述“键定位”模式之后通过根据所述第一键参考所述虚拟键区的其它键,来利用所述虚拟键区输入文本。
20.如权利要求12所述的设备,其中,对所述字符的选择的呈现是通过将所述选择显示在所述显示屏的可用部分上或者向用户读出所述选择中的字符来进行的。
21.如权利要求20所述的设备,其中,在所述选择的显示中选择字符的动作是通过利用所述指示体接触字符来进行的。
22.如权利要求20所述的设备,其中,在读出所述选择时选择字符的动作是通过断开所述指示体与所述第一键的接触来进行的。
23.一种能够接受文本输入的无线手持设备,该设备包括:
显示屏;以及
虚拟键区,该虚拟键区具有显示在所述显示屏上的多个键;
其中,所述虚拟键区的第一键可操作来响应于指示体对与所述第一键相对应的在所述显示屏上的第一区域的初次动作,来将与所述第一键相关联的第一字符显示在所述显示屏上所示出的文本段中,所述初次动作包括在所述指示体与所述显示屏连续接触的同时,所述指示体接触所述第一区域并从所述第一区域沿着顺时针或逆时针圆弧移动,并且随后,对与所述第一键相关联的字符的选择按由所述指示体离每个字符的距离所确定的顺序被读出给用户,
其中,响应于用户在听到被读出的所需字符时所述指示体的动作,从所述字符的选择中选择字符。
24.如权利要求23所述的设备,其中,所述指示体是从包括手指和尖笔指示体的组中选出的对象。
25.如权利要求23所述的设备,其中,所述设备根据由用户选择用于显示在所述文本段中的字符来提供反馈。
26.如权利要求23所述的设备,其中,所述反馈是字符的听觉表示或者字符的视觉表示。
27.如权利要求26所述的设备,其中,听觉反馈使得用户能够在不看所述显示屏的情况下向所述设备输入字符。
28.如权利要求23所述的设备是从包括移动电话、媒体播放器、遥控器和PDA的组中选出的。
29.如权利要求23所述的设备,还包括用来辅助用户在输入文本时抓握所述设备的至少一个物理标记,所述至少一个物理标记是从包括如下标记的组中选出的:所述设备的壳体上的触感的变化、所述显示屏上的凹痕、所述显示屏上的凹陷,所述显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体。
30.如权利要求23所述的设备,还包括“键定位”模式,用来准确地定位第一键,并且在去激活所述“键定位”模式之后通过根据所述第一键参考所述虚拟键区的其它键,来利用所述虚拟键区输入文本。
31.如权利要求23所述的设备,其中,在读出所述选择时选择字符的动作是从包括如下动作的组中选出的:所述指示体断开与所述第一键的接触并且再次接触所述第一键、所述指示体进一步按下所述第一键,以及用户扳动包括在所述手持无线设备中的确认按钮。
32.一种用于在手持无线设备上输入文本的方法,所述手持无线设备包括显示屏以及具有显示在所述显示屏上的多个键的虚拟键区,所述方法包括:
检测指示体对与第一键相对应的在所述显示屏上的第一区域的第一接触,所述第一接触包括在所述指示体与所述显示屏连续接触的同时,所述指示体接触所述第一区域并从所述第一区域沿着第一方向移动;
响应于对所述第一接触的检测,在所述显示屏上所示出的文本段中显示与所述第一键相关联的第一字符;
检测所述指示体对与所述第一键相对应的在所述显示屏上的所述第一区域的第二接触,所述第二接触包括在所述指示体与所述显示屏连续接触的同时,所述指示体接触所述第一区域并从所述第一区域沿着第二方向移动;以及
响应于对所述第二接触的检测,在所述显示屏上所示出的文本段中显示与所述第一键相关联的第二字符。
33.如权利要求32所述的方法,其中,所述指示体是从包括手指和尖笔指示体的组中选出的对象。
34.如权利要求32所述的方法,还包括:根据由用户选择用于显示在所述文本段中的字符来提供反馈。
35.如权利要求34所述的方法,其中,所述反馈是字符的听觉表示或者字符的视觉表示。
36.如权利要求35所述的方法,其中,听觉反馈使得用户能够在不看所述显示屏的情况下向所述设备输入字符。
37.如权利要求32所述的方法,其中,方向是通过将所述指示体的随后位置与所述显示屏上的所述第一区域相比较来确定的。
38.如权利要求32所述的方法,其中,所述设备是从包括移动电话、媒体播放器、遥控器和PDA的组中选出的。
39.如权利要求32所述的方法,还包括:
检测与所述第一键相对应的在所述显示屏上的所述第一区域与指示体之间的第一接触的发生,接触的发生是对所述第一键的延长的不间断接触;
作为响应,在所述显示屏上所示出的所述文本段中显示与所述第一键相关联的第三字符;
检测与所述第一键相对应的在所述显示屏上的所述第一区域与指示体之间的至少两次连续接触的发生;以及
改变在所述显示屏上所示出的文本段中与所述第一键相关联的模式。
40.如权利要求39所述的方法,其中,所述模式涉及对在所述显示屏上所示出的文本段中生成的字符的大写化和去大写化。
41.如权利要求32所述的方法,还包括:在至少一个物理标记的辅助下抓握所述设备以输入文本,所述至少一个物理标记是从包括如下标记的组中选出的:所述设备的壳体上的触感的变化、所述显示屏上的凹痕、所述显示屏上的凹陷,所述显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体。
42.如权利要求32所述的方法,还包括:在“键定位”模式期间定位第一键,以便在去激活所述“键定位”模式之后通过根据所述第一键参考所述虚拟键区的其它键,来利用所述虚拟键区输入文本。
43.一种用于在手持无线设备上输入文本的方法,所述手持无线设备包括显示屏以及具有显示在所述显示屏上的多个键的虚拟键区,所述方法包括:
检测指示体对与所述第一键相对应的在所述显示屏上的第一区域的第一接触的发生,接触的发生是对所述第一键的延长的不间断接触;
响应于对所述第一接触的发生的检测或者对初次动作的检测,来呈现与所述第一键相关联的字符,以在所示文本段中使用;以及
响应于所述指示体的动作来从所述字符的选择中选择字符。
44.如权利要求43所述的方法,其中,所述指示体是从包括手指和尖笔指示体的组中选出的对象。
45.如权利要求43所述的方法,还包括根据由用户选择用于显示在所述文本段中的字符来提供反馈。
46.如权利要求45所述的方法,其中,所述反馈是字符的听觉表示或者字符的视觉表示。
47.如权利要求36所述的方法,其中,听觉反馈使得用户能够在不看所述显示屏的情况下向所述设备输入字符。
48.如权利要求43所述的方法,其中,所述设备是从包括移动电话、媒体播放器、遥控器和PDA的组中选出的。
49.如权利要求43所述的方法,还包括:在至少一个物理标记的辅助下抓握所述设备以输入文本,所述至少一个物理标记是从包括如下标记的组中选出的:所述设备的壳体上的触感的变化、所述显示屏上的凹痕、所述显示屏上的凹陷,所述显示屏上的粗糙表面区域以及作为手指的向导的壳体上的受体。
50.如权利要求43所述的方法,还包括:在“键定位”模式期间定位第一键,以便在去激活所述“键定位”模式之后通过根据所述第一键参考所述虚拟键区的其它键,来利用所述虚拟键区输入文本。
51.如权利要求43所述的方法,其中,对所述字符的选择的呈现是通过将所述选择显示在所述显示屏的可用部分上或者向用户读出所述选择中的字符来进行的。
52.如权利要求51所述的方法,其中,在所述选择的显示中选择字符的动作是通过利用所述指示体接触该字符来进行的。
53.如权利要求51所述的方法,其中,在读出所述选择时选择字符的动作是通过断开所述指示体与所述第一键的接触来进行的。
54.如权利要求43所述的方法,其中,所述初次动作包括:在所述指示体与所述显示屏连续接触的同时,所述指示体接触所述第一区域并从所述第一区域沿着顺时针或逆时针圆弧移动。
55.如权利要求54所述的方法,其中,与所述第一键相关联的所述字符的选择是按照由所述指示体到所述第一键所指示的每个字符的距离所确定的顺序被顺次读出的,其中,最接近所述指示体的字符被读出。
56.如权利要求55所述的方法,其中,在读出所述选择时选择字符的动作是从包括如下动作的组中选出的:所述指示体断开与所述第一键的接触并且再次接触所述第一键、所述指示体进一步按下所述第一键,以及用户扳动包括在所述手持无线设备中的确认按钮。
CN2008801131652A 2007-10-26 2008-09-16 能够接受文本输入的无线手持设备以及用于在无线手持设备上输入文本的方法 Active CN101965266B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG200717228-1 2007-10-26
SG200717228-1A SG152092A1 (en) 2007-10-26 2007-10-26 Wireless handheld device able to accept text input and methods for inputting text on a wireless handheld device
PCT/SG2008/000351 WO2009054809A1 (en) 2007-10-26 2008-09-16 Wireless handheld device able to accept text input and methods for inputting text on a wireless handheld device

Publications (2)

Publication Number Publication Date
CN101965266A true CN101965266A (zh) 2011-02-02
CN101965266B CN101965266B (zh) 2013-05-01

Family

ID=40579788

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008801131652A Active CN101965266B (zh) 2007-10-26 2008-09-16 能够接受文本输入的无线手持设备以及用于在无线手持设备上输入文本的方法

Country Status (6)

Country Link
US (1) US9229635B2 (zh)
EP (1) EP2209646B1 (zh)
CN (1) CN101965266B (zh)
SG (1) SG152092A1 (zh)
TW (1) TWI438646B (zh)
WO (1) WO2009054809A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832004A (zh) * 2017-12-12 2018-03-23 淄博职业学院 一种有触摸屏计算机英语单词选择方法
CN109792588A (zh) * 2016-09-30 2019-05-21 T移动美国公司 用于改进的呼叫处理的系统和方法

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8627224B2 (en) * 2009-10-27 2014-01-07 Qualcomm Incorporated Touch screen keypad layout
KR101650339B1 (ko) * 2010-03-12 2016-09-05 삼성전자 주식회사 휴대 단말기의 문자 입력 방법 및 이를 지원하는 휴대 단말기
KR101682579B1 (ko) * 2010-03-30 2016-12-05 삼성전자 주식회사 터치 단말에서 문자 입력기 제공 방법 및 장치
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8316319B1 (en) 2011-05-16 2012-11-20 Google Inc. Efficient selection of characters and commands based on movement-inputs at a user-inerface
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
JP6230992B2 (ja) 2011-06-15 2017-11-15 ヤン チャン ソ キーボードレイアウトを提供するユーザインタフェース提供装置及び方法
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
US9128605B2 (en) 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
KR101375166B1 (ko) * 2012-05-14 2014-03-20 전남대학교산학협력단 문자화장단말기 및 제어방법
US20140104179A1 (en) * 2012-10-17 2014-04-17 International Business Machines Corporation Keyboard Modification to Increase Typing Speed by Gesturing Next Character
KR20150050882A (ko) 2013-11-01 2015-05-11 삼성전자주식회사 다국어 입력 방법 및 이를 이용하는 다국어 입력 장치
USD767585S1 (en) * 2013-12-06 2016-09-27 Tencent Technology (Shenzhen) Company Limited Display screen portion with animated graphical user interface
USD773482S1 (en) * 2013-12-26 2016-12-06 Google Inc. Display screen portion with an animated graphical user interface
CN105359094A (zh) 2014-04-04 2016-02-24 微软技术许可有限责任公司 可扩展应用表示
EP3129847A4 (en) 2014-04-10 2017-04-19 Microsoft Technology Licensing, LLC Slider cover for computing device
EP3129846A4 (en) 2014-04-10 2017-05-03 Microsoft Technology Licensing, LLC Collapsible shell cover for computing device
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
EP3542258A1 (en) * 2016-11-17 2019-09-25 Donald Butler Curchod Advanced virtual keyboard

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5794828A (en) * 1980-12-03 1982-06-12 Canon Inc Input device
US6169789B1 (en) * 1996-12-16 2001-01-02 Sanjay K. Rao Intelligent keyboard system
US6104317A (en) * 1998-02-27 2000-08-15 Motorola, Inc. Data entry device and method
CN1274881A (zh) * 1999-05-19 2000-11-29 财团法人工业技术研究院 中文注音输入装置
US6597345B2 (en) * 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
US6865533B2 (en) * 2000-04-21 2005-03-08 Lessac Technology Inc. Text to speech
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP2003067119A (ja) * 2001-08-24 2003-03-07 Ricoh Co Ltd 機器操作装置、プログラムおよび記録媒体
WO2004023455A2 (en) * 2002-09-06 2004-03-18 Voice Signal Technologies, Inc. Methods, systems, and programming for performing speech recognition
US6925315B2 (en) * 2001-10-30 2005-08-02 Fred Langford Telephone handset with thumb-operated tactile keypad
JP2005301322A (ja) * 2002-02-07 2005-10-27 Kathenas Inc 入力装置、携帯電話機及び携帯情報機器
US6882337B2 (en) * 2002-04-18 2005-04-19 Microsoft Corporation Virtual keyboard for touch-typing using audio feedback
US6776546B2 (en) * 2002-06-21 2004-08-17 Microsoft Corporation Method and system for using a keyboard overlay with a touch-sensitive display screen
US20030234763A1 (en) * 2002-06-24 2003-12-25 Xerox Corporation System and method for audible feedback for touch screen displays
KR100651396B1 (ko) * 2003-09-05 2006-11-29 삼성전자주식회사 문자 인식 장치 및 방법
US8904282B2 (en) * 2005-04-21 2014-12-02 Motorola Mobility Llc Electronic device having capability for interpreting user inputs and method therefor
US20060267966A1 (en) * 2005-05-24 2006-11-30 Microsoft Corporation Hover widgets: using the tracking state to extend capabilities of pen-operated devices
US20080167081A1 (en) * 2007-01-10 2008-07-10 Eng U P Peter Keyless touch-screen cellular telephone
US7952498B2 (en) * 2007-06-29 2011-05-31 Verizon Patent And Licensing Inc. Haptic computer interface

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109792588A (zh) * 2016-09-30 2019-05-21 T移动美国公司 用于改进的呼叫处理的系统和方法
US11170757B2 (en) 2016-09-30 2021-11-09 T-Mobile Usa, Inc. Systems and methods for improved call handling
CN107832004A (zh) * 2017-12-12 2018-03-23 淄博职业学院 一种有触摸屏计算机英语单词选择方法

Also Published As

Publication number Publication date
TW200919264A (en) 2009-05-01
US9229635B2 (en) 2016-01-05
US20100245276A1 (en) 2010-09-30
SG152092A1 (en) 2009-05-29
WO2009054809A1 (en) 2009-04-30
TWI438646B (zh) 2014-05-21
CN101965266B (zh) 2013-05-01
EP2209646A4 (en) 2012-06-20
EP2209646B1 (en) 2018-05-02
EP2209646A1 (en) 2010-07-28

Similar Documents

Publication Publication Date Title
CN101965266B (zh) 能够接受文本输入的无线手持设备以及用于在无线手持设备上输入文本的方法
JP5371371B2 (ja) 携帯端末および文字表示プログラム
US20100302163A1 (en) Data entry system
EP3190482B1 (en) Electronic device, character input module and method for selecting characters thereof
CN102163120A (zh) 图标的突出选择提示
SG177239A1 (en) Data entry system
WO2007084078A1 (en) A keyboard for a mobile phone or other portable communication devices
JP2004355606A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2010099835A1 (en) Improved text input
CN102591554A (zh) 一种手机输入方法及装置
WO2001018966A1 (en) A miniature keyboard for a personal digital assistant and an integrated web browsing and data input device
KR100992386B1 (ko) 모음드래그패턴을 이용한 전자기기의 한글입력장치 및한글입력방법
CN101512915A (zh) 小键盘模拟
KR20110003130A (ko) 이동통신 단말기의 문자 입력 방법
KR100656779B1 (ko) 터치패드를 이용한 문자 입력 장치 및 그 입력 방법
JP2009053759A (ja) 文字入力装置
CN103823571A (zh) 基于双方向控制的输入法系统
JP2013120968A (ja) 携帯端末装置、表示制御方法及び表示制御プログラム
KR20050110329A (ko) 이동단말기의 문자입력장치 및 그 입력방법
JP2011043886A (ja) 選択装置、選択方法、ならびに、プログラム
KR101464642B1 (ko) 한글 입력 장치 및 이를 이용한 휴대 단말기
KR101086590B1 (ko) 한글 입력 방법 및 그를 위한 통신 단말 장치
KR101339524B1 (ko) 한글 자음과 한글 모음의 입력방식을 달리하는 단말기 및그 제어방법
KR100663705B1 (ko) 한글 자음 입력장치
KR20110125294A (ko) 터치스크린을 이용한 문자입력방법 및 문자입력장치, 문자입력방법을 구현하는 프로그램이 기록된 기록매체 및 터치스크린을 이용한 문자입력장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant