CN104718544A - 部分手势文本输入 - Google Patents
部分手势文本输入 Download PDFInfo
- Publication number
- CN104718544A CN104718544A CN201380054118.6A CN201380054118A CN104718544A CN 104718544 A CN104718544 A CN 104718544A CN 201380054118 A CN201380054118 A CN 201380054118A CN 104718544 A CN104718544 A CN 104718544A
- Authority
- CN
- China
- Prior art keywords
- gesture
- candidate word
- equipment
- display device
- computing equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/242—Query formulation
- G06F16/243—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
Abstract
包括多个键的图形键盘被输出以在显示设备处显示。计算设备至少部分地基于在存在敏感输入设备的位置处检测到输入单元,接收用于选择至少两个键的手势的指示。响应于所述检测并且在存在敏感输入设备处检测到输入单元时:计算设备至少部分地基于至少两个键为手势确定候选词,并且候选词在输出设备的第一位置处被输出以显示。响应于确定在存在敏感输入设备处不再检测到输入单元,所显示的候选词在显示设备的第二位置处被输出以显示。
Description
背景技术
一些计算设备(例如移动电话、平板电脑)可以接收在存在敏感显示器处输入的用户输入。例如,计算设备的存在敏感显示器可以输出图形(或“软”)键盘,其允许用户通过在显示在存在敏感显示器处的图形元素(例如键)之上轻敲和/或作手势来输入数据。在其他示例中,计算设备的存在敏感显示器可以输出图形用户界面(例如游戏或操作系统的界面),其允许用户通过在显示在存在敏感显示器处的其他图形元素(例如按钮、滚动条)之上轻敲和/或作手势来输入命令。一些计算设备响应于接收到轻敲或非轻敲手势输入来执行特定功能。例如,一些计算设备可以响应于在存在敏感显示器处或在存在敏感显示器附近输入的轻敲而检测对单个键的选择,并且可以响应于在存在敏感显示器处或在存在敏感显示器附近的非轻敲手势(例如挥动)而检测对多个键的选择。
在一些情况下,计算设备可以呈现连续手势图形键盘(有时称为“组合手势键盘”或“手势键盘”),用户可以通过将指示要被输入的词的连续手势输入到计算设备(例如通过在与键盘的期望键相关联的存在敏感显示器的各种区域之上滑动其手指)与其交互。以此方式,连续手势图形键盘允许用户利用单个手势来键入词或词组。这样,连续手势图形键盘可以允许用户实现某个程度的输入效率。
然而,一些连续手势键盘具有某些缺陷。例如,当执行连续手势以输入具有许多字符的词时,连续手势键盘可能在计算设备将词选择为预期的用户输入的词之前要求用户选择与词相对应的所有字符。因而,输入具有许多字符的词(例如较长词)可以变得冗长乏味和/或要求附加用户时间和努力。这样,在计算设备输出词之前选择与词的相应字符相对应的每一个键可以降低用户能够与计算设备交互的速度。
发明内容
在一个示例中,一种方法包括:由计算设备输出包括多个键的图形键盘以在显示设备处显示。该方法还包括:由计算设备至少部分地基于在存在敏感输入设备的多个位置处检测到输入单元,来接收在存在敏感输入设备处用于选择少于与候选词相对应的所有多个键的手势的指示。该方法还包括:响应于所述检测并且在存在敏感输入设备处检测到输入单元时:由计算设备至少部分地基于至少两个键来为手势确定候选词;以及在显示设备的第一位置处输出候选词以显示。该方法还包括:响应于确定在选择与候选词相对应的所有多个键之前,手势已经终止,在显示设备的第二位置处输出所显示的候选词以显示。
在另一个示例中,计算设备包括:至少一个处理器;存在敏感输入设备,其可操作地耦合到至少一个处理器;以及显示设备,其可操作地耦合到至少一个处理器。计算设备的至少一个处理器可以被配置成:输出包括多个键的图形键盘以在显示设备处显示。计算设备的至少一个处理器还可以被配置成:至少部分地基于在显示设备的多个位置处检测到输入单元,接收用于选择多个键中的至少两个的手势的指示。计算设备的至少一个处理器可以被配置成:响应于所述检测并且在存在敏感输入设备处检测到输入单元时:至少部分地基于所述至少两个键,为手势确定候选词;以及在所述显示设备的第一位置处输出候选词以显示。计算设备的至少一个处理器可以被配置成:响应于确定在存在敏感输入设备处不再检测到所述输入单元,在显示设备的第二位置处输出所显示的候选词以显示。
在另一个示例中,一种编码有指令的计算机可读存储介质,所述指令在被执行时使得计算设备的至少一个处理器:输出包括多个键的图形键盘以在显示设备处显示;由计算设备至少部分地基于在存在敏感输入设备的多个位置处检测到输入单元,来接收用于选择多个键中的至少两个的手势的指示;响应于所述检测并且在存在敏感输入设备处检测到输入单元时:由计算设备至少部分地基于至少两个键来为手势确定候选词;在显示设备的第一位置处输出候选词以显示;以及响应于确定在存在敏感输入设备处不再检测到输入单元,在显示设备的第二位置处输出所显示的候选词以显示。
本公开的一个或多个方面的细节在附图和以下说明书中阐述。本公开的其他特征、目标和优点将从说明书和附图并且从权利要求变得明显。
附图说明
图1是示出可以被配置成显示部分手势图形键盘的示例性计算设备的框图。
图2至图4是用于由图1的计算设备输出以显示的图形用户界面的框图,示出计算设备使用部分手势来选择多个候选词中的一个的示例。
图5是示出如图1中所示的计算设备的一个示例的进一步细节的框图。
图6是示出用于基于在图形键盘处执行的部分手势来选择词的计算设备的示例性过程的流程图。
图7是示出可以被配置成在存在敏感显示器处输出部分手势图形键盘以显示的示例性计算设备的框图。
具体实施方式
通常,本公开涉及用于在不要求选择包括在词中的所有字符的手势的情况下使用图形键盘来输入词的技术。也就是说,响应于接收到用于选择包括在词中的一部分字符的连续手势的指示,计算设备可以选择该词。以此方式,虽然连续手势可能在选择包括在词中的所有字符(例如,选择少于与对应于候选词的字符相关的所有键)之前终止,计算设备可以选择该词。这样,根据本公开的技术,计算设备可以执行词识别技术,同时计算设备检测手势并且在手势完成之前生成候选词。在一些示例中,计算设备可以在用户的指尖的当前位置之上或者在由用户采用的另一个输入单元的位置处输出候选词。在一个示例中,如果计算设备基于仅一部分字符确定候选词并且用户希望选择该候选词,则用户可以终止手势(例如,通过从存在敏感显示器抬起手指)。响应于确定手势终止,计算设备可以选择候选词,并且输入候选词作为所输入的词,就像手势已经过与候选词的所有字母相对应的路径。
作为一个示例,计算设备可以接收用于词“friend”的部分手势的指示。例如,计算设备可以确定部分手势指示字符f-r-i-e。基于部分手势的指示,计算设备可以确定候选词“friend”,其在存在敏感显示器处被输出以显示。不要求用户继续执行手势以选择“friend”的剩余字母,计算设备响应于可以确定手势已终止而选择词“friend”作为所输入的词。
图1是示出包括用户界面(UI)设备4、UI模块6、键盘模块8、以及文本预测模块10的示例性计算设备2的框图。实现本公开的技术的计算设备2的其他示例可以包括图1中未示出的附加组件。在一些示例中,计算设备2可以由用户利用。用户可以经由UI设备4与计算设备2交互。例如,用户可以在可以检测这样的手势的UI设备4处提供手势。计算设备2的示例可以包括但不限于便携式或移动设备,诸如移动电话(包括智能电话)、膝上型计算机、桌上型计算机、平板电脑、智能电视平台、相机、个人数字助理(PDA)、服务器、大型机等。
示例性计算设备2包括UI设备4。在一些示例中,UI设备4被配置成接收触觉、音频、或视觉输入。如图1中所示,UI设备4可以包括触摸敏感和/或存在敏感显示器或用于接收输入的任何其他类型的设备。UI设备4可以输出诸如图形用户界面(GUI)12的内容以显示。在图1的示例中,UI设备4可以是存在敏感显示器,其可以显示GUI 12并且在存在敏感显示器处或附近使用电容、电感和/或光学检测从用户接收输入。在一个示例中,UI设备4可以检测由例如位于UI设备4处或附近的用户的手指或触笔设备的输入单元提供的来自用户的手势输入。另外,UI设备4可以例如输出部分手势图形键盘14。响应于接收到在UI设备4处的用户输入的指示,计算设备2可以确定预测文本识别结果。如以下进一步描述的,在用户完成整个手势以在UI设备4处输入词之前,计算设备2可以选择完整词或其他文本。
如图1中所示,计算设备2包括UI模块6。UI模块6可以执行一个或多个功能以接收诸如用户输入或网络数据的输入,并且将这样的输入发送至与计算设备2相关联的其他组件,诸如键盘模块8和文本预测模块10。例如,UI模块6可以识别由用户在UI设备4处执行的手势。UI模块6还可以从与计算设备2相关联的组件接收数据,诸如键盘模块8和文本预测模块10。使用该数据,UI模块6可以使诸如UI设备4的与计算设备2相关联的其他组件基于该数据提供输出。例如,UI模块6可以从文本预测模块10接收使UI设备4在GUI 12的文本输入区域16中显示信息的数据。
UI模块6可以以各种方式被实现。例如,UI模块6可以被实现为可下载或预先安装的应用或“app”。在另一个示例中,UI模块6可以被实现为计算设备2的硬件单元的一部分。在另一个示例中,UI模块6可以被实现为计算设备2的操作系统的一部分。
示例性计算设备2还包括键盘模块8。键盘模块8可以包括呈现并且控制包括在UI设备4处呈现的GUI 12中的图形键盘14的功能。键盘模块8可以以各种方式被实现。例如,键盘模块8可以被实现为可下载或预先安装的应用或“app”。在另一个示例中,键盘模块8可以被实现为计算设备2的硬件单元的一部分。在另一个示例中,键盘模块8可以被实现为计算设备2的操作系统的一部分。
键盘模块8可以从诸如UI模块6的与计算设备2相关联的组件接收数据。例如,键盘模块8可以从UI模块6接收手势数据,其使得键盘模块8基于手势数据修改图形键盘14的显示。键盘模块8还可以将数据发送至与计算设备2相关联的组件,诸如UI模块6。例如,键盘模块8可以将与图形键盘14相关联的数据发送至UI模块6,其使得UI设备4根据由键盘模块8发送的数据来显示包括键盘14的GUI 12。
图1的示例性计算设备2还包括文本预测模块10。文本预测模块10包括递增地为部分手势确定一个或多个候选词,以选择在UI设备4处接收并且由UI模块6识别的图形键盘14的键。文本预测模块10可以以各种方式被实现。例如,文本预测模块10可以被实现为可下载或预先安装的应用或“app”。在另一个示例中,文本预测模块10可以被实现为计算设备2的硬件单元的一部分。在另一个示例中,文本预测模块10可以被实现为计算设备2的操作系统的一部分。
文本预测模块10可以从诸如UI模块6的与计算设备2相关联的组件接收数据。例如,文本预测模块10可以从UI模块6接收手势数据,其使文本预测模块10从手势数据确定候选词。文本预测模块10还可以将数据发送至与计算设备2相关联的组件,诸如UI模块6。例如,文本预测模块10可以将从手势数据确定的一个或多个候选词发送至UI模块6,其使UI设备4显示词。
如图1中所示,GUI 12可以是由UI模块6生成的用户界面,其允许用户与计算设备2交互。GUI 12可以包括图形内容。图形内容通常可以包括文本、图像、一组运动图像等。如图1中所示,图形内容可以包括图形键盘14、文本输入区域16、以及词建议区域18。图形键盘14可以包括多个键,诸如表示字母表的不同字母的图1中所示的键。在一些示例中,包括在图形键盘14中的多个键中的每个表示单个字符。在其他示例中,包括在图形键盘14中的多个键中的一个或多个键表示基于多个模式选择的一组字符。
在一些示例中,文本输入区域16可以包括包含在例如文本消息、文档、电子邮件消息、web浏览器、或期望文本输入的任何其他情况中的字符或其他图形内容。例如,文本输入区域16可以包括由用户经由在UI设备4处执行的手势选择的字符或其他图形内容。在一些示例中,词建议区域18可以显示由预测模块10基于从UI模块6接收的手势数据确定的一个或多个候选词。UI模块6可以使UI设备4显示图形键盘14并且检测具有手势路径20的手势,文本预测模块10基于其可以确定一个或多个候选词。另外,UI模块6可以使UI设备4在词建议区域24中显示从手势确定的候选词。
本公开的技术可以改进用户可以将文本输入到计算设备中的速度和准确度。根据本公开的示例允许用户通过绘制计算设备可以识别词的部分手势来在计算设备处输入词。以下进一步描述的示例性技术给用户提供捷径,其是相同部分手势的一部分,以接受由设备识别的候选词。
在一个示例中,计算设备2的UI设备4输出图形键盘14以显示,其包括与各种符号相关联的多个键。如图1中所示,键盘14的一些键表示用户可以在UI设备4处输入文本的字母。计算设备2的UI模块6可以至少部分地基于UI设备4检测到输入单元,例如在形成UI设备4的一部分的存在敏感显示器的多个位置处的用户的指尖,识别手势以选择图形键盘14的至少两个键。响应于在显示器的位置处检测到输入单元并且在存在敏感显示器处仍然由UI设备4检测到输入单元时,文本预测模块10可以至少部分地基于至少两个键,来为所识别的手势确定候选词,并且将该词或表示该词的数据传输至UI模块6,然后UI模块6可以控制UI设备4在存在敏感显示器的第一位置处输出候选词以显示。响应于确定在存在敏感显示器处不再检测到输入单元,UI设备4可以在存在敏感显示器的第二位置处,输出所显示的候选词以显示。例如,响应于确定在选择与候选词相对应的所有多个键之前手势已终止,UI设备4可以在存在敏感显示器的第二位置处输出所显示的候选词以显示。在一些示例中,在输入单元在存在敏感输入设备的阈值距离内时,UI模块6可以确定手势,并且响应于确定输入单元不再在存在敏感输入设备的阈值距离内,UI模块6可以确定手势已终止。
参考图1中所示的示例,计算设备2的用户通过在UI设备4处执行手势,使用图形键盘14输入词。用户利用指尖选择图形键盘14的键。然而,在根据本公开的另一个示例中,用户可以利用不同的输入单元,诸如触笔。用户沿着手势路径20提供连续挥动手势,以选择图形键盘14的多个键。在图1的示例中,用户沿着路径20的挥动手势行进通过f、r、t、y、u、i和e。UI设备4在存在敏感显示器的各种位置处检测到用户的手指,并且将与这样的检测相关联的数据传输至UI模块6。UI模块6进而可以基于从UI设备4接收的数据,来识别由用户提供的手势。在图1的示例中,UI模块6可以确定由用户的手指经过的路径20,并且还单独或结合键盘模块8,确定由用户提供的手势行进通过的键和相关联的字母。
当用户正在沿着路径20执行挥动手势时,UI模块6识别该手势和由此选择的键。在一些示例中,文本预测模块10还可以基于由UI模块6识别的手势,来确定一个或多个候选词。从而,当用户继续手势时,例如从字母f到字母r并且然后经过字母t、y和u到字母I,UI模块6可以连续地或周期性地识别手势。文本预测模块10还可以基于由UI模块6识别的达到该点的手势,确定一个或多个候选词。从而,当用户提供的挥动手势沿着手势路径20前进时,由文本预测模块10确定的候选词可以改变。
在用户经过字母f、r、t、y、u、i和e,挥动经过图1中所示的整个路径20之后,文本预测模块10从由UI模块6识别的手势,确定两个候选词,“friend”和“friends”。另外,UI模块6将数据发送至UI设备4,其使UI设备4在作为GUI 12的一部分的显示设备处例如基于从文本预测模块10接收的数据,输出候选词。在用户将手指从UI设备4抬起,使得UI设备4不再检测到用户的手指的存在之前,通过文本预测模块10确定候选词和在UI设备4的显示器处显示那些词可能发生。换句话说,在UI设备4仍然在存在敏感显示器处检测到用户的手指时,通过文本预测模块10确定候选词和在UI设备4的显示器处显示那些词可能发生。
文本预测模块10可以采用多种技术中的任一种,以基于由UI模块6识别的部分手势来确定候选词。通常,当用户在UI设备4处提供手势时,由文本预测模块10采用的预测技术可以递增地确定候选词,使得用户不需要完成用于文本预测模块10的手势,以提供一个或多个候选词。在一些示例中,当文本预测模块10接收到由用户提供的手势前进的指示时,候选词可能改变。
在一些示例中,文本预测模块10可以采用概率模型,其基于包括与由用户选择的图形键盘14的键相关联的字母、以及在先用户输入和/或用户像由用户输入的词的顺序中的其他词输入文本的上下文的各种因素来预测候选词。当用户在UI设备4的存在敏感显示器处提供部分手势时,文本预测模块10可以确定多个候选词,并且还基于每个词是用户试图输入的正确词的概率,确定用于多个候选词的相对顺序。由文本预测模块10确定的候选词的顺序可以影响UI模块6控制UI设备4输出在显示器处的每个词、以及由用户提供以使文本预测模块10选择特定候选词作为正确词的手势的字符的方式。可以由文本预测模块10采用以基于由UI模块6识别的部分手势来确定候选词的示例性技术在图6中进一步描述。
在一些示例中,文本预测模块10可以基于包括例如手势的速度、手势路径20中的拐点的多个因素,确定候选词。以此方式,文本预测模块10可以基于独立于在手势中选择的字母的因素,确定关于用户是选择字母还是仅经过与在到另一个字母的途中的键盘14的键相对应的字母的置信度度量。另外,可能存在由用户提供的手势指示完整词和不完整词的部分的情况。例如,响应于接收挥动经过字母f-r-e-e的手势的指示,文本预测模块10可以确定词“free”和“freedom”是非常高可能性的候选词。在这样的示例中,文本预测模块10可以在部分拼写之上建议完全拼写词。
参考图1的示例,文本预测模块1基于由UI模块6识别的手势,确定了两个候选词“friend”和“friends”。在该示例中,虽然UI模块6确定用户挥动经过在UI设备4的显示器处的对应于字母f、r、t、y、u、i和e的位置,但是文本预测模块10确定用户正在选择f-r-i-e。基于手势选择沿着挥动路径20的字母f-r-i-e的识别,文本预测模块10确定两个候选词“friend”和“friends”。
文本预测模块10可以将表示候选词“friend”和“friends”的数据传输至UI模块6,其可以进而控制UI设备4将词显示为GUI 12的一部分。在一个示例中,通过UI模块6显示候选词可以取决于用户在存在敏感显示器处提供手势的速度,使得如果速度高于阈值,则UI模块6可以避免显示任何候选词,直到用户减速为止,这是因为显示词在这种情况下可能是干扰。在一些示例中,UI模块6可以改变UI模块6控制UI设备4显示候选词的位置,并且可以基于多个不同因素。另外,UI模块6可以基于由文本预测模块10确定的每个词是正确词的相对概率,改变候选词的外观。例如,UI模块6可以显示不同于或分离于由文本预测模块10确定的所有其他候选词的顶部候选词。
在图1的示例中,UI模块6控制UI设备4在设备4的存在敏感显示器处的两个不同位置中显示候选词“friend”。在该示例中,文本预测模块10已确定“friend”是两个候选词中的顶部候选词。UI模块6控制UI设备4在至少部分地基于由UI设备4检测的用户的手指的位置的一个位置22处,输出顶部候选词“friend”。UI模块6还控制UI设备4在词建议区域18处的第二位置24处,输出顶部候选词“friend”。“friend”在词建议区域18的第二位置24处的显示可以基于不取决于环境的预定位置,诸如用户在UI设备4输出词以显示时与计算设备2交互的方式。在图1的示例中,在位置22和位置24中,UI模块6控制UI设备4以相对于第二候选词“friends”的强调格式输出顶部候选词“friend”以显示。词“friend”在位置22处的外观为粗体和带阴影的字体,其大于出现在词建议区域18处的文本。词“friend”在词建议区域18处的位置24处的外观为粗体和下划线字体。
如上所述,UI模块6控制UI设备4至少部分地基于由UI设备4检测的用户的手指的位置,在位置22处输出顶部候选词“friend”。在一个示例中,UI模块6可以控制UI设备4在位置22处输出顶部候选词“friend”,其是与由UI设备4检测的用户的手指的位置相离的阈值距离。另外,在一个示例中,UI模块6可以控制UI设备4在存在敏感显示器的多个位置处输出顶部候选词“friend”,使得顶部候选词跟随用户的手指,就像其前进经过手势,例如,就像其沿着手势路径20前进。
候选词在可操作地耦合至计算设备的显示设备的特定位置处的显示可以具有某些优点。例如,在确定由计算设备建议的候选词是否是用户想要输入的正确词时,相对于在显示设备处检测到用户手势的位置显示候选词可以允许用户更容易地继续手势。在计算设备显示词的事件中,例如接近由用户提供的手势的被检测位置,用户不需要将目光从他们当前提供手势的位置转向另一个位置,诸如就像在用户正在输入词的图形键盘之上的建议词区域的预定位置。例如,如上所述,UI模块6可以控制UI设备4在位置22处输出顶部候选词“friend”,其是与由UI设备4检测的用户的手指的位置相离的阈值距离。阈值距离可以被选择为充分接近由UI设备4检测的用户的手指的位置,在该位置查看候选词将减少用户需要将目光从他们当前提供手势的位置转向另一个位置的机会。
再次参考图1的示例,UI模块6可以控制UI设备4以降低候选词妨碍图形键盘14的查看的程度的方式,基于用户的手指的被检测位置,在位置22处输出顶部候选词“friend”。例如,UI模块6可以控制UI设备4在位置22处部分透明地输出顶部候选词“friend”,使得在候选词下面的图形键盘14的键部分可见。
如上所述,关于计算设备2的文本预测模块10基于由用户提供的被识别手势确定一个或多个候选词、以及UI模块6控制UI设备4输出候选词以显示的以上功能和特征可以响应于UI设备4检测到用户的手指在多个位置处选择图形键盘14的键而发生。在仍然由UI设备4在存在敏感显示器处检测到手指时,这样的确定可以发生。换句话说,当用户沿着路径20执行挥动手势时,UI模块6可以识别手势和由此选择的键。当用户执行挥动手势时,文本预测模块10还可以基于由UI模块6识别的手势,确定一个或多个候选词。而且,当用户执行挥动手势时,UI模块6可以控制UI设备4显示由文本预测模块10确定的一个或多个候选词。
在一些示例中,如果用户确定由文本预测模块10确定的候选词中的一个是正确词,则用户可以快速地和容易地指示正确词,而不必须选择词,例如不将用户的手指从UI设备4抬高,并且然后在UI设备4的存在敏感显示器处提供附加手势,以选择候选词中的一个。在根据本公开的示例中,通过简单地将用户的手指从UI设备4抬高,使得设备4不再检测到手指的存在,用户可以指示图1的示例中的顶部候选词“friend”是正确词,例如选择顶部候选词。在该情况下,在UI设备4在存在敏感显示器(例如,当用户抬高手指,或者其他输入单元在对应于图形键盘14的“e”键的位置处达到图1中的手势路径20的结束之后远离设备时)处不再检测到用户的手指之后,UI模块6可以自动地控制UI设备4在下一个输入区域16中显示顶部候选词“friend”,如图1中所示。从而,在图1的示例中,用户可以通过提供挥动经过沿着路径20的字母f-r-i-e的部分手势并且然后简单地抬高用户的手指并且远离UI设备4的存在敏感显示器,来使用部分手势图形键盘14输入词“friend”。以此方式,用户可以执行比对应于词“friend”的所有多个键少的手势选择,并且响应于确定用户的手指已经抬高并且远离UI设备4(例如,在选择对应于“friend”的所有多个键之前,手势终止),UI设备6可以使UI设备4在GUI 12的文本输入区域中输出候选词以显示。
在一些情况下,用户可能希望基于部分手势输入除了顶部候选词之外的候选词中的一个。例如,用户可能希望在挥动经过沿着路径20的字母f-r-i-e之后,输入“friends”而不是“friend”。在这样的情况下,UI模块6可以识别另一个手势,以相对于顶部候选词选择第二候选词。在一个示例中,响应于识别其他手势并且确定在UI设备4的存在敏感显示器处不再检测到用户的手指,UI设备6然后可以在文本输入区域16处输出第二候选词“friends”以显示。
图2至图4是示出响应于接收到部分手势的指示,计算设备选择除了顶部候选词之外的多个所确定的候选词中的一个的示例的GUI 12的框图。通常,计算设备2的UI模块6可以识别手势作为初始部分挥动手势的一部分或者接着初始部分挥动手势。UI模块6可以基于UI设备4在UI设备4的一个或多个位置处检测到用户的手指(或另一个输入单元)识别手势。位置可以在与相对于顶部候选词显示在UI设备4处的候选词中的一个相同方向的方向上。例如,用户可能希望选择在建议词区域18中显示到顶部候选词的左侧的候选词。UI模块6可以识别手势作为初始部分挥动手势的一部分或者接着初始部分挥动手势。UI模块可以基于UI设备4检测到在一个或多个位置处的用户手指(或另一个输入单元)向右方向上的运动,执行识别。当文本预测模块10确定并且UI模块6控制UI设备4显示候选词时,运动可以源于手指的位置。
图2中示出以上用例的示例。在图2中,用户执行部分手势,以通过以类似于图1中所示的方式沿着挥动路径20挥动,选择对应于字母f-r-i-e的图形键盘14的键。在UI设备4在图形键盘14的“e”键附近,在与在存在敏感显示器处的位置相对应的挥动路径20的结束处检测到用户的手指时或之前,文本预测模块10基于挥动手势确定三个候选词,包括“friend”、“friends”和“friendship”。在该示例中,如图1的示例中,文本预测模块10基于由用户提供的部分手势,确定“friend”是用于正确词的顶部候选词。另外,在UI设备4在图形键盘14的“e”键附近,在与在存在敏感显示器处的位置相对应的挥动路径20的结束处检测到用户的手指时或之前,UI模块6控制UI设备4在建议词区域18中输出候选词以显示,使得“friendship”出现在“friend”左侧,并且“friends”出现在右侧。在图2的示例中,用户可以通过简单地抬高用户的手指,并且远离UI设备4的存在敏感显示器,使得UI设备4不再检测到手指的存在,输入顶部候选词“friend”。
在用户想要输入“friendship”而不是顶部候选词“friend”的情况下,用户可以提供另一个手势作为沿着路径20的挥动手势的一部分或者跟随沿着路径20的挥动手势。在图2的示例中,用户可以在挥动路径20的结束28处提供短挥动手势26。手势26可以包括在从挥动路径20的结束28开始的方向上的相对短连续挥动手势,该方向与从顶部候选词“friend”开始的“friendship”的方向相同,在图2的示例中,其到左侧。在一个示例中,UI模块6可以基于手势的长度,将手势26识别为与沿着路径20的挥动手势分立的手势。手势26的长度可以足够长,使得UI设备4可以检测到手指的运动,并且UI模块6可以确定从挥动路径20的结束28开始的运动方向,同时还可以足够短,使得用户的手指不达到与图形键盘14的另一个键相对应的存在敏感显示器的位置。响应于UI模块6识别手势26并且确定UI设备4不再检测到用户的手指的存在,UI设备6可以在文本输入区域16处输出候选词“friendship”以显示,如图2中所示。
在另一个示例中,计算设备2可以响应于到挥动路径20的结束28的右侧的短挥动手势的指示并且然后抬高用户的手指并且远离存在敏感显示器,而选择候选词“friends”。另外,在一个示例中,计算设备2可以响应于在从挥动路径20的结束28开始的一个方向上接收短挥动手势的指示,并且然后抬高用户的手指并且远离存在敏感显示器,选择除了第一顶部候选词之外的第二候选词。计算设备2可以响应于在从结束28开始的相同方向上稍微更多地接收手势挥动的指示,选择除了顶部候选词之外的第三候选词。
图3和图4是示出附加示例的GUI 12的框图,其中,计算设备响应于接收到部分手势的指示,选择除了顶部候选词之外的所确定的候选词中的一个。在图3和图4的示例中,UI模块6控制UI设备4输出候选词作为被显示为GUI 12的一部分的饼状菜单结构的一部分。另外,图3和图4的示例预期文本预测模块10确定包括一个顶部候选词的多于三个候选词的情况。
在图3的示例中,计算设备2可以接收部分手势的指示,以通过以与图1所示的类似方式沿着挥动路径20挥动,选择与字母f-r-i-e相对应的图形键盘14的键。在UI设备4例如在在图形键盘14的“e”键附近的存在敏感显示器处的位置相对应的挥动路径20的结束处检测到用户手指时或之前,文本预测模块10基于挥动手势确定四个候选词,包括“friend”、“friends”、“friendship”和“fries”。在图3中,文本预测模块10基于由用户提供的部分手势,再次确定“friend”是用于正确词的顶部候选词。在UI设备4在与在图形键盘14的“e”键附近的存在敏感显示器处的位置相对应的挥动路径20的结束处检测到用户手指时或之前,UI模块6控制UI设备4在饼状菜单30中输出候选词以显示,使得“friendship”出现在“friend”左侧,“friends”出现在“friend”右侧,并且“fries”出现在“friend”之上。
在例如用户想要输入“fries”而不是顶部候选词“friend”的情况下,作为沿着路径20的挥动手势的一部分或者在沿着路径20的挥动手势之后,用户可以提供另一个手势。在图3的示例中,计算设备2可以在挥动路径20的结束28处接收短挥动手势32的指示。手势32可以包括在从挥动路径20的结束28开始的方向上的相对短连续挥动手势,该方向与从顶部候选词“friend”开始的“fries”的方向相同,在图2的示例中,其是向上。响应于UI模块6识别手势32并且确定UI设备4不再检测到用户的手指的存在,UI设备6可以在文本输入区域16处输出候选词“fries”以显示,如图3中所示。在另一个示例中,响应于接收到短挥动手势到挥动路径20的结束28的左侧的指示并且然后确定用户的手指抬高并且远离存在敏感显示器,计算设备2可以选择候选词“friends”。在另一个示例中,响应于接收短挥动手势到挥动路径20的结束28的右侧的指示并且然后确定用户的手指抬高并且远离存在敏感显示器,计算设备可以选择候选词“friends”。
图4的示例包括UI模块6控制UI设备4输出包括“friend”、“friends”、“friendship”和“fries”的四个候选词作为被显示为GUI12的一部分的饼状菜单30的一部分的另一个示例。然而,在图4的示例中,UI模块6控制UI设备4在至少部分地基于在挥动路径20的结束28处由UI设备4检测的用户的手指的位置的位置处,输出饼状菜单30。在这样的情况下,用户便利地和有效地提供不同于以上参考图2和图3的示例描述的短挥动手势的手势。计算设备2可以例如接收将对与显示用户想要输入的候选词的位置相对应的存在敏感显示器的位置的附加挥动添加至沿着路径20的挥动手势的结束28的指示。在图4的示例中,计算设备2可以接收从挥动路径20的结束28开始的向上挥动手势34的指示,以输入候选词“fries”。
图4的示例可以不在所有用例中被采用。例如,在一些情况下,在至少部分地基于在挥动路径20的结束28处由UI设备4检测的用户的手指的位置的位置处输出饼状菜单30可以使得饼状菜单30妨碍图形键盘14的重要部分的查看。然而,在以下示例中,可以采用不妨碍图形键盘14的技术:其中,例如,由用户提供的部分挥动手势的结束在与键盘14的顶行中的图形键盘14的键(例如,对应于图4的示例中的字母q、w、e、r、t、y、u、i、o、p的键)相对应的UI设备4的存在敏感显示器的位置处。
图2至图4的示例在可操作地耦合至计算设备的显示设备处提供计算设备输出候选词的图形呈现。这些示例仅是示例性的,并且根据本公开的示例可以包括候选词的其他图形呈现。例如,UI模块6可以控制UI设备4在图形键盘14之上的某处输出有序或无序列表中的多个候选词以显示。在这样的示例中,用户可以通过提供例如轻击手势的手势以在提供部分挥动手势之后从列表选择词中的一个,文本预测模块10基于其确定列表中的被输出以显示候选词,来输入除了顶部候选词之外的候选词。
图5是示出根据本公开的一个或多个技术的图1中所示的计算设备的一个示例的进一步细节的框图。图5仅示出如图1中所示的计算设备2的一个示例,并且计算设备2的许多其他示例可以在其他实例中使用。
如图5的示例中所示,计算设备2包括一个或多个处理器40、一个或多个输入设备42、一个或多个通信单元44、一个或多个输出设备46、一个或多个存储设备48、以及UI设备4。在一个示例中,计算设备2进一步包括可由计算设备2执行的UI模块6、键盘模块8、文本预测模块10、以及操作系统54。组件4、40、42、44、46和48中的每个(物理地、通信地、和/或可操作地)都用于组件间通信。在一些示例中,通信信道50可以包括系统总线、网络连接、进程间通信数据结构、或用于传输数据的任何其他方法。作为图5中的一个示例,组件4、40、42、44、46和48可以通过一个或多个通信信道50耦合。UI模块6、键盘模块8、以及文本预测模块10还可以相互以及与计算设备2中的其他组件传输信息。
在一个示例中,处理器40被配置成实现用于在计算设备2内执行的功能和/或处理指令。例如,处理器40能够处理存储在存储设备48中的处理指令。处理器40的示例可以包括微处理器、控制器、数字信号处理器(DSP)、专用集成电路(ASIC)、场可编程门阵列(FPGA)、或等效离散或集成逻辑电路中的任一个或多个。
一个或多个存储设备48可以被配置成在操作期间存储在计算设备2内的信息。在一些示例中,存储设备48被描述为计算机可读存储介质。在一些示例中,存储设备48是瞬时存储器,意味着存储设备48的主要目的不是长期存储。在一些示例中,存储设备48被描述为易失性存储器,意味着当计算机被关闭时,存储设备48不保持所存储的内容。易失性存储器的示例包括随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、以及本领域中已知的其他形式的易失性存储器。在一些示例中,存储设备48被用于存储用于由处理器40执行的程序指令。在一个示例中,存储设备48由计算设备2上运行的软件或应用(例如文本预测模块10)使用,以在程序执行期间暂时存储信息。
在一些示例中,存储设备48还包括一个或多个计算机可读存储介质。存储设备48可以被配置成存储比易失性存储器更大量的信息。存储设备48可以进一步被配置用于信息的长期存储。在一些示例中,存储设备48包括非易失性存储元件。这样的非易失性存储元件的示例包括磁性硬盘、光盘、软盘、闪存、或电可编程存储器(EPROM)或电可擦除可编程(EEPROM)存储器的形式。
图1至图5的示例参考由例如UI模块6、键盘模块8和文本预测模块10的多个模块执行的功能被描述。然而,在根据该设备的其他示例中,归因于这样的特定模块的功能可以在更多、更少和/或不同模块中被实现。另外,在一些示例中,功能可以不分布在物理或逻辑模块之间被,而是可以基于存储在存储设备48上的指令和数据由例如处理器40执行。另外,虽然UI模块6、键盘模块8、以及文本预测模块10在图5的示例中被示出为存储设备46的一部分,在其他示例中,UI模块6、键盘模块8、以及文本预测模块10可以分离于存储设备46被实现,包括例如在被配置成执行归因于在在此公开的示例中的模块的功能的离散硬件组件中被实现。
在一些示例中,计算设备2还包括一个或多个通信单元44。在一个示例中,计算设备2利用通信单元44经由诸如一个或多个无线网络的一个或多个网络与外部设备通信。通信单元44可以是网络接口卡,诸如以太网卡、光学收发器、射频收发器、或可以发送和接收信息的任何其他类型的设备。这样的网络接口的其他示例可以包括蓝牙、3G和WiFi无线电计算设备、以及通用串行总线(USB)。在一些示例中,计算设备2利用通信单元44与诸如服务器的外部设备无线地通信。
在一个示例中,计算设备2还包括一个或多个输入设备42。在一些示例中,输入设备42被配置成经由触觉、音频、或视频反馈,从用户接收输入。输入设备42的示例包括存在敏感显示器、鼠标、键盘、语音响应系统、视频相机、麦克风或用于检测来自用户的命令的任何其他类型的设备。在一些示例中,存在敏感显示器包括触摸敏感屏幕。
一个或多个输出设备46还可以包括在计算设备2中。在一些示例中,输出设备46被配置成使用触觉、音频或视频刺激,向用户提供输出。在一个示例中,输出设备46包括存在敏感显示器、声卡、视频图形适配卡、或者用于将信号转换为人类或机器可理解的合适形式的任何其他类型的设备。输出设备46的附加示例包括扬声器、阴极射线管(CRT)监视器、液晶显示器(LCD)、或可以向用户生成可理解输出的任何其他类型的设备。在一些示例中,UI设备4可以包括输入设备42和/或输出设备46的功能。在图5的示例中,UI设备4可以是触摸敏感屏幕。
在一个示例中,输出设备46包括被配置成结合根据本公开的示例的一个或多个方面将可听输出提供给用户的扬声器。例如,响应于由UI设备4检测输入单元的存在并且当在例如存在敏感显示器处检测到输入单元时,包括在输出设备46中的扬声器可以基于由UI模块6识别的部分手势,可听地输出由文本预测模块10确定的候选词。
计算设备2可以包括操作系统54。在一些示例中,操作系统54控制计算设备2的组件的操作。例如,在一个示例中,操作系统54便于UI模块6、键盘模块8、和/或文本预测模块10与处理器40、通信单元44、存储设备48、输入设备42和输出设备46的通信。UI模块6、键盘模块8、以及文本预测模块10可以每个都包括可由计算设备2执行的程序指令和/或数据。作为一个示例,UI模块6可以包括使计算设备2执行在本公开中描述的一个或多个操作和动作的指令。
计算设备2可以包括附加组件,为了清楚起见,在图5中未示出。例如,计算设备2可以包括电池,以向计算设备2的组件供电。类似地,图5中所示的计算设备2的组件在计算设备2的每一个示例中可能不是必须的。例如,在一些配置中,计算设备2可以不包括通信单元44。
通常,通过允许用户执行指示词的所有字符的单个连续手势,而不是要求用户执行用于词的每个字符的离散手势,手势键盘可以不同于其他图形键盘。响应于检测到该手势,计算设备2可以确定键盘上与由手势跟踪的路径相对应的一系列键。例如,用户可以使用跟踪依序穿过在计算设备1的诸如UI设备4的存在敏感显示器处输出的“f”、“r”、“i”、“e”、“n”和“d”键的路径的单个手势,来输入词“friend”。计算设备2可以被配置成当手势完成时(即,在用户手指或其他输入单元抬高并且远离存在敏感显示器之后),发起词识别技术。
计算设备2可以被配置成在手势完成之前,开始词识别。例如,计算设备2可以在检测到穿过沿着仅包括conference的十个字母中的四个字母(即“c”、“o”、“n”和“f”)的路径的手势之后,预测词conference。在一些实现中,计算设备2可以输出一个或多个预测词用于由用户选择(即,确认)。为了用户选择期望词,用户在显示预测词的虚拟键盘的不同位置处执行附加手势。
在一些示例中,计算设备2可以输出“顶部”候选词(例如,被确定为具有为用户想要输入的词的最高概率的词)以显示,或者可以在显示设备处显示多个词候选词。在显示多个词的示例中,本公开的技术使能用户基于在通过手势的终止显示候选词之后执行的手势的方向或其他特征,来选择除了顶部候选词之外的候选词中的一个。例如,用户挥动经过f-r-i-e的以上示例中的顶部候选词可以是friend,并且第二候选词可以是friends。根据所公开的示例,用户可以在显示候选词之后,通过将输入单元稍微移动到右侧并且抬高且远离计算设备的存在敏感显示器,来选择词“friends”。
计算设备2可以在手势完成之后,在图形用户界面(GUI)的词建议条部分中输出识别结果以显示。通常,词建议条位于GUI内的图形键盘之上并且与输入单元的位置分离。不要求用户将注意力从输入单元位置切换至键盘的顶部以检验识别结果,其可能对于用户不有效并且使得这样的手势键盘倾向于错误,计算设备2可以直接在输入单元的被检测位置之上(或关于输入单元的被检测位置的另一个位置)输出识别结果,例如候选词以显示。在一个示例中,当输入单元的被检测位置改变时,计算设备2更新识别结果被显示使得识别结果看起来随输入单元的运动一起移动的位置。在输入单元的位置处或附近显示识别结果可以允许用户更好地保持识别结果的跟踪,而不切换焦点。
所公开的示例可以提供多个特征和优点。例如,根据本公开,图形键盘允许部分手势识别,计算设备通过其可以输出预测文本识别结果,并且完成词或其他文本的输入,而不要求用户执行沿着包括词的所有字母的路径行进的手势。本公开的部分手势词识别和选择技术可以节省时间,并且更有效、准确和令人愉快地在移动计算设备上进行文本输入。另外,例如由设备从部分手势识别的候选词的识别结果可以邻近输入单元被显示,部分手势通过其在计算设备的存在敏感显示器处被接收。例如,识别结果可以显示正好在指尖之上,用户通过其在计算设备的存在敏感显示器处输入文本。在这样的示例中,用户可能不需要切换交互焦点以检验识别结果,其可以使得文本输入过程更加有效并且不太倾向于错误。
根据本公开的技术,图5的示例性计算设备2可以允许用户通过绘制部分手势来输入词,计算设备2从其可以确定词,并且给用户提供捷径,其是接受由设备识别的候选词的相同部分手势的一部分。在一个示例中,计算设备2的UI设备4可以输出包括与各种符号相关联的多个键的图形键盘。由UI设备4输出的图形键盘的一些键可以表示用户可以在UI设备4处输入文本的字母。计算设备2的UI模块6可以识别来自用户的手势,以至少部分地基于UI设备4检测到输入单元,例如在形成UI设备4的一部分的存在敏感显示器的多个位置处的用户的指尖,选择图形键盘的至少两个键。响应于在显示器的位置处检测到输入单元并且在存在敏感显示器处仍然由UI设备4检测到输入单元时,文本预测模块10可以至少部分地基于至少两个键确定用于所识别手势的候选词,并且将该词或表示该词的数据传输至UI模块6,其然后可以控制UI设备4在存在敏感显示器的第一位置处输出候选词以显示。响应于确定在存在敏感显示器处不再检测到输入单元,UI设备4可以在存在敏感显示器的第二位置处输出所显示的候选词以显示。
以上述方式,用户可以使用利用用户的手指或另一个输入单元的部分挥动手势,以选择对应于词的一些但不是所有字母的图形键盘的键,并且然后抬高用户的手指并且远离UI设备4的存在敏感显示器,来在计算设备2处输入词。另外,用户可以采用部分手势,以如以上参考图2至图4的示例描述的类似方式,在图5的示例性计算设备2处输入除了顶部候选词之外的多个所确定的候选词中的一个。
在一些示例中,计算设备2包括语言模型53。语言模型3可以包括词典。在一些示例中,词典可以包括词的列表,并且可以包括关于所列词的附加信息。词典可以由一范围的数据结构表示,诸如阵列、列表和/或树。例如,语言模型53可以包括以Trie树数据结构存储的词典。词典Trie树数据结构可以包含多个节点,每个节点都可以表示字母。词典Trie树中的第一节点可以被称为输入节点,其可以不对应于字母。在其他示例中,输入节点可以对应于字母。每个节点可以具有一个或多个子节点。例如,输入节点可以具有二十六个子节点,每个节点对应于英文字母表的一个字母。
词典Trie树中的节点的子集可以每个都包括指示节点是终端节点的标记。词典Trie树的每个终端节点可以指示完整词(例如,候选词)。由沿着从输入节点到终端节点的节点路径的节点指示的字母可以拼写出由终端节点指示的词。在一些示例中,语言模型53可以是安装在计算设备2上的默认词典。在其他示例中,语言模型53可以包括多个词典源,其可以被存储在计算设备2处或者存储在一个或多个远程计算设备处,并且计算设备2经由一个或多个通信信道可访问。
在一些示例中,语言模型53可以被实现在计算设备2的固件中。语言模型53可以包括语言模型频率信息,诸如n元语言模型。n元语言模型可以依序地基于序列中的先前项,提供连续序列项中的项xi(字母或词)的概率分布(即P(xi|xi-(n-1),…,xi-i)。例如,二元语言模型(n元模型,其中n=2)可以提供字母“i”接着序列“fr”的概率。在一些示例中,语言模型53包括具有综合语言模型频率信息的词典Trie树。例如,词典Trie树的每个节点可以包括字母和概率值的表示。
当用户执行手势时,文本预测模块10可以递增地确定由手势指示的词。在一个示例中,模块6可以使UI设备4显示GUI。用户可能期望将例如词“friend”的文本输入到GUI的文本输入区域中。根据本公开的技术,用户可以在由计算设备输出以显示的图形键盘处执行手势。在一个示例中,手势可以是用户的手指接近UI设备4移动使得由手指执行的手势贯穿手势的执行被UI设备4检测的连续动作。在不同示例中,用户可以移动他/她的手指接近UI设备4,使得手指被UI设备4暂时被检测,并且然后用户的手指远离UI设备4移动,使得手指不再被检测到。手势可以包括多个部分。在一些示例中,手势可以通过基本相等的持续时间被划分为多个部分。在手势包括多个部分的情况下,手势可以包括最终部分,其可以是在检测到手势完成之前检测到的手势的部分。例如,手势的一部分可以被指定为最终部分,其中,用户远离UI设备4移动他/她的手指,使得手指不再被检测到。
在用户执行手势以选择多个键中的一组键时,UI模块6可以在存在敏感显示器处检测到具有手势路径的手势。用户可以通过跟踪经过或接近对应于期望词的字符(即,由“F”键、“R”键和“I”键表示的字符)的图形键盘的键的手势路径,来执行手势。UI模块6可以将指示手势路径的数据发送至文本预测模块10。在一些示例中,当手势路径由UI设备检测并且由UI模块6接收时,UI模块6将指示手势路径的数据递增地发送至文本预测模块10。例如,当手势路径由UI模块4检测并且由UI模块6接收时,UI模块6可以将指示手势路径的坐标对的流发送至文本预测模块10。
响应于从UI模块6接收到表示手势路径的数据,文本预测模块10可以确定候选词。候选词可以是向用户建议的由与由手势路径指示的键相对应的一组字符构成的词。该组键可以基于手势路径和词典被确定。文本预测模块10可以通过确定手势路径穿过的一组对准点,确定用于多个键中的至少两个键中的每个的相应成本值,并且比较用于多个键中的至少两个键中的至少每个的相应成本值,来确定候选词,如以下进一步描述的。
对准点是沿着手势路径的点,其可以指示多个键中的一个键。对准点可以包括与对准点的所确定的位置相对应的一个或多个坐标。例如,对准点可以包括与由计算设备2输出的图形用户界面中的点相对应的笛卡尔坐标。
在一些示例中,文本预测模块10基于与手势路径相关的多个特征来确定由手势路径穿过的该组对准点。与手势路径相关的多个特征可以包括一段手势路径的长度。例如,文本预测模块10可以从先前对准点和当前对准点确定沿着手势片段的长度。为了更好地对准,长度将更接近两个相应键盘字母之间的直线距离。
在另一个示例中,文本预测模块10可以确定从手势路径的第一点到第二点的段的方向,以确定一组对准点。为了更好地对准,该段的方向将更接近两个相应键盘字母之间的直线的方向。
在一些示例中,文本预测模块10可以确定用于包括在图形键盘中的多个键中的至少两个键中的每个的相应成本值。相应成本值中的每个都可以表示对准点指示键的概率。在一些示例中,相应成本值可以基于手势路径的物理位置、对准点、和/或键。例如,相应成本值可以基于参考键的物理位置的对准点的物理位置。
文本预测模块10可以使用一个或多个空间模型,例如空间模型55,以选择候选词。文本预测模块10可以使用空间模型55,以确定图形键盘的特定键已由用户基于对准点选择的一个或多个概率。在一些示例中,空间模型55包括用于特定键的双变量高斯模型。用于键的双变量高斯模型可以包括与显示给定键的UI设备4的位置相对应的坐标(例如,(x,y)坐标对)的分布。更具体地,在一些示例中,用于键的双变量高斯模型可以包括与当用户想要选择给定键时由用户最频繁选择的UI设备4的位置相对应的坐标的分布。
在一些示例中,相应成本值可以基于语言模型53。例如,相应成本值可以基于第二键将在第一键之后被选择的概率(例如,“r”键将在“f”键之后被选择的概率)。在一些示例中,对其确定相应成本值的键至少部分地基于语言模型53被选择。在一些示例中,成本值较低,其中存在对准点指示键的更大可能性。在其他示例中,成本值较高,其中存在对准点指示键的更大可能性。
在图1的示例中,文本预测模块10可以确定表示第一对准点指示“F”键的概率的第一成本值和表示第一对准点指示“G”键(例如,还接近可以穿过“F”键的一部分的手势路径)的概率的第二成本值。类似地,文本预测模块10可以确定表示第二对准点指示“R”键的概率的第三成本值和表示第二对准点指示“T”键(例如,还接近可能穿过“T”键的一部分的手势路径)的概率的第三成本值。最后,文本预测模块10可以确定表示第三对准点指示“I”键的概率的第五成本值和表示第三对准点指示“U”键(例如,还接近可能穿过“I”键的一部分的手势路径)的概率的第六成本值。
文本预测模块10可以比较用于多个键中的至少两个键的相应成本值,以确定具有结合成本值的键的结合。结合成本值可以表示手势路径指示键的结合的概率。文本预测模块10可以比较用于多个键中的至少两个键的相应成本值,以确定至少两个键中的哪个由对准点指示。文本预测模块10可以通过确定哪些键由每个对准点指示,来确定键的结合。在一些示例中,文本预测模块10确定至少两个键中的哪个由对准点指示,而不考虑哪些键由其他对准点指示。在其他示例中,文本预测模块10基于哪些键由其他对准点指示,来确定至少两个键中的哪个由对准点指示。在这样的示例中,文本预测模块10可以基于用于当前对准点的相应成本值,来修改哪个键由先前对准点指示的确定。
在一些示例中,文本预测模块10可以比较键的所确定结合的结合成本值与阈值。在一些示例中,阈值是键的不同所确定结合的结合成本值。例如,文本预测模块10可以确定具有第一结合成本值的键的第一结合以及具有第二结合成本值的键的第二结合。在这样的示例中,文本预测模块10可以确定候选词基于具有较低结合成本值的键的结合。在图5的示例中,文本预测模块10可以比较所确定的相应成本值(即,第一、第二、第三、第四、第五和第六),以确定具有结合成本值的键的结合(即,“F”、“R”和“I”)。
在一些示例中,文本预测模块10在UI设备4完成检测手势路径的时间之前,开始确定候选词。不同于在UI设备4完成检测手势路径之后确定候选词,文本预测模块10可以在手势路径被检测时确定多个词,诸如,“fries”、“friend”和“friendship”。文本预测模块10可以在手势路径被检测时同时修改所确定的多个词,诸如将“fries”修改为“friend”。而且,不同于基于手势的几何形状来确定候选词,本公开的技术可以基于由手势指示的一组字符来确定候选词。文本预测模块10可以将所确定的词发送至UI模块6,其然后可以使UI设备4在GUI 12的文本输入区域14中显示词“now”。用于部分手势词预测的其他合适示例性技术的附加细节在于2013年1月4日提交的名为“INCREMENTAL FEATURE-BASED GESTURE-KEYBOARDDECODING”的美国申请序列号No.13/734,810中描述,并且其全部内容通过引用合并于此。
根据本公开的技术,文本预测模块10可以接收用于选择对应于字符“frie”的键的手势的指示。例如,用户可能希望输入词“friend”,并且因而开始执行连续挥动手势,以选择对应于字符“frie”的键。使用上述技术,文本预测模块10可以确定包括“fries”、“friend”和“friendship”的一组候选词,其可以被输出以显示。当手势穿过对应于字符“frie”的键时,候选词“friend”可以与同三个候选词中的每个相关联的结合成本值中的最低结合成本值相关联。因而,计算设备2可以接近检测用户的手指的当前位置的UI设备4的位置,输出“friend”以显示。因为最高概率候选接近用户的手指的当前位置被显示,看到期望词被指示为最高概率候选的用户可以从在UI设备4处的检测移除用户的手指,以选择该词。响应于通过从在UI设备4处的检测移除用户的手指来确定用户已经终止手势,文本预测模块10可以选择所输入的“friend”作为输入词。
图6是示出用于在输出采用部分手势的图形键盘的计算设备处输入词的示例性过程的流程图。图6的示例性过程包括:输出包括多个键的图形键盘以在可操作地耦合至计算设备的存在敏感显示器处显示(100);响应于所述检测并且在存在敏感显示器处检测到输入单元时,至少部分地基于在存在敏感显示器的多个位置处检测到输入单元,通过计算设备识别手势,以选择多个键中的至少两个(102);通过计算设备,至少部分地基于至少两个键,为所识别的手势确定候选词(104);以及在存在敏感显示器的第一位置处输出候选词以显示(106);以及响应于确定在存在敏感显示器处不再检测到输入单元,在存在敏感显示器的第二位置处输出所显示的候选词以显示(108)。
图6的示例性过程可以由一个或多个计算设备执行,包括例如图1和图5的示例性计算设备2。在图6的过程的一个示例中,计算设备2的UI设备4被配置成输出包括与各种符号相关的多个键的图形键盘。由UI设备4输出的图形键盘的一些键可以表示用户可以在UI设备4处输入文本的字母。计算设备2的UI模块6可以识别来自用户的手势,以至少部分地基于UI设备检测到输入单元,例如在形成UI设备4的一部分的存在敏感显示器的多个位置处的用户的指尖,来选择图形键盘的至少两个键。响应于在显示器的位置处检测到输入单元并且UI设备4在存在敏感显示器处仍然检测到输入单元时,文本预测模块10可以至少部分地基于至少两个键为所识别的手势确定候选词,并且将该词或表示该词的数据传输至UI模块6,其然后可以控制UI设备4,以在存在敏感显示器的第一位置处输出候选词以显示。响应于确定在存在敏感显示器处不再检测到输入单元,UI设备4可以在存在敏感显示器的第二位置处输出所显示的候选词以显示。
在一个示例中,UI模块6输出候选词以显示的第一位置可以包括至少部分地基于执行所识别的手势的输入单元的被检测位置的存在敏感显示器的位置。例如,存在敏感显示器的第一位置可以为与执行所识别的手势的输入单元的被检测位置相离的阈值距离。在一个示例中,第一位置包括至少部分地基于在存在敏感显示器的多个位置处检测到输入单元的的存在敏感显示器的多个不同位置。
在一个示例中,文本预测模块10可以至少部分地基于图形键盘的至少两个键,来为所识别的手势确定多于一个候选词。文本预测模块10可以将附加候选词或表示该词的数据传输至UI模块6,其然后可以控制UI模块4在第一候选词被输出以显示的第一位置附近或远离其的存在敏感显示器的一个或多个位置处输出候选词以显示。在这样的情况下,UI模块6可以识别另一个手势,以相对于第一候选词选择附加候选词中的一个。响应于识别其他手势以相对于第一候选词选择其他候选词中的一个,并且确定在存在敏感显示器处不再检测到输入单元,UI模块6可以控制UI设备4在存在敏感显示器的位置处,例如在文本输入区域16处,输出第二候选词以显示。
在除了输出候选词以显示之外的一些示例中,计算设备2可以通过其他装置将词传输至用户。例如,响应于由UI设备4检测到输入单元的存在并且在UI设备4的存在敏感显示器处检测到输入单元时,包括在计算设备2的输出设备46中的扬声器可以基于由UI模块6识别的部分手势,可听地输出由文本预测模块10确定的候选词。
图7是示出根据本公开的一个或多个技术的在远程设备处输出图形内容以显示的示例性计算设备的框图。图形内容通常可以包括可以被输出以显示的任何视觉信息,诸如文本、图像、一组运动图像等。图7中所示的示例包括计算设备120、存在敏感显示器122、通信单元124、投影仪136、投影屏138、平板设备142和视觉显示设备146。
虽然为了示例的目的在图1和图5中被示出为独立计算设备2,但是计算设备通常可以是包括处理器或用于执行软件指令的其他合适计算环境并且例如不需要包括存在敏感显示器的任何组件或系统。如图7的示例中所示,计算设备120可以是包括如关于图5中的处理器40描述的功能的处理器。在图7的示例中,计算设备120可以通过通信信道126A可操作地耦合至存在敏感显示器122,通信信道126A可以是系统总线或其他合适连接。计算设备120还可以通过通信信道126B可操作地耦合至以下进一步描述的通信单元124,通信信道126B也可以是系统总线或其他合适连接。虽然在图7的示例中单独示出,但是计算设备120可以通过一个或多个通信信道中的任何数量的通信信道,可操作地耦合至存在敏感显示器122和通信单元124。
存在敏感显示器122可以包括显示设备123A和存在敏感输入设备123B。显示设备123A可以例如从计算设备120接收数据,并且显示图形内容。在一些示例中,存在敏感输入设备123B可以使用电容、电感、和/或光学识别技术,确定在存在敏感显示器122处的一个或多个用户输入(例如连续手势、多触摸手势、单触摸手势等),并且使用通信信道126A将这样的用户输入的指示发送至计算设备120。在一些示例中,存在敏感输入设备123B可以在物理上位于显示设备123A的顶部上,使得当用户将输入单元定位在由显示设备123A显示的图形元件上时,存在敏感输入设备123B的位置对应于显示图形元件的显示设备123A的位置。
如图7中所示,通信单元124可以包括如图5中描述的通信单元44的功能。通信单元124的示例可以包括网络接口卡、以太网卡、光学收发器、射频收发器、或可以发送和接收信息的任何其他类型的设备。这样的通信单元的其他示例可以包括蓝牙、3G、以及WiFi无线电设备、通用串行总线(USB)接口等。计算设备120还可以包括一个或多个其他设备和/或与一个或多个其他设备可操作地耦合,例如为了简短和说明的目的,在图7中未示出的输入设备、输出设备、存储器、存储设备等。
图7还示出投影仪136和投影屏138。投影设备的其他这样的示例可以包括电子白板、全息显示设备、以及用于显示图形内容的任何其他合适设备。投影仪136和投影屏138可以包括一个或多个通信单元,其使能相应设备与计算设备120通信。在一些示例中,一个或多个通信单元可以使能投影仪136和投影屏138之间的通信。投影仪136可以从计算设备120接收包括图形内容的数据。响应于接收到数据,投影仪136可以将图形内容投影到投影屏138上。在一些示例中,投影仪136可以使用光学识别或其他合适技术,确定在投影屏处的一个或多个用户输入(例如连续手势、多触摸手势、单触摸手势等),并且使用一个或多个通信单元将这样的用户输入的指示发送至计算设备120。
在一些示例中,投影屏138可以包括存在敏感显示器140。存在敏感显示器140可以包括如在本公开中描述的UI设备4的功能的子集或所有功能。在一些示例中,存在敏感显示器140可以包括附加功能。投影屏138(例如电子白板)可以从计算设备120接收数据,并且显示图形内容。在一些示例中,存在敏感显示器140可以使用电容、电感和/或光学识别技术,确定投影屏138处的一个或多个用户输入(例如连续手势、多触摸手势、单触摸手势等),并且使用一个或多个通信单元将这样的用户输入的指示发送至计算设备120。
图7还示出平板设备142和视觉显示设备146。平板设备142和视觉显示设备146可以每个都包括计算和连接能力。平板设备142的示例可以包括电子读取器设备、可折叠笔记本设备、混合平板设备等。视觉显示设备146的示例可以包括电视、计算机监视器等。如图7中所示,平板设备142可以包括存在敏感显示器144。视觉显示设备146可以包括存在敏感显示器148。存在敏感显示器144、148可以包括如在本公开中描述的UI设备4的功能的子集或所有功能。在一些示例中,存在敏感显示器144、148可以包括附加功能。在任何情况下,存在敏感显示器144例如可以从计算设备120接收数据,并且显示图形内容。在一些示例中,存在敏感显示器144可以使用电容、电感、和/或光学识别技术,确定在投影屏处的一个或多个用户输入(例如连续手势、多触摸手势、单触摸手势等),并且使用一个或多个通信单元将这样的用户输入的指示发送至计算设备120。
如上所述,在一些示例中,计算设备120可以在通过系统总线或其他合适通信信道耦合至计算设备120的存在敏感显示器122处,输出图形内容以显示。计算设备120还可以在诸如投影仪130、投影屏138、平板设备142、以及视觉显示设备146的一个或多个远程设备处,输出图形内容以显示。例如,计算设备120可以执行一个或多个指令,以根据本公开的技术生成和/或修改图形内容。计算设备120可以将包括图形内容的数据输出到计算设备120的通信单元,诸如通信单元124。通信单元124可以将数据发送至一个或多个远程设备,诸如投影仪136、投影屏138、平板设备142、和/或视觉显示设备146。以此方式,计算设备120可以在一个或多个远程设备处输出图形内容以显示。在一些示例中,一个或多个远程设备可以在包括在和/或可操作地耦合至相应远程设备的存在敏感显示器处输出图形内容。
在一些示例中,计算设备120可以不在可操作地耦合至计算设备120的存在敏感显示器122处输出图形内容。在其他示例中,计算设备120可以在通过通信信道126A耦合至计算设备120的存在敏感显示器122处并且在一个或多个远程设备处,输出图形内容以显示。在这样的示例中,图形内容可以基本同时被显示在每个相应设备处。例如,某个延迟可能由将包括图形内容的数据发送至远程设备的通信时延引入。在一些示例中,由计算设备120生成并且在存在敏感显示器122处被输出以显示的图形内容可以不同于在一个或多个远程设备处被输出以显示的图形内容显示。
计算设备120可以使用任何合适通信技术发送和接收数据。例如,计算设备120可以使用网络链路128A可操作地耦合至外部网络132。图7中所示的每个远程设备都可以通过相应网络链路128B、128C、以及128D中的一个可操作地耦合至网络外部网络132。外部网络132可以包括网络集线器、网络交换机、网络路由器等,其被可操作地相互耦合,由此提供用于在图7中所示的计算设备120和远程设备之间的信息的交换。在一些示例中,网络链路128A-128D可以是以太网、ATM或其他网络连接。这样的连接可以是无线和/或有线连接。
在一些示例中,计算设备120可以使用直接设备通信134可操作地耦合至包括在图7中的一个或多个远程设备。直接设备通信134可以包括计算设备120使用有线或无线通信与远程设备直接发送和接收数据的通信。也就是说,在直接设备通信134的一些示例中,由计算设备120发送的数据在远程设备处被接收之前,可以不被一个或多个附加设备转发,并且反之亦然。直接设备通信134的示例可以包括蓝牙、近场通信、通用串行总线、WiFi、红外线等。图7中所示的一个或多个远程设备可以通过通信链路130A-130D与计算设备120可操作地耦合。在一些示例中,通信链路130A-130D可以是使用蓝牙、近场通信、通用串行总线、红外线等的连接。这样的连接可以是无线和/或有线连接。
根据本公开的技术,计算设备120可以使用外部网络132可操作地耦合至视觉显示设备146。计算设备120可以在存在敏感显示器148处输出图形键盘以显示。例如,计算设备120可以将包括图形键盘的表示的数据发送至通信单元124。通信单元124可以使用外部网络132将包括图形键盘的表示的数据发送至视觉显示设备146。响应于使用外部网络132接收数据,视觉显示设备146可以使存在敏感显示器148输出图形键盘。响应于用户至少部分地基于在存在敏感显示器148的多个位置处检测到输入单元而在存在敏感显示器148处执行手势,以选择图形键盘的多个键中的至少两个,视觉显示设备146可以使用外部网络114将手势的指示发送至计算设备100。通信单元124可以接收手势的指示,并且将指示发送至计算设备120。
响应于所述检测并且在存在敏感显示器148处检测到输入单元时,计算设备120可以至少部分地基于至少两个键来为手势确定候选词。在一些示例中,计算设备120可以在存在敏感显示器148的第一位置处输出候选词以显示。例如,计算设备120可以将数据发送至通信单元124,其进而将数据发送至视觉显示设备146,该数据使存在敏感显示器148在存在敏感显示器148的第一位置处显示候选词。
用户可以随后从在存在敏感显示器148处的检测去除其手指。响应于确定在存在敏感显示器148处不再检测到手指,视觉显示设备146可以经由外部网络132将在存在敏感显示器148处不再检测到手指(例如输入单元)的指示发送至计算设备120。通信单元124可以接收被发送至计算设备120的指示。响应于确定在存在敏感显示器处不再检测到输入单元,计算设备120可以选择候选词。候选词可以是与基于一个或多个所选择的字符的最高概率相关联的词。计算设备120可以经由上述外部网络132将表示候选词的数据发送至视觉显示设备146。响应于接收到数据,视觉显示设备146可以在存在敏感显示器148的第二位置处输出候选词以显示。
示例1:一种方法,包括:由计算设备输出包括多个键的图形键盘以在显示设备处显示;由所述计算设备至少部分地基于在存在敏感输入设备的多个位置处检测到输入单元来接收在所述存在敏感输入设备处用于选择少于与候选词相对应的所有所述多个键的手势的指示;响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:由所述计算设备至少部分地基于所述至少两个键来为所述手势确定所述候选词;在所述显示设备的第一位置处输出所述候选词以显示;以及响应于确定在选择与所述候选词相对应的所有所述多个键之前所述手势已经终止,在所述显示设备的第二位置处输出所显示的候选词以显示。
示例2:示例1的方法,其中,所述第一位置包括至少部分地基于在所述存在敏感输入设备处执行所述手势的所述输入单元的被检测位置的所述显示设备的位置。
示例3:示例2的方法,其中,至少部分地基于执行所述手势的所述输入单元的被检测位置的所述显示设备的所述位置包括:与执行所述手势的所述输入单元的被检测位置相离阈值距离的所述显示设备的位置。
示例4:示例2的方法,其中,至少部分地基于执行所述手势的所述输入单元的被检测位置的所述显示设备的所述位置包括:至少部分地基于所述存在敏感输入设备的所述多个位置处检测到所述输入单元的所述显示设备的多个不同位置。
示例5:示例1至4中任一项的方法,其中,所述手势包括第一手势,并且所述候选词包括第一候选词,并且进一步包括响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:由所述计算设备至少部分地基于所述至少两个键来确定所述第一候选词和第二候选词;在所述显示设备的所述第一位置处输出所述第一候选词以显示;在所述显示设备的第三位置处输出所述第二候选词以显示;以及响应于识别用于相对于所述第一候选词选择所述第二候选词的第二手势,并且确定在所述存在敏感输入设备处不再检测到所述输入单元,在所述显示设备的所述第二位置处输出所述第二候选词以显示。
示例6:示例5的方法,其中,第三位置是不基于执行第一和第二手势的输入单元的被检测位置的显示设备的预定位置。
示例7:示例1至6中任一项的方法,其中,所述手势包括第一手势,并且所述候选词包括第一候选词,并且进一步包括响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:由所述计算设备至少部分地基于所述至少两个键来确定包括所述第一候选词的多个候选词;输出所述第一候选词以在所述显示设备的所述第一位置处显示;响应于识别用于相对于所述第一候选词选择所述多个候选词中的一个的第二手势并且确定在所述存在敏感输入设备处不再检测到所述输入单元,输出所述多个候选词中的所述一个以在所述显示设备的所述第二位置处显示。
示例8:示例7的方法,在所述显示设备的第三位置处输出所述多个候选词以显示。
示例9:示例8的方法,其中,第三位置是不基于执行第一和第二手势的所述输入单元的被检测位置的显示设备的预定位置。
示例10:示例1至9中任一项的方法,其中,第二位置是在计算设备处输入的文本被显示的所述显示设备的位置。
示例11:示例1至10中任一项的方法,进一步包括:响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时,在扬声器处可听地输出所述候选词。
示例12:示例1至11中任一项的方法,其中,所述候选词包括由所述计算设备为所述手势确定的多个候选词中具有作为由所述手势指示的正确词的最高概率的一个候选词。
示例13:示例1至12中任一个的方法,进一步包括:由所述计算设备在所述输入单元在所述存在敏感输入设备的阈值距离内时确定所述手势,以及响应于确定所述输入单元不再在所述存在敏感输入设备的所述阈值距离内,由所述计算设备确定所述手势已终止。
示例14:示例1至13中任一项的方法,进一步包括:响应于在所述存在敏感输入设备处不再检测到所述输入单元,由所述计算设备确定手势已经终止。
示例15:示例1至14中任一项的方法,其中,所述计算设备包括存在敏感显示器,所述存在敏感显示器包括所述存在敏感输入设备和所述显示设备。
示例16:一种计算设备,包括:至少一个处理器;存在敏感输入设备,所述存在敏感输入设备可操作地耦合至所述至少一个处理器,显示设备,所述显示设备可操作地耦合至所述至少一个处理器,其中,所述至少一个处理器被配置成:输出包括多个键的图形键盘以在所述显示设备处显示;至少部分地基于在所述显示设备的多个位置处检测到输入单元,接收用于选择所述多个键中的至少两个的手势的指示;响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:至少部分地基于所述至少两个键,为所述手势确定候选词;在所述显示设备的第一位置处输出所述候选词以显示;以及响应于确定在所述存在敏感输入设备处不再检测到所述输入单元,在所述显示设备的第二位置处输出所显示的候选词以显示。
示例17:示例16的计算设备,进一步包括:用于执行如示例2至15中任一项所述的方法的装置。
示例18:一种编码有指令的计算机可读存储介质,所述指令在被执行时使得计算设备的至少一个处理器:输出包括多个键的图形键盘以在显示设备处显示;由所述计算设备至少部分地基于在存在敏感输入设备的多个位置处检测到输入单元,来接收用于选择所述多个键中的至少两个的手势的指示;响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:由所述计算设备至少部分地基于所述至少两个键,为所述手势确定候选词;在所述显示设备的第一位置处输出所述候选词以显示;以及响应于确定在所述存在敏感输入设备处不再检测到所述输入单元,在所述显示设备的第二位置处输出所显示的候选词以显示。
示例19:示例18的计算机可读存储介质,进一步编码有可由至少一个处理器执行的指令,以执行如示例2至15中任一项所述的方法。
在本公开中描述的技术可以至少部分地在硬件、软件、固件或其任何结合中被实现。例如,所描述的技术的多个方面可以在一个或多个处理器内被实现,包括一个或多个微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、场可编程门阵列(FPGA)、或任何其他等效集成或离散逻辑电路、以及这样的组件的任何结合。术语“处理器”或“处理电路”通常可以指单独或结合其他逻辑电路的以上逻辑电路中的任一个、或任何其他等效电路。包括硬件的控制单元还可以执行本公开的一种或多种技术。
这样的硬件、软件和固件可以在相同设备内或分立设备内被实现,以支持在本公开中描述的多种技术。另外,所描述的单元、模块或组件中的任一个可以一起或单独作为离散但是可共同操作的逻辑设备被实现。不同特征被描述为模块或单元旨在突出不同功能方面,并且不必须暗示这样的模块或单元必须由分立硬件、固件、或软件组件实现。相反,与一个或多个模块或单元相关联的功能可以通过分立硬件、固件、或软件组件执行,或者被结合在公共或分立硬件、固件或软件组件内。
在本公开中描述的技术还可以在包括编码有指令的计算机可读存储介质的制造品中被具体化或编码。诸如当包括在或编码在计算机可读存储介质中的指令由一个或多个处理器执行时,在包括被编码的计算机可读存储介质的制造品中具体化或编码的指令可以使得一个或多个可编程处理器或其他处理器实现在此描述的一个或多个技术。计算机可读存储介质可以包括随机存取存储器(RAM)、只读存储器(ROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、闪存、硬盘、光盘ROM(CD-ROM)、软盘、磁带盒、磁性介质、光学介质、或其他计算机可读介质。在一些示例中,制造品可以包括一个或多个计算机可读存储介质。
在一些示例中,计算机可读存储介质可以包括非瞬时性介质。术语“非瞬时性”可以指示存储介质不被具体化为载波或传播信号。在某些示例中,非瞬时性存储介质可以存储可以随着时间改变的数据(例如,在RAM或高速缓存中)。
已描述了多种示例。这些和其他示例在所附权利要求的范围内。
Claims (19)
1.一种方法,包括:
由计算设备输出包括多个键的图形键盘以在显示设备处显示;
由所述计算设备至少部分地基于在存在敏感输入设备的多个位置处检测到输入单元来接收在所述存在敏感输入设备处用于选择少于与候选词相对应的所有所述多个键的手势的指示;
响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:
由所述计算设备至少部分地基于所述至少两个键来为所述手势确定所述候选词;
在所述显示设备的第一位置处输出所述候选词以显示;以及
响应于确定在选择与所述候选词相对应的所有所述多个键之前所述手势已经终止,在所述显示设备的第二位置处输出所显示的候选词以显示。
2.根据权利要求1所述的方法,其中,所述第一位置包括至少部分地基于在所述存在敏感输入设备处执行所述手势的所述输入单元的被检测位置的所述显示设备的位置。
3.根据权利要求2所述的方法,其中,至少部分地基于执行所述手势的所述输入单元的被检测位置的所述显示设备的所述位置包括:与执行所述手势的所述输入单元的被检测位置相离阈值距离的所述显示设备的位置。
4.根据权利要求2所述的方法,其中,至少部分地基于执行所述手势的所述输入单元的被检测位置的所述显示设备的所述位置包括:至少部分地基于所述存在敏感输入设备的所述多个位置处检测到所述输入单元的所述显示设备的多个不同位置。
5.根据权利要求1至4中任一项所述的方法,其中,所述手势包括第一手势,并且所述候选词包括第一候选词,并且进一步包括响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:
由所述计算设备至少部分地基于所述至少两个键来确定所述第一候选词和第二候选词;
在所述显示设备的所述第一位置处输出所述第一候选词以显示;
在所述显示设备的第三位置处输出所述第二候选词以显示;以及
响应于识别用于相对于所述第一候选词选择所述第二候选词的第二手势,并且确定在所述存在敏感输入设备处不再检测到所述输入单元,在所述显示设备的所述第二位置处输出所述第二候选词以显示。
6.根据权利要求5所述的方法,其中,所述第三位置是不基于执行所述第一和第二手势的所述输入单元的被检测位置的所述显示设备的预定位置。
7.根据权利要求1至6中任一项所述的方法,其中,所述手势包括第一手势,并且所述候选词包括第一候选词,并且进一步包括响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:
由所述计算设备至少部分地基于所述至少两个键来确定包括所述第一候选词的多个候选词;
输出所述第一候选词以在所述显示设备的所述第一位置处显示;
响应于识别用于相对于所述第一候选词选择所述多个候选词中的一个的第二手势并且确定在所述存在敏感输入设备处不再检测到所述输入单元,输出所述多个候选词中的所述一个以在所述显示设备的所述第二位置处显示。
8.根据权利要求7所述的方法,进一步包括:在所述显示设备的第三位置处输出所述多个候选词以显示。
9.根据权利要求8所述的方法,其中,所述第三位置是不基于执行所述第一和第二手势的所述输入单元的被检测位置的所述显示设备的预定位置。
10.根据权利要求1至9中任一项所述的方法,其中,所述第二位置是显示在所述计算设备处输入的文本的所述显示设备的位置。
11.根据权利要求1至10中任一项所述的方法,进一步包括:响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时,在扬声器处可听地输出所述候选词。
12.根据权利要求1至11中任一项所述的方法,其中,所述候选词包括由所述计算设备为所述手势确定的多个候选词中具有作为由所述手势指示的正确词的最高概率的一个候选词。
13.根据权利要求1至12中任一项所述的方法,进一步包括:
由所述计算设备在所述输入单元在所述存在敏感输入设备的阈值距离内时确定所述手势,以及
响应于确定所述输入单元不再在所述存在敏感输入设备的所述阈值距离内,由所述计算设备确定所述手势已终止。
14.根据权利要求1至13中任一项所述的方法,进一步包括:响应于确定在所述存在敏感输入设备处不再检测到所述输入单元,由所述计算设备确定所述手势已终止。
15.根据权利要求1至14中任一项所述的方法,其中,所述计算设备包括存在敏感显示器,所述存在敏感显示器包括所述存在敏感输入设备和所述显示设备。
16.一种计算设备,包括:
至少一个处理器;
存在敏感输入设备,所述存在敏感输入设备可操作地耦合至所述至少一个处理器,
显示设备,所述显示设备可操作地耦合至所述至少一个处理器,
其中,所述至少一个处理器被配置成:
输出包括多个键的图形键盘以在所述显示设备处显示;
至少部分地基于在所述显示设备的多个位置处检测到输入单元,接收用于选择所述多个键中的至少两个的手势的指示;
响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:
至少部分地基于所述至少两个键,为所述手势确定候选词;
在所述显示设备的第一位置处输出所述候选词以显示;以及
响应于确定在所述存在敏感输入设备处不再检测到所述输入单元,在所述显示设备的第二位置处输出所显示的候选词以显示。
17.根据权利要求16所述的计算设备,进一步包括:用于执行如权利要求2至15中任一项所述的方法的装置。
18.一种编码有指令的计算机可读存储介质,所述指令在被执行时使得计算设备的至少一个处理器:
输出包括多个键的图形键盘以在显示设备处显示;
由所述计算设备至少部分地基于在存在敏感输入设备的多个位置处检测到输入单元,来接收用于选择所述多个键中的至少两个的手势的指示;
响应于所述检测并且在所述存在敏感输入设备处检测到所述输入单元时:
由所述计算设备至少部分地基于所述至少两个键,为所述手势确定候选词;
在所述显示设备的第一位置处输出所述候选词以显示;以及
响应于确定在所述存在敏感输入设备处不再检测到所述输入单元,在所述显示设备的第二位置处输出所显示的候选词以显示。
19.根据权利要求18所述的计算机可读存储介质,进一步编码有可由所述至少一个处理器执行的指令,以执行如权利要求2至15中任一项所述的方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261714651P | 2012-10-16 | 2012-10-16 | |
US61/714,651 | 2012-10-16 | ||
US13/793,825 US8850350B2 (en) | 2012-10-16 | 2013-03-11 | Partial gesture text entry |
US13/793,825 | 2013-03-11 | ||
PCT/US2013/065232 WO2014062798A2 (en) | 2012-10-16 | 2013-10-16 | Partial gesture text entry |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104718544A true CN104718544A (zh) | 2015-06-17 |
CN104718544B CN104718544B (zh) | 2019-05-31 |
Family
ID=50476637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380054118.6A Active CN104718544B (zh) | 2012-10-16 | 2013-10-16 | 部分手势文本输入的方法、计算设备及系统 |
Country Status (5)
Country | Link |
---|---|
US (3) | US8850350B2 (zh) |
CN (1) | CN104718544B (zh) |
DE (1) | DE112013004619T5 (zh) |
GB (1) | GB2525749B (zh) |
WO (1) | WO2014062798A2 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107817942A (zh) * | 2016-09-14 | 2018-03-20 | 北京搜狗科技发展有限公司 | 一种滑行输入方法、系统和一种用于滑行输入的装置 |
CN108062168A (zh) * | 2016-11-09 | 2018-05-22 | 北京搜狗科技发展有限公司 | 一种候选词上屏方法、装置和用于候选词上屏的装置 |
CN114047872A (zh) * | 2021-10-11 | 2022-02-15 | 北京理工大学 | 一种文本输入方法和系统 |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8621380B2 (en) | 2010-01-06 | 2013-12-31 | Apple Inc. | Apparatus and method for conditionally enabling or disabling soft buttons |
US9542091B2 (en) | 2010-06-04 | 2017-01-10 | Apple Inc. | Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator |
US8587547B2 (en) | 2010-11-05 | 2013-11-19 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
US8587540B2 (en) | 2010-11-05 | 2013-11-19 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
US9250798B2 (en) | 2011-01-24 | 2016-02-02 | Apple Inc. | Device, method, and graphical user interface with a dynamic gesture disambiguation threshold |
US9436381B2 (en) | 2011-01-24 | 2016-09-06 | Apple Inc. | Device, method, and graphical user interface for navigating and annotating an electronic document |
US9310889B2 (en) * | 2011-11-10 | 2016-04-12 | Blackberry Limited | Touchscreen keyboard predictive display and generation of a set of characters |
CN103380407B (zh) | 2012-02-24 | 2017-05-03 | 黑莓有限公司 | 在触摸屏键盘与候选字母靠近关联的分区中提供词预测的触摸屏键盘 |
US8782549B2 (en) | 2012-10-05 | 2014-07-15 | Google Inc. | Incremental feature-based gesture-keyboard decoding |
US8850350B2 (en) | 2012-10-16 | 2014-09-30 | Google Inc. | Partial gesture text entry |
US8701032B1 (en) | 2012-10-16 | 2014-04-15 | Google Inc. | Incremental multi-word recognition |
US8843845B2 (en) | 2012-10-16 | 2014-09-23 | Google Inc. | Multi-gesture text input prediction |
US8819574B2 (en) | 2012-10-22 | 2014-08-26 | Google Inc. | Space prediction for text input |
CN103064530B (zh) * | 2012-12-31 | 2017-03-08 | 华为技术有限公司 | 输入处理方法和装置 |
US20140195961A1 (en) * | 2013-01-07 | 2014-07-10 | Apple Inc. | Dynamic Index |
US8832589B2 (en) | 2013-01-15 | 2014-09-09 | Google Inc. | Touch keyboard using language and spatial models |
US9547420B1 (en) * | 2013-02-11 | 2017-01-17 | Amazon Technologies, Inc. | Spatial approaches to text suggestion |
EP2972689A4 (en) | 2013-03-15 | 2016-11-23 | Forbes Holten 3Rd Norris | SPEECH OPTIMIZING MICROCLAVIER METHOD AND APPARATUS |
US8887103B1 (en) | 2013-04-22 | 2014-11-11 | Google Inc. | Dynamically-positioned character string suggestions for gesture typing |
US9081500B2 (en) | 2013-05-03 | 2015-07-14 | Google Inc. | Alternative hypothesis error correction for gesture typing |
US20140365878A1 (en) * | 2013-06-10 | 2014-12-11 | Microsoft Corporation | Shape writing ink trace prediction |
US9244906B2 (en) * | 2013-06-21 | 2016-01-26 | Blackberry Limited | Text entry at electronic communication device |
US10042543B2 (en) * | 2013-09-18 | 2018-08-07 | Lenovo (Singapore) Pte. Ltd. | Indicating a word length using an input device |
US9965170B2 (en) * | 2013-11-11 | 2018-05-08 | Lenovo (Singapore) Pte. Ltd. | Multi-touch inputs for input interface control |
US10928924B2 (en) * | 2013-11-26 | 2021-02-23 | Lenovo (Singapore) Pte. Ltd. | Typing feedback derived from sensor information |
US20180181292A1 (en) * | 2014-03-18 | 2018-06-28 | Huawei Device Co., Ltd | Text input method and apparatus, and terminal |
CN106605200A (zh) | 2014-04-08 | 2017-04-26 | 福布斯·霍尔滕·三世·诺里斯 | 一种优化人体工程学的向用户呈现按键的拇指键入方法 |
KR102177607B1 (ko) * | 2014-05-16 | 2020-11-11 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
US9898162B2 (en) | 2014-05-30 | 2018-02-20 | Apple Inc. | Swiping functions for messaging applications |
US9971500B2 (en) | 2014-06-01 | 2018-05-15 | Apple Inc. | Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application |
US9430142B2 (en) * | 2014-07-17 | 2016-08-30 | Facebook, Inc. | Touch-based gesture recognition and application navigation |
CN104199606B (zh) * | 2014-07-29 | 2018-10-09 | 北京搜狗科技发展有限公司 | 一种滑行输入的方法和装置 |
US10534532B2 (en) | 2014-08-08 | 2020-01-14 | Samsung Electronics Co., Ltd. | Electronic device and method for processing letter input in electronic device |
GB201418402D0 (en) * | 2014-10-16 | 2014-12-03 | Touchtype Ltd | Text prediction integration |
US9760560B2 (en) * | 2015-03-19 | 2017-09-12 | Nuance Communications, Inc. | Correction of previous words and other user text input errors |
JP6496044B2 (ja) * | 2015-04-20 | 2019-04-03 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 端末デバイスのテキスト入力を表示するための方法および装置、ならびに端末デバイス |
EP3182250B1 (en) * | 2015-12-18 | 2019-10-30 | Aptiv Technologies Limited | System and method for monitoring 3d space in front of an output unit for the control of the output unit |
US20170285932A1 (en) * | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Ink Input for Browser Navigation |
US10884610B2 (en) | 2016-11-04 | 2021-01-05 | Myscript | System and method for recognizing handwritten stroke input |
GB201620235D0 (en) | 2016-11-29 | 2017-01-11 | Microsoft Technology Licensing Llc | Neural network data entry system |
AT520031A1 (de) * | 2017-06-07 | 2018-12-15 | Caretec Int Gmbh | Vorrichtungen und Verfahren des maschinellen Schreibens und virtuellen Lesens flüchtiger taktiler Zeichen und akustischer Laute |
US11455094B2 (en) | 2017-07-11 | 2022-09-27 | Thumba Inc. | Interactive virtual keyboard configured for gesture based word selection and having a plurality of keys arranged approximately radially about at least one center point |
US11354503B2 (en) * | 2017-07-27 | 2022-06-07 | Samsung Electronics Co., Ltd. | Method for automatically providing gesture-based auto-complete suggestions and electronic device thereof |
DE102018117619A1 (de) * | 2018-07-20 | 2020-01-23 | Amazonen-Werke H. Dreyer Gmbh & Co. Kg | Bedieneinheit für eine landwirtschaftliche Maschine |
WO2020072272A1 (en) * | 2018-10-04 | 2020-04-09 | Intuitive Surgical Operations, Inc. | Systems and methods of device control with operator and motion sensing |
US10776004B1 (en) * | 2019-05-07 | 2020-09-15 | Capital One Services, Llc | Methods and devices for providing candidate inputs |
US11244041B2 (en) | 2020-03-05 | 2022-02-08 | International Business Machines Corporation | Dynamic password generation using morphological groups |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090058823A1 (en) * | 2007-09-04 | 2009-03-05 | Apple Inc. | Virtual Keyboards in Multi-Language Environment |
CN100472600C (zh) * | 2003-12-22 | 2009-03-25 | 美国在线服务公司 | 文字输入自动更正的虚拟键盘系统 |
CN101393506A (zh) * | 2007-09-13 | 2009-03-25 | 苹果公司 | 用于具有多语言环境的设备的输入方法及相关设备和系统 |
EP2369446A2 (en) * | 2010-02-25 | 2011-09-28 | LG Electronics Inc. | Method for inputting a string of characters and apparatus thereof |
CN102693090A (zh) * | 2012-05-16 | 2012-09-26 | 刘炳林 | 一种输入方法和电子设备 |
Family Cites Families (234)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4534261A (en) | 1983-03-30 | 1985-08-13 | Raymond Fabrizio | Vent key modification for flute |
US4833610A (en) | 1986-12-16 | 1989-05-23 | International Business Machines Corporation | Morphological/phonetic method for ranking word similarities |
US4988981B1 (en) | 1987-03-17 | 1999-05-18 | Vpl Newco Inc | Computer data entry and manipulation apparatus and method |
US4847766A (en) | 1988-01-05 | 1989-07-11 | Smith Corona Corporation | Dictionary typewriter with correction of commonly confused words |
US5075896A (en) | 1989-10-25 | 1991-12-24 | Xerox Corporation | Character and phoneme recognition based on probability clustering |
US5307267A (en) | 1990-03-27 | 1994-04-26 | Yang Gong M | Method and keyboard for input of characters via use of specified shapes and patterns |
EP0450196B1 (en) | 1990-04-02 | 1998-09-09 | Koninklijke Philips Electronics N.V. | Data processing system using gesture-based input data |
US5604897A (en) | 1990-05-18 | 1997-02-18 | Microsoft Corporation | Method and system for correcting the spelling of misspelled words |
US6094188A (en) | 1990-11-30 | 2000-07-25 | Sun Microsystems, Inc. | Radio frequency tracking system |
US5115482A (en) | 1991-06-07 | 1992-05-19 | The United States Of America As Represented By The United States Department Of Energy | Optical apparatus for conversion of whispering-gallery modes into a free space gaussian like beam |
US5202803A (en) | 1991-07-02 | 1993-04-13 | International Business Machines Corporation | Disk file with liquid film head-disk interface |
US5848187A (en) | 1991-11-18 | 1998-12-08 | Compaq Computer Corporation | Method and apparatus for entering and manipulating spreadsheet cell data |
FR2689290B1 (fr) | 1992-03-26 | 1994-06-10 | Aerospatiale | Procede et dispositif de communication multimodes et multifonctions entre un operateur et un ou plusieurs processeurs. |
CA2089784C (en) | 1992-04-15 | 1996-12-24 | William Joseph Anderson | Apparatus and method for disambiguating an input stream generated by a stylus-based user interface |
JP3367116B2 (ja) | 1992-09-02 | 2003-01-14 | ヤマハ株式会社 | 電子楽器 |
US5502803A (en) | 1993-01-18 | 1996-03-26 | Sharp Kabushiki Kaisha | Information processing apparatus having a gesture editing function |
US5677710A (en) | 1993-05-10 | 1997-10-14 | Apple Computer, Inc. | Recognition keypad |
US5522932A (en) | 1993-05-14 | 1996-06-04 | Applied Materials, Inc. | Corrosion-resistant apparatus |
US5606494A (en) | 1993-11-25 | 1997-02-25 | Casio Computer Co., Ltd. | Switching apparatus |
US6008799A (en) | 1994-05-24 | 1999-12-28 | Microsoft Corporation | Method and system for entering data using an improved on-screen keyboard |
JPH0844719A (ja) | 1994-06-01 | 1996-02-16 | Mitsubishi Electric Corp | 辞書アクセスシステム |
US5761689A (en) | 1994-09-01 | 1998-06-02 | Microsoft Corporation | Autocorrecting text typed into a word processing document |
WO1996009579A1 (en) | 1994-09-22 | 1996-03-28 | Izak Van Cruyningen | Popup menus with directional gestures |
US5521986A (en) | 1994-11-30 | 1996-05-28 | American Tel-A-Systems, Inc. | Compact data input device |
JP3209870B2 (ja) | 1995-01-06 | 2001-09-17 | 富士通株式会社 | 文字間挿入装置および挿入方法 |
FI97508C (fi) | 1995-01-09 | 1996-12-27 | Nokia Mobile Phones Ltd | Pikavalinta henkilökohtaisessa matkaviestimessä |
US5748512A (en) | 1995-02-28 | 1998-05-05 | Microsoft Corporation | Adjusting keyboard |
US5797098A (en) | 1995-07-19 | 1998-08-18 | Pacific Communication Sciences, Inc. | User interface for cellular telephone |
JPH0981364A (ja) | 1995-09-08 | 1997-03-28 | Nippon Telegr & Teleph Corp <Ntt> | マルチモーダル情報入力方法及び装置 |
US6061050A (en) | 1995-10-27 | 2000-05-09 | Hewlett-Packard Company | User interface device |
US6041292A (en) | 1996-01-16 | 2000-03-21 | Jochim; Carol | Real time stenographic system utilizing vowel omission principle |
USRE37654E1 (en) | 1996-01-22 | 2002-04-16 | Nicholas Longo | Gesture synthesizer for electronic sound device |
US6115482A (en) | 1996-02-13 | 2000-09-05 | Ascent Technology, Inc. | Voice-output reading system with gesture-based navigation |
JP3280559B2 (ja) | 1996-02-20 | 2002-05-13 | シャープ株式会社 | ジョグダイアルの模擬入力装置 |
US5917493A (en) | 1996-04-17 | 1999-06-29 | Hewlett-Packard Company | Method and apparatus for randomly generating information for subsequent correlating |
US5905246A (en) | 1996-10-31 | 1999-05-18 | Fajkowski; Peter W. | Method and apparatus for coupon management and redemption |
JP3889466B2 (ja) | 1996-11-25 | 2007-03-07 | ソニー株式会社 | 文章入力装置及び方法 |
US5953541A (en) | 1997-01-24 | 1999-09-14 | Tegic Communications, Inc. | Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use |
US6047300A (en) | 1997-05-15 | 2000-04-04 | Microsoft Corporation | System and method for automatically correcting a misspelled word |
US6278453B1 (en) | 1997-06-13 | 2001-08-21 | Starfish Software, Inc. | Graphical password methodology for a microprocessor device accepting non-alphanumeric user input |
US6686931B1 (en) | 1997-06-13 | 2004-02-03 | Motorola, Inc. | Graphical password methodology for a microprocessor device accepting non-alphanumeric user input |
US6141011A (en) | 1997-08-04 | 2000-10-31 | Starfish Software, Inc. | User interface methodology supporting light data entry for microprocessor device having limited user input |
US6160555A (en) | 1997-11-17 | 2000-12-12 | Hewlett Packard Company | Method for providing a cue in a computer system |
US6057845A (en) | 1997-11-14 | 2000-05-02 | Sensiva, Inc. | System, method, and apparatus for generation and recognizing universal commands |
WO1999028811A1 (en) | 1997-12-04 | 1999-06-10 | Northern Telecom Limited | Contextual gesture interface |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
KR100327209B1 (ko) | 1998-05-12 | 2002-04-17 | 윤종용 | 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법 |
US6438523B1 (en) | 1998-05-20 | 2002-08-20 | John A. Oberteuffer | Processing handwritten and hand-drawn input and speech input |
US6424983B1 (en) | 1998-05-26 | 2002-07-23 | Global Information Research And Technologies, Llc | Spelling and grammar checking system |
US6131102A (en) | 1998-06-15 | 2000-10-10 | Microsoft Corporation | Method and system for cost computation of spelling suggestions and automatic replacement |
US6407679B1 (en) | 1998-07-31 | 2002-06-18 | The Research Foundation Of The State University Of New York | System and method for entering text in a virtual environment |
CN1143232C (zh) | 1998-11-30 | 2004-03-24 | 皇家菲利浦电子有限公司 | 正文的自动分割 |
US6150600A (en) | 1998-12-01 | 2000-11-21 | Buchla; Donald F. | Inductive location sensor system and electronic percussion system |
GB2347247A (en) | 1999-02-22 | 2000-08-30 | Nokia Mobile Phones Ltd | Communication terminal with predictive editor |
US7293231B1 (en) | 1999-03-18 | 2007-11-06 | British Columbia Ltd. | Data entry for personal computing devices |
US20020000468A1 (en) | 1999-04-19 | 2002-01-03 | Pradeep K. Bansal | System and method for scanning & storing universal resource locator codes |
US7750891B2 (en) | 2003-04-09 | 2010-07-06 | Tegic Communications, Inc. | Selective input system based on tracking of motion parameters of an input device |
WO2000074240A1 (en) | 1999-05-27 | 2000-12-07 | America Online | Keyboard system with automatic correction |
US6904405B2 (en) | 1999-07-17 | 2005-06-07 | Edwin A. Suominen | Message recognition using shared language model |
US6396523B1 (en) | 1999-07-29 | 2002-05-28 | Interlink Electronics, Inc. | Home entertainment device remote control |
US6512838B1 (en) | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
US6789231B1 (en) | 1999-10-05 | 2004-09-07 | Microsoft Corporation | Method and system for providing alternatives for text derived from stochastic input sources |
US7798417B2 (en) | 2000-01-03 | 2010-09-21 | Snyder David M | Method for data interchange |
DE60025901T2 (de) | 2000-01-11 | 2006-08-24 | International Business Machines Corp. | Verfahren und Vorrichtung zur Markierung eines Textdokuments mit einem Muster von zusätzlichen Leerstellen zum Zweck der Authentifizierung |
US6573844B1 (en) | 2000-01-18 | 2003-06-03 | Microsoft Corporation | Predictive keyboard |
US7028259B1 (en) | 2000-02-01 | 2006-04-11 | Jacobson Robert L | Interactive legal citation checker |
US6630924B1 (en) | 2000-02-22 | 2003-10-07 | International Business Machines Corporation | Gesture sensing split keyboard and approach for capturing keystrokes |
US7047493B1 (en) | 2000-03-31 | 2006-05-16 | Brill Eric D | Spell checker with arbitrary length string-to-string transformations to improve noisy channel spelling correction |
US7035788B1 (en) | 2000-04-25 | 2006-04-25 | Microsoft Corporation | Language model sharing |
DE50115344D1 (de) | 2000-07-21 | 2010-03-25 | Speedscript Ag | Verfahren für ein schnellschreibsystem und schnellschreibgerät |
US20020015064A1 (en) | 2000-08-07 | 2002-02-07 | Robotham John S. | Gesture-based user interface to multi-level and multi-modal sets of bit-maps |
US6606597B1 (en) | 2000-09-08 | 2003-08-12 | Microsoft Corporation | Augmented-word language model |
US20020194223A1 (en) | 2000-10-16 | 2002-12-19 | Text Analysis International, Inc. | Computer programming language, system and method for building text analyzers |
EP1887451A3 (en) | 2000-10-18 | 2009-06-24 | 602531 British Columbia Ltd. | Data entry method and system for personal computer, and corresponding computer readable medium |
AU2002230766A1 (en) | 2000-11-08 | 2002-05-21 | New York University | System, process and software arrangement for recognizing handwritten characters |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
CA2340531C (en) | 2001-03-12 | 2006-10-10 | Ibm Canada Limited-Ibm Canada Limitee | Document retrieval system and search method using word set and character look-up tables |
US7035794B2 (en) | 2001-03-30 | 2006-04-25 | Intel Corporation | Compressing and using a concatenative speech database in text-to-speech systems |
FI116591B (fi) | 2001-06-29 | 2005-12-30 | Nokia Corp | Menetelmä ja laite toiminnon toteuttamiseksi |
US7042443B2 (en) | 2001-10-11 | 2006-05-09 | Woodard Scott E | Speed Writer program and device with Speed Writer program installed |
US7610189B2 (en) | 2001-10-18 | 2009-10-27 | Nuance Communications, Inc. | Method and apparatus for efficient segmentation of compound words using probabilistic breakpoint traversal |
US7296019B1 (en) | 2001-10-23 | 2007-11-13 | Microsoft Corporation | System and methods for providing runtime spelling analysis and correction |
US7362243B2 (en) | 2001-11-16 | 2008-04-22 | International Business Machines Corporation | Apparatus and method using color-coded or pattern-coded keys in two-key input per character text entry |
US6765556B2 (en) | 2001-11-16 | 2004-07-20 | International Business Machines Corporation | Two-key input per character text entry apparatus and method |
US7075520B2 (en) | 2001-12-12 | 2006-07-11 | Zi Technology Corporation Ltd | Key press disambiguation using a keypad of multidirectional keys |
US7231343B1 (en) | 2001-12-20 | 2007-06-12 | Ianywhere Solutions, Inc. | Synonyms mechanism for natural language systems |
US7175438B2 (en) | 2002-03-01 | 2007-02-13 | Digit Wireless | Fast typing system and method |
US7170430B2 (en) | 2002-03-28 | 2007-01-30 | Michael Goodgoll | System, method, and computer program product for single-handed data entry |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
EP1422599B1 (en) | 2002-11-20 | 2006-07-05 | Nokia Corporation | Method and user interface for entering characters |
US7199786B2 (en) | 2002-11-29 | 2007-04-03 | Daniel Suraqui | Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system |
US7251367B2 (en) | 2002-12-20 | 2007-07-31 | International Business Machines Corporation | System and method for recognizing word patterns based on a virtual keyboard layout |
US7382358B2 (en) | 2003-01-16 | 2008-06-03 | Forword Input, Inc. | System and method for continuous stroke word-based text input |
US7453439B1 (en) | 2003-01-16 | 2008-11-18 | Forward Input Inc. | System and method for continuous stroke word-based text input |
US7098896B2 (en) | 2003-01-16 | 2006-08-29 | Forword Input Inc. | System and method for continuous stroke word-based text input |
SG135918A1 (en) | 2003-03-03 | 2007-10-29 | Xrgomics Pte Ltd | Unambiguous text input method for touch screens and reduced keyboard systems |
NZ529518A (en) | 2003-11-13 | 2005-03-24 | Andy Zheng Song | Input method, system and device |
US20050114115A1 (en) | 2003-11-26 | 2005-05-26 | Karidis John P. | Typing accuracy relaxation system and method in stylus and other keyboards |
DE10357475A1 (de) | 2003-12-09 | 2005-07-07 | Siemens Ag | Kommunikationsvorrichtung und Verfahren zum Eingeben und Vorhersagen von Text |
US7250938B2 (en) | 2004-01-06 | 2007-07-31 | Lenovo (Singapore) Pte. Ltd. | System and method for improved user input on personal computing devices |
US7706616B2 (en) | 2004-02-27 | 2010-04-27 | International Business Machines Corporation | System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout |
US8095364B2 (en) | 2004-06-02 | 2012-01-10 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
EP1603014B1 (en) | 2004-06-02 | 2008-12-24 | Research in Motion Limited | Handheld electronic device with text disambiguation |
US20060004638A1 (en) | 2004-07-02 | 2006-01-05 | Royal Eliza H | Assisted electronic product design |
JP4284531B2 (ja) | 2004-07-06 | 2009-06-24 | オムロン株式会社 | 実装用基板及びそれを使用した駆動装置 |
US7207004B1 (en) | 2004-07-23 | 2007-04-17 | Harrity Paul A | Correction of misspelled words |
US7508324B2 (en) * | 2004-08-06 | 2009-03-24 | Daniel Suraqui | Finger activated reduced keyboard and a method for performing text input |
US20060176283A1 (en) | 2004-08-06 | 2006-08-10 | Daniel Suraqui | Finger activated reduced keyboard and a method for performing text input |
US20060055669A1 (en) | 2004-09-13 | 2006-03-16 | Mita Das | Fluent user interface for text entry on touch-sensitive display |
CA2592180C (en) | 2004-12-24 | 2010-02-09 | Japan Science And Technology Agency | Nanographite structure/metal nanoparticle composite |
US8552984B2 (en) | 2005-01-13 | 2013-10-08 | 602531 British Columbia Ltd. | Method, system, apparatus and computer-readable media for directing input associated with keyboard-type device |
US7487461B2 (en) | 2005-05-04 | 2009-02-03 | International Business Machines Corporation | System and method for issuing commands based on pen motions on a graphical keyboard |
US20060256139A1 (en) | 2005-05-11 | 2006-11-16 | Gikandi David C | Predictive text computer simplified keyboard with word and phrase auto-completion (plus text-to-speech and a foreign language translation option) |
US8036878B2 (en) | 2005-05-18 | 2011-10-11 | Never Wall Treuhand GmbH | Device incorporating improved text input mechanism |
US7886233B2 (en) | 2005-05-23 | 2011-02-08 | Nokia Corporation | Electronic text input involving word completion functionality for predicting word candidates for partial word inputs |
US20070016862A1 (en) | 2005-07-15 | 2007-01-18 | Microth, Inc. | Input guessing systems, methods, and computer program products |
GB0516246D0 (en) | 2005-08-08 | 2005-09-14 | Scanlan Timothy | A data entry device and method |
US7827484B2 (en) | 2005-09-02 | 2010-11-02 | Xerox Corporation | Text correction for PDF converters |
US20070152980A1 (en) | 2006-01-05 | 2007-07-05 | Kenneth Kocienda | Touch Screen Keyboards for Portable Electronic Devices |
WO2007035827A2 (en) | 2005-09-20 | 2007-03-29 | Forward Input, Inc. | System and method for continuous stroke word-based text input |
US7542029B2 (en) | 2005-09-20 | 2009-06-02 | Cliff Kushler | System and method for a user interface for text editing and menu selection |
US20070094024A1 (en) | 2005-10-22 | 2007-04-26 | International Business Machines Corporation | System and method for improving text input in a shorthand-on-keyboard interface |
US20070106317A1 (en) | 2005-11-09 | 2007-05-10 | Shelton Frederick E Iv | Hydraulically and electrically actuated articulation joints for surgical instruments |
WO2007103938A2 (en) | 2006-03-06 | 2007-09-13 | Veveo, Inc. | Methods and systems for selecting and presenting content based on learned user preferences |
US7831911B2 (en) | 2006-03-08 | 2010-11-09 | Microsoft Corporation | Spell checking system including a phonetic speller |
ITRM20060136A1 (it) | 2006-03-10 | 2007-09-11 | Link Formazione S R L | Sistema multimediale interattivo |
EP1860576A1 (en) | 2006-05-23 | 2007-11-28 | Harman/Becker Automotive Systems GmbH | Indexing big world lists in databases |
US7831423B2 (en) | 2006-05-25 | 2010-11-09 | Multimodal Technologies, Inc. | Replacing text representing a concept with an alternate written form of the concept |
WO2008013658A2 (en) | 2006-07-03 | 2008-01-31 | Cliff Kushler | System and method for a user interface for text editing and menu selection |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
JP5248845B2 (ja) | 2006-12-13 | 2013-07-31 | キヤノン株式会社 | 文書処理装置、文書処理方法、プログラムおよび記憶媒体 |
US20080172293A1 (en) | 2006-12-28 | 2008-07-17 | Yahoo! Inc. | Optimization framework for association of advertisements with sequential media |
US7907125B2 (en) | 2007-01-05 | 2011-03-15 | Microsoft Corporation | Recognizing multiple input point gestures |
US7957955B2 (en) | 2007-01-05 | 2011-06-07 | Apple Inc. | Method and system for providing word recommendations for text input |
US8074172B2 (en) * | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
US8225203B2 (en) | 2007-02-01 | 2012-07-17 | Nuance Communications, Inc. | Spell-check for a keyboard system with automatic correction |
US7809719B2 (en) | 2007-02-08 | 2010-10-05 | Microsoft Corporation | Predicting textual candidates |
US20080229255A1 (en) | 2007-03-15 | 2008-09-18 | Nokia Corporation | Apparatus, method and system for gesture detection |
US20080232885A1 (en) | 2007-03-19 | 2008-09-25 | Giftventure Studios, Inc. | Systems and Methods for Creating Customized Activities |
US7903883B2 (en) | 2007-03-30 | 2011-03-08 | Microsoft Corporation | Local bi-gram model for object recognition |
US7895518B2 (en) * | 2007-04-27 | 2011-02-22 | Shapewriter Inc. | System and method for preview and selection of words |
US8504349B2 (en) | 2007-06-18 | 2013-08-06 | Microsoft Corporation | Text prediction with partial selection in a variety of domains |
US8059101B2 (en) | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
TW200905538A (en) | 2007-07-31 | 2009-02-01 | Elan Microelectronics Corp | Touch position detector of capacitive touch panel and method of detecting the touch position |
US20090100383A1 (en) | 2007-10-16 | 2009-04-16 | Microsoft Corporation | Predictive gesturing in graphical user interface |
US20090119376A1 (en) | 2007-11-06 | 2009-05-07 | International Busness Machines Corporation | Hint-Based Email Address Construction |
US8232973B2 (en) | 2008-01-09 | 2012-07-31 | Apple Inc. | Method, device, and graphical user interface providing word recommendations for text input |
US8456425B2 (en) | 2008-01-30 | 2013-06-04 | International Business Machines Corporation | Self-adapting keypad |
US8280886B2 (en) | 2008-02-13 | 2012-10-02 | Fujitsu Limited | Determining candidate terms related to terms of a query |
US20090249198A1 (en) | 2008-04-01 | 2009-10-01 | Yahoo! Inc. | Techniques for input recogniton and completion |
US20100021871A1 (en) | 2008-07-24 | 2010-01-28 | Layng Terrence V | Teaching reading comprehension |
US8619048B2 (en) | 2008-08-08 | 2013-12-31 | Moonsun Io Ltd. | Method and device of stroke based user input |
WO2010018577A2 (en) | 2008-08-12 | 2010-02-18 | Benjamin Firooz Ghassabian | Data entry system |
US20100070908A1 (en) | 2008-09-18 | 2010-03-18 | Sun Microsystems, Inc. | System and method for accepting or rejecting suggested text corrections |
US20100079382A1 (en) | 2008-09-26 | 2010-04-01 | Suggs Bradley N | Touch-screen monitoring |
US20140372119A1 (en) | 2008-09-26 | 2014-12-18 | Google, Inc. | Compounded Text Segmentation |
CN101382844A (zh) | 2008-10-24 | 2009-03-11 | 上海埃帕信息科技有限公司 | 一种输入间隔分词的方法 |
WO2010053437A1 (en) | 2008-11-04 | 2010-05-14 | Saplo Ab | Method and system for analyzing text |
US7996369B2 (en) | 2008-11-14 | 2011-08-09 | The Regents Of The University Of California | Method and apparatus for improving performance of approximate string queries using variable length high-quality grams |
US20100131447A1 (en) | 2008-11-26 | 2010-05-27 | Nokia Corporation | Method, Apparatus and Computer Program Product for Providing an Adaptive Word Completion Mechanism |
US20100141484A1 (en) | 2008-12-08 | 2010-06-10 | Research In Motion Limited | Optimized keyboard for handheld thumb-typing and touch-typing |
US20100199226A1 (en) | 2009-01-30 | 2010-08-05 | Nokia Corporation | Method and Apparatus for Determining Input Information from a Continuous Stroke Input |
US20110291940A1 (en) | 2009-02-04 | 2011-12-01 | Benjamin Firooz Ghassabian | Data entry system |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US20100235780A1 (en) | 2009-03-16 | 2010-09-16 | Westerman Wayne C | System and Method for Identifying Words Based on a Sequence of Keyboard Events |
US8566044B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US20100238125A1 (en) | 2009-03-20 | 2010-09-23 | Nokia Corporation | Method, Apparatus, and Computer Program Product For Discontinuous Shapewriting |
KR101844366B1 (ko) | 2009-03-27 | 2018-04-02 | 삼성전자 주식회사 | 터치 제스처 인식 장치 및 방법 |
GB0905457D0 (en) | 2009-03-30 | 2009-05-13 | Touchtype Ltd | System and method for inputting text into electronic devices |
US9189472B2 (en) | 2009-03-30 | 2015-11-17 | Touchtype Limited | System and method for inputting text into small screen devices |
US20120046544A1 (en) | 2009-04-16 | 2012-02-23 | Shimadzu Corporation | Radiation tomography apparatus |
US20100315266A1 (en) | 2009-06-15 | 2010-12-16 | Microsoft Corporation | Predictive interfaces with usability constraints |
CN202142005U (zh) | 2009-07-22 | 2012-02-08 | 罗技欧洲公司 | 用于远程、虚拟屏幕输入的系统 |
DE212009000220U1 (de) | 2009-08-04 | 2012-05-07 | Google, Inc. | Erzeugung von Suchanfrage-Vorschlägen |
CN101634919B (zh) | 2009-09-01 | 2011-02-02 | 北京途拓科技有限公司 | 一种手势识别的装置与方法 |
US9317116B2 (en) | 2009-09-09 | 2016-04-19 | Immersion Corporation | Systems and methods for haptically-enhanced text interfaces |
US20110063231A1 (en) | 2009-09-14 | 2011-03-17 | Invotek, Inc. | Method and Device for Data Input |
US8341558B2 (en) | 2009-09-16 | 2012-12-25 | Google Inc. | Gesture recognition on computing device correlating input to a template |
US8135582B2 (en) | 2009-10-04 | 2012-03-13 | Daniel Suraqui | Keyboard system and method for global disambiguation from classes with dictionary database from first and last letters |
US8386574B2 (en) | 2009-10-29 | 2013-02-26 | Xerox Corporation | Multi-modality classification for one-class classification in social networks |
US8365059B2 (en) | 2009-11-03 | 2013-01-29 | Oto Technologies, Llc | E-reader semantic text manipulation |
US8884872B2 (en) | 2009-11-20 | 2014-11-11 | Nuance Communications, Inc. | Gesture-based repetition of key activations on a virtual keyboard |
US8358281B2 (en) | 2009-12-15 | 2013-01-22 | Apple Inc. | Device, method, and graphical user interface for management and manipulation of user interface elements |
US8587532B2 (en) | 2009-12-18 | 2013-11-19 | Intel Corporation | Multi-feature interactive touch user interface |
US9417787B2 (en) | 2010-02-12 | 2016-08-16 | Microsoft Technology Licensing, Llc | Distortion effects to indicate location in a movable data collection |
US8782556B2 (en) | 2010-02-12 | 2014-07-15 | Microsoft Corporation | User-centric soft keyboard predictive technologies |
US8515969B2 (en) | 2010-02-19 | 2013-08-20 | Go Daddy Operating Company, LLC | Splitting a character string into keyword strings |
US9965165B2 (en) | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
US20110210850A1 (en) | 2010-02-26 | 2011-09-01 | Phuong K Tran | Touch-screen keyboard with combination keys and directional swipes |
CN101788855B (zh) | 2010-03-09 | 2013-04-17 | 华为终端有限公司 | 一种获取用户输入信息的方法、装置及通信终端 |
EP2545426A4 (en) | 2010-03-12 | 2017-05-17 | Nuance Communications, Inc. | Multimodal text input system, such as for use with touch screens on mobile phones |
US8542195B2 (en) | 2010-03-30 | 2013-09-24 | International Business Machines Corporation | Method for optimization of soft keyboards for multiple languages |
US8266528B1 (en) | 2010-06-24 | 2012-09-11 | Google Inc. | Spelling suggestions based on an input sequence including accidental “delete” |
US8918734B2 (en) | 2010-07-28 | 2014-12-23 | Nuance Communications, Inc. | Reduced keyboard with prediction solutions when input is a partial sliding trajectory |
US20120036468A1 (en) | 2010-08-03 | 2012-02-09 | Nokia Corporation | User input remapping |
US20120036485A1 (en) | 2010-08-09 | 2012-02-09 | XMG Studio | Motion Driven User Interface |
US8898586B2 (en) | 2010-09-24 | 2014-11-25 | Google Inc. | Multiple touchpoints for efficient text input |
GB201200643D0 (en) | 2012-01-16 | 2012-02-29 | Touchtype Ltd | System and method for inputting text |
US8810581B2 (en) | 2010-10-20 | 2014-08-19 | Blackberry Limited | Character input method |
US20120113008A1 (en) | 2010-11-08 | 2012-05-10 | Ville Makinen | On-screen keyboard with haptic effects |
CN103250115A (zh) | 2010-11-17 | 2013-08-14 | Flex Electronics ID Co.,Ltd. | 多屏幕电子邮件客户端 |
US9870141B2 (en) | 2010-11-19 | 2018-01-16 | Microsoft Technology Licensing, Llc | Gesture recognition |
CN103827779B (zh) | 2010-11-20 | 2017-06-20 | 纽昂斯通信有限公司 | 使用输入的文本访问和处理上下文信息的系统和方法 |
US20120166428A1 (en) | 2010-12-22 | 2012-06-28 | Yahoo! Inc | Method and system for improving quality of web content |
US8730188B2 (en) | 2010-12-23 | 2014-05-20 | Blackberry Limited | Gesture input on a portable electronic device and method of controlling the same |
US8922489B2 (en) | 2011-03-24 | 2014-12-30 | Microsoft Corporation | Text input using key and gesture information |
US8914275B2 (en) | 2011-04-06 | 2014-12-16 | Microsoft Corporation | Text prediction |
US8570372B2 (en) | 2011-04-29 | 2013-10-29 | Austin Russell | Three-dimensional imager and projection device |
US8587542B2 (en) | 2011-06-01 | 2013-11-19 | Motorola Mobility Llc | Using pressure differences with a touch-sensitive display screen |
US9471560B2 (en) | 2011-06-03 | 2016-10-18 | Apple Inc. | Autocorrecting language input for virtual keyboards |
US20130212515A1 (en) | 2012-02-13 | 2013-08-15 | Syntellia, Inc. | User interface for text input |
JP5508359B2 (ja) | 2011-08-03 | 2014-05-28 | シャープ株式会社 | 文字認識装置、文字認識方法及びプログラム |
US8751972B2 (en) | 2011-09-20 | 2014-06-10 | Google Inc. | Collaborative gesture-based input language |
US20130082824A1 (en) * | 2011-09-30 | 2013-04-04 | Nokia Corporation | Feedback response |
US8490008B2 (en) | 2011-11-10 | 2013-07-16 | Research In Motion Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9310889B2 (en) | 2011-11-10 | 2016-04-12 | Blackberry Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9122672B2 (en) | 2011-11-10 | 2015-09-01 | Blackberry Limited | In-letter word prediction for virtual keyboard |
CN102411477A (zh) | 2011-11-16 | 2012-04-11 | 鸿富锦精密工业(深圳)有限公司 | 电子设备及其文本导读方法 |
CN102508553A (zh) | 2011-11-23 | 2012-06-20 | 赵来刚 | 电子产品手持输入数据和指令的技术 |
US8436827B1 (en) | 2011-11-29 | 2013-05-07 | Google Inc. | Disambiguating touch-input based on variation in characteristic such as speed or pressure along a touch-trail |
WO2013119712A1 (en) | 2012-02-06 | 2013-08-15 | Colby Michael K | Character-string completion |
CN102629158B (zh) | 2012-02-29 | 2015-04-08 | 广东威创视讯科技股份有限公司 | 基于触摸屏系统的文字输入方法及装置 |
US8667414B2 (en) | 2012-03-23 | 2014-03-04 | Google Inc. | Gestural input at a virtual keyboard |
US10296581B2 (en) | 2012-06-06 | 2019-05-21 | Apple Inc. | Multi-word autocorrection |
US9021380B2 (en) | 2012-10-05 | 2015-04-28 | Google Inc. | Incremental multi-touch gesture recognition |
US8782549B2 (en) | 2012-10-05 | 2014-07-15 | Google Inc. | Incremental feature-based gesture-keyboard decoding |
US8843845B2 (en) | 2012-10-16 | 2014-09-23 | Google Inc. | Multi-gesture text input prediction |
US8701032B1 (en) | 2012-10-16 | 2014-04-15 | Google Inc. | Incremental multi-word recognition |
US8850350B2 (en) | 2012-10-16 | 2014-09-30 | Google Inc. | Partial gesture text entry |
US8819574B2 (en) | 2012-10-22 | 2014-08-26 | Google Inc. | Space prediction for text input |
US8832589B2 (en) | 2013-01-15 | 2014-09-09 | Google Inc. | Touch keyboard using language and spatial models |
-
2013
- 2013-03-11 US US13/793,825 patent/US8850350B2/en active Active
- 2013-10-16 WO PCT/US2013/065232 patent/WO2014062798A2/en active Application Filing
- 2013-10-16 DE DE112013004619.9T patent/DE112013004619T5/de active Pending
- 2013-10-16 CN CN201380054118.6A patent/CN104718544B/zh active Active
- 2013-10-16 GB GB1505408.3A patent/GB2525749B/en active Active
-
2014
- 2014-09-24 US US14/494,798 patent/US9678943B2/en active Active
-
2017
- 2017-04-04 US US15/478,775 patent/US10140284B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100472600C (zh) * | 2003-12-22 | 2009-03-25 | 美国在线服务公司 | 文字输入自动更正的虚拟键盘系统 |
US20090058823A1 (en) * | 2007-09-04 | 2009-03-05 | Apple Inc. | Virtual Keyboards in Multi-Language Environment |
CN101393506A (zh) * | 2007-09-13 | 2009-03-25 | 苹果公司 | 用于具有多语言环境的设备的输入方法及相关设备和系统 |
EP2369446A2 (en) * | 2010-02-25 | 2011-09-28 | LG Electronics Inc. | Method for inputting a string of characters and apparatus thereof |
CN102693090A (zh) * | 2012-05-16 | 2012-09-26 | 刘炳林 | 一种输入方法和电子设备 |
Non-Patent Citations (1)
Title |
---|
MARZIAH KARCH ET AL: "《ANDROID TABLETS MADE SIMPLE:FOR MOTOROLA XOOM,SAMSUNG GALAXY TAB,ASUS,TOSHIBA AND OTHER TABLETS》", 18 November 2011 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107817942A (zh) * | 2016-09-14 | 2018-03-20 | 北京搜狗科技发展有限公司 | 一种滑行输入方法、系统和一种用于滑行输入的装置 |
CN107817942B (zh) * | 2016-09-14 | 2021-08-20 | 北京搜狗科技发展有限公司 | 一种滑行输入方法、系统和一种用于滑行输入的装置 |
CN108062168A (zh) * | 2016-11-09 | 2018-05-22 | 北京搜狗科技发展有限公司 | 一种候选词上屏方法、装置和用于候选词上屏的装置 |
CN108062168B (zh) * | 2016-11-09 | 2021-10-15 | 北京搜狗科技发展有限公司 | 一种候选词上屏方法、装置和用于候选词上屏的装置 |
CN114047872A (zh) * | 2021-10-11 | 2022-02-15 | 北京理工大学 | 一种文本输入方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2014062798A2 (en) | 2014-04-24 |
US10140284B2 (en) | 2018-11-27 |
US20140108992A1 (en) | 2014-04-17 |
US20150012873A1 (en) | 2015-01-08 |
US20170206193A1 (en) | 2017-07-20 |
WO2014062798A3 (en) | 2014-07-10 |
GB2525749B (en) | 2020-12-02 |
GB2525749A (en) | 2015-11-04 |
CN104718544B (zh) | 2019-05-31 |
US8850350B2 (en) | 2014-09-30 |
DE112013004619T5 (de) | 2015-06-18 |
US9678943B2 (en) | 2017-06-13 |
GB201505408D0 (en) | 2015-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104718544A (zh) | 部分手势文本输入 | |
CN105009064B (zh) | 使用语言和空间模型的触摸键盘 | |
US8887103B1 (en) | Dynamically-positioned character string suggestions for gesture typing | |
CN104020943B (zh) | 字符串替换 | |
CN105308551B (zh) | 用于连续手势输入的多图形键盘 | |
CN107085479B (zh) | 提供手写风格校正功能的方法和适用于其的电子装置 | |
US8701050B1 (en) | Gesture completion path display for gesture-based keyboards | |
US9477392B2 (en) | Presentation of tabular information | |
CN105122185A (zh) | 使用过去交互数据的文本建议输出 | |
CN105164616A (zh) | 一致文本建议输出 | |
CN104718545A (zh) | 递增的多词识别 | |
CN108710406A (zh) | 姿势适应选择 | |
US20160162162A1 (en) | Text Processing Method and Touchscreen Device | |
CN106874817A (zh) | 二维码识别方法、设备和移动终端 | |
CN104756061A (zh) | 多手势文本输入预测 | |
US20140160032A1 (en) | Swipe Stroke Input and Continuous Handwriting | |
CN104798016A (zh) | 递增多触摸手势识别 | |
US20140317496A1 (en) | Keyboard gestures for character string replacement | |
CN105074643A (zh) | 非词典字符串的手势键盘输入 | |
CN104123012A (zh) | 使用替代评分的非字典字符串的姿态键盘输入 | |
US9557818B2 (en) | Contextually-specific automatic separators | |
CN107967112B (zh) | 解码用于图形键盘的不准确手势 | |
CN108701123A (zh) | 图形键盘的动态键映射 | |
US9298276B1 (en) | Word prediction for numbers and symbols | |
CN104391644A (zh) | 一种输入方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: Google limited liability company Address before: American California Applicant before: Google Inc. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |