DE112012000189T5 - Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben - Google Patents

Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben Download PDF

Info

Publication number
DE112012000189T5
DE112012000189T5 DE112012000189T DE112012000189T DE112012000189T5 DE 112012000189 T5 DE112012000189 T5 DE 112012000189T5 DE 112012000189 T DE112012000189 T DE 112012000189T DE 112012000189 T DE112012000189 T DE 112012000189T DE 112012000189 T5 DE112012000189 T5 DE 112012000189T5
Authority
DE
Germany
Prior art keywords
characters
input
displayed
generated
sets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112012000189T
Other languages
English (en)
Other versions
DE112012000189B4 (de
Inventor
Jerome Pasquero
Donald Somerset McKenzie
Jason Tyler Griffin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Malikie Innovations Ltd Ie
Original Assignee
Research in Motion Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research in Motion Ltd filed Critical Research in Motion Ltd
Publication of DE112012000189T5 publication Critical patent/DE112012000189T5/de
Application granted granted Critical
Publication of DE112012000189B4 publication Critical patent/DE112012000189B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein Verfahren wird offenbart, das ein Empfangen einer Eingabe eines Zeichens von einer virtuellen Tastatur, die auf einer Anzeige angezeigt wird, ein Erzeugen eines Satzes von vorhergesagten Eingabe-Zeichen basierend auf dem Eingabe-Zeichen, und ein Anzeigen des erzeugten Satzes von Zeichen in Partitionen der virtuellen Tastatur in naher Assoziation mit Kandidaten-Buchstaben umfasst. Eine elektronische Vorrichtung und eine Tastatur, konfiguriert zum Durchführen des Verfahrens, werden ebenfalls offenbart.

Description

  • VERWANDTE ANMELDUNGSDATEN
  • Die vorliegende Anmeldung beansprucht Priorität zu und den Vorteil der vorläufigen U.S.-Patentanmeldung Nr. 61/603,043, angemeldet am 24. Februar 2012, die in ihrer Gesamtheit durch Bezugnahme hier aufgenommen ist. Die vorliegende Offenbarung bezieht sich auch auf die gemeinsame U.S.-Patentanmeldung Nr. 13/373,356, angemeldet am 10. November 2011, die in ihrer Gesamtheit durch Bezugnahme hier aufgenommen ist.
  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft im Allgemeinen Eingabe-Methodiken für elektronische Vorrichtungen, wie handgehaltene elektronische Vorrichtungen, und insbesondere Verfahren zum Empfangen einer prädiktiven Texteingabe und zur Erzeugung eines Satzes von Zeichen für elektronische Vorrichtungen.
  • HINTERGRUND
  • Zunehmend haben elektronische Vorrichtungen, wie Computer, Netbooks, zellulare Telefone, Smartphones, persönliche digitale Assistenten (PDAs – personal digital assistants), Tablets, etc., Berührungsbildschirme, die einem Benutzer ermöglichen, Zeichen in eine Anwendung einzugeben, wie eine Textverarbeitungs- oder Email-Anwendung. Eine Zeicheneingabe auf Berührungsbildschirmen kann eine mühselige Angelegenheit sein aufgrund zum Beispiel des kleinen Berührungsbildschirmbereichs, insbesondere, wenn ein Benutzer eine lange Nachricht eingeben möchte.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein beispielhaftes Blockdiagramm einer elektronischen Vorrichtung, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 2 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zur Vorhersage eines ausgewählten Satzes von Zeichen darstellt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 3A, 3B, 3C und 3D zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 4A und 4B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 5 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 6A, 6B und 6C zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 7 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 8A und 8B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 9 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 10A und 10B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 11A und 11B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 12A und 12B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 13A und 13B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 14A, 14B und 14C zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 15 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 16 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 17 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zeigt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 18 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zeigt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 19 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zeigt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 20 zeigt eine beispielhafte Vorderansicht einer virtuellen Tastatur zur Anzeige auf einem Berührungsbildschirm in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 21 bis 24 zeigen beispielhafte Vorderansichten einer virtuellen Tastatur zur Anzeige auf einem Berührungsbildschirm in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 25 bis 28 zeigen beispielhafte Vorderansichten einer virtuellen Tastatur zur Anzeige auf einem Berührungsbildschirm in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • 29 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren darstellt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.
  • BESCHREIBUNG VON BEISPIELHAFTEN AUSFÜHRUNGSBEISPIELEN
  • Es wird nun im Detail auf verschiedene Ausführungsbeispiele Bezug genommen, von denen Beispiele in den beigefügten Zeichnungen dargestellt werden. Wenn möglich, werden die gleichen Referenznummern in den gesamten Zeichnungen verwendet, um auf gleiche oder ähnliche Teile zu verweisen.
  • Die vorliegende Offenbarung betrifft eine elektronische Vorrichtung, einschließlich drahtgebundener Kommunikationsvorrichtungen (zum Beispiel ein Laptop-Computer mit einem Berührungsbildschirm) und mobiler oder handgehaltener drahtloser Kommunikationsvorrichtungen, wie zellulare Telefone, Smartphones, drahtlose Organizer, persönliche digitale Assistenten, drahtlos aktivierte Notebook-Computer, Tablets und ähnliche Vorrichtungen. Die elektronische Vorrichtung kann auch eine elektronische Vorrichtung ohne drahtlose Kommunikationsfähigkeiten sein, wie eine handgehaltene elektronische Spielevorrichtung, ein digitales Fotoalbum, eine Digitalkamera oder eine andere Vorrichtung.
  • Grundlegende prädiktive Texteingabe-Lösungen wurden zur Unterstützung bei einer Eingabe auf einer elektronischen Vorrichtung eingeführt. Diese Lösungen umfassen eine Vorhersage, welches Wort ein Benutzer eingibt, und bieten einen Vorschlag zur Vervollständigung des Worts. Aber diese Lösungen können Grenzen haben, die oft erfordern, dass der Benutzer die meisten oder alle der Zeichen in einem Wort eingibt, bevor die Lösung das Wort vorschlägt, das der Benutzer einzugeben versucht. Auch dann muss ein Benutzer oft den Fokus von der Tastatur weglenken, um das vorgeschlagene Wort zu betrachten und zu berücksichtigen, das auf einer anderen Stelle auf der Anzeige der elektronischen Vorrichtung angezeigt wird, und danach zurück auf die Tastatur blicken, um eine Eingabe fortzusetzen. Ein Neufokussieren der Augen in Bezug auf die Tastatur während einer Eingabe von Information in eine elektronische Vorrichtung, insbesondere bei einem Erstellen von langen Texten, kann die Augen ermüden und umständlich, ablenkend und anderweitig ineffizient sein. Ferner sind Verarbeitungszyklen verloren und Anzeigeleistung wird verschwendet, wenn der Prozessor im Leerlauf ist, während der Benutzer seine Aufmerksamkeit auf den Eingabebereich richtet und dann zurück zu der virtuellen Tastatur.
  • Die Effizienz von prädiktiven Texteingabe-Lösungen, aus der Perspektive von sowohl Vorrichtungsressourcen als auch Benutzererfahrung, hängt manchmal von dem bestimmten Benutzer und der Art der Interaktion des bestimmten Benutzers mit dem Berührungsbildschirm ab. Benutzungsmuster virtueller Tastaturen können grob als zwei Typen kategorisiert werden: „schnell” und „präzise”. Schnelle Tipper sind typischerweise schnelle zwei-Daumen-Tipper, die sich auf eine Autokorrektur verlassen. Dieses Benutzungsmuster entspricht am ehesten erfahrenen häufigen Berührungsbildschirm-Benutzern. Präzise Tipper sind typischerweise sorgfältige Tipper, die geneigt sind, ein Zeigen mit einem Finger zu benutzen, um Tasten in der virtuellen Tastatur anzutippen, und wählen oft Prädiktionen als einen Eingabebeschleuniger anstatt eine Autokorrektur. Dieses Benutzungsmuster entspricht am ehesten unerfahrenen/neuen Berührungsbildschirm-Benutzern sowie möglichen einhändigen (Daumen) Benutzungssituationen.
  • Entsprechend ermöglichen hier beschriebene beispielhafte Ausführungsbeispiele dem Benutzer einer elektronischen Vorrichtung, Zeichen einzugeben, ohne die Aufmerksamkeit von der Tastatur abzulenken und eine anschließende Neufokussierung zu erfordern. Beispielhafte Ausführungsbeispiele, die hier beschrieben werden, versuchen auch, unterschiedlichen Benutzertypen, wie schnellen Tippern und genauen Tippern, und den unterschiedlichen Herausforderungen hinsichtlich Effizienz gerecht zu werden, die durch die unterschiedlichen Benutzertypen präsentiert werden.
  • Eine Verwendung des unbestimmten Artikels „a” oder „an” („ein/eine”) in der Beschreibung und den Ansprüchen soll ein oder mehr als eines des Merkmals umfassen, das eingeführt wird, sofern nichts anderes angegeben. Somit kann der Begriff „ein Satz von Zeichen”, wie bei einem „Erzeugen eines Satzes von Zeichen” verwendet, die Erzeugung von einem oder mehr als einem Satz von Zeichen umfassen. Ebenso soll eine Verwendung des bestimmten Artikels „the” oder „said” („der/die/das”), insbesondere, nachdem ein Merkmal mit dem unbestimmten Artikel eingeführt wurde, ein oder mehr als eines des Merkmals umfassen, auf das er sich bezieht (falls nicht anders angegeben). Deshalb umfasst der Ausdruck „der erzeugte Satz von Zeichen”, wie bei einem „Anzeigen des erzeugten Satzes von Zeichen” verwendet, ein Anzeigen eines oder mehrerer erzeugter Sätze von Zeichen. Referenzen zur Ausrichtung bzw. Orientierung, die hier enthalten sind, wie horizontal und vertikal, sind relativ zu der Bildschirmausrichtung einer graphischen Benutzerschnittstelle anstatt zu einer physikalischen Ausrichtung.
  • In einem Ausführungsbeispiel ist ein Verfahren vorgesehen, das aufweist ein Empfangen einer Eingabe eines Zeichens von einer virtuellen Tastatur, die auf einer Anzeige dargestellt wird; ein Erzeugen eines Satzes oder mehrerer Sätze von vorhergesagten Eingabe-Zeichen basierend auf dem Eingabe-Zeichen; und ein Anzeigen eines oder mehrerer der erzeugten Sätze von vorhergesagten Eingabe-Zeichen in der virtuellen Tastatur an einer Position in der Nähe einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen in dem einen oder mehreren erzeugten Sätzen von vorhergesagten Eingabe-Zeichen entspricht.
  • In einem anderen Ausführungsbeispiel ist eine elektronische Vorrichtung vorgesehen, die einen Prozessor und eine Anzeige aufweist, die mit dem Prozessor gekoppelt ist. Der Prozessor kann konfiguriert sein zum Durchführen des/der hier beschriebenen Verfahren(s).
  • In einem anderen Ausführungsbeispiel ist eine Tastatur vorgesehen, die auf einer Anzeige einer elektronischen Vorrichtung vorgesehen ist. Die Tastatur kann eine Vielzahl von Tasten umfassen, wobei jede Taste einem oder mehreren verschiedenen Zeichen einer Vielzahl von Zeichen entspricht. In Reaktion auf ein Empfangen einer Eingabe eines Zeichens ist die Tastatur konfiguriert zum Durchführen des/der hier beschriebenen Verfahren(s).
  • Diese beispielhaften Ausführungsbeispiele sowie die unten beschriebenen ermöglichen dem Benutzer einer elektronischen Vorrichtung eine Eingabe eines Satzes von Zeichen ohne Ablenkung von der virtuellen Tastatur und einem nachfolgenden Neufokussieren. Ein Vorhersagen und Vorsehen von verschiedenen Optionen, die der Benutzer wahrscheinlich in Betracht zieht, und dies an geeigneten Positionen auf der Tastatur, ermöglicht, dass der Fokus auf der Tastatur bleibt, was eine Effizienz, Genauigkeit und Schnelligkeit einer Zeicheneingabe verbessert.
  • 1 ist ein Blockdiagramm einer elektronischen Vorrichtung 100 in Übereinstimmung mit hier offenbarten beispielhaften Ausführungsbeispielen. Die elektronische Vorrichtung 100 umfasst mehrere Komponenten, wie einen Hauptprozessor 102, der den Gesamtbetrieb der elektronischen Vorrichtung 100 steuert. Kommunikationsfunktionen, einschließlich Daten- und Sprachkommunikationen, werden durch ein Kommunikationsteilsystem 104 durchgeführt. Daten, die von der elektronischen Vorrichtung 100 empfangen werden, werden durch einen Decodierer 106 dekomprimiert und entschlüsselt. Das Kommunikationsteilsystem 104 empfängt Nachrichten von einem Netzwerk 150 und sendet Nachrichten an dieses. Das Netzwerk 150 kann jeder Typ von Netzwerk sein, einschließlich, aber nicht darauf beschränkt, ein drahtgebundenes Netzwerk, ein drahtloses Datennetzwerk, ein drahtloses Sprachnetzwerk, und drahtlose Dual-Modus-Netzwerke, die sowohl Sprach- als auch Datenkommunikationen über dieselben physikalischen Basisstationen unterstützen. Die elektronische Vorrichtung 100 kann ein batteriebetriebene Vorrichtung sein und eine Batterie-Schnittstelle 142 zur Aufnahme einer oder mehrerer Batterien 144 umfassen.
  • Der Hauptprozessor 102 ist mit zusätzlichen Teilsystemen gekoppelt und kann mit diesen interagieren, wie einem Arbeitsspeicher (RAM – Random Access Memory) 108; einem Speicher 110, wie eine Festplatte, CD, DVD, Flash-Speicher oder ähnliche Speichervorrichtung; einem oder mehreren Aktuatoren 120; einem oder mehreren Kraftsensoren 122; einem Hilfs-Eingabe/Ausgabe (E/A bzw. I/O-input/output)-Teilsystem 124; einem Datenanschluss 126; einem Lautsprecher 128; einem Mikrofon 130; Nahbereichskommunikationen 132; anderen Vorrichtungs-Teilsystemen 134; und einem Berührungsbildschirm 118.
  • Der Berührungsbildschirm 118 umfasst eine Anzeige 112 mit einer berührungsaktiven Überlagerung 114, die mit einer Steuervorrichtung 116 verbunden ist. Eine Benutzerinteraktion mit einer graphischen Benutzerschnittstelle (GUI – graphical user interface), wie einer virtuellen Tastatur, die auf der Anzeige 112 dargestellt und angezeigt wird als eine GUI zur Eingabe von Zeichen, oder ein Web-Browser, wird durch die berührungsaktive Überlagerung 114 durchgeführt. Der Hauptprozessor 102 interagiert mit der berührungsaktiven Überlagerung 114 über die Steuervorrichtung 116. Zeichen, wie Text, Symbole, Bilder und andere Elemente werden auf der Anzeige 112 des Berührungsbildschirms 118 über den Hauptprozessor 102 angezeigt. Zeichen werden eingegeben, wenn der Benutzer den Berührungsbildschirm an einer Position berührt, die mit dem Zeichen assoziiert ist.
  • Der Berührungsbildschirm 118 ist mit dem Hauptprozessor 102 verbunden und wird durch diesen gesteuert. Demgemäß kann ein Erfassen eines Berührungsereignisses und/oder ein Bestimmen der Position des Berührungsereignisses durch den Hauptprozessor 102 der elektronischen Vorrichtung 100 durchgeführt werden. Ein Berührungsereignis umfasst in einigen Ausführungsbeispielen ein Antippen durch einen Finger, eine Wischgeste bzw. Swipe durch einen Finger, eine Wischgeste mit einem Stift, ein langes Drücken mit einem Finger oder einem Stift oder ein Drücken mit einem Finger für eine vorgegebene Zeitdauer, und dergleichen.
  • Während spezifische Ausführungsbeispiele eines Berührungsbildschirms beschrieben wurden, kann jeder geeignete Typ von Berührungsbildschirm für eine elektronische Vorrichtung verwendet werden, einschließlich, aber nicht darauf beschränkt, ein kapazitiver Berührungsbildschirm, ein resistiver Berührungsbildschirm, ein „akustische Oberflächenwelle (SAW – surface acoustic wave)”-Berührungsbildschirm, ein „eingebettete Fotozelle”-Berührungsbildschirm, ein Infrarot-(IR – infrared)-Berührungsbildschirm, ein Dehnungsmesser-basierter Berührungsbildschirm, ein „optische Abbildung”-Berührungsbildschirm, ein „dispersive Signal-Technologie”-Berührungsbildschirm, ein „akustische Pulserkennung”-Berührungsbildschirm oder ein „Frustrated Total Internal Reflection”-Berührungsbildschirm. Der Typ der Berührungsbildschirm-Technologie, die in einem gegebenen Ausführungsbeispiel verwendet wird, ist abhängig von der elektronischen Vorrichtung und ihrer bestimmten Anwendung und ihren Anforderungen.
  • Der Hauptprozessor 102 kann auch mit einem Positionierungssystem 136 interagieren zum Bestimmen des Standorts der elektronischen Vorrichtung 100. Der Standort kann auf eine Anzahl von Arten bestimmt werden, wie durch einen Computer, durch GPS (Global Positioning System), in der elektrischen Vorrichtung 100 entweder enthalten oder nicht, durch ein WiFi-Netzwerk, oder durch manuelle Eingabe einer Position. Der Standort kann auch basierend auf Kalendereinträgen bestimmt werden.
  • Der Hauptprozessor 102 kann auch mit einem Ausrichtungs- bzw. Orientierungssensor 197 interagieren zum Erfassen der Ausrichtung der Vorrichtung. In einigen Beispielen kann der Ausrichtungssensor 197 ein oder mehrere Beschleunigungsmesser sein. In einigen Beispielen kann der Ausrichtungssensor eine Beschleunigung entlang mehrerer orthogonaler Achsen erfassen. Der Hauptprozessor 102 kann auch mit einem oder mehreren Nähe-Sensoren 198 interagieren zum Erfassen der Nähe von Objekten in der Nähe. In einigen Beispielen kann der Nähe-Sensor ein oder mehrere Infrarot-Emitter/Sensor-Paare sein. Der Hauptprozessor 102 kann auch mit einem Umgebungslicht-Sensor 199 interagieren zum Erfassen der Intensität und/oder der Farbtemperatur eines Umgebungslichts.
  • In einigen Ausführungsbeispielen verwendet die elektronische Vorrichtung 100, um einen Teilnehmer für einen Netzwerkzugriff zu identifizieren, eine SIM/RUIM(Subscriber Identity Module oder Removable User Identity Module)-Karte 138, eingefügt in eine SIM/RUIM-Schnittstelle 140, zur Kommunikation mit einem Netzwerk, wie dem Netzwerk 150. Alternativ kann eine Benutzeridentifikationsinformation in den Speicher 110 programmiert sein.
  • Die elektronische Vorrichtung 100 umfasst auch ein Betriebssystem 146 und Programme 148, die von dem Hauptprozessor 102 ausgeführt werden und typischerweise in einem Speicher 110 gespeichert sind. Zusätzliche Anwendungen können auf die elektronische Vorrichtung 100 über das Netzwerk 150, das Hilfs-E/A-Teilsystem 124, den Datenanschluss 126, das Nahbereichs-Kommunikationsteilsystem 132 oder jedes andere geeignete Teilsystem geladen werden.
  • Ein empfangenes Signal, wie eine Textnachricht, eine Email-Nachricht oder eine heruntergeladene Webseite wird von dem Kommunikationsteilsystem 104 verarbeitet und diese verarbeitete Information wird dann an den Hauptprozessor 102 geliefert. Der Hauptprozessor 102 verarbeitet das empfangene Signal zur Ausgabe an die Anzeige 112, das Hilfs-E/A-Teilsystem 124, oder eine Kombination aus beiden. Ein Benutzer kann Datenelemente erstellen, zum Beispiel Email-Nachrichten, die über das Netzwerk 150 durch das Kommunikationsteilsystem 104 übertragen werden können. Für Sprachkommunikationen ist der allgemeine Betrieb der elektronischen Vorrichtung 100 ähnlich. Ein Lautsprecher 128 gibt hörbare Information aus, die aus elektrischen Signalen umgewandelt wurde, und das Mikrofon 130 wandelt hörbare Information in elektrische Signale zur Verarbeitung um.
  • 2 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren 200 zum Vorhersagen eines Satzes von Zeichen in Übereinstimmung mit hier offenbarten beispielhaften Ausführungsbeispielen darstellt. Wie hier verwendet, um fasst ein Prädiktor (wie ein prädiktiver Algorithmus, Programm oder Firmware) einen Satz von Anweisungen, die bei Ausführung durch einen Prozessor (zum Beispiel den Hauptprozessor 102) verwendet werden können, um zum Beispiel eine empfangene mehrdeutige Texteingabe zu disambiguieren und verschiedene Optionen vorzusehen, wie einen Satz von Zeichen (zum Beispiel Wörter oder Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen, oder jede Kombination daraus), die ein Benutzer in Betracht ziehen könnte. Ein Prädiktor kann auch eine ansonsten eindeutige Texteingabe empfangen und einen Satz bzw. Sätze von Zeichen vorhersagen, der/die möglicherweise von dem Benutzer in Betracht gezogen wird/werden, basierend auf mehreren Faktoren, wie Kontext, Verwendungshäufigkeit, und anderes, wie für Fachleute offensichtlich ist. Der Prädiktor kann einen Satz von Zeichen vorhersagen, der eine empfangene Texteingabe vervollständigt (als Autovervollständigen bekannt), eine empfangene Texteingabe korrigieren (als Autokorrektur bekannt), oder eine Kombination daraus (zum Beispiel Vervollständigen der Texteingabe während eines Korrigierens einer vorher eingegebenen Texteingabe).
  • Zum Beispiel ist der Prädiktor ein Programm 148, das sich in dem Speicher 110 der elektronischen Vorrichtung 100 befindet. Demgemäß umfasst das Verfahren 200 einen Prädiktor zum Erzeugen eines Satzes von Zeichen, der einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, basierend auf eingegebenen Zeichen. Es ist anzumerken, dass, während die hier beschriebenen beispielhaften Ausführungsbeispiele ein Prädiktor-Programm betreffen, das von einem Prozessor ausgeführt wird, der Prädiktor durch eine Steuervorrichtung der virtuellen Tastatur ausgeführt werden kann.
  • Das Verfahren 200 beginnt in Block 210, wo der Prozessor eine Eingabe aus einem oder mehreren Zeichen von einer virtuellen Tastatur empfängt, die auf einem Berührungsbildschirm angezeigt wird. Wie hier verwendet, kann jedoch ein Zeichen jedes alphanumerische Zeichen, wie ein Buchstabe, eine Zahl, ein Symbol, eine Interpunktion und dergleichen sein. Das eingegebene Zeichen kann in einem Eingabefeld angezeigt werden (zum Beispiel das Eingabefeld 330, das weiter unten in den 39 beschrieben wird), das das Zeichen anzeigt, das der Benutzer unter Verwendung der virtuellen Tastatur eingibt.
  • In Block 220 erzeugt der Prozessor einen oder mehrere Sätze von Zeichen, wie Wörter oder Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen oder jede Kombination daraus, basierend auf der Eingabe, die in Block 210 empfangen wird. Der Satz von Zeichen umfasst zum Beispiel einen Satz von Zeichen, der in einem Wörterbuch (zum Beispiel ein Wort oder ein Akronym) eines Speichers der elektronischen Vorrichtung gespeichert ist, einen Satz von Zeichen, der früher von dem Benutzer eingegeben wurde (zum Beispiel ein Name oder Akronym), einen Satz von Zeichen basierend auf einer Hierarchie oder Baumstruktur, eine Kombination daraus, oder einen Satz von Zeichen, der von einem Prozessor basierend auf einer definierten Anordnung ausgewählt wird.
  • In einigen Ausführungsbeispielen kann der Prozessor Kontextdaten zum Erzeugen eines Satzes von Zeichen verwenden. Kontextdaten berücksichtigen den Kontext von Zeichen in dem Eingabefeld. Kontextdaten können Information enthalten über zum Beispiel einen Satz von Zeichen, der zuvor von dem Benutzer eingegeben wurde, grammatikalische Eigenschaften der Zeichen, die in dem Eingabefeld eingegeben werden (zum Beispiel, ob ein Substantiv oder ein Verb als der nächste Satz von Zeichen in einem Satz benötigt wird) oder jede Kombination daraus. Wenn zum Beispiel der Satz von Zeichen „the (der/die/das)” bereits in die Anzeige eingegeben wurde, kann der Prozessor die Kontextdaten verwenden, um zu bestimmen, dass ein Substantiv – anstelle eines Verbs – der nächste Satz von Zeichen sein wird nach dem „the”. Ähnlich, wenn die Sätze von Zeichen „Guy Lafleur played in the National Hockey” eingegeben wurden, kann der Prozessor basierend auf dem Kontext bestimmen, dass der nachfolgende Satz von Zeichen wahrscheinlich „League” ist. Unter Verwendung der Kontextdaten kann der Prozessor auch bestimmen, ob ein eingegebenes Zeichen nicht korrekt war. Zum Beispiel kann der Prozessor bestimmen, dass das eingegebene Zeichen ein „w” anstelle eines „a” sein sollte, aufgrund der Nähe dieser Zeichen auf einer virtuellen QWERTY-Tastatur.
  • Der Prozessor 102 kann auch ein Affix als Teil des Satzes von Zeichen aufnehmen, wie ein Adverb-Ende, ein Adjektiv-Ende, verschiedene Verb-Zeitformen, und dergleichen, oder jede andere Änderung, um einen vollständigen Satz von Zeichen herzustellen. Der Prozessor 102 kann auch die empfangene Eingabe verwenden, um Affixe zu erzeugen, wie Pluralendungen oder Pluralformen. Jede bekannte prädiktive Technik oder Software kann verwendet werden, um die empfangene Eingabe und die Kontextdaten bei der Erzeugung eines Satzes von Zeichen in Block 220 zu verarbeiten.
  • In einigen beispielhaften Ausführungsbeispielen kann der Satz von Zeichen, der in Block 220 erzeugt wird, mit demselben Zeichen beginnen, das als Eingabe in Block 210 empfangen wurde. Wenn zum Beispiel die Zeichen „pl” als Eingabe unter Verwendung einer virtuellen Tastatur empfangen wurden, werden diese Zeichen von dem Prozessor als Eingabe empfangen. In diesen Ausführungsbeispielen würden die Sätze von Zeichen, die in Block 220 erzeugt werden, alle mit „pl” beginnen, wie „please” oder „plot”. Es gibt keine Begrenzung für die Länge eines erzeugten Satzes von Zeichen. Hinsichtlich Affixen, wenn der Benutzer zum Beispiel das Zeichen „child” eingegeben hat, können die Affixe, die in Block 220 erzeugt werden, „-ren” umfassen, damit der Satz von Zeichen „children” wird, oder „-ish”, damit der Satz von Zeichen „childish” wird.
  • In einigen beispielhaften Ausführungsbeispielen kann der Satz von Zeichen, der in Block 220 erzeugt wird, einfach dieselben Zeichen umfassen, die als Eingabe in Block 210 empfangen werden. Wenn zum Beispiel die empfangene Eingabe ein „x” ist, kann der Prozessor „example” oder „xylophone” als den Satz von Zeichen erzeugen. Solche Sätze von Zeichen können unter Verwendung der Kontextdaten erzeugt werden.
  • In einem anderen beispielhaften Ausführungsbeispiel, wenn keine Eingabe empfangen wurde oder ein Delimiter bzw. Trennzeichen (wie <LEERZEICHEN> bzw. <SPACE>) verwendet wurde, kann der erzeugte Satz von Zeichen auf nachfolgende Kandidaten-Eingabe-Zeichen platziert werden, die dem ersten Buchstaben des erzeugten Satzes von Zeichen entsprechen.
  • Als nächstes kann in Block 230 der erzeugte Satz von Zeichen aus dem Block 220 eingestuft werden. Die Einstufungen bzw. Rangordnungen reflektieren die Wahrscheinlichkeit, dass ein Kandidaten-Satz von Zeichen von dem Benutzer beabsichtigt war oder von einem Benutzer ausgewählt werden kann im Vergleich zu einem anderen Kandidaten-Satz von Zeichen.
  • In einigen Ausführungsbeispielen können Kontextdaten in der Rangeinstufung in Block 230 enthalten sein. In einigen Ausführungsbeispielen kann die elektronische Vorrichtung konfiguriert sein, Substantive oder Adjektive höher einzuordnen basierend auf dem vorher eingegebenen Satz von Zeichen. Wenn der eingegebene Satz von Zeichen ein Substantiv oder Adjektiv andeutet, kann der Prozessor unter Verwendung der Kontextdaten die Substantive oder Adjektive entsprechend dem, was der Benutzer eingibt, höher einordnen in Block 230. In einem weiteren Ausführungsbeispiel kann ein Satz von Zeichen, der Adjektiv-Affixe (wie „-ish” oder „-ful”), Ausdrücke, Pluralformen, oder Kombinationen daraus umfasst, ebenfalls in einer Rangeinstufung eingeordnet werden. Kontextdaten können die Wahrscheinlichkeit erhöhen, dass der höherrangige erzeugte Satz von Zeichen von einem Benutzer beabsichtigt ist. In einigen Ausführungsbeispielen können die Kontextdaten Information darüber umfassen, welche Programme oder Anwendungen derzeit ausgeführt werden oder durch einen Benutzer verwendet werden. Wenn zum Beispiel der Benutzer eine Email-Anwendung ausführt, dann können Sätze von Zeichen, die mit dem Email-System dieses Benutzers assoziiert sind, wie Sätze von Zeichen aus der Kontaktliste des Benutzers, verwendet werden, um die Rangeinstufung zu bestimmen. N-Gramme, einschließlich Unigramme, Bigramme, Trigramme, und dergleichen, können ebenfalls in der Rangeinstufung der Sätze von Zeichen verwendet werden. Alternativ kann die Geoposition der elektronischen Vorrichtung oder des Benutzers bei der Rangeinstufung verwendet werden. Wenn zum Beispiel die elektronische Vorrichtung erkennt, dass sich ein Benutzer in seinem/ihrem Büro befindet, dann können Sätze von Zeichen, die im Allgemeinen mit Arbeit assoziiert sind, in der Liste höher eingeordnet werden. Wenn andererseits die Vorrichtung bestimmt, dass ein Benutzer am Strand ist, dann können Sätze von Zeichen, die im Allgemeinen mit dem Strand assoziiert sind, in der Liste höher eingeordnet werden.
  • In Block 240 bestimmt der Prozessor, welcher der Sätze von Zeichen anzuzeigen ist basierend auf der Rangeinstufung. Beispielsweise wird für höherrangige Sätze von Zeichen eher bestimmt, dass sie angezeigt werden sollen. Eine Rangeinstufungseinheit (wie ein Rangeinstufungs-Algorithmus, Programm oder Firmware) umfasst einen Satz von Anweisungen, die bei Ausführung durch einen Prozessor (zum Beispiel den Hauptprozessor 102) ausgeführt werden können, um eine Rangeinstufung in dieser Hinsicht zu bestimmen. In einigen Ausführungsbeispielen ist die Rangeinstufungseinheit ein Programm 146, das sich in dem Speicher 110 der elektronischen Vorrichtung 100 befindet.
  • In Block 250 wird der bestimmte Satz von Zeichen an einer Position auf der Tastatur entsprechend eines nachfolgenden Kandidaten-Eingabe-Zeichens angezeigt, vorhergesagt als das nächste Zeichen in einem Wort, das der Benutzer eingeben könnte. Wenn zum Beispiel ein Benutzer „pl” eingibt, würde das Wort „please” auf der Taste für den Buchstaben „e” angezeigt, dem nachfolgenden Kandidaten-Eingabe-Zeichen für dieses Wort. Ähnlich würde auch das Wort „plus” auf der Taste für den Buchstaben „u” angezeigt, ein weiteres nachfolgendes Kandidaten-Eingabe-Zeichen. Das nachfolgende Kandidaten-Eingabe-Zeichen kann jedes alphanumerische Zeichen sein, wie ein Buchstabe, eine Zahl, ein Symbol, ein Interpunktion und dergleichen.
  • In einigen Ausführungsbeispielen wird der erzeugte Satz von Zeichen an oder nahe von Tasten auf der virtuellen Tastatur angezeigt, die mit den nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert sind. Ihre Platzierung an oder nahe einer Taste kann zum Beispiel von der Größe des Worts oder der Anzahl von benachbarten nachfolgenden Kandidaten-Eingabe-Zeichen und der Größe ihres zugehörigen Satzes von Zeichen abhängen.
  • Der Satz von Zeichen kann in einer Weise angezeigt werden, die die Aufmerksamkeit des Benutzers gewinnt. In einigen Ausführungsbeispielen kann das Erscheinungsbild eines angezeigten Satzes von Zeichen verbessert oder in einer Weise verändert werden, die den Satz für den Benutzer einfacher sichtbar macht. Zum Beispiel können angezeigte Sätze von Zeichen mit einer Hintergrundbeleuchtung, einem Hervorheben, Unterstreichen, Fettschrift, Kursivschrift, unter Verwendung von Kombinationen daraus, oder in einer anderen Weise angezeigt werden, um den angezeigten Satz von Zeichen sichtbarer zu machen.
  • Bei der Identifizierung des Satzes von Zeichen zur Anzeige in Block 240 kann der Prozessor die angezeigten Sätze von Zeichen auf die ersten wenigen begrenzen oder aus den höherrangigen Sätzen von Zeichen auswählen. Wenn zum Beispiel zwei Sätze von Zeichen beide hoch eingeordnet sind, und diese Sätze von Zeichen ansonsten auf derselben Taste angezeigt würden, kann die elektronische Vorrichtung konfiguriert sein, nur den am höchsten eingeordneten erzeugten Satz von Zeichen anzuzeigen. In anderen Ausführungsbeispielen können beide Sätze von Zeichen auf oder um dieselbe Taste angezeigt werden, oder ein Satz von Zeichen wird auf einer Taste angezeigt, während der zweite Satz von Zeichen an einer anderen Taste angezeigt wird. In einigen beispielhaften Ausführungsbeispielen kann der Prozessor die Anzeigegröße berücksichtigen, um die Anzahl von erzeugten Sätzen von Zeichen zu begrenzen.
  • In einigen Ausführungsbeispielen kann die Rangeinstufung verwendet werden, um zwischen einem oder mehreren Sätzen von Zeichen auszuwählen, die bei Anzeige auf benachbarten nachfolgenden Kandidaten-Eingabe-Zeichen einander überlappen würden (zum Beispiel aufgrund ihrer jeweiligen Längen). In einem solchen Szenario kann die elektronische Vorrichtung konfiguriert sein, den höherrangigen Satz von Zeichen auf der Tastatur anzuzeigen. Wenn zum Beispiel der Satz von Zeichen „establishment” als erster in einer Liste angeordnet ist, die in Block 240 erzeugt wird, nachdem der Buchstabe „E” eingegeben wird, kann „establishment” an der „S”-Taste angezeigt werden. Wenn auf einer virtuellen Tastatur angezeigt, kann jedoch seine Länge einen Platz auf der „A”-Taste und der „D”-Taste besetzen, und möglicherweise einen Satz von Zeichen blockieren, der an oder um diese Tasten angezeigt würde. In Block 240 kann bestimmt werden, dass „establishment” vollständig angezeigt wird, und kein anderer Satz von Zeichen an den „A”- oder „D”-Tasten vor dem erstrangigen Satz von Zeichen „establishment” platziert wird. Eine Alternative zur Anzeige nur des obersten Satzes von Zeichen wäre, Abkürzungen oder anerkannte verkürzte Formen des Satzes von Zeichen zu verwenden, was effektiv ermöglicht, dass ein langer Satz von Zeichen in oder hauptsächlich in den Grenzen einer einzelnen Taste angezeigt wird gleichzeitig mit anderen Sätzen von Zeichen auf benachbarten Tasten einer virtuellen Tastatur.
  • Die 39 zeigen eine Reihe von beispielhaften Vorderansichten des Berührungsbildschirms 118 mit einer virtuellen Tastatur 320, in Übereinstimmung mit hier offenbarten beispielhaften Ausführungsbeispielen. Beginnend mit 3A umfasst der Berührungsbildschirm 118 eine virtuelle Tastatur 320, die berührungsaktiv ist. Die Position der virtuellen Tastatur 320 ist variabel derart, dass die virtuelle Tastatur 320 an jeder beliebigen Position auf dem Berührungsbildschirm 118 platziert werden kann. Der Berührungsbildschirm 118 kann konfiguriert sein, die Position und möglicherweise einen Druck von einem oder mehreren Objekten gleichzeitig zu erfassen. Der Berührungsbildschirm 118 umfasst zwei Bereiche: (1) ein Eingabefeld 330, das Zeichen anzeigt, nachdem ein Benutzer diese Zeichen eingegeben hat, und (2) die virtuelle Tastatur 320, die die Eingabe von dem Benutzer empfängt. Wie in dieser Offenbarung beschrieben wird, zeigt eine virtuelle Tastatur einen Satz von Zeichen an einer Position auf der Tastatur entsprechend einem nachfolgenden Kandidaten-Eingabe-Zeichen an, das als Eingabe von dem Benutzer empfangen werden könnte.
  • Die Beispiele und Ausführungsbeispiele, die in den 39 dargestellt werden, können mit jedem Satz von Zeichen implementiert werden, wie Wörter, Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen oder jeder Kombination daraus.
  • Wie in 3A gezeigt, zeigt der Berührungsbildschirm 118 eine virtuelle Standard-QWERTY-Tastatur 320 an; jedoch kann jede herkömmliche Tastenkonfiguration angezeigt werden zur Verwendung in der Vorrichtung, wie AZERTY, QWERTZ oder eine Anordnung, die auf dem ITU(International Telecommunication Union)-Standard (ITU E.161) basiert, mit „ABC” auf der Taste 2, „DEF” auf der Taste 3, und so weiter. Die virtuelle Tastatur 320 umfasst eine Leertaste (space key) 350 sowie andere Tasten, die verschiedene Eingaben vorsehen können, wie Interpunktion, Buchstaben, Zahlen, Eingabe- oder Return-Tasten und Funktionstasten. Während die virtuelle Tastatur 320 als in einer quadratischen Form gezeigt wird, kann sie jede andere Form haben (wie zum Beispiel ein Bogen).
  • Wie in 3A gezeigt, zeigt der Berührungsbildschirm 118 ein Eingabefeld 330 an, das die Zeichen anzeigt, die der Benutzers über die virtuelle Tastatur 320 eingibt. Das Eingabefeld 330 umfasst einen Cursor 340, der ein Unterstrich (wie gezeigt) oder eine andere Form sein kann, wie eine vertikale Linie. Der Cursor 340 repräsentiert die Zeichen-Position, an der ein nächstes eingegebenes Zeichen, ein ausgewähltes Zeichen, oder ein ausgewählter Satz von Zeichen eingefügt wird.
  • Wie in 3B gezeigt, wenn ein Benutzer ein Zeichen eingibt (in diesem Beispiel „P”), wird dieses Zeichen in dem Eingabefeld 330 angezeigt und der Cursor 340 bewegt sich zu der Zeichen-Position, wo das nächste eingegebene Zeichen oder Wort eingefügt wird. Nachdem das Zeichen eingegeben ist, kann ein Prädiktor (wie ein prädiktiver Algorithmus oder eine Schaltung) Sätze von Zeichen 360 erzeugen (für diese Ausführungsbeispiel), die alle mit dem Zeichen „P” beginnen, oder Zeichen, wenn mehr als ein Zeichen eingegeben wird. Die erzeugten Sätze von Zeichen werden an einer Position auf der Tastatur angezeigt, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, das als Eingabe von dem Benutzer empfangen werden kann. Wie erwähnt, können die erzeugten Sätze von Zeichen 360 an oder nahe der Taste angezeigt werden, die den nachfolgenden Kandidaten-Eingabe-Zeichen entspricht (zum Beispiel unter den jeweiligen Tasten A, E, H und O der virtuellen Tastatur 320). Tatsächlich kann ein leichtes Verschieben der Anzeigeposition des erzeugten Satzes von Zeichen eine Überfüllung von nachfolgenden Kandidaten-Eingabe-Zeichen adressieren, wodurch effektiv ermöglicht wird, dass mehr Sätze von Zeichen angezeigt werden können.
  • In dem Beispiel, das in 3B gezeigt wird, wird „P” als Eingabe empfangen und ein Prädiktor erzeugt mehrere Sätze von Zeichen 360, die an den Tasten angezeigt werden, die dem nachfolgenden Kandidaten-Eingabe-Zeichen jedes erzeugten Satzes von Zeichen entsprechen. Wie in 3B gezeigt, wird „People” an der „E”-Taste platziert, da der nächste Buchstabe nach dem „P” von „People” „E” ist; „Paul” wird an der „A”-Taste platziert, da der nächste Buchstabe nach dem „P” von „Paul” „A” ist; „Phone” wird an der „H”-Taste platziert, da der nächste Buchstabe nach dem „P” von „Phone” „H” ist; und so weiter. Es sollte angemerkt werden, dass jeder der Buchstaben in dem Satz von Zeichen Großbuchstaben oder Kleinbuchstaben haben kann.
  • In dem in 3C gezeigten Ausführungsbeispiel ist „L” die nächste Eingabe, die durch den Berührungsbildschirm empfangen wird, und ein Prädiktor bestimmt mehrere erzeugte Sätze von Zeichen 360, die an einer Taste angezeigt werden entsprechend den nachfolgenden Kandidaten-Eingabe-Zeichen (zum Beispiel unter den jeweiligen Tasten A, E, und U der virtuellen Tastatur 320) für die aktuelle Position des Cursors 340, der an der dritten Zeichen-Position ist, wie in dem Eingabefeld 330 gezeigt wird. In einem anderen Ausführungsbeispiel kann ein erzeugter Satz von Zeichen 360 derart dargestellt werden, als das nachfolgende Kandidaten-Eingabe-Zeichen umfassend. Zum Beispiel kann der Satz von Zeichen „Please” angezeigt werden derart, dass die Zeichen „Pl” angezeigt werden vor dem „E”-Zeichen auf der Taste „E” und die Zeichen „ase” können nach dem „E”-Zeichen auf der „E”-Taste platziert werden. Ferner kann in diesem oder anderen Ausführungsbeispielen das angezeigte „E” auf eine Weise dargestellt werden, die sich von „PL” und „ase” unterscheidet, wodurch es für den Benutzer möglich ist, diese weiter als die „E”-Taste zu erkennen, während sie auch einfach zu erkennen ist, so dass der Benutzer entweder den erzeugten Satz von Zeichen „Please” eingeben kann oder das Zeichen „E” eingeben kann. Das „E” kann in Großbuchstaben oder in Kleinbuchstaben sein. In anderen Ausführungsbeispielen kann ein Affix an der Taste angezeigt werden. Unter Verwendung des obigen Beispiels des Satzes von Zeichen „Please”, kann „ase” an der „E”-Taste angezeigt werden, so dass der Satz von Zeichenfragmenten „-ease” oder „-Ease” erscheinen würde.
  • Wenn der Benutzer einen erzeugten Satz von Zeichen eingibt, wird dieser Satz von Zeichen in dem Eingabefeld 330 platziert. Dies ist in 3D zu sehen, wo der Benutzer den erzeugten Satz von Zeichen „Please” eingegeben hat, was zu dessen Platzierung in dem Eingabefeld führt. Ein Leerzeichen wird nach dem Satz von Zeichen eingefügt, wenn der Benutzer wünscht, einen neuen Satz von Zeichen einzugeben. Ein Benutzer kann einen erzeugten Satz von Zeichen auf verschiedene Weise eingeben, einschließlich auf eine Weise, die sich von einer Weise zum Eingeben einer Zeichen-Taste unterscheidet. Zum Beispiel kann zur Eingabe eines erzeugten Satzes von Zeichen ein Benutzer einen Finger oder Stift verwenden, um den erzeugten Satz von Zeichen zu „wischen”. Wie hier verwendet, umfasst eine Wischgeste eine Wischgeste auf dem Satz von Zeichen selbst oder eine Wischgeste oder ein Berühren in der Nähe des Satzes von Zeichen. Für letzteres Ausführungsbeispiel kann die Vorrichtung eine Wischgeste oder eine Berührung in der Nähe eines Satzes von Zeichen erfassen, sei es ein erzeugter Satz von Zeichen oder ein vorhergesagter Satz von Zeichen (wie weiter unten beschrieben wird), und durch die Verwendung eines Prädiktors den Satz von Zeichen zu bestimmen, den der Benutzer eingeben wollte. In einem anderen Ausführungsbeispiel kann der Benutzer eine Taste für eine vorgegebene Zeitdauer betätigen, wie ein langes Drücken. Diese Taste kann zum Beispiel die Taste sein, die dem nachfolgenden Kandidaten-Eingabe-Zeichen des Satzes von Zeichen entspricht. Wenn somit der Satz von Zeichen „Please” eingegeben werden soll anstatt „E”, kann die elektronische Vorrichtung 100 konfiguriert sein, zu erfordern, dass die „E”-Taste für eine vorgegebene Zeitdauer gedrückt wird, um die Eingabe von „Please” auszulösen.
  • Nachdem ein erzeugter Satz von Zeichen 360 bestimmt wurde, wie in 3D gezeigt, kann ein vorhergesagter Satz von Zeichen 380 angezeigt werden, wie hier an der Leertaste 350 gezeigt. Der vorhergesagte Satz von Zeichen 380 kann sich von dem erzeugten Satz von Zeichen 360 unterscheiden (wie in den 3A3C gezeigt) und ist der Versuch des Systems, den nächsten Satz von Zeichen vorherzusagen, den ein Benutzer in Betracht ziehen könnte. Ein Prädiktor wird verwendet, um einen vorhergesagten Satz von Zeichen 380 zu bestimmen. Wie bei dem angezeigten erzeugten Satz von Zeichen 360, kann ein vorhergesagter Satz von Zeichen 380 als Eingabe auf verschiedene Weise empfangen werden, einschließlich Empfangen einer Wischgeste auf dem vorhergesagten Satz von Zeichen mit einem Finger oder Stift oder Empfangen eines Drückens einer Taste (wie der Leertaste oder einer anderen zugewiesenen Taste) für eine vorgegebene Zeitdauer (langes Drücken).
  • In 4A empfängt die elektronische Vorrichtung 100 „C” als eine Eingabe von der virtuellen Tastatur 320. Wiederum bestimmt ein Prädiktor einen erzeugten Satz von Zeichen 460 basierend zum Teil auf der empfangenen Eingabe. In 4B empfängt die elektronische Vorrichtung 100 „O” als Eingabe von der virtuellen Tastatur und gibt das „O” in dem Eingabefeld 330 aus. Wie in 4A gezeigt, wurde der Satz von Zeichen „count” an der „O”-Taste angezeigt, nachdem die Eingabe des „C”-Zeichens empfangen wurde. Da die „O”-Taste auf eine Weise gedrückt wurde, um nur das „O”-Zeichen einzugeben, wie in 4B gezeigt, wird ein „O” als zweites Zeichen des aktuell eingegebenen Satzes von Zeichen angezeigt, und der Satz von Zeichen „count” wird nicht durch den Benutzer eingegeben. Alternativ, wenn ein Benutzer den erzeugten Satz von Zeichen „count” eingeben wollte, kann der Benutzer die „O”-Taste in 4A auf eine andere Weise als die Weise der Eingabe der „O”-Taste eingeben, zum Beispiel durch eine Wischgeste auf dem Satz von Zeichen „count” oder durch ein langes Drücken der „O”-Taste, im Gegensatz zu einem Antippen. Zurück zu 4B werden, nachdem das „O” eingegeben ist, erzeugte Sätze von Zeichen 460 an den Tasten angezeigt, die den nachfolgenden Kandidaten-Eingabe-Zeichen entsprechen, wie in 4B gezeigt.
  • 5 zeigt das Eingabefeld 330, das den Satz von Zeichen „contact” gefolgt von einem Leerzeichen anzeigt. In diesem Beispiel hat der Benutzer den erzeugten Satz von Zeichen „contact” 460 eingegeben, wie in 4B an der „N”-Taste gezeigt wurde. Unter Bezugnahme wiederum auf 5 wird nun ein <LEER>-Zeichen automatisch nach dem erzeugten Wort in dem Eingabefeld eingefügt. Das vorhergesagte Wort „me” 580 wird nun auf der Leertaste 350 angezeigt.
  • Wenn das vorhergesagte Wort „me” 580 als Eingabe empfangen wird, wird das Wort „me” 580 dann in dem Eingabefeld 330 angezeigt, gefolgt von einem Leerzeichen, wie in 6A gezeigt, die dann das vorhergesagte Wort 680 „immediately” angezeigt auf der Leertaste 350 zeigt. Das vorhergesagte Wort wird dargestellt, nachdem ein vollständiges Wort und Leerzeichen in dem Eingabefeld 330 angezeigt wurden.
  • 6B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 das „T”-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die Taste „T” gedrückt hat. In diesem Szenario zeigt der Berührungsbildschirm 118 ein „t” in dem Eingabefeld 330 an. Erzeugte Sätze von Zeichen 660 (zum Beispiel „Tuesday”, „today” und „Thursday”) werden an den Tasten der nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. 6C zeigt ein Beispiel, wo die elektronische Vorrichtung 100 das „o”-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die „O”-Taste drückt anstatt einen erzeugten Satz von Zeichen 660 „today” einzugeben, wie in 6B gezeigt wurde. Somit wird nun „o” in dem Eingabefeld 330 angezeigt.
  • 7 zeigt ein Beispiel, in dem der Berührungsbildschirm 118 das <LEER>-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die Leertaste auswählt. In diesem Szenario fügt der Berührungsbildschirm 118 ein <LEER>-Zeichen ein und zeigt dann den vorhergesagten Satz von Zeichen „talk” 780 an der Leertaste 350 an.
  • 8A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 das „d”-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die Taste „D” drückt. In diesem Szenario zeigt der Berührungsbildschirm 118 ein „d” in dem Eingabefeld 330 an und zeigt die erzeugten Sätze von Zeichen „discuss”, „divide” und „dinner” 860 an Tasten an, die nachfolgenden Kandidaten-Eingabe-Zeichen entsprechen. In diesem beispielhaften Ausführungsbeispiel, während das Zeichen „I” niemals als Eingabe empfangen wurde, bestimmt die elektronische Vorrichtung 100, dass die erzeugten Sätze von Zeichen „discuss”, „divide” und „dinner” 860 die Sätze von Zeichen sind, die auf dem Berührungsbildschirm anzuzeigen sind. In diesem Ausführungsbeispiel, da jeder dieser Sätze von Zeichen „i” als zweiten Buchstaben hat, zeigt der Berührungsbildschirm 118 erzeugte Sätze von Zeichen an unter Verwendung eines weiteren nachfolgenden Buchstabens in dem Satz von Zeichen (zum Beispiel „discuss” unter der Taste „S”, „divide” unter der Taste „V” und „dinner” unter der Taste „N”). In anderen Ausführungsbeispielen können die erzeugten Sätze von Zeichen „discuss”, „divide” und „dinner” 860 an oder nahe der Taste „I” angezeigt werden.
  • 8B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „discuss” als Eingabe empfangen hat, nachdem der Benutzer den erzeugten Satz von Zeichen „discuss” 860 ausgewählt hat. In diesem Beispiel zeigt der Berührungsbildschirm 118 den vorhergesagten Satz von Zeichen „this” 880 an der Leertaste 350 an.
  • 9 zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „this” als Eingabe empfängt, nachdem der Benutzer „this” als gewünschten vorhergesagten Satz von Zeichen 880 auswählt. In diesem Beispiel zeigt der Berührungsbildschirm 118 den vorhergesagten Satz von Zeichen „now” 980 an der Leertaste 350 an.
  • Der Berührungsbildschirm 118 kann auch eine Interpunktion als eine Eingabe zu jedem Zeitpunkt während der Eingabe einer Nachricht empfangen. Wenn ein Benutzer beschließt, eine Interpunktion nach einer Eingabe entweder eines erzeugten Satzes von Zeichen oder eines vorhergesagten Satzes von Zeichen zu verwenden, wird das <LEER>-Zeichen (zum Beispiel das <LEER>-Zeichen vor dem Cursor 940 von 9) gelöscht und die eingegebene Interpunktion wird eingefügt.
  • Die 10A und 10B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. 10A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „The co” in einer Textleiste 1030 anzeigt, und mehrere erzeugte Sätze von Zeichen 1060 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. In diesem Beispiel zeigt der Berührungsbildschirm 118 an einen erzeugten Satz von Zeichen „cottage” 1060 unter der Taste „T”, einen erzeugten Satz von Zeichen „cook” 1060 unter der Taste „O”, einen erzeugten Satz von Zeichen „coat” 1060 unter der Taste „A” und einen erzeugten Satz von Zeichen „coffee” 1060 unter der Taste „F”.
  • 10B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „cook” als eine Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen 1060 „cook” ausgewählt hat. Der Satz von Zeichen „cook” wird in das Eingabefeld 1030 zusammen mit einem <LEER>-Zeichen eingefügt. In diesem Beispiel umfassen die Sätze von Zeichen neue vorhergesagte Sätze von Zeichen (wie Wörter 1090, Affixe 1092 (zum Beispiel „-ed” unter der Taste „E” und „-ing” unter der Taste „I”) und Pluralformen 1094 (zum Beispiel „s” unter der Taste „S”)), die alle an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. Jedes vorhergesagte Wort 1090, Affix 1092 oder Plural 1094 befindet sich auf jeweiligen nachfolgenden Kandidaten-Eingabe-Zeichen, die mit dem ersten Buchstaben des vorhergesagten Worts 1090, des Affixes 1092 oder des Plurals 1094 übereinstimmen. Nun hat der Benutzer die zusätzliche Option eines Eingebens eines vorhergesagten Satzes von Zeichen 1090, 1092 und 1094. Eine Eingabe wird auf dieselbe Weise wie oben beschrieben durchgeführt. In einigen Ausführungsbeispielen, wenn der Berührungsbildschirm 118 entweder das Affix 1092 oder den Plural 1094 als eine Eingabe empfängt, wird das <LEER>-Zeichen zwischen dem Cursor 1040 und „cook” gelöscht und das entsprechende eingegebene Affix oder der Plural wird an das Ende von „cook” hinzugefügt.
  • 11A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „Did she co” in einer Textleiste 1130 anzeigt und mehrere erzeugte Sätze von Zeichen 1160 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. In diesem Beispiel zeigt der Berührungsbildschirm 118 an den erzeugten Satz von Zeichen „correct” 1160 unter der Taste „R”, den erzeugten Satz von Zeichen „copy” 1160 unter der Taste „P” und den erzeugten Satz von Zeichen „contact” 1160 unter der Taste „N”. Während „co” in den Textleisten von sowohl 10A als auch 11A vorgesehen wird, zeigt der Berührungsbildschirm verschiedene erzeugte Sätze von Zeichen basierend auf dem Kontext der Zeichen in ihren jeweiligen Textleisten 1030 und 1130 an. Zum Beispiel folgen in der 10A die Zeichen „co” auf „The”, was impliziert, dass ein Substantiv beginnend mit „co” folgen sollte. In 11A folgen die Zeichen „co” einem Pronomen, was impliziert, dass ein Verb beginnend mit „co” folgen sollte. Wie oben angeführt, können Kontextdaten verwendet werden, um zu bestimmen, wann bestimmte Sätze von Zeichen geeigneter sind basierend zum Beispiel auf dem Satz von Zeichen in einer Textleiste oder auf früheren Aktionen durch einen Benutzer.
  • 11B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „correct” als Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen „correct” 1160 gewählt hat. In diesem Beispiel wird der Satz von Zeichen „correct” in das Eingabefeld 1130 eingefügt und ein <LEER>-Zeichen wird ebenfalls eingefügt. Vorhergesagte Sätze von Zeichen (wie Wörter 1190 und Affixe 1192) werden nun bei nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. In diesem Beispiel, während die Affixe „-ing” und „-ily” beide der Taste „I” entsprechen, zeigt der Berührungsbildschirm 118 „-ing” mit der Taste „I” und „-ily” mit der Taste „L” an. Wie oben angemerkt, kann das vorhergesagte Affix einer bestimmten Taste zugewiesen werden basierend auf einer Rangeinstufung, auf Kontextdaten, oder einer Kombination aus beiden. In diesem Ausführungsbeispiel kann das Affix „-ing” einen höheren Rang haben als das Affix „-ily” und wurde somit der Taste „I” zugewiesen. Demgemäß wurde das Affix „-ily” der Taste „L” zugewiesen basierend darauf, dass das entsprechende „L”-Zeichen in dem Affix „-ily” ist.
  • 12A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „The ch” in einer Textleiste 1230 anzeigt und mehrere erzeugte Sätze von Zeichen 1260 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. In diesem Beispiel umfassen die erzeugten Sätze von Zeichen 1260 sowohl „child” als auch „chimp”. In diesem Ausführungsbeispiel zeigt, während der dritte Buchstabe in sowohl „child” als auch „chimp” gleich ist, der Berührungsbildschirm „child” unter der Taste „I” an und zeigt „chimp” unter der Taste „C” an. Die Bestimmung, welcher erzeugte Satz von Zeichen unter welche Kandidaten-Eingabe-Taste zu setzen ist, kann auf einer Rangeinstufung basieren (wie oben spezifiziert). Wie in diesem Ausführungsbeispiel dargestellt wird, kann der Berührungsbildschirm 118 einen erzeugten Satz von Zeichen (in diesem Fall „chimp”) auf einer Taste anzeigen, auch wenn diese Taste nicht mit nachfolgenden Zeichen der Zeichen in der Textleiste 1230 assoziiert ist.
  • 12B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „child” als Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen „child” 1260 ausgewählt hat. Der Satz von Zeichen „child” wird in das Eingabefeld 1230 eingefügt, und kein <LEER>-Zeichen wird in diesem Beispiel eingefügt. Vorhergesagte Sätze von Zeichen (wie Wörter 1290 und Affixe 1292) werden nun an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. In diesem Beispiel, während die Affixe „-ish” und „-ily” beide der Taste „I” entsprechen, zeigt der Berührungsbildschirm 118 „-ish” mit der Taste „I” und „-ily” mit der Taste „L” an. Wie oben angemerkt, kann das vorhergesagte Affix einer bestimmten Taste zugewiesen werden basierend auf einer Rangeinstufung, herkömmlichen Daten, oder einer Kombination aus beiden. In diesem Ausführungsbeispiel kann das Affix „-ish” einen höheren Rang haben als das Affix „-ily” und wurde daher der Taste „I” zugewiesen. Demgemäß wurde das Affix „-ily” der Taste „L” zugewiesen basierend darauf, dass das entsprechende „L”-Zeichen in dem Affix „-ily” ist.
  • 13A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „The texture and” in einer Textleiste 1330 anzeigt und mehrere vorhergesagte Sätze von Zeichen (zum Beispiel Wörter 1390) werden an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. 13B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „taste” als Eingabe empfängt, nachdem der Benutzer den vorhergesagten Satz von Zeichen „taste” ausgewählt hat. In diesem Beispiel wurde ein <LEER>-Zeichen nach dem „taste” eingefügt. Folglich werden vorhergesagte Sätze von Zeichen (wie Wörter 1390 und Affixe 1392) an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt.
  • 14A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „The hospital staff c” in einer Textleiste 1430 anzeigt und mehrere erzeugte Sätze von Zeichen 1460 werden an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. 14B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „care” als Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen „care” ausgewählt hat. Der erzeugte Satz von Zeichen „care” wird nun in dem Eingabefeld 1430 zusammen mit einem <LEERZEICHEN> platziert und vorhergesagte Sätze von Zeichen (wie Wörter 1490 und Affixe 1492) werden an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. 14C zeigt ein Beispiel, in dem der Berührungsbildschirm 118 das Affix „-ful” als eine Eingabe empfangen hat (wodurch der Satz von Zeichen „care” zu „careful” modifiziert wird), nachdem der Benutzer das vorhergesagte Affix „-ful” ausgewählt hat. Somit wird nun der Satz von Zeichen „careful” in das Eingabefeld 1430 eingefügt. Es ist anzumerken, dass in einigen Ausführungsbeispielen ein Eingeben eines Wortes oder eines Affixes das eingegebene Wort oder Wortfragment modifizieren kann. Wenn zum Beispiel „spicy” durch einen Benutzer eingegeben wird und „ness” ist ein vorhergesagtes Affix und wird eingegeben, ändert sich „spicy” zu „spiciness”, das „y” wird entfernt und „iness” hinzugefügt. In anderen Ausführungsbeispielen kann „happy” zu „happiness” geändert werden oder „conceive” kann zu „conceivable” geändert werden.
  • 15 zeigt ein Beispiel einer mehrdeutigen Tastatur 1520, die mehrere Zeichen mit einer Taste assoziiert haben kann (zum Beispiel eine Telefontastatur, wo „A” „B” und „C” der Taste 2 zugewiesen sind; „D”, „E” und „F” der Taste 3 zugewiesen sind, und so weiter). Zum Beispiel können die Zeichen „Q” und „W” einer Taste zugewiesen sein, und die Zeichen „E” und „R” sind einer anderen Taste zugewiesen. In diesem Beispiel hat der Benutzer die Zeichen „Ol” eingegeben durch Drücken der „op”-Taste gefolgt von der „L”-Taste. Unter Verwendung eines Prädiktors werden die erzeugten Sätze von Zeichen 1560 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. Da die erste gedrückte Taste entweder ein „O” oder „P” eingeben kann und die zweite gedrückte Taste ein „L” eingibt, beginnen die erzeugten Sätze von Zeichen 1560 mit „OL” oder „PL”, wie gezeigt durch die erzeugten Sätze von Zeichen 1560 in 15.
  • 16 zeigt ein weiteres Beispiel einer mehrdeutigen Tastatur 1620. In diesem Beispiel werden die erzeugten Sätze von Zeichen „plum” und „olive” 1660 in der Nähe der „ui”-Taste angezeigt. Die Sätze von Zeichen könnten auch an oder auf der „ui”-Taste angezeigt werden. Hier entsprechen beide Sätze von Zeichen einer bestimmten Eingabe, die einer Taste entspricht, d. h. der dritte Buchstabe von plum ist ein „u” und der dritte Buchstabe von olive ist ein „i”. Der Berührungsbildschirm 118 (via den Hauptprozessor 102) kann zwischen der Eingabe eines der beiden Sätze von Zeichen basierend auf der Aktion des Benutzers unterscheiden. Zum Beispiel kann der Benutzer an oder in der Nähe der rechten Seite der „ui”-Taste eine Wischgeste ausführen, um „olive” einzugeben, oder er kann an oder in der Nähe der linken Seite der „ui”-Taste eine Wischgeste ausführen, um „plum” einzugeben.
  • Die Beispiele und Ausführungsbeispiele, die in den 17, 18 und 19 dargestellt werden, können mit jedem Satz von Zeichen implementiert werden, wie Wörter, Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen oder jeder Kombination daraus.
  • 17 zeigt in einer Ablaufdiagramm-Form ein Verfahren 1700 in Übereinstimmung mit einigen Ausführungsbeispielen. Das Verfahren 1700 kann mit einem Prozessor, wie dem Hauptprozessor 102, implementiert werden und auf einem materiellen computerlesbaren Medium gespeichert werden, wie Festplatten, CDs, DVDs, Flash-Speicher und dergleichen. In Block 1710 empfängt der Prozessor eine Eingabe eines Zeichens. In Block 1720 zeigt der Prozessor einen erzeugten Satz von Zeichen an oder in der Nähe von Tasten von nachfolgenden Kandidaten-Eingabe-Zeichen auf dem Berührungsbildschirm an, wie oben beschrieben.
  • In Block 1730 empfängt der Prozessor eine Eingabe des erzeugten Satzes von Zeichen, wie von einem Benutzer ausgewählt. Wenn der Benutzer keinen erzeugten Satz von Zeichen auswählt, der an oder in der Nähe von Tasten von nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt wird, startet das Verfahren wieder in Block 1710, wo der Berührungsbildschirm eine Eingabe eines anderen Zeichens empfangen kann. Wenn ein erzeugter Satz von Zeichen als Eingabe empfangen wird, wird in Block 1740 der erzeugte Satz von Zeichen und ein <LEER>-Zeichen in ein Eingabefeld eingefügt (zum Beispiel das Eingabefeld 330 der 39). Wie oben erwähnt, kann der Benutzer den erzeugten Satz von Zeichen auswählen zum Beispiel durch ein Durchführen einer Wischgeste an diesem oder in dessen Nähe oder durch langes Drücken einer Taste, die dem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht.
  • Weiter in Block 1750, wenn der Prozessor erfasst, dass keine Interpunktion einzufügen ist, startet das Verfahren in Block 1710 neu. Wenn eine Interpunktion eingefügt werden soll, geht das Verfahren zu Block 1760 weiter, wo das <LEER>-Zeichen gelöscht wird und die entsprechende Interpunktion in das Eingabefeld hinzugefügt wird. Nach dem Block 1760 beginnt das Verfahren erneut in Block 1710.
  • 18 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren 1800 in Übereinstimmung mit einigen Ausführungsbeispielen darstellt. Das Verfahren 1800 kann mit einem Prozessor, wie dem Hauptprozessor 102, implementiert werden und auf einem materiellen computerlesbaren Medium, wie Festplatten, CDs, DVDs, Flash-Speicher und dergleichen, gespeichert werden. In Block 1810 empfängt der Prozessor eine Eingabe eines Zeichens.
  • In Block 1820 zeigt der Prozessor einen erzeugten Satz von Zeichen an oder nahe einer Position auf der Tastatur an, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, auf einem Berührungsbildschirm. In Block 1830 empfängt der Prozessor eine Eingabe eines erzeugten Satzes von Zeichen, der von einem Benutzer ausgewählt wurde. Wenn der Benutzer keinen erzeugten Satz von Zeichen auswählt, der an oder in der Nähe von Tasten von nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt wird, beginnt das Verfahren erneut in Block 1810, wo der Prozessor eine Eingabe eines weiteren Zeichens empfangen kann. Wenn ein erzeugter Satz von Zeichen als Eingabe empfangen wird, wird in Block 1840 der erzeugte Satz von Zeichen und ein <LEER>-Zeichen in ein Eingabefeld eingefügt (zum Beispiel das Eingabefeld 330 der 39). Wie oben erwähnt, kann der Benutzer den erzeugten Satz von Zeichen zum Beispiel durch eine Wischgeste an diesem oder in dessen Nähe oder durch Drücken einer Taste, die dem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, für eine vorgegebene Zeitdauer.
  • In Block 1850 wird ein vorhergesagter Satz von Zeichen, verschieden von dem/den erzeugten Satz/Sätzen von Zeichen, auf einer Leertaste der Tastatur angezeigt nach der Eingabe des erzeugten Satzes von Zeichen in Block 1830. Der vorhergesagte Satz von Zeichen, der in Block 1850 angezeigt wird, wird unter Verwendung eines Prädiktors bestimmt. In einigen Ausführungsbeispielen kann der eine Satz oder mehrere Sätze von Zeichen auf einer oder mehreren Taste(n) platziert werden, die von der Leertaste verschieden ist/sind.
  • In Block 1860 kann der Prozessor bestimmen, ob er eine Eingabe des vorhergesagten Satzes von Zeichen empfangen hat basierend auf einer Benutzereingabe. Wenn der Berührungsbildschirm keine Eingabe des vorhergesagten Satzes von Zeichen empfangen hat, da der Benutzer den vorhergesagten Satz von Zeichen nicht ausgewählt hat, beginnt das Verfahren erneut in Block 1810. Wenn der Prozessor die Eingabe des vorhergesagten Satzes von Zeichen empfangen hat, geht das Verfahren weiter zu Block 1870, wo der ausgewählte vorhergesagte Satz von Zeichen und ein <LEER>-Zeichen in das Eingabefeld eingefügt werden. Von hier kann das Verfahren 1800 entweder zu Block 1810 oder zu Block 1850 zurückkehren.
  • Obwohl das Verfahren 1800 die Interpunktions-Darstellung nicht wie in Verfahren 1700 gezeigt anzeigt, kann die Interpunktions-Darstellung, wie in den Blöcken 1750 und 1760 gezeigt, ebenfalls auf das Verfahren 1800 angewendet werden.
  • 19 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren 1900 in Übereinstimmung mit einigen Ausführungsbeispielen darstellt. In Box 1910 wird ein vorhergesagter Satz von Zeichen an entsprechenden nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. In diesen Ausführungsbeispielen wurde keine Eingabe empfangen oder ein Trennzeichen wurde aktiviert, wie eine Eingabe eines <LEERZEICHENS>. Hier werden ein vorhergesagter Satz oder mehrere vorhergesagte Sätze von Zeichen (wie Wörter, Affixe, oder eine Kombination daraus) auf nachfolgenden Kandidaten-Eingabe-Zeichen platziert, die dem ersten Buchstaben des erzeugten Satzes von Zeichen entsprechen. Weiter zu Box 1920 wird bestimmt, ob der Berührungsbildschirm eine Eingabe des Satzes von Zeichen (wie Wort oder Affix) basierend auf der Auswahl eines Benutzers empfängt. Wenn eine Eingabe empfangen wird, geht das Verfahren weiter zu Block 1930, wo der vorhergesagte Satz von Zeichen und ein <LEER>-Zeichen in ein Eingabefeld eingefügt werden. Dann beginnt das Verfahren wieder in Block 1910. Wenn der Berührungsbildschirm keine Eingabe des Satzes von Zeichen empfängt, ist der Berührungsbildschirm verfügbar, eine Eingabe eines Zeichens zu empfangen (wie durch Block 1710 von 17 oder Block 1810 von 18 beschrieben wird) und weiter durch die Verfahren fortzufahren (wie die Verfahren 1700 von 17 oder 1800 von 18 oder sogar das Verfahren 1900 von 19).
  • 20 zeigt ein weiteres Beispiel für eine virtuelle Tastatur 2020 mit einem Eingabefeld 2030. Die Sätze von Zeichen „Please con” werden als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2030 angezeigt, gefolgt von einem Cursor bzw. Eingabezeiger 2040, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Ein Prädiktor bestimmt einen erzeugten Satz oder mehrere erzeugte Sätze von Zeichen 2060 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2040 in dem aktuellen Wort, der an der vierten Zeichen-Position des aktuellen Worts ist, wie in dem Eingabefeld 2030 gezeigt. Das aktuelle Wort ist das Wort, in dem sich der Cursor aktuell befindet. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2060 „cones”, „contact”, „construction” und „connect” angezeigt. Jeder erzeugte Satz von Zeichen 2060 wird an einer Taste angezeigt, die einem nachfolgenden Kandidat-Eingabe-Zeichen entspricht (zum Beispiel unter den Tasten E, T, S beziehungsweise N der virtuellen Tastatur 2020), für die aktuelle Position des Cursors 2040, der an der dritten Zeichen-Position ist, wie in dem Eingabefeld 2030 gezeigt.
  • In dem gezeigten Beispiel wird jeder erzeugte Satz von Zeichen 2060 an oder nahe Tasten auf der virtuellen Tastatur 2020 angezeigt, die mit den nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert sind. Die Anzeige eines erzeugten Satzes von Zeichen 2060 an oder nahe einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, hängt zum Beispiel von der Größe des erzeugten Satzes von Zeichen 2060 und der Größe eines erzeugten Satzes von Zeichen ab, der mit nahegelegenen Tasten von anderen nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist. Wenn die erzeugten Sätze von Zeichen, die mit nahegelegenen Tasten in derselben Reihe von Tasten in der virtuellen Tastatur 2020 assoziiert sind, zu groß sind zur gleichzeitigen Anzeige, ohne einander zu überlappen oder ohne einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen, begrenzt der Prozessor 102 die erzeugten Sätze von Zeichen, die angezeigt werden. Der Prozessor 102 kann die erzeugten Sätze von Zeichen, die angezeigt werden, unter Verwendung einer oder jeder Kombination des Rangs jedes erzeugten Satzes von Zeichen, der Größe jedes erzeugten Satzes von Zeichen, und eines Abstands zwischen jedem erzeugten Satz von Zeichen, die angezeigt werden, derart begrenzen, dass ein vorgegebener Abstand zwischen den erzeugten Sätzen von Zeichen beibehalten wird. Dies kann zu der Anzeige von einem oder mehreren erzeugten Sätze von Zeichen führen, der/die größer ist/sind als die assoziierte Taste in der virtuellen Tastatur 2020.
  • In einigen Beispielen, wenn zwei erzeugte Sätze von Zeichen beide einen hohen Rang haben, und diese Sätze von Zeichen ansonsten an nahegelegenen Tasten angezeigt würden, aber nicht angezeigt werden können und trotzdem einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen mit der Anzeigetextgröße beibehalten, könnte die elektronische Vorrichtung konfiguriert werden, nur den erzeugten Satz von Zeichen mit dem höchsten Rang anzuzeigen. Dies führt zu der Anzeige des am wahrscheinlichsten erzeugten Satzes von Zeichen. In anderen Beispielen wird nur der längste der erzeugten Sätze von Zeichen angezeigt. Dies kann vorteilhaft sein, da ein Ermöglichen einer schnelleren Eingabe von längeren Wörtern Zeit und Verarbeitungszyklen spart, wodurch die prädiktive Texteingabe-Lösung wirksam eingesetzt wird. In weiteren Beispielen wird nur der kürzeste erzeugte Satz von Zeichen angezeigt. Dies kann vorteilhaft sein, da kürzere Worte häufiger sein können, zumindest für einige Benutzer, wodurch eine schnellere Eingabe von Wörtern ermöglicht wird, was Zeit und Verarbeitungszyklen spart, wodurch die prädiktive Texteingabe-Lösung wirksam eingesetzt wird.
  • In einigen Beispielen kann der Prozessor 102 nur den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die in benachbarten/angrenzenden Tasten in derselben Reihe von Tasten in der virtuellen Tastatur 2020 angezeigt wird/werden. In einigen Beispielen kann der Prozessor 102 den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die in benachbarten/angrenzenden Tasten in derselben Reihe von Tasten in der virtuellen Tastatur 2020 angezeigt wird/werden, so dass ein erzeugter Satz von Zeichen niemals in benachbarten/angrenzenden Tasten angezeigt wird, unabhängig von der Größe des erzeugten Satzes von Zeichen oder dem Abstand zwischen jedem erzeugten Satz von Zeichen. In solchen Beispielen verwendet der Prozessor 102 den Rang, um zu bestimmen, welche erzeugten Sätze von Zeichen angezeigt werden.
  • In anderen Beispielen kann der Prozessor 102 den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die angezeigt wird/werden, wenn der/die erzeugten Satz/Sätze von Zeichen, der/die die mit nahegelegenen Tasten in verschiedenen Tastenreihen in der virtuellen Tastatur 2020 assoziiert ist/sind, zu groß ist/sind, um gleichzeitig angezeigt zu werden, ohne einander zu überlappen oder ohne einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen zu haben. In anderen Beispielen kann der Prozessor 102 den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die angezeigt wird/werden, wenn der/die erzeugten Satz/Sätze von Zeichen, die mit nahegelegenen Tasten in derselben oder in anderen Spalten von Tasten in der virtuellen Tastatur 2020 assoziiert ist/sind, zu groß ist/sind, um gleichzeitig angezeigt zu werden, ohne einander zu überlappen oder ohne einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen zu haben.
  • Wie oben erwähnt, kann ein Benutzer einen Finger oder einen Stift verwenden, um über einen erzeugten Satz von Zeichen zu wischen, um diesen erzeugten Satz von Zeichen einzugeben. Ein einzelner Buchstabe kann im Gegensatz dazu eingegeben werden durch Antippen einer jeweiligen Taste in der virtuellen Tastatur 2020 unter Verwendung eines Fingers oder Stifts. Der Berührungsbildschirm unterscheidet zwischen Antippen- und Swipe- bzw. Wischgeste-Ereignissen unter Verwendung von Bewegung und Dauer von Berührungsereignissen, deren Details in der Technik bekannt sind und hier nicht beschrieben werden müssen. Jede Taste in der virtuellen Tastatur 2020 und jeder erzeugte Satz von Zeichen 2060, der angezeigt wird, hat einen assoziierten Zielbereich auf dem Berührungsbildschirm. Der Zielbereich, der mit jedem erzeugten Satz von Zeichen assoziiert ist, kann größer sein als der Zielbereich der Taste und/oder den Zielbereich der Taste überlappen, die dem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, mit dem sie assoziiert ist, und möglicherweise der nahegelegenen Tasten, wie benachbarte Tasten in derselben Reihe. Ein Benutzer muss nur auf oder in der Nähe eines angezeigten erzeugten Satzes von Zeichen wischen, um den erzeugten Satz von Zeichen einzugeben. Dies ermöglicht eine schnellere Eingabe eines erzeugten Satzes von Zeichen durch Erzeugen von größeren und besser zugänglichen Zielbereichen, wodurch Zeit und Verarbeitungszyklen eingespart wird/werden. In einigen Beispielen kann ein erzeugter Satz von Zeichen eingegeben werden durch Erfassen einer Wischgeste in jede Richtung an oder nahe dem angezeigten erzeugten Satz von Zeichen. In anderen Beispielen kann ein erzeugter Satz von Zeichen nur eingegeben werden durch Erfassen einer Wischgeste in eine bestimmte Richtung an oder nahe dem angezeigten erzeugten Satz von Zeichen. Die bestimmte Richtung kann mit einer Richtung assoziiert sein, in der die bestimmte Richtung den erzeugten Satz von Zeichen angezeigt hat (zum Beispiel links oder rechts in dem gezeigten Beispiel). In einigen Beispielen ist die Wischgeste an oder nahe dem angezeigten erzeugten Satz von Zeichen, wenn die Wischgeste einen anfänglichen Kontaktpunkt in dem Zielbereich hat, der mit dem angezeigten erzeugten Satz von Zeichen assoziiert ist (der gleich oder größer als der angezeigte erzeugte Satz von Zeichen sein kann).
  • Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur
  • 21 zeigt ein weiteres Beispiel eines Benutzerschnittstelle-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Der Satz von Zeichen „Ec” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Eine Texteingabe-Werkzeugleiste 2150 wird an dem oberen Rand des Benutzerschnittstelle-Bildschirms angezeigt, über dem Eingabefeld 2130. Ein Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der dritten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt. Das aktuelle Wort ist das Wort, in dem sich der Cursor aktuell befindet. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2160 „Every”, „Ecuador” und „Economy” angezeigt. Die erzeugten Sätze von Zeichen 2160 werden an festgelegten Positionen innerhalb der virtuellen Tastatur 2120 angezeigt und nicht an einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, wie in den oben beschriebenen Beispielen. Die festgelegten Positionen in der virtuellen Tastatur 2120 in den beschriebenen Ausführungsbeispielen werden definiert durch Partitionen (oder Regionen) der virtuellen Tastatur 2120. Die Partitionen, zumindest in einigen Ausführungsbeispielen, werden durch Aufteilen der virtuellen Tastatur 2120 definiert. Die virtuelle Tastatur 2120 kann in gleiche oder ungleiche Partitionen unterteilt werden. Die Partitionen können im Wesentlichen die gesamte virtuelle Tastatur 2120 einnehmen oder weniger als die gesamte virtuelle Tastatur 2120. In einigen Beispielen können die Partitionen andere Teile des Benutzerschnittstelle-Bildschirms einnehmen, wie das Eingabefeld 2130. In den 21 bis 24 sind die Partitionen der virtuellen Tastatur 2120 durch drei Spalten definiert (zum Beispiel linke, mittlere und rechte Spalten). Eine andere Anzahl von Spalten kann in anderen Ausführungsbeispielen verwendet werden. Die Spalten können durch Aufteilen der virtuellen Tastatur 2120 in gleiche Teile definiert werden, d. h. durch Aufteilen der virtuellen Tastatur 2120 in drei gleich große Spalten.
  • In dem gezeigten Beispiel sind die angezeigten Sätze von Zeichen horizontal (oder im Wesentlichen horizontal) ausgerichtet, um die Verwendung und Auswahl von Prädiktionen als Eingabe zu erleichtern, indem die angezeigten erzeugten Sätze von Zeichen leichter sichtbar gemacht werden. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen in einer horizontalen „Abstandshalter”-Leiste angezeigt, die zwei Reihen von Tasten trennt, insbesondere eine horizontale Leiste, die die obere Reihe von Tasten von der zweiten Reihe von Tasten unter der oberen Reihe trennt. Dies vermeidet ein Verdecken der Tasten der virtuellen Tastatur 2120, wodurch die Eingabe von einzelnen Tasten erleichtert wird, während die Sichtbarkeit der angezeigten Prädiktionen erhöht wird. Die angezeigten erzeugten Sätze von Zeichen können sich anderswo befinden, zum Beispiel in einer horizontalen Leiste, die zwei verschiedene Reihen von Tasten trennen.
  • Der Prozessor 102 bestimmt die Partition, in der ein erzeugter Satz von Zeichen angezeigt wird, unter Verwendung des Ranges jedes erzeugten Satzes von Zeichen. Der erzeugte Satz von Zeichen mit dem höchsten Rang wird in der Partition angezeigt, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen mit dem höchsten Rang assoziiert ist. Die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist, ist typischerweise die Partition (d. h. Spalte in dem aktuell beschriebenen Ausführungsbeispiel), in der sich das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen befindet. In dem gezeigten Beispiel hat der erzeugte Satz von Zeichen „Economy” den höchsten Rang und das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen ist der Buchstabe „o”. Dementsprechend befindet sich der erzeugte Satz von Zeichen „Economy” in der rechten Spalte, in der sich der Buchstabe „o” befindet.
  • Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d. h. dem zweithöchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel der erzeugte Satz von Zeichen mit höchstem Rang, dem in dem gezeigten Beispiel die rechte Spalte zugeordnet ist), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Economics” den zweithöchsten Rang hat, würde die Prädiktion „Economics” verworfen, da die assoziierte Partition dieselbe ist wie die Partition, die dem erzeugten Satz von Zeichen mit dem höchsten Rang, „Economy”, zugeordnet ist. Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d. h. dem dritt-höchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen (zum Beispiel dem erzeugten Satz von Zeichen mit dem höchsten Rang) zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine zweite Partition mit einem erzeugten Satz von Zeichen assoziiert ist oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die zweite Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die linke Spalte und der erzeugte Satz von Zeichen, der mit der zweiten Partition (zum Beispiel linke Spalte) assoziiert ist, ist „Every”. Der Satz von Zeichen „Every” wird vorhergesagt, obwohl der Satz von Zeichen „Ec” als Eingabe empfangen wird, die keine Wurzel für das Wort „Every” ist.
  • Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel sind in dem gezeigten Beispiel die linken und rechten Spalten bereits einem erzeugten Satz von Zeichen zugeordnet), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Everyone” den nächst-höchsten Rang hat, würde die Prädiktion von „Everyone” verworfen, da die assoziierte Partition die linke Spalte ist, die bereits dem erzeugten Satz von Zeichen „Every” zugeordnet ist. Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn dieser Partition bereits ein erzeugter Satz von Zeichen zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine dritte Partition mit einem erzeugten Satz von Zeichen assoziiert ist (zum Beispiel bis die mittlere Spalte zugeordnet ist) oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die dritte Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die mittlere Spalte und der erzeugte Satz von Zeichen, der mit der dritten Partition (zum Beispiel mittlere Spalte) assoziiert ist, ist „Ecuador”.
  • In dem gezeigten Beispiel hat die virtuelle Tastatur 2120 drei Partitionen. Wenn mehr Partitionen verwendet werden, würde dieser Prozess fortgesetzt, bis alle Partitionen mit einem erzeugten Satz von Zeichen assoziiert sind oder kein erzeugter Satz von Zeichen verbleibt.
  • 22 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Das Zeichen „T” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der zweiten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2160 „Thanks” und „To” angezeigt. Weniger erzeugte Sätze von Zeichen als Partitionen werden angezeigt, was bedeutet, dass nur zwei Prädiktionen existieren oder die Prädiktionen erschöpft sind durch Konflikte bei einem Versuchen, einen erzeugten Satz von Zeichen mit einer Partition zu assoziieren, die bereits einem anderen erzeugten Satz von Zeichen zugeordnet ist.
  • 23 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Der Satz von Zeichen „An” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der dritten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2160 „And”, „Anyway” und „Another” angezeigt.
  • 24 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Der Satz von Zeichen „This” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der ersten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel sagt der Prädiktor die nächsten Wörter in dem Satz voraus, der eingegeben wird, mit den erzeugten Sätzen von Zeichen 2160 „will”, „is” und „message” angezeigt.
  • 25 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Das Zeichen „A” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Eine Texteingabe-Werkzeugleiste 2150 wird an dem oberen Rand des Benutzerschnittstelle-Bildschirms angezeigt, über dem Eingabefeld 2130. Ein Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der zweiten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt. Das aktuelle Wort ist das Wort, in dem sich der Cursor aktuell befindet. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2560 „Are”, „As” und „And” angezeigt. Die erzeugten Sätze von Zeichen 2560 werden an festgelegten Positionen innerhalb der virtuellen Tastatur 2120 angezeigt und nicht an einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, wie in früheren Beispielen. Die festgelegten Positionen in der virtuellen Tastatur 2120 in den beschriebenen Ausführungsbeispielen werden definiert durch Partitionen der virtuellen Tastatur 2120. Die virtuelle Tastatur 2120 kann in gleiche oder ungleiche Partitionen unterteilt werden. Die Partitionen können im Wesentlichen die gesamte virtuelle Tastatur 2120 einnehmen oder weniger als die gesamte virtuelle Tastatur 2120. In einigen Beispielen können die Partitionen andere Teile des Benutzerschnittstelle-Bildschirms einnehmen, wie das Eingabefeld 2130. In den 25 bis 28 sind die Partitionen der virtuellen Tastatur 2120 durch drei Reihen definiert (zum Beispiel obere, mittlere und untere Reihen) anstatt durch Spalten, wie in den 21 bis 24. Eine andere Anzahl von Reihen kann in anderen Ausführungsbeispielen verwendet werden. Die Reihen können durch Aufteilen der virtuellen Tastatur 2120 in gleiche Teile definiert werden, d. h. durch Aufteilen der virtuellen Tastatur 2120 in drei gleich große Reihen.
  • In dem gezeigten Beispiel sind die angezeigten Sätze von Zeichen vertikal (oder im Wesentlichen vertikal) ausgerichtet, um die Verwendung und Auswahl von Prädiktionen als Eingabe zu erleichtern, indem die angezeigten erzeugten Sätze von Zeichen leichter sichtbar gemacht werden. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen in horizontalen „Abstandshalter”-Leisten angezeigt, die die Reihen von Tasten trennen, wobei sich jeder der angezeigten Sätze von Zeichen in einer anderen Abstandshalter-Leiste befindet. Dies vermeidet ein Verdecken der Tasten der virtuellen Tastatur 2120, wodurch die Eingabe von einzelnen Tasten erleichtert wird, während die Sichtbarkeit der angezeigten Prädiktionen erhöht wird. Die angezeigten erzeugten Sätze von Zeichen können sich anderswo befinden.
  • Der Prozessor 102 bestimmt die Partition, in der ein erzeugter Satz von Zeichen angezeigt wird, unter Verwendung des Ranges jedes erzeugten Satzes von Zeichen. Der erzeugte Satz von Zeichen mit dem höchsten Rang wird in der Partition angezeigt, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen mit dem höchsten Rang assoziiert ist. Die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist, ist typischerweise die Partition (d. h. Reihe in dem aktuell beschriebenen Ausführungsbeispiel), in der sich das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen befindet. In dem gezeigten Beispiel hat der erzeugte Satz von Zeichen „Are” den höchsten Rang und das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen ist der Buchstabe „r”. Dementsprechend befindet sich der erzeugte Satz von Zeichen „Are” in der oberen Reihe, in der sich der Buchstabe „r” befindet.
  • Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d. h. dem zweithöchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel der erzeugte Satz von Zeichen mit höchstem Rang, der in dem gezeigten Beispiel der oberen Reihe zugeordnet ist), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Array” den zweithöchsten Rang hat, würde die Prädiktion „Array” verworfen, da die assoziierte Partition dieselbe ist wie die Partition, die dem erzeugten Satz von Zeichen mit dem höchsten Rang, „Are”, zugeordnet ist. Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d. h. dem dritt-höchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen (zum Beispiel dem erzeugten Satz von Zeichen mit dem höchsten Rang) zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine zweite Partition mit einem erzeugten Satz von Zeichen assoziiert ist oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die zweite Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die mittlere Reihe und der erzeugte Satz von Zeichen, der mit der zweiten Partition (zum Beispiel linke Spalte) assoziiert ist, ist „As”.
  • Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel sind in dem gezeigten Beispiel die oberen und mittleren Spalten bereits einem erzeugten Satz von Zeichen zugeordnet), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Assume” den nächst-höchsten Rang hat, würde die Prädiktion von „Assume” verworfen, da die assoziierte Partition die linke Spalte ist, die bereits dem erzeugten Satz von Zeichen „As” zugeordnet ist. Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn diese Partition bereits zu einem erzeugten Satz von Zeichen zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine dritte Partition mit einem erzeugten Satz von Zeichen assoziiert ist (zum Beispiel bis die untere Reihe zugeordnet ist) oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die dritte Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die untere Reihe und der erzeugte Satz von Zeichen, der mit der dritten Partition (zum Beispiel mittlere Spalte) assoziiert ist, ist „And”.
  • In dem gezeigten Beispiel hat die virtuelle Tastatur 2120 drei Partitionen. Wenn mehr Partitionen verwendet werden, würde dieser Prozess fortgesetzt, bis alle Partitionen mit einem erzeugten Satz von Zeichen assoziiert sind oder kein erzeugter Satz von Zeichen verbleibt.
  • 26 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Der Satz von Zeichen „How” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der ersten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel sagt der Prädiktor die nächsten Wörter in dem Satz voraus, der eingegeben wird, mit den erzeugten Sätzen von Zeichen 2560 „is”, „are” und „many” angezeigt.
  • 27 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Die Sätze von Zeichen „It is ab” werden als Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der dritten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2560 „about” und „absolutely” angezeigt. Weniger erzeugte Sätze von Zeichen als Partitionen werden angezeigt, was bedeutet, dass nur zwei Prädiktionen existieren oder die Prädiktionen erschöpft sind durch Konflikte bei einem Versuchen, einen erzeugten Satz von Zeichen mit einer Partition zu assoziieren, die bereits einem anderen erzeugten Satz von Zeichen zugeordnet ist.
  • 28 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Die Sätze von Zeichen „It is about to” werden als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der ersten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel sagt der Prädiktor die nächsten Wörter in dem Satz voraus, der eingegeben wird, mit den erzeugten Sätzen von Zeichen 2560 „take”, „start” und „be” angezeigt.
  • Es ist offensichtlich, dass die Ausführungsbeispiele der 21 bis 28 einen Kompromiss darstellen zwischen einem Anzeigen der Prädiktionen mit dem höchsten Rang und einem Anzeigen der Prädiktionen auf eine Weise, die die Verwendung und Auswahl von Prädiktionen als Eingabe erleichtert. Während die Prädiktion mit dem höchsten Rang immer angezeigt wird, müssen andere angezeigte Prädiktionen nicht die Prädiktionen mit dem nächst-höchsten Rang repräsentieren. Während Prädiktionen mit einem niedrigeren Rang nicht die Prädiktionen mit dem höchsten Rang sein müssen, sind die Prädiktionen dennoch Prädiktionen mit hohem Rang und die angezeigten Prädiktionen befinden sich an festgelegten Positionen in der virtuellen Tastatur 2120 und bewegen sich nicht auf der virtuellen Tastatur 2120 basierend auf dem nachfolgenden Kandidaten-Eingabe-Zeichen. Dies erleichtert die Verwendung und Auswahl von Prädiktionen als Eingabe, anstatt dass der Benutzer das gesamte Wort tippen muss und Prädiktionen ignoriert, wodurch Zeit und Verarbeitungszyklen eingespart werden und die prädiktive Texteingabe-Lösung wirksam eingesetzt wird.
  • Wie bereits erwähnt, kann ein Benutzer einen Finger oder Stift verwenden, um über einen erzeugten Satz von Zeichen zu wischen (swipe), um diesen erzeugten Satz von Zeichen einzugeben. Ein einzelner Buchstabe kann im Gegensatz dazu eingegeben werden durch Antippen einer jeweiligen Taste in der virtuellen Tastatur 2120 unter Verwendung eines Fingers oder Stifts. Der Berührungsbildschirm unterscheidet zwischen Antippen- und Swipe- bzw. Wischgeste-Ereignissen unter Verwendung von Bewegung und Dauer von Berührungsereignissen, deren Details in der Technik bekannt sind und hier nicht beschrieben werden müssen. Jede Taste in der virtuellen Tastatur 2120 und jeder erzeugte Satz von Zeichen 2560, der angezeigt wird, hat einen assoziierten Zielbereich auf dem Berührungsbildschirm. Der Zielbereich, der mit jedem erzeugten Satz von Zeichen assoziiert ist, ist typischerweise gleich groß oder größer als der angezeigte erzeugte Satz von Zeichen. Ein Benutzer muss nur auf oder in der Nähe eines angezeigten erzeugten Satzes von Zeichen wischen, um den erzeugten Satz von Zeichen einzugeben. Dies ermöglicht eine relativ schnelle Eingabe eines erzeugten Satzes von Zeichen durch Erzeugen von relativ großen und zugänglichen Zielbereichen, wodurch Zeit und Verarbeitungszyklen eingespart wird/werden. In einigen Beispielen kann ein erzeugter Satz von Zeichen nur eingegeben werden durch Erfassen einer Wischgeste in eine bestimmte Richtung an oder nahe dem angezeigten erzeugten Satz von Zeichen. In einigen Beispielen ist die bestimmte Richtung „nach oben” derart, dass nur eine Wischgeste „nach oben” einen erzeugten Satz von Zeichen eingeben kann. In einigen Beispielen ist die Wischgeste an oder nahe dem angezeigten erzeugten Satz von Zeichen, wenn die Wischgeste einen anfänglichen Kontaktpunkt in dem Zielbereich hat, der mit dem angezeigten erzeugten Satz von Zeichen assoziiert ist (der gleich oder größer als der angezeigte erzeugte Satz von Zeichen sein kann) (zum Beispiel innerhalb der angezeigten Wörter „Every”, „Ecuador” oder „Economy” in 21).
  • Es ist offensichtlich, dass die Partitionen der virtuellen Tastatur 2120 in den oben beschriebenen Ausführungsbeispielen, ob durch Reihen oder Spalten definiert, nicht koinzident sind mit den Reihen und Spalten von Tasten der virtuellen Tastatur 2120. In anderen Ausführungsbeispielen können die Partitionen der virtuellen Tastatur 2120 koinzident sein mit den Reihen und Spalten von Tasten der virtuellen Tastatur 2120, obwohl dies typischerweise nicht bevorzugt ist, da es die Sichtbarkeit der Tasten der virtuellen Tastatur 2120 und/oder die Sichtbarkeit der Prädiktionen reduzieren kann durch Überladen der Benutzerschnittstelle.
  • Während die oben beschriebenen Ausführungsbeispielen Partitionen der virtuellen Tastatur 2120 als durch Reihen oder Spalten definiert beschreiben, sind andere Konfigurationen möglich. Zum Beispiel können die Partitionen in einer zweidimensionalen Anordnung angeordnet sein, wie einer rechtwinkligen Anordnung von Reihen von Spalten. Während dies die Anzahl der Prädiktionen erhöhen kann, die in der virtuellen Tastatur 2120 angezeigt werden können, kann es die Sichtbarkeit der Tasten der virtuellen Tastatur 2120 und/oder die Sichtbarkeit der Prädiktionen reduzieren durch Überladen der Benutzerschnittstelle.
  • 29 zeigt in Form eines Ablaufdiagramms ein Verfahren 2900 in Übereinstimmung mit einigen Ausführungsbeispielen. Das Verfahren 2900 kann mit einem Prozessor implementiert werden, wie einem Hauptprozessor 102, und auf einem materiellen computerlesbaren Medium gespeichert werden, wie Festplatten, CDs, DVDs, Flash-Speicher und dergleichen. In Block 2902 empfängt der Prozessor eine Eingabe eines Zeichens. In Block 2904 erzeugt der Prozessor einen Satz von vorhergesagten Eingabe-Zeichen. Der Satz von vorhergesagten Eingabe-Zeichen entspricht nachfolgenden Kandidaten-Eingabe-Zeichen.
  • In Block 2906 wird der Satz von vorhergesagten Eingabe-Zeichen mit dem höchsten Rang einer Partition in der virtuellen Tastatur 2120 zugeordnet, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen mit dem höchsten Rang assoziiert ist. Wie oben erwähnt, ist die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist, typischerweise die Partition (d. h. Reihe in dem vorliegenden beschriebenen Ausführungsbeispiel), in der sich das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen befindet. Der Satz von vorhergesagten Eingabe-Zeichen entspricht nachfolgenden Kandidaten-Eingabe-Zeichen.
  • In Block 2908 wird der Satz von Zeichen mit dem nächst-höchsten Rang bestimmt. In Block 2910 wird eine Partition bestimmt, die mit dem Satz von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn die bestimmte Partition nicht bereits einem erzeugten Satz von Zeichen zugeordnet ist (Entscheidungsblock 2912), wird die bestimmte Partition dem Satz von Zeichen mit dem nächsthöchsten Rang zugeordnet (Block 2914). Wenn die bestimmte Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (Entscheidungsblock 2912), wird der Satz von Zeichen mit dem nächst-höchsten Rang bestimmt (Block 2908).
  • In dem Entscheidungsblock 2916 wird bestimmt, ob Partitionen in der virtuellen Tastatur 2120 nicht zugeordnet verbleiben, und wenn ja, ob ein vorhergesagter Satz von Eingabe-Zeichen verbleibt. Wenn ja, ist zumindest eine Partition in der virtuellen Tastatur 2120 nicht zugeordnet oder ein Satz von vorhergesagten Eingabe-Zeichen mit einem nächst-höchsten Rang existiert. Der Satz von Zeichen mit dem nächst-höchsten Rang wird dann bestimmt (Block 2908). Wenn nicht, wurden alle Partitionen in der virtuellen Tastatur 2120 zugeordnet oder kein Satz von vorhergesagten Eingabe-Zeichen mit einem nächst-höchsten Rang existiert. Dann werden die vorhergesagten Sätze von Eingabe-Zeichen, die Partitionen in der virtuellen Tastatur 2120 zugeordnet sind, an einer Position nahe an dem nachfolgenden Kandidaten-Eingabe-Zeichen in den Sätzen von vorhergesagten Eingabe-Zeichen angezeigt, d. h. in den Bereichen der virtuellen Tastatur 2120, die den Partitionen der virtuellen Tastatur 2120 zugeordnet sind.
  • Während in 29 nicht gezeigt, kann ein Benutzer einen Finger oder Stift verwenden, um auf einem erzeugten Satz von Zeichen zu wischen, um diesen erzeugten Satz von Zeichen einzugeben, wie zuvor diskutiert. Ein einzelner Buchstabe kann im Gegensatz dazu eingegeben werden durch Antippen einer jeweiligen Taste in der virtuellen Tastatur 2120 unter Verwendung eines Fingers oder Stifts. In einigen Beispielen geht das Verfahren weiter mit Operationen von Block 1750 und 1760 (nicht gezeigt), wie oben in Zusammenhang mit dem Verfahren 1700 und der 17 angeführt. Weiter in Block 1750, wenn der Prozessor erfasst, dass kein Satzzeichen eingefügt werden soll, startet das Verfahren erneut in Block 2110. Wenn ein Satzzeichen eingefügt werden soll, geht das Verfahren weiter zu Block 1760, wo das <LEER>-Zeichen gelöscht wird und das entsprechende Satzzeichen zu dem Eingabefeld hinzugefügt wird. Nach dem Block 1760 beginnt das Verfahren erneut in Block 2110.
  • Während das Verfahren 2900 in dem Kontext einer Prädiktion des nächsten Buchstabens in einem Wort beschrieben wird, kann das Verfahren angepasst werden zur Prädiktion des nächsten Buchstabens in dem nächsten Wort.
  • Während die vorliegende Offenbarung, zumindest teilweise, in Bezug auf Verfahren beschrieben wird, ist für einen Fachmann auf dem Gebiet offensichtlich, dass die vorliegende Offenbarung auch die verschiedenen Komponenten zum Durchführen zumindest einiger der Aspekte und Merkmale der beschriebenen Verfahren betrifft, entweder mit Hilfe von Hardware-Komponenten, Software oder einer Kombination aus beiden, oder auf eine andere Weise. Darüber hinaus betrifft die vorliegende Offenbarung auch eine voraufgezeichnete Speichervorrichtung oder ein anderes ähnliches computerlesbares Medium mit darauf gespeicherten Programmanweisungen zum Durchführen der hier beschriebenen Verfahren.
  • Die vorliegende Offenbarung kann in anderen spezifischen Formen aufgenommen werden, ohne von dem Gegenstand der Ansprüche abzuweichen. Die beschriebenen beispielhaften Ausführungsbeispiele sollen in jeder Hinsicht nur als illustrativ und nicht einschränkend angesehen werden. Die vorliegende Offenbarung beabsichtigt, alle geeigneten Änderungen der Technologie abzudecken und zu umfassen. Der Umfang der vorliegenden Offenbarung wird daher durch die beigefügten Ansprüche beschrieben und nicht durch die obige Beschreibung. Alle Änderungen, die in die Bedeutung und den Bereich von Äquivalenz der Ansprüche fallen, sollen in ihrem Umfang aufgenommen sein.

Claims (15)

  1. Ein Verfahren, das aufweist: Empfangen einer Eingabe eines Zeichens von einer virtuellen Tastatur, die auf einer Anzeige angezeigt wird; Erzeugen eines Satzes oder mehrerer Sätze von vorhergesagten Eingabe-Zeichen basierend auf dem Eingabe-Zeichen; und Anzeigen eines oder mehrerer der erzeugten Sätze von vorhergesagten Eingabe-Zeichen in der virtuellen Tastatur an einer Position nahe an einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen in dem einen oder mehreren erzeugten Sätzen von vorhergesagten Eingabe-Zeichen entspricht.
  2. Das Verfahren gemäß Anspruch 1, das weiter aufweist: Zuordnen einer ersten Partition der virtuellen Tastatur zu einem Satz von vorhergesagten Eingabe-Zeichen mit einem höchsten Rang; Bestimmen einer Kandidaten-Partition eines Satzes von vorhergesagten Eingabe-Zeichen mit einem nächst-höchsten Rang; Zuordnen des Satzes von vorhergesagten Eingabe-Zeichen mit dem nächst-höchsten Rang zu der Kandidaten-Partition, wenn die Kandidaten-Partition nicht zugeordnet ist.
  3. Das Verfahren gemäß Anspruch 2, das weiter aufweist: Bestimmen eines weiteren vorhergesagten Satzes von Eingabe-Zeichen mit einem nächst-höchsten Rang, wenn die Kandidaten-Partition bereits zugeordnet ist; Bestimmen einer Kandidaten-Partition des weiteren Satzes von vorhergesagten Eingabe-Zeichen mit dem nächst-höchsten Rang; Zuordnen des weiteren Satzes von vorhergesagten Eingabe-Zeichen mit dem nächst-höchsten Rang zu der Kandidaten-Partition, wenn die Kandidaten-Partition nicht zugeordnet ist.
  4. Das Verfahren gemäß Anspruch 2 oder Anspruch 3, wobei die Sätze von vorhergesagten Eingabe-Zeichen in einer Partition angezeigt werden, die ihnen zugeordnet ist.
  5. Das Verfahren gemäß einem der Ansprüche 2 bis 4, wobei die Sätze von vorhergesagten Eingabe-Zeichen in einer Partition, die ihnen zugeordnet ist, nur angezeigt werden, wenn alle Partitionen in der virtuellen Tastatur zugeordnet wurden oder kein weiterer Satz von vorhergesagten Eingabe-Zeichen mit nächst-höchstem Rang existiert.
  6. Das Verfahren gemäß einem der Ansprüche 2 bis 5, wobei die Partitionen durch eine Anzahl von Spalten in einem Bereich der virtuellen Tastatur definiert sind.
  7. Das Verfahren gemäß Anspruch 6, wobei die angezeigten Sätze von vorhergesagten Eingabe-Zeichen horizontal ausgerichtet sind.
  8. Das Verfahren gemäß Anspruch 6 oder Anspruch 7, wobei die angezeigten Sätze von vorhergesagten Eingabe-Zeichen in einer horizontalen „Abstandhalter”-Leiste angezeigt werden, die zwei Reihen von Tasten in der virtuellen Tastatur trennt.
  9. Das Verfahren gemäß einem der Ansprüche 2 bis 5, wobei die Partitionen durch eine Anzahl von Reihen in einem Bereich der virtuellen Tastatur definiert sind.
  10. Das Verfahren gemäß Anspruch 9, wobei die angezeigten Sätze von vorhergesagten Eingabe-Zeichen vertikal ausgerichtet sind.
  11. Das Verfahren gemäß Anspruch 9 oder Anspruch 10, wobei die angezeigten Sätze von vorhergesagten Eingabe-Zeichen in einer horizontalen „Abstandhalter”-Leiste angezeigt werden, die zwei Reihen von Tasten in der virtuellen Tastatur trennt, wobei sich jeder der angezeigten Sätze von Zeichen in einer anderen „Abstandhalter”-Leiste befindet.
  12. Das Verfahren gemäß einem der Ansprüche 2 bis 11, wobei die Partitionen im Wesentlichen die gesamte virtuelle Tastatur einnehmen.
  13. Das Verfahren gemäß einem der Ansprüche 1 bis 12, wobei ein angezeigter Satz von vorhergesagten Eingabe-Zeichen eingegeben wird durch Erfassen einer Wischgeste an oder nahe dem angezeigten Satz von vorhergesagten Eingabe-Zeichen.
  14. Das Verfahren gemäß Anspruch 13, wobei die Wischgeste eine Wischgeste „nach oben” ist.
  15. Eine elektronische Vorrichtung, die aufweist: einen Prozessor; eine Anzeige, die mit dem Prozessor gekoppelt ist; wobei der Prozessor konfiguriert ist, das Verfahren gemäß einem der Ansprüche 1 bis 14 durchzuführen.
DE112012000189.3T 2012-02-24 2012-06-18 Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben Active DE112012000189B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261603043P 2012-02-24 2012-02-24
US61/603043 2012-02-24
PCT/CA2012/050405 WO2013123572A1 (en) 2012-02-24 2012-06-18 Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters

Publications (2)

Publication Number Publication Date
DE112012000189T5 true DE112012000189T5 (de) 2013-12-24
DE112012000189B4 DE112012000189B4 (de) 2023-06-15

Family

ID=46245982

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112012000189.3T Active DE112012000189B4 (de) 2012-02-24 2012-06-18 Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben

Country Status (6)

Country Link
US (1) US9910588B2 (de)
EP (1) EP2631758B1 (de)
CN (1) CN103380407B (de)
DE (1) DE112012000189B4 (de)
GB (1) GB2503968B (de)
WO (1) WO2013123572A1 (de)

Families Citing this family (159)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8490008B2 (en) 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
US9715489B2 (en) 2011-11-10 2017-07-25 Blackberry Limited Displaying a prediction candidate after a typing mistake
US9652448B2 (en) 2011-11-10 2017-05-16 Blackberry Limited Methods and systems for removing or replacing on-keyboard prediction candidates
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9122672B2 (en) 2011-11-10 2015-09-01 Blackberry Limited In-letter word prediction for virtual keyboard
EP2618248B1 (de) 2012-01-19 2017-08-16 BlackBerry Limited Virtuelle Tastatur zum Bereitstellen einer Anzeige von empfangener Eingabe
US9557913B2 (en) 2012-01-19 2017-01-31 Blackberry Limited Virtual keyboard display having a ticker proximate to the virtual keyboard
DE112012000189B4 (de) 2012-02-24 2023-06-15 Blackberry Limited Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
CN102629160B (zh) 2012-03-16 2016-08-03 华为终端有限公司 一种输入法、输入装置及终端
US8930813B2 (en) * 2012-04-03 2015-01-06 Orlando McMaster Dynamic text entry/input system
US9201510B2 (en) 2012-04-16 2015-12-01 Blackberry Limited Method and device having touchscreen keyboard with visual cues
US9354805B2 (en) 2012-04-30 2016-05-31 Blackberry Limited Method and apparatus for text selection
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9207860B2 (en) 2012-05-25 2015-12-08 Blackberry Limited Method and apparatus for detecting a gesture
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
US9063653B2 (en) * 2012-08-31 2015-06-23 Blackberry Limited Ranking predictions based on typing speed and typing confidence
US9524290B2 (en) 2012-08-31 2016-12-20 Blackberry Limited Scoring predictions based on prediction length and typing speed
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
CN104007832B (zh) * 2013-02-25 2017-09-01 上海触乐信息科技有限公司 连续滑行输入文本的方法、系统及设备
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9576074B2 (en) * 2013-06-20 2017-02-21 Microsoft Technology Licensing, Llc Intent-aware keyboard
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
CN103631521B (zh) * 2013-12-12 2017-10-17 华为终端有限公司 一种触控屏输入方法和终端
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
CN106716396A (zh) * 2014-07-15 2017-05-24 艾玛尔·Y·塞维尔公司 基于符号的书面语言的字符的输入
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
CN104391644B (zh) * 2014-11-11 2018-03-20 北京元心科技有限公司 一种输入方法及装置
CN104571579A (zh) * 2014-12-12 2015-04-29 百度在线网络技术(北京)有限公司 信息处理方法及装置
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) * 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US20170336969A1 (en) * 2016-05-17 2017-11-23 Google Inc. Predicting next letters and displaying them within keys of a graphical keyboard
JP6691818B2 (ja) * 2016-05-23 2020-05-13 シャープ株式会社 インターフェース、文字入力ガイド方法及びプログラム
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
CN106527753B (zh) * 2016-09-30 2019-05-14 张伟 一种智能电视的字符输入方法
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
CN107765979A (zh) * 2017-09-27 2018-03-06 北京金山安全软件有限公司 一种预测词的展示方法、装置及电子设备
CN107704100A (zh) * 2017-09-27 2018-02-16 北京金山安全软件有限公司 一种预测词的展示方法、装置及电子设备
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN113795813A (zh) 2019-04-12 2021-12-14 惠普发展公司,有限责任合伙企业 用于预测性执行的生物测定
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN112256139B (zh) * 2020-10-22 2022-10-14 米环科技(长春)有限公司 具有键位布局的键盘及其应用于电子设备的输入法
JP7265048B1 (ja) 2022-02-07 2023-04-25 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Family Cites Families (330)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3872433A (en) 1973-06-07 1975-03-18 Optical Business Machines Optical character recognition system
DE2915673A1 (de) 1979-04-18 1980-10-30 Olympia Werke Ag Textbearbeitungseinrichtung mit einer anzeigeeinrichtung
US5261009A (en) 1985-10-15 1993-11-09 Palantir Corporation Means for resolving ambiguities in text passed upon character context
US5963671A (en) * 1991-11-27 1999-10-05 International Business Machines Corporation Enhancement of soft keyboard operations using trigram prediction
US5416895A (en) 1992-04-08 1995-05-16 Borland International, Inc. System and methods for improved spreadsheet interface with user-familiar objects
US5523775A (en) 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
JP3546337B2 (ja) 1993-12-21 2004-07-28 ゼロックス コーポレイション 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法
US5574840A (en) 1994-08-29 1996-11-12 Microsoft Corporation Method and system for selecting text utilizing a plurality of text using switchable minimum granularity of selection
JPH10154144A (ja) 1996-11-25 1998-06-09 Sony Corp 文章入力装置及び方法
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
GB2335822B (en) 1998-03-25 2003-09-10 Nokia Mobile Phones Ltd Context sensitive pop-up window for a portable phone
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
KR100306277B1 (ko) 1998-05-29 2001-11-02 윤종용 문자인식디지털휴대용전화기에서비밀기호등록및확인방법
US6064340A (en) 1998-07-02 2000-05-16 Intersil Corporation Electrostatic discharge locating apparatus and method
US7679534B2 (en) 1998-12-04 2010-03-16 Tegic Communications, Inc. Contextual prediction of user words and user actions
US6226299B1 (en) 1999-01-20 2001-05-01 Emulex Corporation Sanitizing fibre channel frames
US7506252B2 (en) 1999-01-26 2009-03-17 Blumberg Marvin R Speed typing apparatus for entering letters of alphabet with at least thirteen-letter input elements
GB2347240A (en) 1999-02-22 2000-08-30 Nokia Mobile Phones Ltd Communication terminal having a predictive editor application
US6411283B1 (en) 1999-05-20 2002-06-25 Micron Technology, Inc. Computer touch screen adapted to facilitate selection of features at edge of screen
AU5299700A (en) 1999-05-27 2000-12-18 America Online, Inc. Keyboard system with automatic correction
US7030863B2 (en) 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
US6573844B1 (en) 2000-01-18 2003-06-03 Microsoft Corporation Predictive keyboard
US6621424B1 (en) 2000-02-18 2003-09-16 Mitsubishi Electric Research Laboratories Inc. Method for predicting keystroke characters on single pointer keyboards and apparatus therefore
US6646572B1 (en) 2000-02-18 2003-11-11 Mitsubish Electric Research Laboratories, Inc. Method for designing optimal single pointer predictive keyboards and apparatus therefore
US6922810B1 (en) 2000-03-07 2005-07-26 Microsoft Corporation Grammar-based automatic data completion and suggestion for user input
US7107204B1 (en) 2000-04-24 2006-09-12 Microsoft Corporation Computer-aided writing system and method with cross-language writing wizard
AU2001270420A1 (en) 2000-07-21 2002-02-05 Raphael Bachmann Method for a high-speed writing system and high-speed writing device
US20050195173A1 (en) 2001-08-30 2005-09-08 Mckay Brent User Interface for Large-Format Interactive Display Systems
CA2323856A1 (en) 2000-10-18 2002-04-18 602531 British Columbia Ltd. Method, system and media for entering data in a personal computing device
US6891551B2 (en) 2000-11-10 2005-05-10 Microsoft Corporation Selection handles in editing electronic documents
US6577296B2 (en) 2000-11-14 2003-06-10 Vega Vista, Inc. Fixed cursor
US7318019B1 (en) 2000-11-17 2008-01-08 Semantic Compaction Systems Word output device and matrix keyboard for use therein
US6696985B2 (en) 2001-04-24 2004-02-24 International Business Machines Corporation Reformable keyboard with variable key design
US20050024341A1 (en) 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US20090040184A9 (en) 2001-10-04 2009-02-12 Infogation Corporation Information entry mechanism
GB2380583A (en) 2001-10-04 2003-04-09 Ilam Samson Touch pad/screen for electronic equipment
FI115254B (fi) 2001-12-20 2005-03-31 Nokia Corp Kosketusnäytön käyttäminen osoitinvälineellä
US7394346B2 (en) 2002-01-15 2008-07-01 International Business Machines Corporation Free-space gesture recognition for transaction security and command processing
JP4073215B2 (ja) 2002-01-28 2008-04-09 富士通株式会社 文字入力装置
US20030182279A1 (en) 2002-03-19 2003-09-25 Willows Kevin John Progressive prefix input method for data entry
FI20021655A (fi) 2002-06-19 2003-12-20 Nokia Corp Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite
US8583440B2 (en) 2002-06-20 2013-11-12 Tegic Communications, Inc. Apparatus and method for providing visual indication of character ambiguity during text entry
US7259752B1 (en) 2002-06-28 2007-08-21 Microsoft Corporation Method and system for editing electronic ink
US7061403B2 (en) 2002-07-03 2006-06-13 Research In Motion Limited Apparatus and method for input of ideographic Korean syllables from reduced keyboard
US7216588B2 (en) 2002-07-12 2007-05-15 Dana Suess Modified-qwerty letter layout for rapid data entry
US20040111475A1 (en) 2002-12-06 2004-06-10 International Business Machines Corporation Method and apparatus for selectively identifying misspelled character strings in electronic communications
JP2004213269A (ja) 2002-12-27 2004-07-29 Toshiba Corp 文字入力装置
US7194699B2 (en) 2003-01-14 2007-03-20 Microsoft Corporation Animating images to reflect user selection
US7382358B2 (en) 2003-01-16 2008-06-03 Forword Input, Inc. System and method for continuous stroke word-based text input
US7098896B2 (en) 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
US20040153963A1 (en) 2003-02-05 2004-08-05 Simpson Todd G. Information entry mechanism for small keypads
US7136047B2 (en) 2003-04-09 2006-11-14 Microsoft Corporation Software multi-tap input system and method
US7230607B2 (en) 2003-06-12 2007-06-12 Katsuyasu Ono 6-key keyboard for touch typing
WO2005008899A1 (en) 2003-07-17 2005-01-27 Xrgomics Pte Ltd Letter and word choice text input method for keyboards and reduced keyboard systems
US7533351B2 (en) 2003-08-13 2009-05-12 International Business Machines Corporation Method, apparatus, and program for dynamic expansion and overlay of controls
US7499040B2 (en) 2003-08-18 2009-03-03 Apple Inc. Movable touch pad with added functionality
KR100537280B1 (ko) 2003-10-29 2005-12-16 삼성전자주식회사 휴대용 단말기에서 터치스크린을 이용한 문자 입력 장치및 방법
JP2005202527A (ja) 2004-01-14 2005-07-28 Fujitsu Component Ltd 入力装置およびユーザー認証方法
WO2005069159A1 (en) 2004-01-14 2005-07-28 Aroop Kumar Banerjee Method of data entry for indic languages
US8042056B2 (en) 2004-03-16 2011-10-18 Leica Geosystems Ag Browsers for large geometric data visualization
US20090240949A9 (en) 2004-04-23 2009-09-24 Kitchens Fred L Identity authentication based on keystroke latencies using a genetic adaptive neural network
US7439959B2 (en) 2004-07-30 2008-10-21 Research In Motion Limited Key arrangement for a keyboard
US20060176283A1 (en) 2004-08-06 2006-08-10 Daniel Suraqui Finger activated reduced keyboard and a method for performing text input
US8276099B2 (en) 2004-09-28 2012-09-25 David Arthur Yost System of GUI text cursor, caret, and selection
US7561145B2 (en) 2005-03-18 2009-07-14 Microsoft Corporation Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface
GB0505941D0 (en) 2005-03-23 2005-04-27 Patel Sanjay Human-to-mobile interfaces
US7680333B2 (en) 2005-04-21 2010-03-16 Microsoft Corporation System and method for binary persistence format for a recognition result lattice
US7487461B2 (en) 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
US9606634B2 (en) 2005-05-18 2017-03-28 Nokia Technologies Oy Device incorporating improved text input mechanism
US20090193334A1 (en) * 2005-05-18 2009-07-30 Exb Asset Management Gmbh Predictive text input system and method involving two concurrent ranking means
US8036878B2 (en) 2005-05-18 2011-10-11 Never Wall Treuhand GmbH Device incorporating improved text input mechanism
EP2109046A1 (de) 2008-04-07 2009-10-14 ExB Asset Management GmbH Prädiktives Texteingabesystem und Verfahren mit zwei gleichrangigen Ordnungskriterien
US7886233B2 (en) 2005-05-23 2011-02-08 Nokia Corporation Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
US8185841B2 (en) 2005-05-23 2012-05-22 Nokia Corporation Electronic text input involving a virtual keyboard and word completion functionality on a touch-sensitive display screen
US9019209B2 (en) 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
KR100709320B1 (ko) 2005-06-17 2007-04-20 삼성전자주식회사 문서 인쇄 방법 및 인쇄 시스템
JP4619882B2 (ja) 2005-07-12 2011-01-26 株式会社東芝 携帯電話およびその遠隔操作方法
US7443316B2 (en) 2005-09-01 2008-10-28 Motorola, Inc. Entering a character into an electronic device
US7539472B2 (en) * 2005-09-13 2009-05-26 Microsoft Corporation Type-ahead keypad input for an input device
US20100095238A1 (en) 2005-09-14 2010-04-15 Gilles Baudet Device, Method, Computer Program Product and User Interface for Enabling a User to Vary Which Items are displayed to the user
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US20090227233A1 (en) 2005-10-21 2009-09-10 Sanyo Electric Co., Ltd. Input device for inputting password or the like and mobile telephone having the input device
KR101027167B1 (ko) 2005-12-13 2011-04-05 인터내셔널 비지네스 머신즈 코포레이션 자동완성 방법 및 시스템
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US7877685B2 (en) 2005-12-29 2011-01-25 Sap Ag Persistent adjustable text selector
US7574672B2 (en) 2006-01-05 2009-08-11 Apple Inc. Text entry interface for a portable communication device
GB0605386D0 (en) 2006-03-17 2006-04-26 Malvern Scient Solutions Ltd Character input method
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
KR100686165B1 (ko) 2006-04-18 2007-02-26 엘지전자 주식회사 오에스디 기능 아이콘을 갖는 휴대용 단말기 및 이를이용한 오에스디 기능 아이콘의 디스플레이 방법
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
JP2007299291A (ja) 2006-05-01 2007-11-15 Sony Computer Entertainment Inc 文字入力装置、文字入力方法及びプログラム
US20070256029A1 (en) 2006-05-01 2007-11-01 Rpo Pty Llimited Systems And Methods For Interfacing A User With A Touch-Screen
KR100813062B1 (ko) 2006-05-03 2008-03-14 엘지전자 주식회사 휴대용 단말기 및 이를 이용한 텍스트 표시 방법
US20070263932A1 (en) 2006-05-12 2007-11-15 Waterloo Maple Inc. System and method of gesture feature recognition
US20070271466A1 (en) 2006-05-18 2007-11-22 Genevieve Mak Security or authentication system and method using manual input measurements, such as via user manipulation of a computer mouse
US7661068B2 (en) 2006-06-12 2010-02-09 Microsoft Corporation Extended eraser functions
US20080141125A1 (en) 2006-06-23 2008-06-12 Firooz Ghassabian Combined data entry systems
US20080033713A1 (en) 2006-07-10 2008-02-07 Sony Ericsson Mobile Communications Ab Predicting entered text
US7934156B2 (en) 2006-09-06 2011-04-26 Apple Inc. Deletion gestures on a portable multifunction device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7941760B2 (en) 2006-09-06 2011-05-10 Apple Inc. Soft keyboard display for a portable multifunction device
US7856605B2 (en) 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US8022934B2 (en) 2006-10-31 2011-09-20 Research In Motion Limited Handheld electronic device with text disambiguation and selective disabling of frequency learning
KR20090098967A (ko) 2006-11-08 2009-09-18 큐빅 디자인 스튜디오스 엘엘씨 비대칭 섞임 키보드
KR20080041856A (ko) 2006-11-08 2008-05-14 팅크웨어(주) 메뉴 표시 방법
US7900145B2 (en) 2006-11-08 2011-03-01 Yahoo! Inc. System and method for synchronizing data
US7692629B2 (en) 2006-12-07 2010-04-06 Microsoft Corporation Operating touch screen interfaces
US8125312B2 (en) 2006-12-08 2012-02-28 Research In Motion Limited System and method for locking and unlocking access to an electronic device
EP1939715B1 (de) 2006-12-29 2011-01-26 Research In Motion Limited Tragbare elektronische Vorrichtung mit Eingabebestätigung und entsprechendes Verfahren
US8115658B2 (en) * 2006-12-29 2012-02-14 Research In Motion Limited Handheld electronic device providing confirmation of input, and associated method
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US8665225B2 (en) 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
US7978176B2 (en) 2007-01-07 2011-07-12 Apple Inc. Portrait-landscape rotation heuristics for a portable multifunction device
US8607144B2 (en) 2007-01-08 2013-12-10 Apple Inc. Monitor configuration for media device
US20090213081A1 (en) 2007-01-10 2009-08-27 Case Jr Charlie W Portable Electronic Device Touchpad Input Controller
US8311530B2 (en) 2007-01-26 2012-11-13 Research In Motion Limited Touch entry of password on a mobile device
US8225203B2 (en) 2007-02-01 2012-07-17 Nuance Communications, Inc. Spell-check for a keyboard system with automatic correction
US8201087B2 (en) 2007-02-01 2012-06-12 Tegic Communications, Inc. Spell-check for a keyboard system with automatic correction
US7912700B2 (en) 2007-02-08 2011-03-22 Microsoft Corporation Context based word prediction
CA2581824A1 (en) 2007-03-14 2008-09-14 602531 British Columbia Ltd. System, apparatus and method for data entry using multi-function keys
CN101021762A (zh) 2007-03-26 2007-08-22 宇龙计算机通信科技(深圳)有限公司 触摸屏的锁定装置及方法
US20100295801A1 (en) 2007-04-10 2010-11-25 Nokia Corporation Electronic devices
CN101641665B (zh) 2007-04-12 2013-02-06 诺基亚公司 键区
US20080266261A1 (en) 2007-04-25 2008-10-30 Idzik Jacek S Keystroke Error Correction Method
US8130202B2 (en) 2007-05-01 2012-03-06 International Business Machines Corporation Infrared touch screen gated by touch force
CA2686601C (en) 2007-05-07 2016-10-04 Fourthwall Media Providing personalized resources on-demand over a broadband network to consumer device applications
US8018441B2 (en) 2007-06-11 2011-09-13 Samsung Electronics Co., Ltd. Character input apparatus and method for automatically switching input mode in terminal having touch screen
JP4775332B2 (ja) 2007-06-14 2011-09-21 ブラザー工業株式会社 画像選択装置および画像選択方法
US7970438B2 (en) 2007-06-19 2011-06-28 Lg Electronics Inc. Mobile terminal and keypad control method
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8009146B2 (en) 2007-06-28 2011-08-30 Nokia Corporation Method, apparatus and computer program product for facilitating data entry via a touchscreen
US8065624B2 (en) 2007-06-28 2011-11-22 Panasonic Corporation Virtual keypad systems and methods
US8127254B2 (en) 2007-06-29 2012-02-28 Nokia Corporation Unlocking a touch screen device
US8365282B2 (en) 2007-07-18 2013-01-29 Research In Motion Limited Security system based on input shortcuts for a computer device
US20090044124A1 (en) 2007-08-06 2009-02-12 Nokia Corporation Method, apparatus and computer program product for facilitating data entry using an offset connection element
WO2009028889A2 (en) 2007-08-28 2009-03-05 Mobience, Inc. Key input interface method
US20090058823A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Virtual Keyboards in Multi-Language Environment
US8661340B2 (en) 2007-09-13 2014-02-25 Apple Inc. Input methods for device having multi-language environment
CN100592249C (zh) 2007-09-21 2010-02-24 上海汉翔信息技术有限公司 快速输入相关词的方法
US8125458B2 (en) 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
EP2045700A1 (de) 2007-10-04 2009-04-08 LG Electronics Inc. Menüanzeigeverfahren für ein Mobilkommunikationsendgerät
US20090125848A1 (en) 2007-11-14 2009-05-14 Susann Marie Keohane Touch surface-sensitive edit system
US7870164B2 (en) 2007-11-20 2011-01-11 Microsoft Corporation Database part creation, merge and reuse
US20110035696A1 (en) 2007-11-20 2011-02-10 Avi Elazari Character input system for limited keyboards
US20090144667A1 (en) 2007-11-30 2009-06-04 Nokia Corporation Apparatus, method, computer program and user interface for enabling user input
JP2009139544A (ja) 2007-12-05 2009-06-25 Denso Corp 入力装置
CN101464741B (zh) 2007-12-19 2011-12-07 联想(北京)有限公司 触摸板、触摸板使用方法以及具有触摸板的笔记本电脑
US8610671B2 (en) 2007-12-27 2013-12-17 Apple Inc. Insertion marker placement on touch sensitive display
TWI420344B (zh) 2007-12-31 2013-12-21 Htc Corp 切換觸碰鍵盤的方法以及使用此方法的手持電子裝置與儲存媒體
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8289283B2 (en) 2008-03-04 2012-10-16 Apple Inc. Language input interface on a device
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8358277B2 (en) 2008-03-18 2013-01-22 Microsoft Corporation Virtual keyboard based activation and dismissal
US8228300B2 (en) 2008-03-28 2012-07-24 Sprint Communications Company L.P. Physical feedback to indicate object directional slide
JP2009245239A (ja) 2008-03-31 2009-10-22 Sony Corp ポインタ表示装置、ポインタ表示検出方法、ポインタ表示検出プログラム及び情報機器
US20090254818A1 (en) 2008-04-03 2009-10-08 International Business Machines Corporation Method, system and user interface for providing inline spelling assistance
TWI361613B (en) 2008-04-16 2012-04-01 Htc Corp Mobile electronic device, method for entering screen lock state and recording medium thereof
CN101266520B (zh) 2008-04-18 2013-03-27 上海触乐信息科技有限公司 一种可实现灵活键盘布局的系统
US8949743B2 (en) 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
US20090267909A1 (en) 2008-04-27 2009-10-29 Htc Corporation Electronic device and user interface display method thereof
JP2009288873A (ja) 2008-05-27 2009-12-10 Ntt Docomo Inc 携帯端末及び文字入力方法
US9355090B2 (en) 2008-05-30 2016-05-31 Apple Inc. Identification of candidate characters for text input
CN101604216B (zh) 2008-06-10 2012-11-21 鸿富锦精密工业(深圳)有限公司 密码保护方法
DE602008005428D1 (de) 2008-06-11 2011-04-21 Exb Asset Man Gmbh Vorrichtung und Verfahren mit verbessertem Texteingabemechanismus
US8683582B2 (en) 2008-06-16 2014-03-25 Qualcomm Incorporated Method and system for graphical passcode security
JP4632102B2 (ja) 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US20100020033A1 (en) 2008-07-23 2010-01-28 Obinna Ihenacho Alozie Nwosu System, method and computer program product for a virtual keyboard
US20100020036A1 (en) 2008-07-23 2010-01-28 Edward Hui Portable electronic device and method of controlling same
EP2149837A1 (de) 2008-07-29 2010-02-03 Samsung Electronics Co., Ltd. Verfahren und System zum Hervorheben von Objekten
US20100070908A1 (en) 2008-09-18 2010-03-18 Sun Microsystems, Inc. System and method for accepting or rejecting suggested text corrections
JP2010079441A (ja) 2008-09-24 2010-04-08 Sharp Corp 携帯端末、ソフトウェアキーボード表示方法、及びソフトウェアキーボード表示プログラム
WO2010035574A1 (ja) 2008-09-29 2010-04-01 シャープ株式会社 入力装置、入力方法、プログラム、および記録媒体
US20100079413A1 (en) 2008-09-29 2010-04-01 Denso Corporation Control device
EP2344946A1 (de) 2008-10-07 2011-07-20 Tiki'labs Verfahren und einrichtung zum steuern eines eingebens von daten
KR20100042976A (ko) 2008-10-17 2010-04-27 엘지전자 주식회사 단말기 및 그 제어 방법
JP5371371B2 (ja) 2008-10-29 2013-12-18 京セラ株式会社 携帯端末および文字表示プログラム
CN101533403B (zh) 2008-11-07 2010-12-01 广东国笔科技股份有限公司 一种派生词生成方法及系统
US9501694B2 (en) 2008-11-24 2016-11-22 Qualcomm Incorporated Pictorial methods for application selection and activation
EP2350779A4 (de) 2008-11-25 2018-01-10 Jeffrey R. Spetalnick Verfahren und systeme für verbesserte dateneingabe, komprimierung, erkennung, korrektur und übersetzung durch sprachanalyse auf frequenzbasis
KR20100060192A (ko) 2008-11-27 2010-06-07 삼성전자주식회사 휴대 단말 장치의 방향 센서를 이용한 잠금 기능 제어 장치및 방법
US9041660B2 (en) 2008-12-09 2015-05-26 Microsoft Technology Licensing, Llc Soft keyboard control
US8451236B2 (en) 2008-12-22 2013-05-28 Hewlett-Packard Development Company L.P. Touch-sensitive display screen with absolute and relative input modes
US20100161538A1 (en) 2008-12-22 2010-06-24 Kennedy Jr Thomas William Device for user input
US8686952B2 (en) 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
US8326358B2 (en) 2009-01-30 2012-12-04 Research In Motion Limited System and method for access control in a portable electronic device
EP2400426B1 (de) 2009-01-30 2013-03-13 Research In Motion Limited System und Verfahren für die Zugriffssteuerung in einer tragbaren elektronischen Vorrichtung
US20100199176A1 (en) 2009-02-02 2010-08-05 Chronqvist Fredrik A Electronic device with text prediction function and method
KR20120006976A (ko) 2009-02-04 2012-01-19 베냐민 피루쯔 가사비안 데이타입력시스템
US8605039B2 (en) * 2009-03-06 2013-12-10 Zimpl Ab Text input
US8370736B2 (en) 2009-03-16 2013-02-05 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US8294680B2 (en) 2009-03-27 2012-10-23 Sony Mobile Communications Ab System and method for touch-based text entry
GB0905457D0 (en) 2009-03-30 2009-05-13 Touchtype Ltd System and method for inputting text into electronic devices
US8539382B2 (en) 2009-04-03 2013-09-17 Palm, Inc. Preventing unintentional activation and/or input in an electronic device
US9213477B2 (en) 2009-04-07 2015-12-15 Tara Chand Singhal Apparatus and method for touch screen user interface for handheld electric devices part II
US20100259482A1 (en) 2009-04-10 2010-10-14 Microsoft Corporation Keyboard gesturing
US8300023B2 (en) 2009-04-10 2012-10-30 Qualcomm Incorporated Virtual keypad generator with learning capabilities
KR101537706B1 (ko) 2009-04-16 2015-07-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US20100265181A1 (en) 2009-04-20 2010-10-21 ShoreCap LLC System, method and computer readable media for enabling a user to quickly identify and select a key on a touch screen keypad by easing key selection
CN101876878A (zh) 2009-04-29 2010-11-03 深圳富泰宏精密工业有限公司 单词预测输入系统及方法
US8739055B2 (en) 2009-05-07 2014-05-27 Microsoft Corporation Correction of typographical errors on touch displays
US20100293475A1 (en) 2009-05-12 2010-11-18 International Business Machines Corporation Notification of additional recipients of email messages
JP5158014B2 (ja) 2009-05-21 2013-03-06 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
US8856649B2 (en) 2009-06-08 2014-10-07 Business Objects Software Limited Aggregation level and measure based hinting and selection of cells in a data display
US20100313158A1 (en) 2009-06-08 2010-12-09 Lg Electronics Inc. Method for editing data in mobile terminal and mobile terminal using the same
US20100315266A1 (en) 2009-06-15 2010-12-16 Microsoft Corporation Predictive interfaces with usability constraints
US8458485B2 (en) 2009-06-17 2013-06-04 Microsoft Corporation Image-based unlock functionality on a computing device
US20100333027A1 (en) 2009-06-26 2010-12-30 Sony Ericsson Mobile Communications Ab Delete slider mechanism
WO2010149224A1 (en) 2009-06-26 2010-12-29 Nokia Corporation Method, apparatus and computer program code handling a user input
US9189156B2 (en) 2009-07-14 2015-11-17 Howard Gutowitz Keyboard comprising swipe-switches performing keyboard actions
US20110018812A1 (en) 2009-07-21 2011-01-27 Cisco Technology, Inc. Fast Typographical Error Correction for Touchscreen Keyboards
US20110029862A1 (en) 2009-07-30 2011-02-03 Research In Motion Limited System and method for context based predictive text entry assistance
EP2282252A1 (de) 2009-07-31 2011-02-09 France Telecom Verfahren und Vorrichtung zur Umwandlung einer Zeichenfolgeneingabe
US20110041056A1 (en) 2009-08-14 2011-02-17 Research In Motion Limited Electronic device with touch-sensitive display and method of facilitating input at the electronic device
US8531410B2 (en) 2009-08-18 2013-09-10 Fuji Xerox Co., Ltd. Finger occlusion avoidance on touch display devices
WO2011025200A2 (ko) 2009-08-23 2011-03-03 (주)티피다시아이 확장키를 이용한 정보입력시스템 및 정보입력방법
US9262063B2 (en) 2009-09-02 2016-02-16 Amazon Technologies, Inc. Touch-screen user interface
TW201109990A (en) 2009-09-04 2011-03-16 Higgstec Inc Touch gesture detecting method of a touch panel
US20110060984A1 (en) 2009-09-06 2011-03-10 Lee Yung-Chao Method and apparatus for word prediction of text input by assigning different priorities to words on a candidate word list according to how many letters have been entered so far by a user
US9317116B2 (en) 2009-09-09 2016-04-19 Immersion Corporation Systems and methods for haptically-enhanced text interfaces
US20110063231A1 (en) 2009-09-14 2011-03-17 Invotek, Inc. Method and Device for Data Input
US8516367B2 (en) 2009-09-29 2013-08-20 Verizon Patent And Licensing Inc. Proximity weighted predictive key entry
US9122393B2 (en) 2009-09-30 2015-09-01 At&T Mobility Ii Llc Predictive sensitized keypad
US8812972B2 (en) * 2009-09-30 2014-08-19 At&T Intellectual Property I, L.P. Dynamic generation of soft keyboards for mobile devices
WO2011044664A1 (en) 2009-10-14 2011-04-21 Research In Motion Limited Touch-input determination based on relative distances of contact
DE212010000169U1 (de) * 2009-10-26 2012-07-26 Google, Inc. Prädiktive Texteingabe für Eingabeeinrichtungen
US8627224B2 (en) 2009-10-27 2014-01-07 Qualcomm Incorporated Touch screen keypad layout
EP2320312A1 (de) 2009-11-10 2011-05-11 Research In Motion Limited Tragbare elektronische Vorrichtung und Steuerverfahren dafür
KR101595029B1 (ko) 2009-11-18 2016-02-17 엘지전자 주식회사 이동단말기 및 그 제어방법
TW201122890A (en) 2009-12-18 2011-07-01 Best Solution Technology Inc Touch-control lock operated according to gesture or figure.
JP2013515295A (ja) 2009-12-20 2013-05-02 キーレス システムズ リミテッド データ入力システムおよびその方法
KR20110071612A (ko) 2009-12-21 2011-06-29 삼성전자주식회사 화상형성장치 및 그 문자 입력방법
US20110171617A1 (en) 2010-01-11 2011-07-14 Ideographix, Inc. System and method for teaching pictographic languages
US20110179355A1 (en) 2010-01-15 2011-07-21 Sony Ericsson Mobile Communications Ab Virtual information input arrangement
US8782556B2 (en) 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US20110202835A1 (en) 2010-02-13 2011-08-18 Sony Ericsson Mobile Communications Ab Item selection method for touch screen devices
KR101557358B1 (ko) 2010-02-25 2015-10-06 엘지전자 주식회사 문자열 입력 방법 및 그 장치
EP2545426A4 (de) 2010-03-12 2017-05-17 Nuance Communications, Inc. Multimodales texteingabesystem, wie etwa zur verwendung mit berührungsbildschirmen auf mobiltelefonen
JP5556270B2 (ja) * 2010-03-17 2014-07-23 富士通株式会社 候補表示装置および候補表示方法
US9292161B2 (en) 2010-03-24 2016-03-22 Microsoft Technology Licensing, Llc Pointer tool with touch-enabled precise placement
CN102202130A (zh) 2010-03-25 2011-09-28 鸿富锦精密工业(深圳)有限公司 具有解锁和锁定功能的电子装置及其解锁和锁定方法
US20110242138A1 (en) 2010-03-31 2011-10-06 Tribble Guy L Device, Method, and Graphical User Interface with Concurrent Virtual Keyboards
US8941706B2 (en) 2010-04-07 2015-01-27 Apple Inc. Image processing for a dual camera mobile device
KR101642725B1 (ko) 2010-04-14 2016-08-11 삼성전자 주식회사 휴대 단말기의 잠금 기능 운용 방법 및 장치
EP2381384B1 (de) 2010-04-21 2019-02-27 BlackBerry Limited Verfahren zur Bereitstellung von Sicherheit in einem tragbaren elektronischen Gerät mit einer berührungsempfindlichen Anzeige
DE102010020474A1 (de) 2010-05-14 2011-11-17 Deutsche Telekom Ag Touch Screen Bildschirm mit Funktionsverriegelung
US20110285656A1 (en) 2010-05-19 2011-11-24 Google Inc. Sliding Motion To Change Computer Keys
US20110302518A1 (en) 2010-06-07 2011-12-08 Google Inc. Selecting alternate keyboard characters via motion input
US20110305494A1 (en) 2010-06-11 2011-12-15 Chulho Kang Portable and ease-of-use ergonomic keyboard
KR101694154B1 (ko) 2010-06-29 2017-01-09 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP5573457B2 (ja) 2010-07-23 2014-08-20 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US20120030566A1 (en) 2010-07-28 2012-02-02 Victor B Michael System with touch-based selection of data items
US8918734B2 (en) * 2010-07-28 2014-12-23 Nuance Communications, Inc. Reduced keyboard with prediction solutions when input is a partial sliding trajectory
US8799815B2 (en) 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
US20120030624A1 (en) 2010-07-30 2012-02-02 Migos Charles J Device, Method, and Graphical User Interface for Displaying Menus
JP5510185B2 (ja) 2010-08-20 2014-06-04 ソニー株式会社 情報処理装置、プログラム及び表示制御方法
US8904311B2 (en) 2010-09-01 2014-12-02 Nokia Corporation Method, apparatus, and computer program product for implementing a variable content movable control
US9122318B2 (en) 2010-09-15 2015-09-01 Jeffrey R. Spetalnick Methods of and systems for reducing keyboard data entry errors
US20120068937A1 (en) 2010-09-16 2012-03-22 Sony Ericsson Mobile Communications Ab Quick input language/virtual keyboard/ language dictionary change on a touch screen device
KR101178294B1 (ko) 2010-09-20 2012-08-29 진병욱 슬라이딩 삭제키 또는 역삭제키를 포함하는 키보드
JP5657973B2 (ja) 2010-09-24 2015-01-21 Necエンベデッドプロダクツ株式会社 情報処理装置、選択文字表示方法及びプログラム
US8516386B2 (en) 2010-09-29 2013-08-20 Apple Inc. Scrolling virtual music keyboard
KR101688944B1 (ko) 2010-10-01 2016-12-22 엘지전자 주식회사 키보드 제어 장치 및 그 방법
US9027117B2 (en) 2010-10-04 2015-05-05 Microsoft Technology Licensing, Llc Multiple-access-level lock screen
JP5782699B2 (ja) 2010-10-15 2015-09-24 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
US20120102401A1 (en) 2010-10-25 2012-04-26 Nokia Corporation Method and apparatus for providing text selection
US9104306B2 (en) 2010-10-29 2015-08-11 Avago Technologies General Ip (Singapore) Pte. Ltd. Translation of directional input to gesture
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
GB2485999A (en) 2010-11-30 2012-06-06 St Microelectronics Res & Dev Optical keyboard each key recognising multiple different inputs
WO2012076743A1 (en) 2010-12-08 2012-06-14 Nokia Corporation An apparatus and associated methods for text entry
US20120167009A1 (en) 2010-12-22 2012-06-28 Apple Inc. Combining timing and geometry information for typing correction
US20120200514A1 (en) 2011-02-07 2012-08-09 Allen James M Graphical Caregiver Interface With Swipe to Unlock Feature
US20120223959A1 (en) 2011-03-01 2012-09-06 Apple Inc. System and method for a touchscreen slider with toggle control
US20120249595A1 (en) 2011-03-31 2012-10-04 Feinstein David Y Area selection for hand held devices with display
US10222974B2 (en) 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
US8656315B2 (en) 2011-05-27 2014-02-18 Google Inc. Moving a graphical selector
US8661339B2 (en) 2011-05-31 2014-02-25 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
CN105955617B (zh) 2011-06-03 2019-07-12 谷歌有限责任公司 用于选择文本的手势
US20130007606A1 (en) 2011-06-30 2013-01-03 Nokia Corporation Text deletion
US9746995B2 (en) 2011-07-14 2017-08-29 Microsoft Technology Licensing, Llc Launcher for context based menus
US20130050222A1 (en) 2011-08-25 2013-02-28 Dov Moran Keyboard with embedded display
US20130067411A1 (en) 2011-09-08 2013-03-14 Google Inc. User gestures indicating rates of execution of functions
US9262076B2 (en) 2011-09-12 2016-02-16 Microsoft Technology Licensing, Llc Soft keyboard interface
US9785251B2 (en) 2011-09-14 2017-10-10 Apple Inc. Actuation lock for a touch sensitive mechanical keyboard
US20130080962A1 (en) 2011-09-26 2013-03-28 Mahmoud Razzaghi Touch screen alpha numeric keyboard
US20130104068A1 (en) 2011-10-20 2013-04-25 Microsoft Corporation Text prediction key
US20130120268A1 (en) 2011-11-10 2013-05-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
US8490008B2 (en) 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
US9652448B2 (en) 2011-11-10 2017-05-16 Blackberry Limited Methods and systems for removing or replacing on-keyboard prediction candidates
US9715489B2 (en) 2011-11-10 2017-07-25 Blackberry Limited Displaying a prediction candidate after a typing mistake
US9122672B2 (en) 2011-11-10 2015-09-01 Blackberry Limited In-letter word prediction for virtual keyboard
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
EP2618248B1 (de) 2012-01-19 2017-08-16 BlackBerry Limited Virtuelle Tastatur zum Bereitstellen einer Anzeige von empfangener Eingabe
US9557913B2 (en) 2012-01-19 2017-01-31 Blackberry Limited Virtual keyboard display having a ticker proximate to the virtual keyboard
DE112012000189B4 (de) 2012-02-24 2023-06-15 Blackberry Limited Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben
US20130222255A1 (en) 2012-02-24 2013-08-29 Research In Motion Limited Portable electronic device including touch-sensitive display and method of controlling same
US9223497B2 (en) 2012-03-16 2015-12-29 Blackberry Limited In-context word prediction and word correction
US20130271385A1 (en) 2012-04-16 2013-10-17 Research In Motion Limited Method of Changing Input States
CA2812457C (en) 2012-04-16 2017-03-21 Research In Motion Limited Method and device having touchscreen keyboard with visual cues
US9201510B2 (en) 2012-04-16 2015-12-01 Blackberry Limited Method and device having touchscreen keyboard with visual cues
EP2653955B1 (de) 2012-04-16 2017-02-08 BlackBerry Limited Verfahren und Vorrichtung mit Berührungsbildschirmtastatur mit visuellen Hinweisen
CA2813393C (en) 2012-04-30 2019-10-22 Research In Motion Limited Touchscreen keyboard providing word predictions at locations in association with candidate letters
US9292192B2 (en) 2012-04-30 2016-03-22 Blackberry Limited Method and apparatus for text selection
US10025487B2 (en) 2012-04-30 2018-07-17 Blackberry Limited Method and apparatus for text selection
US9354805B2 (en) 2012-04-30 2016-05-31 Blackberry Limited Method and apparatus for text selection
DE112012000403T5 (de) 2012-04-30 2014-07-31 Blackberry Limited Berührungsbildschirm-tastaturmit korrektur von vorher eingegebenem text
EP2660727B1 (de) 2012-04-30 2016-10-26 BlackBerry Limited Verfahren und Vorrichtung zur Textauswahl
US20130285927A1 (en) 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard with correction of previously input text
EP2660699A1 (de) 2012-04-30 2013-11-06 BlackBerry Limited Berührungsbildschirmtastatur mit Korrektur von vorher eingegebenem Text
EP2660697B1 (de) 2012-04-30 2017-03-01 BlackBerry Limited Verfahren und Vorrichtung zur Textauswahl
GB2506956A (en) 2012-04-30 2014-04-16 Blackberry Ltd Method and apparatus for text selection
US20130285916A1 (en) 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard providing word predictions at locations in association with candidate letters
EP2660696B1 (de) 2012-04-30 2014-06-11 BlackBerry Limited Verfahren und Vorrichtung zur Textauswahl
US9207860B2 (en) 2012-05-25 2015-12-08 Blackberry Limited Method and apparatus for detecting a gesture
US20130342452A1 (en) 2012-06-21 2013-12-26 Research In Motion Limited Electronic device including touch-sensitive display and method of controlling a position indicator
EP2680120B1 (de) 2012-06-27 2018-03-21 BlackBerry Limited Berührungsbildschirm-tastatur mit auswahl an wortvorhersagen in unterteilungen der berührungsbildschirmtastatur
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
CA2820997C (en) 2012-07-13 2016-10-18 Research In Motion Limited Methods and systems for removing or replacing on-keyboard prediction candidates
US9152319B2 (en) 2012-07-16 2015-10-06 Avaya Inc. Method for simplifying a Swype based touch-screen keypad for fast text entry
EP2703956B1 (de) 2012-08-31 2014-11-26 BlackBerry Limited Bewerten von Vorhersagen basierend auf der Tippgeschwindigkeit und Tippsicherheit
EP2703957B1 (de) 2012-08-31 2018-06-06 BlackBerry Limited Verfahren zum Auswählen eines Wortes durch Wischen einer kapazitativen Tastatur
US9524290B2 (en) 2012-08-31 2016-12-20 Blackberry Limited Scoring predictions based on prediction length and typing speed
US20140063067A1 (en) 2012-08-31 2014-03-06 Research In Motion Limited Method to select word by swiping capacitive keyboard
EP2703955B1 (de) 2012-08-31 2014-11-26 BlackBerry Limited Bewertung von Vorhersageergebnissen basierend auf Vorhersagelänge und Eintippgeschwindigkeit
US9063653B2 (en) 2012-08-31 2015-06-23 Blackberry Limited Ranking predictions based on typing speed and typing confidence
US8850350B2 (en) 2012-10-16 2014-09-30 Google Inc. Partial gesture text entry
KR101380430B1 (ko) 2012-12-20 2014-04-01 주식회사 팬택 통화 중 편의정보를 제공하는 휴대 단말 및 휴대 단말 상에서 통화 중 편의정보를 제공하는 방법

Also Published As

Publication number Publication date
EP2631758B1 (de) 2016-11-02
GB2503968B (en) 2021-02-17
WO2013123572A1 (en) 2013-08-29
CN103380407B (zh) 2017-05-03
US9910588B2 (en) 2018-03-06
CN103380407A (zh) 2013-10-30
US20130222249A1 (en) 2013-08-29
DE112012000189B4 (de) 2023-06-15
EP2631758A1 (de) 2013-08-28
GB2503968A (en) 2014-01-15
GB201306290D0 (en) 2013-05-22

Similar Documents

Publication Publication Date Title
DE112012000189B4 (de) Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben
DE112012000403T5 (de) Berührungsbildschirm-tastaturmit korrektur von vorher eingegebenem text
US9134810B2 (en) Next letter prediction for virtual keyboard
US20180039335A1 (en) Touchscreen Keyboard Providing Word Predictions at Locations in Association with Candidate Letters
US9122672B2 (en) In-letter word prediction for virtual keyboard
US9116552B2 (en) Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
EP2618248A1 (de) Virtuelle Tastatur zum Bereitstellen einer Anzeige von empfangener Eingabe
EP2680120B1 (de) Berührungsbildschirm-tastatur mit auswahl an wortvorhersagen in unterteilungen der berührungsbildschirmtastatur
CA2813393C (en) Touchscreen keyboard providing word predictions at locations in association with candidate letters
DE112007000122T5 (de) Tastaturen für tragbare elektronische Vorrichtungen
US20130325438A1 (en) Touchscreen Keyboard with Corrective Word Prediction
CA2817262C (en) Touchscreen keyboard with corrective word prediction
US8922492B2 (en) Device and method of inputting characters
WO2017075710A1 (en) Word typing touchscreen keyboard
US20130125035A1 (en) Virtual keyboard configuration
DE112011101748B4 (de) Prädiktive Anzeige auf einer Berührungsbildschirm-Tastatur und Erzeugung eines Satzes von Zeichen
US20150278176A1 (en) Providing for text entry by a user of a computing device
KR101380502B1 (ko) 터치스크린을 가진 전자기기의 드래그 기반 한글입력장치 및 한글입력방법
CA2812033C (en) Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters
KR102502846B1 (ko) 터치펜을 이용한 겹벌식 문자 입력 장치
EP2660693B1 (de) Berührungsbildschirm-Tastatur mit Wortvorhersage an Standorten in Verbindung mit Kandidatenschreiben
KR20150088974A (ko) 키 사용 빈도에 따라 인식 정확도를 높이는 방법을 적용한 qwerty 키패드
DE112012004224T5 (de) Erfassung einer an die Leertaste angrenzenden Zeicheneingabe

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: BLACKBERRY LIMITED, WATERLOO, CA

Free format text: FORMER OWNER: RESEARCH IN MOTION LTD., WATERLOO, ONTARIO, CA

Effective date: 20131104

Owner name: BLACKBERRY LIMITED, WATERLOO, CA

Free format text: FORMER OWNER: RESEARCH IN MOTION LIMITED, WATERLOO, ONTARIO, CA

Effective date: 20140925

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

Effective date: 20140925

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

Effective date: 20131104

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

Effective date: 20131104

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

Effective date: 20140925

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: MALIKIE INNOVATIONS LTD., IE

Free format text: FORMER OWNER: BLACKBERRY LIMITED, WATERLOO, ONTARIO, CA

R082 Change of representative