DE112012000189T5 - Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben - Google Patents
Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben Download PDFInfo
- Publication number
- DE112012000189T5 DE112012000189T5 DE112012000189T DE112012000189T DE112012000189T5 DE 112012000189 T5 DE112012000189 T5 DE 112012000189T5 DE 112012000189 T DE112012000189 T DE 112012000189T DE 112012000189 T DE112012000189 T DE 112012000189T DE 112012000189 T5 DE112012000189 T5 DE 112012000189T5
- Authority
- DE
- Germany
- Prior art keywords
- characters
- input
- displayed
- generated
- sets
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005192 partition Methods 0.000 title claims abstract description 96
- 238000000034 method Methods 0.000 claims abstract description 72
- 125000006850 spacer group Chemical group 0.000 claims description 6
- 230000008569 process Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 210000003811 finger Anatomy 0.000 description 13
- 238000010079 rubber tapping Methods 0.000 description 4
- 240000007817 Olea europaea Species 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 235000019633 pungent taste Nutrition 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
- VERWANDTE ANMELDUNGSDATEN
- Die vorliegende Anmeldung beansprucht Priorität zu und den Vorteil der vorläufigen U.S.-Patentanmeldung Nr. 61/603,043, angemeldet am 24. Februar 2012, die in ihrer Gesamtheit durch Bezugnahme hier aufgenommen ist. Die vorliegende Offenbarung bezieht sich auch auf die gemeinsame U.S.-Patentanmeldung Nr. 13/373,356, angemeldet am 10. November 2011, die in ihrer Gesamtheit durch Bezugnahme hier aufgenommen ist.
- TECHNISCHES GEBIET
- Die vorliegende Offenbarung betrifft im Allgemeinen Eingabe-Methodiken für elektronische Vorrichtungen, wie handgehaltene elektronische Vorrichtungen, und insbesondere Verfahren zum Empfangen einer prädiktiven Texteingabe und zur Erzeugung eines Satzes von Zeichen für elektronische Vorrichtungen.
- HINTERGRUND
- Zunehmend haben elektronische Vorrichtungen, wie Computer, Netbooks, zellulare Telefone, Smartphones, persönliche digitale Assistenten (PDAs – personal digital assistants), Tablets, etc., Berührungsbildschirme, die einem Benutzer ermöglichen, Zeichen in eine Anwendung einzugeben, wie eine Textverarbeitungs- oder Email-Anwendung. Eine Zeicheneingabe auf Berührungsbildschirmen kann eine mühselige Angelegenheit sein aufgrund zum Beispiel des kleinen Berührungsbildschirmbereichs, insbesondere, wenn ein Benutzer eine lange Nachricht eingeben möchte.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 ist ein beispielhaftes Blockdiagramm einer elektronischen Vorrichtung, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
2 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zur Vorhersage eines ausgewählten Satzes von Zeichen darstellt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
3A ,3B ,3C und3D zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
4A und4B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
5 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
6A ,6B und6C zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
7 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
8A und8B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
9 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
10A und10B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
11A und11B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
12A und12B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
13A und13B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
14A ,14B und14C zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
15 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
16 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
17 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zeigt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
18 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zeigt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
19 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zeigt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
20 zeigt eine beispielhafte Vorderansicht einer virtuellen Tastatur zur Anzeige auf einem Berührungsbildschirm in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
21 bis24 zeigen beispielhafte Vorderansichten einer virtuellen Tastatur zur Anzeige auf einem Berührungsbildschirm in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
25 bis28 zeigen beispielhafte Vorderansichten einer virtuellen Tastatur zur Anzeige auf einem Berührungsbildschirm in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
29 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren darstellt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. - BESCHREIBUNG VON BEISPIELHAFTEN AUSFÜHRUNGSBEISPIELEN
- Es wird nun im Detail auf verschiedene Ausführungsbeispiele Bezug genommen, von denen Beispiele in den beigefügten Zeichnungen dargestellt werden. Wenn möglich, werden die gleichen Referenznummern in den gesamten Zeichnungen verwendet, um auf gleiche oder ähnliche Teile zu verweisen.
- Die vorliegende Offenbarung betrifft eine elektronische Vorrichtung, einschließlich drahtgebundener Kommunikationsvorrichtungen (zum Beispiel ein Laptop-Computer mit einem Berührungsbildschirm) und mobiler oder handgehaltener drahtloser Kommunikationsvorrichtungen, wie zellulare Telefone, Smartphones, drahtlose Organizer, persönliche digitale Assistenten, drahtlos aktivierte Notebook-Computer, Tablets und ähnliche Vorrichtungen. Die elektronische Vorrichtung kann auch eine elektronische Vorrichtung ohne drahtlose Kommunikationsfähigkeiten sein, wie eine handgehaltene elektronische Spielevorrichtung, ein digitales Fotoalbum, eine Digitalkamera oder eine andere Vorrichtung.
- Grundlegende prädiktive Texteingabe-Lösungen wurden zur Unterstützung bei einer Eingabe auf einer elektronischen Vorrichtung eingeführt. Diese Lösungen umfassen eine Vorhersage, welches Wort ein Benutzer eingibt, und bieten einen Vorschlag zur Vervollständigung des Worts. Aber diese Lösungen können Grenzen haben, die oft erfordern, dass der Benutzer die meisten oder alle der Zeichen in einem Wort eingibt, bevor die Lösung das Wort vorschlägt, das der Benutzer einzugeben versucht. Auch dann muss ein Benutzer oft den Fokus von der Tastatur weglenken, um das vorgeschlagene Wort zu betrachten und zu berücksichtigen, das auf einer anderen Stelle auf der Anzeige der elektronischen Vorrichtung angezeigt wird, und danach zurück auf die Tastatur blicken, um eine Eingabe fortzusetzen. Ein Neufokussieren der Augen in Bezug auf die Tastatur während einer Eingabe von Information in eine elektronische Vorrichtung, insbesondere bei einem Erstellen von langen Texten, kann die Augen ermüden und umständlich, ablenkend und anderweitig ineffizient sein. Ferner sind Verarbeitungszyklen verloren und Anzeigeleistung wird verschwendet, wenn der Prozessor im Leerlauf ist, während der Benutzer seine Aufmerksamkeit auf den Eingabebereich richtet und dann zurück zu der virtuellen Tastatur.
- Die Effizienz von prädiktiven Texteingabe-Lösungen, aus der Perspektive von sowohl Vorrichtungsressourcen als auch Benutzererfahrung, hängt manchmal von dem bestimmten Benutzer und der Art der Interaktion des bestimmten Benutzers mit dem Berührungsbildschirm ab. Benutzungsmuster virtueller Tastaturen können grob als zwei Typen kategorisiert werden: „schnell” und „präzise”. Schnelle Tipper sind typischerweise schnelle zwei-Daumen-Tipper, die sich auf eine Autokorrektur verlassen. Dieses Benutzungsmuster entspricht am ehesten erfahrenen häufigen Berührungsbildschirm-Benutzern. Präzise Tipper sind typischerweise sorgfältige Tipper, die geneigt sind, ein Zeigen mit einem Finger zu benutzen, um Tasten in der virtuellen Tastatur anzutippen, und wählen oft Prädiktionen als einen Eingabebeschleuniger anstatt eine Autokorrektur. Dieses Benutzungsmuster entspricht am ehesten unerfahrenen/neuen Berührungsbildschirm-Benutzern sowie möglichen einhändigen (Daumen) Benutzungssituationen.
- Entsprechend ermöglichen hier beschriebene beispielhafte Ausführungsbeispiele dem Benutzer einer elektronischen Vorrichtung, Zeichen einzugeben, ohne die Aufmerksamkeit von der Tastatur abzulenken und eine anschließende Neufokussierung zu erfordern. Beispielhafte Ausführungsbeispiele, die hier beschrieben werden, versuchen auch, unterschiedlichen Benutzertypen, wie schnellen Tippern und genauen Tippern, und den unterschiedlichen Herausforderungen hinsichtlich Effizienz gerecht zu werden, die durch die unterschiedlichen Benutzertypen präsentiert werden.
- Eine Verwendung des unbestimmten Artikels „a” oder „an” („ein/eine”) in der Beschreibung und den Ansprüchen soll ein oder mehr als eines des Merkmals umfassen, das eingeführt wird, sofern nichts anderes angegeben. Somit kann der Begriff „ein Satz von Zeichen”, wie bei einem „Erzeugen eines Satzes von Zeichen” verwendet, die Erzeugung von einem oder mehr als einem Satz von Zeichen umfassen. Ebenso soll eine Verwendung des bestimmten Artikels „the” oder „said” („der/die/das”), insbesondere, nachdem ein Merkmal mit dem unbestimmten Artikel eingeführt wurde, ein oder mehr als eines des Merkmals umfassen, auf das er sich bezieht (falls nicht anders angegeben). Deshalb umfasst der Ausdruck „der erzeugte Satz von Zeichen”, wie bei einem „Anzeigen des erzeugten Satzes von Zeichen” verwendet, ein Anzeigen eines oder mehrerer erzeugter Sätze von Zeichen. Referenzen zur Ausrichtung bzw. Orientierung, die hier enthalten sind, wie horizontal und vertikal, sind relativ zu der Bildschirmausrichtung einer graphischen Benutzerschnittstelle anstatt zu einer physikalischen Ausrichtung.
- In einem Ausführungsbeispiel ist ein Verfahren vorgesehen, das aufweist ein Empfangen einer Eingabe eines Zeichens von einer virtuellen Tastatur, die auf einer Anzeige dargestellt wird; ein Erzeugen eines Satzes oder mehrerer Sätze von vorhergesagten Eingabe-Zeichen basierend auf dem Eingabe-Zeichen; und ein Anzeigen eines oder mehrerer der erzeugten Sätze von vorhergesagten Eingabe-Zeichen in der virtuellen Tastatur an einer Position in der Nähe einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen in dem einen oder mehreren erzeugten Sätzen von vorhergesagten Eingabe-Zeichen entspricht.
- In einem anderen Ausführungsbeispiel ist eine elektronische Vorrichtung vorgesehen, die einen Prozessor und eine Anzeige aufweist, die mit dem Prozessor gekoppelt ist. Der Prozessor kann konfiguriert sein zum Durchführen des/der hier beschriebenen Verfahren(s).
- In einem anderen Ausführungsbeispiel ist eine Tastatur vorgesehen, die auf einer Anzeige einer elektronischen Vorrichtung vorgesehen ist. Die Tastatur kann eine Vielzahl von Tasten umfassen, wobei jede Taste einem oder mehreren verschiedenen Zeichen einer Vielzahl von Zeichen entspricht. In Reaktion auf ein Empfangen einer Eingabe eines Zeichens ist die Tastatur konfiguriert zum Durchführen des/der hier beschriebenen Verfahren(s).
- Diese beispielhaften Ausführungsbeispiele sowie die unten beschriebenen ermöglichen dem Benutzer einer elektronischen Vorrichtung eine Eingabe eines Satzes von Zeichen ohne Ablenkung von der virtuellen Tastatur und einem nachfolgenden Neufokussieren. Ein Vorhersagen und Vorsehen von verschiedenen Optionen, die der Benutzer wahrscheinlich in Betracht zieht, und dies an geeigneten Positionen auf der Tastatur, ermöglicht, dass der Fokus auf der Tastatur bleibt, was eine Effizienz, Genauigkeit und Schnelligkeit einer Zeicheneingabe verbessert.
-
1 ist ein Blockdiagramm einer elektronischen Vorrichtung100 in Übereinstimmung mit hier offenbarten beispielhaften Ausführungsbeispielen. Die elektronische Vorrichtung100 umfasst mehrere Komponenten, wie einen Hauptprozessor102 , der den Gesamtbetrieb der elektronischen Vorrichtung100 steuert. Kommunikationsfunktionen, einschließlich Daten- und Sprachkommunikationen, werden durch ein Kommunikationsteilsystem104 durchgeführt. Daten, die von der elektronischen Vorrichtung100 empfangen werden, werden durch einen Decodierer106 dekomprimiert und entschlüsselt. Das Kommunikationsteilsystem104 empfängt Nachrichten von einem Netzwerk150 und sendet Nachrichten an dieses. Das Netzwerk150 kann jeder Typ von Netzwerk sein, einschließlich, aber nicht darauf beschränkt, ein drahtgebundenes Netzwerk, ein drahtloses Datennetzwerk, ein drahtloses Sprachnetzwerk, und drahtlose Dual-Modus-Netzwerke, die sowohl Sprach- als auch Datenkommunikationen über dieselben physikalischen Basisstationen unterstützen. Die elektronische Vorrichtung100 kann ein batteriebetriebene Vorrichtung sein und eine Batterie-Schnittstelle142 zur Aufnahme einer oder mehrerer Batterien144 umfassen. - Der Hauptprozessor
102 ist mit zusätzlichen Teilsystemen gekoppelt und kann mit diesen interagieren, wie einem Arbeitsspeicher (RAM – Random Access Memory)108 ; einem Speicher110 , wie eine Festplatte, CD, DVD, Flash-Speicher oder ähnliche Speichervorrichtung; einem oder mehreren Aktuatoren120 ; einem oder mehreren Kraftsensoren122 ; einem Hilfs-Eingabe/Ausgabe (E/A bzw. I/O-input/output)-Teilsystem124 ; einem Datenanschluss126 ; einem Lautsprecher128 ; einem Mikrofon130 ; Nahbereichskommunikationen132 ; anderen Vorrichtungs-Teilsystemen134 ; und einem Berührungsbildschirm118 . - Der Berührungsbildschirm
118 umfasst eine Anzeige112 mit einer berührungsaktiven Überlagerung114 , die mit einer Steuervorrichtung116 verbunden ist. Eine Benutzerinteraktion mit einer graphischen Benutzerschnittstelle (GUI – graphical user interface), wie einer virtuellen Tastatur, die auf der Anzeige112 dargestellt und angezeigt wird als eine GUI zur Eingabe von Zeichen, oder ein Web-Browser, wird durch die berührungsaktive Überlagerung114 durchgeführt. Der Hauptprozessor102 interagiert mit der berührungsaktiven Überlagerung114 über die Steuervorrichtung116 . Zeichen, wie Text, Symbole, Bilder und andere Elemente werden auf der Anzeige112 des Berührungsbildschirms118 über den Hauptprozessor102 angezeigt. Zeichen werden eingegeben, wenn der Benutzer den Berührungsbildschirm an einer Position berührt, die mit dem Zeichen assoziiert ist. - Der Berührungsbildschirm
118 ist mit dem Hauptprozessor102 verbunden und wird durch diesen gesteuert. Demgemäß kann ein Erfassen eines Berührungsereignisses und/oder ein Bestimmen der Position des Berührungsereignisses durch den Hauptprozessor102 der elektronischen Vorrichtung100 durchgeführt werden. Ein Berührungsereignis umfasst in einigen Ausführungsbeispielen ein Antippen durch einen Finger, eine Wischgeste bzw. Swipe durch einen Finger, eine Wischgeste mit einem Stift, ein langes Drücken mit einem Finger oder einem Stift oder ein Drücken mit einem Finger für eine vorgegebene Zeitdauer, und dergleichen. - Während spezifische Ausführungsbeispiele eines Berührungsbildschirms beschrieben wurden, kann jeder geeignete Typ von Berührungsbildschirm für eine elektronische Vorrichtung verwendet werden, einschließlich, aber nicht darauf beschränkt, ein kapazitiver Berührungsbildschirm, ein resistiver Berührungsbildschirm, ein „akustische Oberflächenwelle (SAW – surface acoustic wave)”-Berührungsbildschirm, ein „eingebettete Fotozelle”-Berührungsbildschirm, ein Infrarot-(IR – infrared)-Berührungsbildschirm, ein Dehnungsmesser-basierter Berührungsbildschirm, ein „optische Abbildung”-Berührungsbildschirm, ein „dispersive Signal-Technologie”-Berührungsbildschirm, ein „akustische Pulserkennung”-Berührungsbildschirm oder ein „Frustrated Total Internal Reflection”-Berührungsbildschirm. Der Typ der Berührungsbildschirm-Technologie, die in einem gegebenen Ausführungsbeispiel verwendet wird, ist abhängig von der elektronischen Vorrichtung und ihrer bestimmten Anwendung und ihren Anforderungen.
- Der Hauptprozessor
102 kann auch mit einem Positionierungssystem136 interagieren zum Bestimmen des Standorts der elektronischen Vorrichtung100 . Der Standort kann auf eine Anzahl von Arten bestimmt werden, wie durch einen Computer, durch GPS (Global Positioning System), in der elektrischen Vorrichtung100 entweder enthalten oder nicht, durch ein WiFi-Netzwerk, oder durch manuelle Eingabe einer Position. Der Standort kann auch basierend auf Kalendereinträgen bestimmt werden. - Der Hauptprozessor
102 kann auch mit einem Ausrichtungs- bzw. Orientierungssensor197 interagieren zum Erfassen der Ausrichtung der Vorrichtung. In einigen Beispielen kann der Ausrichtungssensor197 ein oder mehrere Beschleunigungsmesser sein. In einigen Beispielen kann der Ausrichtungssensor eine Beschleunigung entlang mehrerer orthogonaler Achsen erfassen. Der Hauptprozessor102 kann auch mit einem oder mehreren Nähe-Sensoren198 interagieren zum Erfassen der Nähe von Objekten in der Nähe. In einigen Beispielen kann der Nähe-Sensor ein oder mehrere Infrarot-Emitter/Sensor-Paare sein. Der Hauptprozessor102 kann auch mit einem Umgebungslicht-Sensor199 interagieren zum Erfassen der Intensität und/oder der Farbtemperatur eines Umgebungslichts. - In einigen Ausführungsbeispielen verwendet die elektronische Vorrichtung
100 , um einen Teilnehmer für einen Netzwerkzugriff zu identifizieren, eine SIM/RUIM(Subscriber Identity Module oder Removable User Identity Module)-Karte138 , eingefügt in eine SIM/RUIM-Schnittstelle140 , zur Kommunikation mit einem Netzwerk, wie dem Netzwerk150 . Alternativ kann eine Benutzeridentifikationsinformation in den Speicher110 programmiert sein. - Die elektronische Vorrichtung
100 umfasst auch ein Betriebssystem146 und Programme148 , die von dem Hauptprozessor102 ausgeführt werden und typischerweise in einem Speicher110 gespeichert sind. Zusätzliche Anwendungen können auf die elektronische Vorrichtung100 über das Netzwerk150 , das Hilfs-E/A-Teilsystem124 , den Datenanschluss126 , das Nahbereichs-Kommunikationsteilsystem132 oder jedes andere geeignete Teilsystem geladen werden. - Ein empfangenes Signal, wie eine Textnachricht, eine Email-Nachricht oder eine heruntergeladene Webseite wird von dem Kommunikationsteilsystem
104 verarbeitet und diese verarbeitete Information wird dann an den Hauptprozessor102 geliefert. Der Hauptprozessor102 verarbeitet das empfangene Signal zur Ausgabe an die Anzeige112 , das Hilfs-E/A-Teilsystem124 , oder eine Kombination aus beiden. Ein Benutzer kann Datenelemente erstellen, zum Beispiel Email-Nachrichten, die über das Netzwerk150 durch das Kommunikationsteilsystem104 übertragen werden können. Für Sprachkommunikationen ist der allgemeine Betrieb der elektronischen Vorrichtung100 ähnlich. Ein Lautsprecher128 gibt hörbare Information aus, die aus elektrischen Signalen umgewandelt wurde, und das Mikrofon130 wandelt hörbare Information in elektrische Signale zur Verarbeitung um. -
2 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren200 zum Vorhersagen eines Satzes von Zeichen in Übereinstimmung mit hier offenbarten beispielhaften Ausführungsbeispielen darstellt. Wie hier verwendet, um fasst ein Prädiktor (wie ein prädiktiver Algorithmus, Programm oder Firmware) einen Satz von Anweisungen, die bei Ausführung durch einen Prozessor (zum Beispiel den Hauptprozessor102 ) verwendet werden können, um zum Beispiel eine empfangene mehrdeutige Texteingabe zu disambiguieren und verschiedene Optionen vorzusehen, wie einen Satz von Zeichen (zum Beispiel Wörter oder Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen, oder jede Kombination daraus), die ein Benutzer in Betracht ziehen könnte. Ein Prädiktor kann auch eine ansonsten eindeutige Texteingabe empfangen und einen Satz bzw. Sätze von Zeichen vorhersagen, der/die möglicherweise von dem Benutzer in Betracht gezogen wird/werden, basierend auf mehreren Faktoren, wie Kontext, Verwendungshäufigkeit, und anderes, wie für Fachleute offensichtlich ist. Der Prädiktor kann einen Satz von Zeichen vorhersagen, der eine empfangene Texteingabe vervollständigt (als Autovervollständigen bekannt), eine empfangene Texteingabe korrigieren (als Autokorrektur bekannt), oder eine Kombination daraus (zum Beispiel Vervollständigen der Texteingabe während eines Korrigierens einer vorher eingegebenen Texteingabe). - Zum Beispiel ist der Prädiktor ein Programm
148 , das sich in dem Speicher110 der elektronischen Vorrichtung100 befindet. Demgemäß umfasst das Verfahren200 einen Prädiktor zum Erzeugen eines Satzes von Zeichen, der einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, basierend auf eingegebenen Zeichen. Es ist anzumerken, dass, während die hier beschriebenen beispielhaften Ausführungsbeispiele ein Prädiktor-Programm betreffen, das von einem Prozessor ausgeführt wird, der Prädiktor durch eine Steuervorrichtung der virtuellen Tastatur ausgeführt werden kann. - Das Verfahren
200 beginnt in Block210 , wo der Prozessor eine Eingabe aus einem oder mehreren Zeichen von einer virtuellen Tastatur empfängt, die auf einem Berührungsbildschirm angezeigt wird. Wie hier verwendet, kann jedoch ein Zeichen jedes alphanumerische Zeichen, wie ein Buchstabe, eine Zahl, ein Symbol, eine Interpunktion und dergleichen sein. Das eingegebene Zeichen kann in einem Eingabefeld angezeigt werden (zum Beispiel das Eingabefeld330 , das weiter unten in den3 –9 beschrieben wird), das das Zeichen anzeigt, das der Benutzer unter Verwendung der virtuellen Tastatur eingibt. - In Block
220 erzeugt der Prozessor einen oder mehrere Sätze von Zeichen, wie Wörter oder Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen oder jede Kombination daraus, basierend auf der Eingabe, die in Block210 empfangen wird. Der Satz von Zeichen umfasst zum Beispiel einen Satz von Zeichen, der in einem Wörterbuch (zum Beispiel ein Wort oder ein Akronym) eines Speichers der elektronischen Vorrichtung gespeichert ist, einen Satz von Zeichen, der früher von dem Benutzer eingegeben wurde (zum Beispiel ein Name oder Akronym), einen Satz von Zeichen basierend auf einer Hierarchie oder Baumstruktur, eine Kombination daraus, oder einen Satz von Zeichen, der von einem Prozessor basierend auf einer definierten Anordnung ausgewählt wird. - In einigen Ausführungsbeispielen kann der Prozessor Kontextdaten zum Erzeugen eines Satzes von Zeichen verwenden. Kontextdaten berücksichtigen den Kontext von Zeichen in dem Eingabefeld. Kontextdaten können Information enthalten über zum Beispiel einen Satz von Zeichen, der zuvor von dem Benutzer eingegeben wurde, grammatikalische Eigenschaften der Zeichen, die in dem Eingabefeld eingegeben werden (zum Beispiel, ob ein Substantiv oder ein Verb als der nächste Satz von Zeichen in einem Satz benötigt wird) oder jede Kombination daraus. Wenn zum Beispiel der Satz von Zeichen „the (der/die/das)” bereits in die Anzeige eingegeben wurde, kann der Prozessor die Kontextdaten verwenden, um zu bestimmen, dass ein Substantiv – anstelle eines Verbs – der nächste Satz von Zeichen sein wird nach dem „the”. Ähnlich, wenn die Sätze von Zeichen „Guy Lafleur played in the National Hockey” eingegeben wurden, kann der Prozessor basierend auf dem Kontext bestimmen, dass der nachfolgende Satz von Zeichen wahrscheinlich „League” ist. Unter Verwendung der Kontextdaten kann der Prozessor auch bestimmen, ob ein eingegebenes Zeichen nicht korrekt war. Zum Beispiel kann der Prozessor bestimmen, dass das eingegebene Zeichen ein „w” anstelle eines „a” sein sollte, aufgrund der Nähe dieser Zeichen auf einer virtuellen QWERTY-Tastatur.
- Der Prozessor
102 kann auch ein Affix als Teil des Satzes von Zeichen aufnehmen, wie ein Adverb-Ende, ein Adjektiv-Ende, verschiedene Verb-Zeitformen, und dergleichen, oder jede andere Änderung, um einen vollständigen Satz von Zeichen herzustellen. Der Prozessor102 kann auch die empfangene Eingabe verwenden, um Affixe zu erzeugen, wie Pluralendungen oder Pluralformen. Jede bekannte prädiktive Technik oder Software kann verwendet werden, um die empfangene Eingabe und die Kontextdaten bei der Erzeugung eines Satzes von Zeichen in Block220 zu verarbeiten. - In einigen beispielhaften Ausführungsbeispielen kann der Satz von Zeichen, der in Block
220 erzeugt wird, mit demselben Zeichen beginnen, das als Eingabe in Block210 empfangen wurde. Wenn zum Beispiel die Zeichen „pl” als Eingabe unter Verwendung einer virtuellen Tastatur empfangen wurden, werden diese Zeichen von dem Prozessor als Eingabe empfangen. In diesen Ausführungsbeispielen würden die Sätze von Zeichen, die in Block220 erzeugt werden, alle mit „pl” beginnen, wie „please” oder „plot”. Es gibt keine Begrenzung für die Länge eines erzeugten Satzes von Zeichen. Hinsichtlich Affixen, wenn der Benutzer zum Beispiel das Zeichen „child” eingegeben hat, können die Affixe, die in Block220 erzeugt werden, „-ren” umfassen, damit der Satz von Zeichen „children” wird, oder „-ish”, damit der Satz von Zeichen „childish” wird. - In einigen beispielhaften Ausführungsbeispielen kann der Satz von Zeichen, der in Block
220 erzeugt wird, einfach dieselben Zeichen umfassen, die als Eingabe in Block210 empfangen werden. Wenn zum Beispiel die empfangene Eingabe ein „x” ist, kann der Prozessor „example” oder „xylophone” als den Satz von Zeichen erzeugen. Solche Sätze von Zeichen können unter Verwendung der Kontextdaten erzeugt werden. - In einem anderen beispielhaften Ausführungsbeispiel, wenn keine Eingabe empfangen wurde oder ein Delimiter bzw. Trennzeichen (wie <LEERZEICHEN> bzw. <SPACE>) verwendet wurde, kann der erzeugte Satz von Zeichen auf nachfolgende Kandidaten-Eingabe-Zeichen platziert werden, die dem ersten Buchstaben des erzeugten Satzes von Zeichen entsprechen.
- Als nächstes kann in Block
230 der erzeugte Satz von Zeichen aus dem Block220 eingestuft werden. Die Einstufungen bzw. Rangordnungen reflektieren die Wahrscheinlichkeit, dass ein Kandidaten-Satz von Zeichen von dem Benutzer beabsichtigt war oder von einem Benutzer ausgewählt werden kann im Vergleich zu einem anderen Kandidaten-Satz von Zeichen. - In einigen Ausführungsbeispielen können Kontextdaten in der Rangeinstufung in Block
230 enthalten sein. In einigen Ausführungsbeispielen kann die elektronische Vorrichtung konfiguriert sein, Substantive oder Adjektive höher einzuordnen basierend auf dem vorher eingegebenen Satz von Zeichen. Wenn der eingegebene Satz von Zeichen ein Substantiv oder Adjektiv andeutet, kann der Prozessor unter Verwendung der Kontextdaten die Substantive oder Adjektive entsprechend dem, was der Benutzer eingibt, höher einordnen in Block230 . In einem weiteren Ausführungsbeispiel kann ein Satz von Zeichen, der Adjektiv-Affixe (wie „-ish” oder „-ful”), Ausdrücke, Pluralformen, oder Kombinationen daraus umfasst, ebenfalls in einer Rangeinstufung eingeordnet werden. Kontextdaten können die Wahrscheinlichkeit erhöhen, dass der höherrangige erzeugte Satz von Zeichen von einem Benutzer beabsichtigt ist. In einigen Ausführungsbeispielen können die Kontextdaten Information darüber umfassen, welche Programme oder Anwendungen derzeit ausgeführt werden oder durch einen Benutzer verwendet werden. Wenn zum Beispiel der Benutzer eine Email-Anwendung ausführt, dann können Sätze von Zeichen, die mit dem Email-System dieses Benutzers assoziiert sind, wie Sätze von Zeichen aus der Kontaktliste des Benutzers, verwendet werden, um die Rangeinstufung zu bestimmen. N-Gramme, einschließlich Unigramme, Bigramme, Trigramme, und dergleichen, können ebenfalls in der Rangeinstufung der Sätze von Zeichen verwendet werden. Alternativ kann die Geoposition der elektronischen Vorrichtung oder des Benutzers bei der Rangeinstufung verwendet werden. Wenn zum Beispiel die elektronische Vorrichtung erkennt, dass sich ein Benutzer in seinem/ihrem Büro befindet, dann können Sätze von Zeichen, die im Allgemeinen mit Arbeit assoziiert sind, in der Liste höher eingeordnet werden. Wenn andererseits die Vorrichtung bestimmt, dass ein Benutzer am Strand ist, dann können Sätze von Zeichen, die im Allgemeinen mit dem Strand assoziiert sind, in der Liste höher eingeordnet werden. - In Block
240 bestimmt der Prozessor, welcher der Sätze von Zeichen anzuzeigen ist basierend auf der Rangeinstufung. Beispielsweise wird für höherrangige Sätze von Zeichen eher bestimmt, dass sie angezeigt werden sollen. Eine Rangeinstufungseinheit (wie ein Rangeinstufungs-Algorithmus, Programm oder Firmware) umfasst einen Satz von Anweisungen, die bei Ausführung durch einen Prozessor (zum Beispiel den Hauptprozessor102 ) ausgeführt werden können, um eine Rangeinstufung in dieser Hinsicht zu bestimmen. In einigen Ausführungsbeispielen ist die Rangeinstufungseinheit ein Programm146 , das sich in dem Speicher110 der elektronischen Vorrichtung100 befindet. - In Block
250 wird der bestimmte Satz von Zeichen an einer Position auf der Tastatur entsprechend eines nachfolgenden Kandidaten-Eingabe-Zeichens angezeigt, vorhergesagt als das nächste Zeichen in einem Wort, das der Benutzer eingeben könnte. Wenn zum Beispiel ein Benutzer „pl” eingibt, würde das Wort „please” auf der Taste für den Buchstaben „e” angezeigt, dem nachfolgenden Kandidaten-Eingabe-Zeichen für dieses Wort. Ähnlich würde auch das Wort „plus” auf der Taste für den Buchstaben „u” angezeigt, ein weiteres nachfolgendes Kandidaten-Eingabe-Zeichen. Das nachfolgende Kandidaten-Eingabe-Zeichen kann jedes alphanumerische Zeichen sein, wie ein Buchstabe, eine Zahl, ein Symbol, ein Interpunktion und dergleichen. - In einigen Ausführungsbeispielen wird der erzeugte Satz von Zeichen an oder nahe von Tasten auf der virtuellen Tastatur angezeigt, die mit den nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert sind. Ihre Platzierung an oder nahe einer Taste kann zum Beispiel von der Größe des Worts oder der Anzahl von benachbarten nachfolgenden Kandidaten-Eingabe-Zeichen und der Größe ihres zugehörigen Satzes von Zeichen abhängen.
- Der Satz von Zeichen kann in einer Weise angezeigt werden, die die Aufmerksamkeit des Benutzers gewinnt. In einigen Ausführungsbeispielen kann das Erscheinungsbild eines angezeigten Satzes von Zeichen verbessert oder in einer Weise verändert werden, die den Satz für den Benutzer einfacher sichtbar macht. Zum Beispiel können angezeigte Sätze von Zeichen mit einer Hintergrundbeleuchtung, einem Hervorheben, Unterstreichen, Fettschrift, Kursivschrift, unter Verwendung von Kombinationen daraus, oder in einer anderen Weise angezeigt werden, um den angezeigten Satz von Zeichen sichtbarer zu machen.
- Bei der Identifizierung des Satzes von Zeichen zur Anzeige in Block
240 kann der Prozessor die angezeigten Sätze von Zeichen auf die ersten wenigen begrenzen oder aus den höherrangigen Sätzen von Zeichen auswählen. Wenn zum Beispiel zwei Sätze von Zeichen beide hoch eingeordnet sind, und diese Sätze von Zeichen ansonsten auf derselben Taste angezeigt würden, kann die elektronische Vorrichtung konfiguriert sein, nur den am höchsten eingeordneten erzeugten Satz von Zeichen anzuzeigen. In anderen Ausführungsbeispielen können beide Sätze von Zeichen auf oder um dieselbe Taste angezeigt werden, oder ein Satz von Zeichen wird auf einer Taste angezeigt, während der zweite Satz von Zeichen an einer anderen Taste angezeigt wird. In einigen beispielhaften Ausführungsbeispielen kann der Prozessor die Anzeigegröße berücksichtigen, um die Anzahl von erzeugten Sätzen von Zeichen zu begrenzen. - In einigen Ausführungsbeispielen kann die Rangeinstufung verwendet werden, um zwischen einem oder mehreren Sätzen von Zeichen auszuwählen, die bei Anzeige auf benachbarten nachfolgenden Kandidaten-Eingabe-Zeichen einander überlappen würden (zum Beispiel aufgrund ihrer jeweiligen Längen). In einem solchen Szenario kann die elektronische Vorrichtung konfiguriert sein, den höherrangigen Satz von Zeichen auf der Tastatur anzuzeigen. Wenn zum Beispiel der Satz von Zeichen „establishment” als erster in einer Liste angeordnet ist, die in Block
240 erzeugt wird, nachdem der Buchstabe „E” eingegeben wird, kann „establishment” an der „S”-Taste angezeigt werden. Wenn auf einer virtuellen Tastatur angezeigt, kann jedoch seine Länge einen Platz auf der „A”-Taste und der „D”-Taste besetzen, und möglicherweise einen Satz von Zeichen blockieren, der an oder um diese Tasten angezeigt würde. In Block240 kann bestimmt werden, dass „establishment” vollständig angezeigt wird, und kein anderer Satz von Zeichen an den „A”- oder „D”-Tasten vor dem erstrangigen Satz von Zeichen „establishment” platziert wird. Eine Alternative zur Anzeige nur des obersten Satzes von Zeichen wäre, Abkürzungen oder anerkannte verkürzte Formen des Satzes von Zeichen zu verwenden, was effektiv ermöglicht, dass ein langer Satz von Zeichen in oder hauptsächlich in den Grenzen einer einzelnen Taste angezeigt wird gleichzeitig mit anderen Sätzen von Zeichen auf benachbarten Tasten einer virtuellen Tastatur. - Die
3 –9 zeigen eine Reihe von beispielhaften Vorderansichten des Berührungsbildschirms118 mit einer virtuellen Tastatur320 , in Übereinstimmung mit hier offenbarten beispielhaften Ausführungsbeispielen. Beginnend mit3A umfasst der Berührungsbildschirm118 eine virtuelle Tastatur320 , die berührungsaktiv ist. Die Position der virtuellen Tastatur320 ist variabel derart, dass die virtuelle Tastatur320 an jeder beliebigen Position auf dem Berührungsbildschirm118 platziert werden kann. Der Berührungsbildschirm118 kann konfiguriert sein, die Position und möglicherweise einen Druck von einem oder mehreren Objekten gleichzeitig zu erfassen. Der Berührungsbildschirm118 umfasst zwei Bereiche: (1) ein Eingabefeld330 , das Zeichen anzeigt, nachdem ein Benutzer diese Zeichen eingegeben hat, und (2) die virtuelle Tastatur320 , die die Eingabe von dem Benutzer empfängt. Wie in dieser Offenbarung beschrieben wird, zeigt eine virtuelle Tastatur einen Satz von Zeichen an einer Position auf der Tastatur entsprechend einem nachfolgenden Kandidaten-Eingabe-Zeichen an, das als Eingabe von dem Benutzer empfangen werden könnte. - Die Beispiele und Ausführungsbeispiele, die in den
3 –9 dargestellt werden, können mit jedem Satz von Zeichen implementiert werden, wie Wörter, Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen oder jeder Kombination daraus. - Wie in
3A gezeigt, zeigt der Berührungsbildschirm118 eine virtuelle Standard-QWERTY-Tastatur320 an; jedoch kann jede herkömmliche Tastenkonfiguration angezeigt werden zur Verwendung in der Vorrichtung, wie AZERTY, QWERTZ oder eine Anordnung, die auf dem ITU(International Telecommunication Union)-Standard (ITU E.161) basiert, mit „ABC” auf der Taste 2, „DEF” auf der Taste 3, und so weiter. Die virtuelle Tastatur320 umfasst eine Leertaste (space key)350 sowie andere Tasten, die verschiedene Eingaben vorsehen können, wie Interpunktion, Buchstaben, Zahlen, Eingabe- oder Return-Tasten und Funktionstasten. Während die virtuelle Tastatur320 als in einer quadratischen Form gezeigt wird, kann sie jede andere Form haben (wie zum Beispiel ein Bogen). - Wie in
3A gezeigt, zeigt der Berührungsbildschirm118 ein Eingabefeld330 an, das die Zeichen anzeigt, die der Benutzers über die virtuelle Tastatur320 eingibt. Das Eingabefeld330 umfasst einen Cursor340 , der ein Unterstrich (wie gezeigt) oder eine andere Form sein kann, wie eine vertikale Linie. Der Cursor340 repräsentiert die Zeichen-Position, an der ein nächstes eingegebenes Zeichen, ein ausgewähltes Zeichen, oder ein ausgewählter Satz von Zeichen eingefügt wird. - Wie in
3B gezeigt, wenn ein Benutzer ein Zeichen eingibt (in diesem Beispiel „P”), wird dieses Zeichen in dem Eingabefeld330 angezeigt und der Cursor340 bewegt sich zu der Zeichen-Position, wo das nächste eingegebene Zeichen oder Wort eingefügt wird. Nachdem das Zeichen eingegeben ist, kann ein Prädiktor (wie ein prädiktiver Algorithmus oder eine Schaltung) Sätze von Zeichen360 erzeugen (für diese Ausführungsbeispiel), die alle mit dem Zeichen „P” beginnen, oder Zeichen, wenn mehr als ein Zeichen eingegeben wird. Die erzeugten Sätze von Zeichen werden an einer Position auf der Tastatur angezeigt, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, das als Eingabe von dem Benutzer empfangen werden kann. Wie erwähnt, können die erzeugten Sätze von Zeichen360 an oder nahe der Taste angezeigt werden, die den nachfolgenden Kandidaten-Eingabe-Zeichen entspricht (zum Beispiel unter den jeweiligen Tasten A, E, H und O der virtuellen Tastatur320 ). Tatsächlich kann ein leichtes Verschieben der Anzeigeposition des erzeugten Satzes von Zeichen eine Überfüllung von nachfolgenden Kandidaten-Eingabe-Zeichen adressieren, wodurch effektiv ermöglicht wird, dass mehr Sätze von Zeichen angezeigt werden können. - In dem Beispiel, das in
3B gezeigt wird, wird „P” als Eingabe empfangen und ein Prädiktor erzeugt mehrere Sätze von Zeichen360 , die an den Tasten angezeigt werden, die dem nachfolgenden Kandidaten-Eingabe-Zeichen jedes erzeugten Satzes von Zeichen entsprechen. Wie in3B gezeigt, wird „People” an der „E”-Taste platziert, da der nächste Buchstabe nach dem „P” von „People” „E” ist; „Paul” wird an der „A”-Taste platziert, da der nächste Buchstabe nach dem „P” von „Paul” „A” ist; „Phone” wird an der „H”-Taste platziert, da der nächste Buchstabe nach dem „P” von „Phone” „H” ist; und so weiter. Es sollte angemerkt werden, dass jeder der Buchstaben in dem Satz von Zeichen Großbuchstaben oder Kleinbuchstaben haben kann. - In dem in
3C gezeigten Ausführungsbeispiel ist „L” die nächste Eingabe, die durch den Berührungsbildschirm empfangen wird, und ein Prädiktor bestimmt mehrere erzeugte Sätze von Zeichen360 , die an einer Taste angezeigt werden entsprechend den nachfolgenden Kandidaten-Eingabe-Zeichen (zum Beispiel unter den jeweiligen Tasten A, E, und U der virtuellen Tastatur320 ) für die aktuelle Position des Cursors340 , der an der dritten Zeichen-Position ist, wie in dem Eingabefeld330 gezeigt wird. In einem anderen Ausführungsbeispiel kann ein erzeugter Satz von Zeichen360 derart dargestellt werden, als das nachfolgende Kandidaten-Eingabe-Zeichen umfassend. Zum Beispiel kann der Satz von Zeichen „Please” angezeigt werden derart, dass die Zeichen „Pl” angezeigt werden vor dem „E”-Zeichen auf der Taste „E” und die Zeichen „ase” können nach dem „E”-Zeichen auf der „E”-Taste platziert werden. Ferner kann in diesem oder anderen Ausführungsbeispielen das angezeigte „E” auf eine Weise dargestellt werden, die sich von „PL” und „ase” unterscheidet, wodurch es für den Benutzer möglich ist, diese weiter als die „E”-Taste zu erkennen, während sie auch einfach zu erkennen ist, so dass der Benutzer entweder den erzeugten Satz von Zeichen „Please” eingeben kann oder das Zeichen „E” eingeben kann. Das „E” kann in Großbuchstaben oder in Kleinbuchstaben sein. In anderen Ausführungsbeispielen kann ein Affix an der Taste angezeigt werden. Unter Verwendung des obigen Beispiels des Satzes von Zeichen „Please”, kann „ase” an der „E”-Taste angezeigt werden, so dass der Satz von Zeichenfragmenten „-ease” oder „-Ease” erscheinen würde. - Wenn der Benutzer einen erzeugten Satz von Zeichen eingibt, wird dieser Satz von Zeichen in dem Eingabefeld
330 platziert. Dies ist in3D zu sehen, wo der Benutzer den erzeugten Satz von Zeichen „Please” eingegeben hat, was zu dessen Platzierung in dem Eingabefeld führt. Ein Leerzeichen wird nach dem Satz von Zeichen eingefügt, wenn der Benutzer wünscht, einen neuen Satz von Zeichen einzugeben. Ein Benutzer kann einen erzeugten Satz von Zeichen auf verschiedene Weise eingeben, einschließlich auf eine Weise, die sich von einer Weise zum Eingeben einer Zeichen-Taste unterscheidet. Zum Beispiel kann zur Eingabe eines erzeugten Satzes von Zeichen ein Benutzer einen Finger oder Stift verwenden, um den erzeugten Satz von Zeichen zu „wischen”. Wie hier verwendet, umfasst eine Wischgeste eine Wischgeste auf dem Satz von Zeichen selbst oder eine Wischgeste oder ein Berühren in der Nähe des Satzes von Zeichen. Für letzteres Ausführungsbeispiel kann die Vorrichtung eine Wischgeste oder eine Berührung in der Nähe eines Satzes von Zeichen erfassen, sei es ein erzeugter Satz von Zeichen oder ein vorhergesagter Satz von Zeichen (wie weiter unten beschrieben wird), und durch die Verwendung eines Prädiktors den Satz von Zeichen zu bestimmen, den der Benutzer eingeben wollte. In einem anderen Ausführungsbeispiel kann der Benutzer eine Taste für eine vorgegebene Zeitdauer betätigen, wie ein langes Drücken. Diese Taste kann zum Beispiel die Taste sein, die dem nachfolgenden Kandidaten-Eingabe-Zeichen des Satzes von Zeichen entspricht. Wenn somit der Satz von Zeichen „Please” eingegeben werden soll anstatt „E”, kann die elektronische Vorrichtung100 konfiguriert sein, zu erfordern, dass die „E”-Taste für eine vorgegebene Zeitdauer gedrückt wird, um die Eingabe von „Please” auszulösen. - Nachdem ein erzeugter Satz von Zeichen
360 bestimmt wurde, wie in3D gezeigt, kann ein vorhergesagter Satz von Zeichen380 angezeigt werden, wie hier an der Leertaste350 gezeigt. Der vorhergesagte Satz von Zeichen380 kann sich von dem erzeugten Satz von Zeichen360 unterscheiden (wie in den3A –3C gezeigt) und ist der Versuch des Systems, den nächsten Satz von Zeichen vorherzusagen, den ein Benutzer in Betracht ziehen könnte. Ein Prädiktor wird verwendet, um einen vorhergesagten Satz von Zeichen380 zu bestimmen. Wie bei dem angezeigten erzeugten Satz von Zeichen360 , kann ein vorhergesagter Satz von Zeichen380 als Eingabe auf verschiedene Weise empfangen werden, einschließlich Empfangen einer Wischgeste auf dem vorhergesagten Satz von Zeichen mit einem Finger oder Stift oder Empfangen eines Drückens einer Taste (wie der Leertaste oder einer anderen zugewiesenen Taste) für eine vorgegebene Zeitdauer (langes Drücken). - In
4A empfängt die elektronische Vorrichtung100 „C” als eine Eingabe von der virtuellen Tastatur320 . Wiederum bestimmt ein Prädiktor einen erzeugten Satz von Zeichen460 basierend zum Teil auf der empfangenen Eingabe. In4B empfängt die elektronische Vorrichtung100 „O” als Eingabe von der virtuellen Tastatur und gibt das „O” in dem Eingabefeld330 aus. Wie in4A gezeigt, wurde der Satz von Zeichen „count” an der „O”-Taste angezeigt, nachdem die Eingabe des „C”-Zeichens empfangen wurde. Da die „O”-Taste auf eine Weise gedrückt wurde, um nur das „O”-Zeichen einzugeben, wie in4B gezeigt, wird ein „O” als zweites Zeichen des aktuell eingegebenen Satzes von Zeichen angezeigt, und der Satz von Zeichen „count” wird nicht durch den Benutzer eingegeben. Alternativ, wenn ein Benutzer den erzeugten Satz von Zeichen „count” eingeben wollte, kann der Benutzer die „O”-Taste in4A auf eine andere Weise als die Weise der Eingabe der „O”-Taste eingeben, zum Beispiel durch eine Wischgeste auf dem Satz von Zeichen „count” oder durch ein langes Drücken der „O”-Taste, im Gegensatz zu einem Antippen. Zurück zu4B werden, nachdem das „O” eingegeben ist, erzeugte Sätze von Zeichen460 an den Tasten angezeigt, die den nachfolgenden Kandidaten-Eingabe-Zeichen entsprechen, wie in4B gezeigt. -
5 zeigt das Eingabefeld330 , das den Satz von Zeichen „contact” gefolgt von einem Leerzeichen anzeigt. In diesem Beispiel hat der Benutzer den erzeugten Satz von Zeichen „contact”460 eingegeben, wie in4B an der „N”-Taste gezeigt wurde. Unter Bezugnahme wiederum auf5 wird nun ein <LEER>-Zeichen automatisch nach dem erzeugten Wort in dem Eingabefeld eingefügt. Das vorhergesagte Wort „me”580 wird nun auf der Leertaste350 angezeigt. - Wenn das vorhergesagte Wort „me”
580 als Eingabe empfangen wird, wird das Wort „me”580 dann in dem Eingabefeld330 angezeigt, gefolgt von einem Leerzeichen, wie in6A gezeigt, die dann das vorhergesagte Wort680 „immediately” angezeigt auf der Leertaste350 zeigt. Das vorhergesagte Wort wird dargestellt, nachdem ein vollständiges Wort und Leerzeichen in dem Eingabefeld330 angezeigt wurden. -
6B zeigt ein Beispiel, in dem der Berührungsbildschirm118 das „T”-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die Taste „T” gedrückt hat. In diesem Szenario zeigt der Berührungsbildschirm118 ein „t” in dem Eingabefeld330 an. Erzeugte Sätze von Zeichen660 (zum Beispiel „Tuesday”, „today” und „Thursday”) werden an den Tasten der nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt.6C zeigt ein Beispiel, wo die elektronische Vorrichtung100 das „o”-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die „O”-Taste drückt anstatt einen erzeugten Satz von Zeichen660 „today” einzugeben, wie in6B gezeigt wurde. Somit wird nun „o” in dem Eingabefeld330 angezeigt. -
7 zeigt ein Beispiel, in dem der Berührungsbildschirm118 das <LEER>-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die Leertaste auswählt. In diesem Szenario fügt der Berührungsbildschirm118 ein <LEER>-Zeichen ein und zeigt dann den vorhergesagten Satz von Zeichen „talk”780 an der Leertaste350 an. -
8A zeigt ein Beispiel, in dem der Berührungsbildschirm118 das „d”-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die Taste „D” drückt. In diesem Szenario zeigt der Berührungsbildschirm118 ein „d” in dem Eingabefeld330 an und zeigt die erzeugten Sätze von Zeichen „discuss”, „divide” und „dinner”860 an Tasten an, die nachfolgenden Kandidaten-Eingabe-Zeichen entsprechen. In diesem beispielhaften Ausführungsbeispiel, während das Zeichen „I” niemals als Eingabe empfangen wurde, bestimmt die elektronische Vorrichtung100 , dass die erzeugten Sätze von Zeichen „discuss”, „divide” und „dinner”860 die Sätze von Zeichen sind, die auf dem Berührungsbildschirm anzuzeigen sind. In diesem Ausführungsbeispiel, da jeder dieser Sätze von Zeichen „i” als zweiten Buchstaben hat, zeigt der Berührungsbildschirm118 erzeugte Sätze von Zeichen an unter Verwendung eines weiteren nachfolgenden Buchstabens in dem Satz von Zeichen (zum Beispiel „discuss” unter der Taste „S”, „divide” unter der Taste „V” und „dinner” unter der Taste „N”). In anderen Ausführungsbeispielen können die erzeugten Sätze von Zeichen „discuss”, „divide” und „dinner”860 an oder nahe der Taste „I” angezeigt werden. -
8B zeigt ein Beispiel, in dem der Berührungsbildschirm118 den Satz von Zeichen „discuss” als Eingabe empfangen hat, nachdem der Benutzer den erzeugten Satz von Zeichen „discuss”860 ausgewählt hat. In diesem Beispiel zeigt der Berührungsbildschirm118 den vorhergesagten Satz von Zeichen „this”880 an der Leertaste350 an. -
9 zeigt ein Beispiel, in dem der Berührungsbildschirm118 den Satz von Zeichen „this” als Eingabe empfängt, nachdem der Benutzer „this” als gewünschten vorhergesagten Satz von Zeichen880 auswählt. In diesem Beispiel zeigt der Berührungsbildschirm118 den vorhergesagten Satz von Zeichen „now”980 an der Leertaste350 an. - Der Berührungsbildschirm
118 kann auch eine Interpunktion als eine Eingabe zu jedem Zeitpunkt während der Eingabe einer Nachricht empfangen. Wenn ein Benutzer beschließt, eine Interpunktion nach einer Eingabe entweder eines erzeugten Satzes von Zeichen oder eines vorhergesagten Satzes von Zeichen zu verwenden, wird das <LEER>-Zeichen (zum Beispiel das <LEER>-Zeichen vor dem Cursor940 von9 ) gelöscht und die eingegebene Interpunktion wird eingefügt. - Die
10A und10B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.10A zeigt ein Beispiel, in dem der Berührungsbildschirm118 „The co” in einer Textleiste1030 anzeigt, und mehrere erzeugte Sätze von Zeichen1060 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. In diesem Beispiel zeigt der Berührungsbildschirm118 an einen erzeugten Satz von Zeichen „cottage”1060 unter der Taste „T”, einen erzeugten Satz von Zeichen „cook”1060 unter der Taste „O”, einen erzeugten Satz von Zeichen „coat”1060 unter der Taste „A” und einen erzeugten Satz von Zeichen „coffee”1060 unter der Taste „F”. -
10B zeigt ein Beispiel, in dem der Berührungsbildschirm118 den Satz von Zeichen „cook” als eine Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen1060 „cook” ausgewählt hat. Der Satz von Zeichen „cook” wird in das Eingabefeld1030 zusammen mit einem <LEER>-Zeichen eingefügt. In diesem Beispiel umfassen die Sätze von Zeichen neue vorhergesagte Sätze von Zeichen (wie Wörter1090 , Affixe1092 (zum Beispiel „-ed” unter der Taste „E” und „-ing” unter der Taste „I”) und Pluralformen1094 (zum Beispiel „s” unter der Taste „S”)), die alle an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. Jedes vorhergesagte Wort1090 , Affix1092 oder Plural1094 befindet sich auf jeweiligen nachfolgenden Kandidaten-Eingabe-Zeichen, die mit dem ersten Buchstaben des vorhergesagten Worts1090 , des Affixes1092 oder des Plurals1094 übereinstimmen. Nun hat der Benutzer die zusätzliche Option eines Eingebens eines vorhergesagten Satzes von Zeichen1090 ,1092 und1094 . Eine Eingabe wird auf dieselbe Weise wie oben beschrieben durchgeführt. In einigen Ausführungsbeispielen, wenn der Berührungsbildschirm118 entweder das Affix1092 oder den Plural1094 als eine Eingabe empfängt, wird das <LEER>-Zeichen zwischen dem Cursor1040 und „cook” gelöscht und das entsprechende eingegebene Affix oder der Plural wird an das Ende von „cook” hinzugefügt. -
11A zeigt ein Beispiel, in dem der Berührungsbildschirm118 „Did she co” in einer Textleiste1130 anzeigt und mehrere erzeugte Sätze von Zeichen1160 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. In diesem Beispiel zeigt der Berührungsbildschirm118 an den erzeugten Satz von Zeichen „correct”1160 unter der Taste „R”, den erzeugten Satz von Zeichen „copy”1160 unter der Taste „P” und den erzeugten Satz von Zeichen „contact”1160 unter der Taste „N”. Während „co” in den Textleisten von sowohl10A als auch11A vorgesehen wird, zeigt der Berührungsbildschirm verschiedene erzeugte Sätze von Zeichen basierend auf dem Kontext der Zeichen in ihren jeweiligen Textleisten1030 und1130 an. Zum Beispiel folgen in der10A die Zeichen „co” auf „The”, was impliziert, dass ein Substantiv beginnend mit „co” folgen sollte. In11A folgen die Zeichen „co” einem Pronomen, was impliziert, dass ein Verb beginnend mit „co” folgen sollte. Wie oben angeführt, können Kontextdaten verwendet werden, um zu bestimmen, wann bestimmte Sätze von Zeichen geeigneter sind basierend zum Beispiel auf dem Satz von Zeichen in einer Textleiste oder auf früheren Aktionen durch einen Benutzer. -
11B zeigt ein Beispiel, in dem der Berührungsbildschirm118 den Satz von Zeichen „correct” als Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen „correct”1160 gewählt hat. In diesem Beispiel wird der Satz von Zeichen „correct” in das Eingabefeld1130 eingefügt und ein <LEER>-Zeichen wird ebenfalls eingefügt. Vorhergesagte Sätze von Zeichen (wie Wörter1190 und Affixe1192 ) werden nun bei nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. In diesem Beispiel, während die Affixe „-ing” und „-ily” beide der Taste „I” entsprechen, zeigt der Berührungsbildschirm118 „-ing” mit der Taste „I” und „-ily” mit der Taste „L” an. Wie oben angemerkt, kann das vorhergesagte Affix einer bestimmten Taste zugewiesen werden basierend auf einer Rangeinstufung, auf Kontextdaten, oder einer Kombination aus beiden. In diesem Ausführungsbeispiel kann das Affix „-ing” einen höheren Rang haben als das Affix „-ily” und wurde somit der Taste „I” zugewiesen. Demgemäß wurde das Affix „-ily” der Taste „L” zugewiesen basierend darauf, dass das entsprechende „L”-Zeichen in dem Affix „-ily” ist. -
12A zeigt ein Beispiel, in dem der Berührungsbildschirm118 „The ch” in einer Textleiste1230 anzeigt und mehrere erzeugte Sätze von Zeichen1260 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. In diesem Beispiel umfassen die erzeugten Sätze von Zeichen1260 sowohl „child” als auch „chimp”. In diesem Ausführungsbeispiel zeigt, während der dritte Buchstabe in sowohl „child” als auch „chimp” gleich ist, der Berührungsbildschirm „child” unter der Taste „I” an und zeigt „chimp” unter der Taste „C” an. Die Bestimmung, welcher erzeugte Satz von Zeichen unter welche Kandidaten-Eingabe-Taste zu setzen ist, kann auf einer Rangeinstufung basieren (wie oben spezifiziert). Wie in diesem Ausführungsbeispiel dargestellt wird, kann der Berührungsbildschirm118 einen erzeugten Satz von Zeichen (in diesem Fall „chimp”) auf einer Taste anzeigen, auch wenn diese Taste nicht mit nachfolgenden Zeichen der Zeichen in der Textleiste1230 assoziiert ist. -
12B zeigt ein Beispiel, in dem der Berührungsbildschirm118 den Satz von Zeichen „child” als Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen „child”1260 ausgewählt hat. Der Satz von Zeichen „child” wird in das Eingabefeld1230 eingefügt, und kein <LEER>-Zeichen wird in diesem Beispiel eingefügt. Vorhergesagte Sätze von Zeichen (wie Wörter1290 und Affixe1292 ) werden nun an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. In diesem Beispiel, während die Affixe „-ish” und „-ily” beide der Taste „I” entsprechen, zeigt der Berührungsbildschirm118 „-ish” mit der Taste „I” und „-ily” mit der Taste „L” an. Wie oben angemerkt, kann das vorhergesagte Affix einer bestimmten Taste zugewiesen werden basierend auf einer Rangeinstufung, herkömmlichen Daten, oder einer Kombination aus beiden. In diesem Ausführungsbeispiel kann das Affix „-ish” einen höheren Rang haben als das Affix „-ily” und wurde daher der Taste „I” zugewiesen. Demgemäß wurde das Affix „-ily” der Taste „L” zugewiesen basierend darauf, dass das entsprechende „L”-Zeichen in dem Affix „-ily” ist. -
13A zeigt ein Beispiel, in dem der Berührungsbildschirm118 „The texture and” in einer Textleiste1330 anzeigt und mehrere vorhergesagte Sätze von Zeichen (zum Beispiel Wörter1390 ) werden an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt.13B zeigt ein Beispiel, in dem der Berührungsbildschirm118 den Satz von Zeichen „taste” als Eingabe empfängt, nachdem der Benutzer den vorhergesagten Satz von Zeichen „taste” ausgewählt hat. In diesem Beispiel wurde ein <LEER>-Zeichen nach dem „taste” eingefügt. Folglich werden vorhergesagte Sätze von Zeichen (wie Wörter1390 und Affixe1392 ) an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. -
14A zeigt ein Beispiel, in dem der Berührungsbildschirm118 „The hospital staff c” in einer Textleiste1430 anzeigt und mehrere erzeugte Sätze von Zeichen1460 werden an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt.14B zeigt ein Beispiel, in dem der Berührungsbildschirm118 den Satz von Zeichen „care” als Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen „care” ausgewählt hat. Der erzeugte Satz von Zeichen „care” wird nun in dem Eingabefeld1430 zusammen mit einem <LEERZEICHEN> platziert und vorhergesagte Sätze von Zeichen (wie Wörter1490 und Affixe1492 ) werden an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt.14C zeigt ein Beispiel, in dem der Berührungsbildschirm118 das Affix „-ful” als eine Eingabe empfangen hat (wodurch der Satz von Zeichen „care” zu „careful” modifiziert wird), nachdem der Benutzer das vorhergesagte Affix „-ful” ausgewählt hat. Somit wird nun der Satz von Zeichen „careful” in das Eingabefeld1430 eingefügt. Es ist anzumerken, dass in einigen Ausführungsbeispielen ein Eingeben eines Wortes oder eines Affixes das eingegebene Wort oder Wortfragment modifizieren kann. Wenn zum Beispiel „spicy” durch einen Benutzer eingegeben wird und „ness” ist ein vorhergesagtes Affix und wird eingegeben, ändert sich „spicy” zu „spiciness”, das „y” wird entfernt und „iness” hinzugefügt. In anderen Ausführungsbeispielen kann „happy” zu „happiness” geändert werden oder „conceive” kann zu „conceivable” geändert werden. -
15 zeigt ein Beispiel einer mehrdeutigen Tastatur1520 , die mehrere Zeichen mit einer Taste assoziiert haben kann (zum Beispiel eine Telefontastatur, wo „A” „B” und „C” der Taste 2 zugewiesen sind; „D”, „E” und „F” der Taste 3 zugewiesen sind, und so weiter). Zum Beispiel können die Zeichen „Q” und „W” einer Taste zugewiesen sein, und die Zeichen „E” und „R” sind einer anderen Taste zugewiesen. In diesem Beispiel hat der Benutzer die Zeichen „Ol” eingegeben durch Drücken der „op”-Taste gefolgt von der „L”-Taste. Unter Verwendung eines Prädiktors werden die erzeugten Sätze von Zeichen1560 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. Da die erste gedrückte Taste entweder ein „O” oder „P” eingeben kann und die zweite gedrückte Taste ein „L” eingibt, beginnen die erzeugten Sätze von Zeichen1560 mit „OL” oder „PL”, wie gezeigt durch die erzeugten Sätze von Zeichen1560 in15 . -
16 zeigt ein weiteres Beispiel einer mehrdeutigen Tastatur1620 . In diesem Beispiel werden die erzeugten Sätze von Zeichen „plum” und „olive”1660 in der Nähe der „ui”-Taste angezeigt. Die Sätze von Zeichen könnten auch an oder auf der „ui”-Taste angezeigt werden. Hier entsprechen beide Sätze von Zeichen einer bestimmten Eingabe, die einer Taste entspricht, d. h. der dritte Buchstabe von plum ist ein „u” und der dritte Buchstabe von olive ist ein „i”. Der Berührungsbildschirm118 (via den Hauptprozessor102 ) kann zwischen der Eingabe eines der beiden Sätze von Zeichen basierend auf der Aktion des Benutzers unterscheiden. Zum Beispiel kann der Benutzer an oder in der Nähe der rechten Seite der „ui”-Taste eine Wischgeste ausführen, um „olive” einzugeben, oder er kann an oder in der Nähe der linken Seite der „ui”-Taste eine Wischgeste ausführen, um „plum” einzugeben. - Die Beispiele und Ausführungsbeispiele, die in den
17 ,18 und19 dargestellt werden, können mit jedem Satz von Zeichen implementiert werden, wie Wörter, Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen oder jeder Kombination daraus. -
17 zeigt in einer Ablaufdiagramm-Form ein Verfahren1700 in Übereinstimmung mit einigen Ausführungsbeispielen. Das Verfahren1700 kann mit einem Prozessor, wie dem Hauptprozessor102 , implementiert werden und auf einem materiellen computerlesbaren Medium gespeichert werden, wie Festplatten, CDs, DVDs, Flash-Speicher und dergleichen. In Block1710 empfängt der Prozessor eine Eingabe eines Zeichens. In Block1720 zeigt der Prozessor einen erzeugten Satz von Zeichen an oder in der Nähe von Tasten von nachfolgenden Kandidaten-Eingabe-Zeichen auf dem Berührungsbildschirm an, wie oben beschrieben. - In Block
1730 empfängt der Prozessor eine Eingabe des erzeugten Satzes von Zeichen, wie von einem Benutzer ausgewählt. Wenn der Benutzer keinen erzeugten Satz von Zeichen auswählt, der an oder in der Nähe von Tasten von nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt wird, startet das Verfahren wieder in Block1710 , wo der Berührungsbildschirm eine Eingabe eines anderen Zeichens empfangen kann. Wenn ein erzeugter Satz von Zeichen als Eingabe empfangen wird, wird in Block1740 der erzeugte Satz von Zeichen und ein <LEER>-Zeichen in ein Eingabefeld eingefügt (zum Beispiel das Eingabefeld330 der3 –9 ). Wie oben erwähnt, kann der Benutzer den erzeugten Satz von Zeichen auswählen zum Beispiel durch ein Durchführen einer Wischgeste an diesem oder in dessen Nähe oder durch langes Drücken einer Taste, die dem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht. - Weiter in Block
1750 , wenn der Prozessor erfasst, dass keine Interpunktion einzufügen ist, startet das Verfahren in Block1710 neu. Wenn eine Interpunktion eingefügt werden soll, geht das Verfahren zu Block1760 weiter, wo das <LEER>-Zeichen gelöscht wird und die entsprechende Interpunktion in das Eingabefeld hinzugefügt wird. Nach dem Block1760 beginnt das Verfahren erneut in Block1710 . -
18 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren1800 in Übereinstimmung mit einigen Ausführungsbeispielen darstellt. Das Verfahren1800 kann mit einem Prozessor, wie dem Hauptprozessor102 , implementiert werden und auf einem materiellen computerlesbaren Medium, wie Festplatten, CDs, DVDs, Flash-Speicher und dergleichen, gespeichert werden. In Block1810 empfängt der Prozessor eine Eingabe eines Zeichens. - In Block
1820 zeigt der Prozessor einen erzeugten Satz von Zeichen an oder nahe einer Position auf der Tastatur an, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, auf einem Berührungsbildschirm. In Block1830 empfängt der Prozessor eine Eingabe eines erzeugten Satzes von Zeichen, der von einem Benutzer ausgewählt wurde. Wenn der Benutzer keinen erzeugten Satz von Zeichen auswählt, der an oder in der Nähe von Tasten von nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt wird, beginnt das Verfahren erneut in Block1810 , wo der Prozessor eine Eingabe eines weiteren Zeichens empfangen kann. Wenn ein erzeugter Satz von Zeichen als Eingabe empfangen wird, wird in Block1840 der erzeugte Satz von Zeichen und ein <LEER>-Zeichen in ein Eingabefeld eingefügt (zum Beispiel das Eingabefeld330 der3 –9 ). Wie oben erwähnt, kann der Benutzer den erzeugten Satz von Zeichen zum Beispiel durch eine Wischgeste an diesem oder in dessen Nähe oder durch Drücken einer Taste, die dem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, für eine vorgegebene Zeitdauer. - In Block
1850 wird ein vorhergesagter Satz von Zeichen, verschieden von dem/den erzeugten Satz/Sätzen von Zeichen, auf einer Leertaste der Tastatur angezeigt nach der Eingabe des erzeugten Satzes von Zeichen in Block1830 . Der vorhergesagte Satz von Zeichen, der in Block1850 angezeigt wird, wird unter Verwendung eines Prädiktors bestimmt. In einigen Ausführungsbeispielen kann der eine Satz oder mehrere Sätze von Zeichen auf einer oder mehreren Taste(n) platziert werden, die von der Leertaste verschieden ist/sind. - In Block
1860 kann der Prozessor bestimmen, ob er eine Eingabe des vorhergesagten Satzes von Zeichen empfangen hat basierend auf einer Benutzereingabe. Wenn der Berührungsbildschirm keine Eingabe des vorhergesagten Satzes von Zeichen empfangen hat, da der Benutzer den vorhergesagten Satz von Zeichen nicht ausgewählt hat, beginnt das Verfahren erneut in Block1810 . Wenn der Prozessor die Eingabe des vorhergesagten Satzes von Zeichen empfangen hat, geht das Verfahren weiter zu Block1870 , wo der ausgewählte vorhergesagte Satz von Zeichen und ein <LEER>-Zeichen in das Eingabefeld eingefügt werden. Von hier kann das Verfahren1800 entweder zu Block1810 oder zu Block1850 zurückkehren. - Obwohl das Verfahren
1800 die Interpunktions-Darstellung nicht wie in Verfahren1700 gezeigt anzeigt, kann die Interpunktions-Darstellung, wie in den Blöcken1750 und1760 gezeigt, ebenfalls auf das Verfahren1800 angewendet werden. -
19 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren1900 in Übereinstimmung mit einigen Ausführungsbeispielen darstellt. In Box1910 wird ein vorhergesagter Satz von Zeichen an entsprechenden nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. In diesen Ausführungsbeispielen wurde keine Eingabe empfangen oder ein Trennzeichen wurde aktiviert, wie eine Eingabe eines <LEERZEICHENS>. Hier werden ein vorhergesagter Satz oder mehrere vorhergesagte Sätze von Zeichen (wie Wörter, Affixe, oder eine Kombination daraus) auf nachfolgenden Kandidaten-Eingabe-Zeichen platziert, die dem ersten Buchstaben des erzeugten Satzes von Zeichen entsprechen. Weiter zu Box1920 wird bestimmt, ob der Berührungsbildschirm eine Eingabe des Satzes von Zeichen (wie Wort oder Affix) basierend auf der Auswahl eines Benutzers empfängt. Wenn eine Eingabe empfangen wird, geht das Verfahren weiter zu Block1930 , wo der vorhergesagte Satz von Zeichen und ein <LEER>-Zeichen in ein Eingabefeld eingefügt werden. Dann beginnt das Verfahren wieder in Block1910 . Wenn der Berührungsbildschirm keine Eingabe des Satzes von Zeichen empfängt, ist der Berührungsbildschirm verfügbar, eine Eingabe eines Zeichens zu empfangen (wie durch Block1710 von17 oder Block1810 von18 beschrieben wird) und weiter durch die Verfahren fortzufahren (wie die Verfahren1700 von17 oder1800 von18 oder sogar das Verfahren1900 von19 ). -
20 zeigt ein weiteres Beispiel für eine virtuelle Tastatur2020 mit einem Eingabefeld2030 . Die Sätze von Zeichen „Please con” werden als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld2030 angezeigt, gefolgt von einem Cursor bzw. Eingabezeiger2040 , der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Ein Prädiktor bestimmt einen erzeugten Satz oder mehrere erzeugte Sätze von Zeichen2060 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors2040 in dem aktuellen Wort, der an der vierten Zeichen-Position des aktuellen Worts ist, wie in dem Eingabefeld2030 gezeigt. Das aktuelle Wort ist das Wort, in dem sich der Cursor aktuell befindet. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen2060 „cones”, „contact”, „construction” und „connect” angezeigt. Jeder erzeugte Satz von Zeichen2060 wird an einer Taste angezeigt, die einem nachfolgenden Kandidat-Eingabe-Zeichen entspricht (zum Beispiel unter den Tasten E, T, S beziehungsweise N der virtuellen Tastatur2020 ), für die aktuelle Position des Cursors2040 , der an der dritten Zeichen-Position ist, wie in dem Eingabefeld2030 gezeigt. - In dem gezeigten Beispiel wird jeder erzeugte Satz von Zeichen
2060 an oder nahe Tasten auf der virtuellen Tastatur2020 angezeigt, die mit den nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert sind. Die Anzeige eines erzeugten Satzes von Zeichen2060 an oder nahe einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, hängt zum Beispiel von der Größe des erzeugten Satzes von Zeichen2060 und der Größe eines erzeugten Satzes von Zeichen ab, der mit nahegelegenen Tasten von anderen nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist. Wenn die erzeugten Sätze von Zeichen, die mit nahegelegenen Tasten in derselben Reihe von Tasten in der virtuellen Tastatur2020 assoziiert sind, zu groß sind zur gleichzeitigen Anzeige, ohne einander zu überlappen oder ohne einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen, begrenzt der Prozessor102 die erzeugten Sätze von Zeichen, die angezeigt werden. Der Prozessor102 kann die erzeugten Sätze von Zeichen, die angezeigt werden, unter Verwendung einer oder jeder Kombination des Rangs jedes erzeugten Satzes von Zeichen, der Größe jedes erzeugten Satzes von Zeichen, und eines Abstands zwischen jedem erzeugten Satz von Zeichen, die angezeigt werden, derart begrenzen, dass ein vorgegebener Abstand zwischen den erzeugten Sätzen von Zeichen beibehalten wird. Dies kann zu der Anzeige von einem oder mehreren erzeugten Sätze von Zeichen führen, der/die größer ist/sind als die assoziierte Taste in der virtuellen Tastatur2020 . - In einigen Beispielen, wenn zwei erzeugte Sätze von Zeichen beide einen hohen Rang haben, und diese Sätze von Zeichen ansonsten an nahegelegenen Tasten angezeigt würden, aber nicht angezeigt werden können und trotzdem einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen mit der Anzeigetextgröße beibehalten, könnte die elektronische Vorrichtung konfiguriert werden, nur den erzeugten Satz von Zeichen mit dem höchsten Rang anzuzeigen. Dies führt zu der Anzeige des am wahrscheinlichsten erzeugten Satzes von Zeichen. In anderen Beispielen wird nur der längste der erzeugten Sätze von Zeichen angezeigt. Dies kann vorteilhaft sein, da ein Ermöglichen einer schnelleren Eingabe von längeren Wörtern Zeit und Verarbeitungszyklen spart, wodurch die prädiktive Texteingabe-Lösung wirksam eingesetzt wird. In weiteren Beispielen wird nur der kürzeste erzeugte Satz von Zeichen angezeigt. Dies kann vorteilhaft sein, da kürzere Worte häufiger sein können, zumindest für einige Benutzer, wodurch eine schnellere Eingabe von Wörtern ermöglicht wird, was Zeit und Verarbeitungszyklen spart, wodurch die prädiktive Texteingabe-Lösung wirksam eingesetzt wird.
- In einigen Beispielen kann der Prozessor
102 nur den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die in benachbarten/angrenzenden Tasten in derselben Reihe von Tasten in der virtuellen Tastatur2020 angezeigt wird/werden. In einigen Beispielen kann der Prozessor102 den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die in benachbarten/angrenzenden Tasten in derselben Reihe von Tasten in der virtuellen Tastatur2020 angezeigt wird/werden, so dass ein erzeugter Satz von Zeichen niemals in benachbarten/angrenzenden Tasten angezeigt wird, unabhängig von der Größe des erzeugten Satzes von Zeichen oder dem Abstand zwischen jedem erzeugten Satz von Zeichen. In solchen Beispielen verwendet der Prozessor102 den Rang, um zu bestimmen, welche erzeugten Sätze von Zeichen angezeigt werden. - In anderen Beispielen kann der Prozessor
102 den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die angezeigt wird/werden, wenn der/die erzeugten Satz/Sätze von Zeichen, der/die die mit nahegelegenen Tasten in verschiedenen Tastenreihen in der virtuellen Tastatur2020 assoziiert ist/sind, zu groß ist/sind, um gleichzeitig angezeigt zu werden, ohne einander zu überlappen oder ohne einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen zu haben. In anderen Beispielen kann der Prozessor102 den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die angezeigt wird/werden, wenn der/die erzeugten Satz/Sätze von Zeichen, die mit nahegelegenen Tasten in derselben oder in anderen Spalten von Tasten in der virtuellen Tastatur2020 assoziiert ist/sind, zu groß ist/sind, um gleichzeitig angezeigt zu werden, ohne einander zu überlappen oder ohne einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen zu haben. - Wie oben erwähnt, kann ein Benutzer einen Finger oder einen Stift verwenden, um über einen erzeugten Satz von Zeichen zu wischen, um diesen erzeugten Satz von Zeichen einzugeben. Ein einzelner Buchstabe kann im Gegensatz dazu eingegeben werden durch Antippen einer jeweiligen Taste in der virtuellen Tastatur
2020 unter Verwendung eines Fingers oder Stifts. Der Berührungsbildschirm unterscheidet zwischen Antippen- und Swipe- bzw. Wischgeste-Ereignissen unter Verwendung von Bewegung und Dauer von Berührungsereignissen, deren Details in der Technik bekannt sind und hier nicht beschrieben werden müssen. Jede Taste in der virtuellen Tastatur2020 und jeder erzeugte Satz von Zeichen2060 , der angezeigt wird, hat einen assoziierten Zielbereich auf dem Berührungsbildschirm. Der Zielbereich, der mit jedem erzeugten Satz von Zeichen assoziiert ist, kann größer sein als der Zielbereich der Taste und/oder den Zielbereich der Taste überlappen, die dem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, mit dem sie assoziiert ist, und möglicherweise der nahegelegenen Tasten, wie benachbarte Tasten in derselben Reihe. Ein Benutzer muss nur auf oder in der Nähe eines angezeigten erzeugten Satzes von Zeichen wischen, um den erzeugten Satz von Zeichen einzugeben. Dies ermöglicht eine schnellere Eingabe eines erzeugten Satzes von Zeichen durch Erzeugen von größeren und besser zugänglichen Zielbereichen, wodurch Zeit und Verarbeitungszyklen eingespart wird/werden. In einigen Beispielen kann ein erzeugter Satz von Zeichen eingegeben werden durch Erfassen einer Wischgeste in jede Richtung an oder nahe dem angezeigten erzeugten Satz von Zeichen. In anderen Beispielen kann ein erzeugter Satz von Zeichen nur eingegeben werden durch Erfassen einer Wischgeste in eine bestimmte Richtung an oder nahe dem angezeigten erzeugten Satz von Zeichen. Die bestimmte Richtung kann mit einer Richtung assoziiert sein, in der die bestimmte Richtung den erzeugten Satz von Zeichen angezeigt hat (zum Beispiel links oder rechts in dem gezeigten Beispiel). In einigen Beispielen ist die Wischgeste an oder nahe dem angezeigten erzeugten Satz von Zeichen, wenn die Wischgeste einen anfänglichen Kontaktpunkt in dem Zielbereich hat, der mit dem angezeigten erzeugten Satz von Zeichen assoziiert ist (der gleich oder größer als der angezeigte erzeugte Satz von Zeichen sein kann). - Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur
-
21 zeigt ein weiteres Beispiel eines Benutzerschnittstelle-Bildschirms mit einer virtuellen Tastatur2120 und einem Eingabefeld2130 . Der Satz von Zeichen „Ec” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld2130 angezeigt, gefolgt von einem Cursor2140 , der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Eine Texteingabe-Werkzeugleiste2150 wird an dem oberen Rand des Benutzerschnittstelle-Bildschirms angezeigt, über dem Eingabefeld2130 . Ein Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors2140 in dem aktuellen Wort, der an der dritten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld2130 gezeigt. Das aktuelle Wort ist das Wort, in dem sich der Cursor aktuell befindet. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen2160 „Every”, „Ecuador” und „Economy” angezeigt. Die erzeugten Sätze von Zeichen2160 werden an festgelegten Positionen innerhalb der virtuellen Tastatur2120 angezeigt und nicht an einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, wie in den oben beschriebenen Beispielen. Die festgelegten Positionen in der virtuellen Tastatur2120 in den beschriebenen Ausführungsbeispielen werden definiert durch Partitionen (oder Regionen) der virtuellen Tastatur2120 . Die Partitionen, zumindest in einigen Ausführungsbeispielen, werden durch Aufteilen der virtuellen Tastatur2120 definiert. Die virtuelle Tastatur2120 kann in gleiche oder ungleiche Partitionen unterteilt werden. Die Partitionen können im Wesentlichen die gesamte virtuelle Tastatur2120 einnehmen oder weniger als die gesamte virtuelle Tastatur2120 . In einigen Beispielen können die Partitionen andere Teile des Benutzerschnittstelle-Bildschirms einnehmen, wie das Eingabefeld2130 . In den21 bis24 sind die Partitionen der virtuellen Tastatur2120 durch drei Spalten definiert (zum Beispiel linke, mittlere und rechte Spalten). Eine andere Anzahl von Spalten kann in anderen Ausführungsbeispielen verwendet werden. Die Spalten können durch Aufteilen der virtuellen Tastatur2120 in gleiche Teile definiert werden, d. h. durch Aufteilen der virtuellen Tastatur2120 in drei gleich große Spalten. - In dem gezeigten Beispiel sind die angezeigten Sätze von Zeichen horizontal (oder im Wesentlichen horizontal) ausgerichtet, um die Verwendung und Auswahl von Prädiktionen als Eingabe zu erleichtern, indem die angezeigten erzeugten Sätze von Zeichen leichter sichtbar gemacht werden. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen in einer horizontalen „Abstandshalter”-Leiste angezeigt, die zwei Reihen von Tasten trennt, insbesondere eine horizontale Leiste, die die obere Reihe von Tasten von der zweiten Reihe von Tasten unter der oberen Reihe trennt. Dies vermeidet ein Verdecken der Tasten der virtuellen Tastatur
2120 , wodurch die Eingabe von einzelnen Tasten erleichtert wird, während die Sichtbarkeit der angezeigten Prädiktionen erhöht wird. Die angezeigten erzeugten Sätze von Zeichen können sich anderswo befinden, zum Beispiel in einer horizontalen Leiste, die zwei verschiedene Reihen von Tasten trennen. - Der Prozessor
102 bestimmt die Partition, in der ein erzeugter Satz von Zeichen angezeigt wird, unter Verwendung des Ranges jedes erzeugten Satzes von Zeichen. Der erzeugte Satz von Zeichen mit dem höchsten Rang wird in der Partition angezeigt, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen mit dem höchsten Rang assoziiert ist. Die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist, ist typischerweise die Partition (d. h. Spalte in dem aktuell beschriebenen Ausführungsbeispiel), in der sich das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen befindet. In dem gezeigten Beispiel hat der erzeugte Satz von Zeichen „Economy” den höchsten Rang und das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen ist der Buchstabe „o”. Dementsprechend befindet sich der erzeugte Satz von Zeichen „Economy” in der rechten Spalte, in der sich der Buchstabe „o” befindet. - Der Prozessor
102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d. h. dem zweithöchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel der erzeugte Satz von Zeichen mit höchstem Rang, dem in dem gezeigten Beispiel die rechte Spalte zugeordnet ist), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Economics” den zweithöchsten Rang hat, würde die Prädiktion „Economics” verworfen, da die assoziierte Partition dieselbe ist wie die Partition, die dem erzeugten Satz von Zeichen mit dem höchsten Rang, „Economy”, zugeordnet ist. Der Prozessor102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d. h. dem dritt-höchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen (zum Beispiel dem erzeugten Satz von Zeichen mit dem höchsten Rang) zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine zweite Partition mit einem erzeugten Satz von Zeichen assoziiert ist oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die zweite Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die linke Spalte und der erzeugte Satz von Zeichen, der mit der zweiten Partition (zum Beispiel linke Spalte) assoziiert ist, ist „Every”. Der Satz von Zeichen „Every” wird vorhergesagt, obwohl der Satz von Zeichen „Ec” als Eingabe empfangen wird, die keine Wurzel für das Wort „Every” ist. - Der Prozessor
102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel sind in dem gezeigten Beispiel die linken und rechten Spalten bereits einem erzeugten Satz von Zeichen zugeordnet), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Everyone” den nächst-höchsten Rang hat, würde die Prädiktion von „Everyone” verworfen, da die assoziierte Partition die linke Spalte ist, die bereits dem erzeugten Satz von Zeichen „Every” zugeordnet ist. Der Prozessor102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn dieser Partition bereits ein erzeugter Satz von Zeichen zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine dritte Partition mit einem erzeugten Satz von Zeichen assoziiert ist (zum Beispiel bis die mittlere Spalte zugeordnet ist) oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die dritte Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die mittlere Spalte und der erzeugte Satz von Zeichen, der mit der dritten Partition (zum Beispiel mittlere Spalte) assoziiert ist, ist „Ecuador”. - In dem gezeigten Beispiel hat die virtuelle Tastatur
2120 drei Partitionen. Wenn mehr Partitionen verwendet werden, würde dieser Prozess fortgesetzt, bis alle Partitionen mit einem erzeugten Satz von Zeichen assoziiert sind oder kein erzeugter Satz von Zeichen verbleibt. -
22 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur2120 und einem Eingabefeld2130 . Das Zeichen „T” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld2130 angezeigt, gefolgt von einem Cursor2140 , der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors2140 in dem aktuellen Wort, der an der zweiten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld2130 gezeigt wird. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen2160 „Thanks” und „To” angezeigt. Weniger erzeugte Sätze von Zeichen als Partitionen werden angezeigt, was bedeutet, dass nur zwei Prädiktionen existieren oder die Prädiktionen erschöpft sind durch Konflikte bei einem Versuchen, einen erzeugten Satz von Zeichen mit einer Partition zu assoziieren, die bereits einem anderen erzeugten Satz von Zeichen zugeordnet ist. -
23 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur2120 und einem Eingabefeld2130 . Der Satz von Zeichen „An” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld2130 angezeigt, gefolgt von einem Cursor2140 , der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors2140 in dem aktuellen Wort, der an der dritten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld2130 gezeigt wird. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen2160 „And”, „Anyway” und „Another” angezeigt. -
24 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur2120 und einem Eingabefeld2130 . Der Satz von Zeichen „This” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld2130 angezeigt, gefolgt von einem Cursor2140 , der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors2140 in dem aktuellen Wort, der an der ersten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld2130 gezeigt wird. In dem gezeigten Beispiel sagt der Prädiktor die nächsten Wörter in dem Satz voraus, der eingegeben wird, mit den erzeugten Sätzen von Zeichen2160 „will”, „is” und „message” angezeigt. -
25 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur2120 und einem Eingabefeld2130 . Das Zeichen „A” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld2130 angezeigt, gefolgt von einem Cursor2140 , der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Eine Texteingabe-Werkzeugleiste2150 wird an dem oberen Rand des Benutzerschnittstelle-Bildschirms angezeigt, über dem Eingabefeld2130 . Ein Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors2140 in dem aktuellen Wort, der an der zweiten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld2130 gezeigt. Das aktuelle Wort ist das Wort, in dem sich der Cursor aktuell befindet. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen2560 „Are”, „As” und „And” angezeigt. Die erzeugten Sätze von Zeichen2560 werden an festgelegten Positionen innerhalb der virtuellen Tastatur2120 angezeigt und nicht an einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, wie in früheren Beispielen. Die festgelegten Positionen in der virtuellen Tastatur2120 in den beschriebenen Ausführungsbeispielen werden definiert durch Partitionen der virtuellen Tastatur2120 . Die virtuelle Tastatur2120 kann in gleiche oder ungleiche Partitionen unterteilt werden. Die Partitionen können im Wesentlichen die gesamte virtuelle Tastatur2120 einnehmen oder weniger als die gesamte virtuelle Tastatur2120 . In einigen Beispielen können die Partitionen andere Teile des Benutzerschnittstelle-Bildschirms einnehmen, wie das Eingabefeld2130 . In den25 bis28 sind die Partitionen der virtuellen Tastatur2120 durch drei Reihen definiert (zum Beispiel obere, mittlere und untere Reihen) anstatt durch Spalten, wie in den21 bis24 . Eine andere Anzahl von Reihen kann in anderen Ausführungsbeispielen verwendet werden. Die Reihen können durch Aufteilen der virtuellen Tastatur2120 in gleiche Teile definiert werden, d. h. durch Aufteilen der virtuellen Tastatur2120 in drei gleich große Reihen. - In dem gezeigten Beispiel sind die angezeigten Sätze von Zeichen vertikal (oder im Wesentlichen vertikal) ausgerichtet, um die Verwendung und Auswahl von Prädiktionen als Eingabe zu erleichtern, indem die angezeigten erzeugten Sätze von Zeichen leichter sichtbar gemacht werden. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen in horizontalen „Abstandshalter”-Leisten angezeigt, die die Reihen von Tasten trennen, wobei sich jeder der angezeigten Sätze von Zeichen in einer anderen Abstandshalter-Leiste befindet. Dies vermeidet ein Verdecken der Tasten der virtuellen Tastatur
2120 , wodurch die Eingabe von einzelnen Tasten erleichtert wird, während die Sichtbarkeit der angezeigten Prädiktionen erhöht wird. Die angezeigten erzeugten Sätze von Zeichen können sich anderswo befinden. - Der Prozessor
102 bestimmt die Partition, in der ein erzeugter Satz von Zeichen angezeigt wird, unter Verwendung des Ranges jedes erzeugten Satzes von Zeichen. Der erzeugte Satz von Zeichen mit dem höchsten Rang wird in der Partition angezeigt, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen mit dem höchsten Rang assoziiert ist. Die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist, ist typischerweise die Partition (d. h. Reihe in dem aktuell beschriebenen Ausführungsbeispiel), in der sich das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen befindet. In dem gezeigten Beispiel hat der erzeugte Satz von Zeichen „Are” den höchsten Rang und das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen ist der Buchstabe „r”. Dementsprechend befindet sich der erzeugte Satz von Zeichen „Are” in der oberen Reihe, in der sich der Buchstabe „r” befindet. - Der Prozessor
102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d. h. dem zweithöchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel der erzeugte Satz von Zeichen mit höchstem Rang, der in dem gezeigten Beispiel der oberen Reihe zugeordnet ist), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Array” den zweithöchsten Rang hat, würde die Prädiktion „Array” verworfen, da die assoziierte Partition dieselbe ist wie die Partition, die dem erzeugten Satz von Zeichen mit dem höchsten Rang, „Are”, zugeordnet ist. Der Prozessor102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d. h. dem dritt-höchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen (zum Beispiel dem erzeugten Satz von Zeichen mit dem höchsten Rang) zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine zweite Partition mit einem erzeugten Satz von Zeichen assoziiert ist oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die zweite Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die mittlere Reihe und der erzeugte Satz von Zeichen, der mit der zweiten Partition (zum Beispiel linke Spalte) assoziiert ist, ist „As”. - Der Prozessor
102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel sind in dem gezeigten Beispiel die oberen und mittleren Spalten bereits einem erzeugten Satz von Zeichen zugeordnet), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Assume” den nächst-höchsten Rang hat, würde die Prädiktion von „Assume” verworfen, da die assoziierte Partition die linke Spalte ist, die bereits dem erzeugten Satz von Zeichen „As” zugeordnet ist. Der Prozessor102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn diese Partition bereits zu einem erzeugten Satz von Zeichen zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine dritte Partition mit einem erzeugten Satz von Zeichen assoziiert ist (zum Beispiel bis die untere Reihe zugeordnet ist) oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die dritte Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die untere Reihe und der erzeugte Satz von Zeichen, der mit der dritten Partition (zum Beispiel mittlere Spalte) assoziiert ist, ist „And”. - In dem gezeigten Beispiel hat die virtuelle Tastatur
2120 drei Partitionen. Wenn mehr Partitionen verwendet werden, würde dieser Prozess fortgesetzt, bis alle Partitionen mit einem erzeugten Satz von Zeichen assoziiert sind oder kein erzeugter Satz von Zeichen verbleibt. -
26 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur2120 und einem Eingabefeld2130 . Der Satz von Zeichen „How” wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld2130 angezeigt, gefolgt von einem Cursor2140 , der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors2140 in dem aktuellen Wort, der an der ersten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld2130 gezeigt wird. In dem gezeigten Beispiel sagt der Prädiktor die nächsten Wörter in dem Satz voraus, der eingegeben wird, mit den erzeugten Sätzen von Zeichen2560 „is”, „are” und „many” angezeigt. -
27 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur2120 und einem Eingabefeld2130 . Die Sätze von Zeichen „It is ab” werden als Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld2130 angezeigt, gefolgt von einem Cursor2140 , der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors2140 in dem aktuellen Wort, der an der dritten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld2130 gezeigt wird. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen2560 „about” und „absolutely” angezeigt. Weniger erzeugte Sätze von Zeichen als Partitionen werden angezeigt, was bedeutet, dass nur zwei Prädiktionen existieren oder die Prädiktionen erschöpft sind durch Konflikte bei einem Versuchen, einen erzeugten Satz von Zeichen mit einer Partition zu assoziieren, die bereits einem anderen erzeugten Satz von Zeichen zugeordnet ist. -
28 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur2120 und einem Eingabefeld2130 . Die Sätze von Zeichen „It is about to” werden als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld2130 angezeigt, gefolgt von einem Cursor2140 , der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors2140 in dem aktuellen Wort, der an der ersten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld2130 gezeigt wird. In dem gezeigten Beispiel sagt der Prädiktor die nächsten Wörter in dem Satz voraus, der eingegeben wird, mit den erzeugten Sätzen von Zeichen2560 „take”, „start” und „be” angezeigt. - Es ist offensichtlich, dass die Ausführungsbeispiele der
21 bis28 einen Kompromiss darstellen zwischen einem Anzeigen der Prädiktionen mit dem höchsten Rang und einem Anzeigen der Prädiktionen auf eine Weise, die die Verwendung und Auswahl von Prädiktionen als Eingabe erleichtert. Während die Prädiktion mit dem höchsten Rang immer angezeigt wird, müssen andere angezeigte Prädiktionen nicht die Prädiktionen mit dem nächst-höchsten Rang repräsentieren. Während Prädiktionen mit einem niedrigeren Rang nicht die Prädiktionen mit dem höchsten Rang sein müssen, sind die Prädiktionen dennoch Prädiktionen mit hohem Rang und die angezeigten Prädiktionen befinden sich an festgelegten Positionen in der virtuellen Tastatur2120 und bewegen sich nicht auf der virtuellen Tastatur2120 basierend auf dem nachfolgenden Kandidaten-Eingabe-Zeichen. Dies erleichtert die Verwendung und Auswahl von Prädiktionen als Eingabe, anstatt dass der Benutzer das gesamte Wort tippen muss und Prädiktionen ignoriert, wodurch Zeit und Verarbeitungszyklen eingespart werden und die prädiktive Texteingabe-Lösung wirksam eingesetzt wird. - Wie bereits erwähnt, kann ein Benutzer einen Finger oder Stift verwenden, um über einen erzeugten Satz von Zeichen zu wischen (swipe), um diesen erzeugten Satz von Zeichen einzugeben. Ein einzelner Buchstabe kann im Gegensatz dazu eingegeben werden durch Antippen einer jeweiligen Taste in der virtuellen Tastatur
2120 unter Verwendung eines Fingers oder Stifts. Der Berührungsbildschirm unterscheidet zwischen Antippen- und Swipe- bzw. Wischgeste-Ereignissen unter Verwendung von Bewegung und Dauer von Berührungsereignissen, deren Details in der Technik bekannt sind und hier nicht beschrieben werden müssen. Jede Taste in der virtuellen Tastatur2120 und jeder erzeugte Satz von Zeichen2560 , der angezeigt wird, hat einen assoziierten Zielbereich auf dem Berührungsbildschirm. Der Zielbereich, der mit jedem erzeugten Satz von Zeichen assoziiert ist, ist typischerweise gleich groß oder größer als der angezeigte erzeugte Satz von Zeichen. Ein Benutzer muss nur auf oder in der Nähe eines angezeigten erzeugten Satzes von Zeichen wischen, um den erzeugten Satz von Zeichen einzugeben. Dies ermöglicht eine relativ schnelle Eingabe eines erzeugten Satzes von Zeichen durch Erzeugen von relativ großen und zugänglichen Zielbereichen, wodurch Zeit und Verarbeitungszyklen eingespart wird/werden. In einigen Beispielen kann ein erzeugter Satz von Zeichen nur eingegeben werden durch Erfassen einer Wischgeste in eine bestimmte Richtung an oder nahe dem angezeigten erzeugten Satz von Zeichen. In einigen Beispielen ist die bestimmte Richtung „nach oben” derart, dass nur eine Wischgeste „nach oben” einen erzeugten Satz von Zeichen eingeben kann. In einigen Beispielen ist die Wischgeste an oder nahe dem angezeigten erzeugten Satz von Zeichen, wenn die Wischgeste einen anfänglichen Kontaktpunkt in dem Zielbereich hat, der mit dem angezeigten erzeugten Satz von Zeichen assoziiert ist (der gleich oder größer als der angezeigte erzeugte Satz von Zeichen sein kann) (zum Beispiel innerhalb der angezeigten Wörter „Every”, „Ecuador” oder „Economy” in21 ). - Es ist offensichtlich, dass die Partitionen der virtuellen Tastatur
2120 in den oben beschriebenen Ausführungsbeispielen, ob durch Reihen oder Spalten definiert, nicht koinzident sind mit den Reihen und Spalten von Tasten der virtuellen Tastatur2120 . In anderen Ausführungsbeispielen können die Partitionen der virtuellen Tastatur2120 koinzident sein mit den Reihen und Spalten von Tasten der virtuellen Tastatur2120 , obwohl dies typischerweise nicht bevorzugt ist, da es die Sichtbarkeit der Tasten der virtuellen Tastatur2120 und/oder die Sichtbarkeit der Prädiktionen reduzieren kann durch Überladen der Benutzerschnittstelle. - Während die oben beschriebenen Ausführungsbeispielen Partitionen der virtuellen Tastatur
2120 als durch Reihen oder Spalten definiert beschreiben, sind andere Konfigurationen möglich. Zum Beispiel können die Partitionen in einer zweidimensionalen Anordnung angeordnet sein, wie einer rechtwinkligen Anordnung von Reihen von Spalten. Während dies die Anzahl der Prädiktionen erhöhen kann, die in der virtuellen Tastatur2120 angezeigt werden können, kann es die Sichtbarkeit der Tasten der virtuellen Tastatur2120 und/oder die Sichtbarkeit der Prädiktionen reduzieren durch Überladen der Benutzerschnittstelle. -
29 zeigt in Form eines Ablaufdiagramms ein Verfahren2900 in Übereinstimmung mit einigen Ausführungsbeispielen. Das Verfahren2900 kann mit einem Prozessor implementiert werden, wie einem Hauptprozessor102 , und auf einem materiellen computerlesbaren Medium gespeichert werden, wie Festplatten, CDs, DVDs, Flash-Speicher und dergleichen. In Block2902 empfängt der Prozessor eine Eingabe eines Zeichens. In Block2904 erzeugt der Prozessor einen Satz von vorhergesagten Eingabe-Zeichen. Der Satz von vorhergesagten Eingabe-Zeichen entspricht nachfolgenden Kandidaten-Eingabe-Zeichen. - In Block
2906 wird der Satz von vorhergesagten Eingabe-Zeichen mit dem höchsten Rang einer Partition in der virtuellen Tastatur2120 zugeordnet, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen mit dem höchsten Rang assoziiert ist. Wie oben erwähnt, ist die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist, typischerweise die Partition (d. h. Reihe in dem vorliegenden beschriebenen Ausführungsbeispiel), in der sich das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen befindet. Der Satz von vorhergesagten Eingabe-Zeichen entspricht nachfolgenden Kandidaten-Eingabe-Zeichen. - In Block
2908 wird der Satz von Zeichen mit dem nächst-höchsten Rang bestimmt. In Block2910 wird eine Partition bestimmt, die mit dem Satz von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn die bestimmte Partition nicht bereits einem erzeugten Satz von Zeichen zugeordnet ist (Entscheidungsblock2912 ), wird die bestimmte Partition dem Satz von Zeichen mit dem nächsthöchsten Rang zugeordnet (Block2914 ). Wenn die bestimmte Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (Entscheidungsblock2912 ), wird der Satz von Zeichen mit dem nächst-höchsten Rang bestimmt (Block2908 ). - In dem Entscheidungsblock
2916 wird bestimmt, ob Partitionen in der virtuellen Tastatur2120 nicht zugeordnet verbleiben, und wenn ja, ob ein vorhergesagter Satz von Eingabe-Zeichen verbleibt. Wenn ja, ist zumindest eine Partition in der virtuellen Tastatur2120 nicht zugeordnet oder ein Satz von vorhergesagten Eingabe-Zeichen mit einem nächst-höchsten Rang existiert. Der Satz von Zeichen mit dem nächst-höchsten Rang wird dann bestimmt (Block2908 ). Wenn nicht, wurden alle Partitionen in der virtuellen Tastatur2120 zugeordnet oder kein Satz von vorhergesagten Eingabe-Zeichen mit einem nächst-höchsten Rang existiert. Dann werden die vorhergesagten Sätze von Eingabe-Zeichen, die Partitionen in der virtuellen Tastatur2120 zugeordnet sind, an einer Position nahe an dem nachfolgenden Kandidaten-Eingabe-Zeichen in den Sätzen von vorhergesagten Eingabe-Zeichen angezeigt, d. h. in den Bereichen der virtuellen Tastatur2120 , die den Partitionen der virtuellen Tastatur2120 zugeordnet sind. - Während in
29 nicht gezeigt, kann ein Benutzer einen Finger oder Stift verwenden, um auf einem erzeugten Satz von Zeichen zu wischen, um diesen erzeugten Satz von Zeichen einzugeben, wie zuvor diskutiert. Ein einzelner Buchstabe kann im Gegensatz dazu eingegeben werden durch Antippen einer jeweiligen Taste in der virtuellen Tastatur2120 unter Verwendung eines Fingers oder Stifts. In einigen Beispielen geht das Verfahren weiter mit Operationen von Block1750 und1760 (nicht gezeigt), wie oben in Zusammenhang mit dem Verfahren1700 und der17 angeführt. Weiter in Block1750 , wenn der Prozessor erfasst, dass kein Satzzeichen eingefügt werden soll, startet das Verfahren erneut in Block2110 . Wenn ein Satzzeichen eingefügt werden soll, geht das Verfahren weiter zu Block1760 , wo das <LEER>-Zeichen gelöscht wird und das entsprechende Satzzeichen zu dem Eingabefeld hinzugefügt wird. Nach dem Block1760 beginnt das Verfahren erneut in Block2110 . - Während das Verfahren
2900 in dem Kontext einer Prädiktion des nächsten Buchstabens in einem Wort beschrieben wird, kann das Verfahren angepasst werden zur Prädiktion des nächsten Buchstabens in dem nächsten Wort. - Während die vorliegende Offenbarung, zumindest teilweise, in Bezug auf Verfahren beschrieben wird, ist für einen Fachmann auf dem Gebiet offensichtlich, dass die vorliegende Offenbarung auch die verschiedenen Komponenten zum Durchführen zumindest einiger der Aspekte und Merkmale der beschriebenen Verfahren betrifft, entweder mit Hilfe von Hardware-Komponenten, Software oder einer Kombination aus beiden, oder auf eine andere Weise. Darüber hinaus betrifft die vorliegende Offenbarung auch eine voraufgezeichnete Speichervorrichtung oder ein anderes ähnliches computerlesbares Medium mit darauf gespeicherten Programmanweisungen zum Durchführen der hier beschriebenen Verfahren.
- Die vorliegende Offenbarung kann in anderen spezifischen Formen aufgenommen werden, ohne von dem Gegenstand der Ansprüche abzuweichen. Die beschriebenen beispielhaften Ausführungsbeispiele sollen in jeder Hinsicht nur als illustrativ und nicht einschränkend angesehen werden. Die vorliegende Offenbarung beabsichtigt, alle geeigneten Änderungen der Technologie abzudecken und zu umfassen. Der Umfang der vorliegenden Offenbarung wird daher durch die beigefügten Ansprüche beschrieben und nicht durch die obige Beschreibung. Alle Änderungen, die in die Bedeutung und den Bereich von Äquivalenz der Ansprüche fallen, sollen in ihrem Umfang aufgenommen sein.
Claims (15)
- Ein Verfahren, das aufweist: Empfangen einer Eingabe eines Zeichens von einer virtuellen Tastatur, die auf einer Anzeige angezeigt wird; Erzeugen eines Satzes oder mehrerer Sätze von vorhergesagten Eingabe-Zeichen basierend auf dem Eingabe-Zeichen; und Anzeigen eines oder mehrerer der erzeugten Sätze von vorhergesagten Eingabe-Zeichen in der virtuellen Tastatur an einer Position nahe an einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen in dem einen oder mehreren erzeugten Sätzen von vorhergesagten Eingabe-Zeichen entspricht.
- Das Verfahren gemäß Anspruch 1, das weiter aufweist: Zuordnen einer ersten Partition der virtuellen Tastatur zu einem Satz von vorhergesagten Eingabe-Zeichen mit einem höchsten Rang; Bestimmen einer Kandidaten-Partition eines Satzes von vorhergesagten Eingabe-Zeichen mit einem nächst-höchsten Rang; Zuordnen des Satzes von vorhergesagten Eingabe-Zeichen mit dem nächst-höchsten Rang zu der Kandidaten-Partition, wenn die Kandidaten-Partition nicht zugeordnet ist.
- Das Verfahren gemäß Anspruch 2, das weiter aufweist: Bestimmen eines weiteren vorhergesagten Satzes von Eingabe-Zeichen mit einem nächst-höchsten Rang, wenn die Kandidaten-Partition bereits zugeordnet ist; Bestimmen einer Kandidaten-Partition des weiteren Satzes von vorhergesagten Eingabe-Zeichen mit dem nächst-höchsten Rang; Zuordnen des weiteren Satzes von vorhergesagten Eingabe-Zeichen mit dem nächst-höchsten Rang zu der Kandidaten-Partition, wenn die Kandidaten-Partition nicht zugeordnet ist.
- Das Verfahren gemäß Anspruch 2 oder Anspruch 3, wobei die Sätze von vorhergesagten Eingabe-Zeichen in einer Partition angezeigt werden, die ihnen zugeordnet ist.
- Das Verfahren gemäß einem der Ansprüche 2 bis 4, wobei die Sätze von vorhergesagten Eingabe-Zeichen in einer Partition, die ihnen zugeordnet ist, nur angezeigt werden, wenn alle Partitionen in der virtuellen Tastatur zugeordnet wurden oder kein weiterer Satz von vorhergesagten Eingabe-Zeichen mit nächst-höchstem Rang existiert.
- Das Verfahren gemäß einem der Ansprüche 2 bis 5, wobei die Partitionen durch eine Anzahl von Spalten in einem Bereich der virtuellen Tastatur definiert sind.
- Das Verfahren gemäß Anspruch 6, wobei die angezeigten Sätze von vorhergesagten Eingabe-Zeichen horizontal ausgerichtet sind.
- Das Verfahren gemäß Anspruch 6 oder Anspruch 7, wobei die angezeigten Sätze von vorhergesagten Eingabe-Zeichen in einer horizontalen „Abstandhalter”-Leiste angezeigt werden, die zwei Reihen von Tasten in der virtuellen Tastatur trennt.
- Das Verfahren gemäß einem der Ansprüche 2 bis 5, wobei die Partitionen durch eine Anzahl von Reihen in einem Bereich der virtuellen Tastatur definiert sind.
- Das Verfahren gemäß Anspruch 9, wobei die angezeigten Sätze von vorhergesagten Eingabe-Zeichen vertikal ausgerichtet sind.
- Das Verfahren gemäß Anspruch 9 oder Anspruch 10, wobei die angezeigten Sätze von vorhergesagten Eingabe-Zeichen in einer horizontalen „Abstandhalter”-Leiste angezeigt werden, die zwei Reihen von Tasten in der virtuellen Tastatur trennt, wobei sich jeder der angezeigten Sätze von Zeichen in einer anderen „Abstandhalter”-Leiste befindet.
- Das Verfahren gemäß einem der Ansprüche 2 bis 11, wobei die Partitionen im Wesentlichen die gesamte virtuelle Tastatur einnehmen.
- Das Verfahren gemäß einem der Ansprüche 1 bis 12, wobei ein angezeigter Satz von vorhergesagten Eingabe-Zeichen eingegeben wird durch Erfassen einer Wischgeste an oder nahe dem angezeigten Satz von vorhergesagten Eingabe-Zeichen.
- Das Verfahren gemäß Anspruch 13, wobei die Wischgeste eine Wischgeste „nach oben” ist.
- Eine elektronische Vorrichtung, die aufweist: einen Prozessor; eine Anzeige, die mit dem Prozessor gekoppelt ist; wobei der Prozessor konfiguriert ist, das Verfahren gemäß einem der Ansprüche 1 bis 14 durchzuführen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261603043P | 2012-02-24 | 2012-02-24 | |
US61/603043 | 2012-02-24 | ||
PCT/CA2012/050405 WO2013123572A1 (en) | 2012-02-24 | 2012-06-18 | Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters |
Publications (2)
Publication Number | Publication Date |
---|---|
DE112012000189T5 true DE112012000189T5 (de) | 2013-12-24 |
DE112012000189B4 DE112012000189B4 (de) | 2023-06-15 |
Family
ID=46245982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112012000189.3T Active DE112012000189B4 (de) | 2012-02-24 | 2012-06-18 | Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben |
Country Status (6)
Country | Link |
---|---|
US (1) | US9910588B2 (de) |
EP (1) | EP2631758B1 (de) |
CN (1) | CN103380407B (de) |
DE (1) | DE112012000189B4 (de) |
GB (1) | GB2503968B (de) |
WO (1) | WO2013123572A1 (de) |
Families Citing this family (159)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8490008B2 (en) | 2011-11-10 | 2013-07-16 | Research In Motion Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9715489B2 (en) | 2011-11-10 | 2017-07-25 | Blackberry Limited | Displaying a prediction candidate after a typing mistake |
US9652448B2 (en) | 2011-11-10 | 2017-05-16 | Blackberry Limited | Methods and systems for removing or replacing on-keyboard prediction candidates |
US9310889B2 (en) | 2011-11-10 | 2016-04-12 | Blackberry Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9122672B2 (en) | 2011-11-10 | 2015-09-01 | Blackberry Limited | In-letter word prediction for virtual keyboard |
EP2618248B1 (de) | 2012-01-19 | 2017-08-16 | BlackBerry Limited | Virtuelle Tastatur zum Bereitstellen einer Anzeige von empfangener Eingabe |
US9557913B2 (en) | 2012-01-19 | 2017-01-31 | Blackberry Limited | Virtual keyboard display having a ticker proximate to the virtual keyboard |
DE112012000189B4 (de) | 2012-02-24 | 2023-06-15 | Blackberry Limited | Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
CN102629160B (zh) | 2012-03-16 | 2016-08-03 | 华为终端有限公司 | 一种输入法、输入装置及终端 |
US8930813B2 (en) * | 2012-04-03 | 2015-01-06 | Orlando McMaster | Dynamic text entry/input system |
US9201510B2 (en) | 2012-04-16 | 2015-12-01 | Blackberry Limited | Method and device having touchscreen keyboard with visual cues |
US9354805B2 (en) | 2012-04-30 | 2016-05-31 | Blackberry Limited | Method and apparatus for text selection |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9207860B2 (en) | 2012-05-25 | 2015-12-08 | Blackberry Limited | Method and apparatus for detecting a gesture |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9116552B2 (en) | 2012-06-27 | 2015-08-25 | Blackberry Limited | Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard |
US9063653B2 (en) * | 2012-08-31 | 2015-06-23 | Blackberry Limited | Ranking predictions based on typing speed and typing confidence |
US9524290B2 (en) | 2012-08-31 | 2016-12-20 | Blackberry Limited | Scoring predictions based on prediction length and typing speed |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
KR102516577B1 (ko) | 2013-02-07 | 2023-04-03 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
CN104007832B (zh) * | 2013-02-25 | 2017-09-01 | 上海触乐信息科技有限公司 | 连续滑行输入文本的方法、系统及设备 |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US9576074B2 (en) * | 2013-06-20 | 2017-02-21 | Microsoft Technology Licensing, Llc | Intent-aware keyboard |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
CN103631521B (zh) * | 2013-12-12 | 2017-10-17 | 华为终端有限公司 | 一种触控屏输入方法和终端 |
WO2015184186A1 (en) | 2014-05-30 | 2015-12-03 | Apple Inc. | Multi-command single utterance input method |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
CN106716396A (zh) * | 2014-07-15 | 2017-05-24 | 艾玛尔·Y·塞维尔公司 | 基于符号的书面语言的字符的输入 |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
CN104391644B (zh) * | 2014-11-11 | 2018-03-20 | 北京元心科技有限公司 | 一种输入方法及装置 |
CN104571579A (zh) * | 2014-12-12 | 2015-04-29 | 百度在线网络技术(北京)有限公司 | 信息处理方法及装置 |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) * | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US20170336969A1 (en) * | 2016-05-17 | 2017-11-23 | Google Inc. | Predicting next letters and displaying them within keys of a graphical keyboard |
JP6691818B2 (ja) * | 2016-05-23 | 2020-05-13 | シャープ株式会社 | インターフェース、文字入力ガイド方法及びプログラム |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
CN106527753B (zh) * | 2016-09-30 | 2019-05-14 | 张伟 | 一种智能电视的字符输入方法 |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
CN107765979A (zh) * | 2017-09-27 | 2018-03-06 | 北京金山安全软件有限公司 | 一种预测词的展示方法、装置及电子设备 |
CN107704100A (zh) * | 2017-09-27 | 2018-02-16 | 北京金山安全软件有限公司 | 一种预测词的展示方法、装置及电子设备 |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10944859B2 (en) | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
CN113795813A (zh) | 2019-04-12 | 2021-12-14 | 惠普发展公司,有限责任合伙企业 | 用于预测性执行的生物测定 |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112256139B (zh) * | 2020-10-22 | 2022-10-14 | 米环科技(长春)有限公司 | 具有键位布局的键盘及其应用于电子设备的输入法 |
JP7265048B1 (ja) | 2022-02-07 | 2023-04-25 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、及び制御方法 |
Family Cites Families (330)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3872433A (en) | 1973-06-07 | 1975-03-18 | Optical Business Machines | Optical character recognition system |
DE2915673A1 (de) | 1979-04-18 | 1980-10-30 | Olympia Werke Ag | Textbearbeitungseinrichtung mit einer anzeigeeinrichtung |
US5261009A (en) | 1985-10-15 | 1993-11-09 | Palantir Corporation | Means for resolving ambiguities in text passed upon character context |
US5963671A (en) * | 1991-11-27 | 1999-10-05 | International Business Machines Corporation | Enhancement of soft keyboard operations using trigram prediction |
US5416895A (en) | 1992-04-08 | 1995-05-16 | Borland International, Inc. | System and methods for improved spreadsheet interface with user-familiar objects |
US5523775A (en) | 1992-05-26 | 1996-06-04 | Apple Computer, Inc. | Method for selecting objects on a computer display |
JP3546337B2 (ja) | 1993-12-21 | 2004-07-28 | ゼロックス コーポレイション | 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法 |
US5574840A (en) | 1994-08-29 | 1996-11-12 | Microsoft Corporation | Method and system for selecting text utilizing a plurality of text using switchable minimum granularity of selection |
JPH10154144A (ja) | 1996-11-25 | 1998-06-09 | Sony Corp | 文章入力装置及び方法 |
US6073036A (en) | 1997-04-28 | 2000-06-06 | Nokia Mobile Phones Limited | Mobile station with touch input having automatic symbol magnification function |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US20060033724A1 (en) | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
GB2335822B (en) | 1998-03-25 | 2003-09-10 | Nokia Mobile Phones Ltd | Context sensitive pop-up window for a portable phone |
US6421453B1 (en) | 1998-05-15 | 2002-07-16 | International Business Machines Corporation | Apparatus and methods for user recognition employing behavioral passwords |
KR100306277B1 (ko) | 1998-05-29 | 2001-11-02 | 윤종용 | 문자인식디지털휴대용전화기에서비밀기호등록및확인방법 |
US6064340A (en) | 1998-07-02 | 2000-05-16 | Intersil Corporation | Electrostatic discharge locating apparatus and method |
US7679534B2 (en) | 1998-12-04 | 2010-03-16 | Tegic Communications, Inc. | Contextual prediction of user words and user actions |
US6226299B1 (en) | 1999-01-20 | 2001-05-01 | Emulex Corporation | Sanitizing fibre channel frames |
US7506252B2 (en) | 1999-01-26 | 2009-03-17 | Blumberg Marvin R | Speed typing apparatus for entering letters of alphabet with at least thirteen-letter input elements |
GB2347240A (en) | 1999-02-22 | 2000-08-30 | Nokia Mobile Phones Ltd | Communication terminal having a predictive editor application |
US6411283B1 (en) | 1999-05-20 | 2002-06-25 | Micron Technology, Inc. | Computer touch screen adapted to facilitate selection of features at edge of screen |
AU5299700A (en) | 1999-05-27 | 2000-12-18 | America Online, Inc. | Keyboard system with automatic correction |
US7030863B2 (en) | 2000-05-26 | 2006-04-18 | America Online, Incorporated | Virtual keyboard system with automatic correction |
US6573844B1 (en) | 2000-01-18 | 2003-06-03 | Microsoft Corporation | Predictive keyboard |
US6621424B1 (en) | 2000-02-18 | 2003-09-16 | Mitsubishi Electric Research Laboratories Inc. | Method for predicting keystroke characters on single pointer keyboards and apparatus therefore |
US6646572B1 (en) | 2000-02-18 | 2003-11-11 | Mitsubish Electric Research Laboratories, Inc. | Method for designing optimal single pointer predictive keyboards and apparatus therefore |
US6922810B1 (en) | 2000-03-07 | 2005-07-26 | Microsoft Corporation | Grammar-based automatic data completion and suggestion for user input |
US7107204B1 (en) | 2000-04-24 | 2006-09-12 | Microsoft Corporation | Computer-aided writing system and method with cross-language writing wizard |
AU2001270420A1 (en) | 2000-07-21 | 2002-02-05 | Raphael Bachmann | Method for a high-speed writing system and high-speed writing device |
US20050195173A1 (en) | 2001-08-30 | 2005-09-08 | Mckay Brent | User Interface for Large-Format Interactive Display Systems |
CA2323856A1 (en) | 2000-10-18 | 2002-04-18 | 602531 British Columbia Ltd. | Method, system and media for entering data in a personal computing device |
US6891551B2 (en) | 2000-11-10 | 2005-05-10 | Microsoft Corporation | Selection handles in editing electronic documents |
US6577296B2 (en) | 2000-11-14 | 2003-06-10 | Vega Vista, Inc. | Fixed cursor |
US7318019B1 (en) | 2000-11-17 | 2008-01-08 | Semantic Compaction Systems | Word output device and matrix keyboard for use therein |
US6696985B2 (en) | 2001-04-24 | 2004-02-24 | International Business Machines Corporation | Reformable keyboard with variable key design |
US20050024341A1 (en) | 2001-05-16 | 2005-02-03 | Synaptics, Inc. | Touch screen with user interface enhancement |
US20090040184A9 (en) | 2001-10-04 | 2009-02-12 | Infogation Corporation | Information entry mechanism |
GB2380583A (en) | 2001-10-04 | 2003-04-09 | Ilam Samson | Touch pad/screen for electronic equipment |
FI115254B (fi) | 2001-12-20 | 2005-03-31 | Nokia Corp | Kosketusnäytön käyttäminen osoitinvälineellä |
US7394346B2 (en) | 2002-01-15 | 2008-07-01 | International Business Machines Corporation | Free-space gesture recognition for transaction security and command processing |
JP4073215B2 (ja) | 2002-01-28 | 2008-04-09 | 富士通株式会社 | 文字入力装置 |
US20030182279A1 (en) | 2002-03-19 | 2003-09-25 | Willows Kevin John | Progressive prefix input method for data entry |
FI20021655A (fi) | 2002-06-19 | 2003-12-20 | Nokia Corp | Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite |
US8583440B2 (en) | 2002-06-20 | 2013-11-12 | Tegic Communications, Inc. | Apparatus and method for providing visual indication of character ambiguity during text entry |
US7259752B1 (en) | 2002-06-28 | 2007-08-21 | Microsoft Corporation | Method and system for editing electronic ink |
US7061403B2 (en) | 2002-07-03 | 2006-06-13 | Research In Motion Limited | Apparatus and method for input of ideographic Korean syllables from reduced keyboard |
US7216588B2 (en) | 2002-07-12 | 2007-05-15 | Dana Suess | Modified-qwerty letter layout for rapid data entry |
US20040111475A1 (en) | 2002-12-06 | 2004-06-10 | International Business Machines Corporation | Method and apparatus for selectively identifying misspelled character strings in electronic communications |
JP2004213269A (ja) | 2002-12-27 | 2004-07-29 | Toshiba Corp | 文字入力装置 |
US7194699B2 (en) | 2003-01-14 | 2007-03-20 | Microsoft Corporation | Animating images to reflect user selection |
US7382358B2 (en) | 2003-01-16 | 2008-06-03 | Forword Input, Inc. | System and method for continuous stroke word-based text input |
US7098896B2 (en) | 2003-01-16 | 2006-08-29 | Forword Input Inc. | System and method for continuous stroke word-based text input |
US20040153963A1 (en) | 2003-02-05 | 2004-08-05 | Simpson Todd G. | Information entry mechanism for small keypads |
US7136047B2 (en) | 2003-04-09 | 2006-11-14 | Microsoft Corporation | Software multi-tap input system and method |
US7230607B2 (en) | 2003-06-12 | 2007-06-12 | Katsuyasu Ono | 6-key keyboard for touch typing |
WO2005008899A1 (en) | 2003-07-17 | 2005-01-27 | Xrgomics Pte Ltd | Letter and word choice text input method for keyboards and reduced keyboard systems |
US7533351B2 (en) | 2003-08-13 | 2009-05-12 | International Business Machines Corporation | Method, apparatus, and program for dynamic expansion and overlay of controls |
US7499040B2 (en) | 2003-08-18 | 2009-03-03 | Apple Inc. | Movable touch pad with added functionality |
KR100537280B1 (ko) | 2003-10-29 | 2005-12-16 | 삼성전자주식회사 | 휴대용 단말기에서 터치스크린을 이용한 문자 입력 장치및 방법 |
JP2005202527A (ja) | 2004-01-14 | 2005-07-28 | Fujitsu Component Ltd | 入力装置およびユーザー認証方法 |
WO2005069159A1 (en) | 2004-01-14 | 2005-07-28 | Aroop Kumar Banerjee | Method of data entry for indic languages |
US8042056B2 (en) | 2004-03-16 | 2011-10-18 | Leica Geosystems Ag | Browsers for large geometric data visualization |
US20090240949A9 (en) | 2004-04-23 | 2009-09-24 | Kitchens Fred L | Identity authentication based on keystroke latencies using a genetic adaptive neural network |
US7439959B2 (en) | 2004-07-30 | 2008-10-21 | Research In Motion Limited | Key arrangement for a keyboard |
US20060176283A1 (en) | 2004-08-06 | 2006-08-10 | Daniel Suraqui | Finger activated reduced keyboard and a method for performing text input |
US8276099B2 (en) | 2004-09-28 | 2012-09-25 | David Arthur Yost | System of GUI text cursor, caret, and selection |
US7561145B2 (en) | 2005-03-18 | 2009-07-14 | Microsoft Corporation | Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface |
GB0505941D0 (en) | 2005-03-23 | 2005-04-27 | Patel Sanjay | Human-to-mobile interfaces |
US7680333B2 (en) | 2005-04-21 | 2010-03-16 | Microsoft Corporation | System and method for binary persistence format for a recognition result lattice |
US7487461B2 (en) | 2005-05-04 | 2009-02-03 | International Business Machines Corporation | System and method for issuing commands based on pen motions on a graphical keyboard |
US9606634B2 (en) | 2005-05-18 | 2017-03-28 | Nokia Technologies Oy | Device incorporating improved text input mechanism |
US20090193334A1 (en) * | 2005-05-18 | 2009-07-30 | Exb Asset Management Gmbh | Predictive text input system and method involving two concurrent ranking means |
US8036878B2 (en) | 2005-05-18 | 2011-10-11 | Never Wall Treuhand GmbH | Device incorporating improved text input mechanism |
EP2109046A1 (de) | 2008-04-07 | 2009-10-14 | ExB Asset Management GmbH | Prädiktives Texteingabesystem und Verfahren mit zwei gleichrangigen Ordnungskriterien |
US7886233B2 (en) | 2005-05-23 | 2011-02-08 | Nokia Corporation | Electronic text input involving word completion functionality for predicting word candidates for partial word inputs |
US8185841B2 (en) | 2005-05-23 | 2012-05-22 | Nokia Corporation | Electronic text input involving a virtual keyboard and word completion functionality on a touch-sensitive display screen |
US9019209B2 (en) | 2005-06-08 | 2015-04-28 | 3M Innovative Properties Company | Touch location determination involving multiple touch location processes |
KR100709320B1 (ko) | 2005-06-17 | 2007-04-20 | 삼성전자주식회사 | 문서 인쇄 방법 및 인쇄 시스템 |
JP4619882B2 (ja) | 2005-07-12 | 2011-01-26 | 株式会社東芝 | 携帯電話およびその遠隔操作方法 |
US7443316B2 (en) | 2005-09-01 | 2008-10-28 | Motorola, Inc. | Entering a character into an electronic device |
US7539472B2 (en) * | 2005-09-13 | 2009-05-26 | Microsoft Corporation | Type-ahead keypad input for an input device |
US20100095238A1 (en) | 2005-09-14 | 2010-04-15 | Gilles Baudet | Device, Method, Computer Program Product and User Interface for Enabling a User to Vary Which Items are displayed to the user |
US7694231B2 (en) * | 2006-01-05 | 2010-04-06 | Apple Inc. | Keyboards for portable electronic devices |
US20090227233A1 (en) | 2005-10-21 | 2009-09-10 | Sanyo Electric Co., Ltd. | Input device for inputting password or the like and mobile telephone having the input device |
KR101027167B1 (ko) | 2005-12-13 | 2011-04-05 | 인터내셔널 비지네스 머신즈 코포레이션 | 자동완성 방법 및 시스템 |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
US7877685B2 (en) | 2005-12-29 | 2011-01-25 | Sap Ag | Persistent adjustable text selector |
US7574672B2 (en) | 2006-01-05 | 2009-08-11 | Apple Inc. | Text entry interface for a portable communication device |
GB0605386D0 (en) | 2006-03-17 | 2006-04-26 | Malvern Scient Solutions Ltd | Character input method |
US20100045705A1 (en) * | 2006-03-30 | 2010-02-25 | Roel Vertegaal | Interaction techniques for flexible displays |
KR100686165B1 (ko) | 2006-04-18 | 2007-02-26 | 엘지전자 주식회사 | 오에스디 기능 아이콘을 갖는 휴대용 단말기 및 이를이용한 오에스디 기능 아이콘의 디스플레이 방법 |
KR100771626B1 (ko) | 2006-04-25 | 2007-10-31 | 엘지전자 주식회사 | 단말기 및 이를 위한 명령 입력 방법 |
JP2007299291A (ja) | 2006-05-01 | 2007-11-15 | Sony Computer Entertainment Inc | 文字入力装置、文字入力方法及びプログラム |
US20070256029A1 (en) | 2006-05-01 | 2007-11-01 | Rpo Pty Llimited | Systems And Methods For Interfacing A User With A Touch-Screen |
KR100813062B1 (ko) | 2006-05-03 | 2008-03-14 | 엘지전자 주식회사 | 휴대용 단말기 및 이를 이용한 텍스트 표시 방법 |
US20070263932A1 (en) | 2006-05-12 | 2007-11-15 | Waterloo Maple Inc. | System and method of gesture feature recognition |
US20070271466A1 (en) | 2006-05-18 | 2007-11-22 | Genevieve Mak | Security or authentication system and method using manual input measurements, such as via user manipulation of a computer mouse |
US7661068B2 (en) | 2006-06-12 | 2010-02-09 | Microsoft Corporation | Extended eraser functions |
US20080141125A1 (en) | 2006-06-23 | 2008-06-12 | Firooz Ghassabian | Combined data entry systems |
US20080033713A1 (en) | 2006-07-10 | 2008-02-07 | Sony Ericsson Mobile Communications Ab | Predicting entered text |
US7934156B2 (en) | 2006-09-06 | 2011-04-26 | Apple Inc. | Deletion gestures on a portable multifunction device |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US7941760B2 (en) | 2006-09-06 | 2011-05-10 | Apple Inc. | Soft keyboard display for a portable multifunction device |
US7856605B2 (en) | 2006-10-26 | 2010-12-21 | Apple Inc. | Method, system, and graphical user interface for positioning an insertion marker in a touch screen display |
US8022934B2 (en) | 2006-10-31 | 2011-09-20 | Research In Motion Limited | Handheld electronic device with text disambiguation and selective disabling of frequency learning |
KR20090098967A (ko) | 2006-11-08 | 2009-09-18 | 큐빅 디자인 스튜디오스 엘엘씨 | 비대칭 섞임 키보드 |
KR20080041856A (ko) | 2006-11-08 | 2008-05-14 | 팅크웨어(주) | 메뉴 표시 방법 |
US7900145B2 (en) | 2006-11-08 | 2011-03-01 | Yahoo! Inc. | System and method for synchronizing data |
US7692629B2 (en) | 2006-12-07 | 2010-04-06 | Microsoft Corporation | Operating touch screen interfaces |
US8125312B2 (en) | 2006-12-08 | 2012-02-28 | Research In Motion Limited | System and method for locking and unlocking access to an electronic device |
EP1939715B1 (de) | 2006-12-29 | 2011-01-26 | Research In Motion Limited | Tragbare elektronische Vorrichtung mit Eingabebestätigung und entsprechendes Verfahren |
US8115658B2 (en) * | 2006-12-29 | 2012-02-14 | Research In Motion Limited | Handheld electronic device providing confirmation of input, and associated method |
US8074172B2 (en) | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
US8665225B2 (en) | 2007-01-07 | 2014-03-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture |
US7978176B2 (en) | 2007-01-07 | 2011-07-12 | Apple Inc. | Portrait-landscape rotation heuristics for a portable multifunction device |
US8607144B2 (en) | 2007-01-08 | 2013-12-10 | Apple Inc. | Monitor configuration for media device |
US20090213081A1 (en) | 2007-01-10 | 2009-08-27 | Case Jr Charlie W | Portable Electronic Device Touchpad Input Controller |
US8311530B2 (en) | 2007-01-26 | 2012-11-13 | Research In Motion Limited | Touch entry of password on a mobile device |
US8225203B2 (en) | 2007-02-01 | 2012-07-17 | Nuance Communications, Inc. | Spell-check for a keyboard system with automatic correction |
US8201087B2 (en) | 2007-02-01 | 2012-06-12 | Tegic Communications, Inc. | Spell-check for a keyboard system with automatic correction |
US7912700B2 (en) | 2007-02-08 | 2011-03-22 | Microsoft Corporation | Context based word prediction |
CA2581824A1 (en) | 2007-03-14 | 2008-09-14 | 602531 British Columbia Ltd. | System, apparatus and method for data entry using multi-function keys |
CN101021762A (zh) | 2007-03-26 | 2007-08-22 | 宇龙计算机通信科技(深圳)有限公司 | 触摸屏的锁定装置及方法 |
US20100295801A1 (en) | 2007-04-10 | 2010-11-25 | Nokia Corporation | Electronic devices |
CN101641665B (zh) | 2007-04-12 | 2013-02-06 | 诺基亚公司 | 键区 |
US20080266261A1 (en) | 2007-04-25 | 2008-10-30 | Idzik Jacek S | Keystroke Error Correction Method |
US8130202B2 (en) | 2007-05-01 | 2012-03-06 | International Business Machines Corporation | Infrared touch screen gated by touch force |
CA2686601C (en) | 2007-05-07 | 2016-10-04 | Fourthwall Media | Providing personalized resources on-demand over a broadband network to consumer device applications |
US8018441B2 (en) | 2007-06-11 | 2011-09-13 | Samsung Electronics Co., Ltd. | Character input apparatus and method for automatically switching input mode in terminal having touch screen |
JP4775332B2 (ja) | 2007-06-14 | 2011-09-21 | ブラザー工業株式会社 | 画像選択装置および画像選択方法 |
US7970438B2 (en) | 2007-06-19 | 2011-06-28 | Lg Electronics Inc. | Mobile terminal and keypad control method |
US8059101B2 (en) | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
US8009146B2 (en) | 2007-06-28 | 2011-08-30 | Nokia Corporation | Method, apparatus and computer program product for facilitating data entry via a touchscreen |
US8065624B2 (en) | 2007-06-28 | 2011-11-22 | Panasonic Corporation | Virtual keypad systems and methods |
US8127254B2 (en) | 2007-06-29 | 2012-02-28 | Nokia Corporation | Unlocking a touch screen device |
US8365282B2 (en) | 2007-07-18 | 2013-01-29 | Research In Motion Limited | Security system based on input shortcuts for a computer device |
US20090044124A1 (en) | 2007-08-06 | 2009-02-12 | Nokia Corporation | Method, apparatus and computer program product for facilitating data entry using an offset connection element |
WO2009028889A2 (en) | 2007-08-28 | 2009-03-05 | Mobience, Inc. | Key input interface method |
US20090058823A1 (en) * | 2007-09-04 | 2009-03-05 | Apple Inc. | Virtual Keyboards in Multi-Language Environment |
US8661340B2 (en) | 2007-09-13 | 2014-02-25 | Apple Inc. | Input methods for device having multi-language environment |
CN100592249C (zh) | 2007-09-21 | 2010-02-24 | 上海汉翔信息技术有限公司 | 快速输入相关词的方法 |
US8125458B2 (en) | 2007-09-28 | 2012-02-28 | Microsoft Corporation | Detecting finger orientation on a touch-sensitive device |
EP2045700A1 (de) | 2007-10-04 | 2009-04-08 | LG Electronics Inc. | Menüanzeigeverfahren für ein Mobilkommunikationsendgerät |
US20090125848A1 (en) | 2007-11-14 | 2009-05-14 | Susann Marie Keohane | Touch surface-sensitive edit system |
US7870164B2 (en) | 2007-11-20 | 2011-01-11 | Microsoft Corporation | Database part creation, merge and reuse |
US20110035696A1 (en) | 2007-11-20 | 2011-02-10 | Avi Elazari | Character input system for limited keyboards |
US20090144667A1 (en) | 2007-11-30 | 2009-06-04 | Nokia Corporation | Apparatus, method, computer program and user interface for enabling user input |
JP2009139544A (ja) | 2007-12-05 | 2009-06-25 | Denso Corp | 入力装置 |
CN101464741B (zh) | 2007-12-19 | 2011-12-07 | 联想(北京)有限公司 | 触摸板、触摸板使用方法以及具有触摸板的笔记本电脑 |
US8610671B2 (en) | 2007-12-27 | 2013-12-17 | Apple Inc. | Insertion marker placement on touch sensitive display |
TWI420344B (zh) | 2007-12-31 | 2013-12-21 | Htc Corp | 切換觸碰鍵盤的方法以及使用此方法的手持電子裝置與儲存媒體 |
US8232973B2 (en) | 2008-01-09 | 2012-07-31 | Apple Inc. | Method, device, and graphical user interface providing word recommendations for text input |
US8201109B2 (en) | 2008-03-04 | 2012-06-12 | Apple Inc. | Methods and graphical user interfaces for editing on a portable multifunction device |
US8289283B2 (en) | 2008-03-04 | 2012-10-16 | Apple Inc. | Language input interface on a device |
US8650507B2 (en) | 2008-03-04 | 2014-02-11 | Apple Inc. | Selecting of text using gestures |
US8358277B2 (en) | 2008-03-18 | 2013-01-22 | Microsoft Corporation | Virtual keyboard based activation and dismissal |
US8228300B2 (en) | 2008-03-28 | 2012-07-24 | Sprint Communications Company L.P. | Physical feedback to indicate object directional slide |
JP2009245239A (ja) | 2008-03-31 | 2009-10-22 | Sony Corp | ポインタ表示装置、ポインタ表示検出方法、ポインタ表示検出プログラム及び情報機器 |
US20090254818A1 (en) | 2008-04-03 | 2009-10-08 | International Business Machines Corporation | Method, system and user interface for providing inline spelling assistance |
TWI361613B (en) | 2008-04-16 | 2012-04-01 | Htc Corp | Mobile electronic device, method for entering screen lock state and recording medium thereof |
CN101266520B (zh) | 2008-04-18 | 2013-03-27 | 上海触乐信息科技有限公司 | 一种可实现灵活键盘布局的系统 |
US8949743B2 (en) | 2008-04-22 | 2015-02-03 | Apple Inc. | Language input interface on a device |
US20090267909A1 (en) | 2008-04-27 | 2009-10-29 | Htc Corporation | Electronic device and user interface display method thereof |
JP2009288873A (ja) | 2008-05-27 | 2009-12-10 | Ntt Docomo Inc | 携帯端末及び文字入力方法 |
US9355090B2 (en) | 2008-05-30 | 2016-05-31 | Apple Inc. | Identification of candidate characters for text input |
CN101604216B (zh) | 2008-06-10 | 2012-11-21 | 鸿富锦精密工业(深圳)有限公司 | 密码保护方法 |
DE602008005428D1 (de) | 2008-06-11 | 2011-04-21 | Exb Asset Man Gmbh | Vorrichtung und Verfahren mit verbessertem Texteingabemechanismus |
US8683582B2 (en) | 2008-06-16 | 2014-03-25 | Qualcomm Incorporated | Method and system for graphical passcode security |
JP4632102B2 (ja) | 2008-07-17 | 2011-02-16 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US20100020033A1 (en) | 2008-07-23 | 2010-01-28 | Obinna Ihenacho Alozie Nwosu | System, method and computer program product for a virtual keyboard |
US20100020036A1 (en) | 2008-07-23 | 2010-01-28 | Edward Hui | Portable electronic device and method of controlling same |
EP2149837A1 (de) | 2008-07-29 | 2010-02-03 | Samsung Electronics Co., Ltd. | Verfahren und System zum Hervorheben von Objekten |
US20100070908A1 (en) | 2008-09-18 | 2010-03-18 | Sun Microsystems, Inc. | System and method for accepting or rejecting suggested text corrections |
JP2010079441A (ja) | 2008-09-24 | 2010-04-08 | Sharp Corp | 携帯端末、ソフトウェアキーボード表示方法、及びソフトウェアキーボード表示プログラム |
WO2010035574A1 (ja) | 2008-09-29 | 2010-04-01 | シャープ株式会社 | 入力装置、入力方法、プログラム、および記録媒体 |
US20100079413A1 (en) | 2008-09-29 | 2010-04-01 | Denso Corporation | Control device |
EP2344946A1 (de) | 2008-10-07 | 2011-07-20 | Tiki'labs | Verfahren und einrichtung zum steuern eines eingebens von daten |
KR20100042976A (ko) | 2008-10-17 | 2010-04-27 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
JP5371371B2 (ja) | 2008-10-29 | 2013-12-18 | 京セラ株式会社 | 携帯端末および文字表示プログラム |
CN101533403B (zh) | 2008-11-07 | 2010-12-01 | 广东国笔科技股份有限公司 | 一种派生词生成方法及系统 |
US9501694B2 (en) | 2008-11-24 | 2016-11-22 | Qualcomm Incorporated | Pictorial methods for application selection and activation |
EP2350779A4 (de) | 2008-11-25 | 2018-01-10 | Jeffrey R. Spetalnick | Verfahren und systeme für verbesserte dateneingabe, komprimierung, erkennung, korrektur und übersetzung durch sprachanalyse auf frequenzbasis |
KR20100060192A (ko) | 2008-11-27 | 2010-06-07 | 삼성전자주식회사 | 휴대 단말 장치의 방향 센서를 이용한 잠금 기능 제어 장치및 방법 |
US9041660B2 (en) | 2008-12-09 | 2015-05-26 | Microsoft Technology Licensing, Llc | Soft keyboard control |
US8451236B2 (en) | 2008-12-22 | 2013-05-28 | Hewlett-Packard Development Company L.P. | Touch-sensitive display screen with absolute and relative input modes |
US20100161538A1 (en) | 2008-12-22 | 2010-06-24 | Kennedy Jr Thomas William | Device for user input |
US8686952B2 (en) | 2008-12-23 | 2014-04-01 | Apple Inc. | Multi touch with multi haptics |
US8326358B2 (en) | 2009-01-30 | 2012-12-04 | Research In Motion Limited | System and method for access control in a portable electronic device |
EP2400426B1 (de) | 2009-01-30 | 2013-03-13 | Research In Motion Limited | System und Verfahren für die Zugriffssteuerung in einer tragbaren elektronischen Vorrichtung |
US20100199176A1 (en) | 2009-02-02 | 2010-08-05 | Chronqvist Fredrik A | Electronic device with text prediction function and method |
KR20120006976A (ko) | 2009-02-04 | 2012-01-19 | 베냐민 피루쯔 가사비안 | 데이타입력시스템 |
US8605039B2 (en) * | 2009-03-06 | 2013-12-10 | Zimpl Ab | Text input |
US8370736B2 (en) | 2009-03-16 | 2013-02-05 | Apple Inc. | Methods and graphical user interfaces for editing on a multifunction device with a touch screen display |
US8294680B2 (en) | 2009-03-27 | 2012-10-23 | Sony Mobile Communications Ab | System and method for touch-based text entry |
GB0905457D0 (en) | 2009-03-30 | 2009-05-13 | Touchtype Ltd | System and method for inputting text into electronic devices |
US8539382B2 (en) | 2009-04-03 | 2013-09-17 | Palm, Inc. | Preventing unintentional activation and/or input in an electronic device |
US9213477B2 (en) | 2009-04-07 | 2015-12-15 | Tara Chand Singhal | Apparatus and method for touch screen user interface for handheld electric devices part II |
US20100259482A1 (en) | 2009-04-10 | 2010-10-14 | Microsoft Corporation | Keyboard gesturing |
US8300023B2 (en) | 2009-04-10 | 2012-10-30 | Qualcomm Incorporated | Virtual keypad generator with learning capabilities |
KR101537706B1 (ko) | 2009-04-16 | 2015-07-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US20100265181A1 (en) | 2009-04-20 | 2010-10-21 | ShoreCap LLC | System, method and computer readable media for enabling a user to quickly identify and select a key on a touch screen keypad by easing key selection |
CN101876878A (zh) | 2009-04-29 | 2010-11-03 | 深圳富泰宏精密工业有限公司 | 单词预测输入系统及方法 |
US8739055B2 (en) | 2009-05-07 | 2014-05-27 | Microsoft Corporation | Correction of typographical errors on touch displays |
US20100293475A1 (en) | 2009-05-12 | 2010-11-18 | International Business Machines Corporation | Notification of additional recipients of email messages |
JP5158014B2 (ja) | 2009-05-21 | 2013-03-06 | ソニー株式会社 | 表示制御装置、表示制御方法およびコンピュータプログラム |
US8856649B2 (en) | 2009-06-08 | 2014-10-07 | Business Objects Software Limited | Aggregation level and measure based hinting and selection of cells in a data display |
US20100313158A1 (en) | 2009-06-08 | 2010-12-09 | Lg Electronics Inc. | Method for editing data in mobile terminal and mobile terminal using the same |
US20100315266A1 (en) | 2009-06-15 | 2010-12-16 | Microsoft Corporation | Predictive interfaces with usability constraints |
US8458485B2 (en) | 2009-06-17 | 2013-06-04 | Microsoft Corporation | Image-based unlock functionality on a computing device |
US20100333027A1 (en) | 2009-06-26 | 2010-12-30 | Sony Ericsson Mobile Communications Ab | Delete slider mechanism |
WO2010149224A1 (en) | 2009-06-26 | 2010-12-29 | Nokia Corporation | Method, apparatus and computer program code handling a user input |
US9189156B2 (en) | 2009-07-14 | 2015-11-17 | Howard Gutowitz | Keyboard comprising swipe-switches performing keyboard actions |
US20110018812A1 (en) | 2009-07-21 | 2011-01-27 | Cisco Technology, Inc. | Fast Typographical Error Correction for Touchscreen Keyboards |
US20110029862A1 (en) | 2009-07-30 | 2011-02-03 | Research In Motion Limited | System and method for context based predictive text entry assistance |
EP2282252A1 (de) | 2009-07-31 | 2011-02-09 | France Telecom | Verfahren und Vorrichtung zur Umwandlung einer Zeichenfolgeneingabe |
US20110041056A1 (en) | 2009-08-14 | 2011-02-17 | Research In Motion Limited | Electronic device with touch-sensitive display and method of facilitating input at the electronic device |
US8531410B2 (en) | 2009-08-18 | 2013-09-10 | Fuji Xerox Co., Ltd. | Finger occlusion avoidance on touch display devices |
WO2011025200A2 (ko) | 2009-08-23 | 2011-03-03 | (주)티피다시아이 | 확장키를 이용한 정보입력시스템 및 정보입력방법 |
US9262063B2 (en) | 2009-09-02 | 2016-02-16 | Amazon Technologies, Inc. | Touch-screen user interface |
TW201109990A (en) | 2009-09-04 | 2011-03-16 | Higgstec Inc | Touch gesture detecting method of a touch panel |
US20110060984A1 (en) | 2009-09-06 | 2011-03-10 | Lee Yung-Chao | Method and apparatus for word prediction of text input by assigning different priorities to words on a candidate word list according to how many letters have been entered so far by a user |
US9317116B2 (en) | 2009-09-09 | 2016-04-19 | Immersion Corporation | Systems and methods for haptically-enhanced text interfaces |
US20110063231A1 (en) | 2009-09-14 | 2011-03-17 | Invotek, Inc. | Method and Device for Data Input |
US8516367B2 (en) | 2009-09-29 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity weighted predictive key entry |
US9122393B2 (en) | 2009-09-30 | 2015-09-01 | At&T Mobility Ii Llc | Predictive sensitized keypad |
US8812972B2 (en) * | 2009-09-30 | 2014-08-19 | At&T Intellectual Property I, L.P. | Dynamic generation of soft keyboards for mobile devices |
WO2011044664A1 (en) | 2009-10-14 | 2011-04-21 | Research In Motion Limited | Touch-input determination based on relative distances of contact |
DE212010000169U1 (de) * | 2009-10-26 | 2012-07-26 | Google, Inc. | Prädiktive Texteingabe für Eingabeeinrichtungen |
US8627224B2 (en) | 2009-10-27 | 2014-01-07 | Qualcomm Incorporated | Touch screen keypad layout |
EP2320312A1 (de) | 2009-11-10 | 2011-05-11 | Research In Motion Limited | Tragbare elektronische Vorrichtung und Steuerverfahren dafür |
KR101595029B1 (ko) | 2009-11-18 | 2016-02-17 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
TW201122890A (en) | 2009-12-18 | 2011-07-01 | Best Solution Technology Inc | Touch-control lock operated according to gesture or figure. |
JP2013515295A (ja) | 2009-12-20 | 2013-05-02 | キーレス システムズ リミテッド | データ入力システムおよびその方法 |
KR20110071612A (ko) | 2009-12-21 | 2011-06-29 | 삼성전자주식회사 | 화상형성장치 및 그 문자 입력방법 |
US20110171617A1 (en) | 2010-01-11 | 2011-07-14 | Ideographix, Inc. | System and method for teaching pictographic languages |
US20110179355A1 (en) | 2010-01-15 | 2011-07-21 | Sony Ericsson Mobile Communications Ab | Virtual information input arrangement |
US8782556B2 (en) | 2010-02-12 | 2014-07-15 | Microsoft Corporation | User-centric soft keyboard predictive technologies |
US20110202835A1 (en) | 2010-02-13 | 2011-08-18 | Sony Ericsson Mobile Communications Ab | Item selection method for touch screen devices |
KR101557358B1 (ko) | 2010-02-25 | 2015-10-06 | 엘지전자 주식회사 | 문자열 입력 방법 및 그 장치 |
EP2545426A4 (de) | 2010-03-12 | 2017-05-17 | Nuance Communications, Inc. | Multimodales texteingabesystem, wie etwa zur verwendung mit berührungsbildschirmen auf mobiltelefonen |
JP5556270B2 (ja) * | 2010-03-17 | 2014-07-23 | 富士通株式会社 | 候補表示装置および候補表示方法 |
US9292161B2 (en) | 2010-03-24 | 2016-03-22 | Microsoft Technology Licensing, Llc | Pointer tool with touch-enabled precise placement |
CN102202130A (zh) | 2010-03-25 | 2011-09-28 | 鸿富锦精密工业(深圳)有限公司 | 具有解锁和锁定功能的电子装置及其解锁和锁定方法 |
US20110242138A1 (en) | 2010-03-31 | 2011-10-06 | Tribble Guy L | Device, Method, and Graphical User Interface with Concurrent Virtual Keyboards |
US8941706B2 (en) | 2010-04-07 | 2015-01-27 | Apple Inc. | Image processing for a dual camera mobile device |
KR101642725B1 (ko) | 2010-04-14 | 2016-08-11 | 삼성전자 주식회사 | 휴대 단말기의 잠금 기능 운용 방법 및 장치 |
EP2381384B1 (de) | 2010-04-21 | 2019-02-27 | BlackBerry Limited | Verfahren zur Bereitstellung von Sicherheit in einem tragbaren elektronischen Gerät mit einer berührungsempfindlichen Anzeige |
DE102010020474A1 (de) | 2010-05-14 | 2011-11-17 | Deutsche Telekom Ag | Touch Screen Bildschirm mit Funktionsverriegelung |
US20110285656A1 (en) | 2010-05-19 | 2011-11-24 | Google Inc. | Sliding Motion To Change Computer Keys |
US20110302518A1 (en) | 2010-06-07 | 2011-12-08 | Google Inc. | Selecting alternate keyboard characters via motion input |
US20110305494A1 (en) | 2010-06-11 | 2011-12-15 | Chulho Kang | Portable and ease-of-use ergonomic keyboard |
KR101694154B1 (ko) | 2010-06-29 | 2017-01-09 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
JP5573457B2 (ja) | 2010-07-23 | 2014-08-20 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US20120030566A1 (en) | 2010-07-28 | 2012-02-02 | Victor B Michael | System with touch-based selection of data items |
US8918734B2 (en) * | 2010-07-28 | 2014-12-23 | Nuance Communications, Inc. | Reduced keyboard with prediction solutions when input is a partial sliding trajectory |
US8799815B2 (en) | 2010-07-30 | 2014-08-05 | Apple Inc. | Device, method, and graphical user interface for activating an item in a folder |
US20120030624A1 (en) | 2010-07-30 | 2012-02-02 | Migos Charles J | Device, Method, and Graphical User Interface for Displaying Menus |
JP5510185B2 (ja) | 2010-08-20 | 2014-06-04 | ソニー株式会社 | 情報処理装置、プログラム及び表示制御方法 |
US8904311B2 (en) | 2010-09-01 | 2014-12-02 | Nokia Corporation | Method, apparatus, and computer program product for implementing a variable content movable control |
US9122318B2 (en) | 2010-09-15 | 2015-09-01 | Jeffrey R. Spetalnick | Methods of and systems for reducing keyboard data entry errors |
US20120068937A1 (en) | 2010-09-16 | 2012-03-22 | Sony Ericsson Mobile Communications Ab | Quick input language/virtual keyboard/ language dictionary change on a touch screen device |
KR101178294B1 (ko) | 2010-09-20 | 2012-08-29 | 진병욱 | 슬라이딩 삭제키 또는 역삭제키를 포함하는 키보드 |
JP5657973B2 (ja) | 2010-09-24 | 2015-01-21 | Necエンベデッドプロダクツ株式会社 | 情報処理装置、選択文字表示方法及びプログラム |
US8516386B2 (en) | 2010-09-29 | 2013-08-20 | Apple Inc. | Scrolling virtual music keyboard |
KR101688944B1 (ko) | 2010-10-01 | 2016-12-22 | 엘지전자 주식회사 | 키보드 제어 장치 및 그 방법 |
US9027117B2 (en) | 2010-10-04 | 2015-05-05 | Microsoft Technology Licensing, Llc | Multiple-access-level lock screen |
JP5782699B2 (ja) | 2010-10-15 | 2015-09-24 | ソニー株式会社 | 情報処理装置、情報処理装置の入力制御方法及びプログラム |
US20120102401A1 (en) | 2010-10-25 | 2012-04-26 | Nokia Corporation | Method and apparatus for providing text selection |
US9104306B2 (en) | 2010-10-29 | 2015-08-11 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Translation of directional input to gesture |
US9141285B2 (en) | 2010-11-05 | 2015-09-22 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
GB2485999A (en) | 2010-11-30 | 2012-06-06 | St Microelectronics Res & Dev | Optical keyboard each key recognising multiple different inputs |
WO2012076743A1 (en) | 2010-12-08 | 2012-06-14 | Nokia Corporation | An apparatus and associated methods for text entry |
US20120167009A1 (en) | 2010-12-22 | 2012-06-28 | Apple Inc. | Combining timing and geometry information for typing correction |
US20120200514A1 (en) | 2011-02-07 | 2012-08-09 | Allen James M | Graphical Caregiver Interface With Swipe to Unlock Feature |
US20120223959A1 (en) | 2011-03-01 | 2012-09-06 | Apple Inc. | System and method for a touchscreen slider with toggle control |
US20120249595A1 (en) | 2011-03-31 | 2012-10-04 | Feinstein David Y | Area selection for hand held devices with display |
US10222974B2 (en) | 2011-05-03 | 2019-03-05 | Nokia Technologies Oy | Method and apparatus for providing quick access to device functionality |
US8656315B2 (en) | 2011-05-27 | 2014-02-18 | Google Inc. | Moving a graphical selector |
US8661339B2 (en) | 2011-05-31 | 2014-02-25 | Apple Inc. | Devices, methods, and graphical user interfaces for document manipulation |
CN105955617B (zh) | 2011-06-03 | 2019-07-12 | 谷歌有限责任公司 | 用于选择文本的手势 |
US20130007606A1 (en) | 2011-06-30 | 2013-01-03 | Nokia Corporation | Text deletion |
US9746995B2 (en) | 2011-07-14 | 2017-08-29 | Microsoft Technology Licensing, Llc | Launcher for context based menus |
US20130050222A1 (en) | 2011-08-25 | 2013-02-28 | Dov Moran | Keyboard with embedded display |
US20130067411A1 (en) | 2011-09-08 | 2013-03-14 | Google Inc. | User gestures indicating rates of execution of functions |
US9262076B2 (en) | 2011-09-12 | 2016-02-16 | Microsoft Technology Licensing, Llc | Soft keyboard interface |
US9785251B2 (en) | 2011-09-14 | 2017-10-10 | Apple Inc. | Actuation lock for a touch sensitive mechanical keyboard |
US20130080962A1 (en) | 2011-09-26 | 2013-03-28 | Mahmoud Razzaghi | Touch screen alpha numeric keyboard |
US20130104068A1 (en) | 2011-10-20 | 2013-04-25 | Microsoft Corporation | Text prediction key |
US20130120268A1 (en) | 2011-11-10 | 2013-05-16 | Research In Motion Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US8490008B2 (en) | 2011-11-10 | 2013-07-16 | Research In Motion Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9652448B2 (en) | 2011-11-10 | 2017-05-16 | Blackberry Limited | Methods and systems for removing or replacing on-keyboard prediction candidates |
US9715489B2 (en) | 2011-11-10 | 2017-07-25 | Blackberry Limited | Displaying a prediction candidate after a typing mistake |
US9122672B2 (en) | 2011-11-10 | 2015-09-01 | Blackberry Limited | In-letter word prediction for virtual keyboard |
US9310889B2 (en) | 2011-11-10 | 2016-04-12 | Blackberry Limited | Touchscreen keyboard predictive display and generation of a set of characters |
EP2618248B1 (de) | 2012-01-19 | 2017-08-16 | BlackBerry Limited | Virtuelle Tastatur zum Bereitstellen einer Anzeige von empfangener Eingabe |
US9557913B2 (en) | 2012-01-19 | 2017-01-31 | Blackberry Limited | Virtual keyboard display having a ticker proximate to the virtual keyboard |
DE112012000189B4 (de) | 2012-02-24 | 2023-06-15 | Blackberry Limited | Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben |
US20130222255A1 (en) | 2012-02-24 | 2013-08-29 | Research In Motion Limited | Portable electronic device including touch-sensitive display and method of controlling same |
US9223497B2 (en) | 2012-03-16 | 2015-12-29 | Blackberry Limited | In-context word prediction and word correction |
US20130271385A1 (en) | 2012-04-16 | 2013-10-17 | Research In Motion Limited | Method of Changing Input States |
CA2812457C (en) | 2012-04-16 | 2017-03-21 | Research In Motion Limited | Method and device having touchscreen keyboard with visual cues |
US9201510B2 (en) | 2012-04-16 | 2015-12-01 | Blackberry Limited | Method and device having touchscreen keyboard with visual cues |
EP2653955B1 (de) | 2012-04-16 | 2017-02-08 | BlackBerry Limited | Verfahren und Vorrichtung mit Berührungsbildschirmtastatur mit visuellen Hinweisen |
CA2813393C (en) | 2012-04-30 | 2019-10-22 | Research In Motion Limited | Touchscreen keyboard providing word predictions at locations in association with candidate letters |
US9292192B2 (en) | 2012-04-30 | 2016-03-22 | Blackberry Limited | Method and apparatus for text selection |
US10025487B2 (en) | 2012-04-30 | 2018-07-17 | Blackberry Limited | Method and apparatus for text selection |
US9354805B2 (en) | 2012-04-30 | 2016-05-31 | Blackberry Limited | Method and apparatus for text selection |
DE112012000403T5 (de) | 2012-04-30 | 2014-07-31 | Blackberry Limited | Berührungsbildschirm-tastaturmit korrektur von vorher eingegebenem text |
EP2660727B1 (de) | 2012-04-30 | 2016-10-26 | BlackBerry Limited | Verfahren und Vorrichtung zur Textauswahl |
US20130285927A1 (en) | 2012-04-30 | 2013-10-31 | Research In Motion Limited | Touchscreen keyboard with correction of previously input text |
EP2660699A1 (de) | 2012-04-30 | 2013-11-06 | BlackBerry Limited | Berührungsbildschirmtastatur mit Korrektur von vorher eingegebenem Text |
EP2660697B1 (de) | 2012-04-30 | 2017-03-01 | BlackBerry Limited | Verfahren und Vorrichtung zur Textauswahl |
GB2506956A (en) | 2012-04-30 | 2014-04-16 | Blackberry Ltd | Method and apparatus for text selection |
US20130285916A1 (en) | 2012-04-30 | 2013-10-31 | Research In Motion Limited | Touchscreen keyboard providing word predictions at locations in association with candidate letters |
EP2660696B1 (de) | 2012-04-30 | 2014-06-11 | BlackBerry Limited | Verfahren und Vorrichtung zur Textauswahl |
US9207860B2 (en) | 2012-05-25 | 2015-12-08 | Blackberry Limited | Method and apparatus for detecting a gesture |
US20130342452A1 (en) | 2012-06-21 | 2013-12-26 | Research In Motion Limited | Electronic device including touch-sensitive display and method of controlling a position indicator |
EP2680120B1 (de) | 2012-06-27 | 2018-03-21 | BlackBerry Limited | Berührungsbildschirm-tastatur mit auswahl an wortvorhersagen in unterteilungen der berührungsbildschirmtastatur |
US9116552B2 (en) | 2012-06-27 | 2015-08-25 | Blackberry Limited | Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard |
CA2820997C (en) | 2012-07-13 | 2016-10-18 | Research In Motion Limited | Methods and systems for removing or replacing on-keyboard prediction candidates |
US9152319B2 (en) | 2012-07-16 | 2015-10-06 | Avaya Inc. | Method for simplifying a Swype based touch-screen keypad for fast text entry |
EP2703956B1 (de) | 2012-08-31 | 2014-11-26 | BlackBerry Limited | Bewerten von Vorhersagen basierend auf der Tippgeschwindigkeit und Tippsicherheit |
EP2703957B1 (de) | 2012-08-31 | 2018-06-06 | BlackBerry Limited | Verfahren zum Auswählen eines Wortes durch Wischen einer kapazitativen Tastatur |
US9524290B2 (en) | 2012-08-31 | 2016-12-20 | Blackberry Limited | Scoring predictions based on prediction length and typing speed |
US20140063067A1 (en) | 2012-08-31 | 2014-03-06 | Research In Motion Limited | Method to select word by swiping capacitive keyboard |
EP2703955B1 (de) | 2012-08-31 | 2014-11-26 | BlackBerry Limited | Bewertung von Vorhersageergebnissen basierend auf Vorhersagelänge und Eintippgeschwindigkeit |
US9063653B2 (en) | 2012-08-31 | 2015-06-23 | Blackberry Limited | Ranking predictions based on typing speed and typing confidence |
US8850350B2 (en) | 2012-10-16 | 2014-09-30 | Google Inc. | Partial gesture text entry |
KR101380430B1 (ko) | 2012-12-20 | 2014-04-01 | 주식회사 팬택 | 통화 중 편의정보를 제공하는 휴대 단말 및 휴대 단말 상에서 통화 중 편의정보를 제공하는 방법 |
-
2012
- 2012-06-18 DE DE112012000189.3T patent/DE112012000189B4/de active Active
- 2012-06-18 GB GB1306290.6A patent/GB2503968B/en active Active
- 2012-06-18 EP EP12172458.7A patent/EP2631758B1/de active Active
- 2012-06-18 US US13/525,576 patent/US9910588B2/en active Active
- 2012-06-18 CN CN201280003919.5A patent/CN103380407B/zh active Active
- 2012-06-18 WO PCT/CA2012/050405 patent/WO2013123572A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
EP2631758B1 (de) | 2016-11-02 |
GB2503968B (en) | 2021-02-17 |
WO2013123572A1 (en) | 2013-08-29 |
CN103380407B (zh) | 2017-05-03 |
US9910588B2 (en) | 2018-03-06 |
CN103380407A (zh) | 2013-10-30 |
US20130222249A1 (en) | 2013-08-29 |
DE112012000189B4 (de) | 2023-06-15 |
EP2631758A1 (de) | 2013-08-28 |
GB2503968A (en) | 2014-01-15 |
GB201306290D0 (en) | 2013-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112012000189B4 (de) | Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben | |
DE112012000403T5 (de) | Berührungsbildschirm-tastaturmit korrektur von vorher eingegebenem text | |
US9134810B2 (en) | Next letter prediction for virtual keyboard | |
US20180039335A1 (en) | Touchscreen Keyboard Providing Word Predictions at Locations in Association with Candidate Letters | |
US9122672B2 (en) | In-letter word prediction for virtual keyboard | |
US9116552B2 (en) | Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard | |
EP2618248A1 (de) | Virtuelle Tastatur zum Bereitstellen einer Anzeige von empfangener Eingabe | |
EP2680120B1 (de) | Berührungsbildschirm-tastatur mit auswahl an wortvorhersagen in unterteilungen der berührungsbildschirmtastatur | |
CA2813393C (en) | Touchscreen keyboard providing word predictions at locations in association with candidate letters | |
DE112007000122T5 (de) | Tastaturen für tragbare elektronische Vorrichtungen | |
US20130325438A1 (en) | Touchscreen Keyboard with Corrective Word Prediction | |
CA2817262C (en) | Touchscreen keyboard with corrective word prediction | |
US8922492B2 (en) | Device and method of inputting characters | |
WO2017075710A1 (en) | Word typing touchscreen keyboard | |
US20130125035A1 (en) | Virtual keyboard configuration | |
DE112011101748B4 (de) | Prädiktive Anzeige auf einer Berührungsbildschirm-Tastatur und Erzeugung eines Satzes von Zeichen | |
US20150278176A1 (en) | Providing for text entry by a user of a computing device | |
KR101380502B1 (ko) | 터치스크린을 가진 전자기기의 드래그 기반 한글입력장치 및 한글입력방법 | |
CA2812033C (en) | Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters | |
KR102502846B1 (ko) | 터치펜을 이용한 겹벌식 문자 입력 장치 | |
EP2660693B1 (de) | Berührungsbildschirm-Tastatur mit Wortvorhersage an Standorten in Verbindung mit Kandidatenschreiben | |
KR20150088974A (ko) | 키 사용 빈도에 따라 인식 정확도를 높이는 방법을 적용한 qwerty 키패드 | |
DE112012004224T5 (de) | Erfassung einer an die Leertaste angrenzenden Zeicheneingabe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: BLACKBERRY LIMITED, WATERLOO, CA Free format text: FORMER OWNER: RESEARCH IN MOTION LTD., WATERLOO, ONTARIO, CA Effective date: 20131104 Owner name: BLACKBERRY LIMITED, WATERLOO, CA Free format text: FORMER OWNER: RESEARCH IN MOTION LIMITED, WATERLOO, ONTARIO, CA Effective date: 20140925 |
|
R082 | Change of representative |
Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE Effective date: 20140925 Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE Effective date: 20131104 Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE Effective date: 20131104 Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE Effective date: 20140925 |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R081 | Change of applicant/patentee |
Owner name: MALIKIE INNOVATIONS LTD., IE Free format text: FORMER OWNER: BLACKBERRY LIMITED, WATERLOO, ONTARIO, CA |
|
R082 | Change of representative |